KR102171773B1 - Inspection area determination method and visual inspection apparatus using the same - Google Patents

Inspection area determination method and visual inspection apparatus using the same Download PDF

Info

Publication number
KR102171773B1
KR102171773B1 KR1020180126115A KR20180126115A KR102171773B1 KR 102171773 B1 KR102171773 B1 KR 102171773B1 KR 1020180126115 A KR1020180126115 A KR 1020180126115A KR 20180126115 A KR20180126115 A KR 20180126115A KR 102171773 B1 KR102171773 B1 KR 102171773B1
Authority
KR
South Korea
Prior art keywords
color space
images
inspection
composite image
component
Prior art date
Application number
KR1020180126115A
Other languages
Korean (ko)
Other versions
KR20200045264A (en
Inventor
정중기
조훈민
Original Assignee
주식회사 고영테크놀러지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 고영테크놀러지 filed Critical 주식회사 고영테크놀러지
Priority to KR1020180126115A priority Critical patent/KR102171773B1/en
Priority to PCT/KR2019/013878 priority patent/WO2020085758A1/en
Publication of KR20200045264A publication Critical patent/KR20200045264A/en
Application granted granted Critical
Publication of KR102171773B1 publication Critical patent/KR102171773B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques

Abstract

본 발명은 검사 대상의 3차원 외관을 검사하는 검사 장치로서, 상이한 조사각으로 검사 대상에 광을 조사하는 복수의 조명부, 복수의 조명부 각각으로부터의 광이 검사 대상으로부터 반사된 반사광을 결상하여 복수의 이미지를 획득하는 결상부 및 복수의 이미지 중 2개 이상의 이미지들로부터 생성된 합성 이미지(composition image)에서 검사 대상의 검사 영역을 결정하는 처리부를 포함할 수 있다. 처리부는, 합성 이미지의 색공간(color space)을 제1 색공간에서 제2 색공간으로 변환하고, 합성 이미지 내의 픽셀들 중 적어도 하나의 픽셀과 연관된 상기 제2 색공간에서의 좌표를 획득하고, 적어도 하나의 좌표를 형성하는 제2 색공간의 성분들의 값에 기초하여 상기 검사 영역을 결정할 수 있다.The present invention is an inspection apparatus for inspecting a three-dimensional appearance of an inspection object, wherein a plurality of illumination units that irradiate light to an inspection object at different irradiation angles, and light from each of the plurality of illumination units image the reflected light reflected from the inspection object, It may include an imaging unit that acquires an image and a processing unit that determines an inspection area to be inspected from a composition image generated from two or more images of the plurality of images. The processing unit converts a color space of the composite image from a first color space to a second color space, obtains coordinates in the second color space associated with at least one of pixels in the composite image, The inspection area may be determined based on values of components of the second color space forming at least one coordinate.

Description

검사 영역 결정 방법 및 이를 이용하는 외관 검사 장치 {INSPECTION AREA DETERMINATION METHOD AND VISUAL INSPECTION APPARATUS USING THE SAME}Inspection area determination method and visual inspection device using the same {INSPECTION AREA DETERMINATION METHOD AND VISUAL INSPECTION APPARATUS USING THE SAME}

본 발명은 검사 대상의 외관 검사 영역을 결정하는 방법 및 이를 이용하는 외관 검사 장치에 관한 것이다.The present invention relates to a method for determining an appearance inspection area of an inspection object and an appearance inspection apparatus using the same.

제품의 디자인의 중요성이 높아지고, 제품 외관에 흠집, 벌어짐 등의 결함이 있을 경우 소비자들이 민감하게 반응하기 때문에, 제품 외관의 결함을 정확히 검사하는 것이 중요하다. 외관 검사는 사람이 직접 할 수 있다. 그러나 사람이 직접 외관을 검사하면, 검사 시간이 오래 걸릴 수 있고, 검사 과정에서 실수가 발생할 수 있다. 또한, 육안으로 쉽게 파악하기 힘든 미세한 결함이 검사 과정에서 누락될 수도 있다.Since the importance of product design increases, and consumers react sensitively to defects such as scratches or flaws on the product appearance, it is important to accurately inspect the defects on the product appearance. Visual inspection can be done by person. However, if a person directly inspects the exterior, the inspection time may take a long time, and errors may occur in the inspection process. In addition, minute defects that are difficult to grasp with the naked eye may be omitted during the inspection process.

외관 검사의 속도 및 정확성을 높이기 위해서, 외관 검사 장치가 사용될 수 있다. 외관 검사 장치는 검사 대상의 외관을 촬영한 검사용 이미지를 이용하여 외관 검사를 수행할 수 있다. 외관 검사 장치는, 검사용 이미지를 획득한 후, 검사용 이미지 내에서 제품 외관의 검사 영역을 결정하고, 결정된 검사 영역 내에 결함이 있는지 여부를 판단할 수 있다. 따라서, 외관 검사 장치가 정확한 외관 검사를 진행하기 위해서는, 외관 검사 장치가 검사 영역을 정확히 결정하는 것이 우선되어야 한다. 또한, 검사 대상의 제작 시 가공 오차가 있거나 검사 대상이 놓이는 위치나 방향이 균일하지 않아, 검사용 이미지 내의 검사 대상의 형상이나 컬러가 검사 이미지마다 조금 변하더라도, 외관 검사 장치는 이러한 검사 이미지들에서 일관된 검사 영역을 결정할 필요가 있다.In order to increase the speed and accuracy of the visual inspection, a visual inspection device may be used. The appearance inspection apparatus may perform an appearance inspection using an inspection image taken of the appearance of the inspection object. After obtaining the inspection image, the appearance inspection apparatus may determine an inspection area of the appearance of the product within the inspection image and determine whether or not there is a defect in the determined inspection area. Therefore, in order for the visual inspection apparatus to perform an accurate visual inspection, it is necessary for the visual inspection apparatus to accurately determine the inspection area. In addition, even if the shape or color of the inspection object in the inspection image changes slightly for each inspection image because there is a processing error in the production of the inspection object or the position or direction in which the inspection object is placed is not uniform, the appearance inspection apparatus is used in these inspection images. It is necessary to determine a consistent inspection area.

일반적으로 검사 대상의 외관에 관한 정보(예: CAD 정보 등)가 제공되지 않기 때문에, 외관 검사 장치는 외관에 관한 정보를 검사 영역 결정에 이용할 수 없다. 또한, 검사 장치는, 결정된 검사 영역을 외관에 관한 정보로부터 얻은 검사 대상의 각 부분의 형상이나 치수와 비교하여, 결정된 검사 영역이 적절한 지, 일관성을 갖는지 등을 검증하기도 어렵다. 또한, 굴곡지거나 각진 검사 대상의 3차원 외관을 검사할 경우, 2차원 이미지인 검사용 이미지는 검사 대상의 굴곡지거나 각진 부분들을 명확히 구분하여 나타내기 어렵다. 따라서, 외관 검사 장치에서 획득된 검사용 이미지에만 의존하여 정확하고 일관된 검사 영역을 결정하는 것은 쉽지 않다.In general, since information on the appearance of the inspection object (eg, CAD information, etc.) is not provided, the appearance inspection apparatus cannot use the information on the appearance to determine the inspection area. Further, it is difficult for the inspection apparatus to compare the determined inspection area with the shape or dimensions of each part of the inspection object obtained from the information on the appearance to verify whether the determined inspection area is appropriate or has consistency. In addition, when inspecting the three-dimensional appearance of the object to be curved or angled, it is difficult to clearly distinguish the curved or angled portions of the object to be inspected in a two-dimensional image for inspection. Therefore, it is not easy to determine an accurate and consistent inspection area by relying only on the inspection image acquired by the visual inspection apparatus.

특히, 종래에는 외관 검사에 방해가 되는, 검사용 이미지 내의 노이즈를 줄이기 위해서 그레이-스케일 이미지(gray-scale image)가 외관 검사용 이미지로서 주로 사용되었다. 그러나, 그레이-스케일 이미지는 광도(light intensity)와 같은 하나의 픽셀 특성으로 정의되기 때문에, 그레이-스케일 이미지 내의 검사 대상의 형상이나 그레이 레벨이 외부 환경에 따라 달라지기 쉽다. 예를 들어, 검사 대상의 자세 변동, 표면의 반사율 변동, 조명 변동, 이미지 센서의 감도 변동 등에 따라 그레이-스케일 이미지 내의 검사 대상의 그레이 레벨이 달라지기 쉽다. 또한, 결상부의 FOV(field-of-view)가 제한적이므로, 검사용 이미지는 검사 대상의 각 부분을 포함하는 그레이-스케일 이미지들을 연결하여 획득되는데, 이때 이미지들의 연결 지점들이 검사용 이미지 상에 노이즈로서 포함될 수 있다. 따라서, 그레이-스케일 이미지의 그레이 레벨에만 기초하여 그레이-스케일 이미지에 포함된 검사 대상 내에 정확하고 일관된 검사 영역을 결정하는 것이 쉽지 않다.In particular, in the related art, a gray-scale image has been mainly used as an image for appearance inspection in order to reduce noise in the inspection image, which interferes with the appearance inspection. However, since the gray-scale image is defined by one pixel characteristic such as light intensity, the shape or gray level of the inspection object in the gray-scale image is liable to vary depending on the external environment. For example, the gray level of the inspection object in the gray-scale image is liable to vary depending on the posture variation of the inspection object, the reflectance variation of the surface, the illumination variation, and the sensitivity variation of the image sensor. In addition, since the field-of-view (FOV) of the imaging part is limited, the inspection image is acquired by connecting gray-scale images including each part of the inspection object, and the connection points of the images are noise on the inspection image. Can be included as Therefore, it is not easy to determine an accurate and consistent inspection area within the inspection object included in the gray-scale image based only on the gray level of the gray-scale image.

본 발명이 해결하고자 하는 과제는, 검사 대상의 외관 검사용 이미지에서 정확하고 일관된 검사 영역을 결정할 수 있는 방법 및 이를 이용하는 외관 검사 장치를 제공하는 것이다.An object to be solved by the present invention is to provide a method for determining an accurate and consistent inspection area from an image for appearance inspection of an inspection object, and an appearance inspection apparatus using the same.

본 발명의 예시적인 일 실시예에 따른, 검사 대상의 3차원 외관을 검사하는 검사 장치는, 상이한 조사각으로 상기 검사 대상에 광을 조사하는 복수의 조명부, 상기 복수의 조명부 각각으로부터의 상기 광이 상기 검사 대상으로부터 반사된 반사광을 결상하여 복수의 이미지를 획득하는 결상부, 상기 복수의 이미지 중 2개 이상의 이미지들로부터 생성된 합성 이미지(composition image)에서 상기 검사 대상의 검사 영역을 결정하는 처리부를 포함할 수 있다.According to an exemplary embodiment of the present invention, an inspection apparatus for inspecting a three-dimensional appearance of an inspection object includes a plurality of illumination units for irradiating light to the inspection object at different illumination angles, and the light from each of the plurality of illumination units is An imaging unit for obtaining a plurality of images by imaging the reflected light reflected from the inspection object, and a processing unit for determining an inspection area of the inspection object from a composition image generated from two or more images of the plurality of images Can include.

일 실시예에 따르면, 상기 처리부는, 상기 합성 이미지의 색공간(color space)을 제1 색공간에서 제2 색공간으로 변환하고, 상기 변환된 합성 이미지 내의 픽셀들 중 적어도 하나의 픽셀과 연관된 상기 제2 색공간에서의 적어도 하나의 좌표를 획득하고, 상기 적어도 하나의 좌표를 형성하는 상기 제2 색공간의 성분들의 값에 기초하여 상기 검사 영역을 결정할 수 있다.According to an embodiment, the processor converts a color space of the composite image from a first color space to a second color space, and is associated with at least one pixel among pixels in the converted composite image. At least one coordinate in the second color space may be obtained, and the inspection area may be determined based on values of components of the second color space forming the at least one coordinate.

일 실시예에 따르면, 상기 제2 색공간에서의 성분들은 적어도 제1 성분 및 제2 성분을 포함할 수 있고, 상기 처리부는 상기 획득된 적어도 하나의 좌표의 상기 제1 성분의 값을 포함하는 제1 성분의 범위와 상기 획득된 적어도 하나의 좌표의 상기 제2 성분의 값을 포함하는 제2 성분의 범위로 정의되는, 상기 제2 색공간에서의 영역을 상기 검사 영역으로서 결정할 수 있다.According to an embodiment, the components in the second color space may include at least a first component and a second component, and the processing unit includes a first component including a value of the first component of the obtained at least one coordinate. An area in the second color space, which is defined as a range of a second component including a range of one component and a value of the second component of the obtained at least one coordinate, may be determined as the inspection area.

일 실시예에 따르면, 상기 제1 성분의 범위와 상기 제2 성분의 범위는 각각 사용자의 입력에 따라 결정될 수 있다.According to an embodiment, the range of the first component and the range of the second component may be determined according to a user's input, respectively.

일 실시예에 따르면, 상기 제1 성분의 범위와 상기 제2 성분의 범위는 각각 상기 제1 성분의 값과 상기 제2 성분의 값에 기초하여 결정될 수 있다.According to an embodiment, the range of the first component and the range of the second component may be determined based on the value of the first component and the value of the second component, respectively.

일 실시예에 따르면, 상기 처리부는 상기 결정된 검사 영역에 포함된 노이즈를 제거할 수 있다.According to an embodiment, the processing unit may remove noise included in the determined inspection area.

일 실시예에 따르면, 상기 복수의 이미지의 픽셀들은 하나의 픽셀 특성(pixel property)으로 정의되는 이미지들일 수 있다.According to an embodiment, the pixels of the plurality of images may be images defined by one pixel property.

일 실시예에 따르면, 상기 복수의 이미지 각각은 그레이-스케일 이미지일 수 있다.According to an embodiment, each of the plurality of images may be a gray-scale image.

일 실시예에 따르면, 상기 적어도 하나의 픽셀은 사용자의 입력에 따라 결정되거나 상기 합성 이미지의 상기 제1 색공간 또는 상기 제2 색공간에서의 성분들의 값에 기초하여 결정될 수 있다.According to an embodiment, the at least one pixel may be determined according to a user input or may be determined based on values of components in the first color space or the second color space of the composite image.

일 실시예에 따르면, 상기 복수의 이미지 중 2개 이상의 이미지들은 상기 복수의 조명부로부터 각각 상이한 컬러의 광이 조사되어 획득된 이미지들일 수 있다.According to an embodiment, two or more of the plurality of images may be images obtained by irradiating light of different colors from the plurality of lighting units, respectively.

일 실시예에 따르면, 상기 복수의 이미지 중 2개 이상의 이미지들은 상기 복수의 조명부로부터 각각 동일한 컬러의 광이 조사되어 획득된 이미지들일 수 있다.According to an embodiment, two or more of the plurality of images may be images obtained by irradiating light of the same color from the plurality of illumination units, respectively.

일 실시예에 따르면, 상기 처리부는 상기 2개 이상의 이미지들로부터 각각 획득된 하나의 픽셀 특성의 값들을 조합하여 상기 합성 이미지를 생성할 수 있다.According to an embodiment, the processor may generate the composite image by combining values of one pixel characteristic obtained from each of the two or more images.

일 실시예에 따르면, 상기 제1 색공간과 상기 제2 색공간은 RGB 색공간, HSV 색공간, CMYK 색공간, YIQ 색공간, YPbPr 색공간, HSL 색공간 및 xvYCC 색공간 중 각각 서로 다르게 선택되는 색공간들일 수 있다.According to an embodiment, the first color space and the second color space are selected differently from among RGB color space, HSV color space, CMYK color space, YIQ color space, YPbPr color space, HSL color space, and xvYCC color space. It may be color spaces that become.

일 실시예에 따르면, 상기 3차원 외관은 굴곡진(curved) 또는 각진(edged) 외관일 수 있다.According to an embodiment, the three-dimensional appearance may be a curved or edged appearance.

본 발명의 예시적인 일 실시예에 따른, 검사 장치에서 수행되는 검사 대상의 3차원 외관을 검사하기 위한 검사 영역을 결정하는 방법은, 상이한 조사각으로 상기 검사 대상에 광을 각각 조사하여 획득된 복수의 이미지를 수신하는 단계, 상기 복수의 이미지 중 2개 이상의 이미지들로부터 합성 이미지를 생성하는 단계, 상기 합성 이미지의 색공간을 제1 색공간에서 제2 색공간으로 변환하는 단계, 상기 변환된 합성 이미지 내의 픽셀들 중 적어도 하나의 픽셀과 연관된 상기 제2 색공간에서의 적어도 하나의 좌표를 획득하는 단계 및 상기 적어도 하나의 좌표를 형성하는 상기 제2 색공간의 성분들의 값에 기초하여 상기 검사 영역을 결정하는 단계를 포함할 수 있다.According to an exemplary embodiment of the present invention, a method of determining an inspection area for inspecting a three-dimensional appearance of an inspection object performed by an inspection apparatus includes a plurality of obtained by irradiating light to the inspection object at different irradiation angles, respectively. Receiving an image of, generating a composite image from two or more images of the plurality of images, converting a color space of the composite image from a first color space to a second color space, the converted synthesis Acquiring at least one coordinate in the second color space associated with at least one of the pixels in the image, and the inspection region based on values of components of the second color space forming the at least one coordinate It may include the step of determining.

일 실시예에 따르면, 상기 제2 색공간에서의 성분들은 적어도 제1 성분 및 제2 성분을 포함할 수 있고, 상기 검사 영역을 결정하는 단계는, 상기 획득된 적어도 하나의 좌표의 상기 제1 성분의 값을 포함하는 제1 성분의 범위와 상기 획득된 적어도 하나의 좌표의 상기 제2 성분의 값을 포함하는 제2 성분의 범위로 정의되는 상기 제2 색공간에서의 영역을 상기 검사 영역으로서 결정하는 단계를 포함할 수 있다.According to an embodiment, the components in the second color space may include at least a first component and a second component, and the determining of the inspection area includes the first component of the obtained at least one coordinate A region in the second color space defined as a range of a first component including a value of and a range of a second component including a value of the second component of the obtained at least one coordinate is determined as the inspection area It may include the step of.

일 실시예에 따르면, 상기 검사 영역을 결정하는 단계는, 상기 결정된 검사 영역에 포함된 노이즈를 제거하는 단계를 포함할 수 있다.According to an embodiment, the determining of the inspection area may include removing noise included in the determined inspection area.

일 실시예에 따르면, 상기 합성 이미지를 생성하는 단계는, 상기 2개 이상의 이미지들로부터 각각 획득된 하나의 픽셀 특성의 값들을 조합하여 상기 합성 이미지를 생성하는 단계를 포함할 수 있다.According to an embodiment, generating the composite image may include generating the composite image by combining values of one pixel characteristic obtained from each of the two or more images.

본 발명의 예시적인 일 실시예에 따른 컴퓨터 판독가능 저장매체는 상기 본 발명의 예시적인 일 실시예에 따른 검사 영역을 결정하는 방법의 각 단계를 수행하는 명령어들을 포함하는 프로그램을 저장할 수 있다.The computer-readable storage medium according to an exemplary embodiment of the present invention may store a program including instructions for performing each step of the method of determining a test area according to an exemplary embodiment of the present invention.

본 발명의 예시적인 일 실시예에 따른, 검사 대상의 3차원 외관을 검사하는 검사 장치는, 상기 검사 대상으로 조사된 광이 반사된 반사광을 결상하여 복수의 이미지를 획득하는 결상부 및 상기 복수의 이미지 중 2개 이상의 이미지들로부터 생성된 합성 이미지에서 상기 검사 대상의 검사 영역을 결정하는 처리부를 포함할 수 있다. 이때 상기 복수의 이미지 중 2개 이상의 이미지들은 서로 다른 조명 조건 하에서 획득된 이미지들을 포함할 수 있다. 또한, 상기 처리부는, 상기 합성 이미지의 색공간을 제1 색공간에서 제2 색공간으로 변환하고, 상기 합성 이미지 내의 픽셀들 중 적어도 하나의 픽셀과 연관된 상기 제2 색공간에서의 적어도 하나의 좌표를 획득하고, 상기 적어도 하나의 좌표를 형성하는 상기 제2 색공간에서의 성분들의 값에 기초하여 상기 검사 영역을 결정할 수 있다.According to an exemplary embodiment of the present invention, an inspection apparatus for inspecting a three-dimensional appearance of an inspection object includes an imaging unit for obtaining a plurality of images by imaging reflected light reflected by light irradiated to the inspection object, and the plurality of It may include a processing unit for determining the inspection area of the inspection target from the composite image generated from two or more of the images. At this time, two or more of the plurality of images may include images acquired under different lighting conditions. In addition, the processor converts the color space of the composite image from a first color space to a second color space, and at least one coordinate in the second color space associated with at least one of pixels in the composite image Is obtained, and the inspection area may be determined based on values of components in the second color space forming the at least one coordinate.

본 발명의 예시적인 일 실시예에 따른, 검사 장치에서 검사 대상의 3차원 외관을 검사하기 위한 검사 영역을 디스플레이에 표시하는 방법은, 상기 검사 대상으로 조사된 광이 반사된 반사광을 결상하여 복수의 이미지를 획득하는 단계, 상기 복수의 이미지 중에서 선택된 2개 이상의 이미지들로부터 생성되는 적어도 하나의 합성 이미지를 상기 디스플레이에 표시하는 단계, 상기 표시된 적어도 하나의 합성 이미지 중 하나를 선택하는 단계, 상기 선택된 합성 이미지의 색공간을 제1 색공간에서 제2 색공간으로 변환한 후, 변환된 합성 이미지를 상기 디스플레이에 표시하는 단계, 상기 변환된 합성 이미지 내의 픽셀들 중 적어도 하나의 픽셀과 연관된 상기 제2 색공간에서의 적어도 하나의 좌표를 획득하는 단계 및 상기 적어도 하나의 좌표를 형성하는 상기 제2 색공간에서의 성분들의 값에 기초하여 결정된 상기 검사 영역을 상기 변환된 합성 이미지 상에 표시하는 단계를 포함할 수 있다. 이때, 상기 복수의 이미지 중 2개 이상의 이미지들은 서로 다른 조명 조건 하에서 획득된 이미지들을 포함할 수 있다.According to an exemplary embodiment of the present invention, a method of displaying an inspection area for inspecting a three-dimensional appearance of an inspection object in an inspection apparatus on a display includes a plurality of Acquiring an image, displaying at least one composite image generated from two or more images selected from the plurality of images on the display, selecting one of the displayed at least one composite image, the selected composite After converting a color space of an image from a first color space to a second color space, displaying the converted composite image on the display, the second color associated with at least one pixel among pixels in the converted composite image Obtaining at least one coordinate in space, and displaying the inspection area determined based on values of components in the second color space forming the at least one coordinate on the transformed composite image can do. In this case, two or more of the plurality of images may include images acquired under different lighting conditions.

본 발명의 일 실시예에 따른 외관 검사 장치 및 검사 영역 결정 방법에 의하면, 검사 대상의 3차원 외관을 검사하는 경우에도 외관 검사용 이미지에 포함된 검사 대상 내에 정확하고 일관된 검사 영역이 결정될 수 있다.According to the appearance inspection apparatus and the inspection area determination method according to an exemplary embodiment of the present invention, even when the three-dimensional appearance of the inspection object is inspected, an accurate and consistent inspection area may be determined within the inspection object included in the appearance inspection image.

특히, 물체의 가공 오차, 검사 대상이 놓여지는 지그의 자세 오차, 조명 조건의 변동, 이미지 센서의 감도 변동 등과 같은 검사 환경 또는 검사 조건의 변화가 있더라도, 외관 검사용 이미지에 포함된 검사 대상 내에 정확하고 일관된 검사 영역이 결정될 수 있다.In particular, even if there is a change in the inspection environment or inspection conditions such as an error in processing of an object, an error in the posture of the jig on which the inspection object is placed, a change in lighting conditions, and a change in the sensitivity of the image sensor, it is accurate within the inspection object included in the image for visual inspection And a consistent inspection area can be determined.

도 1은 본 발명의 일 실시예에 따른 외관 검사 장치의 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따라, 검사용 이미지를 생성하는 방법을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따라, 검사용 이미지 내에서 검사 영역을 결정하는 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따라 결정된 검사 영역이 합성 이미지 위에 표시된 도면이다.
도 5는 본 발명의 일 실시예에 따라 검사 영역을 결정하는 방법을 나타내는 흐름도이다.
도 6은 본 발명의 일 실시예에 따라, 상이한 조사각으로 검사 대상에 광을 조사하여 획득된 이미지들을 이용하여 생성된 합성 이미지에 기초하여 검사 영역을 결정하는 방법을 나타내는 흐름도이다.
도 7은 본 발명의 일 실시예에 따라, 외관 검사 장치에서 검사 영역을 디스플레이에 표시하는 방법을 나타내는 흐름도이다.
도 8은 본 발명의 일 실시예에 따라, 합성 이미지를 디스플레이에 표시하는 방법을 나타내는 흐름도이다.
도 9는 본 발명의 일 실시예에 따라, 검사 영역을 색공간이 변환된 합성 이미지 상에 표시하는 방법을 나타내는 흐름도이다.
1 is a view showing the configuration of an appearance inspection apparatus according to an embodiment of the present invention.
2 is a diagram illustrating a method of generating an image for inspection according to an embodiment of the present invention.
3 is a diagram for describing a method of determining an inspection area within an inspection image according to an embodiment of the present invention.
4 is a view in which an inspection area determined according to an embodiment of the present invention is displayed on a composite image.
5 is a flowchart illustrating a method of determining an inspection area according to an embodiment of the present invention.
6 is a flowchart illustrating a method of determining an inspection area based on a composite image generated using images obtained by irradiating light to an inspection object at different irradiation angles, according to an embodiment of the present invention.
7 is a flowchart illustrating a method of displaying an inspection area on a display in an appearance inspection apparatus according to an embodiment of the present invention.
8 is a flowchart illustrating a method of displaying a composite image on a display according to an embodiment of the present invention.
9 is a flowchart illustrating a method of displaying an inspection area on a composite image converted from a color space according to an embodiment of the present invention.

본 발명의 실시예들은 본 발명을 설명하기 위한 목적으로 예시된 것이다. 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며, 본 발명이 아래 제시된 실시예들이나 이들 실시예들에 대한 구체적 설명으로 한정되는 것으로 해석해서는 아니 된다.Embodiments of the present invention have been illustrated for the purpose of describing the present invention. Embodiments of the present invention may be implemented in various forms, and the present invention should not be construed as being limited to the embodiments presented below or specific descriptions of these embodiments.

본 실시예에서 사용되는 용어 "부"는 소프트웨어, FPGA(field-programmable gate array), ASIC(application specific integrated circuit)과 같은 하드웨어 구성요소를 의미한다. 그러나, "부"는 하드웨어 및 소프트웨어에 한정되는 것은 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일례로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세서, 함수, 속성, 프로시저, 서브루틴, 프로그램 코드의 세그먼트, 드라이버, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조, 테이블, 어레이 및 변수를 포함한다. 구성요소와 "부" 내에서 제공되는 기능은 더 작은 수의 구성요소 및 "부"로 결합되거나 추가적인 구성요소와 "부"로 더 분리될 수 있다.The term "unit" used in this embodiment refers to hardware components such as software, field-programmable gate array (FPGA), and application specific integrated circuit (ASIC). However, "unit" is not limited to hardware and software. The “unit” may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example, "unit" refers to components such as software components, object-oriented software components, class components, and task components, and processors, functions, properties, procedures, subroutines, and program code. Including segments, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Components and functions provided within the "unit" may be combined into a smaller number of components and "units" or further separated into additional components and "units".

본 명세서에서 사용되는 모든 기술적 용어들 및 과학적 용어들은, 다르게 정의되어 있지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해되는 의미를 갖는다. 본 명세서에서 사용되는 모든 용어들은 본 발명을 보다 명확히 설명하기 위한 목적으로 선택된 것이며 본 발명의 범위를 제한하기 위해 선택된 것이 아니다. All technical terms and scientific terms used in the present specification have meanings generally understood by those of ordinary skill in the technical field to which the present invention belongs, unless otherwise defined. All terms used in this specification are selected for the purpose of more clearly describing the present invention, and are not selected to limit the scope of the present invention.

본원 명세서에서 기술된 단수형의 표현은 달리 언급하지 않는 이상 복수형의 표현도 함께 포함할 수 있으며, 이는 청구항에 기재된 단수형의 표현에도 마찬가지로 적용된다. The expression of the singular form described in the present specification may also include the expression of the plural form unless otherwise stated, and this also applies to the expression of the singular form described in the claims.

본 발명의 다양한 실시 예에서 사용된 "제1", "제2" 등의 표현들은 복수의 구성요소들을 상호 구분하기 위해 사용하는 것일 뿐 해당 구성요소들의 순서 또는 중요도를 한정하는 것이 아니다.Expressions such as "first" and "second" used in various embodiments of the present disclosure are used to distinguish a plurality of elements from each other, and do not limit the order or importance of the corresponding elements.

본 명세서에서 사용되는 "포함하는" 및 "갖는"과 같은 표현은, 해당 표현이 포함되는 문구 또는 문장에서 특별히 다르게 언급되지 않는 한, 다른 실시예를 포함할 가능성을 내포하는 개방형 용어(open-ended terms)로 이해되어야 한다.Expressions such as "comprising" and "having" as used herein are open-ended terms including the possibility of including other embodiments, unless specifically stated otherwise in the phrase or sentence in which the corresponding expression is included. terms).

본 명세서에서 "~에 기초하여"라는 표현은, 해당 표현이 포함되는 문구에서 기술되는 결정 또는 판단의 행위 또는 동작에 영향을 주는 하나 이상의 인자를 기술하는데 사용되고, 이 표현은 결정 또는 판단의 행위 또는 동작에 영향을 주는 추가적인 인자를 배제하지는 않는다. In the present specification, the expression "based on" is used to describe one or more factors influencing the action or action of a decision or judgment described in the phrase in which the expression is included, and the expression is an action of a decision or judgment or It does not exclude additional factors affecting the operation.

본 명세서에서 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.In the present specification, when a component is referred to as being "connected" or "connected" to another component, the component is directly connected to or may be connected to the other component. It should be understood that a new other component may exist between the component and the other component.

이하, 첨부한 도면들을 참조하여, 본 발명의 실시예들을 상세하게 설명한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The same reference numerals are used for the same elements in the drawings, and duplicate descriptions for the same elements are omitted.

도 1은 본 발명의 일 실시예에 따른 외관 검사 장치(10)의 구성을 나타내는 도면이다. 외관 검사 장치(10)는 복수의 조명부(11, 12, 13, 14), 결상부(15), 처리부(16) 및 디스플레이(19)를 포함할 수 있다. 외관 검사 장치(10)는 검사 대상(17)으로 조사된 광이 반사된 반사광을 결상하여 획득된 복수의 이미지로부터 생성된 합성 이미지에 검사 대상(17)의 외관 검사 영역을 결정하고, 검사 영역 내에 결함이 있는지 여부를 판단할 수 있다.1 is a view showing the configuration of an appearance inspection apparatus 10 according to an embodiment of the present invention. The appearance inspection apparatus 10 may include a plurality of lighting units 11, 12, 13, and 14, an imaging unit 15, a processing unit 16, and a display 19. The appearance inspection apparatus 10 determines the appearance inspection area of the inspection object 17 in a composite image generated from a plurality of images obtained by imaging the reflected light reflected by the light irradiated to the inspection object 17, and You can determine if there are any defects.

복수의 조명부(11, 12, 13, 14)는 상이한 조사각으로 스테이지부(18) 위에 놓인 검사 대상(17)에 광을 조사할 수 있다. 여기서 "조사각"이란 조명부의 광이 검사 대상(17)의 한 지점을 향해 조사되는 방향과 검사 대상(17)이 놓인 스테이지부(18)의 수직 법선이 형성하는 각도를 의미할 수 있다. 예를 들어, 조명부(11)의 광이 검사 대상(17)의 한 지점(171)을 향해 조사되는 방향(111)과 측정 대상물(17)이 놓인 스테이지부(18)의 수직 법선(151)이 형성하는 각도(θ)가 조명부(11)의 조사각이 될 수 있다. 광이 조사되는 한 지점(171)은 검사 대상(17)의 한 지점일 수 있지만, 검사 대상(17)이 놓이는 스테이지부(18) 상의 한 지점일 수도 있다.The plurality of illumination units 11, 12, 13, and 14 may irradiate light to the inspection object 17 placed on the stage unit 18 at different irradiation angles. Here, the "irradiation angle" may mean an angle formed by a direction in which light of the illumination unit is irradiated toward a point of the inspection object 17 and a vertical normal line of the stage portion 18 on which the inspection object 17 is placed. For example, the direction 111 in which the light of the illumination unit 11 is irradiated toward a point 171 of the inspection object 17 and the vertical normal line 151 of the stage unit 18 on which the measurement object 17 is placed are The angle θ to be formed may be the irradiation angle of the lighting unit 11. One point 171 to which light is irradiated may be a point on the inspection object 17, but may be a point on the stage unit 18 on which the inspection object 17 is placed.

일 실시예에 따르면, 복수의 조명부(11, 12, 13, 14) 중 적어도 하나는 다른 조명부와 조사하는 광의 파장 및 편광(polarization) 중 적어도 하나가 다를 수 있다. 예를 들어, 복수의 조명부(11, 12, 13, 14) 중 적어도 하나는 다른 조명부와 광의 파장이 다른 광원을 포함하거나 광원으로부터 조사되는 광의 파장 및 편광 중 적어도 하나를 변경할 수 있는 필터를 포함할 수 있다.According to an embodiment, at least one of the plurality of lighting units 11, 12, 13, and 14 may have different wavelengths and polarizations of light emitted from the other lighting units. For example, at least one of the plurality of illumination units 11, 12, 13, 14 may include a light source having a different wavelength of light from another illumination unit, or a filter capable of changing at least one of the wavelength and polarization of light emitted from the light source. I can.

일 실시예에 따르면, 복수의 조명부(11, 12, 13, 14) 중 적어도 하나는 파장 특성이 서로 상이한 복수의 광원을 포함할 수 있다. 또 다른 실시예에 따르면, 복수의 조명부(11, 12, 13, 14) 중 적어도 하나는 파장을 조정할 수 있는 광원을 포함할 수 있다. 또 다른 실시예에 따르면, 복수의 조명부(11, 12, 13, 14) 중 적어도 하나는 복수의 광원과, 복수의 광원 중 적어도 하나에서 조사되는 광의 파장 및 편광 중 적어도 하나를 변경할 수 있는 필터를 포함할 수 있다.According to an embodiment, at least one of the plurality of illumination units 11, 12, 13, and 14 may include a plurality of light sources having different wavelength characteristics. According to another embodiment, at least one of the plurality of lighting units 11, 12, 13, and 14 may include a light source capable of adjusting a wavelength. According to another embodiment, at least one of the plurality of lighting units 11, 12, 13, 14 includes a plurality of light sources, and a filter capable of changing at least one of a wavelength and polarization of light emitted from at least one of the plurality of light sources. Can include.

일 실시예에 따르면, 복수의 조명부(11, 12, 13, 14) 각각은 한 개 또는 복수 개의 광원으로 구현될 수 있다. 각 광원은 LED 등을 이용하여 구현될 수 있으나, 이에 한정되지는 않는다. 일 실시예에 따르면, 복수의 조명부(11, 12, 13, 14) 각각은 검사 대상(17)을 향해 여러 방향에서 광을 조사할 수 있다. 예를 들어, 복수의 조명부(11, 12, 13, 14)에 포함된 광원들이 검사 대상(17)을 중심으로 하는 동심원 상에 위치함으로써, 복수의 조명부(11, 12, 13, 14) 각각은 검사 대상(17)을 향해 여러 방향에서 광을 조사할 수 있다.According to an embodiment, each of the plurality of lighting units 11, 12, 13, and 14 may be implemented with one or a plurality of light sources. Each light source may be implemented using an LED or the like, but is not limited thereto. According to an exemplary embodiment, each of the plurality of illumination units 11, 12, 13, and 14 may irradiate light toward the inspection object 17 from various directions. For example, since the light sources included in the plurality of lighting units 11, 12, 13, and 14 are located on a concentric circle centered on the inspection object 17, each of the plurality of illumination units 11, 12, 13, 14 Light can be irradiated from various directions toward the inspection object 17.

도 1에 도시된 실시예에서는 복수의 조명부가 4개의 조명부로 구성되어 있지만, 2개 이상의 상이한 조사각으로 광을 조사하는 조명부들로 구성될 수 있다. 일 실시예에 따르면, 복수의 조명부(11, 12, 13, 14)는 각각 상이한 조사각을 가질 수 있다. 또 다른 실시예에 따르면, 복수의 조명부(11, 12, 13, 14) 중 일부가 상이한 조사각을 가질 수 있다. 복수의 조명부(11, 12, 13, 14)의 조사각의 크기는 제한이 없으며, 0도에서 90도 사이에서 선택될 수 있다.In the embodiment illustrated in FIG. 1, a plurality of lighting units are composed of four lighting units, but may be composed of lighting units that irradiate light at two or more different irradiation angles. According to an embodiment, the plurality of lighting units 11, 12, 13, and 14 may each have a different irradiation angle. According to another embodiment, some of the plurality of lighting units 11, 12, 13, and 14 may have different irradiation angles. The size of the irradiation angle of the plurality of lighting units 11, 12, 13, and 14 is not limited, and may be selected from 0 degrees to 90 degrees.

일 실시예에 따르면, 외관 검사 장치(10)는 조사각, 광의 파장 및 편광 중 적어도 하나를 조정할 수 있는 1개의 조명부만을 포함할 수도 있다. 이 경우, 1개의 조명부는 조사하는 광의 파장을 조정할 수 있는 광원을 포함할 수 있다. 또 다른 실시예에 따르면, 1개의 조명부는 조사하는 광의 파장이 상이한 복수의 광원을 포함할 수 있다. 또 다른 실시예에 따르면, 1개의 조명부는 조사하는 광의 파장 및 편광 중 적어도 하나를 변경할 수 있는 필터를 포함할 수 있다.According to an embodiment, the appearance inspection apparatus 10 may include only one illumination unit capable of adjusting at least one of an irradiation angle, a wavelength of light, and polarization. In this case, one illumination unit may include a light source capable of adjusting the wavelength of light to be irradiated. According to another embodiment, one illumination unit may include a plurality of light sources having different wavelengths of irradiated light. According to another embodiment, one illumination unit may include a filter capable of changing at least one of a wavelength and polarization of light to be irradiated.

결상부(15)는 검사 대상(17)으로 조사된 광이 반사(난반사를 포함)된 반사광을 결상하여 복수의 이미지를 획득할 수 있다. 예를 들어, 결상부(15)는 복수의 조명부(11, 12, 13, 14) 중 적어도 하나로부터의 광이 검사 대상(17)에서 반사된 반사광을 결상하여 복수의 이미지를 획득할 수 있다. 결상부(15)는 스테이지부(18)의 위쪽에 설치되며, 검사 대상(17)의 외관을 포함하는 이미지를 획득할 수 있다. 결상부(15)는 카메라와 같은 하나 이상의 결상 장치를 이용하여 구현될 수 있고, 카메라 그 자체일 수도 있다. 결상부(15)는 검사 대상(17)의 외관을 포함하는 이미지를 생성할 수 있는 다양한 형태의 장치일 수 있다.The imaging unit 15 may acquire a plurality of images by imaging the reflected light from which the light irradiated to the inspection object 17 is reflected (including diffuse reflection). For example, the imaging unit 15 may acquire a plurality of images by imaging the reflected light from which light from at least one of the plurality of illumination units 11, 12, 13, and 14 is reflected from the inspection object 17. The imaging unit 15 is installed above the stage unit 18, and an image including the appearance of the inspection object 17 may be obtained. The imaging unit 15 may be implemented using one or more imaging devices such as a camera, or may be a camera itself. The imaging unit 15 may be a device of various types capable of generating an image including the appearance of the inspection object 17.

일 실시예에 따르면, 하나 이상의 결상 장치는 검사 대상(17)을 향한 방향으로 검사 대상(17)에서 반사된 반사광을 결상할 수 있다. 또 다른 실시예에 따르면, 하나 이상의 결상 장치는 반사 거울 또는 빔스플리터(beam splitter)와 같은 광소자를 통해 전달되는 반사광을 결상할 수 있다.According to an embodiment, at least one imaging device may image the reflected light reflected from the inspection object 17 in a direction toward the inspection object 17. According to another embodiment, one or more imaging devices may image reflected light transmitted through an optical element such as a reflective mirror or a beam splitter.

일 실시예에 따르면, 결상부(15)는 하나의 픽셀 특성으로 정의되는 이미지를 획득할 수 있다. 따라서, 결상부(15)에서 획득된 이미지의 픽셀들은 하나의 픽셀 특성으로 정의될 수 있다. 예를 들어, 결상부(15)는 하나 이상의 흑백 카메라를 이용하여 구현될 수 있고, 결상부(15)에서 획득된 이미지는 광도로 정의될 수 있는 그레이-스케일 이미지일 수 있다.According to an embodiment, the imaging unit 15 may acquire an image defined by one pixel characteristic. Accordingly, the pixels of the image acquired by the imaging unit 15 may be defined as one pixel characteristic. For example, the imaging unit 15 may be implemented using one or more monochrome cameras, and the image acquired by the imaging unit 15 may be a gray-scale image that can be defined as a luminance.

처리부(16)는 결상부(15)에서 획득된 복수의 이미지를 이용하여 검사용 이미지를 생성하고, 검사용 이미지 상에 외관 검사 영역을 결정하며, 검사 영역 내에 외관의 결함이 있는지 여부를 판단할 수 있다. 일 실시예에 따르면, 처리부(16)는 결상부(15)에서 획득된 복수의 이미지 중 2개 이상의 이미지들로부터 생성된 합성 이미지에서 검사 대상(17)의 검사 영역을 결정할 수 있다.The processing unit 16 generates an inspection image using a plurality of images acquired by the imaging unit 15, determines an appearance inspection area on the inspection image, and determines whether there is an appearance defect in the inspection area. I can. According to an embodiment, the processing unit 16 may determine the inspection area of the inspection object 17 from a composite image generated from two or more images of a plurality of images acquired by the imaging unit 15.

디스플레이(19)는 결상부(15)에서 획득된 복수의 이미지, 복수의 이미지 중 2개 이상의 이미지들로부터 생성된 합성 이미지 및 검사 대상(17)의 검사 영역 중 적어도 하나를 표시할 수 있다. 일 실시예에 따르면, 외관 검사 장치(10)는 키보드, 마우스와 같은 외부 인터페이스 또는 디스플레이(19)에 설치된 터치 인터페이스와 같은 사용자 인터페이스를 통해 디스플레이(19)에 표시된 이미지를 조정하거나 선택할 수 있다.The display 19 may display at least one of a plurality of images acquired by the imaging unit 15, a composite image generated from two or more of the plurality of images, and an inspection area of the inspection object 17. According to an embodiment, the appearance inspection apparatus 10 may adjust or select an image displayed on the display 19 through an external interface such as a keyboard and a mouse, or a user interface such as a touch interface installed on the display 19.

도 2는 본 발명의 일 실시예에 따라, 검사용 이미지를 생성하는 방법을 설명하기 위한 도면이다. 결상부(15)는 검사 대상(17)으로 조사된 광이 반사된 반사광을 결상하여 복수의 이미지를 획득하고, 처리부는(16)는 획득된 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)로부터 적어도 하나의 합성 이미지(25, 26, 27, 28, 29)를 생성할 수 있다. 생성된 합성 이미지들(25, 26, 27, 28, 29) 중 적어도 하나는 검사 대상(17)의 검사 영역을 결정하고, 검사 대상(17)의 외관을 검사하는데 사용될 수 있다.2 is a diagram illustrating a method of generating an image for inspection according to an embodiment of the present invention. The imaging unit 15 acquires a plurality of images by imaging the reflected light from which the light irradiated to the inspection object 17 is reflected, and the processing unit 16 acquires two or more images 21 and 22 of the acquired plurality of images. , 23, 24), it is possible to generate at least one composite image 25, 26, 27, 28, 29. At least one of the generated composite images 25, 26, 27, 28, and 29 may be used to determine an inspection area of the inspection object 17 and to inspect the appearance of the inspection object 17.

일 실시예에 따르면, 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24) 은 서로 다른 조명 조건하에서 획득된 이미지들을 포함할 수 있다. 예를 들어, 서로 다른 조명 조건은 검사 대상(17)으로 조사되는 광의 조사각, 파장, 편광 중 적어도 하나와 관련된 조건일 수 있다.According to an embodiment, two or more of the plurality of images 21, 22, 23, and 24 may include images acquired under different lighting conditions. For example, different lighting conditions may be conditions related to at least one of an irradiation angle, wavelength, and polarization of light irradiated to the inspection object 17.

일 실시예에 따르면, 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)은 상이한 조사각을 갖는 복수의 조명부(11, 12, 13, 14)에서 검사 대상(17)에 광을 조사하여 획득된 이미지들을 포함할 수 있다. 예를 들어, 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)은 제1 조명부(11)에서 17도의 조사각으로 광을 조사하고, 제2 조명부(12)에서 30도의 조사각으로 광을 조사하며, 제3 조명부(13)에서 60도의 조사각으로 광을 조사하고, 제4 조명부(14)에서 70도의 조사각으로 광을 조사하여 각각 획득된 이미지들일 수 있다.According to an embodiment, two or more of the plurality of images (21, 22, 23, 24) are light from the plurality of illumination units (11, 12, 13, 14) having different irradiation angles to the inspection object (17). It may include images obtained by examining. For example, two or more of the plurality of images (21, 22, 23, 24) are irradiated with light at an irradiation angle of 17 degrees from the first lighting unit 11, and 30 degrees from the second lighting unit 12 Each of the images may be obtained by irradiating light at an angle, irradiating light at an irradiation angle of 60 degrees from the third illumination unit 13, and irradiating light at an illumination angle of 70 degrees from the fourth illumination unit 14.

또 다른 실시예에 따르면, 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)은 복수의 조명부(11, 12, 13, 14) 중 적어도 하나에서 검사 대상(17)에 서로 다른 파장의 광을 조사하여 획득된 이미지들을 포함할 수 있다. 사용되는 광의 파장은 자외선, 적외선, 가시광, X선 등 이미지 획득이 가능한 영역의 파장일 수 있다. 예를 들어, 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)은 제1 조명부(11)에서 적외선 영역의 제1 파장을 갖는 광을 조사하고, 조명부(11)에서 가시광 영역의 제2 파장을 갖는 광을 조사하고, 조명부(12)에서 적외선 영역의 제3 파장을 갖는 광을 조사하고, 조명부(12)에서 가시광 영역의 제4 파장을 갖는 광을 조사하여 각각 획득된 이미지들일 수 있다.According to another embodiment, two or more of the plurality of images (21, 22, 23, 24) are different from the inspection object 17 in at least one of the plurality of lighting units (11, 12, 13, 14). Images obtained by irradiating light of a wavelength may be included. The wavelength of light to be used may be a wavelength in a region in which an image can be obtained, such as ultraviolet rays, infrared rays, visible light, and X-rays. For example, two or more of the images 21, 22, 23, and 24 are irradiated with light having a first wavelength in the infrared region from the first lighting unit 11, and the visible light region from the lighting unit 11 Images obtained by irradiating light having a second wavelength of, irradiating light having a third wavelength in the infrared region from the lighting unit 12, and irradiating light having a fourth wavelength in the visible region from the lighting unit 12 Can be used.

또 다른 실시예에 따르면, 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)은 복수의 조명부(11, 12, 13, 14) 중 적어도 하나에서 검사 대상(17)에 서로 다른 편광 특성을 갖는 광을 조사하여 획득된 이미지들을 포함할 수 있다. 편광은 직선편광(linear polarization), 타원편광(elliptical polarization), 또는 원편광(circular polarization)일 수 있다. 예를 들어, 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)은 조명부(11)에서 직선편광된 광을 조사하고, 조명부(12)에서 원편광된 광을 조사하고, 조명부(13)에서 직선편광된 광을 조사하고, 조명부(14)에서 원평광된 광을 조사하여 각각 획득된 이미지들일 수 있다.According to another embodiment, two or more of the plurality of images (21, 22, 23, 24) are different from the inspection object 17 in at least one of the plurality of lighting units (11, 12, 13, 14). Images obtained by irradiating light having polarization characteristics may be included. The polarized light may be linear polarization, elliptical polarization, or circular polarization. For example, two or more of the plurality of images (21, 22, 23, 24) irradiate linearly polarized light from the illumination unit (11), irradiate circularly polarized light from the illumination unit (12), and The images may be obtained by irradiating linearly polarized light in (13) and circularly polarized light from the illumination unit 14, respectively.

또 다른 실시예에 따르면, 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)은 조사각, 파장 및 편광 중 적어도 2개 이상의 특성이 서로 상이한 광을 조사하여 획득된 이미지들을 포함할 수 있다. 예를 들어, 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)은 제1 조명부(11)에서 17도의 조사각으로 적외선 영역의 제1 파장을 갖는 광을 조사하고, 제2 조명부(12)에서 30도의 조사각으로 가시광 영역의 제2 파장을 갖는 광을 조사하고, 제3 조명부(13)에서 60도의 조사각으로 적외선 영역의 제3 파장을 갖는 광을 조사하고, 제4 조명부(14)에서 70도의 조사각으로 가시광 영역의 제4 파장을 갖는 광을 조사하여 각각 획득된 이미지들일 수 있다.According to another embodiment, two or more of the plurality of images 21, 22, 23, and 24 include images obtained by irradiating light having at least two or more of the irradiation angle, wavelength, and polarization different from each other. can do. For example, two or more of the plurality of images (21, 22, 23, 24) irradiate light having a first wavelength in the infrared region at an irradiation angle of 17 degrees from the first illumination unit 11, and the second The illumination unit 12 irradiates light having a second wavelength in the visible light region at an irradiation angle of 30 degrees, and the third illumination unit 13 irradiates light having a third wavelength in the infrared region at an irradiation angle of 60 degrees, and the fourth Images may be obtained by irradiating light having a fourth wavelength in a visible region at an irradiation angle of 70 degrees from the illumination unit 14.

일 실시예에 따르면, 외관 검사 장치(10)는 검사 대상(17)의 특성, 예를 들어, 표면의 재질, 재료 또는 형상에 따라 검사 대상(17)으로 조사되는 조명 조건을 변경할 수 있다. 이하에서는, 검사 대상(17)의 특성에 대해 검사 대상(17)의 표면의 재질, 재료, 또는 형상을 중심으로 설명하나, 이에 제한되는 것은 아니며, 검사 대상(17)의 다양한 특성이 검사 대상(17)으로 조사되는 조명 조건의 변경을 위해 이용될 수 있다.According to an embodiment, the appearance inspection apparatus 10 may change a lighting condition irradiated to the inspection object 17 according to a characteristic of the inspection object 17, for example, a material, material, or shape of the surface. Hereinafter, the characteristics of the inspection object 17 will be described centering on the material, material, or shape of the surface of the inspection object 17, but is not limited thereto, and various characteristics of the inspection object 17 17) can be used to change the lighting conditions.

예를 들어, 외관 검사 장치(10)는 검사 대상(17)의 표면이 거칠거나 부드러운 정도를 고려하여 검사 대상(17)으로 조사되는 조명 조건을 변경할 수 있다. 또 다른 예로, 외관 검사 장치(10)는 검사 대상(17)의 표면을 형성하는 재료(예컨대 금속, 플라스틱, 고무 등)의 특성을 고려하여 검사 대상(17)으로 조사되는 조명 조건을 변경할 수 있다. 또 다른 예로, 외관 검사 장치(10)는 검사 대상(17)의 표면의 형상이 굴곡지거나(curved) 각진(edged) 정도를 고려하여 검사 대상(17)으로 조사되는 조명 조건을 변경할 수 있다.For example, the appearance inspection apparatus 10 may change the lighting conditions irradiated to the inspection object 17 in consideration of the degree of roughness or smoothness of the surface of the inspection object 17. As another example, the appearance inspection apparatus 10 may change the lighting conditions irradiated to the inspection object 17 in consideration of characteristics of a material (eg, metal, plastic, rubber, etc.) forming the surface of the inspection object 17. . As another example, the appearance inspection apparatus 10 may change the lighting conditions irradiated to the inspection object 17 in consideration of the degree of the surface shape of the inspection object 17 being curved or edged.

예를 들어, 검사 대상(17)의 금속 표면의 균일한 정도나 반사 특성에 따라 검사 대상(17)으로 조사되는 광의 조사각, 파장 또는 편광 중 적어도 하나의 특성이 달라질 수 있다. 검사 대상(17)의 표면이 굴곡진 모서리 부분임을 고려하여 검사 대상(17)으로 조사되는 광의 조사각, 파장 또는 조사각 중 적어도 하나의 특성이 달라질 수 있다. 이와 같이, 외관 검사 장치(10)는 검사 대상(17)의 표면의 재질, 재료 또는 형상을 고려한 조명 조건하에서 획득된 이미지들로부터 검사용 이미지를 생성하므로, 검사 대상(17)의 외관 검사에 최적화된 검사용 이미지를 획득할 수 있다.For example, at least one of the irradiation angle, wavelength, or polarization of light irradiated to the inspection object 17 may be changed according to the uniformity or reflection characteristic of the metal surface of the inspection object 17. Considering that the surface of the inspection object 17 is a curved edge portion, at least one of an irradiation angle, a wavelength, or an irradiation angle of light irradiated to the inspection object 17 may be changed. In this way, the appearance inspection device 10 generates an inspection image from images acquired under lighting conditions in consideration of the material, material, or shape of the surface of the inspection object 17, so it is optimized for the appearance inspection of the inspection object 17. An image for inspection can be obtained.

검사 대상(17)에 대한 복수의 이미지가 획득되면, 처리부(16)는 복수의 이미지 중 합성 이미지를 생성하기 위한 2개 이상의 이미지들(21, 22, 23, 24)을 선택할 수 있다. 일 실시예에 따르면, 처리부(16)는 검사 대상(17)의 표면의 재질, 재료 또는 형상을 고려하여 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)을 선택할 수 있다. 또 다른 실시예에 따르면, 복수의 이미지가 디스플레이(19)에 표시되면, 사용자가 디스플레이(19)에 표시된 이미지들 중 2개 이상의 이미지들(21, 22, 23, 24)을 선택할 수 있다. 사용자는 디스플레이(19)에 설치된 터치 인터페이스 또는 마우스나 키보드와 같은 인터페이스를 이용하여 합성 이미지 생성에 필요한 이미지들을 선택할 수 있다. 또 다른 실시예에 따르면, 합성 이미지를 생성하기 위한 이미지들을 선택할 필요 없이, 처리부(16)는 획득된 모든 이미지를 이용하여 합성 이미지를 생성할 수 있다.When a plurality of images for the inspection object 17 are obtained, the processing unit 16 may select two or more images 21, 22, 23, and 24 for generating a composite image from among the plurality of images. According to an embodiment, the processing unit 16 may select two or more images 21, 22, 23, and 24 from among a plurality of images in consideration of a material, material, or shape of the surface of the inspection object 17. According to another embodiment, when a plurality of images are displayed on the display 19, the user may select two or more images 21, 22, 23, and 24 among the images displayed on the display 19. The user can select images necessary for creating a composite image using a touch interface installed on the display 19 or an interface such as a mouse or keyboard. According to another embodiment, without the need to select images for generating a composite image, the processing unit 16 may generate a composite image using all the acquired images.

처리부(16)는 선택된 2개 이상의 이미지들(21, 22, 23, 24)로부터 각각 획득된 하나의 픽셀 특성의 값들을 조합하여 합성 이미지를 생성할 수 있다. 예를 들어, 이미지들(21, 22, 23, 24)은 그레이-스케일 이미지일 수 있고, 이때 이미지들(21, 22, 23, 24)로부터 획득된 하나의 픽셀 특성인 광도 값들을 조합하여 합성 이미지를 생성할 수 있다.The processing unit 16 may generate a composite image by combining values of one pixel characteristic obtained from two or more selected images 21, 22, 23, and 24, respectively. For example, the images 21, 22, 23, 24 may be gray-scale images, and at this time, the luminance values, which are one pixel characteristic obtained from the images 21, 22, 23, 24, are combined and synthesized. You can create an image.

이하에서는 2개 이상의 이미지들(21, 22, 23, 24)이 그레이-스케일 이미지인 경우에, 이미지들(21, 22, 23, 24)로부터 합성 이미지를 생성하는 과정을 설명한다. 처리부(16)는 이미지들(21, 22, 23, 24)로부터 각 픽셀의 광도 값을 획득하고, 획득된 광도 값들을 조합하여 합성 이미지를 생성할 수 있다. 일 예로서, 처리부(16)가 이미지들(21, 22, 23, 24) 중 제1 내지 제3 이미지(21, 22, 23)와 같이 3개의 이미지를 이용하여 합성 이미지(25)를 생성할 수 있다. 이 경우, 처리부(16)는 제1 내지 제3 이미지들(21, 22, 23)로부터 각 픽셀의 광도 값을 획득할 수 있고, 각 픽셀의 특정 색공간에서의 좌표 값을 각 이미지로부터 획득된 광도 값을 이용하여 설정함으로써, 합성 이미지를 생성할 수 있다.Hereinafter, when two or more images 21, 22, 23, and 24 are gray-scale images, a process of generating a composite image from the images 21, 22, 23 and 24 will be described. The processing unit 16 may obtain a luminance value of each pixel from the images 21, 22, 23, and 24, and may generate a composite image by combining the obtained luminance values. As an example, the processing unit 16 may generate a composite image 25 by using three images, such as the first to third images 21, 22, and 23 of the images 21, 22, 23, and 24. I can. In this case, the processor 16 may obtain the luminance value of each pixel from the first to third images 21, 22, and 23, and the coordinate value of each pixel in a specific color space is obtained from each image. By setting using a luminance value, a composite image can be created.

여기서 "색공간(color space)"이란 색 표시계(color system)를 3차원 공간과 같은 다차원으로 표현한 공간 개념으로서, 색 표시계의 모든 컬러들은 색공간에서의 좌표로 표현될 수 있다. 예를 들어, RGB 색공간은 적색, 녹색 및 청색을 기준으로 색을 표현하는 방식으로서, (적색의 값, 녹색의 값, 청색의 값)과 같은 좌표 형식으로 정의될 수 있다. 또한, HSV 색공간은 색상, 채도 및 명도를 기준으로 색을 표현하는 방식으로서, (색상의 값, 채도의 값, 명도의 값)과 같은 좌표 형식으로 정의될 수 있다.Here, "color space" is a space concept in which a color system is expressed in a multidimensional manner such as a three-dimensional space, and all colors of the color display system can be expressed as coordinates in a color space. For example, the RGB color space is a method of expressing colors based on red, green, and blue, and may be defined in a coordinate format such as (red value, green value, blue value). In addition, the HSV color space is a method of expressing colors based on hue, saturation, and brightness, and may be defined in a coordinate format such as (color value, saturation value, brightness value).

일 실시예에 따르면, RGB 색공간, HSV 색공간, CMYK 색공간, YIQ 색공간, YPbPr 색공간, HSL 색공간 및 xvYCC 색공간 등이 합성 이미지(25) 생성에 이용될 수 있다. 다만, 이 외에도 알려진 다양한 색공간이 합성 이미지(25)의 생성 시 이용될 수 있다.According to an embodiment, an RGB color space, an HSV color space, a CMYK color space, a YIQ color space, a YPbPr color space, an HSL color space, and an xvYCC color space may be used to generate the composite image 25. However, in addition to this, various known color spaces may be used when generating the composite image 25.

예를 들어, RGB 색공간을 이용하여 합성 이미지(25)를 생성한다면, 처리부(16)는 제1 내지 제3 이미지들(21, 22, 23)의 동일한 위치에 있는 픽셀에서 획득된 광도 값을, 합성 이미지의 RGB 색공간을 이루는 좌표 값, 즉 적색, 녹색 및 청색 값을 대표하는 값으로 변환할 수 있다. 따라서, 처리부(16)는, 변환된 값들에 기초하여 픽셀을 정의하는 RGB 색공간의 좌표 값을 설정할 수 있고, 동일한 방식으로 나머지 픽셀들에 대해 RGB 색공간의 좌표 값들을 설정함으로써, 합성 이미지(25)를 생성할 수 있다.For example, if the composite image 25 is generated using the RGB color space, the processing unit 16 calculates the luminance value obtained from the pixel at the same position of the first to third images 21, 22, and 23. , Coordinate values constituting the RGB color space of the composite image, that is, values representing red, green, and blue values may be converted. Accordingly, the processing unit 16 may set coordinate values of an RGB color space defining a pixel based on the converted values, and set coordinate values of the RGB color space for the remaining pixels in the same manner, thereby setting the composite image ( 25) can be created.

일 실시예에 따르면, 처리부(16)는 이미지들(21, 22, 23, 24) 중 2개 또는 3개의 이미지를 서로 다르게 선택하여 다양한 합성 이미지를 생성할 수 있다. 예를 들어, 처리부(16)는 제1 내지 제3 이미지(21, 22, 23)를 선택하여 합성 이미지(25)를 생성하고, 제2 내지 제4 이미지(22, 23, 24)를 선택하여 합성 이미지(26)를 생성하고, 제1, 제3 및 제4 이미지(21, 23, 24)를 선택하여 합성 이미지(27)를 생성하고, 제1, 제2 및 제4 이미지(21, 22, 24)를 선택하여 합성 이미지(28)를 생성할 수 있다.According to an embodiment, the processing unit 16 may generate various composite images by selecting two or three images from among the images 21, 22, 23, and 24 differently. For example, the processing unit 16 selects the first to third images 21, 22, 23 to generate a composite image 25, and selects the second to fourth images 22, 23, and 24 A composite image 26 is created, and a composite image 27 is created by selecting the first, third and fourth images 21, 23, 24, and the first, second and fourth images 21, 22 , 24) can be selected to generate a composite image 28.

또 다른 실시예에 따르면, 처리부(16)는 4개 이상의 이미지들(21, 22, 23, 24)을 이용하여 합성 이미지를 생성할 수 있다. 이 경우 합성 이미지의 각 픽셀은 4개 이상의 차원을 갖는 픽셀 공간에서의 좌표로 정의될 수 있다. 예를 들어, 4개의 이미지로부터 합성 이미지가 생성되면, 합성 이미지의 각 픽셀은 (제1 픽셀 특성, 제2 픽셀 특성, 제3 픽셀 특성, 제4 픽셀 특성)과 같은 4차원 픽셀 공간에서의 좌표로 정의될 수 있다.According to another embodiment, the processing unit 16 may generate a composite image using four or more images 21, 22, 23, and 24. In this case, each pixel of the composite image may be defined as a coordinate in a pixel space having four or more dimensions. For example, when a composite image is generated from four images, each pixel of the composite image is coordinated in a four-dimensional pixel space such as (first pixel characteristic, second pixel characteristic, third pixel characteristic, and fourth pixel characteristic). Can be defined as

합성 이미지가 4개 이상의 이미지들(21, 22, 23, 24)을 이용하여 생성되면, 처리부(16)는 4개 이상의 차원을 갖는 픽셀 공간에서 정의되는 합성 이미지를 특정 색공간에서 정의되는 합성 이미지(29)로 변환할 수 있다. 예를 들어, 합성 이미지가 4개의 이미지(21, 22, 23, 24)로부터 생성되면, 처리부(16)는 이미지들(21, 22, 23, 24)로부터 각 픽셀의 픽셀 특성 값을 획득한 후, 이들을 조합하여 4차원의 픽셀 공간에서의 각 픽셀의 좌표를 특정 색공간에서의 좌표로 변환할 수 있다. 도 2의 합성 이미지(29)는 이와 같은 방식으로 각 픽셀을 정의하는 차원이 변경된 이미지를 나타낼 수 있다.When a composite image is generated using four or more images (21, 22, 23, 24), the processing unit 16 converts a composite image defined in a pixel space having four or more dimensions into a composite image defined in a specific color space. It can be converted to (29). For example, when a composite image is generated from four images (21, 22, 23, 24), the processing unit 16 obtains the pixel characteristic value of each pixel from the images (21, 22, 23, 24) By combining these, the coordinates of each pixel in the four-dimensional pixel space can be converted into coordinates in a specific color space. The composite image 29 of FIG. 2 may represent an image in which the dimension defining each pixel is changed in this manner.

예를 들어, 이미지들(21, 22, 23, 24)이 그레이-스케일 이미지이면, 처리부(16)는 이미지들(21, 22, 23, 24)로부터 각 픽셀의 광도 값을 획득할 수 있고, 각 픽셀의 특정 색공간에서의 좌표 값을 이미지들(21, 22, 23, 24)로부터 획득된 광도 값을 이용하여 설정할 수 있다. 일 예로서, 처리부(16)는 이미지들(21, 22, 23, 24)의 각각의 동일한 위치에 있는 픽셀에 대해, 이미지(21) 및 이미지(22)에서 획득된 광도 값들의 제1 평균 값, 이미지(22) 및 이미지(23)에서 획득된 광도 값들의 제2 평균 값, 이미지(23) 및 이미지(24)에서 획득된 광도 값들의 제3 평균 값을 획득할 수 있다. 처리부(16)는, 획득된 평균 값들에 기초하여 픽셀을 정의하는 RGB 색공간에서의 좌표 값을 설정할 수 있고, 동일한 방식으로 나머지 픽셀들에 대해 RGB 색공간의 좌표 값들을 설정함으로써, 합성 이미지(29)를 생성할 수 있다.For example, if the images 21, 22, 23, and 24 are gray-scale images, the processing unit 16 may obtain a luminance value of each pixel from the images 21, 22, 23, and 24, A coordinate value of each pixel in a specific color space may be set using a luminance value obtained from the images 21, 22, 23, and 24. As an example, the processing unit 16 is a first average value of the luminous intensity values obtained from the image 21 and the image 22 for each of the pixels at the same position of the images 21, 22, 23, 24 , A second average value of the luminance values obtained from the image 22 and the image 23, and a third average value of the luminance values obtained from the image 23 and the image 24 may be obtained. The processing unit 16 may set coordinate values in an RGB color space defining a pixel based on the obtained average values, and set coordinate values of the RGB color space for the remaining pixels in the same manner, thereby setting the composite image ( 29) can be created.

처리부(16)가 복수의 이미지 중 선택된 2개 이상의 이미지들(21, 22, 23, 24)로부터 합성 이미지들(25, 26, 27, 28, 29)을 생성하면, 외관 검사 장치(10)는 생성된 합성 이미지들(25, 26, 27, 28, 29) 중 적어도 하나를 디스플레이(19)에 표시할 수 있다. 일 실시예에 따르면, 처리부(16)는 표시된 합성 이미지들(25, 26, 27, 28, 29) 중 하나를 외관 검사용 이미지로서 선택할 수 있다. 예들 들어, 처리부(16)는 합성 이미지들(25, 26, 27, 28, 29)에 포함된 검사 대상(17)의 각 영역 간의 색상 또는 명암의 차이에 기초하여 합성 이미지들(25, 26, 27, 28, 29)을 평가하여 하나의 합성 이미지를 선택할 수 있다.When the processing unit 16 generates composite images 25, 26, 27, 28, 29 from two or more images 21, 22, 23, 24 selected from among a plurality of images, the appearance inspection device 10 At least one of the generated composite images 25, 26, 27, 28, and 29 may be displayed on the display 19. According to an embodiment, the processing unit 16 may select one of the displayed composite images 25, 26, 27, 28, and 29 as an image for visual inspection. For example, the processing unit 16 includes the composite images 25, 26, 27, 28, 29 based on the difference in color or contrast between each area of the inspection object 17 included in the composite images 25, 26, 27, 28, 29. 27, 28, 29) can be evaluated to select one composite image.

또 다른 실시예에 다르면, 외관 검사 장치(10)는 사용자가 디스플레이(19)에 표시된 합성 이미지들(25, 26, 27, 28, 29) 중에서 선택한 하나의 합성 이미지를 외관 검사용 이미지로서 사용할 수 있다. 사용자는 디스플레이(19)에 설치된 터치 인터페이스 또는 키보드, 마우스와 같은 인터페이스 장치를 이용하여 디스플레이(19)에 표시된 합성 이미지들(25, 26, 27, 28, 29) 중에서 하나의 합성 이미지를 선택할 수 있다.According to another embodiment, the appearance inspection apparatus 10 may use one composite image selected from the composite images 25, 26, 27, 28, and 29 displayed on the display 19 by the user as an image for appearance inspection. have. A user may select one composite image from among the composite images 25, 26, 27, 28, 29 displayed on the display 19 using a touch interface installed on the display 19 or an interface device such as a keyboard and a mouse. .

디스플레이(19)는 선택 가능한 합성 이미지들(25, 26, 27, 28, 29)만을 표시할 수 있고, 또는 선택에 고려될 수 있는 추가적인 정보를 합성 이미지들(25, 26, 27, 28, 29)과 함께 표시할 수 있다. 예를 들어, 디스플레이(19)는 합성 이미지들(25, 26, 27, 28, 29)에 포함된 검사 대상(17)의 각 영역 간의 색상 또는 명암의 차이에 관한 정보를 표시할 수 있다. 또한, 사용자가 디스플레이(19)에 표시된 합성 이미지들(25, 26, 27, 28, 29) 중 하나에 포함된 픽셀을 선택하면, 디스플레이(19)는 선택된 픽셀의 특정 색공간 내에서의 좌표 값을 표시할 수 있다.The display 19 may display only the selectable composite images 25, 26, 27, 28, 29, or additional information that may be considered for selection may be displayed in the composite images 25, 26, 27, 28, 29. ) Can be displayed. For example, the display 19 may display information on a difference in color or contrast between each area of the inspection object 17 included in the composite images 25, 26, 27, 28, 29. In addition, when the user selects a pixel included in one of the composite images 25, 26, 27, 28, 29 displayed on the display 19, the display 19 displays the coordinate value of the selected pixel within a specific color space. Can be displayed.

검사용 이미지가 동일한 조명 조건하에서 획득된 이미지를 이용하여 생성되고, 물체의 가공 오차, 검사 대상이 놓이는 지그의 자세 오차, 조명 조건의 변동, 이미지 센서의 감도 변동 등과 같은 검사 환경 또는 검사 조건의 변화가 있을 경우, 외관 검사 장치(10)는 검사용 이미지에 포함된 검사 대상(17) 내에 일관된 검사 영역을 결정하기 어렵다. 예를 들어, 그레이-스케일 이미지와 같이 하나의 픽셀 특성을 갖는 이미지의 경우, 픽셀 특성이 이러한 변화에 크게 영향을 받을 수 있다.An inspection image is created using an image acquired under the same lighting conditions, and changes in the inspection environment or inspection conditions, such as processing errors of objects, errors in the posture of the jig on which the inspection target is placed, variations in lighting conditions, and variations in sensitivity of the image sensor. If there is, it is difficult for the appearance inspection apparatus 10 to determine a consistent inspection area within the inspection object 17 included in the inspection image. For example, in the case of an image having one pixel characteristic, such as a gray-scale image, the pixel characteristic can be greatly affected by this change.

그러나 합성 이미지들(25, 26, 27, 28, 29)은 서로 다른 조명 조건하에서 획득된 이미지들로부터 생성된 다차원의 색공간을 갖는 이미지이므로, 합성 이미지들(25, 26, 27, 28, 29)의 각 픽셀은 획득된 이미지들의 다양한 픽셀 특성이 조합되어 표현될 수 있다. 따라서, 검사 환경 또는 검사 조건에 조금 변화가 있더라도, 이와 같은 변화가 합성 이미지들(25, 26, 27, 28, 29)의 각 픽셀에 큰 영향을 주지 못한다. 따라서, 합성 이미지들(25, 26, 27, 28, 29) 중 하나가 외관 검사용 이미지로서 사용되면, 외관 검사 장치(10)는 검사 환경 또는 검사 조건에 조금 변화가 있더라도 일관된 검사 영역을 결정할 수 있다.However, since the composite images 25, 26, 27, 28, 29 have a multidimensional color space generated from images acquired under different lighting conditions, the composite images 25, 26, 27, 28, 29 Each pixel of) may be expressed by combining various pixel characteristics of the acquired images. Therefore, even if there is a slight change in the inspection environment or inspection conditions, such a change does not have a significant effect on each pixel of the composite images 25, 26, 27, 28, 29. Therefore, when one of the composite images 25, 26, 27, 28, 29 is used as an image for appearance inspection, the appearance inspection device 10 can determine a consistent inspection area even if there is a slight change in the inspection environment or inspection conditions. have.

또한, 결상부(15)의 FOV(field-of-view)가 제한적이므로, 검사용 이미지는 검사 대상의 각 부분을 포함하는 이미지들을 연결하여 획득될 수 있다. 그레이-스케일 이미지와 같이 하나의 픽셀 특성을 갖는 이미지들을 연결하여 검사용 이미지가 생성되면, 이미지들의 연결 지점들이 검사용 이미지 상에 노이즈로서 포함될 수 있다. 그러나 합성 이미지들(25, 26, 27, 28, 29)이 정의되는 색공간의 종류에 따라 합성 이미지들(25, 26, 27, 28, 29)은 컬러 이미지가 될 수 있다. 따라서, 컬러 이미지인 합성 이미지들을 연결하여 검사용 이미지를 생성하면, 이미지들의 연결 지점들에 나타나는 노이즈가 검사용 이미지 상에 보이지 않거나 크게 감소될 수 있다.In addition, since the field-of-view (FOV) of the imaging unit 15 is limited, the inspection image can be obtained by connecting images including each part of the inspection object. When an image for inspection is generated by connecting images having one pixel characteristic such as a gray-scale image, connection points of the images may be included as noise on the inspection image. However, the composite images 25, 26, 27, 28, and 29 may be color images according to the type of color space in which the composite images 25, 26, 27, 28, and 29 are defined. Therefore, when the composite images, which are color images, are connected to generate an inspection image, noise appearing at connection points of the images may not be visible on the inspection image or may be greatly reduced.

도 3은 본 발명의 일 실시예에 따라, 검사용 이미지 내에서 검사 영역을 결정하는 방법을 설명하기 위한 도면이다. 상술한 과정을 통해 외관 검사를 위한 합성 이미지(35)가 선택되면, 처리부(16)는 합성 이미지(35)에서 검사 대상(17)의 검사 영역을 결정할 수 있다. 외관 검사 장치(10)는 결정된 검사 영역 내에 외관의 결함(352)이 있는지 여부를 결정할 수 있다. 이하에서는 처리부(16)가 합성 이미지(35)에서 검사 대상(17)의 검사 영역을 결정하는 과정이 보다 구체적으로 설명된다.3 is a diagram for describing a method of determining an inspection area within an inspection image according to an embodiment of the present invention. When the composite image 35 for visual inspection is selected through the above-described process, the processing unit 16 may determine the inspection area of the inspection object 17 from the composite image 35. The appearance inspection apparatus 10 may determine whether there is an appearance defect 352 in the determined inspection area. Hereinafter, a process in which the processing unit 16 determines the inspection area of the inspection object 17 from the composite image 35 will be described in more detail.

처리부(16)는 합성 이미지(35)의 색공간을 제1 색공간에서 제2 색공간으로 변환할 수 있다. 제1 색공간은 합성 이미지(35) 생성 시 정의되는 색공간이거나 또는 이를 다른 색공간으로 1회 이상 변환한 색공간일 수 있다. 또한, 제1 색공간은 합성 이미지(35)의 생성 시 정의되는 다차원의 픽셀 공간을 특정 색공간으로 변환한 색공간일 수 있다.The processing unit 16 may convert the color space of the composite image 35 from the first color space to the second color space. The first color space may be a color space defined when the composite image 35 is generated, or a color space obtained by converting it to another color space one or more times. In addition, the first color space may be a color space obtained by converting a multidimensional pixel space defined when the composite image 35 is generated into a specific color space.

일 실시예에 따르면, 제1 색공간과 제2 색공간은 RGB 색공간, HSV 색공간, CMYK 색공간, YIQ 색공간, YPbPr 색공간, HSL 색공간 및 xvYCC 색공간 중 각각 서로 다르게 선택되는 색공간들일 수 있다. 다만, 이 외에도 알려진 다양한 색공간이 합성 이미지(35)의 제1 색공간 및 제2 색공간으로서 이용될 수 있다.According to an embodiment, the first color space and the second color space are different colors selected from among RGB color space, HSV color space, CMYK color space, YIQ color space, YPbPr color space, HSL color space, and xvYCC color space. It can be spaces. However, in addition to this, various known color spaces may be used as the first color space and the second color space of the composite image 35.

일 예로서, 처리부(16)는 합성 이미지(35)를 RGB 색공간에서 HSV 색공간으로 변환할 수 있다. 합성 이미지(35)의 어느 한 픽셀의 RGB 색공간에서의 좌표 값(R, G, B)은 다음과 같은 수학식 1을 이용하여 HSV 색공간에서의 좌표 값(H, S, V)으로 변환될 수 있다. 여기서 R, G, B는 각각 RGB 색공간에서의 적색의 값, 녹색의 값 및 청색의 값을 의미하고, H, S, V는 각각 HSV 색공간에서의 색상의 값, 채도의 값, 명도의 값을 의미한다.As an example, the processor 16 may convert the composite image 35 from an RGB color space to an HSV color space. Coordinate values (R, G, B) in the RGB color space of any one pixel of the composite image 35 are converted to coordinate values (H, S, V) in the HSV color space using Equation 1 below. Can be. Here, R, G, and B are the values of red, green, and blue in the RGB color space, respectively, and H, S, and V are the values of hue, saturation, and brightness in the HSV color space, respectively. Means value.

[수학식 1][Equation 1]

Figure 112018104092784-pat00001
Figure 112018104092784-pat00001

Figure 112018104092784-pat00002
Figure 112018104092784-pat00002

Figure 112018104092784-pat00003
Figure 112018104092784-pat00003

수학식 1은 RGB 색공간에서 HSV 색공간으로 변환하기 위한 수학식의 일 예이다. RGB 색공간에서 HSV 색공간으로 변환하는 다양한 수학식들이 있으며, 필요에 따라 다른 수학식이 사용될 수도 있다.Equation 1 is an example of an equation for converting from an RGB color space to an HSV color space. There are various equations for converting from RGB color space to HSV color space, and other equations may be used if necessary.

처리부(16)가 합성 이미지(35)의 색공간을 제1 색공간에서 제2 색공간으로 변환하면, 변환된 합성 이미지(35)는 디스플레이(19)에 표시될 수 있다. 또한, 처리부(16)는 합성 이미지(35) 내의 픽셀들 중 적어도 하나의 픽셀(351)과 연관된 제2 색공간에서의 좌표를 획득할 수 있다.When the processing unit 16 converts the color space of the composite image 35 from the first color space to the second color space, the converted composite image 35 may be displayed on the display 19. Also, the processor 16 may obtain coordinates in a second color space associated with at least one pixel 351 among pixels in the composite image 35.

일 실시예에 따르면, 적어도 하나의 픽셀(351)은 사용자의 입력에 의해 결정될 수 있다. 예를 들어, 사용자는 키보드, 마우스, 터치 스크린 등으로 구현된 사용자 인터페이스를 통해, 디스플레이(19)에 표시된 합성 이미지(35)에서 적어도 하나의 픽셀(351)을 선택할 수 있다. 사용자는 마우스나 키보드 등을 이용하여 표시된 합성 이미지(35) 상에 커서를 이동시킨 후, 적어도 하나의 픽셀(351)을 선택할 수 있다. 또한, 사용자는 터치 인터페이스를 포함하는 디스플레이(19) 상에 표시된 합성 이미지(35)를 터치함으로써, 적어도 하나의 픽셀(351)을 선택할 수 있다. 이와 같은 방식으로 적어도 하나의 픽셀(351)이 선택되면, 처리부(16)는 이와 연관된 제2 색공간에서의 좌표를 획득할 수 있다.According to an embodiment, at least one pixel 351 may be determined by a user's input. For example, the user may select at least one pixel 351 from the composite image 35 displayed on the display 19 through a user interface implemented with a keyboard, mouse, and touch screen. The user may select at least one pixel 351 after moving the cursor on the displayed composite image 35 using a mouse or a keyboard. In addition, the user may select at least one pixel 351 by touching the composite image 35 displayed on the display 19 including the touch interface. When at least one pixel 351 is selected in this manner, the processor 16 may obtain coordinates in the second color space associated therewith.

또 다른 실시예에 따르면, 적어도 하나의 픽셀(351)은 합성 이미지(35)의 제1 색공간 또는 제2 색공간에서의 성분들의 값에 기초하여 결정될 수 있다. 합성 이미지(35)는 제1 색공간 또는 제2 색공간에서 정의될 수 있는 픽셀들을 가지고 있다. 따라서, 처리부(16)는 픽셀들의 제1 색공간에서의 각 성분들의 값 또는 제2 색공간에서의 각 성분들의 값에 기초하여 합성 이미지(35) 내에서 적어도 하나의 픽셀(351)을 선택할 수 있다. 예를 들어, 처리부(16)는 RGB 색공간의 미리 정해진 적색의 값, 녹색의 값 및 청색의 값을 갖는 픽셀을, 적어도 하나의 픽셀(351)로서 선택할 수 있다. 또한, 처리부(16)는 HSV 색공간의 미리 정해진 색상의 값, 채도의 값 및 명도의 값을 갖는 픽셀을, 적어도 하나의 픽셀(351)로서 선택할 수 있다. 이와 같은 방식으로 적어도 하나의 픽셀(351)이 선택되면, 처리부(16)는 이와 연관된 제2 색공간에서의 좌표를 획득할 수 있다.According to another embodiment, at least one pixel 351 may be determined based on values of components in the first color space or the second color space of the composite image 35. The composite image 35 has pixels that can be defined in a first color space or a second color space. Accordingly, the processor 16 may select at least one pixel 351 in the composite image 35 based on the values of each component in the first color space of the pixels or the value of each component in the second color space. have. For example, the processor 16 may select a pixel having a predetermined red value, a green value, and a blue value in the RGB color space as at least one pixel 351. In addition, the processor 16 may select a pixel having a predetermined color value, a saturation value, and a brightness value of the HSV color space as at least one pixel 351. When at least one pixel 351 is selected in this manner, the processor 16 may obtain coordinates in the second color space associated therewith.

합성 이미지(35) 내의 픽셀들 중 적어도 하나의 픽셀(351)과 연관된 제2 색공간에서의 좌표가 획득되면, 처리부(16)는 획득된 적어도 하나의 좌표를 형성하는 제2 색공간의 성분들의 값에 기초하여 검사 영역을 결정할 수 있다. 일 실시예에 따르면, 제2 색공간의 성분들은 적어도 하나의 제1 성분 및 제2 성분을 포함할 수 있다. 예를 들어, 제2 색공간이 HSV 색공간이면, HSV 색공간의 색상, 채도 및 명도 중 하나가 제1 성분 또는 제2 성분이 될 수 있다. 처리부(16)는 획득된 적어도 하나의 좌표를 형성하는 HSV 색공간의 색상, 채도 및 명도 중 적어도 2개의 성분의 값에 기초하여 검사 영역을 결정할 수 있다.When the coordinates in the second color space associated with at least one pixel 351 among the pixels in the composite image 35 are acquired, the processing unit 16 includes the components of the second color space forming at least one of the obtained coordinates. The inspection area can be determined based on the value. According to an embodiment, components of the second color space may include at least one first component and a second component. For example, if the second color space is an HSV color space, one of hue, saturation, and brightness of the HSV color space may be the first component or the second component. The processor 16 may determine the inspection area based on values of at least two components of hue, saturation, and brightness of the HSV color space forming at least one obtained coordinate.

일 실시예에 따르면, 처리부(16)는 획득된 적어도 하나의 좌표의 제1 성분의 값을 포함하는 제1 성분의 범위와 획득된 적어도 하나의 좌표의 제2 성분의 값을 포함하는 제2 성분의 범위로 정의되는, 제2 색공간에서의 영역을 검사 영역으로 결정할 수 있다. 예를 들어, 도 3을 참조하면, 처리부(16)는 획득된 좌표의 성분들의 값(321, 331, 341)을 포함하는 범위들(322, 332, 342) 중 적어도 2개의 범위로 정의되는 제2 색공간에서의 영역을 검사 영역으로 결정할 수 있다.According to an embodiment, the processor 16 includes a range of a first component including a value of a first component of at least one coordinate obtained and a second component including a value of a second component of at least one obtained coordinate. The area in the second color space, defined as the range of, may be determined as the inspection area. For example, referring to FIG. 3, the processing unit 16 includes at least two ranges of ranges 322, 332, and 342 including values 321, 331, and 341 of the obtained coordinates. The area in the 2 color space can be determined as the inspection area.

일 예로서, 획득된 좌표의 제1 성분의 값이 HSV 색공간에서의 색상 값이고, 제2 성분의 값이 HSV 색공간에서의 채도 값이면, 처리부(16)는 획득된 좌표의 색상 값을 포함하는 제1 범위와 획득된 좌표의 채도 값을 포함하는 제2 범위로 정의되는 HSV 색공간에서의 영역을 검사 영역으로 결정할 수 있다.As an example, if the value of the first component of the acquired coordinates is a color value in the HSV color space, and the value of the second component is a saturation value in the HSV color space, the processor 16 determines the color value of the acquired coordinates. An area in the HSV color space defined by the included first range and the second range including the saturation value of the acquired coordinates may be determined as the inspection area.

또 다른 실시예에 따르면, 처리부(16)는 획득된 좌표의 제2 색공간에서의 모든 성분의 값을 각각 포함하는 제2 색공간에서의 영역을 검사 영역으로 결정할 수 있다. 예를 들어, 획득된 좌표의 HSV 색공간에서의 색상 값, 채도 값 및 명도 값을 각각 포함하는 범위들로 정의되는 HSV 색공간에서의 영역을 검사 영역으로 결정할 수 있다.According to another embodiment, the processor 16 may determine an area in the second color space each including values of all components in the second color space of the acquired coordinates as the inspection area. For example, an area in the HSV color space defined by ranges each including a hue value, a saturation value, and a brightness value in the HSV color space of the acquired coordinates may be determined as the inspection area.

일 실시예에 따르면, 제1 성분의 값을 포함하는 제1 성분의 범위와 제2 성분의 값을 포함하는 제2 성분의 범위는 각각 사용자의 입력에 의해 결정될 수 있다. 또한, 사용자는 획득된 좌표의 제2 색공간에서의 값을 포함하는 각 성분의 범위를 모두 결정할 수도 있다. 도 3에 도시된 바와 같이, 제2 색공간으로 변환된 합성 이미지(35)와 사용자 인터페이스(31)가 디스플레이(19)에 표시되면, 사용자는 사용자 인터페이스(31)를 통해 제1 성분의 범위와 제2 성분의 범위를 결정할 수 있다.According to an embodiment, the range of the first component including the value of the first component and the range of the second component including the value of the second component may be determined by user input, respectively. In addition, the user may determine all the ranges of each component including the value of the acquired coordinates in the second color space. As shown in FIG. 3, when the composite image 35 and the user interface 31 converted to the second color space are displayed on the display 19, the user can determine the range of the first component through the user interface 31 and The range of the second component can be determined.

구체적으로, 제2 색공간으로 변환된 합성 이미지(35)와, 합성 이미지(35)의 픽셀들의 제2 색공간에서의 제1 성분의 분포(32), 제2 성분의 분포(33) 및 제3 성분의 분포(34)가 표시되면, 사용자는 획득된 좌표의 성분들의 값(321, 331, 341)을 각각 포함하는 제1 성분의 범위(322), 제2 성분의 범위(332) 및 제3 성분의 범위(342) 중 적어도 2개를 선택할 수 있다. 예들 들어, 사용자는 제3 성분의 값(341)이 제3 성분의 분포(34) 상에 표시되면, 슬라이드(343)를 조정하여 제3 성분의 값(341)을 포함하는 제3 성분의 범위(342)를 결정할 수 있다. 동일한 방식으로, 사용자는 제1 성분의 범위(322) 및 제2 성분의 범위(332)를 슬라이드(343)와 같은 인터페이스를 이용하여 결정할 수 있다.Specifically, the composite image 35 converted to the second color space, the first component distribution 32, the second component distribution 33, and the second color space of the pixels of the composite image 35 When the distribution of three components (34) is displayed, the user can select the range of the first component (322), the range of the second component (332), and the second component, respectively, including the values (321, 331, 341) of the obtained coordinates. At least two of the three-component range 342 can be selected. For example, if the value of the third component (341) is displayed on the distribution of the third component (34), the user can adjust the slide 343 to determine the range of the third component that includes the value of the third component (341). 342 can be determined. In the same way, the user can determine the range 322 of the first component and the range 332 of the second component using an interface such as slide 343.

사용자 인터페이스(31) 상에서 각 성분의 범위(322, 332, 342)를 결정하는 인터페이스의 형태는 슬라이드(343)와 같은 형태에 한정되지 않고, 범위를 지정할 수 있는 다양한 형태의 인터페이스가 사용될 수 있다. 슬라이드(343)는 사용자가 디스플레이(19)에 설치된 터치 인터페이스를 통해 조정하거나 마우스와 같은 인터페이스를 통해 조정할 수 있다. 또한, 사용자는 각 성분의 범위(322, 332, 342)를 키보드를 이용하여 직접 입력할 수도 있다.The form of the interface for determining the ranges 322, 332, and 342 of each component on the user interface 31 is not limited to a form such as the slide 343, and various types of interfaces capable of designating a range may be used. The slide 343 can be adjusted by the user through a touch interface installed on the display 19 or through an interface such as a mouse. In addition, the user may directly input the ranges 322, 332, 342 of each component using a keyboard.

또 다른 실시예에 따르면, 적어도 제1 성분의 값을 포함하는 제1 성분의 범위와 제2 성분의 값을 포함하는 제2 성분의 범위는 각각 제1 성분의 값과 제2 성분의 값에 기초하여 결정될 수 있다. 처리부(16)는 획득된 좌표의 성분들의 값(321, 331, 341)에 따라, 미리 정해진 범위를 제1 성분의 범위 또는 제2 성분의 범위로서 결정할 수 있다. 또한, 처리부(16)는 획득된 좌표의 성분들의 값(321, 331, 341)을 미리 정해진 계산식에 적용하여, 제1 성분의 범위 또는 제2 성분의 범위를 결정할 수 있다. 일 예로서, 제1 성분이 HSV 색공간에서의 색상이라면, 처리부(16)는 획득된 좌표의 색상 값의 a% 값(예컨대, 5%)을, 획득된 좌표의 색상 값에 더한 값과 뺀 값을 계산하고, 이 두 값 사이의 범위를 제1 성분의 범위로서 결정할 수 있다.According to another embodiment, the range of the first component including at least the value of the first component and the range of the second component including the value of the second component are based on the value of the first component and the value of the second component, respectively. Can be determined. The processing unit 16 may determine a predetermined range as the range of the first component or the range of the second component according to the values 321, 331, and 341 of the obtained coordinate components. Also, the processing unit 16 may determine the range of the first component or the range of the second component by applying the values 321, 331, and 341 of the obtained coordinate components to a predetermined calculation formula. As an example, if the first component is a color in the HSV color space, the processing unit 16 subtracts the a% value (eg, 5%) of the color value of the acquired coordinates from the value added to the color value of the acquired coordinates. The value can be calculated and the range between these two values can be determined as the range of the first component.

본 발명의 일 실시예에 따른 외관 검사 장치(10)는, 검사용 이미지로서 합성 이미지(35)를 사용하는 것만으로도 정확하고 일관된 검사 영역을 결정할 수 있다. 그런데 외관 검사 장치(10)는, 합성 이미지(35)의 색공간을 제1 색공간에서 제2 색공간으로 변환한 후에, 합성 이미지(35)의 적어도 하나의 픽셀의 변환된 제2 색공간의 좌표 값에 기초하여 검사 영역을 결정함으로써, 검사 환경 또는 검사 조건의 변화가 있더라도 더욱 일관된 검사 영역을 결정할 수 있다. 이는 합성 이미지(35)의 색공간을 제1 색공간에서 제2 색공간으로 변환할 때, 합성 이미지(35)의 픽셀들을 정의하는 제2 색공간의 각 성분의 값이 제1 색공간의 2개 이상의 성분들의 값의 조합으로 결정되기 때문이다.The appearance inspection apparatus 10 according to an exemplary embodiment of the present invention can determine an accurate and consistent inspection area simply by using the composite image 35 as an inspection image. However, the appearance inspection apparatus 10 converts the color space of the composite image 35 from the first color space to the second color space, and then converts at least one pixel of the composite image 35 into the converted second color space. By determining the inspection area based on the coordinate value, it is possible to determine a more consistent inspection area even if there is a change in the inspection environment or inspection conditions. This is because when converting the color space of the composite image 35 from the first color space to the second color space, the value of each component of the second color space defining pixels of the composite image 35 is 2 of the first color space. This is because it is determined by a combination of values of more than two components.

예를 들어, 합성 이미지(35)의 색공간이 RGB 색공간에서 HSV 색공간으로 변환되면, 수학식 1에서 볼 수 있는 바와 같이, HSV 색공간의 색상, 채도 및 명도의 값은 각각 RGB 색공간의 적색, 녹색 및 청색의 값의 조합으로서 결정될 수 있다. 따라서, 검사 영역을 결정할 때, 색상, 채도 또는 명도의 값의 범위를 조정하는 것은, RGB 색공간의 적색, 녹색 및 청색의 값을 모두 조정하는 것과 동일하다.For example, when the color space of the composite image 35 is converted from the RGB color space to the HSV color space, as shown in Equation 1, the values of the hue, saturation, and brightness of the HSV color space are respectively RGB color spaces. May be determined as a combination of the values of red, green and blue. Therefore, when determining the inspection area, adjusting the range of values of hue, saturation, or brightness is the same as adjusting all the values of red, green, and blue in the RGB color space.

또한, 색상, 채도 또는 명도의 값의 범위를 조정하여 검사 영역을 결정하는 것은, 적색, 녹색 및 청색의 값에 각각 대응하는 상이한 조명 조건에서 획득된 이미지들의 픽셀 정보를 모두 고려하여 검사 영역을 결정하는 것이 될 수 있다. 따라서, 검사 환경 또는 검사 조건이 조금 변경되더라도, 이로 인한 변화가 검사 영역의 결정에 크게 영향을 주기 어렵다. 따라서, 외관 검사 장치(10)는 합성 이미지(35)의 변환된 색공간의 정보에 기초하여 검사 영역을 결정함으로써, 더욱 일관된 검사 영역을 결정할 수 있다.In addition, determining the inspection area by adjusting the range of values of hue, saturation, or brightness is to determine the inspection area by considering all pixel information of images acquired under different lighting conditions corresponding to the values of red, green, and blue. It can be. Therefore, even if the inspection environment or inspection conditions are slightly changed, it is difficult for the resulting change to greatly influence the determination of the inspection area. Accordingly, the appearance inspection apparatus 10 may determine a more consistent inspection area by determining the inspection area based on information on the converted color space of the composite image 35.

일반적으로, 검사 대상(17)의 외관에 관한 정보(예: CAD 정보 등)가 제공되지 않으므로, 외관 검사 장치(10)는 외관에 관한 정보를 검사 영역을 결정할 때 사용할 수 없다. 그러나 외관에 관한 정보가 제공된다면, 외관에 관한 정보를 통해 검사 대상(17)의 각 부분의 형상 및 치수와 같은 외관 정보가 획득될 수 있다. 따라서, 처리부(16)는 제2 색공간의 성분들의 값에 기초하여 결정된 검사 영역을 외관에 관한 정보를 통해 획득되는 검사 대상(17)의 외관 정보와 비교함으로써, 보다 정교하게 검사 영역을 결정할 수 있다. 예를 들어, 외관 검사 장치(10)는 검사 대상(17)의 특정 부분 내에 검사 영역이 포함되도록, 특정 부분의 형상과 검사 영역을 비교하면서, 사용자의 입력 또는 처리부(16)의 연산을 통해 획득된 좌표의 각 성분의 값을 포함하는 범위를 조정할 수 있다.In general, since information about the appearance of the inspection object 17 (eg, CAD information, etc.) is not provided, the appearance inspection apparatus 10 cannot use the information about the appearance when determining the inspection area. However, if information about the appearance is provided, appearance information such as the shape and dimensions of each part of the inspection object 17 may be obtained through the information about the appearance. Therefore, the processing unit 16 can determine the inspection area more precisely by comparing the inspection area determined based on the values of the components of the second color space with the appearance information of the inspection object 17 obtained through the information on the appearance. have. For example, the appearance inspection device 10 is obtained through user input or calculation of the processing unit 16 while comparing the shape of the specific portion and the inspection area so that the inspection area is included in a specific portion of the inspection object 17 You can adjust the range including the value of each component of the coordinated coordinates.

도 4는 본 발명의 일 실시예에 따라 결정된 검사 영역(353)이 합성 이미지(35) 위에 표시된 도면이다. 검사 영역(353)은 제1 색공간 또는 제2 색공간에서 정의되는 합성 이미지(35) 상에 표시될 수 있다. 검사용 이미지가 디스플레이(19)를 통해 표시되면, 사용자는 결정된 검사 영역(353)을 확인할 수 있다. 일 실시예에 따르면, 사용자는 사용자 인터페이스(31)의 각 성분의 범위(322, 332, 342)를 조정하여 결정된 검사 영역(353)을 수정할 수 있다.4 is a view in which an inspection area 353 determined according to an embodiment of the present invention is displayed on a composite image 35. The inspection area 353 may be displayed on the composite image 35 defined in the first color space or the second color space. When the inspection image is displayed through the display 19, the user can check the determined inspection area 353. According to an embodiment, the user may modify the determined inspection area 353 by adjusting the ranges 322, 332, and 342 of each component of the user interface 31.

외관 검사 장치(10)는 이 검사용 이미지를 이용하여 검사 영역(353) 내에 외관의 결함(352)이 존재하는지 여부를 결정할 수 있다. 일 실시예에 따르면, 처리부(16)는 검사 영역(353) 내에서 제2 색공간의 성분들의 값이 다른 영역을, 결함(352)이 있는 영역으로 결정할 수 있다. 예를 들어, 처리부(16)는 검사 영역(353) 내의 모든 또는 일부 픽셀들의 HSV 색공간에서의 색상, 채도 또는 명도의 값들을 서로 비교하고, 색상, 채도 또는 명도의 값이 차이가 많이 나는 픽셀들이 있는 영역을 결함(352)이 있는 영역으로 결정할 수 있다.The appearance inspection apparatus 10 can determine whether or not an appearance defect 352 exists in the inspection area 353 by using this inspection image. According to an exemplary embodiment, the processing unit 16 may determine an area in the inspection area 353 in which values of components of the second color space are different as the area in which the defect 352 is located. For example, the processing unit 16 compares the values of hue, saturation, or brightness in the HSV color space of all or some of the pixels in the inspection area 353 with each other, and a pixel having a large difference in hue, saturation, or brightness. An area in which there is a defect 352 may be determined as an area in which the defect 352 is located.

또 다른 실시예에 따르면, 처리부(16)는 제2 색공간의 성분들의 값의 변화량이 미리 결정된 기준치를 벗어나는 영역을, 결함(352)이 있는 영역으로 결정할 수 있다. 예를 들어, 처리부(16)는 검사 영역(353) 내 모든 또는 일부 픽셀들의 HSV 색공간에서의 색상, 채도 또는 명도의 값들 간의 변화량을 계산하고, 변화량이 미리 결정된 기준치를 벗어나는 픽셀들이 있는 영역을 결함(352)이 있는 영역으로 결정할 수 있다.According to another embodiment, the processing unit 16 may determine a region in which the amount of change of the values of the components of the second color space deviates from a predetermined reference value as the region in which the defect 352 is located. For example, the processing unit 16 calculates the amount of change between values of hue, saturation, or brightness in the HSV color space of all or some of the pixels in the inspection area 353, and calculates an area in which the amount of change is outside a predetermined reference value. It can be determined as an area in which the defect 352 is located.

일 실시예에 따르면, 처리부(16)는 제2 색공간의 성분들 중 어느 한 성분만을 기준으로 결함(352)이 있는지 여부를 결정할 수 있지만, 두 가지 이상의 성분들을 기준으로 결함(352)이 있는지 여부를 결정할 수도 있다. 예를 들어, 처리부(16)는 HSV 색공간에서의 색상만을 기준으로 결함(352)이 있는지 여부를 결정할 수 있고, 색상 및 밝기를 기준으로 이들 중 어느 한 성분의 특성 또는 이들 모두의 특성이 다른 영역을 결함(352)이 있는 영역으로 결정할 수도 있다.According to an embodiment, the processor 16 may determine whether or not there is a defect 352 based on only one of the components of the second color space, but whether there is a defect 352 based on two or more components. You can also decide whether or not. For example, the processing unit 16 may determine whether or not there is a defect 352 based only on the color in the HSV color space, and the characteristics of any one component or all of them are different based on the color and brightness. The region may be determined as the region in which the defect 352 is located.

일 실시예에 따르면, 처리부(16)는 외관 검사를 진행하기 전에, 결정된 검사 영역(353)에 포함된 노이즈를 제거할 수 있다. 검사 영역(353)에 포함된 노이즈는 결함(352)이 아님에도 불구하고, 처리부(16)가 노이즈가 있는 영역을 결함이 있는 영역으로서 결정할 수 있다. 따라서, 처리부(16)는 외관 검사를 진행하기 전에, 결정된 검사 영역(353)에 포함된 노이즈를 제거하고, 노이즈를 제거한 영역을 검사 영역으로 결정함으로써, 외관 검사의 정확성을 높일 수 있다.According to an exemplary embodiment, the processing unit 16 may remove noise included in the determined inspection area 353 before performing an appearance inspection. Although the noise included in the inspection area 353 is not the defect 352, the processing unit 16 may determine the area with the noise as the defective area. Accordingly, the processing unit 16 removes noise included in the determined inspection area 353 and determines the area from which noise is removed as the inspection area before performing the visual inspection, thereby increasing the accuracy of the appearance inspection.

도 5는 본 발명의 일 실시예에 따른 검사 영역을 결정하는 방법을 나타내는 흐름도이다. 이하 각 단계에 대해서 도면을 참조하여 보다 구체적으로 외관 검사를 진행할 검사 영역을 결정하는 방법이 설명된다.5 is a flowchart illustrating a method of determining an inspection area according to an embodiment of the present invention. Hereinafter, with reference to the drawings for each step, a method of determining an inspection area to perform an appearance inspection in more detail will be described.

먼저, 단계 S51에서, 외관 검사 장치는 검사 대상으로 조사된 광이 반사된 반사광을 결상하여 복수의 이미지를 획득할 수 있다. 외관 검사 장치(10)는 검사 대상(17)으로 조사되는 광의 조사각, 파장, 편광 중 적어도 하나를 달리하여 복수의 이미지 각각을 획득할 수 있다. 예를 들어, 도 1을 참조하면, 외관 검사 장치(10)는 복수의 조명부(11, 12, 13, 14)에서 상이한 조사각으로 검사 대상(17)에 광을 각각 조사하여 결상부(15)에서 결상된 복수의 이미지를 획득할 수 있다. 이를 위해, 복수의 조명부(11, 12, 13, 14)는 각각 상이한 조사각을 가지거나 또는 복수의 조명부(11, 12, 13, 14) 중 일부가 상이한 조사각을 가질 수 있다.First, in step S51, the appearance inspection apparatus may acquire a plurality of images by imaging the reflected light reflected by the light irradiated to the inspection object. The appearance inspection apparatus 10 may acquire each of a plurality of images by varying at least one of an irradiation angle, wavelength, and polarization of light irradiated to the inspection object 17. For example, referring to FIG. 1, the appearance inspection apparatus 10 irradiates light to the inspection object 17 at different irradiation angles from a plurality of illumination units 11, 12, 13, 14, respectively, and the imaging unit 15 It is possible to obtain a plurality of images imaged in. To this end, the plurality of illumination units 11, 12, 13, and 14 may each have different illumination angles, or some of the plurality of illumination units 11, 12, 13, and 14 may have different illumination angles.

또한, 획득된 복수의 이미지는 복수의 조명부(11, 12, 13, 14) 중 적어도 하나가 다른 조명부와 조사하는 광의 파장 및 편광 중 적어도 하나를 달리하여 획득된 이미지들일 수 있다. 이를 위해, 복수의 조명부(11, 12, 13, 14) 중 적어도 하나는 다른 조명부와 광원의 파장이 다른 광원을 포함하거나 광원으로부터 조사되는 광의 파장 및 편광 중 적어도 하나를 변경하 수 있는 필터를 포함할 수 있다.In addition, the acquired plurality of images may be images obtained by at least one of the plurality of illumination units 11, 12, 13, and 14 differently from at least one of a wavelength and polarization of light emitted from another illumination unit. To this end, at least one of the plurality of illumination units 11, 12, 13, 14 includes a light source having a different wavelength from the other illumination unit or a filter capable of changing at least one of the wavelength and polarization of light emitted from the light source. can do.

일 실시예에 따르면, 외관 검사 장치(10)는 검사 대상(17)의 표면의 재질, 재료 또는 형상에 따라 검사 대상(17)으로 조사되는 조명 조건을 변경할 수 있다. 예를 들어, 검사 대상(17)의 금속 표면의 균일한 정도나 반사 특성에 따라, 검사 대상(17)으로 조사되는 광의 조사각, 파장 또는 편광 중 적어도 하나의 특성을 달리하여 복수의 이미지가 획득될 수 있다. 검사 대상(17)의 표면이 굴곡진 모서리 부분임을 고려하여 검사 대상(17)으로 조사되는 광의 조사각, 파장 또는 조사각 중 적어도 하나의 특성을 달리하여 복수의 이미지가 획득될 수 있다.According to an embodiment, the appearance inspection apparatus 10 may change the lighting conditions irradiated to the inspection object 17 according to a material, material, or shape of the surface of the inspection object 17. For example, a plurality of images are obtained by varying at least one of the irradiation angle, wavelength, or polarization of light irradiated to the inspection object 17 according to the uniformity or reflection characteristic of the metal surface of the inspection object 17 Can be. Considering that the surface of the inspection object 17 is a curved edge portion, a plurality of images may be obtained by varying at least one of an irradiation angle, a wavelength, or an irradiation angle of light irradiated to the inspection object 17.

일 실시예에 따르면, 복수의 이미지의 픽셀들은 하나의 픽셀 특성으로 정의되는 이미지들일 수 있다. 예를 들어, 결상부(15)는 하나 이상의 흑백 카메라를 이용하여 구현될 수 있고, 결상부(15)에서 획득된 이미지는 광도로서 정의될 수 있는 그레이-스케일 이미지일 수 있다.According to an embodiment, pixels of a plurality of images may be images defined by a characteristic of one pixel. For example, the imaging unit 15 may be implemented using one or more monochrome cameras, and the image acquired by the imaging unit 15 may be a gray-scale image that can be defined as a luminous intensity.

단계 S51에서 복수의 이미지가 획득되면, 단계 S52에서, 외관 검사 장치는 복수의 이미지 중 2개 이상의 이미지들로부터 합성 이미지를 생성할 수 있다. 예를 들어, 도 1 및 2를 참조하면, 외관 검사 장치(10)의 처리부(16)는 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)을 선택하고, 이들로부터 합성 이미지들(25, 26, 27, 28, 29)과 같은 합성 이미지를 생성할 수 있다. 복수의 이미지 중 2개 이상의 이미지들 각각은 서로 다른 조명 조건하에서 획득된 이미지일 수 있다.When a plurality of images are acquired in step S51, in step S52, the appearance inspection apparatus may generate a composite image from two or more images of the plurality of images. For example, referring to FIGS. 1 and 2, the processing unit 16 of the visual inspection apparatus 10 selects two or more images 21, 22, 23, 24 from among a plurality of images, and a composite image Composite images such as s (25, 26, 27, 28, 29) can be created. Each of the two or more images among the plurality of images may be images obtained under different lighting conditions.

일 실시예에 따르면, 합성 이미지를 생성하는 단계는, 선택된 2개 이상의 이미지들(21, 22, 23, 24)로부터 각각 획득된 하나의 픽셀 특성의 값들을 조합하여 합성 이미지(25, 26, 27, 28, 29)를 생성하는 단계를 포함할 수 있다. 예를 들어, 이미지들(21, 22, 23, 24)은 그레이-스케일 이미지일 수 있고, 처리부(16)는 제1 내지 제3 이미지(21, 22, 23)로부터 획득된 하나의 픽셀 특성인 광도 값을 조합하여 합성 이미지(25)를 생성할 수 있다.According to an embodiment, the step of generating the composite image comprises combining values of one pixel characteristic obtained from two or more selected images 21, 22, 23, 24, respectively, and combining the composite images 25, 26, 27 , 28, 29). For example, the images 21, 22, 23, 24 may be gray-scale images, and the processing unit 16 may be a pixel characteristic obtained from the first to third images 21, 22, and 23. A composite image 25 may be generated by combining the luminance values.

단계 S52에서 합성 이미지가 생성되면, 단계 S53에서, 외관 검사 장치는 합성 이미지의 색공간은 제1 색공간에서 제2 색공간으로 변환할 수 있다. 예를 들어, 도 1 및 3을 참조하면, 외관 검사 장치(10)의 처리부(16)는 합성 이미지(35)의 색공간을 제1 색공간에서 제2 색공간으로 변환할 수 있다. 제1 색공간은 합성 이미지(35) 생성 시 정의되는 색공간이거나 또는 이를 다른 색공간으로 1회 이상 변환한 색공간일 수 있다. 또한, 제1 색공간은 합성 이미지(35)의 생성 시 정의되는 다차원의 픽셀 공간을 특정 색공간으로 변환한 색공간일 수 있다.When the composite image is generated in step S52, in step S53, the appearance inspection apparatus may convert the color space of the composite image from the first color space to the second color space. For example, referring to FIGS. 1 and 3, the processing unit 16 of the appearance inspection apparatus 10 may convert a color space of the composite image 35 from a first color space to a second color space. The first color space may be a color space defined when the composite image 35 is generated, or a color space obtained by converting it to another color space one or more times. Further, the first color space may be a color space obtained by converting a multidimensional pixel space defined when the composite image 35 is generated into a specific color space.

일 실시예에 따르면, 제1 색공간과 제2 색공간은 RGB 색공간, HSV 색공간, CMYK 색공간, YIQ 색공간, YPbPr 색공간, HSL 색공간 및 xvYCC 색공간 중 각각 서로 다르게 선택되는 색공간들일 수 있다. 다만, 이 외에도 알려진 다양한 색공간이 합성 이미지(35)의 제1 색공간 및 제2 색공간으로서 이용될 수 있다.According to an embodiment, the first color space and the second color space are different colors selected from among RGB color space, HSV color space, CMYK color space, YIQ color space, YPbPr color space, HSL color space, and xvYCC color space. It can be spaces. However, in addition to this, various known color spaces may be used as the first color space and the second color space of the composite image 35.

단계 S53에서 합성 이미지의 색공간이 제1 색공간에서 제2 색공간으로 변환되면, 단계 S54에서, 외관 검사 장치는 변환된 합성 이미지 내의 픽셀들 중 적어도 하나의 픽셀과 연관된 제2 색공간에서의 적어도 하나의 좌표를 획득할 수 있다. 예를 들어, 도 1 및 3을 참조하면, 외관 검사 장치(10)의 처리부(16)는 변환된 합성 이미지(35) 내의 픽셀들 중 적어도 하나의 픽셀(351)과 연관된 제2 색공간에서의 좌표를 획득할 수 있다.When the color space of the composite image is converted from the first color space to the second color space in step S53, in step S54, the appearance inspection apparatus performs a second color space associated with at least one of the pixels in the converted composite image. At least one coordinate can be obtained. For example, referring to FIGS. 1 and 3, the processing unit 16 of the visual inspection apparatus 10 is a second color space associated with at least one pixel 351 among pixels in the converted composite image 35. You can get the coordinates.

일 실시예에 따르면, 적어도 하나의 픽셀(351)은 사용자의 입력에 의해 결정될 수 있다. 예를 들어, 사용자는 키보드, 마우스, 터치 스크린 등으로 구현된 사용자 인터페이스를 통해, 디스플레이(19)에 표시된 합성 이미지(35)에서 적어도 하나의 픽셀(351)을 선택 또는 입력할 수 있다. 사용자가 적어도 하나의 픽셀(351)을 선택 또는 입력하면, 처리부(16)는 이와 연관된 제2 색공간에서의 적어도 하나의 좌표를 획득할 수 있다.According to an embodiment, at least one pixel 351 may be determined by a user's input. For example, the user may select or input at least one pixel 351 from the composite image 35 displayed on the display 19 through a user interface implemented with a keyboard, mouse, and touch screen. When the user selects or inputs at least one pixel 351, the processor 16 may obtain at least one coordinate in a second color space associated therewith.

또 다른 실시예에 따르면, 적어도 하나의 픽셀(351)은 합성 이미지(35)의 제1 색공간 또는 제2 색공간에서의 성분들의 값에 기초하여 결정될 수 있다. 합성 이미지(35)는 제1 색공간 또는 제2 색공간에서 정의될 수 있는 픽셀들을 가지고 있다. 따라서, 처리부(16)는 픽셀들의 제1 색공간에서의 각 성분들의 값 또는 제2 색공간에서의 각 성분들의 값에 기초하여 합성 이미지(35) 내에서 적어도 하나의 픽셀(351)을 결정할 수 있다. 이와 같은 방식으로 적어도 하나의 픽셀(351)이 결정되면, 처리부(16)는 이와 연관된 제2 색공간에서의 적어도 하나의 좌표를 획득할 수 있다.According to another embodiment, at least one pixel 351 may be determined based on values of components in the first color space or the second color space of the composite image 35. The composite image 35 has pixels that can be defined in a first color space or a second color space. Accordingly, the processor 16 may determine at least one pixel 351 in the composite image 35 based on the values of each component in the first color space of the pixels or the value of each component in the second color space. have. When at least one pixel 351 is determined in this manner, the processor 16 may obtain at least one coordinate in the second color space associated therewith.

단계 S54에서 합성 이미지 내의 픽셀들 중 적어도 하나의 픽셀과 연관된 제2 색공간에서의 적어도 하나의 좌표가 획득되면, 단계 S55에서, 외관 검사 장치는 적어도 하나의 좌표를 형성하는 제2 색공간에서의 성분들의 값에 기초하여 검사 영역을 결정할 수 있다. 예를 들어, 도 1, 3 및 4를 참조하면, 외관 검사 장치(10)의 처리부(16)는 합성 이미지(35) 내의 적어도 하나의 좌표를 형성하는 제2 색공간에서의 성분들의 값에 기초하여 검사 영역(353)을 결정할 수 있다.When at least one coordinate in the second color space associated with at least one pixel among the pixels in the composite image is obtained in step S54, in step S55, the appearance inspection apparatus is used in the second color space forming at least one coordinate. The inspection area may be determined based on the values of the components. For example, referring to FIGS. 1, 3 and 4, the processing unit 16 of the visual inspection apparatus 10 is based on the values of components in the second color space forming at least one coordinate in the composite image 35. Thus, the inspection area 353 may be determined.

일 실시예에 따르면, 제2 색공간의 성분들은 적어도 제1 성분 및 제2 성분을 포함할 수 있다. 이때 검사 영역(353)을 결정하는 단계는, 획득된 적어도 하나의 좌표의 제1 성분의 값을 포함하는 제1 성분의 범위와 획득된 적어도 하나의 좌표의 제2 성분의 값을 포함하는 제2 성분의 범위로 정의되는, 제2 색공간에서의 영역을 검사 영역(353)으로 결정하는 단계를 포함할 수 있다. 예를 들어, 도 3을 참조하면, 처리부(16)는 획득된 좌표의 성분들의 값(321, 331, 341)을 포함하는 범위들(322, 332, 342) 중 적어도 2개의 범위로 정의되는 제2 색공간에서의 영역을 검사 영역(353)으로 결정할 수 있다.According to an embodiment, components of the second color space may include at least a first component and a second component. In this case, the determining of the inspection area 353 includes a range of a first component including a value of a first component of at least one coordinate obtained and a second component including a value of a second component of the acquired at least one coordinate. It may include the step of determining an area in the second color space defined as a range of components as the inspection area 353. For example, referring to FIG. 3, the processing unit 16 includes at least two ranges of ranges 322, 332, and 342 including values 321, 331, and 341 of the obtained coordinates. The area in the 2 color space may be determined as the inspection area 353.

일 실시예에 따르면, 제1 성분의 값을 포함하는 제1 성분의 범위와 제2 성분의 값을 포함하는 제2 성분의 범위는 각각 사용자의 입력에 의해 결정될 수 있다. 사용자는 획득된 좌표의 제2 색공간에서의 값을 포함하는 각 성분의 범위를 모두 결정할 수도 있다. 도 3에 도시된 바와 같이, 제2 색공간으로 변환된 합성 이미지(35)와 사용자 인터페이스(31)가 디스플레이(19)에 표시되면, 사용자는 사용자 인터페이스(31)를 통해 제1 성분의 범위와 제2 성분의 범위를 결정할 수 있다.According to an embodiment, the range of the first component including the value of the first component and the range of the second component including the value of the second component may be determined by user input, respectively. The user may determine all the ranges of each component including the value of the acquired coordinates in the second color space. As shown in FIG. 3, when the composite image 35 and the user interface 31 converted to the second color space are displayed on the display 19, the user can determine the range of the first component through the user interface 31 and The range of the second component can be determined.

또 다른 실시예에 따르면, 제1 성분의 값을 포함하는 제1 성분의 범위와 제2 성분의 값을 포함하는 제2 성분의 범위는 각각 제1 성분의 값과 제2 성분의 값에 기초하여 결정될 수 있다. 예를 들어, 처리부(16)는 획득된 좌표의 성분들의 값(321, 331, 341)에 따라, 미리 정해진 범위를 제1 성분의 범위 또는 제2 성분의 범위로서 결정할 수 있다. 또한, 처리부(16)는 획득된 좌표의 성분들의 값(321, 331, 341)을 미리 정해진 계산식에 적용하여, 제1 성분의 범위 또는 제2 성분의 범위를 결정할 수 있다.According to another embodiment, the range of the first component including the value of the first component and the range of the second component including the value of the second component are respectively based on the value of the first component and the value of the second component. Can be determined. For example, the processor 16 may determine a predetermined range as the range of the first component or the range of the second component according to the values 321, 331, and 341 of the obtained coordinate components. Also, the processing unit 16 may determine the range of the first component or the range of the second component by applying the values 321, 331, and 341 of the obtained coordinate components to a predetermined calculation formula.

일 실시예에 따르면, 검사 영역(353)을 결정하는 단계는, 결정된 검사 영역(353)에 포함된 노이즈를 제거하는 단계를 포함할 수 있다. 결정된 검사 영역(353)에 포함된 노이즈는 결함(352)이 아님에도 불구하고, 처리부(16)가 노이즈가 있는 영역을 결함이 있는 영역으로서 결정할 수 있다. 따라서, 외관 검사를 진행하기 전에, 처리부(16)는 결정된 검사 영역(353)에 포함된 노이즈를 제거하고, 노이즈를 제거한 영역을 검사 영역으로 결정함으로써, 외관 검사의 정확성을 높일 수 있다.According to an embodiment, determining the inspection area 353 may include removing noise included in the determined inspection area 353. Although the noise included in the determined inspection area 353 is not the defect 352, the processing unit 16 may determine the area with the noise as the defective area. Therefore, before proceeding with the visual inspection, the processing unit 16 removes noise included in the determined inspection area 353 and determines the area from which noise has been removed as the inspection area, thereby improving the accuracy of the appearance inspection.

이하에서는 상술한 외관 검사 장치 및 검사 영역을 결정하는 방법의 일 실시예로서, 상이한 조사각으로 검사 대상에 광을 조사하여 획득된 복수의 이미지를 이용하여 검사 영역을 결정하는 실시예가 도 1 내지 3을 참조하여 구체적으로 설명된다.Hereinafter, as an embodiment of the above-described appearance inspection apparatus and a method of determining an inspection area, an embodiment in which an inspection area is determined using a plurality of images obtained by irradiating light to an inspection object at different irradiation angles is illustrated in FIGS. 1 to 3 It will be described in detail with reference to.

도 1을 참조하면, 외관 검사 장치(10)는 복수의 조명부(11, 12, 13, 14), 결상부(15), 처리부(16) 및 디스플레이(19)를 포함할 수 있다. 외관 검사 장치(10)는 상이한 조사각으로 검사 대상(17)으로 광을 조사하여 획득된 이미지들로부터 생성된 합성 이미지에 검사 대상(17)의 외관 검사 영역을 결정하고, 검사 영역 내에 결함이 있는지 여부를 판단할 수 있다.Referring to FIG. 1, the appearance inspection apparatus 10 may include a plurality of lighting units 11, 12, 13, and 14, an imaging unit 15, a processing unit 16, and a display 19. The appearance inspection apparatus 10 determines the appearance inspection area of the inspection object 17 in a composite image generated from images obtained by irradiating light to the inspection object 17 at different illumination angles, and whether there is a defect in the inspection area. You can judge whether or not.

복수의 조명부(11, 12, 13, 14)는 상이한 조사각으로 스테이지부(18) 위에 놓인 검사 대상(17)에 광을 조사할 수 있다. 도 1에 도시된 실시예에서는 복수의 조명부가 4개의 조명부로 구성되어 있지만, 2개 이상의 상이한 조사각으로 광을 조사하는 조명부들로 구성될 수 있다. 일 실시예에 따르면, 복수의 조명부(11, 12, 13, 14)는 각각 상이한 조사각을 가질 수 있다. 또 다른 실시예에 따르면, 복수의 조명부(11, 12, 13, 14) 중 일부가 상이한 조사각을 가질 수 있다. 또 다른 실시예에 따르면, 복수의 조명부(11, 12, 13, 14) 중 하나가 조사각을 조정할 수 있는 구성을 포함할 수 있다. 복수의 조명부(11, 12, 13, 14)의 조사각의 크기는 제한이 없으며, 0도에서 90도 사이에서 선택될 수 있다.The plurality of illumination units 11, 12, 13, and 14 may irradiate light to the inspection object 17 placed on the stage unit 18 at different irradiation angles. In the embodiment illustrated in FIG. 1, a plurality of lighting units are composed of four lighting units, but may be composed of lighting units that irradiate light at two or more different irradiation angles. According to an embodiment, the plurality of lighting units 11, 12, 13, and 14 may each have a different irradiation angle. According to another embodiment, some of the plurality of lighting units 11, 12, 13, and 14 may have different irradiation angles. According to another embodiment, one of the plurality of lighting units 11, 12, 13, 14 may include a configuration capable of adjusting the irradiation angle. The size of the irradiation angle of the plurality of lighting units 11, 12, 13, and 14 is not limited, and may be selected from 0 degrees to 90 degrees.

결상부(15)는 복수의 조명부(11, 12, 13, 14) 각각으로부터의 광이 검사 대상(17)으로부터 반사(난반사를 포함)된 반사광을 결상하여 복수의 이미지를 획득할 수 있다. 결상부(15)는 스테이지부(18)의 위쪽에 설치되며, 검사 대상(17)의 외관을 포함하는 이미지를 획득할 수 있다.The imaging unit 15 may acquire a plurality of images by imaging reflected light in which light from each of the plurality of illumination units 11, 12, 13, and 14 is reflected from the inspection object 17 (including diffuse reflection). The imaging unit 15 is installed above the stage unit 18, and an image including the appearance of the inspection object 17 may be obtained.

처리부(16)는 결상부(15)에서 획득된 복수의 이미지를 이용하여 검사용 이미지를 생성하고, 검사용 이미지 상에 외관 검사 영역을 결정하며, 검사 영역 내에 외관의 결함이 있는지 여부를 판단할 수 있다. 일 실시예에 따르면, 처리부(16)는 결상부(15)에서 획득된 복수의 이미지 중 2개 이상의 이미지들로부터 생성된 합성 이미지에서 검사 대상(17)의 검사 영역을 결정할 수 있다.The processing unit 16 generates an inspection image using a plurality of images acquired by the imaging unit 15, determines an appearance inspection area on the inspection image, and determines whether there is an appearance defect in the inspection area. I can. According to an embodiment, the processing unit 16 may determine the inspection area of the inspection object 17 from a composite image generated from two or more images of a plurality of images acquired by the imaging unit 15.

디스플레이(19)는 결상부(15)에서 획득된 복수의 이미지, 복수의 이미지 중 2개 이상의 이미지로부터 생성된 합성 이미지 및 검사 대상(17)의 검사 영역 중 적어도 하나를 표시할 수 있다. 일 실시예에 따르면, 외관 검사 장치(10)는 키보드, 마우스와 같은 외부 인터페이스 또는 디스플레이(19)에 설치된 터치 인터페이스와 같은 사용자 인터페이스를 통해 디스플레이(19)에 표시된 이미지를 조정하거나 선택할 수 있다.The display 19 may display at least one of a plurality of images acquired by the imaging unit 15, a composite image generated from two or more of the plurality of images, and an inspection area of the inspection object 17. According to an embodiment, the appearance inspection apparatus 10 may adjust or select an image displayed on the display 19 through an external interface such as a keyboard and a mouse, or a user interface such as a touch interface installed on the display 19.

일 실시예에 따르면, 복수의 조명부(11, 12, 13, 14) 각각은 한 개 또는 복수 개의 광원으로 구현될 수 있다. 각 광원은 LED 등을 이용하여 구현될 수 있으나, 이에 한정되지는 않는다. 일 실시예에 따르면, 복수의 조명부(11, 12, 13, 14) 각각은 검사 대상(17)을 향해 여러 방향에서 광을 조사할 수 있다. 예를 들어, 복수의 조명부(11, 12, 13, 14)에 포함된 광원들이 검사 대상(17)을 중심으로 하는 동심원 상에 위치함으로써, 복수의 조명부(11, 12, 13, 14) 각각은 검사 대상(17)을 향해 여러 방향에서 광을 조사할 수 있다.According to an embodiment, each of the plurality of lighting units 11, 12, 13, and 14 may be implemented with one or a plurality of light sources. Each light source may be implemented using an LED or the like, but is not limited thereto. According to an exemplary embodiment, each of the plurality of illumination units 11, 12, 13, and 14 may irradiate light toward the inspection object 17 from various directions. For example, since the light sources included in the plurality of lighting units 11, 12, 13, and 14 are located on a concentric circle centered on the inspection object 17, each of the plurality of illumination units 11, 12, 13, 14 Light can be irradiated from various directions toward the inspection object 17.

일 실시예에 따르면, 결상부(15)는 하나의 픽셀 특성으로 정의되는 이미지를 획득할 수 있다. 따라서, 결상부(15)에서 획득된 이미지의 픽셀들은 하나의 픽셀 특성으로 정의될 수 있다. 예를 들어, 결상부(15)는 하나 이상의 흑백 카메라를 이용하여 구현될 수 있고, 결상부(15)에서 획득된 이미지는 광도로 정의될 수 있는 그레이-스케일 이미지일 수 있다.According to an embodiment, the imaging unit 15 may acquire an image defined by one pixel characteristic. Accordingly, the pixels of the image acquired by the imaging unit 15 may be defined as one pixel characteristic. For example, the imaging unit 15 may be implemented using one or more monochrome cameras, and the image acquired by the imaging unit 15 may be a gray-scale image that can be defined as a luminance.

다음은, 도 2를 참조하여, 외관 검사 장치(10)에서 검사용 이미지가 생성되는 과정이 설명된다. 처리부(16)는 결상부(15)에서 획득된 상이한 조사각으로 검사 대상(17)에 광을 조사하여 획득된 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)로부터 적어도 하나의 합성 이미지(25, 26, 27, 28, 29)를 생성할 수 있다. 생성된 합성 이미지들(25, 26, 27, 28, 29) 중 적어도 하나는 검사 대상(17)의 외관을 검사하는데 사용될 수 있다.Next, with reference to FIG. 2, a process of generating an image for inspection in the appearance inspection apparatus 10 will be described. The processing unit 16 is at least one from two or more images (21, 22, 23, 24) of a plurality of images obtained by irradiating light to the inspection object 17 at a different irradiation angle obtained by the imaging unit 15. You can create a composite image of (25, 26, 27, 28, 29). At least one of the generated composite images 25, 26, 27, 28, 29 may be used to inspect the appearance of the inspection object 17.

일 실시예에 따르면, 복수의 이미지는 복수의 조명부(11, 12, 13, 14) 각각에서 상이한 조사각으로 검사 대상(17)에 광을 조사하여 획득된 이미지들일 수 있다. 예를 들어, 복수의 이미지는 제1 조명부(11)에서 17도의 조사각으로 광을 조사하고, 제2 조명부(12)에서 30도의 조사각으로 광을 조사하며, 제3 조명부(13)에서 60도의 조사각으로 광을 조사하고, 제4 조명부(14)에서 70도의 조사각으로 광을 조사하여 각각 획득된 이미지들일 수 있다. 이때, 각 조명부는 한 가지 컬러의 광만 검사 대상(17)에 조사하거나 두 가지 이상의 컬러의 광을 검사 대상(17)에 순차적으로 조사할 수 있다. 또한, 복수의 조명부는 모두 동일한 컬러의 광을 검사 대상(17)에 조사하거나, 복수의 조명부 중 적어도 일부는 서로 상이한 컬러의 광을 검사 대상(17)에 조사할 수도 있다.According to an embodiment, the plurality of images may be images obtained by irradiating light onto the inspection object 17 at different irradiation angles from each of the plurality of illumination units 11, 12, 13, and 14. For example, a plurality of images are irradiated with light at an irradiation angle of 17 degrees from the first lighting unit 11, irradiating light at an irradiation angle of 30 degrees from the second lighting unit 12, and 60 from the third lighting unit 13 The images may be respectively obtained by irradiating light at an irradiation angle of degrees and irradiating light at an irradiation angle of 70 degrees from the fourth illumination unit 14. In this case, each of the lighting units may irradiate only light of one color onto the inspection object 17 or may sequentially irradiate light of two or more colors onto the inspection object 17. Further, all of the plurality of illumination units may irradiate light of the same color to the inspection object 17, or at least some of the plurality of illumination units may irradiate light of different colors to the inspection object 17.

일 실시예에 따르면, 복수의 조명부(11, 12, 13, 14) 각각은 적색, 녹색 및 청색의 광을 각각 검사 대상(17)으로 조사하거나 적색, 녹색 및 청색의 광 중에서 선택된 한 가지 또는 두 가지 광을 각각 검사 대상(17)으로 조사할 수 있다. 예를 들어, 복수의 조명부(11, 12, 13, 14) 각각은 적색, 녹색 및 청색의 광을 순차적으로 검사 대상(17)으로 조사할 수 있고 또는 적색, 녹색 및 청색의 광 중 녹색의 광만을 검사 대상(17)으로 조사할 수 있다.According to an embodiment, each of the plurality of illumination units 11, 12, 13, 14 irradiates red, green, and blue light to the inspection object 17, respectively, or one or two selected from red, green, and blue light. Each branch light can be irradiated to the inspection object 17. For example, each of the plurality of illumination units 11, 12, 13, 14 may sequentially irradiate red, green, and blue light to the inspection target 17, or only green light among red, green, and blue lights. Can be investigated as the inspection object 17.

또 다른 실시예에 따르면, 복수의 조명부(11, 12, 13, 14) 중 적어도 하나는 적색, 녹색 및 청색을 임의로 조합한 광을 검사 대상(17)에 조사할 수도 있다. 예를 들어, 복수의 조명부(11, 12, 13, 14) 중 적어도 하나는 백색의 광을 검사 대상(17)에 조사할 수 있다. 또 다른 실시예에 따르면, 복수의 조명부(11, 12, 13, 14) 중 적어도 하나는 적외선 또는 자외선을 검사 대상(17)에 조사할 수 있다. 결상부(15)는 이와 같은 복수의 조명부(11, 12, 13, 14) 각각으로부터의 광이 검사 대상(17)에 조사될 때, 검사 대상(17)의 이미지를 획득할 수 있다.According to another embodiment, at least one of the plurality of lighting units 11, 12, 13, and 14 may irradiate the object 17 with light obtained by arbitrarily combining red, green, and blue. For example, at least one of the plurality of lighting units 11, 12, 13, and 14 may irradiate white light onto the inspection object 17. According to another embodiment, at least one of the plurality of illumination units 11, 12, 13, and 14 may irradiate infrared rays or ultraviolet rays onto the inspection object 17. The imaging unit 15 may acquire an image of the inspection object 17 when the light from each of the plurality of illumination units 11, 12, 13, and 14 is irradiated onto the inspection object 17.

검사 대상(17)에 대한 복수의 이미지가 획득되면, 처리부(16)는 복수의 이미지 중 합성 이미지를 생성하기 위한 2개 이상의 이미지(21, 22, 23, 24)를 선택할 수 있다. 예를 들어, 제1 이미지(21)는 제1 조명부(11)의 광을 조사하여 획득된 이미지들 중에서 선택된 이미지이고, 제2 이미지(22)는 제2 조명부(12)의 광을 조사하여 획득된 이미지들 중 선택된 이미지이며, 제3 이미지(23)는 제3 조명부(13)의 광을 조사하여 획득된 이미지들 중 선택된 이미지이고, 제4 이미지(24)는 제4 조명부(14)의 광을 조사하여 획득된 이미지들 중 선택된 이미지일 수 있다. 복수의 이미지 중 2개 이상의 이미지(21, 22, 23, 24)는 복수의 조명부(11, 12, 13, 14)로부터 각각 상이한 컬러(또는 상이한 파장)의 광이 조사되어 획득된 이미지들일 수 있다. 또한, 복수의 이미지 중 2개 이상의 이미지(21, 22, 23, 24)는 복수의 조명부(11, 12, 13, 14)로부터 각각 동일한 컬러(또는 동일한 파장)의 광이 조사되어 획득된 이미지들일 수 있다.When a plurality of images for the inspection object 17 are obtained, the processing unit 16 may select two or more images 21, 22, 23, and 24 for generating a composite image from among the plurality of images. For example, the first image 21 is an image selected from images obtained by irradiating light from the first lighting unit 11, and the second image 22 is obtained by irradiating light from the second lighting unit 12 The image is selected from among the selected images, the third image 23 is a selected image among images obtained by irradiating the light of the third lighting unit 13, and the fourth image 24 is the light of the fourth lighting unit 14. It may be an image selected from among images acquired by examining. Two or more of the plurality of images 21, 22, 23, and 24 may be images obtained by irradiating light of different colors (or different wavelengths) from the plurality of illumination units 11, 12, 13, 14, respectively. . In addition, two or more of the plurality of images (21, 22, 23, 24) are images obtained by irradiating light of the same color (or the same wavelength) from the plurality of illumination units (11, 12, 13, 14), respectively. I can.

일 실시예에 따르면, 처리부(16)는 선택된 제1 내지 제4 이미지(21, 22, 23, 24) 모두를 이용하여 합성 이미지를 생성할 수 있다. 또 다른 실시예에 따르면, 처리부(16)는 선택된 제1 내지 제4 이미지(21, 22, 23, 24) 중 2개 또는 3개의 이미지들을 이용하여 합성 이미지를 생성할 수 있다.According to an embodiment, the processing unit 16 may generate a composite image by using all of the selected first to fourth images 21, 22, 23, and 24. According to another embodiment, the processing unit 16 may generate a composite image by using two or three images among the selected first to fourth images 21, 22, 23, and 24.

처리부(16)는 선택된 2개 이상의 이미지들(21, 22, 23, 24)로부터 각각 획득된 하나의 픽셀 특성의 값들을 조합하여 합성 이미지를 생성할 수 있다. 예를 들어, 이미지들(21, 22, 23, 24)은 그레이-스케일 이미지일 수 있고, 이때 이미지들(21, 22, 23, 24)로부터 획득된 하나의 픽셀 특성인 광도 값들을 조합하여 합성 이미지를 생성할 수 있다.The processing unit 16 may generate a composite image by combining values of one pixel characteristic obtained from two or more selected images 21, 22, 23, and 24, respectively. For example, the images 21, 22, 23, 24 may be gray-scale images, and at this time, the luminance values, which are one pixel characteristic obtained from the images 21, 22, 23, 24, are combined and synthesized. You can create an image.

이하에서는 2개 이상의 이미지들(21, 22, 23, 24)이 그레이-스케일 이미지인 경우에, 이미지들(21, 22, 23, 24)로부터 합성 이미지를 생성하는 과정을 설명한다. 처리부(16)는 이미지들(21, 22, 23, 24)로부터 각 픽셀의 광도 값을 획득하고, 획득된 광도 값들을 조합하여 합성 이미지를 생성할 수 있다. 처리부(16)는 이미지들(21, 22, 23, 24) 모두로부터 각 픽셀의 광도 값을 획득하여 합성 이미지(25)를 생성할 수 있다. 또한, 처리부(16)는 이미지들(21, 22, 23, 24) 중 2개 또는 3개의 이미지로부터 각 픽셀의 광도 값을 획득하여 합성 이미지(25)를 생성할 수 있다.Hereinafter, when two or more images 21, 22, 23, and 24 are gray-scale images, a process of generating a composite image from the images 21, 22, 23 and 24 will be described. The processing unit 16 may obtain a luminance value of each pixel from the images 21, 22, 23, and 24, and may generate a composite image by combining the obtained luminance values. The processor 16 may generate the composite image 25 by obtaining a luminance value of each pixel from all of the images 21, 22, 23, and 24. Also, the processing unit 16 may generate the composite image 25 by obtaining a luminance value of each pixel from two or three of the images 21, 22, 23, and 24.

일 예로서, 처리부(16)가 이미지들(21, 22, 23, 24) 중 제1 내지 제3 이미지(21, 22, 23)와 같이 3개의 이미지를 이용하여 합성 이미지를 생성할 수 있다. 이 경우, 처리부(16)는 제1 내지 제3 이미지들(21, 22, 23)로부터 각 픽셀의 광도 값을 획득할 수 있고, 각 픽셀의 특정 색공간에서의 좌표 값을 각 이미지로부터 획득된 광도 값을 이용하여 설정함으로써, 합성 이미지를 생성할 수 있다.As an example, the processing unit 16 may generate a composite image using three images, such as the first to third images 21, 22, and 23 of the images 21, 22, 23, and 24. In this case, the processor 16 may obtain the luminance value of each pixel from the first to third images 21, 22, and 23, and the coordinate value of each pixel in a specific color space is obtained from each image. By setting using a luminance value, a composite image can be created.

일 실시예에 따르면, RGB 색공간, HSV 색공간, CMYK 색공간, YIQ 색공간, YPbPr 색공간, HSL 색공간 및 xvYCC 색공간 등이 합성 이미지(25) 생성에 이용될 수 있다. 다만, 이 외에도 알려진 다양한 색공간이 합성 이미지(25)의 생성 시 이용될 수 있다.According to an embodiment, an RGB color space, an HSV color space, a CMYK color space, a YIQ color space, a YPbPr color space, an HSL color space, and an xvYCC color space may be used to generate the composite image 25. However, in addition to this, various known color spaces may be used when generating the composite image 25.

예를 들어, RGB 색공간을 이용하여 합성 이미지(25)를 생성한다면, 처리부(16)는 제1 내지 제3 이미지들(21, 22, 23)의 동일한 위치에 있는 픽셀에서 획득된 광도 값을, 합성 이미지의 RGB 색공간을 이루는 좌표 값, 즉 적색, 녹색 및 청색 값을 대표하는 값으로 변환할 수 있다. 따라서, 처리부(16)는, 변환된 값들에 기초하여 픽셀을 정의하는 RGB 색공간의 좌표 값을 설정할 수 있고, 동일한 방식으로 나머지 픽셀들에 대해 RGB 색공간의 좌표 값들을 설정함으로써, 합성 이미지(25)를 생성할 수 있다. 동일한 방식으로, 처리부(16)는 제2 내지 제4 이미지(22, 23, 24)를 선택하여 합성 이미지(26)를 생성하고, 제1, 제3 및 제4 이미지(21, 23, 24)를 선택하여 합성 이미지(27)를 생성하고, 제1, 제2 및 제4 이미지(21, 22, 24)를 선택하여 합성 이미지(28)를 생성할 수 있다.For example, if the composite image 25 is generated using the RGB color space, the processing unit 16 calculates the luminance value obtained from the pixel at the same position of the first to third images 21, 22, and 23. , Coordinate values constituting the RGB color space of the composite image, that is, values representing red, green, and blue values may be converted. Accordingly, the processing unit 16 may set coordinate values of an RGB color space defining a pixel based on the converted values, and set coordinate values of the RGB color space for the remaining pixels in the same manner, thereby setting the composite image ( 25) can be created. In the same way, the processing unit 16 generates a composite image 26 by selecting the second to fourth images 22, 23, 24, and the first, third and fourth images 21, 23, 24 The composite image 27 may be generated by selecting, and the composite image 28 may be generated by selecting the first, second and fourth images 21, 22, and 24.

다른 예로서, 처리부(16)가 이미지들(21, 22, 23, 24) 모두를 이용하여 합성 이미지(29)를 생성할 수도 있다. 합성 이미지(29)가 이와 같이 4개의 이미지들을 이용하여 생성되면, 합성 이미지(29)는 각 픽셀이 4차원의 픽셀 공간에서의 좌표로 정의될 수 있다. 이용되는 이미지들의 개수가 늘어날수록, 합성 이미지의 각 픽셀을 정의하는 픽셀 공간의 차원은 증가한다.As another example, the processing unit 16 may generate the composite image 29 using all of the images 21, 22, 23, and 24. When the composite image 29 is generated using the four images as described above, the composite image 29 may be defined as a coordinate in which each pixel is a four-dimensional pixel space. As the number of images used increases, the dimension of the pixel space defining each pixel of the composite image increases.

합성 이미지가 4개 이상의 차원을 갖는 픽셀 공간에서 정의되면, 합성 이미지는 합성 이미지 생성에 사용된 이미지들을 이용하여, 알려진 특정 색공간(예컨대, RGB 색공간)에서 정의되는 합성 이미지로 변환될 수 있다. 예를 들어, 이미지들(21, 22, 23, 24)이 그레이-스케일 이미지들이고, 합성 이미지가 4개의 이미지들(21, 22, 23, 24)을 이용하여 생성되면, 처리부(16)는 이미지들(21, 22, 23, 24)로부터 획득된 광도 값을 이용하여 합성 이미지(29)를 특정 색공간에서 정의되는 합성 이미지(29)로 변환할 수 있다.When a composite image is defined in a pixel space having four or more dimensions, the composite image can be converted into a composite image defined in a known specific color space (eg, RGB color space) using images used to generate the composite image. . For example, if the images 21, 22, 23, 24 are gray-scale images and a composite image is generated using the four images 21, 22, 23, 24, the processing unit 16 The composite image 29 may be converted into a composite image 29 defined in a specific color space by using the luminance value obtained from the fields 21, 22, 23, and 24.

예를 들어, 처리부(16)는 이미지들(21, 22, 23, 24)의 각각의 동일한 위치에 있는 픽셀에 대해, 이미지(21) 및 이미지(22)에서 획득된 광도 값들의 제1 평균 값, 이미지(22) 및 이미지(23)에서 획득된 광도 값들의 제2 평균 값, 이미지(23) 및 이미지(24)에서 획득된 광도 값들의 제3 평균 값을 획득할 수 있다. 처리부(16)는, 획득된 평균 값들에 기초하여 픽셀을 정의하는 RGB 색공간에서의 좌표 값을 설정할 수 있고, 동일한 방식으로 나머지 픽셀들에 대해 RGB 색공간의 좌표 값들을 설정함으로써, 합성 이미지(29)를 생성할 수 있다.For example, the processing unit 16 is a first average value of the luminance values obtained from the image 21 and the image 22 for each of the pixels at the same position of the images 21, 22, 23, 24 , A second average value of the luminance values obtained from the image 22 and the image 23, and a third average value of the luminance values obtained from the image 23 and the image 24 may be obtained. The processing unit 16 may set coordinate values in an RGB color space defining a pixel based on the obtained average values, and set coordinate values of the RGB color space for the remaining pixels in the same manner, thereby setting the composite image ( 29) can be created.

일반적으로 검사용 이미지는 동일한 조명부에서 광을 조사하여 획득된 이미지들을 이용하여 생성된다. 그런데, 조명부의 조사각에 따라 검사용 이미지 내의 검사 대상(17) 중 잘 드러나는 영역이 달라질 수 있다. 조명부의 조사각이 작을수록, 결상부(15)에서 획득된 검사 대상(17)의 이미지는 검사 대상(17)의 평탄한 영역을 잘 드러날 수 있다. 반면, 조명부의 조사각이 클수록, 결상부(15)에서 획득된 검사 대상(17)의 이미지는 검사 대상(17)의 기울어진 영역을 잘 드러낼 수 있다. 예를 들어, 도 1을 참조하면, 제1 조명부(11)의 광을 조사하여 획득된 이미지보다 제4 조명부(14)의 광을 조사하여 획득된 이미지가, 검사 대상(17)이 놓인 스테이지부(18)의 평면 대비, 검사 대상(17)의 기울기가 큰 영역을 잘 드러낼 수 있다.In general, an inspection image is generated using images obtained by irradiating light from the same lighting unit. However, a well-disclosed area of the inspection object 17 in the inspection image may vary according to the illumination angle of the lighting unit. The smaller the irradiation angle of the illumination unit, the better the image of the inspection object 17 obtained by the imaging unit 15 can reveal a flat area of the inspection object 17. On the other hand, as the irradiation angle of the illumination unit increases, the image of the inspection object 17 acquired by the imaging unit 15 may better reveal the inclined area of the inspection object 17. For example, referring to FIG. 1, the image obtained by irradiating the light of the fourth illumination unit 14 rather than the image obtained by irradiating the light of the first illumination unit 11 is the stage unit on which the inspection object 17 is placed. Compared to the plane of (18), an area in which the slope of the inspection object 17 is large can be clearly revealed.

이와 같이, 동일한 조명부에서 광을 조사하여 생성된 검사용 이미지는, 굴곡지거나 각진 3차원 외관을 갖는 검사 대상(17)의 외관을 모두 잘 드러내기 어렵다. 따라서, 동일한 조명부에서 광을 조사하여 생성된 검사용 이미지를 이용할 경우, 검사용 이미지에서 검사 대상(17)의 굴곡지거나 각진 각 부분들의 구분이 쉽지 않으며, 외관 검사 장치(10)는 검사용 이미지에 포함된 검사 대상(17) 내에 검사 영역을 정확히 결정하기 어려울 수 있다.In this way, the inspection image generated by irradiating light from the same lighting unit is difficult to reveal all the appearance of the inspection object 17 having a curved or angular three-dimensional appearance. Therefore, when using an inspection image generated by irradiating light from the same lighting unit, it is not easy to distinguish each curved or angled portion of the inspection object 17 in the inspection image, and the appearance inspection device 10 It may be difficult to accurately determine an inspection area within the included inspection object 17.

이에 반해, 합성 이미지(25, 25, 27, 28, 29)는 상이한 조사각으로 검사 대상(17)에 광을 조사하여 획득된 이미지들로부터 생성되므로, 합성 이미지(25, 26, 27, 28, 29)는 각 조명부의 조사각에 따라 잘 드러나는 영역을 모두 포함할 수 있다. 따라서, 합성 이미지들(25, 26, 27, 28, 29) 중 하나를 외관 검사용 이미지로 결정하면, 검사용 이미지에서 검사 대상(17)의 굴곡지거나 각진 각 부분들의 구분이 용이할 수 있다. 따라서, 외관 검사 장치(10)는 합성 이미지들(25, 26, 27, 28, 29) 중 하나를 검사용 이미지로서 사용하면, 검사용 이미지에 포함된 검사 대상(17) 내에 검사 영역을 정확히 결정할 수 있다.On the other hand, since the composite images 25, 25, 27, 28, 29 are generated from images obtained by irradiating light to the inspection object 17 at different irradiation angles, the composite images 25, 26, 27, 28, 29) may include all areas that are well exposed according to the irradiation angle of each lighting unit. Accordingly, if one of the composite images 25, 26, 27, 28, and 29 is determined as an image for appearance inspection, it may be easy to distinguish the curved or angled portions of the inspection object 17 in the inspection image. Therefore, when the appearance inspection apparatus 10 uses one of the composite images 25, 26, 27, 28, 29 as an inspection image, the inspection area is accurately determined in the inspection object 17 included in the inspection image. I can.

또한, 그레이-스케일 이미지와 같이 하나의 픽셀 특성을 갖는 이미지에서는 검사 대상(17)이 놓이는 위치, 조사각, 지그의 자세 오차 등 외부 요인이 조금만 변하더라도, 픽셀 특성이 이로부터 영향을 많이 받을 수 있다. 따라서, 그레이-스케일 이미지가 검사용 이미지로서 사용되면, 외관 검사 장치(10)는 검사용 이미지에 포함된 검사 대상(17) 내에 일관된 검사 영역을 결정하기 어렵다. 그러나, 합성 이미지들(25, 26, 27, 28, 29)은 하나의 픽셀 특성을 갖는 이미지들로부터 생성된 다차원의 색공간을 갖는 이미지이므로, 합성 이미지들(25, 26, 27, 28, 29)의 각 픽셀은 여러 좌표 값들이 조합되어 표현될 수 있다. 따라서, 외부 요인의 변화가 있더라도, 이와 같은 변화가 합성 이미지들(25, 26, 27, 28, 29)의 각 픽셀에 영향을 크게 주지 못한다. 따라서, 합성 이미지들(25, 26, 27, 28, 29) 중 하나가 검사용 이미지로서 사용되면, 외관 검사 장치(10)는 그레이-스케일 이미지를 사용하는 경우에 비해, 일관된 검사 영역을 결정할 수 있다.In addition, in an image having one pixel characteristic, such as a gray-scale image, even if the external factors such as the position where the object to be inspected 17 is placed, the irradiation angle, and the posture error of the jig are slightly changed, the pixel characteristics can be greatly affected by this. have. Therefore, when the gray-scale image is used as the inspection image, it is difficult for the appearance inspection apparatus 10 to determine a consistent inspection area within the inspection object 17 included in the inspection image. However, since the composite images 25, 26, 27, 28, 29 have a multidimensional color space generated from images having one pixel characteristic, the composite images 25, 26, 27, 28, 29 Each pixel of) can be expressed by combining several coordinate values. Therefore, even if there is a change in an external factor, such a change does not significantly affect each pixel of the composite images 25, 26, 27, 28, 29. Therefore, when one of the composite images 25, 26, 27, 28, 29 is used as an inspection image, the appearance inspection device 10 can determine a consistent inspection area compared to the case of using a gray-scale image. have.

또한, 결상부(15)의 FOV(field-of-view)가 제한적이므로, 검사용 이미지는 검사 대상의 각 부분을 포함하는 이미지들을 연결하여 획득된다. 그런데, 그레이-스케일 이미지와 같이 하나의 픽셀 특성을 갖는 이미지들을 연결하여 검사용 이미지가 생성되면, 이미지들의 연결 지점들이 검사용 이미지 상에 노이즈로서 포함될 수 있다. 그러나 합성 이미지들(25, 26, 27, 28, 29)이 정의되는 색공간의 종류에 따라 합성 이미지들(25, 26, 27, 28, 29)이 컬러 이미지가 될 수 있다. 따라서, 검사 대상(17)의 각 부분을 촬영한 컬러 합성 이미지들을 연결하여 검사용 이미지를 생성하면, 이미지들의 연결 지점들에 나타나는 노이즈가 검사용 이미지 상에 보이지 않거나 크게 감소될 수 있다.In addition, since the field-of-view (FOV) of the imaging unit 15 is limited, the inspection image is obtained by connecting images including each part of the inspection object. However, when an image for inspection is generated by connecting images having one pixel characteristic such as a gray-scale image, connection points of the images may be included as noise on the inspection image. However, the composite images 25, 26, 27, 28, and 29 may be color images according to the type of color space in which the composite images 25, 26, 27, 28, and 29 are defined. Accordingly, when an image for inspection is generated by connecting color composite images photographing each portion of the inspection object 17, noise appearing at the connection points of the images may not be visible on the inspection image or may be greatly reduced.

다음은 도 3을 참조하여, 검사용 이미지 내에서 검사 영역을 결정하는 과정이 설명된다. 상술한 과정을 통해 합성 이미지(35)가 생성되면, 처리부(16)는 합성 이미지(35)에서 검사 대상(17)의 검사 영역을 결정할 수 있다. 외관 검사 장치(10)는 결정된 검사 영역 내에 외관의 결함(352)이 있는 지 여부를 결정할 수 있다.Next, with reference to FIG. 3, a process of determining an inspection area in the inspection image will be described. When the composite image 35 is generated through the above-described process, the processing unit 16 may determine the inspection area of the inspection object 17 from the composite image 35. The appearance inspection apparatus 10 may determine whether there is an appearance defect 352 in the determined inspection area.

먼저, 처리부(16)는 합성 이미지(35)의 색공간을 제1 색공간에서 제2 색공간으로 변환할 수 있다. 제1 색공간은 합성 이미지(35) 생성 시 이용한 색공간이거나 또는 이를 다른 색공간으로 1회 이상 변환한 색공간일 수 있다. 또한, 제1 색공간은 합성 이미지(35)의 생성 시 정의되는 다차원의 픽셀 공간을 특정 색공간으로 변환한 색공간일 수 있다.First, the processing unit 16 may convert the color space of the composite image 35 from the first color space to the second color space. The first color space may be a color space used when generating the composite image 35 or a color space obtained by converting it to another color space one or more times. Further, the first color space may be a color space obtained by converting a multidimensional pixel space defined when the composite image 35 is generated into a specific color space.

일 실시예에 따르면, 제1 색공간과 제2 색공간은 RGB 색공간, HSV 색공간, CMYK 색공간, YIQ 색공간, YPbPr 색공간, HSL 색공간 및 xvYCC 색공간 중 각각 서로 다르게 선택되는 색공간들일 수 있다. 다만, 이 외에도 알려진 다양한 색공간이 합성 이미지(35)의 제1 색공간 및 제2 색공간으로서 이용될 수 있다.According to an embodiment, the first color space and the second color space are different colors selected from among RGB color space, HSV color space, CMYK color space, YIQ color space, YPbPr color space, HSL color space, and xvYCC color space. It can be spaces. However, in addition to this, various known color spaces may be used as the first color space and the second color space of the composite image 35.

일 예로서, 처리부(16)는 합성 이미지(35)를 RGB 색공간에서 HSV 색공간으로 변환할 수 있다. 합성 이미지(35)의 어느 한 픽셀의 RGB 색공간에서의 좌표 값(R, G, B)은 다음과 같은 수학식 1을 이용하여 HSV 색공간에서의 좌표 값(H, S, V)으로 변환될 수 있다. 여기서 R, G, B는 각각 RGB 색공간에서의 적색의 값, 녹색의 값 및 청색의 값을 의미하고, H, S, V는 각각 HSV 색공간에서의 색상의 값, 채도의 값, 명도의 값을 의미한다.As an example, the processor 16 may convert the composite image 35 from an RGB color space to an HSV color space. Coordinate values (R, G, B) in the RGB color space of any one pixel of the composite image 35 are converted to coordinate values (H, S, V) in the HSV color space using Equation 1 below. Can be. Here, R, G, and B are the values of red, green, and blue in the RGB color space, respectively, and H, S, and V are the values of hue, saturation, and brightness in the HSV color space, respectively. Means value.

[수학식 1][Equation 1]

Figure 112018104092784-pat00004
Figure 112018104092784-pat00004

Figure 112018104092784-pat00005
Figure 112018104092784-pat00005

Figure 112018104092784-pat00006
Figure 112018104092784-pat00006

수학식 1은 RGB 색공간에서 HSV 색공간으로 변환하기 위한 수학식의 일 예이다. RGB 색공간에서 HSV 색공간으로 변환하는 다양한 수학식들이 있으며, 필요에 따라 다른 수학식이 사용될 수도 있다.Equation 1 is an example of an equation for converting from an RGB color space to an HSV color space. There are various equations for converting from RGB color space to HSV color space, and other equations may be used if necessary.

처리부(16)가 합성 이미지(35)의 색공간을 제1 색공간에서 제2 색공간으로 변환하면, 처리부(16)는 합성 이미지(35) 내의 픽셀들 중 적어도 하나의 픽셀(351)과 연관된 제2 색공간에서의 좌표를 획득할 수 있다. 일 실시예에 따르면, 적어도 하나의 픽셀(351)은 사용자의 입력에 의해 결정될 수 있다. 예를 들어, 사용자는 키보드, 마우스, 터치 스크린 등으로 구현된 사용자 인터페이스를 통해, 디스플레이(19)에 표시된 합성 이미지(35)에서 적어도 하나의 픽셀(351)을 선택할 수 있다. 사용자는 마우스나 키보드 등을 이용하여 표시된 합성 이미지(35) 상에 커서를 이동시킨 후, 적어도 하나의 픽셀(351)을 선택할 수 있다. 또한, 사용자는 터치 인터페이스를 포함하는 디스플레이(19) 상에 표시된 합성 이미지(35)를 터치함으로써, 적어도 하나의 픽셀(351)을 선택할 수 있다. 이와 같은 방식으로 적어도 하나의 픽셀(351)이 선택되면, 처리부(16)는 이와 연관된 제2 색공간에서의 좌표를 획득할 수 있다.When the processing unit 16 converts the color space of the composite image 35 from the first color space to the second color space, the processing unit 16 is associated with at least one pixel 351 among the pixels in the composite image 35. Coordinates in the second color space may be obtained. According to an embodiment, at least one pixel 351 may be determined by a user's input. For example, the user may select at least one pixel 351 from the composite image 35 displayed on the display 19 through a user interface implemented with a keyboard, mouse, and touch screen. The user may select at least one pixel 351 after moving the cursor on the displayed composite image 35 using a mouse or a keyboard. In addition, the user may select at least one pixel 351 by touching the composite image 35 displayed on the display 19 including the touch interface. When at least one pixel 351 is selected in this manner, the processor 16 may obtain coordinates in the second color space associated therewith.

또 다른 실시예에 따르면, 적어도 하나의 픽셀(351)은 합성 이미지(35)의 제1 색공간 또는 제2 색공간에서의 성분들의 값에 기초하여 결정될 수 있다. 합성 이미지(35)는 제1 색공간 또는 제2 색공간에서 정의될 수 있는 픽셀들을 가지고 있다. 따라서, 처리부(16)는 픽셀들의 제1 색공간에서의 각 성분들의 값 또는 제2 색공간에서의 각 성분들의 값에 기초하여 합성 이미지(35) 내에서 적어도 하나의 픽셀(351)을 선택할 수 있다. 예를 들어, 처리부(16)는 RGB 색공간의 미리 정해진 적색의 값, 녹색의 값 및 청색의 값을 갖는 픽셀을, 적어도 하나의 픽셀(351)로서 선택할 수 있다. 또한, 처리부(16)는 HSV 색공간의 미리 정해진 색상의 값, 채도의 값 및 명도의 값을 갖는 픽셀을, 적어도 하나의 픽셀(351)로서 선택할 수 있다. 이와 같은 방식으로 적어도 하나의 픽셀(351)이 선택되면, 처리부(16)는 이와 연관된 제2 색공간에서의 좌표를 획득할 수 있다.According to another embodiment, at least one pixel 351 may be determined based on values of components in the first color space or the second color space of the composite image 35. The composite image 35 has pixels that can be defined in a first color space or a second color space. Accordingly, the processor 16 may select at least one pixel 351 in the composite image 35 based on the values of each component in the first color space of the pixels or the value of each component in the second color space. have. For example, the processor 16 may select a pixel having a predetermined red value, a green value, and a blue value in the RGB color space as at least one pixel 351. In addition, the processor 16 may select a pixel having a predetermined color value, a saturation value, and a brightness value of the HSV color space as at least one pixel 351. When at least one pixel 351 is selected in this manner, the processor 16 may obtain coordinates in the second color space associated therewith.

합성 이미지(35) 내의 픽셀들 중 적어도 하나의 픽셀(351)과 연관된 제2 색공간에서의 좌표가 획득되면, 처리부(16)는 획득된 적어도 하나의 좌표를 형성하는 제2 색공간의 성분들의 값에 기초하여 검사 영역을 결정할 수 있다. 일 실시예에 따르면, 제2 색공간의 성분들은 적어도 제1 성분 및 제2 성분을 포함할 수 있다. 예를 들어, 제2 색공간이 HSV 색공간이면, HSV 색공간의 색상, 채도 및 명도 중 하나가 제1 성분 또는 제2 성분이 될 수 있다. 따라서, 처리부(16)는 획득된 적어도 하나의 좌표를 형성하는 HSV 색공간의 색상, 채도 및 명도 중 적어도 2개의 성분의 값에 기초하여 검사 영역을 결정할 수 있다.When the coordinates in the second color space associated with at least one pixel 351 among the pixels in the composite image 35 are acquired, the processing unit 16 includes the components of the second color space forming at least one of the obtained coordinates. The inspection area can be determined based on the value. According to an embodiment, components of the second color space may include at least a first component and a second component. For example, if the second color space is an HSV color space, one of hue, saturation, and brightness of the HSV color space may be the first component or the second component. Accordingly, the processor 16 may determine the inspection area based on values of at least two components of hue, saturation, and brightness of the HSV color space forming at least one obtained coordinate.

일 실시예에 따르면, 처리부(16)는 획득된 적어도 하나의 좌표의 제1 성분의 값을 포함하는 제1 성분의 범위와 획득된 적어도 하나의 좌표의 제2 성분의 값을 포함하는 제2 성분의 범위로 정의되는, 제2 색공간에서의 영역을 검사 영역으로 결정할 수 있다. 예를 들어, 도 3을 참조하면, 처리부(16)는 획득된 좌표의 성분들의 값(321, 331, 341)을 포함하는 범위들(322, 332, 342) 중 적어도 2개의 범위로 정의되는 제2 색공간에서의 영역을 검사 영역으로 결정할 수 있다.According to an embodiment, the processor 16 includes a range of a first component including a value of a first component of at least one coordinate obtained and a second component including a value of a second component of at least one obtained coordinate. The area in the second color space, defined as the range of, may be determined as the inspection area. For example, referring to FIG. 3, the processing unit 16 includes at least two ranges of ranges 322, 332, and 342 including values 321, 331, and 341 of the obtained coordinates. The area in the 2 color space can be determined as the inspection area.

일 예로서, 획득된 좌표의 제1 성분의 값이 HSV 색공간에서의 색상 값이고, 제2 성분의 값이 HSV 색공간에서의 채도 값이면, 처리부(16)는 획득된 좌표의 색상 값을 포함하는 제1 범위와 획득된 좌표의 채도 값을 포함하는 제2 범위로 정의되는 HSV 색공간에서의 영역을 검사 영역으로 결정할 수 있다.As an example, if the value of the first component of the acquired coordinates is a color value in the HSV color space, and the value of the second component is a saturation value in the HSV color space, the processor 16 determines the color value of the acquired coordinates. An area in the HSV color space defined by the included first range and the second range including the saturation value of the acquired coordinates may be determined as the inspection area.

또 다른 실시예에 따르면, 처리부(16)는 획득된 좌표의 제2 색공간에서의 모든 성분의 값을 각각 포함하는 제2 색공간에서의 영역을 검사 영역으로 결정할 수 있다. 예를 들어, 획득된 좌표의 HSV 색공간에서의 색상 값, 채도 값 및 명도 값을 각각 포함하는 범위들로 정의되는 HSV 색공간에서의 영역을 검사 영역으로 결정할 수 있다.According to another embodiment, the processor 16 may determine an area in the second color space each including values of all components in the second color space of the acquired coordinates as the inspection area. For example, an area in the HSV color space defined by ranges each including a hue value, a saturation value, and a brightness value in the HSV color space of the acquired coordinates may be determined as the inspection area.

일 실시예에 따르면, 제1 성분의 값을 포함하는 제1 성분의 범위와 제2 성분의 값을 포함하는 제2 성분의 범위는 각각 사용자의 입력에 따라 결정될 수 있다. 또한, 사용자는 획득된 좌표의 제2 색공간에서의 값을 포함하는 각 성분의 범위를 모두 결정할 수도 있다. 도 3에 도시된 바와 같이, 제2 색공간으로 변환된 합성 이미지(35)와 사용자 인터페이스(31)가 디스플레이(19)에 표시되면, 사용자는 사용자 인터페이스(31)를 통해 획득된 좌표의 성분들의 값(321, 331, 341)을 각각 포함하는 제1 성분의 범위(322), 제2 성분의 범위(332), 및 제3 성분의 범위(342) 중 적어도 2개를 결정할 수 있다.According to an embodiment, the range of the first component including the value of the first component and the range of the second component including the value of the second component may be determined according to user input. In addition, the user may determine all the ranges of each component including the value of the acquired coordinates in the second color space. As shown in FIG. 3, when the composite image 35 and the user interface 31 converted to the second color space are displayed on the display 19, the user can select the components of the coordinates obtained through the user interface 31. At least two of the range 322 of the first component, the range 332 of the second component, and the range 342 of the third component, each including values 321, 331, and 341, may be determined.

또 다른 실시예에 따르면, 적어도 제1 성분의 값을 포함하는 제1 성분의 범위와 제2 성분의 값을 포함하는 제2 성분의 범위는 각각 제1 성분의 값과 제2 성분의 값에 기초하여 결정될 수 있다. 처리부(16)는 획득된 좌표의 성분들의 값(321, 331, 341)에 따라, 미리 정해진 범위를 제1 성분의 범위 또는 제2 성분의 범위로서 결정할 수 있다. 또한, 처리부(16)는 획득된 좌표의 성분들의 값(321, 331, 341)을 미리 정해진 계산식에 적용하여, 제1 성분의 범위 또는 제2 성분의 범위를 결정할 수 있다. 일 예로서, 제1 성분이 HSV 색공간에서의 색상이라면, 처리부(16)는 획득된 좌표의 색상 값의 a% 값(예컨대, 5%)을, 획득된 좌표의 색상 값에 더한 값과 뺀 값을 계산하고, 이 두 값 사이의 범위를 제1 성분의 범위로서 결정할 수 있다.According to another embodiment, the range of the first component including at least the value of the first component and the range of the second component including the value of the second component are based on the value of the first component and the value of the second component, respectively. Can be determined. The processing unit 16 may determine a predetermined range as the range of the first component or the range of the second component according to the values 321, 331, and 341 of the obtained coordinate components. Also, the processing unit 16 may determine the range of the first component or the range of the second component by applying the values 321, 331, and 341 of the obtained coordinate components to a predetermined calculation formula. As an example, if the first component is a color in the HSV color space, the processing unit 16 subtracts the a% value (eg, 5%) of the color value of the acquired coordinates from the value added to the color value of the acquired coordinates. The value can be calculated and the range between these two values can be determined as the range of the first component.

본 발명의 일 실시예에 따른 외관 검사 장치(10)는, 검사용 이미지로서 합성 이미지(35)를 사용하는 것만으로도 정확하고 일관된 검사 영역을 결정할 수 있다. 그런데 외관 검사 장치(10)는, 합성 이미지(35)의 색공간을 제1 색공간에서 제2 색공간으로 변환한 후에, 합성 이미지(35)의 적어도 하나의 픽셀의 변환된 제2 색공간의 좌표 값에 기초하여 검사 영역을 결정함으로써, 검사 조건 또는 검사 환경의 변화가 있더라도 더욱 일관된 검사 영역을 결정할 수 있다. 이는 합성 이미지(35)의 색공간을 제1 색공간에서 제2 색공간으로 변환할 때, 합성 이미지(35)의 픽셀들을 정의하는 제2 색공간의 각 성분의 값이 제1 색공간의 2개 이상의 성분들의 값의 조합으로 결정되기 때문이다.The appearance inspection apparatus 10 according to an exemplary embodiment of the present invention can determine an accurate and consistent inspection area simply by using the composite image 35 as an inspection image. However, the appearance inspection apparatus 10 converts the color space of the composite image 35 from the first color space to the second color space, and then converts at least one pixel of the composite image 35 into the converted second color space. By determining the inspection area based on the coordinate value, it is possible to determine a more consistent inspection area even if the inspection condition or the inspection environment changes. This is because when converting the color space of the composite image 35 from the first color space to the second color space, the value of each component of the second color space defining pixels of the composite image 35 is 2 of the first color space. This is because it is determined by a combination of values of more than two components.

예를 들어, 합성 이미지(35)의 색공간이 RGB 색공간에서 HSV 색공간으로 변환되면, 수학식 1에서 볼 수 있는 바와 같이, HSV 색공간의 색상, 채도 및 명도의 값은 각각 RGB 색공간의 적색, 녹색 및 청색의 값의 조합으로서 결정될 수 있다. 따라서, 검사 영역을 결정할 때, 색상, 채도 또는 명도의 값의 범위를 조정하는 것은, RGB 색공간의 적색, 녹색 및 청색의 값을 모두 조정하는 것과 동일하다.For example, when the color space of the composite image 35 is converted from the RGB color space to the HSV color space, as shown in Equation 1, the values of the hue, saturation, and brightness of the HSV color space are respectively RGB color spaces. May be determined as a combination of the values of red, green and blue. Therefore, when determining the inspection area, adjusting the range of values of hue, saturation, or brightness is the same as adjusting all the values of red, green, and blue in the RGB color space.

또한, 색상, 채도 또는 명도의 값의 범위를 조정하여 검사 영역을 결정하는 것은, 적색, 녹색 및 청색의 값에 각각 대응하는 상이한 조사각으로 광을 조사하여 획득된 이미지들의 픽셀 정보를 모두 고려하여 검사 영역을 결정하는 것이 될 수 있다. 따라서, 검사 환경 또는 검사 조건이 조금 변경되더라도, 이로 인한 변화가 검사 영역의 결정에 크게 영향을 주기 어렵다. 따라서, 외관 검사 장치(10)는 합성 이미지(35)의 변환된 색공간의 정보에 기초하여 검사 영역을 결정함으로써, 더욱 일관된 검사 영역을 결정할 수 있다.In addition, determining the inspection area by adjusting the range of values of hue, saturation, or brightness may take into account all pixel information of images obtained by irradiating light at different irradiation angles respectively corresponding to values of red, green, and blue. It can be what determines the inspection area. Therefore, even if the inspection environment or inspection conditions are slightly changed, it is difficult for the resulting change to greatly influence the determination of the inspection area. Accordingly, the appearance inspection apparatus 10 may determine a more consistent inspection area by determining the inspection area based on information on the converted color space of the composite image 35.

도 6은 본 발명의 일 실시예에 따라, 상이한 조사각으로 검사 대상에 광을 조사하여 획득된 이미지들을 이용하여 생성된 합성 이미지에 기초하여 검사 영역을 결정하는 방법을 나타내는 흐름도이다. 이하 각 단계에 대해서 도면을 참조하여 보다 구체적으로 외관 검사를 진행할 검사 영역을 결정하는 방법이 설명된다.6 is a flowchart illustrating a method of determining an inspection area based on a composite image generated using images obtained by irradiating light to an inspection object at different irradiation angles, according to an embodiment of the present invention. Hereinafter, with reference to the drawings for each step, a method of determining an inspection area to perform an appearance inspection in more detail will be described.

먼저, 단계 S61에서, 외관 검사 장치는 상이한 조사각으로 검사 대상에 광을 각각 조사하여 획득된 복수의 이미지를 수신할 수 있다. 예를 들어, 도 1을 참조하면, 외관 검사 장치(10)는 복수의 조명부(11, 12, 13, 14)에서 상이한 조사각으로 검사 대상(17)에 광을 각각 조사하여 결상부(15)에서 획득된 복수의 이미지를 수신할 수 있다. 복수의 조명부(11, 12, 13, 14)는 각각 상이한 조사각을 가지거나 또는 복수의 조명부(11, 12, 13, 14) 중 일부가 상이한 조사각을 가질 수 있다.First, in step S61, the appearance inspection apparatus may receive a plurality of images obtained by irradiating light to an inspection object at a different irradiation angle. For example, referring to FIG. 1, the appearance inspection apparatus 10 irradiates light to the inspection object 17 at different irradiation angles from a plurality of illumination units 11, 12, 13, 14, respectively, and the imaging unit 15 A plurality of images obtained from may be received. Each of the plurality of lighting units 11, 12, 13, and 14 may have different illumination angles, or some of the plurality of illumination units 11, 12, 13, and 14 may have different illumination angles.

일 실시예에 따르면, 복수의 이미지의 픽셀들은 하나의 픽셀 특성으로 정의되는 이미지들일 수 있다. 예를 들어, 결상부(15)는 하나 이상의 흑백 카메라를 이용하여 구현될 수 있고, 결상부(15)에서 획득된 이미지는 광도로서 정의될 수 있는 그레이-스케일 이미지일 수 있다.According to an embodiment, pixels of a plurality of images may be images defined by a characteristic of one pixel. For example, the imaging unit 15 may be implemented using one or more monochrome cameras, and the image acquired by the imaging unit 15 may be a gray-scale image that can be defined as a luminous intensity.

단계 S61에서 복수의 이미지가 획득되면, 단계 S62에서, 외관 검사 장치는 복수의 이미지 중 2개 이상의 이미지들로부터 합성 이미지를 생성할 수 있다. 예를 들어, 도 1 및 도 2를 참조하면, 외관 검사 장치(10)의 처리부(16)는 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)을 선택하고, 이들로부터 합성 이미지(25)를 생성할 수 있다.When a plurality of images are acquired in step S61, in step S62, the appearance inspection apparatus may generate a composite image from two or more of the plurality of images. For example, referring to FIGS. 1 and 2, the processing unit 16 of the visual inspection apparatus 10 selects two or more images 21, 22, 23, 24 from a plurality of images, and synthesizes them from The image 25 can be created.

일 실시예에 따르면, 복수의 이미지 중 2개 이상의 이미지들은 복수의 조명부(11, 12, 13, 14)로부터 각각 상이한 컬러의 광이 조사되어 획득된 이미지들일 수 있다. 또 다른 실시예에 따르면, 복수의 이미지 중 2개 이상의 이미지들은 복수의 조명부로부터 각각 동일한 컬러의 광이 조사되어 획득된 이미지들일 수 있다. 또 다른 실시예에 따르면, 복수의 이미지 중 2개 이상의 이미지들은 복수의 조명부로부터 가시광, 적외선, 자외선 중 어느 하나가 조사되어 획득된 이미지들일 수 있다.According to an embodiment, two or more of the plurality of images may be images obtained by irradiating light of different colors from the plurality of illumination units 11, 12, 13, and 14, respectively. According to another embodiment, two or more of the plurality of images may be images obtained by irradiating light of the same color from a plurality of lighting units, respectively. According to another embodiment, two or more of the plurality of images may be images obtained by irradiating any one of visible light, infrared light, and ultraviolet light from a plurality of illumination units.

일 실시예에 따르면, 합성 이미지를 생성하는 단계는, 선택된 2개 이상의 이미지들(21, 22, 23, 24)로부터 각각 획득된 하나의 픽셀 특성의 값들을 조합하여 합성 이미지들(25, 26, 27, 28, 29)을 생성하는 단계를 포함할 수 있다. 예를 들어, 이미지들(21, 22, 23, 24)은 그레이-스케일 이미지일 수 있고, 처리부(16)는 이미지들(21, 22, 23, 24)로부터 획득된 하나의 픽셀 특성인 광도 값들을 조합하여 합성 이미지들(25, 26, 27, 28, 29)을 생성할 수 있다.According to an embodiment, the step of generating the composite image comprises combining values of one pixel characteristic obtained from two or more selected images 21, 22, 23, and 24, respectively, and combining the composite images 25, 26, and 27, 28, 29). For example, the images 21, 22, 23, 24 may be gray-scale images, and the processing unit 16 is a luminance value that is one pixel characteristic obtained from the images 21, 22, 23, 24 Composite images 25, 26, 27, 28, and 29 may be generated by combining them.

단계 S62에서 합성 이미지가 생성되면, 단계 S63에서, 외관 검사 장치는 합성 이미지의 색공간을 제1 색공간에서 제2 색공간으로 변환할 수 있다. 예를 들어, 도 1 및 3을 참조하면, 외관 검사 장치(10)의 처리부(16)는 합성 이미지(35)의 색공간을 제1 색공간에서 제2 색공간으로 변환할 수 있다. 제1 색공간은 합성 이미지(35) 생성 시 이용한 색공간이거나 또는 이를 다른 색공간으로 1회 이상 변환한 색공간일 수 있다. 또한, 제1 색공간은 합성 이미지(35)의 생성 시 정의되는 다차원의 픽셀 공간을 특정 색공간으로 변환한 색공간일 수 있다.When the composite image is generated in step S62, in step S63, the appearance inspection apparatus may convert the color space of the composite image from the first color space to the second color space. For example, referring to FIGS. 1 and 3, the processing unit 16 of the appearance inspection apparatus 10 may convert a color space of the composite image 35 from a first color space to a second color space. The first color space may be a color space used when generating the composite image 35 or a color space obtained by converting it to another color space one or more times. Further, the first color space may be a color space obtained by converting a multidimensional pixel space defined when the composite image 35 is generated into a specific color space.

일 실시예에 따르면, 제1 색공간과 제2 색공간은 RGB 색공간, HSV 색공간, CMYK 색공간, YIQ 색공간, YPbPr 색공간, HSL 색공간 및 xvYCC 색공간 중 각각 서로 다르게 선택되는 색공간들일 수 있다. 다만, 이 외에도 알려진 다양한 색공간이 합성 이미지(35)의 제1 색공간 및 제2 색공간으로서 이용될 수 있다.According to an embodiment, the first color space and the second color space are different colors selected from among RGB color space, HSV color space, CMYK color space, YIQ color space, YPbPr color space, HSL color space, and xvYCC color space. It can be spaces. However, in addition to this, various known color spaces may be used as the first color space and the second color space of the composite image 35.

단계 S63에서 합성의 이미지의 색공간이 제1 색공간에서 제2 색공간으로 변환되면, 단계 S64에서, 외관 검사 장치는 변환된 합성 이미지 내의 픽셀들 중 적어도 하나의 픽셀과 연관된 제2 색공간에서의 적어도 하나의 좌표를 획득할 수 있다. 예를 들어, 도 1 및 3을 참조하면, 외관 검사 장치(10)의 처리부(16)는 변환된 합성 이미지(35) 내의 픽셀들 중 적어도 하나의 픽셀(351)과 연관된 제2 색공간에서의 적어도 하나의 좌표를 획득할 수 있다.When the color space of the composite image is converted from the first color space to the second color space in step S63, in step S64, the appearance inspection apparatus is in a second color space associated with at least one of the pixels in the converted composite image. At least one coordinate of can be obtained. For example, referring to FIGS. 1 and 3, the processing unit 16 of the visual inspection apparatus 10 is a second color space associated with at least one pixel 351 among pixels in the converted composite image 35. At least one coordinate can be obtained.

일 실시예에 따르면, 적어도 하나의 픽셀(351)은 사용자의 입력에 따라 결정될 수 있다. 예를 들어, 사용자는 키보드, 마우스, 터치 스크린 등으로 구현된 사용자 인터페이스를 통해, 디스플레이(19)에 표시된 합성 이미지(35)에서 적어도 하나의 픽셀(351)을 선택 또는 입력할 수 있다. 사용자가 적어도 하나의 픽셀(351)을 선택 또는 입력하면, 처리부(16)는 이와 연관된 제2 색공간에서의 적어도 하나의 좌표를 획득할 수 있다.According to an embodiment, at least one pixel 351 may be determined according to a user's input. For example, the user may select or input at least one pixel 351 from the composite image 35 displayed on the display 19 through a user interface implemented with a keyboard, mouse, and touch screen. When the user selects or inputs at least one pixel 351, the processor 16 may obtain at least one coordinate in a second color space associated therewith.

또 다른 실시예에 따르면, 적어도 하나의 픽셀(351)은 합성 이미지(35)의 제1 색공간 또는 제2 색공간에서의 성분들의 값에 기초하여 결정될 수 있다. 합성 이미지(35)는 제1 색공간 또는 제2 색공간에서 정의된 픽셀들을 가지고 있다. 따라서, 처리부(16)는 픽셀들의 제1 색공간에서의 각 성분들의 값 또는 제2 색공간에서의 각 성분들의 값에 기초하여 합성 이미지(35) 내에서 적어도 하나의 픽셀(351)을 결정할 수 있다. 이와 같은 방식으로 적어도 하나의 픽셀(351)이 결정되면, 처리부(16)는 이와 연관된 제2 색공간에서의 적어도 하나의 좌표를 획득할 수 있다.According to another embodiment, at least one pixel 351 may be determined based on values of components in the first color space or the second color space of the composite image 35. The composite image 35 has pixels defined in the first color space or the second color space. Accordingly, the processor 16 may determine at least one pixel 351 in the composite image 35 based on the values of each component in the first color space of the pixels or the value of each component in the second color space. have. When at least one pixel 351 is determined in this manner, the processor 16 may obtain at least one coordinate in the second color space associated therewith.

단계 S64에서 합성 이미지 내의 픽셀들 중 적어도 하나의 픽셀과 연관된 제2 색공간에서의 적어도 하나의 좌표가 획득되면, 단계 S65에서, 외관 검사 장치는 적어도 하나의 좌표를 형성하는 제2 색공간의 성분들의 값에 기초하여 검사 영역을 결정할 수 있다. 예를 들어, 도 1, 3 및 4를 참조하면, 외관 검사 장치(10)의 처리부(16)는 합성 이미지(35) 내의 적어도 하나의 좌표를 형성하는 제2 색공간의 성분들의 값에 기초하여 검사 영역(353)을 결정할 수 있다.When at least one coordinate in the second color space associated with at least one pixel of the pixels in the composite image is obtained in step S64, in step S65, the appearance inspection apparatus comprises a component of the second color space forming at least one coordinate. The inspection area can be determined based on the values of For example, referring to FIGS. 1, 3, and 4, the processing unit 16 of the visual inspection apparatus 10 is based on the values of the components of the second color space forming at least one coordinate in the composite image 35. The inspection area 353 can be determined.

일 실시예에 따르면, 제2 색공간의 성분들은 적어도 제1 성분 및 제2 성분을 포함할 수 있다. 이때 검사 영역(353)을 결정하는 단계는, 획득된 적어도 하나의 좌표의 제1 성분의 값을 포함하는 제1 성분의 범위와 획득된 적어도 하나의 좌표의 제2 성분의 값을 포함하는 제2 성분의 범위로 정의되는, 제2 색공간에서의 영역을 검사 영역(353)으로 결정하는 단계를 포함할 수 있다. 예를 들어, 도 3을 참조하면, 처리부(16)는 획득된 좌표의 성분들의 값(321, 331, 341)을 포함하는 범위들(322, 332, 342) 중 적어도 2개의 범위로 정의되는 제2 색공간에서의 영역을 검사 영역(353)으로 결정할 수 있다.According to an embodiment, components of the second color space may include at least a first component and a second component. In this case, the determining of the inspection area 353 includes a range of a first component including a value of a first component of at least one coordinate obtained and a second component including a value of a second component of the acquired at least one coordinate. It may include the step of determining an area in the second color space defined as a range of components as the inspection area 353. For example, referring to FIG. 3, the processing unit 16 includes at least two ranges of ranges 322, 332, and 342 including values 321, 331, and 341 of the obtained coordinates. The area in the 2 color space may be determined as the inspection area 353.

일 실시예에 따르면, 제1 성분의 값을 포함하는 제1 성분의 범위와 제2 성분의 값을 포함하는 제2 성분의 범위는 각각 사용자의 입력에 따라 결정될 수 있다. 또한, 사용자는 획득된 좌표의 제2 색공간에서의 값을 포함하는 각 성분의 범위를 모두 결정할 수도 있다. 도 3에 도시된 바와 같이, 제2 색공간으로 변환된 합성 이미지(35)와 사용자 인터페이스(31)가 디스플레이(19)에 표시되면, 사용자는 사용자 인터페이스(31)를 통해 제1 성분의 범위와 제2 성분의 범위를 결정할 수 있다.According to an embodiment, the range of the first component including the value of the first component and the range of the second component including the value of the second component may be determined according to user input. In addition, the user may determine all the ranges of each component including the value of the acquired coordinates in the second color space. As shown in FIG. 3, when the composite image 35 and the user interface 31 converted to the second color space are displayed on the display 19, the user can determine the range of the first component through the user interface 31 and The range of the second component can be determined.

또 다른 실시예에 따르면, 제1 성분의 값을 포함하는 제1 성분의 범위와 제2 성분의 값을 포함하는 제2 성분의 범위는 각각 제1 성분의 값과 제2 성분의 값에 기초하여 결정될 수 있다. 예를 들어, 처리부(16)는 획득된 좌표의 성분들의 값(321, 331, 341)에 따라, 미리 정해진 범위를 제1 성분의 범위 또는 제2 성분의 범위로서 결정할 수 있다. 또한, 처리부(16)는 획득된 좌표의 성분들의 값(321, 331, 341)을 미리 정해진 계산식에 적용하여, 제1 성분의 범위 또는 제2 성분의 범위를 결정할 수 있다.According to another embodiment, the range of the first component including the value of the first component and the range of the second component including the value of the second component are respectively based on the value of the first component and the value of the second component. Can be determined. For example, the processor 16 may determine a predetermined range as the range of the first component or the range of the second component according to the values 321, 331, and 341 of the obtained coordinate components. Also, the processing unit 16 may determine the range of the first component or the range of the second component by applying the values 321, 331, and 341 of the obtained coordinate components to a predetermined calculation formula.

일 실시예에 따르면, 검사 영역(353)을 결정하는 단계는, 결정된 검사 영역(353)에 포함된 노이즈를 제거하는 단계를 포함할 수 있다. 결정된 검사 영역(353)에 포함된 노이즈는 결함(352)이 아님에도 불구하고, 처리부(16)가 노이즈가 있는 영역을 결함이 있는 영역으로서 결정할 수 있다. 따라서, 외관 검사를 진행하기 전에, 처리부(16)는 결정된 검사 영역(353)에 포함된 노이즈를 제거하고, 노이즈를 제거한 영역을 검사 영역으로 결정함으로써, 외관 검사의 정확성을 높일 수 있다.According to an embodiment, determining the inspection area 353 may include removing noise included in the determined inspection area 353. Although the noise included in the determined inspection area 353 is not the defect 352, the processing unit 16 may determine the area with the noise as the defective area. Therefore, before proceeding with the visual inspection, the processing unit 16 removes noise included in the determined inspection area 353 and determines the area from which noise has been removed as the inspection area, thereby improving the accuracy of the appearance inspection.

도 7은 본 발명의 일 실시예에 따라 외관 검사 장치에서 검사 영역을 디스플레이에 표시하는 방법을 나타내는 흐름도이다. 이하 각 단계에 대해서 도면을 참조하여 보다 구체적으로 외관 검사를 위한 검사 영역을 디스플레이에 표시하는 방법이 설명된다.7 is a flowchart illustrating a method of displaying an inspection area on a display in an appearance inspection apparatus according to an embodiment of the present invention. Hereinafter, a method of displaying an inspection area for appearance inspection on a display will be described in more detail with reference to the drawings for each step.

먼저, 단계 S71에서 외관 검사 장치는 검사 대상으로 조사된 광이 반사된 반사광을 결상하여 복수의 이미지를 획득할 수 있다. 외관 검사 장치는 검사 대상으로 조사되는 광의 조사각, 파장, 편광 중 적어도 하나를 달리하여 복수의 이미지 각각을 획득할 수 있다. 예를 들어, 도 1을 참조하면, 외관 검사 장치(10)는 복수의 조명부(11, 12, 13, 14)에서 상이한 조사각으로 검사 대상(17)에 광을 각각 조사하여 복수의 이미지를 획득할 수 있다. 이를 위해, 복수의 조명부(11, 12, 13, 14)는 각각 상이한 조사각을 가지거나 또는 복수의 조명부(11, 12, 13, 14) 중 일부가 상이한 조사각을 가질 수 있다.First, in step S71, the appearance inspection apparatus may acquire a plurality of images by imaging the reflected light from which the light irradiated to the inspection object is reflected. The appearance inspection apparatus may acquire each of a plurality of images by varying at least one of an irradiation angle, wavelength, and polarization of light irradiated to the inspection object. For example, referring to FIG. 1, the appearance inspection apparatus 10 acquires a plurality of images by irradiating light to the inspection object 17 at different irradiation angles from a plurality of illumination units 11, 12, 13, 14. can do. To this end, the plurality of illumination units 11, 12, 13, and 14 may each have different illumination angles, or some of the plurality of illumination units 11, 12, 13, and 14 may have different illumination angles.

또한, 획득된 복수의 이미지는 복수의 조명부(11, 12, 13, 14) 중 적어도 하나가 다른 조명부와 조사하는 광의 파장 및 편광 중 적어도 하나를 달리하여 획득된 이미지들일 수 있다. 이를 위해, 복수의 조명부(11, 12, 13, 14) 중 적어도 하나는 다른 조명부와 광원의 파장이 다른 광원을 포함하거나 광원으로부터 조사되는 광의 파장 및 편광 중 적어도 하나를 변경할 수 있는 필터를 포함할 수 있다.In addition, the acquired plurality of images may be images obtained by at least one of the plurality of illumination units 11, 12, 13, and 14 differently from at least one of a wavelength and polarization of light emitted from another illumination unit. To this end, at least one of the plurality of illumination units 11, 12, 13, 14 includes a light source having a different wavelength from the other illumination unit, or a filter capable of changing at least one of the wavelength and polarization of light emitted from the light source. I can.

일 실시예에 따르면, 외관 검사 장치(10)는 검사 대상(17)의 표면의 재질, 재료 또는 형상에 따라 검사 대상(17)으로 조사되는 조명 조건을 변경할 수 있다. 예를 들어, 검사 대상(17)의 금속 표면의 균일한 정도나 반사 특성에 따라 검사 대상(17)으로 조사되는 광의 조사각, 파장 또는 편광 중 적어도 하나의 특성을 달리하여 복수의 이미지가 획득될 수 있다. 검사 대상(17)의 표면이 굴곡진 모서리 부분임을 고려하여 검사 대상(17)으로 조사되는 광의 조사각, 파장 또는 조사각 중 적어도 하나의 특성을 달리하여 복수의 이미지가 획득될 수 있다.According to an embodiment, the appearance inspection apparatus 10 may change the lighting conditions irradiated to the inspection object 17 according to a material, material, or shape of the surface of the inspection object 17. For example, a plurality of images may be obtained by varying at least one of the irradiation angle, wavelength, or polarization of light irradiated to the inspection object 17 according to the uniformity or reflection characteristic of the metal surface of the inspection object 17. I can. Considering that the surface of the inspection object 17 is a curved edge portion, a plurality of images may be obtained by varying at least one of an irradiation angle, a wavelength, or an irradiation angle of light irradiated to the inspection object 17.

일 실시예에 따르면, 복수의 이미지의 픽셀들은 하나의 픽셀 특성으로 정의되는 이미지들일 수 있다. 예를 들어, 결상부(15)는 하나 이상의 흑백 카메라를 이용하여 구현될 수 있고, 결상부(15)에서 획득된 이미지는 광도로서 정의될 수 있는 그레이-스케일 이미지일 수 있다.According to an embodiment, pixels of a plurality of images may be images defined by a characteristic of one pixel. For example, the imaging unit 15 may be implemented using one or more monochrome cameras, and the image acquired by the imaging unit 15 may be a gray-scale image that can be defined as a luminous intensity.

단계 S71에서 복수의 이미지가 획득되면, 단계 S72에서, 외관 검사 장치는 획득된 복수의 이미지 중에서 선택된 2개 이상의 이미지들로부터 생성되는 적어도 하나의 합성 이미지를 디스플레이에 표시할 수 있다. 예를 들어, 도 1 및 도 2를 참조하면, 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)이 선택되고, 이들로부터 적어도 하나의 합성 이미지(25, 26, 27, 28, 29)가 생성되면, 외관 검사 장치(10)의 디스플레이(19)는 생성된 적어도 하나의 합성 이미지(25, 26, 27, 28, 29)를 표시할 수 있다.When a plurality of images are acquired in step S71, in step S72, the appearance inspection apparatus may display at least one composite image generated from two or more images selected from among the acquired plurality of images on the display. For example, referring to FIGS. 1 and 2, two or more images 21, 22, 23, 24 are selected from among a plurality of images, and at least one composite image 25, 26, 27, 28 When, 29) is generated, the display 19 of the appearance inspection apparatus 10 may display at least one generated composite image 25, 26, 27, 28, 29.

일 실시예에 따르면, 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24) 각각은 서로 다른 조명 조건하에서 획득된 이미지일 수 있다. 예를 들어, 서로 다른 조명 조건은 검사 대상(17)으로 조사되는 광의 조사각, 파장, 편광 중 적어도 하나와 관련된 조건일 수 있다.According to an embodiment, each of two or more images 21, 22, 23, and 24 among the plurality of images may be images acquired under different lighting conditions. For example, different lighting conditions may be conditions related to at least one of an irradiation angle, wavelength, and polarization of light irradiated to the inspection object 17.

도 8은 본 발명의 일 실시예에 따라 합성 이미지를 디스플레이에 표시하는 방법을 나타내는 흐름도이다. 이하 각 단계에 대해서 도면을 참조하여 보다 구체적으로 합성 이미지를 디스플레이에 표시하는 방법이 설명된다.8 is a flowchart illustrating a method of displaying a composite image on a display according to an embodiment of the present invention. Hereinafter, a method of displaying a composite image on a display will be described in more detail with reference to the drawings for each step.

먼저, 단계 S721에서, 외관 검사 장치는 복수의 이미지를 디스플레이에 표시할 수 있다. 예를 들어, 도 1 및 2를 참조하면, 외관 검사 장치(10)의 처리부(16)는 복수의 이미지를 디스플레이(19)에 표시할 수 있다. 일 실시예에 따르면, 외관 검사 장치(10)는 획득된 모든 복수의 이미지를 디스플레이(19)에 표시할 수 있다. 또 다른 실시예에 따르면, 외관 검사 장치(10)는 복수의 이미지 중 적어도 하나의 합성 이미지의 생성에 필요한 이미지들만을 디스플레이(10)에 표시할 수 있다.First, in step S721, the appearance inspection apparatus may display a plurality of images on the display. For example, referring to FIGS. 1 and 2, the processing unit 16 of the visual inspection apparatus 10 may display a plurality of images on the display 19. According to an embodiment, the appearance inspection apparatus 10 may display all the acquired images on the display 19. According to another embodiment, the appearance inspection apparatus 10 may display only images necessary for generating at least one composite image among a plurality of images on the display 10.

단계 S721에서 복수의 이미지가 디스플레이에 표시되면, 단계 S722에서, 사용자는 복수의 이미지 중 2개 이상의 이미지를 선택할 수 있다. 예를 들어, 도 1 및 2를 참조하면, 사용자는 디스플레이(19)에 표시된 복수의 이미지 중 적어도 하나의 합성 이미지(25, 26, 27, 28, 29) 생성에 필요한 2개 이상의 이미지를 선택할 수 있다. 일 실시예에 따르면, 사용자는 디스플레이(19)에 포함된 터치 인터페이스, 키보드 또는 마우스를 이용하여 디스플레이(19)에 표시된 복수의 이미지 중 2개 이상의 이미지를 선택할 수 있다.When a plurality of images are displayed on the display in step S721, in step S722, the user may select two or more of the plurality of images. For example, referring to FIGS. 1 and 2, a user can select two or more images necessary for generating at least one composite image 25, 26, 27, 28, 29 from among a plurality of images displayed on the display 19. have. According to an embodiment, a user may select two or more images from among a plurality of images displayed on the display 19 by using a touch interface, a keyboard, or a mouse included in the display 19.

일 실시예에 따르면, 처리부(16)는 디스플레이(19)에 복수의 이미지와 함께 각 이미지가 획득된 조명 조건을 표시할 수 있다. 또 다른 실시예에 따르면, 처리부(16)는 복수의 이미지 중 합성 이미지 생성에 적합한 추천 이미지들을 디스플레이(19)에 표시할 수 있다. 이때 처리부(16)는 추천 이미지들에 의해 생성 가능한 합성 이미지를 디스플레이(19)에 미리 표시할 수 있다. 또 다른 실시예에 따르면, 처리부(16)는 복수의 이미지의 조합을 통해 생성 가능한 모든 합성 이미지들을 디스플레이(19)에 미리 표시할 수 있다.According to an embodiment, the processing unit 16 may display a plurality of images on the display 19 and a lighting condition at which each image is acquired. According to another embodiment, the processing unit 16 may display recommended images suitable for generating a composite image among a plurality of images on the display 19. In this case, the processing unit 16 may display a composite image that can be generated by the recommended images on the display 19 in advance. According to another embodiment, the processing unit 16 may pre-display on the display 19 all composite images that can be generated through a combination of a plurality of images.

일 실시예에 따르면, 사용자가 아닌 처리부(16)가 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)을 선택할 수 있다. 처리부(16)는 검사 대상(17)의 표면의 재질, 재료 또는 형상을 고려하여 복수의 이미지 중 2개 이상의 이미지들(21, 22, 23, 24)을 선택할 수 있다.According to an embodiment, the processor 16, not the user, may select two or more images 21, 22, 23, and 24 from among a plurality of images. The processing unit 16 may select two or more images 21, 22, 23, 24 from among a plurality of images in consideration of the material, material, or shape of the surface of the inspection object 17.

단계 S722에서 복수의 이미지 중 2개 이상의 이미지가 선택되면, 단계 S723에서, 외관 검사 장치는 선택된 2개 이상의 이미지로부터 생성되는 적어도 하나의 합성 이미지를 디스플레이에 표시할 수 있다. 예를 들어, 도 1 및 도 2를 참조하면, 외관 검사 장치(10)의 처리부(16)는 선택된 2개 이상의 이미지(21, 22, 23, 24)로부터 생성되는 적어도 하나의 합성 이미지(25, 26, 27, 28, 29)를 디스플레이(19)에 표시할 수 있다.When two or more images are selected from among the plurality of images in step S722, in step S723, the appearance inspection apparatus may display at least one composite image generated from the selected two or more images on the display. For example, referring to FIGS. 1 and 2, the processing unit 16 of the visual inspection apparatus 10 includes at least one composite image 25 generated from two or more selected images 21, 22, 23, 24. 26, 27, 28, 29) can be displayed on the display 19.

일 실시예에 따르면, 처리부(16)는 선택된 2개 이상의 이미지(25, 26, 27, 28, 29)의 조합을 통해 생성 가능한 모든 합성 이미지들(25, 26, 27, 28, 29)을 디스플레이(19)에 표시할 수 있다. 또 다른 실시예에 따르면, 처리부(16)는 선택된 2개 이상의 이미지(26, 27, 28, 29)의 조합을 통해 생성 가능한 합성 이미지들(25, 26, 27, 28, 29) 중 외관 검사에 적합한 일부만을 디스플레이(19)에 표시할 수 있다.According to an embodiment, the processing unit 16 displays all composite images 25, 26, 27, 28, 29 that can be generated through a combination of two or more selected images 25, 26, 27, 28, 29 (19) can be indicated. According to another embodiment, the processing unit 16 performs visual inspection among composite images 25, 26, 27, 28, 29 that can be generated through a combination of two or more selected images (26, 27, 28, 29). Only suitable parts can be displayed on the display 19.

일 실시예에 따르면, 디스플레이(19)는 선택 가능한 합성 이미지들(25, 26, 27, 28, 29)만을 표시할 수 있고, 또는 합성 이미지의 선택에 고려될 수 있는 추가적인 정보를 합성 이미지들(25, 26, 27, 28, 29)과 함께 표시할 수 있다. 예를 들어, 디스플레이(19)는 합성 이미지들(25, 26, 27, 28, 29)에 포함된 검사 대상(17)의 각 영역 간의 색상 또는 명암의 차이에 관한 정보를 표시할 수 있다.According to an embodiment, the display 19 may display only selectable composite images 25, 26, 27, 28, 29, or add additional information that may be considered for selection of the composite image. 25, 26, 27, 28, 29) can be displayed together. For example, the display 19 may display information on a difference in color or contrast between each area of the inspection object 17 included in the composite images 25, 26, 27, 28, 29.

상술한 방법을 통해 적어도 하나의 합성 이미지가 디스플레이에 표시되면, 단계 S73에서, 사용자는 표시된 적어도 하나의 합성 이미지 중 하나를 선택할 수 있다. 예를 들어, 도 1 및 2를 참조하면, 사용자는 디스플레이(19)에 표시된 적어도 하나의 합성 이미지(25, 26, 27, 28, 29) 중 하나를 선택할 수 있다. 사용자는 디스플레이(19)에 설치된 터치 인터페이스 또는 키보드, 마우스와 같은 인터페이스 장치를 이용하여 디스플레이(19)에 표시된 합성 이미지들(25, 26, 27, 28, 29) 중에서 하나의 합성 이미지를 선택할 수 있다.When at least one composite image is displayed on the display through the above-described method, in step S73, the user may select one of the displayed at least one composite image. For example, referring to FIGS. 1 and 2, the user may select one of at least one composite image 25, 26, 27, 28, and 29 displayed on the display 19. A user may select one composite image from among the composite images 25, 26, 27, 28, 29 displayed on the display 19 using a touch interface installed on the display 19 or an interface device such as a keyboard and a mouse. .

일 실시예에 따르면, 처리부(16)가 표시된 합성 이미지들(25, 26, 27, 28, 29) 중 하나의 합성 이미지를 외관 검사용 이미지로서 선택할 수 있다. 예들 들어, 처리부(16)는 합성 이미지들(25, 26, 27, 28, 29)에 포함된 검사 대상(17)의 각 영역 간의 색상 또는 명암의 차이에 기초하여 합성 이미지들(25, 26, 27, 28, 29)을 평가하여 하나의 합성 이미지를 선택할 수 있다.According to an embodiment, one of the composite images 25, 26, 27, 28, and 29 displayed by the processing unit 16 may be selected as an image for visual inspection. For example, the processing unit 16 includes the composite images 25, 26, 27, 28, 29 based on the difference in color or contrast between each area of the inspection object 17 included in the composite images 25, 26, 27, 28, 29. 27, 28, 29) can be evaluated to select one composite image.

단계 S73에서 디스플레이에 표시된 적어도 하나의 합성 이미지 중 하나가 선택되면, 단계 S74에서, 외관 검사 장치는 선택된 합성 이미지의 색공간을 제1 색공간에서 제2 색공간으로 변환한 후, 변환된 합성 이미지를 디스플레이에 표시할 수 있다. 예를 들어, 도 1 및 3을 참조하면, 외관 검사 장치(10)의 처리부(16)는 선택된 합성 이미지의 색공간을 제1 색공간에서 제2 색공간으로 변환한 후, 변환된 합성 이미지(35)를 디스플레이(19)에 표시할 수 있다.When one of the at least one composite image displayed on the display is selected in step S73, in step S74, the appearance inspection apparatus converts the color space of the selected composite image from the first color space to the second color space, and then converts the composite image. Can be displayed on the display. For example, referring to FIGS. 1 and 3, the processing unit 16 of the visual inspection apparatus 10 converts the color space of the selected composite image from the first color space to the second color space, and then converts the converted composite image ( 35) can be displayed on the display 19.

일 실시예에 따르면, 제1 색공간은 합성 이미지(35)의 생성 시 정의되는 색공간이거나 또는 이를 다른 색공간으로 1회 이상 변환한 색공간일 수 있다. 또한, 제1 색공간은 합성 이미지(35)의 생성 시 정의되는 다차원의 픽셀 공간을 특정 색공간으로 변환한 색공간일 수 있다.According to an embodiment, the first color space may be a color space defined when the composite image 35 is generated, or a color space obtained by converting it to another color space one or more times. Further, the first color space may be a color space obtained by converting a multidimensional pixel space defined when the composite image 35 is generated into a specific color space.

일 실시예에 따르면, 제1 색공간과 제2 색공간은 RGB 색공간, HSV 색공간, CMYK 색공간, YIQ 색공간, YPbPr 색공간, HSL 색공간 및 xvYCC 색공간 중 각각 서로 다르게 선택되는 색공간들일 수 있다. 다만, 이 외에도 알려진 다양한 색공간이 합성 이미지(35)의 제1 색공간 및 제2 색공간으로서 이용될 수 있다.According to an embodiment, the first color space and the second color space are different colors selected from among RGB color space, HSV color space, CMYK color space, YIQ color space, YPbPr color space, HSL color space, and xvYCC color space. It can be spaces. However, in addition to this, various known color spaces may be used as the first color space and the second color space of the composite image 35.

단계 S74에서 제2 색공간으로 변환된 합성 이미지가 디스플레이에 표시되면, 단계 S75에서, 외관 검사 장치는 변환된 합성 이미지 내의 픽셀들 중 적어도 하나의 픽셀과 연관된 제2 색공간에서의 적어도 하나의 좌표를 획득할 수 있다. 예를 들어, 도 1 및 3을 참조하면, 외관 검사 장치(10)의 처리부(16)는 변환된 합성 이미지(35) 내의 픽셀들 중 적어도 하나의 픽셀(351)과 연관된 제2 색공간에서의 적어도 하나의 좌표를 획득할 수 있다.When the composite image converted to the second color space in step S74 is displayed on the display, in step S75, the appearance inspection apparatus includes at least one coordinate in the second color space associated with at least one of the pixels in the converted composite image. Can be obtained. For example, referring to FIGS. 1 and 3, the processing unit 16 of the visual inspection apparatus 10 is a second color space associated with at least one pixel 351 among pixels in the converted composite image 35. At least one coordinate can be obtained.

일 실시예에 따르면, 적어도 하나의 픽셀(351)은 사용자의 입력에 의해 결정될 수 있다. 예를 들어, 사용자는 키보드, 마우스, 터치 스크린 등으로 구현된 사용자 인터페이스를 통해, 디스플레이(19)에 표시된 합성 이미지(35)에서 적어도 하나의 픽셀(351)을 선택 또는 입력할 수 있다. 사용자가 적어도 하나의 픽셀(351)을 선택 또는 입력하면, 처리부(16)는 이와 연관된 제2 색공간에서의 적어도 하나의 좌표를 획득할 수 있다.According to an embodiment, at least one pixel 351 may be determined by a user's input. For example, the user may select or input at least one pixel 351 from the composite image 35 displayed on the display 19 through a user interface implemented with a keyboard, mouse, and touch screen. When the user selects or inputs at least one pixel 351, the processor 16 may obtain at least one coordinate in a second color space associated therewith.

또 다른 실시예에 따르면, 적어도 하나의 픽셀(351)은 합성 이미지(35)의 제1 색공간 또는 제2 색공간에서의 성분들의 값에 기초하여 결정될 수 있다. 합성 이미지(35)는 제1 색공간 또는 제2 색공간에서 정의될 수 있는 픽셀들을 가지고 있다. 따라서, 처리부(16)는 픽셀들의 제1 색공간에서의 각 성분들의 값 또는 제2 색공간에서의 각 성분들의 값에 기초하여 합성 이미지(35) 내에서 적어도 하나의 픽셀(351)을 결정할 수 있다. 이와 같은 방식으로 적어도 하나의 픽셀(351)이 결정되면, 처리부(16)는 이와 연관된 제2 색공간에서의 적어도 하나의 좌표를 획득할 수 있다.According to another embodiment, at least one pixel 351 may be determined based on values of components in the first color space or the second color space of the composite image 35. The composite image 35 has pixels that can be defined in a first color space or a second color space. Accordingly, the processor 16 may determine at least one pixel 351 in the composite image 35 based on the values of each component in the first color space of the pixels or the value of each component in the second color space. have. When at least one pixel 351 is determined in this manner, the processor 16 may obtain at least one coordinate in the second color space associated therewith.

단계 S75에서 합성 이미지 내의 픽셀들 중 적어도 하나의 픽셀과 연관된 제2 색공간에서의 적어도 하나의 좌표가 획득되면, 단계 S76에서, 외관 검사 장치는 적어도 하나의 좌표를 형성하는 제2 색공간에서의 성분들의 값에 기초하여 결정된 검사 영역을 변환된 합성 이미지 상에 표시할 수 있다. 예를 들어, 도 1, 3 및 4를 참조하면, 외관 검사 장치(10)의 처리부(16)는 적어도 하나의 좌표를 형성하는 제2 색공간에서의 성분들의 값(321, 331, 341)에 기초하여 결정된 검사 영역(353)을 변환된 합성 이미지(35) 상에 표시할 수 있다.If at least one coordinate in the second color space associated with at least one pixel of the pixels in the composite image is obtained in step S75, in step S76, the appearance inspection apparatus in the second color space forming at least one coordinate The inspection area determined based on the values of the components may be displayed on the converted composite image. For example, referring to FIGS. 1, 3, and 4, the processing unit 16 of the visual inspection apparatus 10 determines values 321, 331, and 341 of the components in the second color space forming at least one coordinate. The determined inspection area 353 may be displayed on the converted composite image 35.

일 실시예에 따르면, 처리부(16)는 획득된 적어도 하나의 좌표의 제1 성분의 값을 포함하는 제1 성분의 범위와 획득된 적어도 하나의 좌표의 제2 성분의 값을 포함하는 제2 성분의 범위로 정의되는, 제2 색공간에서의 영역을 검사 영역으로 결정할 수 있다. 예를 들어, 도 3을 참조하면, 처리부(16)는 획득된 좌표의 성분들의 값(321, 331, 341)을 포함하는 범위들(322, 332, 342) 중 적어도 2개의 범위로 정의되는 제2 색공간에서의 영역을 검사 영역을 결정할 수 있다.According to an embodiment, the processor 16 includes a range of a first component including a value of a first component of at least one coordinate obtained and a second component including a value of a second component of at least one obtained coordinate. The area in the second color space, defined as the range of, may be determined as the inspection area. For example, referring to FIG. 3, the processing unit 16 includes at least two ranges of ranges 322, 332, and 342 including values 321, 331, and 341 of the obtained coordinates. The area in the 2 color space can be determined as the inspection area.

일 예로서, 획득된 좌표의 제1 성분의 값이 HSV 색공간에서의 색상 값이고, 제2 성분의 값이 HSV 색공간에서의 채도 값이면, 처리부(16)는 획득된 좌표의 색상 값을 포함하는 제1 범위와 획득된 좌표의 채도 값을 포함하는 제2 범위로 정의되는 HSV 색공간에서의 영역을 검사 영역으로 결정할 수 있다.As an example, if the value of the first component of the acquired coordinates is a color value in the HSV color space, and the value of the second component is a saturation value in the HSV color space, the processor 16 determines the color value of the acquired coordinates. An area in the HSV color space defined by the included first range and the second range including the saturation value of the acquired coordinates may be determined as the inspection area.

또 다른 실시예에 따르면, 처리부(16)는 획득된 좌표의 제2 색공간에서의 모든 성분의 값을 각각 포함하는 제2 색공간에서의 영역을 검사 영역으로 결정할 수 있다. 예를 들어, 획득된 좌표의 HSV 색공간에서의 색상 값, 채도 값 및 명도 값을 각각 포함하는 범위들로 정의되는 HSV 색공간에서의 영역을 검사 영역으로 결정할 수 있다.According to another embodiment, the processor 16 may determine an area in the second color space each including values of all components in the second color space of the acquired coordinates as the inspection area. For example, an area in the HSV color space defined by ranges each including a hue value, a saturation value, and a brightness value in the HSV color space of the acquired coordinates may be determined as the inspection area.

도 9는 본 발명의 일 실시예에 따른 검사 영역을 색공간이 변환된 합성 이미지 상에 표시하는 방법을 나타내는 흐름도이다. 이하 각 단계에 대해서 도면을 참조하여 검사 영역을 색공간이 변환된 합성 이미지 상에 표시하는 표시하는 방법이 보다 구체적으로 설명된다.9 is a flowchart illustrating a method of displaying an inspection area on a composite image converted from a color space according to an embodiment of the present invention. Hereinafter, a method of displaying the inspection area on the composite image converted from the color space will be described in more detail with reference to the drawings for each step.

먼저, 단계 S761에서, 외관 검사 장치는 변환된 합성 이미지 내에서의 제1 성분의 분포 및 제2 성분의 분포를 디스플레이에 표시할 수 있다. 예를 들어, 도 1 및 3을 참조하면, 외관 검사 장치(10)의 처리부(16)는 변환된 합성 이미지(35) 내에서의 제1 성분의 분포(32) 및 제2 성분의 분포(33)를 디스플레이(19)에 표시할 수 있다. 일 실시예에 따르면, 외관 검사 장치(10)의 처리부(16)는 제2 색공간에서 합성 이미지(35)를 정의하는 성분들 중 적어도 2개의 성분의 분포를 디스플레이(19)에 표시할 수 있다.First, in step S761, the appearance inspection apparatus may display the distribution of the first component and the distribution of the second component in the converted composite image on the display. For example, referring to FIGS. 1 and 3, the processing unit 16 of the visual inspection apparatus 10 includes a first component distribution 32 and a second component distribution 33 in the converted composite image 35. ) Can be displayed on the display 19. According to an embodiment, the processing unit 16 of the appearance inspection apparatus 10 may display a distribution of at least two components among components defining the composite image 35 in the second color space on the display 19. .

단계 S761에서 변환된 합성 이미지 내에서의 제1 성분의 분포 및 제2 성분의 분포가 디스플레이에 표시되면, 단계 S762에서, 사용자는 제1 성분의 분포 중 획득된 적어도 하나의 좌표의 제1 성분의 값을 포함하는 제1 성분의 범위를 선택할 수 있다. 이후 단계 S763에서, 사용자는 제2 성분의 분포 중 획득된 적어도 하나의 제2 성분의 값을 포함하는 제2 성분의 범위를 선택할 수 있다. 예를 들어, 도 3을 참조하면, 사용자는 제1 성분의 분포(32) 중 획득된 적어도 하나의 좌표의 제1 성분의 값(321)을 포함하는 제1 성분의 범위(322)를 선택할 수 있다. 또한, 사용자는 제2 성분의 분포(33) 중 획득된 적어도 하나의 좌표의 제2 성분의 값(331)을 포함하는 제2 성분의 범위(332)를 선택할 수 있다.When the distribution of the first component and the distribution of the second component in the composite image converted in step S761 are displayed on the display, in step S762, the user selects the first component of at least one coordinate obtained among the distribution of the first component. The range of the first component including the value can be selected. Subsequently, in step S763, the user may select a range of the second component including the value of at least one second component obtained from among the distribution of the second component. For example, referring to FIG. 3, the user may select a range 322 of the first component including the value 321 of the first component of at least one coordinate obtained from among the distribution 32 of the first component. have. In addition, the user may select a range 332 of the second component including the value 331 of the second component of at least one coordinate obtained from among the distribution 33 of the second component.

일 실시예에 따르면, 제2 색공간으로 변환된 합성 이미지(35)와 변환된 합성 이미지(35)의 픽셀들의 제2 색공간에서의 제1 성분의 분포(32), 제2 성분의 분포(33) 및 제3 성분의 분포(34)가 표시되면, 사용자는 획득된 좌표의 성분들의 값(321, 331, 341)을 각각 포함하는 제1 성분의 범위(322), 제2 성분의 범위(332) 및 제3 성분의 범위(342) 중 적어도 2개를 선택할 수 있다. 예들 들어, 사용자는 제3 성분의 값(341)이 제3 성분의 분포(34) 상에 표시되면, 슬라이드(343)를 조정하여 제3 성분의 값(341)을 포함하는 제3 성분의 범위(342)를 결정할 수 있다. 동일한 방식으로, 사용자는 제1 성분의 범위(332) 및 제2 성분의 범위(332)를 슬라이드(343)와 같은 인터페이스를 이용하여 결정할 수 있다.According to an embodiment, the first component distribution 32 and the second component distribution in the second color space of the composite image 35 converted to the second color space and the pixels of the converted composite image 35 33) and the distribution of the third component (34) are displayed, the user can select the range 322 of the first component and the range of the second component, respectively, including values 321, 331, and 341 of the obtained coordinates. 332) and the range 342 of the third component may be selected at least two. For example, if the value of the third component (341) is displayed on the distribution of the third component (34), the user can adjust the slide 343 to determine the range of the third component that includes the value of the third component (341). 342 can be determined. In the same way, the user can determine the range 332 of the first component and the range 332 of the second component using an interface such as slide 343.

사용자 인터페이스(31) 상에서 각 성분의 범위(322, 332, 342)를 결정하는 인터페이스의 형태는 슬라이드(343)와 같은 형태에 한정되지 않고, 범위를 지정할 수 있는 다양한 형태의 인터페이스가 사용될 수 있다. 슬라이드(343)는 사용자가 디스플레이(19)에 설치된 터치 인터페이스를 통해 조정하거나 마우스와 같은 인터페이스를 통해 조정할 수 있다. 또한, 사용자는 각 성분의 범위(322, 332, 342)를 키보드를 이용하여 직접 입력할 수도 있다.The form of the interface for determining the ranges 322, 332, and 342 of each component on the user interface 31 is not limited to a form such as the slide 343, and various types of interfaces capable of designating a range may be used. The slide 343 can be adjusted by the user through a touch interface installed on the display 19 or through an interface such as a mouse. In addition, the user may directly input the ranges 322, 332, 342 of each component using a keyboard.

또 다른 실시예에 따르면, 적어도 제1 성분의 범위(322)와 제2 성분의 범위(332)는 각각 제1 성분의 값(321)과 제2 성분의 값(331)에 기초하여 결정될 수 있다. 처리부(16)는 획득된 좌표의 성분들의 값(321, 331, 341)에 따라, 미리 정해진 범위를 제1 성분의 범위(322) 또는 제2 성분의 범위(332)로서 결정할 수 있다. 또한, 처리부(16)는 획득된 좌표의 성분들의 값(321, 331, 341)을 미리 정해진 계산식에 적용하여, 제1 성분의 범위(322) 또는 제2 성분의 범위(332)를 결정할 수 있다. 일 예로서, 제1 성분이 HSV 색공간에서의 색상이라면, 처리부(16)는 획득된 좌표의 색상 값의 a% 값(예컨대, 5%)을, 획득된 좌표의 색상 값에 더한 값과 뺀 값을 계산하고, 이 두 값 사이의 범위를 제1 성분의 범위(322)로서 결정할 수 있다.According to another embodiment, at least the range 322 of the first component and the range 332 of the second component may be determined based on the value 321 of the first component and the value 331 of the second component, respectively. . The processor 16 may determine a predetermined range as the range 322 of the first component or the range 332 of the second component according to the values 321, 331, and 341 of the obtained coordinate components. In addition, the processor 16 may determine the range 322 of the first component or the range 332 of the second component by applying the values 321, 331, and 341 of the obtained coordinate components to a predetermined calculation formula. . As an example, if the first component is a color in the HSV color space, the processing unit 16 subtracts the a% value (eg, 5%) of the color value of the acquired coordinates from the value added to the color value of the acquired coordinates. The value can be calculated and the range between these two values can be determined as the range 322 of the first component.

단계 S762 및 S763에서 제1 및 제2 성분의 분포 중 획득된 적어도 하나의 좌표의 제1 및 제2 성분의 값을 포함하는 제1 및 제2 성분의 범위가 각각 선택되면, 단계 S764에서, 외관 검사 장치는 제1 성분의 범위 및 제2 성분의 범위로 정의되는 검사 영역을 변환된 합성 이미지 상에 표시할 수 있다. 예를 들어, 도 1 및 4를 참조하면, 외관 검사 장치(10)의 처리부(16)는 제1 성분의 범위(322) 및 제2 성분의 범위(332)로 정의되는 검사 영역(353)을 합성 이미지(35) 상에 표시할 수 있다. 일 실시예에 따르면, 사용자는 인터페이스(31)의 각 성분의 범위(322, 332, 342)를 조정하여 결정된 검사 영역(353)을 수정할 수 있다. 이와 같이 검사 영역(353)이 결정되어 표시되면, 외관 검사 장치(10)는 검사 영역(353) 내에 외관의 결함(352)이 존재하는지 여부를 결정할 수 있다.When the ranges of the first and second components including values of the first and second components of at least one coordinate obtained from among the distributions of the first and second components in steps S762 and S763 are respectively selected, in step S764, the appearance The inspection apparatus may display an inspection area defined by the range of the first component and the range of the second component on the converted composite image. For example, referring to FIGS. 1 and 4, the processing unit 16 of the visual inspection apparatus 10 defines an inspection area 353 defined by a range 322 of a first component and a range 332 of a second component. It can be displayed on the composite image 35. According to an embodiment, the user may modify the determined inspection area 353 by adjusting the ranges 322, 332, and 342 of each component of the interface 31. When the inspection area 353 is determined and displayed in this way, the appearance inspection apparatus 10 may determine whether or not an external defect 352 exists in the inspection area 353.

상기 방법은 특정 실시예들을 통하여 설명되었지만, 상기 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.Although the method has been described through specific embodiments, the method can also be implemented as computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. In addition, the computer-readable recording medium is distributed over a computer system connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the above embodiments can be easily inferred by programmers in the technical field to which the present invention belongs.

본 명세서에서는 본 발명이 일부 실시예들과 관련하여 설명되었지만, 본 발명이 속하는 기술분야의 당업자가 이해할 수 있는 본 발명의 정신 및 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.In the present specification, the present invention has been described in connection with some embodiments, but it should be understood that various modifications and changes can be made without departing from the spirit and scope of the present invention that can be understood by those skilled in the art to which the present invention belongs. something to do. In addition, such modifications and changes should be considered to fall within the scope of the claims appended to this specification.

11, 12, 13, 14: 조명부 15: 결상부
16: 처리부 17: 검사 대상
18: 스테이지부 19: 디스플레이
11, 12, 13, 14: lighting unit 15: imaging unit
16: processing unit 17: inspection target
18: stage unit 19: display

Claims (18)

검사 대상의 3차원 외관을 검사하는 검사 장치로서,
상이한 조사각으로 상기 검사 대상에 광을 조사하는 복수의 조명부;
상기 복수의 조명부로부터 조사된 상기 광이 상기 검사 대상으로부터 반사된 반사광을 결상하여 복수의 이미지를 획득하는 결상부 - 상기 복수의 이미지 각각은 상기 복수의 조명부 중 하나의 조명부에 의해 조사된 광으로부터 획득되고, 상기 복수의 이미지는 하나의 픽셀 특성으로 정의됨 - ; 및
상기 복수의 이미지 중 2개 이상의 이미지들로부터 생성된 합성 이미지(composition image)에서 상기 검사 대상의 검사 영역을 결정하는 처리부를 포함하고,
상기 처리부는,
상기 합성 이미지의 색공간(color space)을 제1 색공간에서 제2 색공간으로 변환하고,
상기 합성 이미지 내의 픽셀들 중 적어도 하나의 픽셀과 연관된 상기 제2 색공간에서의 적어도 하나의 좌표를 획득하고,
상기 적어도 하나의 좌표를 형성하는 상기 제2 색공간의 성분들의 값에 기초하여 상기 검사 영역을 결정하는, 검사 장치.
As an inspection device that inspects the three-dimensional appearance of an object
A plurality of illumination units for irradiating light to the inspection object at different irradiation angles;
An imaging unit in which the light irradiated from the plurality of illumination units forms a reflected light reflected from the inspection object to obtain a plurality of images-Each of the plurality of images is obtained from light irradiated by one of the plurality of illumination units And the plurality of images is defined as one pixel characteristic; And
A processing unit for determining an inspection area of the inspection object from a composition image generated from two or more of the plurality of images,
The processing unit,
Converting a color space of the composite image from a first color space to a second color space,
Acquiring at least one coordinate in the second color space associated with at least one of the pixels in the composite image,
The inspection device, wherein the inspection area is determined based on values of components of the second color space forming the at least one coordinate.
제1항에 있어서,
상기 제2 색공간에서의 성분들은 적어도 제1 성분 및 제2 성분을 포함하고,
상기 처리부는 상기 획득된 적어도 하나의 좌표의 상기 제1 성분의 값을 포함하는 제1 성분의 범위와 상기 획득된 적어도 하나의 좌표의 상기 제2 성분의 값을 포함하는 제2 성분의 범위로 정의되는, 상기 제2 색공간에서의 영역을 상기 검사 영역으로서 결정하는, 검사 장치.
The method of claim 1,
Components in the second color space include at least a first component and a second component,
The processing unit is defined as a range of a first component including a value of the first component of the at least one coordinate obtained and a range of a second component including a value of the second component of the at least one obtained coordinate The inspection device, wherein an area in the second color space is determined as the inspection area.
제2항에 있어서,
상기 제1 성분의 범위와 상기 제2 성분의 범위는 각각 사용자의 입력에 따라 결정되는, 검사 장치.
The method of claim 2,
The range of the first component and the range of the second component are each determined according to a user's input.
제2항에 있어서,
상기 제1 성분의 범위와 상기 제2 성분의 범위는 각각 상기 제1 성분의 값과 상기 제2 성분의 값에 기초하여 결정되는, 검사 장치.
The method of claim 2,
The inspection apparatus, wherein the range of the first component and the range of the second component are respectively determined based on the value of the first component and the value of the second component.
삭제delete 제1항에 있어서,
상기 복수의 이미지 각각은 그레이-스케일 이미지(gray-scale image)인, 검사 장치.
The method of claim 1,
Each of the plurality of images is a gray-scale image.
제1항에 있어서,
상기 적어도 하나의 픽셀은 사용자의 입력에 따라 결정되거나 상기 합성 이미지의 상기 제1 색공간 또는 상기 제2 색공간에서의 성분들의 값에 기초하여 결정되는, 검사 장치.
The method of claim 1,
The at least one pixel is determined according to a user's input or is determined based on values of components in the first color space or the second color space of the composite image.
제1항에 있어서,
상기 복수의 조명부는 각각 상이한 조사각을 갖는, 검사 장치.
The method of claim 1,
Each of the plurality of illumination units has a different irradiation angle.
제8항에 있어서,
상기 복수의 이미지 중 2개 이상의 이미지들은 상기 복수의 조명부로부터 각각 상이한 컬러의 광이 조사되어 획득된 이미지들이거나 또는 상기 복수의 조명부로부터 각각 동일한 컬러의 광이 조사되어 획득된 이미지들인, 검사 장치.
The method of claim 8,
Two or more of the plurality of images are images obtained by irradiating light of a different color from the plurality of illumination units, respectively, or images obtained by irradiating light of the same color from the plurality of illumination units, respectively.
제1항에 있어서,
상기 처리부는 상기 2개 이상의 이미지들로부터 각각 획득된 하나의 픽셀 특성의 값들을 조합하여 상기 합성 이미지를 생성하는, 검사 장치.
The method of claim 1,
The processing unit generates the composite image by combining values of one pixel characteristic each obtained from the two or more images.
제1항에 있어서,
상기 제1 색공간과 상기 제2 색공간은 RGB 색공간, HSV 색공간, CMYK 색공간, YIQ 색공간, YPbPr 색공간, HSL 색공간 및 xvYCC 색공간 중 각각 서로 다르게 선택되는 색공간들인, 검사 장치.
The method of claim 1,
The first color space and the second color space are RGB color space, HSV color space, CMYK color space, YIQ color space, YPbPr color space, HSL color space, and xvYCC color space. Device.
제1항에 있어서,
상기 3차원 외관은 굴곡진(curved) 또는 각진(edged) 외관인, 검사 장치.
The method of claim 1,
The three-dimensional appearance is a curved (curved) or angular (edged) appearance, inspection device.
검사 장치에서 수행되는 검사 대상의 3차원 외관을 검사하기 위한 검사 영역을 결정하는 방법으로서,
상이한 조사각으로 상기 검사 대상에 광을 각각 조사하여 획득된 복수의 이미지를 수신하는 단계 - 상기 복수의 이미지 각각은 복수의 조명부 중 하나의 조명부에 의해 조사된 광으로부터 획득되고, 상기 복수의 이미지는 하나의 픽셀 특성으로 정의됨 - ;
상기 복수의 이미지 중 2개 이상의 이미지들로부터 합성 이미지를 생성하는 단계;
상기 합성 이미지의 색공간을 제1 색공간에서 제2 색공간으로 변환하는 단계;
상기 변환된 합성 이미지 내의 픽셀들 중 적어도 하나의 픽셀과 연관된 상기 제2 색공간에서의 적어도 하나의 좌표를 획득하는 단계; 및
상기 적어도 하나의 좌표를 형성하는 상기 제2 색공간의 성분들의 값에 기초하여 상기 검사 영역을 결정하는 단계
를 포함하는 검사 영역을 결정하는 방법.
A method of determining an inspection area for inspecting a three-dimensional appearance of an inspection object performed by an inspection device, comprising:
Receiving a plurality of images obtained by irradiating each light to the inspection object at different irradiation angles-Each of the plurality of images is obtained from light irradiated by one of the plurality of illumination units, the plurality of images Defined as one pixel characteristic-;
Generating a composite image from two or more images of the plurality of images;
Converting a color space of the composite image from a first color space to a second color space;
Obtaining at least one coordinate in the second color space associated with at least one of pixels in the converted composite image; And
Determining the inspection area based on values of components of the second color space forming the at least one coordinate
How to determine the inspection area comprising a.
제13항에 있어서,
상기 제2 색공간에서의 성분들은 적어도 제1 성분 및 제2 성분을 포함하고,
상기 검사 영역을 결정하는 단계는, 상기 획득된 적어도 하나의 좌표의 상기 제1 성분의 값을 포함하는 제1 성분의 범위와 상기 획득된 적어도 하나의 좌표의 상기 제2 성분의 값을 포함하는 제2 성분의 범위로 정의되는, 상기 제2 색공간에서의 영역을 상기 검사 영역으로서 결정하는 단계를 포함하는, 검사 영역을 결정하는 방법.
The method of claim 13,
Components in the second color space include at least a first component and a second component,
The determining of the inspection area may include a range of a first component including a value of the first component of the obtained at least one coordinate and a second component of a value of the second component of the obtained at least one coordinate And determining a region in the second color space, defined as a range of two components, as the inspection area.
제13항에 있어서,
상기 합성 이미지를 생성하는 단계는, 상기 2개 이상의 이미지들로부터 각각 획득된 하나의 픽셀 특성의 값들을 조합하여 상기 합성 이미지를 생성하는 단계를 포함하는, 검사 영역을 결정하는 방법.
The method of claim 13,
The step of generating the composite image includes generating the composite image by combining values of one pixel characteristic each obtained from the two or more images.
제13항 내지 제15항 중 어느 한 항의 검사 영역을 결정하는 방법의 각 단계를 수행하는 명령어들을 포함하는 프로그램을 저장하는 컴퓨터 판독가능 저장매체.A computer-readable storage medium storing a program including instructions for performing each step of the method of determining a test area according to any one of claims 13 to 15. 검사 대상의 3차원 외관을 검사하는 검사 장치로서,
상기 검사 대상으로 조사된 광이 반사된 반사광을 결상하여 복수의 이미지를 획득하는 결상부 - 상기 복수의 이미지 각각은 복수의 조명부 중 하나의 조명부에 의해 조사된 광으로부터 획득되고, 상기 복수의 이미지는 하나의 픽셀 특성으로 정의됨 - ; 및
상기 복수의 이미지 중 2개 이상의 이미지들로부터 생성된 합성 이미지에서 상기 검사 대상의 검사 영역을 결정하는 처리부를 포함하고,
상기 복수의 이미지 중 2개 이상의 이미지들은 서로 다른 조명 조건 하에서 획득된 이미지들을 포함하고,
상기 처리부는,
상기 합성 이미지의 색공간을 제1 색공간에서 제2 색공간으로 변환하고,
상기 합성 이미지 내의 픽셀들 중 적어도 하나의 픽셀과 연관된 상기 제2 색공간에서의 적어도 하나의 좌표를 획득하고,
상기 적어도 하나의 좌표를 형성하는 상기 제2 색공간에서의 성분들의 값에 기초하여 상기 검사 영역을 결정하는, 검사 장치.
As an inspection device that inspects the three-dimensional appearance of an object
An imaging unit for obtaining a plurality of images by imaging the reflected light reflected by the light irradiated to the inspection object-Each of the plurality of images is obtained from light irradiated by one of the plurality of illumination units, and the plurality of images is Defined as one pixel characteristic- And
A processing unit for determining an inspection area of the inspection target from a composite image generated from two or more images of the plurality of images,
Two or more images of the plurality of images include images acquired under different lighting conditions,
The processing unit,
Converting the color space of the composite image from a first color space to a second color space,
Acquiring at least one coordinate in the second color space associated with at least one of the pixels in the composite image,
The inspection device, wherein the inspection area is determined based on values of components in the second color space forming the at least one coordinate.
검사 장치에서 검사 대상의 3차원 외관을 검사하기 위한 검사 영역을 디스플레이에 표시하는 방법으로서,
상기 검사 대상으로 조사된 광이 반사된 반사광을 결상하여 복수의 이미지를 획득하는 단계 - 상기 복수의 이미지 각각은 복수의 조명부 중 하나의 조명부에 의해 조사된 광으로부터 획득되고, 상기 복수의 이미지는 하나의 픽셀 특성으로 정의됨 - ;
상기 복수의 이미지 중에서 선택된 2개 이상의 이미지들로부터 생성되는 적어도 하나의 합성 이미지를 상기 디스플레이에 표시하는 단계;
상기 표시된 적어도 하나의 합성 이미지 중 하나를 선택하는 단계;
상기 선택된 합성 이미지의 색공간을 제1 색공간에서 제2 색공간으로 변환한 후, 상기 변환된 합성 이미지를 상기 디스플레이에 표시하는 단계;
상기 변환된 합성 이미지 내의 픽셀들 중 적어도 하나의 픽셀과 연관된 상기 제2 색공간에서의 적어도 하나의 좌표를 획득하는 단계; 및
상기 적어도 하나의 좌표를 형성하는 상기 제2 색공간에서의 성분들의 값에 기초하여 결정된 상기 검사 영역을 상기 변환된 합성 이미지 상에 표시하는 단계를 포함하고,
상기 복수의 이미지 중 2개 이상의 이미지들은 서로 다른 조명 조건 하에서 획득된 이미지들을 포함하는, 검사 영역을 표시하는 방법.
A method of displaying an inspection area on a display for inspecting a three-dimensional appearance of an inspection object in an inspection device,
Acquiring a plurality of images by imaging the reflected light reflected by the light irradiated to the inspection object-Each of the plurality of images is obtained from light irradiated by one of the plurality of lighting units, and the plurality of images is one -Defined as the pixel characteristics of;
Displaying on the display at least one composite image generated from two or more images selected from the plurality of images;
Selecting one of the displayed at least one composite image;
Converting a color space of the selected composite image from a first color space to a second color space and then displaying the converted composite image on the display;
Obtaining at least one coordinate in the second color space associated with at least one of pixels in the converted composite image; And
Displaying the inspection area determined based on values of components in the second color space forming the at least one coordinate on the converted composite image,
At least two images of the plurality of images include images acquired under different lighting conditions.
KR1020180126115A 2018-10-22 2018-10-22 Inspection area determination method and visual inspection apparatus using the same KR102171773B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180126115A KR102171773B1 (en) 2018-10-22 2018-10-22 Inspection area determination method and visual inspection apparatus using the same
PCT/KR2019/013878 WO2020085758A1 (en) 2018-10-22 2019-10-22 Method for determining inspection area and apparatus for inspecting external appearance by using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180126115A KR102171773B1 (en) 2018-10-22 2018-10-22 Inspection area determination method and visual inspection apparatus using the same

Publications (2)

Publication Number Publication Date
KR20200045264A KR20200045264A (en) 2020-05-04
KR102171773B1 true KR102171773B1 (en) 2020-10-29

Family

ID=70331616

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180126115A KR102171773B1 (en) 2018-10-22 2018-10-22 Inspection area determination method and visual inspection apparatus using the same

Country Status (2)

Country Link
KR (1) KR102171773B1 (en)
WO (1) WO2020085758A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230401688A1 (en) * 2020-09-18 2023-12-14 Shimadzu Corporation Defect inspection apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101017300B1 (en) 2008-10-07 2011-02-28 (주)펨트론 Apparatus for measurement of surface profile
KR101215910B1 (en) 2010-04-14 2012-12-27 주식회사 고영테크놀러지 Method of measuring an area of a solder on a printed circuit board
JP2016045012A (en) 2014-08-20 2016-04-04 オムロン株式会社 Quality control device and method for controlling quality control device
JP6256249B2 (en) * 2014-08-08 2018-01-10 オムロン株式会社 Measuring device, substrate inspection device, and control method thereof
KR101892099B1 (en) * 2014-12-08 2018-08-27 주식회사 고영테크놀러지 Method of inspecting terminal of component formed on board and board inspection device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2939312C2 (en) * 1979-09-28 1984-01-05 Liba Maschinenfabrik Gmbh, 8674 Naila Thread feed for warp knitting machines
US9626752B2 (en) * 2013-05-22 2017-04-18 Delta Design, Inc. Method and apparatus for IC 3D lead inspection having color shadowing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101017300B1 (en) 2008-10-07 2011-02-28 (주)펨트론 Apparatus for measurement of surface profile
KR101215910B1 (en) 2010-04-14 2012-12-27 주식회사 고영테크놀러지 Method of measuring an area of a solder on a printed circuit board
JP6256249B2 (en) * 2014-08-08 2018-01-10 オムロン株式会社 Measuring device, substrate inspection device, and control method thereof
JP2016045012A (en) 2014-08-20 2016-04-04 オムロン株式会社 Quality control device and method for controlling quality control device
KR101892099B1 (en) * 2014-12-08 2018-08-27 주식회사 고영테크놀러지 Method of inspecting terminal of component formed on board and board inspection device

Also Published As

Publication number Publication date
WO2020085758A1 (en) 2020-04-30
KR20200045264A (en) 2020-05-04

Similar Documents

Publication Publication Date Title
JP6629455B2 (en) Appearance inspection equipment, lighting equipment, photography lighting equipment
JP6661336B2 (en) System for obtaining data representing an optical signal from a structure, method for mapping the data, and non-transitory computer readable medium
JP6913705B2 (en) 3D image processing equipment, 3D image processing methods and 3D image processing programs, computer-readable recording media and recording equipment
US10240982B2 (en) Measurement system, information processing apparatus, information processing method, and medium
US10157456B2 (en) Information processing apparatus, information processing method, and storage medium utilizing technique for detecting an abnormal state such as a scratch on a target
JP6364777B2 (en) Image data acquisition system and image data acquisition method
JP6942876B2 (en) Information processing equipment, information processing methods and programs
US11295434B2 (en) Image inspection system and image inspection method
CN105372259B (en) Measurement apparatus, base board checking device and its control method, storage media
CN111492198B (en) Object shape measuring apparatus and method, and program
JP2017122614A (en) Image generation method and inspection device
KR102171773B1 (en) Inspection area determination method and visual inspection apparatus using the same
WO2021059858A1 (en) Inspection method, program, and inspection system
US11012612B2 (en) Image inspection system and image inspection method
JP7402745B2 (en) Imaging device and image inspection system
KR20050052015A (en) An acquisition system for reflectance of objects and their representation method
JP2022028344A (en) Control unit, control method, and program
WO2023095733A1 (en) Image forming system, image forming method, and program
JP6871424B2 (en) Texture reproduction device, texture reproduction method, program and recording medium
JP7247032B2 (en) inspection equipment
JP7459525B2 (en) Three-dimensional shape measuring device, three-dimensional shape measuring method and program
CN115980059B (en) Surface defect detection system, detection method, detection device, detection equipment and storage medium
JP6813749B1 (en) How to quantify the color of an object, signal processor, and imaging system
JP2017020816A (en) Measuring device, measuring method, and program for measuring reflection characteristics
WO2019130716A1 (en) Texture reproduction device, texture reproduction method, program, and recording medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right