KR20210128357A - Apparatus and method for inspecting surface quality of appearance based on artificial intelligence - Google Patents

Apparatus and method for inspecting surface quality of appearance based on artificial intelligence Download PDF

Info

Publication number
KR20210128357A
KR20210128357A KR1020210049874A KR20210049874A KR20210128357A KR 20210128357 A KR20210128357 A KR 20210128357A KR 1020210049874 A KR1020210049874 A KR 1020210049874A KR 20210049874 A KR20210049874 A KR 20210049874A KR 20210128357 A KR20210128357 A KR 20210128357A
Authority
KR
South Korea
Prior art keywords
image data
resolution
defect
input image
surface quality
Prior art date
Application number
KR1020210049874A
Other languages
Korean (ko)
Other versions
KR102436786B1 (en
Inventor
한아람
Original Assignee
주식회사 에이비에이치
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이비에이치 filed Critical 주식회사 에이비에이치
Publication of KR20210128357A publication Critical patent/KR20210128357A/en
Application granted granted Critical
Publication of KR102436786B1 publication Critical patent/KR102436786B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Biochemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a device and method for inspecting surface quality based on artificial intelligence that can accurately and uniformly derive an inspection result and can represent a quantitative numerical value. According to one embodiment of the present invention, the method for inspecting surface quality comprises: a step of receiving image data of an object; a step of pre-processing the input image data; a step of detecting a defect in the object using a deep learning study model based on the pre-processed image data; and a step of storing process information of the object in which defect is detected in a first storage unit when the defect is detected and storing process information of the object in which no defect is detected in a second storage unit when no defect is detected. In the pre-processing step, the pre-processing is performed by changing resolution and reflection components of the input image data.

Description

인공지능 기반 외관 표면 품질 검사 장치 및 방법{APPARATUS AND METHOD FOR INSPECTING SURFACE QUALITY OF APPEARANCE BASED ON ARTIFICIAL INTELLIGENCE}AI-based exterior surface quality inspection device and method

본 발명은 인공지능 기반 외관 표면 품질 검사 장치 및 방법에 관한 것으로, 보다 상세하게는 외관 표면 품질 검사를 정량적으로 측정할 수 있도록 하는 인공지능 기반 외관 표면 품질 검사 장치 및 방법에 관한 것이다.The present invention relates to an artificial intelligence-based exterior surface quality inspection apparatus and method, and more particularly, to an artificial intelligence-based exterior surface quality inspection apparatus and method for quantitatively measuring exterior surface quality inspection.

특정한 형태의 표면을 갖는 제품을 사출, 다이캐스팅, 프레스 등의 다양한 방식으로 양산하는 제조업의 경우, 생산된 제품의 결함 유무를 확인하기 위한 제품 외관의 표면 품질 검사를 수행할 필요가 있다. 제품의 일부에 작은 결점만이 있다하더라도 제품의 성능과 신뢰성에 커다란 악영향을 줄 수 있을 뿐만 아니라, 제품의 리콜로 이어져 경제적인 손실을 유발할 수 있기 때문에, 제조가 완료된 후 제품의 외관 품질을 검사하는 것은 매우 중요한 작업 중 하나이다. In the case of a manufacturing industry that mass-produces products having a specific shape surface by various methods such as injection, die-casting, and press, it is necessary to perform a surface quality inspection of the product appearance to confirm the presence or absence of defects in the manufactured product. Even if there is only a small defect in a part of the product, it can have a large adverse effect on the performance and reliability of the product, as well as lead to product recall, resulting in economic loss. It is one of the very important tasks.

그런데, 종래의 산업 현장에서의 제품 외관 표면 품질 검사는 주로 현장 작업자의 육안에 의해 불량 여부를 판단하는 육안검사법에 의존하고 있어 작업 속도가 느려 생산성이 매우 떨어지고, 그 판단 기준이 모호하여 작업자의 감이나 노하우에만 의존하기 때문에 검사하는 작업자에 따라 판단 결과가 달라져 정확도가 떨어지기 때문에 제품의 품질에도 악영향을 미치는 문제가 있다.However, the conventional product appearance surface quality inspection in industrial sites mainly relies on the visual inspection method to determine whether there is a defect by the naked eye of the field worker, so the work speed is slow, the productivity is very low, and the judgment standard is vague, so the operator's feeling However, there is a problem that the quality of the product is adversely affected because the result of the judgment varies depending on the operator who inspects it, and the accuracy is lowered because it depends only on the know-how.

따라서, 외관 표면 품질 검사를 자동화하여 그 검사 결과를 균일하게 도출할 수 있고, 정량적인 수치값으로 나타낼 수 있도록 하는 기술이 개발될 필요가 있다.Therefore, there is a need to develop a technology that can automate the exterior surface quality inspection to uniformly derive the inspection result and display it as a quantitative numerical value.

한국공개특허공보 제10-2011-0040965호 (공개일: 2011년 04월 20일)Korean Patent Application Laid-Open No. 10-2011-0040965 (published on April 20, 2011)

본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 제안된 것으로, 생산된 제품을 촬영한 영상데이터를 딥러닝 학습 모델에 입력하여 제품의 결함 유무를 판단하도록 함으로써, 그 검사 결과를 정확하고 균일하게 도출할 수 있고, 정량적인 수치값으로 나타낼 수 있도록 하는 인공지능 기반 외관 표면 품질 검사 방법을 제공함에 있다.The present invention has been proposed to solve the above problems, and by inputting image data of the produced product into a deep learning learning model to determine whether there is a defect in the product, the inspection result is derived accurately and uniformly It is to provide an artificial intelligence-based exterior surface quality inspection method that can and can be expressed as a quantitative numerical value.

또한, 본 발명은 작업자가 아닌 인공지능을 기반으로 외관 표면 품질 검사가 가능하도록 자동화함으로써, 작업 시간 및 인건비 등의 비용을 절감할 수 있도록 하는 인공지능 기반 외관 표면 품질 검사 방법을 제공함에 있다.In addition, the present invention is to provide an artificial intelligence-based exterior surface quality inspection method capable of reducing costs such as working time and labor cost by automating exterior surface quality inspection based on artificial intelligence rather than an operator.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 인공지능 기반 외관 표면 품질 검사 방법은, 대상체의 영상데이터를 입력받는 단계; 상기 입력된 영상데이터를 전처리하는 단계; 상기 전처리된 영상데이터를 기반으로 딥러닝 학습 모델을 이용하여 대상체의 결함을 검출하는 단계; 및 결함이 검출되면 결함이 검출된 대상체의 공정정보를 제1 저장부에 저장하고, 결함이 검출되지 않으면 결함이 검출되지 않은 대상체의 공정정보를 제2 저장부에 저장하는 단계를 포함하며, 상기 전처리하는 단계는, 상기 입력된 영상데이터의 해상도 및 반사 성분의 변경을 통해 전처리하는 것일 수 있다.An artificial intelligence-based exterior surface quality inspection method according to an embodiment of the present invention for solving the above-described problems, the method comprising: receiving image data of an object; pre-processing the input image data; detecting a defect in the object using a deep learning learning model based on the pre-processed image data; and storing process information of the object in which the defect is detected in the first storage unit when the defect is detected, and storing the process information of the object in which the defect is not detected in the second storage unit when the defect is not detected. The pre-processing may include pre-processing by changing the resolution and reflection components of the input image data.

또한, 본 발명의 일 실시예에 따른 인공지능 기반 외관 표면 품질 검사 장치는, 대상체의 영상데이터를 입력받는 입력부; 상기 입력된 영상데이터를 전처리하는 전처리부; 상기 전처리된 영상데이터를 기반으로 딥러닝 학습 모델을 이용하여 대상체의 결함을 검출하는 검출부; 결함이 검출된 대상체의 공정정보를 저장하기 위한 제1 저장부와 결함이 검출되지 않은 대상체의 공정정보를 저장하기 위한 제2 저장부를 포함하는 저장부; 및 영상데이터가 입력되면 상기 입력된 영상데이터를 전처리하고, 상기 전처리된 영상데이터를 기반으로 딥러팅 학습 모델을 이용하여 대상체의 결함을 검출하며, 결함 검출 여부에 따라 해당 공정정보를 제1 저장부 또는 제2 저장부에 저장하도록 제어하는 제어부를 포함하며, 상기 전처리부는 상기 입력된 영상데이터의 해상도 및 반사 성분의 변경을 통해 전처리하는 것일 수 있다.In addition, an artificial intelligence-based exterior surface quality inspection apparatus according to an embodiment of the present invention includes: an input unit for receiving image data of an object; a pre-processing unit for pre-processing the input image data; a detection unit for detecting a defect in the object using a deep learning learning model based on the pre-processed image data; a storage unit including a first storage unit for storing process information of an object in which a defect is detected and a second storage unit for storing process information of an object in which a defect is not detected; And when image data is input, the input image data is pre-processed, a defect of the object is detected using a deep learning learning model based on the pre-processed image data, and the corresponding process information is stored in the first storage unit according to whether the defect is detected. Alternatively, a control unit for controlling the storage to be stored in the second storage unit may be included, wherein the pre-processing unit pre-processes the input image data by changing a resolution and a reflection component.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명에 의하면, 생산된 제품을 촬영한 영상데이터를 딥러닝 학습 모델에 입력하여 제품의 결함 유무를 판단하도록 함으로써, 그 검사 결과를 정확하고 균일하게 도출할 수 있고, 정량적인 수치값으로 나타낼 수 있도록 한다.According to the present invention, by inputting the image data of the produced product into the deep learning learning model to determine the presence or absence of defects in the product, the inspection result can be accurately and uniformly derived and expressed as a quantitative numerical value. let it be

또한, 본 발명에 의하면, 작업자가 아닌 인공지능을 기반으로 외관 표면 품질 검사가 가능하도록 자동화함으로써, 작업 시간 및 인건비 등의 비용을 절감할 수 있도록 한다.In addition, according to the present invention, it is possible to reduce costs such as working time and labor cost by automating the external surface quality inspection based on artificial intelligence rather than the operator.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 외관 표면 품질 검사 장치의 구성을 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 외관 표면 품질 검사 방법을 나타내는 순서도이다.
도 3은 본 발명의 일 실시예에 따라 영상데이터의 해상도를 변경하기 위해 적용될 수 있는 각 방법이 적용된 일 예를 나타내는 도면이다.
도 4는 LAB 색공간을 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따라 LAB 색공간을 기반으로 반사 성분을 변경하는 일 예를 나타내는 도면이다.
1 is a block diagram showing the configuration of an external surface quality inspection apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating a method for inspecting an exterior surface quality according to an embodiment of the present invention.
3 is a diagram illustrating an example to which each method that can be applied to change the resolution of image data is applied according to an embodiment of the present invention.
4 is a diagram illustrating a LAB color space.
5 is a diagram illustrating an example of changing a reflection component based on a LAB color space according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe the correlation between a component and other components. A spatially relative term should be understood as a term that includes different directions of components during use or operation in addition to the directions shown in the drawings. For example, when a component shown in the drawing is turned over, a component described as “beneath” or “beneath” of another component may be placed “above” of the other component. can Accordingly, the exemplary term “below” may include both directions below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

명세서에서 사용되는 "부" 또는 "모듈"이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 "모듈"은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 "모듈"은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 "모듈"은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 "모듈"은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 "모듈"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 "모듈"들로 결합되거나 추가적인 구성요소들과 "부" 또는 "모듈"들로 더 분리될 수 있다.As used herein, the term “unit” or “module” refers to a hardware component such as software, FPGA, or ASIC, and “unit” or “module” performs certain roles. However, "part" or "module" is not meant to be limited to software or hardware. A “part” or “module” may be configured to reside on an addressable storage medium and may be configured to reproduce one or more processors. Thus, by way of example, “part” or “module” refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Components and functionality provided within “parts” or “modules” may be combined into a smaller number of components and “parts” or “modules” or additional components and “parts” or “modules”. can be further separated.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 외관 표면 품질 검사 장치의 구성을 나타내는 블록도로서, 이때, 외관 표면 품질 검사 장치(이하, '검사 장치'라 칭함)(100)는 서버일 수도 있다.1 is a block diagram showing the configuration of an apparatus for inspecting exterior surface quality according to an embodiment of the present invention. In this case, the apparatus for inspecting exterior surface quality (hereinafter, referred to as an 'inspection apparatus') 100 may be a server.

도 1을 참조하면, 검사 장치(100)는 입력부(110), 전처리부(120), 검출부(130), 저장부(140) 및 제어부(150)를 포함한다.Referring to FIG. 1 , the test apparatus 100 includes an input unit 110 , a preprocessor 120 , a detection unit 130 , a storage unit 140 , and a control unit 150 .

입력부(110)는 품질 검사의 대상이 되는 대상체의 영상데이터를 입력받는다. 여기서, 영상데이터는 대상체를 촬영한 2차원 또는 3차원의 이미지를 의미하며, 이 영상데이터의 크기(size)는 제한되지 않는다. 구체적으로, 제품의 외관 표면 품질 검사를 위하여 영상데이터는 품질 검사의 대상이 되는 제품인 대상체의 와관 표면을 촬영한 이미지일 수 있다. 예를 들어, 영상데이터는 하나의 프레임인 정적 영상데이터이거나, 복수의 프레임이 연속되는 동적 영상데이터(즉, 동영상 데이터)일 수 있다. The input unit 110 receives image data of an object to be tested for quality. Here, the image data refers to a two-dimensional or three-dimensional image obtained by photographing an object, and the size of the image data is not limited. Specifically, for the quality inspection of the external surface of the product, the image data may be an image obtained by photographing the surface of the crown of an object, which is a product to be inspected. For example, the image data may be static image data that is one frame, or dynamic image data (ie, moving image data) in which a plurality of frames are continuous.

이를 위해, 검사 장치(100)는 촬영 장치(예를 들어, 카메라)와 유선 또는 무선으로 연결될 수 있다. 예를 들어, 촬영 장치는 검사 장치(100)와 블루투스(bluetooth) 통신, BLE(Bluetooth Low Energy) 통신, 근거리 무선 통신(Near Field Communication unit), WLAN(와이파이) 통신, 지그비(Zigbee) 통신, 적외선(IrDA, infrared Data Association) 통신, WFD(Wi-Fi Direct) 통신, UWB(ultra wideband) 통신, Ant+ 통신 WIFI 통신 방법을 이용하여 통신할 수 있으나, 이에 제한되지 않는다.To this end, the examination apparatus 100 may be connected to a photographing apparatus (eg, a camera) by wire or wirelessly. For example, the imaging device is a test device 100 and Bluetooth (bluetooth) communication, BLE (Bluetooth Low Energy) communication, near field communication unit (Near Field Communication unit), WLAN (Wi-Fi) communication, Zigbee (Zigbee) communication, infrared (IrDA, infrared Data Association) communication, WFD (Wi-Fi Direct) communication, UWB (ultra wideband) communication, Ant+ communication WIFI communication method can be used to communicate, but is not limited thereto.

전처리부(120)는 입력부(110)를 통해 입력된 영상데이터를 검출을 위한 딥러닝 학습 모델에 입력하기 위해 전처리를 수행한다. 구체적으로, 전처리부(120)는 미리 설정된 규격으로 그 입력된 영상데이터의 해상도를 변경하고, 해상도가 변경된 영상데이터의 색상 채널을 변환한다. 이후, 채널이 변환된 영상데이터로부터 반사 성분의 상태를 나타내는 적어도 하나의 프레임을 추출하여 색상 성분을 반전시켜 원본 영상데이터에 반영한다. 여기서, 해상도는 영상데이터의 정밀도(선명도)를 나타내고, 반사 성분은 영상데이터에 적용된 빛을 의미한다.The pre-processing unit 120 performs pre-processing to input the image data input through the input unit 110 into the deep learning learning model for detection. Specifically, the preprocessor 120 changes the resolution of the input image data to a preset standard, and converts the color channel of the image data whose resolution is changed. Thereafter, at least one frame indicating the state of the reflection component is extracted from the channel-converted image data, and the color component is inverted and reflected in the original image data. Here, the resolution represents the precision (sharpness) of the image data, and the reflection component means the light applied to the image data.

검출부(130)는 앞서 전처리부(120)를 통해 전처리된 영상데이터를 딥러닝 학습 모델에 입력하여 대상체의 결함을 검출한다. 이때, 결함 검출을 위한 딥러닝 학습 모델은 객체 검출(Object Detection) 알고리즘을 기초로 구축될 수 있으며, 바람직하게는 실시간 객체 인식이 가능한 YOLO(You Only Look Once) 및 SSD(Single Shot Detector) 중 어느 하나를 포함할 수 있다.The detection unit 130 detects a defect in the object by inputting the image data pre-processed through the pre-processing unit 120 to the deep learning learning model. At this time, the deep learning learning model for defect detection may be built based on an object detection algorithm, preferably any of You Only Look Once (YOLO) and Single Shot Detector (SSD) capable of real-time object recognition. may contain one.

저장부(140)는 대상체의 결함 검출 여부에 따라 각 정보를 구분하여 저장하기 위해 복수개의 저장 공간을 형성할 수 있는데, 도 1에 도시된 바와 같이 제1 저장부(141) 및 제2 저장부(142)를 포함하여 구성될 수 있다. 여기서, 제1 저장부(141)는 결함이 검출되지 않은 대상체에 대한 정보가 저장되며, 예를 들어, 해당 대상체에 대한 원본 영상데이터, 전처리된 영상데이터, 품질 검사 공정 프로세스에 대한 정보 등을 포함할 수 있다. 또한, 제2 저장부(142)는 결함이 검출된 대상체에 대한 정보가 저장되며, 예를 들어, 해당 대상체에 대한 원본 데이터, 전처리된 영상데이터, 품질 검사 공정 프로세스에 대한 정보, 결함 정보 등을 포함할 수 있다. 이 제2 저장부(142)에 저장된 데이터들은 결함 검출을 위한 딥러닝 학습 모델을 학습하기 위해 사용될 수 있다.The storage unit 140 may form a plurality of storage spaces to classify and store each piece of information according to whether a defect is detected in the object. As shown in FIG. 1 , the first storage unit 141 and the second storage unit 142 may be included. Here, the first storage unit 141 stores information about an object in which a defect is not detected, and includes, for example, original image data of the object, pre-processed image data, and information on the quality inspection process. can do. In addition, the second storage unit 142 stores information on the object in which the defect is detected, for example, original data, pre-processed image data, information on the quality inspection process process, defect information, etc. of the object. may include Data stored in the second storage unit 142 may be used to learn a deep learning learning model for defect detection.

제어부(150)는 영상데이터가 입력되면 그 입력된 영상데이터를 전처리하고, 전처리된 영상데이터를 기반으로 딥러팅 학습 모델을 이용하여 대상체의 결함을 검출하며, 결함 검출 여부에 따라 해당 대상체에 대한 정보를 제1 저장부 또는 제2 저장부에 저장하도록 제어한다.When the image data is input, the controller 150 pre-processes the input image data, detects a defect in the object using a deep learning model based on the pre-processed image data, and information on the object according to whether the defect is detected. is controlled to be stored in the first storage unit or the second storage unit.

구체적으로, 제어부(150)는 결함이 검출된 경우에는 해당 대상체에 대한 정보를 제1 저장부로 저장하도록 하고, 결함이 검출되지 않은 경우에는 해당 대상체에 대한 정보를 제2 저장부로 저장하도록 한다. 후자의 경우에는 제어부(150)가 작업자에게 결함 검출을 알리기 위한 알림 신호를 생성하여 출력하도록 제어할 수도 있다. 이때, 알림 신호는 디스플레이 장치의 화면을 통해 작업자에게 시작적으로 제공되거나, 음성출력부를 통해 작업자에게 결함 검출을 안내할 수 있으나 이에 제한되지 않는다.Specifically, when a defect is detected, the controller 150 stores information on the corresponding object in the first storage unit, and stores information on the corresponding object in the second storage unit when no defect is detected. In the latter case, the control unit 150 may control to generate and output a notification signal for notifying the operator of defect detection. In this case, the notification signal may be visually provided to the operator through the screen of the display device, or may guide the operator to detect the defect through the voice output unit, but is not limited thereto.

도 2는 본 발명의 일 실시예에 따른 외관 표면 품질 검사 방법을 나타내는 순서도이다.2 is a flowchart illustrating a method for inspecting an exterior surface quality according to an embodiment of the present invention.

먼저, 적어도 하나 이상의 카메라를 이용하여 대상체를 촬영함으로써 대상체에 대한 영상데이터를 획득하면, 입력부(110)는 그 영상데이터를 입력받고(S201), 그 입력된 영상데이터를 딥러닝 학습 모델에 입력하기에 적합하도록 전처리부(120)가 입력된 영상데이터에 대한 전처리를 수행한다(S203). First, when image data for the object is obtained by photographing the object using at least one camera, the input unit 110 receives the image data (S201), and inputs the input image data to the deep learning learning model. The pre-processing unit 120 performs pre-processing on the input image data to be suitable for the above (S203).

이후, 검출부(130)가 전처리된 영상데이터를 기반으로 딥러닝 학습 모델을 이용하여 대상체의 결함을 검출한다(S205). Thereafter, the detection unit 130 detects a defect in the object using a deep learning learning model based on the preprocessed image data (S205).

그 검출 결과, 결함이 검출되지 않은 경우에 제어부(150)는 해당 대상체에 대한 정보를 제1 저장부(141)에 저장하고(S207), 결함이 검출된 경우에 제어부(150)는 해당 대상체에 대한 정보를 제2 저장부(142)에 저장한다(S209). 여기서, 해당 대상체에 대한 정보는 해당 대상체의 공정정보일 수 있으며, 다른 정보를 추가적으로 더 포함하도록 할 수도 있다.As a result of the detection, when a defect is not detected, the controller 150 stores information on the corresponding object in the first storage unit 141 ( S207 ), and when a defect is detected, the controller 150 stores the information on the object. information is stored in the second storage unit 142 (S209). Here, the information on the corresponding object may be process information of the corresponding object, and other information may be additionally included.

한편, S209 단계 이후, 제어부(150)는 결함 발생을 알리는 알림을 출력하여 기등록된 작업자의 단말로 전송할 수도 있다(S211). On the other hand, after step S209, the control unit 150 may output a notification indicating the occurrence of a defect and transmit it to a terminal of a previously registered operator (S211).

상술한 본 발명의 일 실시예에 따른 외관 표면 품질 검사 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The above-described exterior surface quality inspection method according to an embodiment of the present invention may be implemented as a program (or application) and stored in a medium to be executed in combination with a computer, which is hardware.

도 3은 본 발명의 일 실시예에 따라 영상데이터의 해상도를 변경하기 위해 적용될 수 있는 각 방법이 적용된 일 예를 나타내는 도면이다.3 is a diagram illustrating an example to which each method that can be applied to change the resolution of image data is applied according to an embodiment of the present invention.

앞서 설명한 바와 같이, 본 발명의 일 실시예에 따른 검사 장치(100)의 전처리부(120)가 전처리를 통해 영상데이터의 해상도 및 반사 성분에 대한 변경하는데, 이때, 전처리부(120)는 해상도를 변경하기 위해 다양한 보간법을 적용할 수 있다.As described above, the pre-processing unit 120 of the inspection apparatus 100 according to an embodiment of the present invention changes the resolution and reflection components of the image data through pre-processing. In this case, the pre-processing unit 120 adjusts the resolution. Various interpolation methods can be applied to change it.

구체적으로, 전처리부(120)는 입력된 영상데이터의 해상도를 변경하기 위해서 이웃 보간법(Nearest-neighbor interpolation), 쌍 선형 보간법(Bilinear interpolation), 비트 쌍 선형 보간법(Linear exact interpolation), 바이큐빅 보간법(Bicubic interpolation), 스플라인 보간법(Cubic Spline interpolation), 영역 보간법(Area interpolation) 및 Lanczos 보간법 등 다양한 알고리즘에 따라 수행될 수 있다. 여기서, 이웃 보간법은 가장 가까운 위치에 있는 픽셀의 값을 참조하는 방식이고, 쌍 선형 보간법은 네 개의 픽셀 값을 이용하여 실수 좌표 상의 픽셀 값을 계산하는 방식이다. 또한, 비트 쌍 선형 보간법은 끝점의 값이 주어졌을 때 그 사이에 위치한 값을 추정하기 위하여 직선 거리에 따라 선형적으로 계산하는 방식이고, 바이큐빅 보간법은 쌍 선형 보간법과 다르게 네 개의 가장 가까운 대각선 픽셀뿐만 아니라 가장 가까운 점도 취하여 총 16 픽셀을 이용하여 크기를 키우는 방식이며, Lanczos 보간법은 8X8에 해당하는 이웃 픽셀을 이용하여 보간하는 방식이다.Specifically, the preprocessor 120 is configured to change the resolution of the input image data by a neighbor interpolation method (Nearest-neighbor interpolation), a bilinear interpolation method (Bilinear interpolation), a bit bilinear interpolation method (Linear exact interpolation), a bicubic interpolation method ( Bicubic interpolation), spline interpolation (cubic spline interpolation), area interpolation (Area interpolation), and can be performed according to various algorithms such as Lanczos interpolation. Here, the neighbor interpolation method refers to the value of the closest pixel, and the bilinear interpolation method calculates a pixel value on real coordinates using four pixel values. In addition, the bit bilinear interpolation method is a method of linearly calculating according to the linear distance in order to estimate the value located between the end points when the values are given. In addition, it is a method of increasing the size using a total of 16 pixels by taking the nearest point, and the Lanczos interpolation method is a method of interpolating using neighboring pixels corresponding to 8X8.

예를 들어, 전처리부(120)는 입력된 영상데이터의 해상도가 미리 설정된 규격 보다 높으면, 영역 보간법을 기반으로 그 입력된 영상데이터의 해상도를 미리 설정된 규격에 따라 낯춘다. 한편, 전처리부(120)는 입력된 영상데이터의 해상도가 미리 설정된 규격 보다 낮으면, 쌍 선형 보간법을 기반으로 그 입력된 영상데이터의 해상도를 미리 설정된 해상도에 따라 높인다. 여기서, 미리 설정된 규격은 사용자, 관리자 등에 의해 변경될 수 있는 것으로, 필요에 따라 변경하여 설정 가능하다.For example, if the resolution of the input image data is higher than the preset standard, the preprocessor 120 adjusts the resolution of the input image data according to the preset standard based on the area interpolation method. Meanwhile, when the resolution of the input image data is lower than the preset standard, the preprocessor 120 increases the resolution of the input image data according to the preset resolution based on the bilinear interpolation method. Here, the preset standard may be changed by a user, an administrator, or the like, and may be changed and set as necessary.

도 3의 (a), (b), (c), (d), (e) 및 (f)는 각각 앞서 설명한 다양한 알고리즘들 중에 이웃 보간법, 쌍 선형 보간법, 비트 쌍 선형 보간법, 바이큐빅 보간법, 영역 보간법 및 Lanczos 보간법으로 전처리된 영상데이터를 나타낸 것이다.(a), (b), (c), (d), (e) and (f) of FIG. 3 each show a neighbor interpolation method, a bilinear interpolation method, a bit bilinear interpolation method, a bicubic interpolation method, among the various algorithms described above. The image data preprocessed by the area interpolation method and the Lanczos interpolation method are shown.

한편, 본 발명을 실시하는 과정에서 대상체를 촬영하기 위해 조명(light)이 사용될 수 있는데, 이 경우 대상체에 대한 조명의 영향으로 결함 검출 시에 에러가 발생할 수 있으므로, 보다 정밀하게 결함을 검출하기 위해 반사 성분을 제거, 즉, 빛을 제거하여 그 영향을 감소시킨다. On the other hand, in the process of carrying out the present invention, light may be used to photograph an object. In this case, an error may occur in detecting a defect due to the effect of lighting on the object, so in order to detect the defect more precisely, Removes the reflective component, i.e., removes the light to reduce its effect.

이를 위해, 본 발명의 실시예에 따른 검사 장치(100)는 LAB 색공간을 이용하여 영상데이터의 반사 성분을 변경을 수행할 수 있다. 다시 말해, 전처리부(120)는 입력된 영상데이터의 해상도를 변경한 후, 그 변경된 영상데이터의 채널을 RGB(Red, Green, Blue) 채널에서 LAB(Lightness, A, B) 채널로 변환한다.To this end, the inspection apparatus 100 according to an embodiment of the present invention may change the reflection component of the image data by using the LAB color space. In other words, after changing the resolution of the input image data, the preprocessor 120 converts the changed channel of the image data from the RGB (Red, Green, Blue) channel to the LAB (Lightness, A, B) channel.

도 4는 LAB 색공간을 나타내는 도면이고, 도 5는 본 발명의 일 실시예에 따라 LAB 색공간을 기반으로 반사 성분을 변경하는 일 예를 나타내는 도면이다.4 is a diagram illustrating a LAB color space, and FIG. 5 is a diagram illustrating an example of changing a reflection component based on the LAB color space according to an embodiment of the present invention.

도 4를 참조하면, Lab 색공간은 이미지의 밝기와 색상 정보를 이용하여 컬러를 표시하는 것으로, L값은 밝기(Lightness)를, a값은 빨간색-녹색(Red-Green)의 색상 정보를, b값은 파란색-노란색(Blue-Yellow)의 색상 정보를 나타낸다. 즉, 입력된 영상데이터의 L값을 조절하거나, 보다 상세하게는 빛의 영향을 줄인 이미지를 원본 영상데이터에 반영하여 반사 성분, 즉, 밝기가 조절된 영상데이터를 획득할 수 있다.Referring to FIG. 4 , the Lab color space displays colors by using the brightness and color information of an image. The b value represents color information of blue-yellow. That is, by adjusting the L value of the input image data or, in more detail, by reflecting the image with the reduced influence of light on the original image data, it is possible to obtain image data whose reflection component, ie, brightness, is adjusted.

한편, 도 5를 참조하면, (a)와 같이 원본 영상데이터를 입력받은 경우, 앞서 설명한 다양한 알고리즘 중 어느 하나를 이용하여 해상도를 변경하고, (b)와 같이 해상도가 변경된 영상데이터의 이미지 채널을 RGB(Red, Green, Blue) 채널에서 LAB(Lightness, A, B) 채널로 변환한다.Meanwhile, referring to FIG. 5 , when original image data is input as shown in (a), the resolution is changed using any one of the various algorithms described above, and the image channel of the image data whose resolution is changed as shown in (b) is selected. Converts from RGB (Red, Green, Blue) channels to LAB (Lightness, A, B) channels.

이후, (c)와 같이 반사 성분 내의 빛의 정보에 해당하는 L(Lightess) 채널에 특정 필터를 사용하여 앞서 채널이 변환된 영상데이터에 적용된 빛의 상태를 나타내는 적어도 하나의 프레임을 추출하여 반전시킨다. 다음으로, (d)와 같이 앞서 반전된 적어도 하나의 프레임을 원본 영상데이터에 반영함으로써 반사 성분이 제거(감소)된 영상데이터를 획득할 수 있다. 여기서, 특정 필터는 CLAHE(Contrast Limited Adaptive Histogram Equalization)와 같은 히스토그램 균일화 필터, 가우시안 필터 등이 사용될 수 있다.Then, as shown in (c), at least one frame indicating the state of light applied to the image data in which the channel has been previously converted is extracted and inverted by using a specific filter on the L (Lightess) channel corresponding to the light information in the reflection component. . Next, as shown in (d), image data from which the reflection component is removed (reduced) may be obtained by reflecting at least one previously inverted frame on the original image data. Here, as the specific filter, a histogram equalization filter such as Contrast Limited Adaptive Histogram Equalization (CLAHE), a Gaussian filter, or the like may be used.

이때, 원본 영상데이터에서 반전된 적어도 하나의 프레임에 대응하는 프레임을 검색하고, 그 검색된 프레임을 삭제한 후, 반전된 적어도 하나의 프레임을 대체함으로써 반영할 수 있다. 한편, 그 검색된 프레임에서 반사 성분의 위치를 파악하고, 반전된 적어도 하나의 프레임에서 검색된 프레임 내의 반사 성분에 해당하는 위치를 파악하고, 검색된 프레임 내의 반사 성분 위치에 반전된 적어도 하나의 프레임 내의 반사 성분에 해당하는 부분 영상데이터를 크롭하여 덮어 씌운다. 즉, 반영하는 방법에는 다양한 방법이 적용될 수 있으며, 이를 한정하지 않는다.In this case, the frame corresponding to the at least one inverted frame may be searched for in the original image data, the searched frame may be deleted, and then reflected by replacing the at least one inverted frame. On the other hand, the position of the reflection component in the searched frame is determined, the position corresponding to the reflection component in the searched frame is determined in the inverted at least one frame, and the reflection component in the at least one frame is inverted to the position of the reflection component in the searched frame. Crop and overwrite the partial image data corresponding to . That is, various methods may be applied to the reflection method, and the method is not limited thereto.

상기 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다. The program is a computer such as C, C++, JAVA, machine language, etc. that a processor (CPU) of the computer can read through the device interface of the computer in order for the computer to read the program and execute the methods implemented as a program It may include code (Code) coded in the language. Such code may include functional code related to functions defining functions necessary for executing the methods, etc. can do. In addition, the code may further include additional information necessary for the processor of the computer to execute the functions or code related to memory reference for which location (address address) in the internal or external memory of the computer should be referenced. have. In addition, when the processor of the computer needs to communicate with any other computer or server located remotely in order to execute the functions, the code uses the communication module of the computer to determine how to communicate with any other computer or server remotely. It may further include a communication-related code for whether to communicate and what information or media to transmit and receive during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium is not a medium that stores data for a short moment, such as a register, a cache, a memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. That is, the program may be stored in various recording media on various servers that the computer can access or in various recording media on the computer of the user. In addition, the medium may be distributed in a computer system connected by a network, and a computer readable code may be stored in a distributed manner.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모델로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모델은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in relation to an embodiment of the present invention may be implemented directly in hardware, as a software model executed by hardware, or by a combination thereof. Software models may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.As mentioned above, although embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can realize that the present invention can be embodied in other specific forms without changing its technical spirit or essential features. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

100 : 외관 표면 품질 검사 장치
110: 입력부 120: 전처리부
130: 검출부 140: 저장부
141: 제1 저장부 142: 제2 저장부
150: 제어부
100: Appearance surface quality inspection device
110: input unit 120: pre-processing unit
130: detection unit 140: storage unit
141: first storage 142: second storage
150: control unit

Claims (10)

외관 표면 품질 검사 장치에서 외관 표면의 품질을 검사하기 위한 방법에 있어서,
대상체의 영상데이터를 입력받는 단계;
상기 입력된 영상데이터를 전처리하는 단계;
상기 전처리된 영상데이터를 기반으로 딥러닝 학습 모델을 이용하여 대상체의 결함을 검출하는 단계; 및
결함이 검출되면 결함이 검출된 대상체의 공정정보를 제1 저장부에 저장하고, 결함이 검출되지 않으면 결함이 검출되지 않은 대상체의 공정정보를 제2 저장부에 저장하는 단계를 포함하며,
상기 전처리하는 단계는, 상기 입력된 영상데이터의 해상도 및 반사 성분의 변경을 통해 전처리하는 것임을 특징으로 하는,
외관 표면 품질 검사 방법.
A method for inspecting the quality of an exterior surface in an exterior surface quality inspection apparatus, the method comprising:
receiving image data of an object;
pre-processing the input image data;
detecting a defect in the object using a deep learning learning model based on the pre-processed image data; and
When a defect is detected, storing the process information of the object in which the defect is detected in the first storage unit, and if the defect is not detected, storing the process information of the object in which the defect is not detected in the second storage unit,
The pre-processing is characterized in that the pre-processing is performed by changing the resolution and reflection components of the input image data,
Appearance surface quality inspection method.
제1항에 있어서,
상기 전처리하는 단계는,
미리 설정된 규격으로 상기 입력된 영상데이터의 해상도를 변경하는 단계;
상기 변경된 영상데이터의 색상 채널을 변환하는 단계;
상기 변환된 영상데이터로부터 반사 성분의 상태를 나타내는 적어도 하나의 프레임을 추출하는 단계; 및
상기 추출된 적어도 하나의 프레임의 색상 성분을 반전시키는 단계; 및
상기 반전된 적어도 하나의 프레임을 원본 영상데이터에 반영하는 단계를 포함하는 것을 특징으로 하는,
인공지능 기반 외관 표면 품질 검사 방법.
According to claim 1,
The pre-processing step is
changing the resolution of the input image data to a preset standard;
converting a color channel of the changed image data;
extracting at least one frame indicating a state of a reflection component from the converted image data; and
inverting the color components of the extracted at least one frame; and
It characterized in that it comprises the step of reflecting the inverted at least one frame to the original image data,
AI-based exterior surface quality inspection method.
제2항에 있어서,
상기 입력된 영상데이터의 해상도는,
이웃 보간법, 쌍 선형 보간법, 비트 쌍 선형 보간법, 바이큐빅 보간법, 영역 보간법 및 Lanczos 보간법 중 어느 하나를 이용하여 변경하는 것을 특징으로 하는,
인공지능 기반 외관 표면 품질 검사 방법.
3. The method of claim 2,
The resolution of the input image data is,
Neighbor interpolation, bilinear interpolation, bit bilinear interpolation, bicubic interpolation, domain interpolation, characterized by changing using any one of Lanczos interpolation method,
AI-based exterior surface quality inspection method.
제3항에 있어서,
상기 조정하는 단계는,
상기 입력된 영상데이터의 해상도가 상기 미리 설정된 규격 보다 높으면, 상기 영역 보간법을 기반으로 상기 입력된 영상데이터의 해상도를 상기 미리 설정된 규격으로 낮추고,
상기 입력된 영상데이터의 해상도가 상기 미리 설정된 규격 보다 낮으면, 상기 쌍 선형 보간법을 기반으로 상기 입력된 영상데이터의 해상도를 상기 미리 설정된 규격으로 높이는 것임을 특징으로 하는,
인공지능 기반 외관 표면 품질 검사 방법.
4. The method of claim 3,
The adjusting step is
If the resolution of the input image data is higher than the preset standard, lowering the resolution of the input image data to the preset standard based on the area interpolation method;
When the resolution of the input image data is lower than the preset standard, it is characterized in that the resolution of the input image data is increased to the preset standard based on the bilinear interpolation method,
AI-based exterior surface quality inspection method.
제1항에 있어서,
상기 딥러닝 학습 모델은,
실시간 객체 인식이 가능한 YOLO(You Only Look Once) 및 SSD(Single Shot Detector) 중 어느 하나를 포함하는 것을 특징으로 하는,
인공지능 기반 외관 표면 품질 검사 방법.
According to claim 1,
The deep learning learning model is
Characterized in that it includes any one of YOLO (You Only Look Once) and SSD (Single Shot Detector) capable of real-time object recognition,
AI-based exterior surface quality inspection method.
제2항에 있어서,
상기 색상 채널을 변환하는 단계는, 상기 변경된 영상데이터의 이미지 채널을 RGB(Red, Green, Blue) 채널에서 LAB(Lightness, A, B) 채널로 변환하는 것이고,
상기 적어도 하나의 프레임을 추출하는 단계는, 상기 반사 성분 내의 빛의 정보에 해당하는 L(Lightness) 채널에 특정 필터를 사용하여 상기 변환된 영상데이터에 적용된 빛의 상태를 나타내는 적어도 하나의 프레임을 추출하는 것임을 특징으로 하는,
인공지능 기반 외관 표면 품질 검사 방법.
3. The method of claim 2,
The step of converting the color channel is converting the image channel of the changed image data from an RGB (Red, Green, Blue) channel to a LAB (Lightness, A, B) channel,
The extracting of the at least one frame may include extracting at least one frame indicating the state of light applied to the converted image data by using a specific filter in the L (Lightness) channel corresponding to the light information in the reflection component. characterized in that
AI-based exterior surface quality inspection method.
대상체의 영상데이터를 입력받는 입력부;
상기 입력된 영상데이터를 전처리하는 전처리부;
상기 전처리된 영상데이터를 기반으로 딥러닝 학습 모델을 이용하여 대상체의 결함을 검출하는 검출부;
결함이 검출된 대상체의 공정정보를 저장하기 위한 제1 저장부와 결함이 검출되지 않은 대상체의 공정정보를 저장하기 위한 제2 저장부를 포함하는 저장부; 및
영상데이터가 입력되면 상기 입력된 영상데이터를 전처리하고, 상기 전처리된 영상데이터를 기반으로 딥러팅 학습 모델을 이용하여 대상체의 결함을 검출하며, 결함 검출 여부에 따라 해당 공정정보를 제1 저장부 또는 제2 저장부에 저장하도록 제어하는 제어부를 포함하며,
상기 전처리부는 상기 입력된 영상데이터의 해상도 및 반사 성분의 변경을 통해 전처리하는 것을 특징으로 하는,
인공지능 기반 외관 표면 품질 검사 장치.
an input unit for receiving image data of an object;
a pre-processing unit for pre-processing the input image data;
a detection unit for detecting a defect in the object using a deep learning learning model based on the pre-processed image data;
a storage unit including a first storage unit for storing process information of an object in which a defect is detected and a second storage unit for storing process information of an object in which a defect is not detected; and
When image data is input, the input image data is pre-processed, a defect of the object is detected using a deep learning model based on the pre-processed image data, and the corresponding process information is stored in the first storage unit or depending on whether the defect is detected or not. It includes a control unit for controlling to be stored in the second storage unit,
The pre-processing unit is characterized in that the pre-processing by changing the resolution and reflection component of the input image data,
Artificial intelligence-based exterior surface quality inspection device.
제7항에 있어서,
상기 전처리부는,
미리 설정된 규격으로 상기 입력된 영상데이터의 해상도를 변경하고, 상기 변경된 영상데이터의 색상 채널을 변환하고, 상기 변환된 영상데이터로부터 반사 성분의 상태를 나타내는 적어도 하나의 프레임을 추출하여 색상 성분을 반전시켜 원본 영상데이터에 반영하는 것을 특징으로 하는,
인공지능 기반 외관 표면 품질 검사 장치.
8. The method of claim 7,
The preprocessor is
By changing the resolution of the input image data to a preset standard, converting the color channel of the changed image data, extracting at least one frame indicating the state of the reflection component from the converted image data, and inverting the color component characterized in that it is reflected in the original image data,
Artificial intelligence-based exterior surface quality inspection device.
제10항에 있어서,
상기 입력된 영상데이터의 해상도는, 이웃 보간법, 쌍 선형 보간법, 비트 쌍 선형 보간법, 바이큐빅 보간법, 영역 보간법 및 Lanczos 보간법 중 어느 하나를 이용하여 변경하며,
상기 전처리부는, 상기 입력된 영상데이터의 해상도가 상기 미리 설정된 규격 보다 높으면, 상기 영역 보간법을 기반으로 상기 입력된 영상데이터의 해상도를 상기 미리 설정된 규격으로 낯추고, 상기 입력된 영상데이터의 해상도가 상기 미리 설정된 규격 보다 낮으면, 상기 쌍 선형 보간법을 기반으로 상기 입력된 영상데이터의 해상도를 상기 미리 설정된 해상도로 높이며,
상기 딥러닝 학습 모델은, 실시간 객체 인식이 가능한 YOLO(You Only Look Once) 및 SSD(Single Shot Detector) 중 어느 하나를 포함하는 것임을 특징으로 하는,
인공지능 기반 외관 표면 품질 검사 장치.
11. The method of claim 10,
The resolution of the input image data is changed using any one of neighbor interpolation, bilinear interpolation, bit bilinear interpolation, bicubic interpolation, region interpolation, and Lanczos interpolation,
If the resolution of the input image data is higher than the preset standard, the pre-processing unit adjusts the resolution of the input image data to the preset standard based on the area interpolation method, and the resolution of the input image data is higher than the preset standard. If it is lower than the preset standard, increasing the resolution of the input image data to the preset resolution based on the bilinear interpolation method,
The deep learning learning model, characterized in that it includes any one of YOLO (You Only Look Once) and SSD (Single Shot Detector) capable of real-time object recognition,
Artificial intelligence-based exterior surface quality inspection device.
제10항에 있어서,
상기 전처리부는,
상기 색상 채널을 변환할 시, 상기 변경된 영상데이터의 이미지 채널을 RGB(Red, Green, Blue) 채널에서 LAB(Lightness, A, B) 채널로 변환하고,
상기 적어도 하나의 프레임을 추출할 시, 상기 반사 성분 내의 빛의 정보에 해당하는 L(Lightness) 채널에 특정 필터를 사용하여 상기 변환된 영상데이터에 적용된 빛의 상태를 나타내는 적어도 하나의 프레임을 추출하는 것임을 특징으로 하는,
인공지능 기반 외관 표면 품질 검사 장치.
11. The method of claim 10,
The preprocessor is
When converting the color channel, the image channel of the changed image data is converted from an RGB (Red, Green, Blue) channel to a LAB (Lightness, A, B) channel,
When extracting the at least one frame, extracting at least one frame indicating the state of light applied to the converted image data by using a specific filter on the L (Lightness) channel corresponding to the information of light in the reflection component characterized in that
Artificial intelligence-based exterior surface quality inspection device.
KR1020210049874A 2020-04-16 2021-04-16 Apparatus and method for inspecting surface quality of appearance based on artificial intelligence KR102436786B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200046186 2020-04-16
KR20200046186 2020-04-16

Publications (2)

Publication Number Publication Date
KR20210128357A true KR20210128357A (en) 2021-10-26
KR102436786B1 KR102436786B1 (en) 2022-08-26

Family

ID=78268678

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210049874A KR102436786B1 (en) 2020-04-16 2021-04-16 Apparatus and method for inspecting surface quality of appearance based on artificial intelligence

Country Status (1)

Country Link
KR (1) KR102436786B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240044587A (en) 2022-09-28 2024-04-05 주식회사 러닝비전 Apparatus for generating 3d similar defect image and apparatus for defect inspection comprising the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110040965A (en) 2008-09-09 2011-04-20 가부시키가이샤 메가 트레이드 Visual examination apparatus
KR20180061528A (en) * 2016-11-29 2018-06-08 충북대학교 산학협력단 System and method for detecting foreign substance using lab color space
KR20180090382A (en) * 2016-01-01 2018-08-10 케이엘에이-텐코 코포레이션 System and method for defect detection using image reconstruction
JP2019027826A (en) * 2017-07-26 2019-02-21 横浜ゴム株式会社 Defect inspection method and defect inspection device
KR20200004825A (en) * 2018-07-02 2020-01-14 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 Display device quality checking methods, devices, electronic devices and storage media

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110040965A (en) 2008-09-09 2011-04-20 가부시키가이샤 메가 트레이드 Visual examination apparatus
KR20180090382A (en) * 2016-01-01 2018-08-10 케이엘에이-텐코 코포레이션 System and method for defect detection using image reconstruction
KR20180061528A (en) * 2016-11-29 2018-06-08 충북대학교 산학협력단 System and method for detecting foreign substance using lab color space
JP2019027826A (en) * 2017-07-26 2019-02-21 横浜ゴム株式会社 Defect inspection method and defect inspection device
KR20200004825A (en) * 2018-07-02 2020-01-14 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 Display device quality checking methods, devices, electronic devices and storage media

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240044587A (en) 2022-09-28 2024-04-05 주식회사 러닝비전 Apparatus for generating 3d similar defect image and apparatus for defect inspection comprising the same

Also Published As

Publication number Publication date
KR102436786B1 (en) 2022-08-26

Similar Documents

Publication Publication Date Title
WO2021000524A1 (en) Hole protection cap detection method and apparatus, computer device and storage medium
KR102166458B1 (en) Defect inspection method and apparatus using image segmentation based on artificial neural network
KR20230124713A (en) Fault detection methods, devices and systems
US20220309764A1 (en) Method and device for small sample defect classification and computing equipment
CN112347887B (en) Object detection method, object detection device and electronic equipment
CN110596120A (en) Glass boundary defect detection method, device, terminal and storage medium
CN112132196B (en) Cigarette case defect identification method combining deep learning and image processing
CN106355597B (en) Steel plate dog-ear automatic measurement machine people's image processing method based on monocular vision
KR20090090333A (en) Focus assist system and method
JPWO2018034057A1 (en) Defect inspection apparatus, defect inspection method, and program
CN112697814B (en) Cable surface defect detection system and method based on machine vision
CN110223350A (en) A kind of building blocks automatic sorting method and system based on binocular vision
KR102436786B1 (en) Apparatus and method for inspecting surface quality of appearance based on artificial intelligence
JP2020128877A (en) Linear object abnormality detection device and abnormality detection method
CN115619787B (en) UV glue defect detection method, system, equipment and medium
CN113379723A (en) Irregular glue overflow port detection method, device, equipment and storage medium
CN116071315A (en) Product visual defect detection method and system based on machine vision
KR102366396B1 (en) RGB-D Data and Deep Learning Based 3D Instance Segmentation Method and System
CN116402784A (en) Auxiliary centering method, system, equipment and storage medium based on machine vision
TW201445458A (en) Testing device and method for camera
KR20220024315A (en) Apparatus and method for inspecting concentricity and appearance using deep learning
JP7036477B1 (en) Defect detection method, defect detection system, and defect detection program
CN113008470B (en) Gas leakage detection device and gas leakage detection method
JP7397100B2 (en) Work image analysis device, work image analysis method, and program
CN115035071A (en) Visual detection method for black spot defect of PAD light guide plate

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant