KR20220163694A - System and method for quality management of parts based on distribution of combined values based on deep learning - Google Patents

System and method for quality management of parts based on distribution of combined values based on deep learning Download PDF

Info

Publication number
KR20220163694A
KR20220163694A KR1020210072156A KR20210072156A KR20220163694A KR 20220163694 A KR20220163694 A KR 20220163694A KR 1020210072156 A KR1020210072156 A KR 1020210072156A KR 20210072156 A KR20210072156 A KR 20210072156A KR 20220163694 A KR20220163694 A KR 20220163694A
Authority
KR
South Korea
Prior art keywords
image
difference image
deep learning
parts
difference
Prior art date
Application number
KR1020210072156A
Other languages
Korean (ko)
Other versions
KR102592502B1 (en
Inventor
장성욱
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020210072156A priority Critical patent/KR102592502B1/en
Priority to PCT/KR2021/016237 priority patent/WO2022255566A1/en
Publication of KR20220163694A publication Critical patent/KR20220163694A/en
Application granted granted Critical
Publication of KR102592502B1 publication Critical patent/KR102592502B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41875Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by quality surveillance of production
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0224Process history based detection method, e.g. whereby history implies the availability of large amounts of data
    • G05B23/024Quantitative history assessment, e.g. mathematical relationships between available data; Functions therefor; Principal component analysis [PCA]; Partial least square [PLS]; Statistical classifiers, e.g. Bayesian networks, linear regression or correlation analysis; Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • G01N2021/8893Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques providing a video image and a processed signal for helping visual decision

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Biomedical Technology (AREA)
  • Biochemistry (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Manufacturing & Machinery (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

A system and method for managing quality of components based on defect value distribution based on deep learning are disclosed. In the present invention, the system for managing quality of components based on defect value distribution based on deep learning comprises: a camera which takes images of pre-selected good products and pre-selected defective products among the components; and a computing device which receives a first image of the good product and a second image of the defective product from the camera, generates a first difference image based on the first image and the second image, receives a masking input for the first difference image according to a field worker's subjective quality discrimination criterion, and generates a second difference image by masking the first difference image based on the masking input, wherein the computing device performs deep learning of a deep neural network by defining the first image and the second image as input values to the deep neural network and defining the second difference image as an output value to the deep neural network, calculates a size of a remaining image element of the second difference image as a defect value, calculates an inspection reference value through distribution of the defect values, and classifies the components into good products and defective products based on the inspection reference value to manage quality.

Description

딥러닝 기반의 결함값 분포에 기초한 부품의 품질 관리 시스템 및 방법{SYSTEM AND METHOD FOR QUALITY MANAGEMENT OF PARTS BASED ON DISTRIBUTION OF COMBINED VALUES BASED ON DEEP LEARNING}System and method for quality management of parts based on deep learning based defect value distribution {SYSTEM AND METHOD FOR QUALITY MANAGEMENT OF PARTS BASED ON DISTRIBUTION OF COMBINED VALUES BASED ON DEEP LEARNING}

본 발명은 딥러닝 기반의 결함값 분포에 기초한 부품의 품질관리 방법 및 시스템에 관한 것이다. 보다 상세하게는, 심층 신경망을 통하여 입력 이미지와 출력 이미지의 상관 관계를 학습시키고, 학습된 신경망을 활용하여 부품의 품질을 관리할 수 있는 시스템 및 방법에 대한 것이다.The present invention relates to a method and system for quality control of parts based on deep learning-based defect value distribution. More specifically, it relates to a system and method capable of learning a correlation between an input image and an output image through a deep neural network and managing the quality of a part by utilizing the learned neural network.

일반적으로, 기계 장치를 구성하는 부품들은 그 형상, 색상, 재료, 소재, 강도 등을 기초로 품질 등급이 나뉘어질 수 있다. 이를 통하여 부품이 출하되는 경우 품질 상태 또는 등급에 따라 가격에 차이가 발생할 수 있으며, 이를 위하여 부품의 출하 전에 다양한 검사를 통하여, 해당 부품이 양품인지 불량품인지를 분류한다. In general, parts constituting a mechanical device may be classified into quality grades based on their shape, color, material, material, strength, and the like. Through this, when a part is shipped, a difference in price may occur depending on the quality state or grade. To this end, various inspections are conducted before shipment of the part to classify whether the part is a good product or a defective product.

종래 기술인 KR100907058B1를 살펴보면, 아크용접의 품질을 판단하기 위하여 별도의 전류 등을 추출하고, 이를 통하여 아크 용접의 품질을 판단하는 기술들이 공개되어 있다. Looking at KR100907058B1, which is a prior art, techniques for extracting a separate current and the like to determine the quality of arc welding and determining the quality of arc welding through this are disclosed.

이처럼, 종래 기술은 별도의 센서 등을 추가로 구비하여야만 타겟의 품질을 판단할 수 있는 문제점을 가지고 있었다. 최근, 딥러닝 기술 및 비전 인식 알고리즘의 비약적인 발달로, 별도의 센서 없이 카메라만으로 부품의 품질을 측정하고, 이를 통하여 품질을 관리할 수 있는 시스템 및 방법의 필요성이 제기되고 있다. As such, the prior art has a problem in that the quality of the target can be determined only when a separate sensor or the like is additionally provided. Recently, with the rapid development of deep learning technology and vision recognition algorithms, the need for a system and method capable of measuring the quality of parts only with a camera without a separate sensor and managing the quality through this has been raised.

KR100907058B1 (발명의 명칭: 아크용접 품질판단 장치 및 방법)KR100907058B1 (Title of invention: Apparatus and method for judging arc welding quality)

본 발명의 목적은 비전 인식 알고리즘을 이용하여 부품 이미지 만으로 품질을 측정하고 이를 통하여 부품의 품질을 관리할 수 있는 시스템 및 방법을 제공하는 것이다.An object of the present invention is to provide a system and method capable of managing quality of parts by measuring quality only with part images using a vision recognition algorithm.

또한, 본 발명의 목적은 최적화된 응용 필터를 도입하여 비전 인식시 차이 이미지를 보다 정확하게 생성하고, 오염물질 및 염분에 강한 내오염성 렌즈를 포함하는 카메라를 통하여 이미지를 생성함으로써, 어떠한 환경에서도 선명한 이미지를 생성하여, 보다 정확한 비전 인식 알고리즘을 수행하도록 하는 딥러닝 기반의 결함값 분포에 기초한 부품의 품질 관리 시스템 및 방법을 제공하는 것이다. In addition, an object of the present invention is to introduce an optimized application filter to more accurately generate a difference image during vision recognition, and to generate an image through a camera including a stain-resistant lens that is resistant to contaminants and salt, thereby creating a clear image in any environment. It is to provide a system and method for quality control of parts based on a deep learning-based defect value distribution that generates and performs a more accurate vision recognition algorithm.

상술한 문제점들을 해결하기 위하여, 본 발명은 딥러닝 기반의 결함값 분포에 기초한 부품의 품질 관리 시스템에 있어서, 상기 부품 중 미리 선별된 양품 및 미리 선별된 불량품을 각각 촬영하는 카메라 및 상기 양품을 촬영한 제1 이미지 및 상기 불량품을 촬영한 제2 이미지를 상기 카메라로부터 수신하고, 상기 제1 이미지 및 상기 제2 이미지를 기초로 제1 차이 이미지를 생성하고, 현장 작업자의 주관적인 양품 판별 기준에 따라 상기 제1 차이 이미지에 대한 마스킹 입력을 수신하며, 상기 마스킹 입력을 기초로 상기 제1 차이 이미지를 마스크 처리하여 제2 차이 이미지를 생성하는 컴퓨팅 장치를 포함하되, 상기 컴퓨팅 장치는 상기 제1 이미지 및 상기 제2 이미지를 심층 신경망에 입력값으로 정의하고, 상기 제2 차이 이미지를 상기 심층 신경망의 출력값으로 정의하여 상기 심층 신경망을 딥러닝 학습시키고, 상기 제2 차이 이미지의 잔존 이미지 요소의 크기를 결함값으로 산출하고 상기 결함값의 분포를 통해 검사 기준값을 산출하며, 상기 검사 기준값을 기초로 상기 부품을 양품과 불량품으로 분류함으로써 품질을 관리할 수 있다. In order to solve the above-mentioned problems, the present invention is a quality control system for parts based on a deep learning-based defect value distribution, a camera for photographing pre-selected good products and pre-selected defective products among the parts, and photographing the good products. A first image and a second image of the defective product are received from the camera, a first difference image is generated based on the first image and the second image, and the quality of the defective product is determined according to subjective criteria of a field worker. A computing device that receives a masking input for a first difference image and generates a second difference image by masking the first difference image based on the masking input, wherein the computing device includes the first image and the first difference image. A second image is defined as an input value to the deep neural network, the second difference image is defined as an output value of the deep neural network, the deep neural network is deep learning trained, and the size of the remaining image elements of the second difference image is a defect value. , and an inspection reference value is calculated through the distribution of the defect values, and quality can be managed by classifying the parts into good products and defective products based on the inspection reference values.

또한, 상기 컴퓨팅 장치는, 상기 제1 차이 이미지를 확대한 제1 확대 이미지를 생성하고, 현장 작업자의 주관적인 양품 판별 기준에 따라 상기 제1 확대 이미지에 대한 마스킹 입력을 수신할 수 있다. In addition, the computing device may generate a first enlarged image obtained by enlarging the first difference image, and may receive a masking input for the first enlarged image according to a field worker's subjective criterion for determining a good product.

또한, 상기 컴퓨팅 장치는, 현장 작업자로부터 관심 영역을 수신하고, 상기 관심 영역을 중심으로 상기 제1 확대 이미지를 생성할 수 있다. Also, the computing device may receive a region of interest from a field worker and generate the first enlarged image around the region of interest.

또한, 카메라는, 상기 제1 이미지를 획득하는 카메라 모듈을 포함하고, 상기 카메라 모듈은, 측벽에 관통홀을 포함하는 하우징 및 상기 관통홀에 설치된 렌즈를 포함할 수 있다. The camera may include a camera module that acquires the first image, and the camera module may include a housing including a through hole on a side wall and a lens installed in the through hole.

또한, 컴퓨팅 장치는 상기 제1 이미지 및 상기 제2 이미지 중 적어도 하나의 이미지에 이미지 보정 필터를 적용하여 적어도 하나의 보정된 이미지를 생성하고, 상기 적어도 하나의 보정된 이미지를 기초로 상기 제1 차이 이미지를 생성할 수 있다. The computing device generates at least one corrected image by applying an image correction filter to at least one of the first image and the second image, and the first difference based on the at least one corrected image. image can be created.

또한, 상술한 문제점들을 해결하기 위하여, 본 발명은 딥러닝 기반의 결함값 분포에 기초한 부품의 품질 관리 방법에 있어서, 상기 부품 중 미리 선별된 양품을 촬영한 제1 이미지 및 상기 부품 중 미리 선별된 불량품을 촬영한 제2 이미지를 수신하는 단계, 상기 제1 이미지 및 상기 제2 이미지를 기초로 제1 차이 이미지를 생성하는 단계, 상기 제1 차이 이미지 중 관심 영역에 대한 사용자 입력을 수신하는 단계, 상기 제1 차이 이미지에서 상기 관심 영역을 확대한 제1 확대 이미지를 생성하는 단계, 작업자로부터 현장 작업자의 주관적인 양품 판별 기준에 따라 상기 제1 확대 이미지를 구성하는 이미지 요소들 중 불량으로 판단되는 이미지 요소를 선택받아 작업자의 마스킹 입력을 수신하는 단계, 상기 마스킹 입력에 의해 선택된 이미지 요소를 제외한 나머지 이미지 요소를 상기 제1 확대 이미지에서 마스크 처리하여 현장 작업자가 불량 판별에서 중요하게 생각하는 요소만을 남긴 마스크 처리된 제2 차이 이미지를 생성하는 단계, 상기 제1 이미지와 상기 제2 이미지를 입력으로 하고 상기 제2 차이 이미지를 출력하도록 하여 제2 심층 신경망이 입출력 데이터간 상관관계를 딥러닝 학습시키는 단계, 상기 제2 차이 이미지의 잔존 이미지 요소의 크기를 결함값으로 산출하고 상기 제2 차이 이미지의 결함값 분포를 통해 검사 기준값을 산출하는 단계 및 상기 검사 기준값을 기초로 검사 대상 부품을 분류하는 단계를 포함할 수 있다. In addition, in order to solve the above-mentioned problems, the present invention is a quality control method of parts based on a deep learning-based defect value distribution, in which a first image of a pre-selected non-defective product among the parts and a pre-selected among the parts Receiving a second image of a defective product; Generating a first difference image based on the first image and the second image; Receiving a user input for a region of interest among the first difference images; Generating a first enlarged image by enlarging the region of interest in the first difference image, image elements that are determined to be defective among image elements constituting the first enlarged image according to subjective criteria for determining good quality by field workers. Receiving a masking input from a worker by selecting a mask, processing remaining image elements other than the image element selected by the masking input in the first enlarged image, leaving only elements that the field worker considers important in determining defects. generating a second difference image, deep learning a correlation between input and output data by a second deep neural network by taking the first image and the second image as inputs and outputting the second difference image; Calculating the size of the remaining image elements of the second difference image as a defect value and calculating an inspection reference value through the defect value distribution of the second difference image, and classifying the inspection target part based on the inspection reference value. can

또한, 상술한 문제점들을 해결하기 위하여, 본 발명은 명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서, 상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 상술한 방법을 수행하게 하는, 비일시적 컴퓨터 판독가능 매체일 수 있다. In addition, in order to solve the above-mentioned problems, the present invention is a non-transitory computer-readable medium storing instructions, which, when executed by a processor, cause the processor to perform the above-described method, a non-transitory computer-readable medium It can be a possible medium.

본 발명은 딥러닝 기반 결함값의 분포를 인식하고 이를 통하여 별도의 센서를 구비하지 않고서 카메라만으로도 부품의 품질을 측정하고 이를 통하여 부품의 품질을 관리할 수 있는 효과를 가진다. The present invention has an effect of recognizing the distribution of deep learning-based defect values, measuring the quality of parts only with a camera without having a separate sensor through this, and managing the quality of parts through this.

또한, 본 발명은 품질을 관리함과 동시에 부품의 치수를 측정함으로써 부품을 관리하는데 도움을 줄 수 있는 효과를 가진다. In addition, the present invention has an effect of helping to manage parts by measuring the dimensions of parts while managing quality.

또한, 본 발명은 최적화된 응용 필터를 도입하여 비전 인식시 차이 이미지를 보다 정확하게 생성하고, 오염물질 및 염분에 강한 내오염성 렌즈를 포함하는 카메라를 통하여 이미지를 생성함으로써, 어떠한 환경에서도 선명한 이미지를 생성하여, 보다 정확한 비전 인식 알고리즘을 수행할 수 있는 효과를 가진다. In addition, the present invention creates a clear image in any environment by introducing an optimized application filter to more accurately create a difference image during vision recognition and to create an image through a camera including a stain-resistant lens that is resistant to contaminants and salt. Thus, a more accurate vision recognition algorithm can be performed.

본 발명에 따라 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable according to the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 발명에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질관리 시스템을 나타낸 것이다.
도 2는 본 발명에 따른 컴퓨팅 장치를 나타낸 도면이다.
도 3은 본 발명에 따른 메모리를 기능적 요소로 나타낸 것이다.
도 4 내지 도 6은 본 발명에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질관리 시스템의 실시예를 나타낸 것이다.
도 7은 본 발명에 따른 검사 기준값을 나타낸 그래프이다.
도 8은 본 발명에 따른 카메라에 포함된 카메라 모듈을 나타낸 도면이다.
도 9는 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이다.
도 10은 본 발명에 따른 HSV 3차원 그래프를 나타낸 도면이다.
도 11은 하나의 색상의 HSV값을 나타낸 예시를 나타낸 도면이다.
도 12는 본 발명에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질 관리 방법을 나타낸 것이다.
도 13은 본 발명에 따른 S140 및 S150 단계를 나타낸 것이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.
1 shows a part quality control system based on deep learning-based defect value distribution according to the present invention.
2 is a diagram illustrating a computing device according to the present invention.
3 shows a memory according to the present invention as a functional element.
4 to 6 show an embodiment of a part quality control system based on deep learning-based defect value distribution according to the present invention.
7 is a graph showing inspection reference values according to the present invention.
8 is a view showing a camera module included in a camera according to the present invention.
9 is a diagram showing an example of an image correction filter according to the present invention.
10 is a diagram showing a three-dimensional HSV graph according to the present invention.
11 is a diagram illustrating an example of an HSV value of one color.
12 shows a method for quality control of parts based on deep learning-based defect value distribution according to the present invention.
13 shows steps S140 and S150 according to the present invention.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the present specification, provide examples of the present specification and describe technical features of the present specification together with the detailed description.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same or similar elements are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted.

또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 일 실시예에 따른, 딥러닝 기반의 결함값 분포에 기초한 부품의 품질관리 시스템에 관하여 상세히 설명하면 다음과 같다.Hereinafter, based on the above description, a detailed description of a part quality control system based on a deep learning-based defect value distribution according to a preferred embodiment of the present specification is as follows.

도 1은 본 발명에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질관리 시스템을 나타낸 것이다. 1 shows a part quality control system based on deep learning-based defect value distribution according to the present invention.

도 1에 따르면, 본 발명에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질관리 시스템은 카메라(100) 및 컴퓨팅 장치(200)를 포함할 수 있다. 본 발명에 따른 카메라(100)는 부품 중 미리 선별된 양품 및 미리 선별된 불량품을 각각 촬영할 수 있다. 촬영을 통하여, 카메라(100)는 양품을 촬영한 제1 이미지를 생성하고, 불량품을 촬영한 제2 이미지를 생성할 수 있다. According to FIG. 1 , a system for quality control of parts based on deep learning based defect value distribution according to the present invention may include a camera 100 and a computing device 200 . The camera 100 according to the present invention can take pictures of pre-selected good products and pre-selected defective products among parts. Through photography, the camera 100 may generate a first image of a good product and a second image of a defective product.

본 발명에 따른 컴퓨팅 장치(200)는 제1 이미지 및 제2 이미지를 카메라(100)로부터 수신하고, 제1 이미지 및 제2 이미지를 기초로 제1 차이 이미지를 생성할 수 있다. The computing device 200 according to the present invention may receive the first image and the second image from the camera 100 and generate a first difference image based on the first image and the second image.

제1 차이 이미지를 생성하기 위하여, 컴퓨팅 장치(200)는 제1 이미지 및 제2 이미지 중 적어도 하나의 이미지에 이미지 보정 필터를 적용하여 적어도 하나의 보정된 이미지를 생성하고, 생성된 적어도 하나의 보정된 이미지를 기초로 제1 차이 이미지를 생성할 수 있다. 부품의 이미지별 공통점과 차이점을 추출해야 하므로, 이미지 보정 필터를 통하여 보다 비전 인식의 효율성을 높일 수 있다. 이에 대한 구체적인 설명은 후술한다. To generate the first difference image, the computing device 200 generates at least one corrected image by applying an image correction filter to at least one of the first image and the second image, and generates the at least one corrected image. A first difference image may be generated based on the image. Since it is necessary to extract commonalities and differences for each image of parts, the efficiency of vision recognition can be increased through an image correction filter. A detailed description of this will be given later.

또한, 컴퓨팅 장치(200)는, 현장 작업자의 주관적인 양품 판별 기준에 따라 제1 차이 이미지에 대한 마스킹 입력을 수신하며, 마스킹 입력을 기초로 제1 차이 이미지를 마스크 처리하여 제2 차이 이미지를 생성할 수 있다. In addition, the computing device 200 receives a masking input for the first difference image according to the field worker's subjective criterion for determining a good product, and generates a second difference image by masking the first difference image based on the masking input. can

또한, 컴퓨팅 장치(200)는 사용자 입력부(300)와 연결되고, 사용자 입력부(300)는 사용자 또는 현장 작업자로부터 마스킹 및/또는 관심 영역에 대한 정보를 수신할 수 있다. 컴퓨팅 장치(200)는 마스킹 및/또는 관심 영역에 대한 정보를 사용자 입력부(300)를 통하여 수신할 수 있다. In addition, the computing device 200 may be connected to the user input unit 300, and the user input unit 300 may receive masking and/or information about a region of interest from a user or a field worker. The computing device 200 may receive masking and/or information about a region of interest through the user input unit 300 .

또한, 컴퓨팅 장치(200)는 제1 이미지 및 제2 이미지를 심층 신경망에 입력값으로 정의하고, 제2 차이 이미지를 심층 신경망의 출력값으로 정의하여 심층 신경망을 딥러닝 학습시키고, 제2 차이 이미지의 잔존 이미지 요소의 크기를 결함값으로 산출하고 결함값의 분포를 통해 검사 기준값을 산출하며, 검사 기준값을 기초로 부품을 양품과 불량품으로 분류함으로써 품질을 관리할 수 있다. In addition, the computing device 200 defines the first image and the second image as input values to the deep neural network, defines the second difference image as an output value of the deep neural network, performs deep learning training on the deep neural network, and defines the second difference image as an output value of the deep neural network. Quality can be managed by calculating the size of the remaining image elements as a defect value, calculating an inspection reference value through the distribution of the defect values, and classifying parts into good and defective products based on the inspection reference value.

또한, 컴퓨팅 장치(200)는 제1 차이 이미지를 확대한 제1 확대 이미지를 생성하고, 현장 작업자의 주관적인 양품 판별 기준에 따라 제1 확대 이미지에 대한 마스킹 입력을 수신할 수 있다. 이때, 컴퓨팅 장치(200)는 현장 작업자로부터 관심 영역을 수신하고, 관심 영역을 중심으로 제1 확대 이미지를 생성할 수 있다. In addition, the computing device 200 may generate a first enlarged image obtained by enlarging the first difference image, and may receive a masking input for the first enlarged image according to a field worker's subjective criterion for determining a good product. In this case, the computing device 200 may receive a region of interest from a field worker and generate a first enlarged image around the region of interest.

또한, 컴퓨팅 장치(200)는 후술할 본 발명의 바람직한 또 다른 일 실시예에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질 관리 방법을 수행하는 주체일 수 있다. In addition, the computing device 200 may be a subject that performs a quality control method of a part based on a deep learning-based defect value distribution according to another preferred embodiment of the present invention, which will be described later.

도 2는 본 발명에 따른 컴퓨팅 장치를 나타낸 도면이다. 2 is a diagram illustrating a computing device according to the present invention.

도 2에 따르면, 본 발명에 따른 컴퓨팅 장치(200)는 프로세서(210), 메모리(220) 및 통신 모듈(230)를 포함할 수 있다. According to FIG. 2 , a computing device 200 according to the present invention may include a processor 210 , a memory 220 and a communication module 230 .

프로세서(210)는 메모리(220)에 저장된 명령어를 실행하여 다른 구성들을 제어할 수 있다. 프로세서(210)는 메모리(220)에 저장된 명령어를 수행할 수 있다. The processor 210 may execute commands stored in the memory 220 to control other components. The processor 210 may execute instructions stored in the memory 220 .

프로세서(210)는, 연산을 수행하고 다른 장치를 제어할 수 있는 구성이다. 주로, 중앙 연산 장치(CPU), 어플리케이션 프로세서(AP), 그래픽스 처리 장치(GPU) 등을 의미할 수 있다. 또한, CPU, AP 또는 GPU는 그 내부에 하나 또는 그 이상의 코어들을 포함할 수 있으며, CPU, AP 또는 GPU는 작동 전압과 클락 신호를 이용하여 작동할 수 있다. 다만, CPU 또는 AP는 직렬 처리에 최적화된 몇 개의 코어로 구성된 반면, GPU는 병렬 처리용으로 설계된 수 천 개의 보다 소형이고 효율적인 코어로 구성될 수 있다.The processor 210 is a component capable of performing calculations and controlling other devices. Mainly, it may mean a central processing unit (CPU), an application processor (AP), a graphics processing unit (GPU), and the like. Also, the CPU, AP, or GPU may include one or more cores therein, and the CPU, AP, or GPU may operate using an operating voltage and a clock signal. However, while a CPU or AP consists of a few cores optimized for serial processing, a GPU may consist of thousands of smaller and more efficient cores designed for parallel processing.

프로세서(210)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(220)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 210 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the components described above or by running an application program stored in the memory 220.

메모리(220)는 서버(200)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(220)는 서버(200)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 서버(200)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버(200)로부터 다운로드 될 수 있다. 또한 응용 프로그램은, 메모리(220)에 저장되고, 서버(200)에 설치되어, 프로세서(210)에 의하여 상기 서버(200)의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 220 stores data supporting various functions of the server 200 . The memory 220 may store a plurality of application programs (application programs or applications) running in the server 200, data for operation of the server 200, and commands. At least some of these application programs may be downloaded from the external server 200 through wireless communication. Also, the application program may be stored in the memory 220, installed in the server 200, and driven by the processor 210 to perform the operation (or function) of the server 200.

메모리(220)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(220)는 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수도 있다.The memory 220 may be a flash memory type, a hard disk type, a solid state disk type, a silicon disk drive type, or a multimedia card micro type. ), card-type memory (eg SD or XD memory, etc.), RAM (random access memory; RAM), SRAM (static random access memory), ROM (read-only memory; ROM), EEPROM (electrically erasable programmable read -only memory), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk. Also, the memory 220 may include a web storage performing a storage function on the Internet.

통신 모듈(230)은 외부 서버 또는 카메라(100)와 통신하기 위한 구성일 수 있다. 통신 모듈(230)의 경우, 안테나를 통해 기지국 또는 통신 기능을 포함하는 외부 서버 또는 카메라(100)와 정보의 송수신을 실행한다. 통신 모듈(230)은 변조부, 복조부, 신호 처리부 등을 포함할 수 있다.The communication module 230 may be a component for communicating with an external server or the camera 100 . In the case of the communication module 230, information is transmitted and received with a base station or an external server or camera 100 having a communication function through an antenna. The communication module 230 may include a modulation unit, a demodulation unit, a signal processing unit, and the like.

무선 통신은, 통신사들이 기존에 설치해둔 통신 시설과 그 통신 시설의 주파수를 사용하는 무선 통신망을 사용한 통신을 말할 수 있다. 이때, 통신 모듈(230)은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있으며, 뿐만 아니라, 통신 모듈(230)은 3GPP(3rd generation partnership project) LTE(long term evolution) 등에도 사용될 수 있다. 또한, 최근 상용화 중인 5G 통신 뿐만 아니라, 추후 상용화가 예정되어 있는 6G 등도 사용될 수 있다. 다만, 본 명세서는 이와 같은 무선 통신 방식에 구애됨이 없이 기설치된 통신망을 활용할 수 있다.Wireless communication may refer to communication using a wireless communication network using a communication facility previously installed by telecommunication companies and a frequency of the communication facility. At this time, the communication module 230 is CDMA (code division multiple access), FDMA (frequency division multiple access), TDMA (time division multiple access), OFDMA (orthogonal frequency division multiple access), SC-FDMA (single carrier frequency division multiple access), and the like, as well as the communication module 230 can also be used for 3rd generation partnership project (3GPP) long term evolution (LTE). In addition, not only 5G communication currently commercialized, but also 6G communication scheduled for commercialization in the future may be used. However, the present specification may utilize a pre-installed communication network without being bound by such a wireless communication method.

또한, 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), BLE(Bluetooth Low Energy), 비콘(Beacon), RFID(Radio Frequency Identification), NFC(Near Field Communication), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.In addition, as a short range communication technology, Bluetooth, BLE (Bluetooth Low Energy), Beacon, RFID (Radio Frequency Identification), NFC (Near Field Communication), infrared communication (Infrared Data Association; IrDA) ), UWB (Ultra Wideband), ZigBee, etc. may be used.

도 3은 본 발명에 따른 메모리를 기능적 요소로 나타낸 것이다. 3 shows a memory according to the present invention as a functional element.

도 3에 따르면, 본 발명에 따른 메모리(210)는 관심 영역 수신 모듈(211), 마스킹 입력 수신 모듈(212), 제1 차이 이미지 생성 모듈(213), 확대 이미지 생성 모듈(214), 제2 차이 이미지 생성 모듈(215), 부품 사이즈 측정 모듈(216), 및 해상도 보정 모듈 (217)을 포함할 수 있다. According to FIG. 3, the memory 210 according to the present invention includes a region of interest receiving module 211, a masking input receiving module 212, a first difference image generating module 213, an enlarged image generating module 214, a second It may include a difference image generation module 215 , a component size measurement module 216 , and a resolution correction module 217 .

관심 영역 수신 모듈(211)은 사용자 입력부를 통하여 제1 차이 이미지에서 현장 작업자가 확대하여 보고싶은 부분에 대하여 입력한 정보를 수신할 수 있다. 관심 영역 수신 모듈(211)은 수신한 정보를 기초로 관심 영역을 생성하고, 이를 제1 확대 이미지 생성 모듈(214)로 전송할 수 있다. 관심 영역은 제1 이미지와 제2 이미지 사이의 차이점을 중심으로 선택될 수 있다. The region of interest receiving module 211 may receive information input by a field worker about a portion desired to be enlarged and viewed in the first difference image through a user input unit. The ROI receiving module 211 may generate an ROI based on the received information and transmit the generated ROI to the first enlarged image generating module 214 . The region of interest may be selected based on a difference between the first image and the second image.

마스킹 입력 수신 모듈(212)은 사용자 입력부를 통하여 제1 차이 이미지에서 현장 작업자가 주관적인 양품 판별 기준에 따라 특정 이미지 요소에 대하여 마스킹 입력한 것을 수신할 수 있다. 마스킹 입력 수신 모듈(212)는 수신한 입력을 제2 차이 이미지 생성 모듈(215)로 전송할 수 있다. The masking input receiving module 212 may receive a masking input for a specific image element according to a subjective non-good quality criterion in the first difference image through a user input unit. The masking input receiving module 212 may transmit the received input to the second difference image generating module 215 .

제1 차이 이미지 생성 모듈(213)은 상술한 제1 이미지 및 제2 이미지를 기초로 제1 차이 이미지를 생성할 수 있다. 제1 차이 이미지는 제1 이미지와 제2 이미지의 공통된 부분을 제외한 이미지로서, 제1 이미지와 제2 이미지의 차이점만을 남겨둔 이미지를 의미할 수 있다. The first difference image generation module 213 may generate a first difference image based on the above-described first image and second image. The first difference image is an image excluding a common part between the first image and the second image, and may refer to an image in which only differences between the first image and the second image are left.

확대 이미지 생성 모듈(214)은 제1 차이 이미지에서 관심 영역을 중심으로 확대된 이미지를 생성할 수 있다. 제1 확대 이미지는 미리 설정된 배율로 제1 차이 이미지를 확대할 수 있다. The magnified image generation module 214 may generate an enlarged image centered on the region of interest in the first difference image. The first enlarged image may enlarge the first difference image at a preset magnification.

제2 차이 이미지 생성 모듈(215)은 현장 작업자의 주관적인 양품 판별 기준에 따라 제1 차이 이미지에 대한 마스킹 입력을 수신하며, 마스킹 입력을 기초로 제1 차이 이미지를 마스크 처리하여 제2 차이 이미지를 생성할 수 있다. The second difference image generation module 215 receives a masking input for the first difference image according to the field worker's subjective good quality criterion, masks the first difference image based on the masking input, and generates a second difference image. can do.

부품 사이즈 측정 모듈(216)은 이미지에서 기준 사이즈를 가지는 기준 객체를 함께 촬영하고, 기준 객체와 이미지 내에서의 길이 차이를 기초로 부품의 사이즈를 측정할 수 있다. 이처럼, 본 발명에 따른 컴퓨팅 장치(200)는 부품의 사이즈를 자동으로 측정하여 품질 관리에 도움을 줄 수 있다. The part size measuring module 216 may capture a reference object having a reference size in an image together, and measure the size of the part based on a length difference between the reference object and the image. As such, the computing device 200 according to the present invention can help quality management by automatically measuring the size of a part.

해상도 보정 모듈 (217)은 확대 이미지 생성시 해상도가 줄어드는 경우 해상도를 높여 현장 작업자가 마스킹을 입력하기 쉽도록하는 구성일 수 있다. 해상도 보정 모듈 (217)은 해상도 업스케일링 알고리즘을 활용할 수 있다. The resolution correction module 217 may be configured to increase the resolution when the resolution is reduced when generating an enlarged image so that a field worker can easily input masking. The resolution correction module 217 may utilize a resolution upscaling algorithm.

또한, 본 발명에 따른 메모리(210)는 마스킹 입력 학습 모듈(218)을 더 포함할 수 있다. 마스킹 입력 학습 모듈(218)은 현장 작업자의 마스킹 입력을 미리 저장한 DB와, DB를 학습하고 회기 분석하여 유사한 마스킹 입력을 수행할 수 있는 모듈일 수 있다. 마스킹 입력 학습 모듈(218)은 본 발명의 실시예에 따른 현장 작업자의 주관적인 양품 판별 기준을 미리 학습함으로써, 현장 학습자 없이도 마스킹 입력을 대신 수행할 수 있다. In addition, the memory 210 according to the present invention may further include a masking input learning module 218 . The masking input learning module 218 may be a module capable of performing a similar masking input by learning a DB in which a masking input of a field worker is stored in advance and a DB and performing regression analysis. The masking input learning module 218 may perform masking input instead of a field learner by learning the subjective good quality criterion of a field worker according to an embodiment of the present invention in advance.

도 4 내지 도 6은 본 발명에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질관리 시스템의 실시예를 나타낸 것이다. 4 to 6 show an embodiment of a part quality control system based on deep learning-based defect value distribution according to the present invention.

도 4에 따르면, 본 발명에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질관리 시스템은, 제1 이미지에서 제2 이미지를 뺀 제1 차이 이미지를 생성할 수 있다. 제1 차이 이미지는 제2 이미지에 포함된 특징 요소들을 포함할 수 있다. 본 발명에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질관리 시스템은 제1 차이 이미지의 특징 요소들 중 작업자로부터 불량으로 판단되는 요소를 마스킹을 통하여 선택받을 수 있다.According to FIG. 4 , the system for quality control of parts based on the distribution of defect values based on deep learning according to the present invention may generate a first difference image by subtracting a second image from a first image. The first difference image may include feature elements included in the second image. The system for quality control of parts based on the distribution of defect values based on deep learning according to the present invention may select elements determined to be defective by a worker among characteristic elements of the first difference image through masking.

도 5에 따르면, 본 발명에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질관리 시스템은 제1 차이 이미지에서 마스킹을 통하여 선택된 불량으로 판단되는 요소만을 남겨둔 제2 차이 이미지를 생성할 수 있다. 제2 차이 이미지는 제1 차이 이미지에서 불량으로 판단되는 요소 외의 다른 요소들을 마스크 처리하여 가린 이미지를 의미할 수 있다. According to FIG. 5 , the system for quality control of parts based on the distribution of defect values based on deep learning according to the present invention may generate a second difference image in which only elements determined to be defective selected through masking are left in the first difference image. The second difference image may refer to an image in which elements other than elements determined to be defective in the first difference image are masked and covered.

도 5에 따르면, 본 발명에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질관리 시스템은 제1 확대 이미지를 생성하고, 생성된 제1 확대 이미지에 마스킹 입력을 수신하여, 이를 기초로 제2 차이 이미지를 생성할 수 있다. According to FIG. 5, the system for quality control of parts based on the deep learning-based defect value distribution according to the present invention generates a first enlarged image, receives a masking input to the generated first enlarged image, and based on this, a second A difference image can be created.

도 6에 따르면, 본 발명의 심층신경망(Deep Neural Network)은, 하나 이상의 컴퓨터 내에 하나 이상의 레이어(Layer)를 구축하여 복수의 데이터를 바탕으로 판단을 수행하는 시스템 또는 네트워크를 의미한다. 예를 들어, 심층신경망은 컨볼루션 풀링 층(Convolutional Pooling Layer), 로컬 접속 층(a locallyconnectedlayer) 및 완전 연결 층(fully-connected layer)을 포함하는 층들의 세트로 구현될 수 있다. 일 예로, 심층신경망의 전체적인 구조는 컨볼루션 풀링 층에 로컬 접속 층이 이어지고, 로컬 접속 층에 완전 연결 층이 이러지는 형태인 나선형 신경망(즉, Convolutional Neural Network; CNN) 구조로 이루어질 수 있다. 또한 심층신경망은, 예를 들어, 각 레이어의 노드들에 자신을 가르키는 엣지(edge)가 포함됨에 따라 재귀적으로 연결되는 순환형 신경망(Recurrent Neural Network; RNN) 구조로 형성될 수도 있다. 심층신경망은 다양한 판단기준(즉, 제1 이미지, 제2 이미지와 제2 차이 이미지)을 포함할 수 있고, 입력되는 영상 분석을 통해 새로운 판단기준을 추가할 수 있다. 다만, 본 발명의 실시예에 따른 심층신경망의 구조는 이에 한정되지 아니하고, 다양한 구조의 신경망으로 형성될 수 있다.According to FIG. 6 , the deep neural network of the present invention means a system or network that builds one or more layers in one or more computers and performs a judgment based on a plurality of data. For example, a deep neural network can be implemented with a set of layers including a convolutional pooling layer, a locally connected layer, and a fully-connected layer. For example, the overall structure of the deep neural network may be a convolutional neural network (ie, convolutional neural network; CNN) structure in which a local access layer is followed by a convolutional pooling layer, and a fully connected layer is followed by a local access layer. In addition, the deep neural network may be formed, for example, in a recurrent neural network (RNN) structure in which nodes of each layer include edges pointing to the nodes and are connected recursively. The deep neural network may include various criterion (ie, the first image, the second image, and the second difference image), and a new criterion may be added by analyzing an input image. However, the structure of the deep neural network according to the embodiment of the present invention is not limited thereto, and may be formed with various structures of neural networks.

본 발명의 실시예에서 심층신경망을 포함하는 양품 선별 시스템으로, 하나의 컴퓨터 내에서 구현될 수도 있고 복수의 컴퓨터가 연결되어 네트워크망을 통해 구현될 수도 있다.In an embodiment of the present invention, a good product sorting system including a deep neural network may be implemented in a single computer or may be implemented through a network by connecting a plurality of computers.

즉, 본 발명의 심층신경망(Deep Neural Network)은, 제1 이미지 및 제2 이미지를 입력으로 하고 제2 차이 이미지를 출력으로 하여 이들의 상관관계를 학습할 수 있다. That is, the deep neural network of the present invention can learn the correlation between the first image and the second image and the second difference image as an output.

도 7은 본 발명에 따른 검사 기준값을 나타낸 그래프이다. 7 is a graph showing inspection reference values according to the present invention.

도 7에 따르면, 제2 차이 이미지의 결함값들은 다양한 분포를 나타낼 수 있다. 일 예로, 양품의 결함값의 분포가 결함값 크기 기준 0 내지 10에 대부분 분포하고 있고 불량품의 결함값의 분포가 결함값 크기 기준 90 이상에 대부분 분포하고 있는 경우 결함값들의 분포에서 양품과 불량품의 경계값의 중간값인 결함값 크기 기준 50을 학습된 검사 기준값으로 할 수 있다. According to FIG. 7 , defect values of the second difference image may have various distributions. For example, if the distribution of defect values of good products is mostly distributed between 0 and 10 based on the defect value size, and the distribution of defect values of defective products is mostly distributed over 90 based on the defect value size, the distribution of defect values shows the difference between good and defective products. The defect size criterion of 50, which is the median value of the boundary value, may be used as the learned inspection criterion value.

즉, 본 발명에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질관리 시스템은, 제1 이미지 및 제2 이미지의 결함값을 전달받고, 전달받은 결함값을 검사 기준값과 비교하여 부품을 양품과 불량품으로 분류할 수 있다. That is, the part quality control system based on the deep learning-based defect value distribution according to the present invention receives the defect values of the first image and the second image, compares the received defect values with the inspection reference value, and distinguishes the parts from good products. It can be classified as defective.

도 8은 본 발명에 따른 카메라에 포함된 카메라 모듈을 나타낸 도면이다. 8 is a view showing a camera module included in a camera according to the present invention.

도 8에 따르면, 본 발명에 따른 카메라(100)는 카메라 모듈(1320)을 포함할 수 있다. 카메라 모듈(1320)은 광 이미지로부터 영상 이미지를 생성할 수 있다. 카메라 모듈(1320)은 측벽에 관통홀을 포함하는 하우징(1324), 관통홀에 설치된 렌즈(1321) 및 렌즈(1321)를 구동하는 구동부(1323)를 포함할 수 있다. 관통홀은 렌즈(1321)의 직경에 대응되는 크기로 형성될 수 있다. 렌즈(1321)는 관통홀에 삽입될 수 있다. According to FIG. 8 , the camera 100 according to the present invention may include a camera module 1320. The camera module 1320 may generate a video image from an optical image. The camera module 1320 may include a housing 1324 including a through hole on a side wall, a lens 1321 installed in the through hole, and a driving unit 1323 that drives the lens 1321 . The through hole may have a size corresponding to the diameter of the lens 1321 . The lens 1321 may be inserted into the through hole.

구동부(1323)는 렌즈(1321)를 전방 또는 후방으로 움직이도록 제어하는 구성일 수 있다. 렌즈(1321)와 구동부(1323)는 종래 알려진 방식으로 연결되고 렌즈(1321)는 종래 알려진 방식으로 구동부(1323)에 의하여 제어될 수 있다. The driving unit 1323 may be configured to control the lens 1321 to move forward or backward. The lens 1321 and the driving unit 1323 are connected in a conventionally known manner, and the lens 1321 may be controlled by the driving unit 1323 in a conventionally known manner.

다양한 영상 이미지를 수득하기 위해서는 렌즈(1321)가 카메라 모듈(1320) 또는 하우징(1324)의 외부로 노출될 필요가 있다. In order to obtain various video images, the lens 1321 needs to be exposed to the outside of the camera module 1320 or the housing 1324 .

특히, 본 발명에 따른 카메라는 외부 영역을 직접 설치되어야 하므로 내오염성이 강한 렌즈가 필요하다. 따라서, 본 발명은 렌즈를 코팅하는 코팅층을 제안하여, 이러한 문제점을 해결하고자 하였다. In particular, since the camera according to the present invention needs to be directly installed in the outer area, a lens with strong contamination resistance is required. Accordingly, the present invention proposes a coating layer for coating a lens to solve this problem.

바람직하게 상기 렌즈(1321)는 그 표면에 하기의 화학식 1로 표시되는 아크릴계 화합물; 유기 용매, 무기 입자 및 분산제가 포함되는 코팅조성물로 코팅된 것일 수 있다.Preferably, the lens 1321 may include an acrylic compound represented by Formula 1 below on its surface; It may be coated with a coating composition containing an organic solvent, inorganic particles and a dispersant.

[화학식 1][Formula 1]

Figure pat00001
Figure pat00001

여기서, here,

n 및 m은 서로 동일하거나 상이하며, 각각 독립적으로 1 내지 100의 정수이며, L1은 바이페닐렌기이다.n and m are the same as or different from each other, each independently represent an integer of 1 to 100, and L 1 is a biphenylene group.

상기 코팅조성물로 렌즈(1321)가 코팅된 경우 우수한 발수성 및 내오염성을 나타낼 수 있기 때문에 외부 환경에 설치된 렌즈(1321)가 오염 환경 및 염분에 장기간 노출되더라도, 깨끗하고 선명한 외부 영상을 수집할 수 있다. When the lens 1321 is coated with the coating composition, it can exhibit excellent water repellency and stain resistance, so even if the lens 1321 installed in the external environment is exposed to a polluted environment and salt for a long time, it is possible to collect clear and clear external images. .

상기 무기 입자는 실리카, 알루미나 및 이들의 혼합물로 이루어진 군으로부터 선택될 수 있다. 상기 무기 입자의 평균 직경은 70 내지 100㎛이지만, 상기 예시에 국한되지 않는다. 상기 무기 입자는 렌즈(1321) 표면에 코팅층(1322)으로 형성 후, 물리적인 강도를 향상시키고, 점도를 일정 범위로 유지시켜 성형성을 높일 수 있다. The inorganic particles may be selected from the group consisting of silica, alumina, and mixtures thereof. The average diameter of the inorganic particles is 70 to 100 μm, but is not limited to the above examples. After forming the coating layer 1322 on the surface of the lens 1321, the inorganic particles may improve physical strength and maintain viscosity within a certain range to increase moldability.

상기 유기 용매는 메틸에틸케톤(MEK), 톨루엔 및 이들의 혼합으로 이루어진 군으로부터 선택되며, 바람직하게는 메틸에틸케톤을 사용할 수 있으나, 상기 예시에 국한되지 않는다. The organic solvent is selected from the group consisting of methyl ethyl ketone (MEK), toluene, and mixtures thereof, and preferably methyl ethyl ketone may be used, but is not limited to the above examples.

상기 분산제로는 폴리에스테르 계열의 분산제를 사용할 수 있고, 구체적으로 2-메톡시프로필 아세테이트 및 1-메톡시-2-프로필 아세테이트의 공중합체로 이루어진 폴리에스테르 계열의 분산안정제로서 TEGO-Disperse 670 (제조사: EVONIK)을 사용할 수 있으나, 상기 예시에 국한되지 않고 통상의 기술자에게 자명한 분산제는 제한 없이 모두 사용 가능하다.As the dispersing agent, a polyester-based dispersing agent may be used, and specifically, TEGO-Disperse 670 (manufacturer : EVONIK) can be used, but it is not limited to the above examples, and all dispersants obvious to those skilled in the art can be used without limitation.

상기 코팅 조성물은 기타 첨가제로 안정화제를 추가로 포함할 수 있고, 상기 안정화제는 자외선 흡수제, 산화방지제 등을 포함할 수 있으나, 상기 예시에 국한되지 않고 제한 없이 사용 가능하다.The coating composition may further include a stabilizer as other additives, and the stabilizer may include a UV absorber, an antioxidant, and the like, but is not limited to the above examples and may be used without limitation.

상기 코팅층(1322)을 형성하기 위한, 코팅 조성물은 보다 구체적으로 상기 화학식 1로 표시되는 아크릴계 화합물; 유기 용매, 무기 입자 및 분산제를 포함할 수 있다.The coating composition for forming the coating layer 1322 may more specifically include an acrylic compound represented by Chemical Formula 1; organic solvents, inorganic particles and dispersants.

상기 코팅 조성물은 유기용매 100 중량부에 대하여, 상기 화학식 1로 표시되는 아크릴계 화합물 40 내지 60 중량부, 무기 입자 20 내지 40 중량부 및 분산제 5 내지 15 중량부를 포함할 수 있다. 상기 범위에 의하는 경우 각 구성 성분의 상호 작용에 의한 발수 효과가 임계적 의의가 있는 정도의 상승효과가 발현되며, 상기 범위를 벗어나는 경우 상승효과가 급격히 저하되거나 거의 없게 된다.The coating composition may include 40 to 60 parts by weight of the acrylic compound represented by Formula 1, 20 to 40 parts by weight of inorganic particles, and 5 to 15 parts by weight of a dispersant, based on 100 parts by weight of the organic solvent. In the case of the above range, a synergistic effect is expressed to the extent that the water repellency effect due to the interaction of each component is of critical significance, and when it is out of the above range, the synergistic effect is rapidly reduced or almost nonexistent.

보다 바람직하게, 상기 코팅 조성물의 점도는 1500 내지 1800cP이며, 상기 점도가 1500cP 미만인 경우에는 렌즈(1321) 표면에 도포하면, 흘러내려 코팅층(1322)의 형성이 용이하지 않은 문제가 있고, 1800cP를 초과하는 경우에는 균일한 코팅층(1322)의 형성이 용이하지 않은 문제가 있다.More preferably, the viscosity of the coating composition is 1500 to 1800 cP, and when the viscosity is less than 1500 cP, when applied to the surface of the lens 1321, there is a problem that it is not easy to form the coating layer 1322 because it flows down, and the coating composition exceeds 1800 cP. In this case, there is a problem in that it is not easy to form a uniform coating layer 1322.

[제조예 1: 코팅층의 제조][Preparation Example 1: Preparation of coating layer]

1. 코팅 조성물의 제조1. Preparation of coating composition

메틸에틸케톤에 하기 화학식 1로 표시되는 아크릴계 화합물, 무기입자 및 분산제를 혼합하여, 코팅 조성물을 제조하였다:A coating composition was prepared by mixing methyl ethyl ketone with an acrylic compound represented by Formula 1, inorganic particles, and a dispersant:

[화학식 1][Formula 1]

Figure pat00002
Figure pat00002

여기서, here,

n 및 m은 서로 동일하거나 상이하며, 각각 독립적으로 1 내지 100의 정수이며, L1은 바이페닐렌기이다.n and m are the same as or different from each other, each independently represent an integer of 1 to 100, and L 1 is a biphenylene group.

상기 대전방지 조성물의 보다 구체적인 조성은 하기 표 1와 같다. A more specific composition of the antistatic composition is shown in Table 1 below.

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 유기용매organic solvent 100100 100100 100100 100100 100100 아크릴계 화합물acrylic compound 3030 4040 5050 6060 7070 무기입자inorganic particles 1010 2020 3030 4040 5050 분산제dispersant 1One 55 1010 1515 2020

(단위 중량부)(unit weight parts)

2. 코팅층의 제조2. Preparation of coating layer

렌즈(1321)의 일면에 상기 DX1 내지 DX5의 코팅 조성물을 도포 후, 경화시켜 코팅층(1322)을 형성하였다. A coating layer 1322 was formed by applying the coating composition of DX1 to DX5 on one surface of the lens 1321 and curing the coating composition.

[실험예][Experimental example]

1. 표면 외관에 대한 평가1. Evaluation of surface appearance

코팅 조성물의 점도 차이로 인해, 코팅층(1322)을 제조한 이후, 균일한 표면이 형성되었는지 여부에 대해 관능 평가를 진행하였다. 균일한 코팅층(1322)을 형성하였는지 여부에 대한 평가를 진행하였고, 하기와 같은 기준에 의해 평가를 진행하였다. Due to the difference in viscosity of the coating composition, after the coating layer 1322 was prepared, a sensory evaluation was performed on whether a uniform surface was formed. Evaluation was conducted on whether or not a uniform coating layer 1322 was formed, and the evaluation was conducted according to the following criteria.

○: 균일한 코팅층 형성○: uniform coating layer formation

×: 불균일한 코팅층의 형성×: Formation of non-uniform coating layer

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 관능 평가sensory evaluation ХХ ХХ

코팅층(1322)을 형성할 때, 일정 점도 미만인 경우에는 렌즈(1321)의 표면에서 흐름이 발생하여, 경화 공정 이후, 균일한 코팅층(1322)의 형성이 어려운 경우가 다수 발생하였다. 이에 따라, 생산 수율이 낮아지는 문제가 발생할 수 있다. 또한, 점도가 너무 높은 경우에도, 조성물의 균일 도포가 어려워 균일한 코팅층(1322)의 형성이 불가하였다.When forming the coating layer 1322, if the viscosity is less than a certain amount, flow occurs on the surface of the lens 1321, and it is difficult to form a uniform coating layer 1322 after the curing process in many cases. Accordingly, a problem of lowering the production yield may occur. In addition, even when the viscosity is too high, it is difficult to uniformly apply the composition, and it is impossible to form a uniform coating layer 1322.

2. 발수각의 측정2. Measurement of water repellency angle

상기 렌즈(1321) 표면에 코팅층(1322)을 형성한 이후, 발수각을 측정한 결과는 하기 표 3과 같다. After forming the coating layer 1322 on the surface of the lens 1321, the results of measuring the water repellency angle are shown in Table 3 below.

전진 접촉각 (“)Advancing contact angle (") 정지 접촉각 (“)Static contact angle (“) 후진 접촉각 (“)receding contact angle (“) TX1TX1 117.1±2.9117.1±2.9 112.1±4.1112.1±4.1 < 10< 10 TX2TX2 132.4±1.5132.4±1.5 131.5±2.7131.5±2.7 141.7±3.4141.7±3.4 TX3TX3 138.9±3.0138.9±3.0 138.9±2.7138.9±2.7 139.8±3.7139.8±3.7 TX4TX4 136.9±2.0136.9±2.0 135.6±2.6135.6±2.6 140.4±3.4140.4±3.4 TX5TX5 116.9±0.7116.9±0.7 115.4±3.0115.4±3.0 < 10< 10

상기 표 3에 나타낸 바와 같이, TX1 내지 TX5의 코팅 조성물을 이용하여 코팅층(1322)을 형성한 이후, 접촉각을 측정한 결과를 확인하였다. TX1 및 TX5는 후진 접촉각이 10도 미만으로 측정되었다. 즉, 코팅 조성물을 제조하기 위한 최적의 범위를 벗어나게 되는 경우, 물방울이 피닝(Pinning)되는 현상이 발생하는 것을 확인하였다. 반면 TX2 내지 4에서는 피닝 현상이 발생하지 않음을 확인하여 우수한 방수 효과를 나타낼 수 있음을 확인하였다.As shown in Table 3, after the coating layer 1322 was formed using the coating compositions of TX1 to TX5, the result of measuring the contact angle was confirmed. TX1 and TX5 measured receding contact angles less than 10 degrees. That is, it was confirmed that a phenomenon in which water droplets are pinned occurs when the coating composition is out of the optimal range for preparing the coating composition. On the other hand, it was confirmed that the pinning phenomenon did not occur in TX2 to 4, indicating that excellent waterproofing effect could be exhibited.

3. 내오염성 평가3. Fouling resistance evaluation

설비 외부에 상기 실시예에 따른 코팅층(1322)을 형성한 렌즈(1321)를 모형카메라에 부착하고, 4일 간 외부(실외) 환경에 노출되도록 하였다. 비교예(Con)로는 코팅층(1322)이 형성되지 않은 동일한 렌즈(1321)를 사용하였으며, 각 실시예에 모형카메라는 동일한 위치에 부착하였다.A lens 1321 having a coating layer 1322 according to the above embodiment formed outside the facility was attached to a model camera, and exposed to an external (outdoor) environment for 4 days. As the comparative example (Con), the same lens 1321 without the coating layer 1322 was used, and the model camera was attached to the same position in each example.

그 뒤 실험 전후의 렌즈(1321)의 오염 및 부식 정도를 유관으로 평가하였고, 객관적인 비교를 위하여 코팅층(1322)이 형성되지 않은 비교예와 비교하여 그 결과를 1 내지 10의 지수로 평가하여 하기의 표 5에 나타내었다. 하기의 지수는 그 숫자가 낮을수록 내오염성이 우수한 것이다.After that, the degree of contamination and corrosion of the lens 1321 before and after the experiment was evaluated as related, and for objective comparison, the result was compared with a comparative example in which the coating layer 1322 was not formed, and the result was evaluated by an index of 1 to 10, and the following Table 5 shows. In the index below, the lower the number, the better the stain resistance.

ConCon TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 내오염성stain resistance 1010 77 33 33 33 88

(단위: 지수)(Unit: index)

상기 표 4를 참조하면, 렌즈(1321)에 코팅층(1322)을 형성하는 경우 외부 환경에 카메라를 설치하면서 렌즈(1321)가 외부로 노출되도록 하여도 높은 내오염성을 오랜 기간 분석하기 용이한 형태로 이미지 데이터를 수집할 수 있다는 점을 알 수 있다. 특히 TX2 내지 TX4에 의하는 경우 코팅층(1322)에 의한 내오염성이 매우 우수하다는 점을 확인할 수 있다.Referring to Table 4, in the case of forming the coating layer 1322 on the lens 1321, even if the lens 1321 is exposed to the outside while installing the camera in the external environment, high fouling resistance can be easily analyzed for a long period of time. It can be seen that image data can be collected. In particular, in the case of TX2 to TX4, it can be confirmed that the contamination resistance by the coating layer 1322 is very excellent.

도 9는 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이다. 9 is a diagram showing an example of an image correction filter according to the present invention.

도 9에 따르면, 필터의 종류와 기능이 나타나 있다. 즉, CNN 알고리즘은 복수의 레이어를 사용하는 학습 알고리즘일 수 있다. 또한, CNN 알고리즘은 이미지 분류 정확도를 최대화하는 필터를 자동으로 학습할 수 있으며, 합성곱 계층과 폴링 계층이라고 하는 새로운 층을 풀리 커넥티드 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미지에 대해 분류 연산을 수행할 수 있다. CNN 알고리즘은 합성곱 계층 (convolutional layer)과 풀링 계층 (pooling layer)이라고 하는 새로운 층을 fully-connected 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미에 대해 분류 연산이 수행되도록 구성될 수 있다. According to Figure 9, the type and function of the filter is shown. That is, the CNN algorithm may be a learning algorithm using a plurality of layers. In addition, the CNN algorithm can automatically learn a filter that maximizes image classification accuracy, and by adding a new layer called a convolutional layer and a polling layer before the fully connected layer, after applying the filtering technique to the original image, the filtered image A classification operation can be performed on . The CNN algorithm is configured to apply a filtering technique to the original image by adding a new layer, called a convolutional layer and a pooling layer, before the fully-connected layer, and then perform a classification operation on the filtered image. can

이때, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 1과 같다. At this time, the operation expression for the image filter using the CNN algorithm is as shown in Equation 1 below.

[수학식 1][Equation 1]

Figure pat00003
Figure pat00003

(단, (only,

Figure pat00004
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,
Figure pat00004
: pixels in the i-th row and j-th column of the filtered image expressed as a matrix,

Figure pat00005
: 필터,
Figure pat00005
: filter,

Figure pat00006
: 이미지,
Figure pat00006
: image,

Figure pat00007
: 필터의 높이 (행의 수),
Figure pat00007
: height of the filter (number of rows),

Figure pat00008
: 필터의 너비 (열의 수)이다. )
Figure pat00008
: The width of the filter (number of columns). )

바람직하게는, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 2과 같다. Preferably, the operation expression for the image filter using the CNN algorithm is as shown in Equation 2 below.

[수학식 2][Equation 2]

Figure pat00009
Figure pat00009

(단, (only,

Figure pat00010
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,
Figure pat00010
: pixels in the i-th row and j-th column of the filtered image expressed as a matrix,

Figure pat00011
: 응용 필터
Figure pat00011
: Application filter

Figure pat00012
: 이미지,
Figure pat00012
: image,

Figure pat00013
: 응용 필터의 높이 (행의 수),
Figure pat00013
: height of application filter (number of rows),

Figure pat00014
: 응용 필터의 너비 (열의 수)이다.)
Figure pat00014
: The width (number of columns) of the application filter.)

바람직하게는,

Figure pat00015
는 응용 필터로서 제1 차이 이미지를 생성하기 위하여 제1 이미지 및/또는 제2 이미지에 적용되는 필터일 수 있다. 특히, 부품의 경우 (1) 색상의 차이와 (2) 형태의 차이를 기초로 품질을 매길 수 있어, 색상 및 형태를 효과적으로 인지하기 위한 응용 필터가 필요할 수 있다. 이러한 필요성을 충족하기 위하여 응용 필터
Figure pat00016
는 아래의 수학식 3에 의하여 연산될 수 있다. Preferably,
Figure pat00015
may be an application filter applied to the first image and/or the second image to generate the first difference image. Particularly, in the case of parts, quality can be determined based on (1) difference in color and (2) difference in shape, so an application filter for effectively recognizing color and shape may be required. Application filters to meet these needs
Figure pat00016
Can be calculated by Equation 3 below.

[수학식 3] [Equation 3]

Figure pat00017
Figure pat00017

(단,

Figure pat00018
: 필터,
Figure pat00019
: 계수,
Figure pat00020
: 응용 필터)(only,
Figure pat00018
: filter,
Figure pat00019
: Coefficient,
Figure pat00020
: application filter)

바람직하게는, 본 발명에 따른 응용 필터

Figure pat00021
는 부품의 종류에 따라 나뉘어 제1 이미지 및/또는 제2 이미지에 적용될 수 있다. 이때, 각
Figure pat00022
에 따른 필터는 도 9에 따른 엣지 인식 필터(Edge detection), 샤픈 필터(sharpen) 및 박스 블러 필터(Box blur) 중 어느 하나의 행렬일 수 있다. Preferably, the application filter according to the present invention
Figure pat00021
may be divided according to the type of part and applied to the first image and/or the second image. At this time, each
Figure pat00022
The filter according to may be a matrix of any one of an edge detection filter according to FIG. 9, a sharpen filter, and a box blur filter.

바람직하게,

Figure pat00023
를 구하는 연산식은 아래의 수학식 4와 같다. 이때,
Figure pat00024
는 필터의 효율을 높이기 위하여 사용되는 하나의 상수로서 해석될 수 있고, 그 단위는 무시될 수 있다. Preferably,
Figure pat00023
The operation expression for obtaining is as shown in Equation 4 below. At this time,
Figure pat00024
can be interpreted as a constant used to increase the efficiency of the filter, and its unit can be ignored.

[수학식 4][Equation 4]

Figure pat00025
Figure pat00025

단, 이미지 촬영에 사용된 카메라의 렌즈의 직경(지름)은 mm 단위이고, 렌즈의 f값은 렌즈의 조리개값(F number)이며, HSV 평균값은 부품의 이미지에 따른 색좌표를 HSV 그래프를 통하여 크기값으로 변환한 값을 평균한 값을 의미할 수 있다. HSV값에 대한 구체적인 내용은 아래와 같다. However, the diameter (diameter) of the lens of the camera used to take the image is in mm, the f-value of the lens is the aperture value (F number) of the lens, and the HSV average value is the size of the color coordinates according to the image of the part through the HSV graph It may mean a value obtained by averaging values converted into values. Details of the HSV value are as follows.

도 10은 본 발명에 따른 HSV 3차원 그래프를 나타낸 도면이고, 도 11은 하나의 색상의 HSV값을 나타낸 예시를 나타낸 도면이다. 10 is a diagram showing a three-dimensional HSV graph according to the present invention, and FIG. 11 is a diagram showing an example of HSV values of one color.

도 10 및 도 11에 따르면, 본 발명에 따른 HSV 그래프는 지각적인 특성이 반영된 색 공간을 의미할 수 있다. H(Hue, 0~360°)는 색조를 의미할 수 있고, S(Saturation, 0~100%)는 채도를 의미할 수 있으며, V(Value, 0~100%)는 명도를 의미할 수 있다. 색조, 채도 및 명도 값을 HSV 값이라고 할 수 있으며, 이는 Adobe illustrator cc 2019 등 그래픽 툴을 이용하여 쉽게 추출될 수 있다.10 and 11, the HSV graph according to the present invention may mean a color space in which perceptual characteristics are reflected. H (Hue, 0 to 360°) may mean hue, S (Saturation, 0 to 100%) may mean saturation, and V (Value, 0 to 100%) may mean lightness. . Hue, saturation, and lightness values can be referred to as HSV values, which can be easily extracted using graphic tools such as Adobe illustrator cc 2019.

본 발명에 따른 HSV 평균값은 도 10의 HSV 3차원 좌표를 통하여 획득될 수 있다. 즉, 본 발명에 따른 HSV 평균값은 도 11과 같은 그래픽 툴을 통하여 획득된 HSV 값을 기초로 계산될 수 있다. HSV 3차원 좌표상의 원점좌표를 기준점으로 측정된 HSV 좌표의 거리값은 상술한 HSV 평균값을 구성할 수 있다. 즉, 본 발명에 따른 이미지는 부품에 대한 이미지를 포함하고, 부품의 이미지의 HSV 색상좌표는 일정 영역에서 분포될 수 있다. 따라서, 본 발명에 따른 HSV 평균값은 일정 영역의 색상에 대한 HSV 좌표들의 평균을 이용한 평균 좌표를 기초로 계산된 원점좌표와의 거리값을 의미할 수 있다. The HSV average value according to the present invention can be obtained through the HSV three-dimensional coordinates of FIG. 10 . That is, the average HSV value according to the present invention may be calculated based on the HSV value obtained through the graphic tool as shown in FIG. 11 . The distance value of the HSV coordinates measured with the origin coordinates on the HSV 3-dimensional coordinates as a reference point may constitute the above-described HSV average value. That is, the image according to the present invention includes an image of a part, and the HSV color coordinates of the image of the part may be distributed in a certain area. Therefore, the HSV average value according to the present invention may mean a distance value from the origin coordinates calculated based on average coordinates using the average of HSV coordinates for colors of a certain region.

다만, 부품의 경우 부위별 색상의 차이가 많을 수 있어, 본 발명은 부품의 분할된 영역별로 HSV 평균값을 구하고, 분할된 영역별로 서로 다른 응용 필터를 적용할 수 있다. However, in the case of a part, there may be a large difference in color for each part, so in the present invention, an average HSV value can be obtained for each divided area of the part, and different application filters can be applied to each divided area.

[실험예][Experimental Example]

본 발명에 따른 CNN 알고리즘을 사용하여 생성된 이미지에 대하여, 본 발명의 응용 필터 F'를 적용하는 경우에 생성된 제1 차이 이미지의 정확도를 분석한 결과는 하기 표 1와 같았다. 이때, 정확도는 제1 차이 이미지에 나타난 차이 요소들과 전문가가 직접 선택한 차이 요소들과의 일치성을 수치로서 나타낸 것이다.The results of analyzing the accuracy of the first difference image generated when the applied filter F' of the present invention is applied to the image generated using the CNN algorithm according to the present invention are shown in Table 1 below. At this time, the accuracy indicates the correspondence between the difference elements shown in the first difference image and the difference elements directly selected by the expert as a numerical value.

필터 적용 없음no filter applied 필터

Figure pat00026
적용filter
Figure pat00026
apply 필터
Figure pat00027
적용
filter
Figure pat00027
apply
정확도accuracy 4949 6262 8484

(단위: %)(unit: %)

상기 표 5는 본 발명에 따른 제1 차이 이미지의 차이 요소들과 전문가가 직접 선택한 차이 요소들과의 일치성을 수치로 나타낸 정확도를 각 케이스별로 나타낸 것이다. 표 5는 총 1 종의 부품에 대하여 100개의 샘플을 기초로 수행한 결과를 정리한 것이며, 정확도는 반올림한 수치이다. 이때, 일반 필터

Figure pat00028
는 도 9의 엣지 인식 필터(Edge detection)로 실험되었다. Table 5 above shows, for each case, the accuracy of numerically expressing the correspondence between the difference elements of the first difference image according to the present invention and the difference elements directly selected by the expert. Table 5 summarizes the results performed based on 100 samples for a total of one type of part, and the accuracy is a rounded value. At this time, the general filter
Figure pat00028
was experimented with the edge detection filter in FIG. 9.

표 5에서 확인할 수 있는 것과 같이, 필터 적용 없이 제1 차이 이미지를 만드는 경우보다 일반 필터

Figure pat00029
를 적용하는 것이 더 높은 정확도를 나타내었다. 또한, 일반 필터
Figure pat00030
를 적용하는 것보다, 본 발명에 따른 응용 필터
Figure pat00031
를 적용하는 것이 현저히 높은 정확도를 나타내었다. As can be seen in Table 5, the case of creating a first difference image without applying a filter is more than a normal filter.
Figure pat00029
, showed higher accuracy. Also, the general filter
Figure pat00030
Rather than applying the applied filter according to the present invention
Figure pat00031
, showed significantly higher accuracy.

이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 또 다른 일 실시예에 따른, 딥러닝 기반의 결함값 분포에 기초한 부품의 품질 관리 방법에 관하여 상세히 설명하면 다음과 같다.Hereinafter, based on the above description, a detailed description of a method for quality control of a part based on a deep learning-based defect value distribution according to another preferred embodiment of the present specification is as follows.

도 12는 본 발명에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질 관리 방법을 나타낸 것이다. 12 shows a method for quality control of parts based on deep learning-based defect value distribution according to the present invention.

도 12에 따르면, 본 발명에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질 관리 방법은 미리 선별된 양품을 촬영한 제1 이미지 및 미리 선별된 불량품을 촬영한 제2 이미지를 수신하는 단계(S110), 제1 이미지 및 제2 이미지를 기초로 제1 차이 이미지를 생성하는 단계(S120), 제1 차이 이미지 중 관심 영역에 대한 사용자 입력을 수신하는 단계(S130), 제1 차이 이미지에서 관심 영역을 확대한 제1 확대 이미지를 생성하는 단계(S140), 작업자로부터 현장 작업자의 주관적인 양품 판별 기준에 따라 제1 확대 이미지를 구성하는 이미지 요소들 중 불량으로 판단되는 이미지 요소를 선택받아 작업자의 마스킹 입력을 수신하는 단계(S150), 마스킹 입력에 의해 선택된 이미지 요소를 제외한 나머지 이미지 요소를 제1 확대 이미지에서 마스크 처리하여 현장 작업자가 불량 판별에서 중요하게 생각하는 요소만을 남긴 마스크 처리된 제2 차이 이미지를 생성하는 단계(S160), 제1 이미지와 제2 이미지를 입력으로 하고 제2 차이 이미지를 출력하도록 하여 제2 심층 신경망이 입출력 데이터간 상관관계를 딥러닝 학습하는 단계(S170), 제2 차이 이미지의 잔존 이미지 요소의 크기를 결함값으로 산출하고 제2 차이 이미지의 결함값 분포를 통해 검사 기준값을 산출하는 단계(S180) 및 검사 기준값을 기초로 검사 대상 농산물을 분류하는 단계(S180)를 포함할 수 있다.According to FIG. 12, the quality control method of a part based on the deep learning-based defect value distribution according to the present invention includes the steps of receiving a first image of a pre-selected good product and a second image of a pre-selected defective product ( S110), generating a first difference image based on the first image and the second image (S120), receiving a user input for a region of interest among the first difference images (S130), interest in the first difference image Generating a first enlarged image by enlarging the area (S140), selecting an image element judged to be defective among image elements constituting the first enlarged image according to the field worker's subjective quality discrimination criteria from the operator, and masking the operator Receiving an input (S150), masking the remaining image elements except for the image element selected by the masking input in the first enlarged image, leaving only the elements that the field worker considers important in determining the defect. A masked second difference image Generating (S160), taking the first image and the second image as inputs and outputting a second difference image so that the second deep neural network learns the correlation between the input and output data by deep learning (S170), the second difference Calculating the size of the remaining image elements of the image as a defect value and calculating an inspection reference value through the defect value distribution of the second difference image (S180), and classifying agricultural products to be inspected based on the inspection reference value (S180). can do.

본 발명에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질 관리 방법은 상술한 일 실시예에 따른 딥러닝 기반의 결함값 분포에 기초한 부품의 품질 관리 시스템의 컴퓨팅 장치에 의하여 수행되는 모든 과정을 포함할 수 있다. The method for controlling quality of parts based on the distribution of defect values based on deep learning according to the present invention includes all processes performed by the computing device of the system for managing quality of parts based on the distribution of deep learning based defect values according to the above-described embodiment. can include

도 13은 본 발명에 따른 S140 및 S150 단계를 나타낸 것이다. 13 shows steps S140 and S150 according to the present invention.

도 13에 따르면, 본 발명에 따른 S140 및 S150 단계는 현장 작업자로부터 관심 영역에 대한 정보를 수신하는 단계(S151), 관심 영역을 기초로 제1 차이 이미지를 확대하는 단계(S152), 확대된 이미지의 해상도를 업 스케일링하는 단계(S153) 및 업 스케일링된 확대 이미지를 기초로 현장 작업자로부터 마스킹 입력을 수신하는 단계(S154)를 포함할 수 있다. According to FIG. 13 , steps S140 and S150 according to the present invention include receiving information on a region of interest from a field worker (S151), enlarging a first difference image based on the region of interest (S152), and enlarging the image It may include up-scaling the resolution of (S153) and receiving a masking input from a field worker based on the up-scaled enlarged image (S154).

이상 상술한 각 단계들은 본 발명의 일 실시예에 따른 시스템에서 설명한 내용으로 자명하게 이해될 수 있으며, 그에 의하여 뒷받침될 수 있다. Each of the above-described steps can be clearly understood as the contents described in the system according to an embodiment of the present invention, and can be supported thereby.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 모델링하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 모델링되는 것도 포함한다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The above-described present invention can be modeled as a computer readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. , and also includes those modeled in the form of carrier waves (eg, transmission over the Internet). Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of this specification should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this specification are included in the scope of this specification.

앞에서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.Any or other embodiments of the present invention described above are not mutually exclusive or distinct. Certain or other embodiments of the present invention described above may be used in combination or combination of respective configurations or functions.

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

100: 카메라
200: 컴퓨팅 장치
100: camera
200: computing device

Claims (7)

딥러닝 기반의 결함값 분포에 기초한 부품의 품질 관리 시스템에 있어서,
상기 부품 중 미리 선별된 양품 및 미리 선별된 불량품을 각각 촬영하는 카메라; 및
상기 양품을 촬영한 제1 이미지 및 상기 불량품을 촬영한 제2 이미지를 상기 카메라로부터 수신하고, 상기 제1 이미지 및 상기 제2 이미지를 기초로 제1 차이 이미지를 생성하고, 현장 작업자의 주관적인 양품 판별 기준에 따라 상기 제1 차이 이미지에 대한 마스킹 입력을 수신하며, 상기 마스킹 입력을 기초로 상기 제1 차이 이미지를 마스크 처리하여 제2 차이 이미지를 생성하는 컴퓨팅 장치;를 포함하되,
상기 컴퓨팅 장치는,
상기 제1 이미지 및 상기 제2 이미지를 심층 신경망에 입력값으로 정의하고, 상기 제2 차이 이미지를 상기 심층 신경망의 출력값으로 정의하여 상기 심층 신경망을 딥러닝 학습시키고, 상기 제2 차이 이미지의 잔존 이미지 요소의 크기를 결함값으로 산출하고 상기 결함값의 분포를 통해 검사 기준값을 산출하며, 상기 검사 기준값을 기초로 상기 부품을 양품과 불량품으로 분류함으로써 품질을 관리하는 것인,
딥러닝 기반의 결함값 분포에 기초한 부품 품질 관리 시스템.
In the quality control system of parts based on deep learning-based defect value distribution,
a camera for photographing pre-selected good products and pre-selected defective products among the parts; and
A first image of the non-defective product and a second image of the defective product are received from the camera, a first difference image is generated based on the first image and the second image, and subjective determination of the non-defective product by field workers A computing device that receives a masking input for the first difference image according to a criterion and generates a second difference image by masking the first difference image based on the masking input,
The computing device,
The first image and the second image are defined as input values to the deep neural network, the second difference image is defined as an output value of the deep neural network, the deep neural network is subjected to deep learning training, and the residual image of the second difference image is defined. Calculating the size of the element as a defect value, calculating an inspection reference value through the distribution of the defect value, and classifying the parts into good and defective products based on the inspection reference value to manage quality,
Parts quality management system based on deep learning based defect value distribution.
제1항에 있어서,
상기 컴퓨팅 장치는,
상기 제1 차이 이미지를 확대한 제1 확대 이미지를 생성하고, 현장 작업자의 주관적인 양품 판별 기준에 따라 상기 제1 확대 이미지에 대한 마스킹 입력을 수신하는 것인,
딥러닝 기반의 결함값 분포에 기초한 부품 품질 관리 시스템.
According to claim 1,
The computing device,
Generating a first enlarged image obtained by enlarging the first difference image, and receiving a masking input for the first enlarged image according to a subjective good product discrimination criterion of a field worker,
Parts quality management system based on deep learning based defect value distribution.
제2항에 있어서,
상기 컴퓨팅 장치는,
현장 작업자로부터 관심 영역을 수신하고, 상기 관심 영역을 중심으로 상기 제1 확대 이미지를 생성하는 것인,
딥러닝 기반의 결함값 분포에 기초한 부품 품질 관리 시스템.
According to claim 2,
The computing device,
Receiving a region of interest from a field worker and generating the first enlarged image around the region of interest,
Parts quality management system based on deep learning based defect value distribution.
제1항에 있어서,
상기 카메라는,
상기 제1 이미지를 획득하는 카메라 모듈을 포함하고,
상기 카메라 모듈은,
측벽에 관통홀을 포함하는 하우징; 및
상기 관통홀에 설치된 렌즈;를 포함하는 것인,
딥러닝 기반의 결함값 분포에 기초한 부품 품질 관리 시스템.
According to claim 1,
the camera,
Including a camera module for acquiring the first image,
The camera module,
A housing including a through hole in a side wall; and
To include; a lens installed in the through hole,
Parts quality management system based on deep learning based defect value distribution.
제1항에 있어서,
상기 컴퓨팅 장치는,
상기 제1 이미지 및 상기 제2 이미지 중 적어도 하나의 이미지에 이미지 보정 필터를 적용하여 적어도 하나의 보정된 이미지를 생성하고, 상기 적어도 하나의 보정된 이미지를 기초로 상기 제1 차이 이미지를 생성하는 것인,
딥러닝 기반의 결함값 분포에 기초한 부품 품질 관리 시스템.
According to claim 1,
The computing device,
Generating at least one corrected image by applying an image correction filter to at least one of the first image and the second image, and generating the first difference image based on the at least one corrected image. sign,
Parts quality management system based on deep learning based defect value distribution.
딥러닝 기반의 결함값 분포에 기초한 부품의 품질 관리 방법에 있어서,
상기 부품 중 미리 선별된 양품을 촬영한 제1 이미지 및 상기 부품 중 미리 선별된 불량품을 촬영한 제2 이미지를 수신하는 단계;
상기 제1 이미지 및 상기 제2 이미지를 기초로 제1 차이 이미지를 생성하는 단계;
상기 제1 차이 이미지 중 관심 영역에 대한 사용자 입력을 수신하는 단계;
상기 제1 차이 이미지에서 상기 관심 영역을 확대한 제1 확대 이미지를 생성하는 단계;
작업자로부터 현장 작업자의 주관적인 양품 판별 기준에 따라 상기 제1 확대 이미지를 구성하는 이미지 요소들 중 불량으로 판단되는 이미지 요소를 선택받아 작업자의 마스킹 입력을 수신하는 단계;
상기 마스킹 입력에 의해 선택된 이미지 요소를 제외한 나머지 이미지 요소를 상기 제1 확대 이미지에서 마스크 처리하여 현장 작업자가 불량 판별에서 중요하게 생각하는 요소만을 남긴 마스크 처리된 제2 차이 이미지를 생성하는 단계;
상기 제1 이미지와 상기 제2 이미지를 입력으로 하고 상기 제2 차이 이미지를 출력하도록 하여 제2 심층 신경망이 입출력 데이터간 상관관계를 딥러닝 학습시키는 단계;
상기 제2 차이 이미지의 잔존 이미지 요소의 크기를 결함값으로 산출하고 상기 제2 차이 이미지의 결함값 분포를 통해 검사 기준값을 산출하는 단계; 및
상기 검사 기준값을 기초로 검사 대상 부품을 분류하는 단계;를 포함하는,
딥러닝 기반의 결함값 분포에 기초한 부품 품질 관리 방법.
In the quality control method of parts based on deep learning-based defect value distribution,
Receiving a first image in which good products selected in advance among the parts are photographed and a second image in which defective products selected in advance among the parts are photographed;
generating a first difference image based on the first image and the second image;
receiving a user input for a region of interest in the first difference image;
generating a first enlarged image obtained by enlarging the ROI from the first difference image;
receiving an operator's masking input by selecting an image element determined to be defective from among image elements constituting the first enlarged image according to subjective good product discrimination criteria of the operator;
Generating a masked second difference image in which only elements that a field worker considers important in determining defects are left by masking image elements other than the image elements selected by the masking input in the first enlarged image;
Deep learning a correlation between input and output data by a second deep neural network by using the first image and the second image as inputs and outputting the second difference image;
calculating a size of a remaining image element of the second difference image as a defect value and calculating an inspection reference value through a defect value distribution of the second difference image; and
Classifying parts to be inspected based on the inspection reference value; Including,
A part quality control method based on deep learning-based defect value distribution.
명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서,
상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 제6항의 방법을 수행하게 하는, 비일시적 컴퓨터 판독가능 매체.
A non-transitory computer readable medium storing instructions,
The instructions, when executed by a processor, cause the processor to perform the method of claim 6.
KR1020210072156A 2021-06-03 2021-06-03 System and method for quality management of parts based on distribution of combined values based on deep learning KR102592502B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210072156A KR102592502B1 (en) 2021-06-03 2021-06-03 System and method for quality management of parts based on distribution of combined values based on deep learning
PCT/KR2021/016237 WO2022255566A1 (en) 2021-06-03 2021-11-09 Deep-learning-based method for managing quality of target, and system using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210072156A KR102592502B1 (en) 2021-06-03 2021-06-03 System and method for quality management of parts based on distribution of combined values based on deep learning

Publications (2)

Publication Number Publication Date
KR20220163694A true KR20220163694A (en) 2022-12-12
KR102592502B1 KR102592502B1 (en) 2023-10-20

Family

ID=84391687

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210072156A KR102592502B1 (en) 2021-06-03 2021-06-03 System and method for quality management of parts based on distribution of combined values based on deep learning

Country Status (1)

Country Link
KR (1) KR102592502B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100907058B1 (en) 2007-12-14 2009-07-09 현대자동차주식회사 System and method for weld quality assessment system of arc welding
KR20190075707A (en) * 2017-12-21 2019-07-01 동의대학교 산학협력단 Method for sorting products using deep learning
KR102097120B1 (en) * 2018-12-31 2020-04-09 주식회사 애자일소다 System and method for automatically determining the degree of breakdown by vehicle section based on deep running
KR20210057518A (en) * 2019-11-12 2021-05-21 라온피플 주식회사 Apparatus and method for generating a defect image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100907058B1 (en) 2007-12-14 2009-07-09 현대자동차주식회사 System and method for weld quality assessment system of arc welding
KR20190075707A (en) * 2017-12-21 2019-07-01 동의대학교 산학협력단 Method for sorting products using deep learning
KR102097120B1 (en) * 2018-12-31 2020-04-09 주식회사 애자일소다 System and method for automatically determining the degree of breakdown by vehicle section based on deep running
KR20210057518A (en) * 2019-11-12 2021-05-21 라온피플 주식회사 Apparatus and method for generating a defect image

Also Published As

Publication number Publication date
KR102592502B1 (en) 2023-10-20

Similar Documents

Publication Publication Date Title
JP6794737B2 (en) Information processing equipment, information processing methods, programs and inspection systems
CN108648169B (en) Method and device for automatically identifying defects of high-voltage power transmission tower insulator
US11216932B1 (en) Electronic substrate defect detection
JP5198476B2 (en) Method for determining focus position and vision inspection system
CN105900418B (en) The system, apparatus and method of the quality evaluation of OLED stack film
CN105588840B (en) A kind of electronic units fix method and device
CN109859171A (en) A kind of flooring defect automatic testing method based on computer vision and deep learning
KR102521386B1 (en) Dimension measuring device, dimension measuring method, and semiconductor manufacturing system
CN110675368A (en) Cell image semantic segmentation method integrating image segmentation and classification
JP2012032369A (en) Defect identification method, defect identification apparatus, program, and recording medium
US20170178341A1 (en) Single Parameter Segmentation of Images
JP2020197797A (en) Image processing device and image processing method
CN113920096A (en) Method for detecting metal packaging defects of integrated circuit
JP2016191589A (en) Defect classification device defect classification method
CN114417993A (en) Scratch detection method based on deep convolutional neural network and image segmentation
Tomaszewski et al. Detection of power line insulators on digital images with the use of laser spots
SE534089C2 (en) Procedure for classifying image information
Wang et al. Local defect detection and print quality assessment
KR102523770B1 (en) Machine vision-based quality management system and method for electric parts using deep learning
KR102592502B1 (en) System and method for quality management of parts based on distribution of combined values based on deep learning
KR102524374B1 (en) Automatic classification method and system of agricultural products using image analysis model
KR102524453B1 (en) Method and system for measuring quality of seafood products using ai
CN115690204A (en) Hole site measuring method, device, equipment and medium for manufactured part
CN112419370A (en) 3D printer track detection method based on improved three-frame difference
Milecki et al. The application of a vision system to detect trajectory points for soldering robot programming

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant