KR102658868B1 - Deep Learning System and its Control Method Applicable for Quality Inspection by Learning Only Non-Defective Manufactured Product Data - Google Patents

Deep Learning System and its Control Method Applicable for Quality Inspection by Learning Only Non-Defective Manufactured Product Data Download PDF

Info

Publication number
KR102658868B1
KR102658868B1 KR1020230109144A KR20230109144A KR102658868B1 KR 102658868 B1 KR102658868 B1 KR 102658868B1 KR 1020230109144 A KR1020230109144 A KR 1020230109144A KR 20230109144 A KR20230109144 A KR 20230109144A KR 102658868 B1 KR102658868 B1 KR 102658868B1
Authority
KR
South Korea
Prior art keywords
image
features
good
control unit
defective product
Prior art date
Application number
KR1020230109144A
Other languages
Korean (ko)
Inventor
정하일
박정윤
탕칭
박정현
Original Assignee
주식회사 인터엑스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인터엑스 filed Critical 주식회사 인터엑스
Priority to KR1020230109144A priority Critical patent/KR102658868B1/en
Application granted granted Critical
Publication of KR102658868B1 publication Critical patent/KR102658868B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 다른 일 양상인 양품 데이터 학습 딥러닝 기반 품질검사 시스템은, 양품 이미지 데이터 셋 (set)을 입력 받는 입력부; 상기 이미지 데이터 셋 내에 포함된 복수의 이미지 각각에 대해, 상기 각각의 이미지 내에서 특정 위치의 영역만 잘라 처리하는 크랍 (crop) 작업을 적용하지 않고, 원하는 크기로 상기 각각의 이미지를 조정하는 리사이징 (resizing) 작업 및 상기 각각의 이미지의 비율을 그대로 유지한 채 이미지 크기를 조정하는 패딩 (padding) 작업을 적용하여, 동일한 크기의 이미지를 모델이 학습할 수 있도록 전처리하는 전처리부; 상기 전처리된 이미지로부터 양품 기준이 되는 양품 특징을 추출하고, 상기 추출한 양품 특징에 가우시안 노이즈 특징을 추가하여 복수의 가짜 (fake) 불량품 특징을 생성하는 제어부; 및 상기 제어부로부터 수신한 상기 양품 이미지 데이터 셋 (set), 상기 추출한 양품 특징 및 상기 복수의 가짜 (fake) 불량품 특징 중 적어도 일부를 기초로 학습하는 판별자(Discriminator);를 포함할 수 있다.Another aspect of the present invention is a deep learning-based quality inspection system for learning non-defective product data, which includes an input unit that receives a non-defective product image data set; For each of the plurality of images included in the image data set, resizing (adjusting each image to a desired size without applying a cropping operation that cuts out and processes only an area at a specific location within each image) A preprocessor that preprocesses images of the same size so that the model can learn them by applying a resizing operation and a padding operation that adjusts the image size while maintaining the ratio of each image; a control unit that extracts good product features that serve as a standard for good products from the preprocessed image and adds Gaussian noise features to the extracted good product features to generate a plurality of fake defective product features; and a discriminator that learns based on at least some of the non-defective product image data set received from the control unit, the extracted non-defective product features, and the plurality of fake defective product features.

Description

제조 양품 데이터만 학습하여 품질검사에 적용가능한 딥러닝 시스템 및 그 제어방법 {Deep Learning System and its Control Method Applicable for Quality Inspection by Learning Only Non-Defective Manufactured Product Data}Deep Learning System and its Control Method Applicable for Quality Inspection by Learning Only Non-Defective Manufactured Product Data}

본 발명은 다양한 제조분야 중 사출공정에서의 핵심 작업인 제품 품질 검사에서 정확하고 신뢰할 수 있는 제조 양품 데이터만 학습하여 품질검사에 적용가능한 딥러닝 시스템 및 그 제어방법에 관한 것이다The present invention relates to a deep learning system and its control method that can be applied to quality inspection by learning only accurate and reliable manufacturing good data in product quality inspection, which is a core task in the injection process among various manufacturing fields.

일반적으로 공정환경이 복잡하고, 수집되는 이미지가 선명하지 않아 모델학습을 위해서는 선명한 이미지가 필요하고, 이미지 품질분석과 필터링이 모델 학습 전 선행되어야 한다.In general, the process environment is complex and the collected images are not clear, so clear images are required for model learning, and image quality analysis and filtering must precede model learning.

이때, 이미지 분류 AI (인공지능) 방식은 많은 양의 학습용 양품, 불량 데이터가 필요하지만, 실제 공정에서는 불량률이 낮기 때문에 다량의 불량 데이터를 수집하는 것이 어렵기 때문에 제조업에서 표면검사 AI 적용 사례가 현저히 적다는 문제점이 있다.At this time, the image classification AI (artificial intelligence) method requires a large amount of good and defective data for learning, but since the defect rate is low in the actual process, it is difficult to collect a large amount of defective data, so there are significantly fewer cases of surface inspection AI application in the manufacturing industry. There is a problem with it being small.

또한, 종래 방식에 따르면 제조현장에서 분류한 기준이 잘못 적용됨에 따라 AI 정확도가 불안정하여 현장 적용에 어려움이 있었다.In addition, according to the conventional method, AI accuracy was unstable as the classification criteria at the manufacturing site were applied incorrectly, making field application difficult.

나아가 종래기술에 따르면 검출한 불량마다 크기, 길이, 색상 등이 유형에 따라 달라 모든 설비에 대한 하나의 기준을 정하고 네트워크를 훈련시키는 것이 어렵다는 문제점이 있었다.Furthermore, according to the prior art, the size, length, color, etc. of each detected defect differed depending on the type, so there was a problem that it was difficult to set a single standard for all facilities and train the network.

따라서 제품 표면에 나타나는 다양한 불량 유형들을 사전에 학습할 필요가 없는 AI로 누구나 쉽게 사용하고, 라벨링을 필수로 요구하지 않아 급변하는 제조환경에 빠르게 적용 가능한 시스템 및 방법에 대한 니즈가 높아지고 있는 실정이다.Therefore, there is a growing need for systems and methods that can be easily used by anyone with AI that does not require prior learning of the various types of defects that appear on the product surface, and that can be quickly applied to a rapidly changing manufacturing environment because labeling is not required.

대한민국 특허청 등록번호 제10-2343272호Republic of Korea Intellectual Property Office Registration No. 10-2343272 대한민국 특허청 출원번호 제10-2021-0072282호Republic of Korea Intellectual Property Office Application No. 10-2021-0072282

본 발명은 종래기술의 문제점을 해소하기 위해, 다양한 제조분야 중 사출공정에서의 핵심 작업인 제품 품질 검사에서 정확하고 신뢰할 수 있는 제조 양품 데이터만 학습하여 품질검사에 적용가능한 딥러닝 시스템 및 그 제어방법을 제안하고자 한다.In order to solve the problems of the prior art, the present invention is a deep learning system and a control method applicable to quality inspection by learning only accurate and reliable manufacturing good data in product quality inspection, which is a core task in the injection process among various manufacturing fields. I would like to propose.

실제 제조 공정은 불량률이 낮아 다량의 불량 데이터를 수집하는 것이 어렵기 때문에, 본 발명에서 개발한 쉽게 수집이 가능한 양품 이미지만을 이용하여 불량을 검사하는 시스템 및 그 제어방법을 제안하고자 한다.Since the actual manufacturing process has a low defect rate and it is difficult to collect a large amount of defect data, we would like to propose a system and a control method for inspecting defects using only images of good products that can be easily collected developed in the present invention.

또한, 실제 제조업 이미지 특성을 고려하여, 가장자리에 위치한 결함을 탐지하지 못하는 것을 피하기 위해, 본 발명은 불량 샘플 증강을 위해서 최신 기법을 이용하여 전처리를 수행하는 시스템 및 그 제어방법을 제안하고자 한다.In addition, in consideration of actual manufacturing image characteristics and to avoid failure to detect defects located at the edges, the present invention proposes a system and a control method that performs preprocessing using the latest techniques to enhance defective samples.

또한, 본 발명에서는 양품 샘플에 가우시안 표준편차를 노이즈로 추가하여 가짜 불량 특징을 증강하는 방법을 제안하고, 딥러닝 기반 품질검사 기술의 현장 적용 안정화를 위해 모델 아키텍처와 손실함수를 적용하여 수정하는 시스템 및 그 제어방법을 제안하고자 한다.In addition, the present invention proposes a method of augmenting fake defect features by adding Gaussian standard deviation as noise to non-defective samples, and a system that applies model architecture and loss function to modify the system to stabilize field application of deep learning-based quality inspection technology. and its control method.

현재까지 개발된 대부분의 사출공정 표면 검사 AI와는 다르게 양품 이미지만을 사용하여 제품 품질 검사의 전체 파이프라인을 공장 환경과 실제 제품 생산공정의 특성을 고려한 방법 및 시스템을 통해 기존 보편적으로 활용되는 방법인 양품/불량 분류 방법론보다 우수한 성능을 사용자에게 제공하고자 한다.Unlike most injection process surface inspection AIs developed to date, it uses only images of good products to conduct the entire product quality inspection pipeline through a method and system that takes into account the characteristics of the factory environment and the actual product production process. /We aim to provide users with superior performance than defect classification methodologies.

또한, 본 발명에는 이미지에 대한 품질 분석, 양품 이미지에 대한 학습, 사출공정 제품에 대한 측정 방법 설계 등을 포함하며, 이러한 딥러닝 기반의 사출공정 제품 품질 검사 기술은 실제 사출공정 환경에서 불량을 잘 검출하지 못하는 등의 문제를 최소화할 수 있으며, 타 제조분야에도 확대 적용하고자 한다.In addition, the present invention includes quality analysis of images, learning of non-defective images, and design of measurement methods for injection process products. This deep learning-based injection process product quality inspection technology is capable of detecting defects in an actual injection process environment. Problems such as failure to detect can be minimized, and we plan to expand its application to other manufacturing fields.

또한, 본 발명은 딥러닝 기반 품질검사 기술의 현장 적용 안정화를 위해 모델 아키텍처와 손실함수를 수정하고자 한다.In addition, the present invention seeks to modify the model architecture and loss function to stabilize field application of deep learning-based quality inspection technology.

또한, 본 발명은 각 공장마다 양품판정 기준이 달라서 현장 적용에 어려움이 있어 불량 측정 단계에 AI기술이나 훈련을 추가하지 않고 결함 검사를 최종판단으로 사용하고자 한다.In addition, the present invention is difficult to apply in the field because each factory has different standards for determining good quality, so it is intended to use defect inspection as the final judgment without adding AI technology or training to the defect measurement stage.

또한, 본 발명이 제안하는 사출공정에 적용 가능한 딥러닝 기반 품질검사 기술은 이미 양품 이미지로 학습된 인공지능이기 때문에 사용자들이 별도로 학습용 데이터를 구축할 필요가 없으며, 다품종 소량생산 등 제조 현장에서도 빠르게 적용되도록 하고자 한다.In addition, the deep learning-based quality inspection technology applicable to the injection process proposed by the present invention is artificial intelligence that has already been learned from images of good products, so users do not need to build separate learning data, and it can be quickly applied at manufacturing sites such as small quantity production of multiple products. We want to make it possible.

한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Meanwhile, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly apparent to those skilled in the art from the description below. It will be understandable.

상기의 기술적 과제를 달성하기 위한 본 발명의 일 양상인 양품 데이터 학습 딥러닝 기반 품질검사 방법은, 입력부가 양품 이미지 데이터 셋 (set)을 입력 받는 제 1 단계; 전처리부가 상기 이미지 데이터 셋 내에 포함된 복수의 이미지 각각에 대해, 상기 각각의 이미지 내에서 특정 위치의 영역만 잘라 처리하는 크랍 (crop) 작업을 적용하지 않고, 원하는 크기로 상기 각각의 이미지를 조정하는 리사이징 (resizing) 작업 및 상기 각각의 이미지의 비율을 그대로 유지한 채 이미지 크기를 조정하는 패딩 (padding) 작업을 적용하여, 동일한 크기의 이미지를 모델이 학습할 수 있도록 전처리하는 제 2 단계; 제어부가 상기 전처리된 이미지로부터 양품 기준이 되는 양품 특징을 추출하는 제 3 단계; 상기 제어부가 상기 추출한 양품 특징에 가우시안 노이즈 특징을 추가하여 복수의 가짜 (fake) 불량품 특징을 생성하는 제 4 단계; 판별자(Discriminator)가 상기 제어부로부터 수신한 상기 양품 이미지 데이터 셋 (set), 상기 추출한 양품 특징 및 상기 복수의 가짜 (fake) 불량품 특징 중 적어도 일부를 기초로 학습하는 제 5 단계; 상기 입력부가 실제 이미지를 입력 받는 제 6 단계; 상기 전처리부가 특징 추출을 위해, 상기 실제 이미지에 대해 상기 리사이징 및 패딩 작업 중 적어도 하나를 적용하여 전처리 하는 제 7 단계; 상기 제어부가 상기 전처리된 실제 이미지로부터 실제 특징을 추출하는 제 8 단계; 및 상기 판별자가 상기 제 5 단계에서 학습된 내용을 기초로, 상기 추출한 실제 특징을 통해 상기 실제 이미지 상의 객체가 양품인지 아니면 불량품인지 여부를 판단하는 제 9 단계;를 포함할 수 있다.A deep learning-based quality inspection method for learning non-defective product data, which is an aspect of the present invention to achieve the above technical problem, includes a first step in which an input unit receives a non-defective product image data set; The pre-processing unit adjusts each image to a desired size without applying a cropping operation to each of the plurality of images included in the image data set by cutting and processing only an area at a specific location within each image. A second step of preprocessing images of the same size so that the model can learn them by applying a resizing operation and a padding operation to adjust the image size while maintaining the ratio of each image; A third step in which the control unit extracts features of good products that serve as standards for good products from the preprocessed image; A fourth step in which the control unit generates a plurality of fake defective product features by adding Gaussian noise features to the extracted good product features; A fifth step in which a discriminator learns based on at least some of the non-defective product image data set received from the control unit, the extracted non-defective product features, and the plurality of fake defective product features; A sixth step in which the input unit receives an actual image; A seventh step in which the preprocessing unit preprocesses the actual image by applying at least one of the resizing and padding operations to extract features; An eighth step in which the control unit extracts actual features from the preprocessed actual image; and a ninth step in which the discriminator determines whether the object on the actual image is a good product or a defective product through the extracted actual features, based on the content learned in the fifth step.

또한, 상기 제 3 단계에서 상기 제어부는, 복수의 데이터 상에서 복수의 스케일의 특징 추출이 가능한 백본 네트워크에 상기 전처리된 이미지를 입력하고, 미리 지정된 복수의 단계의 출력의 결과물들을 합쳐 상기 양품 특징을 추출할 수 있다.In addition, in the third step, the control unit inputs the preprocessed image to a backbone network capable of extracting features at multiple scales from multiple data, and extracts the features of the good product by combining the results of the outputs of a plurality of predetermined steps. can do.

또한, 상기 제 3 단계에서 상기 제어부는, 상기 백본 네트워크의 두 번째 출력 결과물과 세 번째 출력 결과물에 대해 평균 풀링 (average pooling) 연산을 적용하고, 상기 연산된 복수의 결과물들을 합쳐 상기 양품 특징을 추출할 수 있다.In addition, in the third step, the control unit applies an average pooling operation to the second output result and the third output result of the backbone network and extracts the good product characteristics by combining the plurality of calculated results. can do.

또한, 상기 제 4 단계에서 상기 제어부는, 상기 추출한 양품 특징에 상기 가우시안 노이즈 특징을 표준 편차에서 무작위로 선택하여 추가함으로써 상기 복수의 가짜 (fake) 불량품 특징을 증강할 수 있다.Additionally, in the fourth step, the control unit may augment the plurality of fake defective product features by randomly selecting and adding the Gaussian noise feature from the standard deviation to the extracted non-defective product features.

또한, 상기 제 5 단계에서 상기 판별자는, 상기 모델이 미리 설정된 개수 이하의 적은 샘플에 집중하여 학습할 수 있도록 가중치를 조절하는 손실 함수인 hardness-aware soft cross entropy를 사용해 학습할 수 있다.Additionally, in the fifth step, the discriminator can be learned using hardness-aware soft cross entropy, a loss function that adjusts weights so that the model can focus and learn on a small number of samples less than a preset number.

또한, 상기 복수의 가짜 (fake) 불량품 특징은, 숏 샷 (Short shot), 플래시 (Flash), 싱크 마크 (Sink mark), 은색 줄무늬 결함 (Silver streak), 클라우디 표면 (Cloudy surface), 용접선 결함 (Weldline), 보이드 (Void), 표면균열 / 균열 (Crazing / Cracking) 및 층간 분리 (Delamination)를 포함할 수 있다.In addition, the characteristics of the plurality of fake defective products include short shots, flash, sink marks, silver streak defects, cloudy surface, and weld line defects. It may include Weldline, Void, Surface Crazing/Cracking and Delamination.

한편, 상기의 기술적 과제를 달성하기 위한 본 발명의 다른 일 양상인 양품 데이터 학습 딥러닝 기반 품질검사 시스템은, 양품 이미지 데이터 셋 (set)을 입력 받는 입력부; 상기 이미지 데이터 셋 내에 포함된 복수의 이미지 각각에 대해, 상기 각각의 이미지 내에서 특정 위치의 영역만 잘라 처리하는 크랍 (crop) 작업을 적용하지 않고, 원하는 크기로 상기 각각의 이미지를 조정하는 리사이징 (resizing) 작업 및 상기 각각의 이미지의 비율을 그대로 유지한 채 이미지 크기를 조정하는 패딩 (padding) 작업을 적용하여, 동일한 크기의 이미지를 모델이 학습할 수 있도록 전처리하는 전처리부; 상기 전처리된 이미지로부터 양품 기준이 되는 양품 특징을 추출하고, 상기 추출한 양품 특징에 가우시안 노이즈 특징을 추가하여 복수의 가짜 (fake) 불량품 특징을 생성하는 제어부; 및 상기 제어부로부터 수신한 상기 양품 이미지 데이터 셋 (set), 상기 추출한 양품 특징 및 상기 복수의 가짜 (fake) 불량품 특징 중 적어도 일부를 기초로 학습하는 판별자(Discriminator);를 포함하고, 상기 입력부가 실제 이미지를 입력 받는 경우, 상기 전처리부가 특징 추출을 위해, 상기 실제 이미지에 대해 상기 리사이징 및 패딩 작업 중 적어도 하나를 적용하여 전처리 하고, 상기 제어부가 상기 전처리된 실제 이미지로부터 실제 특징을 추출하며, 상기 판별자가 상기 제 5 단계에서 학습된 내용을 기초로, 상기 추출한 실제 특징을 통해 상기 실제 이미지 상의 객체가 양품인지 아니면 불량품인지 여부를 판단할 수 있다.Meanwhile, another aspect of the present invention for achieving the above-described technical problem is a quality inspection system based on deep learning for learning from good product data, including an input unit that receives a good product image data set; For each of the plurality of images included in the image data set, resizing (adjusting each image to a desired size without applying a cropping operation that cuts out and processes only an area at a specific location within each image) A preprocessor that preprocesses images of the same size so that the model can learn them by applying a resizing operation and a padding operation that adjusts the image size while maintaining the ratio of each image; a control unit that extracts good product features that serve as a standard for good products from the preprocessed image and adds Gaussian noise features to the extracted good product features to generate a plurality of fake defective product features; And a discriminator that learns based on at least some of the non-defective product image data set received from the control unit, the extracted non-defective product features, and the plurality of fake defective product features, wherein the input unit When receiving a real image, the preprocessor preprocesses the real image by applying at least one of the resizing and padding operations to extract features, and the control unit extracts real features from the preprocessed real image, and Based on the content learned in the fifth step, the discriminator can determine whether the object on the actual image is a good product or a defective product through the extracted actual features.

또한, 상기 제어부는, 복수의 데이터 상에서 복수의 스케일의 특징 추출이 가능한 백본 네트워크에 상기 전처리된 이미지를 입력하고, 상기 백본 네트워크의 두 번째 출력 결과물과 세 번째 출력 결과물에 대해 평균 풀링 (average pooling) 연산을 적용하며, 상기 연산된 복수의 결과물들을 합쳐 상기 양품 특징을 추출할 수 있다.In addition, the control unit inputs the preprocessed image to a backbone network capable of extracting features at multiple scales from multiple data, and performs average pooling on the second and third output results of the backbone network. By applying the calculation, the characteristics of the good product can be extracted by combining the plurality of calculated results.

또한, 상기 제어부는, 상기 추출한 양품 특징에 상기 가우시안 노이즈 특징을 표준 편차에서 무작위로 선택하여 추가함으로써 상기 복수의 가짜 (fake) 불량품 특징을 증강할 수 있다.Additionally, the control unit may augment the plurality of fake defective product features by randomly selecting and adding the Gaussian noise feature from the standard deviation to the extracted non-defective product features.

또한, 상기 판별자는, 상기 모델이 미리 설정된 개수 이하의 적은 샘플에 집중하여 학습할 수 있도록 가중치를 조절하는 손실 함수인 hardness-aware soft cross entropy를 사용해 학습할 수 있다.Additionally, the discriminator can be learned using hardness-aware soft cross entropy, a loss function that adjusts weights so that the model can focus and learn on a small number of samples less than a preset number.

본 발명에 따른 “Hardness-aware Soft Cross Entropy”는 딥러닝 모델의 손실 함수 중 하나로서, 주로 불균형한 클래스 분포를 가진 데이터셋에서 분류 작업을 수행할 때 사용되는 방법이다. 이 방법은 모델이 더 어려운 샘플들에 더 집중하도록 유도하여 전체적인 성능을 향상시킬 수 있도록 설계되어 활용될 수 있다.“Hardness-aware Soft Cross Entropy” according to the present invention is one of the loss functions of a deep learning model and is a method mainly used when performing classification tasks in datasets with unbalanced class distribution. This method can be designed and used to improve overall performance by encouraging the model to focus more on more difficult samples.

본 발명은 종래기술의 문제점을 해소하기 위해, 다양한 제조분야 중 사출공정에서의 핵심 작업인 제품 품질 검사에서 정확하고 신뢰할 수 있는 제조 양품 데이터만 학습하여 품질검사에 적용가능한 딥러닝 시스템 및 그 제어방법을 제공할 수 있다.In order to solve the problems of the prior art, the present invention is a deep learning system and a control method applicable to quality inspection by learning only accurate and reliable manufacturing good data in product quality inspection, which is a core task in the injection process among various manufacturing fields. can be provided.

실제 제조 공정은 불량률이 낮아 다량의 불량 데이터를 수집하는 것이 어렵기 때문에, 본 발명에서 개발한 쉽게 수집이 가능한 양품 이미지만을 이용하여 불량을 검사하는 시스템 및 그 제어방법을 제공할 수 있다.Since the actual manufacturing process has a low defect rate and it is difficult to collect a large amount of defect data, it is possible to provide a system and a control method for inspecting defects using only images of good products that can be easily collected developed by the present invention.

또한, 실제 제조업 이미지 특성을 고려하여, 가장자리에 위치한 결함을 탐지하지 못하는 것을 피하기 위해, 본 발명은 불량 샘플 증강을 위해서 최신 기법을 이용하여 전처리를 수행하는 시스템 및 그 제어방법을 제공할 수 있다.In addition, in consideration of actual manufacturing image characteristics, to avoid failing to detect defects located at the edges, the present invention can provide a system and a control method for performing preprocessing using the latest techniques to enhance defective samples.

또한, 본 발명에서는 양품 샘플에 가우시안 표준편차를 노이즈로 추가하여 가짜 불량 특징을 증강하는 방법을 제안하고, 딥러닝 기반 품질검사 기술의 현장 적용 안정화를 위해 모델 아키텍처와 손실함수를 적용하여 수정하는 시스템 및 그 제어방법을 제공할 수 있다.In addition, the present invention proposes a method of augmenting fake defect features by adding Gaussian standard deviation as noise to non-defective samples, and a system that applies model architecture and loss function to modify the system to stabilize field application of deep learning-based quality inspection technology. and its control method can be provided.

본 발명은 현재까지 개발된 대부분의 사출공정 표면 검사 AI와는 다르게 양품 이미지만을 사용하여 제품 품질 검사의 전체 파이프라인을 공장 환경과 실제 제품 생산공정의 특성을 고려한 방법 및 시스템을 통해 기존 보편적으로 활용되는 방법인 양품/불량 분류 방법론보다 우수한 성능을 사용자에게 제공할 수 있다.Unlike most injection process surface inspection AIs developed to date, the present invention uses only images of good products to conduct the entire product quality inspection pipeline through methods and systems that take into account the characteristics of the factory environment and the actual product production process. It can provide users with superior performance than the good/defective classification method.

또한, 본 발명에는 이미지에 대한 품질 분석, 양품 이미지에 대한 학습, 사출공정 제품에 대한 측정 방법 설계 등을 포함하며, 이러한 딥러닝 기반의 사출공정 제품 품질 검사 기술은 실제 사출공정 환경에서 불량을 잘 검출하지 못하는 등의 문제를 최소화할 수 있으며, 타 제조분야에도 확대 적용 가능하다.In addition, the present invention includes quality analysis of images, learning of non-defective images, and design of measurement methods for injection process products. This deep learning-based injection process product quality inspection technology is capable of detecting defects in an actual injection process environment. Problems such as failure to detect can be minimized, and can be expanded to other manufacturing fields.

또한, 본 발명은 딥러닝 기반 품질검사 기술의 현장 적용 안정화를 위해 모델 아키텍처와 손실함수를 수정할 수 있다.Additionally, the present invention can modify the model architecture and loss function to stabilize field application of deep learning-based quality inspection technology.

또한, 본 발명은 각 공장마다 양품판정 기준이 달라서 현장 적용에 어려움이 있어 불량 측정 단계에 AI기술이나 훈련을 추가하지 않고 결함 검사를 최종판단으로 사용할 수 있다.In addition, the present invention is difficult to apply in the field because each factory has different standards for determining good quality, so defect inspection can be used as the final judgment without adding AI technology or training to the defect measurement stage.

또한, 본 발명이 제안하는 사출공정에 적용 가능한 딥러닝 기반 품질검사 기술은 이미 양품 이미지로 학습된 인공지능이기 때문에 사용자들이 별도로 학습용 데이터를 구축할 필요가 없으며, 다품종 소량생산 등 제조 현장에서도 빠르게 적용될 수 있다.In addition, the deep learning-based quality inspection technology applicable to the injection process proposed by the present invention is artificial intelligence that has already been learned from images of good products, so users do not need to build separate learning data, and it can be quickly applied at manufacturing sites such as small quantity production of multiple products. You can.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Meanwhile, the effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

도 1은 본 발명이 제안하는 딥러닝 기반 품질검사 시스템의 블록 구성도를 도시한 것이다.
도 2는 본 발명과 관련된 이미지 전처리 과정을 설명하기 위한 도면이다.
도 3은 본 발명과 관련된 사출공정 불량 영역 검출 AI 모델 절차의 일례를 도시한 것이다.
도 4는 본 발명과 관련하여 사출공정 품질검사 파이프라인의 순서도 일례를 도시한 것이다
도 5는 본 발명과 관련된 불량 유형의 일례를 도시한 것이다.
Figure 1 shows a block diagram of the deep learning-based quality inspection system proposed by the present invention.
Figure 2 is a diagram for explaining an image pre-processing process related to the present invention.
Figure 3 shows an example of an AI model procedure for detecting defective areas in the injection process related to the present invention.
Figure 4 shows an example flow chart of the injection process quality inspection pipeline in relation to the present invention.
Figure 5 shows an example of a defect type related to the present invention.

이하, 도면을 참조하여 본 발명의 바람직한 일 실시례에 대해서 설명한다. 또한, 이하에 설명하는 실시례는 특허청구범위에 기재된 본 발명의 내용을 부당하게 한정하지 않으며, 본 실시 형태에서 설명되는 구성 전체가 본 발명의 해결 수단으로서 필수적이라고는 할 수 없다.Hereinafter, a preferred embodiment of the present invention will be described with reference to the drawings. In addition, the embodiments described below do not unduly limit the content of the present invention described in the claims, and it cannot be said that all of the configurations described in the present embodiments are essential as a solution to the present invention.

딥러닝 기반 품질검사 시스템Deep learning-based quality inspection system

도 1은 본 발명이 제안하는 사출공정에 적용 가능한 딥러닝 기반 품질검사 시스템의 블록 구성도를 도시한 것이다.Figure 1 shows a block diagram of a deep learning-based quality inspection system applicable to the injection process proposed by the present invention.

도 1을 참조하면, 본 발명에 따른 품질검사 시스템(100)은 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. Referring to Figure 1, the quality inspection system 100 according to the present invention includes a wireless communication unit 110, an A/V (Audio/Video) input unit 120, a user input unit 130, a sensing unit 140, and an output unit. It may include 150, memory 160, interface unit 170, control unit 180, and power supply unit 190.

단, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 품질검사 시스템이 구현될 수도 있다.However, since the components shown in FIG. 1 are not essential, a quality inspection system may be implemented with more or fewer components.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Below, we look at the above components in turn.

무선 통신부(110)는 품질검사 시스템과 무선 통신 시스템 사이 또는 품질검사 시스템과 품질검사 시스템이 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules that enable wireless communication between a quality inspection system and a wireless communication system or between a quality inspection system and a network where the quality inspection system is located. For example, the wireless communication unit 110 may include a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast reception module 111 receives broadcast signals and/or broadcast-related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 품질검사 시스템이기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channels may include satellite channels and terrestrial channels. The broadcast management server may refer to a server that generates and transmits broadcast signals and/or broadcast-related information, or a server that receives previously generated broadcast signals and/or broadcast-related information and transmits them as a quality inspection system. The broadcast signal not only includes a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but may also include a broadcast signal in the form of a TV broadcast signal or a radio broadcast signal combined with a data broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information may mean information related to a broadcast channel, broadcast program, or broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it can be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, it may exist in the form of an Electronic Program Guide (EPG) for Digital Multimedia Broadcasting (DMB) or an Electronic Service Guide (ESG) for Digital Video Broadcast-Handheld (DVB-H).

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.Broadcast signals and/or broadcast-related information received through the broadcast reception module 111 may be stored in the memory 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 품질검사 시스템, 서버 중 적어도 하나와 무선 신호를 송수신한다. The mobile communication module 112 transmits and receives wireless signals with at least one of a base station, an external quality inspection system, and a server on a mobile communication network.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 품질검사 시스템에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 refers to a module for wireless Internet access and may be built into or external to the quality inspection system. Wireless Internet technologies include Wireless LAN (WLAN) (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), and High Speed Downlink Packet Access (HSDPA).

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra-Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Short range communication technologies include Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra-Wideband (UWB), and ZigBee.

위치정보 모듈(115)은 품질검사 시스템의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The location information module 115 is a module for acquiring the location of the quality inspection system, and a representative example thereof is the Global Position System (GPS) module.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. Referring to FIG. 1, the A/V (Audio/Video) input unit 120 is for inputting audio or video signals, and may include a camera 121, a microphone 122, etc.

카메라(121)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.The camera 121 processes image frames, such as still images or moving images, obtained by an image sensor in shooting mode. The processed image frame may be displayed on the display unit 151.

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. Image frames processed by the camera 121 may be stored in the memory 160 or transmitted externally through the wireless communication unit 110.

카메라(121)는 사용 환경에 따라 복수로 이용된다.The cameras 121 are used in multiple numbers depending on the usage environment.

마이크(122)는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives external sound signals through a microphone in recording mode, voice recognition mode, etc., and processes them into electrical voice data. The processed voice data can be converted into a form that can be transmitted to a mobile communication base station through the mobile communication module 112 and output. Various noise removal algorithms may be implemented in the microphone 122 to remove noise generated in the process of receiving an external acoustic signal.

사용자 입력부(130)는 사용자가 품질검사 시스템이기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. The user input unit 130 generates input data for the user to control the operation of the quality inspection system. The user input unit 130 may be composed of a key pad, a dome switch, a touch pad (static pressure/electrostatic), a jog wheel, a jog switch, etc.

본 발명에서는 사용자 입력부 (130)를 통해 사용자가 양품 이미지 데이터셋 (set)을 입력할 수 있다.In the present invention, a user can input a non-defective image data set through the user input unit 130.

물론 양품 이미지는 사용자로부터 입력받는 경우 이외에도 다른 시스템으로부터 자동으로 기계학습 처리된 양품 이미지 결과물에 대한 정보가 자동으로 입력되는 것도 가능하다.Of course, in addition to receiving images of good products from the user, it is also possible to automatically input information about the result of images of good products that have been automatically machine-learned from another system.

센싱부(140)는 품질검사 시스템의 개폐 상태, 품질검사 시스템의 위치, 사용자 접촉 유무, 품질검사 시스템의 방위, 품질검사 시스템의 가속/감속 등과 같이 품질검사 시스템의 현 상태를 감지하여 품질검사 시스템의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. The sensing unit 140 detects the current state of the quality inspection system, such as the open/closed state of the quality inspection system, the location of the quality inspection system, the presence or absence of user contact, the direction of the quality inspection system, and the acceleration/deceleration of the quality inspection system, and monitors the quality inspection system. Generates a sensing signal to control the operation of. Additionally, it is possible to sense whether the power supply unit 190 is supplying power and whether the interface unit 170 is connected to an external device. Meanwhile, the sensing unit 140 may include a proximity sensor 141.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155) 등이 포함될 수 있다.The output unit 150 is for generating output related to vision, hearing, or tactile sensation, and includes a display unit 151, an audio output module 152, an alarm unit 153, a haptic module 154, and a projector module ( 155) etc. may be included.

디스플레이부(151)는 품질검사 시스템에서 처리되는 정보를 표시(출력)한다. The display unit 151 displays (outputs) information processed in the quality inspection system.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible display). It may include at least one of a display and a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 품질검사 시스템이기 바디의 디스플레이부(151)가 차지하는 영역을 통해 품질검사 시스템이기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light-transmissive so that the outside can be viewed through them. This may be called a transparent display, and representative examples of the transparent display include TOLED (Transparant OLED). The rear structure of the display unit 151 may also be configured as a light-transmissive structure. Due to this structure, the user can view objects located behind the quality inspection system body through the area occupied by the display unit 151 of the quality inspection system body.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the display unit 151 and a sensor that detects a touch operation (hereinafter referred to as a 'touch sensor') form a mutual layer structure (hereinafter referred to as a 'touch screen'), the display unit 151 is used in addition to the output device. It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, or a touch pad.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in pressure applied to a specific part of the display unit 151 or a change in capacitance occurring in a specific part of the display unit 151 into an electrical input signal. The touch sensor can be configured to detect not only the location and area of the touch, but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.When there is a touch input to the touch sensor, the corresponding signal(s) are sent to the touch controller. The touch controller processes the signal(s) and then transmits the corresponding data to the control unit 180. As a result, the control unit 180 can determine which area of the display unit 151 has been touched.

상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 품질검사 시스템의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor 141 may be placed in an inner area of the quality inspection system surrounded by the touch screen or near the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing nearby without mechanical contact using the power of an electromagnetic field or infrared rays. Proximity sensors have a longer lifespan and are more useful than contact sensors.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmissive photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high-frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. When the touch screen is capacitive, it is configured to detect the proximity of the pointer through a change in electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

음향 출력 모듈(152)은 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. The audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a recording mode, voice recognition mode, broadcast reception mode, etc.

음향 출력 모듈(152)은 품질검사 시스템에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 152 also outputs sound signals related to functions performed in the quality inspection system. This sound output module 152 may include a receiver, speaker, buzzer, etc.

알람부(153)는 품질검사 시스템의 이벤트 발생을 알리기 위한 신호를 출력한다. 품질검사 시스템에서 발생되는 이벤트의 예로는 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The alarm unit 153 outputs a signal to notify the occurrence of an event in the quality inspection system. Examples of events that occur in the quality inspection system include message reception, key signal input, and touch input. The alarm unit 153 may output a signal for notifying the occurrence of an event in another form, for example, vibration, in addition to a video signal or an audio signal. The video signal or audio signal can also be output through the display unit 151 or the audio output module 152, so they 151 and 152 may be classified as part of the alarm unit 153.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. The haptic module 154 generates various tactile effects that the user can feel. A representative example of a tactile effect generated by the haptic module 154 is vibration. The intensity and pattern of vibration generated by the haptack module 154 can be controlled.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to vibration, the haptic module 154 responds to stimulation such as pin arrays moving perpendicular to the contact skin surface, blowing force or suction force of air through a nozzle or inlet, grazing the skin surface, contact with an electrode, and electrostatic force. A variety of tactile effects can be generated, such as effects by reproducing hot and cold sensations using elements that can absorb heat or heat.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 휴대 품질검사 시스템이기의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 can not only deliver a tactile effect through direct contact, but can also be implemented so that the user can feel the tactile effect through muscle senses such as fingers or arms. Two or more haptic modules 154 may be provided depending on the configuration of the portable quality inspection system.

프로젝터 모듈(155)은, 품질검사 시스템을 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이할 수 있다.The projector module 155 is a component for performing an image project function using a quality inspection system, and is identical to or at least the image displayed on the display unit 151 according to a control signal from the control unit 180. Some can display different images on an external screen or wall.

구체적으로, 프로젝터 모듈(155)은, 영상을 외부로 출력하기 위한 빛(일 예로서, 레이저 광)을 발생시키는 광원(미도시), 광원에 의해 발생한 빛을 이용하여 외부로 출력할 영상을 생성하기 위한 영상 생성 수단 (미도시), 및 영상을 일정 초점 거리에서 외부로 확대 출력하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 프로젝터 모듈(155)은, 렌즈 또는 모듈 전체를 기계적으로 움직여 영상 투사 방향을 조절할 수 있는 장치(미도시)를 포함할 수 있다.Specifically, the projector module 155 generates an image to be output to the outside using a light source (not shown) that generates light (for example, laser light) for outputting an image to the outside, and the light generated by the light source. It may include an image generating means (not shown) for doing so, and a lens (not shown) for enlarging and outputting the image to the outside at a certain focal distance. Additionally, the projector module 155 may include a device (not shown) that can adjust the image projection direction by mechanically moving the lens or the entire module.

프로젝터 모듈(155)은 디스플레이 수단의 소자 종류에 따라 CRT(Cathode Ray Tube) 모듈, LCD(Liquid Crystal Display) 모듈 및 DLP(Digital Light Processing) 모듈 등으로 나뉠 수 있다. 특히, DLP 모듈은, 광원에서 발생한 빛이 DMD(Digital Micromirror Device) 칩에 반사됨으로써 생성된 영상을 확대 투사하는 방식으로 프로젝터 모듈(151)의 소형화에 유리할 수 있다.The projector module 155 can be divided into a CRT (Cathode Ray Tube) module, an LCD (Liquid Crystal Display) module, and a DLP (Digital Light Processing) module depending on the type of display device. In particular, the DLP module can be advantageous in miniaturizing the projector module 151 by enlarging and projecting an image generated by reflecting light generated from a light source on a DMD (Digital Micromirror Device) chip.

메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory unit 160 may store programs for processing and controlling the control unit 180, and has a function for temporarily storing input/output data (e.g., messages, audio, still images, videos, etc.) You can also perform . The frequency of use for each of the data may also be stored in the memory unit 160. Additionally, the memory unit 160 can store data on various patterns of vibration and sound output when a touch is input on the touch screen.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The memory 160 is a flash memory type, hard disk type, multimedia card micro type, card type memory (for example, SD or XD memory, etc.), RAM. (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic It may include at least one type of storage medium among disks and optical disks.

인터페이스부(170)는 품질검사 시스템에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전달받거나, 전원을 공급받아 품질검사 시스템 내부의 각 구성 요소에 전달하거나, 품질검사 시스템 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a passageway to all external devices connected to the quality inspection system. The interface unit 170 receives data from an external device, receives power and transmits it to each component within the quality inspection system, or transmits data within the quality inspection system to an external device. For example, wired/wireless headset ports, external charger ports, wired/wireless data ports, memory card ports, ports for connecting devices equipped with identification modules, audio I/O (Input/Output) ports, A video I/O (Input/Output) port, an earphone port, etc. may be included in the interface unit 170.

식별 모듈은 품질검사 시스템의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 품질검사 시스템이기와 연결될 수 있다. The identification module is a chip that stores various information to authenticate the right to use the quality inspection system, and includes the user identification module (UIM), subscriber identity module (SIM), and universal user authentication module (Universal Subscriber). Identity Module, USIM), etc. A device equipped with an identification module (hereinafter referred to as an 'identification device') may be manufactured in a smart card format. Therefore, the identification device can be connected to the quality inspection system through the port.

상기 인터페이스부는 이동품질검사 시스템이기가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동품질검사 시스템이기에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동품질검사 시스템이기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동품질검사 시스템이기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the mobile quality inspection system is connected to an external cradle, the interface unit becomes a path through which power from the cradle is supplied to the mobile quality inspection system, or various command signals input from the cradle by a user are used to control the mobile quality. Because it is an inspection system, it can be a conduit for transmission. Various command signals or the power source input from the cradle may be operated as signals for recognizing that the mobile quality inspection system is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 품질검사 시스템의 전반적인 동작을 제어한다. The controller (controller, 180) typically controls the overall operation of the quality inspection system.

제어부(180)는 전처리부 (200)를 포함할 수 있다.The control unit 180 may include a preprocessor 200.

전처리부 (200)는 이미지 데이터 셋 내에 포함된 복수의 이미지 각각에 대해, 각각의 이미지 내에서 특정 위치의 영역만 잘라 처리하는 크랍 (crop) 작업을 적용하지 않고, 원하는 크기로 상기 각각의 이미지를 조정하는 리사이징 (resizing) 작업 및 상기 각각의 이미지의 비율을 그대로 유지한 채 이미지 크기를 조정하는 패딩 (padding) 작업을 적용할 수 있다.The pre-processing unit 200 does not apply a crop operation to each of the plurality of images included in the image data set by cutting out and processing only the area at a specific location within each image, but cuts each image to a desired size. A resizing operation to adjust and a padding operation to adjust the image size while maintaining the ratio of each image can be applied.

이러한 전처리부 (200)의 동작의 목적은 동일한 크기의 이미지를 모델이 학습할 수 있도록 전처리하는 것이다.The purpose of the operation of the preprocessor 200 is to preprocess images of the same size so that the model can learn.

한편, 제어부 (180)는 전처리된 이미지로부터 양품 기준이 되는 양품 특징을 추출할 수 있다.Meanwhile, the control unit 180 can extract features of good products that serve as standards for good products from the preprocessed image.

또한, 제어부 (180)는 추출한 양품 특징에 가우시안 노이즈 특징을 추가하여 복수의 가짜 (fake) 불량품 특징을 생성할 수 있다.Additionally, the control unit 180 may generate a plurality of fake defective product features by adding Gaussian noise features to the extracted good product features.

한편, 별도의 판별자(Discriminator, 미도시)는 제어부 (180)로부터 수신한 양품 이미지 데이터 셋 (set), 추출한 양품 특징 및 복수의 가짜 (fake) 불량품 특징 중 적어도 일부를 기초로 학습할 수 있다.Meanwhile, a separate discriminator (not shown) can learn based on at least some of the good product image data set received from the control unit 180, the extracted good product features, and the plurality of fake defective product features. .

또한, 입력부가 실제 이미지를 입력 받는 경우, 전처리부 (200)는 특징 추출을 위해, 상기 실제 이미지에 대해 상기 리사이징 및 패딩 작업 중 적어도 하나를 적용하여 전처리 할 수 있다.Additionally, when the input unit receives an actual image, the pre-processing unit 200 may apply at least one of the resizing and padding operations to the actual image for feature extraction.

또한, 제어부 (180)는 전처리된 실제 이미지로부터 실제 특징을 추출하며, 판별자가 학습된 내용을 기초로, 추출한 실제 특징을 통해 실제 이미지 상의 객체가 양품인지 아니면 불량품인지 여부를 판단할 수 있다.In addition, the control unit 180 extracts actual features from the pre-processed actual image, and can determine whether the object in the actual image is a good product or a defective product through the extracted actual features based on the content learned by the discriminator.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the control unit 180 and supplies power necessary for the operation of each component.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented, for example, in a recording medium readable by a computer or similar device using software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). In some cases, it may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and other electrical units for performing functions. The described embodiments may be implemented by the control unit 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to software implementation, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. Software code can be implemented as a software application written in an appropriate programming language. The software code may be stored in the memory 160 and executed by the control unit 180.

딥러닝 기반 품질검사 방법Deep learning-based quality inspection method

전술한 사출공정에 적용 가능한 딥러닝 기반 품질검사 시스템의 구성을 기초로 본 발명이 제안하는 품질 검사 방법에 대해 구체적으로 설명한다.The quality inspection method proposed by the present invention will be described in detail based on the configuration of a deep learning-based quality inspection system applicable to the above-described injection process.

본 발명은 다양한 제조분야 중 사출공정에서의 핵심 작업인 제품 품질 검사에서 정확하고 신뢰할 수 있는 딥러닝/AI 기반의 제품 표면 품질 검사 방법에 관한 것이다The present invention relates to an accurate and reliable deep learning/AI-based product surface quality inspection method in product quality inspection, which is a core task in the injection process among various manufacturing fields.

본 발명은 현재까지 개발된 대부분의 사출공정 표면 검사 AI와는 다르게 양품 이미지만을 사용하여 제품 품질 검사의 전체 파이프라인을 공장 환경과 실제 제품 생산공정의 특성을 고려하여 개발하였다. 본 발명품은 기존 보편적으로 활용되는 방법인 양품/불량 분류 방법론보다 우수한 성능을 보인다. Unlike most injection process surface inspection AIs developed to date, the present invention uses only images of good products and developed the entire product quality inspection pipeline in consideration of the factory environment and characteristics of the actual product production process. This invention shows superior performance over the good/defective classification methodology, which is a commonly used method.

본 발명에는 이미지에 대한 품질 분석, 양품 이미지에 대한 학습, 사출공정 제품에 대한 측정 방법 설계 등을 포함하며, 이러한 딥러닝 기반의 사출공정 제품 품질 검사 기술은 실제 사출공정 환경에서 불량을 잘 검출하지 못하는 등의 문제를 최소화할 수 있으며, 타 제조분야에도 확대 적용할 수 있을 것으로 기대한다.The present invention includes quality analysis of images, learning of non-defective images, and design of measurement methods for injection process products. This deep learning-based injection process product quality inspection technology does not detect defects well in the actual injection process environment. It is expected that problems such as failure to operate can be minimized, and that it can be applied to other manufacturing fields as well.

종래에는 공정환경이 복잡하고, 수집되는 이미지가 선명하지 않으며, 모델학습을 위해서는 선명한 이미지가 필요하므로, 이미지 품질분석과 필터링이 모델 학습전 선행되어야 하는 문제점이 있었다.In the past, the process environment was complex, the collected images were not clear, and clear images were needed for model learning, so there was a problem that image quality analysis and filtering had to be done before model learning.

또한, 이미지 분류 AI는 많은 양의 학습용 양품, 불량 데이터가 필요하지만, 실제 공정에서는 불량률이 낮기 때문에 다량의 불량 데이터를 수집하는 것이 어렵기 때문에 제조업에서 표면검사 AI 적용 사례가 현저히 적다는 문제점이 있었다.In addition, image classification AI requires a large amount of good and defective data for training, but in the actual process, it is difficult to collect a large amount of defective data because the defect rate is low, so there is a problem that there are significantly fewer cases of surface inspection AI application in the manufacturing industry. .

이에 반해 본 발명은 양품 이미지만을 이용하여 불량을 검사하는 것으로 제조 현장 적용이 용이하다는 장점이 있다.In contrast, the present invention has the advantage of being easy to apply to manufacturing sites by inspecting defects using only images of good products.

또한, 제조현장에서 분류한 기준이 잘 못 되었때, AI 정확도가 불안정하여 현장 적용에 어려움이 있었다.Additionally, when the classification criteria at the manufacturing site were incorrect, AI accuracy was unstable, making field application difficult.

그러나 본 발명은 딥러닝기반 품질검사 기술의 현장 적용 안정화를 위해 모델 아키텍처와 손실함수를 수정할 수 있다.However, the present invention can modify the model architecture and loss function to stabilize field application of deep learning-based quality inspection technology.

종래에는 검출한 불량마다 크기, 길이, 색상 등이 유형에 따라 달라 모든 설비에 대한 하나의 기준을 정하고 네트워크를 훈련시키는 것이 어렵다는 문제점이 있었다. In the past, the size, length, color, etc. of each detected defect differed depending on the type, making it difficult to set a single standard for all facilities and train the network.

본 발명은 이러한 문제점들을 해결하였으며, 제품 표면에 나타나는 다양한 불량 유형들을 사전에 학습할 필요가 없는 AI로 누구나 쉽게 사용하고, 라벨링을 하지 않아도 되므로 급변하는 제조환경에 빠르게 적용 가능할 것으로 기대된다.The present invention solves these problems, and is expected to be quickly applied to the rapidly changing manufacturing environment because it is easy for anyone to use as an AI that does not need to learn in advance the various types of defects that appear on the surface of the product, and does not require labeling.

제조업에서 수집되는 이미지 데이터는 명확(선명)하지 않은 경우가 대부분이지만, 후속 훈련을 위해 명확한 데이터가 반드시 필요하다.Image data collected in the manufacturing industry is often not clear (clear), but clear data is essential for subsequent training.

이미지 내 객체의 포함여부와 밝기, 대비 등으로 이미지 품질 분석을 수행하여, 낮은 품질의 이미지는 제거하여 명확한 이미지만 선택한다.Image quality analysis is performed based on the inclusion of objects in the image, brightness, contrast, etc., and only clear images are selected by removing low-quality images.

실제 제조업 이미지 특성을 고려하여, 가장자리에 위치한 결함을 탐지하지 못하는 것을 피하기 위해, 본 발명은 불량 샘플 증강을 위해서 최신 기법을 이용하여 전처리를 수행한다.Considering the characteristics of actual manufacturing images, in order to avoid failing to detect defects located at the edges, the present invention performs preprocessing using the latest techniques to enhance defective samples.

본 발명에서는 양품 샘플에 가우시안 표준편차를 노이즈로 추가하여 가짜 불량 특징을 증강하는 방법을 제안한다.The present invention proposes a method to enhance spurious defect features by adding Gaussian standard deviation as noise to non-defective samples.

또한, 본 발명에서는 딥러닝기반 품질검사 기술의 현장 적용 안정화를 위해 모델 아키텍처와 손실함수를 수정한다.Additionally, in the present invention, the model architecture and loss function are modified to stabilize field application of deep learning-based quality inspection technology.

종래에는 동일한 불량이지만, 불량의 특징들이 조금씩 다르게 나타나기 때문에 AI 모델 훈련에 어려움이 있었다.Previously, although the defects were the same, the characteristics of the defects appeared slightly differently, making it difficult to train an AI model.

본 발명은 다양한 불량 이미지를 사용하지 않고도, 양품 이미지만 학습하여 제품이 양품인지 불량인지 판단할 수 있다.The present invention can determine whether a product is good or defective by learning only images of good products, without using various defective images.

또한, 각 공장마다 양품판정 기준이 달라서 현장 적용에 어려움이 있어 불량 측정 단계에 AI기술이나 훈련을 추가하지 않고 결함 검사를 최종판단으로 사용한다In addition, since each factory has different criteria for determining good quality products, field application is difficult, so AI technology or training is not added to the defect measurement stage and defect inspection is used as the final judgment.

또한, 사출공정에 적용 가능한 딥러닝 기반 품질검사 기술은 이미 양품 이미지로 학습된 인공지능이기 때문에 사용자들이 별도로 학습용 데이터를 구축할 필요가 없으며, 다품종 소량생산 등 제조 현장에서도 빠르게 적용할 수 있을 것으로 기대된다.In addition, the deep learning-based quality inspection technology applicable to the injection process is artificial intelligence that has already been learned from images of good products, so users do not need to build separate learning data, and it is expected to be quickly applied at manufacturing sites such as small quantity production of multiple products. do.

본 발명에 따른 제어부(180)는 전처리부 (200)를 포함할 수 있다.The control unit 180 according to the present invention may include a preprocessing unit 200.

전처리부 (200)는 이미지 데이터 셋 내에 포함된 복수의 이미지 각각에 대해, 각각의 이미지 내에서 특정 위치의 영역만 잘라 처리하는 크랍 (crop) 작업을 적용하지 않고, 원하는 크기로 상기 각각의 이미지를 조정하는 리사이징 (resizing) 작업 및 상기 각각의 이미지의 비율을 그대로 유지한 채 이미지 크기를 조정하는 패딩 (padding) 작업을 적용할 수 있다.The pre-processing unit 200 does not apply a crop operation to each of the plurality of images included in the image data set by cutting out and processing only the area at a specific location within each image, but cuts each image to a desired size. A resizing operation to adjust and a padding operation to adjust the image size while maintaining the ratio of each image can be applied.

이러한 전처리부 (200)의 동작의 목적은 동일한 크기의 이미지를 모델이 학습할 수 있도록 전처리하는 것이고, 제어부 (180)는 전처리된 이미지로부터 양품 기준이 되는 양품 특징을 추출할 수 있다.The purpose of the operation of the preprocessor 200 is to preprocess images of the same size so that the model can learn, and the control unit 180 can extract features of good products that serve as standards for good products from the preprocessed images.

도 2는 본 발명과 관련된 이미지 전처리 과정을 설명하기 위한 도면이다.Figure 2 is a diagram for explaining an image pre-processing process related to the present invention.

도 2의 (a)를 참조하면, 객체 (1)가 도시되고 이를 리사이징 작업한 후 센터만 크랍하는 동작을 전처리부 (200)가 수행하는 일례를 도시한 것이다.Referring to (a) of FIG. 2, an example is shown in which an object (1) is shown and the preprocessor 200 performs an operation of cropping only the center after resizing the object.

이 경우, 실제 불량 파트 (2)가 누락된 검사 이미지 (4)가 도출되기 때문에, 불량 유형에 대한 내용이 무시되고 양품으로 판단되는 오류가 발생된다.In this case, since the inspection image (4) is derived with the actual defective part (2) missing, the information on the defect type is ignored and an error occurs in which the product is judged to be good.

이에 반해 도 2의 (b)를 참조하면 객체 (1)이 도시되고, 전처리부 (200)는 이미지 데이터 셋 내에 포함된 복수의 이미지 각각에 대해, 각각의 이미지 내에서 특정 위치의 영역만 잘라 처리하는 크랍 (crop) 작업을 적용하지 않고, 원하는 크기로 상기 각각의 이미지를 조정하는 리사이징 (resizing) 작업 및 상기 각각의 이미지의 비율을 그대로 유지한 채 이미지 크기를 조정하는 패딩 (padding) 작업을 적용할 수 있다.On the other hand, referring to (b) of FIG. 2, object 1 is shown, and the preprocessor 200 cuts out and processes only the area at a specific location within each image for each of the plurality of images included in the image data set. Instead of applying a crop operation, a resizing operation is applied to adjust each image to a desired size, and a padding operation is applied to adjust the image size while maintaining the ratio of each image. can do.

이 경우, 불량 유형 (2)을 포함하여 전처리되기 때문에 검사 이미지 (5) 상에서 불량 이미지가 포함된 채로 유지되어 정확한 양품 판별이 가능해진다.In this case, since the defect type (2) is preprocessed, the defective image remains included in the inspection image (5), making it possible to accurately determine good products.

한편, 도 3은 본 발명과 관련된 사출공정 불량 영역 검출 AI 모델 절차의 일례를 도시한 것이다.Meanwhile, Figure 3 shows an example of an AI model procedure for detecting defective areas in the injection process related to the present invention.

도 3을 참조하면, 입력부 (120)가 양품 이미지 데이터 셋 (set)을 입력 받는 단계 (S1)가 도시된다.Referring to FIG. 3, a step (S1) in which the input unit 120 receives a non-defective image data set is shown.

또한, 전처리부 (200)가 이미지 데이터 셋 내에 포함된 복수의 이미지 각각에 대해, 각각의 이미지 내에서 특정 위치의 영역만 잘라 처리하는 크랍 (crop) 작업을 적용하지 않고, 원하는 크기로 각각의 이미지를 조정하는 리사이징 (resizing) 작업 및 각각의 이미지의 비율을 그대로 유지한 채 이미지 크기를 조정하는 패딩 (padding) 작업을 적용하여, 동일한 크기의 이미지를 모델이 학습할 수 있도록 전처리하는 단계 (S2)가 도시된다.In addition, the preprocessor 200 does not apply a cropping operation to each of the plurality of images included in the image data set by cutting out and processing only an area at a specific location within each image, but instead cuts each image to a desired size. A preprocessing step to enable the model to learn images of the same size by applying a resizing operation to adjust the image size and a padding operation to adjust the image size while maintaining the ratio of each image (S2) is shown.

또한, 제어부 (180)가 전처리된 이미지로부터 양품 기준이 되는 양품 특징을 추출하는 단계 (S3)가 도시된다.In addition, a step (S3) is shown in which the control unit 180 extracts features of good products that serve as standards for good products from the preprocessed image.

또한, 제어부 (180)가 추출한 양품 특징에 가우시안 노이즈 특징을 추가하여 복수의 가짜 (fake) 불량품 특징을 생성하는 단계 (S4)가 도시된다.In addition, a step (S4) of generating a plurality of fake defective product features by adding Gaussian noise features to the good product features extracted by the control unit 180 is shown.

또한, 판별자(Discriminator)가 제어부 (180)로부터 수신한 양품 이미지 데이터 셋 (set), 추출한 양품 특징 및 복수의 가짜 (fake) 불량품 특징 중 적어도 일부를 기초로 학습하는 단계 (S5)가 도시된다.In addition, a step (S5) in which the discriminator learns based on at least some of the good product image data set received from the control unit 180, the extracted good product features, and the plurality of fake defective product features is shown. .

이후, 제어부 (180)가 전처리된 실제 이미지로부터 실제 특징을 추출하여 판별자가 학습된 내용을 기초로, 추출한 실제 특징을 통해 실제 이미지 상의 객체가 양품인지 아니면 불량품인지 여부를 판단하는 단계 (S8)가 도시된다.Thereafter, the control unit 180 extracts actual features from the pre-processed actual image and determines whether the object in the actual image is a good product or a defective product through the extracted actual features based on the contents learned by the discriminator (S8). It is shown.

이하, 도 4를 참조하여 보다 구체적인 본 발명에 따른 방법에 대해 설명한다.Hereinafter, the method according to the present invention will be described in more detail with reference to FIG. 4.

도 4는 본 발명과 관련하여 사출공정 품질검사 파이프라인의 순서도 일례를 도시한 것이다.Figure 4 shows an example flowchart of the injection process quality inspection pipeline in relation to the present invention.

도 4를 참조하면, 가장 먼저 입력부 (120)가 양품 이미지 데이터 셋 (set)을 입력 받는 단계(S1)가 진행된다.Referring to FIG. 4, the first step (S1) in which the input unit 120 receives a non-defective image data set is performed.

이후, 전처리부 (200)가 이미지 데이터 셋 내에 포함된 복수의 이미지 각각에 대해, 각각의 이미지 내에서 특정 위치의 영역만 잘라 처리하는 크랍 (crop) 작업을 적용하지 않고, 원하는 크기로 각각의 이미지를 조정하는 리사이징 (resizing) 작업 및 각각의 이미지의 비율을 그대로 유지한 채 이미지 크기를 조정하는 패딩 (padding) 작업을 적용하여, 동일한 크기의 이미지를 모델이 학습할 수 있도록 전처리하는 단계 (S2)를 수행한다.Afterwards, the pre-processing unit 200 does not apply a cropping operation to each of the plurality of images included in the image data set by cutting out and processing only the area at a specific location within each image, but cuts each image to a desired size. A preprocessing step to enable the model to learn images of the same size by applying a resizing operation to adjust the image size and a padding operation to adjust the image size while maintaining the ratio of each image (S2) Perform.

또한, 제어부 (180)가 전처리된 이미지로부터 양품 기준이 되는 양품 특징을 추출하는 단계 (S3)가 진행된다.In addition, a step (S3) is performed in which the control unit 180 extracts features of good products that serve as standards for good products from the preprocessed image.

상기 S3 단계에서 제어부 (180)는, 복수의 데이터 상에서 복수의 스케일의 특징 추출이 가능한 백본 네트워크에 상기 전처리된 이미지를 입력하고, 미리 지정된 복수의 단계의 출력의 결과물들을 합쳐 상기 양품 특징을 추출할 수 있다.In step S3, the control unit 180 inputs the preprocessed image to a backbone network capable of extracting features at multiple scales from multiple data, and extracts the features of the good product by combining the results of the outputs of a plurality of pre-designated steps. You can.

또한 S3 단계에서 제어부 (180)는, 백본 네트워크의 두 번째 출력 결과물과 세 번째 출력 결과물에 대해 평균 풀링 (average pooling) 연산을 적용하고, 연산된 복수의 결과물들을 합쳐 상기 양품 특징을 추출할 수 있다.Additionally, in step S3, the control unit 180 applies an average pooling operation to the second and third output results of the backbone network and combines the plurality of calculated results to extract the characteristics of the good product. .

여기서 백본 네트워크(Backbone Network)는 딥러닝 모델의 핵심 구조를 나타내는 부분으로, 이미지 분류, 객체 감지, 세분화 등과 같은 다양한 컴퓨터 비전 작업에서 사용되는 중요한 요소이다. 백본 네트워크는 입력 데이터를 고차원의 특성 공간으로 변환하고, 추상화된 정보를 추출하여 최종 작업을 수행하는 데 도움이 된다.Here, the backbone network represents the core structure of the deep learning model and is an important element used in various computer vision tasks such as image classification, object detection, and segmentation. The backbone network helps transform input data into a high-dimensional feature space, extract abstracted information, and perform the final task.

백본 네트워크는 주로 이미지 데이터와 같은 고차원 데이터를 처리하는 데 사용되며, 이러한 데이터의 복잡한 패턴과 특징을 학습하기 위해 여러 계층으로 구성된 심층 신경망(Deep Neural Network)이다. 이러한 신경망은 입력 데이터를 점진적으로 추상화된 특성으로 변환하면서 고수준의 정보를 추출한다.Backbone networks are mainly used to process high-dimensional data such as image data, and are deep neural networks composed of multiple layers to learn complex patterns and features of such data. These neural networks extract high-level information by gradually converting input data into abstract features.

백본 네트워크의 선택은 주어진 작업에 따라 달라질 수 있다. 예를 들어, 컴퓨터 비전 작업에서는 VGG, ResNet, Inception, MobileNet 등의 다양한 백본 네트워크 아키텍처가 사용된다. 이러한 네트워크 아키텍처는 이미지 분류, 객체 감지, 세분화 등의 작업에 맞게 설계되어 있으며, 각각 다른 특성을 추출하는 능력을 갖고 있다.The choice of backbone network may vary depending on the given task. For example, in computer vision tasks, various backbone network architectures are used, such as VGG, ResNet, Inception, and MobileNet. These network architectures are designed for tasks such as image classification, object detection, and segmentation, and each has the ability to extract different features.

요약하면, 백본 네트워크는 딥러닝 모델의 핵심 구조로, 입력 데이터를 추상화된 특성으로 변환하여 다양한 컴퓨터 비전 작업에서 유용하게 활용된다.In summary, backbone networks are the core structure of deep learning models and are useful in various computer vision tasks by converting input data into abstract features.

이후, 제어부 (180)가 추출한 양품 특징에 가우시안 노이즈 특징을 추가하여 복수의 가짜 (fake) 불량품 특징을 생성하는 단계 (S4)를 수행한다.Thereafter, the control unit 180 performs a step (S4) of generating a plurality of fake defective product features by adding Gaussian noise features to the extracted defective product features.

상기 S4 단계에서 제어부 (180)는 추출한 양품 특징에 상기 가우시안 노이즈 특징을 표준 편차에서 무작위로 선택하여 추가함으로써 상기 복수의 가짜 (fake) 불량품 특징을 증강할 수 있다.In step S4, the control unit 180 may augment the plurality of fake defective product features by randomly selecting and adding the Gaussian noise feature from the standard deviation to the extracted non-defective product features.

또한, 판별자(Discriminator, 미도시)가 제어부로부터 수신한 양품 이미지 데이터 셋 (set), 추출한 양품 특징 및 복수의 가짜 (fake) 불량품 특징 중 적어도 일부를 기초로 학습하는 단계 (S5)를 수행한다.In addition, a discriminator (not shown) performs a learning step (S5) based on at least some of the good product image data set received from the control unit, the extracted good product features, and a plurality of fake defective product features. .

상기 S5 단계에서 판별자는, 모델이 미리 설정된 개수 이하의 적은 샘플에 집중하여 학습할 수 있도록 가중치를 조절하는 손실 함수인 hardness-aware soft cross entropy를 사용해 학습할 수 있다.In step S5, the discriminator can be trained using hardness-aware soft cross entropy, a loss function that adjusts the weights so that the model can learn by focusing on a small number of samples below a preset number.

"Hardness-aware Soft Cross Entropy"는 딥러닝 모델의 손실 함수 중 하나로서, 주로 불균형한 클래스 분포를 가진 데이터셋에서 분류 작업을 수행할 때 사용되는 방법dl다. 이 방법은 모델이 더 어려운 샘플들에 더 집중하도록 유도하여 전체적인 성능을 향상시킬 수 있도록 설계된다.“Hardness-aware Soft Cross Entropy” is one of the loss functions of deep learning models and is a method mainly used when performing classification tasks in datasets with unbalanced class distribution. This method is designed to improve overall performance by encouraging the model to focus more on more difficult samples.

일반적인 교차 엔트로피 손실 함수는 모든 클래스를 동일한 비중으로 취급하여 예측 에러를 최소화하려고 한다. 하지만 클래스 간 불균형이 심한 경우, 많은 수의 샘플이 있는 클래스는 상대적으로 덜 중요하게 여겨질 수 있다. 이로 인해 소수 클래스의 성능이 저하될 수 있다.A typical cross-entropy loss function tries to minimize prediction error by treating all classes with equal weight. However, when the imbalance between classes is severe, classes with a large number of samples may be considered relatively less important. This may result in poor performance for minority classes.

"Hardness-aware Soft Cross Entropy"는 이러한 문제를 해결하기 위해 고안되었다. 이 방법은 샘플의 '어려움'을 고려하여 소프트한 가중치를 적용하여 손실을 계산한다. 즉, 모델이 불확실하거나 어려운 샘플에 더 큰 가중치를 부여하여 해당 클래스의 성능을 개선하려는 것이다. 이렇게 함으로써 모델은 불균형한 클래스 분포에서도 더 균형 잡힌 결과를 얻을 수 있다.“Hardness-aware Soft Cross Entropy” was designed to solve this problem. This method calculates the loss by applying soft weights considering the 'difficulty' of the sample. In other words, the model is trying to improve the performance of that class by giving greater weight to uncertain or difficult samples. By doing this, the model can achieve more balanced results even with an unbalanced class distribution.

이러한 접근 방식은 모델의 능력을 향상시키는 데 도움이 되며, 불균형한 데이터셋에서의 분류 성능을 향상시킬 수 있는 중요한 기법 중 하나이다.This approach helps improve the model's ability and is one of the important techniques that can improve classification performance in imbalanced datasets.

본 발명에 따른 “Hardness-aware Soft Cross Entropy”는 딥러닝 모델의 손실 함수 중 하나로서, 주로 불균형한 클래스 분포를 가진 데이터셋에서 분류 작업을 수행할 때 사용되는 방법이다. 이 방법은 모델이 더 어려운 샘플들에 더 집중하도록 유도하여 전체적인 성능을 향상시킬 수 있도록 설계되어 활용될 수 있다.“Hardness-aware Soft Cross Entropy” according to the present invention is one of the loss functions of a deep learning model and is a method mainly used when performing classification tasks in datasets with unbalanced class distribution. This method can be designed and used to improve overall performance by encouraging the model to focus more on more difficult samples.

또한, 상기 복수의 가짜 (fake) 불량품 특징은, 숏 샷 (Short shot), 플래시 (Flash), 싱크 마크 (Sink mark), 은색 줄무늬 결함 (Silver streak), 클라우디 표면 (Cloudy surface), 용접선 결함 (Weldline), 보이드 (Void), 표면균열 / 균열 (Crazing / Cracking) 및 층간 분리 (Delamination)를 포함할 수 있다.In addition, the characteristics of the plurality of fake defective products include short shots, flash, sink marks, silver streak defects, cloudy surface, and weld line defects. It may include Weldline, Void, Surface Crazing/Cracking and Delamination.

도 5는 본 발명과 관련된 불량 유형의 일례를 도시한 것이다.Figure 5 shows an example of a defect type related to the present invention.

도 5를 참조하면, (a) 숏 샷 (Short shot), (b) 플래시 (Flash), (c) 싱크 마크 (Sink mark), (d) 은색 줄무늬 결함 (Silver streak), (e) 클라우디 표면 (Cloudy surface), (f) 용접선 결함 (Weldline), (g) 보이드 (Void), (h) 표면균열 / 균열 (Crazing / Cracking) 및 (i) 층간 분리 (Delamination)의 구체적 일례가 도시된다.Referring to Figure 5, (a) Short shot, (b) Flash, (c) Sink mark, (d) Silver streak, (e) Cloudy Specific examples of Cloudy surface, (f) Weldline, (g) Void, (h) Crazing / Cracking, and (i) Delamination are shown. .

제품 표면에서는 다양한 불량 유형이 나타나며, 그 특징들은 위 도 5와 같이 9가지 정도로 구분이 가능하다. Various types of defects appear on the surface of the product, and their characteristics can be divided into 9 types as shown in Figure 5.

대부분의 불량 유형은 도 5에 도시된 것과 같이 숏 샷 (Short shot), 플래시 (Flash), 싱크 마크 (Sink mark), 은색 줄무늬 결함 (Silver streak), 클라우디 표면 (Cloudy surface), 용접선 결함 (Weldline), 보이드 (Void), 표면균열 / 균열 (Crazing / Cracking) 및 층간 분리 (Delamination)로 구분되고, 불량 유형의 특징들은 배경과 색상, 형태, 외관에서 확연한 차이가 있다.Most defect types are short shot, flash, sink mark, silver streak defect, cloudy surface, and weld line defect (as shown in Figure 5). It is divided into Weldline, Void, Surface Crazing/Cracking, and Delamination, and the characteristics of each defect type are distinctly different from the background, color, shape, and appearance.

한편, 상기 내용의 세팅 이후, 입력부 (120)가 실제 이미지를 입력 받는 단계 (S6)가 진행되고, 전처리부 (200)는 특징 추출을 위해, 실제 이미지에 대해 리사이징 및 패딩 작업 중 적어도 하나를 적용하여 전처리 하게 된다 (S7).Meanwhile, after setting the above contents, a step (S6) in which the input unit 120 receives the actual image proceeds, and the preprocessor 200 applies at least one of resizing and padding operations to the actual image for feature extraction. It is preprocessed (S7).

또한, 제어부 (180)가 전처리된 실제 이미지로부터 실제 특징을 추출하게 되면 (S8), 판별자가 학습된 내용을 기초로, 추출한 실제 특징을 통해 실제 이미지 상의 객체가 양품인지 아니면 불량품인지 여부를 판단하는 단계 (S9)를 수행하게 된다.In addition, when the control unit 180 extracts actual features from the preprocessed actual image (S8), the discriminator determines whether the object in the actual image is a good product or a defective product through the extracted actual features based on the learned content. Step (S9) is performed.

즉, 본 발명에서는 이미지 전처리 과정에서는 동일한 크기의 이미지를 모델이 학습 할 수 있도록 입력 이미지의 크기 조절(resizing) 및 패딩 (Padding) 을 수행한다.That is, in the present invention, in the image preprocessing process, resizing and padding of the input image are performed so that the model can learn images of the same size.

또한, 양품 이미지 특징 추출에서는 두 번째와 세 번째 층에서 특징을 추출하기 위해서 양품 데이터를 백본 네트워크에 넣을 수 있다.Additionally, in feature extraction from good product images, good product data can be inserted into the backbone network to extract features in the second and third layers.

또한, 백본 네트워크의 두 번째와 세 번째 단계의 출력을 평균 풀링 연산을 한 결과들을 합쳐 양품 이미지의 특징을 구할 수 있다.In addition, the characteristics of a good product image can be obtained by combining the results of the average pooling operation of the outputs of the second and third stages of the backbone network.

또한, 가짜 불량 특징 증강 (Fake Defect Feature Augmentation)에서는 양품 이미지의 특성에 가우시안 노이즈를 추가하여 가짜 불량 특징을 생성할 수 있다.Additionally, in Fake Defect Feature Augmentation, fake defect features can be created by adding Gaussian noise to the characteristics of a good product image.

또한, 각 샘플에 대해서 가우시안 노이즈를 표준 편차에서 무작위로 선택해서 가상의 불량 특성 데이터를 증강시킬 수 있다.Additionally, for each sample, Gaussian noise can be randomly selected from the standard deviation to augment virtual defect characteristic data.

또한, 판별자(Discriminator) 학습에서는 판별자에게 실제 이미지와 가짜 불량 이미지를 전달한다.Additionally, in discriminator learning, real images and fake defective images are delivered to the discriminator.

이때, 판별자는 손실 함수로 hardness-aware soft cross entropy를 사용해 학습할 수 있다.At this time, the discriminator can be learned using hardness-aware soft cross entropy as the loss function.

실제 공정에서는 불량률이 낮아 다량의 불량 데이터를 수집하는 것이 어렵고, 불량 유형별로 특징들이 조금씩 다르게 나타나기 때문에 AI 모델 훈련에 어려움이 있는데, 본 발명에서는 손쉽게 수집이 가능한 양품 이미지만으로 학습하여 제품이 양품인지 불량인지 판별할 수 있다.In the actual process, it is difficult to collect a large amount of defect data because the defect rate is low, and the characteristics of each defect type appear slightly differently, making it difficult to train an AI model. However, in the present invention, it learns only from images of good products that can be easily collected to determine whether the product is good or defective. can be determined.

또한, 딥러닝 기반 품질검사 기술의 현장 적용 안정화를 위해 전처리, 학습전략, 손실함수의 모델 아키텍처를 수정함으로써, 작업자는 언제든지 학습을 중단해도 최적의 일관된 성능을 가진 네트워크를 만들 수 있다.In addition, by modifying the model architecture of preprocessing, learning strategy, and loss function to stabilize the field application of deep learning-based quality inspection technology, workers can create a network with optimal and consistent performance even if learning is stopped at any time.

본 발명은 양품 이미지로만 학습된 인공지능으로 제품 표면에 나타나는 다양한 불량 유형들을 사전에 학습할 필요가 없는 모델로서, 사용자들은 별도로 학습용 데이터를 구축할 필요가 없으며, 다품종 소량생산 등 다양한 제조 현장에서도 빠르게 적용할 수 있을 것으로 기대한다.The present invention is an artificial intelligence model learned only from images of good products and does not need to learn in advance the various types of defects that appear on the surface of the product. Users do not need to build separate learning data, and it can be used quickly at various manufacturing sites such as small quantity production of multiple products. I hope it can be applied.

본 발명에 따른 효과Effects according to the present invention

본 발명은 종래기술의 문제점을 해소하기 위해, 다양한 제조분야 중 사출공정에서의 핵심 작업인 제품 품질 검사에서 정확하고 신뢰할 수 있는 제조 양품 데이터만 학습하여 품질검사에 적용가능한 딥러닝 시스템 및 그 제어방법을 제공할 수 있다.In order to solve the problems of the prior art, the present invention is a deep learning system and a control method applicable to quality inspection by learning only accurate and reliable manufacturing good data in product quality inspection, which is a core task in the injection process among various manufacturing fields. can be provided.

실제 제조 공정은 불량률이 낮아 다량의 불량 데이터를 수집하는 것이 어렵기 때문에, 본 발명에서 개발한 쉽게 수집이 가능한 양품 이미지만을 이용하여 불량을 검사하는 시스템 및 그 제어방법을 제공할 수 있다.Since the actual manufacturing process has a low defect rate and it is difficult to collect a large amount of defect data, it is possible to provide a system and a control method for inspecting defects using only images of good products that can be easily collected developed by the present invention.

또한, 실제 제조업 이미지 특성을 고려하여, 가장자리에 위치한 결함을 탐지하지 못하는 것을 피하기 위해, 본 발명은 불량 샘플 증강을 위해서 최신 기법을 이용하여 전처리를 수행하는 시스템 및 그 제어방법을 제공할 수 있다.In addition, in consideration of actual manufacturing image characteristics, to avoid failing to detect defects located at the edges, the present invention can provide a system and a control method for performing preprocessing using the latest techniques to enhance defective samples.

또한, 본 발명에서는 양품 샘플에 가우시안 표준편차를 노이즈로 추가하여 가짜 불량 특징을 증강하는 방법을 제안하고, 딥러닝기반 품질검사 기술의 현장 적용 안정화를 위해 모델 아키텍처와 손실함수를 적용하여 수정하는 시스템 및 그 제어방법을 제공할 수 있다.In addition, the present invention proposes a method of augmenting fake defect characteristics by adding Gaussian standard deviation as noise to non-defective samples, and a system that applies model architecture and loss function to modify the system to stabilize field application of deep learning-based quality inspection technology. and its control method can be provided.

본 발명은 현재까지 개발된 대부분의 사출공정 표면 검사 AI와는 다르게 양품 이미지만을 사용하여 제품 품질 검사의 전체 파이프라인을 공장 환경과 실제 제품 생산공정의 특성을 고려한 방법 및 시스템을 통해 기존 보편적으로 활용되는 방법인 양품/불량 분류 방법론보다 우수한 성능을 사용자에게 제공할 수 있다.Unlike most injection process surface inspection AIs developed to date, the present invention uses only images of good products to conduct the entire product quality inspection pipeline through methods and systems that take into account the characteristics of the factory environment and the actual product production process. It can provide users with superior performance than the good/defective classification method.

또한, 본 발명에는 이미지에 대한 품질 분석, 양품 이미지에 대한 학습, 사출공정 제품에 대한 측정 방법 설계 등을 포함하며, 이러한 딥러닝 기반의 사출공정 제품 품질 검사 기술은 실제 사출공정 환경에서 불량을 잘 검출하지 못하는 등의 문제를 최소화할 수 있으며, 타 제조분야에도 확대 적용 가능하다.In addition, the present invention includes quality analysis of images, learning of non-defective images, and design of measurement methods for injection process products. This deep learning-based injection process product quality inspection technology is capable of detecting defects in an actual injection process environment. Problems such as failure to detect can be minimized, and can be expanded to other manufacturing fields.

또한, 본 발명은 딥러닝 기반 품질검사 기술의 현장 적용 안정화를 위해 모델 아키텍처와 손실함수를 수정할 수 있다.Additionally, the present invention can modify the model architecture and loss function to stabilize field application of deep learning-based quality inspection technology.

또한, 본 발명은 각 공장마다 양품판정 기준이 달라서 현장 적용에 어려움이 있어 불량 측정 단계에 AI기술이나 훈련을 추가하지 않고 결함 검사를 최종판단으로 사용할 수 있다.In addition, the present invention is difficult to apply in the field because each factory has different standards for determining good quality, so defect inspection can be used as the final judgment without adding AI technology or training to the defect measurement stage.

또한, 본 발명이 제안하는 사출공정에 적용 가능한 딥러닝 기반 품질검사 기술은 이미 양품 이미지로 학습된 인공지능이기 때문에 사용자들이 별도로 학습용 데이터를 구축할 필요가 없으며, 다품종 소량생산 등 제조 현장에서도 빠르게 적용될 수 있다.In addition, the deep learning-based quality inspection technology applicable to the injection process proposed by the present invention is artificial intelligence that has already been learned from images of good products, so users do not need to build separate learning data, and it can be quickly applied at manufacturing sites such as small quantity production of multiple products. You can.

본 명세서에서는 학술적 연구와 제조 산업의 적용의 차이를 확인하고 그 차이에 대응하기 위해 정확하고 신뢰성 있는 이상 감지 및 탐지 시스템을 소개한다.In this specification, we identify the differences between academic research and applications in the manufacturing industry and introduce an accurate and reliable anomaly detection and detection system to respond to the differences.

이전 연구에 비해 본 발명에 따른 제품 은 실제 산업의 품질 검사의 어려움을 집중적으로 해결하기 위해 설계되었고, 사용자들은 별도로 학습용 데이터를 구축할 필요가 없으며, 다품종 소량생산 등 다양한 제조 현장에서도 빠르게 적용할 수 있을 것으로 기대된다.Compared to previous research, the product according to the present invention was designed to intensively solve the difficulties of quality inspection in actual industry, users do not need to build separate learning data, and it can be quickly applied at various manufacturing sites such as small quantity production of multiple products. It is expected that there will be.

또한, 본 발명에 따른 시스템은 실제 제조 산업에서 좀 더 효과적으로 불량을 감지함으로써 제조 과정의 효율성을 높일 것으로 기대된다.Additionally, the system according to the present invention is expected to increase the efficiency of the manufacturing process by more effectively detecting defects in the actual manufacturing industry.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Meanwhile, the effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. The embodiments of the present invention described above can be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to embodiments of the present invention uses one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), and Programmable Logic Devices (PLDs). , can be implemented by FPGAs (Field Programmable Gate Arrays), processors, controllers, microcontrollers, microprocessors, etc.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고받을 수 있다.In the case of implementation by firmware or software, the method according to embodiments of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. Software code can be stored in a memory unit and run by a processor. The memory unit is located inside or outside the processor and can exchange data with the processor through various known means.

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. A detailed description of preferred embodiments of the invention disclosed above is provided to enable any person skilled in the art to make or practice the invention.

상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the present invention has been described above with reference to preferred embodiments, those skilled in the art will understand that various modifications and changes can be made to the present invention without departing from the scope of the present invention.

예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. For example, a person skilled in the art may use each configuration described in the above-described embodiments by combining them with each other.

따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.Accordingly, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. The present invention may be embodied in other specific forms without departing from the spirit and essential features of the present invention.

따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative.

본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. The present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.In addition, claims that do not have an explicit reference relationship in the patent claims can be combined to form an embodiment or included as a new claim through amendment after filing.

Claims (10)

입력부가 양품 이미지 데이터 셋 (set)을 입력 받는 제 1 단계;
전처리부가 상기 이미지 데이터 셋 내에 포함된 복수의 이미지 각각에 대해, 상기 각각의 이미지 내에서 특정 위치의 영역만 잘라 처리하는 크랍 (crop) 작업을 적용하지 않고, 원하는 크기로 상기 각각의 이미지를 조정하는 리사이징 (resizing) 작업 및 상기 각각의 이미지의 비율을 그대로 유지한 채 이미지 크기를 조정하는 패딩 (padding) 작업을 적용하여, 동일한 크기의 이미지를 모델이 학습할 수 있도록 전처리하는 제 2 단계;
제어부가 상기 전처리된 이미지로부터 양품 기준이 되는 양품 특징을 추출하는 제 3 단계;
상기 제어부가 상기 추출한 양품 특징에 가우시안 노이즈 특징을 추가하여 복수의 가짜 (fake) 불량품 특징을 생성하는 제 4 단계;
판별자(Discriminator)가 상기 제어부로부터 수신한 상기 양품 이미지 데이터 셋 (set), 상기 추출한 양품 특징 및 상기 복수의 가짜 (fake) 불량품 특징 중 적어도 일부를 기초로 학습하는 제 5 단계;
상기 입력부가 실제 이미지를 입력 받는 제 6 단계;
상기 전처리부가 특징 추출을 위해, 상기 실제 이미지에 대해 상기 리사이징 및 패딩 작업 중 적어도 하나를 적용하여 전처리 하는 제 7 단계;
상기 제어부가 상기 전처리된 실제 이미지로부터 실제 특징을 추출하는 제 8 단계; 및
상기 판별자가 상기 제 5 단계에서 학습된 내용을 기초로, 상기 추출한 실제 특징을 통해 상기 실제 이미지 상의 객체가 양품인지 아니면 불량품인지 여부를 판단하는 제 9 단계;를 포함하고,

상기 제 3 단계에서 상기 제어부는,
복수의 데이터 상에서 복수의 스케일의 특징 추출이 가능한 백본 네트워크에 상기 전처리된 이미지를 입력하고, 미리 지정된 복수의 단계의 출력의 결과물들을 합쳐 상기 양품 특징을 추출하며,

상기 제 3 단계에서 상기 제어부는,
상기 백본 네트워크의 두 번째 출력 결과물과 세 번째 출력 결과물 각각에 대해, 복수의 포인트의 평균값을 계산하여 하나의 대표값으로 대체하는 평균 풀링 (average pooling) 연산을 적용하고, 상기 평균 풀링 연산이 적용된 상기 두 번째 출력 결과물과 세 번째 출력 결과물을 합쳐 상기 양품 특징을 추출하고,

상기 제 4 단계에서 상기 제어부는,
무작위로 선택된 표준 편차를 사용하여 생성된 상기 가우시안 노이즈 특징을 상기 추출한 양품 특징에 추가함으로써 상기 복수의 가짜 (fake) 불량품 특징을 증강하며,

상기 제 5 단계에서 상기 판별자는,
상기 모델이 미리 설정된 개수 이하의 적은 샘플에 집중하여 학습할 수 있도록 가중치를 조절하는 손실 함수인 hardness-aware soft cross entropy를 사용해 학습하는, 양품 데이터 학습 딥러닝 기반 품질검사 방법.
A first step in which the input unit receives a good product image data set;
The pre-processing unit adjusts each image to a desired size without applying a cropping operation to each of the plurality of images included in the image data set by cutting and processing only an area at a specific location within each image. A second step of preprocessing images of the same size so that the model can learn them by applying a resizing operation and a padding operation to adjust the image size while maintaining the ratio of each image;
A third step in which the control unit extracts features of good products that serve as standards for good products from the preprocessed image;
A fourth step in which the control unit generates a plurality of fake defective product features by adding Gaussian noise features to the extracted good product features;
A fifth step in which a discriminator learns based on at least some of the non-defective product image data set received from the control unit, the extracted non-defective product features, and the plurality of fake defective product features;
A sixth step in which the input unit receives an actual image;
A seventh step in which the preprocessing unit preprocesses the actual image by applying at least one of the resizing and padding operations to extract features;
An eighth step in which the control unit extracts actual features from the preprocessed actual image; and
A ninth step in which the discriminator determines whether the object in the actual image is a good product or a defective product through the extracted actual features based on the content learned in the fifth step,

In the third step, the control unit,
The preprocessed image is input to a backbone network capable of extracting features at multiple scales from multiple data, and the results of the outputs of a plurality of pre-designated steps are combined to extract the good product features,

In the third step, the control unit,
For each of the second and third output results of the backbone network, an average pooling operation is applied to calculate the average value of a plurality of points and replace it with one representative value, and the average pooling operation is applied to the average pooling operation to which the average pooling operation is applied. Combining the second and third output results to extract the features of the good product,

In the fourth step, the control unit,
Augmenting the plurality of fake defective product features by adding the Gaussian noise features generated using a randomly selected standard deviation to the extracted good product features,

In the fifth step, the discriminator is,
A quality inspection method based on deep learning for learning good quality data, which is learned using hardness-aware soft cross entropy, a loss function that adjusts the weights so that the model can focus and learn on a small number of samples below a preset number.
삭제delete 삭제delete 삭제delete 삭제delete ◈청구항 6은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 6 was abandoned upon payment of the setup registration fee.◈ 제 1항에 있어서,
상기 복수의 가짜 (fake) 불량품 특징은,
숏 샷 (Short shot), 플래시 (Flash), 싱크 마크 (Sink mark), 은색 줄무늬 결함 (Silver streak), 클라우디 표면 (Cloudy surface), 용접선 결함 (Weldline), 보이드 (Void), 표면균열 / 균열 (Crazing / Cracking) 및 층간 분리 (Delamination)를 포함하는, 양품 데이터 학습 딥러닝 기반 품질검사 방법.
According to clause 1,
The characteristics of the plurality of fake defective products are:
Short shot, Flash, Sink mark, Silver streak, Cloudy surface, Weldline, Void, Surface crack/cracking Quality inspection method based on deep learning learning from good product data, including (crazing / cracking) and layer separation (Delamination).
◈청구항 7은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 7 was abandoned upon payment of the setup registration fee.◈ 양품 이미지 데이터 셋 (set)을 입력 받는 입력부;
상기 이미지 데이터 셋 내에 포함된 복수의 이미지 각각에 대해, 상기 각각의 이미지 내에서 특정 위치의 영역만 잘라 처리하는 크랍 (crop) 작업을 적용하지 않고, 원하는 크기로 상기 각각의 이미지를 조정하는 리사이징 (resizing) 작업 및 상기 각각의 이미지의 비율을 그대로 유지한 채 이미지 크기를 조정하는 패딩 (padding) 작업을 적용하여, 동일한 크기의 이미지를 모델이 학습할 수 있도록 전처리하는 전처리부;
상기 전처리된 이미지로부터 양품 기준이 되는 양품 특징을 추출하고,
상기 추출한 양품 특징에 가우시안 노이즈 특징을 추가하여 복수의 가짜 (fake) 불량품 특징을 생성하는 제어부; 및
상기 제어부로부터 수신한 상기 양품 이미지 데이터 셋 (set), 상기 추출한 양품 특징 및 상기 복수의 가짜 (fake) 불량품 특징 중 적어도 일부를 기초로 학습하는 판별자(Discriminator);를 포함하고,

상기 입력부가 실제 이미지를 입력 받는 경우,
상기 전처리부가 특징 추출을 위해, 상기 실제 이미지에 대해 상기 리사이징 및 패딩 작업 중 적어도 하나를 적용하여 전처리 하고,
상기 제어부가 상기 전처리된 실제 이미지로부터 실제 특징을 추출하며,
상기 판별자가 상기 학습된 내용을 기초로, 상기 추출한 실제 특징을 통해 상기 실제 이미지 상의 객체가 양품인지 아니면 불량품인지 여부를 판단하고,

상기 제어부는,
복수의 데이터 상에서 복수의 스케일의 특징 추출이 가능한 백본 네트워크에 상기 전처리된 이미지를 입력하고,
상기 백본 네트워크의 두 번째 출력 결과물과 세 번째 출력 결과물 각각에 대해, 복수의 포인트의 평균값을 계산하여 하나의 대표값으로 대체하는 평균 풀링 (average pooling) 연산을 적용하며,
상기 평균 풀링 연산이 적용된 상기 두 번째 출력 결과물과 세 번째 출력 결과물을 합쳐 상기 양품 특징을 추출하고,

상기 제어부는,
무작위로 선택된 표준 편차를 사용하여 생성된 상기 가우시안 노이즈 특징을 상기 추출한 양품 특징에 추가함으로써 상기 복수의 가짜 (fake) 불량품 특징을 증강하며,

상기 판별자는,
상기 모델이 미리 설정된 개수 이하의 적은 샘플에 집중하여 학습할 수 있도록 가중치를 조절하는 손실 함수인 hardness-aware soft cross entropy를 사용해 학습하는, 양품 데이터 학습 딥러닝 기반 품질검사 시스템.
An input unit that receives a good product image data set;
For each of the plurality of images included in the image data set, resizing (adjusting each image to a desired size without applying a cropping operation that cuts out and processes only an area at a specific location within each image) A preprocessor that preprocesses images of the same size so that the model can learn them by applying a resizing operation and a padding operation that adjusts the image size while maintaining the ratio of each image;
Extract features of good products that serve as standards for good products from the preprocessed image,
a control unit that generates a plurality of fake defective product features by adding Gaussian noise features to the extracted good product features; and
A discriminator that learns based on at least some of the non-defective product image data set received from the control unit, the extracted non-defective product features, and the plurality of fake defective product features,

When the input unit receives an actual image,
The preprocessor preprocesses the actual image by applying at least one of the resizing and padding operations to extract features,
The control unit extracts actual features from the preprocessed actual image,
Based on the learned content, the discriminator determines whether the object in the actual image is a good product or a defective product through the extracted actual features,

The control unit,
Input the preprocessed image into a backbone network capable of extracting features at multiple scales from multiple data,
For each of the second and third output results of the backbone network, an average pooling operation is applied to calculate the average value of a plurality of points and replace it with one representative value,
Extracting the good product features by combining the second and third output results to which the average pooling operation is applied,

The control unit,
Augmenting the plurality of fake defective product features by adding the Gaussian noise features generated using a randomly selected standard deviation to the extracted good product features,

The discriminator is,
A deep learning-based quality inspection system that learns from good quality data that learns using hardness-aware soft cross entropy, a loss function that adjusts the weights so that the model can focus and learn on a small number of samples below a preset number.
삭제delete 삭제delete ◈청구항 10은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 10 was abandoned upon payment of the setup registration fee.◈ 제 7항에 있어서,
상기 복수의 가짜 (fake) 불량품 특징은,
숏 샷 (Short shot), 플래시 (Flash), 싱크 마크 (Sink mark), 은색 줄무늬 결함 (Silver streak), 클라우디 표면 (Cloudy surface), 용접선 결함 (Weldline), 보이드 (Void), 표면균열 / 균열 (Crazing / Cracking) 및 층간 분리 (Delamination)를 포함하는, 양품 데이터 학습 딥러닝 기반 품질검사 시스템.
According to clause 7,
The characteristics of the plurality of fake defective products are:
Short shot, Flash, Sink mark, Silver streak, Cloudy surface, Weldline, Void, Surface crack/cracking Deep learning-based quality inspection system that learns from good product data, including (crazing / cracking) and layer separation (Delamination).
KR1020230109144A 2023-08-21 2023-08-21 Deep Learning System and its Control Method Applicable for Quality Inspection by Learning Only Non-Defective Manufactured Product Data KR102658868B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230109144A KR102658868B1 (en) 2023-08-21 2023-08-21 Deep Learning System and its Control Method Applicable for Quality Inspection by Learning Only Non-Defective Manufactured Product Data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230109144A KR102658868B1 (en) 2023-08-21 2023-08-21 Deep Learning System and its Control Method Applicable for Quality Inspection by Learning Only Non-Defective Manufactured Product Data

Publications (1)

Publication Number Publication Date
KR102658868B1 true KR102658868B1 (en) 2024-04-19

Family

ID=90881820

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230109144A KR102658868B1 (en) 2023-08-21 2023-08-21 Deep Learning System and its Control Method Applicable for Quality Inspection by Learning Only Non-Defective Manufactured Product Data

Country Status (1)

Country Link
KR (1) KR102658868B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210072282A (en) 2019-12-09 2021-06-17 김경희 Angle adjustable bridge check stand
KR102343272B1 (en) 2020-07-22 2021-12-31 현대건설주식회사 Manufacturing method of free form landscape architecture structure using 3d printing, and free form bench manufactured thereby
US20220134435A1 (en) * 2020-10-30 2022-05-05 Ut Battelle, Llc Systems and methods for powder bed additive manufacturing anomaly detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210072282A (en) 2019-12-09 2021-06-17 김경희 Angle adjustable bridge check stand
KR102343272B1 (en) 2020-07-22 2021-12-31 현대건설주식회사 Manufacturing method of free form landscape architecture structure using 3d printing, and free form bench manufactured thereby
US20220134435A1 (en) * 2020-10-30 2022-05-05 Ut Battelle, Llc Systems and methods for powder bed additive manufacturing anomaly detection

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
F. Akhyar 등. "FDD: a deep learning-based steel defect detectors". The International Journal of Advanced Manufacturing Technology* *
Ministry of Education. "Injection mold modification (LM1510010409_18v3)". NCS Learning Module* *
P. Lee. "[Tensorflow] Class Imbalance 문제 대처하기 (WCE, Focal Loss)"* *
Z. Liu 등. "SimpleNet: A Simple Network for Image Anomaly Detectionand Localization". arXiv:2303.15140v2* *
교육부. "사출금형수정(LM1510010409_18v3)". NCS학습모듈*

Similar Documents

Publication Publication Date Title
CN109271967B (en) Method and device for recognizing text in image, electronic equipment and storage medium
CA3043230C (en) Face liveness detection method and apparatus, and electronic device
US11393256B2 (en) Method and device for liveness detection, and storage medium
US20200117887A1 (en) Speaking classification using audio-visual data
US20190340746A1 (en) Stationary object detecting method, apparatus and electronic device
CN109961068A (en) Image recognition, training, searching method and device and equipment, medium
CN110084299B (en) Target detection method and device based on multi-head fusion attention
EP4345777A1 (en) Living body detection method and apparatus, and training method and apparatus for living body detection system
KR20190106853A (en) Apparatus and method for recognition of text information
CN113673510B (en) Target detection method combining feature point and anchor frame joint prediction and regression
KR20200105004A (en) Apparatus and method for automatic synthesizing images
CN110647880A (en) Mobile terminal identity card image shielding judgment method
US10726630B1 (en) Methods and systems for providing a tutorial for graphic manipulation of objects including real-time scanning in an augmented reality
JP2022538928A (en) Image processing method and apparatus, electronic device, computer-readable storage medium
CN113658121A (en) Line defect detection method, system and computer storage medium
CN116049397B (en) Sensitive information discovery and automatic classification method based on multi-mode fusion
CN115641518B (en) View perception network model for unmanned aerial vehicle and target detection method
CN113516146A (en) Data classification method, computer and readable storage medium
CN113420769A (en) Image mask recognition, matting and model training method and device and electronic equipment
KR102658868B1 (en) Deep Learning System and its Control Method Applicable for Quality Inspection by Learning Only Non-Defective Manufactured Product Data
KR102644815B1 (en) Deep learning-based quality inspection system applicable to injection process and its control method
KR20180046431A (en) Method and Apparatus for Classification and Prediction of Internet Game Addiction using Decision Tree for Screening of Internet Game Addiction Adult Patients
CN114333038B (en) Training method of object recognition model, object recognition method, device and equipment
CN110956097A (en) Method and module for extracting occluded human body and method and device for scene conversion
Xie et al. Mask Wearing Detection Based on YOLOv5 Target Detection Algorithm under COVID-19''

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant