KR20200084444A - Deep learning based classification system using image data augmentation, and cotrol method thereof - Google Patents

Deep learning based classification system using image data augmentation, and cotrol method thereof Download PDF

Info

Publication number
KR20200084444A
KR20200084444A KR1020180169802A KR20180169802A KR20200084444A KR 20200084444 A KR20200084444 A KR 20200084444A KR 1020180169802 A KR1020180169802 A KR 1020180169802A KR 20180169802 A KR20180169802 A KR 20180169802A KR 20200084444 A KR20200084444 A KR 20200084444A
Authority
KR
South Korea
Prior art keywords
image data
encoder
data
classification system
unit
Prior art date
Application number
KR1020180169802A
Other languages
Korean (ko)
Other versions
KR102179949B1 (en
Inventor
윤종필
정대웅
신우상
구교권
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020180169802A priority Critical patent/KR102179949B1/en
Publication of KR20200084444A publication Critical patent/KR20200084444A/en
Application granted granted Critical
Publication of KR102179949B1 publication Critical patent/KR102179949B1/en

Links

Images

Classifications

    • G06K9/627
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06K9/4661
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model

Abstract

The present invention relates to a classification system using an image data generation technology based on deep learning and to a control method thereof. According to the present invention, the system comprises: an image data generation unit including an encoder compressing input image data and extracting a feature, and a decoder generating reconstructed image data reconstructing the input image data compressed by the encoder; and a convolutional neural network unit. A data classification portion for classifying input image data is constructed using the encoder and the convolutional neural network. According to the present invention, disadvantages of simply inputting deep learning as a defect image can be overcome, the defect classification performance is maximized, and the operation time can be minimized.

Description

딥러닝 기반 영상 데이터 생성 기술을 이용한 분류 시스템 및 그 제어 방법{Deep learning based classification system using image data augmentation, and cotrol method thereof}Deep learning based classification system using image data augmentation, and cotrol method thereof}

본 발명은 분류 시스템 및 그 제어 방법에 관한 것으로, 보다 자세하게는 딥러닝 기반 영상 데이터 생성 기술을 이용한 분류 시스템 및 그 제어 방법에 관한 것이다.The present invention relates to a classification system and a control method thereof, and more particularly, to a classification system using a deep learning-based image data generation technology and a control method thereof.

최근 알파고(AlphaGo)와 이세돌 9단의 대결로 인공지능에 대한 관심이 크게 증가하였다. 특히 알파고의 핵심 기술로 알려진 딥러닝(deep learning)에 대한 학계와 산업계의 연구가 폭발적으로 증가하였다.Recently, the interest in artificial intelligence has increased greatly due to the confrontation between AlphaGo and Lee Sedol 9th. In particular, academic and industrial research on deep learning, known as the core technology of AlphaGo, has exploded.

딥러닝은 기존에 알려진 인공 신경망(Artificial Neural Network)(ANN)의 문제점, 즉 소실 문제(vanishing problem), 오버피팅(overfitting) 등의 문제를 ReLU(Rectified Linear Unit)의 개발과 드롭아웃(Drop-out)과 같은 알고리즘 개선으로 성능을 향상시켰다. 또한 GPU(Graphic Processing Units)와 같은 하드웨어의 발전, 그리고 복잡한 구조를 학습시킬 수 있는 빅데이터의 힘 덕분에 최근 여러 분야에 뛰어난 성능을 발휘하고 있다. Deep learning is the development and dropout of ReLU (Rectified Linear Unit) for the problems of known artificial neural networks (ANN), that is, vanishing problems and overfitting. out) to improve performance. Also, thanks to advances in hardware such as GPUs (Graphic Processing Units) and the power of big data capable of learning complex structures, it has been showing outstanding performance in various fields in recent years.

이러한 딥러닝 기술은 해외 많은 기업(구글, 페이스북, 애플, 마이크로소프트, 알리바바, 바이두)에 의해 빠르게 발전되고 있으며, 얼굴인식, 음성인식, 자연어처리, 검색 서비스, 의료 등의 분야에 적용되고 있다. 이렇게 빠르게 발전하는 딥러닝의 최신 기술을 확보하고 더 나아가 응용 분야를 선점하고 빠르게 상용화 하는 것이 시급하다.This deep learning technology has been rapidly developed by many overseas companies (Google, Facebook, Apple, Microsoft, Alibaba, Baidu), and is applied to fields such as face recognition, voice recognition, natural language processing, search services, and medical care. . It is imperative to secure the latest technology in this fast-developing deep learning, and further preoccupy the application field and commercialize it quickly.

도 1은 기존의 결함 검사 장비에서 사용되는 결함 분류 방법을 도식화한 도면이다.1 is a diagram illustrating a defect classification method used in the existing defect inspection equipment.

도 1을 참고하면, 기존의 결함 검사 장비에서 사용되는 결함 분류 방법은, 알고리즘 개발자가 영상에서 분류가 잘 될 것 같은 특징을 영상처리 알고리즘으로 추출한 후 이러한 특징들을 분류기(SVM, Decision tree)로 학습한다. 이러한 방법은 사람이 얼마나 특징 추출 알고리즘을 잘 디자인하여 특징을 추출하는지가 성능의 한계이다. 반면에 최근 딥러닝을 이용한 분류 방법은 사람 개입을 최소화하여 인공지능이 스스로 특징을 추출하고 분류기를 학습하는 것이다. Referring to FIG. 1, in the defect classification method used in the existing defect inspection equipment, an algorithm developer extracts features that are likely to be classified from an image into an image processing algorithm, and then learns these features using a classifier (SVM, Decision tree). do. In this method, how well a person designs a feature extraction algorithm to extract features is a limitation of performance. On the other hand, the recent classification method using deep learning is that artificial intelligence extracts features and learns the classifier by minimizing human intervention.

한국등록특허 제1,863,196호(등록일자: 2018.05.25)Korean Registered Patent No. 1,863,196 (Registration Date: 2018.05.25) 미국공개특허 제2017-0200264호(공개일자: 2017.07.13)U.S. Patent Publication No. 2017-0200264 (published on: July 13, 2017)

따라서 본 발명이 해결하고자 하는 기술적 과제는 딥러닝의 입력을 단순히 결함 영상으로만 했을 경우의 단점을 극복하고 결함 분류 성능을 최대화하는 동시에 연산 시간을 최소화하는 딥러닝 기반 영상 데이터 생성 기술을 이용한 결함 분류 시스템 및 방법을 제공하는 것이다.Therefore, the technical problem to be solved by the present invention is to overcome the disadvantages of the case where the input of deep learning is simply a defect image and to maximize the defect classification performance while minimizing the computation time while classifying defects using deep learning-based image data generation technology. It is to provide a system and method.

상기한 기술적 과제를 해결하기 위한 본 발명에 따른 영상 분류 시스템은 입력 영상 데이터를 압축하며 피처(feature)를 추출하는 엔코더와 상기 엔코더에서 압축된 입력 영상 데이터를 복원한 복원 영상 데이터를 생성하는 디코더를 포함하는 영상 데이터 생성부, 그리고 합성곱 신경망부를 포함한다.An image classification system according to the present invention for solving the above technical problem includes an encoder for compressing input image data and extracting features and a decoder for generating reconstructed image data by restoring the input image data compressed by the encoder. It includes an image data generating unit and a convolutional neural network unit.

상기 엔코더와 상기 합성곱 신경망부를 이용하여 입력 영상 데이터를 분류하는 데이터 분류부를 구성한다.A data classification unit is configured to classify input image data using the encoder and the convolutional neural network unit.

상기 영상 데이터 생성부에서 생성된 학습 데이터를 이용하여 상기 데이터 분류부를 학습시킬 수 있다.The data classification unit may be trained using the learning data generated by the image data generation unit.

상기 데이터 분류부를 학습시킬 때, 상기 엔코더를 상기 디코더와 분리하여 상기 합성곱 신경망부의 앞 단에 배치되게 할 수 있다.When learning the data classifying unit, the encoder may be separated from the decoder to be arranged in front of the convolutional neural network unit.

상기 영상 데이터 생성부는 오토엔코더일 수 있다.The image data generation unit may be an autoencoder.

상기 영상 데이터 생성부는 CCVAE(Conditional Convolutional Variational Autoencoder)일 수 있다.The image data generation unit may be a CCVAE (Conditional Convolutional Variational Autoencoder).

상기 입력 영상 데이터는 표면 결함 여부를 검사하기 위해 조명을 적용하여 검사 대상 제품의 표면을 촬영한 영상 데이터일 수 있다.The input image data may be image data obtained by photographing the surface of a product to be inspected by applying illumination to inspect for surface defects.

상기한 기술적 과제를 해결하기 위한 본 발명에 따른 영상 분류 시스템의 제어 방법은, 입력 영상 데이터를 압축하며 피처를 추출하는 엔코더와 상기 엔코더에서 압축된 입력 영상 데이터를 복원한 복원 영상 데이터를 생성하는 디코더를 포함하는 영상 데이터 생성부가 학습 데이터를 생성하는 단계, 상기 엔코더와 합성곱 신경망부를 이용하여 데이터 분류부를 구성하는 단계, 그리고 상기 생성된 학습 데이터를 이용하여 상기 데이터 분류부를 학습시키는 단계를 포함한다.The control method of the image classification system according to the present invention for solving the above technical problem is an encoder for compressing input image data and extracting features and a decoder for generating reconstructed image data by restoring the input image data compressed by the encoder. And generating learning data by the image data generation unit including, constructing a data classification unit using the encoder and the convolutional neural network unit, and training the data classification unit using the generated learning data.

상기한 기술적 과제를 해결하기 위한 본 발명에 따른 영상 분류 시스템의 제어 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능한 기록 매체를 포함할 수 있다.It may include a computer-readable recording medium containing a program for performing a control method of the image classification system according to the present invention for solving the above technical problem.

상기 프로그램은, 입력 영상 데이터를 압축하며 피처(feature)를 추출하는 엔코더와 상기 엔코더에서 압축된 입력 영상 데이터를 복원한 복원 영상 데이터를 생성하는 디코더를 포함하는 영상 데이터 생성부가 학습 데이터를 생성하는 명령어 세트, 상기 엔코더와 입력 영상 데이터를 추출된 피처에 따라 분류하는 합성곱 신경망부를 이용하여 데이터 분류부를 구성하는 명령어 세트, 그리고 상기 생성된 학습 데이터를 이용하여 상기 데이터 분류부를 학습시키는 명령어 세트를 포함할 수 있다.The program comprises: an instruction for generating training data by an image data generator including an encoder for compressing input image data and extracting features, and a decoder for generating reconstructed image data by restoring the input image data compressed by the encoder. A set, a set of instructions for constructing a data classifier using a convolutional neural network that classifies the encoder and input image data according to extracted features, and a set of instructions for training the data classifier using the generated training data Can be.

본 발명에 의하면 딥러닝이 스스로 영상에서 결함의 특징을 추출하고 학습할 수 있다. 특히 딥러닝의 입력을 단순히 결함 영상으로만 했을 경우의 단점을 극복하고 결함 분류 성능을 최대화하는 동시에 연산 시간을 최소화할 수 있는 장점이 있다.According to the present invention, deep learning can self-extract and learn the characteristics of a defect from an image. In particular, there is an advantage of overcoming the disadvantages of deep learning input only by using a defect image and maximizing defect classification performance while minimizing computation time.

도 1은 기존의 결함 검사 장비에서 사용되는 결함 분류 방법을 도식화한 도면이다.
도 2는 본 발명에 따른 영상 분류 시스템의 학습 데이터 생성 동작 시 구성 요소의 연결을 나타낸 도면이다.
도 3은 본 발명에 따른 영상 분류 시스템의 데이터 분류부 학습 시 구성 요소의 연결을 나타낸 도면이다.
도 4는 본 발명에 따른 영상 분류 시스템의 동작 과정을 설명하는 흐름도이다.
1 is a diagram illustrating a defect classification method used in the existing defect inspection equipment.
2 is a view showing the connection of components in the operation of generating learning data in the video classification system according to the present invention.
3 is a view showing the connection of components when learning the data classification unit of the image classification system according to the present invention.
4 is a flowchart illustrating an operation process of the image classification system according to the present invention.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Then, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains can easily practice.

도 2는 본 발명에 따른 영상 분류 시스템의 학습 데이터 생성 동작 시 구성 요소의 연결을 나타낸 도면이다.2 is a view showing the connection of components in the operation of generating learning data in the video classification system according to the present invention.

먼저 일반적인 제품 결함 검사 시스템의 구성에 대해 설명한다. 일반적인 제품 결함 검사 시스템은 조명과 카메라를 이용하여 광학 장치로 구성한다. 결함 부분에서 빛의 경로가 변하여 카메라에 들어오는 빛의 양 변화를 영상화하여 결함 부위의 신호잡음비(S/N ratio)를 높인다. 이와 같이 표면 결함 여부를 검사하기 위해 조명을 적용하여 검사 대상 제품의 표면을 촬영하여 획득한 입력 영상 데이터에서 결함 검출 알고리즘이 결함 후보를 검출하고, 결함 후보 영상을 분류 알고리즘으로 분류하여 결함명을 부여할 수 있다. 그리고 이러한 결과를 조업 모니터링 시스템으로 전송 및 DB에 저장하는 방식으로 시스템이 구성된다. 그런데 딥러닝 기술을 결함 영상 분류에 적용하여 우수한 성능을 확보하고자 할 때는 각 결함별로 충분한 데이터 확보가 선행되어야 한다. 하지만 제조업 특성상 일부 결함에 대해서는 충분한 데이터를 확보하기 어렵고, 각 결함별로 수집된 데이터 수도 차이가 클 수 있다.First, the configuration of a general product defect inspection system will be described. A typical product defect inspection system consists of an optical device using lighting and a camera. The path of light in the defect area is changed to image the amount of light entering the camera to increase the signal noise ratio (S/N ratio) of the defect area. As described above, a defect detection algorithm detects a defect candidate from input image data obtained by photographing the surface of a product to be inspected by applying illumination to inspect for surface defects, and assigns a defect name by classifying the defect candidate image as a classification algorithm can do. And the system is structured by transmitting these results to the operation monitoring system and storing it in the DB. However, in order to secure excellent performance by applying deep learning technology to defect image classification, sufficient data must be secured for each defect. However, due to the nature of the manufacturing industry, it is difficult to obtain sufficient data for some defects, and the number of data collected for each defect may be large.

즉 이러한 문제를 해결하기 위해 본 발명에 따른 영상 분류 시스템(100)은 도 2에 예시한 것과 같은 영상 데이터 생성부(110)를 통해 충분한 학습 데이터를 생성할 수 있다.That is, in order to solve this problem, the image classification system 100 according to the present invention can generate sufficient learning data through the image data generation unit 110 as illustrated in FIG. 2.

영상 데이터 생성부(110)는 엔코더(111), 샘플링부(113) 및 디코더(115)를 포함할 수 있다.The image data generator 110 may include an encoder 111, a sampling unit 113, and a decoder 115.

엔코더(111)는 입력 영상 데이터(x)를 압축하며, 입력 영상 데이터의 피처(feature)를 추출하여 학습할 수 있다. 엔코더(111)는 즉 고차원의 입력 영상 데이터(x)의 특징을 추출하고 고차원의 입력 영상 데이터를 저차원으로 압축시키는 역할을 수행한다.The encoder 111 compresses the input image data (x) and can learn by extracting a feature of the input image data. That is, the encoder 111 serves to extract characteristics of the high-dimensional input image data x and compress the high-dimensional input image data to a low dimension.

샘플링부(113)는 엔코더(111)에서 압축된 데이터로부터 특정 확률로 샘플링한 데이터(z)를 디코더(115)에 전달하는 역할을 수행한다. The sampling unit 113 serves to transfer the data z sampled with a specific probability from the data compressed by the encoder 111 to the decoder 115.

디코더(115)는 엔코더(111)에서 압축된 입력 영상 데이터를 복원한, 입력 영상 데이터와 동일한 복원 영상 데이터를 생성하는 역할을 수행한다.The decoder 115 plays a role of generating the reconstructed image data identical to the input image data, which has restored the input image data compressed by the encoder 111.

이와 같이 영상 데이터 생성부(110)에서 입력 영상 데이터를 복원한 복원 영상 데이터를 생성하는 기능을 활용하여, 부족한 학습 데이터를 충분하게 확보할 수 있다.As described above, the function of generating the reconstructed image data obtained by restoring the input image data by the image data generation unit 110 may sufficiently secure insufficient learning data.

영상 데이터 생성부(110)는 오토엔코더(auto encoder)로 구현할 수 있다. 오토엔코더는 Stacked Auto Encoder, Sparese Auto Encoder, Denoising Auto Encoder 등일 수 있다. 또한 오토엔코더는 VAE(Variational Autoencoder), CAE(Contractive Autoencoder), CVAE(Conditional VAE), CCVAE(Conditional Convolutional Variational Autoencoder) 등으로 구현할 수도 있다.The image data generation unit 110 may be implemented by an auto encoder. The autoencoder may be a stacked auto encoder, a sparese auto encoder, or a denoising auto encoder. In addition, the autoencoder may be implemented with VAE (Variational Autoencoder), CAE (Contractive Autoencoder), CVAE (Conditional VAE), or CCVAE (Conditional Convolutional Variational Autoencoder).

이렇게 영상 데이터 생성부(110)에서 생성된 학습 데이터로 입력 영상 데이터(예컨대 제품의 표면을 촬영한 결함 영상 데이터)를 시스템(100)에서 입력 데이터를 분류하는 데이터 분류부를 학습시킬 수 있다.In this way, the data classification unit that classifies the input data in the system 100 may be trained with the input image data (for example, the defect image data photographing the surface of the product) as the training data generated by the image data generation unit 110.

도 3은 본 발명에 따른 영상 분류 시스템의 데이터 분류부 학습 시 구성 요소의 연결을 나타낸 도면이다.3 is a view showing the connection of components when learning the data classification unit of the image classification system according to the present invention.

도 3을 참고하면, 본 발명에 따른 시스템(100)은 합성곱 신경망부(120)와 엔코더(111)로 입력 영상 데이터를 분류하는 데이터 분류부(130)를 구성할 수 있다. 이를 위해 시스템(100)은 데이터 분류부(130)를 학습시킬 때, 도 3에 예시한 것과 같이 엔코더(111)를 디코더(115)와 분리하여 합성곱 신경망부(120)의 앞 단에 배치되게 할 수 있다.Referring to FIG. 3, the system 100 according to the present invention may constitute a data classification unit 130 that classifies input image data by a convolutional neural network unit 120 and an encoder 111. To this end, when the system 100 learns the data classification unit 130, as illustrated in FIG. 3, the encoder 111 is separated from the decoder 115 to be disposed at the front end of the convolutional neural network unit 120. can do.

이를 위해 시스템(100)은 엔코더(111)를 선택적으로 디코더(115)와 합성곱 신경망부(120)에 연결시키기 위한 스위칭 구조를 가질 수 있다.To this end, the system 100 may have a switching structure for selectively connecting the encoder 111 to the decoder 115 and the convolutional neural network unit 120.

합성곱 신경망부(120)는 입력 영상 데이터를 추출된 피처에 따라 분류하도록 학습된 CNN(convolution neural network), DNN(Deep Neural Network) 등으로 구현할 수 있다.The convolutional neural network unit 120 learns to classify input image data according to extracted features according to a convolution neural network (CNN) or a deep neural network (DNN). And so on.

일반적으로 결함 영상 등을 분류하는 딥러닝 모델을 학습시킬 때 분류모델의 초기값을 어떤 것을 선정하느냐에 따라서 분류 성능이 크게 좌우된다. 일반적으로는 학습된 데이터를 이용하여 분류를 위한 딥러닝 모델을 학습시킬 때 새로운 분류 모델을 학습한다. 분류 모델은 영상에서 피처를 스스로 추출하고, 그 피처를 원하는 클래스(class) 수만큼 분류해서 최종 결함 영상이 어떤 결함인지 알려준다.In general, when learning a deep learning model for classifying a defect image, the classification performance greatly depends on which initial value of the classification model is selected. In general, when training a deep learning model for classification using trained data, a new classification model is learned. The classification model extracts a feature from the image itself, classifies the feature by a desired number of classes, and informs the defect of the final defect image.

본 발명에 따른 시스템(100)은 영상 데이터 생성부(110)에서 생성되어 학습된 데이터로 데이터 분류부(130)를 학습시킨다. 그런데 영상 데이터 생성부(110)에서 피처 추출 역할을 한 엔코더(111)를 데이터 분류부(130)에서도 피처 추출 역할을 하기 위한 구조로 사용하고 초기값으로 사용한다. 그리고 엔코더(111) 뒤에 분류를 위한 합성곱 신경망부(120)를 배치함으로써, 기존 방법보다 훨씬 작은 레이어(layer)만으로 빠르게 학습을 할 수 있는 구조를 제공할 수 있다. 또한 피처 추출 레이어에 초기값을 이미 영상 데이터 생성부(110)에서 학습된 값으로 사용하므로 훨씬 우수한 분류 성능을 가질 수 있다.The system 100 according to the present invention trains the data classification unit 130 with the data generated and learned by the image data generation unit 110. However, the encoder 111 serving as a feature extraction function in the image data generation unit 110 is also used as a structure for the feature extraction function in the data classification unit 130 and is used as an initial value. In addition, by arranging the convolutional neural network unit 120 for classification after the encoder 111, it is possible to provide a structure for quickly learning with only a much smaller layer than the conventional method. In addition, since the initial value is already used as the value learned by the image data generator 110 in the feature extraction layer, it can have much better classification performance.

도 4는 본 발명에 따른 영상 분류 시스템의 동작 과정을 설명하는 흐름도이다.4 is a flowchart illustrating an operation process of the image classification system according to the present invention.

도 2 내지 도 4를 참고하면, 먼저 엔코더(111)와 디코더(115)를 포함하는 영상 데이터 생성부(110)가 입력 영상 데이터를 입력받아 학습 데이터를 생성할 수 있다(S410).2 to 4, first, the image data generation unit 110 including the encoder 111 and the decoder 115 may receive input image data and generate learning data (S410 ).

다음으로 단계(S410)에서 충분한 학습 데이터가 생성된 후, 엔코더(111)와 합성곱 신경망부(120)를 이용하여 데이터 분류부를 구성할 수 있다(S420). 단계(S420)에서 엔코더(111)를 디코더(115)와 분리하여 합성곱 신경망부(120)의 앞 단에 배치되게 할 수 있다.Next, after sufficient learning data is generated in step S410, a data classification unit may be constructed using the encoder 111 and the convolutional neural network unit 120 (S420). In step S420, the encoder 111 is separated from the decoder 115 so that it can be arranged at the front end of the composite neural network unit 120.

그리고 단계(S410)에서 생성된 학습 데이터를 이용하여 데이터 분류부(130)를 학습시킬 수 있다(S430).Then, the data classification unit 130 may be trained using the learning data generated in step S410 (S430).

마지막으로 단계(S430)에서 학습된 데이터 분류부(130)를 이용하여 입력 영상 데이터에 대한 분류를 할 수 있다(S440).Finally, the input image data may be classified using the data classification unit 130 learned in step S430 (S440).

앞에서 설명한 본 발명에 의한 시스템 및 방법은 다양한 산업의 제품 결함 검사의 핵심 기술로 사용될 수 있다. 제품의 불량을 분석할 수 있도록 결함을 분류하는 기술은 표면 결함 검사 뿐만 아니라, 비파괴 검사와 같은 진단 분야에도 사용 될 수 있다. 또한 스마트팩토리(Smart Factory) 구현의 필수기술로, 생산 조업 조건에 따른 제품의 품질을 판정하고 이를 이용하여 생산 조건을 최적화하는 기술에도 응용 가능하다. The system and method according to the present invention described above can be used as a core technology for product defect inspection in various industries. The technique of classifying defects to analyze product defects can be used not only in surface defect inspection, but also in diagnostic fields such as non-destructive inspection. In addition, it is an essential technology for implementing a Smart Factory, and it can be applied to technologies that determine the quality of products according to production operation conditions and use them to optimize production conditions.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or combinations of hardware components and software components. For example, the devices, methods, and components described in the embodiments include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors (micro signal processors), microcomputers, and field programmable gates (FPGAs). It can be implemented using one or more general purpose computers or special purpose computers, such as arrays, programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed on networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and constructed for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specifically configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes made by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if replaced or substituted by equivalents, appropriate results can be achieved.

100: 영상 분류 시스템
110: 영상 데이터 생성부
111: 엔코더
113: 샘플링부
115: 디코더
120: 합성곱 신경망부
130: 데이터 분류부
100: video classification system
110: image data generation unit
111: encoder
113: sampling unit
115: decoder
120: convolutional neural network
130: data classification unit

Claims (12)

입력 영상 데이터를 압축하며 피처(feature)를 추출하는 엔코더와 상기 엔코더에서 압축된 입력 영상 데이터를 복원한 복원 영상 데이터를 생성하는 디코더를 포함하는 영상 데이터 생성부, 그리고
합성곱 신경망부
를 포함하고,
상기 엔코더와 상기 합성곱 신경망부를 이용하여 입력 영상 데이터를 분류하는 데이터 분류부를 구성하는 영상 분류 시스템.
An image data generator including an encoder that compresses input image data and extracts features, and a decoder that generates reconstructed image data that restores the input image data compressed by the encoder, and
Convolutional Neural Network
Including,
An image classification system comprising a data classification unit that classifies input image data using the encoder and the convolutional neural network unit.
제 1 항에서,
상기 영상 데이터 생성부에서 생성된 학습 데이터를 이용하여 상기 데이터 분류부를 학습시키는 영상 분류 시스템.
In claim 1,
An image classification system for training the data classification unit using the learning data generated by the image data generation unit.
제 2 항에서,
상기 데이터 분류부를 학습시킬 때, 상기 엔코더를 상기 디코더와 분리하여 상기 합성곱 신경망부의 앞 단에 배치되게 하는 영상 분류 시스템.
In claim 2,
When training the data classification unit, the image classification system to separate the encoder from the decoder to be placed in the front end of the composite neural network unit.
제 3 항에서,
상기 영상 데이터 생성부는 오토엔코더인 영상 분류 시스템.
In claim 3,
The image data generation unit is an automatic encoder image classification system.
제 3 항에서,
상기 영상 데이터 생성부는 CCVAE(Conditional Convolutional Variational Autoencoder)인 영상 분류 시스템.
In claim 3,
The image data generation unit is a CCVAE (Conditional Convolutional Variational Autoencoder) image classification system.
제 1 항에서,
상기 입력 영상 데이터는 표면 결함 여부를 검사하기 위해 조명을 적용하여 검사 대상 제품의 표면을 촬영한 영상 데이터인 영상 분류 시스템.
In claim 1,
The input image data is an image classification system which is image data obtained by photographing the surface of a product to be inspected by applying illumination to inspect for surface defects.
입력 영상 데이터를 압축하며 피처(feature)를 추출하는 엔코더와 상기 엔코더에서 압축된 입력 영상 데이터를 복원한 복원 영상 데이터를 생성하는 디코더를 포함하는 영상 데이터 생성부가 학습 데이터를 생성하는 단계,
상기 엔코더와 합성곱 신경망부를 이용하여 데이터 분류부를 구성하는 단계, 그리고
상기 생성된 학습 데이터를 이용하여 상기 데이터 분류부를 학습시키는 단계
를 포함하는 영상 분류 시스템의 제어 방법.
Generating training data by an image data generator including an encoder that compresses input image data and extracts features, and a decoder that generates reconstructed image data that restores the input image data compressed by the encoder,
Constructing a data classification unit using the encoder and the convolutional neural network unit, and
Learning the data classification unit using the generated learning data
Control method of the video classification system comprising a.
제 7 항에서,
상기 데이터 분류부를 학습시킬 때, 상기 엔코더를 상기 디코더와 분리하여 상기 합성곱 신경망부의 앞 단에 배치되게 하는 영상 분류 시스템의 제어 방법.
In claim 7,
When training the data classification unit, a control method of an image classification system that separates the encoder from the decoder so that it is disposed in front of the composite neural network unit.
제 8 항에서,
상기 영상 데이터 생성부는 오토엔코더인 영상 분류 시스템의 제어 방법.
In claim 8,
The image data generation unit is an auto-encoder image classification system control method.
제 8 항에서,
상기 영상 데이터 생성부는 CCVAE(Conditional Convolutional Variational Autoencoder)인 영상 분류 시스템의 제어 방법.
In claim 8,
The image data generation unit CCVAE (Conditional Convolutional Variational Autoencoder) control method of the image classification system.
제 7 항에서,
상기 입력 영상 데이터는 표면 결함 여부를 검사하기 위해 조명을 적용하여 검사 대상 제품의 표면을 촬영한 영상 데이터인 영상 분류 시스템의 제어 방법.
In claim 7,
The input image data is a method of controlling an image classification system, which is image data obtained by photographing the surface of a product to be inspected by applying illumination to inspect for surface defects.
영상 분류 시스템의 제어 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능한 기록 매체에 있어서,
입력 영상 데이터를 압축하며 피처(feature)를 추출하는 엔코더와 상기 엔코더에서 압축된 입력 영상 데이터를 복원한 복원 영상 데이터를 생성하는 디코더를 포함하는 영상 데이터 생성부가 학습 데이터를 생성하는 명령어 세트,
상기 엔코더와 입력 영상 데이터를 추출된 피처에 따라 분류하는 합성곱 신경망부를 이용하여 데이터 분류부를 구성하는 명령어 세트, 그리고
상기 생성된 학습 데이터를 이용하여 상기 데이터 분류부를 학습시키는 명령어 세트
를 포함하는 컴퓨터 판독 가능한 기록 매체.




In a computer-readable recording medium containing a program for performing a control method of the image classification system,
A set of instructions for generating learning data by an image data generation unit including an encoder for compressing input image data and extracting features, and a decoder for generating reconstructed image data by restoring the input image data compressed by the encoder,
A set of instructions for constructing a data classifier using a convolutional neural network that classifies the encoder and input image data according to extracted features, and
Instruction set for training the data classification unit using the generated training data
Computer-readable recording medium comprising a.




KR1020180169802A 2018-12-26 2018-12-26 Deep learning based classification system using image data augmentation, and cotrol method thereof KR102179949B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180169802A KR102179949B1 (en) 2018-12-26 2018-12-26 Deep learning based classification system using image data augmentation, and cotrol method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180169802A KR102179949B1 (en) 2018-12-26 2018-12-26 Deep learning based classification system using image data augmentation, and cotrol method thereof

Publications (2)

Publication Number Publication Date
KR20200084444A true KR20200084444A (en) 2020-07-13
KR102179949B1 KR102179949B1 (en) 2020-11-17

Family

ID=71570790

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180169802A KR102179949B1 (en) 2018-12-26 2018-12-26 Deep learning based classification system using image data augmentation, and cotrol method thereof

Country Status (1)

Country Link
KR (1) KR102179949B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112633425A (en) * 2021-03-11 2021-04-09 腾讯科技(深圳)有限公司 Image classification method and device
KR102476445B1 (en) * 2021-11-11 2022-12-15 주식회사 아이스크림아트 A device that learns artificial intelligence models by augmenting art psychological analysis elements from picture data using Partial GAN(Generative Adversarial Network)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023543529A (en) * 2021-09-03 2023-10-17 パブロアーツ カンパニー インク. Art psychological analysis data generation device, and method for increasing and efficiently managing art psychological analysis data using the same
KR102533225B1 (en) * 2021-09-03 2023-05-26 주식회사 아이스크림아트 Art-based psychological analysis device using artificial intelligence model and method for providing psychological analysis result using the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170018666A (en) * 2015-08-10 2017-02-20 삼성전자주식회사 Method and apparatus for face recognition
US20170200264A1 (en) 2016-01-11 2017-07-13 Kla-Tencor Corporation Image based specimen process control
KR101863196B1 (en) 2017-07-24 2018-06-01 한국생산기술연구원 An Apparatus and A Method For Detecting A Defect On Surfaces Based On Deep Learning
KR101911061B1 (en) * 2018-03-26 2018-10-23 주식회사 대곤코퍼레이션 System of product defect discrimination using an unsupervised learning based regional convolutional auto-encoder and Method of product defect discrimination using an unsupervised learning based regional convolutional auto-encoder

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170018666A (en) * 2015-08-10 2017-02-20 삼성전자주식회사 Method and apparatus for face recognition
US20170200264A1 (en) 2016-01-11 2017-07-13 Kla-Tencor Corporation Image based specimen process control
KR101863196B1 (en) 2017-07-24 2018-06-01 한국생산기술연구원 An Apparatus and A Method For Detecting A Defect On Surfaces Based On Deep Learning
KR101911061B1 (en) * 2018-03-26 2018-10-23 주식회사 대곤코퍼레이션 System of product defect discrimination using an unsupervised learning based regional convolutional auto-encoder and Method of product defect discrimination using an unsupervised learning based regional convolutional auto-encoder

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112633425A (en) * 2021-03-11 2021-04-09 腾讯科技(深圳)有限公司 Image classification method and device
KR102476445B1 (en) * 2021-11-11 2022-12-15 주식회사 아이스크림아트 A device that learns artificial intelligence models by augmenting art psychological analysis elements from picture data using Partial GAN(Generative Adversarial Network)

Also Published As

Publication number Publication date
KR102179949B1 (en) 2020-11-17

Similar Documents

Publication Publication Date Title
Bhardwaj et al. Deep Learning Essentials: Your hands-on guide to the fundamentals of deep learning and neural network modeling
KR102179949B1 (en) Deep learning based classification system using image data augmentation, and cotrol method thereof
Chen et al. Big data deep learning: challenges and perspectives
AlZamily et al. Lemon classification using deep learning
Malgireddy et al. Language-motivated approaches to action recognition
Ko et al. Convolutional feature vectors and support vector machine for animal sound classification
WO2020092020A1 (en) Learning property graph representations edge-by-edge
Ahmed et al. Wild facial expression recognition based on incremental active learning
CN112804558B (en) Video splitting method, device and equipment
JP2023507248A (en) System and method for object detection and recognition
Srinivas et al. A comprehensive survey of techniques, applications, and challenges in deep learning: A revolution in machine learning
US11182415B2 (en) Vectorization of documents
Zhao et al. Multi‐mode neural network for human action recognition
CN114821096A (en) Image processing method, neural network training method and related equipment
US11256954B2 (en) System and method of gesture recognition using a reservoir based convolutional spiking neural network
CN113657272A (en) Micro-video classification method and system based on missing data completion
Duggal Design Space Exploration of DNNs for Autonomous Systems
Samsani et al. A real-time automatic human facial expression recognition system using deep neural networks
Deepan et al. Deep learning algorithm and its applications to ioT and computer vision
JP2022090633A (en) Method, computer program product and computer system for improving object detection within high-resolution image
KR102178238B1 (en) Apparatus and method of defect classification using rotating kernel based on machine-learning
Teixeira et al. Continuous emotion recognition with spatiotemporal convolutional neural networks
Mishra et al. Emotion recognition through facial gestures-a deep learning approach
KR102239133B1 (en) Apparatus and method of defect classification using image transformation based on machine-learning
CN112446488A (en) Transfer learning with augmented neural networks

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant