KR102653930B1 - System for providing circular knitting machine optical inspection service using anomaly detection - Google Patents

System for providing circular knitting machine optical inspection service using anomaly detection Download PDF

Info

Publication number
KR102653930B1
KR102653930B1 KR1020230071111A KR20230071111A KR102653930B1 KR 102653930 B1 KR102653930 B1 KR 102653930B1 KR 1020230071111 A KR1020230071111 A KR 1020230071111A KR 20230071111 A KR20230071111 A KR 20230071111A KR 102653930 B1 KR102653930 B1 KR 102653930B1
Authority
KR
South Korea
Prior art keywords
knitting machine
circular knitting
detection model
image
defect
Prior art date
Application number
KR1020230071111A
Other languages
Korean (ko)
Inventor
이윤호
송주원
Original Assignee
주식회사 디월드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디월드 filed Critical 주식회사 디월드
Priority to KR1020230071111A priority Critical patent/KR102653930B1/en
Application granted granted Critical
Publication of KR102653930B1 publication Critical patent/KR102653930B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • DTEXTILES; PAPER
    • D06TREATMENT OF TEXTILES OR THE LIKE; LAUNDERING; FLEXIBLE MATERIALS NOT OTHERWISE PROVIDED FOR
    • D06HMARKING, INSPECTING, SEAMING OR SEVERING TEXTILE MATERIALS
    • D06H3/00Inspecting textile materials
    • D06H3/08Inspecting textile materials by photo-electric or television means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • G01N21/892Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles characterised by the flaw, defect or object feature examined
    • G01N21/898Irregularities in textured or patterned surfaces, e.g. textiles, wood
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템이 제공되며, 기 구축된 이상탐지모델을 이용하여 원단을 편성하는 환편기로부터 토출되는 원단의 결함 이미지를 탐지, 분류, 저장 및 출력하는 사용자 단말 및 비지도학습기반 이상탐지모델을 정상 이미지만을 이용하여 학습 및 검증함으로써 모델링하는 모델링부, 이상탐지모델을 사용자 단말에 적용하여 사용자 단말의 비전 검사로부터 입력되는 이미지로부터 결함 이미지를 탐지하는 이상탐지부, 결함 이미지가 탐지된 경우 결함 이미지의 원단생산좌표, 결함 이미지의 결함종류 데이터를 분석하여 저장하는 분석부, 사용자 단말에서 결함 이미지, 결함종류 데이터 및 원단생산좌표가 출력 및 저장되도록 하는 데이터베이스화부를 포함하는 검사 서비스 제공 서버를 포함한다.A circular knitting machine vision inspection service providing system using an anomaly detection model is provided, and a user terminal and unsupervised device that detects, classifies, stores, and outputs defective images of fabric discharged from a circular knitting machine that knits fabric using a pre-built anomaly detection model. A modeling unit that models a learning-based anomaly detection model by learning and verifying it using only normal images, an anomaly detection unit that applies the anomaly detection model to the user terminal to detect defect images from images input from the vision inspection of the user terminal, and a defect image When detected, the inspection includes an analysis unit that analyzes and stores the fabric production coordinates of the defect image and defect type data of the defect image, and a database unit that outputs and stores the defect image, defect type data, and fabric production coordinates on the user terminal. Includes service provision servers.

Description

이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템{SYSTEM FOR PROVIDING CIRCULAR KNITTING MACHINE OPTICAL INSPECTION SERVICE USING ANOMALY DETECTION}Circular knitting machine vision inspection service provision system using anomaly detection model {SYSTEM FOR PROVIDING CIRCULAR KNITTING MACHINE OPTICAL INSPECTION SERVICE USING ANOMALY DETECTION}

본 발명은 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템에 관한 것으로, 환편기에서 발생하는 원단의 결함을 이상탐지모델을 이용하여 탐지, 분류 및 저장할 수 있는 솔루션을 제공한다.The present invention relates to a circular knitting machine vision inspection service providing system using an anomaly detection model, and provides a solution that can detect, classify, and store fabric defects occurring in a circular knitting machine using an anomaly detection model.

제조 산업은 현대 사회에서 빠르게 발전하고 있지만 제조 산업의 핵심 공정 중 하나인 이상치 탐지 및 불량 검출의 발달은 특정 분야에만 적용 가능한 형태로 발달하였기에 대부분의 산업에서는 아직 작업자가 직접 육안으로 검사하는 것이 대부분이다. 이상치 탐지 및 불량 검출에 있어서 딥러닝이 뛰어난 성능을 보이며 필수적인 요소로 자리잡게 되었지만, 특징 학습 또는 표현 학습의 경우 정상 데이터와 결함 데이터가 모두 많이 필요하므로 결함 데이터가 상대적으로 부족한 제조현장에 투입되기가 어렵다. 이에, 정상 데이터만을 사용해 정상 데이터의 특징을 학습하는 비지도학습 기반의 이상치 탐지 및 불량 검출만을 위해 제작된 모델이 연구 및 개발되었는데, 이러한 모델은 정상 데이터의 특징을 학습시켜 새롭게 데이터가 입력될 때마다 유사도를 측정하게 되고, 만약 결함 데이터가 입력되면 유사도가 일정 수준을 만족하지 못하여 불량으로 판단하는 방식으로 이루어진다.The manufacturing industry is developing rapidly in modern society, but the development of outlier detection and defect detection, which are one of the core processes of the manufacturing industry, has developed into a form that can only be applied to specific fields, so in most industries, workers still perform visual inspection directly. . Deep learning has shown outstanding performance in detecting outliers and defects and has become an essential element. However, feature learning or expression learning requires a lot of both normal and defective data, making it difficult to be used in manufacturing sites where defective data is relatively scarce. difficult. Accordingly, models created solely for outlier detection and defect detection based on unsupervised learning, which learn the characteristics of normal data using only normal data, have been researched and developed. These models learn the characteristics of normal data when new data is input. The similarity is measured each time, and if defective data is input, the similarity does not meet a certain level and is judged as defective.

이때, 빅데이터를 기반으로 원단의 결함을 추출하거나 딥러닝을 이용하여 불량을 식별하는 방법이 연구 및 개발되었는데, 이와 관련하여 선행기술인 한국등록특허 제10-2445162호(2022년 09월 20일 공고) 및 국제공개특허 제2019-107614호(2019년 6월 6일 공개)에는, 원단을 제작하는 부분의 결함 데이터를 수집하고, 수집된 정보를 토대로 빅데이터를 확보하며, 비전 검사(Automated Optical Inspection, AOI) 중 발생한 품질 데이터를 빅데이터에 추가하고, 머신러닝 또는 딥러닝으로 원단의 결함을 검출 및 분석하는 구성과, 머신 비전 기반 품질검사를 위하여 딥러닝을 이용하여 정상 이미지와 결함 이미지를 분류하도록 학습시키고, 학습된 분류기를 이용하여 정상 및 결함을 판정하도록 하는 구성이 각각 개시되어 있다.At this time, a method of extracting defects in fabric based on big data or identifying defects using deep learning was researched and developed. In relation to this, a prior art, Korea Registered Patent No. 10-2445162 (announced on September 20, 2022) ) and International Publication Patent No. 2019-107614 (published on June 6, 2019), data on defects in the fabric manufacturing area are collected, big data is secured based on the collected information, and vision inspection (Automated Optical Inspection) is performed. , AOI) is added to big data, and defects in the fabric are detected and analyzed using machine learning or deep learning, and deep learning is used to classify normal and defective images for machine vision-based quality inspection. Configurations for learning to do this and determining normal and defective using the learned classifier are disclosed.

다만, 전자의 경우, 머신 비전 검사는 공정 특성 및 대상 품목에 맞춰 엔지니어가 규칙을 하나씩 설정하면서 설계하는 방법으로, 엔지니어가 규칙을 얼마나 잘 만들었는지에 따라 성능이 좌우되고, 분석 대상이 복잡한 경우 미세한 불량에 대한 검출 정확도가 떨어진다. 후자의 경우 딥러닝을 이용하는 구성이 개시되어 있지만, 정밀 공정이나 신규 설비 또는 다품종 산업에서는 결함 이미지가 거의 나오지 않기 때문에 구축할 빅데이터 자체가 부족하고 결과적으로 결함 이미지의 부족으로 딥러닝의 학습 및 검증이 되지 않게 된다. 즉, 딥러닝은 이상치 탐지 및 불량 검출을 위해 만들어진 모델이 아니고, 특징을 학습하기 위해 정상 이미지와 결함 이미지가 모두 많이 필요하기 때문이다. 이에, 정상 이미지만을 이용하여 결함 이미지를 탐지해내는 솔루션의 연구 및 개발이 요구된다.However, in the case of the former, machine vision inspection is a design method in which engineers set rules one by one according to the process characteristics and target items. Performance depends on how well the engineer creates the rules, and if the analysis target is complex, The detection accuracy for defects is low. In the latter case, a configuration using deep learning has been disclosed, but since defect images are rarely produced in precision processes, new facilities, or high-product industries, there is a lack of big data to build, and as a result, deep learning learning and verification is required due to the lack of defect images. This will not happen. In other words, deep learning is not a model created for detecting outliers and defects, and requires a lot of both normal and defective images to learn features. Accordingly, research and development of a solution that detects defective images using only normal images is required.

본 발명의 일 실시예는, 정상 이미지만을 이용하여 이상치를 탐지하는 딥러닝 기반 이상탐지모델을 이용할 때, Teacher-Student 모델의 트윈구조를 이용하여 학습한 정상 이미지와 다른 특성을 가지는 이미지를 단계적 특성을 비교하여 검출하도록 함으로써, 이상치로 탐지된 원단생산좌표에 결함을 마킹하고, 결함의 종류를 분석하여 결함종류 데이터를 생성하며, 결함이 검출된 부분의 이미지를 사용자 단말에 출력하면서 결함종류 데이터와 원단생산좌표를 데이터베이스에 저장할 수 있도록 하는, 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.In one embodiment of the present invention, when using a deep learning-based anomaly detection model that detects outliers using only normal images, images with characteristics different from normal images learned using the twin structure of the Teacher-Student model are classified into step-by-step characteristics. By comparing and detecting, defects are marked on the fabric production coordinates detected as outliers, the type of defect is analyzed to generate defect type data, and an image of the part where the defect is detected is output to the user terminal, and the defect type data and It is possible to provide a circular knitting machine vision inspection service provision system using an anomaly detection model that allows fabric production coordinates to be stored in a database. However, the technical challenge that this embodiment aims to achieve is not limited to the technical challenges described above, and other technical challenges may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 기 구축된 이상탐지모델을 이용하여 원단을 편성하는 환편기로부터 토출되는 원단의 결함 이미지를 탐지, 분류, 저장 및 출력하는 사용자 단말 및 비지도학습기반 이상탐지모델을 정상 이미지만을 이용하여 학습 및 검증함으로써 모델링하는 모델링부, 이상탐지모델을 사용자 단말에 적용하여 사용자 단말의 비전 검사로부터 입력되는 이미지로부터 결함 이미지를 탐지하는 이상탐지부, 결함 이미지가 탐지된 경우 결함 이미지의 원단생산좌표, 결함 이미지의 결함종류 데이터를 분석하여 저장하는 분석부, 사용자 단말에서 결함 이미지, 결함종류 데이터 및 원단생산좌표가 출력 및 저장되도록 하는 데이터베이스화부를 포함하는 검사 서비스 제공 서버를 포함한다.As a technical means for achieving the above-described technical problem, an embodiment of the present invention detects, classifies, stores, and outputs defective images of fabric discharged from a circular knitting machine that knits fabric using a pre-built abnormality detection model. A modeling unit that models the user terminal and an unsupervised learning-based anomaly detection model by learning and verifying it using only normal images, and an anomaly detection model that applies the anomaly detection model to the user terminal to detect defective images from images input from the vision inspection of the user terminal. Detection unit, when a defect image is detected, an analysis unit that analyzes and stores the fabric production coordinates of the defect image and defect type data of the defect image, and a database that outputs and stores the defect image, defect type data, and fabric production coordinates on the user terminal. It includes an inspection service providing server including a stoker.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 정상 이미지만을 이용하여 이상치를 탐지하는 딥러닝 기반 이상탐지모델을 이용할 때, Teacher-Student 모델의 트윈구조를 이용하여 학습한 정상 이미지와 다른 특성을 가지는 이미지를 단계적 특성을 비교하여 검출하도록 함으로써, 이상치로 탐지된 원단생산좌표에 결함을 마킹하고, 결함의 종류를 분석하여 결함종류 데이터를 생성하며, 결함이 검출된 부분의 이미지를 사용자 단말에 출력하면서 결함종류 데이터와 원단생산좌표를 데이터베이스에 저장할 수 있도록 한다.According to one of the means for solving the problem of the present invention described above, when using a deep learning-based anomaly detection model that detects outliers using only normal images, characteristics that are different from the normal image learned using the twin structure of the Teacher-Student model By detecting images with step-by-step characteristics by comparing them, defects are marked on the fabric production coordinates detected as outliers, the type of defect is analyzed to generate defect type data, and the image of the part where the defect is detected is sent to the user terminal. While printing, defect type data and fabric production coordinates can be saved in the database.

도 1은 본 발명의 일 실시예에 따른 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 검사 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 이상탐지모델을 이용한 환편기 비전 검사 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
Figure 1 is a diagram illustrating a circular knitting machine vision inspection service providing system using an abnormality detection model according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating the inspection service providing server included in the system of FIG. 1.
Figures 3 and 4 are diagrams for explaining an embodiment in which a circular knitting machine vision inspection service using an anomaly detection model according to an embodiment of the present invention is implemented.
Figure 5 is an operation flowchart illustrating a method of providing a circular knitting machine vision inspection service using an anomaly detection model according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected," but also the case where it is "electrically connected" with another element in between. . In addition, when a part is said to "include" a certain component, this does not mean excluding other components unless specifically stated to the contrary, but may further include other components, and one or more other features. It should be understood that it does not exclude in advance the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. The terms "about", "substantially", etc. used throughout the specification are used to mean at or close to that value when manufacturing and material tolerances inherent in the stated meaning are presented, and are used to enhance the understanding of the present invention. Precise or absolute figures are used to assist in preventing unscrupulous infringers from taking unfair advantage of stated disclosures. The term “step of” or “step of” as used throughout the specification of the present invention does not mean “step for.”

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, 'part' includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Additionally, one unit may be realized using two or more pieces of hardware, and two or more units may be realized using one piece of hardware. Meanwhile, '~ part' is not limited to software or hardware, and '~ part' may be configured to reside in an addressable storage medium or may be configured to reproduce one or more processors. Therefore, as an example, '~ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by a terminal, apparatus, or device may instead be performed on a server connected to the terminal, apparatus, or device. Likewise, some of the operations or functions described as being performed by the server may also be performed in a terminal, apparatus, or device connected to the server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal mean mapping or matching the terminal's unique number or personal identification information, which is identifying data of the terminal. It can be interpreted as

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일 실시예에 따른 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 검사 서비스 제공 서버(300), 적어도 하나의 정보제공서버(400)를 포함할 수 있다. 다만, 이러한 도 1의 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.Figure 1 is a diagram illustrating a circular knitting machine vision inspection service providing system using an abnormality detection model according to an embodiment of the present invention. Referring to Figure 1, the circular knitting machine vision inspection service providing system 1 using an anomaly detection model includes at least one user terminal 100, an inspection service providing server 300, and at least one information providing server 400. can do. However, since the circular knitting machine vision inspection service providing system 1 using the abnormality detection model of FIG. 1 is only an embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1.

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(Network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 검사 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 검사 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 적어도 하나의 정보제공서버(400)와 연결될 수 있다. 또한, 적어도 하나의 정보제공서버(400)는, 네트워크(200)를 통하여 검사 서비스 제공 서버(300)와 연결될 수 있다. At this time, each component of FIG. 1 is generally connected through a network (Network, 200). For example, as shown in FIG. 1, at least one user terminal 100 may be connected to the test service providing server 300 through the network 200. In addition, the test service providing server 300 may be connected to at least one user terminal 100 and at least one information providing server 400 through the network 200. Additionally, at least one information providing server 400 may be connected to the inspection service providing server 300 through the network 200.

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure that allows information exchange between each node, such as a plurality of terminals and servers. Examples of such networks include a local area network (LAN) and a wide area network (WAN). Wide Area Network, Internet (WWW: World Wide Web), wired and wireless data communication network, telephone network, wired and wireless television communication network, etc. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), 5th Generation Partnership Project (5GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), and Wi-Fi. , Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), RF (Radio Frequency), Bluetooth network, NFC ( It includes, but is not limited to, Near-Field Communication (Near-Field Communication) network, satellite broadcasting network, analog broadcasting network, and DMB (Digital Multimedia Broadcasting) network.

하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following, the term at least one is defined as a term including singular and plural, and even if the term at least one does not exist, each component may exist in singular or plural, and may mean singular or plural. This should be self-explanatory. In addition, whether each component is provided in singular or plural form may be changed depending on the embodiment.

적어도 하나의 사용자 단말(100)은, 이상탐지모델을 이용한 환편기 비전 검사 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 환견기에서 토출되는 원단의 결함을 탐지, 추출, 분류 및 저장하는 사용자의 단말일 수 있다.At least one user terminal 100 is a user who detects, extracts, classifies and stores defects in the fabric discharged from the circular knitting machine using a web page, app page, program or application related to the circular knitting machine vision inspection service using an abnormality detection model. It may be a terminal of

여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one user terminal 100 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop equipped with a navigation system and a web browser, a desktop, a laptop, etc. At this time, at least one user terminal 100 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one user terminal 100 is, for example, a wireless communication device that guarantees portability and mobility, and includes navigation, personal communication system (PCS), global system for mobile communications (GSM), personal digital cellular (PDC), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) ) It may include all types of handheld-based wireless communication devices such as terminals, smartphones, smartpads, and tablet PCs.

검사 서비스 제공 서버(300)는, 이상탐지모델을 이용한 환편기 비전 검사 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 검사 서비스 제공 서버(300)는, 이상탐지모델을 트윈 구조의 Teacher-Student 모델을 이용하여 정상 이미지를 학습 및 검증하도록 함으로써 구축하는 서버일 수 있다. 또한, 검사 서비스 제공 서버(300)는, 사용자 단말(100)과 카메라를 연결하여 환편기에서 탐지, 검출 및 분류된 결함 이미지를 출력하도록 함과 동시에 원단생산좌표를 표시함으로써 결함 부분을 원단에서 찾아낼 수 있도록 하는 서버일 수 있다. 그리고 검사 서비스 제공 서버(300)는, 결함 이미지에 결함종류 데이터가 라벨링될 수 있도록 결함 이미지를 분류하는 딥러닝 모델을 구축하고, 이를 기반으로 결함 이미지도 정상 이미지와 함께 데이터의 부족이 일어나지 않도록 빅데이터를 구축하는 서버일 수 있다. 정상 이미지 및 결함 이미지의 양이 유사하고 대규모로 누적되는 경우 상술한 Teacher-Student 모델 이외에도 다양한 딥러닝의 적용이 가능하므로 검사 서비스 제공 서버(300)는, 이에 대한 데이터셋 및 발판을 마련할 수 있는 서버일 수 있다.The inspection service providing server 300 may be a server that provides a circular knitting machine vision inspection service web page, app page, program, or application using an anomaly detection model. Additionally, the inspection service providing server 300 may be a server that builds an anomaly detection model by learning and verifying normal images using a twin-structured Teacher-Student model. In addition, the inspection service providing server 300 connects the user terminal 100 and a camera to detect and output defect images detected and classified by the circular knitting machine, and at the same time displays the fabric production coordinates to find defective parts in the fabric. It may be a server that allows this. And the inspection service providing server 300 builds a deep learning model to classify the defect image so that defect type data can be labeled in the defect image, and based on this, defect images are also used with normal images to prevent data shortage. It may be a server that builds data. When the amount of normal images and defective images are similar and accumulated on a large scale, various deep learning can be applied in addition to the Teacher-Student model described above, so the inspection service providing server 300 provides a dataset and a foundation for this. It could be a server.

여기서, 검사 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.Here, the inspection service providing server 300 may be implemented as a computer that can connect to a remote server or terminal through a network. Here, the computer may include, for example, a laptop equipped with a navigation system and a web browser, a desktop, a laptop, etc.

적어도 하나의 정보제공서버(400)는, 이상탐지모델을 이용한 환편기 비전 검사 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 결함 이미지에 결함종류 데이터를 라벨링한 후 검사 서비스 제공 서버(300)로 업로드하는 서버일 수 있다. 본 출원인의 기업((주)디월드)은 머신 비전 검사 장비, 하드웨어 및 소프트웨어를 납품하는 회사로 본 출원인의 기업에서 머신 비전 컴퓨팅 자원 및 네트워킹 자원을 포함한 인프라를 구축한 회사가 다수인데, 이러한 회사가 본 발명의 솔루션을 세팅하기 이전에는 사용자 단말(100)의 사용자일 수 있고, 인프라가 구축되고 이상탐지모델이 세팅된 후에는 정보제공서버(400)와 같이 이미지를 업로드해주는 소스(Source)의 역할도 함께 수행하게 된다. 물론, 이미지 수집에 동의를 한 경우에만 사용자 단말(100)이 정보제공서버(400)의 역할을 겸할 수 있고, 이미지 수집에 동의를 하지 않은 경우에는 사용자 단말(100)은 정보제공서버(400)의 역할을 겸하지 않게 된다. 또, 사용자 단말(100)은 정보제공서버(400)일 수 있지만, 본 발명의 일 실시예에서는 설명의 편의를 위하여 사용자 단말(100)은 본 발명의 솔루션을 구축 및 이용하는 사용자(User)로, 정보제공서버(400)의 정보제공자는 이미지를 제공하는 자(Provider)로 역할을 나누어 설명하기로 한다.At least one information providing server 400 labels the defect image with defect type data using a web page, app page, program, or application related to the circular knitting machine vision inspection service using an abnormality detection model, and then labels the inspection service providing server 300 with defect type data. It may be a server that uploads to . The applicant's company (D-World Co., Ltd.) is a company that supplies machine vision inspection equipment, hardware, and software. Many of the applicant's companies have built infrastructure including machine vision computing resources and networking resources. Before setting up the solution of the present invention, the user may be a user of the user terminal 100, and after the infrastructure is built and the anomaly detection model is set, the user may be a user of the source that uploads the image, such as the information provision server 400. They also perform their roles together. Of course, the user terminal 100 can also serve as the information provision server 400 only if consent is given to image collection, and if consent is not given to image collection, the user terminal 100 can serve as the information provision server 400. It will no longer play the role of . In addition, the user terminal 100 may be the information providing server 400, but in one embodiment of the present invention, for convenience of explanation, the user terminal 100 is a user who builds and uses the solution of the present invention. The information provider of the information provision server 400 will be explained by dividing the role into an image provider.

여기서, 적어도 하나의 정보제공서버(400)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 정보제공서버(400)는, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 정보제공서버(400)는, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one information providing server 400 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop equipped with a navigation system and a web browser, a desktop, a laptop, etc. At this time, at least one information providing server 400 may be implemented as a terminal that can access a remote server or terminal through a network. At least one information provision server 400 is, for example, a wireless communication device that guarantees portability and mobility, and includes navigation, personal communication system (PCS), global system for mobile communications (GSM), and personal digital cellular (PDC). , PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband) It may include all types of handheld-based wireless communication devices such as Internet) terminals, smartphones, smartpads, and tablet PCs.

도 2는 도 1의 시스템에 포함된 검사 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3 및 도 4는 본 발명의 일 실시예에 따른 이상탐지모델을 이용한 환편기 비전 검사 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.Figure 2 is a block diagram for explaining the inspection service providing server included in the system of Figure 1, and Figures 3 and 4 are implementations of a circular knitting machine vision inspection service using an abnormality detection model according to an embodiment of the present invention. This drawing is for explaining an embodiment.

도 2를 참조하면, 검사 서비스 제공 서버(300)는, 모델링부(310), 이상탐지부(320), 분석부(330), 데이터베이스화부(340), 모델설정부(350), 학습부(360), 종류분류부(370), 구축부(380), 빅데이터화부(390), 전처리부(391) 및 실시간검출부(393)를 포함할 수 있다.Referring to Figure 2, the inspection service providing server 300 includes a modeling unit 310, an abnormality detection unit 320, an analysis unit 330, a database unit 340, a model setting unit 350, and a learning unit ( 360), a classification unit 370, a construction unit 380, a big data conversion unit 390, a preprocessing unit 391, and a real-time detection unit 393.

본 발명의 일 실시예에 따른 검사 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100) 및 적어도 하나의 정보제공서버(400)로 이상탐지모델을 이용한 환편기 비전 검사 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100) 및 적어도 하나의 정보제공서버(400)는, 이상탐지모델을 이용한 환편기 비전 검사 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100) 및 적어도 하나의 정보제공서버(400)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.The inspection service providing server 300 or another server (not shown) operating in conjunction with one embodiment of the present invention creates an anomaly detection model with at least one user terminal 100 and at least one information providing server 400. When transmitting a circular knitting machine vision inspection service application, program, app page, web page, etc., at least one user terminal 100 and at least one information provision server 400, a circular knitting machine vision inspection service application using an anomaly detection model , you can install or open programs, app pages, web pages, etc. Additionally, a service program may be run on at least one user terminal 100 and at least one information provision server 400 using a script executed in a web browser. Here, a web browser is a program that allows the use of web (WWW: World Wide Web) services and refers to a program that receives and displays hypertext written in HTML (Hyper Text Mark-up Language), for example, Netscape. , Explorer, Chrome, etc. Additionally, an application refers to an application on a terminal and includes, for example, an app running on a mobile terminal (smartphone).

도 2를 참조하면, 모델링부(310)는, 비지도학습기반 이상탐지모델을 정상 이미지만을 이용하여 학습 및 검증함으로써 모델링할 수 있다. 최근, 딥러닝 기술은 영상, 비디오 등의 컴퓨터 비전 분야에서 탁월한 성능을 보여주고 있으며 현재 다양한 분야로의 적용범위가 확대되어 가는 추세이지만, 고사양의 딥러닝 모델은 일반적으로 수 천 만개 이상의 수 많은 학습변수들로 이루어진 복잡한 네트워크 구조를 가지기 때문에, 이미 학습이 완료된 복잡한 네트워크 구조로부터 다양한 응용분야로 의 적용을 활성화하기 위해서는 효율적인 정보추출(Knowledge Distillation) 및 정보이전(knowledge Transfer) 기술이 요구되고 있다. 이미 학습이 완료된 복잡한 네트워크로부터 유용한 정보를 추출하고 상대적으로 저사양의 딥러닝 모델로 그 정보를 이전하는 연구가 진행되어 왔는데, 이미 학습이 완료된 복잡한 네트워크를 Teacher(교수) 모델, Teacher 모델로부터 정보를 이전받아 학습을 수행하는 저사양 네트워크를 Student(학생) 모델로 정의하고, Teacher 모델의 확률기반의 소프트맥스 출력층(Softmax Output Layer)에서 출력된 값을 소프트맥스 팩터(Factor)로 완화하여 Student 모델을 학습시키는 방법, 즉 지식증류(Knowledge Distillation, KD) 학습방법이 개발되었다. Teacher 모델의 힌트층(Hint Layer)을 이용한 가중치(Weight) 최적화를 일반적인 KD 학습에 포함하여 힌트 학습과 KD 학습을 차례대로 수행하여 학습 성능을 향상시킬 수도 있다. 이때 후술하는 바와 같이 본 발명의 일 실시예에서는 Teacher-Student 모델을 트윈 구조로 구성하지만, Teacher 모델과 Student 모델 모두 ResNet으로 폭은 같은 크기를 가지고 Teacher 모델이 Student 모델보다 더 깊은 네트워크를 가지도록 구성할 수도 있다.Referring to FIG. 2, the modeling unit 310 can model an unsupervised learning-based anomaly detection model by learning and verifying it using only normal images. Recently, deep learning technology has shown excellent performance in computer vision fields such as images and videos, and its scope of application to various fields is currently expanding. However, high-specification deep learning models generally learn tens of millions or more. Because it has a complex network structure made up of variables, efficient knowledge distillation and knowledge transfer technologies are required to activate the application of the complex network structure that has already been learned to various application fields. Research has been conducted to extract useful information from a complex network that has already been trained and transfer that information to a relatively low-specification deep learning model. Transferring information from a teacher model to a complex network that has already been trained The low-specification network that receives and performs learning is defined as the Student model, and the value output from the probability-based Softmax Output Layer of the Teacher model is relaxed with the Softmax Factor to learn the Student model. A learning method, namely Knowledge Distillation (KD), was developed. Weight optimization using the hint layer of the teacher model can be included in general KD learning to improve learning performance by performing hint learning and KD learning sequentially. At this time, as will be described later, in one embodiment of the present invention, the Teacher-Student model is configured as a twin structure, but both the Teacher model and the Student model are ResNet, and the width is the same, and the Teacher model is configured to have a deeper network than the Student model. You may.

<힌트 학습 알고리즘><Hint learning algorithm>

ResNet에 적용하기 위한 힌트 학습 알고리즘이란, 우선 이미 학습이 완료된 Teacher 모델의 중간층인 힌트층에서의 출력값과 학습하고자 하는 Student 모델의 중간층인 가이드(Guided Layer)에서의 출력값을 이용하여 이하 수학식 1과 같이 L2 비용을 계산한다.The hint learning algorithm for application to ResNet is first of all, using the output value from the hint layer, which is the middle layer of the already trained Teacher model, and the output value from the guide layer, which is the middle layer of the Student model to be learned, Calculate the L2 cost together.

Figure 112023060871652-pat00001
Figure 112023060871652-pat00001

여기서, fh, fg 및 fr은 입력층으로부터 힌트층까지의 가중치에 해당하는 Wh로부터 활성함수(Activation Function)들을 통과한 출력을, 입력층으로부터 가이드층까지의 가중치에 해당하는 Wg로부터 활성함수를 통과한 출력을, Wr 가중치를 가지는 회귀함수(Regressor Function)의 출력을 각각 나타낸다. 이때, 회귀함수는 힌트층의 특징맵의 크기 및 개수와 가이드 층의 특징맵의 크기 및 개수가 서로 다를 경우 이들을 일치하도록 중간에 삽입하는 회귀연산자를 의미한다. 회귀함수 연산에 따른 계산의 복잡성을 줄이기 위하여 층수는 서로 다른 반면 특징맵 크기는 서로 같은 ResNet 구조를 고려한다. 따라서, 수학식 1에서 회귀함수를 제외하여 수학식 2와 같이 같이 힌트학습을 위한 L2 비용을 계산할 수 있다.Here, fh, fg, and fr are the outputs that pass through activation functions from Wh, which corresponds to the weight from the input layer to the hint layer, and the output that passes through the activation functions from Wg, which corresponds to the weight from the input layer to the guide layer. It represents one output and the output of a regressor function with weight Wr, respectively. At this time, the regression function refers to a regression operator that is inserted to match the size and number of feature maps of the hint layer and the guide layer when they are different. In order to reduce the complexity of calculating the regression function, we consider a ResNet structure where the number of layers is different but the feature map size is the same. Therefore, by excluding the regression function from Equation 1, the L2 cost for hint learning can be calculated as in Equation 2.

Figure 112023060871652-pat00002
Figure 112023060871652-pat00002

수학식 2로부터 추출된 Student 모델에서 가이드층까지의 (hat)Wg를 이용하여 힌트-KD 학습을 수행할 수 있다.Hint-KD learning can be performed using (hat)Wg from the Student model extracted from Equation 2 to the guide layer.

<힌트-KD 학습 알고리즘><Hint-KD learning algorithm>

수학식 2의 힌트학습으로부터 추출된 가중치 정보와 Teacher 모델의 완화상수 기반의 KD 정보 모두를 이용하는 힌트-KD 학습 방법을 우선 설명한다. 먼저, 힌트-KD 학습 전 Student 모델의 전체 가중치 초기화를 이하의 수학식 3과 같이 수행한다.First, we explain the hint-KD learning method that uses both the weight information extracted from hint learning in Equation 2 and the KD information based on the relaxation constant of the teacher model. First, before learning Hint-KD, initialization of all weights of the Student model is performed as shown in Equation 3 below.

Figure 112023060871652-pat00003
Figure 112023060871652-pat00003

여기서 W-1s는 Student 모델에서 가이드층으로부터 최종 출력층까지 랜덤값을 가지는 가중치를 의미한다. 즉, Student 모델에서 입력층으로부터 가이드층까지의 가중치는 수학식 2의 이 전 힌트학습에서 구한 (hat)Wg를 이용하고, 그 나머지인 가이드층으로부터 최종 출력층까지의 가중치인 W-1s는 랜덤값으로 초기화하여 Ws를 구성한다. 다음으로, Teacher 모델의 최종 출력층에서의 소프트맥스출력값을 τ로 완화하고, 학습시켜야 하는 Student 모델의 최종 출력값 또한 τ로 완화하여 이하 수학식 4와 같이 비용함수를 구성하여 KD 학습을 수행한다.Here, W-1s refers to a weight with a random value from the guide layer to the final output layer in the Student model. That is, in the Student model, the weight from the input layer to the guide layer uses (hat)Wg obtained from the previous hint learning in Equation 2, and the remaining weight, W-1s, from the guide layer to the final output layer is a random value. Configure Ws by initializing it with . Next, the softmax output value in the final output layer of the Teacher model is relaxed to τ, the final output value of the Student model to be trained is also relaxed to τ, and KD learning is performed by constructing a cost function as shown in Equation 4 below.

Figure 112023060871652-pat00004
Figure 112023060871652-pat00004

여기서, E는 크로스 엔트로피(Cross-Entropy)를, λ는 다중 비용함수 제어상수를, Ytrue는 실제 라벨(True Label)을 가지는 GT(Ground Truth)를, PT=softmax(aT/τ), Ps=softmax(aS/τ), aT는 Teacher 모델에서 소프트맥스 출력 전의 입력벡터를, aS는 Student 모델에서 소프트맥스 출력 전의 입력벡터를, τ는 완화상수를 각각 나타낸다. 이에, 수학식 2를 이용하여 Teacher 모델에서 입력층으로부터 힌트층까지의 가중치인 Wh를 닮아가도록 Student 모델의 (hat)Wg를 구하는 힌트학습을 먼저 수행하고, 수학식 3을 이용하여 (hat)Wg로부터 초기 가중치인 Ws를 구성한 다음, 수학식 4를 이용하여 힌트정보와 KD정보를 모두 이용하는 힌트-KD 학습을 최종 수행할 수 있다. 물론, 후술할 트윈 구조의 Teacher-Student 모델나, STPM(Student-Teacher Feature Pyramid Matching) 모델, RD(Reverse Distillation) 등 다양한 Teacher-Student 모델이 이용될 수 있음은 자명하다 할 것이다.Here, E is cross-entropy, λ is a multi-cost function control constant, Ytrue is GT (ground truth) with a true label, PT=softmax(aT/τ), Ps= softmax(aS/τ), aT represents the input vector before softmax output in the Teacher model, aS represents the input vector before softmax output in the Student model, and τ represents the relaxation constant. Therefore, using Equation 2, hint learning is first performed to obtain the (hat)Wg of the Student model to resemble Wh, the weight from the input layer to the hint layer in the Teacher model, and (hat)Wg is calculated using Equation 3. After constructing the initial weight Ws from , hint-KD learning using both hint information and KD information can be finally performed using Equation 4. Of course, it is obvious that various Teacher-Student models can be used, such as the twin structure Teacher-Student model, STPM (Student-Teacher Feature Pyramid Matching) model, and RD (Reverse Distillation) model, which will be described later.

이상탐지부(320)는, 이상탐지모델을 사용자 단말(100)에 적용하여 사용자 단말(100)의 비전 검사로부터 입력되는 이미지로부터 결함 이미지를 탐지할 수 있다. 사용자 단말(100)은, 기 구축된 이상탐지모델을 이용하여 원단을 편성하는 환편기로부터 토출되는 원단의 결함 이미지를 탐지, 분류, 저장 및 출력할 수 있다. 이때, Teacher-Student 모델은 정상 이미지만을 학습하기 때문에 결함 이미지가 정상 이미지와 패턴이 달라 탐지는 해낼 수 있을지는 몰라도, 결함 이미지의 결함종류가 무엇인지는 또 다른 문제로 탐지해낼 수가 없다. 이때, 결함 이미지를 탐지 및 분류하기 위해서는 [결함 이미지-결함종류 데이터]의 데이터셋이 요구되는데, 본 출원인이 출원하는 별도 출원에서 결함 이미지와 결함종류 데이터를 한국표준산업분류의 코드에 대응하도록 데이터베이스화하고 더 나아가 빅데이터를 구축한다. 이를 위해서는 별도의 딥러닝 모델이 요구되며, 이는 후술하는 구축부(380)에서 상세히 설명하기로 한다.The anomaly detection unit 320 may apply an anomaly detection model to the user terminal 100 to detect a defect image from an image input from a vision inspection of the user terminal 100. The user terminal 100 can detect, classify, store, and output defective images of fabric discharged from a circular knitting machine that knits fabric using a pre-built abnormality detection model. At this time, since the Teacher-Student model only learns normal images, it may be able to detect the defective image because it has a different pattern from the normal image, but it cannot detect the type of defect in the defective image due to another problem. At this time, in order to detect and classify the defect image, a dataset of [defect image-defect type data] is required. In a separate application filed by the present applicant, the defect image and defect type data are stored in a database to correspond to the codes of the Korean Standard Industrial Classification. and further build big data. For this purpose, a separate deep learning model is required, which will be explained in detail in the construction unit 380 described later.

분석부(330)는, 결함 이미지가 탐지된 경우 결함 이미지의 원단생산좌표, 결함 이미지의 결함종류 데이터를 분석하여 저장할 수 있다. 이때, 결함종류 데이터는 후술하는 종류분류부(370)에서 설명되므로 상세한 설명은 생략한다.When a defect image is detected, the analysis unit 330 may analyze and store the fabric production coordinates of the defect image and the defect type data of the defect image. At this time, since the defect type data is explained in the type classification unit 370 described later, detailed description will be omitted.

데이터베이스화부(340)는, 사용자 단말(100)에서 결함 이미지, 결함종류 데이터 및 원단생산좌표가 출력 및 저장되도록 할 수 있다.The database unit 340 can allow the user terminal 100 to output and store defect images, defect type data, and fabric production coordinates.

모델설정부(350)는, 이상탐지모델을 비지도학습기반 트윈 구조의 Teacher-Student 모델을 이용할 수 있다. 학습부(360)는, Teacher-Student 모델의 학습 시 Teacher 인코더와 Student 인코더 모두에 정상 이미지를 입력하고, Teacher 레이어에서 출력된 결과의 출력 매트릭스와, Student 레이어에서 출력된 결과의 출력 매트릭스 간의 차이를 계산하며, 차이를 Student 레이어에 가중치로 갱신한 후 Teacher 레이어와 Student 레이어가 유사한 출력 매트릭스를 출력하도록 학습을 시킬 수 있다. Teacher 레이어는 Pretrain된 레이어로 학습이 불가하고 특징(Feature)을 추출하는 레이어이고, Student 레이어는 Pretrain되지 않은 레이어로 학습이 가능하며 특징을 추출하는 레이어일 수 있다. 이때 트윈 구조의 Teacher-Student 모델을 설명하기 이전에 STPM(Student-Teacher Feature Pyramid Matching) 모델 및 RD(Reverse Distillation)를 도 3a 및 도 3b를 참조로 설명한다. The model setting unit 350 may use a Teacher-Student model with an unsupervised learning-based twin structure as the anomaly detection model. When learning the Teacher-Student model, the learning unit 360 inputs normal images to both the Teacher encoder and the Student encoder, and calculates the difference between the output matrix of the result output from the Teacher layer and the output matrix of the result output from the Student layer. After calculating the difference and updating it as a weight in the Student layer, the Teacher layer and Student layer can be trained to output similar output matrices. The teacher layer is a pretrained layer that cannot be learned and is a layer that extracts features, and the student layer is a non-pretrained layer that can be learned and can be a layer that extracts features. At this time, before explaining the twin-structured Teacher-Student model, the STPM (Student-Teacher Feature Pyramid Matching) model and RD (Reverse Distillation) are explained with reference to FIGS. 3A and 3B.

결함 이미지가 부족한 한계로 인하여 정상 이미지만을 이용하여 정상 이미지의 특징을 학습하는 비지도학습 기반의 이상치 탐지 및 불량 검출만을 위해 제작된 모델은 정상 이미지터의 특징을 학습시켜 새롭게 데이터가 들어올 때마다 유사도를 측정하게 되는데 만약 결함 이미지가 들어와 유사도가 일정 수준을 만족하지 못하면 불량으로 판단하는 방식이 일반적이다. 이러한 비지도학습기반의 모델 중 클래스를 하나씩 학습하는 경우 One Class Anomaly Detection 모델로 구분이 되는데 해당 분야에서 자주 사용되는 기법은 인코더를 사용하는 KD(Knowledge Distillation) 방식이다. KD 기반 모델은 Teacher-Student(또는 Student-Teacher) 모델을 이용하는 STPM 모델이 있다. 또, Teacher-Student의 인코더와 디코더를 이용하여 구축한 모델이 있는데, 이는 RD로 불리운다. 이 두 모델은 아키텍처가 학습 시 한 개의 클래스만을 학습한다는 점과 결함 영역의 시각화가 가능하다는 점에서 유사하나, STPM 모델은 인코더만을 사용하며, RD 모델은 인코더와 디코더 그리고 피쳐 압축 모듈을 사용한다는 차이점이 있다.Due to the limitation of lack of defective images, the model created solely for outlier detection and defect detection based on unsupervised learning, which learns the characteristics of normal images using only normal images, learns the characteristics of normal imagers and increases the similarity level every time new data comes in. is measured, and if a defective image is received and the similarity does not meet a certain level, it is generally judged as defective. Among these unsupervised learning-based models, when each class is learned one by one, it is classified into a One Class Anomaly Detection model. A technique frequently used in this field is the KD (Knowledge Distillation) method using an encoder. KD-based models include the STPM model that uses the Teacher-Student (or Student-Teacher) model. Additionally, there is a model built using the Teacher-Student encoder and decoder, which is called RD. These two models are similar in that the architecture learns only one class during training and allows visualization of defect areas, but the difference is that the STPM model uses only an encoder, while the RD model uses an encoder, decoder, and feature compression module. There is.

<STPM 모델><STPM model>

도 3a를 참조하면, STPM의 경우 학습 시 정상 데이터를 Teacher 인코더와 Student 인코더에 모두 입력한다는 특징이있다. Teacher와 Student 모두 ResNet을 기반으로 동일한 레이어로 만들어져 있으며, 스케일에 따라 크게 3개의 부분을 가진다. Teacher의 경우 미리 학습(Pretrain)된 레이어로, 학습이 불가능하며 특징(Feature)을 추출하는 역할을 한다. Student는 학습이 가능한 레이어로 Teacher와 동일한 레이어로 구성이 되어있지만 미리 학습되어 있지 않다. 스케일에 따라 추출된 특징맵은 각기 쌍을 이루어 T1과 S1, T2와 S2 그리고 T3와 S3에서 유사도를 측정하게 된다. 이 유사도가 Loss가 되며 Teacher와 Student가 유사한 특징맵을 산출하도록 학습이 이루어진다. 이후 추론단계에서 결함 데이터가 들어올 경우 미리 학습된 Teacher는 특징을 잘 추출하지만 정상 이미지만 경험한 Student는 특징을 잘 추출하지 못하며 이 차이를 모아 시각화를 할 수 있고, F1-Score가 높게 나타나는 임계값(Threshold) 값을 통해 분류(Classification) 또한 가능하다.Referring to Figure 3a, STPM has the characteristic of inputting normal data into both the Teacher encoder and the Student encoder during learning. Both Teacher and Student are made of the same layer based on ResNet, and have three major parts depending on the scale. In the case of the teacher, it is a pretrained layer, so it cannot be learned, and its role is to extract features. Student is a layer that can be learned and is composed of the same layers as Teacher, but has not been learned in advance. The feature maps extracted according to the scale are paired and the similarity is measured between T1 and S1, T2 and S2, and T3 and S3. This similarity becomes the loss, and learning is performed so that the teacher and student produce similar feature maps. When defective data comes in at the later inference stage, the pre-trained Teacher extracts the features well, but the Student who has only experienced normal images does not extract the features well. This difference can be collected and visualized, and the threshold at which the F1-Score appears high Classification is also possible through the threshold value.

<RD 모델><RD model>

도 3b를 참조하면, RD 모델은 STPM과 유사하지만 Student의 경우 인코더가 아닌 디코더를 사용한 점과 특징(Feature) 압축 모듈로 인코더로부터 나온 특징을 압축시킨 후 디코더를 사용해 복원시킨다는 점에서 차이가 있다. Teacher는 STPM과 마찬가지로 미리 학습되어 학습이 불가한 ResNet이며, Student는 학습이 가능한 ResNet을 Deconvolution Layer를 사용해 구성한 디코더이다. 특징 압축 모듈 또한 ResNet의 일부분으로 구성되어 있으며 학습이 가능하다. STPM과 마찬가지로 특징맵 간 유사도를 측정하여 이를 학습에 사용한다. 또한 복원 실패한 부분을 모아 시각화가 가능하며 유사도의 임계값을 설정할 경우 분류 또한 가능하다.Referring to Figure 3b, the RD model is similar to STPM, but the difference is that Student uses a decoder rather than an encoder and uses a feature compression module to compress the features from the encoder and then restore them using the decoder. Like STPM, the Teacher is a ResNet that has been trained in advance and cannot be trained, and the Student is a decoder that constructs a ResNet that can be trained using a Deconvolution Layer. The feature compression module is also part of ResNet and can be trained. Like STPM, the similarity between feature maps is measured and used for learning. In addition, it is possible to collect and visualize parts that have failed to be restored, and classification is also possible by setting a threshold for similarity.

<Teacher-Student 모델><Teacher-Student model>

도 3c와 같이 트윈 구조의 컨볼루션 및 맥스풀링으로 출력된 값을 각 레이어를 거치면서 출력 매트릭스로 출력함으로써 Teacher가 출력한 출력 매트릭스를 Student가 학습하도록 Teacher의 출력 매트릭스를 기준으로 Student로 가중치를 갱신하여 학습을 반복한다. 도 3d와 같이 검증(테스트) 과정에서는 결함(불량) 이미지를 검출하는지의 여부를 확인하게 된다.As shown in Figure 3c, the values output by twin-structure convolution and max pooling are output as output matrices as they pass through each layer, and the weights are updated to the Student based on the Teacher's output matrix so that the Student learns the output matrix output by the Teacher. and repeat learning. As shown in Figure 3d, in the verification (testing) process, it is checked whether a defective (defective) image is detected.

종류분류부(370)는, 이상탐지모델에서 이미지를 결함 이미지로 분류한 경우, 결함 이미지의 결함종류를 분류자(Classifier)가 분류하도록 하고, 결함종류의 결함종류 데이터를 결함 이미지에 라벨링하여 저장할 수 있다. 이때, 라벨러를 고용하여 결함 이미지의 결함종류 데이터를 초기에 라벨링하는 과정이 필요하겠지만, 강화학습의 모방학습을 이용하는 경우, 점차 사람이 라벨링하는 것과 같은 자동 라벨링이 가능해질 수 있다. 영상에서 이미지는 2 차원의 평면에 시각적 정보를 표현하는 방법이다. 이미지를 활용하여 정보를 처리하는 방법에 있어 최근 심층신경망은 합성곱을 사용하여 이미지 인식 분야인 객체 탐지, 패턴 인식에서 빠른 발전을 이루어 제한적인 조건에서는 사람보다 높은 판독률을 나타내기도 한다. 합성곱 신경망은 입력층과 출력층 사이에 여러 은닉층으로 이루어진 인공신경망의 한 종류로서 합성곱의 패턴을 스스로 학습한다. 많은 합성곱 신경망은 지도 학습으로 학습되어지며 입력으로 이미지와 출력으로 단어 혹은 이미지인 라벨이 주어진다. 효과적인 합성곱 신경망을 위해서는 많은 데이터셋이 존재할 때 과적합 문제를 효과적으로 해결하면서 높은 정확도의 결과를 얻을 수 있다. When the image is classified as a defect image in the anomaly detection model, the type classification unit 370 allows a classifier to classify the defect type of the defect image, and labels and stores defect type data of the defect type in the defect image. You can. At this time, it may be necessary to hire a labeler to initially label the defect type data of the defect image, but if imitation learning of reinforcement learning is used, automatic labeling similar to human labeling can gradually become possible. In video, an image is a way to express visual information on a two-dimensional plane. In terms of how to process information using images, deep neural networks have recently made rapid progress in object detection and pattern recognition in the image recognition field using convolution, sometimes showing higher reading rates than humans under limited conditions. A convolutional neural network is a type of artificial neural network consisting of several hidden layers between the input layer and the output layer, and learns convolution patterns on its own. Many convolutional neural networks are trained using supervised learning, and are given images as input and labels, which are words or images, as output. For an effective convolutional neural network, high accuracy results can be obtained while effectively solving the overfitting problem when there are many datasets.

이를 위해, 데이터셋은 많은 전문가, 즉 라벨러가 직접 공수를 들여 라벨링을 하게 되며, 많은 데이터셋을 효과적으로 처리하기 위해서 병렬로 처리된다. 그러나 최근 이미지는 전문가로만 처리할 수 있는 용량을 넘어서는 데이터가 축적되어가고 있다. 이에 따라 다수의 전문가는 협력한 데이터셋 획득 방법이 필요하다. 강화학습은 어떤 환경(Environment) 안에서 정의된 모델이 현재 상태(State)를 인식하고 선택 가능한 행동(Action) 중 최대한의 보상(Reward)이 주어지는 행동 혹은 행동의 순서를 선택하는 신경망이다. 본 발명의 일 실시예에서는, 전문가 집단이 딥러닝 기반 학습 이미지 분류 및 전문가를 모방하는 강화학습으로 구성하여 전문가의 라벨링을 수행하면서 동시에 강화학습을 통한 자동화된 분류를 하고 낮은 정확도에 대한 이미지를 전문가의 라벨링으로서 보완하는 시스템을 이용할 수 있다.For this purpose, the dataset is labeled with the labor of many experts, that is, labelers, and processed in parallel to effectively process many datasets. However, recently, image data is accumulating beyond the capacity that only experts can process. Accordingly, multiple experts need a collaborative method of acquiring datasets. Reinforcement learning is a neural network in which a model defined within an environment recognizes the current state and selects an action or sequence of actions that gives the maximum reward among selectable actions. In one embodiment of the present invention, a group of experts consists of deep learning-based learning image classification and reinforcement learning that imitates experts, performs labeling by experts, and simultaneously performs automated classification through reinforcement learning and records low-accuracy images from experts. A complementary system can be used as labeling.

심층 합성곱 신경망은 이미지 처리용 전용 딥러닝 신경망으로, 입력으로 이미지가 주어지고 출력으로 이미지 라벨 데이터가 주어진다. 여러 모델은 Imagenet Large Scale Visual Recognition Callenge 데이터를 사용한 이미지 분류 문제에서 매우 높은 인식율을 나타내고 있다. R-CNN(Region-Convolutional Neural Network)은 동영상과 같은 실시간 영상에서 사용하기 위한 심층 합성곱 신경망이다. R-CNN는 처리 시간을 중심으로 구성되어 단위 시간당 많은 이미지를 비교할 수 있다. 강화학습은 입력과 출력이 아닌 상태(State)를 인식하고 선택 가능한 행동에서 최대한의 보상이 주어지는 행동 순서를 선택하는 신경망이다. 본 발명의 일 실시예에서는 모방학습기의 라벨링 행위가 전문가의 라벨링 행위와 같은 형태로 모방할 수 있도록 설정할 수 있다.A deep convolutional neural network is a deep learning neural network dedicated to image processing. An image is given as input and image label data is given as output. Several models show very high recognition rates in image classification problems using Imagenet Large Scale Visual Recognition Callenge data. R-CNN (Region-Convolutional Neural Network) is a deep convolutional neural network for use in real-time images such as videos. R-CNN is built around processing time and can compare many images per unit time. Reinforcement learning is a neural network that recognizes states rather than inputs and outputs and selects an action sequence that provides maximum reward from selectable actions. In one embodiment of the present invention, the labeling behavior of the imitation learner can be set to imitate the labeling behavior of an expert.

<이미지 라벨링><Image labeling>

전문가의 라벨링을 수집하고 이를 강화학습으로 전문가의 라벨링 패턴을 모방하는 모방학습기로 구성할 수 있다. 저장소는 이미지와 라벨링 데이터베이스로 구성될 수 있는데, 이미지 데이터베이스는 분류에 필요한 이미지들을 저장하고 라벨링 데이터베이스는 전문가나 모방학습기로 라벨링 된 데이터를 저장한다. 본 발명의 일 실시예에 따른 종류분류부(370)는, 전문가에게 모방학습기를 제공한다. 모방학습기는 전문가가 라벨링한 데이터를 기반으로 하여 R-CNN 기반의 신경망을 이용한 객체 탐색 후 라벨링을 수행한다. 모방학습기는 객체에 대한 기 분류된 데이터에 대한 확신도가 낮거나 분류 카테고리 내 데이터가 없을 때, 전문가에 의한 재분류를 통해 강화학습을 수행할 수 있게 한다. It can be configured as an imitation learner that collects the expert's labeling and imitates the expert's labeling pattern using reinforcement learning. The storage can be composed of an image and a labeling database. The image database stores images needed for classification, and the labeling database stores data labeled by experts or imitation learners. The type classification unit 370 according to an embodiment of the present invention provides an imitation learner to experts. The imitation learner performs labeling after object exploration using an R-CNN-based neural network based on data labeled by experts. The imitation learner allows reinforcement learning to be performed through reclassification by experts when confidence in the previously classified data for an object is low or there is no data in the classification category.

이러한 모방학습기는 전문가 집단이 지속적인 분류를 하는 것이 아닌 모방학습 결과에 대해 보다 집중적으로 평가하고 보완하는 작업을 통해 대량으로 이미지 라벨링을 수행할 수 있도록 한다. 이미지를 배분받은 전문가는 해당 이미지 내 객체의 좌표를 얻고 라벨링을 부여한다. 라벨링이 된 객체는 서버로 전송하여 라벨링 데이터베이스에 저장된다. 또한, 전문가가 새로운 이미지인 데이터셋을 추가로 입력하여 직접 라벨링을 수행하거나 모방학습기가 라벨링을 수행할 수 있도록 지정한다. 모방학습기는 라벨링 기반으로 획득한 객체를 R-CNN을 이용하여 객체 탐색을 수행한다. 탐지된 객체가 신뢰수준의 데이터를 얻은 경우 동일한 라벨을 추가한다. 만약 낮은 정확도로 획득한 경우 해당 이미지 내의 객체를 전문가에게 반환하여 해당 객체에 대한 라벨링 데이터를 새로 획득할 수 있도록 한다. 전문가에 의해 라벨링된 데이터는 강화학습의 보상으로 작용하며 새로운 라벨링으로 갱신되는 경우 추론 모델을 갱신한다.This imitation learner allows a group of experts to perform mass image labeling through more intensive evaluation and supplementation of the imitation learning results rather than continuous classification. The expert who receives the image obtains the coordinates of the object in the image and assigns a label. Labeled objects are sent to the server and stored in the labeling database. In addition, an expert additionally inputs a new image dataset and performs labeling directly, or specifies that an imitation learner can perform labeling. The imitation learner performs object search on objects obtained based on labeling using R-CNN. If the detected object obtains trust level data, the same label is added. If it is acquired with low accuracy, the object in the image is returned to the expert so that new labeling data for the object can be obtained. Data labeled by experts serves as a reward for reinforcement learning and updates the inference model when updated with new labeling.

구축부(380)는, 결함 이미지를 결함종류 데이터를 라벨링한 후 데이터셋으로 구축하고, 적어도 하나의 딥러닝 모델을 학습 및 검증함으로써 모델링할 수 있다. 딥러닝 모델은 두단계 알고리즘(Two-Stage Detection Algorithm)을 이용하고, 두단계 알고리즘 중 R-CNN(Regions with Convolutional Neuron Networks)을 이용할 수 있다. 객체 검출은 Computer Vision과 Image Processing 등을 이용해 분류와 위치 정보(Localization)를 찾는 기술이다. Localization은 Bounding Box를 찾는 회귀(Regression)를 진행하고 Classification은 Bounding Box 내 물체가 무엇인가 분류하는 문제를 의미한다. 객체 검출은 Classification과 Localization에 대한 정보를 가지는 검출 방법을 말하는데, 검출 방식으로 단일단계 검출(One-Stage Detector)과 두단계 검출(Two-Stage Detector)로 나뉜다. 단일단계 검출은 분류와 지역화를 동시에 처리하기 때문에 처리 속도가 빠르지만, 정확도가 떨어진다. YOLO, SSD가 대표적인 예이다. 두단계 검출은 분류와 지역화 작업을 나눠서 차례로 처리하는데 R-FCN, Faster R-CNN, Mask R-CNN 등이 대표적인 예이다. 본 발명의 일 실시예에서는, 아주 미세한 불량이나 결함도 찾아내야 하기 때문에 신속하지만 정확도가 떨어지는 단일단계 검출 대신 두단계 검출 방법을 이용하기로 한다. 다만, 단일단계 검출을 완전히 배제하는 것은 아니다.The construction unit 380 may model the defect image by labeling the defect type data, constructing the data set, and learning and verifying at least one deep learning model. The deep learning model uses a two-stage detection algorithm, and among the two-stage algorithms, R-CNN (Regions with Convolutional Neuron Networks) can be used. Object detection is a technology that finds classification and location information using computer vision and image processing. Localization involves regression to find the Bounding Box, and Classification refers to the problem of classifying the objects within the Bounding Box. Object detection refers to a detection method that contains information about classification and localization, and is divided into single-stage detection (One-Stage Detector) and two-stage detection (Two-Stage Detector). Single-step detection is fast because it processes classification and localization simultaneously, but its accuracy is low. YOLO and SSD are representative examples. Two-stage detection divides classification and localization tasks and processes them sequentially, and representative examples include R-FCN, Faster R-CNN, and Mask R-CNN. In one embodiment of the present invention, since even the smallest defects or defects must be found, a two-step detection method is used instead of a single-step detection that is fast but less accurate. However, single-step detection is not completely excluded.

<R-CNN 계열 객체 검출><R-CNN series object detection>

딥러닝 기반 객체 검출 모델은 상술한 바와 같이 R-CNN 계열과 YOLO 계열로 구분될 수 있다. R-CNN 계열로는 R-CNN의 상위 버전에 해당하는 Fast/Faster R-CNN이 있고 YOLO 계열로는 YOLO를 포함해서 YOLO의 스케일 취약성을 보완한 SSD(Single Shot Detection)가 있다. R-CNN 계열과 YOLO 계열의 가장 큰 차이는 영역 제안과 분류기 구조에 있다. 초기 객체 모델인 R-CNN은 영역 제안과 분류기 학습과정이 이원화되어 있다. 즉, SS를 통해 후보 바운딩 박스를 생성하고 분류기를 학습하는 구조로 되어 있다. R-CNN은 후보 바운딩 박스를 라사이징을 통해 동일한 크기로 맞춘 후, VGG와 같은 영상 인식 모델에 일일이 통과시켜야 된다. 따라서 상당한 계산 시간이 요구된다. 이러한 단점을 보완하기 위해, ROI(Region of Interest) 레이어를 만들어서 후보 바운딩 박스를 VGG의 특징 맵의 좌표로 사상한 후, 동일한 크기를 뽑아내는 Fast R-CNN 모델이 등장했다. 하지만 여전히 영역 제안이 따로 분리되어 있기 때문에 종단간 학습(End-to-End Learning)이라 볼 수 없다. Faster R-CNN은 영역 제안을 VGG의 특징 맵에서 수행할 수 있는 서브 네트워크 제안함으로써, 계산 시간 단축과 종단간 학습을 통한 검출 정확도 향상을 동시에 달성하게 되었다. 이에, 본 발명의 일 실시예에서는 R-CNN 이외에도, Fast/Faster R-CNN이나 Mask R-CNN을 이용할 수 있다.As described above, deep learning-based object detection models can be divided into the R-CNN series and the YOLO series. The R-CNN series includes Fast/Faster R-CNN, which is a higher version of R-CNN, and the YOLO series includes YOLO and SSD (Single Shot Detection), which complements YOLO's scale vulnerabilities. The biggest difference between the R-CNN series and the YOLO series is in the region proposal and classifier structure. R-CNN, an early object model, has a dual region proposal and classifier learning process. In other words, it is structured to generate a candidate bounding box through SS and learn a classifier. R-CNN requires candidate bounding boxes to be adjusted to the same size through lasizing, and then individually passed through an image recognition model such as VGG. Therefore, a considerable amount of calculation time is required. To compensate for these shortcomings, a Fast R-CNN model has emerged that creates a ROI (Region of Interest) layer, maps the candidate bounding box to the coordinates of the VGG feature map, and then extracts the same size. However, because the domain proposals are still separate, it cannot be considered end-to-end learning. Faster R-CNN proposes a subnetwork that can perform region proposals on VGG's feature maps, thereby simultaneously reducing computation time and improving detection accuracy through end-to-end learning. Accordingly, in one embodiment of the present invention, in addition to R-CNN, Fast/Faster R-CNN or Mask R-CNN can be used.

<영역 분할 서브네트워크><Zone division subnetwork>

입력 영상에서 영역을 분할하는 기법으로는 K-평균 군집화(K-Means Clustering), 그래프 분할 기법 등이 있다. 하지만 최근 딥러닝 기반의 영상 분할 네트워크의 성능이 탁월하기 때문에 본 발명의 일 실시예에서는 딥러닝 모델을 도입하고자 한다. 대표적인 영상 분할 네트워크에서는 FCN(Fully Convolutional Networks), U-Net 모델 등이 있다. FCN는 크게 인코더와 디코더로 구성된다. 인코더는 입력 영상에서 특징을 추출하는 단계이고 스트라이드(Stride)와 풀링(Pooling) 과정을 통해 특징 맵의 크기를 감소시킨다. 그리고, 디코더에서는 인코더에서 압축된 특징 맵을 업샘플링(Upsampling) 통해 크게 한 후, 최종 영역 분할 맵을 추정한다. 업샘플링 과정은 보간법이나 전치 합성곱(Transposed Convolution)으로 구현된다. 물론 상술한 방법 이외에도 다양한 방법으로 특징을 추출하고 비교할 수 있음은 자명하다 할 것이다.Techniques for segmenting regions in an input image include K-Means Clustering and graph partitioning techniques. However, because the performance of recent deep learning-based image segmentation networks is excellent, one embodiment of the present invention seeks to introduce a deep learning model. Representative image segmentation networks include FCN (Fully Convolutional Networks) and U-Net models. FCN largely consists of an encoder and a decoder. The encoder extracts features from the input image and reduces the size of the feature map through stride and pooling processes. Then, in the decoder, the feature map compressed in the encoder is enlarged through upsampling, and then the final region division map is estimated. The upsampling process is implemented using interpolation or transposed convolution. Of course, it is obvious that features can be extracted and compared using various methods other than those described above.

빅데이터화부(390)는, 사용자 단말(100)로부터 환편기가 구비된 제조사의 한국표준산업분류의 코드를 입력받고, 결함 이미지가 결함종류 데이터와 라벨링된 데이터셋으로 빅데이터를 구축할 수 있다. 이는 본 출원인의 별도의 출원에 기재될 예정이므로 상세한 설명은 생략하기로 한다.The big data unit 390 can receive the code of the Korean Standard Industrial Classification of the manufacturer equipped with the circular knitting machine from the user terminal 100 and construct big data as a dataset in which the defect image is labeled with defect type data. Since this is scheduled to be described in a separate application of the present applicant, detailed description will be omitted.

전처리부(391)는, 이상탐지모델에 입력하기 위한 이미지를 생성하기 위하여 환편기를 촬영한 카메라로부터 입력된 영상 데이터로부터 기 설정된 크기의 영상 패치(Patch)를 생성하고, 원단생산좌표를 기록할 수 있다.The preprocessor 391 can generate an image patch of a preset size from the image data input from the camera that captured the circular knitting machine to generate an image for input to the abnormality detection model, and record the fabric production coordinates. there is.

실시간검출부(393)는, 도 4e 및 도 4f와 같이 환편기가 편성하는 원단을 촬영하는 카메라를 사용자 단말(100)과 연결하고, 환편기의 회전축을 따라 편성되는 원단을 촬영한 결과를 카메라로부터 사용자 단말(100)로 입력받아 실시간으로 이상탐지모델에 의해 결함 이미지를 검출하도록 할 수 있다. 이때, 카메라의 후면에 환편기에 대향되도록 조명을 배치할 수 있다.The real-time detection unit 393 connects a camera that photographs the fabric knitted by the circular knitting machine to the user terminal 100, as shown in FIGS. 4E and 4F, and transmits the results of photographing the fabric knitted along the rotation axis of the circular knitting machine from the camera to the user terminal. By receiving input as (100), defect images can be detected in real time using an anomaly detection model. At this time, lighting can be arranged on the back of the camera to face the circular knitting machine.

이하, 상술한 도 2의 검사 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, the operation process according to the configuration of the inspection service providing server of FIG. 2 described above will be described in detail using FIGS. 3 and 4 as an example. However, it will be apparent that the embodiment is only one of various embodiments of the present invention and is not limited thereto.

도 3a 내지 도 3d는 Teacher-Student 모델로 상술한 바와 같으므로 상세한 설명을 생략한다. 도 4a 및 4b는 본 발명의 일 실시예에 따른 비전 검사 모델의 시제품을 환편기에 설치한 것을 촬영한 사진이고, 비전 시스템의 사양은 이하 표 1과 같다.3A to 3D are the same as described above in the Teacher-Student model, so detailed description is omitted. Figures 4a and 4b are photographs of a prototype of a vision inspection model installed on a circular knitting machine according to an embodiment of the present invention, and the specifications of the vision system are shown in Table 1 below.

구분division 내용detail 카메라camera Area Camera 5M, 16mm LensArea Camera 5M, 16mm Lens 조명light 400k lux 고휘도 LED (326mm)400k lux high brightness LED (326mm) 광학 분해능optical resolution X : 40um, Y : 40umX: 40um, Y: 40um 속도speed Max : 40rpm (약 120mpm)Max: 40rpm (about 120mpm)

도 4c는 본 발명의 일 실시예에 따른 이상탐지모델의 학습 화면인데, 학습을 위하여 데이터셋을 환편기에서 생산하는 샘플원단의 정상 이미지를 확보하여 학습 데이터셋을 구축하며, 크기는 256×256×3, 수량은 500 장 이장 확보했다. 도 4d는 사용자 단말(100)에 설치되는 솔루션(S/W)인데, 생산되는 니트원단을 촬영한 영상을 받아 결함 이미지를 검출하는 화면이다. 이상탐지모델에 입력하기 위한 크기로 영상 패치를 생성하고, 원단의 길이좌표를 기록함으로써, 영상 패치를 이상탐지모델에 입력하고, 판정결과를 받아 결함 이미지라면, 화면상 원단생산좌표에 결함을 마크하고, 결함 이미지를 표출한다. 원단생산좌표 및 결함종류 데이터는 데이터베이스에 저장된다.Figure 4c is a learning screen of an anomaly detection model according to an embodiment of the present invention. For learning, a learning dataset is constructed by securing normal images of sample fabrics produced by a circular knitting machine, and the size is 256 × 256 × 3, 500 pieces were secured. Figure 4d is a solution (S/W) installed on the user terminal 100, and is a screen that receives images taken of the knit fabric being produced and detects defect images. Create an image patch with the size to be input to the anomaly detection model, record the length coordinates of the fabric, input the image patch into the anomaly detection model, receive the judgment result, and if it is a defective image, mark the defect in the fabric production coordinates on the screen. and displays a defect image. Fabric production coordinates and defect type data are stored in the database.

도 4e는 본 발명의 일 실시예에 따른 비전 검사 모델의 구성도이고, 도 4f는 설치도면이다. 도 4g는 환편기에 본 발명의 비전 검사 모델이 설치된 시제품이 촬영한 화면이고, 도 4h는 사용자 단말(100)의 시제품이다. 도 4i의 과정을 거쳐 결함이 탐지, 분류 및 저장될 수 있고, 궁극적으로 딥러닝을 이용하여 정상 이미지 및 결함 이미지 간 불균형을 해소하고 각 산업분류에 따라 빅데이터로 저장함으로써 제조업 간 불량 및 결함을 탐지하기 위한 데이터셋을 구축하고자 한다. 도 4j는 결함이 검출된 화면이고 결함의 종류는 도 4k 내지 도 4n과 같다.Figure 4e is a configuration diagram of a vision inspection model according to an embodiment of the present invention, and Figure 4f is an installation drawing. Figure 4g is a screen taken by a prototype in which the vision inspection model of the present invention is installed on a circular knitting machine, and Figure 4h is a prototype of the user terminal 100. Through the process of Figure 4i, defects can be detected, classified, and stored, and ultimately, deep learning is used to resolve the imbalance between normal and defective images and to store them as big data according to each industrial classification, thereby eliminating defects and defects between manufacturing companies. We want to build a dataset for detection. Figure 4j is a screen where a defect is detected, and the type of defect is the same as Figures 4k to 4n.

이와 같은 도 2 내지 도 4의 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters that are not explained regarding the method of providing circular knitting machine vision inspection service using the abnormality detection model of FIGS. 2 to 4 are the same as those previously described regarding the method of providing circular knitting machine vision inspection service using the abnormality detection model through FIG. 1. Since it can be easily inferred from the explained contents, the description below will be omitted.

도 5는 본 발명의 일 실시예에 따른 도 1의 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 5에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.FIG. 5 is a diagram illustrating a process in which data is transmitted and received between each component included in the circular knitting machine vision inspection service providing system using the abnormality detection model of FIG. 1 according to an embodiment of the present invention. Hereinafter, an example of the process of transmitting and receiving data between each component will be described with reference to FIG. 5, but the present application is not limited to this embodiment, and the process shown in FIG. 5 according to the various embodiments described above It is obvious to those skilled in the art that the process of transmitting and receiving data can be changed.

도 5를 참조하면, 검사 서비스 제공 서버는, 비지도학습기반 이상탐지모델을 정상 이미지만을 이용하여 학습 및 검증함으로써 모델링하고(S5100), 이상탐지모델을 사용자 단말에 적용하여 사용자 단말의 비전 검사로부터 입력되는 이미지로부터 결함 이미지를 탐지한다(S5200).Referring to FIG. 5, the inspection service providing server models an unsupervised learning-based anomaly detection model by learning and verifying it using only normal images (S5100), and applies the anomaly detection model to the user terminal to obtain information from the vision inspection of the user terminal. A defective image is detected from the input image (S5200).

또, 검사 서비스 제공 서버는, 결함 이미지가 탐지된 경우 결함 이미지의 원단생산좌표, 결함 이미지의 결함종류 데이터를 분석하여 저장하고(S5300), 사용자 단말에서 결함 이미지, 결함종류 데이터 및 원단생산좌표가 출력 및 저장한다(S5400).In addition, when a defect image is detected, the inspection service providing server analyzes and stores the fabric production coordinates of the defect image and defect type data of the defect image (S5300), and the defect image, defect type data, and fabric production coordinates are stored in the user terminal. Print and save (S5400).

상술한 단계들(S5100~S5400)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5400)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The sequence between the above-described steps (S5100 to S5400) is only an example and is not limited thereto. That is, the order between the above-described steps (S5100 to S5400) may change, and some of the steps may be executed simultaneously or deleted.

이와 같은 도 5의 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters not explained regarding the method of providing circular knitting machine vision inspection service using the abnormality detection model of FIG. 5 are the same as those explained previously regarding the method of providing circular knitting machine vision inspection service using the abnormality detection model through FIGS. 1 to 4 or Since it can be easily inferred from the explained contents, the description below will be omitted.

도 5를 통해 설명된 일 실시예에 따른 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The method of providing a circular knitting machine vision inspection service using an abnormality detection model according to an embodiment described with reference to FIG. 5 is also available in the form of a recording medium containing instructions executable by a computer, such as an application or program module executed by a computer. It can be implemented. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Additionally, computer-readable media may include all computer storage media. Computer storage media includes both volatile and non-volatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data.

전술한 본 발명의 일 실시예에 따른 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The method of providing a circular knitting machine vision inspection service using an abnormality detection model according to an embodiment of the present invention described above includes an application installed by default on a terminal (this may include programs included in the platform or operating system, etc., which are installed by default on the terminal). It may be executed by, and may also be executed by an application (i.e. program) installed by the user directly on the master terminal through an application providing server such as an application store server, an application, or a web server related to the service. In this sense, the method of providing a circular knitting machine vision inspection service using an abnormality detection model according to an embodiment of the present invention described above is implemented as an application (i.e., program) installed by default on the terminal or directly installed by the user, and is implemented as an application (i.e., program) installed by default on the terminal or directly installed by the user. It may be recorded on a computer-readable recording medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as unitary may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

Claims (10)

기 구축된 이상탐지모델을 이용하여 원단을 편성하는 환편기로부터 토출되는 원단의 결함 이미지를 탐지, 분류, 저장 및 출력하는 사용자 단말; 및
비지도학습기반 이상탐지모델을 정상 이미지만을 이용하여 학습 및 검증함으로써 모델링하는 모델링부, 상기 이상탐지모델을 상기 사용자 단말에 적용하여 상기 사용자 단말의 비전 검사로부터 입력되는 이미지로부터 결함 이미지를 탐지하는 이상탐지부, 상기 결함 이미지가 탐지된 경우 상기 결함 이미지의 원단생산좌표, 상기 결함 이미지의 결함종류 데이터를 분석하여 저장하는 분석부, 상기 사용자 단말에서 상기 결함 이미지, 결함종류 데이터 및 원단생산좌표가 출력 및 저장되도록 하는 데이터베이스화부, 상기 이상탐지모델을 비지도학습기반 트윈 구조의 Teacher-Student 모델을 이용하는 모델설정부, 상기 Teacher-Student 모델의 학습 시 Teacher 인코더와 Student 인코더 모두에 정상 이미지를 입력하고, Teacher 레이어에서 출력된 결과의 출력 매트릭스와, Student 레이어에서 출력된 결과의 출력 매트릭스 간의 차이를 계산하며, 차이를 상기 Student 레이어에 가중치로 갱신한 후 상기 Teacher 레이어와 상기 Student 레이어가 유사한 출력 매트릭스를 출력하도록 학습을 시키는 학습부를 포함하는 검사 서비스 제공 서버;를 포함하며,
상기 Teacher 레이어는 Pretrain된 레이어로 학습이 불가하고 특징(Feature)을 추출하는 레이어이고,
상기 Student 레이어는 Pretrain되지 않은 레이어로 학습이 가능하며 특징을 추출하는 레이어인 것을 특징으로 하는 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템.
A user terminal that detects, classifies, stores, and outputs defective images of fabric discharged from a circular knitting machine that knits fabric using a pre-established abnormality detection model; and
A modeling unit that models an unsupervised learning-based anomaly detection model by learning and verifying it using only normal images, and applies the anomaly detection model to the user terminal to detect defective images from images input from the vision inspection of the user terminal. A detection unit, when the defect image is detected, an analysis unit that analyzes and stores the fabric production coordinates of the defect image and defect type data of the defect image, and outputs the defect image, defect type data, and fabric production coordinates from the user terminal. and a database storage unit for storing the abnormality detection model, a model setting unit that uses a Teacher-Student model of an unsupervised learning-based twin structure, and a normal image is input to both the Teacher encoder and the Student encoder when learning the Teacher-Student model, Calculate the difference between the output matrix of the results output from the Teacher layer and the output matrix of the results output from the Student layer, update the difference as a weight for the Student layer, and then output an output matrix where the Teacher layer and the Student layer are similar. It includes a test service providing server including a learning unit that teaches the user to do so,
The teacher layer is a pretrained layer that cannot be learned and is a layer that extracts features.
The Student layer is a non-pretrained layer that can be learned and is a layer that extracts features. A circular knitting machine vision inspection service providing system using an anomaly detection model.
삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 검사 서비스 제공 서버는,
상기 이상탐지모델에서 상기 이미지를 결함 이미지로 분류한 경우, 상기 결함 이미지의 결함종류를 분류자(Classifier)가 분류하도록 하고, 상기 결함종류의 결함종류 데이터를 상기 결함 이미지에 라벨링하여 저장하는 종류분류부;
를 더 포함하는 것을 특징으로 하는 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템.
According to claim 1,
The inspection service providing server,
When the anomaly detection model classifies the image as a defect image, a classifier classifies the defect type of the defect image, and the defect type data of the defect type is labeled and stored in the defect image. wealth;
A circular knitting machine vision inspection service providing system using an anomaly detection model further comprising:
제 5 항에 있어서,
상기 검사 서비스 제공 서버는,
상기 결함 이미지를 상기 결함종류 데이터를 라벨링한 후 데이터셋으로 구축하고, 적어도 하나의 딥러닝 모델을 학습 및 검증함으로써 모델링하는 구축부;
를 더 포함하는 것을 특징으로 하는 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템.
According to claim 5,
The inspection service providing server,
a construction unit that constructs the defect image as a dataset after labeling the defect type data and models it by learning and verifying at least one deep learning model;
A circular knitting machine vision inspection service providing system using an anomaly detection model further comprising:
제 6 항에 있어서,
상기 검사 서비스 제공 서버는,
상기 사용자 단말로부터 상기 환편기가 구비된 제조사의 한국표준산업분류의 코드를 입력받고, 상기 결함 이미지가 상기 결함종류 데이터와 라벨링된 데이터셋으로 빅데이터를 구축하는 빅데이터화부;
를 더 포함하는 것을 특징으로 하는 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템.
According to claim 6,
The inspection service providing server,
A big data converter that receives the code of the Korean Standard Industrial Classification of the manufacturer equipped with the circular knitting machine from the user terminal and constructs big data as a dataset in which the defect image is labeled with the defect type data;
A circular knitting machine vision inspection service providing system using an anomaly detection model further comprising:
제 1 항에 있어서,
상기 검사 서비스 제공 서버는,
상기 이상탐지모델에 입력하기 위한 이미지를 생성하기 위하여 환편기를 촬영한 카메라로부터 입력된 영상 데이터로부터 기 설정된 크기의 영상 패치(Patch)를 생성하고, 원단생산좌표를 기록하는 전처리부;
를 더 포함하는 것을 특징으로 하는 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템.
According to claim 1,
The inspection service providing server,
A preprocessor that generates an image patch of a preset size from image data input from a camera that captures a circular knitting machine to generate an image for input to the abnormality detection model and records fabric production coordinates;
A circular knitting machine vision inspection service providing system using an anomaly detection model further comprising:
제 1 항에 있어서,
상기 검사 서비스 제공 서버는,
환편기가 편성하는 원단을 촬영하는 카메라를 상기 사용자 단말과 연결하고, 상기 환편기의 회전축을 따라 편성되는 원단을 촬영한 결과를 상기 카메라로부터 상기 사용자 단말로 입력받아 실시간으로 상기 이상탐지모델에 의해 결함 이미지를 검출하도록 하는 실시간검출부;
를 더 포함하는 것을 특징으로 하는 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템.
According to claim 1,
The inspection service providing server,
A camera that photographs the fabric knitted by a circular knitting machine is connected to the user terminal, and the results of photographing the fabric knitted along the rotation axis of the circular knitting machine are input from the camera to the user terminal, and a defect image is generated by the abnormality detection model in real time. A real-time detection unit that detects;
A circular knitting machine vision inspection service providing system using an anomaly detection model further comprising:
제 9 항에 있어서,
상기 카메라의 후면에 상기 환편기에 대향되도록 조명을 배치하는 것을 특징으로 하는 이상탐지모델을 이용한 환편기 비전 검사 서비스 제공 시스템.

According to clause 9,
A circular knitting machine vision inspection service providing system using an anomaly detection model, characterized in that lighting is arranged on the rear of the camera to face the circular knitting machine.

KR1020230071111A 2023-06-01 2023-06-01 System for providing circular knitting machine optical inspection service using anomaly detection KR102653930B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230071111A KR102653930B1 (en) 2023-06-01 2023-06-01 System for providing circular knitting machine optical inspection service using anomaly detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230071111A KR102653930B1 (en) 2023-06-01 2023-06-01 System for providing circular knitting machine optical inspection service using anomaly detection

Publications (1)

Publication Number Publication Date
KR102653930B1 true KR102653930B1 (en) 2024-04-03

Family

ID=90662303

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230071111A KR102653930B1 (en) 2023-06-01 2023-06-01 System for providing circular knitting machine optical inspection service using anomaly detection

Country Status (1)

Country Link
KR (1) KR102653930B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102143354B1 (en) * 2019-11-18 2020-08-11 호전실업 주식회사 Method of automatically detecting defect location in fabric and system for the same
KR20200128938A (en) * 2019-05-07 2020-11-17 삼성전자주식회사 Model training method and apparatus, and data recognizing method
KR102383051B1 (en) * 2020-07-14 2022-04-06 주식회사 엠제이비전테크 Method for providing deep learning model based vehicle part testing service
KR20230052169A (en) * 2021-10-12 2023-04-19 경기대학교 산학협력단 Apparatus and method for generating image annotation based on shap
KR20230064319A (en) * 2021-11-03 2023-05-10 (주)플레이오니 Method, apparatus and program for inspecting defect

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200128938A (en) * 2019-05-07 2020-11-17 삼성전자주식회사 Model training method and apparatus, and data recognizing method
KR102143354B1 (en) * 2019-11-18 2020-08-11 호전실업 주식회사 Method of automatically detecting defect location in fabric and system for the same
KR102383051B1 (en) * 2020-07-14 2022-04-06 주식회사 엠제이비전테크 Method for providing deep learning model based vehicle part testing service
KR20230052169A (en) * 2021-10-12 2023-04-19 경기대학교 산학협력단 Apparatus and method for generating image annotation based on shap
KR20230064319A (en) * 2021-11-03 2023-05-10 (주)플레이오니 Method, apparatus and program for inspecting defect

Similar Documents

Publication Publication Date Title
Mou et al. RiFCN: Recurrent network in fully convolutional network for semantic segmentation of high resolution remote sensing images
Alidoost et al. A CNN-based approach for automatic building detection and recognition of roof types using a single aerial image
Biswas et al. Classification of objects in video records using neural network framework
CN111369572A (en) Weak supervision semantic segmentation method and device based on image restoration technology
CN110931112B (en) Brain medical image analysis method based on multi-dimensional information fusion and deep learning
CN113807399B (en) Neural network training method, neural network detection method and neural network training device
CN106446933A (en) Multi-target detection method based on context information
Geng et al. An improved helmet detection method for YOLOv3 on an unbalanced dataset
Wang et al. Transfer reinforcement learning-based road object detection in next generation IoT domain
CN113052295B (en) Training method of neural network, object detection method, device and equipment
KR20230171966A (en) Image processing method and device and computer-readable storage medium
KR20220008492A (en) Method for providing deep learning model based vehicle part testing service
CN111652177A (en) Signal feature extraction method based on deep learning
Wang et al. Intrusion detection for high-speed railways based on unsupervised anomaly detection models
Yadav et al. An improved deep learning-based optimal object detection system from images
CN112990282B (en) Classification method and device for fine-granularity small sample images
CN110688512A (en) Pedestrian image search algorithm based on PTGAN region gap and depth neural network
KR102653930B1 (en) System for providing circular knitting machine optical inspection service using anomaly detection
CN112164223B (en) Intelligent traffic information processing method and device based on cloud platform
CN113269182A (en) Target fruit detection method and system based on small-area sensitivity of variant transform
Luo et al. RBD-Net: robust breakage detection algorithm for industrial leather
INTHIYAZ et al. YOLO (YOU ONLY LOOK ONCE) Making Object detection work in Medical Imaging on Convolution detection System.
Xu et al. Slime Mold optimization with hybrid deep learning enabled crowd-counting approach in video surveillance
CN116189130A (en) Lane line segmentation method and device based on image annotation model
CN116977249A (en) Defect detection method, model training method and device