KR102524374B1 - Automatic classification method and system of agricultural products using image analysis model - Google Patents

Automatic classification method and system of agricultural products using image analysis model Download PDF

Info

Publication number
KR102524374B1
KR102524374B1 KR1020210072167A KR20210072167A KR102524374B1 KR 102524374 B1 KR102524374 B1 KR 102524374B1 KR 1020210072167 A KR1020210072167 A KR 1020210072167A KR 20210072167 A KR20210072167 A KR 20210072167A KR 102524374 B1 KR102524374 B1 KR 102524374B1
Authority
KR
South Korea
Prior art keywords
image
agricultural products
agricultural
difference image
agricultural product
Prior art date
Application number
KR1020210072167A
Other languages
Korean (ko)
Other versions
KR20220163697A (en
Inventor
장성욱
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020210072167A priority Critical patent/KR102524374B1/en
Priority to PCT/KR2021/016237 priority patent/WO2022255566A1/en
Publication of KR20220163697A publication Critical patent/KR20220163697A/en
Application granted granted Critical
Publication of KR102524374B1 publication Critical patent/KR102524374B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

영상 분석 모델을 이용한 농산물의 자동 분류 방법 및 시스템이 개시된다. 본 발명은 카메라로부터 촬영된 이미지를 기반으로 농산물의 품질 등급을 측정하는 방법으로서, -제1 농산물은 미리 선별된 고품질의 농산물이고, 제2 농산물은 미리 선별된 저품질의 농산물이며- 상기 제1 농산물을 촬영한 제1 이미지 및 상기 제2 농산물을 촬영한 제2 이미지를 수신하는 단계, 상기 제1 이미지 및 상기 제2 이미지를 기초로 제1 차이 이미지를 생성하는 단계, 작업자로부터 현장 작업자의 주관적인 양품 판별 기준에 따라 상기 제1 차이 이미지를 구성하는 이미지 요소들 중 불량으로 판단되는 이미지 요소를 선택받아 작업자의 마스킹 입력을 수신하는 단계, 마스킹 입력에 의해 선택된 이미지 요소를 제외한 나머지 이미지 요소를 상기 제1 차이 이미지에서 마스크 처리하여 현장 작업자가 불량 판별에서 중요하게 생각하는 요소만을 남긴 마스크 처리된 제2 차이 이미지를 생성하는 단계, 상기 제1 이미지와 상기 제2 이미지를 입력으로 하고 상기 제2 차이 이미지를 출력하도록 하여 심층 신경망이 입출력 데이터간 상관관계를 딥러닝 학습시키는 단계, 상기 제2 차이 이미지의 잔존 이미지 요소의 크기를 결함값으로 산출하고 상기 제2 차이 이미지의 결함값 분포를 통해 검사 기준값을 산출하는 단계 및 상기 검사 기준값을 기초로 검사 대상 농산물을 분류하는 단계를 포함할 수 있다. A method and system for automatic classification of agricultural products using an image analysis model are disclosed. The present invention is a method for measuring the quality grade of agricultural products based on an image taken from a camera, wherein -the first agricultural product is a pre-selected high-quality agricultural product, and the second agricultural product is a pre-selected low-quality agricultural product- Receiving a first image photographed and a second image photographed of the second agricultural product, generating a first difference image based on the first image and the second image, subjective quality of the field worker from the worker receiving an operator's masking input by selecting an image element determined to be defective from among image elements constituting the first difference image according to a criterion; Masking the difference image to generate a masked second difference image, leaving only elements that the field worker considers important in determining defects, the first image and the second image as inputs, and the second difference image Deep learning the correlation between the input and output data by the deep neural network by outputting it, calculating the size of the remaining image elements of the second difference image as a defect value, and calculating the inspection reference value through the defect value distribution of the second difference image and classifying agricultural products to be inspected based on the inspection reference value.

Description

영상 분석 모델을 이용한 농산물의 자동 분류 방법 및 시스템{AUTOMATIC CLASSIFICATION METHOD AND SYSTEM OF AGRICULTURAL PRODUCTS USING IMAGE ANALYSIS MODEL}Automatic classification method and system of agricultural products using image analysis model

본 발명은 영상 분석 모델을 이용한 농산물의 자동 분류 방법 및 시스템에 관한 것이다. 보다 상세하게는, 영상 분석 모델을 통하여 농산물의 하자 부분을 학습하고 학습 결과를 활용하여 농산물의 품질 등급을 측정하거나 품질을 기초로 자동으로 분류하는 방법 및 시스템에 대한 것이다.The present invention relates to an automatic classification method and system for agricultural products using an image analysis model. More specifically, it relates to a method and system for learning defective parts of agricultural products through an image analysis model and using the learning results to measure the quality level of agricultural products or automatically classify them based on quality.

농산물이란 육지에서 얻은 동식물을 의미하며, 농산물의 품질이란 신선도 및 농산물의 영양 상태 등을 포함한 상품성을 의미할 수 있다. Agricultural products refer to animals and plants obtained from the land, and the quality of agricultural products may mean marketability including freshness and nutritional status of agricultural products.

일반적으로, 농산물을 판매하기 위하여 해당 분야의 전문가들이 육안으로 농산물을 크기, 신선도 등에 따라 나누어 품질에 대한 등급을 나누는 과정이 진행된다. 유통할 수 있는 기간이 짧은 농산물의 특성상 농산물의 품질 등급 및 이를 위한 과정은 매우 중요하다. 따라서, 농산물을 출하하기 전에 이에 대하여 신속히 품질 등급을 나누는 과정이 진행된다. In general, in order to sell agricultural products, experts in the field visually classify agricultural products according to size, freshness, etc., and classify quality. Due to the characteristics of agricultural products with a short distribution period, the quality grade of agricultural products and the process for this are very important. Therefore, before the agricultural products are shipped, a process of rapidly dividing quality grades is performed.

종래에는 전문가가 일일이 수작업으로 농산물의 분류, 등급 나누기 등을 진행하였으나, 최근 이러한 과정을 자동으로 수행할 수 있는 기술의 필요성이 대두되고 있다. In the past, experts manually classified agricultural products, graded, etc., but the need for a technology capable of automatically performing these processes has recently emerged.

이를 위하여, 종래기술인 KR101839548B1는 부력을 이용하여 농산물의 숙도를 검출하고 검출정보에 따라 농산물을 선별, 분류할 수 있는 장치를 제안하고 있다. 그러나, 종래기술은 복잡한 구성의 장치를 구비해야 한다는 점에서 높은 비용 등의 문제점을 포함한다. To this end, prior art KR101839548B1 proposes a device capable of detecting the maturity of agricultural products using buoyancy and sorting and classifying agricultural products according to the detection information. However, the prior art includes problems such as high cost in that a device having a complicated configuration must be provided.

이에, 영상 분석 모델 기술의 발달을 이용하여 영상 또는 이미지만으로도 전문가의 품질 등급 측정 못지 않게 자동으로 농산물의 품질 등급을 측정하거나 품질에 따라 분류할 수 있는 방법 및 시스템에 대한 필요성이 대두되고 있다. Accordingly, there is a need for a method and system capable of automatically measuring the quality level of agricultural products or classifying them according to quality as well as quality level measurement by experts using only images or images using the development of image analysis model technology.

KR101839548B1 (발명의 명칭: 농산물 선별장치)KR101839548B1 (Title of invention: agricultural product sorting device)

본 발명의 목적은 비전 인식 알고리즘을 이용하여 농산물 이미지 만으로 품질을 측정할 수 있는 방법 및 시스템을 제공하는 것이다. An object of the present invention is to provide a method and system capable of measuring quality only with images of agricultural products using a vision recognition algorithm.

또한, 본 발명의 목적은 고품질 농산물 이미지와 저품질 농산물 이미지의 차이 이미지를 생성하고, 각각의 농산물 이미지와 차이 이미지를 알고리즘의 입력값 및 출력값으로 설정하여 전문가와 유사한 판단을 자동으로 수행할 수 있는 심층 신경망부를 이용하여 농산물 품질을 측정할 수 있는 방법 및 시스템을 제공하는 것이다. In addition, an object of the present invention is to generate a difference image between a high-quality agricultural image and a low-quality agricultural product image, and to set each agricultural image and the difference image as an input value and an output value of an algorithm to automatically perform an in-depth judgment similar to an expert. It is to provide a method and system capable of measuring the quality of agricultural products using a neural network.

또한, 본 발명의 목적은 최적화된 응용 필터를 도입하여 비전 인식시 차이 이미지를 보다 정확하게 생성하고, 이를 통하여 농산물 품질을 측정할 수 있는 방법 및 시스템을 제공하는 것이다. In addition, an object of the present invention is to provide a method and system capable of more accurately generating a difference image during vision recognition by introducing an optimized application filter and measuring the quality of agricultural products through this.

또한, 본 발명은 오염물질 및 염분에 강한 내오염성 렌즈를 포함하는 카메라를 통하여 이미지를 생성함으로써, 어떠한 환경에서도 선명한 이미지를 생성하여, 보다 정확한 비전 인식 알고리즘을 수행하도록 하는 농산물 품질을 측정하는 방법 및 시스템을 제공하는 것이다. In addition, the present invention creates a clear image in any environment by generating an image through a camera including a stain-resistant lens resistant to contaminants and salt, and a method for measuring the quality of agricultural products to perform a more accurate vision recognition algorithm, and to provide the system.

상술한 문제점을 해결하기 위하여, 본 발명은 카메라로부터 촬영된 이미지를 기반으로 농산물의 품질 등급을 측정하는 방법으로서, 제1 농산물은 미리 선별된 고품질의 농산물이고, 제2 농산물은 미리 선별된 저품질의 농산물이며, 상기 제1 농산물을 촬영한 제1 이미지 및 상기 제2 농산물을 촬영한 제2 이미지를 수신하는 단계, 상기 제1 이미지 및 상기 제2 이미지를 저장하는 단계, 상기 제1 이미지 및 상기 제2 이미지를 기초로 이를 생성하는 단계, 작업자로부터 현장 작업자의 주관적인 양품 판별 기준에 따라 상기 제1 차이 이미지를 구성하는 이미지 요소들 중 불량으로 판단되는 이미지 요소를 선택받아 작업자의 마스킹 입력을 수신하는 단계, 마스킹 입력에 의해 선택된 이미지 요소를 제외한 나머지 이미지 요소를 상기 제1 차이 이미지에서 마스크 처리하여 현장 작업자가 불량 판별에서 중요하게 생각하는 요소만을 남긴 마스크 처리된 제2 차이 이미지를 생성하는 단계, 상기 제1 이미지와 상기 제2 이미지를 입력으로 하고 상기 제2 차이 이미지를 출력하도록 하여 심층 신경망이 입출력 데이터간 상관관계를 딥러닝 학습시키는 단계, 상기 제2 차이 이미지의 잔존 이미지 요소의 크기를 결함값으로 산출하고 상기 제2 차이 이미지의 결함값 분포를 통해 검사 기준값을 산출하는 단계 및 상기 검사 기준값을 기초로 검사 대상 농산물의 품질 등급을 측정하는 단계를 포함할 수 있다. In order to solve the above problems, the present invention is a method for measuring the quality grade of agricultural products based on images taken from a camera, wherein the first agricultural products are pre-selected high-quality agricultural products, and the second agricultural products are pre-selected low-quality agricultural products. agricultural products, receiving a first image of photographing the first agricultural product and a second image of photographing the second agricultural product; storing the first image and the second image; 2 Step of generating the image based on the image, selecting an image element determined to be defective among image elements constituting the first difference image according to the subjective criteria for determining good quality of the field worker, and receiving a masking input from the operator. Generating a masked second difference image in which only the elements that the field worker considers important in determining defects are left by masking the image elements other than the image element selected by the masking input from the first difference image; Deep learning the correlation between input and output data by a deep neural network by taking the first image and the second image as inputs and outputting the second difference image, the size of the remaining image elements of the second difference image as a defect value and calculating an inspection reference value through the defect value distribution of the second difference image, and measuring a quality grade of the agricultural product to be inspected based on the inspection reference value.

또한, 상기 제1 차이 이미지를 생성하는 단계는, 상기 제1 이미지 속 상기 제1 농산물을 복수의 영역으로 분할하는 단계, 상기 제2 이미지 속 상기 제2 농산물을 복수의 영역으로 분할하는 단계 및 상기 복수의 영역을 기초로 상기 제1 차이 이미지를 생성하는 단계를 포함할 수 있다 .In addition, the generating of the first difference image may include dividing the first agricultural product in the first image into a plurality of regions, dividing the second agricultural product in the second image into a plurality of regions, and the The method may include generating the first difference image based on a plurality of regions.

또한, 상기 복수의 영역을 기초로 상기 제1 차이 이미지를 생성하는 단계는, 상기 제1 농산물에 대한 복수의 영역과, 상기 제2 농산물에 대한 복수의 영역 중 서로 대응하는 영역끼리 비교하여 상기 제1 차이 이미지를 생성할 수 있다. In addition, the generating of the first difference image based on the plurality of regions may include comparing a plurality of regions of the first agricultural product with regions corresponding to each other among a plurality of regions of the second agricultural product, 1 difference images can be created.

또한, 상기 검사 기준값은 결함값들의 분포에서 양품과 불량품의 경계값의 중간값일 수 있다. Also, the inspection reference value may be a median value of a boundary value between a good product and a defective product in the distribution of defect values.

또한, 상기 제1 차이 이미지를 생성하는 단계는, 상기 제1 이미지 및 상기 제2 이미지 중 적어도 하나의 이미지에 영상 보정 필터를 적용하여 적어도 하나의 보정된 이미지를 생성하는 단계 및 상기 적어도 하나의 보정된 이미지를 기초로 상기 제1 차이 이미지를 생성하는 단계를 포함할 수 있다. The generating of the first difference image may include generating at least one corrected image by applying an image correction filter to at least one of the first image and the second image; and and generating the first difference image based on the obtained image.

또한, 상술한 문제점을 해결하기 위하여, 본 발명은 미리 선별된 고품질의 제1 농산물 및 미리 선별된 저품질의 제2 농산물을 촬영하는 카메라 및 상기 제1 농산물을 촬영한 제1 이미지 및 상기 제2 농산물을 촬영한 제2 이미지를 상기 카메라로부터 수신하고, 상기 제1 이미지 및 상기 제2 이미지를 기초로 검사 대상 농산물의 품질 등급을 측정하는 컴퓨팅 장치를 포함하되, 상기 컴퓨팅 장치는, 상술한 측정 방법을 수행하기 위한 명령어를 저장하는 메모리 및 상기 명령어를 수행하는 프로세서를 포함할 수 있다. In addition, in order to solve the above problems, the present invention is a camera for photographing a pre-selected high-quality first agricultural product and a pre-selected low-quality second agricultural product, and a first image of the first agricultural product and the second agricultural product A computing device for receiving a second image taken from the camera and measuring a quality grade of the agricultural product to be inspected based on the first image and the second image, wherein the computing device comprises the above-described measuring method It may include a memory for storing instructions to be executed and a processor for executing the instructions.

또한, 상술한 문제점을 해결하기 위하여, 본 발명은 명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서, 상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 상술한 방법을 수행하게 할 수 있다. In addition, in order to solve the above problems, the present invention is a non-transitory computer readable medium storing instructions, and when the instructions are executed by a processor, the processor can perform the above-described method.

본 발명은 농산물 이미지에 대한 딥러닝 학습을 통해 농산물의 품질을 측정하되 품질 측정시 작업자의 주관적인 품질 측정 기준이 딥러닝 학습 과정에 그대로 반영되어 수작업으로 이루어지던 인력 판별 결과와 동일한 선별 성능을 가지게 되는 효과를 가진다.The present invention measures the quality of agricultural products through deep learning learning for agricultural images, but when measuring quality, the operator's subjective quality measurement criteria are directly reflected in the deep learning learning process to have the same selection performance as the manual human judgment result. have an effect

또한, 본 발명은 비전 인식 알고리즘을 이용하여 농산물 이미지 만으로 품질을 측정할 수 있는 방법 및 시스템을 제공하는 효과를 가진다. In addition, the present invention has an effect of providing a method and system capable of measuring quality only with images of agricultural products using a vision recognition algorithm.

또한, 본 발명은 고품질 농산물 이미지와 저품질 농산물 이미지의 차이 이미지를 생성하고, 각각의 농산물 이미지와 차이 이미지를 알고리즘의 입력값 및 출력값으로 설정하여 전문가와 유사한 판단을 자동으로 수행할 수 있는 심층 신경망부를 이용하여 농산물 품질을 측정할 수 있는 효과를 가진다. In addition, the present invention generates a difference image between a high-quality agricultural image and a low-quality agricultural product image, and sets each agricultural image and the difference image as input values and output values of an algorithm to create a deep neural network that can automatically perform a judgment similar to an expert. It has the effect of measuring the quality of agricultural products using it.

또한, 본 발명은 최적화된 응용 필터를 도입하여 비전 인식시 차이 이미지를 보다 정확하게 생성하고, 이를 통하여 농산물 품질을 측정할 수 있는 방법 및 시스템을 제공하는 효과를 가진다. In addition, the present invention has an effect of providing a method and system capable of more accurately generating a difference image during vision recognition by introducing an optimized application filter and measuring the quality of agricultural products through this.

또한, 본 발명은 오염물질 및 염분에 강한 내오염성 렌즈를 포함하는 카메라를 통하여 이미지를 생성함으로써, 어떠한 환경에서도 선명한 이미지를 생성하여, 보다 정확한 비전 인식 알고리즘을 수행하도록 하는 농산물 품질을 측정하는 방법 및 시스템을 제공하는 효과를 가진다. In addition, the present invention creates a clear image in any environment by generating an image through a camera including a stain-resistant lens resistant to contaminants and salt, and a method for measuring the quality of agricultural products to perform a more accurate vision recognition algorithm, and It has the effect of providing the system.

본 발명에 따라 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable according to the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 발명에 따른 카메라로부터 촬영된 이미지를 기반으로 농산물의 자동 분류 방법을 나타낸 것이다.
도 2 및 도 3은 본 발명에 따른 제1 차이 이미지를 생성하는 단계를 나타낸 것이다.
도 4 및 도 5는 본 발명에 따른 농산물 품질 등급 측정 방법의 실시예를 나타낸 것이다.
도 6은 본 발명에 따른 검사 기준값을 나타낸 그래프이다.
도 7은 본 발명에 따라 이미지를 복수의 영역으로 나눈 예시를 나타낸 도면이다.
도 8은 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이다.
도 9는 본 발명에 따른 HSV 3차원 그래프를 나타낸 도면이다.
도 10는 하나의 색상의 HSV값을 나타낸 예시를 나타낸 도면이다.
도 11은 본 발명에 따른 농산물 자동 분류 시스템을 나타낸 것이다.
도 12는 본 발명에 따른 컴퓨팅 장치를 나타낸 도면이다.
도 13은 본 발명에 따른 카메라에 포함된 카메라 모듈을 나타낸 도면이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.
1 shows a method for automatically classifying agricultural products based on images taken from a camera according to the present invention.
2 and 3 show steps of generating a first difference image according to the present invention.
4 and 5 show an embodiment of the agricultural product quality rating measurement method according to the present invention.
6 is a graph showing inspection reference values according to the present invention.
7 is a diagram showing an example of dividing an image into a plurality of regions according to the present invention.
8 is a diagram showing an example of an image correction filter according to the present invention.
9 is a diagram showing a three-dimensional HSV graph according to the present invention.
10 is a diagram illustrating an example of an HSV value of one color.
11 shows an automatic classification system for agricultural products according to the present invention.
12 is a diagram illustrating a computing device according to the present invention.
13 is a view showing a camera module included in a camera according to the present invention.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the present specification, provide examples of the present specification and describe technical features of the present specification together with the detailed description.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same or similar elements are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted.

또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 일 실시예에 따른, 영상 분석 모델을 이용한 농산물의 자동 분류 방법에 관하여 상세히 설명하면 다음과 같다.Hereinafter, a method for automatically classifying agricultural products using an image analysis model according to a preferred embodiment of the present specification based on the above description will be described in detail as follows.

도 1은 본 발명에 따른 카메라로부터 촬영된 이미지를 기반으로 농산물의 자동 분류 방법을 나타낸 것이다. 1 shows a method for automatically classifying agricultural products based on images taken from a camera according to the present invention.

본 발명에서 제1 농산물은 미리 선별된 고품질의 농산물이고, 제2 농산물은 미리 선별된 저품질의 농산물을 의미할 수 있다. In the present invention, the first agricultural product is a pre-selected high-quality agricultural product, and the second agricultural product may mean a pre-selected low-quality agricultural product.

도 1에 따르면, 본 발명에 따른 농산물 품질 등급 측정 방법은, 제1 농산물을 촬영한 제1 이미지 및 제2 농산물을 촬영한 제2 이미지를 수신하는 단계(S110), 제1 이미지 및 제2 이미지를 저장하는 단계(S120), 제1 이미지 및 제2 이미지를 기초로 제1 차이 이미지를 생성하는 단계(S130), 작업자로부터 현장 작업자의 주관적인 양품 판별 기준에 따라 상기 제1 차이 이미지를 구성하는 이미지 요소들 중 불량으로 판단되는 이미지 요소를 선택받아 작업자의 마스킹 입력을 수신하는 단계(S140), 마스킹 입력에 의해 선택된 이미지 요소를 제외한 나머지 이미지 요소를 상기 제1 차이 이미지에서 마스크 처리하여 현장 작업자가 불량 판별에서 중요하게 생각하는 요소만을 남긴 마스크 처리된 제2 차이 이미지를 생성하는 단계(S150), 제1 이미지와 제2 이미지를 입력으로 하고 제2 차이 이미지를 출력하도록 하여 심층 신경망이 입출력 데이터간 상관관계를 딥러닝 학습시키는 단계(S160), 제2 차이 이미지의 잔존 이미지 요소의 크기를 결함값으로 산출하고 제2 차이 이미지의 결함값 분포를 통해 검사 기준값을 산출하는 단계(S170) 및 검사 기준값을 기초로 검사 대상 농산물을 분류하는 단계(S180)를 포함할 수 있다. According to FIG. 1, the agricultural product quality rating measurement method according to the present invention includes the steps of receiving a first image of a first agricultural product and a second image of a second agricultural product (S110), the first image and the second image Storing (S120), generating a first difference image based on the first image and the second image (S130), an image constituting the first difference image according to the subjective quality discrimination criterion of the field worker from the operator Selecting an image element determined to be defective among elements and receiving a masking input from a worker (S140), masking image elements other than the image element selected by the masking input in the first difference image so that the field worker is defective Generating a masked second difference image leaving only elements considered important in discrimination (S150), taking the first image and the second image as inputs and outputting a second difference image so that the deep neural network correlates input and output data Deep learning the relationship (S160), calculating the size of the remaining image elements of the second difference image as defect values and calculating an inspection reference value through the defect value distribution of the second difference image (S170), and It may include a step (S180) of classifying agricultural products to be inspected on the basis.

이때, 검사 기준값은 결함값들의 분포에서 양품과 불량품의 경계값의 중간값일 수 있다. In this case, the inspection reference value may be a median value of a boundary value between a good product and a defective product in the distribution of defect values.

제1 차이 이미지는 제1 이미지와 제2 이미지 중 공통되는 요소들을 모두 배제하고 차이나는 요소들만 표시한 이미지일 수 있다. 또한, 제2 차이 이미지는 제1 차이 이미지에서 특정 요소들만을 선별하여 표시한 이미지일 수 있다. 이때, 본 발명은 제2 차이 이미지를 통하여 알고리즘을 학습시키고자 한다. The first difference image may be an image in which all elements in common between the first image and the second image are excluded and only elements differing from each other are displayed. Also, the second difference image may be an image in which only specific elements are selected and displayed in the first difference image. At this time, the present invention intends to learn the algorithm through the second difference image.

또한, 본 발명에 따른 수산물의 품질 등급을 측정하는 방법은, S130 단계에서 수신한 마스킹 입력을 딥러닝 알고리즘에 입력하여 학습시키고, 학습한 딥러닝 알고리즘을 통하여 제1 차이 이미지에 대하여 자동으로 마스킹을 입력하고, 이를 통하여 제2 차이 이미지를 생성할 수 있다. 즉, 마스킹 입력을 학습한 딥러닝 알고리즘은 후술할 도 4에서 제1 차이 이미지의 특징 또는 불량 부분에 대하여 마스킹하는 과정을 자동으로 수행할 수 있다. In addition, the method for measuring the quality grade of aquatic products according to the present invention inputs the masking input received in step S130 to the deep learning algorithm to learn, and automatically masks the first difference image through the learned deep learning algorithm input, and through this, a second difference image may be generated. That is, the deep learning algorithm that has learned the masking input may automatically perform a process of masking the characteristic or defective part of the first difference image in FIG. 4 to be described later.

검사 기준값을 기초로 검사 대상 농산물을 분류하는 단계(S180)는 검사 기준값을 기초로 농산물을 고품질 또는 저품질인지 분류할 수 있다. 즉, 본 발명에 따른 방법은 검사 기준값을 기초로 농산물의 품질 등급을 측정할 수 있고, 품질에 따라 농산물을 분류할 수 있다. In the step of classifying the agricultural products to be inspected based on the inspection reference value (S180), the agricultural products may be classified as high quality or low quality based on the inspection reference value. That is, the method according to the present invention can measure the quality level of agricultural products based on the inspection reference value, and can classify agricultural products according to quality.

도 2 및 도 3은 본 발명에 따른 제1 차이 이미지를 생성하는 단계를 나타낸 것이다. 2 and 3 show steps of generating a first difference image according to the present invention.

도 2에 따르면, 본 발명에 따른 제1 차이 이미지를 생성하는 단계는 제1 이미지 속 제1 농산물을 복수의 영역으로 분할하는 단계(S121), 제2 이미지 속 제2 농산물을 복수의 영역으로 분할하는 단계(S122) 및 복수의 영역을 기초로 제1 차이 이미지를 생성하는 단계(S123)를 포함할 수 있다. According to Figure 2, the step of generating a first difference image according to the present invention is the step of dividing the first agricultural product in the first image into a plurality of regions (S121), dividing the second agricultural product in the second image into a plurality of regions (S122) and generating a first difference image based on a plurality of regions (S123).

이때, 복수의 영역을 기초로 제1 차이 이미지를 생성하는 단계(S123)는 제1 농산물에 대한 복수의 영역과, 제2 농산물에 대한 복수의 영역 중 서로 대응하는 영역끼리 비교하여 제1 차이 이미지를 생성하는 단계일 수 있다. At this time, the step of generating a first difference image based on the plurality of regions (S123) compares the plurality of regions of the first agricultural product with the regions corresponding to each other among the plurality of regions of the second agricultural product, and then compares the first difference image It may be a step of generating.

도 3에 따르면, 본 발명에 따른 제1 차이 이미지를 생성하는 단계는 제1 이미지 및 제2 이미지 중 적어도 하나의 이미지에 영상 보정 필터를 적용하여 적어도 하나의 보정된 이미지를 생성하는 단계(S124) 및 적어도 하나의 보정된 이미지를 기초로 제1 차이 이미지를 생성하는 단계(S125)를 포함할 수 있다. According to FIG. 3, generating a first difference image according to the present invention is a step of generating at least one corrected image by applying an image correction filter to at least one of the first image and the second image (S124). and generating a first difference image based on the at least one corrected image (S125).

도 4 및 도 5는 본 발명에 따른 농산물 자동 분류 방법의 실시예를 나타낸 것이다. 4 and 5 show an embodiment of the automatic classification method of agricultural products according to the present invention.

도 4에 따르면, 본 발명에 따른 농산물 자동 분류 방법은, 제1 이미지에서 제2 이미지를 뺀 제1 차이 이미지를 생성할 수 있다. 제1 차이 이미지는 제2 이미지에 포함된 특징 요소들을 포함할 수 있다. 본 발명에 따른 농산물 자동 분류 방법은 제1 차이 이미지의 특징 요소들 중 작업자로부터 불량으로 판단되는 요소를 마스킹을 통하여 선택받을 수 있다.According to FIG. 4 , the method for automatically classifying agricultural products according to the present invention may generate a first difference image by subtracting a second image from a first image. The first difference image may include feature elements included in the second image. In the method of automatically classifying agricultural products according to the present invention, elements judged to be defective may be selected by an operator from among characteristic elements of the first difference image through masking.

또한, 본 발명에 따른 농산물 자동 분류 방법은 제1 차이 이미지에서 마스킹을 통하여 선택된 불량으로 판단되는 요소만을 남겨둔 제2 차이 이미지를 생성할 수 있다. 제2 차이 이미지는 제1 차이 이미지에서 불량으로 판단되는 요소 외의 다른 요소들을 마스크 처리하여 가린 이미지를 의미할 수 있다. In addition, the method of automatically classifying agricultural products according to the present invention may generate a second difference image in which only elements determined to be defective selected through masking are left in the first difference image. The second difference image may refer to an image in which elements other than elements determined to be defective in the first difference image are masked and covered.

도 5에 따르면, 본 발명의 심층신경망(Deep Neural Network)은, 하나 이상의 컴퓨터 내에 하나 이상의 레이어(Layer)를 구축하여 복수의 데이터를 바탕으로 판단을 수행하는 시스템 또는 네트워크를 의미한다. 예를 들어, 심층신경망은 컨볼루션 풀링 층(Convolutional Pooling Layer), 로컬 접속 층(a locallyconnectedlayer) 및 완전 연결 층(fully-connected layer)을 포함하는 층들의 세트로 구현될 수 있다. 일 예로, 심층신경망의 전체적인 구조는 컨볼루션 풀링 층에 로컬 접속 층이 이어지고, 로컬 접속 층에 완전 연결 층이 이러지는 형태인 나선형 신경망(즉, Convolutional Neural Network; CNN) 구조로 이루어질 수 있다. 또한 심층신경망은, 예를 들어, 각 레이어의 노드들에 자신을 가르키는 엣지(edge)가 포함됨에 따라 재귀적으로 연결되는 순환형 신경망(Recurrent Neural Network; RNN) 구조로 형성될 수도 있다. 심층신경망은 다양한 판단기준(즉, 제1 이미지, 제2 이미지와 제2 차이 이미지)을 포함할 수 있고, 입력되는 영상 분석을 통해 새로운 판단기준을 추가할 수 있다. 다만, 본 발명의 실시예에 따른 심층신경망의 구조는 이에 한정되지 아니하고, 다양한 구조의 신경망으로 형성될 수 있다.According to FIG. 5 , the deep neural network of the present invention means a system or network that builds one or more layers in one or more computers and performs a judgment based on a plurality of data. For example, a deep neural network can be implemented with a set of layers including a convolutional pooling layer, a locally connected layer, and a fully-connected layer. For example, the overall structure of the deep neural network may be a convolutional neural network (ie, convolutional neural network; CNN) structure in which a local access layer is followed by a convolutional pooling layer, and a fully connected layer is followed by a local access layer. In addition, the deep neural network may be formed, for example, in a recurrent neural network (RNN) structure in which nodes of each layer include edges pointing to the nodes and are connected recursively. The deep neural network may include various criterion (ie, the first image, the second image, and the second difference image), and a new criterion may be added by analyzing an input image. However, the structure of the deep neural network according to the embodiment of the present invention is not limited thereto, and may be formed with various structures of neural networks.

본 발명의 실시예에서 심층신경망을 포함하는 양품 선별 시스템으로, 하나의 컴퓨터 내에서 구현될 수도 있고 복수의 컴퓨터가 연결되어 네트워크망을 통해 구현될 수도 있다.In an embodiment of the present invention, a good product sorting system including a deep neural network may be implemented in a single computer or may be implemented through a network by connecting a plurality of computers.

즉, 본 발명의 심층신경망(Deep Neural Network)은, 제1 이미지 및 제2 이미지를 입력으로 하고 제2 차이 이미지를 출력으로 하여 이들의 상관관계를 학습할 수 있다. That is, the deep neural network of the present invention can learn the correlation between the first image and the second image and the second difference image as an output.

도 5에 따르면, 본 발명에 따른 심층신경망은 제2 차이 이미지뿐만 아니라 기준 이미지를 출력값으로 함께 학습할 수 있다. 기준 이미지는 제2 차이 이미지와 대조할 수 있는 이미지로서 학습될 수 있다. According to FIG. 5 , the deep neural network according to the present invention can learn both the second difference image and the reference image as output values. The reference image may be learned as an image that can be compared with the second difference image.

도 6은 본 발명에 따른 검사 기준값을 나타낸 그래프이다. 6 is a graph showing inspection reference values according to the present invention.

도 6에 따르면, 제2 차이 이미지의 결함값들은 다양한 분포를 나타낼 수 있다. 일 예로, 고품질 농산물의 결함값의 분포가 결함값 크기 기준 0 내지 10에 대부분 분포하고 있고 저품질 농산물의 결함값의 분포가 결함값 크기 기준 90 이상에 대부분 분포하고 있는 경우 결함값들의 분포에서 양품과 불량품의 경계값의 중간값인 결함값 크기 기준 50을 학습된 검사 기준값으로 할 수 있다. According to FIG. 6 , defect values of the second difference image may have various distributions. For example, if the distribution of defect values of high-quality agricultural products is mostly distributed between 0 and 10 based on the defect value size and the distribution of defect values of low-quality agricultural products is mostly distributed over 90 based on the defect value size, the distribution of defect values A defect size criterion of 50, which is the median value of the boundary values of defective products, may be used as the learned inspection standard value.

즉, 본 발명에 따른 농산물 자동 분류 방법은, 제1 이미지 및 제2 이미지의 결함값을 전달받고, 전달받은 결함값을 검사 기준값과 비교하여 농산물의 품질 등급을 나눌 수 있다. That is, the automatic classification method of agricultural products according to the present invention receives the defect values of the first image and the second image, and compares the received defect values with the inspection reference value to classify the quality of the agricultural products.

도 7은 본 발명에 따라 이미지를 복수의 영역으로 나눈 예시를 나타낸 도면이다. 7 is a diagram showing an example of dividing an image into a plurality of regions according to the present invention.

도 7에 따르면, 본 발명에 따른 제1 농산물 및 제2 농산물은 동일한 종류의 식물일 수 있다. 또한, 본 발명에 따른 농산물 자동 분류 방법은, 제1 이미지 및/또는 제2 이미지에 포함된 각각의 농산물을 인식하고, 각각의 농산물을 복수의 영역으로 분할하여 인식할 수 있다. 이를 위하여, 본 발명에 따른 딥러닝 알고리즘은 해당 농산물(또는 해당 식물)의 이파리 영역(A3), 줄기 영역(A2) 및 뿌리 영역(A1)에 대한 특징 벡터들을 미리 학습한 것일 수 있다. 따라서, 상기 복수의 영역은 식물의 이파리 영역(A3), 줄기 영역(A2) 및 뿌리 영역(A1)을 포함할 수 있다. According to Figure 7, the first agricultural product and the second agricultural product according to the present invention may be the same kind of plant. In addition, the method of automatically classifying agricultural products according to the present invention may recognize each agricultural product included in the first image and/or the second image, and divide each agricultural product into a plurality of regions for recognition. To this end, the deep learning algorithm according to the present invention may be pre-learned feature vectors for the leaf area A3, the stem area A2, and the root area A1 of the corresponding agricultural product (or corresponding plant). Accordingly, the plurality of regions may include a leaf region A3 , a stem region A2 , and a root region A1 of the plant.

이처럼, 본 발명에 따른 농산물 자동 분류 방법은 농산물 이미지를 복수의 영역으로 분할하고, 각각 분할된 영역으로 나뉘어 불량 요소를 입력받음으로써, 보다 효과적으로 불량 요소에 대한 데이터를 획득할 수 있고 제2 차이 이미지를 생성하기 용이한 효과를 가질 수 있다. As described above, the method for automatically classifying agricultural products according to the present invention divides an agricultural product image into a plurality of regions and divides the image into a plurality of regions and receives defective elements from each divided region, thereby obtaining data on defective elements more effectively and obtaining a second difference image. can have an effect that is easy to create.

도 8은 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이다. 8 is a diagram showing an example of an image correction filter according to the present invention.

도 8에 따르면, 필터의 종류와 기능이 나타나 있다. 즉, CNN 알고리즘은 복수의 레이어를 사용하는 학습 알고리즘일 수 있다. 또한, CNN 알고리즘은 이미지 분류 정확도를 최대화하는 필터를 자동으로 학습할 수 있으며, 합성곱 계층과 폴링 계층이라고 하는 새로운 층을 풀리 커넥티드 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미지에 대해 분류 연산을 수행할 수 있다. CNN 알고리즘은 합성곱 계층 (convolutional layer)과 풀링 계층 (pooling layer)이라고 하는 새로운 층을 fully-connected 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미에 대해 분류 연산이 수행되도록 구성될 수 있다. According to FIG. 8, the types and functions of filters are shown. That is, the CNN algorithm may be a learning algorithm using a plurality of layers. In addition, the CNN algorithm can automatically learn a filter that maximizes image classification accuracy, and by adding a new layer called a convolutional layer and a polling layer before the fully connected layer, after applying the filtering technique to the original image, the filtered image A classification operation can be performed on . The CNN algorithm is configured to apply a filtering technique to the original image by adding a new layer, called a convolutional layer and a pooling layer, before the fully-connected layer, and then perform a classification operation on the filtered image. can

이때, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 1과 같다. At this time, the operation expression for the image filter using the CNN algorithm is as shown in Equation 1 below.

[수학식 1][Equation 1]

Figure 112021064362255-pat00001
Figure 112021064362255-pat00001

(단, (step,

Figure 112021064362255-pat00002
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,
Figure 112021064362255-pat00002
: pixels in the i-th row and j-th column of the filtered image expressed as a matrix,

Figure 112021064362255-pat00003
: 필터,
Figure 112021064362255-pat00003
: filter,

Figure 112021064362255-pat00004
: 이미지,
Figure 112021064362255-pat00004
: image,

Figure 112021064362255-pat00005
: 필터의 높이 (행의 수),
Figure 112021064362255-pat00005
: height of the filter (number of rows),

Figure 112021064362255-pat00006
: 필터의 너비 (열의 수)이다. )
Figure 112021064362255-pat00006
: The width of the filter (number of columns). )

바람직하게는, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 2과 같다. Preferably, the operation expression for the image filter using the CNN algorithm is as shown in Equation 2 below.

[수학식 2][Equation 2]

Figure 112021064362255-pat00007
Figure 112021064362255-pat00007

(단, (step,

Figure 112021064362255-pat00008
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,
Figure 112021064362255-pat00008
: pixels in the i-th row and j-th column of the filtered image expressed as a matrix,

Figure 112021064362255-pat00009
: 응용 필터
Figure 112021064362255-pat00009
: Application filter

Figure 112021064362255-pat00010
: 이미지,
Figure 112021064362255-pat00010
: image,

Figure 112021064362255-pat00011
: 응용 필터의 높이 (행의 수),
Figure 112021064362255-pat00011
: height of application filter (number of rows),

Figure 112021064362255-pat00012
: 응용 필터의 너비 (열의 수)이다.)
Figure 112021064362255-pat00012
: The width (number of columns) of the application filter.)

적용되는 필터일 수 있다. 특히, 수산물의 경우 (1) 색상의 차이와 (2) 형태의 차이를 기초로 품질을 매길 수 있어, 색상 및 형태를 효과적으로 인지하기 위한 응용 필터가 필요할 수 있다. 이러한 필요성을 충족하기 위하여 응용 필터

Figure 112021064362255-pat00013
는 아래의 수학식 3에 의하여 연산될 수 있다. A filter may be applied. In particular, in the case of aquatic products, quality can be assessed based on (1) difference in color and (2) difference in shape, so an application filter for effectively recognizing color and shape may be required. Application filters to meet these needs
Figure 112021064362255-pat00013
Can be calculated by Equation 3 below.

[수학식 3] [Equation 3]

Figure 112021064362255-pat00014
Figure 112021064362255-pat00014

(단,

Figure 112021064362255-pat00015
: 필터,
Figure 112021064362255-pat00016
: 계수,
Figure 112021064362255-pat00017
: 응용 필터)(step,
Figure 112021064362255-pat00015
: filter,
Figure 112021064362255-pat00016
: Coefficient,
Figure 112021064362255-pat00017
: application filter)

바람직하게는, 본 발명에 따른 응용 필터

Figure 112021064362255-pat00018
는 수산물의 종류에 따라 나뉘어 제1 이미지 및/또는 제2 이미지에 적용될 수 있다. 이때, 각
Figure 112021064362255-pat00019
에 따른 필터는 도 8에 따른 엣지 인식 필터(Edge detection), 샤픈 필터(sharpen) 및 박스 블러 필터(Box blur) 중 어느 하나의 행렬일 수 있다. Preferably, the application filter according to the present invention
Figure 112021064362255-pat00018
may be applied to the first image and/or the second image by being divided according to the type of aquatic product. At this time, each
Figure 112021064362255-pat00019
The filter according to may be a matrix of any one of an edge detection filter according to FIG. 8, a sharpen filter, and a box blur filter.

바람직하게,

Figure 112021064362255-pat00020
를 구하는 연산식은 아래의 수학식 4와 같다. 이때,
Figure 112021064362255-pat00021
는 필터의 효율을 높이기 위하여 사용되는 하나의 상수로서 해석될 수 있고, 그 단위는 무시될 수 있다. Preferably,
Figure 112021064362255-pat00020
The operation expression for obtaining is as shown in Equation 4 below. At this time,
Figure 112021064362255-pat00021
can be interpreted as a constant used to increase the efficiency of the filter, and its unit can be ignored.

[수학식 4][Equation 4]

Figure 112021064362255-pat00022
Figure 112021064362255-pat00022

단, 이미지 촬영에 사용된 카메라의 렌즈의 직경(지름)은 mm 단위이고, 렌즈의 f값은 렌즈의 조리개값(F number)이며, HSV평균값은 농산물의 이미지에 따른 색좌표를 HSV 그래프를 통하여 크기값으로 변환한 값을 평균한 값을 의미할 수 있다. HSV값에 대한 구체적인 내용은 아래와 같다. However, the diameter (diameter) of the lens of the camera used to take the image is in mm, the f-value of the lens is the aperture value (F number) of the lens, and the HSV average value is the size of the color coordinates according to the image of agricultural products through the HSV graph It may mean a value obtained by averaging values converted into values. Details of the HSV value are as follows.

도 9는 본 발명에 따른 HSV 3차원 그래프를 나타낸 도면이고, 도 10는 하나의 색상의 HSV값을 나타낸 예시를 나타낸 도면이다. 9 is a diagram showing a three-dimensional HSV graph according to the present invention, and FIG. 10 is a diagram showing an example of HSV values of one color.

도 9 및 도 10에 따르면, 본 발명에 따른 HSV 그래프는 지각적인 특성이 반영된 색 공간을 의미할 수 있다. H(Hue, 0~360°)는 색조를 의미할 수 있고, S(Saturation, 0~100%)는 채도를 의미할 수 있으며, V(Value, 0~100%)는 명도를 의미할 수 있다. 색조, 채도 및 명도 값을 HSV 값이라고 할 수 있으며, 이는 Adobe illustrator cc 2019 등 그래픽 툴을 이용하여 쉽게 추출될 수 있다.9 and 10, the HSV graph according to the present invention may mean a color space in which perceptual characteristics are reflected. H (Hue, 0 to 360°) may mean hue, S (Saturation, 0 to 100%) may mean saturation, and V (Value, 0 to 100%) may mean lightness. . Hue, saturation, and lightness values can be referred to as HSV values, which can be easily extracted using graphic tools such as Adobe illustrator cc 2019.

본 발명에 따른 HSV 평균값은 도 9의 HSV 3차원 좌표를 통하여 획득될 수 있다. 즉, 본 발명에 따른 HSV 평균값은 도 10과 같은 그래픽 툴을 통하여 획득된 HSV 값을 기초로 계산될 수 있다. HSV 3차원 좌표상의 원점좌표를 기준점으로 측정된 HSV 좌표의 거리값은 상술한 HSV 평균값을 구성할 수 있다. 즉, 본 발명에 따른 이미지는 농산물에 대한 이미지를 포함하고, 농산물의 이미지의 HSV 색상좌표는 일정 영역에서 분포될 수 있다. 따라서, 본 발명에 따른 HSV 평균값은 일정 영역의 색상에 대한 HSV 좌표들의 평균을 이용한 평균 좌표를 기초로 계산된 원점좌표와의 거리값을 의미할 수 있다. The HSV average value according to the present invention can be obtained through the HSV three-dimensional coordinates of FIG. 9 . That is, the average HSV value according to the present invention may be calculated based on the HSV value obtained through the graphic tool as shown in FIG. 10 . The distance value of the HSV coordinates measured with the origin coordinates on the HSV 3-dimensional coordinates as a reference point may constitute the above-described HSV average value. That is, the image according to the present invention includes an image of agricultural products, and the HSV color coordinates of the image of agricultural products may be distributed in a certain area. Therefore, the HSV average value according to the present invention may mean a distance value from the origin coordinates calculated based on average coordinates using the average of HSV coordinates for colors of a certain region.

다만, 농산물의 경우 부위별 색상의 차이가 많을 수 있어, 본 발명은 도 7과 같이 농산물의 분할된 영역별로 HSV 평균값을 구하고, 분할된 영역별로 서로 다른 응용 필터를 적용할 수 있다. However, in the case of agricultural products, there may be many differences in color for each part, so in the present invention, as shown in FIG.

[실험예][Experimental Example]

본 발명에 따른 CNN 알고리즘을 사용하여 생성된 이미지에 대하여, 본 발명의 응용 필터 F'를 적용하는 경우에 생성된 제1 차이 이미지의 정확도를 분석한 결과는 하기 표 1와 같았다. 이때, 정확도는 제1 차이 이미지에 나타난 차이 요소들과 전문가가 직접 선택한 차이 요소들과의 일치성을 수치로서 나타낸 것이다.The results of analyzing the accuracy of the first difference image generated when the applied filter F' of the present invention is applied to the image generated using the CNN algorithm according to the present invention are shown in Table 1 below. At this time, the accuracy indicates the correspondence between the difference elements shown in the first difference image and the difference elements directly selected by the expert as a numerical value.

필터 적용 없음no filter applied 필터

Figure 112021064362255-pat00023
적용filter
Figure 112021064362255-pat00023
apply 필터
Figure 112021064362255-pat00024
적용
filter
Figure 112021064362255-pat00024
apply
정확도accuracy 4949 6262 8484

(단위: %)(unit: %)

상기 표 1은 본 발명에 따른 제1 차이 이미지의 차이 요소들과 전문가가 직접 선택한 차이 요소들과의 일치성을 수치로 나타낸 정확도를 각 케이스별로 나타낸 것이다. 표 1은 총 1 종의 농산물에 대하여 100개의 샘플을 기초로 수행한 결과를 정리한 것이며, 정확도는 반올림한 수치이다. 이때, 일반 필터

Figure 112021064362255-pat00025
는 도 8의 샤픈 필터(sharpen)로 실험되었다. Table 1 shows, for each case, the accuracy of numerically expressing the correspondence between the difference elements of the first difference image according to the present invention and the difference elements directly selected by an expert. Table 1 summarizes the results performed based on 100 samples for a total of one agricultural product, and the accuracy is a rounded value. At this time, the general filter
Figure 112021064362255-pat00025
was tested with the sharpen filter of FIG. 8.

표 1에서 확인할 수 있는 것과 같이, 필터 적용 없이 제1 차이 이미지를 만드는 경우보다 일반 필터

Figure 112021064362255-pat00026
를 적용하는 것이 더 높은 정확도를 나타내었다. 또한, 일반 필터
Figure 112021064362255-pat00027
를 적용하는 것보다, 본 발명에 따른 응용 필터
Figure 112021064362255-pat00028
를 적용하는 것이 현저히 높은 정확도를 나타내었다. As can be seen in Table 1, the case of creating a first difference image without applying a filter is more than a normal filter.
Figure 112021064362255-pat00026
, showed higher accuracy. Also, the general filter
Figure 112021064362255-pat00027
Rather than applying the applied filter according to the present invention
Figure 112021064362255-pat00028
, showed significantly higher accuracy.

이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 다른 일 실시예에 따른, 영상 분석 모델을 이용한 농산물의 자동 분류 시스템에 관하여 상세히 설명하면 다음과 같다.Hereinafter, based on the above description, an automatic classification system for agricultural products using an image analysis model according to another preferred embodiment of the present specification will be described in detail as follows.

도 11은 본 발명에 따른 농산물 자동 분류 시스템을 나타낸 것이다. 11 shows an automatic classification system for agricultural products according to the present invention.

도 11에 따르면, 본 발명에 따른 농산물 자동 분류 시스템은 카메라(100) 및 컴퓨팅 장치(200)를 포함할 수 있다. 본 발명에 따른 카메라(100)는 미리 선별된 고품질의 제1 농산물 및 미리 선별된 저품질의 제2 농산물을 촬영할 수 있다. According to FIG. 11, the automatic sorting system for agricultural products according to the present invention may include a camera 100 and a computing device 200. The camera 100 according to the present invention may take a pre-selected high-quality first agricultural product and a pre-selected low-quality second agricultural product.

또한, 본 발명에 따른 컴퓨팅 장치(200)는 상기 제1 농산물을 촬영한 제1 이미지 및 상기 제2 농산물을 촬영한 제2 이미지를 상기 카메라(100)로부터 수신하고, 상기 제1 이미지 및 상기 제2 이미지를 기초로 검사 대상 농산물의 품질 등급을 측정할 수 있다. In addition, the computing device 200 according to the present invention receives a first image of photographing the first agricultural product and a second image of photographing the second agricultural product from the camera 100, and the first image and the first agricultural product. 2 Based on the image, the quality grade of agricultural products to be inspected can be measured.

본 발명에 따른 컴퓨팅 장치(200)는 상술한 본 명세서의 바람직한 일 실시예에 따른 영상 분석 모델을 이용한 농산물의 자동 분류 방법을 수행하는 주체일 수 있다. The computing device 200 according to the present invention may be a subject that performs the automatic classification method of agricultural products using the image analysis model according to the above-described preferred embodiment of the present specification.

도 12는 본 발명에 따른 컴퓨팅 장치를 나타낸 도면이다. 12 is a diagram illustrating a computing device according to the present invention.

도 12에 따르면, 본 발명에 따른 컴퓨팅 장치(200)는 프로세서(210), 메모리(220) 및 통신 모듈(230)를 포함할 수 있다. According to FIG. 12 , a computing device 200 according to the present invention may include a processor 210, a memory 220, and a communication module 230.

프로세서(210)는 메모리(220)에 저장된 명령어를 실행하여 다른 구성들을 제어할 수 있다. 프로세서(210)는 메모리(220)에 저장된 명령어를 수행할 수 있다. The processor 210 may execute commands stored in the memory 220 to control other components. The processor 210 may execute instructions stored in the memory 220 .

프로세서(210)는, 연산을 수행하고 다른 장치를 제어할 수 있는 구성이다. 주로, 중앙 연산 장치(CPU), 어플리케이션 프로세서(AP), 그래픽스 처리 장치(GPU) 등을 의미할 수 있다. 또한, CPU, AP 또는 GPU는 그 내부에 하나 또는 그 이상의 코어들을 포함할 수 있으며, CPU, AP 또는 GPU는 작동 전압과 클락 신호를 이용하여 작동할 수 있다. 다만, CPU 또는 AP는 직렬 처리에 최적화된 몇 개의 코어로 구성된 반면, GPU는 병렬 처리용으로 설계된 수 천 개의 보다 소형이고 효율적인 코어로 구성될 수 있다.The processor 210 is a component capable of performing calculations and controlling other devices. Mainly, it may mean a central processing unit (CPU), an application processor (AP), a graphics processing unit (GPU), and the like. Also, the CPU, AP, or GPU may include one or more cores therein, and the CPU, AP, or GPU may operate using an operating voltage and a clock signal. However, while a CPU or AP consists of a few cores optimized for serial processing, a GPU may consist of thousands of smaller and more efficient cores designed for parallel processing.

프로세서(210)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(220)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 210 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the components described above or by running an application program stored in the memory 220.

메모리(220)는 서버(200)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(220)는 서버(200)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 서버(200)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버(200)로부터 다운로드 될 수 있다. 또한 응용 프로그램은, 메모리(220)에 저장되고, 서버(200)에 설치되어, 프로세서(210)에 의하여 상기 서버(200)의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 220 stores data supporting various functions of the server 200 . The memory 220 may store a plurality of application programs (application programs or applications) running in the server 200, data for operation of the server 200, and commands. At least some of these application programs may be downloaded from the external server 200 through wireless communication. Also, the application program may be stored in the memory 220, installed in the server 200, and driven by the processor 210 to perform the operation (or function) of the server 200.

메모리(220)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(220)는 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수도 있다.The memory 220 may be a flash memory type, a hard disk type, a solid state disk type, a silicon disk drive type, or a multimedia card micro type. ), card-type memory (eg SD or XD memory, etc.), RAM (random access memory; RAM), SRAM (static random access memory), ROM (read-only memory; ROM), EEPROM (electrically erasable programmable read -only memory), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk. Also, the memory 220 may include a web storage performing a storage function on the Internet.

통신 모듈(230)은 외부 서버 또는 카메라(100)와 통신하기 위한 구성일 수 있다. 통신 모듈(230)의 경우, 안테나를 통해 기지국 또는 통신 기능을 포함하는 외부 서버 또는 카메라(100)와 정보의 송수신을 실행한다. 통신 모듈(230)은 변조부, 복조부, 신호 처리부 등을 포함할 수 있다.The communication module 230 may be a component for communicating with an external server or the camera 100 . In the case of the communication module 230, information is transmitted and received with a base station or an external server or camera 100 having a communication function through an antenna. The communication module 230 may include a modulation unit, a demodulation unit, a signal processing unit, and the like.

무선 통신은, 통신사들이 기존에 설치해둔 통신 시설과 그 통신 시설의 주파수를 사용하는 무선 통신망을 사용한 통신을 말할 수 있다. 이때, 통신 모듈(230)은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있으며, 뿐만 아니라, 통신 모듈(230)은 3GPP(3rd generation partnership project) LTE(long term evolution) 등에도 사용될 수 있다. 또한, 최근 상용화 중인 5G 통신 뿐만 아니라, 추후 상용화가 예정되어 있는 6G 등도 사용될 수 있다. 다만, 본 명세서는 이와 같은 무선 통신 방식에 구애됨이 없이 기설치된 통신망을 활용할 수 있다.Wireless communication may refer to communication using a wireless communication network using a communication facility previously installed by telecommunication companies and a frequency of the communication facility. At this time, the communication module 230 is CDMA (code division multiple access), FDMA (frequency division multiple access), TDMA (time division multiple access), OFDMA (orthogonal frequency division multiple access), SC-FDMA (single carrier frequency division multiple access), and the like, as well as the communication module 230 can also be used for 3rd generation partnership project (3GPP) long term evolution (LTE). In addition, not only 5G communication currently commercialized, but also 6G communication scheduled for commercialization in the future may be used. However, the present specification may utilize a pre-installed communication network without being bound by such a wireless communication method.

또한, 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), BLE(Bluetooth Low Energy), 비콘(Beacon), RFID(Radio Frequency Identification), NFC(Near Field Communication), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다. In addition, as a short range communication technology, Bluetooth, BLE (Bluetooth Low Energy), Beacon, RFID (Radio Frequency Identification), NFC (Near Field Communication), infrared communication (Infrared Data Association; IrDA) ), UWB (Ultra Wideband), ZigBee, etc. may be used.

도 13은 본 발명에 따른 카메라에 포함된 카메라 모듈을 나타낸 도면이다. 13 is a view showing a camera module included in a camera according to the present invention.

도 13에 따르면, 본 발명에 따른 카메라(100)는 카메라 모듈(1320)을 포함할 수 있다. 카메라 모듈(1320)은 광 이미지로부터 영상 이미지를 생성할 수 있다. 카메라 모듈(1320)은 측벽에 관통홀을 포함하는 하우징(1324), 관통홀에 설치된 렌즈(1321) 및 렌즈(1321)를 구동하는 구동부(1323)를 포함할 수 있다. 관통홀은 렌즈(1321)의 직경에 대응되는 크기로 형성될 수 있다. 렌즈(1321)는 관통홀에 삽입될 수 있다. According to FIG. 13 , the camera 100 according to the present invention may include a camera module 1320. The camera module 1320 may generate a video image from an optical image. The camera module 1320 may include a housing 1324 including a through hole on a side wall, a lens 1321 installed in the through hole, and a driving unit 1323 that drives the lens 1321 . The through hole may have a size corresponding to the diameter of the lens 1321 . The lens 1321 may be inserted into the through hole.

구동부(1323)는 렌즈(1321)를 전방 또는 후방으로 움직이도록 제어하는 구성일 수 있다. 렌즈(1321)와 구동부(1323)는 종래 알려진 방식으로 연결되고 렌즈(1321)는 종래 알려진 방식으로 구동부(1323)에 의하여 제어될 수 있다. The driving unit 1323 may be configured to control the lens 1321 to move forward or backward. The lens 1321 and the driving unit 1323 are connected in a conventionally known manner, and the lens 1321 may be controlled by the driving unit 1323 in a conventionally known manner.

다양한 영상 이미지를 수득하기 위해서는 렌즈(1321)가 카메라 모듈(1320) 또는 하우징(1324)의 외부로 노출될 필요가 있다. In order to obtain various video images, the lens 1321 needs to be exposed to the outside of the camera module 1320 or the housing 1324 .

특히, 본 발명에 따른 카메라는 외부 영역을 직접 설치되어야 하므로 내오염성이 강한 렌즈가 필요하다. 따라서, 본 발명은 렌즈를 코팅하는 코팅층을 제안하여, 이러한 문제점을 해결하고자 하였다. In particular, since the camera according to the present invention needs to be directly installed in the outer area, a lens with strong contamination resistance is required. Accordingly, the present invention proposes a coating layer for coating a lens to solve this problem.

바람직하게 상기 렌즈(1321)는 그 표면에 하기의 화학식 1로 표시되는 아크릴계 화합물; 유기 용매, 무기 입자 및 분산제가 포함되는 코팅조성물로 코팅된 것일 수 있다.Preferably, the lens 1321 may include an acrylic compound represented by Formula 1 below on its surface; It may be coated with a coating composition containing an organic solvent, inorganic particles and a dispersant.

[화학식 1][Formula 1]

Figure 112021064362255-pat00029
Figure 112021064362255-pat00029

여기서, here,

n 및 m은 서로 동일하거나 상이하며, 각각 독립적으로 1 내지 100의 정수이며, L1은 바이페닐렌기이다.n and m are the same as or different from each other, each independently represent an integer of 1 to 100, and L 1 is a biphenylene group.

상기 코팅조성물로 렌즈(1321)가 코팅된 경우 우수한 발수성 및 내오염성을 나타낼 수 있기 때문에 외부 환경에 설치된 렌즈(1321)가 오염 환경 및 염분에 장기간 노출되더라도, 깨끗하고 선명한 외부 영상을 수집할 수 있다. When the lens 1321 is coated with the coating composition, it can exhibit excellent water repellency and stain resistance, so even if the lens 1321 installed in the external environment is exposed to a polluted environment and salt for a long time, it is possible to collect clear and clear external images. .

상기 무기 입자는 실리카, 알루미나 및 이들의 혼합물로 이루어진 군으로부터 선택될 수 있다. 상기 무기 입자의 평균 직경은 70 내지 100㎛이지만, 상기 예시에 국한되지 않는다. 상기 무기 입자는 렌즈(1321) 표면에 코팅층(1322)으로 형성 후, 물리적인 강도를 향상시키고, 점도를 일정 범위로 유지시켜 성형성을 높일 수 있다. The inorganic particles may be selected from the group consisting of silica, alumina, and mixtures thereof. The average diameter of the inorganic particles is 70 to 100 μm, but is not limited to the above examples. After forming the coating layer 1322 on the surface of the lens 1321, the inorganic particles may improve physical strength and maintain viscosity within a certain range to increase moldability.

상기 유기 용매는 메틸에틸케톤(MEK), 톨루엔 및 이들의 혼합으로 이루어진 군으로부터 선택되며, 바람직하게는 메틸에틸케톤을 사용할 수 있으나, 상기 예시에 국한되지 않는다. The organic solvent is selected from the group consisting of methyl ethyl ketone (MEK), toluene, and mixtures thereof, and preferably methyl ethyl ketone may be used, but is not limited to the above examples.

상기 분산제로는 폴리에스테르 계열의 분산제를 사용할 수 있고, 구체적으로 2-메톡시프로필 아세테이트 및 1-메톡시-2-프로필 아세테이트의 공중합체로 이루어진 폴리에스테르 계열의 분산안정제로서 TEGO-Disperse 670 (제조사: EVONIK)을 사용할 수 있으나, 상기 예시에 국한되지 않고 통상의 기술자에게 자명한 분산제는 제한 없이 모두 사용 가능하다.As the dispersing agent, a polyester-based dispersing agent may be used, and specifically, TEGO-Disperse 670 (manufacturer : EVONIK) can be used, but it is not limited to the above examples, and all dispersants obvious to those skilled in the art can be used without limitation.

상기 코팅 조성물은 기타 첨가제로 안정화제를 추가로 포함할 수 있고, 상기 안정화제는 자외선 흡수제, 산화방지제 등을 포함할 수 있으나, 상기 예시에 국한되지 않고 제한 없이 사용 가능하다.The coating composition may further include a stabilizer as other additives, and the stabilizer may include a UV absorber, an antioxidant, and the like, but is not limited to the above examples and may be used without limitation.

상기 코팅층(1322)을 형성하기 위한, 코팅 조성물은 보다 구체적으로 상기 화학식 1로 표시되는 아크릴계 화합물; 유기 용매, 무기 입자 및 분산제를 포함할 수 있다.The coating composition for forming the coating layer 1322 may more specifically include an acrylic compound represented by Chemical Formula 1; organic solvents, inorganic particles and dispersants.

상기 코팅 조성물은 유기용매 100 중량부에 대하여, 상기 화학식 1로 표시되는 아크릴계 화합물 40 내지 60 중량부, 무기 입자 20 내지 40 중량부 및 분산제 5 내지 15 중량부를 포함할 수 있다. 상기 범위에 의하는 경우 각 구성 성분의 상호 작용에 의한 발수 효과가 임계적 의의가 있는 정도의 상승효과가 발현되며, 상기 범위를 벗어나는 경우 상승효과가 급격히 저하되거나 거의 없게 된다.The coating composition may include 40 to 60 parts by weight of the acrylic compound represented by Formula 1, 20 to 40 parts by weight of inorganic particles, and 5 to 15 parts by weight of a dispersant, based on 100 parts by weight of the organic solvent. In the case of the above range, a synergistic effect is expressed to the extent that the water repellency effect due to the interaction of each component is of critical significance, and when it is out of the above range, the synergistic effect is rapidly reduced or almost nonexistent.

보다 바람직하게, 상기 코팅 조성물의 점도는 1500 내지 1800cP이며, 상기 점도가 1500cP 미만인 경우에는 렌즈(1321) 표면에 도포하면, 흘러내려 코팅층(1322)의 형성이 용이하지 않은 문제가 있고, 1800cP를 초과하는 경우에는 균일한 코팅층(1322)의 형성이 용이하지 않은 문제가 있다.More preferably, the viscosity of the coating composition is 1500 to 1800 cP, and when the viscosity is less than 1500 cP, when applied to the surface of the lens 1321, there is a problem that it is not easy to form the coating layer 1322 because it flows down, and the coating composition exceeds 1800 cP. In this case, there is a problem in that it is not easy to form a uniform coating layer 1322.

[제조예 1: 코팅층의 제조][Preparation Example 1: Preparation of coating layer]

1. 코팅 조성물의 제조1. Preparation of coating composition

메틸에틸케톤에 하기 화학식 1로 표시되는 아크릴계 화합물, 무기입자 및 분산제를 혼합하여, 코팅 조성물을 제조하였다:A coating composition was prepared by mixing methyl ethyl ketone with an acrylic compound represented by Formula 1, inorganic particles, and a dispersant:

[화학식 1][Formula 1]

Figure 112021064362255-pat00030
Figure 112021064362255-pat00030

여기서, here,

n 및 m은 서로 동일하거나 상이하며, 각각 독립적으로 1 내지 100의 정수이며, L1은 바이페닐렌기이다.n and m are the same as or different from each other, each independently represent an integer of 1 to 100, and L 1 is a biphenylene group.

상기 대전방지 조성물의 보다 구체적인 조성은 하기 표 2와 같다. A more specific composition of the antistatic composition is shown in Table 2 below.

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 유기용매organic solvent 100100 100100 100100 100100 100100 아크릴계 화합물acrylic compound 3030 4040 5050 6060 7070 무기입자inorganic particles 1010 2020 3030 4040 5050 분산제dispersant 1One 55 1010 1515 2020

(단위 중량부)(unit weight parts)

2. 코팅층의 제조2. Preparation of coating layer

렌즈(1321)의 일면에 상기 DX1 내지 DX5의 코팅 조성물을 도포 후, 경화시켜 코팅층(1322)을 형성하였다. A coating layer 1322 was formed by applying the coating composition of DX1 to DX5 on one surface of the lens 1321 and then curing the coating composition.

[실험예][Experimental example]

1. 표면 외관에 대한 평가1. Evaluation of surface appearance

코팅 조성물의 점도 차이로 인해, 코팅층(1322)을 제조한 이후, 균일한 표면이 형성되었는지 여부에 대해 관능 평가를 진행하였다. 균일한 코팅층(1322)을 형성하였는지 여부에 대한 평가를 진행하였고, 하기와 같은 기준에 의해 평가를 진행하였다. Due to the difference in viscosity of the coating composition, after the coating layer 1322 was prepared, a sensory evaluation was performed on whether a uniform surface was formed. Evaluation was conducted on whether or not a uniform coating layer 1322 was formed, and the evaluation was conducted according to the following criteria.

○: 균일한 코팅층 형성○: uniform coating layer formation

×: 불균일한 코팅층의 형성×: Formation of non-uniform coating layer

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 관능 평가sensory evaluation ХХ ХХ

코팅층(1322)을 형성할 때, 일정 점도 미만인 경우에는 렌즈(1321)의 표면에서 흐름이 발생하여, 경화 공정 이후, 균일한 코팅층(1322)의 형성이 어려운 경우가 다수 발생하였다. 이에 따라, 생산 수율이 낮아지는 문제가 발생할 수 있다. 또한, 점도가 너무 높은 경우에도, 조성물의 균일 도포가 어려워 균일한 코팅층(1322)의 형성이 불가하였다.When forming the coating layer 1322, if the viscosity is less than a certain amount, flow occurs on the surface of the lens 1321, and it is difficult to form a uniform coating layer 1322 after the curing process in many cases. Accordingly, a problem of lowering the production yield may occur. In addition, even when the viscosity is too high, it is difficult to uniformly apply the composition, and it is impossible to form a uniform coating layer 1322.

2. 발수각의 측정2. Measurement of water repellency angle

상기 렌즈(1321) 표면에 코팅층(1322)을 형성한 이후, 발수각을 측정한 결과는 하기 표 4과 같다. After forming the coating layer 1322 on the surface of the lens 1321, the results of measuring the water repellency angle are shown in Table 4 below.

전진 접촉각 (“)Advancing contact angle (") 정지 접촉각 (“)Static contact angle (“) 후진 접촉각 (“)receding contact angle (“) TX1TX1 117.1±2.9117.1±2.9 112.1±4.1112.1±4.1 < 10< 10 TX2TX2 132.4±1.5132.4±1.5 131.5±2.7131.5±2.7 141.7±3.4141.7±3.4 TX3TX3 138.9±3.0138.9±3.0 138.9±2.7138.9±2.7 139.8±3.7139.8±3.7 TX4TX4 136.9±2.0136.9±2.0 135.6±2.6135.6±2.6 140.4±3.4140.4±3.4 TX5TX5 116.9±0.7116.9±0.7 115.4±3.0115.4±3.0 < 10< 10

상기 표 4에 나타낸 바와 같이, TX1 내지 TX5의 코팅 조성물을 이용하여 코팅층(1322)을 형성한 이후, 접촉각을 측정한 결과를 확인하였다. TX1 및 TX5는 후진 접촉각이 10도 미만으로 측정되었다. 즉, 코팅 조성물을 제조하기 위한 최적의 범위를 벗어나게 되는 경우, 물방울이 피닝(Pinning)되는 현상이 발생하는 것을 확인하였다. 반면 TX2 내지 4에서는 피닝 현상이 발생하지 않음을 확인하여 우수한 방수 효과를 나타낼 수 있음을 확인하였다.As shown in Table 4, after the coating layer 1322 was formed using the coating compositions of TX1 to TX5, the result of measuring the contact angle was confirmed. TX1 and TX5 measured receding contact angles less than 10 degrees. That is, it was confirmed that a phenomenon in which water droplets are pinned occurs when the coating composition is out of the optimal range for preparing the coating composition. On the other hand, it was confirmed that the pinning phenomenon did not occur in TX2 to 4, indicating that excellent waterproofing effect could be exhibited.

3. 내오염성 평가3. Fouling resistance evaluation

설비 외부에 상기 실시예에 따른 코팅층(1322)을 형성한 렌즈(1321)를 모형카메라에 부착하고, 4일 간 외부(실외) 환경에 노출되도록 하였다. 비교예(Con)로는 코팅층(1322)이 형성되지 않은 동일한 렌즈(1321)를 사용하였으며, 각 실시예에 모형카메라는 동일한 위치에 부착하였다.A lens 1321 having a coating layer 1322 according to the above embodiment formed outside the facility was attached to a model camera, and exposed to an external (outdoor) environment for 4 days. As the comparative example (Con), the same lens 1321 without the coating layer 1322 was used, and the model camera was attached to the same position in each example.

그 뒤 실험 전후의 렌즈(1321)의 오염 및 부식 정도를 유관으로 평가하였고, 객관적인 비교를 위하여 코팅층(1322)이 형성되지 않은 비교예와 비교하여 그 결과를 1 내지 10의 지수로 평가하여 하기의 표 5에 나타내었다. 하기의 지수는 그 숫자가 낮을수록 내오염성이 우수한 것이다.After that, the degree of contamination and corrosion of the lens 1321 before and after the experiment was evaluated as related, and for objective comparison, the result was compared with a comparative example in which the coating layer 1322 was not formed, and the result was evaluated by an index of 1 to 10, and the following Table 5 shows. In the index below, the lower the number, the better the stain resistance.

ConCon TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 내오염성stain resistance 1010 77 33 33 33 88

(단위: 지수)(Unit: index)

상기 표 5를 참조하면, 렌즈(1321)에 코팅층(1322)을 형성하는 경우 외부 환경에 카메라를 설치하면서 렌즈(1321)가 외부로 노출되도록 하여도 높은 내오염성을 오랜 기간 분석하기 용이한 형태로 이미지 데이터를 수집할 수 있다는 점을 알 수 있다. 특히 TX2 내지 TX4에 의하는 경우 코팅층(1322)에 의한 내오염성이 매우 우수하다는 점을 확인할 수 있다.Referring to Table 5, in the case of forming the coating layer 1322 on the lens 1321, even if the lens 1321 is exposed to the outside while installing the camera in the external environment, high contamination resistance is easily analyzed for a long period of time. It can be seen that image data can be collected. In particular, in the case of TX2 to TX4, it can be confirmed that the contamination resistance by the coating layer 1322 is very excellent.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 모델링하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 모델링되는 것도 포함한다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The above-described present invention can be modeled as a computer readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. , and also includes those modeled in the form of carrier waves (eg, transmission over the Internet). Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of this specification should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this specification are included in the scope of this specification.

앞에서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.Any or other embodiments of the present invention described above are not mutually exclusive or distinct. Certain or other embodiments of the present invention described above may be used in combination or combination of respective configurations or functions.

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

100: 카메라
200: 컴퓨팅 장치
100: camera
200: computing device

Claims (7)

카메라로부터 촬영된 이미지를 기반으로 농산물의 품질에 따른 분류를 수행하는 방법으로서, - 제1 농산물은 미리 선별된 양품의 농산물이고, 제2 농산물은 미리 선별된 불량품의 농산물이며, -
상기 제1 농산물을 촬영한 제1 이미지 및 상기 제2 농산물을 촬영한 제2 이미지를 수신하는 단계;
상기 제1 이미지 및 상기 제2 이미지를 저장하는 단계;
상기 제1 이미지 및 상기 제2 이미지를 기초로 제1 차이 이미지를 생성하는 단계;
작업자로부터 현장 작업자의 주관적인 양품 판별 기준에 따라 상기 제1 차이 이미지를 구성하는 이미지 요소들 중 불량으로 판단되는 이미지 요소를 선택받아 작업자의 마스킹 입력을 수신하는 단계;
상기 마스킹 입력에 의해 선택된 이미지 요소를 제외한 나머지 이미지 요소를 상기 제1 차이 이미지에서 마스크 처리하여 현장 작업자가 불량 판별에서 중요하게 생각하는 요소만을 남긴 마스크 처리된 제2 차이 이미지를 생성하는 단계;
상기 제1 이미지와 상기 제2 이미지를 입력으로 하고 상기 제2 차이 이미지를 출력하도록 하여 제2 심층 신경망이 입출력 데이터간 상관관계를 딥러닝 학습시키는 단계;
상기 제2 차이 이미지의 잔존 이미지 요소의 크기를 결함값으로 산출하고 상기 제2 차이 이미지의 결함값 분포를 통해 검사 기준값을 산출하는 단계; 및
상기 검사 기준값을 기초로 검사 대상 농산물을 분류하는 단계;를 포함하고,
상기 제1 차이 이미지를 생성하는 단계는,
상기 제1 이미지 속 상기 제1 농산물을 복수의 영역으로 분할하는 단계;
상기 제2 이미지 속 상기 제2 농산물을 복수의 영역으로 분할하는 단계; 및
상기 복수의 영역을 기초로 상기 제1 차이 이미지를 생성하는 단계;를 포함하고
상기 복수의 영역을 기초로 상기 제1 차이 이미지를 생성하는 단계는,
상기 제1 농산물에 대한 복수의 영역과, 상기 제2 농산물에 대한 복수의 영역 중 서로 대응하는 영역끼리 비교하여 상기 제1 차이 이미지를 생성하는 것이며,
상기 제1 차이 이미지를 생성하는 단계는,
상기 제1 이미지 및 상기 제2 이미지 중 적어도 하나의 이미지에 하기의 식 2에 따른 영상 보정 필터를 적용하여 적어도 하나의 보정된 이미지를 생성하는 단계; 및
상기 적어도 하나의 보정된 이미지를 기초로 상기 제1 차이 이미지를 생성하는 단계;를 포함하는 것인,
영상 분석 모델을 이용한 농산물의 자동 분류 방법.
[식 2]
Figure 112022135821682-pat00044

(단,
Figure 112022135821682-pat00045
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,
Figure 112022135821682-pat00046
: 응용 필터로서 하기의 식 3이 적용된 것이다.
Figure 112022135821682-pat00047
: 이미지,
Figure 112022135821682-pat00048
: 응용 필터의 높이 (행의 수),
Figure 112022135821682-pat00049
: 응용 필터의 너비 (열의 수)이다.)
[식 3]
Figure 112022135821682-pat00050

(단,
Figure 112022135821682-pat00051
: 필터,
Figure 112022135821682-pat00052
: 계수,
Figure 112022135821682-pat00053
: 응용 필터)
As a method of performing classification according to the quality of agricultural products based on images taken from a camera, - first agricultural products are agricultural products of pre-selected good products, and second agricultural products are agricultural products of pre-selected defective products, -
Receiving a first image of photographing the first agricultural product and a second image of photographing the second agricultural product;
storing the first image and the second image;
generating a first difference image based on the first image and the second image;
receiving an operator's masking input by selecting an image element determined to be defective from among image elements constituting the first difference image according to subjective good product discrimination criteria of the operator;
Generating a masked second difference image in which only elements that a field worker considers important in determining a defect are left by masking remaining image elements other than the image element selected by the masking input from the first difference image;
Deep learning a correlation between input and output data by a second deep neural network by using the first image and the second image as inputs and outputting the second difference image;
calculating a size of a remaining image element of the second difference image as a defect value and calculating an inspection reference value through a defect value distribution of the second difference image; and
Classifying agricultural products to be inspected based on the inspection reference value; Including,
Generating the first difference image,
Dividing the first agricultural product in the first image into a plurality of regions;
Dividing the second agricultural product in the second image into a plurality of regions; and
generating the first difference image based on the plurality of areas; and
Generating the first difference image based on the plurality of regions,
Comparing a plurality of regions of the first agricultural product with regions corresponding to each other among a plurality of regions of the second agricultural product to generate the first difference image;
Generating the first difference image,
generating at least one corrected image by applying an image correction filter according to Equation 2 below to at least one of the first image and the second image; and
Generating the first difference image based on the at least one corrected image;
Automatic classification method of agricultural products using image analysis model.
[Equation 2]
Figure 112022135821682-pat00044

(step,
Figure 112022135821682-pat00045
: pixels in the i-th row and j-th column of the filtered image expressed as a matrix,
Figure 112022135821682-pat00046
: As an applied filter, Equation 3 below is applied.
Figure 112022135821682-pat00047
: image,
Figure 112022135821682-pat00048
: height of application filter (number of rows),
Figure 112022135821682-pat00049
: The width (number of columns) of the application filter.)
[Equation 3]
Figure 112022135821682-pat00050

(step,
Figure 112022135821682-pat00051
: filter,
Figure 112022135821682-pat00052
: Coefficient,
Figure 112022135821682-pat00053
: application filter)
삭제delete 삭제delete 제1항에 있어서,
상기 검사 기준값은 결함값들의 분포에서 양품과 불량품의 경계값의 중간값인 것인,
영상 분석 모델을 이용한 농산물의 자동 분류 방법.
According to claim 1,
The inspection reference value is a median value of a boundary value between a good product and a defective product in the distribution of defect values.
Automatic classification method of agricultural products using image analysis model.
삭제delete 미리 선별된 양품의 제1 농산물 및 미리 선별된 불량품의 제2 농산물을 각각 촬영하는 카메라; 및
상기 제1 농산물을 촬영한 제1 이미지 및 상기 제2 농산물을 촬영한 제2 이미지를 상기 카메라로부터 수신하고, 상기 제1 이미지 및 상기 제2 이미지를 기초로 검사 대상 농산물의 품질 등급을 측정하는 컴퓨팅 장치;를 포함하되,
상기 컴퓨팅 장치는,
제1항 또는 제4항의 방법을 수행하기 위한 명령어를 저장하는 메모리; 및
상기 명령어를 수행하는 프로세서;를 포함하는 것인,
영상 분석 모델을 이용한 농산물의 자동 분류 시스템.
A camera for photographing the first agricultural products of pre-selected good products and the second agricultural products of pre-selected defective products; and
Computing for receiving a first image of the first agricultural product and a second image of the second agricultural product from the camera, and measuring a quality grade of the agricultural product to be inspected based on the first image and the second image. Including; device;
The computing device,
a memory storing instructions for performing the method of claim 1 or claim 4; and
A processor that performs the command; that includes,
Automatic classification system of agricultural products using image analysis model.
명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서,
상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 제1항 또는 제4항의 방법을 수행하게 하는, 비일시적 컴퓨터 판독가능 매체.
A non-transitory computer readable medium storing instructions,
The instructions, when executed by a processor, cause the processor to perform the method of claim 1 or 4.
KR1020210072167A 2021-06-03 2021-06-03 Automatic classification method and system of agricultural products using image analysis model KR102524374B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210072167A KR102524374B1 (en) 2021-06-03 2021-06-03 Automatic classification method and system of agricultural products using image analysis model
PCT/KR2021/016237 WO2022255566A1 (en) 2021-06-03 2021-11-09 Deep-learning-based method for managing quality of target, and system using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210072167A KR102524374B1 (en) 2021-06-03 2021-06-03 Automatic classification method and system of agricultural products using image analysis model

Publications (2)

Publication Number Publication Date
KR20220163697A KR20220163697A (en) 2022-12-12
KR102524374B1 true KR102524374B1 (en) 2023-04-20

Family

ID=84391513

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210072167A KR102524374B1 (en) 2021-06-03 2021-06-03 Automatic classification method and system of agricultural products using image analysis model

Country Status (1)

Country Link
KR (1) KR102524374B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101839548B1 (en) 2016-12-29 2018-03-19 한국식품연구원 Apparatus for sorting agricultural products
KR102171491B1 (en) * 2017-12-21 2020-10-29 동의대학교 산학협력단 Method for sorting products using deep learning
KR20210038211A (en) * 2019-09-30 2021-04-07 오상욱 Method of inspection using image masking operation

Also Published As

Publication number Publication date
KR20220163697A (en) 2022-12-12

Similar Documents

Publication Publication Date Title
US11836976B2 (en) Method for recognizing seawater polluted area based on high-resolution remote sensing image and device
Ferraz et al. Lidar detection of individual tree size in tropical forests
CN109685199B (en) Method and apparatus for creating table containing information on pooling type, and test method and test apparatus using the same
JP5198476B2 (en) Method for determining focus position and vision inspection system
CN110286124A (en) Refractory brick measuring system based on machine vision
CN109520706A (en) Automobile fuse box assembly detection system, image-recognizing method and screw hole positioning mode
CN113920096A (en) Method for detecting metal packaging defects of integrated circuit
CN104598886A (en) Method for identifying moldy peanuts by using near-infrared high-spectrum image
CN107590512A (en) The adaptive approach and system of parameter in a kind of template matches
CN110390261A (en) Object detection method, device, computer readable storage medium and electronic equipment
CN105354575B (en) Image binaryzation threshold value determines method in a kind of sea horizon detection
SE534089C2 (en) Procedure for classifying image information
KR102524374B1 (en) Automatic classification method and system of agricultural products using image analysis model
CN109640255B (en) Position fingerprint indoor positioning system and method
KR102524453B1 (en) Method and system for measuring quality of seafood products using ai
US20210158223A1 (en) Finding Semiconductor Defects Using Convolutional Context Attributes
KR102592502B1 (en) System and method for quality management of parts based on distribution of combined values based on deep learning
KR102523770B1 (en) Machine vision-based quality management system and method for electric parts using deep learning
CN112417981A (en) Complex battlefield environment target efficient identification method based on improved FasterR-CNN
US20230025165A1 (en) Method to locate defects in e-coat
CN116778357A (en) Power line unmanned aerial vehicle inspection method and system utilizing visible light defect identification
KR20230161808A (en) Fish sorting system using ai-based fish shadow
CN112580705B (en) Hyperspectral classification method based on deep feed-forward network
CN115690204A (en) Hole site measuring method, device, equipment and medium for manufactured part
KR20240023893A (en) Vision recognition-based farm fish health management system and method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant