KR102380289B1 - Apparatus and method for determining beef grade - Google Patents

Apparatus and method for determining beef grade Download PDF

Info

Publication number
KR102380289B1
KR102380289B1 KR1020190166148A KR20190166148A KR102380289B1 KR 102380289 B1 KR102380289 B1 KR 102380289B1 KR 1020190166148 A KR1020190166148 A KR 1020190166148A KR 20190166148 A KR20190166148 A KR 20190166148A KR 102380289 B1 KR102380289 B1 KR 102380289B1
Authority
KR
South Korea
Prior art keywords
beef
grade
image
grading
learning model
Prior art date
Application number
KR1020190166148A
Other languages
Korean (ko)
Other versions
KR20210074953A (en
Inventor
서영욱
김기영
이아영
조수현
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020190166148A priority Critical patent/KR102380289B1/en
Publication of KR20210074953A publication Critical patent/KR20210074953A/en
Application granted granted Critical
Publication of KR102380289B1 publication Critical patent/KR102380289B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • G06T5/006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30128Food products

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mining & Mineral Resources (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Agronomy & Crop Science (AREA)
  • Animal Husbandry (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Evolutionary Computation (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 실시예에 따른 소고기 등급 판정 장치에 의해 수행되는 소고기 등급 판정 방법에 있어서, 소고기 촬영 이미지를 수신하는 단계; 수신한 소고기 이미지를 전처리하는 단계; 및 전처리된 소고기 이미지를 머신러닝 모델을 이용하여 분석하여 소고기의 등급을 판정하는 단계를 포함하고, 전처리 단계는 VNIR(Visible and Near-Infrared) 영역에서 분광법을 이용하여 소고기의 지방과 살코기를 판별하여 RoI(Region of Interest) 설정하는 단계를 포함하는, 소고기 등급 판정 방법을 제공하고자 한다.In the beef grading method performed by the beef grading device according to an embodiment of the present invention, the method comprising: receiving a beef photographed image; pre-processing the received beef image; And analyzing the pre-processed beef image using a machine learning model to determine the grade of beef, the pre-processing step is to determine the fat and lean meat of beef using spectroscopy in the VNIR (Visible and Near-Infrared) region. It is intended to provide a beef grading method, including the step of setting a region of interest (RoI).

Description

소고기 등급 판정 장치 및 방법{APPARATUS AND METHOD FOR DETERMINING BEEF GRADE}Beef grading device and method {APPARATUS AND METHOD FOR DETERMINING BEEF GRADE}

본 발명에 따른 소고기 등급 판정 장치 및 그 방법은 분광법과 머신러닝을 이용하여 소고기의 등급을 판정하는 소고기 등급 판정 장치 및 그 방법에 관한 것이다.Beef grading apparatus and method according to the present invention relates to a beef grading apparatus and method for determining the grade of beef using spectroscopy and machine learning.

일반적으로 소고기는 도축 직후에 등급을 분류하여 등급에 따라 다른 가격으로 판매가 이루어진다. 소고기의 등급은 육질 및 육량 등급을 통하여 판정되며, 판정의 방법은 전문등급판정사의 육안에 의하고 있다.In general, beef is classified immediately after slaughter and sold at different prices depending on the grade. The grade of beef is judged through meat quality and quantity grade, and the method of judgment is based on the naked eye of a professional grader.

그러나 육안에 의한 판정은 등급판정을 위한 등급판정항목별로 정량화된 데이터의 축적이 어렵기 때문에, 등급 판정 결과에 대한 객관성을 확보하지 못하는 문제가 있다. 또한 등급 판정에 소요되는 시간이 매우 길고, 경험이 중요하여 전문등급판정사의 양성이 어렵다는 단점이 있다.However, since it is difficult to accumulate quantified data for each grading item for grading, there is a problem in that it is not possible to secure the objectivity of the grading result. In addition, there are disadvantages in that it is difficult to train a professional grade judge because the time required for grade determination is very long and experience is important.

이러한 문제를 해결하기 위하여, 영상분석을 통하여 자동으로 등급을 분류하는 기술에 대한 연구가 계속되고 있으며, 디지털 영상기술의 발전과 함께 관심이 더욱 높아지고 있다. 그러나 소고기의 단면은 살코기와 지방이 혼재되어 있고 이들 사이의 분리가 명확하지 않기 때문에, 종래의 기술들에 의하여 추출된 판정영역의 경계선은 전문등급판정사가 추출한 경계선과 큰 차이를 보이고 있다.In order to solve this problem, research on a technology for automatically classifying grades through image analysis is continuing, and interest is increasing with the development of digital image technology. However, since the cross section of beef is mixed with lean meat and fat, and the separation between them is not clear, the boundary line of the judgment area extracted by conventional techniques is significantly different from the boundary line extracted by a professional grader.

따라서 이러한 차이점을 극복하고 전문등급판정사가 판정하는 소고기 등급과 동일한 등급을 자동으로 판정하는 장치를 개발하는 것이 필요한 실정이다.Therefore, it is necessary to overcome these differences and develop a device that automatically determines the same grade as the beef grade determined by a professional grader.

대한민국 공개특허공보 제10-2013-0017144호(발명의 명칭: Qr 코드를 이용한 소고기 이력 정보 제공 시스템 및 그 방법)Republic of Korea Patent Publication No. 10-2013-0017144 (Title of the invention: Beef history information providing system and method using Qr code)

본 발명에 따른 소고기 등급 판정 장치 및 그 방법은 소고기 등급판정사, 연구자 및 일반 소비자들이 스마트 폰에 부착된 카메라를 이용하여 소고기 등지방(마블링) 분포를 확인하고, 등급(1++, 1+, 1, 2&3등급) 판정에 도움을 받을 수 있는 객관적인 판정 값의 획득을 목적으로 한다.Beef grade determination apparatus and method according to the present invention, beef graders, researchers, and general consumers using a camera attached to a smart phone to check the distribution of beef back fat (marbling), and grade (1++, 1+ , 1st, 2nd & 3rd grade) aims to obtain objective judgment values that can be helpful in judgment.

본 발명의 일 실시예에 따른 소고기 등급 판정 장치에 의해 수행되는 소고기 등급 판정 방법에 있어서, 소고기 촬영 이미지를 수신하는 단계; 수신한 소고기 이미지를 전처리하는 단계; 및 전처리된 소고기 이미지를 머신러닝 모델을 이용하여 분석하여 소고기의 등급을 판정하는 단계를 포함하고, 전처리 단계는 VNIR(Visible and Near-Infrared) 영역에서 분광법을 이용하여 소고기의 지방과 살코기를 판별하여 RoI(Region of Interest) 설정하는 단계를 포함하는, 소고기 등급 판정 방법을 제공하고자 한다.In the beef grading method performed by the beef grading device according to an embodiment of the present invention, the method comprising: receiving a beef photographed image; pre-processing the received beef image; And analyzing the pre-processed beef image using a machine learning model to determine the grade of beef, the pre-processing step is to determine the fat and lean meat of beef using spectroscopy in the VNIR (Visible and Near-Infrared) region. It is intended to provide a beef grading method, including the step of setting a region of interest (RoI).

본 실시예에 있어서, 전처리 단계는 소고기 이미지를 떨림 보정, 왜곡 보정, 색 분석 및 히스토그램 균일화하는 단계를 포함하는, 소고기 등급 판정 방법을 제공할 수 있다.In this embodiment, the pre-processing step may provide a beef grading method, comprising the steps of shaking the beef image, correcting distortion, color analysis, and histogram equalization.

본 실시예에 있어서, 머신러닝 모델은 등급이 매핑된 소고기 이미지를 미리 학습한 모델인, 소고기 등급 판정 방법을 제공할 수 있다.In this embodiment, the machine learning model may provide a beef rating determination method, which is a model that has been previously trained on a beef image to which the rating is mapped.

본 실시예에 있어서, 소고기의 예측 등급을 수신하는 단계; 등급이 판정된 이미지, 판정 등급 및 예측 등급을 소고기 등급 판정 서버에 전송하는 단계; 및 등급 판정 서버로부터 판정 등급과 예측 등급을 비교하여 판단되는 머신러닝 모델을 이용한 소고기 등급 판정의 정확도를 수신하는 단계를 포함하는, 소고기 등지방 등급판정 방법을 제공할 수 있다.In this embodiment, receiving a predicted grade of beef; transmitting the graded image, the judgment grade, and the predicted grade to the beef grading server; And it is possible to provide a beef back fat grading method comprising the step of receiving the accuracy of the beef grading using a machine learning model determined by comparing the judgment grade and the predicted grade from the grading server.

본 실시예에 있어서, 등급이 판정된 이미지를 예측 등급과 매핑한 것을 기초로 머신 러닝 모델을 학습시키는 단계를 포함하는, 소고기 등지방 등급판정 방법을 제공할 수 있다.In this embodiment, it is possible to provide a beef back fat grading method, including the step of learning a machine learning model based on the mapping of the graded image with the prediction grade.

본 발명의 일 실시예에 따른, 소고기 등급 판정 장치에 있어서, 소고기 등급 판정 프로그램이 기록된 메모리; 및 메모리에 기록된 프로그램을 실행하는 프로세서를 포함하고, 프로세서는 프로그램의 실행에 따라, 카메라로 촬영된 소고기 촬영 이미지를 수신하고, 수신한 소고기 이미지를 전처리하고, 전처리된 소고기 이미지를 머신러닝 모델을 이용하여 분석하여 소고기의 등급을 판정하며, 전처리하는 것은 VNIR(Visible and Near-Infrared) 영역에서 분광법을 이용하여 소고기의 지방과 살코기를 판별하여 RoI(Region of Interest) 설정하는 것을 포함하는, 소고기 등급 판정 장치를 제공하고자 한다.According to an embodiment of the present invention, in the beef grading device, the beef grading program is recorded memory; and a processor executing a program recorded in the memory, wherein the processor receives, according to the execution of the program, a beef shot image captured by a camera, pre-processes the received beef image, and converts the pre-processed beef image into a machine learning model To determine the grade of beef by analyzing using, the pre-processing includes determining the fat and lean meat of beef using spectroscopy in the VNIR (Visible and Near-Infrared) area and setting the RoI (Region of Interest) Beef grade It is intended to provide a judgment device.

본 실시예에 있어서, 전처리하는 것은 소고기 이미지를 떨림 보정, 왜곡 보정, 색 분석 및 히스토그램 균일화하는 것을 포함하는, 소고기 등급 판정 장치를 제공할 수 있다.In this embodiment, the pre-processing may provide a beef grading device, including shaking, distortion correction, color analysis, and histogram equalization of the beef image.

본 실시예에 있어서, 머신러닝 모델은 등급이 매핑된 소고기 이미지를 미리 학습한 모델인, 소고기 등급 판정 장치를 제공할 수 있다.In this embodiment, the machine learning model may provide a beef grade determination device, which is a model that has previously learned a grade-mapped beef image.

본 실시예에 있어서, 소고기의 예측 등급을 수신하고, 등급이 판정된 이미지, 판정 등급 및 예측 등급을 소고기 등급 판정 서버에 전송하고, 등급 판정 서버에서 판정 등급과 예측 등급을 비교하여 판단되는 머신러닝 모델을 이용한 소고기 등급 판정의 정확도를 수신하는 것을 포함하는, 소고기 등급 판정 장치를 제공할 수 있다.In this embodiment, receiving the predicted grade of beef, sending the graded image, the judgment grade and the predicted grade to the beef grading server, and machine learning determined by comparing the judgment grade and the predicted grade in the grading server A beef grading device may be provided, comprising receiving an accuracy of beef grading using the model.

본 실시예에 있어서, 등급이 판정된 이미지를 예측 등급과 매핑한 것을 기초로 머신러닝 모델을 학습시키는 것을 포함하는, 소고기 등지방 등급판정 장치를 제공할 수 있다.In this embodiment, it is possible to provide a beef back fat grading device, comprising learning a machine learning model based on mapping the graded image with the prediction grade.

본 발명에 따른 소고기 등급 판정 장치 및 그 방법은 소고기 등급판정사, 연구자 및 일반 소비자들이 스마트 폰에 부착된 카메라를 이용하여 소고기 등지방(마블링) 분포를 확인하고, 등급(1++, 1+, 1, 2&3등급) 판정에 도움을 받을 수 있는 객관적인 판정 값을 획득할 수 있다.Beef grade determination apparatus and method according to the present invention, beef graders, researchers, and general consumers using a camera attached to a smart phone to check the distribution of beef back fat (marbling), and grade (1++, 1+ , 1, 2 & 3) objective judgment values that can be helpful in judgment can be obtained.

도 1은 본 발명의 일 실시예에 따른 소고기 등급 판정 장치의 구성을 보여주는 구성도이다.
도 2는 본 발명의 일 실시예에 따른 소고기 등급 판정 방법의 순서를 보여주는 순서도이다.
도 3은 본 발명의 일 실시예에 따른 소고기 이미지를 등급별 근육부위 및 지방부위의 RoI 설정한 것을 보여주는 도면이다.
도 4는 본 발명의 일 실시예에 따른 소고기 이미지의 소고기 등급별, 부위별 분광 스펙트럼을 보여주는 도면이다.
도 5는 본 발명의 일 실시예에 따른 소고기 이미지의 NIR(Near Infrared) 대역 지방 주성분 분석 결과를 보여주는 도면이다.
도 6은 본 발명의 일 실시예에 따른 소고기 이미지의 NIR 대역 등급별 지방과 살코기 판별결과를 보여주는 도면이다.
도 7은 본 발명의 일 실시예에 따른 소고기 이미지의 VNIRS 대역에서의 지방과 살코기의 혼합 주성분분석 결과를 보여주는 도면이다.
도 8은 본 발명의 일 실시예에 따른 소고기 이미지의 VNIRS 대역에서의 지방과 살코기 혼합 주성분분석결과를 보여주는 도면이다.
도 9는 본 발명의 일 실시예에 따른 소고기 등급 판정을 위한 머신러닝 모델의 구조를 보여주는 도면이다.
도 10은 본 발명의 일 실시예에 따른 소고기 등급 판정에 머신러닝 모델을 적용한 결과로 정확도와 에러를 보여주는 도면이다.
도 11은 본 발명의 일 실시예에 따른 소고기 등급 판정 방법 프로그램의 유저 인터페이스를 보여주는 도면이다.
1 is a configuration diagram showing the configuration of a beef grading device according to an embodiment of the present invention.
Figure 2 is a flow chart showing the sequence of the beef grading method according to an embodiment of the present invention.
3 is a view showing the setting of RoIs of muscle parts and fat parts by grade in beef images according to an embodiment of the present invention.
Figure 4 is a view showing a spectral spectrum for each beef grade, each part of the beef image according to an embodiment of the present invention.
5 is a diagram showing a result of analysis of a main component of fat in a near-infrared (NIR) band of a beef image according to an embodiment of the present invention.
6 is a view showing the determination result of fat and lean meat for each NIR band grade of the beef image according to an embodiment of the present invention.
7 is a view showing the result of the mixed principal component analysis of fat and lean meat in the VNIRS band of the beef image according to an embodiment of the present invention.
8 is a view showing the results of analysis of the main component of fat and lean meat in the VNIRS band of the beef image according to an embodiment of the present invention.
9 is a diagram showing the structure of a machine learning model for determining beef grade according to an embodiment of the present invention.
10 is a diagram showing accuracy and error as a result of applying a machine learning model to beef rating determination according to an embodiment of the present invention.
11 is a diagram showing a user interface of a beef rating determination method program according to an embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고, 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, an embodiment of the present invention will be described in detail so that a person skilled in the art to which the present invention pertains can easily implement it. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And, in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is "connected" with another part, this includes not only the case of being "directly connected" but also the case of being "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, this means that other components may be further included rather than excluding other components unless otherwise stated.

이하에서는, 본 발명의 일 실시예에 따른 소고기 등급 판정 장치에 대하여 설명하기로 한다.Hereinafter, it will be described with respect to the beef grading device according to an embodiment of the present invention.

소고기 등급 판정 장치(100)는 카메라와 플래시를 이용하여 소고기를 촬영하고, 촬영된 이미지를 머신러닝을 통해 분석하여, 등급을 판정하기 위한 장치일 수 있다.The beef rating determination device 100 may be a device for photographing beef using a camera and a flash, and analyzing the photographed image through machine learning to determine a grade.

한편, 소고기 등급 판정 장치(100)는 스마트 폰, 태블릿 등의 단말일 수 있다. 본 발명에서 ‘단말’은 휴대성 및 이동성이 보장된 무선 통신 장치일 수 있으며, 예를 들어 스마트 폰, 태블릿 PC 또는 노트북 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치일 수 있다.On the other hand, the beef rating determination device 100 may be a terminal such as a smart phone, tablet. In the present invention, a 'terminal' may be a wireless communication device with guaranteed portability and mobility, for example, any type of handheld-based wireless communication device such as a smart phone, tablet PC, or notebook computer.

또한, ‘단말’은 네트워크를 통해 다른 단말 또는 서버 등에 접속할 수 있는 PC 등의 유선 통신 장치인 것도 가능하다.In addition, the 'terminal' may be a wired communication device such as a PC that can connect to another terminal or server through a network.

또한, 네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다.In addition, the network refers to a connection structure capable of exchanging information between each node, such as terminals and servers, and includes a local area network (LAN), a wide area network (WAN), and the Internet (WWW). : World Wide Web), wired and wireless data networks, telephone networks, and wired and wireless television networks.

무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다.Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi, Bluetooth communication, infrared communication, ultrasound Communication, Visible Light Communication (VLC), LiFi, and the like are included, but are not limited thereto.

도 1은 본 발명의 일 실시예에 따른 소고기 등급 판정 장치의 구성을 보여주는 구성도이다.1 is a configuration diagram showing the configuration of a beef grading device according to an embodiment of the present invention.

한편 소고기 등급 판정 장치(100)는 통신 모듈(110), 메모리(120), 프로세서(130), 데이터베이스(DB: 140)를 포함할 수 있다.Meanwhile, the beef rating determination apparatus 100 may include a communication module 110 , a memory 120 , a processor 130 , and a database (DB: 140 ).

통신 모듈(110)은 통신망과 연동하여 소고기 등급 판정 장치(100)에 통신 인터페이스를 제공하는데, 소고기 등급 판정 서버와 데이터를 송수신하는 역할을 수행할 수 있다. 여기서, 통신 모듈(110)은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. The communication module 110 provides a communication interface to the beef rating determination device 100 in conjunction with a communication network, and may serve to transmit and receive data to and from the beef rating determination server. Here, the communication module 110 may be a device including hardware and software necessary for transmitting and receiving signals such as control signals or data signals through wired/wireless connection with other network devices.

메모리(120)는 소고기 등급 판정 방법 프로그램이 기록된 것일 수 있다. 또한, 메모리(120)는 프로세서(130)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다. 여기서, 메모리(120)는 휘발성 저장 매체(volatile storage media) 또는 비휘발성 저장 매체(non-volatile storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Memory 120 may be a beef grading method program is recorded. In addition, the memory 120 may perform a function of temporarily or permanently storing data processed by the processor 130 . Here, the memory 120 may include a volatile storage medium or a non-volatile storage medium, but the scope of the present invention is not limited thereto.

프로세서(130)는 소고기 등급 판정 장치(100)에서 소고기 등급 판정 방법 프로그램이 수행하는 전체 과정을 제어할 수 있다. 프로세서(130)가 수행하는 과정의 각 단계에 대해서는 도 2 내지 도 11을 참조하여 후술하기로 한다.The processor 130 may control the entire process performed by the beef grading method program in the beef grading device 100 . Each step of the process performed by the processor 130 will be described later with reference to FIGS. 2 to 11 .

여기서, 프로세서(130)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로서, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Here, the processor 130 may include all kinds of devices capable of processing data, such as a processor. Here, the 'processor' may refer to, for example, a data processing device embedded in hardware having a physically structured circuit to perform a function expressed as a code or command included in a program. As an example of the data processing apparatus embedded in the hardware as described above, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated (ASIC) circuit) and a processing device such as a field programmable gate array (FPGA), but the scope of the present invention is not limited thereto.

데이터베이스(140)는 후술할 머신러닝에 의해 학습되는 소고기 이미지 데이터를 포함하여, 소고기 등급 판정 방법 프로그램이 실행되는데 필요한 데이터가 저장된 것일 수 있다.The database 140 may store data required to execute a beef rating determination method program, including beef image data learned by machine learning to be described later.

이하에서는, 본 발명의 일 실시예에 따른 소고기 등급 판정 방법에 대하여 설명하기로 한다.Hereinafter, a method for determining a beef rating according to an embodiment of the present invention will be described.

소고기 등급 판정 방법은 먼저 소고기 촬영 이미지를 수신하는 단계(S210)가 수행될 수 있다. 소고기 촬영 이미지는 소고기 등급 판정 장치(100)에 구비된 카메라와 플래시를 이용하여 소고기를 촬영하는 것으로 획득될 수 있다.In the beef rating determination method, the step (S210) of receiving a beef photographed image may be performed first. The beef photographing image may be obtained by photographing beef using a camera and a flash provided in the beef rating determination device 100 .

다음으로, 소고기의 예측 등급을 수신하는 단계(S220)가 수행될 수 있다. 예를 들어, 등급판정사가 소고기 등급 판정 장치(100)에 소고기를 육안으로 관찰하고 등급을 판정한 예측 등급을 입력할 수 있다.Next, receiving the predicted grade of beef (S220) may be performed. For example, the grader may input the predicted grade obtained by visually observing the beef and determining the grade in the beef grade determination apparatus 100 .

다음으로, 수신한 소고기 이미지를 전처리하는 단계(S230)가 수행될 수 있다.Next, a step (S230) of pre-processing the received beef image may be performed.

전처리 단계는 소고기 이미지를 떨림 보정, 왜곡 보정, 색 분석 및 히스토그램 균일화하는 단계를 포함할 수 있다.The pre-processing step may include stabilizing, distortion-correcting, color analysis and histogram equalization of the beef image.

여기서, 영상에서 발생하는 왜곡 중 하나인 방사 왜곡(Radial distortion)은 영상에서의 물체의 위치가 실제 공간에서의 물체의 위치와 다르게 위치함을 의미한다. 본 발명에서는 소고기의 미세한 근내지방을 다루기 때문에, 영상의 작은 부분들도 정확하게 위치해야 할 필요성이 있다. 따라서 시료 영상의 왜곡 보정이 필요하다. 방사 왜곡은 렌즈를 통과하는 빛의 굴절 및 렌즈의 결함으로 인해 반경 방향으로 발생하며, 발생하는 왜곡의 형태에 따라 Negative(Barrel) distortion과 Positive(Pincushion) distortion으로 나타난다. 영상의 왜곡률(Distortion ratio)은 아래의 [수학식 1]과 [수학식 2]를 통해 계산하였다.Here, one of the distortions occurring in the image, radial distortion, means that the position of the object in the image is different from the position of the object in the real space. Since the present invention deals with the fine intramuscular fat of beef, it is necessary to accurately position even small parts of the image. Therefore, it is necessary to correct the distortion of the sample image. Radial distortion occurs in the radial direction due to the refraction of light passing through the lens and defects in the lens, and it appears as negative (Barrel) distortion and positive (Pincushion) distortion depending on the type of distortion that occurs. The distortion ratio of the image was calculated through [Equation 1] and [Equation 2] below.

[수학식 1][Equation 1]

Figure 112019128791215-pat00001
Figure 112019128791215-pat00001

[수학식 2][Equation 2]

Figure 112019128791215-pat00002
Figure 112019128791215-pat00002

[수학식 1]에서, XD,YD는 왜곡된 영상에서 좌표값이고, Xt,Yt는 보정된 영상에서 좌표값이다. 왜곡된 영상의 한 점을 P(XD,YD)라 하고, 왜곡이 보정이 된 영상의 한 점을 P'(Xt,Yt)라 하면, 수식 1에 의해 X축 좌표의 차이(△X)와 Y축 좌표의 차이(△Y) 및 두 점(P,P')의 직선 거리(△R)를 계산할 수 있다. 이상적인 점의 위치는 P'의 위치이기 때문에 [수학식 2]에 의해 왜곡률이 계산된다.In [Equation 1], X D , Y D are coordinate values in the distorted image, and X t , Y t are coordinate values in the corrected image. If a point in the distorted image is P(X D ,Y D ) and a point in the image whose distortion is corrected is P'(X t ,Y t ), the difference in the X-axis coordinates ( The difference between ΔX) and the Y-axis coordinates (ΔY) and the linear distance (ΔR) between the two points (P, P′) can be calculated. Since the position of the ideal point is the position of P', the distortion rate is calculated by [Equation 2].

또한, 전처리 단계는 VNIR(Visible and Near-Infrared) 영역에서 분광법을 이용하여 소고기의 지방과 살코기를 판별하여 RoI(Region of Interest) 설정하는 단계를 포함할 수 있다.In addition, the pretreatment step may include a step of determining the fat and lean meat of beef using spectroscopy in a visible and near-infrared (VNIR) region and setting a region of interest (RoI).

여기서 분광법은 빛의 흡수, 발광 등의 세기를 빛의 에너지의 함수로 측정함으로써, 분석 대상의 물리적, 화학적 정보를 실험적으로 얻는 방법이다. 단일 원자/분자나 물질 내의 성분들은 빛을 흡수하기도 하고, 특정 파장의 빛을 산란하기도 하고, 또는 형광을 방출하는 등 빛과 상호 작용을 한다. 빛과의 상호 작용 현상을 관찰하여 원자/분자 및 물질의 다양한 성질을 연구할 수 있다.Here, the spectroscopy method is a method of experimentally obtaining physical and chemical information of an analysis target by measuring the intensity of light absorption and emission as a function of light energy. A single atom/molecule or component within a substance interacts with light by absorbing light, scattering light of a specific wavelength, or emitting fluorescence. It is possible to study various properties of atoms/molecules and materials by observing the phenomenon of interaction with light.

도 3은 본 발명의 일 실시예에 따른 소고기 이미지를 등급별 근육부위 및 지방부위의 RoI 설정한 것을 보여주는 도면이다.3 is a view showing the setting of RoIs of muscle parts and fat parts for each grade of beef image according to an embodiment of the present invention.

도 3을 참조하면, 초분광영상을 이용한 품질 특성 구명을 위하여 가시 및 근적외 파장의 분광정보를 이용하여 지방과 살코기를 판별할 수 있는 실험을 수행하였다. Referring to FIG. 3 , in order to investigate the quality characteristics using hyperspectral images, an experiment was performed to discriminate fat and lean meat using spectral information of visible and near-infrared wavelengths.

실험에서 파장 대역은 가시 및 근적외선 (400 - 1,700 nm)이었다.The wavelength bands in the experiment were visible and near infrared (400 - 1,700 nm).

도 4는 본 발명의 일 실시예에 따른 소고기 이미지의 소고기 등급별, 부위별 분광 스펙트럼을 보여주는 도면이다.Figure 4 is a view showing the spectral spectrum for each beef grade, each part of the beef image according to an embodiment of the present invention.

도 4를 참조하면, 지방 성분과 살코기 성분의 스펙트럼 모양은 유사하지만 반사도에서 차이가 나는 것을 확인할 수 있었으며, 특히 단백질과 관련된 배음대로 알려진 1450 nm에서는 스펙트럼 모양에 차이가 있는 것을 볼 수 있었다.Referring to FIG. 4 , although the spectral shape of the fat component and the lean meat component is similar, it can be confirmed that there is a difference in reflectivity, and in particular, it can be seen that there is a difference in the spectral shape at 1450 nm, which is known as an overtone band related to protein.

도 5는 본 발명의 일 실시예에 따른 소고기 이미지의 NIR(Near Infrared) 대역 지방 주성분 분석 결과를 보여주는 도면이다. 도 6은 본 발명의 일 실시예에 따른 소고기 이미지의 NIR 대역 등급별 지방과 살코기 판별결과를 보여주는 도면이다.5 is a diagram showing a result of analysis of a main component of fat in a near-infrared (NIR) band of a beef image according to an embodiment of the present invention. 6 is a view showing the determination result of fat and lean meat for each NIR band grade of the beef image according to an embodiment of the present invention.

도 5 및 도 6을 참조하면, 선형판별분석 (Linear discriminant analysis, LDA) 방법을 활용하여 각 부위별 판별결과를 그림으로 나타낸 것을 볼 수 있다. 각 등급별로 정확도의 차이가 발생하는데 특히 2등급의 경우 정확도 0.77로 판별 정확도가 낮아지는 것을 확인할 수 있다. 이는 근육 성분이 많아 지방의 면적이 다른 부위에 비해 적으며, 그 깊이가 얕아 초분광영상 특성상 내부 근육의 스펙트럼에 영향을 많이 받은 것으로 판단된다.Referring to FIGS. 5 and 6 , it can be seen that the discriminant results for each region are graphically represented by using a linear discriminant analysis (LDA) method. There is a difference in accuracy for each grade. In particular, in the case of grade 2, it can be seen that the discrimination accuracy is lowered to an accuracy of 0.77. It has a lot of muscle components, so the area of fat is smaller than other parts, and the depth is shallow.

도 7은 본 발명의 일 실시예에 따른 소고기 이미지의 VNIRS 대역에서의 지방과 살코기의 혼합 주성분분석 결과를 보여주는 도면이다. 도 8은 본 발명의 일 실시예에 따른 소고기 이미지의 VNIRS 대역에서의 지방과 살코기 혼합 주성분분석결과를 보여주는 도면이다.7 is a view showing the result of the mixed principal component analysis of fat and lean meat in the VNIRS band of the beef image according to an embodiment of the present invention. 8 is a view showing the results of analysis of the main component of fat and lean meat in the VNIRS band of the beef image according to an embodiment of the present invention.

도 7 및 도 8을 참조하면, 가시 및 근적외선 영역(400-1000 nm)에서는 2등급의 경우도 판별정확도가 0.83으로 향상된 것을 알 수 있었으며, 1++ ~ 1 등급도 0.91 ~ 0.95로 높은 판별성능을 나타내었다. 따라서, 소고기 등지방 부위를 판별하기 위해서는 근적외선 영역보다 가시-근적외선 영역이 효과적임을 알 수 있었다. 7 and 8, in the visible and near-infrared region (400-1000 nm), it was found that even in the case of grade 2, the discrimination accuracy was improved to 0.83, and in grades 1++ to 1, it was 0.91 to 0.95, high discrimination performance. was shown. Therefore, it was found that the visible-near-infrared region was more effective than the near-infrared region in order to discriminate the beef back fat.

도 9는 본 발명의 일 실시예에 따른 소고기 등급 판정을 위한 머신러닝 모델의 구조를 보여주는 도면이다. 도 10은 본 발명의 일 실시예에 따른 소고기 등급 판정에 머신러닝 모델을 적용한 결과로 정확도와 에러를 보여주는 도면이다.9 is a diagram showing the structure of a machine learning model for determining beef grade according to an embodiment of the present invention. 10 is a diagram showing accuracy and error as a result of applying a machine learning model to beef rating determination according to an embodiment of the present invention.

도 9를 참조하면, 칼라영상을 이용하여 161 × 161 pixel 크기로 잘라 만든 시료를 이용하여 학습하고 판별하는 머신러닝 모델을 확인할 수 있다.Referring to FIG. 9 , a machine learning model that learns and discriminates using a sample made by cutting a color image to a size of 161 × 161 pixels can be confirmed.

다음으로, 전처리된 소고기 이미지를 머신러닝 모델을 이용하여 분석하여 소고기의 등급을 판정하는 단계(S240)가 수행될 수 있다.Next, a step (S240) of determining the grade of beef by analyzing the preprocessed beef image using a machine learning model may be performed.

여기서, 머신러닝 모델은 등급이 매핑된 소고기 이미지를 미리 학습한 모델일 수 있다. 머신러닝 모델은 다층의 CNN layer로 구성될 수 있다. CNN는 Convolution 연산을 수행하는 다양한 필터를 사용하여 입력 영상의 피쳐(Feature)를 생성하고, 이를 바탕으로 학습이 진행되는 인공신경망의 한 방법이다. 필터의 크기와 스트라이드(Stride)에 따라 입력영상의 피쳐들이 다르게 생성되고, 각 단계별 레이어(Layer) 구성에 따라 다른 학습 결과를 도출할 수 있다. 본 발명에서는 모든 컨볼루션 레이어(Convolution Layer)에서 필터의 크기를 3 x 3으로, 스트라이드는 1로 설정했다. CNN 구성에 있어 주요한 알고리즘으로 ReLU(Rectified linear unit), 배치 정규화(Batch normalization), 드롭아웃(Dropout)을 사용했다. 컨볼루션 연산 후 레이어의 활성화 기능(Activation function)으로 ReLU을 사용하였다. ReLU의 사용은 다른 활성화 기능보다 더 빠르고 높은 성능으로 학습시킬 수 있다. 배치 사이즈(Batch size)는 한 번에 학습하는 입력 데이터의 수를 의미한다. 즉, 한번의 학습 내에서도 배치 사이즈의 설정에 의해 학습 과정이 달라지게 된다. 배치 정규화는(Batch normalization)은 입력 데이터인 배치 각각의 결과들을 정규화하고, 실험 과정에서는 이들의 평균을 이용한다. 배치 정규화를 활용하면 공변량 이동(Covariate shift)을 줄이고, 더 깊은 레이어의 설계가 가능하다. 드롭아웃(dropout)은 해당 레이어의 뉴런 활성화에 관여하여 다음 레이어로의 신호 전달을 조절할 수 있다. 이를 통해 오버피팅(Overfitting)을 예방하고, 높은 성능의 결과를 도출할 수 있다.Here, the machine learning model may be a model in which a grade-mapped beef image is trained in advance. A machine learning model can be composed of multiple CNN layers. CNN is a method of an artificial neural network in which a feature of an input image is generated using various filters that perform a convolution operation, and learning is performed based on this. Depending on the size and stride of the filter, the features of the input image are generated differently, and different learning results can be derived according to the layer configuration for each step. In the present invention, the size of the filter in all convolution layers is set to 3 x 3, and the stride is set to 1. ReLU (Rectified linear unit), Batch normalization, and Dropout were used as the main algorithms in CNN construction. After the convolution operation, ReLU was used as the activation function of the layer. The use of ReLU can train faster and with higher performance than other activation functions. Batch size refers to the number of input data to be learned at one time. That is, even within one learning, the learning process is changed according to the setting of the batch size. Batch normalization normalizes the results of each batch as input data, and uses their averages in the experimental process. Batch normalization reduces covariate shift and enables the design of deeper layers. A dropout may be involved in the activation of a neuron in a corresponding layer to control signal transmission to the next layer. Through this, overfitting can be prevented and high performance results can be obtained.

도 9를 참조하면, 본 발명의 일 실시예에 따른 머신러닝 모델은 4개의 컨볼루션 레이어와 2개의 풀리 커넥티드 레이어(Fully-connected layer)가 있고, 각각의 컨볼루션 레이어(Convolution layer)마다 2 x 2 사이즈의 맥스풀링(Maxpooling)이 서브샘플링(Subsampling)으로 사용됐다. 활성화 기능으로는 ReLU를 사용했고, 배치 정규화는 모든 컨볼루션 레이어에 적용?榮?.Referring to FIG. 9 , the machine learning model according to an embodiment of the present invention has four convolutional layers and two fully-connected layers, and 2 for each convolutional layer. Maxpooling of x 2 size was used as subsampling. ReLU is used as the activation function, and batch normalization is applied to all convolutional layers.

풀리 커넥티드 레이어는 바로 앞에 위치한 레이어들의 모든 뉴런들과 연결된다. 첫 번째 풀리 커넥티드 레이어는 이전 레이어의 4,096개의 뉴런이 1,000개로 연결된다. 마지막 풀리 커넥티드 레이어는 0.5의 레이트(Rate)로 드롭아웃이 적용된 후 최종 출력의 수인 4개의 카테고리로 연결되며, 이때 활성화 기능으로 소프트맥스(Softmax)를 사용하도록 구성했다.A fully connected layer is connected to all neurons in the layers immediately preceding it. In the first fully connected layer, 4,096 neurons in the previous layer are connected to 1,000. The last fully connected layer is connected to 4 categories, which is the number of final outputs after dropout is applied at a rate of 0.5, and at this time, it was configured to use Softmax as an activation function.

도 10을 참조하면, 본 발명의 일 실시예에 따른 머신러닝 모델의 소고기 등급 판정 60회 동안 학습한 결과로서 최종 정확도는 0.94, 에러는 0.14로 나타났다.Referring to Figure 10, as a result of learning for 60 times of beef rating determination of the machine learning model according to an embodiment of the present invention, the final accuracy was 0.94, and the error was 0.14.

다음으로, 등급이 판정된 이미지, 판정 등급 및 상기 예측 등급을 소고기 등급 판정 서버에 전송하는 단계(S250)가 수행될 수 있다. 다음으로, 등급 판정 서버로부터 판정 등급과 예측 등급을 비교하여 판단되는 머신러닝 모델을 이용한 소고기 등급 판정의 정확도를 수신하는 단계(S260)가 수행될 수 있다. 다음으로, 등급이 판정된 이미지를 상기 예측 등급과 매핑한 것을 기초로 상기 머신러닝 모델을 학습시키는 단계(S270)가 수행될 수 있다. 이로써, 머신러닝 모델의 정확도가 지속적으로 향상될 수 있다.Next, a step (S250) of transmitting the graded image, the judgment grade, and the prediction grade to the beef grade determination server may be performed. Next, the step (S260) of receiving the accuracy of the beef grading using the machine learning model determined by comparing the judging grade and the prediction grade from the grading server may be performed. Next, the step (S270) of learning the machine learning model based on the mapping of the graded image with the prediction grade may be performed. In this way, the accuracy of the machine learning model can be continuously improved.

도 11은 본 발명의 일 실시예에 따른 소고기 등급 판정 방법 프로그램의 유저 인터페이스를 보여주는 도면이다.11 is a diagram showing a user interface of a beef rating determination method program according to an embodiment of the present invention.

도 11을 참조하면, 소고기 등급 판정 장치(100)에서 촬영한 영상에서 판정하고자 하는 영역만 추출하는 전처리를 하고, 전처리된 영상을 161 × 161pixel로 모자이크 형태로 잘라낸 영상을 대상으로 미리 학습된 딥러닝 모델을 이용하여 등급을 판정할 수 있다. 판정결과는 각 등급별 확률을 표시한다. 또한, 촬영하고 판정한 결과치를 수정하고 싶은 경우 예측 등급을 소고기 등급 판정 서버에 전송하면 머신러닝 모델 수정에 반영하여 정확도가 향상될 수 있다.Referring to FIG. 11 , pre-processing is performed to extract only the region to be determined from the image taken by the beef grading device 100, and deep learning pre-learned on an image cut out of the pre-processed image in a mosaic shape to 161 × 161 pixels The model can be used to determine the grade. The judgment result indicates the probability for each grade. In addition, if you want to correct the result of shooting and determining, if you transmit the prediction grade to the beef rating server, the accuracy can be improved by reflecting it in the modification of the machine learning model.

한편, 본 발명의 일 실시예에 따른 소고기 등급 판정 방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.On the other hand, the beef rating determination method according to an embodiment of the present invention may be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer-readable media may include computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Although the methods and systems of the present invention have been described with reference to specific embodiments, some or all of their components or operations may be implemented using a computer system having a general purpose hardware architecture.

이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예는 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

100: 소고기 등급 판정 장치
110: 통신 모듈
120: 메모리
130: 프로세서
140: 데이터베이스
100: beef grading device
110: communication module
120: memory
130: processor
140: database

Claims (10)

소고기 등급 판정 장치에 의해 수행되는 소고기 등급 판정 방법에 있어서,
소고기 촬영 이미지를 수신하는 단계;
상기 수신한 소고기 이미지를 떨림 보정, 왜곡 보정, 색 분석 및 히스토그램 균일화하여 전처리하는 단계; 및
상기 전처리된 소고기 이미지를 등급이 매핑된 소고기 이미지를 미리 학습한 모델인 머신러닝 모델을 이용하여 분석하여 상기 소고기의 등급을 판정하는 단계를포함하고,
상기 전처리 단계는,
VNIR(Visible and Near-Infrared) 영역에서 초분광영상을 이용한 분광법을 이용하여 소고기의 지방과 살코기를 판별하여 RoI(Region of Interest) 설정하여 소고기 등지방 분포를 확인하고, 소정의 픽셀 크기로 모자이크 형태로 잘라내는 단계를 포함하고,
상기 소고기의 등급을 판정하는 단계는,
상기 등급이 판정된 이미지, 판정 등급 및 예측 등급을 소고기 등급 판정 서버에 전송하는 단계; 및
상기 등급 판정 서버로부터 상기 판정 등급과 상기 예측 등급을 비교하여 판단되는 상기 머신러닝 모델을 이용한 소고기 등급 판정의 정확도를 수신하는 단계를 포함하는 예측 등급을 수신하는 단계를 더 포함하는 소고기 등급 판정 방법.
In the beef grading method performed by the beef grading device,
Receiving a beef photographed image;
Pre-processing the received beef image by shaking correction, distortion correction, color analysis and histogram equalization; and
Comprising the step of analyzing the pre-processed beef image using a machine learning model that is a pre-trained model of the grade-mapped beef image to determine the grade of the beef,
The pre-processing step is
In the VNIR (Visible and Near-Infrared) region, using a spectroscopy method using hyperspectral images, the fat and lean meat of beef are identified, and the RoI (Region of Interest) is set to confirm the distribution of beef backfat, and a mosaic form with a predetermined pixel size comprising the step of cutting with
The step of determining the grade of the beef,
transmitting the graded image, judgment grade and prediction grade to a beef grade determination server; and
Beef rating method further comprising the step of receiving a prediction rating comprising the step of receiving the accuracy of the beef rating using the machine learning model determined by comparing the rating and the prediction rating from the rating server.
삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 등급이 판정된 이미지를 상기 예측 등급과 매핑한 것을 기초로 상기 머신러닝 모델을 학습시키는 단계를 포함하는, 소고기 등급 판정 방법.
The method of claim 1,
and training the machine learning model based on mapping the graded image with the prediction grade.
소고기 등급 판정 장치에 있어서,
소고기 등급 판정 프로그램이 기록된 메모리; 및
상기 메모리에 기록된 프로그램을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 프로그램의 실행에 따라,
카메라로 촬영된 소고기 촬영 이미지를 수신하고, 상기 수신한 소고기 이미지를 떨림 보정, 왜곡 보정, 색 분석 및 히스토그램 균일화하여 전처리하고, 상기 전처리된 소고기 이미지를 등급이 매핑된 소고기 이미지를 미리 학습한 모델인 머신러닝 모델을 이용하여 분석하여 상기 소고기의 등급을 판정하며,
상기 전처리하는 것은 VNIR(Visible and Near-Infrared) 영역에서 초분광영상을 이용한 분광법을 이용하여 소고기의 지방과 살코기를 판별하여 RoI(Region of Interest) 설정하여 소고기 등지방 분포를 확인하고, 소정의 픽셀 크기로 모자이크 형태로 잘라내는 것을 포함하고,
상기 소고기의 예측 등급을 수신하고, 상기 등급이 판정된 이미지, 판정 등급 및 상기 예측 등급을 소고기 등급 판정 서버에 전송하고, 상기 등급 판정 서버에서 상기 판정 등급과 상기 예측 등급을 비교하여 판단되는 상기 머신러닝 모델을 이용한 소고기 등급 판정의 정확도를 수신하는 것을 특징으로 하는 소고기 등급 판정 장치.
In the beef grading device,
a memory in which a beef grading program is recorded; and
a processor executing the program recorded in the memory;
The processor according to the execution of the program,
Receiving a beef shot image taken with a camera, pre-processing the received beef image by shaking correction, distortion correction, color analysis and histogram equalization, and pre-learning the pre-processed beef image with a grade mapped beef image It is a model Determine the grade of the beef by analyzing it using a machine learning model,
The pre-processing is to determine the distribution of beef back fat by determining the fat and lean meat of beef using a spectroscopy method using a hyperspectral image in the VNIR (Visible and Near-Infrared) region, setting the RoI (Region of Interest), and checking the predetermined pixel including cutting to size in the form of a mosaic;
The machine that receives the predicted grade of beef, sends the graded image, the judgment grade, and the predicted grade to a beef grading server, and is judged by comparing the judgment grade with the predicted grade in the grading server Beef grading device, characterized in that receiving the accuracy of beef grading using the learning model.
삭제delete 삭제delete 삭제delete 제 6 항에 있어서,
상기 등급이 판정된 이미지를 상기 예측 등급과 매핑한 것을 기초로 상기 머신러닝 모델을 학습시키는 것을 포함하는, 소고기 등급 판정 장치.
7. The method of claim 6,
Including training the machine learning model based on the mapping of the graded image with the prediction grade, beef grade determination device.
KR1020190166148A 2019-12-12 2019-12-12 Apparatus and method for determining beef grade KR102380289B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190166148A KR102380289B1 (en) 2019-12-12 2019-12-12 Apparatus and method for determining beef grade

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190166148A KR102380289B1 (en) 2019-12-12 2019-12-12 Apparatus and method for determining beef grade

Publications (2)

Publication Number Publication Date
KR20210074953A KR20210074953A (en) 2021-06-22
KR102380289B1 true KR102380289B1 (en) 2022-03-29

Family

ID=76600865

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190166148A KR102380289B1 (en) 2019-12-12 2019-12-12 Apparatus and method for determining beef grade

Country Status (1)

Country Link
KR (1) KR102380289B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102505771B1 (en) * 2022-10-07 2023-03-02 김창구 Method and device for meat management based on artificial intelligence
KR102658768B1 (en) 2023-12-26 2024-04-18 주식회사 어니스트초이스 Image processing-based meat characteristic analysis and price calculation processing method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102498602B1 (en) * 2022-08-23 2023-02-10 피플즈리그 주식회사 Method and device for improving meat receipes
KR102648469B1 (en) * 2022-12-19 2024-03-18 주식회사 메디치소프트 Artificial intelligence-based pig dressed carcass grade determination system and operation method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001264249A (en) 2000-03-16 2001-09-26 Kochi Prefecture Fleshy substance estimation method by near-infrared spectroanalysis and its application
KR102230797B1 (en) 2020-09-23 2021-03-22 국방과학연구소 Deep learning training method and system using infrared image

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101065219B1 (en) * 2009-07-29 2011-09-19 성균관대학교산학협력단 The automatic grading method of beef quality and the system thereof
KR20130017144A (en) 2011-08-10 2013-02-20 주식회사 카스 System for providing beef history information using qr code and method thereof
KR20190014627A (en) * 2017-08-03 2019-02-13 동국대학교 산학협력단 Beef surface color based change of taste prediction method and system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001264249A (en) 2000-03-16 2001-09-26 Kochi Prefecture Fleshy substance estimation method by near-infrared spectroanalysis and its application
KR102230797B1 (en) 2020-09-23 2021-03-22 국방과학연구소 Deep learning training method and system using infrared image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102505771B1 (en) * 2022-10-07 2023-03-02 김창구 Method and device for meat management based on artificial intelligence
KR102658768B1 (en) 2023-12-26 2024-04-18 주식회사 어니스트초이스 Image processing-based meat characteristic analysis and price calculation processing method

Also Published As

Publication number Publication date
KR20210074953A (en) 2021-06-22

Similar Documents

Publication Publication Date Title
KR102380289B1 (en) Apparatus and method for determining beef grade
WO2019233297A1 (en) Data set construction method, mobile terminal and readable storage medium
Li et al. Which has better visual quality: The clear blue sky or a blurry animal?
CN108764370B (en) Image processing method, image processing device, computer-readable storage medium and computer equipment
US11087447B2 (en) Systems and methods for quality assurance of image recognition model
CN108764208B (en) Image processing method and device, storage medium and electronic equipment
US11138478B2 (en) Method and apparatus for training, classification model, mobile terminal, and readable storage medium
CN109034078B (en) Training method of age identification model, age identification method and related equipment
KR102449841B1 (en) Method and apparatus for detecting target
KR102442844B1 (en) Method for Distinguishing a Real Three-Dimensional Object from a Two-Dimensional Spoof of the Real Object
US11776257B2 (en) Systems and methods for enhancing real-time image recognition
CN108804658B (en) Image processing method and device, storage medium and electronic equipment
US10943157B2 (en) Pattern recognition method of autoantibody immunofluorescence image
CN116091497B (en) Remote sensing change detection method, device, electronic equipment and storage medium
JP4901229B2 (en) Red-eye detection method, apparatus, and program
Tapia et al. Sex-classification from cellphones periocular iris images
CN117253192A (en) Intelligent system and method for silkworm breeding
CN116245855A (en) Crop variety identification method, device, equipment and storage medium
JP2007080136A (en) Specification of object represented within image
KR102531058B1 (en) System for Camouflage pattern evaluation based on image analysis and Method thereof
Razzell Hollis et al. Quantitative photography for rapid, reliable measurement of marine macro‐plastic pollution
Paolillo et al. Automated image analysis to assess hygienic behaviour of honeybees
CN113297514A (en) Image processing method, image processing device, electronic equipment and computer storage medium
KR102562740B1 (en) Method and apparatus for identifying eggs of parasites using image normalization
Tapia et al. An efficient super-resolution single image network using sharpness loss metrics for iris

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant