KR102505771B1 - 인공지능 기반 육류 관리 방법 및 장치 - Google Patents

인공지능 기반 육류 관리 방법 및 장치 Download PDF

Info

Publication number
KR102505771B1
KR102505771B1 KR1020220128356A KR20220128356A KR102505771B1 KR 102505771 B1 KR102505771 B1 KR 102505771B1 KR 1020220128356 A KR1020220128356 A KR 1020220128356A KR 20220128356 A KR20220128356 A KR 20220128356A KR 102505771 B1 KR102505771 B1 KR 102505771B1
Authority
KR
South Korea
Prior art keywords
cut
image
color
group
meat
Prior art date
Application number
KR1020220128356A
Other languages
English (en)
Inventor
김창구
Original Assignee
김창구
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김창구 filed Critical 김창구
Priority to KR1020220128356A priority Critical patent/KR102505771B1/ko
Application granted granted Critical
Publication of KR102505771B1 publication Critical patent/KR102505771B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A22BUTCHERING; MEAT TREATMENT; PROCESSING POULTRY OR FISH
    • A22CPROCESSING MEAT, POULTRY, OR FISH
    • A22C17/00Other devices for processing meat or bones
    • A22C17/0073Other devices for processing meat or bones using visual recognition, X-rays, ultrasounds, or other contactless means to determine quality or size of portioned meat
    • A22C17/0086Calculating cutting patterns based on visual recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • B07C5/3422Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • B07C5/361Processing or control devices therefor, e.g. escort memory
    • B07C5/362Separating or distributor mechanisms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • B07C5/38Collecting or arranging articles in groups
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Wood Science & Technology (AREA)
  • Zoology (AREA)
  • Food Science & Technology (AREA)
  • Image Analysis (AREA)

Abstract

일 실시예에 따른 전자 장치는 프로세서 및 메모리를 포함할 수 있다. 프로세서는 피절단체를 스캔하고, 상기 피절단체의 육색, 지방색, 근내지방 함유량, 근섬유의 결의 형태 또는 절단면 표면의 수분 함량 중 적어도 하나를 포함하는 이미지를 획득하고, 상기 이미지를 상기 메모리상에 저장시키고 인공지능 학습모델을 이용하여 상기 이미지를 학습시킬 수 있다. 인공지능 학습모델은 메모리로부터 피절단체의 이미지를 수신하고, 이미지를 분석하여 상기 피절단체의 육색이 지정된 색상을 포함하는 것에 기반하여 상기 피절단체의 부위를 제 1 그룹으로 분류하고, 상기 피절단체의 육색이 지정된 색상을 포함하지 않는 것에 기반하여 상기 피절단체의 부위를 제 1 그룹과는 다른 제 2 그룹으로 분류하고, 또는 상기 이미지를 분석하여 상기 피절단체의 지방색이 지정된 색상을 포함하는 것에 기반하여 상기 피절단체의 부위를 제 3 그룹으로 분류하고, 상기 피절단체의 지방색이 지정된 색상을 포함하지 않는 것에 기반하여 상기 피절단체의 부위를 제 3 그룹과는 다른 제 4그룹으로 분류하고, 또는 상기 이미지를 분석하여 상기 피절단체의 근내지방 함유량이 제 1 수준 미만임에 기반하여 상기 피절단체의 부위를 제 5 그룹으로 분류하고, 상기 피절단체의 근내지방 함유량이 제 1 수준을 초과하면서 제 2 수준 미만임에 기반하여 상기 피절단체의 부위를 제 6 그룹으로 분류하고, 상기 피절단체의 근내지방 함유량이 제 2 수준을 초과함에 기반하여 상기 피절단체의 부위를 제 7그룹으로 분류하고, 또는 상기 이미지를 분석하여 상기 피절단체의 절단면 표면의 수분 함량이 지정된 수준을 초과함에 기반하여 상기 피절단체의 부위를 제 8그룹으로 분류하고, 상기 피절단체의 절단면 표면의 수분 함량이 지정된 수준 미만임에 기반하여 상기 피절단체의 부위를 제 9그룹으로 분류할 수 있다.

Description

인공지능 기반 육류 관리 방법 및 장치 {METHOD AND DEVICE FOR MEAT MANAGEMENT BASED ON ARTIFICIAL INTELLIGENCE}
아래 실시예들은 인공지능에 기반하여 육류를 부위별로 분류하고, 가공 작업의 효율성을 높일 수 있는 기술에 관한 것이다.
실시 예들과 관련된 배경기술로, 대한민국 등록특허공보 KR 10-1892995 B1은 유통을 위한 육류처리 방법을 개시 한다. 구체적으로, 선행문헌은 뼈가 포함된 육류의 이미지를 제1촬영하고, 제1촬영 데이터를 통해 육류의 종류, 육류의 색상, 지방의 분포 정도, 지방의 위치관계를 분석하고, 상기 육류의 종류에 따라 분류하는 제1육 류 분석단계; 상기 제1육류 분석단계를 거친 육류를 종류별로 발골하고, 기 설정된 크기로 세절하는 육류세절 단계; 세절된 육류의 상부와 측부를 제2촬영하고, 제2촬영 데이터를 통해 육류의 두께와 무게를 자동 분석하는 제2육류분석단계; 상기 제2육류분석단계에서 분석된 육류를 식물성오일로 상측면이 코팅된 플레이트에 위치시키 고, 상기 제1육류분석단계 및 제2육류분석단계에서 분석한 육류정보를 제1라벨에 인쇄시키고, 상기 제1라벨을 상기 플레이트에 부착시키는 제1라벨부착단계; 육류를 내부가 식물성오일로 코팅된 진공팩에 진공 포장하는 육 류포장단계; 상기 육류포장단계 후, 포장육의 상부를 제3촬영하고, 상기 제1촬영 데이터, 제2촬영 데이터, 제3 촬영 데이터, 분석데이터 및 육류고유번호를 제2라벨에 인쇄하고, 상기 제2라벨을 상기 포장육에 부착시키는 제 2라벨부착단계; 상기 제1촬영 데이터, 제2촬영 데이터, 제3촬영 데이터, 분석데이터 및 육류고유번호를 기 설정 된 육류판매 서버에 업로드 시키는 육류정보 업로드 단계; 및 상기 육류판매 서버로부터 포장육의 온라인 주문 및 결제가 완료되면, 주문된 포장육을 박스포장하여 배송하는 배송단계;를 포함하는 유통을 위한 육류처리 방법 을 개시한다.
이를 통해, 선행문헌은 육류를 에어로 마사지하고, 식물성오일로 도포하여 육류의 질을 부드럽게 하고, 유통과 정에서 미생물의 번식을 방지하는 동시에 병원균의 감염을 최소화시킬 수 있는 유통을 위한 육류처리 방법을 제공한다.
또한, 대한민국 등록특허공보 KR 10-2086976B1은 수입 육류 관리 시스템을 개시한다. 구체적으로, 선행문헌은 복수의 해외 육류 생산업체 단말(100)로 이루어진 해외 육류 생산업체 단말 그룹(100g), 네트워크(200), 수입 육류 관리 서버(300), 복수의 고객사 단말(600)로 이루어진 고객사 단말 그룹(600g)을 포함하는 수입 육류 관리 시스템(1)에 있어서, 수입 육류 관리 서버(300)는, 해외 육류 생산업체 단말(100)로부터 네트워크(200)를 통한 생산자 회원 가입절차에 따라 생산자 회원 ID, 생산자 비밀번호 설정과정을 거친 뒤, 수출하고자 하는 육류 종 류 정보, 육류 가공 상태 정보를 수신하여 생산자 회원 ID를 메타데이터로 생산자 비밀번호와 함께 데이터베이 스(330) 상에 해외 육류 생산업체 단말(100)에 대한 "해외 육류 생산업체 단위 정보"로 저장하는 방식으로 해외 육류 생산업체 단말 그룹(100g)을 형성하며, 해외 육류 생산업체 단위 정보에는 각 해외 육류 생산업체 단말 (100)을 운영하는 해외 육류 생산업체의 생산지 정보, 육류 생산 시설 정보, 사료 정보를 추가적으로 해외 육류 생산업체 단말(100)로부터 요청하여 생산자 회원 ID를 메타데이터로 데이터베이스(330) 상에 저장하며, 고객사 단말(600)로부터 네트워크(200)를 통한 고객사 회원 가입절차에 따라 고객사 회원 ID, 고객사 비밀번호 설정과 정을 거친 뒤, 수입하고자 하는 육류 종류 정보, 육류 가공상태 정보를 수신하여 고객사 회원 ID를 메타데이터 로 고객사 비밀번호와 함께 데이터베이스(330) 상에 고객사단말(600)에 대한 "고객사 단위 정보"로 저장하는 방식으로 고객사 회원에 해당하는 고객사 단말 그룹(600g)을 형성하는 방식으로 수입 육류를 위한 DB를 생성하는 회원 가입 모듈(321)을 포함하는 수입 육류 관리 시스템을 개시한다.
그러나 선행문헌들은 인공지능 학습 모델을 이용하여 피절단체의 육색, 지방색, 근내지방 함유량, 근섬유의 결의 형태 또는 절단면 표면의 수분 함량 등 부위별 특징을 학습하고, 자동으로 피절단체의 구성을 분류하여 가공 작업의 효율성을 높이는 특징을 개시하지 못하는 한계가 있다.
대한민국 등록특허공보 KR 10-1892995 B1 대한민국 등록특허공보 KR 10-2086976 B1
종래에는 작업자들이 본인의 경험으로 피절단체를 특정한 기준에 따라 분류하고, 절단하였다. 그래서 분류 기준에 따라 가격을 다르게 산정하고, 절단체의 무게에 따라 다르게 가격을 산정하였다.
절단체의 무게는 저울을 이용하여 무게를 정확히 측정할 수 있고, 무게가 다르더라도 그 무게에 기반하여 가격을 측정할 수 있기 때문에, 소비자 입장에서도 큰 문제가 되지 않을 수 있다.
그러나 절단체의 분류 기준(예: 안심, 등심, 항정살 등)은 작업자의 경험에 기반하여 다르게 결정될 수 있기 때문에 작업자에 따라서 또는 작업자의 상황(예: 컨디션, 작업 환경)에 따라서 분류 기준이 다르게 결정될 수 있다. 또한, 작업자는 반복적인 절단 작업을 수행하면서 같은 분류 기준을 갖더라도 절단 과정에서 작업자의 분류 기준과는 상이하게 절단을 진행할 수 있다.
이 경우 소비자는 분류 기준과 어긋나는 품질의 육류를 구입하여 원하는 만족도를 얻기 어려울 수 있다.
일 실시예에 따른 전자 장치는 프로세서 및 메모리를 포함할 수 있다. 프로세서는 피절단체를 스캔하고, 상기 피절단체의 육색, 지방색, 근내지방 함유량, 근섬유의 결의 형태 또는 절단면 표면의 수분 함량 중 적어도 하나를 포함하는 이미지를 획득하고, 상기 이미지를 상기 메모리상에 저장시키고 인공지능 학습모델을 이용하여 상기 이미지를 학습시킬 수 있다. 인공지능 학습모델은 메모리로부터 피절단체의 이미지를 수신하고, 이미지를 분석하여 상기 피절단체의 육색이 지정된 색상을 포함하는 것에 기반하여 상기 피절단체의 부위를 제 1 그룹으로 분류하고, 상기 피절단체의 육색이 지정된 색상을 포함하지 않는 것에 기반하여 상기 피절단체의 부위를 제 1 그룹과는 다른 제 2 그룹으로 분류하고, 또는 상기 이미지를 분석하여 상기 피절단체의 지방색이 지정된 색상을 포함하는 것에 기반하여 상기 피절단체의 부위를 제 3 그룹으로 분류하고, 상기 피절단체의 지방색이 지정된 색상을 포함하지 않는 것에 기반하여 상기 피절단체의 부위를 제 3 그룹과는 다른 제 4그룹으로 분류하고, 또는 상기 이미지를 분석하여 상기 피절단체의 근내지방 함유량이 제 1 수준 미만임에 기반하여 상기 피절단체의 부위를 제 5 그룹으로 분류하고, 상기 피절단체의 근내지방 함유량이 제 1 수준을 초과하면서 제 2 수준 미만임에 기반하여 상기 피절단체의 부위를 제 6 그룹으로 분류하고, 상기 피절단체의 근내지방 함유량이 제 2 수준을 초과함에 기반하여 상기 피절단체의 부위를 제 7그룹으로 분류하고, 또는 상기 이미지를 분석하여 상기 피절단체의 절단면 표면의 수분 함량이 지정된 수준을 초과함에 기반하여 상기 피절단체의 부위를 제 8그룹으로 분류하고, 상기 피절단체의 절단면 표면의 수분 함량이 지정된 수준 미만임에 기반하여 상기 피절단체의 부위를 제 9그룹으로 분류할 수 있다.
일실시예에 따른 장치는 하드웨어와 결합되어 상술한 방법들 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램에 의해 제어될 수 있다.
일 실시예에 따른 전자 장치는 인공지능 학습 모델을 이용하여 육류의 특정 요소(예: 색상, 분포도)를 기반으로 부위별 특징을 학습하고, 피 절단체에 대해 자동으로 부위를 구분할 수 있다.
일 실시예에 따른 전자 장치는 동일한 기준을 적용하여 피 절단체의 부위를 구분하여 정확한 가공을 수행할 수 있으며, 가공 작업의 효율성을 향상시킬 수 있다.
도 1은, 일 실시예에 따른 전자 장치의 블록도이다.
도2는 일실시예에 따른 인공지능 모델의 구성을 도시한 도면이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명의 실시예를 설명하기 위한 도면에 개시된 형상, 크기, 비율, 각도, 개수 등은 예시적인 것이므로 본 발명이 도시된 사항에 한정되는 것은 아니다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서 상에서 언급된 '포함한다', '갖는다', '이루어진다' 등이 사용되는 경우 '~만'이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별히 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함한다.
구성 요소를 해석함에 있어서, 별도의 명시적 기재가 없더라도 오차 범위를 포함하는 것으로 해석한다.
도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 도시된 것이며, 본 발명이 도시된 구성의 크기 및 두께에 반드시 한정되는 것은 아니다.
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.
이하, 구체적인 실시예와 비교예를 통하여 본 발명의 구성 및 그에 따른 효과를 보다 상세히 설명하고자 한다. 그러나, 본 실시예는 본 발명을 보다 구체적으로 설명하기 위한 것이며, 본 발명의 범위가 이들 실시예에 한정되는 것은 아니다.
도 1은, 일 실시예에 따른 전자 장치의 블록도이다.
도 1을 참조하면, 전자 장치(100)는 프로세서(110) 및 메모리(120) 를 포함할 수 있다. 도 1에 포함된 구성 요소는 전자 장치(100)에 포함된 구성들의 일부에 대한 것이며 전자 장치(100)는 이 밖에도 다양한 구성요소를 포함할 수 있다.
메모리(120)는 상술한 방법과 관련된 정보를 저장하거나 상술한 방법이 구현된 프로그램을 저장할 수 있다. 메모리(120)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(110)는 프로그램을 실행하고, 전자 장치(100)를 제어할 수 있다. 프로세서(110)에 의하여 실행되는 프로그램의 코드는 메모리(120)에 저장될 수 있다. 전자 장치(100)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.
메모리(120)는 인공지능 모델과 관련된 데이터를 일시적으로 또는 비일시적으로 저장할 수 있다. 예를 들어, 메모리(120)는 인공지능 모델의 레이어, 가중치, 오퍼레이션과 같은 인공지능 모델과 관련된 데이터를 저장하고, 인공지능 모델의 출력 값에 기반하여 인공지능 모델과 관련된 데이터를 업데이트할 수 있다. 예를 들어, 메모리(120)는 인공지능 모델의 출력 값을 저장시킬 수 있다.
일 실시예에 따른 인공지능 모델은 지정된 언어로 작성되어, 복수의 레이어(layer) 및/또는 오퍼레이션(operation)을 포함하는 인공 신경망 모델(neural network model)일 수 있다. 일 실시예에 따른 인공지능 모델은 CNN(convolution neural network), R-CNN(region with convolution neural network), RPN(region proposal network), RNN(recurrent neural network), S-DNN(stacking-based deep neural network), S-SDNN(state-space dynamic neural network), Deconvolution Network, DBN(deep belief network), RBM(restricted boltzman machine), Fully Convolutional Network, LSTM(long short-term memory) Network, Classification Network와 같은다양한 종류의 네트워크 중 적어도 하나일 수 있다. 일 실시예에 따른 인공지능 모델은 지정된 데이터에 대하여 학습될 수 있고, 입력 데이터를 획득하고, 입력 데이터를 기반으로 연산을 수행하여 출력 데이터를 생성시킬 수 있다.
일 실시예에 따른 인공지능 모델은 입력 계층(input layer), 은닉 계층(hidden layer) 및 출력 계층(output layer)을 포함할 수 있다. 입력 계층(input layer)은 인공지능 모델에 입력되는 입력 값과 관련될 수 있다. 은닉 계층(hidden layer)에서는 입력 값에 대하여 MAC 연산(multiply-accumulate)과 활성화 연산을 수행하여 피쳐 맵을 출력할 수 있다. 출력 계층(output layer)은, 은닉 계층에서 수행한 연산의 결과 값과 관련될 수 있다.
일 실시예에 따르면, 인공지능 모델은 메모리(120)에 저장되어있을 수 있다. 일 실시예에 따르면, 인공지능 모델에 기초한 연산은 프로세서(110)(예: 중앙 처리 장치(CPU, central processing unit) 및/또는 뉴럴 프로세싱 유닛(NPU, neural processing unit))에서 수행될 수 있다.
프로세서(110)는 메모리(120)에 저장된 인공지능 모델에 기초하여 연산을 수행할 수 있다.
일 실시예에 따른 프로세서(110)는 적어도 하나의 프로세서를 포함할 수 있다. 예를 들어, 프로세서(110)는 중앙 처리 장치(CPU, Central Processing unit) 및/또는 뉴럴 프로세싱 유닛(NPU, neural processing unit)을 포함할 수 있다.
일 실시예에 따른 프로세서(110)는 컴파일러(미도시)를 이용하여 특정 언어로 작성된 소스 코드를 타깃 프로그램 및/또는 타깃 하드웨어에서 처리할 수 있는 목적 코드로 컴파일(compile)할 수 있다.
일 실시예에 따른 프로세서(110)는 컴파일한 인공지능 모델에 포함된 활성화 함수를 확인할 수 있다.
일 실시예에 따른 프로세서(110)는 은닉 계층(hidden layer)에서 입력 값에 대하여 MAC 연산(multiply-accumulate)과 활성화 연산을 수행하여 피쳐 맵을 출력할 수 있다.
MAC 연산은 입력 값과 대응되는 가중치를 각각 곱하고, 곱한 값들을 합하는 연산일 수 있다. 활성화 연산은 MAC 연산의 결과를 활성화 함수에 입력하여 결과 값을 출력하는 연산일 수 있다.
일 실시예에 따른 프로세서(110)는 은닉 계층의 입력에 포함된 지정된 값에 대하여 연산을 생략할 수 있다.
일 실시예에 따른 전자 장치(100)는 프로세서(110) 및 메모리(120)를 포함할 수 있다. 프로세서(110)는 피절단체를 스캔하고, 상기 피절단체의 육색, 지방색, 근내지방 함유량, 근섬유의 결의 형태 또는 절단면 표면의 수분 함량 중 적어도 하나를 포함하는 이미지를 획득하고, 상기 이미지를 상기 메모리(120)상에 저장시키고 인공지능 학습모델(미도시)을 이용하여 상기 이미지를 학습시킬 수 있다. 인공지능 학습모델(미도시)은 메모리(120)로부터 피절단체의 이미지를 수신하고, 이미지를 분석하여 상기 피절단체의 육색이 지정된 색상을 포함하는 것에 기반하여 상기 피절단체의 부위를 제 1 그룹으로 분류하고, 상기 피절단체의 육색이 지정된 색상을 포함하지 않는 것에 기반하여 상기 피절단체의 부위를 제 1 그룹과는 다른 제 2 그룹으로 분류하고, 또는 상기 이미지를 분석하여 상기 피절단체의 지방색이 지정된 색상을 포함하는 것에 기반하여 상기 피절단체의 부위를 제 3 그룹으로 분류하고, 상기 피절단체의 지방색이 지정된 색상을 포함하지 않는 것에 기반하여 상기 피절단체의 부위를 제 3 그룹과는 다른 제 4그룹으로 분류하고, 또는 상기 이미지를 분석하여 상기 피절단체의 근내지방 함유량이 제 1 수준 미만임에 기반하여 상기 피절단체의 부위를 제 5 그룹으로 분류하고, 상기 피절단체의 근내지방 함유량이 제 1 수준을 초과하면서 제 2 수준 미만임에 기반하여 상기 피절단체의 부위를 제 6 그룹으로 분류하고, 상기 피절단체의 근내지방 함유량이 제 2 수준을 초과함에 기반하여 상기 피절단체의 부위를 제 7그룹으로 분류하고, 또는 상기 이미지를 분석하여 상기 피절단체의 절단면 표면의 수분 함량이 지정된 수준을 초과함에 기반하여 상기 피절단체의 부위를 제 8그룹으로 분류하고, 상기 피절단체의 절단면 표면의 수분 함량이 지정된 수준 미만임에 기반하여 상기 피절단체의 부위를 제 9그룹으로 분류할 수 있다.
일 실시예에 따르면, 프로세서(110)는 상기 피절단체가 절단되어 복수의 절단체로 분리되면, 상기 복수의 절단체 중 어느 하나인 제1 절단체의 절단면에 대한 제1 이미지를 획득하고, 상기 복수의 절단체 중 어느 하나인 제2 절단체의 절단면에 대한 제2 이미지를 획득하고, 상기 제 1 이미지 상의 피절단체의 육색, 지방색, 근내지방 함유량, 근섬유의 결의 형태 또는 절단면 표면의 수분 함량 중 적어도 어느 하나에 기반하여 상기 제 1 절단체를 특정 그룹으로 분류하고, 상기 제 2 이미지 상의 피절단체의 육색, 지방색, 근내지방 함유량, 근섬유의 결의 형태 또는 절단면 표면의 수분 함량 중 적어도 어느 하나에 기반하여 상기 제2 절단체를 특정 그룹으로 분류하며, 상기 제 1 이미지의 그룹 분류 결과와 상기 제 2 이미지의 그룹 분류 결과가 일치함에 기반하여 상기 피절단체의 그룹 분류 결과를 확정시킬 수 있다.
일 실시예에 따르면, 프로세서(110)는 제 1 이미지의 그룹 분류 결과와 상기 제 2 이미지의 그룹 분류 결과가 일치하지 않음에 기반하여 상기 피절단체의 그룹 분류 결과를 확정할 수 없음을 지시하는 정보 및 상기 피절단체의 다른 부분을 절단하여 다시 그룹 분류 결과를 확인해야 함을 지시하는 정보를 표시할 수 있다.
일 실시예에 따르면, 프로세서(110)는 메모리 상에 상기 피절단체의 그룹에 대응하는 가격 정보를 저장하고, 상기 피절단체가 절단되어 복수의 절단체로 분리되면, 상기 복수의 절단체 중 어느 하나인 제1 절단체의 절단면에 대한 제1 이미지를 획득하고, 상기 제 1 이미지 상의 피절단체의 육색, 지방색, 근내지방 함유량, 근섬유의 결의 형태 또는 절단면 표면의 수분 함량 중 적어도 어느 하나에 기반하여 상기 제 1 절단체를 특정 그룹으로 분류하고,상기 제 1 절단체에 해당하는 그룹에 대응하는 가격 정보를 표시할 수 있다.
일 실시예에 따르면, 프로세서(110)는 상기 피절단체의 육색, 지방색, 근내지방 함유량, 근섬유의 결의 형태 또는 절단면 표면의 수분 함량 중 적어도 어느 하나에 기반하여 상기 피절단체의 보관 상태가 목표로 하는 수준에 도달했는지 여부를 결정하고, 상기 피절단체의 보관 상태가 목표로 하는 수준에 도달함에 기반하여 상기 피절단체의 보관 온도가 적절한 것으로 결정하고, 상기 피절단체의 보관 온도가 적절함을 지시하는 정보를 표시하고, 상기 피절단체의 보관 상태가 목표로 하는 수준에 도달하지 못함에 기반하여 상기 피절단체의 보관 온도가 적절하지 못해 상기 피절단체의 보관 온도를 변경해야하는 것으로 결정하며, 상기 피절단체의 육색, 지방색, 근내지방 함유량, 근섬유의 결의 형태 또는 절단면 표면의 수분 함량 중 적어도 어느 하나에 기반하여 상기 피절단체의 보관 온도를 올려야할지 또는 내려야할지 가이드할 수 있다.
도2는 일실시예에 따른 인공지능 모델의 구성을 도시한 도면이다.
일 실시예에 따른 인공지능 모델은 입력 계층(input layer), 은닉 계층(hidden layer) 및 출력 계층(output layer)을 포함할 수 있다.
입력 계층(input layer)은 인공지능 모델에 입력되는 입력 값과 관련된 계층이다.
은닉 계층(hidden layer)에서는 입력 값에 대하여 MAC 연산(multiply-accumulate)과 활성화 연산을 수행하여 피쳐 맵을 출력할 수 있다.
MAC 연산은 입력 값과 대응되는 가중치를 각각 곱하고, 곱한 값들을 합하는 연산일 수 있다.
활성화 연산은 MAC 연산의 결과를 활성화 함수에 입력하여 결과 값을 출력하는 연산일 수 있다. 활성화 함수는, 다양한 유형일 수 있다. 예를 들어, 활성화 함수는, 시그모이드 함수, 탄젠트 함수, 렐루 함수, 리키 렐루 함수, 맥스아웃 함수 및/또는 엘루 함수을 포함할 수 있으나 그 종류에 제한이 없다.
은닉 계층은 적어도 하나의 계층(layer)로 구성될 수 있다. 예를 들어, 은닉 계층이 제 1 은닉 계층 및 제 2 은닉 계층으로 구성된 경우, 제 1 은닉 계층은 입력 계의 입력 값에 기반하여 MAC 연산 및 활성화 연산을 수행하여 피쳐 맵을 출력하고, 제 1 은닉 계층에서의 결과 값인 피쳐 맵이 제 2 은닉 계층에서의 입력 값이 될 수 있다. 제 2 은닉 계층은 제 1 은닉 계층의 결과 값인 피쳐 맵에 기반하여 MAC 연산 및 활성화 연산을 수행할 수 있다.
출력 계층(output layer)은, 은닉 계층에서 수행한 연산의 결과 값과 관련된 계층일 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.

Claims (3)

  1. 인공지능 기반 육류 관리 장치에 있어서,
    프로세서;및
    메모리를 포함하고,
    상기 프로세서는
    피절단체를 스캔하고, 상기 피절단체의 육색, 지방색, 근내지방 함유량, 근섬유의 결의 형태 또는 절단면 표면의 수분 함량 중 적어도 하나를 포함하는 이미지를 획득하고,
    상기 이미지를 상기 메모리 상에 저장시키고 인공지능 학습모델을 이용하여 상기 이미지를 학습하며,
    상기 인공지능 학습모델은
    상기 메모리로부터 피절단체의 이미지를 수신하고,
    상기 이미지를 분석하여 상기 피절단체의 육색이 지정된 색상을 포함하는 것에 기반하여 상기 피절단체의 부위를 제 1 그룹으로 분류하고, 상기 피절단체의 육색이 지정된 색상을 포함하지 않는 것에 기반하여 상기 피절단체의 부위를 제 1 그룹과는 다른 제 2 그룹으로 분류하고,
    또는 상기 이미지를 분석하여 상기 피절단체의 지방색이 지정된 색상을 포함하는 것에 기반하여 상기 피절단체의 부위를 제 3 그룹으로 분류하고, 상기 피절단체의 지방색이 지정된 색상을 포함하지 않는 것에 기반하여 상기 피절단체의 부위를 제 3 그룹과는 다른 제 4그룹으로 분류하고,
    또는 상기 이미지를 분석하여 상기 피절단체의 근내지방 함유량이 제 1 수준 미만임에 기반하여 상기 피절단체의 부위를 제 5 그룹으로 분류하고, 상기 피절단체의 근내지방 함유량이 제 1 수준을 초과하면서 제 2 수준 미만임에 기반하여 상기 피절단체의 부위를 제 6 그룹으로 분류하고, 상기 피절단체의 근내지방 함유량이 제 2 수준을 초과함에 기반하여 상기 피절단체의 부위를 제 7그룹으로 분류하고,
    또는 상기 이미지를 분석하여 상기 피절단체의 절단면 표면의 수분 함량이 지정된 수준을 초과함에 기반하여 상기 피절단체의 부위를 제 8그룹으로 분류하고, 상기 피절단체의 절단면 표면의 수분 함량이 지정된 수준 미만임에 기반하여 상기 피절단체의 부위를 제 9그룹으로 분류하며,
    상기 피절단체가 절단되어 복수의 절단체로 분리되면, 상기 복수의 절단체 중 어느 하나인 제 1 절단체의 절단면에 대한 제 1 이미지를 획득하고,
    상기 복수의 절단체 중 어느 하나인 제2 절단체의 절단면에 대한 제 2 이미지를 획득하고,
    상기 제 1 이미지 상의 피절단체의 육색, 지방색, 근내지방 함유량, 근섬유의 결의 형태 또는 절단면 표면의 수분 함량 중 적어도 어느 하나에 기반하여 상기 제 1 절단체를 특정 그룹으로 분류하고,
    상기 제 2 이미지 상의 피절단체의 육색, 지방색, 근내지방 함유량, 근섬유의 결의 형태 또는 절단면 표면의 수분 함량 중 적어도 어느 하나에 기반하여 상기 제2 절단체를 특정 그룹으로 분류하며,
    상기 제 1 이미지의 그룹 분류 결과와 상기 제 2 이미지의 그룹 분류 결과가 일치함에 기반하여 상기 피절단체의 그룹 분류 결과를 확정하고,
    상기 제 1 이미지의 그룹 분류 결과와 상기 제 2 이미지의 그룹 분류 결과가 일치하지 않음에 기반하여 상기 피절단체의 그룹 분류 결과를 확정할 수 없음을 지시하는 정보 및
    상기 피절단체의 다른 부분을 절단하여 다시 그룹 분류 결과를 확인해야 함을 지시하는 정보를 표시하는 인공지능 기반 육류 관리 장치.





  2. 삭제
  3. 삭제
KR1020220128356A 2022-10-07 2022-10-07 인공지능 기반 육류 관리 방법 및 장치 KR102505771B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220128356A KR102505771B1 (ko) 2022-10-07 2022-10-07 인공지능 기반 육류 관리 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220128356A KR102505771B1 (ko) 2022-10-07 2022-10-07 인공지능 기반 육류 관리 방법 및 장치

Publications (1)

Publication Number Publication Date
KR102505771B1 true KR102505771B1 (ko) 2023-03-02

Family

ID=85509110

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220128356A KR102505771B1 (ko) 2022-10-07 2022-10-07 인공지능 기반 육류 관리 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102505771B1 (ko)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101065219B1 (ko) * 2009-07-29 2011-09-19 성균관대학교산학협력단 소고기 등급 자동판정 방법 및 그 시스템
KR101892995B1 (ko) 2018-06-04 2018-08-31 유영구 유통을 위한 육류처리 방법
KR101926181B1 (ko) * 2018-08-01 2018-12-06 (주)한그린테크 머신러닝 기반 신선도 측정 장치 및 방법
KR102086976B1 (ko) 2019-12-09 2020-03-09 주식회사 아스트로스 수입 육류 관리 시스템
JP2020174601A (ja) * 2019-04-19 2020-10-29 キヤノン株式会社 電子機器およびその制御方法
KR102242011B1 (ko) * 2020-02-07 2021-04-20 부산대학교 산학협력단 딥러닝 기반의 축산물 이미지 등급 분류 장치
KR102380289B1 (ko) * 2019-12-12 2022-03-29 대한민국 소고기 등급 판정 장치 및 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101065219B1 (ko) * 2009-07-29 2011-09-19 성균관대학교산학협력단 소고기 등급 자동판정 방법 및 그 시스템
KR101892995B1 (ko) 2018-06-04 2018-08-31 유영구 유통을 위한 육류처리 방법
KR101926181B1 (ko) * 2018-08-01 2018-12-06 (주)한그린테크 머신러닝 기반 신선도 측정 장치 및 방법
JP2020174601A (ja) * 2019-04-19 2020-10-29 キヤノン株式会社 電子機器およびその制御方法
KR102086976B1 (ko) 2019-12-09 2020-03-09 주식회사 아스트로스 수입 육류 관리 시스템
KR102380289B1 (ko) * 2019-12-12 2022-03-29 대한민국 소고기 등급 판정 장치 및 방법
KR102242011B1 (ko) * 2020-02-07 2021-04-20 부산대학교 산학협력단 딥러닝 기반의 축산물 이미지 등급 분류 장치

Similar Documents

Publication Publication Date Title
JP2020091922A5 (ko)
CN110688288B (zh) 基于人工智能的自动化测试方法、装置、设备及存储介质
EP4111386A1 (en) Adaptive co-distillation model
Diering et al. New method for assessment of raters agreement based on fuzzy similarity
CN111639034A (zh) 测试方法、装置、设备及计算机存储介质
Nguyen et al. Intelligent fruit recognition system using deep learning
Martineau et al. Neural network architectures and feature extraction for lumber production prediction
KR102505771B1 (ko) 인공지능 기반 육류 관리 방법 및 장치
KR20220085739A (ko) 인공지능 데이터 증강 방법 및 장치
CN108604313A (zh) 自动化的预测性建模与框架
US20200097439A1 (en) Systems and methods for improving the interpretability and transparency of machine learning models
CN115620122A (zh) 神经网络模型的训练方法、图像重识别方法及相关设备
CN112363465A (zh) 一种专家规则集训练方法、训练器和工业设备预警系统
Gors et al. An adaptable framework to provide AR-based work instructions and assembly state tracking using an ISA-95 ontology
Shalini et al. Comparative analysis on Deep Convolution Neural Network models using Pytorch and OpenCV DNN frameworks for identifying optimum fruit detection solution on RISC-V architecture
US20230088484A1 (en) Artificial Intelligence Assisted Live Sports Data Quality Assurance
Chougule et al. Recognizing fresh and rotten fruits using deep learning techniques
CN110659701A (zh) 信息处理方法、装置、电子设备及介质
KR102392532B1 (ko) 실물 이미지 기반 인터넷 판매 플랫폼용 신선 식품 생산 방법, 장치 및 시스템
CN109189883A (zh) 一种电子文件的智能派发方法及装置
CN112561276A (zh) 作业操作风险演示方法及装置、存储介质、电子装置
CN111696180A (zh) 一种虚拟仿真人的生成方法、系统、装置和存储介质
US20190311265A1 (en) Method and device for obtaining a system for labelling images
IT201900011778A1 (it) Metodi implementati tramite computer per addestrare o utilizzare una infrastruttura software basata su tecniche di machine learning
Schur et al. Speed and accuracy improvements in visual pattern recognition tasks by employing human assistance