KR102470326B1 - Method, device and system for analyzing and monitoring growth status of livestock to improve breeding effect - Google Patents

Method, device and system for analyzing and monitoring growth status of livestock to improve breeding effect Download PDF

Info

Publication number
KR102470326B1
KR102470326B1 KR1020220098929A KR20220098929A KR102470326B1 KR 102470326 B1 KR102470326 B1 KR 102470326B1 KR 1020220098929 A KR1020220098929 A KR 1020220098929A KR 20220098929 A KR20220098929 A KR 20220098929A KR 102470326 B1 KR102470326 B1 KR 102470326B1
Authority
KR
South Korea
Prior art keywords
grade
livestock
weight
image
volume
Prior art date
Application number
KR1020220098929A
Other languages
Korean (ko)
Other versions
KR102470326B9 (en
Inventor
배수형
박성철
Original Assignee
주식회사 안심엘피씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 안심엘피씨 filed Critical 주식회사 안심엘피씨
Priority to KR1020220098929A priority Critical patent/KR102470326B1/en
Application granted granted Critical
Publication of KR102470326B1 publication Critical patent/KR102470326B1/en
Publication of KR102470326B9 publication Critical patent/KR102470326B9/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/70Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in livestock or poultry

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mining & Mineral Resources (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Agronomy & Crop Science (AREA)
  • Animal Husbandry (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a method, apparatus and system for analyzing and monitoring the growth state of livestock to improve breeding effects. The method for analyzing and monitoring the growth state of livestock, according to the present invention, comprises the steps of: obtaining a first-first image generated through ultrasound examination of a first part of a first livestock at a first time point; generating a first input signal; obtaining a first output signal; setting a grade of the first part to a first grade at the first time point; obtaining a first-second image generated through ultrasound examination of the first part of the first livestock at a second time point; generating a second input signal; obtaining a second output signal; setting a grade of the first part to a second grade at the second time point; and analyzing a grade change trend of the first part during a first reference period. Therefore, the accuracy and efficiency can be increased.

Description

사육 효과를 개선하기 위한 가축의 성장 상태 분석 및 모니터링 방법, 장치 및 시스템 {METHOD, DEVICE AND SYSTEM FOR ANALYZING AND MONITORING GROWTH STATUS OF LIVESTOCK TO IMPROVE BREEDING EFFECT}Livestock growth status analysis and monitoring method, apparatus and system for improving breeding effect {METHOD, DEVICE AND SYSTEM FOR ANALYZING AND MONITORING GROWTH STATUS OF LIVESTOCK TO IMPROVE BREEDING EFFECT}

아래 실시예들은 사육 효과를 개선하기 위해 가축의 성장 상태를 분석하고 모니터링 하는 기술에 관한 것이다.The following examples relate to techniques for analyzing and monitoring the growth status of livestock in order to improve the breeding effect.

최근 축산물에 대한 소비가 늘어나면서, 가축을 효율적으로 사육하는 방안에 대한 요구가 증대되고 있다.Recently, as the consumption of livestock products increases, the demand for methods for efficiently breeding livestock is increasing.

특히, 가축을 효율적으로 사육하기 위해서는 가축의 성장 상태에 대한 분석과 모니터링이 필요한데, 종래에는 사육자가 사육하면서 직접 가축의 성장 상태에 대해 분석하고 모니터링하고 있기 때문에, 정확성 및 효율성이 떨어지는 문제가 있다.In particular, in order to efficiently breed livestock, analysis and monitoring of the growth state of livestock is required. Conventionally, since breeders directly analyze and monitor the growth state of livestock while breeding, there is a problem of poor accuracy and efficiency.

따라서, 사육 효과를 개선하기 위해 가축의 성장 상태에 대한 분석과 모니터링을 자동으로 수행하고자 하는 요구가 증대되고 있어, 이와 관련된 기술에 대한 연구가 요구된다.Therefore, there is an increasing demand for automatically analyzing and monitoring the growth status of livestock in order to improve the breeding effect, and research on related technologies is required.

한국등록특허 제10-2168641호Korean Patent Registration No. 10-2168641 한국등록특허 제10-2011401호Korean Patent Registration No. 10-2011401 한국등록특허 제10-1334607호Korean Patent Registration No. 10-1334607 한국공개특허 제10-2022-0064712호Korean Patent Publication No. 10-2022-0064712

일실시예에 따르면, 초음파 검사를 통해 가축의 성장 상태를 분석하고 모니터링 하고, 사이즈 추적을 통해 가축의 성장 상태를 분석하고 모니터링 하고, 가축의 성장 상태를 분석한 결과를 통해 가축의 사육 방식을 판단하는, 사육 효과를 개선하기 위한 가축의 성장 상태 분석 및 모니터링 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.According to one embodiment, the growth state of livestock is analyzed and monitored through ultrasonic inspection, the growth state of livestock is analyzed and monitored through size tracking, and the breeding method of livestock is determined through the result of analyzing the growth state of livestock. Its purpose is to provide a method, apparatus and system for analyzing and monitoring the growth status of livestock to improve the breeding effect.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the object mentioned above, and other objects not mentioned will be clearly understood from the description below.

일실시예에 따르면, 장치에 의해 수행되는, 사육 효과를 개선하기 위해 가축의 성장 상태를 분석하고 모니터링 하는 방법에 있어서, 제1 시점에 초음파 검사기를 이용하여 제1 가축의 제1 부위에 대한 초음파 검사가 진행되면, 상기 제1 시점에 상기 제1 가축의 상기 제1 부위에 대한 초음파 검사를 통해 생성된 제1-1 이미지를 획득하는 단계; 상기 제1-1 이미지를 인코딩 하여 제1 입력 신호를 생성하는 단계; 상기 제1 입력 신호를 인공 신경망에 입력하고, 상기 인공 신경망의 입력에 대한 결과에 기초하여, 제1 출력 신호를 획득하는 단계; 상기 제1 출력 신호에 기초하여, 상기 제1 시점에 상기 제1 부위의 등급을 제1 등급으로 설정하는 단계; 상기 제1 시점으로부터 미리 설정된 제1 기준 기간이 지난 후인 제2 시점에 상기 초음파 검사기를 이용하여 상기 제1 가축의 상기 제1 부위에 대한 초음파 검사가 진행되면, 상기 제2 시점에 상기 제1 가축의 상기 제1 부위에 대한 초음파 검사를 통해 생성된 제1-2 이미지를 획득하는 단계; 상기 제1-2 이미지를 인코딩 하여 제2 입력 신호를 생성하는 단계; 상기 제2 입력 신호를 인공 신경망에 입력하고, 상기 인공 신경망의 입력에 대한 결과에 기초하여, 제2 출력 신호를 획득하는 단계; 상기 제2 출력 신호에 기초하여, 상기 제2 시점에 상기 제1 부위의 등급을 제2 등급으로 설정하는 단계; 및 상기 제1 등급 및 상기 제2 등급을 비교하여, 상기 제1 기준 기간 동안 상기 제1 부위의 등급 변동 추세를 분석하는 단계를 포함하는, 사육 효과를 개선하기 위한 가축의 성장 상태 분석 및 모니터링 방법이 제공된다.According to one embodiment, in the method for analyzing and monitoring the growth state of livestock to improve breeding effect, which is performed by an apparatus, an ultrasonic wave is applied to a first part of a first livestock using an ultrasound scanner at a first time point. acquiring a 1-1 image generated through an ultrasound examination of the first part of the first livestock at the first point in time when the inspection is in progress; generating a first input signal by encoding the 1-1 image; inputting the first input signal to an artificial neural network and obtaining a first output signal based on a result of the input of the artificial neural network; setting a grade of the first part to a first grade at the first time point based on the first output signal; When an ultrasound examination of the first part of the first livestock is performed using the ultrasound scanner at a second time point after a preset first reference period has passed from the first time point, the first livestock at the second time point acquiring first-second images generated through ultrasound examination of the first part of the body; generating a second input signal by encoding the first-second image; inputting the second input signal to an artificial neural network and obtaining a second output signal based on a result of the input of the artificial neural network; setting a grade of the first part to a second grade at the second time point based on the second output signal; And comparing the first grade and the second grade, analyzing the trend of grade change of the first part during the first reference period, a livestock growth state analysis and monitoring method for improving breeding effect. is provided.

상기 사육 효과를 개선하기 위한 가축의 성장 상태 분석 및 모니터링 방법은, 상기 제1 가축에 대한 촬영을 수행하고 있는 카메라로부터 상기 제1 가축의 촬영으로 생성된 3D 영상인 제1 영상 정보를 획득하는 단계; 상기 제1 영상 정보에서 상기 제1 시점에 획득된 영상의 이미지를 제2-1 이미지로 추출하는 단계; 상기 제2-1 이미지에 기초하여, 상기 제2-1 이미지에서 상기 제1 부위가 차지하고 있는 영역을 제1 영역으로 구분하고, 상기 제1 영역의 크기를 통해 상기 제1 영역의 부피를 산출하는 단계; 상기 제1 영역의 부피가 제1 부피로 산출되면, 상기 제1 시점에 상기 제1 부위의 부피를 상기 제1 부피로 설정하는 단계; 상기 제1 영상 정보에서 상기 제2 시점에 획득된 영상의 이미지를 제2-2 이미지로 추출하는 단계; 상기 제2-2 이미지에 기초하여, 상기 제2-2 이미지에서 상기 제1 부위가 차지하고 있는 영역을 제2 영역으로 구분하고, 상기 제2 영역의 크기를 통해 상기 제2 영역의 부피를 산출하는 단계; 상기 제2 영역의 부피가 제2 부피로 산출되면, 상기 제2 시점에 상기 제1 부위의 부피를 상기 제2 부피로 설정하는 단계; 및 상기 제1 부피 및 상기 제2 부피를 비교하여, 상기 제1 기준 기간 동안 상기 제1 부위의 사이즈 변동 추세를 분석하는 단계를 더 포함할 수 있다.The method for analyzing and monitoring the growth state of livestock for improving the breeding effect includes obtaining first image information, which is a 3D image generated by photographing the first livestock, from a camera that photographs the first livestock. ; extracting an image of an image acquired at the first viewpoint from the first image information as a 2-1 image; Dividing the area occupied by the first part in the 2-1 image into a first area based on the 2-1 image, and calculating the volume of the first area through the size of the first area step; if the volume of the first region is calculated as the first volume, setting the volume of the first part to the first volume at the first time point; extracting an image of an image acquired at the second viewpoint from the first image information as a 2-2 image; Dividing the area occupied by the first part in the 2-2 image into a second area based on the 2-2 image, and calculating the volume of the second area through the size of the second area step; setting the volume of the first part to the second volume at the second time point when the volume of the second region is calculated as the second volume; and comparing the first volume and the second volume to analyze a size change trend of the first part during the first reference period.

상기 사육 효과를 개선하기 위한 가축의 성장 상태 분석 및 모니터링 방법은, 상기 제1 부위의 사이즈 변동 추세를 분석한 결과, 상기 제2 부피에서 상기 제1 부피를 차감하여, 상기 제1 기준 기간 동안 상기 제1 부위의 사이즈가 커져 변동된 수치인 제3 부피를 산출하는 단계; 상기 제1 기준 기간 동안 상기 제1 부위의 평균 변동 수치로 설정되어 있는 제4 부피를 확인하는 단계; 상기 제3 부피에서 상기 제4 부피를 차감하여, 제5 부피를 산출하는 단계; 상기 제5 부피가 미리 설정된 기준 범위 내에 포함되는 것으로 확인된 경우, 상기 제1 부위의 등급 변동 추세를 분석한 결과, 상기 제2 등급이 상기 제1 등급 보다 더 높은 등급으로 확인되면, 상기 제1 가축의 사육 방식에 대한 현행 유지가 필요한 것으로 판단하고, 상기 제1 등급과 상기 제2 등급이 동일한 등급으로 확인되거나 상기 제2 등급이 상기 제1 등급 보다 더 낮은 등급으로 확인되면, 상기 제1 가축에 대한 비육사료의 추가 지급이 필요한 것으로 판단하는 단계; 상기 제5 부피가 상기 기준 범위를 벗어나 상기 기준 범위의 최대값 보다 큰 것으로 확인된 경우, 상기 제1 부위의 등급 변동 추세를 분석한 결과, 상기 제2 등급이 상기 제1 등급 보다 더 높은 등급으로 확인되거나 상기 제1 등급과 상기 제2 등급이 동일한 등급으로 확인되면, 상기 제1 가축의 사육 방식에 대한 현행 유지가 필요한 것으로 판단하고, 상기 제2 등급이 상기 제1 등급 보다 더 낮은 등급으로 확인되면, 상기 제1 가축에 대한 비육사료의 추가 지급이 필요한 것으로 판단하는 단계; 및 상기 제5 부피가 상기 기준 범위를 벗어나 상기 기준 범위의 최소값 보다 작은 것으로 확인된 경우, 상기 제1 부위의 등급 변동 추세를 분석한 결과, 상기 제2 등급이 상기 제1 등급 보다 더 높은 등급으로 확인되거나 상기 제1 등급과 상기 제2 등급이 동일한 등급으로 확인되면, 상기 제1 가축의 사육 방식에 대한 변경이 필요한 것으로 판단하고, 상기 제2 등급이 상기 제1 등급 보다 더 낮은 등급으로 확인되면, 상기 제1 가축의 사육을 유지할 것인지에 대한 결정이 필요한 것으로 판단하는 단계를 더 포함할 수 있다.The method of analyzing and monitoring the growth state of livestock for improving the breeding effect, as a result of analyzing the size change trend of the first part, by subtracting the first volume from the second volume, Calculating a third volume, which is a value changed as the size of the first part increases; checking a fourth volume set as an average change value of the first part during the first reference period; calculating a fifth volume by subtracting the fourth volume from the third volume; When it is confirmed that the fifth volume is included within the preset reference range, as a result of analyzing the grade change trend of the first part, when the second grade is confirmed as a higher grade than the first grade, the first If it is determined that the current maintenance of the livestock breeding method is necessary, and the first grade and the second grade are confirmed to be the same grade or the second grade is confirmed to be a lower grade than the first grade, the first livestock Determining that additional payment for fattening feed is necessary; When it is confirmed that the fifth volume is outside the reference range and is greater than the maximum value of the reference range, as a result of analyzing the grade change trend of the first part, the second grade is a higher grade than the first grade. confirmed or if the first grade and the second grade are confirmed to be the same grade, it is determined that the current maintenance of the breeding method of the first livestock is necessary, and the second grade is confirmed as a lower grade than the first grade. If it is, determining that additional payment of fattening feed for the first livestock is necessary; And when it is confirmed that the fifth volume is out of the reference range and smaller than the minimum value of the reference range, as a result of analyzing the grade change trend of the first part, the second grade is a higher grade than the first grade. or if the first grade and the second grade are confirmed to be the same grade, it is determined that a change in the breeding method of the first livestock is necessary, and if the second grade is confirmed to be a lower grade than the first grade , Determining whether or not to maintain breeding of the first livestock may be further included.

일실시예에 따르면, 초음파 검사를 통해 가축의 성장 상태를 분석하고 모니터링 하고, 사이즈 추적을 통해 가축의 성장 상태를 분석하고 모니터링 함으로써, 가축의 성장 상태에 대한 분석과 모니터링을 자동으로 수행하여, 정확성 및 효율성을 증대시킬 수 있다.According to one embodiment, by analyzing and monitoring the growth state of livestock through ultrasonic inspection, and by analyzing and monitoring the growth state of livestock through size tracking, analysis and monitoring of the growth state of livestock is automatically performed, and accuracy and efficiency can be increased.

또한, 일실시예에 따르면, 가축의 성장 상태를 분석한 결과를 통해 가축의 사육 방식을 판단함으로써, 사육 효과를 개선하여 가축을 효율적으로 사육하는 방안을 제공할 수 있다.In addition, according to one embodiment, by determining the breeding method of livestock through the result of analyzing the growth state of livestock, it is possible to provide a method for efficiently breeding livestock by improving the breeding effect.

한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.On the other hand, the effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 초음파 검사를 통해 가축의 성장 상태를 분석하고 모니터링 하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 사이즈 추적을 통해 가축의 성장 상태를 분석하고 모니터링 하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 가축의 성장 상태를 분석한 결과를 통해 가축의 사육 방식을 판단하는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 제5 부피가 기준 범위 내에 포함되는 것으로 확인된 경우, 가축의 사육 방식을 판단하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 제5 부피가 기준 범위의 최대값 보다 큰 것으로 확인된 경우, 가축의 사육 방식을 판단하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 제5 부피가 기준 범위의 최소값 보다 작은 것으로 확인된 경우, 가축의 사육 방식을 판단하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 향후 성장할 것으로 예상되는 부위에 대한 가격을 산출하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 향후 성장할 것으로 예상되는 각 부위에 대한 가격을 통해 가축의 사육 여부를 결정하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 특정 시점의 특정 부위에 대한 이미지를 기록하여 저장하는 과정을 설명하기 위한 순서도이다.
도 11은 일실시예에 따른 인공 신경망을 설명하기 위한 도면이다.
도 12는 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
도 13은 일실시예에 따른 장치의 구성의 예시도이다.
1 is a diagram schematically showing the configuration of a system according to an embodiment.
Figure 2 is a flow chart for explaining a process of analyzing and monitoring the growth state of livestock through ultrasonic inspection according to an embodiment.
3 is a flowchart illustrating a process of analyzing and monitoring the growth state of livestock through size tracking according to an embodiment.
4 is a flowchart illustrating a process of determining a breeding method of livestock based on a result of analyzing a growth state of livestock according to an embodiment.
5 is a flowchart illustrating a process of determining a breeding method of livestock when it is confirmed that a fifth volume is included within a reference range according to an embodiment.
6 is a flowchart illustrating a process of determining a breeding method of livestock when it is confirmed that a fifth volume is greater than the maximum value of the reference range according to an embodiment.
7 is a flowchart illustrating a process of determining a breeding method of livestock when it is confirmed that a fifth volume is smaller than the minimum value of the reference range according to an embodiment.
8 is a flowchart illustrating a process of calculating a price for a part expected to grow in the future according to an embodiment.
9 is a flowchart illustrating a process of determining whether to breed livestock through a price for each part expected to grow in the future according to an embodiment.
10 is a flowchart illustrating a process of recording and storing an image of a specific region at a specific time point according to an embodiment.
11 is a diagram for explaining an artificial neural network according to an embodiment.
12 is a diagram for explaining a method of learning an artificial neural network according to an embodiment.
13 is an exemplary diagram of a configuration of a device according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes can be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents or substitutes to the embodiments are included within the scope of rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be modified and implemented in various forms. Therefore, the embodiments are not limited to the specific disclosed form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, such terms should only be construed for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.It should be understood that when an element is referred to as being “connected” to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used only for descriptive purposes and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.The embodiments may be implemented in various types of products such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent vehicles, kiosks, and wearable devices.

실시예에서 인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 규칙(Rule) 기반의 스마트 시스템과 달리 기계가 스스로 학습하고 판단하는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 판매자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙 기반의 스마트 시스템은 점차 심층 학습(Deep Learning) 기반 인공지능 시스템으로 대체되고 있다.In an embodiment, an artificial intelligence (AI) system is a computer system that implements human-level intelligence, and unlike existing rule-based smart systems, a machine learns and judges on its own. The more the AI system is used, the higher the recognition rate and the more accurately the seller's taste can be understood, so the existing rule-based smart system is gradually being replaced by a deep learning-based AI system.

인공지능 기술은 기계 학습 및 기계 학습을 활용한 요소기술들로 구성된다. 기계 학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 심층 학습 등의 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Artificial intelligence technology consists of machine learning and element technologies using machine learning. Machine learning is an algorithm technology that classifies/learns the characteristics of input data by itself, and element technology is a technology that uses machine learning algorithms such as deep learning to mimic functions such as recognition and judgment of the human brain. It consists of technical fields such as understanding, inference/prediction, knowledge expression, and motion control.

인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.The various fields where artificial intelligence technology is applied are as follows. Linguistic understanding is a technology for recognizing and applying/processing human language/characters, including natural language processing, machine translation, dialogue systems, question and answering, voice recognition/synthesis, and the like. Visual understanding is a technology for recognizing and processing objects like human vision, and includes object recognition, object tracking, image search, person recognition, scene understanding, space understanding, image improvement, and the like. Inference prediction is a technique of reasoning and predicting logically by judging information, and includes knowledge/probability-based reasoning, optimization prediction, preference-based planning, and recommendation. Knowledge expression is a technology that automatically processes human experience information into knowledge data, and includes knowledge construction (data creation/classification) and knowledge management (data utilization). Motion control is a technology for controlling the autonomous driving of a vehicle and the movement of a robot, and includes motion control (navigation, collision, driving), manipulation control (action control), and the like.

일반적으로 기계 학습 알고리즘을 실생활에 적용하기 위해서는 기계 학습의 기본 방법론의 특성상 Trial and Error 방식으로 학습을 수행하게 된다. 특히, 심층 학습의 경우 수십만 번의 반복 실행을 필요로 한다. 이를 실제 물리적인 외부 환경에서 실행하기는 불가능하여 대신 실제 물리적인 외부 환경을 컴퓨터상에서 가상으로 구현하여 시뮬레이션을 통해 학습을 수행한다.In general, in order to apply machine learning algorithms to real life, learning is performed in a trial and error method due to the nature of the basic methodology of machine learning. In particular, deep learning requires hundreds of thousands of iterations. It is impossible to execute this in an actual physical external environment, so instead, the actual physical external environment is virtually implemented on a computer and learning is performed through simulation.

도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.1 is a diagram schematically showing the configuration of a system according to an embodiment.

도 1을 참조하면, 일실시예에 따른 시스템은 초음파 검사기(100), 카메라(200), 중량 측정기(300) 및 장치(400)를 포함할 수 있다.Referring to FIG. 1 , a system according to an embodiment may include an ultrasonic inspection device 100, a camera 200, a weight measuring device 300, and an apparatus 400.

초음파 검사기(100)는 가축에 대한 초음파 검사를 수행하고, 초음파 검사를 통해 이미지를 생성하는 기기이다.The ultrasound scanner 100 is a device that performs an ultrasound scan on livestock and generates an image through the ultrasound scan.

초음파 검사기(100)는 가축의 특정 부위에 대한 초음파 검사를 진행할 수 있다. 예를 들어, 초음파 검사기(100)는 가축의 등 부위에 대한 초음파 검사를 수행하여, 초음파 검사를 통해 등 부위에 대한 이미지를 생성할 수 있다.The ultrasound examination machine 100 may perform an ultrasound examination of a specific part of livestock. For example, the ultrasound examination machine 100 may perform an ultrasound examination on the back of a livestock and generate an image of the back through the ultrasound examination.

초음파 검사기(100)는 장치(400)와 네트워크를 통해 연결될 수 있으며, 장치(400)로부터 수신된 제어 신호에 의해 동작할 수 있다.The ultrasonic inspection device 100 may be connected to the device 400 through a network and may be operated by a control signal received from the device 400 .

카메라(200)는 가축에 대한 촬영을 수행하여 영상 정보를 생성하는 기기로, 3D 카메라, 라이다 등으로 구현될 수 있다.The camera 200 is a device that generates image information by taking pictures of livestock, and may be implemented as a 3D camera, LIDAR, or the like.

카메라(200)는 장치(400)와 네트워크를 통해 연결될 수 있으며, 장치(400)로부터 수신된 제어 신호에 의해 동작할 수 있다.The camera 200 may be connected to the device 400 through a network and may be operated by a control signal received from the device 400 .

중량 측정기(300)는 가축의 무게를 측정하여 중량 정보를 생성하는 기기로, 무게 센서 등으로 구현될 수 있다.The weight measuring device 300 is a device for generating weight information by measuring the weight of livestock, and may be implemented as a weight sensor or the like.

예를 들어, 축사의 바닥에 중량 측정기(300)가 설치되어, 중량 측정기(300)는 축사 내에 있는 가축의 무게를 측정하여, 무게 측정을 통해 중량 정보를 생성할 수 있다.For example, a weight measuring device 300 may be installed on the floor of a barn, and the weight measuring device 300 may measure the weight of livestock in the barn and generate weight information through weight measurement.

중량 측정기(300)는 장치(400)와 네트워크를 통해 연결될 수 있으며, 장치(400)로부터 수신된 제어 신호에 의해 동작할 수 있다.The weight measuring device 300 may be connected to the device 400 through a network, and may be operated by a control signal received from the device 400 .

장치(400)는 장치(400)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(400)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다.The device 400 may be a server owned by a person or organization that provides services using the device 400, may be a cloud server, or may be a peer-to-peer (p2p) set of distributed nodes. may be The device 400 may be configured to perform all or part of the arithmetic function, storage/reference function, input/output function, and control function of a normal computer.

장치(400)는 초음파 검사기(100)와 유무선으로 통신하도록 구성될 수 있으며, 초음파 검사기(100)를 통해 가축의 어느 부위에 대한 초음파 검사를 진행하여 이미지를 생성할 것인지에 대해 제어할 수 있고, 초음파 검사기(100)의 전체적인 동작을 제어할 수 있다.The device 400 may be configured to communicate with the ultrasound inspection device 100 by wire or wirelessly, and through the ultrasound inspection device 100, it is possible to control which part of the livestock to perform an ultrasound examination to generate an image, and Overall operation of the inspection device 100 may be controlled.

장치(400)는 카메라(200)와 유무선으로 통신하도록 구성될 수 있으며, 카메라(200)를 통해 축사 내의 어느 구역을 촬영하여 영상 정보를 생성할 것인지에 대해 제어할 수 있고, 카메라(200)의 전체적인 동작을 제어할 수 있다.The device 400 may be configured to communicate with the camera 200 by wire or wirelessly, and control which area in the barn is photographed through the camera 200 to generate image information, and the device 400 may control the overall You can control the action.

장치(400)는 중량 측정기(300)와 유무선으로 통신하도록 구성될 수 있으며, 중량 측정기(300)를 통해 가축의 무게를 측정하여 중량 정보를 생성할 것인지에 대해 제어할 수 있고, 중량 측정기(300)의 전체적인 동작을 제어할 수 있다.The device 400 may be configured to communicate with the weight measuring device 300 by wire or wirelessly, and may control whether to generate weight information by measuring the weight of livestock through the weight measuring device 300, and the weight measuring device 300 can control the entire operation of

일실시예에 따르면, 장치(400)는 초음파 검사기(100)를 통해 생성된 이미지를 획득하고, 획득된 이미지를 기초로, 해당 부위의 등급을 판단할 수 있다. 여기서, 등급은 품질을 나타내기 위한 등급으로, 근육이 차지하고 있는 비율과 지방이 차지하고 있는 비율을 통해 결정될 수 있고, ++1, +1, 1등급, 2등급, 3등급 등으로 구분될 수 있다. 등급이 높을수록 품질이 더 좋은 것으로 파악될 수 있고, 등급이 낮을수록 품질이 더 나쁜 것으로 파악될 수 있다.According to an embodiment, the device 400 may obtain an image generated by the ultrasound scanner 100 and determine a grade of a corresponding part based on the obtained image. Here, the grade is a grade to indicate quality, and can be determined through the ratio occupied by muscle and the ratio occupied by fat, and can be classified into ++1, +1, 1 grade, 2 grade, 3 grade, etc. . The higher the grade, the better the quality, and the lower the grade, the worse the quality.

예를 들어, 초음파 검사기(100)를 통해 가축의 등 부위에 대한 초음파 검사가 진행되면, 초음파 검사를 통해 근육이 차지하고 있는 비율과 지방이 차지하고 있는 비율을 각각 확인하여, 등 부위에 대한 등급이 판단될 수 있다. For example, when an ultrasonic test is performed on the back of a livestock through the ultrasonic inspection machine 100, the ratio occupied by muscle and the ratio occupied by fat are respectively confirmed through the ultrasound examination, and the grade for the back is determined. It can be.

즉, 가축의 특정 부위에 대한 등급의 변동을 추적하여, 가축의 성장 상태를 분석하고 모니터링 할 수 있다. 이와 관련된 자세한 설명은 도 2를 참조하여 후술하기로 한다.That is, it is possible to analyze and monitor the growth status of livestock by tracking the change in grade for a specific part of livestock. A detailed description related to this will be described later with reference to FIG. 2 .

상술한 바와 같이, 초음파 검사를 통해 가축의 특정 부위에 대한 등급이 판단될 수 있으며, 이외에도, MRI, X-ray, 3D 스캔 등을 통해 가축의 특정 부위에 대한 등급이 판단될 수도 있다.As described above, the grade for a specific part of livestock may be determined through ultrasound examination, and in addition, the grade for a specific part of livestock may be determined through MRI, X-ray, 3D scan, and the like.

일실시예에 따르면, 장치(400)는 카메라(200)로부터 가축을 촬영한 영상 정보를 획득하고, 획득된 영상 정보를 기초로, 가축의 특정 부위에 대한 사이즈가 어떻게 커지고 있는지를 모니터링 할 수 있다. 이때, 장치(400)는 사이즈가 커지는 것에 대해 유전적인 요인인지 또는 사육 방식에 따른 요인인지를 분석하여, 사육 방향을 판단할 수도 있다.According to one embodiment, the apparatus 400 may acquire image information of livestock photographed from the camera 200, and monitor how the size of a specific part of the livestock increases based on the obtained image information. . At this time, the device 400 may determine the breeding direction by analyzing whether the increase in size is a genetic factor or a factor according to a breeding method.

즉, 가축의 특정 부위에 대한 사이즈의 변동을 추적하여, 가축의 성장 상태를 분석하고 모니터링 할 수 있다. 이와 관련된 자세한 설명은 도 3을 참조하여 후술하기로 한다.That is, by tracking the change in the size of a specific part of the livestock, the growth state of the livestock can be analyzed and monitored. A detailed description related to this will be described later with reference to FIG. 3 .

일실시예에 따르면, 장치(400)는 특정 부위의 등급 변동 추세를 분석한 결과와 사이즈 변동 추세를 분석한 결과를 이용하여, 가축의 사육 방식을 어떻게 하는 것이 좋은지에 대해 분석해서 사육 방향을 판단할 수 있다.According to one embodiment, the apparatus 400 analyzes the breeding method of livestock using the result of analyzing the trend of grade change of a specific part and the result of analyzing the trend of size change, and determines the breeding direction. can do.

즉, 가축의 성장 상태를 분석하고 모니터링 한 결과, 향후 가축의 사육 방식을 어떻게 하는 것이 좋은지에 대해 분석하고 판단할 수 있다. 이와 관련된 자세한 설명은 도 4 내지 도 7을 참조하여 후술하기로 한다.That is, as a result of analyzing and monitoring the growth state of livestock, it is possible to analyze and determine how to best breed livestock in the future. A detailed description related to this will be described later with reference to FIGS. 4 to 7 .

도 2는 일실시예에 따른 초음파 검사를 통해 가축의 성장 상태를 분석하고 모니터링 하는 과정을 설명하기 위한 순서도이다.Figure 2 is a flow chart for explaining a process of analyzing and monitoring the growth state of livestock through ultrasonic inspection according to an embodiment.

도 2를 참조하면, 먼저, S201 단계에서, 장치(400)는 제1 시점에 초음파 검사기(100)를 이용하여 제1 가축의 제1 부위에 대한 초음파 검사가 진행되면, 제1 시점에 제1 가축의 제1 부위에 대한 초음파 검사를 통해 생성된 제1-1 이미지를 획득할 수 있다.Referring to FIG. 2, first, in step S201, when the ultrasound examination of the first part of the first livestock is performed using the ultrasound scanner 100 at a first time point, the device 400 performs a first step at a first time point. A 1-1 image generated through ultrasound examination of the first part of the livestock may be acquired.

구체적으로, 초음파 검사기(100)는 제1 시점에 제1 가축의 제1 부위에 대한 초음파 검사를 진행할 수 있고, 제1 시점에 진행된 제1 가축의 제1 부위에 대한 초음파 검사를 통해 제1-1 이미지를 생성할 수 있다.Specifically, the ultrasound scanner 100 may perform an ultrasound examination on the first part of the first livestock at a first time point, and through the ultrasound examination on the first part of the first livestock performed at the first time point, the first - 1 image can be created.

예를 들어, 초음파 검사기(100)는 특정 시점에 소의 등 부위에 대한 초음파 검사를 진행하여, 등 부위에 대한 초음파 이미지인 제1-1 이미지를 생성할 수 있다.For example, the ultrasound examination machine 100 may perform an ultrasound scan on the cow's back at a specific time point and generate a 1-1 image that is an ultrasound image of the cow's back.

장치(400)는 제1 시점에 진행된 제1 가축의 제1 부위에 대한 초음파 검사를 통해 제1-1 이미지가 생성되면, 초음파 검사기(100)로부터 제1-1 이미지를 획득할 수 있다.The apparatus 400 may acquire the 1-1 image from the ultrasound scanner 100 when the 1-1 image is generated through the ultrasound examination of the first part of the first domestic animal at the first time point.

본 발명에서, 제1 시점은 초음파 검사의 진행 시점부터 초음파 이미지의 획득 시점까지 포함하는 의미로 사용될 수 있다. 즉, 제1 시점에 초음파 검사기(100)는 초음파 검사를 진행하여 제1-1 이미지를 생성하고, 제1 시점에 장치(400)는 초음파 검사기(100)로부터 제1-1 이미지를 획득할 수 있다.In the present invention, the first point of time may be used as a meaning including from the time of ultrasound examination to the time of obtaining an ultrasound image. That is, at a first point in time, the ultrasound scanner 100 may perform an ultrasound scan to generate a 1-1 image, and at the first point in time, the device 400 may acquire the 1-1 image from the ultrasound scanner 100. have.

S202 단계에서, 장치(400)는 제1-1 이미지를 인코딩 하여 제1 입력 신호를 생성할 수 있다.In step S202, the apparatus 400 may generate a first input signal by encoding the 1-1 image.

구체적으로, 장치(400)는 제1-1 이미지의 픽셀을 색 정보로 인코딩 하여 제1 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보를 포함할 수 있으나, 이에 국한하지 않는다. 장치(400)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 이미지를 인코딩할 수 있다.Specifically, the device 400 may generate the first input signal by encoding the pixels of the 1-1 image as color information. Color information may include RGB color information, brightness information, and chroma information, but is not limited thereto. The apparatus 400 may convert color information into digitized values, and may encode an image in the form of a data sheet including these values.

S203 단계에서, 장치(400)는 제1 입력 신호를 장치(400) 내 미리 학습된 인공 신경망에 입력할 수 있다.In step S203 , the device 400 may input the first input signal to the artificial neural network trained in advance in the device 400 .

일실시예에 따르면, 인공 신경망은 컨볼루션 신경망으로 구현되어, 컨볼루션 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며, 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.According to an embodiment, the artificial neural network is implemented as a convolutional neural network, the convolutional neural network is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network sequentially stacks an input signal through a convolutional layer and a pooling layer. The convolution layer includes convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. As the activation function, a ReLU function, a sigmoid function, and a tanh function are generally used, but are not limited thereto. The pooling layer is a layer that reduces the matrix size of the input, and uses a method of extracting a representative value by grouping pixels in a specific area. The calculation of the pooling layer generally uses average values or maximum values, but is not limited thereto. The operation is performed using a square matrix, and a 9X9 matrix is generally used. The convolutional layer and the pooling layer are alternately repeated until the corresponding input is sufficiently small while maintaining the difference.

일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 품질에 따른 등급 분류를 위한 인공 신경망의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 품질에 따른 등급의 분류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 인공 신경망에 대한 자세한 설명은 도 11을 참조하여 후술한다.According to one embodiment, the classification neural network has a hidden layer and an output layer. Classification of Artificial Neural Network for Grade Classification According to Quality The neural network is composed of 5 or less hidden layers and may include a total of 50 or less hidden layer nodes. The activation function of the hidden layer uses, but is not limited to, a ReLU function, a sigmoid function, and a tanh function. There is a total of one output layer node of the classification neural network, and an output value for classification according to quality can be output to the output layer node. A detailed description of the artificial neural network will be described later with reference to FIG. 11 .

S204 단계에서, 장치(400)는 인공 신경망의 입력의 대한 결과에 기초하여, 인공 신경망의 출력값인 제1 출력 신호를 획득할 수 있다. 여기서, 제1 출력 신호는 제1 시점에 제1 부위의 등급이 어느 등급으로 분류되는지를 지시하는 출력값을 포함할 수 있다.In step S204, the apparatus 400 may obtain a first output signal that is an output value of the artificial neural network, based on a result of the input of the artificial neural network. Here, the first output signal may include an output value indicating to which grade the grade of the first part is classified at the first time point.

S205 단계에서, 장치(400)는 제1 출력 신호를 기초로, 제1 시점에 제1 부위의 등급을 제1 등급으로 설정할 수 있다.In step S205, the device 400 may set the grade of the first part as the first grade at the first time point based on the first output signal.

예를 들어, 장치(400)는 제1 출력 신호의 출력값을 확인한 결과, 출력값이 1인 경우, 제1 시점에 제1 부위의 등급이 1등급에 해당하는 것으로 파악하여 1등급을 제1 등급으로 설정할 수 있고, 출력값이 2인 경우, 제1 시점에 제1 부위의 등급이 2등급에 해당하는 것으로 파악하여 2등급을 제1 등급으로 설정할 수 있다.For example, as a result of checking the output value of the first output signal, when the output value is 1, the device 400 determines that the first part corresponds to the first level at the first time, and sets the first level to the first level. When the output value is 2, it is determined that the grade of the first part corresponds to the second grade at the first time point, and the second grade may be set as the first grade.

S206 단계에서, 장치(400)는 제2 시점에 초음파 검사기(100)를 이용하여 제1 가축의 제1 부위에 대한 초음파 검사가 진행되면, 제2 시점에 제1 가축의 제1 부위에 대한 초음파 검사를 통해 생성된 제1-2 이미지를 획득할 수 있다. 여기서, 제2 시점은 제1 시점으로부터 제1 기준 기간이 지난 후의 시점을 의미하고, 제1 기준 기간은 실시예에 따라 상이하게 설정될 수 있다. 예를 들어, 제1 시점은 1월 1일이고 제1 기준 기간이 10일로 설정되어 있는 경우, 제2 시점은 1월 11일일 수 있다.In step S206, the device 400 performs an ultrasound scan on the first part of the first livestock at the second time point, when the ultrasound scan is performed on the first part of the first livestock using the ultrasonic scanner 100 at the second time point. A first-second image generated through inspection may be acquired. Here, the second point in time means a time point after the first reference period has passed from the first point in time, and the first reference period may be set differently according to embodiments. For example, if the first time point is January 1st and the first reference period is set to 10th, the second time point may be January 11th.

구체적으로, 초음파 검사기(100)는 제2 시점에 제1 가축의 제1 부위에 대한 초음파 검사를 진행할 수 있고, 제2 시점에 진행된 제1 가축의 제1 부위에 대한 초음파 검사를 통해 제1-2 이미지를 생성할 수 있다.Specifically, the ultrasound scanner 100 may perform an ultrasound examination on the first part of the first livestock at a second time point, and through the ultrasound examination on the first part of the first livestock performed at the second time point, the first - 2 images can be created.

장치(400)는 제2 시점에 진행된 제1 가축의 제1 부위에 대한 초음파 검사를 통해 제1-2 이미지가 생성되면, 초음파 검사기(100)로부터 제1-2 이미지를 획득할 수 있다.The apparatus 400 may obtain the first-second image from the ultrasound examination machine 100 when the first-second image is generated through the ultrasound examination of the first part of the first livestock performed at the second time point.

본 발명에서, 제2 시점은 초음파 검사의 진행 시점부터 초음파 이미지의 획득 시점까지 포함하는 의미로 사용될 수 있다. 즉, 제2 시점에 초음파 검사기(100)는 초음파 검사를 진행하여 제1-2 이미지를 생성하고, 제2 시점에 장치(400)는 초음파 검사기(100)로부터 제1-2 이미지를 획득할 수 있다.4In the present invention, the second point of view may be used as a meaning including from a point in time of ultrasound examination to a point in time of obtaining an ultrasound image. That is, at a second time point, the ultrasound scanner 100 may perform an ultrasound scan to generate a 1-2 image, and at the second time point, the device 400 may acquire the 1-2 image from the ultrasound scan device 100. there is 4

S207 단계에서, 장치(400)는 제1-2 이미지를 인코딩 하여 제2 입력 신호를 생성할 수 있다.In step S207, the apparatus 400 may generate a second input signal by encoding the 1-2 images.

S208 단계에서, 장치(400)는 제2 입력 신호를 장치(400) 내 미리 학습된 인공 신경망에 입력할 수 있다.In step S208 , the device 400 may input the second input signal to the artificial neural network trained in advance in the device 400 .

S209 단계에서, 장치(400)는 인공 신경망의 입력의 대한 결과에 기초하여, 인공 신경망의 출력값인 제2 출력 신호를 획득할 수 있다.In step S209 , the apparatus 400 may obtain a second output signal, which is an output value of the artificial neural network, based on a result of the input of the artificial neural network.

S210 단계에서, 장치(400)는 제2 출력 신호를 기초로, 제2 시점에 제1 부위의 등급을 제2 등급으로 설정할 수 있다.In step S210, the device 400 may set the grade of the first part to a second grade at a second time point based on the second output signal.

S211 단계에서, 장치(400)는 제1 등급 및 제2 등급을 비교하여, 제1 기준 기간 동안 제1 부위의 등급 변동 추세를 분석할 수 있다.In step S211, the device 400 may compare the first grade and the second grade to analyze a grade change trend of the first part during the first reference period.

즉, 제1 등급은 제1 시점에 제1 부위의 등급을 나타내는 것이고, 제2 등급은 제2 시점에 제1 부위의 등급을 나타내는 것이므로, 장치(400)는 제1 등급 및 제2 등급을 비교하여, 제1 시점부터 제2 시점까지 제1 부위의 등급이 어떻게 변동하였는지에 대해 변동 추세를 분석할 수 있다.That is, since the first grade indicates the grade of the first part at the first time point and the second grade indicates the grade of the first part at the second time point, the device 400 compares the first grade and the second grade. Thus, it is possible to analyze the change trend of how the grade of the first part has changed from the first time point to the second time point.

도 3은 일실시예에 따른 사이즈 추적을 통해 가축의 성장 상태를 분석하고 모니터링 하는 과정을 설명하기 위한 순서도이다.3 is a flowchart illustrating a process of analyzing and monitoring the growth state of livestock through size tracking according to an embodiment.

도 3을 참조하면, 먼저, S301 단계에서, 장치(400)는 카메라(200)가 제1 가축에 대한 촬영을 수행하고 있는 경우, 카메라(200)로부터 제1 가축의 촬영으로 생성된 3D 영상인 제1 영상 정보를 획득할 수 있다. 이때, 제1 영상 정보는 제1 가축에 대한 촬영을 통해 3D 영상으로 생성될 수 있다.Referring to FIG. 3 , first, in step S301, when the camera 200 is photographing the first livestock, the device 400 displays a 3D image generated by photographing the first livestock from the camera 200. First image information may be obtained. In this case, the first image information may be generated as a 3D image by photographing the first livestock.

즉, 카메라(200)가 제1 가축이 있는 축사에 설치되면, 카메라(200)는 제1 가축에 대한 촬영을 수행하여 제1 영상 정보를 생성할 수 있고, 장치(400)는 제1 영상 정보가 생성되면, 카메라(200)로부터 제1 영상 정보를 획득할 수 있다.That is, when the camera 200 is installed in a barn where the first livestock is located, the camera 200 may generate first image information by capturing the first livestock, and the device 400 may generate the first image information. When is generated, first image information may be obtained from the camera 200 .

S302 단계에서, 장치(400)는 제1 영상 정보에서 제1 시점에 획득된 영상의 이미지를 제2-1 이미지로 추출할 수 있다. 이때, 제1 영상 정보가 3D 영상이기 때문에, 제2-1 이미지는 3D 이미지로 추출될 수 있다.In step S302, the device 400 may extract an image of an image obtained at a first viewpoint from the first image information as a 2-1 image. In this case, since the first image information is a 3D image, the 2-1 image may be extracted as a 3D image.

구체적으로, 장치(400)는 제1 시점 이전부터 카메라(200)로부터 제1 영상 정보를 획득하고 있는데, 제1 시점에 초음파 검사기(100)로부터 제1-1 이미지가 획득되면, 제1-1 이미지가 획득된 시점을 제1 시점으로 파악할 수 있고, 제1 영상 정보에서 제1 시점에 획득된 영상의 이미지를 제2-1 이미지로 추출할 수 있다.Specifically, the device 400 acquires the first image information from the camera 200 before the first point in time, and when the 1-1 image is acquired from the ultrasound scanner 100 at the first point in time, the first A point in time when the image was obtained may be determined as a first point of view, and an image of an image obtained at the first point in time may be extracted from the first image information as a 2-1 image.

S303 단계에서, 장치(400)는 제2-1 이미지에서 제1 부위가 차지하고 있는 영역을 제1 영역으로 구분할 수 있다. 이때, 제2-1 이미지가 3D 이미지이기 때문에, 제1 영역은 3차원 공간으로 구분될 수 있다.In step S303, the device 400 may classify an area occupied by the first part in the 2-1 image as a first area. At this time, since the 2-1 image is a 3D image, the first area may be divided into a 3D space.

즉, 장치(400)는 제2-1 이미지에 기초하여, 제1 가축의 각 부위를 인식할 수 있고, 제1 가축의 각 부위가 차지하고 있는 영역을 각각의 영역으로 구분할 수 있다.That is, the device 400 may recognize each part of the first livestock based on the 2-1 image, and divide the area occupied by each part of the first livestock into each region.

S304 단계에서, 장치(400)는 제1 영역의 크기를 통해 제1 영역의 부피를 산출할 수 있다.In step S304, the device 400 may calculate the volume of the first region through the size of the first region.

즉, 장치(400)는 제2-1 이미지에 기초하여, 제1 가축의 각 부위가 차지하고 있는 영역이 구분되면, 각각의 구분된 영역의 부피를 산출할 수 있다.That is, when the regions occupied by each part of the first livestock are divided based on the 2-1 image, the apparatus 400 may calculate the volume of each divided region.

장치(400)는 제1 영역의 부피를 산출할 때, 제2-1 이미지에서 레퍼런스 객체가 차지하고 있는 영역을 기준 영역으로 구분하고, 기준 영역과 제1 영역의 크기를 비교하여, 제1 영역의 부피를 산출할 수 있다. 여기서, 레퍼런스 객체는 부피를 산출하는데 사용되기 위해 제1 가축과 인접한 장소에 배치될 수 있다.When calculating the volume of the first region, the apparatus 400 classifies the region occupied by the reference object in the 2-1 image as the reference region, compares the sizes of the reference region and the first region, and determines the size of the first region. volume can be calculated. Here, the reference object may be placed adjacent to the first livestock to be used to calculate the volume.

구체적으로, 카메라(200)는 제1 가축과 레퍼런스 객체를 함께 촬영을 수행하여 제1 영상 정보를 생성할 수 있고, 장치(400)는 제1 가축과 레퍼런스 객체를 함께 촬영하여 생성된 제1 영상 정보를 획득할 수 있다.Specifically, the camera 200 may generate first image information by photographing the first livestock and the reference object together, and the device 400 may generate the first image generated by photographing the first livestock and the reference object together. information can be obtained.

이후, 장치(400)는 제1 영상 정보에서 제1 시점에 획득된 영상의 이미지를 제2-1 이미지로 추출할 수 있으며, 제2-1 이미지에서 제1 부위가 차지하고 있는 영역을 제1 영역으로 구분하고 레퍼런스 객체가 차지하고 있는 영역을 기준 영역으로 구분할 수 있다.Thereafter, the device 400 may extract the image of the image acquired at the first point of view from the first image information as the 2-1 image, and the area occupied by the first part in the 2-1 image is the first area. , and the area occupied by the reference object can be classified as the reference area.

이후, 장치(400)는 제1 영역의 크기, 기준 영역의 크기 및 레퍼런스 객체의 실제 크기를 기반으로, 제1 영역의 부피를 추정하여 산출할 수 있다.Then, the apparatus 400 may estimate and calculate the volume of the first region based on the size of the first region, the size of the reference region, and the actual size of the reference object.

즉, 장치(400)는 기준 영역의 크기 및 레퍼런스 객체의 실제 크기의 비율인 기준 비율을 산출하고, 제1 영역의 크기에 기준 비율을 적용하여, 제1 영역의 부피를 산출할 수 있다.That is, the apparatus 400 may calculate a reference ratio, which is a ratio between the size of the reference area and the actual size of the reference object, and apply the reference ratio to the size of the first area to calculate the volume of the first area.

예를 들어, 제1 영역의 크기가 20 cm3이고, 기준 영역의 크기가 10 cm3이고, 레퍼런스 객체의 실제 크기가 15 cm3인 경우, 장치(400)는 기준 영역의 크기 및 레퍼런스 객체의 실제 크기를 이용하여 기준 비율을 1.5로 산출하고, 제1 영역의 크기에 기준 비율을 적용하여, 제1 영역의 부피를 30 cm3으로 산출할 수 있다.For example, when the size of the first area is 20 cm 3 , the size of the reference area is 10 cm 3 , and the actual size of the reference object is 15 cm 3 , the device 400 determines the size of the reference area and the reference object. The volume of the first region may be calculated as 30 cm 3 by calculating the reference ratio as 1.5 using the actual size and applying the reference ratio to the size of the first region.

S305 단계에서, 장치(400)는 제1 영역의 크기를 통해 제1 영역의 부피를 산출한 결과, 제1 영역의 부피가 제1 부피로 산출된 것을 확인할 수 있다.In step S305 , the apparatus 400 may determine that the volume of the first region is calculated as the first volume as a result of calculating the volume of the first region through the size of the first region.

S306 단계에서, 장치(400)는 제1 영역의 부피가 제1 부피로 산출되면, 제1 시점에 제1 부위의 부피를 제1 부피로 설정할 수 있다.In step S306, when the volume of the first region is calculated as the first volume, the device 400 may set the volume of the first part as the first volume at a first time point.

S307 단계에서, 장치(400)는 제1 영상 정보에서 제2 시점에 획득된 영상의 이미지를 제2-2 이미지로 추출할 수 있다. 이때, 제1 영상 정보가 3D 영상이기 때문에, 제2-2 이미지는 3D 이미지로 추출될 수 있다.In step S307, the device 400 may extract an image of an image acquired at a second viewpoint from the first image information as a 2-2 image. At this time, since the first image information is a 3D image, the 2-2 image may be extracted as a 3D image.

구체적으로, 장치(400)는 제1 시점 이전부터 카메라(200)로부터 제1 영상 정보를 획득하고 있는데, 제2 시점에 초음파 검사기(100)로부터 제1-2 이미지가 획득되면, 제1-2 이미지가 획득된 시점을 제2 시점으로 파악할 수 있고, 제1 영상 정보에서 제2 시점에 획득된 영상의 이미지를 제2-2 이미지로 추출할 수 있다.Specifically, the device 400 acquires the first image information from the camera 200 before the first point of view, and when the first-2nd image is acquired from the ultrasound scanner 100 at the second point of view, the first-2nd image information is acquired. A point in time when the image was obtained may be recognized as a second point of view, and an image of an image obtained at the second point in time may be extracted from the first image information as a 2-2 image.

S308 단계에서, 장치(400)는 제2-2 이미지에서 제1 부위가 차지하고 있는 영역을 제2 영역으로 구분할 수 있다. 이때, 제2-2 이미지가 3D 이미지이기 때문에, 제2 영역은 3차원 공간으로 구분될 수 있다.In step S308, the device 400 may classify the area occupied by the first part as a second area in the 2-2 image. At this time, since the 2-2 image is a 3D image, the second region may be divided into a 3D space.

S309 단계에서, 장치(400)는 제2 영역의 크기를 통해 제2 영역의 부피를 산출할 수 있다.In step S309, the device 400 may calculate the volume of the second region through the size of the second region.

S310 단계에서, 장치(400)는 제2 영역의 크기를 통해 제2 영역의 부피를 산출한 결과, 제2 영역의 부피가 제2 부피로 산출된 것을 확인할 수 있다.In step S310 , the apparatus 400 may determine that the volume of the second region is calculated as the second volume as a result of calculating the volume of the second region through the size of the second region.

S311 단계에서, 장치(400)는 제2 영역의 부피가 제2 부피로 산출되면, 제2 시점에 제1 부위의 부피를 제2 부피로 설정할 수 있다.In step S311, when the volume of the second region is calculated as the second volume, the device 400 may set the volume of the first part to the second volume at a second time point.

S312 단계에서, 장치(400)는 제1 부피 및 제2 부피를 비교하여, 제1 기준 기간 동안 제1 부위의 사이즈 변동 추세를 분석할 수 있다.In step S312 , the device 400 may compare the first volume and the second volume to analyze a size change trend of the first part during the first reference period.

즉, 제1 부피는 제1 시점에 제1 부위의 부피를 나타내는 것이고, 제2 부피는 제2 시점에 제1 부위의 부피를 나타내는 것이므로, 장치(400)는 제1 부위 및 제2 부위를 비교하여, 제1 시점부터 제2 시점까지 제1 부위의 사이즈가 어떻게 변동하였는지에 대해 변동 추세를 분석할 수 있다.That is, since the first volume represents the volume of the first region at the first time point and the second volume represents the volume of the first region at the second time point, the device 400 compares the first region and the second region. Thus, it is possible to analyze the change trend of how the size of the first part changes from the first time point to the second time point.

도 4는 일실시예에 따른 가축의 성장 상태를 분석한 결과를 통해 가축의 사육 방식을 판단하는 과정을 설명하기 위한 순서도이다.4 is a flowchart illustrating a process of determining a breeding method of livestock based on a result of analyzing a growth state of livestock according to an embodiment.

도 4를 참조하면, 먼저, S401 단계에서, 장치(400)는 제1 기준 기간 동안 제1 부위의 사이즈 변동 추세를 분석한 결과, 제2 부피에서 제1 부피를 차감하여, 제3 부피를 산출할 수 있다. 여기서, 제3 부피는 제1 기준 기간 동안 제1 부위의 사이즈가 커져 변동된 수치를 의미할 수 있다.Referring to FIG. 4 , first, in step S401, the apparatus 400 calculates a third volume by subtracting the first volume from the second volume as a result of analyzing the size change trend of the first part during the first reference period. can do. Here, the third volume may refer to a value changed due to an increase in the size of the first part during the first reference period.

S402 단계에서, 장치(400)는 제1 기준 기간 동안 제1 부위의 평균 변동 수치로 설정되어 있는 제4 부피를 확인할 수 있다. 이를 위해, 장치(400)의 데이터베이스에는 부위별 및 기간별로 구분되어 있는 평균 변동 수치에 대한 정보가 저장되어 있다.In step S402, the device 400 may check the fourth volume set as the average change value of the first part during the first reference period. To this end, the database of the device 400 stores information on average fluctuation values classified by region and period.

예를 들어, 제1 기준 기간이 1개월이고 제1 부위가 등 부위인 경우, 장치(400)는 데이터베이스에 저장된 정보를 조회하여, 1개월 동안 제1 부위가 평균적으로 커지는 것으로 설정되어 있는 평균 변동 수치를 확인할 수 있고, 확인된 평균 변동 수치를 제4 부피로 확인할 수 있다.For example, when the first reference period is 1 month and the first part is the back, the device 400 searches information stored in the database, and the average change is set as the average increase in the first part during 1 month. The numerical value can be confirmed, and the identified average fluctuation value can be identified as the fourth volume.

S403 단계에서, 장치(400)는 제3 부피에서 제4 부피를 차감하여, 제5 부피를 산출할 수 있다.In step S403 , the apparatus 400 may calculate a fifth volume by subtracting the fourth volume from the third volume.

S404 단계에서, 장치(400)는 제5 부피가 기준 범위 내에 포함되는지 여부를 확인할 수 있다. 여기서, 기준 범위는 실시예에 따라 상이하게 설정될 수 있다.In step S404, the device 400 may check whether the fifth volume is included in the reference range. Here, the reference range may be set differently according to embodiments.

S404 단계에서 제5 부피가 기준 범위 내에 포함되어 있는 것으로 확인되면, S501 단계가 수행될 수 있으며, 이와 관련된 자세한 설명은 도 5를 참조하여 후술하기로 한다.If it is confirmed in step S404 that the fifth volume is included within the reference range, step S501 may be performed, and a detailed description related to this will be described later with reference to FIG. 5 .

예를 들어, 기준 범위가 -10cm3 ~ 10cm3으로 설정되어 있는데, 제5 부피가 5cm3으로 산출되면, 장치(400)는 제5 부피가 기준 범위 내에 포함되어 있는 것으로 확인할 수 있다.For example, if the reference range is set to -10 cm 3 to 10 cm 3 and the fifth volume is calculated as 5 cm 3 , the device 400 may confirm that the fifth volume is included in the reference range.

S404 단계에서 제5 부피가 기준 범위를 벗어나는 것으로 확인되면, S405 단계에서, 장치(400)는 제5 부피가 기준 범위의 최대값 보다 큰지 여부를 확인할 수 있다.If it is confirmed that the fifth volume is out of the reference range in step S404, in step S405, the device 400 may determine whether the fifth volume is greater than the maximum value of the reference range.

S405 단계에서 제5 부피가 기준 범위의 최대값 보다 큰 것으로 확인되면, S601 단계가 수행될 수 있으며, 이와 관련된 자세한 설명은 도 6을 참조하여 후술하기로 한다.If it is confirmed in step S405 that the fifth volume is greater than the maximum value of the reference range, step S601 may be performed, and a detailed description related to this will be described later with reference to FIG. 6 .

S405 단계에서 제5 부피가 기준 범위의 최대값 보다 작은 것으로 확인되면, 제5 부피가 기준 범위를 벗어나 있기 때문에, 제5 부피가 기준 범위의 최소값 보다 작은 것으로 확인될 수 있으며, S405 단계에서 제5 부피가 기준 범위의 최소값 보다 작은 것으로 확인되면, S701 단계가 수행될 수 있으며, 이와 관련된 자세한 설명은 도 7을 참조하여 후술하기로 한다.If it is determined in step S405 that the fifth volume is smaller than the maximum value of the standard range, since the fifth volume is out of the standard range, it can be confirmed that the fifth volume is smaller than the minimum value of the standard range, and in step S405 the fifth volume is smaller than the minimum value of the standard range. If it is confirmed that the volume is smaller than the minimum value of the reference range, step S701 may be performed, and a detailed description related to this will be described later with reference to FIG. 7 .

도 5는 일실시예에 따른 제5 부피가 기준 범위 내에 포함되는 것으로 확인된 경우, 가축의 사육 방식을 판단하는 과정을 설명하기 위한 순서도이다.5 is a flowchart illustrating a process of determining a breeding method of livestock when it is confirmed that a fifth volume is included within a reference range according to an embodiment.

도 5를 참조하면, S501 단계에서, 장치(400)는 제5 부피가 기준 범위 내에 포함되는 것으로 확인된 경우, 제1 기준 기간 동안 제1 부위의 등급 변동 추세를 분석한 결과, 제2 등급이 제1 등급 보다 더 높은 등급인지 여부를 확인할 수 있다.Referring to FIG. 5 , in step S501, when it is confirmed that the fifth volume is within the reference range, the device 400 analyzes the trend of grade change in the first part during the first reference period, and as a result, the second grade is obtained. It is possible to check whether the level is higher than the first level.

S501 단계에서 제2 등급이 제1 등급 보다 더 높은 등급으로 확인되면, S503 단계에서, 장치(400)는 제1 가축의 사육 방식에 대한 현행 유지가 필요한 것으로 판단할 수 있다.If the second grade is confirmed to be higher than the first grade in step S501, in step S503, the apparatus 400 may determine that the current maintenance of the breeding method of the first livestock is necessary.

즉, 장치(400)는 제1 기준 기간 동안 제1 부위의 사이즈가 평균치만큼 커지면서, 제1 부위의 등급이 상승한 것으로 확인되면, 제1 가축의 사육 방식에 대한 현행 유지가 필요한 것으로 판단할 수 있다.That is, when it is confirmed that the grade of the first part increases as the size of the first part increases by the average value during the first reference period, the apparatus 400 may determine that the current maintenance of the breeding method of the first livestock is necessary. .

S501 단계에서 제2 등급이 제1 등급 보다 더 높지 않은 등급으로 확인되면, S502 단계에서, 장치(400)는 제1 등급과 제2 등급이 동일한 등급인지 여부를 확인할 수 있다.If the second grade is determined to be a grade not higher than the first grade in step S501, the device 400 may determine whether the first grade and the second grade are the same grade in step S502.

S502 단계에서 제1 등급과 제2 등급이 동일한 등급으로 확인되면, S504 단계에서, 장치(400)는 제1 가축에 대한 비육사료의 추가 지급이 필요한 것으로 판단할 수 있다.In step S502, if the first grade and the second grade are determined to be the same grade, in step S504, the apparatus 400 may determine that additional payment of feed for the first livestock is required.

즉, 장치(400)는 제1 기준 기간 동안 제1 부위의 사이즈가 평균치만큼 커지면서, 제1 부위의 등급이 유지된 것으로 확인되면, 등급 상승을 위해 제1 가축에 대한 비육사료의 추가 지급이 필요한 것으로 판단할 수 있다.That is, when the apparatus 400 determines that the grade of the first part is maintained while the size of the first part increases by the average value during the first reference period, additional payment of fattening feed for the first livestock is required to increase the grade. can be judged to be

S502 단계에서 제1 등급과 제2 등급이 동일한 등급으로 확인되지 않으면, 제2 등급이 제1 등급 보다 더 낮은 등급으로 확인될 수 있으며, S502 단계에서 제2 등급이 제1 등급 보다 더 낮은 등급으로 확인되면, S504 단계에서, 장치(400)는 제1 가축에 대한 비육사료의 추가 지급이 필요한 것으로 판단할 수 있다.If the first grade and the second grade are not identified as the same grade in step S502, the second grade may be identified as a lower grade than the first grade, and the second grade may be identified as a lower grade than the first grade in step S502. If confirmed, in step S504, the device 400 may determine that additional payment of the fattening feed for the first livestock is necessary.

즉, 장치(400)는 제1 기준 기간 동안 제1 부위의 사이즈가 평균치만큼 커지면서, 제1 부위의 등급이 하락한 것으로 확인되면, 등급 상승을 위해 제1 가축에 대한 비육사료의 추가 지급이 필요한 것으로 판단할 수 있다.That is, when the apparatus 400 determines that the grade of the first part has decreased as the size of the first part increases by the average value during the first reference period, additional payment of fattening feed for the first livestock is required to increase the grade. can judge

도 6은 일실시예에 따른 제5 부피가 기준 범위의 최대값 보다 큰 것으로 확인된 경우, 가축의 사육 방식을 판단하는 과정을 설명하기 위한 순서도이다.6 is a flowchart illustrating a process of determining a breeding method of livestock when it is confirmed that a fifth volume is greater than the maximum value of the reference range according to an embodiment.

도 6을 참조하면, S601 단계에서, 장치(400)는 제5 부피가 기준 범위를 벗어나 기준 범위의 최대값 보다 큰 것으로 확인된 경우, 제1 기준 기간 동안 제1 부위의 등급 변동 추세를 분석한 결과, 제2 등급이 제1 등급 보다 더 높은 등급인지 여부를 확인할 수 있다.Referring to FIG. 6, in step S601, when it is determined that the fifth volume is out of the reference range and greater than the maximum value of the reference range, the device 400 analyzes the grade change trend of the first part during the first reference period. As a result, it can be confirmed whether the second grade is a higher grade than the first grade.

S601 단계에서 제2 등급이 제1 등급 보다 더 높은 등급으로 확인되면, S603 단계에서, 장치(400)는 제1 가축의 사육 방식에 대한 현행 유지가 필요한 것으로 판단할 수 있다.If the second grade is confirmed to be higher than the first grade in step S601, in step S603, the device 400 may determine that it is necessary to maintain the current breeding method of the first livestock.

즉, 장치(400)는 제1 기준 기간 동안 제1 부위의 사이즈가 평균치 보다 더 많이 커지면서, 제1 부위의 등급이 상승한 것으로 확인되면, 제1 가축의 사육 방식에 대한 현행 유지가 필요한 것으로 판단할 수 있다.That is, when it is confirmed that the grade of the first part increases as the size of the first part increases more than the average value during the first reference period, the apparatus 400 determines that the current maintenance of the breeding method of the first livestock is necessary. can

S601 단계에서 제2 등급이 제1 등급 보다 더 높지 않은 등급으로 확인되면, S602 단계에서, 장치(400)는 제1 등급과 제2 등급이 동일한 등급인지 여부를 확인할 수 있다.If the second grade is determined to be a grade not higher than the first grade in step S601, the device 400 may determine whether the first grade and the second grade are the same grade in step S602.

S602 단계에서 제1 등급과 제2 등급이 동일한 등급으로 확인되면, S604 단계에서, 장치(400)는 제1 가축의 사육 방식에 대한 현행 유지가 필요한 것으로 판단할 수 있다.If the first grade and the second grade are determined to be the same grade in step S602, in step S604, the device 400 may determine that the current maintenance of the breeding method of the first livestock is necessary.

즉, 장치(400)는 제1 기준 기간 동안 제1 부위의 사이즈가 평균치 보다 더 많이 커지면서, 제1 부위의 등급이 유지된 것으로 확인되면, 제1 가축의 사육 방식에 대한 현행 유지가 필요한 것으로 판단할 수 있다.That is, when the apparatus 400 determines that the size of the first part increases more than the average value during the first reference period and the grade of the first part is maintained, it is determined that the current maintenance of the breeding method of the first livestock is necessary. can do.

S602 단계에서 제1 등급과 제2 등급이 동일한 등급으로 확인되지 않으면, 제2 등급이 제1 등급 보다 더 낮은 등급으로 확인될 수 있으며, S602 단계에서 제2 등급이 제1 등급 보다 더 낮은 등급으로 확인되면, S604 단계에서, 장치(400)는 제1 가축에 대한 비육사료의 추가 지급이 필요한 것으로 판단할 수 있다.If the first grade and the second grade are not identified as the same grade in step S602, the second grade may be identified as a lower grade than the first grade, and the second grade may be identified as a lower grade than the first grade in step S602. If confirmed, in step S604, the device 400 may determine that additional payment of the fattening feed for the first livestock is necessary.

즉, 장치(400)는 제1 기준 기간 동안 제1 부위의 사이즈가 평균치 보다 더 많이 커졌지만, 제1 부위의 등급이 하락한 것으로 확인되면, 등급 상승을 위해 제1 가축에 대한 비육사료의 추가 지급이 필요한 것으로 판단할 수 있다.That is, if the device 400 determines that the size of the first part has increased more than the average value during the first reference period, but the grade of the first part has decreased, the apparatus 400 additionally provides fattening feed for the first livestock to increase the grade. This can be judged necessary.

도 7은 일실시예에 따른 제5 부피가 기준 범위의 최소값 보다 작은 것으로 확인된 경우, 가축의 사육 방식을 판단하는 과정을 설명하기 위한 순서도이다.7 is a flowchart illustrating a process of determining a breeding method of livestock when it is confirmed that a fifth volume is smaller than the minimum value of the reference range according to an embodiment.

도 7을 참조하면, S701 단계에서, 장치(400)는 제5 부피가 기준 범위를 벗어나 기준 범위의 최소값 보다 작은 것으로 확인된 경우, 제1 기준 기간 동안 제1 부위의 등급 변동 추세를 분석한 결과, 제2 등급이 제1 등급 보다 더 높은 등급인지 여부를 확인할 수 있다.Referring to FIG. 7 , in step S701, when it is determined that the fifth volume is out of the reference range and smaller than the minimum value of the reference range, the result of analyzing the grade change trend of the first part during the first reference period , it is possible to determine whether the second grade is a higher grade than the first grade.

S701 단계에서 제2 등급이 제1 등급 보다 더 높은 등급으로 확인되면, S703 단계에서, 장치(400)는 제1 가축의 사육 방식에 대한 변경이 필요한 것으로 판단할 수 있다.If the second grade is confirmed to be higher than the first grade in step S701, in step S703, the device 400 may determine that the breeding method of the first livestock needs to be changed.

즉, 장치(400)는 제1 기준 기간 동안 제1 부위의 등급이 상승하더라도, 제1 부위의 사이즈가 평균치 보다 더 적게 커진 것으로 확인되면, 제1 가축의 사육 방식에 대한 변경이 필요한 것으로 판단할 수 있다.That is, if it is confirmed that the size of the first part has increased less than the average value even though the grade of the first part increases during the first reference period, the apparatus 400 determines that the breeding method of the first livestock needs to be changed. can

S701 단계에서 제2 등급이 제1 등급 보다 더 높지 않은 등급으로 확인되면, S702 단계에서, 장치(400)는 제1 등급과 제2 등급이 동일한 등급인지 여부를 확인할 수 있다.In step S701, if the second grade is determined to be a grade not higher than the first grade, in step S702, the device 400 may determine whether the first grade and the second grade are the same grade.

S702 단계에서 제1 등급과 제2 등급이 동일한 등급으로 확인되면, S704 단계에서, 장치(400)는 제1 가축의 사육 방식에 대한 변경이 필요한 것으로 판단할 수 있다.In step S702, if the first grade and the second grade are determined to be the same grade, in step S704, the apparatus 400 may determine that a change in the breeding method of the first livestock is required.

즉, 장치(400)는 제1 기준 기간 동안 제1 부위의 사이즈가 평균치 보다 더 적게 커지면서, 제1 부위의 등급이 유지된 것으로 확인되면, 제1 가축의 사육 방식에 대한 변경이 필요한 것으로 판단할 수 있다.That is, when it is confirmed that the size of the first part increases less than the average value during the first reference period and the grade of the first part is maintained, the apparatus 400 determines that a change in the breeding method of the first livestock is necessary. can

S702 단계에서 제1 등급과 제2 등급이 동일한 등급으로 확인되지 않으면, 제2 등급이 제1 등급 보다 더 낮은 등급으로 확인될 수 있으며, S702 단계에서 제2 등급이 제1 등급 보다 더 낮은 등급으로 확인되면, S704 단계에서, 장치(400)는 제1 가축의 사육을 유지할 것인지에 대한 결정이 필요한 것으로 판단할 수 있다.In step S702, if the first grade and the second grade are not identified as the same grade, the second grade may be identified as a lower grade than the first grade, and the second grade may be identified as a lower grade than the first grade in step S702. If confirmed, in step S704, the device 400 may determine that it is necessary to determine whether to maintain breeding of the first livestock.

즉, 장치(400)는 제1 기준 기간 동안 제1 부위의 사이즈가 평균치 보다 더 적게 커지면서, 제1 부위의 등급이 하락한 것으로 확인되면, 제1 가축의 사육을 유지할 것인지에 대한 결정이 필요한 것으로 판단할 수 있다. 제1 가축의 사육을 유지할 것인지에 대해 결정하는 구체적인 내용은 도 8 내지 도 9를 참조하여 후술하기로 한다.That is, when it is confirmed that the grade of the first part decreases as the size of the first part increases less than the average value during the first reference period, the apparatus 400 determines that it is necessary to decide whether to maintain breeding of the first livestock. can Details of determining whether or not to maintain breeding of the first livestock will be described later with reference to FIGS. 8 and 9 .

도 5 내지 도 7에 도시된 바와 같이, 제1 가축의 사육 방식을 어떻게 하는 것이 좋은지에 대해 판단되면, 장치(400)는 제1 가축을 사육하는 사육자를 확인하고, 확인된 사육자에게 판단 결과를 통보할 수 있다. 이때, 장치(400)는 판단 결과에 대한 알림 메시지를 사육자 단말로 전송할 수 있다.As shown in FIGS. 5 to 7 , when it is determined how to breed the first livestock, the apparatus 400 identifies the breeder who breeds the first livestock, and sends the determination result to the identified breeder. can notify At this time, the device 400 may transmit a notification message for the determination result to the breeder terminal.

도 8은 일실시예에 따른 향후 성장할 것으로 예상되는 부위에 대한 가격을 산출하는 과정을 설명하기 위한 순서도이다.8 is a flowchart illustrating a process of calculating a price for a part expected to grow in the future according to an embodiment.

도 8을 참조하면, 먼저, S801 단계에서, 장치(400)는 제1 시점에 중량 측정기(300)를 이용하여 제1 가축의 중량이 측정되면, 제1 시점에 제1 가축의 중량을 측정하여 생성된 제1 중량에 대한 정보를 획득할 수 있다.Referring to FIG. 8, first, in step S801, when the weight of the first livestock is measured using the weight measuring device 300 at a first time, the device 400 measures the weight of the first livestock at a first time, Information on the generated first weight may be obtained.

구체적으로, 중량 측정기(300)는 제1 시점에 제1 가축의 중량을 측정하여 제1 중량에 대한 정보를 생성할 수 있다. 여기서, 제1 중량에 대한 정보는 제1 시점에 측정된 제1 가축의 중량 정보이다.Specifically, the weight measuring device 300 may generate information about the first weight by measuring the weight of the first livestock at the first time point. Here, the information on the first weight is information on the weight of the first livestock measured at the first point in time.

장치(400)는 제1 중량에 대한 정보가 생성되면, 중량 측정기(300)로부터 제1 중량에 대한 정보를 획득할 수 있다.When information on the first weight is generated, the device 400 may obtain information on the first weight from the weight measuring device 300 .

S802 단계에서, 장치(400)는 제2 시점에 중량 측정기(300)를 이용하여 제1 가축의 중량이 측정되면, 제2 시점에 제1 가축의 중량을 측정하여 생성된 제2 중량에 대한 정보를 획득할 수 있다.In step S802, when the weight of the first livestock is measured using the weighing device 300 at a second time point, the device 400 measures the weight of the first livestock at a second time point and generates information about the second weight. can be obtained.

구체적으로, 중량 측정기(300)는 제2 시점에 제1 가축의 중량을 측정하여 제2 중량에 대한 정보를 생성할 수 있다. 여기서, 제2 중량에 대한 정보는 제2 시점에 측정된 제1 가축의 중량 정보이다.Specifically, the weight measuring device 300 may measure the weight of the first livestock at a second time point to generate information about the second weight. Here, the information on the second weight is information on the weight of the first livestock measured at the second time point.

장치(400)는 제2 중량에 대한 정보가 생성되면, 중량 측정기(300)로부터 제2 중량에 대한 정보를 획득할 수 있다.When information on the second weight is generated, the device 400 may obtain information on the second weight from the weight measuring device 300 .

S803 단계에서, 장치(400)는 제1 중량 및 제2 중량을 비교하여, 제1 기준 기간 동안 제1 가축의 무게 변동 추세를 분석할 수 있다.In step S803, the apparatus 400 may compare the first weight and the second weight to analyze a weight variation trend of the first livestock during the first reference period.

즉, 제1 중량은 제1 시점에 제1 가축의 중량을 나타내는 것이고, 제2 중량은 제2 시점에 제1 가축의 중량을 나타내는 것이므로, 장치(400)는 제1 중량 및 제2 중량을 비교하여, 제1 시점부터 제2 시점까지 제1 가축의 무게가 어떻게 변동하였는지에 대해 변동 추세를 분석할 수 있다.That is, since the first weight represents the weight of the first livestock at the first time point and the second weight represents the weight of the first livestock at the second time point, the device 400 compares the first weight and the second weight. Thus, it is possible to analyze the change trend of how the weight of the first livestock fluctuates from the first time point to the second time point.

S804 단계에서, 장치(400)는 제1 가축의 무게 변동 추세를 분석한 결과, 제3 시점에 제1 가축의 중량으로 예상되는 제3 중량을 예측할 수 있다. 여기서, 제3 시점은 제2 시점으로부터 제2 기준 기간이 지난 후의 시점을 의미하고, 제2 기준 기간은 실시예에 따라 상이하게 설정될 수 있다.In step S804, the apparatus 400 may predict a third weight expected as the weight of the first livestock at a third point in time as a result of analyzing the weight change trend of the first livestock. Here, the third point in time means a time point after the second reference period has passed from the second point in time, and the second reference period may be set differently according to embodiments.

즉, 장치(400)는 제1 가축의 무게 변동 추세를 분석한 결과를 토대로, 제1 가축의 무게가 어떻게 변동할 것인지에 대해 예측하여, 향후 제1 가축의 중량이 얼마나 나갈지를 예상할 수 있다. 이때, 장치(400)는 제1 가축이 종류, 제1 가축의 유전적인 요인 등을 더 고려하여, 제1 가축의 무게가 어떻게 변동할 것인지에 대해 예측할 수 있으며, 이를 통해, 향후 제1 가축의 중량이 얼마나 나갈지를 예상하여 성장 곡선을 생성할 수 있고, 성장 곡선을 이용하여 제3 시점에 제1 가축의 중량으로 예상되는 제3 중량을 확인할 수 있다.That is, the apparatus 400 may predict how the weight of the first livestock will change in the future by predicting how the weight of the first livestock will change based on the result of analyzing the trend of the weight change of the first livestock. In this case, the apparatus 400 may predict how the weight of the first livestock will fluctuate by further considering the type of the first livestock, the genetic factors of the first livestock, and the like, and through this, the weight of the first livestock in the future. A growth curve may be generated by estimating how much the livestock will weigh, and a third weight expected as the weight of the first livestock at a third time point may be confirmed using the growth curve.

한편, S805 단계에서, 장치(400)는 제1 가축이 제1 카테고리의 가축에 속하는 것으로 확인할 수 있다. 즉, 가축은 소, 돼지, 닭 등의 카테고리로 분류될 수 있는데, 장치(400)는 제1 가축이 어느 카테고리의 가축에 속하는지 여부를 확인할 수 있다.Meanwhile, in step S805, the device 400 may determine that the first livestock belongs to the first category of livestock. That is, livestock may be classified into categories such as cows, pigs, and chickens, and the device 400 may determine which category of livestock the first livestock belongs to.

S806 단계에서, 장치(400)는 제1 카테고리의 가축에서 제1 부위가 차지하는 비율인 제1 비율을 확인할 수 있다. 이를 위해, 장치(400)의 데이터베이스에는 카테고리별 및 부위별로 구분되어 있는 비율에 대한 정보가 저장되어 있다.In step S806, the device 400 may check a first ratio, which is a ratio occupied by the first part in the livestock of the first category. To this end, the database of the device 400 stores information on ratios classified by category and region.

예를 들어, 제1 카테고리가 소이고 제1 부위가 등 부위인 경우, 장치(400)는 데이터베이스에 저장된 정보를 조회하여, 소에서 등 부위가 차지하는 것으로 설정되어 있는 비율을 확인할 수 있고, 확인된 비율을 제1 비율로 확인할 수 있다.For example, if the first category is a cow and the first part is a back part, the device 400 may check information stored in the database to check the ratio set as the back part in the cow, and confirm the The ratio can be identified as the first ratio.

S807 단계에서, 장치(400)는 제2 중량과 제1 비율을 곱한 값으로 제4 중량을 산출하고, 제3 중량과 제1 비율을 곱한 값으로 제5 중량을 산출할 수 있다.In step S807 , the apparatus 400 may calculate a fourth weight by multiplying the second weight by the first ratio, and calculate a fifth weight by multiplying the third weight by the first ratio.

장치(400)는 제4 중량이 산출되면, 제2 시점에 제1 부위의 무게를 제4 중량으로 설정할 수 있고, 제5 중량이 산출되면, 제3 시점에 제1 부위의 무게를 제5 중량으로 설정할 수 있다.When the fourth weight is calculated, the device 400 may set the weight of the first part as the fourth weight at a second time point, and set the weight of the first part at a third time point to the fifth weight when the fifth weight is calculated. can be set to

S808 단계에서, 장치(400)는 제5 중량에서 제4 중량을 차감하여, 제6 중량을 산출할 수 있다. 여기서, 제6 중량은 제2 기준 기간 동안 제1 부위가 무거워져 변동될 것으로 예상되는 수치를 의미할 수 있다.In step S808, the apparatus 400 may calculate the sixth weight by subtracting the fourth weight from the fifth weight. Here, the sixth weight may refer to a value expected to fluctuate as the first part becomes heavy during the second reference period.

S809 단계에서, 장치(400)는 제2 등급에 설정된 중량당 가격 및 제6 중량을 곱한 값으로, 제2 기준 기간 동안 성장할 것으로 예상되는 제1 부위에 대한 가격을 산출할 수 있다.In step S809, the device 400 may calculate the price for the first part expected to grow during the second reference period by multiplying the price per weight set in the second grade by the sixth weight.

예를 들어, 제1 부위의 제2 등급에는 중량당 가격이 1g 당 10원으로 설정되어 있고, 제6 중량이 30g으로 산출된 경우, 장치(400)는 제2 기준 기간 동안 성장할 것으로 예상되는 제1 부위에 대한 가격을 300원으로 산출할 수 있다.For example, if the price per weight is set to 10 won per 1g for the second grade of the first part and the sixth weight is calculated as 30g, the device 400 is expected to grow during the second reference period. The price for one part can be calculated as 300 won.

도 9는 일실시예에 따른 향후 성장할 것으로 예상되는 각 부위에 대한 가격을 통해 가축의 사육 여부를 결정하는 과정을 설명하기 위한 순서도이다.9 is a flowchart illustrating a process of determining whether to breed livestock through a price for each part expected to grow in the future according to an embodiment.

도 9를 참조하면, 먼저, S901 단계에서, 장치(400)는 제1 가축의 각 부위 별로 제2 기준 기간 동안 성장할 것으로 예상되는 각 부위에 대한 가격을 산출할 수 있다.Referring to FIG. 9 , first, in step S901 , the apparatus 400 may calculate a price for each part of the first livestock that is expected to grow during the second reference period for each part.

즉, 장치(400)는 제2 기준 기간 동안 성장할 것으로 예상되는 제1 부위에 대한 가격을 산출하는 방식과 동일하게, 제1 가축의 각 부위 별로 제2 기준 기간 동안 성장할 것으로 예상되는 각 부위에 대한 가격을 산출할 수 있다.That is, the apparatus 400 calculates the price for each part of the first livestock expected to grow during the second reference period in the same way as the method for calculating the price for the first part expected to grow during the second reference period. price can be calculated.

S902 단계에서, 장치(400)는 제1 가축의 각 부위 별로 제2 기준 기간 동안 성장할 것으로 예상되는 각 부위에 대한 가격이 산출되면, 각 부위에 대한 가격을 합산하여, 제1 금액을 산출할 수 있다.In step S902, the device 400 may calculate a first amount by summing the prices of each part, when the price for each part expected to grow during the second reference period is calculated for each part of the first livestock. have.

한편, S903 단계에서, 장치(400)는 제1 가축이 태어난 시점, 제2 시점 및 제3 시점을 고려하여, 제2 기준 기간 동안 제1 가축을 사육하는데 필요할 것으로 예상되는 비용인 제2 금액을 예측할 수 있다.On the other hand, in step S903, the apparatus 400 sets a second amount, which is an estimated cost to raise the first livestock during the second reference period, in consideration of the birth time, the second time point, and the third time point of the first livestock. Predictable.

이를 위해, 장치(400)의 데이터베이스에는 카테고리별 및 성장 기간별로 구분되어 있는 사육 비용에 대한 정보가 저장되어 있다. To this end, the database of the device 400 stores information on breeding costs classified by category and growth period.

예를 들어, 제1 카테고리가 소이고 제2 시점이 제1 가축이 태어난 시점부터 3개월이 지난 시점이고 제3 시점이 제1 가축이 태어난 시점부터 6개월이 지난 시점인 경우, 장치(400)는 데이터베이스에 저장된 정보를 조회하여, 소의 생후 3개월부터 6개월까지 사육하는데 필요한 사육 비용을 확인할 수 있고, 확인된 사육 비용을 제2 금액으로 확인할 수 있다.For example, when the first category is cattle, the second time point is 3 months after the first livestock is born, and the third time point is 6 months after the first livestock is born, the device 400 The user may inquire information stored in the database to check the breeding cost necessary for raising the cow from 3 months to 6 months after birth, and check the confirmed breeding cost as a second amount.

S904 단계에서, 장치(400)는 제1 금액이 제2 금액 보다 큰지 여부를 확인할 수 있다.In step S904, the device 400 may determine whether the first amount is greater than the second amount.

즉, 제1 금액은 제1 가축이 제2 기준 기간 동안 성장할 때 제1 가축의 성장으로 발생하는 수익이고, 제2 금액은 제1 가축을 제2 기준 기간 동안 사육할 때 제1 가축의 사육으로 소모되는 지출이고, 장치(400)는 제1 가축의 성장으로 발생하는 수익이 제1 가축의 사육으로 소모되는 지출 보다 큰지 여부를 확인할 수 있다.That is, the first amount is revenue generated by the growth of the first livestock when the first livestock is grown during the second reference period, and the second amount is the amount generated by breeding the first livestock when the first livestock is raised during the second reference period. This is the consumed expenditure, and the apparatus 400 may determine whether the revenue generated by the growth of the first livestock is greater than the expenditure consumed by breeding the first livestock.

S904 단계에서 제1 금액이 제2 금액 보다 큰 것으로 확인되면, S905 단계에서, 장치(400)는 제1 가축의 사육을 유지하는 것으로 결정할 수 있다.If it is determined that the first amount is greater than the second amount in step S904, in step S905, the apparatus 400 may determine that breeding of the first livestock is maintained.

S904 단계에서 제2 금액이 제1 금액 보다 큰 것으로 확인되면, S906 단계에서, 장치(400)는 제1 가축의 사육을 유지하지 않는 것으로 결정할 수 있다.If it is determined in step S904 that the second amount is greater than the first amount, in step S906, the apparatus 400 may determine that the breeding of the first livestock is not maintained.

도 9에 도시된 바와 같이, 제1 가축의 사육 여부를 어떻게 하는 것이 좋을지에 대해 결정되면, 장치(400)는 제1 가축의 사육 여부 결정에 대한 알림 메시지를 사육자 단말로 전송할 수 있다.As shown in FIG. 9 , when it is determined how to raise or not to raise the first livestock, the apparatus 400 may transmit a notification message about whether to breed the first livestock to the breeder terminal.

도 10은 일실시예에 따른 특정 시점의 특정 부위에 대한 이미지를 기록하여 저장하는 과정을 설명하기 위한 순서도이다.10 is a flowchart illustrating a process of recording and storing an image of a specific region at a specific time point according to an embodiment.

도 10을 참조하면, 먼저, S1001 단계에서, 장치(400)는 제2-1 이미지에서 제1 부위가 차지하고 있는 영역을 제1 영역으로 구분할 수 있다.Referring to FIG. 10 , first, in step S1001, the apparatus 400 may classify an area occupied by the first part in the 2-1 image as a first area.

구체적으로, 장치(400)는 제2-1 이미지를 분석하여, 제2-1 이미지 상에 있는 형태를 모두 인식할 수 있으며, 제2-1 이미지 상에서 가장 좌측에 위치하는 제1 부위의 위치를 제1 위치로 확인하고, 제2-1 이미지 상에서 가장 상측에 위치하는 제1 부위의 위치를 제2 위치로 확인하고, 제2-1 이미지 상에서 가장 우측에 위치하는 제1 부위의 위치를 제3 위치로 확인하고, 제2-1 이미지 상에서 가장 하측에 위치하는 글자의 위치를 제4 위치로 확인할 수 있다.Specifically, the device 400 may analyze the 2-1 image, recognize all shapes on the 2-1 image, and determine the location of the first part located at the leftmost part on the 2-1 image. It is identified as the first position, the position of the first part positioned at the top on the image 2-1 is identified as the second position, and the position of the first part positioned at the far right on the image 2-1 is identified as the third position. position, and the position of the letter located at the bottom on the 2-1 image can be confirmed as the fourth position.

이후, 장치(400)는 제1 위치를 기준으로 상하 방향으로 확장한 제1 직선을 생성하고, 제2 위치를 기준으로 좌우 방향으로 확장한 제2 직선을 생성하고, 제3 위치를 기준으로 상하 방향으로 확장한 제3 직선을 생성하고, 제4 위치를 기준으로 좌우 방향으로 확장한 제4 직선을 생성할 수 있다.Thereafter, the device 400 generates a first straight line that extends in the vertical direction based on the first position, generates a second straight line that extends in the left and right direction based on the second position, and creates a vertical and horizontal line based on the third position. A third straight line extending in a direction may be generated, and a fourth straight line extending in a left-right direction based on the fourth position may be generated.

이후, 장치(400)는 제1 직선, 제2 직선, 제3 직선 및 제4 직선을 연결한 영역을 제1 영역으로 설정한 후, 제2-1 이미지에서 제1 영역을 구분할 수 있다.Thereafter, the device 400 may set an area connecting the first straight line, the second straight line, the third straight line, and the fourth straight line as the first area, and then distinguish the first area from the 2-1 image.

S1002 단계에서, 장치(400)는 제2-1 이미지에서 제1 영역이 있는 부분을 분할하여, 분할된 이미지를 제3-1 이미지로 추출할 수 있다.In step S1002, the apparatus 400 may divide the portion of the 2-1 image where the first area is located, and extract the divided image as the 3-1 image.

S1003 단계에서, 장치(400)는 제3-1 이미지에 사육자가 있는 것으로 인식되는지 여부를 확인할 수 있다. 즉, 장치(400)는 제3-1 이미지 상에서 제1 부위 이외에 사람 형태의 객체가 인식되는지 여부를 확인하여, 지3-1 이미지에 제1 가축을 사육하는 사육자가 있는지 여부를 확인할 수 있다.In step S1003, the device 400 may check whether it is recognized that there is a breeder in the 3-1 image. That is, the device 400 may check whether a human-shaped object other than the first part is recognized on the 3-1 image, and determine whether there is a breeder raising the first livestock in the 3-1 image.

S1003 단계에서 제3-1 이미지에 사육자가 있는 것으로 확인되면, S1004 단계에서, 장치(400)는 제3-1 이미지에서 사육자가 차지하고 있는 영역을 제3 영역으로 구분할 수 있다. 이때, 장치(400)는 제2-1 이미지에서 제1 영역을 구분하는 방식과 동일한 방식을 통해, 제3-1 이미지에서 제3 영역을 구분할 수 있다.If it is confirmed in step S1003 that there is a breeder in the 3-1 image, in step S1004, the device 400 may classify the area occupied by the breeder in the 3-1 image as a third area. In this case, the device 400 may divide the third region from the 3-1 image in the same way as the first region from the 2-1 image.

S1005 단계에서, 장치(400)는 제1 영상 정보를 제1 시점으로부터 시간상 역순으로 재생하여 분석할 수 있다.In step S1005, the apparatus 400 may reproduce and analyze the first image information in reverse time order from the first viewpoint.

S1006 단계에서, 장치(400)는 제1 영상 정보를 제1 시점으로부터 시간상 역순으로 재생하여 분석한 결과, 제0 시점에 제3 영역 내에 사육자가 없는 것을 확인할 수 있다.In step S1006, the device 400 reproduces and analyzes the first image information in reverse chronological order from the first time point, and as a result, it can be confirmed that there is no breeder in the third area at the 0th time point.

즉, 장치(400)는 제1 영상 정보를 제1 시점으로부터 시간상 역순으로 재생하여 제3 영역 내에 있는 사육자가 역으로 움직이는 것을 모니터링 할 수 있으며, 제3 영역 내에 있는 사육자가 제3 영역을 벗어난 것으로 확인되는 시점을 제0 시점으로 설정할 수 있다.That is, the device 400 may reproduce the first image information in reverse order in time from the first point of view to monitor that the breeder in the third area moves in reverse, and the breeder in the third area is determined to be out of the third area. The confirmation time point may be set as the zeroth time point.

S1007 단계에서, 장치(400)는 제1 영상 정보에서 제0 시점에 획득된 영상의 이미지를 제2-0 이미지로 추출할 수 있다.In step S1007, the device 400 may extract an image of an image obtained at the 0th point of view from the first image information as an image 2-0.

S1008 단계에서, 장치(400)는 제2-0 이미지에서 제3 영역이 있는 부분을 분할하여 제3-0 이미지를 추출할 수 있다.In step S1008, the apparatus 400 may extract a 3-0 image by dividing a portion of the 2-0 image in which the third area is located.

S1009 단계에서, 장치(400)는 제3-1 이미지에서 제3 영역이 있는 부분을 제3-0 이미지로 교체할 수 있다.In step S1009, the device 400 may replace a portion of the 3-1 image with the third area with the 3-0 image.

구체적으로, 장치(400)는 제3-1 이미지에 사육자가 있는 것으로 확인되면, 제3-1 이미지에서 사육자가 차지하고 있는 영역을 제3 영역으로 구분할 수 있고, 제3-1 이미지에서 제3 영역이 있는 부분을 삭제하고, 삭제된 위치에 제3-0 이미지를 삽입하여, 제3-1 이미지와 제3-0 이미지가 결합된 제3-1 이미지를 생성할 수 있다. 즉, 제3-1 이미지에서 제3 영역이 있는 부분이 제3-0 이미지로 교체되어, 제3-1 이미지에 있었던 사육자가 삭제되고, 삭제된 자리에 사육자가 없는 부분이 추가되어, 제3-1 이미지에서는 더 이상 제사육자가 인식되지 않을 수 있다.Specifically, if it is confirmed that there is a breeder in the 3-1 image, the device 400 may classify the area occupied by the breeder in the 3-1 image as a third area, and may divide the third area in the 3-1 image. By deleting the part with the , and inserting the 3-0 image at the deleted position, the 3-1 image in which the 3-1 image and the 3-0 image are combined may be created. That is, in the image 3-1, the part with the third area is replaced with the image 3-0, the breeder in the image 3-1 is deleted, and the part without the breeder is added in the deleted position, In the -1 image, the breeder may no longer be recognized.

S1003 단계에서 제3-1 이미지에 사육자가 없는 것으로 인식되거나, S1009 단계를 통해 제3-1 이미지에서 제3 영역이 있는 부분이 제3-0 이미지로 교체되면, S1010 단계에서, 장치(400)는 제3-1 이미지를 제1 시점의 제1 부위에 대한 이미지로 기록하여 데이터베이스에 저장할 수 있다.If it is recognized that there is no breeder in the 3-1 image in step S1003, or if the portion with the third region in the 3-1 image is replaced with the 3-0 image in step S1009, in step S1010, the device 400 may record the 3-1 image as an image of the first part of the first viewpoint and store it in a database.

도 11은 일실시예에 따른 인공 신경망을 설명하기 위한 도면이다.11 is a diagram for explaining an artificial neural network according to an embodiment.

일실시예에 따른 인공 신경망(1100)은 데이터의 인코딩에 의해 생성된 입력 신호를 입력으로 하여, 부위의 등급이 어느 등급으로 분류되는지에 대한 정보를 출력으로 할 수 있다.The artificial neural network 1100 according to an embodiment may take an input signal generated by encoding data as an input, and output information about which grade a part is classified into.

일실시예에 따른 인코딩은 이미지의 픽셀 별 색 정보를 수치화된 데이터 시트 형태로 저장하는 방식으로 이뤄질 수 있는데, 색 정보는 하나의 픽셀이 가지고 있는 RGB 색상, 명도 정보, 채도 정보, 깊이 정보를 포함할 수 있으나, 이에 국한하지 않는다.Encoding according to an embodiment may be performed by storing color information for each pixel of an image in the form of a digitized data sheet. The color information includes RGB color, brightness information, saturation information, and depth information of one pixel. You can, but are not limited to this.

일실시예에 따르면, 인공 신경망(1100)은 특징 추출 신경망(1110)과 분류 신경망(1120)으로 구성되어 있으며, 특징 추출 신경망(1110)은 이미지에서 부위 영역과 배경 영역을 분리하는 작업을 수행할 수 있으며, 분류 신경망(1120)은 이미지 내에서 부위의 등급이 어느 등급으로 분류되는지 여부를 파악하는 작업을 수행하도록 할 수 있다.According to an embodiment, the artificial neural network 1100 is composed of a feature extraction neural network 1110 and a classification neural network 1120, and the feature extraction neural network 1110 separates a region region and a background region from an image. In addition, the classification neural network 1120 may perform an operation of determining whether a grade of a part in an image is classified into a grade.

특징 추출 신경망(1110)이 부위 영역과 배경 영역을 구분하는 방법은 이미지를 인코딩한 입력 신호의 데이터 시트로부터 색 정보의 각 값들의 변화가 한 픽셀을 포함하는 8개의 픽셀 중 6개 이상에서 30% 이상의 변화가 생긴 것으로 감지되는 픽셀들의 묶음을 부위 영역과 배경 영역의 경계로 삼을 수 있으나, 이에 국한하지 않는다.The method for the feature extraction neural network 1110 to distinguish between the body region and the background region is that the change in each value of color information from the data sheet of the input signal encoding the image is 30% at 6 or more out of 8 pixels including one pixel. A bundle of pixels detected as having an abnormal change may be used as a boundary between the region region and the background region, but is not limited thereto.

특징 추출 신경망(1110)은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The feature extraction neural network 1110 proceeds by sequentially stacking the convolution layer and the pooling layer on the input signal. The convolution layer includes convolution operations, convolution filters, and activation functions. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. As the activation function, a ReLU function, a sigmoid function, and a tanh function are generally used, but are not limited thereto. The pooling layer is a layer that reduces the matrix size of the input, and uses a method of extracting a representative value by grouping pixels in a specific area. The calculation of the pooling layer generally uses average values or maximum values, but is not limited thereto. The operation is performed using a square matrix, and a 9X9 matrix is generally used. The convolutional layer and the pooling layer are alternately repeated until the corresponding input is sufficiently small while maintaining the difference.

분류 신경망(1120)은 특징 추출 신경망(1110)을 통해 배경으로부터 구분된 부위 영역의 표면을 확인하고, 미리 정의된 등급별 표면 상태와 유사한지 여부를 확인하여, 부위 영역의 표면이 어느 등급으로 분류되는지 여부를 파악할 수 있다. 등급별 표면 상태와 비교하기 위해, 데이터베이스에 저장된 정보들을 활용할 수 있다.The classification neural network 1120 checks the surface of the local region separated from the background through the feature extraction neural network 1110, and determines whether the surface state of the local region is similar to a predefined graded surface state, to which grade the surface of the local region is classified. can figure out whether Information stored in a database can be used to compare surface conditions by grade.

분류 신경망(1120)은 히든 레이어와 출력 레이어를 가지고 있으며, 5층 이하의 히든 레이어로 구성되어, 총 50개 이하의 히든 레이어 노드를 포함하고, 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다.The classification neural network 1120 has a hidden layer and an output layer, and is composed of 5 or less hidden layers, including a total of 50 or less hidden layer nodes, and the activation function of the hidden layer is a ReLU function and a sigmoid function. and tanh functions, etc. are used, but are not limited thereto.

분류 신경망(1120)는 총 1개의 출력층 노드만 포함할 수 있다.The classification neural network 1120 may include only one output layer node in total.

분류 신경망(1120)의 출력은 부위 영역의 표면이 어느 등급으로 분류되는지에 대한 출력값으로, 어느 등급에 해당하는지를 지시할 수 있다. 예를 들어, 출력값이 1인 경, 부위 영역의 표면이 1등급에 해당하는 것을 지시하고, 출력값이 2인 경우, 부위 영역의 표면이 2등급에 해당하는 것을 지시할 수 있다.The output of the classification neural network 1120 is an output value indicating to which grade the surface of the region region is classified, and may indicate which grade it corresponds to. For example, if the output value is 1, it may indicate that the surface of the part region corresponds to the first grade, and if the output value is 2, it may indicate that the surface of the part region corresponds to the second grade.

일실시예에 따르면, 인공 신경망(1100)은 사용자가 인공 신경망(1100)에 따른 출력의 문제점 발견 시 사용자에 의해 입력된 수정 정답에 의해 생성되는 제1 학습 신호를 전달받아 학습할 수 있다. 인공 신경망(1100)에 따른 출력의 문제점은 부위 영역의 표면에 대해 다른 등급으로 분류한 출력값을 출력한 경우를 의미할 수 있다.According to an embodiment, the artificial neural network 1100 may learn by receiving a first learning signal generated by a correction correct answer input by the user when a problem is detected in the output of the artificial neural network 1100 . A problem with the output according to the artificial neural network 1100 may refer to a case in which output values classified into different grades are output for the surface of the partial region.

일실시예에 따른 제1 학습 신호는 정답과 출력값의 오차를 바탕으로 만들어지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 인공 신경망(1100)은 제1 학습 신호에 의해 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다. 이하 도 12를 참조하여 인공 신경망(1100)의 학습 내용이 후술된다.The first learning signal according to an embodiment is created based on the error between the correct answer and the output value, and in some cases, SGD using delta, a batch method, or a method following a backpropagation algorithm may be used. The artificial neural network 1100 performs learning by modifying existing weights according to the first learning signal, and may use momentum in some cases. A cost function can be used to calculate the error, and a cross entropy function can be used as the cost function. Hereinafter, learning contents of the artificial neural network 1100 will be described with reference to FIG. 12 .

도 12는 일실시예에 따른 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.12 is a diagram for explaining a method of learning an artificial neural network according to an embodiment.

일실시예에 따르면, 학습 장치는 인공 신경망(1100)을 학습시킬 수 있다. 학습 장치는 장치(400)와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니다.According to an embodiment, the learning device may train the artificial neural network 1100. The learning device may be a separate subject different from the device 400, but is not limited thereto.

일실시예에 따르면, 인공 신경망(1100)은 트레이닝 샘플들이 입력되는 입력 레이어와 트레이닝 출력들을 출력하는 출력 레이어를 포함하고, 트레이닝 출력들과 제1 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 제1 레이블들은 부위의 등급별로 등록되어 있는 대표 이미지에 기초하여 정의될 수 있다. 인공 신경망(1100)은 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다. According to an embodiment, the artificial neural network 1100 may include an input layer inputting training samples and an output layer outputting training outputs, and may be learned based on a difference between the training outputs and the first labels. Here, the first labels may be defined based on representative images registered for each grade of the part. The artificial neural network 1100 is connected to a group of a plurality of nodes, and is defined by weights between the connected nodes and an activation function that activates the nodes.

학습 장치는 GD(Gradient Decent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 인공 신경망(1100)을 학습시킬 수 있다. 학습 장치는 인공 신경망(1100)의 출력들 및 레이블들 의해 설계된 손실 함수를 이용할 수 있다.The learning device may train the artificial neural network 1100 using a gradient descent (GD) technique or a stochastic gradient descent (SGD) technique. The learning device may use a loss function designed by the outputs and labels of the artificial neural network 1100 .

학습 장치는 미리 정의된 손실 함수(loss function)을 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 인공 신경망(1100) 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.The learning device may calculate a training error using a predefined loss function. The loss function may be predefined with labels, outputs, and parameters as input variables, where the parameters may be set by weights in the artificial neural network 1100 . For example, the loss function may be designed in a mean square error (MSE) form, an entropy form, and the like, and various techniques or methods may be employed in an embodiment in which the loss function is designed.

학습 장치는 역전파(backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 인공 신경망(1100) 내 노드들 사이의 관계들이다. 학습 장치는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 학습 장치는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.The learning device may find weights affecting the training error using a backpropagation technique. Here, weights are relationships between nodes in the artificial neural network 1100 . The learning device may use the SGD technique using labels and outputs to optimize the weights found through the backpropagation technique. For example, the learning device may update weights of a loss function defined based on labels, outputs, and weights using the SGD technique.

일실시예에 따르면, 학습 장치는 데이터베이스로부터 레이블드 트레이닝 부위 등급별 대표 이미지들(1201)을 획득할 수 있다. 학습 장치는 부위 등급별 대표 이미지들(1201)에 각각 미리 레이블링된 정보를 획득할 수 있는데, 부위 등급별 대표 이미지들(1201)은 미리 분류된 부위의 등급에 따라 레이블링될 수 있다.According to an embodiment, the learning device may obtain representative images 1201 for each grade of the labeled training part from the database. The learning device may obtain information prelabeled in each of the representative images 1201 for each part grade, and the representative images 1201 for each part grade may be labeled according to the pre-classified part grade.

일실시예에 따르면, 학습 장치는 1000개의 레이블드 트레이닝 부위 등급별 대표 이미지들(1201)을 획득할 수 있으며, 레이블드 트레이닝 부위 등급별 대표 이미지들(1201)에 기초하여 제1 트레이닝 부위 등급별 벡터들(1202)을 생성할 수 있다. 제1 트레이닝 부위 등급별 벡터들(1202)을 추출하는데는 다양한 방식이 채용될 수 있다.According to an embodiment, the learning apparatus may acquire 1000 labeled training part graded representative images 1201, and based on the labeled training part graded representative images 1201, first training part graded vectors ( 1202) can be created. Various methods may be employed to extract the vectors 1202 for each class of the first training region.

일실시예에 따르면, 학습 장치는 제1 트레이닝 부위 등급별 벡터들(1202)을 인공 신경망(1100)에 적용하여 제1 트레이닝 출력들(1203)을 획득할 수 있다. 학습 장치는 제1 트레이닝 출력들(1203)과 제1 레이블들(1204)에 기초하여 인공 신경망(1100)을 학습시킬 수 있다. 학습 장치는 제1 트레이닝 출력들(1203)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 인공 신경망(1100) 내 노드들의 연결 관계를 최적화하여 인공 신경망(1100)을 학습시킬 수 있다.According to an embodiment, the learning device may obtain first training outputs 1203 by applying the vectors 1202 for each grade of the first training part to the artificial neural network 1100 . The learning device may train the artificial neural network 1100 based on the first training outputs 1203 and the first labels 1204 . The learning device may train the artificial neural network 1100 by calculating training errors corresponding to the first training outputs 1203 and optimizing a connection relationship of nodes in the artificial neural network 1100 to minimize the training errors. .

도 13은 일실시예에 따른 장치의 구성의 예시도이다.13 is an exemplary diagram of a configuration of a device according to an embodiment.

일실시예에 따른 장치(400)는 프로세서(410) 및 메모리(420)를 포함한다. 프로세서(410)는 도 1 내지 도 12를 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 12를 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(400)를 이용하는 자 또는 단체는 도 1 내지 도 12를 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.An apparatus 400 according to an embodiment includes a processor 410 and a memory 420. The processor 410 may include at least one device described above with reference to FIGS. 1 to 12 or may perform at least one method described above with reference to FIGS. 1 to 12 . A person or organization using the device 400 may provide services related to some or all of the methods described above with reference to FIGS. 1 to 12 .

메모리(420)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(420)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The memory 420 may store information related to the methods described above or a program in which the methods described below are implemented. Memory 420 may be volatile memory or non-volatile memory.

프로세서(410)는 프로그램을 실행하고, 장치(400)를 제어할 수 있다. 프로세서(410)에 의하여 실행되는 프로그램의 코드는 메모리(420)에 저장될 수 있다. 장치(400)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The processor 410 may execute a program and control the device 400 . Program codes executed by the processor 410 may be stored in the memory 420 . The device 400 may be connected to an external device (eg, a personal computer or network) through an input/output device (not shown) and exchange data through wired/wireless communication.

장치(400)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(420)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(410)는 메모리(420)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 장치(400)와 학습된 인공 신경망을 이용하는 장치(400)는 동일할 수도 있고 개별적일 수도 있다.Apparatus 400 may be used to train an artificial neural network or to use a trained artificial neural network. Memory 420 may include a learning or learned artificial neural network. The processor 410 may learn or execute an artificial neural network algorithm stored in the memory 420 . The device 400 for learning the artificial neural network and the device 400 using the learned artificial neural network may be the same or separate.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (3)

장치에 의해 수행되는, 사육 효과를 개선하기 위해 가축의 성장 상태를 분석하고 모니터링 하는 방법에 있어서,
제1 시점에 초음파 검사기를 이용하여 제1 가축의 제1 부위에 대한 초음파 검사가 진행되면, 상기 제1 시점에 상기 제1 가축의 상기 제1 부위에 대한 초음파 검사를 통해 생성된 제1-1 이미지를 획득하는 단계;
상기 제1-1 이미지를 인코딩 하여 제1 입력 신호를 생성하는 단계;
상기 제1 입력 신호를 인공 신경망에 입력하고, 상기 인공 신경망의 입력에 대한 결과에 기초하여, 제1 출력 신호를 획득하는 단계;
상기 제1 출력 신호에 기초하여, 상기 제1 시점에 상기 제1 부위의 등급을 제1 등급으로 설정하는 단계;
상기 제1 시점으로부터 미리 설정된 제1 기준 기간이 지난 후인 제2 시점에 상기 초음파 검사기를 이용하여 상기 제1 가축의 상기 제1 부위에 대한 초음파 검사가 진행되면, 상기 제2 시점에 상기 제1 가축의 상기 제1 부위에 대한 초음파 검사를 통해 생성된 제1-2 이미지를 획득하는 단계;
상기 제1-2 이미지를 인코딩 하여 제2 입력 신호를 생성하는 단계;
상기 제2 입력 신호를 인공 신경망에 입력하고, 상기 인공 신경망의 입력에 대한 결과에 기초하여, 제2 출력 신호를 획득하는 단계;
상기 제2 출력 신호에 기초하여, 상기 제2 시점에 상기 제1 부위의 등급을 제2 등급으로 설정하는 단계;
상기 제1 등급 및 상기 제2 등급을 비교하여, 상기 제1 기준 기간 동안 상기 제1 부위의 등급 변동 추세를 분석하는 단계;
상기 제1 가축에 대한 촬영을 수행하고 있는 카메라로부터 상기 제1 가축의 촬영으로 생성된 3D 영상인 제1 영상 정보를 획득하는 단계;
상기 제1 영상 정보에서 상기 제1 시점에 획득된 영상의 이미지를 제2-1 이미지로 추출하는 단계;
상기 제2-1 이미지에 기초하여, 상기 제2-1 이미지에서 상기 제1 부위가 차지하고 있는 영역을 제1 영역으로 구분하고, 상기 제1 영역의 크기를 통해 상기 제1 영역의 부피를 산출하는 단계;
상기 제1 영역의 부피가 제1 부피로 산출되면, 상기 제1 시점에 상기 제1 부위의 부피를 상기 제1 부피로 설정하는 단계;
상기 제1 영상 정보에서 상기 제2 시점에 획득된 영상의 이미지를 제2-2 이미지로 추출하는 단계;
상기 제2-2 이미지에 기초하여, 상기 제2-2 이미지에서 상기 제1 부위가 차지하고 있는 영역을 제2 영역으로 구분하고, 상기 제2 영역의 크기를 통해 상기 제2 영역의 부피를 산출하는 단계;
상기 제2 영역의 부피가 제2 부피로 산출되면, 상기 제2 시점에 상기 제1 부위의 부피를 상기 제2 부피로 설정하는 단계;
상기 제1 부피 및 상기 제2 부피를 비교하여, 상기 제1 기준 기간 동안 상기 제1 부위의 사이즈 변동 추세를 분석하는 단계;
상기 제1 부위의 사이즈 변동 추세를 분석한 결과, 상기 제2 부피에서 상기 제1 부피를 차감하여, 상기 제1 기준 기간 동안 상기 제1 부위의 사이즈가 커져 변동된 수치인 제3 부피를 산출하는 단계;
상기 제1 기준 기간 동안 상기 제1 부위의 평균 변동 수치로 설정되어 있는 제4 부피를 확인하는 단계;
상기 제3 부피에서 상기 제4 부피를 차감하여, 제5 부피를 산출하는 단계;
상기 제5 부피가 미리 설정된 기준 범위 내에 포함되는 것으로 확인된 경우, 상기 제1 부위의 등급 변동 추세를 분석한 결과, 상기 제2 등급이 상기 제1 등급 보다 더 높은 등급으로 확인되면, 상기 제1 가축의 사육 방식에 대한 현행 유지가 필요한 것으로 판단하고, 상기 제1 등급과 상기 제2 등급이 동일한 등급으로 확인되거나 상기 제2 등급이 상기 제1 등급 보다 더 낮은 등급으로 확인되면, 상기 제1 가축에 대한 비육사료의 추가 지급이 필요한 것으로 판단하는 단계;
상기 제5 부피가 상기 기준 범위를 벗어나 상기 기준 범위의 최대값 보다 큰 것으로 확인된 경우, 상기 제1 부위의 등급 변동 추세를 분석한 결과, 상기 제2 등급이 상기 제1 등급 보다 더 높은 등급으로 확인되거나 상기 제1 등급과 상기 제2 등급이 동일한 등급으로 확인되면, 상기 제1 가축의 사육 방식에 대한 현행 유지가 필요한 것으로 판단하고, 상기 제2 등급이 상기 제1 등급 보다 더 낮은 등급으로 확인되면, 상기 제1 가축에 대한 비육사료의 추가 지급이 필요한 것으로 판단하는 단계; 및
상기 제5 부피가 상기 기준 범위를 벗어나 상기 기준 범위의 최소값 보다 작은 것으로 확인된 경우, 상기 제1 부위의 등급 변동 추세를 분석한 결과, 상기 제2 등급이 상기 제1 등급 보다 더 높은 등급으로 확인되거나 상기 제1 등급과 상기 제2 등급이 동일한 등급으로 확인되면, 상기 제1 가축의 사육 방식에 대한 변경이 필요한 것으로 판단하고, 상기 제2 등급이 상기 제1 등급 보다 더 낮은 등급으로 확인되면, 상기 제1 가축의 사육을 유지할 것인지에 대한 결정이 필요한 것으로 판단하는 단계를 포함하고,
상기 제1 가축의 사육을 유지할 것인지에 대한 결정이 필요한 것으로 판단하는 단계는,
상기 제1 시점에 중량 측정기를 이용하여 상기 제1 가축의 중량이 측정되면, 상기 제1 시점에 상기 제1 가축의 중량을 측정하여 생성된 제1 중량에 대한 정보를 획득하는 단계;
상기 제2 시점에 상기 중량 측정기를 이용하여 상기 제1 가축의 중량이 측정되면, 상기 제2 시점에 상기 제1 가축의 중량을 측정하여 생성된 제2 중량에 대한 정보를 획득하는 단계;
상기 제1 중량 및 상기 제2 중량을 비교하여, 상기 제1 기준 기간 동안 상기 제1 가축의 무게 변동 추세를 분석하는 단계;
제1 가축의 무게 변동 추세를 분석한 결과, 상기 제2 시점으로부터 미리 설정된 제2 기준 기간이 지난 후인 제3 시점에 상기 제1 가축의 중량으로 예상되는 제3 중량을 예측하는 단계;
상기 제1 가축이 제1 카테고리의 가축에 속하는 경우, 상기 제1 카테고리의 가축에서 상기 제1 부위가 차지하는 비율인 제1 비율을 확인하는 단계;
상기 제2 중량과 상기 제1 비율을 곱한 값으로 제4 중량을 산출하고, 상기 제2 시점에 상기 제1 부위의 무게를 상기 제4 중량으로 설정하는 단계;
상기 제3 중량과 상기 제1 비율을 곱한 값으로 제5 중량을 산출하고, 상기 제3 시점에 상기 제1 부위의 무게를 상기 제5 중량으로 설정하는 단계;
상기 제5 중량에서 상기 제4 중량을 차감하여, 상기 제2 기준 기간 동안 상기 제1 부위가 무거워져 변동될 것으로 예상되는 수치인 제6 중량을 산출하는 단계; 및
상기 제2 등급에 설정된 중량당 가격 및 상기 제6 중량을 곱한 값으로, 상기 제2 기준 기간 동안 성장할 것으로 예상되는 상기 제1 부위에 대한 가격을 산출하는 단계를 포함하는,
사육 효과를 개선하기 위한 가축의 성장 상태 분석 및 모니터링 방법.
In the method of analyzing and monitoring the growth status of livestock to improve the breeding effect, performed by the device,
When the ultrasound examination of the first part of the first livestock is performed using the ultrasonic scanner at the first time point, the 1-1 generated through the ultrasound examination of the first part of the first livestock at the first time point acquiring an image;
generating a first input signal by encoding the 1-1 image;
inputting the first input signal to an artificial neural network and obtaining a first output signal based on a result of the input of the artificial neural network;
setting a grade of the first part to a first grade at the first time point based on the first output signal;
When an ultrasound examination of the first part of the first livestock is performed using the ultrasound scanner at a second time point after a preset first reference period has passed from the first time point, the first livestock at the second time point acquiring first-second images generated through ultrasound examination of the first part of the body;
generating a second input signal by encoding the first-second image;
inputting the second input signal to an artificial neural network and obtaining a second output signal based on a result of the input of the artificial neural network;
setting a grade of the first part to a second grade at the second time point based on the second output signal;
comparing the first grade and the second grade and analyzing a grade change trend of the first part during the first reference period;
obtaining first image information, which is a 3D image generated by photographing the first livestock, from a camera that photographs the first livestock;
extracting an image of an image acquired at the first viewpoint from the first image information as a 2-1 image;
Dividing the area occupied by the first part in the 2-1 image into a first area based on the 2-1 image, and calculating the volume of the first area through the size of the first area step;
if the volume of the first region is calculated as the first volume, setting the volume of the first part to the first volume at the first time point;
extracting an image of an image acquired at the second viewpoint from the first image information as a 2-2 image;
Dividing the area occupied by the first part in the 2-2 image into a second area based on the 2-2 image, and calculating the volume of the second area through the size of the second area step;
setting the volume of the first part to the second volume at the second time point when the volume of the second region is calculated as the second volume;
comparing the first volume and the second volume, and analyzing a size change trend of the first part during the first reference period;
As a result of analyzing the size change trend of the first part, the first volume is subtracted from the second volume to calculate a third volume, which is a value changed as the size of the first part increases during the first reference period. step;
checking a fourth volume set as an average change value of the first part during the first reference period;
calculating a fifth volume by subtracting the fourth volume from the third volume;
When it is confirmed that the fifth volume is included within the preset reference range, as a result of analyzing the grade change trend of the first part, when the second grade is confirmed as a higher grade than the first grade, the first If it is determined that the current maintenance of the livestock breeding method is necessary, and the first grade and the second grade are confirmed to be the same grade or the second grade is confirmed to be a lower grade than the first grade, the first livestock Determining that additional payment for fattening feed is necessary;
When it is confirmed that the fifth volume is outside the reference range and is greater than the maximum value of the reference range, as a result of analyzing the grade change trend of the first part, the second grade is a higher grade than the first grade. confirmed or if the first grade and the second grade are confirmed to be the same grade, it is determined that the current maintenance of the breeding method of the first livestock is necessary, and the second grade is confirmed as a lower grade than the first grade. If it is, determining that additional payment of fattening feed for the first livestock is necessary; and
When it is confirmed that the fifth volume is out of the reference range and is smaller than the minimum value of the reference range, as a result of analyzing the grade change trend of the first part, the second grade is confirmed to be a higher grade than the first grade. or if the first grade and the second grade are confirmed to be the same grade, it is determined that a change in the breeding method of the first livestock is necessary, and if the second grade is confirmed to be a lower grade than the first grade, Determining whether to maintain breeding of the first livestock is necessary;
The step of determining that a decision on whether to maintain breeding of the first livestock is necessary,
obtaining information on a first weight generated by measuring the weight of the first livestock at the first time point when the weight of the first livestock is measured using a weighing machine at the first time point;
obtaining information on a second weight generated by measuring the weight of the first livestock at the second time point when the weight of the first livestock is measured using the weighing machine at the second time point;
comparing the first weight and the second weight to analyze a weight variation trend of the first livestock during the first reference period;
predicting a third weight expected as the weight of the first livestock at a third time point after a second reference period set in advance from the second time point as a result of analyzing the weight change trend of the first livestock;
checking a first ratio, which is a ratio occupied by the first part, in the livestock of the first category, when the first livestock belongs to livestock of the first category;
calculating a fourth weight by multiplying the second weight by the first ratio, and setting the weight of the first part at the second time point to the fourth weight;
calculating a fifth weight by multiplying the third weight by the first ratio, and setting the weight of the first portion to be the fifth weight at the third point in time;
calculating a sixth weight, which is a value expected to fluctuate as the first part becomes heavier during the second reference period, by subtracting the fourth weight from the fifth weight; and
Calculating a price for the first part expected to grow during the second reference period by multiplying the price per weight set in the second grade by the sixth weight,
A method for analyzing and monitoring the growth status of livestock to improve the breeding effect.
삭제delete 삭제delete
KR1020220098929A 2022-08-09 2022-08-09 Method, device and system for analyzing and monitoring growth status of livestock to improve breeding effect KR102470326B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220098929A KR102470326B1 (en) 2022-08-09 2022-08-09 Method, device and system for analyzing and monitoring growth status of livestock to improve breeding effect

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220098929A KR102470326B1 (en) 2022-08-09 2022-08-09 Method, device and system for analyzing and monitoring growth status of livestock to improve breeding effect

Publications (2)

Publication Number Publication Date
KR102470326B1 true KR102470326B1 (en) 2022-11-25
KR102470326B9 KR102470326B9 (en) 2023-02-23

Family

ID=84237478

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220098929A KR102470326B1 (en) 2022-08-09 2022-08-09 Method, device and system for analyzing and monitoring growth status of livestock to improve breeding effect

Country Status (1)

Country Link
KR (1) KR102470326B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116019058A (en) * 2023-02-21 2023-04-28 凤集食品集团有限公司 Intermittent light supplementing method and intermittent light supplementing terminal for breeding laying hens
CN116596167A (en) * 2023-07-17 2023-08-15 湖南华牧全安数字科技有限公司 Livestock breeding scheme optimization method based on data deep fusion processing

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101334607B1 (en) 2011-12-15 2013-11-29 평창영월정선축산업협동조합 A method for breeding fine Korean beef cattle by increasing marbling degrees and yield in cows
KR102011401B1 (en) 2017-10-25 2019-08-16 주식회사 다운 Abnormal signs monitoring system and method based on food intake of livestock
KR20190128589A (en) * 2018-05-08 2019-11-18 (주)씽크포비엘 Method for providing an optimal timing of cattle slaughter based on machine learning model
KR102168641B1 (en) 2020-02-27 2020-10-21 동양정보서비스(주) System and Method for managing barn
KR102250864B1 (en) * 2020-11-11 2021-05-11 주식회사 안심엘피씨 Method and device for cutting by quantity based on artificial intelligence
JP2021192025A (en) * 2020-06-05 2021-12-16 Assest株式会社 Meat portion discrimination program
KR20220064712A (en) 2020-11-12 2022-05-19 인트플로우 주식회사 Apparatus and method for monitoring growing progress of livestock individual based on image

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101334607B1 (en) 2011-12-15 2013-11-29 평창영월정선축산업협동조합 A method for breeding fine Korean beef cattle by increasing marbling degrees and yield in cows
KR102011401B1 (en) 2017-10-25 2019-08-16 주식회사 다운 Abnormal signs monitoring system and method based on food intake of livestock
KR20190128589A (en) * 2018-05-08 2019-11-18 (주)씽크포비엘 Method for providing an optimal timing of cattle slaughter based on machine learning model
KR102168641B1 (en) 2020-02-27 2020-10-21 동양정보서비스(주) System and Method for managing barn
JP2021192025A (en) * 2020-06-05 2021-12-16 Assest株式会社 Meat portion discrimination program
KR102250864B1 (en) * 2020-11-11 2021-05-11 주식회사 안심엘피씨 Method and device for cutting by quantity based on artificial intelligence
KR20220064712A (en) 2020-11-12 2022-05-19 인트플로우 주식회사 Apparatus and method for monitoring growing progress of livestock individual based on image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116019058A (en) * 2023-02-21 2023-04-28 凤集食品集团有限公司 Intermittent light supplementing method and intermittent light supplementing terminal for breeding laying hens
CN116019058B (en) * 2023-02-21 2023-10-13 凤集食品集团有限公司 Intermittent light supplementing method and intermittent light supplementing terminal for breeding laying hens
CN116596167A (en) * 2023-07-17 2023-08-15 湖南华牧全安数字科技有限公司 Livestock breeding scheme optimization method based on data deep fusion processing
CN116596167B (en) * 2023-07-17 2023-09-19 湖南华牧全安数字科技有限公司 Livestock breeding scheme optimization method based on data deep fusion processing

Also Published As

Publication number Publication date
KR102470326B9 (en) 2023-02-23

Similar Documents

Publication Publication Date Title
KR102470326B1 (en) Method, device and system for analyzing and monitoring growth status of livestock to improve breeding effect
Ramakrishnan et al. An exploration of embodied visual exploration
JP7406758B2 (en) A learning method for specializing an artificial intelligence model to the institution in which it is used, and a device to do this
CN113424208A (en) Learning device, estimation device, data generation device, learning method, and learning program
KR102542037B1 (en) Training method for specializing artificial intelligence model in deployed institution, and apparatus for training the artificial intelligence model
CN111860588A (en) Training method for graph neural network and related equipment
WO2021160686A1 (en) Generative digital twin of complex systems
WO2021138085A1 (en) Predicting neuron types based on synaptic connectivity graphs
WO2021138082A1 (en) Training artificial neural networks based on synaptic connectivity graphs
KR102330858B1 (en) Method, apparatus, and system for providing information on analysis of pet stool status using stool sheet stool images
WO2017217169A1 (en) Information processing device, method, and program
Selvan et al. Uncertainty quantification in medical image segmentation with normalizing flows
CN110490927A (en) For generating the methods, devices and systems of center line for the object in image
KR20210113336A (en) Method for predicting target object properties based on machine learning and related devices
Ubina et al. Digital twin-based intelligent fish farming with Artificial Intelligence Internet of Things (AIoT)
US11604943B2 (en) Domain adaptation for structured output via disentangled representations
CN115330669A (en) Computer-implemented method, system, and storage medium for predicting disease quantification parameters of an anatomical structure
US20210319269A1 (en) Apparatus for determining a classifier for identifying objects in an image, an apparatus for identifying objects in an image and corresponding methods
KR20220007030A (en) Growth analysis prediction apparatus using bone maturity distribution by interest area and method thereof
KR102554580B1 (en) Method, device and system for providing order alarm serveice and estimating safety inventory in warehouse through pattern analysis of order history regarding distribustion of food materials and subsidiary materials based on artificial intelligence model
KR102615445B1 (en) Method, apparatus and system for providing nutritional information based on fecal image analysis
KR102563346B1 (en) System for monitoring of structural and method ithereof
US20230048582A1 (en) Non-transitory computer readable storage, estimation method, and information processing device
KR102615747B1 (en) Method, device and system for providing food calorie estimation and user customized body change information visualization service using artificial intelligence model
KR102615749B1 (en) Method, device and system for providing diet management service and mental health care service using it and automated processing of user customized diet management consulting information creation using artificial intelligence model

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]