KR102285112B1 - Non-destructive measurement system of meat yield of beef carcasses using digital image analysis - Google Patents

Non-destructive measurement system of meat yield of beef carcasses using digital image analysis Download PDF

Info

Publication number
KR102285112B1
KR102285112B1 KR1020200158544A KR20200158544A KR102285112B1 KR 102285112 B1 KR102285112 B1 KR 102285112B1 KR 1020200158544 A KR1020200158544 A KR 1020200158544A KR 20200158544 A KR20200158544 A KR 20200158544A KR 102285112 B1 KR102285112 B1 KR 102285112B1
Authority
KR
South Korea
Prior art keywords
image
features
model
conductor
feature
Prior art date
Application number
KR1020200158544A
Other languages
Korean (ko)
Inventor
조병관
Original Assignee
충남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충남대학교산학협력단 filed Critical 충남대학교산학협력단
Priority to KR1020200158544A priority Critical patent/KR102285112B1/en
Application granted granted Critical
Publication of KR102285112B1 publication Critical patent/KR102285112B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Abstract

Provided is a beef carcass meat yield prediction model construction system comprising: an image collection step of collecting carcass images of various states by using a color camera; an image processing step of extracting a feature by processing the images collected by the prior step and including a background removal step, a key point detection step, and a feature extraction step; and a model construction step of constructing a prediction model with a multiple linear regression (MLR) method by using the selected feature among the extracted features. According to the present invention, real-time carcass evaluation is possible by applying the system to a slaughter line.

Description

디지털 영상 분석을 활용한 소 도체 정육량 비파괴 측정 시스템{Non-destructive measurement system of meat yield of beef carcasses using digital image analysis}Non-destructive measurement system of meat yield of beef carcasses using digital image analysis

본 발명은 디지털 영상 분석을 활용한 비파괴 소 도체 정육량 측정 시스템에 관한 것으로, 더욱 상세하게는 다변량 통계와 이미지 분석을 결합하여, 컬러 이미지를 통해 소 도체의 정육량 예측이 가능한 모델 구축 시스템에 관한 것이다. The present invention relates to a non-destructive cattle carcass meat measurement system using digital image analysis, and more particularly, to a model building system capable of predicting the meat quantity of cattle carcass through color images by combining multivariate statistics and image analysis. will be.

쇠고기는 전 세계에서 돼지와 닭고기 다음으로 세 번째로 많이 소비되는 고기로 전 세계 소비량의 약 25%를 차지한다. 이러한 소비량은 개발도상국의 인구증가와 부의 증가를 감안할 때 향후 수십 년 동안 지속적으로 증가할 가능성이 높다. 따라서 최근 소고기의 유통망 및 관련 법령 및 규제 기관들은 유통되는 소고기의 품질을 사전에 측정하고 가치를 평가하는데 많은 관심을 가지고 있다. Beef is the third most consumed meat in the world after pigs and chickens, accounting for about 25% of global consumption. This consumption is likely to continue to increase over the next few decades, given the growing population and growing wealth of developing countries. Therefore, the recent beef distribution network and related laws and regulatory agencies are very interested in measuring and evaluating the quality of distributed beef in advance.

최근 소고기 생산량과 소비량이 급격하게 증가하고 있으며, 이러한 이유에서 생산되는 소고기의 품질을 사전에 측정하고 모니터링하는 문제들이 대두되고 있다. 등급판정은 유통 전의 소고기 품질을 측정하는 방법으로, 품질 평가를 통해 안전한 축산물에 대한 인증 및 도체의 등급과 가격을 결정하게 된다. 결과적으로 등급 판정은 농민과 육류 유통업자들에게 경제적으로 직접적인 영향 요소로 작용한다. 따라서 도축장에서는 등급 판정의 정확도를 높여야만 하며, 도축된 도체가 유통되기 이전에 정확한 등급 평가가 진행되어야 하는 필요성이 존재한다. Recently, beef production and consumption are rapidly increasing, and for this reason, problems of measuring and monitoring the quality of beef produced in advance are emerging. Grading is a method of measuring the quality of beef before distribution, and through quality evaluation, certification for safe livestock products and the grade and price of carcasses are determined. As a result, grading has a direct economic impact on farmers and meat distributors. Therefore, it is necessary to increase the accuracy of grading in the slaughterhouse, and there is a need to conduct accurate grading before the slaughtered carcases are distributed.

소비자들에게 있어서도 소고기의 품질은 매우 중요하며, 결과적으로 제품을 선택하는 결정요인으로 작용한다. 현재 소고기 품질 등급은 도축장에서 전문 훈련을 받은 품질평가사에 의해 진행되며 정육량은 수작업에 의한 발골이 된 후 결정된다. 그러나 이러한 과정에서 많은 시간과 비용이 소모되며, 판정사 및 도축장 마다 평가 기준이나 숙련도가 달라 주관적인 요소가 개입될 수 있다. For consumers, the quality of beef is very important, and as a result, it acts as a determinant of product selection. Currently, the beef quality grade is conducted by quality assessors who have been trained in the slaughterhouse, and the amount of meat is determined after being boned by hand. However, this process consumes a lot of time and money, and subjective factors may be involved as the evaluation standards and skill levels are different for each judge and slaughterhouse.

미국 식육학회(American Meat Scientist Association; AMSA)에 따르면, 소도체의 품질을 결정하는 요소로 성숙도(maturity), 마블링(Marbling), 정육의 조직감 및 견고도, 육색 및 지방색이 있다고 알려졌다. 성숙도는 동물의 연령에 따라 결정되며, 척추 뼈와 연골의 경화도와 관련된다. 성숙도는 육색과 조직감에 영향을 미치며 결과적으로 전체 고기 품질에 영향을 미치게 된다. 마블링은 근육 내에 발생하는 근내 지방이 대리석 무늬처럼 작은 점으로 발생하기 때문에 붙여진 이름이며, 12-13번 갈비 사이에 있는 등심에 나타난 마블링 정도를 보고 등급을 평가하게 된다. 마블링은 식육의 다즙성 및 품질과 연관된다. 도체의 성숙도와 마블링은 소 도체 품질 평가에 주요 평가 척도이며, 이외에서 육색, 조직감, 지방 특성을 함께 평가하여 최종 품질을 평가하게 된다. 이전에 진행된 연구에 따르면(Ricardo et al., 2016), 도체의 등급 판정에 있어 근육의 품질과 지방 함량은 중요한 품질 지표로 알려졌다. 근육의 질은 근육의 구조 또는 근육과 뼈의 비율에 의해 결정되는 근육의 양을 나타내며, 지방은 지방의 외부 또는 내부의 침착도를 말한다.According to the American Meat Scientist Association (AMSA), it is known that maturity, marbling, texture and firmness of meat, meat color and fat color are factors that determine the quality of carcasses. Maturity is determined by the age of the animal and is related to the degree of hardening of the vertebral bones and cartilage. Maturity affects meat color and texture, which in turn affects overall meat quality. Marbling is so named because intramuscular fat occurs as small dots like marble patterns. Marbling is associated with juiciness and quality of meat. The maturity and marbling of carcasses are the main evaluation criteria for the quality evaluation of cattle carcasses, and the final quality is evaluated by evaluating meat color, texture, and fat characteristics together. According to a previous study (Ricardo et al., 2016), muscle quality and fat content were found to be important quality indicators in the grading of carcasses. The quality of muscle refers to the amount of muscle determined by the structure of the muscle or the ratio of muscle to bone, and fat refers to the degree of deposition inside or outside of fat.

소 도체의 평가는 일반적으로 표준 도표를 기반으로 품질을 결정하는 체계적인 방법을 통해 수행된다. 도체의 경제적 가치는 일반적으로 판매가능한 육류 생산량(saleable meat yield; SMY%), 정육비(lean meat percentage; LMP), 대분할(등심, 갈비, 뒷다리, 안심 등) 무게 등에 의해 결정된다. LMP는 가장 일반적으로 사용되는 도체 수율 품질 지표 중 하나이며, 도체를 분류하는데 중요 기준으로 작용한다. 이러한 LMP는 대부분의 유럽국가와 전 세계에서 사체 분류의 핵심 매개변수로서 도체 무게에 대한 정육 무게를 백분율로 나타낸 수치이다. 몇몇 연구에서는 LMP를 lean meat yield (LMY)로 기록하였으며, 시장에 따라 정육에 지방과 일부 뼈를 더한 무게에 대한 도체 중 비율로 정의하였다 (Craigie et al., 2012). The evaluation of bovine conductors is usually carried out through a systematic method of determining quality based on standard diagrams. The economic value of a carcass is generally determined by the saleable meat yield (SMY%), lean meat percentage (LMP), and weight of large cuts (loin, ribs, hind legs, tenderloin, etc.). LMP is one of the most commonly used carcass yield quality indicators and serves as an important criterion for classifying carcasses. This LMP is a key parameter for carcass classification in most European countries and around the world, and is a numerical value expressed as a percentage of meat weight to carcass weight. Several studies have documented LMP as lean meat yield (LMY), defined as the ratio of carcase weight to meat plus fat and some bones, depending on the market (Craigie et al., 2012).

LMP는 다양한 장비와 기술을 활용해 도축장에서 실시간으로 측정되고 있다. 도축장 자동화 정도에 따라 이러한 장비는 수동형, 반자동형 형태인 Fat-O-Meat'er, UltraFom(Carometec A/S, Herlev, Denmark)등이 있으며, 자동형 모델로는 AutoFom (Carometec A/S, Herlev, Denmark), VCS2000, VBS2000 (from E + V Technology GmbH, Oranienburg, Germany), BCC (Frontmatec Group, Roskilde, Belgium) 등의 측정 기계들이 존재한다. 또한 기기의 작동 방식에 따라 빛 반사형 측정 기술, 초음파, 전자파 또는 비젼 기술 기반 기기로 구분된다. 이러한 장비와 기술의 대부분은 현재 육류 가공 라인에서 사용되고 있으며, 이외에도 다양한 목적을 위해 여러 장비들이 활용된다. 예를 들어 지방 함량 측정, 연도 측정, 원산지 판별, 도체 품질 측정과 같은 기술이 있다. LMP is being measured in real time at the slaughterhouse using a variety of equipment and technologies. Depending on the degree of automation in the slaughterhouse, these equipments include manual and semi-automatic types such as Fat-O-Meat'er and UltraFom (Carometec A/S, Herlev, Denmark), and automatic models include AutoFom (Carometec A/S, Herlev). , Denmark), VCS2000, VBS2000 (from E + V Technology GmbH, Oranienburg, Germany), and BCC (Frontmatec Group, Roskilde, Belgium). In addition, according to the operation method of the device, it is divided into light-reflecting measurement technology, ultrasound, electromagnetic wave, or vision technology-based devices. Most of these equipment and technologies are currently used on meat processing lines, and other equipment is utilized for a variety of purposes. Examples include techniques such as fat content determination, age determination, country of origin determination, and carcase quality determination.

위에 언급된 장비와 기술은 소도체의 LMP 예측에 많은 도움을 주지만, 여전히 개선해야하는 개선점을 가지고 있다. 본 장비들은 경우에 따라 측정에 시간이 소요되고, 사용법이 복잡하거나 도입에 비용이 많이 들고 하기 표 1에 나타낸 것과 같이 정확도가 낮다는 단점을 가진다. 이러한 시스템들의 낮은 정확도는 이미지 수집 방법, 특징 추출 방법의 문제, 통계적 예측 방법 또는 모델 개발에 사용된 샘플 데이터 셋의 부족 등에 영향을 받았을 수도 있다. 그러나 이러한 사전에 개발된 시스템들의 도체 무게와 도체 간 외형 유사성에 대한 예측은 도체의 형태학적 특징과 연관되어 있기에 대부분 정확한 결과를 보였다.The above-mentioned equipment and technology are very helpful in predicting the LMP of insulators, but there are still improvements that need to be improved. In some cases, these devices have disadvantages in that they take time to measure, are complicated to use or are expensive to introduce, and have low accuracy as shown in Table 1 below. The low accuracy of these systems may be influenced by problems with image acquisition methods, feature extraction methods, lack of statistical prediction methods, or sample data sets used for model development. However, the prediction of conductor weight and shape similarity between conductors of these pre-developed systems showed mostly accurate results because they are related to the morphological characteristics of conductors.

Location (System)Location (System) Sample numbersample number Quality parameterQuality parameter Performance* Performance * ReferenceReference Australia (BBC-3)Australia (BBC-3) 427427 Pistol cut (kg)Pistol cut (kg) R2 = 0.967
RMSE = 0.91
R 2 = 0.967
RMSE = 0.91
(Jakob et al., 2019)(Jakob et al., 2019)
Denmark (BCC-2)Denmark (BCC-2) 34593459 Saleable meat (%)Saleable meat (%) R2 = 0.70SEP = 1.31R 2 = 0.70 SEP = 1.31 (Borggaard, Madsen, & Thodberg, 1996b)(Borggaard, Madsen, & Thodberg, 1996b) USA (VIAScan)USA (VIAScan) 240240 Hot carcass weight (kg)Hot carcass weight (kg) R2 = 0.75RSD = 1.08R 2 = 0.75 RSD = 1.08 (Cannell et al., 1999)(Cannell et al., 1999) Germany (VBS2000)Germany (VBS2000) 301301 Fat classFat class R2 = 0.75SEP = 1.20R 2 = 0.75 SEP = 1.20 (Sonnichsen et al., 1998)(Sonnichsen et al., 1998)

* RMSE: root-mean-square error; SEP: standard error of prediction; RSD: relative standard deviation* RMSE: root-mean-square error; SEP: standard error of prediction; RSD: relative standard deviation

본 발명은 정육비(lean meat percentage; LMP), 온도체 중량(hot carcass weight; HCW) 및 10개 부위의 대분할 부위(안심, 등심, 채끝, 목심, 앞다리, 우둔, 설도, 양지, 사태, 갈비) 무게를 예측하기 위한 간단하고 비 파괴적인 이미지 분석 기반 시스템을 제공하는 것이다.The present invention relates to lean meat percentage (LMP), hot carcass weight (HCW) and large divisions of 10 parts (loin, sirloin, loin tip, pork loin, forelimb, rump, scallop, brisket, scallop, To provide a simple and non-destructive image analysis-based system for predicting ribs) weight.

본 발명은 컬러 카메라를 이용하여 다양한 상태의 도체 이미지를 얻는 이미지 수집단계; 상기 단계에서 수집된 이미지를 처리하여 특징을 추출하는 단계로서, 배경 제거단계, 키 포인트 검출단계 및 특징 추출단계를 포함하는 이미지 처리단계; 및 상기 추출된 특징들 중 선택된 특징을 이용하여 다중 선형 회귀(Multiple Linear Regression; MLR) 방식을 이용하여 예측 모델을 구축하는 모델구축단계를 포함하는 소 도체의 정육량 예측 모델 구축 시스템을 제공한다.The present invention provides an image collecting step of obtaining images of conductors in various states using a color camera; processing the image collected in the above step to extract features, the image processing step including a background removal step, a key point detection step and a feature extraction step; and a model building step of constructing a predictive model using a multiple linear regression (MLR) method using the selected features among the extracted features.

또한 상기 이미지 수집단계는 온도체 또는 냉도체 상태의 우도체 또는 좌도체를 도체 안쪽 방향 이미지 및 도체 등쪽 방향 이미지를 얻는 단계인 것을 특징으로 한다.In addition, the image collecting step is characterized in that it is a step of obtaining a conductor inward direction image and a conductor dorsal direction image of a right conductor or a left conductor in the state of a temperature body or a cold conductor.

또한 상기 배경 제거단계는 블루 스크린(blue screen) 영역을 제거하고 색상 통계를 통한 도체 대비 향상 후에 임계값 설정 및 모서리 검출을 결합하여 생성된 이미지에 대하여 형태학적 영상 처리과정을 거쳐 최종 마스크 이미지를 얻음으로써 배경을 제거하는 단계인 것을 특징으로 한다.In addition, in the background removal step, the final mask image is obtained through a morphological image processing process for the image generated by removing the blue screen region, improving the conductor contrast through color statistics, and combining the threshold setting and edge detection. This is characterized in that the background is removed.

또한 상기 키 포인트 검출단계는 도체의 각 부위별 구분의 기점이 될 수 있는 지점을 키 포인트로 선택하고 모델 도체 이미지를 선정하여 키 포인트 라벨링을 붙인 마스터 이미지를 지정한 후, 새로운 이미지가 수집되면 마스터 이미지와 매칭하여 새로운 이미지에 키 포인트 위치를 맵핑하는 단계인 것을 특징으로 한다.In addition, the key point detection step selects a point that can be the starting point of classification for each part of the conductor as a key point, selects a model conductor image, designates a master image with key point labeling, and when a new image is collected, the master image It is characterized in that it is a step of mapping the key point position to a new image by matching with .

또한 상기 특징 추출단계는 예측 모델에서 사용되는 변수를 추출하는 단계로서 상기 배경 제거단계에서 얻어지는 마스크 이미지와 상기 키 포인트 검출단계에서 얻어지는 키 포인트를 이용하여 특징을 추출하는 단계인 것을 특징으로 한다.In addition, the feature extraction step is a step of extracting variables used in the predictive model, characterized in that it is a step of extracting features using the mask image obtained in the background removal step and the key point obtained in the key point detection step.

또한 상기 모델구축단계는 상기 추출된 특징들 중 모델링에 이용될 특징을 선택하는 알고리즘으로 FSC (feature selection cleaning) 알고리즘 및 SFS sequential feature selection) 알고리즘 중 하나 이상을 이용하는 것을 특징으로 한다.In addition, the model building step is characterized by using at least one of a feature selection cleaning (FSC) algorithm and an SFS sequential feature selection) algorithm as an algorithm for selecting a feature to be used for modeling among the extracted features.

본 발명은 다변량 통계와 이미지 분석을 결합하여, 컬러 이미지를 통해 소 도체의 정육량 예측을 진행할 수 있다. 이미지 분석 및 MLR을 통해 선택된 특성을 통해 구축된 모델의 성능은 모든 파라미터에 대해 R2가 0.86보다 큰 것을 확인할 수 있었다. 특히, LMP에 대한 예측 성능은 R2 = 0.89와 RMSE = 1.99%로 높은 예측 정확도를 보였다. 이 성능은 VBS2000, VIAScan 등과 같은 대부분의 VIA 시스템과 비교하였을 때도 상대적으로 좋은 성능에 해당한다. 따라서 본 발명에 따른 시스템을 도축 라인에 적용하여 실시간 도체 평가가 가능하다. The present invention combines multivariate statistics and image analysis to predict the amount of meat in cattle carcases through color images. The performance of the model built through the characteristics selected through image analysis and MLR was confirmed that R 2 was greater than 0.86 for all parameters. In particular, the prediction performance for LMP showed high prediction accuracy with R 2 = 0.89 and RMSE = 1.99%. This performance corresponds to relatively good performance compared to most VIA systems such as VBS2000 and VIAScan. Therefore, real-time carcass evaluation is possible by applying the system according to the present invention to a slaughter line.

도 1은 도체의 각도에 따른 영상 수집 이미지를 나타낸 것이다.
도 2는 참조 데이터를 기반으로 한 LMP089와 LMP의 상관관계를 나타낸 것이다.
도 3은 LAB 색 공간을 사용하여 블루 스크린을 감지하고 제거하는 과정을 나타낸 것이다.
도 4는 최종 이미지에 대한 각 밴드의 기여도, 도체 감지에 사용되는 회귀계수 플롯 및 색상 회귀 결과를 나타낸 것이다.
도 5는 임계값 설정과 모서리 검출 결합 및 형태학적 영상 처리 과정을 통해 마스크 이미지를 얻는 과정을 나타낸 것이다.
도 6은 KAZE 특징 매칭 및 아핀 변환을 통해 키 포인트가 새로운 도체 이미지에 투영된 마스터 이미지를 나타낸 것이다.
도 7은 키 포인트 추정을 위한 도체 이미지 매칭 과정을 나타낸 것이다.
도 8은 이미지 1번(도체 안쪽 부분)에서 추출한 특징(RP, A, B, C 및 E 특징)을 시각화한 것이다.
도 9는 이미지 2번(도체 등쪽 부분)에서 추출한 특징(RP, A, B 및 C 특징)을 시각화한 것이다.
도 10은 이미지 수집에서부터 최종 수율 예측 모델 구축까지의 개략도를 나타낸 것이다.
도 11은 검증을 위해 수집된 도체의 무게, 나이 및 LMP에 대한 히스토그램 플롯을 나타낸 것이다.
도 12는 LMP 예측 모델에서 선택된 매개 변수의 중요성을 나타낸 것이다.
도 13은 온도체 상태의 우도체 이미지를 이용하여 LMP를 예측하기 위한 선택된 특성의 시각화 및 구성을 나타낸 것이다.
도 14는 모든 특징(왼쪽), SFS로 선택한 특징(가운데), SFS로 선택한 특징에 3개의 외무 파라미터 변수(오른쪽)를 사용하여 LMP 회귀 모델링에서 생성된 회귀 플롯(위) 및 잔차 플롯(아래)을 나타낸 것이다.
도 15는 도체 총 중량 및 기타 주요 절단부에 대한 각 모델의 예측 성능을 보여주는 회귀 플롯을 나타낸 것이다.
1 shows an image collection image according to an angle of a conductor.
2 shows the correlation between LMP089 and LMP based on reference data.
3 shows a process for detecting and removing a blue screen using the LAB color space.
4 shows the contribution of each band to the final image, a plot of regression coefficients used for conductor detection, and color regression results.
5 shows a process of obtaining a mask image through threshold setting, edge detection combination, and morphological image processing.
6 shows a master image in which key points are projected onto a new conductor image through KAZE feature matching and affine transformation.
7 shows a conductor image matching process for key point estimation.
8 is a visualization of the features (RP, A, B, C, and E features) extracted from Image No. 1 (the inner part of the conductor).
9 is a visualization of features (RP, A, B, and C features) extracted from image No. 2 (dorsal part of the conductor).
10 shows a schematic diagram from image acquisition to final yield prediction model construction.
11 shows a histogram plot of the weight, age and LMP of the carcass collected for validation.
12 shows the importance of selected parameters in the LMP prediction model.
13 shows the visualization and construction of selected properties for predicting LMP using the likelihood image of the thermobody state.
14 is a regression plot (top) and residual plots (bottom) generated from LMP regression modeling using three foreign parameter variables (right) for all features (left), SFS-selected features (middle), and SFS-selected features. is shown.
15 shows a regression plot showing the predictive performance of each model for carcase gross weight and other major cuts.

본 명세서에 사용되는 모든 기술용어 및 과학용어는 다른 언급이 없는 한은 기술적으로 통상의 기술을 가진 자에게 일반적으로 이해되는 것과 동일한 의미를 가진다. 또한 본 명세서 및 청구범위의 전반에 걸쳐, 다른 언급이 없는 한 포함(comprise, comprises, comprising)이라는 용어는 언급된 물건, 단계 또는 일군의 물건, 및 단계를 포함하는 것을 의미하고, 임의의 어떤 다른 물건, 단계 또는 일군의 물건 또는 일군의 단계를 배제하는 의미로 사용된 것은 아니다.All technical and scientific terms used herein have the same meaning as commonly understood by those of ordinary skill in the art, unless otherwise stated. Also throughout this specification and claims, unless stated otherwise, the term comprise, comprises, comprising is meant to include the recited object, step or group of objects, and steps, and any other It is not used in the sense of excluding an object, step, or group of objects or groups of steps.

이하에 본 발명을 상세하게 설명하기에 앞서, 본 명세서에 사용된 용어는 특정의 실시예를 기술하기 위한 것일 뿐 첨부하는 특허청구의 범위에 의해서만 한정되는 본 발명의 범위를 한정하려는 것은 아님을 이해하여야 한다.Prior to describing the present invention in detail below, it is to be understood that the terminology used herein is for the purpose of describing specific embodiments and is not intended to limit the scope of the present invention, which is limited only by the appended claims. shall.

한편, 본 발명의 여러 가지 실시예들은 명확한 반대의 지적이 없는 한 그 외의 어떤 다른 실시예들과 결합될 수 있다. 특히 바람직하거나 유리하다고 지시하는 어떤 특징도 바람직하거나 유리하다고 지시한 그 외의 어떤 특징 및 특징들과 결합될 수 있다. 이하, 첨부된 도면을 참조하여 본 발명의 실시예 및 이에 따른 효과를 설명하기로 한다. On the other hand, various embodiments of the present invention may be combined with any other embodiments unless clearly indicated to the contrary. Any feature indicated as particularly preferred or advantageous may be combined with any other feature and features indicated as preferred or advantageous. Hereinafter, embodiments of the present invention and effects thereof will be described with reference to the accompanying drawings.

본 발명의 일실시예에 따른 소 도체의 정육량 예측 모델 구축 시스템은 다변량 통계와 이미지 분석을 결합하여, 컬러 이미지를 통해 소 도체의 정육량을 비파괴적으로 예측하는 시스템으로서, 이미지 수집단계; 이미지 처리단계; 및 다변량 통계 분석을 통한 모델구축단계;를 포함하여 구축된다. According to an embodiment of the present invention, a system for constructing a meat quantity prediction model of cattle carcass is a system for non-destructively predicting the meat quantity of cattle carcass through a color image by combining multivariate statistics and image analysis, comprising: an image collection step; image processing step; and a model building step through multivariate statistical analysis;

상기 이미지 수집단계는 컬러 카메라를 이용하여 다양한 상태의 도체 이미지를 얻는 단계로서, 온도체 또는 냉도체 상태의 우도체 또는 좌도체를 도체 안쪽 방향 이미지(0˚ 각도의 이미지) 및 도체 등쪽 방향 이미지(90˚ 각도의 이미지)를 얻는 단계이다.The image collection step is a step of obtaining images of conductors in various states by using a color camera, and includes a right conductor or a left conductor in a hot or cold conductor state, an image in the direction of the inside of the conductor (an image at an angle of 0˚) and an image of the dorsal side of the conductor ( 90˚ angle image).

이미지를 수집함에 있어서, 카메라 보정이 지속될 수 있다. 카메라 보정은 카메라의 내적 또는 외적 파라미터를 추정하는 과정으로서, 내적 파라미터는 초점거리, 왜곡 및 이미지 중심과 같은 카메라 내부 특성을 의미하며, 외적 파라미터는 카메라가 위치한 위치와 방향을 의미한다. 카메라 보정은 촬영 영역에 대한 재 투영 오류가 0.3 pixel 미만이 될 때까지 카메라 보정을 지속한다.In acquiring images, camera calibration may be continued. Camera calibration is a process of estimating internal or external parameters of a camera. The internal parameters refer to camera internal characteristics such as focal length, distortion, and image center, and external parameters refer to the position and orientation of the camera. Camera calibration continues until the re-projection error for the shooting area is less than 0.3 pixels.

상기 이미지 처리단계는 수집된 이미지를 처리하여 특징을 추출하는 단계로서, 배경 제거단계, 키 포인트 검출단계 및 특징 추출단계를 포함한다. The image processing step is a step of extracting features by processing the collected images, and includes a background removal step, a key point detection step, and a feature extraction step.

상기 배경 제거단계는 도체 이미지의 실루엣 추출을 위한 단계로서 블루 스크린(blue screen) 영역을 제거하고 색상 통계를 통한 도체 대비 향상 후에 임계값 설정 및 모서리 검출을 결합하여 생성된 이미지에 대하여 형태학적 영상 처리과정을 거쳐 최종 마스크 이미지를 얻음으로써 배경을 제거하는 단계이다. The background removal step is a step for extracting the silhouette of the conductor image. After removing the blue screen region and improving the conductor contrast through color statistics, morphological image processing for the image generated by combining threshold setting and edge detection This is the step of removing the background by obtaining the final mask image through the process.

상기 키 포인트 검출단계는 먼저 도체의 각 부위별 구분의 기점이 될 수 있는 지점을 키 포인트로 선택하고 모델 도체 이미지를 선정하여 키 포인트 라벨링을 붙인 마스터 이미지를 지정한 후, 여기에 새로운 이미지(분석 대상 이미지)가 수집되면 마스터 이미지와 매칭하여 새로운 이미지에 키 포인트 위치를 맵핑하는 단계이다. In the key point detection step, first, a point that can be the starting point of classification for each part of the conductor is selected as a key point, a model conductor image is selected, a master image with key point labeling is designated, and then a new image (analysis target) is selected. image) is collected, it is a step of mapping the key point position to a new image by matching it with the master image.

상기 특징 추출단계는 예측 모델에서 사용되는 변수를 추출하는 단계로서 상기 배경 제거단계에서 얻어지는 마스크 이미지와 상기 키 포인트 검출단계에서 얻어지는 키 포인트를 이용하여 특징을 추출하는 단계이다. 추출된 특징은 마스크, 중심 및 윤곽의 특성 영역을 기반으로 추출된 특징, 16개의 단면, 중심 및 윤곽을 기반으로 추출된 특징 및 키 포인트를 기반으로 추출된 특징을 포함한다. 또한 외부 변수로써 온도체 중량(HCW, nit:Kg), 도축된 소의 연령(개월), 성별 등을 추가시킬 수 있다.The feature extraction step is a step of extracting variables used in the predictive model, and is a step of extracting features using the mask image obtained in the background removal step and the key point obtained in the key point detection step. The extracted features include features extracted based on the characteristic areas of the mask, center, and contour, features extracted based on 16 cross-sections, centers and contours, and features extracted based on key points. In addition, as external variables, the temperature body weight (HCW, nit:Kg), the age (months) of the slaughtered cattle, sex, etc. can be added.

상기 다변량 통계 분석을 통한 모델구축단계는 상기 추출된 특징들 중 선택된 특징을 이용하여 다중 선형 회귀(Multiple Linear Regression; MLR) 방식을 이용하여 예측 모델을 구축하는 단계이다. 이는 전체 특징을 이용하여 가우시안 프로세스 회귀(Gaussian Process Regression; GPR) 방식을 이용하여 구축된 예측 모델보다 우수한 성능을 갖는다. The step of constructing a model through the multivariate statistical analysis is a step of constructing a predictive model using a multiple linear regression (MLR) method using selected features among the extracted features. It has better performance than a predictive model built using Gaussian Process Regression (GPR) using all features.

상기 추출된 특징들 중 모델링에 이용될 특징을 선택하는 알고리즘은 FSC (feature selection cleaning) 알고리즘 및 SFS(sequential feature selection) 알고리즘 중 하나 이상을 이용한다. An algorithm for selecting a feature to be used for modeling among the extracted features uses at least one of a feature selection cleaning (FSC) algorithm and a sequential feature selection (SFS) algorithm.

<실시예> <Example>

(1) 샘플 데이터 수집(1) Sample data collection

데이터 수집은 전주에 위치한 국립 축산 과학원 도축장에서 3.5년간(2017년 1월 - 2020년 6월) 진행되었다. 본 실시예를 위해 성별, 연령, 무게가 다른 각 지역에서 사육된 한우 140 두에 대하여 측정되었다. Data collection was carried out for 3.5 years (January 2017 - June 2020) at the slaughterhouse of the National Institute of Livestock Science in Jeonju. For this example, measurements were made for 140 Korean cattle raised in different regions by gender, age, and weight.

(2) 이미지 데이터 수집(2) Image data collection

도체의 영상 측정은 도축 후 온도체 상태의 이분 도체와 도체를 24시간동안 2℃에서 냉각시킨 냉도체 상태의 이미지를 획득하였다. 도체의 품질 평가는 냉도체 상태의 도체에 대해 이미지 촬영 이후 품질평가사에 의해 진행되었다. 이미지 획득은 우도체와 좌도체 모두에 대하여 실시되었다. 촬영 시 사용된 카메라는 color 카메라(Matrix Vision GmbH, Oppenweiler, Germany)를 사용하였으며, 컴퓨터와 USB3로 연결되어 제어하였다. 카메라 센서는 도체 전면에 대한 영상을 획득하기 위해 광각 렌즈와 결합된 mvBlueFOX3-2059C를 사용하였다. For image measurement of carcases, two-part carcasses in the temperature body state after slaughter and the cold carcass state in which the carcases were cooled at 2°C for 24 hours were acquired. The quality evaluation of the conductor was conducted by a quality assessor after taking an image of the conductor in the cold conductor state. Image acquisition was performed for both right and left conductors. A color camera (Matrix Vision GmbH, Oppenweiler, Germany) was used as the camera used for filming, and it was controlled by being connected to a computer via USB3. The camera sensor used mvBlueFOX3-2059C combined with a wide-angle lens to acquire an image of the front side of the conductor.

총 2개의 이미지가 각각의 분할 도체(좌도체, 우도체)에 대하여 촬영되었으며, 도 1에 나타낸 것과 같이 0˚ 각도의 이미지(도체 안쪽 방향_medial section image)와 90˚ 각도의 이미지(도체 등쪽 방향_Dorsal section)로 구성되었다. 90˚ 각도 이미지 획득을 위해 서보 모터(Ezi-Servo plusR, Fastech, Gyeonggi-do, South Korea)를 이용하여 회전시켰으며, 동일한 컴퓨터에 의해 제어되었다. 카메라와 모터는 한 프로그램에서 동기화되어 이미지 촬영에 이용되었다.A total of two images were taken for each divided conductor (left conductor, right conductor), and as shown in Fig. 1, an image at an angle of 0˚ (inward direction of the conductor_medial section image) and an image at an angle of 90˚ (the dorsal side of the conductor) Direction_Dorsal section). It was rotated using a servo motor (Ezi-Servo plusR, Fastech, Gyeonggi-do, South Korea) for 90˚ angle image acquisition, and was controlled by the same computer. The camera and motor were synchronized in one program and used for image shooting.

특정 인스턴스에서 카메라의 이미지를 캡처하기 위해 EMVA (European Machine Vision Association)의 "GenlCam" 어댑터를 사용하여 MATLAB 소프트웨어 (MathWorks Inc., Natick, MA, USA)에서 사용자 정의 UI를 개발하였다. 또한 개발된 UI를 특정 각도의 소도체 이미지를 캡처하기 위해 모터 제조업체에서 제공하는 소프트웨어 개발 키트와 결합하여 제어를 진행하였다. 촬영 시 최적의 이미지를 획득하기 위해 촬영 노출 시간은 25 ms로 설정하였다. 이후 획득된 파일은 portable network graphic (PNG) 형식의 파일로 저장하였으며, 이후 이미지 처리 단계 수행을 위해 사전 정의된 디렉토리에 저장되었다.A custom UI was developed in MATLAB software (MathWorks Inc., Natick, MA, USA) using the "Genlcam" adapter from EMVA (European Machine Vision Association) to capture images from the camera in a specific instance. In addition, control was carried out by combining the developed UI with a software development kit provided by the motor manufacturer to capture a small conductor image at a specific angle. In order to obtain an optimal image during shooting, the exposure time for shooting was set to 25 ms. Afterwards, the acquired file was saved as a file in portable network graphic (PNG) format, and then stored in a predefined directory for performing the image processing step.

카메라 보정은 카메라의 내적 또는 외적 파라미터를 추정하는 과정이다. 내적 매개(intrinsic parameter) 변수는 초점거리, 왜곡 및 이미지 중심과 같은 카메라 내부 특성을 의미한다. 외적 파라미터는 카메라가 위치한 위치와 방향을 의미한다. 카메라 보정 이후 시스템 성능에 영향을 미칠 수 있는 렌즈 배럴 왜곡현상(광각렌즈 사용에 따른)을 제거하였다. 본 연구의 카메라 보정을 위해 스탠다드 체크보드(standard checkboard) 방식을 사용하였다. 보정은 촬영 영역에 대한 재 투영 오류가 0.3 pixel 미만이 될 때까지 카메라 보정을 지속하였다.Camera calibration is the process of estimating internal or external parameters of a camera. Intrinsic parameter variables refer to camera internal characteristics such as focal length, distortion, and image center. The extrinsic parameters refer to the position and orientation of the camera. Lens barrel distortion (due to the use of wide-angle lenses) that can affect system performance after camera calibration has been removed. A standard checkboard method was used for camera calibration in this study. Calibration was continued until the re-projection error for the shooting area was less than 0.3 pixels.

(3) 참조 데이터 수집(3) Reference data collection

모델 개발을 위한 참조 데이터(도체 무게, 성별, 나이, 대분할 무게 등)는 작업자들이 도체를 해체하는 전후로 하여 현장에서 수집했다. 반면 LMP의 경우에는 획득한 참조 데이터에 LMP에 대한 EU의 기준 공식인 식(1)과 식(2)를 적용하여 계산하였다.Reference data for model development (carcass weight, gender, age, large division weight, etc.) were collected on site before and after workers dismantled the carcass. On the other hand, LMP was calculated by applying Equations (1) and (2), which are EU standard formulas for LMP, to the obtained reference data.

식 (1): Equation (1):

Figure 112020126182174-pat00001
Figure 112020126182174-pat00001

식 (2):Equation (2):

Figure 112020126182174-pat00002
Figure 112020126182174-pat00002

식 (1)에서 볼 수 있듯이 LMP089는 5개의 주요 분할 부위의 무게를 바탕으로 계산되는 반면 LMP는 전체 도체로부터 해체된 모든 정육을 고려하여 계산된다는 차이점이 있다. 본 실시예에서 사용된 도체 데이터 셋에서는 도 2에 나타낸 것과 같이 LMP089와 LMP가 높은 연관성을 보였다. 본 실시예에서는 최종 참조 데이터로 LMP089대신 LMP를 사용하였다.As can be seen in Equation (1), LMP089 is calculated based on the weight of the five main divisions, whereas LMP is calculated considering all the meat dismantled from the whole carcass. In the conductor data set used in this example, LMP089 and LMP showed a high correlation as shown in FIG. 2 . In this example, LMP was used instead of LMP089 as the final reference data.

(4) 이미지 처리(4) Image processing

특징 추출은 수집된 도체 영상에 대해 이미지 처리 작업을 수행한 후에 이루어 졌다. 본 장에서는 배경 제거, 키 포인트 검출 및 형상 추출에 초점을 맞춘 3가지 부분으로 나누어 분석을 진행하였다.Feature extraction was performed after image processing was performed on the collected carcass images. In this chapter, we divided the analysis into three parts focusing on background removal, key point detection, and shape extraction.

(4.1) 배경 검출(배경 제거)(4.1) Background detection (background removal)

배경 제거 과정은 도체 이미지의 실루엣 추출을 목적으로 한다. 그러나 도 1과 같이 연구를 진행한 도축장의 공간적 제한으로 인해 배경이 균일하지 못했다. 이러한 이유에서 색상 강도(color intensity) 및 색상 임계값(thresholding) 설정과 같은 간단한 방법으로 배경을 제거할 수 없었다. 배경 제거 문제를 해결하기 위해 다양한 이미지 처리 기술을 사용하여 이 문제에 대하여 단계적 접근을 시도하였다. 첫번째로는 블루 스크린(blue screen) 영역 제거, 두번째는 색상 통계를 통한 도체 대비 향상, 세번째는 임계값 설정, 모서리 검출(edge detection) 및 형태학적 작업(morphological operation)을 결합하여 마스크 이미지를 생성하였다.The background removal process aims to extract the silhouette of the carcass image. However, the background was not uniform due to the spatial limitation of the slaughterhouse where the study was conducted as shown in FIG. 1 . For this reason, the background could not be removed by simple methods such as setting color intensity and color thresholding. To solve the background removal problem, a step-by-step approach to this problem was attempted using various image processing techniques. The first was to remove the blue screen area, the second to improve the conductor contrast through color statistics, and the third to create a mask image by combining threshold setting, edge detection and morphological operation. .

(4.1.1) 블루스크린 검출(4.1.1) Blue screen detection

블루스크린은 LAB 색상 공간 중 b*(blue - yellow value) 값을 이용하면 쉽게 검출할 수 있다. 획득한 이미지의 b* 값의 히스토그램에서 국소 최소값(local minimum)을 컷오프(cut-off) 값으로 사용하여, 블루스크린을 제거한 영상을 만들었다(도 3 좌측). 영상의 블루스크린이 검출된 후, 블루 스크린에 해당하는 모든 픽셀의 값을 0으로 설정하였다. 마스킹 이미지와 도체를 마스킹 한 결과는 도 3과 같다.The blue screen can be easily detected by using the b* (blue - yellow value) value in the LAB color space. In the histogram of the b* value of the acquired image, a local minimum was used as a cut-off value to create an image from which the blue screen was removed ( FIG. 3 left ). After the blue screen of the image was detected, the values of all pixels corresponding to the blue screen were set to 0. The masking image and the result of masking the conductor are shown in FIG. 3 .

(4.1.2) 색상 통계를 이용한 도체 대비 향상(4.1.2) Conductor Contrast Enhancement Using Color Statistics

다음의 과정을 위해 데이터 셋에 있는 500장의 도체 사진을 선택하여, 수작업으로 이미지 분할 작업을 진행하였다. 이때 배경은 0으로 라벨링 하였으며, 도체에 해당하는 픽셀은 1로 라벨링 하였다. 이미지 픽셀은 4가지 종류의 색상 공간(LAB, HSV, YCBCR, XYZ)으로 변환시켰다. 이후 라벨로 표시된 픽셀과 15개의 색상 변수 행렬 사이의 단순한 선형 회귀 분석이 수행되었고, 그 결과 도체 이미지에서 도체와 배경 검출 기준으로 사용된 회귀 계수를 획득하였다. 또한 도체와 가장 높은 연관성을 보이는 컬러 채널을 선택하기 위해 최종 예측에 대한 각 컬러 밴드의 기여도 분석을 진행하였다. 결과적으로 분석 시 RGB의 빨간색 채널이 가장 높은 연관성을 보였으며(0.84% importance score), 그 뒤로 xyz 채널의 y값이, LAB 색상 공간의 A*값이 xyz의 x값 그리고 HSV공간의 S값이 높게 검출되었다. 나머지 항목들은 중요도 점수에서 10% 미만의 결과를 보였다. 선택된 5가지 컬러 밴드를 이용하여 도체 이미지의 실루엣을 예측하였다. 색상에 기초한 대비 강화(contrast enhancement) 결과는 도 4과 같다.For the following process, 500 carcass photos in the data set were selected and image segmentation was performed manually. At this time, the background was labeled as 0, and the pixel corresponding to the conductor was labeled as 1. Image pixels were converted into four color spaces (LAB, HSV, YCBCR, XYZ). A simple linear regression analysis was then performed between the labeled pixels and a matrix of 15 color variables to obtain the regression coefficients used as the conductor and background detection criteria in the conductor image. In addition, the contribution of each color band to the final prediction was analyzed to select the color channel with the highest correlation with the conductor. As a result, in the analysis, the red channel of RGB showed the highest correlation (0.84% importance score), followed by the y value of the xyz channel, the A* value of the LAB color space, the x value of xyz, and the S value of the HSV space. high was detected. The remaining items showed less than 10% of the importance score. The silhouette of the conductor image was predicted using the selected five color bands. A result of contrast enhancement based on color is shown in FIG. 4 .

(4.1.3) 임계값 설정과 모서리 검출 결합(4.1.3) Combining Threshold Setting and Edge Detection

색상 통계를 통해 전경을 검출한 이후 생성된 이미지는 이진 이미지로 변형되었고, 이후 OTSU 임계값(thresholding)을 이용하여 영상을 변형하였다. 또한 색상 통계로 제작된 이진 영상은 Canny's edge 알고리즘에 의해 가장자리 검출을 진행하였다. 이후 모서리 검출 방법에 의해 생성된 이진 영상과 OTSU 알고리즘에 의해 생성된 임계값 영상을 합성하였다. 이후 생성된 이미지에 대하여 형태학적 영상 처리과정(image closing, image area opening, image filling, image filtering)을 진행하였으며, 이를 통해 최종적인 마스크 이미지를 제작하였다(도 5).After detecting the foreground through color statistics, the generated image was transformed into a binary image, and then the image was transformed using OTSU thresholding. Also, the binary image produced by color statistics was edge-detected by Canny's edge algorithm. Then, the binary image generated by the edge detection method and the threshold image generated by the OTSU algorithm were synthesized. Thereafter, a morphological image processing process (image closing, image area opening, image filling, image filtering) was performed on the generated image, and a final mask image was produced through this process (FIG. 5).

(4.2) 키 포인트 검출(4.2) Key point detection

본 실시예에서는 이전 연구와 한국 도체 해부 가이드라인 및 모델링 과정에서 얻은 경험을 바탕으로 도체에서 선택된 지점을 키 포인트(key point)로 정의하였다. 총 16개의 키 포인트들이 선택되었다(도 6). 키 포인트 알고리즘은 도체의 일반적인 형태가 다른 도체와 서로 유사하고, 다른 도체에서도 각 부위별 부분(예: 갈비뼈, 다리, 척추 등)을 쉽게 구분할 수 있다는 기본 가정아래 연구를 진행하였다. 본 실시예에서는 speeded up robust features(SURF)알고리즘과 scale-invariant feature transform(SIFT), KAZE 특징 알고리즘 등과 같은 이미지 설명자 알고리즘을 사용하여 두개의 서로 다른 도체의 이미지에 있어, 두 이미지 간 공통된 부분을 찾도록 하였다. 본 실시예에 사용된 KAZE 알고리즘은 비선형 확산 필터링을 사용하는데, 이러한 비선형 확산 필터링은 이미지의 노이즈를 효과적으로 감소시키는것과 동시에 물체의 경계를 유지하여 다른 알고리즘에 비해 명확하게 기능적 위치를 구분할 수 있다. 본 실시예에서는 추가적으로 두 이미지 간의 실제 robust 일치를 필터링하기 위해 random sample consensus(RANSAC) 알고리즘을 사용하였다.In this example, a selected point in the carcass was defined as a key point based on previous studies, Korean carcass dissection guidelines, and experiences obtained in the modeling process. A total of 16 key points were selected (FIG. 6). The key point algorithm was conducted under the basic assumption that the general shape of the conductor is similar to that of other conductors, and that parts (eg, ribs, legs, spine, etc.) can be easily distinguished from other conductors as well. In this embodiment, the image descriptor algorithm such as the speeded up robust features (SURF) algorithm, the scale-invariant feature transform (SIFT), and the KAZE feature algorithm are used to find the common part between the two images in the images of two different conductors. made it possible The KAZE algorithm used in this embodiment uses nonlinear diffusion filtering, which effectively reduces image noise and maintains the boundary of objects, so that functional positions can be clearly distinguished compared to other algorithms. In this embodiment, a random sample consensus (RANSAC) algorithm is used to additionally filter the actual robust match between the two images.

본 실시예에서는 모델 도체 이미지를 선정하여(도 7), 16개의 key-point 라벨링을 붙이고, 이를 마스터 이미지로 지정하였다. Key point가 지정되지 않은 새로운 이미지가 분석 과정에 들어오면 KAZE, RANSAC 알고리즘에 의해 생성된 마스터 이미지와 멥핑되고 그 과정에서 T 매트릭스로 변환된다. T 매트릭스는 아래의 식(3)을 이용하여 마스터 이미지에서 새로운 영상으로 key-point 위치를 매핑하게 된다.In this embodiment, a model conductor image is selected (FIG. 7), 16 key-point labels are attached, and this is designated as a master image. When a new image with no key point specified enters the analysis process, it is mapped with the master image generated by the KAZE and RANSAC algorithms and converted into a T matrix in the process. The T matrix maps key-point positions from the master image to the new image using Equation (3) below.

식 (3):Equation (3):

Figure 112020126182174-pat00003
Figure 112020126182174-pat00003

여기서 [u, v]는 새 영상의 새로운 키 포인트 좌표, [x, y]는 "마스터" 영상의 키 포인트의 원래 좌표다. Key point 알고리즘의 성능은 수동으로 라벨링을 진행한 후 알고리즘의 해당 예측 위치와 비교한 30개의 영상을 사용하여 평가되었다(표 2, 도 6). 평가를 위해 사용된 성능 기준은 결정 계수(coefficient of determination), R2, root meat square error(RMSE)를 사용하였다. where [u, v] is the coordinates of the new key point in the new image, and [x, y] is the original coordinate of the key point in the "master" image. The performance of the key point algorithm was evaluated using 30 images compared with the corresponding predicted positions of the algorithm after manual labeling (Table 2, FIG. 6). Performance criteria used for evaluation were coefficient of determination, R 2 , and root meat square error (RMSE).

본 실시예에서 사용된 key-point 검출 알고리즘의 결과는 높은 결과를 보였지만(R2=0.9, RMSE = 104 pixel, 157 mm) 여전히 상당한 오류가 있었다. 이러한 오류의 원인은 라벨링 중 사람에 의해 범해지는 인적 오류와 이미지 변환 중 일치하지 않는 영역의 조합에 의해 발생하는 것으로 판단된다. 따라서 이러한 오류의 개선은 추출된 특징의 품질을 향상시켜 결과적으로 도체 정육량 예측 모델의 성능을 향상시킬 수 있다고 판단된다.Although the results of the key-point detection algorithm used in this example showed high results (R 2 =0.9, RMSE = 104 pixel, 157 mm), there were still significant errors. The cause of this error is judged to be caused by a combination of a human error made by a human during labeling and an area that does not match during image conversion. Therefore, it is judged that the improvement of these errors can improve the quality of the extracted features, and consequently the performance of the carcass butchery prediction model.

MeanMean MedianMedian Standard devstandard dev R2 R 2 0.89610.8961 0.90720.9072 0.07330.0733 RMSE (pixels)RMSE (pixels) 123.96123.96 133.33133.33 45.3145.31 RMSE (mm)RMSE (mm) 187.14187.14 201.28201.28 67.9367.93

(4.3) 특징 추출(4.3) feature extraction

본 실시예의 특징 추출 과정을 통해 추출되는 특징은 예측 모델에서 사용되는 변수를 의미하며 도체 마스크 이미지와 사전에 정의된 key point들을 이용하여 추출되었다.The feature extracted through the feature extraction process of this embodiment means a variable used in the predictive model, and was extracted using a conductor mask image and predefined key points.

최종적으로 추출된 특징들은 RP, A, B, C, D, E라는 총 6개의 임의로 정의된 주요 범주로 분류되었다. 추출된 특징에 대한 세부 서술은 표 3와 같다. Finally, the extracted features were classified into six arbitrarily defined main categories: RP, A, B, C, D, and E. The detailed description of the extracted features is shown in Table 3.

Features Features NumberNumber RemarksRemarks Based on region properties of mask, centroid and outlineBased on region properties of mask, centroid and outline RP featuresRP features AreaArea 1One Area of carcass maskArea of carcass mask Bounding boxbounding box 22 Bounding box dimensionsBounding box dimensions PerimeterPerimeter 1One Perimeter of maskperimeter of mask Major and minor axesMajor and minor axes 22 Major and minor axes of carcass maskMajor and minor axes of carcass mask ExtentExtent 1One Ratio of mask area to bounding boxRatio of mask area to bounding box OrientationOrientation 1One Banking angle of carcassBanking angle of carcass A featuresA feature 44 Distance from centroid to point of intersection between outline and lines connecting centroid to bounding box verticesDistance from centroid to point of intersection between outline and lines connecting centroid to bounding box vertices Based on 16 cross-sections, centroid and outlineBased on 16 cross-sections, centroid and outline B featuresB features 1616 From 16 segments of carcass along its length (i.e., carcass breadth at different sections)From 16 segments of carcass along its length (i.e., carcass breadth at different sections) C featuresC features 3232 Distance from centroid to point of intersection between outline and each of the 16 section lineDistance from centroid to point of intersection between outline and each of the 16 section line D features D features 10241024 Inter-point distance between points of intersection between outline and 32 sectionsInter-point distance between points of intersection between outline and 32 sections Based on key points Based on key points E features E features 256256 Inter-point distances between 16 detected key pointsInter-point distances between 16 detected key points TOTALTOTAL 13401340

RP 특징은 마스크 된 도체의 면적, 경계 상자의 크기, 둘레, 장축 및 단축, 범위 및 방향에 대한 정보가 속하며 마스크 영역의 속성에서 추출되었다. RP 는 총 8개의 특징으로 구성되었다.The RP features included information on the area of the masked conductor, the size of the bounding box, perimeter, major and minor axes, extent and direction, and were extracted from the properties of the masked area. RP consists of a total of 8 features.

특징 A는 마스크 중심에서 도체 윤곽선과 중심에서 경계 상자의 정점까지 이어지는 선 사이의 교차점까지의 거리로 정의되었으며, 최종적으로 특징 A는 총 4개의 특징들로 분류되었다.Feature A was defined as the distance from the mask center to the intersection between the conductor contour and the line from the center to the vertex of the bounding box. Finally, feature A was classified into four features.

B 특징 추출을 위해 도체를 둘러싸고 있는 경계 상자를 총 16개의 동일한 segment 로 세분화하였다. 도체 윤곽선의 경계 내에 모든 segment의 가장자리에 있는 선의 길이는 B 특징으로 간주하였다. 따라서 총 16개의 특징 B가 추출되었다.For B feature extraction, the bounding box surrounding the conductor was subdivided into a total of 16 identical segments. The length of the line at the edge of every segment within the boundary of the conductor contour was considered as the B feature. Therefore, a total of 16 features B were extracted.

특징 C는 중심점과 특징 B 사이의 거리로 총 32개의 C 특징이 추출되었다.Feature C is the distance between the center point and feature B, and a total of 32 C features were extracted.

특징 D를 추출하기 위해 도체 외곽선과 C특징을 통해 총 32개의 점을 획득하였다. 획득한 점들의 조합 사이의 거리를 특징 D로 정의하였다. 특징 D는 총 322(1024) 개수가 추출되었다. 그러나 특징 D의 경우 중복되는 특징이 반복적으로 발생하였고, 이후 모델 개선 과정에서 feature cleaning을 통해 제거되었다.To extract feature D, a total of 32 points were acquired through the conductor outline and feature C. The distance between the obtained combinations of points was defined as feature D. For feature D, a total of 32 2 (1024) numbers were extracted. However, in the case of feature D, overlapping features occurred repeatedly, and then were removed through feature cleaning in the model improvement process.

특징 E는 위에서 설명된 특징 추출 알고리즘을 이용하여 획득한 16개의 key point에서 도출되었다. 추출된 16개의 점들의 조합 사이의 거리를 특징 E로 정의되었다. 그 결과 특징 E는 총 162(256)개의 특징이 추출되었다. 특징 E 또한 일부 요소가 서로 간에 중복되는 경향을 보였다.Feature E was derived from 16 key points obtained using the feature extraction algorithm described above. The distance between the extracted combinations of 16 points was defined as the feature E. As a result, a total of 16 2 (256) features were extracted for feature E. Feature E also showed a tendency for some elements to overlap each other.

최종적으로 이미지 1번(도체 안쪽 부분)에서는 모든 특징을 추출해 1340개의 특징을, 이미지 2번(도체 등쪽 부분)에서는 RP, A, B, C 특징을 추출해 총 60개의 특징을 생성했다. 각 이미지에서 추출된 특징은 도 8 및 도 9에서 확인할 수 있다. 두 이미지에서 추출된 특징은 총 1400개로 추출된 특징은 초기 모델 개발에 사용되었다(표 3, 표 4).Finally, all features were extracted from image 1 (inner part of the conductor) and 1340 features were extracted, and RP, A, B, and C features were extracted from image 2 (dorsal part of the conductor) to generate a total of 60 features. Features extracted from each image can be confirmed in FIGS. 8 and 9 . A total of 1,400 features extracted from the two images were used for initial model development (Table 3, Table 4).

Image numberimage number Number of featuresNumber of features Image 1, central camera (0°), from carcass medial sectionImage 1, central camera (0°), from carcass medial section 13401340 Image 9, central camera (90°), from carcass dorsal sectionImage 9, central camera (90°), from carcass dorsal section 6060 Total featuresTotal features 14001400

추가적으로 이미지에서 추출하지 않은 외부 변수 3가지를 더하여 모델의 성능 향상을 테스트하였다. 기존의 상용화된 VIA 시스템 중 일부도 외부 변수를 모델에 통합하는데, 본 연구에서 또한 외부 변수를 포함시킴으로 기존의 VIA 시스템과의 비교가 수월하도록 도움을 준다. 모델 개발 시 추가한 외부 변수는 온도체 중량(HCW, unit: Kg), 도축된 소의 연령(개월), 성별로 설정하였다.Additionally, we tested the performance improvement of the model by adding three external variables that were not extracted from the image. Some of the existing commercialized VIA systems also incorporate external variables into the model, and by including external variables in this study, it helps to facilitate comparison with the existing VIA system. External variables added during model development were set as body weight (HCW, unit: Kg), age (months) of slaughtered cattle, and sex.

(5) 모델 개발(5) Model development

일반적으로 다변량 통계 분석은 사람이 찾을 수 없는 대규모 데이터에서 패턴을 찾는데 유용하게 사용된다. 이 기술은 최근에 패턴 인식, 데이터 탐색 및 분류 문제 등에서 많이 응용되고 있다. 본 실시예에서는 이미지 처리를 통해 추출한 특징에서 패턴을 찾기 위해 다변량 데이터 분석을 활용하였으며, 도체 수율 매개 변수를 추정하는 모델을 개발하고자 하였다. 모델링 과정의 최종 목표는 최소한의 특징을 이용하여 우수한 성능으로 소 도체의 정육율을 예측하는 간단한 회귀 모델을 개발하는 것이다.In general, multivariate statistical analysis is useful for finding patterns in large-scale data that humans cannot find. This technology has recently been widely applied in pattern recognition, data search and classification problems. In this embodiment, multivariate data analysis was utilized to find patterns in features extracted through image processing, and a model for estimating the conductor yield parameters was developed. The final goal of the modeling process is to develop a simple regression model that predicts the carcass slaughter rate with good performance using minimal features.

(5.1) 모든 특징을 이용한 초기 모델 개발(5.1) Development of an initial model using all features

초기 모델의 경우 두 방향의 이미지에서 추출한 1400개의 모든 특징을 이용하여 모델을 구축하였다. 그러나 초기 모델의 경우 샘플 수와 비교한 많은 특징들 때문에 모델링 과정에서 단순 회귀 알고리즘 대신 Gaussian process regression(GPR)을 이용하였다. GPR 모델은 가우스 분포가 일관적인 랜덤 변수 집합을 근사치로 반응시키는 비모수 커널 기반 확률론적 모델이다. GPR 회귀 분석 모델은 도체 수율 매개변수 예측에서 성능을 정량화 하기 위해 평가되었다.In the case of the initial model, the model was built using all 1400 features extracted from images in two directions. However, in the case of the initial model, Gaussian process regression (GPR) was used instead of the simple regression algorithm in the modeling process because of the many features compared with the number of samples. The GPR model is a nonparametric kernel-based probabilistic model that approximates a set of random variables with a consistent Gaussian distribution. A GPR regression analysis model was evaluated to quantify its performance in predicting carcass yield parameters.

(5.2) 특징 선택(5.2) Feature Selection

초기 모델에서는 이미지 데이터에서 추출한 특징의 수가 많기 때문에 예측 변수 행렬에 노이즈 또는 불필요하거나 중복된 특징이 포함될 가능성이 있다. 본 실시예에서는 이러한 노이즈 효과를 줄이고 key point와 연관된 특징을 찾기 위해 모든 항목의 파라미터에 대해서 feature selection cleaning(FSC)과 sequential feature selection(SFS) 알고리즘을 적용하였다. FSC 알고리즘의 경우 상수 및 상관 관계에 있는 특성들을 제거하는 역할을 한다. 반면 SFS 알고리즘은 반응과 가장 상관도가 높은 선형 조합을 찾는 역할을 한다. 본 연구에서는 FCS와 SFS 두가지 알고리즘 모두가 구현되었다. 그 결과 최종 모델 개발을 위한 몇 가지 특성들이 검출되었다.Since the number of features extracted from the image data is large in the initial model, there is a possibility that the predictor matrix contains noise or unnecessary or redundant features. In this embodiment, feature selection cleaning (FSC) and sequential feature selection (SFS) algorithms are applied to all parameters in order to reduce the noise effect and find features related to key points. In the case of the FSC algorithm, it serves to remove constants and correlated features. On the other hand, the SFS algorithm plays a role in finding the linear combination with the highest correlation with the response. In this study, both FCS and SFS algorithms were implemented. As a result, several characteristics were detected for final model development.

(5.3) 최종 모델(5.3) final model

특징 선택 후 선택된 특징에 대한 최종 회귀 모델이 개발되었다. 최종 모델에서는 모델 개발 시 GPR 방식과 MLR 방식 모두를 테스트할 수 있었다. MLR은 multiple ordinary least squares regression이라고도 알려져 있는데, 이 분석법은 일반적으로 고차원 데이터와 높은 상관도가 있는 데이터에서는 예측에 실패한다. 그러나 최종 모델은 특징 선택에 의해 사용된 특징들의 수가 초기 모델에 비해 줄었기 때문에 최종 모델 개발 시 MLR 분석을 적용할 수 있었다. After feature selection, a final regression model for the selected features was developed. In the final model, both the GPR method and the MLR method could be tested during model development. MLR is also known as multiple ordinary least squares regression, and this analysis method generally fails to predict high-dimensional data and highly correlated data. However, the final model was able to apply MLR analysis when developing the final model because the number of features used by feature selection was reduced compared to the initial model.

최종 모델 개발과정에서 총 데이터의 70%는 calibration과 교차 검증을 위해 사용되었으며, 30%의 남은 샘플은 최종 모델을 테스트하기 위하여 사용되었다.In the final model development process, 70% of the total data was used for calibration and cross-validation, and the remaining 30% of the sample was used to test the final model.

또한 데이터 셋에서 일부 도체는 오류가 있거나 제대로 감지되지 않아 이상치로 분류되었으며, 신뢰할 수 있는 모델 생성을 위해 모델 구축 과정에서 제외되었다. 이때 이상치는 robust multivariate dispersion algorithm에 의해 식별되었다.In addition, some conductors in the data set were classified as outliers because they were erroneous or not properly detected, and were excluded from the model building process to generate reliable models. In this case, the outlier was identified by a robust multivariate dispersion algorithm.

<실험예><Experimental example>

(1) 모델 평가(1) model evaluation

본 연구에서 개발된 모델을 테스트하는 과정에서 좌, 우 도체 그리고 온도체, 냉도체 상태의 도체 중 어떤 상태의 도체가 가장 우수한 예측모델을 생성하는지 확인하였다. 또한 초기 모델 개발 시 이미지 1번에서 추출된 특징 1340개를 이용하여 개발된 모델과 두 가지 이미지(1번, 2번 이미지) 두개에서 추출한 1400개 특징을 이용하여 개발한 모델의 성능을 평가하였다. 더욱이 새로운 모델 개발 시 3가지 외부요인(연령, 성별, 무게)를 포함하였으며, 획득한 결과를 이전 모델과 비교하였다.In the process of testing the model developed in this study, it was confirmed which conductor among the left and right conductors and the conductors in the temperature and cold conductor states produced the best predictive model. Also, when developing the initial model, the performance of the model developed using 1340 features extracted from image 1 and the model developed using 1400 features extracted from two images (images 1 and 2) were evaluated. Moreover, three external factors (age, gender, weight) were included in the development of the new model, and the obtained results were compared with the previous model.

개별 모델의 성능을 테스트하기 위해 calibration set과 validation set에 대해서 RMSE와 결정 계수(R2)를 포함한 적합도 기준을 채택하였다. RMSE 및 R2값은 방정식(4)와 방정식(5)에 의해 파생되었다.To test the performance of individual models, goodness-of-fit criteria including RMSE and coefficient of determination (R 2 ) were adopted for the calibration set and validation set. The RMSE and R 2 values were derived by equations (4) and (5).

식 (4):Equation (4):

Figure 112020126182174-pat00004
Figure 112020126182174-pat00004

여기서 'r'은 reference data에서 예측된 값을 뺀 잔차이며, 'n'은 샘플 수를 의미한다.Here, 'r' is the residual obtained by subtracting the predicted value from the reference data, and 'n' is the number of samples.

식 (5):Equation (5):

Figure 112020126182174-pat00005
Figure 112020126182174-pat00005

Figure 112020126182174-pat00006
Figure 112020126182174-pat00007
각각 reference 값과 예측된 값을 의미한다.
Figure 112020126182174-pat00006
Wow
Figure 112020126182174-pat00007
Refers to the reference value and the predicted value, respectively.

데이터 수집에서부터 최종 수율 예측 모델 구축까지의 전체 과정에 대한 요약은 도 10과 같다.A summary of the entire process from data collection to final yield prediction model construction is shown in FIG. 10 .

<실험 결과><Experiment result>

(1) 샘플 데이터(1) Sample data

성능 검증을 위해 총 140 두의 소도체가 사용되었으며, 38 두의 거세우, 40 두의 수컷, 62 두의 암컷으로 데이터 셋이 구축되었다. 온도체의 무게 범위는 239-598 kg 범위로 측정되었으며, 연령은 15-207개월, 계산된 LMP의 범위는 48-82%로 실험에 사용된 소도체는 한국의 각 지역에서 선별되었다. 도체에 대한 세부 정보는 표 5와 도 11에 요약되어 있다. 도 11의 히스토그램 플롯에 따르면 연령을 제외한 온도체 및 LMP에 대한 정규 분포를 확인할 수 있다. FAO(1991)에 따르면 일반적인 소의 도축 연령은 80개월 미만으로 알려졌다.A total of 140 small carcasses were used for performance verification, and a data set was constructed with 38 castrates, 40 males, and 62 females. The weight range of the thermobody was measured in the range of 239-598 kg, the age was 15-207 months, and the calculated LMP range was 48-82%. Details of the conductors are summarized in Table 5 and Figure 11. According to the histogram plot of FIG. 11 , a normal distribution for the temperature body and LMP except for age can be confirmed. According to FAO (1991), the typical slaughter age of cattle is known to be less than 80 months.

SexSex NumberNumber HCW (Kg)HCW (Kg) Age (months)Age (months) LMP (%)LMP (%) Min - MaxMin - Max MeanMean SDSD Min - MaxMin - Max MeanMean SDSD Min - MaxMin - Max MeanMean SDSD CastratedCastrated 3838 299.5 - 597.9299.5 - 597.9 455.40455.40 74.1174.11 21 - 3521 - 35 30.2930.29 2.972.97 49.20 - 71.4349.20 - 71.43 58.6258.62 4.4014.401 MaleMale 4040 257.0 - 560.2257.0 - 560.2 424.01424.01 76.1776.17 15 - 7715 - 77 28.0728.07 10.0410.04 60.17 - 81.6460.17 - 81.64 69.5169.51 4.2624.262 FemaleFemale 6262 238.8 - 523.1238.8 - 523.1 376.97376.97 33.5533.55 20 - 20720 - 207 64.5164.51 33.5533.55 47.89 - 70.4547.89 - 70.45 60.0560.05 4.5674.567 TotalTotal 140140 238.8 - 597.9238.8 - 597.9 411.67411.67 77.4477.44 15 - 20715 - 207 44.8044.80 28.9928.99 47.89 - 81.6447.89 - 81.64 62.3762.37 6.3616.361

(2) 모델 정확도와 모델 비교(2) model accuracy and model comparison

대부분의 분석에서 LMP수율 매개 변수를 사용하여 최고 성능의 도체 상태(온도체, 냉도체)와 방향(내장 쪽 이미지, 등쪽 이미지), 모델 개발에 필요한 이미지 수 및 외부 파라미터를 포함하여 정량화 하였다. 최종적인 비교는 추출된 모든 특징(1400개)를 이용해 구축한 모델과 선택된 특징들을 통해 구축된 모델의 비교로 이루어졌다.In most analyzes, the LMP yield parameters were used to quantify the best performing conductor state (temperature body, cold conductor) and orientation (internal side image, dorsal image), including the number of images required for model development, and external parameters. The final comparison was made by comparing the model built using all the extracted features (1400 pieces) with the model built through the selected features.

(2.1) 온도체 vs 냉도체(2.1) Temperature body vs cold conductor

예측모델 결과는 냉각된 도체의 이미지에서 추출한 특징이 온도체보다 약간의 높은 LMP 예측 정확도를 보였다(표 7,8). 하지만 이러한 차이는 통계적으로 유의적인 차이는 아니기에 두 모델 모두가 정육률 추정에 사용될 수 있다. 그러나 실제 도축장에 시스템 적용 시 온도체를 분석하여 즉각적인 도체의 품질을 획득하는 것이 적합하다. 따라서 본 실험예에서는 분석을 위해 온도체 데이터에 집중하여 분석하기로 결정하였다.As a result of the prediction model, the features extracted from the image of the cooled conductor showed slightly higher LMP prediction accuracy than the temperature body (Tables 7 and 8). However, since this difference is not statistically significant, both models can be used for estimating the fleshing ratio. However, when applying the system to an actual slaughterhouse, it is appropriate to analyze the temperature body to obtain immediate carcass quality. Therefore, in this experimental example, it was decided to focus on the temperature body data for analysis.

(2.2) 좌도체 vs 우도체(2.2) Left Conductor vs Right Conductor

표 6은 온도체 상태의 좌 도체와 우 도체를 이용하여 구축한 LMP 예측 모델의 결과를 비교한 표이다. 이 비교 표에서는 좌, 우 도체의 두 모델 간 유의적 차이가 없는 것으로 나타났다. 하지만 본 실험예에서는 우 도체 이미지를 활용하기로 결정하였다. 일반적으로 한국에서는 좌 도체에 꼬리를 부착하여 이분할을 진행하는데, 이미지 처리시 특징 추출과정에서 모델이 복잡해질 가능성이 있기 때문이다. 추후에 진행된 분석은 온도체 상태의 우 도체에 대하여 진행되었다.Table 6 is a table comparing the results of the LMP prediction model constructed using the left and right conductors of the temperature body. In this comparison table, there was no significant difference between the two models of the left and right conductors. However, in this experimental example, it was decided to use the right conductor image. In general, in Korea, bisection is performed by attaching a tail to the left conductor, because there is a possibility that the model may become complicated in the feature extraction process during image processing. Subsequent analysis was conducted on the right conductor in the thermobody state.

Left sideleft side Right sideright side R2 cal.R 2 cal. RMSEC (%)RMSEC (%) R2 pred.R 2 pred. RMSEP (%)RMSEP (%) R2cal.R 2 cal. RMSEC (%)RMSEC (%) R2 pred.R 2 pred. RMSEP (%)RMSEP (%) Select. feat.Select. feat. 0.920.92 1.841.84 0.880.88 2.032.03 0.920.92 1.671.67 0.890.89 1.991.99 Select. feat + Ext.Select. feat + Ext. 0.900.90 2.002.00 0.880.88 2.132.13 0.910.91 1.831.83 0.910.91 1.991.99 All featall feat 0.940.94 1.391.39 0.840.84 2.122.12 0.890.89 2.452.45 0.840.84 2.952.95 AverageAverage 0.920.92 1.741.74 0.870.87 2.092.09 0.910.91 1.981.98 0.880.88 2.312.31

(2.3) 단일 이미지 vs 2개 이미지(2.3) single image vs two images

표 7은 단일 이미지와 두 이미지를 사용하여 개발된 LMP 예측 모델의 성능을 비교한 표이다. 두 이미지를 분석하여 개발한 모델이 한 장의 이미지를 기반으로 한 모델보다 나은 성능을 보였으며, R2값은 평균 10%이상, RMSE는 약 40%의 차이가 있음을 확인할 수 있었다. 이는 두개의 이미지 기반 모델이 도체의 LMP측정에 대한 정확한 정보를 주는 특징을 가지고 있기 때문으로 판단된다. 두 장의 이미지를 사용한 모델에서 더 우수한 예측도를 보였기에 추가적인 분석 시 2장의 이미지를 토대로 모델을 구축하였다.Table 7 is a table comparing the performance of the LMP prediction model developed using a single image and two images. The model developed by analyzing the two images showed better performance than the model based on one image, and it was confirmed that the R 2 value had an average of 10% or more and the RMSE was about 40% different. This is thought to be due to the fact that the two image-based models have the characteristics of giving accurate information about the LMP measurement of the conductor. Since the model using two images showed better predictive performance, a model was built based on the two images for additional analysis.

2 images2 images 1 image1 image R2 cal.R 2 cal. RMSEC (%)RMSEC (%) R2 pred.R 2 pred. RMSEP (%)RMSEP (%) R2cal.R 2 cal. RMSEC (%)RMSEC (%) R2 pred.R 2 pred. RMSEP (%)RMSEP (%) LEFT COLD LEFT COLD 0.870.87 2.242.24 0.850.85 2.322.32 0.830.83 2.972.97 0.770.77 3.433.43 RIGHT WARM RIGHT WARM 0.910.91 1.831.83 0.910.91 1.991.99 0.790.79 3.083.08 0.650.65 4.024.02 RIGHT COLD RIGHT COLD 0.910.91 1.911.91 0.880.88 2.152.15 0.790.79 3.013.01 0.630.63 4.584.58 LEFT WARM LEFT WARM 0.900.90 2.002.00 0.880.88 2.132.13 0.870.87 2.492.49 0.600.60 4.304.30 AVERAGEAVERAGE 0.900.90 2.002.00 0.880.88 2.152.15 0.820.82 2.892.89 0.660.66 4.084.08

(2.4) 외부 변수 추가의 영향(2.4) Effect of adding external variables

표 8과 도 14의 결과는 거의 무시할만한 수준의 성능 증가이지만, 세가지 외부 변수를 포함시켰을 때 모델의 성능이 향상되었음을 보여준다. 모델 성능의 미약한 증가는 이미 추출된 기능이 외부 매개 변수와 관련이 있기 때문일 수 있다. 결과적으로 모델을 간소화하기 위해 세가지 외부 요인을 모델에 포함하지 않기로 결정하였다. 예측모델에 있어 각각의 외부 요인이 모델에 미치는 영향을 파악하였으며, 도체의 성별이 다른 연령과 체중보다 중요한 특징이라는 것을 확인할 수 있었다. 실제로 도 12에서 볼 수 있듯이 성별 특성(#3)은 B10-90의 가중치와 유사할 정도로 높았다. 하지만 선택된 특징들의 기능은 다른 특징들과 중복되는 특성을 보였기 때문에 모델에 미치는 영향은 매우 미미했다.The results of Table 8 and FIG. 14 show that the performance of the model is improved when three external variables are included, although the performance increase is almost negligible. The slight increase in model performance may be due to the fact that already extracted features are related to external parameters. As a result, it was decided not to include three external factors in the model to simplify the model. In the predictive model, the influence of each external factor on the model was identified, and it was confirmed that the sex of the carcass was a more important characteristic than other age and weight. In fact, as can be seen in FIG. 12 , the gender characteristic (#3) was high enough to be similar to the weight of B10-90. However, since the function of the selected features showed overlapping characteristics with other features, the effect on the model was very negligible.

Selected FeaturesSelected Features Selected + External FeaturesSelected + External Features R2 cal.R 2 cal. RMSECRMSEC R2 pred.R 2 pred. RMSEPRMSEP R2cal.R 2 cal. RMSECRMSEC R2 pred.R 2 pred. RMSEPRMSEP LEFT COLD LEFT COLD 0.870.87 2.322.32 0.830.83 2.592.59 0.870.87 2.242.24 0.850.85 2.322.32 RIGHT WARMRIGHT WARM 0.920.92 1.671.67 0.890.89 1.991.99 0.910.91 1.831.83 0.910.91 1.991.99 RIGHT COLDRIGHT COLD 0.890.89 2.062.06 0.890.89 1.941.94 0.910.91 1.911.91 0.880.88 2.152.15 LEFT WARMLEFT WARM 0.920.92 1.841.84 0.880.88 2.032.03 0.900.90 2.002.00 0.880.88 2.132.13 AverageAverage 0.900.90 1.971.97 0.870.87 2.142.14 0.900.90 2.002.00 0.880.88 2.152.15

(2.5) 모든 특징 vs 선택된 특징(2.5) All Features vs Selected Features

표 9는 온도체 우도체에서 추출된 모든 특성을 이용해 구축한 모델과 선택된 특성을 이용해 구축한 모델을 비교한 표이다. 표에서도 확인할 수 있듯, 모든 특징을 사용한 GPR 기반 모델보다 특징을 선택하여 구축한 MLR 모델의 성능이 우수한 것을 확인할 수 있다. 전체 특징에 대한 GPR 모델은 calibration에서 우수한 결과를 보였지만 실제 예측 결과는 좋지 못하였다. 특히 calibration과 validation의 정확도는 상당한 차이를 보였으며, 온도체 R2는 약7%, RMSE는 약 8.5%가량 증가하는 것을 확인할 수 있었다. 반면 선택된 특징과 간단한 MLR 모델로 구축된 모델에서는 calibration set과 validation set의 성능 차이가 크지 않았다(온도체에 대해 R2는 약 2% 감소하였으며, RMSE는 약 1.6% 감소하는 결과를 보였다). LMP 예측을 위해 선택된 23개 특징 기반의 MLR 모델은 모든 특징을 사용한 모델과 비교해 5%의 R2가 증가하였으며, RMSE에서도 약 30%가량의 개선을 보였다. 이러한 성능 차이는 도 14의 회귀 플롯에서도 명확하게 확인할 수 있다. 또한 잔차 플롯에서 모든 특징을 사용한 모델의 잔차와 실제 LMP 값 사이에 여전한 상관관계가 있음이 관찰되었지만, 특징을 선택한 모델에서는 이러한 상관성을 볼 수 없었다. Table 9 is a table comparing the model constructed using all the characteristics extracted from the temperature body likelihood model and the model constructed using the selected characteristics. As can be seen from the table, it can be confirmed that the performance of the MLR model built by selecting features is superior to the GPR-based model using all features. The GPR model for all features showed excellent results in calibration, but the actual prediction results were not good. In particular, the accuracy of calibration and validation showed a significant difference, and it was confirmed that the temperature body R 2 increased by about 7% and RMSE by about 8.5%. On the other hand, in the model built with the selected features and a simple MLR model, the performance difference between the calibration set and the validation set was not large (R 2 decreased by about 2% for the thermobody, and the RMSE decreased by about 1.6%). The 23 feature-based MLR model selected for LMP prediction increased R 2 by 5% compared to the model using all features, and showed about 30% improvement in RMSE. This performance difference can also be clearly confirmed in the regression plot of FIG. 14 . In the residual plots, it was also observed that there was still a correlation between the residuals of the model using all features and the actual LMP values, but this correlation was not seen in the model in which the features were selected.

또한 LMP의 결과와 마찬가지로 전체 및 부분육 무게 예측 항목에 대해서도 유사한 경향을 볼 수 있었다. 예측 정확도는 모든 특징을 사용할 때보다 선택한 특징을 토대로 구축한 모델에서 RMSE 값이 명확하게 개선되는 것을 확인할 수 있었다. 다른 예측 항목에 대해 달성한 RMSEP값의 감소는 다음과 같다. HCW(from 29.10 kg to 23.43 kg, 8개 변수 사용), 안심_tenderloin (from 0.89 to 0.77 kg, 23개 변수); 등심_sirloin (from 4.96 to 3.10 kg, 25 개 변수); 채끝_striploin (from 1.32 to 1.31 kg, 28개 변수); 목심_chuck-roll (from 3.42 to 3.04 kg, 19 개 변수); 앞다리_fore shank (from 2.79 to 2.24 kg, 18 개 변수); 우둔_top round (from 2.43 to 1.53 kg, 19 개 변수); 설도_bottom round (from 3.44 to 2.61 kg, 21개 변수); 양지_brisket (from 9.18 to 6.07 kg, 23 개 변수); 사태_hind shank (from 1.68 to 1.25 kg, 22개 변수); 갈비_ribs (from 5.23 to 4.97 kg, 22 개 변수). 이러한 개선 사항은 표 9를 통해 확인할 수 있다. 선택한 특징을 사용하여 얻은 회귀 산점도는 도 15를 통해 확인할 수 있다.Also, similar to the results of LMP, a similar trend was observed for the whole and partial meat weight prediction items. As for the prediction accuracy, it was confirmed that the RMSE value was clearly improved in the model built based on the selected features rather than when all features were used. The reductions in RMSEP values achieved for the different prediction items are as follows. HCW (from 29.10 kg to 23.43 kg, using 8 variables), tenderloin (from 0.89 to 0.77 kg, using 23 variables); sirloin (from 4.96 to 3.10 kg, 25 variables); strip_stripe (from 1.32 to 1.31 kg, 28 variables); mokshim_chuck-roll (from 3.42 to 3.04 kg, 19 variables); foreleg_fore shank (from 2.79 to 2.24 kg, 18 variables); dumb_top round (from 2.43 to 1.53 kg, 19 variables); Seoldo_bottom round (from 3.44 to 2.61 kg, 21 variables); brisket (from 9.18 to 6.07 kg, 23 variables); sash_hind shank (from 1.68 to 1.25 kg, 22 variables); ribs (from 5.23 to 4.97 kg, 22 variables). These improvements can be seen in Table 9. The regression scatterplot obtained using the selected features can be confirmed through FIG. 15 .

데이터(이미지)의 특성 상 특징 추출 시 노이즈 및 관련된 문제점에 대한 추출이 진행될 수 있으며, 이러한 노이즈는 모델 구축 중에 특징 중복 또는 공선성을 유발할 수 있다. 공선성 또는 노이즈가 많은 데이터세트를 통해 진행되는 모델 구축은 수렴을 찾기 어렵다. 이러한 요인들은 모델의 불필요한 복잡성을 부여하고, 결과적으로 모델이 과적합(over-fitting) 되게 만든다. 이는 calibration set 결과가 왜 항상 validation set보다 높은 정확도를 보이는지 설명한다. 결론적으로 SFS를 통해 변수의 수를 줄이면, 불필요한 특징과 노이즈가 제거되어 모델은 더욱 단순해지고 좋은 성능을 보이게 된다.Due to the characteristics of data (images), noise and related problems may be extracted during feature extraction, and such noise may cause feature overlap or collinearity during model construction. Model building that proceeds through collinearity or noisy datasets is difficult to find convergence. These factors add unnecessary complexity to the model, resulting in over-fitting the model. This explains why the calibration set results always show higher accuracy than the validation set. In conclusion, if the number of variables is reduced through SFS, unnecessary features and noise are removed, and the model becomes simpler and shows good performance.

  All variables (1400, GPR)All variables (1400, GPR) Selected variables (SFS, MLR)Selected variables (SFS, MLR) R2 cR 2 c RMSEC*RMSEC* R2 pR 2 p RMSEP*RMSEP* R2 cR 2 c RMSEC*RMSEC* R2 pR 2 p RMSEP*RMSEP* SelectSelect LMP (%)LMP (%) 0.890.89 2.452.45 0.840.84 2.952.95 0.920.92 1.671.67 0.890.89 1.991.99 2323 HCW (kg)HCW (kg) 0.970.97 15.75 (3.8%)15.75 (3.8%) 0.910.91 29.10 (7.1%)29.10 (7.1%) 0.940.94 24.03 (5.8%)24.03 (5.8%) 0.920.92 23.43 (5.6%)23.43 (5.6%) 88 Tenderloin wt. (kg)Tenderloin wt. (kg) 0.900.90 0.60 (6.5%)0.60 (6.5%) 0.830.83 0.89 (9.6%)0.89 (9.6%) 0.910.91 0.51 (5.5%)0.51 (5.5%) 0.870.87 0.77 (8.4%)0.77 (8.4%) 2323 Sirloin wt. (kg)Sirloin wt. (kg) 0.830.83 3.65 (9.2%)3.65 (9.2%) 0.800.80 4.96 (12.5%)4.96 (12.5%) 0.910.91 3.17 (8.0%)3.17 (8.0%) 0.880.88 3.10 (7.8%)3.10 (7.8%) 2525 Striploin wt. (kg)Striploin wt. (kg) 0.920.92 0.80 (6.6%)0.80 (6.6%) 0.820.82 1.32 (11.0%)1.32 (11.0%) 0.910.91 1.09 (9.1%)1.09 (9.1%) 0.860.86 1.31 (10.9%)1.31 (10.9%) 2828 Chuck-roll wt. (kg)Chuck-roll wt. (kg) 0.890.89 2.78 (12.1%)2.78 (12.1%) 0.860.86 3.42 (14.9%)3.42 (14.9%) 0.900.90 3.16 (13.7%)3.16 (13.7%) 0.860.86 3.04 (13.2%)3.04 (13.2%) 1919 Fore shank wt. (kg)Fore shank wt. (kg) 0.900.90 2.04 (6.3%)2.04 (6.3%) 0.850.85 2.79 (8.6%)2.79 (8.6%) 0.930.93 2.10 (6.5%)2.10 (6.5%) 0.880.88 2.24 (6.9%)2.24 (6.9%) 1818 Top round wt. (kg) Top round wt. (kg) 0.880.88 1.69 (6.1%)1.69 (6.1%) 0.830.83 2.43 (8.7%)2.43 (8.7%) 0.920.92 1.60 (5.7%)1.60 (5.7%) 0.920.92 1.53 (5.5%)1.53 (5.5%) 2020 Bot. round wt. (kg)Bot. round wt. (kg) 0.900.90 2.41 (5.5%)2.41 (5.5%) 0.850.85 3.44 (7.8%)3.44 (7.8%) 0.930.93 2.48 (5.6%)2.48 (5.6%) 0.910.91 2.61 (5.9%)2.61 (5.9%) 2121 Brisket wt. (kg) Brisket wt. (kg) 0.920.92 6.94 (8.0%)6.94 (8.0%) 0.880.88 9.18 (10.6%)9.18 (10.6%) 0.950.95 5.54 (6.4%)5.54 (6.4%) 0.930.93 6.07 (7.0%)6.07 (7.0%) 2323 Hind shank wt. (kg) Hind shank wt. (kg) 0.910.91 1.10 (5.8%)1.10 (5.8%) 0.830.83 1.68 (8.8%)1.68 (8.8%) 0.920.92 1.14 (6.0%)1.14 (6.0%) 0.900.90 1.25 (6.6%)1.25 (6.6%) 2222 Ribs wt. (kg)Ribs wt. (kg) 0.890.89 4.17 (7.1%)4.17 (7.1%) 0.830.83 5.23 (9.1%)5.23 (9.1%) 0.890.89 4.92 (8.5%)4.92 (8.5%) 0.860.86 4.97 (8.6%)4.97 (8.6%) 2222

LMP, HCW 및 10개의 주요 대 분할 부위의 무게에 대한 예측 결과는 30개 미만의 특징을 사용하여 값을 추정할 수 있음을 보여준다(표 9, 도 14, 15). 예측 매개 변수에 대해 추출된 특성은 다양했지만, B, D, E 특성이 우세하였으며, 선택된 특성의 약 80%를 구성하였다. 이것의 의미는 특징 A와 특징 RP의 특징 추출 전략을 수정해야함을 반증한다. 또한 추출된 특징의 60% 이상은 이미지 1번에서 추출되었다. 이는 특징의 대부분을 이미지 1에서 추출하였고, 이미지 2번에서 추출한 특징 수보다 20배 가량 많았기 때문이다. 온도체 상태의 우도체 이미지 1에서 선택한 특징의 그림은 도 13과 같다.Prediction results for the weights of LMP, HCW and 10 major versus split sites show that values can be estimated using less than 30 features (Table 9, FIGS. 14 and 15). The features extracted for the predictive parameters varied, but the B, D, and E features prevailed, constituting about 80% of the selected features. This implies that the feature extraction strategy of feature A and feature RP should be modified. In addition, more than 60% of the extracted features were extracted from image 1. This is because most of the features were extracted from image 1, and the number of features extracted from image 2 was about 20 times greater. 13 is a diagram of the features selected from the right conductor image 1 in the temperature body state.

또한 모델에 대한 테스트를 반복하는 동안 선택한 특성이 약간씩 변형되는 것을 확인하였다. 이는 서로 쉽게 바꿔질 수 있는 수많은 상관 변수가 있기 때문일 수 있다. 따라서 이 실험예에서 확인한 예측정확도보다 더 높은 수치의 성능을 달성하기 위해서는 특징 추출에 대한 추가적인 연구가 필요하다. 대분할 육의 무게에 대한 모델 예측 성능은 3D기반 BCC-3에서 달성한 성능(Jakob et al., 2019)과 비슷한 것을 확인할 수 있었다. In addition, it was confirmed that the selected characteristics were slightly deformed while the test on the model was repeated. This may be because there are many correlated variables that are easily interchangeable with each other. Therefore, in order to achieve higher numerical performance than the prediction accuracy confirmed in this experimental example, additional research on feature extraction is required. It was confirmed that the model prediction performance for the weight of large split meat was similar to the performance achieved in 3D-based BCC-3 (Jakob et al., 2019).

본 실험예는 다변량 통계와 이미지 분석을 결합하여, 컬러 이미지를 통해 소 도체의 정육량 예측을 진행할 수 있음을 입증하였다. 이미지 분석 및 MLR을 통해 선택된 특성을 통해 구축된 모델의 성능은 모든 파라미터에 대해 R2가 0.86보다 큰 것을 확인할 수 있었다. 특히, LMP에 대한 예측 성능은 R2=0.89와 RMSE = 1.99%로 높은 예측 정확도를 보였다. 이 성능은 VBS2000, VIAScan 등과 같은 대부분의 VIA 시스템과 비교하였을 때도 상대적으로 좋은 성능을 보였다. 따라서 이 시스템은 도축 라인에 있어 실시간 도체 평가를 위한 획기적인 전환점이 될 것이라 판단된다. This experimental example demonstrated that it is possible to predict the meat quantity of cattle carcases through color images by combining multivariate statistics and image analysis. The performance of the model built through the characteristics selected through image analysis and MLR was confirmed that R 2 was greater than 0.86 for all parameters. In particular, the prediction performance for LMP showed high prediction accuracy with R 2 =0.89 and RMSE = 1.99%. This performance showed relatively good performance even when compared to most VIA systems such as VBS2000 and VIAScan. Therefore, it is judged that this system will be a landmark turning point for real-time carcase evaluation in slaughter lines.

본 실험예에서 예측변수에 추가적인 외부 특성을 추가하는 경우 정육률 예측 모델의 성능이 향상된다는 것을 확인할 수 있었다. 추가적으로, 이미지 분석 시 하나의 이미지만 이용하여 예측모델을 개발할 수 있지만, 도체를 다른 방향에서 촬영한 이미지를 하나 이상 사용하는 것이 모델 정확도를 높이는데 도움이 된다 사료된다. 또한 특징 추출에 대한 추가 연구가 진행된다면 훨씬 더 나은 모델의 성능을 보일 수 있는 가능성이 있음을 발견하였다.In this experimental example, it was confirmed that the performance of the carcass rate prediction model was improved when additional external characteristics were added to the predictor variables. Additionally, it is possible to develop a predictive model using only one image during image analysis, but it is thought that using one or more images taken from different directions of the conductor helps to increase the model accuracy. In addition, we found that there is a possibility of showing much better model performance if further research on feature extraction is conducted.

전술한 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의하여 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Features, structures, effects, etc. exemplified in each of the above-described embodiments may be combined or modified for other embodiments by those of ordinary skill in the art to which the embodiments belong. Accordingly, the contents related to such combinations and modifications should be interpreted as being included in the scope of the present invention.

Claims (6)

컬러 카메라를 이용하여 다양한 상태의 도체 이미지를 얻는 이미지 수집단계;
상기 단계에서 수집된 이미지를 처리하여 특징을 추출하는 단계로서, 배경 제거단계, 키 포인트 검출단계 및 특징 추출단계를 포함하는 이미지 처리단계; 및
상기 추출된 특징들 중 선택된 특징을 이용하여 다중 선형 회귀(Multiple Linear Regression; MLR) 방식을 이용하여 예측 모델을 구축하는 모델구축단계;를 포함하고,
상기 이미지 수집단계는 좌도체 및 우도체 중 꼬리가 부착되지 않은 측면의 냉도체 또는 온도체에 대하여 도체 안쪽 방향 이미지 및 도체 등쪽 방향 이미지를 포함하는 2개 이미지를 얻는 단계이며,
상기 추출된 특징은 배경 제거단계를 통해 얻어지는 마스크 이미지를 이용하여, 중심 및 윤곽의 특성을 기반으로 추출된 특징, 도체를 둘러싸고 있는 경계 상자를 동일한 세그먼트(segment)로 세분화하였을 때 단면, 중심 및 윤곽을 기반으로 추출된 특징 및 키 포인트의 조합을 기반으로 추출된 특징을 포함하며,
상기 모델구축단계는 상기 추출된 특징들 중 모델링에 이용될 특징을 선택하는 알고리즘으로 FSC(feature selection cleaning) 알고리즘 및 SFS(sequential feature selection) 알고리즘 중 하나 이상을 이용하는 것을 특징으로 하는 소 도체의 정육량 예측 모델 구축방법.
an image collection step of obtaining images of conductors in various states using a color camera;
processing the image collected in the above step to extract features, the image processing step including a background removal step, a key point detection step and a feature extraction step; and
A model building step of constructing a predictive model using a multiple linear regression (MLR) method using the selected feature among the extracted features;
The image collection step is a step of obtaining two images including a conductor inward image and an image in the dorsal direction of a cold conductor or a temperature body on the side to which a tail is not attached among the left and right conductors,
The extracted features are the cross-section, center, and contour when the boundary box surrounding the conductor is subdivided into the same segment, the features extracted based on the characteristics of the center and the contour, using the mask image obtained through the background removal step. Includes features extracted based on a combination of features and key points,
The model building step uses at least one of a feature selection cleaning (FSC) algorithm and a sequential feature selection (SFS) algorithm as an algorithm for selecting a feature to be used for modeling among the extracted features. How to build a predictive model.
삭제delete 제1항에 있어서,
상기 배경 제거단계는 블루 스크린(blue screen) 영역을 제거하고 색상 통계를 통한 도체 대비 향상 후에 임계값 설정 및 모서리 검출을 결합하여 생성된 이미지에 대하여 형태학적 영상 처리과정을 거쳐 최종 마스크 이미지를 얻음으로써 배경을 제거하는 단계인 것을 특징으로 하는 소 도체의 정육량 예측 모델 구축방법.
According to claim 1,
In the background removal step, the final mask image is obtained through a morphological image processing process for the image generated by removing the blue screen area and combining the threshold setting and edge detection after improving the conductor contrast through color statistics. A method of constructing a meat quantity prediction model of cattle carcass, characterized in that the step of removing the background.
제1항에 있어서,
상기 키 포인트 검출단계는 도체의 각 부위별 구분의 기점이 될 수 있는 지점을 키 포인트로 선택하고 모델 도체 이미지를 선정하여 키 포인트 라벨링을 붙인 마스터 이미지를 지정한 후, 새로운 이미지가 수집되면 마스터 이미지와 매칭하여 새로운 이미지에 키 포인트 위치를 맵핑하는 단계인 것을 특징으로 하는 소 도체의 정육량 예측 모델 구축방법.
According to claim 1,
In the key point detection step, a point that can be the starting point of classification for each part of the conductor is selected as a key point, a model conductor image is selected, a master image with key point labeling is specified, and when a new image is collected, the master image and A method of constructing a meat quantity prediction model of cattle carcass, characterized in that the step of mapping the key point position to a new image by matching.
삭제delete 삭제delete
KR1020200158544A 2020-11-24 2020-11-24 Non-destructive measurement system of meat yield of beef carcasses using digital image analysis KR102285112B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200158544A KR102285112B1 (en) 2020-11-24 2020-11-24 Non-destructive measurement system of meat yield of beef carcasses using digital image analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200158544A KR102285112B1 (en) 2020-11-24 2020-11-24 Non-destructive measurement system of meat yield of beef carcasses using digital image analysis

Publications (1)

Publication Number Publication Date
KR102285112B1 true KR102285112B1 (en) 2021-08-03

Family

ID=77314350

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200158544A KR102285112B1 (en) 2020-11-24 2020-11-24 Non-destructive measurement system of meat yield of beef carcasses using digital image analysis

Country Status (1)

Country Link
KR (1) KR102285112B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230071813A (en) 2021-11-15 2023-05-24 주토스주식회사 Hanwoo(Korean beef) growth test data collection device and method therof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130065896A (en) * 2011-12-12 2013-06-20 성균관대학교산학협력단 Systems of estimating weight of chicken carcass and methods of estimating weight of chicken carcass

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130065896A (en) * 2011-12-12 2013-06-20 성균관대학교산학협력단 Systems of estimating weight of chicken carcass and methods of estimating weight of chicken carcass

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
소고기 육질 등급 예측을 위한 분류 알고리즘의 성능 연구, 정보과학회 26(6), 2020.06.* *
이미지 분석을 통한 양계 무게 예측 방법, 한국정보과학회 학술발표논문집, 2016.12.* *
한우의 이화학적, 관능적 특성을 통한 신선도와 맛의 품질 인자 설정, 한국축산식품학회지, 2013 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230071813A (en) 2021-11-15 2023-05-24 주토스주식회사 Hanwoo(Korean beef) growth test data collection device and method therof

Similar Documents

Publication Publication Date Title
Jackman et al. Automatic segmentation of beef longissimus dorsi muscle and marbling by an adaptable algorithm
Mery et al. Segmentation of colour food images using a robust algorithm
Azzaro et al. Objective estimation of body condition score by modeling cow body shape from digital images
Jackman et al. Recent advances in the use of computer vision technology in the quality assessment of fresh meats
AU2010219406B2 (en) Image analysis for making animal measurements
AU722769B2 (en) Method and apparatus for using image analysis to determine meat and carcass characteristics
WO2023060777A1 (en) Pig body size and weight estimation method based on deep learning
Zapotoczny et al. Evaluation of the quality of cold meats by computer-assisted image analysis
Stewart et al. Objective grading of eye muscle area, intramuscular fat and marbling in Australian beef and lamb
EP3353744B1 (en) Image analysis for making animal measurements including 3-d image analysis
CN110210483B (en) Medical image lesion region segmentation method, model training method and device
Pradana et al. Beef cattle weight determine by using digital image processing
Nunes et al. Beef quality parameters estimation using ultrasound and color images
WO2016023075A1 (en) 3d imaging
KR102285112B1 (en) Non-destructive measurement system of meat yield of beef carcasses using digital image analysis
Stewart et al. Association between visual marbling score and chemical intramuscular fat with camera marbling percentage in Australian beef carcasses
CN113989353A (en) Pig backfat thickness measuring method and system
Sánchez et al. Control of ham salting by using image segmentation
Matthews et al. Predicting carcass cut yields in cattle from digital images using artificial intelligence
Wakholi et al. Nondestructive estimation of beef carcass yield using digital image analysis
CN112634274B (en) Machine vision-based fattening pork quality evaluation method and system
US20210049398A1 (en) Method, apparatus and system for determining feature data of image data, and storage medium
Wakholi et al. Deep learning feature extraction for image-based beef carcass yield estimation
CN109300150B (en) Hand bone X-ray image texture feature extraction method for bone age assessment
Del Moral et al. Image analysis application for automatic quantification of intramuscular connective tissue in meat

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant