KR20210066710A - System and method for analyzing object tracking and object behavior using deep learning algorithms - Google Patents

System and method for analyzing object tracking and object behavior using deep learning algorithms Download PDF

Info

Publication number
KR20210066710A
KR20210066710A KR1020200138074A KR20200138074A KR20210066710A KR 20210066710 A KR20210066710 A KR 20210066710A KR 1020200138074 A KR1020200138074 A KR 1020200138074A KR 20200138074 A KR20200138074 A KR 20200138074A KR 20210066710 A KR20210066710 A KR 20210066710A
Authority
KR
South Korea
Prior art keywords
pig
eeg
disease
pattern
change
Prior art date
Application number
KR1020200138074A
Other languages
Korean (ko)
Other versions
KR102282295B1 (en
Inventor
김동기
Original Assignee
주식회사 핀텔
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 핀텔 filed Critical 주식회사 핀텔
Publication of KR20210066710A publication Critical patent/KR20210066710A/en
Application granted granted Critical
Publication of KR102282295B1 publication Critical patent/KR102282295B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • A01K29/005Monitoring or measuring activity, e.g. detecting heat or mating
    • G06K9/00362
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Environmental Sciences (AREA)
  • Animal Husbandry (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Agronomy & Crop Science (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Mining & Mineral Resources (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a smart livestock management system using deep learning-based object tracking and behavior analysis and a method thereof. The smart livestock management system using deep learning-based object tracking and behavior analysis comprises: a brainwave detection module attached to the head of a pig object; a first photographing device for photographing a motion image of the pig object; a second photographing device that generates a thermal image of the pig object; a sound collecting device for collecting sound information; a monitoring server for predicting and determining whether the corresponding pig object has a disease and a type of the disease; and a manager terminal for receiving a disease outbreak notification message of the pig object from the monitoring server. Therefore, the smart livestock management system using deep learning-based object tracking and behavior analysis and the method thereof can predict whether a disease occurs in pigs.

Description

딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템 및 방법{System and method for analyzing object tracking and object behavior using deep learning algorithms}Smart livestock management system and method using deep learning-based object tracking and behavior analysis {System and method for analyzing object tracking and object behavior using deep learning algorithms}

본 발명은 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템 및 방법에 관한 것이다.The present invention relates to a smart livestock management system and method using deep learning-based object tracking and behavior analysis.

범죄 예방, 안전사고 방지, 재난 감시, 건물 내지 시설물 감시, 대중교통 이용 승객 현황 파악, 주차, 교통 상황 모니터링 등의 다양한 목적을 구현하기 위하여 실내외를 불문하고 광범위한 영역에서 CCTV 및 관련 시스템 내지 장치가 구축되어 있으며, 이러한 장치나 시스템은 다양한 사회적 필요성 등에 의하여 점진적으로 증가되는 추세라고 할 수 있다.CCTV and related systems and devices have been built in a wide range of areas, both indoors and outdoors, to realize various purposes such as crime prevention, safety accident prevention, disaster monitoring, building and facility monitoring, identification of passengers using public transportation, parking, and traffic condition monitoring. It can be said that these devices or systems are gradually increasing due to various social needs.

이러한 CCTV 및 관련 시스템은 다양한 방법으로 이용되고 있는데, 통상적으로 특정 영역의 다수 위치에 CCTV를 설치하고, 이들 복수 개의 CCTV로부터 촬영되는 영상 데이터를 관제를 위한 화면표시수단에 출력하고 관리자(관제자, 이용자 등)가 이를 시청하면서 특정 사건 등을 모니터링하거나 또는 다양한 장소 내지 위치의 영상을 DB화하고 사후적 증거 활용 등으로 이용하는 방법이 주로 이용된다.These CCTVs and related systems are used in various ways, and CCTVs are usually installed at multiple locations in a specific area, and image data captured from these multiple CCTVs are output to the screen display means for control, and managers (controllers, Users, etc.) monitor a specific event while watching it, or create a DB of images from various places or locations and use them for ex post evidence.

또한, 종래 CCTV 내지 관제 시스템에는 영상 분석(VS, Video Analysis) 기법 등을 이용하여 촬영된 영상에서 관심 대상이 되는 객체를 추적하고 추적된 객체의 이동을 모니터링하는 방법도 적용되고 있으며, 최근에는 추적된 객체의 이상 행위, 행동 등이 감지되는 경우 관리자 등에게 알라밍(alarming) 정보를 전송하는 방법도 조금씩 이용되고 있다.In addition, a method of tracking an object of interest in a captured image using a video analysis (VS, Video Analysis) technique, etc. and monitoring the movement of the tracked object is also applied to the conventional CCTV or control system, and recently tracking A method of transmitting alarming information to a manager or the like when an abnormal behavior or behavior of an object is detected is also being used little by little.

이러한 객체 검지 내지 추적 등의 방법에는 영상 차분 기법, 옵티컬 플로우(Optical Flow) 기법 등을 이용하여 영상 데이터 내에 포함된 객체를 검지하는 방법이 이용되며, 나아가 민쉬프트 기법(Mean-Shift), 칼만 필터 기법(Kalman Filter) 등을 이용하여 객체를 추적하는 방법들이 이용된다.Methods such as object detection or tracking include a method of detecting an object included in image data using an image difference method, an optical flow method, etc., and furthermore, a Mean-Shift method, a Kalman filter Methods for tracking an object using a Kalman filter or the like are used.

그러나 이러한 객체 검지 및 추적과 관련된 기법들은 해당 기법에 의하여 검지 및 추적할 수 있는 제한된 특정 환경이나 특징(Feature) 파라미터들에 의하여 프로세싱되도록 설계되어 있으므로 각 기법마다의 특화된 제한된 환경에서는 어느 정도 성능이 발현될 수 있으나 이들 기법에 적합하지 않은 상황이나 환경에서는 객체 검지 및 추적의 효율성이 상당히 저하되는 문제점이 발생하게 된다.However, since these methods related to object detection and tracking are designed to be processed by a limited specific environment or feature parameters that can be detected and tracked by the method, performance is expressed to a certain extent in the limited environment specialized for each technique. However, in a situation or environment that is not suitable for these techniques, there is a problem that the efficiency of object detection and tracking is considerably lowered.

이러한 이유로 종래의 기법이나 방법들은 외부 환경의 노이즈 변화에 민감하게 반응하여 검지/추적의 신뢰성이 저하됨은 물론, 지속적으로 정확하게 객체를 검지하고 추적하는 것이 어려우므로 다양한 환경에 범용적으로 적용될 수 없는 본질적인 한계가 있다고 할 수 있다.For this reason, conventional techniques and methods sensitively respond to changes in noise in the external environment, reducing the reliability of detection/tracking, and since it is difficult to continuously and accurately detect and track an object, it is essential that it cannot be universally applied to various environments. It can be said that there are limits.

또한, 동적 객체의 검지 또는 추적이 이루어진다고 하더라도 종래 방법은 관리자 등에게 단순히 그 결과를 표출하는 정도의 수준이므로 그 결과를 적용하여 후속적으로 활용함에 있어서는 여전히 인적(人的) 의존적인 방법에 머물러 있어 시스템과 사람(관리자) 사이의 효과적인 인터페이싱을 구현하는 것은 거의 불가능한 상태라고 할 수 있다.In addition, even if a dynamic object is detected or tracked, the conventional method is at a level of simply expressing the result to a manager, etc., so it is still a human-dependent method in applying and subsequently utilizing the result. Therefore, it can be said that it is almost impossible to implement effective interfacing between the system and the person (administrator).

한편, 본 발명은 상술한 딥러닝 객체 검지 및 추적 기법과 돼지의 소리, 움직임에 따른 체적별 온도변화를 이용하여 돈사 내의 돼지의 이동경로 및 행위분석 뿐만 아니라, 돼지들의 질병발생 유무 및 질병종류를 예측할 수 있는 시스템 및 방법을 제시하고자 한다.On the other hand, the present invention uses the above-described deep learning object detection and tracking technique and the volume-specific temperature change according to the sound and movement of pigs to analyze the movement path and behavior of pigs in the pig house, as well as the presence or absence of disease and the type of disease in pigs. We would like to present a predictable system and method.

공개특허공보 제10-2019-0058206호Unexamined Patent Publication No. 10-2019-0058206

본 발명이 해결하고자 하는 과제는 종래의 문제점을 해결할 수 있는 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템 및 방법을 제공하는 데 그 목적이 있다.An object of the present invention is to provide a smart livestock management system and method using deep learning-based object tracking and behavior analysis that can solve conventional problems.

상기 과제를 해결하기 위한 본 발명의 다른 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템은 돈사 내의 돼지 객체의 머리에 부착되어, 상기 돼지 객체의 뇌파신호를 측정하여 전송하는 뇌파탐지모듈; 돈사 내의 돼지 객체의 모션 이미지를 촬영하는 제1 촬상장치; 상기 돼지 객체의 열화상 이미지를 생성하는 제2 촬상장치; 상기 돼지 객체의 호흡 및 기침소리를 포함하는 음향정보를 수집하는 음향수집장치; 상기 뇌파신호, 모션 이미지, 상기 열화상 이미지 및 상기 음향정보를 기초로 해당 돼지 객체의 질병발생유무 및 질병의 종류를 예측판단하는 모니터링 서버; 및 상기 모니터링 서버로부터 돼지 객체의 질병발생 알림메시지를 제공받는 관리자 단말을 포함하고, 상기 모니터링 서버는 상기 돼지 객체에서 감지된 뇌파신호의 뇌파변이도를 통해 돼지 객체의 수면상태, 이상발작 상태, 우울감과 관련된 뇌파(electroencephalographic, EEG)를 분류한 후, 레퍼런스와 비교하여 뇌파 변이도의 패턴을 분석하는 뇌파분석부; 상기 관리자 단말로부터 타겟 객체(돼지)가 입력되면, 타겟 객체(돼지)에 위치한 뇌파탐지모듈의 위치신호를 기초로 타겟 객체의 이동경로를 역순으로 트랙킹하는 경로 추적부; 타겟팅된 돼지객체의 이동경로 중 움직임 변화에 대한 모션 이미지를 기초로 상기 돼지 객체의 행동패턴 및 자세를 분석하는 행동패턴 및 자세 분석부; 상기 열화상 이미지를 기초로 상기 돼지 객체의 체온을 분석하는 체온 분석부; 상기 음향정보를 기초로 상기 돼지 객체의 호흡주기, 기침소리의 크기 및 발생주기, 울음소리 중 적어도 하나 이상을 분석하는 음향 분석부; 및 돼지 객체의 뇌파변이도 패턴, 행동패턴의 불규칙한 자세변화, 호흡주기, 기침소리를 기초로 질병 유무를 1차 판단하고, 1차 선별된 돼지객체의 부위별 체온 및 체온변화를 기초로 질병발생유무를 2차 판단하는 질병발생 판단부를 포함하고, 상기 행동자세 및 패턴 분석부는 상기 모션 이미지를 기초로 상기 돈사 내의 돼지의 포즈패턴변화를 Standing, Lying, Sitting 중 어느 하나로 분류하고, 상기 돼지가 이동 시에, 포즈패턴변화를 거리 대비 시간으로 분석하고, 상기 체온 분석부는 상기 포즈패턴변화에 따라 발열되는 돼지들의 부위 별 체온변화를 분석하고, 상기 질병발생 판단부는 딥러닝 학습 알고리즘을 학습한 질병이 발생된 돼지들의 시계열적 포즈패턴변화, 호흡주기, 기침소리의 변화를 기초로 상기 돼지 객체를 1차 선별하는 것을 특징으로 한다.Smart livestock management system using deep learning-based object tracking and behavior analysis according to another embodiment of the present invention for solving the above problem is attached to the head of a pig object in a pig house, and measures and transmits the EEG signal of the pig object an EEG detection module; a first imaging device for photographing a motion image of a pig object in the pig house; a second imaging device generating a thermal image of the pig object; a sound collecting device for collecting sound information including breathing and coughing sounds of the pig object; a monitoring server for predicting and judging the presence or absence of disease and the type of disease in the pig object based on the EEG signal, the motion image, the thermal image and the sound information; and a manager terminal receiving a disease outbreak notification message of a pig object from the monitoring server, wherein the monitoring server detects a sleep state, an abnormal seizure state, a feeling of depression and a feeling of depression of the pig object through the EEG variability diagram of the EEG signal detected in the pig object. After classifying the related EEG (electroencephalographic, EEG), the EEG analysis unit to analyze the pattern of EEG variability in comparison with the reference; When a target object (pig) is input from the manager terminal, a path tracking unit for tracking the movement path of the target object in reverse order based on the position signal of the EEG detection module located in the target object (pig); a behavior pattern and posture analysis unit that analyzes the behavior pattern and posture of the pig object based on a motion image for a change in movement of the targeted pig object; a body temperature analyzer analyzing the body temperature of the pig object based on the thermal image; an acoustic analysis unit for analyzing at least one of a breathing cycle of the pig object, a size and generation cycle of a cough sound, and a cry sound based on the acoustic information; And the presence or absence of disease is first determined based on the EEG variability pattern of the pig object, irregular posture changes of behavioral patterns, respiratory cycle, and cough sound, and whether or not disease occurs based on the body temperature and body temperature change of each part of the pig object selected first and a disease occurrence determination unit for secondary determination, wherein the behavioral posture and pattern analysis unit classifies the change of the pose pattern of the pig in the pig house into any one of Standing, Lying, and Sitting based on the motion image, and when the pig moves , the pose pattern change is analyzed as a distance versus time, the body temperature analysis unit analyzes the body temperature change for each part of pigs that are heated according to the pose pattern change, and the disease occurrence determination unit learns the deep learning algorithm when a disease occurs It is characterized in that the pig object is first selected based on the change of the time-series pose pattern, breathing cycle, and cough sound of the pigs.

상기 과제를 해결하기 위한 다른 일 실시예에 따른 딥러닝 기반 객체 추적 및 행위 분석을 이용한 스마트축사관리방법은 뇌파탐지모듈을 이용하여 돈사 내의 돼지 객체의 뇌파신호를 측정하는 단계; 경로 추적부에서 관리자 단말로부터 타겟 객체(돼지)가 입력받으면, 타겟 객체(돼지)에 위치한 뇌파탐지모듈의 위치신호를 기초로 타겟 객체의 이동경로를 역순으로 트랙킹하는 단계; 뇌파분석부에서 돼지 객체에서 감지된 뇌파신호의 뇌파변이도를 통해 돼지들의 수면상태, 이상발작 상태, 우울감과 관련된 뇌파(electroencephalographic, EEG)를 분류한 후, 레퍼런스와 비교하여 뇌파 변이도의 패턴을 분석하는 단계; 행동패턴 및 자세 분석부에서 타겟팅된 돼지객체의 이동경로 중 움직임 변화에 대한 모션 이미지를 기초로 상기 돼지 객체가 이동 시에, 포즈패턴변화를 거리 대비 시간으로 분석한 후, 질병걸린 돼지들의 표본 데이터와 비교를 통해 행동이상 여부를 판단하는 단계; 해당 돼지 객체가 행동이상으로 판단되면, 음향정보수집부에서 돼지 객체의 호흡 및 기침소리를 포함하는 음향정보를 수집하는 단계; 질별발생 판단부에서 상기 타겟 객체(돼지)의 뇌파변이도 패턴, 행동패턴의 불규칙한 자세변화, 호흡주기, 기침소리를 기초로 질병 유무를 1차 판단하는 단계; 상기 타겟 객체(돼지)가 질병발생으로 판단되면, 제2 촬상장치에서 해당 돼지 객체의 신체 부위별 열화상 이미지를 수집하는 단계; 질병발생 판단부에서 상기 열화상 이미지를 기초로 해당 돼지 객체의 질병발생유무 및 질병의 종류를 예측하는 단계; 및 해당 돼지 객체가 질병에 걸린 것으로 예측되면, 알림부에서 질병발생 알림메시지를 생성하여 관리자 단말로 발송하는 단계를 포함한다.A smart livestock management method using deep learning-based object tracking and behavior analysis according to another embodiment for solving the above problem comprises the steps of: measuring an EEG signal of a pig object in a pig house using an EEG detection module; When the target object (pig) is input from the manager terminal in the path tracking unit, tracking the movement path of the target object in reverse order based on the position signal of the EEG detection module located in the target object (pig); After classifying electroencephalographic (EEG) related to sleep state, abnormal seizure state, and depression of pigs through the EEG variability diagram of EEG signals detected in the pig object in the EEG analysis unit, the pattern of EEG variability is analyzed by comparing it with a reference. step; When the pig object moves based on the motion image for the change in the movement of the targeted pig object in the behavior pattern and posture analysis unit, the pose pattern change is analyzed as distance versus time, and then sample data of diseased pigs judging whether the behavior is abnormal by comparing with When the corresponding pig object is determined to be abnormal, collecting acoustic information including the breathing and coughing sounds of the pig object in the acoustic information collection unit; First determining the presence or absence of a disease based on the EEG variability pattern of the target object (pig), irregular posture change of the behavior pattern, breathing cycle, and cough sound in the vaginal occurrence determination unit; when the target object (pig) is determined to be disease-prone, collecting thermal image images for each body part of the pig object in a second imaging device; predicting the presence or absence of disease and the type of disease in the pig object based on the thermal image in the disease occurrence determination unit; and when it is predicted that the corresponding pig object has a disease, the notification unit generates a disease outbreak notification message and sends it to the manager terminal.

본 발명의 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템 및 방법을 이용하면, 딥러닝 알고리즘을 통해 돈사 내의 객체(돼지)의 종류, 이동패턴, 체면적/체중변화, 포즈패턴변화를 손쉽게 판단할 수 있고, 더 나아가 객체(돼지)의 이동패턴, 체면적/체중변화, 포즈패턴변화에 따른 이상(질병)상태를 조기에 예측/예방할 수 있다는 이점이 있다.Using the smart livestock management system and method using deep learning-based object tracking and behavior analysis according to an embodiment of the present invention, the type of object (pig) in the pig house, movement pattern, body area/weight change through a deep learning algorithm , pose pattern change can be easily determined, and furthermore, it has the advantage of being able to predict/prevent abnormality (disease) condition according to the movement pattern of the object (pig), body area/weight change, and pose pattern change at an early stage.

따라서, 본 발명의 다른 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템 및 방법은 타겟팅된 돼지 객체의 포즈패턴변화를 거리 대비 시간으로 분석한 결과값으로 기초로 해당 돼지 객체의 행동이상 여부를 탐지하고, 행동 이상으로 탐지된 돼지 객체의 경우, 돼지 객체의 뇌파변이 패턴, 포즈패턴변화에 따른 호흡 및 기침소리로 1차 질병발생 유무를 예측하고, 이후, 포즈패턴변화에 따른 신체 분위별 체온변화를 토대로 2차 질병발생 유무를 예측함으로써, 체적으로 돼지들의 질병발생 여부를 예측할 수 있다는 이점이 있다.Therefore, the smart livestock management system and method using deep learning-based object tracking and behavior analysis according to another embodiment of the present invention is based on the result of analyzing the pose pattern change of the targeted pig object as distance versus time, based on the corresponding pig Detects whether an object has behavioral abnormality, and in the case of a pig object detected as a behavioral abnormality, predicts the occurrence of primary disease by the pig object's brainwave mutation pattern, breathing and coughing sounds according to the change of the pose pattern, and then changes the pose pattern There is an advantage in that it is possible to predict whether or not a disease will occur in pigs by volume by predicting the occurrence of a secondary disease based on changes in body temperature for each quartile.

도 1은 본 발명의 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템을 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 CNN 아키텍처의 일 예시도이다.
도 3은 본 발명에서 적용한 더 빠른 R-CNN(Faster R-CNN) 모델의 설명도이다.
도 4는 본 발명에서 적용한 FCN(Fully convolution networks) 모델의 설명도이다.
도 5는 돈사별/개체별 이동경로 및 포즈변화패턴을 추출하여 표시한 예시도이다.
도 6은 본 발명의 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리방법을 설명한 흐름도이다.
도 7은 본 발명의 다른 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템을 나타낸 블록도이다.
도 8은 음향정보수집부에서 수집된 음향정보 내에서 호흡 및 기침소리, 울음소리, 배뇨소리를 주변소리로부터 필터링하는 과정을 나타낸 일 예시도이다.
도 9는 도 7의 뇌파분석부에서 분류한 뇌파들의 파형을 나타낸 일 예시도이다.
도 10은 본 발명의 다른 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리방법을 설명한 흐름도이다.
도 11은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시한 도이다.
1 is a block diagram illustrating a smart livestock management system using deep learning-based object tracking and behavior analysis according to an embodiment of the present invention.
2 is an exemplary diagram of a CNN architecture according to an embodiment of the present invention.
3 is an explanatory diagram of a faster R-CNN (Faster R-CNN) model applied in the present invention.
4 is an explanatory diagram of a fully convolution networks (FCN) model applied in the present invention.
5 is an exemplary diagram showing the extraction and display of movement paths and pose change patterns for each pig house/individual.
6 is a flowchart illustrating a smart livestock management method using deep learning-based object tracking and behavior analysis according to an embodiment of the present invention.
7 is a block diagram illustrating a smart livestock management system using deep learning-based object tracking and behavior analysis according to another embodiment of the present invention.
8 is an exemplary diagram illustrating a process of filtering breathing and coughing sounds, crying sounds, and urination sounds from ambient sounds in the acoustic information collected by the acoustic information collecting unit.
9 is an exemplary view showing the waveform of the EEG classified by the EEG analysis unit of FIG. 7 .
10 is a flowchart illustrating a smart livestock management method using deep learning-based object tracking and behavior analysis according to another embodiment of the present invention.
11 illustrates an example computing environment in which one or more embodiments disclosed herein may be implemented.

이하, 실시 예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 실시 예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in the description of the embodiment, if it is determined that a detailed description of a related known configuration or function interferes with the understanding of the embodiment, the detailed description thereof will be omitted.

또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the components of the embodiment, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the components from other components, and the essence, order, or order of the components are not limited by the terms. When it is described that a component is “connected”, “coupled” or “connected” to another component, the component may be directly connected or connected to the other component, but another component is between each component. It will be understood that may also be "connected", "coupled" or "connected".

실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and used by those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이하, 첨부된 도면들에 기초하여 본 발명의 일 실시예 및 다른 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템 및 방법을 보다 상세하게 설명하도록 한다.Hereinafter, a smart livestock management system and method using deep learning-based object tracking and behavior analysis according to an embodiment of the present invention and another embodiment will be described in more detail based on the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템을 나타낸 블록도이고, 도 2는 본 발명의 일 실시예에 따른 CNN 아키텍처의 일 예시도이고, 도 3은 본 발명에서 적용한 더 빠른 R-CNN(Faster R-CNN) 모델의 설명도이고, 도 4는 본 발명에서 적용한 FCN(Fully convolution networks) 모델의 설명도이고, 도 5는 돈사별/개체별 이동경로 및 포즈변화패턴을 추출하여 표시한 예시도이다.1 is a block diagram illustrating a smart livestock management system using deep learning-based object tracking and behavior analysis according to an embodiment of the present invention, and FIG. 2 is an exemplary diagram of a CNN architecture according to an embodiment of the present invention, 3 is an explanatory diagram of a faster R-CNN (Faster R-CNN) model applied in the present invention, FIG. 4 is an explanatory diagram of an FCN (Fully convolution networks) model applied in the present invention, and FIG. 5 is a pig house/individual It is an example diagram showing the extracted movement path and pose change pattern of each star.

도 1에 도시된 본 발명의 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템(10)은 영상획득부(100) 및 인공지능서버(200)를 포함한다.The smart livestock management system 10 using deep learning-based object tracking and behavior analysis according to an embodiment of the present invention shown in FIG. 1 includes an image acquisition unit 100 and an artificial intelligence server 200 .

상기 영상획득부(200)는 카메라로부터 돈사(豚舍) 내의 객체(돼지)들의 객체이미지(얼굴, 몸, 다리 등)를 획득한다. 일 실시예에서, CCTV 또는 IPTV 카메라로부터 돈사(豚舍) 내의 돼지들의 영상을 획득할 수 있고, 추가적으로 유무선 통신망을 통해 수집되는 돼지 부분별 이미지를 획득하는 것도 가능하다.The image acquisition unit 200 acquires object images (face, body, legs, etc.) of objects (pigs) in a pig house from a camera. In one embodiment, it is possible to acquire an image of pigs in a pig house from a CCTV or IPTV camera, and it is also possible to additionally acquire an image of each pig part collected through a wired/wireless communication network.

다음으로, 인공지능서버(200)는 돈사영상 내의 복수 개의 객체(돼지) 영상 영역을 추출하고, 딥러닝 학습 알고리즘을 이용하여 추출된 복수 개의 객체(돼지) 영상 영역 내에서 객체(돼지)의 부위별 이미지 블록(patch)을 분할한 후, 상기 부위별 이미지 블록(patch)의 특징들을 학습하고, 상기 부위별 이미지 블록(pach)의 특징으로 기초로 상기 돈사 내의 객체(돼지)의 종류, 이동패턴, 체면적/체중변화, 포즈패턴변화를 판단하여, 객체(돼지)의 이상상태를 예측하는 서버일 수 있다.Next, the artificial intelligence server 200 extracts a plurality of object (pig) image regions in the pig house image, and the part of the object (pig) within the extracted plurality of object (pig) image regions using a deep learning learning algorithm. After segmenting the image blocks for each part, the characteristics of the image blocks for each part are learned, and the type and movement pattern of the object (pig) in the pig house is based on the characteristics of the image block for each part. , a server that predicts an abnormal state of an object (pig) by determining a change in body area/weight, and a change in pose pattern.

보다 구체적으로, 인공지능서버(200)는 객체인식부(210), 딥러닝 학습부(220), 객체추적부(230), 객체개체 분석부(240), 객체포즈패턴변화 분석부(250), Heatmap 생성부(260), 통계처리부(270), 이상상태예측부(280) 및 체중변화 분석부(290)를 포함할 수 있다.More specifically, the artificial intelligence server 200 includes an object recognition unit 210 , a deep learning learning unit 220 , an object tracking unit 230 , an object entity analysis unit 240 , and an object pose pattern change analysis unit 250 . , a heatmap generating unit 260 , a statistical processing unit 270 , an abnormal state prediction unit 280 , and a weight change analysis unit 290 .

한편, 본원에서 설명하는 객체인식부(210), 딥러닝 학습부(220), 객체추적부(230), 객체개체 분석부(240), 객체포즈패턴변화 분석부(250), Heatmap 생성부(260), 통계처리부(270), 이상상태예측부(280) 및 체중변화 분석부(290)는 단말 및/또는 서버 형태로 구성될 수 있고, 네트워크 망을 통해 서로 통신할 수 있다.On the other hand, the object recognition unit 210, deep learning learning unit 220, object tracking unit 230, object entity analysis unit 240, object pose pattern change analysis unit 250, heatmap generation unit ( 260), the statistical processing unit 270, the abnormal state prediction unit 280, and the weight change analysis unit 290 may be configured in the form of a terminal and/or a server, and may communicate with each other through a network.

여기서, 네트워크 망은 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 개인 근거리 무선통신(Personal Area Network; PAN), 이동 통신망(mobile radio communication network), Wibro(Wireless Broadband Internet), Mobile WiMAX, HSDPA(High Speed Downlink Packet Access) 또는 위성 통신망 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.Here, the network network includes a local area network (LAN), a wide area network (WAN), a value added network (VAN), a personal area network (PAN), a mobile communication network ( mobile radio communication network), Wibro (Wireless Broadband Internet), Mobile WiMAX, HSDPA (High Speed Downlink Packet Access), or all kinds of wired/wireless networks such as satellite communication networks.

상기 객체인식부(210)는 딥러닝 객체 인식 알고리즘을 이용하여 돈사영상 내의 객체(돼지) 영상 영역을 추출한다. 여기서, 딥러닝 객체 인식 알고리즘은 faster R-CNN based feature map(ResNet 101 backbone) 및 Fully Convolutional Network(FCN)를 포함한다(도 2 내지 도 4 참조).The object recognition unit 210 extracts an object (pig) image region in the pig house image using a deep learning object recognition algorithm. Here, the deep learning object recognition algorithm includes a faster R-CNN based feature map (ResNet 101 backbone) and a Fully Convolutional Network (FCN) (see FIGS. 2 to 4).

도 2에서 볼 수 있듯이 CNN 모델은 컨볼루션(공진화), 활성화, 풀링, 정규화 및 완전 연결을 포함하는 레이어 스택을 통해 처리 한 후 입력에 대한 결과를 출력한다. 기존의 접근 방식과 비교하여 CNN은 이미지 사전 처리가 덜 필요하고 학습을 통해 기능을 추출하므로 피쳐 추출기의 수동 설계에 대한 전문 지식이 필요하지 않다는 장점이 있다. 또한, 영역 기반 지역 신경망 (R-CNN:Regions with CNN features)는 하나의 이미지에서 주요 객체들을 박스(Bounding box)로 표현하여 정확히 식별(identify) 하기 위한 것이다. 이는 이미지 데이터를 입력으로, 박스로 영역을 표시하고(Bounding box) 각 객체에 대한 라벨링(class label) 한 형태를 출력으로 갖는다. 즉, 이는 이미지 내에 물체가 있을 법한 영역 후보들을 먼저 제안하고 이들의 스코어를 매겨 물체를 인식하는 방법이다.As can be seen in Figure 2, the CNN model outputs the result for the input after processing through the layer stack including convolution (co-evolution), activation, pooling, regularization, and full concatenation. Compared to conventional approaches, CNNs have the advantages of requiring less image pre-processing and extracting features through learning, eliminating the need for expertise in the manual design of feature extractors. In addition, region-based regional neural network (R-CNN: Regions with CNN features) is to accurately identify main objects in one image by expressing them as a bounding box. It takes image data as input, displays an area with a box (Bounding box), and has a form of labeling (class label) for each object as output. That is, this is a method of recognizing an object by first suggesting area candidates in which an object is likely to be in the image and scoring them.

도 3을 참조, Faster R-CNN는 RPN(region proposal network)과 빠른 R-CNN 감지기를 포함한다. 오브젝트 감지에 더 빠른 R-CNN을 적용하는 과정에는 세 가지 주요 단계가 있다. Referring to FIG. 3, Faster R-CNN includes a region proposal network (RPN) and a fast R-CNN detector. There are three main steps in the process of applying faster R-CNN to object detection.

첫째, 컨볼루션 신경망 (convolutional neural network)이 특징 추출을 위해 이용되고, 피쳐 맵 (feature map)이 마지막 층에서 생성된다. 둘째, RPN은 기능 맵을 기반으로 다양한 종횡비와 축척으로 영역 제안(Regional Proposals)을 생성한다. 그리고 세 번째 단계에서 생성 된 영역 제안은 분류 및 바운딩 박스 회귀를 위해 고속 R-CNN 검출기로 공급한다. First, a convolutional neural network is used for feature extraction, and a feature map is generated in the last layer. Second, RPN generates Regional Proposals in various aspect ratios and scales based on functional maps. And the region proposal generated in the third step feeds into a fast R-CNN detector for classification and bounding box regression.

보다 구체적으로 CNN을 이용한 특징 추출 과정을 살펴보면, Zeiler-Fergus 네트워크의 CNN 레이어는 5 개의 컨벌루션 레이어와 3개의 최대 풀링 레이어를 포함한다. More specifically, looking at the feature extraction process using CNN, the CNN layer of the Zeiler-Fergus network includes 5 convolutional layers and 3 max pooling layers.

컨볼루션 층은 입력 이미지의 픽셀 어레이 위로 슬라이딩하는 필터를 사용하고, 필터와 서브 어레이 사이의 내적이 계산된다. 내적의 값과 바이어스 값이 추가되어 하위 배열에 대한 회선 결과가 얻어진다. The convolutional layer uses a filter that slides over the pixel array of the input image, and the dot product between the filter and the sub-array is computed. The value of the dot product and the bias value are added to obtain the convolution result for the subarray.

이때 필터 및 바이어스의 초기 가중치는 무작위로 할당되며 SGD (Stochastic Gradient descent) 알고리즘을 통해 교육 중에 계속 조정가능하다. 최대 풀링 계층은 입력 픽셀 배열의 하위 배열에서 최대 값을 가져 와서 입력 데이터의 공간 크기를 줄일 수 있다. At this time, the initial weights of filters and biases are randomly assigned and can be continuously adjusted during training through a stochastic gradient descent (SGD) algorithm. The max pooling layer can reduce the spatial size of the input data by taking the max value from the sub-array of the input pixel array.

ReLU 함수는 활성화 함수로 사용되며 max (0, x) 함수로 요소 단위 활성화를 적용하여 계산 비용을 줄이고 정확도를 향상시킬 수 있다. 과도한 피팅 문제를 피하기 위해 드롭 아웃 레이어는 두 개의 인접한 레이어에 있는 뉴런 사이의 연결 부분을 특정 드롭아웃 속도로 연결 해제하도록 설계된다. The ReLU function is used as an activation function, and element-wise activation can be applied with the max (0, x) function to reduce computational cost and improve accuracy. To avoid overfitting problems, dropout layers are designed to disconnect connections between neurons in two adjacent layers at a specific dropout rate.

정규화 레이어는 학습 속도에 영향을 주지 않고 입력 이미지의 화이트닝을 돕기 위해 적용되며 높은 학습 속도와 빠른 수렴 속도로 이어질 수 있다.The regularization layer is applied to help whiten the input image without affecting the learning rate, which can lead to high learning rate and fast convergence rate.

또한, 영역 제안 네트워크(RPN)는 보다 빠른 R-CNN(faster R-CNN)에서 앵커를 사용하여 다양한 종횡비 및 비율로 객체 영역을 생성하도록 학습한다. 작은 슬라이딩 윈도우가 피쳐 맵 위로 미끄러지도록 제안 된 다음 더 낮은 차원의 피쳐 (ZF 네트워크의 경우 256 차원)로 투영된다. In addition, region proposal networks (RPNs) learn to generate object regions with various aspect ratios and ratios using anchors in faster R-CNNs (R-CNNs). A small sliding window is proposed to slide over the feature map and then projected onto a lower-dimensional feature (256 dimensions for the ZF network).

2 개의 1×1 필터 및 ReLU 함수와의 컨볼루션 (convolution) 후, 추출 된 피쳐는 경계 박스 회귀 층 및 분류 층으로 각각 공급된다. 비 최대 억제(NMS)는 조합 (IoU)이 높은 제안서를 병합하는 데 사용될 수 있다. 이때 제안서는 객체 점수에 따라 순위가 매겨지며 최상위만 N 개의 순위가 매겨진 제안서가 보관된다.After convolution with two 1×1 filters and ReLU functions, the extracted features are fed to the bounding box regression layer and the classification layer, respectively. Non-maximal inhibition (NMS) can be used to merge proposals with high combinations (IoU). At this time, the proposals are ranked according to the object score, and only the top N ranked proposals are kept.

그리고 RPN을 통해 생성된 영역 제안(Regional Proposals)은 고속 R-CNN 검출기의 입력 관심 영역 (RoI)으로 활용된다. 각 RoI에 대해, 컨볼루션 계층의 특징은 RoI 풀링 계층을 통해 고정 길이 벡터로 변환된다. 각 고정 길이 특징 벡터는 완전히 연결된 레이어의 시퀀스로 공급되고 최종 특징 벡터는 softmax 레이어로 공급되어 5개의 클래스에 대한 확률 점수와 경계 상자의 상대 좌표를 출력하는 회귀 레이어를 생성할 수 있다.In addition, regional proposals generated through RPN are utilized as input regions of interest (RoI) of the high-speed R-CNN detector. For each RoI, the features of the convolutional layer are transformed into a fixed-length vector through the RoI pooling layer. Each fixed-length feature vector is fed as a sequence of fully connected layers, and the final feature vector is fed into a softmax layer to generate a regression layer that outputs the probability scores for the five classes and the relative coordinates of the bounding box.

다음으로, 도 4를 참조, FCN(Fully Convolutional Network)는 Fully-Connected Layer를 그에 상응하는 Convolution Layer로 바꾸고, 그것을 통과시키는 부분까지는 CNN과 차이가 없고, 네트워크의 출력을 다르게 하고자 하는 알고리즘으로, 어떤 클래스에 대한 분류 점수가 아니라, 2차원 이미지 상의 분류 점수 맵을 생성하고자 하는 알고리즘이다.Next, referring to FIG. 4, FCN (Fully Convolutional Network) changes the Fully-Connected Layer to the corresponding Convolution Layer, there is no difference from the CNN until the part that passes it, and is an algorithm that wants to make the output of the network different. It is not a classification score for a class, but an algorithm that attempts to generate a classification score map on a two-dimensional image.

한편, 상기 객체인식부(210)는 객체(돼지) 영상 영역에 대해 이진화, 세션화, 잡음제거 중 하나 이상의 전처리를 수행할 수 있다.Meanwhile, the object recognition unit 210 may perform one or more pre-processing of binarization, sessionization, and noise removal on an object (pig) image region.

또한, 가우시안 필터(Gaussian filter), 라플라시안 필터(Laplacian filter), 가우시안 차(Difference of Gaussian: DoG) 및 캐니 에지 검출(Canny edge detection) 등을 이용하여, 돈사영상을 변형 또는 개선시킬 수 있다.In addition, using a Gaussian filter, a Laplacian filter, a Gaussian difference (Difference of Gaussian: DoG), and Canny edge detection, it is possible to transform or improve the pig house image.

또한, 가우시안 필터 등을 이용하여 잡음을 제거하고(Noise reduction), 에지 성분 검출을 위한 그라디언트(gradient) 연산을 수행하며(gradient operation), 끊어진 에지 라인을 보간 하는 비 최대치 억제를 수행하고(non-maximum suppression), 에지 맵을 이진화하는 히스테리시스 경계화(Hysteresis thresholding)를 수행할 수 있다.In addition, noise reduction using a Gaussian filter, etc., a gradient operation for edge component detection is performed, and non-maximum suppression interpolating a broken edge line is performed (non-maximum value suppression). maximum suppression) and hysteresis thresholding for binarizing the edge map may be performed.

다음으로, 상기 딥러닝 학습부(220)는 상기 딥러닝 학습 알고리즘을 이용하여 추출된 복수 개의 객체(돼지) 영상 영역 내에서 객체(돼지)의 부위별 이미지 블록(patch)을 추출 및 분할한 후, 상기 부위별 이미지 블록(patch)의 특징들을 학습하고, 상기 부위별 이미지 블록(pach) 내에 인접한 인접객체를 분리하는 분리학습을 수행한 후, 상기 객체(돼지)의 종류(자도/모돈), 이동패턴, 포즈패턴변화의 학습데이터를 생성한다.Next, the deep learning learning unit 220 extracts and divides an image block (patch) for each part of the object (pig) within the image region of a plurality of objects (pig) extracted using the deep learning learning algorithm, and then , after learning the characteristics of the image patch for each part, and performing separation learning to separate adjacent objects adjacent in the image block for each part, the type of the object (pig) (egg / sow), It generates learning data of movement pattern and pose pattern change.

상기 딥러닝 학습부(220)는 상기 부분별 이미지 블록(patch)를 추출 및 분할 한 후, 배치 정규화(Batch Normalization)한 후, 객체의 부위별 오브젝트의 특징을 검증 및 학습한다.The deep learning learning unit 220 extracts and divides the image block for each part, performs batch normalization, and verifies and learns the characteristics of the object for each part of the object.

참고로, 배치 정규화는 활성화 함수의 활성화 값 또는 출력값을 정규화하는 작업을 말한다. 신경망의 각 레이어(layer)에서 데이터(배치)의 분포를 정규화하는 작업이다. 일종의 노이즈를 추가하는 방법으로 이는 배치마다 정규화를 함으로써 전체 데이터에 대한 평균의 분산과 값이 달라질 수 있다.For reference, batch normalization refers to the operation of normalizing the activation value or output value of the activation function. It is the task of normalizing the distribution of data (batch) in each layer of the neural network. As a method of adding a kind of noise, it is normalized for each batch, so the variance and value of the mean for the entire data may be different.

각 히든 레이어(hidden layer)에서 정규화를 하면서 입력분포가 일정하게 되고, 이에 따라 학습률(learning rate)을 크게 설정해도 결과적으로 학습속도가 빨라지게 된다.During normalization in each hidden layer, the input distribution becomes constant, and as a result, even if the learning rate is set large, the learning speed is increased as a result.

다시 말해, 배치 정규화는 학습 시의 미니배치를 한 단위로 정규화를 하는 것으로 분포의 평균이 0, 분산이 1이 되도록 정규화하는 것을 의미한다.In other words, batch normalization refers to normalizing a mini-batch during training as a unit, and means to normalize the distribution so that the mean is 0 and the variance is 1.

배치 정규화의 일 예로, 먼저, 입력으로 사용된 미니배치의 평균과 분산을 계산하고, 히든 레이어의 활성화값/출력값에 대해서 평균이 0, 분산이 1이 되도록 정규화(Normalization)을 한다. 결과적으로 데이터 분포가 덜 치우치게 되고, 배치 정규화 단계마다 확대 스케일 및 이동 변환을 수행한다.As an example of batch normalization, first, the average and variance of a mini-batch used as an input are calculated, and normalization is performed so that the mean is 0 and the variance is 1 for the activation value/output value of the hidden layer. As a result, the data distribution becomes less skewed, and enlargement scale and shift transformation are performed at each batch normalization step.

한편, 딥러닝(Deep Learning)은 사물이나 데이터를 군집화하거나 분류하는 데 사용되는 기술이다. 많은 양의 데이터를 컴퓨터에 입력하고 비슷한 것끼리 분류하도록 하는 기술이다.On the other hand, deep learning is a technology used to cluster or classify objects or data. It is a technology that inputs a large amount of data into a computer and classifies similar ones.

이때, 데이터를 어떻게 분류할 것인가를 놓고 이미 많은 기계학습 알고리즘이 등장했다. 딥러닝은 인공신경망의 한계를 극복하기 위해 제안된 인공지능 학습방법이다.At this time, many machine learning algorithms have already appeared on how to classify data. Deep learning is an artificial intelligence learning method proposed to overcome the limitations of artificial neural networks.

본원에서 개시된 딥러닝 학습부(220)는 딥러닝 학습 알고리즘을 채용하며, 상기 딥러닝 학습 알고리즘은 Deep Belief Network, Autoencoder, CNN(Convolutional Neural Network), RNN(Recurrent Nerural Network), Deep Q-Network 등을 포함할 수 있고, 본 발명에서 열거한 딥러닝 학습 알고리즘은 일 예시일 뿐, 이에 한정되는 것은 아니다.The deep learning learning unit 220 disclosed herein employs a deep learning learning algorithm, and the deep learning learning algorithm is a Deep Belief Network, an Autoencoder, a Convolutional Neural Network (CNN), a Recurrent Neural Network (RNN), a Deep Q-Network, etc. may include, and the deep learning learning algorithm listed in the present invention is only an example, and is not limited thereto.

다음으로, 객체추적부(230)는 상기 학습 데이터를 기초로 상기 돈사영상 내에서 검출된 적어도 하나 이상의 객체(돼지)의 이동경로 패턴을 추적한다. 상기 객체추적부(230)는 Meanshift, camshift, kalman tracker, GOTURN, TLD 등의 딥러닝 객체 추적 알고리즘을 이용할 수 있다.Next, the object tracking unit 230 tracks the movement path pattern of at least one or more objects (pigs) detected in the pig place image based on the learning data. The object tracker 230 may use a deep learning object tracking algorithm such as Meanshift, camshift, kalman tracker, GOTURN, and TLD.

다음으로, 객체개체 분석부(240)는 상기 학습 데이터를 기초로 상기 돈사영상 내에서 검출된 적어도 하나 이상의 객체(돼지)의 종류, 돈사별 개체수를 분석한다.Next, the object analysis unit 240 analyzes the type of at least one or more objects (pigs) detected in the pig place image and the number of individuals per pig place based on the learning data.

다음으로, 객체포즈패턴변화 분석부(250)는 상기 학습 데이터를 기초로 상기 돈사영상 내에서 검출된 적어도 하나 이상의 객체(돼지) 영상 영역에서 객체(돼지)의 포즈변화패턴을 분석한다.Next, the object pose pattern change analysis unit 250 analyzes the pose change pattern of the object (pig) in at least one object (pig) image area detected in the pig house image based on the learning data.

상기 객체포즈패턴변화 분석부(250)는 svm, Resnet, Alexnet, VGGNet, MobileNet 등을 이용할 수 있으며, 이에 한정되는 것은 아니다.The object pose pattern change analysis unit 250 may use svm, Resnet, Alexnet, VGGNet, MobileNet, and the like, but is not limited thereto.

여기서, 상기 포즈변화패턴은 Standing(일어선상태), Lying(누운상태), Sitting(앉은상태) 중 적어도 하나의 자세변화이다.Here, the pose change pattern is a change in posture of at least one of Standing (standing state), Lying (lying state), and Sitting (sitting state).

다음으로, 체중변화 분석부(290)는 상기 학습 데이터를 기초로 상기 돈사영상 내에서 검출된 적어도 하나 이상의 객체(돼지)의 영상 영역에서 객체(돼지)의 체면적 및 상기 체면적에 따른 체중 변화를 분석판단한다.Next, the weight change analysis unit 290 is the body area of the object (pig) in the image area of at least one or more objects (pigs) detected in the pig place image based on the learning data, and the change in body weight according to the body area analyze and judge

상기 체중변화 분석부(290)는 체면적과 실체중과 소정의 상관관계식을 생성할 수 있고, 이를 통해 체중의 근사치를 산출하여 종자별 규격화 및 돼지 출하시기를 결정하는 중요한 데이터를 제공할 수도 있다.The weight change analysis unit 290 may generate a predetermined correlation expression between body area and actual weight, and may provide important data for determining standardization for each seed and pig shipping time by calculating an approximation of the weight through this. .

상기 Heatmap 생성부(260)는 상기 학습 데이터 및 상기 이동경로 패턴을 기초로 상기 돈사영상 내에서 검출된 적어도 하나 이상의 객체(돼지) 영상 영역에서 객체(돼지)의 종류(자돈/모돈) 별 히트맵을 생성한다.The heatmap generating unit 260 is a heat map for each type of object (pig) (pig / sow) in the at least one object (pig) image area detected in the pig place image based on the learning data and the movement path pattern. create

상기 통계처리부(270)는 상기 객체개체 분석부, 상기 객체추적부, 상기 객체행동 분석부 및 상기 Heatmap 생성부의 분석데이터를 기초로 상기 객체의 시간에 따른 포즈변화패턴을 분석한 행동변화 통계데이터를 생성한다.The statistical processing unit 270 analyzes the pose change pattern over time of the object based on the analysis data of the object entity analysis unit, the object tracking unit, the object behavior analysis unit, and the heatmap generation unit. create

상기 이상상태 예측부(280)는 상기 행동변화 통계데이터 및 상기 체중변화 분석부의 결과치를 기초로 상기 객체(돼지)의 이상상태(질병)를 예측한다.The abnormal state prediction unit 280 predicts an abnormal state (disease) of the object (pig) based on the behavior change statistical data and the result of the weight change analysis unit.

상기 이상상태(질병)는 돼지 생식기 호흡기 증후군(PRRS), 돼지 인플루엔자(SIV), 돼지 유행성 설사병(PED), 아우제키스병, 브라키스피라 감염증, 돼지열병(CSF), 크리토스포리디움증, 구제역(FMD), E형 간염 바이러스(HEV), 로소니아인트라셀루라리스, 마이코플라즈마성 폐렴(M.hyo), 파르보바이러스(PPV), 파스투렐라병, 로타바이러스, 살모넬라증, 브라키스피라 하이오디센테리에, 돼지수포병, 전염성 위장염, 선무충증 중 적어도 하나 이상일 수 있다.The abnormal state (disease) is swine reproductive and respiratory syndrome (PRRS), swine influenza (SIV), swine epidemic diarrhea (PED), Augeckis disease, Brachispira infection, swine fever (CSF), critosporidiosis, foot-and-mouth disease (FMD), Hepatitis E virus (HEV), Lawsonia intracellularis, Mycoplasma pneumonia (M.hyo), Parvovirus (PPV), Pasteurella disease, Rotavirus, Salmonellosis, Brachyspira hyodysenterie , swine blisters, infectious gastroenteritis, and adenomatosis may be at least one or more.

참고로, AFS는 아프리카돼지열병 바이러스(ASFV)에 의해 발생하고, ASFV는 집돼지, 혹멧돼지 및 강멧돼지 등을 감염하고, 이 병은 건강한 동물과 병에 걸린 동물이 직접 접촉하는 경우, 또는 감염된 먹이를 통해 간접적으로 접촉하는 경우는 물론 생물학적 매개체(연진드기 등)를 통해서도 전이되는 병일 수 있다. For reference, AFS is caused by African swine fever virus (ASFV), which infects domestic pigs, warthogs and wild boars, and this disease is transmitted when a healthy animal comes in direct contact with a diseased animal, or an infected prey. It can be a disease that can be transmitted through indirect contact through, as well as through biological agents (such as soft mites).

AFS의 징후로는 과급성, 급성, 아급성 및 만성 형태로 일어날 수 있으며 폐사율은 0 ~ 100%까지 다양하다. 이는 돼지에 감염된 바이러스의 병독성에 따라 달라지고, 급성 질병인지 알아볼 수 있는 특성은 3~7일의 짧은 잠복기를 거쳐 고열(최대 42°C)이 이어지고 5~10일 내에 폐사에 이르는 현상이다. 가장 일관되게 나타나는 임상적인 징후는 식욕 부진, 우울증과 드러누워 지내는 행동 및 다른 징후 중에는 귀, 복부 및 다리 피부 출혈이나 호흡 곤란, 구토, 코 또는 직장에서 출혈을 일으키는 경우 등이 있으며 때로는 설사를 동반한다. 또한, 체중 감소, 관절 부종과 호흡기 문제 등입니다. 이 질병이 이런 형태를 띠는 경우는 집단 발병 시에는 극히 드물다는 특성이 있다.Signs of AFS can occur in hyperacute, acute, subacute and chronic forms, and mortality rates vary from 0 to 100%. This depends on the virulence of the virus that infects pigs, and the characteristic that can be identified as an acute disease is a short incubation period of 3 to 7 days, followed by high fever (up to 42°C) and death within 5 to 10 days. The most consistent clinical signs are loss of appetite, depression and recumbent behavior and, among other signs, bleeding from the skin of the ears, abdomen, and legs or shortness of breath, vomiting, bleeding from the nose or rectum, sometimes accompanied by diarrhea . Also, weight loss, joint swelling and respiratory problems. Cases of this type of disease are extremely rare in a group outbreak.

아우제키스병(Aujeszky's disease)은 Pseudorabies virus(PRV, 가성광견병 바이러스)라는 헤르페스 바이러스에 의해 유발되는 전염성 바이러스 질병으로, 가장 흔한 형태로는 급성 열성 증후군이 있으며 주로 돼지(주된 바이러스 병원소)에게 영향을 미치지만 다른 동물 종 또한 이 병에 취약하다. 임상 징후는 감염된 동물의 연령 및 생리적 발달 상태에 따라 달라진다. 예컨대, 새끼 돼지의 경우, 신경 질환(선회운동, 발작)을 유발하고, 곧 폐사로 이어지고, 성장 중인 동물의 경우, 주로 호흡기와 위장 문제를 유발하여 성장을 지체시킨다. Aujeszky's disease is a contagious viral disease caused by a herpes virus called Pseudorabies virus (PRV). The most common form is acute febrile syndrome, affecting mainly pigs (the main viral pathogen). However, other animal species are also susceptible to the disease. Clinical signs depend on the age and physiological development of the infected animal. For example, in the case of piglets, it causes neurological diseases (swivel movements, seizures) and soon leads to death, and in the case of growing animals, it mainly causes respiratory and gastrointestinal problems, delaying growth.

돼지열병(CSF)은 돼지 및 야생 멧돼지의 전염병 중에서 아프타열(aphthous fever) 다음가는 가장 심각한 질병으로, 돼지 축산에 심각한 위협을 가하며, 사회경제적인 타격도 크다. 이 병은 플라비바이러스 과의 Pestivirus 속에 속하는 외피 보유 RNA에 의해 발생하고, CSF는 인간에게 전염될 수 없고, 감염시키는 바이러스의 독성과 동물의 성장 단계에 따라 다양한 방식으로 증상이 나타난다.Swine fever (CSF) is the second most serious disease after aphthous fever among infectious diseases of pigs and wild boars, and poses a serious threat to pig husbandry and has a great socioeconomic impact. This disease is caused by enveloped RNA belonging to the genus Pestivirus of the Flavivirus family. CSF cannot be transmitted to humans, and symptoms appear in various ways depending on the toxicity of the infecting virus and the growth stage of the animal.

징후로는 과급성 형태로 병에 걸리면 사실상 아무런 징후가 없는 상태에서 48시간 이내에 죽음에 이를 수 있지만, 좀 더 보편적인 급성 형태로 병에 걸리면 첫 단계로 고열(최대 42°C) 증상이 발생하여 알아보기 쉽고, 이 단계에서 병에 걸린 동물은 무기력증에 빠지고 먹이를 먹지 않으며 눈에서 점액질의 분비물이 나오는 결막염 증상을 보이고, 위장과 호흡기 문제, 혈액 상태 불균형, 신경 장애를 일으킨다.Signs are that the superacute form can result in virtually asymptomatic death within 48 hours, but the more common acute form of the disease develops symptoms of high fever (up to 42°C) as the first stage. Recognizable, diseased animals at this stage become lethargic, stop feeding and show symptoms of conjunctivitis with mucus discharge from the eyes, gastrointestinal and respiratory problems, blood imbalances, and neurological disorders.

도 6은 본 발명의 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리방법을 설명한 흐름도이다.6 is a flowchart illustrating a smart livestock management method using deep learning-based object tracking and behavior analysis according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 본 발명의 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리방법(S700)은 실시간으로 서로 다른 각도에서 돈사(豚舍)를 촬영한 복수 개의 돈사영상을 획득(S710)한다.As shown in FIG. 6 , the smart livestock management method ( S700 ) using deep learning-based object tracking and behavior analysis according to an embodiment of the present invention includes a plurality of livestock shots taken from different angles in real time. Acquire a pig house image (S710).

이후, 인공지능 서버(200)에서 돈사영상 내의 복수 개의 객체(돼지) 영상 영역을 추출하고, 딥러닝 학습 알고리즘을 이용하여 추출된 복수 개의 객체(돼지) 영상 영역 내에서 객체(돼지)의 부위별 이미지 블록(patch)을 분할한 후, 상기 부위별 이미지 블록(patch)의 특징들을 학습하고, 상기 부위별 이미지 블록(pach)의 특징으로 기초로 상기 돈사 내의 객체(돼지)의 종류, 이동패턴, 포즈패턴변화를 판단하여, 객체(돼지)의 이상상태를 예측(S720)한다.Thereafter, the artificial intelligence server 200 extracts a plurality of object (pig) image regions in the pig house image, and each part of the object (pig) within the extracted plurality of object (pig) image regions using a deep learning learning algorithm After dividing the image block (patch), the characteristics of the image block (patch) for each part are learned, and the type of object (pig) in the pig house, the movement pattern, based on the characteristics of the image block (pach) for each part, By determining the change in the pose pattern, the abnormal state of the object (pig) is predicted ( S720 ).

상기 S720 과정은 다음과 같은 과정을 포함할 수 있다.The process S720 may include the following process.

먼저, 객체인식부(210)에서 딥러닝 객체 인식 알고리즘을 이용하여 돈사영상 내의 객체(돼지) 영상 영역을 추출(S721)한다.First, the object recognition unit 210 uses a deep learning object recognition algorithm to extract an object (pig) image region in the pig house image (S721).

여기서, 딥러닝 객체 인식 알고리즘은 faster R-CNN based feature map(ResNet 101 backbone) 및 Fully Convolutional Network(FCN)를 포함한다.Here, the deep learning object recognition algorithm includes a faster R-CNN based feature map (ResNet 101 backbone) and a Fully Convolutional Network (FCN).

상기 S721 과정은 객체(돼지) 영상 영역에 대해 이진화, 세션화, 잡음제거 중 하나 이상의 전처리를 수행하는 과정을 포함하고, 가우시안 필터(Gaussian filter), 라플라시안 필터(Laplacian filter), 가우시안 차(Difference of Gaussian: DoG) 및 캐니 에지 검출(Canny edge detection) 등을 이용하여, 돈사영상을 변형 또는 개선시킬 수 있는 과정일 수 있다.The step S721 includes performing one or more preprocessing of binarization, sessionization, and noise reduction on the object (pig) image region, and includes a Gaussian filter, a Laplacian filter, and a Gaussian difference. Gaussian: DoG) and Canny edge detection may be used to transform or improve a pig house image.

또한, 가우시안 필터 등을 이용하여 잡음을 제거하고(Noise reduction), 에지 성분 검출을 위한 그라디언트(gradient) 연산을 수행하며(gradient operation), 끊어진 에지 라인을 보간 하는 비 최대치 억제를 수행하고(non-maximum suppression), 에지 맵을 이진화하는 히스테리시스 경계화(Hysteresis thresholding)를 수행하는 과정일 수 있다.In addition, noise reduction using a Gaussian filter, etc., a gradient operation for edge component detection is performed, and non-maximum suppression interpolating a broken edge line is performed (non-maximum value suppression). maximum suppression) or a process of performing hysteresis thresholding for binarizing the edge map.

다음으로, S721 과정이 완료되면, 딥러닝 학습부(220)에서 딥러닝 학습 알고리즘을 이용하여 추출된 복수 개의 객체(돼지) 영상 영역 내에서 객체(돼지)의 부위별 이미지 블록(patch)을 분할한 후, 상기 부위별 이미지 블록(patch)의 특징들을 학습하고, 상기 부위별 이미지 블록(pach) 내에 인접한 인접객체를 분리하는 분리학습을 수행한 후, 상기 객체(돼지)의 종류(자도/모돈), 이동패턴, 포즈패턴변화의 학습데이터를 생성한다.Next, when the S721 process is completed, the image block (patch) for each part of the object (pig) is divided within the plurality of object (pig) image regions extracted by the deep learning learning unit 220 using the deep learning learning algorithm. Then, after learning the characteristics of the image patch for each part, and performing separation learning to separate adjacent objects in the image block for each part, the type of the object (pig) (egg / sow) ), movement patterns, and pose pattern changes are generated as learning data.

이후, 객체개체 분석부(240)에서 상기 학습 데이터를 기초로 상기 돈사영상 내에서 검출된 적어도 하나 이상의 객체(돼지)의 종류, 돈사별 개체수를 분석(S722)하고, 객체추적부(230)에서 상기 학습 데이터를 기초로 상기 돈사영상 내에서 검출된 적어도 하나 이상의 객체(돼지)의 이동경로 패턴을 추적(S723)한다.Thereafter, the object analysis unit 240 analyzes (S722) the type of at least one or more objects (pigs) detected in the pig place image and the number of individuals per pig place based on the learning data, and in the object tracking unit 230 A movement path pattern of at least one object (pig) detected in the pig place image is tracked based on the learning data (S723).

이와 동시에, 상기 학습 데이터를 기초로 상기 돈사영상 내에서 검출된 적어도 하나 이상의 객체(돼지) 영상 영역에서 객체(돼지)의 포즈변화패턴을 분석(S723)한다. 여기서, 상기 포즈변화패턴은 Standing, Lying, Sitting 중 적어도 하나의 자세변화이다.At the same time, the pose change pattern of the object (pig) is analyzed in the image area of at least one object (pig) detected in the pig place image based on the learning data (S723). Here, the pose change pattern is a posture change of at least one of Standing, Lying, and Sitting.

다음으로, 체중변화 분석부(290)에서 상기 학습 데이터를 기초로 상기 돈사영상 내에서 검출된 적어도 하나 이상의 객체(돼지)의 영상 영역에서 객체(돼지)의 체면적 및 상기 체면적에 따른 체중 변화를 분석판단(S724)하고, Heatmap 생성부(260)에서 상기 학습 데이터 및 상기 이동경로 패턴을 기초로 상기 돈사영상 내에서 검출된 적어도 하나 이상의 객체(돼지) 영상 영역에서 객체(돼지)의 종류(자돈/모돈) 별 히트맵을 생성(S725)한다.Next, the body area of the object (pig) in the image region of at least one object (pig) detected in the pig place image based on the learning data by the weight change analysis unit 290 and the change in body weight according to the body area is analyzed and determined (S724), and the type of object (pig) in the at least one object (pig) image area detected in the pig place image based on the learning data and the movement path pattern in the heatmap generator 260 ( A heat map for each piglet/sow) is generated (S725).

이후, 통계처리부(270)에서 적어도 하나 이상의 객체(돼지)의 종류, 돈사별 개체수, 이동경로 패턴, 포즈변화패턴 및 히트맵을 기초로 상기 객체(돼지)의 시간에 따른 포즈변화패턴을 분석한 행동변화 통계데이터를 생성(S726)하고, 이상상태 예측부(280)에서 상기 행동변화 통계데이터 및 상기 체중변화를 기초로 상기 객체(돼지)의 이상상태(질병)를 예측(S727)한다.After that, the statistical processing unit 270 analyzes the pose change pattern of the object (pig) over time based on the type of at least one object (pig), the number of individuals per pig house, the movement path pattern, the pose change pattern, and the heat map. Behavior change statistical data is generated (S726), and the abnormal state prediction unit 280 predicts an abnormal state (disease) of the object (pig) based on the behavior change statistical data and the weight change ( S727 ).

상기 이상상태(질병)는 아프리카돼지열병(ASF), 돼지 생식기 호흡기 증후군(PRRS), 돼지 인플루엔자(SIV), 돼지 유행성 설사병(PED), 아우제키스병, 브라키스피라 감염증, 돼지열병(CSF), 크리토스포리디움증, 구제역(FMD), E형 간염 바이러스(HEV), 로소니아인트라셀루라리스, 마이코플라즈마성 폐렴(M.hyo), 파르보바이러스(PPV), 파스투렐라병, 로타바이러스, 살모넬라증, 브라키스피라 하이오디센테리에, 돼지수포병, 전염성 위장염, 선무충증 중 적어도 하나 이상일 수 있다.The abnormal state (disease) is African swine fever (ASF), swine reproductive and respiratory syndrome (PRRS), swine influenza (SIV), swine epidemic diarrhea (PED), Augekis disease, Brachispira infection, swine fever (CSF), Critosporidiosis, foot-and-mouth disease (FMD), hepatitis E virus (HEV), Lawsonia intracellularis, mycoplasma pneumonia (M.hyo), parvovirus (PPV), pasteurella disease, rotavirus, salmonellosis , Brachyspira hyodysenterie, swine blisters, infectious gastroenteritis, may be at least one or more of adenomatosis.

참고로, AFS는 아프리카돼지열병 바이러스(ASFV)에 의해 발생하고, ASFV는 집돼지, 혹멧돼지 및 강멧돼지 등을 감염하고, 이 병은 건강한 동물과 병에 걸린 동물이 직접 접촉하는 경우, 또는 감염된 먹이를 통해 간접적으로 접촉하는 경우는 물론 생물학적 매개체(연진드기 등)를 통해서도 전이되는 병일 수 있다. For reference, AFS is caused by African swine fever virus (ASFV), which infects domestic pigs, warthogs and wild boars, and this disease is transmitted when a healthy animal comes in direct contact with a diseased animal, or an infected prey. It can be a disease that can be transmitted through indirect contact through, as well as through biological agents (such as soft mites).

AFS의 징후로는 과급성, 급성, 아급성 및 만성 형태로 일어날 수 있으며 폐사율은 0 ~ 100%까지 다양하다. 이는 돼지에 감염된 바이러스의 병독성에 따라 달라지고, 급성 질병인지 알아볼 수 있는 특성은 3~7일의 짧은 잠복기를 거쳐 고열(최대 42°C)이 이어지고 5~10일 내에 폐사에 이르는 현상이다. 가장 일관되게 나타나는 임상적인 징후는 식욕 부진, 우울증과 드러누워 지내는 행동 및 다른 징후 중에는 귀, 복부 및 다리 피부 출혈이나 호흡 곤란, 구토, 코 또는 직장에서 출혈을 일으키는 경우 등이 있으며 때로는 설사를 동반한다. 또한, 체중 감소, 관절 부종과 호흡기 문제 등입니다. 이 질병이 이런 형태를 띠는 경우는 집단 발병 시에는 극히 드물다는 특성이 있다.Signs of AFS can occur in hyperacute, acute, subacute and chronic forms, and mortality rates vary from 0 to 100%. This depends on the virulence of the virus that infects pigs, and the characteristic that can be identified as an acute disease is a short incubation period of 3 to 7 days, followed by high fever (up to 42°C) and death within 5 to 10 days. The most consistent clinical signs are loss of appetite, depression and recumbent behavior and, among other signs, bleeding from the skin of the ears, abdomen, and legs or shortness of breath, vomiting, bleeding from the nose or rectum, sometimes accompanied by diarrhea . Also, weight loss, joint swelling and respiratory problems. Cases of this type of disease are extremely rare in a group outbreak.

아우제키스병(Aujeszky's disease)은 Pseudorabies virus(PRV, 가성광견병 바이러스)라는 헤르페스 바이러스에 의해 유발되는 전염성 바이러스 질병으로, 가장 흔한 형태로는 급성 열성 증후군이 있으며 주로 돼지(주된 바이러스 병원소)에게 영향을 미치지만 다른 동물 종 또한 이 병에 취약하다. 임상 징후는 감염된 동물의 연령 및 생리적 발달 상태에 따라 달라진다. 예컨대, 새끼 돼지의 경우, 신경 질환(선회운동, 발작)을 유발하고, 곧 폐사로 이어지고, 성장 중인 동물의 경우, 주로 호흡기와 위장 문제를 유발하여 성장을 지체시킨다. Aujeszky's disease is a contagious viral disease caused by a herpes virus called Pseudorabies virus (PRV). The most common form is acute febrile syndrome, affecting mainly pigs (the main viral pathogen). However, other animal species are also susceptible to the disease. Clinical signs depend on the age and physiological development of the infected animal. For example, in the case of piglets, it causes neurological diseases (swivel movements, seizures) and soon leads to death, and in the case of growing animals, it mainly causes respiratory and gastrointestinal problems, delaying growth.

돼지열병(CSF)은 돼지 및 야생 멧돼지의 전염병 중에서 아프타열(aphthous fever) 다음가는 가장 심각한 질병으로, 돼지 축산에 심각한 위협을 가하며, 사회경제적인 타격도 크다. 이 병은 플라비바이러스 과의 Pestivirus 속에 속하는 외피 보유 RNA에 의해 발생하고, CSF는 인간에게 전염될 수 없고, 감염시키는 바이러스의 독성과 동물의 성장 단계에 따라 다양한 방식으로 증상이 나타난다.Swine fever (CSF) is the second most serious disease after aphthous fever among infectious diseases of pigs and wild boars, and poses a serious threat to pig husbandry and has a great socioeconomic impact. This disease is caused by enveloped RNA belonging to the genus Pestivirus of the Flavivirus family. CSF cannot be transmitted to humans, and symptoms appear in various ways depending on the toxicity of the infecting virus and the growth stage of the animal.

징후로는 과급성 형태로 병에 걸리면 사실상 아무런 징후가 없는 상태에서 48시간 이내에 죽음에 이를 수 있지만, 좀 더 보편적인 급성 형태로 병에 걸리면 첫 단계로 고열(최대 42°C) 증상이 발생하여 알아보기 쉽고, 이 단계에서 병에 걸린 동물은 무기력증에 빠지고 먹이를 먹지 않으며 눈에서 점액질의 분비물이 나오는 결막염 증상을 보이고, 위장과 호흡기 문제, 혈액 상태 불균형, 신경 장애를 일으킨다. Signs are that the superacute form can result in virtually asymptomatic death within 48 hours, but the more common acute form of the disease develops symptoms of high fever (up to 42°C) as the first stage. Recognizable, diseased animals at this stage become lethargic, stop feeding and show symptoms of conjunctivitis with mucus discharge from the eyes, gastrointestinal and respiratory problems, blood imbalances, and neurological disorders.

본 발명의 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석 시스템 및 방법을 이용하면, 딥러닝 알고리즘을 통해 돈사 내의 객체(돼지)의 종류, 이동패턴, 체면적/체중변화, 포즈패턴변화를 손쉽게 판단할 수 있고, 더 나아가 객체(돼지)의 이동패턴, 체면적/체중변화, 포즈패턴변화에 따른 이상(질병)상태를 조기에 예측/예방할 수 있다는 이점이 있다.Using the deep learning-based object tracking and behavior analysis system and method according to an embodiment of the present invention, the type of object (pig) in the pig house, movement pattern, body area/weight change, and pose pattern change through a deep learning algorithm It can be easily determined, and furthermore, there is an advantage that abnormal (disease) conditions can be predicted/prevented at an early stage according to the movement pattern, body area/weight change, and pose pattern change of the object (pig).

도 7은 본 발명의 다른 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템의 블록도이다.7 is a block diagram of a smart livestock management system using deep learning-based object tracking and behavior analysis according to another embodiment of the present invention.

도 7에 도시된 바와 같이, 본 발명의 다른 일 실시에에 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템(500)은 뇌파탐지모듈(501), 제1 촬상장치(510), 제2 촬상장치(520), 음향수집장치(530), 모니터링서버(540) 및 관리자 단말(550)을 포함한다.As shown in Figure 7, the smart livestock management system 500 using deep learning-based object tracking and behavior analysis in another embodiment of the present invention is an EEG detection module 501, a first imaging device 510, the first 2 includes an imaging device 520 , a sound collecting device 530 , a monitoring server 540 , and a manager terminal 550 .

상기 뇌파탐지모듈(501)은 돈사 내의 돼지 객체 마다 부착되어, 돼지 객체의 뇌파신호를 감지하는 구성일 수 있다. 상기 뇌파탐지모듈(501)은 고유의 통신채널을 통해 후술하는 모니터링 서버(540)로 모듈 ID, 위치정보 및 돼지 객체에서 탐지된 뇌파신호를 전송한다. The EEG detection module 501 may be attached to each pig object in the pig house, and may be configured to detect the EEG signal of the pig object. The EEG detection module 501 transmits the EEG signal detected from the module ID, location information, and the pig object to the monitoring server 540 to be described later through a unique communication channel.

상기 뇌파탐지모듈(501)은 0.5 Hz 내지 100 Hz의 밴드 패스 필터 및 500 Hz의 샘플링 속도와 10 kΩ 이하의 임피던 스에 해당하는 특성을 기반으로 동작하며, 은-염화은(Ag-AgCl) 패치형 전극을 사용하여 돼지 객체의 뇌파신호를 측정할 수 있다.The EEG detection module 501 operates based on characteristics corresponding to a band pass filter of 0.5 Hz to 100 Hz, a sampling rate of 500 Hz and an impedance of 10 kΩ or less, and silver-silver chloride (Ag-AgCl) patch type. Electrodes can be used to measure EEG signals of pig objects.

상기 제1 촬상장치(510)는 돈사 내의 돼지 객체의 모션 이미지를 촬영한다.The first imaging device 510 captures a motion image of a pig object in the pig house.

상기 제2 촬상장치(520)는 제1 촬상장치(510)에서 촬영된 돼지 객체의 열화상 이미지를 생성한다.The second imaging device 520 generates a thermal image of the pig object captured by the first imaging device 510 .

상기 음향수집장치(530)는 상기 제1 촬상장치(510) 및 제2 촬상장치(520)에서 촬영된 돼지 객체를 트래킹하면서, 돼지 객체에서 발생되는 소리, 예컨대, 호흡 및 기침소리, 울음소리, 배뇨소리 등을 포함하는 음향정보를 수집한다.The sound collecting device 530 tracks the pig object photographed by the first imaging device 510 and the second imaging device 520, and sounds generated from the pig object, for example, breathing and coughing sounds, cries, Acoustic information including urination sound is collected.

상기 모니터링 서버(540)는 뇌파신호, 모션 이미지, 열화상 이미지 및 음향정보를 기초로 해당 돼지 객체의 이상행동반응을 분석하고, 이상행동반응에 따른 질병발생유무 및 질병의 종류를 예측판단하고, 해당 돼지 객체가 질병에 걸린것으로 예측되면, 알림 메시지를 생성하여 제공한다.The monitoring server 540 analyzes the abnormal behavioral response of the pig object based on the EEG signal, the motion image, the thermal image and the sound information, and predicts the presence or absence of disease and the type of disease according to the abnormal behavior response, If the pig object is predicted to have a disease, a notification message is generated and provided.

보다 구체적으로, 상기 모니터링 서버(540)는 경로 추척부(541), 행동패턴 및 자세 분석부(542), 체온 분석부(543), 음향 분석부(544), 질병발생 판단부(545), 알림부(546), 행동패턴 학습부(547), 뇌파신호 분석부(548), 분석 파라미터 설정부(549)를 포함한다.More specifically, the monitoring server 540 includes a path tracking unit 541 , a behavior pattern and posture analysis unit 542 , a body temperature analysis unit 543 , an acoustic analysis unit 544 , a disease occurrence determination unit 545 , It includes a notification unit 546 , a behavior pattern learning unit 547 , an EEG signal analysis unit 548 , and an analysis parameter setting unit 549 .

상기 뇌파분석부(548)는 돼지 객체에서 감지된 뇌파신호의 뇌파변이도를 통해 돼지들의 수면상태, 이상발작 상태, 우울감과 관련된 뇌파(electroencephalographic, EEG)를 분류한 후, 레퍼런스와 비교하여 뇌파 변이도의 패턴을 분석한다.The EEG analysis unit 548 classifies the EEG (electroencephalographic, EEG) related to the sleep state, the abnormal seizure state, and the depression of the pigs through the EEG variability diagram of the EEG signal detected in the pig object, and then compares the EEG variability with the reference. Analyze the pattern.

참고로, 뇌파분석부(548)는 돼지객체의 뇌파신호를 프리앰프(preamplifier: Model 1700, A-M Systems Inc., USA) 및 앰프(amplifier: CyberAmp 380, Axon Instruments Inc., USA)에 입력하여, 10,000배 증폭한 후 0.5 Hz 고역필터(high-pass filter) 및 60 Hz 저역필터(low-pass filter)로 필터링한 후, 신호들은 200 Hz의 샘플링 레이트(sampling rate)에서 데이터 획득 장치(data acquisition board: DigiData 1200A, Axon Instruments Inc., USA, or DAQ Pad, National Instruments Inc., USA)를 이용하여 수면상태, 이상발작 상태, 우울감과 관련된 뇌파(electroencephalographic, EEG)를 분류한다.For reference, the EEG analysis unit 548 inputs the EEG signal of the pig object into a preamplifier (Model 1700, AM Systems Inc., USA) and an amplifier (amplifier: CyberAmp 380, Axon Instruments Inc., USA), After amplification by a factor of 10,000 and filtered with a 0.5 Hz high-pass filter and a 60 Hz low-pass filter, the signals were collected on a data acquisition board at a sampling rate of 200 Hz. : DigiData 1200A, Axon Instruments Inc., USA, or DAQ Pad, National Instruments Inc., USA) were used to classify sleep state, seizure state, and electroencephalographic (EEG) related to depression.

또한, 뇌파분석부(548)는 공지된 EEG 스펙트럼 분석(Lee M-G, et al., Experimental neurology, 2011; 20) 을 이용하여 뇌파 변이도의 패턴을 분석한다.In addition, the EEG analysis unit 548 analyzes the pattern of the EEG variability by using a known EEG spectrum analysis (Lee M-G, et al., Experimental neurology, 2011; 20).

다음으로, 상기 경로 추적부(541)는 관리자 단말로부터 타겟 객체가 입력되면, 타겟 객체(돼지)에 위치한 뇌파탐지모듈(501)의 위치신호를 기초로 타겟 객체의 이동경로를 역순으로 트랙킹한다.Next, when the target object is input from the manager terminal, the path tracking unit 541 tracks the movement path of the target object in the reverse order based on the position signal of the EEG detection module 501 located in the target object (pig).

다음으로, 행동패턴 및 자세 분석부(542)는 타겟팅된 돼지객체의 이동경로 중 움직임 변화에 대한 모션 이미지를 기초로 상기 돼지 객체의 행동패턴 및 자세를 분석한다. Next, the behavior pattern and posture analysis unit 542 analyzes the behavior pattern and posture of the pig object based on a motion image for a change in movement in the movement path of the targeted pig object.

즉, 제1 지점에서 제2 지점으로 이동과정에서 발생되는 포즈패턴변화를 Standing, Lying, Sitting 중 어느 하나로 분류하고, 상기 돼지가 이동 시에, 포즈패턴변화를 거리 대비 시간으로 분석한다.That is, the change of the pose pattern generated in the process of moving from the first point to the second point is classified into any one of Standing, Lying, and Sitting, and when the pig moves, the change of the pose pattern is analyzed as distance versus time.

다음으로, 체온 분석부(543)는 상기 열화상 이미지를 기초로 돼지 객체의 체온을 분석한다. 보다 상세하게는 포즈패턴변화에 따라 발열되는 돼지들의 부위 별 체온변화를 분석한다.Next, the body temperature analyzer 543 analyzes the body temperature of the pig object based on the thermal image. In more detail, changes in body temperature for each part of pigs that are heated according to changes in pose patterns are analyzed.

다음으로, 음향 분석부(544)는 타켓팅된 돼지 객체의 포즈패턴변화에 따라 발생되는 음향정보를 기초로 상기 돼지 객체의 호흡주기, 기침소리의 크기 및 발생주기, 울음소리 중 적어도 하나 이상을 분석한다.Next, the acoustic analysis unit 544 analyzes at least one of a breathing cycle of the pig object, a size and generation cycle of a cough sound, and a cry sound based on acoustic information generated according to a change in the pose pattern of the targeted pig object. do.

다음으로, 질병발생 판단부(545)는 돼지 객체의 뇌파변이도 패턴, 행동패턴의 불규칙한 자세변화, 호흡주기, 기침소리를 기초로 질병 유무를 1차 판단하고, 1차 선별된 돼지객체의 부위별 체온 및 체온변화를 기초로 질병발생유무를 2차 판단한다.Next, the disease occurrence determination unit 545 first determines the presence or absence of a disease based on the EEG pattern of the pig object, the irregular posture change of the behavior pattern, the breathing cycle, and the cough sound, Based on body temperature and body temperature changes, secondary judgment is made on the presence or absence of disease

보다 구체적으로, 질병발생 판단부(545)는 딥러닝 학습 알고리즘을 학습한 질병이 발생된 돼지들의 뇌파변이도 패턴, 시계열적 포즈패턴의 불규칙변화, 호흡주기, 기침소리의 변화를 기초로 질병발생으로 의심되는 돼지 객체를 1차 선별한다.More specifically, the disease occurrence determination unit 545 determines the occurrence of disease based on the EEG pattern of the pigs who have learned the deep learning learning algorithm, the irregular change of the time-series pose pattern, the change of the respiratory cycle, and the cough sound. Suspected pig objects are first screened.

다음으로, 알림부(546)는 2차 판단된 돼지 객체가 질병에 걸린것으로 예측하여, 알림 메시지를 생성하여 제공한다. 상기 알림 메시지는 예상되는 질병의 종류 및 해당 질병을 갖는 돼지의 표본 데이터를 함께 제공할 수 있다.Next, the notification unit 546 predicts that the second determined pig object has a disease, and generates and provides a notification message. The notification message may provide the type of expected disease and sample data of pigs having the disease.

다음으로, 상기 행동패턴 학습부(547)는 질병으로 예측된 돼지 객체의 뇌파 변이패턴, 행동패턴, 자세변화, 호흡주기, 기침소리를 포함하는 정보를 학습 데이터로 등록하여 학습한다. 학습된 데이터는 표본 데이터로 활용한다.Next, the behavior pattern learning unit 547 learns by registering information including the EEG mutation pattern, behavior pattern, posture change, breathing cycle, and cough sound of the pig object predicted to be diseased as learning data. The learned data is used as sample data.

다음으로, 분석 파라미터 설정부(548)는 후술하는 관리자 단말과 연동하며, 관리자 단말에서 입력된 경로 추적부(541), 행동패턴 및 자세분석부(542), 체온 분석부(543), 음향 분석부(544)의 파라미터로 해당 각 부의 파라미터를 설정 및 변경하는 구성일 수 있다.Next, the analysis parameter setting unit 548 interworks with the manager terminal to be described later, and the path tracking unit 541 , the behavior pattern and posture analysis unit 542 , the body temperature analysis unit 543 , and the sound analysis input from the manager terminal. It may be a configuration for setting and changing parameters of each unit as parameters of the unit 544 .

다음으로, 관리자 단말(550)은 모니터링 서버(540)의 예측 결과값을 제공받아 표시하고, 상기 모니터링 서버(540)로부터 돼지 객체의 질병발생 알림메시지를 제공받는 구성일 수 있다.Next, the manager terminal 550 may be configured to receive and display the prediction result value of the monitoring server 540 , and receive a disease outbreak notification message of the pig object from the monitoring server 540 .

도 8은 본 발명의 다른 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리방법을 설명한 흐름도이다.8 is a flowchart illustrating a smart livestock management method using deep learning-based object tracking and behavior analysis according to another embodiment of the present invention.

본 발명의 다른 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리방법(S800)은 뇌파탐지모듈을 이용하여 돈사 내의 돼지 객체의 뇌파신호를 측정(S801)한 후, 경로 추적부에서 관리자 단말로부터 타겟 객체(돼지)가 입력받으면, 타겟 객체(돼지)에 위치한 뇌파탐지모듈의 위치신호를 기초로 타겟 객체의 이동경로를 역순으로 트랙킹(S802)한다.The smart livestock management method (S800) using deep learning-based object tracking and behavior analysis according to another embodiment of the present invention measures the EEG signal of a pig object in a pig house using an EEG detection module (S801), and then tracks the path When the target object (pig) is input from the manager terminal in the unit, the movement path of the target object is tracked in the reverse order based on the position signal of the EEG detection module located in the target object (pig) (S802).

이후, 행동패턴 및 자세 분석부(542)에서 타겟팅된 돼지객체의 이동경로 중 움직임 변화에 대한 모션 이미지를 기초로 상기 돼지 객체의 행동패턴 및 자세를 분석(S810)한다. 즉, 제1 지점에서 제2 지점으로 이동과정에서 발생되는 포즈패턴변화를 Standing, Lying, Sitting 중 어느 하나로 분류하고, 상기 돼지가 이동 시에, 포즈패턴변화를 거리 대비 시간으로 분석한 후, 질병걸린 돼지들의 표본 데이터와 비교를 통해 행동이상 여부를 판단(S820)한다.Thereafter, the behavior pattern and posture analysis unit 542 analyzes the behavior pattern and posture of the pig object based on a motion image for a change in movement in the movement path of the targeted pig object ( S810 ). That is, the change in the pose pattern that occurs in the process of moving from the first point to the second point is classified into any one of Standing, Lying, and Sitting, and when the pig moves, the change in the pose pattern is analyzed as distance versus time, and then the disease It is determined whether the behavior is abnormal through comparison with the sample data of the infected pigs (S820).

이후, 상기 S820 과정에서 해당 돼지 객체가 행동이상으로 판단되면, 돼지 객체의 호흡 및 기침소리를 포함하는 음향정보를 수집(S820)한다. 이후, 질병발생 판단부에서 상기 타겟 객체(돼지)의 뇌파변이도 패턴, 행동패턴의 불규칙한 자세변화, 호흡주기, 기침소리를 기초로 질병 유무를 1차 판단(S830)한다. 여기서, 상기 S830 과정은 딥러닝 학습 알고리즘을 학습한 질병이 발생된 돼지들의 뇌파변이도 패턴, 시계열적 포즈패턴의 불규칙변화, 호흡주기, 기침소리의 변화를 기초로 질병발생으로 의심되는 돼지 객체를 1차 선별하는 과정일 수 있다.Thereafter, when it is determined that the pig object is abnormal in the process S820, acoustic information including the breathing and coughing sounds of the pig object is collected (S820). Thereafter, the disease occurrence determination unit first determines the presence or absence of a disease based on the EEG pattern of the target object (pig), the irregular posture change of the behavior pattern, the breathing cycle, and the cough sound (S830). Here, the S830 process is a pig object suspected of having a disease based on the EEG variability pattern of pigs who have learned the deep learning learning algorithm, irregular changes in time-series pose patterns, breathing cycle, and changes in cough sound. It may be a process of selecting tea.

상기 S830 과정에서 해당 돼지 객체가 질병발생으로 판단되면, 제2 촬상장치(520)에서 해당 돼지 객체의 신체 부위별 열화상 이미지를 수집(S840)한다. 이때, 수집된 열화상 이미지는 포즈패턴변화에 따른 신체부위 별 열화상 이미지일 수 있다. 이후, 질병발생 판단부에서 상기 열화상 이미지를 기초로 해당 돼지 객체의 질병발생유무 및 질병의 종류를 예측(S850)한다. 상기 S850 과정은 상기 포즈패턴변화에 따라 발열되는 부위 별 체온변화를 분석한 후, 분석된 결과값에 질병에 걸린 돼지 객체의 표본 데이터와 비교하는 과정을 포함할 수 있다.If it is determined that the pig object is disease-prone in step S830, the second imaging device 520 collects thermal image images for each body part of the pig object (S840). In this case, the collected thermal image may be a thermal image for each body part according to a change in a pose pattern. Thereafter, the disease occurrence determination unit predicts the presence or absence of disease and the type of disease in the pig object based on the thermal image (S850). The process S850 may include analyzing the change in body temperature for each part that is heated according to the change in the pose pattern, and then comparing the analyzed result value with the sample data of the pig object suffering from the disease.

이후, 상기 S850 과정에서 해당 돼지 객체가 질병에 걸린 것으로 예측되면, 알림부에서 질병발생 알림메시지를 생성하여 관리자 단말로 발송(S860)한다.Thereafter, when it is predicted that the corresponding pig object has a disease in the process S850, the notification unit generates a disease occurrence notification message and sends it to the manager terminal (S860).

따라서, 본 발명의 다른 일 실시예에 따른 딥러닝 기반 객체 추적 및 행동 분석 방법은 타겟팅된 돼지 객체의 뇌파 변이도 패턴, 포즈패턴변화를 거리 대비 시간으로 분석한 결과값으로 기초로 해당 돼지 객체의 행동이상 여부를 탐지하고, 행동 이상으로 탐지된 돼지 객체의 경우, 돼지 객체의 뇌파 변이 패턴변화, 포즈패턴변화에 따른 호흡 및 기침소리로 1차 질병발생 유무를 예측하고, 이후, 포즈패턴변화에 따른 신체 분위별 체온변화를 토대로 2차 질병발생 유무를 예측함으로써, 체적으로 돼지들의 질병발생 여부를 예측할 수 있다는 이점이 있다.Therefore, in the deep learning-based object tracking and behavior analysis method according to another embodiment of the present invention, the behavior of the pig object based on the result of analyzing the EEG variability pattern and pose pattern change of the targeted pig object as distance versus time Detects abnormalities and, in the case of a pig object detected as a behavioral abnormality, predicts the occurrence of a primary disease by changing the EEG pattern of the pig object and breathing and coughing sounds according to the change in the pose pattern, and then, according to the change in the pose pattern By predicting the occurrence of a secondary disease based on the body temperature change by body quartile, there is an advantage in that it is possible to predict whether or not a disease occurs in pigs by volume.

도 11은 본 명세서에 개진된 하나 이상의 실시예가 구현될 수 있는 예시적인 컴퓨팅 환경을 도시하는 도면으로, 상술한 하나 이상의 실시예를 구현하도록 구성된 컴퓨팅 디바이스(1100)를 포함하는 시스템(1000)의 예시를 도시한다. 11 illustrates an example computing environment in which one or more embodiments disclosed herein may be implemented, and is an illustration of a system 1000 including a computing device 1100 configured to implement one or more embodiments described above. shows

예를 들어, 컴퓨팅 디바이스(1100)는 개인 컴퓨터, 서버 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 모바일 디바이스(모바일폰, PDA, 미디어 플레이어 등), 멀티프로세서 시스템, 소비자 전자기기, 미니 컴퓨터, 메인프레임 컴퓨터, 임의의 전술된 시스템 또는 디바이스를 포함하는 분산 컴퓨팅 환경 등을 포함하지만, 이것으로 한정되는 것은 아니다. 컴퓨팅 디바이스(1100)는 적어도 하나의 프로세싱 유닛(1110) 및 메모리(1120)를 포함할 수 있다. 여기서, 프로세싱 유닛(1110)은 예를 들어 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 주문형 반도체(Application Specific Integrated Circuit, ASIC), Field Programmable Gate Arrays(FPGA) 등을 포함할 수 있으며, 복수의 코어를 가질 수 있다. 메모리(1120)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있다. For example, computing device 1100 may be a personal computer, server computer, handheld or laptop device, mobile device (mobile phone, PDA, media player, etc.), multiprocessor system, consumer electronics, minicomputer, mainframe computer, distributed computing environments including any of the aforementioned systems or devices, and the like. The computing device 1100 may include at least one processing unit 1110 and a memory 1120 . Here, the processing unit 1110 may include, for example, a central processing unit (CPU), a graphic processing unit (GPU), a microprocessor, an Application Specific Integrated Circuit (ASIC), Field Programmable Gate Arrays (FPGA), etc. and may have a plurality of cores. The memory 1120 may be a volatile memory (eg, RAM, etc.), a non-volatile memory (eg, ROM, flash memory, etc.), or a combination thereof.

또한, 컴퓨팅 디바이스(1100)는 추가적인 스토리지(1130)를 포함할 수 있다. 스토리지(1130)는 자기 스토리지, 광학 스토리지 등을 포함하지만 이것으로 한정되지 않는다. 스토리지(1130)에는 본 명세서에 개진된 하나 이상의 실시예를 구현하기 위한 컴퓨터 판독 가능한 명령이 저장될 수 있고, 운영 시스템, 애플리케이션 프로그램 등을 구현하기 위한 다른 컴퓨터 판독 가능한 명령도 저장될 수 있다. 스토리지(1130)에 저장된 컴퓨터 판독 가능한 명령은 프로세싱 유닛(1110)에 의해 실행되기 위해 메모리(1120)에 로딩될 수 있다.Additionally, computing device 1100 may include additional storage 1130 . Storage 1130 includes, but is not limited to, magnetic storage, optical storage, and the like. The storage 1130 may store computer readable instructions for implementing one or more embodiments disclosed herein, and other computer readable instructions for implementing an operating system, an application program, and the like. Computer readable instructions stored in storage 1130 may be loaded into memory 1120 for execution by processing unit 1110 .

또한, 컴퓨팅 디바이스(1100)는 입력 디바이스(들)(1140) 및 출력 디바이스(들)(1150)을 포함할 수 있다. 여기서, 입력 디바이스(들)(1140)은 예를 들어 키보드, 마우스, 펜, 음성 입력 디바이스, 터치 입력 디바이스, 적외선 카메라, 비디오 입력 디바이스 또는 임의의 다른 입력 디바이스 등을 포함할 수 있다. 또한, 출력 디바이스(들)(1150)은 예를 들어 하나 이상의 디스플레이, 스피커, 프린터 또는 임의의 다른 출력 디바이스 등을 포함할 수 있다. 또한, 컴퓨팅 디바이스(1100)는 다른 컴퓨팅 디바이스에 구비된 입력 디바이스 또는 출력 디바이스를 입력 디바이스(들)(1140) 또는 출력 디바이스(들)(1150)로서 사용할 수도 있다.Computing device 1100 may also include input device(s) 1140 and output device(s) 1150 . Here, the input device(s) 1140 may include, for example, a keyboard, mouse, pen, voice input device, touch input device, infrared camera, video input device, or any other input device, or the like. Further, the output device(s) 1150 may include, for example, one or more displays, speakers, printers, or any other output device, or the like. Also, the computing device 1100 may use an input device or an output device included in another computing device as the input device(s) 1140 or the output device(s) 1150 .

또한, 컴퓨팅 디바이스(1100)는 컴퓨팅 디바이스(1100)가 다른 디바이스(예를 들어, 컴퓨팅 디바이스(1300))와 통신할 수 있게 하는 통신접속(들)(1160)을 포함할 수 있다. 여기서, 통신 접속(들)(1160)은 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송신기/수신기, 적외선 포트, USB 접속 또는 컴퓨팅 디바이스(1100)를 다른 컴퓨팅 디바이스에 접속시키기 위한 다른 인터페이스를 포함할 수 있다. 또한, 통신 접속(들)(1160)은 유선 접속 또는 무선 접속을 포함할 수 있다.Computing device 1100 may also include communication connection(s) 1160 that enable computing device 1100 to communicate with another device (eg, computing device 1300 ). Here, communication connection(s) 1160 may be a modem, network interface card (NIC), integrated network interface, radio frequency transmitter/receiver, infrared port, USB connection, or other for connecting computing device 1100 to another computing device. It may include interfaces. Also, the communication connection(s) 1160 may include a wired connection or a wireless connection.

상술한 컴퓨팅 디바이스(1100)의 각 구성요소는 버스 등의 다양한 상호접속(예를 들어, 주변 구성요소 상호접속(PCI), USB, 펌웨어(IEEE 1394), 광학적 버스 구조 등)에 의해 접속될 수도 있고, 네트워크(1200)에 의해 상호접속될 수도 있다.Each component of the aforementioned computing device 1100 may be connected by various interconnections such as a bus (eg, peripheral component interconnection (PCI), USB, firmware (IEEE 1394), optical bus structure, etc.) and may be interconnected by a network 1200 .

본 명세서에서 사용되는 "구성요소", "~부" 등과 같은 용어들은 일반적으로 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어, 또는 실행중인 소프트웨어인 컴퓨터 관련 엔티티를 지칭하는 것이다. As used herein, terms such as “component,” “part,” and the like generally refer to a computer-related entity that is hardware, a combination of hardware and software, software, or software in execution.

예를 들어, 구성요소는 프로세서상에서 실행중인 프로세스, 프로세서, 객체, 실행 가능물(executable), 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만, 이것으로 한정되는 것은 아니다. 예를 들어, 컨트롤러 상에서 구동중인 애플리케이션 및 컨트롤러 모두가 구성요소일 수 있다. 하나 이상의 구성요소는 프로세스 및/또는 실행의 스레드 내에 존재할 수 있으며, 구성요소는 하나의 컴퓨터 상에서 로컬화될 수 있고, 둘 이상의 컴퓨터 사이에서 분산될 수도 있다.For example, a component can be, but is not limited to being, a process running on a processor, a processor, an object, an executable, a thread of execution, a program, and/or a computer. For example, both an application running on a controller and a controller may be a component. One or more components may reside within a process and/or thread of execution, and components may be localized on one computer or distributed between two or more computers.

본 발명은 상술한 실시형태 및 첨부된 도면에 의해 한정되지 아니한다. 첨부된 청구범위에 의해 권리범위를 한정하고자 하며, 청구범위에 기재된 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 형태의 치환, 변형 및 변경할 수 있다는 것은 당 기술분야의 통상의 지식을 가진 자에게 자명할 것이다.The present invention is not limited by the above-described embodiments and the accompanying drawings. It is intended to limit the scope of rights by the appended claims, and it is to those of ordinary skill in the art that various types of substitutions, modifications and changes can be made without departing from the technical spirit of the present invention described in the claims. it will be self-evident

제1 실시예
10: 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템.
100: 영상획득부
200: 인공지능서버
210: 객체인식부
220: 딥러닝 학습부
230: 객체추적부
240: 객체개체 분석부
250: 객체포즈패턴변화 분석부
260: Heatmap 생성부
270: 통계처리부
280: 이상상태예측부
290: 체중변화 분석부
제2 실시예
500: 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템.
501: 뇌파탐지모듈
510: 제1 촬상장치
520: 제2 촬상장치
530: 음향수집장치
540: 모니터링 서버
541: 경로 추적부
542: 행동패턴 및 자세 분석부
543: 체온 분석부
544: 음향 분석부
545: 질병발생 판단부
546: 알림부
547: 행동패턴 학습부
548: 분석 파라미터 설정부
549: 뇌파신호 분석부
550: 관리자 단말
first embodiment
10: Smart livestock management system using deep learning-based object tracking and behavior analysis.
100: image acquisition unit
200: artificial intelligence server
210: object recognition unit
220: deep learning learning unit
230: object tracking unit
240: object entity analysis unit
250: object pose pattern change analysis unit
260: Heatmap generation unit
270: statistics processing unit
280: abnormal state prediction unit
290: weight change analysis unit
second embodiment
500: Smart livestock management system using deep learning-based object tracking and behavior analysis.
501: EEG detection module
510: first imaging device
520: second imaging device
530: sound collection device
540: monitoring server
541: route tracking unit
542: behavior pattern and posture analysis unit
543: body temperature analysis unit
544: acoustic analysis unit
545: disease occurrence determination unit
546: notification unit
547: behavior pattern learning unit
548: analysis parameter setting unit
549: EEG signal analysis unit
550: manager terminal

Claims (2)

돈사 내의 돼지 객체의 머리에 부착되어, 상기 돼지 객체의 뇌파신호를 측정하여 전송하는 뇌파탐지모듈;
돈사 내의 돼지 객체의 모션 이미지를 촬영하는 제1 촬상장치;
상기 돼지 객체의 열화상 이미지를 생성하는 제2 촬상장치;
상기 돼지 객체의 호흡 및 기침소리를 포함하는 음향정보를 수집하는 음향수집장치;
상기 뇌파신호, 모션 이미지, 상기 열화상 이미지 및 상기 음향정보를 기초로 해당 돼지 객체의 질병발생유무 및 질병의 종류를 예측판단하는 모니터링 서버; 및
상기 모니터링 서버로부터 돼지 객체의 질병발생 알림메시지를 제공받는 관리자 단말을 포함하고,
상기 모니터링 서버는
상기 돼지 객체에서 감지된 뇌파신호의 뇌파변이도를 통해 돼지 객체의 수면상태, 이상발작 상태, 우울감과 관련된 뇌파(electroencephalographic, EEG)를 분류한 후, 레퍼런스와 비교하여 뇌파 변이도의 패턴을 분석하는 뇌파분석부;
상기 관리자 단말로부터 타겟 객체(돼지)가 입력되면, 타겟 객체(돼지)에 위치한 뇌파탐지모듈의 위치신호를 기초로 타겟 객체의 이동경로를 역순으로 트랙킹하는 경로 추적부;
타겟팅된 돼지객체의 이동경로 중 움직임 변화에 대한 모션 이미지를 기초로 상기 돼지 객체의 행동패턴 및 자세를 분석하는 행동패턴 및 자세 분석부;
상기 열화상 이미지를 기초로 상기 돼지 객체의 체온을 분석하는 체온 분석부;
상기 음향정보를 기초로 상기 돼지 객체의 호흡주기, 기침소리의 크기 및 발생주기, 울음소리 중 적어도 하나 이상을 분석하는 음향 분석부; 및
돼지 객체의 뇌파변이도 패턴, 행동패턴의 불규칙한 자세변화, 호흡주기, 기침소리를 기초로 질병 유무를 1차 판단하고, 1차 선별된 돼지객체의 부위별 체온 및 체온변화를 기초로 질병발생유무를 2차 판단하는 질병발생 판단부를 포함하고,
상기 행동자세 및 패턴 분석부는
상기 모션 이미지를 기초로 상기 돈사 내의 돼지의 포즈패턴변화를 Standing, Lying, Sitting 중 어느 하나로 분류하고, 상기 돼지가 이동 시에, 포즈패턴변화를 거리 대비 시간으로 분석하고,
상기 체온 분석부는 상기 포즈패턴변화에 따라 발열되는 돼지들의 부위 별 체온변화를 분석하고,
상기 질병발생 판단부는
딥러닝 학습 알고리즘을 학습한 질병이 발생된 돼지들의 시계열적 포즈패턴변화, 호흡주기, 기침소리의 변화를 기초로 상기 돼지 객체를 1차 선별하는 것을 특징으로 하는 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리시스템.
an EEG detection module attached to the head of a pig object in a pig house to measure and transmit an EEG signal of the pig object;
a first imaging device for photographing a motion image of a pig object in the pig house;
a second imaging device generating a thermal image of the pig object;
a sound collecting device for collecting sound information including breathing and coughing sounds of the pig object;
a monitoring server for predicting and judging the presence or absence of disease and the type of disease in the pig object based on the EEG signal, the motion image, the thermal image, and the sound information; and
and a manager terminal receiving a disease outbreak notification message of a pig object from the monitoring server,
The monitoring server
After classifying the EEG (electroencephalographic, EEG) related to the sleep state, abnormal seizure state, and depression of the pig object through the EEG variability diagram of the EEG signal detected in the pig object, EEG analysis to analyze the pattern of EEG variability in comparison with the reference part;
When a target object (pig) is input from the manager terminal, a path tracking unit for tracking the movement path of the target object in reverse order based on the position signal of the EEG detection module located in the target object (pig);
a behavior pattern and posture analysis unit that analyzes the behavior pattern and posture of the pig object based on a motion image for a change in movement of the targeted pig object;
a body temperature analyzer analyzing the body temperature of the pig object based on the thermal image;
an acoustic analysis unit for analyzing at least one of a breathing cycle of the pig object, a size and generation cycle of a cough sound, and a cry sound based on the acoustic information; and
The presence or absence of disease is primarily determined based on the EEG variability pattern of the pig object, irregular posture changes in behavioral patterns, breathing cycle, and cough sound, and disease occurrence is determined based on the body temperature and body temperature change of each part of the pig object selected first Including a disease occurrence determination unit for secondary judgment,
The behavioral posture and pattern analysis unit
Based on the motion image, the change of the pose pattern of the pig in the pig house is classified into any one of Standing, Lying, and Sitting, and when the pig moves, the change of the pose pattern is analyzed as a distance versus time,
The body temperature analysis unit analyzes changes in body temperature for each part of pigs that are heated according to the change in the pose pattern,
The disease occurrence determination unit
Deep learning-based object tracking and behavior analysis, characterized in that the pig object is first selected based on the change in the pose pattern, breathing cycle, and cough sound of diseased pigs who have learned the deep learning learning algorithm Smart livestock management system using.
뇌파탐지모듈을 이용하여 돈사 내의 돼지 객체의 뇌파신호를 측정하는 단계;
경로 추적부에서 관리자 단말로부터 타겟 객체(돼지)가 입력받으면, 타겟 객체(돼지)에 위치한 뇌파탐지모듈의 위치신호를 기초로 타겟 객체의 이동경로를 역순으로 트랙킹하는 단계;
뇌파분석부에서 돼지 객체에서 감지된 뇌파신호의 뇌파변이도를 통해 돼지들의 수면상태, 이상발작 상태, 우울감과 관련된 뇌파(electroencephalographic, EEG)를 분류한 후, 레퍼런스와 비교하여 뇌파 변이도의 패턴을 분석하는 단계;
행동패턴 및 자세 분석부에서 타겟팅된 돼지객체의 이동경로 중 움직임 변화에 대한 모션 이미지를 기초로 상기 돼지 객체가 이동 시에, 포즈패턴변화를 거리 대비 시간으로 분석한 후, 질병걸린 돼지들의 표본 데이터와 비교를 통해 행동이상 여부를 판단하는 단계;
해당 돼지 객체가 행동이상으로 판단되면, 음향정보수집부에서 돼지 객체의 호흡 및 기침소리를 포함하는 음향정보를 수집하는 단계;
질별발생 판단부에서 상기 타겟 객체(돼지)의 뇌파변이도 패턴, 행동패턴의 불규칙한 자세변화, 호흡주기, 기침소리를 기초로 질병 유무를 1차 판단하는 단계;
상기 타겟 객체(돼지)가 질병발생으로 판단되면, 제2 촬상장치에서 해당 돼지 객체의 신체 부위별 열화상 이미지를 수집하는 단계
질병발생 판단부에서 상기 열화상 이미지를 기초로 해당 돼지 객체의 질병발생유무 및 질병의 종류를 예측하는 단계; 및
해당 돼지 객체가 질병에 걸린 것으로 예측되면, 알림부에서 질병발생 알림메시지를 생성하여 관리자 단말로 발송하는 단계를 포함하는 딥러닝 기반 객체 추적 및 행동 분석을 이용한 스마트 축산관리방법.
Measuring the EEG signal of the pig object in the pig house using the EEG detection module;
When the target object (pig) is input from the manager terminal in the path tracking unit, tracking the movement path of the target object in the reverse order based on the position signal of the EEG detection module located in the target object (pig);
The EEG analysis unit classifies the EEG (electroencephalographic, EEG) related to the sleep state, abnormal seizure state, and depression of pigs through the EEG variability diagram of the EEG signal detected in the pig object, and then compares the EEG pattern with the reference to analyze the EEG pattern. step;
When the pig object moves based on the motion image for the change in the movement of the targeted pig object in the behavior pattern and posture analysis unit, the pose pattern change is analyzed as distance versus time, and then sample data of diseased pigs judging whether the behavior is abnormal by comparing with
When the corresponding pig object is determined to be abnormal, collecting acoustic information including the breathing and coughing sounds of the pig object in the acoustic information collection unit;
first determining the presence or absence of a disease in the vaginal occurrence determination unit based on the EEG pattern of the target object (pig), the irregular posture change of the behavior pattern, the respiratory cycle, and the cough sound;
When it is determined that the target object (pig) is disease-prone, collecting thermal image images for each body part of the pig object in a second imaging device
predicting the presence or absence of disease and the type of disease in the pig object based on the thermal image in the disease occurrence determination unit; and
Smart livestock management method using deep learning-based object tracking and behavior analysis, comprising the step of generating a disease outbreak notification message from the notification unit and sending it to a manager terminal when the pig object is predicted to have a disease.
KR1020200138074A 2019-11-28 2020-10-23 System and method for analyzing object tracking and object behavior using deep learning algorithms KR102282295B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190155809 2019-11-28
KR1020190155809 2019-11-28

Publications (2)

Publication Number Publication Date
KR20210066710A true KR20210066710A (en) 2021-06-07
KR102282295B1 KR102282295B1 (en) 2021-07-27

Family

ID=76374436

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200138074A KR102282295B1 (en) 2019-11-28 2020-10-23 System and method for analyzing object tracking and object behavior using deep learning algorithms

Country Status (1)

Country Link
KR (1) KR102282295B1 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102369873B1 (en) * 2021-07-28 2022-03-04 주식회사 엘시스 Livestock data integration control platform for smart livestock house implementation
KR102417870B1 (en) * 2021-08-10 2022-07-06 인트플로우 주식회사 Apparatus and method for identifying condition of animal object based on image
KR102453253B1 (en) * 2022-05-26 2022-10-11 김종관 Systerm for detecting livestock respiratory disease based on deep learning sound analysis technology
KR102469301B1 (en) * 2021-07-14 2022-11-22 주식회사 유니아이 Behavioral anomaly detection system
KR20230046156A (en) * 2021-09-29 2023-04-05 한국축산데이터 주식회사 농업회사법인 Method and apparatus for extracting abnormal behavior patterns of livestock based on artificial intelligence
CN116058814A (en) * 2021-11-01 2023-05-05 北京荣耀终端有限公司 Heart rate detection method and electronic equipment
KR102540175B1 (en) * 2022-10-27 2023-06-07 충남대학교산학협력단 Ai based pig disease management system
KR102539996B1 (en) 2022-12-05 2023-06-08 주식회사 오펜하임시스템즈 System for monitoring abnormal symptoms of companion animals in real time
KR102582506B1 (en) * 2022-10-27 2023-09-26 충남대학교산학협력단 Monitoring system for pig house disease management
KR102592477B1 (en) * 2023-01-12 2023-10-23 유진 Apparatus for early diagnosis of swine disease
KR102603396B1 (en) * 2022-08-12 2023-11-20 주식회사 아이트 Method and system for entity recognition and behavior pattern analysis based on video surveillance using artificial intelligence
WO2023229423A1 (en) * 2022-05-26 2023-11-30 서울대학교산학협력단 Three-dimension-based behavior pattern analysis device and method
WO2023229327A1 (en) * 2022-05-23 2023-11-30 서울대학교산학협력단 Image-based apparatus and method for analyzing herding behavior pattern of herding individuals

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102595845B1 (en) 2023-02-14 2023-10-30 (주)엠트리센 Livestock biometric information scanning system and control method therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101607934B1 (en) * 2014-05-14 2016-03-31 숭실대학교산학협력단 The method for monitoring communicable disease and system using the method, recording medium for performing the method
KR20170032728A (en) * 2015-09-15 2017-03-23 한양대학교 산학협력단 Animal Management System based on Internet of Things and Providing Method thereof
KR20190058206A (en) 2017-11-21 2019-05-29 주식회사 펫피트 Apparatus and method for predicting disease based on behavior information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101607934B1 (en) * 2014-05-14 2016-03-31 숭실대학교산학협력단 The method for monitoring communicable disease and system using the method, recording medium for performing the method
KR20170032728A (en) * 2015-09-15 2017-03-23 한양대학교 산학협력단 Animal Management System based on Internet of Things and Providing Method thereof
KR20190058206A (en) 2017-11-21 2019-05-29 주식회사 펫피트 Apparatus and method for predicting disease based on behavior information

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102469301B1 (en) * 2021-07-14 2022-11-22 주식회사 유니아이 Behavioral anomaly detection system
KR102369873B1 (en) * 2021-07-28 2022-03-04 주식회사 엘시스 Livestock data integration control platform for smart livestock house implementation
KR102417870B1 (en) * 2021-08-10 2022-07-06 인트플로우 주식회사 Apparatus and method for identifying condition of animal object based on image
KR20230046156A (en) * 2021-09-29 2023-04-05 한국축산데이터 주식회사 농업회사법인 Method and apparatus for extracting abnormal behavior patterns of livestock based on artificial intelligence
CN116058814A (en) * 2021-11-01 2023-05-05 北京荣耀终端有限公司 Heart rate detection method and electronic equipment
WO2023229327A1 (en) * 2022-05-23 2023-11-30 서울대학교산학협력단 Image-based apparatus and method for analyzing herding behavior pattern of herding individuals
KR102453253B1 (en) * 2022-05-26 2022-10-11 김종관 Systerm for detecting livestock respiratory disease based on deep learning sound analysis technology
WO2023229423A1 (en) * 2022-05-26 2023-11-30 서울대학교산학협력단 Three-dimension-based behavior pattern analysis device and method
KR102603396B1 (en) * 2022-08-12 2023-11-20 주식회사 아이트 Method and system for entity recognition and behavior pattern analysis based on video surveillance using artificial intelligence
WO2024034923A1 (en) * 2022-08-12 2024-02-15 주식회사 아이트 Method and system for object recognition and behavior pattern analysis based on video surveillance using artificial intelligence
KR102540175B1 (en) * 2022-10-27 2023-06-07 충남대학교산학협력단 Ai based pig disease management system
KR102582506B1 (en) * 2022-10-27 2023-09-26 충남대학교산학협력단 Monitoring system for pig house disease management
KR102539996B1 (en) 2022-12-05 2023-06-08 주식회사 오펜하임시스템즈 System for monitoring abnormal symptoms of companion animals in real time
KR102592477B1 (en) * 2023-01-12 2023-10-23 유진 Apparatus for early diagnosis of swine disease

Also Published As

Publication number Publication date
KR102282295B1 (en) 2021-07-27

Similar Documents

Publication Publication Date Title
KR102282295B1 (en) System and method for analyzing object tracking and object behavior using deep learning algorithms
Jiang et al. FLYOLOv3 deep learning for key parts of dairy cow body detection
KR101607934B1 (en) The method for monitoring communicable disease and system using the method, recording medium for performing the method
US20210073525A1 (en) Action Recognition Using Implicit Pose Representations
Kaur et al. A systematic review on metaheuristic optimization techniques for feature selections in disease diagnosis: open issues and challenges
Prabhu et al. Few-shot learning for dermatological disease diagnosis
Pang et al. Automatic detection and quantification of hand movements toward development of an objective assessment of tremor and bradykinesia in Parkinson's disease
Guo et al. Detection of cow mounting behavior using region geometry and optical flow characteristics
Nasiri et al. Pose estimation-based lameness recognition in broiler using CNN-LSTM network
Cheng et al. Application of deep learning in sheep behaviors recognition and influence analysis of training data characteristics on the recognition effect
Cuan et al. Automatic Newcastle disease detection using sound technology and deep learning method
Saponara et al. Developing a real-time social distancing detection system based on YOLOv4-tiny and bird-eye view for COVID-19
CN116602663B (en) Intelligent monitoring method and system based on millimeter wave radar
Khan An automated and fast system to identify COVID‐19 from X‐ray radiograph of the chest using image processing and machine learning
Zhu et al. Falling motion detection algorithm based on deep learning
Hossain et al. SmartPoultry: Early Detection of Poultry Disease from Smartphone Captured Fecal Image
Zheng et al. PrunedYOLO-Tracker: An efficient multi-cows basic behavior recognition and tracking technique
Amin et al. An automated chest X-ray analysis for COVID-19, tuberculosis, and pneumonia employing ensemble learning approach
CN115830078A (en) Live pig multi-target tracking and behavior recognition method, computer equipment and storage medium
Liu et al. A deep learning model for diagnosing COVID-19 and pneumonia through X-ray
Kumar et al. Secure and sustainable framework for cattle recognition using wireless multimedia networks and machine learning techniques
Zhang et al. Research on pose recognition algorithm for sports players based on machine learning of sensor data
Sethi et al. Multi‐feature gait analysis approach using deep learning in constraint‐free environment
Yoon et al. Fuzzy bin-based classification for detecting children’s presence with 3d depth cameras
Kim et al. Automatic identification of a coughing animal using audio and video data

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant