KR20180038833A - Method of estimating environment of layer chicken based on chickens sound and apparatus for the same - Google Patents

Method of estimating environment of layer chicken based on chickens sound and apparatus for the same Download PDF

Info

Publication number
KR20180038833A
KR20180038833A KR1020160129958A KR20160129958A KR20180038833A KR 20180038833 A KR20180038833 A KR 20180038833A KR 1020160129958 A KR1020160129958 A KR 1020160129958A KR 20160129958 A KR20160129958 A KR 20160129958A KR 20180038833 A KR20180038833 A KR 20180038833A
Authority
KR
South Korea
Prior art keywords
sound
laying
laying hens
state
call
Prior art date
Application number
KR1020160129958A
Other languages
Korean (ko)
Other versions
KR101894635B1 (en
Inventor
전흥석
김두환
나대영
문상호
Original Assignee
건국대학교 글로컬산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 글로컬산학협력단 filed Critical 건국대학교 글로컬산학협력단
Priority to KR1020160129958A priority Critical patent/KR101894635B1/en
Publication of KR20180038833A publication Critical patent/KR20180038833A/en
Application granted granted Critical
Publication of KR101894635B1 publication Critical patent/KR101894635B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K31/00Housing birds
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K39/00Feeding or drinking appliances for poultry or other birds
    • A01K39/01Feeding devices, e.g. chainfeeders
    • A01K39/012Feeding devices, e.g. chainfeeders filling automatically, e.g. by gravity from a reserve
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K45/00Other aviculture appliances, e.g. devices for determining whether a bird is about to lay
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H15/00Measuring mechanical or acoustic impedance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Animal Husbandry (AREA)
  • Birds (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Agronomy & Crop Science (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Mining & Mineral Resources (AREA)
  • General Business, Economics & Management (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Zoology (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)

Abstract

Disclosed is a method for estimating the condition of egg laying chickens based on the sound of the chickens. According to an embodiment of the present invention, the method includes the following steps: obtaining characteristic data from the sound of egg laying chickens; analyzing a pattern of the characteristic data based on SVM, and classifying the sound of the egg laying chickens into sound classification models; and estimating at least one of a state of the egg laying chickens corresponding to the sound of the egg laying chickens and a state of a feeding environment of the egg laying chickens based on the sound classification models.

Description

산란계 소리에 기초하여 산란계의 상태를 추정하는 방법 및 장치{METHOD OF ESTIMATING ENVIRONMENT OF LAYER CHICKEN BASED ON CHICKENS SOUND AND APPARATUS FOR THE SAME}[0001] The present invention relates to a method and apparatus for estimating a state of a laying hens based on a sound of a laying hens,

아래 실시예들은 산란계 소리에 기초하여 산란계의 상태를 추정하는 방법 및 장치에 관한 것이다.The following embodiments are directed to a method and apparatus for estimating the condition of a laying hens based on the sound of a laying hens.

최근 동물 복지와 건강한 먹거리에 대한 관심이 증가하면서 IT 기술을 활용하여 가축 사육 환경을 개선하기 위한 다양한 연구들이 진행되고 있다. IT를 활용한 연구들 중에 가축들에게 센서를 장착하여 비외과적인 방법으로 가축의 행동 패턴이나 생체 신호를 분석하여 건강 상태를 파악하는 연구들이 있다.Recently, various researches are being conducted to improve the environment for livestock breeding using IT technology with increasing interest in animal welfare and healthy food. Among the studies using IT, there are studies to detect the health state by analyzing the behavior patterns and bio-signals of livestock using non-surgical methods by attaching sensors to livestock.

예를 들어, Zigbee 기반의 센서 네트워크에서 소의 생체 신호 분석, 애완견의 행동을 가속도 센서 데이터로 분석하는 연구, 산란계의 행동을 가속도 센서 데이터를 기반으로 분석하는 연구, 다리 저는 소를 탐지하는 연구, 가축의 건강 상태를 체온을 기반으로 학습하는 메커니즘 연구 등이 대표적이다.For example, analysis of bio-signals of cattle in Zigbee-based sensor networks, analysis of the behavior of dogs with acceleration sensor data, research on the behavior of laying hens based on acceleration sensor data, And studying the mechanism of learning health status based on body temperature.

그런데 이러한 연구들은 주로 몸집이 큰 가축들의 행동 분석 위주로 진행되어 왔다. 그러나 닭, 오리 등과 같이 몸집이 작은 가축의 경우에는 현실적으로 센서를 부착하는 것이 용이하지 않게 된다.However, these studies have mainly focused on behavior analysis of large livestock. However, it is not easy to attach the sensor realistically in the case of a petty animal such as a chicken or a duck.

이러한 문제를 해결하기 위하여 최근에는 가축의 행동 분석이나 생체 신호 분석 이외에도 소리를 분석하여 상태를 판별하는 연구가 진행되고 있다. 가축의 소리를 이용한 연구는 가축이 발성하는 소리에는 다양한 정보를 포함하고 있어 소리를 분석하면 가축과 관련된 다양한 정보를 획득 가능하다. 이와 같이 동물의 소리를 이용하여 행동과 건강 상태를 해석하는 분야를 생물 음향학(Bioacoustics)이라고 한다.In order to solve these problems, researches are currently being carried out to discriminate the state by analyzing sound in addition to behavior analysis and biological signal analysis of livestock. Studies using the sound of livestock include a variety of information on the sound of livestock, so it is possible to obtain various information related to livestock by analyzing sound. Bioacoustics is the field of interpretation of behavior and health using animal sounds.

최근의 생물 음향학 연구들은 MFCCs(Mel Frequency Cepstral Coefficients)를 이용하여 닭의 질병 증상을 검출하는 연구, 확률 신경 네트워크(probabilistic neural network)을 이용하여 돼지가 기침을 하는 상황을 검출하는 연구, MFCCs와 HMM(Hidden Markov Model)을 이용하여 소의 소리를 번역하는 연구 등이 있다.Recent biophysical studies have focused on the detection of chicken disease symptoms using MFCCs (Mel Frequency Cepstral Coefficients), the detection of pig coughing situations using probabilistic neural networks, the detection of MFCCs and HMMs (Hidden Markov Model), and so on.

실시예들은 산란계의 소리를 일반음 및 특이음으로 분류하는 기술을 제공할 수 있다.The embodiments can provide a technique for classifying the sound of the laying hens as a normal sound and a specific sound.

또한, 실시예들은 산란계의 소리를 분류하여 산란계의 상태를 추정하는 기술을 제공할 수 있다.In addition, the embodiments can provide a technique of estimating the state of the laying hens by classifying sounds of the laying hens.

일 측에 따른 산란계 환경 추정 방법은 산란계의 소리로부터 특징 데이터를 획득하는 단계와, SVM(Support Vector Machines)을 기반으로 상기 특징 데이터의 패턴을 분석하여 상기 산란계의 소리를 소리 분류 모델로 분류하는 단계와, 상기 소리 분류 모델에 기초하여 상기 산란계의 소리에 대응하는 상기 산란계의 상태 및 상기 산란계의 사육 환경에 대한 상태 중에서 적어도 하나를 추정하는 단계를 포함할 수 있다.A method for estimating a laying-line environment according to one side includes the steps of: obtaining feature data from a sound of a laying machine; classifying the sound of the laying machine into a sound classification model by analyzing patterns of the feature data based on Support Vector Machines (SVM) And estimating at least one of a state of the scatterer corresponding to the sounds of the laying hens and a state of a living environment of the laying hens based on the sound classification model.

상기 소리 분류 모델은 일반음 및 특이음을 포함하고, 상기 일반음은 일상적으로 발성하는 Ordinary Call(OC)을 포함하고, 상기 특이음은 일반음보다 소리의 길이가 더 길고 강한 강도로 발성이 지속되는 Poly Contact Call(PCC), 비상시를 알리는 짧은 경계음인 Alarm Call(AC), 저녁부터 새벽 시간대 사이에 놀라는 상황이 발생한 경우 나타나는 Moan and Threat Call(MTC), 여러 가지 소리가 복합적으로 발생하는 High Intensity Call(HIC), 산란계가 산란하기 전 산란할 장소를 찾으면서 빈번하게 발성하는 Gakel Call(GC), 및 음의 길이가 짧고 산란계가 놀라는 경우에 발생하는 Squawk Call(SC) 중 적어도 하나를 포함할 수 있다.Wherein the sound classification model includes a general tone and a specific tone, and the general tone includes an Ordinary Call (OC) that is vocalized regularly, and the specific tone has a longer sound length than a general tone, (PCC), an alarm call (AC) with a short boundary tone to be notified of an emergency, Moan and Threat Call (MTC), which occurs when a surprising situation occurs between the evening and early morning hours, High Intensity Call (HIC), Gakel Call (GC), which frequently calls for laying out spawning before laying eggs, and Squawk Call (SC), which occurs when the sound is short and the laying hens are surprised . ≪ / RTI >

상기 분류하는 단계는 상기 특징 데이터를 피치(pitch), 지속 시간(duration), 강도(intensity), 및 포먼트(formant) 중 적어도 하나를 사용하여 분석하는 단계를 포함할 수 있다.The sorting may include analyzing the feature data using at least one of a pitch, a duration, an intensity, and a formant.

상기 산란계의 상태는 산란 직전인 상태, 점등 직후 및 사료 급이기 작동 상태, 놀람 상태, 낯선 대상 및 소리 출현 상태, 및 공격적 깃털쪼기를 당한 상태 중에서 적어도 하나를 포함할 수 있다.The state of the laying hens may include at least one of a state immediately before scattering, a state immediately after being lit and a feed feeding operation, a surprise state, a strange object and a sound emergence state, and an aggressive feather-pitched state.

상기 산란계의 사육 환경에 대한 상태는 고온, 저온, 공기의 오염, 및 계사의 밀도가 높은 고밀도의 환경 중에서 적어도 하나를 포함할 수 있다.The conditions for the laying environment of the laying hens may include at least one of high temperature, low temperature, air pollution, and a dense environment with high density of cages.

상기 방법은 산란계의 소리로부터 노이즈를 제거하는 단계를 더 포함할 수 있다.The method may further comprise removing noise from the sound of the laying hens.

일 측에 따른 산란계 환경 추정 장치는 산란계의 소리를 분석하여 상기 산란계의 소리로부터 특징 데이터를 획득하는 추출기와 분류기를 포함하고, 상기 분류기는 SVM(Support Vector Machines)을 기반으로 상기 특징 데이터의 패턴을 분석하여 상기 산란계의 소리를 소리 분류 모델로 분류하고, 상기 소리 분류 모델에 기초하여 상기 산란계의 소리에 대응하는 상기 산란계의 상태 및 상기 산란계의 사육 환경에 대한 상태 중에서 적어도 하나를 추정할 수 있다.An apparatus for estimating a lay surface environment according to one side includes an extractor and a classifier for analyzing a sound of a laying hens and obtaining characteristic data from the sound of the laying hens, and the classifier calculates patterns of the characteristic data based on SVM (Support Vector Machines) Analyzing the sounds of the laying hens by a sound classification model, and estimating at least one of the states of the laying hens corresponding to sounds of the laying hens and the states of the laying hens of the laying hens based on the sound classification model.

상기 소리 분류 모델은 일반음 및 특이음을 포함하고, 상기 일반음은 일상적으로 발성하는 Ordinary Call(OC)을 포함하고, 상기 특이음은 일반음보다 소리의 길이가 더 길고 강한 강도로 발성이 지속되는 Poly Contact Call(PCC), 비상시를 알리는 짧은 경계음인 Alarm Call(AC), 저녁부터 새벽 시간대 사이에 놀라는 상황이 발생한 경우 나타나는 Moan and Threat Call(MTC), 여러 가지 소리가 복합적으로 발생하는 High Intensity Call(HIC), 산란계가 산란하기 전 산란할 장소를 찾으면서 빈번하게 발성하는 Gakel Call(GC), 및 음의 길이가 짧고 산란계가 놀라는 경우에 발생하는 Squawk Call(SC) 중 적어도 하나를 포함할 수 있다.Wherein the sound classification model includes a general tone and a specific tone, and the general tone includes an Ordinary Call (OC) that is vocalized regularly, and the specific tone has a longer sound length than a general tone, (PCC), an alarm call (AC) with a short boundary tone to be notified of an emergency, Moan and Threat Call (MTC), which occurs when a surprising situation occurs between the evening and early morning hours, High Intensity Call (HIC), Gakel Call (GC), which frequently calls for laying out spawning before laying eggs, and Squawk Call (SC), which occurs when the sound is short and the laying hens are surprised . ≪ / RTI >

상기 분류기는, 상기 특징 데이터를 피치(pitch), 지속 시간(duration), 강도(intensity), 및 포먼트(formant) 중 적어도 하나를 사용하여 분석할 수 있다.The classifier may analyze the feature data using at least one of a pitch, a duration, an intensity, and a formant.

상기 산란계의 상태는 산란 직전인 상태, 점등 직후 및 사료 급이기 작동 상태, 놀람 상태, 낯선 대상 및 소리 출현 상태, 및 공격적 깃털쪼기를 당한 상태 중에서 적어도 하나를 포함할 수 있다.The state of the laying hens may include at least one of a state immediately before scattering, a state immediately after being lit and a feed feeding operation, a surprise state, a strange object and a sound emergence state, and an aggressive feather-pitched state.

상기 산란계의 사육 환경에 대한 상태는 고온, 저온, 공기의 오염, 및 계사의 밀도가 높은 고밀도의 환경 중에서 적어도 하나를 포함할 수 있다.The conditions for the laying environment of the laying hens may include at least one of high temperature, low temperature, air pollution, and a dense environment with high density of cages.

상기 장치는 상기 산란계의 소리로부터 노이즈를 제거하는 전처리기를 더 포함할 수 있다.The apparatus may further comprise a preprocessor for removing noise from the sound of the laying hens.

도 1은 일 실시예에 따른 산란계 소리 분석 장치의 개략적인 블록도이다.
도 2 도 1의 산란계 소리 분석 장치가 소리의 특징 데이터의 일 예를 분석하여 산란계의 소리의 종류를 구분하는 개념을 설명하기 위한 그래프이다.
도 3a 및 도 3b는 도 1의 산란계 소리 분석 장치가 산란계의 소리의 특징 데이터와 계사의 환경과의 연관성을 이용하여 산란계에 연관된 상태를 추정하는 개념을 설명하기 위한 그래프이다.
도 4는 계사의 환경에 따라 산란계 소리의 일반음의 특징 데이터의 변화를 나타낸다.
도 5는 계사의 환경에 따라 산란계 소리의 특이음 중에서 PCC(Poly Contact Call)의 특징 데이터의 변화를 나타낸다.
도 6은 계사의 환경에 따라 산란계 소리의 특이음 중에서 AC(Alarm Call)의 특징 데이터의 변화를 나타낸다.
도 7은 도 1의 산란계 소리 분석 장치의 개략적인 블록도이다.
도 8은 도 7의 분류기에 의해 분류되는 소리 분류 모델을 설명하기 위한 개념도이다.
도 9는 산란계의 소리 분석 모델을 평가한 실험 예를 나타낸다.
도 10은 도 9의 실험에 따른 산란계 소리별 분류 정확도를 나타내는 그래프이다.
도 11은 도 9의 실험에 따른 산란계 환경 분류 정확도를 나타내는 그래프이다.
1 is a schematic block diagram of a laying sound analysis apparatus according to an embodiment.
2 is a graph for explaining the concept of classifying the sound of the laying hens by analyzing an example of sound characteristic data of the laying hens analysis apparatus of FIG.
FIGS. 3A and 3B are graphs for explaining a concept of estimating a state related to a laying hens by using the correlation between the feature data of the sound of the laying hens and the environment of the house, as shown in FIG.
Fig. 4 shows changes in the characteristic data of the plain sound of the laying hens according to the environment of the house.
FIG. 5 shows the change of the characteristic data of the PCC (Poly Contact Call) among the specific sounds of the laying hens according to the environment of the house.
FIG. 6 shows changes in the characteristic data of AC (Alarm Call) among the specific sounds of the laying hens according to the environment of the house.
FIG. 7 is a schematic block diagram of the scatterometer sound analysis apparatus of FIG. 1; FIG.
FIG. 8 is a conceptual diagram for explaining a sound classification model classified by the classifier of FIG. 7; FIG.
Fig. 9 shows an experimental example in which a sound analysis model of a laying hens was evaluated.
FIG. 10 is a graph showing the classification accuracy of the laying hens according to the experiment of FIG.
11 is a graph showing the accuracy of laying-out environment classification according to the experiment of FIG.

본 명세서에서 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에서 설명된 실시예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are presented for the purpose of describing embodiments only in accordance with the concepts of the present invention, May be embodied in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. However, it is not intended to limit the embodiments according to the concepts of the present invention to the specific disclosure forms, but includes changes, equivalents, or alternatives falling within the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first, second, or the like may be used to describe various elements, but the elements should not be limited by the terms. The terms may be named for the purpose of distinguishing one element from another, for example without departing from the scope of the right according to the concept of the present invention, the first element being referred to as the second element, Similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~사이에"와 "바로~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Expressions that describe the relationship between components, such as "between" and "between" or "neighboring to" and "directly adjacent to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어를 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. It will be understood that, in this specification, the terms "comprises ", or" having ", and the like are to be construed as including the presence of stated features, integers, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the description, and are not to be construed as ideal or overly formal, unless explicitly defined herein .

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.

도 1은 일 실시예에 따른 산란계 소리 분석 장치의 개략적인 블록도이고, 도 2는 도 1의 산란계 소리 분석 장치가 소리의 특징 데이터의 일 예를 분석하여 산란계의 소리의 종류를 구분하는 개념을 설명하기 위한 그래프이고, 도 3a 및 도 3b는 도 1의 산란계 소리 분석 장치가 산란계의 소리의 특징 데이터와 계사의 환경과의 연관성을 이용하여 산란계에 연관된 상태를 추정하는 개념을 설명하기 위한 그래프이다.FIG. 1 is a schematic block diagram of a laying-height sound analysis apparatus according to an embodiment. FIG. 2 is a conceptual diagram of a loudspeaker sound analyzing apparatus of FIG. 1, 3A and 3B are graphs for explaining a concept of estimating a state related to a laying hens by using the correlation between the feature data of the sound of the laying hens and the environment of the house, .

도 1 내지 도 3b를 참조하면, 산란계 소리 분석 장치(100)는 산란계의 소리를 분석하여, 산란계의 소리를 해당하는 소리 분류 모델로 분류하고, 해당하는 소리 분류 모델에 기초하여 산란계에 연관된 상태 및/또는 환경을 추정할 수 있다. 예를 들어, 산란계에 연관된 상태는 산란계의 상태 및 산란계의 사육 환경에 대한 상태 중에서 적어도 하나를 포함할 수 있다.1 to 3B, the scattered sound analysis apparatus 100 analyzes the sound of the laying hens, classifies the sound of the laying hens into corresponding sound classification models, / Or estimate the environment. For example, the conditions associated with the laying hens may include at least one of the conditions of the laying hens and the conditions of the laying hens' environment.

소리 분류 모델은 산란계의 소리의 종류를 포함할 수 있다. 또한, 소리 분류 모델은 산란계의 소리의 종류에 대응하는 산란계에 연관된 상태를 포함할 수 있다.The sound classification model can include the kind of sound of the laying hens. The sound classification model may also include a state associated with the laying hens corresponding to the type of sound of the laying hens.

산란계의 소리의 종류는 표 1과 같을 수 있다.The types of sounds of the laying hens can be as shown in Table 1.

Figure pat00001
Figure pat00001

산란계의 소리, 즉 산란계가 발성하는 소리는 일반음(ordinary call) 및 특이음(special vocalization)으로 구별될 수 있다. 일반음은 일상적으로 언제나 발성하는 소리로 사료 섭취, 탐험, 휴식 시 등에 발생할 수 있다. 특이음은 산란계가 특정한 상황에 처했을 때 다발하는 다양한 소리일 수 있다.The sound of the laying hens, that is, the sound of the laying hens, can be distinguished by ordinary call and special vocalization. Regular tones are routinely vocal sounds that can occur when feeding, exploring, or resting. Singular sounds can be a variety of sounds that can occur when the laying hens are in a particular situation.

특이음은 PCC(Poly Contact Call), AC(Alarm Call), MTC(Moan and Threat Call), HIC(High Intensity Call), GC(Gakel Call), 및 SC(Squawk Call)를 포함할 수 있다.Singular tones may include PCC (Poly Contact Call), AC (Alarm Call), MTC (Moan and Threat Call), HIC (High Intensity Call), GC (Gakel Call), and SC (Squawk Call).

PCC는 일반음과 비슷하나 소리의 길이가 더 길고 강한 강도로 발성이 지속되는 특이음일 수 있다. 예를 들어, PPC는 오전의 산란 전후나 관리인의 등장, 활발한 사료 급여 시에 빈번한 빈도를 보이다가 오후 4시 이후에 급격히 줄어들 수 있다.The PCC is similar to a normal sound, but it can be a special sound with longer duration and stronger intensity. For example, PPC is frequent before and after the morning spawning, when the caretaker appears, and when active feed is available, and then decreases rapidly after 4 pm.

AC는 비상시를 알리는 특이음, 즉 짧은 경계음일 수 있다. 예를 들어, AC는 낯선 대상이나 소리가 있는 경우 발생할 수 있다. AC가 들리는 경우, 산란계는 정향 반응(orienting response)을 보이는 경우가 많다.The AC can be a special note, that is, a short boundary sound, that informs the emergency. For example, AC can occur when there is a strange object or sound. When AC is heard, laying hens often show orienting responses.

MTC는 주로 저녁에서 새벽 시간대 사이에 나타나는 특이음일 수 있다. 예를 들어, MTC는 천적의 소리, SC, AC 직후 또는 날개 짓이나 놀라는 일이 벌어질 경우 발현될 수 있다.The MTC can be a singular sound that appears in the evening to early morning time. For example, MTC can be expressed when it comes to the sound of natural enemies, SC, AC, or winging or surprise.

HIC는 점등 직후나 사료 급여 개시 시 주로 발현되는 특이음일 수 있다. 예를 들어, HIC는 여러 가지 소리가 복합적으로 발생하는 것이 특징일 수 있다.HIC may be a specific sound that is mainly expressed immediately after the light is turned on or when the feed is started. For example, HIC may be characterized by the complexity of multiple sounds.

GC는 산란하기 전 빈번하게 발성하는 특이음일 수 있다. 예를 들어, GC는 산란계가 산란하기 전 산란할 장소를 찾으면서 빈번하게 발성하는 특이음으로, 산란계의 좌절과 관련이 깊고 발생 빈도는 매우 적을 수 있다.GC can be a special sound that is frequently vocalized before spawning. GC, for example, is a specific vocalization that frequently spurs while laying out a scattering site before spawning, which is deeply related to the frustration of the laying hen and may be very rare.

SC는 놀라는 특이음, 예를 들어 “꽥”하며 놀라는 발성음일 수 있다. 예를 들어, SC는 동료의 날개짓, 깃털쪼기, 소리 등에 놀라서 반응하는 경우가 크며 음의 길이가 짧을 수 있다.SC can be a surprising singular note, for example "꽥" and a surprising vocal sound. For example, SCs are often surprised to respond to peers' wings, feather pecking, and sound, and the length of the notes may be short.

상술한 산란계의 발생 가능한 특이음은 표 2와 같이 상황 별로 정리될 수 있다.The possible specific sounds of the above-described laying hens can be sorted according to the situation as shown in Table 2. [

Figure pat00002
Figure pat00002

산란계 소리 분석 장치(100)는 산란계의 소리로부터 특징 데이터를 획득(또는 추출)하고, 특징 데이터에 기초하여 산란계의 소리를 해당하는 소리의 종류로 분류할 수 있다. 예를 들어, 산란계 소리 분석 장치(100)는 산란계의 소리를 구성하는 특징들을 분석하여 산란계의 소리를 표 1과 같이 분류할 수 있다.The laying-table sound analysis apparatus 100 can acquire (or extract) feature data from the sound of the laying hens, and classify the sound of the laying hens into types of corresponding sounds based on the feature data. For example, the laying sound analysis apparatus 100 can classify the sounds of the laying hens as shown in Table 1 by analyzing the characteristics constituting the sound of the laying hens.

산란계의 소리를 구성하는 특징들은 시간 영역 특징 및 주파수 영역 특징으로 분류될 수 있다. 소리 분석 장치(100)는 산란계의 소리를 분석하기 위해, 산란계의 소리를 구성하는 특징들 중에서 7가지 특징, 예를 들어 피치(pitch), 지속 시간(duration), 강도(intensity), 및 포먼트 1-4(formant 1-4)을 이용할 수 있다.The features that make up the sound of the laying hens can be classified into time domain features and frequency domain features. In order to analyze the sound of the laying hens, the sound analysis apparatus 100 has seven characteristics among the features constituting the sound of the laying hens, for example, pitch, duration, intensity, 1-4 (formant 1-4) can be used.

피치는 음이 가지고 있는 기본적인 주파수를 의미할 수 있다. 사람의 경우 1초에 성대의 진동수를 의미하지만 닭은 성대가 없는 대신 울대를 진동하여 발성한다. 단위는 Hz를 사용할 수 있다.Pitch can mean the fundamental frequency that a note has. In the case of a person, it means the frequency of the vocal cords in one second, but the chicken does not have a vocal cords, but instead vibrates the vocal cords. The unit can use Hz.

지속 시간은 음의 지속 시간을 의미할 수 있다. 예를 들어, 지속 시간은 분절음의 시작점과 끝점의 시간 간격을 나타낼 수 있다. 음의 지속 시간은 초(sec)로 나타낼 수 있다.The duration can mean the duration of the sound. For example, the duration can indicate the time interval between the start and end points of a segmental tone. The duration of the negative can be expressed in seconds.

강도는 소리의 강도, 즉 크기를 의미할 수 있다. 예를 들어, 음의 강도는 일정한 지속 시간을 가진 음성 신호를 선택하여 표본 제곱 평균 제곱근(sample root mean square)을 계산한 것으로 스펙트럼(spectrum)의 세로 진폭을 분석하여 측정될 수 있다. 단위는 데시벨(dB)로 나타낼 수 있다.Strength can mean the intensity, or size, of sound. For example, the intensity of a sound can be measured by analyzing the vertical amplitude of the spectrum by calculating a sample root mean square by selecting a speech signal having a constant duration. The unit can be expressed in decibels (dB).

포먼트 1-4는 조음 기관의 변화를 의미하는 특징일 수 있다. 예를 들어, 동물의 음성은 복합음에 해당하며 복합음을 푸리에 변환한 스펙트로그램(spectrogram)으로 나타내어 분석될 수 있다. 단위는 Hz를 사용할 수 있다.Formants 1-4 may be characteristics that signify changes in articulation organs. For example, the voice of an animal corresponds to compound sounds and can be analyzed by expressing a compound sound by a Fourier transformed spectrogram. The unit can use Hz.

즉, 산란계 소리 분석 장치(100)는 산란계의 소리로부터 특징 데이터인 피치, 지속 시간, 강도, 및 포먼트 1-4를 획득하고, 이들을 이용하여 산란계의 소리를 해당하는 소리의 종류로 분류할 수 있다.That is, the laying sound analysis apparatus 100 obtains the pitch data, the duration time, the intensity, and the formants 1-4 from the sound of the laying hens and uses them to classify the sound of the laying hens as the corresponding sounds have.

도 2는 소리의 특징 데이터 중에서 강도에 따라 산란계의 소리가 구별될 수 있음을 보여 준다. 이를 통해, 산란계의 소리별 특징들은 다른 소리들과 구분하기 위해 이용됨을 알 수 있다.FIG. 2 shows that the sound of the laying hens can be distinguished from the characteristic data of the sound according to the intensity. Through this, it can be seen that the sound characteristics of the laying hens are used to distinguish them from other sounds.

이때, 산란계 소리 분석 장치(100)는 산란계의 소리의 종류를 판단하여 산란계의 상태(또는 상황)를 추정할 수 있다.At this time, the scattered sound analysis apparatus 100 can estimate the state (or situation) of the laying hens by judging the type of sound of the laying hens.

또한, 산란계 소리 분석 장치(100)는 해당 소리의 종류에 대응하는 산란계의 사육 환경, 즉 계사에 대한 상태를 추정할 수 있다. 예를 들어, 산란계 소리 분석 장치(100)는 산란계의 소리의 특징 데이터와 산란계가 사육되는 계사에 대한 환경과의 연관성을 이용하여 계사에 대한 상태를 추정할 수 있다.In addition, the laying-table sound analysis apparatus 100 can estimate the living environment of the laying hens corresponding to the type of the sound, that is, the state with respect to the house. For example, the laying sound analysis apparatus 100 can estimate the state of the cage by using the correlation between the characteristic data of the sound of the laying hens and the environment of the cage where the laying hens are kept.

산란계 계사의 환경은 고온, 저온, 공기의 오염, 및 계사의 밀도가 높은 고밀도의 환경일 수 있다. 이때, 산란계 계사에는 문제가 발생할 수 있고, 계사의 환경이 변화하면 산란계가 발성하는 소리의 특성도 달라질 수 있다.The environment of laying hens can be high temperature, low temperature, air pollution, and dense environment with high density of cages. At this time, problems may arise in the laying hens, and if the environment of the laying house changes, the characteristics of the sound that the laying hens utter can also be changed.

도 3a 및 도 3b는 계사의 고밀도 환경과 저온 환경에서의 소리의 강도의 분포를 도시하고 있다. 도 3a 및 도 3b에 도시된 그래프와 도 2에 도시된 그래프를 비교하면, 전체적인 소리의 패턴이 변하였으며, 저온 환경에서 MTC의 강도가 낮아졌음을 확인할 수 있다.FIGS. 3A and 3B show the distribution of sound intensity in a high-density environment and a low-temperature environment of a cage. Comparing the graphs shown in FIGS. 3A and 3B with the graph shown in FIG. 2, it can be seen that the overall sound pattern has changed and the intensity of MTC has been lowered in a low-temperature environment.

이하에서는 도 4 내지 도 6을 참조하여 계사의 환경에 따라 산란계의 소리의 특징 데이터의 변화에 대해서 상세히 설명하도록 한다. 이를 위해, 산란계 소리 데이터 측정을 위해서 대조구의 환경 조건을 적정 온도의 경우 22±2℃, 사육의 적정 밀도를 450cm2/수로 하고, 실내 공기의 경우 암모니아(NH3)는 3ppm, 이산화탄소(Co2)는 1000ppm 이하로 설정하였다. 실험을 위한 처리구는 산란계 계사의 고온(High Fixed Temperature(HFT))은 30±2℃, 저온(Low Fixed Temperature(LFT))의 경우 10±4℃로의 환경을 설정하였다. 고밀도(High Fixed Density(HFD))와 고오염(High Fixed Air(HFA))의 기준은 350cm2/수, NH3 20ppm, Co2 2000ppm 이상으로 설정하였다.Hereinafter, the change of the characteristic data of the sound of the laying hens will be described in detail with reference to FIGS. 4 to 6. FIG. For this purpose, the environmental condition of the control was set at 22 ± 2 ℃ for the control temperature and 450cm2 / water for the proper breeding. For indoor air, ammonia (NH3) was 3ppm and carbon dioxide (Co2) was 1000ppm Respectively. Experimental conditions were set at 30 ± 2 ℃ for the High Fixed Temperature (HFT) and 10 ± 4 ℃ for the Low Fixed Temperature (LFT). The standards for high fixed density (HFD) and high fixed air (HFA) were set to 350 cm2 / water, NH3 20 ppm, and Co2 2000 ppm or higher.

도 4 내지 도 6은 환경에 따라 변화한 데이터의 변화량에 대하여 평균 값을 비교하여 1%이상의 유의미한 변화가 있는 특징 데이터에 대해서 그래프로 나타낸 것이다.FIGS. 4 to 6 are graphs showing characteristic data having a significant change of 1% or more by comparing an average value with respect to a change amount of data changed according to the environment.

도 4는 계사의 환경에 따라 산란계 소리의 일반음의 특징 데이터의 변화를 나타내고, 도 5는 계사의 환경에 따라 산란계 소리의 특이음 중에서 PCC(Poly Contact Call)의 특징 데이터의 변화를 나타내고, 도 6은 계사의 환경에 따라 산란계 소리의 특이음 중에서 AC(Alarm Call)의 특징 데이터의 변화를 나타낸다.FIG. 4 shows changes in the characteristic data of the plain sound of the laying hens according to the environment of the house, FIG. 5 shows the change of the characteristic data of the PCC (Poly Contact Call) among the specific sounds of the laying hens according to the environment of the house, 6 shows the change of characteristic data of AC (Alarm Call) among the singular sounds of the laying hens according to the environment of the house.

도 4를 참조하면, 일반음의 경우, 고온의 상황에서는 포먼트 2, 3의 수치가 증가하고 저온의 상황에서는 포먼트 2가 증가함을 알 수 있다. 또한, 고밀도의 상황에서는 피치의 증가와 포먼트 1-4의 수치가 감소하고, 공기의 오염의 상황에서는 포먼트 1-3에서 특징 데이터가 감소하는 경향을 보임을 확인할 수 있다.Referring to FIG. 4, it can be seen that, in the case of a general tone, the numerical values of the formants 2 and 3 increase in a high temperature condition and the formant 2 increases in a low temperature condition. Also, it can be seen that, in the high density situation, the increase of the pitch and the numerical value of the formants 1-4 decrease, and the characteristic data tends to decrease in the formants 1-3 in the case of air pollution.

도 5를 참조하면, PCC의 경우, 고온의 환경에서는 전체 음의 길이는 길어 지고, 음의 강도는 약해 지며, 피치와 포먼트 1-3의 수치는 증가함을 알 수 있다. 저온의 환경에서는 피치와 포먼트 2-4의 수치가 증가함을 알 수 있다. 고밀도 환경에서는 피치와 포먼트 2, 3의 수치가 증가하고, 공기의 오염 상황에서는 음의 길이가 길어 지고 피치, 포먼트 1의 수치가 증가함을 알 수 있다.Referring to FIG. 5, it can be seen that, in the case of the PCC, in the high temperature environment, the length of the entire sound becomes longer, the intensity of the sound becomes weaker, and the pitch and the formants 1-3 increase. It can be seen that the values of pitch and formant 2-4 are increased in low temperature environment. In the high density environment, the numerical values of pitch and formants 2 and 3 increase, and in the case of air pollution, the length of the sound becomes longer and the numerical value of pitch and formant 1 increases.

도 6을 참조하면, AC의 경우, 고온의 상황에서는 포먼트 1-4의 수치가 증가하고, 저온의 상황에서는 피치, 포먼트 1-3의 수치가 증가함을 알 수 있다. 고밀도의 환경에서는 피치, 강도가 증가하는 경향을 보이고, 공기의 오염 환경에서는 포먼트 2-4의 수치가 증가하는 것을 확인할 수 있다.Referring to FIG. 6, it can be seen that in the case of AC, the numerical value of the formant 1-4 increases in the high temperature condition and the numerical value of the pitch and the formant 1-3 increases in the low temperature condition. In the high density environment, the pitch and strength tend to increase, and in the air pollution environment, the figure of Formant 2-4 increases.

상술한 바와 같이, 산란계 소리 분석 장치(100)는 산란계의 소리의 특징 데이터와 계사에 대한 환경과의 연관성을 이용하여 산란계의 사육 환경에 대한 상태를 추정할 수 있다.As described above, the laying sound analysis apparatus 100 can estimate the state of the laying hens by utilizing the correlation between the characteristic data of the sound of the laying hens and the environment of the laying hens.

도 7은 도 1의 산란계 소리 분석 장치의 개략적인 블록도이고, 도 8은 도 7의 분류기에 의해 분류되는 소리 분류 모델을 설명하기 위한 개념도이다.FIG. 7 is a schematic block diagram of the scattered sound analysis apparatus of FIG. 1, and FIG. 8 is a conceptual diagram illustrating a sound classification model classified by the classifier of FIG.

도 1 내지 도 8을 참조하면, 산란계 소리 분석 장치(100)는 분석기(200) 및 분류기(300)를 포함할 수 있다.Referring to FIGS. 1 to 8, a laying sound analysis apparatus 100 may include an analyzer 200 and a classifier 300.

분석기(200)는 산란계의 소리를 분석할 수 있다. 예를 들어, 분석기(200)는 산란계의 소리를 분석하여 산란계의 소리로부터 특징 데이터를 획득할 수 있다.The analyzer 200 can analyze the sound of the laying hens. For example, the analyzer 200 can analyze the sound of the laying hens to obtain characteristic data from the sound of the laying hens.

분석기(200)는 FFT 모듈(Fast Fourier Transform(FFT) module; 210), 특징 추출 모듈(230), 및 그래픽 모듈(250)을 포함할 수 있다.The analyzer 200 may include a Fast Fourier Transform (FFT) module 210, a feature extraction module 230, and a graphics module 250.

FFT 모듈(210)은 산란계의 소리를 분석할 수 있다. 예를 들어, FFT 모듈(210)는 산란계의 소리로부터 노이즈를 제거할 수 있다.The FFT module 210 may analyze the sound of the laying hens. For example, the FFT module 210 may remove noise from the sound of the laying hens.

특징 추출 모듈(230)은 노이즈가 제거된 산란계의 소리로부터 특징 데이터를 추출할 수 있다. 특징 추출 모듈(230)은 추출된 특징 데이터를 분류기(300)로 전송할 수 있다.The feature extraction module 230 may extract feature data from the sound of the laying hens that have been removed noise. The feature extraction module 230 may transmit the extracted feature data to the classifier 300.

그래픽 모듈(250)은 산란계의 소리 또는 노이즈가 제거된 산란계의 소리를 그래프로 나타낼 수 있다.The graphics module 250 may graph the sound of the laying hens or the noise of the laying hens.

분류기(300)는 추출된 특징 데이터에 기초하여 산란계의 소리를 해당하는 소리 분류 모델로 분류하고, 해당하는 소리 분류 모델에 기초하여 산란계의 상태 및/또는 환경에 연관된 상태를 추정할 수 있다.The classifier 300 may classify the sound of the laying hens into corresponding sound classification models based on the extracted feature data, and may estimate states related to the state and / or environment of the laying hens based on the corresponding sound classification models.

산란계의 소리 분류 모델은 분류기(300)에 포함된 Support Vector Machine(SVM)을 통해 분류될 수 있다. 예를 들어, 분류기(300)는 최대 마진을 가지는 초평면(hyperplane)을 결정 경계면으로 이용하는 선형 분류기일 수 있다.The sound classification model of the laying hens can be classified through the Support Vector Machine (SVM) included in the classifier 300. For example, the classifier 300 may be a linear classifier using a hyperplane with a maximum margin as a crystal boundary.

분류기(300)에 의해서 분류되는 소리 분류 모델은 도 8과 같이 설계될 수 있다. 선형 분류 SVM 모델은 수학식 1과 같을 수 있다.The sound classification model classified by the classifier 300 can be designed as shown in FIG. The linear classification SVM model may be as shown in equation (1).

Figure pat00003
Figure pat00003

여기서, S는 Support Vector 의 수이고, w와 b는 초평면을 결정하는 매개 변수일 수 있다.Where S is the number of Support Vector, and w and b may be parameters that determine the hyperplane.

이때, 분류기(300)는 비선형 데이터인 산란계 소리의 특징 데이터를 SVM에서 선형으로 분류하기 위해 Kernel Trick기법을 이용하여 차원의 공간으로 매핑하여 분류할 수 있다.At this time, the classifier 300 can classify the feature data of the scattered sound, which is nonlinear data, into a space of dimension by using the kernel trick technique to classify the linear feature in the SVM.

SVM의 kernel 함수는 표3과 같을 수 있다.The kernel function of SVM can be as shown in Table 3.

Figure pat00004
Figure pat00004

분류기(300)는 산란계의 소리를 분류하기 위해서 RBF(Radial Basis function) 커널을 사용할 수 있다.The classifier 300 may use a RBF (Radial Basis Function) kernel to classify the sound of the laying hens.

먼저, 분류기(300)는 추출된 특징 데이터에 기초하여 소리의 산란계의 소리의 종류를 분류하고, 산란계의 상태를 추정할 수 있다.First, the classifier 300 classifies the type of sounds of the sound laying hens on the basis of the extracted characteristic data, and estimates the state of the laying hens.

다음으로, 분류기(300)는 분류된 산란계의 소리의 종류에 따른 특징 데이터의 수치 변화를 고려하여 산란계의 사육 환경, 즉 계사에 대한 상태를 추정할 수 있다.Next, the classifier 300 can estimate the state of the laying hens, that is, the dwellings, taking into account the numerical change of the characteristic data according to the types of sound of the classified laying hens.

또한, 분류기(300)는 알람 등을 통해 산란계의 상태 및/또는 계사에 대한 상태를 인지할 수 있도록 사용자에게 경고할 수 있다.In addition, the classifier 300 may alert the user to the status of the laying hens and / or the state of the cradle through alarms and the like.

이하에서는 실제 실험 환경에서 진행된 산란계의 소리 분석 모델을 평가하는 실험에 대해서 설명한다.Hereinafter, an experiment for evaluating a sound analysis model of a laying hens performed in an actual experimental environment will be described.

도 9는 산란계의 소리 분석 모델을 평가한 실험 예를 나타내고, 도 10은 도 9의 실험에 따른 산란계 소리별 분류 정확도를 나타내는 그래프이고, 도 11은 도 9의 실험에 따른 산란계 환경 분류 정확도를 나타내는 그래프이다.9 is a graph showing an example of evaluation of a sound analysis model of a laying scale, FIG. 10 is a graph showing classification accuracy of a laying sound according to the experiment of FIG. 9, and FIG. 11 is a graph showing the accuracy of laying- Graph.

도 9를 참조하면, 산란계는 Hy-line Brown종으로 실험을 진행하고, 소리 녹음을 위하여 PCM (wave file) voice recorder(PCM-M10, Sony)를 사용하여 24시간 동안 녹음을 진행하였다. 또한, 소리를 분류하기 위하여 산란계의 소리에 연관된 기초데이터를 수집하고, 영상 데이터를 참고하여 산란계의 행동을 분류하였다. 소리 분석 프로그램인 Praat을 사용하여 소리의 특징 데이터를 분류하였다. 실험을 위해 수집된 샘플은 714개이다.Referring to FIG. 9, the laying hens were experimented with Hy-line Brown species and recorded for 24 hours by using a PCM (Molecular Imaging) recorder (PCM-M10, Sony) for sound recording. In order to classify the sounds, basic data related to the sound of the laying hens were collected, and the behavior of the laying hens was classified by referring to the image data. We used Praat, a sound analysis program, to classify sound feature data. 714 samples were collected for the experiment.

또한, LIBSVM을 이용하여 윈도우 환경에서 산란계 소리 분석 프로그램을 제작하고, CPU 3.4Ghz, RAM 8GB환경에서 구동시켰다. SVM의 Training model은 각 클래스(class)별로 임의의 샘플을 선택하여 만들 수 있다. Nonlinear-SVM의 slack변수들은 grid-search기법을 사용하여 획득할 수 있다. Non-linear SVM 1에서는 C값을 16으로 설정하고, Non-linear SVM 2에서는 C값은 5.5로 설정하여 실험을 진행하였다. 그리고 수학식 2를 사용하여 SVM 모델의 정확도를 평가할 수 있다.In addition, we made a sound analysis program for the laying hens in the window environment using LIBSVM, and run it in 3.4Ghz CPU and RAM 8GB environment. The SVM training model can be created by selecting arbitrary samples for each class. The slack variables of the nonlinear SVM can be obtained using the grid-search technique. In the non-linear SVM 1, the C value was set to 16. In the non-linear SVM 2, the C value was set to 5.5. And the accuracy of the SVM model can be evaluated using Equation (2).

Figure pat00005
Figure pat00005

여기서, TP(True Positives)는 산란계 소리가 주어진 클래스에 정확하게 분류된 경우의 수이고, FP(False Positives)는 산란계 소리가 주어진 클래스에 정확하게 분류되지 않은 경우의 수일 수 있다.Here, TP (True Positives) is the number of cases in which the laying sound is correctly classified into a given class, and FP (False Positives) is the number of cases in which the layer sound is not correctly classified into the given class.

1. 소리 분류 실험(Sound Classification Experiment)1. Sound Classification Experiment

산란계 소리의 종류를 분석한 실험결과는 표 4와 같을 수 있다. 표 4는 714개의 샘플을 소리 분류 모델에서 분류한 결과일 수 있다. 이때, Real Sound 부분은 사람이 산란계의 소리 및/또는 영상에 기초하여 분류한 결과이고, Classified As 부분은 산란계 모델이 동일한 산란계의 소리 및/또는 영상소리에 기초하여 분류한 결과일 수 있다.The results of analyzing the kinds of laying sound can be as shown in Table 4. Table 4 may be the result of classifying 714 samples in the sound classification model. At this time, the Real Sound part is the result of classification based on the sound and / or image of the laying hens, and the Classified As part may be the result of the laying hens model classified based on the sound and / or image sound of the same laying hens.

Figure pat00006
Figure pat00006

도 10을 참조하면, 일 실시예에 따른 산란계 모델이 산란계 소리를 분류한 정확도를 확인할 수 있고, 소리 분류 단계의 정확도는 평균 70.3%임을 확인할 수 있다.Referring to FIG. 10, it can be seen that the egg laying model according to one embodiment can confirm the accuracy of classifying the laying sound, and the accuracy of the sound classification step is 70.3% on average.

2. 환경 분류 실험(Environment Classification Experiment)2. Environment Classification Experiment

도 11을 참조하면, 산란계 소리에 따라 산란계 계사의 환경상태를 일반(Nomal, NM), 고온(HFT), 저온(LFT), 고밀도(HFD), 고오염(HFA)으로 분류한 결과를 확인할 수 있고, 환경 분류 단계의 정확도는 평균 60.77%임을 확인할 수 있다. 또한, 각 환경에 대한 정확도는 일반(NM) 환경의 경우 62.38%, 고온(HFT) 환경의 경우 64.92%, 저온(LFT) 환경의 경우 55.46%, 고밀도(HFD) 환경의 경우 64.04%, 고오염(HFA) 환경의 경우는 57.05%임을 확인할 수 있다.11, the results of classifying the environmental conditions of the laying hens by the laying hens were classified into Nomal, NM, HFT, LFT, HFD, and HFA , And the accuracy of the environmental classification step is 60.77% on average. Accuracy for each environment is 62.38% for general NM, 64.92% for high temperature (HFT) environment, 55.46% for low temperature (LFT) environment, 64.04% for high density (HFD) (HFA) environment is 57.05%.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks, and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (12)

산란계의 소리로부터 특징 데이터를 획득하는 단계;
SVM(Support Vector Machines)을 기반으로 상기 특징 데이터의 패턴을 분석하여 상기 산란계의 소리를 소리 분류 모델로 분류하는 단계; 및
상기 소리 분류 모델에 기초하여 상기 산란계의 소리에 대응하는 상기 산란계의 상태 및 상기 산란계의 사육 환경에 대한 상태 중에서 적어도 하나를 추정하는 단계
를 포함하는 산란계 환경 추정 방법.
Obtaining characteristic data from the sound of the laying hens;
Analyzing a pattern of the feature data based on SVM (Support Vector Machines) and classifying the sound of the laying machine into a sound classification model; And
Estimating at least one of a state of the layer corresponding to the sound of the layering system and a state of a living environment of the layering system based on the sound classification model
/ RTI >
제1항에 있어서,
상기 소리 분류 모델은 일반음 및 특이음을 포함하고,
상기 일반음은 일상적으로 발성하는 Ordinary Call(OC)을 포함하고,
상기 특이음은 일반음보다 소리의 길이가 더 길고 강한 강도로 발성이 지속되는 Poly Contact Call(PCC), 비상시를 알리는 짧은 경계음인 Alarm Call(AC), 저녁부터 새벽 시간대 사이에 놀라는 상황이 발생한 경우 나타나는 Moan and Threat Call(MTC), 여러 가지 소리가 복합적으로 발생하는 High Intensity Call(HIC), 산란계가 산란하기 전 산란할 장소를 찾으면서 빈번하게 발성하는 Gakel Call(GC), 및 음의 길이가 짧고 산란계가 놀라는 경우에 발생하는 Squawk Call(SC) 중 적어도 하나를 포함하는 산란계 환경 추정 방법.
The method according to claim 1,
Wherein the sound classification model includes a general tone and a specific tone,
The common tone includes an Ordinary Call (OC)
The special sound is Poly Contact Call (PCC), which is longer in sound than the normal tone and lasts for a long time, and alarm call (AC) (MIC), High Intensity Call (HIC) in which various sounds are mixed, Gakel Call (GC), which frequently makes a spawning search while laying eggs, And a squawk call (SC) that occurs when the length is short and the laying hens are surprised.
제1항에 있어서,
상기 분류하는 단계는,
상기 특징 데이터를 피치(pitch), 지속 시간(duration), 강도(intensity), 및 포먼트(formant) 중 적어도 하나를 사용하여 분석하는 단계
를 포함하는 산란계 환경 추정 방법.
The method according to claim 1,
Wherein said classifying comprises:
Analyzing the feature data using at least one of a pitch, a duration, an intensity, and a formant,
/ RTI >
제1항에 있어서,
상기 산란계의 상태는 산란 직전인 상태, 점등 직후 및 사료 급이기 작동 상태, 놀람 상태, 낯선 대상 및 소리 출현 상태, 및 공격적 깃털쪼기를 당한 상태 중에서 적어도 하나를 포함하는
산란계 환경 추정 방법.
The method according to claim 1,
Wherein the laying state includes at least one of a state just before scattering, a state immediately after being lit and a feed feeding operation state, a surprise state, a strange object and a sound appearance state, and an aggressive feather-
Estimation of laying hens environment.
제1항에 있어서,
상기 산란계의 사육 환경에 대한 상태는 고온, 저온, 공기의 오염, 및 계사의 밀도가 높은 고밀도의 환경 중에서 적어도 하나를 포함하는
산란계 환경 추정 방법.
The method according to claim 1,
The laying hens' conditions for the laying environment include at least one of high temperature, low temperature, air pollution, and a high density environment with high densities of cages
Estimation of laying hens environment.
제1항에 있어서,
상기 산란계의 소리로부터 노이즈를 제거하는 단계
를 더 포함하는 산란계 환경 추정 방법.
The method according to claim 1,
Removing noise from the sound of the laying hens
Further comprising the step of:
산란계의 소리로부터 특징 데이터를 획득하는 추출기; 및
SVM(Support Vector Machines)을 기반으로 상기 특징 데이터의 패턴을 분석하여 상기 산란계의 소리를 소리 분류 모델로 분류하고, 상기 소리 분류 모델에 기초하여 상기 산란계의 소리에 대응하는 상기 산란계의 상태 및 상기 산란계의 사육 환경에 대한 상태 중에서 적어도 하나를 추정하는 분류기
를 포함하는 산란계 환경 추정 장치.
An extractor for obtaining feature data from the sound of the laying hens; And
A pattern classification unit for classifying the sound of the laying machine into a sound classification model by analyzing patterns of the characteristic data based on SVM (Support Vector Machines), and based on the sound classification model, And a classifier for estimating at least one of the states
And an estimator for estimating the scattered-particle environment.
제7항에 있어서,
상기 소리 분류 모델은 일반음 및 특이음을 포함하고,
상기 일반음은 일상적으로 발성하는 Ordinary Call(OC)을 포함하고,
상기 특이음은 일반음보다 소리의 길이가 더 길고 강한 강도로 발성이 지속되는 Poly Contact Call(PCC), 비상시를 알리는 짧은 경계음인 Alarm Call(AC), 저녁부터 새벽 시간대 사이에 놀라는 상황이 발생한 경우 나타나는 Moan and Threat Call(MTC), 여러 가지 소리가 복합적으로 발생하는 High Intensity Call(HIC), 산란계가 산란하기 전 산란할 장소를 찾으면서 빈번하게 발성하는 Gakel Call(GC), 및 음의 길이가 짧고 산란계가 놀라는 경우에 발생하는 Squawk Call(SC) 중 적어도 하나를 포함하는 산란계 환경 추정 장치.
8. The method of claim 7,
Wherein the sound classification model includes a general tone and a specific tone,
The common tone includes an Ordinary Call (OC)
The special sound is Poly Contact Call (PCC), which is longer in sound than the normal tone and lasts for a long time, and alarm call (AC) (MIC), High Intensity Call (HIC) in which various sounds are mixed, Gakel Call (GC), which frequently makes a spawning search while laying eggs, And a squawk call (SC) that occurs when the length is short and the laying hens are surprised.
제7항에 있어서,
상기 분류기는,
상기 특징 데이터를 피치(pitch), 지속 시간(duration), 강도(intensity), 및 포먼트(formant) 중 적어도 하나를 사용하여 분석하는 산란계 환경 추정 장치.
8. The method of claim 7,
Wherein the classifier comprises:
Wherein the characteristic data is analyzed using at least one of a pitch, a duration, an intensity, and a formant.
제7항에 있어서,
상기 산란계의 상태는 산란 직전인 상태, 점등 직후 및 사료 급이기 작동 상태, 놀람 상태, 낯선 대상 및 소리 출현 상태, 및 공격적 깃털쪼기를 당한 상태 중에서 적어도 하나를 포함하는 산란계 환경 추정 장치.
8. The method of claim 7,
Wherein the state of the laying hens comprises at least one of a state just before scattering, a state immediately after being lit and a feed feeding operation state, a surprise state, a strange object and a sound emergence state, and an aggressive feather-pitched state.
제7항에 있어서,
상기 산란계의 사육 환경에 대한 상태는 고온, 저온, 공기의 오염, 및 계사의 밀도가 높은 고밀도의 환경 중에서 적어도 하나를 포함하는
산란계 환경 추정 장치.
8. The method of claim 7,
The laying hens' conditions for the laying environment include at least one of high temperature, low temperature, air pollution, and a high density environment with high densities of cages
Laying system environment estimation device.
제7항에 있어서,
상기 산란계의 소리로부터 노이즈를 제거하는 전처리기
를 더 포함하는 산란계 환경 추정 장치.
8. The method of claim 7,
A preprocessor for removing noise from the sound of the laying-
Further comprising:
KR1020160129958A 2016-10-07 2016-10-07 Method of estimating environment of layer chicken based on chickens sound and apparatus for the same KR101894635B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160129958A KR101894635B1 (en) 2016-10-07 2016-10-07 Method of estimating environment of layer chicken based on chickens sound and apparatus for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160129958A KR101894635B1 (en) 2016-10-07 2016-10-07 Method of estimating environment of layer chicken based on chickens sound and apparatus for the same

Publications (2)

Publication Number Publication Date
KR20180038833A true KR20180038833A (en) 2018-04-17
KR101894635B1 KR101894635B1 (en) 2018-09-04

Family

ID=62083340

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160129958A KR101894635B1 (en) 2016-10-07 2016-10-07 Method of estimating environment of layer chicken based on chickens sound and apparatus for the same

Country Status (1)

Country Link
KR (1) KR101894635B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112986504A (en) * 2019-12-12 2021-06-18 阿里巴巴集团控股有限公司 Method, equipment and storage medium for determining honey maturity and target object attribute
CN113095559A (en) * 2021-04-02 2021-07-09 京东数科海益信息科技有限公司 Hatching time prediction method, device, equipment and storage medium
WO2022086014A1 (en) * 2020-10-22 2022-04-28 건국대학교 산학협력단 System for early detection of infectious diseases in poultry
CN116649251A (en) * 2023-08-01 2023-08-29 山东华邦农牧机械股份有限公司 Intelligent control system and method for poultry breeding environment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11766028B2 (en) 2019-06-04 2023-09-26 Aglogica Holdings Inc Methods and systems for using sound data to analyze health condition and welfare states in collections of farm animals

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130110568A (en) * 2012-03-29 2013-10-10 고려대학교 산학협력단 Apparatus for detecting and identifying of porcine respiratory disease using sound data and method thereof
US8915215B1 (en) * 2012-06-21 2014-12-23 Scott A. Helgeson Method and apparatus for monitoring poultry in barns

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130110568A (en) * 2012-03-29 2013-10-10 고려대학교 산학협력단 Apparatus for detecting and identifying of porcine respiratory disease using sound data and method thereof
US8915215B1 (en) * 2012-06-21 2014-12-23 Scott A. Helgeson Method and apparatus for monitoring poultry in barns

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Ashleigh Bright.‘Vocalisations and acoustic parameters of flock noise from feather pecking and non-feather pecking laying flocks’. British Poultry Science, Vol.49, No.3, pp 241-249, (2008년 6월)* *
Jonguk Lee 외 5명.‘Stress Detection and Classification of Laying Hens by Sound Analysis’. Asian-Australasian Journal of Animal Sciences, Vol.28, No.4, pp 592-598, (2015년 4월)* *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112986504A (en) * 2019-12-12 2021-06-18 阿里巴巴集团控股有限公司 Method, equipment and storage medium for determining honey maturity and target object attribute
CN112986504B (en) * 2019-12-12 2023-11-07 阿里巴巴集团控股有限公司 Method, equipment and storage medium for determining honey maturity and target object attribute
WO2022086014A1 (en) * 2020-10-22 2022-04-28 건국대학교 산학협력단 System for early detection of infectious diseases in poultry
CN113095559A (en) * 2021-04-02 2021-07-09 京东数科海益信息科技有限公司 Hatching time prediction method, device, equipment and storage medium
CN113095559B (en) * 2021-04-02 2024-04-09 京东科技信息技术有限公司 Method, device, equipment and storage medium for predicting hatching time
CN116649251A (en) * 2023-08-01 2023-08-29 山东华邦农牧机械股份有限公司 Intelligent control system and method for poultry breeding environment
CN116649251B (en) * 2023-08-01 2023-09-29 山东华邦农牧机械股份有限公司 Intelligent control system and method for poultry breeding environment

Also Published As

Publication number Publication date
KR101894635B1 (en) 2018-09-04

Similar Documents

Publication Publication Date Title
KR101894635B1 (en) Method of estimating environment of layer chicken based on chickens sound and apparatus for the same
Mcloughlin et al. Automated bioacoustics: methods in ecology and conservation and their potential for animal welfare monitoring
Potamitis et al. Automatic bird sound detection in long real-field recordings: Applications and tools
US7454334B2 (en) Method and apparatus for automatically identifying animal species from their vocalizations
Carroll et al. Detecting symptoms of diseases in poultry through audio signal processing
Charrier et al. Mother–calf vocal communication in Atlantic walrus: a first field experimental study
Cuan et al. Automatic Newcastle disease detection using sound technology and deep learning method
Mahdavian et al. Acoustic features of vocalization signal in poultry health monitoring
Rizwan et al. Identifying rale sounds in chickens using audio signals for early disease detection in poultry
Liu et al. A novel method for broiler abnormal sound detection using WMFCC and HMM
Grabarczyk et al. Anthropogenic noise affects male house wren response to but not detection of territorial intruders
Mahdavian et al. Ability evaluation of a voice activity detection algorithm in bioacoustics: A case study on poultry calls
Raghuram et al. Bird classification based on their sound patterns
KR101784058B1 (en) Apparatus and method of detection stress and classification stress using of chicken sound
Mao et al. Automated identification of chicken distress vocalizations using deep learning models
Siddagangaiah et al. Automatic detection of dolphin whistles and clicks based on entropy approach
Uthoff et al. Acoustic and vibration monitoring of honeybee colonies for beekeeping-relevant aspects of presence of queen bee and swarming
Lakdari et al. Mel-frequency cepstral coefficients outperform embeddings from pre-trained convolutional neural networks under noisy conditions for discrimination tasks of individual gibbons
Várkonyi et al. Dynamic noise filtering for multi-class classification of beehive audio data
Pan et al. Research on pig sound recognition based on deep neural network and hidden Markov models
Du et al. A tristimulus-formant model for automatic recognition of call types of laying hens.
Pohl et al. Effects of signal features and background noise on distance cue discrimination by a songbird
Wei et al. Recognition of behavior state of Penaeus vannamei based on passive acoustic technology
KR102540549B1 (en) Noise canceling device for companion animal and method using same
Steen et al. Audio-based detection and recognition of conflict species in outdoor environments using pattern recognition methods

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant