CN113823295A - 一种通过羊的声音智能识别发情状态的方法 - Google Patents
一种通过羊的声音智能识别发情状态的方法 Download PDFInfo
- Publication number
- CN113823295A CN113823295A CN202111185494.1A CN202111185494A CN113823295A CN 113823295 A CN113823295 A CN 113823295A CN 202111185494 A CN202111185494 A CN 202111185494A CN 113823295 A CN113823295 A CN 113823295A
- Authority
- CN
- China
- Prior art keywords
- sheep
- estrus
- voice
- sound
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
Abstract
本发明公开一种通过羊的声音智能识别发情状态的方法,包括以下步骤:S1、采集羊的声音;S2、对所述羊的声音进行切割处理和预处理,获取发情声音段;S3、对所述发情声音段进行频域分析和能量对比,获取发情特征参数;S4、基于所述发情特征参数构建羊声音识别模型,并基于所述羊声音识别模型获得羊发情状态结果。本发明通过对羊的叫声进行切割处理,能够过滤掉无用的成分,便于后期进行模型训练,并且通过预处理提高声音分析识别的精度,获取高精度声音频域,进而完成羊声音识别模型的构建,获取识别结果,完成对羊的叫声分析,避免造成不必要的人力财力的损失,还能提高鉴定和监测效率,同时实现动物的福利化养殖。
Description
技术领域
本发明涉及声学分析技术领域,特别涉及一种通过羊的声音智能识别发情状态的方法。
背景技术
畜牧业已进入新的发展阶段,正在由传统畜牧业向现代畜牧业转型,建设资源节约、环境友好型畜牧业。传统畜牧业生产过程主要依靠人工观察来监测动物情况,不仅效率低下而且容易干预牛羊的生活环境。随着精细畜牧业的发展,智能化、信息化监测并分析动物情况已成为分析动物行为、健康及福利的重要趋势。在牛羊等食草动物养殖过程中,由于食草类动物一般活动范围广,且常存在放养和圈养结合的养殖模式,监测其放牧过程中各种行为存在一定困难。
在目前环境下,羊在集约化养殖以及生产和繁殖领域依然存在效率低下、人力成本和时间成本的极大浪费,所以在智能化鉴别领域存在非常大的发展空间。而养殖业正在由粗放式的散养到规模化集约化的集中饲养的方向发展,对于羊的集约化程度还比较落后,对于发情的鉴定基本只有通过传统的试情法来判断发情与否,不能够根据羊的声音智能识别,即时性不强,并且容易产生误配和漏配,实时监控的方法有限。
发明内容
针对上述问题,本发明提出一种通过羊的声音智能识别发情状态的方法,以解决现有技术中存在的技术问题,能够通过对羊的叫声进行分析,避免造成不必要的人力财力的损失,并且提高鉴定和监测效率,同时实现动物的福利化养殖。
为实现上述目的,本发明提供了如下方案:本发明提供一种通过羊的声音智能识别发情状态的方法,包括以下步骤:
S1、采集羊的声音;
S2、对所述羊的声音进行切割处理和预处理,获取发情声音段;
S3、对所述发情声音段进行频域分析和能量对比,获取发情特征参数;
S4、基于所述发情特征参数构建羊声音识别模型,并基于所述羊声音识别模型获得羊发情状态结果。
优选地,所述S1中羊的声音包括母羊发情、母羊饥饿、母羊受饲料刺激和羔羊寻母的叫声。
优选地,所述S1中采集的方法包括模拟现场环境进行自然录制。
优选地,所述S2中切割处理包括:将采集的所述羊的声音切割为若干段音频信号,并删除所述音频信号中的杂音,获取羊的音频信号。
优选地,所述S2中预处理包括声音去噪、端点分析、加窗分帧。
优选地,所述声音去噪包括:将高斯噪音混入所述羊的音频信号,并利用小波阈值的方法获取去噪音频。
优选地,所述端点分析包括:对所述去噪音频进行双门限端点检测,获得过零率和能量,并根据所述过零率和所述能量获取发情音频位置。
优选地,所述加窗分帧包括:根据所述发情音频位置对所述去噪音频进行分帧加窗处理,获取发情声音段。
本发明公开了以下技术效果:
本发明通过对羊的叫声进行切割处理,能够过滤掉无用的成分,便于后期进行模型训练,并且通过预处理提高声音分析识别的精度,获取高精度声音频域,进而完成羊声音识别模型的构建,获取识别结果,完成对羊的叫声分析,避免造成不必要的人力财力的损失,还能提高鉴定和监测效率,同时实现动物的福利化养殖。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的方法流程图;
图2为本发明实施例中声音识别的逻辑示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
参照图1-2所示,本实施例提供一种通过羊的声音智能识别发情状态的方法,包括以下步骤:
S1、采集羊的声音;对羊的叫声进行现场录制,为了模拟现场环境,对40只经产母羊进行自然录制,录取母羊发情、母羊饥饿、母羊受饲料刺激和羔羊寻母的叫声。录制的声音作为声音样本,声音样本包含训练样本和识别样本。
S2、对羊的声音进行切割处理和预处理,获取发情声音段。
羊声音信号切割处理:将连续的声音样本切割为单独的声音,删掉无用的杂音成分。每个状态随机采用32段单独的音频信号,共计128段声音进行模型训练。
羊声音预处理:通过三个步骤对羊声音进行预处理。第一步为声音去噪:先将其他信噪比的高斯噪音混入羊的音频信号,模拟含噪音的羊叫声音的信号,利用小波阈值的方法对声音进行去噪处理,获取去噪音频,避免识别和分析精度不足。第二步为端点检测分析:利用双门限端点检测法,根据去噪音频信号的过零率和能量确定有效声音在一整段声音内的位置,将每一帧的羊声音信号进行短时平均过零率运算。标记一段声音的起始点和终止点。第三步为加窗分帧:利用分帧加窗的方法切取频谱特征相对较平稳的声音段,获取发情音频位置,并通过窗函数把去噪音频信号切分,以“帧”为单位。
其中,小波阈值的方法如下:
(1)对带噪信号x(t)进行小波变换,得到一组小波分解系数Wj.k;
双门限端点检测法的过程如下所示:
(1)在开始进行端点检测之前,为短时能量和过零率分别确定两个门限;
(2)设定一个比较低的门限,其数值比较小,对信号的变化比较敏感;
(3)设定一个比较高的门限,其数值比较大,信号必须达到一定的强度;
(4)当低门限被超过未必就是语音的开始,有可能是时间很短的噪声引起的。高门限被超过则可以基本确信是由于语音信号引起的。
S3、对发情声音段进行频域分析和能量对比,获取发情特征参数。
羊声音信号的时域和频域分析:通过时域和频率的分析对比4种声音的差异。将时域通过傅里叶变换可以得出频域图。
羊声音信号能量对比:所用频率为48000Hz的录音笔采样,在同等距离和音高的情况下,可以进行能量分析,获取发情特征参数。
S4、基于发情特征参数构建羊声音识别模型,并基于羊声音识别模型获得羊发情状态结果。
羊声音识别模型采用HMM模型,先对HMM模型进行初始化处理,随机从羊声音样本中提取出的特征参数作为观测序列,利用双向计算的算法,算出训练得到的HMM模型。将待识别的羊声音信号输入训练好的模型中,确定检测序列是否与模型参数对应,最后识别并输出结果。
在本实施例中,以无杂音干扰作为前提,经过试情公羊诱导,录取发情母羊各个阶段(发情前期、发情期、发情后期和休情期)的声音,再录取正常母羊的叫声,进行剪切处理,去噪和端点检测等预处理,获取发情特征参数。
模型构建的特征参数的获取包括:将状态定义为发情、羊寻母、饥饿和饲料刺激四种状态,所以初始化后的概率为π=[1,0,0,0],初始状态下四种出现的概率如下:
随机抽取四种状态下羊声音中的一段进行特征参数的提取,将观测序列以xi=(x1,x2,x3,…,xn)表示。其中i是叫声类型,n为叫声的种类。从随机样本中提取出的特征参数作为观测序列,利用双向计算的算法,算出训练得到的HMM模型中阈值的条件概率。
再次录取母羊的叫声(状态随机,但必须进行状态记录),切分为单独的叫声,通过训练好的程序进行自动识别。编写输入/输出的主界面程序,将母羊的声音直接频域综合分析,将结果打印在主界面。
本发明公开了以下技术效果:
本发明通过对羊的叫声进行切割处理,能够过滤掉无用的成分,便于后期进行模型训练,并且通过预处理提高声音分析识别的精度,获取高精度声音频域,进而完成羊声音识别模型的构建,获取识别结果,完成对羊的叫声分析,避免造成不必要的人力财力的损失,还能提高鉴定和监测效率,同时实现动物的福利化养殖。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (8)
1.一种通过羊的声音智能识别发情状态的方法,其特征在于,包括以下步骤:
S1、采集羊的声音;
S2、对所述羊的声音进行切割处理和预处理,获取发情声音段;
S3、对所述发情声音段进行频域分析和能量对比,获取发情特征参数;
S4、基于所述发情特征参数构建羊声音识别模型,并基于所述羊声音识别模型获得羊发情状态结果。
2.根据权利要求1所述的通过羊的声音智能识别发情状态的方法,其特征在于,所述S1中羊的声音包括母羊发情、母羊饥饿、母羊受饲料刺激和羔羊寻母的叫声。
3.根据权利要求1所述的通过羊的声音智能识别发情状态的方法,其特征在于,所述S1中采集的方法包括模拟现场环境进行自然录制。
4.根据权利要求1所述的通过羊的声音智能识别发情状态的方法,其特征在于,所述S2中切割处理包括:将采集的所述羊的声音切割为若干段音频信号,并删除所述音频信号中的杂音,获取羊的音频信号。
5.根据权利要求4所述的通过羊的声音智能识别发情状态的方法,其特征在于,所述S2中预处理包括声音去噪、端点分析、加窗分帧。
6.根据权利要求5所述的通过羊的声音智能识别发情状态的方法,其特征在于,所述声音去噪包括:将高斯噪音混入所述羊的音频信号,并利用小波阈值的方法获取去噪音频。
7.根据权利要求6所述的通过羊的声音智能识别发情状态的方法,其特征在于,所述端点分析包括:对所述去噪音频进行双门限端点检测,获得过零率和能量,并根据所述过零率和所述能量获取发情音频位置。
8.根据权利要求7所述的通过羊的声音智能识别发情状态的方法,其特征在于,所述加窗分帧包括:根据所述发情音频位置对所述去噪音频进行分帧加窗处理,获取发情声音段。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111185494.1A CN113823295A (zh) | 2021-10-12 | 2021-10-12 | 一种通过羊的声音智能识别发情状态的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111185494.1A CN113823295A (zh) | 2021-10-12 | 2021-10-12 | 一种通过羊的声音智能识别发情状态的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113823295A true CN113823295A (zh) | 2021-12-21 |
Family
ID=78916467
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111185494.1A Pending CN113823295A (zh) | 2021-10-12 | 2021-10-12 | 一种通过羊的声音智能识别发情状态的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113823295A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016176887A1 (zh) * | 2015-05-06 | 2016-11-10 | 福州大学 | 基于声谱图双特征的动物声音识别方法 |
CN106847293A (zh) * | 2017-01-19 | 2017-06-13 | 内蒙古农业大学 | 设施养殖羊应激行为的声信号监测方法 |
CN109479750A (zh) * | 2018-08-27 | 2019-03-19 | 华中农业大学 | 一种基于声学信息的梅山猪发情监测方法 |
CN109599120A (zh) * | 2018-12-25 | 2019-04-09 | 哈尔滨工程大学 | 一种基于大规模养殖场厂哺乳动物异常声音监测方法 |
CN111583962A (zh) * | 2020-05-12 | 2020-08-25 | 南京农业大学 | 一种基于声学分析的羊反刍行为监测方法 |
-
2021
- 2021-10-12 CN CN202111185494.1A patent/CN113823295A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016176887A1 (zh) * | 2015-05-06 | 2016-11-10 | 福州大学 | 基于声谱图双特征的动物声音识别方法 |
CN106847293A (zh) * | 2017-01-19 | 2017-06-13 | 内蒙古农业大学 | 设施养殖羊应激行为的声信号监测方法 |
CN109479750A (zh) * | 2018-08-27 | 2019-03-19 | 华中农业大学 | 一种基于声学信息的梅山猪发情监测方法 |
CN109599120A (zh) * | 2018-12-25 | 2019-04-09 | 哈尔滨工程大学 | 一种基于大规模养殖场厂哺乳动物异常声音监测方法 |
CN111583962A (zh) * | 2020-05-12 | 2020-08-25 | 南京农业大学 | 一种基于声学分析的羊反刍行为监测方法 |
Non-Patent Citations (1)
Title |
---|
黄福任;贾博;徐洪东;李桢;黄娇娇;潘庆杰;董焕声;: "母羊发情声音数字化识别模型的建立", 中国畜牧杂志, no. 12, pages 8 - 11 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109243470B (zh) | 基于音频技术的肉鸡咳嗽监测方法 | |
CN109493874A (zh) | 一种基于卷积神经网络的生猪咳嗽声音识别方法 | |
Liu et al. | A novel method for broiler abnormal sound detection using WMFCC and HMM | |
CN107811649B (zh) | 一种基于深度卷积神经网络的心音多分类方法 | |
CN106847293A (zh) | 设施养殖羊应激行为的声信号监测方法 | |
CN109817227B (zh) | 一种养殖场的异常声音监测方法和系统 | |
CN104200804A (zh) | 一种面向人机交互的多类信息耦合的情感识别方法 | |
CN105448291A (zh) | 基于语音的帕金森症检测方法及检测系统 | |
CN110189756A (zh) | 一种用于监测生猪异常声音的方法及系统 | |
CN113539294A (zh) | 一种生猪异常状态声音采集及识别方法 | |
CN115048984A (zh) | 一种基于深度学习的母猪发情声识别方法 | |
Hagiwara et al. | BEANS: The benchmark of animal sounds | |
CN115578678A (zh) | 一种鱼类摄食强度分类方法及系统 | |
CN115410711A (zh) | 基于声音信号特征和随机森林的白羽肉鸡健康监测方法 | |
Bishop et al. | Sound analysis and detection, and the potential for precision livestock farming-a sheep vocalization case study | |
Sun et al. | Research on recognition method of broiler overlapping sounds based on random forest and confidence interval | |
CN116626753B (zh) | 一种基于多模态神经网络的微地震事件识别方法及系统 | |
CN113823295A (zh) | 一种通过羊的声音智能识别发情状态的方法 | |
Zhang et al. | Environmental sound recognition using double-level energy detection | |
Wang et al. | Identification of oestrus cows based on vocalisation characteristics and machine learning technique using a dual-channel-equipped acoustic tag | |
Du et al. | A tristimulus-formant model for automatic recognition of call types of laying hens | |
NL2029582B1 (en) | Method for intelligently identifying estrus state through sheep sound | |
CN115762578A (zh) | 基于分数域傅里叶变换的可解释心音异常识别方法及系统 | |
CN113936663A (zh) | 困难气道的检测方法及其电子设备和存储介质 | |
Shi | An Improved Machine Learning Model for Pig Abnormal Voice Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |