CN110141266B - 一种可穿戴体音捕获技术的肠鸣音检测方法 - Google Patents
一种可穿戴体音捕获技术的肠鸣音检测方法 Download PDFInfo
- Publication number
- CN110141266B CN110141266B CN201910379051.2A CN201910379051A CN110141266B CN 110141266 B CN110141266 B CN 110141266B CN 201910379051 A CN201910379051 A CN 201910379051A CN 110141266 B CN110141266 B CN 110141266B
- Authority
- CN
- China
- Prior art keywords
- frame
- sound
- sequence
- bowel
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B7/00—Instruments for auscultation
- A61B7/006—Detecting skeletal, cartilage or muscle noise
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B7/00—Instruments for auscultation
- A61B7/02—Stethoscopes
- A61B7/04—Electric stethoscopes
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Acoustics & Sound (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Physics & Mathematics (AREA)
- Rheumatology (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
本发明公开了一种可穿戴体音捕获技术的肠鸣音检测方法,主要步骤如下:1、通过可穿戴设备,采集腹部双声道音频;2、分别对每个声道的音频数据流进行分帧,得到两组帧序列;3、对两组帧序列进行预处理,找到非肠鸣音的数据帧并将其作为预标记序列;4、对除预标记序列外的每一个帧进行时频域特征提取,计算短时能量、过零率、梅尔倒谱系数,得到n维的梅尔倒谱系数,每一帧得到p维音频特征;计算两个声道两组特征的和与差,得到4*p维特征序列;5、将步骤2得到的音频,通过人工试听和数据标记来获得初始训练集,训练分类器;6、将步骤4得到的4*p维特征序列进行分类,识别出肠鸣音。本发明设备简单,判断速度快,识别结果准确率高。
Description
技术领域
本发明属于生物医学信号处理技术领域,具体涉及一种可穿戴体音捕获技术的肠鸣音检测方法。
背景技术
肠鸣音反映了人体小肠的运动状态,是检测肠道疾病的一项重要指标,对肠鸣音的听诊是一种目前常用的诊断肠道疾病的手段。正常状态和病理状态下的肠鸣音具有明显不同的特征,如单位时间内的肠鸣音次数、响度等,据此可以为诊断提供重要信息,因此,对肠鸣音的识别方法具有广泛的应用场景,如消化道疾病判断,摄入物对肠胃刺激的判断,腹腔手术后恢复情况判断等。具体而言,肠鸣音识别方法要求提供准确、快速的肠鸣音识别,如用户每分钟出现了几次肠鸣。
现有的肠鸣音识别方法多为人工识别,由医护人员执行。患者需平躺,医护人员使用听诊器在患者腹部听诊,整个过程需要持续20分钟左右,该方法较为简单,但具有一定的局限性:1)患者只能在医院中进行肠鸣音检测,而肠鸣音听诊在医院中只作为一种辅助检测手段,因此无法充分发掘肠鸣音的日常检测价值。2)不同医护人员对于肠鸣音的判断存在主观性差异,无法统一标准。3)由于长时间监听,会使医护人员产生疲劳,对肠鸣音判断的准确性下降。
第二类方法为大型医疗设备检测。该方法通常使用大型医疗设备,将传感器与用户腹部贴合,或是通过食道伸入肠胃进行肠鸣音检测。该方法基于昂贵且不便携的大型医疗设备,同样无法实现肠鸣音的日常化捕获和检测,并且有时采用侵入式方法会对受试者造成心理影响,甚至不愿再进行检测。
发明内容
为了实现对肠鸣音的检测,同时克服传统人工方式或是侵入式、高成本、依赖大型医疗设备方式,本发明提供一种基于可穿戴体音捕获技术的肠鸣音检测方法,该方法利用轻便的可穿戴设备作为肠鸣音捕获装置,利用计算设备进行肠鸣音的识别。利用可穿戴设备将用户腹部发出的声音进行捕获后,传输至计算设备并运行识别程序进行识别,以此来完成对肠鸣音的判断。
为实现上述目的,本发明采用以下技术方案:一种基于可穿戴体音捕获技术的肠鸣音检测方法,包括以下步骤:
步骤1通过可穿戴设备,采集腹部双声道音频;
步骤2对音频进行解析,得到每个声道的音频数据流,分别对每个声道的音频数据流进行分帧,得到左右声道的两组帧序列;
步骤3对两组帧序列进行预处理,找到非肠鸣音的数据帧并将其作为预标记序列;
步骤4对步骤3中得到的除预标记序列外的每一个数据帧进行时频域特征提取,计算每一帧的短时能量、过零率和每一帧的梅尔倒谱系数,得到n维的梅尔倒谱系数,每一帧得到p维音频特征;
计算两个声道对应的两组特征的和与差,得到4*p维特征序列;
步骤5将步骤2中得到的音频,通过人工试听和数据标记来获得初始训练集,训练分类器;
步骤6将步骤4得到的4*p维特征序列通过分类器进行分类,并不对预标记中的序列进行预测,最终得到属于肠鸣音的特征,识别出肠鸣音。
为优化上述技术方案,采取的具体措施还包括:
步骤1中,可穿戴设备包括设有听诊器的腰带,将听诊器朝向腹部方向,并将听诊器上的麦克风与录音笔相连,通过录音笔采集来自听诊器的音频数据,录音频率为f Hz,录音精度为width bit,生成双声道音频。
步骤2具体包括如下步骤:
得到每个声道的音频数据流后,分别在每个声道构造t/s个帧长度的滑动窗口,该滑动窗口每次向时间增加的方向推移0.5个帧的时间长度;每次推移执行前对该滑动窗口内的t*f个采样点进行复制,作为一个帧,保存在对应声道的帧序列数组中,最终得到两个长度相同的帧序列S1和S2,分别为左右声道的帧序列。
步骤3的帧序列预处理过程具体过程如下:
分别遍历左右声道帧序列的每一帧,设人体内声速为v1,空气声速为v2,其中v1>>v2,两听诊器间距d,左声道某帧最大值索引index1,右声道某帧最大值索引index2,根据某一音源达到两听诊器的时间差距推算出其方位;
步骤4的具体过程为:
步骤4.1:遍历序列S1和S2,对于除预标记序列L外的每一个数据帧,计算其短时能量和过零率,短时能量Energy的计算方法如下:
其中si表示该帧第i个采样点的值,i为第i个采样点,t*f为采样点的个数;
过零率ZeroCrossingRate的计算方法如下:
其中,sgn()为符号函数,即:
步骤4.2:遍历序列S1和S2,对除预标记序列L外的每一个数据帧,进行快速傅里叶变换,得到该帧的频域表示,记为Spectrum;再使用n个梅尔刻度的滤波器组对每一帧滤波,得到n个滤波器输出H1,H2...Hn,再对每个滤波器输出计算其对数能量,并进行离散余弦变换,最终得到n维的梅尔倒谱系数;
傅里叶变换方法为:
其中,k是第k个频率分量,j是复数,j*j=-1;
针对滤波器输出Hm,计算对数能量的方法为:
其中,m为第m个滤波器,Hm(k)表示第m个滤波器在第k个频率点的值;
通过离散余弦变换计算出梅尔倒谱系数MFCC的具体算法为:
其中,n为梅尔倒谱系数的总维度;MFCCm表示第m个mfcc值;
步骤4.3:对除预标记序列L外的每一个数据帧,将步骤4.1和步骤4.2中得到的特征进行拼接:
每一帧的每一个声道构造出一个p维特征向量Fi=<Energy,ZeroCrossingRate,MFCC1,MFCC2...MFCCn>,然后计算左声道特征向量F1与右声道特征向量F2的和与差,并将2个声道的特征向量进行拼接,得到一帧的4*p维完整特征向量F=<F1,F2,F1+F2,F1-F2>;对于预标记序列L中被标记为非肠鸣音的数据帧,设为同样位数的0向量;所有帧的特征向量构成特征序列Features。
步骤5的具体过程如下:
将步骤2得到的帧序列音频作为初始音频,对初始音频进行人工监听,并标记其中的肠鸣音和非肠鸣音部分;
对标记后的音频进行步骤3和步骤4,并将得到的特征序列保存为两个文件,一个是肠鸣音特征序列,另一个是非肠鸣音特征序列。
步骤6的具体过程如下:
步骤6.1读取步骤五中的肠鸣音和非肠鸣音特征序列;
步骤6.2构造分类器,并使用步骤5中得到的肠鸣音和非肠鸣音特征序列、对肠鸣音和非肠鸣音的标记对分类器进行训练;
步骤6.3使用步骤4.3中的特征序列Features,将其放入分类器中进行预测,如果其中某一帧特征被标记为非肠鸣音,则直接输出结果为非肠鸣音,对于特征序列Features中的每一个特征,都得到一个预测结果:是肠鸣音或不是肠鸣音;最终得到一个预测序列,该预测序列表示每一帧的预测结果。
本发明的有益效果是:本方法提供了一种轻便、非侵入式的肠鸣音检测方法,通过采用多通道接触式麦克风设备,高采样率录音笔,采集左右声道音频数据,结合音频信号处理技术,机器学习方法,实现对包括肠鸣音在内的多种人体内声音的捕获;通过双声道音频信号处理技术,准确提取肠鸣音信号特征;通过音频特征提取和建模,实现对肠鸣音的自动检测和分析。该方法具有设备获取简单,判断速度快,识别结果客观,正确率高等特点。
附图说明
图1是本发明的肠鸣音检测方法流程图。
图2是本发明的可穿戴设备的穿戴方式示意图。
具体实施方式
现在结合附图对本发明作进一步详细的说明。本发明提供的基于可穿戴体音捕获技术的肠鸣音检测方法,一方面使用能够采集腹部体音的可穿戴设备,采集日常腹部的音频,另一方面使用基于滑动窗口的数据分割,快速傅里叶变换、梅尔倒谱系数、音频能量和过零率等数据处理方法对采集到的音频进行数字特征提取,通过模式识别的方法对当中出现的肠鸣音事件进行分类和识别。
本例中的硬件环境包括1)一部计算设备,要求具有USB接口,剩余存储空间在2GB以上,不低于2GB内存,具备1.5GHz以上主频;2)一个可穿戴式肠鸣音捕获装置,由穿戴辅助具、听诊器和录音笔组成,录音笔要求能够实现44.1kHz,16bit的录音频率和精度。
如附图1-2所示,本发明提供的一种基于可穿戴体音捕获技术的肠鸣音检测方法,包括以下步骤:
步骤1、首先需要用户正常穿戴上可穿戴设备,即肠鸣音捕获装置,保证穿戴辅助具腰带与腹部紧密贴合,将腰带上的两个听诊器朝向腹部方向,将录音笔的麦克风插孔和听诊器末端的麦克风的插头相连接,连接时要注意左右声道对应;打开录音笔进行录音,采集来自听诊器的腹部双声道音频数据,并在录音笔的内存卡中生成一个以录音开始时间为名称的双声道WAV文件,录音频率为fHz,录音精度为width bit;录音笔可放置在用户口袋中,录音结束后将录音文件通过usb传输至计算设备中,计算设备中设有应用该发明的检测方法的肠鸣音识别程序。
步骤2、运行肠鸣音识别程序,识别程序将对音频进行解析,得到每个声道的音频数据流,分别对每个声道的音频数据流进行分帧,得到左右声道的两组帧序列。
步骤2具体包括如下步骤:
得到左右声道的音频数据流后,分别在每个声道构造长度t秒,即t/s个帧长度的滑动窗口,该滑动窗口每次向时间增加的方向推移0.5个帧的时间长度;每次推移执行前对该滑动窗口内的t*f个采样点进行复制,作为一个帧,保存在对应声道的帧序列数组中,左右声道操作相同。最终得到两个长度相同的帧序列S1和S2,分别为左右声道的帧序列。
步骤3、对两组帧序列进行预处理,找到非肠鸣音的数据帧(即一定不是肠鸣音的帧)并将其作为预标记序列。
步骤3的帧序列预处理过程具体过程如下:
分别遍历左右声道帧序列的每一帧,对于每一帧:我们找到该帧中采样值最大的点的索引,并计算左右声道的索引之差,得到这一帧的相位差。由于声音在人体内和空气中传播的速度相差很大,因此我们可以将相位差过大的帧预先标记为非肠鸣音。
设人体内声速为v1,空气声速为v2,其中v1>>v2,两听诊器间距d,左声道某帧最大值索引index1,右声道某帧最大值索引index2,根据某一音源达到两听诊器的时间差距推算出其大致方位;如果是体内声速,那么时间差距不应大于计算时间差的方法的公式为:|index1-index2|f。
步骤4、对步骤3中得到的除预标记序列外的每一个数据帧进行时频域特征提取,计算每一帧的短时能量、过零率等时域特征,本例中仅以短时能量和过零率作为提取的时域特征为例,实际应用中,还可以提取不同的时域特征用以分析;同时计算每一帧的梅尔倒谱系数(MFCC),得到n维的梅尔倒谱系数,每一帧总计得到p维音频特征;p是包括了n维MFCC和过零率、能量等特征的。
再计算两个声道对应的两组特征的和与差,两个声道共得到4*p维特征序列,其中左声道p维,右声道p维,左声道+右声道p维,左声道-右声道p维,拼接起来4p维;对于一定不是肠鸣音的帧,我们不计算特征,并空出位置全部置零。
步骤4的具体过程为:
步骤4.1:遍历序列S1和S2,对于除预标记序列L外的每一个数据帧,计算其短时能量和过零率等时域特征,短时能量Energy的计算方法如下:
其中si表示该帧第i个采样点的值,i为第i个采样点,t*f为采样点的个数;
过零率ZeroCrossingRate的计算方法如下:
其中,sgn()为符号函数,即:
步骤4.2:遍历序列S1和S2,对除预标记序列L外的每一个数据帧,进行快速傅里叶变换,得到该帧的频域表示,记为Spectrum;再使用n个梅尔刻度的滤波器组对每一帧滤波,得到n个滤波器输出H1,H2...Hn,再对每个滤波器输出计算其对数能量,并进行离散余弦变换,最终得到n维的梅尔倒谱系数。
傅里叶变换方法为:
其中,k是第k个频率分量,j是复数,j*j=-1;
针对滤波器输出Hm,计算对数能量s(m)的方法为:
其中,m为第m个滤波器,Hm(k)表示第m个滤波器在第k个频率点的值;这里计算的是傅里叶变换后的一帧通过滤波器后输出的对数能量。
通过离散余弦变换计算出梅尔倒谱系数MFCC的具体算法为:
其中,n为梅尔倒谱系数的总维度;MFCCm表示第m个MFCC的值;m为第m维MFCC;MFCC的维数和滤波器数量相同。
步骤4.3:对除预标记序列L外的每一个数据帧,将步骤4.1和步骤4.2中得到的特征进行拼接:
每一帧的每一个声道构造出一个p维特征向量Fi=<Energy,ZeroCrossingRate,MFCC1,MFCC2...MFCCn>(特征向量还可以包括其他维度,但本发明以上述计算所得的时频域特征为例说明),然后计算左声道特征向量F1与右声道特征向量F2的和与差,并将2个声道的特征向量进行拼接,得到一帧的4*p维完整特征向量F=<F1,F2,F1+F2,F1-F2>;对于预标记序列L中被标记为非肠鸣音的数据帧,产生同样位数的0向量;所有帧的特征向量构成特征序列Features。
步骤5的具体过程如下:
将经过步骤1和步骤2后得到的帧序列音频作为初始音频,对初始音频进行人工监听,并进行数据标记,根据人工判断标记出其中的肠鸣音和非肠鸣音部分;对标记后的音频进行步骤3和步骤4的处理,并将得到的特征序列保存为两个文件,一个是肠鸣音特征序列,另一个是非肠鸣音特征序列,作为初始训练集,用于训练分类器。
步骤6的具体过程如下:
步骤6.1读取步骤五中的肠鸣音和非肠鸣音特征序列;
步骤6.2构造分类器,并使用步骤5中得到的肠鸣音和非肠鸣音特征序列、对肠鸣音和非肠鸣音的标记对分类器进行训练;
步骤6.3使用步骤4中的4*p维特征序列Features,将其放入分类器中进行预测,如果其中某一帧特征被标记为非肠鸣音,则直接输出结果为非肠鸣音,对于特征序列Features中的每一个特征,都得到一个预测结果:是肠鸣音或不是肠鸣音;最终得到一个预测序列,该预测序列表示每一帧的预测结果。
本方法所涉及的使用具有音频采集功能的可穿戴设备穿戴方式如图2所示。
可穿戴肠鸣音捕获装置穿戴方式:如图2所示,对于需要使用本系统的用户,需要首先穿戴肠鸣音捕获装置进行肠鸣音的捕获。用户需要先穿戴好穿戴辅助具,将穿戴辅助具肩带和腰带穿在身上,穿戴辅助具腰带内侧的听诊器橡胶管留出来,腰带需要与用户腹部紧密贴合,并且穿戴辅助具与用户之间应相隔一层衣服。然后将听诊器末端的麦克风插头与录音笔麦克风插孔连接,连接时需注意左右声道对应。最后将录音笔录音功能开启,并将录音笔放在口袋中即可开始肠鸣音的捕获。
计算设备端基于数据分帧和音频时域频域特征提取的数据处理方法:
如图1,在计算设备得到捕获的音频后,运行识别程序。音频给定采样频率为44.1kHz,每秒钟有44100个数据点。然后使用一个长度为0.25s,前后窗口重叠0.125s的重叠式滑动窗口对输入音频数据流进行分割,每次分割得到一个数据帧,其中包含11025个数据点。对于每一个数据帧,对其计算短时能量和过零率,并进行快速傅里叶变换,得到数据帧对应的频域表示,然后进行梅尔滤波,得到20维梅尔倒谱系数。然后将短时能量,过零率和20维梅尔倒谱系数合并,每帧得到22维特征。左右声道进行相同操作,合并,最终每帧得到44维特征。
计算设备端的基于机器学习的事件识别:
按照技术方案步骤5中的方法设置配监督式机器学习算法,分类器的选择可以是随机森林(Random Forest),或效果更佳的分类器;按照技术方案步骤6对机器学习方法进行训练得到适合该场景的分类器模型;并且按照技术方案步骤6中所述完成分类,得到肠鸣音分类结果。
本发明的应用场景包括:消化道疾病判断,摄入物对肠胃刺激的判断,腹腔手术后恢复情况判断;且本发明所阐述的方法应该用于医学用途,仅作为日常监测手段。应用于消化道疾病监测时,可以对肠鸣音进行长时间的日常监听,并根据识别结果判断肠鸣音次数是否异常,进而判断消化道健康。用于摄入物对肠胃刺激判断时,本方法可在摄入食物后进行半小时至一小时的检测,以判断肠鸣音是否亢进/减弱,进而判断摄入物对肠胃的影响。应用于腹腔手术后恢复情况判断时,可替代人工听诊,进行约20分钟的检测,根据检测结果中肠鸣的活跃程度对用户肠道活动恢复情况进行判断。
本发明针对用户肠胃发出的肠鸣音进行识别,基于可穿戴技术捕获用户腹部声音,以计算音频能量、过零率、梅尔倒谱系数等特征和机器学习为主要技术手段对捕获的音频进行识别,实现了一种基于可穿戴式设备的肠鸣音识别方法,设备获取简单,判断速度快,相对于人工识别,识别结果客观、准确度高,减少人工检测的工作强度,。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。
Claims (5)
1.一种基于可穿戴体音捕获技术的肠鸣音检测方法,其特征在于,包括以下步骤:
步骤1通过附有防止滑落的肩带的可穿戴设备,采集腹部双声道音频;
步骤2对音频进行解析,得到每个声道的音频数据流,分别对每个声道的音频数据流进行分帧,得到两组帧序列;
得到每个声道的音频数据流后,分别在每个声道构造t/s个帧长度的滑动窗口,该滑动窗口每次向时间增加的方向推移0.5个帧的时间长度;
每次推移执行前对该滑动窗口内的t*f个采样点进行复制,作为一个帧,保存在对应声道的帧序列数组中,最终得到两个长度相同的帧序列S1和S2,分别为左右声道的帧序列;
步骤3对两组帧序列进行预处理,找到非肠鸣音的数据帧并对其进行预标记,产生预标记序列;
分别遍历左右声道帧序列的每一帧,设人体内声速为v1,空气声速为v2,其中v1>>v2,两听诊器间距d,左声道某帧最大值索引index1,右声道某帧最大值索引index2,根据某一音源达到两听诊器的时间差距推算出其方位;
步骤4对步骤3中得到的除预标记序列外的每一个数据帧进行时频域特征提取,计算每一帧的短时能量、过零率和每一帧的梅尔倒谱系数,得到n维的梅尔倒谱系数,每一帧得到p维音频特征;
计算两个声道对应的两组特征的和与差,得到4*p维特征序列;
步骤5将步骤2中得到的音频,通过人工试听和数据标记来获得初始训练集,训练分类器;
步骤6将步骤4得到的4*p维特征序列通过随机森林分类器进行分类,并不对预标记中的序列进行预测,最终得到属于肠鸣音的特征,识别出肠鸣音。
2.根据权利要求1中所述的肠鸣音检测方法,其特征在于,步骤1中,可穿戴设备包括设有听诊器的腰带,将听诊器朝向腹部方向,并将听诊器上的麦克风与录音笔相连,通过录音笔采集来自听诊器的音频数据,录音频率为fHz,录音精度为width bit,生成双声道音频。
3.根据权利要求1中所述的肠鸣音检测方法,其特征在于,步骤4的具体过程为:
步骤4.1:遍历序列S1和S2,对于除预标记序列L外的每一个数据帧,计算其短时能量和过零率,短时能量Energy的计算方法如下:
其中si表示该帧第i个采样点的值,i为第i个采样点,t*f为采样点的个数;
过零率ZeroCrossingRate的计算方法如下:
其中,sgn()为符号函数,即:
步骤4.2:遍历序列S1和S2,对除预标记序列L外的每一个数据帧,进行快速傅里叶变换,得到该帧的频域表示,记为Spectrum;再使用n个梅尔刻度的滤波器组对每一帧滤波,得到n个滤波器输出H1,H2…Hn,再对每个滤波器输出计算其对数能量,并进行离散余弦变换,最终得到n维的梅尔倒谱系数;
傅里叶变换方法为:
其中,k是第k个频率分量,j是复数,j*j=-1;
针对滤波器输出Hm,计算对数能量的方法为:
其中,m为第m个滤波器,Hm(k)表示第m个滤波器在第k个频率点的值;
通过离散余弦变换计算出梅尔倒谱系数MFCC的具体算法为:
其中,n为梅尔倒谱系数的总维度;MFCCm表示第m个mfcc值;
步骤4.3:对除预标记序列L外的每一个数据帧,将步骤4.1和步骤4.2中得到的特征进行拼接:
每一帧的每一个声道构造出一个p维时域频域特征向量Fi=<Energy,ZeroCrossingRate,MFCC1,MFCC2…MFCCn>,然后计算左声道特征向量F1与右声道特征向量F2的和与差,并将2个声道的特征向量进行拼接,得到一帧的4*p维完整特征向量F=<F1,F2,F1+F2,F1-F2>;对于预标记序列L中被标记为非肠鸣音的数据帧,设为同样位数的0向量;所有帧的特征向量构成特征序列Features。
4.根据权利要求1中所述的肠鸣音检测方法,其特征在于,步骤5的具体过程如下:
将步骤2得到的帧序列音频作为初始音频,对初始音频进行人工监听,并标记其中的肠鸣音和非肠鸣音部分;
对标记后的音频进行步骤3和步骤4,并将得到的特征序列保存为两个文件,一个是肠鸣音特征序列,另一个是非肠鸣音特征序列。
5.根据权利要求4中所述的肠鸣音检测方法,其特征在于,步骤6的具体过程如下:
步骤6.1读取步骤5中的肠鸣音和非肠鸣音特征序列;
步骤6.2构造随机森林分类器,并使用步骤5中得到的肠鸣音和非肠鸣音特征序列、对肠鸣音和非肠鸣音的标记对分类器进行训练;
步骤6.3使用步骤4.3中的特征序列Features,将其放入分类器中进行预测,如果其中某一帧特征被标记为非肠鸣音,则直接输出结果为非肠鸣音,对于特征序列Features中的每一个特征,都得到一个预测结果:是肠鸣音或不是肠鸣音;最终得到一个预测序列,该预测序列表示每一帧的预测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910379051.2A CN110141266B (zh) | 2019-05-07 | 2019-05-07 | 一种可穿戴体音捕获技术的肠鸣音检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910379051.2A CN110141266B (zh) | 2019-05-07 | 2019-05-07 | 一种可穿戴体音捕获技术的肠鸣音检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110141266A CN110141266A (zh) | 2019-08-20 |
CN110141266B true CN110141266B (zh) | 2021-04-27 |
Family
ID=67595054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910379051.2A Active CN110141266B (zh) | 2019-05-07 | 2019-05-07 | 一种可穿戴体音捕获技术的肠鸣音检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110141266B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118370556B (zh) * | 2024-06-21 | 2024-08-16 | 长春理工大学 | 一种肠鸣音智能监测腰腹带及其数据处理系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106328150A (zh) * | 2016-08-18 | 2017-01-11 | 北京易迈医疗科技有限公司 | 嘈杂环境下的肠鸣音检测方法、装置及系统 |
CN108175436A (zh) * | 2017-12-28 | 2018-06-19 | 北京航空航天大学 | 一种肠鸣音智能自动识别方法 |
CN109620154A (zh) * | 2018-12-21 | 2019-04-16 | 平安科技(深圳)有限公司 | 基于深度学习的肠鸣音识别方法及相关装置 |
-
2019
- 2019-05-07 CN CN201910379051.2A patent/CN110141266B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106328150A (zh) * | 2016-08-18 | 2017-01-11 | 北京易迈医疗科技有限公司 | 嘈杂环境下的肠鸣音检测方法、装置及系统 |
CN108175436A (zh) * | 2017-12-28 | 2018-06-19 | 北京航空航天大学 | 一种肠鸣音智能自动识别方法 |
CN109620154A (zh) * | 2018-12-21 | 2019-04-16 | 平安科技(深圳)有限公司 | 基于深度学习的肠鸣音识别方法及相关装置 |
Non-Patent Citations (5)
Title |
---|
基于 ADμC 812 的生理参数测试仪设计与实践;蒋阳,等;《实验科学与技术》;20120228;第10卷(第1期);全文 * |
基于 DSP TMS320C6727 的 AC-3 音频编码算法的研究及实现;张丽娜;《天津大学硕士学位论文》;20140731;正文第9页 * |
基于定点DSP的MP3实时编码器设计与实现;寻伟;《电子科技大学硕士学位论文》;20070910;正文第3页 * |
数字化可视型电子听诊器的设计;赵金生;《第三十届中国2016 IT、网络、信息技术、电子、仪器仪表创新学术会议》;20161231;全文 * |
肠鸣音数据采集及其特征提取方法;李欢;《哈尔滨工业大学硕士学位论文》;20190118;4、8-19、51-64 * |
Also Published As
Publication number | Publication date |
---|---|
CN110141266A (zh) | 2019-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chowdhury et al. | Time-frequency analysis, denoising, compression, segmentation, and classification of PCG signals | |
Belkacem et al. | End-to-end AI-based point-of-care diagnosis system for classifying respiratory illnesses and early detection of COVID-19: A theoretical framework | |
Deng et al. | Towards heart sound classification without segmentation via autocorrelation feature and diffusion maps | |
Messner et al. | Crackle and breathing phase detection in lung sounds with deep bidirectional gated recurrent neural networks | |
US20170188868A1 (en) | System and method of identification of the heart valve signals | |
Amoh et al. | DeepCough: A deep convolutional neural network in a wearable cough detection system | |
Abushakra et al. | Acoustic signal classification of breathing movements to virtually aid breath regulation | |
Childers et al. | Electroglottography for laryngeal function assessment and speech analysis | |
CN106725532A (zh) | 基于语音特征与机器学习的抑郁症自动评估系统和方法 | |
US20220007964A1 (en) | Apparatus and method for detection of breathing abnormalities | |
Abou-Abbas et al. | A fully automated approach for baby cry signal segmentation and boundary detection of expiratory and inspiratory episodes | |
WO2019216320A1 (ja) | 機械学習装置、解析装置、機械学習方法および解析方法 | |
Golabbakhsh et al. | Automated acoustic analysis in detection of spontaneous swallows in Parkinson’s disease | |
Cohen-McFarlane et al. | Comparison of silence removal methods for the identification of audio cough events | |
CN110141266B (zh) | 一种可穿戴体音捕获技术的肠鸣音检测方法 | |
Luo et al. | Design of embedded real-time system for snoring and OSA detection based on machine learning | |
CN117503186A (zh) | 一种基于可穿戴设备的呼吸道疾病患者监护系统 | |
Sofwan et al. | Normal and murmur heart sound classification using linear predictive coding and k-Nearest neighbor methods | |
CN107693043B (zh) | 肠鸣音信号的非线性动力学分析方法 | |
Qiao et al. | A bowel sound detection method based on a novel non-speech body sound sensing device | |
Leng | Discriminating coughs in a multi-bed ward environment | |
Liu et al. | Tracheal sound-based apnea detection using hidden Markov model in sedated volunteers and post anesthesia care unit patients | |
CN114652280A (zh) | 睡眠质量监测系统及方法 | |
CN113729640B (zh) | 一种穿戴式吞咽行为识别方法及系统 | |
CHENG et al. | Development of an early detection system for respiratory diseases in pigs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |