CN111009263A - 一种用于肺部啰音识别的系统及方法 - Google Patents

一种用于肺部啰音识别的系统及方法 Download PDF

Info

Publication number
CN111009263A
CN111009263A CN201911385046.9A CN201911385046A CN111009263A CN 111009263 A CN111009263 A CN 111009263A CN 201911385046 A CN201911385046 A CN 201911385046A CN 111009263 A CN111009263 A CN 111009263A
Authority
CN
China
Prior art keywords
filtering
energy
signal
sound signal
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911385046.9A
Other languages
English (en)
Inventor
路程
刘国栋
李鑫慧
许梓艺
刘炳国
林春红
侯代玉
包智慧
王晓辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201911385046.9A priority Critical patent/CN111009263A/zh
Publication of CN111009263A publication Critical patent/CN111009263A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/003Detecting lung or respiration noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Pulmonology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

一种用于肺部啰音识别的系统及方法,它属于机器学习的分类技术领域。本发明解决了现有研究对肺部啰音识别的准确率低的问题。本发明首先对输入的原始呼吸音信号进行预处理,再根据预处理结果提取原始呼吸音信号的时域和频域特征,将提取出的原始呼吸音信号的时域和频域特征输入神经网络模块获得识别结果。采用本发明方法对原始呼吸音信号进行啰音识别,在测试集上的识别准确率可以达到80%以上。本发明可以应用于肺部啰音的识别。

Description

一种用于肺部啰音识别的系统及方法
技术领域
本发明属于机器学习的分类技术领域,具体涉及一种用于肺部啰音识别的系统及方法。
背景技术
啰音是肺部呼吸音的一种,从成因和音色上,啰音可分为干啰音和湿啰音。湿啰音是由于小气道的爆炸性打开造成的,而这条气道异常关闭。它们是短的、爆炸性的、非音乐性的声音,根据音调、持续时间、数量和时间进行评估。此外,湿啰音的频谱在200HZ和2000HZ之间。干啰音是由气道中的空气与支气管壁的相互作用引起的。这些高振幅的声音引起支气管壁几乎相互接触,干啰音的频率范围是可变的。
对肺部啰音的识别具有重要意义,虽然目前国内外已经展开一些针对肺部啰音识别的研究,但是现有研究对肺部啰音识别的准确率仍然较低。
发明内容
本发明的目的是为解决现有研究对肺部啰音识别的准确率低的问题,而提出了一种用于肺部啰音识别的系统及方法。
本发明为解决上述技术问题采取的技术方案是:
基于本发明的一个方面,一种用于肺部啰音识别的系统,所述用于肺部啰音识别的系统包括输入模块、信号预处理与特征提取模块、神经网络模块以及输出模块;
所述输入模块用于输入原始呼吸音信号给信号预处理与特征提取模块;
所述信号预处理与特征提取模块用于对原始呼吸音信号进行预处理,并计算原始呼吸音信号的特征;将计算出的特征输入神经网络模块,神经网络模块根据输入特征获得识别结果;
所述输出模块用于输出神经网络模块的识别结果。
基于本发明的另一个方面,一种用于肺部啰音识别的方法,该方法包括以下步骤:
将原始呼吸音信号通过输入模块输入到信号预处理与特征提取模块;
利用信号预处理与特征提取模块对输入的原始呼吸音信号进行预处理后,计算出原始呼吸音信号的特征;
将原始呼吸音信号特征输入神经网络模块,利用输入特征对神经网络模块进行训练,直至神经网络模块的误差值小于T时停止训练,获得训练好的神经网络模块;
待测呼吸音信号依次通过输入模块、信号预处理与特征提取模块和训练好的神经网络模块后,通过输出模块输出识别结果。
本发明的有益效果是:本发明提出了一种用于肺部啰音识别的系统及方法,本发明首先对输入的原始呼吸音信号进行预处理,再根据预处理结果提取原始呼吸音信号的时域和频域特征,将提取出的原始呼吸音信号的时域和频域特征输入神经网络模块获得识别结果。采用本发明方法对原始呼吸音信号进行啰音识别,在测试集上的识别准确率可以达到80%以上。
附图说明
图1是本发明的一种用于肺部啰音识别的方法的流程图;
图2是粗湿啰音经切比雪夫带通滤波器滤波后的频域波形图;
图3是粗湿啰音经切比雪夫带通滤波器滤波后的时域波形图;
图4是切比雪夫带通滤波器的幅频特性曲线图;
图5是切比雪夫带通滤波器的相频特性曲线图;
图6是空间中多个将两类训练样本分开的超平面的示意图;
图中:x1和x2均代表特征;
图7是支持向量与间隔的示意图;
图中:r代表最佳分类面,||·||代表二范数;
图8是对神经网络模块进行测试的结果图。
具体实施方式
具体实施方式一:如图1所示。本实施方式所述的一种用于肺部啰音识别的系统,所述用于肺部啰音识别的系统包括输入模块、信号预处理与特征提取模块、神经网络模块以及输出模块;
所述输入模块用于输入原始呼吸音信号给信号预处理与特征提取模块;
所述信号预处理与特征提取模块用于对原始呼吸音信号进行预处理,并计算原始呼吸音信号的特征;将计算出的特征输入神经网络模块,神经网络模块根据输入特征获得识别结果;
所述输出模块用于输出神经网络模块的识别结果。
本实施方式中,原始呼吸音信号来自采集于志愿者的数据与相关标准数据两部分。
具体实施方式二:本实施方式与具体实施方式一不同的是:所述信号预处理与特征提取模块用于对原始呼吸音信号进行预处理,并计算原始呼吸音信号的特征,所述特征具体包括:
原始呼吸音信号的滤波前过零率、滤波后过零率、滤波前平均能量、滤波后能量占比、滤波前平均幅度、滤波后幅度占比、滤波前功率谱能量密度、滤波后功率谱能量密度、滤波前后频谱能量比和滤波后频谱中最高能量位置索引。
具体实施方式三:本实施方式与具体实施方式二不同的是:所述原始呼吸音信号的滤波前过零率Zn的计算方式为:
Figure BDA0002343351030000031
其中,x(n)是滤波前原始呼吸音信号,n代表时刻,n=1,2,…,L,x(n-1)为x(n)的前一时刻的点,L是滤波前原始呼吸音信号的长度,sgn[·]是符号函数,符号函数的定义为:
Figure BDA0002343351030000032
对原始呼吸音信号x(n)进行滤波,获得滤波后信号x′(n);
所述对原始呼吸音信号x(n)进行滤波采用的是切比雪夫带通滤波器,切比雪夫带通滤波器Ha(jΩ)的表达式为:
Figure BDA0002343351030000033
其中,Ω为原始呼吸音信号的频率,Ωpu为通带上截止频率,Ωpl为通带下截止频率,
Figure BDA0002343351030000034
为中心频率,ε为小于1的正数,表示通带内的波动程度,CN(·)为切比雪夫多项式;
以粗湿啰音为例,如图2和图3所示,为粗湿啰音经切比雪夫多项式滤波后的频域和时域波形图。
绘制切比雪夫带通滤波器示意图,如图4和图5所示:结合啰音信号的性质,在本发明中选取了两大类特征,即时域特征与频域特征,共十个特征来进行学习分析。
滤波后过零率Z′n的计算方式为:
Figure BDA0002343351030000041
其中,x′(n-1)为x′(n)的前一时刻的点。
短时平均过零率指每帧内信号通过零值的次数。它是语音信号时域分析中的一种常用的特征参数,原用于语音信号的端点检测。对有时间横轴的连续语音信号,可以观察到语音的时域波形通过横轴的情况。在离散时间语音信号情况下,如果相邻的采样具有不同的代数符号就称为发生了过零,因此可以计算过零的次数。单位时间内过零的次数就称为过零率。一段长时间内的过零率称为平均过零率。过零率在一定程度上可以反映信号的频率信息。由于本发明中选取的是呼吸音信号,与语音信号不同,因此修改定义为公式(2)。
短时平均过零率原用于语音信号请浊音的判断。如果过零率高,语音信号就是清音,如果过零率低,语音信号就是浊音。清音的频率高,浊音的频率低,在啰音信号中呼吸音的频率分布范围低,啰音则较高,可以提取该特征。
由于含啰音部分与不含啰音的呼吸音存在能量上的差别,啰音信号的能量较呼吸音要高些,因此选用此特征。
具体实施方式四:本实施方式与具体实施方式二不同的是:所述滤波前平均能量和滤波后能量占比的计算过程为:
Figure BDA0002343351030000042
其中:n=1,2,…,L,En为原始呼吸音信号滤波前平均能量;
但由于采样所得的音频信号响度不同,因此先对该帧信号内的能量值归一化,再求取平均能量;
Figure BDA0002343351030000043
其中:x1(n)为x(n)的能量归一化信号,En1为原始呼吸音信号滤波前的归一化平均能量;
在常规的呼吸音信号中不存在啰音,也就是频率范围在100—200Hz之间,在啰音频段不存在信号,将滤波后的归一化平均能量与滤波前的归一化平均能量做比,含有啰音的能量比会高于不含啰音的能量比,可以将其提取为特征,定义如下:
Figure BDA0002343351030000051
Figure BDA0002343351030000052
其中:x2(n)为x1(n)经滤波后获得的信号,En2为滤波后的归一化平均能量,r为滤波后能量占比(即滤波后能量占滤波前能量之比)。
对该帧信号内的幅度绝对值归一化后求和并除以帧长。啰音是叠加在呼吸音上的声音,含有啰音的音频信号在幅值归一化后,所得的短时平均幅度应当大于呼吸音的短时平均幅度,故而选取该特征。
具体实施方式五:本实施方式与具体实施方式二不同的是:所述滤波前平均幅度和滤波后幅度占比的计算过程为:
Figure BDA0002343351030000053
其中:|x(n)|是x(n)的幅度,En′为原始呼吸音信号滤波前平均幅度;
但由于采样所得的音频信号响度不同,因此先对该帧信号内的幅度值归一化,再求取平均幅度,如公式(10)所示:
Figure BDA0002343351030000054
其中:|x1(n)|为x1(n)的幅度,E′n1为原始呼吸音信号滤波前的归一化平均幅度;
在常规的呼吸音信号中不存在啰音,也就是频率范围在100—200Hz之间,在啰音频段不存在信号,将滤波后的归一化平均幅度与滤波前的归一化平均幅度做比,含有啰音的幅度比会高于不含啰音的幅度比,可以将其提取为特征,定义如下:
Figure BDA0002343351030000055
Figure BDA0002343351030000061
其中:x2(n)为x(n)先经过幅度归一化再进行滤波获得的信号,|x2(n)|为x2(n)的幅度,E′n2为滤波后的归一化平均幅度,r′为滤波后幅度占比。
具体实施方式六:本实施方式与具体实施方式二不同的是:所述滤波前功率谱能量密度、滤波后功率谱能量密度以及滤波前后频谱能量比的计算方式为:
Figure BDA0002343351030000062
其中:X(n)为x(n)经过傅里叶变换后的能量归一化信号,E″n为原始呼吸音信号滤波前功率谱能量密度;
与时域特征相似,能量在频域上也可以反映出部分信号的信息,作为特征的选择之一;
Figure BDA0002343351030000063
其中:X1(n)为x1(n)经过傅里叶变换后的能量归一化信号,L1为截取频谱的长度,E″n1为滤波后功率谱能量密度;
标准的呼吸音中不含啰音,所以滤波后的能量低于含啰音的信号,故将其选为特征。
滤波后功率谱能量密度与滤波前功率谱能量密度之比,即滤波前后频谱能量比r″定义为:
Figure BDA0002343351030000064
由于两组平均能量信号长度不同,这里不再除以信号长度,直接将滤波前后的总能量做比,不含啰音的呼吸音,在理论上滤波后的频谱能量占总能量的比例会低于含有啰音的呼吸音。因此选取此特征。
具体实施方式七:本实施方式与具体实施方式二不同的是:所述滤波后频谱中最高能量位置索引的获得方式为:
由呼吸音的频谱来看,滤出的250Hz—500Hz范围下,呼吸音对应的最高能量位置会处在啰音对应的最高能量位置的左侧,可以将其提取为特征。
滤波后频谱中最高能量位置索引f的表达式为:
f=arc max(En2(f)) (16)
其中,En2(f)为滤波后频谱能量。
具体实施方式八:本实施方式与具体实施方式一不同的是:所述神经网络模块采用的是支持向量机。
具体实施方式九:如图1所示。基于具体实施方式一所述的一种用于肺部啰音识别的系统的识别方法,所述识别方法具体包括以下步骤:
将原始呼吸音信号通过输入模块输入到信号预处理与特征提取模块;
利用信号预处理与特征提取模块对输入的原始呼吸音信号进行预处理后,计算出原始呼吸音信号的特征;
将原始呼吸音信号特征输入神经网络模块,利用输入特征对神经网络模块进行训练,直至神经网络模块的误差值小于T时停止训练,获得训练好的神经网络模块;
待测呼吸音信号依次通过输入模块、信号预处理与特征提取模块和训练好的神经网络模块后,通过输出模块输出识别结果。
具体实施方式十:本实施方式与具体实施方式九不同的是:所述计算出原始呼吸音信号的特征,所述特征具体包括:
原始呼吸音信号的滤波前过零率、滤波后过零率、滤波前平均能量、滤波后能量占比、滤波前平均幅度、滤波后幅度占比、滤波前功率谱能量密度、滤波后功率谱能量密度、滤波前后频谱能量比和滤波后频谱中最高能量位置索引。
具体实施方式十一:本实施方式与具体实施方式十不同的是:所述原始呼吸音信号的滤波前过零率Zn的计算方式为:
Figure BDA0002343351030000071
其中,x(n)是滤波前原始呼吸音信号,n代表时刻,n=1,2,…,L,x(n-1)为x(n)的前一时刻的点,L是滤波前原始呼吸音信号的长度,sgn[·]是符号函数,符号函数的定义为:
Figure BDA0002343351030000081
对原始呼吸音信号x(n)进行滤波,获得滤波后信号x′(n);
所述对原始呼吸音信号x(n)进行滤波采用的是切比雪夫带通滤波器,切比雪夫带通滤波器Ha(jΩ)的表达式为:
Figure BDA0002343351030000082
其中,Ω为原始呼吸音信号的频率,Ωpu为通带上截止频率,Ωpl为通带下截止频率,
Figure BDA0002343351030000083
为中心频率,ε为小于1的正数,CN(·)为切比雪夫多项式;
滤波后过零率Zn′的计算方式为:
Figure BDA0002343351030000084
其中,x′(n-1)为x′(n)的前一时刻的点。
具体实施方式十二:本实施方式与具体实施方式十不同的是:所述滤波前平均能量和滤波后能量占比的计算过程为:
Figure BDA0002343351030000085
其中:n=1,2,…,L,En为原始呼吸音信号滤波前平均能量;
Figure BDA0002343351030000086
其中:x1(n)为x(n)的能量归一化信号,En1为原始呼吸音信号滤波前的归一化平均能量;
Figure BDA0002343351030000087
Figure BDA0002343351030000091
其中:x2(n)为x1(n)经滤波后获得的信号,En2为滤波后的归一化平均能量,r为滤波后能量占比。
具体实施方式十三:本实施方式与具体实施方式十不同的是:所述滤波前平均幅度和滤波后幅度占比的计算过程为:
Figure BDA0002343351030000092
其中:|x(n)|是x(n)的幅度,E′n为原始呼吸音信号滤波前平均幅度;
Figure BDA0002343351030000093
其中:|x1(n)|为x1(n)的幅度,E′n1为原始呼吸音信号滤波前的归一化平均幅度;
Figure BDA0002343351030000094
Figure BDA0002343351030000095
其中:x2(n)为x(n)先经过幅度归一化再进行滤波获得的信号,|x2(n)|为x2(n)的幅度,E′n2为滤波后的归一化平均幅度,r′为滤波后幅度占比。
具体实施方式十四:本实施方式与具体实施方式十不同的是:所述滤波前功率谱能量密度、滤波后功率谱能量密度以及滤波前后频谱能量比的计算方式为:
Figure BDA0002343351030000096
其中:X(n)为x(n)经过傅里叶变换后的能量归一化信号,E″n为原始呼吸音信号滤波前功率谱能量密度;
Figure BDA0002343351030000101
其中:X1(n)为x1(n)经过傅里叶变换后的能量归一化信号,L1为截取频谱的长度,E″n1为滤波后功率谱能量密度;
滤波前后频谱能量比r″定义为:
Figure BDA0002343351030000102
具体实施方式十五:本实施方式与具体实施方式十不同的是:所述滤波后频谱中最高能量位置索引的获得方式为:
滤波后频谱中最高能量位置索引f的表达式为:
f=arc max(En2(f)) (16)
其中,En2(f)为滤波后频谱能量。
具体实施方式十六:本实施方式与具体实施方式十不同的是:所述神经网络模块采用的是支持向量机。
具体实施方式十七:本实施方式与具体实施方式十不同的是:所述直至神经网络模块的误差值小于T时停止训练,T的取值为0.001。
表1显示了有无啰音情况下的信号特征数值对比。
表1
Figure BDA0002343351030000103
Figure BDA0002343351030000111
将全部数据的三分之二作为训练集投入神经网络进行训练,剩余部分作为测试集进行测试。每个数据会根据有无啰音存在被加上0或1的标签,投入网络时,保证训练集与测试集中含0标签的数据与含1标签数据比大致相等,即同源同分布状态,观察分类结果。
图1中的神经网络为支持向量机(SVM),它针对二分类的问题具有非常好的效果。这个模型以线性函数ωTx+b=0为基础,但与传统逻辑回归不同,支持向量机的输出参数不是概率,而是编码后的类别。类别取决于ωTx+b的正负,将正编码为1,负编码为0。则当ωTx+b为正时,支持向量机的预测输出为1类;当ωTx+b为负时,其预测输出为0类。
如图6所示,高维空间中存在众多超平面,需要寻找一个合适的超平面将训练样本划分开。很多超平面都可以实现对样本的分类,但应该寻找划分得最好的一个,如图6中加粗部分。该划分超平面距离两类样本的距离类似,距离都较大,对训练样本局部扰动的适应性最好。这个划分超平面所产生的分类结果是最鲁棒的,对未见实例的泛化能力最强。
在样本空间中,划分超平面使用高维线性方程ωTx+b=0来描述,其中ω=(ω1;ω2;...;ωd)为法向量,决定了超平面的方向;b为位移项,决定了超平面与原点之间的距离。显然划分超平面可被法向量ω和位移b确定,将此超平面写为(ω,b)。样本空间任意点x到超平面(ω,b)的距离可写为
Figure BDA0002343351030000112
假设超平面(ω,b)能将训练样本正确分类,设D为训练样本集,则对于(xi,yi)∈D,若yi=+1,则有ωTxi+b>0;若yi=-1,则有ωTxi+b<0。令
Figure BDA0002343351030000113
不等式的成立取决于训练样本点的选取,而距离超平面较近的样本点使等式成立,如图7所示。这些样本被称为“支持向量”,两个异类支持向量到超平面的距离之和为
Figure BDA0002343351030000121
它被称为“间隔”。
欲找到最大间隔的划分超平面,也就是要找到能满足公式(18)中约束的参数ω和b,使得γ最大,即
Figure BDA0002343351030000122
由公式(20)可知,最大化间隔要求最大化||ω||-1,也可以理解为最小化||ω||2。于是,公式(20)可重写为
Figure BDA0002343351030000123
这就是支持向量机的基本型。
支持向量机引入核函数,使其在基础逻辑回归的基础上得到了重要的创新。核技巧利用样本间点积的形式对机器学习算法进行改写。例如支持向量机中的线性函数可以重写为
Figure BDA0002343351030000124
其中,x(i)是训练样本,α是系数向量。学习算法重写为这种形式允许将x替换为特征函数φ(x)的输出,点积替换为被称为核函数的函数k(x,x(i))=φ(x)·φ(x(i))。运算符·表示类似于φ(x)Tφ(x(i))的点积。
使用核估计替换点积之后,可以用如下函数进行预测
Figure BDA0002343351030000125
这个函数关于x是非线性的,关于φ(x)是线性的。α和f(x)之间的关系也是线性的。核函数完全等价于用φ(x)预处理所有的输入,然后在新的转换空间学习线性模型。
最常用的核函数是高斯核,
k(u,v)=N(u-v;0,σ2I) (24)
其中N(x;μ,∑)是标准正态密度。这个核也被称为径向基函数核,因为其值沿v中从u向外辐射的方向减小。
图8展现了在总数据量为264时,进行同源同分布的训练与测试的结果。
本方法所用数据都是在相对安静的条件下采集的,所以正确率较高,欲将其应用,还需要进一步的处理和调试。
本发明的上述算例仅为详细地说明本发明的计算模型和计算流程,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本发明的技术方案所引伸出的显而易见的变化或变动仍处于本发明的保护范围之列。

Claims (17)

1.一种用于肺部啰音识别的系统,其特征在于,所述用于肺部啰音识别的系统包括输入模块、信号预处理与特征提取模块、神经网络模块以及输出模块;
所述输入模块用于输入原始呼吸音信号给信号预处理与特征提取模块;
所述信号预处理与特征提取模块用于对原始呼吸音信号进行预处理,并计算原始呼吸音信号的特征;将计算出的特征输入神经网络模块,神经网络模块根据输入特征获得识别结果;
所述输出模块用于输出神经网络模块的识别结果。
2.根据权利要求1所述的一种用于肺部啰音识别的系统,其特征在于,所述信号预处理与特征提取模块用于对原始呼吸音信号进行预处理,并计算原始呼吸音信号的特征,所述特征具体包括:
原始呼吸音信号的滤波前过零率、滤波后过零率、滤波前平均能量、滤波后能量占比、滤波前平均幅度、滤波后幅度占比、滤波前功率谱能量密度、滤波后功率谱能量密度、滤波前后频谱能量比和滤波后频谱中最高能量位置索引。
3.根据权利要求2所述的一种用于肺部啰音识别的系统,其特征在于,所述原始呼吸音信号的滤波前过零率Zn的计算方式为:
Figure FDA0002343351020000011
其中,x(n)是滤波前原始呼吸音信号,n代表时刻,n=1,2,…,L,x(n-1)为x(n)的前一时刻的点,L是滤波前原始呼吸音信号的长度,sgn[·]是符号函数,符号函数的定义为:
Figure FDA0002343351020000012
对原始呼吸音信号x(n)进行滤波,获得滤波后信号x′(n);
所述对原始呼吸音信号x(n)进行滤波采用的是切比雪夫带通滤波器,切比雪夫带通滤波器Ha(jΩ)的表达式为:
Figure FDA0002343351020000013
其中,Ω为原始呼吸音信号的频率,Ωpu为通带上截止频率,Ωpl为通带下截止频率,
Figure FDA0002343351020000021
为中心频率,ε为小于1的正数,CN(·)为切比雪夫多项式;
滤波后过零率Z′n的计算方式为:
Figure FDA0002343351020000022
其中,x′(n-1)为x′(n)的前一时刻的点。
4.根据权利要求2所述的一种用于肺部啰音识别的系统,其特征在于,所述滤波前平均能量和滤波后能量占比的计算过程为:
Figure FDA0002343351020000023
其中:n=1,2,…,L,En为原始呼吸音信号滤波前平均能量;
Figure FDA0002343351020000024
其中:x1(n)为x(n)的能量归一化信号,En1为原始呼吸音信号滤波前的归一化平均能量;
Figure FDA0002343351020000025
Figure FDA0002343351020000026
其中:x2(n)为x1(n)经滤波后获得的信号,En2为滤波后的归一化平均能量,r为滤波后能量占比。
5.根据权利要求2所述的一种用于肺部啰音识别的系统,其特征在于,所述滤波前平均幅度和滤波后幅度占比的计算过程为:
Figure FDA0002343351020000027
其中:|x(n)|是x(n)的幅度,En′为原始呼吸音信号滤波前平均幅度;
Figure FDA0002343351020000031
其中:|x1(n)|为x1(n)的幅度,E′n1为原始呼吸音信号滤波前的归一化平均幅度;
Figure FDA0002343351020000032
Figure FDA0002343351020000033
其中:x2(n)为x(n)先经过幅度归一化再进行滤波获得的信号,|x2(n)|为x2(n)的幅度,E′n2为滤波后的归一化平均幅度,r′为滤波后幅度占比。
6.根据权利要求2所述的一种用于肺部啰音识别的系统,其特征在于,所述滤波前功率谱能量密度、滤波后功率谱能量密度以及滤波前后频谱能量比的计算方式为:
Figure FDA0002343351020000034
其中:X(n)为x(n)经过傅里叶变换后的能量归一化信号,En″为原始呼吸音信号滤波前功率谱能量密度;
Figure FDA0002343351020000035
其中:X1(n)为x1(n)经过傅里叶变换后的能量归一化信号,L1为截取频谱的长度,En1为滤波后功率谱能量密度;
滤波前后频谱能量比r″定义为:
Figure FDA0002343351020000036
7.根据权利要求2所述的一种用于肺部啰音识别的系统,其特征在于,所述滤波后频谱中最高能量位置索引的获得方式为:
滤波后频谱中最高能量位置索引f的表达式为:
f=arc max(En2(f)) (16)
其中,En2(f)为滤波后频谱能量。
8.根据权利要求1所述的一种用于肺部啰音识别的系统,其特征在于,所述神经网络模块采用的是支持向量机。
9.基于权利要求1所述的一种用于肺部啰音识别的系统的识别方法,其特征在于,所述识别方法具体包括以下步骤:
将原始呼吸音信号通过输入模块输入到信号预处理与特征提取模块;
利用信号预处理与特征提取模块对输入的原始呼吸音信号进行预处理后,计算出原始呼吸音信号的特征;
将原始呼吸音信号特征输入神经网络模块,利用输入特征对神经网络模块进行训练,直至神经网络模块的误差值小于T时停止训练,获得训练好的神经网络模块;
待测呼吸音信号依次通过输入模块、信号预处理与特征提取模块和训练好的神经网络模块后,通过输出模块输出识别结果。
10.根据权利要求9所述的一种用于肺部啰音识别的系统的识别方法,其特征在于,所述计算出原始呼吸音信号的特征,所述特征具体包括:
原始呼吸音信号的滤波前过零率、滤波后过零率、滤波前平均能量、滤波后能量占比、滤波前平均幅度、滤波后幅度占比、滤波前功率谱能量密度、滤波后功率谱能量密度、滤波前后频谱能量比和滤波后频谱中最高能量位置索引。
11.根据权利要求10所述的一种用于肺部啰音识别的系统的识别方法,其特征在于,所述原始呼吸音信号的滤波前过零率Zn的计算方式为:
Figure FDA0002343351020000041
其中,x(n)是滤波前原始呼吸音信号,n代表时刻,n=1,2,…,L,x(n-1)为x(n)的前一时刻的点,L是滤波前原始呼吸音信号的长度,sgn[·]是符号函数,符号函数的定义为:
Figure FDA0002343351020000042
对原始呼吸音信号x(n)进行滤波,获得滤波后信号x′(n);
所述对原始呼吸音信号x(n)进行滤波采用的是切比雪夫带通滤波器,切比雪夫带通滤波器Ha(jΩ)的表达式为:
Figure FDA0002343351020000051
其中,Ω为原始呼吸音信号的频率,Ωpu为通带上截止频率,Ωpl为通带下截止频率,
Figure FDA0002343351020000052
为中心频率,ε为小于1的正数,CN(·)为切比雪夫多项式;
滤波后过零率Zn′的计算方式为:
Figure FDA0002343351020000053
其中,x′(n-1)为x′(n)的前一时刻的点。
12.根据权利要求10所述的一种用于肺部啰音识别的系统的识别方法,其特征在于,所述滤波前平均能量和滤波后能量占比的计算过程为:
Figure FDA0002343351020000054
其中:n=1,2,…,L,En为原始呼吸音信号滤波前平均能量;
Figure FDA0002343351020000055
其中:x1(n)为x(n)的能量归一化信号,En1为原始呼吸音信号滤波前的归一化平均能量;
Figure FDA0002343351020000056
Figure FDA0002343351020000057
其中:x2(n)为x1(n)经滤波后获得的信号,En2为滤波后的归一化平均能量,r为滤波后能量占比。
13.根据权利要求10所述的一种用于肺部啰音识别的系统的识别方法,其特征在于,所述滤波前平均幅度和滤波后幅度占比的计算过程为:
Figure FDA0002343351020000061
其中:|x(n)|是x(n)的幅度,E′n为原始呼吸音信号滤波前平均幅度;
Figure FDA0002343351020000062
其中:|x1(n)|为x1(n)的幅度,E′n1为原始呼吸音信号滤波前的归一化平均幅度;
Figure FDA0002343351020000063
Figure FDA0002343351020000064
其中:x2(n)为x(n)先经过幅度归一化再进行滤波获得的信号,|x2(n)|为x2(n)的幅度,E′n2为滤波后的归一化平均幅度,r′为滤波后幅度占比。
14.根据权利要求10所述的一种用于肺部啰音识别的系统的识别方法,其特征在于,所述滤波前功率谱能量密度、滤波后功率谱能量密度以及滤波前后频谱能量比的计算方式为:
Figure FDA0002343351020000065
其中:X(n)为x(n)经过傅里叶变换后的能量归一化信号,E″n为原始呼吸音信号滤波前功率谱能量密度;
Figure FDA0002343351020000066
其中:X1(n)为x1(n)经过傅里叶变换后的能量归一化信号,L1为截取频谱的长度,En1为滤波后功率谱能量密度;
滤波前后频谱能量比r″定义为:
Figure FDA0002343351020000071
15.根据权利要求10所述的一种用于肺部啰音识别的系统的识别方法,其特征在于,所述滤波后频谱中最高能量位置索引的获得方式为:
滤波后频谱中最高能量位置索引f的表达式为:
f=arc max(En2(f)) (16)
其中,En2(f)为滤波后频谱能量。
16.根据权利要求10所述的一种用于肺部啰音识别的系统的识别方法,其特征在于,所述神经网络模块采用的是支持向量机。
17.根据权利要求10所述的一种用于肺部啰音识别的系统的识别方法,其特征在于,所述直至神经网络模块的误差值小于T时停止训练,T的取值为0.001。
CN201911385046.9A 2019-12-28 2019-12-28 一种用于肺部啰音识别的系统及方法 Pending CN111009263A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911385046.9A CN111009263A (zh) 2019-12-28 2019-12-28 一种用于肺部啰音识别的系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911385046.9A CN111009263A (zh) 2019-12-28 2019-12-28 一种用于肺部啰音识别的系统及方法

Publications (1)

Publication Number Publication Date
CN111009263A true CN111009263A (zh) 2020-04-14

Family

ID=70118008

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911385046.9A Pending CN111009263A (zh) 2019-12-28 2019-12-28 一种用于肺部啰音识别的系统及方法

Country Status (1)

Country Link
CN (1) CN111009263A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668556A (zh) * 2021-01-21 2021-04-16 广州联智信息科技有限公司 一种呼吸音识别方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102525477A (zh) * 2010-12-08 2012-07-04 索尼公司 呼吸状态分析设备、呼吸状态显示设备及其处理方法
CN104321015A (zh) * 2012-03-29 2015-01-28 昆士兰大学 用于处理患者声音的方法与装置
CN104538041A (zh) * 2014-12-11 2015-04-22 深圳市智美达科技有限公司 异常声音检测方法及系统
CN109273085A (zh) * 2018-11-23 2019-01-25 南京清科信息科技有限公司 病理呼吸音库的建立方法、呼吸疾病的检测系统及处理呼吸音的方法
CN109394258A (zh) * 2018-09-18 2019-03-01 平安科技(深圳)有限公司 一种肺部呼吸音的分类方法、装置及终端设备
CN110473563A (zh) * 2019-08-19 2019-11-19 山东省计算中心(国家超级计算济南中心) 基于时频特征的呼吸声检测方法、系统、设备及介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102525477A (zh) * 2010-12-08 2012-07-04 索尼公司 呼吸状态分析设备、呼吸状态显示设备及其处理方法
CN104321015A (zh) * 2012-03-29 2015-01-28 昆士兰大学 用于处理患者声音的方法与装置
CN104538041A (zh) * 2014-12-11 2015-04-22 深圳市智美达科技有限公司 异常声音检测方法及系统
CN109394258A (zh) * 2018-09-18 2019-03-01 平安科技(深圳)有限公司 一种肺部呼吸音的分类方法、装置及终端设备
CN109273085A (zh) * 2018-11-23 2019-01-25 南京清科信息科技有限公司 病理呼吸音库的建立方法、呼吸疾病的检测系统及处理呼吸音的方法
CN110473563A (zh) * 2019-08-19 2019-11-19 山东省计算中心(国家超级计算济南中心) 基于时频特征的呼吸声检测方法、系统、设备及介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘国栋等: "基于SVM方法的神经网络呼吸音识别算法" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668556A (zh) * 2021-01-21 2021-04-16 广州联智信息科技有限公司 一种呼吸音识别方法及系统
CN112668556B (zh) * 2021-01-21 2024-06-07 广东白云学院 一种呼吸音识别方法及系统

Similar Documents

Publication Publication Date Title
CN109034046B (zh) 一种基于声学检测的电能表内异物自动识别方法
KR101269296B1 (ko) 모노포닉 오디오 신호로부터 오디오 소스를 분리하는 뉴럴네트워크 분류기
EP2633524B1 (en) Method, apparatus and machine-readable storage medium for decomposing a multichannel audio signal
Kinnunen et al. Voice activity detection using MFCC features and support vector machine
CN110570880B (zh) 一种鼾声信号识别方法
US9454976B2 (en) Efficient discrimination of voiced and unvoiced sounds
CN110197665B (zh) 一种用于公安刑侦监听的语音分离与跟踪方法
CN102982804A (zh) 音频分类方法和系统
EP1569200A1 (en) Identification of the presence of speech in digital audio data
WO1998027543A2 (en) Multi-feature speech/music discrimination system
CN104795064A (zh) 低信噪比声场景下声音事件的识别方法
Vyas A Gaussian mixture model based speech recognition system using Matlab
US20180277146A1 (en) System and method for anhedonia measurement using acoustic and contextual cues
CN110782915A (zh) 一种基于深度学习的波形音乐成分分离方法
CN111508517A (zh) 一种基于噪声特征的微电机智能品控方法
Wiśniewski et al. Automatic detection of disorders in a continuous speech with the hidden Markov models approach
Labied et al. An overview of automatic speech recognition preprocessing techniques
CN111009263A (zh) 一种用于肺部啰音识别的系统及方法
Dziubinski et al. Estimation of musical sound separation algorithm effectiveness employing neural networks
Wielgat et al. On using prefiltration in HMM-based bird species recognition
Wiśniewski et al. Automatic detection of prolonged fricative phonemes with the hidden Markov models approach
Sorokin et al. Gender recognition from vocal source
Dov et al. Voice activity detection in presence of transients using the scattering transform
Reddy et al. Predominant melody extraction from vocal polyphonic music signal by combined spectro-temporal method
Khonglah et al. Low frequency region of vocal tract information for speech/music classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination