CN113796889A - 一种基于深度学习的辅助电子听诊器信号判别方法 - Google Patents
一种基于深度学习的辅助电子听诊器信号判别方法 Download PDFInfo
- Publication number
- CN113796889A CN113796889A CN202111003116.7A CN202111003116A CN113796889A CN 113796889 A CN113796889 A CN 113796889A CN 202111003116 A CN202111003116 A CN 202111003116A CN 113796889 A CN113796889 A CN 113796889A
- Authority
- CN
- China
- Prior art keywords
- heart sound
- signal
- frame
- layer
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 13
- 238000012850 discrimination method Methods 0.000 title description 4
- 210000002216 heart Anatomy 0.000 claims abstract description 79
- 230000005236 sound signal Effects 0.000 claims abstract description 61
- 238000000034 method Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 14
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 13
- 230000011218 segmentation Effects 0.000 claims abstract description 9
- 230000000694 effects Effects 0.000 claims abstract description 7
- 238000001914 filtration Methods 0.000 claims abstract description 5
- 230000009466 transformation Effects 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 23
- 238000001228 spectrum Methods 0.000 claims description 21
- 238000013527 convolutional neural network Methods 0.000 claims description 16
- 238000000354 decomposition reaction Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 13
- 238000011176 pooling Methods 0.000 claims description 11
- 238000013139 quantization Methods 0.000 claims description 9
- 230000009467 reduction Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000003595 spectral effect Effects 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 230000008030 elimination Effects 0.000 claims description 3
- 238000003379 elimination reaction Methods 0.000 claims description 3
- 238000009432 framing Methods 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 2
- 238000003745 diagnosis Methods 0.000 abstract description 5
- 238000013528 artificial neural network Methods 0.000 abstract description 4
- 201000010099 disease Diseases 0.000 abstract description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 abstract description 3
- 238000010606 normalization Methods 0.000 description 5
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010247 heart contraction Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B7/00—Instruments for auscultation
- A61B7/02—Stethoscopes
- A61B7/04—Electric stethoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Acoustics & Sound (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Physiology (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Psychiatry (AREA)
- Mathematical Physics (AREA)
- Epidemiology (AREA)
- Fuzzy Systems (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Abstract
一种基于深度学习的辅助电子听诊器信号判别方法,基于心脏跳动复杂的声音信号,利用小波变换滤除无用的声音信号,将心脏跳动信号的心音进行杂音滤除处理,基于心脏跳动周期的各个阶段具有不同的特征,通过将心音信号进行分段处理,提取相对应的声学特征,并通过人工神经网络算法进行处理,实现判断心音信号正常与否,辅助医生判断患者的疾病,实现更好的去噪效果,精确度更高,鲁棒性更好;与传统电子听诊器相比,本发明对心音信号处理更精细,获得更具体完整的结果,同时可以辅助医生进行诊断,在未来远程医疗诊断进一步发展后,本发明的优势将会进一步凸显。
Description
技术领域
本发明属于医疗信息处理技术领域,特别涉及一种基于深度学习的辅助电子听诊器信号判别方法。
背景技术
现代医学即始于听诊器的发明,听诊器主要用于收集和放大从心脏、肺部、动脉、静脉和其他内脏器官处发出的声音。传统听诊器自从1817年3月8日应用于临床以来,外形及传音方式有不断的改进,但其基本结构变化不大,主要由拾音部分,传导部分及听音部分组成。
电子听诊器是利用电子技术放大身体的声音,克服了声学听诊器噪音高的缺点。电子听诊器可将需要转换的声音的声波电信号,进行放大和处理,以获得最佳聆听。但和传统的声学听诊器相比,它们都是基于相同的物理原理,普通电子听诊器只是将人体的声音提取优化,使医生能够更好的聆听人体内的声音。但是,对于获取的声音信号完全需要由医生来做出判断,本质上和普通听诊器没有不同,都是完全依赖于医生的经验与医学知识来进行诊断,起不到很好的辅助作用。
发明内容
为了克服上述现有技术的缺陷,本发明的目的在于提供一种基于深度学习的辅助电子听诊器信号判别方法,基于心脏跳动复杂的声音信号,利用小波变换滤除无用的声音信号,通过将心音信号进行分段处理,提取相对应的声学特征,并通过人工神经网络算法进行处理,实现判断心音信号正常与否,辅助医生判断患者的疾病,实现更好的去噪效果,精确度更高,鲁棒性更好。
为了达到上述目的,本发明的技术方案为:
一种基于深度学习的辅助电子听诊器信号判别方法,包括以下步骤:
步骤1:利用小波变换滤除心音信号的杂音
步骤1.1:心音信号的小波分解
采集心音信号,利用小波分析算法,若原信号s(t)=A0,k,则其分解算法为:
其中,t为离散时间序列号,t=1,2,3....,N;j为层数,j=1,2,3,...,J,J=log2N;H,G分别为小波低通滤波器和带通滤波器系数,Aj,k和Dj,k分别为信号s(t)在第j层的低频部分和高频部分的小波系数;
步骤1.2:小波分解高频系数的阈值量化;对每一层高频系数进行阈值量化处理,采用阈值函数:
其中,λ1为下阈值;λ2为上阈值,定义上阈值λ2=(a+1)λ1,0≤a<1;
步骤1.3:小波的重构;对小波分解后的第J层低频系数和经过阈值量化处理后的第1层到第J层的高频系数进行重构,得到消噪后的信号,重构算法为:
步骤2:利用HMM进行心音信号切分
心音信号状态定义为S={S1,S2,...SN},定义连续序列为Q,各个状态所处的时间为qt,定义序列的观察特征O={O1,O2,O3,...Ot},其中O可以是单个特征也可以是多个特征;
定义状态转换矩阵A={aij}为时间从t到t+1状态从i到j的概率:
aij=(qt+1=Sj|qt=Si)
观察概率密度分布B={bj(Ot)}定义为状态j生成输出Ot的概率,假设高斯分布估计每个状态的输出的概率密度:
初始状态分布定义为π={πi},其中:
πi=P(q1=Si)
由于记录的时刻在心脏周期中的任何时间发生,因此初始状态分布等于状态分布:
πi=P(q1=Si)=P(qt=Si)
在应用HMM之前将估计的参数称为λ:
λ={aij,μj,∑j,πi}
与当前状态序列最怕匹配的序列Q*为:
在时间为qt下,状态为j的概率δt(j):
δt(j)≈P(O1,O2,...,Ot,qt=Sj|λ)
通过之前的状态i最大化概率:
通过初始状态分布初始化:
δ1(j)=πjbj(O1)
为了能够追踪最佳的路径,最大化的参数存储在ψt中
步骤3:提取并预处理心音信号的特征;
步骤3.1:提取梅尔频率倒谱系数MFCC
(1)、对输入的心音信号进行预处理。通过一个高通滤波器:H(Z)=1-μz-1预加重信号,然后在进行分帧,使每帧信号在20~30ms,为了保证帧两端的连续性,将每一帧代入汉明函数,假设分帧后的信号为S(n),n=0,1...,N-1,N为帧的大小,乘上汉明窗后,W(n)的形式为:
(2)、每帧信号乘上汉明窗后,再经过快速傅里叶变换以得到在频谱上的能量分布,对分帧加窗后的各帧信号进行快速傅里叶变换得到各帧的频谱,并对语音信号的频谱取模平方得到语音信号的功率谱,设语音信号的DFT为:
其中x(n)为输入的语音信号,N表示傅里叶变换的点数。
(3)、将能量谱通过一组Mel尺度的三角形滤波器组,定义一个有M个滤波器的滤波器组,采用的滤波器为三角滤波器,中心频率为f(m),M取22-26,各f(m)之间的间隔随着m值的减小而缩小,随着m值的增大而增宽,
三角滤波器的频率响应定义为:
(4)、计算每个滤波器组输出的对数能量为:
(5)、经离散余弦变换(DCT)得到MFCC系数:
将上述的对数能量带入离散余弦变换,求出L阶的Mel参数,L阶指MFCC系数阶数,取值12-16,这里M是三角滤波器个数;
步骤3.2:提取光谱质心;谱质心被定义为频谱的重心,设第i帧的谱质心为Ci,则:
其中Xi(k),k=1,…,N是第i帧的离散傅里叶变化,N为帧长度。
步骤3.3:提取短时过零率,短时平均过零率表示一帧语音中语音信号波形穿过横轴的次数,其计算公式为:
其中sgn[x]为符号函数:
步骤3.4:提取短时能量特征;设xi(n),n=1,…,N是第i帧信号长度为N,通过以下公式计算该帧的能量:
步骤3.5:将获得的心音信号特征进行归一化处理。
是对原始数据的线性变换,使结果值映射到[0,1]之间,转换函数如下:
步骤4:将预处理过后的心音特征送入卷积神经网络CNN进行训练
卷积神经网络基本结构包含了输入层、卷积层、池化层、全连接层和输出层;
首先,将上述步骤1、2、3后获得的心音信号特征送入卷积层,输出矩阵的高度和宽度这两个维度的尺寸由输入矩阵、卷积核、扫描步长所共同决定,计算公式如下。
其中heightkernel和widthkernel为卷积核的高度与宽度,padding为矩阵填充的大小,stride为卷积核的扫描步长;
其次,将卷积后的特征矩阵再送入池化层,将高维的特征矩阵转化为低维。可以重复使用卷积层与池化层,对高维特征降维;
最后,将经过降维的特征矩阵输送入全连接层,得到输出结果,再将输出结果与训练数据相比较,优化卷积神经网络参数,得到一个预测效果好的预测模型;当预测模型创建好后,即可将采集的心音信号,按照步骤1、2、3获得心音信号特征,再将其送入预测模型之中,即可获得预测结果。
与现有技术相比,本发明至少具有以下有益的技术效果:
(1)采用基于深度学习的方法对人体的心脏跳动信号是否正常进行判别。考虑到真实的人体心脏跳动会产生的多种杂音,本发明将心脏跳动信号的心音进行杂音滤除处理,基于心脏跳动周期的各个阶段具有不同的特征,通过HMM,CNN等方法将心脏每次跳动的信号提取出来并分段处理。
(3)在心音信号的一个周期中,不同的时期具有不同的信号特征,利用心音分段方法将这些具有不同的特征信号分离出来,采用相对应的处理方法。然后采用人工神经网络等深度学习方法,将这些信号特征进行聚合比对分析处理,最终获得判断结果,辅助医生对患者进行诊断。与传统电子听诊器相比,本发明对心音信号处理更精细,获得更具体完整的结果,同时可以辅助医生进行诊断,在未来远程医疗诊断进一步发展后,本发明的优势将会进一步凸显。
附图说明
图1是心音分段示意图。
图2是三角滤波器示意图。
图3是卷积神经网络基本结构图。
具体实施方式
为了使本发明的目的和技术方案更加清晰和便于理解,以下结合附图和实施例,对本发明进行进一步的详细说明,此处所描述的具体实施例仅用于解释本发明,并非用于限定本发明。
对于采集的心音信号,由于存在许多杂音,首先通过滤波器进行杂音过滤。将具有不同特征的心音信号进行分段,设计出基于人工神经网络的计算算法,利用其所具有的学习能力,学习判别正常与不正常心音信号所具有的不同特征。使其最终具有判别心音信号正常与否的能力,辅助医生判别患者疾病。
一种基于深度学习的辅助电子听诊器信号判别方法,包括以下步骤:
步骤1:利用小波变换滤除心音信号的杂音
由于心脏是一个非线性的、时变的复杂系统,因此心音信号具有很强的非平稳性和随机性。心音信号又是一种具有周期性的时变信号,主要信息集中于0-600Hz,其中第一心音和第二心音是心音信号最主要的部分。第一心音主要集中在0-250Hz。第二心音主要集中在50-200Hz内,并在250-300Hz内出现另一个小峰值。第一心音第二心音具有明显的开始与终止特征。
步骤1.1:心音信号的小波分解
采集心音信号,利用小波分析算法,若原信号s(t)=A0,k,则其分解算法为:
其中,t为离散时间序列号,t=1,2,3....,N;j为层数,j=1,2,3,...,J,J=log2N;H,G分别为小波低通滤波器和带通滤波器系数,Aj,k和Dj,k分别为信号s(t)在第j层的低频部分和高频部分的小波系数。
步骤1.2:小波分解高频系数的阈值量化;由于信号经小波分解后,其有用信息主要集中在低频部分,而噪声主要集中在高频部分,故仅对每一层高频系数进行阈值量化处理,采用阈值函数:
其中,λ1为下阈值;λ2为上阈值。为了使阈值函数更具适应性,定义上阈值λ2=(a+1)λ1,0≤a<1,这样就可以根据某一类具体被分析信号的特征来灵活选择a和m的值,从而获得更好的降噪效果。
步骤1.3:小波的重构;对小波分解后的第J层低频系数和经过阈值量化处理后的第1层到第J层的高频系数进行重构,得到消噪后的信号,重构算法为:
步骤2:利用HMM进行心音信号切分
心音信号如图1所示,可以分为四个部分:S1,siSys,S2和siDia。
我们将可能存在的心音信号状态定义为S={S1,S2,...SN},在心音信号情形中N=4,定义连续序列为Q,各个状态所处的时间为qt,定义序列的观察特征O={O1,O2,O3,...Ot},其中O可以是单个特征也可以是多个特征;
定义状态转换矩阵A={aij}为时间从t到t+1状态从i到j的概率
aij=(qt+1=Sj|qt=Si)
观察概率密度分布B={bj(Ot)}定义为状态j生成输出Ot的概率,假设高斯分布估计每个状态的输出的概率密度:
初始状态分布定义为π={πi},其中:
πi=P(q1=Si)
由于记录的时刻可以在心脏周期中的任何时间发生,因此初始状态分布等于状态分布:
πi=P(q1=Si)=P(qt=Si)
在应用HMM之前,将估计的参数称为λ:
λ={aij,μj,∑j,πi}
与当前状态序列最怕匹配的序列Q*为:
在时间为qt下,状态为j的概率δt(j):
δt(j)≈P(O1,O2,...,Ot,qt=Sj|λ)
通过之前的状态i最大化概率:
通过初始状态分布初始化:
δ1(j)=πjbj(O1)
为了能够追踪最佳的路径,最大化的参数存储在ψt中
步骤3:提取并预处理心音信号的特征;
步骤3.1:提取梅尔频率倒谱系数(Mel-Frequency Ceptral Coefficients,MFCC)。
(1)、对输入的心音信号进行预处理。通过一个高通滤波器:H(Z)=1-μz-1预加重信号,然后在进行分帧,使每帧信号在20~30ms,为了保证帧两端的连续性,将每一帧代入汉明函数,假设分帧后的信号为S(n),n=0,1...,N-1,N为帧的大小,乘上汉明窗后,W(n)的形式为:
(2)、每帧信号乘上汉明窗后,再经过快速傅里叶变换以得到在频谱上的能量分布,对分帧加窗后的各帧信号进行快速傅里叶变换得到各帧的频谱,并对语音信号的频谱取模平方得到语音信号的功率谱,设语音信号的DFT为:
其中x(n)为输入的语音信号,N表示傅里叶变换的点数。
(3)、将能量谱通过一组Mel尺度的三角形滤波器组,定义一个有M个滤波器的滤波器组(滤波器的个数和临界带的个数相近),采用的滤波器为三角滤波器,中心频率为f(m),M通常取22-26,各f(m)之间的间隔随着m值的减小而缩小,随着m值的增大而增宽,如图2所示:
三角滤波器的频率响应定义为:
(4)、计算每个滤波器组输出的对数能量为:
(5)、经离散余弦变换(DCT)得到MFCC系数:
将上述的对数能量带入离散余弦变换,求出L阶的Mel参数,L阶指MFCC系数阶数,通常取值12-16,这里M是三角滤波器个数;
步骤3.2:提取光谱质心;谱质心被定义为频谱的重心,设第i帧的谱质心为Ci,则:
其中Xi(k),k=1,…,N是第i帧的离散傅里叶变化,N为帧长度。
步骤3.3:提取短时过零率,短时平均过零率表示一帧语音中语音信号波形穿过横轴(零电平)的次数,其计算公式为:
其中sgn[x]为符号函数:
步骤3.4:提取短时能量特征;设xi(n),n=1,…,N是第i帧信号长度为N,通过以下公式计算该帧的能量:
步骤3.5:将获得的心音信号特征进行归一化处理。
由于所提取的心音信号特征存在着数值差异较大,故将特征进行归一化处理,减少运算时间。min-max标准化(Min-Max Normalization),也称为离差标准化,是对原始数据的线性变换,使结果值映射到[0,1]之间,转换函数如下:
步骤4:将预处理过后的心音特征送入卷积神经网络(Convolutional NeuralNetwork,CNN)进行训练。
卷积神经网络基本结构如图3所示,主要包含了输入层、卷积层、池化层、全连接层和输出层。
首先,将众多的带有标签的心音信号通过上述步骤1、2、3后获得的心音信号特征矩阵送入卷积层,输出矩阵的高度和宽度(height,width)这两个维度的尺寸由输入矩阵、卷积核、扫描步长所共同决定,计算公式如下。
其中heightkernel和widthkernel为卷积核的高度与宽度,padding为矩阵填充的大小,stride为卷积核的扫描步长。
其次,将卷积后的特征矩阵再送入池化层,池化层的计算过程与卷积层相类似。通过卷积层与池化层可以实现将高维的特征矩阵转化为低维。可以重复使用卷积层与池化层,对高维特征进行降维。
最后,将经过降维的特征矩阵输送入全连接层,得到输出结果,再将输出结果与训练数据的标签相比较,优化卷积神经网络参数,得到一个预测效果好的预测模型。
当预测模型创建好后,即可将采集的心音信号,按照步骤1、2、3获得心音信号特征,再将其送入预测模型之中,即可获得预测结果。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。
Claims (4)
1.一种基于深度学习的辅助电子听诊器信号判别方法,其特征在于,包括以下步骤:
步骤1:利用小波变换滤除心音信号的杂音
步骤1.1:心音信号的小波分解
采集心音信号,利用小波分析算法,若原信号s(t)=A0,k,则其分解算法为:
其中,t为离散时间序列号,t=1,2,3....,N;j为层数,j=1,2,3,...,J,J=log2N;H,G分别为小波低通滤波器和带通滤波器系数,Aj,k和Dj,k分别为信号s(t)在第j层的低频部分和高频部分的小波系数;
步骤1.2:小波分解高频系数的阈值量化;对每一层高频系数进行阈值量化处理,采用阈值函数:
其中,λ1为下阈值;λ2为上阈值,定义上阈值λ2=(a+1)λ1,0≤a<1;
步骤1.3:小波的重构;对小波分解后的第J层低频系数和经过阈值量化处理后的第1层到第j层的高频系数进行重构,得到消噪后的信号,重构算法为:
步骤2:利用HMM进行心音信号切分;
步骤3:提取并预处理心音信号的特征;
步骤4:将预处理过后的心音特征送入卷积神经网络CNN进行训练。
2.根据权利要求1所述的一种基于深度学习的辅助电子听诊器信号判别方法,其特征在于,所述的步骤2利用HMM进行心音信号切分;具体为:
心音信号状态定义为S={S1,S2,...SN},定义连续序列为Q,各个状态所处的时间为qt,定义序列的观察特征O={O1,O2,O3,...Ot},其中O可以是单个特征也可以是多个特征;
定义状态转换矩阵A={aij}为时间从t到t+1状态从i到j的概率;
aij=(qt+1=Sj|qt=Si)
观察概率密度分布B={bj(Ot)}定义为状态j生成输出Ot的概率,假设高斯分布估计每个状态的输出的概率密度:
初始状态分布定义为π={πi},其中:
πi=P(q1=Si)
由于记录的时刻在心脏周期中的任何时间发生,因此初始状态分布等于状态分布:
πi=P(q1=Si)=P(qt=Si)
在应用HMM之前将估计的参数称为λ:
λ={aij,μj,∑j,πi}
与当前状态序列最怕匹配的序列Q*为:
在时间为qt下,状态为j的概率δt(j):
δt(j)≈P(O1,O2,...,Ot,qt=Sj|λ)
通过之前的状态i最大化概率:
通过初始状态分布初始化:
δ1(j)=πjbj(O1)
为了能够追踪最佳的路径,最大化的参数存储在ψt中
3.根据权利要求1所述的一种基于深度学习的辅助电子听诊器信号判别方法,其特征在于,所述的步骤3提取并预处理心音信号的特征;具体为:
步骤3.1:提取梅尔频率倒谱系数MFCC
(1)、对输入的心音信号进行预处理;通过一个高通滤波器:H(Z)=1-μz-1预加重信号,然后在进行分帧,使每帧信号在20~30ms,为了保证帧两端的连续性,将每一帧代入汉明函数,假设分帧后的信号为S(n),n=0,1...,N-1,N为帧的大小,乘上汉明窗后,W(n)的形式为:
(2)、每帧信号乘上汉明窗后,再经过快速傅里叶变换以得到在频谱上的能量分布,对分帧加窗后的各帧信号进行快速傅里叶变换得到各帧的频谱,并对语音信号的频谱取模平方得到语音信号的功率谱,设语音信号的DFT为:
其中x(n)为输入的语音信号,N表示傅里叶变换的点数;
(3)、将能量谱通过一组Mel尺度的三角形滤波器组,定义一个有M个滤波器的滤波器组,采用的滤波器为三角滤波器,中心频率为f(m),M取22-26,各f(m)之间的间隔随着m值的减小而缩小,随着m值的增大而增宽,
三角滤波器的频率响应定义为:
(4)、计算每个滤波器组输出的对数能量为:
(5)、经离散余弦变换(DCT)得到MFCC系数:
将上述的对数能量带入离散余弦变换,求出L阶的Mel参数,L阶指MFCC系数阶数,取值12-16,这里M是三角滤波器个数;
步骤3.2:提取光谱质心;谱质心被定义为频谱的重心,设第i帧的谱质心为Ci,则:
其中Xi(k),k=1,…,N是第i帧的离散傅里叶变化,N为帧长度;
步骤3.3:提取短时过零率,短时平均过零率表示一帧语音中语音信号波形穿过横轴的次数,其计算公式为:
其中sgn[x]为符号函数:
步骤3.4:提取短时能量特征;设xi(n),n=1,…,N是第i帧信号长度为N,通过以下公式计算该帧的能量:
步骤3.5:将获得的心音信号特征进行归一化处理;
是对原始数据的线性变换,使结果值映射到[0,1]之间,转换函数如下:
4.根据权利要求1所述的一种基于深度学习的辅助电子听诊器信号判别方法,其特征在于,所述的步骤4将预处理过后的心音特征送入卷积神经网络CNN进行训练,具体为:
卷积神经网络基本结构包含了输入层、卷积层、池化层、全连接层和输出层;
首先,将上述步骤1、2、3后获得的心音信号特征送入卷积层,输出矩阵的高度和宽度这两个维度的尺寸由输入矩阵、卷积核、扫描步长所共同决定,计算公式如下;
其中heightkernel和widthkernel为卷积核的高度与宽度,padding为矩阵填充的大小,stride为卷积核的扫描步长;
其次,将卷积后的特征矩阵再送入池化层,将高维的特征矩阵转化为低维;可以重复使用卷积层与池化层,对高维特征降维;
最后,将经过降维的特征矩阵输送入全连接层,得到输出结果,再将输出结果与训练数据相比较,优化卷积神经网络参数,得到一个预测效果好的预测模型;当预测模型创建好后,即可将采集的心音信号,按照步骤1、2、3获得心音信号特征,再将其送入预测模型之中,即可获得预测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111003116.7A CN113796889A (zh) | 2021-08-30 | 2021-08-30 | 一种基于深度学习的辅助电子听诊器信号判别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111003116.7A CN113796889A (zh) | 2021-08-30 | 2021-08-30 | 一种基于深度学习的辅助电子听诊器信号判别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113796889A true CN113796889A (zh) | 2021-12-17 |
Family
ID=78894328
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111003116.7A Pending CN113796889A (zh) | 2021-08-30 | 2021-08-30 | 一种基于深度学习的辅助电子听诊器信号判别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113796889A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114680861A (zh) * | 2022-04-21 | 2022-07-01 | 无锡康莱医疗科技有限公司 | 一种基于智能识别技术的气道最小密闭压监测方法及系统 |
CN115089206A (zh) * | 2022-05-09 | 2022-09-23 | 吴先洪 | 一种对心音信号的预测方法及使用其的心脏听诊装置 |
CN116364117A (zh) * | 2023-03-23 | 2023-06-30 | 南京市浦口医院 | 一种基于声振麦克风的低频电子听诊系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108577883A (zh) * | 2018-04-03 | 2018-09-28 | 上海交通大学 | 一种冠心病筛查装置、筛查系统以及信号特征提取方法 |
WO2019216320A1 (ja) * | 2018-05-08 | 2019-11-14 | 国立大学法人徳島大学 | 機械学習装置、解析装置、機械学習方法および解析方法 |
CN110755108A (zh) * | 2019-11-04 | 2020-02-07 | 合肥望闻健康科技有限公司 | 一种基于智能听诊器的心脏声音分类方法、系统、装置及可读存储介质 |
CN111640439A (zh) * | 2020-05-15 | 2020-09-08 | 南开大学 | 一种基于深度学习的呼吸音分类方法 |
CN112971802A (zh) * | 2021-02-08 | 2021-06-18 | 中北大学 | 基于深度学习模型的心音信号检测方法及系统 |
-
2021
- 2021-08-30 CN CN202111003116.7A patent/CN113796889A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108577883A (zh) * | 2018-04-03 | 2018-09-28 | 上海交通大学 | 一种冠心病筛查装置、筛查系统以及信号特征提取方法 |
WO2019216320A1 (ja) * | 2018-05-08 | 2019-11-14 | 国立大学法人徳島大学 | 機械学習装置、解析装置、機械学習方法および解析方法 |
CN110755108A (zh) * | 2019-11-04 | 2020-02-07 | 合肥望闻健康科技有限公司 | 一种基于智能听诊器的心脏声音分类方法、系统、装置及可读存储介质 |
CN111640439A (zh) * | 2020-05-15 | 2020-09-08 | 南开大学 | 一种基于深度学习的呼吸音分类方法 |
CN112971802A (zh) * | 2021-02-08 | 2021-06-18 | 中北大学 | 基于深度学习模型的心音信号检测方法及系统 |
Non-Patent Citations (1)
Title |
---|
王玥: "基于LabVIEW的心音采集及心脏储备分析系统", 《中国优秀硕士学位论文全文数据库(电子期刊) 信息科技辑》, 15 January 2019 (2019-01-15), pages 15 - 16 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114680861A (zh) * | 2022-04-21 | 2022-07-01 | 无锡康莱医疗科技有限公司 | 一种基于智能识别技术的气道最小密闭压监测方法及系统 |
CN114680861B (zh) * | 2022-04-21 | 2023-06-27 | 无锡康莱医疗科技有限公司 | 一种基于智能识别技术的气道最小密闭压监测方法及系统 |
CN115089206A (zh) * | 2022-05-09 | 2022-09-23 | 吴先洪 | 一种对心音信号的预测方法及使用其的心脏听诊装置 |
CN116364117A (zh) * | 2023-03-23 | 2023-06-30 | 南京市浦口医院 | 一种基于声振麦克风的低频电子听诊系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113796889A (zh) | 一种基于深度学习的辅助电子听诊器信号判别方法 | |
TWI596600B (zh) | 識別生理聲音的方法以及系統 | |
CN109998525B (zh) | 一种基于判别式深度置信网络的心律失常自动分类方法 | |
Prasad et al. | Classification of ECG arrhythmias using multi-resolution analysis and neural networks | |
CN109044396B (zh) | 一种基于双向长短时记忆神经网络的智能心音识别方法 | |
Cao et al. | Atrial fibrillation detection using an improved multi-scale decomposition enhanced residual convolutional neural network | |
CN107736894A (zh) | 一种基于深度学习的心电信号情绪识别方法 | |
CN110970042B (zh) | 一种电子听诊器的肺部啰音人工智能实时分类方法、系统、装置及可读存储介质 | |
CN108470156B (zh) | 一种心音信号分类识别方法 | |
CN111329445B (zh) | 基于组卷积残差网络和长短期记忆网络的房颤识别方法 | |
CN113012720B (zh) | 谱减法降噪下多语音特征融合的抑郁症检测方法 | |
CN110755108A (zh) | 一种基于智能听诊器的心脏声音分类方法、系统、装置及可读存储介质 | |
Arpitha et al. | Spectrogram analysis of ECG signal and classification efficiency using MFCC feature extraction technique | |
CN111317499A (zh) | 一种基于小波技术的心音信号处理方法 | |
CN113116300A (zh) | 一种基于模型融合的生理信号分类方法 | |
CN113974607B (zh) | 一种基于脉冲神经网络的睡眠鼾声检测系统 | |
CN113116361A (zh) | 一种基于单导脑电的睡眠分期方法 | |
CN110415824B (zh) | 脑卒中风的患病风险评估装置和设备 | |
CN110956192A (zh) | 一种非重构压缩感知生理数据的分类方法及装置 | |
Zhong et al. | Heart murmur recognition based on hidden Markov model | |
Skopin et al. | Heartbeat feature extraction from vowel speech signal using 2D spectrum representation | |
CN111528900A (zh) | 基于巴特沃斯滤波器与香农熵法的心音分段方法和装置 | |
Sengupta et al. | Optimization of cepstral features for robust lung sound classification | |
CN113449636B (zh) | 一种基于人工智能的主动脉瓣狭窄严重程度自动分类方法 | |
CN110811673A (zh) | 基于概率神经网络模型的心音分析系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20211217 |