CN113796889A - 一种基于深度学习的辅助电子听诊器信号判别方法 - Google Patents

一种基于深度学习的辅助电子听诊器信号判别方法 Download PDF

Info

Publication number
CN113796889A
CN113796889A CN202111003116.7A CN202111003116A CN113796889A CN 113796889 A CN113796889 A CN 113796889A CN 202111003116 A CN202111003116 A CN 202111003116A CN 113796889 A CN113796889 A CN 113796889A
Authority
CN
China
Prior art keywords
heart sound
signal
frame
layer
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111003116.7A
Other languages
English (en)
Inventor
曹晖
王宁
李运甲
李江涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN202111003116.7A priority Critical patent/CN113796889A/zh
Publication of CN113796889A publication Critical patent/CN113796889A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/02Stethoscopes
    • A61B7/04Electric stethoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Physiology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Psychiatry (AREA)
  • Mathematical Physics (AREA)
  • Epidemiology (AREA)
  • Fuzzy Systems (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

一种基于深度学习的辅助电子听诊器信号判别方法,基于心脏跳动复杂的声音信号,利用小波变换滤除无用的声音信号,将心脏跳动信号的心音进行杂音滤除处理,基于心脏跳动周期的各个阶段具有不同的特征,通过将心音信号进行分段处理,提取相对应的声学特征,并通过人工神经网络算法进行处理,实现判断心音信号正常与否,辅助医生判断患者的疾病,实现更好的去噪效果,精确度更高,鲁棒性更好;与传统电子听诊器相比,本发明对心音信号处理更精细,获得更具体完整的结果,同时可以辅助医生进行诊断,在未来远程医疗诊断进一步发展后,本发明的优势将会进一步凸显。

Description

一种基于深度学习的辅助电子听诊器信号判别方法
技术领域
本发明属于医疗信息处理技术领域,特别涉及一种基于深度学习的辅助电子听诊器信号判别方法。
背景技术
现代医学即始于听诊器的发明,听诊器主要用于收集和放大从心脏、肺部、动脉、静脉和其他内脏器官处发出的声音。传统听诊器自从1817年3月8日应用于临床以来,外形及传音方式有不断的改进,但其基本结构变化不大,主要由拾音部分,传导部分及听音部分组成。
电子听诊器是利用电子技术放大身体的声音,克服了声学听诊器噪音高的缺点。电子听诊器可将需要转换的声音的声波电信号,进行放大和处理,以获得最佳聆听。但和传统的声学听诊器相比,它们都是基于相同的物理原理,普通电子听诊器只是将人体的声音提取优化,使医生能够更好的聆听人体内的声音。但是,对于获取的声音信号完全需要由医生来做出判断,本质上和普通听诊器没有不同,都是完全依赖于医生的经验与医学知识来进行诊断,起不到很好的辅助作用。
发明内容
为了克服上述现有技术的缺陷,本发明的目的在于提供一种基于深度学习的辅助电子听诊器信号判别方法,基于心脏跳动复杂的声音信号,利用小波变换滤除无用的声音信号,通过将心音信号进行分段处理,提取相对应的声学特征,并通过人工神经网络算法进行处理,实现判断心音信号正常与否,辅助医生判断患者的疾病,实现更好的去噪效果,精确度更高,鲁棒性更好。
为了达到上述目的,本发明的技术方案为:
一种基于深度学习的辅助电子听诊器信号判别方法,包括以下步骤:
步骤1:利用小波变换滤除心音信号的杂音
步骤1.1:心音信号的小波分解
采集心音信号,利用小波分析算法,若原信号s(t)=A0,k,则其分解算法为:
Figure BDA0003236239310000021
其中,t为离散时间序列号,t=1,2,3....,N;j为层数,j=1,2,3,...,J,J=log2N;H,G分别为小波低通滤波器和带通滤波器系数,Aj,k和Dj,k分别为信号s(t)在第j层的低频部分和高频部分的小波系数;
步骤1.2:小波分解高频系数的阈值量化;对每一层高频系数进行阈值量化处理,采用阈值函数:
Figure BDA0003236239310000022
其中,λ1为下阈值;λ2为上阈值,定义上阈值λ2=(a+1)λ1,0≤a<1;
步骤1.3:小波的重构;对小波分解后的第J层低频系数和经过阈值量化处理后的第1层到第J层的高频系数进行重构,得到消噪后的信号,重构算法为:
Figure BDA0003236239310000031
步骤2:利用HMM进行心音信号切分
心音信号状态定义为S={S1,S2,...SN},定义连续序列为Q,各个状态所处的时间为qt,定义序列的观察特征O={O1,O2,O3,...Ot},其中O可以是单个特征也可以是多个特征;
定义状态转换矩阵A={aij}为时间从t到t+1状态从i到j的概率:
aij=(qt+1=Sj|qt=Si)
观察概率密度分布B={bj(Ot)}定义为状态j生成输出Ot的概率,假设高斯分布估计每个状态的输出的概率密度:
Figure BDA0003236239310000032
其中
Figure BDA0003236239310000033
是具有μj和∑j的单个或多变量的高斯分布,分别是状态j中观察的平均值和方差;
初始状态分布定义为π={πi},其中:
πi=P(q1=Si)
由于记录的时刻在心脏周期中的任何时间发生,因此初始状态分布等于状态分布:
πi=P(q1=Si)=P(qt=Si)
在应用HMM之前将估计的参数称为λ:
λ={aij,μj,∑j,πi}
与当前状态序列最怕匹配的序列Q*为:
Figure BDA0003236239310000034
在时间为qt下,状态为j的概率δt(j):
δt(j)≈P(O1,O2,...,Ot,qt=Sj|λ)
通过之前的状态i最大化概率:
Figure BDA0003236239310000041
通过初始状态分布初始化:
δ1(j)=πjbj(O1)
为了能够追踪最佳的路径,最大化的参数存储在ψt
Figure BDA0003236239310000042
通过反向追踪ψt发现最佳路径
Figure BDA0003236239310000043
Figure BDA0003236239310000044
通过最大概率将
Figure BDA0003236239310000045
分配给t=T的状态来初始化反向追踪:
Figure BDA0003236239310000046
步骤3:提取并预处理心音信号的特征;
步骤3.1:提取梅尔频率倒谱系数MFCC
(1)、对输入的心音信号进行预处理。通过一个高通滤波器:H(Z)=1-μz-1预加重信号,然后在进行分帧,使每帧信号在20~30ms,为了保证帧两端的连续性,将每一帧代入汉明函数,假设分帧后的信号为S(n),n=0,1...,N-1,N为帧的大小,乘上汉明窗后,W(n)的形式为:
Figure BDA0003236239310000047
(2)、每帧信号乘上汉明窗后,再经过快速傅里叶变换以得到在频谱上的能量分布,对分帧加窗后的各帧信号进行快速傅里叶变换得到各帧的频谱,并对语音信号的频谱取模平方得到语音信号的功率谱,设语音信号的DFT为:
Figure BDA0003236239310000051
其中x(n)为输入的语音信号,N表示傅里叶变换的点数。
(3)、将能量谱通过一组Mel尺度的三角形滤波器组,定义一个有M个滤波器的滤波器组,采用的滤波器为三角滤波器,中心频率为f(m),M取22-26,各f(m)之间的间隔随着m值的减小而缩小,随着m值的增大而增宽,
三角滤波器的频率响应定义为:
Figure BDA0003236239310000052
(4)、计算每个滤波器组输出的对数能量为:
Figure BDA0003236239310000053
(5)、经离散余弦变换(DCT)得到MFCC系数:
Figure BDA0003236239310000054
将上述的对数能量带入离散余弦变换,求出L阶的Mel参数,L阶指MFCC系数阶数,取值12-16,这里M是三角滤波器个数;
步骤3.2:提取光谱质心;谱质心被定义为频谱的重心,设第i帧的谱质心为Ci,则:
Figure BDA0003236239310000061
其中Xi(k),k=1,…,N是第i帧的离散傅里叶变化,N为帧长度。
步骤3.3:提取短时过零率,短时平均过零率表示一帧语音中语音信号波形穿过横轴的次数,其计算公式为:
Figure BDA0003236239310000062
其中sgn[x]为符号函数:
Figure BDA0003236239310000063
步骤3.4:提取短时能量特征;设xi(n),n=1,…,N是第i帧信号长度为N,通过以下公式计算该帧的能量:
Figure BDA0003236239310000064
步骤3.5:将获得的心音信号特征进行归一化处理。
是对原始数据的线性变换,使结果值映射到[0,1]之间,转换函数如下:
Figure BDA0003236239310000065
步骤4:将预处理过后的心音特征送入卷积神经网络CNN进行训练
卷积神经网络基本结构包含了输入层、卷积层、池化层、全连接层和输出层;
首先,将上述步骤1、2、3后获得的心音信号特征送入卷积层,输出矩阵的高度和宽度这两个维度的尺寸由输入矩阵、卷积核、扫描步长所共同决定,计算公式如下。
Figure BDA0003236239310000071
其中heightkernel和widthkernel为卷积核的高度与宽度,padding为矩阵填充的大小,stride为卷积核的扫描步长;
其次,将卷积后的特征矩阵再送入池化层,将高维的特征矩阵转化为低维。可以重复使用卷积层与池化层,对高维特征降维;
最后,将经过降维的特征矩阵输送入全连接层,得到输出结果,再将输出结果与训练数据相比较,优化卷积神经网络参数,得到一个预测效果好的预测模型;当预测模型创建好后,即可将采集的心音信号,按照步骤1、2、3获得心音信号特征,再将其送入预测模型之中,即可获得预测结果。
与现有技术相比,本发明至少具有以下有益的技术效果:
(1)采用基于深度学习的方法对人体的心脏跳动信号是否正常进行判别。考虑到真实的人体心脏跳动会产生的多种杂音,本发明将心脏跳动信号的心音进行杂音滤除处理,基于心脏跳动周期的各个阶段具有不同的特征,通过HMM,CNN等方法将心脏每次跳动的信号提取出来并分段处理。
(3)在心音信号的一个周期中,不同的时期具有不同的信号特征,利用心音分段方法将这些具有不同的特征信号分离出来,采用相对应的处理方法。然后采用人工神经网络等深度学习方法,将这些信号特征进行聚合比对分析处理,最终获得判断结果,辅助医生对患者进行诊断。与传统电子听诊器相比,本发明对心音信号处理更精细,获得更具体完整的结果,同时可以辅助医生进行诊断,在未来远程医疗诊断进一步发展后,本发明的优势将会进一步凸显。
附图说明
图1是心音分段示意图。
图2是三角滤波器示意图。
图3是卷积神经网络基本结构图。
具体实施方式
为了使本发明的目的和技术方案更加清晰和便于理解,以下结合附图和实施例,对本发明进行进一步的详细说明,此处所描述的具体实施例仅用于解释本发明,并非用于限定本发明。
对于采集的心音信号,由于存在许多杂音,首先通过滤波器进行杂音过滤。将具有不同特征的心音信号进行分段,设计出基于人工神经网络的计算算法,利用其所具有的学习能力,学习判别正常与不正常心音信号所具有的不同特征。使其最终具有判别心音信号正常与否的能力,辅助医生判别患者疾病。
一种基于深度学习的辅助电子听诊器信号判别方法,包括以下步骤:
步骤1:利用小波变换滤除心音信号的杂音
由于心脏是一个非线性的、时变的复杂系统,因此心音信号具有很强的非平稳性和随机性。心音信号又是一种具有周期性的时变信号,主要信息集中于0-600Hz,其中第一心音和第二心音是心音信号最主要的部分。第一心音主要集中在0-250Hz。第二心音主要集中在50-200Hz内,并在250-300Hz内出现另一个小峰值。第一心音第二心音具有明显的开始与终止特征。
步骤1.1:心音信号的小波分解
采集心音信号,利用小波分析算法,若原信号s(t)=A0,k,则其分解算法为:
Figure BDA0003236239310000081
其中,t为离散时间序列号,t=1,2,3....,N;j为层数,j=1,2,3,...,J,J=log2N;H,G分别为小波低通滤波器和带通滤波器系数,Aj,k和Dj,k分别为信号s(t)在第j层的低频部分和高频部分的小波系数。
步骤1.2:小波分解高频系数的阈值量化;由于信号经小波分解后,其有用信息主要集中在低频部分,而噪声主要集中在高频部分,故仅对每一层高频系数进行阈值量化处理,采用阈值函数:
Figure BDA0003236239310000091
其中,λ1为下阈值;λ2为上阈值。为了使阈值函数更具适应性,定义上阈值λ2=(a+1)λ1,0≤a<1,这样就可以根据某一类具体被分析信号的特征来灵活选择a和m的值,从而获得更好的降噪效果。
步骤1.3:小波的重构;对小波分解后的第J层低频系数和经过阈值量化处理后的第1层到第J层的高频系数进行重构,得到消噪后的信号,重构算法为:
Figure BDA0003236239310000092
步骤2:利用HMM进行心音信号切分
心音信号如图1所示,可以分为四个部分:S1,siSys,S2和siDia。
我们将可能存在的心音信号状态定义为S={S1,S2,...SN},在心音信号情形中N=4,定义连续序列为Q,各个状态所处的时间为qt,定义序列的观察特征O={O1,O2,O3,...Ot},其中O可以是单个特征也可以是多个特征;
定义状态转换矩阵A={aij}为时间从t到t+1状态从i到j的概率
aij=(qt+1=Sj|qt=Si)
观察概率密度分布B={bj(Ot)}定义为状态j生成输出Ot的概率,假设高斯分布估计每个状态的输出的概率密度:
Figure BDA0003236239310000101
其中
Figure BDA0003236239310000102
是具有μj和∑j的单个或多变量的高斯分布,分别是状态j中观察的平均值和方差;
初始状态分布定义为π={πi},其中:
πi=P(q1=Si)
由于记录的时刻可以在心脏周期中的任何时间发生,因此初始状态分布等于状态分布:
πi=P(q1=Si)=P(qt=Si)
在应用HMM之前,将估计的参数称为λ:
λ={aij,μj,∑j,πi}
与当前状态序列最怕匹配的序列Q*为:
Figure BDA0003236239310000103
在时间为qt下,状态为j的概率δt(j):
δt(j)≈P(O1,O2,...,Ot,qt=Sj|λ)
通过之前的状态i最大化概率:
Figure BDA0003236239310000104
通过初始状态分布初始化:
δ1(j)=πjbj(O1)
为了能够追踪最佳的路径,最大化的参数存储在ψt
Figure BDA0003236239310000111
通过反向追踪ψt发现最佳路径
Figure BDA0003236239310000112
Figure BDA0003236239310000113
通过最大概率将
Figure BDA0003236239310000114
分配给t=T的状态来初始化反向追踪:
Figure BDA0003236239310000115
步骤3:提取并预处理心音信号的特征;
步骤3.1:提取梅尔频率倒谱系数(Mel-Frequency Ceptral Coefficients,MFCC)。
(1)、对输入的心音信号进行预处理。通过一个高通滤波器:H(Z)=1-μz-1预加重信号,然后在进行分帧,使每帧信号在20~30ms,为了保证帧两端的连续性,将每一帧代入汉明函数,假设分帧后的信号为S(n),n=0,1...,N-1,N为帧的大小,乘上汉明窗后,W(n)的形式为:
Figure BDA0003236239310000116
(2)、每帧信号乘上汉明窗后,再经过快速傅里叶变换以得到在频谱上的能量分布,对分帧加窗后的各帧信号进行快速傅里叶变换得到各帧的频谱,并对语音信号的频谱取模平方得到语音信号的功率谱,设语音信号的DFT为:
Figure BDA0003236239310000117
其中x(n)为输入的语音信号,N表示傅里叶变换的点数。
(3)、将能量谱通过一组Mel尺度的三角形滤波器组,定义一个有M个滤波器的滤波器组(滤波器的个数和临界带的个数相近),采用的滤波器为三角滤波器,中心频率为f(m),M通常取22-26,各f(m)之间的间隔随着m值的减小而缩小,随着m值的增大而增宽,如图2所示:
三角滤波器的频率响应定义为:
Figure BDA0003236239310000121
(4)、计算每个滤波器组输出的对数能量为:
Figure BDA0003236239310000122
(5)、经离散余弦变换(DCT)得到MFCC系数:
Figure BDA0003236239310000123
将上述的对数能量带入离散余弦变换,求出L阶的Mel参数,L阶指MFCC系数阶数,通常取值12-16,这里M是三角滤波器个数;
步骤3.2:提取光谱质心;谱质心被定义为频谱的重心,设第i帧的谱质心为Ci,则:
Figure BDA0003236239310000124
其中Xi(k),k=1,…,N是第i帧的离散傅里叶变化,N为帧长度。
步骤3.3:提取短时过零率,短时平均过零率表示一帧语音中语音信号波形穿过横轴(零电平)的次数,其计算公式为:
Figure BDA0003236239310000131
其中sgn[x]为符号函数:
Figure BDA0003236239310000132
步骤3.4:提取短时能量特征;设xi(n),n=1,…,N是第i帧信号长度为N,通过以下公式计算该帧的能量:
Figure BDA0003236239310000133
步骤3.5:将获得的心音信号特征进行归一化处理。
由于所提取的心音信号特征存在着数值差异较大,故将特征进行归一化处理,减少运算时间。min-max标准化(Min-Max Normalization),也称为离差标准化,是对原始数据的线性变换,使结果值映射到[0,1]之间,转换函数如下:
Figure BDA0003236239310000134
步骤4:将预处理过后的心音特征送入卷积神经网络(Convolutional NeuralNetwork,CNN)进行训练。
卷积神经网络基本结构如图3所示,主要包含了输入层、卷积层、池化层、全连接层和输出层。
首先,将众多的带有标签的心音信号通过上述步骤1、2、3后获得的心音信号特征矩阵送入卷积层,输出矩阵的高度和宽度(height,width)这两个维度的尺寸由输入矩阵、卷积核、扫描步长所共同决定,计算公式如下。
Figure BDA0003236239310000135
其中heightkernel和widthkernel为卷积核的高度与宽度,padding为矩阵填充的大小,stride为卷积核的扫描步长。
其次,将卷积后的特征矩阵再送入池化层,池化层的计算过程与卷积层相类似。通过卷积层与池化层可以实现将高维的特征矩阵转化为低维。可以重复使用卷积层与池化层,对高维特征进行降维。
最后,将经过降维的特征矩阵输送入全连接层,得到输出结果,再将输出结果与训练数据的标签相比较,优化卷积神经网络参数,得到一个预测效果好的预测模型。
当预测模型创建好后,即可将采集的心音信号,按照步骤1、2、3获得心音信号特征,再将其送入预测模型之中,即可获得预测结果。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。

Claims (4)

1.一种基于深度学习的辅助电子听诊器信号判别方法,其特征在于,包括以下步骤:
步骤1:利用小波变换滤除心音信号的杂音
步骤1.1:心音信号的小波分解
采集心音信号,利用小波分析算法,若原信号s(t)=A0,k,则其分解算法为:
Figure FDA0003236239300000011
其中,t为离散时间序列号,t=1,2,3....,N;j为层数,j=1,2,3,...,J,J=log2N;H,G分别为小波低通滤波器和带通滤波器系数,Aj,k和Dj,k分别为信号s(t)在第j层的低频部分和高频部分的小波系数;
步骤1.2:小波分解高频系数的阈值量化;对每一层高频系数进行阈值量化处理,采用阈值函数:
Figure FDA0003236239300000012
其中,λ1为下阈值;λ2为上阈值,定义上阈值λ2=(a+1)λ1,0≤a<1;
步骤1.3:小波的重构;对小波分解后的第J层低频系数和经过阈值量化处理后的第1层到第j层的高频系数进行重构,得到消噪后的信号,重构算法为:
Figure FDA0003236239300000021
步骤2:利用HMM进行心音信号切分;
步骤3:提取并预处理心音信号的特征;
步骤4:将预处理过后的心音特征送入卷积神经网络CNN进行训练。
2.根据权利要求1所述的一种基于深度学习的辅助电子听诊器信号判别方法,其特征在于,所述的步骤2利用HMM进行心音信号切分;具体为:
心音信号状态定义为S={S1,S2,...SN},定义连续序列为Q,各个状态所处的时间为qt,定义序列的观察特征O={O1,O2,O3,...Ot},其中O可以是单个特征也可以是多个特征;
定义状态转换矩阵A={aij}为时间从t到t+1状态从i到j的概率;
aij=(qt+1=Sj|qt=Si)
观察概率密度分布B={bj(Ot)}定义为状态j生成输出Ot的概率,假设高斯分布估计每个状态的输出的概率密度:
Figure FDA0003236239300000022
其中
Figure FDA0003236239300000023
是具有μj和∑j的单个或多变量的高斯分布,分别是状态j中观察的平均值和方差;
初始状态分布定义为π={πi},其中:
πi=P(q1=Si)
由于记录的时刻在心脏周期中的任何时间发生,因此初始状态分布等于状态分布:
πi=P(q1=Si)=P(qt=Si)
在应用HMM之前将估计的参数称为λ:
λ={aij,μj,∑j,πi}
与当前状态序列最怕匹配的序列Q*为:
Figure FDA0003236239300000031
在时间为qt下,状态为j的概率δt(j):
δt(j)≈P(O1,O2,...,Ot,qt=Sj|λ)
通过之前的状态i最大化概率:
Figure FDA0003236239300000032
通过初始状态分布初始化:
δ1(j)=πjbj(O1)
为了能够追踪最佳的路径,最大化的参数存储在ψt
Figure FDA0003236239300000033
通过反向追踪ψt发现最佳路径
Figure FDA0003236239300000034
Figure FDA0003236239300000035
通过最大概率将
Figure FDA0003236239300000036
分配给t=T的状态来初始化反向追踪:
Figure FDA0003236239300000037
3.根据权利要求1所述的一种基于深度学习的辅助电子听诊器信号判别方法,其特征在于,所述的步骤3提取并预处理心音信号的特征;具体为:
步骤3.1:提取梅尔频率倒谱系数MFCC
(1)、对输入的心音信号进行预处理;通过一个高通滤波器:H(Z)=1-μz-1预加重信号,然后在进行分帧,使每帧信号在20~30ms,为了保证帧两端的连续性,将每一帧代入汉明函数,假设分帧后的信号为S(n),n=0,1...,N-1,N为帧的大小,乘上汉明窗后,W(n)的形式为:
Figure FDA0003236239300000041
(2)、每帧信号乘上汉明窗后,再经过快速傅里叶变换以得到在频谱上的能量分布,对分帧加窗后的各帧信号进行快速傅里叶变换得到各帧的频谱,并对语音信号的频谱取模平方得到语音信号的功率谱,设语音信号的DFT为:
Figure FDA0003236239300000042
其中x(n)为输入的语音信号,N表示傅里叶变换的点数;
(3)、将能量谱通过一组Mel尺度的三角形滤波器组,定义一个有M个滤波器的滤波器组,采用的滤波器为三角滤波器,中心频率为f(m),M取22-26,各f(m)之间的间隔随着m值的减小而缩小,随着m值的增大而增宽,
三角滤波器的频率响应定义为:
Figure FDA0003236239300000043
(4)、计算每个滤波器组输出的对数能量为:
Figure FDA0003236239300000044
(5)、经离散余弦变换(DCT)得到MFCC系数:
Figure FDA0003236239300000045
将上述的对数能量带入离散余弦变换,求出L阶的Mel参数,L阶指MFCC系数阶数,取值12-16,这里M是三角滤波器个数;
步骤3.2:提取光谱质心;谱质心被定义为频谱的重心,设第i帧的谱质心为Ci,则:
Figure FDA0003236239300000051
其中Xi(k),k=1,…,N是第i帧的离散傅里叶变化,N为帧长度;
步骤3.3:提取短时过零率,短时平均过零率表示一帧语音中语音信号波形穿过横轴的次数,其计算公式为:
Figure FDA0003236239300000052
其中sgn[x]为符号函数:
Figure FDA0003236239300000053
步骤3.4:提取短时能量特征;设xi(n),n=1,…,N是第i帧信号长度为N,通过以下公式计算该帧的能量:
Figure FDA0003236239300000054
步骤3.5:将获得的心音信号特征进行归一化处理;
是对原始数据的线性变换,使结果值映射到[0,1]之间,转换函数如下:
Figure FDA0003236239300000055
4.根据权利要求1所述的一种基于深度学习的辅助电子听诊器信号判别方法,其特征在于,所述的步骤4将预处理过后的心音特征送入卷积神经网络CNN进行训练,具体为:
卷积神经网络基本结构包含了输入层、卷积层、池化层、全连接层和输出层;
首先,将上述步骤1、2、3后获得的心音信号特征送入卷积层,输出矩阵的高度和宽度这两个维度的尺寸由输入矩阵、卷积核、扫描步长所共同决定,计算公式如下;
Figure FDA0003236239300000061
其中heightkernel和widthkernel为卷积核的高度与宽度,padding为矩阵填充的大小,stride为卷积核的扫描步长;
其次,将卷积后的特征矩阵再送入池化层,将高维的特征矩阵转化为低维;可以重复使用卷积层与池化层,对高维特征降维;
最后,将经过降维的特征矩阵输送入全连接层,得到输出结果,再将输出结果与训练数据相比较,优化卷积神经网络参数,得到一个预测效果好的预测模型;当预测模型创建好后,即可将采集的心音信号,按照步骤1、2、3获得心音信号特征,再将其送入预测模型之中,即可获得预测结果。
CN202111003116.7A 2021-08-30 2021-08-30 一种基于深度学习的辅助电子听诊器信号判别方法 Pending CN113796889A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111003116.7A CN113796889A (zh) 2021-08-30 2021-08-30 一种基于深度学习的辅助电子听诊器信号判别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111003116.7A CN113796889A (zh) 2021-08-30 2021-08-30 一种基于深度学习的辅助电子听诊器信号判别方法

Publications (1)

Publication Number Publication Date
CN113796889A true CN113796889A (zh) 2021-12-17

Family

ID=78894328

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111003116.7A Pending CN113796889A (zh) 2021-08-30 2021-08-30 一种基于深度学习的辅助电子听诊器信号判别方法

Country Status (1)

Country Link
CN (1) CN113796889A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114680861A (zh) * 2022-04-21 2022-07-01 无锡康莱医疗科技有限公司 一种基于智能识别技术的气道最小密闭压监测方法及系统
CN115089206A (zh) * 2022-05-09 2022-09-23 吴先洪 一种对心音信号的预测方法及使用其的心脏听诊装置
CN116364117A (zh) * 2023-03-23 2023-06-30 南京市浦口医院 一种基于声振麦克风的低频电子听诊系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108577883A (zh) * 2018-04-03 2018-09-28 上海交通大学 一种冠心病筛查装置、筛查系统以及信号特征提取方法
WO2019216320A1 (ja) * 2018-05-08 2019-11-14 国立大学法人徳島大学 機械学習装置、解析装置、機械学習方法および解析方法
CN110755108A (zh) * 2019-11-04 2020-02-07 合肥望闻健康科技有限公司 一种基于智能听诊器的心脏声音分类方法、系统、装置及可读存储介质
CN111640439A (zh) * 2020-05-15 2020-09-08 南开大学 一种基于深度学习的呼吸音分类方法
CN112971802A (zh) * 2021-02-08 2021-06-18 中北大学 基于深度学习模型的心音信号检测方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108577883A (zh) * 2018-04-03 2018-09-28 上海交通大学 一种冠心病筛查装置、筛查系统以及信号特征提取方法
WO2019216320A1 (ja) * 2018-05-08 2019-11-14 国立大学法人徳島大学 機械学習装置、解析装置、機械学習方法および解析方法
CN110755108A (zh) * 2019-11-04 2020-02-07 合肥望闻健康科技有限公司 一种基于智能听诊器的心脏声音分类方法、系统、装置及可读存储介质
CN111640439A (zh) * 2020-05-15 2020-09-08 南开大学 一种基于深度学习的呼吸音分类方法
CN112971802A (zh) * 2021-02-08 2021-06-18 中北大学 基于深度学习模型的心音信号检测方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王玥: "基于LabVIEW的心音采集及心脏储备分析系统", 《中国优秀硕士学位论文全文数据库(电子期刊) 信息科技辑》, 15 January 2019 (2019-01-15), pages 15 - 16 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114680861A (zh) * 2022-04-21 2022-07-01 无锡康莱医疗科技有限公司 一种基于智能识别技术的气道最小密闭压监测方法及系统
CN114680861B (zh) * 2022-04-21 2023-06-27 无锡康莱医疗科技有限公司 一种基于智能识别技术的气道最小密闭压监测方法及系统
CN115089206A (zh) * 2022-05-09 2022-09-23 吴先洪 一种对心音信号的预测方法及使用其的心脏听诊装置
CN116364117A (zh) * 2023-03-23 2023-06-30 南京市浦口医院 一种基于声振麦克风的低频电子听诊系统

Similar Documents

Publication Publication Date Title
CN113796889A (zh) 一种基于深度学习的辅助电子听诊器信号判别方法
TWI596600B (zh) 識別生理聲音的方法以及系統
CN109998525B (zh) 一种基于判别式深度置信网络的心律失常自动分类方法
Prasad et al. Classification of ECG arrhythmias using multi-resolution analysis and neural networks
CN109044396B (zh) 一种基于双向长短时记忆神经网络的智能心音识别方法
Cao et al. Atrial fibrillation detection using an improved multi-scale decomposition enhanced residual convolutional neural network
CN107736894A (zh) 一种基于深度学习的心电信号情绪识别方法
CN110970042B (zh) 一种电子听诊器的肺部啰音人工智能实时分类方法、系统、装置及可读存储介质
CN108470156B (zh) 一种心音信号分类识别方法
CN111329445B (zh) 基于组卷积残差网络和长短期记忆网络的房颤识别方法
CN113012720B (zh) 谱减法降噪下多语音特征融合的抑郁症检测方法
CN110755108A (zh) 一种基于智能听诊器的心脏声音分类方法、系统、装置及可读存储介质
Arpitha et al. Spectrogram analysis of ECG signal and classification efficiency using MFCC feature extraction technique
CN111317499A (zh) 一种基于小波技术的心音信号处理方法
CN113116300A (zh) 一种基于模型融合的生理信号分类方法
CN113974607B (zh) 一种基于脉冲神经网络的睡眠鼾声检测系统
CN113116361A (zh) 一种基于单导脑电的睡眠分期方法
CN110415824B (zh) 脑卒中风的患病风险评估装置和设备
CN110956192A (zh) 一种非重构压缩感知生理数据的分类方法及装置
Zhong et al. Heart murmur recognition based on hidden Markov model
Skopin et al. Heartbeat feature extraction from vowel speech signal using 2D spectrum representation
CN111528900A (zh) 基于巴特沃斯滤波器与香农熵法的心音分段方法和装置
Sengupta et al. Optimization of cepstral features for robust lung sound classification
CN113449636B (zh) 一种基于人工智能的主动脉瓣狭窄严重程度自动分类方法
CN110811673A (zh) 基于概率神经网络模型的心音分析系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20211217