CN116778968A - 一种基于深度可分离卷积与注意力机制的心音分类方法 - Google Patents

一种基于深度可分离卷积与注意力机制的心音分类方法 Download PDF

Info

Publication number
CN116778968A
CN116778968A CN202310732859.0A CN202310732859A CN116778968A CN 116778968 A CN116778968 A CN 116778968A CN 202310732859 A CN202310732859 A CN 202310732859A CN 116778968 A CN116778968 A CN 116778968A
Authority
CN
China
Prior art keywords
heart sound
layer
convolution
module
outputting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310732859.0A
Other languages
English (en)
Other versions
CN116778968B (zh
Inventor
舒明雷
李金萌
王英龙
徐鹏摇
刘照阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qilu University of Technology
Shandong Institute of Artificial Intelligence
Original Assignee
Qilu University of Technology
Shandong Institute of Artificial Intelligence
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qilu University of Technology, Shandong Institute of Artificial Intelligence filed Critical Qilu University of Technology
Priority to CN202310732859.0A priority Critical patent/CN116778968B/zh
Publication of CN116778968A publication Critical patent/CN116778968A/zh
Application granted granted Critical
Publication of CN116778968B publication Critical patent/CN116778968B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

一种基于深度可分离卷积与注意力机制的心音分类方法,涉及心音信号技术领域,把心音信号分段,利用注意力机制算法提取到重要心音特征,然后通过深度卷积对每个通道平面上进行卷积运算,提取特征的局部信息,大大降低参数以及运算量,再利用多头注意力机制提取心音特征的全局信息,再对通道进行卷积运算,即在通道维度上提取局部特征,在关注局部特征的同时,也充分兼顾了心音的全局特征信息。

Description

一种基于深度可分离卷积与注意力机制的心音分类方法
技术领域
本发明涉及心音信号技术领域,具体涉及一种基于深度可分离卷积与注意力机制的心音分类方法。
背景技术
心音是由心脏以及心血管系统机械运动产生的声音信号,通过听诊器判断心音的异常非常依赖人们的先验知识,并且极易出现错误。当前的心音分类方法有只关注心音信号局部特征的卷积神经网络方法,以及只关注心音信号全局特征的循环神经网络方法,如RNN循环神经网络,LSTM长短时记忆网络,这些方法没有很好的兼顾局部特征和全局特征的信心对心音信号进行分类。
发明内容
本发明为了克服以上技术的不足,提供了一种既考虑了心音信号的局部特征又考虑了心音信号的全局特征的基于深度可分离卷积与注意力机制的心音分类方法。本发明克服其技术问题所采用的技术方案是:
一种基于深度可分离卷积与注意力机制的心音分类方法,包括如下步骤:
a)获取原始心音信号X;
b)将原始心音信号X划分为n条心音段x1,x2,...,xi,...,xn,xi为第i条心音段,i∈{1,2,...,n},每个心音段的长度为m秒;
c)提取第i条心音段xi的梅尔倒谱系数,得到第i条心音段xi的特征x′i
d)建立心音分类模型,心音分类模型由FAP模块、TC模块、DPT模块、FC模块构成;
e)将第i条心音段xi的特征x′i输入到心音分类模型的FAP模块中,输出得到特征矩阵X1
f)将特征矩阵X1输入到心音分类模型的TC模块中,输出得到心音特征
g)将心音特征输入到心音分类模型的DPT模块中,输出得到心音特征X5
h)将心音特征X5输入到心音分类模型的FC模块中,输出得到分类结果。
优选的,步骤a)中从Physionet2016心音数据库获取原始心音信号X。
进一步的,步骤b)中m取值为5,不足5秒长的心音段进行补零操作。
优选的,步骤c)中梅尔倒谱系数维度设置为40。
进一步的,步骤e)包括如下步骤:
e-1)通过公式Qi=x′i×Wi计算得到第i条心音段xi的特征矩阵Qi,i∈{1,2,...,n},Wi为随机生成的权重矩阵;
e-2)通过公式计算得到特征矩阵X1,式中ω为参数,WQ为随机生成的权重矩阵,softmax(·)为Softmax函数,T为转置,α为阈值,α=0.25。
进一步的,步骤f)包括如下步骤:
f-1)心音分类模型的TC模块由第一卷积块、第二卷积块、第三卷积块构成;
f-2)TC模块的第一卷积块依次由卷积层、Relu激活函数层、BatchNormalization批处理归一化层构成,卷积层的积核大小为3×3、通道数为64、步长为2,将特征矩阵X1输入到第一卷积块中,输出得到心音特征
f-3)TC模块的第二卷积块依次由卷积层、Relu激活函数层、BatchNormalization批处理归一化层构成,卷积层的积核大小为3×3、通道数为64、步长为1、填充为0,将心音特征输入到第二卷积块中,输出得到心音特征/>
f-4)TC模块的第三卷积块依次由卷积层、Relu激活函数层、BatchNormalization批处理归一化层构成,卷积层的积核大小为3×3、通道数为64、步长为1,将心音特征输入到第三卷积块中,输出得到心音特征/>进一步的,步骤g)包括如下步骤:
g-1)心音分类模型的FAP模块由Transformer模型的位置编码层、第一深度卷积层、第一LayerNorm层批处理归一化层、多头注意力机制、第二LayerNorm层批处理归一化层、卷积层、第一Relu激活函数层、第一BatchNormalization批处理归一化层、第二深度卷积层、第二Relu激活函数层、第二BatchNormalization批处理归一化层构成,第一深度卷积层的卷积核大小为3×3、通道数为32、步长设置为same,卷积层的的卷积核大小为1×1、通道数为32、步长设置为same,第二深度卷积层的卷积核大小为3×3、通道数为32、步长设置为same;
g-2)将心音特征输入到FAP模块的位置编码层中,输出得到心音特征X2,将心音特征X2输入到FAP模块的第一深度卷积层中,输出得到心音特征X′2,将心音特征X2与心音特征X′2进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第一LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>输入到FAP模块的多头注意力机制中,输出得到心音特征/>将心音特征/>与心音特征/>进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第二LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>依次输入到FAP模块的卷积层、第一Relu激活函数层、第一BatchNormalization批处理归一化层后,输出得到心音特征/>将心音特征/>依次输入到FAP模块的第二深度卷积层、第二Relu激活函数层、第二BatchNormalization批处理归一化层中,输出得到心音特征/>将心音特征/>与心音特征/>进行融合操作,得到心音特征/>g-3)将心音特征/>输入到FAP模块的位置编码层中,输出得到心音特征X3,将心音特征X3输入到FAP模块的第一深度卷积层中,输出得到心音特征X′3,将心音特征X3与心音特征X3′进行融合操作,得到心音特征/>将心音特征输入到FAP模块的第一LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>输入到FAP模块的多头注意力机制中,输出得到心音特征/>将心音特征/>与心音特征/>进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第二LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>依次输入到FAP模块的卷积层、第一Relu激活函数层、第一BatchNormalization批处理归一化层后,输出得到心音特征/>将心音特征/>依次输入到FAP模块的第二深度卷积层、第二Relu激活函数层、第二BatchNormalization批处理归一化层中,输出得到心音特征/>将心音特征与心音特征/>进行融合操作,得到心音特征/>g-4)将心音特征/>输入到FAP模块的位置编码层中,输出得到心音特征X4,将心音特征X4输入到FAP模块的第一深度卷积层中,输出得到心音特征X4′,将心音特征X4与心音特征X4′进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第一LayerNorm层批处理归一化层中,输出得到心音特征将心音特征/>输入到FAP模块的多头注意力机制中,输出得到心音特征/>将心音特征/>与心音特征/>进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第二LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>依次输入到FAP模块的卷积层、第一Relu激活函数层、第一BatchNormalization批处理归一化层后,输出得到心音特征/>将心音特征/>依次输入到FAP模块的第二深度卷积层、第二Relu激活函数层、第二BatchNormalization批处理归一化层中,输出得到心音特征/>将心音特征/>与心音特征/>进行融合操作,得到心音特征X5
进一步的,步骤h)包括如下步骤:
h-1)心音分类模型的FC模块由全局平均池化层、第一Droupout层、第一Dense层、第二Droupout层、第二Dense层、Softmax层构成;
h-2)将心音特征X5依次输入到FC模块的全局平均池化层、第一Droupout层、第一Dense层、第二Droupout层、第二Dense层中,输出得到心音特征X′5
h-3)将心音特征X′5输入到FC模块的Softmax层中输出得到0到1区间的两个概率分布,为0时表示心音信号为正常信号,为1时表示心音信号为异常信号。优选的,步骤h-1)中第一Dense层的隐藏单元设置为512,第二Dense层的隐藏单元设置为2。
本发明的有益效果是:把心音信号分段,利用注意力机制算法提取到重要心音特征,然后通过深度卷积对每个通道平面上进行卷积运算,提取特征的局部信息,大大降低参数以及运算量,再利用多头注意力机制提取心音特征的全局信息,再对通道进行卷积运算,即在通道维度上提取局部特征,在关注局部特征的同时,也充分兼顾了心音的全局特征信息。
附图说明
图1为本发明的方法流程图;
图2为本发明的FAP模块的结构示意图;
图3为本发明的TC模块的结构示意图;
图4为本发明的DPT模块的结构示意图;
图5为本发明的FC模块的结构示意图。
具体实施方式
下面结合附图1至附图5对本发明做进一步说明。
一种基于深度可分离卷积与注意力机制的心音分类方法,包括如下步骤:
a)获取原始心音信号X。
b)将原始心音信号X划分为n条心音段x1,x2,...,xi,...,xn,xi为第i条心音段,i∈{1,2,...,n},每个心音段的长度为m秒。
c)提取第i条心音段xi的梅尔倒谱系数,得到第i条心音段xi的特征x′i,采样率设置为16000Hz,作为心音分类模型的输入。
d)建立心音分类模型,心音分类模型由FAP模块、TC模块、DPT模块、FC模块构成。
e)将第i条心音段xi的特征x′i输入到心音分类模型的FAP模块中,将第一个特征x′1分别于其它特征x′2,x′3,...,x′n做注意力操作,将特征x′2,x′3,...,x′n与特征x′1相似的重要特征信息权重放大,不相似的特征权重缩小,然后把这些权重乘以个字的心音段特征矩阵,最后再融合到第一个特征x′1上,得到特征矩阵X1
f)将特征矩阵X1输入到心音分类模型的TC模块中,输出得到心音特征
g)将心音特征输入到心音分类模型的DPT模块中,输出得到心音特征X5
h)将心音特征X5输入到心音分类模型的FC模块中,输出得到分类结果。
本发明构建的心音分类模型,既考虑了心音信号的局部特征又考虑了心音信号的全局特征,尽可能的充分利用心音信号特征信息。在关注局部特征的同时,也充分兼顾了心音的全局特征信息。
在本发明的一个实施例中,步骤a)中从Physionet2016心音数据库获取原始心音信号X。步骤b)中m取值为5,不足5秒长的心音段进行补零操作。步骤c)中梅尔倒谱系数维度设置为40。
在本发明的一个实施例中,步骤e)包括如下步骤:
e-1)通过公式Qi=x′i×Wi计算得到第i条心音段xi的特征矩阵Qi,i∈{1,2,...,n},Wi为随机生成的权重矩阵。
e-2)通过公式计算得到特征矩阵X1,式中ω为参数,WQ为随机生成的权重矩阵,softmax(·)为Softmax函数,T为转置,α为阈值,α=0.25。
在本发明的一个实施例中,步骤f)包括如下步骤:
f-1)心音分类模型的TC模块由第一卷积块、第二卷积块、第三卷积块构成。
f-2)TC模块的第一卷积块依次由卷积层、Relu激活函数层、BatchNormalization批处理归一化层构成,卷积层的积核大小为3×3、通道数为64、步长为2,将特征矩阵X1输入到第一卷积块中,输出得到心音特征
f-3)TC模块的第二卷积块依次由卷积层、Relu激活函数层、BatchNormalization批处理归一化层构成,卷积层的积核大小为3×3、通道数为64、步长为1、填充为0,将心音特征输入到第二卷积块中,输出得到心音特征/>
f-4)TC模块的第三卷积块依次由卷积层、Relu激活函数层、BatchNormalization批处理归一化层构成,卷积层的积核大小为3×3、通道数为64、步长为1,将心音特征输入到第三卷积块中,输出得到心音特征/>
在本发明的一个实施例中,步骤g)包括如下步骤:
g-1)心音分类模型的FAP模块由Transformer模型的位置编码层、第一深度卷积层、第一LayerNorm层批处理归一化层、多头注意力机制、第二LayerNorm层批处理归一化层、卷积层、第一Relu激活函数层、第一BatchNormalization批处理归一化层、第二深度卷积层、第二Relu激活函数层、第二BatchNormalization批处理归一化层构成,第一深度卷积层的卷积核大小为3×3、通道数为32、步长设置为same,卷积层的的卷积核大小为1×1、通道数为32、步长设置为same,第二深度卷积层的卷积核大小为3×3、通道数为32、步长设置为same。
g-2)将心音特征输入到FAP模块的位置编码层中,输出得到心音特征X2,将心音特征X2输入到FAP模块的第一深度卷积层中,在通道上对输入特征做卷积运算,降低参数和运算量,输出得到心音特征X2′,将心音特征X2与心音特征X2′进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第一LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>输入到FAP模块的多头注意力机制中,输出得到心音特征将心音特征/>与心音特征/>进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第二LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>依次输入到FAP模块的卷积层、第一Relu激活函数层、第一BatchNormalization批处理归一化层后,输出得到心音特征/>将心音特征/>依次输入到FAP模块的第二深度卷积层、第二Relu激活函数层、第二BatchNormalization批处理归一化层中,输出得到心音特征/>将心音特征/>与心音特征/>进行融合操作,得到心音特征/>g-3)将心音特征/>输入到FAP模块的位置编码层中,输出得到心音特征X3,将心音特征X3输入到FAP模块的第一深度卷积层中,输出得到心音特征X3′,将心音特征X3与心音特征X3′进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第一LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>输入到FAP模块的多头注意力机制中,输出得到心音特征/>将心音特征/>与心音特征/>进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第二LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>依次输入到FAP模块的卷积层、第一Relu激活函数层、第一BatchNormalization批处理归一化层后,输出得到心音特征/>将心音特征/>依次输入到FAP模块的第二深度卷积层、第二Relu激活函数层、第二BatchNormalization批处理归一化层中,输出得到心音特征/>将心音特征/>与心音特征/>进行融合操作,得到心音特征/>g-4)将心音特征/>输入到FAP模块的位置编码层中,输出得到心音特征X4,将心音特征X4输入到FAP模块的第一深度卷积层中,输出得到心音特征X4′,将心音特征X4与心音特征X4′进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第一LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>输入到FAP模块的多头注意力机制中,输出得到心音特征/>将心音特征/>与心音特征/>进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第二LayerNorm层批处理归一化层中,输出得到心音特征将心音特征/>依次输入到FAP模块的卷积层、第一Relu激活函数层、第一BatchNormalization批处理归一化层后,输出得到心音特征/>将心音特征/>依次输入到FAP模块的第二深度卷积层、第二Relu激活函数层、第二BatchNormalization批处理归一化层中,输出得到心音特征/>将心音特征/>与心音特征/>进行融合操作,得到心音特征X5
在本发明的一个实施例中,步骤h)包括如下步骤:
h-1)心音分类模型的FC模块由全局平均池化层、第一Droupout层、第一Dense层、第二Droupout层、第二Dense层、Softmax层构成。
h-2)将心音特征X5依次输入到FC模块的全局平均池化层、第一Droupout层、第一Dense层、第二Droupout层、第二Dense层中,输出得到心音特征X5′。h-3)将心音特征X5′输入到FC模块的Softmax层中输出得到0到1区间的两个概率分布,为0时表示心音信号为正常信号,为1时表示心音信号为异常信号,实现心音信号正常和心音信号异常的分类。
在该实施例中,优选的第一Dense层的隐藏单元设置为512,第二Dense层的隐藏单元设置为2。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于深度可分离卷积与注意力机制的心音分类方法,其特征在于,包括如下步骤:
a)获取原始心音信号X;
b)将原始心音信号X划分为n条心音段x1,x2,...,xi,...,xn,xi为第i条心音段,i∈{1,2,...,n},每个心音段的长度为m秒;
c)提取第i条心音段xi的梅尔倒谱系数,得到第i条心音段xi的特征x′i
d)建立心音分类模型,心音分类模型由FAP模块、TC模块、DPT模块、FC模块构成;
e)将第i条心音段xi的特征x′i输入到心音分类模型的FAP模块中,输出得到特征矩阵X1
f)将特征矩阵X1输入到心音分类模型的TC模块中,输出得到心音特征
g)将心音特征输入到心音分类模型的DPT模块中,输出得到心音特征X5
h)将心音特征X5输入到心音分类模型的FC模块中,输出得到分类结果。
2.根据权利要求1所述的基于深度可分离卷积与注意力机制的心音分类方法,其特征在于:步骤a)中从Physionet2016心音数据库获取原始心音信号X。
3.根据权利要求1所述的基于深度可分离卷积与注意力机制的心音分类方法,其特征在于:步骤b)中m取值为5,不足5秒长的心音段进行补零操作。
4.根据权利要求1所述的基于深度可分离卷积与注意力机制的心音分类方法,其特征在于:步骤c)中梅尔倒谱系数维度设置为40。
5.根据权利要求1所述的基于深度可分离卷积与注意力机制的心音分类方法,其特征在于,步骤e)包括如下步骤:
e-1)通过公式Qi=x′i×Wi计算得到第i条心音段xi的特征矩阵Qi,i∈{1,2,...,n},Wi为随机生成的权重矩阵;
e-2)通过公式计算得到特征矩阵X1,式中ω为参数,/>WQ为随机生成的权重矩阵,softmax(·)为Softmax函数,T为转置,α为阈值,α=0.25。
6.根据权利要求1所述的基于深度可分离卷积与注意力机制的心音分类方法,其特征在于,步骤f)包括如下步骤:
f-1)心音分类模型的TC模块由第一卷积块、第二卷积块、第三卷积块构成;
f-2)TC模块的第一卷积块依次由卷积层、Relu激活函数层、BatchNormalization批处理归一化层构成,卷积层的积核大小为3×3、通道数为64、步长为2,将特征矩阵X1输入到第一卷积块中,输出得到心音特征
f-3)TC模块的第二卷积块依次由卷积层、Relu激活函数层、BatchNormalization批处理归一化层构成,卷积层的积核大小为3×3、通道数为64、步长为1、填充为0,将心音特征输入到第二卷积块中,输出得到心音特征/>
f-4)TC模块的第三卷积块依次由卷积层、Relu激活函数层、BatchNormalization批处理归一化层构成,卷积层的积核大小为3×3、通道数为64、步长为1,将心音特征输入到第三卷积块中,输出得到心音特征/>
7.根据权利要求1所述的基于深度可分离卷积与注意力机制的心音分类方法,其特征在于,步骤g)包括如下步骤:
g-1)心音分类模型的FAP模块由Transformer模型的位置编码层、第一深度卷积层、第一LayerNorm层批处理归一化层、多头注意力机制、第二LayerNorm层批处理归一化层、卷积层、第一Relu激活函数层、第一BatchNormalization批处理归一化层、第二深度卷积层、第二Relu激活函数层、第二BatchNormalization批处理归一化层构成,第一深度卷积层的卷积核大小为3×3、通道数为32、步长设置为same,卷积层的的卷积核大小为1×1、通道数为32、步长设置为same,第二深度卷积层的卷积核大小为3×3、通道数为32、步长设置为same;
g-2)将心音特征输入到FAP模块的位置编码层中,输出得到心音特征X2,将心音特征X2输入到FAP模块的第一深度卷积层中,输出得到心音特征X′2,将心音特征X2与心音特征X′2进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第一LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>输入到FAP模块的多头注意力机制中,输出得到心音特征/>将心音特征/>与心音特征/>进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第二LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>依次输入到FAP模块的卷积层、第一Relu激活函数层、第一BatchNormalization批处理归一化层后,输出得到心音特征/>将心音特征/>依次输入到FAP模块的第二深度卷积层、第二Relu激活函数层、第二BatchNormalization批处理归一化层中,输出得到心音特征/>将心音特征/>与心音特征/>进行融合操作,得到心音特征/>g-3)将心音特征/>输入到FAP模块的位置编码层中,输出得到心音特征X3,将心音特征X3输入到FAP模块的第一深度卷积层中,输出得到心音特征X′3,将心音特征X3与心音特征X′3进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第一LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>输入到FAP模块的多头注意力机制中,输出得到心音特征/>将心音特征/>与心音特征/>进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第二LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>依次输入到FAP模块的卷积层、第一Relu激活函数层、第一BatchNormalization批处理归一化层后,输出得到心音特征/>将心音特征/>依次输入到FAP模块的第二深度卷积层、第二Relu激活函数层、第二BatchNormalization批处理归一化层中,输出得到心音特征/>将心音特征/>与心音特征/>进行融合操作,得到心音特征/>g-4)将心音特征/>输入到FAP模块的位置编码层中,输出得到心音特征X4,将心音特征X4输入到FAP模块的第一深度卷积层中,输出得到心音特征X4′,将心音特征X4与心音特征X4′进行融合操作,得到心音特征/>将心音特征输入到FAP模块的第一LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>输入到FAP模块的多头注意力机制中,输出得到心音特征/>将心音特征/>与心音特征/>进行融合操作,得到心音特征/>将心音特征/>输入到FAP模块的第二LayerNorm层批处理归一化层中,输出得到心音特征/>将心音特征/>依次输入到FAP模块的卷积层、第一Relu激活函数层、第一BatchNormalization批处理归一化层后,输出得到心音特征/>将心音特征/>依次输入到FAP模块的第二深度卷积层、第二Relu激活函数层、第二BatchNormalization批处理归一化层中,输出得到心音特征/>将心音特征与心音特征/>进行融合操作,得到心音特征X5
8.根据权利要求1所述的基于深度可分离卷积与注意力机制的心音分类方法,其特征在于,步骤h)包括如下步骤:
h-1)心音分类模型的FC模块由全局平均池化层、第一Droupout层、第一Dense层、第二Droupout层、第二Dense层、Softmax层构成;
h-2)将心音特征X5依次输入到FC模块的全局平均池化层、第一Droupout层、第一Dense层、第二Droupout层、第二Dense层中,输出得到心音特征X5′;h-3)将心音特征X5′输入到FC模块的Softmax层中输出得到0到1区间的两个概率分布,为0时表示心音信号为正常信号,为1时表示心音信号为异常信号。
9.根据权利要求8所述的基于深度可分离卷积与注意力机制的心音分类方法,其特征在于:步骤h-1)中第一Dense层的隐藏单元设置为512,第二Dense层的隐藏单元设置为2。
CN202310732859.0A 2023-06-20 2023-06-20 一种基于深度可分离卷积与注意力机制的心音分类方法 Active CN116778968B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310732859.0A CN116778968B (zh) 2023-06-20 2023-06-20 一种基于深度可分离卷积与注意力机制的心音分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310732859.0A CN116778968B (zh) 2023-06-20 2023-06-20 一种基于深度可分离卷积与注意力机制的心音分类方法

Publications (2)

Publication Number Publication Date
CN116778968A true CN116778968A (zh) 2023-09-19
CN116778968B CN116778968B (zh) 2024-03-12

Family

ID=88005858

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310732859.0A Active CN116778968B (zh) 2023-06-20 2023-06-20 一种基于深度可分离卷积与注意力机制的心音分类方法

Country Status (1)

Country Link
CN (1) CN116778968B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109961017A (zh) * 2019-02-26 2019-07-02 杭州电子科技大学 一种基于卷积循环神经网络的心音信号分类方法
DE102019208031A1 (de) * 2018-06-04 2019-12-05 Robert Bosch Gmbh Verfahren und system zur detektion anormaler herztöne
US20190378617A1 (en) * 2018-06-08 2019-12-12 Cambridge Heartwear Limited Detecting abnormalities in ecg signals
CN113288163A (zh) * 2021-06-04 2021-08-24 浙江理工大学 基于注意力机制的多特征融合心电信号分类模型建模方法
WO2022121150A1 (zh) * 2020-12-10 2022-06-16 平安科技(深圳)有限公司 基于自注意力机制和记忆网络的语音识别方法及装置
CN115470828A (zh) * 2022-09-23 2022-12-13 华东师范大学 基于卷积与自注意力机制的多导联心电图分类识别方法
CN115486865A (zh) * 2022-09-15 2022-12-20 安徽财经大学 一种基于卷积循环神经网络的心音分类方法
CN115568860A (zh) * 2022-09-30 2023-01-06 厦门大学 基于双注意力机制的十二导联心电信号的自动分类方法
CN116226763A (zh) * 2023-03-03 2023-06-06 山东省人工智能研究院 基于改进型注意力机制的多标签心电信号分类方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019208031A1 (de) * 2018-06-04 2019-12-05 Robert Bosch Gmbh Verfahren und system zur detektion anormaler herztöne
US20190378617A1 (en) * 2018-06-08 2019-12-12 Cambridge Heartwear Limited Detecting abnormalities in ecg signals
CN109961017A (zh) * 2019-02-26 2019-07-02 杭州电子科技大学 一种基于卷积循环神经网络的心音信号分类方法
WO2022121150A1 (zh) * 2020-12-10 2022-06-16 平安科技(深圳)有限公司 基于自注意力机制和记忆网络的语音识别方法及装置
CN113288163A (zh) * 2021-06-04 2021-08-24 浙江理工大学 基于注意力机制的多特征融合心电信号分类模型建模方法
CN115486865A (zh) * 2022-09-15 2022-12-20 安徽财经大学 一种基于卷积循环神经网络的心音分类方法
CN115470828A (zh) * 2022-09-23 2022-12-13 华东师范大学 基于卷积与自注意力机制的多导联心电图分类识别方法
CN115568860A (zh) * 2022-09-30 2023-01-06 厦门大学 基于双注意力机制的十二导联心电信号的自动分类方法
CN116226763A (zh) * 2023-03-03 2023-06-06 山东省人工智能研究院 基于改进型注意力机制的多标签心电信号分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李伟;杨向东;陈恳;: "基于CNN和RNN联合网络的心音自动分类", 计算机工程与设计, no. 01 *

Also Published As

Publication number Publication date
CN116778968B (zh) 2024-03-12

Similar Documents

Publication Publication Date Title
CN113191215B (zh) 融合注意力机制与孪生网络结构的滚动轴承故障诊断方法
WO2021036059A1 (zh) 图像转换模型训练方法、异质人脸识别方法、装置及设备
WO2021098362A1 (zh) 视频分类模型构建、视频分类的方法、装置、设备及介质
CN110875912A (zh) 一种基于深度学习的网络入侵检测方法、装置和存储介质
WO2021082420A1 (zh) 声纹认证方法、装置、介质及电子设备
CN109977895B (zh) 一种基于多特征图融合的野生动物视频目标检测方法
CN109993236A (zh) 基于one-shot Siamese卷积神经网络的少样本满文匹配方法
CN110287879B (zh) 一种基于注意力机制的视频行为识别方法
CN112818861A (zh) 一种基于多模态上下文语义特征的情感分类方法及系统
CN112989977A (zh) 一种基于跨模态注意力机制的视听事件定位方法及装置
CN112766355A (zh) 一种标签噪声下的脑电信号情绪识别方法
CN115013298A (zh) 污水泵的实时性能在线监测系统及其监测方法
WO2021139351A1 (zh) 图像分割方法、装置、介质及电子设备
CN116778968B (zh) 一种基于深度可分离卷积与注意力机制的心音分类方法
CN114492755A (zh) 基于知识蒸馏的目标检测模型压缩方法
CN113987910A (zh) 一种耦合神经网络与动态时间规划的居民负荷辨识方法及装置
CN108446718B (zh) 一种动态深度置信网络分析方法
CN116432664A (zh) 一种高质量数据扩增的对话意图分类方法及系统
CN115937672A (zh) 一种基于深度神经网络的遥感旋转目标检测方法
CN115775601A (zh) 一种材料力热试验的异常数据监测方法及系统
CN112560784B (zh) 一种基于动态多尺度卷积神经网络的心电图分类方法
CN114758379A (zh) 一种基于注意力卷积神经网络的菊头蝠识别方法
CN114220145A (zh) 人脸检测模型生成方法和装置、伪造人脸检测方法和装置
CN113987258A (zh) 音频的识别方法、装置、可读介质和电子设备
CN116584951B (zh) 一种基于弱监督学习的心电信号检测和定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant