CN116172573A - 一种基于改进的Inception-ResNet-v2的心律失常图像分类方法 - Google Patents

一种基于改进的Inception-ResNet-v2的心律失常图像分类方法 Download PDF

Info

Publication number
CN116172573A
CN116172573A CN202310015724.2A CN202310015724A CN116172573A CN 116172573 A CN116172573 A CN 116172573A CN 202310015724 A CN202310015724 A CN 202310015724A CN 116172573 A CN116172573 A CN 116172573A
Authority
CN
China
Prior art keywords
heart beat
dimensional
resnet
formula
arrhythmia
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310015724.2A
Other languages
English (en)
Inventor
陈志�
彭兴卫
万相奎
罗靖
胡险峰
陈云帆
徐佳乐
刘一正
梅小雨
程浩
胡金水
陈祥
张梦思
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Strong Electronics Co ltd
Hubei University of Technology
Original Assignee
Wuhan Strong Electronics Co ltd
Hubei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Strong Electronics Co ltd, Hubei University of Technology filed Critical Wuhan Strong Electronics Co ltd
Priority to CN202310015724.2A priority Critical patent/CN116172573A/zh
Publication of CN116172573A publication Critical patent/CN116172573A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • A61B5/346Analysis of electrocardiograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Cardiology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于改进的Inception‑ResNet‑v2的心律失常图像分类方法,涉及深度学习技术、心电信号分析技术和图像分类领域,解决现有一维时序心律失常分类技术中存在的心律失常分类准确度低和性能不稳健的问题,方法具体包括:对采集的一维ECG信号进行数据预处理,并对处理后的一维心电信号进行心拍分割;对一维心拍使用深度卷积生成对抗网络进行数据增强;将数据增强后的一维心拍使用格拉姆角和场转换为二维心拍图像后分割训练集和测试集;构建改进的Inception‑ResNet‑v2图像分类模型;使用训练集进行网络训练得到最优模型,并使用测试集进行心律失常图像自动分类。

Description

一种基于改进的Inception-ResNet-v2的心律失常图像分类 方法
技术领域
本发明涉及深度学习技术、心电信号分析技术和图像分类领域,更具体地是涉及一种基于改进的Inception-ResNet-v2的心律失常图像分类方法技术领域。
背景技术
根据世界卫生组织统计数据表明,2019年估计有1790万人死于心血管疾病,占全球所有死亡人数的32%,是全球死亡的主要原因。心律失常是由于传导障碍而致使心脏跳动的频率异常,是最常见的心血管疾病之一。目前,临床上的心律失常诊断依赖于心电图和专业医生的辅助诊断,但由于其隐蔽性、复杂性和突发性的特点,给心律失常的临床诊断带了巨大挑战,严重的危害人体的生命健康。
近些年来,随着人工智能技术的发展,为了克服心律失常检测对专业医生辅助诊断的高度依赖和提高临床诊断的效率,研究者将人工智能技术应用到心律失常自动检测技术中。心律失常分类的现有研究工作大多是集中于一维时序信号的处理,虽然有显著性能改进,但其性能仍然不够稳健。借助计算机视觉以及图像识别的优势,研究者们开始将一维时间序列转化为二维图像进行分类识别,且有研究表明与一维卷积相比二维卷积能够提供更精确的分类效果。
发明内容
本发明的目的在于:提供一种基于改进的Inception-ResNet-v2的心律失常图像分类方法,解决了现有一维时序心律失常分类技术中存在的心律失常分类准确度低和性能不稳健的问题。
本发明为了实现上述目的具体采用以下技术方案:
一种基于改进的Inception-ResNet-v2的心律失常图像分类方法,包括以下步骤:
步骤A:对采集的一维ECG信号进行数据预处理,并对处理后的一维心电信号进行心拍分割,得到一维心拍时间序列信号;
步骤B:使用深度卷积生成对抗网络,对一维心拍时间序列信号进行数据增强,得到一维心拍增强ECG信号;
步骤C:将一维心拍增强ECG信号使用格拉姆角和场转换为二维心拍图像,再将二维心拍图像分割为训练集和测试集;
步骤D:构建改进的Inception-ResNet-v2图像分类模型;
步骤E:使用训练集对步骤D中的图像分类模型,进行网络训练,得到最优模型;并使用测试集进行心律失常图像自动分类。
作为一种可选的技术方案,所述步骤A中,数据预处理采用变分模态分解去除一维ECG信号的工频干扰和基线漂移,处理步骤为:
A1、自适应将采集的一维ECG信号f(t)分解成M个具有确定的中心频率和有限带宽的离散模态分量uk和残余项rn,则f(t)的表达式为公式(1):
Figure SMS_1
其中,fo(t)为去除噪声以后的真实信号,Δ为噪声,k为离散模态分量的数量;
A2、变分模态分解的信号分解过程可转换为变分模型的构造与求解过程,约束方程的表达式为公式(2):
Figure SMS_2
其中,ωk为uk的中心频率,
Figure SMS_3
为偏导运算符;*为卷积运算符;δ(t)为单位脉冲函数,t为时间,/>
Figure SMS_4
为估计的中心频率,s.t.表示约束方程的约束条件;
A3、利用Lagrange算子λ(t)和二次惩罚项α把公式(2)转换成无约束问题,如下式公式(3):
Figure SMS_5
其中,λ为拉格朗日乘法算子,
A4、利用交替方向乘子算法对公式(3)求解,得公式(4)和公式(5),并迭代更新M次,直至获得最优模态分量及中心频率;表达式为公式(4)和公式(5):
Figure SMS_6
Figure SMS_7
其中,
Figure SMS_8
表示当前剩余量,/>
Figure SMS_9
表示维纳滤波,/>
Figure SMS_10
为拉格朗日乘子傅里叶变换结果,ω为原始微震数据频谱离散点;/>
Figure SMS_11
表示当前模态函数功率谱的中心频率;d为微分运算符,/>
Figure SMS_12
为迭代更新后的垂直模态分量,
A5、对分解分量进行频谱分析,去除小于1Hz的低频模态和大于60Hz的高频模态重构心电信号。
作为一种可选的技术方案,所述步骤A中,具体心拍分割过程为:
读取MIT-BIH数据库中对应R波峰位置和对应的标签,以R峰为中心截取一个心拍(分别向R峰左截取0.28s,向R峰右截取0.56s);
根据ANSI/AAMIEC57:2012标准,分割为5组心拍:正常心拍(N)、室上性异位心拍(S)、心室异位心拍(V)、融合心拍(F)和未知心拍(Q)。
作为一种可选的技术方案,所述步骤B中,数据增强的具体步骤为:
B1、将一维心拍时间序列信号中需要数据增强的稀少真实心拍信号输入到判别器,获得真实样本的概率分布;判别器去判别生成器生成的样本概率分布是否为真实样本分布,用1表示真,0表示假;
B2、取一组噪声样本,通过生成器和判别器迭代训练,使生成器生成样本的概率分布接近真实样本分布,让判别器无法判别生成器生成样本的真假,最终生成逼真的ECG样本,表述为一维心拍增强ECG信号;
作为一种可选的技术方案,所述步骤C中,二维心拍图像的转换步骤如下:
C1、取一段一维心拍增强ECG信号、表示为X={x1,x2,…,xn},将笛卡尔坐标系下的时间序列信号进行归一化处理,表达式为公式6:
Figure SMS_13
Figure SMS_14
为归一化后的一维心拍增强ECG信号序列,xi为ECG信号所对应第i个采样点
C2、归一化后的一维心拍增强ECG信号通过公式(7)编码为角余弦
Figure SMS_15
通过公式(8)将时间戳ti编码为半径r,其中ti为X的时间戳,N为常数因子,从而将序列X映射到唯一的极坐标中,表达式为公式(7)、公式(8):
Figure SMS_16
Figure SMS_17
C3、将C2处理后的一维心拍增强ECG信号用Gram矩阵表示,表达式为公式(9):
Figure SMS_18
其中,
Figure SMS_19
为一维心拍增强ECG信号的第n个采样点所对应的极坐标值;
C4、根据公式(9),可得到二维心拍图像,表达式为公式(10):
Figure SMS_20
其中I表示的是单位行向量,
Figure SMS_21
为/>
Figure SMS_22
的转置向量,/>
Figure SMS_23
为信号长度范围内经过缩放后的局部一维ECG吸光度序列。
作为一种可选的技术方案,所述步骤C中,将70%二维心拍图像作为训练集,30%二维心拍图像作为测试集。
作为一种可选的技术方案,所述步骤D中,构建改进的Inception-ResNet-v2图像分类模型,包括顺次连接的stem、Inception-ResNet-A、Inception-ResNet-B、加入卷积注意力模块的Inception-ResNet-C、Reduction-A和Redu ction-B模块。
作为一种可选的技术方案,所述Inception-ResNet-C包括三个分支,第一个分支为上层网络的特征直接输出;第二个分支先经过一次卷积核大小为1×1,输出通道为192的卷积层;第三个分支先经过卷积核大小为1×1,输出通道分别为192、224、256的三层连续卷积层;然后把第二和第三分支的结果堆叠后进行一次卷积核大小为1×1的卷积操作,再经过一个CBAM模块的输出与第一分支的输出进行叠加。
作为一种可选的技术方案,使用训练集对改进的Inception-ResNet-v2图像分类模型进行训练,使用交叉熵函数计算损失率,计算表达式为公式(11):
Figure SMS_24
式中,Z为总样本的数量,M为类别的数量,数值为5;yic为符号函数0或1,如果i类样本的真实类别等于c取1,否则取0;pic观测样本i属于类别c的预测概率,log(.)为对数函数;
网络训练中,批次大小设置为64,网络的权重和偏置优化使用自定义的Adam衰减策略:初始学习率设置为0.001,每经过10个epoch学习的衰减为原来的0.1倍;训练过程中损失率不在下降时保存最优模型
本发明的有益效果如下:
1.提出一种基于改进的Inception-ResNet-v2的心律失常图像分类方法,利用VMD和DCGAN进行数据预处理,然后将一维时间序列转换为二维图像进行心律失常图像分类。
2.该方法克服了一维卷积存在的空间分辨率低的现象,提高了心律失常识别精确度和鲁棒性,解决了一维心律失常分类模型精确度低、性能不稳健的问题。
附图说明
图1为本发明提供的一种基于改进的Inception-ResNet-v2的心律失常图像分类方法的流程示意图;
图2为实例MITB109信号变分模态分解结果;
图3为实例MITB109信号模态分量功率谱;
图4为实例MITB109原始信号与去噪后信号对比;
图5a为实例正常心拍分割结果;
图5b为实例心室异位心拍分割结果;
图5c为实例室上性异位心拍分割结果;
图5d为实例融合心拍分割结果;
图5e为实例未知心拍分割结果;
图6为实例一维心拍转换图像结果;
图7为实例改进的Inception-ResNet-v2模型结构;
图8为实例加入卷积注意力模块的Inception-ResNet-C结构;
图9为实例在患者内范式下的混淆矩阵;
图10为实例在患者间范式下的混淆矩阵。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1到图10所示,本实施例提供一种基于改进的Inception-ResNet-v2的心律失常图像分类方法,其特征在于,包括以下步骤:
步骤A:对采集的一维ECG信号进行数据预处理,并对处理后的一维心电信号进行心拍分割,得到一维心拍时间序列信号;
步骤B:使用深度卷积生成对抗网络,对一维心拍时间序列信号进行数据增强,得到一维心拍增强ECG信号;
步骤C:将一维心拍增强ECG信号使用格拉姆角和场转换为二维心拍图像,再将二维心拍图像分割为训练集和测试集;
步骤D:构建改进的Inception-ResNet-v2图像分类模型;
步骤E:使用训练集对步骤D中的图像分类模型,进行网络训练,得到最优模型;并使用测试集进行心律失常图像自动分类。
为验证心律失常模型的有效性,本实施例以选用MIT-BIH心律失常数据库,下简称MITB,细介绍以上步骤。
所述的MIT-BIH心律失常数据库包括多种常见危及生命的心律失常记录,该数据库以360Hz的采样频率记录了48名患者的心跳信息,并有两名专家的标注,其中包含了15种类型的心律失常。根据注释和美国医疗器械促进协会(AA MI)EC57标准,把15种心律失常划分为5类心律失常组:正常心拍(Normalbe at,N)、室上性异位心拍(Supraventricularprematurebeat,SorSVEB)、心室异位心拍(Ventricularectopicbeat,VorVEB)、融合心拍(Fusionbeat,F)和未知心拍(Unknownbeat,Q)。
其上述数据可公开获得。
实施例2
在实施例1的基础上,进一步的对MIT-BIH心律失常数据库中MLⅡ导联原始心电数据使用VMD进行数据预处理。具体实施步骤如下:
A1、自适应将采集的一维ECG信号f(t)分解成8个具有确定的中心频率和有限带宽的离散模态分量uk和残余项rn,则f(t)的表达式为公式(1):
Figure SMS_25
其中,M取值8,fo(t)为去除噪声以后的真实信号,Δ为噪声,k为离散模态分量的数量;
A2、变分模态分解(VMD)的信号分解过程可转换为变分模型的构造与求解过程,约束方程为:
Figure SMS_26
其中,ωk为uk的中心频率,
Figure SMS_27
为偏导运算符;*为卷积运算符;δ(t)为单位脉冲函数,t为时间,/>
Figure SMS_28
为估计的中心频率,s.t.是subjectto、表示约束条件;
A3、利用Lagrange算子λ(t)和二次惩罚项α把公式(2)转换成无约束问题,如下式公式(3):
Figure SMS_29
其中,λ为拉格朗日乘法算子,
A4、利用交替方向乘子算法对公式(3)求解,得公式(4)和公式(5),并迭代更新M次,直至获得最优模态分量及中心频率;表达式为公式(4)和公式(5):
Figure SMS_30
Figure SMS_31
/>
其中,
Figure SMS_32
表示当前剩余量,/>
Figure SMS_33
表示维纳滤波,/>
Figure SMS_34
为拉格朗日乘子傅里叶变换结果,ω为原始微震数据频谱离散点;/>
Figure SMS_35
表示当前模态函数功率谱的中心频率;d为微分运算符,/>
Figure SMS_36
为迭代更新后的垂直模态分量。
以MITB109信号为例,变分模态分解(VMD)分解结果参照图2。
A5、对分解的8级模态分量进行频谱分析,MITB109信号各模态分量功率谱参考如图3。去除含有1Hz的基线漂移分量IMF1和含有工频干扰分量IMF8,对信号进行重构。原始信号与去噪后信号的对比,参照图4。
所述步骤A中,根据MITB的注释,具体心拍分割过程为,以R峰为中心截取一个心拍(分别向R峰左截取0.28s,向R峰右截取0.56s)。正常心拍(N)、室上性异位心拍(S)、心室异位心拍(V)、融合心拍(F)和未知心拍(Q)的分割结果,参照图5a~图5e,MITB心拍分布见表1。
表1MITB心拍样本分布
Figure SMS_37
所述步骤B中,深度卷积生成对抗网络进行数据增强,结构包括6层ConvTranspose1D组成的生成器和6层Conv1D组成的判别器。生成器包含6层顺序连接的ConvTranspose1D,第一层ConvTranspose1D输入特征图大小为100,输出特征图大小2048,卷积核大小为4×1,步幅为1;第二层ConvTranspose1D输入特征图大小为2048,输出特征图大小1024,卷积核大小为4×1,步幅为1;第三层ConvTranspose1D输入特征图大小为1024,输出特征图大小512,卷积核大小为4×1,步幅为1;第四层ConvTranspose1D输入特征图大小为512,输出特征图大小256,卷积核大小为3×2,步幅为1;第五层ConvTranspose1D输入特征图大小为256,输出特征图大小128,卷积核大小为4×2,步幅为1;第六层ConvTranspose1D输入特征图大小为128,输出特征图大小64,卷积核大小为4×2,步幅为1。判别器包含6层顺序连接的Conv1D,第一层Conv1D输入特征图大小为1,输出特征图大小64,卷积核大小为4×2,步幅为1;第二层Conv1D输入特征图大小为64,输出特征图大小128,卷积核大小为4×2,步幅为1;第三层Con1D输入特征图大小为128,输出特征图大小256,卷积核大小为4×2,步幅为1;第四层Conv1D输入特征图大小为256,输出特征图大小512,卷积核大小为4×2,步幅为1;第五层Conv1D输入特征图大小为512,输出特征图大小1024,卷积核大小为4×2,步幅为1;第六层Conv1D输入特征图大小为1024,输出特征图大小1,卷积核大小为5×2,步幅为1。使用DCGAN对S、F和Q类心拍进行数据增强,将这三类心拍的数量扩充至6900,增强后的数据集如表2所示。
表2数据增强样本分布
Figure SMS_38
所述步骤C中,二维心拍图像的转换步骤如下:
C1、取一段一维心拍增强ECG信号、表示为X={x1,x2,…,xn},将笛卡尔坐标系下的时间序列信号进行归一化处理,表达式为公式6:
Figure SMS_39
Figure SMS_40
为归一化后的一维心拍增强ECG信号序列xi为ECG信号所对应第i个采样点
C2、归一化后的一维心拍增强ECG信号通过公式(7)编码为角余弦
Figure SMS_41
通过公式(8)将时间戳ti编码为半径r,其中ti为X的时间戳,N为常数因子,从而将序列X映射到唯一的极坐标中,表达式为公式(7)、公式(8):
Figure SMS_42
Figure SMS_43
C3、将C2处理后的一维心拍增强ECG信号用Gram矩阵表示,表达式为公式(9):
Figure SMS_44
其中,
Figure SMS_45
为一维心拍增强ECG信号的第n个采样点所对应的极坐标值;
C4、根据公式(9),可得到二维心拍图像,表达式为公式(10):
Figure SMS_46
其中I表示的是单位行向量,
Figure SMS_47
为/>
Figure SMS_48
的转置向量,/>
Figure SMS_49
为信号长度范围内经过缩放后的局部一维ECG吸光度序列。
一维心拍样本转换为图像的结果参照图6,其图像大小为299×299×3,将70%二维心拍图像作为训练集,30%二维心拍图像作为测试集。
所述步骤D中,构建改进的Inception-ResNet-v2图像分类模型,结构参照图7,包括顺次连接的stem、Inception-ResNet-A、Inception-ResNet-B、加入卷积注意力模块(CBAM)的Inception-ResNet-C、Reduction-A和Reduction-B模块。
加入卷积注意力模块的Inception-ResNet-C的结构参照图8,其中包括三个分支,第一个分支为上层网络的特征直接输出;第二个分支先经过一次卷积核大小为1×1,输出通道为192的卷积层;第三个分支先经过卷积核大小为1×1,输出通道分别为192、224、256的三层连续卷积层;然后把第二和第三分支的结果堆叠后进行一次卷积核大小为1×1的卷积操作,再经过一个CBAM模块的输出与第一分支的输出进行叠加。
根据步骤S5,使用训练集对改进的Interception-ResNet-v2图像分类模型进行训练,使用交叉熵函数计算损失率,计算表达式为公式(11):
Figure SMS_50
式中,Z为总样本的数量,M为类别的数量,数值为5;yic为符号函数0或1,如果i类样本的真实类别等于c取1,否则取0;pic观测样本i属于类别c的预测概率,log(.)为对数函数;
网络训练中,批次大小设置为64,网络的权重和偏置优化使用自定义的Adam衰减策略:初始学习率设置为0.001,每经过10个epoch学习的衰减为原来的0.1倍;训练过程中损失率不在下降时保存最优模型。
本实施例采用准确率(Accuracy,Acc)、灵敏度(Sensitivity,Sen)、阳性预测值(PositivePredictiveValue,Ppv)来定量评估模型的性能,计算公式为:
Acc(%)=(TP+TN)/(TP+TN+FP+FN) (12)
Sen(%)=TP/(TP+FN)×100% (13)
Ppv(%)=TP/(TP+FP)×100% (14)
其中,TP表示实际的正样本被分类为真样本的数量;FN表示实际的正样本被分类为负样本的数量。类似地,FP表示实际的负样本被分类为真样本的数量;TN表示实际的负样本被分类为负样本的数量。其中,Acc表示整体分类精度,Acc的值高表示漏诊率低;Sen越高表示对当前类的识别性能好;Ppv越高表示对当前类错误识别的概率低。
为了验证实施例的优越性和鲁棒性,分别在MITB患者内(intra-patient)范式和患者间(inter-patient)范式下对VGG16、ResNet50、原始Inception-ResNet-v2和本施例进行测试对比。其所述网络模型都可公开获取。
本实施例在MITBintra-patient范式下对VGG16、ResNet50、原始Incept ion-ResNet-v2测试对比。将70%的图片作为模型的训练集,30%的图片作为测试集,对本实例模型进行训练100次,得到混淆矩阵如图9所示,五类心律失常在intra-patient下分类性能如表3所示。
表3intra-patient范式下模型性能对比
Figure SMS_51
实验表明,本实施例改进后的方法在MITB数据集intra-patient范式上,达到了99.52%的分类精度,优于其它几种图像分类网络。相较于原始的Incep tion-ResNet-v2网路,加入注意力机制优化的Inception-ResNet-v2网路,V类的Sen和Ppv分别提升了0.87%和0.65%,S类的Sen和Ppv分别提升了3.5%和0.23%,一定程度上提高了对V类和S类的识别能力,证明的优化网络的有效性。
本实施例在MITBinter-patient范式下对VGG16、ResNet50、原始Incept ion-ResNet-v2测试对比。DS1为训练集,DS2为测试集,将S、F和Q类图片数量扩充至3700,则心拍分布如表4。
表4MITB inter-patient心拍分布
Figure SMS_52
使用DS1对实例模型训练100次,得到混淆矩阵如图10所示,五类心律失常在inter-patient下分类性能如表5所示。
表5inter-patient范式下模型性能对比
Figure SMS_53
在inter-patient范式下模型性能对比,表明本实例的性能表现依然优于其它分类网络,相较于原始的Inception-Resnet-v2网络,其整体的分类精度达到了95.48%,提升了0.85。S、F、V类的Sen有所提高。
综上所述,本实例的模型在intra-patient范式和inter-patient范式分别获得了99.52%和95.48%整体分类精度,其性能表现优于VGG16、ResNet50和原始Inception-ResNet-v2网络。
本发明的主要创新之处在于:1)利用8级VMD和6层DCGAN对原始心电数据进行去噪和数据增强;2)使用GASF将一维时序心拍转换为二维图像;3)构建改进的Inception-ResNet-v2网络,克服了一维卷积存在的空间分辨率低的现象,提高了心律失常图像分类的准确性和鲁棒性。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于改进的Inception-ResNet-v2的心律失常图像分类方法,其特征在于,包括以下步骤:
步骤A:对采集的一维ECG信号进行数据预处理,并对处理后的一维心电信号进行心拍分割,得到一维心拍时间序列信号;
步骤B:使用深度卷积生成对抗网络,对一维心拍时间序列信号稀少心拍进行数据增强,得到一维心拍增强ECG信号;
步骤C:将一维心拍增强ECG信号使用格拉姆角和场转换为二维心拍图像,再将二维心拍图像分割为训练集和测试集;
步骤D:构建改进的Inception-ResNet-v2图像分类模型;
步骤E:使用训练集对步骤D中的图像分类模型,进行网络训练,得到最优模型;并使用测试集进行心律失常图像自动分类。
2.根据权利要求1所述的一种基于改进的Inception-ResNet-v2的心律失常图像分类方法,其特征在于,所述步骤A中,数据预处理采用变分模态分解去除一维ECG信号的工频干扰和基线漂移,处理步骤为:
A1、自适应将采集的一维ECG信号f(t)分解成M个具有确定的中心频率和有限带宽的离散模态分量uk和残余项rn,则f(t)的表达式为公式(1):
Figure QLYQS_1
其中,fo(t)为去除噪声以后的真实信号,Δ为噪声,k为离散模态分量的数量;
A2、变分模态分解的信号分解过程可转换为变分模型的构造与求解过程,约束方程的表达式为公式(2):
Figure QLYQS_2
其中,uk为离散模态分量,ωk为uk的中心频率,
Figure QLYQS_3
为偏导运算符;*为卷积运算符;δ(t)为单位脉冲函数,t为时间,/>
Figure QLYQS_4
为估计的中心频率,s.t.表示约束方程的约束条件;
A3、利用Lagrange算子λ(t)和二次惩罚项α把公式(2)转换成无约束问题,如下式公式(3):
Figure QLYQS_5
/>
其中,λ为拉格朗日乘法算子;
A4、利用交替方向乘子算法对公式(3)求解,得公式(4)和公式(5),并迭代更新M次,直至获得最优模态分量及中心频率;表达式为公式(4)和公式(5):
Figure QLYQS_6
Figure QLYQS_7
其中,
Figure QLYQS_8
表示当前剩余量,/>
Figure QLYQS_9
表示维纳滤波,/>
Figure QLYQS_10
为拉格朗日乘子傅里叶变换结果,ω为原始微震数据频谱离散点;ωk n+1表示当前模态函数功率谱的中心频率;d为微分运算符,/>
Figure QLYQS_11
为迭代更新后的垂直模态分量,
A5、对分解分量进行频谱分析,去除小于1Hz的低频模态和大于60Hz的高频模态重构心电信号。
3.根据权利要求1所述的一种基于改进的Inception-ResNet-v2的心律失常图像分类方法,其特征在于,所述步骤A中,具体心拍分割过程为:
读取MIT-BIH数据库中对应R波峰位置和对应的标签,以R峰为中心截取一个心拍;
根据ANSI/AAMIEC57:2012标准,分割为5组心拍:正常心拍、室上性异位心拍、心室异位心拍、融合心拍和未知心拍。
4.根据权利要求1所述的一种基于改进的Inception-ResNet-v2的心律失常图像分类方法,其特征在于,所述步骤B中,数据增强的具体步骤为:
B1、将一维心拍时间序列信号中需要数据增强的稀少真实心拍信号输入到判别器,获得真实样本的概率分布;判别器去判别生成器生成的样本概率分布是否为真实样本分布,用1表示真,0表示假;
B2、取一组噪声样本,通过生成器和判别器迭代训练,使生成器生成样本的概率分布接近真实样本分布,让判别器无法判别生成器生成样本的真假,最终生成逼真的ECG样本,表述为一维心拍增强ECG信号。
5.根据权利要求1所述的一种基于改进的Inception-ResNet-v2的心律失常图像分类方法,其特征在于,所述步骤C中,二维心拍图像的转换步骤如下:
C1、取一段一维心拍增强ECG信号、表示为X={x1,x2,…,xn},将笛卡尔坐标系下的时间序列信号进行归一化处理,表达式为公式6:
Figure QLYQS_12
Figure QLYQS_13
为归一化后的一维心拍增强ECG信号序列,xi为ECG信号所对应第i个采样点/>
C2、归一化后的一维心拍增强ECG信号通过公式(7)编码为角余弦
Figure QLYQS_14
通过公式(8)将时间戳ti编码为半径r,其中ti为X的时间戳,N为常数因子,从而将序列X映射到唯一的极坐标中,表达式为公式(7)、公式(8):
Figure QLYQS_15
Figure QLYQS_16
C3、将C2处理后的一维心拍增强ECG信号用Gram矩阵表示,表达式为公式(9):
Figure QLYQS_17
其中,
Figure QLYQS_18
为一维心拍增强ECG信号的第n个采样点所对应的极坐标值;
C4、根据公式(9),可得到二维心拍图像,表达式为公式(10):
Figure QLYQS_19
其中I表示的是单位行向量,
Figure QLYQS_20
为/>
Figure QLYQS_21
的转置向量,/>
Figure QLYQS_22
为信号长度范围内经过缩放后的局部一维ECG吸光度序列。
6.根据权利要求1所述的一种基于改进的Inception-ResNet-v2的心律失常图像分类方法,其特征在于,所述步骤C中,将70%二维心拍图像作为训练集,30%二维心拍图像作为测试集。
7.根据权利要求1所述的一种基于改进的Intception-ResNet-v2的心律失常图像分类方法,其特征在于,所述步骤D中,构建改进的Inception-ResNet-v2图像分类模型,包括顺次连接的stem、Inception-ResNet-A、Inception-ResNet-B、加入卷积注意力模块的Inception-ResNet-C、Reduction-A和Reduction-B模块。
8.根据权利要求7所述的一种基于改进的Inception-ResNet-v2的心律失常图像分类方法,其特征在于,所述Inception-ResNet-C包括三个分支,第一个分支为上层网络的特征直接输出;第二个分支先经过一次卷积核大小为1×1,输出通道为192的卷积层;第三个分支先经过卷积核大小为1×1,输出通道分别为192、224、256的三层连续卷积层;然后把第二和第三分支的结果堆叠后进行一次卷积核大小为1×1的卷积操作,再经过一个CBAM模块的输出与第一分支的输出进行叠加。
9.根据权利要求1所述的一种基于改进的Inception-ResNet-v2的心律失常图像分类方法,其特征在于,使用训练集对改进的Inception-ResNet-v2图像分类模型进行训练,使用交叉熵函数计算损失率,计算表达式为公式(11):
Figure QLYQS_23
式中,Z为总样本的数量,M为类别的数量,数值为5;yic为符号函数0或1,如果i类样本的真实类别等于c取1,否则取0;pic观测样本i属于类别c的预测概率,log(.)为对数函数;
网络训练中,批次大小设置为64,网络的权重和偏置优化使用自定义的Adam衰减策略:初始学习率设置为0.001,每经过10个epoch学习的衰减为原来的0.1倍;训练过程中损失率不在下降时保存最优模型。
CN202310015724.2A 2023-01-06 2023-01-06 一种基于改进的Inception-ResNet-v2的心律失常图像分类方法 Pending CN116172573A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310015724.2A CN116172573A (zh) 2023-01-06 2023-01-06 一种基于改进的Inception-ResNet-v2的心律失常图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310015724.2A CN116172573A (zh) 2023-01-06 2023-01-06 一种基于改进的Inception-ResNet-v2的心律失常图像分类方法

Publications (1)

Publication Number Publication Date
CN116172573A true CN116172573A (zh) 2023-05-30

Family

ID=86439628

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310015724.2A Pending CN116172573A (zh) 2023-01-06 2023-01-06 一种基于改进的Inception-ResNet-v2的心律失常图像分类方法

Country Status (1)

Country Link
CN (1) CN116172573A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116818717A (zh) * 2023-08-28 2023-09-29 泉州装备制造研究所 谱域光学相干层析成像中波长校准误差的补偿方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116818717A (zh) * 2023-08-28 2023-09-29 泉州装备制造研究所 谱域光学相干层析成像中波长校准误差的补偿方法及系统
CN116818717B (zh) * 2023-08-28 2023-11-07 泉州装备制造研究所 谱域光学相干层析成像中波长校准误差的补偿方法及系统

Similar Documents

Publication Publication Date Title
Marinho et al. A novel electrocardiogram feature extraction approach for cardiac arrhythmia classification
Gao et al. An effective LSTM recurrent network to detect arrhythmia on imbalanced ECG dataset
CN111160139B (zh) 心电信号的处理方法、装置及终端设备
CN111449645B (zh) 心电图心拍智能分类识别方法
CN111990989A (zh) 一种基于生成对抗及卷积循环网络的心电信号识别方法
Moses et al. A survey of data mining algorithms used in cardiovascular disease diagnosis from multi-lead ECG data
Li et al. Signal processing and feature selection preprocessing for classification in noisy healthcare data
Zhang et al. An ECG heartbeat classification method based on deep convolutional neural network
Feyisa et al. Lightweight multireceptive field CNN for 12-lead ECG signal classification
Banerjee et al. A hybrid CNN-LSTM architecture for detection of coronary artery disease from ECG
Zhang et al. Semi-supervised learning for automatic atrial fibrillation detection in 24-hour Holter monitoring
CN115281688A (zh) 一种基于多模态深度学习的心脏肥大多标签检测系统
Yao et al. Interpretation of electrocardiogram heartbeat by CNN and GRU
CN115530788A (zh) 基于自注意力机制的心律失常分类方法
Li et al. DeepECG: Image-based electrocardiogram interpretation with deep convolutional neural networks
JP2023104885A (ja) グラフ畳み込みに基づく心電図心拍数マルチタイプの予測方法
Cai et al. Real-time arrhythmia classification algorithm using time-domain ECG feature based on FFNN and CNN
CN114041800B (zh) 心电信号实时分类方法、装置及可读存储介质
CN109907751B (zh) 一种基于人工智能监督学习的实验室胸痛数据检查辅助识别方法
CN116172573A (zh) 一种基于改进的Inception-ResNet-v2的心律失常图像分类方法
Zhang et al. SS-SWT and SI-CNN: an atrial fibrillation detection framework for time-frequency ECG signal
CN109033990B (zh) 基于类内类间距离的cnn模型心拍分类方法
CN113069124A (zh) 一种基于cnn-et模型的心电监测方法
Zaorálek et al. Patient-adapted and inter-patient ECG classification using neural network and gradient boosting
Zeng et al. Deep arrhythmia classification based on SENet and lightweight context transform

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination