CN113076846B - 心音分类识别方法及系统 - Google Patents

心音分类识别方法及系统 Download PDF

Info

Publication number
CN113076846B
CN113076846B CN202110331069.2A CN202110331069A CN113076846B CN 113076846 B CN113076846 B CN 113076846B CN 202110331069 A CN202110331069 A CN 202110331069A CN 113076846 B CN113076846 B CN 113076846B
Authority
CN
China
Prior art keywords
heart sound
sound signal
model
data
recognition model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110331069.2A
Other languages
English (en)
Other versions
CN113076846A (zh
Inventor
魏守水
王颖
火蕊
梁业松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN202110331069.2A priority Critical patent/CN113076846B/zh
Publication of CN113076846A publication Critical patent/CN113076846A/zh
Application granted granted Critical
Publication of CN113076846B publication Critical patent/CN113076846B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • G06F2218/04Denoising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

本发明提供一种心音分类识别方法及系统,属于心音识别技术领域,使用全识别模型对采集的心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号;根据全识别模型的识别结果,将心音信号输送至第一识别模型或第二识别模型,若第一识别模型或第二识别模型的识别结果与全识别模型的结果一致,则识别结果为全识别模型的识别结果;若不一致,则基于深度度量学习对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号。本发明将阴性数据和阳性数据分离开各自形成新的数据集合,分别对分类器模型进行训练,得到单一型数据模型,进而集成出一种新的分类器应用结构,进行分类结果进一步的判断甄别,提高了集成模型整体的分类准确率。

Description

心音分类识别方法及系统
技术领域
本发明涉及心音识别技术领域,具体涉及一种提高了心音分类识别准确率的心音分类识别方法及系统。
背景技术
听诊心音是临床实践中诊断心血管疾病(CVD)的重要手段,心音信号是人体最重要的生理信号之一,应用于听诊辅助治疗已经有了相当悠久的历史。心音信号含有大量的心脏功能状态的生理信息,具备普遍性、独特性和可采集性的特征。
在心动周期期间,心脏首先经历电激活,然后导致心房和心室收缩形式的机械活动。由于心脏瓣膜的打开和关闭,这又迫使血液在心脏的腔室之间和身体周围。这种机械活动以及心脏内血液流动的突然开始或停止,引起整个心脏结构的振动。这些振动在胸壁上是可听见的,并且聆听特定的心音可以指示心脏的健康状况。在胸部表面转导的最终声音的录音(或图形)时间序列表示被称为心音记录或心音图(Phonocardiogram,PCG)。现有技术中,最常用于收听和采集心音有:主动脉区域-集中在右第二肋间隙、肺部区域-沿胸骨左缘第二肋间、三尖瓣区域-第四肋间隙和二尖瓣区域-心脏尖尖(在锁骨中线上第五肋间空间)。
基础心音(Foundamental heart sound,FHS)通常包括第一(S1)和第二(S2)心音。当已经关闭的二尖瓣和三尖瓣由于心室内压的迅速增加而突然关闭时,S1发生在心室等容收缩(收缩期,Systole)的开始。S2发生在舒张期(Diastole)开始时,主动脉瓣和肺动脉瓣关闭。
在传统的心音听诊中,医生会使用S1和S2心音来确定心拍,侦听S1和S2之间的杂音,而这些杂音就有可能包含病理特征。另外,还可以通过听S1和S2心音的持续时间来诊断被测是否为心律失常。通过机器学习分类算法进行生理信号分析,如支持向量机(SupportVector Machine,SVM)、朴素贝叶斯分类器,K最近邻(K-Nearest Neighbor,KNN),决策树等,引用于心音信号分析,普遍都是将一个包含正常信号(记为阴性数据)和异常信号(记为阳性数据)的数据集,按照一定的比例划分为模型的训练集(train set)、验证集(development set)和测试集(test set),训练集用于模型拟合,之后使用验证集调整模型的超参数并对模型的能力进行初步评估,最后使用测试集来评估最终模型的泛化能力。
发明内容
本发明的目的在于提供一种心音分类识别方法及系统,以解决上述背景技术中存在的至少一项技术问题。
为了实现上述目的,本发明采取了如下技术方案:
一方面,本发明提供一种心音分类识别方法,包括:
使用全识别模型对采集的心音信号进行分析,确定所述心音信号是正常心音信号还是异常心音信号;
若全识别模型输出为正常心音信号,则使用第一识别模型对心音信号进行分析,确定所述心音信号是否为正常心音信号,若是,则采集的心音信号为正常心音信号,若否,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号;
若全识别模型输出为异常心音信号,则使用第二识别模型对心音信号进行分析,确定所述心音信号是否为异常心音信号,若是,则采集的心音信号为异常心音信号,若否,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号。
优选的,所述全识别模型为使用多组数据训练得出,所述多组数据包括第一类数据和第二类数据;
所述第一类数据中的每组数据均包括正常心音信号和标识该正常心音信号的标签;所述第二类数据中的每组数据均包括异常心音信号和标识该异常心音信号的标签;
第一识别模型为使用所述第一类数据训练得出;第二识别模型为使用所述第二类数据训练得出。
优选的,将多组数据进行预处理,然后进行特征提取,将提取的特征输入分类器模型,采用k折交叉验证的方式,进行训练和验证,得到所述全识别模型;
将第一类数据进行预处理,然后进行特征提取,将提取的特征输入分类器模型,采用k折交叉验证的方式,进行训练和验证,得到第一识别模型;
将第二类数据进行预处理,然后进行特征提取,将提取的特征输入分类器模型,采用k折交叉验证的方式,进行训练和验证,得到第二识别模型。
优选的,对数据进行预处理包括:信号质量评估筛选有临床价值的信号,信号采样频率与幅值的归一化,使用隐藏半马尔可夫算法确定第一心音位置和第二心音位置,根据第一心音位置和第二心音位置将心音分段为S1、收缩期、S2和舒张期。
优选的,对数据进行特征提取包括:
对基础心音信号进行分帧与加窗,得到分帧信号,对分帧信号进行傅里叶变换,得到频域信号,对频域信号进行梅尔频率刻度的变换,得到梅尔频谱,对梅尔频谱进行倒谱分析,得到梅尔频率倒谱系数。
优选的,对数据进行特征提取还包括:
获取一个心脏周期的长度的平均值和标准差、S1的长度的平均值和标准差、收缩期的长度的平均值和标准差、S2的长度的平均值和标准差、舒张期的长度的平均值和标准差、收缩长度与心拍长度的比率的平均值和标准差、舒张长度与心拍长度的比率的平均值和标准差、收缩长度与舒张长度的比率的平均值和标准差、平均收缩期振幅与S1平均振幅的比率的平均值和标准差以及平均舒张期振幅与S2平均振幅的比率的平均值和标准差。
优选的,使用融合模型对心音信号进行分析包括:
融合模型的判断结果z由以下公式得出:
Figure BDA0002994469600000041
其中,Premul表示全识别模型的k折交叉验证的预测精确度,Preneg表示第一识别模型器的k折交叉验证的预测精确度,Prepos表示第二识别模型的k折交叉验证的预测精确度;x表示全识别模型的输出结果,为阴性表示为正常心音信号,为阳性表示为异常心音信号;y表示第一识别模型或第二识别模型的输出结果;利用训练集,使用深度度量学习得到参数m和n。
优选的,使用深度度量学习确定融合参数m和n包括:
通过深度度量学习,得到用来衡量样本间相似度的度量函数,根据相似度区分样本,对样本进行分类,使得分类结果与标签的区分结果一致;
即,
利用深度度量学习将有标签的训练集样本分为阴性与阳性两类,对于每类分别计算其类内方差,分别记为SD1与SD2,参数m和n即为SD1与SD2的函数,记为:(m,n)=f(SD1,SD2)。
第二方面,本发明提供一种心音分类识别系统,包括:
全识别模块,用于使用全识别模型对采集的心音信号进行分析,确定所述心音信号是正常心音信号还是异常心音信号;
第一识别模块,用于若全识别模型输出为正常心音信号,则使用第一识别模型对心音信号进行分析,确定所述心音信号是否为正常心音信号,若是,则采集的心音信号为正常心音信号;
第二识别模块,用于若全识别模型输出为异常心音信号,则使用第二识别模型对心音信号进行分析,确定所述心音信号是否为异常心音信号,若是,则采集的心音信号为异常心音信号;
融合模块,用于若第一识别模块判断的心音信号不是正常心音信号,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号;或者,若第二识别模块判断的心音信号不是异常心音信号,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号。
第三方面,本发明提供一种计算机设备,包括存储器和处理器,所述处理器和所述存储器相互通信,所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令执行如上所述的心音分类识别方法。
本发明有益效果:将阴性数据和阳性数据分离开各自形成新的数据集合,分别对分类器模型进行训练,得到单一型数据模型,进而集成出一种新的分类器应用结构,进行分类结果进一步的判断甄别,提高了集成模型整体的分类准确率。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例1所述的获取最终心音分类识别结果的工作流程图。
图2为本发明实施例2所述的心音分类识别方法的流程图。
图3为本发明实施例2所述的梅尔频率倒谱系数的提取流程示意图。
图4为本发明实施例3所述的心音分类识别方法的流程图。
图5为本发明实施例3所述的集成分类器工作原理流程图。
具体实施方式
下面详细叙述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。
还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件和/或它们的组。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
为便于理解本发明,下面结合附图以具体实施例对本发明作进一步解释说明,且具体实施例并不构成对本发明实施例的限定。
本领域技术人员应该理解,附图只是实施例的示意图,附图中的部件并不一定是实施本发明所必须的。
实施例1
本发明实施例1提供一种心音分类识别系统,该系统包括:
全识别模块,用于使用全识别模型对采集的心音信号进行分析,确定所述心音信号是正常心音信号还是异常心音信号;
第一识别模块,用于若全识别模型输出为正常心音信号,则使用第一识别模型对心音信号进行分析,确定所述心音信号是否为正常心音信号,若是,则采集的心音信号为正常心音信号;
第二识别模块,用于若全识别模型输出为异常心音信号,则使用第二识别模型对心音信号进行分析,确定所述心音信号是否为异常心音信号,若是,则采集的心音信号为异常心音信号;
融合模块,用于若第一识别模块判断的心音信号不是正常心音信号,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号;或者,若第二识别模块判断的心音信号不是异常心音信号,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号。
在本实施例1中,采用上述心音分类识别系统,实现了一种心音分类识别方法,该方法包括如下步骤:
使用全识别模块中的全识别模型对采集的心音信号进行分析,确定所述心音信号是正常心音信号还是异常心音信号;
若全识别模型输出为正常心音信号,则使用第一识别模型对心音信号进行分析,确定所述心音信号是否为正常心音信号,若是,则采集的心音信号为正常心音信号,若否,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号;
若全识别模型输出为异常心音信号,则使用第二识别模型对心音信号进行分析,确定所述心音信号是否为异常心音信号,若是,则采集的心音信号为异常心音信号,若否,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号。
在本实施例1中,所述全识别模型为使用多组数据训练得出,所述多组数据包括第一类数据和第二类数据;
所述第一类数据中的每组数据均包括正常心音信号和标识该正常心音信号的标签;所述第二类数据中的每组数据均包括异常心音信号和标识该异常心音信号的标签;
第一识别模型为使用所述第一类数据训练得出;第二识别模型为使用所述第二类数据训练得出。
在本实施例1中,将多组数据进行预处理,然后进行特征提取,将提取的特征输入分类器模型,采用k折交叉验证的方式,进行训练和验证,得到所述全识别模型;
将第一类数据进行预处理,然后进行特征提取,将提取的特征输入分类器模型,采用k折交叉验证的方式,进行训练和验证,得到第一识别模型;
将第二类数据进行预处理,然后进行特征提取,将提取的特征输入分类器模型,采用k折交叉验证的方式,进行训练和验证,得到第二识别模型。
在本实施例1中,对数据进行预处理包括:信号质量评估筛选有临床价值的信号,信号采样频率与幅值的归一化,使用隐藏半马尔可夫算法确定第一心音位置和第二心音位置,根据第一心音位置和第二心音位置将心音分段为S1、收缩期、S2和舒张期。
在本实施例1中,对数据进行特征提取包括:
对基础心音信号进行分帧与加窗,得到分帧信号,对分帧信号进行傅里叶变换,得到频域信号,对频域信号进行梅尔频率刻度的变换,得到梅尔频谱,对梅尔频谱进行倒谱分析,得到梅尔频率倒谱系数。
在本实施例1中,对数据进行特征提取还包括:
获取一个心脏周期的长度的平均值和标准差、S1的长度的平均值和标准差、收缩期的长度的平均值和标准差、S2的长度的平均值和标准差、舒张期的长度的平均值和标准差、收缩长度与心拍长度的比率的平均值和标准差、舒张长度与心拍长度的比率的平均值和标准差、收缩长度与舒张长度的比率的平均值和标准差、平均收缩期振幅与S1平均振幅的比率的平均值和标准差以及平均舒张期振幅与S2平均振幅的比率的平均值和标准差。
在本实施例1中,使用融合模型对心音信号进行分析包括:
融合模型的判断结果z由以下公式得出:
Figure BDA0002994469600000091
其中,Premul表示全识别模型的k折交叉验证的预测精确度,Preneg表示第一识别模型器的k折交叉验证的预测精确度,Prepos表示第二识别模型的k折交叉验证的预测精确度;x表示全识别模型的输出结果,为阴性表示为正常心音信号,此时,将心音信号输入第一识别模型,为阳性表示为异常心音信号,此时,将心音信号输入第二识别模型;y表示第一识别模型或第二识别模型的输出结果;利用训练集,使用深度度量学习方法得到参数m和n,表示通过模型训练而确定的两个参数,使判断结果z最大化趋近训练集中的标记。
在本实施例1中,使用深度度量学习确定融合参数m和n包括:
使用深度度量学习,得到一个度量函数来衡量样本间的距离(相似度),依靠这个距离(相似度)来区分样本,对样本进行分类,使得分类结果尽可能与标签的区分结果一致。本例中利用深度度量学习将有标签的训练集样本分为阴性与阳性两类,对于每类分别计算其类内方差,记为SD1与SD2,参数m、n即为SD1与SD2的函数,记为:(m,n)=f(SD1,SD2)。
综上,在本实施例1中,如图1所示,首先获取数据并进行预处理,对预处理后的数据集进行类型划分,分为全类型数据集(即包括阴性数据又包括阳性数据)、单阴性数据集、单阳性数据集,对上述分类的数据集分别进行特征提取后,进行训练,分别得到全类型数据分类器、单阴性分类器和单阳性分类器,对上述三种分类器的结果进行融合分析后,输出最终识别结果。
实施例2
如图2所示,本发明实施例2提供一种心音分类识别方法,首先将心音信号进行预处理,然后对预处理后的信号进行特征提取,再利用提取的特征数据进行集成分类器的构建,利用集成分类器识别心音信号。
本实施例2中,使用来自PhysioNet/CinC Challenge 2016提供的公开数据集。数据集的数据获得自许多不同的来源,这些不同来源的数据在表1中归为数据集a-f,记录总数为3240,与实际采集的总共2435的记录数不同,这是因为数据集e中来自正常对象的338个记录长于100s,每个记录就被分为几个相对较短的记录。这些数据集由不同的医生使用不同的听诊器记录而来,并包含不同数量的正常和异常信号。将所有信号重新采样到2000Hz,并以.wav格式提供。每个记录仅包含一个PCG(心音图)导联,但训练集a也包含一个同时记录的ECG(心电图)。医生已经根据听诊和超声心动图将这些心音标记为正常或异常,并且根据信号是否太吵以至于无法对其进行分类进行了信号质量评估。
表1:PhysioNet/CinC Challenge 2016公开数据集构成
Figure BDA0002994469600000111
表1中,N=Normal为正常信号,A=Abnormal为异常信号;G=Good表示信号质量好,P=Poor表示信号质量较差。
在本实施例2中,对数据进行预处理包括如下:
根据信号是否太吵以至于无法对其进行分类进行信号质量评估,并对信号做了质量标记,如表1中所示。由于质量较差的信号在数据集整体占比较少,因此,在数据质量评估阶段删除了所有超高噪声(质量较差)信号。需要注意的是每个数据集都是不平衡的,因此修改了每个数据集,以便每个数据集中的正常和异常记录数量大致相等,生成相对平衡的数据集,这将有助于更好地确保正常/异常分类器的准确性,并对平衡后的数据集进行了信号采样频率与幅值的归一化。质量评估后的平衡数据集组成如表2所示。
表2平衡数据集构成
Figure BDA0002994469600000112
Figure BDA0002994469600000121
将心音进行分类,首先要将心音进行分割,分割成S1、收缩期、S2和舒张期。我们使用一种隐藏半马尔可夫算法确定第一心音与第二心音位置,并根据这些位置将心音分段为S1、收缩期、S2和舒张期。此算法通过提取各种特征,然后用于训练基于持续时间的隐半马尔可夫模型,从而标记PCG。
在本实施例2中,对预处理后的心音信号进行特征提取包括梅尔频率倒谱系数提取和节拍间特征提取。
梅尔频率倒谱系数提取如下:
梅尔频率倒谱系数(Mel frequency cepstrum coefficient,MFCC)能够反映出人耳耳蜗感知性能与声音频率呈非线性的关系,且在低频频带具有较高的分辨率,适用于心音信号的识别。MFCC是一组矢量序列,是将心音频谱变换到梅尔频率刻度下得到的。MFCC的线性频率转换关系如下:
Figure BDA0002994469600000122
声音信号中MFCC特征向量的提取方法如图3所示,基于此方法,将心音信号的MFCC特征向量提取过程描述如下:
(1)基础心音S(n)的分帧与加窗。心音信号具备短时平稳性,研究中一般认为心音信号在10ms~30ms内具备短时平稳性。在分帧与加窗处理中,帧长一般选取为20ms,帧移选取为10ms,窗函数选择长度为20ms的Hamming窗。
(2)快速傅里叶变换(FFT)。将分帧后的信号xm(n)逐帧做FFT,得到频域信号xm(k):
Figure BDA0002994469600000131
其中,m为帧数,L为帧长,n为采样点,
Figure BDA0002994469600000132
表示复变函数。
(3)Mel频率刻度的变换。将xm(k)经Mel滤波器组进行滤波和刻度转换,就可得到Mel频谱。Mel滤波器组由一组三角形滤波器构成,其个数一般与临界带宽有关。本实施例2中采用的心音信号采样率为2000Hz,选取三角滤波器的个数为N=12,阶数为M=12。
(4)倒谱分析。倒谱分析主要包括取对数能量和逆变换。对数能量的作用是对频谱动态范围进行压缩;逆变换的作用是防止三角滤波器在频谱上叠加造成的干扰,即去除频谱成分间的相关性。对数能量Elog可表述为:
Figure BDA0002994469600000133
其中,N为三角滤波器的个数,Hj(k)表示梅尔滤波器组中的三角滤波器。
将对数能量进行离散余弦变换得到MFCC参数mfcc(n),具体为:
Figure BDA0002994469600000134
其中,M为心音信号倒谱系数的阶数,m=1,2,...,M,M=12,这样就得到了12阶MFCC参数。
节拍间特征的提取包括:
MFCC有助于确定PCG的频域特征,但会错过了不同心拍周期的差异,这也可能包含病理信息,比如心律失常。因此,还应添加描述这种心拍间信息的特征。包括以下各项的平均值和标准差:一个心脏周期的长度;S1的长度;收缩期的长度;S2的长度;舒张期的长度;收缩长度与心拍长度的比率;舒张长度与心拍长度的比率;收缩长度与舒张长度的比率;平均收缩期振幅与S1平均振幅的比率;平均舒张期振幅与S2平均振幅的比率。
在本实施例2中,进行模型训练包括如下:
使用的分类器模型为支持向量机(Support Vector Machine,SVM)。SVM是将数据特征矩阵映射到高维特征空间,找到最佳分离超平面,以便使得不同的类可以线性分离,以下是其基本原理:
假设有N个数据的数据集
Figure BDA0002994469600000141
其中,Xi∈R。如果线性可分,区分不同类数据的超平面可以描述为:
f(x)=ωTx+b;
其中,ω表示权重,b是一个偏量,di表示样本的类别。
f(x)应该满足以下要求:
ωTφ(x)+b≥1,if di=1
ωTφ(x)+b≤-1,if di=-1
则:
Figure BDA0002994469600000142
如果不存在上述的超平面。则引入松弛变量ξi
Figure BDA0002994469600000143
为找到最佳超平面,可以通过下式(1)优化问题解决:
Figure BDA0002994469600000144
其中,c是控制分类器容忍度的惩罚系数。
求出式(1)的解,SVM的分类结果计算如公式(2)。
Figure BDA0002994469600000145
其中,αi≥0,表示拉格朗日乘子,b是实数,K(x,xi)表示核函数。
本实施例2中,所采用的分类评价标准有四个,分别是用敏感性(Sensitivity,Se)、特异性(Specificity,Sp)、精确度(Accuracy Acc)以及分类准确度的度量(Measureof accuracy,Macc)。
Macc定义如公式:
Figure BDA0002994469600000151
其中,Se与Sp分别为敏感性和特异性。由于原始数据的不平衡,导致Acc可能不能准确评价模型的性能。所以,基于Macc来衡量模型性能准确度。
实施例3
本实施例3中,提出一种分类器模型训练及集成应用于心音分类识别的新方法,即全类型-单一型数据分类器集成模型,该方法的集成模型构建过程如图4所示。
(1)数据集的划分
将表2中6个数据集组成的总数据集(共4648条数据)以7:3的比例划分为训练集和测试集,在保证训练集中正常信号(阴性数据)与异常信号(阳性数据)数量平衡的条件下随机分配。训练集3254(阴性1758+阳性1496)条数据,测试集1394(阴性754+阳性640)条数据。
将3254条训练集数据,按照4:1的比例分为数据集T1和数据集T2,在保证T1中阴性数据与阳性数据数量基本持平的条件下随机分配,数据集T1包括2604条数据,数据集T2包括650条数据。
将数据集T1中的阴性数据和阳性数据分离开来,分别形成两个子数据集,记为阴性子数据集N和阳性子数据集P。
(2)全类型数据分类器的构建(全识别模型)。利用数据集T1,经过上文数据预处理和特征提取后,将提取的特征输入分类器模型,采用k折交叉验证的方式,对其进行训练和验证,得到全类型数据分类器;
(3)单阴性数据分类模型的构建(第一识别模型)。基于阴性子数据集N,采用k折交叉验证的方法,对分类器模型进行训练和验证,得到单一类型数据分类器,记为单阴性数据分类器。
(4)单阳性数据分类模型的构建(第二识别模型)。基于阳性子数据集P,采用k折交叉验证的方法,对分类器模型进行训练和验证,得到单一类型数据分类器,记为单阳性数据分类器。
(5)分类器的集成(融合模型)。将全类型数据分类器与单阴性和单阳性数据分类器按以下方式结合为新的分类器集成模型。
如图5所示,首先将数据送至全类型数据分类器进行阴性/阳性的二分类判断,判断结果记为x,根据x的表现,再将数据送至相应的单一型器进行进一步判断,判断结果记为y,集成模型的分类结果z由x、y的具体表现决定,判断原理如下:
若x为阴性,则将数据送至单阴性数据分类器进行进一步判断,若y同样为阴性,则此数据在集成模型的判断结果z为阴性;同理,若x为阳性,则将数据送至单阳性数据分类器,若y同样为阳性,则此数据在集成模型的判断结果z为阴性;若x与y的表现并不一致,即x为阴性而y为阳性或x为阳性而y为阴性,则z由以下公式得出:
Figure BDA0002994469600000161
其中,Premul表示全识别模型的k折交叉验证的预测精确度,Preneg表示第一识别模型器的k折交叉验证的预测精确度,Prepos表示第二识别模型的k折交叉验证的预测精确度。
数据集T2用来确定m、n的值,方法使用深度度量学习,以求数据集T2的判断结果z最大化地靠近T2中数据的标记。
在本实施例3中,为判断本文提出的集成模型的效果,使用测试集对模型进行测试得到84.71%的分类准确率。同样使用训练集和测试集,使用传统的模型训练方法,其分类准确率为75.89%。表3显示了本文方法与传统模型训练方法的评价指标值。
表3与传统模型训练方法的评价指标值
Figure BDA0002994469600000171
表3显示,本实施例所述的心音识别方法在敏感性、特异性和精确度方面相较于传统训练方法均有较大提升。
实施例4
本发明实施例4提供一种计算机设备,包括存储器和处理器,所述处理器和所述存储器相互通信,所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令执行心音分类识别方法,该方法包括如下流程步骤:
使用全识别模型对采集的心音信号进行分析,确定所述心音信号是正常心音信号还是异常心音信号;
若全识别模型输出为正常心音信号,则使用第一识别模型对心音信号进行分析,确定所述心音信号是否为正常心音信号,若是,则采集的心音信号为正常心音信号,若否,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号;
若全识别模型输出为异常心音信号,则使用第二识别模型对心音信号进行分析,确定所述心音信号是否为异常心音信号,若是,则采集的心音信号为异常心音信号,若否,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号。
实施例5
本发明实施例5提供一种计算机可读存储介质,其存储有计算机程序,所述计算机程序被处理器执行时实现心音分类识别方法,该方法包括如下流程步骤:
使用全识别模型对采集的心音信号进行分析,确定所述心音信号是正常心音信号还是异常心音信号;
若全识别模型输出为正常心音信号,则使用第一识别模型对心音信号进行分析,确定所述心音信号是否为正常心音信号,若是,则采集的心音信号为正常心音信号,若否,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号;
若全识别模型输出为异常心音信号,则使用第二识别模型对心音信号进行分析,确定所述心音信号是否为异常心音信号,若是,则采集的心音信号为异常心音信号,若否,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号。
综上所述,本发明实施例所述的心音分类识别方法和系统,分开数据集分别训练模型,然后合成对输入信号做二次判断,若结果一直可以肯定,若结果矛盾则采用结果融合的方法判定。将阴性数据和阳性数据分离开各自形成新的数据集合,分别对分类器模型进行训练,得到单一型数据模型,进而集成出一种新的分类器应用结构,进行分类结果进一步的判断甄别,提高了集成模型整体的分类准确率。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本发明公开的技术方案的基础上,本领域技术人员在不需要付出创造性劳动即可做出的各种修改或变形,都应涵盖在本发明的保护范围之内。

Claims (9)

1.一种心音分类识别方法,其特征在于,包括:
使用全识别模型对采集的心音信号进行分析,确定所述心音信号是正常心音信号还是异常心音信号;
若全识别模型输出为正常心音信号,则使用第一识别模型对心音信号进行分析,确定所述心音信号是否为正常心音信号,若是,则采集的心音信号为正常心音信号,若否,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号;
若全识别模型输出为异常心音信号,则使用第二识别模型对心音信号进行分析,确定所述心音信号是否为异常心音信号,若是,则采集的心音信号为异常心音信号,若否,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号;
使用融合模型对心音信号进行分析包括:
融合模型的判断结果z由以下公式得出:
Figure FDA0003641748010000011
其中,Premul表示全识别模型的k折交叉验证的预测精确度,Preneg表示第一识别模型器的k折交叉验证的预测精确度,Prepos表示第二识别模型的k折交叉验证的预测精确度;x表示全识别模型的输出结果,为阴性表示为正常心音信号,为阳性表示为异常心音信号;y表示第一识别模型或第二识别模型的输出结果;利用训练集,使用深度度量学习得到参数m和n。
2.根据权利要求1所述的心音分类识别方法,其特征在于:
所述全识别模型为使用多组数据训练得出,所述多组数据包括第一类数据和第二类数据;
所述第一类数据中的每组数据均包括正常心音信号和标识该正常心音信号的标签;所述第二类数据中的每组数据均包括异常心音信号和标识该异常心音信号的标签;
第一识别模型为使用所述第一类数据训练得出;第二识别模型为使用所述第二类数据训练得出。
3.根据权利要求2所述的心音分类识别方法,其特征在于:
将多组数据进行预处理,然后进行特征提取,将提取的特征输入分类器模型,采用k折交叉验证的方式,进行训练和验证,得到所述全识别模型;
将第一类数据进行预处理,然后进行特征提取,将提取的特征输入分类器模型,采用k折交叉验证的方式,进行训练和验证,得到第一识别模型;
将第二类数据进行预处理,然后进行特征提取,将提取的特征输入分类器模型,采用k折交叉验证的方式,进行训练和验证,得到第二识别模型。
4.根据权利要求3所述的心音分类识别方法,其特征在于,对数据进行预处理包括:信号质量评估筛选有临床价值的信号,信号采样频率与幅值的归一化,使用隐藏半马尔可夫算法确定第一心音位置和第二心音位置,根据第一心音位置和第二心音位置将心音分段为S1、收缩期、S2和舒张期。
5.根据权利要求3所述的心音分类识别方法,其特征在于,对数据进行特征提取包括:
对基础心音信号进行分帧与加窗,得到分帧信号,对分帧信号进行傅里叶变换,得到频域信号,对频域信号进行梅尔频率刻度的变换,得到梅尔频谱,对梅尔频谱进行倒谱分析,得到梅尔频率倒谱系数。
6.根据权利要求4所述的心音分类识别方法,其特征在于,对数据进行特征提取还包括:
获取一个心脏周期的长度的平均值和标准差、S1的长度的平均值和标准差、收缩期的长度的平均值和标准差、S2的长度的平均值和标准差、舒张期的长度的平均值和标准差、收缩长度与心拍长度的比率的平均值和标准差、舒张长度与心拍长度的比率的平均值和标准差、收缩长度与舒张长度的比率的平均值和标准差、平均收缩期振幅与S1平均振幅的比率的平均值和标准差以及平均舒张期振幅与S2平均振幅的比率的平均值和标准差。
7.根据权利要求1所述的心音分类识别方法,其特征在于,使用深度度量学习确定融合参数m和n包括:
通过深度度量学习,得到用来衡量样本间相似度的度量函数,根据相似度区分样本,对样本进行分类,使得分类结果与标签的区分结果一致;
即,
利用深度度量学习将有标签的训练集样本分为阴性与阳性两类,对于每类分别计算其类内方差,分别记为SD1与SD2,参数m和n即为SD1与SD2的函数,记为:(m,n)=f(SD1,SD2)。
8.一种心音分类识别系统,其特征在于,包括:
全识别模块,用于使用全识别模型对采集的心音信号进行分析,确定所述心音信号是正常心音信号还是异常心音信号;
第一识别模块,用于若全识别模型输出为正常心音信号,则使用第一识别模型对心音信号进行分析,确定所述心音信号是否为正常心音信号,若是,则采集的心音信号为正常心音信号;
第二识别模块,用于若全识别模型输出为异常心音信号,则使用第二识别模型对心音信号进行分析,确定所述心音信号是否为异常心音信号,若是,则采集的心音信号为异常心音信号;
融合模块,用于若第一识别模块判断的心音信号不是正常心音信号,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号;或者,若第二识别模块判断的心音信号不是异常心音信号,则使用融合模型对心音信号进行分析,确定心音信号是正常心音信号还是异常心音信号;
使用融合模型对心音信号进行分析包括:
融合模型的判断结果z由以下公式得出:
Figure FDA0003641748010000041
其中,Premul表示全识别模型的k折交叉验证的预测精确度,Preneg表示第一识别模型器的k折交叉验证的预测精确度,Prepos表示第二识别模型的k折交叉验证的预测精确度;x表示全识别模型的输出结果,为阴性表示为正常心音信号,为阳性表示为异常心音信号;y表示第一识别模型或第二识别模型的输出结果;利用训练集,使用深度度量学习得到参数m和n。
9.一种计算机设备,包括存储器和处理器,所述处理器和所述存储器相互通信,所述存储器存储有可被所述处理器执行的程序指令,其特征在于:所述处理器调用所述程序指令执行如权利要求1-7任一项所述的心音分类识别方法。
CN202110331069.2A 2021-03-26 2021-03-26 心音分类识别方法及系统 Active CN113076846B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110331069.2A CN113076846B (zh) 2021-03-26 2021-03-26 心音分类识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110331069.2A CN113076846B (zh) 2021-03-26 2021-03-26 心音分类识别方法及系统

Publications (2)

Publication Number Publication Date
CN113076846A CN113076846A (zh) 2021-07-06
CN113076846B true CN113076846B (zh) 2022-09-02

Family

ID=76611111

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110331069.2A Active CN113076846B (zh) 2021-03-26 2021-03-26 心音分类识别方法及系统

Country Status (1)

Country Link
CN (1) CN113076846B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113413163B (zh) * 2021-08-24 2021-11-19 山东大学 一种混合深度学习和低差异度森林的心音诊断系统
CN114305484B (zh) * 2021-12-15 2024-06-25 浙江大学医学院附属儿童医院 基于深度学习的心脏病心音智能分类方法、装置和介质
CN116807435A (zh) * 2023-08-28 2023-09-29 嘉兴学院G60科创走廊产业与创新研究院 一种便携式心音传感装置及心率监测系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103258532A (zh) * 2012-11-28 2013-08-21 河海大学常州校区 一种基于模糊支持向量机的汉语语音情感识别方法
CN109961017A (zh) * 2019-02-26 2019-07-02 杭州电子科技大学 一种基于卷积循环神经网络的心音信号分类方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120209131A1 (en) * 2011-02-11 2012-08-16 AventuSoft, LLC Method and System of a Cardio-acoustic Classification system for Screening, Diagnosis and Monitoring of Cardiovascular Conditions
WO2015005850A1 (en) * 2013-07-11 2015-01-15 Hult, Peter Classifying heart sounds
CN107085729B (zh) * 2017-03-13 2021-06-22 西安电子科技大学 一种基于贝叶斯推断的人员检测结果修正方法
CN107247703A (zh) * 2017-06-08 2017-10-13 天津大学 基于卷积神经网络和集成学习的微博情感分析方法
CN209032422U (zh) * 2017-11-08 2019-06-28 华南师范大学 一种心音信号检测设备
CN109934293B (zh) * 2019-03-15 2023-06-13 苏州大学 图像识别方法、装置、介质及混淆感知卷积神经网络
CN110082106B (zh) * 2019-04-17 2021-08-31 武汉科技大学 一种基于Yu范数的深度度量学习的轴承故障诊断方法
CN110163127A (zh) * 2019-05-07 2019-08-23 国网江西省电力有限公司检修分公司 一种由粗到细的视频目标行为识别方法
CN110309888A (zh) * 2019-07-11 2019-10-08 南京邮电大学 一种基于分层多任务学习的图像分类方法与系统
CN111368627B (zh) * 2019-11-20 2023-08-22 山东大学 Cnn结合改进频率小波切片变换的心音分类方法及系统
CN112450944B (zh) * 2020-12-11 2022-10-21 郑州大学 标签相关性引导特征融合的心电图多分类预测系统与方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103258532A (zh) * 2012-11-28 2013-08-21 河海大学常州校区 一种基于模糊支持向量机的汉语语音情感识别方法
CN109961017A (zh) * 2019-02-26 2019-07-02 杭州电子科技大学 一种基于卷积循环神经网络的心音信号分类方法

Also Published As

Publication number Publication date
CN113076846A (zh) 2021-07-06

Similar Documents

Publication Publication Date Title
CN113076846B (zh) 心音分类识别方法及系统
TWI596600B (zh) 識別生理聲音的方法以及系統
Schmidt et al. Segmentation of heart sound recordings by a duration-dependent hidden Markov model
Ari et al. Detection of cardiac abnormality from PCG signal using LMS based least square SVM classifier
Thiyagaraja et al. A novel heart-mobile interface for detection and classification of heart sounds
CN103313662A (zh) 指示冠状动脉疾病的风险的系统、听诊器和方法
Javed et al. A signal processing module for the analysis of heart sounds and heart murmurs
Schmidt et al. Segmentation of heart sound recordings from an electronic stethoscope by a duration dependent Hidden-Markov model
Singh et al. Short unsegmented PCG classification based on ensemble classifier
Nassralla et al. Classification of normal and abnormal heart sounds
CN104473660B (zh) 一种基于子带能量包络自相关特征的异常心音识别方法
Nogueira et al. Classifying heart sounds using images of MFCC and temporal features
Puri et al. Classification of normal and abnormal heart sound recordings through robust feature selection
Li et al. Classification of heart sound signals with BP neural network and logistic regression
Higuchi et al. Automated diagnosis of heart disease in patients with heart murmurs: application of a neural network technique
US20210090734A1 (en) System, device and method for detection of valvular heart disorders
Her et al. Using time-frequency features to recognize abnormal heart sounds
El Badlaoui et al. Phonocardiogram classification based on MFCC extraction
Roland et al. An automated system for arrhythmia detection using ECG records from MITDB
Daniel et al. IoT-based ensemble method on PCG signal classification to predict heart diseases
Arora et al. Health of things model for classifying human heart sound signals using co-occurrence matrix and spectrogram
EP3700426B1 (en) Risk determination of coronary artery disease
Arora et al. A fusion framework based on cepstral domain features from phonocardiogram to predict heart health status
Patidar et al. Detection of septal defects from cardiac sound signals using tunable-Q wavelet transform
Moukadem et al. Automatic heart sound analysis module based on Stockwell transform

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant