CN118070084A - 肺音分割方法、肺音分类方法、装置及存储介质 - Google Patents
肺音分割方法、肺音分类方法、装置及存储介质 Download PDFInfo
- Publication number
- CN118070084A CN118070084A CN202211487323.9A CN202211487323A CN118070084A CN 118070084 A CN118070084 A CN 118070084A CN 202211487323 A CN202211487323 A CN 202211487323A CN 118070084 A CN118070084 A CN 118070084A
- Authority
- CN
- China
- Prior art keywords
- lung sound
- chest
- time
- data
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 208000037656 Respiratory Sounds Diseases 0.000 title claims abstract description 362
- 230000011218 segmentation Effects 0.000 title claims abstract description 114
- 238000000034 method Methods 0.000 title claims abstract description 83
- 210000000038 chest Anatomy 0.000 claims abstract description 191
- 230000000241 respiratory effect Effects 0.000 claims abstract description 40
- 210000000115 thoracic cavity Anatomy 0.000 claims abstract description 21
- 230000036544 posture Effects 0.000 claims description 54
- 230000001133 acceleration Effects 0.000 claims description 32
- 238000013145 classification model Methods 0.000 claims description 25
- 238000012549 training Methods 0.000 claims description 20
- 238000013135 deep learning Methods 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 9
- 210000004072 lung Anatomy 0.000 claims description 7
- 238000012163 sequencing technique Methods 0.000 claims description 6
- 230000005484 gravity Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 230000002123 temporal effect Effects 0.000 claims 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000006073 displacement reaction Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 208000019693 Lung disease Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000002779 inactivation Effects 0.000 description 1
- AMGQUBHHOARCQH-UHFFFAOYSA-N indium;oxotin Chemical compound [In].[Sn]=O AMGQUBHHOARCQH-UHFFFAOYSA-N 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000036387 respiratory rate Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
一种肺音分割方法、肺音分类方法、装置及计算机可读存储介质,其中,肺音分割方法,包括:获取目标对象在第一时间段内的肺音时序数据;获取所述目标对象在第二时间段内的胸腔运动状态时序数据,其中,所述第二时间段与第一时间段存在时间重合;根据所述胸腔运动状态时序数据中不同时间点的胸腔运动状态数据确定至少两个分割时间点,根据至少两个所述分割时间点对所述肺音时序数据划分呼吸周期。上述肺音分割方法、肺音分类方法、装置及计算机可读存储介质可以提高肺音分割效率和准确率。
Description
技术领域
本申请实施例涉及音频处理及识别技术领域,尤其涉及一种肺音分割方法、肺音分类方法、装置及计算机可读存储介质。
背景技术
在对肺音类型识别、计算呼吸频率、计算潮气量等等研究过程中,都需要进行肺音分割,即将较长的肺音数据分割为若干呼吸周期。具体的,呼吸周期由一次呼气时间和一起吸气时间组成。
现有技术中,通常有两种肺音分割的方法。一种方法是在采集到肺音时序数据之后,使用回放音频录制文件来人工确定呼吸周期,进而手动地将该肺音时序数据分割为若干呼吸周期,这种方式效率较低,且错误率高。另一种方法是,强制性等间隔分割肺音数据,将每个间隔作为一个呼吸周期,但这种方式划分呼吸周期并不准确,分割错误率高。
发明内容
本申请实施例提供一种肺音分割方法、肺音分类方法、装置及计算机可读存储介质,可实现提高肺音分割效率和准确率。
本申请实施例一方面提供了一种肺音分割方法,包括:
获取目标对象在第一时间段内的肺音时序数据;
获取所述目标对象在第二时间段内的胸腔运动状态时序数据,其中,所述第二时间段与第一时间段存在时间重合;
根据所述胸腔运动状态时序数据中不同时间点的胸腔运动状态数据确定至少两个分割时间点,根据至少两个所述分割时间点对所述肺音时序数据划分呼吸周期。
本申请实施例一方面还提供了一种肺音分类方法,包括:
获取由上述肺音分割方法得到的已划分呼吸周期的待识别肺音分段数据;
将所述待识别肺音分段数据输入至预训练的肺音分类模型,得到所述肺音分类模型输出的肺音分类结果。
本申请实施例一方面还提供了一种肺音分割装置,包括:
第一获取模块,用于获取目标对象在第一时间段内的肺音时序数据;
第二获取模块,用于获取所述目标对象在第二时间段内的胸腔运动状态时序数据,其中,所述第二时间段与第一时间段存在时间重合;
肺音分割模块,用于根据所述胸腔运动状态时序数据中不同时间点的胸腔运动状态数据确定至少两个分割时间点,根据至少两个所述分割时间点对所述肺音时序数据划分呼吸周期。
本申请实施例一方面还提供了一种肺音分类装置,包括:
分段数据获取模块,用于获取由前述肺音分割装置得到的已划分呼吸周期的待识别肺音分段数据;
分类模块,用于将所述待识别肺音分段数据输入至预训练的肺音分类模型,得到所述肺音分类模型输出的肺音分类结果。
本申请实施例一方面还提供了一种电子装置,包括:存储器和处理器;所述存储器存储有可执行程序代码;与所述存储器耦合的所述处理器,调用所述存储器中存储的所述可执行程序代码,执行如上述实施例提供的肺音分割方法或肺音分类方法。
本申请实施例一方面还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序在被处理器运行时,执行如上述实施例提供的肺音分割方法或肺音分类方法。
从上述本申请各实施例可知,通过获取目标对象在第一时间段内的肺音时序数据,以及获取与第一时间段存在时间重合的第二时间段内的胸腔运动状态时序数据;再根据所述胸腔运动状态时序数据中不同时间点的胸腔运动状态数据确定至少两个分割时间点,根据至少两个所述分割时间点对所述肺音时序数据划分呼吸周期。对肺音时序数据结合胸腔运动状态数据进行呼吸周期划分,能够更准确识别呼吸周期并划分肺音时序数据,并且无需人工反复播放音频确定分割时间,也无需手动分割各个肺音数据,提高了肺音分割的效率和准确率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一实施例提供的肺音分割方法的实现流程图;
图2为本发明另一实施例提供的肺音分割方法的实现流程图;
图3为以图形方式显示胸腔运动状态时序数据的示例图;
图4为本发明一实施例提供的肺音分类方法的实现流程图;
图5为本发明另一实施例提供的肺音分类方法的实现流程图;
图6为本申请一实施例提供的肺音分割装置的结构示意图;
图7为本申请一实施例提供的肺音分类装置的结构示意图;
图8为本发明另一实施例提供的肺音分类装置的结构示意图;
图9为本申请一实施例提供的电子装置的硬件结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,本申请一实施例提供的肺音分割方法的实现流程图。该方法可应用于肺音采集装置(如智能听诊器),当进行肺音采集时,可以同步执行肺音分割方法以实现将采集到的肺音时序数据进行分割;该方法还可以应用于服务器终端或客户机终端,如图1所示,该方法具体包括:
步骤S101,获取目标对象在第一时间段内的肺音时序数据;
具体的,目标对象可以为人。例如,目标对象为因肺部疾病到医院看诊的患者,或者进行健康体检的用户。
或者,其他可选实施例中,目标对象还可以为宠物狗等动物。
本实施例中,第一时间段为进行肺音采集的时间段,例如,通过智能听诊器进行肺音采集,则第一时间段为采集的开始时间至采集的结束时间。
该第一时间段的长短不限,例如,第一时间段为30秒,或者第一时间段为3分钟。优选的,第一时间段的时长大于5秒。
具体的,肺音时序数据是按肺音采集时间顺序依次排列的多个肺音数据点,每个肺音数据对应一肺音采集时间。
步骤S102,获取所述目标对象在第二时间段内的胸腔运动状态时序数据,其中,所述第二时间段与第一时间段存在时间重合;
具体的,第二时间段可以是与第一时间段完全重合的时间段;或者,第二时间段是第一时间段之内的一部分时间段,例如,第一时间段为3分钟,第二时间段为该3分钟之内的2分钟;又或者,第二时间段与第一时间段存在部分交叉,例如,第一时间段为3分钟,第二时间段为从该3分钟的第2分钟起至该第3分钟结束之后的30秒。
具体的,胸腔运动状态时序数据是按时间顺序依次排列的多个胸腔运动数据点,每个胸腔运动数据对应一个时间点。
本实施例中,胸腔运动状态时序数据可以由肺音采集装置(如智能听诊器)采集,该肺音采集装置内置传感器定位模块,通过该传感器定位模块获取采集肺音时目标对象的胸腔运动状态。
或者,胸腔运动状态时序数据可以由单独放置于目标对象胸腔部位的传感器定位装置采集,在执行本实施例所述方法时,直接从获取传感器定位装置采集到的胸腔运动状态时序数据。
当第二时间段与第一时间段存在时间重合时,采集到的胸腔运动状态时序数据与肺音时序数据存在时间上的对应关系,即在重合的时间段内,存在一个时间同时对应肺音时序数据以及胸腔运动状态时序数据。
步骤S103,根据所述胸腔运动状态时序数据中不同时间点的胸腔运动状态数据确定至少两个分割时间点,根据至少两个所述分割时间点对所述肺音时序数据划分呼吸周期。
具体的,当目标对象呼吸时,胸腔会有起伏轨迹,该起伏轨迹即可以通过胸腔运动状态数据来表示,且各个时间点的胸腔运动状态数据可以表示在各个时间点呼气时的胸腔位置或吸气时的胸腔位置。
一可选实施例中,根据所述胸腔运动状态时序数据中不同时间点的胸腔运动状态数据确定至少两个分割时间点,包括:根据胸腔运动状态数据确定最大呼气点,确定任意连续的两个最大呼气点对应的时间为两个分割时间点。
具体的,根据至少两个所述分割时间点对所述肺音时序数据划分呼吸周期,包括:将至少两个分割时间点映射至肺音时序数据中,当肺音时序数据中存在与至少两个分割时间点对应的目标时间点时,在该目标时间点将肺音时序数据进行剪切,从而得到多个剪切的肺音时序数据子集,每个肺音时序数据子集包含至少一呼吸周期。
本申请实施例中,通过获取目标对象在第一时间段内的肺音时序数据,以及获取与第一时间段存在时间重合的第二时间段内的胸腔运动状态时序数据;再根据所述胸腔运动状态时序数据中不同时间点的胸腔运动状态数据确定至少两个分割时间点,根据至少两个所述分割时间点对所述肺音时序数据划分呼吸周期。对肺音时序数据结合胸腔运动状态数据进行呼吸周期划分,能够更准确识别呼吸周期并划分肺音时序数据,并且无需人工反复播放音频确定分割时间,也无需手动分割各个肺音数据,提高了肺音分割的效率和准确率。
参见图2,本发明另一实施例提供的肺音分割方法的实现流程图。该方法可应用于肺音采集装置(如智能听诊器),当进行肺音采集时,可以同步执行肺音分割方法以实现将采集到的肺音时序数据进行分割;该方法还可以应用于服务器终端或客户机终端,如图2所示,该方法具体包括:
步骤S201,获取目标对象在第一时间段内的肺音时序数据;
具体的,本实施例中步骤S201与前述实施例中步骤S101基本一致,具体内容请参见步骤S101中相关描述。
步骤S202,通过设置在所述目标对象胸腔表面的传感器,获取所述目标对象在所述第二时间段内的胸腔运动位姿时序数据,确定所述胸腔运动位姿时序数据构成胸腔运动状态时序数据;
具体的,传感器可以为加速度传感器和陀螺传感器。传感器可以集成于肺音采集装置之内,也可以单独设置在目标对象胸腔表面。
优选的,传感器为惯性测量单元(Inertial Measurement Unit,IMU)。具体的,IMU中集成加速度计和陀螺传感器,可以用于检测目标对象的三轴加速度和三轴角速度,即X、Y、Z方向的加速度和角速度。
由于惯性测量单元计算资源小、灵敏性高,因此可以快速准确地获取到胸腔运动位姿时序数据,有利于进一步提高肺音分割的效率和准确率。
具体的,第二时间段可以是与第一时间段完全重合的时间段;或者,第二时间段是第一时间段之内的一部分时间段;又或者,第二时间段与第一时间段存在部分交叉。
具体的,胸腔运动位姿时序数据是按时间顺序依次排列的多个胸腔运动位姿数据点,每个胸腔运动位姿时序数据表示某一时刻胸腔的位姿数据。
当第二时间段与第一时间段存在时间重合时,采集到的胸腔运动位姿时序数据与肺音时序数据存在时间上的对应关系,即在重合的时间段内,存在一时间同时对应肺音时序数据以及胸腔运动位姿时序数据。
可选的,于本申请其他一实施方式中,所述获取所述目标对象在所述第二时间段内的胸腔运动位姿时序数据,包括:
获取所述目标对象在所述第二时间段内不同时间点的多个胸腔角速度与多个胸腔加速度;
根据多个所述胸腔角速度计算所述目标对象在所述第二时间段内的多个胸腔姿态;
根据多个所述胸腔姿态和多个所述胸腔加速度计算所述目标对象在所述第二时间段内的多个胸腔位置;
针对所述第二时间段内的不同时间点,将该时间点的胸腔姿态与胸腔位置组合,得到该时间点的位姿;
确定所述不同时间点的位姿构成胸腔运动状态时序数据。
具体的,在第二时间段内每个时间点都获取到不同方向的胸腔角速度与胸腔加速度。例如,获取某个时间点在X轴、Y轴、Z轴方向的胸腔角速度和胸腔加速度。
则根据多个所述胸腔角速度计算所述目标对象在所述第二时间段内的多个胸腔姿态包括:根据第二时间段内的每个时间点的三个方向的胸腔角速度计算该时间点的胸腔姿态。
可选的,于本申请其他一实施方式中,所述根据多个所述胸腔角速度计算所述目标对象在所述第二时间段内的多个胸腔姿态,包括:
对多个所述胸腔角速度进行积分运算,得到所述目标对象在所述第二时间段内的多个胸腔姿态。
具体的,胸腔姿态可以以四元数来表示。若q是四元数,用于表示胸腔姿态,则根据如下微分方程,求解得到q。
其中,t是时间,ωx、ωy和ωz是ωimu的三轴分量,ωimu是3轴角速度。
可选的,于本申请其他一实施方式中,所述根据多个所述胸腔姿态和多个所述胸腔加速度计算所述目标对象在所述第二时间段内的多个胸腔位置,包括:
对多个所述胸腔姿态进行坐标系转换,得到基于指定坐标系的姿态旋转矩阵;
利用所述姿态旋转矩阵对多个所述胸腔加速度进行坐标系转换,得到基于指定坐标系的多个加速度,将多个所述加速度分别去除重力之后分别进行二次积分运算,得到所述目标对象在所述第二时间段内的多个胸腔位置。
具体的,由于传感器输出的可能是基于传感器自身坐标系的加速度和角速度数据,因此,将胸腔姿态转换为指定坐标系下的姿态旋转矩阵,再利用姿态旋转矩阵对多个胸腔加速度进行坐标系转换,则得到的胸腔姿态和加速度都是基于指定坐标系下的。
具体的,指定坐标系可以为世界坐标系,或者也可以是其他用户自行定义的坐标系。
本实施例中,将多个加速度分别去除重力具体可以是,将每个加速度的值减去重力。
例如,aW是基于世界坐标系下的三轴运动加速度,通过如下公式得到:其中,aimu是IMU坐标系下的三轴加速度,gw为重力加速度在世界坐标系下的表示。/>是从IMU坐标系转换为世界坐标系的姿态旋转矩阵,且/>即两个姿态旋转矩阵互为转置关系。
具体的,在得到第二时间段内各个时间点的胸腔姿态和胸腔位置之后,将胸腔姿态和胸腔位置结合,即为该时间点的位姿,且各个时间点的位姿构成胸腔运动状态时序数据。
例如,某个时间点的胸腔姿态为q1,胸腔位置为s1,则该时间点的位姿为(q1,s1),该时间点对应的胸腔运动状态时序数据为(q1,s1,t1),所有的胸腔运动状态时序数据均可以表示为(qx,sx,tx),其中x表示不同的时间序列,tx表示不同的时间点,qx表示时间点tx对应的胸腔姿态,s1表示时间点tx对应的胸腔位置。
步骤S203,根据所述胸腔运动状态时序数据中不同时间点的胸腔运动状态数据确定至少两个分割时间点,根据至少两个所述分割时间点对所述肺音时序数据划分呼吸周期。
可选的,于本申请其他一实施方式中,所述根据所述胸腔运动状态时序数据中不同时间点的胸腔运动状态数据确定至少两个分割时间点包括:
确定所述胸腔运动状态时序数据中胸腔姿态为第一姿态和/或胸腔位置为第一位置所对应的时间点为最大呼气时间点;
确定所述胸腔运动状态时序数据中胸腔姿态为第二姿态和/或胸腔位置为第二位置所对应的时间点为最大吸气时间点,其中,所述第一姿态与第二姿态为不同的姿态,所述第一位置与所述第二位置为不同位置;
若至少两个最大吸气时间点之间存在最大呼气时间点,则确定所述至少两个最大吸气时间点都为分割时间点,或者,若至少两个最大呼气时间点之间存在最大吸气时间点,则确定所述至少两个最大呼气时间点都为分割时间点。
具体的,由于胸腔运动状态时序数据中包括胸腔位姿,胸腔位姿由胸腔姿态和胸腔位置组成得到的,而胸腔位姿可以直接对应胸腔的起伏情况(如当目标对象吸气时,胸腔会向上运动,当目标对象呼气时,胸腔对象会向下运动),因此,可以根据胸腔运动状态时序数据中胸腔姿态以及胸腔位置确定最大呼气时间点和最大吸气时间点。其中,最大呼气时间点表示从开始呼气到达到最大呼气时的时间点,该最大呼气时间点也是由呼气转入吸气的时间转折点,类似的,最大吸气时间点表示从开始吸气到吸气达到最大吸气时的时间点,该最大吸气时间点也是由吸气转入呼气的时间转折点。
具体的,第一姿态与第二姿态为表示方向相反的姿态,第一姿态为表示向下的姿态,第二姿态为表示向上的姿态;第一位置和第二位置为相对于原点(表示胸腔处于水平位置,不存在向上或向下的起伏)的位移,第一位置为相对于原点的负向最大位移,第二位置为相对于原点的正向最大位移。
则胸腔姿态为向下的姿态且胸腔位置为相对于原点的负向最大位移时对应的时间点为最大呼气时间点;胸腔姿态为向上的姿态且胸腔位置为相对于原点的正向最大位移时对应的时间点为最大吸气时间点。
当至少两个最大吸气时间点之间存在最大呼气时间点时,或者当至少两个最大呼气时间点之间存在最大吸气时间点时,表示目标对象在这段时间内经历过至少一次呼气和吸气,即经历过至少一次呼吸周期,则后续将肺音时序数据划分片段时,能够以准确的呼吸周期进行划分,得到的各个片段以可以包含至少一个完整的呼吸周期。
优选的,若两个最大吸气时间点之间存在最大呼气时间点,则确定该两个最大吸气时间点都为分割时间点;若两个最大呼气时间点之间存在最大吸气时间点,则确定该两个最大呼气时间点都为分割时间点。
如图3所示,图3为以图形方式显示胸腔运动状态时序数据示例图。在图3中,横轴表示时间,纵轴表示胸腔位置(纵轴的零点处表示原点),波形为根据胸腔运动状态时序数据得到的不同时间点的胸腔运动状态数据,其中,A点和B点表示最大呼气时间点,C点表示最大吸气时间点,则确定A点和B点为时间分割点。
具体的,根据至少两个所述分割时间点对所述肺音时序数据划分呼吸周期,包括:将至少两个分割时间点映射至肺音时序数据中,当肺音时序数据中存在与至少两个分割时间点对应的目标时间点时,在该目标时间点将肺音时序数据进行剪切,从而得到多个剪切的肺音时序数据子集,每个肺音时序数据子集包含至少一呼吸周期。
继续以图3为例,根据图3中A点和B点对肺音时序数据进行划分,在A点和B点之间的肺音时序数据为一个呼吸周期内的肺音数据。
本申请实施例中,通过设置在所述目标对象胸腔表面的传感器,获取目标对象的胸腔运动位姿时序数据,能准确地获得目标对象的胸腔运动状态数据,进而结合胸腔运动状态数据对肺音时序数据进行呼吸周期划分,能够更准确识别呼吸周期并划分肺音时序数据,并且无需人工反复播放音频确定分割时间,也无需手动分割各个肺音数据,提高了肺音分割的效率和准确率。
参见图4,本申请一实施例提供的肺音分类方法的实现流程图。该方法可应用于服务器终端或客户机终端,如图4所示,该方法具体包括:
步骤S401,获取由肺音分割方法得到的已划分呼吸周期的待识别肺音分段数据;
具体的,肺音分割方法为前述肺音分割方法实施例中的肺音分割方法,即待识别肺音分段数据是根据前述实施例中肺音分割方法得到的,在待识别肺音分段数据中包含若干已分段的待识别子片段,每个子片段包含一个或多个呼吸周期,待识别肺音分段数据包括多个呼吸周期。
一可选实施方式中,待识别肺音分段数据直接可以从肺音采集装置(如智能听诊器)获取。
另一可选实施方式中,待识别肺音分段数据可以从本地或远端服务器获取。
步骤S402,将所述待识别肺音分段数据输入至预训练的肺音分类模型,得到所述肺音分类模型输出的肺音分类结果。
具体的,预训练的肺音分类模型可以基于卷积神经网络构建,并通过训练得到,用于对肺音数据进行分类,肺音分类结果表示待识别肺音分段数据属于哪种类型。例如,肺音分类结果为“正常肺音”,或者,肺音分类结果为“异常肺音”。
本申请实施例中,通过将前述肺音分割方法得到的已划分呼吸周期的待识别肺音分段数据输入至预训练的肺音分类模型,得到所述肺音分类模型输出的肺音分类结果,由于用于肺音分类的待识别肺音分段数据为已准确划分了呼吸周期的数据,因此,在进行肺音分类时,可以提高肺音分类的准确性。
参见图5,本发明另一实施例提供的肺音分类方法的实现流程图。该方法可应用于服务器终端或客户机终端,如图5所示,该方法具体包括:
步骤S501,获取肺音数据集,所述肺音数据集包含多个由肺音分割方法得到的已划分呼吸周期的肺音数据;
具体的,肺音分割方法为前述肺音分割方法实施例中的肺音分割方法。
具体的,可以从本地或远端数据库获取肺音数据集,该肺音数据集用于进行模型训练,获取到的肺音数据集存在预标注的肺音类型真实值。获取到的肺音数据集中包含多端肺音数据,每段肺音数据均已划分呼吸周期并进行标记,每段肺音数据包含一个或多个呼吸周期。
其他可选实施例中,也可以直接获取肺音公开数据集,并对肺音公开数据集采用前述肺音分割方法进行肺音分割。
步骤S502,对多个所述肺音数据进行特征提取,得到特征肺音数据集;
具体的,对每个肺音数据提取声学特征或时域特征。提取特征后得到的特征肺音数据集可以向量形式表示各个肺音数据的特征。
可选的,提取多个肺音数据的频率倒谱系数(Gammatone Frequency CepstralCoefficient,GFCC)语音特征。
可选的,于本申请其他一实施方式中,所述得到特征肺音数据集之后,所述方法还包括:
对所述特征肺音数据集进行数据增强。
本实施例中,对所述特征肺音数据集进行数据增强包括增加特征肺音数据集的噪声。
对特征肺音数据集进行数据增强,可以提高肺音特征数据的丰富性,待将该特征肺音数据集进行训练时,有利益提高模型训练的准确性。
可选的,于本申请其他一实施方式中,对特征肺音数据集进行数据增强,包括:识别特征肺音数据集中属于少数类的目标特征肺音数据,对属于少数类的目标特征肺音数据从其邻域样本中选取一特征肺音数据作为随机样本,基于目标特征肺音数据和随机样本生成目标特征肺音数据的新样本,将得到的所有新样本增加到所述特征肺音数据集中。
具体的,特征肺音数据集之中各个特征肺音数据属于不同的肺音类型,属于各个肺音类型的数据总量可能相同可能不同,若任一肺音类型对应的特征肺音数据的数据总量少于预设数量,则确定该任一肺音类型为少数类。邻域样本是指与属于少数类的特征肺音数据临近(如欧式距离小于预设距离值)的多个特征肺音数据。基于目标特征肺音数据和随机样本生成目标特征肺音数据的新样本,包括,基于随机样本生成随机数,将目标特征肺音数据、随机样本和随机数进行算术运算,得到新样本。
由于得到的新样本根据属于少数类的目标特征肺音数据和其邻域样本得到的,因此得到的新样本与属于少数类的目标特征肺音数据特征相近,不仅可以增加特征肺音数据集的数据量,还能平衡特征肺音数据集中的特征类型,避免训练的模型过拟合等问题,提高模型训练的准确性。
步骤S503,利用所述特征肺音数据集对预构建的基于深度学习的肺音识别模型进行训练,得到所述预训练的肺音分类模型;
具体的,基于深度学习的肺音识别模型为卷积神经网络,或者,基于深度学习的肺音识别模型为循环神经网络。
例如,当基于深度学习的肺音识别模型为卷积神经网络时,所述卷积神经网络结构为:依次连接的第一卷积层、第二卷积层、最大池化层、第三卷积层、第一全连接层和第二全连接层。
其中,三个卷积层的激活函数都用非线性函数ReLU,第三层卷积层之后可带有0.3的随机失活(Dropout),优化器可以为Adam(Adaptive Moment Estimation,自适应矩估计)。
具体的,利用特征肺音数据集对预构建的基于深度学习的肺音识别模型进行训练,包括:对预构建的基于深度学习的肺音识别模型进行训练进行参数初始化,将特征肺音数据集输入至基于深度学习的肺音识别模型,根据模型输出值调整预构建的基于深度学习的肺音识别模型的参数,直至模型收敛,确定训练结束,得到预训练的肺音分类模型。
可选的,于本申请其他一实施方式中,所述利用所述特征肺音数据集对预构建的基于深度学习的肺音识别模型进行训练,包括:
对所述特征肺音数据集中特征肺音数据进行随机排序;
选取随机排序后的所述特征肺音数据集中的多个特征肺音数据依次输入至预构建的基于深度学习的肺音识别模型进行训练。
具体的,对特征肺音数据集中特征肺音数据进行随机排序,用于将特征肺音数据集中特征肺音数据进行顺序打乱,从而避免连续输入的数据有规律性,影响训练效果。
步骤S504,获取由肺音分割方法得到的已划分呼吸周期的待识别肺音分段数据;
步骤S505,将所述待识别肺音分段数据输入至预训练的肺音分类模型,得到所述肺音分类模型输出的肺音分类结果。
具体的,本实施例中步骤S504与前述实施例中步骤S401基本一致,步骤S505与前述实施例中步骤S402基本一致,具体内容请参见步骤S401和步骤S402中相关描述。
其他可选实施例中,上述步骤S501至步骤S503也可以在步骤S504执行之后执行。
本申请实施例中,基于肺音数据集对预构建的基于深度学习的肺音识别模型进行训练,且肺音数据集包含多个由前述肺音分割方法实施例得到的已划分呼吸周期的肺音数据,所以得到的肺音识别模型的准确度高,进而利用该准确度高的肺音识别模型进行肺音分类,能进一步提高肺音分类的准确性。
参见图6,本申请一实施例提供的肺音分割装置的结构示意图。为了便于说明,仅示出了与本申请实施例相关的部分。该装置可设置于肺音采集装置(如智能听诊器)中,当进行肺音采集时,可以同步运行肺音分割装置以实现将采集到的肺音时序数据进行分割;该装置还可以设置于服务器终端或客户机终端中。该装置包括:
第一获取模块601,用于获取目标对象在第一时间段内的肺音时序数据;
第二获取模块602,用于获取所述目标对象在第二时间段内的胸腔运动状态时序数据,其中,所述第二时间段与第一时间段存在时间重合;
肺音分割模块603,用于根据所述胸腔运动状态时序数据中不同时间点的胸腔运动状态数据确定至少两个分割时间点,根据至少两个所述分割时间点对所述肺音时序数据划分呼吸周期。
本申请实施例中,通过获取目标对象在第一时间段内的肺音时序数据,以及获取与第一时间段存在时间重合的第二时间段内的胸腔运动状态时序数据;再根据所述胸腔运动状态时序数据中不同时间点的胸腔运动状态数据确定至少两个分割时间点,根据至少两个所述分割时间点对所述肺音时序数据划分呼吸周期。对肺音时序数据结合胸腔运动状态数据进行呼吸周期划分,能够更准确识别呼吸周期并划分肺音时序数据,并且无需人工反复播放音频确定分割时间,也无需手动分割各个肺音数据,提高了肺音分割的效率和准确率。
请继续参见图6,本发明另一实施例提供的肺音分割装置的结构示意图。为了便于说明,仅示出了与本申请实施例相关的部分。该装置可设置于肺音采集装置(如智能听诊器)中,当进行肺音采集时,可以同步运行肺音分割装置以实现将采集到的肺音时序数据进行分割;该装置还可以设置于服务器终端或客户机终端中。该装置与上述实施例的不同之处在于:
进一步的,第二获取模块602,具体用于通过设置在所述目标对象胸腔表面的传感器,获取所述目标对象在所述第二时间段内的胸腔运动位姿时序数据,确定所述胸腔运动位姿时序数据构成胸腔运动状态时序数据。
可选的,于本申请其他一实施方式中,执行以下操作以实现获取所述目标对象在所述第二时间段内的胸腔运动位姿时序数据:
获取所述目标对象在所述第二时间段内不同时间点的多个胸腔角速度与多个胸腔加速度;
根据多个所述胸腔角速度计算所述目标对象在所述第二时间段内的多个胸腔姿态;
根据多个所述胸腔姿态和多个所述胸腔加速度计算所述目标对象在所述第二时间段内的多个胸腔位置;
针对所述第二时间段内的不同时间点,将该时间点的胸腔姿态与胸腔位置组合,得到该时间点的位姿;
确定所述不同时间点的位姿构成胸腔运动状态时序数据。
可选的,于本申请其他一实施方式中,执行以下操作以实现根据多个所述胸腔角速度计算所述目标对象在所述第二时间段内的多个胸腔姿态:
对多个所述胸腔角速度进行积分运算,得到所述目标对象在所述第二时间段内的多个胸腔姿态。
可选的,于本申请其他一实施方式中,执行以下操作以实现根据多个所述胸腔姿态和多个所述胸腔加速度计算所述目标对象在所述第二时间段内的多个胸腔位置:
对多个所述胸腔姿态进行坐标系转换,得到基于指定坐标系的姿态旋转矩阵;
利用所述姿态旋转矩阵对多个所述胸腔加速度进行坐标系转换,得到基于指定坐标系的多个加速度,将多个所述加速度分别去除重力之后分别进行二次积分运算,得到所述目标对象在所述第二时间段内的多个胸腔位置。
进一步的,肺音分割模块603,具体用于:
确定所述胸腔运动状态时序数据中胸腔姿态为第一姿态和/或胸腔位置为第一位置所对应的时间点为最大呼气时间点;
确定所述胸腔运动状态时序数据中胸腔姿态为第二姿态和/或胸腔位置为第二位置所对应的时间点为最大吸气时间点,其中,所述第一姿态与第二姿态为不同的姿态,所述第一位置与所述第二位置为不同位置;
若至少两个最大吸气时间点之间存在最大呼气时间点,则确定所述至少两个最大吸气时间点都为分割时间点,或者,若至少两个最大呼气时间点之间存在最大吸气时间点,则确定所述至少两个最大呼气时间点都为分割时间点;
根据至少两个所述分割时间点对所述肺音时序数据划分呼吸周期。
本申请实施例中,通过设置在所述目标对象胸腔表面的传感器,获取目标对象的胸腔运动位姿时序数据,能准确地获得目标对象的胸腔运动状态数据,进而结合胸腔运动状态数据对肺音时序数据进行呼吸周期划分,能够更准确识别呼吸周期并划分肺音时序数据,并且无需人工反复播放音频确定分割时间,也无需手动分割各个肺音数据,提高了肺音分割的效率和准确率。
参见图7,本申请一实施例提供的肺音分类装置的结构示意图。为了便于说明,仅示出了与本申请实施例相关的部分。该装置可设置于服务器终端或客户机终端中。该装置包括:
分段数据获取模块701,用于获取由上述肺音分割装置得到的已划分呼吸周期的待识别肺音分段数据;
分类模块702,用于将所述待识别肺音分段数据输入至预训练的肺音分类模型,得到所述肺音分类模型输出的肺音分类结果。
本申请实施例中,通过将上述肺音分割方法得到的已划分呼吸周期的待识别肺音分段数据输入至预训练的肺音分类模型,得到所述肺音分类模型输出的肺音分类结果,由于用于肺音分类的待识别肺音分段数据为已准确划分了呼吸周期的数据,因此,在进行肺音分类时,可以提高肺音分类的准确性。
请参见图8,本发明另一实施例提供的肺音分类装置的结构示意图。为了便于说明,仅示出了与本申请实施例相关的部分。该装置可设置于服务器终端或客户机终端中。该装置与上述图7所示实施例的不同之处在于:
可选的,该装置还包括:
训练数据获取模块703,用于获取肺音数据集,所述肺音数据集包含多个由上述肺音分割方法得到的已划分呼吸周期的肺音数据;
特征提取模块704,用于对多个所述肺音数据进行特征提取,得到特征肺音数据集;
可选的,于本申请其他一实施方式中,所述特征提取模块704,还用于得到特征肺音数据集之后,对所述特征肺音数据集进行数据增强。
训练模块705,用于利用所述特征肺音数据集对预构建的基于深度学习的肺音识别模型进行训练,得到所述预训练的肺音分类模型;
可选的,于本申请其他一实施方式中,所述训练模块705,具体用于:
对所述特征肺音数据集中特征肺音数据进行随机排序;
选取随机排序后的所述特征肺音数据集中的多个特征肺音数据依次输入至预构建的基于深度学习的肺音识别模型进行训练,得到所述预训练的肺音分类模型。
本申请实施例中,基于肺音数据集对预构建的基于深度学习的肺音识别模型进行训练,且肺音数据集包含多个由前述肺音分割方法实施例得到的已划分呼吸周期的肺音数据,所以得到的肺音识别模型的准确度高,进而利用该准确度高的肺音识别模型进行肺音分类,能够进一步提高肺音分类的准确性。
参见图9,本申请一实施例提供的电子装置的硬件结构示意图。
示例性的,电子装置可以为移动或便携式并执行无线通信的各种类型的计算机系统设备中的任何一种。具体的,电子装置可以为移动电话或智能电话(例如,基于iPhoneTM,基于Android TM的电话),便携式游戏设备(例如Nintendo DS TM,PlayStationPortable TM,Gameboy Advance TM,iPhone TM)、膝上型电脑、PDA、便携式互联网设备、音乐播放器以及数据存储设备,其他手持设备以及诸如手表、耳机、吊坠、耳机等,电子装置还可以为其他的可穿戴设备(例如,诸如电子眼镜、电子衣服、电子手镯、电子项链、电子纹身、电子设备或智能手表的头戴式设备(HMD))。
电子装置还可以是多个电子设备中的任何一个,多个电子设备包括但不限于蜂窝电话、智能电话、其他无线通信设备、个人数字助理、音频播放器、其他媒体播放器、音乐记录器、录像机、照相机、其他媒体记录器、收音机、医疗设备、车辆运输仪器、计算器、可编程遥控器、寻呼机、膝上型计算机、台式计算机、打印机、上网本电脑、个人数字助理(PDA)、便携式多媒体播放器(PMP)、运动图像专家组(MPEG-1或MPEG-2)音频层3(MP3)播放器,便携式医疗设备以及数码相机及其组合。
在一些情况下,电子装置可以执行多种功能(例如,播放音乐,显示视频,存储图片以及接收和发送电话呼叫)。如果需要,电子装置可以是诸如蜂窝电话、媒体播放器、其他手持设备、腕表设备、吊坠设备、听筒设备或其他紧凑型便携式设备的便携式设备。
如图9所示,电子装置10可以包括控制电路,该控制电路可以包括存储和处理电路30。该存储和处理电路30可以包括存储器,例如硬盘驱动存储器,非易失性存储器(例如闪存或用于形成固态驱动器的其它电子可编程限制删除的存储器等),易失性存储器(例如静态或动态随机存取存储器等)等,本申请实施例不作限制。存储和处理电路30中的处理电路可以用于控制电子装置10的运转。该处理电路可以基于一个或多个微处理器,微控制器,数字信号处理器,基带处理器,功率管理单元,音频编解码器芯片,专用集成电路,显示驱动器集成电路等来实现。
存储和处理电路30可用于运行电子装置10中的软件,例如互联网浏览应用程序,互联网协议语音(Voice over Internet Protocol,VOIP)电话呼叫应用程序,电子邮件应用程序,媒体播放应用程序,操作系统功能等。这些软件可以用于执行一些控制操作,例如,基于照相机的图像采集,基于环境光传感器的环境光测量,基于接近传感器的接近传感器测量,基于诸如发光二极管的状态指示灯等状态指示器实现的信息显示功能,基于触摸传感器的触摸事件检测,与在多个(例如分层的)显示器上显示信息相关联的功能,与执行无线通信功能相关联的操作,与收集和产生音频信号相关联的操作,与收集和处理按钮按压事件数据相关联的控制操作,以及电子装置10中的其它功能等,本申请实施例不作限制。
进一步的,该存储器存储有可执行程序代码,与该存储器耦合的处理器,调用该存储器中存储的该可执行程序代码,执行如上述图1和图2所示实施例中描述的肺音分割方法,或执行如上述图4和图5所示实施例中描述的肺音分类方法。
其中,该可执行程序代码包括如上述图6所示实施例中描述的肺音分割装置中的各个模块,例如:第一获取模块601、第二获取模块602和肺音分割模块603。
其中,该可执行程序代码还可以包括如上述图7和图8所示实施例中描述的肺音分类装置中的各个模块,例如:分段数据获取模块701、分类模块702、训练数据获取模块703、特征提取模块704、训练模块705。
电子装置10还可以包括输入输出电路42。输入输出电路42可用于使电子装置10实现数据的输入和输出,即允许电子装置10从外部设备接收数据和也允许电子装置10将数据从电子装置10输出至外部设备。输入输出电路42可以进一步包括传感器32。传感器32可以包括环境光传感器,基于光和电容的接近传感器,触摸传感器(例如,基于光触摸传感器和/或电容式触摸传感器,其中,触摸传感器可以是触控显示屏的一部分,也可以作为一个触摸传感器结构独立使用),加速度传感器,和其它传感器等。
输入输出电路42还可以包括一个或多个显示器,例如显示器14。显示器14可以包括液晶显示器,有机发光二极管显示器,电子墨水显示器,等离子显示器,使用其它显示技术的显示器中一种或者几种的组合。显示器14可以包括触摸传感器阵列(即,显示器14可以是触控显示屏)。触摸传感器可以是由透明的触摸传感器电极(例如氧化铟锡(ITO)电极)阵列形成的电容式触摸传感器,或者可以是使用其它触摸技术形成的触摸传感器,例如音波触控,压敏触摸,电阻触摸,光学触摸等,本申请实施例不作限制。
电子装置10还可以包括音频组件36。音频组件36可以用于为电子装置10提供音频输入和输出功能。电子装置10中的音频组件36可以包括扬声器,麦克风,蜂鸣器,音调发生器以及其它用于产生和检测声音的组件。
通信电路38可以用于为电子装置10提供与外部设备通信的能力。通信电路38可以包括模拟和数字输入/输出接口电路,和基于射频信号和/或光信号的无线通信电路。通信电路38中的无线通信电路可以包括射频收发器电路、功率放大器电路、低噪声放大器、开关、滤波器和天线。举例来说,通信电路38中的无线通信电路可以包括用于通过发射和接收近场耦合电磁信号来支持近场通信(Near Field Communication,NFC)的电路。例如,通信电路38可以包括近场通信天线和近场通信收发器。通信电路38还可以包括蜂窝电话收发器和天线,无线局域网收发器电路和天线等。
电子装置10还可以进一步包括电池,电力管理电路和其它输入输出单元40。输入输出单元40可以包括按钮,操纵杆,点击轮,滚动轮,触摸板,小键盘,键盘,照相机,发光二极管和其它状态指示器等。
用户可以通过输入输出电路42输入命令来控制电子装置10的操作,并且可以使用输入输出电路42的输出数据以实现接收来自电子装置10的状态信息和其它输出。
进一步的,本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质可以是设置于上述各实施例中的电子装置中,该计算机可读存储介质可以是前述图9所示实施例中的存储和处理电路30中的存储器。该计算机可读存储介质上存储有计算机程序,该程序被处理器执行时实现前述图1和图2所示实施例中描述的肺音分割方法,或执行实现前述图4和图5所示实施例中描述的肺音分类方法。进一步的,该计算机可存储介质还可以是U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上为对本发明所提供的肺音分割方法、肺音分类方法、装置及计算机可读存储介质的描述,对于本领域的一般技术人员,依据本发明实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本发明的限制。
Claims (14)
1.一种肺音分割方法,其特征在于,包括:
获取目标对象在第一时间段内的肺音时序数据;
获取所述目标对象在第二时间段内的胸腔运动状态时序数据,其中,所述第二时间段与第一时间段存在时间重合;
根据所述胸腔运动状态时序数据中不同时间点的胸腔运动状态数据确定至少两个分割时间点,根据至少两个所述分割时间点对所述肺音时序数据划分呼吸周期。
2.根据权利要求1所述的方法,其特征在于,所述获取所述目标对象在第二时间段内的胸腔运动状态时序数据,包括:
通过设置在所述目标对象胸腔表面的传感器,获取所述目标对象在所述第二时间段内的胸腔运动位姿时序数据,确定所述胸腔运动位姿时序数据构成胸腔运动状态时序数据。
3.根据权利要求2所述的方法,其特征在于,所述获取所述目标对象在所述第二时间段内的胸腔运动位姿时序数据,包括:
获取所述目标对象在所述第二时间段内不同时间点的多个胸腔角速度与多个胸腔加速度;
根据多个所述胸腔角速度计算所述目标对象在所述第二时间段内的多个胸腔姿态;
根据多个所述胸腔姿态和多个所述胸腔加速度计算所述目标对象在所述第二时间段内的多个胸腔位置;
针对所述第二时间段内的不同时间点,将该时间点的胸腔姿态与胸腔位置组合,得到该时间点的位姿;
确定所述不同时间点的位姿构成胸腔运动位姿时序数据。
4.根据权利要求3所述的方法,其特征在于,所述根据所述胸腔运动状态时序数据中不同时间点的胸腔运动状态数据确定至少两个分割时间点,包括:
确定所述胸腔运动状态时序数据中胸腔姿态为第一姿态和/或胸腔位置为第一位置所对应的时间点为最大呼气时间点;
确定所述胸腔运动状态时序数据中胸腔姿态为第二姿态和/或胸腔位置为第二位置所对应的时间点为最大吸气时间点,其中,所述第一姿态与第二姿态为不同的姿态,所述第一位置与所述第二位置为不同位置;
若至少两个最大吸气时间点之间存在最大呼气时间点,则确定所述至少两个最大吸气时间点都为分割时间点;或者
若至少两个最大呼气时间点之间存在最大吸气时间点,则确定所述至少两个最大呼气时间点都为分割时间点。
5.根据权利要求3所述的方法,其特征在于,所述根据多个所述胸腔角速度计算所述目标对象在所述第二时间段内的多个胸腔姿态,包括:
对多个所述胸腔角速度进行积分运算,得到所述目标对象在所述第二时间段内的多个胸腔姿态。
6.根据权利要求3所述的方法,其特征在于,所述根据多个所述胸腔姿态和多个所述胸腔加速度计算所述目标对象在所述第二时间段内的多个胸腔位置,包括:
对多个所述胸腔姿态进行坐标系转换,得到基于指定坐标系的姿态旋转矩阵;
利用所述姿态旋转矩阵对多个所述胸腔加速度进行坐标系转换,得到基于指定坐标系的多个加速度,将多个所述加速度分别去除重力之后分别进行二次积分运算,得到所述目标对象在所述第二时间段内的多个胸腔位置。
7.一种肺音分类方法,其特征在于,所述方法包括:
获取由权利要求1至6中任一项所述的肺音分割方法得到的已划分呼吸周期的待识别肺音分段数据;
将所述待识别肺音分段数据输入至预训练的肺音分类模型,得到所述肺音分类模型输出的肺音分类结果。
8.根据权利要求7所述的方法,其特征在于,所述将所述待识别肺音分段数据输入至预训练的肺音分类模型之前,所述方法还包括:
获取肺音数据集,所述肺音数据集包含多个由权利要求1至6中任一项所述的肺音分割方法得到的已划分呼吸周期的肺音数据;
对多个所述肺音数据进行特征提取,得到特征肺音数据集;
利用所述特征肺音数据集对预构建的基于深度学习的肺音识别模型进行训练,得到所述预训练的肺音分类模型。
9.根据权利要求7或8所述的方法,其特征在于,所述利用所述特征肺音数据集对预构建的基于深度学习的肺音识别模型进行训练,包括:
对所述特征肺音数据集中特征肺音数据进行随机排序;
选取随机排序后的所述特征肺音数据集中的多个特征肺音数据依次输入至预构建的基于深度学习的肺音识别模型进行训练。
10.根据权利要求7或8所述的方法,其特征在于,所述得到特征肺音数据集之后,所述方法还包括:
对所述特征肺音数据集进行数据增强。
11.一种肺音分割装置,其特征在于,包括:
第一获取模块,用于获取目标对象在第一时间段内的肺音时序数据;
第二获取模块,用于获取所述目标对象在第二时间段内的胸腔运动状态时序数据,其中,所述第二时间段与第一时间段存在时间重合;
肺音分割模块,用于根据所述胸腔运动状态时序数据中不同时间点的胸腔运动状态数据确定至少两个分割时间点,根据至少两个所述分割时间点对所述肺音时序数据划分呼吸周期。
12.一种肺音分类装置,其特征在于,包括:
分段数据获取模块,用于获取由权利要求11所述的肺音分割装置得到的已划分呼吸周期的待识别肺音分段数据;
分类模块,用于将所述待识别肺音分段数据输入至预训练的肺音分类模型,得到所述肺音分类模型输出的肺音分类结果。
13.一种电子装置,其特征在于,所述电子装置包括:
存储器和处理器;
所述存储器存储有可执行程序代码;
与所述存储器耦合的所述处理器,调用所述存储器中存储的所述可执行程序代码,执行如权利要求1至6中任一项所述的肺音分割方法或如权利要求7至10中任一项所述的肺音分类方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1至6中任一项所述的肺音分割方法或如权利要求7至10中任一项所述的肺音分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211487323.9A CN118070084A (zh) | 2022-11-23 | 2022-11-23 | 肺音分割方法、肺音分类方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211487323.9A CN118070084A (zh) | 2022-11-23 | 2022-11-23 | 肺音分割方法、肺音分类方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118070084A true CN118070084A (zh) | 2024-05-24 |
Family
ID=91108149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211487323.9A Pending CN118070084A (zh) | 2022-11-23 | 2022-11-23 | 肺音分割方法、肺音分类方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118070084A (zh) |
-
2022
- 2022-11-23 CN CN202211487323.9A patent/CN118070084A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11281262B2 (en) | Detecting a gesture made by a person wearing a wearable electronic device | |
US10827268B2 (en) | Detecting an installation position of a wearable electronic device | |
US9069380B2 (en) | Media device, application, and content management using sensory input | |
US20140306821A1 (en) | Motion profile templates and movement languages for wearable devices | |
CN111052047B (zh) | 用于自动手势和手指识别的静脉扫描设备 | |
US20160096072A1 (en) | Method and system for detecting, tracking, and visualizing joint therapy data | |
US20120313746A1 (en) | Device control using sensory input | |
CA2818020A1 (en) | Motion profile templates and movement languages for wearable devices | |
CN107004414A (zh) | 信息处理设备、信息处理方法及程序 | |
WO2011092549A1 (en) | Method and apparatus for assigning a feature class value | |
WO2018131251A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN109819167A (zh) | 一种图像处理方法、装置和移动终端 | |
WO2023040731A1 (zh) | 用户姿势监测系统、方法及智能穿戴设备 | |
CN116585177B (zh) | 基于数据挖掘的艾灸装置控制方法、装置、设备及介质 | |
US11403289B2 (en) | Systems and methods to facilitate bi-directional artificial intelligence communications | |
CA2820092A1 (en) | Wearable device data security | |
CN111613246A (zh) | 一种音频分类提示方法以及相关设备 | |
CN118070084A (zh) | 肺音分割方法、肺音分类方法、装置及存储介质 | |
CN111191018A (zh) | 对话系统的应答方法和装置、电子设备、智能设备 | |
Hsu et al. | Posture recognition with G-sensors on smart phones | |
Marasović et al. | Motion-based gesture recognition algorithms for robot manipulation | |
CN118072968A (zh) | 呼吸音识别方法、装置及计算机可读存储介质 | |
WO2024139642A1 (zh) | 心率检测方法、装置、电子设备及存储介质 | |
CN116778571A (zh) | 驼背检测方法、装置、电子设备及计算机可读存储介质 | |
US20240221482A1 (en) | System, method and smart wearable device for user posture monitoring |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |