CN111753883A - 一种生理音训练集和测试集的建立方法 - Google Patents

一种生理音训练集和测试集的建立方法 Download PDF

Info

Publication number
CN111753883A
CN111753883A CN202010504738.7A CN202010504738A CN111753883A CN 111753883 A CN111753883 A CN 111753883A CN 202010504738 A CN202010504738 A CN 202010504738A CN 111753883 A CN111753883 A CN 111753883A
Authority
CN
China
Prior art keywords
sounds
physiological
sound
training
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010504738.7A
Other languages
English (en)
Inventor
赵列宾
董斌
陈会文
袁加俊
王汉松
罗雯懿
彭永宣
周宏远
曲菲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Tuoxiao Intelligent Technology Co ltd
Shanghai Childrens Medical Center Affiliated to Shanghai Jiaotong University School of Medicine
Original Assignee
Shanghai Tuoxiao Intelligent Technology Co ltd
Shanghai Childrens Medical Center Affiliated to Shanghai Jiaotong University School of Medicine
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Tuoxiao Intelligent Technology Co ltd, Shanghai Childrens Medical Center Affiliated to Shanghai Jiaotong University School of Medicine filed Critical Shanghai Tuoxiao Intelligent Technology Co ltd
Priority to CN202010504738.7A priority Critical patent/CN111753883A/zh
Publication of CN111753883A publication Critical patent/CN111753883A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/02Stethoscopes
    • A61B7/04Electric stethoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/245Classification techniques relating to the decision surface
    • G06F18/2451Classification techniques relating to the decision surface linear, e.g. hyperplane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Public Health (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供一种生理音训练集和测试集的建立方法,其包括以下步骤:S1、生理音数据采集;S2、生理音数据筛选;S3、生理音数据清洗;S4、生理音数据标注;S5、构建训练集;S6、构建测试集;S7、优化训练集训练模型,通过计算每种生理音中异常生理音中的各种分类与正常生理音自动识别的准确率、灵敏度与特异度来作为训练模型的优化参数,根据优化参数对训练模型进行改进。本发明提供的生理音包括多种生理音,分别为心音、呼吸音、咳嗽音、肠鸣音、血管音、关节活动音,基本覆盖所有的人体产生的声音,通过数据合理的分类,利用专业人员进行人工标注配合测试集与训练集中训练模型进行分析,提高优化参数进而实现人工智能自动标注的功效。

Description

一种生理音训练集和测试集的建立方法
技术领域
本发明涉及生理音处理领域,尤其涉及一种生理音训练集和测试集的建立方法。
背景技术
生理音包括心音、肺音、肠鸣音、血管回音、气管呼吸音、支气管呼吸音以及手足呼吸音等各种器官发出的声音。其中呼吸音俗称肺音,它能够反映肺部组织、气管及胸壁等传播媒介的声学特性。心脏杂音则属于心音的一种,具体指在心音与额外心音之外,在心脏收缩或舒张时血液在心脏或血管内产生湍流所致的室壁、瓣膜或血管振动所产生的异常声音,是具有不同频率、不同强度、持续时间较长的噪杂声。通过对生理音的准确分析以及分类,可对相关疾病诊断起到重要的决定性作用。
同时呼吸音及其他生理音的频率范围约为50-3000Hz,而人耳的敏感频段约为1000-2000Hz,传统的机械听诊器的低频响应很差,所以在听诊过程中难以捕捉微弱声音。再加上不同医生存在临床经验和疾病诊断水平的差异,对同一病人的生理音听诊往往有不同的判断结果,甚至大相径庭,更不要说通过生理音判断感染的部位、程度和阶段以及其中的病理生理变化、演变过程,并预判其发展方向和预后。因此通过对生理音进行定量分析,提取生理音的典型特征进行分类识别,建立生理音的训练集及测试集,利用一定量的数据进行训练优化模型,一定量的数据进行测试,计算每种生理音中异常生理音中的各种分类与正常生理音自动识别的准确率、灵敏度与特异度,从而提高疾病诊治的水平极具必要性。但现阶段并无针对生理音的训练集和测试集的建立方法,故急需解决上述缺陷。
发明内容
(一)要解决的技术问题
本发明要解决的问题是如何建立生理音的训练集和测试集的方法,通过训练集和测试集为后续生理音的智能识别做好准备工序。
(二)技术方案
本发明一个实施例中提供的一种生理音训练集和测试集的建立方法,其包括以下步骤:
S1、生理音数据采集,通过声音收集设备对生理音进行采集;
S2、生理音数据筛选,通过人工和/或设备对生理音数据筛选,筛选条件至少包括但不限于采集时长、被采集者年龄、被采集者地区、被采集者健康状况中的一种或多种组合;
S3、生理音数据清洗,通过人工和/或设备对不符合筛选条件的数据进行清除;
S4、生理音数据标注,通过专业人员对生理音数据中出现的异常生理音进行各种分类,并进行人工标注;
S5、构建训练集,按筛选条件得到的信息进行分组,将每组数据中一定比例的数据导入训练集中进行训练;
S6、构建测试集,将每组数据中未进行训练的部分导入至测试集中进行测试;
S7、优化训练集训练模型,通过计算每种生理音中异常生理音中的各种分类与正常生理音自动识别的准确率、灵敏度与特异度来作为训练模型的优化参数,根据优化参数对训练模型进行改进。
在一方面,所述生理音包括心音、呼吸音、咳嗽音、肠鸣音、血管音、关节活动音。
在一方面,声音收集设备包括但不限于云听诊器、3M听诊器、可穿戴听诊设备、便携式录音设备。
在一方面,所述心音的筛选条件中时长控制在9-20s,且至少采集到5个完整的心跳周期;
所述呼吸音的筛选条件中时长控制在9-20s,且至少采集到3个完整的呼吸周期;
所述咳嗽音的筛选条件中时长控制在6-20s,且至少采集到1个完整的咳嗽音;
所述肠鸣音的筛选条件中时长控制60-120min,且餐前2小时和餐后40分钟的肠鸣音;
所述血管音的筛选条件中时长控制60-300min;
所述关节活动音的筛选条件中时长控制60-180min。
在一方面,所述生理音的筛选条件中被采集者年龄分为0-3岁、4-8岁、9-18岁、19-30岁、31-50岁、51岁-70岁、71岁以上共7个等级;
被采集者地区分为中国大陆、中国港澳台、其他亚洲地区、非洲地区、欧洲地区、北美洲地区、南美洲地区、大洋洲地区共8个区域,其中中国大陆还细分为华中地区、华北地区、华东地区、华南地区、西北地区、东北地区、西南地区。
在一方面,所述生理音的筛选条件中被采集者健康状况分为健康人群和患者,患者根据患病分为呼吸疾病、心脏疾病、消化疾病、血管疾病、关节疾病。
在一方面,生理音数据标注中专业人员为对应生理音领域具备10年临床经验的副高级专家,专业人员为3名人员,采纳标注标准为二者一致与三者一致的结果。
在一方面,构建训练集中每组70%的数据导入训练集中进行训练,构建测试集中每组剩余30%的数据导入测试集中进行测试。
在一方面,训练集训练方法,包括:数据预处理,采用小波变换,对每个生理音周期单独进行小波分解;特征提取,VGG模型特征提取;分类算法,支持向量机和卷积神经网络。
在一方面,一种人工智能自动标注模型,该模型为优化参数达到85%及其以上的训练模型。
(三)有益效果
首先,本发明提供的一种生理音训练集和测试集的建立方法通过声音收集设备对生理音进行收集并转化生成方便记录及分析电子信号形式,方便生理音的储存,识别及标注;
同时,本发明提供一种生理音训练集和测试集的建立方法中通过数据合理的分类,利用专业人员进行人工标注配合测试集与训练集中训练模型进行分析,提高优化参数的准确率、灵敏度与特异度,进而实现人工智能自动标注的功效。
附图说明
图1为本发明提供的一种生理音训练集和测试集的建立方法的流程图;
图2为本发明提供的一种生理音训练集和测试集的建立方法中采集点的背面示意图;
图3为本发明提供的一种生理音训练集和测试集的建立方法中采集点的正面示意图。
具体实施方式
下面结合实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
本发明一个实施例中提供的一种生理音训练集和测试集的建立方法,其包括以下步骤:
S1、生理音数据采集,通过声音收集设备对生理音进行采集;
S2、生理音数据筛选,通过人工和/或设备对生理音数据筛选,筛选条件包括采集时长、被采集者年龄、被采集者地区、被采集者健康状况;
S3、生理音数据清洗,通过人工和/或设备对不符合筛选条件的数据进行清除;
S4、生理音数据标注,通过专业人员对生理音数据中出现的异常生理音进行各种分类,并进行人工标注;
S5、构建训练集,按被采集者年龄、被采集者地区、被采集者健康状况进行分组,将每组70%的数据导入训练集中进行训练;
S6、构建测试集,将每组数据中未进行训练的30%导入至测试集中进行测试;
S7、优化训练集训练模型,通过计算每种生理音中异常生理音中的各种分类与正常生理音自动识别的准确率、灵敏度与特异度来作为训练模型的优化参数,根据优化参数对训练模型进行改进。
同时声音收集设备包括但不限于云听诊器、3M听诊器、可穿戴听诊设备、便携式录音设备。其中:
国产云听诊器的采样率8KHz,采集分为三个模式的频率范围;分别为
滤波器放大20-2000Hz的音频,强化50Hz-500Hz音频;
滤波器放大20-2000Hz的音频,强化300Hz-1200Hz的音频;
滤波器放大20-2000Hz的音频,强化50Hz-1200Hz的音频。
进口3M听诊器的采样率4KHz,采集分为三个模式的频率范围:分别为钟型滤波器放大20-1000Hz的声音,强化20-200Hz的低频率声音;
膜型滤波器放大20-2000Hz的声音,强化100-500Hz的声音;
扩展模式滤波器放大20-2000Hz的声音,强化50-500Hz的声音。
国产可穿戴听诊设备的采样率8KHz,滤波器放大20-2000Hz的音频,其采用柔性压电薄膜传感器,传感器长度30cm-100cm。
而便携仪录音设备(如手机、平板电脑、笔记本式计算机、台式计算机等),其滤波范围:20Hz-20kHz,采样率:44.1kHz。
在另一方面生理音包括心音、呼吸音、咳嗽音、肠鸣音、血管音、关节活动音,基本覆盖所有的人体产生的声音,为后续智能诊断奠定数据基础;而其筛选条件为:
心音
采集时长最小9秒,最大20秒。应至少采集到完整的5个心跳周期,环境噪音和被采集者的说话、哭闹噪音所占时长占总时长的比例小于等于20%。心音采集位置为4个点(附图2中1、2、3、4标记处),2岁以内婴幼儿可为1个点(附图2中2标记处)。
呼吸音
采集时长最小9秒,最大20秒。应至少采集到完整的3个呼吸周期,环境噪音和被采集者的说话、哭闹噪音所占时长占总时长的比例小于等于20%。呼吸音采集位置为4个点(附图2中1、2、3、4标记处),6个点(附图2中1、2、3、4标记处和附图3中5、6标记处),9个点(附图2中1、2、3、4标记处和附图3中5、6、7、8、9标记处)。
咳嗽音
采集时长最小6秒,最大20秒。应至少采集到完整的1个咳嗽音,环境噪音和被采集者的说话、哭闹噪音所占时长占总时长的比例小于等于20%。其中便携仪式录音设备(手机、平板电脑、笔记本式计算机、台式计算机)采集位置,距离患者2米以内。
肠鸣音
采集为餐前2小时和餐后40分钟的肠鸣音,采集时长最小60分钟,最大120分钟;采集过程中环境噪音和被采集者的说话、哭闹噪音所占时长占总时长的比例小于等于20%。
血管音
采集时长最小60分钟,最大300分钟。采集过程中环境噪音和被采集者的说话、哭闹噪音所占时长占总时长的比例小于等于20%。
关节活动音
采集时长最小60分钟,最大180分钟。采集过程中环境噪音和被采集者的说话、哭闹噪音所占时长占总时长的比例小于等于20%。
被采集者年龄分为0-3岁、4-8岁、9-18岁、19-30岁、31-50岁、51岁-70岁、71岁以上共7个等级;
被采集者地区分为中国大陆、中国港澳台、其他亚洲地区、非洲地区、欧洲地区、北美洲地区、南美洲地区、大洋洲地区共8个区域,其中中国大陆还细分为华中地区、华北地区、华东地区、华南地区、西北地区、东北地区、西南地区。
同时,生理音的筛选条件中被采集者健康状况分为健康人群和患者,患者根据患病分为呼吸疾病、心脏疾病、消化疾病、血管疾病、关节疾病。
而患病具体情况如下:
呼吸疾病:肺炎、哮喘、COPD、上呼吸道感染;
心脏疾病:先天性心脏病、心衰、肺动脉高压、心脏内外术后;
消化疾病:急慢性胃肠炎,阑尾炎,肠梗阻;
血管疾病:透析患者、动脉粥样硬化、炎症性血管疾病、功能性血管疾病、血管的真性肿瘤性;
关节疾病:骨性病变、滑膜或软骨损伤、积血或积液、关节炎或畸形、关节周围软组织损伤或粘连、瘢痕挛、肌痉挛、肌肉瘫痪等。
在另一方面,生理音数据标注中专业人员为对应生理音领域具备10年临床经验的副高级专家,专业人员为3名人员,采纳标注标准为二者一致与三者一致的结果。
呼吸音标注:采用三位具有10年临床经验的副高级专家进行标注。采纳标准:二者一致与三者一致的结果。
心音的标注:参考心音采集时24小时以内的心脏彩超报告,采用三位具有10年临床经验的副高级专家进行标注。采纳标准:二者一致与三者一致的结果。
咳嗽音的标注:采用三位具有10年呼吸领域的临床经验的副高级专家进行标注。采纳标准:二者一致与三者一致的结果。
血管音的标注:参考血管音采集时24小时以内的血管多普勒彩超报告,采用三位具有10年的临床经验的副高级专家进行标注。采纳标准:二者一致与三者一致的结果。
关节活动音的标注:参考关节活动音采集时24小时以内的DR或CT影响报告,采用三位具有10年的临床经验的副高级专家进行标注。
采纳标准:二者一致与三者一致的结果。
具体的训练集训练方法,包括:
数据预处理,采用小波变换(wavelet transform,WT),对每个生理音周期单独进行小波分解;
特征提取,VGG模型特征提取(VGG的全称是Oxford Visual Geometry Group的简称,该小组隶属于1985年成立的Robotics Research Group);
分类算法,支持向量机(Support Vector Machine,SVM是一类按监督学习方式对数据进行二元分类的广义线性分类器,其决策边界是对学习样本求解的最大边距超平面)和卷积神经网络(Convolutional Neural Networks,CNN是一类包含卷积计算且具有深度结构的前馈神经网络)。
本发明另一个实施例是一种人工智能自动标注模型,该模型为优化参数(对每种生理音中异常生理音中的各种分类与正常生理音自动识别的准确率、灵敏度与特异度大于或等于85%)达到85%及其以上的训练模型。可使用该模型实现人工智能算法模型自动标注。
综上所述,上述实施方式并非是本发明的限制性实施方式,凡本领域的技术人员在本发明的实质内容的基础上所进行的修饰或者等效变形,均在本发明的技术范畴。

Claims (10)

1.一种生理音训练集和测试集的建立方法,其特征在于:包括以下步骤:
S1、生理音数据采集,通过声音收集设备对生理音进行采集;
S2、生理音数据筛选,通过人工和/或设备对生理音数据筛选,筛选条件至少包括但不限于采集时长、被采集者年龄、被采集者地区、被采集者健康状况其中的一种或多种组合;
S3、生理音数据清洗,通过人工和/或设备对不符合筛选条件的数据进行清除;
S4、生理音数据标注,通过专业人员对生理音数据中出现的异常生理音进行各种分类,并进行人工标注;
S5、构建训练集,按筛选条件得到的信息进行分组,将每组数据中一定比例的数据导入训练集中进行训练;
S6、构建测试集,将每组数据中未进行训练的部分导入至测试集中进行测试;
S7、优化训练集训练模型,通过计算每种生理音中异常生理音中的各种分类与正常生理音自动识别的准确率、灵敏度与特异度来作为训练模型的优化参数,根据优化参数对训练模型进行改进。
2.根据权利要求1所述的一种生理音训练集和测试集的建立方法,其特征在于,所述生理音包括心音、呼吸音、咳嗽音、肠鸣音、血管音、关节活动音。
3.根据权利要求1所述的一种生理音训练集和测试集的建立方法,其特征在于,声音收集设备包括但不限于云听诊器、3M听诊器、可穿戴听诊设备、便携式录音设备。
4.根据权利要求2所述的一种生理音训练集和测试集的建立方法,其特征在于,所述心音的筛选条件中时长控制在9-20s,且至少采集到5个完整的心跳周期;
所述呼吸音的筛选条件中时长控制在9-20s,且至少采集到3个完整的呼吸周期;
所述咳嗽音的筛选条件中时长控制在6-20s,且至少采集到1个完整的咳嗽音;
所述肠鸣音的筛选条件中时长控制在60-120min,且餐前2小时和餐后40分钟的肠鸣音;
所述血管音的筛选条件中时长控制在60-300min;
所述关节活动音的筛选条件中时长控制在60-180min。
5.根据权利要求1至4任意一项所述的一种生理音训练集和测试集的建立方法,其特征在于,所述生理音的筛选条件中被采集者年龄分为0-3岁、4-8岁、9-18岁、19-30岁、31-50岁、51岁-70岁、71岁以上共7个等级;
被采集者地区分为中国大陆、中国港澳台、其他亚洲地区、非洲地区、欧洲地区、北美洲地区、南美洲地区、大洋洲地区共8个区域,其中中国大陆还细分为华中地区、华北地区、华东地区、华南地区、西北地区、东北地区、西南地区。
6.根据权利要求5所述的一种生理音训练集和测试集的建立方法,其特征在于,所述生理音的筛选条件中被采集者健康状况分为健康人群和患者,患者根据患病分为呼吸疾病、心脏疾病、消化疾病、血管疾病、关节疾病。
7.根据权利要求1所述的一种生理音训练集和测试集的建立方法,其特征在于,生理音数据标注中专业人员为对应生理音领域具备10年临床经验的副高级专家,专业人员为3名人员,采纳标注标准为二者一致与三者一致的结果。
8.根据权利要求1所述的一种生理音训练集和测试集的建立方法,其特征在于,构建训练集中每组70%的数据导入训练集中进行训练,构建测试集中每组剩余30%的数据导入测试集中进行测试。
9.根据权利要求8所述的一种生理音训练集和测试集的建立方法,其特征在于,训练集训练方法包括:数据预处理,采用小波变换,对每个生理音周期单独进行小波分解;特征提取,VGG模型特征提取;分类算法,支持向量机和卷积神经网络。
10.一种人工智能自动标注模型,其特征在于,该模型为优化参数达到85%及其以上的训练模型。
CN202010504738.7A 2020-06-05 2020-06-05 一种生理音训练集和测试集的建立方法 Pending CN111753883A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010504738.7A CN111753883A (zh) 2020-06-05 2020-06-05 一种生理音训练集和测试集的建立方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010504738.7A CN111753883A (zh) 2020-06-05 2020-06-05 一种生理音训练集和测试集的建立方法

Publications (1)

Publication Number Publication Date
CN111753883A true CN111753883A (zh) 2020-10-09

Family

ID=72674767

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010504738.7A Pending CN111753883A (zh) 2020-06-05 2020-06-05 一种生理音训练集和测试集的建立方法

Country Status (1)

Country Link
CN (1) CN111753883A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107292286A (zh) * 2017-07-14 2017-10-24 中国科学院苏州生物医学工程技术研究所 基于机器学习的呼吸音鉴别方法及系统
CN107529645A (zh) * 2017-06-29 2018-01-02 重庆邮电大学 一种基于深度学习的心音智能诊断系统及方法
CN109961017A (zh) * 2019-02-26 2019-07-02 杭州电子科技大学 一种基于卷积循环神经网络的心音信号分类方法
CN110755108A (zh) * 2019-11-04 2020-02-07 合肥望闻健康科技有限公司 一种基于智能听诊器的心脏声音分类方法、系统、装置及可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107529645A (zh) * 2017-06-29 2018-01-02 重庆邮电大学 一种基于深度学习的心音智能诊断系统及方法
CN107292286A (zh) * 2017-07-14 2017-10-24 中国科学院苏州生物医学工程技术研究所 基于机器学习的呼吸音鉴别方法及系统
CN109961017A (zh) * 2019-02-26 2019-07-02 杭州电子科技大学 一种基于卷积循环神经网络的心音信号分类方法
CN110755108A (zh) * 2019-11-04 2020-02-07 合肥望闻健康科技有限公司 一种基于智能听诊器的心脏声音分类方法、系统、装置及可读存储介质

Similar Documents

Publication Publication Date Title
Leng et al. The electronic stethoscope
Andrès et al. Respiratory sound analysis in the era of evidence-based medicine and the world of medicine 2.0
Thiyagaraja et al. A novel heart-mobile interface for detection and classification of heart sounds
CN110353685B (zh) 用于处理患者声音的方法与装置
Syed et al. A framework for the analysis of acoustical cardiac signals
US20210030390A1 (en) Electronic stethoscope
WO2018011801A1 (en) Estimation of sleep quality parameters from whole night audio analysis
Pretorius et al. Development of a pediatric cardiac computer aided auscultation decision support system
Dokur Respiratory sound classification by using an incremental supervised neural network
Omarov et al. Artificial Intelligence in Medicine: Real Time Electronic Stethoscope for Heart Diseases Detection.
CN112017695A (zh) 一种自动识别生理声音的系统及方法
Rao et al. Improved detection of lung fluid with standardized acoustic stimulation of the chest
Omarov et al. Electronic stethoscope for heartbeat abnormality detection
US20220378377A1 (en) Augmented artificial intelligence system and methods for physiological data processing
Kala et al. An objective measure of signal quality for pediatric lung auscultations
Botha et al. Autonomous auscultation of the human heart employing a precordial electro-phonocardiogram and ensemble empirical mode decomposition
CN111753883A (zh) 一种生理音训练集和测试集的建立方法
CN215349053U (zh) 一种先天性心脏病智能筛查机器人
Balbin et al. Arrhythmia Detection using Electrocardiogram and Phonocardiogram Pattern using Integrated Signal Processing Algorithms with the Aid of Convolutional Neural Networks
Sh-Hussain et al. Application of multipoint auscultation for heart sound diagnostic system (MAHDS)
CN111524563A (zh) 一种生理音数据库的建立方法及其数据库
CN206453785U (zh) 一种智能电子听诊器
Moulana et al. Heart murmur detection using supervised machine learning
Oktarina et al. A New Tele-Healthcare System of Heart Sound Signal Classification based on Gated Recurrent Unit
CN111523487A (zh) 一种生理音的预处理及自动标注方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination