CN105943077A - 一种听诊器 - Google Patents

一种听诊器 Download PDF

Info

Publication number
CN105943077A
CN105943077A CN201510629613.6A CN201510629613A CN105943077A CN 105943077 A CN105943077 A CN 105943077A CN 201510629613 A CN201510629613 A CN 201510629613A CN 105943077 A CN105943077 A CN 105943077A
Authority
CN
China
Prior art keywords
sound
stethoscope
audio signal
vector
acoustical signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510629613.6A
Other languages
English (en)
Inventor
刘伟锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201510629613.6A priority Critical patent/CN105943077A/zh
Publication of CN105943077A publication Critical patent/CN105943077A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/003Detecting lung or respiration noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/02Stethoscopes
    • A61B7/04Electric stethoscopes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Acoustics & Sound (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

一种智能电子听诊器,包括听诊头,听音管,听音管的末端链接音频采集系统、放大装置、音频信号分类系统、音频信号识别系统、模板数据库和语音播报系统。以上系统依次运行,并设有GUI程序控制界面和迁移到智能移动设备上的控制操作界面,所述控制界面上设置跟各程序相对应的控制键,当按下控制键时在Matlab程序中会运行对应系统程序,从而实现各系统所对应功能。该智听诊器成本低、易于操作、携带方便、快速诊断,并且可以应用于手机、平板电脑等智能移动设备,适合于家庭应用。

Description

一种听诊器
技术领域
本发明属于医疗器械技术领域,尤其涉及一种听诊器。
技术背景
心音和呼吸音等人体内脏的音频信号是人体内脏运动所产生的生理特征,它们蕴含着相关器官的生理和病理信息。在医学临床中对音频信号的病理分析能够方便快捷的早期预测各种疾病。但是传统听诊方式中,由于我们人耳听音功能的局限,是难以实现对人体内脏音频信号的准确把握。
听诊器的音频信号分析单元在向电子式的发展过程中只是在硬件环节上进行创新,所需硬件设施复杂,成本很高,同时普通群众无法负担和使用。因此需要一种准确性高、易于操作、携带方便、快速诊断、价格便宜并且能够提供相关病情处理方法的听诊器,既可以用于临床诊断也可以被普通群众用于平时生活的疾病预防。
发明内容
本发明为了解决现有技术中存在的技术问题,提供了一种准确性高、易于操作、携带方便、快速诊断、成本低的听诊器。
本发明提供的一种听诊器包括包括听诊头,听音管,听诊头连接听音管,听音管末端连接芯片电路等,所述芯片电路包括显示装置、音频采集系统、放大装置、音频信号分类系统、音频信号识别系统、模板数据库和语音播报系统
设有相应GUI控制应用程序,该GUI程序界面上设置跟各程序相对应的控制键,以上系统存储于计算机架构的硬件装置中,当按下控制键时程序会运行 对应模块程序,从而实现模块对应功能。
本发明是分模块设计,总体的设计思路为:首先设计一个声音采集系统,实现对声音控制命令的实时采集;其次,要设计一个声音特征分类模块,搭建声音分类框架,实现对声音信号的分类;再次,设计声音识别模块,识别采集到的声音控制命令;最后完成控制界面的设计。
音频采集系统实时采集人体内脏的声音和回放,经过听音管传递到放大装置,放大装置将声音有效放大,开始声音信号的实时采集和声音录制,并将采集到的声音信号保存到工作区间;然后读取该声音信号并将其赋给某一变量,保存该变量生成一个.mat的数据文件。
声音分类系统的根本是KNN算法。这里,首先要用到采集声音信号时生成的文件名后缀为.mat的数据文件,通过加载该文件生成训练样本集矩阵;然后通过加载模板数据库中后缀为.mat的数据文件生成样本集矩阵。随后就是搭建KNN分类框架。
利用KNN算法进行声音分类的步骤为:
第一步:将采集到的声音信号转化为数据集,然后将其分为训练集和测试集,并根据声音信号的时域特征对训练集作预处理,构造KNN分类器;
第二步:对测试集进行预处理,并确定其向量表示;
第三步:用公式(2-1)计算训练集向量与测试集向量的欧式距离,即相似度;
式中,pi为待测样本特征向量,pj为训练样本中j类样本特征向量,xik、 xjk为向量对应的第K维。
第四步:以第三步计算的相似度为标准,选出与测试数据向量最相似的K个训练数据向量,并用公式(2-2)依次计算每个训练数据向量所属类的权重;
q(pi,dx)=∑sim(pi,pj)g(pj,dx) (2-2)
式中,g(pj,dx)为类别属性函数,判别标准为:若pj属于dx类,则g(pj,dx)函数值为1;若pj不属于dx类,则g(pj,dx)函数值为0。
第五步:比较第四步中计算的每一个权重值,将测试数据分到权重值最大的那个类别中;
第六步:确定分类结果并评价。
KNN是一种无监督分类方法,算法速度快,精度高,实现简单。
KNN算法最基本的东西就是训练集的确定和声音特征的选择以及K值的确定。训练集的好坏和特征参数选取的合适与否将直接影响分类算法的性能;而K值的确定则直接影响到预测结果的好坏。K值过低容易引起预测目标的不确定性,同时K值过高,预测目标会出现过平滑现象。这样就显得一个合适的K值是十分必要的。由于有效参数的数目是和K值相关,因此可以通过有效参数的数目这个概念来确定一个合适的K值。
声音识别系统的基础是DTW算法,该系统的设计过程就是算法的实现过程。在实现DTW算法的过程中,首先要对采集到的声音控制命令信号进行端点检测和声音特征参数提取,然后根据提取到的MFCC特征参数进行声音识别。
音频信号识别系统使用动态时间规整(STW)算法,首先要对采集到的音频控制命令信号进行端点检测和声音特征参数提取,然后根据提取到的MFCC特征参数进行声音识别。声音信号的特点是短时平定,长时时变,它具有瞬时 稳态性,因此对声音信号的处理一般可以采用短时处理技术,这种处理可以作为声音识别前的预处理。在对声音信号进行主要预处理就是声音信号端点检测和声音特征系数提取。在DTW算法中,端点检测是在训练和建立模板以及识别阶段中确定有效声音信号起点和终点的必不可少的方法;而声音特征系数提取则是声音识别的根本,是建立训练样本的主要依据。在这两者的基础上,声音识别的过程就是一个模板匹配的过程。此过程包含端点检测、声音特征参数提取、测试模板和参考模板的训练以及测试模板与参考模板的匹配等一系列过程。在这些过程结束之后,就可以根据DTW算法进行声音识别,然后将识别结果输出。
声音信号的端点检测技术是指用数字声音处理技术提取一段有效声音信号,而存储和处理的过程也只针对那段有效声音信号。声音信号的端点检测是声音分析、合成和识别中必不可少的一个重要环节,其算法的性能在一定程度上也直接影响了整个声音识别系统的性能。在端点检测的过程中主要用到的基本参数有短时平均过零率、短时能量、相关函数相等。在进行端点检测时最常用的方法是利用短时能量和短时过零率这两个参数设置双门限对声音信号进行检测,这种方法被称为双门限端点检测法。
在声音识别技术领域中,声音识别中可以用到的声音特征参数有倒谱系数、短时能量、信号基频、共振峰值等声音特征参数,目前在声音识别算法中较为常用且实用的是两种倒谱系数,这两种倒谱系数分别为线性预测倒谱系数(LPCC)和Mel倒谱系数(Mel-fre-quency-cepstrum-coefficient,MFCC)。这两种倒谱系数都是先将声音信号从时域变换到倒谱域上,然后在倒谱域上求倒谱系数。但前者是在人的声学模型的基础上,利用线性预测编码(LPC)来对声音信号求取倒谱系数;后者是在人的听觉模型基础上,对声音信号进行检测, 然后以声音信号通过该模型的输出为声音声学特征,直接对声音信号进行离散傅里叶变换(DFT),最后再通过一系列变换求取倒谱系数。在本发明中,主要提取的特征参数为MFCC,主要是因为经过与LPCC参数的比较,MFCC参数的优点如下:
声音信号的低频部分包含了大部分的有效声音信息,而环境噪声会干扰信号的高频部分,致使声音信号产生失真;但MFCC参数采用的是Mel频标,这样就加强了对声音信号低频信息的保护,从而保护了有利于参数提取和声音识别的低频声音信息,因此就避免了噪声对声音信号识别产生的干扰。
MFCC在各种情况下均可使用,无任何前提假设。
在本发明中,动态时间规整(DTW)算法是在进行声音识别过程中采用的主要算法。该算法是一种非线性时间规整技术,该技术以距离测度函数和时间规整函数为基础来实现对声音信号的动态规整。该技术的基本思想是首先选定一个以某个声音特征为基础的声音信号作为参考模板;其次寻求一个距离测度函数,利用该测度函数求取测试模板和参考模板之间的似然度;再次根据似然度的大小选取一种最佳测度,并找出一些专家知识,以这两者为基础建立识别标准,最后利用识别标准对测试模板进行识别,并将识别结果输出。但对于说话人来说,对同一个词的两次发音肯定会存在差异,这主要是由于两次发音的不同会使声强的大小产生差异,使声音信号的频谱产生偏移,还会使两次发音时的音节不同,这样就会给识别造成不同程度的干扰。而动态时间规整算法会建立一个线性时间轴,然后在该时间轴上对未知声音和参考声音进行统一的非线性的弯曲修正,这样就能使两个声音信号更好地匹配,从而达到更好的识别效果。
DTW算法是在声音信号经过端点检测和特征参数提取后,对测试声音和训 练声音进行模板匹配。在该算法中,首先要确定一个规整函数iy=W(ix);并且该函数要满足公式(2-3):
在公式(2-3)中,在最佳时间规整条件下,Q(W(ix))是测试声音矢量,P(ix)是参考声音矢量,及训练模板声音矢量,d(x,y)为x和y的距离度量,因此Dt就是测试矢量和参考矢量之间的距离。由于DTW需要确定一条最佳匹配路径,这条最佳路径就是通过不断的计算两个矢量之间的距离并比较得到的。在进行模板匹配时,要根据距离的比较,确定一个最佳规整函数。DTW算法的本质理论是局部最佳化处理理论和动态规划思想,其实质是自动地寻找出一条最佳匹配路径,并依据该路径,对两个特征矢量之间进行累积失真度计算并使其值达到最小,从而就会使因声音信号的时长差异而造成的声音识别误差大大减小。
按照DTW算法的基本原理和要求,两个模板的帧长、窗函数和帧移以及特征矢量必须一致。但为了使声音识别的效果更好,需要对上面确定的规整函数上进行一些限制。如果不加任何限制,最佳匹配路径就会变得毫无意义,这样就会使此算法的识别效果变得比较模糊,缺乏可信性。总的来说,要对规整函数加如下限制条件:
加边界限制:当对未知声音已经进行过精确的端点检测后,规整函数作用在起始帧和端点帧之间,这样就要求规整函数必须满足式(2-4):
单调性限制:在规整函数确定最佳匹配路径时,不能打乱原始声音信号各部分有效信号的时间顺序,因此必须对规整函数加单调性限制,即满足公式(2-5):
W(ix+1)≥W(ix) (2-5)
持续性限制:对于某些孤立词,发音单元正是影响声音识别效果的关键所在,那么为了使声音识别时信息的损失量达到最小,因此上述规整函数必须满足公式(2-6):
W(ix+1)-W(ix)≤1 (2-6)
DTW识别算法的原理图如图2-3所示,首先要确定一个二维直角坐标系,坐标系的横轴表示测试声音模板的各个帧号(x=1~X),坐标系的纵轴表示参考声音模板的各个帧号(y=1~Y),按照对规整函数的要求和限制,将纵轴和横轴上的各个总线和横线连接起来,这样就形成了时间规整函数显示图。在该图中每一个交叉点就表示参考模板和测试模板的帧的每一次交汇。
DTW算法实现过程有两步:一是生成帧匹配距离矩阵,二是在上述矩阵中确定一条最佳匹配路径。对于最佳匹配路径的描述可以如下:从(1,1)点开始搜索,对于按照图2-4所示的约束路径,点(ix,iy)前进的点只可能是(ix-1,iy)、(ix-1,iy-l)和(ix-1,iy-2)。那么(ix,iy)的前续格点一定会选择这三个距离中的最小距离所对应的那个点,因此该路径的累积距离为公式(2-7)所示:
Dt(ix,iy)=d(P(ix),Q(iy))+min{Dt(ix-1,iy),Dt(ix-1,iy-1),Dt(ix-1,iy-2)} (2-7)
这样按照图2-3进行搜索,经过反复递推,一直到点(X,Y),在此过程中会确立一条最佳匹配路径,而且会显示出与最佳匹配路径所对应的最佳匹配距离,然后根据最佳匹配距离找到其所对应的参考模板,此参考模板即为对测试模板的识别结果。
对于参考模板和测试模板的训练本文中采用的是简单的偶然训练法。这种方法为一种多模板训练方法。在进行声音识别时,未知声音的矢量序列要用动态时间规整算法分别求得与每个参考模板的总失真度,然后根据总失真度的大 小,判定未知声音矢量属于失真度最小的那一类。
在声音识别过程中,前面的端点检测和MFCC声音特征参数提取以及参考模板和测试模板的生成等都是声音识别的准备工作,只有当这些前期工作都很好地完成的时候,声音识别才会出现比较好的结果。所以,在进行声音信号预处理时,要尽可能准确地进行端点检测和声音特征参数提取,找出有效声音信号的起点和终点,确定合适的MFCC系数;要尽可能多次训练样本,这样能使训练模板达到更好的效果,然后就能使匹配的效果更好,从而使声音识别的效果更好。
本发明还设计了图形用户控制界面,在此界面中,主要实现的功能就是通过按钮控制实现程序的运行和结束,从而节省关心和了解程序内部如何运行的时间。GUI操作界面通过按钮来实现对整个系统的控制。
设计此界面的整体思路是:为每一个功能模块设置一个功能按钮,,当按下功能按钮时,在Matlab程序中会运行对应模块程序,从而实现模块对应功能。通过此操作,用户不用关心内部程序如何运行就能控制系统包含的功能模块程序运行,从而完成对整个系统的控制。
在此界面中,当按下声音实时采集功能按钮时,系统运行声音实时采集程序,完成对声音控制命令信号的实时采集并通过采集声音波形显示功能按钮显示声音信号波形;同理,当分别按下声音分类和声音识别功能按钮及其结果显示按钮时,就会分别实现声音分类和识别功能,并将结果通过声音或者显示屏显示出来。
以上系统依次运行,上述系统通过显示在计算机架构的硬件装置的显示屏或智能移动设备的控制界面进行控制,该控制界面上包含有与各程序相对应的控制键,当按下该控制键时运行相应的程序模块。
模板数据库为MYSQL或SQLITE。该模板数据库除了含有心音和呼吸音的相关数据,还包括相关疾病的治疗方法、注意事项和仅供参考的非处方类药品的信息,并且可以通过网络进行更新。
本发明还可以通过3.5mm插头或者通过转接头转接的3.5mm插头与智能手机、电脑、平板电脑等智能移动设备相连接,来实现上述功能。
所述听诊器可以准确、方便、快捷的完成诊断,同时成本低、使用方便,一般群众可以负担,能够在家中根据个人需要完成初步诊断,做到提前预防的目的,不需要去医院排队挂号,避免过度医疗,减少不必要的开支。
同时,由于不是人工听诊,不需要长年累月的经验积累,适合各类群体,有效减少误诊的发生,能够减少医患之间的矛盾。
附图说明
图1-1:系统总体结构设计流程图
图1-2:声音分类框架搭建程序流程图
图1-3:DTW算法实现过程程序流程图
图2-1:端点检测计算过程流程图
图2-2:MFCC系数计算流程图
图2-3:DTW算法实现原理图
图2-4:规整函数局部约束路径
图3-1:GUI控制界面设计结构图
具体实施方式
下面通过结合附图对发明做进一步的说明,以下实施例仅是对本发明进行说 明而非对其加以限定。
音频采集系统实时采集人体内脏的声音和回放,过听音管传递到放大装置,放大装置将声音有效放大,开始声音信号的实时采集,再调用wavrecord函数开始声音录制,并将采集到的声音信号保存到工作区间;然后读取该声音信号并将其赋给某一变量,保存该变量生成一个.mat的数据文件。
声音分类系统的根本是KNN算法。这里,首先要用到采集声音信号时生成的文件名后缀为.mat的数据文件,通过加载该文件生成训练样本集矩阵;然后通过加载模板数据库中后缀为.mat的数据文件生成样本集矩阵。随后就是搭建KNN分类框架,分类框架搭建的程序流程图如图1-2所示。
声音识别系统的基础是DTW算法,该系统的设计过程就是算法的实现过程。在实现DTW算法的过程中,首先要对采集到的声音控制命令信号进行端点检测和声音特征参数提取,然后根据提取到的MFCC特征参数进行声音识别。所以实现整个识别算法实现过程的流程图如图1-3所示。
在此流程图中,声音信号端点检测和MFCC声音特征参数提取作为声音信号识别的预处理,建立训练样本和测试样本是在程序中生成参考模板和测试模板并对这两个模板进行训练,声音识别的过程就是测试模板与参考模板匹配的过程。在程序中,首先要找到一个规整函数,利用此函数对参考模板和测试模板在同一时间轴上作非线性规整,然后找出一条适合于匹配的最佳搜索路径,通过这条路径找出最佳匹配路径,最后找出与测试模板最佳匹配的参考模板并以此作为识别结果,输出识别结果。
音频信号识别系统使用动态时间规整(STW)算法,首先要对采集到的音频控制命令信号进行端点检测和声音特征参数提取,然后根据提取到的MFCC特征参数进行声音识别。声音信号的特点是短时平定,长时时变,它具有瞬时 稳态性,因此对声音信号的处理一般可以采用短时处理技术,这种处理可以作为声音识别前的预处理。在对声音信号进行主要预处理就是声音信号端点检测和声音特征系数提取。在DTW算法中,端点检测是在训练和建立模板以及识别阶段中确定有效声音信号起点和终点的必不可少的方法;而声音特征系数提取则是声音识别的根本,是建立训练样本的主要依据。在这两者的基础上,声音识别的过程就是一个模板匹配的过程。此过程包含端点检测、声音特征参数提取、测试模板和参考模板的训练以及测试模板与参考模板的匹配等一系列过程。在这些过程结束之后,就可以根据DTW算法进行声音识别,然后将识别结果输出。
声音信号的端点检测技术是指用数字声音处理技术提取一段有效声音信号,而存储和处理的过程也只针对那段有效声音信号。声音信号的端点检测是声音分析、合成和识别中必不可少的一个重要环节,其算法的性能在一定程度上也直接影响了整个声音识别系统的性能。在端点检测的过程中主要用到的基本参数有短时平均过零率、短时能量、相关函数相等。在进行端点检测时最常用的方法是利用短时能量和短时过零率这两个参数设置双门限对声音信号进行检测,这种方法被称为双门限端点检测法。声音端点检测的计算过程框图如图2-1所示。
在声音识别技术领域中,声音识别中可以用到的声音特征参数有倒谱系数、短时能量、信号基频、共振峰值等声音特征参数,目前在声音识别算法中较为常用且实用的是两种倒谱系数,这两种倒谱系数分别为线性预测倒谱系数(LPCC)和Mel倒谱系数(Mel-fre-quency-cepstrum-coefficient,MFCC)。这两种倒谱系数都是先将声音信号从时域变换到倒谱域上,然后在倒谱域上求倒谱系数。但前者是在人的声学模型的基础上,利用线性预测编码(LPC)来对声 音信号求取倒谱系数;后者是在人的听觉模型基础上,对声音信号进行检测,然后以声音信号通过该模型的输出为声音声学特征,直接对声音信号进行离散傅里叶变换(DFT),最后再通过一系列变换求取倒谱系数。在本发明中,主要提取的特征参数为MFCC,主要是因为经过与LPCC参数的比较,MFCC参数的优点如下:
声音信号的低频部分包含了大部分的有效声音信息,而环境噪声会干扰信号的高频部分,致使声音信号产生失真;但MFCC参数采用的是Mel频标,这样就加强了对声音信号低频信息的保护,从而保护了有利于参数提取和声音识别的低频声音信息,因此就避免了噪声对声音信号识别产生的干扰。
MFCC在各种情况下均可使用,无任何前提假设。
提取MFCC参数计算过程的框图如图2-2所示。
在本发明中,动态时间规整(DTW)算法是在进行声音识别过程中采用的主要算法。该算法是一种非线性时间规整技术,该技术以距离测度函数和时间规整函数为基础来实现对声音信号的动态规整。该技术的基本思想是首先选定一个以某个声音特征为基础的声音信号作为参考模板;其次寻求一个距离测度函数,利用该测度函数求取测试模板和参考模板之间的似然度;再次根据似然度的大小选取一种最佳测度,并找出一些专家知识,以这两者为基础建立识别标准,最后利用识别标准对测试模板进行识别,并将识别结果输出。但对于说话人来说,对同一个词的两次发音肯定会存在差异,这主要是由于两次发音的不同会使声强的大小产生差异,使声音信号的频谱产生偏移,还会使两次发音时的音节不同,这样就会给识别造成不同程度的干扰。而动态时间规整算法会建立一个线性时间轴,然后在该时间轴上对未知声音和参考声音进行统一的非线性的弯曲修正,这样就能使两个声音信号更好地匹配,从而达到更好的识别 效果。
DTW算法是在声音信号经过端点检测和特征参数提取后,对测试声音和训练声音进行模板匹配。在该算法中,首先要确定一个规整函数iy=W(ix);并且该函数要满足公式(2-3):
在公式(2-3)中,在最佳时间规整条件下,Dt就是测试矢量和参考矢量之间的距离。由于DTW需要确定一条最佳匹配路径,这条最佳路径就是通过不断的计算两个矢量之间的距离并比较得到的。在进行模板匹配时,要根据距离的比较,确定一个最佳规整函数。DTW算法的本质理论是局部最佳化处理理论和动态规划思想,其实质是自动地寻找出一条最佳匹配路径,并依据该路径,对两个特征矢量之间进行累积失真度计算并使其值达到最小,从而就会使因声音信号的时长差异而造成的声音识别误差大大减小。
按照DTW算法的基本原理和要求,两个模板的帧长、窗函数和帧移以及特征矢量必须一致。但为了使声音识别的效果更好,需要对上面确定的规整函数上进行一些限制。如果不加任何限制,最佳匹配路径就会变得毫无意义,这样就会使此算法的识别效果变得比较模糊,缺乏可信性。总的来说,要对规整函数加如下限制条件:
加边界限制:当对未知声音已经进行过精确的端点检测后,规整函数作用在起始帧和端点帧之间,这样就要求规整函数必须满足式(2-4):
单调性限制:在规整函数确定最佳匹配路径时,不能打乱原始声音信号各部分有效信号的时间顺序,因此必须对规整函数加单调性限制,即满足公式 (2-5):
W(ix+1)≥W(ix) (2-5)
持续性限制:对于某些孤立词,发音单元正是影响声音识别效果的关键所在,那么为了使声音识别时信息的损失量达到最小,因此上述规整函数必须满足公式(2-6):
W(ix+1)-W(ix)≤1 (2-6)
DTW识别算法的原理图如图2-3所示,首先要确定一个二维直角坐标系,坐标系的横轴表示测试声音模板的各个帧号(x=1~X),坐标系的纵轴表示参考声音模板的各个帧号(y=1~Y),按照对规整函数的要求和限制,将纵轴和横轴上的各个总线和横线连接起来,这样就形成了时间规整函数显示图。在该图中每一个交叉点就表示参考模板和测试模板的帧的每一次交汇。
DTW算法实现过程有两步:一是生成帧匹配距离矩阵,二是在上述矩阵中确定一条最佳匹配路径。对于最佳匹配路径的描述可以如下:从(1,1)点开始搜索,对于按照图2-4所示的约束路径,点(ix,iy)前进的点只可能是(ix-1,iy)、(ix-1,iy-l)和(ix-1,iy-2)。那么(ix,iy)的前续格点一定会选择这三个距离中的最小距离所对应的那个点,因此该路径的累积距离为公式(2-7)所示:
Dt(ix,iy)=d(P(ix),Q(iy))+min{Dt(ix-1,iy),Dt(ix-1,iy-1),Dt(ix-1,iy-2)} (2-7)
这样按照图2-3进行搜索,经过反复递推,一直到点(X,Y),在此过程中会确立一条最佳匹配路径,而且会显示出与最佳匹配路径所对应的最佳匹配距离,然后根据最佳匹配距离找到其所对应的参考模板,此参考模板即为对测试模板的识别结果。
对于参考模板和测试模板的训练本文中采用的是简单的偶然训练法。这种方法为一种多模板训练方法。在这里将采集到的每个孤立词朗读多遍,将每一 个词的每一次读音形成一个模板,这样就可以生成多个模板。在进行声音识别时,未知声音的矢量序列要用动态时间规整算法分别求得与每个参考模板的总失真度,然后根据总失真度的大小,判定未知声音矢量属于失真度最小的那一类。
在声音识别过程中,前面的端点检测和MFCC声音特征参数提取以及参考模板和测试模板的生成等都是声音识别的准备工作,只有当这些前期工作都很好地完成的时候,声音识别才会出现比较好的结果。所以这就要求,在进行声音信号预处理时,要尽可能准确地进行端点检测和声音特征参数提取,找出有效声音信号的起点和终点,确定合适的MFCC系数;要尽可能多次训练样本,这样能使训练模板达到更好的效果,然后就能使匹配的效果更好,从而使声音识别的效果更好。
本发明还设计了图形用户控制界面,在此界面中,主要实现的功能就是通过按钮控制实现程序的运行和结束,从而节省关心和了解程序内部如何运行的时间。GUI操作界面通过按钮来实现对整个系统的控制,在此界面中,包含的主要功能按钮结构图如图3-1所示。
设计此界面的整体思路是:为每一个功能模块设置一个功能按钮,当按下功能按钮时,在程序中会运行对应模块程序,从而实现模块对应功能。通过此操作,用户不用关心内部程序如何运行就能控制系统包含的功能模块程序运行,从而完成对整个系统的控制。
在此界面中,当按下声音实时采集功能按钮时,系统运行声音实时采集程序,完成对声音控制命令信号的实时采集并通过采集声音波形显示功能按钮显示声音信号波形;同理,当分别按下声音分类和声音识别功能按钮及其结果显示按钮时,就会分别实现声音分类和识别功能,并将结果通过声音或者显示屏 显示出来。
以上系统依次运行,上述系统通过显示在计算机架构的硬件装置的显示屏或智能移动设备的控制界面进行控制,该控制界面上包含有与各程序相对应的控制键,当按下该控制键时运行相应的程序模块。
模板数据库可以为MYSQL或SQLITE。该模板数据库除了含有心音和呼吸音的相关数据,还包括相关疾病的治疗方法、注意事项和仅供参考的非处方类药品的信息,并且可以通过网络进行更新。
本领域的技术人员在本发明的基础上能够想到的变形均落入本发明的保护范围。

Claims (9)

1.一种听诊器,包括听诊头,听音管,其特征在于,听诊头连接听音管,听音管末端连接芯片电路等,所述芯片电路包括显示装置、音频采集系统、放大装置、音频信号分类系统、音频信号识别系统、模板数据库和语音播报系统。
2.根据权利要求1所述的听诊器,其特征在于,所述模板数据库内还包括诊断结果的处理方式、注意事项和仅供参考的非处方类药品信息。
3.根据权利要求1所述的听诊器,其特征在于,音频采集系统采集音频信号,经过放大装置放大,通过音频信号分类系统分类,然后由音频信号识别系统识别后,与模板数据库匹配识别,最后由语音播报系统播报比对结果和处理方法。
4.根据权利要求1所述的听诊器,其特征在于,所述显示装置为显示屏,与音频信号识别系统同步输出比对结果和处理方法。
5.根据权利要求1所述的听诊器,其特征在于,音频信号分类系统采用了KNN分类方法。
6.根据权利要求5所述的听诊器,其特征在于,所述KNN算法步骤为:
第一步:将采集到的声音信号转化为数据集,然后将其分为训练集和测试集,并根据声音信号的时域特征对训练集作预处理,构造KNN分类器;
第二步:对测试集进行预处理,并确定其向量表示;
第三步:用公式(2-1)计算训练集向量与测试集向量的欧式距离,即相似度;
s i m ( p i , p j ) = Σ k = 1 n x i k x j k ( Σ k = 1 n x i k 2 ) Σ k = 1 n x j k 2 - - - ( 2 - 1 )
式中,pi为待测样本特征向量,pj为训练样本中j类样本特征向量,xik、xjk为向量对应的第K维;
第四步:以第三步计算的相似度为标准,选出与测试数据向量最相似的K个训练数据向量,并用公式(2-2)依次计算每个训练数据向量所属类的权重;
q(pi,dx)=Σsim(pi,pj)g(pj,dx) (2-2)式中,g(pj,dx)为类别属性函数,判别标准为:若pj属于dx类,则g(pj,dx)函数值为1;若pj不属于dx类,则g(pj,dx)函数值为0。
第五步:比较第四步中计算的每一个权重值,将测试数据分到权重值最大的那个类别中;
第六步:确定分类结果并评价。
7.根据权利要求1所述的听诊器,其特征在于,音频信号识别系统采用动态时间规整(STW)算法对音频信号进行端点检测和语音特征参数提取,根据提取到的MFCC特征参数进行语音识别。
8.根据权利要求1~7任一所述的听诊器,其特征在于,所述听诊器还具有一个与电脑或者移动设备连接的插头。
9.根据权利要求8所述的听诊器,其特征在于,所述插头为3.5mm插头或者通过转接头转接的3.5mm插头。
CN201510629613.6A 2015-09-29 2015-09-29 一种听诊器 Pending CN105943077A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510629613.6A CN105943077A (zh) 2015-09-29 2015-09-29 一种听诊器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510629613.6A CN105943077A (zh) 2015-09-29 2015-09-29 一种听诊器

Publications (1)

Publication Number Publication Date
CN105943077A true CN105943077A (zh) 2016-09-21

Family

ID=56917055

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510629613.6A Pending CN105943077A (zh) 2015-09-29 2015-09-29 一种听诊器

Country Status (1)

Country Link
CN (1) CN105943077A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108784733A (zh) * 2018-06-28 2018-11-13 上海掌门科技有限公司 听诊系统及方法
CN112466328A (zh) * 2020-10-29 2021-03-09 北京百度网讯科技有限公司 呼吸音检测方法、装置和电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5213108A (en) * 1988-02-04 1993-05-25 Blood Line Technology, Inc. Visual display stethoscope
CN102697520A (zh) * 2012-05-08 2012-10-03 天津沃康科技有限公司 基于智能识别功能的电子听诊器
US20130096451A1 (en) * 2007-04-17 2013-04-18 Abhilash Patangay Heart sound tracking system and method
CN203408062U (zh) * 2013-07-02 2014-01-29 杭州电子科技大学 一种基于Android的智能心音听诊与识别系统
CN103593048A (zh) * 2013-10-28 2014-02-19 浙江大学 动物机器人系统的语音导航系统及方法
CN104490417A (zh) * 2015-01-22 2015-04-08 苏州本草芙源医疗设备有限公司 数字听诊器与心音信号的处理方法
CN204542191U (zh) * 2015-03-31 2015-08-12 山东中弘信息科技有限公司 一种基于身份识别的智能多功能听诊器
CN104887263A (zh) * 2015-05-21 2015-09-09 东南大学 一种基于心音多维特征提取的身份识别算法及其系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5213108A (en) * 1988-02-04 1993-05-25 Blood Line Technology, Inc. Visual display stethoscope
US20130096451A1 (en) * 2007-04-17 2013-04-18 Abhilash Patangay Heart sound tracking system and method
CN102697520A (zh) * 2012-05-08 2012-10-03 天津沃康科技有限公司 基于智能识别功能的电子听诊器
CN203408062U (zh) * 2013-07-02 2014-01-29 杭州电子科技大学 一种基于Android的智能心音听诊与识别系统
CN103593048A (zh) * 2013-10-28 2014-02-19 浙江大学 动物机器人系统的语音导航系统及方法
CN104490417A (zh) * 2015-01-22 2015-04-08 苏州本草芙源医疗设备有限公司 数字听诊器与心音信号的处理方法
CN204542191U (zh) * 2015-03-31 2015-08-12 山东中弘信息科技有限公司 一种基于身份识别的智能多功能听诊器
CN104887263A (zh) * 2015-05-21 2015-09-09 东南大学 一种基于心音多维特征提取的身份识别算法及其系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108784733A (zh) * 2018-06-28 2018-11-13 上海掌门科技有限公司 听诊系统及方法
CN108784733B (zh) * 2018-06-28 2022-04-12 上海掌门科技有限公司 听诊系统及方法
CN112466328A (zh) * 2020-10-29 2021-03-09 北京百度网讯科技有限公司 呼吸音检测方法、装置和电子设备
CN112466328B (zh) * 2020-10-29 2023-10-24 北京百度网讯科技有限公司 呼吸音检测方法、装置和电子设备

Similar Documents

Publication Publication Date Title
CN107492382B (zh) 基于神经网络的声纹信息提取方法及装置
CN101023469B (zh) 数字滤波方法和装置
Lu et al. I sense you by breath: Speaker recognition via breath biometrics
CN105023573B (zh) 使用听觉注意力线索的语音音节/元音/音素边界检测
CN104008752B (zh) 语音识别装置及方法、以及半导体集成电路装置
CN104616663A (zh) 一种结合hpss的mfcc-多反复模型的音乐分离方法
JP2980438B2 (ja) 人間の音声を認識するための方法及び装置
CN113053410B (zh) 声音识别方法、装置、计算机设备和存储介质
CN112786057B (zh) 一种声纹识别方法、装置、电子设备及存储介质
CN110570870A (zh) 一种文本无关的声纹识别方法、装置及设备
Niu et al. A time-frequency channel attention and vectorization network for automatic depression level prediction
JPS59121100A (ja) 連続音声認識装置
CN111868823A (zh) 一种声源分离方法、装置及设备
WO2018095167A1 (zh) 声纹识别方法和声纹识别系统
CN107564543A (zh) 一种高情感区分度的语音特征提取方法
WO2020062679A1 (zh) 一种基于深度学习的端到端说话人分割方法及系统
CN105943077A (zh) 一种听诊器
CN111554319B (zh) 一种基于低秩张量学习的多通道心肺音异常识别系统与装置
JP2015055653A (ja) 音声認識装置及び方法、並びに、電子機器
Gupta et al. Analysis of Affective Computing for Marathi Corpus using Deep Learning
Huang et al. Classification of cough sounds using spectrogram methods and a parallel-stream one-dimensional deep convolutional neural network
Noh et al. Smart home with biometric system recognition
Ansari et al. SpectNet: End-to-end audio signal classification using learnable spectrograms
CN111862991A (zh) 一种婴儿哭声的识别方法及系统
CN114863911A (zh) 基于语音信号的帕金森预测方法及设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20160921

RJ01 Rejection of invention patent application after publication