CN110570880B - 一种鼾声信号识别方法 - Google Patents

一种鼾声信号识别方法 Download PDF

Info

Publication number
CN110570880B
CN110570880B CN201910834050.2A CN201910834050A CN110570880B CN 110570880 B CN110570880 B CN 110570880B CN 201910834050 A CN201910834050 A CN 201910834050A CN 110570880 B CN110570880 B CN 110570880B
Authority
CN
China
Prior art keywords
snore
training
model
data
sound segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910834050.2A
Other languages
English (en)
Other versions
CN110570880A (zh
Inventor
刘恒瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Deep Blue Sleep Technology Co ltd
Original Assignee
Hangzhou Deep Blue Sleep Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Deep Blue Sleep Technology Co ltd filed Critical Hangzhou Deep Blue Sleep Technology Co ltd
Priority to CN201910834050.2A priority Critical patent/CN110570880B/zh
Publication of CN110570880A publication Critical patent/CN110570880A/zh
Application granted granted Critical
Publication of CN110570880B publication Critical patent/CN110570880B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4818Sleep apnoea
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/725Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition

Abstract

本发明提供一种鼾声信号识别方法。本发明方法包括:采集预设睡眠时间段的音频信息,并提取其梅尔频率倒谱系数作为训练样本;将训练样本利用k‑means聚类算法分为鼾声和非鼾声两类,然后根据聚类结果将非鼾声剔除,得到鼾声训练集;用高斯混合模型进行训练得到识别模型;利用识别模型计算训练集中每个鼾声的生成概率,将生成概率按升序排列,取其中靠前的预设百分比数据为该实验对象的鼾声生成概率门限;音频采集设备采集到有声段,然后提取该有声段的梅尔频率倒谱系数,再然后利用模型计算该有声段的生成概率,判断是否为实验对象的鼾声。本发明通过对原始鼾声信号进行预处理操作,能够有效地降低数据的处理量和增加鼾声与非鼾声信号的区分度。

Description

一种鼾声信号识别方法
技术领域
本发明涉及鼾声信号处理技术领域,尤其涉及一种鼾声信号识别方法。
背景技术
睡眠呼吸障碍是睡眠过程中出现的呼吸异常,包括睡眠呼吸暂停综合征、低通气综合征、慢性肺部及神经肌肉疾患引起的有关睡眠呼吸障碍等,其中以阻塞性睡眼呼吸暂停综合征在(OSAS)为主。
研究表明,OSAS会造成白天嗜睡,头昏,头疼,记忆力衰退,乏力,反应迟钝,睡眠行为异常等症状。长期患有OSAS可引起高血压、冠心病、心衰、中风等多种疾病。医学界对此疾病的研究十分重视,且已取得了重大成果。但是大多数仪器检测费用昂贵,不利于推广。现有的部分鼾声检测算法也存在着误差较大、处理速度较慢等缺点。
发明内容
根据上述提出的技术问题,而提供一种鼾声信号识别方法。本发明采用的技术手段如下:
一种鼾声信号识别方法,包括如下步骤:
S1,采集预设睡眠时间段的音频信息,并提取其梅尔频率倒谱系数作为训练样本;
S2,将S1收集的训练样本利用k-means聚类算法将训练数据分为鼾声和非鼾声两类,然后根据聚类结果将非鼾声剔除,得到鼾声训练集;
S3,将S2得到的鼾声训练集用高斯混合模型进行训练得到识别模型;
S4,利用S3中的识别模型计算S2得到的训练集中每个鼾声的生成概率,将生成概率按升序排列,取其中靠前的预设百分比数据为该实验对象的鼾声生成概率门限;
S5,识别过程:音频采集设备采集到有声段,然后并提取该有声段的梅尔频率倒谱系数,再然后利用S3中的模型计算该有声段的生成概率,若概率大于S4中的鼾声生成概率门限,则该有声段为该实验对象的鼾声,否则该有声段就不是该实验对象的鼾声。
进一步地,所述步骤S1中,对采集到的音频信息进行分帧加窗处理,所述提取其梅尔频率倒谱系数具体包括如下步骤:
S11、对一帧鼾声信号s(n)加窗函数并进行快速傅里叶变换将其时域信息转换到频域:
S(n)=FFT(s(n)×w(n));
S12、将经过傅里叶变换后的鼾声信号通过等Mel尺度的三角滤波器组得到每个三角滤波器的输出能量,其对数形式表示为:
Figure BDA0002191650570000021
其中,M表示等Mel尺度的三角滤波器组中的等Mel尺度的三角滤波器数量,m是一个普通变量,其取值为0~M之间的整数;
S13、对E(m)进行离散余弦变换即可得到梅尔频率倒谱系数特征:
Figure BDA0002191650570000022
进一步地,所述步骤S3中,所述高斯模型具体表示为:
Figure BDA0002191650570000023
其中:
Figure BDA0002191650570000024
K为高斯分布函数的个数,D为数据的维数,πk为每个高斯分布函数在该模型中所占的权重,μk为第k个分布函数中数据的均值矢量,Σk为第k个分布函数中数据的协方差矩阵;
鼾声信号的特征矢量序列x1,x2,x3,…xn服从高斯混合模型分布,那么该序列的联合分布概率为:
Figure BDA0002191650570000031
对P(x)取对数得:
Figure BDA0002191650570000032
直接对L(x)求导计算极值非常麻烦以及不利于计算机运算,因此将其转化为对L(x)的下界函数求导:
根据詹森不等式log E(x)≥E(logx)可得:
Figure BDA0002191650570000033
上式右边分别对πk、μk、∑k求偏导并令导函数为零可得参数重估函数:
Figure BDA0002191650570000034
Figure BDA0002191650570000035
Figure BDA0002191650570000036
其中:
Figure BDA0002191650570000037
Figure BDA0002191650570000038
γ(i,k)表示第i个数据由第k个高斯分布函数产生的概率,Nk表示训练数据集中有Nk个数据由第k个高斯分布函数产生,n表示训练数据集的总个数。
进一步地,还通过如下步骤对高斯混合模型进行训练,
S301、计算第i个数据由第k个高斯分布函数产生的概率γ(i,k):
Figure BDA0002191650570000039
S302、计算GMM参数的估计值:
Figure BDA0002191650570000041
Figure BDA0002191650570000042
Figure BDA0002191650570000043
S303、计算L(x)的值,若不收敛返回S301步骤,收敛则退出。
本发明具有以下优点:
1、通过对原始鼾声信号进行预处理操作,能够有效降低数据的处理量和增加鼾声与非鼾声信号的区分度。
2、通过改变高斯混合模型的高斯分布函数数目,很好地拟合不同的数据分布情况,为鼾声信号的识别提供了非常坚实的理论基础。
3、训练集不需要人手动筛选,而是通过程序自动进行筛选和识别,大大提高了算法的可执行性。
基于上述理由本发明可在鼾声信号处理技术领域广泛推广。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做以简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明鼾声信号识别流程图。
图2为本发明高斯混合模型数据结构图。
图3为本发明高斯混合模型(GMM)初始化流程框图。
图4为本发明GMM训练流程图。
图5为本发明具体鼾声识别流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例公开了一种鼾声信号识别方法,包括如下步骤:
S1,采集预设睡眠时间段的音频信息,并提取其梅尔频率倒谱系数作为训练样本;
S2,将S1收集的训练样本利用k-means聚类算法将训练数据分为鼾声和非鼾声两类,根据聚类结果将非鼾声剔除,得到鼾声训练集;
S3,将S2得到的鼾声训练集用高斯混合模型进行训练得到识别模型;
S4,利用S3中的识别模型计算S2得到的训练集中每个鼾声的生成概率,将生成概率按升序排列,取其中靠前的预设百分比数据为该实验对象的鼾声生成概率门限;
S5,识别过程:音频采集设备采集到有声段,然后提取该有声段的梅尔频率倒谱系数,再然后利用S3中的模型计算该有声段的生成概率,若概率大于S4中的鼾声生成概率门限,则该有声段为该实验对象的鼾声,否则该有声段就不是该实验对象的鼾声。
在大于8000Hz的采样率下,由于语音信号的短时平稳特性,所以在处理信号时帧长一般选择256个采样点甚至更短,而鼾声信号由于打鼾过程中信道基本保持不变,所以可以取更长比如512个采样点、1024个采样点、2048个采样点等等。这样一来就可以极大降低打鼾者识别时需要处理的数据量,使系统的实时性更好,特别是数据需要在网络中进行传输的时候这种优势更加明显。与语音信号一样,为了防止鼾声信号经分帧之后产生频谱泄漏,仍要对其进行加窗处理,原理和方法与语音信号相似,本实施例使用汉明窗(Hamming)。
所述步骤S1中,对采集到的音频信息进行分帧加窗处理,所述提取其梅尔频率倒谱系数具体包括如下步骤:
S11、对一帧鼾声信号s(n)加窗函数并进行快速傅里叶变换,将其时域信息转换到频域:
S(n)=FFT(s(n)×w(n)) (1)
其中,
w(n)表示窗函数
Figure BDA0002191650570000061
其中L表示窗长。
S12、将傅里叶变换后的鼾声信号通过等Mel尺度的三角滤波器组以得到每个三角滤波器的输出能量,其对数形式表示为:
Figure BDA0002191650570000062
其中,M表示等Mel尺度的三角滤波器组中的等Mel尺度的三角滤波器数量,m是一个普通变量,其取值为0~M之间的整数;
S13、对E(m)进行离散余弦变换即可得到梅尔频率倒谱系数特征:
Figure BDA0002191650570000063
通过观察大量鼾声的频谱图发现,鼾声信号的能量主要集中在2000Hz以下,因此采用较低阶的MFCC就能对鼾声信号的特性进行表征,这也是鼾声信号处理与语音信号处理的区别之一。以说话人识别为例,要想取得较好的识别率,一般取的MFCC特征阶数为16阶左右。而本实施例通过实验发现在进行打鼾者识别的时候12阶MFCC特征的效果是最好的。即,C(n)阶数为12时最优选值。
另外,如果仅用梅尔倒谱系数的情况下不能取得较好的性能,可考虑加上MFCC的一阶差分和二阶差分特征,一阶差分反映的是鼾声信号特征的帧间关系,二阶差分则反映的是一阶差分的帧间关系。如果遇到需要处理的信号帧间关联比较大的情况,此时将原始特征融入差分特征共同作为信号的总特征将会比单独使用原始特征取得更好的性能。
本实施例包含两个过程:一是GMM模型的训练,首先采集一定数量待监测对象的鼾声数据,然后提取出每个信号的MFCC特征制作成训练样本集并训练好模型;二是鼾声信号的识别,先从录制的连续音频中用端点检测的方法提取出有声段信号,然后再提取出该有声段的MFCC特征送到已训练好的GMM模型中进行识别,GMM模型输出识别结果。
具体地,设随机变量为x,则GMM模型可表示如下:
Figure BDA0002191650570000071
其中:
Figure BDA0002191650570000072
K为高斯分布函数的个数,D为数据的维数,πk为每个高斯分布函数在该模型中所占的权重,μk为第k个分布函数中数据的均值矢量,Σk为第k个分布函数中数据的协方差矩阵;
鼾声信号的特征矢量序列x1,x2,x3,…xn服从高斯混合模型分布,那么该序列的联合分布概率为:
Figure BDA0002191650570000073
对P(x)取对数得:
Figure BDA0002191650570000074
直接对L(x)求导计算极值非常麻烦以及不利于计算机运算,因此将其转化为对L(x)的下界函数求导:
根据詹森不等式log E(x)≥E(log x)可得:
Figure BDA0002191650570000075
上式右边分别对πk、μk、∑k求偏导并令导函数为零可得参数重估函数:
Figure BDA0002191650570000076
Figure BDA0002191650570000081
Figure BDA0002191650570000082
其中:
Figure BDA0002191650570000083
Figure BDA0002191650570000084
γ(i,k)表示第i个数据由第k个高斯分布函数产生的概率,Nk表示训练数据集中有Nk个数据由第k个高斯分布函数产生,n表示训练数据集的总个数。
在训练数据足够的情况下,GMM模型理论上可以随机初始化,但往往训练过程非常复杂且耗时巨大,因此为了降低模型训练的次数,模型初始化的时候应尽可能的逼近真实值。考虑到GMM模型本质就是一个对数据的聚类过程,故可以用比较简单的聚类算法对GMM模型参数做初始估计,一种很好的选择就是k-means聚类算法。k-means聚类算法的执行流程为:
(1)从数据集中随机选择k个聚类中心;
(2)依次计算每个数据到聚类中心的距离,将该数据归到距离最小的一类;
(3)重新计算聚类中心,与前一次聚类中心比较,如收敛则退出,否则回到2。
由于经过K-means聚类后的数据计算得到的模型初始参数已经比较接近模型的真实值,因此模型训练次数大大减小。初始化后高斯混合模型的数据结构如图2、图3所示:
式9、10和11得到的μk,∑kk相当于θ1,其距离真实值θr仍有较大差距,故需要通过E-M算法对GMM进行训练,通过不断最大化下界函数从而不断逼近模型参数的真实值,其执行流程如下:
S301、计算第i个数据由第k个高斯分布函数产生的概率γ(i,k):
Figure BDA0002191650570000091
S302、计算GMM参数的估计值:
Figure BDA0002191650570000092
Figure BDA0002191650570000093
Figure BDA0002191650570000094
S303、计算L(x)的值,若不收敛返回S301步骤,收敛则退出。
训练流程图如图4所示。
经过前述工作,已经得到了监测对象鼾声数据的GMM,接下来就是要利用训练好的模型从多种声音中识别出监测对象的鼾声,为进一步的分析做准备。
当输入鼾声信号时,GMM输出的数据实质是该模型产生每一帧信号的概率。通常一个鼾声信号会被分成多个帧,那么该模型产生该鼾声的概率就是多个帧概率的乘积。但是,经过端点检测出来的音频信号长短不一,而帧长是确定的,因此每段音频被分成的帧数是不一样的,如果直接以一个音频段多个帧的联合分布概率作为判决标准的话,一些比较短但不是鼾声的音频就容易被误判为鼾声,而一些是鼾声但帧数比较多的音频反而会因为多次乘以小于一的数(GMM产生一帧数据的概率)而联合分布概率变得很小,从而导致误判。解决这一问题的一种方法是设置一个产生每帧音频数据的概率门限,一旦大于该门限就判定该帧属于某一鼾声数据的一部分,一旦一段音频中含有一定数量的该类数据帧,就可判定该音频为鼾声信号;另一种方法是计算一段音频中每帧数据由GMM产生的平均概率,这样就免除了音频长短不一时导致的干扰。经过测试发现第二种判决方式的效果要优于第一种判决方式,所以本设计采用第二种方式作为音频段是否是鼾声的判决依据,其流程图如图5所示:
本方法提供的鼾声信号识别方法,通过预处理和MFCC特征提取,降低了数据的处理量和增加鼾声和非鼾声信号的区分度。与直接使用原始鼾声数据相比,如果1024个数据分为一帧,那么需要处理的数据量就减小将近100倍,无论是实时性还是处理效率都大大提高,而且对处理设备的要求也大大降低。
高斯混合模型是一个概率模型,它表征了鼾声特征矢量的分布情况,并且灵活度比较高,通过改变其高斯分布函数数目就能很好地拟合不同的数据分布情况,为鼾声信号的识别提供了非常坚实的理论基础。
通过仿真试验,探究了MFCC特征阶数、鼾声信号分帧长度、高斯混合模型的高斯分布函数个数共三个条件对鼾声信号识别率的影响。经过大量数据的测试和对结果的分析得到了在指定测试集下进行打鼾者识别时鼾声信号处理的最佳条件:MFCC阶数为12,鼾声信号的分帧长度为1024个采样点(采样频率8000Hz),高斯混合模型的高斯分布函数个数为3时已经能够得到较高的识别率(>0.95)。另外,本算法的训练集不需要人手动筛选,而是通过程序自动进行筛选和识别,大大提高了算法的可执行性。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (1)

1.一种鼾声信号识别方法,其特征在于,包括如下步骤:
S1,采集预设睡眠时间段的音频信息,并提取其梅尔频率倒谱系数作为训练样本;
S2,将S1收集的训练样本利用k-means聚类算法将训练数据分为鼾声和非鼾声两类,根据聚类结果将非鼾声剔除,得到鼾声训练集;
S3,将S2得到的鼾声训练集用高斯混合模型进行训练得到识别模型;
S4,利用S3中的识别模型计算S2得到的训练集中每个鼾声的生成概率,将生成概率按升序排列,取其中靠前的预设百分比数据为该实验对象的鼾声生成概率门限;
S5,识别过程:音频采集设备采集到有声段,然后提取该有声段的梅尔频率倒谱系数,再然后利用S3中的模型计算该有声段的生成概率,若概率大于S4中的鼾声生成概率门限,则该有声段为该实验对象的鼾声,否则该有声段就不是该实验对象的鼾声;
所述步骤S1中,对采集到的音频信息进行分帧加窗处理,所述提取其梅尔频率倒谱系数具体包括如下步骤:
S11、对一帧鼾声信号s(n)加窗函数并进行快速傅里叶变换将其时域信息转换到频域:
S(n)=FFT(s(n)×w(n));
S12、将经过傅里叶变换后的鼾声信号通过等Mel尺度的三角滤波器组,以得到每个三角滤波器的输出能量,其对数形式表示为:
Figure FDA0003336720650000011
其中,M表示等Mel尺度的三角滤波器组中的等Mel尺度的三角滤波器数量,m是一个普通变量,其取值为0~M之间的整数;
S13、对E(m)进行离散余弦变换即可得到梅尔频率倒谱系数特征:
Figure FDA0003336720650000012
所述步骤S3中,所述高斯混合模型具体表示为:
Figure FDA0003336720650000021
其中:
Figure FDA0003336720650000022
K为高斯分布函数的个数,D为数据的维数,πk为每个高斯分布函数在该模型中所占的权重,μk为第k个分布函数中数据的均值矢量,∑k为第k个分布函数中数据的协方差矩阵;
鼾声信号的特征矢量序列x1,x2,x3,…xn服从高斯混合模型分布,那么该序列的联合分布概率为:
Figure FDA0003336720650000023
对P(x)取对数得:
Figure FDA0003336720650000024
直接对L(x)求导计算极值非常复杂且不利于计算机运算,因此将其转化为对L(x)下界函数求导:
根据詹森不等式logE(x)≥E(logx)可得:
Figure FDA0003336720650000025
上式右边分别对πk、μk、∑k求偏导并令导函数为零可得参数重估函数:
Figure FDA0003336720650000026
Figure FDA0003336720650000027
Figure FDA0003336720650000028
其中:
Figure FDA0003336720650000029
Figure FDA0003336720650000031
γ(i,k)表示第i个数据由第k个高斯分布函数产生的概率,Nk表示训练数据集中有Nk个数据由第k个高斯分布函数产生,n表示训练数据集的总个数;
还通过如下步骤对高斯混合模型进行训练,
S301、计算第i个数据由第k个高斯分布函数产生的概率γ(i,k):
Figure FDA0003336720650000032
S302、计算GMM参数的估计值:
Figure FDA0003336720650000033
Figure FDA0003336720650000034
Figure FDA0003336720650000035
S303、计算L(x)的值,若不收敛返回S301步骤,收敛则退出;
其中,MFCC阶数为12。
CN201910834050.2A 2019-09-04 2019-09-04 一种鼾声信号识别方法 Active CN110570880B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910834050.2A CN110570880B (zh) 2019-09-04 2019-09-04 一种鼾声信号识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910834050.2A CN110570880B (zh) 2019-09-04 2019-09-04 一种鼾声信号识别方法

Publications (2)

Publication Number Publication Date
CN110570880A CN110570880A (zh) 2019-12-13
CN110570880B true CN110570880B (zh) 2022-02-18

Family

ID=68777674

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910834050.2A Active CN110570880B (zh) 2019-09-04 2019-09-04 一种鼾声信号识别方法

Country Status (1)

Country Link
CN (1) CN110570880B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111685774B (zh) * 2020-05-28 2023-08-25 西安理工大学 基于概率集成回归模型的osahs诊断方法
CN111938650A (zh) * 2020-07-03 2020-11-17 上海诺斯清生物科技有限公司 监测睡眠时呼吸暂停的方法及装置
CN111920390A (zh) * 2020-09-15 2020-11-13 成都启英泰伦科技有限公司 一种基于嵌入式终端的鼾声检测方法
CN113012719B (zh) * 2021-02-04 2023-11-17 上海小芃科技有限公司 睡眠声音信号疲劳评估方法、系统、电子设备及存储介质
CN113421586B (zh) * 2021-06-18 2024-05-07 南京优博一创智能科技有限公司 梦呓识别方法、装置和电子设备
CN113599052A (zh) * 2021-07-15 2021-11-05 麒盛科技股份有限公司 一种基于深度学习算法的鼾声监测方法与系统以及相应的电动床控制方法和系统
CN114186581A (zh) * 2021-11-15 2022-03-15 国网天津市电力公司 基于mfcc和扩散化高斯混合模型的电缆隐患识别方法及装置
CN114027801B (zh) * 2021-12-17 2022-09-09 广东工业大学 一种睡眠鼾声识别与打鼾抑制方法及系统
CN114176525B (zh) * 2021-12-28 2023-11-24 深圳市伟晴大健康科技有限公司 睡眠质量分析方法、装置、计算机设备和存储介质
CN116386872B (zh) * 2023-04-11 2024-01-26 复旦大学附属眼耳鼻喉科医院 训练方法、识别睡眠质量的方法、装置、介质及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102499637A (zh) * 2011-09-26 2012-06-20 大连理工大学 阻塞性睡眠呼吸暂停低通气综合症筛查方法及其装置
CN109717835A (zh) * 2018-12-21 2019-05-07 南京理工大学 一种基于麦克风阵列的鼾声体位检测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9844336B2 (en) * 2010-08-26 2017-12-19 Ben Gurion University Of The Negev Research And Development Authority Apparatus and method for diagnosing obstructive sleep apnea
CN102138795A (zh) * 2011-02-21 2011-08-03 上海大学 根据鼾声声学特征确定阻塞性睡眠呼吸暂停与低通气综合症严重程度的方法
CN103251388B (zh) * 2013-04-25 2014-12-10 北京大学深圳研究生院 基于智能手机平台的打鼾监测方法和监测及防治系统
CN105962897B (zh) * 2016-04-27 2018-10-02 南京理工大学 一种自适应的鼾声信号检测方法
CN106264839A (zh) * 2016-08-05 2017-01-04 南通海联助眠科技产品有限公司 智能止鼾枕
CN109497956B (zh) * 2019-01-03 2022-03-08 龙马智芯(珠海横琴)科技有限公司 止鼾系统及其控制方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102499637A (zh) * 2011-09-26 2012-06-20 大连理工大学 阻塞性睡眠呼吸暂停低通气综合症筛查方法及其装置
CN109717835A (zh) * 2018-12-21 2019-05-07 南京理工大学 一种基于麦克风阵列的鼾声体位检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Snore Sounds Excitation Localization by Using Scattering Transform and Deep Neural Networks;Fabio Vesperini et al;《2018 International Joint Conference on Neural Networks (IJCNN)》;20181231;全文 *
基于听觉子带关联维数的SAHS鼾声筛查;侯丽敏等;《应用科学学报》;20170330(第02期);全文 *

Also Published As

Publication number Publication date
CN110570880A (zh) 2019-12-13

Similar Documents

Publication Publication Date Title
CN110570880B (zh) 一种鼾声信号识别方法
CN108896878B (zh) 一种基于超声波的局部放电检测方法
CN107910020B (zh) 鼾声检测方法、装置、设备及存储介质
US20070005357A1 (en) Telephone pathology assessment
CN110970042B (zh) 一种电子听诊器的肺部啰音人工智能实时分类方法、系统、装置及可读存储介质
Kapoor et al. Parkinson’s disease diagnosis using Mel-frequency cepstral coefficients and vector quantization
CN110942784A (zh) 基于支持向量机的鼾声分类系统
US20200365271A1 (en) Method for predicting sleep apnea from neural networks
CN111291614A (zh) 基于迁移学习多模型决策融合的儿童癫痫综合症分类方法
WO2017045429A1 (zh) 一种音频数据的检测方法、系统及存储介质
US20210338154A1 (en) A method and apparatus for diagnosis of maladies from patient sounds
CN112820319A (zh) 一种人类鼾声识别方法及其装置
CN111613210A (zh) 一种各类呼吸暂停综合征的分类检测系统
CN116778956A (zh) 一种变压器声学特征提取及故障识别方法
CN111508504A (zh) 基于听觉中枢感知机理的说话人识别方法
Rizal et al. Lung sounds classification using spectrogram's first order statistics features
Porieva et al. Investigation of lung sounds features for detection of bronchitis and COPD using machine learning methods
Sengupta et al. Optimization of cepstral features for robust lung sound classification
CN115762578A (zh) 基于分数域傅里叶变换的可解释心音异常识别方法及系统
JP2020513908A (ja) 睡眠呼吸障害を特徴付ける方法
Lili et al. Research on Recognition of CHD Heart Sound Using MFCC and LPCC
Zabidi et al. Investigation of mel frequency cepstrum coefficients parameters for classification of infant cries with hypothyroidism using MLP classifier
Bonifaco et al. Comparative analysis of filipino-based rhinolalia aperta speech using mel frequency cepstral analysis and Perceptual Linear Prediction
CN111816208A (zh) 一种语音分离质量评估方法、装置及计算机存储介质
CN115206291B (zh) 基于睡眠鼾声特征的osahs检测系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant