CN107174209B - 基于非线性动力学的睡眠阶段分期方法 - Google Patents
基于非线性动力学的睡眠阶段分期方法 Download PDFInfo
- Publication number
- CN107174209B CN107174209B CN201710409161.XA CN201710409161A CN107174209B CN 107174209 B CN107174209 B CN 107174209B CN 201710409161 A CN201710409161 A CN 201710409161A CN 107174209 B CN107174209 B CN 107174209B
- Authority
- CN
- China
- Prior art keywords
- sleep
- sleep stage
- stage
- audio
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4806—Sleep evaluation
- A61B5/4812—Detecting sleep stages or cycles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Psychiatry (AREA)
- Physiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于非线性动力学的睡眠阶段分期方法,首先监测不同个体的睡眠音频,截取整夜采集到的睡眠音频信号,并对采集到的睡眠音频信号进行降噪和声音事件检测,之后通过非线性动力学分析方法来进行特征提取,接着利用机器学习方法来确定睡眠阶段与特征参数之间的映射模型;最后根据映射模型,对音频设备录取的音频信号进行睡眠阶段分期。本发明方法有效可行,性能可靠,可以准确地对睡眠阶段进行分期。
Description
技术领域
本发明属于音频领域,特别是一种基于非线性动力学的睡眠阶段分期方法。
背景技术
睡眠是人体恢复精力的最好休息方式,良好的睡眠有利于提高人的生活质量、工作效率和生活幸福感。目前国际上采用的睡眠监测多为多导睡眠图监测(PSG),它记录并分析多种睡眠呼吸参数,能够准确地判断睡眠结构和睡眠分期。但是PSG也有很多不足之处,其中它操作复杂,需要专业人员进行电极粘贴,只能在实验室或者医院使用。而且所接电极繁多,粘贴在身体各个部位,并不适用于皮肤敏感者,这也影响了被监测者的自然睡眠,对测试实验产生干扰。此外,PSG检测费用高,不能作为日常监护。
现有的临床睡眠分析方法主要是穿戴式的,北京怡和嘉业医疗科技有限公司的专利《电磁式胸腹带及多导睡眠监测仪》中,提供了一种电磁式胸腹带,包括胸带和腹带,其中胸带和腹带上均固定有磁性件和感应设备,通过监测胸呼吸和腹呼吸的参数来实现睡眠监测。中国人民解放军第二军医大学的专利《一种睡眠监测系统》中,提出了一种包含了脑电波收集帽及手套的睡眠监测系统,它通过监测睡眠脑电波、指氧饱和度、肌电及体动这四项指标来对睡眠进行检测。这两篇专利中的电磁式胸腹带或脑电波收集帽及手套都需固定在被监测者的身体上,增加了被监测者在睡眠监测时的异物感,产生了心理和生理负荷,从而影响了测试结果。
发明内容
本发明的目的在于提供一种基于非线性动力学的睡眠阶段分期方法。
实现该目的的技术解决方案为:一种基于非线性动力学的睡眠阶段分期方法,包括以下步骤:
步骤1:用音频设备采集监护者整夜的睡眠音频信号,同时用标准PSG仪对实验者进行睡眠监测,得到睡眠阶段标签;
步骤2:将步骤1采集到的音频信号与标准PSG仪采集到的睡眠阶段标签按照对应法则一一对应;
步骤3:对步骤1采集到的音频信号进行预处理,具体为:对录取的音频信号进行降噪处理,得到降噪处理后的睡眠音频,对降噪后的睡眠音频信号进行声音事件检测,得到声音事件,其中所述声音事件具体为人体一呼一吸产生的音频;
步骤5:将提取得到的特征参数与对应的标签输入到机器学习中,通过机器学习方法来确定睡眠阶段与特征参数之间的映射模型;
步骤6:根据步骤5得到的映射模型,对音频设备录取的音频信号进行睡眠阶段分期。
本发明与现有技术相比,其显著优点在于:1)本发明利用音频设备实现睡眠的非接触式监测,与传统的接触式监测相比,设备简单易操作,能减少人体的不适感,并且可以克服很多的局限性。2)本发明选择了合适的特征参数来表征多种睡眠阶段,通过机器学习方法训练出可以区分不同睡眠阶段的模型。因此,能够通过睡眠音频的特征参数判决它的睡眠阶段。3)本发明的方法简单有效,设备简单易实现,低成本,易操作,性能可靠。
下面结合说明书附图对本发明做进一步描述。
附图说明
图1为本发明实现睡眠阶段判决的步骤框图。
图2为本发明机器学习结构图。
图3为原始睡眠音频波形图。
图4为降噪后的睡眠音频波形图。
图5为声音事件检测后的睡眠音频波形图。
图6为机器学习分类的混淆矩阵图。
具体实施方式
结合附图,本发明的一种基于非线性动力学的睡眠阶段分期方法,包括以下步骤:
步骤1:用音频设备采集监护者整夜的睡眠音频信号,同时用标准PSG仪对实验者进行睡眠监测,得到睡眠阶段标签;
步骤2:将步骤1采集到的音频信号与标准PSG仪采集到的睡眠阶段标签按照对应法则一一对应;
所述对应法则为:音频标签A为清醒期即入睡前的准备阶段,对应PSG结果的入睡期N1,音频标签B为NREM期即包括轻度睡眠、中度睡眠、深度睡眠的阶段,对应PSG结果的浅睡期N2和深睡期N3,标签C为REM期即快速眼球运动阶段,对应PSG结果的快速眼球运动REM。
步骤3:对步骤1采集到的音频信号进行预处理,具体为:对录取的音频信号进行降噪处理,得到降噪处理后的睡眠音频,对降噪后的睡眠音频信号进行声音事件检测,得到声音事件,其中所述声音事件具体为人体一呼一吸产生的音频;其步骤为:
步骤3-1:对音频信号se(n)进行加窗分帧处理,计算每帧音频信号sei(m)的能量AMPi和短时谱熵H(i),能熵比EEFi表示为
其中sei(m)的下标i表示为第i帧;
步骤3-2:根据能熵比使用双门限检测法进行语音端点检测,检测出有效的声音事件;其中双门限检测法中的阈值T2=a1×Det+eth,T1=a2×Det+eth,Det为能熵比EEFi的最大值,eth为睡眠音频信号前置无话段的能熵比均值,a1、a2为Det的权重。
步骤4-2-1:由相空间重构理论,根据步骤4-1得到的时间延迟τ,将一维声音事件时间序列x(n)嵌入到m维空间Y中;
步骤4-2-2:改变维数m=m+1,计算虚假邻近点的个数;
步骤4-2-3:当虚假近邻点个数占全部m维空间中相矢量的比例小于自定义阈值b时,此时的维数m为声音事件时间序列x(n)的最佳嵌入维数;否则返回步骤4-2-2。
步骤4-3-1:将声音事件的一维时间序列x(n)=(x1,x2,x3,…,xi,…,xk)按顺序组成v维矢量Vi=[x(i),x(i+1),...,x(i+v-1)],i=1,2,...,k,
其中k为声音事件时间序列x(n)的长度;
步骤4-3-2:对每一个i值计算相矢量Vi和其余矢量Vj的距离
dij=max|x(i+l)-x(j+l)|,l=0,1,...,v-1;
步骤4-3-3:给定阈值r=a3×SD,其中a3的取值范围为0.1~0.25,SD为声音事件时间序列x(n)的标准差;记录每个dij小于阈值r对应的i的个数,并求出与总的v维相矢量个数(k-v+1)的比值,记为将取对数,并求其平均值,记为φv(r):
步骤4-3-4:确定声音事件时间序列x(n)的近似熵为Apen=φv(r)-φv+1(r);
步骤4-4:求取高维个数n,具体为:记录步骤4-2中每帧内嵌入维数m≥4的声音事件时间序列x(n)的个数;
步骤4-5-1:根据步骤4-1求得的时间延迟τ和步骤4-2求得的嵌入维数m重构相空间W,对每个点Wj寻找其最近邻点W′j,计算Wj到W′j的距离dj(0)=|Wj-W′j|;
步骤4-5-2:对每个点Wj,计算其与最近邻点W′j在第i步前向演化后的距离dj(i)=|Wj+i-W′j+i|=dj(0)×eλ×i;
步骤4-5-3:由下式算得最大李雅普诺夫指数,
其中p为非零的dj(i)的个数;
步骤5:将提取得到的特征参数与对应的标签输入到机器学习中,通过机器学习方法来确定睡眠阶段与特征参数之间的映射模型;具体为:
步骤5-1:将睡眠音频信号的非线性特征数据随机分成两个互斥集,其中一个为训练集S,另一个为交叉检验集CV,并将这些数据的睡眠阶段进行标记,即标记为A、B或C,A为清醒期,B为NREM期,C为REM期;
步骤5-2:将训练集S={(F1,L1),(F2,L2),...(Fi,Li),...,(Fw,Lw)}的特征矩阵输入机器学习方法中,其中Fi=(Fi1,Fi2,Fi3,Fi4,Fi5)分别为步骤4中提取的5个非线性动力学特征n和Li为步骤2中与PSG结果对应的标签,即标签A、B或C,标签A为清醒期即入睡前的准备阶段,标签B为NREM期即包括轻度睡眠、中度睡眠、深度睡眠的阶段,标签C为REM期即快速眼球运动阶段;
步骤5-3:随机从训练集取一个样本放入采样集中,再把该样本放回初始训练集中,使得下次采样时该样本仍有可能被选中,经过w次随机采样操作后得到w个样本的采样集,重复T次,得到T组含w个训练样本的采样集;
步骤5-4:基于每个采样集的特征矩阵去训练出一个睡眠阶段分期基学习器,得到T个睡眠阶段分期基学习器,映射模型M1由这T个睡眠阶段分期基学习器组成,具体采用投票法进行输出;
所训练的睡眠阶段分期基学习器为决策树,具体为:
步骤5-4-1:遍历各个特征,计算其的基尼值,其公式为:
ΔGini(AC)=Gini(a)-GiniAC(a)
第一个公式中,数据集a为步骤5-3中w个训练样本的采样集,Gini(a)表示的是数据集a的基尼指数,ri表示第i类样本在数据集a中的比例,PC为睡眠阶段的标签数;第二个公式中,AC为步骤4中得到的特征n和GiniAC(a)为按特征AC划分后的基尼指数,k表示数据集a在特征AC下划分成k个部分,aj表示划分后的第j个数据集;第三个公式中ΔGini(AC)表示的是按特征AC划分前后的基尼指数增益值;这样选取基尼指数增益值最大的特征作为节点的分裂条件,生成新的节点;
步骤5-4-2:以步骤5-4-1生成的节点作为根节点,重复5-4-1的过程,选取新的材料特征作为分裂条件,数据a全部被划分完。
或者,所训练的睡眠阶段分期基学习器为多类别分类的SVM,具体为:
步骤5-4-A:若含w个样本的采样集中都包含了3个睡眠阶段类别的数据,对3个睡眠阶段类别,做Q次划分,这里Q的取值必须大于3,每次随机划分将一部分类别划分成正类,记为(+1),另一部分类别划分为反类,记为(-1),这里每一组对应的正类和负类即为一个训练集;共产生Q个训练集;
步骤5-4-B:将5-4-A生成的Q个训练集分别训练SVM,得到Q个SVM学习器,这样每一类的数据输入这Q个SVM学习器中得到相应的编码,组成3*Q的编码矩阵;
步骤5-4-C:利用Q个分类器分别对测试样本进行预测,预测标记组成一个编码,将这个编码与每个类别各自的编码进行比较,返回其中距离最小的类别作为最终预测的结果,这Q个SVM分类器组成了多类别分类的SVM学习器。
步骤5-5:使用交叉检验集CV对睡眠阶段与特征参数之间的映射模型M1进行进一步调参优化,得到映射模型M。具体为:
步骤5-5-1、确定睡眠阶段分期基学习器的参数,当睡眠阶段分期基学习器为决策树时,参数包括决策数的分裂时参与判断的最大特征数max_feature、最大深度max_depth、分裂所需的最小样本数min_samples_split;当睡眠阶段分期基学习器为多类别分类的SVM时,参数为SVM的惩罚参数c、核函数参数gamma;
步骤5-5-2、对每个参数进行一次直线搜索,具体为,利用CV集对基学习器进行训练,计算模型性能与参数之间的梯度;
步骤5-5-3、根据模型性能与各个参数之间的梯度,选取梯度值最大的参数作为当前调优参数,利用梯度下降法对当前调优参数进行调优;
步骤5-5-4、重复步骤5-5-2,5-5-3,直到所有参数的梯度小于阈值threshold,这里的threshold为一个接近0的正数;
步骤5-5-5、调整睡眠阶段分期基学习器个数T,具体为:计算模型性能与T之间的梯度,利用梯度下降法对基学习器个数T进行调优,得到最终的睡眠阶段分期基学习器个数。
步骤6:根据步骤5得到的映射模型,对音频设备录取的音频信号进行睡眠阶段分期。
本发明的方法简单有效,设备简单易实现,低成本,易操作,性能可靠。
下面结合实施例,进一步阐述本发明。
实施例1
一种基于非线性动力学的睡眠阶段分期方法,包括以下步骤:
步骤1:用音频设备采集监护者整夜的睡眠音频信号,同时用标准PSG仪对实验者进行睡眠监测,得到睡眠阶段标签;
步骤2:将步骤1采集到的音频信号与标准PSG仪的睡眠阶段标签按照对应法则一一对应;
步骤3:对步骤1采集到的音频信号进行预处理,具体为:对录取的音频信号进行降噪处理,得到降噪处理后的睡眠音频,截取监护者从清醒到深度睡眠的一个周期的降噪后的音频信号,通过能熵比法对语音端点进行检测,从睡眠音频信号中检测出有效的声音事件,其步骤为:
步骤3-1:对睡眠音频信号x(n)进行加窗分帧处理,计算每帧音频信号xi(m)的能量AMPi和短时谱熵H(i),能熵比EEFi表示为
其中xi(m)的下标i表示为第i帧;
步骤3-2:根据能熵比使用双门限检测法进行语音端点检测,检测出有效的声音事件;其中双门限检测法中的阈值T2=a1×Det+eth,T1=a2×Det+eth,Det为能熵比EEFi的最大值,eth为睡眠音频信号前置无话段的能熵比均值,根据实际情况,将a1取值为0.04,a2取值为0.015。
步骤4:检测到声音事件后,对音频进行分帧,帧长为30S;
步骤5-2-1:由相空间重构理论,根据步骤5-1得到的时间延迟τ,将一维音频时间序列x(n)嵌入到m维空间Y中;
步骤5-2-2:改变维数m=m+1,计算虚假邻近点的个数;
步骤5-2-3:当虚假近邻点个数占全部m维空间中相矢量的比例小于自定义阈值b时,此时的维数m为声音事件的一维时间序列x的最佳嵌入维数;否则返回步骤5-2-2;
步骤5-3-1:将声音事件的一维时间序列x(n)=(x1,x2,x3,...,xi,...,xk)按顺序组成v维矢量Vi=[x(i),x(i+1),...,x(i+v-1)],i=1,2,...,k,
其中k为音频时间序列x(n)的长度,v=2;
步骤5-3-2:对每一个i值计算相矢量Vi和其余矢量Vj的距离dij=max|x(i+l)-x(j+l)|,l=0,1,...,v-1;
步骤5-3-3:给定阈值r=a3×SD,其中a3=0.25,SD为音频序列x的标准差。记录每个dij小于阈值r对应的i的个数,并求出与总的v维相矢量个数(k-v+1)的比值,记为将取对数,并求其平均值,记为φv(r):
步骤5-3-4:确定声音事件x(n)的近似熵为Apen=φv(r)-φv+1(r);
步骤5-4:求取高维个数n,具体为:记录步骤5-2中每帧内嵌入维数m≥4的声音事件个数;
步骤5-5-1:根据步骤5-1求得的时间延迟τ和步骤5-2求得的嵌入维数m重构相空间W,对每个点Wj寻找其最近邻点W′j,计算Wj到W′j的距离dj(0)=|Wj-W′j|;
步骤5-5-2:对每个点Wj,计算其与最近邻点W′j在第i步前向演化后的距离dj(i)=|Wj+i-W′j+i|=dj(0)×eλ×i;
步骤5-5-3:由下式算得最大李雅普诺夫指数,
其中p为非零的dj(i)的个数。
步骤6:将提取得到的特征参数与对应的标签输入到机器学习中,通过机器学习方法来确定睡眠阶段与特征参数之间的映射模型,具体为:
步骤6-1:将睡眠音频信号的非线性特征数据随机分成两个互斥集,其中一个为训练集S,另一个为交叉检验集CV,并将这些数据的睡眠阶段进行标记,即标记为A、B或C,A为清醒期,B为NREM期,C为REM期;
步骤6-2:将训练集S={(F1,L1),(F2,L2),...(Fi,Li),...,(Fw,Lw)}的特征矩阵输入机器学习方法中,其中Fi=(Fi1,Fi2,Fi3,Fi4,Fi5)分别为步骤5中提取的5个非线性动力学特征n和Li为步骤2中与PSG结果对应的标签,即标签A、B或C,标签A为清醒期即入睡前的准备阶段,标签B为NREM期即包括轻度睡眠、中度睡眠、深度睡眠的阶段,标签C为REM期即快速眼球运动阶段;
步骤6-3:随机从训练集取一个样本放入采样集中,再把该样本放回初始训练集中,使得下次采样时该样本仍有可能被选中,经过w次随机采样操作后得到w个样本的采样集,重复T次,得到T组含w个训练样本的采样集;
步骤6-4:基于每个采样集的特征矩阵去训练出一个睡眠阶段分期基学习器,得到T个睡眠阶段分期基学习器,映射模型M1由这T个睡眠阶段分期基学习器组成,它采用投票法进行输出;这里的基学习器可以是决策树,具体为:
步骤6-4-1:遍历各个特征,计算其的基尼值,其公式为:
ΔGini(A)=Gini(a)-GiniA(a)
第一个公式中,数据集a为步骤6-3中w个训练样本的采样集,Gini(a)表示的是数据集a的基尼指数,ri表示第i类样本在数据集a中的比例;第二个公式中,A是步骤5中得到的特征n和GiniA(a)表示的是按特征A划分后的基尼指数,k表示数据集a在特征A下划分成k个部分,aj表示划分后的第j个数据集;第三个公式中ΔGini(A)表示的是按特征A划分前后的基尼指数增益值;这样选取基尼指数增益值最大的特征作为节点的分裂条件,生成新的节点;
步骤6-4-2、以步骤6-4-1生成的节点作为根节点,重复6-4-1的过程,选取新的姿态特征作为分裂条件,直至数据集a全部被划分完;
这里的基学习器也可以是多类别分类的SVM,具体构建方法为:
步骤6-4-A:若含w个样本的采样集中都包含了3个睡眠阶段类别的数据,对3个睡眠阶段类别,做Q次划分,这里Q的取值必须大于3,每次随机划分将一部分类别划分成正类,记为(+1),另一部分类别划分为反类,记为(-1),这里每一组对应的正类和负类即为一个训练集;共产生Q个训练集;
步骤6-4-B:将6-4-A生成的Q个训练集分别训练SVM,得到Q个SVM学习器,这样每一类的数据输入这Q个SVM学习器中得到相应的编码,组成3*Q的编码矩阵;
步骤6-4-C:利用Q个分类器分别对测试样本进行预测,预测标记组成一个编码,将这个编码与每个类别各自的编码进行比较,返回其中距离最小的类别作为最终预测的结果,这Q个SVM分类器组成了多类别分类的SVM学习器;
步骤6-5:使用交叉检验集CV对睡眠阶段与特征参数之间的映射模型M1进行进一步调参优化,得到映射模型M,具体为;
步骤6-5-1、根据具体情况,确定睡眠阶段分期基学习器的参数,当睡眠阶段分期基学习器为决策树时,参数包括决策数的分裂时参与判断的最大特征数max_feature、最大深度max_depth、分裂所需的最小样本数min_samples_split;当睡眠阶段分期基学习器为多类别分类的SVM时,参数为SVM的惩罚参数c、核函数参数gamma。
步骤6-5-2、对每个参数进行一次直线搜索,具体为,利用CV集对基学习器进行训练,计算模型性能与参数之间的梯度;
步骤6-5-3、根据模型性能与各个参数之间的梯度,选取梯度值最大的参数作为当前调优参数,利用梯度下降法对当前调优参数进行调优;
步骤6-5-4、重复步骤6-5-2,6-5-3,直到所有参数的梯度小于阈值threshold,阈值threshold取值为0.001;
步骤6-5-5、调整睡眠阶段分期基学习器个数T,具体为:计算模型性能与T之间的梯度,利用梯度下降法对基学习器个数T进行调优,得到最终的睡眠阶段分期基学习器个数。
步骤7:根据机器学习确定的睡眠阶段与特征参数之间的映射模型M,对音频设备获取的睡眠音频信号进行睡眠阶段的分期。
实施例2
结合图1,基于非线性动力学的睡眠阶段分期的步骤如下:
步骤1:用音频设备采集监护者两整夜共841分钟的睡眠音频信号,同时记录PSG仪所记录的睡眠阶段。将录取的音频信号进行降噪处理,提取较为纯净的音频信号。其中图3为整夜睡眠音频信号中的164S的音频波形图,图4为将这164S睡眠音频信号进行降噪处理后的音频波形图;
步骤2:将音频与PSG的睡眠阶段标签按照对应法则一一对应;
步骤3:截取监护者从清醒到深度睡眠的一个周期的降噪后的音频信号,进行声音事件检测,周期为90min;
步骤4:检测到声音事件后,对音频进行分帧,帧长为30S,图5为将步骤1中降噪后的睡眠音频信号进行声音事件检测后的音频波形图;
步骤6:将提取得到的特征参数与对应的标签输入到机器学习中,通过机器学习方法来确定睡眠阶段与特征参数之间的映射模型M1:
将五整夜2101分钟,每分钟2帧的睡眠音频信号通过步骤4进行特征提取后,组成4202个{(Fi1,Fi2,Fi3,Fi4,Fi5),Li}的特征矩阵,Li为以PSG结果作对比得到的标签。其中将2520个特征矩阵作为训练集S,1682个特征矩阵作为交叉检验集CV。将训练集S的特征矩阵输入机器学习算法中,从特征矩阵中随机取一个样本放入采样矩阵中,经过2520次随机采样操作得到含2520个样本的采样矩阵,重复20次,得20个含2520个样本的采样矩阵,然后基于每个采样矩阵去训练出一个睡眠阶段分期基学习器,这里基学习器使用的是决策树,得到20个睡眠阶段分期基学习器,利用投票法将20个基学习器所得到的结果进行结合,当预测出睡眠阶段收到同样的票数时,随机选择一个睡眠阶段,最后得到睡眠阶段与特征参数之间的映射模型M1;
步骤7、将交叉检验集CV中的1682个特征矩阵输入姿态识别映射模型M1中通过其他基学习器参数修改T的值和进一步优化姿态识别映射模型的识别精度,得到姿态识别映射模型M,其中最大特征数max_feature为12,最大深度max_depth为None,分裂所需的最小样本数min_samples_split为2。
步骤8:根据步骤7得到的映射模型M,对音频设备录取的音频信号进行睡眠阶段分期。
其中图3为机器学习分类的混淆矩阵。根据所训练的睡眠阶段与特征参数之间的映射模型,分类准确度能达到86.3%。
由此可知,基于非线性动力学的睡眠阶段分期有很高的可实施性。
Claims (6)
1.一种基于非线性动力学的睡眠阶段分期方法,其特征在于,包括以下步骤:
步骤1:用音频设备采集监护者整夜的睡眠音频信号,同时用标准PSG仪对监护者进行睡眠监测,得到睡眠阶段标签;
步骤2:将步骤1采集到的音频信号与标准PSG仪采集到的睡眠阶段标签按照对应法则一一对应;所述对应法则为:音频标签A为清醒期即入睡前的准备阶段,对应PSG结果的入睡期N1,音频标签B为NREM期即包括轻度睡眠、中度睡眠、深度睡眠的阶段,对应PSG结果的浅睡期N2和深睡期N3,音频标签C为REM期即快速眼球运动阶段,对应PSG结果的快速眼球运动REM;
步骤3:对步骤1采集到的音频信号进行预处理,具体为:对录取的音频信号进行降噪处理,得到降噪处理后的睡眠音频,对降噪后的睡眠音频信号进行声音事件检测,得到声音事件,其中所述声音事件具体为人体一呼一吸产生的音频;具体为:截取监护者从清醒到深度睡眠的一个周期的降噪后的睡眠音频信号,通过能熵比法对语音端点进行检测,从睡眠音频信号中检测出有效的声音事件,其步骤为:
步骤3-1:对睡眠音频信号se(n)进行加窗分帧处理,计算每帧睡眠音频信号sei(m)的能量AMPi和短时谱熵H(i),能熵比EEFi表示为
其中sei(m)的下标i表示为第i帧;
步骤3-2:根据能熵比使用双门限检测法进行语音端点检测,检测出有效的声音事件;其中双门限检测法中的阈值T2=a1×Det+eth,T1=a2×Det+eth,Det为能熵比EEFi的最大值,eth为睡眠音频信号前置无话段的能熵比均值,a1、a2为Det的权重;
步骤5:将提取得到的特征参数与对应的标签输入到机器学习中,通过机器学习方法来确定睡眠阶段与特征参数之间的映射模型;
步骤6:根据步骤5得到的映射模型,对音频设备录取的音频信号进行睡眠阶段分期。
2.根据权利要求1所述的基于非线性动力学的睡眠阶段分期方法,其特征在于,步骤4采用非线性动力学分析方法对检测到的声音事件进行特征提取,具体为:
步骤4-2-2:改变维数m=m+1,计算虚假邻近点的个数;
步骤4-2-3:当虚假近邻点个数占全部m维空间中相矢量的比例小于自定义阈值b时,此时的维数m为声音事件时间序列x(n)的最佳嵌入维数;否则返回步骤4-2-2;
步骤4-3-1:将声音事件的一维时间序列x(n)=(x1,x2,x3,...,xi,...,xk)按顺序组成v维相矢量Vi=[x(i),x(i+1),...,x(i+v-1)],i=1,2,...,k,
其中k为声音事件时间序列x(n)的长度;
步骤4-3-2:对每一个i值计算相矢量Vi和其余相矢量Vj的距离
dij=max|x(i+l)-x(j+l)|,l=0,1,...,v-1;
步骤4-3-3:给定阈值r=a3×SD,其中a3的取值范围为0.1~0.25,SD为声音事件时间序列x(n)的标准差;记录每个dij小于阈值r对应的i的个数,并求出与总的v维相矢量个数(k-v+1)的比值,记为将取对数,并求其平均值,记为φv(r):
步骤4-3-4:确定声音事件时间序列x(n)的近似熵为Apen=φv(r)-φv+1(r);
步骤4-4:求取高维个数n,具体为:记录步骤4-2中每帧内嵌入维数m≥4的声音事件时间序列x(n)的个数;
步骤4-5-2:对每个点Wj,计算其与最近邻点Wj'在第i步前向演化后的距离dj(i)=|Wj+i-W'j+i|=dj(0)×eλ×i;
步骤4-5-3:由下式算得最大李雅普诺夫指数,
其中p为非零的dj(i)的个数;
3.根据权利要求1所述的基于非线性动力学的睡眠阶段分期方法,其特征在于步骤5通过机器学习方法来确定睡眠阶段与特征参数之间的映射模型,具体为:
步骤5-1:将睡眠音频信号的非线性特征数据随机分成两个互斥集,其中一个为训练集S,另一个为交叉检验集CV,并将这些数据的睡眠阶段进行标记,即标记为A、B或C,A为清醒期,B为NREM期,C为REM期;
步骤5-2:将训练集S={(F1,L1),(F2,L2),...(Fi,Li),...,(Fw,Lw)}的特征矩阵输入机器学习方法中,其中Fi=(Fi1,Fi2,Fi3,Fi4,Fi5)分别为步骤4中提取的5个非线性动力学特征n和Li为步骤2中与PSG结果对应的标签,即音频标签A、B或C,音频标签A为清醒期即入睡前的准备阶段,音频标签B为NREM期即包括轻度睡眠、中度睡眠、深度睡眠的阶段,音频标签C为REM期即快速眼球运动阶段;
步骤5-3:随机从训练集取一个样本放入采样集中,再把该样本放回初始训练集中,使得下次采样时该样本仍有可能被选中,经过w次随机采样操作后得到w个样本的采样集,重复T次,得到T组含w个训练样本的采样集;
步骤5-4:基于每个采样集的特征矩阵去训练出一个睡眠阶段分期基学习器,得到T个睡眠阶段分期基学习器,映射模型M1由这T个睡眠阶段分期基学习器组成,具体采用投票法进行输出;
步骤5-5:使用交叉检验集CV对睡眠阶段与特征参数之间的映射模型M1进行进一步调参优化,得到映射模型M。
4.根据权利要求3所述的基于非线性动力学的睡眠阶段分期方法,其特征在于,步骤5-4所训练的睡眠阶段分期基学习器为决策树,具体为:
步骤5-4-1:遍历各个特征,计算其基尼值,其公式为:
ΔGini(AC)=Gini(a)-GiniAC(a)
第一个公式中,数据集a为步骤5-3中w个训练样本的采样集,Gini(a)表示的是数据集a的基尼指数,ri表示第i类样本在数据集a中的比例,PC为睡眠阶段的标签数;第二个公式中,AC为步骤4中得到的特征n和GiniAC(a)为按特征AC划分后的基尼指数,k表示数据集a在特征AC下划分成k个部分,aj表示划分后的第j个数据集;第三个公式中ΔGini(AC)表示的是按特征AC划分前后的基尼指数增益值;这样选取基尼指数增益值最大的特征作为节点的分裂条件,生成新的节点;
步骤5-4-2:以步骤5-4-1生成的节点作为根节点,重复5-4-1的过程,选取新的材料特征作为分裂条件,数据集a全部被划分完。
5.根据权利要求3所述的基于非线性动力学的睡眠阶段分期方法,其特征在于,步骤5-4所训练的睡眠阶段分期基学习器为多类别分类的SVM,具体为:
步骤5-4-A:若含w个样本的采样集中都包含了3个睡眠阶段类别的数据,对3个睡眠阶段类别,做Q次划分,这里Q的取值必须大于3,每次随机划分将一部分类别划分成正类,记为(+1),另一部分类别划分为反类,记为(-1),这里每一组对应的正类和负类即为一个训练集;共产生Q个训练集;
步骤5-4-B:将5-4-A生成的Q个训练集分别训练SVM,得到Q个SVM学习器,这样每一类的数据输入这Q个SVM学习器中得到相应的编码,组成3*Q的编码矩阵;
步骤5-4-C:利用Q个SVM学习器分别对测试样本进行预测,预测标记组成一个编码,将这个编码与每个类别各自的编码进行比较,返回其中距离最小的类别作为最终预测的结果,这Q个SVM分类器组成了多类别分类的SVM学习器。
6.根据权利要求3所述的基于非线性动力学的睡眠阶段分期方法,其特征在于,步骤5-5的调参优化,具体为:
步骤5-5-1、确定睡眠阶段分期基学习器的参数,当睡眠阶段分期基学习器为决策树时,参数包括决策数的分裂时参与判断的最大特征数max_feature、最大深度max_depth、分裂所需的最小样本数min_samples_split;当睡眠阶段分期基学习器为多类别分类的SVM时,参数为SVM的惩罚参数c、核函数参数gamma;
步骤5-5-2、对每个参数进行一次直线搜索,具体为,利用交叉检验集CV对基学习器进行训练,计算模型性能与参数之间的梯度;
步骤5-5-3、根据模型性能与各个参数之间的梯度,选取梯度值最大的参数作为当前调优参数,利用梯度下降法对当前调优参数进行调优;
步骤5-5-4、重复步骤5-5-2,5-5-3,直到所有参数的梯度小于阈值threshold,这里的threshold为一个接近0的正数;
步骤5-5-5、调整睡眠阶段分期基学习器个数T,具体为:计算模型性能与T之间的梯度,利用梯度下降法对基学习器个数T进行调优,得到最终的睡眠阶段分期基学习器个数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710409161.XA CN107174209B (zh) | 2017-06-02 | 2017-06-02 | 基于非线性动力学的睡眠阶段分期方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710409161.XA CN107174209B (zh) | 2017-06-02 | 2017-06-02 | 基于非线性动力学的睡眠阶段分期方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107174209A CN107174209A (zh) | 2017-09-19 |
CN107174209B true CN107174209B (zh) | 2020-06-30 |
Family
ID=59836042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710409161.XA Active CN107174209B (zh) | 2017-06-02 | 2017-06-02 | 基于非线性动力学的睡眠阶段分期方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107174209B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107679528A (zh) * | 2017-11-24 | 2018-02-09 | 广西师范大学 | 一种基于AdaBoost‑SVM集成学习算法的行人检测方法 |
US11547350B2 (en) | 2018-12-26 | 2023-01-10 | Industrial Technology Research Institute | Personalized parameter learning method, sleep-aid device and non-transitory computer readable medium |
CN111248868A (zh) * | 2020-02-20 | 2020-06-09 | 长沙湖湘医疗器械有限公司 | 一种快眼动睡眠分析方法、系统及设备 |
CN111374641B (zh) * | 2020-03-09 | 2023-12-19 | 深圳大学 | 睡眠特征事件的识别方法、装置、计算机设备和存储介质 |
CN113436740A (zh) * | 2021-07-03 | 2021-09-24 | 北京大学第三医院(北京大学第三临床医学院) | 术后不良结局风险的预测模型的构建方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013179254A1 (en) * | 2012-05-31 | 2013-12-05 | Ben Gurion University Of The Negev Research And Development Authority | Apparatus and method for diagnosing sleep quality |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102274022B (zh) * | 2011-05-10 | 2013-02-27 | 浙江大学 | 一种基于脑电信号的睡眠状态监测方法 |
CN102799899B (zh) * | 2012-06-29 | 2014-12-10 | 北京理工大学 | 基于svm和gmm的特定音频事件分层泛化识别方法 |
CN104035370B (zh) * | 2014-06-09 | 2017-03-01 | 曹亮明 | 睡眠监护系统和监护方法 |
CN106137130B (zh) * | 2016-06-28 | 2019-01-29 | 南京大学 | 一种基于音频处理的睡眠期识别方法 |
CN106388818B (zh) * | 2016-09-21 | 2019-05-07 | 广州视源电子科技股份有限公司 | 睡眠状态监测模型的特征信息提取方法和系统 |
-
2017
- 2017-06-02 CN CN201710409161.XA patent/CN107174209B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013179254A1 (en) * | 2012-05-31 | 2013-12-05 | Ben Gurion University Of The Negev Research And Development Authority | Apparatus and method for diagnosing sleep quality |
Non-Patent Citations (2)
Title |
---|
Investigation of Obstructive Sleep Apnea Using Nonlinear Mode Interactions in Nonstationary Snore Signals;ANDREW KEONG NG et al;《Annals of Biomedical Engineering》;20090930;第37卷(第9期);论文第1796-1806页 * |
睡眠脑电的分析处理和睡眠分期研究;李玲;《中国优秀硕士学位论文全文数据库 信息科技辑》;20100915(第9期);论文正文第4、16-33页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107174209A (zh) | 2017-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107174209B (zh) | 基于非线性动力学的睡眠阶段分期方法 | |
Page et al. | Utilizing deep neural nets for an embedded ECG-based biometric authentication system | |
Tariq et al. | Speech emotion detection using iot based deep learning for health care | |
CN110353702A (zh) | 一种基于浅层卷积神经网络的情感识别方法及系统 | |
Pedrosa et al. | Automatic heart sound segmentation and murmur detection in pediatric phonocardiograms | |
CN114052735B (zh) | 一种基于深度领域自适应的脑电情绪识别方法及系统 | |
Nathan et al. | EMOSIC—An emotion based music player for Android | |
Wu et al. | Reducing model complexity for DNN based large-scale audio classification | |
CN112200016A (zh) | 基于集成学习方法AdaBoost的脑电信号情感识别 | |
Deepa et al. | Epileptic seizure detection using deep learning through min max scaler normalization | |
Rosales et al. | Physiological-based smart stress detector using machine learning algorithms | |
CN108717548B (zh) | 一种面向传感器动态增加的行为识别模型更新方法及系统 | |
Chen et al. | Patient emotion recognition in human computer interaction system based on machine learning method and interactive design theory | |
Nguyen et al. | A potential approach for emotion prediction using heart rate signals | |
Youn et al. | Wearable sensor-based biometric gait classification algorithm using WEKA | |
Bernstein et al. | Using deep learning for alcohol consumption recognition | |
Whitehill et al. | Whosecough: In-the-wild cougher verification using multitask learning | |
Moreno-Rodriguez et al. | BIOMEX-DB: A cognitive audiovisual dataset for unimodal and multimodal biometric systems | |
Zhou et al. | Multimodal emotion recognition method based on convolutional auto-encoder | |
CN109522448A (zh) | 一种基于crbm和snn进行鲁棒性语音性别分类的方法 | |
El Moudden et al. | Mining human activity using dimensionality reduction and pattern recognition | |
Tiwari et al. | An optimized hybrid solution for IoT based lifestyle disease classification using stress data | |
CN115376560A (zh) | 轻度认知障碍早期筛查的语音特征编码模型及其训练方法 | |
CN114403878A (zh) | 一种基于深度学习的语音检测疲劳度方法 | |
Satapathy et al. | Machine Learning Approach for Estimation and Novel Design of Stroke Disease Predictions using Numerical and Categorical Features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220309 Address after: 210016 Building 2, 687 Zhujiang Road, Xuanwu District, Nanjing, Jiangsu Province Patentee after: Nanjing Hongding perception Technology Co.,Ltd. Address before: 210094 No. 200, Xiaolingwei, Jiangsu, Nanjing Patentee before: NANJING University OF SCIENCE AND TECHNOLOGY |