CN107174209B - 基于非线性动力学的睡眠阶段分期方法 - Google Patents

基于非线性动力学的睡眠阶段分期方法 Download PDF

Info

Publication number
CN107174209B
CN107174209B CN201710409161.XA CN201710409161A CN107174209B CN 107174209 B CN107174209 B CN 107174209B CN 201710409161 A CN201710409161 A CN 201710409161A CN 107174209 B CN107174209 B CN 107174209B
Authority
CN
China
Prior art keywords
sleep
sleep stage
stage
audio
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710409161.XA
Other languages
English (en)
Other versions
CN107174209A (zh
Inventor
洪弘
李佩
顾陈
李彧晟
孙理
朱晓华
邓博雅
薛彪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Hongding Perception Technology Co ltd
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201710409161.XA priority Critical patent/CN107174209B/zh
Publication of CN107174209A publication Critical patent/CN107174209A/zh
Application granted granted Critical
Publication of CN107174209B publication Critical patent/CN107174209B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4812Detecting sleep stages or cycles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种基于非线性动力学的睡眠阶段分期方法,首先监测不同个体的睡眠音频,截取整夜采集到的睡眠音频信号,并对采集到的睡眠音频信号进行降噪和声音事件检测,之后通过非线性动力学分析方法来进行特征提取,接着利用机器学习方法来确定睡眠阶段与特征参数之间的映射模型;最后根据映射模型,对音频设备录取的音频信号进行睡眠阶段分期。本发明方法有效可行,性能可靠,可以准确地对睡眠阶段进行分期。

Description

基于非线性动力学的睡眠阶段分期方法
技术领域
本发明属于音频领域,特别是一种基于非线性动力学的睡眠阶段分期方法。
背景技术
睡眠是人体恢复精力的最好休息方式,良好的睡眠有利于提高人的生活质量、工作效率和生活幸福感。目前国际上采用的睡眠监测多为多导睡眠图监测(PSG),它记录并分析多种睡眠呼吸参数,能够准确地判断睡眠结构和睡眠分期。但是PSG也有很多不足之处,其中它操作复杂,需要专业人员进行电极粘贴,只能在实验室或者医院使用。而且所接电极繁多,粘贴在身体各个部位,并不适用于皮肤敏感者,这也影响了被监测者的自然睡眠,对测试实验产生干扰。此外,PSG检测费用高,不能作为日常监护。
现有的临床睡眠分析方法主要是穿戴式的,北京怡和嘉业医疗科技有限公司的专利《电磁式胸腹带及多导睡眠监测仪》中,提供了一种电磁式胸腹带,包括胸带和腹带,其中胸带和腹带上均固定有磁性件和感应设备,通过监测胸呼吸和腹呼吸的参数来实现睡眠监测。中国人民解放军第二军医大学的专利《一种睡眠监测系统》中,提出了一种包含了脑电波收集帽及手套的睡眠监测系统,它通过监测睡眠脑电波、指氧饱和度、肌电及体动这四项指标来对睡眠进行检测。这两篇专利中的电磁式胸腹带或脑电波收集帽及手套都需固定在被监测者的身体上,增加了被监测者在睡眠监测时的异物感,产生了心理和生理负荷,从而影响了测试结果。
发明内容
本发明的目的在于提供一种基于非线性动力学的睡眠阶段分期方法。
实现该目的的技术解决方案为:一种基于非线性动力学的睡眠阶段分期方法,包括以下步骤:
步骤1:用音频设备采集监护者整夜的睡眠音频信号,同时用标准PSG仪对实验者进行睡眠监测,得到睡眠阶段标签;
步骤2:将步骤1采集到的音频信号与标准PSG仪采集到的睡眠阶段标签按照对应法则一一对应;
步骤3:对步骤1采集到的音频信号进行预处理,具体为:对录取的音频信号进行降噪处理,得到降噪处理后的睡眠音频,对降噪后的睡眠音频信号进行声音事件检测,得到声音事件,其中所述声音事件具体为人体一呼一吸产生的音频;
步骤4:采用非线性动力学分析方法对检测到的声音事件进行特征提取,所述特征具体为:时间延迟
Figure BDA0001311855380000021
嵌入维数
Figure BDA0001311855380000022
近似熵
Figure BDA0001311855380000023
高维个数n、最大李雅普诺夫指数
Figure BDA0001311855380000024
步骤5:将提取得到的特征参数与对应的标签输入到机器学习中,通过机器学习方法来确定睡眠阶段与特征参数之间的映射模型;
步骤6:根据步骤5得到的映射模型,对音频设备录取的音频信号进行睡眠阶段分期。
本发明与现有技术相比,其显著优点在于:1)本发明利用音频设备实现睡眠的非接触式监测,与传统的接触式监测相比,设备简单易操作,能减少人体的不适感,并且可以克服很多的局限性。2)本发明选择了合适的特征参数来表征多种睡眠阶段,通过机器学习方法训练出可以区分不同睡眠阶段的模型。因此,能够通过睡眠音频的特征参数判决它的睡眠阶段。3)本发明的方法简单有效,设备简单易实现,低成本,易操作,性能可靠。
下面结合说明书附图对本发明做进一步描述。
附图说明
图1为本发明实现睡眠阶段判决的步骤框图。
图2为本发明机器学习结构图。
图3为原始睡眠音频波形图。
图4为降噪后的睡眠音频波形图。
图5为声音事件检测后的睡眠音频波形图。
图6为机器学习分类的混淆矩阵图。
具体实施方式
结合附图,本发明的一种基于非线性动力学的睡眠阶段分期方法,包括以下步骤:
步骤1:用音频设备采集监护者整夜的睡眠音频信号,同时用标准PSG仪对实验者进行睡眠监测,得到睡眠阶段标签;
步骤2:将步骤1采集到的音频信号与标准PSG仪采集到的睡眠阶段标签按照对应法则一一对应;
所述对应法则为:音频标签A为清醒期即入睡前的准备阶段,对应PSG结果的入睡期N1,音频标签B为NREM期即包括轻度睡眠、中度睡眠、深度睡眠的阶段,对应PSG结果的浅睡期N2和深睡期N3,标签C为REM期即快速眼球运动阶段,对应PSG结果的快速眼球运动REM。
步骤3:对步骤1采集到的音频信号进行预处理,具体为:对录取的音频信号进行降噪处理,得到降噪处理后的睡眠音频,对降噪后的睡眠音频信号进行声音事件检测,得到声音事件,其中所述声音事件具体为人体一呼一吸产生的音频;其步骤为:
步骤3-1:对音频信号se(n)进行加窗分帧处理,计算每帧音频信号sei(m)的能量AMPi和短时谱熵H(i),能熵比EEFi表示为
Figure BDA0001311855380000031
其中sei(m)的下标i表示为第i帧;
步骤3-2:根据能熵比使用双门限检测法进行语音端点检测,检测出有效的声音事件;其中双门限检测法中的阈值T2=a1×Det+eth,T1=a2×Det+eth,Det为能熵比EEFi的最大值,eth为睡眠音频信号前置无话段的能熵比均值,a1、a2为Det的权重。
步骤4:采用非线性动力学分析方法对检测到的声音事件进行特征提取,所述特征具体为:时间延迟
Figure BDA0001311855380000032
嵌入维数
Figure BDA0001311855380000033
近似熵
Figure BDA0001311855380000034
高维个数n、最大李雅普诺夫指数
Figure BDA0001311855380000035
具体为:
步骤4-1:求取时间延迟
Figure BDA0001311855380000036
具体为:取每个声音事件时间序列x(n)的自相关函数R(τ)的第一个过零点为时间延迟τ,再取平均得到每帧内所有声音事件的平均时间延迟
Figure BDA0001311855380000041
步骤4-2:求取嵌入维数
Figure BDA0001311855380000042
具体为:
步骤4-2-1:由相空间重构理论,根据步骤4-1得到的时间延迟τ,将一维声音事件时间序列x(n)嵌入到m维空间Y中;
步骤4-2-2:改变维数m=m+1,计算虚假邻近点的个数;
步骤4-2-3:当虚假近邻点个数占全部m维空间中相矢量的比例小于自定义阈值b时,此时的维数m为声音事件时间序列x(n)的最佳嵌入维数;否则返回步骤4-2-2。
步骤4-2-4:将每个声音事件时间序列x(n)的最佳嵌入维数m取平均,得到每帧内所有声音事件的平均嵌入维数
Figure BDA0001311855380000043
步骤4-3:求取近似熵
Figure BDA0001311855380000044
具体为:
步骤4-3-1:将声音事件的一维时间序列x(n)=(x1,x2,x3,…,xi,…,xk)按顺序组成v维矢量Vi=[x(i),x(i+1),...,x(i+v-1)],i=1,2,...,k,
其中k为声音事件时间序列x(n)的长度;
步骤4-3-2:对每一个i值计算相矢量Vi和其余矢量Vj的距离
dij=max|x(i+l)-x(j+l)|,l=0,1,...,v-1;
步骤4-3-3:给定阈值r=a3×SD,其中a3的取值范围为0.1~0.25,SD为声音事件时间序列x(n)的标准差;记录每个dij小于阈值r对应的i的个数,并求出与总的v维相矢量个数(k-v+1)的比值,记为
Figure BDA0001311855380000045
Figure BDA0001311855380000046
取对数,并求其平均值,记为φv(r):
Figure BDA0001311855380000047
步骤4-3-4:确定声音事件时间序列x(n)的近似熵为Apen=φv(r)-φv+1(r);
步骤4-3-5:将每个声音事件时间序列x(n)的近似熵Apen取平均,得到每帧内所有声音事件的平均近似熵
Figure BDA0001311855380000051
步骤4-4:求取高维个数n,具体为:记录步骤4-2中每帧内嵌入维数m≥4的声音事件时间序列x(n)的个数;
步骤4-5:求取最大李雅普诺夫指数
Figure BDA0001311855380000052
具体为:
步骤4-5-1:根据步骤4-1求得的时间延迟τ和步骤4-2求得的嵌入维数m重构相空间W,对每个点Wj寻找其最近邻点W′j,计算Wj到W′j的距离dj(0)=|Wj-W′j|;
步骤4-5-2:对每个点Wj,计算其与最近邻点W′j在第i步前向演化后的距离dj(i)=|Wj+i-W′j+i|=dj(0)×eλ×i
步骤4-5-3:由下式算得最大李雅普诺夫指数,
Figure BDA0001311855380000053
其中p为非零的dj(i)的个数;
步骤4-5-4:将每个声音事件时间序列x(n)的最大李雅普诺夫指数λ取平均,得到每帧内所有声音事件的平均最大李雅普诺夫指数
Figure BDA0001311855380000054
步骤5:将提取得到的特征参数与对应的标签输入到机器学习中,通过机器学习方法来确定睡眠阶段与特征参数之间的映射模型;具体为:
步骤5-1:将睡眠音频信号的非线性特征数据随机分成两个互斥集,其中一个为训练集S,另一个为交叉检验集CV,并将这些数据的睡眠阶段进行标记,即标记为A、B或C,A为清醒期,B为NREM期,C为REM期;
步骤5-2:将训练集S={(F1,L1),(F2,L2),...(Fi,Li),...,(Fw,Lw)}的特征矩阵输入机器学习方法中,其中Fi=(Fi1,Fi2,Fi3,Fi4,Fi5)分别为步骤4中提取的5个非线性动力学特征
Figure BDA0001311855380000055
n和
Figure BDA0001311855380000056
Li为步骤2中与PSG结果对应的标签,即标签A、B或C,标签A为清醒期即入睡前的准备阶段,标签B为NREM期即包括轻度睡眠、中度睡眠、深度睡眠的阶段,标签C为REM期即快速眼球运动阶段;
步骤5-3:随机从训练集取一个样本放入采样集中,再把该样本放回初始训练集中,使得下次采样时该样本仍有可能被选中,经过w次随机采样操作后得到w个样本的采样集,重复T次,得到T组含w个训练样本的采样集;
步骤5-4:基于每个采样集的特征矩阵去训练出一个睡眠阶段分期基学习器,得到T个睡眠阶段分期基学习器,映射模型M1由这T个睡眠阶段分期基学习器组成,具体采用投票法进行输出;
所训练的睡眠阶段分期基学习器为决策树,具体为:
步骤5-4-1:遍历各个特征,计算其的基尼值,其公式为:
Figure BDA0001311855380000061
Figure BDA0001311855380000062
ΔGini(AC)=Gini(a)-GiniAC(a)
第一个公式中,数据集a为步骤5-3中w个训练样本的采样集,Gini(a)表示的是数据集a的基尼指数,ri表示第i类样本在数据集a中的比例,PC为睡眠阶段的标签数;第二个公式中,AC为步骤4中得到的特征
Figure BDA0001311855380000063
n和
Figure BDA0001311855380000064
GiniAC(a)为按特征AC划分后的基尼指数,k表示数据集a在特征AC下划分成k个部分,aj表示划分后的第j个数据集;第三个公式中ΔGini(AC)表示的是按特征AC划分前后的基尼指数增益值;这样选取基尼指数增益值最大的特征作为节点的分裂条件,生成新的节点;
步骤5-4-2:以步骤5-4-1生成的节点作为根节点,重复5-4-1的过程,选取新的材料特征作为分裂条件,数据a全部被划分完。
或者,所训练的睡眠阶段分期基学习器为多类别分类的SVM,具体为:
步骤5-4-A:若含w个样本的采样集中都包含了3个睡眠阶段类别的数据,对3个睡眠阶段类别,做Q次划分,这里Q的取值必须大于3,每次随机划分将一部分类别划分成正类,记为(+1),另一部分类别划分为反类,记为(-1),这里每一组对应的正类和负类即为一个训练集;共产生Q个训练集;
步骤5-4-B:将5-4-A生成的Q个训练集分别训练SVM,得到Q个SVM学习器,这样每一类的数据输入这Q个SVM学习器中得到相应的编码,组成3*Q的编码矩阵;
步骤5-4-C:利用Q个分类器分别对测试样本进行预测,预测标记组成一个编码,将这个编码与每个类别各自的编码进行比较,返回其中距离最小的类别作为最终预测的结果,这Q个SVM分类器组成了多类别分类的SVM学习器。
步骤5-5:使用交叉检验集CV对睡眠阶段与特征参数之间的映射模型M1进行进一步调参优化,得到映射模型M。具体为:
步骤5-5-1、确定睡眠阶段分期基学习器的参数,当睡眠阶段分期基学习器为决策树时,参数包括决策数的分裂时参与判断的最大特征数max_feature、最大深度max_depth、分裂所需的最小样本数min_samples_split;当睡眠阶段分期基学习器为多类别分类的SVM时,参数为SVM的惩罚参数c、核函数参数gamma;
步骤5-5-2、对每个参数进行一次直线搜索,具体为,利用CV集对基学习器进行训练,计算模型性能与参数之间的梯度;
步骤5-5-3、根据模型性能与各个参数之间的梯度,选取梯度值最大的参数作为当前调优参数,利用梯度下降法对当前调优参数进行调优;
步骤5-5-4、重复步骤5-5-2,5-5-3,直到所有参数的梯度小于阈值threshold,这里的threshold为一个接近0的正数;
步骤5-5-5、调整睡眠阶段分期基学习器个数T,具体为:计算模型性能与T之间的梯度,利用梯度下降法对基学习器个数T进行调优,得到最终的睡眠阶段分期基学习器个数。
步骤6:根据步骤5得到的映射模型,对音频设备录取的音频信号进行睡眠阶段分期。
本发明的方法简单有效,设备简单易实现,低成本,易操作,性能可靠。
下面结合实施例,进一步阐述本发明。
实施例1
一种基于非线性动力学的睡眠阶段分期方法,包括以下步骤:
步骤1:用音频设备采集监护者整夜的睡眠音频信号,同时用标准PSG仪对实验者进行睡眠监测,得到睡眠阶段标签;
步骤2:将步骤1采集到的音频信号与标准PSG仪的睡眠阶段标签按照对应法则一一对应;
步骤3:对步骤1采集到的音频信号进行预处理,具体为:对录取的音频信号进行降噪处理,得到降噪处理后的睡眠音频,截取监护者从清醒到深度睡眠的一个周期的降噪后的音频信号,通过能熵比法对语音端点进行检测,从睡眠音频信号中检测出有效的声音事件,其步骤为:
步骤3-1:对睡眠音频信号x(n)进行加窗分帧处理,计算每帧音频信号xi(m)的能量AMPi和短时谱熵H(i),能熵比EEFi表示为
Figure BDA0001311855380000081
其中xi(m)的下标i表示为第i帧;
步骤3-2:根据能熵比使用双门限检测法进行语音端点检测,检测出有效的声音事件;其中双门限检测法中的阈值T2=a1×Det+eth,T1=a2×Det+eth,Det为能熵比EEFi的最大值,eth为睡眠音频信号前置无话段的能熵比均值,根据实际情况,将a1取值为0.04,a2取值为0.015。
步骤4:检测到声音事件后,对音频进行分帧,帧长为30S;
步骤5:采用非线性动力学分析方法对检测到的声音事件进行特征提取,提取的特征为:时间延迟
Figure BDA0001311855380000082
嵌入维数
Figure BDA0001311855380000083
近似熵
Figure BDA0001311855380000084
高维个数n、最大李雅普诺夫指数
Figure BDA0001311855380000085
步骤5-1:求取时间延迟
Figure BDA0001311855380000086
具体为:取每个声音事件的一维时间序列x(n)的自相关函数R(τ)的第一个过零点为时间延迟τ,再取平均得到每帧内所有声音事件的平均时间延迟
Figure BDA0001311855380000087
步骤5-2:求取嵌入维数
Figure BDA0001311855380000088
具体为:
步骤5-2-1:由相空间重构理论,根据步骤5-1得到的时间延迟τ,将一维音频时间序列x(n)嵌入到m维空间Y中;
步骤5-2-2:改变维数m=m+1,计算虚假邻近点的个数;
步骤5-2-3:当虚假近邻点个数占全部m维空间中相矢量的比例小于自定义阈值b时,此时的维数m为声音事件的一维时间序列x的最佳嵌入维数;否则返回步骤5-2-2;
步骤5-2-4:将每个声音事件x(n)的最佳嵌入维数m取平均,得到每帧内所有声音事件的平均嵌入维数
Figure BDA0001311855380000091
步骤5-3:求取近似熵
Figure BDA0001311855380000092
具体为:
步骤5-3-1:将声音事件的一维时间序列x(n)=(x1,x2,x3,...,xi,...,xk)按顺序组成v维矢量Vi=[x(i),x(i+1),...,x(i+v-1)],i=1,2,...,k,
其中k为音频时间序列x(n)的长度,v=2;
步骤5-3-2:对每一个i值计算相矢量Vi和其余矢量Vj的距离dij=max|x(i+l)-x(j+l)|,l=0,1,...,v-1;
步骤5-3-3:给定阈值r=a3×SD,其中a3=0.25,SD为音频序列x的标准差。记录每个dij小于阈值r对应的i的个数,并求出与总的v维相矢量个数(k-v+1)的比值,记为
Figure BDA0001311855380000093
Figure BDA0001311855380000094
取对数,并求其平均值,记为φv(r):
Figure BDA0001311855380000095
步骤5-3-4:确定声音事件x(n)的近似熵为Apen=φv(r)-φv+1(r);
步骤5-3-5:将每个声音事件x(n)的近似熵Apen取平均,得到每帧内所有声音事件的平均近似熵
Figure BDA0001311855380000096
步骤5-4:求取高维个数n,具体为:记录步骤5-2中每帧内嵌入维数m≥4的声音事件个数;
步骤5-5:求取最大李雅普诺夫指数
Figure BDA0001311855380000097
具体为:
步骤5-5-1:根据步骤5-1求得的时间延迟τ和步骤5-2求得的嵌入维数m重构相空间W,对每个点Wj寻找其最近邻点W′j,计算Wj到W′j的距离dj(0)=|Wj-W′j|;
步骤5-5-2:对每个点Wj,计算其与最近邻点W′j在第i步前向演化后的距离dj(i)=|Wj+i-W′j+i|=dj(0)×eλ×i
步骤5-5-3:由下式算得最大李雅普诺夫指数,
Figure BDA0001311855380000101
其中p为非零的dj(i)的个数。
步骤5-5-4:将每个声音事件x(n)的最大李雅普诺夫指数λ取平均,得到每帧内所有声音事件的平均最大李雅普诺夫指数
Figure BDA0001311855380000102
步骤6:将提取得到的特征参数与对应的标签输入到机器学习中,通过机器学习方法来确定睡眠阶段与特征参数之间的映射模型,具体为:
步骤6-1:将睡眠音频信号的非线性特征数据随机分成两个互斥集,其中一个为训练集S,另一个为交叉检验集CV,并将这些数据的睡眠阶段进行标记,即标记为A、B或C,A为清醒期,B为NREM期,C为REM期;
步骤6-2:将训练集S={(F1,L1),(F2,L2),...(Fi,Li),...,(Fw,Lw)}的特征矩阵输入机器学习方法中,其中Fi=(Fi1,Fi2,Fi3,Fi4,Fi5)分别为步骤5中提取的5个非线性动力学特征
Figure BDA0001311855380000103
n和
Figure BDA0001311855380000104
Li为步骤2中与PSG结果对应的标签,即标签A、B或C,标签A为清醒期即入睡前的准备阶段,标签B为NREM期即包括轻度睡眠、中度睡眠、深度睡眠的阶段,标签C为REM期即快速眼球运动阶段;
步骤6-3:随机从训练集取一个样本放入采样集中,再把该样本放回初始训练集中,使得下次采样时该样本仍有可能被选中,经过w次随机采样操作后得到w个样本的采样集,重复T次,得到T组含w个训练样本的采样集;
步骤6-4:基于每个采样集的特征矩阵去训练出一个睡眠阶段分期基学习器,得到T个睡眠阶段分期基学习器,映射模型M1由这T个睡眠阶段分期基学习器组成,它采用投票法进行输出;这里的基学习器可以是决策树,具体为:
步骤6-4-1:遍历各个特征,计算其的基尼值,其公式为:
Figure BDA0001311855380000111
Figure BDA0001311855380000112
ΔGini(A)=Gini(a)-GiniA(a)
第一个公式中,数据集a为步骤6-3中w个训练样本的采样集,Gini(a)表示的是数据集a的基尼指数,ri表示第i类样本在数据集a中的比例;第二个公式中,A是步骤5中得到的特征
Figure BDA0001311855380000113
n和
Figure BDA0001311855380000114
GiniA(a)表示的是按特征A划分后的基尼指数,k表示数据集a在特征A下划分成k个部分,aj表示划分后的第j个数据集;第三个公式中ΔGini(A)表示的是按特征A划分前后的基尼指数增益值;这样选取基尼指数增益值最大的特征作为节点的分裂条件,生成新的节点;
步骤6-4-2、以步骤6-4-1生成的节点作为根节点,重复6-4-1的过程,选取新的姿态特征作为分裂条件,直至数据集a全部被划分完;
这里的基学习器也可以是多类别分类的SVM,具体构建方法为:
步骤6-4-A:若含w个样本的采样集中都包含了3个睡眠阶段类别的数据,对3个睡眠阶段类别,做Q次划分,这里Q的取值必须大于3,每次随机划分将一部分类别划分成正类,记为(+1),另一部分类别划分为反类,记为(-1),这里每一组对应的正类和负类即为一个训练集;共产生Q个训练集;
步骤6-4-B:将6-4-A生成的Q个训练集分别训练SVM,得到Q个SVM学习器,这样每一类的数据输入这Q个SVM学习器中得到相应的编码,组成3*Q的编码矩阵;
步骤6-4-C:利用Q个分类器分别对测试样本进行预测,预测标记组成一个编码,将这个编码与每个类别各自的编码进行比较,返回其中距离最小的类别作为最终预测的结果,这Q个SVM分类器组成了多类别分类的SVM学习器;
步骤6-5:使用交叉检验集CV对睡眠阶段与特征参数之间的映射模型M1进行进一步调参优化,得到映射模型M,具体为;
步骤6-5-1、根据具体情况,确定睡眠阶段分期基学习器的参数,当睡眠阶段分期基学习器为决策树时,参数包括决策数的分裂时参与判断的最大特征数max_feature、最大深度max_depth、分裂所需的最小样本数min_samples_split;当睡眠阶段分期基学习器为多类别分类的SVM时,参数为SVM的惩罚参数c、核函数参数gamma。
步骤6-5-2、对每个参数进行一次直线搜索,具体为,利用CV集对基学习器进行训练,计算模型性能与参数之间的梯度;
步骤6-5-3、根据模型性能与各个参数之间的梯度,选取梯度值最大的参数作为当前调优参数,利用梯度下降法对当前调优参数进行调优;
步骤6-5-4、重复步骤6-5-2,6-5-3,直到所有参数的梯度小于阈值threshold,阈值threshold取值为0.001;
步骤6-5-5、调整睡眠阶段分期基学习器个数T,具体为:计算模型性能与T之间的梯度,利用梯度下降法对基学习器个数T进行调优,得到最终的睡眠阶段分期基学习器个数。
步骤7:根据机器学习确定的睡眠阶段与特征参数之间的映射模型M,对音频设备获取的睡眠音频信号进行睡眠阶段的分期。
实施例2
结合图1,基于非线性动力学的睡眠阶段分期的步骤如下:
步骤1:用音频设备采集监护者两整夜共841分钟的睡眠音频信号,同时记录PSG仪所记录的睡眠阶段。将录取的音频信号进行降噪处理,提取较为纯净的音频信号。其中图3为整夜睡眠音频信号中的164S的音频波形图,图4为将这164S睡眠音频信号进行降噪处理后的音频波形图;
步骤2:将音频与PSG的睡眠阶段标签按照对应法则一一对应;
步骤3:截取监护者从清醒到深度睡眠的一个周期的降噪后的音频信号,进行声音事件检测,周期为90min;
步骤4:检测到声音事件后,对音频进行分帧,帧长为30S,图5为将步骤1中降噪后的睡眠音频信号进行声音事件检测后的音频波形图;
步骤5:提取声音事件的非线性动力学参数,具体为:时间延迟
Figure BDA0001311855380000131
嵌入维数
Figure BDA0001311855380000132
近似熵
Figure BDA0001311855380000133
高维个数n、最大李雅普诺夫指数
Figure BDA0001311855380000134
步骤6:将提取得到的特征参数与对应的标签输入到机器学习中,通过机器学习方法来确定睡眠阶段与特征参数之间的映射模型M1:
将五整夜2101分钟,每分钟2帧的睡眠音频信号通过步骤4进行特征提取后,组成4202个{(Fi1,Fi2,Fi3,Fi4,Fi5),Li}的特征矩阵,Li为以PSG结果作对比得到的标签。其中将2520个特征矩阵作为训练集S,1682个特征矩阵作为交叉检验集CV。将训练集S的特征矩阵输入机器学习算法中,从特征矩阵中随机取一个样本放入采样矩阵中,经过2520次随机采样操作得到含2520个样本的采样矩阵,重复20次,得20个含2520个样本的采样矩阵,然后基于每个采样矩阵去训练出一个睡眠阶段分期基学习器,这里基学习器使用的是决策树,得到20个睡眠阶段分期基学习器,利用投票法将20个基学习器所得到的结果进行结合,当预测出睡眠阶段收到同样的票数时,随机选择一个睡眠阶段,最后得到睡眠阶段与特征参数之间的映射模型M1;
步骤7、将交叉检验集CV中的1682个特征矩阵输入姿态识别映射模型M1中通过其他基学习器参数修改T的值和进一步优化姿态识别映射模型的识别精度,得到姿态识别映射模型M,其中最大特征数max_feature为12,最大深度max_depth为None,分裂所需的最小样本数min_samples_split为2。
步骤8:根据步骤7得到的映射模型M,对音频设备录取的音频信号进行睡眠阶段分期。
其中图3为机器学习分类的混淆矩阵。根据所训练的睡眠阶段与特征参数之间的映射模型,分类准确度能达到86.3%。
由此可知,基于非线性动力学的睡眠阶段分期有很高的可实施性。

Claims (6)

1.一种基于非线性动力学的睡眠阶段分期方法,其特征在于,包括以下步骤:
步骤1:用音频设备采集监护者整夜的睡眠音频信号,同时用标准PSG仪对监护者进行睡眠监测,得到睡眠阶段标签;
步骤2:将步骤1采集到的音频信号与标准PSG仪采集到的睡眠阶段标签按照对应法则一一对应;所述对应法则为:音频标签A为清醒期即入睡前的准备阶段,对应PSG结果的入睡期N1,音频标签B为NREM期即包括轻度睡眠、中度睡眠、深度睡眠的阶段,对应PSG结果的浅睡期N2和深睡期N3,音频标签C为REM期即快速眼球运动阶段,对应PSG结果的快速眼球运动REM;
步骤3:对步骤1采集到的音频信号进行预处理,具体为:对录取的音频信号进行降噪处理,得到降噪处理后的睡眠音频,对降噪后的睡眠音频信号进行声音事件检测,得到声音事件,其中所述声音事件具体为人体一呼一吸产生的音频;具体为:截取监护者从清醒到深度睡眠的一个周期的降噪后的睡眠音频信号,通过能熵比法对语音端点进行检测,从睡眠音频信号中检测出有效的声音事件,其步骤为:
步骤3-1:对睡眠音频信号se(n)进行加窗分帧处理,计算每帧睡眠音频信号sei(m)的能量AMPi和短时谱熵H(i),能熵比EEFi表示为
Figure FDA0002485561800000011
其中sei(m)的下标i表示为第i帧;
步骤3-2:根据能熵比使用双门限检测法进行语音端点检测,检测出有效的声音事件;其中双门限检测法中的阈值T2=a1×Det+eth,T1=a2×Det+eth,Det为能熵比EEFi的最大值,eth为睡眠音频信号前置无话段的能熵比均值,a1、a2为Det的权重;
步骤4:采用非线性动力学分析方法对检测到的声音事件进行特征提取,所述特征具体为:时间延迟
Figure FDA0002485561800000012
嵌入维数
Figure FDA0002485561800000013
近似熵
Figure FDA0002485561800000014
高维个数n、最大李雅普诺夫指数
Figure FDA0002485561800000015
步骤5:将提取得到的特征参数与对应的标签输入到机器学习中,通过机器学习方法来确定睡眠阶段与特征参数之间的映射模型;
步骤6:根据步骤5得到的映射模型,对音频设备录取的音频信号进行睡眠阶段分期。
2.根据权利要求1所述的基于非线性动力学的睡眠阶段分期方法,其特征在于,步骤4采用非线性动力学分析方法对检测到的声音事件进行特征提取,具体为:
步骤4-1:求取时间延迟
Figure FDA0002485561800000021
具体为:取每个声音事件时间序列x(n)的自相关函数R(τ)的第一个过零点为时间延迟τ,再取平均得到每帧内所有声音事件的平均时间延迟
Figure FDA0002485561800000022
步骤4-2:求取嵌入维数
Figure FDA0002485561800000023
具体为:
步骤4-2-1:由相空间重构理论,根据步骤4-1得到的时间延迟
Figure FDA0002485561800000024
将一维声音事件时间序列x(n)嵌入到m维空间Y中;
步骤4-2-2:改变维数m=m+1,计算虚假邻近点的个数;
步骤4-2-3:当虚假近邻点个数占全部m维空间中相矢量的比例小于自定义阈值b时,此时的维数m为声音事件时间序列x(n)的最佳嵌入维数;否则返回步骤4-2-2;
步骤4-2-4:将每个声音事件时间序列x(n)的最佳嵌入维数m取平均,得到每帧内所有声音事件的平均嵌入维数
Figure FDA0002485561800000025
步骤4-3:求取近似熵
Figure FDA0002485561800000026
具体为:
步骤4-3-1:将声音事件的一维时间序列x(n)=(x1,x2,x3,...,xi,...,xk)按顺序组成v维相矢量Vi=[x(i),x(i+1),...,x(i+v-1)],i=1,2,...,k,
其中k为声音事件时间序列x(n)的长度;
步骤4-3-2:对每一个i值计算相矢量Vi和其余相矢量Vj的距离
dij=max|x(i+l)-x(j+l)|,l=0,1,...,v-1;
步骤4-3-3:给定阈值r=a3×SD,其中a3的取值范围为0.1~0.25,SD为声音事件时间序列x(n)的标准差;记录每个dij小于阈值r对应的i的个数,并求出与总的v维相矢量个数(k-v+1)的比值,记为
Figure FDA0002485561800000031
Figure FDA0002485561800000032
取对数,并求其平均值,记为φv(r):
Figure FDA0002485561800000033
步骤4-3-4:确定声音事件时间序列x(n)的近似熵为Apen=φv(r)-φv+1(r);
步骤4-3-5:将每个声音事件时间序列x(n)的近似熵Apen取平均,得到每帧内所有声音事件的平均近似熵
Figure FDA0002485561800000034
步骤4-4:求取高维个数n,具体为:记录步骤4-2中每帧内嵌入维数m≥4的声音事件时间序列x(n)的个数;
步骤4-5:求取最大李雅普诺夫指数
Figure FDA0002485561800000035
具体为:
步骤4-5-1:根据步骤4-1求得的时间延迟
Figure FDA0002485561800000036
和步骤4-2求得的嵌入维数
Figure FDA0002485561800000037
重构相空间W,对每个点Wj寻找其最近邻点Wj',计算Wj到Wj'的距离dj(0)=|Wj-W'j|;
步骤4-5-2:对每个点Wj,计算其与最近邻点Wj'在第i步前向演化后的距离dj(i)=|Wj+i-W'j+i|=dj(0)×eλ×i
步骤4-5-3:由下式算得最大李雅普诺夫指数,
Figure FDA0002485561800000038
其中p为非零的dj(i)的个数;
步骤4-5-4:将每个声音事件时间序列x(n)的最大李雅普诺夫指数λ取平均,得到每帧内所有声音事件的平均最大李雅普诺夫指数
Figure FDA0002485561800000039
3.根据权利要求1所述的基于非线性动力学的睡眠阶段分期方法,其特征在于步骤5通过机器学习方法来确定睡眠阶段与特征参数之间的映射模型,具体为:
步骤5-1:将睡眠音频信号的非线性特征数据随机分成两个互斥集,其中一个为训练集S,另一个为交叉检验集CV,并将这些数据的睡眠阶段进行标记,即标记为A、B或C,A为清醒期,B为NREM期,C为REM期;
步骤5-2:将训练集S={(F1,L1),(F2,L2),...(Fi,Li),...,(Fw,Lw)}的特征矩阵输入机器学习方法中,其中Fi=(Fi1,Fi2,Fi3,Fi4,Fi5)分别为步骤4中提取的5个非线性动力学特征
Figure FDA0002485561800000041
n和
Figure FDA0002485561800000042
Li为步骤2中与PSG结果对应的标签,即音频标签A、B或C,音频标签A为清醒期即入睡前的准备阶段,音频标签B为NREM期即包括轻度睡眠、中度睡眠、深度睡眠的阶段,音频标签C为REM期即快速眼球运动阶段;
步骤5-3:随机从训练集取一个样本放入采样集中,再把该样本放回初始训练集中,使得下次采样时该样本仍有可能被选中,经过w次随机采样操作后得到w个样本的采样集,重复T次,得到T组含w个训练样本的采样集;
步骤5-4:基于每个采样集的特征矩阵去训练出一个睡眠阶段分期基学习器,得到T个睡眠阶段分期基学习器,映射模型M1由这T个睡眠阶段分期基学习器组成,具体采用投票法进行输出;
步骤5-5:使用交叉检验集CV对睡眠阶段与特征参数之间的映射模型M1进行进一步调参优化,得到映射模型M。
4.根据权利要求3所述的基于非线性动力学的睡眠阶段分期方法,其特征在于,步骤5-4所训练的睡眠阶段分期基学习器为决策树,具体为:
步骤5-4-1:遍历各个特征,计算其基尼值,其公式为:
Figure FDA0002485561800000043
Figure FDA0002485561800000044
ΔGini(AC)=Gini(a)-GiniAC(a)
第一个公式中,数据集a为步骤5-3中w个训练样本的采样集,Gini(a)表示的是数据集a的基尼指数,ri表示第i类样本在数据集a中的比例,PC为睡眠阶段的标签数;第二个公式中,AC为步骤4中得到的特征
Figure FDA0002485561800000051
n和
Figure FDA0002485561800000052
GiniAC(a)为按特征AC划分后的基尼指数,k表示数据集a在特征AC下划分成k个部分,aj表示划分后的第j个数据集;第三个公式中ΔGini(AC)表示的是按特征AC划分前后的基尼指数增益值;这样选取基尼指数增益值最大的特征作为节点的分裂条件,生成新的节点;
步骤5-4-2:以步骤5-4-1生成的节点作为根节点,重复5-4-1的过程,选取新的材料特征作为分裂条件,数据集a全部被划分完。
5.根据权利要求3所述的基于非线性动力学的睡眠阶段分期方法,其特征在于,步骤5-4所训练的睡眠阶段分期基学习器为多类别分类的SVM,具体为:
步骤5-4-A:若含w个样本的采样集中都包含了3个睡眠阶段类别的数据,对3个睡眠阶段类别,做Q次划分,这里Q的取值必须大于3,每次随机划分将一部分类别划分成正类,记为(+1),另一部分类别划分为反类,记为(-1),这里每一组对应的正类和负类即为一个训练集;共产生Q个训练集;
步骤5-4-B:将5-4-A生成的Q个训练集分别训练SVM,得到Q个SVM学习器,这样每一类的数据输入这Q个SVM学习器中得到相应的编码,组成3*Q的编码矩阵;
步骤5-4-C:利用Q个SVM学习器分别对测试样本进行预测,预测标记组成一个编码,将这个编码与每个类别各自的编码进行比较,返回其中距离最小的类别作为最终预测的结果,这Q个SVM分类器组成了多类别分类的SVM学习器。
6.根据权利要求3所述的基于非线性动力学的睡眠阶段分期方法,其特征在于,步骤5-5的调参优化,具体为:
步骤5-5-1、确定睡眠阶段分期基学习器的参数,当睡眠阶段分期基学习器为决策树时,参数包括决策数的分裂时参与判断的最大特征数max_feature、最大深度max_depth、分裂所需的最小样本数min_samples_split;当睡眠阶段分期基学习器为多类别分类的SVM时,参数为SVM的惩罚参数c、核函数参数gamma;
步骤5-5-2、对每个参数进行一次直线搜索,具体为,利用交叉检验集CV对基学习器进行训练,计算模型性能与参数之间的梯度;
步骤5-5-3、根据模型性能与各个参数之间的梯度,选取梯度值最大的参数作为当前调优参数,利用梯度下降法对当前调优参数进行调优;
步骤5-5-4、重复步骤5-5-2,5-5-3,直到所有参数的梯度小于阈值threshold,这里的threshold为一个接近0的正数;
步骤5-5-5、调整睡眠阶段分期基学习器个数T,具体为:计算模型性能与T之间的梯度,利用梯度下降法对基学习器个数T进行调优,得到最终的睡眠阶段分期基学习器个数。
CN201710409161.XA 2017-06-02 2017-06-02 基于非线性动力学的睡眠阶段分期方法 Active CN107174209B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710409161.XA CN107174209B (zh) 2017-06-02 2017-06-02 基于非线性动力学的睡眠阶段分期方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710409161.XA CN107174209B (zh) 2017-06-02 2017-06-02 基于非线性动力学的睡眠阶段分期方法

Publications (2)

Publication Number Publication Date
CN107174209A CN107174209A (zh) 2017-09-19
CN107174209B true CN107174209B (zh) 2020-06-30

Family

ID=59836042

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710409161.XA Active CN107174209B (zh) 2017-06-02 2017-06-02 基于非线性动力学的睡眠阶段分期方法

Country Status (1)

Country Link
CN (1) CN107174209B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107679528A (zh) * 2017-11-24 2018-02-09 广西师范大学 一种基于AdaBoost‑SVM集成学习算法的行人检测方法
US11547350B2 (en) 2018-12-26 2023-01-10 Industrial Technology Research Institute Personalized parameter learning method, sleep-aid device and non-transitory computer readable medium
CN111248868A (zh) * 2020-02-20 2020-06-09 长沙湖湘医疗器械有限公司 一种快眼动睡眠分析方法、系统及设备
CN111374641B (zh) * 2020-03-09 2023-12-19 深圳大学 睡眠特征事件的识别方法、装置、计算机设备和存储介质
CN113436740A (zh) * 2021-07-03 2021-09-24 北京大学第三医院(北京大学第三临床医学院) 术后不良结局风险的预测模型的构建方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013179254A1 (en) * 2012-05-31 2013-12-05 Ben Gurion University Of The Negev Research And Development Authority Apparatus and method for diagnosing sleep quality

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102274022B (zh) * 2011-05-10 2013-02-27 浙江大学 一种基于脑电信号的睡眠状态监测方法
CN102799899B (zh) * 2012-06-29 2014-12-10 北京理工大学 基于svm和gmm的特定音频事件分层泛化识别方法
CN104035370B (zh) * 2014-06-09 2017-03-01 曹亮明 睡眠监护系统和监护方法
CN106137130B (zh) * 2016-06-28 2019-01-29 南京大学 一种基于音频处理的睡眠期识别方法
CN106388818B (zh) * 2016-09-21 2019-05-07 广州视源电子科技股份有限公司 睡眠状态监测模型的特征信息提取方法和系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013179254A1 (en) * 2012-05-31 2013-12-05 Ben Gurion University Of The Negev Research And Development Authority Apparatus and method for diagnosing sleep quality

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Investigation of Obstructive Sleep Apnea Using Nonlinear Mode Interactions in Nonstationary Snore Signals;ANDREW KEONG NG et al;《Annals of Biomedical Engineering》;20090930;第37卷(第9期);论文第1796-1806页 *
睡眠脑电的分析处理和睡眠分期研究;李玲;《中国优秀硕士学位论文全文数据库 信息科技辑》;20100915(第9期);论文正文第4、16-33页 *

Also Published As

Publication number Publication date
CN107174209A (zh) 2017-09-19

Similar Documents

Publication Publication Date Title
CN107174209B (zh) 基于非线性动力学的睡眠阶段分期方法
Page et al. Utilizing deep neural nets for an embedded ECG-based biometric authentication system
Tariq et al. Speech emotion detection using iot based deep learning for health care
CN110353702A (zh) 一种基于浅层卷积神经网络的情感识别方法及系统
Pedrosa et al. Automatic heart sound segmentation and murmur detection in pediatric phonocardiograms
CN114052735B (zh) 一种基于深度领域自适应的脑电情绪识别方法及系统
Nathan et al. EMOSIC—An emotion based music player for Android
Wu et al. Reducing model complexity for DNN based large-scale audio classification
CN112200016A (zh) 基于集成学习方法AdaBoost的脑电信号情感识别
Deepa et al. Epileptic seizure detection using deep learning through min max scaler normalization
Rosales et al. Physiological-based smart stress detector using machine learning algorithms
CN108717548B (zh) 一种面向传感器动态增加的行为识别模型更新方法及系统
Chen et al. Patient emotion recognition in human computer interaction system based on machine learning method and interactive design theory
Nguyen et al. A potential approach for emotion prediction using heart rate signals
Youn et al. Wearable sensor-based biometric gait classification algorithm using WEKA
Bernstein et al. Using deep learning for alcohol consumption recognition
Whitehill et al. Whosecough: In-the-wild cougher verification using multitask learning
Moreno-Rodriguez et al. BIOMEX-DB: A cognitive audiovisual dataset for unimodal and multimodal biometric systems
Zhou et al. Multimodal emotion recognition method based on convolutional auto-encoder
CN109522448A (zh) 一种基于crbm和snn进行鲁棒性语音性别分类的方法
El Moudden et al. Mining human activity using dimensionality reduction and pattern recognition
Tiwari et al. An optimized hybrid solution for IoT based lifestyle disease classification using stress data
CN115376560A (zh) 轻度认知障碍早期筛查的语音特征编码模型及其训练方法
CN114403878A (zh) 一种基于深度学习的语音检测疲劳度方法
Satapathy et al. Machine Learning Approach for Estimation and Novel Design of Stroke Disease Predictions using Numerical and Categorical Features

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220309

Address after: 210016 Building 2, 687 Zhujiang Road, Xuanwu District, Nanjing, Jiangsu Province

Patentee after: Nanjing Hongding perception Technology Co.,Ltd.

Address before: 210094 No. 200, Xiaolingwei, Jiangsu, Nanjing

Patentee before: NANJING University OF SCIENCE AND TECHNOLOGY