CN106137130A - 一种基于音频处理的睡眠期识别方法 - Google Patents
一种基于音频处理的睡眠期识别方法 Download PDFInfo
- Publication number
- CN106137130A CN106137130A CN201610490156.1A CN201610490156A CN106137130A CN 106137130 A CN106137130 A CN 106137130A CN 201610490156 A CN201610490156 A CN 201610490156A CN 106137130 A CN106137130 A CN 106137130A
- Authority
- CN
- China
- Prior art keywords
- sequence
- sleep
- rem
- entry
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000007958 sleep Effects 0.000 title claims abstract description 150
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000012545 processing Methods 0.000 title claims abstract description 19
- 230000008569 process Effects 0.000 claims abstract description 34
- 230000036385 rapid eye movement (rem) sleep Effects 0.000 claims abstract description 9
- 206010011224 Cough Diseases 0.000 claims abstract description 8
- 206010041235 Snoring Diseases 0.000 claims abstract description 6
- 238000000605 extraction Methods 0.000 claims abstract description 6
- 239000003814 drug Substances 0.000 claims abstract description 5
- 238000003909 pattern recognition Methods 0.000 claims abstract description 3
- 238000005070 sampling Methods 0.000 claims description 28
- 230000000875 corresponding effect Effects 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 17
- 239000000203 mixture Substances 0.000 claims description 13
- 230000002596 correlated effect Effects 0.000 claims description 12
- 238000010801 machine learning Methods 0.000 claims description 11
- 235000013361 beverage Nutrition 0.000 claims description 9
- 238000009432 framing Methods 0.000 claims description 8
- 238000013479 data entry Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 230000001186 cumulative effect Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 5
- 230000000737 periodic effect Effects 0.000 claims description 5
- 230000000638 stimulation Effects 0.000 claims description 5
- 230000002123 temporal effect Effects 0.000 claims description 5
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 4
- FBOUIAKEJMZPQG-AWNIVKPZSA-N (1E)-1-(2,4-dichlorophenyl)-4,4-dimethyl-2-(1,2,4-triazol-1-yl)pent-1-en-3-ol Chemical compound C1=NC=NN1/C(C(O)C(C)(C)C)=C/C1=CC=C(Cl)C=C1Cl FBOUIAKEJMZPQG-AWNIVKPZSA-N 0.000 claims description 2
- 238000010276 construction Methods 0.000 claims description 2
- 230000008520 organization Effects 0.000 claims description 2
- 238000000513 principal component analysis Methods 0.000 claims description 2
- 229910052701 rubidium Inorganic materials 0.000 claims description 2
- IGLNJRXAVVLDKE-UHFFFAOYSA-N rubidium atom Chemical compound [Rb] IGLNJRXAVVLDKE-UHFFFAOYSA-N 0.000 claims description 2
- 238000012549 training Methods 0.000 claims description 2
- 230000001419 dependent effect Effects 0.000 abstract description 3
- 230000035515 penetration Effects 0.000 abstract description 3
- 230000003860 sleep quality Effects 0.000 abstract description 3
- 238000001303 quality assessment method Methods 0.000 abstract 1
- 238000012544 monitoring process Methods 0.000 description 8
- 210000004556 brain Anatomy 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000005059 dormancy Effects 0.000 description 3
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 2
- RYYVLZVUVIJVGH-UHFFFAOYSA-N caffeine Chemical compound CN1C(=O)N(C)C(=O)C2=C1N=CN2C RYYVLZVUVIJVGH-UHFFFAOYSA-N 0.000 description 2
- 230000037213 diet Effects 0.000 description 2
- 235000005911 diet Nutrition 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 230000036391 respiratory frequency Effects 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 210000000278 spinal cord Anatomy 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 210000001103 thalamus Anatomy 0.000 description 2
- 230000002618 waking effect Effects 0.000 description 2
- LPHGQDQBBGAPDZ-UHFFFAOYSA-N Isocaffeine Natural products CN1C(=O)N(C)C(=O)C2=C1N(C)C=N2 LPHGQDQBBGAPDZ-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 229960001948 caffeine Drugs 0.000 description 1
- VJEONQKOZGKCAK-UHFFFAOYSA-N caffeine Natural products CN1C(=O)N(C)C(=O)C2=C1C=CN2C VJEONQKOZGKCAK-UHFFFAOYSA-N 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000004220 muscle function Effects 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 230000037053 non-rapid eye movement Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000003019 respiratory muscle Anatomy 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000008667 sleep stage Effects 0.000 description 1
- 230000004622 sleep time Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4806—Sleep evaluation
- A61B5/4812—Detecting sleep stages or cycles
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于音频处理的睡眠期识别方法。该方法利用具有音频采集和处理功能的智能设备,包括智能手机和智能手表,利用其中的音频模块作为音频采集装置;对采集到的音频进行数字特征提取,通过模式识别的方法对睡眠当中出现的睡眠相关事件(打鼾、躯干运动、咳嗽、磨牙)进行识别,以REM和N‑REM睡眠期人的外部表现差异为切入点,结合医学REM、N‑REM睡眠期人的外部表现差异,对人的睡眠进行睡眠期的识别。该方法具有设备简单易获取、不需要设备间以及服务器间通信、非侵入式等优点,能够广泛应用于日常睡眠监测、睡眠质量评估、生活习惯评估等诸多应用领域。
Description
技术领域
本发明涉及一种音频处理的睡眠期识别方法,属于计算机应用领域,针对人类睡眠中REM和N-REM睡眠期的识别,以人在睡眠时REM和N-REM期的外部表现差异为切入点,以快速傅立叶变换和机器学习为主要技术手段,实现了一种基于可采集音频的智能设备的、无须外设支持的、非侵入式的睡眠REM、N-REM周期识别方法。
背景技术
睡眠期识别方法具有广泛的应用场景,如健康评估、情景智能、智能家居等。具体而言,睡眠期识别方法要求提供实时、准确的睡眠期识别,如用户正处于REM睡眠期、N-REM睡眠期。考虑到在现实生活中,睡眠的REM、N-REM期出现受到疲劳程度、睡前饮品、个体生理状态影响,本方法提供了多种睡眠REM、N-REM模型进行匹配。
现有的睡眠期识别方法有多导睡眠测试。该方法需要专业医学仪器,综合眼动仪、脑电波数据对用户的睡眠状态进行检测;该方法具有侵入式的特点,需要佩戴肌电仪监测眼球运动,需要佩戴脑电图相关设备监测脑电波波动状况。因而该方式具有影响被测试者睡眠的特点;并且由于其设备的专业性,并不适用与日常监测。
而本方法提供了一种非侵入式的睡眠周期监测方法,借助REM,N-REM睡眠期人的外部表现差异,使用具有音频采集功能的智能设备对用户的睡眠周期进行轻量级、非侵入式的识别。可以为其他服务需求方提供可靠的用户睡眠周期识别结果。
发明内容
发明目的:为了实现对REM、N-REM睡眠周期检测,同时克服传统方式侵入式、高成本、依赖专业设备的方式,本发明公开了一种基于音频处理的睡眠期识别方法。该方法设备简单易获取,现有的带音频采集功能的智能设备包括智能手机、智能手表等,就能够提供准确的睡眠周期识别服务。
由医学知识:人们正常的睡眠结构周期分两个时相:非快速眼动睡眠期(N-REM)和快速眼动睡眠期(REM)。N-REM与REM交替出现,交替一次称为一个睡眠周期,两种循环往复,每夜通常有4~5个睡眠周期,每个周期90~110分钟。
人的睡眠处于REM状态时,大脑的活跃程度等同甚至高于清醒状态,但由于此时人体感觉系统阻塞于丘脑区,运动系统阻塞于脊髓部分被阻塞(眼肌、耳小骨的肌肉、呼吸肌除外),此时人睡眠的外部表现更加平稳,且伴随心跳数和呼吸频率的增加;处于N-REM状态时,(相对清醒状态)感觉中枢功能下降,来自大脑的指令减少,肌肉机能下降。
该睡眠周期的分布根据个体不同而有所不同,并且有研究成果表明咖啡因和酒精对人进入REM睡眠期起抑制作用,同时该周期的分布也会受到疲劳程度、饮食状况的影响,因而该周期的分布并不是固定不变的。
由人的睡眠处于REM状态感觉系统阻塞于丘脑区,运动系统阻塞于脊髓部分被阻塞,伴随心跳数和呼吸频率的增加所表现出的在睡眠中不同状态所表现的外部特征不同为切入点,本发明把音频作为识别睡眠时探测人体外部特征的线索,利用能捕获音频的智能设备,利用相关的数据处理,机器学习等技术手段,得到用户睡眠时的外部特征,从而评估用户睡眠的实际周期分布情况。
技术方案:一种基于音频处理的睡眠期识别方法,使用具有音频采集和处理功能的智能设备,采集和处理人在睡眠期间产生的音频;基于快速傅立叶变换、主成份分析、时序相关数字特征提取、统计学对采集到的音频进行数字特征提取,通过模式识别的方法对睡眠当中出现的睡眠事件(打鼾、躯干运动、咳嗽、磨牙、梦呓、无关事件)进行识别,结合医学眼动期(Rapid Eyes Movement,REM)、非眼动期(Non-Rapid Eyes Movement,N-REM)睡眠期人的外部表现差异,对人的睡眠进行睡眠期的识别。
具体包含以下步骤:
1)具有音频采集和处理功能的智能设备需放置在用户入睡地点附近,保证用户入睡地点在该设备的探测范围内,保持该设备在用户睡眠期间运行;
2)设备在运行期间通过音频模块采集音频数据,按照时间顺序放置于内存中,对数据进行分帧分得一系列数据帧,并对每一个数据帧内的数据进行快速傅里叶变换,得到数据帧对应的频域表示,并将一系列数据帧对应的频域表示按时间顺序缓存于内存中;
3)对2)中得到的每一个数据帧中的各个频段对应的幅值累加得到一系列的帧频域和,用滑动窗口按照时间顺序逐帧推移,推移同时对滑动窗口内的第一帧按照超均值n倍的方式添加事件标记,产生事件序列S;
4)将3)中得到的事件序列S标记有事件的帧的频域信息进行存储,组成由频域信息和该频域信息对应的采样时间t组成的一系列原始数据条目Ors;
5)对4)中得到的原始数据条目Ors,根据其采样时间序列找出其中时间连续的条目,对于连续的条目进行合并,组成帧频域信息和采样时间组成的事件条目e;整个事件序列S将被分割成由若干个e条目组成的事件条目序列Es=<e1,e2,...,ez>;
6)对5)中得到的Es序列,计算其中每个条目e的采样时间跨度elength,和两个相邻条目的采样时间间隔estep;若(1/elength)>l*estep(其中l为可控参数)则将该estep前后的两个条目合并成新的条目em;整个Es序列将被重新组合成Ems=<em1,em2,...,emi>序列;
7)对6)中得到的Ems序列,计算其中每个条目em=<e1,e2,...,ej>的时序相关特征、频域相关特征;将em条目中的每个帧频域信息对应的频段计算平均值后归一化,提取频域均值统计特征;将时序相关特征attrt、频域相关特征attrf、频域均值统计特征atttrs、em对应的开始时间tstart、结束时间tend组成条目attr=<attrt,attrf,attrs,tstart,tend>;整个Ems序列将产生一系列的attr序列,记为Attrs=<attr1,attr2,...,attri>。
8)对7)中得到的Attrs序列,将其中每一个attr作为输入送入机器学习训练完成的分类算法进行分类,确定该attr所描述的时间内发生的事件为何种类型的睡眠相关事件(打鼾、躯干运动、咳嗽、磨牙、梦呓);将attr中的em的开始时间tstart、结束时间tend、类型识别结果r组成新的条目tempR=<tstart,tend,r>;整个Attrs序列将得到一系列tempR,构成TempRs=<tempR1,tempR2,...,tempRi>序列。
9)对8)中得到的TempRs序列,构造键值序列TVs,键为时间,值为睡眠状态评估,键中的时间值跨度为用户睡眠时长,值中的睡眠状态评估值预设为a;依次处理TempRs中的条目tempR,根据tempR中的最小采样时间和最大采样时间确定TVs序列中需要调整的数值,根据类型识别结果调整TVs序列中对应的值;整个TempRs序列将被用来生成一个时间-睡眠状态评估的键值序列TVs=<tv1,tv2,...,tvi>;
10)对9)中得到的TVs键值序列,结合睡眠医学中的正常睡眠REM、N-REM周期模型、刺激饮料影响下的REM、N-REM睡眠周期模型N-REM睡眠周期模型、疲劳状态下的REM、N-REM睡眠周期模型;选择最合适的模型拟合,对TVs进行调整得到用户的REM、N-REM睡眠期识别结果。
附图说明
图1为本发明智能设备端处理流程图。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
1、硬件环境
具有音频采集和处理功能的智能设备,能够实现以不低于600Hz的频率采样音频的能力;具有不低于1MB的内存;具备500MHz以上主频的CPU;
2、应用场景
在应用本发明公开的基于音频处理的睡眠期识别方法,可以以系统后台服务或应用内嵌模块的形式进行应用。在具有音频采集和处理功能的智能设备按照本发明所公开的技术方案实现REM、N-REM睡眠周期识别。将具有音频采集和处理功能的智能设备放置在能探测到用户睡眠产生的事件音频辐射范围内,按照本发明所公开的技术方案实现最终的识别结果是用户在睡眠中REM、N-REM睡眠期的分布。
发明所涉及技术的典型应用场景包括:日常睡眠监测、睡眠质量评估、生活习惯评估;且本发明所阐述的方法应该用于医学用途,仅作为日常监测手段。应用于日常睡眠监测时,可以仅用于对短期睡眠的监测,也可以额外增加长期睡眠状况记录功能,对长期睡眠的REM、N-REM睡眠周期的分布规律进行进一步的分析、处理。用于随眠质量评估时,本发明所阐述的方法提供了REM、N-REM睡眠周期的监测手段,对全面的睡眠质量评估有重要作用。应用于生活习惯评估时,本发明所阐述的方法监测出的REM、N-REM周期结合医学背景知识能够得到关于用户饮食、精神状态、睡眠习惯等多方面的信息。
3、方法描述
本方法所涉及的使用具有音频采集和处理功能的智能设备基于音频处理的睡眠期识别方法,其设备应当放置在能探测到用户睡眠产生的事件音频辐射范围内。步骤如下:
1)具有音频采集和处理功能的智能设备需放置在用户入睡地点附近,保证用户入睡地点在该设备的探测范围内,保持该设备在用户睡眠期间运行;
2)设备在运行期间通过音频模块采集音频数据,按照时间顺序放置于内存中,对数据进行分帧分得一系列数据帧,并对每一个数据帧内的数据进行快速傅里叶变换,得到数据帧对应的频域表示,并将一系列数据帧对应的频域表示按时间顺序缓存于内存中;
3)对2)中得到的每一个数据帧中的各个频段对应的幅值累加得到一系列的帧频域和,用滑动窗口按照时间顺序逐帧推移,推移同时对滑动窗口内的第一帧按照超均值n倍的方式添加事件标记,产生事件序列S;
4)将3)中得到的事件序列S标记有事件的帧的频域信息进行存储,组成由频域信息和该频域信息对应的采样时间t组成的一系列原始数据条目Ors;
5)对4)中得到的原始数据条目Ors,根据其采样时间序列找出其中时间连续的条目,对于连续的条目进行合并,组成帧频域信息和采样时间组成的事件条目e;整个事件序列S将被分割成由若干个e条目组成的事件条目序列Es=<e1,e2,...,ez>;
6)对5)中得到的Es序列,计算其中每个条目e的采样时间跨度elength,和两个相邻条目的采样时间间隔estep;若(1/elength)>l*estep(其中l为可控参数)则将该estep前后的两个条目合并成新的条目em;整个Es序列将被重新组合成Ems=<em1,em2,...,emi>序列;
7)对6)中得到的Ems序列,计算其中每个条目em=<e1,e2,...,ej>的时序相关特征、频域相关特征;将em条目中的每个帧频域信息对应的频段计算平均值后归一化,提取频域均值统计特征;将时序相关特征attrt、频域相关特征attrf、频域均值统计特征atttrs、em对应的开始时间tstart、结束时间tend组成条目attr=<attrt,attrf,attrs,tstart,tend>;整个Ems序列将产生一系列的attr序列,记为Attrs=<attr1,attr2,...,attri>。
8)对7)中得到的Attrs序列,将其中每一个attr作为输入送入机器学习训练完成的分类算法进行分类,确定该attr所描述的时间内发生的事件为何种类型的睡眠相关事件(打鼾、躯干运动、咳嗽、磨牙、梦呓);将attr中的em的开始时间tstart、结束时间tend、类型识别结果r组成新的条目tempR=<tstart,tend,r>;整个Attrs序列将得到一系列tempR,构成TempRs=<tempR1,tempR2,...,tempRi>序列。
9)对8)中得到的TempRs序列,构造键值序列TVs,键为时间,值为睡眠状态评估,键中的时间值跨度为用户睡眠时长,值中的睡眠状态评估值预设为a;依次处理TempRs中的条目tempR,根据tempR中的最小采样时间和最大采样时间确定TVs序列中需要调整的数值,根据类型识别结果调整TVs序列中对应的值;整个TempRs序列将被用来生成一个时间-睡眠状态评估的键值序列TVs=<tv1,tv2,...,tvi>;
10)对9)中得到的TVs键值序列,结合睡眠医学中的正常睡眠REM、N-REM周期模型、刺激饮料影响下的REM、N-REM睡眠周期模型N-REM睡眠周期模型、疲劳状态下的REM、N-REM睡眠周期模型;选择最合适的模型拟合,对TVs进行调整得到用户的REM、N-REM睡眠期识别结果。
进一步地,具有音频采集和处理功能的智能设备放置在用户睡眠位置周围,以能探测到用户睡眠中产生的音频为工作距离;其中音频采集和处理功能的智能设备包括智能手机和智能手表。
进一步地,步骤2)的具体过程为:
2.1)具有音频采集和处理功能的智能设备以高于min kHz采样频率采集音频数据,为保证对事件捕获的完整性,2)中的min不应该小于0.6;对采集到的数据进行缓存,留备后用;
2.2)对采集到的音频数据按照s秒划分数据帧,其中s根据使用环境决定,s的取值0.1至0.5为宜;
2.3)对分帧后的数据以帧为单位进行快速傅立叶变换,得到该帧在频域内的数字表示;
2.4)对经过快速傅立叶变换后的帧的频域数据,截取0到k kHz的数据,留备后用;其中k根据使用环境的不同设置,k的取值应当大于300小于32000。
进一步地,步骤3)的具体过程为:
3.1)对步骤2.4中产生的每个帧中截取后的快速傅立叶变换结果的频域离散值分别累加,得到帧频域和;
3.2)构造长度twind秒,即twind/s个帧长度的滑动窗口,该滑动窗口每次向时间增加的方向推移1个帧的时间长度,其中twind介于[0.5,5];
3.3)每次推移执行前对该滑动窗口内的twind/s个帧频域和计算均值得到滑动窗口频域均值;取该滑动窗口第一帧的帧频域和与滑动窗口频域均值n倍做比较;若帧频域和较大,则在事件序列后添加标记标注此帧包含事件;若帧频域和较小,则在事件序列后添加标记标注此帧不包含事件;得到事件序列S=<s1,s2,...,st>;
其中的n由使用环境决定,若使用环境相对嘈杂,则n设置为在区间[3,10];若使用环境相对安静,则n设置在区间[1.5,3)。
进一步地,步骤4)的具体过程为:
4.1)遍历步骤3.3中产生的S序列,对其中标记为包含事件的帧,添加该帧的开始时间数据构造Ors序列;Ors中每个条目ori=<fri,ti>由频域信息fri和采样时间ti构成,fri由2)中FFT变换结果顺序存储得到,ti由2)中s秒划分的每次划分的切割的开始时间构成;其中t可以作为单独的序列Ts=<t1,t2,...,tn>提取使用,且元素顺序和Ors中保持一致。
进一步地,步骤5)的具体过程为:
5.1)使用步骤4.1中的Ts序列,对其按照时间从小到大的顺序进行遍历,若ti+s=ti+1,就认为ti和ti+1连续;此处的连续具有传递性,即ti和ti+1连续、ti+1和ti+2连续,则ti、ti+1、ti+2三者连续,因为有ti+1元素的存在,ti和ti+2也具有连续性;将具有连续性的t分别构成集合tset,若ti不存在于任何tset集合,则将其单独构成一个集合;
通过上述方法形成一系列tset,其中任意一个集合中的t元素都和该集合内的其他元素具有连续性,且任意一个集合中的ti都不应该和其他集合中的tj具有连续性;
5.2)对于每一个集合构造事件条目e=<fr,tstart,tend>,e中包含Ors中的频域信息以及时间信息,计算步骤如下:将集合内的数据以及其对应的Ors中数据按照时间顺序排列,找出最小的时间tmin和最大时间tmax;将属于该集合对应Ors条目中的fr序列按照时间顺序存储,并将tmin和tmax+s同时存储,分别命名为tstart和tend,保持其中的对应关系,组织成事件条目e整个S序列将被分割成由若干个e条目组成的事件条目序列Es=<e1,e2,...,ez>;其中s为步骤2.2中的分帧s;
进一步地,步骤6)的具体过程为:
6.1)对5)中的每个条目e取出其tstart和tend,计算elength=tend-tstart;
6.2)对5)中两个相邻条目e的采样时间间隔estep计算步骤如下:对于序列Es选取其中某一个条目ei后,取出该条目中tstarti,即该条目的开始时间,取出该条目中tendi,即该条目的结束时间;在序列Es去除ei后的元素中,选tstartj小于tstarti的序列Ess中tstart最大的条目ef;在序列Es去除ei元素后的元素中,选取tstartj大于tstarti的序列Esl中tstart最小的条目eb;条目ei的estep由前项间隔ei.tstarti-ef.tend和后项间隔eb.tstart-ei.tendi组成;
6.3)若步骤6.2中的前项间隔满足(1/elength)>l*estep.前项间隔,前后两项即指步骤6.2中的ei和ef并在之间填补(ei.tstarti-ef.tend)/s个空条目Oif=<o1,o2,...,o(ei.tstarti-ef.tend)/s>,形成的新条目称为em=<ei,Oif,ef>;若步骤6.2中的后项间隔满足(1/Elength)>l*estep.后项间隔,前后两项即指步骤6.2中的ei和eb并在之间填补(eb.tstart-ei.tendi)/s个空条目Obi=<o1,o2,...,o(eb.tstart-ei.tendi)/s>,形成的新条目称为em=<eb,Obi,ei>;
其中的s为步骤2.2中的取值;其中的(1/elength)>l*estep,其中l应当介于[0.5,2];
6.4)将所有em组织成整个Ems=<em1,em2,...,emi>序列,进行存储留备后用。
进一步地,步骤7)的具体过程为:
7.1)计算Ems的时序相关特征,具体如下:对每个em元素计算得到每个ei的帧频域和sumi,得到帧频域和序列SUM=<sum1,sum2,...,sumj>,对该序列求方差所得的值记为Dsum;em中空条目的数量除以j的值记为loadR,其中j为em中元素的个数;Ems的时序相关特征由Dsum和loadR构成;
7.2)将em条目中的每个帧频域信息对应的频段计算平均值后归一化,形成新的条目Eavrg;
7.3)计算频域相关特征,具体如下:计算Eavrg的均值、方差;
7.4)计算频域均值统计特征,具体如下:Eavrg的最小值、最小值出现的频率、最大值、最大值出现的频率、非零频率的数量、非零最大频率、非零最小频率、非零最大频率减去非零最小频率的差、非零最大频率减去非零最小频率的差除以非零频率个数的商;
7.5)将步骤7.1至步骤7.4中的结果按固定顺序将时序相关特征、频域相关特征、频域均值统计特征、em中最小tstart(对应该em的开始时间)、Em中最大tend(对应该em的结束时间)排列组成的序列,称作attr;
7.6)将整个序列Ems产生的所有Attr序列组织存储形成Attrs=<attr1,attr2,...,attri>序列,留备后用。
进一步地,步骤8)的具体过程为:
8.1)按照1)至7)得到的Attrs加上额外的类别标签数据训练出的监督式机器学习分类器;
8.2)将Attrs中的条目逐一送入训练完成的分类器,完成对事件的类型识别,将类型结果和em中最小tstart、em中最大tend组织成tempR;对所有Attrs中的条目进行该操作,得到事件类型结果序列
TempRs=<tempR1,tempR2,...,tempRi>。
进一步地,步骤9)的具体过程为:
9.1)构造键值序列TVs=<tv1,tv2,...,tve>,每一个键值tvi中键为时间,值为睡眠状态评估;其中值预置为a,表示REM睡眠状态,键中的时间应当与用户睡眠时段相吻合;键中的时间单元前后跨度为m分钟;一个键所表示的时间覆盖范围是该键中的时间值开始和其后的m分钟;
9.2)对8)中得到的TempRs中的每个元素tempR,取出8)中保存在其中的tstart、tend;将TVs序列中键覆盖范围和tstart和tend构成的区间有重合的元素标记为需要修改的元素;
9.3)根据tempR中类型识别结果调整TVs序列中对应的需要修改的元素操作如下:若tempR中识别结果为躯干运动、咳嗽、梦呓就将步骤9.2中需要修改的元素数值设置为b;若结果为其他则不调整;其中b不等于a;
9.4)对8)中得到的TempRs中每个元素都执行步骤9.1和步骤9.2操作,得到修改完成的序列TVs=<tv1,tv2,...,tve>。
进一步地,步骤10)的具体过程为:
10.1)睡眠模型构造方式如下:生成长度为用户睡眠时长除以m的全b序列L,其中b表示N-REM睡眠状态;计算用户睡眠时长除以100分钟的商,对其四舍五入得到整数n;将L序列等分n份,形成L=<l1,l2,...,ln>序列,其中m为9.1)中所述m分钟中的时间长度;
10.2)对于正常睡眠REM、N-REM周期模型,对每个li在其长度*0.7的位置开始,将在长度*0.7至长度*0.95内的数字设置为a得到lni;得到序列Lnorm=<ln1,ln2,...,lnn>;
10.3)对刺激饮料影响下的REM、N-REM睡眠周期模型,设置睡眠阶段计数参数j=1;
定义操作OP:对所有i>j的Li在其长度*0.7的位置开始,将后续li长度*0.25个数字设置为a得到ldi;得到序列Ldrinkj=<ld1,ld2,..,ldn>;
对所有1<j<n的整数执行操作OP,得到Ldrinkj组,该组内的元素都是刺激饮料影响下的REM、N-REM睡眠周期模型;
10.4)10)中疲劳状态下的REM、N-REM睡眠周期模型:对l1在其长度*0.2的位置开始,将后续li长度*0.3个数字设置为a得到lt1;对后续每个li在其长度*0.7的位置开始,将后续li长度*0.25个数字设置为a得到lti;得到序列Ltired=<lt1,lt2,...ltn>;
10.5)将9)中得到TVs序列和步骤10.2至10.4产生的各个模型序列做逐位做比较,若对应位置上的数值不相等,则记录对该模型的错误匹配数量增加;完成对所有序列的比较后,将错误数量最小的模型序列命名为Lbestfit,并存储留后用;
10.6)重新逐位比较TVs和Lbestfit,对于由TVs中值为a而Lbestfit中值为b导致的错误,将TVs中该位置的数值调整为b;对于由TVs中值为b而Lbestfit中值为a导致的错误,不做操作;得到最终结果TVs,其中a表示用户睡眠的REM状态,b表示用户睡眠的N-REM状态。
方法的实施如图1所示:
1)智能设备端基于数据分帧和快速傅里叶变换的数据预处理方法
如图1,在智能设备端监听麦克风读数,并以不低于600Hz的采样率获取音频采样数据。当接收到来自智能手表的音频信号后,其表现形式为按照时间顺序排列的一系列音频采样数据,每秒钟不少于600个数据点。后使用一个长度为0.1s的非重叠式滑动窗口对输入音频数据流进行分割,每次分割得到一个数据帧,其中包含不少于60个数据点。对于每一个数据帧,对其进行快速傅里叶变换,得到数据帧可探测最高频率不低于300Hz的表示(即技术方案步骤二中的k的取值决定)。将该频域表示进行缓存以备后续使用。
2)智能设备端基于超均值n倍的事件探测方法完成事件提取
对事件的探测基于技术方案步骤3),以滑动窗口均值为基准,对每一个帧进行超均值n倍的监测方式(n的取值以落在[3,10]区间内为宜),从连续的频域表示中筛选出包含事件特征的帧,步骤三中滑动窗口的长度介于[3,15]秒为宜;按照技术方案步骤4),将挑选出的帧添加时间信息,即该帧的采样时间;依照添加的时间信息,按照技术方案步骤5)进行连续帧的合并;按照技术方案步骤6),将连续发生的事件进行自适应的合并,其中l设置在0.25左右为宜;得到对单一事件的数字表示,留备后续使用;
3)智能设备端的特征提取和基于机器学习的事件识别
按照技术方案步骤7)得到时序相关特征、频域相关特征、统计学数字特征,形成对该事件的数字特征提取;按照技术方案步骤8)中的事件标签设置配监督式机器学习算法,训练机器学习算法时需要注意不平衡标记问题,应当对其中的躯干运动应当予以增加权重,使得该事件的误判漏判率尽量低,分类器的选择推荐Random Forest,或效果更佳的分类器;按照技术方案步骤8.1对机器学习方法进行训练得到适合该场景的分类器模型;并且按照技术方案步骤8)中所述完成分类和时间信息的添加得到事件分类结果,留备后续使用;
4)智能设备端REM、N-REM周期初步判别
按照技术方案步骤9)所述,预置参数(其中a、b只要不相等即可,其中m的取值范围(0,10]为宜)对睡眠时段判别结果进行初始化,依照事件分类结果对睡眠时段判别结果进行调整,完成对事件分类结果进行REM、N-REM睡眠周期的匹配数学转换,得到初步的REM、N-REM睡眠周期判别结果,留备后用;
5)睡眠中REM、N-REM睡眠周期固有模式的建立
按照技术方案10.1、步骤10.2、步骤10.3、步骤10.4,实现对正常睡眠REM、N-REM周期模型、刺激饮料影响下的REM、N-REM睡眠周期模型N-REM睡眠周期模型、疲劳状态下的REM、N-REM睡眠周期模型分别的匹配模型的建立,留备后用;
6)针对用户的REM、N-REM睡眠周期的识别
按照技术方案10.5所述方式,使用4)中得到的初步REM、N-REM睡眠周期判别结果作为测试模型和5)中建立的匹配模型,得到最匹配的模型,按照技术方案10.6所述方式修正后得到最终识别结果。
Claims (10)
1.一种基于音频处理的睡眠期识别方法,其特征在于:使用具有音频采集和处理功能的智能设备,采集和处理人在睡眠期间产生的音频;基于快速傅立叶变换、主成份分析、时序相关数字特征提取、统计学对采集到的音频进行数字特征提取,通过模式识别的方法对睡眠当中出现的睡眠事件(打鼾、躯干运动、咳嗽、磨牙、梦呓、无关事件)进行识别,结合医学眼动期(Rapid Eyes Movement,REM)、非眼动期(Non-Rapid Eyes Movement,N-REM)睡眠期人的外部表现差异,对人的睡眠进行睡眠期的识别。
2.如权利要求1所述的基于音频处理的睡眠期识别方法,其特征在于:具体包含以下步骤:
步骤一、具有音频采集和处理功能的智能设备需放置在用户入睡地点附近,保证用户入睡地点在该设备的探测范围内,保持该设备在用户睡眠期间运行;
步骤二、设备在运行期间通过音频模块采集音频数据,按照时间顺序放置于内存中,对数据进行分帧分得一系列数据帧,并对每一个数据帧内的数据进行快速傅里叶变换,得到数据帧对应的频域表示,并将一系列数据帧对应的频域表示按时间顺序缓存于内存中;
步骤三、对步骤二中得到的每一个数据帧中的各个频段对应的幅值累加得到一系列的帧频域和,用滑动窗口按照时间顺序逐帧推移,推移同时对滑动窗口内的第一帧按照超均值n倍的方式添加事件标记,产生事件序列S;
步骤四、将步骤三中得到的事件序列S标记有事件的帧的频域信息进行存储,组成由频域信息和该频域信息对应的采样时间t组成的一系列原始数据条目Ors;
步骤五、对步骤四中得到的原始数据条目Ors,根据其采样时间序列找出其中时间连续的条目,对于连续的条目进行合并,组成帧频域信息和采样时间组成的事件条目e;整个事件序列S将被分割成由若干个e条目组成的事件条目序列Es=<e1,e2,...,ez>;
步骤六、对步骤五中得到的Es序列,计算其中每个条目e的采样时间跨度elength,和两个相邻条目的采样时间间隔estep;若(1/elength)>l*estep则将该estep前后的两个条目合并成新的条目em;整个Es序列将被重新组合成Ems=<em1,em2,...,emi>序列;
步骤七、对步骤六中得到的Ems序列,计算其中每个条目em=<e1,e2,...,ej>;的时序相关特征、频域相关特征;将em条目中的每个帧频域信息对应的频段计算平均值后归一化,提取频域均值统计特征;将时序相关特征attrt、频域相关特征attrf、频域均值统计特征atttrs、em对应的开始时间tstart、结束时间tend组成条目attr=<attrt,attrf,attrs,tstart,tend>;整个Ems序列将产生一系列的attr序列,记为Attrs=<attr1,attr2,...,attri>。
步骤八、对步骤七中得到的Attrs序列,将其中每一个attr作为输入送入机器学习训练完成的分类算法进行分类,确定该attr所描述的时间内发生的事件为何种类型的睡眠相关事件(打鼾、躯干运动、咳嗽、磨牙、梦呓);将attr中的em的开始时间tstart、结束时间tend、类型识别结果r组成新的条目tempR=<tstart,tend,r>;整个Attrs序列将得到一系列tempR,构成TempRs=<tempR1,tempR2,...,tempRi>序列。
步骤九、对步骤八中得到的TempRs序列,构造键值序列TVs,键为时间,值为睡眠状态评估,键中的时间值跨度为用户睡眠时长,值中的睡眠状态评估值预设为a;依次处理TempRs中的条目tempR,根据tempR中的最小采样时间和最大采样时间确定TVs序列中需要调整的数值,根据类型识别结果调整TVs序列中对应的值;整个TempRs序列将被用来生成一个时间-睡眠状态评估的键值序列TVs=<tv1,tv2,...,tvi>;
步骤十、对步骤九中得到的TVs键值序列,结合睡眠医学中的正常睡眠REM、N-REM周期模型、刺激饮料影响下的REM、N-REM睡眠周期模型N-REM睡眠周期模型、疲劳状态下的REM、N-REM睡眠周期模型;选择最合适的模型拟合,对TVs进行调整得到用户的REM、N-REM睡眠期识别结果。
3.如权利要求2所述的基于音频处理的睡眠期识别方法,其特征在于,步骤二的具体过程为:
步骤2.1具有音频采集和处理功能的智能设备以高于min kHz采样频率采集音频数据,为保证对事件捕获的完整性,步骤二中的min不应该小于0.6;对采集到的数据进行缓存,留备后用;
步骤2.2对采集到的音频数据按照s秒划分数据帧,其中s根据使用环境决定;
步骤2.3对分帧后的数据以帧为单位进行快速傅立叶变换,得到该帧在频域内的数字表示;
步骤2.4对经过快速傅立叶变换后的帧的频域数据,截取0到k kHz的数据,留备后用;其中k根据使用环境的不同设置。
4.如权利要求3所述的基于音频处理的睡眠期识别方法,其特征在于,步骤三的具体过程为:
步骤3.1对步骤2.4中产生的每个帧中截取后的快速傅立叶变换结果的频域离散值分别累加,得到帧频域和;
步骤3.2构造长度twind秒,即twind/s个帧长度的滑动窗口,该滑动窗口每次向时间增加的方向推移1个帧的时间长度,其中twind介于[0.5,5];
步骤3.3每次推移执行前对该滑动窗口内的twind/s个帧频域和计算均值得到滑动窗口频域均值;取该滑动窗口第一帧的帧频域和与滑动窗口频域均值n倍做比较;若帧频域和较大,则在事件序列后添加标记标注此帧包含事件;若帧频域和较小,则在事件序列后添加标记标注此帧不包含事件;得到事件序列S=<s1,s2,...,st>;
其中的n由使用环境决定,若使用环境相对嘈杂,则n较大;若使用环境相对安静,则n较小;
步骤四的具体过程为:
步骤4.1遍历步骤3.3中产生的S序列,对其中标记为包含事件的帧,添加该帧的开始时间数据构造Ors序列;Ors中每个条目ori=<fri,ti>由频域信息fri和采样时间ti构成,fri由步骤二中FFT变换结果顺序存储得到,ti由步骤二中s秒划分的每次划分的切割的开始时间构成;其中T可以作为单独的序列Ts=<t1,t2,...,tn>提取使用,且元素顺序和Ors中保持一致。
5.如权利要求4所述的基于音频处理的睡眠期识别方法,其特征在于,步骤五的具体过程为:
步骤5.1使用步骤4.1中的Ts序列,对其按照时间从小到大的顺序进行遍历,若ti+s=ti+1,就认为ti和ti+1连续;此处的连续具有传递性,即ti和ti+1连续、ti+1和ti+2连续,则ti、ti+1、ti+2三者连续,因为有ti+1元素的存在,ti和ti+2也具有连续性;将具有连续性的t分别构成集合tset,若ti不存在于任何tset集合,则将其单独构成一个集合;
通过上述方法形成一系列tset,其中任意一个集合中的t元素都和该集合内的其他元素具有连续性,且任意一个集合中的ti都不应该和其他集合中的tj具有连续性;
步骤5.2对于每一个集合构造事件条目e=<fr,tstart,tend>,e中包含Ors中的频域信息以及时间信息,计算步骤如下:将集合内的数据以及其对应的Ors中数据按照时间顺序排列,找出最小的时间tmin和最大时间tmax;将属于该集合对应Ors条目中的fr序列按照顺序存储,并将tmin和tmax+s同时存储,分别命名为tstart和tend,保持其中的对应关系,组织成事件条目e整个S序列将被分割成由若干个e条目组成的事件条目序列Es=<e1,e2,...,ez>;其中s为步骤2.2中的分帧s。
6.如权利要求5所述的基于音频处理的睡眠期识别方法,其特征在于,步骤六的具体过程为:
步骤6.1对步骤六中的每个条目e取出其tstart和tend,计算elength=tend-tstart;
步骤6.2对步骤六中两个相邻条目e的采样时间间隔estep计算步骤如下:对于序列Es选取其中某一个条目ei后,取出该条目中tstarti,即该条目的开始时间,取出该条目中tendi,即该条目的结束时间;在序列Es去除ei后的元素中,选tstartj小于tstarti的序列Ess中tstart最大的条目ef;在序列Es去除ei元素后的元素中,选取tstartj大于tstarti的序列Esl中tstart最小的条目eb;条目ei的estep由前项间隔ei.tstarti-ef.tend和后项间隔eb.tstart-ei.tendi组成;
步骤6.3)若步骤6.2中的前项间隔满足(1/elength)>l*estep,前后两项即指步骤6.2中的ei和ef并在之间填补(ei.tstarti-ef.tend)/s个空条目Oif=<o1,o2,...,o(ei.tstarti-ef.tend)/s>,形成的新条目称为em=<ei,Oif,ef>;若步骤6.2中的后项间隔满足(1/Elength)>l*Estep,前后两项即指步骤6.2中的ei和eb并在之间填补(eb.tstart-ei.tendi)/s个空条目Obi=<o1,o2,...,o(eb.tstart-ei.tendi)/s>,形成的新条目称为em=<eb,Obi,ei>;
其中的s为步骤2.2中的取值;其中的(1/elength)>l*estep,其中l为根据使用环境调整参数;
步骤6.4)将所有em组织成整个Ems=<em1,em2,...,emi>序列,进行存储留备后用。
7.如权利要求6所述的基于音频处理的睡眠期识别方法,其特征在于,步骤七的具体过程为:
步骤7.1计算Ems的时序相关特征,具体如下:对每个em元素计算得到每个ei的帧频域和sumi,得到帧频域和序列SUM=<sum1,sum2,...,sumj>,对该序列求方差所得的值记为Dsum;em中空条目的数量除以j的值记为loadR,其中j为em中元素的个数;Ems的时序相关特征由Dsum和loadR构成;
步骤7.2将em条目中的每个帧频域信息对应的频段计算平均值后归一化,形成新的条目Eavrg;
步骤7.3计算频域相关特征,具体如下:计算Eavrg的均值、方差;
步骤7.4计算频域均值统计特征,具体如下:Eavrg的最小值、最小值出现的频率、最大值、最大值出现的频率、非零频率的数量、非零最大频率、非零最小频率、非零最大频率减去非零最小频率的差、非零最大频率减去非零最小频率的差除以非零频率个数的商;
步骤7.5将步骤7.1至步骤7.4中的结果按固定顺序将时序相关特征、频域相关特征、频域均值统计特征、em中最小tstart(对应该em的开始时间)、Em中最大tend(对应该em的结束时间)排列组成的序列,称作attr;
步骤7.6将整个序列Ems产生的所有Attr序列组织存储形成Attrs=<attr1,attr2,...,attri>序列,留备后用。
8.如权利要求7所述的基于音频处理的睡眠期识别方法,其特征在于,步骤八的具体过程为:
步骤8.1按照步骤一至步骤七得到的Attrs加上额外的类别标签数据训练出的监督式机器学习分类器;
步骤8.2将Attrs中的条目逐一送入训练完成的分类器,完成对事件的类型识别,将类型结果和em中最小tstart、em中最大tend组织成tempR;对所有Attrs中的条目进行该操作,得到事件类型结果序列
TempRs=<tempR1,tempR2,...,tempRi>。
9.如权利要求8所述的基于音频处理的睡眠期识别方法,其特征在于,步骤九的具体过程为:
步骤9.1构造键值序列TVs=<tv1,tv2,...,tve>,键为时间,值为睡眠状态评估;其中值预置为a,表示REM睡眠状态,键中的时间应当与用户睡眠时段相吻合;键中的时间单元前后跨度为m分钟;一个键所表示的时间覆盖范围是该键中的时间值开始和其后的m分钟;
步骤9.2对步骤八中得到的TempRs中的每个元素tempR,取出步骤八中保存在其中的tstart、tend;将TVs序列中键覆盖范围和tstart和tend构成的区间有重合的元素标记为需要修改的元素;
步骤9.3根据tempR中类型识别结果调整TVs序列中对应的需要修改的元素操作如下:若tempR中识别结果为躯干运动、咳嗽、梦呓就将步骤9.2中需要修改的元素数值设置为b;若结果为其他则不调整;其中b不等于a;
步骤9.4对步骤八中得到的TempRs中每个元素都执行步骤9.1和步骤9.2操作,得到修改完成的序列TVs=<tv1,tv2,...,tve>。
10.如权利要求9所述的基于音频处理的睡眠期识别方法,其特征在于,步骤十的具体过程为:
步骤10.1睡眠模型构造方式如下:生成长度为用户睡眠时长除以m的全b序列L,其中b表示N-REM睡眠状态;计算用户睡眠时长除以100分钟的商,对其四舍五入得到整数n;将L序列等分n份,形成L=<l1,l2,...,ln>序列;
步骤10.2对于正常睡眠REM、N-REM周期模型,对每个li在其长度*0.7的位置开始,将在长度*0.7至长度*0.95内的数字设置为a得到lni;得到序列Lnorm=<ln1,ln2,...,lnn>;
步骤10.3对刺激饮料影响下的REM、N-REM睡眠周期模型,设置j=1;
定义操作OP:对所有i>j的Li在其长度*0.7的位置开始,将后续li长度*0.25个数字设置为a得到ldi;得到序列Ldrinkj=<ld1,ld2,..,ldn>;
对所有1<j<n的整数执行操作OP,得到Ldrinkj组,该组内的元素都是刺激饮料影响下的REM、N-REM睡眠周期模型;
步骤10.4步骤十中疲劳状态下的REM、N-REM睡眠周期模型:对l1在其长度*0.2的位置开始,将后续li长度*0.3个数字设置为a得到lt1;对后续每个li在其长度*0.7的位置开始,将后续li长度*0.25个数字设置为a得到lti;得到序列Ltired=<lt1,lt2,...ltn>;
步骤10.5将步骤九中得到TVs序列和步骤10.2至10.4产生的各个模型序列做逐位做比较,若对应位置上的数值不相等,则记录对该模型的错误匹配数量增加;完成对所有序列的比较后,将错误数量最小的模型序列命名为Lbestfit,并存储留后用;
步骤10.6重新逐位比较TVs和Lbestfit,对于由TVs中值为a而Lbestfit中值为b导致的错误,将TVs中该位置的数值调整为b;对于由TVs中值为b而Lbestfit中值为a导致的错误,不做操作;得到最终结果TVs,其中a表示用户睡眠的REM状态,b表示用户睡眠的N-REM状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610490156.1A CN106137130B (zh) | 2016-06-28 | 2016-06-28 | 一种基于音频处理的睡眠期识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610490156.1A CN106137130B (zh) | 2016-06-28 | 2016-06-28 | 一种基于音频处理的睡眠期识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106137130A true CN106137130A (zh) | 2016-11-23 |
CN106137130B CN106137130B (zh) | 2019-01-29 |
Family
ID=57350181
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610490156.1A Active CN106137130B (zh) | 2016-06-28 | 2016-06-28 | 一种基于音频处理的睡眠期识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106137130B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107174209A (zh) * | 2017-06-02 | 2017-09-19 | 南京理工大学 | 基于非线性动力学的睡眠阶段分期方法 |
CN108697328A (zh) * | 2017-12-27 | 2018-10-23 | 深圳和而泰数据资源与云技术有限公司 | 一种鼾声识别方法及止鼾装置 |
CN109946953A (zh) * | 2019-04-02 | 2019-06-28 | 浙江和也健康科技有限公司 | 一种具有睡眠监测功能的手表 |
CN111150422A (zh) * | 2020-03-09 | 2020-05-15 | 国微集团(深圳)有限公司 | 智能听诊系统及其听诊方法 |
CN111166297A (zh) * | 2020-02-19 | 2020-05-19 | 赛博龙科技(北京)有限公司 | 基于用户睡眠音频评定睡眠质量的方法和装置 |
CN111374641A (zh) * | 2020-03-09 | 2020-07-07 | 深圳大学 | 睡眠特征事件的识别方法、装置、计算机设备和存储介质 |
CN111712161A (zh) * | 2017-12-28 | 2020-09-25 | 数眠公司 | 具有确定两个睡眠者的打鼾和呼吸参数的传感器特征的床 |
CN112716449A (zh) * | 2020-12-23 | 2021-04-30 | 西安皑鸥软件科技有限公司 | 一种基于移动设备监测人体睡眠状态方法及系统 |
CN114652938A (zh) * | 2022-02-18 | 2022-06-24 | 南京安睡科技有限公司 | 一种促进睡眠的智能闭环调控刺激系统及使用方法 |
CN115831372A (zh) * | 2023-02-17 | 2023-03-21 | 安徽星辰智跃科技有限责任公司 | 一种睡眠效率量化及干预的方法、系统和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101222874A (zh) * | 2005-06-30 | 2008-07-16 | 希尔丁安德斯国际股份有限公司 | 用于确定对象是否在打鼾的方法、系统和计算机程序 |
US20110160619A1 (en) * | 2009-12-31 | 2011-06-30 | Lctank Llc | Method and apparatus for a scented alarm clock based on sleep state |
CN103228203A (zh) * | 2010-12-03 | 2013-07-31 | 皇家飞利浦电子股份有限公司 | 睡眠干扰监视装置 |
CN103356168A (zh) * | 2012-03-30 | 2013-10-23 | 株式会社百利达 | 睡眠管理系统以及睡眠计 |
US20140046184A1 (en) * | 2011-03-30 | 2014-02-13 | Koninklijke Philips N.V. | Contactless sleep disorder screening system |
-
2016
- 2016-06-28 CN CN201610490156.1A patent/CN106137130B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101222874A (zh) * | 2005-06-30 | 2008-07-16 | 希尔丁安德斯国际股份有限公司 | 用于确定对象是否在打鼾的方法、系统和计算机程序 |
US20110160619A1 (en) * | 2009-12-31 | 2011-06-30 | Lctank Llc | Method and apparatus for a scented alarm clock based on sleep state |
CN103228203A (zh) * | 2010-12-03 | 2013-07-31 | 皇家飞利浦电子股份有限公司 | 睡眠干扰监视装置 |
US20140046184A1 (en) * | 2011-03-30 | 2014-02-13 | Koninklijke Philips N.V. | Contactless sleep disorder screening system |
CN103356168A (zh) * | 2012-03-30 | 2013-10-23 | 株式会社百利达 | 睡眠管理系统以及睡眠计 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107174209A (zh) * | 2017-06-02 | 2017-09-19 | 南京理工大学 | 基于非线性动力学的睡眠阶段分期方法 |
CN108697328A (zh) * | 2017-12-27 | 2018-10-23 | 深圳和而泰数据资源与云技术有限公司 | 一种鼾声识别方法及止鼾装置 |
WO2019127088A1 (zh) * | 2017-12-27 | 2019-07-04 | 深圳和而泰数据资源与云技术有限公司 | 一种鼾声识别方法及止鼾装置 |
CN111712161A (zh) * | 2017-12-28 | 2020-09-25 | 数眠公司 | 具有确定两个睡眠者的打鼾和呼吸参数的传感器特征的床 |
CN109946953A (zh) * | 2019-04-02 | 2019-06-28 | 浙江和也健康科技有限公司 | 一种具有睡眠监测功能的手表 |
CN111166297B (zh) * | 2020-02-19 | 2022-09-06 | 赛博龙科技(北京)有限公司 | 基于用户睡眠音频评定睡眠质量的方法和装置 |
CN111166297A (zh) * | 2020-02-19 | 2020-05-19 | 赛博龙科技(北京)有限公司 | 基于用户睡眠音频评定睡眠质量的方法和装置 |
CN111374641A (zh) * | 2020-03-09 | 2020-07-07 | 深圳大学 | 睡眠特征事件的识别方法、装置、计算机设备和存储介质 |
CN111150422A (zh) * | 2020-03-09 | 2020-05-15 | 国微集团(深圳)有限公司 | 智能听诊系统及其听诊方法 |
CN111374641B (zh) * | 2020-03-09 | 2023-12-19 | 深圳大学 | 睡眠特征事件的识别方法、装置、计算机设备和存储介质 |
CN112716449A (zh) * | 2020-12-23 | 2021-04-30 | 西安皑鸥软件科技有限公司 | 一种基于移动设备监测人体睡眠状态方法及系统 |
CN114652938A (zh) * | 2022-02-18 | 2022-06-24 | 南京安睡科技有限公司 | 一种促进睡眠的智能闭环调控刺激系统及使用方法 |
CN114652938B (zh) * | 2022-02-18 | 2023-12-26 | 南京安睡科技有限公司 | 一种促进睡眠的智能闭环调控刺激系统及使用方法 |
CN115831372A (zh) * | 2023-02-17 | 2023-03-21 | 安徽星辰智跃科技有限责任公司 | 一种睡眠效率量化及干预的方法、系统和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN106137130B (zh) | 2019-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106137130A (zh) | 一种基于音频处理的睡眠期识别方法 | |
CN103717125B (zh) | 用于确定人的睡眠和睡眠阶段的系统和方法 | |
CN101773394B (zh) | 身份识别方法及应用该方法的身份识别系统 | |
CN110706816B (zh) | 一种基于人工智能进行睡眠环境调控的方法及设备 | |
CN109843163A (zh) | 用于标记睡眠状态的方法和系统 | |
CN105748043A (zh) | 睡眠质量监测方法及装置、可穿戴设备 | |
CN109222961B (zh) | 一种便携式睡眠监测系统及相关睡眠监测方法 | |
CN105662375A (zh) | 非接触式检测生命体征信号的方法和装置 | |
CN204931634U (zh) | 基于生理信息的抑郁症评估系统 | |
CN108596043A (zh) | 基于集合经验模式分解的单导联脑电信号的睡眠自动分期的方法 | |
AU2018257774A1 (en) | Activity recognition | |
CN110141226A (zh) | 自动睡眠分期方法、装置、计算机设备及计算机存储介质 | |
CN110367934B (zh) | 一种基于非语音身体声音的健康监测方法及监测系统 | |
CN110327040A (zh) | 基于云平台的睡眠分期方法及系统 | |
CN114376564A (zh) | 一种基于心冲击信号的睡眠分期方法、系统、装置及介质 | |
CN107437011A (zh) | 基于脑电信号的身份识别的方法和装置 | |
CN105942974A (zh) | 一种基于低频脑电的睡眠分析方法及系统 | |
US20180014739A1 (en) | Unobtrusive emotion recognition system | |
CN106491129B (zh) | 一种基于eog的人体行为识别系统及方法 | |
CN109328034A (zh) | 用于确定对象的睡眠阶段的确定系统和方法 | |
CN114781465B (zh) | 一种基于rPPG的非接触式疲劳检测系统及方法 | |
CN109009125A (zh) | 基于移动终端音频的驾驶员细粒度呼吸监测方法及系统 | |
CN104537361A (zh) | 基于视频的测谎方法及其测谎系统 | |
CN106175754A (zh) | 睡眠状态分析中清醒状态检测装置 | |
Seng et al. | Seizure detection in EEG signals using support vector machines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 210008 Hankou Road, Drum Tower District, Nanjing, Jiangsu Province, No. 22 Applicant after: Nanjing University Address before: 210046 Xianlin Avenue 163, Qixia District, Nanjing City, Jiangsu Province Applicant before: Nanjing University |
|
GR01 | Patent grant | ||
GR01 | Patent grant |