CN116803337B - 基于睡眠监测的音乐辅助睡眠方法、装置、设备 - Google Patents

基于睡眠监测的音乐辅助睡眠方法、装置、设备 Download PDF

Info

Publication number
CN116803337B
CN116803337B CN202311059512.0A CN202311059512A CN116803337B CN 116803337 B CN116803337 B CN 116803337B CN 202311059512 A CN202311059512 A CN 202311059512A CN 116803337 B CN116803337 B CN 116803337B
Authority
CN
China
Prior art keywords
user
sleep
music
data
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311059512.0A
Other languages
English (en)
Other versions
CN116803337A (zh
Inventor
胡军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Smart Care Technology Ltd
Original Assignee
Shenzhen Smart Care Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Smart Care Technology Ltd filed Critical Shenzhen Smart Care Technology Ltd
Priority to CN202311059512.0A priority Critical patent/CN116803337B/zh
Publication of CN116803337A publication Critical patent/CN116803337A/zh
Application granted granted Critical
Publication of CN116803337B publication Critical patent/CN116803337B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明涉及音乐控制技术领域,公开了一种基于睡眠监测的音乐辅助睡眠方法、装置、设备及存储介质。所述基于睡眠监测的音乐辅助睡眠方法包括:获取用户的心率数据,并通过预设的第一计算算法确定用户当前心率的最小值作为第一生理数据;获取用户的眼部运动参数,并通过预设的第二计算算法确定用户当前眼部转动数据中相邻两次眼球转动之间的时间间隔,得到第二生理数据;获取用户的体动信号,并通过预设的第三计算算法确定用户当前身体的翻动数据,将所述翻动数据的频率最小值作为第三生理数据;本发明提升了睡眠质量,改善了用户的生活质量,并且记录用户的音乐偏好和播放历史,不断优化音乐推荐,提升了用户的睡眠体验。

Description

基于睡眠监测的音乐辅助睡眠方法、装置、设备
技术领域
本发明涉及音乐控制技术领域,尤其涉及一种基于睡眠监测的音乐辅助睡眠方法、装置、设备。
背景技术
随着社会的快速发展,人们的生活节奏逐渐变快,面对的生活和工作压力也越来越大,进而睡眠质量受到严重影响。
然而,人们的睡眠质量受到多种复杂因素的影响。传统的睡眠监测方法依赖于复杂的设备和专业人员的操作,这在一定程度上限制了其在日常生活中的运用。此外,如何在睡眠过程中根据个人的生理数据和情绪状态调整环境,如音乐的音量、播放时长以及音乐元素,也是现有技术尚未充分解决的问题。
因此,如何基于睡眠监测的数据对音乐播放进行控制以提供最佳的睡眠环境是有待解决的技术问题。
发明内容
本发明提供了一种基于睡眠监测的音乐辅助睡眠方法、装置、设备,用于解决上述的技术问题。
本发明第一方面提供了一种基于睡眠监测的音乐辅助睡眠方法,所述基于睡眠监测的音乐辅助睡眠方法包括:
获取用户的心率数据,并通过预设的第一计算算法确定用户当前心率的最小值作为第一生理数据;获取用户的眼部运动参数,并通过预设的第二计算算法确定用户当前眼部转动数据中相邻两次眼球转动之间的时间间隔,得到第二生理数据;获取用户的体动信号,并通过预设的第三计算算法确定用户当前身体的翻动数据,将所述翻动数据的频率最小值作为第三生理数据;
对所述第一生理数据、所述第二生理数据以及所述第三生理数据进行分析处理,得到用户的睡眠监测数据;
将所述睡眠监测数据输入至训练后的睡眠阶段识别模型中进行识别,得到用户的当前睡眠阶段;其中,所述睡眠阶段识别模型经过提前训练得到;
基于预设的情绪分析算法,对用户当前的情绪进行分析,得到用户的情绪状态,结合用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态,自动调节音乐的音量、播放时长以及音乐元素;其中,在预设的音乐播放器中存储有用户播放音乐的历史记录以及用户的个人音乐偏好。
可选的,在本发明第一方面的第一种实现方式中,所述睡眠监测数据输入至训练后的睡眠阶段识别模型之前,还包括:
对所述睡眠监测数据进行去噪处理,得到去噪后的睡眠监测数据。
可选的,在本发明第一方面的第二种实现方式中,所述对所述第一生理数据、所述第二生理数据以及所述第三生理数据进行分析处理,得到用户的睡眠监测数据,包括:
若所述第一生理数据大于预设的心率波动阈值,所述第二生理数据大于预设的眼动频率阈值,以及所述第三生理数据大于预设的翻动频率阈值,则确定用户的睡眠状态为第一睡眠预测结果;
若所述第一生理数据小于预设的心率波动阈值,所述第二生理数据小于预设的眼动频率阈值,以及所述第三生理数据小于预设的翻动频率阈值,则确定用户的睡眠状态为第二睡眠预测结果;
对所述第一睡眠预测结果或第二睡眠预测结果进行分析,得到用户的睡眠监测数据。
可选的,在本发明第一方面的第三种实现方式中,所述睡眠阶段识别模型的构建过程,包括:
获取机器学习分类器的离散参数取值集合;其中,所述离散参数取值集合至少包括神经网络的深度、激活函数类型、学习率参数;
根据所述离散参数取值集合中的第一参数取值和第一样本集,训练与第一参数取值和第一样本集对应的第一睡眠阶段识别模型,并逐一计算所述第一睡眠阶段识别模型的识别正确率;
根据计算得到的各个识别正确率,选取出最高的识别正确率,得到第一识别正确率,并记录所述第一识别正确率对应的参数取值和样本集,得到第一最优参数取值和第一最优样本集,基于所述第一最优参数取值和所述第一最优样本集,构建第二睡眠阶段识别模型;
基于所述第一最优参数取值和所述第一最优样本集,设定一个离散参数取值扩展集合;
根据所述离散参数取值扩展集合中的第二参数取值和第二样本集,训练第二睡眠阶段识别模型,并逐一计算所述第二睡眠阶段识别模型的识别正确率;
从计算得到的所述第二睡眠阶段识别模型的识别正确率中选取最高的识别正确率,得到第二识别正确率,记录所述第二识别正确率对应的参数取值和样本集,得到第二最优参数取值和第二最优样本集;
根据记录的所述第二最优参数取值和所述第二最优样本集,构建得到最终的睡眠阶段识别模型。
可选的,在本发明第一方面的第四种实现方式中,所述基于预设的情绪分析算法,对用户当前的情绪进行分析,得到用户的情绪状态,包括:
采集用户的待测面部图像,基于预设的人脸识别算法处理待测面部图像,对待测面部图像进行人脸区域识别和标注,得到标注后的待测人脸图像;
基于人脸分析模型,对标注后的待测人脸图像进行情感预测分析,获取每个面部区域对应的情绪信息;其中,所述人脸分析模型为基于预设的卷积神经网络进行深度学习,并训练所述卷积神经网络在预设的面部图像库中进行多维度的面部分析任务得到;
根据所述情绪信息对用户当前的情绪进行分析,得到用户的情绪状态。
可选的,在本发明第一方面的第五种实现方式中,所述人脸分析模型,包括:第一特征映射结构层、第二特征映射结构层以及第三特征映射结构层;
所述第一特征映射结构层用于提取各个面部部位的特征值,第一特征映射结构层的输出层输出面部部位特征值;
在第一特征映射结构层,添加子行为特征映射结构层,生成第二特征映射结构层;其中,所述子行为特征映射结构层为用于对不同的面部动作进行学习和特征提取的神经网络结构;
基于评价分值和唤起程度选择第二特征映射结构层,加入预定义的子情绪特征映射结构层至选定的第二特征映射结构层的输出层,学习形成第三层特征映射结构;其中,所述评价分值为衡量情绪正负向性的标准,所述唤起程度为情绪的活跃度。
可选的,在本发明第一方面的第六种实现方式中,所述结合用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态,自动调节音乐的音量、播放时长以及音乐元素,包括:
通过预设的网络搜寻算法获取多个用户在各个睡眠阶段所播放的音乐种类及所播放音乐的音量级别,构建经过预处理的数据集;
跟踪用户的深度睡眠周期,记录每次从第一睡眠预测结果过渡到第二睡眠预测结果时,播放的音乐类型及对应音量,计算预测结果变化前后音乐类型的差异和音量的差异,得到音乐类型数据和音量数据;
基于预设的机器学习算法,对收集的音乐类型数据和音量数据进行分析,构建多维数据样本集;其中,所述多维数据样本集包括用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态;
基于所述多维数据样本集自适应调整用户的音乐播放类型、音量以及播放时长。
本发明第二方面提供了一种基于睡眠监测的音乐辅助睡眠装置,所述基于睡眠监测的音乐辅助睡眠装置包括:
获取模块,用于获取用户的心率数据,并通过预设的第一计算算法确定用户当前心率的最小值作为第一生理数据;获取用户的眼部运动参数,并通过预设的第二计算算法确定用户当前眼部转动数据中相邻两次眼球转动之间的时间间隔,得到第二生理数据;获取用户的体动信号,并通过预设的第三计算算法确定用户当前身体的翻动数据,将所述翻动数据的频率最小值作为第三生理数据;
处理模块,用于对所述第一生理数据、所述第二生理数据以及所述第三生理数据进行分析处理,得到用户的睡眠监测数据;
识别模块,用于将所述睡眠监测数据输入至训练后的睡眠阶段识别模型中进行识别,得到用户的当前睡眠阶段;其中,所述睡眠阶段识别模型经过提前训练得到;
调节模块,用于基于预设的情绪分析算法,对用户当前的情绪进行分析,得到用户的情绪状态,结合用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态,自动调节音乐的音量、播放时长以及音乐元素;其中,在预设的音乐播放器中存储有用户播放音乐的历史记录以及用户的个人音乐偏好。
本发明第三方面提供了一种基于睡眠监测的音乐辅助睡眠设备,包括:存储器和至少一个处理器,所述存储器中存储有指令;所述至少一个处理器调用所述存储器中的所述指令,以使得所述基于睡眠监测的音乐辅助睡眠设备执行上述的基于睡眠监测的音乐辅助睡眠方法。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的基于睡眠监测的音乐辅助睡眠方法。
本发明提供的技术方案中,有益效果:本发明提供的一种基于睡眠监测的音乐辅助睡眠方法、装置、设备,通过获取用户的心率数据,并通过预设的第一计算算法确定用户当前心率的最小值作为第一生理数据;获取用户的眼部运动参数,并通过预设的第二计算算法确定用户当前眼部转动数据中相邻两次眼球转动之间的时间间隔,得到第二生理数据;获取用户的体动信号,并通过预设的第三计算算法确定用户当前身体的翻动数据,将所述翻动数据的频率最小值作为第三生理数据;以及对所述第一生理数据、所述第二生理数据以及所述第三生理数据进行分析处理,得到用户的睡眠监测数据;将所述睡眠监测数据输入至训练后的睡眠阶段识别模型中进行识别,得到用户的当前睡眠阶段;基于预设的情绪分析算法,对用户当前的情绪进行分析,得到用户的情绪状态,结合用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态,自动调节音乐的音量、播放时长以及音乐元素。本发明根据用户的当前睡眠阶段和情绪状态,通过调整音乐的播放参数,可以创建满足个性化需求的睡眠环境。并且可以记录用户的音乐偏好和播放历史,不断优化音乐推荐,提升用户的睡眠体验。
附图说明
图1为本发明实施例中基于睡眠监测的音乐辅助睡眠方法的一个实施例示意图;
图2为本发明实施例中基于睡眠监测的音乐辅助睡眠装置的一个实施例示意图。
具体实施方式
本发明实施例提供了一种基于睡眠监测的音乐辅助睡眠方法、装置、设备。本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中基于睡眠监测的音乐辅助睡眠方法的一个实施例包括:
步骤101、获取用户的心率数据,并通过预设的第一计算算法确定用户当前心率的最小值作为第一生理数据;获取用户的眼部运动参数,并通过预设的第二计算算法确定用户当前眼部转动数据中相邻两次眼球转动之间的时间间隔,得到第二生理数据;获取用户的体动信号,并通过预设的第三计算算法确定用户当前身体的翻动数据,将所述翻动数据的频率最小值作为第三生理数据;
可以理解的是,本发明的执行主体可以为基于睡眠监测的音乐辅助睡眠装置,还可以是终端或者服务器,具体此处不做限定。本发明实施例以服务器为执行主体为例进行说明。
具体的,以下是对上述步骤的详细解释:
获取心率数据和计算第一生理数据:
用户的心率数据通过心率监测设备(例如心率计或穿戴设备等)获取。这个过程中的第一计算算法是最小值算法,其目标是找出一段时间内(例如一分钟、五分钟等)用户心率的最小值。这个最小值就是第一生理数据,第一生理数据反映了用户的最低心跳频率,同时反映了用户的身体状态和心脏压力。
获取眼部运动参数和计算第二生理数据:
眼部运动参数主要涉及眼球旋转的相关数据,这些数据通过眼动仪等设备获取,这些设备能够监测眼球的运动,如快速眼动、慢速眼动等。第二计算算法是一个时间差异算法,时间差异算法是计算相邻两次眼球转动之间的时间间隔,得到的这个时间间隔就是第二生理数据,进一步指用户的眼部活动频率,它反映了用户的视觉注意力和眼部疲劳程度。
获取体动信号和计算第三生理数据:
体动信号通常通过身体活动监测设备(例如运动手环,智能床垫等)获取,这些设备可以检测用户的身体位移和翻滚等情况。在处理这些体动信号时,我们使用的第三计算算法是频率最小值算法,频率最小值算法是计算用户的体动数据(如翻滚次数或位移距离等)在一个给定时间段内(如一分钟、五分钟等)的频率最小值,这就是第三生理数据。用户的体动频率最小值可反映用户的身体活动水平,和神经肌肉系统的状况有关。
步骤102、对所述第一生理数据、所述第二生理数据以及所述第三生理数据进行分析处理,得到用户的睡眠监测数据;
具体的,以下是对上述步骤的详细解释:
上述第一生理数据、第二生理数据、第三生理数据与人的睡眠状态有关。因此,通过分析这些数据可以推测出用户的睡眠状况。
分析第一生理数据(心率最小值):人在深度睡眠期间,心率通常会降低。因此,通过分析用户的心率最小值估计用户是否进入了深度睡眠阶段。例如,如果用户的心率最小值低于其正常范围内的一定阈值,可以推测用户可能正在经历深度睡眠。
分析第二生理数据(眼部转动时间间隔):眼部转动时间间隔的变化可以反映REM(快速眼动)和NREM(非快速眼动)两种睡眠状态的转换。在REM睡眠阶段,眼球会频繁转动,因此眼部转动时间间隔较短;而在NREM睡眠阶段,眼球的转动就会减少,眼部转动时间间隔就会变长。通过分析眼部转动时间间隔的变化可以估计用户的睡眠阶段。
分析第三生理数据(体动频率最小值):人在睡眠过程中,身体的移动和翻滚次数会反映睡眠质量。较高的体动频率可能意味着睡眠质量相对较差,反之则可能指示睡眠质量较好。因此,通过分析用户的体动频率最小值可以获得对用户睡眠质量的情况。
步骤103、将所述睡眠监测数据输入至训练后的睡眠阶段识别模型中进行识别,得到用户的当前睡眠阶段;其中,所述睡眠阶段识别模型经过提前训练得到;
具体的,以下是对上述步骤的详细解释:
睡眠阶段识别模型是一个经过事先训练的模型,睡眠阶段识别模型用于根据输入的特征(睡眠监测数据)来预测用户当前的睡眠阶段。训练数据包括各种睡眠阶段对应的生理数据和相应的睡眠阶段标签(例如,深度睡眠、浅睡、REM睡眠等)。
得到的睡眠监测数据作为睡眠阶段识别模型的输入,得到用户的当前睡眠阶段。例如,睡眠阶段识别模型输出最有可能的睡眠阶段(如“深度睡眠”),或者给出用户处于各个睡眠阶段的可能性(如深度睡眠:60%,REM睡眠:20%,浅睡:20%)。
步骤104、基于预设的情绪分析算法,对用户当前的情绪进行分析,得到用户的情绪状态,结合用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态,自动调节音乐的音量、播放时长以及音乐元素;其中,在预设的音乐播放器中存储有用户播放音乐的历史记录以及用户的个人音乐偏好。
具体的,以下是对上述步骤的详细解释:
基于预设的情绪分析算法,对用户当前的情绪进行分析,得到用户的情绪状态:
这个步骤中,预设的情绪分析算法涉及到对用户的语音、面部表情、文字交互等方面的分析。例如,使用自然语言处理技术分析用户的文字或语音,通过情感分析检测和理解用户的情绪。情绪分析算法的输出是一个或多个的情绪标签(如“快乐”,“悲伤”,“愤怒”,“中性”等)。
结合用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态,自动调节音乐的音量、播放时长以及音乐元素:
在这个步骤中,预先得到用户的睡眠阶段、情绪状态以及个人音乐偏好。接下来,这些数据会被用来决定音乐的播放特性有如何调整。比如,当用户处于深度睡眠阶段,并且在情绪平稳的状态下,根据用户的个人音乐偏好(例如偏爱柔和的钢琴曲),系统可能会播放一段音量较低、持续时间适中、含有柔和钢琴音乐元素的音乐。
在预设的音乐播放器中存储有用户播放音乐的历史记录以及用户的个人音乐偏好:
音乐播放器不仅能播放音乐,还在其服务器或在本地存储了用户过去播放音乐的历史数据和用户个人的音乐偏好。以此来记录用户的音乐口味和习惯。这样,根据用户过去的行为,为用户提供更加个性化的音乐体验。
本发明实施例中,有益效果:本发明实施例提供的一种基于睡眠监测的音乐辅助睡眠方法,通过获取用户的心率数据,并通过预设的第一计算算法确定用户当前心率的最小值作为第一生理数据;获取用户的眼部运动参数,并通过预设的第二计算算法确定用户当前眼部转动数据中相邻两次眼球转动之间的时间间隔,得到第二生理数据;获取用户的体动信号,并通过预设的第三计算算法确定用户当前身体的翻动数据,将所述翻动数据的频率最小值作为第三生理数据;以及对所述第一生理数据、所述第二生理数据以及所述第三生理数据进行分析处理,得到用户的睡眠监测数据;将所述睡眠监测数据输入至训练后的睡眠阶段识别模型中进行识别,得到用户的当前睡眠阶段;基于预设的情绪分析算法,对用户当前的情绪进行分析,得到用户的情绪状态,结合用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态,自动调节音乐的音量、播放时长以及音乐元素。本发明根据用户的当前睡眠阶段和情绪状态,通过调整音乐的播放参数,可以创建满足个性化需求的睡眠环境。并且可以记录用户的音乐偏好和播放历史,不断优化音乐推荐,提升用户的睡眠体验。
本发明实施例中基于睡眠监测的音乐辅助睡眠方法的另一个实施例包括:
所述睡眠监测数据输入至训练后的睡眠阶段识别模型之前,还包括:
对所述睡眠监测数据进行去噪处理,得到去噪后的睡眠监测数据。
本发明实施例中基于睡眠监测的音乐辅助睡眠方法的另一个实施例包括:
所述对所述第一生理数据、所述第二生理数据以及所述第三生理数据进行分析处理,得到用户的睡眠监测数据,包括:
若所述第一生理数据大于预设的心率波动阈值,所述第二生理数据大于预设的眼动频率阈值,以及所述第三生理数据大于预设的翻动频率阈值,则确定用户的睡眠状态为第一睡眠预测结果;
若所述第一生理数据小于预设的心率波动阈值,所述第二生理数据小于预设的眼动频率阈值,以及所述第三生理数据小于预设的翻动频率阈值,则确定用户的睡眠状态为第二睡眠预测结果;
对所述第一睡眠预测结果或第二睡眠预测结果进行分析,得到用户的睡眠监测数据。
具体的,以下是本实施例的进一步说明:
首先,若生理数据大于预设阈值:第一生理数据大于预设的心率波动阈值,第二生理数据(眼动频率数据)大于预设眼动阈值,以及第三生理数据(体动频率数据)大于预设的体动阈值,此时我们可以初步判断用户的睡眠状态第一睡眠预测结果。第一预测结果包括一种具有高心率、频繁眼动和身体翻转的睡眠状态,如浅睡期或睡眠障碍。
若生理数据小于预设阈值:若第一生理数据(心率数据)小于预设的心率波动阈值,第二生理数据(眼动频率数据)小于预设眼动阈值,以及第三生理数据(体动频率数据)小于预设的体动阈值,此时初步判断用户的睡眠状态为第二睡眠预测结果。第二预测结果包括一种具有低心率、稀少眼动和少量体动的睡眠状态,如深度睡眠期。
最后,通过对第一睡眠预测结果或第二睡眠预测结果进行分析(涉及到更深度的数据处理,比如时间序列分析、趋势抓取等),最终得到用户的睡眠监测数据。所述睡眠监测数据不仅包含了用户的当前睡眠阶段(如深度睡眠、浅睡眠),还包括趋势信息,比如用户的深度睡眠时间有没有增加、浅睡眠是否有所减少。
本发明实施例中基于睡眠监测的音乐辅助睡眠方法的另一个实施例包括:
所述睡眠阶段识别模型的构建过程,包括:
获取机器学习分类器的离散参数取值集合;其中,所述离散参数取值集合至少包括神经网络的深度、激活函数类型、学习率参数;
根据所述离散参数取值集合中的第一参数取值和第一样本集,训练与第一参数取值和第一样本集对应的第一睡眠阶段识别模型,并逐一计算所述第一睡眠阶段识别模型的识别正确率;
根据计算得到的各个识别正确率,选取出最高的识别正确率,得到第一识别正确率,并记录所述第一识别正确率对应的参数取值和样本集,得到第一最优参数取值和第一最优样本集,基于所述第一最优参数取值和所述第一最优样本集,构建第二睡眠阶段识别模型;
基于所述第一最优参数取值和所述第一最优样本集,设定一个离散参数取值扩展集合;
根据所述离散参数取值扩展集合中的第二参数取值和第二样本集,训练第二睡眠阶段识别模型,并逐一计算所述第二睡眠阶段识别模型的识别正确率;
从计算得到的所述第二睡眠阶段识别模型的识别正确率中选取最高的识别正确率,得到第二识别正确率,记录所述第二识别正确率对应的参数取值和样本集,得到第二最优参数取值和第二最优样本集;
根据记录的所述第二最优参数取值和所述第二最优样本集,构建得到最终的睡眠阶段识别模型。
本发明实施例中,有益效果:本发明实施例通过不断调整参数,训练和测试新的模型,找到最合适的参数和样本集,保证了模型在预测用户睡眠阶段时能有最高的准确性。
本发明实施例中基于睡眠监测的音乐辅助睡眠方法的另一个实施例包括:
所述基于预设的情绪分析算法,对用户当前的情绪进行分析,得到用户的情绪状态,包括:
采集用户的待测面部图像,基于预设的人脸识别算法处理待测面部图像,对待测面部图像进行人脸区域识别和标注,得到标注后的待测人脸图像;
基于人脸分析模型,对标注后的待测人脸图像进行情感预测分析,获取每个面部区域对应的情绪信息;其中,所述人脸分析模型为基于预设的卷积神经网络进行深度学习,并训练所述卷积神经网络在预设的面部图像库中进行多维度的面部分析任务得到;
根据所述情绪信息对用户当前的情绪进行分析,得到用户的情绪状态。
具体的,以下是本实施例的进一步说明:
本发明实施例主要分析用户当前的面部表情,以获取用户的情绪状态。下面是详细解释这个过程:
采集用户面部图像和预处理:
首先,捕获用户的面部图像。这张面部图像将作为情绪分析的输入。然后,在这张图像上进行人脸识别,这一步主要是确定人脸位于图像的哪个位置,同时标注出一系列的关键点,例如眼睛、鼻子、嘴巴等位置。这是通过预设的人脸识别算法实现的。
情绪预测分析:
接下来,通过卷积神经网络的模型来分析标注后的人脸图像。这个网络已经通过在大量的面部图像库上训练得到,可以执行高级的面部图像分析。在这里,对图像中的每个面部区域进行情感预测,例如:眼睛是否看起来紧张,嘴巴是否看起来忧郁或者快乐等。
情绪状态的确定:
模型分析后,进一步分析得到每个面部区域的情绪信息,这里的情绪信息可以是一组数值或者概率,反映出各种情绪可能的强度。然后,我们会利用这个信息来确定用户的当前情绪状态。例如,如果大部分区域都显示出积极的情绪信息,则认为用户当前的情绪状态是快乐的。
本发明实施例中,有益效果:本发明实施例通过创造一个基于图像的情绪识别方式,与传统的文本或声音的情绪分析相比,它可以直接从用户的面部表情获取情绪信息,更加直接和准确。
本发明实施例中基于睡眠监测的音乐辅助睡眠方法的另一个实施例包括:
所述人脸分析模型,包括:第一特征映射结构层、第二特征映射结构层以及第三特征映射结构层;
所述第一特征映射结构层用于提取各个面部部位的特征值,第一特征映射结构层的输出层输出面部部位特征值;
在第一特征映射结构层,添加子行为特征映射结构层,生成第二特征映射结构层;其中,所述子行为特征映射结构层为用于对不同的面部动作进行学习和特征提取的神经网络结构;
基于评价分值和唤起程度选择第二特征映射结构层,加入预定义的子情绪特征映射结构层至选定的第二特征映射结构层的输出层,学习形成第三层特征映射结构;其中,所述评价分值为衡量情绪正负向性的标准,所述唤起程度为情绪的活跃度。
具体的,以下是本发明实施例的进一步说明:
第一特征映射结构层:
这一层主要负责面部部位的特征提取,分别识别人脸图片中关键的面部部位(例如眼睛、鼻子、嘴巴等),并提取它们各自独特的信息或特征值。这些特征值可以是一组数值,反映出各个部位在图像中的属性或者状态,例如形状、位置、颜色等。
第二特征映射结构层:
在第一特征映射结构层的基础上,再添加一个子行为特征映射结构层。这个子行为特征映射结构层的目的是学习并提取面部动作的特征。面部动作可以是脸部肌肉的微小变化,例如眼睛是否皱眉,嘴巴是否微笑等。这些动作在情绪分析中非常重要,因为它们通常是情绪的直接反映。
第三特征映射结构层:
在选定第二特征映射结构层的基础上,加入一个预定义的子情绪特征映射结构层。这个子情绪特征映射结构层的重要性在于,它能够通过对面部动作特征的高级理解,预测出其对应的情绪。例如,如果一个用户露出微笑,那么这一层可能会识别出他的情绪是开心的。在这一层,依据评价分值和唤起程度标准选择模型,其中评价分值用于衡量情绪的正负向性,如快乐或悲伤,而唤起程度则是对情绪活跃度的度量,如激动或平静。
本发明实施例中,有益效果:本发明实施例通过层层递进的特征学习和提取:从简单的面部部位到复杂的面部动作,最后到情绪预测,使得对情绪的判断更加准确和细致。
本发明实施例中基于睡眠监测的音乐辅助睡眠方法的另一个实施例包括:
所述结合用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态,自动调节音乐的音量、播放时长以及音乐元素,包括:
通过预设的网络搜寻算法获取多个用户在各个睡眠阶段所播放的音乐种类及所播放音乐的音量级别,构建经过预处理的数据集;
跟踪用户的深度睡眠周期,记录每次从第一睡眠预测结果过渡到第二睡眠预测结果时,播放的音乐类型及对应音量,计算预测结果变化前后音乐类型的差异和音量的差异,得到音乐类型数据和音量数据;
基于预设的机器学习算法,对收集的音乐类型数据和音量数据进行分析,构建多维数据样本集;其中,所述多维数据样本集包括用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态;
基于所述多维数据样本集自适应调整用户的音乐播放类型、音量以及播放时长。
本发明实施例中,有益效果:本发明实施例集合了用户的个性化偏好信息(如音乐类型和音量)、生理状态(如睡眠阶段)和心理状态(如情绪)来智能调整播放音乐的参数,以提供更个性化、更舒适的用户体验。
上面对本发明实施例中基于睡眠监测的音乐辅助睡眠方法进行了描述,下面对本发明实施例中基于睡眠监测的音乐辅助睡眠装置进行描述,请参阅图2,本发明实施例中基于睡眠监测的音乐辅助睡眠装置1一个实施例包括:
获取模块11,用于获取用户的心率数据,并通过预设的第一计算算法确定用户当前心率的最小值作为第一生理数据;获取用户的眼部运动参数,并通过预设的第二计算算法确定用户当前眼部转动数据中相邻两次眼球转动之间的时间间隔,得到第二生理数据;获取用户的体动信号,并通过预设的第三计算算法确定用户当前身体的翻动数据,将所述翻动数据的频率最小值作为第三生理数据;
处理模块12,用于对所述第一生理数据、所述第二生理数据以及所述第三生理数据进行分析处理,得到用户的睡眠监测数据;
识别模块13,用于将所述睡眠监测数据输入至训练后的睡眠阶段识别模型中进行识别,得到用户的当前睡眠阶段;其中,所述睡眠阶段识别模型经过提前训练得到;
调节模块14,用于基于预设的情绪分析算法,对用户当前的情绪进行分析,得到用户的情绪状态,结合用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态,自动调节音乐的音量、播放时长以及音乐元素;其中,在预设的音乐播放器中存储有用户播放音乐的历史记录以及用户的个人音乐偏好。
在本实施例中,上述基于睡眠监测的音乐辅助睡眠装置实施例中的各个模块的具体实现,请参照上述基于睡眠监测的音乐辅助睡眠方法实施例中所述,在此不再进行赘述。
本发明还提供一种基于睡眠监测的音乐辅助睡眠设备,所述基于睡眠监测的音乐辅助睡眠设备包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行上述各实施例中的所述基于睡眠监测的音乐辅助睡眠方法的步骤。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述基于睡眠监测的音乐辅助睡眠方法的步骤。
有益效果:本发明提供的一种基于睡眠监测的音乐辅助睡眠方法、装置、设备,通过获取用户的心率数据,并通过预设的第一计算算法确定用户当前心率的最小值作为第一生理数据;获取用户的眼部运动参数,并通过预设的第二计算算法确定用户当前眼部转动数据中相邻两次眼球转动之间的时间间隔,得到第二生理数据;获取用户的体动信号,并通过预设的第三计算算法确定用户当前身体的翻动数据,将所述翻动数据的频率最小值作为第三生理数据;以及对所述第一生理数据、所述第二生理数据以及所述第三生理数据进行分析处理,得到用户的睡眠监测数据;将所述睡眠监测数据输入至训练后的睡眠阶段识别模型中进行识别,得到用户的当前睡眠阶段;基于预设的情绪分析算法,对用户当前的情绪进行分析,得到用户的情绪状态,结合用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态,自动调节音乐的音量、播放时长以及音乐元素。本发明根据用户的当前睡眠阶段和情绪状态,通过调整音乐的播放参数,可以创建满足个性化需求的睡眠环境。并且可以记录用户的音乐偏好和播放历史,不断优化音乐推荐,提升用户的睡眠体验。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (8)

1.一种基于睡眠监测的音乐辅助睡眠方法,其特征在于,包括:
获取用户的心率数据,并通过预设的第一计算算法确定用户当前心率的最小值作为第一生理数据;获取用户的眼部运动参数,并通过预设的第二计算算法确定用户当前眼部转动数据中相邻两次眼球转动之间的时间间隔,得到第二生理数据;获取用户的体动信号,并通过预设的第三计算算法确定用户当前身体的翻动数据,将所述翻动数据的频率最小值作为第三生理数据;
对所述第一生理数据、所述第二生理数据以及所述第三生理数据进行分析处理,得到用户的睡眠监测数据;
将所述睡眠监测数据输入至训练后的睡眠阶段识别模型中进行识别,得到用户的当前睡眠阶段;其中,所述睡眠阶段识别模型经过提前训练得到;
基于预设的情绪分析算法,对用户当前的情绪进行分析,得到用户的情绪状态,结合用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态,自动调节音乐的音量、播放时长以及音乐元素;其中,在预设的音乐播放器中存储有用户播放音乐的历史记录以及用户的个人音乐偏好;
所述基于预设的情绪分析算法,对用户当前的情绪进行分析,得到用户的情绪状态,包括:
采集用户的待测面部图像,基于预设的人脸识别算法处理待测面部图像,对待测面部图像进行人脸区域识别和标注,得到标注后的待测人脸图像;
基于人脸分析模型,对标注后的待测人脸图像进行情感预测分析,获取每个面部区域对应的情绪信息;其中,所述人脸分析模型为基于预设的卷积神经网络进行深度学习,并训练所述卷积神经网络在预设的面部图像库中进行多维度的面部分析任务得到;
根据所述情绪信息对用户当前的情绪进行分析,得到用户的情绪状态;
所述人脸分析模型,包括:第一特征映射结构层、第二特征映射结构层以及第三特征映射结构层;
所述第一特征映射结构层用于提取各个面部部位的特征值,第一特征映射结构层的输出层输出面部部位特征值;
在第一特征映射结构层,添加子行为特征映射结构层,生成第二特征映射结构层;其中,所述子行为特征映射结构层为用于对不同的面部动作进行学习和特征提取的神经网络结构;
基于评价分值和唤起程度选择第二特征映射结构层,加入预定义的子情绪特征映射结构层至选定的第二特征映射结构层的输出层,学习形成第三层特征映射结构;其中,所述评价分值为衡量情绪正负向性的标准,所述唤起程度为情绪的活跃度。
2.根据权利要求1所述的方法,其特征在于,所述睡眠监测数据输入至训练后的睡眠阶段识别模型之前,还包括:
对所述睡眠监测数据进行去噪处理,得到去噪后的睡眠监测数据。
3.根据权利要求2所述的方法,其特征在于,所述对所述第一生理数据、所述第二生理数据以及所述第三生理数据进行分析处理,得到用户的睡眠监测数据,包括:
若所述第一生理数据大于预设的心率波动阈值,所述第二生理数据大于预设的眼动频率阈值,以及所述第三生理数据大于预设的翻动频率阈值,则确定用户的睡眠状态为第一睡眠预测结果;
若所述第一生理数据小于预设的心率波动阈值,所述第二生理数据小于预设的眼动频率阈值,以及所述第三生理数据小于预设的翻动频率阈值,则确定用户的睡眠状态为第二睡眠预测结果;
对所述第一睡眠预测结果或第二睡眠预测结果进行分析,得到用户的睡眠监测数据。
4.根据权利要求1所述的方法,其特征在于,所述睡眠阶段识别模型的构建过程,包括:
获取机器学习分类器的离散参数取值集合;其中,所述离散参数取值集合至少包括神经网络的深度、激活函数类型、学习率参数;
根据所述离散参数取值集合中的第一参数取值和第一样本集,训练与第一参数取值和第一样本集对应的第一睡眠阶段识别模型,并逐一计算所述第一睡眠阶段识别模型的识别正确率;
根据计算得到的各个识别正确率,选取出最高的识别正确率,得到第一识别正确率,并记录所述第一识别正确率对应的参数取值和样本集,得到第一最优参数取值和第一最优样本集,基于所述第一最优参数取值和所述第一最优样本集,构建第二睡眠阶段识别模型;
基于所述第一最优参数取值和所述第一最优样本集,设定一个离散参数取值扩展集合;
根据所述离散参数取值扩展集合中的第二参数取值和第二样本集,训练第二睡眠阶段识别模型,并逐一计算所述第二睡眠阶段识别模型的识别正确率;
从计算得到的所述第二睡眠阶段识别模型的识别正确率中选取最高的识别正确率,得到第二识别正确率,记录所述第二识别正确率对应的参数取值和样本集,得到第二最优参数取值和第二最优样本集;
根据记录的所述第二最优参数取值和所述第二最优样本集,构建得到最终的睡眠阶段识别模型。
5.根据权利要求1所述的方法,其特征在于,所述结合用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态,自动调节音乐的音量、播放时长以及音乐元素,包括:
通过预设的网络搜寻算法获取多个用户在各个睡眠阶段所播放的音乐种类及所播放音乐的音量级别,构建经过预处理的数据集;
跟踪用户的深度睡眠周期,记录每次从第一睡眠预测结果过渡到第二睡眠预测结果时,播放的音乐类型及对应音量,计算预测结果变化前后音乐类型的差异和音量的差异,得到音乐类型数据和音量数据;
基于预设的机器学习算法,对收集的音乐类型数据和音量数据进行分析,构建多维数据样本集;其中,所述多维数据样本集包括用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态;
基于所述多维数据样本集自适应调整用户的音乐播放类型、音量以及播放时长。
6.一种基于睡眠监测的音乐辅助睡眠装置,其特征在于,所述基于睡眠监测的音乐辅助睡眠装置包括:
获取模块,用于获取用户的心率数据,并通过预设的第一计算算法确定用户当前心率的最小值作为第一生理数据;获取用户的眼部运动参数,并通过预设的第二计算算法确定用户当前眼部转动数据中相邻两次眼球转动之间的时间间隔,得到第二生理数据;获取用户的体动信号,并通过预设的第三计算算法确定用户当前身体的翻动数据,将所述翻动数据的频率最小值作为第三生理数据;
处理模块,用于对所述第一生理数据、所述第二生理数据以及所述第三生理数据进行分析处理,得到用户的睡眠监测数据;
识别模块,用于将所述睡眠监测数据输入至训练后的睡眠阶段识别模型中进行识别,得到用户的当前睡眠阶段;其中,所述睡眠阶段识别模型经过提前训练得到;
调节模块,用于基于预设的情绪分析算法,对用户当前的情绪进行分析,得到用户的情绪状态,结合用户的当前睡眠阶段、用户的个人音乐偏好以及用户的情绪状态,自动调节音乐的音量、播放时长以及音乐元素;其中,在预设的音乐播放器中存储有用户播放音乐的历史记录以及用户的个人音乐偏好
所述调节模块,具体用于:
采集用户的待测面部图像,基于预设的人脸识别算法处理待测面部图像,对待测面部图像进行人脸区域识别和标注,得到标注后的待测人脸图像;
基于人脸分析模型,对标注后的待测人脸图像进行情感预测分析,获取每个面部区域对应的情绪信息;其中,所述人脸分析模型为基于预设的卷积神经网络进行深度学习,并训练所述卷积神经网络在预设的面部图像库中进行多维度的面部分析任务得到;
根据所述情绪信息对用户当前的情绪进行分析,得到用户的情绪状态;
所述人脸分析模型,包括:第一特征映射结构层、第二特征映射结构层以及第三特征映射结构层;
所述第一特征映射结构层用于提取各个面部部位的特征值,第一特征映射结构层的输出层输出面部部位特征值;
在第一特征映射结构层,添加子行为特征映射结构层,生成第二特征映射结构层;其中,所述子行为特征映射结构层为用于对不同的面部动作进行学习和特征提取的神经网络结构;
基于评价分值和唤起程度选择第二特征映射结构层,加入预定义的子情绪特征映射结构层至选定的第二特征映射结构层的输出层,学习形成第三层特征映射结构;其中,所述评价分值为衡量情绪正负向性的标准,所述唤起程度为情绪的活跃度。
7.一种基于睡眠监测的音乐辅助睡眠设备,其特征在于,所述基于睡眠监测的音乐辅助睡眠设备包括:存储器和至少一个处理器,所述存储器中存储有指令;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述基于睡眠监测的音乐辅助睡眠设备执行如权利要求1-5中任一项所述的基于睡眠监测的音乐辅助睡眠方法。
8.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现如权利要求1-5中任一项所述的基于睡眠监测的音乐辅助睡眠方法。
CN202311059512.0A 2023-08-22 2023-08-22 基于睡眠监测的音乐辅助睡眠方法、装置、设备 Active CN116803337B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311059512.0A CN116803337B (zh) 2023-08-22 2023-08-22 基于睡眠监测的音乐辅助睡眠方法、装置、设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311059512.0A CN116803337B (zh) 2023-08-22 2023-08-22 基于睡眠监测的音乐辅助睡眠方法、装置、设备

Publications (2)

Publication Number Publication Date
CN116803337A CN116803337A (zh) 2023-09-26
CN116803337B true CN116803337B (zh) 2023-11-07

Family

ID=88079687

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311059512.0A Active CN116803337B (zh) 2023-08-22 2023-08-22 基于睡眠监测的音乐辅助睡眠方法、装置、设备

Country Status (1)

Country Link
CN (1) CN116803337B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116991982B (zh) * 2023-09-27 2024-02-09 深圳市天富利信息技术有限公司 基于人工智能的交互式对话方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108310587A (zh) * 2018-02-02 2018-07-24 贺鹏程 一种睡眠控制装置与方法
CN115171850A (zh) * 2022-09-07 2022-10-11 深圳市心流科技有限公司 一种睡眠方案生成方法、装置、终端设备及存储介质
CN116474239A (zh) * 2023-05-30 2023-07-25 沧州志鹏聚氨酯制品有限公司 一种高效反馈调节睡眠脑电波音乐头枕
CN116541103A (zh) * 2023-07-04 2023-08-04 深圳市爱保护科技有限公司 基于睡眠监测的音乐控制方法、系统及智能手表

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108310587A (zh) * 2018-02-02 2018-07-24 贺鹏程 一种睡眠控制装置与方法
CN115171850A (zh) * 2022-09-07 2022-10-11 深圳市心流科技有限公司 一种睡眠方案生成方法、装置、终端设备及存储介质
CN116474239A (zh) * 2023-05-30 2023-07-25 沧州志鹏聚氨酯制品有限公司 一种高效反馈调节睡眠脑电波音乐头枕
CN116541103A (zh) * 2023-07-04 2023-08-04 深圳市爱保护科技有限公司 基于睡眠监测的音乐控制方法、系统及智能手表

Also Published As

Publication number Publication date
CN116803337A (zh) 2023-09-26

Similar Documents

Publication Publication Date Title
Song et al. Spectral representation of behaviour primitives for depression analysis
US11468288B2 (en) Method of and system for evaluating consumption of visual information displayed to a user by analyzing user's eye tracking and bioresponse data
CN108197115A (zh) 智能交互方法、装置、计算机设备和计算机可读存储介质
Hoogendoorn et al. Machine learning for the quantified self
Janssen et al. Machines outperform laypersons in recognizing emotions elicited by autobiographical recollection
US20230032131A1 (en) Dynamic user response data collection method
CN116803337B (zh) 基于睡眠监测的音乐辅助睡眠方法、装置、设备
CN110085221A (zh) 语音情感交互方法、计算机设备和计算机可读存储介质
CN110085220A (zh) 智能交互装置
Spaulding et al. Frustratingly easy personalization for real-time affect interpretation of facial expression
Magdin et al. The possibilities of classification of emotional states based on user behavioral characteristics
CN112255921B (zh) 一种ar眼镜智能控制系统及方法
Paidja et al. Engagement emotion classification through facial landmark using convolutional neural network
JP2024504097A (ja) スピーチ分析に基づく自動化された生理学的および病理学的評価
Gamage et al. Academic depression detection using behavioral aspects for Sri Lankan university students
CN112507959A (zh) 一种基于视频中个体面部分析的情绪感知模型的建立方法
Panwar et al. Providing contextual assistance in response to frustration in visual analytics tasks
Whang et al. A physiological approach to affective computing
Pan et al. Video-Based Engagement Estimation of Game Streamers: An Interpretable Multimodal Neural Network Approach
CN117539356B (zh) 一种基于冥想的交互式用户情绪感知方法及系统
Cang et al. FEELing (key) Pressed: Implicit Touch Pressure Bests Brain Activity in Modelling Emotion Dynamics in the Space Between Stressed and Relaxed
Fu et al. Audio signal-based depression level prediction combining temporal and spectral features
Kindra et al. Song Recommendation Using Computational Techniques Based on Mood Detection
Martínez Advancing Affect Modeling via Preference Learning and Unsupervised Feature Extraction
Rozhevskii et al. Psychologically-Inspired Music Recommendation System

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant