CN117942077A - 基于智能穿戴设备的人体情绪值计算方法及相关设备 - Google Patents
基于智能穿戴设备的人体情绪值计算方法及相关设备 Download PDFInfo
- Publication number
- CN117942077A CN117942077A CN202410194140.0A CN202410194140A CN117942077A CN 117942077 A CN117942077 A CN 117942077A CN 202410194140 A CN202410194140 A CN 202410194140A CN 117942077 A CN117942077 A CN 117942077A
- Authority
- CN
- China
- Prior art keywords
- emotion value
- emotion
- wearable device
- activity
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 399
- 238000004364 calculation method Methods 0.000 title claims abstract description 70
- 230000000694 effects Effects 0.000 claims abstract description 207
- 230000001815 facial effect Effects 0.000 claims abstract description 89
- 238000000034 method Methods 0.000 claims abstract description 22
- 238000012937 correction Methods 0.000 claims description 24
- 230000036651 mood Effects 0.000 claims description 16
- 238000013507 mapping Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 12
- 238000004891 communication Methods 0.000 claims description 4
- 238000007405 data analysis Methods 0.000 claims description 4
- 230000002996 emotional effect Effects 0.000 description 16
- 238000010606 normalization Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 13
- 230000000284 resting effect Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 9
- 238000012549 training Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 6
- 238000011161 development Methods 0.000 description 5
- 208000019901 Anxiety disease Diseases 0.000 description 4
- 230000036506 anxiety Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 206010063659 Aversion Diseases 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 230000035565 breathing frequency Effects 0.000 description 2
- 230000009194 climbing Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000035487 diastolic blood pressure Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000001121 heart beat frequency Effects 0.000 description 2
- 230000035488 systolic blood pressure Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 206010013954 Dysphoria Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请涉及智能穿戴设备技术领域,提供了一种基于智能穿戴设备的人体情绪值计算方法及相关设备。通过获取用户当前所处环境的视频数据得到活动状态类型及面部微表情,再获取用户处于活动状态类型下每个传感器采集的第一生理参数,从而基于活动状态类型自适应的确定每个第一生理参数的重要程度,基于多个第一生理参数及每个第一生理参数对应的重要程度,计算得到初始情绪值,最后基于面部微表情对初始情绪值进行校正,得到活动情绪值。本申请通过分析视频数据得到活动状态类型及面部微表情,结合活动状态类型、生理参数及面部微表情实现自适应的计算活动情绪值,活动情绪值的计算与活动状态及面部微表情进行了关联,提高了计算情绪值的准确度。
Description
技术领域
本申请涉及智能穿戴设备技术领域,尤其是涉及一种基于智能穿戴设备的人体情绪值计算方法及相关设备。
背景技术
随着社会的发展,现代人的生活压力也越来越大,而人们的情绪也常常会因为外在环境或自身身体健康状况等因素出现起伏变化,例如由于工作压力过大而出现的焦躁不安,或者由于突发事件出现的精神亢奋等,长期的情绪不稳定会严重影响人的正常身体健康。
现有市场上的智能穿戴设备,例如智能手环和智能手表等被广泛应用于人们的生活,通过各种传感器来检测用户的生理参数,从而基于生理参数得到用户的情绪值,但是现有的情绪值的计算没有与用户进行的活动相关联,因而导致情绪值的计算准确度较低。
发明内容
有鉴于此,本申请提供一种基于智能穿戴设备的人体情绪值计算方法及相关设备,以解决现有的智能穿戴设备计算人体情绪值准确度较低的技术问题。
本申请的第一方面提供一种基于智能穿戴设备的人体情绪值计算方法,所述智能穿戴设备中设置有多个传感器,所述方法包括:
获取用户当前所处环境的视频数据,并根据所述视频数据确定活动状态类型及面部微表情;
获取所述用户处于所述活动状态类型下每个所述传感器采集的第一生理参数;
基于所述活动状态类型确定每个所述第一生理参数的重要程度;
基于多个所述第一生理参数及每个所述第一生理参数对应的所述重要程度,计算得到初始情绪值;
基于所述面部微表情对所述初始情绪值进行校正,得到活动情绪值。
在一种可能的实施方式中,所述基于所述面部微表情对所述初始情绪值进行校正,得到活动情绪值包括:
将所述面部微表情与预设情绪类型映射表进行匹配,得到所述面部微表情对应的情绪类型;
将所述活动情绪值及安静情绪值进行比较,得到比较结果;
根据所述比较结果确定所述活动状态类型对所述用户的情绪影响类型;
基于所述情绪类型及所述情绪影响类型确定校正因子;
基于所述校正因子对所述初始情绪值进行校正,得到所述活动情绪值。
在一种可能的实施方式中,所述安静情绪值通过如下方式计算得到:
获取所述用户处于安静状态下的每个所述传感器采集的第二生理参数;
根据多个所述第二生理参数及每个所述第二生理参数对应的预设重要程度,计算得到所述安静情绪值。
在一种可能的实施方式中,所述方法还包括:
建立与目标智能穿戴设备的连接;
获取所述目标智能穿戴设备在指定时间段内的目标安静情绪值、多个目标活动状态类型及每个所述目标活动状态类型对应的目标活动情绪值;
基于所述目标安静情绪值、所述多个目标活动状态类型及每个所述目标活动状态类型对应的目标活动情绪值,及所述用户在所述指定时间段内的安静情绪值、多个活动状态类型及每个所述活动状态类型对应的活动情绪值,判断所述智能穿戴设备与所述目标智能穿戴设备是否匹配;
若确定所述智能穿戴设备与所述目标智能穿戴设备匹配,则将所述目标智能穿戴设备对应的用户加入所述用户的好友列表;
若确定所述智能穿戴设备与所述目标智能穿戴设备不匹配,则断开所述智能穿戴设备与所述目标智能穿戴设备的连接。
在一种可能的实施方式中,所述根据所述视频数据确定活动状态类型及面部微表情包括:
将所述视频数据发送给与所述智能穿戴设备对应的云服务器;
接收所述云服务器反馈的基于所述视频数据分析得到的活动状态类型及面部微表情。
在一种可能的实施方式中,所述基于多个所述第一生理参数及每个所述第一生理参数对应的所述重要程度,计算得到初始情绪值包括:
将每个所述第一生理参数进行归一化处理,得到归一化生理参数;
基于每个所述归一化生理参数及对应的所述重要程度,进行加权和计算,得到所述初始情绪值。
在一种可能的实施方式中,所述方法还包括:
基于所述活动情绪值及历史活动情绪值生成活动情绪趋势图;
显示所述活动情绪趋势图。
本申请的第二方面提供一种基于智能穿戴设备的人体情绪值计算装置,所述装置包括:
用户状态获取模块,用于获取用户当前所处环境的视频数据,并根据所述视频数据确定活动状态类型及面部微表情;
生理参数获取模块,用于获取所述用户处于所述活动状态类型下每个所述传感器采集的第一生理参数;
重要程度计算模块,用于基于所述活动状态类型确定每个所述第一生理参数的重要程度;
初始情绪计算模块,用于基于多个所述第一生理参数及每个所述第一生理参数对应的所述重要程度,计算得到初始情绪值;
活动情绪校正模块,用于基于所述面部微表情对所述初始情绪值进行校正,得到活动情绪值。
本申请的第三方面提供一种智能穿戴设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述的基于智能穿戴设备的人体情绪值计算方法的步骤。
本申请的第四方面提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述的基于智能穿戴设备的人体情绪值计算方法的步骤。
本申请实施例提供的基于智能穿戴设备的人体情绪值计算方法及相关设备,通过获取用户当前所处环境的视频数据,并根据视频数据确定活动状态类型及面部微表情,在获取用户处于活动状态类型下每个传感器采集的第一生理参数,从而基于活动状态类型自适应的确定每个第一生理参数的重要程度,基于多个第一生理参数及每个第一生理参数对应的重要程度,计算得到初始情绪值,最后基于面部微表情对初始情绪值进行校正,得到活动情绪值。本申请通过分析视频数据得到活动状态类型及面部微表情,结合活动状态类型、生理参数及面部微表情实现自适应的计算活动情绪值,活动情绪值的计算与活动状态及面部微表情进行了关联,提高了计算情绪值的准确度。
附图说明
图1是本申请实施例示出的基于智能穿戴设备的人体情绪值计算方法的流程图;
图2是本申请实施例示出的基于智能穿戴设备的人体情绪值计算装置的功能模块图;
图3是本申请实施例示出的智能穿戴设备的结构图。
具体实施方式
本申请以下实施例中所使用的术语只是为了描述特定实施例的目的,而并非旨在作为对本申请的限制。如在本申请的说明书中所使用的那样,单数表达形式“一个”、“一种”、“所述”、“上述”、“该”和“这一”旨在也包括复数表达形式,除非其上下文中明确地有相反指示。还应当理解,本申请中使用的术语“和/或”是指包含一个或多个所列出项目的任何或所有可能组合。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为暗示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征,在本申请实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
本申请实施例提供的基于智能穿戴设备的人体情绪值计算方法由智能穿戴设备执行,相应地,基于智能穿戴设备的人体情绪值计算装置运行于智能穿戴设备中。
图1是本发明实施例一提供的基于智能穿戴设备的人体情绪值计算方法的流程图。所述基于智能穿戴设备的人体情绪值计算方法具体包括以下步骤。
S11,获取用户当前所处环境的视频数据,并根据所述视频数据确定活动状态类型及面部微表情。
可以将智能穿戴设备佩戴在用户身上,从而基于通过智能穿戴设备(例如,智能手表,智能手环等)内置的摄像头收集用户当前所处环境中的视频数据,所述视频数据可以包括用户周围的视觉信息,例如,场景、物体、人物等。分析用户所处环境的视频数据,可以得到用户当前的活动状态类型及面部微表情,例如用户正笑着和朋友一起在郊外骑车,或是一个人板着脸在公园散步。
在一种可能的实施方式中,所述根据所述视频数据确定活动状态类型及面部微表情包括:
将所述视频数据发送给与所述智能穿戴设备对应的云服务器;
接收所述云服务器反馈的基于所述视频数据分析得到的活动状态类型及面部微表情。
用户所佩戴的智能穿戴设备获取到用户所处环境的视频数据后,将所述视频数据传输至云服务器,通过云服务器对所述视频数据进行分析,得到活动状态类型及面部微表情。
云服务器上存储有基于深度学习思想预先训练得到的活动状态类型识别模型及微表情识别算法,当接收到视频数据后,可以使用活动状态类型识别模型对所述视频数据进行分析,得到用户当前的活动状态类型,可以使用微表情识别算法对所述视频数据进行分析,得到用户当前的面部微表情。云服务器将得到的活动状态类型及面部微表情发送至用户所佩戴的智能穿戴设备,便于后续根据用户的活动状态类型及面部微表情计算用户当前的活动情绪值。
其中,活动状态类型包括:跑步、唱歌、听音乐、看电影、聊天、看书、瑜伽、爬山、打球、散步、工作等。
其中,面部微表情包括:高兴、悲伤、愤怒、恐惧、惊讶、思考、仇视和厌恶等。
示例性的,用户佩戴智能手环在家中进行健身训练,智能手环拍摄健身训练的视频数据并上传至云服务器,云服务器基于健身训练的视频数据识别到用户正在健身房的跑步机上跑步,且用户面部微表情为比较痛苦,云服务器将“活动状态类型为跑步、面部微表情为比较痛苦”发送至智能手环。
S12,获取所述用户处于所述活动状态类型下每个传感器采集的第一生理参数。
智能穿戴设备中设置有多个传感器,通过多个传感器采集用户的各种生理参数。例如通过心率传感器来测量用户的心脏跳动频率;使用血压计传感器来测量用户的收缩压和舒张压;利用皮肤温度传感器来记录用户的皮肤表面温度;通过皮肤电阻传感器来测量皮肤的电导率。
由于情绪状态通常会在生理水平上体现,例如焦虑可能导致心率上升,而放松可能导致皮肤温度升高,因此,可以通过多个传感器获取用户在不同类型的活动状态下的生理参数。为便于下文描述,将用户处于活动状态下传感器采集的生理参数称之为第一生理参数。其中,活动状态是相对于安静状态而言的。
上述可能的实施方式中,通过传感器来收集生理指标数据,可以帮助理解用户的情感状态,在不同类型的活动状态下提供更个性化的支持和反馈。
S13,基于所述活动状态类型确定每个所述第一生理参数的重要程度。
第一生理参数的重要程度表示了对应的第一生理参数对于计算活动情绪值的贡献程度,具体体现为所述第一生理参数在活动情绪值的加权计算中的权重。
所述生理参数通常与情绪有关,在不同类型的活动状态下,即使是同一个生理参数对情绪的反馈也是不同的,例如,在活动状态类型为跑步时,可能心率及呼吸频率对于反馈活动情绪值更为重要。在活动状态类型为看电影时,可能皮肤表面温度及电导率对于反馈活动情绪值更为重要。当某个第一生理参数被认为在当前类型的活动状态下的情感表达中起到更重要的作用时,会被赋予更高的权重。因此,重要程度的分配是一个动态过程。
智能穿戴设备中预先存储有活动状态类型、生理参数及重要程度的映射表,通过映射表确定与活动状态类型对应的多个生理参数及每个生理参数对应的重要程度。
上述可能的实施方式中,基于活动状态类型确定每个第一生理参数的重要程度,将不同生理参数的重要性纳入活动情绪值的计算过程中,可以更准确地识别和量化用户的活动情绪值,提高活动情绪值的计算准确性。
S14,基于多个所述第一生理参数及每个所述第一生理参数对应的所述重要程度,计算得到初始情绪值。
为了确保重要程度的总和是一定的,因此所有第一生理参数的重要程度之和等于1,每个第一生理参数都对初始情绪值的计算有适当的贡献。
基于每个第一生理参数及对应的重要程度计算得到一个乘积,然后将所有乘积相加,得到用户的初始情绪值。使用加权计算的方式,使得更重要的第一生理参数对情绪值的影响更大,而不太重要的第一生理参数对情绪值影响较小。
上述可能的实施方式中,通过综合考虑多个第一生理参数以及第一生理参数对应的重要程度来计算用户的初始情绪值,提高了初始情绪值的计算准确度,从而可以更准确地反映用户的情感状态。
在一种可能的实施方式中,所述基于多个所述第一生理参数及每个所述第一生理参数对应的所述重要程度,计算得到初始情绪值包括:
将每个所述第一生理参数进行归一化处理,得到归一化生理参数;
基于每个所述归一化生理参数及对应的所述重要程度,进行加权和计算,得到初始情绪值。
对所述第一生理参数进行归一化处理,可以采用对数归一,指数归一,三角或反三角函数归一等,所述归一化处理的目的是将各个第一生理参数的原始值进行转换,以确保所有第一生理参数具有统一的量纲,从而具有可比性,便于情绪值的计算。
上述可能的实施方式中,通过对第一生理参数归一化处理,根据不同第一生理参数的重要程度进行加权计算,得出用户的初始情绪值,综合考虑了多种生理参数对情绪的影响以及影响的程度。
S15,基于所述面部微表情对所述初始情绪值进行校正,得到活动情绪值。
面部微表情通常是短暂而微妙的表情变化,可以反映出用户真实的情感状态。为了进一步提高活动情绪值的计算准确度,在基于活动状态类型确定不同的第一生理参数的重要程度,并基于第一生理参数及重要程度计算得到初始情绪值之后,再通过面部微表情对初始情绪值进行校正,从而得到活动情绪值。
在一个可选的实施方式中,所述基于所述面部微表情对所述初始情绪值进行校正,得到活动情绪值包括:
将所述面部微表情与预设情绪类型映射表进行匹配,得到所述面部微表情对应的情绪类型;
将所述活动情绪值及安静情绪值进行比较,得到比较结果;
根据所述比较结果确定所述活动状态类型对所述用户的情绪影响类型;
基于所述情绪类型及所述情绪影响类型确定校正因子;
基于所述校正因子对所述初始情绪值进行校正,得到所述活动情绪值。
其中,安静情绪值通过如下方式得到:获取所述用户处于安静状态下的每个所述传感器采集的第二生理参数;根据多个所述第二生理参数及每个所述第二生理参数对应的预设重要程度,计算得到安静情绪值。
将用户在安静状态下传感器采集的生理参数称之为第二生理参数,所述第二生理参数可以反映用户处于所述安静状态下的情绪状态。将每个所述第二生理参数进行归一化处理,基于每个所述归一化处理后的第二生理参数及对应的预设重要程度计算得到一个乘积,将所有第二生理参数对应的乘积进行加权和计算,得到安静情绪值。对第二生理参数进行归一化处理的过程与对所述第一生理参数进行归一化处理的过程,本申请在此不再赘述。
智能穿戴设备中预先存储有情绪类型映射表,情绪类型映射表中记录了每种面部微表情与情绪类型之间的映射关系,将面部微表情与情绪类型映射表进行匹配,得到所述面部微表情对应的情绪类型,例如,是积极类型还是消极类型。
所述安静情绪值提供有关用户情感状态的定量信息,即后续将所述安静情绪值作为基准,将活动情绪值及安静情绪值进行比较,得到比较结果,当比较结果为初始情绪值大于安静情绪值时,确定该类型下的活动状态对用户的情绪影响为积极影响,当比较结果为活动情绪值小于或等于安静情绪值时,确定该类型下的活动状态对用户的情绪影响为消极影响。例如,可以定义情绪值的取值范围为,0分表示用户处于安静状态时的安静情绪值,情绪值为负分表示消极情绪,情绪值为正分表示积极情绪。
定义预设第一校正因子及预设第二校正因子,且预设第一校正因子大于预设第二校正因子。当初始情绪值大于安静情绪值,且面部微表情对应的情绪类型为正向类型;或者当初始情绪值小于安静情绪值,且面部微表情对应的情绪类型为负向类型,表明该类型下的活动状态对用户的情绪影响与用户此时的面部微表情对应情绪类型是吻合的,则可以将初始情绪值与预设第一校正因子的乘积作为活动情绪值。当初始情绪值大于安静情绪值,但面部微表情对应的情绪类型为负向类型;或者,当初始情绪值小于安静情绪值,但面部微表情对应的情绪类型为正向类型,表明该类型下的活动状态对用户的情绪影响与用户此时的面部微表情对应情绪类型是不吻合的,则可以将初始情绪值与预设第二校正因子的乘积,作为活动情绪值。
在一种可能的实施方式中,还可以将所述活动情绪值及对应的情绪影响类型存储至活动情绪值列表中,计算活动情绪值列表中每一种情绪影响类型对应的活动情绪值的比例,当所述比例大于预设比例阈值时,生成预警提醒,用于警示用户需要进行进一步处理。
在一种可能的实施方式中,所述方法还包括:
建立与目标智能穿戴设备的连接;
获取所述目标智能穿戴设备在指定时间段内的目标安静情绪值、多个目标活动状态类型及每个所述目标活动状态类型对应的目标活动情绪值;
基于所述目标安静情绪值、所述多个目标活动状态类型及每个所述目标活动状态类型对应的目标活动情绪值,及所述用户在所述指定时间段内的安静情绪值、多个活动状态类型及每个所述活动状态类型对应的活动情绪值,判断所述智能穿戴设备与所述目标智能穿戴设备是否匹配;
若确定所述智能穿戴设备与所述目标智能穿戴设备匹配,则将所述目标智能穿戴设备对应的用户加入所述用户的好友列表;
若确定所述智能穿戴设备与所述目标智能穿戴设备不匹配,则断开所述智能穿戴设备与所述目标智能穿戴设备的连接。
首先,所述智能穿戴设备可以通过自身的蓝牙功能向目标智能穿戴设备发送蓝牙连接请求。当接收到目标智能穿戴设备发送的同意请求后,建立所述智能穿戴设备与所述目标智能穿戴设备的蓝牙连接,使两个设备能够互相通信和传输数据。蓝牙连接建立成功后,所述智能穿戴设备获取目标智能穿戴设备在指定时间段内的情绪数据,所述情绪数据包括目标安静情绪值、多个目标活动状态类型及每个所述目标活动状态类型对应的目标活动情绪值。
首先计算目标安静情绪值与用户的安静情绪值之间的第一匹配度,再计算目标智能穿戴设备对应的目标活动状态类型与智能穿戴设备对应的目标活动状态类型之间的第二匹配度,接着计算目标活动情绪值与用户的活动情绪值之间的第三匹配度,最后计算第一匹配度、第二匹配度及第三匹配度确定两位用户的情感波动是否相似。
其中,第一匹配度可以通过计算目标安静情绪值与安静情绪值之间的均方根误差得到。第二匹配度可以通过计算目标活动状态类型与活动状态类型之间具有相同类型的活动状态的数量,根据所述数量与活动状态类型的数量之间的比值确定。第三匹配度可以通过计算相同类型的活动状态对应的目标活动情绪值与活动情绪值之间的均方根误差,再计算多个均方根误差的平均值得到。
可以计算第一匹配度、第二匹配度及第三匹配度的总和得到目标匹配度,也可以计算第一匹配度、第二匹配度及第三匹配度的均值得到目标匹配度,将目标匹配度与预设匹配度阈值进行比较,当目标匹配度大于预设匹配度阈值,则确定两位用户匹配成功,即所述智能穿戴设备与所述目标智能穿戴设备匹配,表示两位用户在相似或相同的活动类型中经历了相似的情感波动。若两位用户匹配成功,说明他们之间相性较好,可以进一步进行发展。此时智能穿戴设备会向用户发送相应提示,例如在显示屏上显示进一步发展建议,所述提示将根据情感波动和活动情境的匹配结果提供个性化的支持和建议。当目标匹配度小于或等于预设匹配度阈值,则确定两位用户匹配不成功,即所述智能穿戴设备与所述目标智能穿戴设备不匹配,则断开所述智能穿戴设备与所述目标智能穿戴设备的连接。
在一种可能的实施方式中,所述方法还包括:
基于所述活动情绪值及历史活动情绪值生成活动情绪趋势图;
显示所述活动情绪趋势图。
首先获取当前活动情绪值与历史活动情绪值,所述当前活动情绪值反映了用户当前活动时的情感状态,如快乐、沮丧、焦虑等;所述历史活动情绪值反映了过去一段时间内用户在不同活动时的情感状态。使用当前活动情绪值与历史活动情绪值生成活动情绪趋势图,例如可以使用折线图表示用户的活动情绪趋势,横轴表示活动的时间序列,纵轴表示活动情绪值。当生成活动情绪趋势图后,通过用户界面、移动应用程序、网页或其他可视化方式将所述活动情绪趋势图呈现给用户。用户可以通过查看活动情绪趋势图来了解在不同活动时的情感状态变化,以便更好地理解自己的情感体验,并可能采取适当的行动或调整活动以改善情感状态。
上述可能的实施方式中,通过基于用户的当前活动情绪值和历史活动情绪值生成活动情绪趋势图,并将活动情绪趋势图呈现给用户,可以提供有关情感状态的可视化信息。
本申请通过获取用户当前所处环境的视频数据,并根据视频数据确定活动状态类型及面部微表情,在获取用户处于活动状态类型下每个传感器采集的第一生理参数,从而基于活动状态类型自适应的确定每个第一生理参数的重要程度,基于多个第一生理参数及每个第一生理参数对应的重要程度,计算得到初始情绪值,最后基于面部微表情对初始情绪值进行校正,得到活动情绪值。本申请通过分析视频数据得到活动状态类型及面部微表情,结合活动状态类型、生理参数及面部微表情实现自适应的计算活动情绪值,活动情绪值的计算与活动状态及面部微表情进行了关联,提高了计算情绪值的准确度。
本申请实施例提供的基于智能穿戴设备的人体情绪值计算方法,可以应用于多个方面,例如,判断一场电影是否能给用户带来积极的情绪,或者判断一堂课是否讲解的很生动,或者判断一个活动是否能够起到辅助治疗的作用,不一一进行枚举。下面以一堂课是否讲解的很生动为例来进行说明。
在课堂上为每个学生佩戴一个智能穿戴设备,通过智能穿戴设备的每个传感器采集学生的第一生理参数,基于听讲这一活动状态类型确定每个第一生理参数的重要程度,对于每个学生而言,基于多个第一生理参数及每个第一生理参数对应的所述重要程度,计算得到初始情绪值,并基于学生的面部微表情对初始情绪值进行修正,得到活动情绪值。将每个学生的活动情绪值与自身对应的安静情绪值进行比较,得到听讲这一活动状态类型对学生的情绪影响。如果学生的活动情绪值越大于自身对应的安静情绪值,则表明该堂课对学生的情绪影响为正且积极性越大。
图2是本发明实施例二提供的基于智能穿戴设备的人体情绪值计算装置的结构图。
在一些实施例中,所述基于智能穿戴设备的人体情绪值计算装置20可以包括多个由计算机程序段所组成的功能模块。所述基于智能穿戴设备的人体情绪值计算装置20中的各个程序段的计算机程序可以存储于智能穿戴设备的存储器中,并由至少一个处理器所执行,以执行(详见图1描述)基于智能穿戴设备的人体情绪值计算的功能。
本实施例中,所述基于智能穿戴设备的人体情绪值计算装置20根据其所执行的功能,可以被划分为多个功能模块。所述功能模块可以包括:用户状态获取模块201、活动参数获取模块202、活动参数计算模块203、初始情绪计算模块204、活动情绪校正模块205、用户情绪预警模块206、用户情绪匹配模块207以及情绪可视化模块208。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在本实施例中,关于各模块的功能将在后续的实施例中详述。
所述用户状态获取模块201,用于获取用户当前所处环境的视频数据,并根据所述视频数据确定活动状态类型及面部微表情。
可以将智能穿戴设备佩戴在用户身上,从而基于通过智能穿戴设备(例如,智能手表,智能手环等)内置的摄像头收集用户当前所处环境中的视频数据,所述视频数据可以包括用户周围的视觉信息,例如,场景、物体、人物等。分析用户所处环境的视频数据,可以得到用户当前的活动状态类型及面部微表情,例如用户正笑着和朋友一起在郊外骑车,或是一个人板着脸在公园散步。
在一种可能的实施方式中,所述根据所述视频数据确定活动状态类型及面部微表情包括:
将所述视频数据发送给与所述智能穿戴设备对应的云服务器;
接收所述云服务器反馈的基于所述视频数据分析得到的活动状态类型及面部微表情。
用户所佩戴的智能穿戴设备获取到用户所处环境的视频数据后,将所述视频数据传输至云服务器,通过云服务器对所述视频数据进行分析,得到活动状态类型及面部微表情。
云服务器上存储有基于深度学习思想预先训练得到的活动状态类型识别模型及微表情识别算法,当接收到视频数据后,可以使用活动状态类型识别模型对所述视频数据进行分析,得到用户当前的活动状态类型,可以使用微表情识别算法对所述视频数据进行分析,得到用户当前的面部微表情。云服务器将得到的活动状态类型及面部微表情发送至用户所佩戴的智能穿戴设备,便于后续根据用户的活动状态类型及面部微表情计算用户当前的活动情绪值。
其中,活动状态类型包括:跑步、唱歌、听音乐、看电影、聊天、看书、瑜伽、爬山、打球、散步、工作等。
其中,面部微表情包括:高兴、悲伤、愤怒、恐惧、惊讶、思考、仇视和厌恶等。
示例性的,用户佩戴智能手环在家中进行健身训练,智能手环拍摄健身训练的视频数据并上传至云服务器,云服务器基于健身训练的视频数据识别到用户正在健身房的跑步机上跑步,且用户面部微表情为比较痛苦,云服务器将“活动状态类型为跑步、面部微表情为比较痛苦”发送至智能手环。
所述活动参数获取模块202,用于获取所述用户处于所述活动状态类型下每个传感器采集的第一生理参数。
智能穿戴设备中设置有多个传感器,通过多个传感器采集用户的各种生理参数。例如通过心率传感器来测量用户的心脏跳动频率;使用血压计传感器来测量用户的收缩压和舒张压;利用皮肤温度传感器来记录用户的皮肤表面温度;通过皮肤电阻传感器来测量皮肤的电导率。
由于情绪状态通常会在生理水平上体现,例如焦虑可能导致心率上升,而放松可能导致皮肤温度升高,因此,可以通过多个传感器获取用户在不同类型的活动状态下的生理参数。为便于下文描述,将用户处于活动状态下传感器采集的生理参数称之为第一生理参数。其中,活动状态是相对于安静状态而言的。
上述可能的实施方式中,通过传感器来收集生理指标数据,可以帮助理解用户的情感状态,在不同类型的活动状态下提供更个性化的支持和反馈。
所述活动参数计算模块203,用于基于所述活动状态类型确定每个所述第一生理参数的重要程度。
第一生理参数的重要程度表示了对应的第一生理参数对于计算活动情绪值的贡献程度,具体体现为所述第一生理参数在活动情绪值的加权计算中的权重。
所述生理参数通常与情绪有关,在不同类型的活动状态下,即使是同一个生理参数对情绪的反馈也是不同的,例如,在活动状态类型为跑步时,可能心率及呼吸频率对于反馈活动情绪值更为重要。在活动状态类型为看电影时,可能皮肤表面温度及电导率对于反馈活动情绪值更为重要。当某个第一生理参数被认为在当前类型的活动状态下的情感表达中起到更重要的作用时,会被赋予更高的权重。因此,重要程度的分配是一个动态过程。
智能穿戴设备中预先存储有活动状态类型、生理参数及重要程度的映射表,通过映射表确定与活动状态类型对应的多个生理参数及每个生理参数对应的重要程度。
上述可能的实施方式中,基于活动状态类型确定每个第一生理参数的重要程度,将不同生理参数的重要性纳入活动情绪值的计算过程中,可以更准确地识别和量化用户的活动情绪值,提高活动情绪值的计算准确性。
所述初始情绪计算模块204,用于基于多个所述第一生理参数及每个所述第一生理参数对应的所述重要程度,计算得到初始情绪值。
为了确保重要程度的总和是一定的,因此所有第一生理参数的重要程度之和等于1,每个第一生理参数都对初始情绪值的计算有适当的贡献。
基于每个第一生理参数及对应的重要程度计算得到一个乘积,然后将所有乘积相加,得到用户的初始情绪值。使用加权计算的方式,使得更重要的第一生理参数对情绪值的影响更大,而不太重要的第一生理参数对情绪值影响较小。
上述可能的实施方式中,通过综合考虑多个第一生理参数以及第一生理参数对应的重要程度来计算用户的初始情绪值,提高了初始情绪值的计算准确度,从而可以更准确地反映用户的情感状态。
在一种可能的实施方式中,所述基于多个所述第一生理参数及每个所述第一生理参数对应的所述重要程度,计算得到初始情绪值包括:
将每个所述第一生理参数进行归一化处理,得到归一化生理参数;
基于每个所述归一化生理参数及对应的所述重要程度,进行加权和计算,得到初始情绪值。
对所述第一生理参数进行归一化处理,可以采用对数归一,指数归一,三角或反三角函数归一等,所述归一化处理的目的是将各个第一生理参数的原始值进行转换,以确保所有第一生理参数具有统一的量纲,从而具有可比性,便于情绪值的计算。
上述可能的实施方式中,通过对第一生理参数归一化处理,根据不同第一生理参数的重要程度进行加权计算,得出用户的初始情绪值,综合考虑了多种生理参数对情绪的影响以及影响的程度。
所述活动情绪校正模块205,用于基于所述面部微表情对所述初始情绪值进行校正,得到活动情绪值。
面部微表情通常是短暂而微妙的表情变化,可以反映出用户真实的情感状态。为了进一步提高活动情绪值的计算准确度,在基于活动状态类型确定不同的第一生理参数的重要程度,并基于第一生理参数及重要程度计算得到初始情绪值之后,再通过面部微表情对初始情绪值进行校正,从而得到活动情绪值。
在一个可选的实施方式中,所述基于所述面部微表情对所述初始情绪值进行校正,得到活动情绪值包括:
将所述面部微表情与预设情绪类型映射表进行匹配,得到所述面部微表情对应的情绪类型;
将所述活动情绪值及安静情绪值进行比较,得到比较结果;
根据所述比较结果确定所述活动状态类型对所述用户的情绪影响类型;
基于所述情绪类型及所述情绪影响类型确定校正因子;
基于所述校正因子对所述初始情绪值进行校正,得到所述活动情绪值。
其中,安静情绪值通过如下方式得到:获取所述用户处于安静状态下的每个所述传感器采集的第二生理参数;根据多个所述第二生理参数及每个所述第二生理参数对应的预设重要程度,计算得到安静情绪值。
将用户在安静状态下传感器采集的生理参数称之为第二生理参数,所述第二生理参数可以反映用户处于所述安静状态下的情绪状态。将每个所述第二生理参数进行归一化处理,基于每个所述归一化处理后的第二生理参数及对应的预设重要程度计算得到一个乘积,将所有第二生理参数对应的乘积进行加权和计算,得到安静情绪值。对第二生理参数进行归一化处理的过程与对所述第一生理参数进行归一化处理的过程,本申请在此不再赘述。
智能穿戴设备中预先存储有情绪类型映射表,情绪类型映射表中记录了每种面部微表情与情绪类型之间的映射关系,将面部微表情与情绪类型映射表进行匹配,得到所述面部微表情对应的情绪类型,例如,是积极类型还是消极类型。
所述安静情绪值提供有关用户情感状态的定量信息,即后续将所述安静情绪值作为基准,将活动情绪值及安静情绪值进行比较,得到比较结果,当比较结果为初始情绪值大于安静情绪值时,确定该类型下的活动状态对用户的情绪影响为积极影响,当比较结果为活动情绪值小于或等于安静情绪值时,确定该类型下的活动状态对用户的情绪影响为消极影响。例如,可以定义情绪值的取值范围为[-1,1],0分表示用户处于安静状态时的安静情绪值,情绪值为负分表示消极情绪,情绪值为正分表示积极情绪。
定义预设第一校正因子及预设第二校正因子,且预设第一校正因子大于预设第二校正因子。当初始情绪值大于安静情绪值,且面部微表情对应的情绪类型为正向类型;或者当初始情绪值小于安静情绪值,且面部微表情对应的情绪类型为负向类型,表明该类型下的活动状态对用户的情绪影响与用户此时的面部微表情对应情绪类型是吻合的,则可以将初始情绪值与预设第一校正因子的乘积作为活动情绪值。当初始情绪值大于安静情绪值,但面部微表情对应的情绪类型为负向类型;或者,当初始情绪值小于安静情绪值,但面部微表情对应的情绪类型为正向类型,表明该类型下的活动状态对用户的情绪影响与用户此时的面部微表情对应情绪类型是不吻合的,则可以将初始情绪值与预设第二校正因子的乘积,作为活动情绪值。
所述用户情绪预警模块206,用于将所述活动情绪值及对应的情绪影响类型存储至活动情绪值列表中,计算活动情绪值列表中每一种情绪影响类型对应的活动情绪值的比例,当所述比例大于预设比例阈值时,生成预警提醒,用于警示用户需要进行进一步处理。
所述用户情绪匹配模块207,用于建立与目标智能穿戴设备的连接;获取所述目标智能穿戴设备在指定时间段内的目标安静情绪值、多个目标活动状态类型及每个所述目标活动状态类型对应的目标活动情绪值;基于所述目标安静情绪值、所述多个目标活动状态类型及每个所述目标活动状态类型对应的目标活动情绪值,及所述用户在所述指定时间段内的安静情绪值、多个活动状态类型及每个所述活动状态类型对应的活动情绪值,判断所述智能穿戴设备与所述目标智能穿戴设备是否匹配;若确定所述智能穿戴设备与所述目标智能穿戴设备匹配,则将所述目标智能穿戴设备对应的用户加入所述用户的好友列表;若确定所述智能穿戴设备与所述目标智能穿戴设备不匹配,则断开所述智能穿戴设备与所述目标智能穿戴设备的连接。
首先,所述智能穿戴设备可以通过自身的蓝牙功能向目标智能穿戴设备发送蓝牙连接请求。当接收到目标智能穿戴设备发送的同意请求后,建立所述智能穿戴设备与所述目标智能穿戴设备的蓝牙连接,使两个设备能够互相通信和传输数据。蓝牙连接建立成功后,所述智能穿戴设备获取目标智能穿戴设备在指定时间段内的情绪数据,所述情绪数据包括目标安静情绪值、多个目标活动状态类型及每个所述目标活动状态类型对应的目标活动情绪值。
首先计算目标安静情绪值与用户的安静情绪值之间的第一匹配度,再计算目标智能穿戴设备对应的目标活动状态类型与智能穿戴设备对应的目标活动状态类型之间的第二匹配度,接着计算目标活动情绪值与用户的活动情绪值之间的第三匹配度,最后计算第一匹配度、第二匹配度及第三匹配度确定两位用户的情感波动是否相似。
其中,第一匹配度可以通过计算目标安静情绪值与安静情绪值之间的均方根误差得到。第二匹配度可以通过计算目标活动状态类型与活动状态类型之间具有相同类型的活动状态的数量,根据所述数量与活动状态类型的数量之间的比值确定。第三匹配度可以通过计算相同类型的活动状态对应的目标活动情绪值与活动情绪值之间的均方根误差,再计算多个均方根误差的平均值得到。
可以计算第一匹配度、第二匹配度及第三匹配度的总和得到目标匹配度,也可以计算第一匹配度、第二匹配度及第三匹配度的均值得到目标匹配度,将目标匹配度与预设匹配度阈值进行比较,当目标匹配度大于预设匹配度阈值,则确定两位用户匹配成功,即所述智能穿戴设备与所述目标智能穿戴设备匹配,表示两位用户在相似或相同的活动类型中经历了相似的情感波动。若两位用户匹配成功,说明他们之间相性较好,可以进一步进行发展。此时智能穿戴设备会向用户发送相应提示,例如在显示屏上显示进一步发展建议,所述提示将根据情感波动和活动情境的匹配结果提供个性化的支持和建议。当目标匹配度小于或等于预设匹配度阈值,则确定两位用户匹配不成功,即所述智能穿戴设备与所述目标智能穿戴设备不匹配,则断开所述智能穿戴设备与所述目标智能穿戴设备的连接。
所述情绪可视化模块208,用于基于所述活动情绪值及历史活动情绪值生成活动情绪趋势图;显示所述活动情绪趋势图。
首先获取当前活动情绪值与历史活动情绪值,所述当前活动情绪值反映了用户当前活动时的情感状态,如快乐、沮丧、焦虑等;所述历史活动情绪值反映了过去一段时间内用户在不同活动时的情感状态。使用当前活动情绪值与历史活动情绪值生成活动情绪趋势图,例如可以使用折线图表示用户的活动情绪趋势,横轴表示活动的时间序列,纵轴表示活动情绪值。当生成活动情绪趋势图后,通过用户界面、移动应用程序、网页或其他可视化方式将所述活动情绪趋势图呈现给用户。用户可以通过查看活动情绪趋势图来了解在不同活动时的情感状态变化,以便更好地理解自己的情感体验,并可能采取适当的行动或调整活动以改善情感状态。
上述可能的实施方式中,通过基于用户的当前活动情绪值和历史活动情绪值生成活动情绪趋势图,并将活动情绪趋势图呈现给用户,可以提供有关情感状态的可视化信息。
本申请通过获取用户当前所处环境的视频数据,并根据视频数据确定活动状态类型及面部微表情,在获取用户处于活动状态类型下每个传感器采集的第一生理参数,从而基于活动状态类型自适应的确定每个第一生理参数的重要程度,基于多个第一生理参数及每个第一生理参数对应的重要程度,计算得到初始情绪值,最后基于面部微表情对初始情绪值进行校正,得到活动情绪值。本申请通过分析视频数据得到活动状态类型及面部微表情,结合活动状态类型、生理参数及面部微表情实现自适应的计算活动情绪值,活动情绪值的计算与活动状态及面部微表情进行了关联,提高了计算情绪值的准确度。
参阅图3所示,为本申请实施例三提供的智能穿戴设备的结构示意图。在本申请较佳实施例中,所述智能穿戴设备3包括存储器31、至少一个处理器32及至少一条通信总线33。
本领域技术人员应该了解,图3示出的智能穿戴设备的结构并不构成本申请实施例的限定,既可以是总线型结构,也可以是星形结构,所述智能穿戴设备3还可以包括比图示更多或更少的其他硬件或者软件,或者不同的部件布置。
在一些实施例中,所述智能穿戴设备3是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路、可编程门阵列、数字处理器及嵌入式设备等。所述智能穿戴设备3还可包括客户设备,所述客户设备包括但不限于任何一种可与客户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、数码相机等。
需要说明的是,所述智能穿戴设备3仅为举例,其他现有的或今后可能出现的电子产品如可适应于本申请,也应包含在本申请的保护范围以内,并以引用方式包含于此。
在一些实施例中,所述存储器31中存储有计算机程序,所述计算机程序被所述至少一个处理器32执行时实现如所述的基于智能穿戴设备的人体情绪值计算方法中的全部或者部分步骤。所述存储器31包括只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除可编程只读存储器(ErasableProgrammable Read-Only Memory,EPROM)、一次可编程只读存储器(One-timeProgrammable Read-Ony Memory,OTPROM)、电子擦除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。进一步地,所述计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等。
在一些实施例中,所述至少一个处理器32是所述智能穿戴设备3的控制核心(Control Unit),利用各种接口和线路连接整个智能穿戴设备3的各个部件,通过运行或执行存储在所述存储器31内的程序或者模块,以及调用存储在所述存储器31内的数据,以执行智能穿戴设备3的各种功能和处理数据。例如,所述至少一个处理器32执行所述存储器中存储的计算机程序时实现本申请实施例中所述的基于智能穿戴设备的人体情绪值计算方法的全部或者部分步骤;或者实现基于智能穿戴设备的人体情绪值计算装置的全部或者部分功能。所述至少一个处理器32可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing Unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。
在一些实施例中,所述至少一条通信总线33被设置为实现所述存储器31以及所述至少一个处理器32等之间的连接通信。尽管未示出,所述智能穿戴设备3还可以包括给各个部件供电的电源(比如电池),优选的,电源可以通过电源管理装置与所述至少一个处理器32逻辑相连,从而通过电源管理装置实现管理充电、放电、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述智能穿戴设备3还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台智能穿戴设备(可以是个人计算机,智能穿戴设备,或者网络设备等)或处理器(processor)执行本申请各个实施例所述方法的部分。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,既可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
Claims (10)
1.一种基于智能穿戴设备的人体情绪值计算方法,其特征在于,所述智能穿戴设备中设置有多个传感器,所述方法包括:
获取用户当前所处环境的视频数据,并根据所述视频数据确定活动状态类型及面部微表情;
获取所述用户处于所述活动状态类型下每个所述传感器采集的第一生理参数;
基于所述活动状态类型确定每个所述第一生理参数的重要程度;
基于多个所述第一生理参数及每个所述第一生理参数对应的所述重要程度,计算得到初始情绪值;
基于所述面部微表情对所述初始情绪值进行校正,得到活动情绪值。
2.根据权利要求1所述的基于智能穿戴设备的人体情绪值计算方法,其特征在于,所述基于所述面部微表情对所述初始情绪值进行校正,得到活动情绪值包括:
将所述面部微表情与预设情绪类型映射表进行匹配,得到所述面部微表情对应的情绪类型;
将所述活动情绪值及安静情绪值进行比较,得到比较结果;
根据所述比较结果确定所述活动状态类型对所述用户的情绪影响类型;
基于所述情绪类型及所述情绪影响类型确定校正因子;
基于所述校正因子对所述初始情绪值进行校正,得到所述活动情绪值。
3.根据权利要求2所述的基于智能穿戴设备的人体情绪值计算方法,其特征在于,所述安静情绪值通过如下方式计算得到:
获取所述用户处于安静状态下的每个所述传感器采集的第二生理参数;
根据多个所述第二生理参数及每个所述第二生理参数对应的预设重要程度,计算得到所述安静情绪值。
4.根据权利要求3所述的基于智能穿戴设备的人体情绪值计算方法,其特征在于,所述方法还包括:
建立与目标智能穿戴设备的连接;
获取所述目标智能穿戴设备在指定时间段内的目标安静情绪值、多个目标活动状态类型及每个所述目标活动状态类型对应的目标活动情绪值;
基于所述目标安静情绪值、所述多个目标活动状态类型及每个所述目标活动状态类型对应的目标活动情绪值,及所述用户在所述指定时间段内的安静情绪值、多个活动状态类型及每个所述活动状态类型对应的活动情绪值,判断所述智能穿戴设备与所述目标智能穿戴设备是否匹配;
若确定所述智能穿戴设备与所述目标智能穿戴设备匹配,则将所述目标智能穿戴设备对应的用户加入所述用户的好友列表;
若确定所述智能穿戴设备与所述目标智能穿戴设备不匹配,则断开所述智能穿戴设备与所述目标智能穿戴设备的连接。
5.根据权利要求1至4中任意一项所述的基于智能穿戴设备的人体情绪值计算方法,其特征在于,所述根据所述视频数据确定活动状态类型及面部微表情包括:
将所述视频数据发送给与所述智能穿戴设备对应的云服务器;
接收所述云服务器反馈的基于所述视频数据分析得到的活动状态类型及面部微表情。
6.根据权利要求1至4中任意一项所述的基于智能穿戴设备的人体情绪值计算方法,其特征在于,所述基于多个所述第一生理参数及每个所述第一生理参数对应的所述重要程度,计算得到初始情绪值包括:
将每个所述第一生理参数进行归一化处理,得到归一化生理参数;
基于每个所述归一化生理参数及对应的所述重要程度,进行加权和计算,得到所述初始情绪值。
7.根据权利要求6所述的基于智能穿戴设备的人体情绪值计算方法,其特征在于,所述方法还包括:
基于所述活动情绪值及历史活动情绪值生成活动情绪趋势图;
显示所述活动情绪趋势图。
8.一种基于智能穿戴设备的人体情绪值计算装置,其特征在于,所述智能穿戴设备中设置有多个传感器,所述装置包括:
用户状态获取模块,用于获取用户当前所处环境的视频数据,并根据所述视频数据确定活动状态类型及面部微表情;
生理参数获取模块,用于获取所述用户处于所述活动状态类型下每个所述传感器采集的第一生理参数;
重要程度计算模块,用于基于所述活动状态类型确定每个所述第一生理参数的重要程度;
初始情绪计算模块,用于基于多个所述第一生理参数及每个所述第一生理参数对应的所述重要程度,计算得到初始情绪值;
活动情绪校正模块,用于基于所述面部微表情对所述初始情绪值进行校正,得到活动情绪值。
9.一种智能穿戴设备,其特征在于,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任意一项所述的基于智能穿戴设备的人体情绪值计算方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的基于智能穿戴设备的人体情绪值计算方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410194140.0A CN117942077A (zh) | 2024-02-21 | 2024-02-21 | 基于智能穿戴设备的人体情绪值计算方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410194140.0A CN117942077A (zh) | 2024-02-21 | 2024-02-21 | 基于智能穿戴设备的人体情绪值计算方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117942077A true CN117942077A (zh) | 2024-04-30 |
Family
ID=90797752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410194140.0A Pending CN117942077A (zh) | 2024-02-21 | 2024-02-21 | 基于智能穿戴设备的人体情绪值计算方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117942077A (zh) |
-
2024
- 2024-02-21 CN CN202410194140.0A patent/CN117942077A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3384437B1 (en) | Systems, computer medium and methods for management training systems | |
US10553306B2 (en) | Scaled-based methods and apparatuses for automatically updating patient profiles | |
EP3407781B1 (en) | Sensor-based detection of changes in health and ventilation thresholds | |
CA3157835A1 (en) | Method and system for an interface to provide activity recommendations | |
KR102532412B1 (ko) | 생체 정보에 기반한 건강 정보를 제공하기 위한 전자 장치 및 그 제어 방법 | |
US20210166798A1 (en) | Health management device, health management method, and non-transitory recording medium storing program | |
CN108697363B (zh) | 用于检测心脏变时功能不全的装置和方法 | |
KR102154902B1 (ko) | 심장 모니터링 방법 | |
JP2019115618A (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
JP7131904B2 (ja) | 生活習慣管理装置、方法およびプログラム | |
CN116889684B (zh) | 供血驱动装置的参数配置方法、系统以及相关装置 | |
JP6430729B2 (ja) | 心拍データ分析用サーバシステム | |
CN117942077A (zh) | 基于智能穿戴设备的人体情绪值计算方法及相关设备 | |
JP7119755B2 (ja) | 健康管理装置、健康管理方法、及びプログラム | |
JP7135521B2 (ja) | 行動変容支援装置、端末およびサーバ | |
CN112086164A (zh) | 身体状况反馈方法、系统、存储介质 | |
US20240017028A1 (en) | Automatic regulation of oxygen output | |
US11771863B1 (en) | Interface for guided meditation based on user interactions | |
WO2023058200A1 (ja) | 疲労度算出装置、疲労度算出方法及び記憶媒体 | |
US20240008813A1 (en) | Smart wearable device and method for estimating traditional medicine system parameters | |
US11850048B2 (en) | Methods and systems for determining emotional connectivity using physiological measurements from connected devices | |
US20230107691A1 (en) | Closed Loop System Using In-ear Infrasonic Hemodynography and Method Therefor | |
US20210225483A1 (en) | Systems and methods for adjusting training data based on sensor data | |
WO2022113276A1 (ja) | 情報処理装置、制御方法及び記憶媒体 | |
CN117854662A (zh) | 一种客观的心理健康数据的获取方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |