CN112515675B - 一种基于智能可穿戴设备的情绪分析方法 - Google Patents
一种基于智能可穿戴设备的情绪分析方法 Download PDFInfo
- Publication number
- CN112515675B CN112515675B CN202011465698.6A CN202011465698A CN112515675B CN 112515675 B CN112515675 B CN 112515675B CN 202011465698 A CN202011465698 A CN 202011465698A CN 112515675 B CN112515675 B CN 112515675B
- Authority
- CN
- China
- Prior art keywords
- emotion
- user
- data
- intelligent wearable
- daily activity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Psychiatry (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Artificial Intelligence (AREA)
- Physiology (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Psychology (AREA)
- Educational Technology (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Social Psychology (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于智能可穿戴设备的情绪分析方法,具体为:首先选定运动感知类信号数据、原始情绪标签、日常活动标签,用户在智能可穿戴设备输入1~2个月内的情绪数据和日常活动数据;采用智能可穿戴设备对运动感知类信号数据、情绪数据和日常活动数据的对应关系进行预设法运算,确定用户情绪状态与日常活动、人体姿态动作的关联关系,建立用户情绪预测模型;最后通过用户情绪预测模型对用户实际情绪进行分析后,输出用户情绪信息。本发明一种基于智能可穿戴设备的情绪分析方法,解决了现有技术中存在的对中等强度的情绪识别性差、难以从用户动作或活动准确推测情绪的问题。
Description
技术领域
本发明属于智能健康管理技术领域,具体涉及一种基于智能可穿戴设备的情绪分析方法。
背景技术
人的情绪状态与机体免疫反应密切相关。目前,主要是通过获取用户的心率、脑电、表情、语音等信号来识别情绪,然而获取这些信号需要在用户头部加装设备,对用户干扰较大,不适宜日常佩戴;虽然采用可穿戴设备获取用户的皮电、脑电、心率等信号可以推测出人的情绪,但是必须在情绪起伏较大时才可以;而用户在日常生活情境中的情绪多以平静、愉悦、紧张等中等强度为主,大喜大悲并不多见,因此,如何识别中等强度的情绪是目前情绪识别领域的一个难题。
此外,用户的心率、语音、皮电、脑电等信号识别出的情绪数据往往是固定数值,即情绪数据和心率与语音语调等有对应关系,此时,用户是无法了解自身动作或活动与情绪的关系,因此,得出的情绪数据对健康管理的指导意义非常有限。
发明内容
本发明的目的是提供一种基于智能可穿戴设备的情绪分析方法,解决了现有技术中存在的对中等强度的情绪识别性差、难以从用户动作或活动准确推测情绪的问题。
本发明所采用的技术方案是,一种基于智能可穿戴设备的情绪分析方法,具体按照以下步骤实施:
步骤1,选定运动感知类信号数据类别、原始情绪标签类别、日常活动标签类别,用户佩戴智能可穿戴设备1~2个月,同时采用智能可穿戴设备隐式收集运动感知类信号数据,用户在智能可穿戴设备上定期输入情绪数据和日常活动数据;
步骤2,采用智能可穿戴设备对运动感知类信号数据、情绪数据和日常活动数据的对应关系进行预设法运算,确定用户情绪状态与日常活动、人体姿态动作的关联关系,建立用户情绪预测模型;
步骤3,通过用户情绪预测模型对用户实际情绪进行分析后,输出用户情绪信息。
本发明的特点还在于:
步骤2中,运动感知类信号数据类别包括三轴加速度、速度、角速度、磁场数据和时间;原始情绪标签类别包括紧张—疲惫、兴奋—无聊、高兴—低落和压力—放松;日常活动标签类别包括交流、餐饮、学习、工作、居家、个人护理、接受服务、购物、社交和运动。
人体姿态动作包括走路、慢跑、坐着、站立、上楼和下楼动作。
步骤2中预设法运算过程具体为:
步骤2.1,提取运动感知类信号数据,并融合情绪数据和日常活动数据,进行聚类分析获得人体姿态动作;
步骤2.2,采用分类器对人体姿态动作分别进行情绪识别与日常活动识别,建立用户情绪预测模型。
步骤3具体为:
步骤3.1,通过用户情绪预测模型根据运动感知类信号数据判断用户的动作是否在第一预设动作范围内,若是,提醒用户记录情绪标签,若否,则无提示;
步骤3.2,根据用户情绪的唤起程度与正负性获得情绪角度,推测用户情绪强度与愉悦程度,获得情感角度值;
步骤3.3,智能可穿戴设备输出情感角度值之后,邀请用户对情感角度值的准确性做出判断,若准确,继续预测,若不准确,邀请用户给出实际的情绪状态,并将其数据代入用户情绪预测模型进行修正;
步骤3.4,重复步骤3.1~3.3,直至输出用户情绪信息。
步骤2中预设法运算过程以日常活动开始的时间至用户记录情绪时间为时间窗口,预测用户情绪状态。
步骤3.1中,第一预设动作为日常活动内的动作序列和姿态动作内的动作序列。
本发明的有益效果是:
本发明一种基于智能可穿戴设备的情绪分析方法,通过记录用户的运动感知数据来分析用户动作,从而推测用户的情绪角度,能够使用户了解当前的情绪状态与情绪强度,并能判断出情绪发生前的动作成因,用以指导用户改善情绪;本发明一种基于智能可穿戴设备的情绪分析方法,快速有效,只需要用户佩戴可穿戴设备即可记录数据并分析结果,为智能化的健康管理及改善提供了新的思路。
附图说明
图1是本发明一种基于智能可穿戴设备的情绪分析方法的流程图;
图2是本发明一种基于智能可穿戴设备的情绪分析方法采用的智能可穿戴设备的示意图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种基于智能可穿戴设备的情绪分析方法,如图1所示,具体按照以下步骤实施:
步骤1,选定运动感知类信号数据类别、原始情绪标签类别、日常活动标签类别,用户佩戴智能可穿戴设备1~2个月,同时采用智能可穿戴设备隐式收集运动感知类信号数据,用户在智能可穿戴设备上定期输入情绪数据和日常活动数据;
步骤2,采用智能可穿戴设备对运动感知类信号数据、情绪数据和日常活动数据的对应关系进行预设法运算,确定用户情绪状态与日常活动、人体姿态动作的关联关系,建立用户情绪预测模型;
步骤2中预设法运算过程具体为:
步骤2.1,提取运动感知类信号数据,并融合情绪数据和日常活动数据,进行聚类分析获得人体姿态动作;
步骤2.2,采用分类器对人体姿态动作分别进行情绪识别与日常活动识别,建立用户情绪预测模型;
步骤2中,运动感知类信号数据类别包括三轴加速度、速度、角速度、磁场数据和时间;原始情绪标签类别包括紧张—疲惫、兴奋—无聊、高兴—低落和压力—放松;日常活动标签类别包括交流、餐饮、学习、工作、居家、个人护理、接受服务、购物、社交和运动;
人体姿态动作包括走路、慢跑、坐着、站立、上楼和下楼动作;
步骤2中预设法运算过程以日常活动开始的时间至用户记录情绪时间为时间窗口,预测用户情绪状态;
步骤3,通过用户情绪预测模型对用户实际情绪进行分析后,输出用户情绪信息;具体为:
步骤3.1,通过用户情绪预测模型根据运动感知类信号数据判断用户的动作是否在第一预设动作范围内,若是,提醒用户记录情绪标签,若否,则无提示;
步骤3.2,根据用户情绪的唤起程度与正负性获得情绪角度,推测用户情绪强度与愉悦程度,获得情感角度值;
步骤3.3,智能可穿戴设备输出情感角度值之后,邀请用户对情感角度值的准确性做出判断,若准确,继续预测,若不准确,邀请用户给出实际的情绪状态,并将其数据代入用户情绪预测模型进行修正;
步骤3.4,重复步骤3.1~3.3,直至输出用户情绪信息;
步骤3.1中,第一预设动作为日常活动内的动作序列和姿态动作内的动作序列。
本发明一种基于智能可穿戴设备的情绪分析方法采用的智能可穿戴设备包括中央处理器,中央处理器分别连接有运动感知模块、情感角度输出模块、情绪预测模块和存储器;存储器分别连接有供电部件、情绪标签记录模块、日常活动标签记录模块和时间设定模块。如图2所示。
其中,运动感知模块用于记录用户的运动感知类信号数据;情绪标签记录模块用于记录用户的情绪标签及对应的时间;日常活动标签记录模块用于记录用户的日常活动标签及对应的时间;中央处理器根据记录的用户运动感知类信号数据及情绪标签和日常活动标签信息进行预设法运算,确定用户的情绪状态;时间设定模块用于设定收集数据的时间周期及预设法运算的时间窗口;供电部件用于给智能可穿戴设备持续供电;情绪预测模块用于分析日常活动、人体姿态动作及情绪的分类,并据此统计分析情感角度。
Claims (1)
1.一种基于智能可穿戴设备的情绪分析方法,其特征在于,具体按照以下步骤实施:
步骤1,选定运动感知类信号数据类别、原始情绪标签类别、日常活动标签类别,用户佩戴智能可穿戴设备1~2个月,同时采用智能可穿戴设备隐式收集运动感知类信号数据,用户在智能可穿戴设备上定期输入情绪数据和日常活动数据;
步骤2,采用智能可穿戴设备对运动感知类信号数据、情绪数据和日常活动数据的对应关系进行预设法运算,确定用户情绪状态与日常活动、人体姿态动作的关联关系,建立用户情绪预测模型;
步骤3,通过用户情绪预测模型对用户实际情绪进行分析后,输出用户情绪信息;
步骤2中,所述运动感知类信号数据类别包括三轴加速度、速度、角速度、磁场数据和时间;所述原始情绪标签类别包括紧张—疲惫、兴奋—无聊、高兴—低落和压力—放松;所述日常活动标签类别包括交流、餐饮、学习、工作、居家、个人护理、接受服务、购物、社交和运动;
所述人体姿态动作包括走路、慢跑、坐着、站立、上楼和下楼动作;
步骤2中预设法运算过程具体为:
步骤2.1,提取运动感知类信号数据,并融合情绪数据和日常活动数据,进行聚类分析获得人体姿态动作;
步骤2.2,采用分类器对人体姿态动作分别进行情绪识别与日常活动识别,建立用户情绪预测模型;
步骤3具体为:
步骤3.1,通过用户情绪预测模型根据运动感知类信号数据判断用户的动作是否在第一预设动作范围内,若是,提醒用户记录情绪标签,若否,则无提示;
步骤3.2,根据用户情绪的唤起程度与正负性获得情绪角度,推测用户情绪强度与愉悦程度,获得情感角度值;
步骤3.3,智能可穿戴设备输出情感角度值之后,邀请用户对情感角度值的准确性做出判断,若准确,继续预测,若不准确,邀请用户给出实际的情绪状态,并将其数据代入用户情绪预测模型进行修正;
步骤3.4,重复步骤3.1~3.3,直至输出用户情绪信息;
步骤2中预设法运算过程以日常活动开始的时间至用户记录情绪时间为时间窗口,预测用户情绪状态;
步骤3.1中,第一预设动作为日常活动内的动作序列和姿态动作内的动作序列。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011465698.6A CN112515675B (zh) | 2020-12-14 | 2020-12-14 | 一种基于智能可穿戴设备的情绪分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011465698.6A CN112515675B (zh) | 2020-12-14 | 2020-12-14 | 一种基于智能可穿戴设备的情绪分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112515675A CN112515675A (zh) | 2021-03-19 |
CN112515675B true CN112515675B (zh) | 2022-05-27 |
Family
ID=74999507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011465698.6A Active CN112515675B (zh) | 2020-12-14 | 2020-12-14 | 一种基于智能可穿戴设备的情绪分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112515675B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116725538B (zh) * | 2023-08-11 | 2023-10-27 | 深圳市昊岳科技有限公司 | 一种基于深度学习的手环情绪识别方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103941853A (zh) * | 2013-01-22 | 2014-07-23 | 三星电子株式会社 | 确定用户情绪的电子设备和确定用户情绪的方法 |
CN106383585A (zh) * | 2016-09-30 | 2017-02-08 | 山东瀚岳智能科技股份有限公司 | 基于可穿戴设备的用户情绪识别方法及系统 |
CN107250949A (zh) * | 2015-02-11 | 2017-10-13 | 谷歌公司 | 基于用户环境中的有生命对象推荐计算机化服务的方法、系统和介质 |
CN108509038A (zh) * | 2010-08-09 | 2018-09-07 | 耐克创新有限合伙公司 | 用于记录和追踪运动活动的系统和方法 |
CN109360629A (zh) * | 2018-09-30 | 2019-02-19 | 深圳个人数据管理服务有限公司 | 基于机器学习的情绪预测方法、装置、设备和存储介质 |
CN109447324A (zh) * | 2018-09-30 | 2019-03-08 | 深圳个人数据管理服务有限公司 | 行为活动预测方法、装置、设备及情绪预测方法 |
CN110717542A (zh) * | 2019-10-12 | 2020-01-21 | 广东电网有限责任公司 | 一种情绪识别方法、装置和设备 |
CN110881987A (zh) * | 2019-08-26 | 2020-03-17 | 首都医科大学 | 一种基于可穿戴设备的老年人情绪监测系统 |
CN111931616A (zh) * | 2020-07-29 | 2020-11-13 | 中国人民解放军国防科技大学 | 基于移动智能终端传感器设备的情绪识别方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014024606A1 (ja) * | 2012-08-07 | 2014-02-13 | ソニー株式会社 | 情報処理装置と情報処理方法および情報処理システム |
-
2020
- 2020-12-14 CN CN202011465698.6A patent/CN112515675B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108509038A (zh) * | 2010-08-09 | 2018-09-07 | 耐克创新有限合伙公司 | 用于记录和追踪运动活动的系统和方法 |
CN103941853A (zh) * | 2013-01-22 | 2014-07-23 | 三星电子株式会社 | 确定用户情绪的电子设备和确定用户情绪的方法 |
CN107250949A (zh) * | 2015-02-11 | 2017-10-13 | 谷歌公司 | 基于用户环境中的有生命对象推荐计算机化服务的方法、系统和介质 |
CN106383585A (zh) * | 2016-09-30 | 2017-02-08 | 山东瀚岳智能科技股份有限公司 | 基于可穿戴设备的用户情绪识别方法及系统 |
CN109360629A (zh) * | 2018-09-30 | 2019-02-19 | 深圳个人数据管理服务有限公司 | 基于机器学习的情绪预测方法、装置、设备和存储介质 |
CN109447324A (zh) * | 2018-09-30 | 2019-03-08 | 深圳个人数据管理服务有限公司 | 行为活动预测方法、装置、设备及情绪预测方法 |
CN110881987A (zh) * | 2019-08-26 | 2020-03-17 | 首都医科大学 | 一种基于可穿戴设备的老年人情绪监测系统 |
CN110717542A (zh) * | 2019-10-12 | 2020-01-21 | 广东电网有限责任公司 | 一种情绪识别方法、装置和设备 |
CN111931616A (zh) * | 2020-07-29 | 2020-11-13 | 中国人民解放军国防科技大学 | 基于移动智能终端传感器设备的情绪识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112515675A (zh) | 2021-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108629313A (zh) | 情绪调节方法、装置、系统以及计算机存储介质 | |
US20230032131A1 (en) | Dynamic user response data collection method | |
CN109117952B (zh) | 一种基于深度学习的机器人情感认知的方法 | |
CN104720748A (zh) | 一种睡眠阶段确定方法和系统 | |
CN107729882A (zh) | 基于图像识别的情绪识别判定方法 | |
CN108805390B (zh) | 一种智能的刷牙过程评价方法 | |
WO2021004510A1 (zh) | 基于传感器的分离式部署的人体行为识别健康管理系统 | |
CN106372604A (zh) | 智能机器人检测负面情绪的方法及系统 | |
CN108153169A (zh) | 导览模式切换方法、系统和导览机器人 | |
CN112515675B (zh) | 一种基于智能可穿戴设备的情绪分析方法 | |
CN110974219A (zh) | 一种基于侵入式bci的人脑意念识别系统 | |
CN110807471B (zh) | 一种多模态传感器的行为识别系统及识别方法 | |
Borges et al. | Classifying confusion: autodetection of communicative misunderstandings using facial action units | |
Chen et al. | Patient emotion recognition in human computer interaction system based on machine learning method and interactive design theory | |
Li et al. | Touch gesture and emotion recognition using decomposed spatiotemporal convolutions | |
CN112057090B (zh) | 基于体表极低频电势差特征的情绪判断穿戴式设备和方法 | |
CN108960023A (zh) | 一种便携式情绪识别装置 | |
CN110010225A (zh) | 一种基于音视频的心理干预算法 | |
CN110110574A (zh) | 心理压力参数的获取方法和标注方法 | |
CN111281403B (zh) | 一种基于嵌入式设备的细粒度人体疲劳检测方法及设备 | |
Essalat et al. | Monitoring brushing behaviors using toothbrush embedded motion-sensors | |
Mallol-Ragolta et al. | Outer product-based fusion of smartwatch sensor data for human activity recognition | |
US20230296923A1 (en) | Portable multimodal learning analytics smart glasses | |
CN113616466B (zh) | 按摩方式生成方法、装置、电子设备和存储介质 | |
CN114186591A (zh) | 一种情绪识别系统泛化能力的提高方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |