CN106383585B - 基于可穿戴设备的用户情绪识别方法及系统 - Google Patents
基于可穿戴设备的用户情绪识别方法及系统 Download PDFInfo
- Publication number
- CN106383585B CN106383585B CN201610872788.4A CN201610872788A CN106383585B CN 106383585 B CN106383585 B CN 106383585B CN 201610872788 A CN201610872788 A CN 201610872788A CN 106383585 B CN106383585 B CN 106383585B
- Authority
- CN
- China
- Prior art keywords
- user
- action trail
- data
- emotion
- abnormal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于可穿戴设备的用户情绪识别方法及系统,该方法包括:获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据插入至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内;获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。
Description
技术领域
本发明属于情绪识别领域,尤其涉及一种基于可穿戴设备的用户情绪识别方法及系统。
背景技术
人的行为活动由个人思想或欲望决定,行为的产生应首先受意识的影响,心理意识的思维影响着个人行为,而个人的行为又对个人心理产生一定的影响,改变心理的意识。可以说心理与意识是相互影响,相互转化的。人在清醒状态下,能够意识到作用于感官的外界环境;能够意识到自己的行为目标,对行为的控制;能够意识到自己的情绪体验;能够意识到自己的身心特点和行为特点,把“自我”与“非我”、“主体”与“客体”区分开来;还能意识到“自我”与“非我”、“主体”与“客体”的相互关系。除了意识活动,人还有无意识活动。无意识活动在人的心理中是很普遍的。无意识活动也是人反映外部世界的一种特殊形式。在大数据时代,可以通过各种传感设备实时感知人的活动状态,通过各种无意识的常规的日常行为,来综合分析人员情绪状况及心理活动。
但是,目前针对人的情绪识别还存在无法通过轨迹数据获取有效的特征值以及无法对轨迹数据进行分析和提取的问题,导致无法通过人的行为轨迹准确对人的情绪进行识别。
发明内容
为了解决现有技术的缺点,本发明提供一种基于可穿戴设备的用户情绪识别方法及系统。本发明的该方法采用非介入式的方式,能够隐蔽、客观地发现服刑人员异常轨迹行为和交互行为,能够准确识别用户潜在的情绪。本发明的该系统也能够准确识别用户潜在的情绪。
为实现上述目的,本发明采用以下技术方案:
一种基于可穿戴设备的用户情绪识别方法,包括:
步骤1:获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据插入至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内;
步骤2:获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
步骤3:根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;
步骤4:检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。
所述步骤1中的位置时序数据序列包括用户ID、时间和位置ID。
所述步骤1中的用户与可穿戴设备交互的行为数据包括交互行为ID、交互时间和位置ID。
所述步骤1中的用户的行为轨迹的数据格式为:[用户ID,时间,位置ID,交互行为ID,交互行为持续时间]。
所述步骤3中,在建立情绪识别模型的过程中,提取轨迹数据库内的行为轨迹及情绪数据库内与所述行为轨迹相对应的情绪特征信息,并对所述行为轨迹及其相对应的情绪特征信息作相关性分析,得到情绪特征信息与其相应的行为轨迹的相关性矩阵,进而得到情绪识别模型。
所述步骤4中,检测轨迹数据库内的行为轨迹中异常数据的过程为:
根据轨迹数据库内的行为轨迹中的数据,计算用户趋势方向的活动距离;
对用户趋势方向的活动距离进行聚类计算,根据聚类结果判断行为轨迹中的异常数据。
所述用户趋势方向的活动距离为行为轨迹中位置ID间的距离。
一种基于可穿戴设备的用户情绪识别系统,包括:
行为轨迹生成模块,其用于获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据插入至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内;
情绪特征信息获取模块,其用于获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
情绪识别模型建立模块,其用于根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;
情绪识别模块,其用于检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。
用户的行为轨迹的数据格式为:[用户ID,时间,位置ID,交互行为ID,交互行为持续时间]。
情绪识别模型建立模块还用于:提取轨迹数据库内的行为轨迹及情绪数据库内与所述行为轨迹相对应的情绪特征信息,并对所述行为轨迹及其相对应的情绪特征信息作相关性分析,得到情绪特征信息与其相应的行为轨迹的相关性矩阵,进而得到情绪识别模型。
所述情绪识别模块,还包括:
趋势方向信息计算模块,其用于根据轨迹数据库内的行为轨迹中的数据,计算用户趋势方向的活动距离;
聚类计算模块,其用于对用户趋势方向的活动距离进行聚类计算,根据聚类结果判断行为轨迹中的异常数据。
所述用户趋势方向的活动距离为行为轨迹中位置ID间的距离。
一种基于可穿戴设备的用户情绪识别系统,包括服务器,所述服务器与可穿戴设备相互通信,所述服务器包括:
行为轨迹生成模块,其用于获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据插入至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内;
情绪特征信息获取模块,其用于获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
情绪识别模型建立模块,其用于根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;
情绪识别模块,其用于检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。
本发明的有益效果为:
(1)本发明的该方法将获取的用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序生成用户的行为轨迹并存储至轨迹数据库内;还将获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;再根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;最后检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪;这样采用非介入式的方式,达到了隐蔽、客观地发现用户异常轨迹行为和交互行为,进而利用情绪识别模型对用户潜在的异常情绪进行识别,提高了对用户的心理活动了解程度及准确性。
(2)本发明的该系统可以提高监控效率,依靠腕带与计算机的高速、精准识别,可以使大批量实时监控成为可能。
附图说明
图1是本发明的一种基于可穿戴设备的用户情绪识别方法流程示意图;
图2是本发明的检测轨迹数据库内的行为轨迹中异常数据的流程示意图;
图3是本发明的一种基于可穿戴设备的用户情绪识别系统结构示意图;
图4是本发明的情绪识别模块结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
本发明所涉及的可穿戴设备包括腕带智能设备、头戴智能设备以及可穿在身上的可佩带智能设备,比如智能手表和智能头盔。
图1是本发明的一种基于可穿戴设备的用户情绪识别方法流程示意图,如图所示的基于可穿戴设备的用户情绪识别方法,包括:
步骤1:获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据插入至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内。
其中,位置时序数据序列包括用户ID、时间和位置ID。
用户与可穿戴设备交互的行为数据包括交互行为ID、交互时间和位置ID。
用户的行为轨迹的数据格式为:[用户ID,时间,位置ID,交互行为ID,交互行为持续时间]。
在具体实施过程中,本发明采用基于矢量信息相关性计算集((Hsent)的定位算法将所述行为数据插入至位置时序数据序列,用来确定用户位置的准确坐标。其中,基于矢量信息相关性计算集((Hsent)的定位算法的思路为:通过非相关矢量坐标转化,按照中心化坐标矩阵的求解公式,使用统计矢量集重新构造坐标内积矩阵。该算法降低了测距噪声干扰,并直接使用坐标内积矩阵来计算节点坐标。
本发明中的交互行为如登陆、查询和支付。
步骤2:获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联。
其中,情绪特征信息所对应的情绪类型包括惧怕、烦躁、焦虑、愤怒、忧郁、偏见、错觉、嫉妒、孤僻、自卑、悔恨、自私、急躁、多疑、内疚、羞愧和失望。
步骤3:根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型。
在步骤3中,在建立情绪识别模型的过程中,提取轨迹数据库内的行为轨迹及情绪数据库内与所述行为轨迹相对应的情绪特征信息,并对所述行为轨迹及其相对应的情绪特征信息作相关性分析,得到情绪特征信息与其相应的行为轨迹的相关性矩阵,进而得到情绪识别模型。
步骤4:检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。
行为轨迹中的异常数据类型包括:
步速异常:步速过快、步速过慢和徘徊;
轨迹异常:偏离日常轨迹、偏离同伴轨迹、偏离正确轨迹;
登录异常:登录时间异常、登录频率异常、冒名登录;
交互异常:交互习惯改变、消费习惯异常、浏览栏目异常。
本发明将获取的用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序生成用户的行为轨迹并存储至轨迹数据库内;还将获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
再根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;最后检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪;
这样采用非介入式的方式,达到了隐蔽、客观地发现用户异常轨迹行为和交互行为,进而利用情绪识别模型对用户潜在的异常情绪进行识别,提高了对用户的心理活动了解程度及准确性。
图2是本发明的检测轨迹数据库内的行为轨迹中异常数据的流程示意图,如图所示的检测轨迹数据库内的行为轨迹中异常数据过程,包括:
根据轨迹数据库内的行为轨迹中的数据,计算用户趋势方向的活动距离;
对用户趋势方向的活动距离进行聚类计算,根据聚类结果判断行为轨迹中的异常数据。
所述用户趋势方向的活动距离为行为轨迹中位置ID间的距离。
图3是本发明的一种基于可穿戴设备的用户情绪识别系统结构示意图,如图所示的基于可穿戴设备的用户情绪识别系统包括:行为轨迹生成模块、情绪特征信息获取模块、情绪识别模型建立模块和情绪识别模块。
(1)行为轨迹生成模块,其用于获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据插入至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内。
用户的行为轨迹的数据格式为:[用户ID,时间,位置ID,交互行为ID,交互行为持续时间]。
(2)情绪特征信息获取模块,其用于获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联。
(3)情绪识别模型建立模块,其用于根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;
情绪识别模型建立模块还用于:提取轨迹数据库内的行为轨迹及情绪数据库内与所述行为轨迹相对应的情绪特征信息,并对所述行为轨迹及其相对应的情绪特征信息作相关性分析,得到情绪特征信息与其相应的行为轨迹的相关性矩阵,进而得到情绪识别模型。
(4)情绪识别模块,其用于检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。
如图4所示,情绪识别模块还包括:趋势方向信息计算模块,其用于根据轨迹数据库内的行为轨迹中的数据,计算用户趋势方向的活动距离;
聚类计算模块,其用于对用户趋势方向的活动距离进行聚类计算,根据聚类结果判断行为轨迹中的异常数据。
所述用户趋势方向的活动距离为行为轨迹中位置ID间的距离。
本发明将获取的用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序生成用户的行为轨迹并存储至轨迹数据库内;还将获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
再根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;最后检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪;
这样采用非介入式的方式,达到了隐蔽、客观地发现用户异常轨迹行为和交互行为,进而利用情绪识别模型对用户潜在的异常情绪进行识别,提高了对用户的心理活动了解程度及准确性。
本发明还提供了一种基于可穿戴设备的用户情绪识别系统,包括服务器,所述服务器与可穿戴设备相互通信,所述服务器包括:
行为轨迹生成模块,其用于获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据插入至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内;
情绪特征信息获取模块,其用于获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
情绪识别模型建立模块,其用于根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;
情绪识别模块,其用于检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪。
本发明将获取的用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序生成用户的行为轨迹并存储至轨迹数据库内;还将获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
再根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;最后检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪;
这样采用非介入式的方式,达到了隐蔽、客观地发现用户异常轨迹行为和交互行为,进而利用情绪识别模型对用户潜在的异常情绪进行识别,提高了对用户的心理活动了解程度及准确性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (8)
1.一种基于可穿戴设备的用户情绪识别方法,其特征在于,包括:
步骤1:获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据插入至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内;
步骤2:获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
步骤3:根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;
步骤4:检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪;
所述步骤3中,在建立情绪识别模型的过程中,提取轨迹数据库内的行为轨迹及情绪数据库内与所述行为轨迹相对应的情绪特征信息,并对所述行为轨迹及其相对应的情绪特征信息作相关性分析,得到情绪特征信息与其相应的行为轨迹的相关性矩阵,进而得到情绪识别模型。
2.如权利要求1所述的一种基于可穿戴设备的用户情绪识别方法,其特征在于,所述步骤1中的位置时序数据序列包括用户ID、时间和位置ID。
3.如权利要求2所述的一种基于可穿戴设备的用户情绪识别方法,其特征在于,所述步骤1中的用户与可穿戴设备交互的行为数据包括交互行为ID、交互时间和位置ID。
4.如权利要求3所述的一种基于可穿戴设备的用户情绪识别方法,其特征在于,所述步骤1中的用户的行为轨迹的数据格式为:[用户ID,时间,位置ID,交互行为ID,交互行为持续时间]。
5.如权利要求1所述的一种基于可穿戴设备的用户情绪识别方法,其特征在于,所述步骤4中,检测轨迹数据库内的行为轨迹中异常数据的过程为:
根据轨迹数据库内的行为轨迹中的数据,计算用户趋势方向的活动距离;
对用户趋势方向的活动距离进行聚类计算,根据聚类结果判断行为轨迹中的异常数据;
所述用户趋势方向的活动距离为行为轨迹中位置ID间的距离。
6.一种基于可穿戴设备的用户情绪识别系统,其特征在于,包括:
行为轨迹生成模块,其用于获取用户的位置时序数据序列及用户与可穿戴设备交互的行为数据,按照时间顺序将所述行为数据插入至位置时序数据序列,生成用户的行为轨迹并存储至轨迹数据库内;
情绪特征信息获取模块,其用于获取所述行为轨迹相对应的情绪特征信息并储存至情绪数据库,根据时间顺序将轨迹数据库与情绪数据库相关联;
情绪识别模型建立模块,其用于根据由时间关联的轨迹数据库与情绪数据库内的数据,建立情绪识别模型;
情绪识别模块,其用于检测轨迹数据库内的行为轨迹中的异常数据并筛选出异常的行为轨迹,将异常的行为轨迹输入至情绪识别模型,输出用户潜在的异常情绪;
情绪识别模型建立模块还用于:提取轨迹数据库内的行为轨迹及情绪数据库内与所述行为轨迹相对应的情绪特征信息,并对所述行为轨迹及其相对应的情绪特征信息作相关性分析,得到情绪特征信息与其相应的行为轨迹的相关性矩阵,进而得到情绪识别模型。
7.如权利要求6所述的一种基于可穿戴设备的用户情绪识别系统,其特征在于,用户的行为轨迹的数据格式为:[用户ID,时间,位置ID,交互行为ID,交互行为持续时间]。
8.如权利要求6所述的一种基于可穿戴设备的用户情绪识别系统,其特征在于,所述情绪识别模块,还包括:
趋势方向信息计算模块,其用于根据轨迹数据库内的行为轨迹中的数据,计算用户趋势方向的活动距离;所述用户趋势方向的活动距离为行为轨迹中位置ID间的距离;
聚类计算模块,其用于对用户趋势方向的活动距离进行聚类计算,根据聚类结果判断行为轨迹中的异常数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610872788.4A CN106383585B (zh) | 2016-09-30 | 2016-09-30 | 基于可穿戴设备的用户情绪识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610872788.4A CN106383585B (zh) | 2016-09-30 | 2016-09-30 | 基于可穿戴设备的用户情绪识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106383585A CN106383585A (zh) | 2017-02-08 |
CN106383585B true CN106383585B (zh) | 2019-05-07 |
Family
ID=57937160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610872788.4A Active CN106383585B (zh) | 2016-09-30 | 2016-09-30 | 基于可穿戴设备的用户情绪识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106383585B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108052599A (zh) * | 2017-12-12 | 2018-05-18 | 清华大学 | 一种支持特征查询的时序数据存储的方法和装置 |
CN109784175A (zh) * | 2018-12-14 | 2019-05-21 | 深圳壹账通智能科技有限公司 | 基于微表情识别的异常行为人识别方法、设备和存储介质 |
CN109686046A (zh) * | 2018-12-29 | 2019-04-26 | 杭州平普智能科技有限公司 | 一种犯人情绪异常分析管理方法和装置 |
CN112120714B (zh) * | 2019-06-25 | 2023-04-25 | 奇酷互联网络科技(深圳)有限公司 | 可穿戴设备的监测方法、可穿戴设备及计算机存储介质 |
CN112515675B (zh) * | 2020-12-14 | 2022-05-27 | 西安理工大学 | 一种基于智能可穿戴设备的情绪分析方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103052022A (zh) * | 2011-10-17 | 2013-04-17 | 中国移动通信集团公司 | 基于移动行为的用户稳定点发现方法和系统 |
CN104545951A (zh) * | 2015-01-09 | 2015-04-29 | 天津大学 | 基于功能性近红外光谱和运动检测的人体状态监测平台 |
CN105844101A (zh) * | 2016-03-25 | 2016-08-10 | 惠州Tcl移动通信有限公司 | 一种基于智能手表的情绪数据处理方法、系统及智能手表 |
-
2016
- 2016-09-30 CN CN201610872788.4A patent/CN106383585B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103052022A (zh) * | 2011-10-17 | 2013-04-17 | 中国移动通信集团公司 | 基于移动行为的用户稳定点发现方法和系统 |
CN104545951A (zh) * | 2015-01-09 | 2015-04-29 | 天津大学 | 基于功能性近红外光谱和运动检测的人体状态监测平台 |
CN105844101A (zh) * | 2016-03-25 | 2016-08-10 | 惠州Tcl移动通信有限公司 | 一种基于智能手表的情绪数据处理方法、系统及智能手表 |
Also Published As
Publication number | Publication date |
---|---|
CN106383585A (zh) | 2017-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106383585B (zh) | 基于可穿戴设备的用户情绪识别方法及系统 | |
Bobade et al. | Stress detection with machine learning and deep learning using multimodal physiological data | |
CN103549949B (zh) | 基于确定学习理论的心肌缺血辅助检测方法 | |
CN103970271B (zh) | 融合运动和生理传感数据的日常活动识别方法 | |
Brodu et al. | Exploring two novel features for EEG-based brain–computer interfaces: Multifractal cumulants and predictive complexity | |
CN108186011A (zh) | 房颤检测方法、装置及可读存储介质 | |
CN106777954A (zh) | 一种空巢老人健康的智能监护系统及方法 | |
CN105943021A (zh) | 一种可穿戴心脏节律监测装置和心律监测系统 | |
Suryadevara et al. | Intelligent sensing systems for measuring wellness indices of the daily activities for the elderly | |
CN104523281A (zh) | 一种运动监护方法、系统和衣物 | |
CN103927851B (zh) | 一种个人化多阈值跌倒检测方法及系统 | |
CN107714024A (zh) | 用于监测心脏活动的方法、系统及装置 | |
CN105051799A (zh) | 用于检测跌倒的方法和跌倒检测器 | |
CN106419936A (zh) | 一种基于脉搏波时间序列分析的情绪分类方法及装置 | |
CN104757968A (zh) | 儿童失神性癫痫发作情况的中间数据统计评价方法 | |
CN103699217A (zh) | 一种基于运动想象和稳态视觉诱发电位的二维光标运动控制系统及方法 | |
CN112363627A (zh) | 基于脑机交互的注意力训练方法和系统 | |
CN105868547A (zh) | 用户健康状态分析方法、设备、终端及系统 | |
Huang et al. | Hybrid intelligent methods for arrhythmia detection and geriatric depression diagnosis | |
WO2024032728A1 (zh) | 一种智能人机协同系统测评方法、装置及存储介质 | |
CN110367976A (zh) | 脑电波信号检测方法、相关设备和存储介质 | |
Cola et al. | Personalized gait detection using a wrist-worn accelerometer | |
CN110710962A (zh) | 睡眠状态检测方法及装置 | |
CN103785157A (zh) | 人体运动类型识别准确度提高方法 | |
Tiwari et al. | Stress and anxiety measurement" in-the-wild" using quality-aware multi-scale hrv features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |