CN111767367A - 一种学生心情跟踪和提取情绪特征的方法及系统 - Google Patents

一种学生心情跟踪和提取情绪特征的方法及系统 Download PDF

Info

Publication number
CN111767367A
CN111767367A CN202010400576.2A CN202010400576A CN111767367A CN 111767367 A CN111767367 A CN 111767367A CN 202010400576 A CN202010400576 A CN 202010400576A CN 111767367 A CN111767367 A CN 111767367A
Authority
CN
China
Prior art keywords
mood
information
emotional
result
student
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010400576.2A
Other languages
English (en)
Inventor
朱诗倩
王跃辉
黄涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Guangshu Information Technology Co ltd
Original Assignee
Shanghai Guangshu Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Guangshu Information Technology Co ltd filed Critical Shanghai Guangshu Information Technology Co ltd
Priority to CN202010400576.2A priority Critical patent/CN111767367A/zh
Publication of CN111767367A publication Critical patent/CN111767367A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Strategic Management (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Educational Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种学生心情跟踪和提取情绪特征的方法,包括:获取对象的身份信息并对所述身份信息进行识别与判断;获取所述对象的心情信息;以预设区域、预设时期为范围对所述对象的所述心情信息进行分析获得第一结果;依据所述第一结果向用户进行反馈。本发明还公开了一种学生心情跟踪和提取情绪特征的系统,包括:对象模块,用于获取并验证对象的身份信息并获取对象的情绪状况信息;处理模块,用于获得心情信息并以预设区域、预设时期为范围对所述对象的所述心情信息进行分析获得第一结果;用户模块,用于依据所述第一结果向用户进行反馈。本发明的系统及方法能有效分析学生心情并帮助教师判断,完善学生心情管理模式。

Description

一种学生心情跟踪和提取情绪特征的方法及系统
技术领域
本发明涉及教学信息化领域,尤其涉及一种学生心情跟踪和提取情绪特征的方法及系统。
背景技术
传统学生教学心情管理的形式以多以摄像监控即时的热力分析为依据,但该种方法主要是通过摄像头采集人物人脸图像,计算心情综合分布指数,生成心情热力图,低于预设综合阈值即认为是异常情况,检测到后汇报输出,方法片面,无法考虑到学生复杂多样的生活背景,更无法适用学生长期发展需求,因而需要建立新形式的心情管理方法。
若想有效长期的对学生的心情进行管理和监控,需要对学生状况进行长期的管理,并考虑特殊学生的情况,或者特殊时期下心情的不同模式,提供不同的分析方式,保证实施方式的灵活机动,准确且全面,并在此基础上给与老师专业且简单、可实施性强的方案。
目前的解决方案未考虑到特殊群体学生(如生活困难生)的心情状况,也未考虑到特殊情形(如考前、父母离异)下的学生的心情状况,因此缺乏全面性,同时一般学校定期组织开展心理状况调查,无法通过日常情况及时预警,进行有效介入与干预,并且学生填写自评量表方式复杂,仅适用于16岁以上人群,对于中小学生的适用性偏低,且传统的方法其得到的结果需要专人解读分析报告,无法帮助老师和家长的进行及时有效的应对理解难度高。而获得的数据难追踪,隐私保护性差。传统学生心情管理的方法在实践中存在诸多不便和与实际实施脱节的问题。
因此,本领域的技术人员致力于开发一种学生心情跟踪和提取情绪特征的方法及系统。
发明内容
有鉴于现有技术的上述缺陷,本发明所要解决的技术问题是如何在学生心情管理时,充分考虑到学生的本身情况的特殊性,及学生所处时期的特殊性以实现对学生心情进行更为全面且准确的管理;如何确保学生心情数据的准确性;如何保证分析获得的结果具有实时性、灵活性和准确性,能完整的反应不同时期及地域下学生的不同心情状况;如何确保学生的配合意愿提高学生和学校间的互动;如何帮助教师简单准确地了理解学生的状况并高效做出反应。本发明也可以只解决上述技术问题中的一个或多个。
为实现上述目的,本发明的一个方面提供了一种学生心情跟踪和提取情绪特征的方法。在一个具体实施方式中,该学生心情跟踪和提取情绪特征的方法,包括:
获取对象的身份信息并对所述身份信息进行识别与判断;获取所述对象的心情信息;以预设区域、预设时期为范围分析所述对象的所述心情信息获得第一结果;依据所述第一结果向用户进行反馈。
进一步地,所述以预设区域、预设时期为范围对所述对象的所述心情信息进行分析获得第一结果包括:预设第一区域范围,预设第一时期范围;分析所述对象于所述第一区域范围及所述第一时期范围内的所述心情信息,获得所述第一心情结果;分析所述第一区域范围、第一时期范围内全部所述心情信息,获得第二心情结果;对所述第一心情结果与所述第二心情结果进行差异分析得到所述第一结果。
进一步地,所述第一心情结果包括所述对象于所述第一区域范围及所述第一时期范围内所述心情信息的正负倾向、激烈程度、稳定性;所述第二心情结果包括依据所述第一区域范围及所述第一时期范围内的全部所述心情信息确定的所述正负倾向、所述激烈程度、所述稳定性。
进一步地,若所述第一心情结果与所述第二心情结果差异大于预设预警阈值;向所述用户反馈预警信息
进一步地,结合所述激烈程度及所述正负倾向预设激烈程度级别;依据所述稳定性设置稳定性级别;确定所述稳定性级别及所述激烈程度级别下一一对应的关键词;确定所述对象的所述激烈程度级别及稳定性级别并获得对应的所述关键词,否则反馈所述预警信息。
进一步地,若获得所述对象的情绪状况信息;分析所述情绪状况信息的获取频率及波动性判断是否采用所述情绪状况信息生成所述心情信息。
进一步地,若获得所述对象的所述心情信息则生成对应奖励积分。
进一步地,预设心情分类及对应心情指数;获取所述对象所述情绪状况信息并映射到所述心情指数及所述对应心情分类得到所述心情信息。
进一步地,若所述对象情绪状况无法完全映射得到对应的所述心情信息;分析所述情绪状况信息并提取特征词并对所述特征词进行聚类获得第一扩充结果;依据所述第一扩充结果扩充所述预设心情指数及对应所述心情分类并完成映射。
本发明的另一个方面提供了一种学生心情跟踪和提取情绪特征的系统。在一个具体实施方式中,该学生心情跟踪和提取情绪特征的系统,包括:
对象模块,用于获取并验证对象的身份信息并获取对象的情绪状况信息;
处理模块,用于获得心情信息并以预设区域、预设时期为范围对所述对象的所述心情信息进行分析获得第一结果;
用户模块,用于依据所述第一结果向用户进行反馈。
进一步地,所述的对象模块还包括:选择模块,用于所述对象输入情绪状况信息。
进一步地,所述的处理模块还包括:
映射模块,用于将获取所述情绪状况信息映射到心情指数及对应心情分类得到所述心情信息;
扩充模块,用于提取无法进行映射的所述情绪状况信息的特征词并进行聚类以扩充所述心情指数及对应所述心情分类并完成映射;
分析模块,用于分析所述心情信息获得所述第一结果。
进一步地,所述的分析模块还包括:
计算模块:用于依据所述心情信息的确定正负倾向、激烈程度、稳定性
级别模块,用于依据所述正负倾向、所述激烈程度、所述稳定性确定激烈程度级别、稳定性级别及确定对应的关键词。
进一步地,还包括:检验模块,用于分析所述情绪状况信息的获取频率及波动性判断是否采用所述情绪状况信息生成所述心情信息。
进一步地,奖励模块,用于若获得所述对象的所述心情信息则生成对应的奖励积分。
进一步地,所述用户模块可嵌入于手持设备、可穿戴设备、计算设备。
本发明的学生心情跟踪和提取情绪特征的方法及系统,具有如下优势:
通过设置奖励机制积极鼓励学生参与到心情管理活动中来,提高管理的效率降低成本,并通过分析输入情绪状况的波动性及频率确定该信息的是否存在不实或伪造的可能,进一步提高情绪管理结果的准确性,对不同的心情数据进行简化和分类,实现数据的标准化,有效简化之后的分析步骤,并简化教师理解使用的障碍;并将是否参与及参与的积极性和结果的准确性同奖励挂钩,激发学生内在的参与配合度,减少老师参与时间成本。
对于学生阶段性的心情情况作为分析基点,以心情的动态比较变动为分析的要点,避免了极端情况下,对于心情数据不准确的判断,同时以周围相似情况下类似对象的心情数据为分析的参照,通过横向和纵向的双重对比分析中,更能完整准确的发现学生情绪不一样的波动;纵向以学生自身心情的波动变化为基准能判断其心情本身的特殊性,由于以学生自己为基准,能准确获得其学习过程中不同以往的心情状况,横向广范围的多角度的全面比较,能帮助剔除非正常的极端不稳定的因素,或者剔除具有普遍性或周期性的外在因素,减少老师不必要的时间成本,多角度全方面的分析使得更准确地把握学生的心情状况。
在心情管理的过程中具有数据实时存储的功能,用户能通过用户端实时获得学生过往数据的情况,能为个性化的推断提供依据。在心情数据的定位分类时,实时针对新的心情状态对于现有的映射关系进行补充,提高心情状况定性、定量分析的准确性。
以下将结合附图对本发明的构思、具体结构及产生的技术效果作进一步说明,以充分地了解本发明的目的、特征和效果。
附图说明
图1是本发明的一个较佳实施例的学生心情跟踪和提取情绪特征的方法流程图;
图2是本发明的一个较佳实施例的学生心情跟踪和提取情绪特征的系统示意图;
图3是本发明的一个较佳实施例中学生心情提取及聚类示意图。
具体实施方式
以下参考说明书附图介绍本发明的多个优选实施例,使其技术内容更加清楚和便于理解。本发明可以通过许多不同形式的实施例来得以体现,本发明的保护范围并非仅限于文中提到的实施例。
在以下具体实施方式中,情绪状况信息表示适用对象的即时的情绪状况。涉及的心情信息均包括于特定的区域内及特定的时期内,且该心情信息包括个体信息(即个体心情信息)及确定地域及时期下的复数对象的心情信息(即区域整体心情信息)。
本发明的一方面提供了一种学生心情跟踪和提取情绪特征的方法。在一个实施例中,该学生心情跟踪和提取情绪特征的方法包括如下步骤(如图1所示):
S100获取对象的身份信息并对所述身份信息进行识别与判断;
S200获取所述对象的心情信息;
S300以预设区域、预设时期为范围对所述对象的所述心情信息进行分析获得第一结果;
S400依据所述第一结果向用户进行反馈。
其中,S100系统验证步骤中,主要用于获取用户的身份信息且保证该用户信息唯一且准确的,主要通过二维码、卡、人脸识别等身份识别模块进行唯一对立的身份识别。识别对象的身份信息准确性及判断其权限,确认是否有权限进行之后的操作。
其中,S200获取所述对象的心情信息,首先需要对方在对象端设备输入对象本人当前情绪状况信息,主要情绪状况信息可以通过图片选择的方式来表示自己的情绪,例如笑脸表示开心,哭脸表示难过,同时还可通过采取其他方式,例如通过游戏的方式,可以邀请学生进行简单的游戏,然后依据游戏过程中的表现,例如简单的网上电子采菜游戏,通过其采菜的数量、时间长短、频率以及采菜过程中的表现确定情绪状况,或者进行访谈做问卷调查,通过设计心情相关的心理问题从而获得相关的情绪状况。
其中,S110若获得所述对象的情绪状况信息;分析所述情绪状况信息的获取频率及波动性判断是否采用所述情绪状况信息生成所述心情信息。对于所有对象输入的情绪状况进行前后一致性,波动性的判断,例如,若对象于极短的时间内进行多次的情绪输入,或者在极短时间内输入的情绪状况信息相差巨大,则存在受管理对象故意输入错误信息,或者隐瞒真实情绪的情况的可能性,则该情绪状况信息予以抛弃不予采用,进一步的,例如,当在1分钟内,某对象进行了五次情绪的输入,则认为该情绪状况信息存在伪情报可能,则予以抛弃,或者某对象输入开心的情绪状况信息之后又经过了30秒又输入了气愤的情绪信息,此时该情绪波动巨大,不符合基本情绪变化状况,该情绪信息信也予以抛弃。上述抛弃的情绪状况信息都无法进行步骤S210生成心情信息。
其中,S210预设心情分类及对应心情指数;获取所述对象所述情绪状况信息并映射到所述心情指数及所述对应心情分类得到所述心情信息。如下表所示:
情绪类型 类型1(开心) 类型2 类型3 ....... 类型N(愤怒)
定级指数 X(1) X(2) X(3) ....... X(N)
分类 正向/激烈 正向/中等 负向/突出 负向/激烈
事先设置心情指数信息及分类信息,并对输入的情绪状况信息进行映射获得心情信息,即当对象输入开心的情绪状况信息,则映射的定级指数为X(1)对应的分类为正向/激烈,则此时的心情信息为(X(1),正向/激烈);,即当对象输入愤怒的情绪状况信息,则映射的定级指数为X(N)对应的分类为正负向/激烈,则此时的心情信息为(X(N),负向/激烈),可简易表达可为(+/-X(N)),其中X(N)可为具体数字,例如于2018年2 月3日A小学六年级学生B心情信息为-3。
其中,S220若所述对象情绪状况无法完全映射得到对应的所述心情信息,分析所述情绪状况信息并提取特征词并对所述特征词进行聚类获得第一扩充结果,依据所述第一扩充结果扩充所述预设心情指数及对应所述心情分类并完成映射。如图3所示,在对象情绪状况信息输入时即可以使用已有的选项,也可以对于自己的心情进行个性的输入,例如某对象输入(键盘输入或语音识别输入)自己的情绪状况信息“这几天都下雨,阴沉沉的,感觉郁闷”,此时可对于该情绪状况提取关键词“郁闷”,对于另一对象输入的情绪为“感觉无聊”,对于该情绪状况提取关键词“无聊”(心情类型) 对于多种不同的特征词进行聚类识别,将类似的情绪状况进行创建(X(N+1),负向(正向,0)/激烈(平稳...))等新的心情指数和分类并完成分类和定级,完善已有的选项及心情指数和分类。
其中,S230若获得所述对象的所述心情信息则生成对应奖励积分。如果通过步骤S210获得准确的心情信息,则给予该对应对象以积分,对象获得激励积分,激励积分可用于兑换奖励,以此激发用户更高频的记录用户心情数据。
其中,S300预设区域、预设时期为范围对所述对象的所述心情信息进行分析获得第一结果;包括S311预设第一区域范围,预设第一时期范围;S312分析所述对象于所述第一区域范围及所述第一时期范围内的所述心情信息,获得所述第一心情结果; S313分析所述第一区域范围、第一时期范围内全部所述心情信息,获得第二心情结果; S314对所述第一心情结果与所述第二心情结果进行差异分析得到所述第一结果。
S320所述第一心情结果包括所述对象于所述第一区域范围及所述第一时期范围内所述心情信息的正负倾向、激烈程度、稳定性;所述第二心情结果包括依据所述第一区域范围及所述第一时期范围内的全部所述心情信息确定的所述正负倾向、所述激烈程度、所述稳定性。
S330若所述第一心情结果与所述第二心情结果差异大于预设预警阈值;向所述用户反馈预警信息
例如将设置的区域范围是A学校小学6年级学生(即所述预设第一区域范围),时期范围为近期一周内(201×年×月1日-201×年×月7日,即预设第一时期范围) 内的特定对象(设特定对象为A学校小学6年级学生B)或者不特定对象的进行心情信息分析,
其中个人心情信息:即先对一周内个人心情整体的正负倾向,即
Figure RE-GDA0002657576700000061
其中 i=1,2,...,N,其中X(i)具有正负属性;之后判判断个人的激烈程度
Figure RE-GDA0002657576700000062
其中i=1,2,...,N,并按照数值区间分类成级别1、级别2、级别3;之后确定个人的稳定性:
Figure RE-GDA0002657576700000063
其中i=1,2,...,N,按照数值区间分类成级别1、级别 2、级别3…;得到心情结果信息(μ,σ)即第一心情结果。
此时假设对象B,X(1)=1,X(2)=2,X(3)=-1,X(4)=5,X(5)=6,X(7)=-9,依据上述公式则个人正负倾向为:4(即为正);激烈程度为:0.57;稳定性为:24.01。即得到个人心情结果信息(0.57,24.01)。
其中区域的心情信息即以区域范围是A学校小学6年级学生(即所述预设第一区域范围),时期范围为近期一周内(201×年×月1日-201×年×月7日即第一时期范围)范围内全部的个体的心情信息:其中假设存在对象X、Y、Z:
其中:
正负倾向:
Figure RE-GDA0002657576700000064
其中i=1,2,...,N,j=1,2,...,M。
激烈程度:
Figure RE-GDA0002657576700000065
其中i=1,2,...,N,j=1,2,...,M,按照数值区间分类成级别1、级别2、级别3…数值区间与个人激烈程度相同。
稳定性:
Figure RE-GDA0002657576700000071
即获得区域心情结果信息
Figure RE-GDA0002657576700000072
第二心情结果。
其中如下表所述即所述第一区域范围、第一时期范围内全部所述心情信息:
对象/数据 天数1 天数2 天数3 天数4 天数5 天数6 天数7
X 1 1 2 3 4 1 -2
Y 2 2 1 2 -3 -1 2
Z 2 1 -1 2 -1 2 1
即正负倾向:21(即为正),激烈程度:1;稳定性:6.39,即获得区域心情结果信息(1,6.39)。
其中,求(μ,σ)同
Figure RE-GDA0002657576700000074
间距离作为两者间的差,即所述第一结果。
其中,S310若所述第一反应结果与所述第二反应结果差大于预设预警阈值;向所述用户反馈预警信息,其中上述S300步骤中个人的第一心情结果为(0.57,24.01),区域的第二心情结果为(1,6.39),两信息间差为24.01(即第一结果),预设预警阈值为3,则该差大于预设预警阈值,向老师或家长(即用户)进行反馈并着重提醒。
其中,S340结合所述激烈程度及所述正负倾向预设激烈程度级别;依据所述稳定性设置稳定性级别;确定所述稳定性级别及所述激烈程度级别下一一对应的关键词;确定所述对象的所述激烈程度级别及稳定性级别并获得对应的所述关键词,否则反馈所述预警信息。
S410依据所述第一结果向用户提供所述关键词或者所述预警信息。
首先针对激烈程度结合正负倾向进行划分级别(假定划分5个级别),假设含正负的激烈程度为-10到-5为级别1(即激烈程度级别),具体如下表所示:
激烈程度及正负倾向级别划分 级别1 级别2 级别3 级别4 级别5
激烈程度及正负倾向 -10~-5 -5~0 0~5 5~10 10~15
其次针对稳定性进行划分级别(假定划分5个级别),假设激烈程度为0到1为级别1(即稳定性级别),具体如下表所示:
稳定性级别划分 级别1 级别2 级别3 级别4 级别5
稳定性 0~1 1~3 3~5 5~10 10~15
假定激烈程度级别为维度1,稳定性级别为维度2,实现对不同激烈程度级别及稳定性级别对应关键词的预先设置如下表所示:
Figure RE-GDA0002657576700000073
Figure RE-GDA0002657576700000081
依据前述S300、S320、S330,得知特定对象为A学校小学6年级学生B(0.57, 24.01)则其激烈程度及正负倾向为级别3,稳定性不存在对于级别,因此反馈预警信息;假设对象为A学校小学6年级学生B激烈程度及正负倾向为等级3,稳定性等级 3,反馈关键词13(其中第一结果为对应的关键词或者即未找到关键词的事实)。其中关键词为预先设置的具体信息词汇(例如情绪正常,波动正常等)。
本发明的另一方面还提供了一种学生心情跟踪和提取情绪特征的系统。在一个实施例中,该学生心情跟踪和提取情绪特征的方法包括如下模块(如图2所示):对象模块10,处理模块20,用户模块30。
其中对象模块10用于获取并验证所述对象的所述身份信息并获取所述对象的所述情绪状况信息,识别对象的身份信息准确性及判断其权限,确认是否有权限进行之后的操作。可以是固定的班牌,或者移动设备,其中模块与对象数据库连接可以帮助识别并验证用户信息,其中对象模块10中还包括选择模块11,用于所述对象输入所述情绪状况信息,即用户可以通过该选择模块选择自己的情绪信息,比如开心或者生气。
其中处理模块20,包括
映射模块21,用于将获取所述情绪状况信息映射到心情指数及对应心情分类得到所述心情信息;
扩充模块22,用于提取无法进行映射的所述情绪状况信息的特征词并进行聚类以扩充所述心情指数及对应所述心情分类并完成映射;
分析模块23,用于分析所述心情信息获得所述第一结果。
其中,映射模块21预设心情分类及对应心情指数;获取所述对象所述情绪状况信息并映射到所述心情指数及所述对应心情分类得到所述心情信息。如下表所示:
情绪类型 类型1(开心) 类型2 类型3 ....... 类型N(愤怒)
定级指数 X(1) X(2) X(3) ....... X(N)
分类 正向/激烈 正向/中等 负向/突出 负向/激烈
在事先设置心情指数信息及分类信息,并对输入的情绪状况信息进行映射获得心情信息,即当对象输入开心的情绪状况信息,则映射的定级指数为X(1)对应的分类为正向/激烈,则此时的心情信息为(X(1),正向/激烈);,即当对象输入愤怒的情绪信息,则映射的定级指数为X(N)对应的分类为正负向/激烈,则此时的心情信息为(X(N),负向/激烈),可简易表达可为(+/-X(N)),其中X(N)可为具体数字,例如于2018年2 月3日A小学六年级学生B心情信息为-3。
其中,扩充模块22若所述对象情绪状况无法完全映射得到对应的所述心情信息,分析所述情绪状况信息并提取特征词并对所述特征词进行聚类获得第一扩充结果,依据所述第一扩充结果扩充所述预设心情指数及对应所述心情分类并完成映射。如图3 在对象情绪状况信息输入时即可以使用已有的选项,也可以对于自己的心情进行个性的输入,例如某对象输入(键盘输入或语音识别输入)自己的情绪状况信息“这几天都下雨,阴沉沉的,感觉郁闷”,此时可对于该情绪状况提取关键词“郁闷”,对于另一对象输入的情绪为“感觉无聊”,对于该情绪状况提取关键词“无聊”(心情类型) 对于多种不同的特征词进行聚类识别,将类似的情绪状况进行创建(X(N+1),负向(正向,0)/激烈(平稳...))等新的心情指数和分类并完成分类和定级,完善已有的选项及心情指数和分类。
其中分析模块23预设区域、预设时期为范围对所述对象的所述心情信息进行分析获得第一结果;包括预设第一区域范围,预设第一时期范围;分析所述对象于所述第一区域范围及所述第一时期范围内的所述心情信息,获得所述第一心情结果;分析所述第一区域范围、第一时期范围内全部所述心情信息,获得第二心情结果;对所述第一心情结果与所述第二心情结果进行差异分析得到所述第一结果。
其中,所述第一心情结果包括所述对象于所述第一区域范围及所述第一时期范围内所述心情信息的正负倾向、激烈程度、稳定性;所述第二心情结果包括依据所述第一区域范围及所述第一时期范围内的全部所述心情信息确定的所述正负倾向、所述激烈程度、所述稳定性。
其中,若所述第一心情结果与所述第二心情结果差异大于预设预警阈值;向所述用户反馈预警信息。
其中分析模块23还包括:计算模块23-1:用于依据所述心情信息的确定正负倾向、激烈程度、稳定性;
例如将设置的区域范围是A学校小学6年级学生(即所述预设第一区域范围),时期范围为近期一周内(201×年×月1日-201×年×月7日,即预设第一时期范围) 内的特定对象(设特定对象为A学校小学6年级学生B)或者不特定对象的进行心情信息分析,
其中个人心情信息:即先对一周内个人心情整体的正负倾向,即
Figure RE-GDA0002657576700000091
其中 i=1,2,...,N,其中X(i)具有正负属性;之后判判断个人的激烈程度
Figure RE-GDA0002657576700000092
其中i=1,2,...,N,并按照数值区间分类成级别1、级别2、级别3;之后确定个人的稳定性:
Figure RE-GDA0002657576700000093
其中i=1,2,...,N,按照数值区间分类成级别1、级别2、级别3…;得到心情结果信息(μ,σ)即第一心情结果。
此时假设对象B,X(1)=1,X(2)=2,X(3)=-1,X(4)=5,X(5)=6,X(7)=-9,依据上述公式则个人正负倾向为:4(即为正);激烈程度为:0.57;稳定性为:24.01。即得到个人心情结果信息(0.57,24.01)。
其中区域的心情信息即以区域范围是A学校小学6年级学生(即所述预设第一区域范围),时期范围为近期一周内(201×年×月1日-201×年×月7日即第一时期范围)范围内全部的个体的心情信息:其中假设存在对象X、Y、Z:
其中:
正负倾向:
Figure RE-GDA0002657576700000101
其中i=1,2,...,N,j=1,2,...,M。
激烈程度:
Figure RE-GDA0002657576700000102
其中i=1,2,...,N,j=1,2,...,M,按照数值区间分类成级别1、级别2、级别3…数值区间与个人激烈程度相同。
稳定性:
Figure RE-GDA0002657576700000103
即获得区域心情结果信息
Figure RE-GDA0002657576700000104
第二心情结果。
其中如下表所述即所述第一区域范围、第一时期范围内全部所述心情信息:
对象/数据 天数1 天数2 天数3 天数4 天数5 天数6 天数7
X 1 1 2 3 4 1 -2
Y 2 2 1 2 -3 -1 2
Z 2 1 -1 2 -1 2 1
即正负倾向:21(即为正),激烈程度:1;稳定性:6.39,即获得区域心情结果信息(1,6.39)。
其中,求(μ,σ)同
Figure RE-GDA0002657576700000106
间距离作为两者间的差,即所述第一结果。
其中,S310若所述第一反应结果与所述第二反应结果差大于预设预警阈值;向所述用户反馈预警信息,其中上述S300步骤中个人的第一反应结果为(0.57,24.01),区域的第二反应结果为(1,6.39),两信息间差为24.01(即第一结果),预设预警阈值为3,则该差大于预设预警阈值,向老师或家长(即用户)进行反馈并着重提醒。
其中,分析模块23还包括:级别模块23-2,用于依据所述正负倾向、所述激烈程度、所述稳定性确定激烈程度级别、稳定性级别及确定对应的关键词。
首先针对激烈程度结合正负倾向进行划分级别(假定划分5个级别),假设含正负的激烈程度为-10到-5为级别1(即激烈程度级别),具体如下表所示:
Figure RE-GDA0002657576700000105
Figure RE-GDA0002657576700000111
其次针对稳定性进行划分级别(假定划分5个级别),假设激烈程度为0到1为级别1(即稳定性级别),具体如下表所示:
稳定性级别划分 级别1 级别2 级别3 级别4 级别5
稳定性 0~1 1~3 3~5 5~10 10~15
假定激烈程度级别为维度1,稳定性级别为维度2,实现对不同激烈程度级别及稳定性级别对应关键词的预先设置如下表所示:
维度1级别1 维度1级别2 维度1级别3 维度1级别4 维度1级别5
维度2级别1 关键词1 关键词2 关键词3 关键词4 关键词5
维度2级别2 关键词6 关键词7 关键词8 关键词9 关键词10
维度2级别3 关键词11 关键词12 关键词13 关键词14 关键词15
维度2级别4 关键词16 关键词17 关键词18 关键词19 关键词20
维度2级别5 关键词21 关键词22 关键词23 关键词24 关键词25
其中还包括检验模块40,用于分析所述情绪状况信息的获取频率及波动性判断是否采用所述情绪状况信息生成所述心情信息。对于所有对象输入的情绪状况进行前后一致性,波动性的判断,例如,若对象于极短的时间内进行多次的情绪输入,或者在极短时间内输入的情绪状况信息相差巨大,则存在受管理对象故意输入错误信息,或者隐瞒真实情绪的情况的可能性,则该情绪状况信息予以抛弃不予采用,进一步的,例如,当在1分钟内,某对象进行了五次情绪的输入,则认为该情绪状况信息存在伪情报可能,则予以抛弃,或者某对象输入开心的情绪状况信息之后又经过了30秒又输入了气愤的情绪信息,此时该情绪波动巨大,不符合基本情绪变化状况,该情绪信息信也予以抛弃。上述抛弃的情绪状况信息都无法用于生成心情信息。
其中还包括奖励模块50,用于若获得所述对象的所述心情信息则生成对应的奖励积分。若获得所述对象的所述心情信息则生成对应奖励积分。如果获得了准确的心情信息,则给予该对应对象以积分,对象获得激励积分,激励积分可用于兑换奖励,以此激发用户更高频的记录用户心情数据。
其中所述用户模块30可嵌入于手持设备、可穿戴设备、计算设备。按照分析模块23中的结果,其中个人的第一心情结果为(0.57,24.01),区域的第二心情结果为 (1,6.39),两信息间差为24.01(即第一结果),预设预警阈值为3,则该差大于预设预警阈值,向老师或家长(即用户)进行反馈并着重提醒。
或结合分析模块23及级别模块23-2,假定特定对象为A学校小学6年级学生B(0.57,24.01)则其激烈程度及正负倾向为级别3,稳定性不存在对于级别,因此反馈预警信息;假设对象为A学校小学6年级学生B激烈程度及正负倾向为等级3,稳定性等级3,反馈关键词关键词13(其中第一结果为对应的关键词或者即未找到关键词的事实)。其中关键词为预先设置的具体信息词汇(例如情绪正常,波动正常等)。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。

Claims (16)

1.一种学生心情跟踪和提取情绪特征的方法,其特征在于,包括:
获取对象的身份信息并对所述身份信息进行识别与判断;
获取所述对象的心情信息;
以预设区域、预设时期为范围分析所述对象的所述心情信息获得第一结果;
依据所述第一结果向用户进行反馈。
2.如权利要求1所述的学生心情跟踪和提取情绪特征的方法,其特征在于,所述以预设区域、预设时期为范围对所述对象的所述心情信息进行分析获得第一结果包括:
预设第一区域范围,预设第一时期范围;
分析所述对象于所述第一区域范围及所述第一时期范围内的所述心情信息,获得所述第一心情结果;
分析所述第一区域范围、第一时期范围内全部所述心情信息,获得第二心情结果;
对所述第一心情结果与所述第二心情结果进行差异分析得到所述第一结果。
3.如权利要求2所述的学生心情跟踪和提取情绪特征的方法,其特征在于,所述第一心情结果包括所述对象于所述第一区域范围及所述第一时期范围内所述心情信息的正负倾向、激烈程度、稳定性;所述第二心情结果包括依据所述第一区域范围及所述第一时期范围内的全部所述心情信息确定的所述正负倾向、所述激烈程度、所述稳定性。
4.如权利要求2所述的学生心情跟踪和提取情绪特征的方法,其特征在于,包括:若所述第一心情结果与所述第二心情结果差异大于预设预警阈值;向所述用户反馈预警信息。
5.如权利要求3所述的学生心情跟踪和提取情绪特征的方法,其特征在于,包括:
结合所述激烈程度及所述正负倾向预设激烈程度级别;
依据所述稳定性设置稳定性级别;
确定所述稳定性级别及所述激烈程度级别下一一对应的关键词;
确定所述对象的所述激烈程度级别及稳定性级别并获得对应的所述关键词,否则反馈所述预警信息。
6.如权利要求1所述的学生心情跟踪和提取情绪特征的方法,其特征在于,包括:
若获得所述对象的情绪状况信息;分析所述情绪状况信息的获取频率及波动性判断是否采用所述情绪状况信息生成所述心情信息。
7.如权利要求1所述的学生心情跟踪和提取情绪特征的方法,其特征在于,包括:若获得所述对象的所述心情信息则生成对应奖励积分。
8.如权利要求1所述的学生心情跟踪和提取情绪特征的方法,其特征在于,包括:预设心情分类及对应心情指数;获取所述对象所述情绪状况信息并映射到所述心情指数及所述对应心情分类得到所述心情信息。
9.如权利要求8所述的学生心情跟踪和提取情绪特征的方法,其特征在于,还包括:
若所述对象情绪状况无法完全映射得到对应的所述心情信息;
分析所述情绪状况信息并提取特征词并对所述特征词进行聚类获得第一扩充结果;
依据所述第一扩充结果扩充所述预设心情指数及对应所述心情分类并完成映射。
10.一种学生心情跟踪和提取情绪特征的系统,其特征在于,包括:
对象模块,用于获取并验证对象的身份信息并获取对象的情绪状况信息;
处理模块,用于获得心情信息并以预设区域、预设时期为范围对所述对象的所述心情信息进行分析获得第一结果;
用户模块,用于依据所述第一结果向用户进行反馈。
11.如权利要求10所述的学生心情跟踪和提取情绪特征的系统,其特征在于,所述的对象模块还包括:选择模块,用于所述对象输入情绪状况信息。
12.如权利要求10所述的学生心情跟踪和提取情绪特征的系统,其特征在于,所述的处理模块还包括:
映射模块,用于将获取所述情绪状况信息映射到心情指数及对应心情分类得到所述心情信息;
扩充模块,用于提取无法进行映射的所述情绪状况信息的特征词并进行聚类以扩充所述心情指数及对应所述心情分类并完成映射;
分析模块,用于分析所述心情信息获得所述第一结果。
13.如权利要求12所述的学生心情跟踪和提取情绪特征的系统,其特征在于,所述的分析模块还包括:
计算模块:用于依据所述心情信息的确定正负倾向、激烈程度、稳定性
级别模块,用于依据所述正负倾向、所述激烈程度、所述稳定性确定激烈程度级别、稳定性级别及确定对应的关键词。
14.如权利要求10所述的学生心情跟踪和提取情绪特征的系统,其特征在于,还包括:检验模块,用于分析所述情绪状况信息的获取频率及波动性判断是否采用所述情绪状况信息生成所述心情信息。
15.如权利要求10所述的学生心情跟踪和提取情绪特征的系统,其特征在于,还包括:奖励模块,用于若获得所述对象的所述心情信息则生成对应的奖励积分。
16.如权利要求10所述的学生心情跟踪和提取情绪特征的系统,其特征在于,所述用户模块可嵌入于手持设备、可穿戴设备、计算设备。
CN202010400576.2A 2020-05-13 2020-05-13 一种学生心情跟踪和提取情绪特征的方法及系统 Pending CN111767367A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010400576.2A CN111767367A (zh) 2020-05-13 2020-05-13 一种学生心情跟踪和提取情绪特征的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010400576.2A CN111767367A (zh) 2020-05-13 2020-05-13 一种学生心情跟踪和提取情绪特征的方法及系统

Publications (1)

Publication Number Publication Date
CN111767367A true CN111767367A (zh) 2020-10-13

Family

ID=72719197

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010400576.2A Pending CN111767367A (zh) 2020-05-13 2020-05-13 一种学生心情跟踪和提取情绪特征的方法及系统

Country Status (1)

Country Link
CN (1) CN111767367A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104732465A (zh) * 2015-03-20 2015-06-24 广东小天才科技有限公司 一种监测学生学习状态的方法、装置及系统
CN106778575A (zh) * 2016-12-06 2017-05-31 山东瀚岳智能科技股份有限公司 一种基于可穿戴设备的学生学习状态的识别方法与系统
CN107291691A (zh) * 2017-06-06 2017-10-24 歌尔股份有限公司 员工情绪分析方法及系统
CN108095740A (zh) * 2017-12-20 2018-06-01 姜涵予 一种用户情绪评估方法和装置
CN108182832A (zh) * 2018-01-16 2018-06-19 南宁学院 一种泰语语音学习辅助系统
CN109460728A (zh) * 2018-10-31 2019-03-12 深圳市安视宝科技有限公司 一种基于情绪识别的大数据安防管理平台
CN109933782A (zh) * 2018-12-03 2019-06-25 阿里巴巴集团控股有限公司 用户情绪预测方法和装置
CN110837960A (zh) * 2019-11-01 2020-02-25 广州云蝶科技有限公司 学生情感分析方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104732465A (zh) * 2015-03-20 2015-06-24 广东小天才科技有限公司 一种监测学生学习状态的方法、装置及系统
CN106778575A (zh) * 2016-12-06 2017-05-31 山东瀚岳智能科技股份有限公司 一种基于可穿戴设备的学生学习状态的识别方法与系统
CN107291691A (zh) * 2017-06-06 2017-10-24 歌尔股份有限公司 员工情绪分析方法及系统
CN108095740A (zh) * 2017-12-20 2018-06-01 姜涵予 一种用户情绪评估方法和装置
CN108182832A (zh) * 2018-01-16 2018-06-19 南宁学院 一种泰语语音学习辅助系统
CN109460728A (zh) * 2018-10-31 2019-03-12 深圳市安视宝科技有限公司 一种基于情绪识别的大数据安防管理平台
CN109933782A (zh) * 2018-12-03 2019-06-25 阿里巴巴集团控股有限公司 用户情绪预测方法和装置
CN110837960A (zh) * 2019-11-01 2020-02-25 广州云蝶科技有限公司 学生情感分析方法

Similar Documents

Publication Publication Date Title
Vohra Using the multiple case study design to decipher contextual leadership behaviors in Indian organizations
Dunaway et al. Traits versus issues: How female candidates shape coverage of senate and gubernatorial races
Tskhay et al. Accuracy in categorizing perceptually ambiguous groups: A review and meta-analysis
Anderson et al. Measurement: Theory and techniques
Ramaswami et al. Using educational data mining techniques to increase the prediction accuracy of student academic performance
Culotta Reducing sampling bias in social media data for county health inference
Brese TEDS-M 2008 User Guide for the International Database.
CN109659009B (zh) 情绪管理方法、装置及电子设备
CN113656687B (zh) 基于教研数据的教师画像构建方法
Sabbar et al. Mass media vs. the mass of media: a study on the human nodes in a social network and their chosen messages
Beriwal et al. Techniques for suicidal ideation prediction: a qualitative systematic review
Birnbaum Algorithmic approaches to detecting interviewer fabrication in surveys
Schilling Qualitative content analysis in leadership research: principles, process and application
Knezek et al. Assessing approaches to learning with nonparametric multidimensional scaling
CN111767367A (zh) 一种学生心情跟踪和提取情绪特征的方法及系统
Chen et al. Measuring COVID-19 vaccine hesitancy: Consistency of social media with surveys
Milligan Schema learning theory: An approach to perceptual learning
Dyson Text annotation and the cognitive architecture of political leaders: British prime ministers from 1945–2008
CN113051469A (zh) 一种基于k-聚类算法的学科选择推荐方法
Bowen et al. Typologies, indexing, content analysis, meta-analysis, and scaling as measurement techniques
Gonçalves et al. X3S: A multi-modal approach to monitor and assess stress through human-computer interaction
Valdez et al. Assessing rigid modes of thinking in self-declared abortion ideology: natural language processing insights from an online pilot qualitative study on abortion attitudes
Simuforosa et al. A guide to Conducting Research
Qirtas et al. Personalising Loneliness Detection through Behavioural Grouping of Passive Sensing Data from College Students
Sekarningtyas et al. Using k-nearest neighbor algorithm for personality classification of twitter’s users based on the big five theory

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20201013