CN113505665B - 基于视频的学生在校情绪判读方法以及装置 - Google Patents
基于视频的学生在校情绪判读方法以及装置 Download PDFInfo
- Publication number
- CN113505665B CN113505665B CN202110720198.0A CN202110720198A CN113505665B CN 113505665 B CN113505665 B CN 113505665B CN 202110720198 A CN202110720198 A CN 202110720198A CN 113505665 B CN113505665 B CN 113505665B
- Authority
- CN
- China
- Prior art keywords
- emotion
- smile
- matrix
- personal
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 442
- 238000000034 method Methods 0.000 title claims abstract description 54
- 239000013598 vector Substances 0.000 claims abstract description 299
- 239000011159 matrix material Substances 0.000 claims abstract description 267
- 230000002159 abnormal effect Effects 0.000 claims abstract description 29
- 230000002996 emotional effect Effects 0.000 claims abstract description 20
- 238000004590 computer program Methods 0.000 claims description 6
- 239000002131 composite material Substances 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims 4
- 230000009323 psychological health Effects 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004630 mental health Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种基于视频的学生在校情绪判读方法以及装置。通过获取情绪样本图像集,并依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量;获取笑容样本图像集,并依据所述笑容样本图像集、所述基准分数以及所述单位矩阵建立笑容矩阵矢量;获取预设周期内的视频数据,所述视频数据包括目标学生群体的人脸图像;所述目标学生群体由若干学生个体组成;依据所述视频数据确定所述目标学生群体的个人列向量组集;依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定所述情绪状态异常的学生个体。通过将个人情绪综合评分低于预设排名的学生推送给相关教师和家长,有利于学生的心理健康成长。
Description
技术领域
本申请涉及情绪识别领域,特别是基于视频的学生在校情绪判读方法以及装置。
背景技术
在现代背景下,学生尤其是中小学生课业负担重和考试与升学压力大等因素,出现焦虑等负面情绪的学生日渐增多。为了学生身心健康呵护的需要,对在校学生进行情绪判读、严重不良情绪跟踪与监测十分必要,是建设和谐社会的一个重要方面。
现有技术中,公开了一种基于课堂情绪和行为分析的学习辅助方法及系统,该系统包括数据采集模块、学生知识掌握检测模块、教师授课内容分析模块和学习推送模块,其中数据采集模块包括视频采集模块和音频采集模块,该方法可以对学生课堂学习掌握程度进行有效分析,实现对学生学习质量的观察评估和记录,并结合教师课堂音频信息,来判断该学生对知识点的掌握情况,通过对未掌握的知识点进行习题推送练习,从而辅助学生完善知识体系。
但现有技术,对课堂以外的学生情绪没有进行分析,对学生在一段时间内的在校情绪,没有进行整体分析,导致严重情绪不良的学生没有受到重视,不利于学生的心理健康。
发明内容
鉴于所述问题,提出了本申请以便提供克服所述问题或者至少部分地解决所述问题的一种基于视频的学生在校情绪判读方法以及装置,包括:
一种基于视频的学生在校情绪判读方法,包括:
获取情绪样本图像集,并依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量;其中,所述情绪样本图像集由标记有情绪等级标签的人脸样本情绪图像组成;所述情绪等级标签包括正常情绪、情绪不佳以及严重负面情绪;
获取笑容样本图像集,并依据所述笑容样本图像集、所述基准分数以及所述单位矩阵建立笑容矩阵矢量;其中,所述笑容样本图像集由标记有笑容标签的人脸样本笑容图像组成;所述笑容标签包括笑脸和非笑脸;
获取预设周期内的视频数据,所述视频数据包括目标学生群体的人脸图像;所述目标学生群体由若干学生个体组成;
依据所述视频数据确定所述目标学生群体的个人列向量组集;其中,所述个人列向量组集由所述目标学生群体中每位所述学生个体所对应的个人列向量组组成;
依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定所述情绪状态异常的学生个体。
优选地,所述依据所述视频数据确定所述目标学生群体的个人列向量组集的步骤,包括:
依据所述视频中的人脸图像生成个人图像组集;其中,所述个人图像组集由所述目标学生群体中每位学生个体的个人图像组组成;
依据所述个人图像组集生成个人列向量组集。
优选地,所述基准分数包括预设的情绪等级基准分数和预设的笑容基准分数;所述依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定情绪状态异常的所述学生个体的步骤,包括:
依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量、预设的情绪等级基准分数以及预设的笑容基准分数确定个人情绪综合评分排序;所述个人情绪综合评分排序为每位所述学生个体所对应的个人情绪综合评分从高到低排序;
将所述个人情绪综合评分排序中低于预设排名的学生个体设置为所述情绪状态异常的学生个体。
优选地,所述依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量、预设的情绪等级基准分数以及预设的笑容基准分数确定个人情绪综合评分排序的步骤,包括:
依据个人列向量组、所述情绪等级矩阵矢量以及预设的情绪等级基准分数生成情绪等级标签组;其中,所述情绪等级标签组由个人图像组中每张人脸图像的情绪等级标签组成;
依据个人列向量组、所述笑容样本矩阵矢量以及预设的笑容基准分数生成笑容标签组;其中,所述笑容标签组由个人图像组中每张人脸图像的笑容标签组成;
依据所述个人图像组中出现情绪等级标签的次数、所述个人图像组中出现笑容标签的次数以及所述个人图像组中的人脸图像张数生成个人情绪综合评分;
依据所述目标学生群体中每位学生个体的所对应的所述个人情绪综合评分生成个人情绪综合评分排序。
优选地,所述依据个人列向量组、所述情绪等级矩阵矢量以及预设的情绪等级基准分数生成情绪等级标签组的步骤,包括:
依据所述个人列向量组、所述预设的情绪等级矩阵矢量生成第一情绪值;
依据所述第一情绪值与所述预设的情绪等级基准分数生成所述情绪等级标签组。
优选地,所述依据个人列向量组、所述笑容样本矩阵矢量以及预设的笑容基准分数生成笑容标签组的步骤,包括:
依据所述个人列向量组、所述笑容样本矩阵矢量生成第一笑容值;
依据所述第一笑容值与所述预设的笑容基准分数生成笑容标签组。
优选地,所述依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量的步骤,包括:
依据所述情绪样本图像集生成情绪样本列向量矩阵;
依据所述情绪样本图像集、所述预设的情绪等级基准分数生成情绪样本分数矩阵;
依据所述情绪样本列向量矩阵、所述情绪样本分数矩阵以及单位矩阵建立情绪等级矩阵矢量。
优选地,所述依据所述笑容样本图像集、所述基准分数以及所述单位矩阵建立笑容矩阵矢量的步骤,包括:
依据所述笑容样本图像集生成笑容样本列向量矩阵;
依据所述笑容样本图像集、所述预设的笑容基准分数生成笑容样本分数矩阵;
依据所述笑容样本列向量矩阵、所述笑容样本分数矩阵以及单位矩阵建立笑容矩阵矢量。
为实现本申请还包括一种基于视频的学生在校情绪判读装置,包括:
情绪等级矩阵矢量建立模块,用于获取情绪样本图像集,并依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量;其中,所述情绪样本图像集由标记有情绪等级标签的人脸样本情绪图像组成;所述情绪等级标签包括正常情绪、情绪不佳以及严重负面情绪;
笑容矩阵矢量建立模块,用于获取笑容样本图像集,并依据所述笑容样本图像集、所述基准分数以及所述单位矩阵建立笑容矩阵矢量;其中,所述笑容样本图像集由标记有笑容标签的人脸样本笑容图像组成;所述笑容标签包括笑脸和非笑脸;
视频获取模块,用于获取预设周期内的视频数据,所述视频数据包括目标学生群体的人脸图像;
个人列向量组集确定模块,用于依据所述视频数据确定所述目标学生群体的个人列向量组集;其中,所述个人列向量组集由所述目标学生群体中每位学生个体的个人列向量组组成;
情绪状态异常学生个体确定模块,用于依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定所述情绪状态异常的学生个体。
为实现本申请还包括一种设备,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现所述的基于视频的学生在校情绪判读方法。
本申请具有以下优点:
在本申请的实施例中,通过获取情绪样本图像集,并依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量;其中,所述情绪样本图像集由标记有情绪等级标签的人脸样本情绪图像组成;所述情绪等级标签包括正常情绪、情绪不佳以及严重负面情绪;获取笑容样本图像集,并依据所述笑容样本图像集、所述基准分数以及所述单位矩阵建立笑容矩阵矢量;其中,所述笑容样本图像集由标记有笑容标签的人脸样本笑容图像组成;所述笑容标签包括笑脸和非笑脸;获取预设周期内的视频数据,所述视频数据包括目标学生群体的人脸图像;所述目标学生群体由若干学生个体组成;依据所述视频数据确定所述目标学生群体的个人列向量组集;其中,所述个人列向量组集由所述目标学生群体中每位所述学生个体所对应的个人列向量组组成;依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定所述情绪状态异常的学生个体。通过校园里的摄像头对学生情绪进行不间断判别,并将所有单个摄像头的监测结果进行综合,对预设周期内学生出现的情绪以及笑容计算个人情绪综合评分,并将个人情绪综合评分低于预设排名的学生推送给相关教师和家长,提醒其重点关注,有利于学生的心理健康成长。
附图说明
为了更清楚地说明本申请的技术方案,下面将对本申请的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提供的一种基于视频的学生在校情绪判读方法的步骤流程图;
图2是本申请一实施例提供的一种基于视频的学生在校情绪判读装置的结构框图;
图3是本发明一实施例提供的一种计算机设备的结构示意图。
具体实施方式
为使本申请的所述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本申请作进一步详细的说明。显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,在本发明任一实施例中用于寻找出情绪状态异常的学生个体。
参照图1,示出了本申请一实施例提供的一种基于视频的学生在校情绪判读方法,所述方法包括:
S110、获取情绪样本图像集,并依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量;其中,所述情绪样本图像集由标记有情绪等级标签的人脸样本情绪图像组成;所述情绪等级标签包括正常情绪、情绪不佳以及严重负面情绪;
S120、获取笑容样本图像集,并依据所述笑容样本图像集、所述基准分数以及所述单位矩阵建立笑容矩阵矢量;其中,所述笑容样本图像集由标记有笑容标签的人脸样本笑容图像组成;所述笑容标签包括笑脸和非笑脸;
S130、获取预设周期内的视频数据,所述视频数据包括目标学生群体的人脸图像;所述目标学生群体由若干学生个体组成;
S140、依据所述视频数据确定所述目标学生群体的个人列向量组集;其中,所述个人列向量组集由所述目标学生群体中每位所述学生个体所对应的个人列向量组组成;
S150、依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定所述情绪状态异常的学生个体。
在本申请的实施例中,通过获取情绪样本图像集,并依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量;其中,所述情绪样本图像集由标记有情绪等级标签的人脸样本情绪图像组成;所述情绪等级标签包括正常情绪、情绪不佳以及严重负面情绪;获取笑容样本图像集,并依据所述笑容样本图像集、所述基准分数以及所述单位矩阵建立笑容矩阵矢量;其中,所述笑容样本图像集由标记有笑容标签的人脸样本笑容图像组成;所述笑容标签包括笑脸和非笑脸;获取预设周期内的视频数据,所述视频数据包括目标学生群体的人脸图像;所述目标学生群体由若干学生个体组成;依据所述视频数据确定所述目标学生群体的个人列向量组集;其中,所述个人列向量组集由所述目标学生群体中每位所述学生个体所对应的个人列向量组组成;依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定所述情绪状态异常的学生个体。通过校园里的摄像头对学生情绪进行不间断判别,并将所有单个摄像头的监测结果进行综合,对预设周期内学生出现的情绪以及笑容计算个人情绪综合评分,并将个人情绪综合评分低于预设排名的学生推送给相关教师和家长,提醒其重点关注,有利于学生的心理健康成长。
下面,将对本示例性实施例中一种基于视频的学生在校情绪判读方法作进一步地说明。
如所述步骤S110所述,获取情绪样本图像集,并依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量;其中,所述情绪样本图像集由标记有情绪等级标签的人脸样本情绪图像组成;所述情绪等级标签包括正常情绪、情绪不佳以及严重负面情绪。
需要说明的是,所述情绪样本图像集为获取具有正常表情(包括高兴、喜悦、中性等表情都属于正常表情)和负面情绪(悲伤、低落等)的8-20岁青少年人脸图像不少于五千幅,其中女性青少年人脸图像不少于两千幅。对收集的人脸进行情绪等级标记,即将每一幅人脸图像标记为正常情绪、情绪不佳和严重负面情绪这三个情绪等级标签之一,将标记后的图片作为情绪样本图像集。
在本发明一实施例中,可以结合下列描述进一步说明步骤S110所述“依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量”的具体过程。
如下列步骤所述,依据所述情绪样本图像集生成情绪样本列向量矩阵。
在一具体实现中,将所述情绪样本图像集中的每张人脸样本情绪图像都统一缩放为220*110像素大小的像素值位于0-255之间的灰度图像。再将所述灰度图像都按照同一方式转换为列向量,生成情绪样本列向量矩阵。
作为一种示例,令数据库中一共有N幅人脸样本情绪图像,其列向量分别记为p1,...,pN,将其生成情绪样本列向量矩阵P=(p1,...,pN)。
如下列步骤所述,依据所述情绪样本图像集、所述预设的情绪等级基准分数生成情绪样本分数矩阵。
作为一种示例,将每一幅人脸样本情绪图像的情绪标记结果转换为分数值,且分别将正常情绪、情绪不佳和严重负面情绪分别对应转变为0,60,100这三个情绪分数;其中0,60,100也称为三个预设的情绪等级基准分数。令N幅人脸样本情绪图像对应的情绪样本分数分别为q1,...,qN,将组成为情绪样本分数矩阵Q=(q1,...,qN)。
在一具体实施例中,将标记为正常情绪的人脸样本情绪图像转变为0分,将标记为情绪不佳的人脸样本情绪图像转变为60分,将标记为严重负面情绪的人脸样本情绪图像转变为100分。
如下列步骤所述,依据所述情绪样本列向量矩阵、所述情绪样本分数矩阵以及单位矩阵建立情绪等级矩阵矢量。
在本发明一实施例中,可以结合下列描述进一步说明步骤“依据所述情绪样本列向量矩阵和所述情绪样本分数矩阵建立情绪等级矩阵矢量”的具体过程。
如下列步骤所述,依据所述情绪样本列向量矩阵生成情绪样本转置矩阵;
如下列步骤所述,依据所述情绪样本列向量矩阵、情绪样本转置矩阵、单位矩阵以及情绪样本分数矩阵建立所述情绪等级矩阵矢量。
作为一种示例,情绪等级矩阵矢量v的计算公式为:
v=(PtP+αI)-1PtQ
其中:Pt代表情绪样本列向量矩阵P的转置矩阵,上标-1代表求矩阵的逆,α代表一个值小于0.01的正数,I代表单位矩阵。
如所述步骤S120所述,获取笑容样本图像集,并依据所述笑容样本图像集、所述基准分数以及所述单位矩阵建立笑容矩阵矢量;其中,所述笑容样本图像集由标记有笑容标签的人脸样本笑容图像组成;所述笑容标签包括笑脸和非笑脸。
需要说明的是,获取笑容样本图像集为获取8-20岁的青少年,收集具有笑容的人脸(简称笑脸)和其他情况的人脸图像不少于七千幅,其中女性青少年人脸样本笑容图像不少于三千幅。对收集的人脸进行标记,即将图像标记为笑脸或非笑脸这两个笑容标签之一,即为人脸样本笑容图像。
在本发明一实施例中,可以结合下列描述进一步说明步骤S120所述“依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量”的具体过程。
如下列步骤所述,依据所述笑容样本图像集生成笑容样本列向量矩阵;
在一具体实现中,将每一幅人脸样本笑容图像都统一缩放为280*150像素大小的像素值位于0-255之间的灰度图像。将每一幅人脸样本笑容图像都按照同一方式转换为列向量;人脸笑容数据库中一共有M幅人脸样本笑容图像,其列向量分别记为b1,...,bM,将其生成笑容样本列向量矩阵B=(b1,...,bM)。
如下列步骤所述,依据所述笑容样本图像集、所述预设的笑容基准分数生成笑容样本分数矩阵;
在一具体实施例中,将每张人脸样本情绪图像的笑容标记结果转换为分数值,即分别将笑脸、非笑脸转变为1和0这两个分数值;令M幅人脸样本笑容图像对应的情绪分数分别为c1,...,cM,将其生成笑容样本分数矩阵C=(c1,...,cM)。
如下列步骤所述,依据所述笑容样本列向量矩阵、所述笑容样本分数矩阵以及单位矩阵建立笑容矩阵矢量。
作为一种示例,笑容矩阵矢量u计算公式为:
u=(BtB+βJ)-1BtC
其中:Bt代表笑容样本列向量矩阵B的转置矩阵,上标-1代表求矩阵的逆,β代表一个值小于0.01的正数,J代表单位矩阵。
如所述步骤S130所述,获取预设周期内的视频数据,所述视频数据包括目标学生群体的人脸图像;所述目标学生群体由若干学生个体组成;
需要说明的是,获取预设周期内的视频数据是基于独立摄像头的学生情绪分类和分析。在有人员存在的情况下,将系统切换为工作模式,定位出视频中的人脸,将独立摄像头的每幅人脸图像都保存下其成像时间,以便于进行后续分析。
在一具体实现中,对单个摄像头的人脸数据进行汇聚,其实现的功能包括:每隔一段时间,如一个星期的视频数据进行获取。
如所述步骤S140所述,依据所述视频数据确定所述目标学生群体的个人列向量组集;其中,所述个人列向量组集由所述目标学生群体中每位所述学生个体所对应的个人列向量组组成;
在本发明一实施例中,可以结合下列描述进一步说明步骤S140所述“依据所述视频数据确定所述目标学生群体的个人列向量组集”的具体过程。
如下列步骤所述,依据所述视频中的人脸图像生成个人图像组集;其中,所述个人图像组集由所述目标学生群体中每位学生个体的个人图像组组成;
在一具体实现中,对视频中来自一个校园的所有经过判识的人脸图像进行汇总,得到经汇总的人脸图像库;将来自同一人的人脸随机选择的方式保留其一幅人脸图像作为学生个体的识别图像,依据学生个体的识别图像选择出人脸图像库中单个学生个体的所有图像作为个人图像组。
在一具体实现中,将所述视频数据中目标学生群体中每位学生个体的个人图像组的集合作为个人图像组集。
如下列步骤所述,依据所述个人图像组集生成个人列向量组集。
作为一种示例,所述个人列向量组集包括情绪个人列向量组集和笑容个人列向量组集。
在一具体实现中,首先将个人图像组中每张人脸图像其缩放为220*110像素值位于0-255之间的灰度图像,然后将其转换为列向量作为情绪个人列向量组,情绪个人列向量组的集合即为情绪个人列向量组集;其中,将情绪个人列向量组中每张人脸图像的情绪列向量记为g。
在一具体实现中,首先将个人图像组中每张人脸图像其缩放为280*150像素值位于0-255之间的灰度图像,然后将其转换为列向量作为笑容个人列向量组,笑容个人列向量组的集合作为笑容个人列向量组集;其中,将笑容个人列向量组中每张人脸图像的笑容列向量记为h。
如所述步骤S150所述,依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定所述情绪状态异常的学生个体。
在本发明一实施例中,可以结合下列描述进一步说明步骤S150所述“所述依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定情绪状态异常的所述学生个体”的具体过程。
如下列步骤所述,依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量、预设的情绪等级基准分数以及预设的笑容基准分数确定个人情绪综合评分排序;所述个人情绪综合评分排序为每位所述学生个体所对应的个人情绪综合评分从高到低排序;
在本发明一实施例中,可以结合下列描述进一步说明步骤“依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量、预设的情绪等级基准分数以及预设的笑容基准分数确定个人情绪综合评分排序”的具体过程。
如下列步骤所述,依据个人列向量组、所述情绪等级矩阵矢量以及预设的情绪等级基准分数生成情绪等级标签组;其中,所述情绪等级标签组由个人图像组中每张人脸图像的情绪等级标签组成;
在本发明一实施例中,可以结合下列描述进一步说明步骤“依据个人列向量组、所述情绪等级矩阵矢量以及预设的情绪等级基准分数生成情绪等级标签组”的具体过程。
如下列步骤所述,依据所述个人列向量组、所述预设的情绪等级矩阵矢量生成第一情绪值;
作为一种示例,情绪个人列向量组中每张人脸图像的情绪列向量g。令第一情绪值r=v·g,即第一情绪值r为情绪等级矩阵矢量v与情绪列向量g点乘的结果。
如下列步骤所述,依据所述第一情绪值与所述预设的情绪等级基准分数生成所述情绪等级标签组。
作为一种示例,第一情绪值r与三个情绪等级基准分数0,60,100差值的绝对值分别为d1,d2,d3。若d1为三者的最小值,则将当前的人脸图像标记为正常情绪,若d2为三者的最小值,则将当前的人脸图像标记为情绪不佳,否则,将当前的人脸图像标记为严重负面情绪。将每张人脸图像的情绪等级标签的集合作为情绪等级标签组。
在本发明一实施例中,可以结合下列描述进一步说明步骤“依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量、预设的情绪等级基准分数以及预设的笑容基准分数确定个人情绪综合评分排序”的具体过程。
如下列步骤所述,依据个人列向量组、所述笑容样本矩阵矢量以及预设的笑容基准分数生成笑容标签组;其中,所述笑容标签组由个人图像组中每张人脸图像的笑容标签组成;
在本发明一实施例中,可以结合下列描述进一步说明步骤“依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量、预设的情绪等级基准分数以及预设的笑容基准分数确定个人情绪综合评分排序”的具体过程。
如下列步骤所述,依据个人列向量组、所述笑容样本矩阵矢量以及预设的笑容基准分数生成笑容标签组。
在本发明一实施例中,可以结合下列描述进一步说明步骤“依据个人列向量组、所述笑容样本矩阵矢量以及预设的笑容基准分数生成笑容标签组”的具体过程。
如下列步骤所述,依据所述个人列向量组、所述笑容样本矩阵矢量生成第一笑容值;
作为一种示例,笑容个人列向量组中每张人脸图像的笑容列向量h。令第一笑容值s=u·h,即第一笑容值s为笑容等级矩阵矢量u与笑容列向量h点乘的结果。
如下列步骤所述,依据所述第一笑容值与所述预设的笑容基准分数生成笑容标签组。
作为一种示例,第一笑容值s与两个笑容基准分数1和0的差值的绝对值分别为f1,f2。若f1<f2,则将当前的人脸图像标记为笑脸,相反,则将当前的人脸图像标记为非笑脸。
如所述步骤S150所述,依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定所述情绪状态异常的学生个体。
在本发明一实施例中,可以结合下列描述进一步说明步骤所述“依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量、预设的情绪等级基准分数以及预设的笑容基准分数确定个人情绪综合评分排序”的具体过程。
如下列步骤所述,依据所述个人图像组中出现情绪等级标签的次数、所述个人图像组中出现笑容标签的次数以及所述个人图像组中的人脸图像张数生成个人情绪综合评分。
在一具体实施例中,在视频数据中给出监测到的每个学生一周内出现正常情绪、情绪不佳、严重负面情绪的次数以及笑脸次数,并给出学生个体一周情绪的个人情绪综合评分依据上述不同时间段的所有经汇总的人脸图像库,每个学生个体一周内的所有人脸图像共有n幅,其中被判定为正常情绪、情绪不佳、严重负面情绪和笑脸的图像数分别为n1,n2,n3,n4,则认为该学生一周内出现正常情绪、情绪不佳、严重负面情绪以及笑脸的次数分别为n1,n2,n3,n4。该学生一周情绪的原始综合评分记为为了符合常规,得出所有学生个体的个人情绪综合评分之后,将ss0归一化为30-100之间,并将归一化之后的分数称为个人情绪综合评分ss1。
在本发明一实施例中,可以结合下列描述进一步说明步骤所述“依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量、预设的情绪等级基准分数以及预设的笑容基准分数确定个人情绪综合评分排序”的具体过程。
如下列步骤所述,依据所述目标学生群体中每位学生个体的所对应的所述个人情绪综合评分生成个人情绪综合评分排序。
在一具体实施例中,将所述目标群体中每个学生个体的个人情绪综合评分由高到低进行排序,生成个人情绪综合评分排序。
在本发明一实施例中,可以结合下列描述进一步说明步骤S150所述“所述依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定情绪状态异常的所述学生个体”的具体过程。
如下列步骤所述,将所述个人情绪综合评分排序中低于预设排名的学生个体设置为所述情绪状态异常的学生个体。
在一具体实施例中,校园中个人情绪综合评分排序中最低的前1%的学生推送给相关教师和家长,提醒其重点关注。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
参照图2,示出了本申请一实施例提供的一种基于视频的学生在校情绪判读装置;
具体包括:
情绪等级矩阵矢量建立模块210,用于获取情绪样本图像集,并依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量;其中,所述情绪样本图像集由标记有情绪等级标签的人脸样本情绪图像组成;所述情绪等级标签包括正常情绪、情绪不佳以及严重负面情绪;
笑容矩阵矢量建立模块220,用于获取笑容样本图像集,并依据所述笑容样本图像集、所述基准分数以及所述单位矩阵建立笑容矩阵矢量;其中,所述笑容样本图像集由标记有笑容标签的人脸样本笑容图像组成;所述笑容标签包括笑脸和非笑脸;
视频获取模块230,用于获取预设周期内的视频数据,所述视频数据包括目标学生群体的人脸图像;所述目标学生群体由若干学生个体组成;
个人列向量组集确定模块240,用于依据所述视频数据确定所述目标学生群体的个人列向量组集;其中,所述个人列向量组集由所述目标学生群体中每位学生个体的个人列向量组组成;
情绪状态异常学生个体确定模块250,用于依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定所述情绪状态异常的学生个体。
在本发明一实施例中,所述情绪等级矩阵矢量建立模块模块210,包括:
情绪样本列向量矩阵生成子模块,用于依据所述情绪样本图像集生成情绪样本列向量矩阵;
情绪样本分数矩阵生成子模块,用于依据所述情绪样本图像集、所述预设的情绪等级基准分数生成情绪样本分数矩阵。
情绪等级矩阵矢量子模块,用于依据所述情绪样本列向量矩阵、所述情绪样本分数矩阵以及单位矩阵建立情绪等级矩阵矢量。
在本发明一实施例中,所述情绪等级矩阵矢量子模块,包括:
情绪样本转置矩阵生成子模块,用于依据所述情绪样本列向量矩阵生成情绪样本转置矩阵;
所述情绪等级矩阵矢量建立子模块,用于依据所述情绪样本列向量矩阵、情绪样本转置矩阵、单位矩阵以及情绪样本分数矩阵建立所述情绪等级矩阵矢量。
在本发明一实施例中,所述笑容矩阵矢量建立模块220,包括:
笑容样本列向量矩阵子模块生成,用于依据所述笑容样本图像集生成笑容样本列向量矩阵;
笑容样本分数矩阵生成子模块,用于依据所述笑容样本图像集、所述预设的笑容基准分数生成笑容样本分数矩阵;
笑容矩阵矢量子模块依据所述笑容样本列向量矩阵、所述笑容样本分数矩阵以及单位矩阵建立笑容矩阵矢量。
在本发明一实施例中,所述笑容矩阵矢量子模块,包括:
笑容样本转置矩阵生成子模块,用于依据所述笑容样本列向量矩阵生成笑容样本转置矩阵;
所述笑容矩阵矢量建立子模块,用于依据所述笑容样本列向量矩阵、笑容样本转置矩阵、单位矩阵以及笑容样本分数矩阵建立所述笑容矩阵矢量。
在本发明一实施例中,所述个人列向量组集确定模块240,包括:
个人图像组集生成子模块,用于依据所述视频中的人脸图像生成个人图像组集;其中,所述个人图像组集由所述目标学生群体中每位学生个体的个人图像组组成;
个人列向量组集生成子模块,用于依据所述个人图像组集生成个人列向量组集。
在本发明一实施例中,所述情绪状态异常学生个体确定模块250,包括:
个人情绪综合评分排序确定子模块,用于依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量、预设的情绪等级基准分数以及预设的笑容基准分数确定个人情绪综合评分排序;所述个人情绪综合评分排序为每位所述学生个体所对应的个人情绪综合评分从高到低排序;
在本发明一实施例中,所述个人情绪综合评分排序确定子模块,包括:
情绪等级标签组生成子模块,用于依据个人列向量组、所述情绪等级矩阵矢量以及预设的情绪等级基准分数生成情绪等级标签组;其中,所述情绪等级标签组由个人图像组中每张人脸图像的情绪等级标签组成;
在本发明一实施例中,所述情绪等级标签组生成子模块,包括:
第一情绪值子生成模块,用于依据所述个人列向量组、所述预设的情绪等级矩阵矢量生成第一情绪值;
情绪等级标签组生成子模块,用于依据所述第一情绪值与所述预设的情绪等级基准分数生成所述情绪等级标签组。
在本发明一实施例中,所述个人情绪综合评分排序确定子模块,包括:
笑容标签组生成子模块,用于依据个人列向量组、所述笑容样本矩阵矢量以及预设的笑容基准分数生成笑容标签组;其中,所述笑容标签组由个人图像组中每张人脸图像的笑容标签组成;
在本发明一实施例中,所述笑容标签组生成子模块,包括:
第一笑容值生成子模块,用于依据所述个人列向量组、所述笑容样本矩阵矢量生成第一笑容值;
笑容标签组子生成模块,用于依据所述第一笑容值与所述预设的笑容基准分数生成笑容标签组。
在本发明一实施例中,所述个人情绪综合评分排序确定子模块,包括:
个人情绪综合评分生成子模块,用于依据所述个人图像组中出现情绪等级标签的次数、所述个人图像组中出现笑容标签的次数以及所述个人图像组中的人脸图像张数生成个人情绪综合评分;
在本发明一实施例中,所述个人情绪综合评分排序确定子模块,包括:
个人情绪综合评分排序生成子模块,用于依据所述目标学生群体中每位学生个体的所对应的所述个人情绪综合评分生成个人情绪综合评分排序。
在本发明一实施例中,所述情绪状态异常学生个体确定模块250,包括:
情绪状态异常的学生个体设置子模块,用于将所述个人情绪综合评分排序中低于预设排名的学生个体设置为所述情绪状态异常的学生个体。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
在本具体实施例与上述具体实施例中有重复的操作步骤,本具体实施例仅做简单描述,其余方案参考上述具体实施例描述即可。
对于系统实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
参照图3,示出了本申请的基于视频的学生在校情绪判读方法的计算机设备,具体可以包括如下:
上述计算机设备12以通用计算设备的形式表现,计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,内存28,连接不同系统组件(包括内存28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、音视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
内存28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器30和/或高速缓存存储器32。计算机设备12可以进一步包括其他移动/不可移动的、易失性/非易失性计算机体统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(通常称为“硬盘驱动器”)。尽管图3中未示出,可以提供用于对可移动非易失性磁盘(如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其他光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质界面与总线18相连。存储器可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块42,这些程序模块42被配置以执行本申请各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其他程序模块42以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本申请所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24、摄像头等)通信,还可与一个或者多个使得操作人员能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其他计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过I/O接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN)),广域网(WAN)和/或公共网络(例如因特网)通信。如图3所示,网络适配器20通过总线18与计算机设备12的其他模块通信。应当明白,尽管图3中未示出,可以结合计算机设备12使用其他硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元16、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统34等。
处理单元16通过运行存储在内存28中的程序,从而执行各种功能应用以及数据处理,例如实现本申请实施例所提供的基于视频的学生在校情绪判读方法。
也即,上述处理单元16执行上述程序时实现:获取情绪样本图像集,并依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量;其中,所述情绪样本图像集由标记有情绪等级标签的人脸样本情绪图像组成;所述情绪等级标签包括正常情绪、情绪不佳以及严重负面情绪;获取笑容样本图像集,并依据所述笑容样本图像集、所述基准分数以及所述单位矩阵建立笑容矩阵矢量;其中,所述笑容样本图像集由标记有笑容标签的人脸样本笑容图像组成;所述笑容标签包括笑脸和非笑脸;
获取预设周期内的视频数据,所述视频数据包括目标学生群体的人脸图像;所述目标学生群体由若干学生个体组成;依据所述视频数据确定所述目标学生群体的个人列向量组集;其中,所述个人列向量组集由所述目标学生群体中每位所述学生个体所对应的个人列向量组组成;依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定所述情绪状态异常的学生个体。
在本申请实施例中,本申请还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请所有实施例提供的基于视频的学生在校情绪判读方法。
也即,给程序被处理器执行时实现:获取情绪样本图像集,并依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量;其中,所述情绪样本图像集由标记有情绪等级标签的人脸样本情绪图像组成;所述情绪等级标签包括正常情绪、情绪不佳以及严重负面情绪;获取笑容样本图像集,并依据所述笑容样本图像集、所述基准分数以及所述单位矩阵建立笑容矩阵矢量;其中,所述笑容样本图像集由标记有笑容标签的人脸样本笑容图像组成;所述笑容标签包括笑脸和非笑脸;
获取预设周期内的视频数据,所述视频数据包括目标学生群体的人脸图像;所述目标学生群体由若干学生个体组成;依据所述视频数据确定所述目标学生群体的个人列向量组集;其中,所述个人列向量组集由所述目标学生群体中每位所述学生个体所对应的个人列向量组组成;依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定所述情绪状态异常的学生个体。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言——诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在操作人员计算机上执行、部分地在操作人员计算机上执行、作为一个独立的软件包执行、部分在操作人员计算机上部分在远程计算机上执行或者完全在远程计算机或者服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到操作人员计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
尽管已描述了本申请实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本申请所提供的一种基于视频的学生在校情绪判读方法以及装置,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种基于视频的学生在校情绪判读方法,所述方法用于寻找出情绪状态异常的学生个体,其特征在于,包括:
获取情绪样本图像集,并依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量;其中,所述情绪样本图像集由标记有情绪等级标签的人脸样本情绪图像组成;所述情绪等级标签包括正常情绪、情绪不佳以及严重负面情绪;所述情绪等级矩阵矢量v的计算公式为:
v=(PtP+αI)-1PtQ
其中:Pt代表情绪样本列向量矩阵P的转置矩阵,上标-1代表求矩阵的逆,α代表一个值小于0.01的正数,I代表单位矩阵;
获取笑容样本图像集,并依据所述笑容样本图像集、所述基准分数以及所述单位矩阵建立笑容矩阵矢量;其中,所述笑容样本图像集由标记有笑容标签的人脸样本笑容图像组成;所述笑容标签包括笑脸和非笑脸;所述笑容矩阵矢量u计算公式为:
u=(BtB+βJ)-1BtC
其中:Bt代表笑容样本列向量矩阵B的转置矩阵,上标-1代表求矩阵的逆,β代表一个值小于0.01的正数,J代表单位矩阵;
获取预设周期内的视频数据,所述视频数据包括目标学生群体的人脸图像;所述目标学生群体由若干学生个体组成;
依据所述视频数据确定所述目标学生群体的个人列向量组集;其中,所述个人列向量组集由所述目标学生群体中每位所述学生个体所对应的个人列向量组组成;
依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定所述情绪状态异常的学生个体。
2.根据权利要求1所述的基于视频的学生在校情绪判读方法,其特征在于,所述依据所述视频数据确定所述目标学生群体的个人列向量组集的步骤,包括:
依据所述视频中的人脸图像生成个人图像组集;其中,所述个人图像组集由所述目标学生群体中每位学生个体的个人图像组组成;
依据所述个人图像组集生成个人列向量组集。
3.根据权利要求2所述的基于视频的学生在校情绪判读方法,其特征在于,所述基准分数包括预设的情绪等级基准分数和预设的笑容基准分数;所述依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定情绪状态异常的所述学生个体的步骤,包括:
依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量、预设的情绪等级基准分数以及预设的笑容基准分数确定个人情绪综合评分排序;所述个人情绪综合评分排序为每位所述学生个体所对应的个人情绪综合评分从高到低排序;
将所述个人情绪综合评分排序中低于预设排名的学生个体设置为所述情绪状态异常的学生个体。
4.根据权利要求3所述的基于视频的学生在校情绪判读方法,其特征在于,所述依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量、预设的情绪等级基准分数以及预设的笑容基准分数确定个人情绪综合评分排序的步骤,包括:
依据个人列向量组、所述情绪等级矩阵矢量以及预设的情绪等级基准分数生成情绪等级标签组;其中,所述情绪等级标签组由个人图像组中每张人脸图像的情绪等级标签组成;
依据个人列向量组、所述笑容样本矩阵矢量以及预设的笑容基准分数生成笑容标签组;其中,所述笑容标签组由个人图像组中每张人脸图像的笑容标签组成;
依据所述个人图像组中出现情绪等级标签的次数、所述个人图像组中出现笑容标签的次数以及所述个人图像组中的人脸图像张数生成个人情绪综合评分;
依据所述目标学生群体中每位学生个体的所对应的所述个人情绪综合评分生成个人情绪综合评分排序。
5.根据权利要求4所述的基于视频的学生在校情绪判读方法,其特征在于,所述依据个人列向量组、所述情绪等级矩阵矢量以及预设的情绪等级基准分数生成情绪等级标签组的步骤,包括:
依据所述个人列向量组、所述预设的情绪等级矩阵矢量生成第一情绪值;
依据所述第一情绪值与所述预设的情绪等级基准分数生成所述情绪等级标签组。
6.根据权利要求4所述的基于视频的学生在校情绪判读方法,其特征在于,所述依据个人列向量组、所述笑容样本矩阵矢量以及预设的笑容基准分数生成笑容标签组的步骤,包括:
依据所述个人列向量组、所述笑容样本矩阵矢量生成第一笑容值;
依据所述第一笑容值与所述预设的笑容基准分数生成笑容标签组。
7.根据权利要求3所述的基于视频的学生在校情绪判读方法,其特征在于,所述依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量的步骤,包括:
依据所述情绪样本图像集生成情绪样本列向量矩阵;
依据所述情绪样本图像集、所述预设的情绪等级基准分数生成情绪样本分数矩阵;
依据所述情绪样本列向量矩阵、所述情绪样本分数矩阵以及单位矩阵建立情绪等级矩阵矢量。
8.根据权利要求3所述的基于视频的学生在校情绪判读方法,其特征在于,所述依据所述笑容样本图像集、所述基准分数以及所述单位矩阵建立笑容矩阵矢量的步骤,包括:
依据所述笑容样本图像集生成笑容样本列向量矩阵;
依据所述笑容样本图像集、所述预设的笑容基准分数生成笑容样本分数矩阵;
依据所述笑容样本列向量矩阵、所述笑容样本分数矩阵以及单位矩阵建立笑容矩阵矢量。
9.一种基于视频的学生在校情绪判读装置,其特征在于,包括:
情绪等级矩阵矢量建立模块,用于获取情绪样本图像集,并依据所述情绪样本图像集、基准分数以及单位矩阵建立情绪等级矩阵矢量;其中,所述情绪样本图像集由标记有情绪等级标签的人脸样本情绪图像组成;所述情绪等级标签包括正常情绪、情绪不佳以及严重负面情绪;所述情绪等级矩阵矢量v的计算公式为:
v=(PtP+αI)-1PtQ
其中:Pt代表情绪样本列向量矩阵P的转置矩阵,上标-1代表求矩阵的逆,α代表一个值小于0.01的正数,I代表单位矩阵;
笑容矩阵矢量建立模块,用于获取笑容样本图像集,并依据所述笑容样本图像集、所述基准分数以及所述单位矩阵建立笑容矩阵矢量;其中,所述笑容样本图像集由标记有笑容标签的人脸样本笑容图像组成;所述笑容标签包括笑脸和非笑脸;所述笑容矩阵矢量u计算公式为:
u=(BtB+βJ)-1BtC
其中:Bt代表笑容样本列向量矩阵B的转置矩阵,上标-1代表求矩阵的逆,β代表一个值小于0.01的正数,J代表单位矩阵;
视频获取模块,用于获取预设周期内的视频数据,所述视频数据包括目标学生群体的人脸图像;所述目标学生群体由若干学生个体组成;
个人列向量组集确定模块,用于依据所述视频数据确定所述目标学生群体的个人列向量组集;其中,所述个人列向量组集由所述目标学生群体中每位学生个体的个人列向量组组成;
情绪状态异常学生个体确定模块,用于依据所述个人列向量组集、所述情绪等级矩阵矢量、所述笑容矩阵矢量以及所述基准分数确定所述情绪状态异常的学生个体。
10.一种设备,其特征在于,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至8中任一项所述的基于视频的学生在校情绪判读方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110720198.0A CN113505665B (zh) | 2021-06-28 | 2021-06-28 | 基于视频的学生在校情绪判读方法以及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110720198.0A CN113505665B (zh) | 2021-06-28 | 2021-06-28 | 基于视频的学生在校情绪判读方法以及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113505665A CN113505665A (zh) | 2021-10-15 |
CN113505665B true CN113505665B (zh) | 2023-06-20 |
Family
ID=78011280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110720198.0A Active CN113505665B (zh) | 2021-06-28 | 2021-06-28 | 基于视频的学生在校情绪判读方法以及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113505665B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108806667A (zh) * | 2018-05-29 | 2018-11-13 | 重庆大学 | 基于神经网络的语音与情绪的同步识别方法 |
CN109190487A (zh) * | 2018-08-07 | 2019-01-11 | 平安科技(深圳)有限公司 | 人脸情绪识别方法、装置、计算机设备及存储介质 |
CN110166836A (zh) * | 2019-04-12 | 2019-08-23 | 深圳壹账通智能科技有限公司 | 一种电视节目切换方法、装置、可读存储介质及终端设备 |
CN111259857A (zh) * | 2020-02-13 | 2020-06-09 | 星宏集群有限公司 | 一种人脸笑容评分方法及人脸情绪分类方法 |
CN111259689A (zh) * | 2018-11-30 | 2020-06-09 | 百度在线网络技术(北京)有限公司 | 用于发送信息的方法和装置 |
CN112002348A (zh) * | 2020-09-07 | 2020-11-27 | 复旦大学 | 一种患者语音愤怒情绪识别方法和系统 |
CN112100337A (zh) * | 2020-10-15 | 2020-12-18 | 平安科技(深圳)有限公司 | 交互对话中的情绪识别方法及装置 |
-
2021
- 2021-06-28 CN CN202110720198.0A patent/CN113505665B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108806667A (zh) * | 2018-05-29 | 2018-11-13 | 重庆大学 | 基于神经网络的语音与情绪的同步识别方法 |
CN109190487A (zh) * | 2018-08-07 | 2019-01-11 | 平安科技(深圳)有限公司 | 人脸情绪识别方法、装置、计算机设备及存储介质 |
CN111259689A (zh) * | 2018-11-30 | 2020-06-09 | 百度在线网络技术(北京)有限公司 | 用于发送信息的方法和装置 |
CN110166836A (zh) * | 2019-04-12 | 2019-08-23 | 深圳壹账通智能科技有限公司 | 一种电视节目切换方法、装置、可读存储介质及终端设备 |
CN111259857A (zh) * | 2020-02-13 | 2020-06-09 | 星宏集群有限公司 | 一种人脸笑容评分方法及人脸情绪分类方法 |
CN112002348A (zh) * | 2020-09-07 | 2020-11-27 | 复旦大学 | 一种患者语音愤怒情绪识别方法和系统 |
CN112100337A (zh) * | 2020-10-15 | 2020-12-18 | 平安科技(深圳)有限公司 | 交互对话中的情绪识别方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113505665A (zh) | 2021-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109614934B (zh) | 在线教学质量评估参数生成方法及装置 | |
CN111738041A (zh) | 一种视频分割方法、装置、设备及介质 | |
Paris et al. | Confounded statistical analyses hinder interpretation of the NELP report | |
KR20020084564A (ko) | 인터넷 기반 가상 면접 시스템 및 그것의 방법 | |
CN111611854B (zh) | 一种基于模式识别的课堂情况评价方法 | |
Ahmed et al. | Arabic sign language intelligent translator | |
Padrón-Rivera et al. | Identification of action units related to affective states in a tutoring system for mathematics | |
CN113255572B (zh) | 一种课堂注意力评估方法及系统 | |
Essahraui et al. | An Intelligent Anti-cheating Model in Education Exams | |
Foster et al. | Automatic classification of activities in classroom videos | |
Stigler | Video surveys: New data for the improvement of classroom instruction. | |
CN110941976A (zh) | 一种基于卷积神经网络的学生课堂行为识别方法 | |
Zahn et al. | Video data collection and video analyses in CSCL research | |
CN113505665B (zh) | 基于视频的学生在校情绪判读方法以及装置 | |
Zhou et al. | Automated Detection of Students’ Gaze Interactions in Collaborative Learning Videos: A Novel Approach | |
WO2023079370A1 (en) | System and method for enhancing quality of a teaching-learning experience | |
Triantafyllou et al. | V-GRAFFER, a system for Visual GRoup AFFect recognition, part I: Foundations | |
CN114445744A (zh) | 一种教育视频自动定位方法、装置及存储介质 | |
CN114330943A (zh) | 一种面试辅助方法及装置 | |
US11132500B2 (en) | Annotation task instruction generation | |
Angrave et al. | Creating TikToks, Memes, Accessible Content, and Books from Engineering Videos? First Solve the Scene Detection Problem. | |
US10255906B2 (en) | Sensors and analytics for reading comprehension | |
Lee et al. | A new approach to estimate concentration levels with filtered neural nets for online learning | |
Li et al. | How does analysis of handwritten notes provide better insights for learning behavior? | |
Anekar et al. | Exploring Emotion and Sentiment Landscape of Depression: A Multimodal Analysis Approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |