CN109359539B - 注意力评估方法、装置、终端设备及计算机可读存储介质 - Google Patents

注意力评估方法、装置、终端设备及计算机可读存储介质 Download PDF

Info

Publication number
CN109359539B
CN109359539B CN201811080219.1A CN201811080219A CN109359539B CN 109359539 B CN109359539 B CN 109359539B CN 201811080219 A CN201811080219 A CN 201811080219A CN 109359539 B CN109359539 B CN 109359539B
Authority
CN
China
Prior art keywords
video
characteristic
attention
evaluated
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811080219.1A
Other languages
English (en)
Other versions
CN109359539A (zh
Inventor
乔宇
王锴
彭小江
杨剑飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN201811080219.1A priority Critical patent/CN109359539B/zh
Publication of CN109359539A publication Critical patent/CN109359539A/zh
Application granted granted Critical
Publication of CN109359539B publication Critical patent/CN109359539B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于视频图像处理领域,尤其涉及一种注意力评估方法、装置、终端设备及计算机可读存储介质。所述方法首先获取待评估用户的视频,然后从所述视频中提取所述待评估用户的特征,并将所述待评估用户的特征输入到回归网络中进行处理,由于所述回归网络为预先训练好的进行注意力评估的神经网络模型,使用其对待评估用户的特征进行处理,可以得到对所述待评估用户的注意力评估结果。通过本发明,可以在电子课堂教育中,使得教师充分地了解到学生的注意力情况,针对学生的注意力情况及时对教学方式进行调整,从而带来教学效果的显著提升。

Description

注意力评估方法、装置、终端设备及计算机可读存储介质
技术领域
本发明属于视频图像处理领域,尤其涉及一种注意力评估方法、装置、终端设备及计算机可读存储介质。
背景技术
随着移动互联网技术的迅猛发展,电子课堂教育得到了不断的普及,由于电子课堂教育的特点,使得教师无法充分地了解到学生的注意力情况,难以针对学生的注意力情况及时对教学方式进行调整,从而导致教学效果较差。
发明内容
有鉴于此,本发明实施例提供了一种注意力评估方法、装置、终端设备及计算机可读存储介质,以解决在电子课堂教育中,教师无法充分地了解到学生的注意力情况,教学效果较差的问题。
本发明实施例的第一方面提供了一种注意力评估方法,可以包括:
获取待评估用户的视频;
从所述视频中提取所述待评估用户的特征;
将所述待评估用户的特征输入到回归网络中进行处理,得到对所述待评估用户的注意力评估结果,所述回归网络为预先训练好的进行注意力评估的神经网络模型。
进一步地,所述从所述视频中提取所述待评估用户的特征可以包括:
将所述视频划分为N个视频段,N为正整数;
分别从各个视频段中提取所述待评估用户的特征。
进一步地,所述分别从各个视频段中提取所述待评估用户的特征可以包括:
分别从各个视频段中提取所述待评估用户的姿态特征;
和/或
分别从各个视频段中提取所述待评估用户的人脸特征;
和/或
分别从各个视频段中提取所述待评估用户的三正交平面局部二值模式特征;
和/或
分别从各个视频段中提取所述待评估用户的三维卷积特征。
进一步地,所述将所述待评估用户的特征输入到回归网络中进行处理,得到对所述待评估用户的注意力评估结果可以包括:
将各种特征分别输入到由长短期记忆网络和全连接层组成的回归网络中进行处理,得到基于各种特征的评估结果;
将基于各种特征的评估结果进行融合处理,得到对所述待评估用户的注意力评估结果。
进一步地,所述回归网络在训练过程中使用如下式所示的损失函数:
Figure BDA0001801738530000021
其中,y为网络输出,G为标准值,且G=C(F(M(T1),θ),F(M(T2),θ),......),C为所述回归网络的处理函数,F为特征计算函数,M为每个时间段的矩阵,θ为网络节点的参数,Ti为不同的时间段,Lr为正则项公式,且
Figure BDA0001801738530000022
I为同属一个特征的集合,k为I中的元素数量,yi为当前的样本输出。
本发明实施例的第二方面提供了一种注意力评估装置,可以包括:
视频获取模块,用于获取待评估用户的视频;
特征提取模块,用于从所述视频中提取所述待评估用户的特征;
注意力评估模块,用于将所述待评估用户的特征输入到回归网络中进行处理,得到对所述待评估用户的注意力评估结果,所述回归网络为预先训练好的进行注意力评估的神经网络模型。
进一步地,所述特征提取模块可以包括:
视频段划分单元,用于将所述视频划分为N个视频段,N为正整数;
特征提取单元,用于分别从各个视频段中提取所述待评估用户的特征。
进一步地,所述特征提取单元可以包括:
第一特征提取子单元,用于分别从各个视频段中提取所述待评估用户的姿态特征;
和/或
第二特征提取子单元,用于分别从各个视频段中提取所述待评估用户的人脸特征;
和/或
第三特征提取子单元,用于分别从各个视频段中提取所述待评估用户的三正交平面局部二值模式特征;
和/或
第四特征提取子单元,用于分别从各个视频段中提取所述待评估用户的三维卷积特征。
将各种特征分别输入到由长短期记忆网络和全连接层组成的回归网络中进行处理,得到基于各种特征的评估结果;
将基于各种特征的评估结果进行融合处理,得到对所述待评估用户的注意力评估结果。
进一步地,所述回归网络在训练过程中使用如下式所示的损失函数:
Figure BDA0001801738530000031
其中,y为网络输出,G为标准值,且G=C(F(M(T1),θ),F(M(T2),θ),......),C为所述回归网络的处理函数,F为特征计算函数,M为每个时间段的矩阵,θ为网络节点的参数,Ti为不同的时间段,Lr为正则项公式,且
Figure BDA0001801738530000041
I为同属一个特征的集合,k为I中的元素数量,yi为当前的样本输出。
本发明实施例的第三方面提供了一种注意力评估终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现以上任一种注意力评估方法的步骤。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现以上任一种注意力评估方法的步骤。
本发明实施例与现有技术相比存在的有益效果是:本发明实施例首先获取待评估用户的视频,然后从所述视频中提取所述待评估用户的特征,并将所述待评估用户的特征输入到回归网络中进行处理,由于所述回归网络为预先训练好的进行注意力评估的神经网络模型,使用其对待评估用户的特征进行处理,可以得到对所述待评估用户的注意力评估结果。通过本发明,可以在电子课堂教育中,使得教师充分地了解到学生的注意力情况,针对学生的注意力情况及时对教学方式进行调整,从而带来教学效果的显著提升。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例提供的注意力评估方法的示意流程图;
图2为本发明实施例提供的注意力评估方法的一种具体实现方式的示意图;
图3为本发明实施例提供的注意力评估装置的示意框图;
图4是本发明实施例提供的注意力评估终端设备的示意框图。
具体实施方式
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例一:
如图1所示,是本发明实施例提供的一种注意力评估方法的示意流程图,所述方法可以包括:
步骤S101、获取待评估用户的视频。
该视频即为待评估用户在电子课堂上听课的视频,所述电子课堂包括但不限于大规模开放的在线课程(Massive Open Online Course,MOOC)。一般地,用户可以通过手机、平板电脑、笔记本电脑或者台式电脑等终端设备连接电子课堂进行听课学习,在该用户听课的过程中,可以通过这些终端设备的摄像头采集该用户的听课视频,并将该视频作为待该用户进行注意力评估的依据。
步骤S102、从所述视频中提取所述待评估用户的特征。
在本实施例中,可以首先将所述视频划分为N个视频段,然后分别从各个视频段中提取所述待评估用户的特征。
其中,N为正整数,其具体取值可以根据实际情况设置,例如,可以将其设置为5、10、20或者其它取值,在本实施例中,优选取N=10。
在本实施例中,利用了多示例学习(Multiple Instance Learning,MIL)的方法和原理,对视频进行分段处理,把每个视频看成一个包(Bag),把每个分段看成这个包里的示例(Instance)。针对不同长度的视频,每个段的帧数也是不一样的,即可以随着视频的长度而去自适应地生成分段的长度。训练的时候是将这些视频段作为一个输入单元输入网络,出来的结果是一个视频的预测结果。测试的时候是将这些视频段按照顺序一起送入网络,出来一个结果。与将单帧拿出来做回归比起来,这样做的优点在于以下三点:第一,单帧训练完全丢失了时序信息,而这种方法保留了时序信息,对于最后回归的准确性有很大地帮助;第二,将视频分成不同的段,可以一定程度上减轻视频标签与段的实际情况或者帧的实际情况不一致的现象;第三,每个分段里面包括了很多帧,既有时序信息,也有空间上的变化情况,这种变化的时序和空间信息对于回归的任务是有积极意义的。
所述分别从各个视频段中提取所述待评估用户的特征可以包括:
分别从各个视频段中提取所述待评估用户的姿态特征;
和/或
分别从各个视频段中提取所述待评估用户的人脸特征;
和/或
分别从各个视频段中提取所述待评估用户的三正交平面局部二值模式(LocalBinary Patterns from Three Orthogonal Planes,LBP-TOP)特征;
和/或
分别从各个视频段中提取所述待评估用户的三维卷积(3D Convolution,C3D)特征。
在本实施例中,优选对各个视频段同时进行姿态特征、人脸特征、LBP-TOP特征以及C3D特征这四种特征的提取,这样多方位的综合考虑各种特征,可以有效增加评估结果的准确性。
具体地,可以通过卷积神经网络(Convolutional Neural Network,CNN)提取人脸特征,在本实施例中优选采用人脸识别框架Openface进行对人脸特征点信息的提取,并将每段特征保存成mat文件的形式。
针对人的姿态特征,可以同样使用CNN对姿态信息进行提取,在本实施例中优选采用基于骨架模型的动作识别框架Openpose进行姿态特征的提取,用Openpose将人的上半身关键点进行提取,并去除一些不经常出现的点,例如这个数据集里面的手肘,因为神经网络里面由太多的0会导致稀疏,这对回归分析是不利的,Openpose在检测回归人的关节点坐标的时候,如果没有检测到关键点,便会把那个坐标记为(0,0),如果保存这些信息,将会得到很多扰动的信息,故需要将偶尔出现的关节点去除。
LBP-TOP特征是局部二值模式(Local Binary Patterns,LBP)特征从二维到三维的拓展,单张的图像只有X、Y两个方向,而一个视频或者图像序列除了X、Y方向之外,还有一个沿着时间轴T的方向,而X-Y,X-T和Y-T三个方向是相互正交的。一个图像序列,给出三个正交平面的纹理图,X-Y就是一般正常看到的图像,X-T是每一行沿着时间轴扫描而过的纹理,Y-T是每一列沿着时间轴扫描而过的图像,简单来说,可以在这三个平面都提取LBP特征,然后把三个平面的LBP特征连接起来,就是LBP-TOP。本实施例在进行LBP-TOP特征的提取后,可以获得3*59的特征矩阵,再把该特征矩阵调整到1*177的特征矩阵。
对于C3D特征,同样可以使用CNN做特征提取,在本实施例中,可以采用残差网络ResNet18在预设的数据集sports_1m上预训练的模型进行特征提取,把全连接层前一层的特征抽取出来,这个特征的维度是768维度的。
视频的各个分段在加载数据的时候作为一个批次,这样每次评估的时候是将一个视频完整的特征都利用上,得到一个结果。同时综合这四个特征做一个融合,从而将所能获得的信息充分利用。
步骤S103、将所述待评估用户的特征输入到回归网络中进行处理,得到对所述待评估用户的注意力评估结果。
所述回归网络为预先训练好的进行注意力评估的神经网络模型,该回归网络由长短期记忆(Long Short-Term Memory,LSTM)网络和全连接(Full Connect,FC)层组成,以下简称为LSTM+FC,该回归网络的运行机制是在LSTM中每16次循环迭代为一个周期,然后把最后一个阶段的特征送入FC中做分类。
在本实施例中,可以首先将各种特征分别输入到回归网络中进行处理,得到基于各种特征的评估结果,然后将基于各种特征的评估结果进行融合处理,得到对所述待评估用户的注意力评估结果。
具体地,如图2所示,视频首先被划分为若干个视频段,然后分别对各个视频段中进行姿态特征、人脸特征、LBP-TOP特征以及C3D特征这四种特征的提取,将这些特征分别输入到LSTM+FC的回归网络中进行处理,得到基于各种特征的评估结果,再将各个视频段基于同一特征的评估结果进行融合处理,也即将第1个视频段基于姿态特征的评估结果、第2个视频段基于姿态特征的评估结果、第3个视频段基于姿态特征的评估结果、…、第N个视频段基于姿态特征的评估结果进行融合处理,得到整个视频基于姿态特征的评估结果;将第1个视频段基于人脸特征的评估结果、第2个视频段基于人脸特征的评估结果、第3个视频段基于人脸特征的评估结果、…、第N个视频段基于人脸特征的评估结果进行融合处理,得到整个视频基于人脸特征的评估结果;将第1个视频段基于LBP-TOP特征的评估结果、第2个视频段基于LBP-TOP特征的评估结果、第3个视频段基于LBP-TOP特征的评估结果、…、第N个视频段基于LBP-TOP特征的评估结果进行融合处理,得到整个视频基于LBP-TOP特征的评估结果;将第1个视频段基于C3D特征的评估结果、第2个视频段基于C3D特征的评估结果、第3个视频段基于C3D特征的评估结果、…、第N个视频段基于C3D特征的评估结果进行融合处理,得到整个视频基于C3D特征的评估结果。最后,将整个视频基于姿态特征的评估结果、基于人脸特征的评估结果、基于LBP-TOP特征的评估结果、基于C3D特征的评估结果进行融合处理,得到对所述待评估用户的注意力评估结果。所述融合处理包括但不限于求均值处理及加权平均处理等等。
在进行正式的注意力评估之前,所述回归网络需要预先经过大量的样本训练,在本实施例中,进行训练的样本数据集是在实验室环境下采集的,被试者被要求根据自己的理解去录制出四个等级注意力集中程度的听课视频,四个等级分别是(0,1,2,3),0代表注意力一点也不集中,1代表注意力有点不集中,2代表注意力比较集中,3代表注意力非常集中,每个人录制的视频背景是不一样的,而且有的情况下还会出现有其余的人在后面走动,甚至出现在同一个屏幕里。对于这些样本视频,通过上述步骤S102中所述的过程提取出被试者的特征,并输入到回归网络中进行处理,得到对被试者的注意力评估结果。
所述回归网络在训练过程中使用如下式所示的损失函数对样本的训练结果进行评估:
Figure BDA0001801738530000091
其中,y为网络输出,G为标准值,且G=C(F(M(T1),θ),F(M(T2),θ),......),C为所述回归网络的处理函数,F为特征计算函数,M为每个时间段的矩阵,θ为网络节点的参数,Ti为不同的时间段,Lr为正则项公式,且
Figure BDA0001801738530000092
I为同属一个特征的集合,k为I中的元素数量,yi为当前的样本输出。
可以看出,该损失函数的第一部分是均方差值(Mean Square Error,MSE)损失函数,第二部分是正则(Regularization)损失函数,该损失函数使用调和平均,可以有效的限制某一类的极值分布,从而限制此类的离散程度,有效的提升算法对不平衡数据的鲁棒性,也可以有效地防止过拟合。
在训练过程中,若使用样本数据集对回归网络进行训练后,该损失函数大于预设的阈值,则需要对回归网络的参数进行调整,并再次使用样本数据集对回归网络重新进行训练后,不断重复这一过程,直至该损失函数小于或等于该阈值为止,此时,则可结束对回归网络的训练,并使用训练好的回归网络进行用户的注意力评估。
综上所述,本发明实施例首先获取待评估用户的视频,然后从所述视频中提取所述待评估用户的特征,并将所述待评估用户的特征输入到回归网络中进行处理,由于所述回归网络为预先训练好的进行注意力评估的神经网络模型,使用其对待评估用户的特征进行处理,可以得到对所述待评估用户的注意力评估结果。通过本发明,可以在电子课堂教育中,使得教师充分地了解到学生的注意力情况,针对学生的注意力情况及时对教学方式进行调整,从而带来教学效果的显著提升。
实施例二:
如图3所示,是本发明实施例提供的一种注意力评估装置的示意框图,所述装置可以包括:
视频获取模块301,用于获取待评估用户的视频;
特征提取模块302,用于从所述视频中提取所述待评估用户的特征;
注意力评估模块303,用于将所述待评估用户的特征输入到回归网络中进行处理,得到对所述待评估用户的注意力评估结果,所述回归网络为预先训练好的进行注意力评估的神经网络模型。
进一步地,所述特征提取模块可以包括:
视频段划分单元,用于将所述视频划分为N个视频段,N为正整数;
特征提取单元,用于分别从各个视频段中提取所述待评估用户的特征。
进一步地,所述特征提取单元可以包括:
第一特征提取子单元,用于分别从各个视频段中提取所述待评估用户的姿态特征;
和/或
第二特征提取子单元,用于分别从各个视频段中提取所述待评估用户的人脸特征;
和/或
第三特征提取子单元,用于分别从各个视频段中提取所述待评估用户的三正交平面局部二值模式特征;
和/或
第四特征提取子单元,用于分别从各个视频段中提取所述待评估用户的三维卷积特征。
将各种特征分别输入到由长短期记忆网络和全连接层组成的回归网络中进行处理,得到基于各种特征的评估结果;
将基于各种特征的评估结果进行融合处理,得到对所述待评估用户的注意力评估结果。
进一步地,所述回归网络在训练过程中使用如下式所示的损失函数:
Figure BDA0001801738530000111
其中,y为网络输出,G为标准值,且G=C(F(M(T1),θ),F(M(T2),θ),......),C为所述回归网络的处理函数,F为特征计算函数,M为每个时间段的矩阵,θ为网络节点的参数,Ti为不同的时间段,Lr为正则项公式,且
Figure BDA0001801738530000112
I为同属一个特征的集合,k为I中的元素数量,yi为当前的样本输出。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置,模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
应理解,上述各个实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
图4是本发明一实施例提供的注意力评估终端设备的示意框图。如图4所示,该实施例的注意力评估终端设备4包括:处理器40、存储器41以及存储在所述存储器41中并可在所述处理器40上运行的计算机程序42。所述处理器40执行所述计算机程序42时实现上述各个注意力评估方法实施例中的步骤,例如图1所示的步骤S101至步骤S103。或者,所述处理器40执行所述计算机程序42时实现上述各装置实施例中各模块/单元的功能,例如图3所示模块301至模块303的功能。
示例性的,所述计算机程序42可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器41中,并由所述处理器40执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序42在所述注意力评估终端设备4中的执行过程。例如,所述计算机程序42可以被分割成视频获取模块、特征提取模块、注意力评估模块。
所述注意力评估终端设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述注意力评估终端设备可包括,但不仅限于,处理器40、存储器41。本领域技术人员可以理解,图4仅仅是注意力评估终端设备4的示例,并不构成对注意力评估终端设备4的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述注意力评估终端设备4还可以包括输入输出设备、网络接入设备、总线等。
所述处理器40可以是中央处理单元(Central Processing Unit,CPU),还可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器41可以是所述注意力评估终端设备4的内部存储单元,例如注意力评估终端设备4的硬盘或内存。所述存储器41也可以是所述注意力评估终端设备4的外部存储设备,例如所述注意力评估终端设备4上配备的插接式硬盘,智能存储卡(Smart MediaCard,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器41还可以既包括所述注意力评估终端设备4的内部存储单元也包括外部存储设备。所述存储器41用于存储所述计算机程序以及所述注意力评估终端设备4所需的其它程序和数据。所述存储器41还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (4)

1.一种注意力评估方法,其特征在于,包括:
获取待评估用户的视频;
将所述视频划分为N个视频段,N为正整数;分别从各个视频段中提取所述待评估用户的特征,所述特征包括姿态特征、人脸特征、三正交平面局部二值模式特征以及三维卷积特征;
将各个视频段中的特征分别输入到由长短期记忆网络和全连接层组成的回归网络中进行处理,得到各个视频段基于各种特征的评估结果;将各个视频段基于同一特征的评估结果进行融合处理,具体地,将各个视频段基于姿态特征的评估结果进行融合处理,得到整个视频基于姿态特征的评估结果;将各个视频段基于人脸特征的评估结果进行融合处理,得到整个视频基于人脸特征的评估结果;将各个视频段基于三正交平面局部二值模式特征的评估结果进行融合处理,得到整个视频基于三正交平面局部二值模式特征的评估结果;将各个视频段基于三维卷积特征的评估结果进行融合处理,得到整个视频基于三维卷积特征的评估结果;将整个视频基于姿态特征的评估结果、基于人脸特征的评估结果、基于三正交平面局部二值模式特征的评估结果、基于三维卷积特征的评估结果进行融合处理,得到对所述待评估用户的注意力评估结果;
所述回归网络在训练过程中使用的损失函数为均方差值损失函数和正则损失函数之和。
2.一种注意力评估装置,其特征在于,包括:
视频获取模块,用于获取待评估用户的视频;
特征提取模块,用于将所述视频划分为N个视频段,N为正整数;分别从各个视频段中提取所述待评估用户的特征,所述特征包括姿态特征、人脸特征、三正交平面局部二值模式特征以及三维卷积特征;
注意力评估模块,用于将各个视频段中的特征分别输入到由长短期记忆网络和全连接层组成的回归网络中进行处理,得到各个视频段基于各种特征的评估结果;将各个视频段基于同一特征的评估结果进行融合处理,具体地,将各个视频段基于姿态特征的评估结果进行融合处理,得到整个视频基于姿态特征的评估结果;将各个视频段基于人脸特征的评估结果进行融合处理,得到整个视频基于人脸特征的评估结果;将各个视频段基于三正交平面局部二值模式特征的评估结果进行融合处理,得到整个视频基于三正交平面局部二值模式特征的评估结果;将各个视频段基于三维卷积特征的评估结果进行融合处理,得到整个视频基于三维卷积特征的评估结果;将整个视频基于姿态特征的评估结果、基于人脸特征的评估结果、基于三正交平面局部二值模式特征的评估结果、基于三维卷积特征的评估结果进行融合处理,得到对所述待评估用户的注意力评估结果;
所述回归网络在训练过程中使用的损失函数为均方差值损失函数和正则损失函数之和。
3.一种注意力评估终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1所述的注意力评估方法的步骤。
4.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1所述的注意力评估方法的步骤。
CN201811080219.1A 2018-09-17 2018-09-17 注意力评估方法、装置、终端设备及计算机可读存储介质 Active CN109359539B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811080219.1A CN109359539B (zh) 2018-09-17 2018-09-17 注意力评估方法、装置、终端设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811080219.1A CN109359539B (zh) 2018-09-17 2018-09-17 注意力评估方法、装置、终端设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN109359539A CN109359539A (zh) 2019-02-19
CN109359539B true CN109359539B (zh) 2021-04-02

Family

ID=65350860

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811080219.1A Active CN109359539B (zh) 2018-09-17 2018-09-17 注意力评估方法、装置、终端设备及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN109359539B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220351622A1 (en) * 2021-04-28 2022-11-03 GM Global Technology Operations LLC Intelligent park assist system to reduce parking violations

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934196A (zh) * 2019-03-21 2019-06-25 厦门美图之家科技有限公司 人脸姿态参数评估方法、装置、电子设备及可读存储介质
CN110443226B (zh) * 2019-08-16 2022-01-25 重庆大学 一种基于姿态识别的学生状态评价方法及系统
CN110781739B (zh) * 2019-09-19 2023-07-25 平安科技(深圳)有限公司 提取行人特征的方法、装置、计算机设备和存储介质
CN110704678B (zh) * 2019-09-24 2022-10-14 中国科学院上海高等研究院 评估排序方法、评估排序系统、计算机装置及储存介质
CN111160239A (zh) * 2019-12-27 2020-05-15 中国联合网络通信集团有限公司 专注度评估方法和装置
CN111414838A (zh) * 2020-03-16 2020-07-14 北京文香信息技术有限公司 一种注意力检测方法、装置、系统、终端及存储介质
CN111783951B (zh) * 2020-06-29 2024-02-20 北京百度网讯科技有限公司 基于超网络的模型获取方法、装置、设备及存储介质
CN112115601B (zh) * 2020-09-10 2022-05-17 西北工业大学 一种可靠的用户注意力监测估计表示模型
CN111832669B (zh) * 2020-09-21 2020-12-15 首都师范大学 学习参与度识别网络模型的建立方法及装置
CN112656431A (zh) * 2020-12-15 2021-04-16 中国科学院深圳先进技术研究院 基于脑电的注意力识别方法、装置、终端设备和存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1225375C (zh) * 2003-07-02 2005-11-02 北京交通大学 基于多特征融合的困倦驾驶检测方法
CN101877051A (zh) * 2009-10-30 2010-11-03 江苏大学 驾驶人注意力状态监测方法和装置
CN105550699B (zh) * 2015-12-08 2019-02-12 北京工业大学 一种基于cnn融合时空显著信息的视频识别分类方法
CN107066973B (zh) * 2017-04-17 2020-07-21 杭州电子科技大学 一种利用时空注意力模型的视频内容描述方法
CN108090857B (zh) * 2017-12-29 2021-06-22 复旦大学 一种多模态的学生课堂行为分析系统和方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220351622A1 (en) * 2021-04-28 2022-11-03 GM Global Technology Operations LLC Intelligent park assist system to reduce parking violations

Also Published As

Publication number Publication date
CN109359539A (zh) 2019-02-19

Similar Documents

Publication Publication Date Title
CN109359539B (zh) 注意力评估方法、装置、终端设备及计算机可读存储介质
CN111709409B (zh) 人脸活体检测方法、装置、设备及介质
CN110728209B (zh) 一种姿态识别方法、装置、电子设备及存储介质
CN107704857B (zh) 一种端到端的轻量级车牌识别方法及装置
CN111680678B (zh) 目标区域识别方法、装置、设备及可读存储介质
CN104866868A (zh) 基于深度神经网络的金属币识别方法和装置
CN110765882B (zh) 一种视频标签确定方法、装置、服务器及存储介质
CN112257665A (zh) 图像内容的识别方法、图像识别模型的训练方法及介质
WO2020211242A1 (zh) 一种基于行为识别的方法、装置及存储介质
CN110968734A (zh) 一种基于深度度量学习的行人重识别方法及装置
CN110942110A (zh) 一种三维模型的特征提取方法和装置
CN107590460A (zh) 人脸分类方法、装置及智能终端
CN111488810A (zh) 人脸识别方法、装置、终端设备及计算机可读介质
CN114332911A (zh) 一种头部姿态检测方法、装置及计算机设备
CN113269013B (zh) 对象行为分析方法、信息显示方法及电子设备
CN110163095B (zh) 回环检测方法、回环检测装置及终端设备
CN114170484B (zh) 图片属性预测方法、装置、电子设备和存储介质
CN107729885B (zh) 一种基于多重残差学习的人脸增强方法
CN111652168B (zh) 基于人工智能的群体检测方法、装置、设备及存储介质
CN111626212B (zh) 图片中对象的识别方法和装置、存储介质及电子装置
CN110910478B (zh) Gif图生成方法、装置、电子设备及存储介质
CN115880111A (zh) 基于图像的虚拟仿真实训课堂教学管理方法及系统
CN111611917A (zh) 模型训练方法、特征点检测方法、装置、设备及存储介质
CN115019396A (zh) 一种学习状态监测方法、装置、设备及介质
CN115205961A (zh) 一种羽毛球动作识别方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant