CN112686232B - 基于微表情识别的教学评价方法、装置、电子设备及介质 - Google Patents
基于微表情识别的教学评价方法、装置、电子设备及介质 Download PDFInfo
- Publication number
- CN112686232B CN112686232B CN202110292506.4A CN202110292506A CN112686232B CN 112686232 B CN112686232 B CN 112686232B CN 202110292506 A CN202110292506 A CN 202110292506A CN 112686232 B CN112686232 B CN 112686232B
- Authority
- CN
- China
- Prior art keywords
- micro
- expression
- video
- target
- teaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及人工智能技术领域,提供一种基于微表情识别的教学评价方法、装置、电子设备及介质,包括:获取多个面部视频,并基于像素差异将每个面部视频分割为多个视频片段;利用时间插值模型基于所述视频片段提取目标微表情图像序列,其中,不同的目标微表情图像序列中目标微表情图像的帧数相同;利用CNN神经网络提取所述目标微表情图像序列的特征向量序列;利用注意力机制基于所述特征向量序列训练LSTM网络得到微表情分类模型;使用所述微表情分类模型对学生在教学中的面部视频进行微表情分类,并根据分类结果计算教学评分。本发明基于目标考评度计算教学评分,教学评价结果更为准确。
Description
技术领域
本发明涉及人工智能技术领域,具体涉及一种基于微表情识别的教学评价方法、装置、电子设备及介质。
背景技术
传统的教学模式下,授课教师往往不能及时感受到学生的上课情绪并调整授课状态和内容,因此实时识别学生情绪,避免课堂情绪处于消极状态是提升教学质量不可或缺的重要环节。
现有的课堂情绪识别系统往往应用于K12教育,只关注到学生当前上课情绪状态,没有结合上课学生的个人信息特点进行情绪分析。对于代理人来说,绩效情况是评判代理人培训效果的重要指标,以往的情绪识别系统没有考虑到结合不同代理人的绩效情况,对于不同学生与不同教学目标的个性化和针对性不强。
发明内容
鉴于以上内容,有必要提出一种基于微表情识别的教学评价方法、装置、电子设备及介质,基于目标考评度计算教学评分,教学评价结果更为准确。
本发明的第一方面提供一种基于微表情识别的教学评价方法,所述方法包括:
获取多个面部视频,并基于像素差异将每个面部视频分割为多个视频片段;
利用时间插值模型基于所述视频片段提取目标微表情图像序列,其中,不同的目标微表情图像序列中目标微表情图像的帧数相同;
利用CNN神经网络提取所述目标微表情图像序列的特征向量序列;
利用注意力机制基于所述特征向量序列训练LSTM网络得到微表情分类模型;
使用所述微表情分类模型对学生在教学中的面部视频进行微表情分类,并根据分类结果计算教学评分。
在一个可选的实施例中,所述根据分类结果计算教学评分包括:
根据所述分类结果中的每类微表情对应的分类概率及对应的微表情权重计算得到学生的情绪度;
根据多个学生的课堂状态度计算得到教学评分。
在一个可选的实施例中,所述利用时间插值模型基于所述视频片段提取目标微表情图像序列包括:
提取所述视频片段中的多个微表情图像;
利用回归局部二元特征法对所述多个微表情图像进行人脸特征点检测;
根据所述人脸特征点对所述多个微表情图像进行对齐处理及归一化处理得到多个目标微表情图像;
利用时间插值模型基于所述多个目标微表情图像进行插值处理得到目标微表情图像序列。
在一个可选的实施例中,所述基于像素差异将每个面部视频分割为多个视频片段包括:
(a)从所述面部视频的第一帧面部图像开始,计算第二帧面部图像与所述第一帧面部图像之间的第一像素差异;
(b)判断所述第一像素差异是否小于预设像素差异阈值;
(c)当确定所述第一像素差异小于所述预设像素差异阈值时,计算第三帧面部图像与所述第二帧面部图像之间的第二像素差异;
(d)判断所述第二像素差异是否小于所述预设像素差异阈值;
(e)当确定所述第二像素差异大于或者等于所述预设像素差异阈值时,以所述第三帧面部图像为分割点分割所述面部视频得到第一视频片段和第二视频片段,并从所述第二视频片段的第一帧面部图像开始,重复上述(a)-(d)的过程,直到将所述面部视频分割为多个视频片段。
在一个可选的实施例中,所述利用CNN神经网络提取所述目标微表情图像序列的特征向量序列包括:
输入所述目标微表情图像序列中每个目标微表情图像至CNN神经网络中进行训练;
获取训练完成的CNN神经网络的倒数第二层卷积层输出的每个目标微表情图像的特征;
将每个目标微表情图像的特征输入至reshape层;
使用所述reshape层将多个所述特征拼接为特征向量序列。
在一个可选的实施例中,所述利用注意力机制基于所述特征向量序列训练LSTM网络得到微表情分类模型包括:
基于所述特征向量序列训练LSTM网络;
将所述LSTM网络的输出层输入到Attention层,其中,所述Attention层对所述特征向量序列中的不同特征赋予不同的权重;
将所述Attention层的输出结果输入到全连接层;
通过所述全连接层得到多种微表情的预测分类标签;
基于所述预测分类标签和期望分类标签对所述LSTM网络进行优化得到微表情分类模型。
在一个可选的实施例中,在获取多个面部视频之后,所述方法还包括:
提取每个面部视频中的多帧第一面部图像;
利用加速图像超分辨率重建的卷积神经网络对每帧第一面部图像进行重建,得到第二面部图像;
将多帧第二面部图像合成为面部视频。
本发明的第二方面提供一种基于微表情识别的教学评价装置,所述装置包括:
分割模块,用于获取多个面部视频,并基于像素差异将每个面部视频分割为多个视频片段;
插值模块,用于利用时间插值模型基于所述视频片段提取目标微表情图像序列,其中,不同的目标微表情图像序列中目标微表情图像的帧数相同;
提取模块,用于利用CNN神经网络提取所述目标微表情图像序列的特征向量序列;
训练模块,用于利用注意力机制基于所述特征向量序列训练LSTM网络得到微表情分类模型;
计算模块,用于使用所述微表情分类模型对学生在教学中的面部视频进行微表情分类,并根据分类结果计算教学评分。
本发明的第三方面提供一种电子设备,所述电子设备包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现所述基于微表情识别的教学评价方法。
本发明的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述基于微表情识别的教学评价方法。
综上所述,本发明所述的基于微表情识别的教学评价方法、装置、电子设备及介质,在获取到多个面部视频后,基于像素差异将每个面部视频分割为多个视频片段,从而为提取同一个人的同一个面部微表情序列提供了数据基础;接着利用时间插值模型基于所述视频片段提取目标微表情图像序列,保证了不同的目标微表情图像序列中目标微表情图像的帧数相同,满足了神经网络的输入需求,有助于训练微表情分类模型;通过调整CNN神经网络的网络结构,使用reshape层替换最后一层卷积层,能够提取所述目标微表情图像序列的特征向量序列,从而能够借助于LSTM网络基于时间序列的数据进行训练的思想,训练微表情分类模型,并在训练微表情分类模型时考虑了不同种类的微表情对于教学状态的权重,使得得到的微表情分类模型更符合实际教学应用,分类效果较佳;最后,使用微表情分类模型基于学生的面部视频进行微表情类别预测,并基于目标考评度计算教学评分,教学评价结果更为准确。
附图说明
图1是本发明实施例一提供的基于微表情识别的教学评价方法的流程图。
图2是本发明实施例提供的微表情权重示意图。
图3是本发明实施例二提供的基于微表情识别的教学评价装置的结构图。
图4是本发明实施例三提供的电子设备的结构示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
本发明实施例提供的基于微表情识别的教学评价方法由电子设备执行,相应地,基于微表情识别的教学评价装置运行于电子设备中。
图1是本发明实施例一提供的基于微表情识别的教学评价方法的流程图。所述基于微表情识别的教学评价方法具体包括以下步骤,根据不同的需求,该流程图中步骤的顺序可以改变,某些可以省略。
S11,获取多个面部视频,并基于像素差异将每个面部视频分割为多个视频片段。
电子设备获取历史教学课堂中的多个学生的视频,所述视频是指包含面部的视频,每个学生对应一个或者多个面部视频,学生可以是指保险代理人。
在获取到多个面部视频之后,基于像素差异将每个面部视频分割为多个视频片段。
在一实施方式中,电子设备将每个面部视频存储在本地中,通过人工从每个学生的一个或者多个面部视频中筛选出人脸图像清晰、光照稳定、背景干净,微表情辨别明显的面部视频。
在一些实施方式中,在获取多个面部视频之后,所述方法还可以包括:
提取每个面部视频中的多帧第一面部图像;
利用加速图像超分辨率重建的卷积神经网络对每帧第一面部图像进行重建,得到第二面部图像;
将多帧第二面部图像合成为面部视频。
其中,所述加速图像超分辨率重建的卷积神经网络(Fast Image superresolution convolution neural network,FSRCNN)能够通过低分辨率图像或图像序列恢复出高分辨率图像。
该可选的实施例中,通过FSRCNN对每个面部视频中的多帧第一面部图像进行重建,能够使得重建得到的第二面部图像具有更多的细节信息和更细腻的画质,从而能够提高微表情的分类效果,进而提高微表情分类模型的预测效果。
在一个可选的实施方式中,所述基于像素差异将每个面部视频分割为多个视频片段包括:
(a)从所述面部视频的第一帧面部图像开始,计算第二帧面部图像与所述第一帧面部图像之间的第一像素差异;
(b)判断所述第一像素差异是否小于预设像素差异阈值;
(c)当确定所述第一像素差异小于所述预设像素差异阈值时,计算第三帧面部图像与所述第二帧面部图像之间的第二像素差异;
(d)判断所述第二像素差异是否小于所述预设像素差异阈值;
(e)当确定所述第二像素差异小于所述预设像素差异阈值时,计算第四帧面部图像与所述第三帧面部图像之间的第三像素差异,并判断所述第三像素差异是否小于所述预设像素差异阈值;当确定所述第二像素差异大于或者等于所述预设像素差异阈值时,以所述第三帧面部图像为分割点分割所述面部视频得到第一视频片段和第二视频片段,并从所述第二视频片段的第一帧面部图像开始,重复上述(a)-(d)的过程,直到将所述面部视频分割为多个视频片段。
电子设备可以利用OpenCV将面部视频分割为帧序列。由于每个面部视频为同一个人的不同时间点的多帧面部图像形成的序列帧,那么同一个人的同一个面部微表情会持续多帧。同一个人的同一个面部微表情的连续多帧的面部图像之间的像素差异较小,同一个人的不同面部微表情的面部图像之间的像素差异较大。前后两帧面部图像之间的像素差异越小,表明这两帧面部图像对应同一个面部微表情的可能性越大,前后两帧面部图像之间的像素差异越大,表明这两帧面部图像对应同一个面部微表情的可能性越小,对应不同面部微表情的可能性越大。
示例性的,假设,面部视频的前3帧面部图像中每相邻两帧面部图像之间的像素差异均小于预设像素差异阈值,第3帧面部图像与第4帧面部图像之间的像素差异大于预设像素差异阈值,则认为前3帧面部图像对应同一个面部微表情,以第4帧面部图像为分割点分割面部视频得到第一视频片段和第二视频片段,第一视频片段为前3帧面部图像组成的序列。重复上述过程,计算第二视频片段中每相邻两帧面部图像之间的像素差异,根据像素差异将第二视频片段分割为第三视频片段和第四视频片段。
在基于像素差异将每个面部视频分割为多个视频片段后,电子设备接收人工针对每个视频片段标注的面部微表情类别。本实施例中可以是7类微表情,分别是厌恶、高兴、抑郁、惊讶、害怕、悲伤以及其他。
该可选的实施例中,通过计算每前后相邻的两帧面部图像之间的像素差异,并根据像素差异将一个人的面部视频分割为多个视频片段,使得每个视频片段仅包括同一个人的同一个面部微表情的连续多帧面部图像,即能够准确的得到同一个面部微表情序列。
S12,利用时间插值模型基于所述视频片段提取目标微表情图像序列,其中,不同的目标微表情图像序列中目标微表情图像的帧数相同。
电子设备利用时间插值模型基于每一个视频片段提取得到一个目标微表情图像序列,每个目标微表情图像序列包括具有相同面部微表情的多帧目标微表情图像。不同的目标微表情图像序列中目标微表情图像的帧数相同。
由于不同的视频片段包含的微表情图像的帧数不同,为了满足神经网络模型的输入统一性需求,电子设备利用时间插值模型基于所述视频片段提取目标微表情图像序列。如此,提取得到的每一个目标微表情图像序列包含相同帧数的微表情图像。例如,每一个微表情图像序列包含N帧微表情图像。
在一个可选的实施方式中,所述利用时间插值模型基于所述视频片段提取目标微表情图像序列包括:
提取所述视频片段中的多个微表情图像;
利用回归局部二元特征法对所述多个微表情图像进行人脸特征点检测;
根据所述人脸特征点对所述多个微表情图像进行对齐处理及归一化处理得到多个目标微表情图像;
利用时间插值模型基于所述多个目标微表情图像进行插值处理得到目标微表情图像序列。
不同的微表情图像中的人脸特征点的位置可能不一致,即出现微表情图像序列对不齐的情况,因此需要对微表情图像序列中的多个微表情图像进行对齐处理,使人脸特征点平移或者旋转后微表情图像仍能保持水平。电子设备可以利用回归局部二元特征法(RLBF)检测每个微表情图像中的人脸特征点,如轮廓、眉毛、眼睛、鼻子、嘴巴等,采用人脸配准方法将多个微表情图像进行对齐处理。
此外,为了提高神经网络模型的训练效率,电子设备可以将对其处理后的微表情图像中与人脸无关的背景区域进行去除。具体实施时,通过人脸特征点定位出人脸微表情关键区域,并将所述关键区域从所述微表情图像中裁剪出来,并将裁剪出来的微表情图像进行尺寸归一化处理,得到目标微表情图像。
最后,利用时间插值模型(Temporal interpolation model,TIM)将微表情图像序列对应的目标微表情图像的帧数归一化,得到目标微表情图像序列。
S13,利用CNN神经网络提取所述目标微表情图像序列的特征向量序列。
每个视频片段对应一个目标微表情图像序列,每个目标微表情图像序列对应一个微表情类别,基于多个所述目标微表情图像序列及对应的微表情类别构建训练数据集,使用所述训练数据集训练CNN神经网络。
在一个可选的实施方式中,所述利用CNN神经网络提取所述目标微表情图像序列的特征向量序列包括:
输入所述目标微表情图像序列中每个目标微表情图像至CNN神经网络中进行训练;
获取训练完成的CNN神经网络的倒数第二层卷积层输出的每个目标微表情图像的特征;
将每个目标微表情图像的特征输入至reshape层;
使用所述reshape层将多个所述特征拼接为特征向量序列。
基于所述训练数据集训练CNN神经网络,CNN神经网络的最后一层卷积层会输出微表情预测类别,因此,电子设备将CNN神经网络的最后一个卷积层变换为reshape层(特征向量拼接层),在获取到训练完成的CNN神经网络的倒数第二层卷积层输出的特征后,将目标微表情图像序列中所有的目标微表情图像的特征全部输入至reshape层,通过所述reshape层将所有的目标微表情图像的特征拼接为一个一维特征向量,则每个目标微表情图像序列对应一个N维的特征向量,表示训练完成的CNN神经网络的倒数第二层卷积层输出的第个目标微表情图像的特征。
S14,利用注意力机制基于所述特征向量序列训练LSTM网络得到微表情分类模型。
不同的微表情,反映了学生对于教学的不同状态。例如,厌恶微表情反映了学生对于教学的状态是消极的,高兴微表情反映了学生对于教学的状态是积极的。因而,对于不同种类的微表情赋予不同的权重,以此来体现出学生对于教学的状态。
在一个可选的实施方式中,所述利用注意力机制基于所述特征向量序列训练LSTM网络得到微表情分类模型包括:
基于所述特征向量序列训练LSTM网络;
将所述LSTM网络的输出层输入到Attention层,其中,所述Attention层对所述特征向量序列中的不同特征赋予不同的权重;
将所述Attention层的输出结果输入到全连接层;
通过所述全连接层得到多种微表情的预测分类标签;
基于所述预测分类标签和期望分类标签对所述LSTM网络进行优化得到微表情分类模型。
LSTM网络是一个seq2seq的结构,由于LSTM是基于时间序列的网络结构,因此,对于包含有时间信息的数据具有较好的预测效果,本实施例借助于LSTM基于时间序列的思想,将卷积神经网络输出的特征向量视为时序长度为N的数据,对应时刻的特征,对应时刻的特征,对应时刻的特征。
将时序长度为N的数据同时输入LSTM网络中,LSTM网络输出时序长度为N的预测结果,每个维度为1*Y(Y为预先设定的微表情类别)。即,预测结果的维度为N*1*Y。
对一个微表情序列来说,序列中不同时刻的微表情图像对于微表情的分类有着不同的重要程度,因此,将LSTM输出的N个预测结果后添加Attention层,将时序长度为N的预测结果输入进结构为seq2seq的Attention Model中,对不同时间点的特征向量给予不同的权重,并输出添加权重后的结果。将attention层得到的N个输出结果输入到全连接层,并通过softmax函数得到预设设定的每一种微表情的分类概率。
对LSTM网络的参数进行初始化,采用监督学习常用的交叉熵损失函数,计算模型输出的预测分类概率与人工标注的期望分类标签之间的交叉熵损失,通过BP(后向传播)算法,利用SGD(随机梯度下降)优化算法去优化LSTM网络的参数,对CNN+LSTM构成的整体网络共同进行训练,得到LSTM网络的参数的最优值,即训练好的微表情分类模型。
S15,使用所述微表情分类模型对学生在教学中的面部视频进行微表情分类,并根据分类结果计算教学评分。
若需对当前教学的效果进行评价,则可以获取当前教学过程中每一位学生的面部视频,并利用加速图像超分辨率卷积神经网络模型进行实时图像超分辨率处理,提高视频图像分辨率。然后基于每一位学生的面部视频提取微表情图像序列。使用训练完成的微表情分类模型基于每一位学生的微表情图像序列进行微表情识别,得到对应的微表情分类概率。
在一个可选的实施方式中,所述根据分类结果计算教学评分包括:
根据所述分类结果中的每类微表情对应的分类概率及对应的微表情权重计算得到学生的情绪度;
根据所述学生的情绪度及对应的目标考评度计算得到学生的课堂状态度;
根据多个学生的课堂状态度计算得到教学评分。
其中,所述目标考评度可以是指学生的绩效考评数据。
不同微表情对应的权重如图2所示,其中,权重分数越高,代表学生状态越积极。
将微表情分类模型输出的分类概率按照对应微表情权重进行加权,得到学生的情绪度:
将课堂所有学生的课堂状态度相加后取平均,得到教学评分。
在一个可选的实施方式中,还可以根据每位学生、每个微表情图像序列中不同时间段的情绪度,生成教学分析报告。将教学分析报告反馈给教师,便于教师调整教学内容或者教学风格,或者针对不同的学生给予不同的关注,从而提高教学质量。
综上,本发明实施例提供的基于微表情识别的教学评价方法,在获取到多个面部视频后,基于像素差异将每个面部视频分割为多个视频片段,从而为提取同一个人的同一个面部微表情序列提供了数据基础;接着利用时间插值模型基于所述视频片段提取目标微表情图像序列,保证了不同的目标微表情图像序列中目标微表情图像的帧数相同,满足了神经网络的输入需求,有助于训练微表情分类模型;通过调整CNN神经网络的网络结构,使用reshape层替换最后一层卷积层,能够提取所述目标微表情图像序列的特征向量序列,从而能够借助于LSTM网络基于时间序列的数据进行训练的思想,训练微表情分类模型,并在训练微表情分类模型时考虑了不同种类的微表情对于教学状态的权重,使得得到的微表情分类模型更符合实际教学应用,分类效果较佳;最后,使用微表情分类模型基于学生的面部视频进行微表情类别预测,并基于目标考评度计算教学评分,教学评价结果更为准确。
需要强调的是,为进一步保证上述微表情分类模型的私密性和安全性,上述微表情分类模型可存储于区块链的节点中。
图3是本发明实施例二提供的基于微表情识别的教学评价装置的结构图。
在一些实施例中,所述基于微表情识别的教学评价装置20可以包括多个由计算机程序段所组成的功能模块。所述基于微表情识别的教学评价装置20中的各个程序段的计算机程序可以存储于电子设备的存储器中,并由至少一个处理器所执行,以执行(详见图1描述)基于微表情识别的教学评价的功能。
本实施例中,所述基于微表情识别的教学评价装置20根据其所执行的功能,可以被划分为多个功能模块。所述功能模块可以包括:分割模块201、重建模块202、插值模块203、提取模块204、训练模块205及计算模块206。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在本实施例中,关于各模块的功能将在后续的实施例中详述。
所述分割模块201,用于获取多个面部视频,并基于像素差异将每个面部视频分割为多个视频片段。
电子设备获取历史教学课堂中的多个学生的视频,所述视频是指包含面部的视频,每个学生对应一个或者多个面部视频,学生可以是指保险代理人。
在获取到多个面部视频之后,基于像素差异将每个面部视频分割为多个视频片段。
在一实施方式中,电子设备将每个面部视频存储在本地中,通过人工从每个学生的一个或者多个面部视频中筛选出人脸图像清晰、光照稳定、背景干净,微表情辨别明显的面部视频。
在一个可选的实施方式中,所述分割模块201基于像素差异将每个面部视频分割为多个视频片段包括:
(a)从所述面部视频的第一帧面部图像开始,计算第二帧面部图像与所述第一帧面部图像之间的第一像素差异;
(b)判断所述第一像素差异是否小于预设像素差异阈值;
(c)当确定所述第一像素差异小于所述预设像素差异阈值时,计算第三帧面部图像与所述第二帧面部图像之间的第二像素差异;
(d)判断所述第二像素差异是否小于所述预设像素差异阈值;
(e)当确定所述第二像素差异小于所述预设像素差异阈值时,计算第四帧面部图像与所述第三帧面部图像之间的第三像素差异,并判断所述第三像素差异是否小于所述预设像素差异阈值;当确定所述第二像素差异大于或者等于所述预设像素差异阈值时,以所述第三帧面部图像为分割点分割所述面部视频得到第一视频片段和第二视频片段,并从所述第二视频片段的第一帧面部图像开始,重复上述(a)-(d)的过程,直到将所述面部视频分割为多个视频片段。
电子设备可以利用OpenCV将面部视频分割为帧序列。由于每个面部视频为同一个人的不同时间点的多帧面部图像形成的序列帧,那么同一个人的同一个面部微表情会持续多帧。同一个人的同一个面部微表情的连续多帧的面部图像之间的像素差异较小,同一个人的不同面部微表情的面部图像之间的像素差异较大。前后两帧面部图像之间的像素差异越小,表明这两帧面部图像对应同一个面部微表情的可能性越大,前后两帧面部图像之间的像素差异越大,表明这两帧面部图像对应同一个面部微表情的可能性越小,对应不同面部微表情的可能性越大。
示例性的,假设,面部视频的前3帧面部图像中每相邻两帧面部图像之间的像素差异均小于预设像素差异阈值,第3帧面部图像与第4帧面部图像之间的像素差异大于预设像素差异阈值,则认为前3帧面部图像对应同一个面部微表情,以第4帧面部图像为分割点分割面部视频得到第一视频片段和第二视频片段,第一视频片段为前3帧面部图像组成的序列。重复上述过程,计算第二视频片段中每相邻两帧面部图像之间的像素差异,根据像素差异将第二视频片段分割为第三视频片段和第四视频片段。
在基于像素差异将每个面部视频分割为多个视频片段后,电子设备接收人工针对每个视频片段标注的面部微表情类别。本实施例中可以是7类微表情,分别是厌恶、高兴、抑郁、惊讶、害怕、悲伤以及其他。
该可选的实施例中,通过计算每前后相邻的两帧面部图像之间的像素差异,并根据像素差异将一个人的面部视频分割为多个视频片段,使得每个视频片段仅包括同一个人的同一个面部微表情的连续多帧面部图像,即能够准确的得到同一个面部微表情序列。
所述重建模块202,用于在获取多个面部视频之后,对所述多个面部视频进行重建。
在一些实施方式中,所述重建模块202对所述多个面部视频进行重建包括:
提取每个面部视频中的多帧第一面部图像;
利用加速图像超分辨率重建的卷积神经网络对每帧第一面部图像进行重建,得到第二面部图像;
将多帧第二面部图像合成为面部视频。
其中,所述加速图像超分辨率重建的卷积神经网络(Fast Image superresolution convolution neural network,FSRCNN)能够通过低分辨率图像或图像序列恢复出高分辨率图像。
该可选的实施例中,通过FSRCNN对每个面部视频中的多帧第一面部图像进行重建,能够使得重建得到的第二面部图像具有更多的细节信息和更细腻的画质,从而能够提高微表情的分类效果,进而提高微表情分类模型的预测效果。
所述插值模块203,用于利用时间插值模型基于所述视频片段提取目标微表情图像序列,其中,不同的目标微表情图像序列中目标微表情图像的帧数相同。
电子设备利用时间插值模型基于每一个视频片段提取得到一个目标微表情图像序列,每个目标微表情图像序列包括具有相同面部微表情的多帧目标微表情图像。不同的目标微表情图像序列中目标微表情图像的帧数相同。
由于不同的视频片段包含的微表情图像的帧数不同,为了满足神经网络模型的输入统一性需求,电子设备利用时间插值模型基于所述视频片段提取目标微表情图像序列。如此,提取得到的每一个目标微表情图像序列包含相同帧数的微表情图像。例如,每一个微表情图像序列包含N帧微表情图像。
在一个可选的实施方式中,所述插值模块203利用时间插值模型基于所述视频片段提取目标微表情图像序列包括:
提取所述视频片段中的多个微表情图像;
利用回归局部二元特征法对所述多个微表情图像进行人脸特征点检测;
根据所述人脸特征点对所述多个微表情图像进行对齐处理及归一化处理得到多个目标微表情图像;
利用时间插值模型基于所述多个目标微表情图像进行插值处理得到目标微表情图像序列。
不同的微表情图像中的人脸特征点的位置可能不一致,即出现微表情图像序列对不齐的情况,因此需要对微表情图像序列中的多个微表情图像进行对齐处理,使人脸特征点平移或者旋转后微表情图像仍能保持水平。电子设备可以利用回归局部二元特征法(RLBF)检测每个微表情图像中的人脸特征点,如轮廓、眉毛、眼睛、鼻子、嘴巴等,采用人脸配准方法将多个微表情图像进行对齐处理。
此外,为了提高神经网络模型的训练效率,电子设备可以将对其处理后的微表情图像中与人脸无关的背景区域进行去除。具体实施时,通过人脸特征点定位出人脸微表情关键区域,并将所述关键区域从所述微表情图像中裁剪出来,并将裁剪出来的微表情图像进行尺寸归一化处理,得到目标微表情图像。
最后,利用时间插值模型(Temporal interpolation model,TIM)将微表情图像序列对应的目标微表情图像的帧数归一化,得到目标微表情图像序列。
所述提取模块204,用于利用CNN神经网络提取所述目标微表情图像序列的特征向量序列。
每个视频片段对应一个目标微表情图像序列,每个目标微表情图像序列对应一个微表情类别,基于多个所述目标微表情图像序列及对应的微表情类别构建训练数据集,使用所述训练数据集训练CNN神经网络。
在一个可选的实施方式中,所述提取模块204利用CNN神经网络提取所述目标微表情图像序列的特征向量序列包括:
输入所述目标微表情图像序列中每个目标微表情图像至CNN神经网络中进行训练;
获取训练完成的CNN神经网络的倒数第二层卷积层输出的每个目标微表情图像的特征;
将每个目标微表情图像的特征输入至reshape层;
使用所述reshape层将多个所述特征拼接为特征向量序列。
基于所述训练数据集训练CNN神经网络,CNN神经网络的最后一层卷积层会输出微表情预测类别,因此,电子设备将CNN神经网络的最后一个卷积层变换为reshape层(特征向量拼接层),在获取到训练完成的CNN神经网络的倒数第二层卷积层输出的特征后,将目标微表情图像序列中所有的目标微表情图像的特征全部输入至reshape层,通过所述reshape层将所有的目标微表情图像的特征拼接为一个一维特征向量,则每个目标微表情图像序列对应一个N维的特征向量,表示训练完成的CNN神经网络的倒数第二层卷积层输出的第个目标微表情图像的特征。
所述训练模块205,用于利用注意力机制基于所述特征向量序列训练LSTM网络得到微表情分类模型。
不同的微表情,反映了学生对于教学的不同状态。例如,厌恶微表情反映了学生对于教学的状态是消极的,高兴微表情反映了学生对于教学的状态是积极的。因而,对于不同种类的微表情赋予不同的权重,以此来体现出学生对于教学的状态。
在一个可选的实施方式中,所述训练模块205利用注意力机制基于所述特征向量序列训练LSTM网络得到微表情分类模型包括:
基于所述特征向量序列训练LSTM网络;
将所述LSTM网络的输出层输入到Attention层,其中,所述Attention层对所述特征向量序列中的不同特征赋予不同的权重;
将所述Attention层的输出结果输入到全连接层;
通过所述全连接层得到多种微表情的预测分类标签;
基于所述预测分类标签和期望分类标签对所述LSTM网络进行优化得到微表情分类模型。
LSTM网络是一个seq2seq的结构,由于LSTM是基于时间序列的网络结构,因此,对于包含有时间信息的数据具有较好的预测效果,本实施例借助于LSTM基于时间序列的思想,将卷积神经网络输出的特征向量视为时序长度为N的数据,对应时刻的特征,对应时刻的特征,对应时刻的特征。
将时序长度为N的数据同时输入LSTM网络中,LSTM网络输出时序长度为N的预测结果,每个维度为1*Y(Y为预先设定的微表情类别)。即,预测结果的维度为N*1*Y。
对一个微表情序列来说,序列中不同时刻的微表情图像对于微表情的分类有着不同的重要程度,因此,将LSTM输出的N个预测结果后添加Attention层,将时序长度为N的预测结果输入进结构为seq2seq的Attention Model中,对不同时间点的特征向量给予不同的权重,并输出添加权重后的结果。将attention层得到的N个输出结果输入到全连接层,并通过softmax函数得到预设设定的每一种微表情的分类概率。
对LSTM网络的参数进行初始化,采用监督学习常用的交叉熵损失函数,计算模型输出的预测分类概率与人工标注的期望分类标签之间的交叉熵损失,通过BP(后向传播)算法,利用SGD(随机梯度下降)优化算法去优化LSTM网络的参数,对CNN+LSTM构成的整体网络共同进行训练,得到LSTM网络的参数的最优值,即训练好的微表情分类模型。
所述计算模块206,用于使用所述微表情分类模型对学生在教学中的面部视频进行微表情分类,并根据分类结果计算教学评分。
若需对当前教学的效果进行评价,则可以获取当前教学过程中每一位学生的面部视频,并利用加速图像超分辨率卷积神经网络模型进行实时图像超分辨率处理,提高视频图像分辨率。然后基于每一位学生的面部视频提取微表情图像序列。使用训练完成的微表情分类模型基于每一位学生的微表情图像序列进行微表情识别,得到对应的微表情分类概率。
在一个可选的实施方式中,所述计算模块206根据分类结果计算教学评分包括:
根据所述分类结果中的每类微表情对应的分类概率及对应的微表情权重计算得到学生的情绪度;
根据所述学生的情绪度及对应的目标考评度计算得到学生的课堂状态度;
根据多个学生的课堂状态度计算得到教学评分。
其中,所述目标考评度可以是指学生的绩效考评数据。
不同微表情对应的权重如图2所示,其中,权重分数越高,代表学生状态越积极。
将微表情分类模型输出的分类概率按照对应微表情权重进行加权,得到学生的情绪度:
将课堂所有学生的课堂状态度相加后取平均,得到教学评分。
在一个可选的实施方式中,还可以根据每位学生、每个微表情图像序列中不同时间段的情绪度,生成教学分析报告。将教学分析报告反馈给教师,便于教师调整教学内容或者教学风格,或者针对不同的学生给予不同的关注,从而提高教学质量。
综上,本发明实施例提供的基于微表情识别的教学评价装置,在获取到多个面部视频后,基于像素差异将每个面部视频分割为多个视频片段,从而为提取同一个人的同一个面部微表情序列提供了数据基础;接着利用时间插值模型基于所述视频片段提取目标微表情图像序列,保证了不同的目标微表情图像序列中目标微表情图像的帧数相同,满足了神经网络的输入需求,有助于训练微表情分类模型;通过调整CNN神经网络的网络结构,使用reshape层替换最后一层卷积层,能够提取所述目标微表情图像序列的特征向量序列,从而能够借助于LSTM网络基于时间序列的数据进行训练的思想,训练微表情分类模型,并在训练微表情分类模型时考虑了不同种类的微表情对于教学状态的权重,使得得到的微表情分类模型更符合实际教学应用,分类效果较佳;最后,使用微表情分类模型基于学生的面部视频进行微表情类别预测,并基于目标考评度计算教学评分,教学评价结果更为准确。
需要强调的是,为进一步保证上述微表情分类模型的私密性和安全性,上述微表情分类模型可存储于区块链的节点中。
参阅图4所示,为本发明实施例三提供的电子设备的结构示意图。在本发明较佳实施例中,所述电子设备3包括存储器31、至少一个处理器32、至少一条通信总线33及收发器34。
本领域技术人员应该了解,图4示出的电子设备的结构并不构成本发明实施例的限定,既可以是总线型结构,也可以是星形结构,所述电子设备3还可以包括比图示更多或更少的其他硬件或者软件,或者不同的部件布置。
在一些实施例中,所述电子设备3是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路、可编程门阵列、数字处理器及嵌入式设备等。所述电子设备3还可包括客户设备,所述客户设备包括但不限于任何一种可与客户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、数码相机等。
需要说明的是,所述电子设备3仅为举例,其他现有的或今后可能出现的电子产品如可适应于本发明,也应包含在本发明的保护范围以内,并以引用方式包含于此。
在一些实施例中,所述存储器31中存储有计算机程序,所述计算机程序被所述至少一个处理器32执行时实现如所述的基于微表情识别的教学评价方法中的全部或者部分步骤。所述存储器31包括只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除可编程只读存储器(ErasableProgrammable Read-Only Memory,EPROM)、一次可编程只读存储器(One-timeProgrammable Read-Only Memory,OTPROM)、电子擦除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
进一步地,所述计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
在一些实施例中,所述至少一个处理器32是所述电子设备3的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备3的各个部件,通过运行或执行存储在所述存储器31内的程序或者模块,以及调用存储在所述存储器31内的数据,以执行电子设备3的各种功能和处理数据。例如,所述至少一个处理器32执行所述存储器中存储的计算机程序时实现本发明实施例中所述的基于微表情识别的教学评价方法的全部或者部分步骤;或者实现基于微表情识别的教学评价装置的全部或者部分功能。所述至少一个处理器32可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。
在一些实施例中,所述至少一条通信总线33被设置为实现所述存储器31以及所述至少一个处理器32等之间的连接通信。
尽管未示出,所述电子设备3还可以包括给各个部件供电的电源(比如电池),优选的,电源可以通过电源管理装置与所述至少一个处理器32逻辑相连,从而通过电源管理装置实现管理充电、放电、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备3还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是个人计算机,电子设备,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,既可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或,单数不排除复数。本发明陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (9)
1.一种基于微表情识别的教学评价方法,其特征在于,所述方法包括:
获取多个面部视频,并基于像素差异将每个面部视频分割为多个视频片段,每个视频片段仅包括同一个人的同一个面部微表情的连续多帧面部图像;
利用时间插值模型基于所述视频片段提取目标微表情图像序列,其中,不同的目标微表情图像序列中目标微表情图像的帧数相同;
利用CNN神经网络提取所述目标微表情图像序列的特征向量序列;
利用注意力机制基于所述特征向量序列训练LSTM网络得到微表情分类模型;
2.如权利要求1所述的基于微表情识别的教学评价方法,其特征在于,所述利用时间插值模型基于所述视频片段提取目标微表情图像序列包括:
提取所述视频片段中的多个微表情图像;
利用回归局部二元特征法对所述多个微表情图像进行人脸特征点检测;
根据所述人脸特征点对所述多个微表情图像进行对齐处理及归一化处理得到多个目标微表情图像;
利用时间插值模型基于所述多个目标微表情图像进行插值处理得到目标微表情图像序列。
3.如权利要求2所述的基于微表情识别的教学评价方法,其特征在于,所述基于像素差异将每个面部视频分割为多个视频片段包括:
(a)从所述面部视频的第一帧面部图像开始,计算第二帧面部图像与所述第一帧面部图像之间的第一像素差异;
(b)判断所述第一像素差异是否小于预设像素差异阈值;
(c)当确定所述第一像素差异小于所述预设像素差异阈值时,计算第三帧面部图像与所述第二帧面部图像之间的第二像素差异;
(d)判断所述第二像素差异是否小于所述预设像素差异阈值;
(e)当确定所述第二像素差异大于或者等于所述预设像素差异阈值时,以所述第三帧面部图像为分割点分割所述面部视频得到第一视频片段和第二视频片段,并从所述第二视频片段的第一帧面部图像开始,重复上述(a)-(d)的过程,直到将所述面部视频分割为多个视频片段。
4.如权利要求1至3中任意一项所述的基于微表情识别的教学评价方法,其特征在于,所述利用CNN神经网络提取所述目标微表情图像序列的特征向量序列包括:
输入所述目标微表情图像序列中每个目标微表情图像至CNN神经网络中进行训练;
获取训练完成的CNN神经网络的倒数第二层卷积层输出的每个目标微表情图像的特征;
将每个目标微表情图像的特征输入至reshape层;
使用所述reshape层将多个所述特征拼接为特征向量序列。
5.如权利要求4所述的基于微表情识别的教学评价方法,其特征在于,所述利用注意力机制基于所述特征向量序列训练LSTM网络得到微表情分类模型包括:
基于所述特征向量序列训练LSTM网络;
将所述LSTM网络的输出层输入到Attention层,其中,所述Attention层对所述特征向量序列中的不同特征赋予不同的权重;
将所述Attention层的输出结果输入到全连接层;
通过所述全连接层得到多种微表情的预测分类标签;
基于所述预测分类标签和期望分类标签对所述LSTM网络进行优化得到微表情分类模型。
6.如权利要求5所述的基于微表情识别的教学评价方法,其特征在于,在获取多个面部视频之后,所述方法还包括:
提取每个面部视频中的多帧第一面部图像;
利用加速图像超分辨率重建的卷积神经网络对每帧第一面部图像进行重建,得到第二面部图像;
将多帧第二面部图像合成为面部视频。
7.一种基于微表情识别的教学评价装置,其特征在于,所述装置包括:
分割模块,用于获取多个面部视频,并基于像素差异将每个面部视频分割为多个视频片段,每个视频片段仅包括同一个人的同一个面部微表情的连续多帧面部图像;
插值模块,用于利用时间插值模型基于所述视频片段提取目标微表情图像序列,其中,不同的目标微表情图像序列中目标微表情图像的帧数相同;
提取模块,用于利用CNN神经网络提取所述目标微表情图像序列的特征向量序列;
训练模块,用于利用注意力机制基于所述特征向量序列训练LSTM网络得到微表情分类模型;
8.一种电子设备,其特征在于,所述电子设备包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如权利要求1至6中任意一项所述的基于微表情识别的教学评价方法。
9.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任意一项所述的基于微表情识别的教学评价方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110292506.4A CN112686232B (zh) | 2021-03-18 | 2021-03-18 | 基于微表情识别的教学评价方法、装置、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110292506.4A CN112686232B (zh) | 2021-03-18 | 2021-03-18 | 基于微表情识别的教学评价方法、装置、电子设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112686232A CN112686232A (zh) | 2021-04-20 |
CN112686232B true CN112686232B (zh) | 2021-06-29 |
Family
ID=75455671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110292506.4A Active CN112686232B (zh) | 2021-03-18 | 2021-03-18 | 基于微表情识别的教学评价方法、装置、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112686232B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113505746A (zh) * | 2021-07-27 | 2021-10-15 | 陕西师范大学 | 微表情图像精细化分类方法、装置、设备及可读存储介质 |
CN116109989B (zh) * | 2023-04-14 | 2023-06-27 | 中关村科学城城市大脑股份有限公司 | 评价信息生成方法、装置、电子设备和计算机可读介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106878677A (zh) * | 2017-01-23 | 2017-06-20 | 西安电子科技大学 | 基于多传感器的学生课堂掌握程度评估系统和方法 |
CN108875606A (zh) * | 2018-06-01 | 2018-11-23 | 重庆大学 | 一种基于表情识别的课堂教学评价方法及系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018128996A1 (en) * | 2017-01-03 | 2018-07-12 | Clipo, Inc. | System and method for facilitating dynamic avatar based on real-time facial expression detection |
US10789456B2 (en) * | 2017-12-28 | 2020-09-29 | Adobe Inc. | Facial expression recognition utilizing unsupervised learning |
CN108281052B (zh) * | 2018-02-09 | 2019-11-01 | 郑州市第十一中学 | 一种在线教学系统及在线教学方法 |
CN109165608A (zh) * | 2018-08-30 | 2019-01-08 | 深圳壹账通智能科技有限公司 | 多视角微表情识别方法、装置、存储介质和计算机设备 |
CN110175505A (zh) * | 2019-04-08 | 2019-08-27 | 北京网众共创科技有限公司 | 微表情类型的确定方法、装置、存储介质及电子装置 |
CN111861146A (zh) * | 2020-06-29 | 2020-10-30 | 武汉科技大学 | 一种基于微表情识别的教学评价和实时反馈系统 |
CN111738199B (zh) * | 2020-06-30 | 2023-12-19 | 中国工商银行股份有限公司 | 图像信息验证方法、装置、计算装置和介质 |
CN112201343B (zh) * | 2020-09-29 | 2024-02-02 | 浙江大学 | 基于脸部微表情的认知状态识别系统及方法 |
-
2021
- 2021-03-18 CN CN202110292506.4A patent/CN112686232B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106878677A (zh) * | 2017-01-23 | 2017-06-20 | 西安电子科技大学 | 基于多传感器的学生课堂掌握程度评估系统和方法 |
CN108875606A (zh) * | 2018-06-01 | 2018-11-23 | 重庆大学 | 一种基于表情识别的课堂教学评价方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112686232A (zh) | 2021-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110738102A (zh) | 一种人脸识别方法及系统 | |
CN111681681A (zh) | 语音情绪识别方法、装置、电子设备及存储介质 | |
CN112686232B (zh) | 基于微表情识别的教学评价方法、装置、电子设备及介质 | |
CN111523389A (zh) | 情绪智能识别方法、装置、电子设备及存储介质 | |
CN113052149B (zh) | 视频摘要生成方法、装置、计算机设备及介质 | |
US20190213452A1 (en) | Machine-implemented facial health and beauty assistant | |
CN112651342B (zh) | 人脸识别方法、装置、电子设备及存储介质 | |
CN112446544A (zh) | 交通流预测模型训练方法、装置、电子设备及存储介质 | |
CN113096242A (zh) | 虚拟主播生成方法、装置、电子设备及存储介质 | |
CN115374189B (zh) | 基于区块链的食品安全溯源方法、装置及设备 | |
CN114913923A (zh) | 针对单细胞染色质开放性测序数据的细胞类型识别方法 | |
CN113064994A (zh) | 会议质量评估方法、装置、设备及存储介质 | |
CN113886691A (zh) | 基于历史数据的智能推荐方法、装置、电子设备及介质 | |
CN114880449B (zh) | 智能问答的答复生成方法、装置、电子设备及存储介质 | |
CN112634017A (zh) | 远程开卡激活方法、装置、电子设备及计算机存储介质 | |
CN115471775A (zh) | 基于录屏视频的信息验证方法、装置、设备及存储介质 | |
CN113807973A (zh) | 文本纠错方法、装置、电子设备及计算机可读存储介质 | |
CN113706291A (zh) | 欺诈风险预测方法、装置、设备及存储介质 | |
CN112860989A (zh) | 课程推荐方法、装置、计算机设备及存储介质 | |
CN112288337A (zh) | 行为推荐方法、装置、设备及介质 | |
CN114722281A (zh) | 基于用户画像及用户选课行为的培训课程配置方法、装置 | |
CN114840684A (zh) | 基于医疗实体的图谱构建方法、装置、设备及存储介质 | |
CN114022841A (zh) | 人员监控识别方法、装置、电子设备及可读存储介质 | |
CN112651782B (zh) | 基于缩放点积注意力的行为预测方法、装置、设备及介质 | |
CN113705469A (zh) | 人脸识别方法、装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40042483 Country of ref document: HK |