CN112101191A - 基于边框注意力网络的表情识别方法、装置、设备及介质 - Google Patents

基于边框注意力网络的表情识别方法、装置、设备及介质 Download PDF

Info

Publication number
CN112101191A
CN112101191A CN202010955533.0A CN202010955533A CN112101191A CN 112101191 A CN112101191 A CN 112101191A CN 202010955533 A CN202010955533 A CN 202010955533A CN 112101191 A CN112101191 A CN 112101191A
Authority
CN
China
Prior art keywords
expression
frame
expression recognition
feature
initial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010955533.0A
Other languages
English (en)
Inventor
喻晨曦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Life Insurance Company of China Ltd
Original Assignee
Ping An Life Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Life Insurance Company of China Ltd filed Critical Ping An Life Insurance Company of China Ltd
Priority to CN202010955533.0A priority Critical patent/CN112101191A/zh
Publication of CN112101191A publication Critical patent/CN112101191A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及人工智能领域,提供一种基于边框注意力网络的表情识别方法、装置、设备及介质,能够以视频段作为训练样本,由于视频段能够比图片更有优势地捕抓到有代表性的人脸情绪状态,有效解决了采用单一图片进行表情识别造成的识别不准确问题,同时,基于边框注意力机制适应性地聚合边框特征来实现模式识别,更具有稳定性,且精度更高,建立预设数量的进程,根据每个进程的预测表情与对应的预测概率确定待检测视频段的表情识别结果,进而基于人工智能手段实现对表情的自动识别。本发明还涉及区块链技术,表情识别结果可存储于区块链。

Description

基于边框注意力网络的表情识别方法、装置、设备及介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于边框注意力网络的表情识别方法、装置、设备及介质。
背景技术
随着移动互联网与智能机器人在线交互的普及与发展,线上客户体验的反馈变得越来越重要,能够让线上机器人感知客户的情绪状态也是系统交互的重要一环。因此,相较于传统的让客户填写服务反馈信息的方式,通过线上感知客户办业务时的情绪状态来获得客户体验更加真实且直接。
现有技术中,通常采用单一的图片进行表情识别,虽然一些单一的图片具有代表性,但人脸情绪的状态往往不是单一时间点能够反映出来的,而且,现有技术也很难在人脸表情视频检测上达到商业应用的精度与速度要求,也就无法满足线上作业的要求。
发明内容
鉴于以上内容,有必要提供一种基于边框注意力网络的表情识别方法、装置、设备及介质,能够有效解决了采用单一图片进行表情识别造成的识别不准确问题,同时,基于边框注意力机制适应性地聚合边框特征来实现模式识别,更具有稳定性,且精度更高,进而基于人工智能手段实现对表情的自动识别。
一种基于边框注意力网络的表情识别方法,所述基于边框注意力网络的表情识别方法包括:
响应于表情识别指令,获取初始视频;
以预设时长对所述初始视频进行拆分,得到至少一个视频段;
对所述至少一个视频段进行特征截取,得到训练样本;
基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型;
获取待检测视频段,并对所述待检测视频段进行预处理,得到帧图片;
建立预设数量的进程,并在执行每个进程时,每隔预设时间间隔将对应的帧图片输入至所述表情识别模型进行处理,得到每个进程的预测表情与对应的预测概率;
根据每个进程的预测表情与对应的预测概率确定所述待检测视频段的表情识别结果。
根据本发明优选实施例,所述获取初始视频包括:
确定配置表情类别;
采用网络爬虫技术,基于所述配置表情类别进行数据的爬取,得到所述初始视频;及/或
采用指定工具,根据所述配置表情类别进行视频模拟,得到所述初始视频。
根据本发明优选实施例,所述对所述至少一个视频段进行特征截取,得到训练样本包括:
获取所述至少一个视频段所包含的所有初始帧图片;
将所述所有初始帧图片中的每张初始帧图片输入至YOLOv3网络中进行识别,得到每张初始帧图片的面部区域;
以每张初始帧图片的面部区域截取对应的每张初始帧图片,得到每个子样本;
整合得到的子样本作为所述训练样本。
根据本发明优选实施例,所述基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型包括:
以所述预设残差网络对所述训练样本进行特征提取,得到初始特征;
将所述初始特征输入至每个颜色通道对应的全连接层,输出特征向量;
以第一sigmoid函数处理所述特征向量,得到第一注意力权重;
基于所述第一注意力权重对所述特征向量进行转化,得到初始全局边框特征;
并接所述特征向量与所述第一全局边框特征,得到并接特征;
以第二sigmoid函数处理所述并接特征,得到第二注意力权重;
基于所述第二注意力权重对所述并接特征进行转化,得到目标全局边框特征;
以softmax函数处理所述目标全局边框特征,输出预测结果及损失;
当检测到所述损失收敛时,停止训练,得到所述表情识别模型。
根据本发明优选实施例,采用下述公式基于所述第一注意力权重对所述特征向量进行转化,得到初始全局边框特征:
Figure BDA0002678456320000031
其中,f′v为所述初始全局边框特征,αi为所述第一注意力权重,fi为所述特征向量,i为所述特征向量所属的帧数,n为最大帧数。
根据本发明优选实施例,采用下述公式基于所述第二注意力权重对所述并接特征进行转化,得到目标全局边框特征:
Figure BDA0002678456320000032
其中,fv为所述目标全局边框特征,βi为所述第二注意力权重,[fi:f′v]为所述并接特征。
根据本发明优选实施例,所述根据每个进程的预测表情与对应的预测概率确定所述待检测视频段的表情识别结果包括:
从所述预测概率中获取最大预测概率作为目标预测概率;
获取所述目标预测概率对应的预测表情作为目标预测表情;
以所述目标预测概率及所述目标预测表情生成所述表情识别结果。
一种基于边框注意力网络的表情识别装置,所述基于边框注意力网络的表情识别装置包括:
获取单元,用于响应于表情识别指令,获取初始视频;
拆分单元,用于以预设时长对所述初始视频进行拆分,得到至少一个视频段;
截取单元,用于对所述至少一个视频段进行特征截取,得到训练样本;
训练单元,用于基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型;
预处理单元,用于获取待检测视频段,并对所述待检测视频段进行预处理,得到帧图片;
处理单元,用于建立预设数量的进程,并在执行每个进程时,每隔预设时间间隔将对应的帧图片输入至所述表情识别模型进行处理,得到每个进程的预测表情与对应的预测概率;
确定单元,用于根据每个进程的预测表情与对应的预测概率确定所述待检测视频段的表情识别结果。
一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现所述基于边框注意力网络的表情识别方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现所述基于边框注意力网络的表情识别方法。
由以上技术方案可以看出,本发明能够响应于表情识别指令,获取初始视频,以预设时长对所述初始视频进行拆分,得到至少一个视频段,对所述至少一个视频段进行特征截取,得到训练样本,由于视频段能够比图片更有优势地捕抓到有代表性的人脸情绪状态,因此,以视频段作为样本进行训练,有效解决了采用单一图片进行表情识别造成的识别不准确问题,基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型,基于边框注意力机制适应性地聚合边框特征来实现模式识别,更具有稳定性,且精度更高,获取待检测视频段,并对所述待检测视频段进行预处理,得到帧图片,建立预设数量的进程,并在执行每个进程时,每隔预设时间间隔将对应的帧图片输入至所述表情识别模型进行处理,得到每个进程的预测表情与对应的预测概率,根据每个进程的预测表情与对应的预测概率确定所述待检测视频段的表情识别结果,进而基于人工智能手段实现对表情的自动识别。
附图说明
图1是本发明基于边框注意力网络的表情识别方法的较佳实施例的流程图。
图2是本发明基于边框注意力网络的表情识别装置的较佳实施例的功能模块图。
图3是本发明实现基于边框注意力网络的表情识别方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明基于边框注意力网络的表情识别方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述基于边框注意力网络的表情识别方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific IntegratedCircuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能式穿戴式设备等。
所述电子设备还可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(CloudComputing)的由大量主机或网络服务器构成的云。
所述电子设备所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,响应于表情识别指令,获取初始视频。
其中,所述表情识别指令可以在检测到有视频输入时自动触发,也可以根据检测需求由相关人员进行触发。
在本发明的至少一个实施例中,所述获取初始视频包括:
确定配置表情类别;
采用网络爬虫技术,基于所述配置表情类别进行数据的爬取,得到所述初始视频;及/或
采用指定工具,根据所述配置表情类别进行视频模拟,得到所述初始视频。
例如:所述配置表情类别可以包括,但不限于:愤怒、轻蔑、厌恶、恐惧、快乐、悲伤、惊讶。
所述指定工具是指可以用于视频模拟的工具,如:Easy Video Splitter、DaVinciResolve等,本发明不限制。
可以理解的是,目前市面上的业务办理大多通过移动端,很少通过视频互动办理,同时,学术界的公开数据也较少,因此缺乏足够的数据作为模型的样本训练支持。
通过上述实施方式,有效解决了现有技术中数据量不足的问题,以充足的数据进行模型的训练,能够使模型的训练效果更佳。
S11,以预设时长对所述初始视频进行拆分,得到至少一个视频段。
例如:所述预设时长可以设置为12秒、13秒。
通过上述实施方式,由于视频段能够比图片更有优势地捕抓到有代表性的人脸情绪状态,因此,以视频段作为样本进行训练,有效解决了采用单一图片进行表情识别造成的识别不准确问题。
S12,对所述至少一个视频段进行特征截取,得到训练样本。
由于每个视频段中可能包括其他非面部信息,这些非面部信息将对特征识别造成干扰,因此,首先要对所述至少一个视频段进行特征截取,以排除噪声,使模型能够有针对性的对面部特征进行训练。
具体地,所述对所述至少一个视频段进行特征截取,得到训练样本包括:
获取所述至少一个视频段所包含的所有初始帧图片;
将所述所有初始帧图片中的每张初始帧图片输入至YOLOv3网络中进行识别,得到每张初始帧图片的面部区域;
以每张初始帧图片的面部区域截取对应的每张初始帧图片,得到每个子样本;
整合得到的子样本作为所述训练样本。
通过上述实施方式,由于YOLOv3网络本身具备较高的稳定精度,因此,以YOLOv3网络进行面部特征的截取,能够得到准确的样本进行训练。同时,由于首先进行了面部特征的截取,也提高了后续模型训练的速度及准确度。
S13,基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型。
不同于现有技术中主要采用CNN(Convolutional Neural Networks,卷积神经网络)+RNN(Recurrent Neural Network,循环神经网络)的模式进行表情识别,本实施例是基于边框注意力机制适应性地聚合边框特征来实现模式识别,更具有稳定性,且精度更高。
优选地,所述基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型包括:
以所述预设残差网络对所述训练样本进行特征提取,得到初始特征;
将所述初始特征输入至每个颜色通道对应的全连接层,输出特征向量;
以第一sigmoid函数处理所述特征向量,得到第一注意力权重;
基于所述第一注意力权重对所述特征向量进行转化,得到初始全局边框特征;
并接所述特征向量与所述第一全局边框特征,得到并接特征;
以第二sigmoid函数处理所述并接特征,得到第二注意力权重;
基于所述第二注意力权重对所述并接特征进行转化,得到目标全局边框特征;
以softmax函数处理所述目标全局边框特征,输出预测结果及损失;
当检测到所述损失收敛时,停止训练,得到所述表情识别模型。
其中,所述预设残差网络可以是Resnet18网络或者Resnet50网络,经过试验,Resnet18网络及Resnet50网络都有不错的表现。
本实施例中,在并接所述特征向量与所述第一全局边框特征时,采用横向并接的方式。
例如:两个512*1的向量并接后可以得到一个1024*1的向量。
通过上述实施方式,能够基于边框注意力机制整合时间相关的序列特征,以便针对视频段的特征进行有效的分类,使训练得到的表情识别模型具有更高的准确度。
具体地,采用下述公式基于所述第一注意力权重对所述特征向量进行转化,得到初始全局边框特征:
Figure BDA0002678456320000091
其中,f′v为所述初始全局边框特征,αi为所述第一注意力权重,fi为所述特征向量,i为所述特征向量所属的帧数,n为最大帧数。
进一步地,采用下述公式基于所述第二注意力权重对所述并接特征进行转化,得到目标全局边框特征:
Figure BDA0002678456320000092
其中,fv为所述目标全局边框特征,βi为所述第二注意力权重,[fi:f′v]为所述并接特征。
通过上述实施方式,多次基于边框注意力机制进行特征的规范化处理,将图像特征转化为全局的视频特征,以视频特征进行表情的识别,能够更有优势地捕抓到有代表性的人脸情绪状态。
S14,获取待检测视频段,并对所述待检测视频段进行预处理,得到帧图片。
在本实施例中,所述对所述待检测视频段进行预处理包括:
获取所述待检测视频段中的所有图片;
对获取的图片进行特征截取,得到所述帧图片。
通过上述实施方式,能够提高特征的针对性,进一步提升了后续表情识别的准确度。
S15,建立预设数量的进程,并在执行每个进程时,每隔预设时间间隔将对应的帧图片输入至所述表情识别模型进行处理,得到每个进程的预测表情与对应的预测概率。
例如:对一个客户的人脸表情识别的模型服务一共建立了4个进程:对于第一个进程,从第2秒开始,每1.5秒给对应的进程输入一个实时人脸帧图片,到第8秒,即完成了该进程的识别输入,并返回模型输出的最大的预测概率与对应的预测表情;对于第二个进程,从第3秒开始,每1.5秒给对应的进程输入一个实时人脸帧图片,到第9秒,即完成了该进程的识别输入,并返回模型输出的最大的预测概率与对应的预测表情;对于第三个进程,从第4秒开始,每1.5秒给对应的进程输入一个实时人脸帧图片,到第10秒,即完成了该进程的识别输入,并返回模型输出的最大的预测概率与对应的预测表情;对于第四个进程,从第5秒开始,每1.5秒给对应的进程输入一个实时人脸帧图片,到第11秒,即完成了该进程的识别输入,并返回模型输出的最大的预测概率与对应的预测表情。
其中,由于每个进程都需要持续一定时间,因此,所述待检测视频段的持续时间也要对应配置,例如:针对上面的举例,所述待检测视频至少需要12秒。
在本实施例中,所述预设数量及所述预设时间间隔可以根据实验得出。
例如:经过实验,每1.5秒共4个进程,且每个进程4张图片可以让模型表现达到最佳,则将所述预设数量配置为4,所述预设时间间隔配置为1.5秒。
S16,根据每个进程的预测表情与对应的预测概率确定所述待检测视频段的表情识别结果。
例如:所述表情识别结果可以为:愤怒,0.96。
在本实施例中,所述根据每个进程的预测表情与对应的预测概率确定所述待检测视频段的表情识别结果包括:
从所述预测概率中获取最大预测概率作为目标预测概率;
获取所述目标预测概率对应的预测表情作为目标预测表情;
以所述目标预测概率及所述目标预测表情生成所述表情识别结果。
通过上述实施方式,能够综合所有进程的识别结果进行最终表情识别结果的确定。
需要说明的是,为了确保数据的安全性,并有效防止数据被篡改,可以将所述表情识别结果存储于区块链。
由以上技术方案可以看出,本发明能够响应于表情识别指令,获取初始视频,以预设时长对所述初始视频进行拆分,得到至少一个视频段,对所述至少一个视频段进行特征截取,得到训练样本,由于视频段能够比图片更有优势地捕抓到有代表性的人脸情绪状态,因此,以视频段作为样本进行训练,有效解决了采用单一图片进行表情识别造成的识别不准确问题,基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型,基于边框注意力机制适应性地聚合边框特征来实现模式识别,更具有稳定性,且精度更高,获取待检测视频段,并对所述待检测视频段进行预处理,得到帧图片,建立预设数量的进程,并在执行每个进程时,每隔预设时间间隔将对应的帧图片输入至所述表情识别模型进行处理,得到每个进程的预测表情与对应的预测概率,根据每个进程的预测表情与对应的预测概率确定所述待检测视频段的表情识别结果,进而基于人工智能手段实现对表情的自动识别。
如图2所示,是本发明基于边框注意力网络的表情识别装置的较佳实施例的功能模块图。所述基于边框注意力网络的表情识别装置11包括获取单元110、拆分单元111、截取单元112、训练单元113、预处理单元114、处理单元115、确定单元116。本发明所称的模块/单元是指一种能够被处理器13所执行,并且能够完成固定功能的一系列计算机程序段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
响应于表情识别指令,获取单元110获取初始视频。
其中,所述表情识别指令可以在检测到有视频输入时自动触发,也可以根据检测需求由相关人员进行触发。
在本发明的至少一个实施例中,所述获取单元110获取初始视频包括:
确定配置表情类别;
采用网络爬虫技术,基于所述配置表情类别进行数据的爬取,得到所述初始视频;及/或
采用指定工具,根据所述配置表情类别进行视频模拟,得到所述初始视频。
例如:所述配置表情类别可以包括,但不限于:愤怒、轻蔑、厌恶、恐惧、快乐、悲伤、惊讶。
所述指定工具是指可以用于视频模拟的工具,如:Easy Video Splitter、DaVinciResolve等,本发明不限制。
可以理解的是,目前市面上的业务办理大多通过移动端,很少通过视频互动办理,同时,学术界的公开数据也较少,因此缺乏足够的数据作为模型的样本训练支持。
通过上述实施方式,有效解决了现有技术中数据量不足的问题,以充足的数据进行模型的训练,能够使模型的训练效果更佳。
拆分单元111以预设时长对所述初始视频进行拆分,得到至少一个视频段。
例如:所述预设时长可以设置为12秒、13秒。
通过上述实施方式,由于视频段能够比图片更有优势地捕抓到有代表性的人脸情绪状态,因此,以视频段作为样本进行训练,有效解决了采用单一图片进行表情识别造成的识别不准确问题。
截取单元112对所述至少一个视频段进行特征截取,得到训练样本。
由于每个视频段中可能包括其他非面部信息,这些非面部信息将对特征识别造成干扰,因此,首先要对所述至少一个视频段进行特征截取,以排除噪声,使模型能够有针对性的对面部特征进行训练。
具体地,所述截取单元112对所述至少一个视频段进行特征截取,得到训练样本包括:
获取所述至少一个视频段所包含的所有初始帧图片;
将所述所有初始帧图片中的每张初始帧图片输入至YOLOv3网络中进行识别,得到每张初始帧图片的面部区域;
以每张初始帧图片的面部区域截取对应的每张初始帧图片,得到每个子样本;
整合得到的子样本作为所述训练样本。
通过上述实施方式,由于YOLOv3网络本身具备较高的稳定精度,因此,以YOLOv3网络进行面部特征的截取,能够得到准确的样本进行训练。同时,由于首先进行了面部特征的截取,也提高了后续模型训练的速度及准确度。
训练单元113基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型。
不同于现有技术中主要采用CNN(Convolutional Neural Networks,卷积神经网络)+RNN(Recurrent Neural Network,循环神经网络)的模式进行表情识别,本实施例是基于边框注意力机制适应性地聚合边框特征来实现模式识别,更具有稳定性,且精度更高。
优选地,所述训练单元113基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型包括:
以所述预设残差网络对所述训练样本进行特征提取,得到初始特征;
将所述初始特征输入至每个颜色通道对应的全连接层,输出特征向量;
以第一sigmoid函数处理所述特征向量,得到第一注意力权重;
基于所述第一注意力权重对所述特征向量进行转化,得到初始全局边框特征;
并接所述特征向量与所述第一全局边框特征,得到并接特征;
以第二sigmoid函数处理所述并接特征,得到第二注意力权重;
基于所述第二注意力权重对所述并接特征进行转化,得到目标全局边框特征;
以softmax函数处理所述目标全局边框特征,输出预测结果及损失;
当检测到所述损失收敛时,停止训练,得到所述表情识别模型。
其中,所述预设残差网络可以是Resnet18网络或者Resnet50网络,经过试验,Resnet18网络及Resnet50网络都有不错的表现。
本实施例中,在并接所述特征向量与所述第一全局边框特征时,采用横向并接的方式。
例如:两个512*1的向量并接后可以得到一个1024*1的向量。
通过上述实施方式,能够基于边框注意力机制整合时间相关的序列特征,以便针对视频段的特征进行有效的分类,使训练得到的表情识别模型具有更高的准确度。
具体地,所述训练单元113采用下述公式基于所述第一注意力权重对所述特征向量进行转化,得到初始全局边框特征:
Figure BDA0002678456320000141
其中,f′v为所述初始全局边框特征,αi为所述第一注意力权重,fi为所述特征向量,i为所述特征向量所属的帧数,n为最大帧数。
进一步地,所述训练单元113采用下述公式基于所述第二注意力权重对所述并接特征进行转化,得到目标全局边框特征:
Figure BDA0002678456320000142
其中,fv为所述目标全局边框特征,βi为所述第二注意力权重,[fi:f′v]为所述并接特征。
通过上述实施方式,多次基于边框注意力机制进行特征的规范化处理,将图像特征转化为全局的视频特征,以视频特征进行表情的识别,能够更有优势地捕抓到有代表性的人脸情绪状态。
预处理单元114获取待检测视频段,并对所述待检测视频段进行预处理,得到帧图片。
在本实施例中,所述预处理单元114对所述待检测视频段进行预处理包括:
获取所述待检测视频段中的所有图片;
对获取的图片进行特征截取,得到所述帧图片。
通过上述实施方式,能够提高特征的针对性,进一步提升了后续表情识别的准确度。
处理单元115建立预设数量的进程,并在执行每个进程时,每隔预设时间间隔将对应的帧图片输入至所述表情识别模型进行处理,得到每个进程的预测表情与对应的预测概率。
例如:对一个客户的人脸表情识别的模型服务一共建立了4个进程:对于第一个进程,从第2秒开始,每1.5秒给对应的进程输入一个实时人脸帧图片,到第8秒,即完成了该进程的识别输入,并返回模型输出的最大的预测概率与对应的预测表情;对于第二个进程,从第3秒开始,每1.5秒给对应的进程输入一个实时人脸帧图片,到第9秒,即完成了该进程的识别输入,并返回模型输出的最大的预测概率与对应的预测表情;对于第三个进程,从第4秒开始,每1.5秒给对应的进程输入一个实时人脸帧图片,到第10秒,即完成了该进程的识别输入,并返回模型输出的最大的预测概率与对应的预测表情;对于第四个进程,从第5秒开始,每1.5秒给对应的进程输入一个实时人脸帧图片,到第11秒,即完成了该进程的识别输入,并返回模型输出的最大的预测概率与对应的预测表情。
其中,由于每个进程都需要持续一定时间,因此,所述待检测视频段的持续时间也要对应配置,例如:针对上面的举例,所述待检测视频至少需要12秒。
在本实施例中,所述预设数量及所述预设时间间隔可以根据实验得出。
例如:经过实验,每1.5秒共4个进程,且每个进程4张图片可以让模型表现达到最佳,则将所述预设数量配置为4,所述预设时间间隔配置为1.5秒。
确定单元116根据每个进程的预测表情与对应的预测概率确定所述待检测视频段的表情识别结果。
例如:所述表情识别结果可以为:愤怒,0.96。
在本实施例中,所述确定单元116根据每个进程的预测表情与对应的预测概率确定所述待检测视频段的表情识别结果包括:
从所述预测概率中获取最大预测概率作为目标预测概率;
获取所述目标预测概率对应的预测表情作为目标预测表情;
以所述目标预测概率及所述目标预测表情生成所述表情识别结果。
通过上述实施方式,能够综合所有进程的识别结果进行最终表情识别结果的确定。
需要说明的是,为了确保数据的安全性,并有效防止数据被篡改,可以将所述表情识别结果存储于区块链。
由以上技术方案可以看出,本发明能够响应于表情识别指令,获取初始视频,以预设时长对所述初始视频进行拆分,得到至少一个视频段,对所述至少一个视频段进行特征截取,得到训练样本,由于视频段能够比图片更有优势地捕抓到有代表性的人脸情绪状态,因此,以视频段作为样本进行训练,有效解决了采用单一图片进行表情识别造成的识别不准确问题,基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型,基于边框注意力机制适应性地聚合边框特征来实现模式识别,更具有稳定性,且精度更高,获取待检测视频段,并对所述待检测视频段进行预处理,得到帧图片,建立预设数量的进程,并在执行每个进程时,每隔预设时间间隔将对应的帧图片输入至所述表情识别模型进行处理,得到每个进程的预测表情与对应的预测概率,根据每个进程的预测表情与对应的预测概率确定所述待检测视频段的表情识别结果,进而基于人工智能手段实现对表情的自动识别。
如图3所示,是本发明实现基于边框注意力网络的表情识别方法的较佳实施例的电子设备的结构示意图。
所述电子设备1可以包括存储器12、处理器13和总线,还可以包括存储在所述存储器12中并可在所述处理器13上运行的计算机程序,例如基于边框注意力网络的表情识别程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,所述电子设备1既可以是总线型结构,也可以是星形结构,所述电子设备1还可以包括比图示更多或更少的其他硬件或者软件,或者不同的部件布置,例如所述电子设备1还可以包括输入输出设备、网络接入设备等。
需要说明的是,所述电子设备1仅为举例,其他现有的或今后可能出现的电子产品如可适应于本发明,也应包含在本发明的保护范围以内,并以引用方式包含于此。
其中,存储器12至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器12在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。存储器12在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,存储器12还可以既包括电子设备1的内部存储单元也包括外部存储设备。存储器12不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如基于边框注意力网络的表情识别程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器13在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。处理器13是所述电子设备1的控制核心(Control Unit),利用各种接口和线路连接整个电子设备1的各个部件,通过运行或执行存储在所述存储器12内的程序或者模块(例如执行基于边框注意力网络的表情识别程序等),以及调用存储在所述存储器12内的数据,以执行电子设备1的各种功能和处理数据。
所述处理器13执行所述电子设备1的操作系统以及安装的各类应用程序。所述处理器13执行所述应用程序以实现上述各个基于边框注意力网络的表情识别方法实施例中的步骤,例如图1所示的步骤。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述电子设备1中的执行过程。例如,所述计算机程序可以被分割成生成装置11包括获取单元110、拆分单元111、截取单元112、训练单元113、预处理单元114、处理单元115、确定单元116。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、计算机设备,或者网络设备等)或处理器(processor)执行本发明各个实施例所述基于边框注意力网络的表情识别方法的部分。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指示相关的硬件设备来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
进一步地,计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的目标性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,在图3中仅用一根箭头表示,但并不表示仅有一根总线或一种类型的总线。所述总线被设置为实现所述存储器12以及至少一个处理器13等之间的连接通信。
尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器13逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
图3仅示出了具有组件12-13的电子设备1,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
结合图1,所述电子设备1中的所述存储器12存储多个指令以实现一种基于边框注意力网络的表情识别方法,所述处理器13可执行所述多个指令从而实现:
响应于表情识别指令,获取初始视频;
以预设时长对所述初始视频进行拆分,得到至少一个视频段;
对所述至少一个视频段进行特征截取,得到训练样本;
基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型;
获取待检测视频段,并对所述待检测视频段进行预处理,得到帧图片;
建立预设数量的进程,并在执行每个进程时,每隔预设时间间隔将对应的帧图片输入至所述表情识别模型进行处理,得到每个进程的预测表情与对应的预测概率;
根据每个进程的预测表情与对应的预测概率确定所述待检测视频段的表情识别结果。
具体地,所述处理器13对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种基于边框注意力网络的表情识别方法,其特征在于,所述基于边框注意力网络的表情识别方法包括:
响应于表情识别指令,获取初始视频;
以预设时长对所述初始视频进行拆分,得到至少一个视频段;
对所述至少一个视频段进行特征截取,得到训练样本;
基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型;
获取待检测视频段,并对所述待检测视频段进行预处理,得到帧图片;
建立预设数量的进程,并在执行每个进程时,每隔预设时间间隔将对应的帧图片输入至所述表情识别模型进行处理,得到每个进程的预测表情与对应的预测概率;
根据每个进程的预测表情与对应的预测概率确定所述待检测视频段的表情识别结果。
2.如权利要求1所述的基于边框注意力网络的表情识别方法,其特征在于,所述获取初始视频包括:
确定配置表情类别;
采用网络爬虫技术,基于所述配置表情类别进行数据的爬取,得到所述初始视频;及/或
采用指定工具,根据所述配置表情类别进行视频模拟,得到所述初始视频。
3.如权利要求1所述的基于边框注意力网络的表情识别方法,其特征在于,所述对所述至少一个视频段进行特征截取,得到训练样本包括:
获取所述至少一个视频段所包含的所有初始帧图片;
将所述所有初始帧图片中的每张初始帧图片输入至YOLOv3网络中进行识别,得到每张初始帧图片的面部区域;
以每张初始帧图片的面部区域截取对应的每张初始帧图片,得到每个子样本;
整合得到的子样本作为所述训练样本。
4.如权利要求1所述的基于边框注意力网络的表情识别方法,其特征在于,所述基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型包括:
以所述预设残差网络对所述训练样本进行特征提取,得到初始特征;
将所述初始特征输入至每个颜色通道对应的全连接层,输出特征向量;
以第一sigmoid函数处理所述特征向量,得到第一注意力权重;
基于所述第一注意力权重对所述特征向量进行转化,得到初始全局边框特征;
并接所述特征向量与所述第一全局边框特征,得到并接特征;
以第二sigmoid函数处理所述并接特征,得到第二注意力权重;
基于所述第二注意力权重对所述并接特征进行转化,得到目标全局边框特征;
以softmax函数处理所述目标全局边框特征,输出预测结果及损失;
当检测到所述损失收敛时,停止训练,得到所述表情识别模型。
5.如权利要求4所述的基于边框注意力网络的表情识别方法,其特征在于,采用下述公式基于所述第一注意力权重对所述特征向量进行转化,得到初始全局边框特征:
Figure FDA0002678456310000021
其中,f′v为所述初始全局边框特征,αi为所述第一注意力权重,fi为所述特征向量,i为所述特征向量所属的帧数,n为最大帧数。
6.如权利要求5所述的基于边框注意力网络的表情识别方法,其特征在于,采用下述公式基于所述第二注意力权重对所述并接特征进行转化,得到目标全局边框特征:
Figure FDA0002678456310000031
其中,fv为所述目标全局边框特征,βi为所述第二注意力权重,[fi:f′v]为所述并接特征。
7.如权利要求1所述的基于边框注意力网络的表情识别方法,其特征在于,所述根据每个进程的预测表情与对应的预测概率确定所述待检测视频段的表情识别结果包括:
从所述预测概率中获取最大预测概率作为目标预测概率;
获取所述目标预测概率对应的预测表情作为目标预测表情;
以所述目标预测概率及所述目标预测表情生成所述表情识别结果。
8.一种基于边框注意力网络的表情识别装置,其特征在于,所述基于边框注意力网络的表情识别装置包括:
获取单元,用于响应于表情识别指令,获取初始视频;
拆分单元,用于以预设时长对所述初始视频进行拆分,得到至少一个视频段;
截取单元,用于对所述至少一个视频段进行特征截取,得到训练样本;
训练单元,用于基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型;
预处理单元,用于获取待检测视频段,并对所述待检测视频段进行预处理,得到帧图片;
处理单元,用于建立预设数量的进程,并在执行每个进程时,每隔预设时间间隔将对应的帧图片输入至所述表情识别模型进行处理,得到每个进程的预测表情与对应的预测概率;
确定单元,用于根据每个进程的预测表情与对应的预测概率确定所述待检测视频段的表情识别结果。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现如权利要求1至7中任意一项所述的基于边框注意力网络的表情识别方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的基于边框注意力网络的表情识别方法。
CN202010955533.0A 2020-09-11 2020-09-11 基于边框注意力网络的表情识别方法、装置、设备及介质 Pending CN112101191A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010955533.0A CN112101191A (zh) 2020-09-11 2020-09-11 基于边框注意力网络的表情识别方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010955533.0A CN112101191A (zh) 2020-09-11 2020-09-11 基于边框注意力网络的表情识别方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN112101191A true CN112101191A (zh) 2020-12-18

Family

ID=73752591

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010955533.0A Pending CN112101191A (zh) 2020-09-11 2020-09-11 基于边框注意力网络的表情识别方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN112101191A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113297959A (zh) * 2021-05-24 2021-08-24 南京邮电大学 一种基于角点注意力孪生网络的目标跟踪方法及系统
CN114782796A (zh) * 2022-06-17 2022-07-22 武汉北大高科软件股份有限公司 一种物品图像防伪的智能验证方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190026586A1 (en) * 2017-07-19 2019-01-24 Vispek Inc. Portable substance analysis based on computer vision, spectroscopy, and artificial intelligence
CN110210429A (zh) * 2019-06-06 2019-09-06 山东大学 一种基于光流、图像、运动对抗生成网络提高焦虑、抑郁、愤怒表情识别正确率的方法
CN110287846A (zh) * 2019-06-19 2019-09-27 南京云智控产业技术研究院有限公司 一种基于注意力机制的人脸关键点检测方法
CN110765850A (zh) * 2019-09-09 2020-02-07 深圳壹账通智能科技有限公司 基于残差网络的报警方法、装置、计算机设备和存储介质
CN111582042A (zh) * 2020-04-15 2020-08-25 五邑大学 一种校园安全管理方法、系统、装置和存储介质
CN111598038A (zh) * 2020-05-22 2020-08-28 深圳市瑞立视多媒体科技有限公司 脸部特征点检测方法、装置、设备及存储介质
CN111626126A (zh) * 2020-04-26 2020-09-04 腾讯科技(北京)有限公司 一种人脸情绪识别的方法、装置、介质及电子设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190026586A1 (en) * 2017-07-19 2019-01-24 Vispek Inc. Portable substance analysis based on computer vision, spectroscopy, and artificial intelligence
CN110210429A (zh) * 2019-06-06 2019-09-06 山东大学 一种基于光流、图像、运动对抗生成网络提高焦虑、抑郁、愤怒表情识别正确率的方法
CN110287846A (zh) * 2019-06-19 2019-09-27 南京云智控产业技术研究院有限公司 一种基于注意力机制的人脸关键点检测方法
CN110765850A (zh) * 2019-09-09 2020-02-07 深圳壹账通智能科技有限公司 基于残差网络的报警方法、装置、计算机设备和存储介质
CN111582042A (zh) * 2020-04-15 2020-08-25 五邑大学 一种校园安全管理方法、系统、装置和存储介质
CN111626126A (zh) * 2020-04-26 2020-09-04 腾讯科技(北京)有限公司 一种人脸情绪识别的方法、装置、介质及电子设备
CN111598038A (zh) * 2020-05-22 2020-08-28 深圳市瑞立视多媒体科技有限公司 脸部特征点检测方法、装置、设备及存储介质

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
DEBIN MENG等: "FRAME ATTENTION NETWORKS FOR FACIAL EXPRESSION RECOGNITION IN VIDEOS", 《2019 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING》 *
FEI WANG等: "Residual Attention Network for Image Classification", 《COMPUTER VISION AND PATTERN RECOGNITION》 *
何晓云等: "基于注意力机制的视频人脸表情识别", 《信息技术》 *
曾凡伟: "基于深度注意力机制的表情识别算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
王晓华等: "基于层级注意力模型的视频序列表情识别", 《计算机辅助设计与图形学学报》 *
褚晶辉等: "一种基于注意力模型的面部表情识别算法", 《激光与光电子学进展》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113297959A (zh) * 2021-05-24 2021-08-24 南京邮电大学 一种基于角点注意力孪生网络的目标跟踪方法及系统
CN114782796A (zh) * 2022-06-17 2022-07-22 武汉北大高科软件股份有限公司 一种物品图像防伪的智能验证方法和装置

Similar Documents

Publication Publication Date Title
CN111723727A (zh) 基于边缘计算的云监控方法、装置、电子设备及存储介质
CN112231586A (zh) 基于迁移学习的课程推荐方法、装置、设备及介质
CN111949708B (zh) 基于时序特征提取的多任务预测方法、装置、设备及介质
CN111666415A (zh) 话题聚类方法、装置、电子设备及存储介质
CN111985504B (zh) 基于人工智能的翻拍检测方法、装置、设备及介质
CN111860377A (zh) 基于人工智能的直播方法、装置、电子设备及存储介质
CN113806434B (zh) 大数据处理方法、装置、设备及介质
CN114066534A (zh) 基于人工智能的电梯广告投送方法、装置、设备及介质
CN115081538A (zh) 基于机器学习的客户关系识别方法、装置、设备及介质
CN114511038A (zh) 虚假新闻检测方法、装置、电子设备及可读存储介质
CN112101191A (zh) 基于边框注意力网络的表情识别方法、装置、设备及介质
CN114595321A (zh) 问题标注方法、装置、电子设备及存储介质
CN112307771B (zh) 基于情感分析的课程分析方法、装置、设备及介质
CN111950707B (zh) 基于行为共现网络的行为预测方法、装置、设备及介质
CN114185776A (zh) 应用程序的大数据埋点方法、装置、设备及介质
CN112651782B (zh) 基于缩放点积注意力的行为预测方法、装置、设备及介质
CN112528265A (zh) 基于在线会议的身份识别方法、装置、设备及介质
CN112561891B (zh) 图像质量检测方法、装置、设备及存储介质
CN112101192B (zh) 基于人工智能的伪装检测方法、装置、设备及介质
CN113706207A (zh) 基于语义解析的订单成交率分析方法、装置、设备及介质
CN112183347A (zh) 基于深度空间梯度的活体检测方法、装置、设备及介质
CN113449037A (zh) 基于ai的sql引擎调用方法、装置、设备及介质
CN116976821B (zh) 企业问题反馈信息处理方法、装置、设备及介质
CN112651778B (zh) 用户行为预测方法、装置、设备及介质
CN116934263B (zh) 产品批量准入方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20201218