CN111401117A - 基于双流卷积神经网络的新生儿疼痛表情识别方法 - Google Patents
基于双流卷积神经网络的新生儿疼痛表情识别方法 Download PDFInfo
- Publication number
- CN111401117A CN111401117A CN201910748936.5A CN201910748936A CN111401117A CN 111401117 A CN111401117 A CN 111401117A CN 201910748936 A CN201910748936 A CN 201910748936A CN 111401117 A CN111401117 A CN 111401117A
- Authority
- CN
- China
- Prior art keywords
- attention
- neural network
- convolutional neural
- feature map
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本发明公开了一种基于双流卷积神经网络的新生儿疼痛表情识别方法,该方法首先将视频进行分帧处理,接着在多个连续的帧之间添加光流位移场获得对应的光流信息以得到光流图。然后构造出一个共用Attention双流卷积神经网络,该网络是在双流卷积神经网络的基础上添加了共用Attention模块,该网络主要由两个预训练的VGG16网络和共用Attention模块组成。在该网络中,首先从各帧图像序列中选择表情变化最大的一帧作为其中一路VGG16网络的输入,我们将该路网络称为空间信息网络,然后将光流图作为另一路VGG16网络的输入,我们称该路网络为时间信息网络。最后将通过两路网络后的特征图进行级联并输入全连接层进行新生儿疼痛表情分类。
Description
技术领域
本发明涉及一种基于双流卷积神经网络的新生儿疼痛表情识别方法,属于深度学习与模式识别方向。
背景技术
面部表情识别一直是一个活跃的研究领域,面部表情识别对于机器学习方法来说却不是一个容易的问题。人类的认知能力较强,一般可以通过一个人的面部表情和肢体动作得到这个人的情绪状况,进而可以根据这个人的情绪采取相应的行动措施。但是机器想要识别出人的情感,就十分困难,随着科技的发展,机器的拟人化成为研究的热点。
2014年,Karen Simonyan和Andrew Zisserman提出双流卷积神经网络,使用两路相同的卷积神经网络对视频中的行为进行识别,同时考虑了视频中的空间位置信息及时间位置信息,取得了不少成果。虽然卷积神经网络可以将传统情感识别的过程简单化,但它只是对视频中的每一个静止帧进行了特征提取,只考虑到了视频的空间信息,而忽略了视频的时间信息,这使得情感识别具有很多的局限性。相比于单个卷积神经网络的情感识别,通过双流卷积神经网络进行的情感识别取得了更好的识别效果。本发明正是利用了两路独立网络之间的联系,时间与空间信息必定存在关联特征,运用两者之间的共通性、互联性,提取更有效的深度情感特征,得到更好的情感识别效果。
发明内容
发明目的:本发明目的在于弥补现有双流卷积神经网络情感识别技术在识别人类情感方面所存在的不足。在双流卷积神经网络的基础上添加了共用Attention模块,使两路独立卷积神经网络之间建立联系,将时间信息与空间信息结合起来考虑,更加有效的提取深度情感特征,并进一步提高了情感识别的识别率。
技术方案:基于共用Attention双流卷积神经网络的新生儿疼痛表情识别方法,包括以下步骤:
(1)获取新生儿疼痛表情数据库,并按照10:1的比例将其分为训练集和测试集;
(2)分帧处理数据库中的视频得到帧图片,从中选取各视频帧中表情变化最大的一帧,并在多个连续的帧之间添加光流位移场得到对应的光流图;
(3)构建一个共用Attention双流卷积神经网络模型,该模型包含两个预训练的VGG16网络和共用Attention模块;
(4)将训练集中选取的帧图片与光流图分别作为两路网络的输入,优化网络模型参数,得到训练好的网络模型;
(5)将测试集的视频帧和光流图送到优化后的共用Attention双流卷积神经网络进行情感识别,得到情感识别结果。
进一步的,所述的步骤(2)中进行视频分帧的过程为:
在OpenCV中使用ffmpeg代码,输入视频,输出视频中的每一帧图片。
进一步的,所述的步骤(2)中生成光流图的过程为:
在OpenCV中使用TVL1提取光流,输入视频的连续多帧图片,输出各相邻帧间的光流图。
进一步的,所述的步骤(3)中构造出一个共用Attention双流卷积神经网络模型的过程为:
(3.1)VGG16网络
VGG16网络是一种十分重要的CNN模型,可以看成是AlexNet的加深版本,结构清晰,包括13个卷积层、3个全连接层以及5个池化层,其中13个卷积层和5个池化层被分为五个卷积层组,每个卷积层组所包含卷积层的个数分别为2、2、3、3、3,在本文中,我们分别以CONV1、CONV2、CONV3、CONV4和CONV5来表示这五个卷积层组。卷积层的计算公式表示为:
其中,A是深度,B是滤波器的大小,wd,m,n表示滤波器的第d层第m行第n列权重,xd,i,j表示图像的第d层第i行第j列像素,wb表示滤波器的偏置项,ai,j表示特征图的第i行第j列元素,f表示激活函数。进行卷积操作后的特征图大小变为:
C*=(C-D+2P)/S+1
其中C为卷积操作前的矩阵宽和高,D为卷积核的宽和高,P为padding(需要填充的0的个数),S为步长。因为卷积操作会导致图像变得越来越小,致使图像边界信息丢失,所以需要进行padding操作,使卷积前后的特征图大小保持不变,即保证C*=C。
池化层的目的是为了减少网络中的参数,降低计算量,池化层有两种操作,一种是最大值池化,另一种是均值池化。最常用的是最大值池化,且进行池化的滤波器大小E一般为2×2。若输入的数据尺寸为M×M×F,则输出的数据尺寸变为N×N×F,其中N=(M-E)/S+1,F为特征图通道数,且一般S取0。
VGG16网络的具体参数如下:Input为224×224×3,各卷积层的卷积核都为3×3,5个卷积层组的通道数依次为64、128、256、512、512,最终输出为7×7×512。
(3.2)共用Attention模块
共用Attention模块共包含四个Attention矩阵和三个池化层。
(3.2.1)将两路CONV1输出的特征图进行级联,级联后的特征图大小为112×112×128,112×112是每张特征图的大小,128是其通道数,也就是特征图的个数。级联后的特征图首先通过一个全连接层得到注意力权重,注意力权重可以通过如下公式计算:
gi,j=tanh(W1 THi,j+b1)
其中W1为权重,b1为偏置,Hi,j∈Rl×d为特征图上位置(i,j)∈1~112的深度特征向量。最后通过Softmax对注意力权重进行归一化得到112×112的注意力权重矩阵Attention1。
(3.2.2)Attention1分别跟CONV2_1和CONV2_2输出的每一张特征图进行对位点乘,得到带注意力权重的特征图。
(3.2.3)Attention1进行池化操作得到56×56的注意力权重矩阵Attention2,将该注意力权重矩阵分别跟CONV3_1、CONV3_2和CONV3_3输出的每一张特征图进行对位点乘,得到带注意力权重的特征图。
(3.2.4)Attention2进行池化操作得到28×28的注意力权重矩阵Attention3,将该注意力权重矩阵分别跟CONV4_1、CONV4_2和CONV4_3输出的每一张特征图进行对位点乘,得到带注意力权重的特征图。
(3.2.5)Attention3进行池化操作得到14×14的注意力权重矩阵Attention4,将该注意力权重矩阵分别跟CONV5_1、CONV5_2和CONV5_3输出的每一张特征图进行对位点乘,得到带注意力权重的特征图。
通过使用共用Attention模块,网络能够学习到特征图中各个区域对情感识别的重要性,重要的区域权重大,不重要区域权重小。
有益效果:本发明与现有技术相比,其显著优点是:1、综合利用了时间和空间之间的相关信息,比独立的双流卷积神经网络的情感识别有更高的识别率;2、构建一种深度学习网络架构,相比于传统的情感识别,不需要进行繁琐的特征提取、特征降维、特征融合以及特征分类等操作;(3)采用权值共享的VGG16网络模型减少了参数的个数,在很大程度上降低了计算的复杂程度,并进一步提高了情感识别的识别率。
附图说明
图1本发明的整体流程图;
图2本发明的一种基于共用Attention双流卷积神经网络的新生儿疼痛表情识别方法的基本架构图;
图3数据库中的部分视频截取图像。
具体实施方式:
如图1所示,一种基于共用Attention双流卷积神经网络的新生儿疼痛表情识别方法的具体步骤如下:
步骤一:获取新生儿疼痛表情数据库。该数据库中共有1897个视频,共包含4种情绪,这4种情绪分别为:平静、哭闹、轻度疼痛和重度疼痛,将新生儿疼痛表情数据库中4中情绪的视频分别按照10:1的比例分为训练集和测试集。数据库中的部分视频截取图像如图3所示。
步骤二:对数据库中训练集和测试集的视频分别进行分帧处理得到一系列的帧图片,然后选取各视频帧中表情变化最大的一帧,并在多个连续的帧之间添加光流位移场得到对应的光流图,具体操作如下:
(1)从视频中截取帧
在OpenCV中使用ffmpeg代码,输入视频,输出视频中的每一帧图片。
(2)生成光流图
在OpenCV中使用TVL1提取光流,输入视频的连续多帧图片,输出各相邻帧间的光流图。
步骤三:构建出一个共用Attention双流卷积神经网络模型,该模型包含两个VGG16网络和共用Attention模块,具体结构如下:VGG16网络和共用Attention模块,具体结构如下:
(1)VGG16网络
VGG16网络是一种十分重要的CNN模型,可以看成是AlexNet的加深版本,结构清晰,包括13个卷积层、3个全连接层以及5个池化层,其中13个卷积层和5个池化层被分为五个卷积层组,每个卷积层组所包含卷积层的个数分别为2、2、3、3、3,在本文中,我们以CONV1、CONV2、CONV3、CONV4和CONV5来表示这五个卷积层组。
VGG16网络的具体参数如下:Input为224×224×3,各卷积层的卷积核都为3×3,5个卷积层组的通道数依次为64、128、256、512、512,最终输出为7×7×512。具体各层的结构如下:
CONV1_1:卷积核大小为3×3×64,卷积步长为1,并进行填0操作,保证输出特征图大小等于输入数据大小,对输入数据进行卷积操作得到224×224×64的特征图;
CONV1_2:卷积核大小为3×3×64,卷积步长为1,并进行填0操作,对CONV1_1的输出特征图进行卷积操作得到224×224×64的特征图;
POOL1:核大小为2×2,步长为1,对CONV1_2的输出特征图进行池化操作得到112×112×64的特征图;
CONV2_1:卷积核大小为3×3×128,卷积步长为1,并进行填0操作,对POOL1的输出特征图进行卷积操作得到112×112×128的特征图;
CONV2_2:卷积核大小为3×3×128,卷积步长为1,并进行填0操作,对CONV2_1的输出特征图进行卷积操作得到112×112×128的特征图;
POOL2:核大小为2×2,步长为1,对CONV1_2的输出特征图进行池化操作得到56×56×128的特征图;
CONV3_1:卷积核大小为3×3×256,卷积步长为1,并进行填0操作,对POOL2的输出特征图进行卷积操作得到56×56×256的特征图;
CONV3_2:卷积核大小为3×3×256,卷积步长为1,并进行填0操作,对CONV3_1的输出特征图进行卷积操作得到56×56×256的特征图;
CONV3_3:卷积核大小为3×3×256,卷积步长为1,并进行填0操作,对CONV3_2的输出特征图进行卷积操作得到56×56×256的特征图;
POOL3:核大小为2×2,步长为1,对CONV3_3的输出特征图进行池化操作得到28×28×256的特征图;
CONV4_1:卷积核大小为3×3×512,卷积步长为1,并进行填0操作,对POOL3的输出特征图进行卷积操作得到28×28×512的特征图;
CONV4_2:卷积核大小为3×3×512,卷积步长为1,并进行填0操作,对CONV4_1的输出特征图进行卷积操作得到28×28×512的特征图;
CONV4_3:卷积核大小为3×3×512,卷积步长为1,并进行填0操作,对CONV4_2的输出特征图进行卷积操作得到28×28×512的特征图;
POOL4:核大小为2×2,步长为1,对CONV4_3的输出特征图进行池化操作得到14×14×512的特征图;
CONV5_1:卷积核大小为3×3×512,卷积步长为1,并进行填0操作,对POOL4的输出特征图进行卷积操作得到14×14×512的特征图;
CONV5_2:卷积核大小为3×3×512,卷积步长为1,并进行填0操作,对CONV5_1的输出特征图进行卷积操作得到14×14×512的特征图;
CONV5_3:卷积核大小为3×3×512,卷积步长为1,并进行填0操作,对CONV5_2的输出特征图进行卷积操作得到14×14×512的特征图;
POOL5:核大小为2×2,步长为1,对CONV5_3的输出特征图进行池化操作得到7×7×512的特征图;
(2)共用Attention模块
共用Attention模块共包含四个Attention矩阵和三个池化层。
<1>如图2(B)所示,将两路CONV1输出的特征图进行级联,级联后的特征图大小为112×112×128,112×112是每张特征图的大小,128是其通道数,也就是特征图的个数。级联后的特征图首先通过一个全连接层得到注意力权重,最后通过Softmax对注意力权重进行归一化得到112×112的注意力权重矩阵Attention1。
<2>Attention1分别跟CONV2_1和CONV2_2输出的每一张特征图进行对位点乘,得到带注意力权重的特征图。
<3>Attention1进行池化操作得到56×56的注意力权重矩阵Attention2,将该注意力权重矩阵分别跟CONV3_1、CONV3_2和CONV3_3输出的每一张特征图进行对位点乘,得到带注意力权重的特征图。
<4>Attention2进行池化操作得到28×28的注意力权重矩阵Attention3,将该注意力权重矩阵分别跟CONV4_1、CONV4_2和CONV4_3输出的每一张特征图进行对位点乘,得到带注意力权重的特征图。
<5>Attention3进行池化操作得到14×14的注意力权重矩阵Attention4,将该注意力权重矩阵分别跟CONV5_1、CONV5_2和CONV5_3输出的每一张特征图进行对位点乘,得到带注意力权重的特征图。
通过使用共用Attention模块,网络能够学习到特征图中各个区域对情感识别的重要性,重要的区域权重大,不重要区域权重小。
步骤四:将训练集中选取的帧图片与光流图分别输入两路加入共用Attention模块的VGG16网络,优化网络模型参数,并将两路网络的输出特征图进行级联,将得到的级联后的特征图输入全连接层,最终得到训练好的网络模型;
步骤五:将测试集的视频帧和光流图送到到优化后的共用Attention双流卷积神经网络进行情感识别,得到情感识别结果。
Claims (5)
1.一种基于双流卷积神经网络的新生儿疼痛表情识别方法,其特征在于,包括以下步骤:
(1)获取新生儿疼痛表情数据库,并按照10:1的比例将其分为训练集和测试集;
(2)分帧处理数据库中的视频得到帧图片,从中选取各视频帧中表情变化最大的一帧,并在多个连续的帧之间添加光流位移场得到对应的光流图;
(3)构建一个共用Attention双流卷积神经网络模型,该模型包含两个预训练的VGG16网络和共用Attention模块;
(4)将训练集中选取的帧图片与光流图分别作为两路网络的输入,优化网络模型参数,得到训练好的网络模型;
(5)测试集的视频帧和光流图送至优化后的共用Attention双流卷积神经网络进行情感识别,得到情感识别结果。
2.根据权利要求1所述的一种基于共用Attention双流卷积神经网络的新生儿疼痛表情识别方法,其特征在于,步骤(2)中视频分帧与光流图生成的过程包括:
(2.1)从视频中截取帧,输入视频,输出视频中的每一帧图片;
(2.2)生成光流图,输入视频的连续多帧图片,输出各相邻帧间的光流图。
3.根据权利要求1所述的一种基于共用Attention双流卷积神经网络的新生儿疼痛表情识别方法,其特征在于,步骤(3)中共用Attention双流卷积神经网络模型包括的VGG16网络由13个卷积层、3个全连接层以及5个池化层组成,其中13个卷积层和5个池化层被分为五个卷积层组,每个卷积层组所包含卷积层的个数分别为2、2、3、3、3,分别用CONV1、CONV2、CONV3、CONV4和CONV5来表示这五个卷积层组。卷积层的计算公式表示为:
其中,A是深度,B是滤波器的大小,wd,m,n表示滤波器的第d层第m行第n列权重,xd,i,j表示图像的第d层第i行第j列像素,wb表示滤波器的偏置项,ai,j表示特征图的第i行第j列元素,f表示激活函数。进行卷积操作后的特征图
C*=(C-D+2P)/S+1 (公式2)
其中C为卷积操作前的矩阵宽和高,D为卷积核的宽和高,P为需要填充的0的个数,S为步长。
池化层具有两种操作方式,一种是最大值池化,另一种是均值池化。最常用的是最大值池化,且进行池化的滤波器大小E一般为2×2。若输入的数据尺寸为M×M×F,则输出的数据尺寸变为N×N×F,其中N=(M-E)/S+1,F为特征图通道数,且一般S取0。
4.根据权利要求1所述的一种基于共用Attention双流卷积神经网络的新生儿疼痛表情识别方法,其特征在于,步骤(3)中构建一个共用Attention双流卷积神经网络模型包括的共用Attention模块包含四个Attention矩阵和三个核为2×2的池化层,构建方式如下:
(3.1)将两路CONV1输出的特征图进行级联,级联后的特征图大小为112×112×128,112×112是每张特征图的大小,128是其通道数,级联后的特征图首先通过一个全连接层得到注意力权重,注意力权重可以通过如下公式计算:
gi,j=tanh(W1 THi,j+b1) (公式3)
其中W1为权重,b1为偏置,Hi,j∈Rl×d为特征图上位置(i,j)∈1~112的深度特征向量。最后通过Softmax对注意力权重进行归一化得到112×112的注意力权重矩阵Attention1。
(3.2)Attention1分别跟CONV2_1和CONV2_2输出的每一张特征图进行对位点乘,得到带注意力权重的特征图。
(3.3)Attention1进行池化操作得到56×56的注意力权重矩阵Attention2,将该注意力权重矩阵分别跟CONV3_1、CONV3_2和CONV3_3输出的每一张特征图进行对位点乘,得到带注意力权重的特征图。
(3.4)Attention2进行池化操作得到28×28的注意力权重矩阵Attention3,将该注意力权重矩阵分别跟CONV4_1、CONV4_2和CONV4_3输出的每一张特征图进行对位点乘,得到带注意力权重的特征图。
(3.5)Attention3进行池化操作得到14×14的注意力权重矩阵Attention4,将该注意力权重矩阵分别跟CONV5_1、CONV5_2和CONV5_3输出的每一张特征图进行对位点乘,得到带注意力权重的特征图。
5.根据权利要求1所述的一种基于共用Attention双流卷积神经网络的新生儿疼痛表情识别方法,其特征在于,步骤(4)中优化网络模型参数如下:Input为224×224×3,各卷积层的卷积核都为3×3,5个卷积层组的通道数依次为64、128、256、512、512,最终输出为7×7×512。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910748936.5A CN111401117B (zh) | 2019-08-14 | 2019-08-14 | 基于双流卷积神经网络的新生儿疼痛表情识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910748936.5A CN111401117B (zh) | 2019-08-14 | 2019-08-14 | 基于双流卷积神经网络的新生儿疼痛表情识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111401117A true CN111401117A (zh) | 2020-07-10 |
CN111401117B CN111401117B (zh) | 2022-08-26 |
Family
ID=71432239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910748936.5A Active CN111401117B (zh) | 2019-08-14 | 2019-08-14 | 基于双流卷积神经网络的新生儿疼痛表情识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111401117B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112380395A (zh) * | 2020-10-30 | 2021-02-19 | 华南理工大学 | 基于双流架构的图卷积网络的情感获取方法、系统及存储介质 |
CN112800894A (zh) * | 2021-01-18 | 2021-05-14 | 南京邮电大学 | 一种基于时空流间注意力机制的动态表情识别方法及系统 |
CN113642467A (zh) * | 2021-08-16 | 2021-11-12 | 江苏师范大学 | 一种基于改进vgg网络模型的人脸表情识别方法 |
CN114640860A (zh) * | 2022-05-07 | 2022-06-17 | 深圳市温暖生活科技有限公司 | 一种网络数据处理与传输方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392109A (zh) * | 2017-06-27 | 2017-11-24 | 南京邮电大学 | 一种基于深度神经网络的新生儿疼痛表情识别方法 |
CN108363979A (zh) * | 2018-02-12 | 2018-08-03 | 南京邮电大学 | 基于双通道三维卷积神经网络的新生儿疼痛表情识别方法 |
CN108363969A (zh) * | 2018-02-02 | 2018-08-03 | 南京邮电大学 | 一种基于移动终端的新生儿疼痛评估方法 |
CN108596039A (zh) * | 2018-03-29 | 2018-09-28 | 南京邮电大学 | 一种基于3d卷积神经网络的双模态情感识别方法及系统 |
-
2019
- 2019-08-14 CN CN201910748936.5A patent/CN111401117B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392109A (zh) * | 2017-06-27 | 2017-11-24 | 南京邮电大学 | 一种基于深度神经网络的新生儿疼痛表情识别方法 |
CN108363969A (zh) * | 2018-02-02 | 2018-08-03 | 南京邮电大学 | 一种基于移动终端的新生儿疼痛评估方法 |
CN108363979A (zh) * | 2018-02-12 | 2018-08-03 | 南京邮电大学 | 基于双通道三维卷积神经网络的新生儿疼痛表情识别方法 |
CN108596039A (zh) * | 2018-03-29 | 2018-09-28 | 南京邮电大学 | 一种基于3d卷积神经网络的双模态情感识别方法及系统 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112380395A (zh) * | 2020-10-30 | 2021-02-19 | 华南理工大学 | 基于双流架构的图卷积网络的情感获取方法、系统及存储介质 |
CN112380395B (zh) * | 2020-10-30 | 2022-04-22 | 华南理工大学 | 基于双流架构的图卷积网络的情感获取方法、系统及存储介质 |
CN112800894A (zh) * | 2021-01-18 | 2021-05-14 | 南京邮电大学 | 一种基于时空流间注意力机制的动态表情识别方法及系统 |
CN112800894B (zh) * | 2021-01-18 | 2022-08-26 | 南京邮电大学 | 一种基于时空流间注意力机制的动态表情识别方法及系统 |
CN113642467A (zh) * | 2021-08-16 | 2021-11-12 | 江苏师范大学 | 一种基于改进vgg网络模型的人脸表情识别方法 |
CN113642467B (zh) * | 2021-08-16 | 2023-12-01 | 江苏师范大学 | 一种基于改进vgg网络模型的人脸表情识别方法 |
CN114640860A (zh) * | 2022-05-07 | 2022-06-17 | 深圳市温暖生活科技有限公司 | 一种网络数据处理与传输方法及系统 |
CN114640860B (zh) * | 2022-05-07 | 2022-07-15 | 深圳市温暖生活科技有限公司 | 一种网络数据处理与传输方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111401117B (zh) | 2022-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111401117B (zh) | 基于双流卷积神经网络的新生儿疼痛表情识别方法 | |
CN107463949B (zh) | 一种视频动作分类的处理方法及装置 | |
CN110516536B (zh) | 一种基于时序类别激活图互补的弱监督视频行为检测方法 | |
Remez et al. | Class-aware fully convolutional Gaussian and Poisson denoising | |
CN111144329B (zh) | 一种基于多标签的轻量快速人群计数方法 | |
CN110059598B (zh) | 基于姿态关节点的长时程快慢网络融合的行为识别方法 | |
CN110532878A (zh) | 一种基于轻量化卷积神经网络的驾驶员行为识别方法 | |
CN112653899B (zh) | 一种基于联合注意力ResNeSt的复杂场景下网络直播视频特征提取方法 | |
CN111209883A (zh) | 一种基于多源运动特征融合的时序自适应视频分类方法 | |
CN112801040B (zh) | 嵌入高阶信息的轻量级无约束人脸表情识别方法及系统 | |
CN110674704A (zh) | 一种基于多尺度扩张卷积网络的人群密度估计方法及装置 | |
CN113627376B (zh) | 基于多尺度密集连接深度可分离网络的人脸表情识别方法 | |
Gunawan et al. | Sign language recognition using modified convolutional neural network model | |
CN112307982A (zh) | 基于交错增强注意力网络的人体行为识别方法 | |
CN110232361B (zh) | 基于三维残差稠密网络的人体行为意图识别方法与系统 | |
CN110991317B (zh) | 一种基于多尺度透视感知型网络的人群计数方法 | |
CN110321805A (zh) | 一种基于时序关系推理的动态表情识别方法 | |
CN112561799A (zh) | 一种红外图像超分辨率重建方法 | |
CN104036242A (zh) | 基于Centering Trick卷积限制玻尔兹曼机的物体识别方法 | |
CN116844041A (zh) | 一种基于双向卷积时间自注意力机制的耕地提取方法 | |
CN115512156A (zh) | 一种用于图像分类模型训练的自蒸馏训练方法 | |
US20220215617A1 (en) | Viewpoint image processing method and related device | |
CN114648722B (zh) | 一种基于视频多路径时空特征网络的动作识别方法 | |
CN116229323A (zh) | 一种基于改进的深度残差网络的人体行为识别方法 | |
CN110211146B (zh) | 视交叉仿真的视频前景分割方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |