CN111666852A - 一种基于卷积神经网络的微表情双流网络识别方法 - Google Patents
一种基于卷积神经网络的微表情双流网络识别方法 Download PDFInfo
- Publication number
- CN111666852A CN111666852A CN202010467536.XA CN202010467536A CN111666852A CN 111666852 A CN111666852 A CN 111666852A CN 202010467536 A CN202010467536 A CN 202010467536A CN 111666852 A CN111666852 A CN 111666852A
- Authority
- CN
- China
- Prior art keywords
- network
- micro
- expression
- obtaining
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 11
- 230000000694 effects Effects 0.000 claims abstract description 11
- 238000013138 pruning Methods 0.000 claims abstract description 5
- 230000003287 optical effect Effects 0.000 claims description 13
- 238000012360 testing method Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 abstract description 4
- 238000011160 research Methods 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000009977 dual effect Effects 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于卷积神经网络的微表情双流网络识别方法,利用目前在其他计算机视觉等问题上效果较好的两种网络模型Inception网络和Resnet网络进行研究,通过不同的输入运动信息,融合两种网络的输出特征更好地进行微表情识别;本发明在Inception网络基础上通过修剪并添加注意力机制提出TIncepSE,使其在融合多尺度信息的基础上加强通道间的相关性;同时利用3DResnet网络证明3D卷积网络可以用在微表情识别中;最终通过融合TIncepSE网络与3DResnet网络,构成3DResTIncepSE网络提高微表情识别的效果。
Description
技术领域
本发明属于微表情识别及人工智能领域,涉及面部运动、面部特征、卷积神经网络,特别涉及一种基于卷积神经网络的微表情双流网络识别方法。
背景技术
目前微表情识别其实就是在现有的数据库上进行微表情样本序列的情感分类。目前广泛使用的有手工特征LBP,LBP-TOP,LBP-SIP、HIGO+Mag和光流方法。
LBP方法是以窗口中心像素为阈值,将设置的相邻元素的灰度值与其进行比较,若周围像素值大于等于中心像素值,则该像素点的位置被标记为1,否则为0。这样每个像素点都会产生一个二进制编码码,表示图像的局部纹理特征,通过将图像的所有局部纹理特征组织成最终的特征统计直方图用来表示图片的特征,然后就可以利用SVM或者其他机器学习算法进行分类。
LBP-TOP是LBP从二维空间到三维空间的拓展,TOP表示三正交平面,一个视频或者图像序列除了X,Y方向之外,还有一个沿着时间轴T的方向,通过该方法,一个图像序列就可给出三个正交平面的纹理图,X-Y是我们正常看到的图像,X-T是每一行沿着时间轴扫描而过的纹理和Y-T是每一列沿着时间轴扫描而过的图像,这三个平面是相互正交的,通过把三个平面的LBP特征连接起来,得到一种包含空间信息和时间信息的高维特征。
LBP-SIP是LBP-TOP的简化版,由于当所有三个平面被视为整体时,某些像素点在计算中被多次使用,从而导致在计算LBP码时产生冗余的差分和阈值计算,为了在保留基本模式信息的同时使计算更紧凑,该方法仅计算空间和时间两组相邻点来获得时空LBP模式,即只考虑三个正交平面构成的三条相交直线上的六个不同的相邻点。
HIGO+Mag首先利用欧拉方法将图像的运动进行放大,然后求得图像的梯度直方图,HIGO通过忽略一阶导数的大小来降低光照和对比度的影响。结果表明图像梯度方向并不取决于像素的强度。因此,统计得到的图像块的梯度方向直方图是光照不敏感的。对于识别真实情况下记录的自发微表情,在光照条件显著不同的情况下,HIGO有望提高性能。
光流法是现阶段分析图像运动的重要方法,光流用矢量符号对物体的运动进行编码,指示运动的方向和强度。光流法假设像素点的光强度不会突变,通过分析像素亮度强度来计算出物体的运动,构成图像上所有像素点的一种二维瞬时速度场,其中的二维速度矢量是景物中可见点的三维速度矢量在成像表面的投影。目前比较常用的是总变分最小化方法(TV-L1)。
除了上述的一些手工特征的方法,随着机器学习与深度学习的发展,逐渐有人尝试使用深度学习的方法来进行微表情识别如:ELRCN、DSSN网络结构。
ELRCN,其中使用VGG网络为骨干网络,通过特征丰富来编码微妙的面部变化,ELRCN模型包括深层次的空间特征提取器和描述时间动态的时间模块,介绍了两种网络变体:1)通过输入通道叠加来丰富空间维度,2)通过深度特征叠加来丰富时间维度。
DSSN,其中使用AlexNet网络为骨干网络,通过保留一些较早的卷积块,重要的早期空间约简得以维持,为了更好地捕获关键信息,构造了一对异构的截断网络,在最后的卷积块上进行通道信道合并,称之为双流浅层网络。通过有区别地合并运动信息促进微表情的识别,证明了具有竞争力的手工特征方法可以被深度学习技术所超越。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于卷积神经网络的微表情双流网络识别方法,利用目前在其他计算机视觉等问题上效果较好的两种网络模型Inception网络和Resnet网络进行研究,通过不同的输入运动信息,融合两种网络的输出特征更好地进行微表情识别;本发明在Inception网络基础上通过修剪并添加注意力机制提出TIncepSE,使其在融合多尺度信息的基础上加强通道间的相关性;同时利用3DResnet网络证明3D卷积网络可以用在微表情识别中;最终通过融合TIncepSE网络与3DResnet网络,构成3DResTIncepSE网络提高微表情识别的效果。
本发明解决其技术问题是通过以下技术方案实现的:
一种基于卷积神经网络的微表情双流网络识别方法,其特征在于:所述方法的步骤为:
S1、使用总变分最小化方法(TV-L1)计算微表情起始帧和顶点帧之间的光流;
S2、以计算的光流为输入,通过在Inception网络基础上通过修剪并添加通道注意力,得到TIncpSE网络结构,通过网络的不断训练测试,得到较好的网络结构,最终得到一个1024大小的feature;
S3、构建加强表示的微表情序列下采样10帧;
S4、以构建的10帧微表情序列为输入,利用Resnet网络的3D形式,通过实验测试找到效果最好的网络结构,得到一个512大小的feature;
S5、将两个网络得到的feature进行拼接,通过构建多层感知机自学习两个特征之间的关系,最终得到微表情识别的结果。
本发明的优点和有益效果为:
1、本发明一种基于卷积神经网络的微表情双流网络识别方法,利用目前在其他计算机视觉等问题上效果较好的两种网络模型Inception网络和Resnet网络进行研究,通过不同的输入运动信息,融合两种网络的输出特征更好地进行微表情识别。
2、本发明一种基于卷积神经网络的微表情双流网络识别方法,在Inception网络基础上通过修剪并添加注意力机制提出TIncepSE,使其在融合多尺度信息的基础上加强通道间的相关性;同时利用3DResnet网络证明3D卷积网络可以用在微表情识别中;最终通过融合TIncepSE网络与3DResnet网络,构成3DResTIncepSE网络提高微表情识别的效果。
附图说明
图1为裁剪Inception网络添加通道注意力机制后的网络结构示意图;
图2为本发明的流程图;
图3为双流网络的结构示意图;
图4为双流网络在三个数据库上识别的混淆矩阵图。
具体实施方式
下面通过具体实施例对本发明作进一步详述,以下实施例只是描述性的,不是限定性的,不能以此限定本发明的保护范围。
一种基于卷积神经网络的微表情双流网络识别方法,图2为本发明的流程图,其特征在于:所述方法的步骤为:
步骤S0101:通过使用总变分最小化方法(TV-L1)计算微表情起始帧和顶点帧之间的光流,通过该方法求得水平光流和垂直光流,然后通过二者计算出光流总的强度,将三种数据进行叠加得到三通道的光流图,用来表征微表情的面部运动信息。
步骤S0201:使用构建的TIcepSE网络进行微表情识别,得到效果较好的网络参数配置,其中训练时使用带权重的交叉熵损失函数,如公式(1)所示。
公式(1)中,x表示输入到损失函数中的网络输出结果,其维度是(batchsize,C),class的维度是(batchsize)表示输入x对应类别,这里batchsize表示网络训练时的批数据量,C表示分类的个数,weight数组表示每个类别class的权重。权重的分配方式,如公式(2)所示。
公式(2)中,data[x]表示数据库中表示情感类别x的样本数量,max(data[x])为数据库中单个情感类别样本最多的数量,weight[class]表示每个类分配的权重。
步骤S0301:将微表情样本序列进行下采样,以顶点帧为分割,左取4帧,右取四帧,然后将顶点帧放到尾部构成一个加强表示的10帧微表情序列。
步骤S0401:输入使用构建的10帧微表情序列,使用3DResnet-10、3DResnet-18、3DResnet-34分别进行测试,找到识别效果最好的网络,图1展示了构建的网络结构。
步骤S0501:将步骤S0201、S0401得到两种网络进行特征融合,同时在网络最后加多层感知机,使网络自动学习两种不同特征之间的关系,最后得到最终的微表情识别结果,图3展示了双流网络的结构。
实验采用准确率和综合评价指标F1-Score作为微表情识别的评价标准。识别的效果越好,准确率和F1-Score越大。其中F1-Score是准确率和召回率的加权调和平均值,能更好地表示在数据分布不均衡情况下的识别性能。
由表1可知,构建的3DResTIncepSE双流网络在三个数据上的识别效果,不管是准确率还是F1-Score都表现出色,其中在SMIC2/HS、SAMM数据库上的结果超过了目前最好深度方法的结果,分别提升大概11%、17%,在CASMEII数据库上与最好深度方法相差无几。
同时使用混淆矩阵对识别结果进行了可视化展示,可以看出虽然数据库中的数据样本分布不均衡,但是由于在损失函数中添加了权重,使得样本大概率地被分类准确。
表1 3DResTIncepSE网络与其他方法的识别结果对比表
表1中,双流网络3DResTIncepSE,在SMIC2/HS、SAMM这两个数据库上的结果要好于目前最好的深度学习方法的结果,同时在CASMEII数据库上的结果虽然没有超过最好的结果,但相差无几。
图4是双流网络在三个数据库上识别的混淆矩阵图,混淆矩阵是用来进行精读评价的一种通用的格式,用于比较分类结果与实际值的匹配度。从图中可以看出,双流网络在三个数据库上均能很好地对微表情样本进行分类。
尽管为说明目的公开了本发明的实施例和附图,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换、变化和修改都是可能的,因此,本发明的范围不局限于实施例和附图所公开的内容。
Claims (1)
1.一种基于卷积神经网络的微表情双流网络识别方法,其特征在于:所述方法的步骤为:
S1、使用总变分最小化方法计算微表情起始帧和顶点帧之间的光流;
S2、以计算的光流为输入,通过在Inception网络基础上通过修剪并添加通道注意力,得到TIncpSE网络结构,通过网络的不断训练测试,得到较好的网络结构,最终得到一个1024大小的feature;
S3、构建加强表示的微表情序列下采样10帧;
S4、以构建的10帧微表情序列为输入,利用Resnet网络的3D形式,通过实验测试找到效果最好的网络结构,得到一个512大小的feature;
S5、将两个网络得到的feature进行拼接,通过构建多层感知机自学习两个特征之间的关系,最终得到微表情识别的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010467536.XA CN111666852A (zh) | 2020-05-28 | 2020-05-28 | 一种基于卷积神经网络的微表情双流网络识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010467536.XA CN111666852A (zh) | 2020-05-28 | 2020-05-28 | 一种基于卷积神经网络的微表情双流网络识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111666852A true CN111666852A (zh) | 2020-09-15 |
Family
ID=72384997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010467536.XA Pending CN111666852A (zh) | 2020-05-28 | 2020-05-28 | 一种基于卷积神经网络的微表情双流网络识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111666852A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112232191A (zh) * | 2020-10-15 | 2021-01-15 | 南京邮电大学 | 基于微表情分析的抑郁症识别系统 |
CN112560812A (zh) * | 2021-02-19 | 2021-03-26 | 中国科学院自动化研究所 | 基于融合深度特征的微表情识别方法 |
CN112580555A (zh) * | 2020-12-25 | 2021-03-30 | 中国科学技术大学 | 一种自发微表情识别方法 |
CN115359534A (zh) * | 2022-08-25 | 2022-11-18 | 成都信息工程大学 | 基于多特征融合和双流网络的微表情识别方法 |
CN115393779A (zh) * | 2022-10-31 | 2022-11-25 | 济宁九德半导体科技有限公司 | 用于激光熔覆金属球制造的控制系统及其控制方法 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109101896A (zh) * | 2018-07-19 | 2018-12-28 | 电子科技大学 | 一种基于时空融合特征和注意力机制的视频行为识别方法 |
CN109190695A (zh) * | 2018-08-28 | 2019-01-11 | 中国海洋大学 | 一种基于深度卷积神经网络的鱼类图像分类方法 |
CN109754440A (zh) * | 2018-12-24 | 2019-05-14 | 西北工业大学 | 一种基于全卷积网络和均值漂移的阴影区域检测方法 |
CN109753906A (zh) * | 2018-12-25 | 2019-05-14 | 西北工业大学 | 基于域迁移的公共场所异常行为检测方法 |
CN109871777A (zh) * | 2019-01-23 | 2019-06-11 | 广州智慧城市发展研究院 | 一种基于注意力机制的行为识别系统 |
CN109886190A (zh) * | 2019-02-20 | 2019-06-14 | 哈尔滨工程大学 | 一种基于深度学习的人脸表情和姿态双模态融合表情识别方法 |
CN109977904A (zh) * | 2019-04-04 | 2019-07-05 | 成都信息工程大学 | 一种基于深度学习的轻量型的人体动作识别方法 |
CN110135386A (zh) * | 2019-05-24 | 2019-08-16 | 长沙学院 | 一种基于深度学习的人体动作识别方法和系统 |
CN110458038A (zh) * | 2019-07-19 | 2019-11-15 | 天津理工大学 | 基于双链深度双流网络的小数据跨域动作识别方法 |
CN110503053A (zh) * | 2019-08-27 | 2019-11-26 | 电子科技大学 | 基于循环卷积神经网络的人体动作识别方法 |
CN110602526A (zh) * | 2019-09-11 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、计算机设备及存储介质 |
CN110689056A (zh) * | 2019-09-10 | 2020-01-14 | Oppo广东移动通信有限公司 | 一种分类方法及装置、设备和存储介质 |
CN110766067A (zh) * | 2019-10-21 | 2020-02-07 | 浙江工业大学之江学院 | 基于机器学习的毫米波雷达材质识别方法 |
CN110807764A (zh) * | 2019-09-20 | 2020-02-18 | 成都智能迭迦科技合伙企业(有限合伙) | 一种基于神经网络的肺癌筛查方法 |
CN110874554A (zh) * | 2018-09-03 | 2020-03-10 | 阿里巴巴集团控股有限公司 | 动作识别方法、终端设备、服务器、系统及存储介质 |
CN110991254A (zh) * | 2019-11-08 | 2020-04-10 | 深圳大学 | 超声图像视频分类预测方法及系统 |
US20200160559A1 (en) * | 2018-11-16 | 2020-05-21 | Uatc, Llc | Multi-Task Multi-Sensor Fusion for Three-Dimensional Object Detection |
-
2020
- 2020-05-28 CN CN202010467536.XA patent/CN111666852A/zh active Pending
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109101896A (zh) * | 2018-07-19 | 2018-12-28 | 电子科技大学 | 一种基于时空融合特征和注意力机制的视频行为识别方法 |
CN109190695A (zh) * | 2018-08-28 | 2019-01-11 | 中国海洋大学 | 一种基于深度卷积神经网络的鱼类图像分类方法 |
CN110874554A (zh) * | 2018-09-03 | 2020-03-10 | 阿里巴巴集团控股有限公司 | 动作识别方法、终端设备、服务器、系统及存储介质 |
US20200160559A1 (en) * | 2018-11-16 | 2020-05-21 | Uatc, Llc | Multi-Task Multi-Sensor Fusion for Three-Dimensional Object Detection |
CN109754440A (zh) * | 2018-12-24 | 2019-05-14 | 西北工业大学 | 一种基于全卷积网络和均值漂移的阴影区域检测方法 |
CN109753906A (zh) * | 2018-12-25 | 2019-05-14 | 西北工业大学 | 基于域迁移的公共场所异常行为检测方法 |
CN109871777A (zh) * | 2019-01-23 | 2019-06-11 | 广州智慧城市发展研究院 | 一种基于注意力机制的行为识别系统 |
CN109886190A (zh) * | 2019-02-20 | 2019-06-14 | 哈尔滨工程大学 | 一种基于深度学习的人脸表情和姿态双模态融合表情识别方法 |
CN109977904A (zh) * | 2019-04-04 | 2019-07-05 | 成都信息工程大学 | 一种基于深度学习的轻量型的人体动作识别方法 |
CN110135386A (zh) * | 2019-05-24 | 2019-08-16 | 长沙学院 | 一种基于深度学习的人体动作识别方法和系统 |
CN110458038A (zh) * | 2019-07-19 | 2019-11-15 | 天津理工大学 | 基于双链深度双流网络的小数据跨域动作识别方法 |
CN110503053A (zh) * | 2019-08-27 | 2019-11-26 | 电子科技大学 | 基于循环卷积神经网络的人体动作识别方法 |
CN110689056A (zh) * | 2019-09-10 | 2020-01-14 | Oppo广东移动通信有限公司 | 一种分类方法及装置、设备和存储介质 |
CN110602526A (zh) * | 2019-09-11 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、计算机设备及存储介质 |
CN110807764A (zh) * | 2019-09-20 | 2020-02-18 | 成都智能迭迦科技合伙企业(有限合伙) | 一种基于神经网络的肺癌筛查方法 |
CN110766067A (zh) * | 2019-10-21 | 2020-02-07 | 浙江工业大学之江学院 | 基于机器学习的毫米波雷达材质识别方法 |
CN110991254A (zh) * | 2019-11-08 | 2020-04-10 | 深圳大学 | 超声图像视频分类预测方法及系统 |
Non-Patent Citations (4)
Title |
---|
JIE LI, YU LIU, DONG GONG,ET AL: "《RGBD Based Dimensional Decomposition Residual Network for 3D Semantic Scene Completion》", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 * |
XIANG LONG,CHUANG GAN,GERARD MELO,ET AL: "《Multimodal Keyless Attention Fusion for Video Classification》", 《THIRTY-SECOND AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE》 * |
郭少博: "《基于深度学习的机动车检测与属性识别研究》", 《中国硕士学位论文全文数据库 (信息科技辑)》 * |
陈华官: "《基于端到端深度卷积神经网络的人脸识别算法》", 《中国硕士学位论文全文数据库 (信息科技辑)》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112232191A (zh) * | 2020-10-15 | 2021-01-15 | 南京邮电大学 | 基于微表情分析的抑郁症识别系统 |
CN112232191B (zh) * | 2020-10-15 | 2023-04-18 | 南京邮电大学 | 基于微表情分析的抑郁症识别系统 |
CN112580555A (zh) * | 2020-12-25 | 2021-03-30 | 中国科学技术大学 | 一种自发微表情识别方法 |
CN112580555B (zh) * | 2020-12-25 | 2022-09-30 | 中国科学技术大学 | 一种自发微表情识别方法 |
CN112560812A (zh) * | 2021-02-19 | 2021-03-26 | 中国科学院自动化研究所 | 基于融合深度特征的微表情识别方法 |
CN115359534A (zh) * | 2022-08-25 | 2022-11-18 | 成都信息工程大学 | 基于多特征融合和双流网络的微表情识别方法 |
CN115393779A (zh) * | 2022-10-31 | 2022-11-25 | 济宁九德半导体科技有限公司 | 用于激光熔覆金属球制造的控制系统及其控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111666852A (zh) | 一种基于卷积神经网络的微表情双流网络识别方法 | |
CN106683048B (zh) | 一种图像超分辨率方法及设备 | |
CN108416266B (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
CN105139004B (zh) | 基于视频序列的人脸表情识别方法 | |
CN108090472B (zh) | 基于多通道一致性特征的行人重识别方法及其系统 | |
CN111950453A (zh) | 一种基于选择性注意力机制的任意形状文本识别方法 | |
CN113870335B (zh) | 一种基于多尺度特征融合的单目深度估计方法 | |
CN112818849B (zh) | 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法 | |
CN117670820B (zh) | 一种塑料薄膜生产缺陷检测方法及系统 | |
CN113782190B (zh) | 基于多级时空特征和混合注意力网络的图像处理方法 | |
CN110532959B (zh) | 基于双通道三维卷积神经网络的实时暴力行为检测系统 | |
CN110827312A (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN111652273A (zh) | 一种基于深度学习的rgb-d图像分类方法 | |
CN116052212A (zh) | 一种基于双重自监督学习的半监督跨模态行人重识别方法 | |
CN113486894A (zh) | 一种卫星图像特征部件语义分割方法 | |
CN114332473A (zh) | 目标检测方法、装置、计算机设备、存储介质及程序产品 | |
CN114663769B (zh) | 一种基于YOLO v5的水果识别方法 | |
CN115761888A (zh) | 基于nl-c3d模型的塔吊操作人员异常行为检测方法 | |
CN116403152A (zh) | 一种基于空间上下文学习网络的人群密度估计方法 | |
CN110163149A (zh) | Lbp特征的获取方法、装置和存储介质 | |
CN117437691A (zh) | 一种基于轻量化网络的实时多人异常行为识别方法及系统 | |
CN111242114B (zh) | 文字识别方法及装置 | |
CN116884069A (zh) | 一种基于长距离时序特征VisionTransformer的人脸活体检测算法 | |
CN111401209A (zh) | 一种基于深度学习的动作识别方法 | |
CN116597503A (zh) | 一种基于时空特征的课堂行为检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200915 |
|
RJ01 | Rejection of invention patent application after publication |