CN107239827B - 一种基于人工神经网络的空间信息学习方法 - Google Patents
一种基于人工神经网络的空间信息学习方法 Download PDFInfo
- Publication number
- CN107239827B CN107239827B CN201710460814.7A CN201710460814A CN107239827B CN 107239827 B CN107239827 B CN 107239827B CN 201710460814 A CN201710460814 A CN 201710460814A CN 107239827 B CN107239827 B CN 107239827B
- Authority
- CN
- China
- Prior art keywords
- neural network
- feature
- expression
- abstract
- spatial information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Abstract
本发明涉及一种基于人工神经网络的空间信息学习方法,属于深度学习技术领域。包括:利用传统神经网络对输入图片进行抽象表达,在传统神经网络的中高层提取特征图得到特征向量F;对F进行滤波映射操作得到LF以增强数据显著性;对LF通过卷积神经网络进行卷积操作以得到更加抽象的特征表达X;对X进行GAP降维处理得到特征点X*;对X*通过公式D=X*×X*T进行相关性分析得到相关矩阵;对D通过公式CD=D*V进行投影操作得到结构特征向量CD;对CD通过公式Y(F)=F+λ*CD得到最终的特征并输出。对比现有技术,本发明不依赖于数据增强的方法就可以识别发生几何形变的物体,使神经网络对于不变性的识别更加鲁棒。
Description
技术领域
本发明涉及一种一种基于人工神经网络的空间信息学习方法,是一种采用神经网络提取不变性特征的方法,特别涉及采用深层卷积神经网络提取空间信息的方法,属于深度学习技术领域。
背景技术
卷积神经网络(CNN)作为一个现阶段最优秀的特征提取器之一,其表现力不仅已经在计算机视觉领域大放光彩,而且卷积核的局部感知原理已经让NLP、围棋博弈(AlphaGo)等非视觉领域有了进步。为了提取到更具有表现力的特征,更多的研究者致力于研究如何设计一个高效的卷积神经网络架构。例如,Alexnet—它是卷积神经网络近期第一次飞跃式的结果提升,VGG、Inception—用较少的参数可以让网络达到更深,残差网络—通过残差单元中的恒等映射来降低信号在每一层之间的传播误差,从而降低训练集的错误率使得我们在理论上可以训练非常深的模型。有了这些具有表现力的特征提取架构,才能使得具体的视觉任务得到根本性的提高。
传统的神经网络激活缺乏全局几何不变性。(Gong Y,Wang L,Guo R,etal.Multi-scale Orderless Pooling of Deep Convolutional Activation Features[C]//European Conference on Computer Vision.Springer InternationalPublishing,2014:392-407.)传统CNN架构的描述力保留了大量全局空间信息,正是因为这些强全局空间信息极大的削弱了CNN不变性识别能力。因此,神经网络本质上缺乏对于几何不变性的理解。这种不变性能力的缺乏导致了神经网络在具体的视觉任务方面表现出了较差的泛化能力。如果可以在高层特征的全局空间信息进行分析,那么就可以消除卷积神经网络的这种缺陷。
几乎所有的神经网络都使用数据增强、dropout和weight decay的方式来提高模型的泛化能力。dropout方法依靠修改网络架构来提高模型的泛化能力,weight decay是依靠修改损失函数。而数据增强是通过对原始数据进行变换从而增加了训练样本数量的方法。对于图片识别任务,水平翻转、随机抓取、水平抓取等方法是经常会被用到来对原始数据进行变换的方法。通过比较以上三种提高模型泛化能力的方法,数据增强是唯一一种用来弥补CNN的不变性的方式。但是这种对训练集进行预处理的方式实现的识别正确率的提升并不代表卷积神经网络自身真正的理解了图片的不变性问题。
人类大脑的研究给予了我们启示,如附图1所示,在V1之上的其余不少枕叶皮层也涉及到了视觉处理。例如,inferior temporal(IT)cells皮质对目标的空间和全局信息激活有强烈的反馈(Young M P,Yamane S.Sparse population coding of faces in theinferotemporal cortex.[J].Science,1992,256(5061):1327.)。这些来自于人脑研究的现象表明了在人脑内部有类似于处理全局空间信息的皮质层。基于此,我们希望在卷积神经网络顶端加入空间信息处理层(SFL),其目的是仿造人脑对于视觉空间信息的学习,弥补CNN在不变性问题中表现的不足。通过有效的空间信息学习,来使卷积神经网络自身具备对图片不变性的学习能力。而具有这种功能区的卷积神经网络应当是不依赖数据增强的方式就可以实现很好的泛化结果。
发明内容
本发明的目的是针对现阶段人工神经网络依赖数据预处理方法来提高模型泛化能力的问题,提出了一种空间信息学习架构,从而使得人工神经网络捕捉到的特征具有不变性,减少神经网络对于数据预处理的依赖性。
本发明技术方案的思想是:效仿人脑视觉处理通路,在高层特征感知器层之上加入一个空间信息处理层(SFL)。其目的有两个:1,高层提取到的特征是全局特征,对全局特征进行相关性分析,使得人工神经网络在最终的特征输出以特征之间的关联关系作为参考进行预测;2,在特征处理层中对特征图进行结构性分析,将原始十分稀疏的特征矩阵映射到较为密集的特征矩阵,使得人工神经网络可以更好的预测发生几何形变的物体。
为实现以上目的,本发明采用的技术方案如下:
一种基于人工神经网络的空间信息学习方法,该方法包括以下步骤:
步骤一、利用传统神经网络对输入图片进行抽象表达,在传统神经网络的中高层提取特征图得到特征向量F;
步骤二,对步骤一提取的特征图通过下式进行滤波映射操作得到结构特征矩阵LF以增强数据显著性:
LF=conυ(F,Filter);
其中,Filter表示卷积滤波选用的核函数,conv表示滤波映射操作采用的是卷积形式;
作为优选,Filter的使用,可以采用以下两种方式之一:
A.采用先验知识初始化核函数,在每一次计算函数输出值的时候将核函数看成是一个常量;
B.将核函数看成是一个自适应滤波器,其值会随反向传播算法而进行调整,最后选择一个最优的核函数。
步骤三,对步骤二输出的LF通过卷积神经网络进行卷积操作以得到更加抽象的特征表达X;
步骤四,由于计算能力的限制,步骤三计算产生的特征表达X无法在步骤五中计算相关矩阵,因此对抽象特征表达X进行GAP降维处理得到特征点X*(feature points);
步骤五、对步骤四输出的特征点通过如下公式进行相关性分析得到相关矩阵D=X*×X*T(correlation matrix):
步骤六、对步骤五计算生成的相关矩阵通过如下公式进行投影操作,得到结构特征向量CD:
CD=D*V;
其中,V表示对相关矩阵D进行投影变换使用的权值列向量,采用高斯分布函数进行初始化,V是通过训练获得的先验概率分布;
步骤七、对步骤六得到的CD通过下述公式与步骤一原始特征向量F融合得到最终的特征输出:
Y(F)=F+λ*CD;
其中,Y(F)为结合了原始卷积层计算得到的抽象特征表达F和全局空间中的位置信息表达CD,λ为融合因子。
作为优选,λ=0.1。
有益效果:
对比现有技术,本发明具有以下有益效果:
(1)传统神经网络的数据增强方法对模型泛化力起到了重要的作用。去除数据增强方法的模型很难识别一些发生几何形变的物体。而本发明通过空间信息学习的方式,不依赖于数据增强的方法就可以识别发生几何形变的物体,使神经网络对于不变性的识别更加鲁棒。
(2)传统神经网络在计算物体类别概率时,认为特征集中的各个特征之间是相互独立的。本发明提出这种假设存在的问题,并且基于此问题进行特征点之间的相关性分析,提出了相关矩阵的概念。
(3)空间信息处理层(SFL)产生的带有空间信息的特征向量需要与原始神经网络产生的抽象特征向量相融合。本发明给出了一种融合方案,并且针对不同的融合因子进行验证,给出了一种较优的融合形式。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是人脑视觉通路中关于空间信息处理的局部构造。
图2是本发明的整体架构。
图3是高层特征图通过全连接的方式进行物体分类概率预测。
具体实施方式
下面结合附图对本发明方法的实施方式做详细说明。
一种基于人工神经网络的空间信息学习方法,如图2所示,原始图片输入到卷积神经网络(CNN)中,在高层空间计算得到原始图片的特征图F(feature maps);对特征图进行滤波操作(filter),以及GAP层(GAP Layer)降维处理后,得到了多个特征点(featurepoints),由特征点形成相关矩阵(Correlation matrix),经过投影(projection)计算得到结构特征向量CD。在惩罚融合单元(penalty fusion unit)将结构特征向量(CD)和原始特征向量(F)进行融合得到,full connection输出。具体实现步骤如下:
步骤一、利用传统神经网络计算特征图
利用传统神经网络,对输入图片进行抽象表达,在传统神经网络的中高层提取特征图,其目的是中高层感知器输出的信息表达更具有整体性、全局性。
如附图3所示,高层的卷积核输出了维度为M*M*N的特征图(output of convlayers),其中M*M代表每一张特征图(feature maps)的大小,其中每一个点(i,j)都是该特征对应坐标下的一个特征数值。N代表特征图的总个数。每一层n代表第n个特征图的空间分布描述。
定义f(i,j,n)为第n个特征图中坐标为(i,j)的特征数值。则该特征对目标c的识别结果可以表述为如下公式:
其中,σ表示神经元采用的激活函数,ω(i,j,n)表示第n个特征图中坐标为(i,j)的特征数值的权重,M*M*N维的特征图可以用F来表示,经过加权求和后的对目标c的识别结果可以表示为预测概率(prediction probability),b表示偏置。WF表示权重向量W与特征向量F的相似度,其中W是通过训练获得的先验概率分布,对于训练好的人工神经网络,F的显著性特征分布在一般情况下应当是高度稀疏的,其高度相似的权重向量W也应当是稀疏的。
本实施例中,数据集采用CIFAR-100(Learning Multiple Layers of Featuresfrom Tiny Images,Alex Krizhevsky,2009.),原始的图片的大小是32*32*3像素,其不使用数据增强的方式,直接输入到卷积神经网络。本实例卷积网络采用的模型是残差网络(Resnet-32),32表示的是有32个特征提取层。本发明提取最后一层卷积层的输出8*8*64维的特征图,之后采用下述方法进行结构性分析。
步骤二、结构性分析
步骤一提取到的中高层特征图F理论上是高度稀疏的。这种稀疏性来源于样本的有限性,由于样本的特征对于位置的高度敏感性,通常采用对齐或者平滑窗口的方式来消除一部分的平移旋转问题。也可以通过池化的方式,在降低分辨率的同时,解决一部分的位置敏感问题。但是从图像的角度来说,避免过度拟合的方式是将位置信息模糊化,即对这种高度稀疏的矩阵进行滤波映射操作,其形式化表达为:
LF=conv(F,Filter)
结构性分析是在逐层卷积的表达中的某一层加入了一个辅助滤波函数。64个大小为8*8的特征图使用64个大小为3*3的核函数进行滤波,其目的是将高度稀疏的8*8*64维的高层特征图围绕显著性点进行填充,增加图片的几何不变性。3*3的核函数利用卷积神经网络反向传播算法进行优化。
如果想具备更大范围的几何不变性,可以增加滤波核函数的大小,高度稀疏的特征图矩阵经过滤波处理之后会自动将峰值处周围的显著性值进行填充。这种做法相当于间接的增加了训练样本,类似于数据增强方法起到的作用。对于滤波核函数的使用,我们采用以下两种方式:
A.采用先验知识初始化核函数,在每一次计算函数输出值的时候将核函数看成是一个常量。
B.将核函数看成是一个自适应滤波器,其值会随反向传播算法而进行调整,最后选择一个最优的核函数。
经过求证,B方案的实验效果远远好于A方案。因此上述表达采用B方案进行。
步骤三、计算更加抽象的特征表达X
对步骤二输出的结构特征矩阵LF进行卷积操作。通过卷积神经网络,将结构性分析后的特征图继续进行卷积函数处理,从而得到更加抽象的特征表达X。
在本发明的本次具体实例中,因需要结构分析而提取的高层特征图是最后一层卷积层的输出,因此本步骤可以略去。但是如果提取的是中高层特征图,而不是最后一层特征图,那么经过步骤二处理后的特征图LF需要继续作为卷积层的输入进行计算,得到更加抽象的特征表达X。
步骤四、GAP降维处理
对步骤三输出的维度为8*8*64的特征表达X进行降维操作得到特征点(featurepoints)向量X*。为了减小步骤五所生成的相关矩阵的计算量,在生成相关矩阵之前,对特征图进行全局降维。一个维度为M*M*N的特征图X,经过GAP降维将会成为维度为1*N的特征点X*,此后将会对特征点进行相关性分析。
本实施例中,经过以上步骤形成的特征图的大小是8*8*64,GAP层(Lin M,Chen Q,Yan S.Network In Network[J].Computer Science,2013.)的作用是将特征图变成特征点。8*8*64的特征图映射为1*64个特征点。
步骤五、相关性分析
对步骤四输出的1*N个特征点向量进行相关性分析得到相关矩阵。给定一个目标G具有显著特征集S={f1,f2,f3,…,fk}。其中fk=f(ik,jk,nk),表示在M*M*N维的特征空间中(ik,jk,nk)点的显著性值,其中k∈(0,(N-1)*(M-1)2)。目标G的识别结果的形式化表达为:
P(G|S)=P(G|f1,f2,...,fk);
P(G|S)表示目标G在显著特征集S下的识别结果。
但是基于全连接层的识别表达式存在一个独立性假设,即认为特征集S中的各个特征之间相互独立,如下:
P(G|f1,f2,...,fk)∝∑P(G|fi)
若全面考虑所有特征之间的关系,在目前的计算能力下难以实施,但我们可以假设两两特征点之间是相互独立的,即:
因此,定义特征之间的相关矩阵为D=X*×X*T。X*是在步骤四中由高层卷积核计算得到的抽象特征点向量。
对于1*64维的特征点,本专利进行相关性分析。可以充分考虑到特征点之间的相关性信息。X*是1*64维的列向量,相关矩阵可以定义为:D=X**×X*T,相关矩阵有如下性质:
1.它是一个对称矩阵,其中任意一点的数值对应特征图中的某一特征X*和X*T的显著性乘积。
2.其中峰值处代表了特征对在空间中的显著特征,该点在X*和X*T中都显著,从而体现出两两相关性。
步骤六、投影计算结构特征向量CD
对步骤五计算生成的相关矩阵进行投影操作,得到结构特征向量。
上述步骤计算得到的相关矩阵D已经考虑了结构性和特征点之间的相关性信息。为了体现全局结构化信息,即从单一特征的角度衡量其他特征的匹配关系,同时进一步减少矩阵D的维度,形成经过全局结构化的特征向量CD。V是(M*M*N)维的权值列向量,是通过训练获得的先验概率分布;随后将CD看成是带有全局空间信息的新特征向量。
CD=D*V;
步骤七、结构特征向量CD与原始特征向量F融合
对步骤六计算产生的结构特征向量CD进行融合操作,得到Y(F)为空间信息学习架构的总体特征输出。Y(F)结合了原始卷积层计算得到的抽象特征表达F和全局空间中的位置信息表达CD。
Y(F)=F+λ*conv(F,Filter)*conv(F,Filter)T*V;
融合因子λ在最终融合过程中起到重要的作用,其大小决定了具有特征点对位置关系的相关矩阵在最终输出特征向量中所占的比重。融合因子λ具有两个作用:将带有空间信息的特征向量与原始特征向量相融合;相关矩阵将原始特征图中的显著性值进行了放大,因此在与原始特征融合之前,需要进行适当的缩小。
实验结果表明,不同的融合因子对于最终的识别率有影响。如果采用较小的融合因子,空间信息对最终结果所起到的作用较小。最终确定λ=0.1时,模型的泛化能力和表达能力最优。
表1
Model | Random crop | CIFAR-100(error rate%) |
Resnet-32 | Yes | 34.47 |
Resnet-32 | No | 42.1 |
Resnet-32+SFL | No | 33.21 |
Resnet-26 | Yes | 35.51 |
Resnet-26 | No | 43.2 |
Resnet-26+SFL | No | 34.07 |
表1展示了使用本专利提出的方法会降低卷积神经网络对于数据增强(Randomcrop)方式的依赖性。从中可以看出,原始的Resnet模型如果没有Random crop的数据增强方式,错误率会大幅度提高。而我们的方法(Resnet-26+SFL)不依赖于这种数据增强的方式就可以实现较高的正确率。为了保证比较的公平性,本次实施的结果都是在完全相同参数条件下的训练集中进行的。
为了说明本发明的内容及实施方法,本说明书给出了一个具体实施例。在实施例中引入细节的目的不是限制权利要求书的范围,而是帮助理解本发明所述方法。本领域的技术人员应理解:在不脱离本发明及其所附权利要求的精神和范围内,对最佳实施例步骤的各种修改、变化或替换都是可能的。因此,本发明不应局限于最佳实施例及附图所公开的内容。
Claims (3)
1.一种基于人工神经网络的空间信息学习方法,其特征在于:包括以下步骤:
步骤一、利用传统神经网络对输入图片进行抽象表达,在传统神经网络的中高层提取特征图得到特征向量F;
步骤二,对F通过下式进行滤波映射操作得到结构特征矩阵LF以增强数据显著性:
LF=conv(F,Filter);
其中,Filter表示卷积滤波选用的核函数,conv表示滤波映射操作采用的是卷积形式;
步骤三,对LF通过卷积神经网络进行卷积操作以得到更加抽象的特征表达X;
步骤四,由于计算能力的限制,步骤三计算产生的特征表达X无法在步骤五中计算相关矩阵,因此对抽象特征表达X进行GAP降维处理得到特征点x;
步骤五、对x通过如下公式进行相关性分析得到相关矩阵D=<x,xT>;
步骤六、对D通过如下公式进行投影操作,得到结构特征向量CD:
CD=<D,V>;
其中,V表示对相关矩阵D进行投影变换使用的权值列向量,采用高斯分布进行初始化,V是通过训练获得的先验概率分布;
步骤七、对CD通过下述公式与步骤一原始特征向量F融合得到最终的特征输出:
Y(F)=f+λ*CD;
其中,Y(F)为结合了原始卷积层计算得到的抽象特征表达F和全局空间中的位置信息表达CD,λ为融合因子。
2.根据权利要求1所述的一种基于人工神经网络的空间信息学习方法,其特征在于:所述Filter的使用,可以采用以下两种方式之一:
A.采用先验知识初始化核函数,在每一次计算函数输出值的时候将核函数看成是一个常量;
B.将核函数看成是一个自适应滤波器,其值会随反向传播算法而进行调整,最后选择一个最优的核函数。
3.根据权利要求1或2所述的一种基于人工神经网络的空间信息学习方法,其特征在于λ=0.1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710460814.7A CN107239827B (zh) | 2017-06-18 | 2017-06-18 | 一种基于人工神经网络的空间信息学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710460814.7A CN107239827B (zh) | 2017-06-18 | 2017-06-18 | 一种基于人工神经网络的空间信息学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107239827A CN107239827A (zh) | 2017-10-10 |
CN107239827B true CN107239827B (zh) | 2020-06-09 |
Family
ID=59986336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710460814.7A Expired - Fee Related CN107239827B (zh) | 2017-06-18 | 2017-06-18 | 一种基于人工神经网络的空间信息学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107239827B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109636658B (zh) * | 2019-01-17 | 2022-05-06 | 电子科技大学 | 一种基于图卷积的社交网络对齐方法 |
CN109670486A (zh) * | 2019-01-30 | 2019-04-23 | 深圳前海达闼云端智能科技有限公司 | 一种基于视频的人脸识别方法、装置及计算设备 |
CN110059608B (zh) * | 2019-04-11 | 2021-07-06 | 腾讯科技(深圳)有限公司 | 一种物体检测方法、装置、电子设备和存储介质 |
CN114445660B (zh) * | 2022-01-21 | 2023-04-07 | 华东交通大学 | 一种细粒度图像识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105469100A (zh) * | 2015-11-30 | 2016-04-06 | 广东工业大学 | 基于深度学习的皮肤活检图像病理特性识别方法 |
CN105740891A (zh) * | 2016-01-27 | 2016-07-06 | 北京工业大学 | 基于多层次特征提取和上下文模型的目标检测 |
CN106599939A (zh) * | 2016-12-30 | 2017-04-26 | 深圳市唯特视科技有限公司 | 一种基于区域卷积神经网络的实时目标检测方法 |
CN106778763A (zh) * | 2016-11-11 | 2017-05-31 | 上海电机学院 | 一种基于属性图的图像表示方法 |
-
2017
- 2017-06-18 CN CN201710460814.7A patent/CN107239827B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105469100A (zh) * | 2015-11-30 | 2016-04-06 | 广东工业大学 | 基于深度学习的皮肤活检图像病理特性识别方法 |
CN105740891A (zh) * | 2016-01-27 | 2016-07-06 | 北京工业大学 | 基于多层次特征提取和上下文模型的目标检测 |
CN106778763A (zh) * | 2016-11-11 | 2017-05-31 | 上海电机学院 | 一种基于属性图的图像表示方法 |
CN106599939A (zh) * | 2016-12-30 | 2017-04-26 | 深圳市唯特视科技有限公司 | 一种基于区域卷积神经网络的实时目标检测方法 |
Non-Patent Citations (2)
Title |
---|
Move evaluation in go using deep convolutional neural networks;Chris J等;《Computer Science》;20141231;全文 * |
基于空间信息的DBN图像分类快速训练模型;高强等;《系统仿真学报》;20150331;第27卷(第3期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN107239827A (zh) | 2017-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Softmax regression based deep sparse autoencoder network for facial emotion recognition in human-robot interaction | |
Liu et al. | Hard negative generation for identity-disentangled facial expression recognition | |
CN106529447B (zh) | 一种小样本人脸识别方法 | |
CN107239827B (zh) | 一种基于人工神经网络的空间信息学习方法 | |
Dosovitskiy et al. | Unsupervised feature learning by augmenting single images | |
US20220292351A1 (en) | Systems, methods, and storage media for generating synthesized depth data | |
Zhang et al. | IL-GAN: Illumination-invariant representation learning for single sample face recognition | |
Lokku et al. | OPFaceNet: OPtimized Face Recognition Network for noise and occlusion affected face images using Hyperparameters tuned Convolutional Neural Network | |
Deng et al. | A multi-scale three-dimensional face recognition approach with sparse representation-based classifier and fusion of local covariance descriptors | |
Gao et al. | Integrated GANs: Semi-supervised SAR target recognition | |
Uddin et al. | A perceptually inspired new blind image denoising method using $ L_ {1} $ and perceptual loss | |
Tomar et al. | Deep hyfeat based attention in attention model for face super-resolution | |
Wang et al. | Learning to hallucinate face in the dark | |
CN114492634A (zh) | 一种细粒度装备图片分类识别方法及系统 | |
Dong et al. | Occlusion expression recognition based on non-convex low-rank double dictionaries and occlusion error model | |
Qiu | Convolutional neural network based age estimation from facial image and depth prediction from single image | |
Nguyen et al. | Skeleton-based hand gesture recognition by learning SPD matrices with neural networks | |
Meng et al. | A novel gray image denoising method using convolutional neural network | |
Jatain et al. | Enhanced face recognition using adaptive local tri weber pattern with improved deep learning architecture | |
Jiang et al. | Facial Expression Recognition Based on Zero-addition Pretext Training and Feature Conjunction-Selection Network in Human-Robot Interaction | |
Cui et al. | Intelligence Science and Big Data Engineering. Visual Data Engineering: 9th International Conference, IScIDE 2019, Nanjing, China, October 17–20, 2019, Proceedings, Part I | |
CN111209433A (zh) | 一种基于特征增强的视频分类算法 | |
CN113283520B (zh) | 面向成员推理攻击的基于特征增强的深度模型隐私保护方法和装置 | |
CN116503959B (zh) | 基于不确定性感知的弱监督时序动作定位方法及系统 | |
Li et al. | Learning attentive dynamic maps (ADMs) for understanding human actions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200609 Termination date: 20210618 |