CN114818889A - 一种基于线性自注意力Transformer的图像分类方法 - Google Patents
一种基于线性自注意力Transformer的图像分类方法 Download PDFInfo
- Publication number
- CN114818889A CN114818889A CN202210386842.XA CN202210386842A CN114818889A CN 114818889 A CN114818889 A CN 114818889A CN 202210386842 A CN202210386842 A CN 202210386842A CN 114818889 A CN114818889 A CN 114818889A
- Authority
- CN
- China
- Prior art keywords
- attention
- picture
- module
- convolutional
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及计算机视觉技术领域,具体涉及一种基于线性自注意力Transformer的图像分类方法。包含以下步骤:S1:将图片送入到第一个stage的重叠卷积编码模块,利用卷据运算将图片编码为图片令牌;S2:将图片令牌送入该stage中Transformer模块中,提取图片特征向量;S3:将提取的图片特征向量送入到下一个stage的重叠卷积编码模块,减少特征向量数量的同时增加特征向量维度;S4:重复进行S2和S3,从最后一个stage的Transformer模块中的到最终输出向量;S5:通过分类器单元将最终的输出向量转化成概率表示,完成图像分类。本发明既能够的有效的从图片中提取图片特征又显著的降低了Transformer模块的计算复杂度,又通过重叠卷积编码模块和卷积前馈神经网络模块提高模型提取的图片特征的能力。
Description
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于线性自注意力Transformer的图像分类方法。
背景技术
从AlexNet在ImageNet分类挑战中取得革命性的表现开始,CNN网络架构得到迅速的发展。此后,人们提出了更深、更有效的卷积网络结构进一步推动了计算机视觉领域深度学习的浪潮,例如VGG、GoogleNet、Resnet、DenseNet、HRNet和EfficientNet。CNN及其变体成为了是计算机视觉应用的主要主干架构。
Transformer是由谷歌团队在2017年首次提出,用于自然语言处理(NLP)领域中的翻译任务。它能够通过使用多头注意力机制对远程依赖关系进行建模并能够进行并行计算提升计算效率。因此Transformer模型迅速取代了RNN成为NLP领域的首选架构。然而在计算机视觉领域(CV)中,卷积神经网络架构依然占据主导地位,受到Transformer在NLP领域取得巨大成功的激励,研究者们开始尝试将Transformer应用到计算机视觉任务中。在2020年,Carionet等人提出了DETR,它将目标检测视为一个直接集预测问题,并使用Transformer Encoder-Decoder体系结构解决它。在COCO目标检测数据集上,DETR在大型目标检测上的性能优于Faster-RCNN,但在小目标上不如。在2020年,Dosovitskiy等人首次尝试直接将标准的Transformer模型应用于图像分类任务中,并做尽量少的修改,称之为视觉转换器(Vision Transformer)ViT。ViT首先将图像按固定大小划分为不重叠的patch块,并将这些patch块标记为一系列视觉token。然后将这些视觉token直接到送入到标准Transformer中的Encoder模块,这些视觉token的处理方式与NLP中的token一样,再根据Encoder模块的输出进行图像分类。当先在大型数据集JFT-300M进行预训练后,ViT可以在多个图像识别任务集上取得接近或者超过最新水平。2021年,HugoTouvron等人提出了训练数据增强方法以及基于蒸馏令牌的蒸馏策略,用来高效的训练ViT模型,称之为DeiT。DeiT通过一组优秀超参数以及蒸馏训练策略,仅仅使用86M的参数就在ImageNet数据集上取得了83.1%的准确率。随后LiYuan等人认为ViT对图像块的标记化方法过于简单,不能充分建模图像中的边缘和线条等局部信息。因此,提出了一种新颖的渐进式标记化方法,将相邻标记的信息聚合到一个标记中,称之为T2T。当预训练图像的分辨率为384×384时,T2T仅用21.5M的参数就在ImageNet数据集上取得了83.3%的准确率。
ViT模型及其变体在大型数据集进行预训练后,能够在许多图像分类任务集上取得很好的效果。但ViT模型也存在很多缺点。由于自我注意力机制是Transformer架构的关键组成部分,而自我注意力机制的计算复杂度是同输入的token数量呈二次关系。因此当输入的图像分辨率太高,使用ViT进行图像分类所需进行的计算量会很大。并且ViT相比卷积神经网络缺少平移不变性和局部性等归纳偏置,因此ViT模型训练所需的数据量大于卷积神经网络需要的数据量。
发明内容
本发明的目的是解决上述问题,提供了一种基于线性自注意力Transformer的图像分类方法,利用两种线性自注意力机制构建交替设置Transformer层,能够大幅的降低Transformer模块的计算复杂度,通过重叠卷积编码模块以及卷积前馈神经网络能够给模型带来局部性,减少模型对大型数据集的依赖。
为了实现上述目的,本发明采用了如下技术方案:
一种基于线性自注意力Transformer的图像分类方法,包含以下步骤:
S1:将图片送入到第一个stage的重叠卷积编码模块,利用卷据运算将图片编码为图片令牌;
S2:将图片令牌送入该stage中Transformer模块中,提取图片特征向量;
S3:将提取的图片特征向量送入到下一个stage的重叠卷积编码模块,减少特征向量数量的同时增加特征向量维度;
S4:重复进行S2和S3,从最后一个stage的Transformer模块中的到最终输出向量;
S5:通过分类器单元将最终的输出向量转化成概率表示,完成图像分类。
作为本发明的优选技术方案:所述S1与S3中的重叠卷积编码模块是用重叠的patch来标记图像。
作为本发明的优选技术方案:所述S2中的Transformer模块包括局部线性自注意力模块、全局线性自注意力模块及卷积前馈神经网络;所述局部线性自注意力模块和卷积前馈神经网络构成一种捕获局部特征的Transformer层;所述全局线性自注意力模块和卷积前馈网络构成另一种捕获全局特征的Transformer层;所述捕获局部特征的Transformer层与捕获全局特征的Transformer层交替设置,先进行局部自注意力的捕捉,再进行全局注意力的捕捉。
作为本发明的优选技术方案:所述局部线性自注意力模块为建立在多头自注意力机制的基础上,先将输入的二维的特征向量x∈RN×d,变形为三维的特征图x∈R(H×W×d),再将三维的特征图重新划分为包含M个子窗口的特征图xp∈R(M×p×p×d),其中N代表特征向量的个数,d是通数,H,W是二维特征图的长和宽,即N=H×W;M代表子窗口的数量,p代表子窗口的长和宽,即M=(H/p×W/p)。
作为本发明的优选技术方案:所述全局线性自注意力模块为建立在自注意力的基础上,先将每个输入线性投影为可训练的查询Q、键K、值V三组值;在计算注意力分数图之前,会通过平均池化操作,将键K和值V池化成空间大小固定的特征张量,这样能够大幅减少后续计算的计算量;再通过所有令牌Q对池化后的键K做点积运算,并且除以缩放因子,经过Softmax激活函数以获得注意力权重图;最后让得到的注意力权重图和池化后的值V做矩阵乘法得到新的令牌向量。
作为本发明的优选技术方案:所述卷积前馈神经网络包括两层线性层,一层深度可分离卷积层以及GELU激活函数;所述两层线性层和GELU激活函数能够对向量进行融合,对各个位置进行变换,并且投影到所需维度;所述深度可分离卷积层为卷积核的个数和通道数相同,一个卷积核负责一个通道,一个通道只被一个卷积核卷积的卷积层;深度可分离卷积层能够给Transformer带来locality机制,提高网络性能。
作为本发明的优选技术方案:所述S3具体为:先将输入的二维的特征向量x∈RN×d,变形为三维的特征图x∈R(H×W×d),其中N代表特征向量的个数,d是通数,H,W是三维特征图的长和宽,即N=H×W;再用重叠的patch来标记特征图,即将patch的窗口放大,使相邻的窗口重叠一半面积,并且在特征图周围填充0以保持分辨率;最后使特征向量的数量减少一半并且将特征向量的维度增加一倍。
作为本发明的优选技术方案:所述S4中的特征向量会依次通过每一个stage的卷积编码模块和Transformer模块;所述每一个stage中的特征向量的尺寸都是不同的,即能够得到多尺度的特征向量。
作为本发明的优选技术方案:所述S5中,将最后一个stage中得到的特征向量,做平均池化,得到一个一维的向量;将该一维向量送入分类器中得到分类结果,与真实结果对比,优化模型,重复此过程进行模型训练;训练结束后,模型经过分类器即可输出对应输入图片的分类结果。
本发明所述的一种基于线性自注意力Transformer的图像分类方法,采用以上技术方案与现有技术相比,具有以下技术效果:
(1)本发明利用两种线性注意力机制构建两种Transformer层,局部线性自注意力的Transformer用来捕获局部信息,全局线性自注意力的Transformer用来捕获全局信息,两种Transformer层交替设置,由于两种注意力机制的计算复杂度都是和输入的token数量呈线性关系,因此能够大幅的降低Transformer模块的计算复杂度。
(2)为了能充分的对局部信息进行建模,重叠卷积编码模块使用重叠的patch来标记特征图,并且在标准的前馈神经网络中加入深度可分离卷积层,这样能够给Transformer带来locality机制,提高网络性能,减少对数据的依赖。
(3)本发明的模型整体架构由多个stage组成,每个stage里面的特征向量的数量和维度都不相同,因此本发明的模型能够产生多尺度的特征表示,能够作为许多下游视觉任务的骨干网络。
附图说明
图1为本发明方法中网络模型整体架构示意图;
图2为本发明方法中两种Transformer层交替设置架构示意图;
图3为本发明方法中重叠卷积编码模块示意图;
图4为本发明中局部线性自注意力的示意图;
图5为本发明中全局线性自注意力的示意图;
图6为本发明卷积前馈神经网络的示意图。
具体实施方式
下面结合附图详细的描述本发明的作进一步的解释说明,以使本领域的技术人员可以更深入地理解本发明并能够实施,但下面通过参考实例仅用于解释本发明,不作为本发明的限定。
如图1所示,本发明提出的一种基于线性自注意力Transformer的图像分类方法,其网络模型主体由四个不同的stage组成,每个stage由重叠卷积编码模块和Transformer模块构成。其中Transformer模块的注意力机制的计算复杂度和输入的token数量呈线性关系,因从相比于ViT模型及其一些变体,本发明的网络模型计算量显著减少,并且为了能充分的对局部信息进行建模,本发明使用重叠卷积模块来标记特征图,最后,为了给本发明模型带来locality机制,本发明在标准前馈神经网络中引入了深度可分离卷积;同时,每个stage里的特征向量的数量和维度各不相同,因此本发明能够得到多尺度的特征,为后续本发明模型的应用提供更多可能。
一种基于线性自注意力Transformer的图像分类方法,包含以下步骤:S1:将图片送入到第一个stage的重叠卷积编码模块,利用卷据运算将图片编码为图片令牌;S2:将图片令牌送入该stage中Transformer模块中,提取图片特征向量;S3:将提取的图片特征向量送入到下一个stage的重叠卷积编码模块,减少特征向量数量的同时增加特征向量维度;S4:重复进行S2和S3,从最后一个stage的Transformer模块中的到最终输出向量;S5:通过分类器单元将最终的输出向量转化成概率表示,完成图像分类。
S1与S3中的重叠卷积编码模块是用重叠的patch来标记图像。如图3所示,本发明用重叠的patch来标记特征图,即将patch的窗口放大,使相邻的窗口重叠一半面积,并且在特征图周围填充0以保持分辨率;使用0填充卷积来实现。具体来说,给定一个H×W×C的输入,将其输入到步长为S,卷积核大小为2S-1,填充尺寸是S-1,,卷积核的个数为2C的卷积层中,则会得到输出大小为(H/S×H/S×2C)。
如图2所示,S2中的Transformer模块包括局部线性自注意力模块、全局线性自注意力模块及卷积前馈神经网络;所述局部线性自注意力模块和卷积前馈神经网络构成一种捕获局部特征的Transformer层;所述全局线性自注意力模块和卷积前馈网络构成另一种捕获全局特征的Transformer层;所述捕获局部特征的Transformer层与捕获全局特征的Transformer层交替设置,先进行局部自注意力的捕捉,再进行全局注意力的捕捉。
如图4所示,局部线性自注意力模块为建立在多头自注意力机制的基础上,先将输入的二维的特征向量x∈RN×d,变形为三维的特征图x∈R(H×W×d),再将三维的特征图重新划分为包含M个子窗口的特征图xp∈R(M×p×p×d),其中N代表特征向量的个数,d是通数,H,W是二维特征图的长和宽,即N=H×W;M代表子窗口的数量,p代表子窗口的长和宽,即M=(H/p×W/p)。
这一过程的实现可通过以下计算:
x=x.reshape(B,H,W,C)
x=x.view(B,H//window_size,window_size,W//window_size,window_size,C)
windows=x.permute(0,1,3,2,4,5).contiguous().view(-1,window_size,window_size,C)
其中,B代表batch_size的个数,H和W代表特征图的长和宽,window_size代表子窗口的大小,d是代表通道数。在每一个子窗口内计算多头自注意力。
如图5所示,全局线性自注意力模块为建立在自注意力的基础上,先将每个输入线性投影为可训练的查询Q、键K、值V三组值;在计算注意力分数图之前,会通过平均池化操作,将键K和值V池化成空间大小固定的特征张量,这样能够大幅减少后续计算的计算量;再通过所有令牌Q对池化后的键K做点积运算,并且除以缩放因子,经过Softmax激活函数以获得注意力权重图;最后让得到的注意力权重图和池化后的值V做矩阵乘法得到新的令牌向量。
如图6所示,卷积前馈神经网络包括两层线性层,一层深度可分离卷积层以及GELU激活函数;所述两层线性层和GELU激活函数能够对向量进行融合,对各个位置进行变换,并且投影到所需维度;所述深度可分离卷积层为卷积核的个数和通道数相同,一个卷积核负责一个通道,一个通道只被一个卷积核卷积的卷积层;深度可分离卷积层能够给Transformer带来locality机制,提高网络性能。
S3具体为:先将输入的二维的特征向量x∈RN×d,变形为三维的特征图x∈R(H×W×d),其中N代表特征向量的个数,d是通数,H,W是三维特征图的长和宽,即N=H×W;再用重叠的patch来标记特征图,即将patch的窗口放大,使相邻的窗口重叠一半面积,并且在特征图周围填充0以保持分辨率;最后使特征向量的数量减少一半并且将特征向量的维度增加一倍。
S4中的特征向量会依次通过每一个stage的卷积编码模块和Transformer模块;所述每一个stage中的特征向量的尺寸都是不同的,即能够得到多尺度的特征向量。方便以后对本发明的模型进行扩展。
S5中,将最后一个stage中得到的特征向量,做平均池化,得到一个一维的向量;将该一维向量送入分类器中得到分类结果,与真实结果对比,优化模型,重复此过程进行模型训练;此处使用交叉熵损失进行模型训练;训练结束后,模型经过分类器获得一个分类向量,该向量中数值最大的一维即图片的类别。
本发明提出了一种基于线性自注意力Transformer的图像分类方法,既能够的有效的从图片中提取图片特征又显著的降低了Transformer模块的计算复杂度,又通过重叠卷积编码模块和卷积前馈神经网络模块提高模型提取的图片特征的能力,基于提取的图片特征向量,本发明的模型能够有效的完成对图像的分类,本发明的模型还能提供多尺度的图片特征,能够作为许多下游视觉任务的骨干网络。
以上所述的具体实施方案,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,所应理解的是,以上所述仅为本发明的具体实施方案而已,并非用以限定本发明的范围,任何本领域的技术人员,在不脱离本发明的构思和原则的前提下所做出的等同变化与修改,均应属于本发明保护的范围。
Claims (9)
1.一种基于线性自注意力Transformer的图像分类方法,其特征在于,包含以下步骤:
S1:将图片送入到第一个stage的重叠卷积编码模块,利用卷据运算将图片编码为图片令牌;
S2:将图片令牌送入该stage中Transformer模块中,提取图片特征向量;
S3:将提取的图片特征向量送入到下一个stage的重叠卷积编码模块,减少特征向量数量的同时增加特征向量维度;
S4:重复进行S2和S3,从最后一个stage的Transformer模块中的到最终输出向量;
S5:通过分类器单元将最终的输出向量转化成概率表示,完成图像分类。
2.根据权利要求1所述的一种基于线性自注意力Transformer的图像分类方法,其特征在于,所述S1与S3中的重叠卷积编码模块是用重叠的patch来标记图像。
3.根据权利要求2所述的一种基于线性自注意力Transformer的图像分类方法,其特征在于,所述S2中的Transformer模块包括局部线性自注意力模块、全局线性自注意力模块及卷积前馈神经网络;
所述局部线性自注意力模块和卷积前馈神经网络构成一种捕获局部特征的Transformer层;所述全局线性自注意力模块和卷积前馈网络构成另一种捕获全局特征的Transformer层;所述捕获局部特征的Transformer层与捕获全局特征的Transformer层交替设置,先进行局部自注意力的捕捉,再进行全局注意力的捕捉。
4.根据权利要求3所述的一种基于线性自注意力Transformer的图像分类方法,其特征在于,所述局部线性自注意力模块为建立在多头自注意力机制的基础上,先将输入的二维的特征向量x∈RN×d,变形为三维的特征图x∈R(H×W×d),再将三维的特征图重新划分为包含M个子窗口的特征图xp∈R(M×p×p×d),其中N代表特征向量的个数,d是通数,H,W是二维特征图的长和宽,即N=H×W;M代表子窗口的数量,p代表子窗口的长和宽,即M=(H/p×W/p)。
5.根据权利要求4所述的一种基于线性自注意力Transformer的图像分类方法,其特征在于,所述全局线性自注意力模块为建立在自注意力的基础上,先将每个输入线性投影为可训练的查询Q、键K、值V三组值;在计算注意力分数图之前,会通过平均池化操作,将键K和值V池化成空间大小固定的特征张量,这样能够大幅减少后续计算的计算量;再通过所有令牌Q对池化后的键K做点积运算,并且除以缩放因子,经过Softmax激活函数以获得注意力权重图;最后让得到的注意力权重图和池化后的值V做矩阵乘法得到新的令牌向量。
6.根据权利要求5所述的一种基于线性自注意力Transformer的图像分类方法,其特征在于,所述卷积前馈神经网络包括两层线性层,一层深度可分离卷积层以及GELU激活函数;所述两层线性层和GELU激活函数能够对向量进行融合,对各个位置进行变换,并且投影到所需维度;所述深度可分离卷积层为卷积核的个数和通道数相同,一个卷积核负责一个通道,一个通道只被一个卷积核卷积的卷积层;深度可分离卷积层能够给Transformer带来locality机制,提高网络性能。
7.根据权利要求6所述的一种基于线性自注意力Transformer的图像分类方法,其特征在于,所述S3具体为:先将输入的二维的特征向量x∈RN×d,变形为三维的特征图x∈R(H ×W×d),其中N代表特征向量的个数,d是通数,H,W是三维特征图的长和宽,即N=H×W;再用重叠的patch来标记特征图,即将patch的窗口放大,使相邻的窗口重叠一半面积,并且在特征图周围填充0以保持分辨率;最后使特征向量的数量减少一半并且将特征向量的维度增加一倍。
8.根据权利要求6所述的一种基于线性自注意力Transformer的图像分类方法,其特征在于,所述S4中的特征向量会依次通过每一个stage的卷积编码模块和Transformer模块;所述每一个stage中的特征向量的尺寸都是不同的,即能够得到多尺度的特征向量。
9.根据权利要求6所述的一种基于线性自注意力Transformer的图像分类方法,其特征在于,所述S5中,将最后一个stage中得到的特征向量,做平均池化,得到一个一维的向量;将该一维向量送入分类器中得到分类结果,与真实结果对比,优化模型,重复此过程进行模型训练;训练结束后,模型经过分类器即可输出对应输入图片的分类结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210386842.XA CN114818889A (zh) | 2022-04-13 | 2022-04-13 | 一种基于线性自注意力Transformer的图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210386842.XA CN114818889A (zh) | 2022-04-13 | 2022-04-13 | 一种基于线性自注意力Transformer的图像分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114818889A true CN114818889A (zh) | 2022-07-29 |
Family
ID=82536465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210386842.XA Pending CN114818889A (zh) | 2022-04-13 | 2022-04-13 | 一种基于线性自注意力Transformer的图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114818889A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116229178A (zh) * | 2023-03-14 | 2023-06-06 | 安徽大学 | 一种基于Transformer针对少量训练样本的图像分类方法 |
CN117095309A (zh) * | 2023-10-20 | 2023-11-21 | 武汉工程大学 | 一种极化sar影像旋转域特征表达提取与分类方法 |
CN117315282A (zh) * | 2023-10-16 | 2023-12-29 | 深圳市锐明像素科技有限公司 | 图像的处理方法、处理装置、电子设备以及存储介质 |
-
2022
- 2022-04-13 CN CN202210386842.XA patent/CN114818889A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116229178A (zh) * | 2023-03-14 | 2023-06-06 | 安徽大学 | 一种基于Transformer针对少量训练样本的图像分类方法 |
CN116229178B (zh) * | 2023-03-14 | 2023-11-24 | 安徽大学 | 一种基于Transformer针对少量训练样本的图像分类方法 |
CN117315282A (zh) * | 2023-10-16 | 2023-12-29 | 深圳市锐明像素科技有限公司 | 图像的处理方法、处理装置、电子设备以及存储介质 |
CN117095309A (zh) * | 2023-10-20 | 2023-11-21 | 武汉工程大学 | 一种极化sar影像旋转域特征表达提取与分类方法 |
CN117095309B (zh) * | 2023-10-20 | 2024-01-16 | 武汉工程大学 | 一种极化sar影像旋转域特征表达提取与分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Context encoding for semantic segmentation | |
CN110263912B (zh) | 一种基于多目标关联深度推理的图像问答方法 | |
Lee et al. | Self-supervised knowledge distillation using singular value decomposition | |
CN110490946B (zh) | 基于跨模态相似度和生成对抗网络的文本生成图像方法 | |
CN114818889A (zh) | 一种基于线性自注意力Transformer的图像分类方法 | |
Teow | Understanding convolutional neural networks using a minimal model for handwritten digit recognition | |
CN112801280B (zh) | 视觉深度自适应神经网络的一维卷积位置编码方法 | |
CN113674334B (zh) | 基于深度自注意力网络和局部特征编码的纹理识别方法 | |
CN107341510B (zh) | 基于稀疏正交的双图非负矩阵分解的图像聚类方法 | |
CN111259666A (zh) | 一种结合多头自注意力机制的cnn文本分类方法 | |
Xu et al. | Aligning correlation information for domain adaptation in action recognition | |
Li et al. | Multiple VLAD encoding of CNNs for image classification | |
Li et al. | Online low-rank representation learning for joint multi-subspace recovery and clustering | |
CN115661538A (zh) | 一种基于多粒度Transformer的图像分类方法 | |
Sethy et al. | Off-line Odia handwritten numeral recognition using neural network: a comparative analysis | |
CN113642445A (zh) | 一种基于全卷积神经网络的高光谱影像分类方法 | |
CN113033276A (zh) | 一种基于转换模块的行为识别方法 | |
CN116612283A (zh) | 一种基于大卷积核骨干网络的图像语义分割方法 | |
CN111339734A (zh) | 一种基于文本生成图像的方法 | |
CN116167014A (zh) | 一种基于视觉和语音的多模态关联型情感识别方法及系统 | |
CN116188836A (zh) | 基于空间与通道特征提取的遥感图像分类方法和装置 | |
Hajizadeh et al. | Fusion of LLE and stochastic LEM for Persian handwritten digits recognition | |
CN115272766A (zh) | 一种基于混合傅立叶算子Transformer网络的高光谱图像分类方法 | |
CN115131563A (zh) | 一种基于弱监督学习的交互式图像分割方法 | |
Wei et al. | ExpressionHop: A lightweight human facial expression classifier |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |