CN113128527A - 基于变换器模型和卷积神经网络的图像场景分类方法 - Google Patents
基于变换器模型和卷积神经网络的图像场景分类方法 Download PDFInfo
- Publication number
- CN113128527A CN113128527A CN202110683770.0A CN202110683770A CN113128527A CN 113128527 A CN113128527 A CN 113128527A CN 202110683770 A CN202110683770 A CN 202110683770A CN 113128527 A CN113128527 A CN 113128527A
- Authority
- CN
- China
- Prior art keywords
- image
- scene
- words
- layer
- graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请涉及一种基于变换器模型和卷积神经网络的图像场景分类方法。所述方法包括:在对图像进行场景分类的过程中,用到了两种卷积神经网络以及变换器模型,其中变换器模型用以在场景图像底层建立全局要素之间的相互联系,有效地弥补了卷积神经网络在场景图像特征提取上的不足,使得网络可以从一开始就关注场景中的重点区域,从而提升了场景分类的效果。将卷积神经网络提取的特征作为变换器模型的额外输入,旨在引导编码单元将关注重点放在可以与深度特征形成良好补充的区域,并且从另一方面建立了网络底层和高层之间的联系,从而使得模型表达更加全面充分。
Description
技术领域
本申请涉及图像场景分类技术领域,特别是涉及一种基于变换器模型和卷积神经网络的图像场景分类方法。
背景技术
随着互联网多媒体技术的发展和视觉数据的增长,如何处理这些海量的数据成为了新时代的难题。场景分类技术,作为解决图像检索、图像识别问题的关键技术,已成为计算机视觉领域中一个非常重要且极具挑战的研究课题。同时,场景分类在遥感图像分析、视频监控、机器人感知等领域都具有广泛的应用。因此,对于场景分类技术进行相应的研究和提高计算机场景识别能力具有十分重要的意义。
所谓图像场景分类,是指对于已经给定的图像,通过判断识别它所包含的信息和内容来判断其所属的场景,从而达到分类的目的。近年来,深度学习技术迅速发展,逐渐取代了传统手工设计图像特征的方法,在场景分类领域取得了全新的进展。尤其是迁移学习的出现,很好地解决了深度学习需要大量的训练样本,这对于一些小规模的场景数据集而言并不能满足的问题。在基于深度学习的场景分类方法中,往往会用到两类预训练模型,一种在Places365数据集上进行预训练,提取的特征称为场景特征。一种在ImageNet数据集上进行预训练,提取的特征称为场景特征。在早期的基于深度学习的场景分类方法中,往往是针对这两类特征进行的优化,例如去除冗余、添加细节,以及使用更多的场景特征进行补充,然而,无论是哪个方面的优化,都是建立在卷积神经网络的基础上进行的,这也给该类算法带来了局限性。卷积核是卷积神经网络的核心,它具有局部连接、参数共享的优势,但是,它也存在无法在图像底层对全局进行建模的不足,受限于卷积核的大小,对于图像特征的提取往往是通过多层卷积的堆叠一步步完成对整幅图像的全局特征提取,会导致相距过远又相互联系的两个区域在较深的层才能进行关联,这并不是一种高效的方式,且无法充分利用全局信息完成特征的提取。而场景图像的内容较之单个对象图像更加丰富,把握要素之间的相互关系便显得尤为重要,如果仅仅只是依靠卷积神经网络在深层对要素进行关联,则容易导致一些信息的丢失,从而造成分类性能的下降。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高场景分类性能的基于变换器模型和卷积神经网络的图像场景分类方法。
一种基于变换器模型和卷积神经网络的图像场景分类方法,所述方法包括:
获取图像样本;
将所述图像样本输入场景分类模型,所述场景分类模型包括场景卷积神经网络、对象卷积神经网络以及变换器模型;
对所述图像样本进行预处理得到标准化图像样本,分别通过所述场景卷积神经网络以及对象卷积神经网络对所述标准化图像样本进行特征提取,相应得到场景特征以及对象特征;
对所述图像样本进行嵌入操作,得到与所述图像样本相关的嵌入图像;
对所述场景特征、对象特征以及嵌入图像分别进行图词转换,相应得到场景图词、对象图词以及图像图词;
将所述场景图词、对象图词以及图像图词输入所述变换器模型得到分类图词,将所述分类图词通过线性全连接分类层得到预测场景分类;
根据所述场景特征、对象特征以及预测场景分类构建全局混合损失函数,根据所述全局混合损失函数对所述场景分类模型进行反向传播和梯度更新,以得到完成训练的场景分类模型;
获取待进行场景分类的图像输入所述完成训练的场景分类模型,得到场景分类结果。
在其中一个实施例中,所述对所述图像样本进行预处理得到标准化图像样本包括:
对所述图像样本采用双线性插值调整至预设尺寸;
对调整至预设尺寸的图像样本减去图像网络数据集的图像均值,再除以标准差得到所述标准化图像样本。
在其中一个实施例中,所述场景卷积神经网络以及对象卷积神经网络均以紧密网络116为基础进行构建。
在其中一个实施例中,在对所述嵌入图像进行图词转换后,还采用位置编码的方式对初步生成的图像图词进行空间信息补充,得到所述图像图词。
在其中一个实施例中,将所述场景图词、对象图词以及图像图词输入所述变换器模型得到分类图词之前,还包括:
将所述场景图词、对象图词、图像图词分别与历史时刻计算得到的分类图词进行融合,得到融合场景图词、融合对象图词以及融合图像图词;
所述将所述场景图词、对象图词以及图像图词输入所述变换器模型得到分类图词,包括:
将所述融合场景图词、融合对象图词以及融合图像图词输入所述变换器模型得到分类图词。
在其中一个实施例中,所述变换器模型包括12层依次连接的编码单元以及12层依次连接的解码单元,其中最后一层编码单元的输出与各层解码单元连接;
所述编码单元包括两个层归一化层、多头自注意力层以及多层感知机层;
所述解码单元包括两个层归一化层、多头自注意力层、多层感知机层以及多头注意力层。
在其中一个实施例中,所述将所述场景图词、对象图词以及图像图词输入所述变换器模型得到分类图词包括:
在编码单元中:
将所述图像图词或上一层编码单元的输出通过第一个层归一化层、多头自注意力层的处理得到输出,将所述输出与图像图词或上一层编码单元的输出进行残差连接后得到第一中间结果;
将所述第一中间结果通过第二个层归一化层、多层感知机层的处理得到输出,将所述输出结果与第一中间结果进行残差连接得到该层编码单元的输出;
将该层编码单元的输出输入下一层编码单元中,或作为编码单元的结果输入各层解码单元;
在解码单元中:
将所述对象图词和场景图词,或上一层解码单元的输出通过第一个层归一化层、多头自注意力层的处理得到输出,将所述输出与所述编码结果和场景图词、或上一层解码单元的输出进行残差连接后得到第二中间结果;
将所述第二中间结果与编码单元的结果通过所述多头注意力层的处理后得到输出,将所述输出与第二中间结果进行残差连接后得到第三中间结果;
将所述第三中间结果通过第二个层归一化层、多层感知机层的处理得到输出,将所述输出与所述第三中间结果进行残差连接得到该层解码单元的输出;
将该层解码单元的输出输入下一层解码单元中,或该输出为所述分类图词作为所述变换器模型的输出。
在其中一个实施例中,在输入所述解码单元之前,还对所述场景图词以及对象图词在第一个维度上进行拼接,得到组合图词,将所述组合图词输入所述解码单元。
在其中一个实施例中,所述根据所述场景特征、对象特征以及预测场景分类构建全局混合损失函数包括:
根据所述场景特征和对象特征进行处理得到卷积神经网络输出的预测分类;
根据所述预测场景分类以及预测分类进行结合,构建所述全局混合损失函数。
一种基于变换器模型和卷积神经网络的图像场景分类装置,所述装置包括:
图像样本获取模块,用于获取图像样本;
将所述图像样本输入场景分类模型,所述场景分类模型包括场景卷积神经网络、对象卷积神经网络以及变换器模型;
特征提取模块,用于对所述图像样本进行预处理得到标准化图像样本,分别通过所述场景卷积神经网络以及对象卷积神经网络对所述标准化图像样本进行特征提取,相应得到场景特征以及对象特征;
嵌入操作模块,用于对所述图像样本进行嵌入操作,得到与所述图像样本相关的嵌入图像;
图词转换模块,用于对所述场景特征、对象特征以及嵌入图像分别进行图词转换,相应得到场景图词、对象图词以及图像图词;
预测分类模块,用于将所述场景图词、对象图词以及图像图词输入所述变换器模型得到分类图词,将所述分类图词通过线性全连接分类层得到预测场景分类;
场景分类模型得到模块,用于根据所述场景特征、对象特征以及预测场景分类构建全局混合损失函数,根据所述全局混合损失函数对所述场景分类模型进行反向传播和梯度更新,以得到完成训练的场景分类模型;
图像场景分类模块,用于获取待进行场景分类的图像输入所述完成训练的场景分类模型,得到场景分类结果。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取图像样本;
将所述图像样本输入场景分类模型,所述场景分类模型包括场景卷积神经网络、对象卷积神经网络以及变换器模型;
对所述图像样本进行预处理得到标准化图像样本,分别通过所述场景卷积神经网络以及对象卷积神经网络对所述标准化图像样本进行特征提取,相应得到场景特征以及对象特征;
对所述图像样本进行嵌入操作,得到与所述图像样本相关的嵌入图像;
对所述场景特征、对象特征以及嵌入图像分别进行图词转换,相应得到场景图词、对象图词以及图像图词;
将所述场景图词、对象图词以及图像图词输入所述变换器模型得到分类图词,将所述分类图词通过线性全连接分类层得到预测场景分类;
根据所述场景特征、对象特征以及预测场景分类构建全局混合损失函数,根据所述全局混合损失函数对所述场景分类模型进行反向传播和梯度更新,以得到完成训练的场景分类模型;
获取待进行场景分类的图像输入所述完成训练的场景分类模型,得到场景分类结果。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取图像样本;
将所述图像样本输入场景分类模型,所述场景分类模型包括场景卷积神经网络、对象卷积神经网络以及变换器模型;
对所述图像样本进行预处理得到标准化图像样本,分别通过所述场景卷积神经网络以及对象卷积神经网络对所述标准化图像样本进行特征提取,相应得到场景特征以及对象特征;
对所述图像样本进行嵌入操作,得到与所述图像样本相关的嵌入图像;
对所述场景特征、对象特征以及嵌入图像分别进行图词转换,相应得到场景图词、对象图词以及图像图词;
将所述场景图词、对象图词以及图像图词输入所述变换器模型得到分类图词,将所述分类图词通过线性全连接分类层得到预测场景分类;
根据所述场景特征、对象特征以及预测场景分类构建全局混合损失函数,根据所述全局混合损失函数对所述场景分类模型进行反向传播和梯度更新,以得到完成训练的场景分类模型;
获取待进行场景分类的图像输入所述完成训练的场景分类模型,得到场景分类结果。
上述基于变换器模型和卷积神经网络的图像场景分类,在对图像进行分类的过程中,用到了两种卷积神经网络以及变换器模型,其中变换器模型用以在场景图像底层建立全局要素之间的相互联系,有效地弥补了卷积神经网络在场景图像特征提取上的不足,使得网络可以从一开始就关注场景中的重点区域,从而提升了场景分类的效果。将卷积神经网络提取的特征作为变换器模型的额外输入,旨在引导编码单元将关注重点放在可以与深度特征形成良好补充的区域,并且从另一方面建立了网络底层和高层之间的联系,从而使得模型表达更加全面充分。
附图说明
图1为一个实施例中图像场景分类方法的流程示意图;
图2为一个实施例中场景分类模型中数据处理流程示意图;
图3为一个实施例中场景图像中的场景要素(a)和对象要素(b)示意图;
图4为一个实施例中DenseNet网络结构的示意图;
图5为一个实施例中Transformer模型的网络结构示意图;
图6为一个实施例中图像场景分类装置的结构框图;
图7为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
如图1-2所示,提供了一种基于变换器模型和卷积神经网络的图像场景分类方法,包括以下步骤:
步骤S100,获取图像样本;
将图像样本输入场景分类模型,场景分类模型包括场景卷积神经网络、对象卷积神经网络以及变换器模型;
步骤S110,对图像样本进行预处理得到标准化图像样本,分别通过场景卷积神经网络以及对象卷积神经网络对标准化图像样本进行特征提取,相应得到场景特征以及对象特征;
步骤S120,对图像样本进行嵌入操作,得到与图像样本相关的嵌入图像;
步骤S130,对场景特征、对象特征以及嵌入图像分别进行图词转换,相应得到场景图词、对象图词以及图像图词;
步骤S140,将场景图词、对象图词以及图像图词输入变换器模型得到分类图词,将分类图词通过线性全连接分类层得到预测场景分类;
步骤S150,根据场景特征、对象特征以及预测场景分类构建全局混合损失函数,根据全局混合损失函数对场景分类模型进行反向传播和梯度更新,以得到完成训练的场景分类模型;
步骤S160,获取待进行场景分类的图像输入所述完成训练的场景分类模型,得到场景分类结果。
在步骤S100中,获取的图像样本为对场景分类模型进行训练的图像,其中图像样本的内容包括有场景信息,例如:公园、游乐园、花园,海边等各类场景。而在对模型进行训练时,将无数张内容不同的图像样本不断输入模型中对其进行训练。在下面对场景分类模型进行说明时,是一张图像对模型进行训练的过程。
场景分类模型包括两个卷积神经网络以及变换器模型,图像样本先通过两个卷积神经网络进行特征提取后,再将特征输入变换器模型内,具体步骤如下:
在步骤S110中,获取的图像样本的尺寸为224×224,在将其输入到卷积神经网络进行提取时,先对其进行预处理得到标准化图像样本,其过程包括:对图像样本采用双线性插值调整至预设尺寸,对调整至预设尺寸的图像样本减去图像网络(ImageNet)数据集的图像均值,再除以标准差得到标准化图像样本。
具体的,首先利用双线性插值将图像样本的尺寸调整为336×336,以获取高分辨率的图像以突出图像的局部特征,然后减去ImageNet数据集的图像均值,再除以标准差进行图像的标准化。通过标准化后,使得数据符合分布规律,增加模型的泛化能力。
在本实施例中,场景卷积神经网络以及对象卷积神经网络分别指的是ImageNet-CNN和Places-CNN,这两个卷积神经网络是最先构建的网络模型,以紧密网络116也就是DenseNet161为基础网络。在pytorch深度学习框架中搭建好网络,其预训练选择在ImageNet和Places365数据集上进行,得到两类不同参数结构的卷积神经网络,分别称作ImageNet-CNN和Places-CNN。
如图3所示,Place-CNN和ImageNet-CNN所关注的场景图像的不同要素。在场景图像中,Places-CNN和ImageNet-CNN关注的重点有所区别。场景图像的内容较为丰富,要素较多,Places-CNN在提取的图像特征往往会带有更多的整体性、空间性特点,而ImageNet-CNN提取的特征会更注重单个对象的特征。
如图4所示,在DenseNet中,任何两层之间都有直接的连接,即任意一层网络的输入都是前面所有层的输出的并集。DenseNet网络将有重复性的特征反复利用,无需进行额外的特征生成,使得网络结构得到充分地利用。
进一步的,将标准化图像样本作为输入分别通过ImageNet-CNN和Places-CNN,此时将作为基础网络的DenseNet161调整为测试模式,用于正则化的Dropout将以概率值的形式与神经元的输出相乘。最终的特征图是DenseNet的最后一层卷积层输出,且未经过全局平均池化操作,特征图的大小均为(2208,10,10)。
其中,由Places-CNN提取的特征称作场景特征,由ImageNet-CNN提取的特征称作对象特征。
在步骤S120中,在将图像样本输入卷积神经网络进行特征提取的同时,还将224×224尺寸的图像样本及进行嵌入操作也就是embedding操作。
具体的,将224×224尺寸的图像分成14×14个小的Patch,每个Patch的尺寸为16×16,这个过程由Pytorch中的Conv2d()层完成,其中卷积核大小为16,输入通道为3,输出通道为768,步长为16。通过embedding后的嵌入图像输出尺寸为(768,14,14)。
在步骤S130中,对场景特征、对象特征以及嵌入图像分别进行图词转换,也就是将场景特征、对象特征以及嵌入图像转换为可输入变换器模型的图词模式,其中图词指Token。
具体的,在对场景特征和对象特征进行转换时,将特征图通过使用768个1×1的卷积核进行通道的降维,得到(768,10,10)的特征图,而后将该特征图延空间上的维度进行拉平操作,并且交换空间和通道的维度,得到(n,d)形式的Token表示,其中n表示Token的数量,d表示Token的维度,此时n为100,d为768,并且分为两类,一类为Scene Tokens(场景图词),一类为Object Tokens(对象图词)。两类Token分别代表了两类不同性质的深度卷积特征,包含了场景图像丰富的语义信息,其中Object Tokens用表示,Scene Tokens用表示。
具体的,在对嵌入图像及进行转换时,将尺寸为(768,14,14)的嵌入图像,在输出延空间维度进行拉平操作,并且交换空间和通道的维度,得到(196,768)的Image Tokens(图像图词)。
另外,由于embedding操作丢失了场景图像中的空间信息,在对嵌入图像进行图词转换后,还采用位置编码的方式对初步生成的图像图词进行空间信息补充。具体做法是选择初始化(196,768)尺寸的参数,与Image Tokens进行加法运算,由网络自行将位置编码进行训练得到。
在实施步骤S140之前还包括:将场景图词、对象图词、图像图词分别与历史时刻计算得到的分类图词进行融合,得到融合场景图词、融合对象图词以及融合图像图词。
具体的,可知在进行模型训练的时候,是会将多张图像样本对其训练,那么各图像样本均会在经过变换器模型处理后得到对应的一分类图词,则该分类图词在下一张图像样本进行处理时用于与各图词进行融合。则当前对各图词进行融合采用的分类图词为上一时刻获取的历史分类图词。
其中,在第一张图像样本对模型进行训练时,此时还没有生成分类图词。则另外初始化一列(1,768)的参数,作为场景图像所包含的类别信息,也就是分类图词(classToken),将这个class Token分别与Image Tokens、Object Tokens、Scene Tokens进行concatenate操作。
在这里需要说明的是,图像样本在进行embedding操作后输出的图像大小为(196,768),在将尺寸大小为(1,768)的class Token对其进行融合后,得到尺寸为(197,768)大小的Image Tokens,且用进行表示。
故将场景图词、对象图词以及图像图词输入变换器模型得到分类图词,包括:
将融合场景图词、融合对象图词以及融合图像图词输入变换器模型得到分类图词。
在本实施例中,变换器模型包括12层依次连接的编码单元(Encoder)以及12层依次连接的解码单元(Decoder),其中最后一层编码单元的输出与各层解码单元连接。其中,变换器模型是指Transformer模型。
其中,编码单元包括两个层归一化层、多头自注意力层以及多层感知机层。
其中,解码单元包括两个层归一化层、多头自注意力层、多层感知机层以及多头注意力层。
将场景图词、对象图词以及图像图词输入变换器模型得到分类图词包括:
在编码单元中:
将图像图词或上一层编码单元的输出通过第一个层归一化层、多头自注意力层的处理得到输出,将输出与图像图词或上一层编码单元的输出进行残差连接后得到第一中间结果。将第一中间结果通过第二个层归一化层、多层感知机层的处理得到输出,将输出结果与第一中间结果进行残差连接得到该层编码单元的输出,将该层编码单元的输出输入下一层编码单元中,或作为编码单元的结果输入各层解码单元。
12层编码单元通过各自的输入和输出相互连接,将图像图词输入第一层编码单元中,在进行连续多层编码单元的处理后,将最后一层编码单元输出的结果输入到各层解码单元中做为额外输入。
具体的,在各编码单元中,首先是对输入进行LayerNorm层(层归一化层)旨在统一数据分布,加速模型训练矩阵,在该层进行处理后对应得到Key (键值),Value(值),Query(查询)三个矩阵,再将这三个矩阵输如Multiheaded self-attention层(多头自注意力层,MSA层),注意力头数量设置为12,且在多头自注意力层后面添加dropout层,dropout比率为0.3,用以防止过拟合。与该层输入进行残差连接后,再次通过层归一化层(LayerNorm),进入多层感知机(MLP)层,其中包括两层全连接(Fc),隐藏层的神经元数量为3072,最后和MSA层的输出做残差得到单个Encoder的输出。整个Encoder的运算过程可用式(1)(2)表示。
在解码单元中:
将对象图词和场景图词,或上一层解码单元的输出通过第一个层归一化层、多头自注意力层的处理得到输出,将输出与所述编码结果和场景图词、或上一层解码单元的输出进行残差连接后得到第二中间结果,将第二中间结果与编码单元的结果通过多头注意力层的处理后得到输出,将输出与第二中间结果进行残差连接后得到第三中间结果,将第三中间结果通过第二个层归一化层、多层感知机层的处理得到输出,将输出与所述第三中间结果进行残差连接得到该层解码单元的输出,将该层解码单元的输出输入下一层解码单元中,或该输出为分类图词作为所述变换器模型的输出。
具体的,Decoder的输入由两部分组成,其中一部分为Scene Tokens和ObjectTokens,另一部分为Encoder的输出。单个Decoder组成与Encoder相似,不同的是与Encoder相比多了一层多头注意力层,且不是常规的自注意力层。
在本实施例中,在输入解码单元之前,还对场景图词以及对象图词在第一个维度上进行拼接,得到组合图词,将组合图词输入解码单元。
具体的,对于输入(场景图词)和(对象图词),首先将这两个Token在第一个维度上进行拼接,得到(200,768)尺寸的组合Token,记为。接下来进行层归一化层操作,而后与Encoder一样,通过常规的多头自注意力层,经过Dropout操作后进行残差连接。这一步的过程可以用公式(3)表示:
接下来则是通过另一种多头注意力层(Multiheaded Attention,MA层),与多头自注意力层不同的是,该层在计算注意力权重时,key和value的来源不是Decoder的中间输出,而是Encoder的输出,query的来源则是。这一步的过程可以用公式(4)表示:
如图5所示,在基于Encoder-Decoder的场景Transformer模型中,包括N层Encoder和N层Decoder,本次算法采用的N为12。Encoder主要包括对输入Image Tokens进行位置编码,层归一化,多头自注意层,残差连接,MLP几部分。Encoder不改变输入的维度,通过多层Encoder的堆叠,逐步从图像底层提取重点关注区域的特征,并作为部分输入至Decoder中。Decoder的输入包括两部分,一部分是深度卷积特征转变而来的Scene Tokens和ObjectTokens,另一部分是Encoder的输出。其中Scene Tokens和Object Tokens作为多头注意力层的query来源,而Encoder的输出则是作为多头注意力层的Key、Value来源,这样的结构设计有效地将深度卷积特征和图像底层特征相结合,并且一定程度上使得卷积特征引导Encoder去关注全局图像底层的重点,使其作为传统CNN深度特征的有力补充,提高了场景分类的精度。
在步骤S150中,根据场景特征、对象特征以及预测场景分类构建全局混合损失函数包括:根据场景特征和对象特征进行处理得到卷积神经网络输出的预测分类,根据预测场景分类以及预测分类进行结合,构建全局混合损失函数。
具体的,利用场景特征和对象特征,其维度大小为(2208,10,10)通过一层池化核尺寸为10×10的全局平均池化层,并且延第一个维度上进行拉平处理,得到两个维度为2208的场景特征和对象特征。将这两个特征进行拼接后再通过线性全连接分类层,得到最终的卷积神经网络分类输出。将变换器模型分类输出和CNN分类输出相结合,采用了加权两者的损失函数的方式,其表达如下所示:
上述基于变换器模型和卷积神经网络的图像场景分类方法中,使用了Transformer结构用以在场景图像底层建立全局要素之间的相互联系,有效地弥补了卷积神经网络在场景图像特征提取上的不足,使得网络可以从一开始就关注场景中的重点区域,从而提升了场景分类的效果。将深度卷积特征作为Transformer的额外输入,旨在引导Encoder将关注重点放在可以与深度特征形成良好补充的区域,并且从另一方面建立了网络底层和高层之间的联系,从而使得模型表达更加全面充分。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图6所示,提供了一种基于变换器模型和卷积神经网络的图像场景分类装置,包括:图像样本获取模块200、特征提取模块210、嵌入操作模块220、图词转换模块230、预测分类模块240、场景分类模型得到模块250和图像场景分类模块260,其中:
图像样本获取模块200,用于获取图像样本;
将所述图像样本输入场景分类模型,所述场景分类模型包括场景卷积神经网络、对象卷积神经网络以及变换器模型;
特征提取模块210,用于对所述图像样本进行预处理得到标准化图像样本,分别通过所述场景卷积神经网络以及对象卷积神经网络对所述标准化图像样本进行特征提取,相应得到场景特征以及对象特征;
嵌入操作模块220,用于对所述图像样本进行嵌入操作,得到与所述图像样本相关的嵌入图像;
图词转换模块230,用于对所述场景特征、对象特征以及嵌入图像分别进行图词转换,相应得到场景图词、对象图词以及图像图词;
预测分类模块240,用于将所述场景图词、对象图词以及图像图词输入所述变换器模型得到分类图词,将所述分类图词通过线性全连接分类层得到预测场景分类;
场景分类模型得到模块250,用于根据所述场景特征、对象特征以及预测场景分类构建全局混合损失函数,根据所述全局混合损失函数对所述场景分类模型进行反向传播和梯度更新,以得到完成训练的场景分类模型;
图像场景分类模块260,用于获取待进行场景分类的图像输入所述完成训练的场景分类模型,得到场景分类结果。
关于基于变换器模型和卷积神经网络的图像场景分类装置的具体限定可以参见上文中对于基于变换器模型和卷积神经网络的图像场景分类方法的限定,在此不再赘述。上述基于变换器模型和卷积神经网络的图像场景分类装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于变换器模型和卷积神经网络的图像场景分类方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取图像样本;
将所述图像样本输入场景分类模型,所述场景分类模型包括场景卷积神经网络、对象卷积神经网络以及变换器模型;
对所述图像样本进行预处理得到标准化图像样本,分别通过所述场景卷积神经网络以及对象卷积神经网络对所述标准化图像样本进行特征提取,相应得到场景特征以及对象特征;
对所述图像样本进行嵌入操作,得到与所述图像样本相关的嵌入图像;
对所述场景特征、对象特征以及嵌入图像分别进行图词转换,相应得到场景图词、对象图词以及图像图词;
将所述场景图词、对象图词以及图像图词输入所述变换器模型得到分类图词,将所述分类图词通过线性全连接分类层得到预测场景分类;
根据所述场景特征、对象特征以及预测场景分类构建全局混合损失函数,根据所述全局混合损失函数对所述场景分类模型进行反向传播和梯度更新,以得到完成训练的场景分类模型;
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取图像样本;
将所述图像样本输入场景分类模型,所述场景分类模型包括场景卷积神经网络、对象卷积神经网络以及变换器模型;
对所述图像样本进行预处理得到标准化图像样本,分别通过所述场景卷积神经网络以及对象卷积神经网络对所述标准化图像样本进行特征提取,相应得到场景特征以及对象特征;
对所述图像样本进行嵌入操作,得到与所述图像样本相关的嵌入图像;
对所述场景特征、对象特征以及嵌入图像分别进行图词转换,相应得到场景图词、对象图词以及图像图词;
将所述场景图词、对象图词以及图像图词输入所述变换器模型得到分类图词,将所述分类图词通过线性全连接分类层得到预测场景分类;
根据所述场景特征、对象特征以及预测场景分类构建全局混合损失函数,根据所述全局混合损失函数对所述场景分类模型进行反向传播和梯度更新,以得到完成训练的场景分类模型;
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (9)
1.基于变换器模型和卷积神经网络的图像场景分类方法,其特征在于,所述方法包括:
获取图像样本;
将所述图像样本输入场景分类模型,所述场景分类模型包括场景卷积神经网络、对象卷积神经网络以及变换器模型;
对所述图像样本进行预处理得到标准化图像样本,分别通过所述场景卷积神经网络以及对象卷积神经网络对所述标准化图像样本进行特征提取,相应得到场景特征以及对象特征;
对所述图像样本进行嵌入操作,得到与所述图像样本相关的嵌入图像;
对所述场景特征、对象特征以及嵌入图像分别进行图词转换,相应得到场景图词、对象图词以及图像图词;
将所述场景图词、对象图词以及图像图词输入所述变换器模型得到分类图词,将所述分类图词通过线性全连接分类层得到预测场景分类;
根据所述场景特征、对象特征以及预测场景分类构建全局混合损失函数,根据所述全局混合损失函数对所述场景分类模型进行反向传播和梯度更新,以得到完成训练的场景分类模型;
获取待进行场景分类的图像输入所述完成训练的场景分类模型,得到场景分类结果。
2.根据权利要求1所述的图像场景分类方法,其特征在于,所述对所述图像样本进行预处理得到标准化图像样本包括:
对所述图像样本采用双线性插值调整至预设尺寸;
对调整至预设尺寸的图像样本减去图像网络数据集的图像均值,再除以标准差得到所述标准化图像样本。
3.根据权利要求1所述的图像场景分类方法,其特征在于,所述场景卷积神经网络以及对象卷积神经网络均以紧密网络116为基础进行构建。
4.根据权利要求1所述的图像场景分类方法,其特征在于,在对所述嵌入图像进行图词转换后,还采用位置编码的方式对初步生成的图像图词进行空间信息补充,得到所述图像图词。
5.根据权利要求4所述的图像场景分类方法,其特征在于,将所述场景图词、对象图词以及图像图词输入所述变换器模型得到分类图词之前,还包括:
将所述场景图词、对象图词、图像图词分别与历史时刻计算得到的分类图词进行融合,得到融合场景图词、融合对象图词以及融合图像图词;
所述将所述场景图词、对象图词以及图像图词输入所述变换器模型得到分类图词,包括:
将所述融合场景图词、融合对象图词以及融合图像图词输入所述变换器模型得到分类图词。
6.根据权利要求1-5任一项所述的图像场景分类方法,其特征在于,所述变换器模型包括12层依次连接的编码单元以及12层依次连接的解码单元,其中最后一层编码单元的输出与各层解码单元连接;
所述编码单元包括两个层归一化层、多头自注意力层以及多层感知机层;
所述解码单元包括两个层归一化层、多头自注意力层、多层感知机层以及多头注意力层。
7.根据权利要求6所述的图像场景分类方法,其特征在于,所述将所述场景图词、对象图词以及图像图词输入所述变换器模型得到分类图词包括:
在编码单元中:
将所述图像图词或上一层编码单元的输出通过第一个层归一化层、多头自注意力层的处理得到输出,将所述输出与图像图词或上一层编码单元的输出进行残差连接后得到第一中间结果;
将所述第一中间结果通过第二个层归一化层、多层感知机层的处理得到输出,将所述输出结果与第一中间结果进行残差连接得到该层编码单元的输出;
将该层编码单元的输出输入下一层编码单元中,或作为编码单元的结果输入各层解码单元;
在解码单元中:
将所述对象图词和场景图词,或上一层解码单元的输出通过第一个层归一化层、多头自注意力层的处理得到输出,将所述输出与所述编码结果和场景图词、或上一层解码单元的输出进行残差连接后得到第二中间结果;
将所述第二中间结果与编码单元的结果通过所述多头注意力层的处理后得到输出,将所述输出与第二中间结果进行残差连接后得到第三中间结果;
将所述第三中间结果通过第二个层归一化层、多层感知机层的处理得到输出,将所述输出与所述第三中间结果进行残差连接得到该层解码单元的输出;
将该层解码单元的输出输入下一层解码单元中,或该输出为所述分类图词作为所述变换器模型的输出。
8.根据权利要求7所述的图像场景分类方法,其特征在于,在输入所述解码单元之前,还对所述场景图词以及对象图词在第一个维度上进行拼接,得到组合图词,将所述组合图词输入所述解码单元。
9.根据权利要求1所述的图像场景分类方法,其特征在于,所述根据所述场景特征、对象特征以及预测场景分类构建全局混合损失函数包括:
根据所述场景特征和对象特征进行处理得到卷积神经网络输出的预测分类;
根据所述预测场景分类以及预测分类进行结合,构建所述全局混合损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110683770.0A CN113128527B (zh) | 2021-06-21 | 2021-06-21 | 基于变换器模型和卷积神经网络的图像场景分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110683770.0A CN113128527B (zh) | 2021-06-21 | 2021-06-21 | 基于变换器模型和卷积神经网络的图像场景分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113128527A true CN113128527A (zh) | 2021-07-16 |
CN113128527B CN113128527B (zh) | 2021-08-24 |
Family
ID=76783169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110683770.0A Active CN113128527B (zh) | 2021-06-21 | 2021-06-21 | 基于变换器模型和卷积神经网络的图像场景分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113128527B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113762278A (zh) * | 2021-09-13 | 2021-12-07 | 中冶路桥建设有限公司 | 一种基于目标检测的沥青路面损坏识别方法 |
CN114245280A (zh) * | 2021-12-20 | 2022-03-25 | 清华大学深圳国际研究生院 | 一种基于神经网络的场景自适应助听器音频增强系统 |
CN114463646A (zh) * | 2022-04-13 | 2022-05-10 | 齐鲁工业大学 | 一种基于多头自注意力卷积神经网络的遥感场景分类方法 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130055079A1 (en) * | 2011-08-29 | 2013-02-28 | Ting-Yee Liao | Display device providing individualized feedback |
US20180158157A1 (en) * | 2016-12-02 | 2018-06-07 | Bank Of America Corporation | Geo-targeted Property Analysis Using Augmented Reality User Devices |
US20180165984A1 (en) * | 2016-12-13 | 2018-06-14 | Bank Of America Corporation | Virtual Behavior Training Using Augmented Reality User Devices |
CN108171217A (zh) * | 2018-01-29 | 2018-06-15 | 深圳市唯特视科技有限公司 | 一种基于点融合网络的三维物体检测方法 |
CN108733801A (zh) * | 2018-05-17 | 2018-11-02 | 武汉大学 | 一种面向数字人文的移动视觉检索方法 |
US10198671B1 (en) * | 2016-11-10 | 2019-02-05 | Snap Inc. | Dense captioning with joint interference and visual context |
CN110111399A (zh) * | 2019-04-24 | 2019-08-09 | 上海理工大学 | 一种基于视觉注意力的图像文本生成方法 |
AU2019101142A4 (en) * | 2019-09-30 | 2019-10-31 | Dong, Qirui MR | A pedestrian detection method with lightweight backbone based on yolov3 network |
CN110443143A (zh) * | 2019-07-09 | 2019-11-12 | 武汉科技大学 | 多分支卷积神经网络融合的遥感图像场景分类方法 |
CN110555446A (zh) * | 2019-08-19 | 2019-12-10 | 北京工业大学 | 基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法 |
US20200086879A1 (en) * | 2018-09-14 | 2020-03-19 | Honda Motor Co., Ltd. | Scene classification prediction |
CN111104898A (zh) * | 2019-12-18 | 2020-05-05 | 武汉大学 | 基于目标语义和注意力机制的图像场景分类方法及装置 |
CN111814817A (zh) * | 2019-04-12 | 2020-10-23 | 北京京东尚科信息技术有限公司 | 视频分类方法、装置、存储介质及电子设备 |
CN112001399A (zh) * | 2020-09-07 | 2020-11-27 | 中国人民解放军国防科技大学 | 基于局部特征显著化的图像场景分类方法和装置 |
CN112700794A (zh) * | 2021-03-23 | 2021-04-23 | 北京达佳互联信息技术有限公司 | 一种音频场景分类方法、装置、电子设备和存储介质 |
CN112800229A (zh) * | 2021-02-05 | 2021-05-14 | 昆明理工大学 | 基于知识图嵌入的涉案领域的半监督方面级情感分析方法 |
-
2021
- 2021-06-21 CN CN202110683770.0A patent/CN113128527B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130055079A1 (en) * | 2011-08-29 | 2013-02-28 | Ting-Yee Liao | Display device providing individualized feedback |
US10198671B1 (en) * | 2016-11-10 | 2019-02-05 | Snap Inc. | Dense captioning with joint interference and visual context |
US20180158157A1 (en) * | 2016-12-02 | 2018-06-07 | Bank Of America Corporation | Geo-targeted Property Analysis Using Augmented Reality User Devices |
US20180165984A1 (en) * | 2016-12-13 | 2018-06-14 | Bank Of America Corporation | Virtual Behavior Training Using Augmented Reality User Devices |
CN108171217A (zh) * | 2018-01-29 | 2018-06-15 | 深圳市唯特视科技有限公司 | 一种基于点融合网络的三维物体检测方法 |
CN108733801A (zh) * | 2018-05-17 | 2018-11-02 | 武汉大学 | 一种面向数字人文的移动视觉检索方法 |
US20200086879A1 (en) * | 2018-09-14 | 2020-03-19 | Honda Motor Co., Ltd. | Scene classification prediction |
CN111814817A (zh) * | 2019-04-12 | 2020-10-23 | 北京京东尚科信息技术有限公司 | 视频分类方法、装置、存储介质及电子设备 |
CN110111399A (zh) * | 2019-04-24 | 2019-08-09 | 上海理工大学 | 一种基于视觉注意力的图像文本生成方法 |
CN110443143A (zh) * | 2019-07-09 | 2019-11-12 | 武汉科技大学 | 多分支卷积神经网络融合的遥感图像场景分类方法 |
CN110555446A (zh) * | 2019-08-19 | 2019-12-10 | 北京工业大学 | 基于多尺度深度特征融合和迁移学习的遥感影像场景分类方法 |
AU2019101142A4 (en) * | 2019-09-30 | 2019-10-31 | Dong, Qirui MR | A pedestrian detection method with lightweight backbone based on yolov3 network |
CN111104898A (zh) * | 2019-12-18 | 2020-05-05 | 武汉大学 | 基于目标语义和注意力机制的图像场景分类方法及装置 |
CN112001399A (zh) * | 2020-09-07 | 2020-11-27 | 中国人民解放军国防科技大学 | 基于局部特征显著化的图像场景分类方法和装置 |
CN112800229A (zh) * | 2021-02-05 | 2021-05-14 | 昆明理工大学 | 基于知识图嵌入的涉案领域的半监督方面级情感分析方法 |
CN112700794A (zh) * | 2021-03-23 | 2021-04-23 | 北京达佳互联信息技术有限公司 | 一种音频场景分类方法、装置、电子设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
MENG LI等: "SACNN: Self-Attention Convolutional Neural Network for Low-Dose CT Denoising With Self-Supervised Perceptual Loss Network", 《IEEE TRANSACTIONS ON MEDICAL IMAGING》 * |
张晋: "基于局部感知的场景图像识别", 《中国优秀硕士学位论文全文数据库(信息科技辑)》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113762278A (zh) * | 2021-09-13 | 2021-12-07 | 中冶路桥建设有限公司 | 一种基于目标检测的沥青路面损坏识别方法 |
CN113762278B (zh) * | 2021-09-13 | 2023-11-17 | 中冶路桥建设有限公司 | 一种基于目标检测的沥青路面损坏识别方法 |
CN114245280A (zh) * | 2021-12-20 | 2022-03-25 | 清华大学深圳国际研究生院 | 一种基于神经网络的场景自适应助听器音频增强系统 |
CN114463646A (zh) * | 2022-04-13 | 2022-05-10 | 齐鲁工业大学 | 一种基于多头自注意力卷积神经网络的遥感场景分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113128527B (zh) | 2021-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113128527B (zh) | 基于变换器模型和卷积神经网络的图像场景分类方法 | |
CN109165664B (zh) | 一种基于生成对抗网络的属性缺失数据集补全与预测方法 | |
CN113673594B (zh) | 一种基于深度学习网络的瑕疵点识别方法 | |
Gupta et al. | ALMNet: Adjacent layer driven multiscale features for salient object detection | |
Jiang et al. | Blind image quality measurement by exploiting high-order statistics with deep dictionary encoding network | |
WO2020238783A1 (zh) | 一种信息处理方法、装置及存储介质 | |
Bazi et al. | Bi-modal transformer-based approach for visual question answering in remote sensing imagery | |
CN110555821A (zh) | 模型训练方法、装置和存储介质 | |
CN112785542B (zh) | 遥感影像转换网络地图方法、装置、计算机设备和介质 | |
CN113516133B (zh) | 一种多模态图像分类方法及系统 | |
CN113064968B (zh) | 一种基于张量融合网络的社交媒体情感分析方法及系统 | |
CN112418292A (zh) | 一种图像质量评价的方法、装置、计算机设备及存储介质 | |
CN115565238B (zh) | 换脸模型的训练方法、装置、设备、存储介质和程序产品 | |
CN112699215B (zh) | 基于胶囊网络与交互注意力机制的评级预测方法及系统 | |
CN113961736A (zh) | 文本生成图像的方法、装置、计算机设备和存储介质 | |
CN115659279A (zh) | 一种基于图文交互的多模态数据融合方法 | |
CN111027681B (zh) | 时序数据处理模型训练方法、数据处理方法、装置及存储介质 | |
CN116844041A (zh) | 一种基于双向卷积时间自注意力机制的耕地提取方法 | |
WO2022063076A1 (zh) | 对抗样本的识别方法及装置 | |
CN114821736A (zh) | 基于对比学习的多模态人脸识别方法、装置、设备及介质 | |
Zhang et al. | Skip-attention encoder–decoder framework for human motion prediction | |
Sortino et al. | Transformer-based image generation from scene graphs | |
Gao et al. | Generalized pyramid co-attention with learnable aggregation net for video question answering | |
Wang et al. | Face hallucination using multisource references and cross‐scale dual residual fusion mechanism | |
CN116959605A (zh) | 分子性质预测方法、分子性质预测模型的训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |