CN111401415A - 计算机视觉任务模型的训练方法、装置、设备和存储介质 - Google Patents

计算机视觉任务模型的训练方法、装置、设备和存储介质 Download PDF

Info

Publication number
CN111401415A
CN111401415A CN202010135641.3A CN202010135641A CN111401415A CN 111401415 A CN111401415 A CN 111401415A CN 202010135641 A CN202010135641 A CN 202010135641A CN 111401415 A CN111401415 A CN 111401415A
Authority
CN
China
Prior art keywords
attention
feature map
disturbance
mask
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010135641.3A
Other languages
English (en)
Inventor
周锴
张睿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN202010135641.3A priority Critical patent/CN111401415A/zh
Publication of CN111401415A publication Critical patent/CN111401415A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了计算机视觉任务模型的训练方法、装置、设备和存储介质。所述方法包括:获取计算机视觉任务模型的主干网络输出的图像特征图;基于注意力算法生成所述图像特征图的注意力特征图;对所述注意力特征图进行参数统计,基于参数统计结果生成随机扰动掩模;以所述随机扰动掩模对所述注意力特征图进行扰动,得到注意力扰动特征图;将所述注意力扰动特征图与所述图像特征图进行叠加,得到增强特征图供所述主干网络使用。有益效果在于,加入的随机扰动因素,能够使计算机视觉任务模型在注意力机制的指导下仍能够关注到图像的重点区域,同时鲁棒性有了显著提升,更贴近于实际的应用场景,泛用性强。

Description

计算机视觉任务模型的训练方法、装置、设备和存储介质
技术领域
本申请涉及深度学习领域,具体涉及计算机视觉任务模型的训练方法、装置、设备和存储介质。
背景技术
注意力机制是深度学习发展过程中出现的一项重要技术,可应用于对象分类、检测、识别等计算机视觉任务中。由于有些计算机视觉任务较为复杂,加入注意力机制,可以指导计算机视觉任务模型关注应该关注的图像区域。但是目前注意力机制存在的问题在于,容易产生过拟合问题,使得模型学习到不够鲁棒的注意力参数,即关注的特征区域泛化性能较差。
比如,一张白底黑字的图像,经过引入注意力机制,能够使计算机视觉任务模型更加关注黑色的部分。但是一旦有张图像黑色的字体部分的颜色淡一些,就可能导致这个字的识别错误。
发明内容
鉴于上述问题,提出了本申请以便提供一种克服上述问题或者至少部分地解决上述问题的计算机视觉任务模型的训练方法、装置、设备和存储介质。
依据本申请的一个方面,提供了一种计算机视觉任务模型的训练方法,包括:获取计算机视觉任务模型的主干网络输出的图像特征图;基于注意力算法生成所述图像特征图的注意力特征图;对所述注意力特征图进行参数统计,基于参数统计结果生成随机扰动掩模;以所述随机扰动掩模对所述注意力特征图进行扰动,得到注意力扰动特征图;将所述注意力扰动特征图与所述图像特征图进行叠加,得到增强特征图供所述主干网络使用。
可选地,所述对所述注意力特征图进行参数统计,基于参数统计结果生成随机扰动掩模包括:将所述注意力特征图按指定特征维度进行分离,得到多个注意力子特征图;对各注意力子特征图分别进行参数统计,得到与各注意力子特征图对应的参数统计结果;生成与各参数统计结果分别对应的基础掩模;根据各基础掩模生成所述随机扰动掩模。
可选地,所述指定特征维度为批尺寸维度。
可选地,所述对各注意力子特征图分别进行参数统计包括:基于正态分布分别计算各注意力子特征图的标准差。
可选地,所述生成与各参数统计结果分别对应的基础掩模包括:根据预设的扰动比率和生成与各标准差对应的扰动区间;以均匀分布的方式随机形成与各扰动区间对应的基础掩模。
可选地,所述根据各基础掩模生成所述随机扰动掩模包括:将各基础掩模进行链接,得到维度与所述图像特征图相同的随机扰动掩模。
可选地,所述主干网络中包括若干个批标准化层;所述注意力扰动特征图与所述批标准化层用于避免计算机视觉任务模型训练的过拟合。
依据本申请的另一方面,提供了一种计算机视觉任务模型的训练装置,包括:图像特征图获取单元,用于获取计算机视觉任务模型的主干网络输出的图像特征图;注意力特征图生成单元,用于基于注意力算法生成所述图像特征图的注意力特征图;注意力扰动单元,用于对所述注意力特征图进行参数统计,基于参数统计结果生成随机扰动掩模;以所述随机扰动掩模对所述注意力特征图进行扰动,得到注意力扰动特征图;增强特征图生成单元,用于将所述注意力扰动特征图与所述图像特征图进行叠加,得到增强特征图供所述主干网络使用。
可选地,所述注意力扰动单元,用于将所述注意力特征图按指定特征维度进行分离,得到多个注意力子特征图;对各注意力子特征图分别进行参数统计,得到与各注意力子特征图对应的参数统计结果;生成与各参数统计结果分别对应的基础掩模;根据各基础掩模生成所述随机扰动掩模。
可选地,所述指定特征维度为批尺寸维度。
可选地,所述注意力扰动单元,用于基于正态分布分别计算各注意力子特征图的标准差。
可选地,所述注意力扰动单元,用于根据预设的扰动比率和生成与各标准差对应的扰动区间;以均匀分布的方式随机形成与各扰动区间对应的基础掩模。
可选地,所述注意力扰动单元,用于将各基础掩模进行链接,得到维度与所述图像特征图相同的随机扰动掩模。
可选地,所述主干网络中包括若干个批标准化层;所述注意力扰动特征图与所述批标准化层用于避免计算机视觉任务模型训练的过拟合。
依据本申请的又一方面,提供了一种电子设备,包括:处理器;以及被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行如上述任一所述的方法。
依据本申请的再一方面,提供了一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被处理器执行时,实现如上述任一所述的方法。
由上述可知,本申请的技术方案,基于获取到的计算机视觉任务模型的主干网络输出的图像特征图生成注意力特征图,并对注意力特征图进行参数统计,基于参数统计结果生成随机扰动掩模,以随机扰动掩模对注意力特征图进行扰动,得到注意力扰动特征图,以替代注意力特征图的使用场景,例如将注意力扰动特征图与图像特征图进行叠加,得到增强特征图供主干网络使用。该技术方案的有益效果在于,加入的随机扰动因素,能够使计算机视觉任务模型在注意力机制的指导下仍能够关注到图像的重点区域,同时鲁棒性有了显著提升,例如希望模型更关注黑色字体,那么使用注意力扰动特征图的模型,对于黑色稍浅的字体也能够有着足够的关注度,因此识别效果会更好,更贴近于实际的应用场景,泛用性强。同时注意力扰动特征图的使用方式与现有技术中注意力特征图的使用方式相同,便于进行对照实验,有助于比较各类方式的有效性。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本申请一个实施例的一种计算机视觉任务模型的训练方法的流程示意图;
图2示出了根据本申请一个实施例的一种计算机视觉任务模型的训练装置的结构示意图;
图3示出了根据本申请一个实施例的电子设备的结构示意图;
图4示出了根据本申请一个实施例的计算机可读存储介质的结构示意图;
图5示出了加入注意力扰动特征图后的网络底层特征可视化对比效果图。
具体实施方式
下面将参照附图更详细地描述本申请的示例性实施例。虽然附图中显示了本申请的示例性实施例,然而应当理解,可以以各种形式实现本申请而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本申请,并且能够将本申请的范围完整的传达给本领域的技术人员。
本申请的技术构思在于,在注意力特征图的基础上,通过增加随机扰动因素,得到注意力扰动特征图作为注意力特征图的替代,在保证计算机视觉任务模型关注重点区域的同时,避免训练的过拟合,能够注意到相近似的内容,因此鲁棒性更强。
图1示出了根据本申请一个实施例的一种计算机视觉任务模型的训练方法的流程示意图。如图1所示,该方法包括:
步骤S110,获取计算机视觉任务模型的主干网络输出的图像特征图。
这里的计算机视觉任务可以包括但不限于对象分类、检测、识别等,主干网络(backbone)也可以选用任一种现有的网络,如Resnet系列网络、YOLO(You only lookonce,业界暂无中文名称)系列网络等,或者以现有的网络为基础进行改进。图像特征图(feature map)是主干网络对图像进行特征提取得到。
步骤S120,基于注意力算法生成图像特征图的注意力特征图。
其中,使用的注意力算法可以参照现有算法实现,例如通道注意力或是控件注意力均可。这里以挤压-激励网络(Squeeze-and-Excitation Networks,SENet)为例简单进行介绍。
给定一个特征输入x,其特征通道数为c_1,通过一系列卷积等一般变换后得到一个特征通道数为c_2的特征。与传统的CNN(卷积神经网络)不一样的是,接下来通过三个操作来重标定前面得到的特征。
首先是Squeeze(挤压)操作,顺着空间维度来进行特征压缩,将每个二维的特征通道变成一个实数,这个实数某种程度上具有全局的感受野,并且输出的维度和输入的特征通道数相匹配。它表征着在特征通道上响应的全局分布,而且使得靠近输入的层也可以获得全局的感受野,这一点在很多任务中都是非常有用的。
其次是Excitation(激励)操作,它是一个类似于循环神经网络中门的机制。通过参数w来为每个特征通道生成权重,其中参数w被学习用来显式地建模特征通道间的相关性。
最后是一个Reweight(重新加权)的操作,将Excitation的输出的权重看作是进过特征选择后的每个特征通道的重要性,然后通过乘法逐通道加权到先前的特征上,完成在通道维度上的对原始特征的重标定。
最终得到的注意力特征图就是一个张量,即多维数组,也可以称为注意力模块,但这里的“模块”并不是指实体模块或者程序。具体地,该注意力特征图通常表现为一个掩模(mask),可以与图像特征图进行加减乘除等运算。本申请的实施例中并不对注意力特征图的维度进行限制。
步骤S130,对注意力特征图进行参数统计,基于参数统计结果生成随机扰动掩模。
通过参数统计结果生成随机扰动掩模,既保留了注意力特征图的一部分整体特性,也加入了新的随机扰动因素。
步骤S140,以随机扰动掩模对注意力特征图进行扰动,得到注意力扰动特征图。
举一个简化的例子来说,注意力特征图可以指导计算机视觉任务模型更关注黑色字体,但是这样也会使得计算机视觉任务模型对黑色稍浅的字体有忽略。而通过随机扰动,使得计算机视觉任务模型关注的颜色区间变大,但仍符合黑色这一主要特点,因此泛用性也就更强,鲁棒性更好。
步骤S150,将注意力扰动特征图与图像特征图进行叠加,得到增强特征图供主干网络使用。
注意力特征图的用法,往往就是与图像特征图进行叠加,得到注意力融合特征图。在本申请中,则是以注意力扰动特征图作为注意力特征图的替代,因此,注意力扰动特征图在可以原本应用注意力特征图的各类深度学习模型(例如分类模型、检测模型、识别模型等等)场景下均可使用。
计算机视觉任务模型的其他训练流程可以采用与现有技术相同的方式,例如根据预设的损失(loss)函数计算模型loss,根据loss值进行计算机视觉任务模型的参数梯度更新或者停止训练等等。
可见,图1所示的方法中,加入的随机扰动因素,能够使得计算机视觉任务模型在注意力机制的指导下仍能够关注到图像的重点区域,同时鲁棒性有了显著提升,例如希望模型更关注黑色字体,那么使用注意力扰动特征图的模型,对于黑色稍浅的字体也能够有着足够的关注度,因此识别效果会更好,更贴近于实际的应用场景,泛用性强。同时注意力扰动特征图的使用方式与现有技术中注意力特征图的使用方式相同,便于进行对照实验,有助于比较各类方式的有效性。
在本申请的一个实施例中,上述方法中,对注意力特征图进行参数统计,基于参数统计结果生成随机扰动掩模包括:将注意力特征图按指定特征维度进行分离,得到多个注意力子特征图;对各注意力子特征图分别进行参数统计,得到与各注意力子特征图对应的参数统计结果;生成与各参数统计结果分别对应的基础掩模;根据各基础掩模生成随机扰动掩模。
前面提到,注意力特征图是一个张量,包含多个维度,因此按指定特征维度进行分离,可以使得其他维度保持不变,在增加随机扰动的同时也保证了稳定性。具体地,在本申请的一个实施例中,上述方法中,指定特征维度为批尺寸维度。批尺寸(batchsize)是指计算机视觉任务模型训练时,一次训练所选取的样本数。
举例而言,注意力特征图包含的维度为[batchsize,height,width,channel],其中height指图像高度,width指图像宽度,channel指通道数。在一个具体例子中,一个注意力特征图的维度为[16,64,64,128],则将此注意力特征图分离为16个[1,64,64,128]的张量,得到的每一个张量即为一个注意力子特征图。
在本申请的一个实施例中,上述方法中,对各注意力子特征图分别进行参数统计包括:基于正态分布分别计算各注意力子特征图的标准差。
参数统计可以有多种方式,例如求均值、求方差、求标准差等,这些值均在一定程度上反映出数据的特点,因此以参数统计结果实现随机扰动,能够进一步保证扰动的效果。在一个优选方案中,基于正态分布分别计算各注意力子特征图的标准差,再根据得到的标准差进行基础掩模的生成,能够不破坏参数的正态分布,方便与主干网络中的其他层,如批标准化层进行结合使用。
在本申请的一个实施例中,上述方法中,生成与各参数统计结果分别对应的基础掩模包括:根据预设的扰动比率和生成与各标准差对应的扰动区间;以均匀分布的方式随机形成与各扰动区间对应的基础掩模。
例如,从0.5~1之间选择扰动比disturb_ratio(实验表明两个端点值的效果均较好),将该disturb_ratio与得到的标准差Si进行计算得到扰动区间[-disturb_ratio*Si,disturb_ratio*Si]。以注意力特征图的维度为[16,64,64,128],那么标准差Si有16个值,相应地,能够计算出16个扰动区间,也就是以均匀分布的方式随机形成16个[1,64,64,128]维度的基础掩模。
在本申请的一个实施例中,上述方法中,根据各基础掩模生成随机扰动掩模包括:将各基础掩模进行链接,得到维度与图像特征图相同的随机扰动掩模。
结合上面实施例给出的例子,可以将16个[1,64,64,128]维度的基础掩模进行链接,也就形成了一个维度与注意力特征图相同(均为[16,64,64,128])的随机扰动掩模。
可见,得到的随机扰动掩模与注意力特征图维度相同,因此可以按位置对应叠加,得到注意力扰动特征图。如上述随机扰动掩模维度为[16,64,64,128],注意力特征图维度也为[16,64,64,128],故可以直接对应位置相加,获得一个注意力扰动特征图,维度也为[16,64,64,128]。
注意力扰动特征的利用方式与现有方案类似,例如可以将注意力扰动特征加到图像特征图上,然后继续主干网络之后的各种卷积操作。
在本申请的一个实施例中,上述方法中,主干网络中包括若干个批标准化层;注意力扰动特征图与批标准化层用于避免计算机视觉任务模型训练的过拟合。
现在的大部分深度学习模型都存在批标准化(batch normalization,BN)层,它的优势包括:(1)可以加快训练速度,可以使用较大的学习率来训练网络;(2)提高网络的泛化能力;等等。
另外,2012年,Hinton在其论文《Improving neural networks by preventingco-adaptation of feature detectors》中提出了Dropout。其中指出,当一个复杂的前馈神经网络被训练在小的数据集时,容易造成过拟合。为了防止过拟合,可以通过阻止特征检测器的共同作用来提高神经网络的性能。同一年,Alex、Hinton在其论文《ImageNetClassification with Deep Convolutional Neural Networks》中用到了Dropout算法,用于防止过拟合。
但直接使用Dropout配合BN来避免神经网络过拟合的效果是非常差的,究其核心原因即是Dropout在网络测试的时候神经元会产生“variance shift”,即方差偏移。
由于本申请的方案在训练时并不丢弃某些神经元,而是基于参数统计结果进行扰动,基本不会产生太大的方差偏移,所以可自由结合BN使用。
下面以实验数据说明本方案的技术效果。
实验一
实验设置在证照识别项目中,地址字段识别的场景。计算机视觉任务模型采用Resnet网络及CBAM(Convolutional Block Attention Module,卷积阻滞注意模块)为主干网络。效果如表1。
表1
Figure BDA0002397209530000091
可见使用注意力扰动特征图的计算机视觉任务模型表现更好。
实验二
实验设置在菜品、logo、环境、门脸图分类项目,计算机视觉任务模型采用ShuffleNet+SENet为主干网络。其中,训练条件均保持一致,训练计算机视觉任务模型至收敛,对照实验中,是否使用注意力扰动特征图为唯一自变量。测试集为该项目的图像分类测试集,共4375张图像,其中菜品图1000张,logo图858张,环境图999张,门脸图1000张,其他500张。效果如表2。
表2
指标 无扰动 扰动比0.5
精准 0.9858 0.9870
召回 0.6819 0.7122
F1 0.7960 0.8167
可见使用注意力扰动特征图的计算机视觉任务模型表现更好。
实验三
该实验用于展现加入注意力扰动特征图后的网络底层特征可视化对比,参见图5,从上至下分别是原图、无扰动时的底层特征以及加入扰动后的底层特征。可看出,在加入注意力扰动特征图之后,底层特征响应前后景区别更加明显,而且去掉了五角星区域的干扰,特征边界也更加明显更有区分度。图5原图为彩色图片,实际效果对比更为显著。
图2示出了根据本申请一个实施例的一种计算机视觉任务模型的训练装置的结构示意图。如图2所示,计算机视觉任务模型的训练装置200包括:
图像特征图获取单元210,用于获取计算机视觉任务模型的主干网络输出的图像特征图。
这里的计算机视觉任务可以包括但不限于对象分类、检测、识别等,主干网络(backbone)也可以选用任一种现有的网络,如Resnet系列网络、YOLO(You only lookonce,业界暂无中文名称)系列网络等,或者以现有的网络为基础进行改进。图像特征图(feature map)是主干网络对图像进行特征提取得到。
注意力特征图生成单元220,用于基于注意力算法生成图像特征图的注意力特征图。
其中,使用的注意力算法可以参照现有算法实现,例如通道注意力或是控件注意力均可。这里以挤压-激励网络(Squeeze-and-Excitation Networks,SENet)为例简单进行介绍。
给定一个特征输入x,其特征通道数为c_1,通过一系列卷积等一般变换后得到一个特征通道数为c_2的特征。与传统的CNN(卷积神经网络)不一样的是,接下来通过三个操作来重标定前面得到的特征。
首先是Squeeze(挤压)操作,顺着空间维度来进行特征压缩,将每个二维的特征通道变成一个实数,这个实数某种程度上具有全局的感受野,并且输出的维度和输入的特征通道数相匹配。它表征着在特征通道上响应的全局分布,而且使得靠近输入的层也可以获得全局的感受野,这一点在很多任务中都是非常有用的。
其次是Excitation(激励)操作,它是一个类似于循环神经网络中门的机制。通过参数w来为每个特征通道生成权重,其中参数w被学习用来显式地建模特征通道间的相关性。
最后是一个Reweight(重新加权)的操作,将Excitation的输出的权重看作是进过特征选择后的每个特征通道的重要性,然后通过乘法逐通道加权到先前的特征上,完成在通道维度上的对原始特征的重标定。
最终得到的注意力特征图就是一个张量,即多维数组,也可以称为注意力模块,但这里的“模块”并不是指实体模块或者程序。具体地,该注意力特征图通常表现为一个掩模(mask),可以与图像特征图进行加减乘除等运算。本申请的实施例中并不对注意力特征图的维度进行限制。
注意力扰动单元230,用于对注意力特征图进行参数统计,基于参数统计结果生成随机扰动掩模;以随机扰动掩模对注意力特征图进行扰动,得到注意力扰动特征图。
通过参数统计结果生成随机扰动掩模,既保留了注意力特征图的一部分整体特性,也加入了新的随机扰动因素。举一个简化的例子来说,注意力特征图可以指导计算机视觉任务模型更关注黑色字体,但是这样也会使得计算机视觉任务模型对黑色稍浅的字体有忽略。而通过随机扰动,使得计算机视觉任务模型关注的颜色区间变大,但仍符合黑色这一主要特点,因此泛用性也就更强,鲁棒性更好。
增强特征图生成单元240,用于将注意力扰动特征图与图像特征图进行叠加,得到增强特征图供主干网络使用。
注意力特征图的用法,往往就是与图像特征图进行叠加,得到注意力融合特征图。在本申请中,则是以注意力扰动特征图作为注意力特征图的替代,因此,注意力扰动特征图在可以原本应用注意力特征图的各类深度学习模型(例如分类模型、检测模型、识别模型等等)场景下均可使用。
计算机视觉任务模型的其他训练流程可以采用与现有技术相同的方式,例如根据预设的损失(loss)函数计算模型loss,根据loss值进行计算机视觉任务模型的参数梯度更新或者停止训练等等。
可见,图2所示的装置,加入的随机扰动因素,能够使得计算机视觉任务模型在注意力机制的指导下仍能够关注到图像的重点区域,同时鲁棒性有了显著提升,例如希望模型更关注黑色字体,那么使用注意力扰动特征图的模型,对于黑色稍浅的字体也能够有着足够的关注度,因此识别效果会更好,更贴近于实际的应用场景,泛用性强。同时注意力扰动特征图的使用方式与现有技术中注意力特征图的使用方式相同,便于进行对照实验,有助于比较各类方式的有效性。
在本申请的一个实施例中,上述装置中,注意力扰动单元230,用于将注意力特征图按指定特征维度进行分离,得到多个注意力子特征图;对各注意力子特征图分别进行参数统计,得到与各注意力子特征图对应的参数统计结果;生成与各参数统计结果分别对应的基础掩模;根据各基础掩模生成随机扰动掩模。
在本申请的一个实施例中,上述装置中,指定特征维度为批尺寸维度。
在本申请的一个实施例中,上述装置中,注意力扰动单元230,用于基于正态分布分别计算各注意力子特征图的标准差。
在本申请的一个实施例中,上述装置中,注意力扰动单元230,用于根据预设的扰动比率和生成与各标准差对应的扰动区间;以均匀分布的方式随机形成与各扰动区间对应的基础掩模。
在本申请的一个实施例中,上述装置中,注意力扰动单元230,用于将各基础掩模进行链接,得到维度与图像特征图相同的随机扰动掩模。
在本申请的一个实施例中,上述装置中,主干网络中包括若干个批标准化层;注意力扰动特征图与批标准化层用于避免计算机视觉任务模型训练的过拟合。
需要说明的是,上述各装置实施例的具体实施方式可以参照前述对应方法实施例的具体实施方式进行,在此不再赘述。
综上所述,本申请的技术方案,基于获取到的计算机视觉任务模型的主干网络输出的图像特征图生成注意力特征图,并对注意力特征图进行参数统计,基于参数统计结果生成随机扰动掩模,以随机扰动掩模对注意力特征图进行扰动,得到注意力扰动特征图,以替代注意力特征图的使用场景,例如将注意力扰动特征图与图像特征图进行叠加,得到增强特征图供主干网络使用。该技术方案的有益效果在于,加入的随机扰动因素,能够使计算机视觉任务模型在注意力机制的指导下仍能够关注到图像的重点区域,同时鲁棒性有了显著提升,例如希望模型更关注黑色字体,那么使用注意力扰动特征图的模型,对于黑色稍浅的字体也能够有着足够的关注度,因此识别效果会更好,更贴近于实际的应用场景,泛用性强。同时注意力扰动特征图的使用方式与现有技术中注意力特征图的使用方式相同,便于进行对照实验,有助于比较各类方式的有效性。
需要说明的是:
在此提供的算法和显示不与任何特定计算机、虚拟装置或者其它设备固有相关。各种通用装置也可以与基于在此的示教一起使用。根据上面的描述,构造这类装置所要求的结构是显而易见的。此外,本申请也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本申请的内容,并且上面对特定语言所做的描述是为了披露本申请的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本申请的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本申请并帮助理解各个发明方面中的一个或多个,在上面对本申请的示例性实施例的描述中,本申请的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本申请要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本申请的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本申请的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本申请的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本申请实施例的注意力的实现装置中的一些或者全部部件的一些或者全部功能。本申请还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本申请的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
例如,图3示出了根据本申请一个实施例的电子设备的结构示意图。该电子设备300包括处理器310和被安排成存储计算机可执行指令(计算机可读程序代码)的存储器320。存储器320可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。存储器320具有存储用于执行上述方法中的任何方法步骤的计算机可读程序代码331的存储空间330。例如,用于存储计算机可读程序代码的存储空间330可以包括分别用于实现上面的方法中的各种步骤的各个计算机可读程序代码331。计算机可读程序代码331可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。这些计算机程序产品包括诸如硬盘,紧致盘(CD)、存储卡或者软盘之类的程序代码载体。这样的计算机程序产品通常为例如图4所述的计算机可读存储介质。图4示出了根据本申请一个实施例的一种计算机可读存储介质的结构示意图。该计算机可读存储介质400存储有用于执行根据本申请的方法步骤的计算机可读程序代码331,可以被电子设备300的处理器310读取,当计算机可读程序代码331由电子设备300运行时,导致该电子设备300执行上面所描述的方法中的各个步骤,具体来说,该计算机可读存储介质存储的计算机可读程序代码331可以执行上述任一实施例中示出的方法。计算机可读程序代码331可以以适当形式进行压缩。
应该注意的是上述实施例对本申请进行说明而不是对本申请进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本申请可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。

Claims (10)

1.一种计算机视觉任务模型的训练方法,所述方法包括:
获取计算机视觉任务模型的主干网络输出的图像特征图;
基于注意力算法生成所述图像特征图的注意力特征图;
对所述注意力特征图进行参数统计,基于参数统计结果生成随机扰动掩模;
以所述随机扰动掩模对所述注意力特征图进行扰动,得到注意力扰动特征图;
将所述注意力扰动特征图与所述图像特征图进行叠加,得到增强特征图供所述主干网络使用。
2.如权利要求1所述的方法,其特征在于,所述对所述注意力特征图进行参数统计,基于参数统计结果生成随机扰动掩模包括:
将所述注意力特征图按指定特征维度进行分离,得到多个注意力子特征图;
对各注意力子特征图分别进行参数统计,得到与各注意力子特征图对应的参数统计结果;
生成与各参数统计结果分别对应的基础掩模;
根据各基础掩模生成所述随机扰动掩模。
3.如权利要求2所述的方法,其特征在于,所述指定特征维度为批尺寸维度。
4.如权利要求2所述的方法,其特征在于,所述对各注意力子特征图分别进行参数统计包括:
基于正态分布分别计算各注意力子特征图的标准差。
5.如权利要求4所述的方法,其特征在于,所述生成与各参数统计结果分别对应的基础掩模包括:
根据预设的扰动比率和生成与各标准差对应的扰动区间;
以均匀分布的方式随机形成与各扰动区间对应的基础掩模。
6.如权利要求5所述的方法,其特征在于,所述根据各基础掩模生成所述随机扰动掩模包括:
将各基础掩模进行链接,得到维度与所述图像特征图相同的随机扰动掩模。
7.如权利要求1-6中任一项所述的方法,其特征在于,所述主干网络中包括若干个批标准化层;所述注意力扰动特征图与所述批标准化层用于避免计算机视觉任务模型训练的过拟合。
8.一种计算机视觉任务模型的训练装置,所述装置包括:
图像特征图获取单元,用于获取计算机视觉任务模型的主干网络输出的图像特征图;
注意力特征图生成单元,用于基于注意力算法生成所述图像特征图的注意力特征图;
注意力扰动单元,用于对所述注意力特征图进行参数统计,基于参数统计结果生成随机扰动掩模;以所述随机扰动掩模对所述注意力特征图进行扰动,得到注意力扰动特征图;
增强特征图生成单元,用于将所述注意力扰动特征图与所述图像特征图进行叠加,得到增强特征图供所述主干网络使用。
9.一种电子设备,其中,该电子设备包括:处理器;以及被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行如权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被处理器执行时,实现如权利要求1-7中任一项所述的方法。
CN202010135641.3A 2020-03-02 2020-03-02 计算机视觉任务模型的训练方法、装置、设备和存储介质 Pending CN111401415A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010135641.3A CN111401415A (zh) 2020-03-02 2020-03-02 计算机视觉任务模型的训练方法、装置、设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010135641.3A CN111401415A (zh) 2020-03-02 2020-03-02 计算机视觉任务模型的训练方法、装置、设备和存储介质

Publications (1)

Publication Number Publication Date
CN111401415A true CN111401415A (zh) 2020-07-10

Family

ID=71432124

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010135641.3A Pending CN111401415A (zh) 2020-03-02 2020-03-02 计算机视觉任务模型的训练方法、装置、设备和存储介质

Country Status (1)

Country Link
CN (1) CN111401415A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112580822A (zh) * 2020-12-16 2021-03-30 北京百度网讯科技有限公司 机器学习模型的对抗训练方法装置、电子设备和介质
CN114638829A (zh) * 2022-05-18 2022-06-17 安徽数智建造研究院有限公司 隧道衬砌检测模型的抗干扰训练方法及隧道衬砌检测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080219493A1 (en) * 2004-03-30 2008-09-11 Yoav Tadmor Image Processing System
CN108108677A (zh) * 2017-12-12 2018-06-01 重庆邮电大学 一种基于改进的cnn人脸表情识别方法
CN109035252A (zh) * 2018-06-29 2018-12-18 山东财经大学 一种面向医学图像分割的超像素方法
CN109255769A (zh) * 2018-10-25 2019-01-22 厦门美图之家科技有限公司 图像增强网络的训练方法和训练模型、及图像增强方法
US20190130204A1 (en) * 2017-10-31 2019-05-02 The University Of Florida Research Foundation, Incorporated Apparatus and method for detecting scene text in an image
US20190311223A1 (en) * 2017-03-13 2019-10-10 Beijing Sensetime Technology Development Co., Ltd. Image processing methods and apparatus, and electronic devices
CN110502976A (zh) * 2019-07-10 2019-11-26 深圳追一科技有限公司 文本识别模型的训练方法及相关产品

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080219493A1 (en) * 2004-03-30 2008-09-11 Yoav Tadmor Image Processing System
US20190311223A1 (en) * 2017-03-13 2019-10-10 Beijing Sensetime Technology Development Co., Ltd. Image processing methods and apparatus, and electronic devices
US20190130204A1 (en) * 2017-10-31 2019-05-02 The University Of Florida Research Foundation, Incorporated Apparatus and method for detecting scene text in an image
CN108108677A (zh) * 2017-12-12 2018-06-01 重庆邮电大学 一种基于改进的cnn人脸表情识别方法
CN109035252A (zh) * 2018-06-29 2018-12-18 山东财经大学 一种面向医学图像分割的超像素方法
CN109255769A (zh) * 2018-10-25 2019-01-22 厦门美图之家科技有限公司 图像增强网络的训练方法和训练模型、及图像增强方法
CN110502976A (zh) * 2019-07-10 2019-11-26 深圳追一科技有限公司 文本识别模型的训练方法及相关产品

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112580822A (zh) * 2020-12-16 2021-03-30 北京百度网讯科技有限公司 机器学习模型的对抗训练方法装置、电子设备和介质
CN112580822B (zh) * 2020-12-16 2023-10-17 北京百度网讯科技有限公司 机器学习模型的对抗训练方法装置、电子设备和介质
CN114638829A (zh) * 2022-05-18 2022-06-17 安徽数智建造研究院有限公司 隧道衬砌检测模型的抗干扰训练方法及隧道衬砌检测方法

Similar Documents

Publication Publication Date Title
CN111723860B (zh) 一种目标检测方法及装置
CN101601287B (zh) 产生照片级真实感图像缩略图的设备和方法
CN105144239B (zh) 图像处理装置、图像处理方法
CN111080628A (zh) 图像篡改检测方法、装置、计算机设备和存储介质
CN109492638A (zh) 文本检测方法、装置及电子设备
CN108399386A (zh) 饼图中的信息提取方法及装置
US11392800B2 (en) Computer vision systems and methods for blind localization of image forgery
CN108229490A (zh) 关键点检测方法、神经网络训练方法、装置和电子设备
CN109800682B (zh) 驾驶员属性识别方法及相关产品
CN111242852A (zh) 边界感知对象移除和内容填充
CN111325205B (zh) 文档图像方向识别方法、装置及模型的训练方法、装置
CN111738243A (zh) 人脸图像的选择方法、装置、设备及存储介质
CN104866868A (zh) 基于深度神经网络的金属币识别方法和装置
CN112700408A (zh) 模型训练方法、图像质量评估方法及装置
CN111626284A (zh) 一种手写字体去除的方法、装置、电子设备和存储介质
CN103793717A (zh) 判断图像主体显著性及训练其分类器的方法和系统
CN106557740A (zh) 一种遥感图像中油库目标的识别方法
CN110135446A (zh) 文本检测方法及计算机存储介质
CN111401415A (zh) 计算机视觉任务模型的训练方法、装置、设备和存储介质
CN111222530A (zh) 一种细粒度图像分类方法、系统、装置和存储介质
CN115100469A (zh) 一种基于分割算法的目标属性识别方法、训练方法和装置
Mancas Relative influence of bottom-up and top-down attention
CN114155363A (zh) 换流站车辆识别方法、装置、计算机设备和存储介质
CN110956157A (zh) 基于候选框选择的深度学习遥感影像目标检测方法及装置
CN117541546A (zh) 图像裁剪效果的确定方法和装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200710

WD01 Invention patent application deemed withdrawn after publication