CN113838130B - 一种基于特征扩展性学习的弱监督目标定位方法 - Google Patents
一种基于特征扩展性学习的弱监督目标定位方法 Download PDFInfo
- Publication number
- CN113838130B CN113838130B CN202111004064.5A CN202111004064A CN113838130B CN 113838130 B CN113838130 B CN 113838130B CN 202111004064 A CN202111004064 A CN 202111004064A CN 113838130 B CN113838130 B CN 113838130B
- Authority
- CN
- China
- Prior art keywords
- feature
- neural network
- picture
- detected
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
一种基于特征扩展性学习的弱监督目标定位方法,涉及计算机图像视觉处理。提供基于弱监督的训练方式以低成本的图像标注,以仅有的弱标签信息获取更好的特征,达到比较好的训练结果的一种基于特征扩展性学习的弱监督目标定位方法。包括如下步骤:1)对待检测的图片进行预处理,然后将预处理后待检测的图片及其对应的图片级别的标签送入神经网络;2)神经网络对图片进行处理,在训练过程中输出待检测图片对应每一个类别的概率数值,在测试过程中输出待检测图片预测的框的坐标、类别、得分。通过擦除来促进整体目标定位,并通过最大凸显学习来提高分类性能的准确性;将从多个平行定位头中学习到的目标区域动态地与接收场的有向扩展相结合。
Description
技术领域
本发明涉及计算机图像视觉处理,尤其是涉及特征拓展和多方向特征融合的一种基于特征扩展性学习的弱监督目标定位方法。
背景技术
近年来,随着计算机性能的提升和大数据的发展,视觉信息数据迅猛增多,包括静态图像、动态图像、视频文件、音频文件等多媒体数据都以很快的速度在各种社交媒体上传播。目标检测作为计算机视觉领域最基本的问题之一,被广泛应用于目标跟踪、行为理解、人机交互、人脸识别等诸多领域,在20世纪初就吸引众多学者的广泛关注和研究。人类主要是通过视觉来接收外界信息,所以基于视觉信息的应用技术将是人工智能的一个前瞻性研究点;其中,人脸识别、视频监控、目标检测、互联网图像内容审查、生物特征识别等技术都成为当今的研究热点。这些技术也被广泛应用于医疗、养老、交通、城市运行、安防等领域,例如医学图像诊断、姿态估计、车站安检、自动驾驶、车速检测、视频监控行为分析等。
目标定位是计算机视觉和机器学习中极其重要的一个研究领域,融合图像处理、模式识别、人工智能、自动控制等多个领域的前沿知识。目标定位通常只有一个较大的对象位于图片中间位置,对它进行识别和定位。随着视频网站和社交网络的发展,人们能够接触到大量的图像和视频等多媒体资源,目标定位也开始广泛应用于上述领域,如在社交网站中对图片进行人脸检测、在图像或者视频序列中进行行人检测、在交通监控中进行车辆检测和帮助有视觉障碍的人理解视觉内容等。
目标定位最近主要集中在对卷积神经网络(CNN)上进行研究,在检测器训练过程中该卷积神经网络使用具有实例级标签(即边界框标注)的大规模数据。然而,收集特定类别的边界框标注显然是一项费时费力的工作,这限制检测器的实际使用。与边界框标注相比,收集图像级别的标签容易很多;例如,通过查询图像搜索引擎(例如Google Image)或照片共享网站(例如Flickr),可以轻巧地手动检查收集的图像中是否存在目标对象。因此,弱监督目标定位(WSOL)任务,即仅以图像级别监督训练目标检测器最近引起越来越多的关注。
为利用图像标签进行定位,现有的WSOL方法大多采用CNN分类器挖掘目标类的定位图,形成定位头。然后生成预测的边界盒,以紧密覆盖高响应区域。不幸的是,仍然存在两个具有挑战性的问题,在WSOL和它的完全监督的对手之间形成一个显著的性能差距。首先,分类器往往忽略不显著的图像特征,过分依赖显著区域进行分类。而由于骨干网通常是通过图像分类预先训练的,学习成功的定位头是比较困难的。其次,定位头可能只捕捉目标物体的有鉴别性的部分,因为边界盒只在地图最有鉴别性的部分周围生成。上述连锁问题可能进一步相互影响;例如,给定一幅鸟的图像,即使是鸟的头部或羽毛也能提供足够的线索来达到较高的分类精度。以这幅图像为例,但是在头部或羽毛周围生成的盒子并不能对鸟类整体区域进行定位,导致定位效果较差。
为解决这种定位不完全的问题,之前的研究在训练过程中使用模型来捕捉物体的识别性较差的部分。HaS(Singh K K,Lee Y J.Hide-and-seek:Forcing a network to bemeticulous for weakly-supervised object and action localization[C]//2017IEEEinternational conference on computer vision(ICCV).IEEE,2017:3544-3553)和CutMix(Yun S,Han D,Oh S J,et al.Cutmix:Regularization strategy to trainstrong classifiers with localizable features[C]//Proceedings of the IEEEInternational Conference on Computer Vision.2019:6023-6032)随机选择要替换为零或其他图像中的图像块。类似地,ADL(Choe J,Shim H.Attention-based dropout layerfor weakly supervised object localization[C]//Proceedings of the IEEEConference on Computer Vision and Pattern Recognition.2019:2219-2228)随机滴下带有自我注意的中间特征图。然而,这些方法可以看作是一种数据增强,但由于随机选择策略带来不确定性,无法有效地消除鉴别部分。此外,擦除策略不能保证分类任务和定位任务之间的平衡。随着骨架的逐步学习,协变特征可能会降低分类性能。与擦除策略不同,Yang等人(Yang S,Kim Y,Kim Y,et al.Combinational Class Activation Maps for WeaklySupervised Object Localization[C]//The IEEE Winter Conference on Applicationsof Computer Vision.2020:2941-2949)线性组合的激活映射从概率最高的类到概率最低的类。但类概率较高的激活映射往往只捕捉局部区域的一部分,很难扩展到其他不显著的对象部分。
发明内容
本发明的目的在于提供基于弱监督的训练方式以低成本的图像标注,以仅有的弱标签信息获取更好的特征,达到比较好的训练结果的一种基于特征扩展性学习的弱监督目标定位方法。
本发明包括如下步骤:
1)对待检测的图片进行预处理,然后将预处理后待检测的图片及其对应的图片级别的标签送入神经网络;
2)神经网络对图片进行处理,在训练过程中输出待检测图片对应每一个类别的概率数值,在测试过程中输出待检测图片预测的框的坐标、类别、得分。
在步骤1)中,所述图片进行预处理,可先对图片进行标准化处理,再把图片缩放为256×256大小,最后随机裁剪为224×224大小;
所述神经网络主要包含三个部分:CNN主干特征提取网络、最大注意激发模块(MAE)和三联融合扩展模块(TFE)。
步骤2中,所述神经网络对图片进行处理具体包括如下步骤:
步骤a1,给定带有图像级别标签的数据集集合,将集合划分为训练图片样本集和测试图片样本集;
步骤a2,从训练图片样本集中任意选取图像I,将该图像I以及其对应的图像级别的标签y输入神经网络的主干网络,其中在第2、4、5层应用最大注意激发模块(MAE);
步骤a3,假设神经网络的第2层的输出特征为X,特征的形状为C×H×W,C为通道数量、H为特征图的高度、W为特征图的宽度;首先在通道数的维度上取平均值,得到As:
其中,i,j分别表示特征图的第i行和第j列;接着引入一个超参数ξ=0.5以获取空间平均注意特征Am:
然后,空间平均注意特征Am与输入的特征X相乘得到特征Xa,特征Xa再通过一个卷积核为1×1的卷积层得到特征Ae;最后,使用取最大操作得到MAE模块的最终输出特征
MAE模块的最终输出特征再作为输入,进入到神经网络的下一层;
步骤a4,重复步骤a3,在神经网络的第4、5层应用MAE模块;
步骤a5,当得到步骤a4的输出特征后,使用三联融合扩展模块(TFE)进行特征扩展融合,得到三个分类器的输出;
在步骤a5中,所述特征扩展融合分为训练阶段和测试阶段;所述训练阶段共三个分支,第一、三个分支分别插入一个卷积核为1×3和3×1的卷积层,之后特征经过GAP(全局池化层)进入分类器(Classifier);第二个分支直接为一个GAP进入分类器;三个分类器均由FC层和softamx层组成;所述测试阶段是将特征图从三个分支抽取并进行融合。
步骤a6,在训练阶段,将步骤a5所得三个分类器的输出相加作为网络的分类结果,然后将图像级别的标签和分类结果做交叉熵损失得到网络的损失,至此完成训练阶段;
步骤a7,在测试阶段,通过对步骤a5得到的融合特征进行分析,利用CAM中的方法来生成边界框。
本发明具有以下突出的优点:
第一,本发明提出的MAE模块利用“最大擦除”学习,显式擦除显著区域来激活不显著的图像特征。因此,MAE被设计用于通过擦除来促进整体目标定位,并通过最大凸显学习来提高分类性能的准确性;
第二,本发明将从多个平行定位头中学习到的目标区域动态地与接收场的有向扩展相结合。具体来说,除之前的WSOL模型中原有的定位头之外,TFE还引入额外的并行分支,分别用于在水平方向和垂直方向上处理识别性较差的物体部分。
附图说明
图1是本发明神经网络的网络结构示意图;
图2是本发明中TFE模块原理图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下实施例将结合附图对本发明进行作进一步的说明。应当理解,此处所描述的具体实施例仅仅用于解释本发明,并不用于限定本发明。相反,本发明涵盖任何由权利要求定义的在本发明的精髓和范围上做的替代、修改、等效方法以及方案。进一步,为了使公众对本发明有更好的了解,以下对本发明的细节描述中,详尽描述了一些特定的细节部分。对本领域技术人员来说没有这些细节部分的描述也可以完全理解本发明。
研究发现随机擦除鉴别目标部分不能有效地捕获目标的全部范围。本发明显式地激活不显著的图像特征,扩展不区分的物体部分,同时有效地提高分类精度。本发明提出一种新的“激发-扩展”网络,称为E2Net,用于在弱监督设置中发现所有感兴趣的对象,如图1所示。E2Net包括两个关键组件,即最大注意激发模块(MAE)和三联融合扩展模块(TFE)。该模块利用“最大移除”学习,方便整体目标定位,提高分类性能的准确性。此外,MAE的目标是通过显式地消除显式区域来从不显式图像特征中学习。TFE模块动态地将多个平行定位头获取的目标区域与接收场的有向扩展组合在一起,生成完整的目标定位。具体来说,在大多数WSOL模型中,除最初的定位头之外,TFE还引入额外的定向扩展分支,以分别在水平和垂直方向上对有区别的对象部分进行定位。
本发明提供一种基于特征扩展性学习的弱监督目标定位方法,包括如下步骤:
步骤1,将预处理后待检测的图片及其对应的候选框送入神经网络;在图片的预处理中,先对图片进行标准化处理,再把图片缩放为256×256大小,最后随机裁剪为224×224大小。
步骤2,神经网络对图片进行处理,在训练过程中输出待检测图片对应每一个类别的概率数值,在测试过程中输出待检测图片预测的框的坐标、类别、得分。
如图1所示,本发明中的神经网络主要包含三个部分:CNN主干特征提取网络,最大注意激发模块(MAE)和三联融合扩展模块(TFE)。
所述神经网络的训练方法包括如下步骤:
步骤a1,给定带有图像级别标签的数据集集合,将集合划分为训练图片样本集和测试图片样本集;
步骤a2,从训练图片样本集中任意选取图像I,将该图像I,以及其对应的图像级别的标签y输入神经网络的主干网络,其中在第2、4、5层应用最大注意激发模块(MAE);
步骤a3,以神经网络的第2层应用MAE为例,假设该层的输出特征为X,特征的形状为C×H×W,C为通道数量、H为特征图的高度、W为特征图的宽度。首先在通道数的维度上取平均值,得到特征图As:
其中,i,j分别表示特征图的第i行和第j列。接着引入一个超参数ξ=0.5以获取空间平均注意特征Am:
然后,空间平均注意特征Am与输入的特征X相乘得到特征Xa,特征Xa再通过一个卷积核为1×1的卷积层得到特征Ae。最后,使用取最大操作得到MAE模块的最终输出特征
特征再作为输入,进入到神经网络的下一层。
步骤a4,重复步骤a3,再在神经网络的第4、5层应用MAE模块。
步骤a5,当得到步骤a4的输出特征后,就使用本发明的三联融合扩展模块(TFE)进行特征扩展融合。训练阶段:如图2所示左边与图1的TFE部分相对应,一共有三个分支,第一、三个分支分别插入一个卷积核为1×3和3×1的卷积层,之后特征经过GAP(全局池化层)进入分类器(Classifier);第二个分支直接是一个GAP然后进入分类器。三个分类器均由FC层和softamx层组成。测试阶段:如图2所示右边,特征图从三个分支抽取并进行融合。
步骤a6,经过步骤a5,可以得到三个分类器的输出,再将三个输出相加作为网络的分类结果,最后将图像级别的标签和分类结果做交叉熵损失得到网络的损失。
步骤a7,在测试阶段,通过对步骤a5得到的融合特征进行分析,利用CAM中的方法来生成边界框。
本发明的效果通过以下仿真实验作进一步的说明。
1)仿真条件
本发明在Ubuntu平台上进行开发,开发的深度学习框架基于Tensorflow。本发明中主要用的语言为Python。
2)仿真内容
取CUB-200-2011以及ILSVRC 2012数据集,根据以上的步骤训练网络并且使用测试集进行测试。表1和表2分别为本发明和其他方法在两个数据集的分类结果,表3和表4分别为本发明和其他方法在两个数据集的定位结果。经过直观的数值比较,可以发现相比于其他的方法,本发明效果最佳。其中VGG16-E2Net(Ours)和ResNet50-E2Net(Ours)是本发明的结果,评价指标Top-1 err.表示的是Top-1错误率。本方法在CUB-200-2011数据集和ILSVRC 2012数据集上在分类性能上达到23.64%、17.83%的错误率,在定位性能上达到49.1%、34.9%的错误率,相比其他方法错误率更加的低,证明本发明分类和定位的更佳效果。
表1 表2
表3 表4
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (2)
1.一种基于特征扩展性学习的弱监督目标定位方法,其特征在于包括如下步骤:
1)对待检测的图片进行预处理,然后将预处理后待检测的图片及其对应的图片级别的标签送入神经网络;所述神经网络主要包含三个部分:CNN主干特征提取网络、最大注意激发模块MAE和三联融合扩展模块TFE;
2)神经网络对图片进行处理,在训练过程中输出待检测图片对应每一个类别的概率数值,在测试过程中输出待检测图片预测的框的坐标、类别、得分;
所述神经网络对图片进行处理具体包括如下步骤:
步骤a1,给定带有图像级别标签的数据集集合,将集合划分为训练图片样本集和测试图片样本集;
步骤a2,从训练图片样本集中任意选取图像I,将该图像I以及其对应的图像级别的标签y输入神经网络的主干网络,其中在输入神经网络第2、4、5层应用最大注意激发模块MAE;
步骤a3,最大注意激发模块MAE具体如下:假设神经网络的第2层的输出特征为X,特征的形状为C×H×W,C为通道数量、H为特征图的高度、W为特征图的宽度;首先在通道数的维度上取平均值,得到
其中,i,j分别表示特征图的第i行和第j列;接着引入一个超参数ξ=0.5以获取空间平均注意特征
然后,空间平均注意特征与输入的特征X相乘得到特征Xa,特征Xa再通过一个卷积核为1×1的卷积层得到特征Ae;最后,使用取最大操作得到MAE模块的最终输出特征/>
MAE模块的最终输出特征再作为输入,进入到神经网络的下一层;
步骤a4,重复步骤a3,在神经网络的第4、5层应用MAE模块;
步骤a5,当得到步骤a4的输出特征后,使用三联融合扩展模块TFE进行特征扩展融合,得到三个分类器的输出;
所述使用三联融合扩展模块TFE进行特征扩展融合为训练阶段和测试阶段;所述训练阶段共三个分支,第一、三个分支分别插入一个卷积核为1×3和3×1的卷积层,之后特征经过GAP全局池化层进入分类器Classifier;第二个分支直接为一个GAP进入分类器;三个分类器均由FC层和softamx层组成;所述测试阶段是将特征图从三个分支抽取并进行融合;
步骤a6,将步骤a5所得三个分类器的输出相加作为网络的分类结果,然后将图像级别的标签和分类结果做交叉熵损失得到网络的损失;
步骤a7,在测试阶段,通过对步骤a5得到的融合特征进行分析,利用CAM中的方法来生成边界框。
2.如权利要求1所述一种基于特征扩展性学习的弱监督目标定位方法,其特征在于在步骤1)中,所述图片进行预处理,先对图片进行标准化处理,再把图片缩放为256×256大小,最后随机裁剪为224×224大小。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111004064.5A CN113838130B (zh) | 2021-08-30 | 2021-08-30 | 一种基于特征扩展性学习的弱监督目标定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111004064.5A CN113838130B (zh) | 2021-08-30 | 2021-08-30 | 一种基于特征扩展性学习的弱监督目标定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113838130A CN113838130A (zh) | 2021-12-24 |
CN113838130B true CN113838130B (zh) | 2023-07-18 |
Family
ID=78961595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111004064.5A Active CN113838130B (zh) | 2021-08-30 | 2021-08-30 | 一种基于特征扩展性学习的弱监督目标定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113838130B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180025093A (ko) * | 2016-08-30 | 2018-03-08 | 주식회사 루닛 | 약한 지도 학습 기반의 기계 학습 방법 및 그 장치 |
CN108399406A (zh) * | 2018-01-15 | 2018-08-14 | 中山大学 | 基于深度学习的弱监督显著性物体检测的方法及系统 |
CN110569901A (zh) * | 2019-09-05 | 2019-12-13 | 北京工业大学 | 一种基于通道选择的对抗消除弱监督目标检测方法 |
CN110689081A (zh) * | 2019-09-30 | 2020-01-14 | 中国科学院大学 | 一种基于分歧学习的弱监督目标分类和定位方法 |
CN111967464A (zh) * | 2020-06-30 | 2020-11-20 | 西安电子科技大学 | 一种基于深度学习的弱监督目标定位方法 |
CN113159048A (zh) * | 2021-04-23 | 2021-07-23 | 杭州电子科技大学 | 一种基于深度学习的弱监督语义分割方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10824916B2 (en) * | 2018-09-10 | 2020-11-03 | Sri International | Weakly supervised learning for classifying images |
-
2021
- 2021-08-30 CN CN202111004064.5A patent/CN113838130B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180025093A (ko) * | 2016-08-30 | 2018-03-08 | 주식회사 루닛 | 약한 지도 학습 기반의 기계 학습 방법 및 그 장치 |
CN108399406A (zh) * | 2018-01-15 | 2018-08-14 | 中山大学 | 基于深度学习的弱监督显著性物体检测的方法及系统 |
CN110569901A (zh) * | 2019-09-05 | 2019-12-13 | 北京工业大学 | 一种基于通道选择的对抗消除弱监督目标检测方法 |
CN110689081A (zh) * | 2019-09-30 | 2020-01-14 | 中国科学院大学 | 一种基于分歧学习的弱监督目标分类和定位方法 |
CN111967464A (zh) * | 2020-06-30 | 2020-11-20 | 西安电子科技大学 | 一种基于深度学习的弱监督目标定位方法 |
CN113159048A (zh) * | 2021-04-23 | 2021-07-23 | 杭州电子科技大学 | 一种基于深度学习的弱监督语义分割方法 |
Non-Patent Citations (4)
Title |
---|
Learning deep features for discriminative localization;Bolei Zhou.et al;《IEEE》;全文 * |
Weakly supervised object localization using size estimates;Miaojing Shi.et al;《Arxiv》;全文 * |
基于卷积神经网络的弱监督目标定位及其应用;程卓;《中国优秀硕士学位论文全文数据库 信息科技辑》(第02期);全文 * |
基于显著图的弱监督实时目标检测;李阳等;自动化学报(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113838130A (zh) | 2021-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zeng et al. | Joint learning of saliency detection and weakly supervised semantic segmentation | |
Jeong et al. | Image preprocessing for efficient training of YOLO deep learning networks | |
CN110598554B (zh) | 基于对抗学习的多人姿态估计方法 | |
CN106897738B (zh) | 一种基于半监督学习的行人检测方法 | |
US20210326638A1 (en) | Video panoptic segmentation | |
Yang et al. | Tracking based multi-orientation scene text detection: A unified framework with dynamic programming | |
CN114648665B (zh) | 一种弱监督目标检测方法及系统 | |
CN108537119A (zh) | 一种小样本视频识别方法 | |
CN111027377B (zh) | 一种双流神经网络时序动作定位方法 | |
CN112766170B (zh) | 基于簇类无人机图像的自适应分割检测方法及装置 | |
Li et al. | Robust deep neural networks for road extraction from remote sensing images | |
CN113378675A (zh) | 一种同时检测和特征提取的人脸识别方法 | |
Zhao et al. | Cbph-net: A small object detector for behavior recognition in classroom scenarios | |
CN105303163A (zh) | 一种目标检测的方法及检测装置 | |
Xu et al. | Segment as points for efficient and effective online multi-object tracking and segmentation | |
Hammam et al. | Real-time multiple spatiotemporal action localization and prediction approach using deep learning | |
Dong et al. | Multi-scale discriminative location-aware network for few-shot semantic segmentation | |
Wang et al. | Detection and tracking based tubelet generation for video object detection | |
Yang et al. | Bottom-up foreground-aware feature fusion for practical person search | |
Cai et al. | Single shot multibox detector for honeybee detection | |
CN113838130B (zh) | 一种基于特征扩展性学习的弱监督目标定位方法 | |
CN112215252B (zh) | 一种基于在线难易样本挖掘的弱监督目标检测方法 | |
Song et al. | Text Siamese network for video textual keyframe detection | |
CN115588217A (zh) | 一种基于深度自注意网络的人脸属性检测方法 | |
Benitez | Ante-hoc generation of task-agnostic interpretation maps |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |