CN111523586A - 一种基于噪声可知的全网络监督目标检测方法 - Google Patents

一种基于噪声可知的全网络监督目标检测方法 Download PDF

Info

Publication number
CN111523586A
CN111523586A CN202010300928.7A CN202010300928A CN111523586A CN 111523586 A CN111523586 A CN 111523586A CN 202010300928 A CN202010300928 A CN 202010300928A CN 111523586 A CN111523586 A CN 111523586A
Authority
CN
China
Prior art keywords
network
candidate region
noise
image
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010300928.7A
Other languages
English (en)
Other versions
CN111523586B (zh
Inventor
纪荣嵘
沈云航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN202010300928.7A priority Critical patent/CN111523586B/zh
Publication of CN111523586A publication Critical patent/CN111523586A/zh
Application granted granted Critical
Publication of CN111523586B publication Critical patent/CN111523586B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发涉及一种基于噪声可知的全网络监督目标检测方法,其明通过构建包含主干卷积神经网络、候选区域池化层、弱监督检测头部网络和残差检测头部网络的网络模型,使其形成双分支网络结构;并且通过空间敏感熵标准来估算网络图片标签的置信度,然后根据估算的置信度来使用不同分支来训练模型,从而有效分解噪声,提高目标检测的准确率,而且对于包含错误前景标签的图片训练集,本发明的包混淆策略也能够减低出现前景噪声标签的概率,从而降低训练数据的标注成本,提高了数据的利用率。

Description

一种基于噪声可知的全网络监督目标检测方法
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于噪声可知的全网络监督目标检测方法。
背景技术
目标检测的任务是找出图像或视频中的感兴趣物体,同时检测出它们的位置和大小,是机器视觉领域的核心问题之一。物体检测过程中有很多不确定因素,如图像中物体数量不确定,物体有不同的外观、形状、姿态,加之物体成像时会有光照、遮挡等因素的干扰,导致检测算法有一定的难度。近些年随着深度学习技术的火热发展,目标检测算法也从基于手工特征的传统算法转向了基于深度神经网络的检测技术。从最初的R-CNN、OverFeat,到Fast/Faster R-CNN,SSD,YOLO系列,再到最近的PeleeNet和ThunderNet。基于深度学习的目标检测技术,在网络结构上,从Two Stage到One Stage模型,从Bottom-up到Top-Down模型,从Single Scale Network到Feature Pyramid Network,从面向服务器端到面向手机端,都涌现出许多好的算法技术,这些算法在开放目标检测数据集上的检测效果和性能都很出色。
在深度学习时代,强监督的深度学习模型在视觉场景理解中虽然拥有很好的效果,但依赖于大量的标准数据,然而数据本身的标注成本是极高的。比如在PASCAL VOC数据集中,需要十余名工人来标注27374个边界框,而对于ImageNet甚至需要25000名人员对上千万张数据进行标注。精确的目标级标注需要较为昂贵的人力成本,并且训练准确的目标检测模型需要巨大的数据量。如何利用低成本的图像标注取得良好的检测结果成为了当下研究的热点,因此研究者开始研究基于弱监督学习的目标检测算法。同时,我们可以从互联网轻松获取海量粗标注的图片,如利用Flickr的标签。因此,研究如何使用网络数据,即仅提供带噪声图片类别标注,训练目标检测模型,具有重要的意义。
网络获取的数据集里的标签通常不会都是正确的,比如Flickr的标签,如果有人错误地把猫标记成狗,将会对训练结果造成不良的影响。如何提高检测算法对标签噪声的鲁棒性,提升检测器在噪声环境下的性能,减少因标签噪声对检测器所带来的负面影响,最大化发挥海量数据的价值。
发明内容
针对现有技术存在的问题,本发明的目的在于提供一种基于噪声可知的全网络监督目标检测方法,其可以提高目标检测的准确率。
为实现上述目的,本发明采用的技术方案是:
一种基于噪声可知的全网络监督目标检测方法,其包括
步骤1、构建全网络监督目标检测的网络模型;
所述网络模型包括主干卷积神经网络、候选区域池化层、弱监督检测头部网络和残差检测头部网络;所述主干卷积神经网络的输出端连接候选区域池化层的输入端;所述候选区域池化层的输出端连接弱监督检测头部网络和残差检测头部网络;
步骤2、网络模型训练;
步骤2.1、初始化主干卷积神经网络;
步骤2.2、给定类别,从图像分享网站上抓取图像数据作为图像训练集;
步骤2.3、从图像训练集中随机采样两张类别标签一样的训练图像;
步骤2.4、把训练图像输入模型,经主干卷积神经网络和候选区域池化层后获得候选区域特征图;
步骤2.5、候选区域特征图经弱监督检测网络前向传播获得预测结果yk;候选区域特征图经残差检测头部网络前向传播获得预测结果
Figure BDA0002453950650000035
步骤2.6、计算弱监督检测头部网络预测结果的空间敏感熵值;
(2)计算每个预测结果的熵:
Figure BDA0002453950650000031
(3)计算候选区域之间的Jaccard相似系数矩阵
Figure BDA0002453950650000032
Jij=IoU(pi,pj)
其中,IoU(pi,pj)表示候选区域pi和候选区域pj的交并比;
(6)计算熵的正则项:
Figure BDA0002453950650000033
其中,
Figure BDA0002453950650000034
表示Hadamard除法;
(7)计算加入空间信息修正后的熵:
Figure BDA0002453950650000041
其中,⊙表示Hadamard乘法;
(8)计算每个类别标签是背景噪声的置信度:
Figure BDA0002453950650000042
Figure BDA0002453950650000043
其中,pk表示第k个类别标签是背景噪声的置信度,tk表示第k个类别的标签,zk表示第k个类别可能存在的最大的熵。ln()表示底数为自然数,e的对数函数;
步骤2.7、根据空间敏感熵的值计算网络模型的最终损失;
(4)弱监督检测头部网络的损失函数为:
Figure BDA0002453950650000044
(5)残差检测头部网络的损失函数为:
Figure BDA0002453950650000045
(6)网络模型的最终损失函数为:
Figure BDA0002453950650000046
步骤2.8、基于交叉熵损失函数,使用随机梯度下降算法更新主干卷积神经网络的参数;
步骤2.9、重复步骤2.3-2.8直到交叉熵损失函数的结果不再降低;
步骤3、目标检测;
步骤3.1、输入一张图像到网络模型,经主干卷积神经网络和弱监督检测头部网络后得到预测结果yk
所述步骤2.3采样得到的训练图像通过包混淆策略生成两张新的训练图像,然后将新的训练图像输入网络模型中;包混淆策略具体为:
随机采样一张训练图像I1,根据采样图像I1的标签再次采样一张同标签的训练图像I2
随机从Dirichlet分布里采样混合率{λ1,λ2},生成两张新的训练图像:
Figure BDA0002453950650000051
Figure BDA0002453950650000052
所述步骤2.5中,弱监督检测头部网络对候选区域特征图的处理如下:
(1)候选区域特征图通过弱监督检测网络的两个全连接层获得R个候选区域{P1...PR}的特征{φ1...φR};
(2)候选区域特征{φ1...φR}分别通过两个支流:分类支流和检测支流,得到两个得分矩阵Xc,Xd∈RR×C,其中,R表示候选区域数目,C表示类别数目。
(3)对两个得分矩阵Xc、Xd在类别和候选区域维度上进行归一化处理:
Figure BDA0002453950650000061
Figure BDA0002453950650000062
(4)对归一化后的两个得分矩阵进行点积:xs=σ(xc)·σ(xd)
(5)为了获得图像层面的预测,对点积结果进行累加池化处理,得到预测结果:
Figure BDA0002453950650000063
其中,k表示第k个类别,yk为预测结果,
Figure BDA0002453950650000064
表示第r个候选区域的第k个类别的预测结果;
残差检测头部网络对候选区域特征图的处理如下:
(1)候选区域特征图经过残差检测头部网络的两个全连接层获得R个候选区域{P1...PR}的特征
Figure BDA0002453950650000065
(2)把弱监督检测头部网络的特征{φ1...φR}与残差检测头部网络的特征
Figure BDA0002453950650000066
相加,获得噪声候选区域特征
Figure BDA0002453950650000067
(3)将噪声候选区域特征
Figure BDA0002453950650000068
通过两个支流:分类支流和检测支流,得到两个得分矩阵
Figure BDA0002453950650000069
(4)对两个得分矩阵
Figure BDA00024539506500000610
在类别和候选区域维度上进行归一化处理:
Figure BDA0002453950650000071
Figure BDA0002453950650000072
(5)归一化后的得分矩阵进行点积:
Figure BDA0002453950650000073
(6)为了获得图像层面的预测,对点积结果进行累加池化处理,得到预测结果:
Figure BDA0002453950650000074
其中,k表示第k个类别,
Figure BDA0002453950650000075
为预测结果。
所述步骤3还包括:
步骤3.2、使用非极大值抑制算法过滤预测结果yk后,得到最终的预测结果。
采用上述方案后,本发明通过构建包含主干卷积神经网络、候选区域池化层、弱监督检测头部网络和残差检测头部网络的网络模型,使其形成双分支网络结构;并且通过空间敏感熵标准来估算网络图片标签的置信度,然后根据估算的置信度来使用不同分支来训练模型,从而有效分解噪声,提高目标检测的准确率,而且对于包含错误标签的图片训练集,本发明也能够有效分解噪声,从而降低训练数据的标注成本,提高了数据的利用率。
此外,本发明在训练过程中,采用包混淆测率对训练数据进行进一步处理,减低出现前景噪声标签的概率,进而降低前景噪声的负面影响,提高目标检测的准确率。
附图说明
图1为全网络监督目标检测的框架图;
图2为本发明的详细框架图;
图3为包混淆策略的效果图。
具体实施方式
本发明揭示了一种基于噪声可知的全网络监督目标检测方法,其包括以下步骤:
步骤1、构建全网络监督目标检测的网络模型;
所述网络模型包括主干卷积神经网络、候选区域池化层、弱监督检测头部网络和残差检测头部网络;所述主干卷积神经网络的输出端连接候选区域池化层的输入端;所述候选区域池化层的输出端连接弱监督检测头部网络和残差检测头部网络。
步骤2、网络模型训练;
步骤2.1、初始化主干卷积神经网络;
具体地,对于主干卷积神经网络的卷积层,使用MSRA初始化算法进行初始化;对于主干卷积神经网络的全连接层,使用Guassian初始化算法。
步骤2.2、给定类别,从图像分享网站上抓取图像数据作为图像训练集。
步骤2.3、从图像训练集中随机采样两张类别标签一样的训练图像,通过包混淆策略生成两张新的训练图像。
具体地,随机采样一张训练图像I1,根据采样图像I1的标签再次采样一张同标签的训练图像I2
随机从Dirichlet分布里采样混合率{λ12},生成两张新的训练图像:
Figure BDA0002453950650000091
Figure BDA0002453950650000092
步骤2.4、把生成的训练图像输入模型,经主干卷积神经网络和候选区域池化层后获得候选区域特征图。
步骤2.5、候选区域特征图经弱监督检测网络前向传播获得预测结果yk;候选区域特征图经残差检测头部网络前向传播获得预测结果
Figure BDA0002453950650000094
具体地,弱监督检测头部网络对候选区域特征图的处理如下:
(1)候选区域特征图通过弱监督检测网络的两个全连接层获得R个候选区域{P1…PR}的特征{φ1…φR};
(2)候选区域特征{φ1…φR}分别通过两个支流:分类支流和检测支流,得到两个得分矩阵Xc,Xd∈RR×C,其中,R表示候选区域数目,C表示类别数目。
(3)对两个得分矩阵Xc、Xd在类别和候选区域维度上进行归一化处理:
Figure BDA0002453950650000093
Figure BDA0002453950650000101
(4)对归一化后的两个得分矩阵进行点积:
xs=σ(xc)·σ(xd) (5)
(5)为了获得图像层面的预测,对点积结果进行累加池化处理,得到预测结果:
Figure BDA0002453950650000102
其中,k表示第k个类别,yk为预测结果,
Figure BDA0002453950650000103
表示第r个候选区域的第k个类别的预测结果。
残差检测头部网络对候选区域特征图的处理如下:
(1)候选区域特征图经过残差检测头部网络的两个全连接层获得R个候选区域{P1…PR}的特征
Figure BDA0002453950650000104
(2)把弱监督检测头部网络的特征{φ1…φR}与残差检测头部网络的特征
Figure BDA0002453950650000105
相加,获得噪声候选区域特征
Figure BDA0002453950650000106
Figure BDA0002453950650000107
(3)将噪声候选区域特征
Figure BDA0002453950650000108
通过两个支流:分类支流和检测支流,得到两个得分矩阵
Figure BDA0002453950650000109
(4)对两个得分矩阵
Figure BDA00024539506500001010
在类别和候选区域维度上进行归一化处理:
Figure BDA0002453950650000111
Figure BDA0002453950650000112
(5)归一化后的得分矩阵进行点积:
Figure BDA0002453950650000113
(6)为了获得图像层面的预测,对点积结果进行累加池化处理,得到预测结果:
Figure BDA0002453950650000114
其中,k表示第k个类别,
Figure BDA0002453950650000115
为预测结果。
步骤2.6、计算弱监督检测头部网络预测结果的空间敏感熵值;
(1)计算每个预测结果的熵:
Figure BDA0002453950650000116
(2)计算候选区域之间的Jaccard相似系数矩阵
Figure BDA0002453950650000117
Jij=IoU(pi,pj) (13)
其中,IoU(pi,pj)表示候选区域pi和候选区域pj的交并比;
(3)计算熵的正则项:
Figure BDA0002453950650000118
其中,
Figure BDA0002453950650000119
表示Hadamard除法;
(4)计算加入空间信息修正后的熵:
Figure BDA0002453950650000121
其中,⊙表示Hadamard乘法;
(5)计算每个类别标签是背景噪声的置信度:
Figure BDA0002453950650000122
Figure BDA0002453950650000123
其中,pk表示第k个类别标签是背景噪声的置信度,tk表示第k个类别的标签,zk表示第k个类别可能存在的最大的熵。ln()表示底数为自然数,e的对数函数;
步骤2.7、根据空间敏感熵的值计算网络模型的最终损失;
(1)弱监督检测头部网络的损失函数为:
Figure BDA0002453950650000124
(2)残差检测头部网络的损失函数为:
Figure BDA0002453950650000125
(3)网络模型的最终损失函数为:
Figure BDA0002453950650000126
步骤2.8、基于交叉熵损失函数,使用随机梯度下降算法更新主干卷积神经网络的参数。
步骤2.9、重复步骤2.3-2.8直到交叉熵损失函数的结果不再降低;
步骤3、目标检测;
步骤3.1、输入一张图像到网络模型,经主干卷积神经网络和弱监督检测头部网络后得到预测结果yk
步骤3.2、使用非极大值抑制算法过滤预测结果yk后,得到最终的预测结果。
本发明通过构建包含主干卷积神经网络、候选区域池化层、弱监督检测头部网络和残差检测头部网络的网络模型,使其形成双分支网络结构;并且通过空间敏感熵标准来估算网络图片标签的置信度,然后根据估算的置信度来使用不同分支来训练模型,从而有效分解噪声,提高目标检测的准确率,而且对于包含错误标签的图片训练集,本发明也能够有效分解噪声,从而降低训练数据的标注成本,提高了数据的利用率。
此外,本发明在训练过程中,采用包混淆测率对训练数据进行进一步处理,减低出现前景噪声标签的概率,进而降低前景噪声的负面影响,提高目标检测的准确率。
以上所述,仅是本发明实施例而已,并非对本发明的技术范围作任何限制,故凡是依据本发明的技术实质对以上实施例所作的任何细微修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (4)

1.一种基于噪声可知的全网络监督目标检测方法,其特征在于:包括
步骤1、构建全网络监督目标检测的网络模型;
所述网络模型包括主干卷积神经网络、候选区域池化层、弱监督检测头部网络和残差检测头部网络;所述主干卷积神经网络的输出端连接候选区域池化层的输入端;所述候选区域池化层的输出端连接弱监督检测头部网络和残差检测头部网络;
步骤2、网络模型训练;
步骤2.1、初始化主干卷积神经网络;
步骤2.2、给定类别,从图像分享网站上抓取图像数据作为图像训练集;
步骤2.3、从图像训练集中随机采样两张类别标签一样的训练图像;
步骤2.4、把训练图像输入模型,经主干卷积神经网络和候选区域池化层后获得候选区域特征图;
步骤2.5、候选区域特征图经弱监督检测网络前向传播获得预测结果yk;候选区域特征图经残差检测头部网络前向传播获得预测结果
Figure FDA0002453950640000012
步骤2.6、计算弱监督检测头部网络预测结果的空间敏感熵值;
(1)计算每个预测结果的熵:
Figure FDA0002453950640000011
(2)计算候选区域之间的Jaccard相似系数矩阵
Figure FDA0002453950640000021
Jij=IoU(pi,pj)
其中,IoU(pi,pj)表示候选区域pi和候选区域pj的交并比;
(3)计算熵的正则项:
Figure FDA0002453950640000022
其中,
Figure FDA0002453950640000023
表示Hadamard除法;
(4)计算加入空间信息修正后的熵:
Figure FDA0002453950640000024
其中,⊙表示Hadamard乘法;
(5)计算每个类别标签是背景噪声的置信度:
Figure FDA0002453950640000025
Figure FDA0002453950640000026
其中,pk表示第k个类别标签是背景噪声的置信度,tk表示第k个类别的标签,zk表示第k个类别可能存在的最大的熵,ln()表示底数为自然数,e的对数函数;
步骤2.7、根据空间敏感熵的值计算网络模型的最终损失;
(1)弱监督检测头部网络的损失函数为:
Figure FDA0002453950640000031
(2)残差检测头部网络的损失函数为:
Figure FDA0002453950640000032
(3)网络模型的最终损失函数为:
Figure FDA0002453950640000033
步骤2.8、基于交叉熵损失函数,使用随机梯度下降算法更新主干卷积神经网络的参数;
步骤2.9、重复步骤2.3-2.8直到交叉熵损失函数的结果不再降低;
步骤3、目标检测;
步骤3.1、输入一张图像到网络模型,经主干卷积神经网络和弱监督检测头部网络后得到预测结果yk
2.根据权利要求1所述的一种基于噪声可知的全网络监督目标检测方法,其特征在于:所述步骤2.3采样得到的训练图像通过包混淆策略生成两张新的训练图像,然后将新的训练图像输入网络模型中;包混淆策略具体为:
随机采样一张训练图像I1,根据采样图像I1的标签再次采样一张同标签的训练图像I2
随机从Dirichlet分布里采样混合率{λ1,λ2},生成两张新的训练图像:
Figure FDA0002453950640000041
Figure FDA0002453950640000042
3.根据权利要求1所述的一种基于噪声可知的全网络监督目标检测方法,其特征在于:所述步骤2.5中,弱监督检测头部网络对候选区域特征图的处理如下:
(1)候选区域特征图通过弱监督检测网络的两个全连接层获得R个候选区域{P1...PR}的特征{φ1...φR};
(2)候选区域特征{φ1...φR}分别通过两个支流:分类支流和检测支流,得到两个得分矩阵Xc,Xd∈RR×C,其中,R表示候选区域数目,C表示类别数目;
(3)对两个得分矩阵Xc、Xd在类别和候选区域维度上进行归一化处理:
Figure FDA0002453950640000043
Figure FDA0002453950640000044
(4)对归一化后的两个得分矩阵进行点积:xs=σ(xc)·σ(xd)
(5)为了获得图像层面的预测,对点积结果进行累加池化处理,得到预测结果:
Figure FDA0002453950640000045
其中,k表示第k个类别,yk为预测结果,
Figure FDA0002453950640000051
表示第r个候选区域的第k个类别的预测结果;
残差检测头部网络对候选区域特征图的处理如下:
(1)候选区域特征图经过残差检测头部网络的两个全连接层获得R个候选区域{P1...PR}的特征
Figure FDA0002453950640000052
(2)把弱监督检测头部网络的特征{φ1...φR}与残差检测头部网络的特征
Figure FDA0002453950640000053
相加,获得噪声候选区域特征
Figure FDA0002453950640000054
(3)将噪声候选区域特征
Figure FDA0002453950640000055
通过两个支流:分类支流和检测支流,得到两个得分矩阵
Figure FDA0002453950640000056
(4)对两个得分矩阵
Figure FDA0002453950640000057
在类别和候选区域维度上进行归一化处理:
Figure FDA0002453950640000058
Figure FDA0002453950640000059
(5)归一化后的得分矩阵进行点积:
Figure FDA00024539506400000510
(6)为了获得图像层面的预测,对点积结果进行累加池化处理,得到预测结果:
Figure FDA00024539506400000511
其中,k表示第k个类别,
Figure FDA00024539506400000512
为预测结果。
4.根据权利要求1所述的一种基于噪声可知的全网络监督目标检测方法,其特征在于:所述步骤3还包括:
步骤3.2、使用非极大值抑制算法过滤预测结果yk后,得到最终的预测结果。
CN202010300928.7A 2020-04-16 2020-04-16 一种基于噪声可知的全网络监督目标检测方法 Active CN111523586B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010300928.7A CN111523586B (zh) 2020-04-16 2020-04-16 一种基于噪声可知的全网络监督目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010300928.7A CN111523586B (zh) 2020-04-16 2020-04-16 一种基于噪声可知的全网络监督目标检测方法

Publications (2)

Publication Number Publication Date
CN111523586A true CN111523586A (zh) 2020-08-11
CN111523586B CN111523586B (zh) 2022-09-06

Family

ID=71901659

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010300928.7A Active CN111523586B (zh) 2020-04-16 2020-04-16 一种基于噪声可知的全网络监督目标检测方法

Country Status (1)

Country Link
CN (1) CN111523586B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112464868A (zh) * 2020-12-08 2021-03-09 清华大学深圳国际研究生院 一种基于ThunderNet的目标快速检测方法
CN113420707A (zh) * 2021-07-05 2021-09-21 神思电子技术股份有限公司 一种基于弱监督学习的视频目标检测方法
CN114638322A (zh) * 2022-05-20 2022-06-17 南京大学 开放场景下基于给定描述的全自动目标检测系统和方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107203781A (zh) * 2017-05-22 2017-09-26 浙江大学 一种基于显著性指导的端到端的弱监督目标检测方法
CN108062574A (zh) * 2017-12-31 2018-05-22 厦门大学 一种基于特定类别空间约束的弱监督目标检测方法
US20180144209A1 (en) * 2016-11-22 2018-05-24 Lunit Inc. Object recognition method and apparatus based on weakly supervised learning
CN108985385A (zh) * 2018-08-03 2018-12-11 厦门大学 基于生成对抗学习的快速弱监督目标检测方法
CN110348437A (zh) * 2019-06-27 2019-10-18 电子科技大学 一种基于弱监督学习与遮挡感知的目标检测方法
CN110349148A (zh) * 2019-07-11 2019-10-18 电子科技大学 一种基于弱监督学习的图像目标检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180144209A1 (en) * 2016-11-22 2018-05-24 Lunit Inc. Object recognition method and apparatus based on weakly supervised learning
CN107203781A (zh) * 2017-05-22 2017-09-26 浙江大学 一种基于显著性指导的端到端的弱监督目标检测方法
CN108062574A (zh) * 2017-12-31 2018-05-22 厦门大学 一种基于特定类别空间约束的弱监督目标检测方法
CN108985385A (zh) * 2018-08-03 2018-12-11 厦门大学 基于生成对抗学习的快速弱监督目标检测方法
CN110348437A (zh) * 2019-06-27 2019-10-18 电子科技大学 一种基于弱监督学习与遮挡感知的目标检测方法
CN110349148A (zh) * 2019-07-11 2019-10-18 电子科技大学 一种基于弱监督学习的图像目标检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
XINLEI CHEN ET AL.: "Webly Supervised Learning of Convolutional Networks", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 *
YUNHANG SHEN ET AL.: "Noise-Aware Fully Webly Supervised Object Detection", 《2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
周小龙 等: "弱监督学习下的目标检测算法综述", 《计算机科学》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112464868A (zh) * 2020-12-08 2021-03-09 清华大学深圳国际研究生院 一种基于ThunderNet的目标快速检测方法
CN113420707A (zh) * 2021-07-05 2021-09-21 神思电子技术股份有限公司 一种基于弱监督学习的视频目标检测方法
CN113420707B (zh) * 2021-07-05 2022-07-15 神思电子技术股份有限公司 一种基于弱监督学习的视频目标检测方法
CN114638322A (zh) * 2022-05-20 2022-06-17 南京大学 开放场景下基于给定描述的全自动目标检测系统和方法

Also Published As

Publication number Publication date
CN111523586B (zh) 2022-09-06

Similar Documents

Publication Publication Date Title
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN109919108B (zh) 基于深度哈希辅助网络的遥感图像快速目标检测方法
Wang et al. SaliencyGAN: Deep learning semisupervised salient object detection in the fog of IoT
CN110728209B (zh) 一种姿态识别方法、装置、电子设备及存储介质
CN111709909B (zh) 基于深度学习的通用印刷缺陷检测方法及其模型
CN111126360A (zh) 基于无监督联合多损失模型的跨域行人重识别方法
CN111753828B (zh) 一种基于深度卷积神经网络的自然场景水平文字检测方法
CN111523586B (zh) 一种基于噪声可知的全网络监督目标检测方法
CN109743642B (zh) 基于分层循环神经网络的视频摘要生成方法
CN113361542B (zh) 一种基于深度学习的局部特征提取方法
CN108229347A (zh) 用于人识别的拟吉布斯结构采样的深层置换的方法和装置
CN112395979A (zh) 基于图像的健康状态识别方法、装置、设备及存储介质
CN112364747B (zh) 一种有限样本下的目标检测方法
CN112364974B (zh) 一种基于激活函数改进的YOLOv3算法
CN113628059A (zh) 一种基于多层图注意力网络的关联用户识别方法及装置
CN111079847A (zh) 一种基于深度学习的遥感影像自动标注方法
CN116091946A (zh) 一种基于YOLOv5的无人机航拍图像目标检测方法
CN115775349A (zh) 基于多模态融合的假新闻检测方法和装置
CN113642602B (zh) 一种基于全局与局部标签关系的多标签图像分类方法
CN110991563A (zh) 一种基于特征融合的胶囊网络随机路由算法
CN112668662B (zh) 基于改进YOLOv3网络的野外山林环境目标检测方法
CN111144469A (zh) 基于多维关联时序分类神经网络的端到端多序列文本识别方法
TWI803243B (zh) 圖像擴增方法、電腦設備及儲存介質
CN116597177A (zh) 一种基于双分支并行深度交互协同的多源图像块匹配方法
CN107291813B (zh) 基于语义分割场景的示例搜索方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant