CN110533067A - 基于深度学习的边框回归的端到端弱监督目标检测方法 - Google Patents

基于深度学习的边框回归的端到端弱监督目标检测方法 Download PDF

Info

Publication number
CN110533067A
CN110533067A CN201910660518.0A CN201910660518A CN110533067A CN 110533067 A CN110533067 A CN 110533067A CN 201910660518 A CN201910660518 A CN 201910660518A CN 110533067 A CN110533067 A CN 110533067A
Authority
CN
China
Prior art keywords
frame
network
weakly supervised
model
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910660518.0A
Other languages
English (en)
Inventor
颜成钢
韩顾稳
徐俊
姚霆
梅涛
孙垚棋
张继勇
张勇东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201910660518.0A priority Critical patent/CN110533067A/zh
Publication of CN110533067A publication Critical patent/CN110533067A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的边框回归的端到端弱监督目标检测方法。本发明在弱监督卷积神经网络中,经过卷积层,选择性搜索的边框经过特征图进行金字塔池化层和两个全连接层后输出预测边框的特征向量,后面再接一个全连接层和类别上的softmax层;最后输出选择性搜索框中的对应每个物体类的预测分数;选择每个类的得分最高的框最为这个类的伪标注边框;利用每个类别的检测出的最高分数的边框作为伪标注边框对弱监督模型预测出的物体框进行回归,从而产生回归损失函数,回归损失函数和弱监督模型的分类以及定位损失函数共同组成新的损失函数监督弱监督检测模型。本发明减少了检测时间,提高了目标检测的效率。

Description

基于深度学习的边框回归的端到端弱监督目标检测方法
技术领域
本发明涉及深度学习目标检测以及人工智能领域,具体地说是一种基于深度学习的边框回归的端到端弱监督目标检测方法。
背景技术
目标检测是基于计算机视觉的基本问题,在医疗诊断,安防监控以及无人驾驶方面有着巨大的作用。同时随着机器学习的飞速发展,硬件领域也有了巨大的提升,近年来涌现了许多优秀的目标检测模型。然而目前的性能好的目标检测模型基本上都是含有包围框的精细标注图片作为目标检测监督的条件的全监督目标检测。这需要花费大量的人力物力,对图片进行精细的边框标注。但是边框的标注信息也有许多缺点。第一:大量的边框标注信息提高了目标检测的人力成本,第二:人为标注的边框信息存在误差和错误,这些误差和错误被作为监督条件来监督训练目标检测模型,会带来不准确的监督。
由于全监督目标检测需要花费大量的成本,以及会产生不必要的错误和误差,弱监督模型就被推广出来,由于弱监督模型的监督条件只有图片上物体的类别信息,而并没有边框信息,所以节省了大量的边框标注的成本。但是由于缺少边框信息作为监督条件,弱监督目标检测的性能要比全监督目标检测的性能低。
弱监督目标检测研究都是通过先训练一个弱监督卷积网络模型,由训练完成的弱监督目标检测模型生成伪标注边框,用伪标注边框来监督训练一个全监督的神经卷积网络模型。从而提高目标检测模型的精度。
然而这是一个两个步骤的卷积神经网络模型,不是端到端的一步的卷积神经网络。目标检测网络模型的第一个部分是:没有边框标注信息训练的弱监督模型。第二个部分是:利用第一部分的弱监督网络生成伪边框标注信息进而训练一个全监督网络模型。两个步骤的卷积神经网络模型,增加了目标检测的时间,降低了目标检测的效率。
发明内容
本发明所要解决的技术问题是:提出一种基于深度学习的边框回归的端到端弱监督目标检测方法,从而提高弱监督目标检测的精度,以及降低弱监督目标检测的时间,提升目标检测的效率。
针对上述实际情况,提出一种基于深度学习的边框回归的端到端弱监督目标检测方法,在弱监督卷积神经网络中,经过卷积层,选择性搜索的边框经过特征图进行金字塔池化层和两个全连接层后输出预测边框的特征向量,后面再接一个全连接层和类别上的softmax 层。最后输出选择性搜索框中的对应每个物体类的预测分数。选择每个类的得分最高的框最为这个类的伪标注边框。
利用每个类别的检测出的最高分数的边框作为伪标注边框对弱监督模型预测出的物体框进行回归,从而产生回归损失函数,回归损失函数和弱监督模型的分类以及定位损失函数共同组成新的损失函数监督弱监督检测模型。提高弱监督检测模型的精度,减少了弱监督检测的时间。具体包括以下步骤:
步骤(1)训练数据集的准备阶段;
在目标检测中,用PASCAL VOC 2007以及PASCAL VOC 2012数据集作为训练数据集,训练数据集中包括20种物体类别,PASCAL VOC 2007一共有9963张图片,其中有训练数据集5011张图片,测试数据集有4952张图片。PASCAL VOC 2012数据集一共有22531张图片,其中训练数据集11540张图片,测试数据集有10991张图片。
其中除了图片信息外还有每张图片含有的物体类别信息。
步骤(2)每张图片的特征图的获取以及网络模型结构;
弱监督卷积神经网络的模型结构:图片先经过卷积层得到卷积特征图Ⅰ,选择性搜索边框经过金字塔池化层得到每个选择性搜索框的卷积特征图Ⅱ,卷积特征图Ⅱ再经过两层全连接层得到选择性搜索框的特征向量,特征向量分别经过一个全连接层之后,一个在物体类别方向连接softmax层,一个在选择性搜索框的方向连接softmax层,两个特征向量进行数量积相乘,得到每个是选择性搜索框在每个类别上的得分。
步骤(3)实例分类器提炼网络:
为了提高弱监督网络模型的检测精度,步骤2中得到选择性搜索框的特征向量之后增加实例分类器提炼网络,网络由一个全连接层和物体类别方向的softmax层得到每个选择性搜索框的对应每个类别的分数矩阵。
同理为了提高弱监督网络模型的检测精度,步骤2中得到选择性搜索框的特征向量之后增加边框回归网络,边框回归网络由一个全连接层和物体类别方向的softmax层得到每个选择性搜索框的对应每个类别的预测框的参数矩阵。
如图2所示,采用同样的方法,分别得到三个实例分类器提炼网络和一个边框回归网络,四个网络相互迭代训练,上一个网络监督下一个网络的参数调节。
边框回归网络将选择性搜索的框分数最高的作为伪标注框,利用这个伪标注框训练弱监督检测器。进行再没有物体框标注的条件下对弱监督模型进行边框回归。
步骤(4)弱监督模型的损失函数的设置,分类器提炼网络的损失函数为交叉熵损失函数,入公式(1)所示。
φ是选择性搜索框的权重之和属于(0,1)之间。表示图像存在或者不存在物体C,当存在时等于1,不存在时等于0。C表示物体种类数目,数据集中有20个类。
分类器提炼网络的损失函数由三个损失函数组成,因为实例分类器网络有三条分支,每个分支损失函数相同,第K个网络的损失函数如公式(2)所示。
其中,表示第n个类的边框束的置信分数,表示第n个类的边框束的边界框的个数,表示第r个预测框的预测分数,表示第r个框属于第n个边框束,表示第r个框属于背景的概率。
边框回归网络的损失函数,为smooth_l1_loss损失函数。
步骤(5)迭代训练模型,得到模型结果。由上述步骤可以得到弱监督目标检测模型的训练结果,在训练的过程中我们经过迭代训练,训练20个epoch,每个epoch迭代一万张图片,每个epoch存储一个训练的模型,K个实例分类器提炼模型,其中第K个实例分类器提炼网络输出权重给第K+1个实例分类器提炼网络,监督第K+1个实例分类器网络进行训练。
步骤(6)测试弱监督目标检测器的模型结果,其中有两个重要的指标平均正确率:mAP与定位正确率CorLoc,其中mAP是对于测试集的目标检测精度,CorLoc是对于训练集的目标定位精度。我们的实验结果在弱监督目标检测模型上达到了端到端的mAP最好的性能和定位准确率CorLoc最好的性能。
本发明的有益效果:
本发明所述的方法是一个基于深度学习的边框回归的端到端弱监督目标检测方法,本方法是一个端到端的弱监督目标检测模型,而不是两个步骤的弱监督加全监督网络模型。提出了更简洁的网络结构,减少了检测时间,提高了目标检测的效率,本方法第一次加入了边框回归网络模型,在没有物体边框作监督的条件下,利用边框回归网络产生伪标注框进行边框回归,极大的提升了弱监督目标检测精度。
附图说明
图1为本发明的弱监督目标检测网络的实现步骤流程图
图2为本发明弱监督目标检测网络的网络结构示意图
具体实施方式
以下结合附图及实施例,对本发明进行进一步的详细说明。
本发明提出的一种基于深度学习的边框回归的端到端弱监督目标检测方法,通过引入伪标注框作为弱监督目标检测网络的监督条件,以此引入边框回归网络结构,从而将两个步骤的弱监督检测模型简化为一个端到端的网络模型结构,不仅简化了网络模型。减少了弱监督目标检测的时间,而且通过进入边框回归网络以及边框回归损失函数,增加了模型的检测精度。提升了弱监督目标检测网络的效率。弱监督目标检测网络的实现步骤流程图如图1所示。本发明所述方法包括以下步骤:
步骤(1)训练数据集的准备阶段,如图1所示。在目标检测中我们用的是PASCALVOC 2007以及PASCAL VOC 2012数据集作为我们的训练数据集,训练数据集中包括20种物体类别,PASCAL VOC 2007 一共有9963张图片,其中有训练数据集5011张图片,测试数据集有 4952张图片。PASCAL VOC 2012数据集一共有22531张图片,其中训练数据集11540张图片,测试数据集有10991张图片。其中除了图片信息外还有每张图片含有的物体类别信息。
步骤(2)每张图片的特征图的获取以及网络模型结构,弱监督卷积神经网络的模型结构是图片先经过卷积层得到卷积特征图,选择性搜索边框经过金字塔池化层得到每个选择性搜索框的卷积特征图,这些卷积特征图经过两层全连接层得到选择性搜索框的特征向量,特征向量分别经过一个全连接层之后,一个在物体类别方向连接 softmax层如图2弱监督目标检测网络的网络结构示意图所示,一个在选择性搜索框的方向连接softmax层,两个向量进行数量积相乘,得到每个是选择性搜索框在每个类别上的得分即图2中的框分数。
步骤(3)实例分类器提炼网络,为了提高弱监督网络模型的检测精度,步骤2中得到选择性搜索框的特征向量之后增加实例分类器提炼网络如图2所示,网络由一个全连接层和物体类别方向的 softmax层得到每个选择性搜索框的对应每个类别的分数矩阵。
采用同样的方法,分别得到三个实例分类器提炼网络和一个边框回归网络,每个网络相互迭代训练,上一个网络监督下一个网络的参数调节如图1中实例分类器网络所示有K层。
边框回归网络将选择性搜索的框分数最高的作为伪标注框如图2 所示,利用这个伪标注框训练弱监督检测器。进行在没有物体框标注的条件下对弱监督模型进行边框回归,产生边框回归网络损失函数如图1所示。
步骤(4)弱监督模型的损失函数的设置,多实例检测网络的损失函数为交叉熵损失函数,如公式(1)所示。
φ是选择性搜索框的权重之和属于(0,1)之间。表示图像存在或者不存在物体C,当存在时等于1,不存在时等于0。C表示物体种类数目,数据集中有20个类。
实例分类器网络损失函数由三个损失函数组成,因为实力分类器网络有三条分支,每个分支损失函数相同,第K个网络的损失函数如公式(2)所示。
表示第n个类的边框束的置信分数,表示第n个类的边框束的边界框的个数,表示第r个预测框的预测分数,表示第r个框属于第n个边框束,表示第r个框属于背景的概率。
边框回归网络的损失函数,为smooth_l1_loss损失函数。
步骤(5)迭代训练模型,得到模型结果。由上述步骤可以得到弱监督目标检测模型的训练结果,在训练的过程中我们经过迭代训练,训练20个epoch,每个epoch迭代一万张图片,每个epoch存储一个训练的模型,K个实例分类器提炼模型,其中第K个实例分类器提炼网络输出权重给第K+1个实例分类器提炼网络,监督第K+1个实例分类器网络进行训练如图2所示。
步骤(6)测试弱监督目标检测器的模型结果,其中有两个重要的指标平均正确率:mAP,与定位正确率:CorLoc,其中mAP是对于测试集的目标检测精度,CorLoc是对于训练集的目标定位精度,我们的实验结果在弱监督目标检测模型上达到了端到端的mAP最好的性能和定位准确率CorLoc最好的性能。

Claims (2)

1.基于深度学习的边框回归的端到端弱监督目标检测方法,其特征在于在弱监督卷积神经网络中,经过卷积层,选择性搜索的边框经过特征图进行金字塔池化层和两个全连接层后输出预测边框的特征向量,后面再接一个全连接层和类别上的softmax层;最后输出选择性搜索框中的对应每个物体类的预测分数;选择每个类的得分最高的框最为这个类的伪标注边框;利用每个类别的检测出的最高分数的边框作为伪标注边框对弱监督模型预测出的物体框进行回归,从而产生回归损失函数,回归损失函数和弱监督模型的分类以及定位损失函数共同组成新的损失函数监督弱监督检测模型。
2.根据权利要求1所述的基于深度学习的边框回归的端到端弱监督目标检测方法,其特征在于具体包括以下步骤:
步骤(1)训练数据集的准备阶段;
在目标检测中,用PASCAL VOC 2007以及PASCAL VOC 2012数据集作为训练数据集,训练数据集中包括20种物体类别,PASCAL VOC 2007一共有9963张图片,其中有训练数据集5011张图片,测试数据集有4952张图片;PASCAL VOC 2012数据集一共有22531张图片,其中训练数据集11540张图片,测试数据集有10991张图片;
其中除了图片信息外还有每张图片含有的物体类别信息;
步骤(2)每张图片的特征图的获取以及网络模型结构;
弱监督卷积神经网络的模型结构:图片先经过卷积层得到卷积特征图Ⅰ,选择性搜索边框经过金字塔池化层得到每个选择性搜索框的卷积特征图Ⅱ,卷积特征图Ⅱ再经过两层全连接层得到选择性搜索框的特征向量,特征向量分别经过一个全连接层之后,一个在物体类别方向连接softmax层,一个在选择性搜索框的方向连接softmax层,两个特征向量进行数量积相乘,得到每个是选择性搜索框在每个类别上的得分;
步骤(3)实例分类器提炼网络:
①得到选择性搜索框的特征向量之后增加实例分类器提炼网络,网络由一个全连接层和物体类别方向的softmax层得到每个选择性搜索框的对应每个类别的分数矩阵;
②同理在得到选择性搜索框的特征向量之后增加边框回归网络,边框回归网络由一个全连接层和物体类别方向的softmax层得到每个选择性搜索框的对应每个类别的预测框的参数矩阵;
③用同样的方法,分别得到三个实例分类器提炼网络和一个边框回归网络,四个网络相互迭代训练,上一个网络监督下一个网络的参数调节;
边框回归网络将选择性搜索的框分数最高的作为伪标注框,利用这个伪标注框训练弱监督检测器;进行再没有物体框标注的条件下对弱监督模型进行边框回归;
步骤(4)弱监督模型的损失函数的设置,分类器提炼网络的损失函数为交叉熵损失函数,入公式(1)所示;
φ是选择性搜索框的权重之和属于(0,1)之间;表示图像存在或者不存在物体C,当存在时等于1,不存在时等于0;C表示物体种类数目,数据集中有20个类;
分类器提炼网络的损失函数由三个损失函数组成,因为实例分类器网络有三条分支,每个分支损失函数相同,第K个网络的损失函数如公式(2)所示;
其中,表示第n个类的边框束的置信分数,表示第n个类的边框束的边界框的个数,表示第r个预测框的预测分数,表示第r个框属于第n个边框束,表示第r个框属于背景的概率;
边框回归网络的损失函数,为smooth_l1_loss损失函数;
步骤(5)迭代训练模型,得到模型结果;由上述步骤可以得到弱监督目标检测模型的训练结果,在训练的过程中我们经过迭代训练,训练20个epoch,每个epoch迭代一万张图片,每个epoch存储一个训练的模型,K个实例分类器提炼模型,其中第K个实例分类器提炼网络输出权重给第K+1个实例分类器提炼网络,监督第K+1个实例分类器网络进行训练;
步骤(6)测试弱监督目标检测器的模型结果,其中有两个重要的指标平均正确率:mAP与定位正确率CorLoc,其中mAP是对于测试集的目标检测精度,CorLoc是对于训练集的目标定位精度;实验结果在弱监督目标检测模型上达到了端到端的mAP最好的性能和定位准确率CorLoc最好的性能。
CN201910660518.0A 2019-07-22 2019-07-22 基于深度学习的边框回归的端到端弱监督目标检测方法 Pending CN110533067A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910660518.0A CN110533067A (zh) 2019-07-22 2019-07-22 基于深度学习的边框回归的端到端弱监督目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910660518.0A CN110533067A (zh) 2019-07-22 2019-07-22 基于深度学习的边框回归的端到端弱监督目标检测方法

Publications (1)

Publication Number Publication Date
CN110533067A true CN110533067A (zh) 2019-12-03

Family

ID=68660718

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910660518.0A Pending CN110533067A (zh) 2019-07-22 2019-07-22 基于深度学习的边框回归的端到端弱监督目标检测方法

Country Status (1)

Country Link
CN (1) CN110533067A (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111191732A (zh) * 2020-01-03 2020-05-22 天津大学 一种基于全自动学习的目标检测方法
CN111523585A (zh) * 2020-04-16 2020-08-11 厦门大学 一种基于改进深度残差网络的弱监督目标检测方法
CN111553238A (zh) * 2020-04-23 2020-08-18 北京大学深圳研究生院 一种用于动作的时间轴定位的回归分类模块和方法
CN111612051A (zh) * 2020-04-30 2020-09-01 杭州电子科技大学 一种基于图卷积神经网络的弱监督目标检测方法
CN111914778A (zh) * 2020-08-07 2020-11-10 重庆大学 一种基于弱监督学习的视频行为定位方法
CN111931931A (zh) * 2020-09-29 2020-11-13 杭州迪英加科技有限公司 一种针对病理全场图像的深度神经网络训练方法、装置
CN112949630A (zh) * 2021-03-01 2021-06-11 北京交通大学 基于边框分级筛选的弱监督目标检测方法
CN113283467A (zh) * 2021-04-14 2021-08-20 南京大学 一种基于平均损失和逐类选择的弱监督图片分类方法
CN113343933A (zh) * 2021-07-06 2021-09-03 安徽水天信息科技有限公司 一种基于视频目标识别定位的机场场面监视方法
CN113743251A (zh) * 2021-08-17 2021-12-03 华中科技大学 一种基于弱监督场景的目标搜索方法及装置
CN114627437A (zh) * 2022-05-16 2022-06-14 科大天工智能装备技术(天津)有限公司 一种交通目标识别方法及系统
CN115080748A (zh) * 2022-08-16 2022-09-20 之江实验室 一种基于带噪标签学习的弱监督文本分类方法和装置
WO2022217434A1 (zh) * 2021-04-12 2022-10-20 华为技术有限公司 感知网络、感知网络的训练方法、物体识别方法及装置
CN116206201A (zh) * 2023-02-21 2023-06-02 北京理工大学 一种监督目标检测识别方法、装置、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106682696A (zh) * 2016-12-29 2017-05-17 华中科技大学 基于在线示例分类器精化的多示例检测网络及其训练方法
CN106682697A (zh) * 2016-12-29 2017-05-17 华中科技大学 一种基于卷积神经网络的端到端物体检测方法
CN107203781A (zh) * 2017-05-22 2017-09-26 浙江大学 一种基于显著性指导的端到端的弱监督目标检测方法
CN107209860A (zh) * 2015-01-22 2017-09-26 微软技术许可有限责任公司 使用分块特征来优化多类图像分类
CN108596030A (zh) * 2018-03-20 2018-09-28 杭州电子科技大学 基于Faster R-CNN的声呐目标检测方法
CN108764292A (zh) * 2018-04-27 2018-11-06 北京大学 基于弱监督信息的深度学习图像目标映射及定位方法
CN108985385A (zh) * 2018-08-03 2018-12-11 厦门大学 基于生成对抗学习的快速弱监督目标检测方法
CN109543754A (zh) * 2018-11-23 2019-03-29 中山大学 基于端对端深度学习的目标检测与语义分割的并行方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107209860A (zh) * 2015-01-22 2017-09-26 微软技术许可有限责任公司 使用分块特征来优化多类图像分类
CN106682696A (zh) * 2016-12-29 2017-05-17 华中科技大学 基于在线示例分类器精化的多示例检测网络及其训练方法
CN106682697A (zh) * 2016-12-29 2017-05-17 华中科技大学 一种基于卷积神经网络的端到端物体检测方法
CN107203781A (zh) * 2017-05-22 2017-09-26 浙江大学 一种基于显著性指导的端到端的弱监督目标检测方法
CN108596030A (zh) * 2018-03-20 2018-09-28 杭州电子科技大学 基于Faster R-CNN的声呐目标检测方法
CN108764292A (zh) * 2018-04-27 2018-11-06 北京大学 基于弱监督信息的深度学习图像目标映射及定位方法
CN108985385A (zh) * 2018-08-03 2018-12-11 厦门大学 基于生成对抗学习的快速弱监督目标检测方法
CN109543754A (zh) * 2018-11-23 2019-03-29 中山大学 基于端对端深度学习的目标检测与语义分割的并行方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
何克磊 等: ""一种基于原型学习的多示例卷积神经网络"", 《计算机学报》 *
周明非 等: ""弱监督深层神经网络遥感图像目标检测模型"", 《中国科学》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111191732A (zh) * 2020-01-03 2020-05-22 天津大学 一种基于全自动学习的目标检测方法
CN111191732B (zh) * 2020-01-03 2021-05-14 天津大学 一种基于全自动学习的目标检测方法
CN111523585A (zh) * 2020-04-16 2020-08-11 厦门大学 一种基于改进深度残差网络的弱监督目标检测方法
CN111523585B (zh) * 2020-04-16 2022-05-31 厦门大学 一种基于改进深度残差网络的弱监督目标检测方法
CN111553238A (zh) * 2020-04-23 2020-08-18 北京大学深圳研究生院 一种用于动作的时间轴定位的回归分类模块和方法
CN111612051A (zh) * 2020-04-30 2020-09-01 杭州电子科技大学 一种基于图卷积神经网络的弱监督目标检测方法
CN111612051B (zh) * 2020-04-30 2023-06-20 杭州电子科技大学 一种基于图卷积神经网络的弱监督目标检测方法
CN111914778B (zh) * 2020-08-07 2023-12-26 重庆大学 一种基于弱监督学习的视频行为定位方法
CN111914778A (zh) * 2020-08-07 2020-11-10 重庆大学 一种基于弱监督学习的视频行为定位方法
CN111931931B (zh) * 2020-09-29 2021-03-30 杭州迪英加科技有限公司 一种针对病理全场图像的深度神经网络训练方法、装置
CN111931931A (zh) * 2020-09-29 2020-11-13 杭州迪英加科技有限公司 一种针对病理全场图像的深度神经网络训练方法、装置
CN112949630B (zh) * 2021-03-01 2024-03-19 北京交通大学 基于边框分级筛选的弱监督目标检测方法
CN112949630A (zh) * 2021-03-01 2021-06-11 北京交通大学 基于边框分级筛选的弱监督目标检测方法
WO2022217434A1 (zh) * 2021-04-12 2022-10-20 华为技术有限公司 感知网络、感知网络的训练方法、物体识别方法及装置
CN113283467A (zh) * 2021-04-14 2021-08-20 南京大学 一种基于平均损失和逐类选择的弱监督图片分类方法
CN113343933A (zh) * 2021-07-06 2021-09-03 安徽水天信息科技有限公司 一种基于视频目标识别定位的机场场面监视方法
CN113743251A (zh) * 2021-08-17 2021-12-03 华中科技大学 一种基于弱监督场景的目标搜索方法及装置
CN113743251B (zh) * 2021-08-17 2024-02-13 华中科技大学 一种基于弱监督场景的目标搜索方法及装置
CN114627437A (zh) * 2022-05-16 2022-06-14 科大天工智能装备技术(天津)有限公司 一种交通目标识别方法及系统
CN115080748A (zh) * 2022-08-16 2022-09-20 之江实验室 一种基于带噪标签学习的弱监督文本分类方法和装置
CN115080748B (zh) * 2022-08-16 2022-11-11 之江实验室 一种基于带噪标签学习的弱监督文本分类方法和装置
CN116206201A (zh) * 2023-02-21 2023-06-02 北京理工大学 一种监督目标检测识别方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN110533067A (zh) 基于深度学习的边框回归的端到端弱监督目标检测方法
CN106897738B (zh) 一种基于半监督学习的行人检测方法
CN109977918A (zh) 一种基于无监督域适应的目标检测定位优化方法
CN109325395A (zh) 图像的识别方法、卷积神经网络模型的训练方法及装置
CN110334573B (zh) 一种基于密集连接卷积神经网络的人体运动状态判别方法
CN106845401A (zh) 一种基于多空间卷积神经网络的害虫图像识别方法
CN110443969A (zh) 一种火点检测方法、装置、电子设备及存储介质
CN113920474B (zh) 一种智能监管柑橘种植态势的物联网系统及方法
CN114842208B (zh) 一种基于深度学习的电网危害鸟种目标检测方法
CN112926405A (zh) 一种安全帽佩戴检测方法、系统、设备及存储介质
CN114049477B (zh) 一种过鱼鱼道系统、鱼类数量和种类的动态识别跟踪方法
CN110084165A (zh) 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法
CN116229380B (zh) 一种变电站涉鸟故障相关鸟种识别方法
CN110245754A (zh) 一种基于位置敏感图的知识蒸馏方法
CN113723312B (zh) 基于视觉transformer的水稻病害识别方法
CN111612051A (zh) 一种基于图卷积神经网络的弱监督目标检测方法
Herman et al. Oil palm fruit image ripeness classification with computer vision using deep learning and visual attention
Herman et al. Deep learning for oil palm fruit ripeness classification with DenseNet
CN111652835A (zh) 基于深度学习与聚类的输电线路绝缘子缺失的检测方法
CN112836105B (zh) 一种基于运动生理表征融合的大规模学生有氧能力分群方法
CN110276445A (zh) 基于Inception卷积模块的国内交通标志分类方法
CN110348492A (zh) 一种基于上下文信息及多特征融合的相关滤波目标跟踪方法
CN114846998A (zh) 基于YOLOv4算法的双目机器人的番茄采摘方法及系统
CN114708610A (zh) 一种融合注意力机制的非机动车违规行为检测方法
Zhang et al. Multi-class detection of cherry tomatoes using improved Yolov4-tiny model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191203

RJ01 Rejection of invention patent application after publication