CN113095235B - 一种基于弱监督判别机制的图像目标检测方法、系统及装置 - Google Patents
一种基于弱监督判别机制的图像目标检测方法、系统及装置 Download PDFInfo
- Publication number
- CN113095235B CN113095235B CN202110405637.9A CN202110405637A CN113095235B CN 113095235 B CN113095235 B CN 113095235B CN 202110405637 A CN202110405637 A CN 202110405637A CN 113095235 B CN113095235 B CN 113095235B
- Authority
- CN
- China
- Prior art keywords
- network
- image
- target
- class
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 49
- 230000007246 mechanism Effects 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 44
- 238000000605 extraction Methods 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 19
- 238000013527 convolutional neural network Methods 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 4
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 230000000306 recurrent effect Effects 0.000 claims description 2
- 238000009432 framing Methods 0.000 claims 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 241000486463 Eugraphe sigma Species 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
一种基于弱监督判别机制的图像目标检测方法、系统及装置,涉及图像目标检测方法、系统及装置。为了解决现有的图像目标检测方法中同一类图片的数据少会导致分类不足问题,本发明所述方法利用目标检测网络模型对待检测的图像进行检测;首先将图像输入到特征提取网络提取特征;然后,将提取的特征送到CCN网络进行处理;所述CCN网络包括三个平行的卷积网络,三个平行的卷积网络分别记为网络A、网络B和网络C,每个卷积网络均包括4个卷积层、一个单级SPP层和一个FC层,FC层即全连接层;将网络A中FC层的输出传入到网络B的spp层,同时将网络B中FC层的输出传入到网络A的spp层;网络C的FC层之后设有一个1×1卷积层。主要用于图像目标的检测。
Description
技术领域
本发明涉及图像目标检测方法、系统及装置。
背景技术
在当今信息发达的网络时代,本发明每天会看到各种各样的图片,图像分类、目标检测、分割目前是计算机视觉领域的三大任务。高效快速地对所需要的信息图片目标进行检测将有利于本发明学习和工作的效率。图像分类任务关心整体,给出的是整张图片的内容描述,而检测则关注特定的物体目标,要求同时获得这一目标的类别信息和位置信息。相比分类,检测给出的是对图片前景和背景的理解,本发明需要从背景中分离出感兴趣的目标,并确定这一目标的描述(类别和位置),因此检测模型的输出是一个列表,列表的每一项使用一个数组给出检出目标的类别和位置(常用矩形检测框的坐标表示)。目标检测需要同时解决定位和识别的问题,传统的目标检测方法主要有基于候选区域的方法、基于端到端的方法等,这些方法一般分为三个步骤,首先利用不同尺寸的滑动窗口框住图中的某一部分作为候选区域,其次提取候选区域相关的视觉特征,比如人脸检测常用的Harr特征,行人检测和普通目标检测常用的HOG特征等,最后利用分类器进行识别。
但是这些方法存在着明显的缺点,需要大量的手动注释对象进行训练或微调,同时训练需要大量的数据集,然而通常情况下同一类图片的数据是比较稀少的,则会导致训练数据分类不足的问题。
发明内容
本发明是为了解决现有的图像目标检测方法中同一类图片的数据少会导致分类不足问题。
一种基于弱监督判别机制的图像目标检测方法,包括以下步骤:
针对于待检测的图像,利用目标检测网络模型进行检测;所述的目标检测网络模型处理过程包括以下步骤:
首先,将图像输入到特征提取网络提取特征;
然后,将提取的特征送到CCN网络进行处理;所述CCN网络包括三个平行的卷积网络,三个平行的卷积网络分别记为网络A、网络B和网络C,每个卷积网络均包括4个卷积层、一个单级SPP层和一个FC层,FC层即全连接层;
网络A和网络B的FC层激活函数分别采用sigmoid和softmax;将网络A中FC层的输出传入到网络B的spp层,同时将网络B中FC层的输出传入到网络A的spp层;网络C的FC层激活函数采用sigmoid激活方式,并且FC层之后设有一个1×1卷积层;对于网络C,第i个图像、第j类得分概率为目标总数为T;
进一步地,所述的目标检测网络模型是预先训练好的,训练过程包括以下步骤:
S1、将训练集中的图像输入到特征提取网络中提取图像特征;
S2、将提取的特征送到CCN网络进行处理;
S3、对于给定的图像,对图像目标进行边框框选,并进行目标边框细化,目标边框细化的具体包括以下步骤:
四一、首先给出图像候选目标,给定一个图像实例I(i),其候选目标标签为
Y′=[y1,...,yc,...,yC]T∈(0,1)C,c∈{1,...,C}
C为图像实例I(i)候选目标数量,yc表示某个候选目标的标签,Y′表示图像的标签;
四二、将整个候选目标进行边框框选,使用σ(yi,R)表示候选目标yi与附近区域R之间的相关性;
其中,S(yi)和S(R)分别表示yi和R的像素面积;
如果σ(yi,R)>λ,则将R划入对应目标框之中;对于目标yi,逐步扩大附近区域,直至相关性小于阈值λ,停止;最终得到候选目标yi边框区域IoU(i);
S4、根据步骤S2网络C得到的特征以及S3得到的目标边框进行目标聚类,具体过程包括以下步骤:
五一、在每次聚类之前,首先根据区域置信度阈值δout对目标进行过滤,不到δout的提案被直接否决;
五二、然后进行聚类,聚类过程包括两个主要阶段,即类间聚类和类内聚类:
五二一、对于类间聚类,随机给出聚类个数c,对每个类分别制作一组建议包围框Cj,Cj=max{IOU(i1),IOU(i2),...,IOU(ik)},k为该目标类目标个数;
给定图像中存在c个类,生成c类间簇,每个类间簇含具有相同类别和区域得分至少高于δscore的目标,然后利用目标边界框进行类内聚类;
五二二、对于每一次类间聚类,迭代执行类内聚类m次,在每次迭代中,对于每个类,区域最大的Cj对应的目标中心被设置为该类的质心,记为kj,j=1,2,...,c;计算所述图像上所有目标到每个类质心的距离,针对图像上每个目标,利用网络C的确定每个目标的特征,根据目标的特征进行如下计算:
其中,figp、表示目标p的中心、质心kj对应的目标特征;
然后将disj从小到大排序,确定目标p属于disj最小所对应的类;
完成一次类内聚类迭代之后,图像会新生成c个类,但是目标和对应的IoU(i)是不变的;在下一次类内聚类迭代中,将更新后区域最大的Cj对应的目标中心设置为质心,再次重复计算该图像上所有目标到每个类质心的距离dis;进行m次迭代,从而完成类内聚类;
五二三、更新δout并进行下一次类间聚类:创建一个用于保存特定类中实例集群的成员数集合Z,μZ和σZ分别表示Z的均值和标准差,将集合Z中的每个数据点z减去标准差得到o=z-σz;然后将o与均值行比较,如果o小于μZ,则将数据点z作为Y的成员,Y={z|z∈Z,o<μZ,o=z-σz};集合Y是一个用于存储实例集群的成员数集合;
然后,计算集合Y的均值μY和标准差δY;通过计算μY和δY的平均值来计算离群点阈值其中int表示取整;如果Y中的实例集群的成员数小于或等于δout,则将其视为离群点集群并被丢弃;
S5、利用训练集对模型进行训练。
进一步地,S5利用训练集对模型进行训练的过程中,使用二元交叉熵损失函数来训练网络A、B和C;整个网络的损失函数是网络A、B和C的损失函数之和。
进一步地,在将训练集中的图像输入到特征提取网络中提取图像特征之前,需要对特征提取网络进行预训练,对特征提取网络进行预训练的过程中,将训练集中的部分图像输入到CNN中预训练CNN。
进一步地,S3中对图像目标进行边框框选的过程是利用神经网络实现的。
进一步地,对图像目标进行边框框选使用的神经网络为循环神经网络RNN。
进一步地,所述的特征提取网络采用CNN网络;
进一步地,所述的特征提取网络采用VGG16;
一种基于弱监督判别机制的图像目标检测系统,所述系统用于执行一种基于弱监督判别机制的图像目标检测方法。
一种基于弱监督判别机制的图像目标检测装置,所述装置用于存储和/或运行一种基于弱监督判别机制的图像目标检测系统。
有益效果:
因此此本发明是基于弱监督判别机制进行图形目标表检测,可以有效解决训练数据分类不足的问题。弱监督学习是已知数据和其一一对应的弱标签,训练一个智能算法,将输入数据映射到一组更强的标签的过程。标签的强弱指的是标签蕴含的信息量的多少,比如相对于分割的标签来说,分类的标签就是弱标签,如果本发明知道一幅图,告诉你图上有物体,然后需要把物体在哪里,物体和背景的分界在哪里找出来,那么这就是一个已知若标签,去学习强标签的弱监督学习问题。利用本发明可以很好的解决现有的图像目标检测方法中同一类图片的数据少会导致分类不足问题,即使数据较少,本发明依然可以取得很好的分类效果。
附图说明
图1为目标检测网络模型网络结构示意图;
图2为目标检测网络模型网络训练的过程示意图。
具体实施方式
具体实施方式一:结合图1和图2说明本实施方式,
本实施方式为一种基于弱监督判别机制的图像目标检测方法,包括以下步骤:
步骤一、使用爬虫算法采集各种类型的图像数据,包括:单目标图像、多目标图像、各类专业领域图像等。
步骤二、图像预处理及模型初始化,具体包括以下步骤:
图像预处理过程中将图像处理为目标检测网络模型可以识别的格式类型;
目标检测网络模型初始化的过程包括以下步骤:
二一、将收集的部分图像(1/4)输入到CNN中,预训练CNN,这里的CNN可以采用任何预先训练好的CNN,作为特征提取网络提取特征;本实施方式中采用VGG16。
二二、预训练好CNN之后,将全部收集图像输入到CNN中提取图像特征;
步骤三、将提取的特征送到CCN网络进行处理;
如图1所示,所述CCN网络包括三个平行的卷积网络,三个平行的卷积网络分别记为网络A、网络B和网络C,每个卷积网络均包括4个卷积层、一个单级SPP层和一个FC层,FC层即全连接层;
网络A和网络B的FC层激活函数分别采用sigmoid和softmax;因此网络A和网络B学习到图像的特征是不一样的;将网络A中FC层的输出传入到网络B的spp层,同时将网络B中FC层的输出传入到网络A的spp层,这种方式可以使得网络A和B提取的特征更加充分;最后网络A、网络B的FC层输出到损失函数计算;
网络C的FC层激活函数采用sigmoid激活方式,并且FC层之后设有一个1×1卷积层,1×1卷积层接收FC层的输出后,可以保持信道数不变;对于网络C,第i个图像、第j类得分概率为目标总数为T;
网络C的输出与步骤四的目标边框用于后续的聚类;
步骤四、目标边框细化:
对于给定的图像,利用神经网络对图像目标进行边框框选,本实施方式循环神经网络RNN进行行边框框选;具体包括以下步骤:
四一、首先给出图像候选目标,给定一个图像实例I(i),其候选目标标签为
Y′=[y1,...,yc,...,yC]T∈(0,1)C,c∈{1,...,C}
C为图像实例I(i)候选目标数量,yc表示某个候选目标的标签,Y′表示图像的标签。
四二、将整个候选目标进行边框框选,为了利用目标附近区域中的有效信息,引入相关性系数的概念来描述候选目标与其附近区域之间的紧密性。本发明使用σ(yi,R)表示候选目标yi与附近区域R(候选目标边框外围的区域)之间的相关性;相关性系数σ(yi,R)如下:
其中S(yi)和S(R)分别表示yi和R的像素面积;
如果相关性大于给定阈值λ,即σ(yi,R)>λ,则将R划入对应目标框之中;对于目标yi,逐步扩大附近区域,直至相关性小于阈值λ,停止;最终得到候选目标yi边框区域IoU(i);这里的边框区域IoU并非现有技术中的交并比IoU。
步骤五、自然图像可能包含同一类别的许多实例,所以需要在给定的图像中对对象实例目标进行聚类;根据步骤三网络C得到的图像特征以及步骤四得到的目标边框进行目标聚类,具体过程包括以下步骤:
五一、在每次聚类之前,首先根据区域置信度阈值δout对目标进行过滤,不到δout的提案被直接否决;这种初始阈值的过滤可以有效地降低下一个聚类步骤的计算成本;第一次聚类时δout随机赋值,第二次之后的聚类δout使用更新值;
五二、然后进行聚类,聚类过程包括两个主要阶段,即类间聚类和类内聚类:
五二一、对于类间聚类,随机给出聚类个数c,对每个类分别制作一组建议包围框Cj,Cj=max{IOU(i1),IOU(i2),...,IOU(ik)},k为该目标类目标个数;
于是给定图像中存在c个类,则生成c类间簇,每个类间簇含具有相同类别和区域得分至少高于δscore的目标,然后利用目标边界框进行类内聚类;
实际上类间聚类执行n次迭代,每次迭代过程中迭代执行类内聚类;
五二二、对于每一次类间聚类,迭代执行类内聚类m次,取决于该特定类别的图像中呈现的实例数量。在每次迭代中,对于每个类,区域最大的Cj对应的目标中心被设置为该类的质心,记为kj,j=1,2,...,c;计算所述图像上所有目标到每个类质心的距离,针对图像上每个目标,利用网络C的确定每个目标的特征(网络C输出),根据目标的特征进行如下计算:
其中,figp、表示目标p的中心、质心kj对应的目标特征(网络C输出);
然后将disj从小到大排序,确定目标p属于disj最小所对应的类;
完成一次类内聚类迭代之后,图像会新生成c个类,但是目标和对应的IoU(i)是不变的;在下一次类内聚类迭代中,将更新后区域最大的Cj对应的目标中心设置为质心,再次重复计算该图像上所有目标到每个类质心的距离dis;进行m次迭代,从而完成类内聚类。
五二三、更新δout并进行下一次类间聚类:创建一个用于保存特定类中实例集群的成员数集合Z,μZ和σZ分别表示Z的均值和标准差,将集合Z中的每个数据点z减去标准差得到o=z-σz;然后将o与均值行比较,如果o小于μZ,则将数据点z作为Y的成员,Y={z|z∈Z,o<μZ,o=z-σz};集合Y是一个用于存储实例集群的成员数集合;
然后,计算集合Y的均值μY和标准差δY;通过计算μY和δY的平均值来计算离群点阈值其中int表示取整;如果Y中的实例集群的成员数小于或等于δout,则将其视为离群点集群并被丢弃;
循环迭代m次完成类间聚类,当完成了m次类间聚类时已经完成了nm次类内聚。
对整体模型进行训练,在训练过程中,使用二元交叉熵(BCE)损失函数来训练网络A、B和C:根据网络C可以得到第i个图像的预测向量pi=[pi1,...,pi2];在网络C中,本发明采用BCE损失函数作为训练分类分支,在检测分支中采用最小熵损失来学习具有最小随机性的区域;本实施方式中采用动量0.9和重量衰减5×10-4的SGD对目标检测器进行优化;以学习率10-3为前30次迭代,然后以学习率10-4为其余40次迭代。除了损失函数之外,所有三个网络A、B和C的整个训练设置都是相同的,因为它是一个端到端的网络。整个网络的损失函数定义如下:
LOSS=LA+LB+LC
其中,LOSS是模型整体的损失函数,LA、LB和LC分别是网络A、B和C的损失函数;在概率分布中,S是离散状态的数目,s是单个状态。
模型训练好之后,针对于待检测的图像,利用目标检测网络模型进行检测,最终完成图像目标的检测。
具体实施方式二:
本实施方式为一种基于弱监督判别机制的图像目标检测系统,所述系统用于执行所述的一种基于弱监督判别机制的图像目标检测方法。
具体实施方式三:
本实施方式为一种基于弱监督判别机制的图像目标检测装置,所述装置用于存储和/或运行一种基于弱监督判别机制的图像目标检测系统。
本实施方式所述系统包括但不限于存储介质、PC机、工作站、移动设备等。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (9)
1.一种基于弱监督判别机制的图像目标检测方法,其特征在于,包括以下步骤:
针对于待检测的图像,利用目标检测网络模型进行检测;所述的目标检测网络模型处理过程包括以下步骤:
首先,将图像输入到特征提取网络提取特征;
然后,将提取的特征送到CCN网络进行处理;所述CCN网络包括三个平行的卷积网络,三个平行的卷积网络分别记为网络A、网络B和网络C,每个卷积网络均包括4个卷积层、一个单级SPP层和一个FC层,FC层即全连接层;
网络A和网络B的FC层激活函数分别采用sigmoid和softmax;将网络A中FC层的输出传入到网络B的spp层,同时将网络B中FC层的输出传入到网络A的spp层;网络C的FC层激活函数采用sigmoid激活方式,并且FC层之后设有一个1×1卷积层;对于网络C,第i个图像、第j类得分概率为目标总数为T;
所述的目标检测网络模型是预先训练好的,训练过程包括以下步骤:
S1、将训练集中的图像输入到特征提取网络中提取图像特征;
S2、将提取的特征送到CCN网络进行处理;
S3、对于给定的图像,对图像目标进行边框框选,并进行目标边框细化,目标边框细化的具体包括以下步骤:
四一、首先给出图像候选目标,给定一个图像实例I(i),其候选目标标签为
Y′=[y1,...,yc,...,yC]T∈(0,1)C,c∈{1,...,C}
C为图像实例I(i)候选目标数量,yc表示某个候选目标的标签,Y′表示图像的标签;
四二、将整个候选目标进行边框框选,使用σ(yi,R)表示候选目标yi与附近区域R之间的相关性;
其中,S(yi)和S(R)分别表示yi和R的像素面积;
如果σ(yi,R)>λ,则将R划入对应目标框之中;对于目标yi,逐步扩大附近区域,直至相关性小于阈值λ,停止;最终得到候选目标yi边框区域IoU(i);
S4、根据步骤S2网络C得到的特征以及S3得到的目标边框进行目标聚类,具体过程包括以下步骤:
五一、在每次聚类之前,首先根据区域置信度阈值δout对目标进行过滤,不到δout的提案被直接否决;
五二、然后进行聚类,聚类过程包括两个主要阶段,即类间聚类和类内聚类:
五二一、对于类间聚类,随机给出聚类个数c,对每个类分别制作一组建议包围框Cj,Cj=max{IOU(i1),IOU(i2),...,IOU(ik)},k为该目标类目标个数;
给定图像中存在c个类,生成c类间簇,每个类间簇含具有相同类别和区域得分至少高于δscore的目标,然后利用目标边界框进行类内聚类;
五二二、对于每一次类间聚类,迭代执行类内聚类m次,在每次迭代中,对于每个类,区域最大的Cj对应的目标中心被设置为该类的质心,记为kj,j=1,2,...,c;计算所述图像上所有目标到每个类质心的距离,针对图像上每个目标,利用网络C的确定每个目标的特征,根据目标的特征进行如下计算:
其中,figp、figkj表示目标p的中心、质心kj对应的目标特征;
然后将disj从小到大排序,确定目标p属于disj最小所对应的类;
完成一次类内聚类迭代之后,图像会新生成c个类,但是目标和对应的IoU(i)是不变的;在下一次类内聚类迭代中,将更新后区域最大的Cj对应的目标中心设置为质心,再次重复计算该图像上所有目标到每个类质心的距离dis;进行m次迭代,从而完成类内聚类;
五二三、更新δout并进行下一次类间聚类:创建一个用于保存特定类中实例集群的成员数集合Z,μZ和σZ分别表示Z的均值和标准差,将集合Z中的每个数据点z减去标准差得到o=z-σz;然后将o与均值行比较,如果o小于μZ,则将数据点z作为Y的成员,Y={z|z∈Z,o<μZ,o=z-σz};集合Y是一个用于存储实例集群的成员数集合;
然后,计算集合Y的均值μY和标准差δY;通过计算μY和δY的平均值来计算离群点阈值其中int表示取整;如果Y中的实例集群的成员数小于或等于δout,则将其视为离群点集群并被丢弃;
S5、利用训练集对模型进行训练。
2.根据权利要求1所述的一种基于弱监督判别机制的图像目标检测方法,其特征在于,S5利用训练集对模型进行训练的过程中,使用二元交叉熵损失函数来训练网络A、B和C;整个网络的损失函数是网络A、B和C的损失函数之和。
3.根据权利要求2所述的一种基于弱监督判别机制的图像目标检测方法,其特征在于,在将训练集中的图像输入到特征提取网络中提取图像特征之前,需要对特征提取网络进行预训练,对特征提取网络进行预训练的过程中,将训练集中的部分图像输入到CNN中预训练CNN。
4.根据权利要求2所述的一种基于弱监督判别机制的图像目标检测方法,其特征在于,S3中对图像目标进行边框框选的过程是利用神经网络实现的。
5.根据权利要求4所述的一种基于弱监督判别机制的图像目标检测方法,其特征在于,对图像目标进行边框框选使用的神经网络为循环神经网络RNN。
6.根据权利要求1至5之一所述的一种基于弱监督判别机制的图像目标检测方法,其特征在于,所述的特征提取网络采用CNN网络。
7.根据权利要求6所述的一种基于弱监督判别机制的图像目标检测方法,其特征在于,所述的特征提取网络采用VGG16。
8.一种基于弱监督判别机制的图像目标检测系统,其特征在于,所述系统用于执行权利要求1至7之一所述的一种基于弱监督判别机制的图像目标检测方法。
9.一种基于弱监督判别机制的图像目标检测装置,其特征在于,所述装置用于存储和/或运行权利要求8所述的一种基于弱监督判别机制的图像目标检测系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110405637.9A CN113095235B (zh) | 2021-04-15 | 2021-04-15 | 一种基于弱监督判别机制的图像目标检测方法、系统及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110405637.9A CN113095235B (zh) | 2021-04-15 | 2021-04-15 | 一种基于弱监督判别机制的图像目标检测方法、系统及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113095235A CN113095235A (zh) | 2021-07-09 |
CN113095235B true CN113095235B (zh) | 2023-10-27 |
Family
ID=76677732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110405637.9A Active CN113095235B (zh) | 2021-04-15 | 2021-04-15 | 一种基于弱监督判别机制的图像目标检测方法、系统及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113095235B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114638322B (zh) * | 2022-05-20 | 2022-09-13 | 南京大学 | 开放场景下基于给定描述的全自动目标检测系统和方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109359684A (zh) * | 2018-10-17 | 2019-02-19 | 苏州大学 | 基于弱监督定位和子类别相似性度量的细粒度车型识别方法 |
CN110222704A (zh) * | 2019-06-12 | 2019-09-10 | 北京邮电大学 | 一种弱监督目标检测方法及装置 |
CN110569901A (zh) * | 2019-09-05 | 2019-12-13 | 北京工业大学 | 一种基于通道选择的对抗消除弱监督目标检测方法 |
CN111612051A (zh) * | 2020-04-30 | 2020-09-01 | 杭州电子科技大学 | 一种基于图卷积神经网络的弱监督目标检测方法 |
CN112183414A (zh) * | 2020-09-29 | 2021-01-05 | 南京信息工程大学 | 一种基于混合空洞卷积的弱监督遥感目标检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220172456A1 (en) * | 2019-03-08 | 2022-06-02 | Google Llc | Noise Tolerant Ensemble RCNN for Semi-Supervised Object Detection |
US11361470B2 (en) * | 2019-05-09 | 2022-06-14 | Sri International | Semantically-aware image-based visual localization |
-
2021
- 2021-04-15 CN CN202110405637.9A patent/CN113095235B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109359684A (zh) * | 2018-10-17 | 2019-02-19 | 苏州大学 | 基于弱监督定位和子类别相似性度量的细粒度车型识别方法 |
CN110222704A (zh) * | 2019-06-12 | 2019-09-10 | 北京邮电大学 | 一种弱监督目标检测方法及装置 |
CN110569901A (zh) * | 2019-09-05 | 2019-12-13 | 北京工业大学 | 一种基于通道选择的对抗消除弱监督目标检测方法 |
CN111612051A (zh) * | 2020-04-30 | 2020-09-01 | 杭州电子科技大学 | 一种基于图卷积神经网络的弱监督目标检测方法 |
CN112183414A (zh) * | 2020-09-29 | 2021-01-05 | 南京信息工程大学 | 一种基于混合空洞卷积的弱监督遥感目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113095235A (zh) | 2021-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Adarsh et al. | YOLO v3-Tiny: Object Detection and Recognition using one stage improved model | |
CN110728209B (zh) | 一种姿态识别方法、装置、电子设备及存储介质 | |
US20200130177A1 (en) | Systems and methods for few-shot transfer learning | |
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN111079674B (zh) | 一种基于全局和局部信息融合的目标检测方法 | |
CN111767882A (zh) | 一种基于改进yolo模型的多模态行人检测方法 | |
CN110321967B (zh) | 基于卷积神经网络的图像分类改进方法 | |
CN109002755B (zh) | 基于人脸图像的年龄估计模型构建方法及估计方法 | |
CN105138998B (zh) | 基于视角自适应子空间学习算法的行人重识别方法及系统 | |
CN105528575B (zh) | 基于上下文推理的天空检测方法 | |
CN106529499A (zh) | 基于傅里叶描述子和步态能量图融合特征的步态识别方法 | |
CN110008899B (zh) | 一种可见光遥感图像候选目标提取与分类方法 | |
CN116740384B (zh) | 洗地机的智能控制方法及系统 | |
Hussain et al. | A simple and efficient deep learning-based framework for automatic fruit recognition | |
CN116363738A (zh) | 一种基于多移动目标的人脸识别方法、系统及存储介质 | |
CN104598898B (zh) | 一种基于多任务拓扑学习的航拍图像快速识别系统及其快速识别方法 | |
CN111444816A (zh) | 一种基于Faster RCNN的多尺度密集行人检测方法 | |
Barodi et al. | An enhanced artificial intelligence-based approach applied to vehicular traffic signs detection and road safety enhancement | |
WO2020119624A1 (zh) | 一种基于深度学习的类别敏感型边缘检测方法 | |
CN110163206B (zh) | 车牌识别方法、系统、存储介质和装置 | |
CN113808123B (zh) | 一种基于机器视觉的药液袋动态检测方法 | |
CN115019133A (zh) | 基于自训练和标签抗噪的图像中弱目标的检测方法及系统 | |
CN113095235B (zh) | 一种基于弱监督判别机制的图像目标检测方法、系统及装置 | |
Yin | Object Detection Based on Deep Learning: A Brief Review | |
CN115410059B (zh) | 基于对比损失的遥感图像部分监督变化检测方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |