CN109886357B - 一种基于特征融合的自适应权重深度学习目标分类方法 - Google Patents
一种基于特征融合的自适应权重深度学习目标分类方法 Download PDFInfo
- Publication number
- CN109886357B CN109886357B CN201910189578.9A CN201910189578A CN109886357B CN 109886357 B CN109886357 B CN 109886357B CN 201910189578 A CN201910189578 A CN 201910189578A CN 109886357 B CN109886357 B CN 109886357B
- Authority
- CN
- China
- Prior art keywords
- convolution
- network
- feature
- hog
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供的是一种基于特征融合的自适应权重深度学习目标分类方法。目标粗检测;提取图像卷积特征和HOG特征,对HOG特征扩维处理;将SENet嵌入到Resnet网络框架,建立用于提取图像多特征权重的网络框架;计算卷积特征和HOG特征的自适应权重向量,制定特征融合策略,计算图像融合特征;建立基于精准二分类网络集的多目标分类框架。本发明将图像卷积特征与HOG特征融合,提取图像特征的自适应权重向量,设计深度学习网络构型和参数,构建精准的分类网络,该网络通过降低得分阈值来得到更多的候选框,提高目标检测的召回率;通过设计多个二分类网络,在多分类问题上具有更高的准确率。
Description
技术领域
本发明涉及的是一种深度学习目标分类方法,特别是一种基于特征融合的自适应权重深度学习目标分类方法,属于图像识别技术领域。
背景技术
目标分类技术在众多领域应用广泛,近些年,人工智能领域发展如火如荼,目标分类技术已成为人工智能领域不可或缺的技术基础,目标分类可以为视频监控、自动驾驶等提供重要的信息源,如通过目标分类,提供图像中是否存在行人、车辆以及建筑物等,可以说精准的目标分类技术是众多领域亟待解决的技术瓶颈。早期,人们往往采用手工设计的特征来提取图像信息开展目标分类工作,特征包括颜色特征、纹理特征、形状特征等,但是通过这些特征,对图像中目标识别的准确率较低,原因是这些传统特征并不能代表图像中目标的本质,因此只采用传统特征及图像识别技术并不能满足图像精准分类的要求。
随着深度学习技术的兴起和发展,深度学习为图像目标高识别率提供了新的解决方案,在很多领域都取得了惊人的成绩,与传统特征相比,深度学习中卷积神经网络所提取的卷积特征,更能代表目标本质,并且具有强大的鲁棒性,在进行目标分类时通常用到网络最后一个卷积层所产生的特征图,该层的特征图比其他卷积层更为抽象,对目标分类效果较好,但是提取的特征丢掉较多细节信息,因此,卷积神经网络在区分类别相近的物体时,有时分类效果较差,如直接利用Faster-Rcnn网络实现对不同杯子开展精确分类时,很难将类别细化,降低了深度学习网络的识别准确率。
综上,只利用图像中的卷积特征或传统特征,都存在各自的局限性,更为合适的方法是采用多特征融合的方法,卷积特征在分辨目标大类方面更具优势,如目标是否为水瓶,而传统特征在分辨同一大类下的小类更具优势,如水瓶是矿泉水瓶还是可口可乐瓶。在传统特征中,HOG特征可以代表图像的全局特征,表征了图像的梯度信息,将其和卷积特征融合,可以提高分类的成功率。以前有部分学者采用将卷积特征与HOG特征相结合,往往先提取其中一种特征,在此基础上提取另一种特征,通过支持向量机分类,但是这种方式存在两个问题:首先,提取其中一种特征的环节势必弱化另一种特征;其次,该过程并未改变各特征的影响权重和损失函数,没有考虑到不同特征对分类准确率的增益是不同的。因此以前的方法的分类效果并不理想。
发明内容
本发明的目的在于提供一种能够实现图像中目标精准分类的基于特征融合的自适应权重深度学习目标分类方法。
本发明的目的是这样实现的:
(1)、目标粗检测
将含有Roi-Align层和FPN结构的Faster-Rcnn目标检测网络,根据softmax前的概率值,通过降低检测阈值,获取检测框,然后通过极大值抑制原理,筛选出符合条件的检测框,然后建立先验知识库,定目标范围;
(2)、提取图像卷积特征和HOG特征,对HOG特征扩维处理
提取图像特征在ResNet网络框架下完成,提取基本的卷积特征,获得N维的卷积特征图,在ResNet网络框架下增加OpenCV提取图像HOG特征的代码,改造ResNet网络框架,一张图像对应一个HOG特征图,将HOG特征图复制N份,扩展为N维HOG特征图;
(3)、将SENet嵌入到Resnet网络框架,建立用于提取图像多特征权重的网络框架
将SENet模块嵌入到改造的Resnet网络框架中,在改造后的Resnet网络框架每一次计算获取图像卷积特征和HOG特征之后,通过SENet模块计算相应特征的权重向量,作为后续进一步处理得的预处理信息;
(4)、计算卷积特征和HOG特征的自适应权重向量,制定特征融合策略,计算图像融合特征
根据HOG特征、卷积特征及其权重向量相乘叠加实现融合工作,利用OpenCV获取N维HOG特征后,利用SENet模块计算获得每个HOG特征Fh的自适应权值Ph,由Resnet第一层卷积层的卷积计算、激化、池化提取原始图片的N维卷积特征Fc1,利用SENet模块计算获得卷积特征自适应权值Pc1,由下式计算新的卷积特征Fcn1:
Fcn1=Fc1·Pc1+Fh·Ph (1)
由Resnet卷积层后的Layer1层、Layer2层、Layer3层、Layer4层在前一层的计算的新的融合特征的基础上进一步提取卷积特征和相应的权值向量,两者相乘得到融合特征Fcn,即满足下式所示:
Fcn=Fcx·Pcx (2)
上式中,Fcx表示Resnet网络Layer第x层的提取的卷积特征,Pcx表示利用SENet网络计算出的Layer第x层卷积特征的自适应权值;
(5)、建立基于精准二分类网络集的多目标分类框架
首先通过Faster Rcnn网络对目标进行大类检测,再针对结果选择二分类网络集内对应的二分类网络,开展精准分类,最后得到目标分类结果。
本发明提供了一种融合图像HOG特征和卷积特征、实现图像中目标精准分类的深度学习网络。该网络综合考虑HOG特征和卷积特征,同时提取两种特征,并采用一定的策略将两种特征相结合,通过训练网络得到最优的自适应特征权重,通过设计多个二分类器来代替多分类器,实现目标的精准分类目标。
本发明的主要技术特点体现在:
第一、制定了低阈值—粗检测的策略。
本发明将含有Roi-Align层和FPN结构的Faster-Rcnn目标检测网络,根据softmax前的概率值,通过降低检测阈值,获取较多的检测框,然后通过极大值抑制原理,筛选出较为符合条件的检测框。然后建立先验知识库,即确定目标可能的大致范围,该知识库由人工建立,如水杯可能在桌子等支撑物体上,再比如移动机器人只能在地面上,而不会出现在悬空位置,这样就能在先验知识的基础上,进一步缩小由得到的目标检测框。
第二、本发明提取图像特征在ResNet网络框架下完成,该网络有提取图像卷积特征的功能,本发明用以提取基本的卷积特征,获得N维的卷积特征图,在ResNet网络框架下增加OpenCV提取图像HOG特征的代码,改造ResNet网络框架,由于HOG特征是针对灰度图的特征,所以一张图像对应一个HOG特征图,为了后续的特征图融合工作,本发明将HOG特征图复制N份,扩展为N维HOG特征图。
第三、将SENet嵌入到Resnet网络框架,建立用于提取图像多特征权重的网络框架。
本发明在提取图像卷积特征和HOG特征的基础上,进一步考虑所提取图像特征的影响权重向量,将SENet模块嵌入到前述改造的Resnet网络框架中,在改造后的Resnet网络框架每一次计算获取图像卷积特征和HOG特征之后,通过SENet模块计算相应特征的权重向量,作为后续进一步处理得的预处理信息,该网络框架实现卷积特征、HOG特征与相应的权重向量同步获取功能。
第四、计算卷积特征和HOG特征的自适应权重向量,制定特征融合策略,计算图像融合特征。
本发明根据HOG特征、卷积特征及其权重向量相乘叠加实现融合工作,利用OpenCV获取N维HOG特征后,利用SENet模块计算获得每个HOG特征Fh的自适应权值Ph,由Resnet第一层卷积层的卷积计算、激化、池化提取原始图片的N维卷积特征Fc1,利用SENet模块计算获得卷积特征自适应权值Pc1,计算新的卷积特征Fcn1。
由Resnet卷积层后的Layer1层、Layer2层、Layer3层、Layer4层在前一层的计算的新的融合特征的基础上进一步提取卷积特征和相应的权值向量,两者相乘得到融合特征Fcn。
本发明在卷基层和激活函数层之间,增加批量归一化层,加速网络学习收敛。
第五、本发明将SENet、Resnet与Faster Rcnn网络结合,建立多种精确的二分类网络构成网络集,该二分类网络主要由前面所述的Resnet和SEnet组成。实现步骤为首先通过Faster Rcnn网络对目标进行大类检测,再针对结果选择二分类网络集内对应的二分类网络,开展精准分类,最后得到目标分类结果。
本发明的有益效果主要体现在:本发明针对传统方法对目标精准分类准确率不高的问题,将图像卷积特征与HOG特征融合,提取图像特征的自适应权重向量,设计深度学习网络构型和参数,构建精准的分类网络,一方面,该网络通过降低得分阈值来得到更多的候选框,以此提高目标检测的召回率,在复杂环境下仍能具有优秀的检出能力;另一方面,该网络通过设计多个二分类网络,在多分类问题上具有更高的准确率,同时对于同类别下的不同小类别目标,也具有较高的可分辨能力。
附图说明
图1是本发明的结构框图。
图2是桌子上目标的合理区域示意图。
图3是提取图像特征图权重结构图。
图4是分类网络实现流程。
图5是降低阈值获得样本框试验结果。
图6是不考虑HOG特征的目标识别效果。
图7是本发明识别效果。
具体实施方式
下面举例对本发明做更详细的描述。
本发明的结构框图如图1所示,其中涉及到Faster Rcnn网络、Resnet网络、SENet网络,其中Faster Rcnn网络用于完成目标识别的工作,Resnet网络用于提取图像卷积特征和HOG特征,SENet网络用于计算特征图的权重向量,并通过特征融合方式实现目标分类任务。
1、制定低阈值—粗检测的策略
本发明将含有Roi-Align层和FPN结构的Faster-Rcnn目标检测网络,对网络输出节点经过softmax函数解算出的概率值,降低其可检测阈值,显示更多的低概率目标,这些目标作为备选目标。为了完成提高检测召回率的目标,本发明降低阈值,允许更多的疑似区域出现,考虑到此处由于目标得分为softmax函数输出的概率值,该值并非线性变化,故本发明采用读取网络softmax前的输出作为判定概率依据,为使检测框可以在不考虑准确率的前提下尽可能多的涵盖所有物体,将阈值设置为0.5。并依靠非极大值抑制以及调节合理的输出概率值,将检测框的概率得分按照降序排列,并将概率值最高的检测框作为极大值,按照概率降序,依次计算其他检测框与极大值检测框的重叠率,若重叠率小于一定阈值,则认为在该范围内,出现了两个同类物体,不处理;若重叠率大于阈值,则认为该检测框和极大值检测框为同一物体,消除非极大值检测框。
模拟人根据先验知识基础上寻找物体的思路,建立物体可能存在区域的先验知识库,即确定目标可能的大致范围,如水杯可能在桌子等支撑物体上、移动机器人只能在地面上,这些物体不会出现在悬空位置,这样就能在先验知识的基础上,进一步缩小由得到的目标粗检测框。采用合理空间的空间约束思想不仅可以大大降低目标检测的运算量,还能够降低误检的概率。以桌子1为例,其上目标的合理区域2的示意图如图2所示。
根据以上内容,通过降低阈值和合理区域判定,可初步确定目标检测框的范围,该范围内的检测框将通过后面的方法进行再判断。
2、提取图像卷积特征和HOG特征
针对通过降低阈值获得的粗检测图像截图,采用Resnet网络提取图像卷积特征,Resnet网络中含有1个卷积层和4个Layer层,每个Layer层有1个残差模块,每个Layer层由64个1×1×256卷积核、64个3×3×64卷积核、256个1×1×64卷积核构成。最后经过4个全连接层输出分类向量。卷积层经过卷积核、激活层、池化层输出卷积特征。为了实现后续卷积特征与HOG特征的融合,本发明在Resnet网络增加提取HOG特征的功能,考虑到HOG为图像传统特征,这里利用OpenCV中提取特征的模块完成HOG特征提取工作。
3、将SENet嵌入到Resnet网络,建立用于提取图像特征权重的网络框架
本发明将SEnet网络嵌入到Resnet网络中,用于在提取图像特征的同时,专门提取卷积特征和HOG特征的权重向量,本发明在考虑图像的卷积特征和HOG特征的同时,增加对相应特征的影响权重,增加对目标识别的准确率。嵌入后SEnet的网络框架结构如图3所示。
图3中,SE模块连接在网络特征提取模块之后,网络特征提取模块分别为ResNet提取的卷积特征和OpenCV提取HOG特征,再分别通过全局平均池化、两个全连接层和sigmoid激活函数,再经过比例系数和权值叠加,分别得到卷积特征图和HOG特征图的权重向量。Resnet网络中含有1个卷积层和4Layer层,本发明中每一层都嵌入了SENet网络,即对以上各层的特征图均计算其相应的权重向量。
4、计算卷积特征和HOG特征的自适应权重向量,并求取新的卷积特征。
如图2所示,在每一层中得到的卷积特征都与SENet网络计算相应的权值相乘得到新的卷积特征图,并为后续的各层提供卷积特征。由于HOG特征在Resnet网络第一层即已获取,本发明考虑卷积特征和HOG特征的权值向量,新的特征图采用如下步骤实现上述功能:
步骤1:利用OpenCV获取HOG特征后,经过SENet网络,得到HOG特征Fh的自适应权值Ph;
步骤2:由Resnet第一层卷积层的卷积计算、激化、池化提取原始图片的卷积特征Fc1,利用SENet网络计算卷积特征自适应权值Pc1,由下式计算新的卷积特征Fcn1:
Fcn1=Fc1·Pc1+Fh·Ph (3)
步骤3:由Resnet的Layer1层卷积计算提取Fcn1卷积图的卷积特征Fc2,利用SENet网络计算卷积特征自适应权值Pc2,由下式计算新的卷积特征Fcn2:
Fcn2=Fc2·Pc2 (4)
步骤4:由Resnet的Layer2层卷积计算提取Fcn2卷积图的卷积特征Fc3,利用SENet网络计算卷积特征自适应权值Pc3,由下式计算新的卷积特征Fcn3:
Fcn3=Fc3·Pc3 (5)
步骤5:由Resnet的Layer3层卷积计算提取Fcn3卷积图的卷积特征Fc4,利用SENet网络计算卷积特征自适应权值Pc4,由下式计算新的卷积特征Fcn4:
Fcn4=Fc4·Pc4 (6)
步骤6:由Resnet的Layer4层卷积计算提取Fcn4卷积图的卷积特征Fc5,利用SENet网络计算卷积特征自适应权值Pc5,由下式计算新的卷积特征Fcn5:
Fcn5=Fc5·Pc5 (7)
经过上述步骤,实现了SEnet获取卷积特征和HOG特征的权值向量并合成新的特征图,在Resnet框架下,实现了卷积特征和HOG特征的真正融合。
图2所示网络既要提取图像特征,又要计算图像特征的影响权重向量,同时SEnet网络中存在全局均值池化,因此深度学习收敛速度较慢。本发明在上述网络特征提取的卷积层和激活函数层之间,增加批量归一化层,专门用于加速网络学习收敛任务。
5、建立基于精准二分类网络集的多目标分类框架。
考虑到Faster-Rcnn网络在对大的类别具有较高的识别率,但是对于同一类别下的小类识别率较不理想,为此,本发明将多个二分类网络组成网络集,用于检测FasterRcnn网络输出目标粗分类,进而得到目标的精确分类,流程如图4所示:
利用Faster Rcnn对粗检测出的目标框进行初步判断,确定目标大类别,再通过可对大类别目标进行精细分类的二分类网络进行精准分类,图4中二分类网络集内的每一个二分类网络,均由前面所述的Resnet和SEnet组成,每一个二分类网络用于判断目标是否为某具体的目标,比如大目标为bottle类,二分类网络包括用于区分:是否为bottle_beer小类、是否为bottle_tea小类、是否为bottle_milk小类等,通过以上流程实现目标的精准分类。
试验验证
选择实验室工作环境的图像作为训练、测试、验证的样本集,利用本发明提出的目标分类方法开展深度学习训练,这里的样本种类共包含杯子等13类目标和1个背景类,训练样本数量为500,测试和验证样本数量均为100,训练过程共含批次为100,每批同时训练200个样本。
(1)Faster Rcnn网络降低阈值获得样本框,如图5所示:
从图5可以看出,根据本发明提出的降低阈值的方法,可获得很多无关的框,但是所有的框构成了目标粗检测结果集,虽然出现了冗余检测框,但是这样可以最大化的包含可检测的目标范围。
(2)不考虑HOG特征融合的Faster Rcnn目标识别,识别效果如图6:
从图6中可以看出,如果不考虑HOG特征融合,Faster Rcnn对同为bottle分类的绿茶瓶子(图中标记为bottle_tea)和奶茶瓶子(图中标记为bottle_tea)的分辨效果较差。
(3)本发明融合HOG特征的卷积神经网络识别效果,如下图7所示:
从图7中可以看出,本发明不仅对目标识别正确率较高,而且能够对同一分类的不同小类识别率也较高,如同为bottle分类的绿茶瓶子、奶茶瓶子、瓶酒瓶子均分类正确,且识别正确率均在90%以上。
Claims (4)
1.一种基于特征融合的自适应权重深度学习目标分类方法,其特征是包括如下步骤:
(1)、目标粗检测;
(2)、提取图像卷积特征和HOG特征,对HOG特征扩维处理;
提取图像特征在ResNet网络框架下完成,提取基本的卷积特征,获得N维的卷积特征图,在ResNet网络框架下增加OpenCV提取图像HOG特征的代码,改造ResNet网络框架,一张图像对应一个HOG特征图,将HOG特征图复制N份,扩展为N维HOG特征图;
(3)、将SENet嵌入到Resnet网络框架,建立用于提取图像多特征权重的网络框架;
将SENet模块嵌入到改造的Resnet网络框架中,在改造后的Resnet网络框架每一次计算获取图像卷积特征和HOG特征之后,通过SENet模块计算相应特征的权重向量,
(4)、计算卷积特征和HOG特征的自适应权重向量,制定特征融合策略,计算图像融合特征;
根据HOG特征、卷积特征及其权重向量相乘叠加实现融合工作,利用OpenCV获取N维HOG特征后,利用SENet模块计算获得每个HOG特征Fh的自适应权值Ph,由Resnet第一层卷积层的卷积计算、激化、池化提取原始图片的N维卷积特征Fc1,利用SENet模块计算获得卷积特征自适应权值Pc1,由下式计算新的卷积特征Fcn1:
Fcn1=Fc1·Pc1+Fh·Ph
由Resnet卷积层后的Layer1层、Layer2层、Layer3层、Layer4层在前一层的计算的新的融合特征的基础上提取卷积特征和相应的权值向量,两者相乘得到融合特征Fcn,即满足下式所示:
Fcn=Fcx·Pcx
上式中,Fcx表示Resnet网络Layer第x层的提取的卷积特征,Pcx表示利用SENet网络计算出的Layer第x层卷积特征的自适应权值;
所述的通过SENet模块计算相应特征的权重向量具体包括:SENet模块连接在网络特征提取模块之后,网络特征提取模块分别为ResNet提取的卷积特征和OpenCV提取HOG特征,再分别通过全局平均池化、两个全连接层和sigmoid激活函数,再经过比例系数和权值叠加,分别得到卷积特征图和HOG特征图的权重向量,Resnet网络中含有1个卷积层和4Layer层,每一层都嵌入SENet网络,即对各层的特征图均计算其相应的权重向量;
(5)、建立基于精准二分类网络集的多目标分类框架。
2.根据权利要求1所述的基于特征融合的自适应权重深度学习目标分类方法,其特征是步骤(1)具体包括:将含有Roi-Align层和FPN结构的Faster-Rcnn目标检测网络,根据softmax前的概率值,通过降低检测阈值,获取检测框,然后通过极大值抑制原理,筛选出符合条件的检测框,然后建立先验知识库,确定目标范围。
3.根据权利要求1所述的基于特征融合的自适应权重深度学习目标分类方法,其特征是步骤(5)具体包括:首先通过Faster Rcnn网络对目标进行大类检测,再针对结果选择二分类网络集内对应的二分类网络,开展精准分类,最后得到目标分类结果。
4.根据权利要求2所述的基于特征融合的自适应权重深度学习目标分类方法,其特征是:检测阈值设置为0.5;所述筛选出符合条件的检测框具体包括:依靠非极大值抑制以及调节输出概率值,将检测框的概率得分按照降序排列,并将概率值最高的检测框作为极大值,按照概率降序,依次计算其他检测框与极大值检测框的重叠率,若重叠率小于阈值,则认为在该范围内,出现了两个同类物体,不处理;若重叠率大于阈值,则认为该检测框和极大值检测框为同一物体,消除非极大值检测框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910189578.9A CN109886357B (zh) | 2019-03-13 | 2019-03-13 | 一种基于特征融合的自适应权重深度学习目标分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910189578.9A CN109886357B (zh) | 2019-03-13 | 2019-03-13 | 一种基于特征融合的自适应权重深度学习目标分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109886357A CN109886357A (zh) | 2019-06-14 |
CN109886357B true CN109886357B (zh) | 2022-12-13 |
Family
ID=66932142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910189578.9A Active CN109886357B (zh) | 2019-03-13 | 2019-03-13 | 一种基于特征融合的自适应权重深度学习目标分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109886357B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110288020B (zh) * | 2019-06-19 | 2021-05-14 | 清华大学 | 基于声波传播方程的双路耦合深度学习的目标分类方法 |
CN110674265B (zh) * | 2019-08-06 | 2021-03-02 | 上海孚典智能科技有限公司 | 面向非结构化信息的特征判别与信息推荐系统 |
CN110415267A (zh) * | 2019-08-15 | 2019-11-05 | 利卓创新(北京)科技有限公司 | 一种低功耗在线热红外目标识别装置及工作方法 |
CN110705544B (zh) * | 2019-09-05 | 2023-04-07 | 中国民航大学 | 基于Faster-RCNN的自适应快速目标检测方法 |
CN111209915B (zh) * | 2019-12-25 | 2023-09-15 | 上海航天控制技术研究所 | 一种基于深度学习的三维图像同步识别和分割方法 |
CN111339895B (zh) * | 2020-02-21 | 2023-03-24 | 魔视智能科技(上海)有限公司 | 大类非极大值抑制方法及其系统 |
CN111612065A (zh) * | 2020-05-21 | 2020-09-01 | 中山大学 | 一种基于比率自适应池化的多尺度特征物体检测算法 |
CN111881764B (zh) * | 2020-07-01 | 2023-11-03 | 深圳力维智联技术有限公司 | 一种目标检测方法、装置、电子设备及存储介质 |
CN112465848A (zh) * | 2020-11-27 | 2021-03-09 | 深圳点猫科技有限公司 | 一种基于动态特征融合的语义边缘检测方法、装置及设备 |
CN112348808A (zh) * | 2020-11-30 | 2021-02-09 | 广州绿怡信息科技有限公司 | 屏幕透图检测方法及装置 |
CN112464015B (zh) * | 2020-12-17 | 2024-06-18 | 郑州信大先进技术研究院 | 一种基于深度学习的图像电子证据筛选方法 |
CN112749751B (zh) * | 2021-01-15 | 2022-04-12 | 北京航空航天大学 | 一种基于概率感知的检测器融合方法及系统 |
CN112884025B (zh) * | 2021-02-01 | 2022-11-04 | 安徽大学 | 一种基于多特征分段式训练的茶叶病害分类系统 |
CN113516080A (zh) * | 2021-07-16 | 2021-10-19 | 上海高德威智能交通系统有限公司 | 一种行为检测方法和装置 |
CN114186641B (zh) * | 2021-12-16 | 2022-08-09 | 长安大学 | 一种基于深度学习的滑坡易发性评价方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239790A (zh) * | 2017-05-10 | 2017-10-10 | 哈尔滨工程大学 | 一种基于深度学习的服务机器人目标检测与定位方法 |
CN107886117A (zh) * | 2017-10-30 | 2018-04-06 | 国家新闻出版广电总局广播科学研究院 | 基于多特征提取和多任务融合的目标检测算法 |
CN108510012A (zh) * | 2018-05-04 | 2018-09-07 | 四川大学 | 一种基于多尺度特征图的目标快速检测方法 |
CN108510521A (zh) * | 2018-02-27 | 2018-09-07 | 南京邮电大学 | 一种多特征融合的尺度自适应目标跟踪方法 |
CN108537121A (zh) * | 2018-03-07 | 2018-09-14 | 中国科学院西安光学精密机械研究所 | 气象环境参数与图像信息融合的自适应遥感场景分类方法 |
CN109117826A (zh) * | 2018-09-05 | 2019-01-01 | 湖南科技大学 | 一种多特征融合的车辆识别方法 |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11423651B2 (en) * | 2016-02-09 | 2022-08-23 | Hrl Laboratories, Llc | System and method for the fusion of bottom-up whole-image features and top-down enttiy classification for accurate image/video scene classification |
CN107578423B (zh) * | 2017-09-15 | 2020-04-28 | 杭州电子科技大学 | 多特征分层融合的相关滤波鲁棒跟踪方法 |
CN108427958B (zh) * | 2018-02-02 | 2021-06-01 | 哈尔滨工程大学 | 基于深度学习的自适应权值卷积神经网络水下声纳图像分类方法 |
CN109101932B (zh) * | 2018-08-17 | 2020-07-24 | 佛山市顺德区中山大学研究院 | 基于目标检测的多任务及临近信息融合的深度学习方法 |
CN109410247A (zh) * | 2018-10-16 | 2019-03-01 | 中国石油大学(华东) | 一种多模板和自适应特征选择的视频跟踪算法 |
-
2019
- 2019-03-13 CN CN201910189578.9A patent/CN109886357B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239790A (zh) * | 2017-05-10 | 2017-10-10 | 哈尔滨工程大学 | 一种基于深度学习的服务机器人目标检测与定位方法 |
CN107886117A (zh) * | 2017-10-30 | 2018-04-06 | 国家新闻出版广电总局广播科学研究院 | 基于多特征提取和多任务融合的目标检测算法 |
CN108510521A (zh) * | 2018-02-27 | 2018-09-07 | 南京邮电大学 | 一种多特征融合的尺度自适应目标跟踪方法 |
CN108537121A (zh) * | 2018-03-07 | 2018-09-14 | 中国科学院西安光学精密机械研究所 | 气象环境参数与图像信息融合的自适应遥感场景分类方法 |
CN108510012A (zh) * | 2018-05-04 | 2018-09-07 | 四川大学 | 一种基于多尺度特征图的目标快速检测方法 |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
CN109117826A (zh) * | 2018-09-05 | 2019-01-01 | 湖南科技大学 | 一种多特征融合的车辆识别方法 |
Non-Patent Citations (5)
Title |
---|
A Novel Feature Fusion with Self-adaptive Weight Method Based on Deep Learning for Image Classification;Qijun Tian等;《Advances in Multimedia Information Processing - PCM 2018》;20180919;第426-436页 * |
An efficient feature selection for SAR target classification;Moussa Amrani等;《Advances in Multimedia Information Processing - PCM 2017》;20180510;第68-78页 * |
基于HOG的目标分类特征深度学习模型;何希平等;《计算机工程》;20161231;第42卷(第12期);第176-180+187页 * |
多卷积特征融合的HOG行人检测算法;高琦煜等;《计算机科学》;20171130;第44卷(第11A期);第199-201+232页 * |
智能视频监控系统中运动行人分析的研究;王军华;《中国优秀硕士学位论文全文数据库 (信息科技辑)》;20180315;第I136-1337页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109886357A (zh) | 2019-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109886357B (zh) | 一种基于特征融合的自适应权重深度学习目标分类方法 | |
WO2021139069A1 (zh) | 自适应注意力指导机制的一般性目标检测方法 | |
CN111179217A (zh) | 一种基于注意力机制的遥感图像多尺度目标检测方法 | |
CN112287788A (zh) | 基于改进YOLOv3和改进NMS的行人检测方法 | |
CN111753828B (zh) | 一种基于深度卷积神经网络的自然场景水平文字检测方法 | |
CN111222434A (zh) | 基于局部二值模式和深度学习的合成人脸图像取证方法 | |
CN111126412B (zh) | 基于特征金字塔网络的图像关键点检测方法 | |
CN112200045B (zh) | 基于上下文增强的遥感图像目标检测模型建立方法及应用 | |
CN114627383B (zh) | 一种基于度量学习的小样本缺陷检测方法 | |
CN116258707A (zh) | 一种基于改进的YOLOv5算法的PCB表面缺陷检测方法 | |
CN109785359B (zh) | 一种基于深度特征金字塔与跟踪损失的视频目标检测方法 | |
CN112001403A (zh) | 一种图像轮廓检测方法及系统 | |
CN110633727A (zh) | 基于选择性搜索的深度神经网络舰船目标细粒度识别方法 | |
CN111833322A (zh) | 一种基于改进YOLOv3的垃圾多目标检测方法 | |
CN113191335A (zh) | 基于深度学习的日用陶瓷类型识别方法 | |
CN111967399A (zh) | 一种基于改进的Faster RCNN行为识别方法 | |
CN117037004A (zh) | 基于多尺度特征融合和上下文增强的无人机影像检测方法 | |
CN112288026A (zh) | 一种基于类激活图的红外弱小目标检测方法 | |
CN117152735A (zh) | 一种基于改进yolov5s的番茄成熟度分级方法 | |
CN111950357A (zh) | 一种基于多特征yolov3的船用水面垃圾快速识别方法 | |
CN111241943A (zh) | 自动驾驶场景下基于背景目标检测与三元组损失的场景识别与回环检测方法 | |
CN108932471B (zh) | 一种车辆检测方法 | |
US20220398400A1 (en) | Methods and apparatuses for determining object classification | |
CN117853955A (zh) | 一种基于改进YOLOv5的无人机小目标检测方法 | |
CN112612023A (zh) | 一种雷达目标识别方法及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |