CN107563381B - 基于全卷积网络的多特征融合的目标检测方法 - Google Patents
基于全卷积网络的多特征融合的目标检测方法 Download PDFInfo
- Publication number
- CN107563381B CN107563381B CN201710816619.3A CN201710816619A CN107563381B CN 107563381 B CN107563381 B CN 107563381B CN 201710816619 A CN201710816619 A CN 201710816619A CN 107563381 B CN107563381 B CN 107563381B
- Authority
- CN
- China
- Prior art keywords
- target detection
- convolution
- neural network
- target
- full
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
本发明设计了一种基于全卷积网络的多特征融合的目标检测方法,其主要技术特点是:搭建具有六个卷积层组的全卷积神经网络;利用卷积神经网络的前五组卷积层提取图像特征,并将其输出进行融合,形成融合特征图;对融合后的特征图进行卷积处理,直接产生固定数目的不同大小的目标边框;计算卷积神经网络生成的目标边框与真实边框之间的分类误差与定位误差,利用随机梯度下降法降低训练误差,得到最终训练模型的参数,最后进行测试得到目标检测结果。本发明利用了深度卷积网络对目标的强大的表示能力,构建了用于目标检测的全卷积神经网络,提出了新的融合特征方法,提高了算法的检测速度和精度,获得了良好的目标检测结果。
Description
技术领域
本发明属于目标检测技术领域,尤其是一种基于全卷积网络的多特征融合的目标检测方法。
背景技术
目标检测作为计算机视觉的重要研究课题之一,被广泛应用于国防军事、公共交通、社会安全和商业应用等各个领域。因此目标检测算法的研究,具有非常重要的军事以及商业价值。所谓目标检测,是通过分析图像或者视频中的目标的特征,将目标识别出来,获得目标的类别和位置信息,能够对目标做进一步分析和理解提供帮助,例如目标跟踪以及基于图像内容的分析等。然而目标通常具有不同的形态、颜色、光亮和遮挡等多变因素,目标所处的场所环境也缤纷复杂,这些因素使得基于计算机视觉的目标检测面临着巨大的挑战。
传统的目标检测模型通常采用复杂的人工特征提取方法,比如方向梯度直方图(HOG)、尺度不变特征转换(SIFT)、局部二值模式特征(LBP)等,来获得与目标有关的信息表达,并在所提取的特征信息上训练分类器和回归器从而实现目标检测。随着计算机计算能力的大幅提高和大规模数据集的产生,深度学习应运而生,也使得目标检测技术取得了飞快的发展。目前流行的目标检测算法均使用卷积神经网络来进行特征提取。卷积神经网络广泛应用于计算机视觉领域主要源于2012年Krizhevsky等人提出的AlexNet(A.Krizhevsky,I.Sutskever,and G.E.Hinton,“Imagenet classification with deepconvolutional neural networks,”in NIPS,2012,pp.1097–1105.)在ILSVRC2012竞赛中取得冠军,AlexNet成为卷积神经网络在图像分类上的经典模型。AlexNet由5层卷积层和3层全连接层构成,卷积层主要用于提取目标特征,全连接层用于对目标的分类,这一模型的精度显著高于当时基于传统手工特征的算法。之后Girshick等人将卷积神经网络应用于目标检测,提出了经典的R-CNN算法(R.Girshick,J.Donahue,T.Darrell,and J.Malik,“Richfeature hierarchies for accurate object detection and semantic segmentation,”in CVPR,2014,pp.580–587.)。其对于一张输入图像,首先产生2000个左右的候选框,然后利用卷积神经网络提取特征,并利用所提取的特征训练SVM分类器以及利用回归器实现目标的位置修正。基于候选框的目标检测技术在检测精度上表现优异,然而由于候选框的产生需要耗费大量时间。为了提高检测速度,能够实现实时目标检测,Redmon等人提出一种基于单一卷积神经网络的目标检测算法YOLO(J.Redmon,S.Divvala,R.Girshick,andA.Farhadi,“You only look once:Unified,real-time object detection,”arXivpreprint arXiv:1506.02640,2015)。对于一张输入图像,YOLO可以直接输出目标类别置信度以及目标位置,YOLO等算法的出现使得实时目标检测成为可能,并将目标检测的实际应用向前推动了一大步。
虽然目标检测算法经过了几十年的发展已经取得了不错的效果,卷积神经网络的出现更是将目标检测精度提升了很多,但是很多问题还是有待改善,例如,如何平衡精度和速度,提高小目标检测精度,降低目标定位误差等。
发明内容
本发明的目的在于克服现有技术的不足,提出一种设计合理、精度高且速度快的基于全卷积网络的多特征融合的目标检测方法。
本发明解决其技术问题是采取以下技术方案实现的:
一种基于全卷积网络的多特征融合的目标检测方法,包括以下步骤:
步骤1、搭建具有六个卷积层组的全卷积神经网络;
步骤2、利用卷积神经网络的前五组卷积层提取图像特征,并将其输出进行融合,形成融合特征图;
步骤3、对融合后的特征图进行卷积处理,直接产生固定数目的不同大小的目标边框;
步骤4、计算卷积神经网络生成的目标边框与真实边框之间的分类误差与定位误差,利用随机梯度下降法降低训练误差,得到最终训练模型的参数,最后进行测试得到目标检测结果。
所述步骤1中搭建的全卷积神经网络结构如下:
所述步骤2的具体实现方法包括以下步骤:
⑴将图像输入到全卷积神经网络中,使得输入图像经过五组卷积层处理,每组卷积层均输出相应的特征图;
⑵将第三卷积层组和第四卷积层组输出的特征图进行映射处理,尺度减少通道数增加,以使得其特征图尺寸与第五卷积层组的输出特征图保持一致;
⑶将上述第三至第五卷积层组输出的特征图进行级联,得到包含图像多级特征信息的特征图。
所述步骤3的具体实现方法包括以下步骤:
⑴将输入图像分成11*11的网格,并对应到特征图当中;
⑵对于每个网格,预测产生6个尺寸和长宽比不同的边界框,包括2种尺度以及3种长宽比1:1、1:2和2:1;
⑶每个边界框生成4+C个值,4个值为x,y,w,h用来表示边界框位置及大小,C表示目标类别,对于每个类别边界框将产生一个相应的置信度,来表示属于某类别的可能性。
所述步骤4的具体实现方法包括以下步骤:
⑴分别计算预测边界框与真实边框的分类误差和定位误差,其中对于分类误差只计算有目标出现的网格的误差,对于定位误差,则计算smooth L1损失;
⑵在训练过程中,取正负样本的比例为1:3;
⑶利用随机梯度下降法进行模型的训练,使得最终产生的预测边框更加接近真实边框,并利用已训练好的模型参数对实际目标进行测试。
所述分类误差和定位误差具有相同的权重。
所述正样本的选取方法为:真实边框交除并值大于0.7的预测边框为正样本;所述负样本的选取方法为:交除并值小于0.3且大于0.1的预测边框为负样本。
所述计算smooth L1损失采用如下公式:
其中,Lloc(t,t*)表示定位误差损失函数,t,t*分别代表预测边框和真实边框,包含了x,y,w,h的值,(x,y)表示边框中心的坐标,w和h表示边框的宽度和高度。
本发明的优点和积极效果是:
本发明采用全卷积网络的多特征融合的目标检测方法,通过搭建一个不含全连接层的卷积神经网络用于目标检测,由于输入图像尺寸不受限制,提高了检测灵活度;充分利用深度不同的特征信息进行融合,以获得所检测目标的丰富的特征信息,进一步提高了检测精度;并且由于省去了传统目标检测方法中生成目标候选框的步骤,明显提高了模型训练以及测试的时间。本发明利用了深度卷积网络对目标的强大的表示能力,构建了用于目标检测的全卷积神经网络,提出了新的融合特征方法和多尺度训练的策略,提高了算法的检测速度和精度,获得了良好的目标检测结果。
附图说明
图1是本发明的目标检测模型的整体框架;
图2是本发明的目标检测模型在PASCAL VOC2012数据集上的测试结果;
图3是本发明与其他不同算法的检测错误分析结果对比图。
具体实施方式
以下结合附图对本发明实施例做进一步详述。
一种基于全卷积网络的多特征融合的目标检测方法,如图1所示,包括以下步骤:
步骤1、构建如下全卷积神经网络结构:
在每一个卷积层组内,我们大多数采用了3*3的滤波器,并且在每一步最大池化操作之后将滤波器的通道数量加倍,3*3滤波器之间的1*1滤波器用来压缩特征。
步骤2、利用卷积神经网络的前5组卷积层提取图像特征,并将其输出进行融合,形成融合特征图:
(1)首先将带目标真实边框的图像输入到步骤一所述的全卷积神经网络结构中,使得输入图像经过五组卷积层处理,每组卷积层都可以输出相应的特征图;
(2)将卷积层组3、4、5输出的特征图分别进行处理,其中卷积层组3和4输出的特征图需要进行映射处理,尺度减少通道数增加,以使得其特征图尺寸与卷积层组5的输出特征图保持一致;
(3)将上述卷积层组3、4、5输出的特征图进行融合,得到包含图像多级特征信息的特征图。
步骤3、对融合后的特征图进行卷积处理,直接产生固定数目的不同大小的目标边框:
(1)由于通过卷积操作生成的特征图在位置上与输入图像保持一致,我们将输入图像分成11*11的网格,对应到特征图当中;
(2)对于每个网格,将会预测产生6个大小、长宽比不同的边界框,包括2种尺度以及3种长宽比1:1、1:2和2:1;
(3)每个边界框包含4+C个值,4个值为x,y,w,h用来表示边界框位置及大小,C表示目标类别,对于每个类别边界框将产生一个相应的置信度,来表示属于某类别的可能性。
步骤4、计算卷积神经网络生成的目标边框与真实边框之间的分类误差与定位误差,利用随机梯度下降法使训练误差降到最低,得到最终训练模型的参数,最后进行测试得到目标检测结果:
(1)分别计算预测边界框与真实边框的分类误差和定位误差,其中对于分类误差只计算有目标出现的网格的误差,对于定位误差,则计算smooth L1损失,将分类误差和定位误差设置了相同的权重,即λ=1,表明在训练过程中两者同样重要;所述损失函数的公式为:
其中,Lloc(t,t*)表示定位误差损失函数,t,t*分别代表预测边框和真实边框,包含了x,y,w,h的值,(x,y)表示边框中心的坐标,w和h表示边框的宽度和高度。采用smoothL1函数使得定位损失对于离群点更加鲁棒。
(2)训练过程中正负样本的比例为1:3,其中与真实边框交除并值(Intersection-over-Union,IoU)大于0.7的预测边框为正样本,交除并值小于0.3大于0.1的预测边框为负样本;
(3)利用随机梯度下降法进行模型的训练,使得最终产生的预测边框更加接近真实边框,并利用已训练好的模型参数对实际目标进行测试。
下面按照本发明的方法进行实验,说明本发明的实验效果。
测试环境:Ubuntu14.04,MATLAB 2014b
测试序列:所选测试序列来自目标检测的PASCAL VOC数据集(M.Everingham,L.Van Gool,C.K.Williams,J.Winn,and A.Zisserman,“The pascal visual objectclasses(voc)challenge,”International journal of computer vision,vol.88,no.2,pp.303–338,2007.)。其中包含的目标均为日常生活常见种类,共20个类别,包括人类、动物(鸟、猫、牛、狗、马、羊)、交通工具(飞机、自行车、船、公共汽车、小轿车、摩托车、火车)、室内(瓶子、椅子、餐桌、盆栽植物、沙发、电视)。
测试指标:使用了三种评价指标,即精度指标mAP(mean average precision)、速度指标FPS(frames per second)和错误分析(error analysis)。其中精度mAP是目标检测结果的平均准确度测量,对不同算法计算此参数值,证明本发明算法在目标检测领域得到较好的结果;FPS是目标检测速度的度量,通过在测试过程中每秒能处理多少帧图片来评定目标进测速度,对不同算法计算此参数值,证明本发明算法在目标检测领域的优越性;错误分析通过将目标检测错误类型归类,可以看出各算法的优劣势,通过该分析,证明本文算法在目标检测的定位、背景干扰等方面的优势。
测试结果如下:
表1基于PASCAL VOC2012的目标检测精度
表1是基于PASCAL VOC数据集中所有图像类别测试精度的平均结果,可以看出本发明在mAP上优于其他目标检测算法。Faster R-CNN和SSD为目前国际最高目标检测算法的代表,本发明的mAP为73.2%,分别比Faster R-CNN和SSD300的检测精度提高了2.8%和0.8%。而且,相比于YOLO,本发明在小物体(如瓶子、鸟、植物)检测上精度有了很大提升。上述结果表明本发明算法所产生的目标检测结果拥有更高的精度,而且能更好的解决小目标检测的难题。
表2基于PASCAL VOC2012的目标检测速度
表2是基于PASCAL VOC2012数据集中所有图像类别检测速度的结果,可以看出本发明算法在FPS上比其他目标检测算法有明显提高。本发明FPS不仅高于Fast R-CNN和Faster R-CNN等非实时目标检测算法,也高于YOLO和SSD等实时目标检测算法,可以实现实时目标检测。上述结果表明本发明算法所产生的目标检测结果拥有更高的速度。
图3是对本发明和其他算法的目标检测错误类型分析的结果,可以看出本发明算法定位误差显著低于YOLO,背景干扰误差显著低于Fast R-CNN。上述结果表明本发明算法所产生的目标检测能够很好的定位并排除一定的背景干扰,而且在目标检测的速度和精度两项指标中,均能达到好的目标检测结果,说明本发明算法具有前沿性。
需要强调的是,本发明所述的实施例是说明性的,而不是限定性的,因此本发明包括并不限于具体实施方式中所述的实施例,凡是由本领域技术人员根据本发明的技术方案得出的其他实施方式,同样属于本发明保护的范围。
Claims (6)
2.根据权利要求1所述的基于全卷积网络的多特征融合的目标检测方法,其特征在于:所述步骤2的具体实现方法包括以下步骤:
⑴将图像输入到全卷积神经网络中,使得输入图像经过五组卷积层处理,每组卷积层均输出相应的特征图;
⑵将第三卷积层组和第四卷积层组输出的特征图进行映射处理,尺度减少通道数增加,以使得其特征图尺寸与第五卷积层组的输出特征图保持一致;
⑶将上述第三至第五卷积层组输出的特征图进行级联,得到包含图像多级特征信息的特征图。
3.根据权利要求1所述的基于全卷积网络的多特征融合的目标检测方法,其特征在于:所述步骤3的具体实现方法包括以下步骤:
⑴将输入图像分成11*11的网格,并对应到特征图当中;
⑵对于每个网格,预测产生6个尺寸和长宽比不同的边界框,包括2种尺度以及3种长宽比1:1、1:2和2:1;
⑶每个边界框生成4+C个值,4个值为x,y,w,h用来表示边界框位置及大小,C表示目标类别,对于每个类别边界框将产生一个相应的置信度,来表示属于某类别的可能性。
4.根据权利要求1所述的基于全卷积网络的多特征融合的目标检测方法,其特征在于:所述步骤4的具体实现方法包括以下步骤:
⑴分别计算预测边界框与真实边框的分类误差和定位误差,其中对于分类误差只计算有目标出现的网格的误差,对于定位误差,则计算smooth L1损失;
⑵在训练过程中,取正负样本的比例为1:3;
⑶利用随机梯度下降法进行模型的训练,使得最终产生的预测边框更加接近真实边框,并利用已训练好的模型参数对实际目标进行测试。
5.根据权利要求4所述的基于全卷积网络的多特征融合的目标检测方法,其特征在于:所述分类误差和定位误差具有相同的权重。
6.根据权利要求4所述的基于全卷积网络的多特征融合的目标检测方法,其特征在于:所述正样本的选取方法为:与真实边框交除并值大于0.7的预测边框为正样本;所述负样本的选取方法为:交除并值小于0.3且大于0.1的预测边框为负样本。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710816619.3A CN107563381B (zh) | 2017-09-12 | 2017-09-12 | 基于全卷积网络的多特征融合的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710816619.3A CN107563381B (zh) | 2017-09-12 | 2017-09-12 | 基于全卷积网络的多特征融合的目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107563381A CN107563381A (zh) | 2018-01-09 |
CN107563381B true CN107563381B (zh) | 2020-10-23 |
Family
ID=60979649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710816619.3A Active CN107563381B (zh) | 2017-09-12 | 2017-09-12 | 基于全卷积网络的多特征融合的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107563381B (zh) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210472A (zh) * | 2018-02-28 | 2019-09-06 | 佛山科学技术学院 | 一种基于深度网络的对象检测方法 |
CN108830855B (zh) * | 2018-04-02 | 2022-03-25 | 华南理工大学 | 一种基于多尺度低层特征融合的全卷积网络语义分割方法 |
CN108764228A (zh) * | 2018-05-28 | 2018-11-06 | 嘉兴善索智能科技有限公司 | 一种图像中文字目标检测方法 |
CN108898065B (zh) * | 2018-05-31 | 2021-08-13 | 北京航空航天大学 | 候选区快速筛选与尺度自适应的深度网络舰船目标检测方法 |
CN109034183B (zh) * | 2018-06-07 | 2021-05-18 | 苏州飞搜科技有限公司 | 一种目标检测方法、装置及设备 |
CN108960074B (zh) * | 2018-06-07 | 2020-09-04 | 西安电子科技大学 | 基于深度学习的小尺寸行人目标检测方法 |
CN108830322A (zh) * | 2018-06-15 | 2018-11-16 | 联想(北京)有限公司 | 一种图像处理方法及装置、设备、存储介质 |
CN110647898B (zh) * | 2018-06-27 | 2022-11-01 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、电子设备及计算机存储介质 |
CN108846446B (zh) * | 2018-07-04 | 2021-10-12 | 国家新闻出版广电总局广播科学研究院 | 基于多路径密集特征融合全卷积网络的目标检测方法 |
CN108985295A (zh) * | 2018-07-25 | 2018-12-11 | 南京烽火星空通信发展有限公司 | 一种基于深度学习的车标图像检测方法 |
CN109190626A (zh) * | 2018-07-27 | 2019-01-11 | 国家新闻出版广电总局广播科学研究院 | 一种基于深度学习的多路径特征融合的语义分割方法 |
CN109344691A (zh) * | 2018-08-10 | 2019-02-15 | 广东工业大学 | 一种基于深度学习的视觉安全校园管理监视方法 |
CN109447943B (zh) * | 2018-09-21 | 2020-08-14 | 中国科学院深圳先进技术研究院 | 一种目标检测方法、系统及终端设备 |
CN109344897B (zh) * | 2018-09-29 | 2022-03-25 | 中山大学 | 一种基于图片蒸馏的通用物体检测系统及其实现方法 |
CN109508710A (zh) * | 2018-10-23 | 2019-03-22 | 东华大学 | 基于改进YOLOv3网络的无人车夜间环境感知方法 |
CN111126421B (zh) * | 2018-10-31 | 2023-07-21 | 浙江宇视科技有限公司 | 目标检测方法、装置及可读存储介质 |
CN109492580B (zh) * | 2018-11-08 | 2020-08-07 | 北方工业大学 | 一种基于全卷积网络的邻域显著性参照的多尺寸航拍图像定位方法 |
CN109492581B (zh) * | 2018-11-09 | 2023-07-18 | 中国石油大学(华东) | 一种基于tp-stg框架的人体动作识别方法 |
CN109540138B (zh) * | 2018-11-12 | 2021-05-25 | 中南大学 | 基于视觉神经网络的室内导航方法、系统及可读存储器 |
CN109522958A (zh) * | 2018-11-16 | 2019-03-26 | 中山大学 | 基于跨尺度特征融合的深度卷积神经网络目标检测方法 |
CN109711326A (zh) * | 2018-12-25 | 2019-05-03 | 云南大学 | 一种基于浅层残差网络的视频目标检测方法 |
CN109685008A (zh) * | 2018-12-25 | 2019-04-26 | 云南大学 | 一种实时的视频目标检测方法 |
CN109784278B (zh) * | 2019-01-17 | 2020-09-29 | 上海海事大学 | 基于深度学习的海上弱小运动船舶实时检测方法 |
CN109978036A (zh) * | 2019-03-11 | 2019-07-05 | 华瑞新智科技(北京)有限公司 | 目标检测深度学习模型训练方法以及目标检测方法 |
CN110059641B (zh) * | 2019-04-23 | 2023-02-03 | 重庆工商大学 | 基于多预置点的深度鸟类识别算法 |
CN110188802B (zh) * | 2019-05-13 | 2022-08-30 | 南京邮电大学 | 基于多层特征图融合的ssd目标检测算法 |
CN110189308B (zh) * | 2019-05-17 | 2020-10-23 | 山东财经大学 | 一种基于bm3d和稠密卷积网络融合的肿瘤检测方法和装置 |
CN110647889B (zh) * | 2019-08-26 | 2022-02-08 | 中国科学院深圳先进技术研究院 | 医学图像识别方法、医学图像识别装置、终端设备及介质 |
CN110609320B (zh) * | 2019-08-28 | 2021-03-16 | 电子科技大学 | 一种基于多尺度特征融合的叠前地震反射模式识别方法 |
CN113536824B (zh) * | 2020-04-13 | 2024-01-12 | 南京行者易智能交通科技有限公司 | 一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法 |
CN111898534A (zh) * | 2020-07-30 | 2020-11-06 | 上海交通大学 | 一种基于旋转区域卷积神经网络的星载目标融合检测方法 |
CN112926681B (zh) * | 2021-03-29 | 2022-11-29 | 复旦大学 | 一种基于深度卷积神经网络的目标检测方法及装置 |
CN113095316B (zh) * | 2021-04-15 | 2023-04-07 | 西安电子科技大学 | 基于多级融合和角点偏移的图像旋转目标检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127204A (zh) * | 2016-06-30 | 2016-11-16 | 华南理工大学 | 一种全卷积神经网络的多方向水表读数区域检测算法 |
CN106202997A (zh) * | 2016-06-29 | 2016-12-07 | 四川大学 | 一种基于深度学习的细胞分裂检测方法 |
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
CN106960195A (zh) * | 2017-03-27 | 2017-07-18 | 深圳市丰巨泰科电子有限公司 | 一种基于深度学习的人群计数方法及装置 |
-
2017
- 2017-09-12 CN CN201710816619.3A patent/CN107563381B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106202997A (zh) * | 2016-06-29 | 2016-12-07 | 四川大学 | 一种基于深度学习的细胞分裂检测方法 |
CN106127204A (zh) * | 2016-06-30 | 2016-11-16 | 华南理工大学 | 一种全卷积神经网络的多方向水表读数区域检测算法 |
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
CN106960195A (zh) * | 2017-03-27 | 2017-07-18 | 深圳市丰巨泰科电子有限公司 | 一种基于深度学习的人群计数方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107563381A (zh) | 2018-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107563381B (zh) | 基于全卷积网络的多特征融合的目标检测方法 | |
Tao et al. | An object detection system based on YOLO in traffic scene | |
CN109034210B (zh) | 基于超特征融合与多尺度金字塔网络的目标检测方法 | |
CN108846446B (zh) | 基于多路径密集特征融合全卷积网络的目标检测方法 | |
CN107316058A (zh) | 通过提高目标分类和定位准确度改善目标检测性能的方法 | |
CN107590489A (zh) | 基于级联卷积神经网络的目标检测方法 | |
CN110852182B (zh) | 一种基于三维空间时序建模的深度视频人体行为识别方法 | |
CN106340016A (zh) | 一种基于细胞显微镜图像的dna定量分析方法 | |
CN112528845B (zh) | 一种基于深度学习的物理电路图识别方法及其应用 | |
CN110853070A (zh) | 基于显著性与Grabcut的水下海参图像分割方法 | |
Lu et al. | Multi-object detection method based on YOLO and ResNet hybrid networks | |
CN113177927B (zh) | 基于多特征和多分类器的骨髓细胞分类识别方法及系统 | |
CN107609509A (zh) | 一种基于运动显著性区域检测的动作识别方法 | |
Chen et al. | Agricultural remote sensing image cultivated land extraction technology based on deep learning | |
CN113408584A (zh) | Rgb-d多模态特征融合3d目标检测方法 | |
CN115861619A (zh) | 一种递归残差双注意力核点卷积网络的机载LiDAR城市点云语义分割方法与系统 | |
CN113470076A (zh) | 一种平养鸡舍黄羽鸡多目标跟踪方法 | |
Xu et al. | Occlusion problem-oriented adversarial faster-RCNN scheme | |
CN112668662B (zh) | 基于改进YOLOv3网络的野外山林环境目标检测方法 | |
Perveen et al. | Multidimensional Attention-Based CNN Model for Identifying Apple Leaf Disease. | |
CN112819832A (zh) | 基于激光点云的城市场景语义分割细粒度边界提取方法 | |
CN110348311B (zh) | 一种基于深度学习的道路交叉口识别系统及方法 | |
Li et al. | Incremental learning of infrared vehicle detection method based on SSD | |
CN111311643B (zh) | 使用动态搜索的视频目标跟踪方法 | |
Hou et al. | Forest: A Lightweight Semantic Image Descriptor for Robust Visual Place Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |