CN113468994A - 基于加权采样和多分辨率特征提取的三维目标检测方法 - Google Patents

基于加权采样和多分辨率特征提取的三维目标检测方法 Download PDF

Info

Publication number
CN113468994A
CN113468994A CN202110688207.2A CN202110688207A CN113468994A CN 113468994 A CN113468994 A CN 113468994A CN 202110688207 A CN202110688207 A CN 202110688207A CN 113468994 A CN113468994 A CN 113468994A
Authority
CN
China
Prior art keywords
point
voxel
points
dimensional
sampling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110688207.2A
Other languages
English (en)
Inventor
胡杰
安永鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN202110688207.2A priority Critical patent/CN113468994A/zh
Publication of CN113468994A publication Critical patent/CN113468994A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于加权采样和多分辨率特征提取的三维目标检测方法,第一阶段中将原始点云进行体素网格划分,以体素特征来表征;通过稀疏卷积操作编码空间稀疏特征图;进一步重塑为二维俯视图特征,在此特征上进行感兴趣区域的提取并进行粗糙分类和粗糙的框回归定位;第二阶段中,通过设计一个语义分割网络来区分点的类别,通过加权最远点采样方法在对原始点采样时,给与前景点更大的权重,增大采样关键点时前景点被获取得几率,进一步提取第一阶段的中间体素特征,进行候选框的二次细化回归。本发明通过设计语义分割网络和加权最远点采样方法显著提高了无人驾驶中三维目标检测的精度,同时应用多分辨率特征聚合方法降低了时间的损耗。

Description

基于加权采样和多分辨率特征提取的三维目标检测方法
技术领域
本发明涉及无人驾驶、深度学习以及激光点云技术领域,具体地指一种基于加权采样和多分辨率特征提取的三维目标检测方法。
技术背景
随着工业智能化时代的到来,无人驾驶汽车得到了飞速的发展。目前工业界应用可行的大部分为L4级自动驾驶,即在特定场景下的自动驾驶。自动驾驶中最为难以攻克的核心技术主要集中在感知模块,也即汽车对于外界环境障碍物的识别和理解。三维目标检测作为主要的感知任务之一具有重大的研究意义,三维目标检测算法研究的核心旨在提高三维目标检测的精度,并且降低检测所需要的时间,从而保证目标检测的实时性和实现更高的准确性。基于深度学习的三维的目标检测也可以分为两大主要的流派,一类是双阶段检测,另一类是单阶段检测。前者在检测精度上相对较高,是一种由粗到精的检测过程;后者在检测速度上相对较快,是一种一步到位的检测。根据点云数据的处理方式不同,三维目标检测又分为基于点云Point-based的方法和 voxel-based的方法两大类。
PointNet最先提出直接使用神经网络模型来处理原始点云数据,使得网络能够学习点与点之间的关系特征。但是由于其是对全部点云进行多尺度特征提取,所消耗的时间是非常大的。PointNet++创新性的提出一种多分辨率局部特征提取方法在不一样的尺度范围获取特征,并且运用多层的网络构架获得深层次的特征,大大节约了所需要的时间。3DSSD提出了融合采样策略,融合特征判断最远点,从而在降采样时保留更多的边框内部的前景点,由此就可以将特征传播安全的移除。3DSSD为单阶段检测器,因此它去掉的第二阶段的边框的回归,极大地减少了推理所需要的时间,但是其检测精度相对不高。 PointRCNN采用Pointnet++作为RPN阶段的主干网络,采用 Point-based方式在第一阶段得到特征和感兴趣区域,在第二阶段为了更好地学习局部空间特征将候选区域池化得到的点转化为规范坐标,提高了鲁棒性。但是其推理所消耗的时间远高于单阶段方法并且对行人的检测效果也较差。
基于体素的方法因其能够保留点云的三维空间信息,所以广泛用于很多三维目标检测方法中。Voxelnet第一次把原始三维点云划分为很多的体素网格,然后通过Pointnet网络进行特征提取,紧接着用三维卷积来聚合空间特征。但是因为在卷积操作中有很多空的体素,所以会消耗很多的时间做无效的特征提取。SECOND基于Voxelnet网络推理速度慢,方位评估性能差等问题,提出子流形稀疏卷积提高了训练和推理速度,也引入角损失回归改善了方位评估和一种数据增强方法来增加网络收敛速度和性能。SASSD针对在采样过程中不断的稀疏卷积导致的空间信息损失问题,设计了一个可拆卸的辅助网络充分的利用了多尺度特征图的来弥补丢失的空间结构信息,提高了网络检测的精度并且提出了敏感翘曲方法来解决置信度和边界框预测不对齐的问题。STD结合了Point-based和Voxel-based方法在第一阶段使用 Point-based策略对特征进行提取,在第二阶段使用Voxel-based策略对感兴趣区域进行体素化和池化再经全连接层输出最后的类别和候选框位置。大大提高了检测精度,但是也增加了耗时。因此平衡好目标检测精度和检测的速度是三维目标检测的核心问题。
发明内容
本发明的目的在于克服现有技术的不足,针对在采集关键点的过程中背景点较多从而不能充分聚合体素信息的问题,而提出一种融合语义分割网络的权重分配采样和多分辨率特征提取的三维目标检测方法,显著提高了无人驾驶中三维检测的精度。
为实现上述目的,本发明所设计的一种基于加权采样和多分辨率特征提取的三维目标检测方法,其特殊之处在于,所述方法包括如下步骤:
S1)对空间中的原始点云划分均匀体素网格,对非空的体素网格中的点云进行均值计算得到每个非空体素网格的特征,利用三维稀疏卷积对体素空间特征进行下采样;
S2)根据获取的感兴趣区域进行目标粗分类和粗回归;将降采样后的体素特征重塑为二维俯视图,在此基础上通过RPN网络进行感兴趣区域的提取,然后对检测目标进行粗糙回归和粗糙分类;
S3)通过语义分割网络对下采样体素网格中的每个点云预测,判断其是属于前景点还是背景点;
S4:使用最远点采样方法采集关键点,并通过权重分配操作给予前景点更大的权重,从而增大前景点被采集的概率;
S5:根据采集到的关键点通过多分辨率特征提取操作来聚合体素特征,通过池化操作进行特征融合,通过检测网络获取更加精细的分类和边框定位。
优选地,所述步骤1)的具体步骤为:将原始点云空间表示为 L*H*W,对划分好的非空的体素网格中的点云对其坐标x,y,z和反射强度i做平均池化,获取每个体素的特征;使用一系列3×3×3的三维稀疏卷积对体素特征进行下采样,使用的卷积通道分别为16,32,64,64,将原始体素空间降采样为原来的1,1/2,1/4,1/8倍。
优选地,所述步骤2)中将降采样输出的最后一层沿x轴压缩为俯视图特征,二维特征图通过一个四维张量进行表示,在每个俯视图像素点上设置2个互相垂直的锚框,通过RPN网络进行感兴趣区域的提取,对目标候选框进行粗糙分类和粗糙定位。
优选地,所述步骤3)中以第一层的稀疏卷积作为输入,通过两个卷积操作输出通道均为64,再经过反卷积操作将两个结果拼接在一起,经过卷积核为1的网络层输出通道为256,根据此操作预测出每个点是属于前景点还是背景点。
优选地,所述步骤4)的具体步骤为:在原始点云中M选取一个点M1,计算M中其余点和M1的欧式距离,选取距离最大的点为M2,然后把M1和M2加入点集合U;再计算其余剩余点到集合U的欧式距离,M中任何一个点到集合的距离记为
Figure BDA0003125562870000041
再根据语义分割网络预测出来的点的类别进行权重分配。
优选地,两点间的欧式距离的具体计算公式如下:
Figure BDA0003125562870000042
其中L为两点间欧式距离,(X,Y)为任意两点,n为点的坐标维度。
优选地,所述步骤5)中根据采集到的关键点,使用多分辨率特征聚合方法来聚合体素内的特征,在低水平层使用若干个小的感受域,在高水平层使用大的感受域将低水平的特征进一步提取,再通过 Pointnet网络分别将低水平层和高水平层特征结合起来。
优选地,所述步骤S2重塑的俯视图的长宽分别为原始空间的1/8 倍,并且在每个位置设置两个互为90度的锚框。
优选地,所述感受域采用球形,以采集到的关键点作为球心。
优选地,所述步骤S5)中池化操作将每个目标候选框平均分为若干个网格,以每个网格的中心作为关键点进一步聚合上层获取的特征,输出为一个三维张量,将结果输入给两个全连接层进行精细的分类和边框的回归定位。
本发明提出了一种融合语义分割和加权最远点采样的三维物体检测方法,对稀疏卷积中的体素化下采样中的每个点云使用3×3的卷积核进行卷积和1×1的卷积核进行反卷积层来实现语义分割,判断点云属于前景点还是背景点,进一步在进行最远点采样时,给予前景点更大的权重增加前景点被采集的几率,从而能够更加准确地聚合体素特征,在聚合特征时利用多分辨率特征提取分别在低水平层和高水平层以不同的感受域进行特征提取,并且将不同层次的特征进行concat,由于在高层进行特征提取时是在低层的基础上,所以大大减少了点的数量因而也节约了很多时间。通过在公开KITTI数据集上进行测试,结果显示本方法对于三维目标检测检测精度有显著的提升并且减少了推理所消耗的时间,其有益效果为:
(1)本发明设计了一个分割网络来对输入的每个点云来判别其是属于前景点和后景点,以此作为后续采样点的加权依据。在使用欧式距离来进行最远点采样关键点时,给予前景点更大的权重给予背景点更小的权重,从而来增加前景点被采集的概率,使接下来特征聚合更加有效,与现有的二阶段网络做对比,对车类的检测精度提高了1.5%。
(2)本发明在聚合体素特征时,使用多分辨率特征聚合方法,首先在低水平层以关键点为球心,设置几个小的感受域通过多层感知机来聚合体素中的点云特征,进一步在高水平层来聚合低水平层的特征,最后把多层特征concat在一起。相对于多尺度特征提取,多分辨率减少了重复提取特征的点云,在原有网络的基础上节约推理所消耗的时间10ms。
附图说明
图1为本发明技术方案的总体流程框图。
图2为本发明语义分割网络的结构图。
图3为本发明权重分配关键点采样方法的示意图。
图4为本发明权重分配关键点采样流程框图。
图5为本发明多分辨率特征聚合示意图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步的详细描述。
如图1所示,本发明所提出的一种基于加权采样和多分辨率特征提取的三维目标检测方法,整个网络的详细的实施步骤如下:
步骤S1:首先将输入的原始点云空间划分为均匀的体素网格,原始点云空间可以表示为L*H*W,而每个体素网格的大小为参考固定值[0.05,0.05,0.1];然后对划分好的非空的体素网格中的点云对其坐标 x,y,z和反射强度i做平均池化,获取每个体素的特征;进一步使用一系列3×3×3的三维稀疏卷积对体素特征进行下采样,使用的卷积通道分别为16,32,64,64,将原始体素空间降采样为原来的1,1/2,1/4,1/8 倍。
步骤S2:将降采样输出的最后一层沿x轴压缩为俯视图特征,二维特征图尺寸为(L/8,W/8),此时二维特征图通过一个四维张量进行表示(1,256,200,176),在每个俯视图像素点上设置2个互相垂直的锚框,通过RPN网络进行感兴趣区域的提取,对目标候选框进行粗糙分类和粗糙定位,最后保留的候选框为512个。重塑的俯视图的长宽分别为原始空间的1/8倍,并且在每个位置设置两个互为90度的锚框。
步骤S3:如图2所示C代表通道数量,Conv代表卷积,Deconv 代表反卷积,将第一层下采样体素点特征作为语义网络的输入,输入通道为16然后经过一系列卷积核为三的网络层进行卷积,最后两部分的输出通道分别为64,对两分支再进行反卷积操作,最后通过一个卷积核为1的网络层进行特征拼接输出通道为256,以此网络来区分每个点是属于前景点还是背景点。
步骤S4:如图3和图4所示,根据S3区分出的每个点的类别进行权重分配关键点,采样具体步骤如下:
S41:在原始点云M中随机选取一个点云M1,然后计算剩余点中与M1欧式距离最远点的点记为M2,将其加入集合U中,此时U 中仅有点M1和M2。
两点间的欧式距离的具体计算公式如下:
Figure BDA0003125562870000061
其中L为两点间欧式距离,(X,Y)为任意两点,n为点的坐标维度。
S42:在语义分割网络判断每个点的类别基础上进行权重分配,如果点云属于前景点就给予它到集合U的
Figure BDA0003125562870000071
更高的权重,如果属于背景点就给予更低的权重,权重值范围为0-1。因此在进行采样时前景点被获取的几率就会增大,在这一过程中降采样到的点记为M3,把M3放入集合U中。
S43:按照同样的步骤,不断地在M中迭代,计算点云M中剩余点到集合U的距离,结合其类别进行加权分配,不断地选取加权分配后的最远点加入到集合U中,不断迭代直到集合U中的点的数量达到上限4096,关键点采样结束。
步骤S5:根据S4中采集到的关键点,通过多分辨率特征提取聚合第一阶段下采样中的体素特征,特征聚合过程如图5所示。
S51:在每层的体素下采样空间中,以采集到的关键点为球心,现在低水平层进行特征提取,球心半径为0.3,然后对在低水平层特征的基础上进行高水平层的特征提取,球心半径为0.6,再通过Pointnet 网络分别将低水平层和高水平层特征结合起来。
S52:由于下采样操作一共有四层,所以上述过程需要进行四次,最后把所有层的特征拼接起来完成了关键点对体素特征的聚合,此时的输出为一个三维张量(1,4096,640),具体含义为一个batch size,有 4096个点,每个点聚合了640个特征。
S53:特征池化操作,将每个目标候选框平均分为6×6×6的216 个网格,以每个网格的中心作为关键点进一步聚合上层获取的特征,此时的输出为一个三维张量(128,216,128),具体含义为共有128个 proposals,每个proposal划分为216个网格,每个网格聚合128个特征。将结果输入给两个全连接层进行精细的分类和边框的回归定位。最后确定每个候选框的类别标签和七个位置信息包括中心点的坐标 (X,Y,Z),边框的尺寸(L,W,H)和朝向。
根据采集到的关键点,使用多分辨率特征聚合方法来聚合体素内的特征,在低水平层使用多个小的感受域,在高水平层使用大的感受域将低水平的特征进一步提取。最后将高水平层和低水平层进行 concat。感受域采用球形,以采集到的关键点作为球心,设置球形半径为(0.3,0.6),(0.6,1.2)。在池化操作中将每个候选框划分为6×6×6共 216的网格,在此基础上通过多层感知机进行特征融合,其感受域半径为(0.8,1.6),最后通过全连接层对要检测的三维目标进行第二次精细的分类和定位。
最后需要说明的是,以上具体实施方式仅用以说明本专利技术方案而非限制,尽管参照较佳实施例对本专利进行了详细说明,本领域的普通技术人员应当理解,可以对本专利的技术方案进行修改或者等同替换,而不脱离本专利技术方案的精神和范围,其均应涵盖在本专利的权利要求范围当中。

Claims (10)

1.一种基于加权采样和多分辨率特征提取的三维目标检测方法,其特征在于:所述方法包括如下步骤:
S1)对空间中的原始点云划分均匀体素网格,对非空的体素网格中的点云进行均值计算得到每个非空体素网格的特征,利用三维稀疏卷积对体素空间特征进行下采样;
S2)根据获取的感兴趣区域进行目标粗分类和粗回归;将降采样后的体素特征重塑为二维俯视图,在此基础上通过RPN网络进行感兴趣区域的提取,然后对检测目标进行粗糙回归和粗糙分类;
S3)通过语义分割网络对下采样体素网格中的每个点云预测,判断其是属于前景点还是背景点;
S4:使用最远点采样方法采集关键点,并通过权重分配操作给予前景点更大的权重,从而增大前景点被采集的概率;
S5:根据采集到的关键点通过多分辨率特征提取操作来聚合体素特征,通过池化操作进行特征融合,通过检测网络获取更加精细的分类和边框定位。
2.根据权利要求1所述的基于加权采样和多分辨率特征提取的三维目标检测方法,其特征在于:所述步骤1)的具体步骤为:将原始点云空间表示为L*H*W,对划分好的非空的体素网格中的点云对其坐标x,y,z和反射强度i做平均池化,获取每个体素的特征;使用一系列3×3×3的三维稀疏卷积对体素特征进行下采样,使用的卷积通道分别为16,32,64,64,将原始体素空间降采样为原来的1,1/2,1/4,1/8倍。
3.根据权利要求2所述的基于加权采样和多分辨率特征提取的三维目标检测方法,其特征在于:所述步骤2)中将降采样输出的最后一层沿x轴压缩为俯视图特征,二维特征图通过一个四维张量进行表示,在每个俯视图像素点上设置2个互相垂直的锚框,通过RPN网络进行感兴趣区域的提取,对目标候选框进行粗糙分类和粗糙定位。
4.根据权利要求1所述的基于加权采样和多分辨率特征提取的三维目标检测方法,其特征在于:所述步骤3)中以第一层的稀疏卷积作为输入,通过两个卷积操作输出通道均为64,再经过反卷积操作将两个结果拼接在一起,经过卷积核为1的网络层输出通道为256,根据此操作预测出每个点是属于前景点还是背景点。
5.根据权利要求1所述的基于加权采样和多分辨率特征提取的三维目标检测方法,其特征在于:所述步骤4)的具体步骤为:在原始点云中M选取一个点M1,计算M中其余点和M1的欧式距离,选取距离最大的点为M2,然后把M1和M2加入点集合U;再计算其余剩余点到集合U的欧式距离,M中任何一个点到集合的距离记为
Figure FDA0003125562860000021
再根据语义分割网络预测出来的点的类别进行权重分配。
6.根据权利要求4述的基于加权采样和多分辨率特征提取的三维目标检测方法,其特征在于:两点间的欧式距离的具体计算公式如下:
Figure FDA0003125562860000022
其中L为两点间欧式距离,(X,Y)为任意两点,n为点的坐标维度。
7.根据权利要求1所述的基于加权采样和多分辨率特征提取的三维目标检测方法,其特征在于:所述步骤5)中根据采集到的关键点,使用多分辨率特征聚合方法来聚合体素内的特征,在低水平层使用若干个小的感受域,在高水平层使用大的感受域将低水平的特征进一步提取,再通过Pointnet网络分别将低水平层和高水平层特征结合起来。
8.根据权利要求3所述的基于加权采样和多分辨率特征提取的三维目标检测方法,其特征在于:所述步骤S2重塑的俯视图的长宽分别为原始空间的1/8倍,并且在每个位置设置两个互为90度的锚框。
9.根据权利要求7所述的基于加权采样和多分辨率特征提取的三维目标检测方法,其特征在于:所述感受域采用球形,以采集到的关键点作为球心。
10.根据权利要求7所述的基于加权采样和多分辨率特征提取的三维目标检测方法,其特征在于:所述步骤S5)中池化操作将每个目标候选框平均分为若干个网格,以每个网格的中心作为关键点进一步聚合上层获取的特征,输出为一个三维张量,将结果输入给两个全连接层进行精细的分类和边框的回归定位。
CN202110688207.2A 2021-06-21 2021-06-21 基于加权采样和多分辨率特征提取的三维目标检测方法 Pending CN113468994A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110688207.2A CN113468994A (zh) 2021-06-21 2021-06-21 基于加权采样和多分辨率特征提取的三维目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110688207.2A CN113468994A (zh) 2021-06-21 2021-06-21 基于加权采样和多分辨率特征提取的三维目标检测方法

Publications (1)

Publication Number Publication Date
CN113468994A true CN113468994A (zh) 2021-10-01

Family

ID=77869101

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110688207.2A Pending CN113468994A (zh) 2021-06-21 2021-06-21 基于加权采样和多分辨率特征提取的三维目标检测方法

Country Status (1)

Country Link
CN (1) CN113468994A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114092780A (zh) * 2021-11-12 2022-02-25 天津大学 基于点云与图像数据融合的三维目标检测方法
CN114495089A (zh) * 2021-12-21 2022-05-13 西安电子科技大学 基于多尺度异源特征自适应融合的三维目标检测方法
CN114553280A (zh) * 2022-02-21 2022-05-27 重庆邮电大学 一种基于深度学习大规模mimo系统的csi反馈方法
CN114821033A (zh) * 2022-03-23 2022-07-29 西安电子科技大学 一种基于激光点云的三维信息增强的检测识别方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190147245A1 (en) * 2017-11-14 2019-05-16 Nuro, Inc. Three-dimensional object detection for autonomous robotic systems using image proposals
CN110991468A (zh) * 2019-12-13 2020-04-10 深圳市商汤科技有限公司 三维目标检测和智能行驶方法、装置、设备
CN112288709A (zh) * 2020-10-28 2021-01-29 武汉大学 一种基于点云的三维目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190147245A1 (en) * 2017-11-14 2019-05-16 Nuro, Inc. Three-dimensional object detection for autonomous robotic systems using image proposals
CN110991468A (zh) * 2019-12-13 2020-04-10 深圳市商汤科技有限公司 三维目标检测和智能行驶方法、装置、设备
CN112288709A (zh) * 2020-10-28 2021-01-29 武汉大学 一种基于点云的三维目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
赵亮等: "基于语义分割的深度学习激光点云3D 目标检测算法", 《中国激光》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114092780A (zh) * 2021-11-12 2022-02-25 天津大学 基于点云与图像数据融合的三维目标检测方法
CN114092780B (zh) * 2021-11-12 2024-06-07 天津大学 基于点云与图像数据融合的三维目标检测方法
CN114495089A (zh) * 2021-12-21 2022-05-13 西安电子科技大学 基于多尺度异源特征自适应融合的三维目标检测方法
CN114553280A (zh) * 2022-02-21 2022-05-27 重庆邮电大学 一种基于深度学习大规模mimo系统的csi反馈方法
CN114821033A (zh) * 2022-03-23 2022-07-29 西安电子科技大学 一种基于激光点云的三维信息增强的检测识别方法及装置

Similar Documents

Publication Publication Date Title
Adarsh et al. YOLO v3-Tiny: Object Detection and Recognition using one stage improved model
CN110188705B (zh) 一种适用于车载系统的远距离交通标志检测识别方法
CN109932730B (zh) 基于多尺度单极三维检测网络的激光雷达目标检测方法
CN108564097B (zh) 一种基于深度卷积神经网络的多尺度目标检测方法
CN111553201B (zh) 一种基于YOLOv3优化算法的交通灯检测方法
CN112101221B (zh) 一种用于交通信号灯实时检测与识别的方法
CN111709416B (zh) 车牌定位方法、装置、系统及存储介质
Rani et al. Object detection and recognition using contour based edge detection and fast R-CNN
CN113468994A (zh) 基于加权采样和多分辨率特征提取的三维目标检测方法
CN111898432B (zh) 一种基于改进YOLOv3算法的行人检测系统及方法
CN105550701A (zh) 实时图像提取识别方法及装置
CN111242041A (zh) 基于伪图像技术的激光雷达三维目标快速检测方法
CN109034024B (zh) 基于图像目标检测的物流车辆车型分类识别方法
CN107545263A (zh) 一种物体检测方法及装置
CN115631344B (zh) 一种基于特征自适应聚合的目标检测方法
CN111126459A (zh) 一种车辆细粒度识别的方法及装置
CN114049572A (zh) 识别小目标的检测方法
Karim et al. A brief review and challenges of object detection in optical remote sensing imagery
CN112861915A (zh) 一种基于高级语义特征无锚框非合作目标检测方法
CN113159215A (zh) 一种基于Faster Rcnn的小目标检测识别方法
Ma et al. Intelligent detection model based on a fully convolutional neural network for pavement cracks
CN111462140A (zh) 一种基于区块拼接的实时图像实例分割方法
CN114332921A (zh) 基于改进聚类算法的Faster R-CNN网络的行人检测方法
CN116824543A (zh) 一种基于od-yolo的自动驾驶目标检测方法
CN113128476A (zh) 一种基于计算机视觉目标检测的低功耗实时头盔检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20211001

RJ01 Rejection of invention patent application after publication