CN112613450B - 一种增强在困难样本上表现的3d目标检测方法 - Google Patents
一种增强在困难样本上表现的3d目标检测方法 Download PDFInfo
- Publication number
- CN112613450B CN112613450B CN202011598084.5A CN202011598084A CN112613450B CN 112613450 B CN112613450 B CN 112613450B CN 202011598084 A CN202011598084 A CN 202011598084A CN 112613450 B CN112613450 B CN 112613450B
- Authority
- CN
- China
- Prior art keywords
- point
- voxel
- points
- loss
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种增强在困难样本上表现的3D目标检测方法。包括以下步骤:1.将点云进行体素化,然后对这些体素进行特征提取;2.使用3D目标检测网络根据特征图得到一系列的目标建议框;3.预测每个候选框内的点的个数所属的类别以及该候选框的中心点和框内所有点的坐标的平均值之间的单位距离向量,使用辅助损失模块进行分类和回归;4.对损失函数进行优化,进行前背景的分类,中心点位置、形状和转向角的回归,以及物体朝向的二分类,得到最终的3D目标检测结果。本发明有效提高了对于内部点云数过少以及内部点云分布过于不均匀的困难样本的检测性能,解决了基于点云的3D目标检测在远距离、被遮挡和过偏的转向角的情况下表现较差的问题。
Description
技术领域
本发明属于基于激光雷达点云使用神经网络进行3D物体检测领域,具体设计一种增强在困难样本上表现的3D目标检测方法。
背景技术
对于3D目标检测,目前的主流方法可以按照以下的3种分类方式进行划分。按照所使用的传感器进行划分,可分为单独使用照相机,单独使用激光雷达以及同时使用照相机和激光雷达,单独使用照相机即根据2D的RGB图片来进行3D物体的预测;单独使用激光雷达即根据3D点云数据来进行3D物体预测;同时使用照相机和激光雷达的话可以通过相机和雷达之间的转换矩阵将2D的RGB图片中的每一个像素对应到3D空间中的每一个点,这样3D空间中的每一个点就可以既拥有坐标和强度信息又拥有语义信息。按照网络的输入表征进行划分,可分为基于体素的表征方式和基于点的表征方式,基于体素的表征方式可以通过3D卷积进行降维,从而将3D特征转到2D空间,接下来就可以使用在2D检测中基于锚点的RPN,然后再接各种预测头得到结果;基于点的表征方式会针对点云的独特性质对其设计提取特征的操作,比如有比较流行的PointNet以及PointNet++。按照网络训练阶段进行划分,可分为单阶段和两阶段,单阶段的一般是类似SSD的结构,两阶段的会把第一阶段预测的box和一些特征以及原始数据融合进一步改进从而得到更好的结果。
发明内容
本发明的目的是,针对现有的3D目标检测方法在困难样本上表现不好的问题,提供一种增强在困难样本上表现的3D目标检测方法;该方法通过对每个候选框内部的点数类别以及其中心点和内部所有点的中心点之间的单位距离向量使用辅助损失模块进行分类和预测,能够增强对距离较远或者被遮挡的困难样本的检测结果。
本发明所使用的的技术方案是:一种增强在困难样本上表现的3D目标检测方法,其特征在于,增强在困难样本上表现的3D目标检测方法包括以下步骤:
步骤1:将点云数据进行体素化;
步骤2:搭建3D目标检测网络;
步骤3:对物体内的点数类别以及单位距离向量进行辅助训练,辅助训练的过程为:对于物体内的点数的分类的做法为:首先对整个数据集的所有物体内部的点数进行统计,接着对这些点数使用KMeans方法进行聚类,将其分为K类,其中每一个物体根据其内部所含点数可以将其分为类别Cpoint_num:
Cpoint_num=k k∈{0,1,2,…,K-1}
每一类由一个点数范围所限制,第k类的点数Pk所属的范围为:
Pk∈[point_numk-1,point_numk)
其使用多个残差网络模块进行预测,每个残差网络模块包括一个3×3的2D卷积,一个BatchNorm层和一个ReLU层,以及一个侧边连接;
对于物体的单位距离向量的回归的做法为:对于每一个物体可以知道他的box的中心点为:
接着可以计算物体box内所有的点的中心点为:
(xi,yi,zi)是位于box内的点,N是位于box内的所有点数,接着box的中心点和box内所有点的中心点之间的单位距离向量的计算公式为:
其和物体内部点数分类模块一样使用多个残差网络模块进行预测,每个残差网络包括一个3×3的2D卷积,一个BatchNorm层和一个ReLU层,以及一个侧边连接。
步骤4:对损失函数进行优化。
进一步的,在步骤1中,所述将点云数据进行体素化的计算过程为:
首先通过统计所有点云数据确定3D坐标范围(xmin,xmax),(ymin,ymax),(zmin,zmax),用其来对点云进行过滤和筛选;然后将所有的激光雷达点云数据进行体素化,设定固定的体素大小(vx,vy,vz)对整个3D空间进行切分,得到固定数目的体素接着通过统计所有点云数据确定体素中最大点数Npoint,当一个体素中的点数超过Npoint的时候对其中的点进行随机筛选,当一个体素中的点数不足Npoint的时候使用(0,0,0)来进行补充;最后通过统计所有点云数据确定点云的最大体素数Nvoxel,当一个点云中的体素数超过Nvoxel的时候舍去那些内部不含有点的体素,当一个点云中的体素数不足Nvoxel的时候使用包含Npoint个(0,0,0)点的体素来进行补充;至此可以得到[Nvoxel,Npoint,4]个体素内部的点坐标信息,其中4表示(x,y,z,intensity),同时可以得到[Nvoxel,voxelx,voxely,voxelz]个体素自身的坐标信息,该坐标是体素的中心点位置。
进一步的,在步骤2中,所述搭建3D目标检测网络的过程为:
将体素化之后的数据送入网络,整体的网络分为四个部分:体素特征提取器,稀疏3D卷积网络,候选位置生成网络和预测头;体素特征提取器用来对每一个体素进行特征的提取,直接将体素内的所有点的坐标和强度取平均值作为该体素的特征;稀疏3D卷积网络对于分布在3D空间内的体素特征进行3D稀疏卷积来提取特征,其通过进行下采样将特征图尺寸不断缩小,将z方向的尺寸降维为1或者2,然后将它乘到通道维度上去,这样可以把原来的3维的特征降维为2维,同时使用稀疏3D卷积可以大大地优化运算速度和内存占用;候选位置生成网络将降维为2维的特征图作为输入,通过2D卷积来进行下采样以及上采样,最后得到最终用于预测的特征图;预测头对上面得到的特征图进行三个物体特征值的预测,预测物体的类别,回归物体的中心点位置、尺寸和转向角的偏移量,预测物体的朝向。
进一步的,在步骤4中,所述对损失函数进行优化的过程为:
总的损失函数Loss分为5个部分,其计算方式为:
Loss=λ1Losscls+λ2Lossreg+λ3Lossdir+λ4Losspoint_num+λ5Losscenter_dist
其中Losscls为计算预测物体类别的损失函数,其使用softmax函数来计算,Lossreg为回归物体的中心点坐标、尺寸和转向角的损失韩式,其使用smooth-L1函数来计算,Lossdir为预测物体的朝向的损失函数,其使用softmax函数来计算,Losspoint_num为预测物体内部的点数所属类别的损失函数,其使用softmax函数来计算,Losscenter_dist为预测物体的box中心点和box内所有点的中心点之间单位向量的损失函数,其使用smooth-L1函数来计算。
本发明的有益效果:根据激光雷达的特性,我们观察到远处物体内部的点数十分稀疏,密度很低,其难以提取足够的特征来进行3D目标检测;同时被遮挡或者处于较偏位置的物体内部点云分布比较不均匀,也难以提取好的特征以供检测。这些困难样本导致3D目标检测的精度下降。本发明通过加入对物体内的点数类别以及单位距离向量的辅助训练,提高了对困难样本的检测表现,从而获得更好的3D目标检测效果。
附图说明
图1为增强在困难样本上表现的3D目标检测方法示意图。
具体实施方式
一种增强在困难样本上表现的3D目标检测方法的网络结构如附图1所示,该方法通过对物体内的点数类别以及物体的框的中心点和框内所有点的中心点之间的单位距离向量进行辅助训练,增强在困难样本上检测的表现,从而大大提升了3D目标检测的精确度,其特征在于,增强在困难样本上表现的3D目标检测方法包括以下步骤:
步骤1:将点云数据进行体素化;统计所有点云数据确定3D坐标范围(xmin,xmax),(ymin,ymax),(zmin,zmax),对点云进行过滤和筛选;然后将点云数据进行体素化,设定固定的体素的大小(vx,vy,vz)来对整个3D空间进行划分,得到固定数目的体素接着通过统计所有点云数据确定体素中最大点数Npoint,当一个体素中的点数超过Npoint的时候对其中的点进行随机筛选,当一个体素中的点数不足Npoint的时候使用(0,0,0)来进行补充;最后通过统计所有点云数据确定点云的最大体素数Nvoxel,当一个点云中的体素数超过Nvoxel的时候舍去那些内部不含有点的体素,当一个点云中的体素数不足Nvoxel的时候使用包含Npoint个(0,0,0)点的体素来进行补充;至此可以得到[Nvoxel,Npoint,4]个体素内部的点坐标信息,其中4表示(x,y,z,intensity),同时可以得到[Nvoxel,voxelx,voxely,voxelz]个体素自身的坐标信息,该坐标是体素的中心点位置。
步骤2:搭建3D目标检测网络;网络结构如附图1所示,将体素化之后的数据送入网络,整体的网络分为四个部分:体素特征提取器,稀疏3D卷积网络,候选位置生成网络和预测头;体素特征提取器用来对每一个体素进行特征的提取,直接将体素内的所有点的坐标和强度取平均值作为该体素的特征;稀疏3D卷积网络对于分布在3D空间内的体素特征进行3D稀疏卷积来提取特征,其通过进行下采样将特征图尺寸不断缩小,将z方向的尺寸降维为1或者2,然后将它乘到通道维度上去,这样可以把原来的3维的特征降维为2维,同时使用稀疏3D卷积可以大大地优化运算速度和内存占用;候选位置生成网络将降维为2维的特征图作为输入,通过2D卷积来进行下采样以及上采样,最后得到最终用于预测的特征图;预测头对上面得到的特征图进行三个物体特征值的预测,预测物体的类别,回归物体的中心点位置、尺寸和转向角的偏移量,预测物体的朝向。
步骤3:对物体内的点数类别以及单位距离向量进行辅助训练;那些离激光雷达距离比较远的物体以及被遮挡或者离激光雷达的角度比较偏的物体,由于这些物体内部点的密度过低或者点的分布过于局部导致这些物体比较难检测,通过加入对物体内的点数类别的分类以及对单位距离向量进行回归的辅助训练模块可以增强在困难样本上的3D检测的表现;
对于物体内的点数的分类的做法为:首先对整个数据集的所有物体内部的点数进行统计,接着对这些点数使用KMeans方法进行聚类,将其分为K类,其中每一个物体根据其内部所含点数可以将其分为类别Cpoint_num:
Cpoint_num=k k∈{0,1,2,…,K-1}
每一类由一个点数范围所限制,第k类的点数Pk所属的范围为:
Pk∈[point_numk-1,point_numk)
其使用多个残差网络模块进行预测,每个残差网络模块包括一个3×3的2D卷积,一个BatchNorm层和一个ReLU层,以及一个侧边连接;
对于物体的单位距离向量的回归的做法为:对于每一个物体可以知道他的box的中心点为:
接着可以计算物体box内所有的点的中心点为:
(xi,yi,zi)是位于box内的点,N是位于box内的所有点数,接着box的中心点和box内所有点的中心点之间的单位距离向量的计算公式为:
其和物体内部点数分类模块一样使用多个残差网络模块进行预测,每个残差网络包括一个3×3的2D卷积,一个BatchNorm层和一个ReLU层,以及一个侧边连接。
步骤4:对损失函数进行优化;总的损失函数Loss分为5个部分,其计算方式为:
Loss=λ1Losscls+λ2Lossreg+λ3Lossdir+λ4Losspoint_num+λ5Losscenter_dist
其中Losscls为计算预测物体类别的损失函数,其使用softmax函数来计算,Lossreg为回归物体的中心点坐标、尺寸和转向角的损失韩式,其使用smooth-L1函数来计算,Lossdir为预测物体的朝向的损失函数,其使用softmax函数来计算,LOsspoint_num为预测物体内部的点数所属类别的损失函数,其使用softmax函数来计算,Losscenter_dist为预测物体的box中心点和box内所有点的中心点之间单位向量的损失函数,其使用smooth-L1函数来计算。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种增强在困难样本上表现的3D目标检测方法,基于激光雷达的点云数据进行物体3D检测,检测对象包括:物体的中心点位置,形状和转向角,其特征在于,一种增强在困难样本上表现的3D目标检测方法包括以下步骤:
步骤1:将点云数据进行体素化;
步骤2:搭建3D目标检测网络;
步骤3:对物体内的点数类别以及单位距离向量进行辅助训练,辅助训练的过程为:对于物体内的点数的分类的做法为:首先对整个数据集的所有物体内部的点数进行统计,接着对这些点数使用KMeans方法进行聚类,将其分为K类,其中每一个物体根据其内部所含点数可以将其分为类别Cpoint_num:
Cpoint_num=kk∈{0,1,2,…,K-1}
每一类由一个点数范围所限制,第k类的点数Pk所属的范围为:
Pk∈[point_numk-+,point_numk)
其使用多个残差网络模块进行预测,每个残差网络模块包括一个3×3的2D卷积,一个BatchNorm层和一个ReLU层,以及一个侧边连接;
对于物体的单位距离向量的回归的做法为:对于每一个物体可以知道他的box的中心点为:
接着可以计算物体box内所有的点的中心点为:
(xi,yi,zi)是位于box内的点,N是位于box内的所有点数,接着box的中心点和box内所有点的中心点之间的单位距离向量的计算公式为:
其和物体内部点数分类模块一样使用多个残差网络模块进行预测,每个残差网络包括一个3×3的2D卷积,一个BatchNorm层和一个ReLU层,以及一个侧边连接步骤4:对损失函数进行优化。
2.根据权利要求1所述的一种增强在困难样本上表现的3D目标检测方法,其特征在于:在步骤1中,所述的将点云数据进行体素化的过程为:
首先通过统计所有点云数据确定3D坐标范围(xmin,xmax),(ymin,ymax),(zmin,zmax),用其来对点云进行过滤和筛选;然后将所有的激光雷达点云数据进行体素化,设定固定的体素大小(vx,vy,vz)对整个3D空间进行切分,得到固定数目的体素接着通过统计所有点云数据确定体素中最大点数Npoint,当一个体素中的点数超过Npoint的时候对其中的点进行随机筛选,当一个体素中的点数不足Npoint的时候使用(0,0,0)来进行补充;最后通过统计所有点云数据确定点云的最大体素数Nvoxel,当一个点云中的体素数超过Nvoxel的时候舍去那些内部不含有点的体素,当一个点云中的体素数不足Nvoxel的时候使用包含Npoint个(0,0,0)点的体素来进行补充;至此可以得到[Nvoxel,Npoint,4]个体素内部的点坐标信息,其中4表示(x,y,z,intensity),同时可以得到[Nvoxel,voxelx,voxely,voxelz]个体素自身的坐标信息,该坐标是体素的中心点位置。
3.根据权利要求1所述的一种增强在困难样本上表现的3D目标检测方法,其特征在于:在步骤2中,所述的搭建3D目标检测网络的过程为:
将体素化之后的数据送入网络,整体的网络分为四个部分:体素特征提取器,稀疏3D卷积网络,候选位置生成网络和预测头;体素特征提取器用来对每一个体素进行特征的提取,直接将体素内的所有点的坐标和强度取平均值作为该体素的特征;稀疏3D卷积网络对于分布在3D空间内的体素特征进行3D稀疏卷积来提取特征,其通过进行下采样将特征图尺寸不断缩小,将z方向的尺寸降维为1或者2,然后将它乘到通道维度上去,这样可以把原来的3维的特征降维为2维,同时使用稀疏3D卷积可以大大地优化运算速度和内存占用;候选位置生成网络将降维为2维的特征图作为输入,通过2D卷积来进行下采样以及上采样,最后得到最终用于预测的特征图;预测头对上面得到的特征图进行三个物体特征值的预测,预测物体的类别,回归物体的中心点位置、尺寸和转向角的偏移量,预测物体的朝向。
4.根据权利要求1所述的一种增强在困难样本上表现的3D目标检测方法,其特征在于:在步骤4中,所述的对损失函数进行优化的过程为:
总的损失函数Loss分为5个部分,其计算方式为:
Loss=λ+Losscls+λ2Lossreg+λ3Lossdir+λ=Losspoint_num+λ5Losscenter_dist
其中Losscls为计算预测物体类别的损失函数,其使用softmax函数来计算,Lossreg为回归物体的中心点坐标、尺寸和转向角的损失韩式,其使用smooth-L1函数来计算,Lossdir为预测物体的朝向的损失函数,其使用softmax函数来计算,Losspoint_num为预测物体内部的点数所属类别的损失函数,其使用softmax函数来计算,Losscenter_dist为预测物体的box中心点和box内所有点的中心点之间单位向量的损失函数,其使用smooth-L1函数来计算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011598084.5A CN112613450B (zh) | 2020-12-29 | 2020-12-29 | 一种增强在困难样本上表现的3d目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011598084.5A CN112613450B (zh) | 2020-12-29 | 2020-12-29 | 一种增强在困难样本上表现的3d目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112613450A CN112613450A (zh) | 2021-04-06 |
CN112613450B true CN112613450B (zh) | 2023-08-04 |
Family
ID=75249094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011598084.5A Active CN112613450B (zh) | 2020-12-29 | 2020-12-29 | 一种增强在困难样本上表现的3d目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112613450B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113688738B (zh) * | 2021-08-25 | 2024-04-09 | 北京交通大学 | 一种基于激光雷达点云数据的目标识别系统及方法 |
CN114120070B (zh) * | 2022-01-29 | 2022-05-10 | 浙江啄云智能科技有限公司 | 图像检测方法、装置、设备及存储介质 |
CN116778262B (zh) * | 2023-08-21 | 2023-11-10 | 江苏源驶科技有限公司 | 一种基于虚拟点云的三维目标检测方法和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110059608A (zh) * | 2019-04-11 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 一种物体检测方法、装置、电子设备和存储介质 |
CN111191566A (zh) * | 2019-12-26 | 2020-05-22 | 西北工业大学 | 基于像素分类的光学遥感图像多目标检测方法 |
CN111199206A (zh) * | 2019-12-30 | 2020-05-26 | 上海眼控科技股份有限公司 | 三维目标检测方法、装置、计算机设备及存储介质 |
-
2020
- 2020-12-29 CN CN202011598084.5A patent/CN112613450B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110059608A (zh) * | 2019-04-11 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 一种物体检测方法、装置、电子设备和存储介质 |
WO2020207166A1 (zh) * | 2019-04-11 | 2020-10-15 | 腾讯科技(深圳)有限公司 | 一种物体检测方法、装置、电子设备和存储介质 |
CN111191566A (zh) * | 2019-12-26 | 2020-05-22 | 西北工业大学 | 基于像素分类的光学遥感图像多目标检测方法 |
CN111199206A (zh) * | 2019-12-30 | 2020-05-26 | 上海眼控科技股份有限公司 | 三维目标检测方法、装置、计算机设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
人体行走特征识别研究;杜慧;《中国优秀硕士学位论文全文数据库信息科技辑》;20200715;全文 * |
基于SSD的棋子检测算法研究;刘帅等;《长春理工大学学报(自然科学版)》;20191215(第06期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112613450A (zh) | 2021-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112613450B (zh) | 一种增强在困难样本上表现的3d目标检测方法 | |
Zhao et al. | Fusion of 3D LIDAR and camera data for object detection in autonomous vehicle applications | |
CN110399884B (zh) | 一种特征融合自适应锚框模型车辆检测方法 | |
Nabati et al. | Radar-camera sensor fusion for joint object detection and distance estimation in autonomous vehicles | |
CN111123257B (zh) | 基于图时空网络的雷达动目标多帧联合检测方法 | |
Zhuang et al. | Multichannel pulse-coupled-neural-network-based color image segmentation for object detection | |
CN111899172A (zh) | 一种面向遥感应用场景的车辆目标检测方法 | |
CN113412505A (zh) | 用于对通过探测和测距传感器获得的点云进行有序表示和特征提取的系统和方法 | |
CN113484875B (zh) | 一种基于混合高斯排序的激光雷达点云目标分级识别方法 | |
CN110334584B (zh) | 一种基于区域全卷积网络的手势识别方法 | |
CN112668469A (zh) | 基于深度学习的多目标检测识别方法 | |
CN112184867A (zh) | 点云特征提取方法、装置、设备及存储介质 | |
CN108388901B (zh) | 基于空间-语义通道的协同显著目标检测方法 | |
CN114998610A (zh) | 一种目标检测方法、装置、设备及存储介质 | |
Wang et al. | Research on vehicle detection based on faster R-CNN for UAV images | |
CN117347965A (zh) | 基于组合神经网络的4d毫米波雷达点云像增强与识别系统 | |
CN116664854A (zh) | 目标检测方法、装置、电子设备及机器可读存储介质 | |
CN112132207A (zh) | 基于多分支特征映射目标检测神经网络构建方法 | |
CN109063543B (zh) | 一种考虑局部形变的视频车辆重识别方法、系统及装置 | |
CN116468950A (zh) | 一种类别引导中心点邻域搜索半径的三维目标检测方法 | |
CN116778145A (zh) | 一种基于三模态数据源融合的自动驾驶三维目标检测方法 | |
Lim et al. | Integration of Vehicle Detection and Distance Estimation using Stereo Vision for Real-Time AEB System. | |
CN114924260A (zh) | 一种多激光雷达点云配准方法 | |
Li et al. | Robust vehicle detection in aerial images based on image spatial pyramid detection model | |
Chen et al. | 3D object detection of cars and pedestrians by deep neural networks from unit-sharing one-shot NAS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |