CN111652926A - 基于稀疏点云数据的实时三维目标检测方法 - Google Patents
基于稀疏点云数据的实时三维目标检测方法 Download PDFInfo
- Publication number
- CN111652926A CN111652926A CN202010368475.1A CN202010368475A CN111652926A CN 111652926 A CN111652926 A CN 111652926A CN 202010368475 A CN202010368475 A CN 202010368475A CN 111652926 A CN111652926 A CN 111652926A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud data
- target
- target object
- turning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 34
- 238000006243 chemical reaction Methods 0.000 claims abstract description 14
- 230000000295 complement effect Effects 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 5
- 230000001154 acute effect Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000008030 elimination Effects 0.000 claims description 2
- 238000003379 elimination reaction Methods 0.000 claims description 2
- 238000001914 filtration Methods 0.000 claims description 2
- 238000011478 gradient descent method Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011897 real-time detection Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开了一种基于稀疏点云数据的实时三维目标检测方法,首先,根据转换公式将原始的无序点云数据转换成有序的编码形式的点云数据,然后通过对点云数据的坐标进行转换得到搭载平台坐标系下的数值,利用转换后所得的编码点云图结合插值算法对部分缺失数据进行补齐得到密集点云数据,再利用改进式RANSAC算法对密集点云数据进行地面点云数据的匹配与剔除,通过基于BFS的聚类算法将非地面点云数据分离成各目标物体的点云集合,最后通过梯度下降算法解算出最小面积的包围框参数,得到各目标物体的回归框,得到各物体的长度、宽度、高度、相对空间距离及偏航角度,实现利用低线束激光雷达进行周围目标物体的实时三维检测。
Description
技术领域
本发明属于机器人感知技术,具体涉及了一种基于稀疏点云数据的实时三维目标检测方法。
背景技术
机器人环境感知技术是实现自主机器人定位、导航的前提,通过对周围的环境的感知,移动机器人可以更好地进行自主定位、环境探索与自主导航等基本任务的实施。环境感知包括场景建模和目标物体检测两大部分,其中目标物体检测是感知技术的核心。
目前在工程实际中,通常对于不同的场景采用不同的传感器配置,在特定场景下设计合适的目标检测系统,可以以低成本的方式,达到预期工程效果。运用于搭载平台中等距离周围目标检测主流方案有如下几种:
1、基于双目相机的三维目标检测,是基于人类视觉的视差原理,获取两个不同视角的图像信息,将目标物体的特征信息进行匹配,解算出目标物体的大小、位置及角度,并对目标物体进行类别判断,但是相机采集图像受光照条件和天气的影响剧烈,稳定性欠佳,且解算出的距离偏差较大;
2、基于毫米波雷达+单目相机的三维目标检测,在距离探测上通过毫米波雷达所检测的距离信息修正目标物体空间位置,但是毫米波雷达接收信息依然有限,无法修正目标物体的偏航角度及大小等数据,在目标物体密集的区域难以区分每个目标物体的距离信息;
3、基于激光雷达的目标检测通过激光雷达直接获取的密集的空间信息即点云数据,利用距离分析的算法进行目标物体的提取和相关参数的解算,不受光线影响且信息丰富,在三维检测领域发挥着很好的用途,但目标检测的效果通常和雷达的线束正相关,高线数的激光雷达往往又具有体积大、价格昂贵、难以在搭载平台上固定等缺点。
发明内容
本发明的目的在于设计一种应用于机器人平台及其相关搭载平台上基于稀疏点云数据的实时三维目标检测方法,通过搭载低成本的低线束激光雷达,实现对周围场景目标物体的高精度实时检测。
实现本发明目的的技术解决方案为:一种基于稀疏点云数据的实时三维目标检测方法。首先,根据转换公式将原始的无序点云数据转换成有序的编码形式的点云数据,然后通过对点云数据的坐标进行转换得到搭载平台坐标系下的数值,利用转换后所得的编码点云图结合插值算法对部分缺失数据进行补齐得到密集点云数据,再利用改进式RANSAC算法对密集点云数据进行地面点云数据的匹配与剔除,通过基于BFS的聚类算法将非地面点云数据分离成各目标物体的点云集合,最后通过梯度下降算法解算出最小面积的包围框参数,得到各目标物体的回归框,得到各物体的长度、宽度、高度、相对空间距离及偏航角度,实现利用低线束激光雷达进行周围目标物体的实时三维检测。
本发明与现有技术相比,其显著优点在于:
(1)预处理部分对部分缺失数据进行了插值补齐,获得更完整的点云数据;
(2)采用改进式RANSAC聚类算法进行地面点云的匹配与剔除,能够更快的计算出地平面方程,且更少的错误地将其他平面误识成地平面;
(3)采用基于BFS的聚类算法进行点云分割,能够更快的进行分割,降低时间复杂度;
(4)整体计算量较小,可以配置普通工控机进行实时检测,降低系统成本。
附图说明
图1为本发明的基于稀疏三维点云的实时三维检测方法流程图。
图2为本发明的点云数据补齐算法流程图。
图3为本发明的实时点云分离算法流程图。
具体实施方式
下面结合附图对本发明作进一步详细描述。
结合图1,本发明所述的一种基于稀疏点云数据的实时三维目标检测方法。首先,根据转换公式将原始的无序点云数据转换成有序的编码形式的点云数据,然后通过对编码形式点云数据的坐标进行转换得到搭载平台坐标系下的数值(对于编码形式的点云数据做整体坐标系变换),利用转换后所得的编码点云图结合插值算法(线性插值)对部分缺失数据进行补齐得到密集点云数据,再利用改进式RANSAC(随机采样一致)算法对密集点云数据进行地面点云数据的匹配与剔除(剔除地面点云,使空间中的物体在水平方向上彼此分离开),通过基于BFS(广度优先搜索)的聚类算法将非地面点云数据分离成各目标物体的点云集合,最后通过梯度下降算法解算出最小面积的包围框参数(以包围框面积最小为最优回归框标准),得到各目标物体的回归框,得到各物体的长度、宽度、高度、相对空间距离及偏航角度,实现利用低线束激光雷达进行周围目标物体的实时三维检测,具体步骤如下:
步骤1、标定激光雷达相对于搭载平台的外部参数,同时激光雷达采集原始点云数据,转入步骤2;
步骤2、通过编码转换公式对原始点云数据进行预处理得到编码形式的点云数据,并使用激光雷达相对于搭载平台的外部参数对编码形式的点云数据进行坐标转换,得到搭载平台坐标系下的编码形式的点云数据,具体如下:
步骤2-1、根据点云数据中各个子点云数据相对于坐标原点的偏航角度及俯仰角度,选择一个子点云数据,计算出该子点云数据所对应的激光雷达线束编号,以及该子点云数据在该激光雷达线束编号中的纵向序列号(根据水平角度可以解算出单个子点云数据在该线雷达数据中的顺序),遍历整个当前点云数据中的每个子点云数据得到编码形式的点云数据,转入步骤2-2。
步骤2-2、根据激光雷达相对于搭载平台的外部参数,计算出编码形式的点云数据在搭载平台坐标系下的编码形式点云数据,替换原始点云数据。
转入步骤3。
步骤3、利用插值算法,补齐编码形式点云数据中部分缺失点云数据,(激光雷达因本身硬件限制,对于过远、过近、反射面光滑的物体会采集不到返回数据从而造成部分点云数据丢失,通过和周边点云的比对,采用插值算法可以补齐部分丢失点云,复原更完整的点云数据)得到密集点云数据(如图2所示),具体如下:
步骤3-1、从下至上依次遍历每行编码形式的点云数据,逐行搜索缺失点云数据段的起始位置L(左端序号)和结束位置R(右端序号),转入步骤3-2;
步骤3-2、计算L-1和R+1位置的点云数据的距离差,即判断缺失点云数据段(即编号从L到R的点云数据)两端最邻近有效值距离差,当距离差小于距离阈值,转入步骤3-3;
步骤3-3、读取L-1和R+1位置的点云数据,利用线性插值算法,逐个补齐该缺失点云数据段中每个缺失点云数据的数值。
转入步骤4。
步骤4、利用改进式RANSAC算法进行地面点云的匹配与剔除,(基于点云的实时三维目标检测通常包括地面点云去除、目标点云分离、目标参数回归三个部分),改进式RANSAC算法与传统RANSAC算法相比,结合标定的激光雷达相对于搭载平台的外部参数中的高度信息,通过设置高度阈值(根据标定的激光雷达相对于地面高度H,设置高度区间[H-0.3m,H+0.3m]为阈值区间),选定地面高度附近的点云数据作为候选种群(高度区间内的点作为可能的地面点云数据进行算法筛选),替代现有RANSAC算法中的初始随机种群(通过减少输入数据数量实现更高的计算效率)。对密集点云数据进行地面点云的匹配与剔除,得到非地面点云数据,具体如下:
步骤4-1、结合标定的激光雷达相对于搭载平台的外部参数中的高度信息,设置高度阈值对密集点云数据进行高度过滤,选定地面高度附近30cm的点云数据,得到阈值范围内的候选种群点云数据;
步骤4-2、以阈值范围内的候选种群点云数据替代传统RANSAC算法中的初始随机种群点云数据,以传统RANSAC算法对阈值范围内的候选种群点云数据进行地面方程的解算,得到地面几何方程系数;
步骤4-3、用得到的地面几何方程系数对密集点云进行解算,剔除地面几何方程范围内的地面点云得到地面点云。
转入步骤5。
步骤5、利用基于BFS的聚类算法将非地面点云数据分离成各目标物体的点云集合,(用广度优先搜索算法对密集点云进行聚类,将可能属于同一目标物体的点云标记上相同的目标编号),得到各目标物体的点云集合(如图3所示),具体如下:
步骤5-1、从下至上依次遍历每行编码形式的点云数据,搜索尚未被标记目标编号的点云数据[x,y](第X行,第Y个),转入步骤5-2;
步骤5-2、标记[x,y]点云数据为N号目标物体,并搜索该点云数据九邻域([x-1,y-1]、[x-1,y]、[x-1,y+1]、[x,y-1]、[x,y]、[x,y+1]、[x+1,y-1]、[x+1,y]、[x+1,y+1])内尚未被标记目标编号的点云数据[xn,yn],转入步骤5-3;
步骤5-3、依次计算这些点云数据[xn,yn]与点云数据[x,y]的连线同点云数据[xn,yn]与密集点云数据坐标原点连线所呈的锐角夹角θ,当θ小于角度阈值8°,转入步骤5-4;
步骤5-4、将θ小于角度阈值8°,所对应的点云数据[xn,yn],也标记为N号目标物体,并以这个点云数据作为中心点云(新的[x,y]),重新搜索其九邻域内点云数据,重复步骤5-3及步骤5-4,直到没有新的点云数据被标记为N号目标物体,结束N号目标物体点云数据搜索,N=N+1,并转入步骤5-1继续搜索,直到所有密集点云数据都被标记上目标编号。
转入步骤6。
步骤6、利用最小框面积算法对各目标物体的点云集合进行解算,得到各目标物体的长度、宽度、高度、中心点相对于搭载平台空间坐标的距离及偏航角度,输出目标物体三维检测结果,具体如下:
步骤6-1、搜索每一个目标物体内的全部点云数据,若该目标物体所含点云数据数量在数量阈值范围内(长、宽、高均不小于5cm,该目标物体内的全部点云数据不小于10个),转入步骤6-2;
步骤6-2、从0°开始,用梯度下降法计算出偏航角度,使得在该偏航角度下,水平面上的最小矩形包围框面积最小(作出最小外接矩形),转入步骤6-3;
步骤6-3、计算在该偏航角度下,最小矩形包围框的长、宽、该目标物体所包含所有点云数据的高度差值、矩形中心位置和高度中心,得到该目标物体的长度、宽度、高度、中心点相对于搭载平台空间坐标的距离及偏航角度,即该目标物体的三维检测结果。
Claims (6)
1.一种基于稀疏点云数据的实时三维目标检测方法,其特征在于,步骤如下:
步骤1、标定激光雷达相对于搭载平台的外部参数,同时激光雷达采集原始点云数据,转入步骤2;
步骤2、通过编码转换公式对原始点云数据进行预处理得到编码形式的点云数据,并使用激光雷达相对于搭载平台的外部参数对编码形式的点云数据进行坐标转换,得到搭载平台坐标系下的编码形式的点云数据,转入步骤3;
步骤3、利用插值算法,补齐编码形式点云数据中部分缺失点云数据,得到密集点云数据,转入步骤4;
步骤4、利用改进式RANSAC算法,对密集点云数据进行地面点云的匹配与剔除,得到非地面点云数据,转入步骤5;
步骤5、利用基于BFS的聚类算法将非地面点云数据分离成各目标物体的点云集合,转入步骤6;
步骤6、利用最小框面积算法对各目标物体的点云集合进行解算,得到各目标物体的长度、宽度、高度、中心点相对于搭载平台空间坐标的距离及偏航角度,输出目标物体三维检测结果。
2.根据权利要求1所述的基于稀疏点云数据的实时三维目标检测方法,其特征在于,步骤2中,通过编码转换公式对原始点云数据进行预处理得到编码点云数据,并使用激光雷达相对于搭载平台的外部参数对原始点云数据进行坐标转换,得到搭载平台坐标系下的编码形式点云数据,具体如下:
步骤2-1、根据点云数据中各个子点云数据相对于坐标原点的偏航角度及俯仰角度,选择一个子点云数据,计算出该子点云数据所对应的激光雷达线束编号,以及该子点云数据在该激光雷达线束编号中的纵向序列号,遍历整个点云数据对其中的每个子点云数据都进行编码转换的预处理,得到编码形式的点云数据,转入步骤2-2;
步骤2-2、根据激光雷达相对于搭载平台的外部参数,计算出编码形式的点云数据在搭载平台坐标系下的数据,替换原始点云数据。
3.根据权利要求1所述的基于稀疏点云数据的实时三维目标检测方法,其特征在于,步骤3中,利用插值算法,补齐编码形式的点云数据中部分缺失点云数据,得到密集点云数据,具体如下:
步骤3-1、从下至上依次遍历每行编码形式的点云数据,逐行搜索缺失点云数据段的起始位置L和结束位置R,转入步骤3-2;
步骤3-2、计算L-1和R+1位置的点云数据的距离差,即判断缺失点云数据段两端最邻近有效值距离差,当距离差小于距离阈值,转入步骤3-3;
步骤3-3、读取L-1和R+1位置的点云数据,利用线性插值算法,逐个补齐从L到R位置这个缺失点云数据段中每个缺失的点云数据的数值。
4.根据权利要求1所述的基于稀疏点云数据的实时三维目标检测方法,其特征在于,步骤4中,利用改进式RANSAC算法,对密集点云数据进行地面点云的匹配与剔除,得到非地面点云数据,具体如下:
步骤4-1、结合标定的激光雷达相对于搭载平台的外部参数中的高度信息,设置高度阈值对密集点云数据进行高度过滤,选定地面高度附近30cm的点云数据,得到阈值范围内的候选种群点云数据;
步骤4-2、以阈值范围内的候选种群点云数据替代传统RANSAC算法中的初始随机种群点云数据,以传统RANSAC算法对阈值范围内的候选种群点云数据进行地面方程的解算,得到地面几何方程系数;
步骤4-3、用得到的地面几何方程系数对密集点云进行解算,剔除地面几何方程范围内的地面点云得到地面点云。
5.根据权利要求1所述的基于稀疏点云数据的实时三维目标检测方法,其特征在于,步骤5中,利用基于BFS的聚类算法将非地面点云数据分离成各目标物体的点云集合,具体如下:
步骤5-1、从下至上依次遍历每行编码形式的点云数据,搜索尚未被标记目标编号的点云数据,转入步骤5-2;
步骤5-2、标记这个尚未被标记目标编号的点云数据为N号目标物体,并搜索该点云数据九邻域内尚未被标记目标编号的点云数据,转入步骤5-3;
步骤5-3、依次计算九邻域内尚未被标记目标编号的点云数据与这个步骤5-2中被标记为N号目标物体的点云数据的连线,同九邻域内尚未被标记目标编号的点云数据与密集点云数据坐标原点连线所呈的锐角夹角,当锐角夹角值小于角度阈值,转入步骤5-4;
步骤5-4、将锐角夹角值小于角度阈值所对应的九邻域内点云数据,也标记为N号目标物体,并以这个点云数据作为中心点云,重新搜索其九邻域内点云数据,重复步骤5-3及步骤5-4,直到没有新的点云数据被标记为N号目标物体,结束N号目标物体的点云数据搜索,N值加一,并转入步骤5-1继续搜索,直到所有密集点云数据都被标记上目标编号。
6.根据权利要求1所述的基于稀疏点云数据的实时三维目标检测方法,其特征在于,步骤6中,利用最小包围框面积算法解算得到各目标物体的长度、宽度、高度、中心点相对于搭载平台空间坐标的距离及偏航角度,输出目标物体三维检测结果,具体如下:
步骤6-1、搜索每一个目标物体内的全部点云数据,若该目标物体所含点云数据数量在数量阈值范围内,转入步骤6-2;
步骤6-2、从0°开始,用梯度下降法计算出偏航角度,使得在该偏航角度下,水平面上的最小矩形包围框面积最小,转入步骤6-3;
步骤6-3、计算在该偏航角度下,最小矩形包围框的长、宽、该目标物体所包含所有点云数据的高度差值、矩形中心位置和高度中心,得到该目标物体的长度、宽度、高度、中心点相对于搭载平台空间坐标的距离及偏航角度,即该目标物体的三维检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010368475.1A CN111652926A (zh) | 2020-04-30 | 2020-04-30 | 基于稀疏点云数据的实时三维目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010368475.1A CN111652926A (zh) | 2020-04-30 | 2020-04-30 | 基于稀疏点云数据的实时三维目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111652926A true CN111652926A (zh) | 2020-09-11 |
Family
ID=72343624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010368475.1A Withdrawn CN111652926A (zh) | 2020-04-30 | 2020-04-30 | 基于稀疏点云数据的实时三维目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111652926A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112650790A (zh) * | 2020-12-28 | 2021-04-13 | 北京字节跳动网络技术有限公司 | 目标点云平面确定方法,装置,电子设备及存储介质 |
CN112883820A (zh) * | 2021-01-26 | 2021-06-01 | 上海应用技术大学 | 基于激光雷达点云的道路目标3d检测方法及系统 |
CN113160324A (zh) * | 2021-03-31 | 2021-07-23 | 北京京东乾石科技有限公司 | 包围框生成方法、装置、电子设备和计算机可读介质 |
CN113607166A (zh) * | 2021-10-08 | 2021-11-05 | 广东省科学院智能制造研究所 | 基于多传感融合的自主移动机器人室内外定位方法及装置 |
CN113759385A (zh) * | 2021-08-12 | 2021-12-07 | 江苏徐工工程机械研究院有限公司 | 一种激光雷达和相机融合测距方法及系统 |
WO2022099511A1 (zh) * | 2020-11-11 | 2022-05-19 | 深圳元戎启行科技有限公司 | 基于点云数据的地面分割方法、装置和计算机设备 |
CN116740197A (zh) * | 2023-08-11 | 2023-09-12 | 之江实验室 | 一种外参的标定方法、装置、存储介质及电子设备 |
-
2020
- 2020-04-30 CN CN202010368475.1A patent/CN111652926A/zh not_active Withdrawn
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022099511A1 (zh) * | 2020-11-11 | 2022-05-19 | 深圳元戎启行科技有限公司 | 基于点云数据的地面分割方法、装置和计算机设备 |
CN112650790A (zh) * | 2020-12-28 | 2021-04-13 | 北京字节跳动网络技术有限公司 | 目标点云平面确定方法,装置,电子设备及存储介质 |
CN112650790B (zh) * | 2020-12-28 | 2023-10-13 | 北京字节跳动网络技术有限公司 | 目标点云平面确定方法,装置,电子设备及存储介质 |
CN112883820A (zh) * | 2021-01-26 | 2021-06-01 | 上海应用技术大学 | 基于激光雷达点云的道路目标3d检测方法及系统 |
CN112883820B (zh) * | 2021-01-26 | 2024-04-19 | 上海应用技术大学 | 基于激光雷达点云的道路目标3d检测方法及系统 |
CN113160324A (zh) * | 2021-03-31 | 2021-07-23 | 北京京东乾石科技有限公司 | 包围框生成方法、装置、电子设备和计算机可读介质 |
CN113759385A (zh) * | 2021-08-12 | 2021-12-07 | 江苏徐工工程机械研究院有限公司 | 一种激光雷达和相机融合测距方法及系统 |
CN113607166A (zh) * | 2021-10-08 | 2021-11-05 | 广东省科学院智能制造研究所 | 基于多传感融合的自主移动机器人室内外定位方法及装置 |
CN113607166B (zh) * | 2021-10-08 | 2022-01-07 | 广东省科学院智能制造研究所 | 基于多传感融合的自主移动机器人室内外定位方法及装置 |
CN116740197A (zh) * | 2023-08-11 | 2023-09-12 | 之江实验室 | 一种外参的标定方法、装置、存储介质及电子设备 |
CN116740197B (zh) * | 2023-08-11 | 2023-11-21 | 之江实验室 | 一种外参的标定方法、装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111652926A (zh) | 基于稀疏点云数据的实时三维目标检测方法 | |
CN111583337B (zh) | 一种基于多传感器融合的全方位障碍物检测方法 | |
CN111563923B (zh) | 获得稠密深度图的方法及相关装置 | |
CN109685842B (zh) | 一种基于多尺度网络的稀疏深度稠密化方法 | |
CN110675418B (zh) | 一种基于ds证据理论的目标轨迹优化方法 | |
CN111340797A (zh) | 一种激光雷达与双目相机数据融合检测方法及系统 | |
CN110110682B (zh) | 遥感图像的语义立体重构方法 | |
CN113936139A (zh) | 一种视觉深度信息与语义分割相结合的场景鸟瞰图重构方法及系统 | |
CN113111887A (zh) | 一种基于相机和激光雷达信息融合的语义分割方法及系统 | |
CN112097732A (zh) | 一种基于双目相机的三维测距方法、系统、设备及可读存储介质 | |
CN115731545A (zh) | 一种基于融合感知的电缆隧道巡检方法及装置 | |
CN114966696A (zh) | 一种基于Transformer的跨模态融合目标检测方法 | |
CN113378647B (zh) | 基于三维点云的实时轨道障碍物检测方法 | |
CN113219472B (zh) | 一种测距系统和方法 | |
CN114118247A (zh) | 一种基于多传感器融合的无锚框3d目标检测方法 | |
CN112270694B (zh) | 基于激光雷达扫描图进行城市环境动态目标检测的方法 | |
Hussain et al. | Rvmde: Radar validated monocular depth estimation for robotics | |
CN109657556B (zh) | 道路及其周边地物的分类方法及系统 | |
Lim et al. | MSDPN: Monocular depth prediction with partial laser observation using multi-stage neural networks | |
CN114005110B (zh) | 3d检测模型训练方法与装置、3d检测方法与装置 | |
CN112116561B (zh) | 基于图像处理融合网络权值的电网传输线检测方法及装置 | |
CN115018910A (zh) | 点云数据中目标的检测方法、装置和计算机可读存储介质 | |
CN101908144B (zh) | 一种条码图像校正方法及校正点获取方法 | |
CN113901903A (zh) | 道路识别方法和装置 | |
CN114494039A (zh) | 一种水下高光谱推扫图像几何校正的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200911 |