CN108549084B - 一种基于稀疏二维激光雷达的目标检测与姿态估计方法 - Google Patents
一种基于稀疏二维激光雷达的目标检测与姿态估计方法 Download PDFInfo
- Publication number
- CN108549084B CN108549084B CN201810092043.5A CN201810092043A CN108549084B CN 108549084 B CN108549084 B CN 108549084B CN 201810092043 A CN201810092043 A CN 201810092043A CN 108549084 B CN108549084 B CN 108549084B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- bounding box
- point
- points
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
Landscapes
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
一种基于稀疏二维激光雷达的目标检测与姿态估计方法,包括利用点云中点之间的距离统计对激光雷达数据的离群点去除、基于密度扩充的点云数据目标聚类、点云凹形判断和利用姿态判据的目标姿态搜索方法。上述的各个部分依次连接,最终输出当前帧的目标的姿态信息。本发明设计最优包围盒贴合判据,并以此进行关于朝向角θ的最优搜索,从而得到目标的朝向角信息(即二维姿态),实施方便,操作简单,满足自主车的实时性要求,具有较强的实时性。
Description
技术领域
本发明涉及智能汽车领域,具体涉及一种基于稀疏二维激光雷达的目标检测与姿态估计方法。
背景技术
激光雷达(Light Detection and Ranging,LiDAR),即激光探测及测距系统,是以发射激光束探测目标的位置、速度等特征量的雷达系统,一般由激光发射器、激光接收器、控制系统、信息处理系统和显示装置组成,可以大范围、高精度地获取三维或二维空间的深度信息,即点云数据。激光雷达的工作原理是由激光发射器发射一个激光脉冲信号,当此激光束接触到目标表面上会产生回波信号并由接收器捕获到,然后经由信息处理系统进行处理,计算出目标深度L,并将得到信息加以传输保存,目标深度L按照下式计算:L=Δt×c。其中c为光速,Δt为时间差。多线激光雷达具有多条扫描线,可同时进行测量。
自主驾驶智能汽车是一种集环境感知、规划决策、运动控制功能于一体的智能驾驶平台。无人驾驶汽车在行驶的过程中,对周围环境的感知需求是多方面的,其中对目标检测是必要的,如行人、车辆等。因此在无人驾驶技术研究中,对无人驾驶汽车周围环境中的目标检测是一个极为重要的任务。现有技术中,可以利用单目相机、双目相机、激光雷达、毫米波雷达等传感器对无人驾驶车辆周围得目标进行检测,而激光雷达由于其高精度测距、抗干扰能力强、检测范围大等其他传感器不具备的优点,在无人驾驶汽车周围环境的目标检测任务中发挥着主要作用。由于高精度三维激光雷达(比如64线激光雷达)价格昂贵,目前还不能广泛的用于商用无人驾驶汽车,因此,使用性价比高、检测精度也相对较高的稀疏二维激光雷达具有很广阔的前景。
在使用激光雷达检测目标的过程中,对激光雷达扫描获取的点云数据进行离群点剔除处理和目标点云聚类之后,需要对目标点云数据进行姿态估计,这也是最为重要的一个步骤。目标一般使用矩形包围盒模型来描述,这种表示方法可以准确表示目标的大小、位置、朝向等信息,也对后续无人驾驶汽车的规划决策有着很大的帮助,因此需要针对点云分布求取最佳贴合点云轮廓的矩形包围盒。
稀疏二维激光雷达得到的是二维点云数据,通常是检测范围内目标能够被激光扫描到的部分轮廓点云数据。其数据通常呈现出L形、I形特征。目标的检测、姿态估计和跟踪是无人驾驶环境感知的一个关键组成部分,会对无人驾驶车辆后续的规划决策和运动控制有极大的影响,所以对于这些点云数据需要很好的矩形包围盒贴合来才能得到准确的目标描述。
发明内容
本发明的目的在于提供一种能够针对激光雷达数据中目标形态的特点,求取最贴合的包围盒,进而得到其准确的姿态信息的基于稀疏二维激光雷达的目标检测与姿态估计方法。
为达到上述目的,本发明采用的技术方案包括以下步骤:
步骤一、利用稀疏二维激光雷达扫描前方180°范围环境,获得雷达坐标系下的二维点云数据,并对二维点云数据进行去除离群点处理;
步骤二、利用聚类方法对去除离群点后的二维点云数据进行分割得到感兴趣的目标点云数据,并对于每一个目标点云数据即聚类点云在车辆坐标系下给出其初始目标包围盒;
步骤三、使用最优姿态搜索算法,根据姿态判据选择姿态最为准确,即判据值最大的包围盒并投射回原坐标系,然后计算得到目标的姿态。
所述步骤一获取激光雷达的二维点云数据,即点的x-y坐标后,对所有点云数据需要转换坐标系并进行预处理操作,首先利用xcar=-yLiDAR与ycar=xLiDAR+Δl将点云坐标转移到车辆坐标系,其中xcar,ycar是点云数据在车辆坐标系中的坐标值,xLiDAR和yLiDAR点云数据在雷达坐标系中的坐标值,Δl是两坐标系原点之间的水平距离,然后统计其中每一个点pi的k邻域点的均值距离disi,对均值距离集合Dis={dis1,dis2,·,disN}计算其均值μ和标准差σ,通过预先设定的权重ω,若disi<μ+ω·σ,则认为pi为离群点并剔除,ω和k是通过在采集好的离线数据集中人工标定离群点,然后在所有离线数据上遍历ω、k(0<ω≤3,1≤k≤n/2)得到剔除离群点效果最优的ω、k,选定为最优参数。
所述步骤二的初始目标包围盒是在车辆坐标系下分别以其x,y的最大最小值组成初始包围盒的顶点坐标(xmin,ymin)、(xmax,ymax)、(xmax,ymin)、(xmin,ymax),然后旋转坐标系,根据姿态判据Sc=ω1·Rθ+ω2·Sθ得到准确的包围盒,估计出目标的中心位置(x,y)和朝向角θ。
本发明设计最优包围盒贴合判据,并以此进行关于朝向角θ的最优搜索,从而得到目标的朝向角信息(即二维姿态),实施方便,操作简单,满足自主车的实时性要求,具有较强的实时性。
附图说明
图1为稀疏二维激光扫描原理图;
图2为本发明的流程结构示意框图;
图3为雷达坐标系与车辆坐标系位置关系图;
图4为凹形判断示例图;
图5为旋转角度为θ时的点云包围盒示意图。
具体实施方式
下面将结合附图,对本发明实施例中的技术方案进行更为清楚、完整的描述。然而应当理解,可以以各种形式实现本公开而不应该被这里阐述的实施例所限制,相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整地传达给本领域的技术人员。
结合图1,稀疏二维激光扫描到目标轮廓并反射获得相应的点云数据。因此在点云数据中,车辆大多呈现“L”形(少数有“I”或“U”形),而行人等其他小物体则通常为不规则的形状。
结合图2,本实施例记录了一种基于稀疏二维激光雷达的目标检测与姿态估计方法,包括读取数据、点云预处理、点云聚类、凹形判断,最优姿态搜索。
步骤200:根据具体激光雷达(这里以八线激光雷达为例)的标准应用程序接口实时读取每一帧的点云数据,这些数据在激光坐标系下以x-y二维坐标形式保存。由于雷达坐标系与车辆坐标系不同,为了给道路规划与车辆控制提供直接可用的环境感知依据,需要将雷达坐标系下的点云数据转化到车辆坐标系中。
结合图3,两坐标系位置关系可以利用xcar=-yLiDAR,ycar=xLiDAR+Δl完成转换。
然后是点云数据的预处理,包括离群点的去除等。激光雷达在实际应用中,由于种种不确定因素,获得的雷达数据通常会包含部分噪声,会对后续处理判断造成一定的影响,所以要对雷达数据进行一定的预处理,在保证不破坏点云数据特征的基础上剔除噪声点。
激光雷达的点云数据一般是成堆密集出现的,故噪声通常表现为稀疏离群点。它们产生的原因很多,比如视野内有茂密的灌木丛或散乱的石堆;有时候因为传感器自身问题或物体表面材质也会导致出现异常反射的数据点。本发明在实施的时候使用基于统计学原理的方法来进行离群点的去除。具体过程为:
(1)设激光雷达实时采集到的某一帧点云数据集合为P,其中的点为pi(i=1,2,……,n)。对于P中每一个点计算其k个近邻点距离的均值,记为一个样本个体:
(2)由(1)遍历完P中所有点,即可得到集合Dis={dis1,dis2…,disn}。
(3)计算上述样本集合Dis的均值μ和标准差σ:
(4)设滤波之后的点晕集合为P*,那么它可以通过下式对样本个体集合Dis的遍历得到:
P*={pi∈P|disi≤μ+ω·σ,1≤i≤n} (4)
其中ω为权重因子。ω、k的取值取决于邻近点的个数,ω和k是通过在采集好的离线数据集中人工标定离群点,然后在所有离线数据上遍历ω、k(0<ω≤3,1≤k≤n/2)得到剔除离群点效果最优的ω、k,选定为最优参数。
步骤201:本发明示例性地给出一个聚类方法以分割出感兴趣的目标点云数据。点云聚类的主要过程是:先从数据点集合中任意选取一个点判断其是否为核心点(如果该数据点ε邻域内的样本点数大于给定阈值m,ε和m是通过在采集好的离线数据集中,人工标定每一帧数据中的所有聚类,因为通常每个聚类内的数据点都紧密相邻,且与其他聚类内的点有着较大的距离,所以在所有离线数据上遍历ε、m(0<∈<1,m≥2)得到聚类效果最好的ε、m,选定为最终使用的参数)。若为核心点,则从这个核心点出发与该点密度可达的所有核心点,这些核心点与它们的ε邻域内的数据点所构成的并集点集就是一个聚类,然后重复上述操作,直到找出整个集合中的所有聚类。
步骤202:在对每一个聚类后的点云进行最优姿态估计之前,由于矩形包围盒自身刚性和凸性的局限,在用它表述一些凹形点云时,紧密型较差,冗余空间过多,有时候会覆盖部分道路,从而有可能引起无人驾驶车辆急停或对行驶决策产生干扰,因此需要对每一个聚类进行凹形判断。考虑目标点云为直线的情况,即凹形和凸形的中间情况,连接该点云的首尾两点可以得到一条直线,那么点云中大部分点会落在这条直线上。可以想到,当目标点云为凹形的时候,其大部分点会落在直线的某一侧,且与原点处在直线的不同侧;若为凸形,则与原点处在直线的相同侧。
结合图4,依次计算点云中的每一个点到首尾相连的直线l的有向距离集合Dis。设原点到该直线的有向距离为d0,Dis中与d0符号相反的点,即与原点处在直线的不同侧。提取出这些点,也就是点云中的凹形部分,记其有向距离为集合dis。然后以点云首尾两点中y值较小的点为坐标原点构建坐标系x’Oy’,其中x轴与直线l重合。那么在此坐标系下,记dis对应点的横坐标集合X到dis的映射为g(x),若dis占Dis的50%以上,且g(x)满足:
g(tx1+(1-t)x2)<tg(x1)+(1-t)g(x2) (5)
其中x1,x2∈X且x1≠x2,t∈(0,1)。则判断此点云为凹形。
对于凹形点云,本方法对其进行k-means重聚类,即将凹形点云分为多个小聚类,从而消除用单一矩形包围盒描述而产生的缺陷。
步骤203:对于上述步骤后的每一个聚类点云,在车辆坐标系下首先获取计算出初始的目标包围盒,即分别以其x,y的最大最小值组成初始包围盒的顶点坐标(xmin,ymin)、(xmax,ymax)、(xmax,ymin)、(xmin,ymax),这样的包围盒四边分别与x,y平行,因为一般情况下目标很少直接与车辆坐标系直对,所以由于姿态不准确,初始包围盒会占用大量的可行驶区间,不能直接使用。
步骤204:为了得到贴合更好的包围盒并进一步计算出准确的姿态信息,本发明实施最优姿态的搜索方法,即对点云P逐次旋转一定角度θ(θ从0到π/2逐渐递增),公式为
这相当于将坐标系进行了旋转。然后在新的点集P’上依照步骤202的做法取新的包围盒的顶点坐标为(xmin,ymin)、(xmax,ymax)、(xmax,ymin)、(xmin,ymax)。对每一次旋转得到的包围盒,使用姿态判据Sc=ω1·Rθ+ω2.Sθ进行评估。上式中Sθ即包围盒面积,Rθ为贴合度。然后在旋转结束后就可以得到判据值最优的姿态。
结合图5,下面说明Rθ的计算过程。当包围盒姿态正确时,点云数据中的点大多数会充分贴靠包围盒的边界。于是本发明需要构造这样一个度量函数——当点越靠近包围盒的边界,对此点的评价分数就应当越高,那么姿态正确时对所有点的评价分数总和就应该是最大的,即
其中f(xi,yi)即为我们所构造的评价点(xi,yi)对包围盒边界贴合度的函数,其形式如下:
其中η为增益常数,D*为有效距离阈值,超过此阈值则认为点距离边界太远,不能参与的Rθ计算。di为点(xi,yi)到边界线Ax+By+C=0的欧式距离。k值可通过实验或经验取适当值。
记录下每次旋转状态下的Sθ和Rθ,我们的目的是为了找到最大的判据评估,那么若下一次旋转的评估Sc值更大,就保留其Sθ和Rθ,即ΔSc=ω1·δR-ω2·δS-∈>0。在旋转结束后,将最大评估值对应的包围盒坐标逆旋转回车辆坐标系,公式为:
Cor是2*4的矩阵,存储了包围盒四个顶点的坐标,即Pi={pi1,pi2,pi3,pi4}。然后可以计算得到目标的姿态,中心位置(x,y)和朝向角α。朝向角定义为目标的长边与车辆坐标系y轴正向的夹角,取值范围为(-π/2,π/2]。
Claims (2)
1.一种基于稀疏二维激光雷达的目标检测与姿态估计方法,其特征在于包括以下步骤:
步骤一、利用稀疏二维激光雷达扫描前方180°范围环境,获得雷达坐标系下的二维点云数据,并对二维点云数据进行去除离群点处理;
其中,获取激光雷达的二维点云数据,即点的x-y坐标后,对所有点云数据需要转换坐标系并进行预处理操作,首先利用xcar=-yLiDAR与ycar=xLiDAR+Δl将点云坐标转移到车辆坐标系,其中xcar,ycar是点云数据在车辆坐标系中的坐标值,xLiDAR,yLiDAR是点云数据在雷达坐标系中的坐标值,Δl是两坐标系原点之间的水平距离,然后统计其中每一个点pi的k邻域点的均值距离disi,对均值距离集合Dis={dis1,dis2,·,disN}计算其均值μ和标准差σ,通过预先设定的权重ω,若disi<μ+ω·σ,则认为pi为离群点并剔除,ω和k是通过在采集好的离线数据集中人工标定离群点,然后在所有离线数据上遍历ω、k得到剔除离群点效果最优的ω、k,选定为最优参数,0<ω≤3,1≤k≤n/2;
步骤二、利用聚类方法对去除离群点后的二维点云数据进行分割得到感兴趣的目标点云数据,并对于每一个目标点云数据即聚类点云在车辆坐标系下给出其初始目标包围盒;具体步骤如下:
步骤201,点云聚类的主要过程是:先从数据点集合中任意选取一个点判断其是否为核心点,如果数据点ε邻域内的样本点数大于给定阈值m,ε和m是通过在采集好的离线数据中,人工标定每一帧数据中的所有聚类,因为通常每个聚类内的数据点都紧密相邻,且与其他聚类内的点有着较大的距离,所以在所有离线数据上遍历ε、m得到聚类效果最好的ε、m,0<∈<1,m≥2,选定为最终使用的参数;若为核心点,则从这个核心点出发与该点密度可达的所有核心点,这些核心点与它们的ε邻域内的数据点所构成的并集点集就是一个聚类,然后重复上述操作,直到找出整个集合中的所有聚类;
步骤202:在对每一个聚类后的点云进行最优姿态估计之前,由于矩形包围盒自身刚性和凸性的局限,在用它表述一些凹形点云时,紧密型较差,冗余空间过多,有时候会覆盖部分道路,从而有可能引起无人驾驶车辆急停或对行驶决策产生干扰,因此需要对每一个聚类进行凹形判断;
依次计算点云中的每一个点到首尾相连的直线l的有向距离集合Dis;设原点到该直线的有向距离为d0,Dis中与d0符号相反的点,即与原点处在直线的不同侧;提取出这些点,也就是点云中的凹形部分,记其有向距离为集合dis;然后以点云首尾两点中y值较小的点为坐标原点构建坐标系x’Oy’,其中x轴与直线l重合;那么在此坐标系下,记dis对应点的横坐标集合X到dis的映射为g(x),若dis占Dis的50%以上,且g(x)满足:
g(tx1+(1-t)x2)<tg(x1)+(1-t)g(x2)
其中x1,x2∈X且x1≠x2,t∈(0,1);则判断此点云为凹形;
对于凹形点云,本方法对其进行k-means重聚类,即将凹形点云分为多个小聚类,从而消除用单一矩形包围盒描述而产生的缺陷;
步骤三、使用最优姿态搜索算法,根据姿态判据选择姿态最为准确,即判据值最大的包围盒并投射回原坐标系,然后计算得到目标的姿态;
为了得到贴合更好的包围盒并进一步计算出准确的姿态信息,实施最优姿态的搜索方法,即对点云P逐次旋转一定角度θ,θ从0到π/2逐渐递增,公式为
这相当于将坐标系进行了旋转;然后在新的点集P’上依照步骤202的做法取新的包围盒的顶点坐标为(xmin,ymin)、(xmax,ymax)、(xmax,ymin)、(xmin,ymax);对每一次旋转得到的包围盒,使用姿态判据Sc=ω1·Rθ+ω2·Sθ进行评估;上式中Sθ即包围盒面积,Rθ为贴合度;然后在旋转结束后就可以得到判据值最优的姿态;
Rθ的计算过程:当包围盒姿态正确时,点云数据中的点大多数会充分贴靠包围盒的边界;构造一个度量函数——当点越靠近包围盒的边界,对此点的评价分数就应当越高,那么姿态正确时对所有点的评价分数总和就应该是最大的,即
其中f(xi,yi)即为所构造的评价点(xi,yi)对包围盒边界贴合度的函数,其形式如下:
其中η为增益常数,D*为有效距离阈值,超过此阈值则认为点距离边界太远,不能参与的Rθ计算;di为点(xi,yi)到边界线Ax+By+C=0的欧式距离,k值通过实验或经验取适当值。
2.根据权利要求1所述的基于稀疏二维激光雷达的目标检测与姿态估计方法,其特征在于:
步骤二的初始目标包围盒是在车辆坐标系下分别以其x,y的最大最小值组成初始包围盒的顶点坐标(xmin,ymin)、(xmax,ymax)、(xmax,ymin)、(xmin,ymax),然后旋转坐标系,根据姿态判据Sc=ω1·Rθ+ω2·Sθ得到准确的包围盒,估计出目标的中心位置(x,y)和朝向角θ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810092043.5A CN108549084B (zh) | 2018-01-30 | 2018-01-30 | 一种基于稀疏二维激光雷达的目标检测与姿态估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810092043.5A CN108549084B (zh) | 2018-01-30 | 2018-01-30 | 一种基于稀疏二维激光雷达的目标检测与姿态估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108549084A CN108549084A (zh) | 2018-09-18 |
CN108549084B true CN108549084B (zh) | 2020-06-02 |
Family
ID=63515720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810092043.5A Active CN108549084B (zh) | 2018-01-30 | 2018-01-30 | 一种基于稀疏二维激光雷达的目标检测与姿态估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108549084B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109375228B (zh) * | 2018-10-31 | 2020-07-24 | 歌尔股份有限公司 | 激光雷达的异常帧点云数据的确定方法、处理方法及装置 |
CN109444847A (zh) * | 2018-11-01 | 2019-03-08 | 肖湘江 | 机器人激光雷达避障的噪点滤波方法 |
CN110068829A (zh) * | 2019-04-11 | 2019-07-30 | 上海快仓智能科技有限公司 | 简化的基于图形快速匹配的激光定位方法 |
CN110412595A (zh) * | 2019-06-04 | 2019-11-05 | 深圳市速腾聚创科技有限公司 | 路基感知方法、系统、车辆、设备和存储介质 |
CN110398747B (zh) * | 2019-07-26 | 2023-03-28 | 海伯森技术(深圳)有限公司 | 全固态激光雷达视场角动态扩展方法、系统及存储介质 |
WO2021087777A1 (zh) * | 2019-11-05 | 2021-05-14 | 深圳市大疆创新科技有限公司 | 数据处理方法、装置、雷达、设备及存储介质 |
CN111427032B (zh) * | 2020-04-24 | 2022-02-01 | 森思泰克河北科技有限公司 | 基于毫米波雷达的房间墙体轮廓识别方法及终端设备 |
CN111612847B (zh) * | 2020-04-30 | 2023-10-20 | 湖北煌朝智能自动化装备有限公司 | 机器人抓取操作的点云数据匹配方法及系统 |
CN112509126B (zh) * | 2020-12-18 | 2024-07-12 | 南京模数智芯微电子科技有限公司 | 三维物体检测的方法、装置、设备及存储介质 |
CN112614186A (zh) * | 2020-12-28 | 2021-04-06 | 上海汽车工业(集团)总公司 | 目标位姿计算方法及计算模块 |
CN113466826A (zh) * | 2021-05-12 | 2021-10-01 | 武汉中仪物联技术股份有限公司 | 测距雷达的数据去噪方法、装置、设备和介质 |
CN113807442B (zh) * | 2021-09-18 | 2022-04-19 | 湖南大学无锡智能控制研究院 | 一种目标形状及航向估计方法及系统 |
CN115144869B (zh) * | 2022-09-05 | 2022-11-29 | 北京理工大学 | 基于太赫兹雷达的曲面物体检测方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101907081B1 (ko) * | 2011-08-22 | 2018-10-11 | 삼성전자주식회사 | 3차원 점군의 물체 분리 방법 |
US9823351B2 (en) * | 2012-12-18 | 2017-11-21 | Uber Technologies, Inc. | Multi-clad fiber based optical apparatus and methods for light detection and ranging sensors |
CN106371105A (zh) * | 2016-08-16 | 2017-02-01 | 长春理工大学 | 单线激光雷达车辆目标识别方法、装置和汽车 |
CN107123164B (zh) * | 2017-03-14 | 2020-04-28 | 华南理工大学 | 保持锐利特征的三维重建方法及系统 |
-
2018
- 2018-01-30 CN CN201810092043.5A patent/CN108549084B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108549084A (zh) | 2018-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108549084B (zh) | 一种基于稀疏二维激光雷达的目标检测与姿态估计方法 | |
CN110988912B (zh) | 自动驾驶车辆的道路目标与距离检测方法、系统、装置 | |
CN108509918B (zh) | 融合激光点云与图像的目标检测与跟踪方法 | |
CN113436260B (zh) | 基于多传感器紧耦合的移动机器人位姿估计方法和系统 | |
CN109444911B (zh) | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 | |
CN108932736B (zh) | 二维激光雷达点云数据处理方法以及动态机器人位姿校准方法 | |
CN110780305B (zh) | 一种基于多线激光雷达的赛道锥桶检测及目标点追踪方法 | |
KR102195164B1 (ko) | 다중 라이다를 이용한 다중 물체 인식 시스템 및 방법 | |
CN109598765B (zh) | 基于球形标定物的单目相机与毫米波雷达外参联合标定方法 | |
CN113111887A (zh) | 一种基于相机和激光雷达信息融合的语义分割方法及系统 | |
CN111781608B (zh) | 一种基于fmcw激光雷达的运动目标检测方法及系统 | |
CN112051575B (zh) | 一种毫米波雷达与激光雷达的调整方法及相关装置 | |
CN113470090A (zh) | 基于sift-shot特征的多固态激光雷达外参标定方法 | |
CN112017248B (zh) | 一种基于点线特征的2d激光雷达相机多帧单步标定方法 | |
CN107025657A (zh) | 一种基于视频图像的车辆行为轨迹检测方法 | |
Choe et al. | Fast point cloud segmentation for an intelligent vehicle using sweeping 2D laser scanners | |
CN116109601A (zh) | 一种基于三维激光雷达点云的实时目标检测方法 | |
CN113281782A (zh) | 一种基于无人驾驶车的激光雷达雪点滤除方法 | |
CN115201849A (zh) | 一种基于矢量地图的室内建图方法 | |
CN113625271B (zh) | 基于毫米波雷达和双目相机的同时定位与建图方法 | |
CN117409393A (zh) | 一种焦炉机车激光点云与视觉融合障碍物检测方法及系统 | |
CN111736167B (zh) | 一种获取激光点云密度的方法和装置 | |
CN114925769B (zh) | 一种多传感器数据融合处理系统 | |
CN116243329A (zh) | 基于激光雷达和相机融合的高精度多目标无接触测距方法 | |
CN115965847A (zh) | 交叉视角下多模态特征融合的三维目标检测方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |