CN113052846B - 一种多线雷达点云稠密化方法和装置 - Google Patents

一种多线雷达点云稠密化方法和装置 Download PDF

Info

Publication number
CN113052846B
CN113052846B CN202010998244.9A CN202010998244A CN113052846B CN 113052846 B CN113052846 B CN 113052846B CN 202010998244 A CN202010998244 A CN 202010998244A CN 113052846 B CN113052846 B CN 113052846B
Authority
CN
China
Prior art keywords
point cloud
point
point clouds
clouds corresponding
fused
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010998244.9A
Other languages
English (en)
Other versions
CN113052846A (zh
Inventor
缪东旭
段志翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiaomi Automobile Technology Co Ltd
Original Assignee
Xiaomi Automobile Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiaomi Automobile Technology Co Ltd filed Critical Xiaomi Automobile Technology Co Ltd
Publication of CN113052846A publication Critical patent/CN113052846A/zh
Application granted granted Critical
Publication of CN113052846B publication Critical patent/CN113052846B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及一种多线雷达点云稠密化方法和装置,包括如下步骤:步骤S1:对时钟同步的视频和激光雷达点云序列的位姿进行初始化;步骤S2:将所述点云序列分割为各个物体对应的点云;步骤S3:分离动态物体对应的点云、场景对应的点云和静态物体对应的点云;步骤S4:融合所述步骤S3中得到的点云;步骤S5:对所述步骤S4中融合的点云进行过滤;步骤S6:存储所述步骤S5中经过过滤的点云。优点在于整体方案完全自动化、模块化,可以大规模应用。

Description

一种多线雷达点云稠密化方法和装置
技术领域
本发明涉及多线激光雷达领域的点云稠密化方法。
背景技术
点云信息对单目/双目深度估计、3D物体检测、路径规划等自动驾驶多项技术均有着极大地影响,点云的质量表现在精度及密度(density)上。激光雷达(Lidar)作为自动驾驶常用的传感器之一,可以提供高精度的3D空间采样,然而常用的机械雷达如Velodyne等均具有特定线数,即单帧情况下仅能获取很有限的测量点。因此,为在保证数据精度的前提下获取密度更高的点云,常见的策略是融合相邻多帧雷达数据,最终达到以较低的成本获取更高质量点云的目的。
现有包含稠密化点云的公开数据集主要有KITTI Stereo 2012、KITTI Stereo2015、KITTI depth、商汤DrivingStereo、百度阿波罗(Apollo)等,下面对这些数据集采用的点云稠密化方法进行简单分析讨论并指出其相关缺点。
针对单帧点云数据,将其稠密化方法一般为将相邻帧的点云按照计算得到/传感器获取的相对位姿投影到当前帧所在坐标系,因为自身运动(ego-motion)已经得到运动补偿,所以场景以及场景中的静止物体可以得到有效的稠密化。但是,此种方式对场景中的运动物体没有进行有效地处理,直接融合得到的点云在运动物体上会出现拖尾现象,如果不进行后续处理会影响数据质量,如果直接删除此部分点云会对雷达数据造成可观的浪费且出现图像与雷达不一致现象。
针对场景中的动态物体,各个数据集有着不同的处理方式:
KITTI Stereo 2012数据集仅选取除自身车辆外没有运动物体的场景来对此问题进行规避,然而此种方式对数据的利用率很有限,对场景设置有较高要求。
KITTI Stereo 2015进一步添加了对运动物体的处理。首先按照物体3D框标注信息移除了动态物体对应的点云,对剩余的包含静止物体的场景进行多帧融合;针对动态物体,使用3D CAD模型进行拟合。利用了3D框抽取出单个物体对应的点云并进行叠加,并且利用SGM算法得到的深度信息进行进一步约束,此外,人工选取一些CAD模型与点云相对应的点对,之后联合优化这三组约束得到合适的CAD模型位姿及尺度。最后对得到的结果进行手工筛选,人工去除非刚性的运动物体如行人等。然而此种方式引入了过多的人工参与,难以有效地自动化处理。
百度阿波罗数据集与KITTI Stereo 2015采用的方式类似,针对运动物体使用CAD模型进行拟合,并且选取了更多的模型(79种)。然而,真实场景中仍旧存在模型中不包含的车辆,如公交车等仍旧难以得到有效的处理。
商汤DrivingStereo尝试去除对CAD模型的依赖,并且不单独区分运动与静止物体。他们首先对点云进行融合并投影到图像上,然后利用深度模型得到的深度结果对投影结果进行初次过滤,接着利用过滤得到的点云微调深度模型,在模型得到进一步训练后再次进行过滤。经过简单的迭代过程达到自动化优化现有点云的目的。然而,此种方式难以对点云精度进行保证。
另外,申请号为CN2018113748894的中国发明专利申请公开了一种实现激光点云稠密化的方法,包括:获取目标场景的原始点云;按照前视图视角将所述原始点云投影至一柱面,生成第一前视图,所述前视图视角与激光雷达采集所述原始点云时的方位角有关;基于深度学习模型所构建不同分辨率前视图之间的映射关系,由所述第一前视图映射得到第二前视图,所述第二前视图的分辨率高于所述第一前视图的分辨率;将所述第二前视图投影至所述原始点云所在坐标系,得到所述目标场景的稠密点云。
综上,现有的点云稠密化解决方案仍旧存在不足:CAD模型难以完全拟合所有的车辆,如车辆形状比较特殊、车门打开等常见场景难以很好地进行拟合了;此外,基于CAD模型拟合一般需要人工进行标注,难以有效地自动化;基于深度模型的过滤方法精度难以得到有效保证,且两者对运动物体投影得到的点云均没有进行有效利用。
发明内容
为了解决现有技术的不足,本发明的目的是提供一种稠密化效率高、能自动化且可以大规模应用的新型点云稠密化方法。
为了实现上述目的,本发明提供的一种多线雷达点云稠密化方法,包括如下步骤:
步骤S1:对时钟同步的视频和激光雷达点云序列的位姿进行初始化;
步骤S2:将所述点云序列分割为各个物体对应的点云;
步骤S3:分离动态物体对应的点云、场景对应的点云和静态物体对应的点云;
步骤S4:融合所述步骤S3中得到的点云;
步骤S5:对所述步骤S4中融合的点云进行过滤;
步骤S6:存储所述步骤S5中经过过滤的点云。
优选地,在所述步骤S1中,利用SLAM技术计算得到每帧在世界坐标系下的位姿作为初始位姿。
优选地,在所述步骤S2中,利用2D图像分割算法获取对应的3D点云,并计算得到对应的3D点云框,与利用3D点云分割算法直接得到的3D点云框进行融合调整。
有利地,在所述步骤S3中,依据所述步骤S3中分割得到的单个物体,在图像及点云序列中判断是否在进行运动,将静态物体和场景对应的点云当做同一组,将每个动态物体对应的点云单独归属于另一组。
其中,在所述步骤S4中,包括融合场景对应的点云和静态物体对应的点云以及融合动态物体对应的点云;融合场景对应的点云和静态物体对应的点云时,将所述步骤S3中得到的静态物体对应的点云和场景对应的点云按照所述步骤S1中计算得到的相对位姿作为初始值进行进一步优化;融合动态物体对应的点云时,针对所述步骤S3中单个动态物体,若在多帧点云中均存在对应的点云,对其进行进一步融合到当前帧对应坐标系下以充分利用点云信息。
在所述步骤S5中,在获取了包含场景、静态物体和动态物体对应的融合点云后,利用点云异常点剔除、双目估计深度模型得到的深度信息过滤或左右图经点云深度转换后一致性方式对点云进行进一步过滤,此过程可以有效地去除融合过程中引入的噪声。
在所述步骤S6中,在对所述步骤S4中融合的点云进行过滤之后且在存储所述步骤S5中经过滤的点云之前,针对部分刚体对应的点云进行深度补全。
本发明还提供了一种多线雷达点云稠密化装置,所述装置包括:
初始化模块,用于对时钟同步的视频和激光雷达点云序列的位姿进行初始化;
分割模块,用于将所述点云序列分割为各个物体对应的点云;
分离模块,用于分离动态物体对应的点云、场景对应的点云和静态物体对应的点云;
融合模块,用于融合所述分离模块分离后的点云;
过滤模块,用于对融合后的点云进行过滤;
存储模块,用于存储经过过滤的点云。
本发明对静止物体(包含环境)与运动物体进行不同的稠密化处理,一方面在去除运动物体后提升了静止物体的相对位姿估计,进而提升其配准效果;另一方面,充分利用投影到运动物体上的点云。整体方案完全自动化、模块化,可以大规模应用。
附图说明
附图1是本发明的方法流程示意图。
具体实施方式
如图1所示,本发明提供的一种多线雷达点云稠密化方法,包括如下步骤:
步骤S1:对时钟同步的视频和激光雷达点云序列的位姿进行初始化;
步骤S2:将所述点云序列分割为各个物体对应的点云;
步骤S3:分离动态物体对应的点云、场景对应的点云和静态物体对应的点云;
步骤S4:融合所述步骤S3中得到的点云;
步骤S5:对所述步骤S4中融合的点云进行过滤;
步骤S6:存储所述步骤S5中经过过滤的点云。
步骤1中的视频和雷达点云序列通过采集设备获得,所述采集设备包括高精度双目相机、激光雷达、GPS和惯性传感器(IMU)。激光雷达(LiDAR,Light Detection andRanging),是激光探测及测距系统的简称,包括一个单束窄带激光器和一个接收系统。激光器产生并发射一束光脉冲,打在物体上并反射回来,最终被接收器所接收。接收器准确地测量光脉冲从发射到被反射回的传播时间。因为光脉冲以光速传播,所以接收器总会在下一个脉冲发出之前收到前一个被反射回的脉冲。鉴于光速是已知的,传播时间即可被转换为对距离的测量。结合激光器的高度,激光扫描角度,从GPS得到的激光器的位置和从INS得到的激光发射方向,就可以准确地计算出每一个地面光斑的坐标X,Y,Z。激光束发射的频率可以从每秒几个脉冲到每秒几万个脉冲。当一束激光照射到物体表面时,所反射的激光会携带方位、距离等信息。若将激光束按照某种轨迹进行扫描,便会边扫描边记录到反射的激光点信息,由于扫描极为精细,则能够得到大量的激光点,因而就可形成激光点云,即点云是在同一空间参考系下表达目标空间分布和目标表面特性的海量点集合,在获取物体表面每个采样点的空间坐标后,得到的是点的集合,称之为点云(Point Cloud)。一般地,激光雷达以固定线数(8/16/32/64线等)对环境进行扫描,单帧雷达数据(10HZ)的点云投影到图像平面仅有很少一部分像素有对应点云,所以常需要增加雷达数据密度,称为点云稠密化。
步骤1中,利用SLAM技术计算得到每帧在世界坐标系下的位姿作为初始位姿。SLAM是同步定位与地图构建(Simultaneous Localization And Mapping)的缩写,最早是由Hugh Durrant-Whyte和John J.Leonard在1988年提出的。SLAM与其说是一个算法不如说它是一个概念更为贴切,它被定义为解决“机器人从未知环境的未知地点出发,在运动过程中通过重复观测到的地图特征(比如,墙角,柱子等)定位自身位置和姿态,再根据自身位置增量式的构建地图,从而达到同时定位和地图构建的目”的问题方法的统称。SLAM技术的核心步骤,大体上而言,SLAM包含了:感知、定位、建图这三个过程:感知——机器人能够通过传感器获取周围的环境信息;定位——通过传感器获取的当前和历史信息,推测出自身的位置和姿态;建图——根据自身的位姿以及传感器获取的信息,描绘出自身所处环境的样貌。
通过采集设备如激光雷达和双目相机获取物体的点云数据和图象数据后,再利用SLAM技术进行初始位姿初始化,即放入世界坐标系中定位,得到世界坐标系下的各个物体对应的点云,再利用2D图像分割算法获取对应的3D点云,并计算得到对应的3D点云框,与利用3D点云分割算法直接得到的3D点云框进行融合调整,如图像物体分割边缘对应的点云在空间中可能属于另一个物体,这在3D空间中较为容易进行判读处理。
在所述步骤S3中,依据所述步骤S2中分割得到的单个物体,在图像及点云序列中判断是否在进行运动,将静态物体和场景对应的点云当做同一组,将每个动态物体对应的点云单独归属于另一组。为方便进行判断可以考虑利用步骤S1中得到的位姿将点云准换到世界坐标系下。
在所述步骤S4中,包括融合场景对应的点云和静态物体对应的点云以及融合动态物体对应的点云;融合场景对应的点云和静态物体对应的点云时,将所述步骤S3中得到的静态物体对应的点云和场景对应的点云按照所述步骤S1中计算得到的相对位姿作为初始值进行进一步优化,因去除了动态物体,可以得到更加精确的配准;融合动态物体对应的点云时,针对所述步骤S3中单个动态物体,若在多帧点云中均存在对应的点云,对其进行进一步融合到当前帧对应坐标系下以充分利用点云信息,因为单个物体上的点云可能较少,优化过程可能出现的优化次,将在过滤阶段进行处理。
在所述步骤S5中,在获取了包含场景、静态物体和动态物体对应的融合点云后,利用点云异常点剔除、双目估计深度模型得到的深度信息过滤或左右图经点云深度转换后一致性方式对点云进行进一步过滤,此过程可以有效地去除融合过程中引入的噪声。
在所述步骤S6中,在对所述步骤S4中融合的点云进行过滤之后且在存储所述步骤S5中经过滤的点云之前,针对部分刚体对应的点云进行深度补全。利用图像与深度信息,即步骤S3中得到的物体分离结果进行对应深度补全以进一步对点云进行稠密化,注意,此处仅针对部分刚体(如车辆)进行补全,一般地,当车辆上已经有较为稠密且精度较高的点云时局部进行深度补全并不会引入过多误差。因此对单个物体上的点云进行判断,当足够多时进行补全。此外,物体边缘在补全过程中可能会出现噪声,在补全后可以再次执行步骤S5中过滤操作进行简单过滤。
另外,本发明还提供了一种多线雷达点云稠密化装置,所述装置包括:
初始化模块,用于对时钟同步的视频和激光雷达点云序列的位姿进行初始化;
分割模块,用于将所述点云序列分割为各个物体对应的点云;
分离模块,用于分离动态物体对应的点云、场景对应的点云和静态物体对应的点云;
融合模块,用于融合所述分离模块分离后的点云;
过滤模块,用于对融合后的点云进行过滤;
存储模块,用于存储经过过滤的点云。
另外,还包括深度补全模块,用于针对部分刚体对应的点云进行深度补全。
以上详细描述了本发明的优选的具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的设计构思做出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的设计构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在本发明的范围之内和/或由权利要求书所确定的保护范围内。

Claims (8)

1.一种多线雷达点云稠密化方法,包括如下步骤:
步骤S1:对时钟同步的视频和激光雷达点云序列的位姿进行初始化;
在所述步骤S1中,利用SLAM技术计算得到每帧在世界坐标系下的位姿作为初始位姿;
步骤S2:将所述点云序列分割为各个物体对应的点云;
步骤S3:分离动态物体对应的点云、场景对应的点云和静态物体对应的点云;
步骤S4:融合所述步骤S3中得到的点云;
在所述步骤S4中,包括融合场景对应的点云和静态物体对应的点云以及融合动态物体对应的点云;融合场景对应的点云和静态物体对应的点云时,将所述步骤S3中得到的静态物体对应的点云和场景对应的点云按照所述步骤S1中计算得到的相对位姿作为初始值进行进一步优化,以提升配准的精度;融合动态物体对应的点云时,针对所述步骤S3中单个动态物体,若在多帧点云中均存在对应的点云,对其进行进一步融合到当前帧对应坐标系下以充分利用点云信息;
步骤S5:对所述步骤S4中融合的点云进行过滤;
步骤S6:存储所述步骤S5中经过过滤的点云。
2.根据权利要求1所述的一种多线雷达点云稠密化方法,其特征在于:在所述步骤S2中,利用2D图像分割算法获取对应的3D点云,并计算得到对应的3D点云框,与利用3D点云分割算法直接得到的3D点云框进行融合调整。
3.根据权利要求2所述的一种多线雷达点云稠密化方法,其特征在于:在所述步骤S3中,依据所述步骤S2中分割得到的单个物体,在图像及点云序列中判断是否在进行运动,将静态物体和场景对应的点云当做同一组,将每个动态物体对应的点云单独归属于另一组。
4.根据权利要求3所述的一种多线雷达点云稠密化方法,其特征在于:在所述步骤S5中,在获取了包含场景、静态物体和动态物体对应的融合点云后,利用点云异常点剔除、双目估计深度模型得到的深度信息过滤或左右图经点云深度转换后一致性方式对点云进行进一步过滤,此过程可以有效地去除融合过程中引入的噪声。
5.根据权利要求4所述的一种多线雷达点云稠密化方法,其特征在于:在所述步骤S6中,在对所述步骤S4中融合的点云进行过滤之后且在存储所述步骤S5中经过滤的点云之前,针对部分刚体对应的点云进行深度补全。
6.根据权利要求5所述的一种多线雷达点云稠密化方法,其特征在于:所述步骤S1中的视频和雷达点云序列通过采集设备获得,所述采集设备包括高精度双目相机、激光雷达、GPS和惯性传感器(IMU)。
7.一种多线雷达点云稠密化装置,其特征在于,所述装置包括:
初始化模块,用于对时钟同步的视频和激光雷达点云序列的位姿进行初始化;在初始化模块中,利用SLAM技术计算得到每帧在世界坐标系下的位姿作为初始位姿;
分割模块,用于将所述点云序列分割为各个物体对应的点云;
分离模块,用于分离动态物体对应的点云、场景对应的点云和静态物体对应的点云;
融合模块,用于融合所述分离模块分离后的点云;
在所述融合模块中,包括融合场景对应的点云和静态物体对应的点云以及融合动态物体对应的点云;融合场景对应的点云和静态物体对应的点云时,将所述分离模块中得到的静态物体对应的点云和场景对应的点云按照所述初始化模块中计算得到的相对位姿作为初始值进行进一步优化,以提升配准的精度;融合动态物体对应的点云时,针对所述分离模块中单个动态物体,若在多帧点云中均存在对应的点云,对其进行进一步融合到当前帧对应坐标系下以充分利用点云信息;
过滤模块,用于对融合后的点云进行过滤;
存储模块,用于存储经过过滤的点云。
8.根据权利要求7所述的一种多线雷达点云稠密化装置,其特征在于,还包括深度补全模块,用于针对部分刚体对应的点云进行深度补全。
CN202010998244.9A 2019-12-27 2020-09-21 一种多线雷达点云稠密化方法和装置 Active CN113052846B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201911378766 2019-12-27
CN2019113787662 2019-12-27

Publications (2)

Publication Number Publication Date
CN113052846A CN113052846A (zh) 2021-06-29
CN113052846B true CN113052846B (zh) 2024-05-28

Family

ID=76507715

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010998244.9A Active CN113052846B (zh) 2019-12-27 2020-09-21 一种多线雷达点云稠密化方法和装置

Country Status (1)

Country Link
CN (1) CN113052846B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114926485A (zh) * 2022-02-22 2022-08-19 广州文远知行科技有限公司 图像深度标注方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109828658A (zh) * 2018-12-17 2019-05-31 彭晓东 一种人机共融的远程态势智能感知系统
CN109949399A (zh) * 2019-03-15 2019-06-28 西安因诺航空科技有限公司 一种基于无人机航拍图像的场景三维重建方法
CN110097553A (zh) * 2019-04-10 2019-08-06 东南大学 基于即时定位建图与三维语义分割的语义建图系统
CN110208793A (zh) * 2019-04-26 2019-09-06 纵目科技(上海)股份有限公司 基于毫米波雷达的辅助驾驶系统、方法、终端和介质
CN110389348A (zh) * 2019-07-30 2019-10-29 四川大学 基于激光雷达与双目相机的定位与导航方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109828658A (zh) * 2018-12-17 2019-05-31 彭晓东 一种人机共融的远程态势智能感知系统
CN109949399A (zh) * 2019-03-15 2019-06-28 西安因诺航空科技有限公司 一种基于无人机航拍图像的场景三维重建方法
CN110097553A (zh) * 2019-04-10 2019-08-06 东南大学 基于即时定位建图与三维语义分割的语义建图系统
CN110208793A (zh) * 2019-04-26 2019-09-06 纵目科技(上海)股份有限公司 基于毫米波雷达的辅助驾驶系统、方法、终端和介质
CN110389348A (zh) * 2019-07-30 2019-10-29 四川大学 基于激光雷达与双目相机的定位与导航方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于摆动单线激光雷达的大场景稠密点云地图创建系统;钱超杰 等;机器人;20190731;第41卷(第4期);第464-473页 *
面向场景重构的多序列间配准;杨磊 等;光学精密工程;20150228;第23卷(第2期);第557-565页 *

Also Published As

Publication number Publication date
CN113052846A (zh) 2021-06-29

Similar Documents

Publication Publication Date Title
CN109949372B (zh) 一种激光雷达与视觉联合标定方法
CN110032949B (zh) 一种基于轻量化卷积神经网络的目标检测与定位方法
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN110988912B (zh) 自动驾驶车辆的道路目标与距离检测方法、系统、装置
CN111090103B (zh) 水下小目标动态精细检测三维成像装置及方法
CN110675418B (zh) 一种基于ds证据理论的目标轨迹优化方法
US10602059B2 (en) Method for generating a panoramic image
CN110942449A (zh) 一种基于激光与视觉融合的车辆检测方法
US9940725B2 (en) Method for estimating the speed of movement of a camera
CN108981672A (zh) 基于单目机器人与测距传感器结合的舱门实时定位方法
KR100953076B1 (ko) 객체 또는 배경 분리를 이용한 다시점 정합 방법 및 장치
CN113160327A (zh) 一种点云补全的实现方法和系统
CN110119679B (zh) 物体三维信息估计方法及装置、计算机设备、存储介质
US20220398856A1 (en) Method for reconstruction of a feature in an environmental scene of a road
Munoz-Banon et al. Targetless camera-lidar calibration in unstructured environments
CN112883820A (zh) 基于激光雷达点云的道路目标3d检测方法及系统
CN110738731A (zh) 一种用于双目视觉的3d重建方法和系统
CN114280611A (zh) 一种融合毫米波雷达与摄像头的路侧感知方法
CN115113206A (zh) 井下有轨车辅助驾驶的行人与障碍物检测方法
CN113052846B (zh) 一种多线雷达点云稠密化方法和装置
KR20230003803A (ko) 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법
CN113608234A (zh) 一种城市数据采集系统
CN116978009A (zh) 基于4d毫米波雷达的动态物体滤除方法
CN116189140A (zh) 一种基于双目视觉的车辆三维目标检测算法
CN116630528A (zh) 基于神经网络的静态场景重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20220727

Address after: Room 618, 6 / F, building 5, courtyard 15, Kechuang 10th Street, Beijing Economic and Technological Development Zone, Daxing District, Beijing 100176

Applicant after: Xiaomi Automobile Technology Co.,Ltd.

Address before: 1219, floor 11, SOHO, Zhongguancun, No. 8, Haidian North Second Street, Haidian District, Beijing 100089

Applicant before: SHENDONG TECHNOLOGY (BEIJING) Co.,Ltd.

GR01 Patent grant