CN113052846A - 一种多线雷达点云稠密化方法和装置 - Google Patents
一种多线雷达点云稠密化方法和装置 Download PDFInfo
- Publication number
- CN113052846A CN113052846A CN202010998244.9A CN202010998244A CN113052846A CN 113052846 A CN113052846 A CN 113052846A CN 202010998244 A CN202010998244 A CN 202010998244A CN 113052846 A CN113052846 A CN 113052846A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- point
- point clouds
- objects
- fused
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000000280 densification Methods 0.000 title claims description 15
- 230000003068 static effect Effects 0.000 claims abstract description 26
- 238000001914 filtration Methods 0.000 claims abstract description 23
- 230000001360 synchronised effect Effects 0.000 claims abstract description 7
- 230000004927 fusion Effects 0.000 claims description 14
- 230000011218 segmentation Effects 0.000 claims description 10
- 238000000926 separation method Methods 0.000 claims description 7
- 230000033001 locomotion Effects 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000007499 fusion processing Methods 0.000 claims description 3
- 238000003709 image segmentation Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种多线雷达点云稠密化方法和装置,包括如下步骤:步骤S1:对时钟同步的视频和激光雷达点云序列的位姿进行初始化;步骤S2:将所述点云序列分割为各个物体对应的点云;步骤S3:分离动态物体对应的点云、场景对应的点云和静态物体对应的点云;步骤S4:融合所述步骤S3中得到的点云;步骤S5:对所述步骤S4中融合的点云进行过滤;步骤S6:存储所述步骤S5中经过过滤的点云。优点在于整体方案完全自动化、模块化,可以大规模应用。
Description
技术领域
本发明涉及多线激光雷达领域的点云稠密化方法。
背景技术
点云信息对单目/双目深度估计、3D物体检测、路径规划等自动驾驶多项技术均有着极大地影响,点云的质量表现在精度及密度(density)上。激光雷达(Lidar)作为自动驾驶常用的传感器之一,可以提供高精度的3D空间采样,然而常用的机械雷达如Velodyne等均具有特定线数,即单帧情况下仅能获取很有限的测量点。因此,为在保证数据精度的前提下获取密度更高的点云,常见的策略是融合相邻多帧雷达数据,最终达到以较低的成本获取更高质量点云的目的。
现有包含稠密化点云的公开数据集主要有KITTI Stereo 2012、KITTI Stereo2015、KITTI depth、商汤DrivingStereo、百度阿波罗(Apollo)等,下面对这些数据集采用的点云稠密化方法进行简单分析讨论并指出其相关缺点。
针对单帧点云数据,将其稠密化方法一般为将相邻帧的点云按照计算得到/传感器获取的相对位姿投影到当前帧所在坐标系,因为自身运动(ego-motion)已经得到运动补偿,所以场景以及场景中的静止物体可以得到有效的稠密化。但是,此种方式对场景中的运动物体没有进行有效地处理,直接融合得到的点云在运动物体上会出现拖尾现象,如果不进行后续处理会影响数据质量,如果直接删除此部分点云会对雷达数据造成可观的浪费且出现图像与雷达不一致现象。
针对场景中的动态物体,各个数据集有着不同的处理方式:
KITTI Stereo 2012数据集仅选取除自身车辆外没有运动物体的场景来对此问题进行规避,然而此种方式对数据的利用率很有限,对场景设置有较高要求。
KITTI Stereo 2015进一步添加了对运动物体的处理。首先按照物体3D框标注信息移除了动态物体对应的点云,对剩余的包含静止物体的场景进行多帧融合;针对动态物体,使用3D CAD模型进行拟合。利用了3D框抽取出单个物体对应的点云并进行叠加,并且利用SGM算法得到的深度信息进行进一步约束,此外,人工选取一些CAD模型与点云相对应的点对,之后联合优化这三组约束得到合适的CAD模型位姿及尺度。最后对得到的结果进行手工筛选,人工去除非刚性的运动物体如行人等。然而此种方式引入了过多的人工参与,难以有效地自动化处理。
百度阿波罗数据集与KITTI Stereo 2015采用的方式类似,针对运动物体使用CAD模型进行拟合,并且选取了更多的模型(79种)。然而,真实场景中仍旧存在模型中不包含的车辆,如公交车等仍旧难以得到有效的处理。
商汤DrivingStereo尝试去除对CAD模型的依赖,并且不单独区分运动与静止物体。他们首先对点云进行融合并投影到图像上,然后利用深度模型得到的深度结果对投影结果进行初次过滤,接着利用过滤得到的点云微调深度模型,在模型得到进一步训练后再次进行过滤。经过简单的迭代过程达到自动化优化现有点云的目的。然而,此种方式难以对点云精度进行保证。
另外,申请号为CN2018113748894的中国发明专利申请公开了一种实现激光点云稠密化的方法,包括:获取目标场景的原始点云;按照前视图视角将所述原始点云投影至一柱面,生成第一前视图,所述前视图视角与激光雷达采集所述原始点云时的方位角有关;基于深度学习模型所构建不同分辨率前视图之间的映射关系,由所述第一前视图映射得到第二前视图,所述第二前视图的分辨率高于所述第一前视图的分辨率;将所述第二前视图投影至所述原始点云所在坐标系,得到所述目标场景的稠密点云。
综上,现有的点云稠密化解决方案仍旧存在不足:CAD模型难以完全拟合所有的车辆,如车辆形状比较特殊、车门打开等常见场景难以很好地进行拟合了;此外,基于CAD模型拟合一般需要人工进行标注,难以有效地自动化;基于深度模型的过滤方法精度难以得到有效保证,且两者对运动物体投影得到的点云均没有进行有效利用。
发明内容
为了解决现有技术的不足,本发明的目的是提供一种稠密化效率高、能自动化且可以大规模应用的新型点云稠密化方法。
为了实现上述目的,本发明提供的一种多线雷达点云稠密化方法,包括如下步骤:
步骤S1:对时钟同步的视频和激光雷达点云序列的位姿进行初始化;
步骤S2:将所述点云序列分割为各个物体对应的点云;
步骤S3:分离动态物体对应的点云、场景对应的点云和静态物体对应的点云;
步骤S4:融合所述步骤S3中得到的点云;
步骤S5:对所述步骤S4中融合的点云进行过滤;
步骤S6:存储所述步骤S5中经过过滤的点云。
优选地,在所述步骤S1中,利用SLAM技术计算得到每帧在世界坐标系下的位姿作为初始位姿。
优选地,在所述步骤S2中,利用2D图像分割算法获取对应的3D点云,并计算得到对应的3D点云框,与利用3D点云分割算法直接得到的3D点云框进行融合调整。
有利地,在所述步骤S3中,依据所述步骤S3中分割得到的单个物体,在图像及点云序列中判断是否在进行运动,将静态物体和场景对应的点云当做同一组,将每个动态物体对应的点云单独归属于另一组。
其中,在所述步骤S4中,包括融合场景对应的点云和静态物体对应的点云以及融合动态物体对应的点云;融合场景对应的点云和静态物体对应的点云时,将所述步骤S3中得到的静态物体对应的点云和场景对应的点云按照所述步骤S1中计算得到的相对位姿作为初始值进行进一步优化;融合动态物体对应的点云时,针对所述步骤S3中单个动态物体,若在多帧点云中均存在对应的点云,对其进行进一步融合到当前帧对应坐标系下以充分利用点云信息。
在所述步骤S5中,在获取了包含场景、静态物体和动态物体对应的融合点云后,利用点云异常点剔除、双目估计深度模型得到的深度信息过滤或左右图经点云深度转换后一致性方式对点云进行进一步过滤,此过程可以有效地去除融合过程中引入的噪声。
在所述步骤S6中,在对所述步骤S4中融合的点云进行过滤之后且在存储所述步骤S5中经过滤的点云之前,针对部分刚体对应的点云进行深度补全。
本发明还提供了一种多线雷达点云稠密化装置,所述装置包括:
初始化模块,用于对时钟同步的视频和激光雷达点云序列的位姿进行初始化;
分割模块,用于将所述点云序列分割为各个物体对应的点云;
分离模块,用于分离动态物体对应的点云、场景对应的点云和静态物体对应的点云;
融合模块,用于融合所述分离模块分离后的点云;
过滤模块,用于对融合后的点云进行过滤;
存储模块,用于存储经过过滤的点云。
本发明对静止物体(包含环境)与运动物体进行不同的稠密化处理,一方面在去除运动物体后提升了静止物体的相对位姿估计,进而提升其配准效果;另一方面,充分利用投影到运动物体上的点云。整体方案完全自动化、模块化,可以大规模应用。
附图说明
附图1是本发明的方法流程示意图。
具体实施方式
如图1所示,本发明提供的一种多线雷达点云稠密化方法,包括如下步骤:
步骤S1:对时钟同步的视频和激光雷达点云序列的位姿进行初始化;
步骤S2:将所述点云序列分割为各个物体对应的点云;
步骤S3:分离动态物体对应的点云、场景对应的点云和静态物体对应的点云;
步骤S4:融合所述步骤S3中得到的点云;
步骤S5:对所述步骤S4中融合的点云进行过滤;
步骤S6:存储所述步骤S5中经过过滤的点云。
步骤1中的视频和雷达点云序列通过采集设备获得,所述采集设备包括高精度双目相机、激光雷达、GPS和惯性传感器(IMU)。激光雷达(LiDAR,Light Detection andRanging),是激光探测及测距系统的简称,包括一个单束窄带激光器和一个接收系统。激光器产生并发射一束光脉冲,打在物体上并反射回来,最终被接收器所接收。接收器准确地测量光脉冲从发射到被反射回的传播时间。因为光脉冲以光速传播,所以接收器总会在下一个脉冲发出之前收到前一个被反射回的脉冲。鉴于光速是已知的,传播时间即可被转换为对距离的测量。结合激光器的高度,激光扫描角度,从GPS得到的激光器的位置和从INS得到的激光发射方向,就可以准确地计算出每一个地面光斑的坐标X,Y,Z。激光束发射的频率可以从每秒几个脉冲到每秒几万个脉冲。当一束激光照射到物体表面时,所反射的激光会携带方位、距离等信息。若将激光束按照某种轨迹进行扫描,便会边扫描边记录到反射的激光点信息,由于扫描极为精细,则能够得到大量的激光点,因而就可形成激光点云,即点云是在同一空间参考系下表达目标空间分布和目标表面特性的海量点集合,在获取物体表面每个采样点的空间坐标后,得到的是点的集合,称之为点云(Point Cloud)。一般地,激光雷达以固定线数(8/16/32/64线等)对环境进行扫描,单帧雷达数据(10HZ)的点云投影到图像平面仅有很少一部分像素有对应点云,所以常需要增加雷达数据密度,称为点云稠密化。
步骤1中,利用SLAM技术计算得到每帧在世界坐标系下的位姿作为初始位姿。SLAM是同步定位与地图构建(Simultaneous Localization And Mapping)的缩写,最早是由Hugh Durrant-Whyte和John J.Leonard在1988年提出的。SLAM与其说是一个算法不如说它是一个概念更为贴切,它被定义为解决“机器人从未知环境的未知地点出发,在运动过程中通过重复观测到的地图特征(比如,墙角,柱子等)定位自身位置和姿态,再根据自身位置增量式的构建地图,从而达到同时定位和地图构建的目”的问题方法的统称。SLAM技术的核心步骤,大体上而言,SLAM包含了:感知、定位、建图这三个过程:感知——机器人能够通过传感器获取周围的环境信息;定位——通过传感器获取的当前和历史信息,推测出自身的位置和姿态;建图——根据自身的位姿以及传感器获取的信息,描绘出自身所处环境的样貌。
通过采集设备如激光雷达和双目相机获取物体的点云数据和图象数据后,再利用SLAM技术进行初始位姿初始化,即放入世界坐标系中定位,得到世界坐标系下的各个物体对应的点云,再利用2D图像分割算法获取对应的3D点云,并计算得到对应的3D点云框,与利用3D点云分割算法直接得到的3D点云框进行融合调整,如图像物体分割边缘对应的点云在空间中可能属于另一个物体,这在3D空间中较为容易进行判读处理。
在所述步骤S3中,依据所述步骤S2中分割得到的单个物体,在图像及点云序列中判断是否在进行运动,将静态物体和场景对应的点云当做同一组,将每个动态物体对应的点云单独归属于另一组。为方便进行判断可以考虑利用步骤S1中得到的位姿将点云准换到世界坐标系下。
在所述步骤S4中,包括融合场景对应的点云和静态物体对应的点云以及融合动态物体对应的点云;融合场景对应的点云和静态物体对应的点云时,将所述步骤S3中得到的静态物体对应的点云和场景对应的点云按照所述步骤S1中计算得到的相对位姿作为初始值进行进一步优化,因去除了动态物体,可以得到更加精确的配准;融合动态物体对应的点云时,针对所述步骤S3中单个动态物体,若在多帧点云中均存在对应的点云,对其进行进一步融合到当前帧对应坐标系下以充分利用点云信息,因为单个物体上的点云可能较少,优化过程可能出现的优化次,将在过滤阶段进行处理。
在所述步骤S5中,在获取了包含场景、静态物体和动态物体对应的融合点云后,利用点云异常点剔除、双目估计深度模型得到的深度信息过滤或左右图经点云深度转换后一致性方式对点云进行进一步过滤,此过程可以有效地去除融合过程中引入的噪声。
在所述步骤S6中,在对所述步骤S4中融合的点云进行过滤之后且在存储所述步骤S5中经过滤的点云之前,针对部分刚体对应的点云进行深度补全。利用图像与深度信息,即步骤S3中得到的物体分离结果进行对应深度补全以进一步对点云进行稠密化,注意,此处仅针对部分刚体(如车辆)进行补全,一般地,当车辆上已经有较为稠密且精度较高的点云时局部进行深度补全并不会引入过多误差。因此对单个物体上的点云进行判断,当足够多时进行补全。此外,物体边缘在补全过程中可能会出现噪声,在补全后可以再次执行步骤S5中过滤操作进行简单过滤。
另外,本发明还提供了一种多线雷达点云稠密化装置,所述装置包括:
初始化模块,用于对时钟同步的视频和激光雷达点云序列的位姿进行初始化;
分割模块,用于将所述点云序列分割为各个物体对应的点云;
分离模块,用于分离动态物体对应的点云、场景对应的点云和静态物体对应的点云;
融合模块,用于融合所述分离模块分离后的点云;
过滤模块,用于对融合后的点云进行过滤;
存储模块,用于存储经过过滤的点云。
另外,还包括深度补全模块,用于针对部分刚体对应的点云进行深度补全。
以上详细描述了本发明的优选的具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的设计构思做出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的设计构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在本发明的范围之内和/或由权利要求书所确定的保护范围内。
Claims (10)
1.一种多线雷达点云稠密化方法,包括如下步骤:
步骤S1:对时钟同步的视频和激光雷达点云序列的位姿进行初始化;
步骤S2:将所述点云序列分割为各个物体对应的点云;
步骤S3:分离动态物体对应的点云、场景对应的点云和静态物体对应的点云;
步骤S4:融合所述步骤S3中得到的点云;
步骤S5:对所述步骤S4中融合的点云进行过滤;
步骤S6:存储所述步骤S5中经过过滤的点云。
2.根据权利要求1所述的一种多线雷达点云稠密化方法,其特征在于:在所述步骤S1中,利用SLAM技术计算得到每帧在世界坐标系下的位姿作为初始位姿。
3.根据权利要求2所述的一种多线雷达点云稠密化方法,其特征在于:在所述步骤S2中,利用2D图像分割算法获取对应的3D点云,并计算得到对应的3D点云框,与利用3D点云分割算法直接得到的3D点云框进行融合调整。
4.根据权利要求3所述的一种多线雷达点云稠密化方法,其特征在于:在所述步骤S3中,依据所述步骤S2中分割得到的单个物体,在图像及点云序列中判断是否在进行运动,将静态物体和场景对应的点云当做同一组,将每个动态物体对应的点云单独归属于另一组。
5.根据权利要求4所述的一种多线雷达点云稠密化方法,其特征在于:在所述步骤S4中,包括融合场景对应的点云和静态物体对应的点云以及融合动态物体对应的点云;融合场景对应的点云和静态物体对应的点云时,将所述步骤S3中得到的静态物体对应的点云和场景对应的点云按照所述步骤S1中计算得到的相对位姿作为初始值进行进一步优化;融合动态物体对应的点云时,针对所述步骤S3中单个动态物体,若在多帧点云中均存在对应的点云,对其进行进一步融合到当前帧对应坐标系下以充分利用点云信息。
6.根据权利要求5所述的一种多线雷达点云稠密化方法,其特征在于:在所述步骤S5中,在获取了包含场景、静态物体和动态物体对应的融合点云后,利用点云异常点剔除、双目估计深度模型得到的深度信息过滤或左右图经点云深度转换后一致性方式对点云进行进一步过滤,此过程可以有效地去除融合过程中引入的噪声。
7.根据权利要求6所述的一种多线雷达点云稠密化方法,其特征在于:在所述步骤S6中,在对所述步骤S4中融合的点云进行过滤之后且在存储所述步骤S5中经过滤的点云之前,针对部分刚体对应的点云进行深度补全。
8.根据权利要求7所述的一种多线雷达点云稠密化方法,其特征在于:所述步骤S1中的视频和雷达点云序列通过采集设备获得,所述采集设备包括高精度双目相机、激光雷达、GPS和惯性传感器(IMU)。
9.一种多线雷达点云稠密化装置,其特征在于,所述装置包括:
初始化模块,用于对时钟同步的视频和激光雷达点云序列的位姿进行初始化;
分割模块,用于将所述点云序列分割为各个物体对应的点云;
分离模块,用于分离动态物体对应的点云、场景对应的点云和静态物体对应的点云;
融合模块,用于融合所述分离模块分离后的点云;
过滤模块,用于对融合后的点云进行过滤;
存储模块,用于存储经过过滤的点云。
10.根据权利要求8所述的一种多线雷达点云稠密化装置,其特征在于,还包括深度补全模块,用于针对部分刚体对应的点云进行深度补全。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911378766 | 2019-12-27 | ||
CN2019113787662 | 2019-12-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113052846A true CN113052846A (zh) | 2021-06-29 |
CN113052846B CN113052846B (zh) | 2024-05-28 |
Family
ID=76507715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010998244.9A Active CN113052846B (zh) | 2019-12-27 | 2020-09-21 | 一种多线雷达点云稠密化方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113052846B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114926485A (zh) * | 2022-02-22 | 2022-08-19 | 广州文远知行科技有限公司 | 图像深度标注方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109828658A (zh) * | 2018-12-17 | 2019-05-31 | 彭晓东 | 一种人机共融的远程态势智能感知系统 |
CN109949399A (zh) * | 2019-03-15 | 2019-06-28 | 西安因诺航空科技有限公司 | 一种基于无人机航拍图像的场景三维重建方法 |
CN110097553A (zh) * | 2019-04-10 | 2019-08-06 | 东南大学 | 基于即时定位建图与三维语义分割的语义建图系统 |
CN110208793A (zh) * | 2019-04-26 | 2019-09-06 | 纵目科技(上海)股份有限公司 | 基于毫米波雷达的辅助驾驶系统、方法、终端和介质 |
CN110389348A (zh) * | 2019-07-30 | 2019-10-29 | 四川大学 | 基于激光雷达与双目相机的定位与导航方法及装置 |
-
2020
- 2020-09-21 CN CN202010998244.9A patent/CN113052846B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109828658A (zh) * | 2018-12-17 | 2019-05-31 | 彭晓东 | 一种人机共融的远程态势智能感知系统 |
CN109949399A (zh) * | 2019-03-15 | 2019-06-28 | 西安因诺航空科技有限公司 | 一种基于无人机航拍图像的场景三维重建方法 |
CN110097553A (zh) * | 2019-04-10 | 2019-08-06 | 东南大学 | 基于即时定位建图与三维语义分割的语义建图系统 |
CN110208793A (zh) * | 2019-04-26 | 2019-09-06 | 纵目科技(上海)股份有限公司 | 基于毫米波雷达的辅助驾驶系统、方法、终端和介质 |
CN110389348A (zh) * | 2019-07-30 | 2019-10-29 | 四川大学 | 基于激光雷达与双目相机的定位与导航方法及装置 |
Non-Patent Citations (2)
Title |
---|
杨磊 等: "面向场景重构的多序列间配准", 光学精密工程, vol. 23, no. 2, 28 February 2015 (2015-02-28), pages 557 - 565 * |
钱超杰 等: "基于摆动单线激光雷达的大场景稠密点云地图创建系统", 机器人, vol. 41, no. 4, 31 July 2019 (2019-07-31), pages 464 - 473 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114926485A (zh) * | 2022-02-22 | 2022-08-19 | 广州文远知行科技有限公司 | 图像深度标注方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113052846B (zh) | 2024-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021223368A1 (zh) | 基于视觉、激光雷达和毫米波雷达的目标检测方法 | |
CN110988912B (zh) | 自动驾驶车辆的道路目标与距离检测方法、系统、装置 | |
CN112288875B (zh) | 一种面向无人机矿山巡检场景的快速三维重建方法 | |
CN111260773B (zh) | 小障碍物的三维重建方法、检测方法及检测系统 | |
CN108981672A (zh) | 基于单目机器人与测距传感器结合的舱门实时定位方法 | |
WO2020104423A1 (en) | Method and apparatus for data fusion of lidar data and image data | |
CN113160327A (zh) | 一种点云补全的实现方法和系统 | |
CN112162297B (zh) | 一种剔除激光点云地图中动态障碍伪迹的方法 | |
US20220398856A1 (en) | Method for reconstruction of a feature in an environmental scene of a road | |
CN111060924A (zh) | 一种slam与目标跟踪方法 | |
CN109917419A (zh) | 一种基于激光雷达与图像的深度填充密集系统及方法 | |
CN110738731A (zh) | 一种用于双目视觉的3d重建方法和系统 | |
CN113643254B (zh) | 一种无人机激光点云高效采集处理方法 | |
US20210304492A1 (en) | Method for detecting and modeling of object on surface of road | |
CN113240813A (zh) | 三维点云信息确定方法及装置 | |
CN115113206A (zh) | 井下有轨车辅助驾驶的行人与障碍物检测方法 | |
CN116978009A (zh) | 基于4d毫米波雷达的动态物体滤除方法 | |
WO2021063756A1 (en) | Improved trajectory estimation based on ground truth | |
CN113052846B (zh) | 一种多线雷达点云稠密化方法和装置 | |
Sun et al. | Geographic, geometrical and semantic reconstruction of urban scene from high resolution oblique aerial images. | |
CN118244281A (zh) | 一种视觉与雷达融合的目标定位方法及装置 | |
CN117237553A (zh) | 一种基于点云图像融合的三维地图测绘系统 | |
Na et al. | Drivable space expansion from the ground base for complex structured roads | |
CN114898144B (zh) | 一种基于相机和毫米波雷达数据的自动对齐方法 | |
CN112365600B (zh) | 一种三维物体检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220727 Address after: Room 618, 6 / F, building 5, courtyard 15, Kechuang 10th Street, Beijing Economic and Technological Development Zone, Daxing District, Beijing 100176 Applicant after: Xiaomi Automobile Technology Co.,Ltd. Address before: 1219, floor 11, SOHO, Zhongguancun, No. 8, Haidian North Second Street, Haidian District, Beijing 100089 Applicant before: SHENDONG TECHNOLOGY (BEIJING) Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |