CN109917419A - 一种基于激光雷达与图像的深度填充密集系统及方法 - Google Patents

一种基于激光雷达与图像的深度填充密集系统及方法 Download PDF

Info

Publication number
CN109917419A
CN109917419A CN201910293898.9A CN201910293898A CN109917419A CN 109917419 A CN109917419 A CN 109917419A CN 201910293898 A CN201910293898 A CN 201910293898A CN 109917419 A CN109917419 A CN 109917419A
Authority
CN
China
Prior art keywords
module
laser radar
data
super
normal vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910293898.9A
Other languages
English (en)
Other versions
CN109917419B (zh
Inventor
潘子宇
陈龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201910293898.9A priority Critical patent/CN109917419B/zh
Publication of CN109917419A publication Critical patent/CN109917419A/zh
Application granted granted Critical
Publication of CN109917419B publication Critical patent/CN109917419B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明涉及一种基于激光雷达与图像的深度填充密集系统及方法。在本发明中激光雷达采用的是3D激光雷达和视觉传感器,以激光雷达获取到物体的三维信息,结合相机传感器色彩信息的辅助,能够实现精准的路面提取;利用视觉传感器提供的纹理色彩,对三维空间进行信息补充及密集化,过预估超像素法向量,降低建立平面模型需要的激光雷达点云数量,可以适配不同的激光雷达以及不同的设备安装。本发明思路新颖,适应场景广泛,对激光雷达设备要求低,降低传感器融合的传感器需求,是一种全新的基于激光雷达与图像的深度填充密集方法。

Description

一种基于激光雷达与图像的深度填充密集系统及方法
技术领域
本发明涉及传感器融合技术领域,更具体地,涉及一种基于激光雷达与图像的深度填充密集系统及方法。
背景技术
随着时代的发展,传感器融合成为越来越重要的课题。激光雷达可以提供准确的外界深度信息,但无法感知物体色彩信息及提供密集的三维信息,通过融合视觉传感器,利用视觉传感器提供的纹理色彩,对三维空间进行信息补充及密集化。前期融合的三维信息可以为道路特征提取提供更多元的特征,从而大幅度提高基于深度信息的环境感知技术的准确性与可靠性。
发明内容
本发明为克服上述现有技术所述的至少一种缺陷,提供一种基于激光雷达与图像的深度填充密集系统及方法,通过获取相机传感器色彩纹理信息,生成超像素对应的法向量信息,结合获取物体的三维信息,能够实现精准的三维信息最大化密集填充。
为解决上述技术问题,本发明采用的技术方案是:一种基于激光雷达与图像的深度填充密集系统,包括数据采集模块、分割模块、法向量预估模块以及深度填充模块;其中:
数据采集模块,用于对使用无人车携带的激光雷达和相机传感器进行环境数据的采集,并将得到的相机传感器的数据传入分割模块和法向量预测模块,将生成的数据与基于激光雷达的数据传入深度填充模块;
分割模块,用于根据采集到的相机传感器数据进行超像素分割,将像素组合成感知有意义的原子区域,以用于替换像素网格的刚性结构,并将得到的分割标签传入到法向量预测模块;
法向量预估模块,用于对传入的相机数据帧和超像素分割标签进行法向量预估,生成每一个超像素对应的法向量;将图片输入卷积神经网络,从每个超像素中随机抽取一个像素,并将其映射的不同层的特征组成叠加向量--超列,对超列特征进行解析法向量预估,并将生成的超像素法向量传入到深度填充模块;
深度填充模块,用于对激光雷达数据帧与相机数据帧进行坐标同步处理,使激光雷达和相机数据帧处于同一坐标系,并将激光雷达三维数据投影到相机视场中,结合生成超像素法向量数据,拟合出超像素的平面模型,生成对应的深度图以实现深度填充。
进一步的,所述的数据采集模块在每一套无人车上至少设有一个激光雷达和至少两个相机传感器。
进一步的,所述的相机传感器为单目或多目相机,搭载于无人车车身,能够获取车前或车后的路面场景。
本发明还提供一种基于激光雷达与图像的深度填充密集方法,包括以下步骤:
S1.数据采集模块包括视觉传感器,首先对相机的数据进行标定,统一两组视觉传感器获取到的数据信息;
S2.数据采集模块还包括激光雷达,首先检验激光雷达的精确度,对其测量范围进行预估;
S3.数据采集模块根据视觉传感器和激光雷达的运行频率,结合实际使用需求,设定数据周期;将得到的相机传感器的数据传入分割模块和法向量预测模块,将生成的数据与基于激光雷达的数据传入深度填充模块;
S4.分割模块对根据采集到的相机传感器数据进行超像素分割,将像素组合成感知有意义的原子区域,以用于替换像素网格的刚性结构,并将得到的分割标签传入到法向量预测模块;
S5.法向量预估模块根据传入的视觉数据帧输入到卷积神经网络生成多层特征;
S6.法向量预估模块从分割模块传入的超像素分割的每个超像素中随机抽取一个像素,并将其映射不同层的特征组成叠加向量—超列,将超列特征进行解析法向量预估,并将生成的超像素法向量传入到深度填充模块;
S7.深度填充模块根据数据周期把周期内的激光雷达点云和视觉传感器点云进行姿态变换和特征对应变换,分别融合为一帧激光点云数据帧和视觉数据帧;
S8.深度填充模块根据传入的激光点云数据帧和视觉数据帧进行坐标同步处理,确保两种传感器内的数据点处于同一坐标系下,并将激光雷达点云投影到相机视场中;
S9.深度填充模块根据法向量预估模块传入的超像素法向量数据和激光雷达点云拟合出超像素向量数据,拟合出超像素的平面模型,生成对应的深度图以实现深度填充。
与现有技术相比,有益效果是:
1.本发明的激光雷达采用的是3D激光雷达和视觉传感器,以激光雷达获取到物体的三维信息,结合相机传感器色彩信息的辅助,能够实现精准的路面提取。本发明使用一种新颖的方法实现传感器融合,利用视觉传感器提供的纹理色彩,对三维空间进行信息补充及密集化;
2.本发明通过预估超像素法向量,降低建立平面模型需要的激光雷达点云数量,可以适配不同的激光雷达以及不同的设备安装。
附图说明
图1是本发明的系统结构关系示意图。
图2是本发明的方法流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本发明的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本发明的限制。
如图1所示,一种基于激光雷达与图像的深度填充密集系统,包括数据采集模块、分割模块、法向量预估模块以及深度填充模块;其中,
数据采集模块,用于对使用无人车携带的激光雷达和相机传感器进行环境数据的采集,并将得到的相机传感器的数据传入分割模块和法向量预测模块,将生成的数据与基于激光雷达的数据传入深度填充模块;
分割模块,用于根据采集到的相机传感器数据进行超像素分割,将像素组合成感知有意义的原子区域,以用于替换像素网格的刚性结构,并将得到的分割标签传入到法向量预测模块;
法向量预估模块,用于对传入的相机数据帧和超像素分割标签进行法向量预估,生成每一个超像素对应的法向量;将图片输入卷积神经网络,从每个超像素中随机抽取一个像素,并将其映射的不同层的特征组成叠加向量--超列,对超列特征进行解析法向量预估,并将生成的超像素法向量传入到深度填充模块;
深度填充模块,用于对激光雷达数据帧与相机数据帧进行坐标同步处理,使激光雷达和相机数据帧处于同一坐标系,并将激光雷达三维数据投影到相机视场中,结合生成超像素法向量数据,拟合出超像素的平面模型,生成对应的深度图以实现深度填充。
如图2所示,一种基于激光雷达与图像的深度填充密集方法,包括以下步骤:
S1.数据采集模块包括视觉传感器,首先对相机的数据进行标定,统一两组视觉传感器获取到的数据信息;
S2.数据采集模块还包括激光雷达,首先检验激光雷达的精确度,对其测量范围进行预估;
S3.数据采集模块根据视觉传感器和激光雷达的运行频率,结合实际使用需求,设定数据周期;将得到的相机传感器的数据传入分割模块和法向量预测模块,将生成的数据与基于激光雷达的数据传入深度填充模块;
S4.分割模块对根据采集到的相机传感器数据进行超像素分割,将像素组合成感知有意义的原子区域,以用于替换像素网格的刚性结构,并将得到的分割标签传入到法向量预测模块;
S5.法向量预估模块根据传入的视觉数据帧输入到卷积神经网络生成多层特征;
S6.法向量预估模块从分割模块传入的超像素分割的每个超像素中随机抽取一个像素,并将其映射不同层的特征组成叠加向量—超列,将超列特征进行解析法向量预估,并将生成的超像素法向量传入到深度填充模块;
S7.深度填充模块根据数据周期把周期内的激光雷达点云和视觉传感器点云进行姿态变换和特征对应变换,分别融合为一帧激光点云数据帧和视觉数据帧;
S8.深度填充模块根据传入的激光点云数据帧和视觉数据帧进行坐标同步处理,确保两种传感器内的数据点处于同一坐标系下,并将激光雷达点云投影到相机视场中;
S9.深度填充模块根据法向量预估模块传入的超像素法向量数据和激光雷达点云拟合出超像素向量数据,拟合出超像素的平面模型,生成对应的深度图以实现深度填充。
其中,数据采集模块需要保证每一个载体都含有一个激光雷达,且与视觉传感器有重叠视场区域;数据采集模块需要保证每一个载体的前或后方含有一组视觉传感器,可以获取到外界环境信息;数据采集模块自启用该方法开始将不停地采集数据并对数据进行处理,并根据当前所处的阶段以及各个模块的需求将相应的处理信息及时反馈给分割模块、法向量预估模块以及深度填充模块,直至完成整个过程;数据采集模块需要根据视觉传感器和激光雷达的运行周期,设定本方法中的数据周期。
另外,分割模块需要根据视觉传感器传入的色彩及纹理信息提取出超像素分割标签;法向量预估模块需要生成多层深度卷积神经网络输出特征,并抽取每个超像素中的一个像素映射的不同层特征组成叠加向量—超列,并将超列特征进行解析法向量预估;深度填充模块需要统一视觉数据帧和激光点云数据帧的坐标系,并将激光雷达点云投影到相机视场中;深度填充模块需要拟合出超像素的平面模型,生成对应的深度图以实现深度填充。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (4)

1.一种基于激光雷达与图像的深度填充密集系统,其特征在于,包括数据采集模块、分割模块、法向量预估模块以及深度填充模块;
数据采集模块,用于对使用无人车携带的激光雷达和相机传感器进行环境数据的采集,并将得到的相机传感器的数据传入分割模块和法向量预测模块,将生成的数据与基于激光雷达的数据传入深度填充模块;
分割模块,用于根据采集到的相机传感器数据进行超像素分割,将像素组合成感知有意义的原子区域,以用于替换像素网格的刚性结构,并将得到的分割标签传入到法向量预测模块;
法向量预估模块,用于对传入的相机数据帧和超像素分割标签进行法向量预估,生成每一个超像素对应的法向量;将图片输入卷积神经网络,从每个超像素中随机抽取一个像素,并将其映射的不同层的特征组成叠加向量--超列,对超列特征进行解析法向量预估,并将生成的超像素法向量传入到深度填充模块;
深度填充模块,用于对激光雷达数据帧与相机数据帧进行坐标同步处理,使激光雷达和相机数据帧处于同一坐标系,并将激光雷达三维数据投影到相机视场中,结合生成超像素法向量数据,拟合出超像素的平面模型,生成对应的深度图以实现深度填充。
2.根据权利要求1所述的一种基于激光雷达与图像的深度填充密集系统,其特征在于,所述的数据采集模块在每一套无人车上至少设有一个激光雷达和至少两个相机传感器。
3.根据权利要求2所述的一种基于激光雷达与图像的深度填充密集系统,其特征在于,所述的相机传感器为单目或多目相机,搭载于无人车车身,能够获取车前或车后的路面场景。
4.一种基于激光雷达与图像的深度填充密集方法,其特征在于,包括以下步骤:
S1.数据采集模块包括视觉传感器,首先对相机的数据进行标定,统一两组视觉传感器获取到的数据信息;
S2.数据采集模块还包括激光雷达,首先检验激光雷达的精确度,对其测量范围进行预估;
S3.数据采集模块根据视觉传感器和激光雷达的运行频率,结合实际使用需求,设定数据周期;将得到的相机传感器的数据传入分割模块和法向量预测模块,将生成的数据与基于激光雷达的数据传入深度填充模块;
S4.分割模块对根据采集到的相机传感器数据进行超像素分割,将像素组合成感知有意义的原子区域,以用于替换像素网格的刚性结构,并将得到的分割标签传入到法向量预测模块;
S5.法向量预估模块根据传入的视觉数据帧输入到卷积神经网络生成多层特征;
S6.法向量预估模块从分割模块传入的超像素分割的每个超像素中随机抽取一个像素,并将其映射不同层的特征组成叠加向量—超列,将超列特征进行解析法向量预估,并将生成的超像素法向量传入到深度填充模块;
S7.深度填充模块根据数据周期把周期内的激光雷达点云和视觉传感器点云进行姿态变换和特征对应变换,分别融合为一帧激光点云数据帧和视觉数据帧;
S8.深度填充模块根据传入的激光点云数据帧和视觉数据帧进行坐标同步处理,确保两种传感器内的数据点处于同一坐标系下,并将激光雷达点云投影到相机视场中;
S9.深度填充模块根据法向量预估模块传入的超像素法向量数据和激光雷达点云拟合出超像素向量数据,拟合出超像素的平面模型,生成对应的深度图以实现深度填充。
CN201910293898.9A 2019-04-12 2019-04-12 一种基于激光雷达与图像的深度填充密集系统及方法 Active CN109917419B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910293898.9A CN109917419B (zh) 2019-04-12 2019-04-12 一种基于激光雷达与图像的深度填充密集系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910293898.9A CN109917419B (zh) 2019-04-12 2019-04-12 一种基于激光雷达与图像的深度填充密集系统及方法

Publications (2)

Publication Number Publication Date
CN109917419A true CN109917419A (zh) 2019-06-21
CN109917419B CN109917419B (zh) 2021-04-13

Family

ID=66969670

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910293898.9A Active CN109917419B (zh) 2019-04-12 2019-04-12 一种基于激光雷达与图像的深度填充密集系统及方法

Country Status (1)

Country Link
CN (1) CN109917419B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110414418A (zh) * 2019-07-25 2019-11-05 电子科技大学 一种图像-激光雷达图像数据多尺度融合的道路检测方法
CN110596683A (zh) * 2019-10-25 2019-12-20 中山大学 一种多组激光雷达外参标定系统及其方法
CN110764106A (zh) * 2019-10-09 2020-02-07 中交一公局集团有限公司 一种采用激光雷达辅助盾构区间调坡调线测量施工方法
CN110807782A (zh) * 2019-10-25 2020-02-18 中山大学 一种视觉机器人的地图表示系统及其构建方法
CN110807809A (zh) * 2019-10-25 2020-02-18 中山大学 基于点线特征和深度滤波器的轻量级单目视觉定位方法
CN112346073A (zh) * 2020-09-25 2021-02-09 中山大学 一种动态视觉传感器与激光雷达数据融合方法

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120121131A1 (en) * 2010-11-15 2012-05-17 Samsung Techwin Co., Ltd. Method and apparatus for estimating position of moving vehicle such as mobile robot
EP2757524A1 (en) * 2013-01-16 2014-07-23 Honda Research Institute Europe GmbH Depth sensing method and system for autonomous vehicles
US20150085075A1 (en) * 2013-09-23 2015-03-26 Microsoft Corporation Optical modules that reduce speckle contrast and diffraction artifacts
CN104574375A (zh) * 2014-12-23 2015-04-29 浙江大学 结合彩色和深度信息的图像显著性检测方法
CN105015419A (zh) * 2015-07-17 2015-11-04 中山大学 基于立体视觉定位与建图的自动泊车系统及方法
CN105182358A (zh) * 2014-04-25 2015-12-23 谷歌公司 用于使用激光点云进行物体检测的方法和系统
KR101590114B1 (ko) * 2014-09-02 2016-01-29 재단법인 실감교류인체감응솔루션연구단 깊이 영상의 홀 채움을 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
CN106157307A (zh) * 2016-06-27 2016-11-23 浙江工商大学 一种基于多尺度cnn和连续crf的单目图像深度估计方法
CN106648103A (zh) * 2016-12-28 2017-05-10 歌尔科技有限公司 一种vr头戴设备的手势跟踪方法和vr头戴设备
CN106772431A (zh) * 2017-01-23 2017-05-31 杭州蓝芯科技有限公司 一种结合tof技术和双目视觉的深度信息获取装置及其方法
CN106981080A (zh) * 2017-02-24 2017-07-25 东华大学 基于红外图像和雷达数据的夜间无人车场景深度估计方法
CN106997591A (zh) * 2017-03-21 2017-08-01 南京理工大学 一种rgb‑d图像变尺度超体素分割方法
CN107167811A (zh) * 2017-04-26 2017-09-15 西安交通大学 基于单目视觉与激光雷达融合的道路可行驶区域检测方法
CN107169418A (zh) * 2017-04-18 2017-09-15 海信集团有限公司 一种障碍物检测方法及装置
CN107563388A (zh) * 2017-09-18 2018-01-09 东北大学 一种基于深度信息预分割的卷积神经网络物体识别方法
CN107610084A (zh) * 2017-09-30 2018-01-19 驭势科技(北京)有限公司 一种对深度图像和激光点云图进行信息融合的方法与设备
CN107622244A (zh) * 2017-09-25 2018-01-23 华中科技大学 一种基于深度图的室内场景精细化解析方法
WO2018035082A1 (en) * 2016-08-15 2018-02-22 Raptor Maps, Inc. Systems, devices, and methods for monitoring and assessing characteristics of harvested specialty crops
CN108229366A (zh) * 2017-12-28 2018-06-29 北京航空航天大学 基于雷达和图像数据融合的深度学习车载障碍物检测方法
CN108648233A (zh) * 2018-03-24 2018-10-12 北京工业大学 一种基于深度学习的目标识别与抓取定位方法

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120121131A1 (en) * 2010-11-15 2012-05-17 Samsung Techwin Co., Ltd. Method and apparatus for estimating position of moving vehicle such as mobile robot
EP2757524A1 (en) * 2013-01-16 2014-07-23 Honda Research Institute Europe GmbH Depth sensing method and system for autonomous vehicles
US20150085075A1 (en) * 2013-09-23 2015-03-26 Microsoft Corporation Optical modules that reduce speckle contrast and diffraction artifacts
CN105182358A (zh) * 2014-04-25 2015-12-23 谷歌公司 用于使用激光点云进行物体检测的方法和系统
KR101590114B1 (ko) * 2014-09-02 2016-01-29 재단법인 실감교류인체감응솔루션연구단 깊이 영상의 홀 채움을 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
CN104574375A (zh) * 2014-12-23 2015-04-29 浙江大学 结合彩色和深度信息的图像显著性检测方法
CN105015419A (zh) * 2015-07-17 2015-11-04 中山大学 基于立体视觉定位与建图的自动泊车系统及方法
CN106157307A (zh) * 2016-06-27 2016-11-23 浙江工商大学 一种基于多尺度cnn和连续crf的单目图像深度估计方法
WO2018035082A1 (en) * 2016-08-15 2018-02-22 Raptor Maps, Inc. Systems, devices, and methods for monitoring and assessing characteristics of harvested specialty crops
CN106648103A (zh) * 2016-12-28 2017-05-10 歌尔科技有限公司 一种vr头戴设备的手势跟踪方法和vr头戴设备
CN106772431A (zh) * 2017-01-23 2017-05-31 杭州蓝芯科技有限公司 一种结合tof技术和双目视觉的深度信息获取装置及其方法
CN106981080A (zh) * 2017-02-24 2017-07-25 东华大学 基于红外图像和雷达数据的夜间无人车场景深度估计方法
CN106997591A (zh) * 2017-03-21 2017-08-01 南京理工大学 一种rgb‑d图像变尺度超体素分割方法
CN107169418A (zh) * 2017-04-18 2017-09-15 海信集团有限公司 一种障碍物检测方法及装置
CN107167811A (zh) * 2017-04-26 2017-09-15 西安交通大学 基于单目视觉与激光雷达融合的道路可行驶区域检测方法
CN107563388A (zh) * 2017-09-18 2018-01-09 东北大学 一种基于深度信息预分割的卷积神经网络物体识别方法
CN107622244A (zh) * 2017-09-25 2018-01-23 华中科技大学 一种基于深度图的室内场景精细化解析方法
CN107610084A (zh) * 2017-09-30 2018-01-19 驭势科技(北京)有限公司 一种对深度图像和激光点云图进行信息融合的方法与设备
CN108229366A (zh) * 2017-12-28 2018-06-29 北京航空航天大学 基于雷达和图像数据融合的深度学习车载障碍物检测方法
CN108648233A (zh) * 2018-03-24 2018-10-12 北京工业大学 一种基于深度学习的目标识别与抓取定位方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
JEONGHYEON WANG 等: "Semantic Segmentation of Urban Scenes with a Location Prior Map Using Lidar Measurements", 《2017 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS)》 *
LONG CHEN 等: "Transforming a 3-D LiDAR Point Cloud Into a 2-D Dense Depth Map Through a Parameter Self-Adaptive Framework", 《IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS》 *
朱株: "基于三维数据面向无人车导航的非结构化场景理解", 《中国博士学位论文全文数据库 工程科技二辑》 *
李德毅 等: "《中国科协新一代信息技术系列丛书 人工智能导论》", 30 September 2018 *
谢国栋: "基于OpenCL的跨平台实时立体匹配", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
陈龙 等: "平行无人系统", 《无人系统技术》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110414418A (zh) * 2019-07-25 2019-11-05 电子科技大学 一种图像-激光雷达图像数据多尺度融合的道路检测方法
CN110414418B (zh) * 2019-07-25 2022-06-03 电子科技大学 一种图像-激光雷达图像数据多尺度融合的道路检测方法
CN110764106A (zh) * 2019-10-09 2020-02-07 中交一公局集团有限公司 一种采用激光雷达辅助盾构区间调坡调线测量施工方法
CN110596683A (zh) * 2019-10-25 2019-12-20 中山大学 一种多组激光雷达外参标定系统及其方法
CN110807782A (zh) * 2019-10-25 2020-02-18 中山大学 一种视觉机器人的地图表示系统及其构建方法
CN110807809A (zh) * 2019-10-25 2020-02-18 中山大学 基于点线特征和深度滤波器的轻量级单目视觉定位方法
CN110596683B (zh) * 2019-10-25 2021-03-26 中山大学 一种多组激光雷达外参标定系统及其方法
CN110807809B (zh) * 2019-10-25 2021-04-09 中山大学 基于点线特征和深度滤波器的轻量级单目视觉定位方法
CN112346073A (zh) * 2020-09-25 2021-02-09 中山大学 一种动态视觉传感器与激光雷达数据融合方法
CN112346073B (zh) * 2020-09-25 2023-07-11 中山大学 一种动态视觉传感器与激光雷达数据融合方法

Also Published As

Publication number Publication date
CN109917419B (zh) 2021-04-13

Similar Documents

Publication Publication Date Title
CN109917419A (zh) 一种基于激光雷达与图像的深度填充密集系统及方法
Zhou et al. Davanet: Stereo deblurring with view aggregation
CN109166077B (zh) 图像对齐方法、装置、可读存储介质及计算机设备
CN103236160B (zh) 基于视频图像处理技术的路网交通状态监测系统
Bao et al. Instereo2k: a large real dataset for stereo matching in indoor scenes
CN113160375B (zh) 一种基于多任务学习算法的三维重建及相机位姿估计方法
CN105913410A (zh) 一种基于机器视觉的远距离运动物体高度测量的装置与方法
Cui et al. Real-time dense mapping for self-driving vehicles using fisheye cameras
CN108932725B (zh) 基于卷积神经网络的场景流估计方法
US20220051425A1 (en) Scale-aware monocular localization and mapping
CN108986150B (zh) 一种基于非刚性稠密匹配的图像光流估计方法及系统
JP5852093B2 (ja) 映像処理装置、映像処理方法、プログラム
CN113888639B (zh) 基于事件相机与深度相机的视觉里程计定位方法及系统
CN102164269A (zh) 全景监控方法及装置
CN102547350A (zh) 一种基于梯度光流算法合成虚拟视点方法及立体显示装置
Islam et al. Stereo vision-based 3D positioning and tracking
CN109407115A (zh) 一种基于激光雷达的路面提取系统及其提取方法
Patel et al. Comparison of optical flow algorithms for speed determination of moving objects
Liu et al. A dense light field reconstruction algorithm for four-dimensional optical flow constraint equation
CN117434294A (zh) 一种用于无人机的多孔径纯视觉光流测速方法
CN114993306B (zh) 一种尺度自恢复的视觉惯性组合导航方法和装置
CN110717457A (zh) 用于车辆的行人位姿解算方法
CN111784798B (zh) 地图生成方法、装置、电子设备和存储介质
KR20160039447A (ko) 스테레오 카메라를 이용한 공간분석시스템
CN109089100B (zh) 一种双目立体视频的合成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant