CN107886477A - 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法 - Google Patents
无人驾驶中立体视觉与低线束激光雷达的融合矫正方法 Download PDFInfo
- Publication number
- CN107886477A CN107886477A CN201710851841.7A CN201710851841A CN107886477A CN 107886477 A CN107886477 A CN 107886477A CN 201710851841 A CN201710851841 A CN 201710851841A CN 107886477 A CN107886477 A CN 107886477A
- Authority
- CN
- China
- Prior art keywords
- laser radar
- disparity map
- parallax
- error
- binocular camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004438 eyesight Effects 0.000 title claims abstract description 38
- 239000000729 antidote Substances 0.000 title claims abstract description 11
- 230000007935 neutral effect Effects 0.000 title claims abstract description 10
- 230000006870 function Effects 0.000 claims abstract description 33
- 238000013135 deep learning Methods 0.000 claims abstract description 17
- 230000011218 segmentation Effects 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims abstract description 6
- 238000012549 training Methods 0.000 claims abstract description 5
- 230000004304 visual acuity Effects 0.000 abstract description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 206010010356 Congenital anomaly Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明涉及无人驾驶中立体视觉与低线束激光雷达的融合矫正方法,所述方法为将双目摄像头以及激光雷达在空域和时序上进行配准,双目摄像头对准目标采集图像,同时激光雷达朝向目标发射线束并采集数据,通过将激光雷达的数据转换到视差图中,用于矫正双目视觉的视差误差,根据视差误差的分布来求得误差补偿函数,后续只需要将双目视觉采集到的视差图代入补偿函数,就能得到修正后的视差误差极小的视差图,通过对双目视觉的视差进行修正,提高了视觉精度,再将语义分割后的视差图以及补偿后的全像素视差图均作为输入量输入到深度学习网络,最终得到经过深度学习网络训练后的视差图,这样就能进一步地提高无人驾驶中中的双目视觉精度。
Description
技术领域
本发明涉及无人驾驶技术领域,尤其是涉及无人驾驶中立体视觉与低线束激光雷达的融合矫正方法。
背景技术
低线束激光雷达是实现无人驾驶环境感知的重要传感器,适用于复杂交通环境感知,激光雷达的工作原理是向目标发射激光束,激光束接触到目标后被反射并被系统接收,它的优点是价格相对高线束激光雷达较为便宜,所得到的三维点云精度较高;它的缺点是三维点云过于稀疏,无法直接用于周围环境感知处理。双目立体视觉作为计算机视觉的重要分支,它被广泛应用于汽车无人驾驶、无人机自主导航、登月自主陆地车等技术当中,它是一种基于视差原理通过不同位置获取被测物体的两幅图像并计算图像对应点间的位置偏差,来获取三维信息的方法,其基础理论已经相对成熟,以双目立体视觉为基础可得到车辆周围环境的信息,但是由于视觉先天受光照等环境因素影响较大,导致了其所得三维模型精度偏低,并且其价格过高,得不到普遍的使用认可。根据双目立体视觉采用的三角测量原理:其中Z表示单目摄像头距离前方物体的距离,B表示基线,f表示焦距,d表示视差,基线B和焦距f的精确值可以通过标定来确定,那么Z的主要误差就来源于视差d,视差d主要由立体视觉左右图像素匹配算法得到,但是由于现实环境光照条件等因素变化复杂,无法保证每一个像素都能精确无误匹配,并且在说测量物体较远即真实Z较大的时候,视差d的微小偏差将带来真实测量值Z的巨大误差。所以目前,在无人驾驶领域中,急需一种融合矫正方法,减少视差d的偏差,降低Z的误差,从而提高双目立体视觉所得的环境信息的精度,实现低成本高精度信息获取。
发明内容
本发明所要解决的技术问题是提供一种无人驾驶中能够提高视觉精度,并且降低成本的立体视觉与低线束激光雷达的融合矫正方法。
本发明所采用的技术方案是,无人驾驶中立体视觉与低线束激光雷达的融合矫正方法,所述方法包括以下步骤:
(1)、将双目摄像头以及激光雷达在空域和时序上进行配准,双目摄像头对准目标采集图像,同时激光雷达朝向目标发射线束并采集数据;
(2)、将双目摄像头采集的图像通过深度学习转化成坐标系下的视差图,将激光雷达采集到的数据反映射到配准后的双目摄像头的视差图中,得到激光雷达的视差图;
(3)、将双目摄像头得到的每帧图像中的某个像素点的视差设定为dc,将激光雷达发射的某一线束的视差设定为dl,那么多帧图像的视差的误差可以表示为:J(d)=(dc-dl)2;
(4)、根据J(d)的分布来设计视差d的补偿算法,得到补偿函数的相关系数,根据补偿函数的相关系数得到补偿后的双目立体视觉的全像素视差图;
(5)、将双目摄像头采集的图像进行语义分割,得到语义分割后的视差图,语义分割后的视差图以及补偿后的全像素视差图均作为输入量输入到深度学习网络里,通过深度学习网络得到最终的视差图。
本发明的有益效果是:激光雷达所测的数据为真实的距离数据,通过将激光雷达的数据转换到视差图中,用于矫正双目视觉的视差误差,根据视差误差的分布来求得误差补偿函数,后续只需要将双目视觉采集到的视差图代入补偿函数,就能得到修正后的视差误差极小的视差图,通过对双目视觉的视差进行修正,提高了视觉精度,然后再将语义分割后的视差图以及补偿后的全像素视差图均作为输入量输入到深度学习网络,最终得到经过深度学习网络训练后的视差图,这样就能进一步地提高无人驾驶中中的双目视觉精度,本申请中利用了激光雷达来矫正双目视觉的精度,从而降低了成本。
作为优先,步骤(4)中,补偿算法的补偿函数为:其中Ki表示补偿函数的相关系数,系统总误差的误差函数可以表示为:根据随机梯度下降方法来求出使J(K1,K2,,,KJ)最小的相关系数Ki,最终就能得到满足误差函数J(K1,K2,,,KJ)最小的补偿函数。
作为优先,步骤(5)中,通过语义分割将双目摄像头采集到的图像划分为若干区域,设定单个区域为(m),则单个区域的边界误差函数为:设定约束条件为:其中为单个区域(m)的偏差阈值,dmi为第m个区域中的第i个点的视差,d′m为单目测距得到的边界约束,根据边界误差函数以及约束条件,可以得到深度学习网络的损失函数为:其中dmj为单个区域内最邻近立体视觉像素视差dmi的激光雷达数据点,u为相关系数,为在语义分割中双目立体视觉点云偏离激光雷达对应点云的误差的偏差加权,h(dmi)为训练深度学习网络时的网络输出,ymi为训练真值。
附图说明
图1为本发明无人驾驶中立体视觉与低线束激光雷达的融合矫正方法的原理图;
图2为本发明实施方式中关于视差的原理图;
如图所示:1、双目立体视差图像;2、低线束激光雷达;3、雷达视差图像;4、融合校正后的视差图像;
具体实施方式
以下参照附图并结合具体实施方式来进一步描述发明,以令本领域技术人员参照说明书文字能够据以实施,本发明保护范围并不受限于该具体实施方式。
本发明涉及无人驾驶中立体视觉与低线束激光雷达的融合矫正方法,所述方法包括以下步骤:
(1)、将双目摄像头以及激光雷达在空域和时序上进行配准,双目摄像头对准目标采集图像,同时激光雷达朝向目标发射线束并采集数据;所述空域配准是指将双目摄像头所处位置与激光雷达所处位置对应匹配,所述时序配准是指双目摄像头采集图像与激光雷达发射线束同时进行;
(2)、将双目摄像头采集到的图像通过深度学习转化成坐标系下的视差图,将激光雷达采集到的数据反映射到配准后的双目摄像头的视差图中,得到激光雷达的视差图;
(3)、将双目摄像头得到的某帧图像中的某个像素点的视差设定为dc,将激光雷达发射的某一线束的视差设定为dl,那么多帧图像的视差的误差可以表示为:J(d)=(dc-dl)2;
(4)、根据J(d)的分布来设计视差d的补偿算法,得到补偿函数的相关系数,根据补偿函数的相关系数得到补偿后的双目立体视觉的全像素视差图;该步骤中,得到补偿函数的相关系数其实就是得出了补偿函数的数学模型,这样在下一次进行双目视觉误差补偿时,只需要将双目摄像头采集的图像输入该数学模型中,就能得到补偿后的双目立体视觉的全像素视差图;
(5)、将双目摄像头采集的图像进行语义分割,得到语义分割后的视差图,语义分割后的视差图以及补偿后的全像素视差图均作为输入量输入到深度学习网络里,通过深度学习网络得到最终的视差图。
上述描述的视差可以这么理解:如图2所示,点坐标A看做现实中的一个点,以Ol为原点的坐标系是双目摄像头中左边单目成像的坐标系,以Or为原点的坐标系是双目摄像头中右边单目成像的坐标系,可以看到,al为点A在Ol坐标系中的成像点,ar为点A在Or坐标系中的成像点,al与ar是处于同一水平线上的,设定ul为al到原点Ol的距离,ur为ar到原点Or的距离,那么视差就是ul与ur的差值,即视差=ul-ur。
作为优先,步骤(4)中,补偿算法的补偿函数为:其中Ki表示补偿函数的相关系数,系统总误差的误差函数可以表示为:根据随机梯度下降方法来求出使J(K1,K2,,,KJ)最小的相关系数Ki,最终就能得到满足误差函数J(K1,K2,,,KJ)最小的补偿函数。
作为优先,步骤(5)中,通过语义分割将双目摄像头采集到的图像划分为若干区域,设定单个区域为(m),则单个区域的边界误差函数为:设定约束条件为:其中为单个区域(m)的偏差阈值,dmi为第m个区域中的第i个点的视差,d′m为单目测距得到的边界约束,根据边界误差函数以及约束条件,可以得到深度学习网络的损失函数为:其中dmj为单个区域内最邻近立体视觉像素视差dmi的激光雷达数据点,u为相关系数,为在语义分割中双目立体视觉点云偏离激光雷达对应点云的误差的偏差加权,h(dmi)为训练深度学习网络时的网络输出,ymi为训练真值。
Claims (3)
1.无人驾驶中立体视觉与低线束激光雷达的融合矫正方法,其特征在于:所述方法包括以下步骤:
(1)、将双目摄像头以及激光雷达在空域和时序上进行配准,双目摄像头对准目标采集图像,同时激光雷达朝向目标发射线束并采集数据;
(2)、将双目摄像头采集的图像通过深度学习转化成坐标系下的视差图,将激光雷达采集到的数据反映射到配准后的双目摄像头的视差图中,得到激光雷达的视差图;
(3)、将双目摄像头得到的每帧图像中的某个像素点的视差设定为dc,将激光雷达发射的某一线束的视差设定为dl,那么多帧图像的视差的误差可以表示为:J(d)=(dc-dl)2;
(4)、根据J(d)的分布来设计视差d的补偿算法,得到补偿函数的相关系数,根据补偿函数的相关系数得到补偿后的双目立体视觉的全像素视差图;
(5)、将双目摄像头采集的图像进行语义分割,得到语义分割后的视差图,语义分割后的视差图以及补偿后的全像素视差图均作为输入量输入到深度学习网络里,通过深度学习网络得到最终的视差图。
2.根据权利要求1所述的无人驾驶中立体视觉与低线束激光雷达的融合矫正方法,其特征在于:步骤(4)中,补偿算法的补偿函数为:其中Ki表示补偿函数的相关系数,系统总误差的误差函数可以表示为:
3.根据权利要求1所述的无人驾驶中立体视觉与低线束激光雷达的融合矫正方法,其特征在于:步骤(5)中,通过语义分割将双目摄像头采集到的图像划分为若干区域,设定单个区域为(m),则单个区域的边界误差函数为:设定约束条件为:其中为单个区域(m)的偏差阈值,dmi为第m个区域中的第i个点的视差,d′m为单目测距得到的边界约束,根据边界误差函数以及约束条件,可以得到深度学习网络的损失函数为:其中dmj为单个区域内最邻近立体视觉像素视差dmi的激光雷达数据点,u为相关系数,为在语义分割中双目立体视觉点云偏离激光雷达对应点云的误差的偏差加权,h(dmi)为训练深度学习网络时的网络输出,ymi为训练真值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710851841.7A CN107886477B (zh) | 2017-09-20 | 2017-09-20 | 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710851841.7A CN107886477B (zh) | 2017-09-20 | 2017-09-20 | 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107886477A true CN107886477A (zh) | 2018-04-06 |
CN107886477B CN107886477B (zh) | 2020-07-14 |
Family
ID=61780738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710851841.7A Active CN107886477B (zh) | 2017-09-20 | 2017-09-20 | 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107886477B (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108663681A (zh) * | 2018-05-16 | 2018-10-16 | 华南理工大学 | 基于双目摄像头与二维激光雷达的移动机器人导航方法 |
CN108681753A (zh) * | 2018-05-29 | 2018-10-19 | 武汉环宇智行科技有限公司 | 一种基于语义分割及神经网络的图像立体匹配方法及系统 |
CN108694731A (zh) * | 2018-05-11 | 2018-10-23 | 武汉环宇智行科技有限公司 | 基于低线束激光雷达和双目相机的融合定位方法及设备 |
CN109003286A (zh) * | 2018-07-26 | 2018-12-14 | 清华大学苏州汽车研究院(吴江) | 基于深度学习和激光雷达的道路分割方法 |
CN109003276A (zh) * | 2018-06-06 | 2018-12-14 | 上海国际汽车城(集团)有限公司 | 基于双目立体视觉与低线束激光雷达的融合矫正方法 |
CN109035309A (zh) * | 2018-07-20 | 2018-12-18 | 清华大学苏州汽车研究院(吴江) | 基于立体视觉的双目摄像头与激光雷达间的位姿配准方法 |
CN109239720A (zh) * | 2018-10-18 | 2019-01-18 | 清华大学苏州汽车研究院(吴江) | 一种智能激光雷达装置、系统及其数据处理方法 |
CN109360228A (zh) * | 2018-10-18 | 2019-02-19 | 清华大学苏州汽车研究院(吴江) | 单目摄像头与毫米波雷达间的位姿配准方法 |
CN109634279A (zh) * | 2018-12-17 | 2019-04-16 | 武汉科技大学 | 基于激光雷达与单目视觉的物体定位方法 |
CN109919893A (zh) * | 2019-03-20 | 2019-06-21 | 湖北亿咖通科技有限公司 | 点云修正方法、装置和可读存储介质 |
CN110009675A (zh) * | 2019-04-03 | 2019-07-12 | 北京市商汤科技开发有限公司 | 生成视差图的方法、装置、介质及设备 |
CN110533663A (zh) * | 2018-05-25 | 2019-12-03 | 杭州海康威视数字技术股份有限公司 | 一种图像视差确定方法、装置、设备及系统 |
CN111028285A (zh) * | 2019-12-03 | 2020-04-17 | 浙江大学 | 基于双目视觉和激光雷达融合的深度估计方法 |
CN111267841A (zh) * | 2020-01-22 | 2020-06-12 | 深圳国信泰富科技有限公司 | 一种机器人距离采集系统 |
CN111413983A (zh) * | 2020-04-08 | 2020-07-14 | 江苏盛海智能科技有限公司 | 一种无人驾驶车辆的环境感知方法及控制端 |
WO2020237553A1 (zh) * | 2019-05-30 | 2020-12-03 | 深圳市大疆创新科技有限公司 | 图像处理方法、系统及可移动平台 |
CN113538350A (zh) * | 2021-06-29 | 2021-10-22 | 河北深保投资发展有限公司 | 一种基于多摄像头识别基坑深度的方法 |
CN114529884A (zh) * | 2022-02-23 | 2022-05-24 | 广东汇天航空航天科技有限公司 | 基于双目相机的障碍物探测处理方法、装置、设备及系统 |
CN115187964A (zh) * | 2022-09-06 | 2022-10-14 | 中诚华隆计算机技术有限公司 | 基于多传感器数据融合的自动驾驶决策方法及SoC芯片 |
CN116129525A (zh) * | 2023-01-24 | 2023-05-16 | 中国人民解放军陆军防化学院 | 一种呼吸防护训练评估系统及方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101719286A (zh) * | 2009-12-09 | 2010-06-02 | 北京大学 | 融合单视点场景分析的多视点三维场景重建方法及其系统 |
CN103237228A (zh) * | 2013-04-28 | 2013-08-07 | 清华大学 | 双目立体视频的时空一致性分割方法 |
US8553942B2 (en) * | 2011-10-21 | 2013-10-08 | Navteq B.V. | Reimaging based on depthmap information |
CN104504725A (zh) * | 2015-01-16 | 2015-04-08 | 河南师范大学 | 一种快速自动语义图像分割模型方法 |
US20150317781A1 (en) * | 2012-11-05 | 2015-11-05 | The Chancellor Masters And Scholars Of The University Of Oxford | Extrinsic calibration of imaging sensing devices and 2d lidars mounted on transportable apparatus |
CN105844692A (zh) * | 2016-04-27 | 2016-08-10 | 北京博瑞空间科技发展有限公司 | 基于双目立体视觉的三维重建装置、方法、系统及无人机 |
CN106204522A (zh) * | 2015-05-28 | 2016-12-07 | 奥多比公司 | 对单个图像的联合深度估计和语义标注 |
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
CN106934765A (zh) * | 2017-03-14 | 2017-07-07 | 长沙全度影像科技有限公司 | 基于深度卷积神经网络与深度信息的全景图像融合方法 |
-
2017
- 2017-09-20 CN CN201710851841.7A patent/CN107886477B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101719286A (zh) * | 2009-12-09 | 2010-06-02 | 北京大学 | 融合单视点场景分析的多视点三维场景重建方法及其系统 |
US8553942B2 (en) * | 2011-10-21 | 2013-10-08 | Navteq B.V. | Reimaging based on depthmap information |
US20150317781A1 (en) * | 2012-11-05 | 2015-11-05 | The Chancellor Masters And Scholars Of The University Of Oxford | Extrinsic calibration of imaging sensing devices and 2d lidars mounted on transportable apparatus |
CN103237228A (zh) * | 2013-04-28 | 2013-08-07 | 清华大学 | 双目立体视频的时空一致性分割方法 |
CN104504725A (zh) * | 2015-01-16 | 2015-04-08 | 河南师范大学 | 一种快速自动语义图像分割模型方法 |
CN106204522A (zh) * | 2015-05-28 | 2016-12-07 | 奥多比公司 | 对单个图像的联合深度估计和语义标注 |
CN105844692A (zh) * | 2016-04-27 | 2016-08-10 | 北京博瑞空间科技发展有限公司 | 基于双目立体视觉的三维重建装置、方法、系统及无人机 |
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
CN106934765A (zh) * | 2017-03-14 | 2017-07-07 | 长沙全度影像科技有限公司 | 基于深度卷积神经网络与深度信息的全景图像融合方法 |
Non-Patent Citations (2)
Title |
---|
DOHAN 等: "Learning Hierarchical Semantic Segmentations of LIDAR Data", 《2015 INTERNATIONAL CONFERENCE ON 3D VISION》 * |
闫光: "基于多传感器信息融合的动态目标检测与识别", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108694731A (zh) * | 2018-05-11 | 2018-10-23 | 武汉环宇智行科技有限公司 | 基于低线束激光雷达和双目相机的融合定位方法及设备 |
CN108663681A (zh) * | 2018-05-16 | 2018-10-16 | 华南理工大学 | 基于双目摄像头与二维激光雷达的移动机器人导航方法 |
CN108663681B (zh) * | 2018-05-16 | 2021-01-19 | 华南理工大学 | 基于双目摄像头与二维激光雷达的移动机器人导航方法 |
CN110533663A (zh) * | 2018-05-25 | 2019-12-03 | 杭州海康威视数字技术股份有限公司 | 一种图像视差确定方法、装置、设备及系统 |
CN110533663B (zh) * | 2018-05-25 | 2022-03-04 | 杭州海康威视数字技术股份有限公司 | 一种图像视差确定方法、装置、设备及系统 |
CN108681753A (zh) * | 2018-05-29 | 2018-10-19 | 武汉环宇智行科技有限公司 | 一种基于语义分割及神经网络的图像立体匹配方法及系统 |
CN108681753B (zh) * | 2018-05-29 | 2021-03-30 | 武汉环宇智行科技有限公司 | 一种基于语义分割及神经网络的图像立体匹配方法及系统 |
CN109003276A (zh) * | 2018-06-06 | 2018-12-14 | 上海国际汽车城(集团)有限公司 | 基于双目立体视觉与低线束激光雷达的融合矫正方法 |
CN109035309A (zh) * | 2018-07-20 | 2018-12-18 | 清华大学苏州汽车研究院(吴江) | 基于立体视觉的双目摄像头与激光雷达间的位姿配准方法 |
CN109003286A (zh) * | 2018-07-26 | 2018-12-14 | 清华大学苏州汽车研究院(吴江) | 基于深度学习和激光雷达的道路分割方法 |
CN109360228A (zh) * | 2018-10-18 | 2019-02-19 | 清华大学苏州汽车研究院(吴江) | 单目摄像头与毫米波雷达间的位姿配准方法 |
CN109239720A (zh) * | 2018-10-18 | 2019-01-18 | 清华大学苏州汽车研究院(吴江) | 一种智能激光雷达装置、系统及其数据处理方法 |
CN109634279A (zh) * | 2018-12-17 | 2019-04-16 | 武汉科技大学 | 基于激光雷达与单目视觉的物体定位方法 |
CN109634279B (zh) * | 2018-12-17 | 2022-08-12 | 瞿卫新 | 基于激光雷达与单目视觉的物体定位方法 |
CN109919893B (zh) * | 2019-03-20 | 2021-04-23 | 湖北亿咖通科技有限公司 | 点云修正方法、装置和可读存储介质 |
CN109919893A (zh) * | 2019-03-20 | 2019-06-21 | 湖北亿咖通科技有限公司 | 点云修正方法、装置和可读存储介质 |
CN110009675A (zh) * | 2019-04-03 | 2019-07-12 | 北京市商汤科技开发有限公司 | 生成视差图的方法、装置、介质及设备 |
WO2020237553A1 (zh) * | 2019-05-30 | 2020-12-03 | 深圳市大疆创新科技有限公司 | 图像处理方法、系统及可移动平台 |
CN111028285A (zh) * | 2019-12-03 | 2020-04-17 | 浙江大学 | 基于双目视觉和激光雷达融合的深度估计方法 |
CN111267841A (zh) * | 2020-01-22 | 2020-06-12 | 深圳国信泰富科技有限公司 | 一种机器人距离采集系统 |
CN111267841B (zh) * | 2020-01-22 | 2021-04-13 | 深圳国信泰富科技有限公司 | 一种机器人距离采集系统 |
CN111413983A (zh) * | 2020-04-08 | 2020-07-14 | 江苏盛海智能科技有限公司 | 一种无人驾驶车辆的环境感知方法及控制端 |
CN113538350A (zh) * | 2021-06-29 | 2021-10-22 | 河北深保投资发展有限公司 | 一种基于多摄像头识别基坑深度的方法 |
CN113538350B (zh) * | 2021-06-29 | 2022-10-04 | 河北深保投资发展有限公司 | 一种基于多摄像头识别基坑深度的方法 |
CN114529884A (zh) * | 2022-02-23 | 2022-05-24 | 广东汇天航空航天科技有限公司 | 基于双目相机的障碍物探测处理方法、装置、设备及系统 |
CN115187964A (zh) * | 2022-09-06 | 2022-10-14 | 中诚华隆计算机技术有限公司 | 基于多传感器数据融合的自动驾驶决策方法及SoC芯片 |
CN116129525A (zh) * | 2023-01-24 | 2023-05-16 | 中国人民解放军陆军防化学院 | 一种呼吸防护训练评估系统及方法 |
CN116129525B (zh) * | 2023-01-24 | 2023-11-14 | 中国人民解放军陆军防化学院 | 一种呼吸防护训练评估系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107886477B (zh) | 2020-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107886477A (zh) | 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法 | |
CN112132972B (zh) | 一种激光与图像数据融合的三维重建方法及系统 | |
CN112419494B (zh) | 用于自动驾驶的障碍物检测、标记方法、设备及存储介质 | |
CN101887589B (zh) | 一种基于立体视觉的实拍低纹理图像重建方法 | |
KR102249769B1 (ko) | 2차원 영상의 픽셀별 3차원 좌표값 추정 방법 및 이를 이용한 자율주행정보 추정 방법 | |
CN108764187A (zh) | 提取车道线的方法、装置、设备、存储介质以及采集实体 | |
CN110176032B (zh) | 一种三维重建方法及装置 | |
CN103604417B (zh) | 物方信息约束的多视影像双向匹配策略 | |
CN105043350A (zh) | 一种双目视觉测量方法 | |
CN111028285A (zh) | 基于双目视觉和激光雷达融合的深度估计方法 | |
CN105160702A (zh) | 基于LiDAR点云辅助的立体影像密集匹配方法及系统 | |
CN110889899B (zh) | 一种数字地表模型的生成方法及装置 | |
CN104539928A (zh) | 一种光栅立体印刷图像合成方法 | |
CN112802078A (zh) | 深度图生成方法和装置 | |
CN116255992A (zh) | 一种同时定位与建图的方法和装置 | |
CN104807449A (zh) | 一种基于立体摄影测量的输电线路交叉跨越测量系统 | |
CN105654547A (zh) | 三维重建方法 | |
CN105844692A (zh) | 基于双目立体视觉的三维重建装置、方法、系统及无人机 | |
CN110458952B (zh) | 一种基于三目视觉的三维重建方法和装置 | |
CN105701787B (zh) | 基于置信度的深度图融合方法 | |
CN107492107A (zh) | 基于平面与空间信息融合的物体识别与重建方法 | |
CN113989758A (zh) | 一种用于自动驾驶的锚引导3d目标检测方法及装置 | |
CN110675436A (zh) | 基于3d特征点的激光雷达与立体视觉配准方法 | |
CN111798507A (zh) | 一种输电线安全距离测量方法、计算机设备和存储介质 | |
CN103544732A (zh) | 一种用于月球车的三维立体重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |