CN107886477B - 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法 - Google Patents

无人驾驶中立体视觉与低线束激光雷达的融合矫正方法 Download PDF

Info

Publication number
CN107886477B
CN107886477B CN201710851841.7A CN201710851841A CN107886477B CN 107886477 B CN107886477 B CN 107886477B CN 201710851841 A CN201710851841 A CN 201710851841A CN 107886477 B CN107886477 B CN 107886477B
Authority
CN
China
Prior art keywords
laser radar
disparity map
parallax
error
binocular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710851841.7A
Other languages
English (en)
Other versions
CN107886477A (zh
Inventor
李明
于欢
肖衍佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Huanyu Zhixing Technology Co ltd
Original Assignee
Wuhan Huanyu Zhixing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Huanyu Zhixing Technology Co ltd filed Critical Wuhan Huanyu Zhixing Technology Co ltd
Priority to CN201710851841.7A priority Critical patent/CN107886477B/zh
Publication of CN107886477A publication Critical patent/CN107886477A/zh
Application granted granted Critical
Publication of CN107886477B publication Critical patent/CN107886477B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及无人驾驶中立体视觉与低线束激光雷达的融合矫正方法,所述方法为将双目摄像头以及激光雷达在空域和时序上进行配准,双目摄像头对准目标采集图像,同时激光雷达朝向目标发射线束并采集数据,通过将激光雷达的数据转换到视差图中,用于矫正双目视觉的视差误差,根据视差误差的分布来求得误差补偿函数,后续只需要将双目视觉采集到的视差图代入补偿函数,就能得到修正后的视差误差极小的视差图,通过对双目视觉的视差进行修正,提高了视觉精度,再将语义分割后的视差图以及补偿后的全像素视差图均作为输入量输入到深度学习网络,最终得到经过深度学习网络训练后的视差图,这样就能进一步地提高无人驾驶中中的双目视觉精度。

Description

无人驾驶中立体视觉与低线束激光雷达的融合矫正方法
技术领域
本发明涉及无人驾驶技术领域,尤其是涉及无人驾驶中立体视觉与低线束激光雷达的融合矫正方法。
背景技术
低线束激光雷达是实现无人驾驶环境感知的重要传感器,适用于复杂交通环境感知,激光雷达的工作原理是向目标发射激光束,激光束接触到目标后被反射并被系统接收,它的优点是价格相对高线束激光雷达较为便宜,所得到的三维点云精度较高;它的缺点是三维点云过于稀疏,无法直接用于周围环境感知处理。双目立体视觉作为计算机视觉的重要分支,它被广泛应用于汽车无人驾驶、无人机自主导航、登月自主陆地车等技术当中,它是一种基于视差原理通过不同位置获取被测物体的两幅图像并计算图像对应点间的位置偏差,来获取三维信息的方法,其基础理论已经相对成熟,以双目立体视觉为基础可得到车辆周围环境的信息,但是由于视觉先天受光照等环境因素影响较大,导致了其所得三维模型精度偏低,并且其价格过高,得不到普遍的使用认可。根据双目立体视觉采用的三角测量原理:
Figure GDA0002463320740000011
其中Z表示单目摄像头距离前方物体的距离,B表示基线,f表示焦距,d表示视差,基线B和焦距f的精确值可以通过标定来确定,那么Z的主要误差就来源于视差d,视差d主要由立体视觉左右图像素匹配算法得到,但是由于现实环境光照条件等因素变化复杂,无法保证每一个像素都能精确无误匹配,并且在说测量物体较远即真实Z较大的时候,视差d的微小偏差将带来真实测量值Z的巨大误差。所以目前,在无人驾驶领域中,急需一种融合矫正方法,减少视差d的偏差,降低Z的误差,从而提高双目立体视觉所得的环境信息的精度,实现低成本高精度信息获取。
发明内容
本发明所要解决的技术问题是提供一种无人驾驶中能够提高视觉精度,并且降低成本的立体视觉与低线束激光雷达的融合矫正方法。
本发明所采用的技术方案是,无人驾驶中立体视觉与低线束激光雷达的融合矫正方法,所述方法包括以下步骤:
(1)、将双目摄像头以及激光雷达在空域和时序上进行配准,双目摄像头对准目标采集图像,同时激光雷达朝向目标发射线束并采集数据;
(2)、将双目摄像头采集的图像通过深度学习转化成坐标系下的视差图,将激光雷达采集到的数据反映射到配准后的双目摄像头的视差图中,得到激光雷达的视差图;
(3)、将双目摄像头得到的每帧图像中的某个像素点的视差设定为dc,将激光雷达发射的某一线束的视差设定为dl,那么多帧图像的视差的误差可以表示为:J(d)=(dc-dl)2
(4)、根据J(d)的分布来设计视差d的补偿算法,得到补偿函数的相关系数,根据补偿函数的相关系数得到补偿后的双目立体视觉的全像素视差图;
(5)、将双目摄像头采集的图像进行语义分割,得到语义分割后的视差图,语义分割后的视差图以及补偿后的全像素视差图均作为输入量输入到深度学习网络里,通过深度学习网络得到最终的视差图。
本发明的有益效果是:激光雷达所测的数据为真实的距离数据,通过将激光雷达的数据转换到视差图中,用于矫正双目视觉的视差误差,根据视差误差的分布来求得误差补偿函数,后续只需要将双目视觉采集到的视差图代入补偿函数,就能得到修正后的视差误差极小的视差图,通过对双目视觉的视差进行修正,提高了视觉精度,然后再将语义分割后的视差图以及补偿后的全像素视差图均作为输入量输入到深度学习网络,最终得到经过深度学习网络训练后的视差图,这样就能进一步地提高无人驾驶中中的双目视觉精度,本申请中利用了激光雷达来矫正双目视觉的精度,从而降低了成本。
作为优先,步骤(4)中,补偿算法的补偿函数为:
Figure GDA0002463320740000021
其中Ki表示补偿函数的相关系数,系统总误差的误差函数可以表示为:
Figure GDA0002463320740000022
根据随机梯度下降方法来求出使J(K1,K2,,,KJ)最小的相关系数Ki,最终就能得到满足误差函数J(K1,K2,,,KJ)最小的补偿函数。
作为优先,步骤(5)中,通过语义分割将双目摄像头采集到的图像划分为若干区域,设定单个区域为(m),则单个区域的边界误差函数为:
Figure GDA0002463320740000031
设定约束条件为:
Figure GDA0002463320740000035
其中
Figure GDA0002463320740000036
为单个区域(m)的偏差阈值,dmi为第m个区域中的第i个点的视差,d′m为单目测距得到的边界约束,根据边界误差函数以及约束条件,可以得到深度学习网络的损失函数为:
Figure GDA0002463320740000032
其中
Figure GDA0002463320740000033
dmj为单个区域内最邻近立体视觉像素视差dmi的激光雷达数据点,u为相关系数,
Figure GDA0002463320740000034
为在语义分割中双目立体视觉点云偏离激光雷达对应点云的误差的偏差加权,h(dmi)为训练深度学习网络时的网络输出,ymi为训练真值。
附图说明
图1为本发明无人驾驶中立体视觉与低线束激光雷达的融合矫正方法的原理图;
图2为本发明实施方式中关于视差的原理图;
如图所示:1、双目立体视差图像;2、低线束激光雷达;3、雷达视差图像;4、融合校正后的视差图像;
具体实施方式
以下参照附图并结合具体实施方式来进一步描述发明,以令本领域技术人员参照说明书文字能够据以实施,本发明保护范围并不受限于该具体实施方式。
本发明涉及无人驾驶中立体视觉与低线束激光雷达的融合矫正方法,所述方法包括以下步骤:
(1)、将双目摄像头以及激光雷达在空域和时序上进行配准,双目摄像头对准目标采集图像,同时激光雷达朝向目标发射线束并采集数据;所述空域配准是指将双目摄像头所处位置与激光雷达所处位置对应匹配,所述时序配准是指双目摄像头采集图像与激光雷达发射线束同时进行;
(2)、将双目摄像头采集到的图像通过深度学习转化成坐标系下的视差图,将激光雷达采集到的数据反映射到配准后的双目摄像头的视差图中,得到激光雷达的视差图;
(3)、将双目摄像头得到的某帧图像中的某个像素点的视差设定为dc,将激光雷达发射的某一线束的视差设定为dl,那么多帧图像的视差的误差可以表示为:J(d)=(dc-dl)2
(4)、根据J(d)的分布来设计视差d的补偿算法,得到补偿函数的相关系数,根据补偿函数的相关系数得到补偿后的双目立体视觉的全像素视差图;该步骤中,得到补偿函数的相关系数其实就是得出了补偿函数的数学模型,这样在下一次进行双目视觉误差补偿时,只需要将双目摄像头采集的图像输入该数学模型中,就能得到补偿后的双目立体视觉的全像素视差图;
(5)、将双目摄像头采集的图像进行语义分割,得到语义分割后的视差图,语义分割后的视差图以及补偿后的全像素视差图均作为输入量输入到深度学习网络里,通过深度学习网络得到最终的视差图。
上述描述的视差可以这么理解:如图2所示,点坐标A看做现实中的一个点,以Ol为原点的坐标系是双目摄像头中左边单目成像的坐标系,以Or为原点的坐标系是双目摄像头中右边单目成像的坐标系,可以看到,al为点A在Ol坐标系中的成像点,ar为点A在Or坐标系中的成像点,al与ar是处于同一水平线上的,设定ul为al到原点Ol的距离,ur为ar到原点Or的距离,那么视差就是ul与ur的差值,即视差=ul-ur
作为优先,步骤(4)中,补偿算法的补偿函数为:
Figure GDA0002463320740000041
其中Ki表示补偿函数的相关系数,系统总误差的误差函数可以表示为:
Figure GDA0002463320740000042
根据随机梯度下降方法来求出使J(K1,K2,,,KJ)最小的相关系数Ki,最终就能得到满足误差函数J(K1,K2,,,KJ)最小的补偿函数。
作为优先,步骤(5)中,通过语义分割将双目摄像头采集到的图像划分为若干区域,设定单个区域为(m),则单个区域的边界误差函数为:
Figure GDA0002463320740000051
设定约束条件为:
Figure GDA0002463320740000055
其中
Figure GDA0002463320740000056
为单个区域(m)的偏差阈值,dmi为第m个区域中的第i个点的视差,d′m为单目测距得到的边界约束,根据边界误差函数以及约束条件,可以得到深度学习网络的损失函数为:
Figure GDA0002463320740000052
其中
Figure GDA0002463320740000053
dmj为单个区域内最邻近立体视觉像素视差dmi的激光雷达数据点,u为相关系数,
Figure GDA0002463320740000054
为在语义分割中双目立体视觉点云偏离激光雷达对应点云的误差的偏差加权,h(dmi)为训练深度学习网络时的网络输出,ymi为训练真值。

Claims (2)

1.无人驾驶中立体视觉与低线束激光雷达的融合矫正方法,其特征在于:所述方法包括以下步骤:
(1)、将双目摄像头以及激光雷达在空域和时序上进行配准,双目摄像头对准目标采集图像,同时激光雷达朝向目标发射线束并采集数据;
(2)、将双目摄像头采集的图像通过深度学习转化成坐标系下的视差图,将激光雷达采集到的数据反映射到配准后的双目摄像头的视差图中,得到激光雷达的视差图;
(3)、将双目摄像头得到的每帧图像中的某个像素点的视差设定为dc,将激光雷达发射的某一线束的视差设定为dl,那么多帧图像的视差的误差可以表示为:J(d)=(dc-dl)2
(4)、根据J(d)的分布来设计视差d的补偿算法,得到补偿函数的相关系数,根据补偿函数的相关系数得到补偿后的双目立体视觉的全像素视差图;
(5)、将双目摄像头采集的图像进行语义分割,得到语义分割后的视差图,语义分割后的视差图以及补偿后的全像素视差图均作为输入量输入到深度学习网络里,通过深度学习网络得到最终的视差图;
步骤(4)中,补偿算法的补偿函数为:
Figure FDA0002463320730000011
其中Ki表示补偿函数的相关系数,系统总误差的误差函数可以表示为:
Figure FDA0002463320730000012
2.根据权利要求1所述的无人驾驶中立体视觉与低线束激光雷达的融合矫正方法,其特征在于:步骤(5)中,通过语义分割将双目摄像头采集到的图像划分为若干区域,用q对单个区域进行计数,则单个区域的边界误差函数为:
Figure FDA0002463320730000013
设定约束条件为:
Figure FDA0002463320730000014
其中
Figure FDA0002463320730000015
为第q个区域的偏差阈值,dqi为第q个区域中的第i个点的视差,d’q为单目测距得到的边界约束,根据边界误差函数以及约束条件,可以得到深度学习网络的损失函数为:
Figure FDA0002463320730000016
其中
Figure FDA0002463320730000017
dqj为单个区域内最邻近立体视觉像素视差dqi的激光雷达数据点,u为相关系数,
Figure FDA0002463320730000018
为在语义分割中双目立体视觉点云偏离激光雷达对应点云的误差的偏差加权,h(dqi)为训练深度学习网络时的网络输出,yqi为训练真值。
CN201710851841.7A 2017-09-20 2017-09-20 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法 Active CN107886477B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710851841.7A CN107886477B (zh) 2017-09-20 2017-09-20 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710851841.7A CN107886477B (zh) 2017-09-20 2017-09-20 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法

Publications (2)

Publication Number Publication Date
CN107886477A CN107886477A (zh) 2018-04-06
CN107886477B true CN107886477B (zh) 2020-07-14

Family

ID=61780738

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710851841.7A Active CN107886477B (zh) 2017-09-20 2017-09-20 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法

Country Status (1)

Country Link
CN (1) CN107886477B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108694731A (zh) * 2018-05-11 2018-10-23 武汉环宇智行科技有限公司 基于低线束激光雷达和双目相机的融合定位方法及设备
CN108663681B (zh) * 2018-05-16 2021-01-19 华南理工大学 基于双目摄像头与二维激光雷达的移动机器人导航方法
CN110533663B (zh) * 2018-05-25 2022-03-04 杭州海康威视数字技术股份有限公司 一种图像视差确定方法、装置、设备及系统
CN108681753B (zh) * 2018-05-29 2021-03-30 武汉环宇智行科技有限公司 一种基于语义分割及神经网络的图像立体匹配方法及系统
CN109003276A (zh) * 2018-06-06 2018-12-14 上海国际汽车城(集团)有限公司 基于双目立体视觉与低线束激光雷达的融合矫正方法
CN109035309B (zh) * 2018-07-20 2022-09-27 清华大学苏州汽车研究院(吴江) 基于立体视觉的双目摄像头与激光雷达间的位姿配准方法
CN109003286A (zh) * 2018-07-26 2018-12-14 清华大学苏州汽车研究院(吴江) 基于深度学习和激光雷达的道路分割方法
CN109360228A (zh) * 2018-10-18 2019-02-19 清华大学苏州汽车研究院(吴江) 单目摄像头与毫米波雷达间的位姿配准方法
CN109239720A (zh) * 2018-10-18 2019-01-18 清华大学苏州汽车研究院(吴江) 一种智能激光雷达装置、系统及其数据处理方法
CN109634279B (zh) * 2018-12-17 2022-08-12 瞿卫新 基于激光雷达与单目视觉的物体定位方法
CN109919893B (zh) * 2019-03-20 2021-04-23 湖北亿咖通科技有限公司 点云修正方法、装置和可读存储介质
CN110009675B (zh) * 2019-04-03 2021-05-18 北京市商汤科技开发有限公司 生成视差图的方法、装置、介质及设备
CN111656404B (zh) * 2019-05-30 2024-03-01 深圳市大疆创新科技有限公司 图像处理方法、系统及可移动平台
CN111028285A (zh) * 2019-12-03 2020-04-17 浙江大学 基于双目视觉和激光雷达融合的深度估计方法
CN111267841B (zh) * 2020-01-22 2021-04-13 深圳国信泰富科技有限公司 一种机器人距离采集系统
CN111413983A (zh) * 2020-04-08 2020-07-14 江苏盛海智能科技有限公司 一种无人驾驶车辆的环境感知方法及控制端
CN113538350B (zh) * 2021-06-29 2022-10-04 河北深保投资发展有限公司 一种基于多摄像头识别基坑深度的方法
CN114529884A (zh) * 2022-02-23 2022-05-24 广东汇天航空航天科技有限公司 基于双目相机的障碍物探测处理方法、装置、设备及系统
CN115187964A (zh) * 2022-09-06 2022-10-14 中诚华隆计算机技术有限公司 基于多传感器数据融合的自动驾驶决策方法及SoC芯片
CN116129525B (zh) * 2023-01-24 2023-11-14 中国人民解放军陆军防化学院 一种呼吸防护训练评估系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103237228A (zh) * 2013-04-28 2013-08-07 清华大学 双目立体视频的时空一致性分割方法
US8553942B2 (en) * 2011-10-21 2013-10-08 Navteq B.V. Reimaging based on depthmap information
CN104504725A (zh) * 2015-01-16 2015-04-08 河南师范大学 一种快速自动语义图像分割模型方法
CN106204522A (zh) * 2015-05-28 2016-12-07 奥多比公司 对单个图像的联合深度估计和语义标注

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101719286B (zh) * 2009-12-09 2012-05-23 北京大学 融合单视点场景分析的多视点三维场景重建方法及其系统
US9875557B2 (en) * 2012-11-05 2018-01-23 The Chancellor Masters And Scholars Of The University Of Oxford Extrinsic calibration of imaging sensing devices and 2D LIDARs mounted on transportable apparatus
CN105844692B (zh) * 2016-04-27 2019-03-01 北京博瑞空间科技发展有限公司 基于双目立体视觉的三维重建装置、方法、系统及无人机
CN106709568B (zh) * 2016-12-16 2019-03-22 北京工业大学 基于深层卷积网络的rgb-d图像的物体检测和语义分割方法
CN106934765A (zh) * 2017-03-14 2017-07-07 长沙全度影像科技有限公司 基于深度卷积神经网络与深度信息的全景图像融合方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8553942B2 (en) * 2011-10-21 2013-10-08 Navteq B.V. Reimaging based on depthmap information
CN103237228A (zh) * 2013-04-28 2013-08-07 清华大学 双目立体视频的时空一致性分割方法
CN104504725A (zh) * 2015-01-16 2015-04-08 河南师范大学 一种快速自动语义图像分割模型方法
CN106204522A (zh) * 2015-05-28 2016-12-07 奥多比公司 对单个图像的联合深度估计和语义标注

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Learning Hierarchical Semantic Segmentations of LIDAR Data;Dohan 等;《2015 International Conference on 3D Vision》;20151022;273-281 *
基于多传感器信息融合的动态目标检测与识别;闫光;《中国优秀硕士学位论文全文数据库信息科技辑》;20150715;I138-879 *

Also Published As

Publication number Publication date
CN107886477A (zh) 2018-04-06

Similar Documents

Publication Publication Date Title
CN107886477B (zh) 无人驾驶中立体视觉与低线束激光雷达的融合矫正方法
CN111260597B (zh) 一种多波段立体相机的视差图像融合方法
CN109270534B (zh) 一种智能车激光传感器与相机在线标定方法
CN107093195B (zh) 一种激光测距与双目相机结合的标记点定位方法
US20220215569A1 (en) Acceleration method of depth estimation for multiband stereo cameras
CN110288659B (zh) 一种基于双目视觉的深度成像及信息获取方法
CN111028285A (zh) 基于双目视觉和激光雷达融合的深度估计方法
CN105160702A (zh) 基于LiDAR点云辅助的立体影像密集匹配方法及系统
CN110889899B (zh) 一种数字地表模型的生成方法及装置
CN105043350A (zh) 一种双目视觉测量方法
CN106225676B (zh) 三维测量方法、装置及系统
CN106019264A (zh) 一种基于双目视觉的无人机危险车距识别系统及方法
CN110889873A (zh) 一种目标定位方法、装置、电子设备及存储介质
CN102519434A (zh) 一种用于立体视觉三维恢复数据精度测量的试验验证方法
CN110220500B (zh) 一种基于双目相机的无人驾驶用测距方法
CN109444916A (zh) 一种无人驾驶可行驶区域确定装置及方法
CN105844692A (zh) 基于双目立体视觉的三维重建装置、方法、系统及无人机
CN105547244A (zh) 一种结合立体像对的激光高度计高程控制点生成方法
CN113643345A (zh) 一种基于双光融合的多目道路智能识别方法
CN108594255B (zh) 一种激光测距辅助光学影像联合平差方法及系统
CN111798507A (zh) 一种输电线安全距离测量方法、计算机设备和存储介质
CN109084959B (zh) 一种基于双目测距算法的光轴平行度校正方法
CN113327296A (zh) 基于深度加权的激光雷达与相机在线联合标定方法
CN108489468A (zh) 三线阵影像外方位元素平滑方程自适应光束法平差方法
CN109003276A (zh) 基于双目立体视觉与低线束激光雷达的融合矫正方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant