CN111292367B - 一种基线可变的双目相机深度图生成方法 - Google Patents

一种基线可变的双目相机深度图生成方法 Download PDF

Info

Publication number
CN111292367B
CN111292367B CN202010099181.3A CN202010099181A CN111292367B CN 111292367 B CN111292367 B CN 111292367B CN 202010099181 A CN202010099181 A CN 202010099181A CN 111292367 B CN111292367 B CN 111292367B
Authority
CN
China
Prior art keywords
camera
main body
binocular
disparity
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010099181.3A
Other languages
English (en)
Other versions
CN111292367A (zh
Inventor
纪刚
杨丰拓
朱慧
蒋云飞
柴琦
安帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Lianhe Chuangzhi Technology Co ltd
Original Assignee
Qingdao Lianhe Chuangzhi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Lianhe Chuangzhi Technology Co ltd filed Critical Qingdao Lianhe Chuangzhi Technology Co ltd
Priority to CN202010099181.3A priority Critical patent/CN111292367B/zh
Publication of CN111292367A publication Critical patent/CN111292367A/zh
Application granted granted Critical
Publication of CN111292367B publication Critical patent/CN111292367B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基线可变的双目相机深度图生成方法,包括如下步骤:计算初始位置的视差图;直方图统计处理视差图,获得主体视差区间和主体视差值;二值化视差图,并获取主体轮廓和主体轮廓中心点;旋转双目云台使云台中心对准主体轮廓中心点对应的空间点;同步移动左右相机改变基线长度;生成基线调整后的深度图。本发明所公开的方法使用不同的基线生成深度图,提高了双目相机生成深度图的灵活性,实现了同一个双目相机连续性检测不同距离物体的目的;相比于同样效果的多线激光雷达,成本较低且具有真彩色。

Description

一种基线可变的双目相机深度图生成方法
技术领域
本发明涉及一种基线可变的双目相机深度图生成方法。
背景技术
深度图生成技术是利用传感器主动或被动的获取场景深度信息,并将深度信息表示为深度图像的技术。该技术可以于目标检测、目标识别、图像分割等技术结合,应用于三维重建、路径导航、无人驾驶汽车、智能交通、安防及机器人自动控制等领域。
基于双目相机的深度图生成技术具有成本低,易实现,适用场景广泛的优势。双目相机生成深度图的方法依像素的独立性可分为局部立体匹配和全局立体匹配两种。全局立体匹配依赖于沿单个扫描线或整个视差图的全局能量最小化功能,常用方法为置信传播,图像分割,动态编程等。
双目相机中两个相机光圈中心之间的水平距离称为双目相机的基线,是双目相机的重要参数。基线越长,双目能观测到的最大距离就越远,反之,双目只能观测很近的距离。
传统的双目云台一般采用定基线的方式,两摄像头之间的距离固定,对固定深度区域具有较好的效果但灵活性不足。
发明内容
为解决上述技术问题,本发明提供了一种基线可变的双目相机深度图生成方法,以达到使用不同的基线生成深度图,提高了双目相机生成深度图的灵活性的目的。
为达到上述目的,本发明的技术方案如下:
一种基线可变的双目相机深度图生成方法,包括如下步骤:
步骤一,计算初始位置的视差图;
步骤二,直方图统计处理视差图,获得主体视差区间和主体视差值;
步骤三,二值化视差图,并获取主体轮廓和主体轮廓中心点;
步骤四,旋转双目云台使云台中心对准主体轮廓中心点对应的空间点;
步骤五,同步移动左右相机改变基线长度;
步骤六,生成基线调整后的深度图。
上述方案中,所述步骤一具体如下:
利用双目云台上的的左相机和右相机同时拍摄正前方物体,生成左图和右图,并对生成的左图和右图使用全局立体匹配方法生成视差图。
上述方案中,所述步骤二具体如下:
在视差图上选定一个矩形区域,遍历矩形区域中每个像素的视差值,记录选定区域内的最大视差值dmax,以[5,dmax-5]为直方图统计范围,统计选定的矩形区域内的每个整数视差值出现的次数,选定出现次数最多的连续的n个视差值为主体视差区间
Figure BDA0002386352420000021
主体视差区间对应的空间区域为主体区域,主体视差区间的中间视差值为主体视差值d。
上述方案中,所述步骤三具体如下:
处理直方图统计区域的像素点,像素点的视差值在主体视差区间
Figure BDA0002386352420000022
范围内的像素点赋值为255,像素点的视差值落在主体视差区间外的像素点赋值为零,获得仅保留主体部分的二值图;
在二值图上扫描获取外轮廓集合Con={C1,C2,…,Ck},k为外轮廓个数,Ck为第k个外轮廓;遍历每个外轮廓区域,统计每个外轮廓内像素的个数,保留像素个数最多的外轮廓为主体视差区间的轮廓,即主体轮廓,对主体轮廓使用多边形逼近算法获得围绕主体轮廓的多边形顶点集合Point={Pt1,Pt2,…,Ptm},主体轮廓的中心坐标Pt为:
Figure BDA0002386352420000023
其中,m为多边形的顶点个数,j=1,2,…,m。
上述方案中,所述步骤四具体如下:
反投影多边形中心坐标Pt到左相机空间坐标系中得对应的空间坐标P1
Figure BDA0002386352420000024
其中,K为已知的左相机内参矩阵,Pt.x和Pt.y为分别为轮廓中心坐标Pt在图像坐标系上的横坐标和纵坐标,f为已知的左相机焦距,b为已知的左右相机之间的初始基线长度,d为主体视差值;
双目云台中心位置在左相机空间坐标系内的坐标为P2,计算P1相对于P2在X轴方向上的偏转角度θ及偏转方向,
Figure BDA0002386352420000031
其中,Px和Pz分别为反投影点P1在左相机空间坐标系中X轴坐标和Z轴坐标;
云台的偏转方向由偏转角度θ的正负号决定,当偏转角度θ为负时,双目云台向右转,反之,向左转;
旋转双目云台,使双目云台中心位置对准主体轮廓中心点对应的空间点。
上述方案中,所述步骤五具体如下:
当双目相机的左图中的主体部分为近景物体时,左右相机需同时向中央移动Δb距离;当双目相机的左图中的主体部分为远景物体时,左右相机需同时向两侧移动Δb距离;基线的变化量计算如下:
Figure BDA0002386352420000032
其中,T为自定义视差阈值,b为已知的左右相机之间的初始基线长度,d为主体视差值。
上述方案中,所述步骤六具体如下:
调整完毕双目云台后,使用左右相机重新拍摄前方图像,在左右图像上执行全局立体匹配方法生成视差图,使用更新后的基线值将视差图转化为深度图。
通过上述技术方案,本发明提供的一种基线可变的双目相机深度图生成方法具有如下有益效果:
1、针对远近不同的物体,使用不同的基线生成深度图,提高了双目相机生成深度图的灵活性。
2、实现了同一个双目相机连续性检测不同距离物体的目的。
3、相比于同样效果的多线激光雷达,成本较低且具有真彩色。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例所公开的一种基线可变的双目相机深度图生成方法流程示意图;
图2为[5,dmax-5]范围直方图简易示意图;
图3为直方图统计区域示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明提供了一种基线可变的双目相机深度图生成方法,如图1所示,该方法包括如下步骤:
步骤一,计算初始位置的视差图;
在双目平台上装配有两个具有相同焦距f的相机,两个相机之间的初始基线长度为b,两个相机可同时向外或向内移动同样长度的位移。两个相机同时拍摄正前方物体生成两幅图像,其中左相机拍摄的图像为左图Il,右相机拍摄的图像为右图Ir,对生成的左图Il和右图Ir使用全局立体匹配方法生成视差图。
步骤二,直方图统计处理视差图,获得主体视差区间和主体视差值;
在视差图上选定一个矩形区域ROI,遍历矩形区域ROI中每个像素的视差值,记录选定区域内的最大视差值dmax,以[5,dmax-5]为直方图统计范围,如图2所示,统计选定的矩形区域内的每个整数视差值出现的次数,选定出现次数最多的连续的n个视差值为主体视差区间
Figure BDA0002386352420000041
主体视差区间对应的空间区域为主体区域,主体视差区间的中间视差值为主体视差值d。
如图3所示,为直方图统计区域,视差图的尺寸为W×H,矩形框的左上角坐标为
Figure BDA0002386352420000042
右下角坐标为
Figure BDA0002386352420000043
步骤三,二值化视差图,并获取主体轮廓和主体轮廓中心点;
处理直方图统计区域的像素点,像素点的视差值在主体视差区间
Figure BDA0002386352420000044
范围内的像素点赋值为255,像素点的视差值落在主体视差区间外的像素点赋值为零,获得仅保留主体部分的二值图;
在二值图上扫描获取外轮廓集合Con={C1,C2,…,Ck},k为外轮廓个数,Ck为第k个外轮廓;遍历每个外轮廓区域,统计每个外轮廓内像素的个数,保留像素个数最多的外轮廓为主体视差区间的轮廓,即主体轮廓,对主体轮廓使用多边形逼近算法获得围绕主体轮廓的多边形顶点集合Point={Pt1,Pt2,…,Ptm},主体轮廓的中心坐标Pt为:
Figure BDA0002386352420000051
其中,m为多边形的顶点个数,j=1,2,…,m。
步骤四,旋转双目云台使云台中心对准主体轮廓中心点对应的空间点;
反投影多边形中心坐标Pt到左相机空间坐标系中得对应的空间坐标P1
Figure BDA0002386352420000052
其中,K为已知的左相机内参矩阵,Pt.x和Pt.y为分别为轮廓中心坐标Pt在图像坐标系上的横坐标和纵坐标,f为已知的左相机焦距,b为已知的左右相机之间的初始基线长度,d为主体视差值;
双目云台中心位置在左相机空间坐标系内的坐标为P2,计算P1相对于P2在X轴方向上的偏转角度θ及偏转方向,
Figure BDA0002386352420000053
其中,P1.x和Pz分别为反投影点P1在左相机空间坐标系中X轴坐标和Z轴坐标;
云台的偏转方向由偏转角度θ的正负号决定,当偏转角度θ为负时,双目云台向右转,反之,向左转;
旋转双目云台,使双目云台中心位置对准主体轮廓中心点对应的空间点。
步骤五,同步移动左右相机改变基线长度;
当双目相机的左图中的主体部分为近景物体时,左右相机需同时向中央移动Δb距离;当双目相机的左图中的主体部分为远景物体时,左右相机需同时向两侧移动Δb距离;基线的变化量计算如下:
Figure BDA0002386352420000054
其中,T为自定义视差阈值,b为已知的左右相机之间的初始基线长度,d为主体视差值。
步骤六,生成基线调整后的深度图。
调整完毕双目云台后,使用左右相机重新拍摄前方图像,在左右图像上执行全局立体匹配方法生成视差图,使用更新后的基线值将视差图转化为深度图。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (5)

1.一种基线可变的双目相机深度图生成方法,其特征在于,包括如下步骤:
步骤一,计算初始位置的视差图;
步骤二,直方图统计处理视差图,获得主体视差区间和主体视差值;
步骤三,二值化视差图,并获取主体轮廓和主体轮廓中心点;
步骤四,旋转双目云台使云台中心对准主体轮廓中心点对应的空间点;
步骤五,同步移动左右相机改变基线长度;
步骤六,生成基线调整后的深度图;
所述步骤二具体如下:
在视差图上选定一个矩形区域,遍历矩形区域中每个像素的视差值,记录选定区域内的最大视差值dmax,以|5,dmax-5|为直方图统计范围,统计选定的矩形区域内的每个整数视差值出现的次数,选定出现次数最多的连续的n个视差值为主体视差区间
Figure FDA0004103205700000011
主体视差区间对应的空间区域为主体区域,主体视差区间的中间视差值为主体视差值d;
所述步骤三具体如下:
处理直方图统计区域的像素点,像素点的视差值在主体视差区间
Figure FDA0004103205700000012
范围内的像素点赋值为255,像素点的视差值落在主体视差区间外的像素点赋值为零,获得仅保留主体部分的二值图;
在二值图上扫描获取外轮廓集合Con={C1,C2,…,Ck},k为外轮廓个数,Ck为第k个外轮廓;遍历每个外轮廓区域,统计每个外轮廓内像素的个数,保留像素个数最多的外轮廓为主体视差区间的轮廓,即主体轮廓,对主体轮廓使用多边形逼近算法获得围绕主体轮廓的多边形顶点集合Point={Pt1,Pt2,…,Ptm},主体轮廓的中心坐标Pt为:
Figure FDA0004103205700000013
其中,m为多边形的顶点个数,j=1,2,…,m。
2.根据权利要求1所述的一种基线可变的双目相机深度图生成方法,其特征在于,所述步骤一具体如下:
利用双目云台上的的左相机和右相机同时拍摄正前方物体,生成左图和右图,并对生成的左图和右图使用全局立体匹配方法生成视差图。
3.根据权利要求1所述的一种基线可变的双目相机深度图生成方法,其特征在于,所述步骤四具体如下:
反投影多边形中心坐标Pt到左相机空间坐标系中得对应的空间坐标P1
Figure FDA0004103205700000021
其中,K为已知的左相机内参矩阵,Pt.x和Pt·y为分别为轮廓中心坐标Pt在图像坐标系上的横坐标和纵坐标,f为已知的左相机焦距,b为已知的左右相机之间的初始基线长度,d为主体视差值;
双目云台中心位置在左相机空间坐标系内的坐标为P2,计算P1相对于P2在X轴方向上的偏转角度θ及偏转方向,
Figure FDA0004103205700000022
其中,Px和Pz分别为反投影点P1在左相机空间坐标系中X轴坐标和Z轴坐标;
云台的偏转方向由偏转角度θ的正负号决定,当偏转角度θ为负时,双目云台向右转,反之,向左转;
旋转双目云台,使双目云台中心位置对准主体轮廓中心点对应的空间点。
4.根据权利要求3所述的一种基线可变的双目相机深度图生成方法,其特征在于,所述步骤五具体如下:
当双目相机的左图中的主体部分为近景物体时,左右相机需同时向中央移动Δb距离;当双目相机的左图中的主体部分为远景物体时,左右相机需同时向两侧移动Δb距离;基线的变化量计算如下:
Figure FDA0004103205700000023
其中,T为自定义视差阈值,b为已知的左右相机之间的初始基线长度,d为主体视差值。
5.根据权利要求4所述的一种基线可变的双目相机深度图生成方法,其特征在于,所述步骤六具体如下:
调整完毕双目云台后,使用左右相机重新拍摄前方图像,在左右图像上执行全局立体匹配方法生成视差图,使用更新后的基线值将视差图转化为深度图。
CN202010099181.3A 2020-02-18 2020-02-18 一种基线可变的双目相机深度图生成方法 Active CN111292367B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010099181.3A CN111292367B (zh) 2020-02-18 2020-02-18 一种基线可变的双目相机深度图生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010099181.3A CN111292367B (zh) 2020-02-18 2020-02-18 一种基线可变的双目相机深度图生成方法

Publications (2)

Publication Number Publication Date
CN111292367A CN111292367A (zh) 2020-06-16
CN111292367B true CN111292367B (zh) 2023-04-07

Family

ID=71026897

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010099181.3A Active CN111292367B (zh) 2020-02-18 2020-02-18 一种基线可变的双目相机深度图生成方法

Country Status (1)

Country Link
CN (1) CN111292367B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113155083B (zh) * 2021-04-25 2023-06-23 深圳慧源创新科技有限公司 双目摄像头测距方法、装置、测距设备和可读存储介质

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013105002A (ja) * 2011-11-14 2013-05-30 Bi2−Vision株式会社 3d映像撮影制御システム、3d映像撮影制御方法、およびプログラム
CN103776419A (zh) * 2014-01-24 2014-05-07 华南理工大学 一种提高测量范围的双目视觉测距方法
CN105869167A (zh) * 2016-03-30 2016-08-17 天津大学 基于主被动融合的高分辨率深度图获取方法
WO2016176840A1 (zh) * 2015-05-06 2016-11-10 北京大学深圳研究生院 深度图/视差图的后处理方法和装置
KR101690645B1 (ko) * 2015-09-21 2016-12-29 경북대학교 산학협력단 다단계 시차영상 분할이 적용된 시차탐색범위 추정 방법 및 이를 이용한 스테레오 영상 정합장치
CN106355570A (zh) * 2016-10-21 2017-01-25 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法
CN106910253A (zh) * 2017-02-22 2017-06-30 天津大学 基于不同相机间距的立体图像克隆方法
CN206658265U (zh) * 2017-03-29 2017-11-21 武汉嫦娥医学抗衰机器人股份有限公司 自适应变基线双目立体相机系统
CN108181319A (zh) * 2017-12-12 2018-06-19 陕西三星洁净工程有限公司 一种基于立体视觉的积尘检测装置及方法
CN109615652A (zh) * 2018-10-23 2019-04-12 西安交通大学 一种深度信息获取方法及装置
CN109840922A (zh) * 2018-01-31 2019-06-04 中国科学院计算技术研究所 基于双目光场相机的深度获取方法和系统
CN110148168A (zh) * 2019-05-23 2019-08-20 南京大学 一种基于大小双基线的三目相机深度图像处理方法
CN110233963A (zh) * 2019-05-06 2019-09-13 深圳市华芯技研科技有限公司 一种双目相机间距调节方法及装置

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013105002A (ja) * 2011-11-14 2013-05-30 Bi2−Vision株式会社 3d映像撮影制御システム、3d映像撮影制御方法、およびプログラム
CN103776419A (zh) * 2014-01-24 2014-05-07 华南理工大学 一种提高测量范围的双目视觉测距方法
WO2016176840A1 (zh) * 2015-05-06 2016-11-10 北京大学深圳研究生院 深度图/视差图的后处理方法和装置
KR101690645B1 (ko) * 2015-09-21 2016-12-29 경북대학교 산학협력단 다단계 시차영상 분할이 적용된 시차탐색범위 추정 방법 및 이를 이용한 스테레오 영상 정합장치
CN105869167A (zh) * 2016-03-30 2016-08-17 天津大学 基于主被动融合的高分辨率深度图获取方法
CN106355570A (zh) * 2016-10-21 2017-01-25 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法
CN106910253A (zh) * 2017-02-22 2017-06-30 天津大学 基于不同相机间距的立体图像克隆方法
CN206658265U (zh) * 2017-03-29 2017-11-21 武汉嫦娥医学抗衰机器人股份有限公司 自适应变基线双目立体相机系统
CN108181319A (zh) * 2017-12-12 2018-06-19 陕西三星洁净工程有限公司 一种基于立体视觉的积尘检测装置及方法
CN109840922A (zh) * 2018-01-31 2019-06-04 中国科学院计算技术研究所 基于双目光场相机的深度获取方法和系统
CN109615652A (zh) * 2018-10-23 2019-04-12 西安交通大学 一种深度信息获取方法及装置
CN110233963A (zh) * 2019-05-06 2019-09-13 深圳市华芯技研科技有限公司 一种双目相机间距调节方法及装置
CN110148168A (zh) * 2019-05-23 2019-08-20 南京大学 一种基于大小双基线的三目相机深度图像处理方法

Also Published As

Publication number Publication date
CN111292367A (zh) 2020-06-16

Similar Documents

Publication Publication Date Title
KR102206108B1 (ko) 체적형 객체 촬영을 위한 다중 rgb-d 카메라 기반의 포인트 클라우드 정합 방법
Yamazawa et al. Obstacle detection with omnidirectional image sensor hyperomni vision
CN110349221A (zh) 一种三维激光雷达与双目可见光传感器的融合标定方法
CN111144213B (zh) 一种对象检测方法和相关设备
Koide et al. General, single-shot, target-less, and automatic lidar-camera extrinsic calibration toolbox
US20050243323A1 (en) Method and apparatus for automatic registration and visualization of occluded targets using ladar data
CN109559355A (zh) 一种基于相机组的无公共视场的多相机全局标定装置及方法
CN110853151A (zh) 一种基于视频的三维立体点集恢复方法
CN112734863A (zh) 一种基于自动定位的交叉式双目相机标定方法
CN114463521B (zh) 一种面向空地影像数据融合的建筑目标点云快速生成方法
CN110738731A (zh) 一种用于双目视觉的3d重建方法和系统
CN108230242A (zh) 一种从全景激光点云到视频流的转换方法
CN111292367B (zh) 一种基线可变的双目相机深度图生成方法
CN111860270B (zh) 一种基于鱼眼相机的障碍物检测方法及装置
Sui et al. Extrinsic calibration of camera and 3D laser sensor system
Zhou et al. INF: Implicit Neural Fusion for LiDAR and Camera
CN111724432B (zh) 物体三维检测方法和装置
Higuchi et al. 3D measurement of large structure by multiple cameras and a ring laser
CN113792593A (zh) 一种基于深度融合的水下近距离目标识别跟踪方法及系统
CN117406234A (zh) 基于单线激光雷达与视觉融合的目标测距和追踪的方法
CN108090930A (zh) 基于双目立体相机的障碍物视觉检测系统及方法
CN116630423A (zh) 一种基于orb特征的微小型机器人多目标双目定位方法及系统
Hongsheng et al. Three-dimensional reconstruction of complex spatial surface based on line structured light
Geiger Monocular road mosaicing for urban environments
CN112800828B (zh) 地面栅格占有概率目标轨迹方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant