CN112489186B - 一种自动驾驶双目数据感知方法 - Google Patents
一种自动驾驶双目数据感知方法 Download PDFInfo
- Publication number
- CN112489186B CN112489186B CN202011172439.4A CN202011172439A CN112489186B CN 112489186 B CN112489186 B CN 112489186B CN 202011172439 A CN202011172439 A CN 202011172439A CN 112489186 B CN112489186 B CN 112489186B
- Authority
- CN
- China
- Prior art keywords
- bbox
- map
- image
- obstacle
- center point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Computer Graphics (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种自动驾驶双目数据感知方法,包括:S1、通过双目摄像头采集画面;S2、将图片通过CNN编码器进行编码操作,将两幅图像编码后的feature map连接到一起;S3、对编码后的图像进行解码操作,模型的解码器只用来获得左右两张图片同一障碍的bbox对,每一对bbox包括了同一个障碍物分别在左右图像的bbox;S4、利用成对的bbox只对bbox内的像素做特征提取和匹配以获得像素的视差。本发明所述的一种自动驾驶双目数据感知方法,根据视差信息进行3D重建,既可以通过滤出冗余的深度计算提高计算速度,又可以通过视差进行3D重建保证的点云的精度。
Description
技术领域
本发明属于自动驾驶领域,尤其是涉及一种自动驾驶双目数据感知方法。
背景技术
自动驾驶感知系统是自动驾驶技术重要的组成部分。自动驾驶的的感知系统输出结果需要在车体坐标系下三维空间,目前感知系统获得三维空间的数据主要来自Lidar,radar和camera。Lidar设备的价格昂贵,市面上缺乏符合车规级的设备。Radar只能获得非常稀疏的点集,这么点集无法描述障碍物的大小,形状以及语义。Camera可获得稠密的三维点云数据,camera获得三维点云的方法主要包括结构光、TOF(time of light fly)、双目,基于运动估计的单目3D重建和基于深度学习的3D重建。结构光摄像头通过解码发射器发出的模板来重建3D,但是随着距离的增大和户外强光的干扰,结构光摄像头就无法获得准确的深度,对比自动驾驶需要观察到80米以外,结构光摄像头无法适用。TOF虽然感知深度比结构光摄像头要远一些,但是也只能测量在几米左右,也无法适应于自动驾驶场景。基于运动估计的单目3D重建,需要相机不断的运动和假设场景没有运行,这与自动驾驶的场景相矛盾,无法适用到自动驾驶,目前应用到自动驾驶领域的camera三维重建只要是双目和基于深度学习预测的三维重建,双目算法的立体匹配需要里面图像中的所有像素点,导致双目算法极其的耗费计算资源,市场上的双目摄像头利用FPGA加速双目匹配算法,但是市场上的双目摄像头为了做成一个整套设备,无法将baseline做的太大,这将导致这类双目设备的测量距离有限。
发明内容
有鉴于此,本发明旨在提出一种自动驾驶双目数据感知方法,深度学习有目的的预测障碍物的视差信息,根据视差信息进行3D重建,既可以通过滤出冗余的深度计算提高计算速度,有可以通过视差进行3D重建保证的点云的精度。
为达到上述目的,本发明的技术方案是这样实现的:
一种自动驾驶双目数据感知方法,包括:
S1、通过双目摄像头采集画面;
S2、将图片通过CNN编码器进行编码操作,将两幅图像编码后的feature map连接到一起;
S3、对编码后的图像进行解码操作,模型的解码器只用来获得左右两张图片同一障碍的bbox对,每一对bbox包括了同一个障碍物分别在左右图像的bbox;
S4、利用成对的bbox只对bbox内的像素做特征提取和匹配以获得像素的视差。
进一步的,在步骤S2中,将两张图片分别输入到模型,将两种图片分别输出到CNN编码器中,其中左右两张图片使用的是相同的编码器,然后将两幅图像编码后的featuremap连接到一起。
进一步的,在步骤S2中,先预处理输出图,将两张图片先连接到一起,生成一个6xHxW的张量作为输入,对该张量进行编码,可以获得经过feature map连接后的特征图。
进一步的,步骤S3中,对编码后的图像进行解码操作获得:
heat map:表示相同障碍物bbox对堆叠在一起形成较大的merge bbox中心点热图;
reg map:表示原始图像merge bbox与下采样后转换成整数后偏移距离;
wh map:表示左右bbox四条边与热图中心的距离;
包括L_L,L_R,L_T,L_B,R_L,R_R,R_T和R_B,分别表示左侧图片障碍物的bbox左边边框到中心点的距离,右边框到中心点的距离,上边框到中心点的距离,下边边框到中心点的距离和右侧图片障碍物的bbox的左边框到中心点的距离,右边框到中心点的距离,上边框到中心点的距离以及下边框到中心点的距离;
其中heat_map分支的loss为:
其中α和β是loss函数的超参数;
图像输入到模型,经过推理后,输出的feature map的尺寸通常是小与输出图像的尺寸,这个过程类似于对图像进行了下采样,这样在生成ground Truth的时候,需要根据原始图像大小下采样P倍,在下采样过程,障碍物中心点cxy的x和y坐标除以下采样倍数P,获得了障碍物在下采样后的位置:
令:
S=(L_L,L_R,L_T,L_B,R_L,R_R,R_T,R_B)
带有上尖号的表示模型预测的结果,令:
其中wh map分支的loss为:
最终的loss函数:
Loss=γk·Lk+γreg·Lreg+γs·Ls
在推理过程,从模型中获得成对的障碍物bbox,左右侧图像的bbox从freture map中计算:
因为输入的图像是经过了极线几何的,可使得左右的bbox的top和bottom取相同的值,令:
左右的bbox修正为:
其中down_rate模型推理过程的下采样倍数;
依据bbox分别从左右两张图像中截取图像,为了提供立体匹配可以找到视差效果,对左侧的图像整体向左平移K个像素;分别得到左右有障碍物的像素区域ROIleft和rOIright;
然后分别对每个对ROI左立体匹配,获得了相应的视差图disp_origin,由于立体匹配算法只对部分图像处理,大大的降低了算法的复杂度;
由于立体匹配得到的视差图disp_origin是在ROI图像上的,需将该视差图恢复到原始输入图像下;
disp_fix=disp_origin-k-leftbbox+rightbbox
由视差图disp_fix和相机内参和左右相机的base line可计算出视差图各个像素在相机坐标系下的三维坐标。
相对于现有技术,本发明所述的一种自动驾驶双目数据感知方法具有以下优势:
本发明所述的一种自动驾驶双目数据感知方法,根据视差信息进行3D重建,既可以通过滤出冗余的深度计算提高计算速度,又可以通过视差进行3D重建保证的点云的精度。
附图说明
构成本发明的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例所述的双目摄像头(左)采集的图像示意图;
图2为本发明实施例所述的双目摄像头(右)采集的图像示意图;
图3为本发明实施例所述的双目摄像头采集的图像连接后的可视效果图示意图;
图4为本发明实施例所述的模型的解码流程示意图;
图5为本发明实施例所述的可视效果图的标注示意图;
图6为本发明实施例所述的可视化bbox示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”等的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以通过具体情况理解上述术语在本发明中的具体含义。
下面将参考附图并结合实施例来详细说明本发明。
如图1至图5所示,通过双目摄像头采集:通过左右摄像头采集画面,经过矫正和极线几何的图片如图1和图2所示。
模型的输入可以使用下述的两种方法:
方法1:将两张图片分别输入到模型,将两种图片分别输出到CNN编码器中,其中左右两张图片使用的是相同的编码器,然后将两幅图像编码后的feature map连接到一起。
方法2:先预处理输出图,将两张图片先连接到一起,生成一个6xHxW(可视化效果图如图(3))的张量作为输入,对该张量进行编码,可以获得经过feature map连接后的特征图。
通过上述方法实现了对两幅图像的编码操作,接下来需要进行解码操作,模型的解码器只用来获得左右两张图片同一障碍的bbox对。每一对bbox包括了同一个障碍物分别在左右图像的bbox。然后利用成对的bbox只对bbox内的像素做特征提取和匹配以获得像素的视差,其中bbox为外包围盒。
模型的解码部分(如图4所示)输出包括:
1、表示相同障碍物bbox(外包围盒)对堆叠在一起形成较大的merge bbox(合并的外包围盒)中心点的热图heat map,其中每个类别输出一张热图,在cnn网络中表示一个feature map的一个通道;
2、表示原始图像merge bbox与下采样后转换成整数后偏移距离reg map;
3、表示左右bbox四条边与热图中心的距离wh map。
图5中的L_L,L_R,L_T,L_B,R_L,R_R,R_T和R_B分别表示左侧图片障碍物的bbox左边边框到中心点(即为图5中的center point)的距离,右边框到中心点的距离,上边框到中心点的距离,下边边框到中心点的距离和右侧图片障碍物的bbox的左边框到中心点的距离,右边框到中心点的距离,上边框到中心点的距离以及下边框到中心点的距离。
其中heat_map分支的loss为:
其中α和β是loss函数的超参数。
图像输入到模型,经过推理后,输出的feature map的尺寸通常是小与输出图像的尺寸,这个过程类似于对图像进行了下采样,这样在生成ground Truth的时候,需要根据原始图像大小下采样P倍。在下采样过程,障碍物中心点cxy的x和y坐标除以下采样倍数P,获得了障碍物在下采样后的位置:
令:
S=(L_L,L_R,L_T,L_B,R_L,R_R,R_T,R_B)
带有上尖号的表示模型预测的结果,令:
其中wh map分支的loss为:
最终的loss函数:
Loss=γk·Lk+γreg·Lreg+γs·Ls
在推理过程,从模型中获得成对的障碍物bbox,左右侧图像的bbox从freture map中计算:
可视化bbox如图6所示
因为输入的图像是经过了极线几何的,可使得左右的bbox的top和bottom取相同的值,令:
左右的bbox修正为:
其中down_rate模型推理过程的下采样倍数。
依据bbox分别从左右两张图像中截取图像,为了提供立体匹配可以找到视差效果,对左侧的图像整体向左平移K个像素。分别得到左右有障碍物的像素区域ROIleft和ROIright。
然后分别对每个对ROI左立体匹配,获得了相应的视差图disp_origin,由于立体匹配算法只对部分图像处理,大大的降低了算法的复杂度。
由于立体匹配得到的视差图disp_origin是在ROI图像上的,需将该视差图恢复到原始输入图像下。
disp_fix=disp_origin-k-leftbbox+rightbbox
由视差图disp_fix和相机内参和左右相机的base line可计算出视差图各个像素在相机坐标系下的三维坐标。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (1)
1.一种自动驾驶双目数据感知方法,其特征在于,包括:
S1、通过双目摄像头采集画面;
S2、将图片通过CNN编码器进行编码操作,将两幅图像编码后的feature map连接到一起;
S3、对编码后的图像进行解码操作,模型的解码器只用来获得左右两张图片同一障碍的bbox对,每一对bbox包括了同一个障碍物分别在左右图像的bbox;
S4、利用成对的bbox只对bbox内的像素做特征提取和匹配以获得像素的视差;
在步骤S2中,将两张图片分别输入到模型,将两种图片分别输出到CNN编码器中,其中左右两张图片使用的是相同的编码器,然后将两幅图像编码后的feature map连接到一起;
在步骤S2中,先预处理输出图,将两张图片先连接到一起,生成一个6xHxW的张量作为输入,对该张量进行编码,可以获得经过feature map连接后的特征图;
步骤S3中,对编码后的图像进行解码操作获得:
heat map:表示相同障碍物bbox对堆叠在一起形成较大的merge bbox中心点热图;
reg map:表示原始图像merge bbox与下采样后转换成整数后偏移距离;
wh map:表示左右bbox四条边与热图中心的距离;
包括L_L,L_R,L_T,L_B,R_L,R_R,R_T和R_B,分别表示左侧图片障碍物的bbox左边边框到中心点的距离,右边框到中心点的距离,上边框到中心点的距离,下边边框到中心点的距离和右侧图片障碍物的bbox的左边框到中心点的距离,右边框到中心点的距离,上边框到中心点的距离以及下边框到中心点的距离;
其中heat_map分支的loss为:
其中α和β是loss函数的超参数;
图像输入到模型,经过推理后,输出的feature map的尺寸通常是小于输出图像的尺寸,这个过程类似于对图像进行了下采样,这样在生成ground Truth的时候,需要根据原始图像大小下采样P倍,在下采样过程,障碍物中心点cxy的x和y坐标除以下采样倍数P,获得了障碍物在下采样后的位置:
令:
S=(L_L,L_R,L_T,L_B,R_L,R_R,R_T,R_B)
带有上尖号的表示模型预测的结果,令:
其中wh map分支的loss为:
最终的loss函数:
Loss=γk·Lk+γreg·Lreg+γs·Ls
在推理过程,从模型中获得成对的障碍物bbox,左右侧图像的bbox从freture map中计算:
因为输入的图像是经过了极线几何的,可使得左右的bbox的top和bottom取相同的值,令:
左右的bbox修正为:
其中down_rate模型推理过程的下采样倍数;
依据bbox分别从左右两张图像中截取图像,为了提供立体匹配可以找到视差效果,对左侧的图像整体向左平移K个像素;分别得到左右有障碍物的像素区域ROIleft和ROIright;
然后分别对每个对ROI左立体匹配,获得了相应的视差图disp_origin,由于立体匹配算法只对部分图像处理,大大的降低了算法的复杂度;
由于立体匹配得到的视差图disp_origin是在ROI图像上的,需将该视差图恢复到原始输入图像下;
disp_fix=disp_origin-K-leftbbox+rightbbox
由视差图disp_fix和相机内参和左右相机的base line可计算出视差图各个像素在相机坐标系下的三维坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011172439.4A CN112489186B (zh) | 2020-10-28 | 2020-10-28 | 一种自动驾驶双目数据感知方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011172439.4A CN112489186B (zh) | 2020-10-28 | 2020-10-28 | 一种自动驾驶双目数据感知方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112489186A CN112489186A (zh) | 2021-03-12 |
CN112489186B true CN112489186B (zh) | 2023-06-27 |
Family
ID=74927379
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011172439.4A Active CN112489186B (zh) | 2020-10-28 | 2020-10-28 | 一种自动驾驶双目数据感知方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112489186B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113343745B (zh) * | 2021-02-26 | 2024-06-18 | 北京中科慧眼科技有限公司 | 基于双目相机的远距离目标检测方法、系统和智能终端 |
CN113447949B (zh) * | 2021-06-11 | 2022-12-09 | 天津大学 | 一种基于激光雷达和先验地图的实时定位系统及方法 |
CN113959398B (zh) * | 2021-10-09 | 2024-04-12 | 广东汇天航空航天科技有限公司 | 基于视觉的测距方法、装置、可行驶设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107636679A (zh) * | 2016-12-30 | 2018-01-26 | 深圳前海达闼云端智能科技有限公司 | 一种障碍物检测方法及装置 |
CN109919993A (zh) * | 2019-03-12 | 2019-06-21 | 腾讯科技(深圳)有限公司 | 视差图获取方法、装置和设备及控制系统 |
CN110136186A (zh) * | 2019-05-10 | 2019-08-16 | 安徽工程大学 | 一种用于移动机器人目标测距的检测目标匹配方法 |
CN111239684A (zh) * | 2020-01-17 | 2020-06-05 | 中航华东光电(上海)有限公司 | 一种基于YoloV3深度学习的双目快速距离测量方法 |
CN111563415A (zh) * | 2020-04-08 | 2020-08-21 | 华南理工大学 | 一种基于双目视觉的三维目标检测系统及方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018095278A1 (zh) * | 2016-11-24 | 2018-05-31 | 腾讯科技(深圳)有限公司 | 飞行器的信息获取方法、装置及设备 |
-
2020
- 2020-10-28 CN CN202011172439.4A patent/CN112489186B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107636679A (zh) * | 2016-12-30 | 2018-01-26 | 深圳前海达闼云端智能科技有限公司 | 一种障碍物检测方法及装置 |
CN109919993A (zh) * | 2019-03-12 | 2019-06-21 | 腾讯科技(深圳)有限公司 | 视差图获取方法、装置和设备及控制系统 |
CN110136186A (zh) * | 2019-05-10 | 2019-08-16 | 安徽工程大学 | 一种用于移动机器人目标测距的检测目标匹配方法 |
CN111239684A (zh) * | 2020-01-17 | 2020-06-05 | 中航华东光电(上海)有限公司 | 一种基于YoloV3深度学习的双目快速距离测量方法 |
CN111563415A (zh) * | 2020-04-08 | 2020-08-21 | 华南理工大学 | 一种基于双目视觉的三维目标检测系统及方法 |
Non-Patent Citations (3)
Title |
---|
Objects as Points;Xingyi Zhou et al.;《arXiv》;20190425;第1-12页 * |
Stereo R-CNN Based 3D Object Detection for Autonomous Driving;Peiliang Li et al.;《2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;20200109;第7636-7644页 * |
李宇杰等. 基于视觉的三维目标检测算法研究综述.《计算机工程与应用》.2019, * |
Also Published As
Publication number | Publication date |
---|---|
CN112489186A (zh) | 2021-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112489186B (zh) | 一种自动驾驶双目数据感知方法 | |
US10678257B2 (en) | Generating occlusion-aware bird eye view representations of complex road scenes | |
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN112634341B (zh) | 多视觉任务协同的深度估计模型的构建方法 | |
EP3510561B1 (en) | Predicting depth from image data using a statistical model | |
EP3940641A1 (en) | Method, apparatus, and device for obtaining disparity map, control system, and storage medium | |
CN112419494B (zh) | 用于自动驾驶的障碍物检测、标记方法、设备及存储介质 | |
US10477178B2 (en) | High-speed and tunable scene reconstruction systems and methods using stereo imagery | |
CN104318561A (zh) | 基于双目立体视觉与光流融合的车辆运动信息检测方法 | |
CN113936139A (zh) | 一种视觉深度信息与语义分割相结合的场景鸟瞰图重构方法及系统 | |
CN110009675B (zh) | 生成视差图的方法、装置、介质及设备 | |
CN105354805A (zh) | 深度图像的去噪方法和去噪设备 | |
CN111105432A (zh) | 基于深度学习的无监督端到端的驾驶环境感知方法 | |
CN112097732A (zh) | 一种基于双目相机的三维测距方法、系统、设备及可读存储介质 | |
AU2021103300A4 (en) | Unsupervised Monocular Depth Estimation Method Based On Multi- Scale Unification | |
CN113711276A (zh) | 尺度感知单目定位和地图构建 | |
CN103679680A (zh) | 立体匹配方法和系统 | |
CN115359326A (zh) | 单目3d目标检测方法及装置 | |
CN111652922B (zh) | 一种基于双目视觉的单目视频深度估计方法 | |
CN109272481A (zh) | 一种基于深度摄像头的障碍物检测方法 | |
KR20140118083A (ko) | 입체 영상 제작 시스템 및 깊이 정보 획득방법 | |
CN112270701A (zh) | 基于分组距离网络的视差预测方法、系统及存储介质 | |
CN102567992B (zh) | 遮挡区域的图像匹配方法 | |
Hirata et al. | Real-time dense depth estimation using semantically-guided LIDAR data propagation and motion stereo | |
CN114387327B (zh) | 基于深度学习视差预测的合成孔径聚焦成像方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |