CN112489186B - 一种自动驾驶双目数据感知方法 - Google Patents

一种自动驾驶双目数据感知方法 Download PDF

Info

Publication number
CN112489186B
CN112489186B CN202011172439.4A CN202011172439A CN112489186B CN 112489186 B CN112489186 B CN 112489186B CN 202011172439 A CN202011172439 A CN 202011172439A CN 112489186 B CN112489186 B CN 112489186B
Authority
CN
China
Prior art keywords
bbox
map
image
obstacle
center point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011172439.4A
Other languages
English (en)
Other versions
CN112489186A (zh
Inventor
朱向雷
陈平
杜志彬
彭成
张苏林
张庆余
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Automotive Technology and Research Center Co Ltd
Automotive Data of China Tianjin Co Ltd
Original Assignee
China Automotive Technology and Research Center Co Ltd
Automotive Data of China Tianjin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Automotive Technology and Research Center Co Ltd, Automotive Data of China Tianjin Co Ltd filed Critical China Automotive Technology and Research Center Co Ltd
Priority to CN202011172439.4A priority Critical patent/CN112489186B/zh
Publication of CN112489186A publication Critical patent/CN112489186A/zh
Application granted granted Critical
Publication of CN112489186B publication Critical patent/CN112489186B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种自动驾驶双目数据感知方法,包括:S1、通过双目摄像头采集画面;S2、将图片通过CNN编码器进行编码操作,将两幅图像编码后的feature map连接到一起;S3、对编码后的图像进行解码操作,模型的解码器只用来获得左右两张图片同一障碍的bbox对,每一对bbox包括了同一个障碍物分别在左右图像的bbox;S4、利用成对的bbox只对bbox内的像素做特征提取和匹配以获得像素的视差。本发明所述的一种自动驾驶双目数据感知方法,根据视差信息进行3D重建,既可以通过滤出冗余的深度计算提高计算速度,又可以通过视差进行3D重建保证的点云的精度。

Description

一种自动驾驶双目数据感知方法
技术领域
本发明属于自动驾驶领域,尤其是涉及一种自动驾驶双目数据感知方法。
背景技术
自动驾驶感知系统是自动驾驶技术重要的组成部分。自动驾驶的的感知系统输出结果需要在车体坐标系下三维空间,目前感知系统获得三维空间的数据主要来自Lidar,radar和camera。Lidar设备的价格昂贵,市面上缺乏符合车规级的设备。Radar只能获得非常稀疏的点集,这么点集无法描述障碍物的大小,形状以及语义。Camera可获得稠密的三维点云数据,camera获得三维点云的方法主要包括结构光、TOF(time of light fly)、双目,基于运动估计的单目3D重建和基于深度学习的3D重建。结构光摄像头通过解码发射器发出的模板来重建3D,但是随着距离的增大和户外强光的干扰,结构光摄像头就无法获得准确的深度,对比自动驾驶需要观察到80米以外,结构光摄像头无法适用。TOF虽然感知深度比结构光摄像头要远一些,但是也只能测量在几米左右,也无法适应于自动驾驶场景。基于运动估计的单目3D重建,需要相机不断的运动和假设场景没有运行,这与自动驾驶的场景相矛盾,无法适用到自动驾驶,目前应用到自动驾驶领域的camera三维重建只要是双目和基于深度学习预测的三维重建,双目算法的立体匹配需要里面图像中的所有像素点,导致双目算法极其的耗费计算资源,市场上的双目摄像头利用FPGA加速双目匹配算法,但是市场上的双目摄像头为了做成一个整套设备,无法将baseline做的太大,这将导致这类双目设备的测量距离有限。
发明内容
有鉴于此,本发明旨在提出一种自动驾驶双目数据感知方法,深度学习有目的的预测障碍物的视差信息,根据视差信息进行3D重建,既可以通过滤出冗余的深度计算提高计算速度,有可以通过视差进行3D重建保证的点云的精度。
为达到上述目的,本发明的技术方案是这样实现的:
一种自动驾驶双目数据感知方法,包括:
S1、通过双目摄像头采集画面;
S2、将图片通过CNN编码器进行编码操作,将两幅图像编码后的feature map连接到一起;
S3、对编码后的图像进行解码操作,模型的解码器只用来获得左右两张图片同一障碍的bbox对,每一对bbox包括了同一个障碍物分别在左右图像的bbox;
S4、利用成对的bbox只对bbox内的像素做特征提取和匹配以获得像素的视差。
进一步的,在步骤S2中,将两张图片分别输入到模型,将两种图片分别输出到CNN编码器中,其中左右两张图片使用的是相同的编码器,然后将两幅图像编码后的featuremap连接到一起。
进一步的,在步骤S2中,先预处理输出图,将两张图片先连接到一起,生成一个6xHxW的张量作为输入,对该张量进行编码,可以获得经过feature map连接后的特征图。
进一步的,步骤S3中,对编码后的图像进行解码操作获得:
heat map:表示相同障碍物bbox对堆叠在一起形成较大的merge bbox中心点热图;
reg map:表示原始图像merge bbox与下采样后转换成整数后偏移距离;
wh map:表示左右bbox四条边与热图中心的距离;
中心点表示merge bbox的中点,该点生成的ground Truth为以该点为中心生成一个二维的高斯函数,用
Figure GDA0004130668310000031
包括L_L,L_R,L_T,L_B,R_L,R_R,R_T和R_B,分别表示左侧图片障碍物的bbox左边边框到中心点的距离,右边框到中心点的距离,上边框到中心点的距离,下边边框到中心点的距离和右侧图片障碍物的bbox的左边框到中心点的距离,右边框到中心点的距离,上边框到中心点的距离以及下边框到中心点的距离;
引用Loss函数,Loss函数的定义:Y∈[0,1],当Y位于center point,Y等于1,否则Y等于0,
Figure GDA0004130668310000032
表示模型解码输出的heat_map预测值;
其中heat_map分支的loss为:
Figure GDA0004130668310000033
其中α和β是loss函数的超参数;
图像输入到模型,经过推理后,输出的feature map的尺寸通常是小与输出图像的尺寸,这个过程类似于对图像进行了下采样,这样在生成ground Truth的时候,需要根据原始图像大小下采样P倍,在下采样过程,障碍物中心点cxy的x和y坐标除以下采样倍数P,获得了障碍物在下采样后的位置:
Figure GDA0004130668310000034
其中
Figure GDA0004130668310000035
是一个浮点小数,无法表示heat_map中障碍物中心点像素坐标的位置,需要对/>
Figure GDA0004130668310000036
取整数用来表示heat_map中障碍物的中心点;
Figure GDA0004130668310000037
用reg_map表示
Figure GDA0004130668310000038
与pxy的距离之差,用/>
Figure GDA0004130668310000039
表示,用L1 loss函数作为reg_map的loss函数:
Figure GDA0004130668310000041
令:
S=(L_L,L_R,L_T,L_B,R_L,R_R,R_T,R_B)
Figure GDA0004130668310000042
带有上尖号的表示模型预测的结果,令:
Figure GDA0004130668310000043
其中wh map分支的loss为:
Figure GDA0004130668310000044
最终的loss函数:
Loss=γk·Lkreg·Lregs·Ls
在推理过程,从模型中获得成对的障碍物bbox,左右侧图像的bbox从freture map中计算:
Figure GDA0004130668310000045
Figure GDA0004130668310000046
因为输入的图像是经过了极线几何的,可使得左右的bbox的top和bottom取相同的值,令:
Figure GDA0004130668310000047
Figure GDA0004130668310000048
左右的bbox修正为:
Figure GDA0004130668310000051
Figure GDA0004130668310000052
其中down_rate模型推理过程的下采样倍数;
依据bbox分别从左右两张图像中截取图像,为了提供立体匹配可以找到视差效果,对左侧的图像整体向左平移K个像素;分别得到左右有障碍物的像素区域ROIleft和rOIright
然后分别对每个对ROI左立体匹配,获得了相应的视差图disp_origin,由于立体匹配算法只对部分图像处理,大大的降低了算法的复杂度;
由于立体匹配得到的视差图disp_origin是在ROI图像上的,需将该视差图恢复到原始输入图像下;
disp_fix=disp_origin-k-leftbbox+rightbbox
其中:
Figure GDA0004130668310000053
由视差图disp_fix和相机内参和左右相机的base line可计算出视差图各个像素在相机坐标系下的三维坐标。
相对于现有技术,本发明所述的一种自动驾驶双目数据感知方法具有以下优势:
本发明所述的一种自动驾驶双目数据感知方法,根据视差信息进行3D重建,既可以通过滤出冗余的深度计算提高计算速度,又可以通过视差进行3D重建保证的点云的精度。
附图说明
构成本发明的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例所述的双目摄像头(左)采集的图像示意图;
图2为本发明实施例所述的双目摄像头(右)采集的图像示意图;
图3为本发明实施例所述的双目摄像头采集的图像连接后的可视效果图示意图;
图4为本发明实施例所述的模型的解码流程示意图;
图5为本发明实施例所述的可视效果图的标注示意图;
图6为本发明实施例所述的可视化bbox示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”等的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以通过具体情况理解上述术语在本发明中的具体含义。
下面将参考附图并结合实施例来详细说明本发明。
如图1至图5所示,通过双目摄像头采集:通过左右摄像头采集画面,经过矫正和极线几何的图片如图1和图2所示。
模型的输入可以使用下述的两种方法:
方法1:将两张图片分别输入到模型,将两种图片分别输出到CNN编码器中,其中左右两张图片使用的是相同的编码器,然后将两幅图像编码后的feature map连接到一起。
方法2:先预处理输出图,将两张图片先连接到一起,生成一个6xHxW(可视化效果图如图(3))的张量作为输入,对该张量进行编码,可以获得经过feature map连接后的特征图。
通过上述方法实现了对两幅图像的编码操作,接下来需要进行解码操作,模型的解码器只用来获得左右两张图片同一障碍的bbox对。每一对bbox包括了同一个障碍物分别在左右图像的bbox。然后利用成对的bbox只对bbox内的像素做特征提取和匹配以获得像素的视差,其中bbox为外包围盒。
模型的解码部分(如图4所示)输出包括:
1、表示相同障碍物bbox(外包围盒)对堆叠在一起形成较大的merge bbox(合并的外包围盒)中心点的热图heat map,其中每个类别输出一张热图,在cnn网络中表示一个feature map的一个通道;
2、表示原始图像merge bbox与下采样后转换成整数后偏移距离reg map;
3、表示左右bbox四条边与热图中心的距离wh map。
如图5所示:中心点表示merge bbox的中点,有该点生成的ground Truth为以该点为中心生成一个二维的高斯函数,用
Figure GDA0004130668310000081
图5中的L_L,L_R,L_T,L_B,R_L,R_R,R_T和R_B分别表示左侧图片障碍物的bbox左边边框到中心点(即为图5中的center point)的距离,右边框到中心点的距离,上边框到中心点的距离,下边边框到中心点的距离和右侧图片障碍物的bbox的左边框到中心点的距离,右边框到中心点的距离,上边框到中心点的距离以及下边框到中心点的距离。
接下来引用Loss函数,Loss函数的定义:Y∈[0,1],当Y位于center point,Y等于1,否则Y等于0,
Figure GDA0004130668310000082
表示模型解码输出的heat_map预测值。
其中heat_map分支的loss为:
Figure GDA0004130668310000083
其中α和β是loss函数的超参数。
图像输入到模型,经过推理后,输出的feature map的尺寸通常是小与输出图像的尺寸,这个过程类似于对图像进行了下采样,这样在生成ground Truth的时候,需要根据原始图像大小下采样P倍。在下采样过程,障碍物中心点cxy的x和y坐标除以下采样倍数P,获得了障碍物在下采样后的位置:
Figure GDA0004130668310000084
其中
Figure GDA0004130668310000085
是一个浮点小数,无法表示heat_map中障碍物中心点像素坐标的位置,需要对/>
Figure GDA0004130668310000086
取整数用来表示heat_map中障碍物的中心点。
Figure GDA0004130668310000087
用reg_map表示
Figure GDA0004130668310000088
与pxy的距离之差,用/>
Figure GDA0004130668310000089
表示,用L1 loss函数作为reg_map的loss函数。
Figure GDA0004130668310000091
令:
S=(L_L,L_R,L_T,L_B,R_L,R_R,R_T,R_B)
Figure GDA0004130668310000092
带有上尖号的表示模型预测的结果,令:
Figure GDA0004130668310000093
其中wh map分支的loss为:
Figure GDA0004130668310000094
最终的loss函数:
Loss=γk·Lkreg·Lregs·Ls
在推理过程,从模型中获得成对的障碍物bbox,左右侧图像的bbox从freture map中计算:
Figure GDA0004130668310000095
Figure GDA0004130668310000096
可视化bbox如图6所示
因为输入的图像是经过了极线几何的,可使得左右的bbox的top和bottom取相同的值,令:
Figure GDA0004130668310000097
Figure GDA0004130668310000098
左右的bbox修正为:
Figure GDA0004130668310000101
Figure GDA0004130668310000102
其中down_rate模型推理过程的下采样倍数。
依据bbox分别从左右两张图像中截取图像,为了提供立体匹配可以找到视差效果,对左侧的图像整体向左平移K个像素。分别得到左右有障碍物的像素区域ROIleft和ROIright
然后分别对每个对ROI左立体匹配,获得了相应的视差图disp_origin,由于立体匹配算法只对部分图像处理,大大的降低了算法的复杂度。
由于立体匹配得到的视差图disp_origin是在ROI图像上的,需将该视差图恢复到原始输入图像下。
disp_fix=disp_origin-k-leftbbox+rightbbox
其中:
Figure GDA0004130668310000103
由视差图disp_fix和相机内参和左右相机的base line可计算出视差图各个像素在相机坐标系下的三维坐标。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.一种自动驾驶双目数据感知方法,其特征在于,包括:
S1、通过双目摄像头采集画面;
S2、将图片通过CNN编码器进行编码操作,将两幅图像编码后的feature map连接到一起;
S3、对编码后的图像进行解码操作,模型的解码器只用来获得左右两张图片同一障碍的bbox对,每一对bbox包括了同一个障碍物分别在左右图像的bbox;
S4、利用成对的bbox只对bbox内的像素做特征提取和匹配以获得像素的视差;
在步骤S2中,将两张图片分别输入到模型,将两种图片分别输出到CNN编码器中,其中左右两张图片使用的是相同的编码器,然后将两幅图像编码后的feature map连接到一起;
在步骤S2中,先预处理输出图,将两张图片先连接到一起,生成一个6xHxW的张量作为输入,对该张量进行编码,可以获得经过feature map连接后的特征图;
步骤S3中,对编码后的图像进行解码操作获得:
heat map:表示相同障碍物bbox对堆叠在一起形成较大的merge bbox中心点热图;
reg map:表示原始图像merge bbox与下采样后转换成整数后偏移距离;
wh map:表示左右bbox四条边与热图中心的距离;
中心点表示merge bbox的中点,该点生成的ground Truth为以该点为中心生成的一个二维的高斯函数,用
Figure FDA0004130668300000011
表示;
包括L_L,L_R,L_T,L_B,R_L,R_R,R_T和R_B,分别表示左侧图片障碍物的bbox左边边框到中心点的距离,右边框到中心点的距离,上边框到中心点的距离,下边边框到中心点的距离和右侧图片障碍物的bbox的左边框到中心点的距离,右边框到中心点的距离,上边框到中心点的距离以及下边框到中心点的距离;
引用Loss函数,Loss函数的定义:Y∈[0,1],当Y位于center point,Y等于1,否则Y等于0,
Figure FDA0004130668300000021
表示模型解码输出的heat_map预测值;
其中heat_map分支的loss为:
Figure FDA0004130668300000022
其中α和β是loss函数的超参数;
图像输入到模型,经过推理后,输出的feature map的尺寸通常是小于输出图像的尺寸,这个过程类似于对图像进行了下采样,这样在生成ground Truth的时候,需要根据原始图像大小下采样P倍,在下采样过程,障碍物中心点cxy的x和y坐标除以下采样倍数P,获得了障碍物在下采样后的位置:
Figure FDA0004130668300000023
其中
Figure FDA0004130668300000026
是一个浮点小数,无法表示heat_map中障碍物中心点像素坐标的位置,需要对
Figure FDA0004130668300000027
取整数用来表示heat_map中障碍物的中心点;
Figure FDA0004130668300000028
用reg_map表示
Figure FDA0004130668300000029
与pxy的距离之差,基准偏移量用/>
Figure FDA0004130668300000024
表示,用L1loss函数作为reg_map的loss函数:
Figure FDA0004130668300000025
令:
S=(L_L,L_R,L_T,L_B,R_L,R_R,R_T,R_B)
Figure FDA0004130668300000031
带有上尖号的表示模型预测的结果,令:
Figure FDA0004130668300000032
其中wh map分支的loss为:
Figure FDA0004130668300000033
最终的loss函数:
Loss=γk·Lkreg·Lregs·Ls
在推理过程,从模型中获得成对的障碍物bbox,左右侧图像的bbox从freture map中计算:
Figure FDA0004130668300000034
Figure FDA0004130668300000035
因为输入的图像是经过了极线几何的,可使得左右的bbox的top和bottom取相同的值,令:
Figure FDA0004130668300000036
Figure FDA0004130668300000037
左右的bbox修正为:
Figure FDA0004130668300000038
Figure FDA0004130668300000039
其中down_rate模型推理过程的下采样倍数;
依据bbox分别从左右两张图像中截取图像,为了提供立体匹配可以找到视差效果,对左侧的图像整体向左平移K个像素;分别得到左右有障碍物的像素区域ROIleft和ROIright
然后分别对每个对ROI左立体匹配,获得了相应的视差图disp_origin,由于立体匹配算法只对部分图像处理,大大的降低了算法的复杂度;
由于立体匹配得到的视差图disp_origin是在ROI图像上的,需将该视差图恢复到原始输入图像下;
disp_fix=disp_origin-K-leftbbox+rightbbox
其中:
Figure FDA0004130668300000041
由视差图disp_fix和相机内参和左右相机的base line可计算出视差图各个像素在相机坐标系下的三维坐标。
CN202011172439.4A 2020-10-28 2020-10-28 一种自动驾驶双目数据感知方法 Active CN112489186B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011172439.4A CN112489186B (zh) 2020-10-28 2020-10-28 一种自动驾驶双目数据感知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011172439.4A CN112489186B (zh) 2020-10-28 2020-10-28 一种自动驾驶双目数据感知方法

Publications (2)

Publication Number Publication Date
CN112489186A CN112489186A (zh) 2021-03-12
CN112489186B true CN112489186B (zh) 2023-06-27

Family

ID=74927379

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011172439.4A Active CN112489186B (zh) 2020-10-28 2020-10-28 一种自动驾驶双目数据感知方法

Country Status (1)

Country Link
CN (1) CN112489186B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113343745B (zh) * 2021-02-26 2024-06-18 北京中科慧眼科技有限公司 基于双目相机的远距离目标检测方法、系统和智能终端
CN113447949B (zh) * 2021-06-11 2022-12-09 天津大学 一种基于激光雷达和先验地图的实时定位系统及方法
CN113959398B (zh) * 2021-10-09 2024-04-12 广东汇天航空航天科技有限公司 基于视觉的测距方法、装置、可行驶设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107636679A (zh) * 2016-12-30 2018-01-26 深圳前海达闼云端智能科技有限公司 一种障碍物检测方法及装置
CN109919993A (zh) * 2019-03-12 2019-06-21 腾讯科技(深圳)有限公司 视差图获取方法、装置和设备及控制系统
CN110136186A (zh) * 2019-05-10 2019-08-16 安徽工程大学 一种用于移动机器人目标测距的检测目标匹配方法
CN111239684A (zh) * 2020-01-17 2020-06-05 中航华东光电(上海)有限公司 一种基于YoloV3深度学习的双目快速距离测量方法
CN111563415A (zh) * 2020-04-08 2020-08-21 华南理工大学 一种基于双目视觉的三维目标检测系统及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018095278A1 (zh) * 2016-11-24 2018-05-31 腾讯科技(深圳)有限公司 飞行器的信息获取方法、装置及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107636679A (zh) * 2016-12-30 2018-01-26 深圳前海达闼云端智能科技有限公司 一种障碍物检测方法及装置
CN109919993A (zh) * 2019-03-12 2019-06-21 腾讯科技(深圳)有限公司 视差图获取方法、装置和设备及控制系统
CN110136186A (zh) * 2019-05-10 2019-08-16 安徽工程大学 一种用于移动机器人目标测距的检测目标匹配方法
CN111239684A (zh) * 2020-01-17 2020-06-05 中航华东光电(上海)有限公司 一种基于YoloV3深度学习的双目快速距离测量方法
CN111563415A (zh) * 2020-04-08 2020-08-21 华南理工大学 一种基于双目视觉的三维目标检测系统及方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Objects as Points;Xingyi Zhou et al.;《arXiv》;20190425;第1-12页 *
Stereo R-CNN Based 3D Object Detection for Autonomous Driving;Peiliang Li et al.;《2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;20200109;第7636-7644页 *
李宇杰等. 基于视觉的三维目标检测算法研究综述.《计算机工程与应用》.2019, *

Also Published As

Publication number Publication date
CN112489186A (zh) 2021-03-12

Similar Documents

Publication Publication Date Title
CN112489186B (zh) 一种自动驾驶双目数据感知方法
US10678257B2 (en) Generating occlusion-aware bird eye view representations of complex road scenes
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN112634341B (zh) 多视觉任务协同的深度估计模型的构建方法
EP3510561B1 (en) Predicting depth from image data using a statistical model
EP3940641A1 (en) Method, apparatus, and device for obtaining disparity map, control system, and storage medium
CN112419494B (zh) 用于自动驾驶的障碍物检测、标记方法、设备及存储介质
US10477178B2 (en) High-speed and tunable scene reconstruction systems and methods using stereo imagery
CN104318561A (zh) 基于双目立体视觉与光流融合的车辆运动信息检测方法
CN113936139A (zh) 一种视觉深度信息与语义分割相结合的场景鸟瞰图重构方法及系统
CN110009675B (zh) 生成视差图的方法、装置、介质及设备
CN105354805A (zh) 深度图像的去噪方法和去噪设备
CN111105432A (zh) 基于深度学习的无监督端到端的驾驶环境感知方法
CN112097732A (zh) 一种基于双目相机的三维测距方法、系统、设备及可读存储介质
AU2021103300A4 (en) Unsupervised Monocular Depth Estimation Method Based On Multi- Scale Unification
CN113711276A (zh) 尺度感知单目定位和地图构建
CN103679680A (zh) 立体匹配方法和系统
CN115359326A (zh) 单目3d目标检测方法及装置
CN111652922B (zh) 一种基于双目视觉的单目视频深度估计方法
CN109272481A (zh) 一种基于深度摄像头的障碍物检测方法
KR20140118083A (ko) 입체 영상 제작 시스템 및 깊이 정보 획득방법
CN112270701A (zh) 基于分组距离网络的视差预测方法、系统及存储介质
CN102567992B (zh) 遮挡区域的图像匹配方法
Hirata et al. Real-time dense depth estimation using semantically-guided LIDAR data propagation and motion stereo
CN114387327B (zh) 基于深度学习视差预测的合成孔径聚焦成像方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant