CN110176037A - 一种用于室外道路辅助驾驶的目标距离快速估算方法 - Google Patents

一种用于室外道路辅助驾驶的目标距离快速估算方法 Download PDF

Info

Publication number
CN110176037A
CN110176037A CN201910472056.XA CN201910472056A CN110176037A CN 110176037 A CN110176037 A CN 110176037A CN 201910472056 A CN201910472056 A CN 201910472056A CN 110176037 A CN110176037 A CN 110176037A
Authority
CN
China
Prior art keywords
image
value
camera
cost
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910472056.XA
Other languages
English (en)
Inventor
徐成龙
李珍珍
吴成东
马明宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN201910472056.XA priority Critical patent/CN110176037A/zh
Publication of CN110176037A publication Critical patent/CN110176037A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种用于室外道路辅助驾驶的目标距离快速估算方法,包括:通过张正友标定法对相机进行标定并对所述相机采集的图像进行校准;对所述图像进行区域划分并计算匹配代价;通过ORB特征点检测方法进行特征点检测与匹配;获取特征点对所在图像横坐标信息和视差值,并根据特征点信息修正相应的匹配代价值;通过SegNet语义分割网络对相机左右目图像进行分割,并根据所述分割的结果的RGB信息建立最小生成树模型;通过WTA算法Winner‑Take‑All选取代价聚合的最小值所对应的估计偏移值d为该像素点的视差值。本发明在对室外场景物体距离进行预警的同时融入了语义信息。同时在图像预处理中加入平滑区域判断环节,减小了误匹配率。本发明基于语义分割图的最小生成树模型更精确。

Description

一种用于室外道路辅助驾驶的目标距离快速估算方法
技术领域
本发明涉及无人车视觉导航定位技术领域,具体而言,尤其涉及双目视觉深度估计技术领域,是一种融合射影几何、最小生成树、ORB(Oriented FAST and Rotated BRIEF,ORB)特征匹配、语义分割、立体匹配等理论用于室外场景目标距离快速估计的方法。
背景技术
双目立体匹配是计算机视觉中最重要的算法之一,它通过对人类视觉原理的模仿,为计算机提供了与人类相似的深度感知能力。经过多年的发展,双目立体视觉技术在增强现实(Augmented Reality,AR)、智能制造、3D场景重建、稠密建图、自主导航等多个领域取得了重要的应用增强。在无人驾驶领域中,日本汽车SUBALU公司经过多年的研发与试验,车载EyeSight驾驶辅助系统(ADAS)已经逐步完善。该辅助驾驶系统是由较激光雷达、毫米波雷达等成本低廉的立体相机集成,通过双目立体摄像头单体控制,实现车辆碰撞预警、车道检测、自适应巡航等多个功能,具有深远的市场影响力,同时也掀起了对双目立体视觉研究的新热潮。
双目立体匹配是计算机视觉的关键问题。根据采用最优化理论方法的不同或匹配代价聚合范围的不同,双目立体匹配算法目前分为两大类:局部的立体匹配算法和全局的立体匹配算法。立体匹配问题是一种典型的标签分类问题,在一定的约束条件下,通过建立代价函数、代价聚合函数实现双目立体图像的最优匹配,最终获取精度较高的视差值或深度值。立体匹配中如何计算一个最优的代价聚合函数也成为近几年的热门研究话题,同时也是匹配精度的关键所在。立体匹配算法一般分为四个步骤:代价计算、代价聚合、视差计算和视差求精(细化)。在双目立体匹配过程中,匹配代价计算和代价聚合是最重要的两步,这两步处理算法的选择将直接影响最终的匹配效果。步骤一中,经常以颜色、灰度、纹理、梯度、距离、均方误差(Mean-Squared Error,MSE)、平均绝对值(Mean-Absolute Difference,MAD)、归一化交叉验证和像素熵等信息为相似性度量对图像中每个像素在所有可能的视差级别上中进行匹配代价计算,获取最初的视差空间图像(Disparity Space Image,DSI)。步骤二中,匹配聚合采用将匹配代价扩散到局部、半局部或全局的优化策略,优化匹配过程和减小误匹配概率。步骤三中,在可能的视差级别上采用“赢者通吃”(Winner-Take-All,WTA)的优化策略,对步骤三中的结果进行选择。步骤四,则是使用各种后处理技术(Post-Processing,PP)对视差图进行求精优化。全局匹配算法是利用迭代的思想将匹配代价扩散到整幅图像,具有较高的匹配精度,但当某像素点匹配代价计算错误或因光照等因素造成误差时,这种误差也会迭代到整个区域,对匹配结果带来干扰。而ORB特征匹配是一种实时快速匹配算法,本文结合ORB特征点信息提出了基于最小生成树理论的全局匹配方法。
发明内容
根据上述提出的技术问题,而提供一种用于室外道路辅助驾驶的目标距离快速估算方法,其特征在于,包括以下步骤:
步骤S1:通过张正友标定法对相机进行标定并对所述相机采集的图像进行校准;
步骤S2:对所述图像进行区域划分并计算匹配代价;
步骤S3:通过ORB特征点检测方法进行特征点检测与匹配;
步骤S4:通过步骤S3获取ORB特征匹配成功的点对,获取特征点对所在图像横坐标信息和视差值,并根据特征点信息修正相应的匹配代价值;
步骤S5:通过SegNet语义分割网络对相机左右目图像进行分割,并根据所述分割的结果的RGB信息建立最小生成树模型;
步骤S6:通过WTA算法Winner-Take-All选取所述步骤S5中代价聚合的最小值所对应的估计偏移值d为该像素点的视差值;
进一步地,所述通过张正友标定法对相机进行标定并对所述相机采集的图像进行校准:首先通过张正友标定法采用标定板对相机进行标定,所述标定板为9×7网格大小为20mm的棋盘;标定时所述相机对着所述标定板,对相机做平移、旋转、尺度变换获取图像信息。
更进一步地,所述对所述图像进行区域划分并计算匹配代价:以相机左目图像为例,imL(y,x,c)表示左目图像在坐标(y,x)处c通道的灰度值,对大小为(2m+1)×(2n+1)的相关窗口,预处理函数为:
进一步地,同理相机右目图像按上式进行预处理,将经过矫正的右目图像平滑区域和特征区域分开,当某像素点的预处理函数值小于一定门限时,则判定该像素点特征信息少,属于平滑区域,然后通过颜色和梯度组合的方式对该像素点进行匹配代价计算;定义gradL(y,x)、gradR(y,x)为经过预处理左右目图像的横向梯度函数,则左右目图像像素匹配点的颜色代价和梯度代价分别为:
costGradient=|dgradL(y,x)-gradR(y,x)| (4)
costVol(y,x,d)=w0*costColor+w1*costGradient (5)
其中,dimL(y,x,c)表示视差为d时的左目图像在坐标(y,x)处c通道的灰度值,dgradL(y,x)表示视差为d时的左目图像在坐标(y,x)处的梯度值,w0、w1表示颜色代价和梯度代价的权重值。
进一步地,所述特征点检测与匹配流程的步骤包括:通过所述ORB特征点法分别对左右目图像进行特征点检测并通过计算二进制汉明距离作为匹配成功与否的判据,且成功匹配点的纵向距离小于2。
更进一步地,定义LH表示左目图像特征点(Ly,Lx)的汉明距离,同理右目为RH,s表示左右目匹配的所有特征点数目,min()函数表示所有特征点汉明距离的最小值;则:
进一步地,所述匹配代价修正流程的步骤包括:修正相应的匹配代价值~costVol(y,x,d),即
~costVol(y,x,d)=λ*costVol(y,x,d)(λ<0.1)。(7)
进一步地,所述语义分割与代价聚合流程的步骤包括:通过SegNet语义分割网络对左目图像进行分割,并根据分割结果的RGB信息建立最小生成树模型,其中节点为像素点坐标,边为相邻像素的RGB差的范数,即边权值
更进一步地,通过最小生成树结构将每个像素点的匹配代价传播到整幅图像中,从叶子结点到根节点和从根节点到叶子结点两个方向计算最终的代价聚合值,同时利用第四步结果修正对应的代价聚合值,即
进一步地,选取公式(9)的最小值所对应的d为该像素点的视差值,通过二项式差值方法,选取代价聚合值最小的三个值进行二次多项式拟合,选取二次多项式的对称轴横坐标作为最终的视差值;将步骤S1标定的相机内参其中b表示双目相机基线;fx表示x方向单位长度像素数,带入相机成像模型中,计算出世界坐标系下的距离Dist,即
较现有技术相比,本发明具有以下优点:本发明在对室外场景物体距离进行预警的同时融入了语义信息。同时在图像预处理中加入平滑区域判断环节,减小了误匹配率。本发明基于语义分割图的最小生成树模型更精确。本发明加入ORB特征检测与匹配环节,修正匹配代价误差和代价聚合迭代误差。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做以简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明整体流程示意图。
图2为本发明深度与视差关系图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
如图1-2所示为本发明一种用于室外道路辅助驾驶的目标距离快速估算方法,包括以下步骤:
步骤S1:通过张正友标定法对相机进行标定并对相机采集的图像进行校准。
步骤S2:对图像进行区域划分并计算匹配代价。
步骤S3:通过ORB特征点检测方法进行特征点检测与匹配。
步骤S4:通过步骤S3获取ORB特征匹配成功的点对,获取特征点对所在图像横坐标信息和视差值,并根据特征点信息修正相应的匹配代价值。
步骤S5:通过SegNet语义分割网络对相机左右目图像进行分割,并根据分割的结果的RGB信息建立最小生成树模型。
步骤S6:通过WTA算法Winner-Take-All选取步骤S5中代价聚合的最小值所对应的估计偏移值d为该像素点的视差值。
作为一种优选的实施方式,通过张正友标定法对相机进行标定并对相机采集的图像进行校准:首先通过张正友标定法采用标定板对相机进行标定,标定板为9×7网格大小为20mm的棋盘;标定时相机对着标定板,对相机做平移、旋转、尺度变换获取图像信息。可以理解为在其它的实施方式中标定板的大小尺寸可以按照实际采集图像的大小尺寸确定只要能够满足能够对采集到的图像进行清晰标定即可。
在本实施方式中,对图像进行区域划分并计算匹配代价:以相机左目图像为例,imL(y,x,c)表示左目图像在坐标(y,x)处c通道的灰度值,对大小为(2m+1)×(2n+1)的相关窗口,预处理函数为:
在本实施方式中,同理相机右目图像按上式进行预处理,将经过矫正的右目图像平滑区域和特征区域分开,当某像素点的预处理函数值小于一定门限时,则判定该像素点特征信息少,属于平滑区域,然后通过颜色和梯度组合的方式对该像素点进行匹配代价计算;定义gradL(y,x)、gradR(y,x)为经过预处理左右目图像的横向梯度函数,则左右目图像像素匹配点的颜色代价和梯度代价分别为:
costGradient=|dgradL(y,x)-gradR(y,x)| (4)
costVol(y,x,d)=w0*costColor+w1*costGradient (5)
其中,dimL(y,x,c)表示视差为d时的左目图像在坐标(y,x)处c通道的灰度值,dgradL(y,x)表示视差为d时的左目图像在坐标(y,x)处的梯度值,w0、w1表示颜色代价和梯度代价的权重值。
作为一种优选的实施方式,特征点检测与匹配流程的步骤包括:通过ORB特征点法分别对左右目图像进行特征点检测并通过计算二进制汉明距离作为匹配成功与否的判据,且成功匹配点的纵向距离小于2。可以理解为在其它的实施方式中,纵向距离的大小可以按照实际需求进行设定。
作为一种优选的实施方式,定义LH表示左目图像特征点(Ly,Lx)的汉明距离,同理右目为RH,s表示左右目匹配的所有特征点数目,min()函数表示所有特征点汉明距离的最小值;则:
作为一种优选的实施方式,在本实施方式中,匹配代价修正流程的步骤包括:修正相应的匹配代价值~costVol(y,x,d),即
~costVol(y,x,d)=λ*costVol(y,x,d)(λ<0.1)。(7)
作为优选的实施方式,语义分割与代价聚合流程的步骤包括:通过SegNet语义分割网络对左目图像进行分割,并根据分割结果的RGB信息建立最小生成树模型,其中节点为像素点坐标,边为相邻像素的RGB差的范数,即边权值
在本实施方式中,通过最小生成树结构将每个像素点的匹配代价传播到整幅图像中,从叶子结点到根节点和从根节点到叶子结点两个方向计算最终的代价聚合值,同时利用第四步结果修正对应的代价聚合值,即
更进一步地,在本实施方式中,选取公式(9)的最小值所对应的d为该像素点的视差值,通过二项式差值方法,选取代价聚合值最小的三个值进行二次多项式拟合,选取二次多项式的对称轴横坐标作为最终的视差值;将步骤S1标定的相机内参其中b表示双目相机基线;fx表示x方向单位长度像素数,带入相机成像模型中,计算出世界坐标系下的距离Dist,即
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (7)

1.一种用于室外道路辅助驾驶的目标距离快速估算方法,其特征在于,包括以下步骤:
S1:通过张正友标定法对相机进行标定并对所述相机采集的图像进行校准;
S2:对所述图像进行区域划分并计算匹配代价;
S3:通过ORB特征点检测方法进行特征点检测与匹配;
S4:通过步骤S3获取ORB特征匹配成功的点对,获取特征点对所在图像横坐标信息和视差值,并根据特征点信息修正相应的匹配代价值;
S5:通过SegNet语义分割网络对相机左右目图像进行分割,并根据所述分割的结果的RGB信息建立最小生成树模型;
S6:通过WTA算法Winner-Take-All选取所述步骤S5中代价聚合的最小值所对应的估计偏移值d为该像素点的视差值。
2.根据权利要求1所述的一种用于室外道路辅助驾驶的目标距离快速估算方法,其特征还在于,所述通过张正友标定法对相机进行标定并对所述相机采集的图像进行校准:
首先通过张正友标定法采用标定板对相机进行标定,所述标定板为9×7网格大小为20mm的棋盘;标定时所述相机对着所述标定板,对相机做平移、旋转、尺度变换获取图像信息。
3.根据权利要求1所述的一种用于室外道路辅助驾驶的目标距离快速估算方法,其特征还在于,所述对所述图像进行区域划分并计算匹配代价:以相机左目图像为例,imL(y,x,c)表示左目图像在坐标(y,x)处c通道的灰度值,对大小为(2m+1)×(2n+1)的相关窗口,预处理函数为:
同理相机右目图像按上式进行预处理,将经过矫正的右目图像平滑区域和特征区域分开,当某像素点的预处理函数值小于一定门限时,则判定该像素点特征信息少,属于平滑区域,然后通过颜色和梯度组合的方式对该像素点进行匹配代价计算;定义gradL(y,x)、gradR(y,x)为经过预处理左右目图像的横向梯度函数,则左右目图像像素匹配点的颜色代价和梯度代价分别为:
costGradient=|dgradL(y,x)-gradR(y,x)| (4)
costVol(y,x,d)=w0*costColor+w1*costGradient (5)
其中,dimL(y,x,c)表示视差为d时的左目图像在坐标(y,x)处c通道的灰度值,dgradL(y,x)表示视差为d时的左目图像在坐标(y,x)处的梯度值,w0、w1表示颜色代价和梯度代价的权重值。
4.根据权利要求1所述的一种用于室外道路辅助驾驶的目标距离快速估计方法,其特征还在于,所述特征点检测与匹配流程的步骤包括:
通过所述ORB特征点法分别对左右目图像进行特征点检测并通过计算二进制汉明距离作为匹配成功与否的判据,且成功匹配点的纵向距离小于2;
定义LH表示左目图像特征点(Ly,Lx)的汉明距离,同理右目为RH,s表示左右目匹配的所有特征点数目,min()函数表示所有特征点汉明距离的最小值;则:
5.根据权利要求1所述的一种用于室外道路辅助驾驶的目标距离快速估计方法,其特征在于,所述匹配代价修正流程的步骤包括:
修正相应的匹配代价值costVol(y,x,d),即
costVol(y,x,d)=λ*costVol(y,x,d)(λ<0.1)。 (7)
6.根据权利要求1所述的一种用于室外道路辅助驾驶的目标距离快速估计方法,其特征在于,所述语义分割与代价聚合流程的步骤包括:
通过SegNet语义分割网络对左目图像进行分割,并根据分割结果的RGB信息建立最小生成树模型,其中节点为像素点坐标,边为相邻像素的RGB差的范数,即边权值
通过最小生成树结构将每个像素点的匹配代价传播到整幅图像中,从叶子结点到根节点和从根节点到叶子结点两个方向计算最终的代价聚合值,同时利用第四步结果修正对应的代价聚合值,即
7.根据权利要求1所述的一种用于室外道路辅助驾驶的目标距离快速估计方法,其特征还在于,
选取公式(9)的最小值所对应的d为该像素点的视差值,通过二项式差值方法,选取代价聚合值最小的三个值进行二次多项式拟合,选取二次多项式的对称轴横坐标作为最终的视差值;将步骤S1标定的相机内参其中b表示双目相机基线;fx表示x方向单位长度像素数,带入相机成像模型中,计算出世界坐标系下的距离Dist,即
CN201910472056.XA 2019-05-31 2019-05-31 一种用于室外道路辅助驾驶的目标距离快速估算方法 Pending CN110176037A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910472056.XA CN110176037A (zh) 2019-05-31 2019-05-31 一种用于室外道路辅助驾驶的目标距离快速估算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910472056.XA CN110176037A (zh) 2019-05-31 2019-05-31 一种用于室外道路辅助驾驶的目标距离快速估算方法

Publications (1)

Publication Number Publication Date
CN110176037A true CN110176037A (zh) 2019-08-27

Family

ID=67697014

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910472056.XA Pending CN110176037A (zh) 2019-05-31 2019-05-31 一种用于室外道路辅助驾驶的目标距离快速估算方法

Country Status (1)

Country Link
CN (1) CN110176037A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111915503A (zh) * 2020-06-12 2020-11-10 华南理工大学 一种基于树形神经网络结构的视差获取方法、存储介质及计算设备
CN116245753A (zh) * 2022-12-30 2023-06-09 北京华云星地通科技有限公司 一种红蓝立体卫星云图生成方法、系统、电子设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103646396A (zh) * 2013-11-29 2014-03-19 清华大学深圳研究生院 双目立体匹配算法的匹配代价算法和非局部立体匹配算法
CN106504276A (zh) * 2016-10-25 2017-03-15 桂林电子科技大学 非局部立体匹配算法的组合匹配代价算法和视差联合填充算法
CN106846290A (zh) * 2017-01-19 2017-06-13 西安电子科技大学 基于抗纹理十字和权值十字的立体视差优化方法
CN107341823A (zh) * 2017-06-06 2017-11-10 东北大学 一种基于特征融合的最小分支立体匹配方法
CN109146946A (zh) * 2018-08-29 2019-01-04 河海大学常州校区 一种图像非局部立体匹配方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103646396A (zh) * 2013-11-29 2014-03-19 清华大学深圳研究生院 双目立体匹配算法的匹配代价算法和非局部立体匹配算法
CN106504276A (zh) * 2016-10-25 2017-03-15 桂林电子科技大学 非局部立体匹配算法的组合匹配代价算法和视差联合填充算法
CN106846290A (zh) * 2017-01-19 2017-06-13 西安电子科技大学 基于抗纹理十字和权值十字的立体视差优化方法
CN107341823A (zh) * 2017-06-06 2017-11-10 东北大学 一种基于特征融合的最小分支立体匹配方法
CN109146946A (zh) * 2018-08-29 2019-01-04 河海大学常州校区 一种图像非局部立体匹配方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
夏永泉等: "基于最大窗口的二次立体匹配方法", 《计算机科学》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111915503A (zh) * 2020-06-12 2020-11-10 华南理工大学 一种基于树形神经网络结构的视差获取方法、存储介质及计算设备
CN111915503B (zh) * 2020-06-12 2023-08-22 华南理工大学 一种基于树形神经网络结构的视差获取方法、存储介质及计算设备
CN116245753A (zh) * 2022-12-30 2023-06-09 北京华云星地通科技有限公司 一种红蓝立体卫星云图生成方法、系统、电子设备及介质
CN116245753B (zh) * 2022-12-30 2023-10-03 北京华云星地通科技有限公司 一种红蓝立体卫星云图生成方法、系统、电子设备及介质

Similar Documents

Publication Publication Date Title
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN111553859B (zh) 一种激光雷达点云反射强度补全方法及系统
CN103226821B (zh) 基于视差图像素分类校正优化的立体匹配方法
CN107862293B (zh) 基于对抗生成网络的雷达生成彩色语义图像系统及方法
CN106780590B (zh) 一种深度图的获取方法及系统
CN112634341B (zh) 多视觉任务协同的深度估计模型的构建方法
CN113936139B (zh) 一种视觉深度信息与语义分割相结合的场景鸟瞰图重构方法及系统
CN111310574A (zh) 一种车载视觉实时多目标多任务联合感知方法和装置
CN101866497A (zh) 基于双目立体视觉的智能三维人脸重建方法及系统
CN108694731A (zh) 基于低线束激光雷达和双目相机的融合定位方法及设备
CN113160375A (zh) 一种基于多任务学习算法的三维重建及相机位姿估计方法
CN109255811A (zh) 一种基于可信度图视差优化的立体匹配方法
CN112731436B (zh) 基于点云上采样的多模态数据融合可行驶区域检测方法
CN102069770A (zh) 基于双目立体视觉的汽车主动安全控制系统及其控制方法
CN110176037A (zh) 一种用于室外道路辅助驾驶的目标距离快速估算方法
CN110288659A (zh) 一种基于双目视觉的深度成像及信息获取方法
CN112184731B (zh) 一种基于对抗性训练的多视图立体深度估计方法
CN103955945A (zh) 基于双目视差和活动轮廓的自适应彩色图像分割方法
CN102740096A (zh) 一种基于时空结合的动态场景立体视频匹配方法
CN114372523A (zh) 一种基于证据深度学习的双目匹配不确定性估计方法
CN113989758A (zh) 一种用于自动驾驶的锚引导3d目标检测方法及装置
CN105761270A (zh) 一种基于外极线距离变换的树型滤波立体匹配方法
CN115909268A (zh) 一种动态障碍物检测方法及装置
CN114187208B (zh) 基于融合代价和自适应惩罚项系数的半全局立体匹配方法
CN116978009A (zh) 基于4d毫米波雷达的动态物体滤除方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190827

RJ01 Rejection of invention patent application after publication