CN107506782B - 基于置信权重双边滤波的密集匹配方法 - Google Patents

基于置信权重双边滤波的密集匹配方法 Download PDF

Info

Publication number
CN107506782B
CN107506782B CN201710548005.1A CN201710548005A CN107506782B CN 107506782 B CN107506782 B CN 107506782B CN 201710548005 A CN201710548005 A CN 201710548005A CN 107506782 B CN107506782 B CN 107506782B
Authority
CN
China
Prior art keywords
pixel
cost
window
matching
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710548005.1A
Other languages
English (en)
Other versions
CN107506782A (zh
Inventor
黄旭
周刚
高其双
胡堃
陆正武
蔡刚山
范超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WUHAN ENGINEERING SCIENCE & TECHNOLOGY INSTITUTE
Original Assignee
WUHAN ENGINEERING SCIENCE & TECHNOLOGY INSTITUTE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WUHAN ENGINEERING SCIENCE & TECHNOLOGY INSTITUTE filed Critical WUHAN ENGINEERING SCIENCE & TECHNOLOGY INSTITUTE
Priority to CN201710548005.1A priority Critical patent/CN107506782B/zh
Publication of CN107506782A publication Critical patent/CN107506782A/zh
Application granted granted Critical
Publication of CN107506782B publication Critical patent/CN107506782B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种本发明涉及基于置信权重双边滤波的密集匹配方法,步骤为:1、根据立体像对,选择基准影像和参考影像,采用传统的窗口算子,计算匹配代价矩阵;2、根据代价计算窗口内灰度的分布,判断中心像素的代价可靠性;3、对于代价可疑像素,进行基于置信权重的双边滤波,获得新的匹配代价;4、根据新的匹配代价,采用传统的半全局密集匹配方法,快速获得精确的视差图。本发明的滤波速度快,能够有效消除传统立体影像密集匹配算法中普遍存在的视差边缘误匹配问题,生成的匹配视差图中,地物边缘的线特征明显,三维重建精度高。

Description

基于置信权重双边滤波的密集匹配方法
技术领域
本发明涉及立体影像密集匹配技术领域,具体涉及一种基于置信权重双边滤波的密集匹配方法。
背景技术
立体影像密集匹配指根据像素相似性测度和代价优化方法,逐像素地匹配出两幅影像之间同名点的过程。立体影像密集匹配是三维建模、虚拟现实、计算机视觉等领域的核心技术之一,能够用于无人自动驾驶、无人机自动巡航、3D地图、3D打印、智慧城市、机器人双目视觉、虚拟电商等应用。
传统的立体影像密集匹配技术均采用窗口算子作为匹配代价测度。常采用的窗口算子包括Sobel算子、ZNCC算子、HOG算子、Census算子等。窗口算子的算法简单、计算效率高,具有一定地抗影像辐射畸变的能力。但是,窗口算子总是假设窗口内所有像素的视差一致。在视差边缘区域(如建筑物边缘、电线杆边缘、物体外轮廓等等),往往不满足这种假设。如果采用窗口算子进行密集匹配,很容易在视差边缘产生误匹配,具体表现为视差边缘“毛刺”现象严重,视差边缘过度平滑等等。视差边缘的误匹配会严重影响三维模型的重建精度和三维显示效果。
发明内容
本发明的目的在于提供一种基于置信权重双边滤波的密集匹配方法,该方法在传统立体影像密集匹配方法的基础上,充分利用边缘灰度特征明显的优势,提出一种基于置信权重双边滤波方法,对匹配代价矩阵进行滤波,能够在视差边缘取得高精度的匹配结果,解决目前窗口算子普遍存在的视差边缘误匹配问题。
为解决上述技术问题,本发明所设计的基于置信权重双边滤波的密集匹配方法,其特征在于,它包括如下步骤:
步骤1在立体影像中,选择基准影像和参考影像,采用传统的窗口算子作为测度,采用以下方法计算基准影像上每个像素的匹配代价,组成代价矩阵;
设基准影像为Ib,参考影像为Ir,M表示窗口算子,令p表示基准影像上的像素;q表示参考影像上的像素,则基准影像上每个像素的匹配代价表示为:
Figure GDA0002369171840000021
式1中,Cost(p)表示像素p对应的匹配代价;
Figure GDA0002369171840000022
表示作用在基准影像Ib上的窗口算子;
Figure GDA0002369171840000023
表示作用在参考影像Ir上的窗口算子;依次计算参考影像上每个像素的匹配代价,组成代价矩阵;
步骤2:根据基准影像上,每个像素对应的代价窗口内所有像素的灰度分布,采用如下方法判断像素代价的可靠性;
如果像素对应的代价窗口内,所有像素灰度一致,则该像素为代价可靠像素;如果像素对应的代价窗口内,所有像素的灰度有一个不一致,则该像素为代价可疑像素,对基准影像上,对每个像素进行代价可靠性的判断,将整张影像的像素归纳为两个集合:代价可靠像素组成的集合QH,以及代价可疑像素组成的集合QN,如下式所示:
Figure GDA0002369171840000024
式2中,p表示基准影像上的像素;t表示像素p的邻域像素;Nw表示像素p的邻域,Nw的大小由代价计算窗口决定;QH表示代价可靠像素组成的集合;QN表示代价可疑像素组成的集合;符号
Figure GDA0002369171840000025
表示任意的意思;符号
Figure GDA0002369171840000033
表示存在的意思;C表示灰度阈值;∩表示交集符号,if表示如果;
步骤3:对代价可疑像素集合QN中的每个像素进行基于置信权重的双边滤波,得到新的匹配代价cost'(p);
为了提高视差边缘区域的匹配精度,必须对代价可疑像素集合QN中的每个像素进行基于置信权重的双边滤波,具体过程为:遍历代价可疑像素集合QN中的每个像素,以当前像素为中心,定义双边滤波窗口,双边滤波窗口的窗口大小决定了中心像素的邻域范围,根据邻域像素的可靠性,定义权值w1,根据滤波窗口中心像素和邻域像素之间的灰度差,定义权值w2;根据权值w1和w2,对中心像素进行双边滤波,得到经过双边滤波后的匹配代价,如下式所示:
Figure GDA0002369171840000031
式3中,cost'(p)表示中心像素经过双边滤波后的代价;Np表示像素p的邻域,Np的大小由双边滤波窗口决定;w1(q)表示根据像素q的可靠性定义的权值;w2(p,q)表示根据像素p和q的灰度差计算出来的权值;Cost(q)表示像素q的原始匹配代价;QN表示代价可疑像素组成的集合;
权值w1(q)根据像素q的可靠性来计算,如下式所示:
Figure GDA0002369171840000032
权值w2(p,q)根据像素p和q的灰度差来计算,如下式所示:
w2(p,q)=exp(-|Ib(p)-Ib(q)|/σ) (5)
式5中,Ib表示基准影像;Ib(p)表示像素p的基准影像;Ib(q)表示像素q的基准影像;exp表示指数函数;σ表示灰度平滑因子;
步骤4:根据基于置信权重双边滤波后新的匹配代价cost'(p),采用传统的半全局密集匹配方法(见参考文献,Stereo Processing by Semi-Global Matching and MutualInformation),获得精确的密集匹配视差图。
本发明的有益效果:
本发明的双边滤波速度快,能够有效消除传统立体影像密集匹配算法中普遍存在的视差边缘误匹配问题。采用本发明的方法生成的密集匹配视差图中,视差边缘的匹配精度高,线特征明显,三维显示效果好。本发明能够为数字摄影测量与遥感、计算机视觉、虚拟现实、公共工程安全、国防建设等学科和应用提供技术服务。
附图说明
图1为本发明的流程图;
图2为灰度边缘区域代价计算示意图;
图3为传统密集匹配算法结果示意图;
图4为基于置信权重双边滤波的密集匹配算法结果示意图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步的详细说明:
本发明针对传统立体影像密集匹配方法中普遍存在的视差边缘误匹配问题,提出了一种基于置信权重双边滤波的密集匹配方法,该方法能够有效解决上述视差边缘误匹配问题,获取高精度地边缘重建结果。本发明的工作流程如图1所示,它包括如下步骤:
步骤1在立体影像中,选择基准影像和参考影像,采用传统的窗口算子作为测度,采用以下方法计算基准影像上每个像素的匹配代价,组成代价矩阵;
设基准影像为Ib,参考影像为Ir,M表示窗口算子,令p表示基准影像上的像素;q表示参考影像上的像素,则基准影像上每个像素的匹配代价表示为:
Figure GDA0002369171840000051
式1中,Cost(p)表示像素p对应的匹配代价;
Figure GDA0002369171840000052
表示作用在基准影像Ib上的窗口算子;
Figure GDA0002369171840000053
表示作用在参考影像Ir上的窗口算子;依次计算参考影像上每个像素的匹配代价,组成代价矩阵;
传统的窗口算子有很多种,包括Census算子、Sobel算子、ZNCC算子、HOG算子等,这些算子均能够取得一个较好的匹配结果,但是都不可避免地在视差边缘区域产生误匹配问题,这些窗口算子的具体公式,可以参见文章《Evaluation of stereo matching costs onImages with radiometric differences》;
步骤2:根据基准影像上,每个像素对应的代价窗口内所有像素的灰度分布,采用如下方法判断像素代价的可靠性;
视差边缘往往在影像上具有明显的灰度特征。如果代价窗口位于视差边缘区域,则代价窗口内像素的灰度会出现明显的变化;否则,如果代价窗口不位于视差边缘区域,则代价窗口内像素的灰度会一致,因此,本发明定义:如果像素对应的代价窗口内,所有像素灰度一致,则该像素为代价可靠像素;如果像素对应的代价窗口内,所有像素的灰度有一个不一致,则该像素为代价可疑像素,如图2所示。
图2中,每一个方格代表像素,方格的背景代表像素灰度。定义代价计算窗口为3×3大小,则像素q的代价计算窗口完全落入灰度同质区域内,可以认为像素q是代价可靠像素;而像素p位于灰度边缘区域,其代价计算窗口有部分落入灰度非同质区域,则认为像素p是代价可疑像素;
代价可疑像素是造成视差边缘区域误匹配的主要原因,对基准影像上,对每个像素进行代价可靠性的判断,将整张影像的像素归纳为两个集合:代价可靠像素组成的集合QH,以及代价可疑像素组成的集合QN,如下式所示:
Figure GDA0002369171840000061
式2中,p表示基准影像上的像素;t表示像素p的邻域像素;Nw表示像素p的邻域,Nw的大小由代价计算窗口决定;QH表示代价可靠像素组成的集合;QN表示代价可疑像素组成的集合;符号
Figure GDA0002369171840000063
表示任意的意思;符号
Figure GDA0002369171840000064
表示存在的意思;C表示灰度阈值;∩表示交集符号,if表示如果;
步骤3:对代价可疑像素集合QN中的每个像素进行基于置信权重的双边滤波,得到新的匹配代价cost'(p);
为了提高视差边缘区域的匹配精度,必须对代价可疑像素集合QN中的每个像素进行基于置信权重的双边滤波,具体过程为:遍历代价可疑像素集合QN中的每个像素,以当前像素为中心,定义双边滤波窗口,双边滤波窗口的窗口大小决定了中心像素的邻域范围,根据邻域像素的可靠性,定义权值w1,根据滤波窗口中心像素和邻域像素之间的灰度差,定义权值w2;根据权值w1和w2,对中心像素进行双边滤波,得到经过双边滤波后的匹配代价,如下式所示:
Figure GDA0002369171840000062
式3中,cost'(p)表示中心像素经过双边滤波后的代价;Np表示像素p的邻域,Np的大小由双边滤波窗口决定;w1(q)表示根据像素q的可靠性定义的权值;w2(p,q)表示根据像素p和q的灰度差计算出来的权值;Cost(q)表示像素q的原始匹配代价;QN表示代价可疑像素组成的集合;
权值w1(q)根据像素q的可靠性来计算,如下式所示:
Figure GDA0002369171840000071
权值w2(p,q)根据像素p和q的灰度差来计算,一般采用高斯函数,如下式所示:
w2(p,q)=exp(-|Ib(p)-Ib(q)|/σ) (5)
式5中,Ib表示基准影像;Ib(p)表示像素p的基准影像;Ib(q)表示像素q的基准影像;exp表示指数函数;σ表示灰度平滑因子,σ为经验阈值工程上一般取10;双边滤波窗口Np大小的确定关系着中心像素的可疑代价能否真正得到改善,邻域窗口取得过大,则不满足视差一致的假设;邻域窗口过小,则无法完全修正中心像素的可疑代价,一般邻域窗口大小可以设定为代价计算窗口大小的基础上加2个像素;
步骤4:根据基于置信权重双边滤波后新的匹配代价cost'(p),采用传统的半全局密集匹配方法(参考文献Stereo Processing by Semi-Global Matching and MutualInformation),获得精确的密集匹配视差图。
上述技术方案的步骤2中,灰度阈值C的取值为10。
上述技术方案的步骤3中,灰度平滑因子σ的取值为10。
上述技术方案的步骤3中,双边滤波窗口的计算方式为:
SF=SC+2 (6)
式中,SF表示双边滤波窗口的大小;SC表示代价计算窗口的大小。
上述技术方案的步骤1中,立体影像即组成立体视觉的两幅影像,影像可以采用卫星影像、航拍影像、无人机影像等,首先在两张影像中选择基准影像和参考影像,一般选择左视影像为基准影像,选择右视影像为参考影像,然后将立体影像重采样成核线立体影像,采样的方法可以采用开源的代码库OpenCV中的initUndistortRectifyMap()函数,根据经过重采样的核线立体影像采用传统的半全局密集匹配算法进行逐像素地密集匹配。
传统的半全局密集匹配方法可以采用开源的代码库OpenCV中的立体影像密集匹配函数SGBM()函数。传统密集匹配结果如图3所示,基于置信权重双边滤波的密集匹配结果如图4所示。比较图3和图4可以看出,基于置信权重双边滤波的密集匹配方法,能够解决传统算法在视差边缘区域的误匹配问题。
本发明能够有效解决传统立体影像密集匹配算法中普遍存在的视差边缘误匹配问题,采用基于置信权重双边滤波的密集匹配方法,能够有效改善代价可疑像素的匹配代价,所获取的立体影像密集匹配视差图中,地物边缘重建精度高,为三维建模、虚拟现实、计算机视觉、数字摄影测量等学科和应用提供技术支持。
本说明书未作详细描述的内容属于本领域专业技术人员公知的现有技术。

Claims (4)

1.一种基于置信权重双边滤波的密集匹配方法,其特征在于,它包括如下步骤:
步骤1在立体影像中,选择基准影像和参考影像,采用传统的窗口算子作为测度,采用以下方法计算基准影像上每个像素的匹配代价,组成代价矩阵;
设基准影像为Ib,参考影像为Ir,M表示窗口算子,令p表示基准影像上的像素;q表示参考影像上的像素,则基准影像上每个像素的匹配代价表示为:
Figure FDA0002369171830000011
式1中,Cost(p)表示像素p对应的匹配代价;
Figure FDA0002369171830000012
表示作用在基准影像Ib上的窗口算子;
Figure FDA0002369171830000013
表示作用在参考影像Ir上的窗口算子;依次计算参考影像上每个像素的匹配代价,组成代价矩阵;
步骤2:根据基准影像上,每个像素对应的代价窗口内所有像素的灰度分布,采用如下方法判断像素代价的可靠性;
如果像素对应的代价窗口内,所有像素灰度一致,则该像素为代价可靠像素;如果像素对应的代价窗口内,所有像素的灰度有一个不一致,则该像素为代价可疑像素,对基准影像上,对每个像素进行代价可靠性的判断,将整张影像的像素归纳为两个集合:代价可靠像素组成的集合QH,以及代价可疑像素组成的集合QN,如下式所示:
Figure FDA0002369171830000014
式2中,p表示基准影像上的像素;t表示像素p的邻域像素;Nw表示像素p的邻域,Nw的大小由代价计算窗口决定;QH表示代价可靠像素组成的集合;QN表示代价可疑像素组成的集合;符号
Figure FDA0002369171830000015
表示任意的意思;符号
Figure FDA0002369171830000021
表示存在的意思;C表示灰度阈值;∩表示交集符号,if表示如果;
步骤3:对代价可疑像素集合QN中的每个像素进行基于置信权重的双边滤波,得到新的匹配代价cost'(p);
为了提高视差边缘区域的匹配精度,必须对代价可疑像素集合QN中的每个像素进行基于置信权重的双边滤波,具体过程为:遍历代价可疑像素集合QN中的每个像素,以当前像素为中心,定义双边滤波窗口,双边滤波窗口的窗口大小决定了中心像素的邻域范围,根据邻域像素的可靠性,定义权值w1,根据滤波窗口中心像素和邻域像素之间的灰度差,定义权值w2;根据权值w1和w2,对中心像素进行双边滤波,得到经过双边滤波后的匹配代价,如下式所示:
Figure FDA0002369171830000022
式3中,cost'(p)表示中心像素经过双边滤波后的代价;Np表示像素p的邻域,Np的大小由双边滤波窗口决定;w1(q)表示根据像素q的可靠性定义的权值;w2(p,q)表示根据像素p和q的灰度差计算出来的权值;Cost(q)表示像素q的原始匹配代价;QN表示代价可疑像素组成的集合;
权值w1(q)根据像素q的可靠性来计算,如下式所示:
Figure FDA0002369171830000023
权值w2(p,q)根据像素p和q的灰度差来计算,如下式所示:
w2(p,q)=exp(-|Ib(p)-Ib(q)|/σ) (5)
式5中,Ib表示基准影像;Ib(p)表示像素p的基准影像;Ib(q)表示像素q的基准影像;exp表示指数函数;σ表示灰度平滑因子;
步骤4:根据基于置信权重双边滤波后新的匹配代价cost'(p),采用传统的半全局密集匹配方法,获得精确的密集匹配视差图。
2.根据权利要求1所述的基于置信权重双边滤波的密集匹配方法,其特征在于:所述步骤2中,灰度阈值C的取值为10。
3.根据权利要求1所述的基于置信权重双边滤波的密集匹配方法,其特征在于:所述步骤3中,灰度平滑因子σ的取值为10。
4.根据权利要求1所述的基于置信权重双边滤波的密集匹配方法,其特征在于:所述步骤3中,双边滤波窗口的计算方式为:
SF=SC+2 (6)
式中,SF表示双边滤波窗口的大小;SC表示代价计算窗口的大小。
CN201710548005.1A 2017-07-06 2017-07-06 基于置信权重双边滤波的密集匹配方法 Active CN107506782B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710548005.1A CN107506782B (zh) 2017-07-06 2017-07-06 基于置信权重双边滤波的密集匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710548005.1A CN107506782B (zh) 2017-07-06 2017-07-06 基于置信权重双边滤波的密集匹配方法

Publications (2)

Publication Number Publication Date
CN107506782A CN107506782A (zh) 2017-12-22
CN107506782B true CN107506782B (zh) 2020-04-17

Family

ID=60679578

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710548005.1A Active CN107506782B (zh) 2017-07-06 2017-07-06 基于置信权重双边滤波的密集匹配方法

Country Status (1)

Country Link
CN (1) CN107506782B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110060283B (zh) * 2019-04-17 2020-10-30 武汉大学 一种多测度半全局密集匹配方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN101976455A (zh) * 2010-10-08 2011-02-16 东南大学 一种基于立体匹配的彩色图像三维重建方法
CN103679739A (zh) * 2013-12-26 2014-03-26 清华大学 基于遮挡区域检测的虚拟视图生成方法
CN105160702A (zh) * 2015-08-20 2015-12-16 武汉大学 基于LiDAR点云辅助的立体影像密集匹配方法及系统
CN106530337A (zh) * 2016-10-31 2017-03-22 武汉市工程科学技术研究院 基于图像灰度引导的非局部立体像对密集匹配方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN101976455A (zh) * 2010-10-08 2011-02-16 东南大学 一种基于立体匹配的彩色图像三维重建方法
CN103679739A (zh) * 2013-12-26 2014-03-26 清华大学 基于遮挡区域检测的虚拟视图生成方法
CN105160702A (zh) * 2015-08-20 2015-12-16 武汉大学 基于LiDAR点云辅助的立体影像密集匹配方法及系统
CN106530337A (zh) * 2016-10-31 2017-03-22 武汉市工程科学技术研究院 基于图像灰度引导的非局部立体像对密集匹配方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Adaptive Support-Weight Approach for Correspondence Search;Kuk-Jin Yoon 等;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;20060221;第650-656页 *
Direct Digital Surface Model Generation by SemiGlobal Vertical Line Locus Matching;Yanfeng Zhang 等;《Remote Sensing》;20170225;第1-20页 *
Image-Guided Non-Local Dense Matching with Three-Steps Optimization;Huang Xu等;《ISPRS Annals of Photogrammetry, Remote Sensing and Spatial Information Sciences》;20160719;第67-74页 *
Locally adaptive support-weight approach for visual correspondence search;Kuk-Jin Yoon 等;《2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR"05)》;20050725;第1-8页 *

Also Published As

Publication number Publication date
CN107506782A (zh) 2017-12-22

Similar Documents

Publication Publication Date Title
CN108682026B (zh) 一种基于多匹配基元融合的双目视觉立体匹配方法
CN108520536B (zh) 一种视差图的生成方法、装置及终端
EP2731075B1 (en) Backfilling points in a point cloud
EP2064675B1 (en) Method for determining a depth map from images, device for determining a depth map
CN106780590A (zh) 一种深度图的获取方法及系统
EP2811423A1 (en) Method and apparatus for detecting target
CN110288659B (zh) 一种基于双目视觉的深度成像及信息获取方法
CN107636679A (zh) 一种障碍物检测方法及装置
CN111105452B (zh) 基于双目视觉的高低分辨率融合立体匹配方法
CN107980138A (zh) 一种虚警障碍物检测方法及装置
CN112097732A (zh) 一种基于双目相机的三维测距方法、系统、设备及可读存储介质
CN110956661A (zh) 基于双向单应矩阵的可见光与红外相机动态位姿计算方法
CN112686877A (zh) 基于双目相机的三维房屋损伤模型构建测量方法及系统
CN112435267A (zh) 一种高分辨率城市卫星立体图像的视差图计算方法
CN107506782B (zh) 基于置信权重双边滤波的密集匹配方法
CN105138979A (zh) 基于立体视觉的运动人体头部检测方法
CN116385994A (zh) 一种三维道路线提取方法及相关设备
CN104252707A (zh) 对象检测方法和装置
CN113808185B (zh) 图像深度恢复方法、电子设备及存储介质
Deng et al. Automatic true orthophoto generation based on three-dimensional building model using multiview urban aerial images
CN116258832A (zh) 基于铲装前后物料堆三维重构的铲装体积获取方法及系统
CN112053434B (zh) 视差图的生成方法、三维重建方法及相关装置
Teoh et al. Ground plane detection for autonomous vehicle in rainforest terrain
CN110245553B (zh) 路面测距方法及装置
CN112884817B (zh) 稠密光流计算方法、装置、电子设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant