CN111260711B - 一种弱监督可信代价传播的视差估计方法 - Google Patents

一种弱监督可信代价传播的视差估计方法 Download PDF

Info

Publication number
CN111260711B
CN111260711B CN202010028299.7A CN202010028299A CN111260711B CN 111260711 B CN111260711 B CN 111260711B CN 202010028299 A CN202010028299 A CN 202010028299A CN 111260711 B CN111260711 B CN 111260711B
Authority
CN
China
Prior art keywords
cost
parallax
map
pixel
propagation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010028299.7A
Other languages
English (en)
Other versions
CN111260711A (zh
Inventor
仲维
张宏
李豪杰
王智慧
刘日升
樊鑫
罗钟铉
李胜全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Peng Cheng Laboratory
Original Assignee
Dalian University of Technology
Peng Cheng Laboratory
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology, Peng Cheng Laboratory filed Critical Dalian University of Technology
Priority to CN202010028299.7A priority Critical patent/CN111260711B/zh
Priority to US17/604,239 priority patent/US11315273B2/en
Priority to PCT/CN2020/077960 priority patent/WO2021138991A1/zh
Publication of CN111260711A publication Critical patent/CN111260711A/zh
Application granted granted Critical
Publication of CN111260711B publication Critical patent/CN111260711B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种弱监督可信代价传播的视差估计方法,利用深度学习方法对传统方法获得的初始代价进行优化。通过结合,充分利用各自优势,解决了传统方法中误匹配、无纹理区域匹配难等问题,同时弱监督的可信代价传播方法避免了深度学习方法数据标签依赖的问题。

Description

一种弱监督可信代价传播的视差估计方法
技术领域
本发明属于图像处理和计算机视觉领域,涉及双目视差估计,并利用深度学习方法对传统方法获得的初始代价进行优化。具体涉及一种弱监督可信代价传播的视差估计方法。
背景技术
深度即目标到观察者的距离作为一种重要的空间信息,可用来提取目标的一些重要属性(如速度、三维位置)和关系(如遮挡、越界),对于目标跟踪及行为感知具有重要意义。双目深度感知利用立体匹配求出两幅图像对应点间的视差,根据三角测量原理,用双目相机内外参求得场景内相应点的深度值。现有的双目视差估计方法主要有三大类:第一类是传统双目视差估计方法,主要基于几何约束,通常分为匹配代价计算、代价聚合、视差估计、视差优化等过程。其中最经典的是SGM(半全局匹配)算法,其特点是每个像素点的代价用其对应位置八个方向路径上的像素代价做优化,在一定程度上解决了无纹理区域的匹配问题。传统方法对稀疏视差估计较准确,但估计稠密视差时局限性很大,如参数多,调参适配不同场景耗时耗力,特征设计难,能量传播不充分,特别是在镜面反射、低光、透明、无纹理区域仍存在较大缺陷。第二类是基于深度学习的视差估计方法,如用网络得到的特征进行搜索匹配,用左右一致性约束实现视差优化、学习的监督等。近两年研究者提出用3D卷积实现能量传播过程的方法,进一步提高了网络的可解释性。为解决数据依赖问题,研究者提出了利用左右重建一致性的无监督方法、基于域适应思想的迁移学习方法等。上述基于数据驱动的学习的方法,可得到表达能力更强的特征模型,一方面能充分考虑语义信息,另一方面能学到像素间的更丰富的关系特征,因此最终视差图较传统方法结果更准确、平滑,但存在着数据依赖强、场景泛化能力差的问题。第三类为深度学习与传统方法相结合的估计方法。如针对SGM算法,利用网络对不同场景、不同像素自动分配惩罚系数,可显著提升SGM稠密视差估计效果。针对能量传播,文献利用网络估计出每个像素点的置信度,根据置信度进行能量传播过程。这些深度学习与传统方法结合的方法虽然可解释性更强,但仍未充分利用两类方法各自的优势,因此相对于端到端的学习方法未能在精度上体现出优势,而相较于稀疏匹配方法未在泛化能力及数据依赖程度上体现出优势。
本发明基于以上问题,提出一种将深度学习与传统方法相结合的双目视差估计法,充分利用传统方法与深度学习方法各自优势,利用弱监督深度学习对传统方法获取的粗糙初始代价进行优化,获得精确代价图,解决真实视差数据标签难获取、跨数据集泛化能力差、无纹理及重复纹理区域误匹配等稠密视差图获取过程中的一系列难题。
发明内容
本发明旨在克服现有技术的不足,提供了弱监督可信代价传播视差估计方法,即将深度学习与传统方法结合,利用弱监督深度学习方法优化传统方法获取的初始代价图,有效利用传统方法和深度学习方法各自的优势,得到更精确的视差图。
具体方案包括下列步骤:
一种基于弱监督可信代价传播的双目视差估计方法
第一步,采用传统特征匹配方法即非深度学习方法,得到稀疏精确的初始代价图;
第二步,进行能量传;采用三维卷积网络对初始代价图进行优化;
第三步,进行视差回归;利用优化后的初始代价图转化为概率图,所述概率图为每个像素属于每个视差的概率,再通过Soft Argmax得到亚像素视差,最终获得稠密视差图。
本发明的有益效果是:
本发明提出一种传统视差估计与深度学习结合的双目视差估计方法。通过结合,充分利用各自优势,解决了传统方法中误匹配、无纹理区域匹配难等问题,同时弱监督的可信代价传播方法避免了深度学习方法数据标签依赖的问题。
附图说明
图1为方案的整体流程图;
图2为视差估计的效果图;(a)左图,(b)右图,(c)视差图。
具体实施方式
为克服视差估计中,真实视差数据标签难获取、跨数据集泛化能力差、无纹理及重复纹理区域易误匹配等难题,本发明提出基于弱监督可信代价传播的双目视差估计方案(图1),其主要步骤为:
第一步,采用传统特征匹配方法得到稀疏精确的代价图,本发明以基于Census特征的匹配方法为例,具体步骤如下:
1.1采用高斯滤波算法对输入图像进行降噪滤波处理。高斯滤波窗口权值由高斯函数(式1)决定。
Figure BDA0002363280900000031
其中(x,y)是点坐标,σ是标准差。通过对高斯函数离散化,得到权值矩阵,即为高斯滤波器。
经过高斯滤波处理,能够有效的抑制噪声,平滑图像。防止噪声造成后续的匹配误差。
1.2对输入图像进行匹配,获得视差稀疏准确的初始代价图。。
进行初始代价计算。这里以基于Census特征的滑动窗口匹配为例描述匹配代价计算流程。
获取每个像素的Census特征描述子。利用滑动窗口,在扫描线上进行搜索,计算每个像素可能视差对应的代价(式2):
Figure BDA0002363280900000032
式中HD(·)表示汉明距离,CensusL、CensusR为分别为左图、右图像素的Census特征描述子。代价计算的输出为高(H)×宽(W)×最大视差(D)大小的张量,即代价图。
第二步,进行能量传播。传统能量传播模型基于手工先验特征,描述能力有限,无法对同一平面内纹理过于丰富或场景包含大片无纹理、弱纹理区域进行有效能量传播,极易出现误匹配。本发明将利用深度学习强大的特征表征和上下文学习优势,采用三维卷积网络对代价图进行优化。输入为1.2的中间输出,即每个像素相对于每个可能匹配点的相似性特征向量组成的四维张量。能量传播网络对应的损失函数为:
Figure BDA0002363280900000041
其中Ω为除稀疏点集之外的点,
Figure BDA0002363280900000042
为左图上一点x,
Figure BDA0002363280900000043
为根据右图与视差重构的左图上一点x。
第三步,进行视差回归。利用网络将相似性张量转换为概率张量(即每个像素属于每个视差的概率),并通过Soft Argmax得到亚像素视差。实际应用中该方法仅需输入左图和右图,根据需要可输出稀疏视差图或稠密视差图。

Claims (2)

1.一种基于弱监督可信代价传播的双目视差估计方法,其特征在于,包括步骤如下:
第一步,采用传统特征匹配方法即非深度学习方法,得到稀疏精确的初始代价图;
第二步,进行代价传播;采用三维卷积网络对初始代价图进行优化;
输入为第一步的初始代价图,即每个像素相对于每个可能匹配点的相似性特征向量组成的四维张量;代价传播网络对应的损失函数为:
Figure FDA0002988406940000011
其中Ω为除稀疏点集之外的点,
Figure FDA0002988406940000012
为左图上一点x,
Figure FDA0002988406940000013
为根据右图与视差重构的左图上一点x;
第三步,进行视差回归;利用优化后的初始代价图转化为概率图,所述概率图为每个像素属于每个视差的概率,再通过Soft Argmax得到亚像素视差,最终获得稠密视差图。
2.根据权利要求1所述的基于弱监督可信代价传播的双目视差估计方法,其特征在于,第一步,采用传统特征匹配方法为基于Census特征的匹配方法,具体步骤如下:
1)采用高斯滤波算法对输入图像进行降噪滤波处理,高斯滤波窗口权值由高斯函数,式(1)决定;
Figure FDA0002988406940000014
其中(x,y)是点坐标,σ是标准差;通过对高斯函数离散化,得到权值矩阵,即为高斯滤波器;
2)对输入图像进行匹配,获得视差稀疏准确的初始代价图;
进行初始代价计算;获取每个像素的Census特征描述子,利用滑动窗口,在扫描线上进行搜索,计算每个像素可能视差对应的代价
Figure FDA0002988406940000015
Figure FDA0002988406940000016
式中HD(·)表示汉明距离,CensusL、CensusR为分别为左图、右图像素的Census特征描述子;代价计算的输出为高×宽×最大视差大小的张量,即初始代价图。
CN202010028299.7A 2020-01-10 2020-01-10 一种弱监督可信代价传播的视差估计方法 Active CN111260711B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202010028299.7A CN111260711B (zh) 2020-01-10 2020-01-10 一种弱监督可信代价传播的视差估计方法
US17/604,239 US11315273B2 (en) 2020-01-10 2020-03-05 Disparity estimation method for weakly supervised trusted cost propagation
PCT/CN2020/077960 WO2021138991A1 (zh) 2020-01-10 2020-03-05 一种弱监督可信代价传播的视差估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010028299.7A CN111260711B (zh) 2020-01-10 2020-01-10 一种弱监督可信代价传播的视差估计方法

Publications (2)

Publication Number Publication Date
CN111260711A CN111260711A (zh) 2020-06-09
CN111260711B true CN111260711B (zh) 2021-08-10

Family

ID=70924122

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010028299.7A Active CN111260711B (zh) 2020-01-10 2020-01-10 一种弱监督可信代价传播的视差估计方法

Country Status (3)

Country Link
US (1) US11315273B2 (zh)
CN (1) CN111260711B (zh)
WO (1) WO2021138991A1 (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105956597A (zh) * 2016-05-04 2016-09-21 浙江大学 一种基于卷积神经网络的双目立体匹配方法
CN108416803A (zh) * 2018-03-14 2018-08-17 大连理工大学 一种基于深度神经网络的多信息融合的场景深度恢复方法
CN108416840A (zh) * 2018-03-14 2018-08-17 大连理工大学 一种基于单目相机的三维场景稠密重建方法
CN109146937A (zh) * 2018-08-22 2019-01-04 广东电网有限责任公司 一种基于深度学习的电力巡检影像密集匹配方法
CN109816710A (zh) * 2018-12-13 2019-05-28 中山大学 一种双目视觉系统高精度且无拖影的视差计算方法
CN110060290A (zh) * 2019-03-14 2019-07-26 中山大学 一种基于3d卷积神经网络的双目视差计算方法
CN110148181A (zh) * 2019-04-25 2019-08-20 青岛康特网络科技有限公司 一种通用双目立体匹配方法
CN110287964A (zh) * 2019-06-13 2019-09-27 浙江大华技术股份有限公司 一种立体匹配方法及装置
CN110400333A (zh) * 2019-07-26 2019-11-01 中国安全生产科学研究院 教练式双目立体视觉装置及高精度立体视觉图像获取方法
CN110533712A (zh) * 2019-08-26 2019-12-03 北京工业大学 一种基于卷积神经网络的双目立体匹配方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101345303B1 (ko) * 2007-03-29 2013-12-27 삼성전자주식회사 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치
CN103440653A (zh) * 2013-08-27 2013-12-11 北京航空航天大学 双目视觉立体匹配方法
CN106355570B (zh) * 2016-10-21 2019-03-19 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法
DE112018002572T5 (de) 2017-05-19 2020-06-04 Movidius Ltd. Verfahren, systeme und vorrichtungen zur optimierung der pipeline-ausführung
EP3514759A1 (en) * 2018-01-23 2019-07-24 Ricoh Company, Ltd. Image processing method, image processing apparatus, on-board device, moving body, and system
CN110310220A (zh) * 2018-03-27 2019-10-08 广东瑞图万方科技股份有限公司 一种半全局实时立体匹配方法
CN109241966A (zh) 2018-08-22 2019-01-18 东北农业大学 一种植物叶片无损采集方法
CN111383256B (zh) * 2018-12-29 2024-05-17 北京市商汤科技开发有限公司 图像处理方法、电子设备及计算机可读存储介质
CN111444744A (zh) * 2018-12-29 2020-07-24 北京市商汤科技开发有限公司 活体检测方法、装置以及存储介质
CN109887019B (zh) * 2019-02-19 2022-05-24 北京市商汤科技开发有限公司 一种双目匹配方法及装置、设备和存储介质
US11763433B2 (en) * 2019-11-14 2023-09-19 Samsung Electronics Co., Ltd. Depth image generation method and device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105956597A (zh) * 2016-05-04 2016-09-21 浙江大学 一种基于卷积神经网络的双目立体匹配方法
CN108416803A (zh) * 2018-03-14 2018-08-17 大连理工大学 一种基于深度神经网络的多信息融合的场景深度恢复方法
CN108416840A (zh) * 2018-03-14 2018-08-17 大连理工大学 一种基于单目相机的三维场景稠密重建方法
CN109146937A (zh) * 2018-08-22 2019-01-04 广东电网有限责任公司 一种基于深度学习的电力巡检影像密集匹配方法
CN109816710A (zh) * 2018-12-13 2019-05-28 中山大学 一种双目视觉系统高精度且无拖影的视差计算方法
CN110060290A (zh) * 2019-03-14 2019-07-26 中山大学 一种基于3d卷积神经网络的双目视差计算方法
CN110148181A (zh) * 2019-04-25 2019-08-20 青岛康特网络科技有限公司 一种通用双目立体匹配方法
CN110287964A (zh) * 2019-06-13 2019-09-27 浙江大华技术股份有限公司 一种立体匹配方法及装置
CN110400333A (zh) * 2019-07-26 2019-11-01 中国安全生产科学研究院 教练式双目立体视觉装置及高精度立体视觉图像获取方法
CN110533712A (zh) * 2019-08-26 2019-12-03 北京工业大学 一种基于卷积神经网络的双目立体匹配方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
End-to-End Learning of Geometry and Context for Deep Stereo Regression;Alex Kendall 等;《arxiv》;20170313;第1-10页 *
GA-Net: Guided Aggregation Net for End-to-end Stereo Matching;Feihu Zhang 等;《arxiv》;20190413;第1-11页 *
SegStereo: Exploiting Semantic Information for Disparity Estimation;Guorun Yang 等;《arxiv》;20180731;第1-16页 *
Self-Supervised Learning for Stereo Matching with Self-Improving Ability;Yiran Zhong 等;《arxiv》;20170904;第1-13页 *

Also Published As

Publication number Publication date
CN111260711A (zh) 2020-06-09
US20220092809A1 (en) 2022-03-24
WO2021138991A1 (zh) 2021-07-15
US11315273B2 (en) 2022-04-26

Similar Documents

Publication Publication Date Title
CN109377530B (zh) 一种基于深度神经网络的双目深度估计方法
CN108648161B (zh) 非对称核卷积神经网络的双目视觉障碍物检测系统及方法
Lazaros et al. Review of stereo vision algorithms: from software to hardware
CN111259945B (zh) 引入注意力图谱的双目视差估计方法
CN110827398B (zh) 基于深度神经网络的室内三维点云自动语义分割方法
CN111931787A (zh) 一种基于特征聚合的rgbd显著性检测方法
CN113569979B (zh) 一种基于注意力机制的三维物体点云分类方法
CN103996201A (zh) 一种基于改进梯度和自适应窗口的立体匹配方法
Li et al. ADR-MVSNet: A cascade network for 3D point cloud reconstruction with pixel occlusion
CN110909778B (zh) 一种基于几何一致性的图像语义特征匹配方法
CN113763446B (zh) 一种基于引导信息的立体匹配方法
Chen et al. A full density stereo matching system based on the combination of CNNs and slanted-planes
CN113222033A (zh) 基于多分类回归模型与自注意力机制的单目图像估计方法
Chen et al. Multi-dimensional cooperative network for stereo matching
CN111582437B (zh) 一种视差回归深度神经网络的构造方法
CN116310095A (zh) 一种基于深度学习的多视图三维重建方法
CN113112547A (zh) 机器人及其重定位方法、定位装置及存储介质
CN112329662A (zh) 基于无监督学习的多视角显著性估计方法
Wang et al. AMDCNet: An attentional multi-directional convolutional network for stereo matching
CN114120012A (zh) 一种基于多特征融合和树形结构代价聚合的立体匹配方法
CN111260711B (zh) 一种弱监督可信代价传播的视差估计方法
CN110675381A (zh) 一种基于串行结构网络的本征图像分解方法
Gonzalez-Huitron et al. Jaccard distance as similarity measure for disparity map estimation
CN114140495A (zh) 基于多尺度Transformer的单目标跟踪方法
Liu et al. Learning Local Event-based Descriptor for Patch-based Stereo Matching

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant