CN111915503B - 一种基于树形神经网络结构的视差获取方法、存储介质及计算设备 - Google Patents
一种基于树形神经网络结构的视差获取方法、存储介质及计算设备 Download PDFInfo
- Publication number
- CN111915503B CN111915503B CN202010534851.XA CN202010534851A CN111915503B CN 111915503 B CN111915503 B CN 111915503B CN 202010534851 A CN202010534851 A CN 202010534851A CN 111915503 B CN111915503 B CN 111915503B
- Authority
- CN
- China
- Prior art keywords
- parallax
- cost
- pixel
- value
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 22
- 230000002776 aggregation Effects 0.000 claims description 23
- 238000004220 aggregation Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 16
- 238000010586 diagram Methods 0.000 claims description 7
- 230000001131 transforming effect Effects 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于树形神经网络结构的视差获取方法、存储介质及计算设备,包括,通过傅里叶变换对图像进行去噪预处理,然后利用树形深度神经网络提取不同分辨率的图像特征,进而将左右图的不同分辨率的特征图通过分级代价聚合网络获取视差图。相比与其它方法,这种方法可以解决图像中反光表面与遮挡区域对视差获取结果的影响。
Description
技术领域
本发明涉及图像处理领域,具体涉及一种基于树形神经网络结构的视差获取方法、存储介质及计算设备。
背景技术
随着社会的科技进步,立体匹配技术的发展日新月异,传统的匹配方法获取视差图的效果与速度无法满足现在高性能与准确度的要求。而深度学习的发展,给立体匹配带来了新的解决方案。基于深度学习的算法很适合用于立体匹配技术。
目前,大部分立体匹配算法对于反光区域及遮挡区域的处理效果并不好,反光区域会使最后的视差结果与实际有较大的差别,而遮挡区域的像素点由于只出现在一张图片中,在另一图片没有出现,因此视差计算较为困难。从图像处理角度看,反光表面可与其它噪音视为图像噪音,利用图像预处理去噪。而从算法与人的视觉类比角度看,遮挡区域则必须充分利用遮挡区域附近的图像信息来计算遮挡像素点的视差值。
发明内容
为了解决现有技术中反光表面与遮挡区域对视差获取的影响,本发明第一个目的提出一种基于树形神经网络结构的视差获取方法,相比于现有的方法更具有准确性和鲁棒性。
本发明的第二个目的是提供一种存储介质。
本发明的第三个目的是提供一种计算设备。
本发明第一个目的采用如下技术方案:
一种基于树形神经网络结构的视差获取方法,包括如下步骤:
S1图像预处理,具体为:分别对左图L及右图R进行傅里叶变换,对图像进行滤波,再做逆变换,得到两张图像Lp与Rp;
S2通过树形神经网络提取图像特征,左图Lp和右图Rp分别得到八个不同分辨率的特征图F0,F1,F2,F3,F4,F5,F6,F7;
S3将得到的八个不同分辨率特征图作为输入通过分级代价聚合网络,最后得到精细化后的最终视差图;
S4每个像素选择最小代价值对应的视差最为该像素的视差,得到视差图D。
所述树形神经网络类似数据结构中的二叉树,除了末节点每个节点都有两个子节点。
所述两个子节点分别为左子节点及右子节点,左子节点卷积核为3*3,步长为1,右子节点卷积核为5*5,步长为2,通过3层树结构,最后得到23=8个不同分辨率的特征图,最终得到8个不同分辨率的特征图:F0,F1,F2,F3,F4,F5,F6,F7,从F0到F7分辨率由大到小。
所述S3将得到的八个不同分辨率特征图作为输入通过分级代价聚合网络,最后得到精细化后的最终视差图,具体为:
将左图及右图的低分辨率特征图F7,F6串联得到代价体积,然后将代价体积通过SGM算法得到低分辨率的稀疏视差图D0,进而将D0与特征图F5,F4一起串联得到新的代价体积后通过SGM算法后得到视差图D2,进而将D2与特征图F3,F2一起串联得到新的代价体积后通过SGM算法后得到视差图D3,最后将视差图D3与最高分辨率的特征图F1,F0串联得到代价体积,经过SGM算法得到最终的稠密视差图D_final。
所述分级代价聚合网络中采用随机方向的SGM算法进行代价聚合。
所述随机方向的SGM算法进行代价聚合,具体是:
在得到的cost volume的视差维度上,像素沿着某条路径r的路径代价计算:
其中,r表示某个指向当前像素p的方向,C(p,d)指当前像素点视差为d时,该像素点的匹配代价;
Lr(p,d)表示沿着当前方向r,当目前像素p的视差取值为d时,其最小代价值;
Lr(p-r,d)表示沿着方向r的当前像素p的前一个像素视差取值为d时,其最小的代价值;
Lr(p-r,d-1)表示沿着方向r的当前像素p的前一个像素视差取值为d-1时,其最小的代价值;
Lr(p-r,d+1)表示沿着方向r的当前像素p的前一个像素视差取值为d+1时,其最小的代价值;
Lr(p-r,i)表示沿着方向r的当前像素p的前一个像素视差值取i时,其最小的代价值;
总路径代价S计算公式:
其中S(p,d)表示6条随机路径的最小代价值的和,即像素点p视差值取d时的总路径代价。
所述S4,采用使得SGM能量函数最小的优化方法获得视差;
所述SGM的能量函数为:
其中,E(D)是视差图D对应的能量函数;
p,q代表图像中的某个像素,C(p,Dp)指当前像素点视差为Dp时,该像素点的匹配代价,P1是一个惩罚系数,它适用于像素p相邻像素中视差值与p的视差值相差1的那些像素,P2是一个惩罚系数,它适用于像素p相邻像素中视差值与p的视差值相差大于1的那些像素,Np指像素p的相邻像素点,I[]函数表示:如果函数中的参数为真返回1,否则返回0。
本发明的第二个目的是采用如下技术方案实现:
一种存储介质,存储有程序,所述程序被处理器执行时,实现所述的基于树形神经网络结构的视差获取方法。
本发明的第三个目的是采用如下技术方案实现:
一种计算设备,包括处理器以及用于存储处理器可执行程序的存储器,其特征在于,所述处理器执行存储器的程序时,实现所述的视差获取方法。
本发明的有益效果:
(1)本发明通过傅里叶变换对图像进行去噪预处理,能有效解决高光表面对视差获取的影响;
(2)本发明通过树形神经网络提取不同分辨率的特征图,能有效利用图像中的高维与低维的特征,有效解决遮挡区域的问题。
(3)本发明使用分级代价聚合网络进行代价聚合,通过充分利用不同分辨率的图像特征图,可以有效的将视差图精细化。
附图说明
图1是本发明树形网络结构图;
图2是本发明分级代价聚合网络结构示意图;
图3是本发明的整体结构图;
图4是本发明的工作流程图。
具体实施方式
下面结合实施例及附图,对本发明作进一步地详细说明,但本发明的实施方式不限于此。
实施例1
如图1-图4所示,一种基于树形神经网络结构的视差获取方法,应用于采用双目视觉系统获取的左、右两幅图像,具体包括:
S1图像预处理:将左图L与右图R分别进行傅里叶变换,在频域上处理图像的特征,对图像进行滤波后,再做逆变换,这样得到去除了图像的噪音,并且减少亮度过高的反射表面对视差结果的影响的两张图像Lp与Rp。
S2通过树形神经网络提取图像特征:将处理后的左图Lp与右图Rp分别通过树形神经网络提取出两幅图不同分辨率的特征图。
所述树形神经网络类似数据结构中的二叉树,除了末节点每个节点都有两个子节点,两个子节点分别为左子节点及右子节点,所述左子节点卷积核为3*3,步长为1,右子节点卷积核为5*5,步长为2,本实施例中树结构为三层,最后得到23=8个不同分辨率的特征图,F0,F1,F2,F3,F4,F5,F6,F7,从F0到F7分辨率由大到小,也就是两幅图分别都得到八个不同分辨率的特征图。
若采用大于3层的结构则会得到大于等于24=16个不同分辨率的特征图,则最小的特征图分辨率会小于等于这样会产生很多没有用的过小分辨率的特征图,而且增加了很多的计算量。若采用小于3层的结构,则最后得到的特征图数量小于等于22=4个,不能充分地利用图像中地语义信息。因此采用3层结构最合适。
S3将左右两图通过树形神经网络后得到的八个不同分辨率的特征图作为输入通过分级代价聚合网络,先将低分辨率的左右特征图串联得到小的代价体积后用随机路径方向的SGM算法进行代价聚合得到稀疏的视差图,进而将获得的低分辨率的视差图与高分辨率的左右特征图串联得到代价体积,然后通过随机路径SGM算法得到稠密的视差图,依此类推最后得到精细化后的最终的视差图。
本实施例中具体的操作过程:
将左图及右图的低分辨率特征图F7,F6串联得到代价体积,然后将代价体积通过SGM算法得到低分辨率的稀疏视差图D0,进而将D0与特征图F5,F4一起串联得到新的代价体积后通过SGM算法后得到视差图D2,进而将D2与特征图F3,F2一起串联得到新的代价体积后通过SGM算法后得到视差图D3,最后将视差图D3与最高分辨率的特征图F1,F0串联得到代价体积,经过SGM算法得到最终的稠密视差图D_final。
所述分级代价聚合网络采用随机方向的SGM算法进行代价聚合,在得到costvolume的视差维度上,像素沿着某条路径r的路径代价计算:
其中,r表示某个指向当前像素p的方向,C(p,d)指当前像素点视差为d时,该像素点的匹配代价;
Lr(p,d)表示沿着当前方向r,当目前像素p的视差取值为d时,其最小代价值;
Lr(p-r,d)表示沿着方向r的当前像素p的前一个像素视差取值为d时,其最小的代价值;
Lr(p-r,d-1)表示沿着方向r的当前像素p的前一个像素视差取值为d-1时,其最小的代价值;
Lr(p-r,d+1)表示沿着方向r的当前像素p的前一个像素视差取值为d+1时,其最小的代价值;
Lr(p-r,i)表示沿着方向r的当前像素p的前一个像素视差值取i时,其最小的代价值;
以上都是在路径为r时,像素视差取不同值时的代价计算,由于在一张图片中,除边缘像素点外,一个像素点的相邻像素点有8个,所以现有技术大多采用8条不同路径进行计算。而这里采用不一样的策略,便是在8条路径中随机选取6条路径进行计算。
传统方法都是固定4或8条路径聚合,改进后采用6条随机方向的路径进行聚合,即减少了计算量,又保证了聚合时考虑的信息足够多,即感受野足够大。
总路径代价S计算公式:
其中S(p,d)表示6条随机路径的最小代价值的和,即像素点p视差值取d时的总路径代价。
S4每个像素选择最小代价值对应的视差最为该像素的视差,得到视差图D。
采用使得SGM能量函数最小的优化方法获得视差;
所述SGM的能量函数为:
其中,E(D)是视差图D对应的能量函数;
p,q代表图像中的某个像素,C(p,Dp)指当前像素点视差为Dp时,该像素点的匹配代价,P1是一个惩罚系数,它适用于像素p相邻像素中视差值与p的视差值相差1的那些像素,P2是一个惩罚系数,它适用于像素p相邻像素中视差值与p的视差值相差大于1的那些像素,Np指像素p的相邻像素点,I[]函数表示:如果函数中的参数为真返回1,否则返回0。
为了使能量函数最小,每个像素选择最小代价值对应的视差作为该像素的视差,得到视差图。
一种存储介质,用于存储一种基于树形神经网络结构的视差获取方法。
本发明的随机路径的半全局匹配代价聚合便可以较好地利用每个像素点周围的信息。
本方法采用傅里叶变换及随机路径的半全局匹配代价聚合进行立体匹配获取视差值,能较好地解决高光区域及遮挡区域的视差获取问题。
实施例2
本实施例公开了一种存储介质,存储有程序,所述程序被处理器执行时,实现实施例1所述的基于树形神经网络结构的视差获取方法。
视差获取方法,具体包括:
S1图像预处理,具体为:分别对左图L及右图R进行傅里叶变换,对图像进行滤波,再做逆变换,得到两张图像Lp与Rp;
S2通过树形神经网络提取图像特征,左图Lp和右图Rp分别得到八个不同分辨率的特征图F0,F1,F2,F3,F4,F5,F6,F7;
S3将得到的八个不同分辨率特征图作为输入通过分级代价聚合网络,最后得到精细化后的最终视差图;
S4每个像素选择最小代价值对应的视差最为该像素的视差,得到视差图D。
本实施例中的存储介质可以是磁盘、光盘、计算机存储器、只读存储器、随机存取存储器、U盘及移动硬盘等介质。
实施例3
本实施例公开了一种计算设备,包括处理器以及用于存储处理器可执行程序的存储器,其特征在于,所述处理器执行存储器的程序时,实现实施例1所述的视差获取方法。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受所述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (6)
1.一种基于树形神经网络结构的视差获取方法,其特征在于,包括如下步骤:
S1图像预处理,具体为:分别对左图L及右图R进行傅里叶变换,对图像进行滤波,再做逆变换,得到两张图像Lp与Rp;
S2通过树形神经网络提取图像特征,左图Lp和右图Rp分别得到八个不同分辨率的特征图F0,F1,F2,F3,F4,F5,F6,F7;
S3将得到的八个不同分辨率特征图作为输入通过分级代价聚合网络,最后得到精细化后的最终视差图;
所述分级代价聚合网络中采用随机方向的SGM算法进行代价聚合;
随机方向的SGM算法进行代价聚合,具体是:
在得到的cost volume的视差维度上,像素沿着某条路径r的路径代价计算:
其中,r表示某个指向当前像素p的方向,C(p,d)指当前像素点视差为d时,该像素点的匹配代价;
Lr(p,d)表示沿着当前方向r,当目前像素p的视差取值为d时,其最小代价值;
Lr(p-r,d)表示沿着方向r的当前像素p的前一个像素视差取值为d时,其最小的代价值;
Lr(p-r,d-1)表示沿着方向r的当前像素p的前一个像素视差取值为d-1时,其最小的代价值;
Lr(p-r,d+1)表示沿着方向r的当前像素p的前一个像素视差取值为d+1时,其最小的代价值;
Lr(p-r,i)表示沿着方向r的当前像素p的前一个像素视差值取i时,其最小的代价值;
总路径代价S计算公式:
其中S(p,d)表示6条随机路径的最小代价值的和,即像素点p视差值取d时的总路径代价;
S4每个像素选择最小代价值对应的视差最为该像素的视差,得到视差图D;所述S4,采用使得SGM能量函数最小的优化方法获得视差;
所述SGM的能量函数为:
其中,E(D)是视差图D对应的能量函数;
p,q代表图像中的某个像素,C(p,Dp)指当前像素点视差为Dp时,该像素点的匹配代价,P1是一个惩罚系数,它适用于像素p相邻像素中视差值与p的视差值相差1的那些像素,P2是一个惩罚系数,它适用于像素p相邻像素中视差值与p的视差值相差大于1的那些像素,Np指像素p的相邻像素点,I[]函数表示:如果函数中的参数为真返回1,否则返回0。
2.根据权利要求1所述的视差获取方法,其特征在于,所述树形神经网络类似数据结构中的二叉树,除了末节点每个节点都有两个子节点。
3.根据权利要求2所述的视差获取方法,其特征在于,两个子节点分别为左子节点及右子节点,左子节点卷积核为3*3,步长为1,右子节点卷积核为5*5,步长为2,通过3层树结构,最后得到23=8个不同分辨率的特征图,最终得到8个不同分辨率的特征图:F0,F1,F2,F3,F4,F5,F6,F7,从F0到F7分辨率由大到小。
4.根据权利要求1所述的视差获取方法,其特征在于,所述S3将得到的八个不同分辨率特征图作为输入通过分级代价聚合网络,最后得到精细化后的最终视差图,具体为:
将左图及右图的低分辨率特征图F7,F6串联得到代价体积,然后将代价体积通过SGM算法得到低分辨率的稀疏视差图D0,进而将D0与特征图F5,F4一起串联得到新的代价体积后通过SGM算法后得到视差图D2,进而将D2与特征图F3,F2一起串联得到新的代价体积后通过SGM算法后得到视差图D3,最后将视差图D3与最高分辨率的特征图F1,F0串联得到代价体积,经过SGM算法得到最终的稠密视差图D_final。
5.一种存储介质,存储有程序,其特征在于,所述程序被处理器执行
时,实现权利要求1-4任一项所述的基于树形神经网络结构的视差获取方法。
6.一种计算设备,包括处理器以及用于存储处理器可执行程序的存储器,其特征在于,所述处理器执行存储器的程序时,实现权利要求1至4中任一项所述的视差获取方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010534851.XA CN111915503B (zh) | 2020-06-12 | 2020-06-12 | 一种基于树形神经网络结构的视差获取方法、存储介质及计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010534851.XA CN111915503B (zh) | 2020-06-12 | 2020-06-12 | 一种基于树形神经网络结构的视差获取方法、存储介质及计算设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111915503A CN111915503A (zh) | 2020-11-10 |
CN111915503B true CN111915503B (zh) | 2023-08-22 |
Family
ID=73237638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010534851.XA Active CN111915503B (zh) | 2020-06-12 | 2020-06-12 | 一种基于树形神经网络结构的视差获取方法、存储介质及计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111915503B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106355570A (zh) * | 2016-10-21 | 2017-01-25 | 昆明理工大学 | 一种结合深度特征的双目立体视觉匹配方法 |
CN108846858A (zh) * | 2018-06-01 | 2018-11-20 | 南京邮电大学 | 一种计算机视觉的立体匹配算法 |
CN109584290A (zh) * | 2018-12-03 | 2019-04-05 | 北京航空航天大学 | 一种基于卷积神经网络的立体图像匹配方法 |
CN110176037A (zh) * | 2019-05-31 | 2019-08-27 | 东北大学 | 一种用于室外道路辅助驾驶的目标距离快速估算方法 |
CN110211168A (zh) * | 2019-06-04 | 2019-09-06 | 长春理工大学 | 一种基于改进匹配代价的分段树视差图获取方法 |
CN110473217A (zh) * | 2019-07-25 | 2019-11-19 | 沈阳工业大学 | 一种基于Census变换的双目立体匹配方法 |
CN111105452A (zh) * | 2019-11-26 | 2020-05-05 | 中山大学 | 基于双目视觉的高低分辨率融合立体匹配方法 |
-
2020
- 2020-06-12 CN CN202010534851.XA patent/CN111915503B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106355570A (zh) * | 2016-10-21 | 2017-01-25 | 昆明理工大学 | 一种结合深度特征的双目立体视觉匹配方法 |
CN108846858A (zh) * | 2018-06-01 | 2018-11-20 | 南京邮电大学 | 一种计算机视觉的立体匹配算法 |
CN109584290A (zh) * | 2018-12-03 | 2019-04-05 | 北京航空航天大学 | 一种基于卷积神经网络的立体图像匹配方法 |
CN110176037A (zh) * | 2019-05-31 | 2019-08-27 | 东北大学 | 一种用于室外道路辅助驾驶的目标距离快速估算方法 |
CN110211168A (zh) * | 2019-06-04 | 2019-09-06 | 长春理工大学 | 一种基于改进匹配代价的分段树视差图获取方法 |
CN110473217A (zh) * | 2019-07-25 | 2019-11-19 | 沈阳工业大学 | 一种基于Census变换的双目立体匹配方法 |
CN111105452A (zh) * | 2019-11-26 | 2020-05-05 | 中山大学 | 基于双目视觉的高低分辨率融合立体匹配方法 |
Non-Patent Citations (1)
Title |
---|
基于卷积神经网络的交通场景语义分割方法研究;李琳辉;钱波;连静;郑伟娜;周雅夫;;通信学报(第04期);第1-4页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111915503A (zh) | 2020-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10353271B2 (en) | Depth estimation method for monocular image based on multi-scale CNN and continuous CRF | |
Gupta et al. | Window‐based approach for fast stereo correspondence | |
WO2023159757A1 (zh) | 视差图生成方法和装置、电子设备及存储介质 | |
CN112734915A (zh) | 一种基于深度学习的多视角立体视觉三维场景重建方法 | |
CN114170311A (zh) | 一种双目立体匹配方法 | |
CN116310098A (zh) | 一种基于注意力机制与可变卷积深度网络的多视图三维重建方法 | |
CN116912405A (zh) | 一种基于改进MVSNet的三维重建方法及系统 | |
CN114937073A (zh) | 一种基于多分辨率自适应性的多视角立体重建网络模型MA-MVSNet的图像处理方法 | |
CN116310095A (zh) | 一种基于深度学习的多视图三维重建方法 | |
Xu et al. | Learning inverse depth regression for pixelwise visibility-aware multi-view stereo networks | |
Stathopoulou et al. | Multiple View Stereo with quadtree-guided priors | |
CN111915503B (zh) | 一种基于树形神经网络结构的视差获取方法、存储介质及计算设备 | |
Wang et al. | Improving deep stereo network generalization with geometric priors | |
Lin et al. | Matching cost filtering for dense stereo correspondence | |
Hallek et al. | Real-time stereo matching on CUDA using Fourier descriptors and dynamic programming | |
Lin et al. | A-SATMVSNet: An attention-aware multi-view stereo matching network based on satellite imagery | |
Perez-Patricio et al. | A fuzzy logic approach for stereo matching suited for real-time processing | |
Liu et al. | Incorporating co-visibility reasoning into surface depth measurement | |
CN113689329A (zh) | 一种用于稀疏点云增强的最短路径插值法 | |
Cheng et al. | An unsupervised stereo matching cost based on sparse representation | |
Zhang et al. | Geometry and context guided refinement for stereo matching | |
Lefebvre et al. | A 1D approach to correlation-based stereo matching | |
Shen et al. | Structure Preserving Large Imagery Reconstruction | |
CN111260711B (zh) | 一种弱监督可信代价传播的视差估计方法 | |
Lyra et al. | Development of an efficient 3D reconstruction solution from permissive open-source code |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |