CN113887568A - 一种各向异性卷积的双目图像立体匹配方法 - Google Patents
一种各向异性卷积的双目图像立体匹配方法 Download PDFInfo
- Publication number
- CN113887568A CN113887568A CN202111054945.8A CN202111054945A CN113887568A CN 113887568 A CN113887568 A CN 113887568A CN 202111054945 A CN202111054945 A CN 202111054945A CN 113887568 A CN113887568 A CN 113887568A
- Authority
- CN
- China
- Prior art keywords
- convolution
- scale
- cost
- layer
- anisotropic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000004220 aggregation Methods 0.000 claims abstract description 52
- 230000002776 aggregation Effects 0.000 claims abstract description 50
- 238000006116 polymerization reaction Methods 0.000 claims abstract description 41
- 238000000605 extraction Methods 0.000 claims description 27
- 230000004927 fusion Effects 0.000 claims description 14
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 8
- 241000282326 Felis catus Species 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 230000000379 polymerizing effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种各向异性卷积的双目图像立体匹配方法,步骤包括:1)提取左视图和右视图的多尺度特征;2)融合左视图和右视图的多尺度特征;3)构建多尺度代价体;4)对多尺度代价体进行各向异性聚合;5)对各向异性代价体进行多尺度聚合;6)采用变形卷积对多尺度级联聚合代价体进行再次聚合;7)生成视差图,至此,完成左右视图之间的立体匹配,获得了更加准确的视差图。本发明的方法,使用各向异性卷积进行代价聚合,利用各向异性卷积丰富的感受野形状,去契合图像中形状多变的同质区域和视差边界,聚合得到更加准确的匹配代价,以获得更加准确的视差图。
Description
技术领域
本发明属于图像立体匹配技术领域,涉及一种各向异性卷积的双目图像立体匹配方法。
背景技术
图像立体匹配技术是指根据双目相机对同一立体场景拍摄到的左视图和右视图,自动确定左、右两幅视图之间所有像素的对应关系的方法,获得的结果是用视差图描述描述的左右两幅视图像素之间的对应关系;图像立体匹配技术是计算机视觉的核心技术之一,在实际生产和生活中具有重要意义和广泛应用,如在智能制造、自动驾驶、机器人导航、三维测量、三维重建、虚拟现实和增强现实等领域具有广泛的应用价值;在获取左右视图像素对应关系时,当前的绝大多数方法使用形状固定的卷积核对代价体进行卷积以获得最终的聚合代价,进而得出左右视图像素之间的对应关系,即视差图;然而,形状固定的卷积核无法很好地契合图像中形状多变的同质区域和边界,对精度要求较高的场合,最终所得的视差图难以满足精度要求。
发明内容
本发明的目的是提供一种各向异性卷积的双目图像立体匹配方法,解决了现有技术在图像立体匹配过程中使用形状固定的卷积核,导致所得视差图难以满足精度要求的问题。
本发明所采用的技术方案是,一种各向异性卷积的双目图像立体匹配方法,按照以下步骤实施:
步骤1、提取左视图和右视图的多尺度特征;
步骤2、融合左视图和右视图的多尺度特征;
步骤3、构建多尺度代价体;
步骤4、对多尺度代价体进行各向异性聚合;
步骤5、对各向异性代价体进行多尺度聚合;
步骤6、采用变形卷积对多尺度级联聚合代价体进行再次聚合;
步骤7、生成视差图,完成左右视图之间的立体匹配,获得更加准确的视差图。
本发明的有益效果是,使用各向异性卷积进行代价聚合,利用各向异性卷积丰富的感受野形状,去契合图像中形状多变的同质区域和视差边界,聚合得到更加准确的匹配代价,以获得更加准确的视差图。
附图说明
图1是本发明方法的总体流程框图;
图2是本发明方法中AANet网络的特征提取模块流程框图;
图3是本发明方法中通过各向异性卷积进行代价聚合的流程框图;
图4是本发明方法中各向异性卷积模块流程框图;
图5是本发明方法中AANet网络的变形卷积代价聚合的流程框图;
图6是本发明方法中StereoDRNet网络的视差精确化操作流程框图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
参照图1,本发明的各向异性卷积的双目图像立体匹配方法,按照以下步骤实施:
步骤1、提取左视图和右视图的多尺度特征,
针对同一个立体场景拍摄的左视图和右视图提取多尺度特征,可选的特征提取模块包括AANet网络的特征提取模块、GA-Net网络的特征提取模块、StereoNet网络的特征提取模块等(均为现有技术,可在公开发表的论文中检索到);
本步骤以AANet网络的特征提取模块为例进行说明,处理流程如图2所示,具体过程是:
1.1)提取左视图和右视图的一尺度特征,
其中,H1=k1·H0,W1=k1×W0,k1由卷积步长确定,优选k1=1/2或者k1=1/3;C1为通道数,优选C1=128,也可依据平衡网络的复杂度与特征提取效果自行选择;
1.2)提取左视图和右视图的二尺度特征,
其中,H2=k2·H0,W2=k2·W0,k2由卷积步长确定,优选k2=k1/2;C2为通道数,优选C2=2·C1,也可依据平衡网络的复杂度与特征提取效果自行选择;
1.3)提取左视图和右视图的三尺度特征,
其中,H2=k3·H0,W2=k3·W0,k3由卷积步长确定,优选k3=k2/2;C3为通道数,优选C3=2·C2,也可依据平衡网络的复杂度与特征提取效果自行选择;
步骤2、融合左视图和右视图的多尺度特征,具体过程是,
2.1)将多尺度特征降维至通道数相同,
2.2)将多尺度特征进行融合,
步骤3、构建多尺度代价体,
其中,是步骤2得到的左视图的尺度为s的融合特征在(h,w,c)处的值,s=1,2,3,是步骤2得到的右视图的尺度为s的融合特征在(h,w-d,c)处的值,Cs(h,w,d)是尺度为s的左视图融合特征在(h,w,c)处与右视图融合特征在(h,w-d,c)处的匹配代价,d为视差值,d∈[0,Ds-1],Ds表示尺度为s的左视图右视图匹配时的最大视差范围,对于三个尺度,本步骤优选D1=64,D2=32,D3=16;
步骤4、对多尺度代价体进行各向异性聚合,
4.3)将代价体经过主对角卷积层、BatchNorm层、Relu层处理后,得到主对角线聚合代价体s=1,2,3,其中,主对角线卷积层是指尺寸为kc×kc的卷积核中除主对角线元素外,其余元素全部固定为0的卷积运算层;
4.4)将代价体经过反对角卷积层、BatchNorm层、Relu层处理后,得到反对角线聚合代价体s=1,2,3,其中,反对角卷积层是指尺寸为kc×kc的卷积核中除反对角线元素外,其余元素全部固定为0的卷积运算层;
4.6)将异向卷积代价体Cs cat,1输入到第2级各向异性卷积模块中,第2级各向异性卷积模块结构同第1级各向异性卷积模块,输出为异向卷积代价体Cs cat,2,s=1,2,3,大小为Hs×Ws×3Ds;
4.7)将异向卷积代价体Cs cat,2输入到第3级各向异性卷积模块中,第3级各向异性卷积模块结构同第1级各向异性卷积模块,如此迭代进行,共经过NC个各向异性卷积模块级联处理后,输出各向异性代价体s=1,2,3,大小为Hs×Ws×(NC+1)·Ds;NC是经验值,考虑了网络复杂度和处理效果,本发明优选NC=4;
步骤5、对各向异性代价体进行多尺度聚合,
5.2)对步骤5.1)得到的尺度内聚合代价体Cs inner进行尺度间代价聚合,得到尺度间聚合代价体Cs intra,s=1,2,3,大小为Hs×Ws×Ds,表达式如下:
其中,函数fs,k(·)是为了对齐不同尺度代价体的空间尺寸而引入的操作函数,表达式如下:
5.3)多尺度聚合代价体的级联聚合,
将步骤5.2)得到的尺度间聚合代价体Cs intra输入到第2级各向异性代价聚合模块中,再将第2级各向异性代价聚合模块的输出,输入到第3级各向异性代价聚合模块中,如此级联进行,共经过NT个各向异性代价聚合模块级联处理后,最终得到多尺度级联聚合代价体s=1,2,3,大小为Hs×Ws×Ds;
步骤6、采用变形卷积对多尺度级联聚合代价体进行再次聚合,
按照AANet网络的变形卷积代价聚合流程(AANet网络为现有技术,可在公开发表的论文中检索到),对步骤5.3)得到的多尺度级联聚合代价体进行进一步的代价聚合,AANet网络的变形卷积代价聚合流程由3个结构相同的变形卷积代价聚合模块级联组成,具体过程是,
6.1)第1级变形卷积代价聚合模块的处理流程是,
6.1.1)尺度内代价聚合,
分别将步骤5.3)得到的多尺度级联聚合代价体输入到变形卷积子模块中进行尺度内代价聚合,得到尺度内代价聚合后的尺度内聚合代价体其中,如图5所示,变形卷积子模块由1×1卷积层、3×3变形卷积层、3×3卷积层、BatchNorm层、Relu层组成;
6.1.2)尺度间代价聚合,
6.2)级联处理,
将步骤6.1.2)得到的多尺度代价体(即第1级变形卷积代价聚合模块的输出),输入到第2级变形卷积代价聚合模块中,再将第2级变形卷积代价聚合模块的输出,输入到第3级变形卷积代价聚合模块中,将第3级变形卷积代价聚合模块输出的多尺度代价体,作为本步骤最终输出的多尺度代价体,记为s=1,2,3;
步骤7、生成视差图,具体过程是,
7.1)计算视差,
通过Soft argmin操作(Soft argmin操作为现有技术,可在公开发表的论文中检索到),利用步骤6最终得到的多尺度代价体计算视差,得到多尺度视差图大小为Hs×Ws,Soft argmin操作的表达式如下:
其中,σ(·)表示softmax归一化操作;
7.2)进行视差精确化,
视差精确化的操作可任选Hourglass视差精确化方法、StereoNet网络的视差精确化方法或StereoDRNet网络的视差精确化方法,(均为现有技术,可在公开发表的论文中检索到);
本步骤以StereoDRNet网络的视差精确化方法为例对视差精确化方法进行说明,处理流程如图6所示,具体过程是,
对步骤7.1)得到的多尺度视差图中尺度为s=1的视差图进行双线性插值上采样(现有技术),得到与左、右视图尺寸相同的视差图再利用视差图和右视图通过warp操作(为现有技术)对左视图进行重建,得到重建的左视图warp操作的表达式如下:
7.2.2)通道提升和通道拼接,
将步骤7.2.1)得到的视差图输入第1卷积子模块,该第1卷积子模块由3×3卷积层、BatchNorm层、LeakyRelu层(为现有技术)级联而成的,输出C5个通道的视差特征矩阵C5为经验值,本发明优选C5=16;
同时,将步骤7.1)得到的重建误差IE与左图像IL进行通道拼接(即在第三个维度上进行拼接)后,输入第2卷积子模块,该第2卷积子模块由3×3卷积层、BatchNorm层、LeakyRelu层级联而成,输出C5个通道的特征矩阵
7.2.3)通过空洞卷积综合上下文信息,
将步骤7.2.2)得到的综合特征矩阵输入空洞卷积残差模块,输出视差残差图如图6所示,空洞卷积残差模块由6个空洞卷积残差块、一个3×3卷积层、一个BatchNorm层级联组成,6个空洞卷积残差块的膨胀参数分别为1、2、4、8、1、1;
至此,完成左右视图之间的立体匹配,获得了更加准确的视差图。
Claims (8)
1.一种各向异性卷积的双目图像立体匹配方法,其特征在于,按照以下步骤实施:
步骤1、提取左视图和右视图的多尺度特征;
步骤2、融合左视图和右视图的多尺度特征;
步骤3、构建多尺度代价体;
步骤4、对多尺度代价体进行各向异性聚合;
步骤5、对各向异性代价体进行多尺度聚合;
步骤6、采用变形卷积对多尺度级联聚合代价体进行再次聚合;
步骤7、生成视差图,完成左右视图之间的立体匹配,获得了更加准确的视差图。
2.根据权利要求1所述的各向异性卷积的双目图像立体匹配方法,其特征在于:所述的步骤1中,针对同一个立体场景拍摄的左视图和右视图提取多尺度特征,任选特征提取模块包括AANet网络的特征提取模块、GA-Net网络的特征提取模块或StereoNet网络的特征提取模块;
本步骤以AANet网络的特征提取模块为例进行说明,具体过程是:
1.1)提取左视图和右视图的一尺度特征,
其中,H1=k1·H0,W1=k1×W0,k1由卷积步长确定,优选k1=1/2或者k1=1/3;C1为通道数;
1.2)提取左视图和右视图的二尺度特征,
其中,H2=k2·H0,W2=k2·W0,k2由卷积步长确定,优选k2=k1/2;C2为通道数;
1.3)提取左视图和右视图的三尺度特征,
其中,H2=k3·H0,W2=k3·W0,k3由卷积步长确定,优选k3=k2/2;C3为通道数。
3.根据权利要求1所述的各向异性卷积的双目图像立体匹配方法,其特征在于:所述的步骤2的具体过程是,
2.1)将多尺度特征降维至通道数相同,
2.2)将多尺度特征进行融合,
5.根据权利要求1所述的各向异性卷积的双目图像立体匹配方法,其特征在于:所述的步骤4的具体过程是,
4.3)将代价体经过主对角卷积层、BatchNorm层、Relu层处理后,得到主对角线聚合代价体s=1,2,3,其中,主对角线卷积层是指尺寸为kc×kc的卷积核中除主对角线元素外,其余元素全部固定为0的卷积运算层;
4.4)将代价体经过反对角卷积层、BatchNorm层、Relu层处理后,得到反对角线聚合代价体s=1,2,3,其中,反对角卷积层是指尺寸为kc×kc的卷积核中除反对角线元素外,其余元素全部固定为0的卷积运算层;
其中,拼接后的Cs cat,1的大小为Hs×Ws×2Ds;
4.6)将异向卷积代价体Cs cat,1输入到第2级各向异性卷积模块中,第2级各向异性卷积模块结构同第1级各向异性卷积模块,输出为异向卷积代价体Cs cat,2,s=1,2,3,大小为Hs×Ws×3Ds;
6.根据权利要求1所述的各向异性卷积的双目图像立体匹配方法,其特征在于:所述的步骤5的具体过程是,
5.2)对步骤5.1)得到的尺度内聚合代价体Cs inner进行尺度间代价聚合,得到尺度间聚合代价体Cs intra,s=1,2,3,大小为Hs×Ws×Ds,表达式如下:
其中,函数fs,k(·)是为了对齐不同尺度代价体的空间尺寸而引入的操作函数,表达式如下:
5.3)多尺度聚合代价体的级联聚合,
7.根据权利要求1所述的各向异性卷积的双目图像立体匹配方法,其特征在于:所述的步骤6的具体过程是,
6.1)第1级变形卷积代价聚合模块的处理流程是,
6.1.1)尺度内代价聚合,
分别将步骤5.3)得到的多尺度级联聚合代价体输入到变形卷积子模块中进行尺度内代价聚合,得到尺度内代价聚合后的尺度内聚合代价体其中,变形卷积子模块由1×1卷积层、3×3变形卷积层、3×3卷积层、BatchNorm层、Relu层组成;
6.1.2)尺度间代价聚合,
6.2)级联处理,
8.根据权利要求1所述的各向异性卷积的双目图像立体匹配方法,其特征在于:所述的步骤7的具体过程是,
7.1)计算视差,
其中,σ(·)表示softmax归一化操作;
7.2)进行视差精确化,
视差精确化的操作任选Hourglass视差精确化方法、StereoNet网络的视差精确化方法或StereoDRNet网络的视差精确化方法,
本步骤以StereoDRNet网络的视差精确化方法为例对视差精确化方法进行说明,具体过程是,
对步骤7.1)得到的多尺度视差图中尺度为s=1的视差图进行双线性插值上采样,得到与左、右视图尺寸相同的视差图再利用视差图和右视图通过warp操作对左视图进行重建,得到重建的左视图warp操作的表达式如下:
7.2.2)通道提升和通道拼接,
7.2.3)通过空洞卷积综合上下文信息,
将步骤7.2.2)得到的综合特征矩阵输入空洞卷积残差模块,输出视差残差图空洞卷积残差模块由6个空洞卷积残差块、一个3×3卷积层、一个BatchNorm层级联组成,6个空洞卷积残差块的膨胀参数分别为1、2、4、8、1、1;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111054945.8A CN113887568B (zh) | 2021-09-09 | 2021-09-09 | 一种各向异性卷积的双目图像立体匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111054945.8A CN113887568B (zh) | 2021-09-09 | 2021-09-09 | 一种各向异性卷积的双目图像立体匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113887568A true CN113887568A (zh) | 2022-01-04 |
CN113887568B CN113887568B (zh) | 2024-02-06 |
Family
ID=79008871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111054945.8A Active CN113887568B (zh) | 2021-09-09 | 2021-09-09 | 一种各向异性卷积的双目图像立体匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113887568B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116704000A (zh) * | 2023-08-04 | 2023-09-05 | 东莞市爱培科技术有限公司 | 一种无监督学习遮挡区域的立体匹配方法 |
CN116740162A (zh) * | 2023-08-14 | 2023-09-12 | 东莞市爱培科技术有限公司 | 一种基于多尺度代价卷的立体匹配方法及计算机存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2020100274A4 (en) * | 2020-02-25 | 2020-03-26 | Huang, Shuying DR | A Multi-Scale Feature Fusion Network based on GANs for Haze Removal |
CN111402129A (zh) * | 2020-02-21 | 2020-07-10 | 西安交通大学 | 一种基于联合上采样卷积神经网络的双目立体匹配方法 |
CN112288690A (zh) * | 2020-10-14 | 2021-01-29 | 武汉大学 | 一种融合多尺度多层级特征的卫星影像密集匹配方法 |
CN112767253A (zh) * | 2021-02-05 | 2021-05-07 | 西南科技大学 | 一种多尺度特征融合的双目图像超分辨率重建方法 |
-
2021
- 2021-09-09 CN CN202111054945.8A patent/CN113887568B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111402129A (zh) * | 2020-02-21 | 2020-07-10 | 西安交通大学 | 一种基于联合上采样卷积神经网络的双目立体匹配方法 |
AU2020100274A4 (en) * | 2020-02-25 | 2020-03-26 | Huang, Shuying DR | A Multi-Scale Feature Fusion Network based on GANs for Haze Removal |
CN112288690A (zh) * | 2020-10-14 | 2021-01-29 | 武汉大学 | 一种融合多尺度多层级特征的卫星影像密集匹配方法 |
CN112767253A (zh) * | 2021-02-05 | 2021-05-07 | 西南科技大学 | 一种多尺度特征融合的双目图像超分辨率重建方法 |
Non-Patent Citations (4)
Title |
---|
习路;陆济湘;涂婷;: "基于多尺度卷积神经网络的立体匹配方法", 计算机工程与设计, no. 09 * |
姚莉;刘助奎;王秉凤;: "基于金字塔变换跨尺度代价聚合的立体匹配", 系统仿真学报, no. 09 * |
段中兴;齐嘉麟;: "基于多尺度卷积神经网络的立体匹配算法研究", 计算机测量与控制, no. 09 * |
王金鹤;苏翠丽;孟凡云;车志龙;谭浩;张楠;: "基于非对称空间金字塔池化的立体匹配网络", 计算机工程, no. 07 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116704000A (zh) * | 2023-08-04 | 2023-09-05 | 东莞市爱培科技术有限公司 | 一种无监督学习遮挡区域的立体匹配方法 |
CN116704000B (zh) * | 2023-08-04 | 2023-10-03 | 东莞市爱培科技术有限公司 | 一种无监督学习遮挡区域的立体匹配方法 |
CN116740162A (zh) * | 2023-08-14 | 2023-09-12 | 东莞市爱培科技术有限公司 | 一种基于多尺度代价卷的立体匹配方法及计算机存储介质 |
CN116740162B (zh) * | 2023-08-14 | 2023-11-14 | 东莞市爱培科技术有限公司 | 一种基于多尺度代价卷的立体匹配方法及计算机存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113887568B (zh) | 2024-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109472819B (zh) | 一种基于级联几何上下文神经网络的双目视差估计方法 | |
CN110570522B (zh) | 一种多视图三维重建方法 | |
CN103236082B (zh) | 面向捕获静止场景的二维视频的准三维重建方法 | |
CN110533712A (zh) | 一种基于卷积神经网络的双目立体匹配方法 | |
CN112150521B (zh) | 一种基于PSMNet优化的图像立体匹配方法 | |
CN109598754B (zh) | 一种基于深度卷积网络的双目深度估计方法 | |
CN101902657B (zh) | 一种基于深度图分层的虚拟多视点图像的生成方法 | |
CN112435282A (zh) | 一种基于自适应候选视差预测网络的实时双目立体匹配方法 | |
CN111402311B (zh) | 一种基于知识蒸馏的轻量级立体视差估计方法 | |
CN111259945A (zh) | 引入注意力图谱的双目视差估计方法 | |
CN113887568A (zh) | 一种各向异性卷积的双目图像立体匹配方法 | |
CN112767253B (zh) | 一种多尺度特征融合的双目图像超分辨率重建方法 | |
CN113592026A (zh) | 一种基于空洞卷积和级联代价卷的双目视觉立体匹配方法 | |
CN113763446B (zh) | 一种基于引导信息的立体匹配方法 | |
CN112509021B (zh) | 一种基于注意力机制的视差优化方法 | |
CN110738241A (zh) | 一种基于神经网络的双目立体视觉匹配方法及其运算框架 | |
CN115984494A (zh) | 一种基于深度学习的月面导航影像三维地形重建方法 | |
CN113762358A (zh) | 一种基于相对深度训练的半监督学习三维重建方法 | |
CN109949354B (zh) | 一种基于全卷积神经网络的光场深度信息估计方法 | |
CN114926669A (zh) | 一种基于深度学习的高效散斑匹配方法 | |
CN114820323A (zh) | 一种基于立体注意力机制的多尺度残差双目图像超分辨率方法 | |
CN104796624A (zh) | 一种光场编辑传播方法 | |
CN118429763A (zh) | 基于注意力机制的多尺度特征融合光场图像深度估计方法 | |
CN117152580A (zh) | 双目立体视觉匹配网络构建方法及双目立体视觉匹配方法 | |
CN116630388A (zh) | 基于深度学习的热成像图像双目视差估计方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |