CN111462211B - 一种基于卷积神经网络的双目视差计算方法 - Google Patents
一种基于卷积神经网络的双目视差计算方法 Download PDFInfo
- Publication number
- CN111462211B CN111462211B CN202010199730.4A CN202010199730A CN111462211B CN 111462211 B CN111462211 B CN 111462211B CN 202010199730 A CN202010199730 A CN 202010199730A CN 111462211 B CN111462211 B CN 111462211B
- Authority
- CN
- China
- Prior art keywords
- layer
- image
- convolution
- parallax
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 43
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 19
- 238000000034 method Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000002776 aggregation Effects 0.000 abstract description 3
- 238000004220 aggregation Methods 0.000 abstract description 3
- 230000004927 fusion Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于卷积神经网络的双目视差计算方法,通过采用并行的小膨胀卷积核对左右图像进行特征提取,同时在多尺度特征融合时加入Prewitt算子所提取的图像边缘特征强化双目图像的边缘特征信息,然后利用多尺度特征信息结合视差网络层构建4D cost volume,最后使用3D CNN模块进行代价聚合,得到双目图像的视差结果。
Description
技术领域
本发明涉及立体图像对的视差领域,具体涉及一种基于卷积神经网络的双目视差计算方法。
背景技术
现有的立体图像对的视差获取方法主要有传统立体匹配的方法和深度学习网络训练网络模型的方法。传统的立体匹配方法因为计算量大,耗时长,所以应对于实时的立体视差获取有一定难度。深度学习网络的视差计算方法,通过前期大量的数据训练,在实际使用获得双目视差时,可以快速准确的获得双目图像对的立体视差。目前的深度学习网络模型主要有端对端的卷积神经网络模型和卷积神经网络结合传统立体匹配算法的网络模型,这些网络模型在计算低纹理和反光区域的视差点时,容易因缺少特征点而无法获得准确视差。故需要一种可以确定低纹理和反光区域视差的深度学习网络模型对视差点进行计算。
发明内容
为了克服现有技术存在的缺点与不足,本发明目的是提供一种基于卷积神经网络的双目视差计算方法,相于现有的立体匹配视差计算方法具有快速性、准确性和鲁棒性的特点。
本发明采用如下技术方案:
一种基于卷积神经网络的双目视差计算方法,包括如下步骤:
S1利用膨胀级联卷积网络模块提取图像特征,得到左图特征数据FL和右图特征数据FR;
S2利用Prewitt算子提取左图和右图的图像边缘特征信息,生成左图边缘特征信息FLP和右图边缘特征信息FRP;
S3利用多尺度卷积网络提取图像边缘特征及图像特征中的信息,并进行融合,获得左图多尺度特征信息和右图多尺度特征信息;
S4根据左图多尺度特征信息、右图多尺度特征信息和视差网络层搭建4D CostVolume信息Fcost;
S5搭建3D CNN网络进行回归计算,获得每一层视差值的代价值Cd;
S6根据每层视差值对应的代价值Cd,利用Softmax函数将每一层视差值的代价值Cd映射到0-1区间,并对视差范围内所有的视差进行加权求和处理,进而获得双目视差结果。
所述S1中膨胀级联卷积网络模块为三层结构,第一层为一个3*3卷积核层,第二层为三个1*1卷积核层和三个3*3膨胀卷积核层并行组合,第三层为3*3卷积核层。
所述第二层中,一个1*1卷积核层为第一条并行通道,一个1*1卷积核层和一个3*3膨胀卷积核层串联组成第二条并行通道,一个1*1卷积核层和二个3*3膨胀卷积核层串联组成第三条并行通道。
所述3*3膨胀卷积核层的膨胀卷积计算是提取输入图像5*5像素矩阵中的间隔像素点进行卷积计算。
所述多尺度卷积网络包括五个卷积子网络、一个上采样层和一个卷积层。
所述五个卷积子网络分别提取原始特征图像1/2、1/4、1/8、1/16和1/32尺度下的特征图像,最后将得到的五个特征图输入上采样层统一特征图像大小,然后将特征图像输入卷积层输出。
所述视差网络层与左图多尺度特征信息图像大小相等。
所述搭建3D CNN网络进行回归计算,具体为:
采用损失函数Loss对4D Cost Volume信息Fcost进行回归计算,获得对应视差层的代价值Cd;
其中,加权求和公式为:
本发明的有益效果:
(1)本发明通过一种基于卷积神经网络的双目视差计算方法对图像的整体特征进行提取,同时对边缘特征进行强化。提升了图像低纹理和反光区域的内部视差计算准确度,准确性较高。
(2)本发明具有较强的鲁棒性,采用深度学习网络模型的方法使得本算法应对不同的图像低纹理和反光区域均可以取得较好的视差计算结果,鲁棒性强。
(3)本发明具有较强的快速性,采用膨胀卷积核的方法,在相同卷积计算量的情况下提升了卷积核的感受野,提升了网络模型的计算速度。
(4)本发明还具有较强的适用性,对于不同的低纹理和反光区域,采用Prewitt算子均可以有效地提取对应区域的边缘信息,适用性较强。
附图说明
图1是本发明中膨胀卷积核的计算示意图;
图2是膨胀级联卷积网络的示意图;
图3是本发明的工作流程图。
具体实施方式
下面结合实施例及附图,对本发明作进一步地详细说明,但本发明的实施方式不限于此。
实施例
如图2及图3所示,一种基于卷积神经网络的双目视差计算方法,包括如下步骤:
S1利用膨胀级联卷积网络模块提取图像特征,得到左图特征数据FL和右图特征数据FR:
所述膨胀级联卷积网络模块为三层结构,第一层为一个3*3卷积核层,第二层为三个1*1卷积核层和三个3*3膨胀卷积核层并行组合,第三层为3*3卷积核层,该膨胀级联卷积网络可以有效的提取不同感受野范围的视差信息,并进行特征融合,可以提升图像特征信息的丰富性。
所述第二层中,一个1*1卷积核层为第一条并行通道,一个1*1卷积核层和一个3*3膨胀卷积核层串联组成第二条并行通道,一个1*1卷积核层和二个3*3膨胀卷积核层串联组成第三条并行通道。
如图1所示,所述3*3膨胀卷积核层的膨胀卷积计算方式提取输入图像5*5像素矩阵中的间隔像素点进行卷积计算,其中1为5*5待提取像素点区域,其中a1、a2、a3、a4、a5、a6、a7、a8和a9为膨胀卷积核提取的像素点,2为膨胀卷积核的参数,其中k1、k2、k3、k4、k5、k6、k7、k8和k9为待提取像素对应的比例因子,3为膨胀卷积核提取结果,其中b5=a1*k1+a2*k2+a3*k3+a4*k4+a5*k5+a6*k6+a7*k7+a8*k8+a9*k9。
膨胀卷积核可以有效的提取图像初始特征信息。
本实施例采用两个膨胀级联卷积网络模块串联组成特征提取网络分别对左图和右图的图像特征进行提取,生成左图特征数据FL和右图特征数据FR。
S2利用Prewitt算子提取左图和右图的图像边缘特征信息,生成左图边缘特征信息FLP和右图边缘特征信息FRP;
采用的Prewitt算子计算方法为对于左右图像IL(x,y)和IR(x,y),Prewitt算子计算过程为先求取G(i)和G(j),然后利用FLP(i,j)=GL(i)+GL(j)和FRP(i,j)=GR(i)+GR(j)提取图像边缘。其中GL(i)、GL(j)、GR(i)和GR(j)分别代表左图的y轴方向的边缘特征,左图的x轴方向边缘特征,右图的y轴边缘特征和右图的x轴边缘特征,求取公式如下:
GL(i)={[IL(i-1,j-1)+IL(i-1,j)+IL(i-1,j+1)]-[IL(i+1,j-1)+IL(i+1,j)+IL(i+1,j+1)]};
GL(j)={[IL(i-1,j+1)+IL(i,j+1)+IL(i+1,j+1)]-[IL(i-1,j-1)+IL(i,j-1)+IL(i+1,j-1)]};
GR(i)={[IR(i-1,j-1)+IR(i-1,j)+IR(i-1,j+1)]-[IR(i+1,j-1)+IR(i+1,j)+IR(i+1,j+1)]};
GR(j)={[IR(i-1,j+1)+IR(i,j+1)+IR(i+1,j+1)]-[IR(i-1,j-1)+IR(i,j-1)+IR(i+1,j-1)]}。
S3利用多尺度卷积网络提取图像边缘特征及图像特征中的信息,并进行融合,获得左图多尺度特征信息FL-multi和右图多尺度特征信息FR-multi;
多尺度卷积网络所述多尺度卷积网络包括五个卷积子网络、一个上采样层和一个卷积层。五个卷积子网络分别提取原始特征图像1/2、1/4、1/8、1/16和1/32尺度下的特征图像,最后将得到的五个特征图输入上采样层统一特征图像大小,然后将特征图像输入卷积层输出。
S4构建4D Cost Volume:结合FL-multi、FR-multi和视差网络层D搭建4D Cost Volume信息Fcost。
S5搭建3D CNN网络进行回归计算:采用损失函数Loss对4D Cost Volume信息Fcost进行回归计算,获得对应视差层的代价值Cd。
S6计算对应像素点的视差值:根据每一层视差值对应的代价值Cd,利用Softmax函数将每一层视差的代价值Cd映射到0-1区间,并对视差范围内所有的视差进行加权求和处理,进而获得每一次训练的视差结果。
本实施例中视差网络层图像大小与FL-multi图像大小相等,通道数为输入训练数据的真实视差范围,该视差范围由双目相机的基线距离与焦距决定。
对整个神经网络进行训练,获得训练模型,具体是根据S1到S6,利用已知双目图像的视差数据对整个卷积神经网络进行训练,获得对应神经网络层的参数,确定模型,用于根据输入的双目图像获得对应视差图。
本发明通过采用并行的小膨胀卷积核对左右图像进行特征提取,同时在多尺度特征融合时加入Prewitt算子所提取的图像边缘特征强化双目图像的边缘特征信息。然后利用多尺度特征信息结合视差网络层构建4D cost volume,最后使用3D CNN模块进行代价聚合,得到双目图像的视差结果。这种方法可以提高卷积核特征提取的感受野,降低卷积计算的计算量,增强图像边缘特征信息的提取,为代价聚合网络提供可靠特征信息,有效地提高了视差计算网络的准确性。相比于其他卷积神经网络视差计算方法,该方法可以有效提升图像中物体边缘视差计算的准确性,且该网络结构具有很好的适应性。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受所述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (8)
1.一种基于卷积神经网络的双目视差计算方法,其特征在于,包括如下步骤:
S1利用膨胀级联卷积网络模块提取图像特征,得到左图特征数据FL和右图特征数据FR;
S2利用Prewitt算子提取左图和右图的图像边缘特征信息,生成左图边缘特征信息FLP和右图边缘特征信息FRP,具体为:
Prewitt算子先求取G(i)和G(j),然后利用FLP(i,j)=GL(i)+GL(j)和FRP(i,j)=GR(i)+GR(j)提取图像边缘,其中GL(i)、GL(j)、GR(i)和GR(j)分别代表左图的y轴方向的边缘特征,左图的x轴方向边缘特征,右图的y轴边缘特征和右图的x轴边缘特征,求取公式如下:
GL(i)={[IL(i-1,j-1)+IL(i-1,j)+IL(i-1,j+1)]-[IL(i+1,j-1)+IL
(i+1,j)+IL(i+1,j+1)]};
GL(j)={[IL(i-1,j+1)+IL(i,j+1)+IL(i+1,j+1)]-[IL(i-1,j-1)+IL(i,j-
1)+IL(i+1,j-1)]};
GR(i)={[IR(i-1,j-1)+IR(i-1,j)+IR(i-1,j+1)]-[IR(i+1,j-1)+IR
(i+1,j)+IR(i+1,j+1)]};
GR(j)={[IR(i-1,j+1)+IR(i,j+1)+IR(i+1,j+1)]-[IR(i-1,j-1)+IR(i,j-
1)+IR(i+1,j-1)]};
S3利用多尺度卷积网络提取图像边缘特征及图像特征中的信息,并进行融合,获得左图多尺度特征信息和右图多尺度特征信息;
S4根据左图多尺度特征信息、右图多尺度特征信息和视差网络层搭建4D Cost Volume信息Fcost;
S5搭建3D CNN网络进行回归计算,获得每一层视差值的代价值Cd;
S6根据每层视差值对应的代价值Cd,利用Softmax函数将每一层视差值的代价值Cd映射到0-1区间,并对视差范围内所有的视差进行加权求和处理,进而获得双目视差结果;
所述搭建3D CNN网络进行回归计算,具体为:
采用损失函数Loss对4D Cost Volume信息Fcost进行回归计算,获得对应视差层的代价值Cd;
2.根据权利要求1所述的双目视差计算方法,其特征在于,所述S1中膨胀级联卷积网络模块为三层结构,第一层为一个3*3卷积核层,第二层为三个1*1卷积核层和三个3*3膨胀卷积核层并行组合,第三层为3*3卷积核层。
3.根据权利要求2所述的双目视差计算方法,其特征在于,所述第二层中,一个1*1卷积核层为第一条并行通道,一个1*1卷积核层和一个3*3膨胀卷积核层串联组成第二条并行通道,一个1*1卷积核层和二个3*3膨胀卷积核层串联组成第三条并行通道。
4.根据权利要求2所述的双目视差计算方法,其特征在于,所述3*3膨胀卷积核层的膨胀卷积计算是提取输入图像5*5像素矩阵中的间隔像素点进行卷积计算。
5.根据权利要求1所述的双目视差计算方法,其特征在于,所述多尺度卷积网络包括五个卷积子网络、一个上采样层和一个卷积层。
6.根据权利要求5所述的双目视差计算方法,其特征在于,五个卷积子网络分别提取原始特征图像1/2、1/4、1/8、1/16和1/32尺度下的特征图像,最后将得到的五个特征图输入上采样层统一特征图像大小,然后将特征图像输入卷积层输出。
7.根据权利要求1所述的双目视差计算方法,其特征在于,所述视差网络层的图像与左图多尺度特征信息图像大小相等。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010199730.4A CN111462211B (zh) | 2020-03-20 | 2020-03-20 | 一种基于卷积神经网络的双目视差计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010199730.4A CN111462211B (zh) | 2020-03-20 | 2020-03-20 | 一种基于卷积神经网络的双目视差计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111462211A CN111462211A (zh) | 2020-07-28 |
CN111462211B true CN111462211B (zh) | 2023-04-28 |
Family
ID=71685666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010199730.4A Active CN111462211B (zh) | 2020-03-20 | 2020-03-20 | 一种基于卷积神经网络的双目视差计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111462211B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113177559B (zh) * | 2021-04-22 | 2023-06-02 | 重庆兆光科技股份有限公司 | 结合广度和密集卷积神经网络的图像识别方法、系统、设备及介质 |
CN113763446B (zh) * | 2021-08-17 | 2024-03-29 | 沈阳工业大学 | 一种基于引导信息的立体匹配方法 |
CN117078984B (zh) * | 2023-10-17 | 2024-02-02 | 腾讯科技(深圳)有限公司 | 双目图像处理方法、装置、电子设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106355570A (zh) * | 2016-10-21 | 2017-01-25 | 昆明理工大学 | 一种结合深度特征的双目立体视觉匹配方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017182274A (ja) * | 2016-03-29 | 2017-10-05 | セイコーエプソン株式会社 | 情報処理装置およびコンピュータープログラム |
-
2020
- 2020-03-20 CN CN202010199730.4A patent/CN111462211B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106355570A (zh) * | 2016-10-21 | 2017-01-25 | 昆明理工大学 | 一种结合深度特征的双目立体视觉匹配方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111462211A (zh) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111462211B (zh) | 一种基于卷积神经网络的双目视差计算方法 | |
CN112270249B (zh) | 一种融合rgb-d视觉特征的目标位姿估计方法 | |
CN109472819B (zh) | 一种基于级联几何上下文神经网络的双目视差估计方法 | |
CN107220997B (zh) | 一种立体匹配方法及系统 | |
CN109598754B (zh) | 一种基于深度卷积网络的双目深度估计方法 | |
CN105528785A (zh) | 一种双目视觉图像立体匹配方法 | |
CN110197505B (zh) | 基于深度网络及语义信息的遥感图像双目立体匹配方法 | |
CN106408513B (zh) | 深度图超分辨率重建方法 | |
CN108734776A (zh) | 一种基于散斑的三维人脸重建方法及设备 | |
CN111046767B (zh) | 一种基于单目图像的3d目标检测方法 | |
CN111985551B (zh) | 一种基于多重注意力网络的立体匹配算法 | |
CN106952247B (zh) | 一种双摄像头终端及其图像处理方法和系统 | |
CN113592026A (zh) | 一种基于空洞卷积和级联代价卷的双目视觉立体匹配方法 | |
CN111105451B (zh) | 一种克服遮挡效应的驾驶场景双目深度估计方法 | |
CN111914913B (zh) | 一种新型立体匹配优化方法 | |
CN113763446B (zh) | 一种基于引导信息的立体匹配方法 | |
CN111583313A (zh) | 一种基于PSMNet改进的双目立体匹配方法 | |
CN106600632A (zh) | 一种改进匹配代价聚合的立体匹配算法 | |
CN109146937A (zh) | 一种基于深度学习的电力巡检影像密集匹配方法 | |
CN112270701B (zh) | 基于分组距离网络的视差预测方法、系统及存储介质 | |
CN108681753B (zh) | 一种基于语义分割及神经网络的图像立体匹配方法及系统 | |
CN104200453A (zh) | 基于图像分割和可信度的视差图像校正方法 | |
CN114187208B (zh) | 基于融合代价和自适应惩罚项系数的半全局立体匹配方法 | |
CN111368882A (zh) | 一种基于简化独立成分分析和局部相似性的立体匹配方法 | |
CN117132737B (zh) | 一种三维建筑模型构建方法、系统及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |