CN111462211B - 一种基于卷积神经网络的双目视差计算方法 - Google Patents

一种基于卷积神经网络的双目视差计算方法 Download PDF

Info

Publication number
CN111462211B
CN111462211B CN202010199730.4A CN202010199730A CN111462211B CN 111462211 B CN111462211 B CN 111462211B CN 202010199730 A CN202010199730 A CN 202010199730A CN 111462211 B CN111462211 B CN 111462211B
Authority
CN
China
Prior art keywords
layer
image
convolution
parallax
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010199730.4A
Other languages
English (en)
Other versions
CN111462211A (zh
Inventor
杜娟
汤永超
谭笑宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202010199730.4A priority Critical patent/CN111462211B/zh
Publication of CN111462211A publication Critical patent/CN111462211A/zh
Application granted granted Critical
Publication of CN111462211B publication Critical patent/CN111462211B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络的双目视差计算方法,通过采用并行的小膨胀卷积核对左右图像进行特征提取,同时在多尺度特征融合时加入Prewitt算子所提取的图像边缘特征强化双目图像的边缘特征信息,然后利用多尺度特征信息结合视差网络层构建4D cost volume,最后使用3D CNN模块进行代价聚合,得到双目图像的视差结果。

Description

一种基于卷积神经网络的双目视差计算方法
技术领域
本发明涉及立体图像对的视差领域,具体涉及一种基于卷积神经网络的双目视差计算方法。
背景技术
现有的立体图像对的视差获取方法主要有传统立体匹配的方法和深度学习网络训练网络模型的方法。传统的立体匹配方法因为计算量大,耗时长,所以应对于实时的立体视差获取有一定难度。深度学习网络的视差计算方法,通过前期大量的数据训练,在实际使用获得双目视差时,可以快速准确的获得双目图像对的立体视差。目前的深度学习网络模型主要有端对端的卷积神经网络模型和卷积神经网络结合传统立体匹配算法的网络模型,这些网络模型在计算低纹理和反光区域的视差点时,容易因缺少特征点而无法获得准确视差。故需要一种可以确定低纹理和反光区域视差的深度学习网络模型对视差点进行计算。
发明内容
为了克服现有技术存在的缺点与不足,本发明目的是提供一种基于卷积神经网络的双目视差计算方法,相于现有的立体匹配视差计算方法具有快速性、准确性和鲁棒性的特点。
本发明采用如下技术方案:
一种基于卷积神经网络的双目视差计算方法,包括如下步骤:
S1利用膨胀级联卷积网络模块提取图像特征,得到左图特征数据FL和右图特征数据FR
S2利用Prewitt算子提取左图和右图的图像边缘特征信息,生成左图边缘特征信息FLP和右图边缘特征信息FRP
S3利用多尺度卷积网络提取图像边缘特征及图像特征中的信息,并进行融合,获得左图多尺度特征信息和右图多尺度特征信息;
S4根据左图多尺度特征信息、右图多尺度特征信息和视差网络层搭建4D CostVolume信息Fcost
S5搭建3D CNN网络进行回归计算,获得每一层视差值的代价值Cd
S6根据每层视差值对应的代价值Cd,利用Softmax函数将每一层视差值的代价值Cd映射到0-1区间,并对视差范围内所有的视差进行加权求和处理,进而获得双目视差结果。
所述S1中膨胀级联卷积网络模块为三层结构,第一层为一个3*3卷积核层,第二层为三个1*1卷积核层和三个3*3膨胀卷积核层并行组合,第三层为3*3卷积核层。
所述第二层中,一个1*1卷积核层为第一条并行通道,一个1*1卷积核层和一个3*3膨胀卷积核层串联组成第二条并行通道,一个1*1卷积核层和二个3*3膨胀卷积核层串联组成第三条并行通道。
所述3*3膨胀卷积核层的膨胀卷积计算是提取输入图像5*5像素矩阵中的间隔像素点进行卷积计算。
所述多尺度卷积网络包括五个卷积子网络、一个上采样层和一个卷积层。
所述五个卷积子网络分别提取原始特征图像1/2、1/4、1/8、1/16和1/32尺度下的特征图像,最后将得到的五个特征图输入上采样层统一特征图像大小,然后将特征图像输入卷积层输出。
所述视差网络层与左图多尺度特征信息图像大小相等。
所述搭建3D CNN网络进行回归计算,具体为:
采用损失函数Loss对4D Cost Volume信息Fcost进行回归计算,获得对应视差层的代价值Cd
其中,损失函数Loss为
Figure BDA0002418954220000021
其中N为视差层数,di为当前像素点真实视差视差,
Figure BDA0002418954220000022
为当前像素点预估视差。
其中,加权求和公式为:
Figure BDA0002418954220000023
其中σ为Softmax函数。
本发明的有益效果:
(1)本发明通过一种基于卷积神经网络的双目视差计算方法对图像的整体特征进行提取,同时对边缘特征进行强化。提升了图像低纹理和反光区域的内部视差计算准确度,准确性较高。
(2)本发明具有较强的鲁棒性,采用深度学习网络模型的方法使得本算法应对不同的图像低纹理和反光区域均可以取得较好的视差计算结果,鲁棒性强。
(3)本发明具有较强的快速性,采用膨胀卷积核的方法,在相同卷积计算量的情况下提升了卷积核的感受野,提升了网络模型的计算速度。
(4)本发明还具有较强的适用性,对于不同的低纹理和反光区域,采用Prewitt算子均可以有效地提取对应区域的边缘信息,适用性较强。
附图说明
图1是本发明中膨胀卷积核的计算示意图;
图2是膨胀级联卷积网络的示意图;
图3是本发明的工作流程图。
具体实施方式
下面结合实施例及附图,对本发明作进一步地详细说明,但本发明的实施方式不限于此。
实施例
如图2及图3所示,一种基于卷积神经网络的双目视差计算方法,包括如下步骤:
S1利用膨胀级联卷积网络模块提取图像特征,得到左图特征数据FL和右图特征数据FR
所述膨胀级联卷积网络模块为三层结构,第一层为一个3*3卷积核层,第二层为三个1*1卷积核层和三个3*3膨胀卷积核层并行组合,第三层为3*3卷积核层,该膨胀级联卷积网络可以有效的提取不同感受野范围的视差信息,并进行特征融合,可以提升图像特征信息的丰富性。
所述第二层中,一个1*1卷积核层为第一条并行通道,一个1*1卷积核层和一个3*3膨胀卷积核层串联组成第二条并行通道,一个1*1卷积核层和二个3*3膨胀卷积核层串联组成第三条并行通道。
如图1所示,所述3*3膨胀卷积核层的膨胀卷积计算方式提取输入图像5*5像素矩阵中的间隔像素点进行卷积计算,其中1为5*5待提取像素点区域,其中a1、a2、a3、a4、a5、a6、a7、a8和a9为膨胀卷积核提取的像素点,2为膨胀卷积核的参数,其中k1、k2、k3、k4、k5、k6、k7、k8和k9为待提取像素对应的比例因子,3为膨胀卷积核提取结果,其中b5=a1*k1+a2*k2+a3*k3+a4*k4+a5*k5+a6*k6+a7*k7+a8*k8+a9*k9。
膨胀卷积核可以有效的提取图像初始特征信息。
本实施例采用两个膨胀级联卷积网络模块串联组成特征提取网络分别对左图和右图的图像特征进行提取,生成左图特征数据FL和右图特征数据FR
S2利用Prewitt算子提取左图和右图的图像边缘特征信息,生成左图边缘特征信息FLP和右图边缘特征信息FRP
采用的Prewitt算子计算方法为对于左右图像IL(x,y)和IR(x,y),Prewitt算子计算过程为先求取G(i)和G(j),然后利用FLP(i,j)=GL(i)+GL(j)和FRP(i,j)=GR(i)+GR(j)提取图像边缘。其中GL(i)、GL(j)、GR(i)和GR(j)分别代表左图的y轴方向的边缘特征,左图的x轴方向边缘特征,右图的y轴边缘特征和右图的x轴边缘特征,求取公式如下:
GL(i)={[IL(i-1,j-1)+IL(i-1,j)+IL(i-1,j+1)]-[IL(i+1,j-1)+IL(i+1,j)+IL(i+1,j+1)]};
GL(j)={[IL(i-1,j+1)+IL(i,j+1)+IL(i+1,j+1)]-[IL(i-1,j-1)+IL(i,j-1)+IL(i+1,j-1)]};
GR(i)={[IR(i-1,j-1)+IR(i-1,j)+IR(i-1,j+1)]-[IR(i+1,j-1)+IR(i+1,j)+IR(i+1,j+1)]};
GR(j)={[IR(i-1,j+1)+IR(i,j+1)+IR(i+1,j+1)]-[IR(i-1,j-1)+IR(i,j-1)+IR(i+1,j-1)]}。
S3利用多尺度卷积网络提取图像边缘特征及图像特征中的信息,并进行融合,获得左图多尺度特征信息FL-multi和右图多尺度特征信息FR-multi
多尺度卷积网络所述多尺度卷积网络包括五个卷积子网络、一个上采样层和一个卷积层。五个卷积子网络分别提取原始特征图像1/2、1/4、1/8、1/16和1/32尺度下的特征图像,最后将得到的五个特征图输入上采样层统一特征图像大小,然后将特征图像输入卷积层输出。
S4构建4D Cost Volume:结合FL-multi、FR-multi和视差网络层D搭建4D Cost Volume信息Fcost
S5搭建3D CNN网络进行回归计算:采用损失函数Loss对4D Cost Volume信息Fcost进行回归计算,获得对应视差层的代价值Cd
其中,损失函数Loss为
Figure BDA0002418954220000051
Figure BDA0002418954220000052
其中N为视差层数,di为当前像素点真实视差,
Figure BDA0002418954220000053
为当前像素点预估视差。
S6计算对应像素点的视差值:根据每一层视差值对应的代价值Cd,利用Softmax函数将每一层视差的代价值Cd映射到0-1区间,并对视差范围内所有的视差进行加权求和处理,进而获得每一次训练的视差结果。
视差加权求和的公式为
Figure BDA0002418954220000054
其中σ为Softmax函数。
本实施例中视差网络层图像大小与FL-multi图像大小相等,通道数为输入训练数据的真实视差范围,该视差范围由双目相机的基线距离与焦距决定。
对整个神经网络进行训练,获得训练模型,具体是根据S1到S6,利用已知双目图像的视差数据对整个卷积神经网络进行训练,获得对应神经网络层的参数,确定模型,用于根据输入的双目图像获得对应视差图。
本发明通过采用并行的小膨胀卷积核对左右图像进行特征提取,同时在多尺度特征融合时加入Prewitt算子所提取的图像边缘特征强化双目图像的边缘特征信息。然后利用多尺度特征信息结合视差网络层构建4D cost volume,最后使用3D CNN模块进行代价聚合,得到双目图像的视差结果。这种方法可以提高卷积核特征提取的感受野,降低卷积计算的计算量,增强图像边缘特征信息的提取,为代价聚合网络提供可靠特征信息,有效地提高了视差计算网络的准确性。相比于其他卷积神经网络视差计算方法,该方法可以有效提升图像中物体边缘视差计算的准确性,且该网络结构具有很好的适应性。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受所述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (8)

1.一种基于卷积神经网络的双目视差计算方法,其特征在于,包括如下步骤:
S1利用膨胀级联卷积网络模块提取图像特征,得到左图特征数据FL和右图特征数据FR
S2利用Prewitt算子提取左图和右图的图像边缘特征信息,生成左图边缘特征信息FLP和右图边缘特征信息FRP,具体为:
Prewitt算子先求取G(i)和G(j),然后利用FLP(i,j)=GL(i)+GL(j)和FRP(i,j)=GR(i)+GR(j)提取图像边缘,其中GL(i)、GL(j)、GR(i)和GR(j)分别代表左图的y轴方向的边缘特征,左图的x轴方向边缘特征,右图的y轴边缘特征和右图的x轴边缘特征,求取公式如下:
GL(i)={[IL(i-1,j-1)+IL(i-1,j)+IL(i-1,j+1)]-[IL(i+1,j-1)+IL
(i+1,j)+IL(i+1,j+1)]};
GL(j)={[IL(i-1,j+1)+IL(i,j+1)+IL(i+1,j+1)]-[IL(i-1,j-1)+IL(i,j-
1)+IL(i+1,j-1)]};
GR(i)={[IR(i-1,j-1)+IR(i-1,j)+IR(i-1,j+1)]-[IR(i+1,j-1)+IR
(i+1,j)+IR(i+1,j+1)]};
GR(j)={[IR(i-1,j+1)+IR(i,j+1)+IR(i+1,j+1)]-[IR(i-1,j-1)+IR(i,j-
1)+IR(i+1,j-1)]};
S3利用多尺度卷积网络提取图像边缘特征及图像特征中的信息,并进行融合,获得左图多尺度特征信息和右图多尺度特征信息;
S4根据左图多尺度特征信息、右图多尺度特征信息和视差网络层搭建4D Cost Volume信息Fcost
S5搭建3D CNN网络进行回归计算,获得每一层视差值的代价值Cd
S6根据每层视差值对应的代价值Cd,利用Softmax函数将每一层视差值的代价值Cd映射到0-1区间,并对视差范围内所有的视差进行加权求和处理,进而获得双目视差结果;
所述搭建3D CNN网络进行回归计算,具体为:
采用损失函数Loss对4D Cost Volume信息Fcost进行回归计算,获得对应视差层的代价值Cd
其中,损失函数Loss为
Figure FDA0004053732170000021
其中N为视差层数,di为当前像素点真实视差,
Figure FDA0004053732170000022
为当前像素点预估视差。
2.根据权利要求1所述的双目视差计算方法,其特征在于,所述S1中膨胀级联卷积网络模块为三层结构,第一层为一个3*3卷积核层,第二层为三个1*1卷积核层和三个3*3膨胀卷积核层并行组合,第三层为3*3卷积核层。
3.根据权利要求2所述的双目视差计算方法,其特征在于,所述第二层中,一个1*1卷积核层为第一条并行通道,一个1*1卷积核层和一个3*3膨胀卷积核层串联组成第二条并行通道,一个1*1卷积核层和二个3*3膨胀卷积核层串联组成第三条并行通道。
4.根据权利要求2所述的双目视差计算方法,其特征在于,所述3*3膨胀卷积核层的膨胀卷积计算是提取输入图像5*5像素矩阵中的间隔像素点进行卷积计算。
5.根据权利要求1所述的双目视差计算方法,其特征在于,所述多尺度卷积网络包括五个卷积子网络、一个上采样层和一个卷积层。
6.根据权利要求5所述的双目视差计算方法,其特征在于,五个卷积子网络分别提取原始特征图像1/2、1/4、1/8、1/16和1/32尺度下的特征图像,最后将得到的五个特征图输入上采样层统一特征图像大小,然后将特征图像输入卷积层输出。
7.根据权利要求1所述的双目视差计算方法,其特征在于,所述视差网络层的图像与左图多尺度特征信息图像大小相等。
8.根据权利要求1所述的双目视差计算方法,其特征在于,加权求和公式为:
Figure FDA0004053732170000023
其中σ为Softmax函数。
CN202010199730.4A 2020-03-20 2020-03-20 一种基于卷积神经网络的双目视差计算方法 Active CN111462211B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010199730.4A CN111462211B (zh) 2020-03-20 2020-03-20 一种基于卷积神经网络的双目视差计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010199730.4A CN111462211B (zh) 2020-03-20 2020-03-20 一种基于卷积神经网络的双目视差计算方法

Publications (2)

Publication Number Publication Date
CN111462211A CN111462211A (zh) 2020-07-28
CN111462211B true CN111462211B (zh) 2023-04-28

Family

ID=71685666

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010199730.4A Active CN111462211B (zh) 2020-03-20 2020-03-20 一种基于卷积神经网络的双目视差计算方法

Country Status (1)

Country Link
CN (1) CN111462211B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113177559B (zh) * 2021-04-22 2023-06-02 重庆兆光科技股份有限公司 结合广度和密集卷积神经网络的图像识别方法、系统、设备及介质
CN113763446B (zh) * 2021-08-17 2024-03-29 沈阳工业大学 一种基于引导信息的立体匹配方法
CN117078984B (zh) * 2023-10-17 2024-02-02 腾讯科技(深圳)有限公司 双目图像处理方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355570A (zh) * 2016-10-21 2017-01-25 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182274A (ja) * 2016-03-29 2017-10-05 セイコーエプソン株式会社 情報処理装置およびコンピュータープログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355570A (zh) * 2016-10-21 2017-01-25 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法

Also Published As

Publication number Publication date
CN111462211A (zh) 2020-07-28

Similar Documents

Publication Publication Date Title
CN111462211B (zh) 一种基于卷积神经网络的双目视差计算方法
CN112270249B (zh) 一种融合rgb-d视觉特征的目标位姿估计方法
CN109472819B (zh) 一种基于级联几何上下文神经网络的双目视差估计方法
CN107220997B (zh) 一种立体匹配方法及系统
CN109598754B (zh) 一种基于深度卷积网络的双目深度估计方法
CN105528785A (zh) 一种双目视觉图像立体匹配方法
CN110197505B (zh) 基于深度网络及语义信息的遥感图像双目立体匹配方法
CN106408513B (zh) 深度图超分辨率重建方法
CN108734776A (zh) 一种基于散斑的三维人脸重建方法及设备
CN111046767B (zh) 一种基于单目图像的3d目标检测方法
CN111985551B (zh) 一种基于多重注意力网络的立体匹配算法
CN106952247B (zh) 一种双摄像头终端及其图像处理方法和系统
CN113592026A (zh) 一种基于空洞卷积和级联代价卷的双目视觉立体匹配方法
CN111105451B (zh) 一种克服遮挡效应的驾驶场景双目深度估计方法
CN111914913B (zh) 一种新型立体匹配优化方法
CN113763446B (zh) 一种基于引导信息的立体匹配方法
CN111583313A (zh) 一种基于PSMNet改进的双目立体匹配方法
CN106600632A (zh) 一种改进匹配代价聚合的立体匹配算法
CN109146937A (zh) 一种基于深度学习的电力巡检影像密集匹配方法
CN112270701B (zh) 基于分组距离网络的视差预测方法、系统及存储介质
CN108681753B (zh) 一种基于语义分割及神经网络的图像立体匹配方法及系统
CN104200453A (zh) 基于图像分割和可信度的视差图像校正方法
CN114187208B (zh) 基于融合代价和自适应惩罚项系数的半全局立体匹配方法
CN111368882A (zh) 一种基于简化独立成分分析和局部相似性的立体匹配方法
CN117132737B (zh) 一种三维建筑模型构建方法、系统及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant