CN111105453B - 一种获取视差图的方法 - Google Patents

一种获取视差图的方法 Download PDF

Info

Publication number
CN111105453B
CN111105453B CN201811251929.6A CN201811251929A CN111105453B CN 111105453 B CN111105453 B CN 111105453B CN 201811251929 A CN201811251929 A CN 201811251929A CN 111105453 B CN111105453 B CN 111105453B
Authority
CN
China
Prior art keywords
pixel
census
window
support window
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811251929.6A
Other languages
English (en)
Other versions
CN111105453A (zh
Inventor
宋燕
于修成
李航
胡浍冕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN201811251929.6A priority Critical patent/CN111105453B/zh
Publication of CN111105453A publication Critical patent/CN111105453A/zh
Application granted granted Critical
Publication of CN111105453B publication Critical patent/CN111105453B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本申请提供了一种获取视差图的方法,能够将左、右视点图像中像素点的支持窗口内像素加权平均灰度值作为支持窗口的Census变换参考值,其中的权重根据支持窗口内的空间差异信息和像素差异信息确定,并根据支持窗口的Census变换参考值获取相应的变换比特串,再根据获取的左、右视点图像的变换比特串之间的汉明距离,获取初始图像匹配代价,再进一步获取视差图,从而使得获取的比特串包含了更多的状态信息,改善了Census变换的匹配精度,算法的计算效率更高,更适合用于移动平台或实时性要求较高的应用领域。

Description

一种获取视差图的方法
技术领域
本申请涉及计算机视觉领域,尤其涉及一种获取视差图的方法。
背景技术
立体视觉是计算机视觉领域的一个至关重要的分支,它是一种通过模拟人类视觉原理、使用计算机被动感知距离的技术,立体视觉从两个或多个点观察同一个物体,从而获取不同视角下的物体图像,再根据图像之间像素的匹配关系找到对应的匹配点,从而得到像素之间的偏差,再进一步通过三角测量即可获取物体的景深信息。
立体匹配是立体视觉的关键技术步骤,目的是在物体图像对中找到同源点。20世纪80年代,美国麻省理工学院的学者Marr提出一种计算机理论并应用在双目匹配中,从而可以使两张有视差的平面图产生具有深度的立体图形,从而奠定了双目立体匹配技术发展的理论基础,随着双目立体匹配理论的不断发展,双目立体匹配算法也得到了持续不断地优化。
立体匹配的过程可以分为四个步骤,分别为:代价计算、代价聚合、视差选择或优化以及视差强化。代价计算是在视差范围内计算疑似匹配点之间的代价。代价聚合是通过固定框或其他的聚合方式聚合匹配代价。代价选择是在视差范围内选择最小代价对应的视差作为该像素点的视差值。代价优化是通过优化能量函数来求解视差图。视差强化是对初始视差图进行左右一致性检测、空洞填充等。
双目立体匹配算法中最常用的算法是Census变换算法,该算法将物体图像对的中心像素灰度值与支持窗口内所有像素进行比较、生成匹配模板,然后进行非参数变换获得比特串,最后通过比特串之间汉明距离计算匹配代价,该算法对中心像素的依赖性强,抗干扰能力差。学者Chang等人提出用支持窗口内所有像素的均值作为参考值的算法(MCT),MCT算法将邻域像素信息融入参考值的计算,进一步提高了单像素匹配代价的可靠性,但不能很好地利用中心像素与邻域像素之间的关系。学者Fan等人提出用支持窗口内所有像素的加权平均灰度值作为参考值的算法(SWCT),其中权重由支持窗口内像素的空间信息决定,SWCT算法进一步提高了Census算法的稳健性,但忽略了窗口内邻域像素与中间像素的差异信息,效果比较一般。
发明内容
本申请的一个目的是提供一种获取视差图的方法,用于解决现有技术下立体匹配算法匹配精度低、易受噪声影响的问题。
为实现上述目的,本申请提供了一种获取视差图的方法,其中,该方法包括:
获取左视点图像中的第一像素点,并计算以第一像素点为中心点的第一支持窗口内像素加权平均灰度值,将所述像素加权平均灰度值作为第一支持窗口的Census变换参考值,其中的权重根据第一支持窗口内空间差异信息和像素差异信息确定;并根据所述第一支持窗口的Census变换参考值,获取所述第一支持窗口的第一Census变换比特串;
获取右视点图像中与所述第一像素点对应的第二像素点,并计算以所述第二像素点为中心点的第二支持窗口内像素加权平均灰度值,将所述像素加权平均灰度值作为第二支持窗口的Census变换参考值,其中的权重根据第二支持窗口内空间差异信息和像素差异信息确定;并根据所述第二支持窗口的Census变换参考值,获取所述第二支持窗口的第二Census变换比特串;
根据所述第一Census变换比特串和所述第二Census变换比特串的汉明距离,获取初始图像匹配代价;
根据所述初始图像匹配代价,获取视差图。
进一步地,所述左视点图像和右视点图像通过双目设备获取,并进行了预先校正。
进一步地,所述Census变换参考值Iwm的计算公式如下:
Figure BDA0001841880300000021
其中,Iwm为用于Census变换的参考值,p为支持窗口内中心像素索引,q为支持窗口内邻域像素索引,Wpq为像素p、q之间的权重,D=∑Wpq为归一化常数,即所有权重之和,N为支持窗口内所有像素,Iq为像素索引q的像素值。
进一步地,所述权重Wpq的计算公式如下:
Wpq=exp[-||p-q||22rp 2-(Ip-Iq)22rc 2],
其中,Wpq为像素p、q之间的权重,p为支持窗口内中心像素索引,q为支持窗口内邻域像素索引,||p-q||为像素p、q之间的欧氏距离,rp为空间标准差,Ip为像素索引p的像素值,Iq为像素索引q的像素值,rc为像素标准差。
进一步地,根据所述第一支持窗口的Census变换参考值,计算所述第一支持窗口的第一Census变换比特串,包括:
根据所述第一支持窗口的Census变换参考值和噪声容限,计算所述第一支持窗口的第一Census变换比特串ccen(p),ccen(p)的计算公式如下:
Figure BDA0001841880300000031
其中,
Figure BDA0001841880300000032
Figure BDA0001841880300000033
表示按位连接,Iwm为用于Census变换的参考值,N′为第一支持窗口内的邻域像素,Iq为邻域像素值,α为噪声容限,Imax为图像像素灰度值的最大值,p为第一支持窗口内中心像素索引。
进一步地,根据所述第一Census变换比特串和所述第二Census变换比特串的汉明距离,获取初始图像匹配代价,包括:
根据所述第一Census变换比特串ccen(p)和所述第二Census变换比特串ccen(p-d)的汉明距离,获取初始图像匹配代价C(p,d),C(p,d)的计算公式如下:
C(p,d)=1-exp(-min{Ham[ccen(p),ccen(p-d)],Tcen}λ),
其中,其中C(p,d)为像素点p在视差为d时的初始图像匹配代价,d∈[0,dmax],其中dmax为最大视差,Ham[x,y]为计算比特串x和y的汉明距离的函数,Tcen为截断阈值,λ为控制离群值参数。
进一步地,根据所述初始图像匹配代价,获取视差图,包括:
根据所述初始图像匹配代价,通过归一化函数得到最终图像匹配代价;
根据所述最终图像匹配代价,进行代价聚合和视差选择,获取视差图。
进一步地,进行代价聚合,包括:
使用最小生成树算法进行代价聚合。
与现有技术相比,本申请提供的方案能够将左、右视点图像中像素点的支持窗口内像素加权平均灰度值作为支持窗口的Census变换参考值,其中的权重根据支持窗口内的空间差异信息和像素差异信息确定,并根据支持窗口的Census变换参考值获取相应的变换比特串,再根据获取的左、右视点图像的变换比特串之间的汉明距离,获取初始图像匹配代价,再进一步获取视差图,从而使得获取的比特串包含了更多的状态信息,改善了Census变换的匹配精度,算法的计算效率更高,更适合用于移动平台或实时性要求较高的应用领域。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1为本申请实施例提供的一种获取视差图的方法的流程图。
图2为本申请实施例提供的多种立体匹配算法得到的视差图。
具体实施方式
下面结合附图对本申请作进一步详细描述。
在本申请一个典型的配置中,终端、服务网络的设备和可信方均包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括非暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
本申请提供了一种获取视差图的方法,如图1所示,该方法具体包括如下步骤:
步骤S101,获取左视点图像中的第一像素点,并计算以第一像素点为中心点的第一支持窗口内像素加权平均灰度值,将所述像素加权平均灰度值作为第一支持窗口的Census变换参考值,其中的权重根据第一支持窗口内空间差异信息和像素差异信息确定;并根据所述第一支持窗口的Census变换参考值,获取所述第一支持窗口的第一Census变换比特串;
步骤S102,获取右视点图像中与所述第一像素点对应的第二像素点,并计算以所述第二像素点为中心点的第二支持窗口内像素加权平均灰度值,将所述像素加权平均灰度值作为第二支持窗口的Census变换参考值,其中的权重根据第二支持窗口内空间差异信息和像素差异信息确定;并根据所述第二支持窗口的Census变换参考值,获取所述第二支持窗口的第二Census变换比特串;
步骤S103,根据所述第一Census变换比特串和所述第二Census变换比特串的汉明距离,获取初始图像匹配代价;
步骤S104,根据所述初始图像匹配代价,获取视差图。
在本申请的实施例中,左视点图像和右视点图像通过双目设备获取,并进行了预先校正。在此,双目设备可为双目相机、双目摄像头等可从不同视角获取同一物体图像的设备。左视点图像为通过双目设备的左镜头拍摄的图像,右视点图像为通过双目设备的右镜头拍摄的图像。
在步骤S101中,首先获取左视点图像中的第一像素点,并计算以第一像素点为中心点的第一支持窗口内像素加权平均灰度值,将像素加权平均灰度值作为第一支持窗口的Census变换参考值。这里的第一像素点和第一支持窗口只是用于与右视点图像中的第二像素点和第二支持窗口进行区分,并不存在顺序上的关系。
本申请的实施例中,首先从双目设备中读取两幅校正过后的左视点图像和右视点图像,对于左视点图像中的第一像素点p,具体通过以下公式计算以p为中心的支持窗口内像素加权平均灰度值,将像素加权平均灰度值作为第一支持窗口的Census变换参考值Iwm
Figure BDA0001841880300000061
其中,Iwm为用于Census变换的参考值,p为支持窗口内中心像素索引,q为支持窗口内邻域像素索引,Wpq为像素p、q之间的权重,D=∑Wpq为归一化常数,即所有权重之和,N为支持窗口内所有像素,Iq为像素索引q的像素值。
在此,像素加权平均灰度值中的权重根据第一支持窗口内空间差异信息和像素差异信息确定,即根据如下公式计算权重Wpq
Wpq=exp[-||p-q||22rp 2-(Ip-Iq)22rc 2],
其中,Wpq为像素p、q之间的权重,p为支持窗口内中心像素索引,q为支持窗口内邻域像素索引,||p-q||为像素p、q之间的欧氏距离,rp为空间标准差,Ip为像素索引p的像素值,Iq为像素索引q的像素值,rc为像素标准差。
在步骤S101中,获取Census变换参考值之后,再根据该Census变换参考值,获取所述第一支持窗口的第一Census变换比特串。这里,第一Census变换比特串用于与根据右视点图像获取的第二Census变换比特串进行区分,并无顺序上的关系。本申请实施例中,具体来说,可根据第一支持窗口的Census变换参考值和噪声容限,计算第一支持窗口的第一Census变换比特串ccen(p),ccen(p)的计算公式如下:
Figure BDA0001841880300000062
其中,
Figure BDA0001841880300000071
Figure BDA0001841880300000072
表示按位连接,Iwm为用于Census变换的参考值,N′为第一支持窗口内的邻域像素,Iq为邻域像素值,α为噪声容限,Imax为图像像素灰度值的最大值,p为第一支持窗口内中心像素索引。
在此,本申请实施例中,通过为Census变换参考值加入一定的噪声容限以及图像像素最大灰度值,使得其生成的比特串包含四种状态信息,而传统的Census变换得到的比特串只包含两种状态信息,由于采用了更多的支持窗口信息得到Census变换参考值,使得图像匹配精度进一步提高,并且在有一定噪声的情况下表现出较好的稳健性。
在步骤S102中,获取右视点图像中与所述第一像素点对应的第二像素点,并计算以所述第二像素点为中心点的第二支持窗口内像素加权平均灰度值,将所述像素加权平均灰度值作为第二支持窗口的Census变换参考值,其中的权重根据第二支持窗口内空间差异信息和像素差异信息确定;并根据所述第二支持窗口的Census变换参考值,获取所述第二支持窗口的第二Census变换比特串。
在此,由于计算第二Census变换比特串的处理过程与计算第一Census变换比特串的处理过程相同,例如采用的计算公式和具体参数都相同,因此步骤S102的实施可参照步骤S101的实施,在此不再赘述。
在步骤S103中,根据第一Census变换比特串和第二Census变换比特串的汉明距离,获取初始图像匹配代价。本申请实施例中,具体处理方式如下:
根据第一Census变换比特串ccen(p)和第二Census变换比特串ccen(p-d)的汉明距离,获取初始图像匹配代价C(p,d),对于左视点图像中的第一像素点p,当视差为d时的匹配代价C(p,d),C(p,d)的计算公式如下:
C(p,d)=1-exp(-min{Ham[ccen(p),ccen(p-d)],Tcen}λ),
其中,C(p,d)为像素点p在视差为d时的初始图像匹配代价,d∈[0,dmax],其中dmax为最大视差,Ham[x,y]为计算比特串x和y的汉明距离的函数,Tcen为截断阈值,λ为控制离群值参数。
在步骤S104中,根据初始图像匹配代价,获取视差图。本申请实施例中,具体包括如下步骤:
根据初始图像匹配代价,通过归一化函数得到最终图像匹配代价;
根据最终图像匹配代价,进行代价聚合和视差选择,获取视差图。
在此,本申请实施例中,可采用多种算法进行代价聚合,例如盒子滤波算法、最小生成树算法等。优选地,可使用最小生成树算法进行代价聚合。
优选地,视差选择可采用多种视差选择算法,例如WTA(Winner Takes All,胜者为王)算法。
本申请实施例中,图2示出了通过Middlebury平台获取的多种立体匹配算法的视差图,其中(a)为Middlebury测试数据原图,(b)为其对应的真实视差图,(c)、(d)、(e)分别为传统Census变换、SWCT算法、本申请实施例得到的视差图。如下表1示出了多种立体匹配算法在经典立体图像对(Tsukuba、Venus、Teddy、Cones)上的匹配精度数据,表2示出了多种立体匹配算法的抗噪数据。由图2及表1、表2中数据可看出,本申请实施例的方案中图像匹配精度更好,抗噪性能更佳。
Algorithm 传统Census SWCT Proposed
Tsukuba 2.84 3.31 1.13
Venus 1.53 2.41 1.25
Teddy 7.39 9.51 7.06
Cones 4.58 5.78 5.16
Avg 4.08 5.25 3.65
表1
Algorithm CT SWCT Proposed
Tsukuba 3.93 7.56 2.38
Venus 2.21 6.01 2.01
Teddy 8.93 14.55 8.87
Cones 5.08 8.44 4.87
Avg 5.03 9.14 4.53
表2
与现有技术相比,本申请提供的方案能够将左、右视点图像中像素点的支持窗口内像素加权平均灰度值作为支持窗口的Census变换参考值,其中的权重根据支持窗口内的空间差异信息和像素差异信息确定,并根据支持窗口的Census变换参考值获取相应的变换比特串,再根据获取的左、右视点图像的变换比特串之间的汉明距离,获取初始图像匹配代价,再进一步获取视差图,从而使得获取的比特串包含了更多的状态信息,改善了Census变换的匹配精度,算法的计算效率更高,更适合用于移动平台或实时性要求较高的应用领域。
需要注意的是,本申请可在软件和/或软件与硬件的组合体中被实施,例如,可采用专用集成电路(ASIC)、通用目的计算机或任何其他类似硬件设备来实现。在一个实施例中,本申请的软件程序可以通过处理器执行以实现上文所述步骤或功能。同样地,本申请的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中,例如,RAM存储器,磁或光驱动器或软磁盘及类似设备。另外,本申请的一些步骤或功能可采用硬件来实现,例如,作为与处理器配合从而执行各个步骤或功能的电路。
另外,本申请的一部分可被应用为计算机程序产品,例如计算机程序指令,当其被计算机执行时,通过该计算机的操作,可以调用或提供根据本申请的方法和/或技术方案。而调用本申请的方法的程序指令,可能被存储在固定的或可移动的记录介质中,和/或通过广播或其他信号承载媒体中的数据流而被传输,和/或被存储在根据所述程序指令运行的计算机设备的工作存储器中。在此,根据本申请的一个实施例包括一个设备,该设备包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该设备运行基于前述根据本申请的多个实施例的方法和/或技术方案。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其他的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。装置权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。

Claims (7)

1.一种获取视差图的方法,其中,该方法包括:
获取左视点图像中的第一像素点,并计算以第一像素点为中心点的第一支持窗口内像素加权平均灰度值,将所述像素加权平均灰度值作为第一支持窗口的Census变换参考值,其中的权重根据第一支持窗口内空间差异信息和像素差异信息确定,所述权重的计算公式如下:
Wpq=exp[-||p-q||2/2rp 2-(Ip-Iq)2/2rc 2],
其中,Wpq为像素p、q之间的权重,p为支持窗口内中心像素索引,q为支持窗口内邻域像素索引,||p-q||为像素p、q之间的欧氏距离,rp为空间标准差,Ip为像素索引p的像素值,Iq为像素索引q的像素值,rc为像素标准差;并根据所述第一支持窗口的Census变换参考值,获取所述第一支持窗口的第一Census变换比特串;
获取右视点图像中与所述第一像素点对应的第二像素点,并计算以所述第二像素点为中心点的第二支持窗口内像素加权平均灰度值,将所述像素加权平均灰度值作为第二支持窗口的Census变换参考值,其中的权重根据第二支持窗口内空间差异信息和像素差异信息确定,所述权重的计算公式如下:
Wpq=exp[-||p-q||2/2rp 2-(Ip-Iq)2/2rc 2],
其中,Wpq为像素p、q之间的权重,p为支持窗口内中心像素索引,q为支持窗口内邻域像素索引,||p-q||为像素p、q之间的欧氏距离,rp为空间标准差,Ip为像素索引p的像素值,Iq为像素索引q的像素值,rc为像素标准差;并根据所述第二支持窗口的Census变换参考值,获取所述第二支持窗口的第二Census变换比特串;
根据所述第一Census变换比特串和所述第二Census变换比特串的汉明距离,获取初始图像匹配代价;
根据所述初始图像匹配代价,获取视差图。
2.根据权利要求1所述的方法,其中,所述左视点图像和右视点图像通过双目设备获取,并进行了预先校正。
3.根据权利要求1所述的方法,其中,所述Census变换参考值Iwm的计算公式如下:
Figure FDA0004135974460000021
其中,Iwm为用于Census变换的参考值,p为支持窗口内中心像素索引,q为支持窗口内邻域像素索引,Wpq为像素p、q之间的权重,D=∑Wpq为归一化常数,即所有权重之和,N为支持窗口内所有像素,Iq为像素索引q的像素值。
4.根据权利要求1所述的方法,其中,根据所述第一支持窗口的Census变换参考值,计算所述第一支持窗口的第一Census变换比特串,包括:
根据所述第一支持窗口的Census变换参考值和噪声容限,计算所述第一支持窗口的第一Census变换比特串ccen(p),ccen(p)的计算公式如下:
Figure FDA0004135974460000022
其中,
Figure FDA0004135974460000023
Figure FDA0004135974460000024
表示按位连接,Iwm为用于Census变换的参考值,N′为第一支持窗口内的邻域像素,Iq为邻域像素值,α为噪声容限,Imax为图像像素灰度值的最大值,p为第一支持窗口内中心像素索引。
5.根据权利要求4所述的方法,其中,根据所述第一Census变换比特串和所述第二Census变换比特串的汉明距离,获取初始图像匹配代价,包括:
根据所述第一Census变换比特串ccen(p)和所述第二Census变换比特串ccen(p-d)的汉明距离,获取初始图像匹配代价C(p,d),C(p,d)的计算公式如下:
C(p,d)=1-exp(-min{Ham[ccen(p),ccen(p-d)],Tcen}/λ),
其中,C(p,d)为像素点p在视差为d时的初始图像匹配代价,d∈[0,dmax],其中dmax为最大视差,Ham[x,y]为计算比特串x和y的汉明距离的函数,Tcen为截断阈值,λ为控制离群值参数。
6.根据权利要求1所述的方法,其中,根据所述初始图像匹配代价,获取视差图,包括:
根据所述初始图像匹配代价,通过归一化函数得到最终图像匹配代价;
根据所述最终图像匹配代价,进行代价聚合和视差选择,获取视差图。
7.根据权利要求6所述的方法,其中,进行代价聚合,包括:
使用最小生成树算法进行代价聚合。
CN201811251929.6A 2018-10-25 2018-10-25 一种获取视差图的方法 Active CN111105453B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811251929.6A CN111105453B (zh) 2018-10-25 2018-10-25 一种获取视差图的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811251929.6A CN111105453B (zh) 2018-10-25 2018-10-25 一种获取视差图的方法

Publications (2)

Publication Number Publication Date
CN111105453A CN111105453A (zh) 2020-05-05
CN111105453B true CN111105453B (zh) 2023-05-02

Family

ID=70418241

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811251929.6A Active CN111105453B (zh) 2018-10-25 2018-10-25 一种获取视差图的方法

Country Status (1)

Country Link
CN (1) CN111105453B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113298869B (zh) * 2021-04-23 2023-08-04 南方电网数字电网科技(广东)有限公司 距离测定方法、装置、计算机设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106504276A (zh) * 2016-10-25 2017-03-15 桂林电子科技大学 非局部立体匹配算法的组合匹配代价算法和视差联合填充算法
CN107301664A (zh) * 2017-05-25 2017-10-27 天津大学 基于相似性测度函数的改进局部立体匹配方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106504276A (zh) * 2016-10-25 2017-03-15 桂林电子科技大学 非局部立体匹配算法的组合匹配代价算法和视差联合填充算法
CN107301664A (zh) * 2017-05-25 2017-10-27 天津大学 基于相似性测度函数的改进局部立体匹配方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宋燕 ; 李若 ; 吴燕平 ; .地理国情普查中时点核准的探讨.测绘标准化.2015,(第03期),全文. *

Also Published As

Publication number Publication date
CN111105453A (zh) 2020-05-05

Similar Documents

Publication Publication Date Title
WO2018214505A1 (zh) 立体匹配方法与系统
US20210065393A1 (en) Method for stereo matching using end-to-end convolutional neural network
WO2019079766A1 (en) SYSTEM, APPARATUS, METHOD FOR DATA PROCESSING, AND INFORMATION MEDIUM
US8406512B2 (en) Stereo matching method based on image intensity quantization
CN107481271B (zh) 一种立体匹配方法、系统及移动终端
US9036044B1 (en) Adjusting camera parameters associated with a plurality of images
CN103996201A (zh) 一种基于改进梯度和自适应窗口的立体匹配方法
CN101610425A (zh) 一种评测立体图像质量的方法和装置
CN103996202A (zh) 一种基于混合匹配代价和自适应窗口的立体匹配方法
JP6934224B2 (ja) 三次元形状モデル生成装置、三次元形状モデル生成方法及びプログラム
US20230267720A1 (en) Cooperative lidar object detection via feature sharing in deep networks
CN104966290B (zh) 一种基于sift描述子的自适应权重立体匹配方法
CN102447917A (zh) 立体图像匹配方法及其设备
CN106952304A (zh) 一种利用视频序列帧间相关性的深度图像计算方法
Shivakumar et al. Real time dense depth estimation by fusing stereo with sparse depth measurements
Gadasin et al. Reconstruction of a Three-Dimensional Scene from its Projections in Computer Vision Systems
CN111105453B (zh) 一种获取视差图的方法
CN117132737B (zh) 一种三维建筑模型构建方法、系统及设备
CN113344989B (zh) 一种NCC和Census的最小生成树航拍图像双目立体匹配方法
CN110942102A (zh) 一种概率松弛核线匹配方法及系统
TWI687086B (zh) 時間一致可靠度傳遞系統
CN112258635B (zh) 基于改进双目匹配sad算法的三维重建方法及装置
CN111768353B (zh) 一种三维模型的孔洞填补方法及装置
Chen et al. Live accurate and dense reconstruction from a handheld camera
CN113191400B (zh) 基于二维图像检索对应三维模型的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant