CN111311667A - 一种内容自适应双目匹配方法和装置 - Google Patents

一种内容自适应双目匹配方法和装置 Download PDF

Info

Publication number
CN111311667A
CN111311667A CN202010093456.2A CN202010093456A CN111311667A CN 111311667 A CN111311667 A CN 111311667A CN 202010093456 A CN202010093456 A CN 202010093456A CN 111311667 A CN111311667 A CN 111311667A
Authority
CN
China
Prior art keywords
reference point
matching
points
pixel
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010093456.2A
Other languages
English (en)
Other versions
CN111311667B (zh
Inventor
魏辉
赵雅倩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Inspur Intelligent Technology Co Ltd
Original Assignee
Suzhou Inspur Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Inspur Intelligent Technology Co Ltd filed Critical Suzhou Inspur Intelligent Technology Co Ltd
Priority to CN202010093456.2A priority Critical patent/CN111311667B/zh
Publication of CN111311667A publication Critical patent/CN111311667A/zh
Priority to US17/799,301 priority patent/US11651507B2/en
Priority to PCT/CN2020/118307 priority patent/WO2021159717A1/zh
Application granted granted Critical
Publication of CN111311667B publication Critical patent/CN111311667B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种内容自适应双目匹配方法,包括以下步骤:将左右图像均划分成网格以计算网格点处的特征信息,并根据所述特征信息在网格点处进行所述左右图像间的匹配计算,以将匹配度高的点作为基准点;计算所述基准点的视差值并确定层间距,并根据所述视差值和层间距对所有所述基准点在深度方向上进行分层;对于某一图像中的非基准点像素,确定距离其最近的基准点,并根据所述最近的基准点所在的深度层和所述基准点的视差值确定搜索范围;将所述非基准点像素与另一图像中所述搜索范围内的像素进行匹配计算。本发明在保证匹配精准度的同时,降低匹配过程计算复杂度,提高了匹配效率。

Description

一种内容自适应双目匹配方法和装置
技术领域
本发明涉及计算机领域,并且更具体地,涉及一种内容自适应双目匹配方法和装置。
背景技术
三维感知是利用传感设备对真实环境进行探测、重建、认知的技术,是实现自动驾驶、虚拟/增强现实、机器人、测量等许多智能化技术的基础。对真实环境深度信息的重建是三维感知中的关键和基础内容,基于双目立体相机实现深度信息重建可以得到稠密的深度信息,同时图像中包含的丰富信息可以为感知提供重要的数据来源,双目相机对环境的适应性好,成本低,所以其相对于结构光、飞行时间等其它深度重建技术有其特定的优势,是三维感知领域的重要技术之一,有着广阔的应用前景。双目立体视觉的基本原理是通过两个角度来对同一景物进行观察,获取在不同视角下的感知图像,进而利用三角几何测量原理求得不同视角感知图像像素间的位置偏差(视差),以此来表示所选景物的三维信息。双目匹配就是对双目相机的两张图片进行匹配,找到一对一的对应点,然后计算得到对应点的视差。立体匹配是立体视觉系统中最难解决的环节,匹配技术往往决定了整个视觉系统性能的优劣。如何精确地获取二维图像的深度信息,制造出一种对周围可变环境具有鲁棒性的双目立体视觉系统,仍是立体视觉研究的难点。双目视觉在实际应用中主要存在两大痛点:实时性和准确性。首先,从双目图像中提取三维信息是一个复杂算法问题,在实际场景中易受噪声、遮挡等非理想因素的影响。此外,双目视觉相关算法的运算量高,计算过程往往无法满足实时处理的要求。这些问题制约了双目视觉技术在实际系统中的应用。
从整体上划分,双目立体匹配可以分为全局算法和局部算法两类。全局算法是一个优化问题,通过一个基于马尔科夫随机场的能量函数的形式对视差添加全局平滑约束,提高视差求解的精度。这种方法就是求全局能量函数的最小值。而该问题是一个NP-hard问题,通常使用一些近似方法求解,如图割法、置信度传播法。这种方式计算复杂,且存储需求大,即使对低分辨率图像也通常需要较高的计算和存储资源。全局算法精度较高,但计算量大,达到的帧率比较有限。局部算法速度一般较快,但其精度和匹配搜索范围的大小选择相关。小的搜索范围会导致匹配失败率较高,大的搜索范围能一定程度上提高精度,但会导致边界处匹配不准确。且该方法受限于弱纹理区域和遮挡问题难以解决,在精度上一般不如全局算法高。准确高效的双目匹配方法是促进双目立体视觉技术应用推广的重要基础和亟需解决的问题。
发明内容
鉴于此,本发明实施例的目的在于提出一种内容自适应的双目匹配方法,在保证匹配精准度的同时,降低匹配过程计算复杂度,提高匹配效率。
基于上述目的,本发明实施例的一方面提供了一种内容自适应双目匹配方法,包括以下步骤:
将左右图像均划分成网格以计算网格点处的特征信息,并根据所述特征信息在网格点处进行所述左右图像间的匹配计算,以将匹配度高的点作为基准点;
计算所述基准点的视差值并确定层间距,并根据所述视差值和层间距对所有所述基准点在深度方向上进行分层;
对于某一图像中的非基准点像素,确定距离其最近的基准点,并根据所述最近的基准点所在的深度层和所述基准点的视差值确定搜索范围;
将所述非基准点像素与另一图像中所述搜索范围内的像素进行匹配计算。
在一些实施方式中,将左右图像均划分成网格以计算网格点处的特征信息,并根据所述特征信息在网格点处进行所述左右图像间的匹配计算,以将匹配度高的点作为基准点包括:
根据所述特征信息进行所述左右图像间的匹配计算,先将匹配度高的点作为匹配像素点,然后将所有所述匹配像素点进行左右一致性检查,以删除不符合左右一致性条件的所述匹配像素点。
在一些实施方式中,将左右图像均划分成网格以计算网格点处的特征信息,并根据所述特征信息在网格点处进行所述左右图像间的匹配计算,以将匹配度高的点作为基准点还包括:
将所述进行左右一致性检查后的匹配像素点进行匹配准确度检查和区域相似性检查以实现所述匹配像素点的筛选,并将所述筛选后的匹配像素点作为基准点。
在一些实施方式中,计算所述基准点的视差值并确定层间距,并根据所述视差值和层间距对所有所述基准点在深度方向上进行分层包括:
确定最小基准视差和最大基准视差,在所述最小基准视差和最大基准视差的范围内根据所述层间距在深度方向上进行分层。
在一些实施方式中,计算所述基准点的视差值并确定层间距,并根据所述视差值和层间距对所有所述基准点在深度方向上进行分层还包括:
建立基准点查找表,所述查找表中存储所述各个基准点所在的深度层以及所述各个基准点的视差值。
在一些实施方式中,对于某一图像中的非基准点像素,确定距离其最近的基准点,并根据所述最近的基准点所在的深度层和所述基准点的视差值确定搜索范围包括:
根据所述基准点像素在图像中的坐标信息,得到所述非基准点像素在网格中的位置,以得到所述非基准点像素周围的基准点并确定距离其最近的基准点。
在一些实施方式中,对于某一图像中的非基准点像素,确定距离其最近的基准点,并根据所述最近的基准点所在的深度层和所述基准点的视差值确定搜索范围还包括:
根据所述查找表获得所述最近的基准点所在的深度层,根据所述深度层确定相应的溢出项,并在所述最近的基准点的视差值的基础上加上所述溢出项以作为所述非基准点像素匹配计算的视差搜索范围。
在一些实施方式中,对于某一图像中的非基准点像素,确定距离其最近的基准点,并根据所述最近的基准点所在的深度层和所述基准点的视差值确定搜索范围还包括:
所述深度层越小,所述溢出项的取值越大,所述深度层越大,所述溢出项的取值越小。
在一些实施方式中,将所述非基准点像素与另一图像中所述搜索范围内的像素进行匹配计算包括:
在所述视差搜索范围内,计算另一图像中所述搜索范围内的所有待匹配像素和所述非基准点像素之间的匹配代价,将所述代价最小的待匹配像素作为所述非基准点像素的匹配点并计算之间的视差值。
本发明实施例的另一方面提供了一种内容自适应双目匹配装置,包括:
至少一个处理器;和
存储器,所述存储器存储有处理器可运行的程序代码,所述程序代码在被处理器运行时实施上述任一项所述的方法。
本发明具有以下有益技术效果:本发明实施例提供的一种内容自适应的双目匹配方法和装置设计分步的匹配过程,用高匹配精度的基准点作为参照,保证匹配精准度,同时降低整体计算复杂度;设计基于深度方向分层的匹配方法,可以根据不同深度层采用不同的视差搜索范围,提高匹配搜索过程效率;设计深度查找表,建立基准点和待匹配点之间的关联,将基准点的精确视差值作为后续匹配的视差搜索范围参照,降低了匹配搜索过程中的无效匹配率;设计由深度决定的搜索溢出项,保证匹配精度的同时,根据场景特点确定具体视差搜索范围,提高计算效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1是根据本发明的一种内容自适应的双目匹配方法的流程图;
图2是根据本发明的基于基准点的匹配示意图;
图3是根据本发明的一种内容自适应的双目匹配装置的硬件结构示意图。
具体实施方式
以下描述了本发明的实施例。然而,应该理解,所公开的实施例仅仅是示例,并且其他实施例可以采取各种替代形式。附图不一定按比例绘制;某些功能可能被夸大或最小化以显示特定部件的细节。因此,本文公开的具体结构和功能细节不应被解释为限制性的,而仅仅是作为用于教导本领域技术人员以各种方式使用本发明的代表性基础。如本领域普通技术人员将理解的,参考任何一个附图所示出和描述的各种特征可以与一个或多个其他附图中所示的特征组合以产生没有明确示出或描述的实施例。所示特征的组合为典型应用提供了代表性实施例。然而,与本发明的教导相一致的特征的各种组合和修改对于某些特定应用或实施方式可能是期望的。
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
基于上述目的,本发明的实施例一方面提出了一种内容自适应双目匹配方法,如图1所示,包括以下步骤:
步骤S101:将左右图像均划分成网格以计算网格点处的特征信息,并根据所述特征信息在特网格点处进行所述左右图像间的匹配计算,以将匹配度高的点作为基准点;
步骤S102:计算所述基准点的视差值并确定层间距,并根据所述视差值和层间距对所有所述基准点在深度方向上进行分层;
步骤S103:对于某一图像中的非基准点像素,确定距离其最近的基准点,并根据所述最近的基准点所在的深度层和所述基准点的视差值确定搜索范围;
步骤S104:将所述非基准点像素与另一图像中所述搜索范围内的像素进行匹配计算。
在一些实施例中,首先进行高置信度基准匹配点的计算,该步骤通过对图像中特征明显的位置进行匹配计算,得到置信度比较高的一部分匹配点作为基准点,并求得这些基准点对应的视差值。
在一些实施例中,将左右图像均划分成网格以计算网格点处的特征信息,并根据所述特征信息在网格点处进行所述左右图像间的匹配计算,以将匹配度高的点作为基准点包括:根据所述特征信息进行所述左右图像间的匹配计算,先将匹配度高的点作为匹配像素点,然后将所有所述匹配像素点进行左右一致性检查,以删除不符合左右一致性条件的所述匹配像素点。
在根据本发明的一个实施例中,把图像以s为步长划分网格,所有网格点形成原始图像的一个稀疏采样。s可根据精度、计算复杂度等因素综合确定。计算所有采样点处的特征信息,其中这里的特征信息可以是各种滤波算法得到的特征,也可以是其他方法计算得到的代表各采样点个性化信息的值。利用上述计算得到的各采样点处的特征信息进行左右图像间的匹配计算,以匹配度最高的点作为匹配像素点,其中匹配搜索范围可根据精度、计算复杂度等因素综合确定,一般要求大于图像宽度的一半。匹配度可用匹配代价表示,匹配代价可以采用像素差值绝对值的累加或其它代价计算方法得到。
在一些实施例中,将左右图像均划分成网格以计算网格点处的特征信息,并根据所述特征信息在网格点处进行所述左右图像间的匹配计算,以将匹配度高的点作为基准点还包括:将所述进行左右一致性检查后的匹配像素点进行匹配准确度检查和区域相似性检查以实现所述匹配像素点的筛选,并将所述筛选后的匹配像素点作为基准点。
在根据本发明的一个实施例中,对上述计算得到的所有匹配像素点进行左右一致性检查。以左图像为参考图像、以右图像为目标图像得到的匹配像素点以及以右图像为参考图像、以左图像为目标图像的匹配像素点进行一致性检查,只有在两种匹配方式中都被认定为是匹配的点才认为是满足左右一致性条件,在上述计算得到的匹配像素点中删除不符合左右一致性条件的匹配像素点。
然后,进一步对进行一致性检查得到的结果进行匹配准确度检查。最佳匹配点的匹配代价和次优匹配点的匹配代价之比小于一定阈值α时,认为该最佳匹配点满足准确度要求。α是介于0和1之间的值,当α的值越小时则选取的最佳匹配点的精确度越高。
进一步对进行匹配准确度检查后得到的结果进行区域相似性检查。对各匹配像素点,检查其与周围像素之间的关系,匹配像素点与周围像素之间关系在参考图像和目标图像中一致时才认为该匹配像素点满足区域相似性条件。最后,将筛选得到的所有匹配像素点作为基准点。
在一些实施例中,对所有基准点在深度方向上进行分层。可以计算得到所有基准点的视差值,在双目立体视觉中,视差越大对应的深度值越小,反之亦然。把所有基准点按照视差进行分层就对应着按照深度进行分层。
在一些实施例中,计算所述基准点的视差值并确定层间距,并根据所述视差值和层间距对所有所述基准点在深度方向上进行分层包括:确定最小基准视差和最大基准视差,在所述最小基准视差和最大基准视差的范围内根据所述层间距在深度方向上进行分层。
在一些实施例中,计算所述基准点的视差值并确定层间距,并根据所述视差值和层间距对所有所述基准点在深度方向上进行分层还包括:建立基准点查找表,所述查找表中存储所述各个基准点所在的深度层以及所述各个基准点的视差值。
在根据本发明的一个实施例中,确定最小基准视差和最大基准视差。以最小基准视差的选取为例,可以选取所有基准点视差中的最小值作为基准视差,或者任意小于最小基准点视差的值作为基准视差;确定层间距,层间距就是相邻分层之间的视差差值大小,层间距的大小会影响后续匹配精度和计算复杂度,可根据具体情况确定;建立基准点查找表,基准点查找表可按照上述划分的网格形式进行组织,查找表中存储有各个基准点所在的深度层、各基准点的视差值。原始图像中的所有像素点都可根据网格划分步长求得自己位于哪个网格单元,进而得到自己周围有哪些基准点。
在一些实施例中,对于某一图像中的非基准点像素,确定距离其最近的基准点,并根据所述最近的基准点所在的深度层和所述基准点的视差值确定搜索范围包括:根据所述基准点像素在图像中的坐标信息,得到所述非基准点像素在网格中的位置,以得到所述非基准点像素周围的基准点并确定距离其最近的基准点。
在一些实施例中,对于某一图像中的非基准点像素,确定距离其最近的基准点,并根据所述最近的基准点所在的深度层和所述基准点的视差值确定搜索范围还包括:根据所述查找表获得所述最近的基准点所在的深度层,根据所述深度层确定相应的溢出项,并在所述最近的基准点的视差值的基础上加上所述溢出项以作为所述非基准点像素匹配计算的视差搜索范围。
在一些实施例中,对于某一图像中的非基准点像素,确定距离其最近的基准点,并根据所述最近的基准点所在的深度层和所述基准点的视差值确定搜索范围还包括:所述深度层越小,所述溢出项的取值越大,所述深度层越大,所述溢出项的取值越小。
在根据本发明的一个实施例中,对所有非基准点像素进行自适应匹配计算。该步骤利用上述计算得到的基准点视差值和相应的查找表为依据,如图2所示,计算所有非基准点像素的匹配点,并求得相应匹配点间的视差。主要包括以下工作:
对某个非基准点像素,确定其周围的基准点。利用该像素在图像中的坐标信息,可以得到该像素在网格中的位置,进而可以得到该点周围的基准点。周围基准点的选取在一定范围内进行,可以是该点上下左右四个方向上最近的基准点,也可以根据需要确定其他的选取方案。
计算当前待匹配像素所在的深度层,上述计算得到了当前像素点周围的基准点,其中选取距离最近的基准点的深度层作为当前像素所在的深度层。确定当前像素匹配计算的自适应视差搜索范围,其中视差搜索范围根据当前像素对应的基准点和所在深度层决定,在对应基准点视差值的基础上加上溢出项β就是当前像素匹配计算的视差搜索范围。β要结合所在的深度层进行确定,一般深度越小溢出项的取值越大,深度越大溢出项的取值越小。溢出项的存在体现了匹配过程对场景具体信息的适应性,可以根据场景特点确定像素匹配计算的视差搜索范围大小。
在一些实施例中,将所述非基准点像素与另一图像中所述搜索范围内的像素进行匹配计算包括:在所述视差搜索范围内,计算另一图像中所述搜索范围内的所有待匹配像素和所述非基准点像素之间的匹配代价,将所述代价最小的待匹配像素作为所述非基准点像素的匹配点并计算之间的视差值。
在技术上可行的情况下,以上针对不同实施例所列举的技术特征可以相互组合,或者改变、添加以及省略等等,从而形成本发明范围内的另外实施例。
从上述实施例可以看出,本发明实施例提供的一种内容自适应的双目匹配方法,在保证匹配精准度的同时,降低匹配过程计算复杂度,提高了匹配效率:通过高精准度的匹配计算,得到具有高置信度的基准点,作为后续匹配过程的参照;通过对基准点在深度方向上进行分层,对位于场景不同深度层的像素采取不同的匹配措施,实现了对场景内容自适应的匹配计算;通过建立基准点查找表,在基准点和待匹配点之间建立关联,后续像素匹配过程可依据基准点的视差确定搜索范围;通过设置视差搜索溢出项,使得匹配过程计算复杂度降低,待匹配像素在以基准点视差为最小搜索范围的基础上,用溢出项扩大搜索范围,保证匹配精度。
基于上述目的,本发明实施例的另一个方面,提出了一种内容自适应双目匹配装置的一个实施例。
所述内容自适应双目匹配装置包括存储器、和至少一个处理器,存储器存储有可在处理器上运行的计算机程序,处理器执行程序时执行上述任意一种方法。
如图3所示,为本发明提供的内容自适应双目匹配装置的一个实施例的硬件结构示意图。
以如图3所示的计算机设备为例,在该计算机设备中包括处理器301以及存储器302,并还可以包括:输入装置303和输出装置304。
处理器301、存储器302、输入装置303和输出装置304可以通过总线或者其他方式连接,图3中以通过总线连接为例。
存储器302作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的所述内容自适应双目匹配方法对应的程序指令/模块。处理器301通过运行存储在存储器302中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例的内容自适应双目匹配方法。
存储器302可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据内容自适应双目匹配方法所创建的数据等。此外,存储器302可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器302可选包括相对于处理器301远程设置的存储器,这些远程存储器可以通过网络连接至本地模块。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置303可接收输入的数字或字符信息,以及产生与内容自适应双目匹配方法的计算机设备的用户设置以及功能控制有关的键信号输入。输出装置304可包括显示屏等显示设备。
所述一个或者多个内容自适应双目匹配方法对应的程序指令/模块存储在所述存储器302中,当被所述处理器301执行时,执行上述任意方法实施例中的内容自适应双目匹配方法。
所述执行所述内容自适应双目匹配方法的计算机设备的任何一个实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,所述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。
此外,典型地,本发明实施例公开所述的装置、设备等可为各种电子终端设备,例如手机、个人数字助理(PDA)、平板电脑(PAD)、智能电视等,也可以是大型终端设备,如服务器等,因此本发明实施例公开的保护范围不应限定为某种特定类型的装置、设备。本发明实施例公开所述的客户端可以是以电子硬件、计算机软件或两者的组合形式应用于上述任意一种电子终端设备中。
此外,根据本发明实施例公开的方法还可以被实现为由CPU执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被CPU执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文所述的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDR SDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现所述的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里所述功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,所述存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,所述功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将所述功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器、磁盘或光盘等。
上述实施例是实施方式的可能示例,并且仅仅为了清楚理解本发明的原理而提出。所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上所述的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。

Claims (10)

1.一种内容自适应双目匹配方法,其特征在于,包括以下步骤:
将左右图像均划分成网格以计算网格点处的特征信息,并根据所述特征信息在网格点处进行所述左右图像间的匹配计算,以将匹配度高的点作为基准点;
计算所述基准点的视差值并确定层间距,并根据所述视差值和层间距对所有所述基准点在深度方向上进行分层;
对于某一图像中的非基准点像素,确定距离其最近的基准点,并根据所述最近的基准点所在的深度层和所述基准点的视差值确定搜索范围;
将所述非基准点像素与另一图像中所述搜索范围内的像素进行匹配计算。
2.根据权利要求1所述的方法,其特征在于,将左右图像均划分成网格以计算网格点处的特征信息,并根据所述特征信息在网格点处进行所述左右图像间的匹配计算,以将匹配度高的点作为基准点包括:
根据所述特征信息进行所述左右图像间的匹配计算,先将匹配度高的点作为匹配像素点,然后将所有所述匹配像素点进行左右一致性检查,以删除不符合左右一致性条件的所述匹配像素点。
3.根据权利要求2所述的方法,其特征在于,将左右图像均划分成网格以计算网格点处的特征信息,并根据所述特征信息在网格点处进行所述左右图像间的匹配计算,以将匹配度高的点作为基准点还包括:
将所述进行左右一致性检查后的匹配像素点进行匹配准确度检查和区域相似性检查以实现所述匹配像素点的筛选,并将所述筛选后的匹配像素点作为基准点。
4.根据权利要求1所述的方法,其特征在于,计算所述基准点的视差值并确定层间距,并根据所述视差值和层间距对所有所述基准点在深度方向上进行分层包括:
确定最小基准视差和最大基准视差,在所述最小基准视差和最大基准视差的范围内根据所述层间距在深度方向上进行分层。
5.根据权利要求4所述的方法,其特征在于,计算所述基准点的视差值并确定层间距,并根据所述视差值和层间距对所有所述基准点在深度方向上进行分层还包括:
建立基准点查找表,所述查找表中存储所述各个基准点所在的深度层以及所述各个基准点的视差值。
6.根据权利要求5所述的方法,其特征在于,对于某一图像中的非基准点像素,确定距离其最近的基准点,并根据所述最近的基准点所在的深度层和所述基准点的视差值确定搜索范围包括:
根据所述基准点像素在图像中的坐标信息,得到所述非基准点像素在网格中的位置,以得到所述非基准点像素周围的基准点并确定距离其最近的基准点。
7.根据权利要求6所述的方法,其特征在于,对于某一图像中的非基准点像素,确定距离其最近的基准点,并根据所述最近的基准点所在的深度层和所述基准点的视差值确定搜索范围还包括:
根据所述查找表获得所述最近的基准点所在的深度层,根据所述深度层确定相应的溢出项,并在所述最近的基准点的视差值的基础上加上所述溢出项以作为所述非基准点像素匹配计算的视差搜索范围。
8.根据权利要求7所述的方法,其特征在于,对于某一图像中的非基准点像素,确定距离其最近的基准点,并根据所述最近的基准点所在的深度层和所述基准点的视差值确定搜索范围还包括:
所述深度层越小,所述溢出项的取值越大,所述深度层越大,所述溢出项的取值越小。
9.根据权利要求1所述的方法,其特征在于,将所述非基准点像素与另一图像中所述搜索范围内的像素进行匹配计算包括:
在所述视差搜索范围内,计算另一图像中所述搜索范围内的所有待匹配像素和所述非基准点像素之间的匹配代价,将所述代价最小的待匹配像素作为所述非基准点像素的匹配点并计算之间的视差值。
10.一种内容自适应双目匹配装置,其特征在于,包括:
至少一个处理器;和
存储器,所述存储器存储有处理器可运行的程序代码,所述程序代码在被处理器运行时实施如权利要求1-9中任一项所述的方法。
CN202010093456.2A 2020-02-14 2020-02-14 一种内容自适应双目匹配方法和装置 Active CN111311667B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202010093456.2A CN111311667B (zh) 2020-02-14 2020-02-14 一种内容自适应双目匹配方法和装置
US17/799,301 US11651507B2 (en) 2020-02-14 2020-09-28 Content-adaptive binocular matching method and apparatus
PCT/CN2020/118307 WO2021159717A1 (zh) 2020-02-14 2020-09-28 一种内容自适应双目匹配方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010093456.2A CN111311667B (zh) 2020-02-14 2020-02-14 一种内容自适应双目匹配方法和装置

Publications (2)

Publication Number Publication Date
CN111311667A true CN111311667A (zh) 2020-06-19
CN111311667B CN111311667B (zh) 2022-05-17

Family

ID=71158309

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010093456.2A Active CN111311667B (zh) 2020-02-14 2020-02-14 一种内容自适应双目匹配方法和装置

Country Status (3)

Country Link
US (1) US11651507B2 (zh)
CN (1) CN111311667B (zh)
WO (1) WO2021159717A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021159717A1 (zh) * 2020-02-14 2021-08-19 苏州浪潮智能科技有限公司 一种内容自适应双目匹配方法和装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115119046B (zh) * 2022-06-02 2024-04-16 绍兴市北大信息技术科创中心 一种参考像素集的图像编解码方法、装置及系统
CN115423808B (zh) * 2022-11-04 2023-03-24 合肥的卢深视科技有限公司 散斑投射器的质量检测方法、电子设备和存储介质
CN116258759B (zh) * 2023-05-15 2023-09-22 北京爱芯科技有限公司 一种立体匹配方法、装置和设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355570A (zh) * 2016-10-21 2017-01-25 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法
CN107025660A (zh) * 2016-02-01 2017-08-08 北京三星通信技术研究有限公司 一种确定双目动态视觉传感器图像视差的方法和装置
CN109961092A (zh) * 2019-03-04 2019-07-02 北京大学深圳研究生院 一种基于视差锚点的双目视觉立体匹配方法及系统
CN110533703A (zh) * 2019-09-04 2019-12-03 深圳市道通智能航空技术有限公司 一种双目立体视差确定方法、装置及无人机

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7773799B2 (en) * 2004-04-02 2010-08-10 The Boeing Company Method for automatic stereo measurement of a point of interest in a scene
JP2005308553A (ja) * 2004-04-21 2005-11-04 Topcon Corp 三次元画像計測装置及び方法
JP5229733B2 (ja) * 2008-11-25 2013-07-03 Necシステムテクノロジー株式会社 ステレオマッチング処理装置、ステレオマッチング処理方法およびプログラム
CN101853508B (zh) 2010-06-08 2012-05-23 浙江工业大学 基于方向集的泛化置信度传播的双目立体视觉匹配方法
LU91745B1 (en) * 2010-10-15 2012-04-16 Iee Sarl Range image pixel matching method
CN102523464A (zh) 2011-12-12 2012-06-27 上海大学 一种双目立体视频的深度图像估计方法
CN102800083B (zh) 2012-06-19 2014-12-10 中国农业大学 基于双目视觉网格划分匹配算法的农作物喷雾定位方法
JP5963353B2 (ja) * 2012-08-09 2016-08-03 株式会社トプコン 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム
JP6285686B2 (ja) * 2013-06-12 2018-02-28 日本放送協会 視差画像生成装置
CN108765414B (zh) * 2018-06-14 2021-12-03 上海大学 基于小波分解和自然场景统计的无参考立体图像质量评价方法
CN109919911B (zh) * 2019-01-26 2023-04-07 中国海洋大学 基于多视角光度立体的移动三维重建方法
CN110610476A (zh) * 2019-07-07 2019-12-24 南京美基森信息技术有限公司 一种视差图质量评估方法
CN111311667B (zh) 2020-02-14 2022-05-17 苏州浪潮智能科技有限公司 一种内容自适应双目匹配方法和装置
CN115222782A (zh) * 2021-04-16 2022-10-21 安霸国际有限合伙企业 对单目相机立体系统中的结构光投射器的安装校准

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107025660A (zh) * 2016-02-01 2017-08-08 北京三星通信技术研究有限公司 一种确定双目动态视觉传感器图像视差的方法和装置
CN106355570A (zh) * 2016-10-21 2017-01-25 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法
CN109961092A (zh) * 2019-03-04 2019-07-02 北京大学深圳研究生院 一种基于视差锚点的双目视觉立体匹配方法及系统
CN110533703A (zh) * 2019-09-04 2019-12-03 深圳市道通智能航空技术有限公司 一种双目立体视差确定方法、装置及无人机

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021159717A1 (zh) * 2020-02-14 2021-08-19 苏州浪潮智能科技有限公司 一种内容自适应双目匹配方法和装置
US11651507B2 (en) 2020-02-14 2023-05-16 Inspur Suzhou Intelligent Technology Co., Ltd. Content-adaptive binocular matching method and apparatus

Also Published As

Publication number Publication date
CN111311667B (zh) 2022-05-17
US11651507B2 (en) 2023-05-16
WO2021159717A1 (zh) 2021-08-19
US20230082100A1 (en) 2023-03-16

Similar Documents

Publication Publication Date Title
CN111311667B (zh) 一种内容自适应双目匹配方法和装置
EP2947627B1 (en) Light field image depth estimation
US11954879B2 (en) Methods, systems and apparatus to optimize pipeline execution
EP3105738A1 (en) Method, apparatus and computer program product for image-driven cost volume aggregation
EP2874395A2 (en) Method, apparatus and computer program product for disparity estimation
TWI738196B (zh) 一種圖像深度估計方法、電子設備、儲存介質
CN108269280A (zh) 一种深度图像的处理方法及移动终端
Nguyen et al. Error analysis for image-based rendering with depth information
WO2023159757A1 (zh) 视差图生成方法和装置、电子设备及存储介质
KR20210076853A (ko) 시차 추정 시스템, 방법, 전자 장치 및 컴퓨터 판독 가능한 저장 매체
CN109934307B (zh) 视差图预测模型训练方法、预测方法、装置及电子设备
CN107798694A (zh) 一种像素点视差值计算方法、装置及终端
CN110084742B (zh) 一种视差图预测方法、装置及电子设备
US20230384085A1 (en) Phase unwrapping method based on multi-view constraints of light field and related components
CN112489097A (zh) 基于混合2d卷积和伪3d卷积的立体匹配方法
CN107845108B (zh) 一种光流值计算方法、装置及电子设备
KR101178015B1 (ko) 시차 맵 생성 방법
CN112907645B (zh) 视差图获取方法、装置、训练方法、电子设备和介质
CN111223136B (zh) 稀疏2d点集的深度特征提取方法及装置
Wegner et al. Depth estimation using modified cost function for occlusion handling
KR101220003B1 (ko) 시차 맵 생성 방법
US10354400B2 (en) Method and system for matching stereo images
CN113344988A (zh) 立体匹配方法、终端及存储介质
Shin et al. Understanding the Limitations of SfM-Based Camera Calibration on Multi-View Stereo Reconstruction
CN115937383B (zh) 渲染图像的方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant