CN108876841A - 一种视差图视差求精中插值的方法及系统 - Google Patents

一种视差图视差求精中插值的方法及系统 Download PDF

Info

Publication number
CN108876841A
CN108876841A CN201810520414.5A CN201810520414A CN108876841A CN 108876841 A CN108876841 A CN 108876841A CN 201810520414 A CN201810520414 A CN 201810520414A CN 108876841 A CN108876841 A CN 108876841A
Authority
CN
China
Prior art keywords
color space
pixel
euclidean distance
distance
matching points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810520414.5A
Other languages
English (en)
Other versions
CN108876841B (zh
Inventor
罗林
唐荣富
周剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Tongjia Youbo Technology Co Ltd
Original Assignee
Chengdu Tongjia Youbo Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Tongjia Youbo Technology Co Ltd filed Critical Chengdu Tongjia Youbo Technology Co Ltd
Publication of CN108876841A publication Critical patent/CN108876841A/zh
Application granted granted Critical
Publication of CN108876841B publication Critical patent/CN108876841B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本申请公开了一种视差图视差求精中插值的方法,包括:以视差图中的错误匹配点为中心,沿N个方向搜索视差有效的像素点;分别计算错误匹配点与各方向搜索到的像素点之间的欧式距离,并利用欧式距离计算对应的欧式距离权重;根据原始图像的像素值以及原始图像的颜色通道,分别计算错误匹配点与各方向搜索到的像素点之间的颜色空间距离,并利用颜色空间距离计算对应的颜色空间距离权重;根据欧式距离权重以及颜色空间距离权重,计算错误匹配点的视差值;该方法能解决传统视差求精中插值算法鲁棒性差、效率低下的问题;本申请公开了一种视差图视差求精中插值的系统,具有上述有益效果。

Description

一种视差图视差求精中插值的方法及系统
技术领域
本申请涉及计算机视觉技术领域,特别涉及一种视差图视差求精中插值的方法及系统。
背景技术
基于局部匹配的立体匹配算法一般可以分解为四个步骤:代价计算、代价聚合、视差计算以及视差求精。其中,视差求精可用于生成稠密的视差图,是局部立体匹配算法中非常关键的步骤。
一般的视差求精步骤主要包含左右一致检测、插值、中值滤波等。左右一致性检测可以检测视差图像中的正常点、遮挡点以及错误点;插值是对遮挡点和错误点进行填充;中值滤波使视察图像更平滑。
在这些骤中,插值结果的好坏直接影响稠密视差图的最终效果,是视差求精中的关键步骤。传统的插值方法大多采用最近邻插值方法或者区域内求中值的方法;这些方法在视差图像存在大片错误区域时仍然会造成严重的错误,尤其是在视差不连续区域。因此,在实际应用中,采用一种更加鲁棒并且效率较高的插值算法是十分必要的。
申请内容
本申请的目的是提供一种视差图视差求精中插值的方法及系统,能解决传统视差求精中插值算法鲁棒性差、效率低下的问题。
为解决上述技术问题,本申请提供一种视差图视差求精中插值的方法,所述方法包括:
以视差图中的错误匹配点为中心,沿N个方向搜索视差有效的像素点;
分别计算所述错误匹配点与各方向搜索到的所述像素点之间的欧式距离,并利用所述欧式距离计算对应的欧式距离权重;
根据原始图像的像素值以及原始图像的颜色通道,分别计算所述错误匹配点与各方向搜索到的所述像素点之间的颜色空间距离,并利用所述颜色空间距离计算对应的颜色空间距离权重;
根据所述欧式距离权重以及所述颜色空间距离权重,计算所述错误匹配点的视差值。
可选的,分别计算所述错误匹配点与各方向搜索到的所述像素点之间的欧式距离,包括:
利用公式di=|pepi|分别计算所述错误匹配点pe与各方向搜索到的所述像素点pi之间的欧式距离di
可选的,利用所述欧式距离计算对应的欧式距离权重,包括:
根据所述欧式距离di,利用公式计算i方向搜索到的所述像素点对应的欧式距离权重其中,β>0,β为常数参数。
可选的,根据原始图像的像素值以及原始图像的颜色通道,分别计算所述错误匹配点与各方向搜索到的所述像素点之间的颜色空间距离,包括:
根据原始图像的像素值I(·)以及原始图像的颜色通道j,利用公式分别计算所述错误匹配点pe与各方向搜索到的所述像素点pi之间的颜色空间距离ci
可选的,利用所述颜色空间距离计算对应的颜色空间距离权重,包括:
根据所述颜色空间距离ci,利用公式计算i方向搜索到的所述像素点对应的颜色空间距离权重其中,γ>0,γ为常数参数。
可选的,根据所述欧式距离权重以及所述颜色空间距离权重,计算所述错误匹配点的视差值,包括:
根据所述欧式距离权重以及所述颜色空间距离权重利用公式计算所述错误匹配点pe的视差值disparity(pe);其中,disparity(·)表示参考视差图像的像素值;λ>0控制欧式距离与颜色空间距离的权重比例。
可选的,所述错误匹配点的确定方式,包括:
利用左右一致性检测确定所述视差图中的所述错误匹配点。
本申请还提供一种视差图视差求精中插值的系统,包括:
像素点搜索模块,用于以视差图中的错误匹配点为中心,沿N个方向搜索视差有效的像素点;
欧式距离计算模块,用于分别计算所述错误匹配点与各方向搜索到的所述像素点之间的欧式距离,并利用所述欧式距离计算对应的欧式距离权重;
颜色空间距离计算模块,用于根据原始图像的像素值以及原始图像的颜色通道,分别计算所述错误匹配点与各方向搜索到的所述像素点之间的颜色空间距离,并利用所述颜色空间距离计算对应的颜色空间距离权重;
视差值计算模块,用于根据所述欧式距离权重以及所述颜色空间距离权重,计算所述错误匹配点的视差值。
可选的,所述欧式距离计算模块,包括:
欧式距离单元,用于利用公式di=|pepi|分别计算所述错误匹配点pe与各方向搜索到的所述像素点pi之间的欧式距离di
欧式距离权重单元,用于根据所述欧式距离di,利用公式计算i方向搜索到的所述像素点对应的欧式距离权重其中,β>0,β为常数参数。
可选的,所述颜色空间距离计算模块,包括:
颜色空间距离单元,用于根据原始图像的像素值I(·)以及原始图像的颜色通道j,利用公式分别计算所述错误匹配点pe与各方向搜索到的所述像素点pi之间的颜色空间距离ci
颜色空间距离权重单元,用于根据所述颜色空间距离ci,利用公式计算i方向搜索到的所述像素点对应的颜色空间距离权重其中,γ>0,γ为常数参数。
本申请所提供的一种视差图视差求精中插值的方法,包括:以视差图中的错误匹配点为中心,沿N个方向搜索视差有效的像素点;分别计算错误匹配点与各方向搜索到的像素点之间的欧式距离,并利用欧式距离计算对应的欧式距离权重;根据原始图像的像素值以及原始图像的颜色通道,分别计算错误匹配点与各方向搜索到的像素点之间的颜色空间距离,并利用颜色空间距离计算对应的颜色空间距离权重;根据欧式距离权重以及颜色空间距离权重,计算错误匹配点的视差值。
可见,该方法充分利用了原始图像信息以及视差图像本身的信息,相比一般的插值方法具有明显的优势,在效果上具有很大提升,同时并没有增加太多的运算量。此外,本申请提出的插值方法可以进行并行处理,充分利用计算资源能够大大提高运算速度;该方法能解决传统视差求精中插值算法鲁棒性差、效率低下的问题;本申请还提供了一种视差图视差求精中插值的系统,具有上述有益效果,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例所提供的视差图视差求精中插值的方法的流程图;
图2为本申请实施例所提供的错误匹配点与周围最近的视差有效的像素点对应的欧式距离权重以及颜色空间距离权重分布示意图;
图3为本申请实施例所提供的视差图视差求精中插值的系统的结构框图。
具体实施方式
本申请的核心是提供一种视差图视差求精中插值的方法及系统,能解决传统视差求精中插值算法鲁棒性差、效率低下的问题。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参考图1,图1为本申请实施例所提供的视差图视差求精中插值的方法的流程图;该方法可以包括:
S100、以视差图中的错误匹配点为中心,沿N个方向搜索视差有效的像素点;
具体的,本实施例并不限定视差图中的错误匹配点的确定方式,例如可以是通过左右一致性检测确定视差图中的错误匹配点。本实施例仅通过高效、快速的插值方法对错误匹配点进行修正。
具体的,对视差图中的错误匹配点pe,以该点pe为中心,沿N个方向搜索视差有效的像素点pi(i=1,2,…,N)。本实施例并不限定具体的搜索方式。优选的,在每个方向上仅选择最近的视差有效的像素点参与后续计算。
S110、分别计算错误匹配点与各方向搜索到的像素点之间的欧式距离,并利用欧式距离计算对应的欧式距离权重;
具体的,参考视差图像,计算视差图中的错误匹配点即中心点pe与各方向搜索到的像素点pi之间的欧式距离di。即利用公式di=|pepi|分别计算错误匹配点pe与各方向搜索到的像素点pi之间的欧式距离di
本实施例并不限定欧式距离权重的计算方式。具体的,根据欧式距离di,可以利用公式计算i方向搜索到的像素点对应的欧式距离权重其中,β>0,β为常数参数。
S120、根据原始图像的像素值以及原始图像的颜色通道,分别计算错误匹配点与各方向搜索到的像素点之间的颜色空间距离,并利用颜色空间距离计算对应的颜色空间距离权重;
具体的,参考原图像即原始图像计算参考的原始图像中对应的中心点pe与各方向搜索到的像素点pi之间的颜色空间距离ci。即根据参考的原始图像的像素值I(·)以及参考的原始图像的颜色通道j,利用公式分别计算错误匹配点pe与各方向搜索到的像素点pi之间的颜色空间距离ci,其中,abs为求取的绝对值。
本实施例并不限定颜色空间距离权重的计算方式。具体的,根据颜色空间距离ci,利用公式计算i方向搜索到的像素点对应的颜色空间距离权重其中,γ>0,γ为常数参数。
具体的请参考图2,以8方向为例,给出了错误匹配点与8方向周围最近的视差有效的像素点对应的欧式距离权重以及颜色空间距离权重分布示意图。
S130、根据欧式距离权重以及颜色空间距离权重,计算错误匹配点的视差值。
具体的,根据欧式距离权重以及颜色空间距离权重利用公式计算错误匹配点pe的视差值disparity(pe);其中,disparity(·)表示参考视差图像的像素值;λ>0控制欧式距离与颜色空间距离的权重比例。
本实施例中为了提高运算速度,提升插值方法的效率;上述错误匹配点欧式距离权重以及颜色空间距离权重的计算过程即步骤S110和步骤S120可以是并行运行的。另外,各个错误匹配点也可以并行的执行步骤S100到步骤S130的步骤。
在视差图所有的错误匹配点完成插值后,该视差图中各像素点的视差值与现有技术相比更加准确。对该完成了插值后的视差图进行滤波处理(例如进行中值滤波处理)可以完成立体匹配过程。
基于上述技术方案,本发明实施例提的视差图视差求精中插值的方法,充分利用了原始图像信息以及视差图像本身的信息,相比一般的插值方法具有明显的优势,在效果上具有很大提升,同时并没有增加太多的运算量。此外,本申请提出的插值方法可以进行并行处理,充分利用计算资源能够大大提高运算速度;该方法能解决传统视差求精中插值算法鲁棒性差、效率低下的问题。
下面对本申请实施例提供的视差图视差求精中插值的系统进行介绍,下文描述的视差图视差求精中插值的系统与上文描述的视差图视差求精中插值的方法可相互对应参照。
请参考图3,图3为本申请实施例所提供的视差图视差求精中插值的系统的结构框图;该系统可以包括:
像素点搜索模块100,用于以视差图中的错误匹配点为中心,沿N个方向搜索视差有效的像素点;
欧式距离计算模块200,用于分别计算错误匹配点与各方向搜索到的像素点之间的欧式距离,并利用欧式距离计算对应的欧式距离权重;
颜色空间距离计算模块300,用于根据原始图像的像素值以及原始图像的颜色通道,分别计算错误匹配点与各方向搜索到的像素点之间的颜色空间距离,并利用颜色空间距离计算对应的颜色空间距离权重;
视差值计算模块400,用于根据欧式距离权重以及颜色空间距离权重,计算错误匹配点的视差值。
基于上述实施例,欧式距离计算模块200可以包括:
欧式距离单元,用于利用公式di=|pepi|分别计算错误匹配点pe与各方向搜索到的像素点pi之间的欧式距离di
欧式距离权重单元,用于根据欧式距离di,利用公式计算i方向搜索到的像素点对应的欧式距离权重其中,β>0,β为常数参数。
基于上述实施例,颜色空间距离计算模块300可以包括:
颜色空间距离单元,用于根据原始图像的像素值I(·)以及原始图像的颜色通道j,利用公式分别计算错误匹配点pe与各方向搜索到的像素点pi之间的颜色空间距离ci
颜色空间距离权重单元,用于根据颜色空间距离ci,利用公式计算i方向搜索到的像素点对应的颜色空间距离权重其中,γ>0,γ为常数参数。
基于上述实施例,视差值计算模块400具体用于根据欧式距离权重以及颜色空间距离权重利用公式计算错误匹配点pe的视差值disparity(pe);其中,disparity(·)表示参考视差图像的像素值;λ>0控制欧式距离与颜色空间距离的权重比例。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本申请所提供的一种视差图视差求精中插值的方法及系统进行了详细介绍。本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。

Claims (10)

1.一种视差图视差求精中插值的方法,其特征在于,所述方法包括:
以视差图中的错误匹配点为中心,沿N个方向搜索视差有效的像素点;
分别计算所述错误匹配点与各方向搜索到的所述像素点之间的欧式距离,并利用所述欧式距离计算对应的欧式距离权重;
根据原始图像的像素值以及原始图像的颜色通道,分别计算所述错误匹配点与各方向搜索到的所述像素点之间的颜色空间距离,并利用所述颜色空间距离计算对应的颜色空间距离权重;
根据所述欧式距离权重以及所述颜色空间距离权重,计算所述错误匹配点的视差值。
2.根据权利要求1所述的方法,其特征在于,分别计算所述错误匹配点与各方向搜索到的所述像素点之间的欧式距离,包括:
利用公式di=|pepi|分别计算所述错误匹配点pe与各方向搜索到的所述像素点pi之间的欧式距离di
3.根据权利要求2所述的方法,其特征在于,利用所述欧式距离计算对应的欧式距离权重,包括:
根据所述欧式距离di,利用公式计算i方向搜索到的所述像素点对应的欧式距离权重其中,β>0,β为常数参数。
4.根据权利要求3所述的方法,其特征在于,根据原始图像的像素值以及原始图像的颜色通道,分别计算所述错误匹配点与各方向搜索到的所述像素点之间的颜色空间距离,包括:
根据原始图像的像素值I(·)以及原始图像的颜色通道j,利用公式分别计算所述错误匹配点pe与各方向搜索到的所述像素点pi之间的颜色空间距离ci
5.根据权利要求4所述的方法,其特征在于,利用所述颜色空间距离计算对应的颜色空间距离权重,包括:
根据所述颜色空间距离ci,利用公式计算i方向搜索到的所述像素点对应的颜色空间距离权重其中,γ>0,γ为常数参数。
6.根据权利要求5所述的方法,其特征在于,根据所述欧式距离权重以及所述颜色空间距离权重,计算所述错误匹配点的视差值,包括:
根据所述欧式距离权重以及所述颜色空间距离权重利用公式计算所述错误匹配点pe的视差值disparity(pe);其中,disparity(·)表示参考视差图像的像素值;λ>0控制欧式距离与颜色空间距离的权重比例。
7.根据权利要求6所述的方法,其特征在于,所述错误匹配点的确定方式,包括:
利用左右一致性检测确定所述视差图中的所述错误匹配点。
8.一种视差图视差求精中插值的系统,其特征在于,包括:
像素点搜索模块,用于以视差图中的错误匹配点为中心,沿N个方向搜索视差有效的像素点;
欧式距离计算模块,用于分别计算所述错误匹配点与各方向搜索到的所述像素点之间的欧式距离,并利用所述欧式距离计算对应的欧式距离权重;
颜色空间距离计算模块,用于根据原始图像的像素值以及原始图像的颜色通道,分别计算所述错误匹配点与各方向搜索到的所述像素点之间的颜色空间距离,并利用所述颜色空间距离计算对应的颜色空间距离权重;
视差值计算模块,用于根据所述欧式距离权重以及所述颜色空间距离权重,计算所述错误匹配点的视差值。
9.根据权利要求8所述的系统,其特征在于,所述欧式距离计算模块,包括:
欧式距离单元,用于利用公式di=|pepi|分别计算所述错误匹配点pe与各方向搜索到的所述像素点pi之间的欧式距离di
欧式距离权重单元,用于根据所述欧式距离di,利用公式计算i方向搜索到的所述像素点对应的欧式距离权重其中,β>0,β为常数参数。
10.根据权利要求9所述的系统,其特征在于,所述颜色空间距离计算模块,包括:
颜色空间距离单元,用于根据原始图像的像素值I(·)以及原始图像的颜色通道j,利用公式分别计算所述错误匹配点pe与各方向搜索到的所述像素点pi之间的颜色空间距离ci
颜色空间距离权重单元,用于根据所述颜色空间距离ci,利用公式计算i方向搜索到的所述像素点对应的颜色空间距离权重其中,γ>0,γ为常数参数。
CN201810520414.5A 2017-07-25 2018-05-28 一种视差图视差求精中插值的方法及系统 Active CN108876841B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710611857 2017-07-25
CN2017106118570 2017-07-25

Publications (2)

Publication Number Publication Date
CN108876841A true CN108876841A (zh) 2018-11-23
CN108876841B CN108876841B (zh) 2023-04-28

Family

ID=64335072

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810520414.5A Active CN108876841B (zh) 2017-07-25 2018-05-28 一种视差图视差求精中插值的方法及系统

Country Status (1)

Country Link
CN (1) CN108876841B (zh)

Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030077003A1 (en) * 2001-10-24 2003-04-24 Tiger Color Inc., Image processing method for enlarging and compensating the pixel of digital video data according to viewpoint
CN102354402A (zh) * 2011-09-21 2012-02-15 西安交通大学 基于风格学习的绘画渲染方法
CN102572485A (zh) * 2012-02-02 2012-07-11 北京大学 一种自适应加权立体匹配算法、立体显示采集装置及系统
CN102892021A (zh) * 2012-10-15 2013-01-23 浙江大学 一种合成虚拟视点图像的新方法
WO2013087880A1 (en) * 2011-12-14 2013-06-20 Thomson Licensing Method and system for interpolating a virtual image from a first and a second input images
CN103198493A (zh) * 2013-04-09 2013-07-10 天津大学 一种基于多特征自适应融合和在线学习的目标跟踪方法
WO2014039802A2 (en) * 2012-09-07 2014-03-13 Qualcomm Incorporated Weighted prediction mode for scalable video coding
CN103839265A (zh) * 2014-02-26 2014-06-04 西安电子科技大学 基于sift和归一化互信息的sar图像配准方法
CN103985128A (zh) * 2014-05-23 2014-08-13 南京理工大学 一种基于颜色内相关和自适应支撑权重的立体匹配方法
CN104076375A (zh) * 2013-03-27 2014-10-01 株式会社日立制作所 路径搜索方法和路径搜索装置
CN104680510A (zh) * 2013-12-18 2015-06-03 北京大学深圳研究生院 Radar视差图优化方法、立体匹配视差图优化方法及系统
US20150201185A1 (en) * 2014-01-14 2015-07-16 Sony Corporation Image processing apparatus, image processing method, and program
CN104867135A (zh) * 2015-05-04 2015-08-26 中国科学院上海微系统与信息技术研究所 一种基于指导图像引导的高精度立体匹配方法
CN104966290A (zh) * 2015-06-12 2015-10-07 天津大学 一种基于sift描述子的自适应权重立体匹配方法
WO2016180325A1 (zh) * 2015-05-12 2016-11-17 努比亚技术有限公司 图像处理方法及装置
CN106227827A (zh) * 2016-07-25 2016-12-14 华南师范大学 服装图像前景颜色特征提取方法及服装检索方法和系统
CN106296698A (zh) * 2016-08-15 2017-01-04 成都通甲优博科技有限责任公司 一种基于立体视觉的闪电三维定位方法
CN106340036A (zh) * 2016-08-08 2017-01-18 东南大学 一种基于双目立体视觉的立体匹配方法
CN106384363A (zh) * 2016-09-13 2017-02-08 天津大学 一种快速自适应权重立体匹配算法
CN106504276A (zh) * 2016-10-25 2017-03-15 桂林电子科技大学 非局部立体匹配算法的组合匹配代价算法和视差联合填充算法
US20170084014A1 (en) * 2015-09-21 2017-03-23 Kyungpook National University Industry-Academic Cooperation Foundation Method for estimating disparity search range to which multi-level disparity image division is applied, and stereo image matching device using the same
CN106780442A (zh) * 2016-11-30 2017-05-31 成都通甲优博科技有限责任公司 一种立体匹配方法及系统
CN106815594A (zh) * 2015-11-30 2017-06-09 展讯通信(上海)有限公司 立体匹配方法及装置

Patent Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030077003A1 (en) * 2001-10-24 2003-04-24 Tiger Color Inc., Image processing method for enlarging and compensating the pixel of digital video data according to viewpoint
CN102354402A (zh) * 2011-09-21 2012-02-15 西安交通大学 基于风格学习的绘画渲染方法
WO2013087880A1 (en) * 2011-12-14 2013-06-20 Thomson Licensing Method and system for interpolating a virtual image from a first and a second input images
CN102572485A (zh) * 2012-02-02 2012-07-11 北京大学 一种自适应加权立体匹配算法、立体显示采集装置及系统
WO2014039802A2 (en) * 2012-09-07 2014-03-13 Qualcomm Incorporated Weighted prediction mode for scalable video coding
CN102892021A (zh) * 2012-10-15 2013-01-23 浙江大学 一种合成虚拟视点图像的新方法
CN104076375A (zh) * 2013-03-27 2014-10-01 株式会社日立制作所 路径搜索方法和路径搜索装置
CN103198493A (zh) * 2013-04-09 2013-07-10 天津大学 一种基于多特征自适应融合和在线学习的目标跟踪方法
CN104680510A (zh) * 2013-12-18 2015-06-03 北京大学深圳研究生院 Radar视差图优化方法、立体匹配视差图优化方法及系统
US20150201185A1 (en) * 2014-01-14 2015-07-16 Sony Corporation Image processing apparatus, image processing method, and program
CN103839265A (zh) * 2014-02-26 2014-06-04 西安电子科技大学 基于sift和归一化互信息的sar图像配准方法
CN103985128A (zh) * 2014-05-23 2014-08-13 南京理工大学 一种基于颜色内相关和自适应支撑权重的立体匹配方法
CN104867135A (zh) * 2015-05-04 2015-08-26 中国科学院上海微系统与信息技术研究所 一种基于指导图像引导的高精度立体匹配方法
WO2016180325A1 (zh) * 2015-05-12 2016-11-17 努比亚技术有限公司 图像处理方法及装置
CN104966290A (zh) * 2015-06-12 2015-10-07 天津大学 一种基于sift描述子的自适应权重立体匹配方法
US20170084014A1 (en) * 2015-09-21 2017-03-23 Kyungpook National University Industry-Academic Cooperation Foundation Method for estimating disparity search range to which multi-level disparity image division is applied, and stereo image matching device using the same
CN106815594A (zh) * 2015-11-30 2017-06-09 展讯通信(上海)有限公司 立体匹配方法及装置
CN106227827A (zh) * 2016-07-25 2016-12-14 华南师范大学 服装图像前景颜色特征提取方法及服装检索方法和系统
CN106340036A (zh) * 2016-08-08 2017-01-18 东南大学 一种基于双目立体视觉的立体匹配方法
CN106296698A (zh) * 2016-08-15 2017-01-04 成都通甲优博科技有限责任公司 一种基于立体视觉的闪电三维定位方法
CN106384363A (zh) * 2016-09-13 2017-02-08 天津大学 一种快速自适应权重立体匹配算法
CN106504276A (zh) * 2016-10-25 2017-03-15 桂林电子科技大学 非局部立体匹配算法的组合匹配代价算法和视差联合填充算法
CN106780442A (zh) * 2016-11-30 2017-05-31 成都通甲优博科技有限责任公司 一种立体匹配方法及系统

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
KUK-JIN YOON等: ""Adaptive support-weight approach for correspondence search"", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
SAYGILI GORKEM等: ""Feature-based stereo matching using grap-cuts"" *
刘天亮等: ""医用光学中基于局部特征的高效稳健立体匹配算法"", 《激光与光电子学进展》 *
刘天亮等: ""采用光照不变特征改进支持权重快速立体匹配"", 《仪器仪表学报》 *
季雨航等: ""基于稳定树的立体匹配视差优化算法"" *
罗娜等: ""基于空间插值的土壤重金属污染评估分析系统设计与实现"", 《食品安全质量检测学报》 *
静大海等: ""基于扩展双权重聚合的实时立体匹配"" *

Also Published As

Publication number Publication date
CN108876841B (zh) 2023-04-28

Similar Documents

Publication Publication Date Title
CN107220997B (zh) 一种立体匹配方法及系统
CN106504276B (zh) 非局部立体匹配方法
CN106780590B (zh) 一种深度图的获取方法及系统
CN104574342B (zh) 视差深度图像的噪声识别方法和噪声识别装置
EP3367334B1 (en) Depth estimation method and depth estimation apparatus of multi-view images
CN106033621B (zh) 一种三维建模的方法及装置
TWI398158B (zh) 產生立體影像之影像深度的方法
CN104966270A (zh) 一种多图像拼接方法
CN105809651A (zh) 基于边缘非相似性对比的图像显著性检测方法
CN103384343B (zh) 一种填补图像空洞的方法及其装置
US9582859B2 (en) System and a method for depth-image-based rendering
CN107481271A (zh) 一种立体匹配方法、系统及移动终端
WO2020187339A1 (zh) 一种裸眼3d的虚拟视点图像生成方法及便携式终端
CN108510529A (zh) 一种基于自适应权值的图割立体匹配方法
CN103268604B (zh) 双目视频深度图求取方法
CN107292826A (zh) 图像处理设备、图像处理方法以及图像处理装置
CN104331890B (zh) 一种全局视差估计方法和系统
CN104869386A (zh) 一种基于分层处理虚拟视点合成方法
Zhu et al. An improved depth image based virtual view synthesis method for interactive 3D video
TWI608447B (zh) 立體影像深度圖產生裝置及方法
CN107155100B (zh) 一种基于图像的立体匹配方法及装置
Ma et al. Depth-guided inpainting algorithm for free-viewpoint video
WO2013173282A1 (en) Video disparity estimate space-time refinement method and codec
CN107220994A (zh) 一种立体匹配的方法及系统
CN109684496A (zh) 一种同款商品的图像匹配方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant