CN104025153B - 粗到细多个视差候选立体匹配 - Google Patents

粗到细多个视差候选立体匹配 Download PDF

Info

Publication number
CN104025153B
CN104025153B CN201180076169.XA CN201180076169A CN104025153B CN 104025153 B CN104025153 B CN 104025153B CN 201180076169 A CN201180076169 A CN 201180076169A CN 104025153 B CN104025153 B CN 104025153B
Authority
CN
China
Prior art keywords
fragment
disparity map
parallax
matching cost
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201180076169.XA
Other languages
English (en)
Other versions
CN104025153A (zh
Inventor
T·Y·古瑟瓦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of CN104025153A publication Critical patent/CN104025153A/zh
Application granted granted Critical
Publication of CN104025153B publication Critical patent/CN104025153B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

用于基于多个视差分配和每一视差分配的匹配成本来生成立体图像对的视差图的估计;以及通过细化所估计的视差图来生成最终视差图的图像处理装置、系统以及方法。

Description

粗到细多个视差候选立体匹配
背景
根据立体图像生成三维(3-D)信息是3-D和其他多视图图像处理中的重要任务。注意,真实世界点(例如,所观看的对象)投影到立体图像中的唯一一对对应像素。基于立体图像,从与同一真实世界点相对应的立体图像提取或以其他方式生成3-D信息是可能的。确定所投影的立体图像中的点距主题点的位置通常造成对应性问题。解决该对应性问题可包括生成视差图(disparity map)的估计。
与同一真实世界图像相关联的立体图像的两个对应点的位置的差异通常被称为视差。在左和右(即,立体)图像中多个真实世界点的投影的视差的图可被称为视差图。用于生成视差图的一些以前的技术包括局部、全局、以及迭代技术。然而,这些技术中的每一个都不乏其缺点。例如,对于局部方法,视差图的估计取决于有限窗口内的强度值因而计算成本很低。相反,全局方法可以使用非局部约束来降低对局部区域(如遮挡或无纹理区域)的敏感性,但与局部方法相比,全局方法的计算成本因而很高。另外,先前的迭代方法可采用通常操作图像金字塔的粗到细技术,其中来自较粗糙水平的结果被用于定义较精细水平的更加局部的搜索。改进这样的迭代方法的效率因而是重要的。
附图说明
本文中所公开的各方面通过示例而非限制地在附图中示出。为说明的简单和清楚而非限制起见,在附图中示出的各方面不一定按比例绘制。此外,在认为合适的地方,在附图中重复附图标记以指示相应或相似的元件。
图1是根据本文的一些实施例的对应立体对图像的说明性描绘。
图2是根据一个实施例的过程的流程图。
图3是根据一个实施例的与视差图的估计相关的过程300的流程图。
图4示出根据一实施例的“无疑”片段的分类的匹配成本和交集大小域的图。
图5示出根据一实施例的“稳定”片段的分类的匹配成本和交集大小域的图。
图6示出根据一实施例的“不稳定”片段的分类的匹配成本和交集大小域的图。
图7示出根据一实施例的“未被遮挡”片段的分类的匹配成本和交集大小域的图。
图8示出根据本文的一实施例的视差图的说明性描绘。
图9示出根据本文的一些实施例的可生成视差图的图像处理系统的框图。
具体实施方式
以下描述了可支持用于提高生成视差图的效率和准确性的过程和操作的图像处理设备或系统。本公开内容提供了与用于实现这些过程和操作的系统有关的多个具体细节。然而,本领域技术人员将领会,没有这些具体细节也可实践本公开内容的诸实施例。因而,在一些实例中,诸如控制机制和全软件指令序列等各方面未被详细示出以便不模糊本公开内容的其他方面。本领域技术人员利用本文所包括的描述将能在无需过度实验的情况下实现适当的功能。
在说明书中对“一个实施例”、“一些实施例”、“一实施例”、“示例实施例”、“一实例”、“一些实例”等的引用表明所描述的实施例可包括特定特征、结构或特性,但不一定每个实施例均包括该特定特征、结构或特性。此外,这样的短语不一定是指同一个实施例。此外,当结合一个实施例描述特定特征、结构或特性时,我们认为,可在本领域技术人员的学识范围内,与其他实施例相结合地影响这样的特征、结构或特性,无论是否对此明确描述。
本文的一些实施例可以用硬件、固件、软件或它们的任意组合来实现。各实施例还可实现为储存在机器可读介质上的可执行指令,这些指令可由一个或多个处理器读取和执行。一种机器可读存储介质可包括用于以机器(例如,计算设备)可读的形式存储信息的任意有形的非暂时性机构。在一些方面,机器可读存储介质可包括只读存储器(ROM);随机存取存储器(RAM);磁盘存储介质;光存储介质;闪存设备;以及电子或光学形式的信号。尽管在本文中将固件、软件、例程、以及指令描述为执行某些动作,但应当明白,这些描述仅仅是出于方便起见且这些动作实际上得自执行该固件、软件、例程以及指令的计算设备、处理器、控制器以及其他设备。
与共同对象相对应的立体对图像投影可被处理以生成多视图或三维(3-D)图像,例如通过从立体图像中提取场景的3-D结构。这基于以下事实:真实世界点投影到相关联的立体图像中的唯一一对对应的像素。因而,在确定对应的像素时还原该对象点的三维信息是可能的。
图1是从来自真实世界图像的投影获得的立体对图像105和110的说明性描绘。在一些方面,图像105可被称为立体对的左图像而图像110可被称为立体对的右图像。
在一个实施例中,本文的方法和系统基于多峰值候选集合结合匹配成本模糊性确定来估计经调整的立体对的视差图。在一些方面,粗到细方法被用来降低与视差图的确定相关联的计算要求。作为一些实施例的总体概览,图2是用于生成视差图估计的过程200的说明性流程图。
过程200可包括用于对一对立体图像分段的操作205。立体图像因而是过程200的输入并且可被称为输入立体对在操作210,确定将与输入立体对相对应的片段分类成“可疑”还是值得信任(即,“不可疑”)以用于视差图估计过程。具体而言,一些实施例确定片段是否是“可疑”的,而这样的确定可以用于稍后的处理操作。在操作215,输入立体对可按预定因子来按比例缩小。缩小可以在过程200的这一时刻执行,以减少生成视差图估计所需的计算。在一些方面,缩放因子在本文中被称为tsc。继续至操作220,使用立体对的经缩放的图像Il和Ir来执行视差图D的估计与在确定视差图估计时使用的因子和考虑有关的附加细节在下文中提供。
过程200还包括用于放大在操作220生成的所估计的视差图D的操作225。提供该放大以补偿操作215的缩小。注意,缩小和放大发生在所估计的视差图的计算之前和之后。以此方式,计算所估计的视差图所需的计算资源可被降低。操作230包括所估计的视差图的细化Dl。在一些方面,左和右图像分别被用作右和左图像的附加图像。
如上所述,过程200是本文的方法的一实施例的总体概览的流程图。下文是过程200的操作的更详细呈现,示出了本公开的各方面。各详细方面中的一些在图3的过程300中反映。
图3包括305处的分段操作。关于分段操作305,在一些实施例中,分段可通过将图像表示为X并且将图像片段的集合表示为SX来实现。图像X可被迭代地过滤Nms次并且经过滤的图像F的像素F(i,j)((i,j)是像素位置)可如下定义:
其中
W(i,j)是其中心在像素(i,j)处的(2hsp+1)×(2hsp+1)窗口。
片段s∈SX可如下定义:当且仅当经过滤的像素的颜色距离小于阈值,两个邻居像素才属于同一片段。即,
注意,
因而,图像可被分段成各片段,其中各片段包括其间的颜色距离小于阈值的像素。在一些实施例中,阈值可以是预定的。
关于检测可疑片段操作210,可疑片段可通过将图像表示为X并将图像片段的集合表示为SX来确定或检测。如果片段s∈SX不包含nd×nd像素块,则它可被定义为“可疑的”。即,
其中w和h是图像X的宽度和高度。在此,表示“不可疑”片段的集合,并且表示可疑片段的集合。因此,
被分类成可疑的片段可能不包括用于确定视差图的足够信息。
过程200的操作215包括缩小输入立体对图像。在一些实施例中,图像可按因子tsc来缩小。在此,X表示图像且SX表示图像片段的集合。对于每一其中w和h是图像X宽度和高度,将和W(i,j)定义为:
其中表示其左上角处于当前像素的方形块,表示该方形块与某一‘不可疑片段’的最大交集。对于所有‘不可疑’片段,选择给出最大交集的那一片段;W(i,j)类似于唯一区别是关于所有片段(不仅是‘不可疑’的,如以上情况所示)。
经缩放图像Y的像素Y(i,j)(其中(i,j)是像素位置)被定义为:
与片段s∈SX相对应的经缩放的片段ssc被定义为:
操作310包括过程200的详细方面,过程220用于计算片段的匹配成本,其中匹配成本由Cs(d)来表示。匹配成本的计算考虑要为其计算匹配成本的片段是“不可疑”还是“可疑”的。
在片段被确定或检测为“不可疑”(即,并非“可疑”)的情况下,一些实施例分别将主图像和附加图像表示为I和Ia。注意,因为“不可疑”片段s的一部分可被遮挡,所以通过到附加图像Ia的视差d来弯曲的片段sd可与若干片段重叠(其中,这样的片段的集合被表示为S0),以及
sd={(x,y):0≤x<w,0≤y<h,(x-d,y)∈s},
其中w和h是附加图像Ia的宽度和高度。在此,将对应的片段定义为与弯曲片段sd交集最大的片段。这一方面可被表示为:
“不可疑”片段s的匹配误差的能量Cs(d)被定义为:
在片段被确定或检测为“可疑”的情况下,根据以下来确定匹配成本,其中I和Ia分别指的是主图像和附加图像。对于“可疑”片段s,窗口Ws可被定义为像素(i,j),使得像素(i,j)与片段s之间的距离小于nd。即,
其中s(i,j)是像素(i,j)所属的片段。
“可疑”片段s的匹配误差的能量Cs(d)被定义为:
本领域普通技术人员应当明白,术语“可疑”和“不可疑”是为命名惯例方便起见来使用的,并且这些术语由本文公开的方程和其他指定关系来定义。
确定了“可疑”和“不可疑”片段的匹配成本后,操作315(例如,图2中引入的操作220)的视差图的估计包括基于片段的匹配成本最小值来确定视差候选并基于片段的匹配成本最小值将视差候选分配给多个片段分类之一以生成立体图像的所估计的视差图。在一些实施例中,本公开的这一方面可包括(i)检测或确定片段中的每一个适合多个片段分类中的哪一个,(ii)将视差候选片段分配给检测到的分类,(iii)细化视差候选集合,以及(iv)细化视差图。一般而言,这四个操作可被应用于多个片段分类中的每一分类的片段。
在以下公开中,本领域普通技术人员应当明白,用于命名多个片段分类的术语是为命名惯例方便起见来使用的,并且这些术语由本文公开的方程和其他指定关系来定义。
在一个实施例中,视差候选的检测包括检测匹配成本最小值Ms。即,检测使得
Cs(d)<Cs(d-dl)-δ,
Cs(d)<Cs(d+dr)-δ,
其中
此外,在一些实施例中,当且仅当存在匹配成本最小值d′,使得
其中将视差d定义为片段s视差候选。
在一个实施例中,视差候选的细化包括将图像表示为I且将片段s视差候选的集合表示为Ds。对于每一图像I,“不可疑”片段和Ns是类似片段的集合,向其分配视差。即,
其中是向其分配视差的片段的集合。
在一个实施例中,如果弯曲的片段sd与一些弯曲的类似片段s′∈Ns有交集,则值d从视差候选集合Ds中移除。即,
其中是分配给片段s′的视差。
如上所述,本文的过程包括对多个片段分类中的每一分类的视差分配。在一个实例中,对“无疑”片段进行视差分配。在一个实施例中,将主图像和附加图像分别表示为I和Ia。首先,选择“不可疑”片段使得视差候选集合Ds包括一个元素。即,匹配成本域Cs(d)具有一个局部最小值,
在一个实施例中,将片段s∈S′I的集合表示为使得
·对应片段是“不可疑”的,即
·匹配成本小于
·弯曲片段与对应片段的交集大于其中是片段s视差候选。
如本文使用的,片段被称为“无疑”片段,其中“无疑”片段是在匹配成本域具有一个很好定义的局部最小值的片段。
最后,视差候选被分配给尚未被分配视差的每一“无疑”片段。
图4是“无疑”片段的匹配成本和交集大小域的示例。在图4中,匹配成本由线405表示,线410表示弯曲和对应的片段的交集的大小,415表示视差候选的匹配成本,以及420表示视差候选的交集大小。
在一个实例中,对“稳定”片段进行视差分配。在一个实施例中,将主图像和附加图像分别表示为I和Ia。选择“不可疑”片段使得存在使对应片段“不可疑”的视差候选d∈Ds。即,
其中对于每一片段s∈S′I,检测匹配成本最小的视差候选因此,
其中分别是弯曲和对应的片段。
在此,如果以下条件之一满足,则称片段s∈S″I是“稳定的”:
1.集合包括一个元素
2.匹配成本是良好定义的局部最小值,即,
3.令
视差候选交集是良好定义的,即,
其中
如果前两个条件(即,1或2)之一满足,则视差被分配给尚未被分配视差的“稳定”片段s。否则,分配视差(条件3)。
图5是“稳定”片段的匹配成本和交集大小域的说明性示例。在图5中,匹配成本由线505表示,线510表示弯曲和对应的片段的交集的大小,515表示视差候选的匹配成本,以及520表示视差候选的交集大小。
在一个实例中,对“不稳定”片段进行视差分配。在一个实施例中,I表示输入图像。还将“不可疑”片段的集合表示为S′I,使得视差候选集合Ds非空并且视差被分配给某一“不可疑”的相邻片段。
对于每一片段s∈S′I,选择视差候选,使得对应的匹配成本充分小并且类似视差被分配给某一“不可疑”的相邻片段。即,
其中Ns是向其分配视差的“不可疑”相邻片段的集合且ds′是分配给片段s′∈Ns的视差。
如果集合D′s非空且
其中则片段s∈S′I被称为“不稳定”的。
视差被分配给尚未被分配视差的“不稳定”片段。
图6是“不稳定”片段的匹配成本和交集大小域的说明性示例。在图6中,匹配成本由线605表示,线610表示弯曲和对应的片段的交集的大小,615表示视差候选的匹配成本,以及620表示视差候选的交集大小。
在一个实例中,对“未被遮挡”片段进行视差分配。在一个实施例中,将I表示为输入图像且将S′I表示为片段s∈SI的集合,使得视差候选集合Ds非空且视差被分配给某一相邻片段。
对于每一片段s∈S′I,选择视差候选,使得类似视差被分配给某一相邻片段s′d∈Ns。即,
其中ds′是分配给片段s′的视差。
如果:
1.集合D′s是非空集合;
2.
3.如果|D′s|>1,其中
Ns是向其分配视差的相邻片段的集合,
且ds′是分配给片段s′的视差,
则片段s∈S′I被称为“未被遮挡”。
这一实施例向尚未被分配视差的每一“未被遮挡”的片段s分配视差
图7是“未被遮挡”片段的匹配成本和交集大小域的说明性示例。在图7中,匹配成本由线705表示,线710表示弯曲和对应的片段的交集的大小,715表示视差候选的匹配成本,以及720表示视差候选的交集大小。
在一些实施例中,对“未被遮挡”片段进行视差分配。在一个实施例中,I表示输入图像。尚未被分配视差的每一片段被检测为“被遮挡”的。
对于每一“被遮挡”片段s,将片段的集合表示为N′s,使得
s1∈Ns
sn∈Ns′
其中Ns是片段s相邻片段的集合。
对于每一“被遮挡”片段s,分配视差其中ds′是分配给片段s′的视差。
在一些实施例中,将每一片段分配给多个视差分配分类中的每一分类后,可执行视差图一致性检查。在一些方面,I表示主图像且Ia表示附加图像,并且指的是向其分配视差的主图像和附加图像片段的集合。
对于每一片段s∈SI,检测与片段s相对应的各附加图像片段。即,
其中ds′是分配给s′片段的视差,且是与片段s′相对应的片段。
如果集合Ns非空并且对于任何片段s0,s1∈Ns,分配给它们的视差是相等的则每一片段与视差相关联,其中s′∈Ns
在一些方面,如果不存在s′∈Ns使得|ds+ds′|<thrcc,则片段从集合中移除。
回头参考图1,操作125,基于片段的匹配成本的分类来生成的所估计的视差图被放大。放大操作被执行以补偿在视差图的估计之前对立体图像片段执行的缩小操作(例如,115)。在一个实施例中,对于输入图像片段的集合视差图的放大可通过将Iin和I分别表示为输入图像和经缩小的图像来执行。对于每一片段
其中是与片段s相对应的经缩放的片段。
如果集合Ns非空,则分配视差其中ds′是分配给片段s′的视差。
在本文的一些实施例中,视差图估计被进一步细化。细化可包括将I和Ia分别表示为主图像和附加图像。
对于每一像素(i,j),表示:
其中W(i,j)是其中心处于像素(i,j)的(2nd+1)×(2nd+1)窗口,以及
其中s(i,j)是像素(i,j)所属的片段,且是分配给片段s(i,j)的视差。最后,视差被分配给每一片段s∈SI
应当明白,用于实现过程200和300的各实施例的上述描述提供了用于执行这些方法的说明性示例。另外,作为所公开的实现的补充、替换以及修改的其他操作可被包括在本公开的范围内。
图8是根据本文公开的过程所生成的视差图估计的说明性描绘。在图8的示例中,在区域805和810处的视差图估计分别对应于图1的在105和110处的输入立体对。
基于上述内容,可以看到,本文的方法和系统与先前其他方法的区别在于视差关联方面。本文的方法包括其中按匹配成本域模糊性增加的次序来分配视差的方案。所公开的方法不使用几何约束。以此方式,没有对匹配唯一性的假定。
在一些方面,所公开的方法包括较粗糙水平结果传播的方案。例如,在一些实施例中,代替标准图像金字塔,更精细水平的片段信息被使用。这些方法高效地允许降低计算复杂度,而没有伴随的性能降低。
注意,本文的方法和系统甚至在难以处理区域(如大型遮挡和无纹理区域)中也正确地估计视差。此外,一些实施例规定所估计的视差是平滑的并有效地保留了对象边界。
图9是根据一些实施例的系统或装置900的框图概览。系统可以例如与用于实现本文描述的方法和过程的任何设备相关联,包括例如供应软件产品的业务服务提供者的客户机设备和服务器。系统900包括处理器905,诸如,形式为单芯片微处理器或多核处理器的一个或多个商业可用的中央处理单元,耦合至被配置为经由通信网络(图9中未示出)与另一个设备或系统进行通信的通信设备915。在该实现中,系统900包括应用服务器,通信设备915可提供系统900来与客户机设备交互。系统900还可包括本地存储器910,诸如RAM存储器模块。系统600还包括输入设备920(如,用于输入内容的触摸屏、鼠标、和/或键盘)和输出设备925(如,用于显示用户界面元素的计算机监视器)。
处理器905与存储设备930通信。存储设备930可包括任何合适的信息存储设备,包括磁存储设备(如,硬盘驱动器)、光存储设备、和/或半导体存储器设备的组合。在一些实施例中,存储设备可包括数据库系统。
存储设备930存储程序代码935,可提供计算机可执行指令用于,根据此处的过程而处理来自例如客户机设备的处理请求。处理器905可执行程序935的指令来藉此根据此处描述的任何实施例地进行操作。程序代码935可被存储为压缩的、未编译的、和/或加密的格式。程序代码935可进一步包括其他程序元件,诸如操作系统、数据库管理系统、和/或由处理器905使用来与例如外围设备交互的设备驱动器。存储设备930还可包括数据945。在一些方面,数据945与视差图估计引擎940结合,可由系统900用于执行此处的过程,诸如过程200和300。
本文讨论的所有系统和过程可被实现在储存于一个或多个计算机可读介质上的程序代码中。这样的介质可包括例如软盘、CD-ROM、DVD-ROM、一种或多种类型的“盘”、磁带、存储卡、闪存驱动器、固态驱动器、以及固态随机存取存储器(RAM)或只读存储器(ROM)存储单元。各实施例因而不限于硬件和软件的任何具体组合。
本文中仅仅出于说明目的描述了各实施例。本领域技术人员将从这一描述中认识到,各实施例不限于所描述的实施例,而是可以在只受权利要求书的精神和范围所限定的各种修改和更改的情况下来实施。

Claims (12)

1.一种计算机实现的方法,所述方法包括:
基于多个视差分配以及每一视差分配的匹配成本来生成立体图像对的视差图的估计;以及
通过细化所估计的视差图来生成最终视差图,
其中生成所述视差图估计包括:
对所述立体图像分段,各片段各自包括具有颜色距离的多个像素,所述多个像素的所述颜色距离处于彼此的阈值内;
确定所述片段是可疑的还是不可疑的;
计算所述片段的匹配成本;
基于所述片段的匹配成本最小值来确定诸个视差候选;以及
基于所述片段的匹配成本最小值来将所述诸个视差候选分配给多个片段分类之一,以生成所述立体图像的所估计的视差图。
2.如权利要求1所述的方法,其特征在于,所述多个片段分类中的每一片段分类包括不同水平的分段信息。
3.如权利要求1所述的方法,其特征在于,还包括:
在生成所估计的视差图之前,按预定因子来缩小所述立体图像;以及
在生成所估计的视差图之后,按所述预定因子对它进行放大。
4.如权利要求1所述的方法,其特征在于,所述视差图估计适用于所述立体图像的被遮挡区域。
5.一种生成视差图的系统,所述系统包括:
其上存储有处理器可执行指令的机器可读介质;以及
视差图估计器,包括用于执行所述指令以进行以下操作的处理器:
基于多个视差分配以及每一视差分配的匹配成本来生成立体图像对的视差图的估计;以及
通过细化所估计的视差图来生成最终视差图,
其中生成所述视差图估计包括:
对所述立体图像分段,各片段各自包括具有颜色距离的多个像素,所述多个像素的所述颜色距离处于彼此的阈值内;
确定所述片段是可疑的还是不可疑的;
计算所述片段的匹配成本;
基于所述片段的匹配成本最小值来确定诸个视差候选;以及
基于所述片段的匹配成本最小值来将所述诸个视差候选分配给多个片段分类之一,以生成所述立体图像的所估计的视差图。
6.如权利要求5所述的系统,其特征在于,所述多个片段分类中的每一片段分类包括不同水平的分段信息。
7.如权利要求5所述的系统,其特征在于,还包括:
在生成所估计的视差图之前,按预定因子来缩小所述立体图像;以及
在生成所估计的视差图之后,按所述预定因子对它进行放大。
8.如权利要求5所述的系统,其特征在于,所述视差图估计适用于所述立体图像的被遮挡区域。
9.一种生成视差图的系统,所述系统包括:
存储器;
其上存储有处理器可执行指令的机器可读介质;以及
执行所述指令以进行以下操作的处理器:
基于多个视差分配以及每一视差分配的匹配成本来生成立体图像对的视差图的估计;以及
通过细化所估计的视差图来生成最终视差图,
其中生成所述视差图估计包括:
对所述立体图像分段,各片段各自包括具有颜色距离的多个像素,所述多个像素的所述颜色距离处于彼此的阈值内;
确定所述片段是可疑的还是不可疑的;
计算所述片段的匹配成本;
基于所述片段的匹配成本最小值来确定诸个视差候选;以及
基于所述片段的匹配成本最小值来将所述诸个视差候选分配给多个片段分类之一,以生成所述立体图像的所估计的视差图。
10.如权利要求9所述的系统,其特征在于,所述多个片段分类中的每一片段分类包括不同水平的分段信息。
11.如权利要求9所述的系统,其特征在于,还包括:
在生成所估计的视差图之前,按预定因子来缩小所述立体图像;以及
在生成所估计的视差图之后,按所述预定因子对它进行放大。
12.如权利要求9所述的系统,其特征在于,所述视差图估计适用于所述立体图像的被遮挡区域。
CN201180076169.XA 2011-12-30 2011-12-30 粗到细多个视差候选立体匹配 Expired - Fee Related CN104025153B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/RU2011/001058 WO2013100790A1 (en) 2011-12-30 2011-12-30 Coarse-to-fine multple disparity candidate stereo matching

Publications (2)

Publication Number Publication Date
CN104025153A CN104025153A (zh) 2014-09-03
CN104025153B true CN104025153B (zh) 2017-09-15

Family

ID=46579306

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180076169.XA Expired - Fee Related CN104025153B (zh) 2011-12-30 2011-12-30 粗到细多个视差候选立体匹配

Country Status (3)

Country Link
US (1) US9342916B2 (zh)
CN (1) CN104025153B (zh)
WO (1) WO2013100790A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9390508B2 (en) 2014-03-03 2016-07-12 Nokia Technologies Oy Method, apparatus and computer program product for disparity map estimation of stereo images
JP6561511B2 (ja) * 2014-03-20 2019-08-21 株式会社リコー 視差値導出装置、移動体、ロボット、視差値生産導出方法、視差値の生産方法及びプログラム
US9756312B2 (en) 2014-05-01 2017-09-05 Ecole polytechnique fédérale de Lausanne (EPFL) Hardware-oriented dynamically adaptive disparity estimation algorithm and its real-time hardware
US10074158B2 (en) 2014-07-08 2018-09-11 Qualcomm Incorporated Systems and methods for stereo depth estimation using global minimization and depth interpolation
TW201742001A (zh) * 2016-05-30 2017-12-01 聯詠科技股份有限公司 影像雜訊估測方法及裝置與影像擷取裝置
US10839535B2 (en) 2016-07-19 2020-11-17 Fotonation Limited Systems and methods for providing depth map information
US10462445B2 (en) 2016-07-19 2019-10-29 Fotonation Limited Systems and methods for estimating and refining depth maps
US10645417B2 (en) 2017-10-09 2020-05-05 Google Llc Video coding using parameterized motion model
CN108681753B (zh) * 2018-05-29 2021-03-30 武汉环宇智行科技有限公司 一种基于语义分割及神经网络的图像立体匹配方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101309412A (zh) * 2008-07-07 2008-11-19 浙江大学 基于深度图像渲染的多通道视频流编码器和解码器

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100307883B1 (ko) * 1998-04-13 2001-10-19 박호군 정합화소수를이용한유사도측정방법및이를구현하기위한장치
US7330593B2 (en) 2004-06-25 2008-02-12 Stmicroelectronics, Inc. Segment based image matching method and system
KR100603603B1 (ko) * 2004-12-07 2006-07-24 한국전자통신연구원 변위 후보 및 이중 경로 동적 프로그래밍을 이용한 스테레오 변위 결정 장치 및 그 방법
EP1806697B1 (en) * 2006-01-10 2016-08-10 Microsoft Technology Licensing, LLC Segmenting image elements
US7894662B2 (en) * 2006-10-11 2011-02-22 Tandent Vision Science, Inc. Method for using image depth information in identifying illumination fields
US8325979B2 (en) * 2006-10-30 2012-12-04 Tomtom Global Content B.V. Method and apparatus for detecting objects from terrestrial based mobile mapping data
CN101563709B (zh) * 2006-12-18 2013-07-31 皇家飞利浦电子股份有限公司 校准照相机系统
CN201309412Y (zh) * 2008-08-16 2009-09-16 吴叡翰 全自动波箱循环清洗换油机
JP5229733B2 (ja) 2008-11-25 2013-07-03 Necシステムテクノロジー株式会社 ステレオマッチング処理装置、ステレオマッチング処理方法およびプログラム
AU2009201637B2 (en) * 2009-04-24 2011-08-11 Canon Kabushiki Kaisha Processing multi-view digital images
US8933925B2 (en) * 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
US20110032341A1 (en) * 2009-08-04 2011-02-10 Ignatov Artem Konstantinovich Method and system to transform stereo content
WO2011069021A2 (en) * 2009-12-02 2011-06-09 Qualcomm Incorporated Improving performance of image recognition algorithms by pruning features, image scaling, and spatially constrained feature matching
US20110199468A1 (en) * 2010-02-15 2011-08-18 Gallagher Andrew C 3-dimensional display with preferences
US8488870B2 (en) * 2010-06-25 2013-07-16 Qualcomm Incorporated Multi-resolution, multi-window disparity estimation in 3D video processing
US9111342B2 (en) * 2010-07-07 2015-08-18 Electronics And Telecommunications Research Institute Method of time-efficient stereo matching
US8395659B2 (en) * 2010-08-26 2013-03-12 Honda Motor Co., Ltd. Moving obstacle detection using images
US8582866B2 (en) * 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
CN102129567A (zh) 2011-03-17 2011-07-20 南京航空航天大学 一种基于色彩分割和自适应窗口的快速立体匹配方法
US8989481B2 (en) * 2012-02-13 2015-03-24 Himax Technologies Limited Stereo matching device and method for determining concave block and convex block
US9597016B2 (en) * 2012-04-27 2017-03-21 The Curators Of The University Of Missouri Activity analysis, fall detection and risk assessment systems and methods

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101309412A (zh) * 2008-07-07 2008-11-19 浙江大学 基于深度图像渲染的多通道视频流编码器和解码器

Also Published As

Publication number Publication date
CN104025153A (zh) 2014-09-03
US20130314409A1 (en) 2013-11-28
WO2013100790A1 (en) 2013-07-04
US9342916B2 (en) 2016-05-17

Similar Documents

Publication Publication Date Title
CN104025153B (zh) 粗到细多个视差候选立体匹配
US9137512B2 (en) Method and apparatus for estimating depth, and method and apparatus for converting 2D video to 3D video
US8571314B2 (en) Three-dimensional display system with depth map mechanism and method of operation thereof
CN100586199C (zh) 视差获取方法和装置
CN109961406A (zh) 一种图像处理的方法、装置及终端设备
US9350969B2 (en) Target region filling involving source regions, depth information, or occlusions
US20100073364A1 (en) Conversion method and apparatus with depth map generation
EP1865729A2 (en) Method and device for generating a disparity map from stereo images and stereo matching method and device therefor
US9769460B1 (en) Conversion of monoscopic visual content to stereoscopic 3D
KR20100119559A (ko) 2d 이미지 데이터를 스테레오스코픽 이미지 데이터로 변환하기 위한 방법 및 시스템
US9235879B2 (en) Apparatus, system, and method for temporal domain hole filling based on background modeling for view synthesis
CN106887021B (zh) 立体视频的立体匹配方法、控制器和系统
JP6173218B2 (ja) 背景ピクセル拡張及び背景優先パッチマッチングを用いるマルチビューレンダリング装置及び方法
US9661307B1 (en) Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
US20140313187A1 (en) Stereoscopic Target Region Filling
JP6620443B2 (ja) 監視プログラム、監視装置、及び監視方法
KR100943635B1 (ko) 디지털카메라의 이미지를 이용한 디스패리티 맵 생성 장치 및 방법
EP2562717B1 (en) Three-dimensional display system with depth map mechanism and method of operation thereof
US9325962B2 (en) Method and system for creating dynamic floating window for stereoscopic contents
JP2013176052A (ja) 可視性エネルギーモデルを用いた視差推定装置及び方法
CN104254870B (zh) 用于局部优化纹理综合3‑d图像修复的方法和装置
US8934055B1 (en) Clustering based motion layer detection
KR101856257B1 (ko) 양안 시차 영상의 보정 장치 및 그 방법
Feng et al. Superpixel based depth propagation for semi-automatic 2D-to-3D video conversion
Chen et al. Disocclusion-type aware hole filling method for view synthesis

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170915

Termination date: 20191230