CN101790103A - 一种视差计算方法及装置 - Google Patents

一种视差计算方法及装置 Download PDF

Info

Publication number
CN101790103A
CN101790103A CN200910005981A CN200910005981A CN101790103A CN 101790103 A CN101790103 A CN 101790103A CN 200910005981 A CN200910005981 A CN 200910005981A CN 200910005981 A CN200910005981 A CN 200910005981A CN 101790103 A CN101790103 A CN 101790103A
Authority
CN
China
Prior art keywords
pixel
view
parallax
motion detection
gradient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN200910005981A
Other languages
English (en)
Other versions
CN101790103B (zh
Inventor
林四新
元辉
常义林
杨海涛
刘晓仙
霍俊彦
杨付正
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Xidian University
Original Assignee
Huawei Technologies Co Ltd
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd, Xidian University filed Critical Huawei Technologies Co Ltd
Priority to CN2009100059818A priority Critical patent/CN101790103B/zh
Priority to PCT/CN2009/075983 priority patent/WO2010083713A1/zh
Publication of CN101790103A publication Critical patent/CN101790103A/zh
Priority to US13/188,322 priority patent/US9324147B2/en
Application granted granted Critical
Publication of CN101790103B publication Critical patent/CN101790103B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供一种视差计算方法及装置,所述方法包括获取像素点的多个视图;计算所述多个视图中所述像素点的多个方向上的梯度;根据所述梯度计算所述像素点视差对应的匹配误差;根据所述匹配误差计算所述当前像素点的视差。通过本发明实施例提供视差计算方法及装置提高了视差估计的准确度。

Description

一种视差计算方法及装置
技术领域
本发明涉及三维视频编码技术领域,具体的讲是一种视差计算方法及装置。
背景技术
在传统单视点电视系统中,用户的视点与视角由摄像机的三维空间位置与方向决定。因此用户不能自由的选择观看的视点与视角。2002年提出的任意视点电视(FTV:free viewpoint television)系统则允许用户自由选择观看电视的视点与视角,从而提供一种全新的更加生动、真实的三维视听系统。
FTV的一项关键技术就是如何获得准确的深度信息,例如依据相邻的两个摄像机拍摄的两幅视图进行立体匹配(stereo matching),即视差估计。
现有技术将全局优化算法应用到视差估计,其中,全局优化算法主要构造一个满足一定约束条件的能量模型如(1)式所示,使得全局的失配能量达到最小。视差估计的准确度关键在于能量函数是否能准确表达在假定的不同视差下对应像素间实际匹配程度,以及同一深度的相邻像素视差之间的平滑性;也即(1)式中的Edata与Esmooth。
E=Edata+λ×Esmooth
Edata=|I(x-d,y)-Iref(x,y)|                    (1)
Esmooth=|disp(x,y)-disp(xneighbor,yneighbor)|
式(1)中Edata表示当前像素在视差为d的情况下的匹配误差,I(x,y)表示当前像素的亮度值,Iref(x-d,y)表示视差为d时,参考视图中的匹配像素的亮度值。与local matching的匹配策略相同,Esmooth表示相邻的两个像素的视差的绝对差,表征了相邻像素的视差的平滑性。
同时,现有技术一为了提高视差估计的准确性,FTV标准化制定过程中采用了亚像素的搜索策略计算(1)式中的Edata。
本发明的发明人在实现本发明的过程中发现,现有技术在水平方向上进行插值,会导致插值结果不够准确,进而导致视差估计的结果也不准确。
现有技术二,2008年7月在Hannover举行的MPEG第85届会议中,GIST提出在匹配误差函数Edata时增加时间一致性约束,即在(1)式中的Edata表达式中添加时间一致性约束项,如(2)式所示:
Edata=|I(x,y)-Iref(x,y-d)|+Ctemp(x,y,d)
                                                     (2)
Ctemp(x,y,d)=λ×|d-Dprev(x,y)|
在不同的匹配搜索方法中,(2)式中的|I(x,y)-Iref(x,y-d)|可以采用其它的函数代替,并不直接的体现时间一致性的约束。Dprev(x,y)表示在前一帧中与当前帧像素(x,y)具有相同坐标的像素的视差,λ表示加权因子,Ctemp(x,y,d)为时间一致性的约束项;d为当前像素的估计视差。
本发明的发明人在实现本发明的过程中发现,现有技术二对时间一致性的约束并没有考虑到运动特征,对运动区域采用统一的时间一致性约束,使得估计的视差出现错误,即准确率很低。
发明内容
本发明实施例提供一种视差计算方法及装置,可以提高估计的视差的准确率。
根据本发明的一方面,提供一种视差计算方法,所述方法包括:获取像素点的多个视图;计算所述多个视图中所述像素点的多个方向上的梯度;根据所述梯度计算所述像素点视差对应的匹配误差;根据所述匹配误差计算所述像素点的视差。
根据本发明的另一方面,还提供一种视差计算方法,所述方法包括:获取像素点的多个视图,所述多个视图包括所述像素点所在的当前视图和所述像素点相对应的参考像素点的参考视图;对当前视图中的像素点进行运动检测;根据运动检测的结果计算所述像素点视差对应的匹配误差;根据所述匹配误差计算所述像素点的视差。
根据本发明的另一方面,还提供一种视差计算装置,所述装置包括:获取单元,用于获取像素点的多个视图;梯度计算单元,用于计算所述多个视图中所述像素点的多个方向上的梯度;匹配误差单元,用于根据所述梯度计算所述像素点视差对应的匹配误差;视差计算单元,用于根据所述匹配误差计算所述像素点的视差。
根据本发明的另一方面,还提供一种视差计算装置,所述装置包括:获取单元,用于获取像素点的多个视图,所述多个视图包括所述像素点所在的当前视图和所述像素点相对应的参考像素点的参考视图;运动检测单元,对当前视图中的像素点进行运动检测;匹配误差单元,根据运动检测的结果计算所述像素点视差对应的匹配误差;视差计算单元,用于根据所述匹配误差计算所述像素点的视差。
本发明实施例通过计算像素点及其参考像素点相邻区域的梯度信息,提高了视差估计的准确度。并且通过分析视图中像素运动与否,从而保持了合成视图中静止区域的时间一致性,同时克服了未考虑运动区域位移的时间一致性错误,从而提高了视差估计的准确度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1所示为本发明对像素形态一致性约束的视差计算方法实施例流程图;
图2所示为一个像素点8个方向上的梯度图;
图3所示为本发明对像素运动检测的时间一致性约束的视差计算方法实施例流程图;
图4所示为本发明对像素形态一致性和运动检测的时间一致性约束的视差计算方法第一实施例流程图;
图5所示为本发明对像素形态一致性和运动检测的时间一致性约束的视差计算方法第二实施例流程图;
图6所示为本发明对像素形态一致性约束的视差计算装置实施例结构图;
图7所示为本发明对像素运动检测的时间一致性约束的视差计算装置实施例结构图;
图8所示为本发明对像素形态一致性和运动检测的时间一致性约束的视差计算装置实施例结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种视差计算方法及装置。以下结合附图对本发明进行详细说明。
如图1所示为本发明对像素形态一致性约束的视差计算方法实施例流程图。
包括:步骤101,获取像素点的多个视图,在本实施例中,多个视图包括所述像素点所在的当前视图和所述像素点相对应的参考像素点的参考视图,参考视图可以大于2个视图,因此,在本实施例中,为获取像素点所在的当前视图和所述像素点的参考视图。在本实施例中,获取左中右三个视图,其中,中间视图为当前视图,左右视图为中间视图的参考视图,左右视图中的像素点为中间视图中的像素点在不同视图中的参考像素点。在其它实例中,也可选取左视图或右视图作为当前视图,其计算方法相同,为描述简单,在本实施你中,以中间视图作为实施例进行描述。
步骤102,计算多个视图中所述像素点的多个方向上的梯度。如图2所示为一个像素点8个方向上的梯度图,其中空心圆点为当前像素点,实心圆点为当前像素点的8个方向上的相邻像素点。所述梯度为像素点与所述像素点的相邻像素点之间的亮度差值,或者色差值,在本实施例中,所述梯度的值包括左中右间视图中的像素点与所述像素点的相邻像素点之间的亮度差值或色差值。
例如,采用如下公式计算所述梯度:
Gi(x,y)=I(x,y)-I(x-a,y-b),i∈{1,2,3,...8},a,b{-1,0,1}    (3)
其中I(x,y)为亮度或者色度。
步骤103,根据所述梯度计算所述像素点视差对应的匹配误差。在本实施例中,根据所述梯度计算当前视图中像素点相对于参考视图的参考像素点的视差对应的匹配误差。
Edata=ω×Ψ(Lum)+(1-ω)×Ω(Grad)    (4)
Ψ ( Lum ) = 1 9 × [ | Σ a , b ∈ { - 1,0,1 } I ( x - a , y - b ) - Σ a , b ∈ { - 1,0,1 } I ref ( x - a - d , y - b ) | ] - - - ( 5 )
Ω ( Grad ) = 1 8 × Σ i = 1 8 | G i ( x , y ) - G i ref ( x - d , y ) | - - - ( 6 )
(4)式中ω表示加权系数,取值范围为(0~1);Ψ(Lum)表示当前视图中以当前像素(x,y)为中心区域的亮度值与参考视图中以匹配像素为中心区域的亮度值的绝对差值的平均值,如公式(5)所示;Ω(Grad)表示当前像素位置的8个方向的梯度分别与参考视图中的匹配像素的8个方向的梯度的绝对差的均值,如公式(6)所示,其中
Figure G2009100059818D0000061
是参考视图的梯度。
步骤104,计算视差。例如可以使用现有技术中的graph cut算法进行全局优化最终得到视差。
作为本发明的一个实施例,在所述步骤102之前还包括,对所述参考视图进行水平方向的上采样,减小为当前像素的估计视差d,从而提高搜索像素点的精确度。
通过上述实施例,可以通过计算不同视图中像素点及其相邻像素点的梯度,减小像素点的匹配误差,从而得到更加准确的视差。
如图3所示为本发明对像素运动检测的时间一致性约束的视差计算方法实施例流程图。
在帧组(GOP)内部的所有帧中检测当前帧与前一帧的相对运动区域与静止区域,只对静止区域进行时间一致性约束。
包括步骤301,获取像素点的多个视图,在本实施例中,多个视图包括所述像素点所在的当前视图和所述像素点相对应的参考像素点的参考视图,参考视图可以大于2个视图,因此,在本实施例中,为获取像素点所在的当前视图和所述像素点的参考视图。在本实施例中,获取左中右三个视图,在本实施例中,左右视图为中间视图的参考视图,中间视图作为当前视图,左右视图中的像素点为中间视图像素点在不同视图中的参考像素点。在其它实例中,也可选取左视图或右视图作为当前视图,其计算方法相同,为描述简单,在本实施你中,以中间视图作为实施例进行描述。
步骤302,对当前视图中的像素点进行运动检测。在本实施例中,可对当前视图中的每个像素点进行运动检测。
步骤303,判断当前视图中的像素点是否为运动像素,如果是则进入步骤305,否则进入步骤304。
步骤304,采用第一规则计算当前视图中的像素点视差对应的匹配误差。
步骤305,采用第二规则计算当前视图中的像素点视差对应的匹配误差。
当执行完步骤304或步骤305后,执行步骤306,计算视差。例如采用graphcut进行全局优化估计视差。
其中,作为本发明的一个实施例,在所述步骤302之前还包括,判断当前像素点是否是帧组中的第一帧,如果是则进入步骤305,否则进入步骤302。
作为本发明的一个实施例,步骤302中,将当前像素点及其周围的像素点与时间上相邻帧的相应像素点进行运动检测,周围像素点的数目根据窗口大小确定。计算以当前像素点为中心的N*N,N∈{1,3,5,7,......}窗口内的所有像素点亮度的平均值,与前一帧的同位置区域的像素点的亮度平均值的差异,如果差异大于预定的运动检测门限TH,就认为当前像素点为处于运动区域的像素点,标记为1,否则就判断为处于静止区域的像素,标记为0。还可以对视图中每一个像素都进行判断,最终得到运动像素掩模,称为(Motion Mask),以便于计算其他像素点视差时使用。
作为本发明的一个实施例,上述步骤302,还可以对当前像素点所在块在前一帧进行模板匹配,如果在参考视图中最匹配的块和当前块有偏移,则认为当前像素点处于运动区域,最终得到运动像素掩模,标记为1,否则认为处于静止区域的像素,标记为0。
作为本发明的一个实施例,所述步骤304和步骤305,所述第一规则针对像素点不运动的情况,第二规则针对像素点运动的情况,所述第一规则和第二规则符合下述公式(7):
Edata=ω×|I(x,y)-Iref(x,y-d)|+(1-ω)×Ctemp(x,y,d)
C temp ( x , y , d ) = | d - D prev ( x , y ) | , 0 < &omega; < 1 if ( MotionMask ( x , y ) = 0 ) 0 , &omega; = 1 if ( MotionMask ( x , y ) = 1 ) - - - ( 7 )
其中,当Motion Mask(x,y)=0时代表当前的像素点为不运动的像素点,即第一规则,Motion Mask(x,y)=1时代表当前的像素点为运动的像素点,即第二规则。
ω表示加权系数,取值范围为(0~1);(7)式中的|I(x,y)-Iref(x,y-d)|可以采用其它的函数代替,并不直接体现时间一致性的约束;Dprev(x,y)表示在前一帧中与当前帧像素(x,y)具有相同坐标的像素的视差,λ表示加权因子,Ctemp(x,y,d)为时间一致性的约束项;d为当前像素点的估计视差。
通过本发明实施例,通过区分视图中运动与非运动的像素点,针对不同运动状态的像素点,采用不同的运算规则来获得像素点的视差,跟现有技术中不考虑运动特征的做法相比,本发明实施例可以能够更加准确的计算视差,显著提高了视频主观质量和视觉效果。
如图4所示为本发明对像素形态一致性和运动检测的时间一致性约束的视差计算方法第一实施例流程图。
结合上述图1实施例和图3实施例,对本实施例进行描述。
包括步骤401,获取像素点的多个视图,在本实施例中,多个视图包括所述像素点所在的当前视图和所述像素点相对应的参考像素点的参考视图,参考视图可以大于2个视图,因此,在本实施例中,为获取像素点所在的当前视图和所述像素点的参考视图。在本实施例中,获取左中右三个视图,其中左右视图为中间视图的参考视图,中间视图作为当前视图,左右视图中的像素点为中间视图像素点在不同视图中的参考像素点。
步骤402,计算多个视图中所述当前像素点和参考视图中参考像素点的多个方向上的梯度。
步骤403,对当前视图中的像素点进行运动检测。
步骤404,判断当前视图中的像素点是否为运动像素,如果是则进入步骤406,否则进入步骤405。
步骤405,根据所述梯度,采用第三规则计算当前视图中的像素点视差对应的匹配误差。
步骤406,根据所述梯度,采用第四规则计算当前视图中的像素点视差对应的匹配误差。
步骤407,计算视差。例如采用graph cut进行全局优化估计视差。
作为本发明的一个实施例,在所述步骤402之前还包括,对所述参考视图进行水平方向的上采样,减小为当前像素的估计视差d,从而提高搜索像素点的精确度。
作为本发明的一个实施例,在所述步骤403之前还包括,判断当前像素点是否是帧组中的第一帧,如果是则进入步骤406,否则进入步骤403。
作为本发明的一个实施例,所述步骤402中,所述多个方向举例来说可以为8个方向,可以采用下述公式(8)计算来计算当前像素点8个方向上的梯度:
Gi(x,y)=I(x,y)-I(x-a,y-b),i∈{1,2,3,...8},a,b∈{-1,0,1} (8)
其中,I(x,y)可以为色度也可以为亮度。
作为本发明的一个实施例,所述步骤403中,计算以当前像素点为中心的N*N,N∈{1,3,5,7,......}窗口内的所有像素点亮度的平均值,与前一帧的同位置区域的像素点的亮度平均值的差异,如果差异大于预定的运动检测门限TH,就认为当前像素点为处于运动区域的像素,标记为1,若差异不大于预定的运动检测门限,就判断为处于静止区域的像素点,标记为0。还可以对视图中每一个像素点都进行判断,最终得到运动像素掩模,称为(Motion Mask),以便于计算其他像素点视差时使用。
作为本发明的一个实施例,所述步骤405和步骤406中,所述第三规则针对像素点不运动的情况,第四规则针对像素点运动的情况,所述第三规则和第四规则符合下述公式(9):
Edata=ω2×[ω1×Ψ(Lum)+(1-ω1)×Ω(Grad)]+(1-ω2)×Ctemp(x,y,d)
C temp ( x , y , d ) = | d - D prev ( x , y ) | , 0 < &omega; 2 < 1 if ( MotionMask ( x , y ) = 0 ) 0 , &omega; 2 = 1 if ( MotionMask ( x , y ) = 1 ) - - - ( 9 )
&Psi; ( Lum ) = 1 9 &times; [ | &Sigma; a , b &Element; { - 1 , 0 , 1 } I ( x - a , y - b ) - &Sigma; a , b &Element; { - 1,0,1 } I ref ( x - a - d , y - b ) | ] - - - ( 10 )
&Omega; ( Grad ) = 1 8 &times; &Sigma; i = 1 8 | G i ( x , y ) - G i ref ( x - d , y ) | - - - ( 11 )
其中,当Motion Mask(x,y)=0时代表当前的像素点为不运动的像素点,Motion Mask(x,y)=1时代表当前的像素点为运动的像素点。
ω1、ω2表示加权系数,由经验获得,取值范围均为(0~1),通常ω1和ω2均大于0.5;d为当前像素点估计视差;Ψ(Lum)表示当前视图中以当前像素点(x,y)为中心区域的平均亮度值与参考视图中以参考像素点为中心区域的平均亮度值的绝对差值;Ω(Grad)表示当前像素位置的8个方向的梯度分别与参考视图中的匹配像素的8个方向的梯度的绝对差的均值。
作为本发明的一个实施例,所述Ψ(Lum)还可以表示当前视图中以当前像素点(x,y)为中心区域的平均色度值与参考视图中以参考像素点为中心区域的平均色度值的绝对差值。
通过上述实施例,可以通过计算不同视图中像素点及其周边像素点的梯度,减小每个像素点的匹配误差,并且通过区分视图中运动与非运动的像素点,能够更加准确的计算视差,从而得到更加准确的视差。
如图5所示为本发明对像素形态一致性和运动检测的时间一致性约束的视差计算方法第二实施例流程图。
包括步骤501,获取像素点的多个视图,在本实施例中,多个视图包括所述像素点所在的当前视图和所述像素点相对应的参考像素点的参考视图,参考视图可以大于2个视图,因此,在本实施例中,为获取像素点所在的当前视图和所述像素点的参考视图。在本实施例中,获取左中右三个视图,其中左右视图为中间视图的参考视图,左右视图中的像素点为中间视图像素点在不同视图中的参考像素点。
步骤502,对当前视图中的像素点进行运动检测。
步骤503,判断当前视图中的像素点是否为运动像素,如果是则进入步骤505,否则进入步骤504。
步骤504,采用第一规则计算当前视图中的像素点视差对应的匹配误差。
步骤505,采用第二规则计算当前视图中的像素点视差对应的匹配误差。
步骤506,计算多个视图中所述像素点的多个方向上的梯度。
步骤507,根据梯度对所述匹配误差进行修正。
步骤508,计算所述像素点的视差。
作为本发明的一个实施例,所述第一规则针对像素点不运动的情况,第二规则针对像素点运动的情况,所述第一规则和第二规则符合下述公式(12):
Edatatemp=ω1×Ψ(Lum)+(1-ω1)×Ctemp(x,y,d)     (12)
C temp ( x , y , d ) ] = | d - D ( x , y ) | , 0 < &omega; 1 < 1 if ( MotionMask ( x , y ) = 0 ) 0 , &omega; 1 = 1 if ( MotionMask ( x , y ) = 1 )
Edata=ω2×Edatatemp+(1-ω2)×Ω(Grad)
&Psi; ( Lum ) = 1 9 &times; [ | &Sigma; a , b &Element; { - 1,0,1 } I ( x - a , y - b ) - &Sigma; a , b &Element; { - 1,0,1 } I ref ( x - a - d , y - b ) | ] - - - ( 13 )
&Omega; ( Grad ) = 1 8 &times; &Sigma; i = 1 8 | G i ( x , y ) - G i ref ( x - d , y ) | - - - ( 14 )
其中,当Motion Mask(x,y)=0时代表当前的像素点为不运动的像素点,Motion Mask(x,y)=1时代表当前的像素点为运动的像素点。
Edatatemp表示根据运动检测得到的匹配误差;ω1、ω2表示加权系数,由经验获得,取值范围均为(0~1),通常ω1和ω2均大于0.5;d为当前像素点估计视差;Ψ(Lum)表示当前视图中以当前像素(x,y)为中心区域的平均亮度值与参考视图中以匹配像素为中心区域的平均亮度值的绝对差值;Ω(Grad)表示当前像素位置的8个方向的梯度分别与参考视图中的匹配像素的8个方向的梯度的绝对差的均值;Edata表示根据梯度修正后的匹配误差。
如图6所示为本发明对像素形态一致性约束的视差计算装置实施例结构图。
包括获取单元601,梯度计算单元603,匹配误差单元604,视差计算单元605。
所述获取单元601,用于获取像素点的多个视图,在本实施例中,多个视图包括所述像素点所在的当前视图和所述像素点相对应的参考像素点的参考视图,参考视图可以大于2个视图,因此,在本实施例中,为获取像素点所在的当前视图和所述像素点的参考视图。在本实施例中,获取左中右三个视图,其中左右视图为中间视图的参考视图,左右视图中的像素点为中间视图当前像素点在不同视图中的参考像素点。
所述梯度计算单元603,计算多个视图中所述像素点的多个方向上的梯度。
例如采用如下公式计算所述梯度:
Gi(x,y)=I(x,y)-I(x-a,y-b),i∈{1,2,3,...8},a,b{-1,0,1}  (3)
所述匹配误差单元604,根据所述梯度计算当前视图中像素点相对于参考视图的参考像素点的视差对应的匹配误差。
所述匹配误差单元604根据如下公式计算所述匹配误差:
Edata=ω×Ψ(Lum)+(1-ω)×Ω(Grad)   (4)
&Psi; ( Lum ) = 1 9 &times; [ | &Sigma; a , b &Element; { - 1,0,1 } I ( x - a , y - b ) - &Sigma; a , b &Element; { - 1,0,1 } I ref ( x - a - d , y - b ) | ] - - - ( 5 )
&Omega; ( Grad ) = 1 8 &times; &Sigma; i = 1 8 | G i ( x , y ) - G i ref ( x - d , y ) | - - - ( 6 )
其中,(4)式中ω表示加权系数,取值范围为(0~1);Ψ(Lum)表示当前视图中以当前像素(x,y)为中心区域的平均亮度值与参考视图中以匹配像素为中心区域的平均亮度值的绝对差值,如公式(5)所示;Ω(Grad)表示当前像素位置的8个方向的梯度分别与参考视图中的匹配像素的8个方向的梯度的绝对差的均值,如公式(6)所示。
所述视差计算单元605,用于根据上述匹配误差单元604输出的匹配误差计算视差。例如可以使用现有技术中的graph cut算法进行全局优化最终得到视差。
作为本发明的一个实施例,还包括一个上采样单元602,对所述参考视图进行水平方向的上采样,从而提高搜索像素点的精确度。
如图7所示为本发明对像素运动检测的时间一致性约束的视差计算装置实施例结构图。
包括获取单元701,运动检测单元703,匹配误差单元704,视差计算单元705。
所述获取单元701,用于获取像素点的多个视图,在本实施例中,多个视图包括所述像素点所在的当前视图和所述像素点相对应的参考像素点的参考视图,参考视图可以大于2个视图,因此,在本实施例中,为获取像素点所在的当前视图和所述像素点的参考视图。在本实施例中,获取左中右三个视图,其中左右视图为中间视图的参考视图,左右视图中的像素点为中间视图当前像素点在不同视图中的参考像素点。
所述运动检测单元703,对当前视图的像素点进行运动检测。
所述匹配误差单元704,根据所述运动检测单元703输出的数据进行匹配误差计算。
所述像素点为非运动像素点则采用第一规则计算每个像素点视差对应的匹配误差。
所述像素点为运动像素点则采用第二规则计算每个像素点视差对应的匹配误差。
所述第一规则和第二规则符合下述公式(7):
Edata=ω×|I(x,y)-Iref(x,y-d)|+(1-ω)×Ctemp(x,y,d)
C temp ( x , y , d ) = | d - D prev ( x , y ) | , 0 < &omega; < 1 if ( MotionMask ( x , y ) = 0 ) 0 , &omega; = 1 if ( MotionMask ( x , y ) = 1 ) - - - ( 7 )
其中,当Motion Mask(x,y)=0时代表当前的像素点为不运动的像素点,Motion Mask(x,y)=1时代表当前的像素点为运动的像素点。
ω表示加权系数,取值范围为(0~1);(7)式中的|I(x,y)-Iref(x,y-d)|可以采用其它的函数代替,并不直接体现时间一致性的约束;Dprev(x,y)表示在前一帧中与当前帧像素(x,y)具有相同坐标的像素的视差,λ表示加权因子,Ctemp(x,y,d)为时间一致性的约束项;d为当前像素点的估计视差。
所述视差计算单元705,用于根据所述匹配误差单元704输出的匹配误差计算视差。
作为本发明的一个实施例,还包括帧组判断单元702,所述帧组判断单元702,判断当前像素点是否是帧组中的第一帧,如果是第一帧则所述匹配误差单元704对所述像素点采用第二规则计算所述匹配误差,否则所述运动检测单元703对像素点进行运动检测。
如图8所示为本发明对像素形态一致性和运动检测的时间一致性约束的视差计算装置实施例结构图。
包括获取单元801,运动检测单元803,梯度计算单元805,匹配误差单元806,视差计算单元807。
所述获取单元801,用于获取像素点的多个视图,在本实施例中,多个视图包括所述像素点所在的当前视图和所述像素点相对应的参考像素点的参考视图,参考视图可以大于2个视图,因此,在本实施例中,为获取像素点所在的当前视图和所述像素点的参考视图。在本实施例中,获取左中右三个视图,其中左右视图为中间视图的参考视图,左右视图中的像素点为中间视图当前像素点在不同视图中的参考像素点。
所述运动检测单元803,对当前视图中的像素点进行运动检测。
所述梯度计算单元805,根据所述梯度计算当前视图中像素点相对于参考视图的参考像素点的视差对应的匹配误差。
所述匹配误差单元806,根据所述运动检测单元803和所述梯度计算单元805输出的数据进行匹配误差计算。在本实施例中,匹配误差单元806可以当所述像素点为非运动像素点,则根据所述当前像素点的梯度采用第三规则计算当前像素点视差对应的匹配误差;及对于当前像素点为运动像素点则采用第四规则计算当前像素点视差对应的匹配误差,即匹配误差单元806参考所述检测结果,根据所述梯度计算所述像素点视差对应的匹配误差。
所述第三规则和第四规则符合下述公式(9):
Edata=ω2×[ω1×Ψ(Lum)+(1-ω1)×Ω(Grad)]+(1-ω2)×Ctemp(x,y,d)
C temp ( x , y , d ) = | d - D prev ( x , y ) | , 0 < &omega; 2 < 1 if ( MotionMask ( x , y ) = 0 ) 0 , &omega; 2 = 1 if ( MotionMask ( x , y ) = 1 ) - - - ( 9 )
&Psi; ( Lum ) = 1 9 &times; [ | &Sigma; a , b &Element; { - 1,0,1 } I ( x - a , y - b ) - &Sigma; a , b &Element; { - 1,0,1 } I ref ( x - a - d , y - b ) | ] - - - ( 10 )
&Omega; ( Grad ) = 1 8 &times; &Sigma; i = 1 8 | G i ( x , y ) - G i ref ( x - d , y ) | - - - ( 11 )
其中,当Motion Mask(x,y)=0时代表当前的像素点为不运动的像素点,Motion Mask(x,y)=1时代表当前的像素点为运动的像素点。
ω1、ω2表示加权系数,由经验获得,取值范围均为(0~1),通常ω1和ω2均大于0.5;d为当前像素点的估计视差;Ψ(Lum)表示当前视图中以当前像素(x,y)为中心区域的平均亮度值与参考视图中以匹配像素为中心区域的平均亮度值的绝对差值;Ω(Grad)表示当前像素位置的8个方向的梯度分别与参考视图中的匹配像素的8个方向的梯度的绝对差的均值。
在本实施例中,匹配误差单元806还可以先根据运动检测单元806的检测结果进行匹配误差计算,即当像素点为运动像素时,采用第一规则计算当前视图中的像素点视差对应的匹配误差,及当像素点为非运动像素时,采用第二规则计算当前视图中的像素点视差对应的匹配误差;再根据递度计算单元805输出的递度对所述匹配误差进行修正。
作为本发明的一个实施例,所述第一规则和第二规则符合下述公式(12):
Edatatemp=ω1×Ψ(Lum)+(1-ω1)×Ctemp(x,y,d)  (12)
C temp ( x , y , d ) ] = | d - D ( x , y ) | , 0 < &omega; 1 < 1 if ( MotionMask ( x , y ) = 0 ) 0 , &omega; 1 = 1 if ( MotionMask ( x , y ) = 1 )
Edata=ω2×Edatatemp+(1-ω2)×Ω(Grad)
&Psi; ( Lum ) = 1 9 &times; [ | &Sigma; a , b &Element; { - 1,0,1 } I ( x - a , y - b ) - &Sigma; a , b &Element; { - 1,0,1 } I ref ( x - a - d , y - b ) | ] - - - ( 13 )
&Omega; ( Grad ) = 1 8 &times; &Sigma; i = 1 8 | G i ( x , y ) - G i ref ( x - d , y ) | - - - ( 14 )
其中,当Motion Mask(x,y)=0时代表当前的像素点为不运动的像素点,Motion Mask(x,y)=1时代表当前的像素点为运动的像素点。
Edatatemp表示根据运动检测得到的匹配误差;ω1、ω2表示加权系数,由经验获得,取值范围均为(0~1),通常ω1和ω2均大于0.5;d为当前像素点估计视差;Ψ(Lum)表示当前视图中以当前像素(x,y)为中心区域的平均亮度值与参考视图中以匹配像素为中心区域的平均亮度值的绝对差值;Ω(Grad)表示当前像素位置的8个方向的梯度分别与参考视图中的匹配像素的8个方向的梯度的绝对差的均值;Edata表示根据梯度修正后的匹配误差,即所述匹配误差单元806输出的最终的匹配误差。
所述Ψ(Lum)还可以表示当前视图中以当前像素点(x,y)为中心区域的平均色度值与参考视图中以参考像素点为中心区域的平均色度值的绝对差值。
所述视差计算单元807,用于根据所述匹配误差单元806输出的匹配误差计算视差。
作为本发明的一个实施例,还包括帧组判断单元802,判断所述当前像素点是否是帧组中的第一帧,如果是第一帧则所述匹配误差单元806对所述像素点采用第二规则计算所述匹配误差,否则所述运动检测单元803对像素点进行运动检测。
作为本发明的一个实施例,还包括上采样单元804,对所述参考视图进行水平方向的上采样,从而提高搜索像素点的精确度。
本发明的实施例的有益效果在于,本发明通过分析视图中像素运动与否,从而保持了合成视图中静止区域的时间一致性,同时克服了未考虑运动区域位移的时间一致性错误;并且保证了运动区域相对于静止区域边缘的空间一致性,尤其是运动物体相对于静止物体的边缘具优良好的空间一致性;提高了运动区域的合成图像质量。
本发明通过计算当前像素点和参考像素点的梯度,即使用了形态一致性,不仅提高了视差估计的准确度,同时也提高了深度图与合成视图的时间一致性,特别是有效保持了物体的正确边缘,显著提高了视频主观质量和视觉效果。使平坦区域的深度也更加平滑。
采用本专利申请提出的形态和亮度同时考虑运动特征联合测度的视差估计方法比只用亮度作为测度的亚像素视差估计方法提高约0.3dB。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (17)

1.一种视差计算方法,其特征在于,所述方法包括:
获取像素点的多个视图;
计算所述多个视图中所述像素点的多个方向上的梯度;
根据所述梯度计算所述像素点视差对应的匹配误差;
根据所述匹配误差计算所述像素点的视差。
2.根据权利要求1所述的方法,其特征在于,所述梯度为像素点与所述像素点的相邻像素点之间的亮度差值,或者色差值。
3.根据权利要求1所述的方法,其特征在于,所述计算所述多个视图中所述像素点的多个方向上的梯度的步骤包括:计算所述多个视图中所述像素点的8个方向上的梯度。
4.根据权利要求1所述的方法,其特征在于,所述多个视图包括所述像素点所在的当前视图和所述像素点相对应的参考像素点的参考视图。
5.根据权利要求4所述的方法,其特征在于,所述根据所述梯度计算所述像素点视差对应的匹配误差的步骤包括:
根据所述梯度计算所述当前视图中像素点相对于所述参考视图中的参考像素点的视差对应的匹配误差。
6.根据权利要求4所述的方法,其特征在于,所述计算所述多个视图中所述像素点的多个方向上的梯度的步骤之后包括:
对当前视图中的像素点进行运动检测,得到检测结果;
所述根据所述梯度计算所述像素点视差对应的匹配误差,包括:
参考所述检测结果,根据所述梯度计算所述像素点视差对应的匹配误差。
7.根据权利要求6所述的方法,其特征在于,所述对当前视图中的像素点进行运动检测的步骤包括:
计算以所述像素点为中心的N*N,N∈{1,3,5,7,......}窗口内的所有像素点亮度的平均值,与时间上相邻帧的同位置区域的像素点的亮度平均值的差异;
若差异大于预定的运动检测门限,则所述像素点为运动;
若差异不大于预定的运动检测门限,则所述像素点为静止。
8.一种视差计算方法,其特征在于,所述方法包括:
获取像素点的多个视图,所述多个视图包括所述像素点所在的当前视图和所述像素点相对应的参考像素点的参考视图;
对当前视图中的像素点进行运动检测;
根据运动检测的结果计算所述像素点视差对应的匹配误差;
根据所述匹配误差计算所述像素点的视差。
9.根据权利要求8所述的方法,其特征在于,所述根据运动检测的结果计算所述像素点视差对应的匹配误差的步骤之后,包括:
计算所述多个视图中所述像素点的多个方向上的梯度;
根据所述梯度对所述匹配误差进行修正;
所述根据运动检测的结果计算所述像素点视差对应的匹配误差,包括:
根据所述修正后的匹配误差计算所述像素点的视差。
10.根据权利要求8所述的方法,其特征在于,所述对当前视图中的像素点进行运动检测的步骤包括:
计算以所述像素点为中心的N*N,N∈{1,3,5,7,......}窗口内的所有像素点亮度的平均值,与时间上相邻帧的同位置区域的像素点的亮度平均值的差异;
若差异大于预定的运动检测门限,则所述像素点为运动;
若差异不大于预定的运动检测门限,则所述像素点为静止。
11.根据权利要求8所述的方法,其特征在于,对所述当前像素点进行运动检测之前还包括:
所述当前像素点是否是帧组中的第一帧,则计算所述当前像素点的匹配误差,或者,所述当前像素点不是帧组中的第一帧,对所述当前像素点进行运动检测。
12.一种视差计算装置,其特征在于所述装置包括:
获取单元,用于获取像素点的多个视图;
梯度计算单元,用于计算所述多个视图中所述像素点的多个方向上的梯度;
匹配误差单元,用于根据所述梯度计算所述像素点视差对应的匹配误差;
视差计算单元,用于根据所述匹配误差计算所述像素点的视差。
13.根据权利要求12所述的装置,其特征在于包括,所述多个视图包括所述像素点所在的当前视图和所述像素点相对应的参考像素点的参考视图,所述装置还包括:
运动检测单元,用于对所述当前视图中的像素点进行运动检测;
所述匹配误差单元,还用于参考所述检测结果,根据所述梯度计算所述像素点视差对应的匹配误差。
14.一种视差计算装置,其特征在于,所述装置包括:
获取单元,用于获取像素点的多个视图,所述多个视图包括所述像素点所在的当前视图和所述像素点相对应的参考像素点的参考视图;
运动检测单元,对所述当前视图中的像素点进行运动检测;
匹配误差单元,根据运动检测的结果计算所述像素点视差对应的匹配误差;
视差计算单元,用于根据所述匹配误差计算所述像素点的视差。
15.根据权利要求14所述的装置,其特征在于,还包括:
梯度计算单元,用于计算所述多个视图中所述像素点的多个方向上的梯度;
所述匹配误差单元,还用于根据所述梯度对所述匹配误差进行修正。
16.根据权利要求14所述的装置,其特征在于,包括:
帧组判断单元,用于判断当前像素点是否是帧组中的第一帧,如果是第一帧则由所述匹配误差单元执行,否则,由所述运动检测单元执行。
17.根据权利要求14所述的装置,其特征在于,所述运动检测包括:计算以所述像素点为中心的N*N,N∈{1,3,5,7,......}窗口内的所有像素点亮度的平均值,与时间上相邻帧的同位置区域的像素点的亮度平均值的差异;
若差异大于预定的运动检测门限,则所述像素点为运动;
若差异不大于预定的运动检测门限,则所述像素点为静止。
CN2009100059818A 2009-01-22 2009-01-22 一种视差计算方法及装置 Expired - Fee Related CN101790103B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN2009100059818A CN101790103B (zh) 2009-01-22 2009-01-22 一种视差计算方法及装置
PCT/CN2009/075983 WO2010083713A1 (zh) 2009-01-22 2009-12-24 一种视差计算方法及装置
US13/188,322 US9324147B2 (en) 2009-01-22 2011-07-21 Method and apparatus for computing a parallax

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009100059818A CN101790103B (zh) 2009-01-22 2009-01-22 一种视差计算方法及装置

Publications (2)

Publication Number Publication Date
CN101790103A true CN101790103A (zh) 2010-07-28
CN101790103B CN101790103B (zh) 2012-05-30

Family

ID=42355520

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009100059818A Expired - Fee Related CN101790103B (zh) 2009-01-22 2009-01-22 一种视差计算方法及装置

Country Status (3)

Country Link
US (1) US9324147B2 (zh)
CN (1) CN101790103B (zh)
WO (1) WO2010083713A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102387374A (zh) * 2010-08-30 2012-03-21 三星电子株式会社 用于获得高精度深度图的设备和方法
CN102802020A (zh) * 2012-08-31 2012-11-28 清华大学 监测双目立体视频视差信息的方法和装置
CN102984531A (zh) * 2011-03-28 2013-03-20 索尼公司 图像处理设备、图像处理方法以及程序
CN103295229A (zh) * 2013-05-13 2013-09-11 清华大学深圳研究生院 视频深度信息恢复的全局立体匹配方法
CN104584545A (zh) * 2012-08-31 2015-04-29 索尼公司 图像处理装置、图像处理方法、以及信息处理装置
CN104902260A (zh) * 2015-06-30 2015-09-09 Tcl集团股份有限公司 一种图像视差的获取方法及系统
WO2016065579A1 (zh) * 2014-10-30 2016-05-06 北京大学深圳研究生院 一种全局视差估计方法和系统

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053342A (ja) * 2010-09-02 2012-03-15 Sony Corp 表示装置
CN103702098B (zh) * 2013-12-09 2015-12-30 上海交通大学 一种时空域联合约束的三视点立体视频深度提取方法
JP6807034B2 (ja) * 2015-12-01 2021-01-06 ソニー株式会社 画像処理装置および画像処理方法
CN112861940A (zh) * 2021-01-26 2021-05-28 上海西井信息科技有限公司 双目视差估计方法、模型训练方法以及相关设备

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5768404A (en) 1994-04-13 1998-06-16 Matsushita Electric Industrial Co., Ltd. Motion and disparity estimation method, image synthesis method, and apparatus for implementing same methods
JP3242529B2 (ja) * 1994-06-07 2001-12-25 松下通信工業株式会社 ステレオ画像対応付け方法およびステレオ画像視差計測方法
US6384859B1 (en) * 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
JP3539788B2 (ja) * 1995-04-21 2004-07-07 パナソニック モバイルコミュニケーションズ株式会社 画像間対応付け方法
WO1998003021A1 (en) * 1996-06-28 1998-01-22 Sri International Small vision module for real-time stereo and motion analysis
JPH1175189A (ja) * 1997-08-27 1999-03-16 Mitsubishi Electric Corp 画像符号化方法
JPH11289544A (ja) 1998-04-02 1999-10-19 Sony Corp 動き検出装置およびその方法
EP0951181A1 (en) * 1998-04-14 1999-10-20 THOMSON multimedia Method for detecting static areas in a sequence of video pictures
US6606406B1 (en) 2000-05-04 2003-08-12 Microsoft Corporation System and method for progressive stereo matching of digital images
US20020024517A1 (en) * 2000-07-14 2002-02-28 Komatsu Ltd. Apparatus and method for three-dimensional image production and presenting real objects in virtual three-dimensional space
JP4193342B2 (ja) * 2000-08-11 2008-12-10 コニカミノルタホールディングス株式会社 3次元データ生成装置
US6839459B2 (en) * 2001-09-19 2005-01-04 Hewlett-Packard Development Company, L.P. Method and apparatus for three-dimensional shadow lightening
US8600113B2 (en) * 2004-11-12 2013-12-03 The University Court Of The University Of St. Andrews System, method and computer program product for video fingerprinting
CN100556153C (zh) * 2007-12-05 2009-10-28 宁波大学 一种多视点图像的预处理方法
BRPI0822142A2 (pt) * 2008-01-29 2015-06-30 Thomson Licensing Método e sistema para converter dados de imagem em 2d para dados de imagem estereoscópica
CN100586199C (zh) * 2008-03-30 2010-01-27 深圳华为通信技术有限公司 视差获取方法和装置
CN102077246A (zh) * 2008-06-24 2011-05-25 汤姆森特许公司 利用运动补偿进行图像的深度提取的系统和方法
US20090322781A1 (en) * 2008-06-30 2009-12-31 Mikhail Letavin Anti-aliasing techniques for image processing
CN100596210C (zh) * 2008-07-24 2010-03-24 四川大学 一种基于亚像素的立体图像的视差提取方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102387374A (zh) * 2010-08-30 2012-03-21 三星电子株式会社 用于获得高精度深度图的设备和方法
CN102387374B (zh) * 2010-08-30 2015-07-29 三星电子株式会社 用于获得高精度深度图的设备和方法
CN102984531A (zh) * 2011-03-28 2013-03-20 索尼公司 图像处理设备、图像处理方法以及程序
CN102802020A (zh) * 2012-08-31 2012-11-28 清华大学 监测双目立体视频视差信息的方法和装置
CN104584545A (zh) * 2012-08-31 2015-04-29 索尼公司 图像处理装置、图像处理方法、以及信息处理装置
CN102802020B (zh) * 2012-08-31 2015-08-12 清华大学 监测双目立体视频视差信息的方法和装置
CN103295229A (zh) * 2013-05-13 2013-09-11 清华大学深圳研究生院 视频深度信息恢复的全局立体匹配方法
CN103295229B (zh) * 2013-05-13 2016-01-20 清华大学深圳研究生院 视频深度信息恢复的全局立体匹配方法
WO2016065579A1 (zh) * 2014-10-30 2016-05-06 北京大学深圳研究生院 一种全局视差估计方法和系统
CN104902260A (zh) * 2015-06-30 2015-09-09 Tcl集团股份有限公司 一种图像视差的获取方法及系统

Also Published As

Publication number Publication date
CN101790103B (zh) 2012-05-30
US9324147B2 (en) 2016-04-26
WO2010083713A1 (zh) 2010-07-29
US20110273537A1 (en) 2011-11-10

Similar Documents

Publication Publication Date Title
CN101790103B (zh) 一种视差计算方法及装置
US20210065391A1 (en) Pseudo rgb-d for self-improving monocular slam and depth prediction
US8629901B2 (en) System and method of revising depth of a 3D image pair
CN103164711B (zh) 基于像素和支持向量机的区域人流密度估计的方法
US8953873B2 (en) Method for objectively evaluating quality of stereo image
US20110063420A1 (en) Image processing apparatus
US20120262543A1 (en) Method for generating disparity map of stereo video
EP3076367A1 (en) Method for road detection from one image
US20130064443A1 (en) Apparatus and method for determining a confidence value of a disparity estimate
US20110013840A1 (en) Image processing method and image processing apparatus
CN102609950B (zh) 一种二维视频深度图的生成方法
US20140098089A1 (en) Image processing device, image processing method, and program
CN104680496A (zh) 一种基于彩色图像分割的Kinect深度图修复方法
CN103957397B (zh) 一种基于图像特征的低分辨率深度图像上采样方法
CN109255811A (zh) 一种基于可信度图视差优化的立体匹配方法
US9449389B2 (en) Image processing device, image processing method, and program
CN104517317A (zh) 一种车载红外图像三维重建方法
US20130083993A1 (en) Image processing device, image processing method, and program
CN104200453A (zh) 基于图像分割和可信度的视差图像校正方法
CN102761765B (zh) 一种用于三维立体视频的深度快速插帧方法
CN106251348A (zh) 一种面向深度相机的自适应多线索融合背景减除方法
CN103020964B (zh) 一种基于自适应分水岭的图割的双目立体匹配方法
CN108848365B (zh) 一种重定位立体图像质量评价方法
US20130201184A1 (en) View synthesis method capable of depth mismatching checking and depth error compensation
KR20100137282A (ko) 입체 영상에서의 폐색을 처리하는 입체 정합 시스템 및 방법, 폐색 처리 알고리즘을 기록한 컴퓨터에 의해 판독가능한 매체

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120530

Termination date: 20210122