CN102026013B - 基于仿射变换的立体视频匹配方法 - Google Patents

基于仿射变换的立体视频匹配方法 Download PDF

Info

Publication number
CN102026013B
CN102026013B CN2010105942171A CN201010594217A CN102026013B CN 102026013 B CN102026013 B CN 102026013B CN 2010105942171 A CN2010105942171 A CN 2010105942171A CN 201010594217 A CN201010594217 A CN 201010594217A CN 102026013 B CN102026013 B CN 102026013B
Authority
CN
China
Prior art keywords
parallax
frame image
pixel
current frame
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2010105942171A
Other languages
English (en)
Other versions
CN102026013A (zh
Inventor
杜歆
张飞
陈国赟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN2010105942171A priority Critical patent/CN102026013B/zh
Publication of CN102026013A publication Critical patent/CN102026013A/zh
Application granted granted Critical
Publication of CN102026013B publication Critical patent/CN102026013B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于仿射变换的立体视频匹配方法。该方法用于对双目摄像机拍摄得到的立体视频进行立体匹配,包括以下步骤:1)提取当前帧图像和前一帧图像的特征点并进行匹配,求取当前帧图像到前一帧图像的仿射变换矩阵;2)根据仿射变换矩阵,将当前帧图像的像素点投影到前一帧;3)计算前后帧匹配点的像素差,以检测当前帧图像中的静止区域;4)计算当前帧图像的初始匹配代价;5)更新当前帧图像静止区域的匹配代价;6)计算当前帧图像的视差图。本发明利用了视频帧之间的仿射约束关系,使得当前帧视差同时受前一帧视差的约束,有效地减弱了噪声等对视差精度的影响;提高了视差在视频中的稳定性,保证了视差图序列在时域上的稳定性。

Description

基于仿射变换的立体视频匹配方法
技术领域
本发明涉及一种立体视频匹配的方法,特别是涉及一种基于仿射变换的立体视频匹配方法。
背景技术
立体匹配方法是计算机视觉中的研究热点,其产生的视差图在三维重建、视频视点合成、图像分层、图像渲染等方面有广泛的应用价值。尤其是当前3D电影的兴起和迅速发展,标志着能够有效改善用户真实性体验的三维立体显示时代的到来。跟传统的平面显示相比,三维立体显示可以让用户有身临其境的感觉,增强了场景的渲染力、生动性和刺激感,如3D足球播放技术,让用户仿佛有置身现场的感觉,并且可以从各个角度观看全场。
然而要得到良好的三维立体显示的效果,需要解决很多问题:数据传送量增大、观看视点少、个体用户的体验要求等等。如果传送多个视点的视频,会极大地增加数据传送量,对带宽是一种挑战,因此可以选择传送少量视点和视点视差图的方式来减少数据量,然后在终端用“视点图+视差图”的方式生成新的视点,这样可以同时解决数据量增大和视点少的问题。各个用户对三维场景感知的要求会有差别,同时观看的距离、屏幕大小的区别也会对场景的显示深度有影响,因此在实现三维显示过程中,应该容许用户交互地根据个人对立体感知的要求,调节场景的显示深度。而调节场景显示深度的实质是调节视频之间的视差,从而得到视频的视差图是必备的步骤。有了视频视差图后,根据用户的调节,动态地以一定规则更改视差值,再重新生成新的视频源。从这些技术上的要求可以看出,视频视差图的求取是三维立体显示的一个关键步骤。
视频的立体匹配方法大致可以分成两种方向:一是将视频的每一帧视为纯粹的图像,用图像的立体匹配方法得到每一帧的视差图;另一种是充分利用视频帧之间的关系,在图像立体匹配的基础之上加入视频帧信息和约束。本发明提出了基于视频帧之间的仿射变换关系的立体匹配方法,利用连续帧的约束,对当前帧中的静止场景用前一帧的视差值作为初始值,并更新当前帧的匹配代价值,然后再用图像立体匹配方案得到视差图。
发明内容
本发明的目的在于提出一种基于仿射变换的立体视频匹配方法,充分利用了视频帧之间的仿射变换关系,用前一帧的视差信息约束当前帧的视差值,不但提高了求取当前帧初始视差图的准确度,还有效地保证了视差图序列在时域上的稳定性。
本发明采用的技术方案是:
利用立体视频前后帧之间的时域信息,计算仿射变换矩阵,在立体视频当前帧的单帧图像立体匹配方法基础上,增加视频帧之间的仿射变换约束;下列步骤中,步骤4)用立体视频的左路当前帧和立体视频的右路当前帧进行匹配得到初始匹配代价,其余步骤分别对立体视频的左路视频和立体视频的右路视频分别单独相同的实施步骤如下: 
1)提取当前帧和前一帧的图像特征点,并进行图像特征点匹配,求取仿射变换矩阵;
2)根据步骤1)得到的仿射变换矩阵,将当前帧图像中的像素点投影到前一帧,并对非整数坐标的投影像素点进行插值运算,得到当前帧图像的像素点在前一帧图像上的投影点;
3)根据步骤2)得到的投影点,计算当前帧图像的像素点和其在前一帧图像上的投影点的像素值的差,以检测当前帧图像中的静止区域像素点;
4)计算当前帧图像的初始匹配代价;
5)计算更新匹配代价的权重系数,包括前后帧图像视差的整体相似度和相邻视差值的权重递变函数值;
6)根据步骤4)中当前帧图像的初始匹配代价,以及步骤5)中的权重系数,更新当前帧静止区域像素点的匹配代价,对运动区域像素点的匹配代价则保持不变;
7)计算左路当前帧图像视差图和右路当前帧图像视差图。
2、所述的根据图像特征点匹配,求取仿射变换矩阵,包括以下步骤:
2.1)用Harris角点检测方法,分别提取当前帧                                               
Figure 2010105942171100002DEST_PATH_IMAGE002
和前一帧
Figure DEST_PATH_IMAGE004
的图像特征点;
2.2)对提取的两个图像特征点进行匹配;
2.3)根据匹配结果,计算当前帧到前一帧的仿射变换矩阵
Figure DEST_PATH_IMAGE006
3、所述的将当前帧中的像素点投影到前一帧,并对非整数坐标的投影像素点进行插值运算,是指当前帧中的像素坐标
Figure DEST_PATH_IMAGE008
按照所求取的仿射变换矩阵
Figure 208184DEST_PATH_IMAGE006
,投影到前一帧
Figure 853929DEST_PATH_IMAGE004
中坐标为
Figure DEST_PATH_IMAGE010
处,若像素坐标
Figure 729743DEST_PATH_IMAGE010
不是整数,则用
Figure 777334DEST_PATH_IMAGE004
中相邻像素进行双线性插值,得到该点的像素值
Figure DEST_PATH_IMAGE012
4、所述的计算当前帧图像的像素点和其在前一帧图像上的投影点的像素值的差,以检测当前帧图像中的静止区域像素点,是指对当前帧图像坐标为
Figure 149409DEST_PATH_IMAGE008
的像素值
Figure DEST_PATH_IMAGE014
和经过仿射变换投影到前一帧坐标为
Figure 846232DEST_PATH_IMAGE010
的像素值
Figure 961956DEST_PATH_IMAGE012
,在一定窗口内求SAD值(绝对差值和):
Figure DEST_PATH_IMAGE016
,其中
Figure DEST_PATH_IMAGE018
表示SAD值。若
Figure 427834DEST_PATH_IMAGE018
小于一个特定的阈值
Figure DEST_PATH_IMAGE020
,则判定当前帧坐标为
Figure 970811DEST_PATH_IMAGE008
的像素点为静止区域点;反之,则为运动区域点。
5、所述的计算当前帧图像的初始匹配代价,是指用基于局部窗口匹配的SAD方法对立体视频当前帧的左图和右图进行匹配,分别得到当前帧左图的的初始匹配代价
Figure DEST_PATH_IMAGE022
和当前帧右图的初始匹配代价
Figure DEST_PATH_IMAGE024
6、所述的更新权重系数中的前后帧图像视差的整体相似度系数,包括以下步骤:
1)对立体视频的当前帧的左右图像提取Harris特征点并进行匹配;
2)对立体视频的前一帧的左右图像提取Harris特征点并进行匹配;
3)用直方图分别统计当前帧匹配特征点的视差以及前一帧匹配特征点的视差,然后得到视差直方图的相似度系数
Figure DEST_PATH_IMAGE026
,其中
Figure DEST_PATH_IMAGE028
为直方图维度,
Figure DEST_PATH_IMAGE030
为预设的一常量,
Figure DEST_PATH_IMAGE032
分别为当前帧和前一帧匹配点的归一化视差直方图分布。
7、所述的更新权重系数中的相邻视差值的权重递变函数值,是指用权重递变函数
Figure DEST_PATH_IMAGE036
计算当前帧图像中坐标为处的视差
Figure DEST_PATH_IMAGE038
在其通过仿射变换投影到前一帧图像中坐标为
Figure 672413DEST_PATH_IMAGE010
处的视差
Figure DEST_PATH_IMAGE040
的一个变化区间
Figure DEST_PATH_IMAGE042
内的各个候选视差的权重系数。
8、所述的更新静止区域像素的匹配代价,是指对当前帧图像静止区域中坐标为的像素,更新其匹配代价;计算包括以下步骤:
1)计算当前帧图像坐标为
Figure 706676DEST_PATH_IMAGE008
处像素的初始匹配代价
Figure DEST_PATH_IMAGE044
2)更新当前帧图像静止区域中坐标为的像素的匹配代价:
Figure DEST_PATH_IMAGE046
其中,为前后帧图像视差的整体相似度系数,
Figure 960251DEST_PATH_IMAGE036
为权重递变函数,
Figure DEST_PATH_IMAGE050
为预设的常量,表示视差变化范围。
9、所述的计算左路当前帧图像视差图和右路当前帧图像视差图,是指对当前帧图像中坐标为
Figure 135143DEST_PATH_IMAGE008
处的像素的匹配代价
Figure DEST_PATH_IMAGE052
,用匹配代价最小的原则选择该像素的视差值:
Figure DEST_PATH_IMAGE054
其中是视差
Figure 410135DEST_PATH_IMAGE038
的变换区间,
Figure DEST_PATH_IMAGE058
为当前帧图像中坐标为
Figure 240950DEST_PATH_IMAGE008
的像素的视差值。
本发明具有的有益效果是:
本发明提高了视差图的精度,由于充分利用视频帧之间的仿射约束关系,使得当前帧的视差同时受前一帧视差的约束,有效地减弱了噪声等对视差精度的影响;提高了视差在视频中的稳定性,保证了视差图序列在时域上的稳定性。
附图说明
图1是基于仿射变化的视差立体匹配方法的总体流程图。
图2是当前帧像素投影到前一帧的示意图。
具体实施方式
以下结合附图和实施例对本发明进行进一步的说明。
图1给出了基于仿射变换的视频立体匹配方法的总体流程图。
如图1所示,在步骤101中,分别对立体视频的左路视频和右路视频求取当前帧图像到前一帧图像
Figure 967784DEST_PATH_IMAGE004
的仿射变换矩阵
Figure DEST_PATH_IMAGE060
Figure DEST_PATH_IMAGE062
。具体步骤为:
1)用Harris角点检测方法,分别提取当前帧图像
Figure 915142DEST_PATH_IMAGE002
和前一帧图像
Figure 669472DEST_PATH_IMAGE004
的Harris图像特征点;
有关Harris角点检测方法,可参见参考文献[1]:
[1] C. Harris and M. Stephens. A combined corner and edge detector. Proceedings of the 4th Alvey Vision Conference, pp. 147-151.
2)用NCC(Normalized Cross Correlation)方法对提取的Harris角点进行匹配;
有关NCC匹配方法,可参见参考文献[2]:
[2] P. Smith, D. Sinclair, R. Cipolla, K. Wood. Effective corner matching. British Machine Vision Conference, pp. 545–556
3)根据角点匹配结果,计算当前帧图像到前一帧图像的仿射变换矩阵
Figure DEST_PATH_IMAGE064
上式中,
Figure 618284DEST_PATH_IMAGE008
表示在当前帧图像
Figure 48128DEST_PATH_IMAGE002
中的Harris角点坐标,
Figure DEST_PATH_IMAGE066
表示在前一帧图像
Figure 148809DEST_PATH_IMAGE004
中的匹配Harris角点的坐标。
4)分别对立体视频的左路视频和右路视频实施上述步骤1)~3),得到左路视频当前帧图像到前一帧图像的仿射变换矩阵
Figure 689511DEST_PATH_IMAGE060
和右路视频当前帧图像到前一帧图像的仿射变换矩阵
Figure 395299DEST_PATH_IMAGE062
如图1所示,在步骤102中,分别将立体视频的左路视频和右路视频的当前帧像素投影到前一帧上。如图2所示,设当前帧图像上的点像素坐标为
Figure 305966DEST_PATH_IMAGE008
,其在前一帧图像上的投影点像素坐标为
Figure 34888DEST_PATH_IMAGE010
,则
Figure DEST_PATH_IMAGE068
Figure DEST_PATH_IMAGE070
Figure DEST_PATH_IMAGE072
。若
Figure 238336DEST_PATH_IMAGE010
不是位于整数坐标点,则用双线性插值方法得到该投影点的像素值
Figure 798630DEST_PATH_IMAGE012
有关双线性插值可参考文献[3]:
[3] Rafael C. Gonzalez, Richard E. Woods. Digital Image Processing, Second Endition. Gatesmark Publishing. 
如图1所示,在步骤103中,分别检测立体视频的左路视频和右路视频当前帧中的静止区域。对于当前帧图像
Figure 868480DEST_PATH_IMAGE002
坐标为的像素点和其在前一帧图像中的仿射变换投影点
Figure 444320DEST_PATH_IMAGE010
,计算它们的像素SAD值:
Figure DEST_PATH_IMAGE074
上式中,
Figure DEST_PATH_IMAGE076
表示SAD窗口尺寸,
Figure DEST_PATH_IMAGE078
表示对像素的RGB颜色通道分别进行SAD计算并累加,
Figure 75284DEST_PATH_IMAGE018
表示像素SAD值。
如果
Figure 513219DEST_PATH_IMAGE018
小于一个预先设定的阈值
Figure 996153DEST_PATH_IMAGE020
,则判定当前帧图像
Figure 531039DEST_PATH_IMAGE002
中坐标为
Figure 378909DEST_PATH_IMAGE008
的像素点为静止区域点,否则为运动区域点。
如图1所示,在步骤104中,用基于局部窗口匹配的SAD方法对立体视频的左路当前帧图像和右路当前帧图像进行匹配,分别得到左路当前帧图像的初始匹配代价
Figure DEST_PATH_IMAGE080
和右路当前帧图像的初始匹配代价
Figure DEST_PATH_IMAGE082
有关基于局部窗口匹配的SAD方法可参考文献[4]:
[4] Daniel Scharstein, Richard Szeliski. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms. International journal of computer vision, pp. 7-42.
如图1所示,在步骤105中,用立体视频中的左路视频前一帧图像的视差值来约束左路视频当前帧图像中属于静止区域的像素点的匹配代价,用立体视频中的右路视频前一帧图像的视差值来约束右路视频当前帧图像中属于静止区域的像素点的匹配代价。其具体步骤包括:
1)计算更新匹配代价的权重系数中的前后帧图像视差的整体相似度系数
Figure 992556DEST_PATH_IMAGE048
,包括以下步骤:和相邻视差值的权重递变函数
Figure 279181DEST_PATH_IMAGE036
a)对立体视频的当前帧的左右图像提取Harris特征点并进行匹配,得到当前帧图像匹配点对的视差分布
Figure DEST_PATH_IMAGE084
b)对立体视频的前一帧的左右图像提取Harris特征点并进行匹配,得到前一帧图像匹配点对的视差分布
Figure DEST_PATH_IMAGE086
c)对
Figure 579023DEST_PATH_IMAGE086
分别进行直方图统计,然后分别归一化,得到匹配点视差的归一化直方图分布
Figure 53867DEST_PATH_IMAGE032
Figure 816286DEST_PATH_IMAGE034
,可通过以下公式表示:
Figure DEST_PATH_IMAGE088
Figure DEST_PATH_IMAGE090
其中
Figure DEST_PATH_IMAGE092
Figure DEST_PATH_IMAGE094
分别表示当前帧图像视差直方图的最小值和最大值,
Figure DEST_PATH_IMAGE096
Figure DEST_PATH_IMAGE098
分别表示前一帧图像视差直方图的最小值和最大值。
d)计算前后帧图像视差的整体相似度系数
Figure 892269DEST_PATH_IMAGE026
其中
Figure 792092DEST_PATH_IMAGE028
为直方图维度,
Figure 420519DEST_PATH_IMAGE030
为预设的一常量。
2)计算更新匹配代价的权重系数中的相邻视差值的权重递变函数
Figure 20390DEST_PATH_IMAGE036
。计算当前帧图像中坐标为
Figure 708861DEST_PATH_IMAGE008
处的视差
Figure 158296DEST_PATH_IMAGE038
在其通过仿射变换投影到前一帧图像中坐标为
Figure 262519DEST_PATH_IMAGE010
处的视差
Figure 481010DEST_PATH_IMAGE040
的一个变化区间内的各个候选视差的权重系数:
Figure DEST_PATH_IMAGE100
3)更新当前帧图像静止区域像素的匹配代价
Figure 501281DEST_PATH_IMAGE052
。对步骤103中得到的当前帧图像静止区域像素点,根据仿射变换关系,用其在前一帧图像中的对应投影点视差
Figure 737090DEST_PATH_IMAGE040
来约束当前帧图像的视差
Figure 810088DEST_PATH_IMAGE038
,并更新步骤104中得到的初始匹配代价
Figure 341826DEST_PATH_IMAGE044
对于当前帧图像运动区域的像素点,则保持其匹配代价不变。
4)分别对立体视频的左路视频和右路视频实施上述步骤3),得到左路视频当前帧图像的匹配代价和右路视频当前帧图像的匹配代价
Figure DEST_PATH_IMAGE104
如图1所示,在步骤106中,对步骤104中得到立体视频的左路视频当前帧图像的匹配代价和右路视频当前帧图像的匹配代价
Figure 765482DEST_PATH_IMAGE104
,分别应用匹配代价最小(WTA)原则,得到左路视频当前帧图像的视差图和右路当前帧图像的视差图:
Figure DEST_PATH_IMAGE106
其中
Figure 28973DEST_PATH_IMAGE056
表示当前帧图像视差
Figure 674718DEST_PATH_IMAGE038
的变化区间,
Figure DEST_PATH_IMAGE110
表示左路视频当前帧图像坐标为
Figure 550533DEST_PATH_IMAGE008
的像素的视差值,
Figure DEST_PATH_IMAGE112
表示右路视频当前帧图像坐标为
Figure 598123DEST_PATH_IMAGE008
的像素的视差值。
有关WTA原则可参考文献[4]:
[4] Daniel Scharstein, Richard Szeliski. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms. International journal of computer vision, pp. 7-42.

Claims (5)

1.一种基于仿射变换的立体视频匹配方法,其特征在于:利用立体视频前后帧之间的时域信息,计算仿射变换矩阵,在立体视频当前帧的单帧图像立体匹配方法基础上,增加视频帧之间的仿射变换约束;下列步骤中,步骤4)用立体视频的左路视频当前帧和立体视频的右路视频当前帧进行匹配得到初始匹配代价,其余步骤对立体视频的左路视频和立体视频的右路视频分别单独地实施相同的步骤,实施步骤如下:
1)提取当前帧和前一帧的图像特征点,并进行图像特征点匹配,求取仿射变换矩阵;
2)根据步骤1)得到的仿射变换矩阵,将当前帧图像中的像素点投影到前一帧,并对非整数坐标的投影像素点进行插值运算,得到当前帧图像的像素点在前一帧图像上的投影点;
3)根据步骤2)得到的投影点,计算当前帧图像的像素点和其在前一帧图像上的投影点的像素值的差,以检测当前帧图像中的静止区域像素点;
4)计算当前帧图像的初始匹配代价;
5)计算更新匹配代价的权重系数,包括前后帧图像视差的整体相似度和相邻视差值的权重递变函数值;
6)根据步骤4)中当前帧图像的初始匹配代价,以及步骤5)中的权重系数,更新当前帧静止区域像素点的匹配代价,对运动区域像素点的匹配代价则保持不变;
7)计算当前帧图像的视差图;
所述的更新权重系数中的前后帧图像视差的整体相似度系数,包括以下步骤:
1)对立体视频的当前帧的左右图像提取Harris特征点并进行匹配;
2)对立体视频的前一帧的左右图像提取Harris特征点并进行匹配;
3)用直方图分别统计当前帧匹配特征点的视差以及前一帧匹配特征点的视差,然后得到视差直方图的相似度系数
Figure FDA0000111407290000021
其中N为直方图维度,σs为预设的一常量,
Figure FDA0000111407290000022
Figure FDA0000111407290000023
分别为当前帧和前一帧匹配点的归一化视差直方图分布;
所述的更新权重系数中的相邻视差值的权重递变函数值,是指用权重递变函数g(dc)计算当前帧图像中坐标为(xc,yc)处的视差dc在其通过仿射变换投影到前一帧图像中坐标为(xc′,yc′)处的视差dp的一个变化区间[dp-n,dp+n]内的各个候选视差的权重系数;
所述的更新静止区域像素的匹配代价,是指对当前帧图像静止区域中坐标为(xc,yc)的像素,更新其匹配代价;计算包括以下步骤:
1)计算当前帧图像坐标为(xc,yc)处像素的初始匹配代价Costinit(xc,yc,dc);
2)更新当前帧图像静止区域中坐标为(xc,yc)的像素的匹配代价:
Cost ( x c , y c , d c ) d c ∈ [ d p - n , d p + n ] = Cost init ( x c , y c , d c ) 1 + α h g ( d c )
其中,αh为前后帧图像视差的整体相似度系数,g(dc)为权重递变函数,n为预设的常量,表示视差变化范围;
计算更新匹配代价的权重系数中的相邻视差值的权重递变函数g(dc),计算当前帧图像中坐标为(xc,yc)处的视差dc在其通过仿射变换投影到前一帧图像中坐标为(xc′,yc′)处的视差dp的一个变化区间[dp-n,dp+n]内的各个候选视差的权重系数:
g ( d c ) = 1 2 π e ( d c - d p ) 2 2 , d c ∈ [ d p - n , d p + n ] ;
所述的计算当前帧图像的视差图,是指对当前帧图像中坐标为(xc,yc)处的像素的匹配代价Cost(xc,yc,dc),用匹配代价最小的原则选择该像素的视差值:
d ( x c , y c ) = arg min d c ∈ D ( Cost ( x c , y c , d c ) )
其中D是视差dc的变换区间,d(xc,yc)为当前帧图像中坐标为(xc,yc)的像素的视差值。
2.根据权利要求1所述的一种基于仿射变换的立体视频匹配方法,其特征在于:所述的根据图像特征点匹配,求取仿射变换矩阵,包括以下步骤:
2.1)用Harris角点检测方法,分别提取当前帧fc和前一帧fp的图像特征点;
2.2)对提取的两个图像特征点进行匹配;
2.3)根据匹配结果,计算当前帧到前一帧的仿射变换矩阵H。
3.根据权利要求1所述的一种基于仿射变换的立体视频匹配方法,其特征在于:所述的将当前帧中的像素点投影到前一帧,并对非整数坐标的投影像素点进行插值运算,是指当前帧fc中的像素坐标(xc,yc)按照所求取的仿射变换矩阵H,投影到前一帧fp中坐标为(xc′,yc′)处,若像素坐标(xc′,yc′)不是整数,则用fp中相邻像素进行双线性插值,得到该点的像素值fp(xc′,yc′)。
4.根据权利要求1所述的一种基于仿射变换的立体视频匹配方法,其特征在于:所述的计算当前帧图像的像素点和其在前一帧图像上的投影点的像素值的差,以检测当前帧图像中的静止区域像素点,是指对当前帧图像坐标为(xc,yc)的像素值fc(xc,yc)和经过仿射变换投影到前一帧坐标为(xc′,yc′)的像素值fp(xc′,yc′),在一定窗口内求SAD值(绝对差值和):
Figure FDA0000111407290000033
其中CSAD表示SAD值;若CSAD小于一个特定的阈值C0,则判定当前帧坐标为(xc,yc)的像素点为静止区域点;反之,则为运动区域点。
5.根据权利要求1所述的一种基于仿射变换的立体视频匹配方法,其特征在于,所述的计算当前帧图像的初始匹配代价,是指用基于局部窗口匹配的SAD方法对立体视频当前帧的左图和右图进行匹配,分别得到当前帧左图的的初始匹配代价CostLinit(xc,yc,dc)和当前帧右图的初始匹配代价CostRinit(xc,yc,dc)。
CN2010105942171A 2010-12-18 2010-12-18 基于仿射变换的立体视频匹配方法 Expired - Fee Related CN102026013B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2010105942171A CN102026013B (zh) 2010-12-18 2010-12-18 基于仿射变换的立体视频匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010105942171A CN102026013B (zh) 2010-12-18 2010-12-18 基于仿射变换的立体视频匹配方法

Publications (2)

Publication Number Publication Date
CN102026013A CN102026013A (zh) 2011-04-20
CN102026013B true CN102026013B (zh) 2012-05-23

Family

ID=43866776

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010105942171A Expired - Fee Related CN102026013B (zh) 2010-12-18 2010-12-18 基于仿射变换的立体视频匹配方法

Country Status (1)

Country Link
CN (1) CN102026013B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102184540B (zh) * 2011-05-03 2013-03-20 哈尔滨工程大学 基于尺度空间的亚像素级立体匹配方法
CN102831601A (zh) * 2012-07-26 2012-12-19 中北大学 基于联合相似性测度和自适应支持权重的立体匹配方法
CN103778598B (zh) * 2012-10-17 2016-08-03 株式会社理光 视差图改善方法和装置
US20140241612A1 (en) * 2013-02-23 2014-08-28 Microsoft Corporation Real time stereo matching
CN103839253A (zh) * 2013-11-21 2014-06-04 苏州盛景空间信息技术有限公司 一种基于局部仿射变换的任意点匹配方法
US9195904B1 (en) * 2014-05-08 2015-11-24 Mitsubishi Electric Research Laboratories, Inc. Method for detecting objects in stereo images
CN105447885B (zh) * 2014-07-11 2018-09-25 株式会社理光 计算视差的方法和装置
CN104820991B (zh) * 2015-05-15 2017-10-03 武汉大学 一种基于代价矩阵的多重软约束立体匹配方法
CN106097289B (zh) * 2016-05-30 2018-11-27 天津大学 一种基于MapReduce模型的立体图像合成方法
CN106254850B (zh) * 2016-08-23 2019-06-04 深圳市捷视飞通科技股份有限公司 双视点立体视频的图像匹配方法及装置
CN106952304B (zh) * 2017-03-22 2019-09-20 南京大学 一种利用视频序列帧间相关性的深度图像计算方法
CN109658326B (zh) * 2017-10-11 2024-01-16 深圳市中兴微电子技术有限公司 一种图像显示方法及装置、计算机可读存储介质
CN108596963B (zh) * 2018-04-25 2020-10-30 珠海全志科技股份有限公司 图像特征点的匹配、视差提取和深度信息提取方法
CN108596197B (zh) * 2018-05-15 2020-08-25 汉王科技股份有限公司 一种印章匹配方法及装置
CN112650207A (zh) * 2019-10-11 2021-04-13 杭州萤石软件有限公司 机器人的定位校正方法、设备和存储介质
CN111080589A (zh) * 2019-12-05 2020-04-28 广州极泽科技有限公司 目标对象匹配方法、系统、设备及机器可读介质
CN111142109A (zh) * 2019-12-30 2020-05-12 上海眼控科技股份有限公司 标记方法、装置、计算机设备和存储介质
CN115601231B (zh) * 2022-11-22 2023-03-10 南京后摩智能科技有限公司 图像处理方法、装置、硬件加速器、芯片以及设备
CN117061720B (zh) * 2023-10-11 2024-03-01 广州市大湾区虚拟现实研究院 基于单目图像及深度图像渲染的立体图像对生成方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1153362A (zh) * 1995-03-29 1997-07-02 三洋电机株式会社 产生三维图象计算深度信息和用其进行图象处理的方法
CN1179065A (zh) * 1996-08-06 1998-04-15 次级系统有限公司 用于立体视频编码的优化的差异估算

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7706571B2 (en) * 2004-10-13 2010-04-27 Sarnoff Corporation Flexible layer tracking with weak online appearance model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1153362A (zh) * 1995-03-29 1997-07-02 三洋电机株式会社 产生三维图象计算深度信息和用其进行图象处理的方法
CN1179065A (zh) * 1996-08-06 1998-04-15 次级系统有限公司 用于立体视频编码的优化的差异估算

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DANIEL SCHARSTEIN ET AL.A Taxonomy and Evaluation of Dense Two-Frame Stereo Correspondence Algorithms.《International Journal of Computer Vision》.2002,第47卷(第1-3期),全文. *

Also Published As

Publication number Publication date
CN102026013A (zh) 2011-04-20

Similar Documents

Publication Publication Date Title
CN102026013B (zh) 基于仿射变换的立体视频匹配方法
US11562498B2 (en) Systems and methods for hybrid depth regularization
Feng et al. Object-based 2D-to-3D video conversion for effective stereoscopic content generation in 3D-TV applications
Isgro et al. Three-dimensional image processing in the future of immersive media
Karsch et al. Depth transfer: Depth extraction from video using non-parametric sampling
Guttmann et al. Semi-automatic stereo extraction from video footage
Liao et al. Video stereolization: Combining motion analysis with user interaction
CN105869167A (zh) 基于主被动融合的高分辨率深度图获取方法
Zhi et al. Toward dynamic image mosaic generation with robustness to parallax
CN102665086A (zh) 利用基于区域的局部立体匹配获取视差的方法
Klose et al. Stereoscopic 3D view synthesis from unsynchronized multi-view video
CN104599317A (zh) 一种实现3d扫描建模功能的移动终端及方法
CN102194231A (zh) 图像处理方法及装置、图像分析装置
Rotem et al. Automatic video to stereoscopic video conversion
Waidhofer et al. PanoSynthVR: Toward light-weight 360-degree view synthesis from a single panoramic input
Zhang et al. Interactive stereoscopic video conversion
Cho et al. Event-image fusion stereo using cross-modality feature propagation
Xu et al. Multi-camera collaborative depth prediction via consistent structure estimation
Knorr et al. Stereoscopic 3D from 2D video with super-resolution capability
CN103871037A (zh) 图像之间颜色转换的方法和装置
Sharma Uncalibrated camera based content generation for 3D multi-view displays
Yang et al. Depth map generation using local depth hypothesis for 2D-to-3D conversion
Williem et al. Depth map estimation and colorization of anaglyph images using local color prior and reverse intensity distribution
Zhou et al. Single-view view synthesis with self-rectified pseudo-stereo
Wang et al. Sparse-to-dense depth estimation in videos via high-dimensional tensor voting

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120523

Termination date: 20121218