CN1688168A - 多视点系统中视频图像的视差计算方法 - Google Patents
多视点系统中视频图像的视差计算方法 Download PDFInfo
- Publication number
- CN1688168A CN1688168A CN 200510077473 CN200510077473A CN1688168A CN 1688168 A CN1688168 A CN 1688168A CN 200510077473 CN200510077473 CN 200510077473 CN 200510077473 A CN200510077473 A CN 200510077473A CN 1688168 A CN1688168 A CN 1688168A
- Authority
- CN
- China
- Prior art keywords
- video image
- image
- search
- target video
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 6
- 230000000007 visual effect Effects 0.000 title 1
- 238000004364 calculation method Methods 0.000 claims abstract description 14
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种多视点系统中视频图像的视差计算方法,属于视频图像处理技术领域。首先利用块匹配法计算目标视频图像中第一帧视频图像的完整视差;以上一帧目标视频图像中的相应图像块的视差值为当前位置,对参考视频图像进行有限搜索和方向搜索;若在参考视频图像中搜索到与目标视频图像中相对应的图像块,则得到视差,若搜索不到与目标视频图像中相对应的图像块,则继续搜索,直到最后,取目标视频图像中平均象素灰度差最小的图像块作为对应的图像块,得到视差。本发明方法提高了视差计算的效率。
Description
技术领域
本发明设计一种多视点系统中视频图像的视差计算方法,属于视频图像处理技术领域。
背景技术
用于多视点视频系统的块匹配法是最常用的两个视频图像之间的视差计算方法,其基本思想是将目标图像分割为固定尺寸的块,并搜索每个块在参考图像中的最佳匹配。经典的搜索技术是在搜索窗内的完全搜索,其基本算法如下(设块尺寸为N乘N):
若f(T′)=min(f(T)),则视差d=T’,
其中
T为图像块的空间位移量;T’是目标图像和参考图像中两个对应图像块之间相关性达到最大时的空间位移量;m、n分别是空间位移量T的横坐标和纵坐标,fl、fr是目标图像和参考图像中两个对应图像块的像素灰度值。
传统的块匹配视差估计算法由于算法简单、计算量小而被普遍采用。然而,对整个目标图像进行完全搜索时,其计算量很大。
发明内容
本发明的目的是提出一种多视点系统中视频图像的视差计算方法,在传统的块匹配基础上提出了基于立体摄像几何及视频特性的自适应算法,提高了视差计算的效率。
本发明提出的多视点系统中视频图像的视差计算方法,包括以下步骤:
(1)利用块匹配法计算目标视频图像中第一帧视频图像的完整视差;
(2)以上一帧目标视频图像中的相应图像块的视差值为当前位置,以LW为搜索半径,对参考视频图像进行有限搜索;
(3)若在参考视频图像中搜索到与目标视频图像中相对应的图像块,则进行步骤(8),若搜索不到与目标视频图像中相对应的图像块,则进行步骤(4);
(4)以上一帧目标视频图像中的相应图像块的视差值为当前位置,向左对参考视频图像进行方向搜索,搜索范围为LW+1~LW+DW1;
(5)若在参考视频图像中搜索到与目标视频图像中相对应的图像块,则进行步骤(8),若搜索不到与目标视频图像中相对应的图像块,则进行步骤(6);
(6)以上一帧目标视频图像中的相应图像块的视差值为当前位置,向右对参考视频图像进行方向搜索,搜索范围为LW+1~LW+DW2;
(7)若在参考视频图像中搜索到与目标视频图像中相对应的图像块,则进行步骤(8),若搜索不到与目标视频图像中相对应的图像块,则取目标视频图像中平均象素灰度差最小的图像块作为对应的图像块,进行步骤(8);
(8)根据目标视频图像中图像块的位置和搜索到的参考图像块的位置,得到目标视频图像中的图像块与参考视频图像中相应图像块之间的视差。
本发明提出的多视点系统中视频图像的视差计算方法,其优点是提高了算法的计算效率,只需比传统的块匹配算法更少的计算量,就可以得到相同的视差计算结果的准确性。
具体实施方式
本发明提出的多视点系统中视频图像的视差计算方法,首先利用块匹配法计算目标视频图像中第一帧视频图像的完整视差;以上一帧目标视频图像中的相应图像块的视差值为当前位置,以LW为搜索半径,对参考视频图像进行有限搜索;若在参考视频图像中搜索到与目标视频图像中相对应的图像块,则根据目标视频图像中图像块的位置和搜索到的参考图像块的位置,得到目标视频图像中的图像块与参考视频图像中相应图像块之间的视差,若搜索不到与目标视频图像中相对应的图像块,则以上一帧目标视频图像中的相应图像块的视差值为当前位置,向左对参考视频图像进行方向搜索,搜索范围为LW+1~LW+DW1;若在参考视频图像中搜索到与目标视频图像中相对应的图像块,则根据目标视频图像中图像块的位置和搜索到的参考图像块的位置,得到目标视频图像中的图像块与参考视频图像中相应图像块之间的视差,若搜索不到与目标视频图像中相对应的图像块,则以上一帧目标视频图像中的相应图像块的视差值为当前位置,向右对参考视频图像进行方向搜索,搜索范围为LW+1~LW+DW2;若在参考视频图像中搜索到与目标视频图像中相对应的图像块,则根据目标视频图像中图像块的位置和搜索到的参考图像块的位置,得到目标视频图像中的图像块与参考视频图像中相应图像块之间的视差,若搜索不到与目标视频图像中相对应的图像块,则取目标视频图像中平均象素灰度差最小的图像块作为对应的图像块,根据目标视频图像中图像块的位置和搜索到的参考图像块的位置,得到目标视频图像中的图像块与参考视频图像中相应图像块之间的视差。
在多视点摄像系统中,方向性与均匀性是与视差有关的两个性质,在视差计算时若能充分利用这些几何特性,可以简化视差匹配的算法,实现快速匹配:
1、方向性:
对于同一景物,其透视投影左图像相对于右图像局部地向水平方向的反方向移动。也就是说,如果正水平方向是向右,则同一空间点在左图像中的投影位置比右图像偏左。这个特性为本算法的方向性搜索提供了依据,比如在搜索左图像各块在右图像中的匹配块时,可优先向右方搜索。
2、均匀性:
偏振线上相邻图像子块间的视差差异实际上是很小的,因此,在进行视差匹配时,以邻近块已求出的视差矢量作为参考,在小范围内搜索当前块的视差矢量,能迅速准确地搜索出当前视差这一特性,称之为有限搜索。
视差计算的目的是应用于视频的编、解码,因此可以结合视频的特性,即相邻视频帧间的视差相关度非常高,进一步提高块匹配的效率;另外,由于算法是应用于视频,可以利用前面视频帧的搜索结果来修改本帧的参数值,从而使得参数本身可以自动适应视频的特性。
对于视频的第一帧,采用传统搜索算法得到其完整视差;从第二帧开始,每一帧都在前一帧的视差结果基础上进行视差计算。
本发明方法中的搜索半径LW、DW1和DW2,必须根据对目标图像进行搜索的结果不断调整,以提高搜索效率。三个搜索半径参数的调整方法完全相同,以下以LW为例进行说明:
为每一帧图像设定一个调整参数ALW,则第n+1帧图像的LW=(第n帧的ALW+第n-1帧的ALW+第n-2帧的ALW)/3,其中第n帧的ALW根据本帧在LW范围内搜索后的结果是否满足匹配准则而定,若满足匹配准则,则第n帧的ALW为搜索到的视差值与上一帧视差值差的绝对值;若不满足匹配准则,则第n帧的ALW为第n-1帧的ALW加9。
上述匹配准则可采用平均绝对差准则(MAD)或其他的相似度准则,这里定义一种离散度准则,性能优于一般的MAD准则。设fl(i,j)、fr(i,j)为参考视频图像和目标视频图像块的像素灰度,块的尺寸为N乘以N,在满足立体平行摄像系统条件下,定义离散度函数为:
当B(d)为最小时,两个图像块达到匹配,此时的d即为两图像块之间的视差。
Claims (1)
1、一种多视点系统中视频图像的视差计算方法,其特征在于该方法包括以下步骤:
(1)利用块匹配法计算目标视频图像中第一帧视频图像的完整视差;
(2)以上一帧目标视频图像中的相应图像块的视差值为当前位置,以LW为搜索半径,对参考视频图像进行有限搜索;
(3)若在参考视频图像中搜索到与目标视频图像中相对应的图像块,则进行步骤(8),若搜索不到与目标视频图像中相对应的图像块,则进行步骤(4);
(4)以上一帧目标视频图像中的相应图像块的视差值为当前位置,向左对参考视频图像进行方向搜索,搜索范围为LW+1~LW+DW1;
(5)若在参考视频图像中搜索到与目标视频图像中相对应的图像块,则进行步骤(8),若搜索不到与目标视频图像中相对应的图像块,则进行步骤(6);
(6)以上一帧目标视频图像中的相应图像块的视差值为当前位置,向右对参考视频图像进行方向搜索,搜索范围为LW+1~LW+DW2;
(7)若在参考视频图像中搜索到与目标视频图像中相对应的图像块,则进行步骤(8),若搜索不到与目标视频图像中相对应的图像块,则取目标视频图像中平均象素灰度差最小的图像块作为对应的图像块,进行步骤(8);
(8)根据目标视频图像中图像块的位置和搜索到的参考图像块的位置,得到目标视频图像中的图像块与参考视频图像中相应图像块之间的视差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2005100774732A CN100481963C (zh) | 2005-06-24 | 2005-06-24 | 多视点系统中视频图像的视差计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2005100774732A CN100481963C (zh) | 2005-06-24 | 2005-06-24 | 多视点系统中视频图像的视差计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1688168A true CN1688168A (zh) | 2005-10-26 |
CN100481963C CN100481963C (zh) | 2009-04-22 |
Family
ID=35306208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2005100774732A Expired - Fee Related CN100481963C (zh) | 2005-06-24 | 2005-06-24 | 多视点系统中视频图像的视差计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN100481963C (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009052743A1 (en) * | 2007-10-15 | 2009-04-30 | Huawei Technologies Co., Ltd. | Method and system for determining corresponding macro block |
CN101600123B (zh) * | 2009-07-06 | 2010-08-25 | 四川大学 | 获取视差图像的平行摄像机阵列移位法 |
CN102075779A (zh) * | 2011-02-21 | 2011-05-25 | 北京航空航天大学 | 一种基于块匹配视差估计的中间视图合成方法 |
CN101174331B (zh) * | 2006-11-01 | 2011-07-27 | 深圳市蓝韵实业有限公司 | 一种医学影像最大密度投影生成方法 |
CN102215417A (zh) * | 2011-05-04 | 2011-10-12 | 山东大学 | 一种基于块匹配建立数学模型的视差预测方法 |
CN101754038B (zh) * | 2009-12-09 | 2012-05-30 | 青岛海信网络科技股份有限公司 | 一种视差提取方法 |
CN102256129B (zh) * | 2007-10-15 | 2013-01-02 | 华为技术有限公司 | 一种确定对应宏块的方法和系统 |
CN101578872B (zh) * | 2007-01-04 | 2013-09-11 | 汤姆森特许公司 | 用于以高级别语法表达的多视点信息的方法和装置 |
CN101627634B (zh) * | 2006-10-16 | 2014-01-01 | 诺基亚公司 | 用于将可并行解码片用于多视点视频编码的系统和方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1141670C (zh) * | 2001-07-27 | 2004-03-10 | 南开大学 | 用二维编码对运动物体进行三维跟踪测量的方法 |
GB2399653A (en) * | 2003-03-21 | 2004-09-22 | Sharp Kk | Parallax barrier for multiple view display |
KR100561401B1 (ko) * | 2003-07-28 | 2006-03-16 | 삼성전자주식회사 | 2차원 및 3차원 영상의 호환이 가능한 다 시점 3차원 영상시스템의 영상표시부 |
KR100532105B1 (ko) * | 2003-08-05 | 2005-11-29 | 삼성전자주식회사 | 공간분할방식 3차원 영상 신호 발생 장치 |
GB2405517A (en) * | 2003-08-30 | 2005-03-02 | Sharp Kk | Multiple view display |
JP4355914B2 (ja) * | 2003-10-01 | 2009-11-04 | 日本電気株式会社 | 多視点画像伝送システムと方法、多視点画像圧縮装置と方法、多視点画像伸長装置と方法およびプログラム |
-
2005
- 2005-06-24 CN CNB2005100774732A patent/CN100481963C/zh not_active Expired - Fee Related
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101627634B (zh) * | 2006-10-16 | 2014-01-01 | 诺基亚公司 | 用于将可并行解码片用于多视点视频编码的系统和方法 |
CN101174331B (zh) * | 2006-11-01 | 2011-07-27 | 深圳市蓝韵实业有限公司 | 一种医学影像最大密度投影生成方法 |
CN101578872B (zh) * | 2007-01-04 | 2013-09-11 | 汤姆森特许公司 | 用于以高级别语法表达的多视点信息的方法和装置 |
WO2009052743A1 (en) * | 2007-10-15 | 2009-04-30 | Huawei Technologies Co., Ltd. | Method and system for determining corresponding macro block |
CN101415116B (zh) * | 2007-10-15 | 2011-08-03 | 华为技术有限公司 | 一种确定对应宏块的方法和系统 |
CN102256129B (zh) * | 2007-10-15 | 2013-01-02 | 华为技术有限公司 | 一种确定对应宏块的方法和系统 |
CN101600123B (zh) * | 2009-07-06 | 2010-08-25 | 四川大学 | 获取视差图像的平行摄像机阵列移位法 |
CN101754038B (zh) * | 2009-12-09 | 2012-05-30 | 青岛海信网络科技股份有限公司 | 一种视差提取方法 |
CN102075779A (zh) * | 2011-02-21 | 2011-05-25 | 北京航空航天大学 | 一种基于块匹配视差估计的中间视图合成方法 |
CN102075779B (zh) * | 2011-02-21 | 2013-05-08 | 北京航空航天大学 | 一种基于块匹配视差估计的中间视图合成方法 |
CN102215417A (zh) * | 2011-05-04 | 2011-10-12 | 山东大学 | 一种基于块匹配建立数学模型的视差预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN100481963C (zh) | 2009-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1688168A (zh) | 多视点系统中视频图像的视差计算方法 | |
KR101419979B1 (ko) | 2d 이미지 데이터를 스테레오스코픽 이미지 데이터로 변환하기 위한 방법 및 시스템 | |
CN100592338C (zh) | 多视角视频图像深度搜索方法及深度估计方法 | |
CN101771878B (zh) | 面向全景视频编码的自适应选择全局运动估计方法 | |
CN1956555A (zh) | 三维图像处理设备和方法 | |
CN102254348B (zh) | 一种基于自适应视差估计的虚拟视点绘制方法 | |
Wang et al. | Background modeling and referencing for moving cameras-captured surveillance video coding in HEVC | |
CN1197382C (zh) | 运动矢量搜索范围的自适应确定方法 | |
CN101640809A (zh) | 一种融合运动信息与几何信息的深度提取方法 | |
CN101366279A (zh) | 自适应的运动搜索范围 | |
CN1494804A (zh) | 视频图像压缩方法 | |
CN101222647A (zh) | 多视角视频图像的场景全局深度估计方法 | |
CN102509311B (zh) | 运动检测方法和装置 | |
CN104980726A (zh) | 一种联合运动向量的双目视频立体匹配方法 | |
CN1444406A (zh) | 视频运动估计方法 | |
JP4605716B2 (ja) | 多視点画像圧縮符号化方法、装置及びプログラム | |
CN102307307A (zh) | 产生立体影片深度图的方法 | |
Cheung et al. | On modeling the rendering error in 3D video | |
CN101883287A (zh) | 一种多视点视频编码边信息融合的方法 | |
CN102378009B (zh) | 一种视差估计快速算法 | |
CN110798674B (zh) | 图像深度值获取方法、装置、设备、编解码器及存储介质 | |
An et al. | Theory and experiment analysis of disparity for stereoscopic image pairs | |
CN104486633A (zh) | 视频错误掩藏方法及装置 | |
CN1687968A (zh) | 多分辨率的四元小波相位匹配方法 | |
Daribo et al. | Dense disparity estimation in multiview video coding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20090422 Termination date: 20140624 |
|
EXPY | Termination of patent right or utility model |