CN101808251A - 立体图像对中遮挡信息的提取方法 - Google Patents

立体图像对中遮挡信息的提取方法 Download PDF

Info

Publication number
CN101808251A
CN101808251A CN 201010141105 CN201010141105A CN101808251A CN 101808251 A CN101808251 A CN 101808251A CN 201010141105 CN201010141105 CN 201010141105 CN 201010141105 A CN201010141105 A CN 201010141105A CN 101808251 A CN101808251 A CN 101808251A
Authority
CN
China
Prior art keywords
visual point
point image
image
viewpoint
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 201010141105
Other languages
English (en)
Other versions
CN101808251B (zh
Inventor
席明
杨青青
薛玖飞
李东晓
张明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wan D display technology (Shenzhen) Co., Ltd.
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN2010101411050A priority Critical patent/CN101808251B/zh
Publication of CN101808251A publication Critical patent/CN101808251A/zh
Application granted granted Critical
Publication of CN101808251B publication Critical patent/CN101808251B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种立体图像对中遮挡信息的提取方法,包括以下步骤:(1)对待处理的左右视点立体图像对,分别以左右图像为主视点图像,另一图像为辅助视点图像进行立体匹配,得到左右视差图像;(2)根据左视差图像,将左视点图像坐标系中的像素点映射至右视点图像坐标系中,建立左右图像对中像素点之间的对应关系;(3)提取右视点图像中在左视点图像中没有对应映射点的像素点,作为右视点的残余图像;(4)根据右视差图像,将右视点残余图像中的像素点映射至左视点图像坐标系中,得到左视点位置的右视点图像中的遮挡信息。本发明可以快速准确地获得立体图像对中的遮挡信息,极大地减少了立体图像对的数据量,节约了数据传输的带宽资源。

Description

立体图像对中遮挡信息的提取方法
技术领域
本发明涉及用于遮挡信息的提取方法,尤其涉及一种立体图像对中遮挡信息的提取方法。
背景技术
根据拍摄场景中物体在左右立体图像对中的可见性,可以将立体图像对中的像素分为三类:仅在左视点图像中可见的像素点、仅在右视点图像中可见的像素点和在左右视点图像中均可见的点。在立体匹配获取视差图的过程中,首先必须选定左右立体图像对中的某一视点作为参考视点,另一视点作为辅助视点,然后才能进行立体匹配。立体图像对中的遮挡信息指的是辅助视点可见而参考视点不可见的像素点。
戴眼镜式的立体显示技术是现在主流的立体显示技术,采用该技术的立体显示设备可以将同一场景左右两个视点的立体图像对呈现给观众,观众通过佩戴专业的眼镜,左眼看到左视点的图像,右眼看到右视点的图像,即可感受到立体效果,这种技术需要同时获得左右视点的图像。传统的技术采用同时独立编码传输两路图像数据的方式提供立体显示所需的数据源,这种方式没用充分利用左右视点立体图像对中大量的冗余信息,需要的存储空间很大,占用了大量的带宽资源。
自由立体显示技术是现在新兴的立体显示技术,采用该技术的立体显示设备可以将同一场景多个视点的不同图像同时呈现给观众,观众不需要佩戴专业的眼镜即可在多个观看位置感受到立体效果,该技术需要获得多幅同一场景不同视点的图像。主流的方案采用在编码传输端传输一路图像数据和对应的深度数据,在重构显示端DIBR(Depth-Image-Based Rendering)算法生成多路虚拟视点图像,最后合成立体图像进行显示。虽然该方案解决了直接传输多路图像数据占用大量带宽的问题,但是由于其缺失了很多必需的遮挡信息,在DIBR算法生成的虚拟视点图像中存在着很多没有值的像素点,即空洞区域。虽然可以采用图像修复算法对产生的空洞区域进行修复,但是在修复区域会存在虚假边缘及图像纹理不连续等问题。为了呈现更好的立体效果,仍然需要添加遮挡信息,付出的代价只是增加少量的带宽。
发明内容
本发明的目的是克服现有技术的缺陷和不足,提出了一种立体图像对中遮挡信息的提取方法。
立体图像对中遮挡信息的提取方法包括以下步骤:
(1)对待处理的左右视点立体图像对,先以左视点图像为主视点图像,右视点图像为辅助视点图像进行立体匹配,得到左视点的视差图像,再以右视点图像为主视点图像,左视点图像为辅助视点图像进行立体匹配,得到右视点的视差图像;
(2)根据左视点的视差图像,将左视点图像坐标系中的每一个像素坐标映射至右视点图像坐标系中,建立左右图像对中像素坐标之间的对应关系,并记录右视点图像坐标系中每一个像素坐标的映射标志位;
(3)将右视点图像中在左视点图像中没有对应映射点的像素点提取出来,得到右视点的残余图像;
(4)根据右视点的视差图像,将右视点残余图像中的每一个像素坐标映射至左视点图像坐标系中,在左视点图像坐标系中的对应像素位置,记录右视点残余图像中对应像素点的像素值及其在右视点视差图像中的视差值,得到左视点位置的右视点图像中的遮挡信息。
所述的对待处理的左右视点立体图像对,先以左视点图像为主视点图像,右视点图像为辅助视点图像进行立体匹配,得到左视点的视差图像,再以右视点图像为主视点图像,左视点图像为辅助视点图像进行立体匹配,得到右视点的视差图像的步骤为:
(a)以左视点图像IL(xl,yl)为主视点图像,以右视点图像IR(xr,yr)为辅助视点图像进行立体匹配,得到左视点的视差图像DL(xl,yl)。
其中,xl表示左视点图像像素点水平方向上的坐标,yl表示左视点图像像素点垂直方向上的坐标,xl的取值为xl=0,1,2,...,H-1,yl的取值为yl=0,1,2,...,V-1,xr表示右视点图像像素点水平方向上的坐标,yr表示右视点图像像素点垂直方向上的坐标,xr的取值为xr=0,1,2,...,H-1,yr的取值为yr=0,1,2,...,V-1,H表示左右视点图像的水平分辨率,V表示左右视点图像的垂直分辨率;
(b)以右视点图像IR(xr,yr)为主视点图像,以左视点图像IL(xl,yl)为辅助视点图像进行立体匹配,得到右视点的视差图像DR(xr,yr)。
所述的根据左视点的视差图像,将左视点图像坐标系中的每一个像素坐标映射至右视点图像坐标系中,建立左右图像对中像素坐标之间的对应关系,并记录右视点图像坐标系中每一个像素坐标的映射标志位的步骤为:
(c)根据步骤(a)得到的左视点的视差图像DL(xl,yl)将左视点图像坐标系中的每一个像素坐标(xl,yl)映射至右视点图像坐标系中,得到右视点图像坐标系中对应的映射点坐标(x′r,y′r),表示公式如下:
(x′r,y′r)=(xl-DL(xl,yl),yl)
其中,x′r为映射后像素点水平方向上的坐标,y′r为映射后像素点垂直方向上的坐标;
(d)记录右视点图像IR(xr,yr)中每一个像素位置的映射标志位FlagR(xr,yr),若步骤(c)得到的映射点坐标(x′r,y′r)在右视点图像区域范围之内,则映射标志位FlagR(xr,yr)=1,其他情况下,映射标志位FlagR(xr,yr)=0,表示公式如下:
所述的将右视点图像中在左视点图像中没有对应映射点的像素点提取出来,得到右视点的残余图像的步骤为:
(e)根据步骤(d)得到的映射标志位FlagR(xr,yr),将右视点图像中没有映射点的像素点提取出来,得到右视点的残余图像IRresidual(xr,yr),表示公式如下:
I Rresidual ( x r , y r ) = I R ( x r , y r ) , Flag R ( x r , y r ) = 0 255 , Flag R ( x r , y r ) = 1 .
所述的根据右视点的视差图像,将右视点残余图像中的每一个像素坐标映射至左视点图像坐标系中,在左视点图像坐标系中的对应像素位置,记录右视点残余图像中对应像素点的像素值及其在右视点视差图像中的视差值,得到左视点位置的右视点图像中的遮挡信息的步骤为:
(f)根据步骤(b)得到的右视点的视差图像DR(xr,yr)和步骤(d)得到的映射标志位FlagR(xr,yr),将步骤(e)得到的残余图像IRresidual(xr,yr)中映射标志位FlagR(xr,yr)=0的像素点,映射至左视点图像坐标系中,得到左视点图像坐标系中对应的映射点坐标(x′l,y′l),表示公式如下:
(x′l,y′l)=(xr+DR(xr,yr),yr)
其中,x′l为映射后像素点水平方向上的坐标,y′l为映射后像素点垂直方向上的坐标;
(g)记录左视点图像IL(xl,yl)中每一个像素位置的映射标志位FlagL(xl,yl),若步骤(f)得到的映射点坐标(x′l,y′l)在左视点图像区域范围之内,则映射标志位FlagL(xl,yl)=1,其他情况下,映射标志位FlagL(xl,yl)=0,其他情况下FlagL(xl,yl)=0,表示公式如下:
Figure GSA00000072613700041
(h)根据步骤(g)得到的映射标志位FlagL(xl,yl),将步骤(e)得到的右视点残余图像IRresidual(xr,yr)和步骤(b)得到的右视点的视差图像DR(xr,yr)映射至左视点图像坐标系中,得到在左视点图像中不可见但是在右视点中可见的遮挡信息Iocclusion(x,y)和遮挡信息对应的视差信息Docclusion(x,y),x表示像素点水平方向上的坐标,y表示像素点垂直方向上的坐标,x的取值为x=0,1,2,...,H-1,y的取值为y=0,1,2,...,V-1,表示公式如下:
I occlusion ( x r + D R ( x r , y r ) , y r ) = I Rresidual ( x r , y r ) , Flag L ( x r + D R ( x r , y r ) , y r ) = 1 255 , Flag L ( x r + D R ( x r , y r ) , y r ) = 0
D occlusion ( x r + D R ( x r , y r ) , y r ) = D R ( x r , y r ) , Flag L ( x r + D R ( x r , y r ) , y r ) = 1 255 , Flag L ( x r + D R ( x r , y r ) , y r ) = 0 .
本发明适用于从立体图像对中提取遮挡信息。以往的立体图像对数据量相对较大,应用领域局限于戴眼镜式的双目立体显示技术。本方法通过双向立体匹配建立左右图像中像素点对应映射关系的方法,去除了左右立体图像对中的冗余信息,保留了有用的遮挡信息,大大减少了立体图像对的数据量,节约了传输立体图像或者立体视频数据时所需的带宽资源,并通过附加遮挡信息对应视差信息的方式极大地增强了遮挡信息使用的灵活性。
附图说明
图1是立体图像对中遮挡信息提取方法的整体框图;
图2(a)是Racket立体测试图像对左视点图像;
图2(b)是Racket立体测试图像对右视点图像;
图3(a)是立体匹配后得到的Racket左视点的视差图像;
图3(b)是立体匹配后得到的Racket右视点的视差图像;
图4是对图2(b)进行提取后得到的Racket右视点的残余图像;
图5(a)是经过遮挡信息提取后得到的Racket立体图像对的遮挡信息图像;
图5(b)是遮挡信息图像对应的视差图像。
具体实施方式
立体图像对中遮挡信息的提取方法包括以下步骤(整体框图如图1所示):
(1)对待处理的左右视点立体图像对,先以左视点图像为主视点图像,右视点图像为辅助视点图像进行立体匹配,得到左视点的视差图像,再以右视点图像为主视点图像,左视点图像为辅助视点图像进行立体匹配,得到右视点的视差图像;
(2)根据左视点的视差图像,将左视点图像坐标系中的每一个像素坐标映射至右视点图像坐标系中,建立左右图像对中像素坐标之间的对应关系,并记录右视点图像坐标系中每一个像素坐标的映射标志位;
(3)将右视点图像中在左视点图像中没有对应映射点的像素点提取出来,得到右视点的残余图像;
(4)根据右视点的视差图像,将右视点残余图像中的每一个像素坐标映射至左视点图像坐标系中,在左视点图像坐标系中的对应像素位置,记录右视点残余图像中对应像素点的像素值及其在右视点视差图像中的视差值,得到左视点位置的右视点图像中的遮挡信息。
所述的对待处理的左右视点立体图像对,先以左视点图像为主视点图像,右视点图像为辅助视点图像进行立体匹配,得到左视点的视差图像,再以右视点图像为主视点图像,左视点图像为辅助视点图像进行立体匹配,得到右视点的视差图像的步骤为:
(a)以左视点图像IL(xl,yl)为主视点图像,以右视点图像IR(xr,yr)为辅助视点图像进行立体匹配,得到左视点的视差图像DL(xl,yl)。
其中,xl表示左视点图像像素点水平方向上的坐标,yl表示左视点图像像素点垂直方向上的坐标,xl的取值为xl=0,1,2,...,H-1,yl的取值为yl=0,1,2,...,V-1,xr表示右视点图像像素点水平方向上的坐标,yr表示右视点图像像素点垂直方向上的坐标,xr的取值为xr=0,1,2,...,H-1,yr的取值为yr=0,1,2,...,V-1,H表示左右视点图像的水平分辨率,V表示左右视点图像的垂直分辨率;
(b)以右视点图像IR(xr,yr)为主视点图像,以左视点图像IL(xl,yl)为辅助视点图像进行立体匹配,得到右视点的视差图像DR(xr,yr)。
所述的根据左视点的视差图像,将左视点图像坐标系中的每一个像素坐标映射至右视点图像坐标系中,建立左右图像对中像素坐标之间的对应关系,并记录右视点图像坐标系中每一个像素坐标的映射标志位的步骤为:
(c)根据步骤(a)得到的左视点的视差图像DL(xl,yl)将左视点图像坐标系中的每一个像素坐标(xl,yl)映射至右视点图像坐标系中,得到右视点图像坐标系中对应的映射点坐标(x′r,y′r),表示公式如下:
(x′r,y′r)=(xl-DL(xl,yl),yl)
其中,x′r为映射后像素点水平方向上的坐标,y′r为映射后像素点垂直方向上的坐标;
(d)记录右视点图像IR(xr,yr)中每一个像素位置的映射标志位FlagR(xr,yr),若步骤(c)得到的映射点坐标(x′r,y′r)在右视点图像区域范围之内,则映射标志位FlagR(xr,yr)=1,其他情况下,映射标志位FlagR(xr,yr)=0,表示公式如下:
Figure GSA00000072613700061
通过将左视点像素映射到右视点图像坐标系中的操作,可以建立左右视点立体图像中像素点从左到右的一个映射关系,而右视点图像中没有建立映射关系的像素点即为左视点位置不可见的像素点。
所述的将右视点图像中在左视点图像中没有对应映射点的像素点提取出来,得到右视点的残余图像的步骤为:
(e)根据步骤(d)得到的映射标志位FlagR(xr,yr),将右视点图像中没有映射点的像素点提取出来,得到右视点的残余图像IRresidual(xr,yr),表示公式如下:
I Rresidual ( x r , y r ) = I R ( x r , y r ) , Flag R ( x r , y r ) = 0 255 , Flag R ( x r , y r ) = 1 .
所述的根据右视点的视差图像,将右视点残余图像中的每一个像素坐标映射至左视点图像坐标系中,在左视点图像坐标系中的对应像素位置,记录右视点残余图像中对应像素点的像素值及其在右视点视差图像中的视差值,得到左视点位置的右视点图像中的遮挡信息的步骤为:
(f)根据步骤(b)得到的右视点的视差图像DR(xr,yr)和步骤(d)得到的映射标志位FlagR(xr,yr),将步骤(e)得到的残余图像IRresidual(xr,yr)中映射标志位FlagR(xr,yr)=0的像素点,映射至左视点图像坐标系中,得到左视点图像坐标系中对应的映射点坐标(x′l,y′l),表示公式如下:
(x′l,y′l)=(xr+DR(xr,yr),yr)
其中,x′l为映射后像素点水平方向上的坐标,y′l为映射后像素点垂直方向上的坐标;
(g)记录左视点图像IL(xl,yl)中每一个像素位置的映射标志位FlagL(xl,yl),若步骤(f)得到的映射点坐标(x′l,y′l)在左视点图像区域范围之内,则映射标志位FlagL(xl,yl)=1,其他情况下,映射标志位FlagL(xl,yl)=0,其他情况下FlagL(xl,yl)=0,表示公式如下:
Figure GSA00000072613700071
通过将右视点残余图像映射到左视点图像坐标系中的操作,可以建立左右视点立体图像中像素点从右到左的一个映射关系,将右视点残余图像中左视点位置不可见的像素点重新映射到左视点位置。
(h)根据步骤(g)得到的映射标志位FlagL(xl,yl),将步骤(e)得到的右视点残余图像IRresidual(xr,yr)和步骤(b)得到的右视点的视差图像DR(xr,yr)映射至左视点图像坐标系中,得到在左视点图像中不可见但是在右视点中可见的遮挡信息Iocclusion(x,y)和遮挡信息对应的视差信息Docclusion(x,y),x表示像素点水平方向上的坐标,y表示像素点垂直方向上的坐标,x的取值为x=0,1,2,...,H-1,y的取值为y=0,1,2,...,V-1,表示公式如下:
I occlusion ( x r + D R ( x r , y r ) , y r ) = I Rresidual ( x r , y r ) , Flag L ( x r + D R ( x r , y r ) , y r ) = 1 255 , Flag L ( x r + D R ( x r , y r ) , y r ) = 0
D occlusion ( x r + D R ( x r , y r ) , y r ) = D R ( x r , y r ) , Flag L ( x r + D R ( x r , y r ) , y r ) = 1 255 , Flag L ( x r + D R ( x r , y r ) , y r ) = 0 .
实施例:
(1)将图像分辨率为752×480的Racket左右视点立体图像对作为提取遮挡信息的输入图像。图2(a)即为Racket左视点图像,图2(b)即为Racket右视点图像。
(2)以左视点图像为主视点图像右视点图像为辅助视点图像,进行立体匹配,得到左视点的视差图像。图3(a)即为Racket左视点视差图像。
(3)以右视点图像为主视点图像左视点图像为辅助视点图像,进行立体匹配,得到右视点的视差图像。图3(b)即为Racket右视点视差图像。
(4)根据左视点视差图像将左视点图像的像素坐标映射至右视点图像坐标系中,建立像素点之间从左到右的映射关系,并记录右图像映射标志位,在左图像中存在映射点的像素其标志位置为1,没有映射点的像素其标志位置为0。
(5)根据右图像映射标志位,提取标志位为0的像素即没有映射点的像素,作为右视点的残余图像。图4即为Racket右视点残余图像。
(6)根据右视点视差图像将右视点残余图像的像素坐标映射至左视点图像坐标系中,建立像素点之间从右到左的映射关系,并记录左图像映射标志位,在右视点残余图像中存在映射点的像素其标志位置为1,没有映射点的像素其标志位置为0。
(7)在左图像映射标志位为1的像素点位置记录其在右视点残余图像中对应像素点的像素值,得到遮挡信息,并记录右视点视差图像中该对应点的视差值,得到遮挡信息的视差值。图5(a)即为Racket立体图像对的遮挡信息图像,图5(b)即为Racket立体图像对遮挡信息对应的视差图像。

Claims (5)

1.一种立体图像对中遮挡信息的提取方法,其特征包括以下步骤:
(1)对待处理的左右视点立体图像对,先以左视点图像为主视点图像,右视点图像为辅助视点图像进行立体匹配,得到左视点的视差图像,再以右视点图像为主视点图像,左视点图像为辅助视点图像进行立体匹配,得到右视点的视差图像;
(2)根据左视点的视差图像,将左视点图像坐标系中的每一个像素坐标映射至右视点图像坐标系中,建立左右图像对中像素坐标之间的对应关系,并记录右视点图像坐标系中每一个像素坐标的映射标志位;
(3)将右视点图像中在左视点图像中没有对应映射点的像素点提取出来,得到右视点的残余图像;
(4)根据右视点的视差图像,将右视点残余图像中的每一个像素坐标映射至左视点图像坐标系中,在左视点图像坐标系中的对应像素位置,记录右视点残余图像中对应像素点的像素值及其在右视点视差图像中的视差值,得到左视点位置的右视点图像中的遮挡信息。
2.根据权利要求1所述的一种立体图像对中遮挡信息的提取方法,其特征在于所述的对待处理的左右视点立体图像对,先以左视点图像为主视点图像,右视点图像为辅助视点图像进行立体匹配,得到左视点的视差图像,再以右视点图像为主视点图像,左视点图像为辅助视点图像进行立体匹配,得到右视点的视差图像的步骤为:
(a)以左视点图像IL(xl,yl)为主视点图像,以右视点图像IR(xr,yr)为辅助视点图像进行立体匹配,得到左视点的视差图像DL(rl,yl);
其中,xl表示左视点图像像素点水平方向上的坐标,yl表示左视点图像像素点垂直方向上的坐标,xl的取值为xl=0,1,2,...,H-1,yl的取值为yl=0,1,2,...,V-1,xr表示右视点图像像素点水平方向上的坐标,yr表示右视点图像像素点垂直方向上的坐标,xr的取值为xr=0,1,2,...,H-1,yr的取值为yr=0,1,2,...,V-1,H表示左右视点图像的水平分辨率,V表示左右视点图像的垂直分辨率;
(b)以右视点图像IR(xr,yr)为主视点图像,以左视点图像IL(xl,yl)为辅助视点图像进行立体匹配,得到右视点的视差图像DR(xr,yr)。
3.根据权利要求1所述的一种立体图像对中遮挡信息的提取方法,其特征在于所述的根据左视点的视差图像,将左视点图像坐标系中的每一个像素坐标映射至右视点图像坐标系中,建立左右图像对中像素坐标之间的对应关系,并记录右视点图像坐标系中每一个像素坐标的映射标志位的步骤为:
(c)根据步骤(a)得到的左视点的视差图像DL(xl,yl)将左视点图像坐标系中的每一个像素坐标(xl,yl)映射至右视点图像坐标系中,得到右视点图像坐标系中对应的映射点坐标(x′r,y′r),表示公式如下:
(x′r,y′r)=(xl-DL(xl,yl),yl)
其中,x′r为映射后像素点水平方向上的坐标,y′r为映射后像素点垂直方向上的坐标;
(d)记录右视点图像IR(xr,yr)中每一个像素位置的映射标志位FlagR(xr,yr),若步骤(c)得到的映射点坐标(x′r,y′r)在右视点图像区域范围之内,则映射标志位FlagR(xr,yr)=1,其他情况下,映射标志位FlagR(xr,yr)=0,表示公式如下:
4.根据权利要求1所述的一种立体图像对中遮挡信息的提取方法,其特征在于所述的将右视点图像中在左视点图像中没有对应映射点的像素点提取出来,得到右视点的残余图像的步骤为:
(e)根据步骤(d)得到的映射标志位FlagR(xr,yr),将右视点图像中没有映射点的像素点提取出来,得到右视点的残余图像IRresidual(xr,yr),表示公式如下:
I Rresidual ( x r , y r ) = I R ( x r , y r ) , Fla g R ( x r , y r ) = 0 255 , Flag R ( x r , y r ) = 1 .
5.根据权利要求1所述的一种立体图像对中遮挡信息的提取方法,其特征在于所述的根据右视点的视差图像,将右视点残余图像中的每一个像素坐标映射至左视点图像坐标系中,在左视点图像坐标系中的对应像素位置,记录右视点残余图像中对应像素点的像素值及其在右视点视差图像中的视差值,得到左视点位置的右视点图像中的遮挡信息的步骤为:
(f)根据步骤(b)得到的右视点的视差图像DR(xr,yr)和步骤(d)得到的映射标志位FlagR(xr,yr),将步骤(e)得到的残余图像IRresidual(xr,yr)中映射标志位FlagR(xr,yr)=0的像素点,映射至左视点图像坐标系中,得到左视点图像坐标系中对应的映射点坐标(x′l,y′l),表示公式如下:
(x′l,y′l)=(xr+DR(xr,yr),yr)
其中,x′l为映射后像素点水平方向上的坐标,y′l为映射后像素点垂直方向上的坐标;
(g)记录左视点图像IL(xl,yl)中每一个像素位置的映射标志位FlagL(xl,yl),若步骤(f)得到的映射点坐标(x′l,y′l)在左视点图像区域范围之内,则映射标志位FlagL(xl,yl)=1,其他情况下,映射标志位FlagL(xl,yl)=0,其他情况下FlagL(xl,yl)=0,表示公式如下:
(h)根据步骤(g)得到的映射标志位FlagL(xl,yl),将步骤(e)得到的右视点残余图像IRresidual(xr,yr)和步骤(b)得到的右视点的视差图像DR(xr,yr)映射至左视点图像坐标系中,得到在左视点图像中不可见但是在右视点中可见的遮挡信息Iocclusion(x,y)和遮挡信息对应的视差信息Docclusion(x,y),x表示像素点水平方向上的坐标,y表示像素点垂直方向上的坐标,x的取值为x=0,1,2,...,H-1,y的取值为y=0,1,2,...,V-1,表示公式如下:
I occlusion ( x r + D R ( x r , y r ) , y r ) = I Rresidual ( x r , y r ) , Flag L ( x r + D R ( x r , y r ) , y r ) = 1 255 , Flag L ( x r + D R ( x r , y r ) , y r ) = 0
D occlusion ( x r + D R ( x r , y r ) , y r ) = D R ( x r , y r ) , Flag L ( x r + D R ( x r , y r ) , y r ) = 1 255 , Flag L ( x r + D R ( x r , y r ) , y r ) = 0 .
CN2010101411050A 2010-04-06 2010-04-06 立体图像对中遮挡信息的提取方法 Active CN101808251B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2010101411050A CN101808251B (zh) 2010-04-06 2010-04-06 立体图像对中遮挡信息的提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010101411050A CN101808251B (zh) 2010-04-06 2010-04-06 立体图像对中遮挡信息的提取方法

Publications (2)

Publication Number Publication Date
CN101808251A true CN101808251A (zh) 2010-08-18
CN101808251B CN101808251B (zh) 2011-07-20

Family

ID=42609836

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010101411050A Active CN101808251B (zh) 2010-04-06 2010-04-06 立体图像对中遮挡信息的提取方法

Country Status (1)

Country Link
CN (1) CN101808251B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102510506A (zh) * 2011-09-30 2012-06-20 北京航空航天大学 一种基于双目图像和距离信息的虚实遮挡处理方法
CN102622769A (zh) * 2012-03-19 2012-08-01 厦门大学 一种在动态场景下以深度为主导线索的多目标跟踪方法
CN102708379A (zh) * 2012-05-09 2012-10-03 慈溪思达电子科技有限公司 一种立体视觉的遮挡像素分类算法
CN103366354A (zh) * 2012-03-27 2013-10-23 富士通株式会社 用于立体匹配的方法和系统
CN103402097A (zh) * 2013-08-15 2013-11-20 清华大学深圳研究生院 一种自由视点视频深度图编码方法及其失真预测方法
CN103729860A (zh) * 2013-12-31 2014-04-16 华为软件技术有限公司 一种图像目标跟踪的方法和装置
CN104054044A (zh) * 2011-11-21 2014-09-17 株式会社尼康 显示装置及显示控制程序
CN105247860A (zh) * 2013-06-05 2016-01-13 索尼公司 图像处理设备及图像处理方法
CN107358587A (zh) * 2017-07-12 2017-11-17 宁波视睿迪光电有限公司 图像修补方法及系统
CN108198229A (zh) * 2012-12-28 2018-06-22 微软技术许可有限责任公司 冗余像素减轻
CN108230338A (zh) * 2018-01-11 2018-06-29 温州大学 一种基于卷积神经网络的立体图像分割方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103596001B (zh) * 2013-11-27 2015-07-15 天津大学 一种立体相机微距平行拍摄质量客观评价方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070279412A1 (en) * 2006-06-01 2007-12-06 Colin Davidson Infilling for 2D to 3D image conversion
CN101312540A (zh) * 2008-07-03 2008-11-26 浙江大学 基于深度和遮挡信息的虚拟视点合成方法
CN101325725A (zh) * 2008-07-24 2008-12-17 四川大学 一种基于亚像素的立体图像的视差提取方法
CN101673395A (zh) * 2008-09-10 2010-03-17 深圳华为通信技术有限公司 图像拼接方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070279412A1 (en) * 2006-06-01 2007-12-06 Colin Davidson Infilling for 2D to 3D image conversion
CN101312540A (zh) * 2008-07-03 2008-11-26 浙江大学 基于深度和遮挡信息的虚拟视点合成方法
CN101325725A (zh) * 2008-07-24 2008-12-17 四川大学 一种基于亚像素的立体图像的视差提取方法
CN101673395A (zh) * 2008-09-10 2010-03-17 深圳华为通信技术有限公司 图像拼接方法及装置

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102510506A (zh) * 2011-09-30 2012-06-20 北京航空航天大学 一种基于双目图像和距离信息的虚实遮挡处理方法
CN102510506B (zh) * 2011-09-30 2014-04-16 北京航空航天大学 一种基于双目图像和距离信息的虚实遮挡处理方法
CN104054044A (zh) * 2011-11-21 2014-09-17 株式会社尼康 显示装置及显示控制程序
CN102622769A (zh) * 2012-03-19 2012-08-01 厦门大学 一种在动态场景下以深度为主导线索的多目标跟踪方法
CN102622769B (zh) * 2012-03-19 2015-03-04 厦门大学 一种在动态场景下以深度为主导线索的多目标跟踪方法
CN103366354B (zh) * 2012-03-27 2016-09-07 富士通株式会社 用于立体匹配的方法和系统
CN103366354A (zh) * 2012-03-27 2013-10-23 富士通株式会社 用于立体匹配的方法和系统
CN102708379A (zh) * 2012-05-09 2012-10-03 慈溪思达电子科技有限公司 一种立体视觉的遮挡像素分类算法
CN108198229B (zh) * 2012-12-28 2021-10-15 微软技术许可有限责任公司 冗余像素减轻
CN108198229A (zh) * 2012-12-28 2018-06-22 微软技术许可有限责任公司 冗余像素减轻
CN105247860A (zh) * 2013-06-05 2016-01-13 索尼公司 图像处理设备及图像处理方法
CN103402097A (zh) * 2013-08-15 2013-11-20 清华大学深圳研究生院 一种自由视点视频深度图编码方法及其失真预测方法
CN103402097B (zh) * 2013-08-15 2016-08-10 清华大学深圳研究生院 一种自由视点视频深度图编码方法及其失真预测方法
CN103729860A (zh) * 2013-12-31 2014-04-16 华为软件技术有限公司 一种图像目标跟踪的方法和装置
CN107358587A (zh) * 2017-07-12 2017-11-17 宁波视睿迪光电有限公司 图像修补方法及系统
CN108230338A (zh) * 2018-01-11 2018-06-29 温州大学 一种基于卷积神经网络的立体图像分割方法
CN108230338B (zh) * 2018-01-11 2021-09-28 温州大学 一种基于卷积神经网络的立体图像分割方法

Also Published As

Publication number Publication date
CN101808251B (zh) 2011-07-20

Similar Documents

Publication Publication Date Title
CN101808251B (zh) 立体图像对中遮挡信息的提取方法
US8953023B2 (en) Stereoscopic depth mapping
CN101902657B (zh) 一种基于深度图分层的虚拟多视点图像的生成方法
ES2676055T3 (es) Receptor de imagen eficaz para múltiples vistas
KR100918007B1 (ko) 3차원 모델의 스케일링 방법, 스케일링 유닛 및 화상디스플레이 장치
CN104539925B (zh) 基于深度信息的三维场景增强现实的方法及系统
EP2451164B1 (en) Improved view synthesis
Bertel et al. Megaparallax: Casual 360 panoramas with motion parallax
US9270977B2 (en) 3D photo creation system and method
US20140111627A1 (en) Multi-viewpoint image generation device and multi-viewpoint image generation method
EP2175663B1 (en) Image processing apparatus
US9185432B2 (en) Method and system for encoding a 3D image signal, encoded 3D image signal, method and system for decoding a 3D image signal
CN101720047A (zh) 基于颜色分割的多目摄像立体匹配获取深度图像的方法
MX2020009791A (es) Método basado en planos multifocales para producir puntos de vista estereoscópicos en un sistema de renderizado de imágenes basado en profundidad (mfp-dibr).
CN102905145B (zh) 立体影像系统、影像产生方法、影像调整装置及其方法
CN102957937A (zh) 处理三维立体影像的系统与方法
CN103679739A (zh) 基于遮挡区域检测的虚拟视图生成方法
CN103747236A (zh) 结合人眼跟踪的立体视频处理系统及方法
WO2012140397A2 (en) Three-dimensional display system
CN105120252A (zh) 一种面向虚拟多视点绘制的深度感知增强方法
KR20110025083A (ko) 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
CN103763545B (zh) 一种自由立体图像处理方法及装置、电子设备
KR20090034694A (ko) 3차원 영상을 위한 다시점 카메라 파라미터 수신 방법 및그 장치, 그리고 다시점 카메라 파라미터 전송 방법 및 그장치
CN102231841A (zh) 基于双视点立体数据裸眼立体显示电视及实现方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160614

Address after: 518000 new energy building, Nanhai Road, Shenzhen, Guangdong, Nanshan District A838

Patentee after: Meng Qi media (Shenzhen) Co. Ltd.

Address before: 310027 Hangzhou, Zhejiang Province, Xihu District, Zhejiang Road, No. 38, No.

Patentee before: Zhejiang University

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160901

Address after: 518000, 101, 2, Fengyun technology building, Fifth Industrial Zone, North Ring Road, Shenzhen, Guangdong, Nanshan District

Patentee after: World wide technology (Shenzhen) Limited

Address before: 518000 new energy building, Nanhai Road, Shenzhen, Guangdong, Nanshan District A838

Patentee before: Meng Qi media (Shenzhen) Co. Ltd.

EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20100818

Assignee: WANWEI YUNSHI (SHANGHAI) DIGITAL TECHNOLOGY CO., LTD.

Assignor: World wide technology (Shenzhen) Limited

Contract record no.: 2018440020049

Denomination of invention: Method for extracting blocking information in stereo image pair

Granted publication date: 20110720

License type: Exclusive License

Record date: 20180428

EE01 Entry into force of recordation of patent licensing contract
TR01 Transfer of patent right

Effective date of registration: 20180903

Address after: 518000 B unit 101, Fengyun mansion 5, Xili street, Nanshan District, Shenzhen, Guangdong.

Patentee after: Wan D display technology (Shenzhen) Co., Ltd.

Address before: 518000 2 of Fengyun tower, Fifth Industrial Zone, Nanshan District North Ring Road, Shenzhen, Guangdong, 101

Patentee before: World wide technology (Shenzhen) Limited

TR01 Transfer of patent right