CN101662695A - 一种获取虚拟视图的方法和装置 - Google Patents
一种获取虚拟视图的方法和装置 Download PDFInfo
- Publication number
- CN101662695A CN101662695A CN200910093506A CN200910093506A CN101662695A CN 101662695 A CN101662695 A CN 101662695A CN 200910093506 A CN200910093506 A CN 200910093506A CN 200910093506 A CN200910093506 A CN 200910093506A CN 101662695 A CN101662695 A CN 101662695A
- Authority
- CN
- China
- Prior art keywords
- pixel
- image
- view
- original image
- adjacent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000009825 accumulation Methods 0.000 claims description 36
- 238000012937 correction Methods 0.000 claims description 35
- 230000008878 coupling Effects 0.000 claims description 30
- 238000010168 coupling process Methods 0.000 claims description 30
- 238000005859 coupling reaction Methods 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 26
- 238000013519 translation Methods 0.000 claims description 26
- 230000013011 mating Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 10
- 230000001915 proofreading effect Effects 0.000 claims description 7
- 238000006073 displacement reaction Methods 0.000 claims description 2
- 230000004438 eyesight Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000010189 synthetic method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000016776 visual perception Effects 0.000 description 2
- 208000003164 Diplopia Diseases 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 208000029444 double vision Diseases 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种获取虚拟视图的方法和装置,属于计算机视觉领域。方法包括:利用N个图像采集设备采集得到N个不同视点的原始图像;对N个原始图像进行像素窗口匹配,得到N个原始图像中每两个相邻图像对应的深度图像;从N个原始图像中任选一个图像作为参考视图,并在参考视图和其相邻原始图像之间,确定待获取虚拟视图的位置;根据参考视图,参考视图和其相邻原始图像对应的深度图像,以及待获取虚拟视图相对参考视图的距离,对参考视图进行平移得到待获取虚拟视图。装置包括:原始图像获取模块、深度图像获取模块、参考视图获取模块和虚拟视图获取模块。通过对原始图像进行像素窗口匹配和平移得到虚拟视图,不需要人工参与,减少了工作量,降低了成本。
Description
技术领域
本发明涉及计算机视觉领域,特别涉及一种获取虚拟视图的方法和装置。
背景技术
近年来,随着自由立体显示技术的快速发展,出现了可以让人们体验到立体感和真实感的立体视频,并且还出现了不需要观察者佩戴立体眼镜或者其他特制设备就可以体验到立体感和真实感的立体视频。与传统的二维视频相比,立体视频是一种更有效、更真实的表达方式。它克服了二维视频的片面性与被动性的缺点,能够更充分地满足人们的视觉感官需求,在交互式FVV(FreeViewpoint Video,自由视点视频)、虚拟现实、3DTV(3Dimension Television,3维电视)、3D游戏、体育直播、广告传媒等很多领域有着广泛的应用前景。基于立体视频的种种优点,如何制作立体视频获得了研究界和工业界越来越多的关注,立体视频的制作技术也越来越成熟。制作立体视频时,一般需要先获取虚拟视图,然后根据虚拟视图就可以很容易地得到立体视频,因此制作立体视频的关键在于如何获取虚拟视图。
目前获取虚拟视图的方法通常是:首先,通过图像采集设备采集得到多个不同视点的原始图像;然后,使用一些专用的图像编辑软件(如Photoshop等),由熟练的技术人员一帧一帧地对采集到的多个不同视点的原始图像进行人工处理,得到虚拟视图。
在实现本发明的过程中,发明人发现现有技术至少存在以下问题:
现有的方法需要大量的人工参与,如以每秒24帧计算,一分钟的立体视频就需要处理1440帧图像,因此,工作量非常大,成本也很高。
发明内容
为了减少获取虚拟视图过程中人工参与量、降低成本,本发明实施例提供了一种获取虚拟视图的方法和装置。所述技术方案如下:
一方面,本发明实施例提供了一种获取虚拟视图的方法,所述方法包括:
利用N个图像采集设备采集得到N个不同视点的原始图像,所述N为大于1的自然数;
对N个所述原始图像进行像素窗口匹配,得到N个所述原始图像中每两个相邻图像对应的深度图像;
从N个所述原始图像中任选一个图像作为参考视图,并在所述参考视图和其相邻原始图像之间,确定待获取虚拟视图的位置;
根据所述参考视图,所述参考视图和其相邻原始图像对应的深度图像,以及所述待获取虚拟视图相对所述参考视图的距离,对所述参考视图进行平移得到所述待获取虚拟视图。
另一方面,本发明实施例提供了一种获取虚拟视图的装置,所述装置包括:
原始图像获取模块,用于利用N个图像采集设备采集得到N个不同视点的原始图像,所述N为大于1的自然数;
深度图像获取模块,用于在所述原始图像获取模块得到N个不同视点的原始图像后,对N个所述原始图像进行像素窗口匹配,得到N个所述原始图像中每两个相邻图像对应的深度图像;
参考视图获取模块,用于在所述深度图像获取模块得到深度图像后,从N个所述原始图像中任选一个图像作为参考视图,并在所述参考视图和其相邻原始图像之间,确定待获取虚拟视图的位置;
虚拟视图获取模块,用于在所述参考视图获取模块确定待获取虚拟视图的位置后,根据所述参考视图,所述参考视图和其相邻原始图像对应的深度图像,以及所述待获取虚拟视图相对所述参考视图的距离,对所述参考视图进行平移得到所述待获取虚拟视图。
本发明实施例提供的技术方案的有益效果是:
通过对原始图像进行像素窗口匹配和平移得到虚拟视图,不需要人工参与,减少了工作量,降低了成本。
附图说明
图1是本发明实施例1提供的一种获取虚拟视图的方法流程图;
图2是本发明实施例2提供的一种获取虚拟视图的方法流程图;
图3是本发明实施例3提供的一种获取虚拟视图的装置结构示意图;
图4是本发明实施例3提供的另一种获取虚拟视图的装置结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
实施例1
本发明实施例提供了一种获取虚拟视图的方法,参见图1,具体包括:
101:利用N个图像采集设备采集得到N个不同视点的原始图像,N为大于1的自然数。
图像采集设备可以是摄像机、照相机、数码相机等可以采集图像的设备。图像采集设备采集到的原始图像一般为RGB(Red Green Blue,红绿蓝)空间的图像;N个图像采集设备可以根据具体情况,按照平行或者汇聚的方式依次排列在采集对象的周围,分别从不同角度对采集对象进行采集,得到N个不同视点的原始图像。
102:对N个原始图像进行像素窗口匹配,得到N个原始图像中每两个相邻图像对应的深度图像。
需要说明的是,N个原始图像中每两个相邻图像是指该两个图像是由位置相邻的图像采集设备采集得到的,并且文中其他地方的相邻的图像采集设备是指位置上相邻。每两个相邻图像可以得到一个对应的深度图像,可根据实际应用状况需要得到需要个数的深度图像,实际应用中并不一定需要得到N个原始图像中所有两个相邻图像对应的深度图像。
103:从N个原始图像中任选一个图像作为参考视图,并在参考视图和其相邻原始图像之间,确定待获取虚拟视图的位置。
其中,参考视图的相邻原始图像可以是与参考视图相邻的任一原始图像,可以根据实际应用状况,灵活选择。待获取虚拟视图是需要得到的虚拟视图。待获取虚拟视图需要参考哪个原始图像得到,则选择该原始图像作为该待获取虚拟视图的参考视图。
104:根据参考视图,参考视图和其相邻原始图像对应的深度图像,以及待获取虚拟视图相对参考视图的距离,对参考视图进行平移得到待获取虚拟视图。
其中,对N个原始图像进行像素窗口匹配,得到N个原始图像中每两个相邻图像对应的深度图像,具体包括:
为N个原始图像中的每个图像中的每个像素预设一个匹配窗口;
将N个原始图像中的每个图像中的每个像素分别作为当前像素,根据当前像素对应的匹配窗口中的每个像素相对当前像素的颜色和距离信息,利用预设的像素支持权重计算公式,分别计算得到当前像素对应的匹配窗口中的每个像素对当前像素的支持权重;
在将N个原始图像中的每个图像中的每个像素的支持权重计算完成后,将N个原始图像中的每个图像分别作为当前图像,将当前图像中的每个像素分别作为当前像素,从当前图像的相邻图像中为当前像素选择多个待匹配像素,根据当前像素对应的匹配窗口中每个像素对当前像素的支持权重,利用预设的像素窗口权重累积平方差计算公式,分别计算得到当前像素与多个待匹配像素中的每个待匹配像素的像素窗口权重累积平方差值;
在将每两个相邻图像之间的参考像素和待匹配像素的像素窗口权重累积平方差值计算完成后,根据计算得到的所有像素窗口权重累积平方差值,为每个图像中的每个像素,在其对应的多个待匹配像素中,选择一个待匹配像素作为该像素的匹配像素;
根据N个所述原始图像中各个图像之间相互匹配的像素、N个所述图像采集设备中每两个相邻图像采集设备之间的基线距离,利用预设的深度图像像素值计算公式,计算得到N个所述原始图像中每两个相邻图像对应的深度图像的像素值。
本发明实施例中为N个原始图像中的每个图像中的每个像素预设一个匹配窗口可以为:将N个校正后的图像中的每个图像中的每个像素分别作为中心像素,将以每个中心像素为中心的该中心像素的周围的其他像素组合得到每个像素对应的预设大小的匹配窗口。还可以根据实际应用状况采用其他方法为N个原始图像中的每个图像中的每个像素预设一个匹配窗口。
其中,预设的像素支持权重计算公式具体为:
其中,w(p,q)表示像素q对像素p的支持权重,Δcpq表示p、q两像素的颜色的欧几里德度量,Δgpq表示p、q两像素的距离的欧几里德度量,rc、rp是与人类视觉系统的视场有关的系数,rc、rp的数值可调节;
预设的像素窗口权重累积平方差计算公式具体为:
其中,pd、pd分别表示N个原始图像中两相邻图像之间的参考像素和待匹配像素,E(pd,pd)表示两相邻图像之间的参考像素和待匹配像素的像素窗口权重累积平方差,w(pd,qd),w(pd,qd)分别表示qd对pd的支持权重、qd对pd的支持权重,Np表示像素pd对应的匹配窗口中的所有的像素,Np表示像素pd对应的匹配窗口中的所有的像素,e(qd,qd)表示两相邻图像的对应的匹配窗口中同一位置的像素之间的平方差值;
预设的深度图像像素值计算公式具体为:
其中,Z表示N个原始图像中两个相邻图像对应的深度图像;f表示N个图像采集设备中两个相邻图像采集设备的焦距的平均值;b1表示N个图像采集设备中两个相邻图像采集设备之间的基线距离;d1表示N个原始图像中两个相邻图像之间相互匹配像素的位置的相对距离的绝对值。
进一步地,为N个原始图像中的每个图像中的每个像素预设一个匹配窗口之后,将N个原始图像中的每个图像中的每个像素分别作为当前像素,根据当前像素对应的匹配窗口中的每个像素相对当前像素的颜色和距离信息,利用预设的像素支持权重计算公式,分别计算得到当前像素对应的匹配窗口中的每个像素对当前像素的支持权重之前还包括:
将N个原始图像从红绿蓝RGB空间转换到CIELab空间;
相应地,将N个原始图像中的每个图像中的每个像素分别作为当前像素,根据当前像素对应的匹配窗口中的每个像素相对当前像素的颜色和距离信息,利用预设的像素支持权重计算公式,分别计算得到当前像素对应的匹配窗口中的每个像素对当前像素的支持权重具体为:
在CIELab空间中,将N个原始图像中的每个图像中的每个像素分别为当前像素,根据当前像素对应的匹配窗口中的每个像素相对当前像素的颜色和距离信息,利用预设的像素支持权重计算公式,分别计算得到当前像素对应的匹配窗口中的每个像素对当前像素的支持权重。
其中,根据参考视图,参考视图和其相邻原始图像对应的深度图像,以及待获取虚拟视图相对参考视图的距离,对参考视图进行平移得到待获取虚拟视图具体包括:
根据参考视图,参考视图和其相邻原始图像对应的深度图像,利用预设的虚拟视图相对参考视图的距离公式,计算得到待获取虚拟视图相对参考视图的距离;
根据计算得到的待获取虚拟视图相对参考视图的距离,对参考视图进行平移,得到待获取虚拟视图。
其中,预设的虚拟视图相对参考视图的距离公式具体为:
其中,d2表示待获取虚拟视图与参考视图之间对应像素的位置的相对距离;f表示N个图像采集设备中两个相邻图像采集设备的焦距的平均值;Z表示N个所述原始图像中两个相邻图像对应的深度图像的像素值;b2表示待获取虚拟视图与参考视图的基线距离,且 k为大于1的自然数,b1表示N个图像采集设备中两个相邻图像采集设备之间的基线距离。
进一步地,利用N个图像采集设备采集得到N个不同视点的原始图像之后,对N个原始图像进行像素窗口匹配,得到N个原始图像中每两个相邻图像对应的深度图像之前还包括:
对N个图像采集设备采集到的N个不同视点的原始图像进行外极线校正,得到N个校正后的图像;
相应地,对N个原始图像进行像素窗口匹配,得到N个原始图像中每两个相邻图像对应的深度图像具体为:
对N个校正后的图像进行像素窗口匹配,得到N个校正后的图像中每两个相邻图像对应的深度图像;
相应地,从N个原始图像中任选一个图像作为参考视图,在参考视图和其相邻原始图像之间,确定待获取虚拟视图的位置具体为:
从N个校正后的图像中任选一个图像作为参考视图,在参考视图和其相邻的校正后的图像之间,确定待获取虚拟视图的位置;
相应地,根据参考视图,参考视图和其相邻原始图像对应的深度图像,以及待获取虚拟视图相对参考视图的距离,对参考视图进行平移得到待获取虚拟视图具体为:
根据参考视图,参考视图和其相邻的校正后的图像对应的深度图像,以及待获取虚拟视图相对参考视图的距离,对参考视图进行平移得到待获取虚拟视图。
本发明实施例所述的获取虚拟视图的方法,通过对原始图像进行像素窗口匹配和平移得到虚拟视图,不需要人工参与,减少了工作量,降低了成本。并且通过利用立体匹配中的基于颜色和距离的区域度量法则,可以较好地描述空间事物的特征属性。可以根据具体情况选择生成多个虚拟视图,可以在不同采集条件下,得到多个不同的虚拟视图,可以有效地利用已有的图像采集设备。由于采用了自适应权重的窗口匹配,能够对不同深度层面的像素赋予比较合适的权重,提高了匹配的准确性。可以分别获取深度图像和虚拟视图,能够应用于各种不同商业需求,具有很广泛的适用性,对于不同的立体显示器,可以采取不同的立体视图合成方法,达到多视点自由立体显示效果。
实施例2
本发明实施例提供了一种获取虚拟视图的方法,参见图2,具体包括:
201:N个图像采集设备对采集对象进行采集,得到N个不同视点的原始图像,其中N为大于1的自然数。
图像采集设备可以是摄像机、照相机、数码相机等可以采集图像的设备。N个图像采集设备可以根据具体情况,按照平行或者汇聚的方式依次排列在采集对象的周围,分别从不同角度对采集对象进行采集,得到N个不同视点的原始图像。
202:对N个图像采集设备采集到的N个不同视点的原始图像进行外极线校正,得到N个校正后的图像。
需要说明的是,在双视几何中,如果一个像素的深度未知,那么该像素就可能对应参考视图中的一条直线上的所有像素,也就是说在参考视图中的这条直线上的所有像素都可能与该像素匹配,但是实际上匹配像素只有一个,并且一般情况下这条直线不是一条水平直线,而是一条斜线,称为该像素对应的外极线。通过外极线校正可使得立体图像对应的外极线为水平方向,消除垂直方向上的视差,使得在立体匹配过程中可以更快速准确地寻找匹配像素,也就是说可以在一条水平线上找匹配像素,可将寻找范围缩小到一维,减少计算量。
203:将N个校正后的图像中的每个图像中的每个像素分别作为中心像素,将以每个中心像素为中心的该中心像素的周围的其他像素组合得到每个像素对应的预设大小的匹配窗口。
其中,每个像素对应的预设大小的匹配窗口可以相同也可以不相同;本发明实施例中预设大小的匹配窗口采用奇数大小的窗口,可以是1×3像素、3×5像素、3×3像素、7×7像素等,并且可以选择窗口的形状是正方形、矩形、长方形、圆形、椭圆形等,可以根据实际需要进行设置。本发明实施例中优选设置预设大小的匹配窗口为7×7像素,则将N个校正后的图像中的每个图像中的每个像素作为中心像素,建立每个像素对应的预设大小的匹配窗口为7×7像素,例如,一个图像中包括M个像素,则将该图像中的每一个像素分别作为中心像素,建立每个像素对应的预设大小的匹配窗口为7×7像素,则共建立M个7×7像素大小的窗口。需要说明的是,当将每一个图像的四个角的像素或是4个周边的像素作为中心像素建立预设大小的匹配窗口时,会遇到该像素的周围没有像素的情况,这时可以将该像素的周围的没有的像素设为0,或者可以直接建立该些像素对应的窗口大小为1×1像素(即将该些像素本身作为一个窗口)等,并不限于该两种方法,可以根据具体情况灵活处理。
204:将N个校正后的图像从RGB空间转换到CIELab空间,并在CIELab空间中,将N个校正后的图像中的每个图像中的每个像素分别作为当前像素,根据当前像素对应的匹配窗口中的每个像素相对当前像素的颜色和距离信息,利用预设的像素支持权重计算公式,分别计算得到当前像素对应的匹配窗口中的每个像素对当前像素的支持权重。
需要说明的是,本发明实施例中由于当前像素对应的匹配窗口是将当前像素作为中心像素建立的,所以每个像素相对当前像素的颜色和距离信息也相当于是每个像素相对中心像素的颜色和距离信息。
CIELab是惯常用来描述人眼可见的所有颜色的最完备的色彩模型,它被设计来接近人类视觉,致力于感知均匀性。将图像从RGB空间转换到CIELab空间的具体过程如下:
首先,将图像从RGB空间转换到XYZ空间,具体的转换公式如下:
其中,R、G和B分别表示图像在RGB空间下的R像素值、G像素值和B像素值;X、Y和Z分别表示图像在XYZ空间下的X像素值、Y像素值和Z像素值。
然后,将图像从XYZ空间转换到CIELab空间,具体的转换公式如下:
其中,L表示亮度(0~100),a(绿色到红色)和b(蓝色到黄色)表示颜色对立维度;X、Y和Z分别表示图像在XYZ空间下的X像素值、Y像素值和Z像素值;Xn、Yn、Zn是参考白点的CIE XYZ三色刺激值,Xn=244.66128、Yn=255.0、Zn=277.63227;
根据心理学的格式塔法则,颜色相似,距离相近的像素趋向于属于同一物体。因此当前像素p与其邻近像素q的相关性可以通过某种颜色和距离的度量法则来衡量,如下所示:
w(p,q)=F(Δcpq,Δgpq)=F(Δcpq)·F(Δgpq)
其中,w(p,q)表示像素q对像素p的支持权重。Δcpq、Δgpq分别表示两像素颜色和距离的Euclidean(欧几里德)度量;基于人类视觉感知系统的特点,对Δcpq采用CIELab空间中的Euclidean度量,对Δgpq采用像素之间位置的Euclidean度量。F是表征距离和颜色相关性的准则函数,F函数的选择应该满足当Δcpq,Δgpq最小的时候,F函数的值最大(说明此时对应的邻近像素与当前像素关系最紧密,反之越不紧密)。因此,就本质而言,只要能够大致反映出这种关系模式的函数都可以,各种各样的线性函数递减,非线性递减都可以,高斯函数,三角函数都可以。
具体地采用CIELab空间中的Euclidean度量的Δcpq如下所示:
cp=[Lp,ap,bp],cq=[Lq,aq,bq]
具体地采用像素之间位置的Euclidean度量的Δgpq如下所示:
gp=[Rp,Gp,Bp],gq=[Rq,Gq,Bq]
具体地F(Δcpq)和F(Δgpq)分别采用Laplacian(拉普拉斯)内核描述即:
其中,exp表示指数函数,rc、rp是与人类视觉系统的视场有关的系数,rc、rp的数值可调节,其取值的变化幅度如果不大,对结果影响不大,本发明实施例中rc、rp的取值范围为[10,15]。
从而本发明实施例中像素支持权重的计算公式具体如下所示:
需要说明的是,当前像素p对其自身也有支持权重,也就是说上述的邻近像素q中也包括当前像素p,即q的取值也可以为p。
205:在将N个校正后的图像中的每个图像中的每个像素的支持权重计算完成后,将N个校正后的图像中的每个图像分别作为当前图像,将当前图像中的每个像素分别作为当前像素,从当前图像的相邻图像中为当前像素选择多个待匹配像素,根据当前像素对应的匹配窗口中每个像素对当前像素的支持权重,利用预设的像素窗口权重SSD(sum of squared distance,累积平方差)计算公式,分别计算得到当前像素与多个待匹配像素中的每个待匹配像素的像素窗口权重累积平方差值。
具体地,预设的像素窗口权重累积平方差计算公式如下:
其中,pd、pd分别表示N个校正后的图像中两个相邻图像的参考像素和待匹配像素,E(pd,pd)表示两相邻图像之间的参考像素和待匹配像素的像素窗口权重累积平方差,w(pd,qd),w(pd,qd)分别表示qd对pd的支持权重、qd对pd的支持权重,Np表示以pd为中心像素建立的预设大小的匹配窗口中的所有的像素,Np表示以pd为中心像素建立的预设大小的匹配窗口中的所有的像素,e(qd,qd)表示两相邻图像的对应的预设大小的匹配窗口中同一位置像素之间的SD(squared distance,平方差)值。需要说明的是,像素窗口权重累积平方差计算公式并不限于上述一种,可以根据实际应用状况,进行灵活设置。
具体地,两相邻图像是指该两个图像分别是由位置相邻的两个图像采集设备所拍摄得到的;两个相邻图像的参考像素和待匹配像素,可以将两个相邻图像中的一个图像的像素作为参考像素,在另一图像中预设与该参考像素对应的区域,预设的与该参考像素对应的区域中的每一个像素可以分别称为该参考像素的待匹配像素。在另一图像中预设的与该参考像素对应的区域可以是:在另一图像中以与该参考像素的位置对应的像素为中心,预设的长度为半径的圆;或者是在另一图像中以与该参考像素的位置对应的像素为起点,预设的长度为水平长度的直线段等,可以根据实际情况灵活设置该区域。本发明实施例中由于对原始图像进行了外极限校正,可以在一条水平线上找匹配像素,因此在另一图像中预设的与该参考像素对应的区域可以是一条水平线,可将寻找范围缩小到一维,减少计算量。
206:在将每两个相邻图像之间的参考像素和待匹配像素的像素窗口权重累积平方差值计算完成后,根据计算得到的所有像素窗口权重累积平方差值,为每个图像中的每个像素,在其对应的多个待匹配像素中,选择一个待匹配像素作为该像素的匹配像素。
具体地,可以选择参考像素和待匹配像素的像素窗口权重累积平方差值最小的值对应的待匹配像素为该参考像素的匹配像素,从而得到N个校正后的图像中各个图像之间相互匹配的像素。也可以根据具体情况设置其他的选择规则,例如:可以选择参考像素和待匹配像素的像素窗口权重累积平方差值为某一固定值时对应的待匹配像素为该参考像素的匹配像素等。
207:根据N个校正后的图像中各个图像之间相互匹配的像素、N个图像采集设备中每两个相邻图像采集设备之间的基线距离,利用预设的深度图像像素值计算公式,计算得到N个校正后的图像中每两个相邻图像对应的深度图像的像素值。
其中,预设的深度图像像素值计算公式具体为:
其中,Z表示N个校正后的图像中两个相邻校正后的图像对应的深度图像的像素值;f表示N个图像采集设备中两个相邻图像采集设备的焦距的平均值;b1表示N个图像采集设备中两个相邻图像采集设备之间的基线距离;d1表示N个校正后的图像中两个相邻图像之间相互匹配像素的位置的相对距离的绝对值;需要说明的是,一般采集图像时所选用的图像采集设备的焦距都是相同的,并且,一般各个相邻图像采集设备之间的距离也是相同的。
208:从N个校正后的图像中任选一个图像作为参考视图,并在参考视图和其相邻原始图像之间,确定待获取虚拟视图的位置。
其中,参考视图的相邻原始图像可以是与参考视图相邻的任一原始图像,可以根据实际应用状况,灵活选择。待获取虚拟视图是需要得到的虚拟视图。待获取虚拟视图需要参考哪个原始图像得到,则选择该原始图像作为该待获取虚拟视图的参考视图。
209:根据参考视图,参考视图和其相邻原始图像对应的深度图像,以及待获取虚拟视图相对参考视图的距离,对该参考视图进行平移得到待获取虚拟视图。
具体地,首先,根据参考视图,参考视图和其相邻原始图像对应的深度图像,利用预设的虚拟视图相对参考视图的距离公式,计算得到待获取虚拟视图相对该参考视图的距离。
预设的虚拟视图相对参考视图的距离公式具体为:
其中,d2表示待获取虚拟视图与参考视图之间对应像素的位置的相对距离;f表示N个图像采集设备中两个相邻图像采集设备的焦距的平均值;b2表示待获取虚拟视图与该参考视图的基线距离, k为大于1的自然数,b1表示N个图像采集设备中两个相邻图像采集设备之间的基线距离。
需要说明的是,可以根据实际合成立体视频时需要相对该参考视图生成的虚拟视图的个数,将b2取为不同的值,例如:需要2个虚拟视图,则可以分别取 和 从而根据上述公式计算得到2个待获取虚拟视图相对该参考视图的距离。
然后,根据计算得到的待获取虚拟视图相对参考视图的距离,对参考视图进行平移,得到虚拟视图。
为了便于理解,下面举例进行说明:
当有2个图像采集设备采集得到2个图像时(即当N=2时),将2个校正后的图像(只有2个图像,该2个图像为相邻图像)中一个图像中的每个像素依次作为参考像素,在另一图像中预设与该参考像素对应的区域,依次计算一个图像中的参考像素与另一图像中预设的与该参考像素对应的区域中包含的每一个像素(即多个待匹配像素)之间的窗口权重SSD值,将计算出的参考像素和所有待匹配像素之间的窗口权重SSD值中的窗口权重SSD值最小的值对应的待匹配像素作为该参考像素的匹配像素,求取2个图像中相互匹配的像素的位置的相对距离的绝对值,即得到该2个图像对应的深度图像的深度值。
当有3个图像采集设备拍摄得到3个图像时(即当N=3时),为了便于说明按照顺序(从左到右、或顺时针、或逆时针等顺序)将3个图像依次称为第一图像、第二图像和第三图像,可以将校正后的第一图像中的每个像素作为参考像素,在校正后的第二图像中预设与该参考像素对应的区域,依次计算第一图像中的参考像素与第二图像中预设的与该参考像素对应的区域中包含的每个像素(即多个待匹配像素)之间的窗口权重SSD值,将计算出的参考像素和所有待匹配像素之间的窗口权重SSD值中的窗口权重SSD值最小的值对应的待匹配像素作为该参考像素的匹配像素,找到第一图像和第二图像相互匹配的像素后,再将校正后的第二图像中的每个像素作为参考像素,在校正后的第三图像中预设与该参考像素对应的区域,按照上述方法找到第二图像和第三图像相互匹配的像素,求取第一图像和第二图像中相互匹配的像素的相对位置距离的绝对值,以及第二图像和第三图像中相互匹配的像素的差的绝对值,将两次求得的距离的绝对值取平均,即得到该3个图像对应的深度图像的深度值。当N=4、5等时,可以按照与上述N=3时类似的方法进行处理,此处不再一一赘述。
本发明实施例所述的获取虚拟视图的方法,通过对原始图像进行像素窗口匹配和平移得到虚拟视图,不需要人工参与,减少了工作量,降低了成本。并且通过利用立体匹配中的基于颜色和距离的区域度量法则,可以较好地描述空间事物的特征属性。可以根据具体情况选择生成多个虚拟视图,可以在不同采集条件下,得到多个不同的虚拟视图,可以有效地利用已有的图像采集设备。由于采用了自适应权重的窗口匹配,能够对不同深度层面的像素赋予比较合适的权重,提高了匹配的准确性。可以分别获取深度图像和虚拟视图,能够应用于各种不同商业需求,具有很广泛的适用性,对于不同的立体显示器,可以采取不同的立体视图合成方法,达到多视点自由立体显示效果。
实施例3
本发明实施例提供了一种获取虚拟视图的装置,参见图3,该装置包括:
原始图像获取模块301,用于利用N个图像采集设备采集得到N个不同视点的原始图像,N为大于1的自然数。
深度图像获取模块302,用于在原始图像获取模块301得到N个不同视点的原始图像后,对N个原始图像进行像素窗口匹配,得到N个原始图像中每两个相邻图像对应的深度图像。
参考视图获取模块303,用于在深度图像获取模块302得到深度图像后,从N个原始图像中任选一个图像作为参考视图,并在参考视图和其相邻原始图像之间,确定待获取虚拟视图的位置。
虚拟视图获取模块303,用于在参考视图获取模块303确定待获取虚拟视图的位置后,根据参考视图,参考视图和其相邻原始图像对应的深度图像,以及待获取虚拟视图相对参考视图的距离,对参考视图进行平移得到待获取虚拟视图。
其中,深度图像获取模块302具体包括:
匹配窗口获取单元,用于在原始图像获取模块301得到N个不同视点的原始图像后,为N个原始图像中的每个图像中的每个像素预设一个匹配窗口;
支持权重获取单元,用于在匹配窗口获取单元得到每个像素对应的匹配窗口后,将N个原始图像中的每个图像中的每个像素分别作为当前像素,根据当前像素对应的匹配窗口中的每个像素相对当前像素的颜色和距离信息,利用预设的像素支持权重计算公式,分别计算得到当前像素对应的匹配窗口中的每个像素对当前像素的支持权重;
像素窗口权重累积平方差值获取单元,用于在支持权重获取单元在将N个原始图像中的每个图像中的每个像素的支持权重计算完成后,将N个原始图像中的每个图像分别作为当前图像,将当前图像中的每个像素分别作为当前像素,从当前图像的相邻图像中为当前像素选择多个待匹配像素,根据当前像素对应的匹配窗口中每个像素对当前像素的支持权重,利用预设的像素窗口权重累积平方差计算公式,分别计算得到当前像素与多个待匹配像素中的每个待匹配像素的像素窗口权重累积平方差值;
选择单元,用于在像素窗口权重累积平方差值获取单元在将每两个相邻图像之间的参考像素和待匹配像素的像素窗口权重累积平方差值计算完成后,根据计算得到的所有像素窗口权重累积平方差值,为每个图像中的每个像素,在其对应的多个待匹配像素中,选择一个待匹配像素作为该像素的匹配像素;
深度图像获取单元,用于在选择单元选择得到N个原始图像中各个图像之间相互匹配的像素后,根据N个原始图像中各个图像之间相互匹配的像素、N个图像采集设备中每两个相邻图像采集设备之间的基线距离,利用预设的深度图像像素值计算公式,计算得到N个原始图像中每两个相邻图像对应的深度图像的像素值。
其中,预设的像素支持权重计算公式具体为:
其中,w(p,q)表示像素q对像素p的支持权重,Δcpq表示p、q两像素的颜色的欧几里德度量,Δgpq表示p、q两像素的距离的欧几里德度量,rc、rp是与人类视觉系统的视场有关的系数,rc、rp的数值可调节;
预设的像素窗口权重累积平方差计算公式具体为:
其中,pd、pd分别表示N个原始图像中两相邻图像之间的参考像素和待匹配像素,E(pd,pd)表示两相邻图像之间的参考像素和待匹配像素的像素窗口权重累积平方差,w(pd,qd),w(pd,qd)分别表示qd对pd的支持权重、qd对pd的支持权重,Np表示像素pd对应的匹配窗口中的所有的像素,Np表示像素pd对应的匹配窗口中的所有的像素,e(qd,qd)表示两相邻图像的对应的匹配窗口中同一位置的像素之间的平方差值;
预设的深度图像像素值计算公式具体为:
其中,Z表示N个原始图像中两个相邻原始图像对应的深度图像;f表示N个图像采集设备中两个相邻图像采集设备的焦距的平均值;b1表示N个图像采集设备中两个相邻图像采集设备之间的基线距离;d1表示N个原始图像中两个相邻图像之间相互匹配像素的位置的相对距离的绝对值。
进一步地,深度图像获取模块302还包括:
转换单元,用于在匹配窗口获取单元为N个原始图像中的每个图像中的每个像素预设一个匹配窗口之后,支持权重获取单元将N个原始图像中的每个图像中的每个像素分别作为当前像素,根据当前像素对应的匹配窗口中的每个像素相对当前像素的颜色和距离信息,利用预设的像素支持权重计算公式,分别计算得到当前像素对应的匹配窗口中的每个像素对当前像素的支持权重之前,将N个原始图像从红绿蓝RGB空间转换到CIELab空间;
相应地,支持权重获取单元,具体用于在转换单元将N个原始图像从RGB空间转换到CIELab空间后,在CIELab空间中,将N个原始图像中的每个图像中的每个像素分别为当前像素,根据当前像素对应的匹配窗口中的每个像素相对当前像素的颜色和距离信息,利用预设的像素支持权重计算公式,分别计算得到当前像素对应的匹配窗口中的每个像素对当前像素的支持权重。
其中,虚拟视图获取模块303具体包括:
距离获取单元,用于在深度图像获取模块302得到深度图像后,根据参考视图,所述参考视图和其相邻原始图像对应的深度图像,利用预设的虚拟视图相对参考视图的距离公式,计算得到待获取虚拟视图相对参考视图的距离;
平移单元,用于在位移获取单元得到待获取虚拟视图相对参考视图的距离后,根据计算得到的待获取虚拟视图相对参考视图的距离,对参考视图进行平移,得到待获取虚拟视图。
其中,预设的虚拟视图相对参考视图的距离公式具体为:
其中,d2表示待获取虚拟视图与参考视图之间对应像素的位置的相对距离;f表示N个图像采集设备中两个相邻图像采集设备的焦距的平均值;Z表示N个原始图像中两个相邻图像对应的深度图像的像素值b2表示待获取虚拟视图与参考视图的基线距离,且 k为大于1的自然数,b1表示N个图像采集设备中两个相邻图像采集设备之间的基线距离。
进一步地,参见图4,该装置还包括:
外极线校正模块305,用于在原始图像获取模块301得到N个不同视点的始图像之后,深度图像获取模块302对N个原始图像进行像素窗口匹配,得到N个原始图像中每两个相邻图像对应的深度图像之前,对N个图像采集设备采集到的N个不同视点的原始图像进行外极线校正,得到N个校正后的图像;
相应地,深度图像获取模块302,具体用于在外极线校正模块305得到N个校正后的图像后,对N个校正后的图像进行像素窗口匹配,得到N个校正后的图像中每两个相邻图像对应的深度图像;
相应地,参考视图获取模块303,具体用于在深度图像获取模块302得到深度图像后,从N个校正后的图像中任选一个图像作为参考视图,并在参考视图和其相邻的校正后的图像之间,确定待获取虚拟视图的位置;
相应地,虚拟视图获取模块304,具体用于在参考视图获取模块303确定待获取虚拟视图的位置后,根据参考视图,参考视图和其相邻的校正后的图像对应的深度图像,以及待获取虚拟视图相对参考视图的距离,对参考视图进行平移得到待获取虚拟视图。
本发明实施例所述的获取虚拟视图的装置,通过对原始图像进行像素窗口匹配和平移得到虚拟视图,不需要人工参与,减少了工作量,降低了成本。并且通过利用立体匹配中的基于颜色和距离的区域度量法则,可以较好地描述空间事物的特征属性。可以根据具体情况选择生成多个虚拟视图,可以在不同采集条件下,得到多个不同的虚拟视图,可以有效地利用已有的图像采集设备。由于采用了自适应权重的窗口匹配,能够对不同深度层面的像素赋予比较合适的权重,提高了匹配的准确性。可以分别获取深度图像和虚拟视图,能够应用于各种不同商业需求,具有很广泛的适用性,对于不同的立体显示器,可以采取不同的立体视图合成方法,达到多视点自由立体显示效果。
以上实施例提供的技术方案中的全部或部分内容可以通过软件编程实现,其软件程序存储在可读取的存储介质中,存储介质例如:计算机中的硬盘、光盘或软盘。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (14)
1、一种获取虚拟视图的方法,其特征在于,所述方法包括:
利用N个图像采集设备采集得到N个不同视点的原始图像,所述N为大于1的自然数;
对N个所述原始图像进行像素窗口匹配,得到N个所述原始图像中每两个相邻图像对应的深度图像;
从N个所述原始图像中任选一个图像作为参考视图,并在所述参考视图和其相邻原始图像之间,确定待获取虚拟视图的位置;
根据所述参考视图,所述参考视图和其相邻原始图像对应的深度图像,以及所述待获取虚拟视图相对所述参考视图的距离,对所述参考视图进行平移得到所述待获取虚拟视图。
2、根据权利要求1所述的获取虚拟视图的方法,其特征在于,所述对N个所述原始图像进行像素窗口匹配,得到N个所述原始图像中每两个相邻图像对应的深度图像,具体包括:
为N个所述原始图像中的每个图像中的每个像素预设一个匹配窗口;
将N个所述原始图像中的每个图像中的每个像素分别作为当前像素,根据当前像素对应的匹配窗口中的每个像素相对当前像素的颜色和距离信息,利用预设的像素支持权重计算公式,分别计算得到当前像素对应的匹配窗口中的每个像素对当前像素的支持权重;
在将N个所述原始图像中的每个图像中的每个像素的支持权重计算完成后,将N个所述原始图像中的每个图像分别作为当前图像,将当前图像中的每个像素分别作为当前像素,从当前图像的相邻图像中为当前像素选择多个待匹配像素,根据当前像素对应的匹配窗口中每个像素对当前像素的支持权重,利用预设的像素窗口权重累积平方差计算公式,分别计算得到当前像素与多个待匹配像素中的每个待匹配像素的像素窗口权重累积平方差值;
在将每两个相邻图像之间的参考像素和待匹配像素的像素窗口权重累积平方差值计算完成后,根据计算得到的所有像素窗口权重累积平方差值,为每个图像中的每个像素,在其对应的多个待匹配像素中,选择一个待匹配像素作为该像素的匹配像素;
根据N个所述原始图像中各个图像之间相互匹配的像素、N个所述图像采集设备中每两个相邻图像采集设备之间的基线距离,利用预设的深度图像像素值计算公式,计算得到N个所述原始图像中每两个相邻图像对应的深度图像的像素值。
3、根据权利要求2所述的获取虚拟视图的方法,其特征在于,所述预设的像素支持权重计算公式具体为:
其中,w(p,q)表示像素q对像素p的支持权重,Δcpq表示p、q两像素的颜色的欧几里德度量,Δgpq表示p、q两像素的距离的欧几里德度量,rc、rp是与人类视觉系统的视场有关的系数,rc、rp的数值可调节;
所述预设的像素窗口权重累积平方差计算公式具体为:
其中,pd、pd分别表示N个所述原始图像中两相邻图像之间的参考像素和待匹配像素,E(pd,pd)表示两相邻图像之间的参考像素和待匹配像素的像素窗口权重累积平方差,w(pd,qd),w(pd,qd)分别表示qd对pd的支持权重、qd对pd的支持权重,Np表示像素pd对应的匹配窗口中的所有的像素,Np表示像素pd对应的匹配窗口中的所有的像素,e(qd,qd)表示两相邻图像的对应的匹配窗口中同一位置的像素之间的平方差值;
所述预设的深度图像像素值计算公式具体为:
其中,Z表示N个所述原始图像中两个相邻图像对应的深度图像的像素值;f表示N个所述图像采集设备中两个相邻图像采集设备的焦距的平均值;b1表示N个所述图像采集设备中两个相邻图像采集设备之间的基线距离;d1表示N个所述原始图像中两个相邻图像之间相互匹配像素的位置的相对距离的绝对值。
4、根据权利要求2所述的获取虚拟视图的方法,其特征在于,所述为N个所述原始图像中的每个图像中的每个像素预设一个匹配窗口之后,将N个所述原始图像中的每个图像中的每个像素分别作为当前像素,根据当前像素对应的匹配窗口中的每个像素相对当前像素的颜色和距离信息,利用预设的像素支持权重计算公式,分别计算得到当前像素对应的匹配窗口中的每个像素对当前像素的支持权重之前还包括:
将N个所述原始图像从红绿蓝RGB空间转换到CIELab空间;
相应地,所述将N个所述原始图像中的每个图像中的每个像素分别作为当前像素,根据当前像素对应的匹配窗口中的每个像素相对当前像素的颜色和距离信息,利用预设的像素支持权重计算公式,分别计算得到当前像素对应的匹配窗口中的每个像素对当前像素的支持权重具体为:
在CIELab空间中,将N个所述原始图像中的每个图像中的每个像素分别为当前像素,根据当前像素对应的匹配窗口中的每个像素相对当前像素的颜色和距离信息,利用预设的像素支持权重计算公式,分别计算得到当前像素对应的匹配窗口中的每个像素对当前像素的支持权重。
5、根据权利要求1所述的获取虚拟视图的方法,其特征在于,所述根据所述参考视图,所述参考视图和其相邻原始图像对应的深度图像,以及所述待获取虚拟视图相对所述参考视图的距离,对所述参考视图进行平移得到所述待获取虚拟视图具体包括:
根据所述参考视图,所述参考视图和其相邻原始图像对应的深度图像,利用预设的虚拟视图相对参考视图的距离公式,计算得到所述待获取虚拟视图相对所述参考视图的距离;
根据计算得到的所述待获取虚拟视图相对所述参考视图的距离,对所述参考视图进行平移,得到所述待获取虚拟视图。
6、根据权利要求5所述的获取虚拟视图的方法,其特征在于,所述预设的虚拟视图相对参考视图的距离公式具体为:
其中,d2表示所述待获取虚拟视图与所述参考视图之间对应像素的位置的相对距离;f表示N个所述图像采集设备中两个相邻图像采集设备的焦距的平均值;Z表示N个所述原始图像中两个相邻图像对应的深度图像的像素值;b2表示所述待获取虚拟视图与所述参考视图的基线距离,且k为大于1的自然数,b1表示N个所述图像采集设备中两个相邻图像采集设备之间的基线距离。
7、根据权利要求1-6中任一权利要求所述的获取虚拟视图的方法,其特征在于,所述利用N个图像采集设备采集得到N个不同视点的原始图像之后,对N个所述原始图像进行像素窗口匹配,得到N个所述原始图像中每两个相邻图像对应的深度图像之前还包括:
对N个图像采集设备采集到的N个不同视点的原始图像进行外极线校正,得到N个校正后的图像;
相应地,所述对N个所述原始图像进行像素窗口匹配,得到N个所述原始图像中每两个相邻图像对应的深度图像具体为:
对N个所述校正后的图像进行像素窗口匹配,得到N个所述校正后的图像中每两个相邻图像对应的深度图像;
相应地,所述从N个所述原始图像中任选一个图像作为参考视图,在所述参考视图和其相邻原始图像之间,确定待获取虚拟视图的位置具体为:
从N个所述校正后的图像中任选一个图像作为参考视图,在所述参考视图和其相邻的校正后的图像之间,确定待获取虚拟视图的位置;
相应地,所述根据所述参考视图,所述参考视图和其相邻原始图像对应的深度图像,以及所述待获取虚拟视图相对所述参考视图的距离,对所述参考视图进行平移得到所述待获取虚拟视图具体为:
根据所述参考视图,所述参考视图和其相邻的校正后的图像对应的深度图像,以及所述待获取虚拟视图相对所述参考视图的距离,对所述参考视图进行平移得到所述待获取虚拟视图。
8、一种获取虚拟视图的装置,其特征在于,所述装置包括:
原始图像获取模块,用于利用N个图像采集设备采集得到N个不同视点的原始图像,所述N为大于1的自然数;
深度图像获取模块,用于在所述原始图像获取模块得到N个不同视点的原始图像后,对N个所述原始图像进行像素窗口匹配,得到N个所述原始图像中每两个相邻图像对应的深度图像;
参考视图获取模块,用于在所述深度图像获取模块得到深度图像后,从N个所述原始图像中任选一个图像作为参考视图,并在所述参考视图和其相邻原始图像之间,确定待获取虚拟视图的位置;
虚拟视图获取模块,用于在所述参考视图获取模块确定待获取虚拟视图的位置后,根据所述参考视图,所述参考视图和其相邻原始图像对应的深度图像,以及所述待获取虚拟视图相对所述参考视图的距离,对所述参考视图进行平移得到所述待获取虚拟视图。
9、根据权利要求8所述的获取虚拟视图的装置,其特征在于,所述深度图像获取模块具体包括:
匹配窗口获取单元,用于在所述原始图像获取模块得到N个不同视点的原始图像后,为N个所述原始图像中的每个图像中的每个像素预设一个匹配窗口;
支持权重获取单元,用于在所述匹配窗口获取单元得到每个像素对应的匹配窗口后,将N个所述原始图像中的每个图像中的每个像素分别作为当前像素,根据当前像素对应的匹配窗口中的每个像素相对当前像素的颜色和距离信息,利用预设的像素支持权重计算公式,分别计算得到当前像素对应的匹配窗口中的每个像素对当前像素的支持权重;
像素窗口权重累积平方差值获取单元,用于在所述支持权重获取单元在将N个所述原始图像中的每个图像中的每个像素的支持权重计算完成后,将N个所述原始图像中的每个图像分别作为当前图像,将当前图像中的每个像素分别作为当前像素,从当前图像的相邻图像中为当前像素选择多个待匹配像素,根据当前像素对应的匹配窗口中每个像素对当前像素的支持权重,利用预设的像素窗口权重累积平方差计算公式,分别计算得到当前像素与多个待匹配像素中的每个待匹配像素的像素窗口权重累积平方差值;
选择单元,用于在所述像素窗口权重累积平方差值获取单元在将每两个相邻图像之间的参考像素和待匹配像素的像素窗口权重累积平方差值计算完成后,根据计算得到的所有像素窗口权重累积平方差值,为每个图像中的每个像素,在其对应的多个待匹配像素中,选择一个待匹配像素作为该像素的匹配像素;
深度图像获取单元,用于在所述选择单元选择得到N个所述原始图像中各个图像之间相互匹配的像素后,根据N个所述原始图像中各个图像之间相互匹配的像素、N个所述图像采集设备中每两个相邻图像采集设备之间的基线距离,利用预设的深度图像像素值计算公式,计算得到N个所述原始图像中每两个相邻图像对应的深度图像的像素值。
10、根据权利要求9所述的获取虚拟视图的装置,其特征在于,所述预设的像素支持权重计算公式具体为:
其中,w(p,q)表示像素q对像素p的支持权重,Δcpq表示p、q两像素的颜色的欧几里德度量,Δgpq表示p、q两像素的距离的欧几里德度量,rc、rp是与人类视觉系统的视场有关的系数,rc、rp的数值可调节;
所述预设的像素窗口权重累积平方差计算公式具体为:
其中,pd、pd分别表示N个所述原始图像中两相邻图像之间的参考像素和待匹配像素,E(pd,pd)表示两相邻图像之间的参考像素和待匹配像素的像素窗口权重累积平方差,w(pd,qd),w(pd,qd)分别表示qd对pd的支持权重、qd对pd的支持权重,Np表示像素pd对应的匹配窗口中的所有的像素,Np表示像素pd对应的匹配窗口中的所有的像素,e(qd,qd)表示两相邻图像的对应的匹配窗口中同一位置的像素之间的平方差值;
所述预设的深度图像像素值计算公式具体为:
其中,Z表示N个所述原始图像中两个相邻图像对应的深度图像的像素值;f表示N个所述图像采集设备中两个相邻图像采集设备的焦距的平均值;b1表示N个所述图像采集设备中两个相邻图像采集设备之间的基线距离;d1表示N个所述原始图像中两个相邻图像之间相互匹配像素的位置的相对距离的绝对值。
11、根据权利要求9所述的获取虚拟视图的装置,其特征在于,所述深度图像获取模块还包括:
转换单元,用于在所述匹配窗口获取单元为N个所述原始图像中的每个图像中的每个像素预设一个匹配窗口之后,所述支持权重获取单元将N个所述原始图像中的每个图像中的每个像素分别作为当前像素,根据当前像素对应的匹配窗口中的每个像素相对当前像素的颜色和距离信息,利用预设的像素支持权重计算公式,分别计算得到当前像素对应的匹配窗口中的每个像素对当前像素的支持权重之前,将N个所述原始图像从红绿蓝RGB空间转换到CIELab空间;
相应地,所述支持权重获取单元,具体用于在所述转换单元将N个所述原始图像从RGB空间转换到CIELab空间后,在CIELab空间中,将N个所述原始图像中的每个图像中的每个像素分别为当前像素,根据当前像素对应的匹配窗口中的每个像素相对当前像素的颜色和距离信息,利用预设的像素支持权重计算公式,分别计算得到当前像素对应的匹配窗口中的每个像素对当前像素的支持权重。
12、根据权利要求9所述的获取虚拟视图的装置,其特征在于,所述虚拟视图获取模块具体包括:
距离获取单元,用于在所述深度图像获取模块得到深度图像后,根据所述参考视图,所述参考视图和其相邻原始图像对应的深度图像,利用预设的虚拟视图相对参考视图的距离公式,计算得到所述待获取虚拟视图相对所述参考视图的距离;
平移单元,用于在所述位移获取单元得到所述待获取虚拟视图相对所述参考视图的距离后,根据计算得到的所述待获取虚拟视图相对所述参考视图的距离,对所述参考视图进行平移,得到所述待获取虚拟视图。
14、根据权利要求8-13中任一权利要求所述的获取虚拟视图的装置,其特征在于,所述装置还包括:
外极线校正模块,用于在所述原始图像获取模块得到N个不同视点的原始图像之后,所述深度图像获取模块对N个所述原始图像进行像素窗口匹配,得到N个所述原始图像中每两个相邻图像对应的深度图像之前,对N个图像采集设备采集到的N个不同视点的原始图像进行外极线校正,得到N个校正后的图像;
相应地,所述深度图像获取模块,具体用于在所述外极线校正模块得到N个校正后的图像后,对N个所述校正后的图像进行像素窗口匹配,得到N个所述校正后的图像中每两个相邻图像对应的深度图像;
相应地,所述参考视图获取模块,具体用于在所述深度图像获取模块得到深度图像后,从N个所述校正后的图像中任选一个图像作为参考视图,并在所述参考视图和其相邻的校正后的图像之间,确定待获取虚拟视图的位置;
相应地,所述虚拟视图获取模块,具体用于在所述参考视图获取模块确定待获取虚拟视图的位置后,根据所述参考视图,所述参考视图和其相邻的校正后的图像对应的深度图像,以及所述待获取虚拟视图相对所述参考视图的距离,对所述参考视图进行平移得到所述待获取虚拟视图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100935060A CN101662695B (zh) | 2009-09-24 | 2009-09-24 | 一种获取虚拟视图的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100935060A CN101662695B (zh) | 2009-09-24 | 2009-09-24 | 一种获取虚拟视图的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101662695A true CN101662695A (zh) | 2010-03-03 |
CN101662695B CN101662695B (zh) | 2011-06-15 |
Family
ID=41790409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009100935060A Active CN101662695B (zh) | 2009-09-24 | 2009-09-24 | 一种获取虚拟视图的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101662695B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103780897A (zh) * | 2014-02-25 | 2014-05-07 | 重庆卓美华视光电有限公司 | 两视点图像的深度图获取方法及装置 |
CN103985128A (zh) * | 2014-05-23 | 2014-08-13 | 南京理工大学 | 一种基于颜色内相关和自适应支撑权重的立体匹配方法 |
CN104112270A (zh) * | 2014-05-14 | 2014-10-22 | 苏州科技学院 | 一种基于自适应权重多尺度窗口的任意点匹配算法 |
CN106170086A (zh) * | 2016-08-19 | 2016-11-30 | 深圳奥比中光科技有限公司 | 绘制三维图像的方法及其装置、系统 |
CN108734173A (zh) * | 2018-04-20 | 2018-11-02 | 河海大学 | 基于Gestalt优化的红外视频时空显著性检测方法 |
CN109215090A (zh) * | 2017-06-30 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 用于计算色差的方法、装置及服务器 |
CN111464804A (zh) * | 2020-04-08 | 2020-07-28 | 北京小米松果电子有限公司 | 一种全向视差视图合成方法、装置及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100573595C (zh) * | 2003-06-20 | 2009-12-23 | 日本电信电话株式会社 | 虚拟视点图像生成方法和三维图像显示方法及装置 |
CN101271583B (zh) * | 2008-04-28 | 2010-04-21 | 清华大学 | 一种基于深度图的快速图像绘制方法 |
CN101277454A (zh) * | 2008-04-28 | 2008-10-01 | 清华大学 | 一种基于双目摄像机的实时立体视频生成方法 |
CN101483788B (zh) * | 2009-01-20 | 2011-03-23 | 清华大学 | 一种平面视频转立体视频的方法和装置 |
-
2009
- 2009-09-24 CN CN2009100935060A patent/CN101662695B/zh active Active
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103780897A (zh) * | 2014-02-25 | 2014-05-07 | 重庆卓美华视光电有限公司 | 两视点图像的深度图获取方法及装置 |
CN103780897B (zh) * | 2014-02-25 | 2016-05-11 | 重庆卓美华视光电有限公司 | 两视点图像的深度图获取方法及装置 |
CN104112270A (zh) * | 2014-05-14 | 2014-10-22 | 苏州科技学院 | 一种基于自适应权重多尺度窗口的任意点匹配算法 |
CN104112270B (zh) * | 2014-05-14 | 2017-06-20 | 苏州科技学院 | 一种基于自适应权重多尺度窗口的任意点匹配算法 |
CN103985128A (zh) * | 2014-05-23 | 2014-08-13 | 南京理工大学 | 一种基于颜色内相关和自适应支撑权重的立体匹配方法 |
CN103985128B (zh) * | 2014-05-23 | 2017-03-15 | 南京理工大学 | 一种基于颜色内相关和自适应支撑权重的立体匹配方法 |
CN106170086A (zh) * | 2016-08-19 | 2016-11-30 | 深圳奥比中光科技有限公司 | 绘制三维图像的方法及其装置、系统 |
CN109215090A (zh) * | 2017-06-30 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 用于计算色差的方法、装置及服务器 |
CN108734173A (zh) * | 2018-04-20 | 2018-11-02 | 河海大学 | 基于Gestalt优化的红外视频时空显著性检测方法 |
CN111464804A (zh) * | 2020-04-08 | 2020-07-28 | 北京小米松果电子有限公司 | 一种全向视差视图合成方法、装置及存储介质 |
US11245886B2 (en) | 2020-04-08 | 2022-02-08 | Beijing Xiaomi Pinecone Electronics Co., Ltd. | Method and apparatus for synthesizing omni-directional parallax view, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
CN101662695B (zh) | 2011-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101662695B (zh) | 一种获取虚拟视图的方法和装置 | |
US9525858B2 (en) | Depth or disparity map upscaling | |
TWI524734B (zh) | 產生深度圖的方法及裝置 | |
CN104756489B (zh) | 一种虚拟视点合成方法及系统 | |
JP2018026840A (ja) | 例示的な類似画像と関連した例示的な近似奥行きマップを用いた、入力画像に対する奥行きマップの生成 | |
TWI531212B (zh) | 呈現立體影像之系統及方法 | |
CN102254348A (zh) | 一种基于块匹配视差估计的中间视图合成方法 | |
CN103780895B (zh) | 一种立体视频质量评价方法 | |
CN102665086A (zh) | 利用基于区域的局部立体匹配获取视差的方法 | |
Kim et al. | Depth adjustment for stereoscopic image using visual fatigue prediction and depth-based view synthesis | |
CN104506872B (zh) | 一种平面视频转立体视频的方法及装置 | |
CN114648482A (zh) | 立体全景图像的质量评价方法、系统 | |
Tech et al. | Evaluation of view synthesis algorithms for mobile 3DTV | |
CN109523508B (zh) | 一种密集光场质量评价方法 | |
CN104853175A (zh) | 一种新的合成虚拟视点客观质量评价方法 | |
CN109345444A (zh) | 深度感知增强的超分辨率立体图像构建方法 | |
CN102761764A (zh) | 一种用于三维立体视频的深度图片的上采样方法 | |
CN102098527B (zh) | 一种基于运动分析的平面转立体方法及装置 | |
CN103997637A (zh) | 一种平行相机阵列多视点图像校正方法 | |
CN104052990B (zh) | 一种基于融合深度线索的全自动二维转三维方法和装置 | |
US9787980B2 (en) | Auxiliary information map upsampling | |
CN102780900B (zh) | 一种多人多视角立体显示器影像显示方法 | |
CN103997653A (zh) | 一种基于边缘的面向虚拟视绘制的深度视频的编码方法 | |
Knorr et al. | From 2D-to stereo-to multi-view video | |
Kim et al. | Effects of depth map quantization for computer-generated multiview images using depth image-based rendering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |