CN102447934A - 稀疏镜头采集的组合立体图像系统中立体元的合成方法 - Google Patents

稀疏镜头采集的组合立体图像系统中立体元的合成方法 Download PDF

Info

Publication number
CN102447934A
CN102447934A CN201110341659XA CN201110341659A CN102447934A CN 102447934 A CN102447934 A CN 102447934A CN 201110341659X A CN201110341659X A CN 201110341659XA CN 201110341659 A CN201110341659 A CN 201110341659A CN 102447934 A CN102447934 A CN 102447934A
Authority
CN
China
Prior art keywords
image
actual object
camera
object point
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201110341659XA
Other languages
English (en)
Other versions
CN102447934B (zh
Inventor
王世刚
吕源治
金福寿
赵岩
陈贺新
王学军
祝宇鸿
桑爱军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN 201110341659 priority Critical patent/CN102447934B/zh
Publication of CN102447934A publication Critical patent/CN102447934A/zh
Application granted granted Critical
Publication of CN102447934B publication Critical patent/CN102447934B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

稀疏镜头采集的组合立体图像系统中立体元的合成方法属立体图像生成技术领域,包括:设置稀疏相机矩阵;计算每幅拍摄图像与水平和垂直相邻图像间的视差图;将双目立体视觉模型扩展为多目立体视觉模型,分别根据每幅图像的水平视差图和垂直视差图计算出每幅图像中像素点所对应实际物点的空间位置坐标;将所有图像中计算得到的像素点所对应实际物点的空间位置坐标换算到同一坐标系中;虚拟一个相机阵列,将同一坐标系下每幅图像中像素点所对应的实际物点投影到每个虚拟相机中,生成子图像;对未填充点插值;生成立体元图像。本发明能实现大量虚拟视点的并行生成,更适合于立体元图像的虚拟合成,使组合立体图像系统的图像源从电脑制作走向实景拍摄。

Description

稀疏镜头采集的组合立体图像系统中立体元的合成方法
技术领域
本发明属立体图像生成技术领域,具体涉及一种组合立体图像系统中立体元图像的虚拟合成方法。
背景技术
长久以来,对显示世界视觉信息的获取主要来源于单摄像机捕获,而这种采集形式不能给人眼带来深度感、立体感以及对对象的全方位认识。随着相关学科的发展及新技术新需求的驱动,立体显示技术应运而生。立体显示技术主要包括利用两眼视差的立体显示技术和真实立体显示技术。目前,电影院中广泛采用两眼视差的立体显示技术,该技术容易实现而且成本低,但由于这种方法分别将左、右眼看到的图像传输给观众,强迫观众在大脑中产生立体感,很容易产生视觉疲劳,而且,该技术无法实现连续多视角的视差变化,因此,并不是理想的立体显示方法;真实立体显示技术主要包括全息术、体显示技术和组合立体显示技术。真实立体显示技术能够在空间中重现被拍摄物体的全部信息,观众通过生理调节眼睛的焦距来获得立体感,不会产生疲劳,因此,成为立体显示技术的发展趋向。相对于时空分辨率受限的全息术与体显示技术,组合立体显示技术使显示器在一个广泛的视野空间内呈现出连续视差的全彩色图像,实现了裸眼真实立体显示,成为新一代立体显示技术的重要组成部分。
组合立体图像系统中立体元图像的采集和成像原理来源于仿生学中对昆虫复眼的研究。我们知道,昆虫的复眼由许多只“小眼睛”组成,每只“小眼睛”接收被观察物体不同位置、不同角度的信息,在理想的组合立体图像系统中,用一个透镜阵列来模仿这种复眼结构,阵列中的每个小透镜相当于复眼中的每只“小眼睛”。那么,如图2所示,当实际物体所发出的光线通过透镜阵列而被记录在记录媒体上时,我们便得到了该物体不同位置、不同角度的信息,我们称其为立体元图像,透镜阵列中每个小透镜所记录的图像称为子图像,可见,一幅立体元图像是由与透镜阵列中小透镜个数等量的子图像组成的。在组合立体图像的显示过程中(如图3所示),将一幅立体元图像放在具有相同参数的透镜阵列前面,根据光路可逆原理,透镜阵列将从立体元图像上发出的光线,汇聚成空间中真实存在的立体景象。
由于在实际拍摄立体元图像时,需要使用高精度的透镜阵列或摄像机阵列,而目前的制作工艺通常不能满足高质量立体图像的要求,所以立体元图像的获得主要来自于计算机生成方法,如图4所示,为计算机合成的立体元图像及子图像,但是,计算机生成方法只能对已有的3D模型进行处理,这样,大大限制了组合立体图像系统的应用范围。如何利用现有的设备,通过稀疏镜头采集来实现真实物体的立体元图像制作,成为组合立体图像系统能否推广应用的关键,因此,需要设计一种适合于组合立体图像系统的立体元合成方法。
常用的虚拟合成技术包括:基于三维几何模型的绘制技术和基于图像的绘制技术。基于三维几何模型的绘制(Model-Based Rendering,MBR)技术需要利用计算机视觉和计算机图形学技术建立一个精确的三维几何模型,然后根据视点位置,经明暗处理、隐藏面消除等过程生成目标虚拟视点位置的图像。MBR可以比较精确地描述物体的形状等信息,但其建模复杂度高,并且要求精确的外部参数,因此MBR技术不适合真实场景的虚拟视点绘制。基于图像的虚拟视点绘制(Image-Based Rendering,IBR)技术,是一种直接根据参考图像生成虚拟视点图像的方法。目前广泛使用的基于深度图的绘制(DIBR)技术是由IBR技术发展而来,它的核心是3D图像映射方程(3D Image Warping)。Image Warping利用包含深度信息的参考图像来绘制新视点下的目标图像,其本质是一种空间重投影技术,由于DIBR技术绘制虚拟视点的速度快,图像质量高,因此,非常适用于立体图像的虚拟视点生成,但是DIBR技术无法实现大量虚拟视点的合成,而且,针对于组合立体图像系统的相机矩阵局部成像特点,目前没有现成可用的虚拟合成技术。鉴于上述两种典型虚拟合成方法存在的问题,我们需要寻找一种更有效、更适用于组合立体图像系统的虚拟合成方法,这种方法既可以实现大量视点的并行插值,同时,又不需要复杂的建模和精确的外部参数。
发明内容
本发明的目的在于提供一种稀疏镜头采集的组合立体图像系统中立体元的合成方法,实现真实景物的立体显示。
本发明包括下列步骤:
(1)设置稀疏相机矩阵,必须保证矩阵中的所有相机在同一个平面内,每行相机的连线互相平行,每列相机的连线也互相平行,每行相机和每列相机的连线互相垂直;
(2)分别计算每幅拍摄图像与其水平相邻图像间的视差图和垂直相邻图像间的视差图,其中每幅拍摄图像与水平相邻图像间的视差图是通过一维窗匹配的方法计算获得,每幅拍摄图像与垂直相邻图像间的视差图是通过将上、下两幅相邻图像进行转置,然后按照每幅拍摄图像与水平相邻图像间视差图相同的获得方法计算,将计算结果再进行转置获得;
(3)将双目立体视觉模型扩展为多目立体视觉模型,分别根据每幅图像的水平视差图和垂直视差图计算出每幅图像中像素点所对应实际物点的空间位置坐标,其中左上方相机拍摄到的图像中像素点所对应实际物点的空间位置坐标的计算,包括下列步骤:
第一步:根据水平视差,计算出左上方图像中像素点所对应实际物点的空间位置坐标,其表达式为:
Z1=f×B1/d1
X1=xl×B1/d1
Y1=yl×B1/d1
d1=|xl-xr|
式中:Z1-为通过水平视差计算得到的实际物点到相机阵列平面的深度距离,X1-为通过水平视差计算得到的实际物点到左上方相机中心的水平距离,Y1-为通过水平视差计算得到的实际物点到左上方相机中心的垂直距离,d1-为水平视差值,f-为相机焦距,B1-为相邻相机间的水平基线距离,xl、xr-分别为实际物点在左上方图像和右上方图像中成像点距离图像中心的水平距离,yl-为实际物点在左上方图像中成像点距离图像中心的垂直距离;
第二步:根据垂直视差,计算出左上方图像中像素点所对应实际物点的空间位置坐标,其表达式为:
Z2=f×B2/d2
X2=xt×B2/d2
Y2=yt×B2/d2
d2=|yt-yb|
式中:Z2-为通过垂直视差计算得到的实际物点到相机阵列平面的深度距离,X2-为通过垂直视差计算得到的实际物点到左上方相机中心的水平距离,Y2-为通过垂直视差计算得到的实际物点到左上方相机中心的垂直距离,d2-为垂直视差值,f-为相机焦距,B2-为相邻相机间的垂直基线距离,yt,yb-分别为实际物点在左上方图像和左下方图像中成像点距离图像中心的垂直距离,xt-为实际物点在左上方图像中成像点距离图像中心的水平距离;
第三步:对每幅图像对应由水平视差和垂直视差计算得到的两组空间位置坐标中存在的重叠数据进行合并,将每幅图的两组空间位置坐标合并成一组,具体为:
a、将两组数据中公共像素点所对应实际物点的信息进行合并,取两组数据的均值作为该实际物点的新的空间位置坐标;
b、对两组数据中的非公共像素点所对应实际物点的空间位置坐标进行单独存储;
右上方相机、左下方相机和右下方相机拍摄到的图像中像素点所对应实际物点的空间位置坐标的计算,与上述三个步骤相同;
(4)将所有图像中计算得到的像素点所对应实际物点的空间位置坐标换算到同一坐标系中,得到在同一坐标系下每幅图像中像素点所对应实际物点的空间位置坐标,具体为:将所有实际物点的空间位置坐标换算到左上方图像的坐标系中,其表达式为:
右上方图像:X=Xrt+B1;Y=Yrt-B2
左下方图像:X=Xlb-B1;Y=Ylb+B2
右下方图像:X=Xrb+B1;Y=Yrb+B2
其中,X和Y-分别为每幅图像中像素点所对应实际物点的空间位置坐标经过换算后在左上方图像坐标系中的新的水平和垂直位置坐标,B1-为相机阵列的水平基线距离,B2-为相机阵列的垂直基线距离,Xrt和Yrt-分别为右上方图像中像素点所对应实际物点的水平和垂直位置坐标,Xlb和Ylb-分别为左下方图像中像素点所对应实际物点的水平和垂直位置坐标,Xrb和Yrb-分别为右下方图像中像素点所对应实际物点的水平和垂直位置坐标;
每幅图像中像素点所对应实际物点到相机阵列平面的深度距离都以同一相机平面作为参考,无需进行换算;
(5)虚拟一个相机阵列,根据小孔成像原理,将步骤(4)中计算得到的同一坐标系下每幅图像中像素点所对应的实际物点投影到每个虚拟相机中,生成子图像;在生成过程中,同时考虑遮挡的影响;
设置虚拟相机阵列时,虚拟相机阵列的位置坐标以左上方相机中心作为坐标原点,为保证所有具有空间位置的实际物点至少能够成像到一个虚拟相机中,虚拟相机阵列的边界必须将所有实际物点的空间位置坐标都包含进来,将虚拟相机阵列的左边界设置为所有物点中最左边点的横坐标位置,右边界设置为所有物点中最右边点的横坐标位置,上边界设置为所有物点中最上边点的纵坐标位置,下边界设置为所有物点中最下边点的纵坐标位置,虚拟相机阵列中相机的数量可以自由设定,每个虚拟相机等间隔地排列在虚拟相机阵列中,虚拟相机阵列距离实际物点的深度也可以自由设定;
成像时,在已知虚拟相机空间位置、焦距和实际物点的空间位置的情况下,根据小孔成像原理,得到实际物点在每个虚拟相机中所成的像——子图像,实际物点在子图像中成像点的位置坐标为:
x=f′×(X-Cx)/Z
y=f′×(Y-Cy)/Z
其中,f′-为虚拟相机焦距,X、Y和Z-为实际物点的空间位置坐标,Cx和Cy-为虚拟相机中心的位置坐标,x和y-为实际物点在子图像中成像点的位置坐标;
在成像过程中,考虑到遮挡的影响,如果在投影线上存在多于一个的实际物点,则取深度值最小的点,也就是最接近于虚拟相机阵列的点进行投影;
(6)对于投影得到的每个虚拟相机中的子图像,存在未被填充的像素点,需将未填充像素点按照其周围已填充像素点的个数进行分级,周围已填充像素点的个数越多,级别越高,越优先处理,在处理中对周围所有已填充像素点的像素值取均值,作为该未填充像素点的像素值;
(7)将得到的每个子图像按虚拟相机的排列顺序进行组合,生成立体元图像。
本发明针对组合立体图像系统的成像机理,利用空间中稀疏排列的相机矩阵进行图像采集。针对MBR技术建模复杂,而且对外部参数要求苛刻,以及DIBR技术无法实现大量虚拟视点生成的问题,本发明提供了一种适合于组合立体图像系统中立体元图像的虚拟合成方法,既实现了被拍摄物体空间位置的建模,同时降低了复杂度,而且不需要额外参数,采用虚拟镜头投影成像的方法,很好地解决了大量子图像的局部生成问题。
现有的技术从未涉足过组合立体图像系统中立体元的虚拟合成,对于组成立体元图像的基本单元——子图像(element image,EI)没有现成可用的虚拟生成方法。本发明能实现大量虚拟视点的并行生成,更适合于立体元图像的虚拟合成。与传统的虚拟视点生成技术相比,本发明使用简单的模型,重构出拍摄物体的空间位置,并用重投影的方法实现了大量虚拟视点的合成,使组合立体图像系统的图像源从电脑制作走向实景拍摄。
附图说明
图1为稀疏镜头采集的组合立体图像系统中立体元的合成方法的流程图
图2为真实组合立体图像系统的立体元图像采集过程示意图
图3为真实组合立体图像系统的立体元图像显示过程示意图
其中:1.记录媒体  2.镜头矩阵  3.光线  4.实际物体  5.照明  6.平板显示器  7.立体图像
图4为计算机合成的立体元图像及子图像示意图
图5为2×2稀疏相机矩阵示意图
图6为2×2稀疏相机矩阵采集到的原始图像
图7为双目立体视觉几何模型
其中:X为实际物点p到左摄像机中心的横向距离,Z为实际物点p到相机阵列平面的深度距离,f为相机焦距,B为相邻相机间的基线距离,C1和Cr为实际相机,x1、xr分别为实际物点p在左右图像中成像点距离图像中心的横向距离。
图8为反向映射生成子图像示意图
其中:W为虚拟相机的成像宽度,f’为虚拟相机焦距,p为实际物点,C1-C5为虚拟相机。
具体实施方式
以下结合附图实例对本发明作进一步详细描述。这里,将图5中所示的2×2稀疏相机矩阵采集平台采集到的图像作为合成立体元图像的原始图像,如图6所示为2×2稀疏相机矩阵采集到的原始图像,具体过程(如图1所示)包括下列步骤:
1.设置稀疏相机矩阵(如图5所示),必须保证矩阵中的所有相机在同一个平面内,每行相机的连线互相平行,每列相机的连线也互相平行,每行相机和每列相机的连线互相垂直。
2.分别计算每幅拍摄图像与其水平相邻图像间的视差图和垂直相邻图像间的视差图,其中每幅拍摄图像与水平相邻图像间的视差图是通过一维窗匹配的方法计算获得,每幅拍摄图像与垂直相邻图像间的视差图是通过将上、下两幅相邻图像进行转置,然后按照每幅拍摄图像与水平相邻图像间视差图相同的获得方法计算,将计算结果再进行转置获得。
3.将双目立体视觉模型(如图7)扩展为多目立体视觉模型,分别根据每幅图像的水平视差图和垂直视差图计算出每幅图像中像素点所对应实际物点的空间位置坐标,其中左上方相机拍摄到的图像中像素点所对应实际物点的空间位置坐标的计算,包括下列步骤:
第一步:根据水平视差,计算出左上方图像中像素点所对应实际物点的空间位置坐标,其表达式为:
Z1=f×B1/d1
X1=xl×B1/d1
Y1=yl×B1/d1
d1=|xl-xr|
式中:Z1-为通过水平视差计算得到的实际物点到相机阵列平面的深度距离,X1-为通过水平视差计算得到的实际物点到左上方相机中心的水平距离,Y1-为通过水平视差计算得到的实际物点到左上方相机中心的垂直距离,d1-为水平视差值,f-为相机焦距,B1-为相邻相机间的水平基线距离,xl、xr-分别为实际物点在左上方图像和右上方图像中成像点距离图像中心的水平距离,yl-为实际物点在左上方图像中成像点距离图像中心的垂直距离。
第二步:根据垂直视差,计算出左上方图像中像素点所对应实际物点的空间位置坐标,其表达式为:
Z2=f×B2/d2
X2=xt×B2/d2
Y2=yt×B2/d2
d2=|yt-yb|
式中:Z2-为通过垂直视差计算得到的实际物点到相机阵列平面的深度距离,X2-为通过垂直视差计算得到的实际物点到左上方相机中心的水平距离,Y2-为通过垂直视差计算得到的实际物点到左上方相机中心的垂直距离,d2-为垂直视差值,f-为相机焦距,B2-为相邻相机间的垂直基线距离,yt,yb-分别为实际物点在左上方图像和左下方图像中成像点距离图像中心的垂直距离,xt-为实际物点在左上方图像中成像点距离图像中心的水平距离。
第三步:每幅图像对应由水平视差和垂直视差计算得到的两组空间位置坐标中存在重叠数据,即,图像中的某些像素点在根据水平视差计算空间位置坐标和根据垂直视差计算空间位置坐标时各生成了一组坐标值,因此,需对这些重叠的数据进行合并,将每幅图的两组空间位置坐标合并成一组,具体为:
a、将两组数据中公共像素点所对应实际物点的信息进行合并,取两组数据的均值作为该实际物点的新的空间位置坐标;
b、对两组数据中的非公共像素点所对应实际物点的空间位置坐标进行单独存储。
右上方相机、左下方相机和右下方相机拍摄到的图像中像素点所对应实际物点的空间位置坐标的计算,与上述三个步骤相同。
4.将所有图像中计算得到的像素点所对应实际物点的空间位置坐标换算到同一坐标系中,由于每幅图像中像素点所对应实际物点的空间位置坐标都是以每个相机中心为坐标原点计算,而在虚拟成像时需将所有图像中像素点所对应实际物点的空间位置坐标统一到同一个坐标系中,需进行归一化处理得到在同一坐标系下每幅图像中像素点所对应实际物点的空间位置坐标,具体为:将所有实际物点的空间位置坐标换算到左上方图像的坐标系中,其表达式为:
右上方图像:X=Xrt+B1;Y=Yrt-B2
左下方图像:X=Xlb-B1;Y=Ylb+B2
右下方图像:X=Xrb+B1;Y=Yrb+B2
其中,X和Y-分别为每幅图像中像素点所对应实际物点的空间位置坐标经过换算后在左上方图像坐标系中的新的水平和垂直位置坐标,B1-为相机阵列的水平基线距离,B2-为相机阵列的垂直基线距离,Xrt和Yrt-分别为右上方图像中像素点所对应实际物点的水平和垂直位置坐标,Xlb和Ylb-分别为左下方图像中像素点所对应实际物点的水平和垂直位置坐标,Xrb和Yrb-分别为右下方图像中像素点所对应实际物点的水平和垂直位置坐标。
每幅图像中像素点所对应实际物点到相机阵列平面的深度距离都以同一相机平面作为参考,无需进行换算。
5.虚拟一个相机阵列,根据小孔成像原理,将步骤(4)中计算得到的同一坐标系下每幅图像中像素点所对应的实际物点投影到每个虚拟相机中,生成子图像;在生成过程中,同时考虑遮挡的影响。
理想的组合立体图像系统中,透镜阵列中每个小透镜只记录被拍摄物体某一位置的局部信息,我们将每个小透镜所成的图像称为子图像。本发明中,使用虚拟相机阵列来模拟透镜阵列的成像过程。
设置虚拟相机阵列时,虚拟相机阵列的位置坐标以左上方相机中心作为坐标原点,虚拟相机阵列平面平行于用于真实采集的稀疏相机阵列平面。为保证所有具有空间位置的实际物点至少能够成像到一个虚拟相机中,虚拟相机阵列的边界必须将所有实际物点的空间位置坐标都包含进来,将虚拟相机阵列的左边界设置为所有物点中最左边点的横坐标位置,右边界设置为所有物点中最右边点的横坐标位置,上边界设置为所有物点中最上边点的纵坐标位置,下边界设置为所有物点中最下边点的纵坐标位置,虚拟相机阵列中相机的数量可以自由设定,在实验中设为33×50个,每个虚拟相机等间隔地排列在虚拟相机阵列中,虚拟相机阵列距离实际物点的深度也可以自由设定,实验中默认为与用于真实采集的稀疏相机阵列距离实际物点的深度相同。
成像时,在已知虚拟相机空间位置、焦距和实际物点的空间位置的情况下,根据小孔成像原理,得到实际物点在每个虚拟相机中所成的像——子图像。如图8所示,为生成子图像的示意图,图中P点为前文中计算得到的实际物点,Ci(i=1,2,……,5)为5个虚拟相机,每个虚拟相机的成像宽度为W(pixel),焦距为f′。图中,从实际物点P向每个虚拟相机投影,如果P点落在虚拟相机的成像范围内,则将P点的像素值记录在该相机所成的图像中(如C3,C4,C5);如果P点落在虚拟相机的成像范围外,则将P点舍掉(如C1,C2)。这样,我们便将实际物点全部投影到虚拟相机阵列中。实际物点在子图像中成像点的位置坐标为:
x=f′×(X-Cx)/Z
y=f′×(Y-Cy)/Z
其中,f′-为虚拟相机焦距,X、Y和Z-为实际物点的空间位置坐标,Cx和Cy-为虚拟相机中心的位置坐标,x和y-为实际物点在子图像中成像点的位置坐标。
在成像过程中,考虑到遮挡的影响,如果在投影线上存在多于一个的实际物点,则取深度值最小的点,也就是最接近于虚拟相机阵列的点进行投影。
6.对于投影得到的每个虚拟相机中的子图像,由于遮挡等因素的影响,存在未被填充的像素点,需将未填充像素点按照其周围已填充像素点的个数进行分级,周围已填充像素点的个数越多,级别越高,越优先处理,周围已填充像素点个数最多为8个,最少为0。在处理中对周围所有已填充像素点的像素值取均值,作为该未填充像素点的像素值。
7.将得到的每个子图像按虚拟相机的排列顺序进行组合,生成立体元图像。

Claims (1)

1.一种稀疏镜头采集的组合立体图像系统中立体元的合成方法,其特征在于包括下列步骤:
(1)设置稀疏相机矩阵,必须保证矩阵中的所有相机在同一个平面内,每行相机的连线互相平行,每列相机的连线也互相平行,每行相机和每列相机的连线互相垂直;
(2)分别计算每幅拍摄图像与其水平相邻图像间的视差图和垂直相邻图像间的视差图,其中每幅拍摄图像与水平相邻图像间的视差图是通过一维窗匹配的方法计算获得,每幅拍摄图像与垂直相邻图像间的视差图是通过将上、下两幅相邻图像进行转置,然后按照每幅拍摄图像与水平相邻图像间视差图相同的获得方法计算,将计算结果再进行转置获得;
(3)将双目立体视觉模型扩展为多目立体视觉模型,分别根据每幅图像的水平视差图和垂直视差图计算出每幅图像中像素点所对应实际物点的空间位置坐标,其中左上方相机拍摄到的图像中像素点所对应实际物点的空间位置坐标的计算,包括下列步骤:
第一步:根据水平视差,计算出左上方图像中像素点所对应实际物点的空间位置坐标,其表达式为:
Z1=f×B1/d1
X1=xl×B1/d1
Y1=yl×B1/d1
d1=|xl-xr|
式中:Z1-为通过水平视差计算得到的实际物点到相机阵列平面的深度距离,X1-为通过水平视差计算得到的实际物点到左上方相机中心的水平距离,Y1-为通过水平视差计算得到的实际物点到左上方相机中心的垂直距离,d1-为水平视差值,f-为相机焦距,B1-为相邻相机间的水平基线距离,xl、xr-分别为实际物点在左上方图像和右上方图像中成像点距离图像中心的水平距离,yl-为实际物点在左上方图像中成像点距离图像中心的垂直距离;
第二步:根据垂直视差,计算出左上方图像中像素点所对应实际物点的空间位置坐标,其表达式为:
Z2=f×B2/d2
X2=xt×B2/d2
Y2=yt×B2/d2
d2=|yt-yb|
式中:Z2-为通过垂直视差计算得到的实际物点到相机阵列平面的深度距离,X2-为通过垂直视差计算得到的实际物点到左上方相机中心的水平距离,Y2-为通过垂直视差计算得到的实际物点到左上方相机中心的垂直距离,d2-为垂直视差值,f-为相机焦距,B2-为相邻相机间的垂直基线距离,yt,yb-分别为实际物点在左上方图像和左下方图像中成像点距离图像中心的垂直距离,xt-为实际物点在左上方图像中成像点距离图像中心的水平距离;
第三步:对每幅图像对应由水平视差和垂直视差计算得到的两组空间位置坐标中存在的重叠数据进行合并,将每幅图的两组空间位置坐标合并成一组,具体为:
a、将两组数据中公共像素点所对应实际物点的信息进行合并,取两组数据的均值作为该实际物点的新的空间位置坐标;
b、对两组数据中的非公共像素点所对应实际物点的空间位置坐标进行单独存储;
右上方相机、左下方相机和右下方相机拍摄到的图像中像素点所对应实际物点的空间位置坐标的计算,与上述三个步骤相同;
(4)将所有图像中计算得到的像素点所对应实际物点的空间位置坐标换算到同一坐标系中,得到在同一坐标系下每幅图像中像素点所对应实际物点的空间位置坐标,具体为:将所有实际物点的空间位置坐标换算到左上方图像的坐标系中,其表达式为:
右上方图像:X=Xrt+B1;Y=Yrt-B2
左下方图像:X=Xlb-B1;Y=Ylb+B2
右下方图像:X=Xrb+B1;Y=Yrb+B2
其中,X和Y-分别为每幅图像中像素点所对应实际物点的空间位置坐标经过换算后在左上方图像坐标系中的新的水平和垂直位置坐标,B1-为相机阵列的水平基线距离,B2-为相机阵列的垂直基线距离,Xrt和Yrt-分别为右上方图像中像素点所对应实际物点的水平和垂直位置坐标,Xlb和Ylb-分别为左下方图像中像素点所对应实际物点的水平和垂直位置坐标,Xrb和Yrb-分别为右下方图像中像素点所对应实际物点的水平和垂直位置坐标;
每幅图像中像素点所对应实际物点到相机阵列平面的深度距离都以同一相机平面作为参考,无需进行换算;
(5)虚拟一个相机阵列,根据小孔成像原理,将步骤(4)中计算得到的同一坐标系下每幅图像中像素点所对应的实际物点投影到每个虚拟相机中,生成子图像;在生成过程中,同时考虑遮挡的影响;
设置虚拟相机阵列时,虚拟相机阵列的位置坐标以左上方相机中心作为坐标原点,为保证所有具有空间位置的实际物点至少能够成像到一个虚拟相机中,虚拟相机阵列的边界必须将所有实际物点的空间位置坐标都包含进来,将虚拟相机阵列的左边界设置为所有物点中最左边点的横坐标位置,右边界设置为所有物点中最右边点的横坐标位置,上边界设置为所有物点中最上边点的纵坐标位置,下边界设置为所有物点中最下边点的纵坐标位置,虚拟相机阵列中相机的数量可以自由设定,每个虚拟相机等间隔地排列在虚拟相机阵列中,虚拟相机阵列距离实际物点的深度也可以自由设定;
成像时,在已知虚拟相机空间位置、焦距和实际物点的空间位置的情况下,根据小孔成像原理,得到实际物点在每个虚拟相机中所成的像——子图像,实际物点在子图像中成像点的位置坐标为:
x=f′×(X-Cx)/Z
y=f′×(Y-Cy)/Z
其中,f′-为虚拟相机焦距,X、Y和Z-为实际物点的空间位置坐标,Cx和Cy-为虚拟相机中心的位置坐标,x和y-为实际物点在子图像中成像点的位置坐标;
在成像过程中,考虑到遮挡的影响,如果在投影线上存在多于一个的实际物点,则取深度值最小的点,也就是最接近于虚拟相机阵列的点进行投影;
(6)对于投影得到的每个虚拟相机中的子图像,存在未被填充的像素点,需将未填充像素点按照其周围已填充像素点的个数进行分级,周围已填充像素点的个数越多,级别越高,越优先处理,在处理中对周围所有已填充像素点的像素值取均值,作为该未填充像素点的像素值;
(7)将得到的每个子图像按虚拟相机的排列顺序进行组合,生成立体元图像。
CN 201110341659 2011-11-02 2011-11-02 稀疏镜头采集的组合立体图像系统中立体元的合成方法 Expired - Fee Related CN102447934B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110341659 CN102447934B (zh) 2011-11-02 2011-11-02 稀疏镜头采集的组合立体图像系统中立体元的合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110341659 CN102447934B (zh) 2011-11-02 2011-11-02 稀疏镜头采集的组合立体图像系统中立体元的合成方法

Publications (2)

Publication Number Publication Date
CN102447934A true CN102447934A (zh) 2012-05-09
CN102447934B CN102447934B (zh) 2013-09-04

Family

ID=46009951

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110341659 Expired - Fee Related CN102447934B (zh) 2011-11-02 2011-11-02 稀疏镜头采集的组合立体图像系统中立体元的合成方法

Country Status (1)

Country Link
CN (1) CN102447934B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102865833A (zh) * 2012-10-17 2013-01-09 南京理工大学 基于等高信息稀疏测量的三维成像装置及方法
CN103096113A (zh) * 2013-02-15 2013-05-08 吉林大学 离散视点采集结合窗截取算法的立体元图像阵列生成方法
CN103413339A (zh) * 2013-07-23 2013-11-27 清华大学 十亿像素高动态范围图像重建与显示的方法
CN103744264A (zh) * 2013-12-24 2014-04-23 北京邮电大学 3d投影方法
CN104063843A (zh) * 2014-06-18 2014-09-24 长春理工大学 一种基于中心投影的集成立体成像元素图像生成的方法
CN105493138A (zh) * 2013-09-11 2016-04-13 索尼公司 图像处理装置和方法
CN106210489A (zh) * 2016-09-13 2016-12-07 北京视觉智能科技有限公司 一种基于微型摄像头矩阵的图像获取装置
CN106204605A (zh) * 2016-07-15 2016-12-07 上海乐相科技有限公司 一种定位方法及装置
WO2017124654A1 (zh) * 2016-01-22 2017-07-27 尹兴 四相机组平面阵列特征点三维测量系统及测量方法
CN107167092A (zh) * 2017-05-18 2017-09-15 上海晶电新能源有限公司 一种基于多目图像识别的定日镜面形检测系统及方法
CN107289869A (zh) * 2017-06-08 2017-10-24 杭州联络互动信息科技股份有限公司 一种利用矩阵镜头进行3d测量的方法、装置及系统
CN107396133A (zh) * 2017-07-20 2017-11-24 深圳市佳创视讯技术股份有限公司 自由视点视频导播方法及系统
EP3285232A4 (en) * 2016-07-04 2018-02-21 Beijing Qingying Machine Visual Technology Co., Ltd. Method for matching feature points of planar array of four-phase unit and measurement method on basis thereof
CN107784843A (zh) * 2016-08-31 2018-03-09 百度在线网络技术(北京)有限公司 智能交通信号灯系统及其图像处理方法
CN108198132A (zh) * 2017-10-20 2018-06-22 吉林大学 基于块匹配的集成成像图像重构的方法
CN108520055A (zh) * 2018-04-04 2018-09-11 天目爱视(北京)科技有限公司 一种基于天目点云比对的产品检测鉴定方法
CN111343444A (zh) * 2020-02-10 2020-06-26 清华大学 一种立体图像生成方法及装置
CN116233399A (zh) * 2023-02-17 2023-06-06 深圳市安博斯技术有限公司 一种立体显示自动调焦方法、存储介质及立体成像装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101266546A (zh) * 2008-05-12 2008-09-17 深圳华为通信技术有限公司 一种实现操作系统三维显示的方法和一种三维操作系统
CN101277454A (zh) * 2008-04-28 2008-10-01 清华大学 一种基于双目摄像机的实时立体视频生成方法
CN101312542A (zh) * 2008-07-07 2008-11-26 浙江大学 一种自然三维电视系统
CN101873508A (zh) * 2010-05-25 2010-10-27 东南大学 基于改进bp算法的中间视合成方法
WO2012176526A1 (ja) * 2011-06-21 2012-12-27 シャープ株式会社 立体画像処理装置、立体画像処理方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101277454A (zh) * 2008-04-28 2008-10-01 清华大学 一种基于双目摄像机的实时立体视频生成方法
CN101266546A (zh) * 2008-05-12 2008-09-17 深圳华为通信技术有限公司 一种实现操作系统三维显示的方法和一种三维操作系统
CN101312542A (zh) * 2008-07-07 2008-11-26 浙江大学 一种自然三维电视系统
CN101873508A (zh) * 2010-05-25 2010-10-27 东南大学 基于改进bp算法的中间视合成方法
WO2012176526A1 (ja) * 2011-06-21 2012-12-27 シャープ株式会社 立体画像処理装置、立体画像処理方法、及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
刘占伟等: "基于D IBR和图像融合的任意视点绘制", 《中国图象图形学报》, vol. 12, no. 10, 31 October 2007 (2007-10-31), pages 1696 - 1699 *
周雪梅等: "立体视频中的虚拟视点合成技术", 《煤炭技术》, vol. 29, no. 10, 31 October 2010 (2010-10-31), pages 177 - 178 *
陈思利等: "一种基于D IBR的虚拟视点合成算法", 《成都电子机械高等专科学校学报》, vol. 13, no. 1, 31 March 2010 (2010-03-31), pages 15 - 18 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102865833A (zh) * 2012-10-17 2013-01-09 南京理工大学 基于等高信息稀疏测量的三维成像装置及方法
CN102865833B (zh) * 2012-10-17 2015-04-15 南京理工大学 基于等高信息稀疏测量的三维成像装置及方法
CN103096113B (zh) * 2013-02-15 2015-01-07 吉林大学 离散视点采集结合窗截取算法的立体元图像阵列生成方法
CN103096113A (zh) * 2013-02-15 2013-05-08 吉林大学 离散视点采集结合窗截取算法的立体元图像阵列生成方法
CN103413339A (zh) * 2013-07-23 2013-11-27 清华大学 十亿像素高动态范围图像重建与显示的方法
US10587864B2 (en) 2013-09-11 2020-03-10 Sony Corporation Image processing device and method
CN105493138A (zh) * 2013-09-11 2016-04-13 索尼公司 图像处理装置和方法
CN103744264B (zh) * 2013-12-24 2016-02-03 北京邮电大学 3d投影方法
CN103744264A (zh) * 2013-12-24 2014-04-23 北京邮电大学 3d投影方法
CN104063843B (zh) * 2014-06-18 2017-07-28 长春理工大学 一种基于中心投影的集成立体成像元素图像生成的方法
CN104063843A (zh) * 2014-06-18 2014-09-24 长春理工大学 一种基于中心投影的集成立体成像元素图像生成的方法
KR101843838B1 (ko) * 2016-01-22 2018-04-02 베이징 칭잉 머신 비쥬얼 테크놀러지 씨오., 엘티디. 4카메라그룹 평면 어레이의 특징점의 3차원 측정 시스템 및 측정 방법
WO2017124654A1 (zh) * 2016-01-22 2017-07-27 尹兴 四相机组平面阵列特征点三维测量系统及测量方法
JP2018513345A (ja) * 2016-01-22 2018-05-24 ペキン チンギン マシン ヴィジュアル テクノロジー カンパニー リミテッド 4カメラ組の平面アレイの特徴点の3次元測定システム及び測定方法
KR101926953B1 (ko) 2016-07-04 2018-12-07 베이징 칭잉 머신 비쥬얼 테크놀러지 씨오., 엘티디. 4카메라 그룹 평면 어레이의 특징점의 매칭 방법 및 그에 기초한 측정 방법
EP3285232A4 (en) * 2016-07-04 2018-02-21 Beijing Qingying Machine Visual Technology Co., Ltd. Method for matching feature points of planar array of four-phase unit and measurement method on basis thereof
CN106204605A (zh) * 2016-07-15 2016-12-07 上海乐相科技有限公司 一种定位方法及装置
CN106204605B (zh) * 2016-07-15 2019-02-19 上海乐相科技有限公司 一种定位方法及装置
CN107784843A (zh) * 2016-08-31 2018-03-09 百度在线网络技术(北京)有限公司 智能交通信号灯系统及其图像处理方法
CN106210489A (zh) * 2016-09-13 2016-12-07 北京视觉智能科技有限公司 一种基于微型摄像头矩阵的图像获取装置
CN107167092A (zh) * 2017-05-18 2017-09-15 上海晶电新能源有限公司 一种基于多目图像识别的定日镜面形检测系统及方法
CN107167092B (zh) * 2017-05-18 2019-12-13 上海晶电新能源有限公司 一种基于多目图像识别的定日镜面形检测系统及方法
CN107289869A (zh) * 2017-06-08 2017-10-24 杭州联络互动信息科技股份有限公司 一种利用矩阵镜头进行3d测量的方法、装置及系统
CN107396133A (zh) * 2017-07-20 2017-11-24 深圳市佳创视讯技术股份有限公司 自由视点视频导播方法及系统
CN107396133B (zh) * 2017-07-20 2020-05-22 深圳市佳创视讯技术股份有限公司 自由视点视频导播方法及系统
CN108198132A (zh) * 2017-10-20 2018-06-22 吉林大学 基于块匹配的集成成像图像重构的方法
CN108520055A (zh) * 2018-04-04 2018-09-11 天目爱视(北京)科技有限公司 一种基于天目点云比对的产品检测鉴定方法
CN111343444A (zh) * 2020-02-10 2020-06-26 清华大学 一种立体图像生成方法及装置
CN116233399A (zh) * 2023-02-17 2023-06-06 深圳市安博斯技术有限公司 一种立体显示自动调焦方法、存储介质及立体成像装置

Also Published As

Publication number Publication date
CN102447934B (zh) 2013-09-04

Similar Documents

Publication Publication Date Title
CN102447934B (zh) 稀疏镜头采集的组合立体图像系统中立体元的合成方法
CN108513123B (zh) 一种集成成像光场显示的图像阵列生成方法
JP4764305B2 (ja) 立体画像生成装置、方法およびプログラム
CN102164298B (zh) 全景成像系统中基于立体匹配的元素图像获取方法
JP4489610B2 (ja) 立体視可能な表示装置および方法
JP4440066B2 (ja) 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法
KR20110090958A (ko) 이미지 속성들에 대한 오클루젼 데이터의 생성
JP4928476B2 (ja) 立体像生成装置、その方法およびそのプログラム
AU2018249563B2 (en) System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display
CN104063843A (zh) 一种基于中心投影的集成立体成像元素图像生成的方法
WO2012140397A2 (en) Three-dimensional display system
KR20120045269A (ko) 3d 메쉬 모델링 및 에볼루션에 기반한 홀로그램 생성 방법 및 장치
JP4996922B2 (ja) 立体映像化
JP2017011520A (ja) 立体像奥行き変換装置およびそのプログラム
JP2006163547A (ja) 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。
CN105979241B (zh) 一种柱面立体全景视频快速反变换方法
CN104284177A (zh) 会聚立体图像视差控制方法
US10110876B1 (en) System and method for displaying images in 3-D stereo
Knorr et al. From 2D-to stereo-to multi-view video
JP6595878B2 (ja) 要素画像群生成装置及びそのプログラム
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
CN104378617B (zh) 一种虚拟视点中像素点的获取方法
Louis et al. Rendering stereoscopic augmented reality scenes with occlusions using depth from stereo and texture mapping
JP6543096B2 (ja) 視点位置用要素画像生成装置およびそのプログラム、ならびに、インテグラル立体シミュレーションシステム
CN113821107B (zh) 一种实时、自由视点的室内外裸眼3d系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130904

Termination date: 20161102