CN103456036B - 基于粒子追踪的集成成像微单元图像并行生成方法 - Google Patents
基于粒子追踪的集成成像微单元图像并行生成方法 Download PDFInfo
- Publication number
- CN103456036B CN103456036B CN201310392012.9A CN201310392012A CN103456036B CN 103456036 B CN103456036 B CN 103456036B CN 201310392012 A CN201310392012 A CN 201310392012A CN 103456036 B CN103456036 B CN 103456036B
- Authority
- CN
- China
- Prior art keywords
- axis
- vector
- micro unit
- particle
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Generation (AREA)
Abstract
本发明公开了一种基于粒子追踪的集成成像微单元图像并行生成方法,主要用于解决现有微单元图像生成方法并行度差,速度慢的问题。其主要实现步骤是:(1)生成三维地形场景;(2)放置微透镜;(3).放置微单元图像阵列平面;(4)获得像素点编号;(5)发射追踪粒子;(6)移动追踪粒子;(7)用背景颜色替换初始发射点的颜色;(8)用表面颜色替换初始发射点的颜色;(9)判断是否存在追踪粒子;(10)继续移动追踪粒子;(11)判断像素点编号值是否等于N;(12)生成结果。本发明在保证生成微单元图像成像质量的基础上,具有并行度高、运行速度快的优点。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及集成成像技术领域的基于粒子追踪的集成成像微单元图像并行生成方法。本发明可以快速获得从不同角度拍摄的微单元图像,结合集成成像显示设备实现对物体的三维光学重构。
背景技术
在三维集成成像中,常常需要根据三维场景生成微单元图像阵列。传统的微单元图像生成方法,一种是利用CPU根据光线追踪的方法,根据物体模型生成微单元图像阵列;一种是利用类似于MicrosoftDirect3D(以下简称D3D)的三维渲染引擎,根据虚拟面片模型,逐幅渲染每一幅微单元图像。这两种方法在微单元图像的数量较多时,渲染的速度都非常的缓慢,不能满足集成成像三维显示实时性的要求。
南开大学提出的专利申请“基于相机阵列的元素图像阵列快速获取方法”(申请日:2011年12月6日,申请号:201110400206.X,公开号:CN102523462A)中公开了一种微单元图像阵列快速获取方法。该方法基于集成成像获取的微单元图像阵列中微单元图像间的相关性,利用四个相机组成的相机阵列快速获取微单元图像阵列。该方法由于使用的相机获取的微单元图像较少,所获取的信息仅仅是微单元图像阵列中的四幅微单元图像,因此可以快速的获取微单元图像阵列。但是,该方法仍然存在的不足之处是,数据源只考虑了原始三维物体在某几个角度观看的几何视差信息,相较于原始三维物体丢失了大量的几何信息,因此所获得的微单元图像阵列效果较差。
韩国的GangLi等人在文章“SimplifiedIntegralImagingPickupMethodforRealObjectsUsingaDepthCamera”(JournaloftheOpticalSocietyofKorea,Vol.16,No.4,pp.381-385,Dec.2012)中提出了一种微单元图像生成方法。该方法利用可见光图像和深度图象进行虚拟三维地形网格重建,从而生成微单元图像阵列。该方法由于仅追踪简单的地形网格,因此能够提高微单元图像生成速度。但是,该方法存在的不足之处是,首先,该方法在执行时微单元图像阵列每一个像素点颜色值的获得受三维场景中很多点的影响,因此,如果该方法并行运行,将难以保证微单元图像阵列中的每个像素点获得正确的颜色值,因此,该方法不适合并行运行,不能利用GPU的强大能力,速度较慢。其次,该方法仅利用面片建立三维地形网格,因此在遍历所有面片来获取像素点的颜色值的过程中,难以保证微单元图像阵列的每个像素点获得离其最近的面片的颜色值,从而会错误的获得没有考虑三维物体遮挡关系的微单元图像阵列。这些缺点造成了微单元图像生成速度较慢,并且生成的微单元图像阵列质量较差。
发明内容
本发明的目的在于克服上述已有技术的不足,提出了基于粒子追踪的集成成像微单元图像并行生成方法,以实现利用合成的三维地形网格,通过粒子追踪的方法实时并行的生成微单元图像阵列。
实现本发明目的的思路是,对实际三维场景进行拍摄,获得其对应的深度图和可见光图,接着基于拍摄的图像建立三维地形网格,从所有需要生成的微单元图像中同时发射追踪粒子,并行的获得微单元图像中的像素点与三维地形网格中的着色小长方体的颜色对应关系,从而同时并行的生成大量的微单元图像。
实现本发明目的的具体步骤如下:
(1)生成三维地形场景:
1a)利用一个可见光CCD相机,获得实际三维场景正交投影的可见光图像。利用一个深度相机,获得实际三维场景的深度图像。
1b)利用地形网格重建方法,将可见光图像和深度图像转化为三维地形场景。
1c)以三维地形场景的中心为原点,将三维地形场景向后的方向设为z轴正方向,三维地形场景向右的方向设为x轴正方向,三维地形场景向上的方向设为y轴正方向,建立坐标系。
1d)采用包围盒选择方法,在三维地形场景中选择一个最小包围盒。
(2)放置微透镜:
在三维地形场景中,选择一个与z轴垂直的微透镜阵列平面,在微透镜阵列平面上放置多个微透镜,各微透镜之间紧密排列。
(3)放置微单元图像阵列平面:
在三维地形场景中,放置一个与z轴垂直的微单元图像阵列平面,三维地形场景通过微透镜阵列在该平面生成微单元图像阵列,微单元图像阵列中每一幅微单元图像与每一个微透镜一一对应。
(4)获得像素点编号:
对微单元图像阵列中的每一幅微单元图像的像素点,依次从1到N进行编号,每个像素点获得一个对应的像素点编号,N表示微单元图像像素总数。
(5)发射追踪粒子:
5a)在1到N的范围内,依次选取每一个像素点编号,在微单元图像阵列中将与所选取像素点编号对应的所有像素点作为初始发射点。
5b)从每一个初始发射点发出一个追踪粒子,该追踪粒子穿过与其对应的微透镜中心,在最小包围盒前表面上的停止位置处停止。
(6)移动追踪粒子:
将发出的所有追踪粒子,在同一个时刻移动一个步进矢量。
(7)用背景颜色替换初始发射点的颜色:
用三维地形场景背景对应的颜色,替换所有发出追踪粒子在最小包围盒外部的初始发射点的颜色。
(8)用表面颜色替换初始发射点的颜色:
用追踪粒子各自所在着色小长方体的表面颜色,分别替换在任意一个着色小长方体内部的追踪粒子所对应的初始发射点的颜色。
(9)判断是否存在追踪粒子:
判断是否存在颜色未被替换的初始发射点发出的追踪粒子,若存在,则执行步骤(10),否则,执行步骤(11)。
(10)继续移动追踪粒子:
将所有颜色未被替换的初始发射点发出的追踪粒子,在同一时刻继续移动一个步进矢量,执行步骤(7)。
(11)判断像素点编号值是否等于N:
判断初始发射点对应的像素点编号值是否与微单元图像像素的总数N相等,若相等,则执行步骤(12),否则,执行步骤(5)。
(12)生成结果:
将微单元图像阵列作为生成结果。
本发明与现有的技术相比具有以下优点:
第一,本发明通过对三维地形网格进行粒子追踪生成微单元图像阵列,利用了原始三维场景中几乎全部的几何信息,克服了现有技术中仅考虑原始三维场景特定角度的几何信息的问题,使得本发明具有能够获得高像质微单元图像阵列的优点。
第二,本发明通过从选取的初始发射点位置同时发出追踪粒子,并且初始发射点最终获得的颜色只与其发出的追踪粒子的最终位置有关,因此每一个初始发射点获得颜色的过程是独立进行的,不受其他初始发射点发射的追踪粒子干扰,克服了现有技术中微单元图像阵列每一个像素点在获取颜色时被三维场景中的多个点干扰,不适合并行执行的问题,使本发明具有更适合被并行加速的优点。
第三,本发明同时在微单元图像阵列的所有微单元图像内选择点进行微单元图像生成,克服了现有技术中三维渲染引擎只能逐幅生成微单元图像的问题,使本发明具有能够同时生成多幅微单元图像的优点。
第四,本发明通过利用着色小长方体建立三维地形网格,并且利用粒子追踪获得碰到的首个着色小长方体的表面颜色值,作为发射追踪粒子初始发射点的最终颜色值,克服了现有技术仅仅利用面片建立三维地形网格,微单元图像阵列的像素点可能会获得被遮住的不正确的面片颜色值的问题,使本发明在生成微单元图像时,解决了遮挡问题,具有能够更为准确的生成微单元图像阵列的优点。
附图说明
图1为本发明的流程图;
图2为本发明发射追踪粒子过程的示意图。
具体实施方式
下面结合附图对本发明作进一步的详细描述:
参照附图1,本发明实现的步骤如下:
步骤1,生成三维地形场景。
利用一个可见光CCD相机,获得实际三维场景正交投影的可见光图像。利用一个深度相机,获得实际三维场景的深度图像。
利用地形网格重建方法,将可见光图像和深度图像转化为三维地形场景。
地形网格重建方法的具体步骤如下:
第一步,以实际三维场景的深度图像中每一个像素点的深度值作为小长方体的高,深度图像像素边长作为小长方体的长和宽,构建一个小长方体,以该像素点在可见光图像中对应点的像素值作为小长方体的表面颜色,生成一个着色小长方体;
第二步,将实际三维场景的深度图像中的所有像素点,依次生成多个着色小长方体;
第三步,将多个着色小长方体按照深度图像中点的相对位置排列,构成三维地形场景。
以三维地形场景的中心为原点,将三维地形场景向后的方向设为z轴正方向,三维地形场景向右的方向设为x轴正方向,三维地形场景向上的方向设为y轴正方向,建立坐标系。
采用包围盒选择方法,在三维地形场景中选择一个最小包围盒。
包围盒选择方法的具体步骤如下:
第一步,选择一个与z轴垂直且与z轴相交于A点的表面,将该表面作为包围盒的前表面,其中A点的z坐标值为三维场景中所有物体z坐标值的最小值;
第二步,选择一个与z轴垂直且与z轴相交于B点的表面,将该表面作为包围盒的后表面,其中B点的z坐标值为三维场景中所有物体z坐标值的最大值;
第三步,选择一个与x轴垂直且与x轴相交于C点的表面,将该表面作为包围盒的左表面,其中C点的x坐标值为三维场景中所有物体x坐标值的最小值;
第四步,选择一个与x轴垂直且与x轴相交于D点的表面,将该表面作为包围盒的右表面,其中D点的x坐标值为三维场景中所有物体x坐标值的最大值;
第五步,选择一个与y轴垂直且与y轴相交于E点的表面,将该表面作为包围盒的上表面,其中E点的y坐标值为三维场景中所有物体y坐标值的最小值;
第六步,选择一个与y轴垂直且与y轴相交于F点的表面,将该表面作为包围盒的下表面,其中F点的y坐标值为三维场景中所有物体y坐标值的最大值。
步骤2,放置微透镜。
在三维地形场景中,选择一个与z轴垂直的微透镜阵列平面,在微透镜阵列平面上放置多个微透镜,各微透镜之间紧密排列。
步骤3,放置微单元图像阵列平面。
在三维地形场景中,放置一个与z轴垂直的微单元图像阵列平面,三维地形场景通过微透镜阵列在该平面生成微单元图像阵列,微单元图像阵列中每一幅微单元图像与每一个微透镜一一对应。
步骤4,获得像素点编号。
对微单元图像阵列中的每一幅微单元图像的像素点,依次从1到N进行编号,每个像素点获得一个对应的像素点编号,N表示微单元图像像素总数。
在本发明的实施例中,微单元图像的像素按照从左到右,从上到下的顺序进行编号,微单元图像中每个像素点获得的编号唯一。
步骤5,发射追踪粒子。
在1到N的范围内,依次选取每一个像素点编号,在微单元图像阵列中将与所选取像素点编号对应的所有像素点作为初始发射点。
从每一个初始发射点发出一个追踪粒子,该追踪粒子穿过与其对应的微透镜中心,在最小包围盒前表面上的停止位置处停止。
最小包围盒前表面上的停止位置是由x轴和y轴的坐标值确定,x轴和y轴的坐标值按照如下步骤获得:
第一步,按照下式,计算最小包围盒前表面上的停止位置对应的x轴坐标值:
其中,Px表示最小包围盒前表面上的停止位置对应的x轴坐标值,Cx表示追踪粒子所经过微透镜的中心对应的x轴坐标值,X表示在微单元图像阵列平面上选择的初始发射点对应的x轴坐标值,w表示微透镜阵列平面到最小包围盒前表面的距离,i表示微单元图像阵列平面到微透镜阵列平面的距离;
第二步,按照下式,计算最小包围盒前表面上的停止位置对应的y轴坐标值:
其中,Py表示最小包围盒前表面上的停止位置对应的y轴坐标值,Cy表示追踪粒子所经过微透镜的中心对应的y轴坐标值,Y表示在微单元图像阵列平面上选择的初始发射点对应的y轴坐标值,w表示微透镜阵列平面到最小包围盒前表面的距离,i表示微单元图像阵列平面到微透镜阵列平面的距离。
参照附图2,对发射追踪粒子的过程进行详细描述。在图2中,1为最小包围盒,2为发射出的追踪粒子,3为微单元图像阵列,4为微透镜阵列。每一次并行的从每一幅微单元图像中发出一个追踪粒子,从微单元图像阵列中发出的所有追踪粒子首先停止于最小包围盒前表面,所有追踪粒子之间相互独立,没有任何关联和影响。
步骤6,移动追踪粒子。
将发出的所有追踪粒子,在同一个时刻移动一个步进矢量。
步进矢量按照如下步骤获得:
第一步,按照下式,计算步进矢量的第一选择矢量:
其中,u表示步进矢量的第一选择矢量,X、Y、Z分别表示追踪粒子与发射追踪粒子连线方向的单位矢量对应的x轴、y轴、z轴坐标值,s表示深度图像的像素边长;
第二步,按照下式,计算步进矢量的第二选择矢量:
其中,w表示步进矢量的第二选择矢量,X、Y、Z分别表示追踪粒子与发射追踪粒子连线方向的单位矢量对应的x轴、y轴、z轴坐标值,s表示深度图像的像素边长;
第三步,比较第一选择矢量和第二选择矢量的模值,从二者中选择模值较小的一个矢量作为所述的步进矢量。
在本发明的实施例中,追踪粒子不断的沿发射方向,向着着色小长方体前进,每次前进的步长在x轴方向与y轴方向的投影,均小于或等于着色小长方体的边长,从而避免相邻的两个停止位置的连线穿过多个着色小长方体,造成微单元图像中的像素点获得错误颜色值的情况。
步骤7,用背景颜色替换初始发射点的颜色。
用三维地形场景背景对应的颜色,替换所有发出追踪粒子在最小包围盒外部的初始发射点的颜色。
在本发明的具体实施例中,追踪粒子在每次前进一个步长后,均要判断是否已经离开最小包围盒。判断的方法是检查追踪粒子的位置与最小包围盒除前表面外的其他表面的位置关系,如果追踪粒子在最小包围盒的左表面左边,右表面右边,上表面上边,下表面下边,或者后表面后边,则判定追踪粒子已经离开包围盒,认为追踪粒子的初始发射点不存在对应的着色小长方体,可以用三维地形场景的背景色替换初始发射点的颜色。
步骤8,用表面颜色替换初始发射点的颜色。
用追踪粒子各自所在着色小长方体的表面颜色,分别替换在任意一个着色小长方体内部的追踪粒子所对应的初始发射点的颜色。
在本发明的具体实施例中,追踪粒子在每次前进一个步长后,均要判断是否在任意一个着色小长方体内,判断时只需要检查所在位置对应的深度图所记录的深度值与追踪粒子的z轴坐标值的关系,如果追踪粒子的z轴坐标值所表示的深度比深度图记录的深度要深,则认为追踪粒子已经进入了着色小长方体内部,因此,追踪粒子的初始发射点所对应的着色小长方体已经找到,可以用相应着色小长方体的表面颜色替换初始发射点的颜色。
步骤9,判断是否存在追踪粒子。
判断是否存在颜色未被替换的初始发射点发出的追踪粒子,若存在,则执行步骤(10),否则,执行步骤(11)。
步骤10,继续移动追踪粒子。
将所有颜色未被替换的初始发射点发出的追踪粒子,在同一时刻继续移动一个步进矢量,执行步骤(7)。
步进矢量按照以下步骤获得:
第一步,按照下式,计算步进矢量的第一选择矢量:
其中,u表示步进矢量的第一选择矢量,X、Y、Z分别表示追踪粒子与发射追踪粒子连线方向的单位矢量对应的x轴、y轴、z轴坐标值,s表示深度图像的像素边长;
第二步,按照下式,计算步进矢量的第二选择矢量:
其中,w表示步进矢量的第二选择矢量,X、Y、Z分别表示追踪粒子与发射追踪粒子连线方向的单位矢量对应的x轴、y轴、z轴坐标值,s表示深度图像的像素边长;
第三步,比较第一选择矢量和第二选择矢量的模值,从二者中选择模值较小的一个矢量作为所述的步进矢量。
步骤11,判断像素点编号值是否等于N。
判断初始发射点对应的像素点编号值是否与微单元图像像素的总数N相等,若相等,则执行步骤(12),否则,执行步骤(5)。
在本发明的具体实施例中,当发射的追踪粒子均到达其最终位置后,即可回到步骤(6)中发射下一批追踪粒子,直到微单元图像阵列中所有的像素点颜色均被替换为止。
步骤12,生成结果。
将微单元图像阵列作为生成结果。
下面结合仿真实验对本发明的效果做进一步的描述。
1.仿真条件:
在本发明的仿真实验中,利用一台能够实现GPU并行计算的计算机,对本发明提出的并行微单元图像生成方法进行仿真,仿真实验的条件如下:
CPU:Intel(R)Core(TM)i3-2120CPU3.30GHz;
内存:4.00GB;
显卡:NVIDIAGeForceGTX460v2;
并行计算平台:计算统一设备架构(CUDA)4.2;
仿真工具:Microsoftvisualstudio2010。
2.仿真结果分析:
在本发明的仿真实验中,所设置的拍摄参数如下:实际三维场景中包含一个球棍模型,拍摄球棍模型获得的基于正交投影的可见光图像分辨率为800×800像素,深度图像的分辨率为800×800像素,深度图像和可见光图像每个像素的边长为75微米;根据三维地形网格生成的最小包围盒长宽高均为6厘米,最小包围盒前表面距离微透镜阵列平面的距离为7厘米;三维地形场景中放置的微单元图像阵列由50×50个微单元图像组成,每一幅微单元图像的分辨率均为20×20像素,微单元图像中的每个像素边长为100微米。
利用上述仿真条件和拍摄参数,用本发明提出的方法进行了并行实现,生成一幅微单元图像阵列需要0.025秒。而利用现有技术基于光线追踪的串行方法,生成一幅微单元图像阵列则需要56秒。可见,本发明所提出的方法比现有技术方法执行速度提高了2240倍。之所以执行速度提高明显是由于本发明所提出的方法避免了像素之间的影响,能够充分的利用图形处理单元(GPU)的并行架构的优势,使得本方法能够快速并行的在图形处理单元内完成,从而快速的生成微单元图像阵列。
Claims (4)
1.基于粒子追踪的集成成像微单元图像并行生成方法,包括如下步骤:
(1)生成三维地形场景:
1a)利用一个可见光CCD相机,获得实际三维场景正交投影的可见光图像;利用一个深度相机,获得实际三维场景的深度图像;
1b)利用地形网格重建方法,将可见光图像和深度图像转化为三维地形场景;
1c)以三维地形场景的中心为原点,将三维地形场景向后的方向设为z轴正方向,三维地形场景向右的方向设为x轴正方向,三维地形场景向上的方向设为y轴正方向,建立坐标系;
1d)采用包围盒选择方法,在三维地形场景中选择一个最小包围盒;
(2)放置微透镜:
在三维地形场景中,选择一个与z轴垂直的微透镜阵列平面,在微透镜阵列平面上放置多个微透镜,各微透镜之间紧密排列;
(3)放置微单元图像阵列平面:
在三维地形场景中,放置一个与z轴垂直的微单元图像阵列平面,三维地形场景通过微透镜阵列在该平面生成微单元图像阵列,微单元图像阵列中每一幅微单元图像与每一个微透镜一一对应;
(4)获得像素点编号:
对微单元图像阵列中的每一幅微单元图像的像素点,依次从1到N进行编号,每个像素点获得一个对应的像素点编号,N表示微单元图像像素总数;
(5)发射追踪粒子:
5a)在1到N的范围内,依次选取每一个像素点编号,在微单元图像阵列中将与所选取像素点编号对应的所有像素点作为初始发射点;
5b)从每一个初始发射点发出一个追踪粒子,该追踪粒子穿过与其对应的微透镜中心,在最小包围盒前表面上的停止位置处停止;
(6)移动追踪粒子:
将发出的所有追踪粒子,在同一个时刻移动一个步进矢量;
所述的步进矢量是按照以下步骤获得的:
第一步,按照下式,计算步进矢量的第一选择矢量:
其中,u表示步进矢量的第一选择矢量,X、Y、Z分别表示追踪粒子与发射追踪粒子连线方向的单位矢量对应的x轴、y轴、z轴坐标值,s表示深度图像的像素边长;
第二步,按照下式,计算步进矢量的第二选择矢量:
其中,w表示步进矢量的第二选择矢量,X、Y、Z分别表示追踪粒子与发射追踪粒子连线方向的单位矢量对应的x轴、y轴、z轴坐标值,s表示深度图像的像素边长;
第三步,比较第一选择矢量和第二选择矢量的模值,从二者中选择模值较小的一个矢量作为所述的步进矢量;
(7)用背景颜色替换初始发射点的颜色:
用三维地形场景背景对应的颜色,替换所有发出追踪粒子在最小包围盒外部的初始发射点的颜色;
(8)用表面颜色替换初始发射点的颜色:
用追踪粒子各自所在着色小长方体的表面颜色,分别替换在任意一个着色小长方体内部的追踪粒子所对应的初始发射点的颜色;
(9)判断是否存在追踪粒子:
判断是否存在颜色未被替换的初始发射点发出的追踪粒子,若存在,则执行步骤(10),否则,执行步骤(11);
(10)继续移动追踪粒子:
将所有颜色未被替换的初始发射点发出的追踪粒子,在同一时刻继续移动一个步进矢量,执行步骤(7);
所述的步进矢量是按照以下步骤获得的:
第一步,按照下式,计算步进矢量的第一选择矢量:
其中,u表示步进矢量的第一选择矢量,X、Y、Z分别表示追踪粒子与发射追踪粒子连线方向的单位矢量对应的x轴、y轴、z轴坐标值,s表示深度图像的像素边长;
第二步,按照下式,计算步进矢量的第二选择矢量:
其中,w表示步进矢量的第二选择矢量,X、Y、Z分别表示追踪粒子与发射追踪粒子连线方向的单位矢量对应的x轴、y轴、z轴坐标值,s表示深度图像的像素边长;
第三步,比较第一选择矢量和第二选择矢量的模值,从二者中选择模值较小的一个矢量作为所述的步进矢量;
(11)判断像素点编号值是否等于N:
判断初始发射点对应的像素点编号值是否与微单元图像像素的总数N相等,若相等,则执行步骤(12),否则,执行步骤(5);
(12)生成结果:
将微单元图像阵列作为生成结果。
2.根据权利要求1所述的基于粒子追踪的集成成像微单元图像并行生成方法,其特征在于:步骤1b)中所述地形网格重建方法的步骤如下:
第一步,以实际三维场景的深度图像中每一个像素点的深度值作为小长方体的高,深度图像像素边长作为小长方体的长和宽,构建一个小长方体,以该像素点在可见光图像中对应点的像素值作为小长方体的表面颜色,生成一个着色小长方体;
第二步,将实际三维场景的深度图像中的所有像素点,依次生成多个着色小长方体;
第三步,将多个着色小长方体按照深度图像中点的相对位置排列,构成三维地形场景。
3.根据权利要求1所述的基于粒子追踪的集成成像微单元图像并行生成方法,其特征在于:步骤1d)中所述的包围盒选择方法如下:
第一步,选择一个与z轴垂直且与z轴相交于A点的表面,将该表面作为包围盒的前表面,其中A点的z坐标值为三维场景中所有物体z坐标值的最小值;
第二步,选择一个与z轴垂直且与z轴相交于B点的表面,将该表面作为包围盒的后表面,其中B点的z坐标值为三维场景中所有物体z坐标值的最大值;
第三步,选择一个与x轴垂直且与x轴相交于C点的表面,将该表面作为包围盒的左表面,其中C点的x坐标值为三维场景中所有物体x坐标值的最小值;
第四步,选择一个与x轴垂直且与x轴相交于D点的表面,将该表面作为包围盒的右表面,其中D点的x坐标值为三维场景中所有物体x坐标值的最大值;
第五步,选择一个与y轴垂直且与y轴相交于E点的表面,将该表面作为包围盒的上表面,其中E点的y坐标值为三维场景中所有物体y坐标值的最小值;
第六步,选择一个与y轴垂直且与y轴相交于F点的表面,将该表面作为包围盒的下表面,其中F点的y坐标值为三维场景中所有物体y坐标值的最大值。
4.根据权利要求1所述的基于粒子追踪的集成成像微单元图像并行生成方法,其特征在于:步骤(5)中所述的最小包围盒前表面上的停止位置是由x轴和y轴的坐标值确定,x轴和y轴的坐标值由以下步骤获得:
第一步,按照下式,计算最小包围盒前表面上的停止位置对应的x轴坐标值:
其中,Px表示最小包围盒前表面上的停止位置对应的x轴坐标值,Cx表示追踪粒子所经过微透镜的中心对应的x轴坐标值,X表示在微单元图像阵列平面上选择的初始发射点对应的x轴坐标值,w表示微透镜阵列平面到最小包围盒前表面的距离,i表示微单元图像阵列平面到微透镜阵列平面的距离;
第二步,按照下式,计算最小包围盒前表面上的停止位置对应的y轴坐标值:
其中,Py表示最小包围盒前表面上的停止位置对应的y轴坐标值,Cy表示追踪粒子所经过微透镜的中心对应的y轴坐标值,Y表示在微单元图像阵列平面上选择的初始发射点对应的y轴坐标值,w表示微透镜阵列平面到最小包围盒前表面的距离,i表示微单元图像阵列平面到微透镜阵列平面的距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310392012.9A CN103456036B (zh) | 2013-08-31 | 2013-08-31 | 基于粒子追踪的集成成像微单元图像并行生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310392012.9A CN103456036B (zh) | 2013-08-31 | 2013-08-31 | 基于粒子追踪的集成成像微单元图像并行生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103456036A CN103456036A (zh) | 2013-12-18 |
CN103456036B true CN103456036B (zh) | 2016-01-20 |
Family
ID=49738362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310392012.9A Expired - Fee Related CN103456036B (zh) | 2013-08-31 | 2013-08-31 | 基于粒子追踪的集成成像微单元图像并行生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103456036B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106250584B (zh) * | 2016-07-18 | 2019-05-10 | 电子科技大学 | 在粒子模拟算法并行中去除数据竞争的体分配并行方法 |
CN108427605B (zh) * | 2018-02-09 | 2021-07-30 | 中国地质大学(北京) | 基于质点追踪算法实现流线模拟的加速方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102523462A (zh) * | 2011-12-06 | 2012-06-27 | 南开大学 | 基于相机阵列的元素图像阵列快速获取方法和装置 |
CN102981260A (zh) * | 2011-09-02 | 2013-03-20 | 莱卡微系统Cms有限责任公司 | 用于点状物体的三维定位的显微镜设备和显微镜方法 |
-
2013
- 2013-08-31 CN CN201310392012.9A patent/CN103456036B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102981260A (zh) * | 2011-09-02 | 2013-03-20 | 莱卡微系统Cms有限责任公司 | 用于点状物体的三维定位的显微镜设备和显微镜方法 |
CN102523462A (zh) * | 2011-12-06 | 2012-06-27 | 南开大学 | 基于相机阵列的元素图像阵列快速获取方法和装置 |
Non-Patent Citations (2)
Title |
---|
Simplified Intergral Imaging Pickup Method for Real Objects Using a Depth Camera;Gang Li et al.;《Journal of the Optical Soceity of Korea》;20121231;第16卷(第4期);381-385 * |
基于Delaunay网络技术的松弛迭代粒子追踪算法;贾攀等;《空气动力学学报》;20121231;第30卷(第6期);792-797 * |
Also Published As
Publication number | Publication date |
---|---|
CN103456036A (zh) | 2013-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106289106B (zh) | 一种线阵相机和面阵相机相结合的立体视觉传感器及标定方法 | |
US10560687B2 (en) | LED-based integral imaging display system as well as its control method and device | |
CN105006021B (zh) | 一种适用于快速点云三维重建的颜色映射方法及装置 | |
CN108053469A (zh) | 多视角相机下的复杂动态场景人体三维重建方法及装置 | |
CN104331918B (zh) | 基于深度图实时绘制室外地表遮挡剔除以及加速方法 | |
CN109003325A (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
CN107113416A (zh) | 多视点高速运动采集的方法及系统 | |
CN100417231C (zh) | 立体视觉半实物仿真系统及方法 | |
CN107945269A (zh) | 基于多视点视频的复杂动态人体对象三维重建方法及系统 | |
CN107976811A (zh) | 一种基于虚拟现实混合的仿真实验室及其仿真方法 | |
CN104504671A (zh) | 一种用于立体显示的虚实融合图像生成方法 | |
CN107563088A (zh) | 一种基于光线跟踪算法的光场显示设备仿真方法 | |
CN103400409A (zh) | 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法 | |
CN105184857A (zh) | 基于点结构光测距的单目视觉重建中尺度因子确定方法 | |
CN102129708A (zh) | 增强现实环境中快速多层次虚实遮挡处理方法 | |
CN105045389A (zh) | 一种互动式沙盘系统的演示方法 | |
CN102930593B (zh) | 一种双目系统中基于gpu的实时绘制方法 | |
CN107452016A (zh) | 用于处理图像数据的方法和设备和用于车辆的驾驶员辅助系统 | |
CN102938844A (zh) | 利用立体成像生成自由视点视频 | |
KR20090113737A (ko) | 유체 렌더링 방법 | |
CN104155765A (zh) | 在拼接式集成成像显示器中校正三维图像的方法和设备 | |
CN106027962A (zh) | 视频监控的覆盖率计算方法及装置、布点方法及系统 | |
CN104463956B (zh) | 一种月表虚拟场景构建方法及装置 | |
CN106203429A (zh) | 基于双目立体视觉复杂背景下的遮挡目标检测方法 | |
CN103077552A (zh) | 一种基于多视点视频的三维展示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160120 Termination date: 20210831 |
|
CF01 | Termination of patent right due to non-payment of annual fee |