CN102509336B - 一种gpu加速的实时立体渲染方法 - Google Patents
一种gpu加速的实时立体渲染方法 Download PDFInfo
- Publication number
- CN102509336B CN102509336B CN201110325099.9A CN201110325099A CN102509336B CN 102509336 B CN102509336 B CN 102509336B CN 201110325099 A CN201110325099 A CN 201110325099A CN 102509336 B CN102509336 B CN 102509336B
- Authority
- CN
- China
- Prior art keywords
- playing
- fragment
- primitive
- scene
- rendering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Generation (AREA)
Abstract
本发明提供了一种GPU加速的实时立体渲染方法,包括:分别建立渲染场景的左模型及渲染场景的右模型;计算渲染场景的左模型视图矩阵、渲染场景的右模型视图矩阵及投影矩阵;执行渲染场景的顶点处理操作;在几何着色器中接收顶点着色器传送的基元;使用渲染器对多个渲染目标进行渲染;将每个渲染目标的渲染结果存入两个独立的缓存中;针对在两个独立缓存中分别存储的每个渲染目标的渲染结果,采用立体恢复方法,进行相应的显示立体像对;该方法针对复杂的渲染场景,可以实现实时的立体渲染,大大地缩短了针对复杂场景进行立体渲染所需要的渲染时间。
Description
技术领域
本发明涉及计算机图形学领域,特别是涉及一种GPU加速的实时立体渲染方法。
背景技术
立体视觉是三维场景渲染的一个重要部分,目前对于立体像对压缩,立体知觉的舒适感和立体显示设备增强的研究比较多,对立体渲染加速的研究则较少。立体视觉技术,大大增加了沉浸感,涉及到渲染场景两次,即对每只眼睛渲染一次,因此,渲染的时间增加了一倍。
传统的立体渲染方法针对复杂的场景,进行渲染需要的时间很长,这是因为针对给定左视点的场景,需要重新计算右视点的顶点属性,才能得到相对应与左视点的右视点的场景。渲染复杂场景所需要的渲染时间长,这是现有立体渲染方法的缺陷。
因而,目前需要本领域技术人员迫切解决的一个技术问题就是:如何找到一种新型的立体渲染方法,该方法针对复杂的渲染场景,可以实现实时的立体渲染,大大地缩短了针对复杂场景进行立体渲染所需要的渲染时间。
发明内容
本发明所要解决的一个技术问题是提供一种GPU加速的实时立体渲染方法,该方法针对复杂的渲染场景,可以实现实时的立体渲染,大大地缩短了针对复杂场景进行立体渲染所需要的渲染时间。
为了解决上述问题,本发明公开了一种GPU加速的实时立体渲染方法,包括:
分别建立渲染场景的左模型及渲染场景的右模型,获得渲染场景的左模型及渲染场景的右模型;
计算渲染场景的左模型视图矩阵、渲染场景的右模型视图矩阵及投影矩阵,获得渲染场景的左模型视图矩阵、渲染场景的右模型视图矩阵及投影矩阵;
执行渲染场景的顶点处理操作,获得渲染场景的顶点处理结果;
在几何着色器中接收顶点着色器传送的基元,获得相应的基元的变换结果;
使用渲染器对多个渲染目标进行渲染,获得相应的每个渲染目标的渲染结果;
将每个渲染目标的渲染结果存入两个独立的缓存中,获得在两个独立缓存中分别存储的每个渲染目标的渲染结果;
针对在两个独立缓存中分别存储的每个渲染目标的渲染结果,采用立体恢复方法,进行相应的显示立体像对,获得每个渲染目标的渲染结果的立体像对。
优选的,所述在几何着色器中接收顶点着色器传送的基元,获得相应的基元的变换结果的步骤,包括:
在几何着色器中接收顶点着色器传送的基元,获得初始传送基元;
针对初始传送基元进行克隆,获得初始传送基元的克隆信息;
针对初始传送基元的左、右视点执行相应模型视图变换及投影变换,获得初始传送基元的左、右视点执行相应模型视图变换的变换结果及投影变换的变换结果;
执行完第一轮初始传送基元的变换过程,获得第一轮初始传送基元的变换结果;
发送新的基元到片段着色器中,执行第二轮新的基元的变换过程,获得相应的基元的变换结果。
优选的,所述针对初始传送基元的左、右视点执行相应模型视图变换及投影变换,获得初始传送基元的左、右视点执行相应模型视图变换的变换结果及投影变换的变换结果的步骤,包括:
针对初始传送基元的左、右视点执行相应模型视图变换,获得左、右视点执行相应模型视图变换的变换结果;
针对初始传送基元的左、右视点执行相应模型投影变换,获得左、右视点执行相应模型投影变换的变换结果。
优选的,所述使用渲染器对多个渲染目标进行渲染,获得相应的每个渲染目标的渲染结果的步骤,包括:
在使用渲染器对多个渲染目标进行渲染的过程中,依据几何着色器中的设置的变量整理进入的渲染片段,获得渲染片段的渲染结果;
其中,若所述渲染片段是左视点,则将该渲染片段的标志设置为零;若所述渲染片段不是左视点,则将该渲染片段的标志设置为非零。
优选的,所述使用渲染器对多个渲染目标进行渲染,获得相应的每个渲染目标的渲染结果的步骤,包括:
所述多个渲染目标中的每个片段必须在两个不同的缓存区分别进行绘制,获得多个渲染目标中的每个片段在两个不同的缓存区的绘制结果。
优选的,所述使用渲染器对多个渲染目标进行渲染,获得相应的每个渲染目标的渲染结果的步骤,包括:
若多个渲染目标中的每个片段的缓冲区标志位指示不正确时,则多个渲染目标中的每个片段会被消除。
优选的,所述若多个渲染目标中的每个片段的缓冲区标志位指示不正确时,则多个渲染目标中的每个片段会被消除的步骤,包括:
设置消除不需要的片段的颜色为黑色及设置消除不需要的片段的透明度值为零,则多个渲染目标中的每个片段会被消除。
优选的,所述针对在两个独立缓存中分别存储的每个渲染目标的渲染结果,采用立体恢复方法,进行相应的显示立体像对,获得每个渲染目标的渲染结果的立体像对的步骤,包括:
在几何着色器中,传送左视点基元转换后的顶点坐标到片段着色器中;
如果片段属于右视点,则执行读取几何着色器中的坐标值,进行视口裁剪变换的操作过程;
如果坐标存在于深度图中,则执行比较深度图值和片段深度值及根据获得的深度值测试结果作出接受或丢弃片段相应操作的连续操作过程;
如果坐标不存在于深度图中,则执行接收送入的片段的操作过程;
执行完上述操作过程,获得每个渲染目标的渲染结果的立体像对。
与现有技术相比,本发明具有以下优点:
1、针对传统的立体渲染方法,该方法的渲染时间大大缩短,实现了对复杂场景的实时立体渲染。
2、本发明实现了以高的细节层次渲染场景立体像对,而由此导致的帧率下降可以忽略不计。
总之,本发明提供了一种GPU加速的实时立体渲染方法,该方法针对复杂的渲染场景,可以实现实时的立体渲染;大大地缩短了针对复杂场景进行立体渲染所需要的渲染时间。
附图说明
图1是本发明一种GPU加速的实时立体渲染方法实施例的步骤流程图;
图2是本发明一种GPU加速的实时立体渲染方法中的算法流程示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明的核心思想之一是提供了一种GPU(Graphic Processing Unit中文翻译为“图形处理器”,GPU是相对于CPU的一个概念,由于在现代的计算机中,特别是家用系统,游戏的发烧友,图形的处理变得越来越重要,需要一个专门的图形的核心处理器)加速的实时立体渲染方法,包括:分别建立渲染场景的左模型及渲染场景的右模型;计算渲染场景的左模型视图矩阵、渲染场景的右模型视图矩阵及投影矩阵;执行渲染场景的顶点处理操作;在几何着色器中接收顶点着色器传送的基元;使用渲染器对多个渲染目标进行渲染;将每个渲染目标的渲染结果存入两个独立的缓存中;针对在两个独立缓存中分别存储的每个渲染目标的渲染结果,采用立体恢复方法,进行相应的显示立体像对;该方法针对复杂的渲染场景,可以实现实时的立体渲染,大大地缩短了针对复杂场景进行立体渲染所需要的渲染时间。
参照图1,示出了本发明一种GPU加速的实时立体渲染方法实施例的步骤流程图,具体可以包括:
步骤101、分别建立渲染场景的左模型及渲染场景的右模型,获得渲染场景的左模型及渲染场景的右模型。
步骤102、计算渲染场景的左模型视图矩阵、渲染场景的右模型视图矩阵及投影矩阵,获得渲染场景的左模型视图矩阵、渲染场景的右模型视图矩阵及投影矩阵。
步骤103、执行渲染场景的顶点处理操作,获得渲染场景的顶点处理结果。
步骤104、在几何着色器中接收顶点着色器传送的基元,获得相应的基元的变换结果。
为了使本领域的技术人员更好地理解本发明,在本发明的一个优选实施例中,所述步骤104,具体可以包括:
子步骤A1、在几何着色器中接收顶点着色器传送的基元,获得初始传送基元。
子步骤A2、针对初始传送基元进行克隆,获得初始传送基元的克隆信息。
在针对初始传送基元进行克隆,获得初始传送基元的克隆信息的过程中,关键的阶段是几何着色器执行的复制阶段。几何着色器从左视点到右视点克隆了指定基元。当初始顶点在左缓存投影的同时,复制的顶点在右缓存进行转换和投影。
在此过程中,一致变量matrix对应于右图像变换矩阵,该变换矩阵是由右视点的模型视图矩阵和投影矩阵乘积产生。模型视图矩阵和投影矩阵的乘积产生的左图像变换矩阵作为主程序里的一致变量可被直接读入。变量flag指示创建的顶点是属于左视图还是右视图。因为每一个基元重复执行相同的指令,由当前模型视图矩阵乘以每个基元视点分离变换矢量形成的投影矩阵,将消耗额外计算时间。
子步骤A3、针对初始传送基元的左、右视点执行相应模型视图变换及投影变换,获得初始传送基元的左、右视点执行相应模型视图变换的变换结果及投影变换的变换结果。
其中,所述子步骤A3具体可以包括:
子步骤B1、针对初始传送基元的左、右视点执行相应模型视图变换,获得左、右视点执行相应模型视图变换的变换结果。
子步骤B2、针对初始传送基元的左、右视点执行相应模型投影变换,获得左、右视点执行相应模型投影变换的变换结果。
子步骤A4、执行完第一轮初始传送基元的变换过程,获得第一轮初始传送基元的变换结果。
子步骤A5、发送新的基元到片段着色器中,执行第二轮新的基元的变换过程,获得相应的基元的变换结果。
步骤105、使用渲染器对多个渲染目标进行渲染,获得相应的每个渲染目标的渲染结果。
为了使本领域的技术人员更好地理解本发明,在本发明的另一个优选实施例中,所述步骤105,具体可以包括:
子步骤C1、在使用渲染器对多个渲染目标进行渲染的过程中,依据几何着色器中的设置的变量整理进入的渲染片段,获得渲染片段的渲染结果;
其中,若所述渲染片段是左视点,则将该渲染片段的标志设置为零;若所述渲染片段不是左视点,则将该渲染片段的标志设置为非零。
为了使本领域的技术人员更好地理解本发明,在本发明的另一个优选实施例中,所述步骤105,具体可以包括:
子步骤D1、所述多个渲染目标中的每个片段必须在两个不同的缓存区分别进行绘制,获得多个渲染目标中的每个片段在两个不同的缓存区的绘制结果。
为了使本领域的技术人员更好地理解本发明,在本发明的另一个优选实施例中,所述步骤105,具体可以包括:
子步骤E1、若多个渲染目标中的每个片段的缓冲区标志位指示不正确时,则多个渲染目标中的每个片段会被消除。
其中,所述子步骤E1具体可以包括:
子步骤F1、设置消除不需要的片段的颜色为黑色及设置消除不需要的片段的透明度值为零,则多个渲染目标中的每个片段会被消除。
在渲染过程中的关键阶段是片段着色阶段。在片段着色阶段,要依据几何着色器中设置的变量flag整理进入的片段。如果片段属于左视点,此标志设置为零,否则就设置为非零。
执行对应于左、右图像片段着色操作阶段的操作过程,本发明同时使用多渲染目标技术和帧缓存对象技术。多渲染目标渲染场景到多个缓冲区,帧缓存对象可以在直接渲染结果到一张纹理。
然而使用多渲染目标和帧缓存对象涉及一些制约因素:
帧缓存对象和多渲染目标渲染测试时,例如深度测试和透明度alpha测试,尽管有多个颜色缓存目标,共享通用缓存。
多渲染目标涉及到每个片段都在两个缓存里渲染。然而,结果却是不确定的。
左右视点渲染时共用深度缓存,这是第一个约束的结果,当片段不符合时意味着一些片段可能被抛弃。本发明通过禁用深度测试来解决这个问题。本发明使用画家算法作为深度测试的替代方法来解决可见度问题。第二个评语说明几何着色器创建两个基元是独立的。使用多渲染目标涉及到每个片段必须在两个缓冲区绘制。因此片段不属于正确的缓冲区标志位指示就会被丢弃。消除不需要的片段可以由设置其颜色为黑色,其透明度alpha值为零实现。在主程序中应该启用混合功能,禁用深度测试,这样片段就无法显示。
用于混合的函数:
红色=Rsrc×Asrc+Rdest×(1-Asrc)
绿色=Gsrc×Asrc+Gdest×(1-Asrc)
蓝色=Bsrc×Asrc+Bdest×(1-Asrc)
Alpha=Asrc×Asrc+Adest×(1-Asrc)
步骤106、将每个渲染目标的渲染结果存入两个独立的缓存中,获得在两个独立缓存中分别存储的每个渲染目标的渲染结果。
步骤107、针对在两个独立缓存中分别存储的每个渲染目标的渲染结果,采用立体恢复方法,进行相应的显示立体像对,获得每个渲染目标的渲染结果的立体像对。
为了使本领域的技术人员更好地理解本发明,在本发明的另一个优选实施例中,所述步骤107,具体可以包括:
子步骤G1、在几何着色器中,传送左视点基元转换后的顶点坐标到片段着色器中。
子步骤G2、如果片段属于右视点,则执行读取几何着色器中的坐标值,进行视口裁剪变换的操作过程。
子步骤G3、如果坐标存在于深度图中,则执行比较深度图值和片段深度值及根据获得的深度值测试结果作出接受或丢弃片段相应操作的连续操作过程。
子步骤G4、如果坐标不存在于深度图中,则执行接收送入的片段的操作过程。
子步骤G5、执行完上述操作过程,获得每个渲染目标的渲染结果的立体像对。
在显示立体像对的过程中,对应于左视点和右视点,渲染过程中产生两个相应的独立的纹理。立体装置使用过程中,用户应最终能修改立体像对。例如,使用立体眼镜混合红/青色滤波图像,如下面的伪代码所述:
禁止深度测试;
利用加函数启用混合;
设置颜色掩码为红色;
渲染左边纹理;
设置颜色掩码为青色;
渲染右边纹理;
偏振或主动立体系统则不需要这个过程,图像通过合适视频输出。
为了证明本发明是一种可以大大地提高渲染立体场景时间的渲染方法,本发明做了如下的试验来验证,试验结果具体如表1所述:
表1效率比较表
从表1中可以看出:
1)表1显示在各种情况下本发明都非常有效,尤其是需要对大量顶点进行处理操作时。
2)表1表明,当场景中包含有相当数量的顶点时,本发明在着色光照方面得到95%到100%的涨幅。
虽然本发明在复杂几何体时实时渲染立体像对是有效的,但是还是存在一些不足。针对多渲染目标的每个渲染缓存要等待单独的深度缓存,本发明采用了画家算法来对本发明做进一步的改进,使其适合更多的渲染场景。
下面详细介绍画家算法,具体如下所述:
根据场景中摄像机的位置,以从后往前的顺序整理和绘制所有物体。然而,凹对象将会出现一些深度伪差。这些凹对象用深度纹理渲染左视点场景可以正确的显示出来。在片段着色阶段,从深度纹理中读入的深度值决定是否丢弃这个片段。正确的深度值计算是基于这样一个事实,左右摄像机共享同一图像平面。因此两视点的深度值应保持不变。
基于深度图方法如下所述:
●在几何着色器中,传送左视点基元转换后的顶点坐标到片段着色器
●如果片段属于右视点
○读取几何着色器中的坐标值
○进行视口裁剪变换
○如果坐标存在于深度图中
●比较深度图值和片段深度Z值
●根据这次深度Z测试,接受或丢弃片段
○否则接收送入的片段
然而,右视点在一些特定配置的从深度图中读取的深度值并不像预期那样与深度Z值保持一致,这也会导致右视图渲染显示中出现伪差。
表2示出了使用深度图的效率比较情况,具体如下所述:
表2使用深度图的效率比较
从表2中可以看出:尽管深度图非常耗时,本发明仍快于或最少是与传统渲染方法速度相同,比传统渲染方法速度快20%-30%。然而,若顶点着色器计算能力有大的提高,本发明将会变的非常有效。
参照图2,示出了本发明一种GPU加速的实时立体渲染方法中的算法流程示意图。
从图2中可以看出具体的算法步骤如下:
1)计算左、右模型视图矩阵和投影矩阵;
2)从左视点渲染场景;
3)执行顶点处理;
4)在几何着色器中接收顶点着色器传送的基元;
a.克隆基元;
b.为左、右视点执行相应模型视图变换和投影变换;
c.发送新的基元到片段着色器。
5)使用多渲染目标渲染,结果存入两个独立的缓存;
6)根据立体恢复方法显示立体像对。
为了使普通技术人员更好地理解本发明,下面将计算过程中涉及的关键算法的代码公开,具体如下所述:
总之,本发明提供了一种GPU加速的实时立体渲染方法,该方法针对复杂的渲染场景,可以实现实时的立体渲染,大大地缩短了针对复杂场景进行立体渲染所需要的渲染时间。
以上对本发明所提供的一种GPU加速的实时立体渲染方法进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (3)
1.一种GPU加速的实时立体渲染方法,其特征在于,包括:
分别建立渲染场景的左模型及渲染场景的右模型,获得渲染场景的左模型及渲染场景的右模型;
计算渲染场景的左模型视图矩阵、渲染场景的右模型视图矩阵及投影矩阵,获得渲染场景的左模型视图矩阵、渲染场景的右模型视图矩阵及投影矩阵;
执行渲染场景的顶点处理操作,获得渲染场景的顶点处理结果;
在几何着色器中接收顶点着色器传送的基元,获得相应的基元的变换结果;包括:
在几何着色器中接收顶点着色器传送的基元,获得初始传送基元;
针对初始传送基元进行克隆,获得初始传送基元的克隆信息;
针对初始传送基元的左、右视点执行相应模型视图变换及投影变换,获得初始传送基元的左、右视点执行相应模型视图变换的变换结果及投影变换的变换结果;
执行完第一轮初始传送基元的变换过程,获得第一轮初始传送基元的变换结果;
发送新的基元到片段着色器中,执行第二轮新的基元的变换过程,获得相应的基元的变换结果;使用渲染器对多个渲染目标进行渲染,获得相应的每个渲染目标的渲染结果;包括:
在使用渲染器对多个渲染目标进行渲染的过程中,依据几何着色器中的设置的变量整理进入的渲染片段,获得渲染片段的渲染结果;
其中,若所述渲染片段是左视点,则将该渲染片段的标志设置为零;若所述渲染片段不是左视点,则将该渲染片段的标志设置为非零;
所述多个渲染目标中的每个片段必须在两个不同的缓存区分别进行绘制,获得多个渲染目标中的每个片段在两个不同的缓存区的绘制结果;
若多个渲染目标中的每个片段的缓冲区标志位指示不正确时,则多个渲染目标中的每个片段会被消除;
将每个渲染目标的渲染结果存入两个独立的缓存中,获得在两个独立缓存中分别存储的每个渲染目标的渲染结果;
针对在两个独立缓存中分别存储的每个渲染目标的渲染结果,采用立体恢复方法,进行相应的显示立体像对,获得每个渲染目标的渲染结果的立体像对;包括:
在几何着色器中,传送左视点基元转换后的顶点坐标到片段着色器中;
如果片段属于右视点,则执行读取几何着色器中的坐标值,进行视口裁剪变换的操作过程;
如果坐标存在于深度图中,则执行比较深度图值和片段深度值及根据获得的深度值测试结果作出接受或丢弃片段相应操作的连续操作过程;
如果坐标不存在于深度图中,则执行接收送入的片段的操作过程;
执行完上述操作过程,获得每个渲染目标的渲染结果的立体像对。
2.根据权利要求1所述的方法,其特征在于,所述针对初始传送基元的左、右视点执行相应模型视图变换及投影变换,获得初始传送基元的左、右视点执行相应模型视图变换的变换结果及投影变换的变换结果的步骤,包括:
针对初始传送基元的左、右视点执行相应模型视图变换,获得左、右视点执行相应模型视图变换的变换结果;
针对初始传送基元的左、右视点执行相应模型投影变换,获得左、右视点执行相应模型投影变换的变换结果。
3.根据权利要求1所述的方法,其特征在于,所述若多个渲染目标中的每个片段的缓冲区标志位指示不正确时,则多个渲染目标中的每个片段会被消除的步骤,包括:
设置消除不需要的片段的颜色为黑色及设置消除不需要的片段的透明度值为零,则多个渲染目标中的每个片段会被消除。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110325099.9A CN102509336B (zh) | 2011-10-24 | 2011-10-24 | 一种gpu加速的实时立体渲染方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110325099.9A CN102509336B (zh) | 2011-10-24 | 2011-10-24 | 一种gpu加速的实时立体渲染方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102509336A CN102509336A (zh) | 2012-06-20 |
CN102509336B true CN102509336B (zh) | 2014-06-18 |
Family
ID=46221413
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110325099.9A Active CN102509336B (zh) | 2011-10-24 | 2011-10-24 | 一种gpu加速的实时立体渲染方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102509336B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103108204A (zh) * | 2012-12-06 | 2013-05-15 | 福建天晴数码有限公司 | 一种基于Win7或Win Vista的3D显示方法 |
CN103024414A (zh) * | 2012-12-06 | 2013-04-03 | 福建天晴数码有限公司 | 一种基于WinXP系统的3D显示方法 |
CN105321196A (zh) * | 2014-07-21 | 2016-02-10 | 上海羽舟网络科技有限公司 | 一种3d图像的处理方法及系统 |
US9824458B2 (en) * | 2015-09-23 | 2017-11-21 | Qualcomm Incorporated | Dynamically switching between late depth testing and conservative depth testing |
GB2563927B (en) * | 2017-06-30 | 2021-01-06 | Imagination Tech Ltd | Multi-viewport transformation module for use in 3D rendering system |
CN114972607B (zh) * | 2022-07-29 | 2022-10-21 | 烟台芯瞳半导体科技有限公司 | 加速图像显示的数据传输方法、装置及介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101635061A (zh) * | 2009-09-08 | 2010-01-27 | 南京师范大学 | 基于人眼立体视觉机制的自适应立体渲染方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1542167A1 (en) * | 2003-12-09 | 2005-06-15 | Koninklijke Philips Electronics N.V. | Computer graphics processor and method for rendering 3D scenes on a 3D image display screen |
-
2011
- 2011-10-24 CN CN201110325099.9A patent/CN102509336B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101635061A (zh) * | 2009-09-08 | 2010-01-27 | 南京师范大学 | 基于人眼立体视觉机制的自适应立体渲染方法 |
Non-Patent Citations (2)
Title |
---|
基于GPU 的虚拟植物生长的双尺度自动机模型实现方法;董莹莹等;《农业工程学报》;20110531;第27卷(第5期);207-212 * |
董莹莹等.基于GPU 的虚拟植物生长的双尺度自动机模型实现方法.《农业工程学报》.2011,第27卷(第5期),207-212. |
Also Published As
Publication number | Publication date |
---|---|
CN102509336A (zh) | 2012-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102509336B (zh) | 一种gpu加速的实时立体渲染方法 | |
US7463261B1 (en) | Three-dimensional image compositing on a GPU utilizing multiple transformations | |
TWI479451B (zh) | 邊緣處理技術 | |
CN110930489A (zh) | 用于渲染立体视觉全景图像的实时系统和方法 | |
JP2008077627A (ja) | 3次元画像のレンダリングにおける早期zテスト方法およびシステム | |
US11483543B2 (en) | Hybrid stereo rendering for depth extension in dynamic light field displays | |
US10229524B2 (en) | Apparatus, method and non-transitory computer-readable medium for image processing based on transparency information of a previous frame | |
WO2014186625A1 (en) | System, method, and computer program product to produce images for a near-eye light field display | |
WO2012125545A1 (en) | Stereoscopic conversion for shader based graphics content | |
CN107392836B (zh) | 使用图形处理管线实现的立体多投影 | |
GB2546720B (en) | Method of and apparatus for graphics processing | |
CN102819855B (zh) | 二维图像的生成方法及装置 | |
US12100106B2 (en) | Stereoscopic rendering of virtual 3D objects | |
CN108833877A (zh) | 图像处理方法及装置、计算机装置及可读存储介质 | |
WO2016191095A1 (en) | Stereoscopic view processing | |
US20230147244A1 (en) | Methods and apparatus for occlusion handling techniques | |
US11908079B2 (en) | Variable rate tessellation | |
TW202322043A (zh) | 小網格著色圖譜 | |
Wang et al. | Interactive Exploration of 4D Geometry with Volumetric Halos. | |
TW202137141A (zh) | 用於邊緣壓縮抗混疊的方法和裝置 | |
US11677927B2 (en) | Stereoscopic graphics processing | |
US20240212257A1 (en) | Workload packing in graphics texture pipeline | |
EP3405929A1 (en) | Bi-directional morphing of two-dimensional screen-space projections | |
TW202240528A (zh) | 用於幾何處理的可縮放圖元速率結構 | |
CN105635707A (zh) | 一种图像生成方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C53 | Correction of patent for invention or patent application | ||
CB03 | Change of inventor or designer information |
Inventor after: Li Wei Inventor before: Ping Hongyan |
|
COR | Change of bibliographic data |
Free format text: CORRECT: INVENTOR; FROM: PING HONGYAN TO: LI WEI |
|
C56 | Change in the name or address of the patentee | ||
CP01 | Change in the name or title of a patent holder |
Address after: 834000 Karamay Road, the Xinjiang Uygur Autonomous Region, No. 22 Patentee after: Red software Limited by Share Ltd Address before: 834000 Karamay Road, the Xinjiang Uygur Autonomous Region, No. 22 Patentee before: Karamay Hongyou Software Co., Ltd. |