CN108573524B - 基于渲染管线的交互式实时自由立体显示方法 - Google Patents
基于渲染管线的交互式实时自由立体显示方法 Download PDFInfo
- Publication number
- CN108573524B CN108573524B CN201810330487.8A CN201810330487A CN108573524B CN 108573524 B CN108573524 B CN 108573524B CN 201810330487 A CN201810330487 A CN 201810330487A CN 108573524 B CN108573524 B CN 108573524B
- Authority
- CN
- China
- Prior art keywords
- texture
- rendering
- scene
- pixel
- rendering pipeline
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/55—Radiosity
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种基于渲染管线的交互式实时自由立体显示方法,读入需要渲染的模型的顶点数据,利用顶点数据生成网格模型并得到简化网格模型,传入OpenGL渲染流水线;生成单视点渲染场景图;设置渲染窗口分辨率、目标表面材质、光源类型和位置,利用OpenInventor开源库,分别针对每个不同视点的场景,实施场景渲染;对不同视点场景纹理缓冲进行融合的像素融合算法,得到用于输出的融合图像;利用OpenGL可编程渲染管线特性,使用GLSLshader语言,在片元着色器中完成像素选取与融合操作,最后输出融合后的结果;实现用户交互接口。该方法通过多视角融合实现三维数据的立体显示;利用多纹理映射技术完成每视点处场景的渲染,满足使用者对观察对象进行实时交互式观察的需求。
Description
技术领域
本发明涉及一种基于渲染管线的交互式实时自由立体显示方法。
背景技术
相比于传统的二维平面显示,立体显示能够提供给观看者更接近于真实世 界的视觉感受,而自由立体显示技术利用了人眼的视差原理,不通过任何工具 就能让左右眼睛从视屏幕上看到两幅具有视差的,有所区别的画面,将它们反 射到大脑,人就会产生立体感。立体显示技术摆脱了助视设备的束缚,成为了 当前立体显示领域的研究热点。随着立体显示技术的不断发展,已经有多种技 术可用于实现立体显示。
基于柱状透镜的自由立体显示技术需要从大量视角对同一场景进行绘制, 对于渲染速度以及大数据量分析与处理速度有很高的要求。目前世面上的自由 立体显示系统往往无法做到根据用户的交互指令,进行实时刷新,采用离线制 作好的视频素材;也就是预先处理每帧图像,将选取像素并融合的多帧图像最 终合成视频,最终在自由立体显示设备上播放。这样的方案存在操作繁琐,播 放内容不能实时更改等局限。
发明内容
本发明的目的是提供一种基于渲染管线的交互式实时自由立体显示方法, 通过将传入的数据进行绘制成像,通过倾斜式柱状透镜自由立体显示设备实现 裸眼3D显示效果,基于OpenGL可编程渲染管线开发,实现了实时交互式自 由立体显示,根据用户的交互指令对目标数据进行平移、旋转、缩放等操作, 并可以做到实时刷新绘制,解决现有技术中存在的操作繁琐,播放内容不能实 时更改等局限的问题。
本发明的技术解决方案是:
一种基于渲染管线的交互式实时自由立体显示方法,包括以下步骤,
S1、读入需要渲染的模型的顶点数据,利用顶点数据生成网格模型,并利 用拉普拉斯平滑算法进行网格简化,得到简化网格模型,传入OpenGL渲染流 水线;
S2、根据使用场景设置视点个数、虚拟摄像机位,具体为,设置融合图像 的视点个数为N、视点间隔角度delta,调用OpenGL API gluLookAt函数和gluPerspective函数,在以原点为中心点,半径为R的弧上根据视点个数N每相 隔角度delta摆放N个虚拟摄像机,且使虚拟摄像机阵列以xoz面对称,其中每 个虚拟摄像机的光轴为该位置到原点确定的方向向量,虚拟摄像机的法线方向 为坐标轴z的正方向,针对每一个虚拟摄像机,使用OpenGL固定管线渲染步 骤S1所述简化网格模型,生成单视点渲染场景图。
S3、设置渲染窗口分辨率、目标表面材质、光源类型和位置,利用 OpenInventor开源库,分别针对每个不同视点的场景,实施场景渲染,具体为, 调用OpenGL API,使用glGenBuffers、glBindBuffer和glBufferData三个函数在 显存中开辟数据空间PixBufferi即纹理数组,记屏幕横向像素个数为Xw,纵向 像素个数为Yw,则其中每块区域所占大小为Xw×Yw×3比特,,利用Render To Texture技术,将之前使用固定管线生成的单角度渲染场景图的帧缓冲区中的颜 色缓冲区附加到对应的纹理缓冲区对象,调用glFramebufferTexture2D函数将渲 染结果以纹理形式保存到显存中;
S4、将步骤S3所述不同视点场景纹理缓冲进行融合的像素融合算法具体描 述如下:遍历屏幕区域所有像素,根据映射公式从 不同视点处的图像中选取像素通道,其中,i/3的商表示像素横坐标,其范围为 0至Xw-1;j表示像素的纵坐标,其范围为0至Yw-1;i/3的余数为0、1、2 时分别对应像素(i/3,j)的蓝、绿、红通道,X为液晶显示屏上单个柱状透镜 宽度下所能覆盖的子像素个数,ɑ为倾斜透镜与竖直方向的夹角弧度,N为S2 所述视点个数,计算结果Nk为当前子像素所对应的场景纹理编号;根据Nk从 对应视点的渲染场景图中获得像素通道值,完成所有像素遍历后即得到用于输 出的融合图像;
S5、利用OpenGL可编程渲染管线特性,使用GLSLshader语言,在片元着 色器中实现像素融合算法,将S3所述单视点场景纹理缓冲融合生成最终屏幕输 出图像,,具体为,向片元着色器中传入uniform变量以表示映射公式中的值ɑ 和X,根据S4所述映射公式计算出对应坐标处的像素通道值所对应的场景纹理 缓冲编号;通过该采样器,调用着色器语言内置采样函数texture2D,由计算出 的视点索引值选取对应纹理处的颜色值,融合生成片元处的最终颜色值,从而 生成具有裸眼3D效果的每一帧图像;
S6、实现用户交互接口,自定义消息回调函数,针对交互时键盘鼠标发出 的消息,进行相应的处理,以响应来自用户的交互请求。
进一步地,步骤S1中,采用拉普拉斯平滑算法实现简化得到的网格结构的平 滑操作,具体为:
S11、初始化网格的邻接结构集M;
进一步地,步骤S2中,视点间隔角度delta是根据最佳观看距离dis为参数 的公式计算得出,delta=sin(0.2/dis)米。
进一步地,步骤S4中,访问步骤S3所述单视点场景纹理缓冲的具体方法 为:编写片元着色器程序,在着色器中声明sampler2D数组,大小设置为之前 的视点个数值N,在着色器程序中通过该数组中的每一个元素访问步骤S3所述 场景纹理缓冲,通过gl_FragCoord变量访问片元着色器。
进一步地,步骤S5中裸眼3D效果图像的实时生成具体实施步骤如下:
S51、每一次刷新时将不同视点处的图像采用绘制到纹理技术,此时将帧缓 存中的颜色缓冲区RenderBuffer输出到对应纹理对象TextureBuffer上并保存在 显存中;
S52、改写渲染管线中的片元着色器,将纹理对象以纹理单元TextureUnit 编号,在客户端向着色器传入一个uinform变量,表示纹理对象所在纹理单元, 片元着色器根据该句柄访问指定纹理对象;
S53、通过子像素映射公式,通过纹理采样器Sampler以及glsl内置的纹理 采样函数texture2d()选取像素并组合成屏幕对应坐标处像素;
S54、首先将屏幕坐标系中的点的二维坐标即着色器语言中的内置变量 gl_FragCoord代入以上公式中,从而得出对应于哪一幅图像的索引,之后访问 对应视点的图像的纹理对象在对应二维坐标处的颜色信息,最终计算片元的输 出值;
S55、建立四边形覆盖整个屏幕,则片元着色器输出的像素点适配整个屏幕, 片元着色器此时输出的像素数据即为所需求的数据,且直接通过渲染管线输出。
进一步地,步骤S6具体为,
S61、首先声明并定义回调函数InventorMotionCallback,作为SoWinExaminerViewer组件的消息回调函数,调用setEventCallback函数完成回 调函数在SoWinExaminerViewer类中的注册。
S62、在InventorMotionCallback函数定义中完成其对于Windows窗口消息 的处理工作,并针对用户交互时产生的消息刷新场景,以完成对交互的响应。
进一步地,步骤S62具体为,
S621、当用户按住鼠标左键拖拽时产生鼠标滑动消息WM_MOUSEMOVE, 将二维屏幕坐标的变化映射到三维坐标系中,实现虚拟trackball,完成对于每 个子场景中物体的旋转、移动变换,同时将变换后的每个子场景重新渲染到对 应的纹理对象中,调用重绘函数,渲染管线中的片元着色器针对新的纹理对象 执行像素选取融合算法,生成新的输出数据,完成交互后结果的刷新显示;
S622、当用户转动鼠标中间的滚轮时,会产生鼠标滚轮移动消息 WM_MOUSEWHEEL,将鼠标滚轮正向与逆向转动角度映射到三维坐标系中, 产生场景中物体沿着Z轴方向的平移,同时将变换后的每个子场景重新渲染到 对应的纹理对象中,调用重绘函数,渲染管线中的片元着色器针对新的纹理对 象执行像素选取融合算法,生成新的输出数据,完成交互后结果的刷新显示, 完成了场景中物体的缩放;
S623、当用户按下键盘相应按键时,产生对应的按键消息,针对不同的按 键消息,完成参数的实时调节与场景的重绘。
本发明的有益效果是:该种基于渲染管线的交互式实时自由立体显示方法, 基于可编程渲染管线技术,针对倾斜柱状透镜自由立体显示系统开发,通过多 视角融合实现三维数据的立体显示;利用多纹理映射技术完成每视点处场景的 渲染,满足使用者对观察对象进行实时交互式观察的需求。
附图说明
图1是本发明实施例基于渲染管线的交互式实时自由立体显示方法的流程 示意图;
图2是本发明实施例中柱透镜单元的光传输特性的示意图。
图3是实施例中倾斜透镜自由立体显示屏中视点分布示意图。
图4是实施例中视点像素映射关系示意图。
具体实施方式
下面结合附图详细说明本发明的优选实施例。
实施例
实施例的一种基于渲染管线的交互式实时自由立体显示方法,读入需要渲 染的模型的顶点数据,将顶点数据以顶点数组的形式传入OpenGL渲染流水线; 根据使用场景设置视点个数、虚拟摄像机位;设置渲染窗口分辨率、目标表面 材质、光源类型和位置,利用OpenInventor开源库,分别针对每个不同视点的 场景,实施场景渲染;利用绘制到纹理显存接口,将场景渲染输出至纹理显存; 利用OpenGL可编程渲染管线特性,使用GLSLshader语言,在片元着色器中完 成像素选取与融合操作,最后输出融合后的结果;实现用户交互接口。该方法 通过多视角融合实现三维数据的立体显示;利用多纹理映射技术完成每视点处 场景的渲染,满足使用者对观察对象进行实时交互式观察的需求。
一种基于渲染管线的交互式实时自由立体显示方法,如图1,包括以下步 骤:
S1、读入需要渲染的模型的顶点数据,利用顶点数据生成网格模型,并利 用拉普拉斯平滑算法进行网格简化,得到简化网格模型,传入OpenGL渲染流 水线。
步骤S1中,采用拉普拉斯平滑算法实现了简化得到的网格结构的平滑操作, 具体为:
S11、初始化网格的邻接结构集M;
S13、对于所有网格中的顶点V,先初始化临时向量为零向量V0,接着取 的邻域点集P adj(p),再对所有领域点T,将其位置加到临时向量Vt里(临时向 量/=领域点集数),最后将临时向量Vt的位置存入临时点集中;
S2、根据使用场景设置视点个数、虚拟摄像机位,具体为,设置融合图像 的视点个数为N、视点间隔角度delta,调用OpenGL API gluLookAt函数和 gluPerspective函数,在以原点为中心点,半径为R的弧上根据视点个数N每相 隔角度delta摆放N个虚拟摄像机,且使虚拟摄像机阵列以xoz面对称,其中每 个虚拟摄像机的光轴为该位置到原点确定的方向向量,虚拟摄像机的法线方向 为坐标轴z的正方向,针对每一个虚拟摄像机,使用OpenGL固定管线渲染步 骤S1所述简化网格模型,生成单视点渲染场景图。
步骤S2中,视点间隔角度delta是根据最佳观看距离dis为参数的公式计算 得出,delta=sin(0.2/dis),其中dis的单位为米。
S3、调用OpenGL API,使用glGenBuffers、glBindBuffer和glBufferData三 个函数在显存中开辟数据空间PixBufferi(纹理数组),记屏幕横向像素个数为 Xw,纵向像素个数为Yw,则其中每块区域所占大小为Xw×Yw×3比特,利用 Render To Texture技术,将之前使用固定管线生成的单角度渲染场景图的帧缓 冲区中的颜色缓冲区附加到对应的纹理缓冲区对象,调用 glFramebufferTexture2D将渲染结果以纹理形式保存到显存中,同时需要注意的 是每一次操作的时候需要指定一个纹理单元,具体说来是调用glActiveTexture,这样便于标记对应视角渲染结果的纹理,后续着色器中可以访问到。
本实施例使用了光栅式自由立体显示技术来实现医疗数据的自由立体显示, 该技术通过光栅的分光特性将不同视差图像在空间上进行分离从而让观看者感 受到立体感。如图2所示为柱透镜单元的光传输特性示意图,F和F’为柱透镜 单元的第一焦点和第二焦点,设透镜焦距为f。设柱透镜后方与透镜距离为g, 与光轴距离为h的一点A经透镜成像于点B。点B与透镜凸面顶点距离为l, 与光轴距离为w,根据几何关系可得:则透镜的横向放大率为:
本实施例中的自由立体显示器由上述公式建立了物点距离光轴的高度h与 眼睛位置(l,w)的关系。使显示器中的子像素经过其对应的透镜后成像于观看位 置处的相同区域处(该视点图像的最佳观看位置)。本实施例中的倾斜柱状透镜 自由立体显示器使得人眼在最佳观看位置处便能看到立体显示效果,如图3所 示。
具体实现步骤说明如下:
S31、定间隔角度和总视点数,依次渲染生成对应视点处的图像;
S32、根据像素所在坐标,将相应参数代入像素映射公式中,计算结果Nk, 从第Nk个视点的图像中的选取对应坐标处的像素;
S33、将选取的所有像素组成的图像放入屏幕所在缓冲区中。
S4、将步骤S3所述不同视点场景纹理缓冲进行融合的像素融合算法具体描 述如下:遍历屏幕区域所有像素,根据映射公式从 不同视点处的图像中选取像素通道,其中,i/3的商表示像素横坐标,其范围为 0至Xw-1;j表示像素的纵坐标,其范围为0至Yw-1;i/3的余数为0、1、2 时分别对应像素(i/3,j)的蓝、绿、红通道,X为液晶显示屏上单个柱状透镜 宽度下所能覆盖的子像素个数,ɑ为倾斜透镜与竖直方向的夹角弧度,N为S2 所述视点个数,计算结果Nk为当前子像素所对应的场景纹理编号;根据Nk从 对应视点的渲染场景图中获得像素通道值,完成所有像素遍历后即得到用于输 出的融合图像。
该实例中访问步骤S3所述单视点场景纹理缓冲的具体方法为:编写片元着 色器程序,在着色器中声明sampler2D数组,大小设置为之前的视点个数值N, 在着色器程序中通过该数组中的每一个元素访问步骤S3所述场景纹理缓冲,通 过gl_FragCoord变量访问片元着色器。
以xoff表示RGB子像素(x,y)距离透镜边缘的水平距离。图4是根据映射公 式计算得出的9视点显示器子像素映射表示意图。
S5、利用OpenGL可编程渲染管线特性,使用GLSLshader语言,在片元着 色器中实现像素融合算法,将S3所述单视点场景纹理缓冲融合生成最终屏幕输 出图像,具体为:向片元着色器中传入uniform变量以表示映射公式中的值ɑ 和X,根据S4所述映射公式计算出对应坐标处的像素通道值所对应的场景纹理 缓冲编号通过该采样器,调用着色器语言内置采样函数texture2D,由计算出的 视点索引值选取对应纹理处的颜色值,融合生成片元处的最终颜色值,从而生 成具有裸眼3D效果的每一帧图像。
该实施例中的裸眼3D效果图像的实时生成具体实施步骤如下:
S51、每一次刷新时将不同视点处的图像采用绘制到纹理(Render to Texture;RTT)技术,此时将帧缓存中的颜色缓冲区RenderBuffer输出到对应纹 理对象TextureBuffer上并保存在显存中;
S52、改写渲染管线中的片元着色器,将纹理对象以纹理单元TextureUnit 编号,在客户端向着色器传入一个uinform变量(整形数组),表示纹理对象所在 纹理单元,片元着色器中就可以根据该句柄访问指定纹理对象;
S53、通过上文所述的子像素映射公式,通过纹理采样器Sampler以及glsl 内置的纹理采样函数texture2d()选取像素并组合成屏幕对应坐标处像素;
S54、首先将屏幕坐标系中的点的二维坐标(着色器语言中的内置变量 gl_FragCoord)代入以上公式中,从而得出对应于哪一幅图像的索引,之后访问 对应视点的图像的纹理对象在对应二维坐标处的颜色信息,最终计算片元的输 出值;
S55、建立四边形覆盖整个屏幕,则片元着色器输出的像素点就可以适配整 个屏幕。片元着色器此时输出的像素数据即为所需求的数据,且直接通过渲染 管线输出,不占用显存与内存额为的带宽,满足实时性需求。
S6、自定义消息回调函数,针对交互时键盘鼠标发出的消息,进行相应的 处理,以响应来自用户的交互请求。比如旋转、平移、放大、缩小等等。具体 如何完成用户交互功能步骤如下:
S61、首先声明并定义回调函数InventorMotionCallback,作为SoWin
ExaminerViewer组件的消息回调函数,调用setEventCallback函数完成回调 函数在SoWinExaminerViewer类中的注册。
S62、在InventorMotionCallback函数定义中完成其对于Windows窗口消息 的处理工作,并针对用户交互时产生的消息刷新场景,以完成对交互的响应。 具体的交互操作及其响应下面具体说明:
S63、当用户按住鼠标左键拖拽时产生鼠标滑动消息WM_MOUSEMOVE, 这时候跳转到相应处理模块,将二维屏幕坐标的变化映射到三维坐标系中,实 现了虚拟trackball,完成了对于每个子场景中物体的旋转,移动变换,同时将 变换后的每个子场景重新渲染到对应的纹理对象中,调用重绘函数,渲染管线 中的片元着色器针对新的纹理对象执行像素选取融合算法,生成新的输出数据, 完成交互后结果的刷新显示。
S64、当用户转动鼠标中间的滚轮时,会产生鼠标滚轮移动消息 WM_MOUSEWHEEL,这时候跳转到相应处理模块。将鼠标滚轮正向与逆向转 动角度映射到三维坐标系中,产生场景中物体沿着Z轴方向的平移,同时将变 换后的每个子场景重新渲染到对应的纹理对象中,调用重绘函数,渲染管线中 的片元着色器针对新的纹理对象执行像素选取融合算法,生成新的输出数据, 完成交互后结果的刷新显示,完成了场景中物体的缩放。
S65、当用户按下键盘相应按键时,产生对应的按键消息,这时候跳转到相 应处理模块。针对不同的按键消息,完成参数的实时调节与场景的重绘。
实施例通过给观看者左右两眼分别送去不同的画面,从而达到立体的视觉 效果。实施例利用渲染到纹理技术,将多视点场景目标输入到纹理显存;利用 OpenGL可编程管线特性,将多视点像素选取融合操作在流水线中实现,以达 到实时渲染的目的。实施例采取修改OpenGL可编程渲染管线,将相关算法加 入着色器中实时执行的方法来优化数据通路,充分利用了显卡运算硬件上本身 具有的高并发特性,而且数据的处理全过程都在显卡端完成,没有了数据传输 的时延,因此可以做到实时交互。
该种基于渲染管线的交互式实时自由立体显示方法,基于可编程渲染管线 技术,针对倾斜柱状透镜自由立体显示实施例开发,通过多视角融合实现三维 数据的立体显示;利用多纹理映射技术完成每视点处场景的渲染,满足使用者 对观察对象进行实时交互式观察的需求。
Claims (7)
1.一种基于渲染管线的交互式实时自由立体显示方法,其特征在于:包括以下步骤,
S1、读入需要渲染的模型的顶点数据,利用顶点数据生成网格模型,并利用拉普拉斯平滑算法进行网格简化,得到简化网格模型,传入OpenGL渲染流水线;
S2、根据使用场景设置视点个数、虚拟摄像机位,具体为,设置融合图像的视点个数为N、视点间隔角度delta,调用OpenGL API gluLookAt函数和gluPerspective函数,在以原点为中心点,半径为R的弧上根据视点个数N每相隔角度delta摆放N个虚拟摄像机,且使虚拟摄像机阵列以xoz面对称,其中每个虚拟摄像机的光轴为该位置到原点确定的方向向量,虚拟摄像机的法线方向为坐标轴z的正方向,针对每一个虚拟摄像机,使用OpenGL固定管线渲染步骤S1所述简化网格模型,生成单视点渲染场景图;
S3、设置渲染窗口分辨率、目标表面材质、光源类型和位置,利用OpenInventor开源库,分别针对每个不同视点的场景,实施场景渲染,具体为,调用OpenGL API,使用glGenBuffers、glBindBuffer和glBufferData三个函数在显存中开辟数据空间PixBufferi即纹理数组,记屏幕横向像素个数为Xw,纵向像素个数为Yw,则其中每块区域所占大小为Xw×Yw×3比特,将步骤S2所述单视点渲染场景图的帧缓冲区中的颜色缓冲区附加到对应的纹理缓冲区对象,调用glFramebufferTexture2D函数将渲染结果以纹理形式保存到显存中,得到单视点场景纹理缓冲;
S4、将步骤S3所述不同视点场景纹理缓冲进行融合的像素融合算法具体描述如下:遍历屏幕区域所有像素,根据映射公式从不同视点处的图像中选取像素通道,其中,i/3的商表示像素横坐标,其范围为0至Xw-1;j表示像素的纵坐标,其范围为0至Yw-1;i/3的余数为0、1、2时分别对应像素(i/3,j)的蓝、绿、红通道,X为液晶显示屏上单个柱状透镜宽度下所能覆盖的子像素个数,ɑ为倾斜透镜与竖直方向的夹角弧度,N为S2所述视点个数,计算结果Nk为当前子像素所对应的场景纹理编号;根据Nk从对应视点的渲染场景图中获得像素通道值,完成所有像素遍历后即得到用于输出的融合图像;
S5、利用OpenGL可编程渲染管线特性,使用GLSLshader语言,在片元着色器中实现像素融合算法,将步骤S3所述单视点场景纹理缓冲融合生成最终屏幕输出图像,具体为,向片元着色器中传入uniform变量以表示映射公式中的值ɑ和X,根据步骤S4所述映射公式计算出对应坐标处的像素通道值所对应的场景纹理缓冲编号;通过采样器,调用着色器语言内置采样函数texture2D,由计算出的视点索引值选取对应纹理处的颜色值,融合生成片元处的最终颜色值,从而生成具有裸眼3D效果的每一帧图像;
S6、实现用户交互接口,自定义消息回调函数,针对交互时键盘鼠标发出的消息,进行相应的处理,以响应来自用户的交互请求。
3.如权利要求1所述的基于渲染管线的交互式实时自由立体显示方法,其特征在于:步骤S2中,视点间隔角度delta根据最佳观看距离dis为参数的公式计算得出,delta=sin(0.2/dis)。
4.如权利要求1所述的基于渲染管线的交互式实时自由立体显示方法,其特征在于:步骤S4中,访问步骤S3所述单视点场景纹理缓冲的具体方法为:编写片元着色器程序,在着色器中声明sampler2D数组,大小设置为之前的视点个数值N,在着色器程序中通过该数组中的每一个元素访问步骤S3所述场景纹理缓冲,通过gl_FragCoord变量访问片元着色器。
5.如权利要求1-3任一项所述的基于渲染管线的交互式实时自由立体显示方法,其特征在于:步骤S5中裸眼3D效果图像的实时生成具体实施步骤如下:
S51、每一次刷新时将不同视点处的图像采用绘制到纹理技术,此时将帧缓存中的颜色缓冲区RenderBuffer输出到对应纹理对象TextureBuffer上并保存在显存中;
S52、改写渲染管线中的片元着色器,将纹理对象以纹理单元TextureUnit编号,在客户端向着色器传入一个uinform变量,表示纹理对象所在纹理单元,片元着色器根据该句柄访问指定纹理对象;
S53、通过子像素映射公式,通过纹理采样器Sampler以及glsl内置的纹理采样函数texture2d()选取像素并组合成屏幕对应坐标处像素;
S54、首先将屏幕坐标系中的点的二维坐标即着色器语言中的内置变量gl_FragCoord代入以上公式中,从而得出对应于哪一幅图像的索引,之后访问对应视点的图像的纹理对象在对应二维坐标处的颜色信息,最终计算片元的输出值;
S55、建立四边形覆盖整个屏幕,则片元着色器输出的像素点适配整个屏幕,片元着色器此时输出的像素数据即为所需求的数据,且直接通过渲染管线输出。
6.如权利要求1所述的基于渲染管线的交互式实时自由立体显示方法,其特征在于:步骤S6具体为,
S61、首先声明并定义回调函数InventorMotionCallback,作为SoWinExaminerViewer组件的消息回调函数,调用setEventCallback函数完成回调函数在SoWinExaminerViewer类中的注册;
S62、在InventorMotionCallback函数定义中完成其对于Windows窗口消息的处理工作,并针对用户交互时产生的消息刷新场景,以完成对交互的响应。
7.如权利要求6所述的基于渲染管线的交互式实时自由立体显示方法,其特征在于:步骤S62具体为,
S621、当用户按住鼠标左键拖拽时产生鼠标滑动消息WM_MOUSEMOVE,将二维屏幕坐标的变化映射到三维坐标系中,实现虚拟trackball,完成对于每个子场景中物体的旋转、移动变换,同时将变换后的每个子场景重新渲染到对应的纹理对象中,调用重绘函数,渲染管线中的片元着色器针对新的纹理对象执行像素选取融合算法,生成新的输出数据,完成交互后结果的刷新显示;
S622、当用户转动鼠标中间的滚轮时,会产生鼠标滚轮移动消息WM_MOUSEWHEEL,将鼠标滚轮正向与逆向转动角度映射到三维坐标系中,产生场景中物体沿着Z轴方向的平移,同时将变换后的每个子场景重新渲染到对应的纹理对象中,调用重绘函数,渲染管线中的片元着色器针对新的纹理对象执行像素选取融合算法,生成新的输出数据,完成交互后结果的刷新显示,完成了场景中物体的缩放;
S623、当用户按下键盘相应按键时,产生对应的按键消息,针对不同的按键消息,完成参数的实时调节与场景的重绘。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810330487.8A CN108573524B (zh) | 2018-04-12 | 2018-04-12 | 基于渲染管线的交互式实时自由立体显示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810330487.8A CN108573524B (zh) | 2018-04-12 | 2018-04-12 | 基于渲染管线的交互式实时自由立体显示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108573524A CN108573524A (zh) | 2018-09-25 |
CN108573524B true CN108573524B (zh) | 2022-02-08 |
Family
ID=63574773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810330487.8A Active CN108573524B (zh) | 2018-04-12 | 2018-04-12 | 基于渲染管线的交互式实时自由立体显示方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108573524B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109448136B (zh) * | 2018-09-29 | 2023-03-28 | 北京航空航天大学 | 一种基于感兴趣区域的虚拟场景浏览方法 |
CN109829962B (zh) * | 2019-01-29 | 2022-11-25 | 广联达科技股份有限公司 | 一种利用opengl的物体空间消隐线计算加速方法 |
CN110458914B (zh) * | 2019-08-15 | 2023-06-27 | 北京攸乐科技有限公司 | 一种多功能着色器及引擎渲染方法 |
CN110706326B (zh) * | 2019-09-02 | 2020-06-16 | 广东省城乡规划设计研究院 | 数据展示方法及装置 |
CN110838166B (zh) * | 2019-10-21 | 2024-02-13 | 腾讯科技(深圳)有限公司 | 特效数据检测方法、装置、设备及存储介质 |
CN110827391B (zh) * | 2019-11-12 | 2021-02-12 | 腾讯科技(深圳)有限公司 | 图像渲染方法、装置、设备及存储介质 |
CN110969688B (zh) * | 2019-11-29 | 2023-04-11 | 重庆市勘测院 | 一种实景三维模型实时匀色方法 |
CN111932689B (zh) * | 2020-07-03 | 2023-11-14 | 北京庚图科技有限公司 | 一种采用id像素图的三维对象快速选取方法 |
CN114064039A (zh) * | 2020-12-22 | 2022-02-18 | 完美世界(北京)软件科技发展有限公司 | 一种渲染管线的创建方法、装置、存储介质及计算设备 |
CN112529995B (zh) * | 2020-12-28 | 2023-03-31 | Oppo(重庆)智能科技有限公司 | 图像渲染计算方法、装置、存储介质以及终端 |
CN112785676B (zh) * | 2021-02-08 | 2024-04-12 | 腾讯科技(深圳)有限公司 | 一种图像渲染方法、装置、设备和存储介质 |
CN112884875A (zh) * | 2021-03-19 | 2021-06-01 | 腾讯科技(深圳)有限公司 | 图像渲染方法、装置、计算机设备和存储介质 |
CN113012270A (zh) * | 2021-03-24 | 2021-06-22 | 纵深视觉科技(南京)有限责任公司 | 一种立体显示的方法、装置、电子设备及存储介质 |
CN113345068B (zh) * | 2021-06-10 | 2023-12-05 | 西安恒歌数码科技有限责任公司 | 一种基于osgEarth的战争迷雾绘制方法及系统 |
CN117472592B (zh) * | 2023-12-27 | 2024-03-19 | 中建三局集团有限公司 | 基于顶点着色器与纹理映射的三维模型爆炸方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101482978A (zh) * | 2009-02-20 | 2009-07-15 | 南京师范大学 | 面向envi/idl的植入式真三维立体渲染方法 |
CN104504671A (zh) * | 2014-12-12 | 2015-04-08 | 浙江大学 | 一种用于立体显示的虚实融合图像生成方法 |
EP2949121A1 (en) * | 2013-02-06 | 2015-12-02 | Koninklijke Philips N.V. | Method of encoding a video data signal for use with a multi-view stereoscopic display device |
WO2017092335A1 (zh) * | 2015-12-01 | 2017-06-08 | 乐视控股(北京)有限公司 | 一种显示立体图像的处理方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1542167A1 (en) * | 2003-12-09 | 2005-06-15 | Koninklijke Philips Electronics N.V. | Computer graphics processor and method for rendering 3D scenes on a 3D image display screen |
-
2018
- 2018-04-12 CN CN201810330487.8A patent/CN108573524B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101482978A (zh) * | 2009-02-20 | 2009-07-15 | 南京师范大学 | 面向envi/idl的植入式真三维立体渲染方法 |
EP2949121A1 (en) * | 2013-02-06 | 2015-12-02 | Koninklijke Philips N.V. | Method of encoding a video data signal for use with a multi-view stereoscopic display device |
CN104504671A (zh) * | 2014-12-12 | 2015-04-08 | 浙江大学 | 一种用于立体显示的虚实融合图像生成方法 |
WO2017092335A1 (zh) * | 2015-12-01 | 2017-06-08 | 乐视控股(北京)有限公司 | 一种显示立体图像的处理方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN108573524A (zh) | 2018-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108573524B (zh) | 基于渲染管线的交互式实时自由立体显示方法 | |
EP3057066B1 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
JP4555722B2 (ja) | 立体映像生成装置 | |
US6222551B1 (en) | Methods and apparatus for providing 3D viewpoint selection in a server/client arrangement | |
US8860790B2 (en) | Rendering improvement for 3D display | |
CN104427325B (zh) | 快速集成图像生成方法及与用户交互的裸眼三维显示系统 | |
US10122992B2 (en) | Parallax based monoscopic rendering | |
CN106204712B (zh) | 分段线性不规则光栅化 | |
CN108573521B (zh) | 基于cuda并行计算框架的实时交互式裸眼3d显示方法 | |
CN103337095B (zh) | 一种真实空间三维地理实体的立体虚拟显示方法 | |
KR101732836B1 (ko) | 셰이더 기반의 그래픽스 콘텐츠에 대한 뷰잉 배향에 의한 입체 변환 | |
CN108513123B (zh) | 一种集成成像光场显示的图像阵列生成方法 | |
CN103562963A (zh) | 用于角切片真3d显示器的对准、校准和渲染的系统和方法 | |
US20120038631A1 (en) | System and method for three-dimensional visualization of geographical data | |
Bonatto et al. | Real-time depth video-based rendering for 6-DoF HMD navigation and light field displays | |
CN114998559A (zh) | 混合现实双目立体视觉图像实时远程渲染方法 | |
JP6553184B2 (ja) | デジタルビデオのレンダリング | |
CN114255315A (zh) | 一种渲染方法、装置及设备 | |
CN107562185B (zh) | 一种基于头戴vr设备的光场显示系统及实现方法 | |
Regan et al. | An interactive graphics display architecture | |
CN112969062B (zh) | 一种三维模型二维视图与裸眼三维影像双屏联动显示方法 | |
JP2006163547A (ja) | 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。 | |
KR20010047046A (ko) | 제트버퍼를 이용한 입체영상 생성방법 | |
JP2009147508A (ja) | 立体視画像生成方法、その装置、及び立体視画像表示装置 | |
WO2019026388A1 (ja) | 画像生成装置および画像生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |