CN108573521A - 基于cuda并行计算框架的实时交互式裸眼3d显示方法 - Google Patents

基于cuda并行计算框架的实时交互式裸眼3d显示方法 Download PDF

Info

Publication number
CN108573521A
CN108573521A CN201810330486.3A CN201810330486A CN108573521A CN 108573521 A CN108573521 A CN 108573521A CN 201810330486 A CN201810330486 A CN 201810330486A CN 108573521 A CN108573521 A CN 108573521A
Authority
CN
China
Prior art keywords
pixel
value
scene
real
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810330486.3A
Other languages
English (en)
Other versions
CN108573521B (zh
Inventor
胡轶宁
谢理哲
郑涛
张宇宁
王征
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201810330486.3A priority Critical patent/CN108573521B/zh
Publication of CN108573521A publication Critical patent/CN108573521A/zh
Application granted granted Critical
Publication of CN108573521B publication Critical patent/CN108573521B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供一种基于CUDA并行计算框架的实时交互式裸眼3D显示方法,通过读取CT序列图像,设置绘制阈值,利用MarchingCube算法生成表面三角面片数据;根据使用场景设置视点个数、虚拟摄像机位,生成单角度渲染场景;利用OpenInventor开源库,分别针对每个不同视点的场景,实施场景渲染;实现CUDA并行化像素融合算法;实现交互接口。该方法能够针对医用三维CT数据进行立体绘制。本发明基于CUDA并行计算框架,实现了实时交互式自由立体显示,能够根据用户的指令,对显示目标数据进行平移、旋转、缩放等操作,并能够完成实时渲染绘制。

Description

基于CUDA并行计算框架的实时交互式裸眼3D显示方法
技术领域
本发明涉及一种基于CUDA并行计算框架的实时交互式裸眼3D显示方法。
背景技术
医学图像三维可视化作为体数据场可视化的过程,是科学可视化领域研究的重点,同时也是其目前研究与应用最成功的领域。经过近些年的发展,已经从辅助诊断发展为辅助治疗的重要手段,并将深入到医学的各个领域。
当前医生在对患者进行诊断的过程中,需要借助医学影像学来进行判断。与此同时,现阶段所获得的二维图像,本身并无法直观表示组织器官的情况,需要医生借助想象力的还原,具有极大的主观性,其中更是有些信息是医生无法准确获取的,这本身不仅给医生造成了负担,而且增大了错误判断的可能。
而与此相对,三维可视化则直观、真实、全面地表现了区域的信息,有利于医生对病情的深入理解,以及在此基础上的分析与判断。目前三维可视化一般都是通过电子显示屏幕等二维平面显示,相比于传统的二维平面显示,立体显示能够提供给观看者更接近于真实世界的视觉感受,而自由立体显示摆脱了助视设备的束缚,成为了当前立体显示领域的研究热点。
随着立体显示技术的不断发展,已经有多种技术可用于实现立体显示,它们可以不通过任何工具就能让左右眼睛从视屏幕上看到两幅具有视差的,有所区别的画面,将它们反射到大脑,人就会产生立体感。当前存在的解决方案中,主要采用了以下方案。即离线制作好的视频素材,也就是预先处理每帧图像,将选取像素并融合的多帧图像最终合成视频,最终在自由立体显示设备上播放。这样的方案存在操作繁琐,播放内容不能实时更改等局限。
发明内容
本发明的目的是提供一种基于CUDA并行计算框架的实时交互式裸眼3D显示方法,基于医学图像三维可视化技术和CUDA并行计算技术,针对倾斜柱状透镜自由立体显示系统开发,通过多视角融合实现医学图像自由立体显示;利用多纹理映射技术完成渲染,本发明能够对三维医学CT图像进行自由立体显示,同时根据用户操作进行实时刷新渲染,满足使用者对观察对象进行实时交互式观察的需求,解决现有技术中存在的操作繁琐,播放内容不能实时更改等问题。
本发明的技术解决方案是:
一种基于CUDA并行计算框架的实时交互式裸眼3D显示方法,包括以下步骤,
S1、读取CT序列图像,设置绘制阈值,利用MarchingCube算法生成三角面片数据;具体为,选择读入数据的格式,并对读入的数据进行数据解析,完成数据文件的读入操作,设置窗宽与窗位值;设置MarchingCube算法生成等值面的阈值,利用MarchingCube算法生成三角面片数据;
S2、根据使用场景设置视点个数、虚拟摄像机位;具体为,设置融合图像的视点个数参数N、视点间隔角度delta,调用OpenGL API gluLookAt函数和gluPerspective函数,在以原点为中心点,半径为R的弧上根据视点个数N且每相隔角度delta摆放N个虚拟摄像机,且使虚拟摄像机阵列以xoz面对称,其中每个虚拟摄像机的光轴为该位置到原点确定的方向向量,虚拟摄像机的法线方向为坐标轴z的正方向,设置渲染窗口分辨率、目标表面材质、光源类型和位置,针对每个虚拟摄像机,对步骤S1中得到的三角面片数据使用OpenGL固定管线渲染生成单角度渲染场景图,记为I1,I2,…IN
S3、利用OpenInventor开源库,分别针对每个不同视点的场景,实施纹理渲染;具体为,调用OpenGL API,使用glGenBuffers、glBindBuffer和glBufferData三个函数在显存中开辟数据空间PixBufferi即纹理数组,记屏幕横向像素个数为Xw,纵向像素个数为Yw,则其中每块区域所占大小为Xw×Yw×3比特,利用渲染到纹理接口,将单角度渲染场景图以纹理对象的形式保存到纹理显存中;记为场景纹理T1,T2,…TN
S4、实现CUDA并行化像素融合算法,具体为:根据步骤S3中所述屏幕像素个数设置CUDA线程块大小,线程块中的每一个线程,用于计算对应像素颜色通道所属场景纹理编号,根据编号从步骤S3所述场景纹理中提取对应颜色通道值,填充至屏幕缓冲区对象中,完成所有像素通道填充后将屏幕缓冲区对象输出至屏幕显示;
S5、实现交互接口;具体为,自定义消息回调函数,针对交互时键盘鼠标发出的消息,进行相应的处理,以响应来自用户的交互请求。
进一步地,步骤S1中利用MarchingCube算法生成三角面片数据具体为,
S11、根据对称关系构建一个具有256种相交关系的索引表IndexTable,该索引表IndexTable指明等值面与体素的边的相交关系,具体来说,该索引表IndexTable中每一行有16列值,取值为-1时表示与体素的边无交点,其中最后一列例外,取值为-1时表示结束符号;若存在交点,则取值为交点所在边的索引值,这样将体素中等值面三角化的每个三角形的交点所在边索引值存入,最多会形成5个三角形,最后一位取-1表示结束标志,故索引表IndexTable的每行有16列;
S12、提取相邻两层图片中相邻的8个像素,构成一个体素并把这8个像素编号,取值从0至7,作为它们所在的位;
S13、根据每个像素与阈值的比较确定该像素是1还是0,具体来说,指定像素值大于阈值的像素点取值为1,像素值小于阈值的像素点取值为0;
S14、把这8个像素构成的01串组成一个8位的索引值,具体来说就是将二进制位串转换为十进制的整数作为索引;
S15、由步骤S14得到的索引值在步骤S11构建的索引表里查找对应关系,并求出与立方体每条边的交点;
S16、由步骤S15得到的交点构成三角形面片;
S17、遍历三维图像的所有体素,重复执行步骤S12到步骤S16,直至生成所有三角面片,记录三角面片顶点坐标和法向量,作为三角面片数据。
进一步地,步骤S2中视点间隔角度delta是根据最佳观看距离dis为参数的公式计算得出,具体公式为:delta=sin(0.2/dis)。
进一步地,步骤S4具体为,
S41根据步骤S3所述屏幕横向像素个数Xw和纵向像素个数Yw,每个像素具有红绿蓝三个通道,配置CUDA环境的线程块宽度为Xw×3,高度为Yw,线程块内每个线程对应计算一个像素通道的所属,具体计算公式为:
其中,i/3的商表示像素横坐标,其范围为0至Xw-1;j表示像素的纵坐标,其范围为0至Yw-1;i/3的余数为0、1、2时分别对应像素(i/3,j)的蓝、绿、红通道,X为液晶显示屏上单个柱状透镜宽度下所能覆盖的子像素个数,ɑ为倾斜透镜与竖直方向的夹角弧度,N为步骤S2所述视点个数,计算结果Nk为当前子像素所对应的场景纹理编号;
S42、遍历整个屏幕区域,对于每个像素通道,根据步骤S41所述计算方式得到的场景纹理编号Nk,从第Nk个场景纹理,即步骤S3所述中对应像素位置取出对应通道值,填充至屏幕缓冲区对象中,完成所有像素通道填充后将屏幕缓冲区对象输出至屏幕显示。
进一步地,步骤S5具体为,
S51、首先声明并定义回调函数InventorMotionCallback,作为SoWinExaminerViewer组件的消息回调函数,调用setEventCallback函数完成回调函数在SoWinExaminerViewer类中的注册;
S52、在InventorMotionCallback函数定义中完成其对于Windows窗口消息的处理工作,并针对用户交互时产生的消息刷新场景,以完成对交互的响应。
进一步地,步骤S52具体为,
S521、当用户按住鼠标左键拖拽时产生鼠标滑动消息,将二维屏幕坐标的变化映射到三维坐标系中,实现了虚拟trackball,完成了场景中物体的旋转、移动;
S522、当用户转动鼠标中间的滚轮时,会产生鼠标滚轮移动消息,将鼠标滚轮正向与逆向转动角度映射到三维坐标系中,产生场景中物体沿着Z轴方向的平移,完成了场景中物体的缩放;
S523、当用户按下键盘相应按键时,产生对应的按键消息,针对所产生的不同的按键消息,完成参数的实时调节与场景的重绘。
本发明的有益效果是:该种基于CUDA并行计算框架的实时交互式裸眼3D显示方法,针对倾斜式柱状透镜自由立体显示系统开发,能够针对医用三维CT数据进行立体绘制。本发明基于CUDA并行计算框架,实现了实时交互式自由立体显示,能够根据用户的指令,对显示目标数据进行平移、旋转、缩放等操作,并能够完成实时渲染绘制。本发明利用渲染到纹理技术,将多视点场景目标输入到纹理显存;利用CUDA并行计算技术,对多视点渲染结果融合进行快速计算,以达到实时渲染的目的。
附图说明
图1是本发明实施例基于CUDA并行计算框架的实时交互式裸眼3D显示方法的流程示意图。
图2是本发明实施例中MC算法等值面交点在边上分布情况示意图。
图3是实施例中柱状透镜光栅自由立体显示器分光原理示意图。
图4是实施例中多视点显示器子像素映射关系示意图。
具体实施方式
下面结合附图详细说明本发明的优选实施例。
实施例
实施例的一种基于CUDA并行计算框架的实时交互式裸眼3D显示方法,通过读取CT序列图像,设置绘制阈值,利用MarchingCube算法生成表面三角面片数据,根据使用场景设置视点个数、虚拟摄像机位;设置渲染窗口分辨率、目标表面材质、光源类型和位置,利用OpenInventor开源库,分别针对每个不同视点的场景,实施场景渲染;利用绘制到纹理显存接口,将场景渲染输出至纹理显存;利用CUDA框架,根据实现视点融合的并行计算算法;实现交互接口。该方法能够针对医用三维CT数据进行立体绘制。本发明基于CUDA并行计算框架,实现了实时交互式自由立体显示,能够根据用户的指令,对显示目标数据进行平移、旋转、缩放等操作,并能够完成实时渲染绘制。
一种基于CUDA并行计算框架的实时交互式裸眼3D显示方法,如图1,具体包括以下步骤:
S1、选择读入数据的格式,调用系统模块中相应的解析部分进行数据解析,完成数据文件的读入操作。设置窗宽与窗位值;设置MarchingCube算法生成等值面的阈值,利用MarchingCube算法生成三角面片数据,完成模型的渲染,利用MarchingCube算法生成三角面片数据的具体步骤如下:
S11、根据对称关系构建一个256种相交关系的索引表IndexTable。该表指明等值面与体素的哪条边相交,具体来说,该表中每一行有16列值,取值为-1时表示与体素的边无交点(最后一列例外,表示结束符号),若存在交点,则取值为交点所在边的索引值,这样将体素中等值面三角化的每个三角形的交点所在边索引值存入,最多会形成5个三角形,最后一位取-1表示结束标志,故表的每行有16列。
S12、提取相邻两层图片中相邻的8个像素,构成一个体素并把这8个像素编号,取值从0至7,作为它们所在的位。
S13、根据每个像素与阈值的比较确定该像素是1还是0,具体来说,我们指定像素值大于阈值的像素点取值为1,像素值小于阈值的像素点取值为0。
S14、把这8个像素构成的01串组成一个8位的索引值,具体来说就是将二进制位串转换为十进制的整数作为索引。
S15、用索引值在上边的索引表里查找对应关系,并求出与立方体每条边的交点。
S16、用交点构成三角形面片或者多边形面片,如图2所示。
S17、遍历三维图像的所有体素,重复执行步骤S12到步骤S16。
S2、设置融合图像的视点个数参数N,视点间隔角度delta,其中delta是根据最佳观看距离dis为参数的公式计算得出。如图3所示,观看到三维效果的本质是观察者左右眼接收到来自不同视点的具有视角差的图像,具体公式为:delta=sin(0.2/dis),其中dis的单位为米,0.2表示平均左右眼距离。调用OpenGL API gluLookAt和gluPerspective在以原点为中心点,半径为R的弧上根据视点个数N每相隔delta角度摆放N个虚拟摄像机,且保证相机阵列以xoz面对称,其中每个虚拟摄像机的光轴为该位置到原点确定的方向向量,虚拟摄像机的法线方向为坐标轴z的正方向,将之前MarchingCube算法生成的三角面片数据作为场景中需要被渲染的模型,加上之前设置的每个虚拟摄像机构成一个单独的场景,使用OpenGL固定管线渲染生成单角度渲染场景图,记为I1,I2,…IN
S3、调用OpenGL API,使用glGenBuffers、glBindBuffer和glBufferData三个函数在显存中开辟数据空间PixBufferi(纹理数组),记屏幕横向像素个数为Xw,纵向像素个数为Yw,则其中每块区域所占大小为Xw×Yw×3比特(每一个像素具有红绿蓝三个分量,占据3比特空间),利用渲染到纹理接口,将单角度渲染场景图以纹理对象的形式保存到纹理显存中;记为场景纹理T1,T2,…TN
S4、实现CUDA并行化像素融合算法,具体为:根据步骤S2所述屏幕横向像素个数Xw和纵向像素个数Yw,如图4所示,每个像素具有红绿蓝三个通道,根据硬件参数,每个像素通道应当分别从属不同视点。配置CUDA环境的线程块宽度为Xw×3,高度为Yw,线程块内每个线程分别计算一个像素通道的所属,具体计算公式为:
其中,i/3的商表示像素横坐标,其范围为0至Xw-1;j表示像素的纵坐标,其范围为0至Yw-1;i/3的余数为0,1,2时分别对应像素(i/3,j)的红,绿,蓝通道,X为液晶显示屏上单个柱状透镜宽度下所能覆盖的子像素个数,ɑ为倾斜透镜与竖直方向的夹角弧度,N为S2所述视点个数,计算结果Nk为当前子像素所对应的场景纹理编号。遍历整个屏幕区域,对于每个像素通道,根据S41所述计算方式得到的场景纹理编号Nk,从第Nk个场景纹理,即S3所述中对应像素位置取出对应通道值,填充至屏幕缓冲区对象中,完成所有像素通道填充后将屏幕缓冲区对象输出至屏幕显示。
S5、自定义消息回调函数,针对交互时键盘鼠标发出的消息,进行相应的处理,以响应来自用户的交互请求。比如旋转、平移、放大、缩小等等。具体如何完成用户交互功能步骤如下:
S51、首先声明并定义回调函数InventorMotionCallback,作为SoWinExaminerViewer组件的消息回调函数,调用setEventCallback函数完成回调函数在SoWinExaminerViewer类中的注册。
S52、在InventorMotionCallback函数定义中完成其对于Windows窗口消息的处理工作,并针对用户交互时产生的消息刷新场景,以完成对交互的响应。具体的交互操作及其响应下面具体说明:
S53、当用户按住鼠标左键拖拽时产生鼠标滑动消息,这时候跳转到相应处理模块,将二维屏幕坐标的变化映射到三维坐标系中,实现了虚拟trackball,完成了场景中物体的旋转,移动。
S54、当用户转动鼠标中间的滚轮时,会产生鼠标滚轮移动消息,这时候跳转到相应处理模块。将鼠标滚轮正向与逆向转动角度映射到三维坐标系中,产生场景中物体沿着Z轴方向的平移,完成了场景中物体的缩放。
S55、当用户按下键盘相应按键时,产生对应的按键消息,这时候跳转到相应处理模块。针对不同的按键消息,完成参数的实时调节与场景的重绘。
实施例采用成熟的倾斜柱状透镜技术,通过给观看者左右两眼分别送去不同的画面,从而达到立体的视觉效果。实施例需要完成用户交互及实时渲染等功能,这对于渲染速度以及大数据量分析与处理速度有很高的要求。要做到实时交互,对于每次刷新后显示新的一帧图像的响应时间有较高的要求。实施例中的技术由于充分利用了显卡运算硬件上本身具有的高并发特性,而且数据的处理全过程都在显卡端完成,没有了数据传输的时延,因此可以做到实时交互。
该种基于CUDA并行计算框架的实时交互式裸眼3D显示方法,针对倾斜式柱状透镜自由立体显示系统开发,能够针对医用三维CT数据进行立体绘制。实施例基于CUDA并行计算框架,实现了实时交互式自由立体显示,能够根据用户的指令,对显示目标数据进行平移、旋转、缩放等操作,并能够完成实时渲染绘制。实施例利用渲染到纹理技术,将多视点场景目标输入到纹理显存;利用CUDA并行计算技术,对多视点渲染结果融合进行快速计算,以达到实时渲染的目的。

Claims (6)

1.一种基于CUDA并行计算框架的实时交互式裸眼3D显示方法,其特征在于:包括以下步骤,
S1、读取CT序列图像,设置绘制阈值,利用MarchingCube算法生成三角面片数据;具体为,选择读入数据的格式,并对读入的数据进行数据解析,完成数据文件的读入操作,设置窗宽与窗位值;设置MarchingCube算法生成等值面的阈值,利用MarchingCube算法生成三角面片数据;
S2、根据使用场景设置视点个数、虚拟摄像机位;具体为,设置融合图像的视点个数参数N、视点间隔角度delta,调用OpenGL API gluLookAt函数和gluPerspective函数,在以原点为中心点,半径为R的弧上根据视点个数N且每相隔角度delta摆放N个虚拟摄像机,且使虚拟摄像机阵列以xoz面对称,其中每个虚拟摄像机的光轴为该位置到原点确定的方向向量,虚拟摄像机的法线方向为坐标轴z的正方向,设置渲染窗口分辨率、目标表面材质、光源类型和位置,针对每个虚拟摄像机,对步骤S1中得到的三角面片数据使用OpenGL固定管线渲染生成单角度渲染场景图,记为I1,I2,…IN
S3、利用OpenInventor开源库,分别针对每个不同视点的场景,实施纹理渲染;具体为,调用OpenGL API,使用glGenBuffers、glBindBuffer和glBufferData三个函数在显存中开辟数据空间PixBufferi即纹理数组,记屏幕横向像素个数为Xω,纵向像素个数为Yω,则其中每块区域所占大小为Xω×Yω×3比特,利用渲染到纹理接口,将单角度渲染场景图以纹理对象的形式保存到纹理显存中;记为场景纹理T1,T2,…TN
S4、实现CUDA并行化像素融合算法,具体为:根据步骤S3中所述屏幕像素个数设置CUDA线程块大小,线程块中的每一个线程,用于计算对应像素颜色通道所属场景纹理编号,根据编号从步骤S3所述场景纹理中提取对应颜色通道值,填充至屏幕缓冲区对象中,完成所有像素通道填充后将屏幕缓冲区对象输出至屏幕显示;
S5、实现交互接口;具体为,自定义消息回调函数,针对交互时键盘鼠标发出的消息,进行相应的处理,以响应来自用户的交互请求。
2.如权利要求1所述的基于CUDA并行计算框架的实时交互式裸眼3D显示方法,其特征在于:步骤S1中利用MarchingCube算法生成三角面片数据具体为,
S11、根据对称关系构建一个具有256种相交关系的索引表IndexTable,该索引表IndexTable指明等值面与体素的边的相交关系,具体来说,该索引表IndexTable中每一行有16列值,取值为-1时表示与体素的边无交点,其中最后一列例外,取值为-1时表示结束符号;若存在交点,则取值为交点所在边的索引值,这样将体素中等值面三角化的每个三角形的交点所在边索引值存入,最多会形成5个三角形,最后一位取-1表示结束标志,故索引表IndexTable的每行有16列;
S12、提取相邻两层图片中相邻的8个像素,构成一个体素并把这8个像素编号,取值从0至7,作为它们所在的位;
S13、根据每个像素与阈值的比较确定该像素是1还是0,具体来说,指定像素值大于阈值的像素点取值为1,像素值小于阈值的像素点取值为0;
S14、把这8个像素构成的01串组成一个8位的索引值,具体来说就是将二进制位串转换为十进制的整数作为索引;
S15、由步骤S14得到的索引值在步骤S11构建的索引表里查找对应关系,并求出与立方体每条边的交点;
S16、由步骤S15得到的交点构成三角形面片;
S17、遍历三维图像的所有体素,重复执行步骤S12到步骤S16,直至生成所有三角面片,记录三角面片顶点坐标和法向量,作为三角面片数据。
3.如权利要求1所述的基于CUDA并行计算框架的实时交互式裸眼3D显示方法,其特征在于:步骤S2中视点间隔角度delta是根据最佳观看距离dis为参数的公式计算得出,具体公式为:delta=sin(0.2/dis)。
4.如权利要求2所述的基于CUDA并行计算框架的实时交互式裸眼3D显示方法,其特征在于:步骤S4具体为,
S41根据步骤S3所述屏幕横向像素个数Xω和纵向像素个数Yω,每个像素具有红绿蓝三个通道,配置CUDA环境的线程块宽度为Xω×3,高度为Yω,线程块内每个线程对应计算一个像素通道的所属,具体计算公式为:
其中,i/3的商表示像素横坐标,其范围为0至Xω-1;j表示像素的纵坐标,其范围为0至Yω-1;i/3的余数为0、1、2时分别对应像素(i/3,j)的蓝、绿、红通道,X为液晶显示屏上单个柱状透镜宽度下所能覆盖的子像素个数,ɑ为倾斜透镜与竖直方向的夹角弧度,N为步骤S2所述视点个数,计算结果Nk为当前子像素所对应的场景纹理编号;
S42、遍历整个屏幕区域,对于每个像素通道,根据步骤S41所述计算方式得到的场景纹理编号Nk,从第Nk个场景纹理,即步骤S3所述中对应像素位置取出对应通道值,填充至屏幕缓冲区对象中,完成所有像素通道填充后将屏幕缓冲区对象输出至屏幕显示。
5.如权利要求4所述的基于CUDA并行计算框架的实时交互式裸眼3D显示方法,其特征在于:步骤S5具体为,
S51、首先声明并定义回调函数InventorMotionCallback,作为SoWinExaminerViewer组件的消息回调函数,调用setEventCallback函数完成回调函数在SoWinExaminerViewer类中的注册;
S52、在InventorMotionCallback函数定义中完成其对于Windows窗口消息的处理工作,并针对用户交互时产生的消息刷新场景,以完成对交互的响应。
6.如权利要求5所述的基于CUDA并行计算框架的实时交互式裸眼3D显示方法,其特征在于:步骤S52具体为,
S521、当用户按住鼠标左键拖拽时产生鼠标滑动消息,将二维屏幕坐标的变化映射到三维坐标系中,实现了虚拟trackball,完成了场景中物体的旋转、移动;
S522、当用户转动鼠标中间的滚轮时,会产生鼠标滚轮移动消息,将鼠标滚轮正向与逆向转动角度映射到三维坐标系中,产生场景中物体沿着Z轴方向的平移,完成了场景中物体的缩放;
S523、当用户按下键盘相应按键时,产生对应的按键消息,针对所产生的不同的按键消息,完成参数的实时调节与场景的重绘。
CN201810330486.3A 2018-04-12 2018-04-12 基于cuda并行计算框架的实时交互式裸眼3d显示方法 Active CN108573521B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810330486.3A CN108573521B (zh) 2018-04-12 2018-04-12 基于cuda并行计算框架的实时交互式裸眼3d显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810330486.3A CN108573521B (zh) 2018-04-12 2018-04-12 基于cuda并行计算框架的实时交互式裸眼3d显示方法

Publications (2)

Publication Number Publication Date
CN108573521A true CN108573521A (zh) 2018-09-25
CN108573521B CN108573521B (zh) 2022-02-08

Family

ID=63574822

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810330486.3A Active CN108573521B (zh) 2018-04-12 2018-04-12 基于cuda并行计算框架的实时交互式裸眼3d显示方法

Country Status (1)

Country Link
CN (1) CN108573521B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070597A (zh) * 2019-04-02 2019-07-30 同济大学 一种基于OpenCL的Unity3D渲染加速方法
CN110287431A (zh) * 2019-06-27 2019-09-27 北京金山安全软件有限公司 图像文件的加载方法、装置、电子设备和存储介质
CN110784704A (zh) * 2019-11-11 2020-02-11 四川航天神坤科技有限公司 一种监控视频的显示方法、装置及电子设备
CN112714302A (zh) * 2019-10-25 2021-04-27 苏州苏大维格科技集团股份有限公司 裸眼3d图像的制作方法及装置
CN113205599A (zh) * 2021-04-25 2021-08-03 武汉大学 一种视频三维融合时gpu加速的视频纹理更新方法
CN113347407A (zh) * 2021-05-21 2021-09-03 华中科技大学 一种基于裸眼3d医学图像显示系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012093666A (ja) * 2010-10-29 2012-05-17 Mitsubishi Electric Corp 裸眼立体表示装置
CN102572482A (zh) * 2012-01-06 2012-07-11 浙江大学 基于fpga的立体视频到多视点视频的3d重构方法
CN103945208A (zh) * 2014-04-24 2014-07-23 西安交通大学 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法
US20150097825A1 (en) * 2013-02-06 2015-04-09 Square Enix Holdings Co., Ltd. Information processing apparatus, method of controlling the same, program, and storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012093666A (ja) * 2010-10-29 2012-05-17 Mitsubishi Electric Corp 裸眼立体表示装置
CN102572482A (zh) * 2012-01-06 2012-07-11 浙江大学 基于fpga的立体视频到多视点视频的3d重构方法
US20150097825A1 (en) * 2013-02-06 2015-04-09 Square Enix Holdings Co., Ltd. Information processing apparatus, method of controlling the same, program, and storage medium
CN103945208A (zh) * 2014-04-24 2014-07-23 西安交通大学 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法
WO2015161541A1 (zh) * 2014-04-24 2015-10-29 西安交通大学 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070597A (zh) * 2019-04-02 2019-07-30 同济大学 一种基于OpenCL的Unity3D渲染加速方法
CN110287431A (zh) * 2019-06-27 2019-09-27 北京金山安全软件有限公司 图像文件的加载方法、装置、电子设备和存储介质
CN110287431B (zh) * 2019-06-27 2021-08-24 北京金山安全软件有限公司 图像文件的加载方法、装置、电子设备和存储介质
CN112714302A (zh) * 2019-10-25 2021-04-27 苏州苏大维格科技集团股份有限公司 裸眼3d图像的制作方法及装置
CN110784704A (zh) * 2019-11-11 2020-02-11 四川航天神坤科技有限公司 一种监控视频的显示方法、装置及电子设备
CN110784704B (zh) * 2019-11-11 2021-08-13 四川航天神坤科技有限公司 一种监控视频的显示方法、装置及电子设备
CN113205599A (zh) * 2021-04-25 2021-08-03 武汉大学 一种视频三维融合时gpu加速的视频纹理更新方法
CN113347407A (zh) * 2021-05-21 2021-09-03 华中科技大学 一种基于裸眼3d医学图像显示系统

Also Published As

Publication number Publication date
CN108573521B (zh) 2022-02-08

Similar Documents

Publication Publication Date Title
CN108573521A (zh) 基于cuda并行计算框架的实时交互式裸眼3d显示方法
CN108573524B (zh) 基于渲染管线的交互式实时自由立体显示方法
CN108513123B (zh) 一种集成成像光场显示的图像阵列生成方法
CN103582893B (zh) 用于增强现实表示的二维图像获取
CN105513112B (zh) 图像处理方法和装置
CN103562963A (zh) 用于角切片真3d显示器的对准、校准和渲染的系统和方法
TWI542190B (zh) 編碼三維影像信號的方法及系統、經編碼之三維影像信號、解碼三維影像信號的方法及系統
US20060078180A1 (en) Video filtering for stereo images
JP6060329B2 (ja) 3dディスプレイ装置で3次元映像を視覚化する方法および3dディスプレイ装置
JP2006293792A (ja) 立体映像生成装置
US20060164411A1 (en) Systems and methods for displaying multiple views of a single 3D rendering ("multiple views")
TWI531212B (zh) 呈現立體影像之系統及方法
JP6553184B2 (ja) デジタルビデオのレンダリング
CN107390379A (zh) 一种近眼全息三维显示系统和显示方法
Zinger et al. View interpolation for medical images on autostereoscopic displays
US9196080B2 (en) Medial axis decomposition of 2D objects to synthesize binocular depth
US11748940B1 (en) Space-time representation of dynamic scenes
CN107948631A (zh) 一种基于集群和渲染的裸眼3d系统
CN102892015A (zh) 图像处理装置、图像处理方法以及医用图像诊断装置
CN112969062B (zh) 一种三维模型二维视图与裸眼三维影像双屏联动显示方法
Díaz Iriberri et al. Depth-enhanced maximum intensity projection
JP2001222723A (ja) 立体視画像の生成方法及び同装置
Xing et al. A real-time super multiview rendering pipeline for wide viewing-angle and high-resolution 3D displays based on a hybrid rendering technique
Thatte et al. Real-World Virtual Reality With Head-Motion Parallax
Jung et al. Parallel view synthesis programming for free viewpoint television

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant