CN104933758A - 一种基于osg三维引擎的空间相机三维成像仿真方法 - Google Patents
一种基于osg三维引擎的空间相机三维成像仿真方法 Download PDFInfo
- Publication number
- CN104933758A CN104933758A CN201510260567.7A CN201510260567A CN104933758A CN 104933758 A CN104933758 A CN 104933758A CN 201510260567 A CN201510260567 A CN 201510260567A CN 104933758 A CN104933758 A CN 104933758A
- Authority
- CN
- China
- Prior art keywords
- camera
- mrow
- virtual camera
- virtual
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000003384 imaging method Methods 0.000 title claims abstract description 27
- 238000004088 simulation Methods 0.000 title claims abstract description 23
- 238000010008 shearing Methods 0.000 claims abstract description 14
- 238000009877 rendering Methods 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 32
- 230000009466 transformation Effects 0.000 claims description 22
- 238000005516 engineering process Methods 0.000 abstract description 10
- 230000000007 visual effect Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 6
- 238000000844 transformation Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
一种基于OSG三维引擎的空间相机成像仿真方法,首先在三维场景中通过指定一个虚拟相机视点位置、视角中心、相机角度、视口角度、近切面、远切面定义一个虚拟相机;然后实时计算虚拟相机在空间的位置和姿态,变换虚拟相机的视口,渲染输出相机的显示内容;最后针对大场景下精细物体的显示,使用渲染到纹理技术,关联两个虚拟相机的相应剪切平面,从而消除场景抖动,与传统三维空间相机的成像显示方法相比,本发明中的方法明显提高了空间相机定制参数的灵活性,解决了空间虚拟相机和实际空间物理相机视口内容显示同步和虚拟成像视口场景抖动的问题。
Description
技术领域:
本发明涉及一种空间相机三维成像仿真方法,特别是一种基于OSG三维引擎的空间相机三维成像仿真方法,属于三维可视化技术领域。
背景技术
利用OpenSceneGraph(OSG)三维引擎的仿真技术根据实时或仿真数据生成的动态场景图像具有无比的直观性和生动性,己经成为航天任务中数据分析与演示的重要手段。随着硬件技术的不断发展,可视化技术也从单纯的数据表现手段向更生动的表现形式、更丰富的表现内容和更逼真的表现效果发展。为了使成像更贴近物理相机的效果,开展基于OpenSceneGraph(OSG)三维引擎的空间相机三维成像仿真方法的研究具有十分重要的意义。
目前,在航空大场景的环境下,OpenSceneGraph(OSG)三维引擎下三维虚拟相机成像技术中普遍采用固定相机视场参数、固定相机位置、固定窗口显示区域的技术方法。这就会导致虚拟相机和物理相机视场显示内容同步性差的问题。航天器在高轨/深空运行状态下虚拟相机视口三维场景深度值受限于硬件图形适配器存储精度,因此虚拟成像视口场景有抖动现象。
现有的方法采用拉大视点距离近剪切平面的位置来提高需要观察的精细物体的存储精度,这种方法的缺点是当视角姿态发生微小变化的时候,由于视场长度比较长,场景内的物体会出现显示不完整或者深空背景突然消失的情况,虽然保证了微小物体的显示精度,但是会丢失场景中深度较高的模型细节。
发明内容:
本发明解决的技术问题是:克服现有技术的不足,本发明提出一种基于 OpenSceneGraph(OSG)三维引擎的空间相机成像仿真方法,首先在三维场景中通过指定一个虚拟相机视点位置、视角中心、相机角度、视口角度、近切面、远切面定义一个虚拟相机;然后实时计算虚拟相机在空间的位置和姿态,变换虚拟相机的视口,渲染输出相机的显示内容;最后针对大场景下精细物体的显示,使用渲染到纹理(RTT)技术,关联两个虚拟相机的相应剪切平面,从而消除场景抖动。与传统三维空间相机的成像显示方法相比,本发明中的方法明显提高了空间相机定制参数的灵活性,解决了空间虚拟相机和实际空间物理相机视口内容显示同步和虚拟成像视口场景抖动的问题,显示效果接近物理相机的真实效果,且视口场景内容稳定精确。
本发明所采用的技术方案是:一种基于OSG三维引擎的空间相机成像仿真方法,步骤如下:
(1)根据空间相机参数在三维场景中定义两个三维虚拟相机,所述相机参数包括相机视点位置、视角中心、相机角度、视口角度、中间深度平面和最远深度平面;所述两个三维虚拟相机分别为第一虚拟相机和第二虚拟相机,第一虚拟相机和第二虚拟相机的相机视点位置、视角中心、相机角度和视口角度均与空间相机的相机视点位置、视角中心、相机角度和视口角度相同,第一虚拟相机的近剪切平面和远剪切平面分别与空间相机的中间深度平面和最远深度平面相同,第二虚拟相机的远剪切平面为空间相机的中间深度平面相同,被观测物体位于第二虚拟相机的近剪切平面和远剪切平面之间;
(2)获取空间相机本体坐标系到J2000坐标系的变换矩阵,进一步获得空间相机在J2000坐标系下的位置和姿态;
(3)利用步骤(1)中第一虚拟相机进行成像,获取第一虚拟相机远剪切平 面的视口内容;
(4)在OSG中将步骤(3)中获取的第一虚拟相机远剪切平面视口内容渲染到第一虚拟相机的近剪切平面,即第二虚拟相机的远剪切平面上;
(5)将步骤(4)中渲染后的结果输出,即完成空间相机的成像仿真。
所述步骤(1)中第一虚拟相机的近剪切平面与空间相机视点位置的距离为被观测对象最小部件尺寸的200~500倍。
所述步骤(1)中第一虚拟相机的远剪切平面与空间相机视点位置的距离为第一虚拟相机的近剪切平面与空间相机视点位置的距离的5~10倍。
所述步骤(4)中在OSG中将步骤(3)中获取的第一虚拟相机远剪切平面视口内容渲染到第一虚拟相机的近剪切平面,采用的渲染方法为RTT。
本发明与现有技术相比的有益效果为:
(1)本发明中提出的三维成像仿真技术,定义了两个虚拟相机,虚拟相机的参数和物理相机的参数一一对应,比传统的方法视口内容更符合实际物理相机场景的视口内容,通过本发明中所述的关联两个虚拟相机的剪切平面可以实现在大深度的场景下稳定的显示微小的物体,避免了抖动的现象;
(2)本发明通过将空间相机的位置转换到J2000坐标系中,实时解算出空间相机的实际位置和姿态,进而来实时更新两个虚拟相机的位置,从而保证了虚拟相机视场的内容和空间相机视场显示的内容同步;
(3)本发明提出的三维成像仿真技术可应用于航天相机仿真的独立或集成仿真演示系统中,实际成像结果具有参考意义,具备一定的市场竞争力。
(4)本发明提出的三维成像仿真技术在微型计算机中有完整的功能实现,对应视场参数,位置变换矩阵都有完整的实现接口,在运行过程中改变相机参 数,虚拟相机提供颜色、外观和可视化参数控制,可以快速接入航天器姿态控数据进行在轨成像演示,本发明提供二维投影窗口控制参数,可以根据相机仿真演示任务要求进行多窗口位置、大小定制显示;
附图说明:
图1为本发明方法流程图;
图2为构建的虚拟相机参数说明;
图3为虚拟相机位置和姿态更新流程图;
图4为将视点设置在较远位置时的视锥图;
图5为设定的两个虚拟相机的相互关联说明图;
图6为经过本发明处理后的相机视口内容图。
具体实施方式:
本发明提供了一种基于OSG三维引擎的空间相机三维成像仿真方法,下面结合附图对本发明作进一步说明。
一、虚拟相机视场参数化及构建虚拟相机
利用物理相机视场(方锥形)和三维虚拟相机结构的相似性原理构造虚拟相机,构造的虚拟相机参数如图2所示。图2中物理相机的相关参数:水平视场角α,垂直视场角β,相机视点位置O,相机视场长度l。根据这种相似性原理创建第一个虚拟相机,为便于锥体空间位置计算,把虚拟相机视点顶点设置为O'(0,0,0),虚拟相机的方向设置为沿x轴,近剪切平面距离为被观测对象部件中最小尺寸的200~500倍,远剪切平面与空间相机视点位置的距离为第一虚拟相机的近剪切平面与空间相机视点位置的距离的5~10倍,水平视场角α'=α,垂直视场角β'=β。根据这种相似性原理创建第二个虚拟相机,把虚拟相机视点顶点设置为 O'(0,0,0),虚拟相机的方向设置为沿x轴,远剪切平面到视点的距离为第一个虚拟相机近剪切平面到视点的距离,水平视场角α'=α,垂直视场角β'=β。
二、虚拟相机在轨运行状态下的空间位置和姿态的更新
(1)位置和姿态的坐标变换矩阵是一个4阶方阵:
式中 是T阵中的旋转矩阵。
获取航天器模型到J2000坐标矩阵的每个变换矩阵从中获取旋转矩阵获取物理相机到航天器模型坐标系下的每个变换矩阵从 中获取旋转矩阵
设置虚拟相机旋转姿态为:
其中,物理相机到J2000姿态变换矩阵;
n:航天器运动矩阵到J2000坐标系的坐标变换个数;
m:物理相机到航天器的坐标变换个数。
获取变化矩阵:
其中,物理相机到J2000位姿变换矩阵;
n:航天器运动矩阵到J2000坐标系的坐标变换个数;
m:物理相机到航天器的坐标变换个数。
由中的第四列的前三行可得虚拟相机相对于J2000坐标系的位置为:
(2)设置虚拟相机向上方向为:
(3)当航天器模型位置及姿态变化时,航天器模型到J2000坐标系的变换矩阵中的项改变为由于物理相机的位置和姿态相对于航天器模型保持不变,在航天器模型位置及姿态变化后,物理相机到航天器模型坐标系下的每个变换矩阵不会改变。可得物理相机到航天器模型运动矩阵的变换矩阵为:
其中,物理相机到航天器运动矩阵下姿态变换矩阵;
n:航天器运动矩阵到J2000坐标系的坐标变换个数;
m:物理相机到航天器的坐标变换个数;
a:航天器的运动矩阵在一系列变换矩阵中的位置。
虚拟相机到J2000坐标系的变换矩阵为:
其中为航天器运动矩阵变由变化为后虚拟相机到J2000坐标系下的坐标变换矩阵。
重复步骤(2)和(3),更新相机的位置和姿态并重新设置虚拟相机的相关参数。虚拟相机经过视口变换后,渲染输出显示相机内容。
虚拟相机位置和姿态更新流程图如图3所示。
三、虚拟相机大场景精细物体的显示方法
(1)在已知在3D视锥体投影变换过程中的相机参数的情况下,可得虚拟相机的投影矩阵为:
其中,near:虚拟相机椎体内的近剪切平面;
far:虚拟相机椎体内的远剪切平面;
top:近剪切平面的视觉顶点;
bottom:近剪切平面的视觉低点;
left:近剪切平面的左边界;
right:近剪切平面的右边界。
在上述矩阵对象中令: 其中Zb为深度缓存(Z-buffer)中存放的值,z为视点距离。对于大场景下的精细对象,其两个面之间的距离往往很小,深度缓存(Z-buffer)中需要储存的数据精度可由下式求得:
其中
对于大场景内观察精细对象的情况,near和far的数值差是天文单位级别,这就导致Zb1,Zb2的值十分接近,的值相当大。超出现有显卡的深度缓可存储的数据范围,因此会出现操作视角过小导致观察对象的背景不易出现、背景消失和视角不易调整等情况。
考虑两个不同深度的z值点
令z1-z2=A,Zb1-Zb2=ΔZb。
其中A为确定值,可得:
由上式可知当z1增加时,ΔZb的值会变小。因此在相同的条件下,距离视点越近,其Z-Buffer的精度越低。也就是说在三维空间中距离的多边形光栅化后的两个象素,当它们距离视点越近。它们在Z-Buffer中存放的值的大小就越接近。可以得出以下的结论:
如果近剪切平面距离视点越近,其Z-Buffer的精度越低。两个距离视点比较近而且比较接进的多边形光栅化后的象素的深度值的大小会围绕某个值呈现随机性,计算机无法确切的决定哪个象素在前。为了提高精度,应该将近剪切面尽可能的远离视点。对于远剪切面来说,他的位置对于Z-Buffer的精度没有 太大的影响。
(2)由步骤(1)可知,为了提高精度,应该将近剪切面尽可能的远离视点。为了保证视口内容不丢失同时解决这个问题,可以考虑把视点设置在离近剪切平面一个较远的距离,如图4所示。此时虚拟相机的视场角α,β是一个很小的值。当视点位置发改变后,虚拟相机的视椎体变化较大,容易造成场景丢失。
本发明在场景中添加两个虚拟相机:第一虚拟相机和第二虚拟相机,将第一虚拟相机的近剪切平面设置为第二虚拟相机的远剪切平面如图5所示。这样,由于相对于第一虚拟相机的近剪切平面作为第二虚拟相机的远剪切平面处理,在第二虚拟相机得到的图像中不会出现上述问题。
(3)在第二虚拟相机的远剪切平面前创建一个矩阵,并设置该矩阵纹理坐标为(0,0),(1,0),(1,1),(0,1)。
四、在OSG中将步骤三中获取的第一虚拟相机远剪切平面视口内容渲染到第一虚拟相机的近剪切平面,即第二虚拟相机的远剪切平面上;
五、将步骤四中渲染后的结果输出,即完成空间相机的成像仿真。
实施例:
根据本发明的方法,在OSG中创建两个相互关联的虚拟相机,使第一虚拟相机的远剪切平面设置到一个比较远的距离,可以输出深度较深的场景内容,使第二虚拟相机的远剪切平面处于第一虚拟相机的近剪切平面上。
如果只使用第一个虚拟相机,把近剪切平面设置在一个很近的位置,那么在输出距离视点较近的卫星上的细小部件时,由于图形处理器存储数据精度达不到要求,会在细小部件上出现条纹、斑点等现象。
采用本发明的方法,结合渲染到纹理(RTT)技术,使第一虚拟相机的视口内容实时渲染到第二虚拟相机的远剪切平面上,得到的效果如图6。在图6中可以明显的观察到,输出的场景内容即包含了清晰的深空背景效果,又正确显示了卫星上微小部件的细节,没有出现条纹或斑点。此结果表明本发明所述的方法消除了视口场景的抖动问题。
Claims (4)
1.一种基于OSG三维引擎的空间相机成像仿真方法,其特征在于步骤如下:
(1)根据空间相机参数在三维场景中定义两个三维虚拟相机,所述相机参数包括相机视点位置、视角中心、相机角度、视口角度、中间深度平面和最远深度平面;所述两个三维虚拟相机分别为第一虚拟相机和第二虚拟相机,第一虚拟相机和第二虚拟相机的相机视点位置、视角中心、相机角度和视口角度分别与空间相机的相机视点位置、视角中心、相机角度和视口角度相同,第一虚拟相机的近剪切平面和远剪切平面分别与空间相机的中间深度平面和最远深度平面相同,第二虚拟相机的远剪切平面为空间相机的中间深度平面相同,被观测物体位于第二虚拟相机的近剪切平面和远剪切平面之间;
(2)获取空间相机本体坐标系到J2000坐标系的变换矩阵,进一步获得空间相机在J2000坐标系下的位置和姿态;
(3)利用步骤(1)中第一虚拟相机进行成像,获取第一虚拟相机远剪切平面的视口内容;
(4)在OSG中将步骤(3)中获取的第一虚拟相机远剪切平面视口内容渲染到第一虚拟相机的近剪切平面,即第二虚拟相机的远剪切平面上;
(5)将步骤(4)中渲染后的结果输出,即完成空间相机的成像仿真。
2.根据权利要求1所述的一种基于OSG三维引擎的空间相机成像仿真方法,其特征在于:所述步骤(1)中第一虚拟相机的近剪切平面与空间相机视点位置的距离为被观测对象最小部件尺寸的200~500倍。
3.根据权利要求2所述的一种基于OSG三维引擎的空间相机成像仿真方法,其特征在于:所述步骤(1)中第一虚拟相机的远剪切平面与空间相机视点位置的距离为第一虚拟相机的近剪切平面与空间相机视点位置的距离的5~10倍。
4.根据权利要求1所述的一种基于OSG三维引擎的空间相机成像仿真方法,其特征在于:所述步骤(4)中在OSG中将步骤(3)中获取的第一虚拟相机远剪切平面视口内容渲染到第一虚拟相机的近剪切平面,采用的渲染方法为RTT。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510260567.7A CN104933758B (zh) | 2015-05-20 | 2015-05-20 | 一种基于osg三维引擎的空间相机三维成像仿真方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510260567.7A CN104933758B (zh) | 2015-05-20 | 2015-05-20 | 一种基于osg三维引擎的空间相机三维成像仿真方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104933758A true CN104933758A (zh) | 2015-09-23 |
CN104933758B CN104933758B (zh) | 2017-09-29 |
Family
ID=54120909
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510260567.7A Active CN104933758B (zh) | 2015-05-20 | 2015-05-20 | 一种基于osg三维引擎的空间相机三维成像仿真方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104933758B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105491366A (zh) * | 2015-12-09 | 2016-04-13 | 四川长虹电器股份有限公司 | 基于osg的裸眼3d交互方法 |
CN105631925A (zh) * | 2015-12-29 | 2016-06-01 | 北京航天测控技术有限公司 | 基于osg三维渲染引擎预处理的三维场景生成方法及装置 |
CN106910236A (zh) * | 2017-01-22 | 2017-06-30 | 北京微视酷科技有限责任公司 | 一种三维虚拟环境中的渲染显示方法及装置 |
WO2018176963A1 (zh) * | 2017-03-28 | 2018-10-04 | 成都通甲优博科技有限责任公司 | 电子稳像方法、系统及无人机 |
CN111601246A (zh) * | 2020-05-08 | 2020-08-28 | 中国矿业大学(北京) | 基于空间三维模型图像匹配的智能位置感知系统 |
CN112486700A (zh) * | 2020-11-20 | 2021-03-12 | 北京邮电大学 | 通信方法、装置和存储介质 |
CN113728301A (zh) * | 2019-06-01 | 2021-11-30 | 苹果公司 | 用于在2d屏幕上操纵3d对象的设备、方法和图形用户界面 |
CN115994982A (zh) * | 2023-03-22 | 2023-04-21 | 中科星图测控技术股份有限公司 | 一种基于osg的巨型星座态势展示方法 |
WO2024051487A1 (zh) * | 2022-09-05 | 2024-03-14 | 腾讯科技(深圳)有限公司 | 虚拟相机的参数处理方法、装置、设备、存储介质及程序产品 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101236702A (zh) * | 2008-01-29 | 2008-08-06 | 武汉理工大学 | 基于虚拟现实的驾驶员注视物体识别系统 |
US20100039502A1 (en) * | 2008-08-14 | 2010-02-18 | Real D | Stereoscopic depth mapping |
CN103337095A (zh) * | 2013-06-25 | 2013-10-02 | 桂林理工大学 | 一种真实空间三维地理实体的立体虚拟显示方法 |
CN104077741A (zh) * | 2014-05-27 | 2014-10-01 | 武汉兆图科技有限公司 | 一种基于渲染到纹理的三维场景无损放大方法 |
-
2015
- 2015-05-20 CN CN201510260567.7A patent/CN104933758B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101236702A (zh) * | 2008-01-29 | 2008-08-06 | 武汉理工大学 | 基于虚拟现实的驾驶员注视物体识别系统 |
US20100039502A1 (en) * | 2008-08-14 | 2010-02-18 | Real D | Stereoscopic depth mapping |
CN103337095A (zh) * | 2013-06-25 | 2013-10-02 | 桂林理工大学 | 一种真实空间三维地理实体的立体虚拟显示方法 |
CN104077741A (zh) * | 2014-05-27 | 2014-10-01 | 武汉兆图科技有限公司 | 一种基于渲染到纹理的三维场景无损放大方法 |
Non-Patent Citations (1)
Title |
---|
SEBASTIAN PASEWALDT等: "Multi-Perspective Detail+Overview Visualization for 3D Building Exploration", 《EG UK THEORY AND PRACTICE OF COMPUTER GRAPHICS (2013)》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105491366B (zh) * | 2015-12-09 | 2017-07-28 | 四川长虹电器股份有限公司 | 基于osg的裸眼3d交互方法 |
CN105491366A (zh) * | 2015-12-09 | 2016-04-13 | 四川长虹电器股份有限公司 | 基于osg的裸眼3d交互方法 |
CN105631925A (zh) * | 2015-12-29 | 2016-06-01 | 北京航天测控技术有限公司 | 基于osg三维渲染引擎预处理的三维场景生成方法及装置 |
CN105631925B (zh) * | 2015-12-29 | 2019-02-26 | 北京航天测控技术有限公司 | 基于osg三维渲染引擎预处理的三维场景生成方法及装置 |
CN106910236A (zh) * | 2017-01-22 | 2017-06-30 | 北京微视酷科技有限责任公司 | 一种三维虚拟环境中的渲染显示方法及装置 |
WO2018176963A1 (zh) * | 2017-03-28 | 2018-10-04 | 成都通甲优博科技有限责任公司 | 电子稳像方法、系统及无人机 |
CN113728301A (zh) * | 2019-06-01 | 2021-11-30 | 苹果公司 | 用于在2d屏幕上操纵3d对象的设备、方法和图形用户界面 |
CN113728301B (zh) * | 2019-06-01 | 2024-07-23 | 苹果公司 | 用于在2d屏幕上操纵3d对象的设备、方法和图形用户界面 |
CN111601246A (zh) * | 2020-05-08 | 2020-08-28 | 中国矿业大学(北京) | 基于空间三维模型图像匹配的智能位置感知系统 |
CN112486700A (zh) * | 2020-11-20 | 2021-03-12 | 北京邮电大学 | 通信方法、装置和存储介质 |
WO2024051487A1 (zh) * | 2022-09-05 | 2024-03-14 | 腾讯科技(深圳)有限公司 | 虚拟相机的参数处理方法、装置、设备、存储介质及程序产品 |
CN115994982A (zh) * | 2023-03-22 | 2023-04-21 | 中科星图测控技术股份有限公司 | 一种基于osg的巨型星座态势展示方法 |
CN115994982B (zh) * | 2023-03-22 | 2023-07-07 | 中科星图测控技术股份有限公司 | 一种基于osg的巨型星座态势展示方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104933758B (zh) | 2017-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104933758B (zh) | 一种基于osg三维引擎的空间相机三维成像仿真方法 | |
US10026233B2 (en) | Efficient orientation estimation system using magnetic, angular rate, and gravity sensors | |
US10083538B2 (en) | Variable resolution virtual reality display system | |
US10089790B2 (en) | Predictive virtual reality display system with post rendering correction | |
EP3057066B1 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
CN107564089B (zh) | 三维图像处理方法、装置、存储介质和计算机设备 | |
US8797352B2 (en) | Method and devices for visualising a digital model in a real environment | |
CN105354355B (zh) | 一种基于三维运动视景的仿真系统设计与实现方法 | |
US20170154460A1 (en) | Viewing frustum culling method and device based on virtual reality equipment | |
WO2017113731A1 (zh) | 360度全景显示方法、显示模块及移动终端 | |
WO2017003769A1 (en) | Low-latency virtual reality display system | |
WO2018188479A1 (zh) | 基于增强现实的导航方法及装置 | |
JPS6295666A (ja) | 画像発生装置 | |
TW201237801A (en) | Method for processing three-dimensional image vision effects | |
Yang et al. | Nonlinear perspective projections and magic lenses: 3D view deformation | |
JP4584956B2 (ja) | グラフィックスプロセッサおよび描画処理方法 | |
US10719124B2 (en) | Tracking system, tracking method for real-time rendering an image and non-transitory computer-readable medium | |
JP3126575B2 (ja) | 立体視用3次元画像生成装置 | |
KR101227155B1 (ko) | 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법 | |
Rowell et al. | PANGU: Virtual spacecraft image generation | |
Seng et al. | Realistic real-time rendering of 3D terrain scenes based on OpenGL | |
US12106433B2 (en) | Generating equirectangular imagery of a 3D virtual environment | |
CN111612883B (zh) | 立方体贴图的处理方法、装置和存储介质 | |
JPH09231402A (ja) | バンプマッピング方法及び画像生成装置 | |
CN118827936A (zh) | 作业机械的辅助图像展示方法、装置、介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |