CN114565742A - 小天体表面动态模拟与着陆视景仿真系统及方法 - Google Patents
小天体表面动态模拟与着陆视景仿真系统及方法 Download PDFInfo
- Publication number
- CN114565742A CN114565742A CN202210142780.8A CN202210142780A CN114565742A CN 114565742 A CN114565742 A CN 114565742A CN 202210142780 A CN202210142780 A CN 202210142780A CN 114565742 A CN114565742 A CN 114565742A
- Authority
- CN
- China
- Prior art keywords
- celestial body
- detector
- simulation
- scene
- rotation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 108
- 238000000034 method Methods 0.000 title claims abstract description 84
- 230000000007 visual effect Effects 0.000 title claims abstract description 40
- 238000005094 computer simulation Methods 0.000 title claims abstract description 22
- 238000013507 mapping Methods 0.000 claims abstract description 36
- 239000011159 matrix material Substances 0.000 claims abstract description 33
- 230000006870 function Effects 0.000 claims abstract description 32
- 230000033001 locomotion Effects 0.000 claims abstract description 21
- 238000005516 engineering process Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000013461 design Methods 0.000 claims description 45
- 238000001514 detection method Methods 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 22
- 238000005286 illumination Methods 0.000 claims description 21
- 238000009877 rendering Methods 0.000 claims description 15
- 230000000875 corresponding effect Effects 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 11
- 238000013515 script Methods 0.000 claims description 11
- 239000013598 vector Substances 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000012544 monitoring process Methods 0.000 claims description 7
- 230000009471 action Effects 0.000 claims description 6
- 230000001788 irregular Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 230000006399 behavior Effects 0.000 claims description 3
- 238000005520 cutting process Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 239000000463 material Substances 0.000 claims description 3
- 238000005316 response function Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 2
- 238000012876 topography Methods 0.000 claims 4
- 241000220286 Sedum Species 0.000 claims 1
- 238000012795 verification Methods 0.000 abstract description 3
- 238000003860 storage Methods 0.000 abstract description 2
- 210000001503 joint Anatomy 0.000 abstract 1
- 230000036544 posture Effects 0.000 description 17
- 239000000523 sample Substances 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 239000003607 modifier Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241000218093 Phedimus aizoon Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000009395 breeding Methods 0.000 description 1
- 230000001488 breeding effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/02—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by astronomical means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Automation & Control Theory (AREA)
- Astronomy & Astrophysics (AREA)
- Computing Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种小天体表面动态模拟与着陆视景仿真系统及方法,所述的基于虚拟现实的小天体表面动态模拟与着陆视景仿真系统主要包括:运用三维建模技术建立小天体立体模型,利用加权最小二乘法实现模型网格光顺;采用双线性线性插值处理贴图,通过球面映射与立方体映射相结合实现纹理映射;构建虚拟场景,根据四元数法和旋转矩阵法实现探测器姿轨实时控制,并设计虚拟相机运动及图像存储功能,实时获取小天体表面图像信息。本系统能够满足探测器着陆段的实验验证需求,可以实现对天体表面动态观测及着陆图像获取,图形质量高、实时性好,通过与某研究所GNC(Guidance,Navigation and Control)系统的对接验证了该系统的有效性。
Description
技术领域
本发明涉及基于序列图像的深空探测精确定点着陆自主导航技术领域,具体而言,特别涉及小天体表面动态模拟与着陆视景仿真系统及方法。
背景技术
深空小天体是典型的空间非合作目标,借助小天体探测器获取的天体序列图像成为准确了解小天体三维形貌等信息最有效的方法,同时也成为实现探测器着陆过程导航制导、顺利着陆的前提。由于小天体地表特征复杂多样,环境摄动干扰多,目标暗弱不规则,探测器在着陆段导航制导过程受多种噪声、环境摄动、不规则弱引力场等复杂扰动影响,使得探测器姿态控制精度难以保证,获取的着陆图像无序、效率低、实时性差,因此探测器设计应具备先进的精确控制和影像处理系统。复杂的深空环境及探测器设计制造的高要求性,极大地增加了实验成本,使得探测器着陆探测任务难以开展实施。
考虑到深空环境的不可预知性及着陆探测的复杂性,所进行的小天体着陆段观测与序列图像获取是一种复杂程度高且难以保证的过程,因此对其进行大量综合模拟是保证成功完成任务的前提。针对复杂环境实验中所存在的诸多问题,为保证实验的准确性及快速性,虚拟现实技术被广泛应用,取得良好的实验效果。利用虚拟现实技术,程伯文等设计了一套林木联合采育机培训系统,构建出直观的用户界面,并配合真实的工作环境,有效地克服了林业环境作业多样、练习空间有限等问题。于秀伟等搭建彗星接近段导航图像仿真虚拟实验平台,通过OSG仿真软件模拟彗星探测接近过程,建立虚拟相机模型,实现了对彗星接近过程图像序列仿真。赵静等在虚幻引擎4中构造火星地形地貌模拟火星仿真环境,构建火星车模型,实现火星场景漫游,完成了任务点到目标点的火星探测任务视景仿真。赵羲等利用OpenGL图形库构建三维场景,基于Cg着色语言的GPU编程实现小行星成像仿真,产生了真实感较强的小行星模拟图像。虚拟现实技术在模拟火星表面探测、彗星接近段动态模拟等方面取得良好的效果,成功模拟火星车在火星表面的视景仿真过程,彗星接近段导航图像的动态获取过程。由于小天体自身质量小、目标暗弱不规则、表面特征多样等因素,深空探测任务的开展充满了复杂性与不确定性,现有的关于彗星、火星的虚拟视景仿真系统难以进行应用于小天体探测任务中,不能够满足着陆段小天体探测器动态模拟与表面高分辨率图像获取的任务需求。基于上述因素,开发的小天体表面动态模拟与着陆视景仿真系统,能够满足小天体探测器着陆段的运行模拟,为基于序列图像的深空探测精确定点着陆自主导航提供了仿真验证。
针对这一现象,为了研究在复杂空间环境下探测器着陆段运行及序列图像获取过程,研发了一套小天体表面动态模拟与着陆视景仿真系统。
发明内容
本发明的目的在于提供一种小天体表面动态模拟与着陆视景仿真系统及方法,以解决小天体探测器着陆段实验难以验证等问题。
为解决上述技术问题,本发明提供一种小天体表面动态模拟与着陆视景仿真系统及方法,所述小天体表面动态模拟与着陆视景仿真系统包括以下步骤:
(1)目标天体三维模型构建模块,采用基于几何与图像的混合建模方法,构建出目标天体三维立体网格模型,并通过加权最小二乘法对模型网格进行光顺处理;
(2)目标天体三维模型渲染优化模块,通过双线性插值提高贴图分辨率,并对构建的目标天体三维模型采用球面映射与立方体映射相结合进行纹理贴图与优化,使其接近目标天体三维形貌特征;
(3)虚拟视景仿真系统设计模块,设计虚拟视景仿真系统,模拟真实太空环境中探测器着陆段运行仿真,其中设计虚拟视景仿真系统需要对系统场景规范处理,主要包含:首先优化处理后的目标天体Itokawa三维模型导出为“.FBX”格式文件,并复制到Unity3D的资源文件夹Assets中,借助树状资源列表合理规划场景资源,并设计物体之间的父子关系,实现资源的规范化,将小天体模型载入Unity3D的虚拟中,把Itokawa本体坐标系固连到仿真环境中的世界坐标系下,使其与世界坐标系保持一致,对模型进行旋转、平移等一系列的调整以及设置模型的相关属性,并引入虚拟相机等场景模型;其次合理设计场景天空盒并搭建场景光照系统,构建虚拟深空环境;再次设计探测器姿态控制方法与运动功能,通过汇编语言实现探测器相关运动动作;同时构建各物体碰撞检测关系;然后设计虚拟相机视场角变化、图像获取等辅助功能;最后实现与GNC系统的连接,构建半实物仿真系统。
进一步的步骤(1)包含:
结合小天体的点云数据、模型尺寸及天体高程数据等,在大量模型参考数据基础上进行三维模型仿真,得到Itokawa仿真模型,观察到小天体的三维形貌特征。借助小天体三维形貌特征,采用基于几何与图像的混合建模方法,在模型高程数据基础上,构建出天体陨石坑及地表凸起等地形形貌,建立目标天体Itokawa基础三维网格立体模型。目标天体三维立体模型由三角面片网格构成,利用加权最小二乘法对模型网格进行光顺处理,通过改变光滑权系数实现模型网格的光顺处理。
更进一步的步骤(2)包含:
纹理贴图采用双线性插值进行改善,分别通过对x轴和y轴进行一阶线性插值实现,已知Q11=(x1,y1),Q12=(x1,y2),Q21=(x2,y1),Q22=(x2,y2),首先对x轴方向线性插值,插入R1,R2像素:
再进一步对y轴方向进行插值,并根据R1,R2像素,线性插值计算P点处像素,实现图像的插值。
对线性插值所得图像裁剪为纹理有效区域并更新纹理坐标,其中在纹理更新过程中,新纹理(u′,v′)坐标为:
其中umin,vmin分别为原纹理u,v方向上最小值,lu,lv为原纹理u,v方向上长度。
目标天体形状近似椭球形,采用球面的纹理映射方式:
但是采用此纹理映射方法会在模型的两端处产生明显的纹理形变,因此,借助立体投影技术来进一步的处理模型产生的纹理形变,立体投影映射定义为:
结合线性插值得到的新图像,通过采用球面映射和立方体映射相结合的方式,并通过调整UV坐标及U、V、W平铺参数,实现将二维平面贴图准确的贴附在三维复杂模型上。
又进一步的步骤(3)包含以下步骤:
(31)所述虚拟视景仿真系统设计模块,定义小天体固连坐标系与场景中世界坐标系一致,小天体探测器坐标系以小天体固连坐标系为基准,为后续保证与GNC系统给出的仿真数据具有一致性,统一定义为左手坐标系,GNC系统给定的仿真数据中小天体探测器的位置、姿态信息以小天体固连坐标系为基准,故仿真系统设计时,以小天体作为父物体,探测器、光照等对象作为子物体,其中对父物体的运动或操作,子物体也会进行相应动作。
(32)所述虚拟视景仿真系统设计模块,为使仿真平台中的场景更加的真实,创建天空盒模拟真实深空环境,天空盒的设计应创建天空盒着色器,通过纹理化实现多个纹理生成一个天空盒,其中源纹理代表各方向的背景视图,最终实现天空盒的创建,并通过内置渲染管线与通用渲染管线使用构建的天空盒渲染天空,后续将天空盒材质应用于环境光照中,在场景的Lighting窗口中选择创建的天空盒并进行分配。其中深空环境中光源是仿真系统的重要组成部分,本系统选用方向光模拟太阳光照,首先调整光源方向并设置光照强度,其次为模拟复杂光照条件,光源模式采用混合模式,再次将光源阴影效果应用软阴影模式,使场景物体阴影效果更加显著,最后对场景进行动态光照渲染,其中通过改变光源入射方向模拟不同方向下太阳光照对探测器成像的影响。
(33)所述虚拟视景仿真系统设计模块,为得到探测器在特定旋转顺序z-y-x下的期望姿态,将抽象的空间旋转割裂为3次绕不同旋转轴依次进行的旋转,并分别通过旋转矩阵法与四元数法进行实现。
借助旋转矩阵法实现探测器姿态控制主要包括:
根据坐标转换矩阵基本原理,利用欧拉角分别求取绕不同旋转轴的旋转矩阵,根据期望旋转顺序,得出z-y-x旋转表示的姿态矩阵:
Unity3D中旋转函数以z-x-y为顺规,需建立新姿态矩阵,新姿态矩阵为Dzxy(γ1,α1,β1)。对已知欧拉角进行角度转换,给出旋转矩阵N,使其满足以下等价关系:
N=Dzxy(γ1,α1,β1)
利用公式等价原理得到转化后的欧拉角(α1,β1,γ1):
将转化后的各轴旋转角度代入Dzxy(γ1,α1,β1)中得到新的旋转顺序下的姿态矩阵:
假设P为探测器上的一点,其坐标为(X,Y,Z),P1为探测器经过旋转变换后得到,变换后的坐标为(X1,Y1,Z1),探测器姿态变换求取为P1=PDzxy(γ1,α1,β1)。
借助四元数法实现探测器姿态控制主要包括:
空间中的三维旋转可视为绕三个基本轴的旋转组合叠加,三个基本轴的旋转角度为(α,β,γ),则坐标轴基本旋转的四元数可表征为:
本发明采用z-y-x的旋转顺序,其旋转过程定义为:
假设探测器上一点Q(x3,y3,z3),其旋转欧拉角为(α,β,γ),旋转后坐标为Q1(x4,y4,z4),将三维坐标Q和Q1扩展到四维空间,四元数表示分别为Q[0 (x3,y3,z3)]、Q1[0 (x4,y4,z4)],求取探测器姿态变换:
可以得出探测器期望姿态轨迹为:
(34)所述虚拟视景仿真系统设计模块,实际探测器着落过程,探测器不可能穿越天体表面,若场景中模型未设计碰撞检测,则探测器在运行时可能会出现穿越天体的现象,因此需对场景中的模型进行碰撞检测。场景中的物体采用碰撞信息检测方法进行设计,对场景中的物体添加相应碰撞器,虚拟相机等场景模型添加盒碰撞器或球碰撞器,对于复杂小天体模型,为了提高碰撞检测精度采用网格碰撞器,设计进入碰撞区域函数检测碰撞状态,并设计相应离开碰撞区域函数实现碰撞检测后的动作,通过调用事件响应函数和事件监听函数实时监听场景,共同实现碰撞检测并控制碰撞之后的行为。
(35)所述虚拟视景仿真系统设计模块,通过探测器运动与姿态控制单元的设计,探测器虚拟相机实现了对Itokawa表面形貌的动态观测。为了满足基于构建的高分辨率天体三维地形库,研究高精度天体表面图像模拟方法的任务需求,对探测器虚拟相机设计图像获取功能、视角变化等功能单元,可按需求快速地、方便地设置获取图像的分辨率、图像数量、张角角度和获取时间等,在能够实现自动截图的基础上,设计相机手动截图功能,通过点击设计的按键,即可实现场景物体图像截取,图像存储在预设文件夹中,可直接进行图像的打开。
(36)所述虚拟视景仿真系统设计模块,通过C#语言编写脚本实现与GNC系统串口的连接,通过监听线程完成系统之间的连接,实现数据之间的发送与接收,其中GNC系统给出探测器着落过程中太阳光矢量信息、探测器位置信息和姿态信息数据文本,设计关联数据脚本,将仿真数据文件进行关联,把数据信息载入虚拟引擎中,将关联的数据以数组的形式进行存储,并创建数据的数组读取方法,实现数据信息的读取,读取的信息设计场景中的虚拟相机姿态、位置及光源方向等。
有益效果:
与已有技术相比,本发明的优势在于:为了研究在复杂空间环境下探测器着陆段运行及序列图像获取过程,研发了一套小天体表面动态模拟与着陆视景仿真系统。本发明具备完善的模型重构方法以及探测器姿态的虚拟仿真模拟算法。首先运用三维建模技术对目标天体模型进行调整,采用加权最小二乘法对模型网格进行光顺,借助线性插值提高贴图质量,并合理选择纹理贴图方式,实现模型优化,其次采用Unity3D引擎,结合三维交互技术、碰撞检测技术构建虚拟仿真系统,并通过旋转矩阵及四元数实现对探测器姿态的精准控制,然后通过编程语言实现探测器运动及图像保存功能,最后通过与某研究所GNC系统的对接,实现数据的实时传输与读取,构建半实物仿真系统。在仿真系统设计时,充分利用了Unity3D引擎多平台发布的特点,使其能在多个主流平台上运行,极大地降低了硬件设备的成本,进一步的实现与GNC系统的快速连接。设计的系统克服了复杂深空环境对探测器的限制,能够很好地实现探测器着陆段仿真,更好地保证了小天体着陆探测的高效性,为探测器着陆段导航制导、柔性附着提供了前提。
附图说明
图1为本发明一个实施例小天体表面动态模拟与着陆视景仿真系统设计流程图;
图2为本发明一个实施例小天体表面动态模拟与着陆视景仿真系统建模流程图;
图3为本发明一个实施例小天体三维网格模型;
图4为本发明一个实施例小天体表面动态模拟与着陆视景仿真系统软件设计流程图;
图5为本发明一个实施例小天体探测器z-y-x欧拉角转动示意图;
图6为本发明一个实施例小天体探测器拍照流程图;
图7为本发明一个实施例小天体探测器运行轨迹图;
图8为本发明一个实施例小天体探测器姿态仿真图;
具体实施方式
为了进一步阐述本发明各实施例的优点和特征,将结合实施例与相应的附图对本发明内容进一步详细的说明。需要声明的是,附图只描述本发明的典型的实施例,仅用以简洁、清晰地辅助说明本发明实施例的目的,不作为对本发明的限制。
本发明的核心思想在于基于虚拟现实设计小天体表面动态模拟与着陆视景仿真系统,实现探测器姿态控制及着陆序列图像获取,以解决小天体探测器着陆段实验难以验证等问题。下面,参见附图1,以25143 Itokawa作为目标天体对小天体表面动态模拟与着陆视景仿真系统及方法进行详细的阐述。
参见附图2所示,本实施例公开的一种小天体表面动态模拟与着陆视景仿真系统建模流程,包括以下步骤:
步骤S1、小天体数据信息的收集及三维模型的建立与调整。
结合小天体的点云数据、模型尺寸及天体高程数据等,在大量模型参考数据基础上进行三维模型仿真,得到Itokawa仿真模型,观察到小天体的三维形貌特征,其中通过细化模型数据信息可以进一步提高模型的准确性。进一步借助小天体三维形貌特征,采用基于几何与图像的混合建模方法,在模型高程数据基础上,通过3dsMax中的可编辑多边形、拉伸、FFD修改器等命令对小天体模型进行建立与调整,构建出天体陨石坑及地表凸起等地形形貌,建立出目标天体Itokawa基础三维立体网格模型。
步骤S2、小天体模型网格的光顺处理。
通过加权最小二乘对小天体网格进行光顺处理,来实现模型光滑,减少噪声影响。基于最小二乘的光顺算法可以描述为:假设某一含噪声的三角网格定义为T={V,E,F},其中V={vi|i=0,1,...,t-1}为模型所有顶点的集合,求得与T有相同邻接关系的新三角网格T′={V′,E,F},其中V′={vi′|i=0,1,...,t-1},T′需确保光滑且与T保持相似,更需要保持T的尖锐特性,在数学上可将保特征网格光顺表示为求取新网格顶点,其能量函数为:
令上式取最小,其中(vi′-vi)2是使T′与T尽量保持相似;siω2(vi′)是保证T′特征下使其尽量光滑;λ为光滑权系数,与光滑度紧密相关。
采用矩阵形式表达上式为:
E=(V′-V)T(V′-V)+λ(V′TLTSLV′)
式中S为对角线上元素为si的对角阵,V与V′分别为原网格顶点和光顺后网格顶点构成的向量,其中L取值为:
上式中右侧为一个新网格顶点{vi′|i=0,1,...,t-1}的二次能量函数,令其取最小值,得到向量V′,由(I+λLTSL)V′=V确定,因其系数矩阵为奇异矩阵,所以其唯一解为V′=(I+λLTSL)-1V。通过改变光滑权系数λ即可实现网格的光顺,参见附图3。
步骤S3、小天体三维模型的渲染优化与模型测试导出。
三维模型的调整构建了Itokawa的基本轮廓,通过对模型的三角网格进行处理,提高了模型表面光滑度,但与实际天体表面特征环境相差较大。为了使模型更加逼真,需要对模型进一步精细调整,对模型修改器中相应参数调试修改,使得模型表面陨石坑、地表地形更加明显,模型更加接近Itokawa仿真模型。
为进一步丰富模型表面特征信息,利用纹理贴图在不增加模型复杂程度基础上来突出表现对象细节,并且可以创建出反射,凹凸等多种效果,来完善模型的外观形貌,使构建的模型更加的真实。纹理贴图的本质是二维纹理图像映射到三维模型表面,纹理映射的关键是确定物体空间和纹理空间的映射M,M可由以下表示:
(u,v)=F(x,y,z)
其中(u,v)和(x,y,z)分别表示纹理空间和物体空间中的点的坐标。由于目标天体形状近似椭球形,采用球面的纹理映射方式:
但是采用此纹理映射方法会在模型的两端处产生明显的纹理形变,因此,需借助立体投影技术来进一步的处理模型产生的纹理形变,立体投影映射定义为:
纹理贴图的图像质量和大小决定着最终的显示效果,对原图像采用双线性插值进行改善,分别通过对x轴和y轴进行一阶线性插值实现,已知Q11=(x1,y1),Q12=(x1,y2),Q21=(x2,y1),Q22=(x2,y2),首先对x轴方向线性插值,插入R1,R2像素:
再进一步对y轴方向进行插值,并根据R1,R2像素,线性插值计算P点处像素,实现图像的插值。
对线性插值所得图像裁剪为纹理有效区域并更新纹理坐标,其中在纹理更新过程中,新纹理(u′,v′)坐标如下:
其中umin,vmin分别为原纹理u,v方向上最小值,lu,lv为原纹理u,v方向上长度。
结合线性插值得到的新图像,通过采用球面映射和立方体映射相结合的方式,并通过调整UV坐标及U、V、W平铺参数,实现三维复杂模型的纹理映射,避免了出现纹理拉伸、像素模糊化。最后优化处理后的三维模型进行大小、纹理贴图、坐标轴等的检查与测试,测试通过的三维模型成组导出为“.FBX”格式文件。
参见图4所示,本实施例公开的一种小天体表面动态模拟与着陆视景仿真系统软件设计流程,包括以下步骤:
步骤S1、场景各物体父子关系设计与坐标系单元的定义。
Unity3D平台具有可视化的树状资源列表(Hierarchy),它可以列出项目中所有的场景及文件,可以直接拖拽对象来建立对象间的父子关系。在父子关系中,对父物体的运动或操作,会使其子物体发生相同的操作,这也使得大量的对象的属性更改更加的简便。本系统所建立的目标模型导出时,进行重置变换及坐标轴的转换处理,使模型导入Unity3D后,模型比例、尺寸未发生变化,避免因模型比例原因引起的子物体形变或位置显示错误。
小天体三维模型导入虚拟引擎中,定义小天体固连坐标系与场景中世界坐标系一致,小天体探测器坐标系以小天体固连坐标系为基准,为后续保证与GNC系统给出的仿真数据具有一致性,统一定义为左手坐标系,GNC系统给定的仿真数据中小天体探测器的位置、姿态信息以小天体固连坐标系为基准,故仿真系统设计时,以小天体作为父物体,探测器、光照等对象作为子物体,其中对父物体的运动或操作,子物体也会进行相应动作。
步骤S2、基于虚拟引擎Unity3D搭建仿真场景。
三维模型导入虚拟场景中,为使Unity3D平台中的场景更加的真实,创建天空盒模拟真实深空环境,天空盒的设计应创建天空盒着色器,通过纹理化实现多个纹理生成一个天空盒,其中源纹理代表各方向的背景视图,最终实现天空盒的创建,并通过内置渲染管线与通用渲染管线使用构建的天空盒渲染天空,后续将天空盒材质应用于环境光照中,在场景的Lighting窗口中选择创建的天空盒并进行分配。其中深空环境中光源是仿真系统的重要组成部分,场景中的光源决定了场景呈现出来的氛围。在Unity3D中光源对象主要有4种:区域光、点光源、方向光、聚光灯,本系统选用方向光模拟太阳光照,Unity3D中方向光强度不会随光源位置的远近而发生衰减,首先调整光源方向并设置光照强度,其次为模拟复杂光照条件,光源模式采用混合模式,再次将光源阴影效果应用软阴影模式,使场景物体阴影效果更加显著,最后对场景进行动态光照渲染,其中通过改变光源入射方向模拟不同方向下太阳光照对探测器成像的影响。
步骤S3、目标天体及小天体探测器运动与姿态功能设计。
实现天体的真实仿真需要对天体的每个姿态进行相对应的模拟,因此天体仿真系统需要建立强大的逻辑动作库,命令与动作相互联系、环环相扣。小天体的运动特性对探测器能否顺利仿真具有重要影响,故小天体运动功能设计是本发明不可缺少的环节,通过position()、rotate()等运动函数实现小天体模型动作,并按照天体实际数据设置其运动参数,实施例中采用的目标小天体Itokawa基本信息由表1给出。
表1 Itokawa基本参数
参数 | 量值 |
Shape(m) | 535×298×244 |
Spin-rate(h) | 12.132 |
Mass(Kg) | 3.147×1010 |
Mean diameter(Km) | 0.3300 |
探测器的运动模拟仿真是本发明重要的组成部分,是探测器能否实现对小天体表面动态观察的前提,通过脚本控制探测器的具体运动从而实现实时仿真。在深空探测任务中,探测器的姿态轨迹设计影响着整个探测任务的结果,姿态控制是探测器轨道控制的前提,通过姿态控制能够直观观察探测器实际运行状态,确保小天体探测任务的顺利进行。本发明模拟探测器着陆段不同位置和姿态下对小天体的动态观察并获取高分辨率着陆图像,其中探测器位置设定利用localposition()脚本函数实现。
参见附图5,为得到探测器在特定旋转顺序下的期望姿态,将抽象的空间旋转割裂为3次绕不同旋转轴依次进行的旋转。在不同的旋转顺序下,存在多种表示相对姿态的矩阵,其中Unity3D中坐标系为左手坐标系,遵循左手法则,探测器期望姿态旋转顺序为z-y-x,可通过绕z轴旋转γ角、绕y轴旋转β角、绕x轴旋转α角得到探测器期望姿态,探测器姿态轨迹控制方法主要包括旋转矩阵法与四元数法。
运用旋转矩阵法设计探测器姿态信息,根据坐标转换矩阵基本原理,利用欧拉角分别求取绕不同旋转轴的旋转矩阵,根据期望旋转顺序,得出z-y-x旋转表示的姿态矩阵:
Unity3D中旋转函数以z-x-y为顺规,需建立新姿态矩阵,新姿态矩阵为Dzxy(γ1,α1,β1)。对已知欧拉角进行角度转换,给出旋转矩阵N,使其满足以下等价关系:
N=Dzxy(γ1,α1,β1)
利用公式等价原理得到转化后的欧拉角(α1,β1,γ1):
将转化后的各轴旋转角度代入Dzxy(γ1,α1,β1)中得到新的旋转顺序下的姿态矩阵:
假设P为探测器上的一点,其坐标为(X,Y,Z),P1为探测器经过旋转变换后得到,变换后的坐标为(X1,Y1,Z1),探测器姿态变换求取为P1=PDzxy(γ1,α1,β1)。
通过上式变化矩阵,探测器姿态可表示为:
运用四元数法设计探测器姿态信息,空间中的三维旋转可视为绕三个基本轴的旋转组合叠加,三个基本轴的旋转角度为(α,β,γ),则坐标轴基本旋转的四元数可表征为:
本系统采用z-y-x的旋转顺序,其旋转过程定义为:
对于任意一个三维向量c=(X2,Y2,Z2),都可与一个实四元数C=0+X2i+Y2j+Z2k相对应,三维向量空间与实四元数之间存在一一对应关系。假设探测器上一点Q(x3,y3,z3),其旋转欧拉角为(α,β,γ),旋转后坐标为Q1(x4,y4,z4),将三维坐标Q和Q1扩展到四维空间,四元数表示分别为Q[0 (x3,y3,z3)]、Q1[0 (x4,y4,z4)],并求取探测器姿态变换如下:
结合以上公式可以推导出探测器期望姿态轨迹计算公式:
步骤S4、场景物体碰撞检测单元设计。
碰撞检测技术是探测器在虚拟场景中运动时,碰到天体表面时做出的反应。实际探测器着落过程,探测器不可能穿越天体表面,若场景中模型未设计碰撞检测,则探测器在运行时可能会出现穿越天体的现象,场景也就失去了逼真性,交互的体验感也会下降,因此需对场景中的模型进行碰撞检测。场景中的物体采用碰撞信息检测方法进行设计,对场景中的物体添加相应碰撞器,Unity3D软件提供了多种碰撞器,其中包含Box collider、Sphere Collider、Mesh Collider等,碰撞器组建的作用就是使用一个规则的多边形逼近该物体,检测不同物体之间的碰撞器是否相交。虚拟相机等场景模型添加盒碰撞器或球碰撞器,对于复杂小天体模型,为了提高碰撞检测精度采用网格碰撞器,设计进入碰撞区域函数检测碰撞状态,并设计相应离开碰撞区域函数实现碰撞检测后的动作,通过调用事件响应函数和事件监听函数实时监听场景,共同实现碰撞检测并控制碰撞之后的行为。
步骤S5、虚拟相机辅助功能设计。
所述虚拟视景仿真系统设计模块,通过探测器运动与姿态控制单元的设计,探测器虚拟相机实现了对Itokawa表面形貌的动态观测。为了满足基于构建的高分辨率天体三维地形库,研究高精度天体表面图像模拟方法的任务需求,对探测器虚拟相机设计图像获取功能、视角变化等功能单元,可按需求快速地、方便地设置获取图像的分辨率、图像数量、张角角度和获取时间等,在能够实现自动截图的基础上,设计相机手动截图功能,通过点击设计的按键,即可实现场景物体图像截取,图像存储在预设Images文件夹中,可直接进行图像的打开。
参见附图6,首先本发明软件通过C#脚本设计数据读取的接口协议,通过监听线程完成系统连接,读取GNC系统给定的相关数据信息,通过关联数据脚本对数据信息进行判断识别,并将关联数据进行存储;其次,通过汇编脚本实现探测器姿态和位置的设定,通过判断探测器是否到达期望位置来判断程序是否继续运行;再次,设计仿真场景中光源方向,给定数据信息中光照信息按照矢量方向形式给出,通过矢量形式设计场景光照指向;然后,进行小天体表面图像的获取,通过判断截图数目与输入数据的行数,来判断探测器虚拟相机是否停止运行;最后,对获取的图像进行存储导出。
步骤S6、实现与GNC系统的连接,构建半实物仿真系统。
GNC系统给出本软件中小天体探测器位置信息、姿态信息以及太阳光照信息的数据文本,本系统软件首先通过C#语言编写脚本实现与GNC系统串口的连接,通过监听线程完成系统之间的连接,实现数据之间的发送与接收,设计关联数据脚本,将仿真数据文件进行关联,把数据信息载入虚拟引擎中,将关联的数据信息以数组形式进行存储,并以浮点型数据形式进行读取,并创建数据读取方法,设计最大的数据存储数目,借助for循环函数与换行符为分割点实现数据信息的持续读取,并通过制表符作为分割点实现数据信息的分割,以此来分配给对应的目标物体,虚拟相机、光源等场景物体通过读取分配的数据信息来运行到指定的位置或姿态处,实现了与GNC系统的实时通讯。
通过读取GNC系统给定的仿真数据,结合三维姿态轨迹算法,模拟探测器运行轨迹参见附图7,探测器姿态描述参见附图8。图7中探测器运行路线从a点运动到b点,模拟探测器着陆段部分运行轨迹,图8为部分仿真数据对应的探测器姿态及运行终点处探测器姿态描述,仿真运行时能够清楚地观察到着陆段探测器的相对姿态及运行轨迹信息。
可以看出,采用本发明设计的小天体表面动态模拟与着陆视景仿真系统能够满足探测器着陆段的实验验证需求。该系统软件通过三维建模软件的运用,并结合加权最小二乘法及图像纹理插值算法,最终实现了目标天体模型的建模及纹理优化,然后借助Unity3D成功搭建了小天体着陆段动态虚拟仿真系统,最后在对GNC仿真系统数据研究的基础上,合理规划模型对象的父子关系及场景碰撞检测等功能设计,实现了探测器的实时仿真及图像获取。本发明设计的姿态轨迹算法实现了探测器姿态的准确控制,结合两种姿态控制方法,避免了探测器姿态控制过程中出现的角度误差及转换误差,提高系统的控制精度,降低运行时间,最后仿真结果表明在模拟的深空环境及探测器功能设计下,本发明可以有效的模拟探测器对小天体表面的实时观测,并在读取准确仿真数据基础上实现了对着落段序列图像的获取,获取图像真实、纹理丰富、重叠率小,为探测器着陆段精确定点着陆导航制导及小天体柔性附着提供前提。
以上所述的具体描述,对本发明的方案、目的和有益效果进行了更进一步的详细说明,应理解的是,本实施例仅仅用于解释本发明,并不用于限制本发明的保护范围,与本发明具有相同的研究思路和基本原理下修改、替换等,均包含在本发明的保护范围内。
Claims (9)
1.一种小天体表面动态模拟与着陆视景仿真系统及方法,其特征在于,所述方法主要包含以下步骤:
步骤1、目标天体三维模型构建模块,采用基于几何与图像的混合建模方法,构建出目标天体三维立体网格模型,并通过加权最小二乘法对模型网格进行光顺处理;
步骤2、目标天体三维模型渲染优化模块,通过双线性插值提高贴图分辨率,并对构建的目标天体三维模型采用球面映射与立方体映射相结合进行纹理贴图与优化,使其接近目标天体三维形貌特征;
步骤3、虚拟视景仿真系统设计模块,设计虚拟视景仿真系统,模拟真实太空环境中探测器着陆段运行仿真,其中设计虚拟视景仿真系统需要对系统场景规范处理,主要包含:场景各物体父子关系及虚拟场景坐标系单元的定义;场景天空盒与光照单元的建立;探测器运动与姿态控制功能单元的实现;物体碰撞检测单元的设计;虚拟相机辅助功能单元的实现;与GNC系统通讯的接口协议单元的设计。
2.根据权利要求1所述的方法,其特征在于,所述目标天体三维模型构建模块,其中:
结合小天体的点云数据、模型尺寸及天体高程数据等,在大量模型参考数据基础上进行三维模型仿真,得到Itokawa仿真模型,观察到小天体的三维形貌特征,借助小天体三维形貌特征,采用基于几何与图像的混合建模方法,在模型高程数据基础上,构建出天体陨石坑及地表凸起等地形形貌,建立目标天体Itokawa基础三维立体网格模型,目标天体三维立体模型由三角面片网格构成,利用加权最小二乘法对网格进行光顺处理,通过改变光滑权系数实现模型网格的光顺处理。
3.根据权利要求1所述的方法,其特征在于,所述目标天体三维模型渲染优化模块,其中:
纹理贴图采用双线性插值来提升图像分辨率,分别通过对x轴和y轴进行一阶线性插值实现,首先对x轴方向线性插值,插入两点像素,再进一步对y轴方向进行插值,并结合插入的两点像素,线性插值计算出插值点处像素,实现图像的插值;
对线性插值所得图像裁剪为纹理有效区域并更新纹理坐标,其中在纹理更新过程中,得到新纹理的坐标,由于目标天体形状近似椭球形,首先采用球面的纹理映射方式,进行模型的纹理贴图,但是采用此纹理映射方法会在模型的两端处产生明显的纹理形变,因此,借助立体投影技术来进一步的处理模型产生的纹理形变,最后结合线性插值得到的新图像,通过采用球面映射和立方体映射相结合的方式,并通过调整UV坐标及U、V、W平铺参数,实现三维不规则复杂模型的纹理贴图优化。
4.根据权利要求1所述的方法,其特征在于,所述虚拟视景仿真系统设计模块中物体父子关系及坐标系单元定义,其中:
所述虚拟视景仿真系统设计模块,定义小天体固连坐标系与场景中世界坐标系一致,小天体探测器坐标系以小天体固连坐标系为基准,为后续保证与GNC系统给出的仿真数据具有一致性,统一定义为左手坐标系,GNC系统给定的仿真数据中小天体探测器的位置、姿态信息以小天体固连坐标系为基准,故仿真系统设计时,以小天体作为父物体,探测器、光照等对象作为子物体,其中对父物体的运动或操作,子物体也会进行相应动作。
5.根据权利要求1所述的方法,其特征在于,所述虚拟视景仿真系统设计模块中场景天空盒与光照单元的建立,其中:
所述虚拟视景仿真系统设计模块,为使仿真平台中的场景更加的真实,创建天空盒模拟真实深空环境,天空盒的设计应创建天空盒着色器,通过纹理化实现多个纹理生成一个天空盒,其中源纹理代表各方向的背景视图,最终实现天空盒的创建,并通过内置渲染管线与通用渲染管线使用构建的天空盒渲染天空,后续将天空盒材质应用于环境光照中,在场景的Lighting窗口中选择创建的天空盒并进行分配,其中深空环境中光源是仿真系统的重要组成部分,本系统选用方向光模拟太阳光照,首先调整光源方向并设置光照强度,其次为模拟复杂光照条件,光源模式采用混合模式,再次将光源阴影效果应用软阴影模式,使场景物体阴影效果更加显著,最后对场景进行动态光照渲染,其中通过改变光源入射方向模拟不同方向下太阳光照对探测器成像的影响。
6.根据权利要求1所述的方法,其特征在于,所述虚拟视景仿真系统设计模块中探测器运动与姿态控制功能单元实现,其中:
所述虚拟视景仿真系统设计模块,为得到探测器在特定旋转顺序z-y-x下的期望姿态,将抽象的空间旋转割裂为3次绕不同旋转轴依次进行的旋转,并分别通过旋转矩阵法与四元数法进行实现;
借助旋转矩阵法实现探测器姿态控制,根据坐标转换矩阵基本原理,利用欧拉角分别求取绕不同旋转轴的旋转矩阵,根据期望旋转顺序,得出z-y-x旋转表示的姿态矩阵Dzyx(γ,β,α),而Unity3D中旋转函数以z-x-y为顺规,需建立新姿态矩阵,建立的出新姿态矩阵为Dzxy(γ1,α1,β1),利用公式等价原理得到转化后的欧拉角(α1,β1,γ1),将转化后的各轴旋转角度代入Dzxy(γ1,α1,β1)中得到新的旋转顺序下的姿态矩阵,最后假设P为探测器上的一点,其坐标为(X,Y,Z),P1为探测器经过旋转变换后得到,变换后的坐标为(X1,Y1,Z1),探测器姿态变换求取为P1=PDzxy(γ1,α1,β1);
7.根据权利要求1所述的方法,其特征在于,所述虚拟视景仿真系统设计模块中物体碰撞检测单元的设计,其中:
所述虚拟视景仿真系统设计模块,若场景中模型未设计碰撞检测,则探测器在运行时可能会出现穿越天体的现象,因此需对场景中的模型进行碰撞检测设计,场景中的物体采用碰撞信息检测方法进行设计,对场景中的物体添加相应碰撞器,虚拟相机等场景模型添加盒碰撞器或球碰撞器,对于复杂小天体模型,为了提高碰撞检测精度采用网格碰撞器,设计进入碰撞区域函数检测碰撞状态,并设计相应离开碰撞区域函数实现碰撞检测后的动作,通过调用事件响应函数和事件监听函数实时监听场景,共同实现碰撞检测并控制碰撞之后的行为。
8.根据权利要求1所述的方法,其特征在于,所述虚拟视景仿真系统设计模块中虚拟相机辅助单元的实现,其中:
所述虚拟视景仿真系统设计模块,通过探测器运动与姿态控制单元的设计,探测器虚拟相机实现了对Itokawa表面形貌的动态观测,为了满足基于构建的高分辨率天体三维地形库,研究高精度天体表面图像模拟方法的任务需求,对探测器虚拟相机设计图像获取功能、视角变化等功能单元,可按需求快速地、方便地设置获取图像的分辨率、图像数量、张角角度和获取时间等,在能够实现自动截图的基础上,设计相机手动截图功能,通过点击设计的按键,即可实现场景物体图像截取,图像存储在预设文件夹中,可直接进行图像的打开。
9.根据权利要求1所述的方法,其特征在于,所述虚拟视景仿真系统设计模块中接口协议单元的设计,其中:
所述虚拟视景仿真系统设计模块,通过C#语言编写脚本实现与GNC系统串口的连接,通过监听线程完成系统之间的连接,实现数据之间的发送与接收,其中GNC系统给出探测器着落过程中太阳光矢量信息、探测器位置信息和姿态信息数据文本,设计关联数据脚本,将仿真数据文件进行关联,把数据信息载入虚拟引擎中,将关联的数据以数组的形式进行存储,并创建数据的数组读取方法,实现数据信息的读取,读取的信息设计场景中的虚拟相机姿态、位置及光源方向等。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210142780.8A CN114565742A (zh) | 2022-02-16 | 2022-02-16 | 小天体表面动态模拟与着陆视景仿真系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210142780.8A CN114565742A (zh) | 2022-02-16 | 2022-02-16 | 小天体表面动态模拟与着陆视景仿真系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114565742A true CN114565742A (zh) | 2022-05-31 |
Family
ID=81714428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210142780.8A Pending CN114565742A (zh) | 2022-02-16 | 2022-02-16 | 小天体表面动态模拟与着陆视景仿真系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114565742A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116244778A (zh) * | 2023-05-11 | 2023-06-09 | 长江三峡集团实业发展(北京)有限公司 | 水电工程仿真云图展示方法、装置、电子设备及存储介质 |
CN116306185A (zh) * | 2023-02-14 | 2023-06-23 | 北京理工大学 | 基于不规则离散元的陨星进入地球大气层后运动仿真方法及系统 |
CN117853320A (zh) * | 2024-03-07 | 2024-04-09 | 电子科技大学成都学院 | 一种基于多媒体操控的图像映射方法、系统及存储介质 |
-
2022
- 2022-02-16 CN CN202210142780.8A patent/CN114565742A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116306185A (zh) * | 2023-02-14 | 2023-06-23 | 北京理工大学 | 基于不规则离散元的陨星进入地球大气层后运动仿真方法及系统 |
CN116306185B (zh) * | 2023-02-14 | 2023-11-03 | 北京理工大学 | 基于不规则离散元的陨星进入地球大气层后运动仿真方法及系统 |
CN116244778A (zh) * | 2023-05-11 | 2023-06-09 | 长江三峡集团实业发展(北京)有限公司 | 水电工程仿真云图展示方法、装置、电子设备及存储介质 |
CN117853320A (zh) * | 2024-03-07 | 2024-04-09 | 电子科技大学成都学院 | 一种基于多媒体操控的图像映射方法、系统及存储介质 |
CN117853320B (zh) * | 2024-03-07 | 2024-05-28 | 电子科技大学成都学院 | 一种基于多媒体操控的图像映射方法、系统及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114565742A (zh) | 小天体表面动态模拟与着陆视景仿真系统及方法 | |
CN107492137B (zh) | 一种基于三维数字地球的图形动画设计系统及其设计方法 | |
CN108648269A (zh) | 三维建筑物模型的单体化方法和系统 | |
CN102750704B (zh) | 一种摄像机分步自标定方法 | |
CN108919944A (zh) | 一种基于数字城市模型实现在显示端进行数据无损交互的虚拟漫游方法 | |
CN102346922B (zh) | 航天遥感载荷成像几何畸变三维可视化仿真方法 | |
CN105354355A (zh) | 一种基于三维运动视景的仿真系统设计与实现方法 | |
CN106570215B (zh) | 一种基于时变气象数据的热带气旋动态仿真方法 | |
CN113066160B (zh) | 一种室内移动机器人场景数据的生成方法 | |
CN106530400A (zh) | 一种基于智能穿戴设备的交互式虚拟校园漫游系统 | |
CN115690336A (zh) | 一种卫星波束覆盖区域可视化方法、服务器及存储介质 | |
CN110852952B (zh) | 一种基于gpu的大规模地形实时绘制方法 | |
CN111915710A (zh) | 基于实时渲染技术的建筑渲染方法 | |
CN109269495B (zh) | 动态星图生成方法和设备 | |
CN116958396A (zh) | 图像重光照方法、装置及可读存储介质 | |
CN105321205B (zh) | 一种基于稀疏关键点的参数化人体模型重建方法 | |
Williams et al. | A time-line approach for the generation of simulated settlements | |
Aiazzi et al. | Iris: High-fidelity perception sensor modeling for closed-loop planetary simulations | |
Rowell et al. | PANGU: Virtual spacecraft image generation | |
Davis et al. | 3d modeling of cities for virtual environments | |
Braun et al. | A customizable, multi-host simulation and visualization framework for robot applications | |
Kotthäuser et al. | Validating vision and robotic algorithms for dynamic real world environments | |
CN114491694A (zh) | 一种基于虚幻引擎的空间目标数据集构建方法 | |
CN106373180A (zh) | 一种飞行模拟器态势渲染方法 | |
JPH0154749B2 (zh) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |