CN111223191A - 面向机载增强合成视景系统的大规模场景红外成像实时仿真方法 - Google Patents
面向机载增强合成视景系统的大规模场景红外成像实时仿真方法 Download PDFInfo
- Publication number
- CN111223191A CN111223191A CN202010003145.2A CN202010003145A CN111223191A CN 111223191 A CN111223191 A CN 111223191A CN 202010003145 A CN202010003145 A CN 202010003145A CN 111223191 A CN111223191 A CN 111223191A
- Authority
- CN
- China
- Prior art keywords
- airborne
- infrared
- vision system
- simulation
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 78
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000003331 infrared imaging Methods 0.000 title claims abstract description 27
- 230000005855 radiation Effects 0.000 claims abstract description 60
- 230000000694 effects Effects 0.000 claims abstract description 23
- 238000003384 imaging method Methods 0.000 claims abstract description 18
- 238000004364 calculation method Methods 0.000 claims abstract description 10
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 7
- 238000013507 mapping Methods 0.000 claims abstract description 6
- 239000000463 material Substances 0.000 claims description 60
- 238000002310 reflectometry Methods 0.000 claims description 16
- 238000005286 illumination Methods 0.000 claims description 8
- 238000009877 rendering Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 8
- 230000015556 catabolic process Effects 0.000 abstract description 4
- 238000006731 degradation reaction Methods 0.000 abstract description 4
- 230000008447 perception Effects 0.000 abstract description 4
- 238000001514 detection method Methods 0.000 abstract description 3
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012827 research and development Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Image Processing (AREA)
Abstract
本发明属于计算机虚拟现实仿真技术领域,具体涉及一种面向机载增强合成视景系统的大规模场景红外成像实时仿真方法。本发明针对现代飞机典型配置的前视红外传感器,基于红外辐射的物理模型,建立信号感知仿真模型,与虚拟环境所描述的对应属性作用,通过虚拟现实仿真引擎,实时输出探测信号,并叠加飞行仪表,模拟飞机在飞行过程中增强合成视景系统的红外视频成像工作过程以及机载恶劣成像环境造成的图像降质,实现大规模场景的实时仿真。该方法综合利用红外波段辐射特征、目标的几何特征和大气效应等因素对目标红外辐射的综合作用进行仿真模拟,保证细节信息不失真,避免了传统算法中的手动贴图等人工痕迹,具有较好的计算效果和仿真精度。
Description
技术领域:
本发明属于计算机虚拟现实仿真领域,特别是涉及一种面向机载增强合成视景系统的大规模场景红外成像实时仿真方法。
背景技术:
近年来,基于前视红外图像的增强合成视景技术(系统)在飞机上应用越来越广泛,通过将仪表叠加到三维场景上,在飞机巡航、进近着陆等过程中,能够为飞行员提供鲜明的场景信息,并通过预先叠加颜色、符号等提升显示效果,极大的增强了低能见度或低空飞行条件下飞行员的态势感知能力。
然而,增强合成视景系统实际试飞环境复杂、成本昂贵、周期漫长,而没有经过成熟测试认证的系统,难以加载到机载平台中进行验证,容易造成飞行事故。
传统的红外成像仿真系统中,通过粘贴红外纹理、直接灰度化等方式实现,并非基于物理模型,缺乏真实感,其仿真效率低、画面粗糙且价格昂贵,难以满足武器装备测试中需要的大场景实时仿真需求。
发明内容:
本发明的目的是:解决在面向机载增强合成视景系统的大规模场景红外成像仿真中,虚拟现实场景仿真速度慢、分辨率低、真实性差的问题。
本发明提出的技术方案是:
该面向机载增强合成视景系统的大规模场景红外成像实时仿真方法,包括以下步骤:
1)构建基于虚拟现实的可见光三维场景;
2)将机载增强合成视景系统的视点相机置于所述基于虚拟现实的可见光三维场景中,建立红外成像链路模型;
3)获取a)当前视点相机(红外传感器)在三维场景中的位置以及姿态信息;b)当前视点相机观察到的像素点所属材质及其在三维场景中的位置信息;c)预先确定或计算得到的该三维场景的场景红外特性数据和材质特性数据;
计算像素点到达视点相机的所有辐射量,进而映射得到理想的红外仿真图像;
4)基于所述理想的红外仿真图像,添加噪声并模拟机载振动影响,参考传感器的成像模型,生成机载红外仿真图像(灰度图像);
5)在所述机载红外仿真图像叠加虚拟仪表,生成机载增强合成视景系统实时仿真画面,渲染输出。
基于以上方案,本发明进一步作了如下优化:
上述三维场景的场景红外特性数据包括红外光照反射模型、天空背景辐射模型、太阳辐射模型和大气衰减系数τPath;所述材质特性数据包括材质发射率emis、材质表面反射率ref和材质的温度模型(随时间变化的温度分布,对应于材质自身的热辐射)。
上述步骤3)中所述像素点到达视点相机的所有辐射量按照下式计算:
LSensor=(bp(LSun)·ref+LSky+LThermal·emis)·τPath
式中,LSensor为传感器检测到的目标辐射总量,bp(LSun)为传感器检测到的目标表面反射的太阳辐射,LSky为传感器检测到的天空背景辐射,LThermal为传感器检测到的目标自身热辐射;ref为材质表面反射率,emis为材质发射率,τPath为大气衰减系数。
上述红外光照反射模型的表达式为:
其中:N是入射点的单位法向量;H是半角向量,H=(V+L)/2,指的是光入射方向L和视点方向V的中间向量;ks为材质的镜面反射系数;Il是点光源强度,取自预先建立的大气模型中的太阳辐射强度;ns是高光指数。
对于上述构建的基于虚拟现实的可见光三维场景,预先通过语义分割对场景纹理按照材质进行分类,明确每一个像素属于哪一种材质;
将像素RGB值替换为所属材质对应的材质编号、反射率、发射率分别存入RGB三个通道,得到伪纹理;步骤3)中预先计算材质特性数据,是通过读取所述伪纹理像素信息即得到材质发射率emis和材质表面反射率ref;
或者,也可以仅存入材质编号,步骤3)中预先计算材质特性数据,是通过在线查询得到材质发射率emis和材质表面反射率ref。
上述步骤4)中添加噪声的主体为高斯白噪声。
上述步骤4)中模拟机载振动影响,是引入帧内模糊和帧间模糊处理,并加入图像抖动。
进一步的,所述帧内模糊可利用虚拟现实引擎(Unreal Engine 4)中的着色器进行像素偏移来实现。所述帧间模糊可采用高斯模糊算法实现模糊效果。
本发明具有的优点是:
实现了大规模场景红外成像实时仿真,能够充分利用虚幻引擎及GPU并行计算能力达到较高的渲染速率和效果。该算法由于考虑了红外辐射的物理模型,利用红外波段辐射特征、目标的几何特征和大气效应等因素对目标红外辐射的综合作用进行仿真模拟,保证细节信息不失真,避免了传统算法中的手动贴图等人工痕迹,具有较好的计算效果和仿真精度。利用该方法得到的红外成像仿真画面,可以为增强合成视景等系统仿真提供有效手段,提高武器装备研发效率。
利用虚拟现实技术对增强合成视景系统的仿真可以突破时间、地域、气候的差异,为飞行器应用提供逼真的仿真效果,而且克服了真实试飞中的不可预料性与不可重复性,也为机载功能设备的研制节省了大量人力物力,并且缩短了研发周期。
附图说明:
图1为本发明的一个实施例的原理框图。
具体实施方式:
以下结合附图和实施例对本发明作进一步详述。
如图1所示,本实施例针对现代飞机典型配置的前视红外传感器,充分考虑了红外成像物理各部分计算复杂度和机载实时成像仿真特点,将成像仿真分为预处理、实时生成和机载效果合成三部分。
预处理部分,获得三维场景的场景红外特性数据和材质特性数据,以及红外传感器成像模型数据;
实时生成部分,根据红外辐射理论,建立信号感知仿真模型,与虚拟环境所描述的对应属性作用,通过虚拟现实仿真引擎,实时输出红外探测信号,模拟飞机在飞行过程中增强合成视景系统的红外视频成像工作过程;
机载效果合成,在分析机载增强合成视景工作过程后,引入帧内模糊和帧间模糊处理以及图像抖动,模拟机载恶劣成像环境造成的图像降质,并在输出画面叠加SCADEDisplay仪表画面,最终渲染生成逼真的机载增强合成视景系统实时仿真画面。
该方法综合利用红外波段辐射特征、目标的几何特征和大气效应等因素对目标红外辐射的综合作用进行仿真模拟,保证细节信息不失真,避免了传统算法中的手动贴图等人工痕迹,具有较好的计算效果和仿真精度。
一、关于红外成像仿真的分析:
到达红传感器的热辐射,有天空背景辐射、太阳辐射的反射、物体自身的热辐射、路径辐射等,根据热辐射相关原理,红外传感器探测到的辐射能量可由下式计算:
LSensor=(bp(LSun)·ref+LSky+LThermal·emis)·τPath
式中,LSensor为传感器检测到的目标辐射总量;bp(LSun)为传感器检测到的物体表面反射的太阳辐射;LSky为传感器检测到的天空背景辐射;LThermal为传感器检测到的目标表面热辐射;ref为材质表面反射率,emis为材质发射率;τPath为大气衰减。由于路径辐射在总辐射能量中所占比例较小,本实施例将其舍去。
1.Blinn-Phong红外光照反射模型
Blinn-Phong红外光照反射模型可采用常规的可见光光照模型Blinn-Phong,具有较高的运算效率和双向反射分布函数的理论精确性,更符合基本规律,效果更加真实,同条件下高光范围更大,而且渲染效果更加平滑和柔和。Blinn-Phong红外光照光照模型的表达式为:
其中N是入射点的单位法向量,H是半角向量,其值H=(V+L)/2,指的是光入射方向L和视点方向V的中间向量,ks为材质的镜面反射系数,Il是点光源强度(建立的大气模型中的太阳辐射强度),ns是高光指数。
2.天空背景辐射与太阳辐射
天空背景辐射、太阳辐射与视点、光源、世界坐标系中的位置等有关,可以通过计算和查询相关数据得到。不同气象条件和地点,红外的背景辐射和大气数据计算复杂,难以实时运行,需要在指定的条件下提前处理使用时直接查询相关数据。天空背景辐射等数据计算复杂度非常高,目前尚不能达到实时计算,可在仿真前进行预处理。本实施例使用VegaPrime来计算天空背景辐射等数据的预处理。
3.物体自身辐射计算
假设目标为灰体,可得到物体表面在一定波长范围内的辐射出射度为:
本实施例讨论的红外波段为3~5μm。故取λ1=3μm,λ2=5μm。ε为物体的发射率(即材质发射率emis),M(λ,T)是光谱辐射通量密度,单位是W·cm-2·μm-1,
式中,C1是第一辐射常数,其值为C1=2πhc2=3.7418×108,C2是第二辐射常数,其值为C2=ch,c是光速,h是普朗克常数,可以得到c1=2πhc2=3.7418×108(W·m·μm-4·sr-2),c2=1.4388×104(μm·K)。
二、关于传感器效应模拟
(1)红外成像噪声仿真
与可见光不同,红外图像赖以成像的辐射能量较低,噪声对成像质量的影响较为明显。对仿真得到的红外图像添加噪声,会使红外成像仿真效果更加逼真。红外成像噪声在时间和空间上随机分布,在输出图像上表现为随机闪烁的颗粒。如热噪声、A/D转化的随机噪声等都是独立分布的,若将噪声叠加,则满足中心极限定理,高斯白噪声占主要地位。因此,本实施例模拟的噪声为高斯白噪声。
若存在随机数R1,R2服从[0,1]的均匀分布,使x满足:
(2)机载振动模拟
由于机载光电平台在曝光时间内,目标景物像与感光介质之间存在相对运动,即像移,会导致传感器图像的对比度变差、成像模糊、清晰度下降,严重影响传感器的成像质量。
帧间模糊:低频运动振动周期长,传感器的运动相对较慢,成像速度快,每帧成像时间内的振动可近似为匀速运动,相邻像素间会产生明显的偏移,图像整体上会表现出扭曲。在着色器中,用像素偏移实现。
帧内模糊:高频运动振动周期短,传感器的运动较快,曝光时间内振动了多个周期,将会导致动态图像序列帧间的晃动。使用高斯模糊算法实现模糊效果。
另外,还可以再加入图像抖动。
三、基于虚幻引擎(Unreal Engine 4)的大规模场景仿真
虚幻引擎是一个纯C++引擎,专为高性能而设计,它先进的CPU/GPU性能分析工具和灵活的渲染器能高效完成高品质的虚拟现实场景设计,已在生产工艺开发仿真,海洋虚拟可视化、人类行为仿真、ROV实时运动仿真、犯罪现场仿真等诸多科研领域取得成效,这得益于虚幻引擎具有以下优势:(1)仿真精度高:虚幻引擎中的物理引擎对仿真系统提供了有了强有力的支持,它不仅关注模型静态属性的精确度,更注重模型的行为属性的表现,从而使得仿真效果更为真实;(2)编程复杂度低:虚幻引擎提供了现成的3D开发框架和有关的API函数,相当于一个工具包。这样系统开发人员就不必从最底层开始写程序,只需要调用该引擎中相关的API函数来实现模型之间的通信以及相关的事件动作;(3)人机交互性好:基于虚幻引擎的仿真系统表现出优秀的人机交互性,用户在使用仿真系统时仿佛置身于现实世界里一般;(4)系统兼容性好:虚幻引擎支持HTC VIVE等主流的虚拟现实设备,以及多种主流开发和运行平台,为大规模虚拟现实仿真提供便利。通过虚幻引擎,可以实现大规模场景的高速渲染输出。
以某型增强合成视景系统的红外成像仿真为例,具体工作步骤如下:
第一步,基于虚拟现实的可见光三维场景,通过语义分割对场景纹理按照材质进行分类,将材质的反射率、发射率存入图像,得到伪纹理。具体来说,不同材质对外界辐射的反射、自身热辐射不同,通过语义分割,对场景纹理按照材质进行分类,明确每一个像素属于哪一类材质(即确定其反射率、发射率),将每一个像素值(原本为RGB值)替换为所属材质对应的材质编号、反射率、发射率分别存入RGB三个通道;当然,也可以只存储材质编号,然后在下一步骤实时生成部分时在线查询反射率、发射率;
第二步,对特定气候的大气数据、天空背景辐射进行建模,并提前进行计算。这主要是考虑到不同气候、气象条件下,大气辐射和物体温度不同,大气数据计算复杂度很高,需要再对特定气候提前进行计算随时间变化的大气数据、天空背景辐射等,进而计算每一类材质随时间变化的温度分布。
第三步,在虚拟现实引擎Unreal Engine 4的材质中建立经过简化的红外成像链路模型,基于当前相机及像素点位置,结合天空背景辐射、太阳反射得到目标各材质对应的温度分布,计算理想的红外仿真图像。具体例如:A、基于当前视点相机及像素点在三维场景中的位置(坐标),结合太阳、视点相机和要计算的像素点三者的相对位置,以及像素点的反射率和大气数据等,计算太阳光经像素点反射至视点相机的辐射值;B、根据视点相机在三维场景中的位姿,查询得到到达视点相机的天空背景辐射值;C、根据像素点所属材质对应的温度,利用普朗克公式以及该像素点的发射率,计算像素点自身的对外辐射值;以上三个辐射值再结合衰减系数,得到像素点到达视点相机的所有辐射量,进而映射得到红外仿真图像(灰度图像)。
第四步,加入传感器效应,即引入帧内模糊和帧间模糊处理以及图像抖动,模拟机载恶劣成像环境造成的图像降质,得到机载前视红外仿真图像。
第五步,最后叠加SCADE Display仪表画面,生成增强合成视景中红外图像仿真,渲染输出。
本实施例针对现代飞机典型配置的前视红外传感器,根据红外辐射理论,建立信号感知仿真模型,与虚拟环境所描述的对应属性作用,通过虚拟现实仿真引擎,实时输出探测信号,并叠加飞行仪表,模拟飞机在飞行过程中增强合成视景系统的红外视频成像工作过程以及机载恶劣成像环境造成的图像降质,实现大规模场景的实时仿真。整个方法针对机载环境,充分利用了GPU强大的图形渲染能力,可在1920*1080分辨率视频图像渲染速度达到30FPS以上。
Claims (9)
1.面向机载增强合成视景系统的大规模场景红外成像实时仿真方法,其特征在于,包括以下步骤:
1)构建基于虚拟现实的可见光三维场景;
2)将机载增强合成视景系统的视点相机置于所述基于虚拟现实的可见光三维场景中,建立红外成像链路模型;
3)获取a)当前视点相机在三维场景中的位置以及姿态信息;b)当前视点相机观察到的像素点所属材质及其在三维场景中的位置信息;c)预先确定或计算得到的该三维场景的场景红外特性数据和材质特性数据;
计算像素点到达视点相机的所有辐射量,进而映射得到理想的红外仿真图像;
4)基于所述理想的红外仿真图像,添加噪声并模拟机载振动影响,参考传感器的成像模型,生成机载红外仿真图像;
5)在所述机载红外仿真图像叠加虚拟仪表,生成机载增强合成视景系统实时仿真画面,渲染输出。
2.根据权利要求1所述的面向机载增强合成视景系统的大规模场景红外成像实时仿真方法,其特征在于:所述三维场景的场景红外特性数据包括红外光照反射模型、天空背景辐射模型、太阳辐射模型和大气衰减系数τPath;所述材质特性数据包括材质发射率emis、材质表面反射率ref和材质的温度模型。
3.根据权利要求2所述的面向机载增强合成视景系统的大规模场景红外成像实时仿真方法,其特征在于:步骤3)中所述像素点到达视点相机的所有辐射量按照下式计算:
LSensor=(bp(LSun)·ref+LSky+LThermal·emis)·τPath
式中,LSensor为传感器检测到的目标辐射总量,bp(LSun)为传感器检测到的目标表面反射的太阳辐射,LSky为传感器检测到的天空背景辐射,LThermal为传感器检测到的目标自身热辐射;ref为材质表面反射率,emis为材质发射率,τPath为大气衰减系数。
5.根据权利要求1所述的面向机载增强合成视景系统的大规模场景红外成像实时仿真方法,其特征在于:对于构建的基于虚拟现实的可见光三维场景,预先通过语义分割对场景纹理按照材质进行分类,明确每一个像素属于哪一种材质;
将像素RGB值替换为所属材质对应的材质编号、反射率、发射率分别存入RGB三个通道,得到伪纹理;步骤3)中预先计算材质特性数据,是通过读取所述伪纹理像素信息即得到材质发射率emis和材质表面反射率ref;
或者,仅存入材质编号,步骤3)中预先计算材质特性数据,是通过在线查询得到材质发射率emis和材质表面反射率ref。
6.根据权利要求1所述的面向机载增强合成视景系统的大规模场景红外成像实时仿真方法,其特征在于:步骤4)中添加噪声的主体为高斯白噪声。
7.根据权利要求1所述的面向机载增强合成视景系统的大规模场景红外成像实时仿真方法,其特征在于:步骤4)中模拟机载振动影响,是引入帧内模糊和帧间模糊处理,并加入图像抖动。
8.根据权利要求7所述的面向机载增强合成视景系统的大规模场景红外成像实时仿真方法,其特征在于:所述帧内模糊是利用虚拟现实引擎中的着色器进行像素偏移来实现。
9.根据权利要求7所述的面向机载增强合成视景系统的大规模场景红外成像实时仿真方法,其特征在于:所述帧间模糊是采用高斯模糊算法实现模糊效果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010003145.2A CN111223191A (zh) | 2020-01-02 | 2020-01-02 | 面向机载增强合成视景系统的大规模场景红外成像实时仿真方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010003145.2A CN111223191A (zh) | 2020-01-02 | 2020-01-02 | 面向机载增强合成视景系统的大规模场景红外成像实时仿真方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111223191A true CN111223191A (zh) | 2020-06-02 |
Family
ID=70828089
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010003145.2A Pending CN111223191A (zh) | 2020-01-02 | 2020-01-02 | 面向机载增强合成视景系统的大规模场景红外成像实时仿真方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111223191A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113470055A (zh) * | 2021-07-16 | 2021-10-01 | 南京信息工程大学 | 一种基于fpga加速的图像融合处理方法 |
CN114063650A (zh) * | 2021-11-17 | 2022-02-18 | 中国人民解放军军事科学院国防科技创新研究院 | 一种面向虚幻引擎的仿真无人机飞行控制方法 |
CN114925553A (zh) * | 2022-07-20 | 2022-08-19 | 成都众享天地网络科技有限公司 | 一种基于理论/半经验方法的红外图像仿真方法 |
CN115841048A (zh) * | 2023-02-13 | 2023-03-24 | 中国人民解放军火箭军工程大学 | 一种基于目标机理模型的多模仿真数据集制备方法 |
CN117078877A (zh) * | 2023-08-18 | 2023-11-17 | 中国人民解放军92728部队 | 基于地理信息的三维引擎红外视景生成方法及系统 |
CN117408094A (zh) * | 2023-12-15 | 2024-01-16 | 成都大征创智科技有限公司 | 基于物理特性材质贴图的红外辐射仿真方法 |
CN117830530A (zh) * | 2024-01-04 | 2024-04-05 | 北京中科卓锐科技有限公司 | 用于红外仿真模拟的数据处理方法和装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102968521A (zh) * | 2012-10-25 | 2013-03-13 | 西安电子科技大学 | 基于gpu编程的红外反射特性仿真方法 |
CN103186906A (zh) * | 2011-12-28 | 2013-07-03 | 中国科学院沈阳自动化研究所 | 一种海天背景下多类目标的红外动态场景实时仿真方法 |
CN108230444A (zh) * | 2016-12-14 | 2018-06-29 | 中国航空工业集团公司西安航空计算技术研究所 | 一种通用的增强型合成视景计算平台 |
CN109446553A (zh) * | 2018-09-14 | 2019-03-08 | 清华大学 | 一种基于Unity3D的空中动态红外场景仿真系统 |
CN109547710A (zh) * | 2018-10-10 | 2019-03-29 | 中国航空工业集团公司洛阳电光设备研究所 | 一种增强视景和合成视景融合实现方法 |
CN109544696A (zh) * | 2018-12-04 | 2019-03-29 | 中国航空工业集团公司西安航空计算技术研究所 | 一种基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法 |
-
2020
- 2020-01-02 CN CN202010003145.2A patent/CN111223191A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103186906A (zh) * | 2011-12-28 | 2013-07-03 | 中国科学院沈阳自动化研究所 | 一种海天背景下多类目标的红外动态场景实时仿真方法 |
CN102968521A (zh) * | 2012-10-25 | 2013-03-13 | 西安电子科技大学 | 基于gpu编程的红外反射特性仿真方法 |
CN108230444A (zh) * | 2016-12-14 | 2018-06-29 | 中国航空工业集团公司西安航空计算技术研究所 | 一种通用的增强型合成视景计算平台 |
CN109446553A (zh) * | 2018-09-14 | 2019-03-08 | 清华大学 | 一种基于Unity3D的空中动态红外场景仿真系统 |
CN109547710A (zh) * | 2018-10-10 | 2019-03-29 | 中国航空工业集团公司洛阳电光设备研究所 | 一种增强视景和合成视景融合实现方法 |
CN109544696A (zh) * | 2018-12-04 | 2019-03-29 | 中国航空工业集团公司西安航空计算技术研究所 | 一种基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法 |
Non-Patent Citations (2)
Title |
---|
余冠锋 等: "Real-time Simulation of Airborne FLIR Sensor", 《PROCEEDINGS OF 2016 IEEE CHINESE GUIDANCE, NAVIGATION AND CONTROL CONFERENCE》 * |
余冠锋 等: "面向增强合成视景系统的红外成像仿真研究", 《航空计算技术》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113470055A (zh) * | 2021-07-16 | 2021-10-01 | 南京信息工程大学 | 一种基于fpga加速的图像融合处理方法 |
CN114063650A (zh) * | 2021-11-17 | 2022-02-18 | 中国人民解放军军事科学院国防科技创新研究院 | 一种面向虚幻引擎的仿真无人机飞行控制方法 |
CN114925553A (zh) * | 2022-07-20 | 2022-08-19 | 成都众享天地网络科技有限公司 | 一种基于理论/半经验方法的红外图像仿真方法 |
CN115841048A (zh) * | 2023-02-13 | 2023-03-24 | 中国人民解放军火箭军工程大学 | 一种基于目标机理模型的多模仿真数据集制备方法 |
CN117078877A (zh) * | 2023-08-18 | 2023-11-17 | 中国人民解放军92728部队 | 基于地理信息的三维引擎红外视景生成方法及系统 |
CN117078877B (zh) * | 2023-08-18 | 2024-05-17 | 中国人民解放军92728部队 | 基于地理信息的三维引擎红外视景生成方法及系统 |
CN117408094A (zh) * | 2023-12-15 | 2024-01-16 | 成都大征创智科技有限公司 | 基于物理特性材质贴图的红外辐射仿真方法 |
CN117408094B (zh) * | 2023-12-15 | 2024-02-23 | 成都大征创智科技有限公司 | 基于物理特性材质贴图的红外辐射仿真方法 |
CN117830530A (zh) * | 2024-01-04 | 2024-04-05 | 北京中科卓锐科技有限公司 | 用于红外仿真模拟的数据处理方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111223191A (zh) | 面向机载增强合成视景系统的大规模场景红外成像实时仿真方法 | |
CN107452048B (zh) | 全局光照的计算方法及装置 | |
Greene | Environment mapping and other applications of world projections | |
Yu et al. | Recovering photometric properties of architectural scenes from photographs | |
CN107341853B (zh) | 超大虚拟场景和动态摄屏的虚实融合方法及系统 | |
CN105006021B (zh) | 一种适用于快速点云三维重建的颜色映射方法及装置 | |
CN108932742B (zh) | 一种基于遥感图像分类的大规模红外地形场景实时渲染方法 | |
Kolivand et al. | Realistic real-time outdoor rendering in augmented reality | |
Okura et al. | Mixed-reality world exploration using image-based rendering | |
CN110908510A (zh) | 一种倾斜摄影建模数据在沉浸式显示设备中的应用方法 | |
US20230245396A1 (en) | System and method for three-dimensional scene reconstruction and understanding in extended reality (xr) applications | |
Kersten et al. | Automatic texture mapping of architectural and archaeological 3d models | |
Kolivand et al. | Covering photo-realistic properties of outdoor components with the effects of sky color in mixed reality | |
WO2008014384A2 (en) | Real-time scenery and animation | |
CN112634393A (zh) | 基于Web的临近空间大气风场实时自适应可视化方法 | |
CN107301633B (zh) | 在云雾干扰下遥感成像的仿真方法 | |
WO2022135942A1 (en) | Method for assessing the physically based simulation quality of a glazed object | |
CN105976423B (zh) | 一种镜头光晕的生成方法和装置 | |
CN112258621B (zh) | 一种用于实时观测三维渲染二维动画的方法 | |
CN116894922A (zh) | 一种基于实时图形引擎的夜视图像生成方法 | |
Kennie et al. | Modelling for digital terrain and landscape visualisation | |
Stojanov et al. | Application of 3ds Max for 3D Modelling and Rendering | |
CN110889889A (zh) | 应用在沉浸式显示设备中倾斜摄影建模数据生成方法 | |
Ren et al. | A survey on image-based approaches of synthesizing objects | |
Navvab et al. | Evaluation of historical museum interior lighting system using fully immersive virtual luminous environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200602 |