CN107977511A - 一种基于深度学习的工业品外观材质高保真实时仿真算法 - Google Patents
一种基于深度学习的工业品外观材质高保真实时仿真算法 Download PDFInfo
- Publication number
- CN107977511A CN107977511A CN201711239384.2A CN201711239384A CN107977511A CN 107977511 A CN107977511 A CN 107977511A CN 201711239384 A CN201711239384 A CN 201711239384A CN 107977511 A CN107977511 A CN 107977511A
- Authority
- CN
- China
- Prior art keywords
- image
- design material
- industrial
- industrial design
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Computation (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于深度学习的工业品外观材质高保真实时仿真算法,包括:步骤1,采集工业品外观材质的光照属性数据,并依据光照属性数据构建工业品仿真模型;步骤2,在虚拟空间中利用真实环境的光照信息照亮所述工业品仿真模型,在虚拟空间中随机选取若干视点位置,针对每个视点位置分别绘制完善图像和不完善图像,利用完善图像和不完善图像训练对抗生成网络模型的判别器,得到训练好的对抗生成网络模型;步骤3,在实时仿真过程中,基于所述工业品仿真模型计算部分像素的颜色,然后利用训练好的对抗生成网络模型生成最终图像。本发明提供的工业品外观材质高保真实时仿真算法,可以实时得到高保真效果的工业品外观材质仿真结果。
Description
技术领域
本发明涉及计算机虚拟仿真技术领域,具体涉及一种基于深度学习的工业品外观材质高保真实时仿真算法。
背景技术
目前工业品的设计与制作都已经实现数字化,工业品的几何形状以及外观等都采用虚拟原型来制作,设计和制作的决策也是基于该“虚拟原型”,只有虚拟空间显示的工业品外观足够真实,也即虚拟空间内的工业品对光照等的反应和现实世界足够接近才能够满足实际制造的需要。
目前在工业品外观设计制作的时候,最常用的技术是压缩感知技术,压缩感知(Compressive Sensing-CS)是建立在矩阵分析、统计概率论、拓扑几何、优化与运筹学、泛函分析与时频分析等基础上的一种新的信号描述与处理的理论框架。压缩感知技术主要被用在宽带信号处理、压缩成像、压缩机器学习等方面。
Bai H等人提出的基于低速率采样压缩感知的UWB回声信号探测[Bai H,Zhang M,Wang A,et al.Stereo video coding using distributed compressive sensing withjoint dictionary[C].international conference on image processing, 2012:889-892.];Yang J等人提出的阶层加权码和限制性整数压缩感知 [Yang J,Thompson J,HuangX,et al.Segmented Reconstruction for Compressed Sensing SAR Imaging[J].IEEETransactions on Geoscience and Remote Sensing,2013,51(7):4214-4225.];以及Willet R等人提出的压缩感知超宽带信道估计[Willet R.Compressed Sensing forpractical optical imaging systems:A tutorial[J].Optical Engineering,2011,50(7).]。
Yang等人将CS应用到高分辨率雷达探测中[Yang Z,Zhang C,Xie L,etal.Robustly Stable Signal Recovery in Compressed Sensing With StructuredMatrix Perturbation[J].IEEE Transactions on Signal Processing,2012,60(9):4658-4671.],通过发射充足的“不相关”脉冲,利用CS技术来获得高分辨的目标探测性能。在国内中科院电子所、北京航空航天大学、西安电子科技大学、清华大学、上海交通大学等单位开展“稀疏微波成像”的研究。此外,Blumensath等人将压缩感知用于处理网络数据,提出了网络数据压缩感知[Blumensath T.Compressed Sensing With NonlinearObservations and Related Nonlinear Optimization Problems[J].IEEE Transactionson Information Theory,2013,59(6):3466-3474.]。
总之,压缩感知理论利用了信号的稀疏特性,将原来基于奈奎斯特采样定理的信号采样过程转化为基于优化计算恢复信号的观测过程。在压缩观测方面,目前的做法大都采用线性观测的方式,如果能考虑实际环境中的可能噪声,在观测时引入某些局部的非线性操作,将有望得到更加鲁棒的观测;在优化重建方面,如果能联合信号的先验和稀疏性先验求解优化问题,将有望得到更好的恢复效果。
尽管压缩感知被用在很多方面,但是将实际测量的数据用于仿真建模以及虚拟再现方面的研究还没有展开。
发明内容
本发明提供了一种基于深度学习的工业品外观材质高保真实时仿真算法,可以实时得到高保真效果的工业品外观材质仿真结果。
一种基于深度学习的工业品外观材质高保真实时仿真算法,包括:
步骤1,采集工业品外观材质的光照属性数据,并依据光照属性数据构建工业品仿真模型;
步骤2,在虚拟空间中利用真实环境的光照信息照亮所述工业品仿真模型,在虚拟空间中随机选取若干视点位置,针对每个视点位置分别绘制完善图像和不完善图像,将相同视点的完善图像和不完善图像作为一对输入,训练对抗生成网络模型的判别器,得到训练好的对抗生成网络模型;
步骤3,在实时仿真过程中,基于所述工业品仿真模型计算部分像素的颜色,然后利用训练好的对抗生成网络模型生成最终图像。
本发明利用对抗生成网络模型学习工业品外观仿真计算时生成的蒙特卡洛噪声以及补全未完全计算的像素,在金属实时仿真时,利用训练好的对抗生成网络模型去除噪声以及填补未完全计算的图像像素,缩小计算时间,同时提高计算的保真度,最终得到保真效果非常好的工业品外观材质仿真结果,在速度上可以达到实时。
步骤1中,所述光照属性数据包括实际测量的工业品对各种光线的反射、折射数据,通过对真实工业品外观材质数据的光线测量数据进行拟合,得到所述工业品仿真模型,也即工业品外观材质的高级反射模型,并利用该工业品仿真模型设定真实工业品外观材质的参数。
对工业品外观材质进行建模时,很难通过人工方法对参数进行建模,而且建模结果通常会有人工的痕迹,仿真的效果不太尽如人意。基于计算机模型和工业品外观材质的实际测量数据,可以构建保真度极好的工业品外观材质仿真结果,也即得到令人信服的虚拟工业品外观的效果。
对于具有类似镜面高光反射的工业品外观材质,用传统的笛卡尔坐标系模型很难表示,因此,优选地,步骤1中,将光照属性数据转化为基于空间向量的参数化表示,并在基于空间向量的参数化坐标系中构建所述工业品仿真模型。
作为优选,步骤1中,工业品外观材质的光照属性数据划分为漫反射部分、半镜面高光部分和镜面高光部分,各部分采用不同采集方法。
在实际测量工业品外观材质的光照属性数据时,采用非线性测量方法,针对强度大的镜面高光,非线性测量方法效果尤佳。
在虚拟空间中,利用提前采集到的真实环境的高动态光照信息照亮虚拟的工业品仿真模型,即将环境光的信息输入到仿真模型中去,得到仿真效果十分接近真实光照下的情况。
对实际采集到的真实环境的高动态环境光进行离散化,在仿真的时候,随机选择一定数量的环境光线(一般是几十条),这种计算方法由于计算时间较长,在实时应用过程中不是很合适,为了提高计算的速度,本申请采用深度学习来提高绘制的速度。
工业品外观材质仿真的速度和质量取决于离散化环境光的个数,环境光中的镜面高光采样的数量、仿真过程中采用的反走样像素的数量、绘制像素的个数,通过调整这些参数能够调和工业品外观材质仿真的速度和质量。
为了使仿真效果更好,减少仿真结果中的噪声,在步骤2中训练一个对抗生成网络模型,该对抗生成网络模型学习去噪仿真时的蒙特卡洛噪声以及未被计算的像素。步骤2中,视点位置的数量为1万~10万个。步骤2 中,将真实环境的光照信息离散化后照亮所述工业品仿真模型。
作为优选,步骤2中,通过调整真实环境光照信息中,离散化环境光的个数、环境光中镜面高光的采样数量、反走样像素的数量、以及绘制像素的个数,相应生成完善图像和不完善图像,其中不完善图像绘制像素的个数为完善图像的50%~70%。
生成完善图像和不完善图像时,离散化环境光的个数、环境光中镜面高光的采样数量、反走样像素的数量、以及绘制像素的个数均不相同,完善图像中各数值较大,完善图像的生成时间也较长,不完善图像中各数值较小,不完善图像的生成时间也较短。
作为优选,步骤3中,在实时仿真过程中,对高动态的环境光进行离散化,然后随机选择方向决定照射工业品仿真模型的环境光强度。
进一步优选,步骤3,在实时仿真过程中,首先,基于所述工业品仿真模型生成不完善图像;然后,将不完善图像中的已有像素作为约束补全未计算的图像像素,生成完整图像;最后,在完整图像基础上,利用训练好的对抗生成网络模型生成最终图像。
本发明利用对抗生成网络模型学习仿真过程中的蒙特卡洛噪声以及未被计算的像素,在实时仿真过程中,仅仅计算部分像素的颜色,未计算像素的颜色通过已经训练好的对抗生成网络模型来实时生成,利用对抗生成网络模型来去除蒙特卡洛噪声,提高仿真的图像效果,最终得到高保真效果非常好的工业品外观材质仿真结果,在速度上可以达到实时。
具体实施方式
下面对本发明基于深度学习的工业品外观材质高保真实时仿真算法做详细描述。
(1)工业品外观材质光照属性数据采集和建模。
对具有镜面高光的工业品外观材质,用笛卡尔坐标系表达会导致数据量很大,因此,本发明采用一个基于空间向量的参数化模型表示,该表示能够非常高效地表示镜面高光的光照属性模型。
在进行工业品外观材质的光照属性数据采集时,并非所有位置的数据都采集,如果某一个位置没有数据被采集,则利用相邻位置的数据进行插值得到。
对强度大的具有镜面高光的材质来说,本发明构建的工业品外观仿真模型能够表现出很好的性能,仿真模型Mr表示为:
其中:
z为工业品模型的数据几何点;
t为几何z点的法向量;
为入射光的方向;
为出射光的方向;
T为能够产生镜面高光面片的数量;
Sd为漫反射光的系数;
Ss为镜面高光的系数;
m为分布参数;
r为模型参数;
A为工业品微表面中指向视点方向的表面数量;
M为模型的反射系数,反应一个高光微表面的光照属性;
O为光照的衰减系数。
把Sd和Ss作为某一个颜色通道的颜色(RGB)值,分布参数m和模型参数r是可以调节的参数,构建仿真模型Mr的能量方程如下:
其中,β为调整的某点的光照属性值;
R为测量的某点的光照属性值;
γ表示角度参数;
表示要调整的参数;
σ(C)是模型的规则化项;
常量ε的值介于0~1之间,根据实际仿真的需要可以动态地调整。
(2)利用采集的真实环境的光照信息照亮工业品仿真模型,训练对抗生成网络模型,使对抗生成网络模型能够自动去除蒙特卡洛噪声,并能够自动补全没有计算的图像像素。
为了仿真工业品模型的真实环境,本发明中使用利用特殊设备采集的高动态真实环境全景图,按照Zang A et al(Rendering Synthetic Objects into Full PanoramicScenes using Light-depth Maps[C]//International Conference on ComputerGraphics Theory and Applications and International Conference on InformationVisualization Theory and Applications.2013.)的方法建模环境光,使用采集的包含环境光照信息的高动态全景图作为工业品的虚拟环境(也即虚拟空间)。
实际的工业品外观材质仿真过程中,利用下面的公式计算工业品仿真模型表面的几何点p的颜色,几何点p上的表面法向量为n。
其中,p为工业品仿真模型上的几何点;
n为p点上的法向量;
为点p上的入射光方向;
为点p上的出射光方向;
是p点的最后计算出来的光照亮度;
是p点本身发出的光照亮度(对于一些不发光的材质,该项为0);
是p点的入射光的光照亮度;
Mr是本发明构建的工业品仿真模型函数。
在计算机图形学领域已经提出了很多方法来计算上述的公式,最常用的就是monte carlo方法,但是,如果只有采集到的很少的信息,只能对其中重要的模型项进行计算,仿真的结果含有很多噪声,效果不好,同时还需要很长的仿真时间。
本发明采用对抗生成网络来去除噪声,同时补全没有计算的像素,具体的过程如下:
在360度的虚拟空间中随机选择1万~10万个视点位置,在每个视点位置分别计算该视点处的仿真模型绘制得到完善图像和不完善图像,利用相同视点的不完善的图像和完善的图像作为一对输入,训练对抗生成网络模型的判别器。
完善图像的噪声很少,噪声的多少主要取决于仿真过程中离散化环境光的个数、环境光中的镜面高光采样数量以及仿真过程中采用的反走样像素的数量,为了减少噪声,这些数量可以取得相对大一些,仿真的时间长一些,每个视点仿真图像生成大约需要1个小时,所有视点的完善图像生成需要一个月甚至更长时间。
不完善图像的噪声较多,通常随机去除一定的绘制像素,一般可以选择去除30%~50%绘制像素,离散化环境光的个数、环境光中的镜面高光采样数量以及仿真过程中采用的反走样像素的数量选择可以少一些,这样绘制出的图像速度较快,但是图像的像素有缺失,同时即使绘制出的图像像素也包含较多的蒙特卡洛噪声。
进行上述完善图像和不完善图像绘制计算时,采用实际采集到的全景图来模拟实际的环境光照,忽略从其它物体传来的漫反射光,可以考虑入射光采样将全景图离散化成许多方向的光束,其中,为离散后的光束方向,Id是方向发出的光照强度。
工业品仿真模型上点p的仿真着色公式如下:
其中p是工业品模型上的几何点;
n为p点上的法向量;
N为离散后光束个数;
为离散后的光束方向;
为点p上的出射光方向;
为p点的最后计算的光照亮度;
Id为p点在入射光强度;
Mr为本发明构建的工业品仿真模型函数。
为了获得好的环境光离散采样结果,随机采样u个方向(即随机的方向)满足传统的概率分布函数约束,在理想情况下,概率分布函数与本发明提出的工业品仿真模型函数Mr成比例,用光线跟踪u个随机离散采样方向的光照亮度,可以得到如下的公式:
其中,s为随机采样方向的个数;
x是工业品模型上的几何点;
为点p上的出射光的方向;
为点p上的随机采样方向;
为光线跟踪的计算函数,计算最靠近方向的几何点p);
Mr是本发明提出的工业品仿真模型函数;
pdff为概率密度分布函数,在理想状态下和工业品仿真模型函数Mr成正比。
(3)依据工业品仿真模型对工业品外观材质进行实时仿真。
工业品外观材质的实际测量数据可以划分为漫反射部分,半镜面高光部分以及镜面高光部分,对每个部分用不同的采样策略。
在采样的时候为了寻找一个符合实际需要的概率密度分布函数pdff,本发明采用了如下的函数:
其中,γ是概率分布的参数;
n为
是方向角;
给定一系列按照统一分布的随机数r1和r2,可以求得分布为pdff(h·n) 的随机的空间向量
其中,n为
为空间的方向角;
为空间的方位角。
得到分布函数pdff(h·n)后,通过对相反方向进行镜像,向外发出的方向加上可以求出输入的仿真模型采样方向概率密度分布函数pdff的转换通过除以而得到。
在实时仿真的时候,采用上述的采样策略,采用步骤(2)中的不完善图像的绘制方法得到一些带有噪声以及未计算图像像素的图像,然后利用已经训练好的对抗生成网络的生成器来生成新的高质量的图像。
在生成的时候,可以将不完善图像中的已经有的像素作为约束来补全生成未计算的图像像素,构成一幅完整的带有噪声的图像,然后再利用已经训练好的对抗生成网络生成器再次生成没有噪声的图像,最终实现图像的高保真绘制,同时绘制速度得到了大幅的提高。
根据上述说明书的揭示和教导,本发明所属领域的技术人员还可以对上述实施方式进行适当的变更和修改。因此,本发明并不局限于上面揭示和描述的具体实施方式,对本发明的一些修改和变更也应当落入本发明的权利要求的保护范围内。此外,尽管本说明书中使用了一些特定的术语,但这些术语只是为了方便说明,并不对本发明构成任何限制。
Claims (8)
1.一种基于深度学习的工业品外观材质高保真实时仿真算法,其特征在于,包括:
步骤1,采集工业品外观材质的光照属性数据,并依据光照属性数据构建工业品仿真模型;
步骤2,在虚拟空间中利用真实环境的光照信息照亮所述工业品仿真模型,在虚拟空间中随机选取若干视点位置,针对每个视点位置分别绘制完善图像和不完善图像,将相同视点的完善图像和不完善图像作为一对输入,训练对抗生成网络模型的判别器,得到训练好的对抗生成网络模型;
步骤3,在实时仿真过程中,基于所述工业品仿真模型计算部分像素的颜色,然后利用训练好的对抗生成网络模型生成最终图像。
2.如权利要求1所述的基于深度学习的工业品外观材质高保真实时仿真算法,其特征在于,步骤1中,将光照属性数据转化为基于空间向量的参数化表示,并在基于空间向量的参数化坐标系中构建所述工业品仿真模型。
3.如权利要求1所述的基于深度学习的工业品外观材质高保真实时仿真算法,其特征在于,步骤1中,工业品外观材质的光照属性数据划分为漫反射部分、半镜面高光部分和镜面高光部分,各部分采用不同采集方法。
4.如权利要求1所述的基于深度学习的工业品外观材质高保真实时仿真算法,其特征在于,步骤2中,视点位置的数量为1万~10万个。
5.如权利要求1所述的基于深度学习的工业品外观材质高保真实时仿真算法,其特征在于,步骤2中,将真实环境的光照信息离散化后照亮所述工业品仿真模型。
6.如权利要求5所述的基于深度学习的工业品外观材质高保真实时仿真算法,其特征在于,步骤2中,通过调整真实环境光照信息中,离散化环境光的个数、环境光中镜面高光的采样数量、反走样像素的数量、以及绘制像素的个数,相应生成完善图像和不完善图像,其中不完善图像绘制像素的个数为完善图像的50%~70%。
7.如权利要求1所述的基于深度学习的工业品外观材质高保真实时仿真算法,其特征在于,步骤3中,在实时仿真过程中,对高动态的环境光进行离散化,然后随机选择方向决定照射工业品仿真模型的环境光强度。
8.如权利要求7所述的基于深度学习的工业品外观材质高保真实时仿真算法,其特征在于,步骤3,在实时仿真过程中,首先,基于所述工业品仿真模型生成不完善图像;然后,将不完善图像中的已有像素作为约束补全未计算的图像像素,生成完整图像;最后,在完整图像基础上,利用训练好的对抗生成网络模型生成最终图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711239384.2A CN107977511A (zh) | 2017-11-30 | 2017-11-30 | 一种基于深度学习的工业品外观材质高保真实时仿真算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711239384.2A CN107977511A (zh) | 2017-11-30 | 2017-11-30 | 一种基于深度学习的工业品外观材质高保真实时仿真算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107977511A true CN107977511A (zh) | 2018-05-01 |
Family
ID=62008651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711239384.2A Withdrawn CN107977511A (zh) | 2017-11-30 | 2017-11-30 | 一种基于深度学习的工业品外观材质高保真实时仿真算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107977511A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109284280A (zh) * | 2018-09-06 | 2019-01-29 | 百度在线网络技术(北京)有限公司 | 仿真数据优化方法、装置及存储介质 |
CN109829260A (zh) * | 2019-03-29 | 2019-05-31 | 江苏精研科技股份有限公司 | 一种5g高速风扇的仿真设计方法 |
CN110035271A (zh) * | 2019-03-21 | 2019-07-19 | 北京字节跳动网络技术有限公司 | 保真图像生成方法、装置及电子设备 |
CN117474921A (zh) * | 2023-12-27 | 2024-01-30 | 中国科学院长春光学精密机械与物理研究所 | 基于镜面高光去除的抗噪光场深度测量方法、系统及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103035025A (zh) * | 2012-12-28 | 2013-04-10 | 浙江大学 | 基于brdf实测数据的材质高真实感渲染算法 |
US20160358038A1 (en) * | 2015-06-05 | 2016-12-08 | Google Inc. | Spatial transformer modules |
CN106683048A (zh) * | 2016-11-30 | 2017-05-17 | 浙江宇视科技有限公司 | 一种图像超分辨率方法及设备 |
CN107133934A (zh) * | 2017-05-18 | 2017-09-05 | 北京小米移动软件有限公司 | 图像补全方法及装置 |
CN107154023A (zh) * | 2017-05-17 | 2017-09-12 | 电子科技大学 | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 |
-
2017
- 2017-11-30 CN CN201711239384.2A patent/CN107977511A/zh not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103035025A (zh) * | 2012-12-28 | 2013-04-10 | 浙江大学 | 基于brdf实测数据的材质高真实感渲染算法 |
US20160358038A1 (en) * | 2015-06-05 | 2016-12-08 | Google Inc. | Spatial transformer modules |
CN106683048A (zh) * | 2016-11-30 | 2017-05-17 | 浙江宇视科技有限公司 | 一种图像超分辨率方法及设备 |
CN107154023A (zh) * | 2017-05-17 | 2017-09-12 | 电子科技大学 | 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法 |
CN107133934A (zh) * | 2017-05-18 | 2017-09-05 | 北京小米移动软件有限公司 | 图像补全方法及装置 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109284280A (zh) * | 2018-09-06 | 2019-01-29 | 百度在线网络技术(北京)有限公司 | 仿真数据优化方法、装置及存储介质 |
CN109284280B (zh) * | 2018-09-06 | 2020-03-24 | 百度在线网络技术(北京)有限公司 | 仿真数据优化方法、装置及存储介质 |
CN110035271A (zh) * | 2019-03-21 | 2019-07-19 | 北京字节跳动网络技术有限公司 | 保真图像生成方法、装置及电子设备 |
CN110035271B (zh) * | 2019-03-21 | 2020-06-02 | 北京字节跳动网络技术有限公司 | 保真图像生成方法、装置及电子设备 |
CN109829260A (zh) * | 2019-03-29 | 2019-05-31 | 江苏精研科技股份有限公司 | 一种5g高速风扇的仿真设计方法 |
CN109829260B (zh) * | 2019-03-29 | 2023-04-18 | 江苏精研科技股份有限公司 | 一种5g高速风扇的仿真设计方法 |
CN117474921A (zh) * | 2023-12-27 | 2024-01-30 | 中国科学院长春光学精密机械与物理研究所 | 基于镜面高光去除的抗噪光场深度测量方法、系统及介质 |
CN117474921B (zh) * | 2023-12-27 | 2024-05-07 | 中国科学院长春光学精密机械与物理研究所 | 基于镜面高光去除的抗噪光场深度测量方法、系统及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107977511A (zh) | 一种基于深度学习的工业品外观材质高保真实时仿真算法 | |
Kallweit et al. | Deep scattering: Rendering atmospheric clouds with radiance-predicting neural networks | |
CN111814875B (zh) | 基于样式生成对抗网络的红外图像中舰船样本扩充方法 | |
CN111709902A (zh) | 基于自注意力机制的红外和可见光图像融合方法 | |
CN111223191A (zh) | 面向机载增强合成视景系统的大规模场景红外成像实时仿真方法 | |
CN106226817B (zh) | 基于连续平行坐标的多属性地震数据可视化方法 | |
CN112634393A (zh) | 基于Web的临近空间大气风场实时自适应可视化方法 | |
Tu | (Retracted) Computer hand-painting of intelligent multimedia images in interior design major | |
Li et al. | Blinkflow: A dataset to push the limits of event-based optical flow estimation | |
CN116630495B (zh) | 基于aigc算法的虚拟数字人模型规划系统 | |
Du | Research on optimization of portrait sculpture data based on 3D image and mobile edge computing | |
JP2006260408A (ja) | ボリュームデータレンダリングシステムおよびボリュームデータレンダリング処理方法 | |
CN112634456B (zh) | 基于深度学习的复杂三维模型的实时高真实感绘制方法 | |
Qi et al. | Visual communication-based virtual reality design of imaging information collection and display system | |
CN113240610B (zh) | 一种基于仿人眼机制的双通道鬼成像重建方法及系统 | |
CN111860328B (zh) | 一种基于双向反射函数和森林场景光照效果建模的生物量估算方法 | |
CN104777329B (zh) | 一种用于粒子图像测速三维粒子场重构的线性规划算法 | |
DE102022100517A1 (de) | Verwenden von intrinsischen funktionen zum schattenentrauschen in raytracinganwendungen | |
Zhang et al. | New Image Processing: VGG Image Style Transfer with Gram Matrix Style Features | |
Xu et al. | Research on computer graphics and image design and visual communication design | |
CN116051696B (zh) | 一种可重光照的人体隐式模型的重建方法和装置 | |
Li et al. | Reconstruction of Film and TV Scenes Based on Computer-Aided Design and Machine Vision | |
Liu et al. | Three-Dimensional Modeling Technology of Virtual Plant in Digital Landscape | |
CN117541711A (zh) | 一种基于神经渲染的真实感场景绘制方法 | |
Zhang et al. | Depth Learning Method of Many Light Rendering based on Matrix Row and Column Sampling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180501 |
|
WW01 | Invention patent application withdrawn after publication |