CN109448098B - 一种基于建筑物单张夜景图像重建虚拟场景光源的方法 - Google Patents
一种基于建筑物单张夜景图像重建虚拟场景光源的方法 Download PDFInfo
- Publication number
- CN109448098B CN109448098B CN201811146937.4A CN201811146937A CN109448098B CN 109448098 B CN109448098 B CN 109448098B CN 201811146937 A CN201811146937 A CN 201811146937A CN 109448098 B CN109448098 B CN 109448098B
- Authority
- CN
- China
- Prior art keywords
- light source
- model
- visible
- building
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/55—Radiosity
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种基于建筑物单张夜景图像重建虚拟场景光源的方法,输入是建筑物3D模型及其对应的真实夜景图像,输出是一组光源参数使得该建筑物对应的3D模型在该组光源作用下的渲染效果与输入图像相似,包括以下步骤:标定相机参数,根据像素相似性信息对模型表面可见点进行聚类,然后为每组可见点分配一个虚拟光源,按给定着色模型、光源类型设置好光源参数初值后开始迭代优化光源的位置及颜色信息,然后固定迭代优化得到的光源位置和光源颜色,进行一次全局优化更新颜色强度值,以处理组间光源的相互影响。最后,综合考虑模型对称性与光源分布的不均衡性找到一个对称面,生成模型不可见一侧的光源。
Description
技术领域
本发明属于虚拟光源重建技术领域,具体涉及基于建筑物单张夜景图像的虚拟场景光源的重建方法。
背景技术
虚拟世界日益增长的复杂度及用户对于真实感和细节层次期望的增长,对内容创造提出了很高的挑战。虚拟场景建模一直是虚拟现实的重要研究方向之一。随着计算机视觉、测量摄影学、计算机图形学等技术的不断发展,以及测量、扫描等硬件几何信息获取设备的不断更新,人们能够进行几何建模的对象形状越来越复杂,场景规模越来越大。这些建立好的三维几何模型细节丰富,精度高,是为虚拟现实、计算机动画、视景仿真等应用提供良好沉浸感的必要条件。光照作为着色计算的重要部分却被忽视了。通常,光源是场景的一部分。如何合理的放置光源以获得期望的照明效果常常是困难且乏味的。这个设计任务包括要达到什么样的照明效果,需要安置的光源的数目、类型、位置并且调节各个光源的参数。确定一个合适的光源配置通常不是简单明了的。考虑到遮挡和几何约束,某一个顶点并不会受到所有光源的影响。因此,即使是训练有素的专家通常也需要很多次迭代才能达到一个理想的照明效果。随着虚拟现实技术在视景仿真、动画制作、电影制作、游戏等应用领域地不断扩展,以及在特定专业领域内应用深度的加深,许多应用除了对白天正常光下的视景模拟需求,还需要对大规模场景进行夜景模拟。这些都为复杂场景多光源的高效和高沉浸感建模提出了新的技术挑战。为了满足这些需求,负责建模的美术人员在完成场景三维几何模型建模之后,往往需要投入大量的时间对场景中的光源进行设计,尤其是当场景中的光源数量较大,场景的模型几何结构较为复杂或场景规模较大时。为了达到一定的光照效果,即使是非常有经验的美术人员也需要进行迭代式的光源调节,操作繁琐,时间开销大。
目前在三维场景中进行多光源建模方面已经开展了一些研究工作,研究者主要进行了以下几个方面的研究。
使用草图系统的照明设计:这类方法首先提供一些简单的交互界面,用户通过交互界面来编辑场景的预期光照效果,然后算法以这些效果图像为输入,使用优化算法来搜索合适的光源参数,包括光源个数、光亮度、位置等内容。在优化过程中,这些图像信息将作为约束信息来引导启发式搜索。Marks等人提出了一个设计画廊系统,通过用户交互界面帮助设计者探索一个非常大的参数空间来达到一个满足预期的照明效果,他们的系统利用计算机作为工具来估计光源配置而不是设计者。Poulin等人提出了一个草图界面,用户可以在其中指定椭球体对象的高光和阴影(包括半影和阴影)的约束。他们的系统可以自动计算点光源和面光源的位置。Pellacini提出了一个伟大的照明设计系统,照明设计师在2D图像平面上绘制所需的照明效果,他们的系统来解决光照参数以达到期望的效果,照明设计师可以使用一套用于绘画的工具来绘制颜色,光线形状,阴影,高光和反射。但是,他们的系统只允许一个设计师一次添加或删除一个灯。这个功能对设计师来说可能并不直观,因为他们可能同时绘制多个灯光的照明效果。在某些情况下,照明设计师可能只知道如何设置气氛作为一个整体,但并不一定意识到单个灯的贡献。
使用高级描述的照明设计:除了将所需的照明效果绘制到场景中之外,一些研究人员还使用高级描述来指导逆照明问题。为了更好地对几何对象进行呈现,一些研究者采用逆向光照的方法来提高人们对几何模型的视觉感官。Ram Shacked等发现当人们对几何对象进行观察时,有一些视觉感官非常重要,例如对象的几何形状、细节、表面属性和真实的感觉,因此,他们提出采用梯度、边缘、方差、均值、直方图等来定义代价函数并对这些视觉感官的量化度量,来优化光源数量和在某个方向上是否有效。在上述工作的基础上,Lee等对三维模型进行了局部子patch的划分,根据对象局部区域表面的高光、阴影和轮廓等,采用感官推理来增强几何对象的视觉效果。Jolivet使用简单的蒙特卡罗方法找到直射光线下的灯光位置。他们的系统允许用户使用语言描述来指定他们想要的照明效果。一般来说,使用高级描述的照明设计是不准确的,不能被用户容易地控制。
阴影特征引导的照明设计:点光源和聚光灯的阴影轮廓清晰,通过透视投影体现了场景光源和几何对象之间的位置关系,因此,有很多研究者采用阴影特征来指导光源参数的优化。Fabio Pellacini等将逆向光照方法应用在剧院舞台灯光设计中。该方法将舞台点光源、聚光灯的效果分类,抽象出一系列光照操作,例如移动阴影、放缩阴影、模糊阴影边界等,并且对应于这些操作,给出了如何更新光源参数的计算公式,包括点光源位置、光源方向、聚光灯位置等参数。随后,Fabio Pellacini和普林斯顿大学的研究者又将逆向光照方法应用于基于非真实感绘制的计算机生成油画中。用户和优化器以交错工作的方式不断细化阴影和光照颜色等内容,即:用户先绘制大致光照效果,给出重要性mask,采用基于单纯形的非线性优化方法对光源参数进行优化;然后用户对阴影边界和小面积物体表面进行光照的手工修改,随后算法进行优化光源参数,直到优化后的图像用户满意为止。
综上所述,使用草图系统的照明设计不足是操作复杂,设计师很难手工设计一个理想的照明效果。使用高级描述(如梯度、边缘、方差、均值、直方图等)的照明设计是往往是不准确的,而且这些描述不直观。阴影特征引导的照明设计不适用于光源数目较多的场景。
发明内容
本发明要解决的技术问题是:克服现有技术的不足,提供一种基于建筑物单张夜景图像重建虚拟场景光源的方法,利用很容易从互联网上获得的建筑夜景图像作为输入,避免手工设定目标光照效果。
本发明解决上述技术问题的技术方案为:一种基于建筑物单张夜景图像重建虚拟场景光源的方法,包括如下步骤:
(1)相机参数的估计。利用给出的图形界面在模型表面上以及输入图像中选定一组匹配点。根据匹配关系建立一组线性方程估计相机内参与外参。
(2)可见点聚类。利用步骤(1)估计的相机参数建立起输入图像中的有效像素及3D模型表面可见点的对应关系,将3D建筑模型表面可见点的位置、法线以及材质信息投影到离屏缓存中,然后从输入图像中采样得到每个可见点的目标颜色信息,按颜色强度值从大到小对这些可见点排序。维护一个可见点聚类的列表,依序扫描所有可见点,判断是否可以加入现存的某一聚类,如果不能则新建一个分组。
(3)光源参数优化。为步骤(2)中的每一组可见点分配一个光源,利用给定的着色模型和光源类型为光源参数设定初值,给定光源参数初值后利用两层的优化方法,第一层优化光源的位置及颜色信息,第二层固定光源位置及颜色,更新光源的强度。
(4)背面光源生成。利用模型的对称信息找到一组经过模型中心的平面,然后综合考虑对称性及平面两侧光源分布的不均衡性,找到一个最优的平面,然后利用该平面生成背面的光源。
所述步骤(2)具体实现如下:利用步骤(1)得到的相机参数将3D建筑模型表面可见点的位置、法线以及材质信息投影到离屏缓存中,然后从输入图像中采样得到每个可见点的目标颜色信息,按颜色强度值从大到小对这些可见点排序。维护一个像素聚类分组的列表G,初始时列表置空。依序处理所有的可见点p,判断p是否可以加入现存的某一聚类分组g,可以加入的条件为:p与g中所有可见点的给定距离度量小于某一阈值。如果没有找到适合p的g则为p新建一个分组加入到G中。
所述步骤(3)包括:为步骤(2)中的每一组可见点分配一个光源,利用给定的着色模型和光源类型为光源参数设定初值。具体设定如下:初始位置设定在聚类中心点c沿法线方向偏移一段距离,初始颜色设定为目标像素颜色除以可见点的漫反射颜色,然后根据着色模型(如:Lambertian模型)计算光源的衰减系数。给定初值后开始两层的迭代优化,首先利用共轭梯度下降的方法,以每组可见点的着色结果与目标颜色值的均方误差作为误差函数,不断迭代修改光源的位置及颜色信息以降低误差。然后在第二层优化中考虑到组间光源的相互影响,固定迭代优化得到的光源位置及颜色,更新所有光源的强度值。
所述步骤(4)具体实现为:首先进行体素化获得3D建筑模型的离散表示,扫描所有经过模型中心的平面,为每个平面计算一个对称值,选取一组对称值大(这里对称值大的定义为:按对称值从大到小对所有平面进行排序,记所有平面中最大的对称值为α,那么所有大于0.9α的对称值都称为对称值大)的平面作为候选平面,然后计算每个候选平面两侧光源不均衡分布值,利用这两个值加权得到每个平面的分值,然后选择一个分值最高的平面生成背面光源。然后遍历步骤(3)生成的所有光源,计算某一光源l关于该平面的对称位置处是否处于现有光源的照射范围内,如果没有则在该位置处放置一个新的光源。
本发明的原理:
(1)可见点聚类。
利用步骤(1)估计的相机参数建立起输入图像中的有效像素及3D建筑模型表面可见点的对应关系。利用可见点的3D位置、法线、材质及颜色信息对像素进行聚类,然后以聚类为单位进行光源的优化。
(2)两层光源参数优化。
为每一个可见点聚类分配一个光源,利用给定的着色模型和光源类型为光源参数设定初值,给定光源参数初值后利用两层的优化方法,第一层优化光源的位置及颜色信息,第二层固定光源位置及颜色,更新光源的强度。
(3)模型对称性描述。
生成背面光源时需要考虑模型的对称性。因为(2)中优化得到的光源位置位于3D建筑模型表面附近,所以利用3D建筑模型模型的对称性来生成背面光源。
本发明与之前的方法相比的优点在于:一是输入图像很容易从互联网上获取,不用手工设计目标光照,同时真实的夜景图像比手工绘制的目标图像包含更多的高频细节用以引导光源参数优化,优点是输入图像获取简单,而且这些真实拍摄的输入图像能够很好的引导光源参数的优化。二是本发明能够仅用一张图像生成模型背面的光源,这样做简化了输入,不需要多张图像而仅用一张照片就能生成背面光源,避免了多张图片多个视点下恢复得到的光源的合并和去重问题。而且节省了光源重建时间。
附图说明
图1为本发明方法整体流程图;
图2为本发明中相机标定结果示意图;
图3a为本发明中像素聚类结果;
图3b为本发明中光源参数初始化后的效果;
图4为本发明中两层优化后效果示意图;
图5为本发明中对称面示意图;
图6为本发明效果示意图。
具体实施方式
下面结合附图以及本发明的具体实施方式进一步说明本发明。
本发明基于建筑物单张夜景图像重建虚拟场景光源的方法,输入是建筑物3D模型及其对应的真实夜景图像,输出是一组光源参数使得该建筑物对应的3D模型在该组光源作用下的渲染效果与输入图像相似。
而整个重建方法包括以下步骤:如图1所示;
步骤(1)为相机参数的估计。如图2示,利用给出的图形界面在模型表面上以及输入图像中选定一组匹配点。根据匹配关系建立一组线性方程估计相机内参(焦距、像素宽高比及中心偏移)与外参(平移和旋转)。
步骤(2)中首先根据3D模型表面可见点的相似性进行聚类,如图3a所示。具体实现为利用步骤(1)得到的相机参数将3D建筑模型表面可见点的位置、法线以及材质信息投影到离屏缓存中,然后从输入图像中采样得到每个可见点的目标颜色信息,按颜色强度值从大到小对这些可见点排序。维护一个像素聚类分组的列表G,初始时列表置空。依序处理所有的可见点p,判断p是否可以加入现存的某一聚类分组g,可以加入的条件为:p与g中所有可见点的给定距离度量小于某一阈值(本发明实现中设定为模型包围盒对角线长度的5%)。如果没有找到适合p的g则为p新建一个分组加入到G中。
步骤(3)负责光源参数优化。首先需要利用给定的着色模型和光源类型为光源参数设定初值,如图3b所示。具体设定如下:利用公式(1),初始位置设定在聚类中心点c沿法线方向偏移一段距离:
l.position=c.position+c.normal*BIAS (1)
其中:l代指光源,c为聚类中心点,BIAS为偏移的距离。初始颜色设定为目标像素颜色除以可见点的漫反射颜色;然后根据着色模型(如:Lambertian模型)计算光源的衰减系数。给定初值后开始两层的迭代优化,优化结果如图4所示。首先利用共轭梯度下降的方法,以每组可见点的着色结果与目标颜色值的均方误差作为误差函数,误差函数具体形式为:
E(l)=∑p∈g||Lighting(p,l)-I(p)||2 (2)
其中E(l)代指误差,p为一个可见点,g为一个聚类,Lighting(p,l)为点p在光源l作用下的渲染结果,l(p)为目标光照颜色值。然后不断迭代修改光源的位置及颜色信息以降低误差;然后在第二层优化中考虑到组间光源的相互影响,固定迭代优化得到的光源位置及颜色,利用公式(3)更新所有光源的强度值。
l.intensity=l.intensity*scaleFactor (3)
其中l.intensity指光源l的强度值,scaleFactor是对光源l强度的放缩值。步骤(4)负责背面光源生成。利用3D建筑模型的对称信息找到一组经过模型中心的平面,然后综合考虑对称性及平面两侧光源分布的不均衡性,找到一个最优的平面,如图5所示,然后利用该平面生成背面的光源。具体实现为:首先进行体素化获得3D模型的离散表示,体素化的具体过程为:将模型的立方体包围盒等分成多个小的立方体,判断模型是否与每个小立方体相交。然后扫描所有经过3D建筑模型中心的平面,为每个平面计算一个对称值,选取一组对称值大(这里对称值大的定义为:按对称值从大到小对所有平面进行排序,记所有平面中最大的对称值为α,那么所有大于0.9α的对称值都称为对称值大)的平面作为候选平面,然后利用公式(4)计算每个候选平面两侧光源不均衡分布值,
其中UnBalanceRatio为不均衡分布值,negativeSideNumber为平面负方向一侧的光源数目,positiveSideNumber为平面正方向一侧的光源数目。最后利用对称值和不均衡分布值加权得到每个平面的分值,然后选择一个分值最高的平面生成背面光源。
本发明的实现使用的软件平台为Microsoft visual studio 2013与OpenGL,使用了Optix来进行阴影的计算。硬件平台为4.0GHz Inter(R)Core(TM)i7-7700 CPU、16GB内存以及NVIDIA GeForce GTX1080 GPU。方法效果图如图6所示,图像针对两种不同特征的建筑模型进行输出,第一排为大桥模型(20.4K三角面片),第二排为西安钟楼模型(812K三角面片)。第一列为输入图像,中间一列为相同视点下恢复的渲染效果图,第三列为不同视点下的渲染效果图。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。
Claims (7)
1.一种基于建筑物单张夜景图像重建虚拟场景光源的方法,其特征在于:包括以下步骤:
(1)相机参数的估计:利用给出的图形界面在3D建筑模型表面上以及输入图像中选定一组匹配点,根据匹配点的匹配关系建立一组线性方程,得到估计的相机参数;
(2)可见点聚类:利用步骤(1)估计的相机参数建立起输入图像中的有效像素及3D模型表面可见点的对应关系,将3D建筑模型表面可见点的位置、法线以及材质信息投影到离屏缓存中,然后从输入图像中采样得到每个可见点的目标,即3D建筑模型渲染得到的图像中,每个可见点对应的像素点的颜色信息,按照所述颜色信息中的颜色强度值从大到小对这些可见点排序,并维护一个可见点的聚类列表,依序扫描所有可见点,判断是否能够加入现存的可见点的聚类列表中的某一聚类,如果不能则新建一个分组;
(3)光源参数优化:为步骤(2)中的每一组的可见点分配一个光源,采用给定的着色模型和光源类型作为光源参数设定初值,然后利用两层的优化方法,即第一层优化光源的位置及颜色信息,第二层固定光源位置及颜色,更新光源的强度;
(4)背面光源生成:利用3D建筑模型的对称信息找到一组经过3D建筑模型中心的平面,然后依据对称性及平面两侧光源分布,找到一个最优的平面,利用该最优的平面生成背面光源。
2.根据权利要求1所述的基于建筑物单张夜景图像重建虚拟场景光源的方法,其特征在于:所述步骤(2)具体实现如下:
利用步骤(1)得到的相机参数将3D建筑模型表面可见点的位置、法线以及材质信息投影到离屏缓存中,然后从输入图像中采样得到每个可见点的目标颜色信息,按照颜色强度值从大到小对这些可见点排序,维护一个像素聚类分组的列表G,初始时列表置空,依序处理所有的可见点p,判断可见点p是否能够加入现存的某一聚类分组g;如果不能,则为可见点p新建一个分组加入到列表G中。
3.根据权利要求2所述的基于建筑物单张夜景图像重建虚拟场景光源的方法,其特征在于:所述判断可见点p是否能够加入现存的某一聚类分组g的加入的条件为:可见点p与某一聚类分组g中所有可见点的给定距离度量小于某一设定阈值。
4.根据权利要求1所述的基于建筑物单张夜景图像重建虚拟场景光源的方法,其特征在于:所述步骤(3)中,为每一组可见点分配一个光源,利用给定的着色模型和光源类型为光源参数设定初值的具体实现如下:初始位置设定在聚类中心点c沿法线方向偏移一段距离,初始颜色设定为目标像素颜色除以可见点的漫反射颜色;然后根据着色模型计算光源的衰减系数,给定初值后开始两层的迭代优化,再在第二层优化中考虑到组间光源的相互影响,固定迭代优化得到的光源位置及颜色,更新所有光源的强度值。
5.根据权利要求4所述的基于建筑物单张夜景图像重建虚拟场景光源的方法,其特征在于:所述迭代优化过程为:首先利用共轭梯度下降的方法,以每组可见点的着色结果与目标颜色值的均方误差作为误差函数,不断迭代修改光源的位置及颜色信息以降低误差。
6.根据权利要求4所述的基于建筑物单张夜景图像重建虚拟场景光源的方法,其特征在于:所述着色模型采用Lambertian模型。
7.根据权利要求1所述的基于建筑物单张夜景图像重建虚拟场景光源的方法,其特征在于:所述步骤(4)具体实现为:首先获得3D建筑模型的离散表示,扫描所有经过3D建筑模型中心的平面,为每个平面计算一个对称值,选取一组对称值大的平面作为候选平面,然后计算每个候选平面两侧光源不均衡分布值,利用对称值和不均衡分布值加权得到一个值作为每个平面的分值,然后选择一个分值最高的平面Q生成背面光源,然后遍历优化后的步骤(3)中为每组可见点分配的光源,计算某一光源关于平面Q的对称位置L处是否处于现有光源的照射范围内,如果没有,则在该位置L处放置一个新的光源。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811146937.4A CN109448098B (zh) | 2018-09-29 | 2018-09-29 | 一种基于建筑物单张夜景图像重建虚拟场景光源的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811146937.4A CN109448098B (zh) | 2018-09-29 | 2018-09-29 | 一种基于建筑物单张夜景图像重建虚拟场景光源的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109448098A CN109448098A (zh) | 2019-03-08 |
CN109448098B true CN109448098B (zh) | 2023-01-24 |
Family
ID=65544422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811146937.4A Active CN109448098B (zh) | 2018-09-29 | 2018-09-29 | 一种基于建筑物单张夜景图像重建虚拟场景光源的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109448098B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110648372B (zh) * | 2019-03-29 | 2022-04-22 | 完美世界(北京)软件科技发展有限公司 | 一种用于确定像素的颜色的方法及系统 |
CN112419492B (zh) * | 2020-12-14 | 2022-08-23 | 长春理工大学 | 视觉感知驱动蒙卡渲染像素路径采样数自适应控制方法 |
CN112884876A (zh) * | 2021-03-01 | 2021-06-01 | 镇江领通互动信息科技有限公司 | 支持昼夜交替的全局光照方法及计算机可读存储介质 |
CN117082359B (zh) * | 2023-10-16 | 2024-04-19 | 荣耀终端有限公司 | 图像处理方法及相关设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103337071A (zh) * | 2013-06-19 | 2013-10-02 | 北京理工大学 | 基于结构重建的皮下静脉三维可视化装置及方法 |
CN105447906A (zh) * | 2015-11-12 | 2016-03-30 | 浙江大学 | 基于图像和模型计算光照参数进行重光照渲染的方法 |
CN106709977A (zh) * | 2016-11-16 | 2017-05-24 | 北京航空航天大学 | 一种基于场景夜景图的光源自动排列方法 |
WO2017167084A1 (zh) * | 2016-03-29 | 2017-10-05 | 浙江大学 | 基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法 |
CN108460841A (zh) * | 2018-01-23 | 2018-08-28 | 电子科技大学 | 一种基于单幅图像的室内场景光照环境估计方法 |
-
2018
- 2018-09-29 CN CN201811146937.4A patent/CN109448098B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103337071A (zh) * | 2013-06-19 | 2013-10-02 | 北京理工大学 | 基于结构重建的皮下静脉三维可视化装置及方法 |
CN105447906A (zh) * | 2015-11-12 | 2016-03-30 | 浙江大学 | 基于图像和模型计算光照参数进行重光照渲染的方法 |
WO2017167084A1 (zh) * | 2016-03-29 | 2017-10-05 | 浙江大学 | 基于虚拟光源和自适应稀疏矩阵还原的全局光照绘制方法 |
CN106709977A (zh) * | 2016-11-16 | 2017-05-24 | 北京航空航天大学 | 一种基于场景夜景图的光源自动排列方法 |
CN108460841A (zh) * | 2018-01-23 | 2018-08-28 | 电子科技大学 | 一种基于单幅图像的室内场景光照环境估计方法 |
Non-Patent Citations (3)
Title |
---|
《Single Image Based Illumination Estimation for Lighting Virtual Object in Real Scene》;Xiaowu Chen等;《2011 12th International Conference on Computer-Aided Design and Computer Graphics》;20110917;全文 * |
《基于单视图的汽车造型数字化建模研究》;张学芳;《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》;20160315;全文 * |
基于单幅图像的三维建筑物交互累进式建模;缪永伟等;《计算机辅助设计与图形学学报》;20160915(第09期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109448098A (zh) | 2019-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10692277B1 (en) | Dynamically estimating lighting parameters for positions within augmented-reality scenes using a neural network | |
CN109448098B (zh) | 一种基于建筑物单张夜景图像重建虚拟场景光源的方法 | |
US11127198B2 (en) | Graphics processing using directional representations of lighting at probe positions within a scene | |
Sýkora et al. | Ink-and-ray: Bas-relief meshes for adding global illumination effects to hand-drawn characters | |
US7199793B2 (en) | Image-based modeling and photo editing | |
US8217940B2 (en) | Directable lighting method and apparatus | |
CN107341853B (zh) | 超大虚拟场景和动态摄屏的虚实融合方法及系统 | |
US6795069B2 (en) | Free-form modeling of objects with variational implicit surfaces | |
US20070038421A1 (en) | River Modeling | |
CN107392990B (zh) | 渲染3d场景的全局照明 | |
Zhang et al. | The discussion on interior design mode based on 3D virtual vision technology | |
DeCoro et al. | Stylized shadows | |
US9734616B1 (en) | Tetrahedral volumes from segmented bounding boxes of a subdivision | |
Dobashi et al. | Radiosity for point-sampled geometry | |
Krösl et al. | LiteMaker: Interactive Luminaire Development using Progressive Photon Tracing and Multi-Resolution Upsampling. | |
CN116194960A (zh) | 直接体积渲染设备 | |
US9639981B1 (en) | Tetrahedral Shell Generation | |
US8669980B1 (en) | Procedural methods for editing hierarchical subdivision surface geometry | |
CN117058301B (zh) | 一种基于延迟着色的针织物实时渲染方法 | |
US11727616B2 (en) | Contour lines for volumetric objects | |
US11657552B2 (en) | Generating illuminated two-dimensional vector graphics using path tracing | |
Ding et al. | Object Inflation for Artistic Augmentation in Images and Animations | |
Tu et al. | After Abstraction, before Figuration | |
Fabritius et al. | City virtualization | |
Dolgii et al. | Development of a Digital Concept Based on Solid 3D Objects Providing a Comfortable Working Environment for a Design Engineer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |