CN110189396B - 一种基于视觉的场景图构建方法、系统及相关装置 - Google Patents

一种基于视觉的场景图构建方法、系统及相关装置 Download PDF

Info

Publication number
CN110189396B
CN110189396B CN201910496826.4A CN201910496826A CN110189396B CN 110189396 B CN110189396 B CN 110189396B CN 201910496826 A CN201910496826 A CN 201910496826A CN 110189396 B CN110189396 B CN 110189396B
Authority
CN
China
Prior art keywords
different levels
data
scheduling
standard reference
reference distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910496826.4A
Other languages
English (en)
Other versions
CN110189396A (zh
Inventor
李斌
俞蔚
高冉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Kelan Information Technology Co ltd
Original Assignee
Zhejiang Kelan Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Kelan Information Technology Co ltd filed Critical Zhejiang Kelan Information Technology Co ltd
Priority to CN201910496826.4A priority Critical patent/CN110189396B/zh
Publication of CN110189396A publication Critical patent/CN110189396A/zh
Application granted granted Critical
Publication of CN110189396B publication Critical patent/CN110189396B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请提供一种基于视觉的场景图构建方法,包括:获取原数据及原数据的空间位置信息,并根据数据空间位置信息构建空间图结构;根据原数据得到不同层级的LOD数据;以预设物体铺满屏幕为条件,根据预设物体的包围球半径和相机张角定义标准参考距离;根据标准参考距离、缩放比例和层级数确定不同层级的调度距离;根据空间图结构、不同层级的LOD数据和不同层级的调度距离构建场景图。在标准参考距离的基础上计算不同层级的调度距离。在得到LOD数据的调度距离时,考量了物体与屏幕关系,可以保证不同大小的物体在屏幕上的调度效果一致。本申请还提供一种基于视觉的场景图构建系统、一种计算机可读存储介质和一种终端,具有上述有益效果。

Description

一种基于视觉的场景图构建方法、系统及相关装置
技术领域
本申请涉及三维设计领域,特别涉及一种基于视觉的场景图构建方法、系统及相关装置。
背景技术
三维模型是三维仿真的基础,三维场景中存在成千上万的模型数据,模型数据直接没有直接联系。数据如果全部作为对象,各自在场景中随机加载,数据加载过程较为复杂和缓慢。
为了提升三维平台数据的加载效率,对这些模型进行索引树构建,建立索引结构,对原数据进行调度。为了降低浏览系统的资源压力,对数据进行LOD(level of detail,层次细节模型)构建,然而现有技术难以在不同距离下调度相应精度的LOD层级数据,难以进行有效的三维仿真。
发明内容
本申请的目的是提供一种基于视觉的场景图构建方法、系统及相关装置,解决了现有技术中无法针对不同距离下相应精度LOD层级数据的调度问题。
为解决上述技术问题,本申请提供一种基于视觉的场景图构建方法,具体技术方案如下:
获取原数据及所述原数据的空间位置信息,并根据所述数据空间位置信息构建空间图结构;
根据所述原数据得到不同层级的LOD数据;
以预设物体铺满屏幕为条件,根据所述预设物体的包围球半径和相机张角定义标准参考距离;
根据所述标准参考距离、缩放比例和层级数确定不同层级的调度距离;
根据所述空间图结构、所述不同层级的LOD数据和所述不同层级的调度距离构建场景图。
其中,根据所述原数据得到不同层级的LOD数据,包括:
对所述原数据进行纹理缩放得到不同层级的LOD数据。
其中,对所述原数据进行纹理缩放得到不同层级的LOD数据包括:
对所述原数据先进行纹理缩放,再经过QEM几何简化,得到不同层级的LOD数据。
其中,所述不同层级的LOD数据包括精细层LOD数据、次精细层LOD数据和粗糙层LOD数据。
其中,所述预设物体为所述空间图中任意一个物体或预设标准参考物体。
其中,根据所述预设物体的包围球半径和相机张角定义标准参考距离包括:
根据所述预设物体的包围球半径、相机张角及第一预设公式定义标准参考距离;
其中,所述第一预设公式为standardRange=R/tan(fov/2),standardRange为标准参考距离,R为所述包围球半径,fov为相机张角。
其中,根据所述标准参考距离、缩放比例和层级数确定不同层级的调度距离包括:
根据所述标准参考距离、缩放比例和层级数和第二预设公式确定不同层级的调度距离;
其中,所述第二预设公式为range=standardRange*scalek,range为调度距离,scale为缩放比例,k为层级数。
本申请提供一种基于视觉的场景图构建系统,具体技术方案如下:
空间图构建模块,用于获取原数据及所述原数据的空间位置信息,并根据所述数据空间位置信息构建空间图结构;
LOD数据计算模块,用于根据所述原数据得到不同层级的LOD数据;
调度距离确定模块,用于以预设物体铺满屏幕为条件,根据所述预设物体的包围球半径和相机张角定义标准参考距离;根据所述标准参考距离、缩放比例和层级数确定不同层级的调度距离;
场景图构建模块,用于根据所述空间图结构、所述不同层级的LOD数据和所述不同层级的调度距离构建场景图。
本申请还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的场景图构建方法的步骤。
本申请还提供一种终端,包括存储器和处理器,所述存储器中存有计算机程序,所述处理器调用所述存储器中的计算机程序时实现如上所述的场景图构建方法的步骤。
本申请所提供的一种基于视觉的场景图构建方法,包括:获取原数据及原数据的空间位置信息,并根据数据空间位置信息构建空间图结构;根据原数据得到不同层级的LOD数据;以预设物体铺满屏幕为条件,根据预设物体的包围球半径和相机张角定义标准参考距离;根据标准参考距离、缩放比例和层级数确定不同层级的调度距离;根据空间图结构、不同层级的LOD数据和不同层级的调度距离构建场景图。
本申请通过先构建场景图所必须的空间图结构,再利用原数据得到不同层级的LOD数据,通过先建立标准参考距离,进而在标准参考距离的基础上计算不同层级的调度距离。在得到LOD数据的调度距离时,考量了物体与屏幕关系,可以保证不同大小的物体在屏幕上的调度效果一致。本申请还提供一种基于视觉的场景图构建系统、一种计算机可读存储介质和一种终端,具有上述有益效果,此处不再赘述。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例所提供的一种基于视觉的场景图构建方法的流程图;
图2为本申请实施例所提供的一种基于视觉的场景图构建系统的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参考图1,图1为本申请实施例所提供的一种基于视觉的场景图构建方法的流程图,该场景图构建方法包括:
S101:获取原数据及所述原数据的空间位置信息,并根据所述数据空间位置信息构建空间图结构;
本步骤旨在获取原数据以及原数据的空间位置信息,目的是需要建立场景图所必须的空间图结构。需要说明的是,在此对于空间图结构的类型不作限定,可以为树结构,也可以为图结构。例如,可以以R树为基础构建空间图结构。这里的原数据指原始精度的模型数据,包括人工建模生产的模型数据。主要指的是物体的信息,即三维空间中物体的大小、形状等数据,同样的,本步骤还需要获取该物体对应的空间位置信息。空间位置信息用于构建空间图结构。
S102:根据所述原数据得到不同层级的LOD数据;
本步骤需要构建不同层级的LOD数据,具体的,不同层级的LOD数据包括精细层LOD数据、次精细层LOD数据和粗糙层LOD数据。LOD实现了根据摄像机与物体的距离,决定使用哪一层数据。使用LOD是为了兼顾程序的运行效率与物体显示的精细程度。当物体离摄像机很远的时候,物体看起来就是一个点,这时候你使用再精细的层级,最终屏幕上成像也是一个点。而使用的层级越精细,所需要的计算量越大。所以当物体离相机远的时候,使用粗糙层,当物体离相机近的时候,使用精细层或者次精细层。
在得到不同层级的LOD数据时,可以通过对所述原数据进行纹理缩放得到不同层级的LOD数据。
纹理指的是一张表示物体表面细节的位图,纹理缩放指的是对纹理坐标的缩放。具体的缩放过程还需要考虑缩放比例等参数,在此不作具体限定。
进一步的,在进行纹理缩放的基础上,还可以对原数据先进行纹理缩放,再经过QEM几何简化,最终得到不同层级的LOD数据。
QEM指的是Quadric Error Mactrics,即二次误差测度,能在考虑颜色,纹理,拓扑等特征的条件下,对三维模型进行任意程度的简化。
QEM为常见的几何简化算法,本步骤还可以采用其他的几何简化方法或几何简化算法,在此不一一举例限定。
S103:以预设物体铺满屏幕为条件,根据预设物体的包围球半径和相机张角定义标准参考距离;
本步骤的重点是定义标准参考距离,为了确定不同层级的调度距离,需要先建立标准参考距离。铺满屏幕指的是在保证物体不溢出屏幕的前提下等比例扩大以最大覆盖屏幕。
具体的,本步骤可以以预设物体铺满屏幕为条件,根据预设物体的包围球半径、相机张角及第一预设公式定义标准参考距离;
其中,第一预设公式为standardRange=R/tan(fov/2),standardRange为标准参考距离,R为包围球半径,fov为相机张角。
物体的包围球半径指的是物体铺满屏幕时的大小对应的包围球半径,由于在三维空间中,物体由于尺寸标准不同,呈现在屏幕上的大小时有变化,类似于二维平面中电脑屏幕上的照片的缩放或放大,若将照片放大时,由于二维平面在查看放大的图片时通常限定了查看范围,照片在放大时仅显示一部分。由于每个物体的显示距离都和物体的屏幕占用产生联系,通过调整缩放比例和层级,能控制物体在屏幕最远显示距离后消失时候的屏幕占用,采用物体的包围球半径更容易调整让物体消失更快、或者消失更晚,不至于突兀。
需要注意的是,预设物体可以为空间图中任意一个物体或预设标准参考物体。在构建场景图时,可以选中空间图中任意一个物体作为基准的参考物体。可以理解的是,为了便于定义标准参考距离,通常选中的物体大小适宜,距离适中,便于其他物体以该物体作为基准建立相应的参考距离。当然,也可以在构建场景图时,以预设标准参考物体作为基准参考物体,此时在建立不同的场景图时,由于标准参考距离均由同样的基准参考物体得到,便于后续确定不同层级的调度距离,在相机张角相同的前提下统一了本领域技术人员在构建场景图结构时的标准参考距离。
S104:根据标准参考距离、缩放比例和层级数确定不同层级的调度距离;
本步骤旨在根据S103中得到的标准参考距离、缩放比例等确定不同层级的调度距离。具体的,可以根据标准参考距离、缩放比例和层级数和第二预设公式确定不同层级的调度距离;
需要注意的是,这里的缩放比例通常由经验得来。容易理解的是,物体消失时候屏幕占用越小、视觉越平滑,因此可以根据设想物体消失时候屏幕占用大小进行不断调整,以确定最佳的缩放比例。
其中,第二预设公式为range=standardRange*scalek,range为调度距离,scale为缩放比例,k为层级数。Range指的是第k层级的调度距离,通过第二预设公式,可以确定不同层级的调度距离。缩放比例scale通常为预先设定,在此对其具体比例值不作具体限定。
S105:根据所述空间图结构、所述不同层级的LOD数据和所述不同层级的调度距离构建场景图。
在步骤S101-S104完成之后,即可根据空间图结构、不同层级的LOD数据和不同层级的调度距离构建场景图。
本申请实施例通过先构建场景图所必须的空间图结构,再利用原数据得到不同层级的LOD数据,通过先建立标准参考距离,进而在标准参考距离的基础上计算不同层级的调度距离。基于视觉体现在判断层级显示距离的依据是以模型渲染大小所占的屏幕大小为依据,即场景图构建是以模型视觉效果为依据,因此称为基于视觉。在得到LOD数据的调度距离时,考量了物体与屏幕关系,可以保证不同大小的物体在屏幕上的调度效果一致。
下面对本申请实施例提供的一种基于视觉的场景图构建系统进行介绍,下文描述的场景图构建系统与上文描述的场景图构建方法可相互对应参照。
参见图2,图2为本申请实施例所提供的一种基于视觉的场景图构建系统的结构示意图,该场景图构建系统包括:
空间图构建模块100,用于获取原数据及所述原数据的空间位置信息,并根据所述数据空间位置信息构建空间图结构;
LOD数据计算模块200,用于根据所述原数据得到不同层级的LOD数据;
调度距离确定模块300,用于以预设物体铺满屏幕为条件,根据所述预设物体的包围球半径和相机张角定义标准参考距离;根据所述标准参考距离、缩放比例和层级数确定不同层级的调度距离;
场景图构建模块400,用于根据所述空间图结构、所述不同层级的LOD数据和所述不同层级的调度距离构建场景图。
基于上述实施例,作为优选的实施例,所述LOD数据计算模块200具体为用于对所述原数据进行纹理缩放得到不同层级的LOD数据的模块。
基于上述实施例,作为优选的实施例,所述LOD数据计算模块200具体为用于对所述原数据先进行纹理缩放,再经过QEM几何简化,得到不同层级的LOD数据的模块。
基于上述实施例,作为优选的实施例,所述调度距离确定模块300包括:
定义单元,用于根据所述预设物体的包围球半径、相机张角及第一预设公式定义标准参考距离;其中,所述第一预设公式为standardRange=R/tan(fov/2),standardRange为标准参考距离,R为所述包围球半径,fov为相机张角。
基于上述实施例,作为优选的实施例,所述调度距离确定模块300包括:
调度距离确定单元,用于根据所述标准参考距离、缩放比例和层级数和第二预设公式确定不同层级的调度距离;其中,所述第二预设公式为range=standardRange*scalek,range为调度距离,scale为缩放比例,k为层级数。
本申请还提供了一种计算机可读存储介质,其上存有计算机程序,该计算机程序被执行时可以实现上述实施例所提供的一种基于视觉的场景图构建方法的步骤。该存储介质可以包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请还提供了一种终端,可以包括存储器和处理器,所述存储器中存有计算机程序,所述处理器调用所述存储器中的计算机程序时,可以实现上述实施例所提供一种基于视觉的场景图构建方法的步骤。当然所述终端还可以包括各种网络接口,电源等组件。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例提供的系统而言,由于其与实施例提供的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

Claims (8)

1.一种基于视觉的场景图构建方法,其特征在于,包括:
获取原数据及所述原数据的空间位置信息,并根据所述数据空间位置信息构建空间图结构;
根据所述原数据得到不同层级的LOD数据;
以预设物体铺满屏幕为条件,根据所述预设物体的包围球半径和相机张角定义标准参考距离;
根据所述标准参考距离、缩放比例和层级数确定所述不同层级的调度距离;
根据所述空间图结构、所述不同层级的LOD数据和所述不同层级的调度距离构建场景图;
其中,所述根据所述预设物体的包围球半径和相机张角定义标准参考距离,包括:
根据所述预设物体的包围球半径、相机张角及第一预设公式定义标准参考距离;其中,所述第一预设公式为standardRange=R/tan(fov/2),standardRange为标准参考距离,R为所述包围球半径,fov为相机张角;
其中,所述根据所述标准参考距离、缩放比例和层级数确定不同层级的调度距离,包括:
根据所述标准参考距离、缩放比例和层级数和第二预设公式确定不同层级的调度距离;其中,所述第二预设公式为range=standardRange*scalek,range为调度距离,scale为缩放比例,k为层级数。
2.根据权利要求1所述的场景图构建方法,其特征在于,根据所述原数据得到不同层级的LOD数据,包括:
对所述原数据进行纹理缩放得到不同层级的LOD数据。
3.根据权利要求2所述的场景图构建方法,其特征在于,对所述原数据进行纹理缩放得到不同层级的LOD数据包括:
对所述原数据先进行纹理缩放,再经过QEM几何简化,得到不同层级的LOD数据。
4.根据权利要求1所述的场景图构建方法,其特征在于,所述不同层级的LOD数据包括精细层LOD数据、次精细层LOD数据和粗糙层LOD数据。
5.根据权利要求1所述的场景图构建方法,其特征在于,所述预设物体为所述空间图中任意一个物体或预设标准参考物体。
6.一种基于视觉的场景图构建系统,其特征在于,包括:
空间图构建模块,用于获取原数据及所述原数据的空间位置信息,并根据所述数据空间位置信息构建空间图结构;
LOD数据计算模块,用于根据所述原数据得到不同层级的LOD数据;
调度距离确定模块,用于以预设物体铺满屏幕为条件,根据所述预设物体的包围球半径和相机张角定义标准参考距离;根据所述标准参考距离、缩放比例和层级数确定不同层级的调度距离;
场景图构建模块,用于根据所述空间图结构、所述不同层级的LOD数据和所述不同层级的调度距离构建场景图;
其中,所述调度距离确定模块,具体用于根据所述预设物体的包围球半径、相机张角及第一预设公式定义标准参考距离;其中,所述第一预设公式为standardRange=R/tan(fov/2),standardRange为标准参考距离,R为所述包围球半径,fov为相机张角;
其中,所述调度距离确定模块,具体用于根据所述标准参考距离、缩放比例和层级数和第二预设公式确定不同层级的调度距离;其中,所述第二预设公式为range=standardRange*scalek,range为调度距离,scale为缩放比例,k为层级数。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-5任一项所述的场景图构建方法的步骤。
8.一种终端,其特征在于,包括存储器和处理器,所述存储器中存有计算机程序,所述处理器调用所述存储器中的计算机程序时实现如权利要求1-5任一项所述的场景图构建方法的步骤。
CN201910496826.4A 2019-06-10 2019-06-10 一种基于视觉的场景图构建方法、系统及相关装置 Active CN110189396B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910496826.4A CN110189396B (zh) 2019-06-10 2019-06-10 一种基于视觉的场景图构建方法、系统及相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910496826.4A CN110189396B (zh) 2019-06-10 2019-06-10 一种基于视觉的场景图构建方法、系统及相关装置

Publications (2)

Publication Number Publication Date
CN110189396A CN110189396A (zh) 2019-08-30
CN110189396B true CN110189396B (zh) 2023-03-28

Family

ID=67721113

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910496826.4A Active CN110189396B (zh) 2019-06-10 2019-06-10 一种基于视觉的场景图构建方法、系统及相关装置

Country Status (1)

Country Link
CN (1) CN110189396B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112685429B (zh) * 2021-03-16 2021-06-08 北京知优科技有限公司 树状结构模型生成及加载方法、装置、存储介质及设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101615191B (zh) * 2009-07-28 2011-05-11 武汉大学 海量点云数据的存储与实时可视化方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101615191B (zh) * 2009-07-28 2011-05-11 武汉大学 海量点云数据的存储与实时可视化方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《A View-Dependent Metric for Patch-Based LOD Generation & Selection》;Thibaud Lambert等;《Proc. ACM Comput. Graph. Interact. Tech.》;20180131;第1-21页 *
《Efficient View-Dependent LOD Control for Large 3D Unclosed Mesh Models of Environments》;Jie Feng等;《IEEE International Conference on Robotics and Automation, 2004. Proceedings. ICRA "04. 2004》;20040706;第2723-2729页 *

Also Published As

Publication number Publication date
CN110189396A (zh) 2019-08-30

Similar Documents

Publication Publication Date Title
US20150187130A1 (en) Automatic Generation of 2.5D Extruded Polygons from Full 3D Models
US9443353B2 (en) Methods and systems for capturing and moving 3D models and true-scale metadata of real world objects
CN109815865B (zh) 一种基于虚拟水尺的水位识别方法及系统
WO2015027953A1 (en) Method, apparatus and terminal device for dynamic image processing
CN108961417B (zh) 在三维房屋模型中自动生成空间尺寸的方法和装置
CN113689578B (zh) 一种人体数据集生成方法及装置
CN113628331B (zh) 一种虚幻引擎中摄影测量模型的数据组织和调度方法
CN111340866A (zh) 深度图像生成方法、装置及存储介质
CN111357034A (zh) 点云生成方法、系统和计算机存储介质
KR101102812B1 (ko) Web-gis기반 해양예보 정보 제공 시스템
WO2024078179A1 (zh) 光照贴图降噪方法、装置、设备和介质
CN110189396B (zh) 一种基于视觉的场景图构建方法、系统及相关装置
CN112717414A (zh) 游戏场景编辑方法、装置、电子设备以及存储介质
CN117218273A (zh) 图像渲染方法以及装置
CN109697748A (zh) 模型压缩处理方法、模型贴图处理方法装置、存储介质
CN117456076A (zh) 一种材质贴图生成方法及相关设备
CN112231426A (zh) 一种基于矢量瓦片点数据的更新方法、系统、介质及终端
CN117058022A (zh) 深度图像去噪方法、装置、计算机设备及存储介质
CN113418091B (zh) 一种用于摄像组件的安装的方法、装置及设备
CN115880402A (zh) 流动动画生成方法、装置、电子设备和可读存储介质
CN115544622A (zh) 城乡参与式三维规划设计平台、方法、设备及存储介质
CN114820988A (zh) 三维建模方法、装置、设备和存储介质
CN114494623A (zh) 基于lod的地形渲染方法及装置
CN112419459A (zh) 烘焙模型ao贴图的方法、装置、计算机设备和存储介质
CN116824082B (zh) 虚拟地形的绘制方法、装置、设备、存储介质及程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant