CN105122311A - 用于渲染关于复杂三维对象的矢量数据的平滑叠加层 - Google Patents
用于渲染关于复杂三维对象的矢量数据的平滑叠加层 Download PDFInfo
- Publication number
- CN105122311A CN105122311A CN201480021216.4A CN201480021216A CN105122311A CN 105122311 A CN105122311 A CN 105122311A CN 201480021216 A CN201480021216 A CN 201480021216A CN 105122311 A CN105122311 A CN 105122311A
- Authority
- CN
- China
- Prior art keywords
- dimensional model
- vector data
- geometry
- overlay layer
- computer implemented
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
本发明提供用于结合三维模型渲染矢量数据的系统和方法。特定来说,可生成和渲染覆盖所述模型的平滑透明叠加层。所述矢量数据可被纹理映射到所述平滑透明叠加层以使得所述矢量数据看似沿着所述模型中的表面而定位。所述三维模型可包括将所述地理区域的地形模型化的地形几何结构和将所述地理区域中的建筑和其它对象模型化的建筑几何结构。所述平滑透明叠加层可适形于由所述地形几何结构限定的所述表面。所述矢量数据可被纹理映射到所述平滑透明叠加层以使得所述矢量数据虽然看似沿着所述地形几何结构的所述表面而定位,但可被所述建筑几何结构遮挡。
Description
技术领域
本公开一般地涉及计算机绘图,并且更具体地,涉及在计算机绘图应用中结合三维物体渲染矢量数据。
背景技术
计算机处理能力和宽带技术中的改进已经使得交互式三维模型得到发展。举例来说,交互式地理信息系统可提供对地理区域的三维表示的导览和显示。用户可通过控制指定三维表示的哪个部分被渲染并且被呈现给用户的虚拟照相机来导览三维表示。
三维模型可包括几何结构和纹理映射到所述几何结构的纹理。举例来说,除了将建筑、桥、和其它对象模型化的建筑几何结构之外,地理区域的三维模型还可包括将地球的地形模型化的地形几何结构。地理图像(诸如航空或卫星图像)和其它图像可纹理映射到地形几何结构和/或建筑几何结构以提供地理区域的更真实的模型。
可结合三维模型渲染矢量数据。矢量数据可包括诸如标记、覆盖物、道路覆盖物、文本、和其它数据的数据。结合三维模型渲染矢量数据的一种方法是在由模型限定的三维空间中渲染矢量数据。这可需要复杂投影计算并且可需要追踪许多射线以相对于三维模型的表面正确地放置矢量数据。还可能难以使用这种方法持续正确地放置矢量数据。
结合三维模型渲染矢量数据的另一方法是将矢量数据纹理映射到三维模型。然而,三维模型内的某些对象可包括多块状物、尖利的以及笨拙的几何结构。因此,将矢量数据直接地纹理映射到三维模型可导致矢量数据变得不可读或被错误地放置。
发明内容
本发明的方面和优点将在以下描述中予以部分地阐明,或可从描述显而易见,或可通过实践本发明来学习。
本公开的一个例示性方面指向结合三维模型渲染矢量数据的计算机实现的方法。所述方法包括在显示设备上的用户界面中呈现视口和在所述视口中渲染三维模型。所述方法进一步包括渲染覆盖所述三维模型的透明叠加(draping)层以及将所述矢量数据纹理映射到所述透明叠加层以使得所述矢量数据看似沿着所述视口中的所述三维模型的表面而定位。本公开的其它示例性方面指向用于结合三维模型(诸如地理区域的三维模型)渲染矢量数据的系统、装置、非暂时性计算机可读媒介、用户界面和设备。
参考以下描述和所附权利要求,本发明的这些和其它特征、方面和优点将变得更好理解。并入本说明书中且构成本说明书的一部分的附图图示本发明的实施例,并且与描述一起用于解释本发明的原理。
附图说明
参照附图,在说明书中阐明针对本领域的技术人员的完全和能够实现的本发明的公开(包括其最佳模式),在附图中:
图1描绘根据本公开的示例性实施例的场景的三维模型的简化表示;
图2描绘根据本公开的示例性实施例的呈现于视口中的三维模型的部分;
图3描绘根据本公开的示例性实施例的用于结合三维模型渲染矢量数据的示例性方法的流程图;
图4描绘根据本公开的示例性实施例的用于渲染平滑透明叠加层的示例性渲染方法的流程图;
图5描绘根据本公开的示例性实施例的用于生成平滑透明叠加层的示例性方法的流程图;以及
图6描绘根据本公开的示例性实施例的示例性性计算系统。
具体实施方式
现在详细参照本发明的实施例,本发明的实施例中的一个或多个的示例图示于附图中。通过对本发明的解释而非对本发明的限制来提供每一示例。实际上,对本领域的技术人员显而易见地,可在本发明中做出各种修改和变化而不背离本发明的范围或精神。举例来说,图示或描述为一个实施例的一部分的特征可与另一实施例一起使用来产生又一实施例。因此,本发明旨在涵盖归属于所附权利要求和其等效物的范围内的这些修改和变化。
通常,本公开指向用于结合三维模型渲染矢量数据(例如,文本、标记、覆盖物、道路等等)的系统和方法。特定来说,可生成并且渲染覆盖三维模型的平滑透明叠加层。平滑透明叠加层可适形于三维模型的一个或多个表面。矢量数据可纹理映射到平滑透明叠加层以使得矢量数据看似沿着三维模型中的表面而定位。以这种方式,本公开的系统和方法可具有减少可由于将矢量数据直接地映射到具有复杂几何结构(例如,硬边缘、隆起物等等)的三维模型中的表面而引起的视觉痕迹的技术效应。
在一个实施例中,三维模型可以是地理区域的模型。三维模型可包括将地理区域的地形模型化的地形几何结构和将地理区域中的建筑、桥和其它对象模型化的建筑几何结构。举例来说,三维模型可以是使用立体重建技术生成的多边形网格(例如,三角形网格)。在对地理区域的表示进行渲染期间,可渲染覆盖地形几何结构的平滑透明叠加层。举例来说,平滑透明叠加层可适形于由地形几何结构限定的表面。矢量数据可纹理映射到平滑透明叠加层以使得矢量数据看似沿着地形几何结构的表面而定位。在特定方面中,可渲染平滑透明叠加层和矢量数据以使得可由地理区域的表示中的建筑几何结构遮挡矢量数据。
根据本公开的示例性方面,可使用各种渲染算法来渲染结合三维模型描绘矢量数据的场景。举例来说,在一个实施例中,可用相对于地形几何结构的深度偏移来渲染平滑透明叠加层。根据另一示例性实施例,渲染算法可用与场景相关联的模板缓冲区中的第一模板值渲染建筑几何结构。然后,可用模板缓冲区中的第二模板值渲染地形。可针对与第二模板值相关联的场景中的所有像素清除深度缓冲区。然后,可用深度写入和深度测试二者渲染透明叠加层。这提供了对地形几何结构前面的透明叠加层的渲染。然而,在其中建筑几何结构在地形几何结构前面的区域中,透明叠加层仍可被建筑几何结构遮挡。
可从三维模型生成平滑透明叠加层。举例来说,在一个实施方案中,可通过访问三维模型生成透明叠加层。可从三维模型提取地形几何结构。地形几何结构可根据适当的平滑算法(例如,高斯平滑算法)而被平滑化以生成平滑地形几何结构。然后,举例来说,可使用适当的网格化算法从平滑地形几何结构生成透明叠加层。可针对三维模型的每一细节层级生成透明叠加层。另外,用于每一细节层级的透明叠加层可在空间上划分成多个地理空间数据对象并且被存储于层次树数据结构中。
现在参考图,现在将详细地论述本公开的示例性实施例。图1描绘了根据本公开的示例性实施例的场景100的示例性三维模型110的简化表示。虽然图1出于说明和讨论的目的图示了三维模型的二维表示,但是使用本文中所提供的公开的本领域的技术人员将认识到,二维表示可表示三维元素。
三维模型110可表示地理区域。举例来说,三维模型110可以是由地理信息系统提供的地理区域的模型,诸如由谷歌公司提供的谷歌地图TM地图应用和谷歌地球TM虚拟全球应用。三维模型110还可以是其它适当的三维模型。
三维模型110可以是多边形网格,诸如三角形网格或其它网格。网格可包括被用于将地理区域的几何结构模型化的多个多边形(例如,三角形)。在一个示例中,三维模型110可以是从地理区域的航空或卫星图像生成的立体重建。三维模型110可包括地形几何结构112和建筑几何结构114。地形几何结构112可将地理区域的地形模型化。建筑几何结构114可将地理区域中的建筑和其它对象模型化。
结合三维模型110来渲染矢量数据140(例如,文本、覆盖物、道路等等)。特定来说,矢量数据140被纹理映射到平滑透明叠加层120。平滑透明叠加层120是覆盖地形几何结构112的表面的透明层(即,不可见层)。特定来说,平滑透明叠加层120适形于地形几何结构112的表面。在图1中,平滑透明叠加层120并不适形于或覆盖由建筑几何结构114限定的表面。
举例来说,已经通过适当的平滑算法(例如,高斯平滑算法)将平滑透明叠加层120的几何结构平滑化以使得平滑透明叠加层120提供用于纹理映射矢量数据140的适当的平滑表面。在三维模型110的渲染期间,矢量数据140被纹理映射到平滑透明叠加层120以使得矢量数据140看似沿着三维模型110的表面(诸如沿着三维模型110的地形几何结构112)而定位。建筑几何结构114可遮挡被纹理映射到平滑透明叠加层120的至少一部分任何矢量数据140。
可从虚拟照相机130的视角渲染三维模型110。虚拟照相机130定义将哪些三维数据在例如显示设备上的用户界面中所呈现的视口中显示给用户。用户可通过相对于三维模型110导览虚拟照相机130来导览三维模型110。
图2描绘了在显示设备210上的用户界面205中所呈现的视口215中渲染的三维模型110的一部分的视野。三维模型110可从如图1中所示所定位的虚拟照相机130的视角呈现。显示设备210可以是示例性计算设备200的一部分。计算设备200可以是任何适当的计算设备,诸如通用计算设备、移动设备、智能电话、平板计算机、膝上型计算机、桌面型计算机或其它适当的计算设备。
如所示出,三维模型110的视野提供描绘地理区域的场景100的表示。三维模型110包括提供对地理区域的地形的表示的地形几何结构112。三维模型110还包括提供对地理区域中的建筑的表示的建筑几何结构114。
结合三维模型110渲染矢量数据140。矢量数据140包括描绘地理区域中的道路的地点(location)的道路覆盖物142。矢量数据140还包括结合三维模型110描绘的各种文本注释144。其它矢量数据可被包括于地理区域的表示中。
矢量数据140被纹理映射到适形于地形几何结构112的平滑透明叠加层。不包括矢量数据的平滑透明叠加层的部分是不可见的或完全透明的。如此,平滑透明叠加层在呈现于视口215中的三维模型110的表示中并不容易看到。然而,被纹理映射到平滑透明叠加层的矢量数据140看似沿着三维模型110的地形几何结构112的表面而被渲染。
平滑透明叠加层可被三维模型110的建筑几何结构114遮挡。因此,被纹理映射到平滑透明叠加层的矢量数据140也可被建筑几何结构114遮挡。这在示出遮挡文本注释144的建筑几何结构114和被纹理映射到平滑透明叠加层的道路覆盖物142的一部分的图2中予以描绘。
图3描绘根据本公开的示例性实施例的用于结合三维模型渲染矢量数据的示例性方法(300)的流程图。可使用任何适当的计算系统(诸如图6中所描绘的系统)来实现方法(300)。另外,本文中所提供的方法的流程图描绘出于说明和讨论的目的以特定顺序执行的步骤。使用本文中所提供的公开的本领域的技术人员将了解,可以各种方式省略、重新布置、组合和/或调适本文中所论述的方法中的任何一个的各种步骤。
在(302)处,方法包括在计算设备的显示器上的用户界面中呈现视口。视口限定用户界面中用于观察和导览三维模型的空间。举例来说,图2描绘呈现于用户界面205中的允许用户观察和导览地理图像的视口215。视口在用户界面中可具有任何适当的大小、形状或配置。
在图3的(304)处,方法可包括接收请求三维模型的特定视野的用户输入。可使用任何适当的用户输入(诸如触摸交互、点击交互、或其它适当的用户交互)来接收用户输入。用户输入可控制虚拟照相机相对于三维模型的位置。响应于用户输入,可使用虚拟照相机来构造指定三维模型的哪部分要被渲染的视图规范。
在(306)处返回参考图3,可在视口中渲染三维模型。举例来说,可根据视野说明书渲染三维模型。三维模型可提供场景(例如,地理区域或其它适合场景)的表示。举例来说,如图2中所示出,场景100的三维模型110被渲染于视口215中。三维模型110可包括地形几何结构112和建筑几何结构114。
在图3的(308)处,渲染覆盖三维模型中的至少一个表面的平滑透明叠加层。可渲染覆盖任何适合表面的平滑透明叠加层。举例来说,在图1和2的三维模型110中,渲染覆盖由地形几何结构112限定的表面的平滑透明叠加层120。特定来说,平滑透明叠加层适形于地形几何结构112的表面。
在图3的(310)处,将矢量数据纹理映射到平滑透明叠加层。纹理映射是用于将细节、表面纹理、或颜色添加到三维模型的方法。矢量数据到透明叠加层的纹理映射将矢量数据应用于透明叠加层的表面。已知晓用于将数据纹理映射到三维模型的表面的许多纹理映射技术。可在不背离本公开的范围的情况下使用任何适当的纹理映射技术。
因为透明叠加层覆盖三维模型的表面,将矢量数据纹理映射到透明叠加层使得矢量数据看似犹如矢量数据沿着三维模型的表面而渲染。举例来说,如图2中所示出,矢量数据140被纹理映射到平滑透明叠加层以使得矢量数据看似沿着视口的三维模型110的表面而定位。特定来说,矢量数据140看似沿着三维模型110的地形几何结构112的表面而定位。透明叠加层保持对不包括矢量数据的透明叠加层的部分不可见。举例来说,用于透明叠加层的部分的阿尔法值可以大约是零使得不包括矢量数据的透明叠加层的部分保持透明。
根据本公开的示例性方面,可使用各种渲染算法来结合三维模型渲染矢量数据。举例来说,在一个实施例中,可用相对于三维模型的表面的深度偏移渲染平滑透明叠加层。深度偏移可为与和场景相关联的深度缓冲区中的三维模型的表面相关联的深度值前面的透明叠加层提供深度值。因此,可渲染覆盖三维模型的透明叠加层。
在其中三维模型包括地形几何结构和建筑几何结构(诸如图1和2的三维模型110)的特定方面中,可相对于地形几何结构提供用于透明叠加层的深度偏移。不相对于建筑几何结构提供用于透明叠加层的深度偏移。因此,与建筑几何结构相关联的深度缓冲区中的深度值可在与透明叠加层相关联的深度值前面。以这种方式,覆盖地形几何结构的透明叠加层可以被渲染但在场景的渲染期间其可被建筑几何结构遮挡。
图4描绘根据本公开的示例性实施例的可被用于渲染场景的另一示例性方法(400)的流程图。图4的示例性方法(400)特别适合于具有地形几何结构和建筑几何结构的实施方式。可由任何适当的计算设备(诸如图6的客户端计算设备630)实现(400)。
在(402)处,方法包括用用于与建筑几何结构相关联的像素的模板缓冲区中的第一模板值(例如,零)来渲染建筑几何结构。在(404)处,用用于与地形几何结构相关联的像素的第二模板值(例如,一)来渲染地形几何结构。模板缓冲区可以是与可被用于限制渲染的区域的场景相关联的额外缓冲区。
渲染方法然后可清除用于与模板缓冲区中的第二模板值相关联的所有像素的深度缓冲区中的深度值。深度缓冲区(即,z缓冲区)可被用于在场景的渲染期间管理图像深度坐标。清除用于与第二模板值相关联的深度缓冲区中的像素的深度值实质上清除了用于与地形几何结构相关联的像素的深度缓冲区。
在一个实施方式中,渲染方法可在深度写入进行(即,z写入进行)和深度测试关闭(即,z测试关闭)的情况下通过渲染用于与第二模板值相关联的像素(例如,使模板测试失败的像素)的全屏四边形来清除深度缓冲区中的深度值(406)。深度写入进行(即,z写入进行)允许深度值被写入到模板缓冲区。深度测试关闭(即,z测试关闭)指示在将深度值写入到模板缓冲区之前不进行深度比较。换句话说,深度值被写入到用于与模板缓冲区中的第二模板值相关联的像素的模板缓冲区,而不管深度值是否已经存储于深度缓冲区中。这种技术可被用于将最大深度值写入用于与模板缓冲区中的第二模板值相关联的像素的深度缓冲区中,有效地清除用于与建筑几何结构相关联的像素的深度值。
在(408)处,在深度写入进行(即,z写入进行)和深度测试进行(即,z测试进行)的情况下渲染透明叠加层。深度测试进行(即,z测试进行)提供将深度值写入到通过深度测试的深度缓冲区的部分(例如,仅写入在深度缓冲区中的现有深度值的前面的深度值)。因为已经相对于与地形几何结构相关联的像素清除了深度缓冲区,所以在地形几何结构的前面渲染透明叠加层。尚未相对于与建筑几何结构相关联的像素清除深度缓冲区。因此,取决于与透明叠加层和建筑几何结构相关联的深度值,可以在建筑几何结构前面或后面渲染透明叠加层。
在(410)处,将矢量数据纹理映射到透明叠加层。可用大约为零的阿尔法值来渲染不包括矢量数据的透明叠加层的部分以使得透明叠加层保持透明。矢量数据到透明叠加层的纹理映射渲染矢量数据以使得其看似沿着视口中的三维模型的表面而定位。
图5描绘根据本公开的示例性实施例的用于生成平滑透明叠加层的示例性方法(500)。可使用任何适当的计算设备(诸如图6的服务器610)来实现示例性方法(500)。
在图5的(502)处,存取与三维模型相关联的数据。三维模型可以是从地理区域的航空或卫星图像生成的立体重建。图像可由吊式照相机(诸如来自飞机)以各种倾斜或最低点视角拍摄。在图像中,特征被检测到并且彼此相关。所述点可被用于确定来自图像的多边形网格。三维模型可包括地形几何结构和建筑几何结构。在某些实施方式中,三维模型可被表示为高度场。高度场中的每一像素可具有指示像素处的三维模型的高度的值。
在(504)处,从三维模型提取地形几何结构。可使用任何适当的技术来从三维模型提取地形几何结构。举例来说,在一个实施方式中,三维模型的部分可被分类为地形几何结构或非地形几何结构。可通过将模型重新取样到较高分辨率来识别非地形几何结构。可在重新取样的模型上运行低通滤波器。可从重新取样的数据减去所过滤的结果以仅提取高通数据。超过预定阈值的高通数据的部分可被分类为非地形几何结构。非地形几何结构可在三维模型中被设定无效以从三维模型提取地形几何结构。地形几何结构可被表示为地形高度场。
在(506)处,根据平滑算法使地形几何结构平滑化以生成平滑地形几何结构。可使用简单图像空间平滑算法(诸如高斯平滑算法)积极地将地形几何结构平滑化。平滑地形几何结构可被表示为平滑地形高度场。在(508)处,从平滑地形几何结构生成平滑透明叠加层。举例来说,可使用网格化算法(例如,移动立方体算法)处理平滑地形高度场以生成用于平滑透明叠加层的网格。
在处(510),平滑透明叠加层在空间上被划分成多个离散地理空间数据对象(例如,离散地理空间体积或区块)。每一地理空间数据对象可存储与由地理空间数据对象限定的地理空间范围中的透明叠加层的部分相关联的数据。离散地理空间数据对象可然后存储于层次树数据结构(诸如四叉树数据结构或八叉树数据结构)中(512)。可针对三维模型的每一细节层级执行图5的方法(500)以使得可针对三维模型的每一细节层级生成不同透明叠加层。
图6描绘根据本公开的示例性方面的可被用于实现用于合并三维模型的方法和系统的示例性计算系统600。系统600是其中服务器610在网络650上与一个或多个客户端设备630通信的客户端服务器架构。可使用其它适当的架构来实现系统600。
系统600包括计算设备610。计算设备610可以是能够自动地执行计算的任何机器。举例来说,计算设备可包括通用计算机、专用计算机、膝上型计算机、桌面型计算机、集成电路、移动设备、智能电话、平板计算机、或其它适当的计算设备。计算设备610可具有处理器612和存储器614。计算设备610还可包括被用于在网络650上与一个或多个远程计算设备(例如,客户端设备)630通信的网络界面。在一个示例性实施方式中,计算设备610可以是被用于托管(host)地理信息系统(诸如由谷歌公司提供的谷歌地图TM和/或谷歌地球TM地理信息系统)的诸如Web服务器的服务器。
处理器612可以是任何适当的处理设备,诸如微处理器、微控制器、集成电路、或其它适当的处理设备。存储器614可包括任何适当的计算机可读介质或媒介,包括但不限于,非暂时性计算机可读媒介、RAM、ROM、硬盘驱动器、闪盘驱动器、或其它存储器设备。存储器614可存储可由处理器612存取的信息,包括可由处理器612执行的指令616。指令616可以是当由处理器612执行时使得处理器612提供所期望的功能的任何指令集合。举例来说,指令616可由处理器612执行以实现叠加层模块618和斩波器模块620。
根据本公开的示例性方面,叠加层模块618可被配置成生成平滑透明叠加层。举例来说,叠加层模块618可被配置成存取三维模型和从三维模型提取地形几何结构。叠加层模块618可被配置成根据适当的平滑算法使地形几何结构平滑化以生成平滑地形几何结构。叠加层模块618然后可(举例来说)使用适当的网格化算法从平滑地形几何结构生成透明叠加层。叠加层模块618可生成针对三维模型的每一细节层级的透明叠加层。
斩波器模块620可将用于每一细节层级的透明叠加层在空间上划分成多个地理空间数据对象(例如,离散地理空间体积或区块)。斩波器模块620然后可将离散地理空间数据对象存储于存储器614中所编码的层次树数据结构中。
将了解,术语“模块”指代用于提供所期望的功能的计算机逻辑。因此,模块可以以控制通用处理器的硬件、专用电路、固件、和/或软件来实现。在一个实施例中,模块是被存储于存储设备上、被加载到存储器中并且由处理器执行或可自计算机程序产品提供的程序代码文件(举例来说,计算机可执行指令),所述程序代码文件被存储于有形计算机可读存储介质(诸如RAM,硬盘或光学或磁性媒介)中。
存储器614还可包括可由处理器612检索、操纵、形成、或存储的数据622。举例来说,存储器614可存储与三维模型和层次树数据结构相关联的数据622。数据622可被存储于一个或多个数据库中。一个或多个数据库可通过高带宽LAN或WAN连接到计算设备610,或还可通过网络650连接到计算设备610。一个或多个数据库可分离以使得其可位于多个场所中。
计算设备610可在网络650上与一个或多个客户端设备630交换数据。尽管两个客户端630图示于图4中,但是任何数目的客户端630可在网络650上被连接到计算设备610。客户端设备630可以是任何适当类型的计算设备,诸如通用计算机、专用计算机、膝上型计算机、桌面型计算机、集成电路、移动设备、智能电话、平板计算机、或其它适当的计算设备。
类似于计算设备610,客户端设备630可包括处理器632和存储器634。存储器634可存储可由处理器632存取的信息,包括可由处理器632执行的指令636和数据638。指令636可以是当由处理器632执行时使得处理器632提供所期望的功能的任何指令集合。举例来说,指令636可由处理器632执行以实现用户界面模块和渲染器模块。
用户界面模块可被配置成在显示设备640上的用户界面中呈现视口。渲染器模块可被配置成根据本公开中所描述的用于结合三维模型渲染矢量数据的示例性方法中的任一个在视口中结合三维模型渲染矢量数据。举例来说,渲染器模块可被配置成在视口中渲染三维模型并且渲染覆盖三维模型的透明叠加层。渲染器模块可进一步被配置成将矢量数据纹理映射到透明叠加层以使得矢量数据看似位于由三维模型限定的表面上。
响应于针对信息的请求,计算设备610可编码一个或多个数据文件中的数据并且在网络650上将数据文件提供到客户端设备630。网络650可以是任何类型的通信网络,诸如局域网(例如,内联网)、广域网(例如,因特网),或其一些组合。网络650还可包括客户端设备6300与计算设备610之间的直接连接。一般来说,计算设备610与客户端设备430之间的通信可使用各种通信协议(例如,TCP/IP、HTTP、SMTP、FTP)、编码或格式(例如,HTML、XML)、和/或保护方案(例如,VPN、安全HTTP、SSL)经由使用任何类型的有线和/或无线连接的网络接口而承载。
虽然已经关于特定本主题示例性实施例和方法详细地描述了本主题,但将了解,在获得对前述的理解时,本领域的技术人员可轻而易举地做出对这些实施例的变更、变化和等效物。因此,如对本领域的技术人员将显而易见的,本公开的范围是以示例方式而非以限制方式,并且本主题公开并不排除包括本主题的这些修改、变化和/或附加物。
Claims (35)
1.一种用于结合三维模型渲染矢量数据的计算机实现的方法,包括:
在显示设备上的用户界面中呈现视口;
在所述视口中渲染所述三维模型;
渲染覆盖所述三维模型的透明叠加层;以及
将所述矢量数据纹理映射到所述透明叠加层以使得所述矢量数据看似沿着所述视口中的所述三维模型的表面而定位。
2.根据权利要求1所述的计算机实现的方法,其中所述透明叠加层适形于所述三维模型的表面。
3.根据权利要求1所述的计算机实现的方法,其中所述透明叠加层已经至少部分地基于平滑算法而生成。
4.根据权利要求1所述的计算机实现的方法,其中所述三维模型包括提供对地理区域的地形的表示的地形几何结构以及提供对所述地理区域中的一个或多个建筑的表示的建筑几何结构。
5.根据权利要求4所述的计算机实现的方法,其中所述透明叠加层覆盖所述地形几何结构。
6.根据权利要求5所述的计算机实现的方法,其中所述透明叠加层适形于所述地形几何结构。
7.根据权利要求4所述的计算机实现的方法,其中渲染所述透明叠加层包括用相对于所述地形几何结构的深度偏移来渲染所述透明叠加层。
8.根据权利要求4所述的计算机实现的方法,其中当所述矢量数据被纹理映射到所述透明叠加层时,所述矢量数据被所述建筑几何结构遮挡。
9.根据权利要求8所述的计算机实现的方法,其中在所述视口中渲染所述三维模型包括:
用用于与所述建筑几何结构相关联的像素的模板缓冲区中的第一模板值在所述视口中渲染所述建筑几何结构;
用用于与所述建筑几何结构相关联的像素的模板缓冲区中的第二模板值在所述视口中渲染所述地形几何结构;
清除与所述模板缓冲区中的所述第二模板值相关联的像素处的深度缓冲区。
10.根据权利要求9所述的计算机实现的方法,其中清除与所述第二模板值相关联的像素处的所述深度缓冲区包括:在深度写入和深度测试关闭的情况下将最大深度值写入到与所述第二模板值相关联的所有像素处的所述深度缓冲区。
11.根据权利要求10所述的计算机实现的方法,其中渲染所述透明叠加层包括:在深度测试进行的情况下渲染所述透明叠加层。
12.根据权利要求1所述的计算机实现的方法,其中与不具有矢量数据的所述透明叠加层的一部分相关联的阿尔法值是零。
13.根据权利要求1所述的计算机实现的方法,其中所述矢量数据包括文本数据、道路数据、或覆盖数据。
14.根据权利要求1所述的计算机实现的方法,其中所述三维模型是立体重建。
15.一种用于结合地理区域的三维模型渲染矢量数据的计算系统,所述系统包括处理器和显示设备,所述处理器被配置成实现一个或多个模块,所述模块包括:
用户界面模块,所述用户界面模块由所述处理器实现,所述用户界面模块被配置成在所述显示设备上的用户界面中呈现视口;以及
渲染器模块,所述渲染器模块由所述处理器实现,其中所述渲染器模块被配置成在所述视口中渲染所述三维模型,所述渲染器模块进一步被配置成渲染覆盖所述三维模型的透明叠加层;
其中所述渲染器模块进一步被配置成将所述矢量数据纹理映射到所述透明叠加层以使得所述矢量数据看似位于由所述三维模型限定的表面上。
16.根据权利要求15所述的计算系统,其中所述三维模型包括提供地理区域的地形的表示的地形几何结构以及提供所述地理区域中的一个或多个建筑的表示的建筑几何结构。
17.根据权利要求16所述的计算系统,其中所述透明叠加层适形于所述地形几何结构。
18.根据权利要求16所述的计算系统,其中当所述矢量数据被纹理映射到所述透明叠加层时,所述矢量数据被所述建筑几何结构遮挡。
19.一种存储供一个或多个处理器执行的计算机可读指令的非暂时性计算机可读介质,所述计算机可读指令当由所述一个或多个处理器执行时使得所述一个或多个处理器执行用于结合地理区域的三维模型渲染矢量数据的操作,所述三维模型包括与所述地理区域的地形相关联的地形几何结构以及与所述地理区域中的一个或多个建筑相关联的建筑几何结构,所述操作包括:
在显示设备的用户界面中呈现视口;
在所述视口中渲染所述三维模型;
渲染适形于所述三维模型的所述地形几何结构的透明叠加层;以及
将所述矢量数据纹理映射到所述透明叠加层以使得所述矢量数据看似沿着所述视口中的所述三维模型的表面而定位,所述矢量数据至少部分地被所述三维模型中的所述建筑几何结构遮挡。
20.根据权利要求19所述的非暂时性计算机可读介质,其中在所述视口中渲染所述三维模型的操作包括:
用用于与所述建筑几何结构相关联的像素的模板缓冲区中的第一模板值在所述视口中渲染所述建筑几何结构;
用用于与所述建筑几何结构相关联的像素的模板缓冲区中的第二模板值在所述视口中渲染所述地形几何结构;以及
清除与所述模板缓冲区中的所述第二模板值相关联的像素处的深度缓冲区;
其中在深度写入进行并且深度测试进行的情况下,所述透明叠加层在清除所述深度缓冲区之后被渲染。
21.一种用于结合三维模型渲染矢量数据的计算机实现的方法,包括:
在显示设备上的用户界面中呈现视口;
在所述视口中渲染所述三维模型;
渲染覆盖所述三维模型的透明叠加层;以及
将所述矢量数据纹理映射到所述透明叠加层以使得所述矢量数据看似沿着所述视口中的所述三维模型的表面而定位。
22.根据权利要求21所述的计算机实现的方法,其中所述透明叠加层适形于所述三维模型的表面。
23.根据权利要求21或22所述的计算机实现的方法,其中所述透明叠加层已经至少部分地基于平滑算法而被生成。
24.根据权利要求21到23中的任何一个所述的计算机实现的方法,其中所述三维模型包括提供对地理区域的地形的表示的地形几何结构以及提供所述地理区域中的一个或多个建筑的表示的建筑几何结构。
25.根据权利要求24所述的计算机实现的方法,其中所述透明叠加层覆盖所述地形几何结构。
26.根据权利要求24所述的计算机实现的方法,其中渲染所述透明叠加层包括:用相对于所述地形几何结构的深度偏移来渲染所述透明叠加层。
27.根据权利要求24所述的计算机实现的方法,其中当所述矢量数据被纹理映射到所述透明叠加层时,所述矢量数据被所述建筑几何结构遮挡。
28.根据权利要求27所述的计算机实现的方法,其中在所述视口中渲染所述三维模型包括:
用用于与所述建筑几何结构相关联的像素的模板缓冲区中的第一模板值在所述视口中渲染所述建筑几何结构;
用用于与所述建筑几何结构相关联的像素的模板缓冲区中的第二模板值在所述视口中渲染所述地形几何结构;以及
清除与所述模板缓冲区中的所述第二模板值相关联的像素处的深度缓冲区。
29.根据权利要求28所述的计算机实现的方法,其中清除与所述第二模板值相关联的像素处的所述深度缓冲区包括:在深度写入和深度测试关闭的情况下,将最大深度值写入到与所述第二模板值相关联的所有像素处的所述深度缓冲区。
30.根据权利要求21到29中的任何一个所述的计算机实现的方法,其中渲染所述透明叠加层包括:在深度测试进行的情况下渲染所述透明叠加层。
31.根据权利要求21到30中的任何一个所述的计算机实现的方法,其中与不具有矢量数据的所述透明叠加层的一部分相关联的阿尔法值大约是零。
32.根据权利要求21到31中的任何一个所述的计算机实现的方法,其中所述矢量数据包含文本数据、道路数据、或覆盖数据。
33.根据权利要求21到32中的任何一个所述的计算机实现的方法,其中所述三维模型是立体重建。
34.一种用于结合地理区域的三维模型渲染矢量数据的计算系统,所述系统包括处理器和显示设备,所述处理器被配置成实现一个或多个模块以执行根据权利要求21到33中的任何一个所述的方法,所述模块包括:
用户界面模块,所述用户界面模块由所述处理器实现,所述用户界面模块被配置成在所述显示设备上的用户界面中呈现视口;以及
渲染器模块,所述渲染器模块由所述处理器实现,其中所述渲染器模块被配置成在所述视口中渲染所述三维模型,所述渲染器模块进一步被配置成渲染覆盖所述三维模型的透明叠加层;
其中所述渲染器模块进一步被配置成将所述矢量数据纹理映射到所述透明叠加层以使得所述矢量数据看似位于由所述三维模型限定的表面上。
35.一种计算机程序,用于由至少一个处理器运行以执行权利要求21到33中的任何一个所述的方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/827,964 | 2013-03-14 | ||
US13/827,964 US10181214B2 (en) | 2013-03-14 | 2013-03-14 | Smooth draping layer for rendering vector data on complex three dimensional objects |
PCT/US2014/023114 WO2014159342A1 (en) | 2013-03-14 | 2014-03-11 | Smooth draping layer for rendering vector data on complex three dimensional objects |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105122311A true CN105122311A (zh) | 2015-12-02 |
CN105122311B CN105122311B (zh) | 2019-04-26 |
Family
ID=51525384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480021216.4A Active CN105122311B (zh) | 2013-03-14 | 2014-03-11 | 用于渲染关于复杂三维对象的矢量数据的平滑叠加层 |
Country Status (6)
Country | Link |
---|---|
US (3) | US10181214B2 (zh) |
EP (2) | EP2972723B1 (zh) |
CN (1) | CN105122311B (zh) |
AU (1) | AU2014240990B2 (zh) |
DE (1) | DE202014010917U1 (zh) |
WO (1) | WO2014159342A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107369200A (zh) * | 2017-07-04 | 2017-11-21 | 福建星网视易信息系统有限公司 | 一种3d场景特效处理方法及存储设备 |
CN107689189A (zh) * | 2017-08-31 | 2018-02-13 | 城市生活(北京)资讯有限公司 | 一种三维电子地图的绘制方法及装置 |
CN111583370A (zh) * | 2020-04-29 | 2020-08-25 | 贝壳技术有限公司 | 画面更新方法、装置、计算机可读存储介质及电子设备 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10181214B2 (en) * | 2013-03-14 | 2019-01-15 | Google Llc | Smooth draping layer for rendering vector data on complex three dimensional objects |
JP5997640B2 (ja) * | 2013-03-25 | 2016-09-28 | 株式会社ジオ技術研究所 | 3次元画像出力装置および背景画像生成装置 |
JP6087185B2 (ja) * | 2013-03-25 | 2017-03-01 | 株式会社ジオ技術研究所 | 3次元地図表示システム |
US9164651B2 (en) * | 2013-04-11 | 2015-10-20 | Google Inc. | Management of geographic data layers in a geographic information system |
US9779544B2 (en) | 2014-12-23 | 2017-10-03 | Google Inc. | Labeling for three-dimensional occluded shapes |
US10475234B2 (en) * | 2015-07-15 | 2019-11-12 | George Mason University | Multi-stage method of generating 3D civil site surveys |
US9693049B2 (en) * | 2015-08-28 | 2017-06-27 | Christie Digital Systems Usa, Inc. | Projection mapping video pipeline |
US20170213383A1 (en) * | 2016-01-27 | 2017-07-27 | Microsoft Technology Licensing, Llc | Displaying Geographic Data on an Image Taken at an Oblique Angle |
US11004253B2 (en) * | 2019-02-21 | 2021-05-11 | Electronic Arts Inc. | Systems and methods for texture-space ray tracing of transparent and translucent objects |
US11816975B2 (en) | 2019-09-27 | 2023-11-14 | The Travelers Indemnity Company | Wildfire defender |
US10964201B1 (en) | 2019-09-27 | 2021-03-30 | The Travelers Indemnity Company | Wildfire defender |
US11468629B2 (en) | 2020-04-03 | 2022-10-11 | Qualcomm Incorporated | Methods and apparatus for handling occlusions in split rendering |
US11403803B2 (en) | 2020-06-26 | 2022-08-02 | Imagination Technologies Limited | Hierarchical acceleration structures for use in ray tracing systems |
CN114565722A (zh) * | 2022-03-02 | 2022-05-31 | 山东瑞智飞控科技有限公司 | 一种三维模型单体化实现方法 |
CN116450764B (zh) * | 2023-06-15 | 2023-08-11 | 深圳市易图资讯股份有限公司 | 一种地理信息系统及数据处理方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040257373A1 (en) * | 2001-12-31 | 2004-12-23 | Doyle Peter L. | Depth write disable for zone rendering |
US20100074538A1 (en) * | 2008-09-25 | 2010-03-25 | Microsoft Corporation | Validation and correction of map data using oblique images |
US20110115813A1 (en) * | 2009-05-21 | 2011-05-19 | Makoto Yamakura | Graphics rendering device, graphics rendering method, graphics rendering program, recording medium with graphics rendering program stored thereon, integrated circuit for graphics rendering |
US20110158504A1 (en) * | 2009-12-31 | 2011-06-30 | Disney Enterprises, Inc. | Apparatus and method for indicating depth of one or more pixels of a stereoscopic 3-d image comprised from a plurality of 2-d layers |
US20120200702A1 (en) * | 2009-11-09 | 2012-08-09 | Google Inc. | Orthorectifying Stitched Oblique Imagery To A Nadir View, And Applications Thereof |
US20120206468A1 (en) * | 2011-02-14 | 2012-08-16 | Bratt Joseph P | Edge Alphas for Image Translation |
US20120232719A1 (en) * | 2010-08-20 | 2012-09-13 | Johnson Outdoors Inc. | System and Method for Automatically Navigating a Depth Contour |
US20130009950A1 (en) * | 2009-12-01 | 2013-01-10 | Rafael Advanced Defense Systems Ltd. | Method and system of generating a three-dimensional view of a real scene for military planning and operations |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6301496B1 (en) * | 1998-07-24 | 2001-10-09 | Biosense, Inc. | Vector mapping of three-dimensionally reconstructed intrabody organs and method of display |
US6668080B1 (en) * | 1999-09-21 | 2003-12-23 | Microsoft Corporation | Automated layer extraction and pixel assignment from image sequences |
US6856323B2 (en) * | 2001-04-09 | 2005-02-15 | Weather Central, Inc. | Layered image rendering |
US6894695B2 (en) * | 2001-04-27 | 2005-05-17 | National Semiconductor Corporation | Apparatus and method for acceleration of 2D vector graphics using 3D graphics hardware |
US6903741B2 (en) * | 2001-12-13 | 2005-06-07 | Crytek Gmbh | Method, computer program product and system for rendering soft shadows in a frame representing a 3D-scene |
US20060020431A1 (en) * | 2004-05-11 | 2006-01-26 | Peter Gipps | Path determination system for transport system |
US7505036B1 (en) * | 2004-07-30 | 2009-03-17 | 3Dlabs Inc. Ltd. | Order-independent 3D graphics binning architecture |
US20060203010A1 (en) | 2005-03-14 | 2006-09-14 | Kirchner Peter D | Real-time rendering of embedded transparent geometry in volumes on commodity graphics processing units |
US9274765B2 (en) * | 2005-05-12 | 2016-03-01 | Drawing Management, Inc. | Spatial graphical user interface and method for using the same |
US20080082549A1 (en) * | 2006-10-02 | 2008-04-03 | Vic Baker | Multi-Dimensional Web-Enabled Data Viewer |
US8169442B2 (en) | 2007-12-27 | 2012-05-01 | Stmicroelectronics S.R.L. | Graphic system comprising a fragment graphic module and relative rendering method |
US20090193327A1 (en) * | 2008-01-30 | 2009-07-30 | Microsoft Corporation | High-fidelity scalable annotations |
US8514238B2 (en) * | 2008-11-21 | 2013-08-20 | Adobe Systems Incorporated | System and method for adding vector textures to vector graphics images |
US8670606B2 (en) * | 2010-01-18 | 2014-03-11 | Disney Enterprises, Inc. | System and method for calculating an optimization for a facial reconstruction based on photometric and surface consistency |
US8611670B2 (en) | 2010-02-25 | 2013-12-17 | The Board Of Trustees Of The Leland Stanford Junior University | Intelligent part identification for use with scene characterization or motion capture |
US8913300B2 (en) * | 2011-10-04 | 2014-12-16 | Google Inc. | Occlusion of vector image data |
WO2014110502A1 (en) * | 2013-01-11 | 2014-07-17 | The Regents Of The University Of Michigan | Monitoring proximity of objects at construction jobsites via three-dimensional virtuality in real-time |
US9454843B2 (en) * | 2013-02-05 | 2016-09-27 | Nvidia Corporation | Modulated and blended anti-aliasing |
US9165409B2 (en) * | 2013-02-15 | 2015-10-20 | Micro*D, Inc. | System and method for creating a database for generating product visualizations |
US10181214B2 (en) * | 2013-03-14 | 2019-01-15 | Google Llc | Smooth draping layer for rendering vector data on complex three dimensional objects |
-
2013
- 2013-03-14 US US13/827,964 patent/US10181214B2/en active Active
-
2014
- 2014-03-11 DE DE202014010917.6U patent/DE202014010917U1/de not_active Expired - Lifetime
- 2014-03-11 CN CN201480021216.4A patent/CN105122311B/zh active Active
- 2014-03-11 EP EP14775140.8A patent/EP2972723B1/en active Active
- 2014-03-11 EP EP20150806.6A patent/EP3654158B1/en active Active
- 2014-03-11 WO PCT/US2014/023114 patent/WO2014159342A1/en active Application Filing
- 2014-03-11 AU AU2014240990A patent/AU2014240990B2/en active Active
-
2019
- 2019-01-14 US US16/246,720 patent/US10593098B2/en active Active
- 2019-12-20 US US16/723,077 patent/US10984582B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040257373A1 (en) * | 2001-12-31 | 2004-12-23 | Doyle Peter L. | Depth write disable for zone rendering |
US20100074538A1 (en) * | 2008-09-25 | 2010-03-25 | Microsoft Corporation | Validation and correction of map data using oblique images |
US20110115813A1 (en) * | 2009-05-21 | 2011-05-19 | Makoto Yamakura | Graphics rendering device, graphics rendering method, graphics rendering program, recording medium with graphics rendering program stored thereon, integrated circuit for graphics rendering |
US20120200702A1 (en) * | 2009-11-09 | 2012-08-09 | Google Inc. | Orthorectifying Stitched Oblique Imagery To A Nadir View, And Applications Thereof |
US20130009950A1 (en) * | 2009-12-01 | 2013-01-10 | Rafael Advanced Defense Systems Ltd. | Method and system of generating a three-dimensional view of a real scene for military planning and operations |
US20110158504A1 (en) * | 2009-12-31 | 2011-06-30 | Disney Enterprises, Inc. | Apparatus and method for indicating depth of one or more pixels of a stereoscopic 3-d image comprised from a plurality of 2-d layers |
US20120232719A1 (en) * | 2010-08-20 | 2012-09-13 | Johnson Outdoors Inc. | System and Method for Automatically Navigating a Depth Contour |
US20120206468A1 (en) * | 2011-02-14 | 2012-08-16 | Bratt Joseph P | Edge Alphas for Image Translation |
Non-Patent Citations (1)
Title |
---|
RASHPAL KOR ET AL.: "Terrain Rendering Based On GeoMipMapping Algorithm Using OpenGL", 《PROCEEDINGS OF THE 2009 INTERNATIONAL CONFERENCE ON COMPUTER GRAPHICS & VIRTUAL REALITY》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107369200A (zh) * | 2017-07-04 | 2017-11-21 | 福建星网视易信息系统有限公司 | 一种3d场景特效处理方法及存储设备 |
CN107689189A (zh) * | 2017-08-31 | 2018-02-13 | 城市生活(北京)资讯有限公司 | 一种三维电子地图的绘制方法及装置 |
CN107689189B (zh) * | 2017-08-31 | 2019-09-27 | 城市生活(北京)资讯有限公司 | 一种三维电子地图的绘制方法及装置 |
CN111583370A (zh) * | 2020-04-29 | 2020-08-25 | 贝壳技术有限公司 | 画面更新方法、装置、计算机可读存储介质及电子设备 |
CN111583370B (zh) * | 2020-04-29 | 2021-04-16 | 北京房江湖科技有限公司 | 画面更新方法、装置、计算机可读存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN105122311B (zh) | 2019-04-26 |
US10984582B2 (en) | 2021-04-20 |
EP2972723A1 (en) | 2016-01-20 |
EP2972723B1 (en) | 2020-01-22 |
AU2014240990B2 (en) | 2019-12-12 |
AU2014240990A1 (en) | 2015-09-24 |
DE202014010917U1 (de) | 2017-01-17 |
US20200134903A1 (en) | 2020-04-30 |
US10593098B2 (en) | 2020-03-17 |
EP3654158A1 (en) | 2020-05-20 |
EP3654158B1 (en) | 2021-05-05 |
US20140267257A1 (en) | 2014-09-18 |
WO2014159342A1 (en) | 2014-10-02 |
US10181214B2 (en) | 2019-01-15 |
US20190147636A1 (en) | 2019-05-16 |
EP2972723A4 (en) | 2016-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105122311A (zh) | 用于渲染关于复杂三维对象的矢量数据的平滑叠加层 | |
CN109003325B (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
US9041711B1 (en) | Generating reduced resolution textured model from higher resolution model | |
CN102622776B (zh) | 三维环境重构 | |
KR101101114B1 (ko) | 배경 이미지를 이용한 3차원 아바타 서비스 제공 시스템 및 방법 | |
CN108140254A (zh) | 从地图数据中生成3d模型 | |
EP3655928B1 (en) | Soft-occlusion for computer graphics rendering | |
US9311748B2 (en) | Method and system for generating and storing data objects for multi-resolution geometry in a three dimensional model | |
CN109448137A (zh) | 交互方法、交互装置、电子设备及存储介质 | |
US8884955B1 (en) | Surface simplification based on offset tiles | |
Devaux et al. | 3D urban geovisualization: In situ augmented and mixed reality experiments | |
CN114022349A (zh) | 一种基于透视投影的平面图像处理方法及装置 | |
WO2022089061A1 (zh) | 物体标注信息呈现方法、装置、电子设备及存储介质 | |
US10275939B2 (en) | Determining two-dimensional images using three-dimensional models | |
KR102454180B1 (ko) | 3차원 지형 데이터를 생성 장치 및 방법 | |
Pintore et al. | 3DNSITE: A networked interactive 3D visualization system to simplify location awareness in crisis management | |
CN112825198A (zh) | 移动标签显示方法、装置、终端设备及可读存储介质 | |
US20180020165A1 (en) | Method and apparatus for displaying an image transition | |
JP7305919B2 (ja) | 建物設計支援装置及び建物設計支援プログラム | |
Pispidikis et al. | 3D Modelling and virtual reality for the management of public buildings | |
Agus et al. | PEEP: Perceptually Enhanced Exploration of Pictures. | |
Petkov et al. | Conformal visualization for partially-immersive platforms | |
Tsujimoto et al. | Server-enabled mixed reality for flood risk communication: On-site visualization with digital twins and multi-client support | |
Huang et al. | An efficient platform for 3D city model visualization | |
Tiwari et al. | A Chan Vese based method of texture extraction for automated texture draping of 3D geospatial objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: American California Applicant after: Google limited liability company Address before: American California Applicant before: Google Inc. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |