CN103052933A - 多尺度三维取向 - Google Patents

多尺度三维取向 Download PDF

Info

Publication number
CN103052933A
CN103052933A CN2011800376743A CN201180037674A CN103052933A CN 103052933 A CN103052933 A CN 103052933A CN 2011800376743 A CN2011800376743 A CN 2011800376743A CN 201180037674 A CN201180037674 A CN 201180037674A CN 103052933 A CN103052933 A CN 103052933A
Authority
CN
China
Prior art keywords
environment
visible part
current location
image
spherical boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011800376743A
Other languages
English (en)
Inventor
托维·格罗斯曼
阿扎姆·卡恩
迈克尔·格吕克
詹姆斯·麦克雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Autodesk Inc
Original Assignee
Autodesk Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Autodesk Inc filed Critical Autodesk Inc
Publication of CN103052933A publication Critical patent/CN103052933A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user

Abstract

一种多尺度数据引擎被配置成基于多尺度三维(3D)数据集来生成3D环境。多尺度数据引擎还被配置成通过对3D环境内的3D对象选择性地进行分组来生成3D环境内的空间层次。多尺度数据引擎还被配置成响应于从终端用户接收到的输入以及基于与3D对象相关联的空间属性来识别3D环境内的特定3D对象。多尺度数据引擎还被配置成生成使得终端用户能够对3D环境进行导航的各种导航图形用户接口(GUI)。

Description

多尺度三维取向
相关申请的交叉引用
本申请要求于2010年7月30日提交的美国临时专利申请第61/369,635号以及于2011年7月28日提交的美国专利申请第13/193,531号的权益。这些申请中的每一个均通过引用合并于此。
技术领域
本发明涉及计算机动画领域,更具体地,涉及多尺度三维(3D)取向。
背景技术
近年来在3D计算机图形和交互方面的研究已经超越了单一对象创作和检查的狭窄领域,并且已经开始考虑复杂的多尺度对象和环境。用于对设计空间建模和了解的传统计算机图形方法虽然很好理解,但已经证实了对于这些新的且更复杂的图形环境略有局限。为了在这些新的图形环境中适当地和更有效地工作,需要对设计空间的更丰富了解。
如上述说明的,本领域中需要一种用于了解复杂的多尺度3D环境以及与该多尺度3D环境交互的改进的技术。
发明内容
本发明的一个实施例包括一种用于生成导航图形用户界面(GUI)的计算机实现方法,该导航用户界面(GUI)用于对与多尺度三维(3D)数据集相关联的3D环境进行导航。该方法包括:接收3D环境内的当前位置,其中,根据当前位置的视角来渲染3D环境的可见部分以进行显示;识别存在于3D环境的不可见部分内的3D对象;以及使得对象指示符显示在3D环境的可见部分内,其中,该对象指示符具有表示在3D环境的不可见部分内的3D对象相对于当前位置的位置的取向。
有利地,向终端用户提供用于与包括能够以各种不同的尺度观察的属性的复杂的3D环境进行交互的各种方式。这样的方法对于利用与这样的3D环境的每个不同尺度相关联的视觉上身临其境的细节来吸引用户而言是至关重要的。
附图说明
因此,可以通过参照实施例来获得可以详细地理解本发明的上述特征的方式,即以上简要概述的对本发明的更具体描述,附图中示出了其中的一些实施例。然而,应注意,附图仅示出了本发明的典型实施例,因此,不应被认为是对本发明的范围的限制,因为本发明可以承认其他同样有效的实施例。
图1A是被配置成实现本发明的一个或多个方面的系统的框图;
图1B是根据本发明的一个实施例的、图1A的系统存储器的更详细图示;
图2示出了根据本发明的一个实施例的、存在于3D场景内的各种元素;
图3A至图9示出了根据本发明的一个实施例的、3D环境的不同屏幕截图;
图10是根据本发明的一个实施例的、用于对多尺度3D数据集进行可视化的方法步骤的流程图;
图11是根据本发明的一个实施例的、用于对多尺度3D数据集进行查询的方法步骤的流程图;以及
图12是根据本发明的一个实施例的、用于基于多尺度3D数据集来生成导航GUI的方法步骤的流程图。
具体实施方式
在以下描述中,阐述了大量的具体细节,以提供对本发明的更透彻理解。然而,本领域技术人员显而易见的是,可以在没有这些具体细节中的一个或多个的情况下实现本发明。在其他情况下,没有描述公知的特征,以避免难以理解本发明。
硬件概述
图1描绘了可以实现本发明的实施例的系统100的一种体系结构。该图决不以任何方式限制或意在限制本发明的范围。系统100可以是个人计算机、视频游戏控制台、个人数字助理、渲染引擎或者适于实现本发明的一个或多个实施例的任何其他装置。
如所示的,系统100包括经由可包括内存桥105的总线路径进行通信的中央处理单元(CPU)102和系统存储器104。CPU102包括一个或多个处理核,并且在操作中,CPU102是控制和协调其他系统部件的操作的、系统100的主处理器。系统存储器104存储供CPU102使用的软件应用程序和数据。CPU102运行软件应用程序,并且可选地运行操作系统。可以是例如北桥芯片的内存桥105经由总线或其他通信路径(例如,超传输链路)连接至I/O(输入/输出)桥107。可以是例如南桥芯片的I/O桥107接收来自一个或多个用户输入装置108(例如,键盘、鼠标、操纵杆、数字化平板、触摸板、触摸屏、数码相机或摄像机、运动传感器和/或麦克风)的用户输入,并且经由内存桥105将该输入转发至CPU102。
显示处理器112经由总线或其他通信路径(例如,PCI Express、加速图形端口或者超传输链路)耦接至内存桥105;在一个实施例中,显示处理器112为包括至少一个图形处理单元(GPU)和图形存储器的图形子系统。图形存储器包括用于存储输出图像的每个像素的像素数据的显示存储器(例如,帧缓存器)。图形存储器可以与GPU集成在相同装置中,可以作为单独的装置与GPU连接,和/或可以在系统存储器104内实现。
显示处理器112定期地向显示装置110(例如,屏幕或者传统的基于CRT、等离子、OLED、SED或LCD的监视器或电视机)传输像素。另外,显示处理器112可以向适于在照相胶片上再现计算机生成的图像的胶片记录器输出像素。显示处理器112可以向显示装置110提供模拟或数字信号。
系统盘114也连接至I/O桥107,并且可以被配置成存储供CPU102和显示处理器112使用的内容以及应用程序和数据。系统盘114提供对于应用程序和数据的非易失性存储,并且可以包括固定的或可移动的硬盘驱动器、闪存装置、以及CD-ROM、DVD-ROM、蓝光、HD-DVD或其他磁存储装置、光存储装置或者固态存储装置。
开关116在I/O桥107与其他部件(诸如,网络适配器118以及各种附加卡120和121)之间提供连接。网络适配器118使得系统100能够通过电子通信网络与其他系统通信,并且可以包括经由局域网和广域网(诸如,因特网)的有线或无线通信。
包括USB或其他端口连接、胶片记录装置等的其他部件(未示出)还可以连接至I/O桥107。例如,音频处理器可以用于根据由CPU102、系统存储器104或者系统盘114提供的指令和/或数据来生成模拟或数字音频输出。如本领域中已知的,可以使用任何适当的协议(诸如,PCI(外围部件互连)、PCI Express(PCI-E)、AGP(加速图形端口)、超传输或者任何其他总线或点对点通信协议)来实现使图1中的各个部件互连的通信路径,并且不同装置之间的连接可以使用不同协议。
在一个实施例中,显示处理器112与被优化用于图形和视频处理的电路(例如,包括视频输出电路)合并,并且构成图形处理单元(GPU)。在另一个实施例中,显示处理器112与被优化用于通用处理的电路合并。在又一个实施例中,显示处理器112可以与一个或多个其他系统元件(诸如,内存桥105、CPU102和I/O桥107)集成,以形成片上系统(SoC)。在又一个实施例中,省略了显示处理器112,而由CPU102执行的软件实现显示处理器112的功能。
可以直接从CPU102向显示处理器112提供像素数据。在本发明的一些实施例中,表示场景的指令和/或数据通过网络适配器118或系统盘114被提供给渲染农场(render farm)或一组服务器计算机,每个服务器计算机类似于系统100。渲染农场使用所提供的指令和/或数据来生成场景的一个或多个渲染图像。这些渲染图像可以以数字格式存储在计算机可读介质上,并且可选地返回到系统100以进行显示。类似地,由显示处理器112处理的立体图像对可以输出至其他系统以进行显示、存储在系统盘114中或者以数字格式存储在计算机可读介质上。
可替选地,CPU102向显示处理器112提供限定期望输出图像的数据和/或指令,显示处理器112根据该数据和/或指令生成一个或多个输出图像的像素数据,该数据和/或指令包括对立体图像对之间的偏移进行表征和/或调整。限定期望输出图像的数据和/或指令可以存储在系统存储器104或显示处理器112内的图形存储器中。在实施例中,显示处理器112包括用于根据限定关于场景的几何结构、照明阴影、纹理、运动和/或摄像装置参数的指令和数据来生成输出图像的像素数据的3D渲染能力。显示处理器112还可以包括能够执行着色器程序、色调映射程序等的一个或多个可编程执行单元。
CPU102、渲染农场和/或显示处理器112可以采用本领域中公知的任何表面或容积渲染技术来根据所提供的数据和指令创建一个或多个渲染图像,包括光栅化、扫描线渲染REYES或微多边形渲染、光线投射、光线追踪、基于图像的渲染技术和/或这些技术与本领域中公知的任何其他渲染或图像处理技术的组合。
应当理解,本文中所示的系统是说明性的,并且可以进行变型和修改。可以根据需要修改连接拓扑结构,包括桥的数量和布置。例如,在一些实施例中,系统存储器104直接而非通过桥连接至CPU102,并且其他装置通过内存桥105和CPU102与系统存储器104通信。在其他替选拓扑结构中,显示处理器112连接至I/O桥107或直接连接至CPU102,而不是连接至内存桥105。在另一些其他实施例中,I/O桥107和内存桥105可以被集成为单个芯片。本文中所示的具体部件是可选的;例如,可以支持任意数量的附加卡或外围装置。在一些实施例中,除去了开关116,并且网络适配器118和附加卡120、121直接连接至I/O桥107。
软件概述
图1B是根据本发明的一种实施例的、图1A的系统存储器104的更详细图示。如所示的,系统存储器104包括被配置成对多尺度3D数据集132进行访问的多尺度数据引擎130。多尺度3D数据集132表示可以包括能够以多个不同尺度观察的属性的3D环境。
例如,多尺度3D数据集132可以是表示行星地球的3D模型的地理空间数据集。在本示例中,多尺度3D数据集132可以包括表示地球的大球体,该球体对应于“行星”尺度。另外,多尺度3D数据集132可以包括表示城市的、布置在球体的表面上的3D矩形组,这些3D矩形组对应于“城市”尺度。在给定的“城市”内,每个“建筑物”可以包括各种建筑元素,例如,诸如桁条、梁、楼梯或者窗口,这些建筑元素对应于“建筑物”尺度。本领域的技术人员会认识到,多尺度3D数据集132可以表示任何类型的3D环境,另外,可以使用各种可能的数据结构和/或数据格式来这样做。
在一个实施例中,多尺度3D数据集132表示基于从地理信息系统(GIS)数据库得到的数据的3D环境。例如,多尺度3D数据集132可以表示3D高度图,其中,该图中的每个点均具有独特的GIS标签。多尺度3D数据集132还可以实现不同的数据结构和/或数据格式以表示3D环境内的每个不同尺度。例如,多尺度3D数据集132可以将城市的3D模型表示为各种点云,每个点云对应于城市内的不同建筑物。可以使用GIS数据来以“行星”尺度对每个点云进行定位。可以以较小的“建筑物”尺度、相对于给定点云的GIS标签来限定该点云内的点。
多尺度3D数据集132可以使用一个或多个不同的3D数据集来表示3D环境,每个3D数据集对应于该3D环境的不同尺度。在一些实施例中,多尺度3D数据集132内的每个3D数据集与其他3D数据集对齐,或者相对于其他3D数据集嵌套在多尺度3D数据集132内。如以下进一步描述的,与多尺度3D数据集132相关联的3D环境可以由终端用户使用多尺度数据引擎130来访问。
多尺度数据引擎130包括可视化引擎134、查询引擎136和导航引擎138,其中每个引擎被配置成利用多尺度3D数据集132来执行各种处理操作。终端用户可以通过输入装置108向多尺度数据引擎130内的各种引擎发布命令,并且可以通过显示装置110接收由这些引擎生成的输出。如以下结合图2和图10更详细地描述的,可视化引擎134被配置成基于多尺度3D数据集132对3D环境进行渲染,以输出至显示装置110。如以下结合图2和图11更详细地描述的,查询引擎136被配置成基于通过输入装置108从终端用户接收的查询来识别多尺度3D数据集132内的3D对象。如以下结合图3至图9和图12更详细地描述的,导航引擎138被配置成基于多尺度3D数据集132来生成各种导航GUI,以使得终端用户能够对与多尺度数据集132相关联的3D环境进行导航。
对多尺度3D数据集进行可视化、查询和导航
图2示出了根据本发明的一个实施例的、存在于3D场景200中的各种元素的第三人视角。如以上结合图1B所描述的,3D场景200可以表示与多尺度3D数据集132相关联的3D环境的第三人快照。如所示出的,3D场景200包括3D对象202、204和206以及摄像装置208。以上结合图1B所描述的可视化引擎134被配置成对图像进行渲染,以从摄像装置208的视角向终端用户进行显示。
可视化引擎134还被配置成通过基于与3D对象相关联的空间属性对3D对象选择性地进行分组来生成3D环境内的3D对象的“空间层次”。如本文中作为示例所描述的,以这种方式,可视化引擎134可以通过减少可见3D对象的数量来“清理”3D环境。
可视化引擎134被配置成基于3D对象202、204和206中的两个或更多个之间的线性距离、相对于照摄像装置208的在这些对象之间的角距离和/或基于这些对象与摄像装置210之间的距离来对这些3D对象进行分组。在3D场景200中,δ1表示3D对象202与3D对象204之间的线性距离,δ2表示3D对象204与3D对象206之间的线性距离,α1表示3D对象202与3D对象204之间的角距离,α2表示3D对象204与3D对象206之间的角距离。另外,δ3、δ4和δ5分别表示3D对象202、204和206与摄像装置208之间的距离。
在本发明的一个实施例中,可视化引擎134可以被配置成在3D对象202、204和206中的两个或更多个之间的线性距离小于给定的线性阈值时,对这些3D对象进行分组。例如,如果δ1小于该线性阈值,则可视化引擎134可以对3D对象202和204进行分组。
在本发明的另一个实施例中,可视化引擎134可以被配置成在相对于摄像装置208的在3D对象202、204和206中的两个或更多个之间的角距离小于给定的角度阈值时,对这些3D对象进行分组。例如,如果α2小于该角度阈值,则可视化引擎134可以对3D对象202和206进行分组。
在本发明的又一实施例中,可视化引擎134可以被配置成基于3D对象202、204和206中的两个或更多个之间的线性距离、相对于摄像装置208的在这些3D对象之间的角距离或者每个3D对象与照摄像装置208之间的距离的任意组合来对这些3D对象进行分组。
当对图像进行渲染以进行显示时,可视化引擎134可以将3D对象组表示为表示该组的单个3D对象。例如,当对3D对象202和204进行分组时,可视化引擎134可以对表示该组的单个3D对象进行渲染。以这种方式,可视化引擎134可以降低具有大量3D对象的3D场景的复杂度。本领域技术人员会认识到,可视化引擎134可以基于与任意数量的3D对象相关联的各种空间属性对这些3D对象一起分组,并且上述示例仅用于说明目的。
再次参照图2的3D场景200,查询引擎136被配置成基于与3D对象202、204和206中的一个或多个相关联的空间属性来识别这些3D对象。通过这种技术,查询引擎136使得终端用户能够进行对与多尺度3D数据集132相关联的3D对象的搜索,以确定与搜索准则相匹配的特定3D对象。例如,终端用户可能希望搜索定位在摄像装置208的特定距离内的3D对象。如果该距离小于δ5但大于δ3和δ4,则查询引擎136可以为终端用户识别3D对象206。
查询引擎136还被配置成基于与多尺度3D数据集132相关联的3D对象的其他非空间属性来进行对这些3D对象的搜索。例如,查询引擎136可以基于对一个或多个3D对象的描述、这些3D对象是否已由可视化引擎134分组或者这些3D对象存在的尺度等来识别这些3D对象。查询引擎136还可以基于与一个或多个3D对象相关联的不同属性的任意组合来识别这些3D对象。一旦查询引擎136识别出一个或多个3D对象,查询引擎136就可以使得对这些对象的表示显示给终端用户。本领域技术人员会认识到,查询引擎136可以基于各种空间和/或非空间属性来进行对与多尺度3D数据集132相关联的3D对象的搜索,并且上述示例仅用于说明目的。
除了提供用于对多尺度3D数据集132进行可视化和搜索的技术,多尺度数据引擎130还提供了用于对用多尺度3D数据集132表示的3D环境进行导航的各种技术。具体地,如以下结合图3A至图9和图12更详细地描述的,多尺度数据引擎130内的导航引擎138被配置成生成使得终端用户能够导航该3D环境的各种导航GUI。
图3A示出了根据本发明的一个实施例的、3D环境的屏幕截图300。如结合图2所述,屏幕截图300表示可由可视化引擎134从摄像装置208的视角生成的图像。屏幕截图300表示与多尺度3D数据集132相关联的3D环境,并且可以通过显示装置110向终端用户显示。如所示,屏幕截图300包括光标302、方向锥304和3D缩略图图像306。
导航引擎138被配置成生成方向锥304以表示3D环境内的屏幕外(off-screen)3D对象。在图3A所示的示例性实施例中,屏幕外对象朝向右上方、在屏幕截图300被捕获的视角后面。当终端用户将光标302停留在方向锥304上时,导航引擎138生成3D缩略图图像306。3D缩略图图像306表示屏幕外对象(在这种情况下,屏幕外对象为环面)。导航引擎138可以使3D缩略图图像306旋转以从各个视角表示屏幕外对象,并且可以将3D缩略图图像306缩放到合适的大小。另外,当终端用户使用光标302选择方向锥304时,导航引擎138可以将终端用户导航至用方向锥304表示的3D对象,即,导航引擎138可以改变与终端用户相关联的摄像装置位置,以使3D对象在屏幕上。如在以下结合图3B更详细地描述的,导航引擎138还被配置成生成表示3D对象组的方向锥。
图3B示出了根据本发明的一个实施例的、3D环境的屏幕截图320。与图3A中的屏幕截图300类似,屏幕截图320可以由可视化引擎134生成,以表示与多尺度3D数据集132相关联的3D环境。如所示的,屏幕截图320包括光标302、方向锥324和分段圆盘(segmented disk)326。分段圆盘包括圆盘段326-1至326-5。
导航引擎138被配置成生成方向锥324,以表示3D环境内的屏幕外3D对象组。屏幕外3D对象组可以由例如可视化引擎134生成。在图3B所示的示例性实施例中,屏幕外3D对象组朝向左上方、在屏幕截图320被捕获的视角后面。导航引擎138还被配置成生成分段圆盘326,以表示包括在屏幕外组内的3D对象的数量。如所示的,分段圆盘326表示五个对象包括在屏幕外组中。导航引擎138还可以使得大量屏幕外对象连同方向锥324和/或分段圆盘326一起被明确显示。
在一个实施例中,导航引擎138可以使得以相对于与对象组不相关联的其他方向锥(诸如,例如图3A的方向锥304)为唯一的颜色和/或纹理来显示方向锥324。通过这种技术,导航引擎138对表示3D对象组的方向锥与表示单个3D对象的方向锥进行区分。
当终端用户将光标302停留在方向锥324上时,导航引擎138可以使得表示屏幕外组内的3D对象的3D缩略图图像被显示,并且可以将这些3D缩略图图像缩放到合适的大小。另外,当终端用户使用光标302来选择方向锥324时,导航引擎138可以将终端用户导航至该3D对象组,即,导航引擎138可以改变与终端用户相关联的摄像装置位置,以使得该3D对象组在屏幕上。
如以下结合图4至图9更详细地描述的,导航引擎138还被配置成将一个或多个方向锥(例如,上述一个或多个方向锥304和/或324)与各种其他图形元素合并,以生成不同的“导航GUI”。
图4示出了根据本发明的一个实施例的、与多尺度3D数据集132相关联的3D环境的屏幕截图400。如所示的,屏幕截图400包括锥环402。如之前所述,锥环402是由导航引擎138生成的“导航GUI”。锥环402包括沿二维(2D)圆形边界414布置的方向锥404、406、408、410和412。屏幕截图400中仅示出圆形边界414,以说明方向锥在锥环402内的优选分布,并且圆形边界414通常可以对于终端用户而言是不可见的。
导航引擎138被配置成生成锥环402,以表示当前在屏幕外的3D对象和/或3D对象组,即,对于终端用户而言不可见的3D对象。包括在锥环402内的每个方向锥基本上分别与以上结合图3A和图3B描述的方向锥304或方向锥324类似。例如,方向锥406、408和410以与图3A的方向锥304类似的方式表示单个屏幕外3D对象。另外,方向锥404和412以与图3B的方向锥324类似的方式表示屏幕外3D对象组。如同方向锥304和324一样,终端用户可以将光标302停留在锥环402内的一个方向锥上,并且作为响应,导航引擎138可以显示一个或多个3D缩略图图像。此外,终端用户可以选择锥环402内的一个方向锥,并且作为响应,导航引擎138可以将终端用户导航至用该方向锥表示的3D对象或对象组。
导航引擎138被配置成将锥环402定位在3D环境内距终端用户给定距离处,即在距与终端用户相关联的摄像装置位置给定距离处。该距离可以是基于从终端用户接收的输入来配置的。导航138还被配置成生成具有圆形边界414的锥环402,该圆形边界414具有可配置的半径。在一个实施例中,导航引擎138基于终端用户在3D环境内的当前位置来确定每个方向锥在锥环402内的位置和取向。在另一个实施例中,导航引擎138可以基于锥环402在3D环境内的当前位置来确定每个方向锥在锥环402内的位置和取向。
在又一个实施例中,导航引擎138可以响应于终端用户的位置的变化和/或锥环402的位置的变化来动态地改变每个方向锥在锥环402内的位置和取向。当导航引擎138改变给定的方向锥在锥环402内的位置时,该方向锥通常被约束为沿圆形边界414移动。另外,当导航引擎138改变给定的方向锥在锥环402内的取向时,该方向锥通常被约束为指向或远离锥环402的中心。
导航引擎138还被配置成当屏幕上对象移动到屏幕外时,向锥环402添加另外的方向锥。在这种情况下,导航引擎138添加表示屏幕外对象的方向锥。在一个实施例中,导航引擎138可以将方向锥包括在锥环402内,以表示屏幕外对象和屏幕上对象两者。在本实施例中,当3D对象存在于圆形边界414内时,导航引擎138可以提供指向锥环402的中心的方向锥。
在另一个实施例中,导航引擎138可以基于3D对象(或3D对象组)的位置来确定是否用方向锥表示该3D对象(或3D对象组)。例如,如果给定的3D对象距终端用户的当前位置足够远,那么导航引擎138可以不将表示该3D对象的方向锥包括在锥环402内。
如以下结合图5更详细地描述的,导航引擎138还被配置成生成可以与上述的锥环402具有类似属性的“锥形球体”导航GUI。
图5示出了根据本发明的一个实施例的、与多尺度3D数据集132相关联的3D环境的屏幕截图500。如所示的,屏幕截图500包括锥形球体502。锥形球体502是由导航引擎138生成的导航GUI,并且包括方向锥504、506、508、510、512、514和516。包括在锥形球体502内的方向锥沿3D球形边界518布置。屏幕截图500中示出了球形边界518,以仅说明方向锥在锥形球体502内的优选分布,并且球形边界518通常对于终端用户而言是不可见的。
如同前面所描述的锥环402一样,导航引擎138被配置成生成锥形球体502,以表示当前在屏幕外的3D对象和/或3D对象组,即,对于终端用户而言不可见的3D对象。包括在锥形球体502内的每个方向锥基本上分别与以上结合图3A和图3B描述的方向锥304或方向锥324类似。例如,方向锥504、506、512、514和516以与图3A的方向锥304类似的方式表示单个屏幕外3D对象。另外,方向锥508和510以与图3B的方向锥324类似的方式表示屏幕外3D对象组。如同方向锥304和324一样,终端用户可以将光标302停留在锥环402内的一个方向锥上,并且作为响应,导航引擎138可以显示一个或多个3D缩略图图像。此外,终端用户可以选择锥环402内的一个方向锥,并且作为响应,导航引擎138可以将终端用户导航至用该方向锥表示的3D对象或对象组。
导航引擎138被配置成将锥形球体502定位在3D环境中距终端用户给定距离处,即,在距与终端用户相关联的摄像装置位置给定距离处。该距离可以是基于从终端用户接收到的输入来配置的。导航138还被配置成生成具有球形边界518的锥形球体502,该球形边界518具有可配置的半径。在一个实施例中,导航引擎138基于终端用户在3D环境内的当前位置来确定每个方向锥在锥形球体502内的位置和取向。在另一个实施例中,导航引擎138可以基于锥形球体502在3D环境内的当前位置来确定每个方向锥在锥形球体502内的位置和取向。
在又一个实施例中,导航引擎138可以响应于终端用户的位置的变化和/或锥形球体502的位置的变化来动态地改变每个方向锥在锥形球体502内的位置和取向。当导航引擎138改变给定的方向锥在锥形球体502内的位置时,该方向锥通常被约束为沿球形边界518移动。另外,当导航引擎138改变给定的方向锥在锥形球体502内的取向时,该方向锥通常被约束为指向或远离锥形球体502的中心。
导航引擎138还被配置成当屏幕上对象移动到屏幕外时,向锥形球体502添加另外的方向锥。在这种情况下,导航引擎138添加表示屏幕外对象的方向锥。在一个实施例中,导航引擎138可以将方向锥包括在锥形球体502内,以表示屏幕外对象和屏幕上对象两者。在本实施例中,当3D对象存在于球形边界518内时,导航引擎138可以提供指向锥形球体502的中心的方向锥。
在另一个实施例中,导航引擎138可以基于3D对象(或3D对象组)的位置来确定是否用方向锥表示该3D对象(或3D对象组)。例如,如果给定的3D对象距终端用户的当前位置足够远,那么导航引擎138可以不将表示该3D对象的方向锥包括在锥形球体502内。
如以下结合图5更详细地描述的,导航引擎138被配置成通过将锥形球体502的表面转换成2D平面来生成锥形球体502的2D表示。
图6示出了根据本发明的一个实施例的、与多尺度3D数据集132相关联的3D环境的屏幕截图600。如所示的,屏幕截图600包括栅格602。导航引擎138通过将锥形球体502的球形边界518投影到2D平面上来生成栅格602。栅格602包括方向锥604、608、610、612和616。栅格602内的方向锥可以直接与布置在锥形球体502的表面上的方向锥相对应。
与图3A的方向锥304类似,方向锥608、610和616表示单个屏幕外3D对象。另外,方向锥608、614和620还分别包括扩展底部610、616和618。基于从终端用户的当前位置到与该锥相关联的3D对象的距离而对围绕给定的方向锥的扩展底部着色。以这种方式,扩展底部610、616和618表示从终端用户的当前位置到与对应于这些扩展底部的方向锥相关联的3D对象的距离。
与图3B的方向锥324类似,方向锥604和612表示屏幕外3D对象组。方向锥604和612还分别包括分段圆盘606和614。分段圆盘606包括圆盘段606-1至606-4,而分段圆盘614包括圆盘段614-1和614-2。另外,与扩展底部610、616和618类似,围绕给定的方向锥的分段圆盘基于距与该锥相关联的3D对象的距离而被着色。以这种方式,分段圆盘606和614表示距与对应于这些分段圆盘的方向锥相关联的3D对象的距离。在一个实施例中,终端用户可以将范围缩小为方向锥604或614之一,并且作为响应,导航引擎138接着显示与用该方向锥表示的组内的3D对象相对应的3D缩略图图像。
如以下结合图7至图9更详细地描述的,还可以对结合图4至图6所描述的导航GUI进行扩展,以显示定位在屏幕外的3D对象和3D对象组的表示。
图7A示出了根据本发明的一个实施例的、与多尺度3D数据集132相关联的3D环境的屏幕截图700。如所示的,屏幕截图700包括镜球(mirror ball)702。镜球702是由导航引擎138生成的另一导航GUI。镜球702具有反射表面704,在该反射表面上可以呈现屏幕外对象的图像。镜球702的反射表面704被划分为Voronoi区域710、720、730、740、750和760。反射表面704上的每个Voronoi区域可以显示周围的3D环境的不同区域的反射图像。每个Voronoi区域还可以显示存在于与该Voronoi区域相对应的3D环境的区域内的3D对象或3D对象组的反射图像。例如,Voronoi区域760反射屏幕外球的图像764。同样,Voronoi区域750反射屏幕外环面的图像752。导航引擎138被配置成对由反射表面704反射的图像进行缩放,使得被反射表面704反射的每个图像均具有类似的大小。
当给定的Voronoi区域反射包括3D对象或3D对象组的3D环境内的图像时,导航引擎138将方向锥包括在该Voronoi区域内。如所示的,Voronoi区域720包括方向锥722,Voronoi区域740包括方向锥742,Voronoi区域750包括方向锥752,Voronoi区域760包括方向锥762。给定的Voronoi区域内的方向锥可以基本上分别与以上结合图3A和图3B所述的方向锥304或方向锥324类似。
在一个实施例中,导航引擎138基于与Voronoi区域和/或终端用户在3D环境内的摄像装置位置相关联的3D对象或3D对象组与镜球702之间的距离来确定该Voronoi区域内的方向锥的高度。在另一个实施例中,导航引擎138被配置成基于与每个Voronoi区域和/或终端用户在3D环境内的摄像装置位置相关联的3D对象或3D对象组与镜球702之间的距离来对该Voronoi区域着色。例如,如所示的,Voronoi区域740和760呈现为被着色,从而表示相应的3D对象或3D对象组相对远离镜球702。
如以下结合图7B更详细地描述的,导航引擎138还被配置成在3D环境内生成多个镜球,以使得终端用户能够对3D对象组进行导航。
图7B示出了根据本发明的一个实施例的、与多尺度3D数据集132相关联的3D环境的屏幕截图770。如所示的,屏幕截图770包括镜球星座(constellation)788。镜球星座788是由导航引擎138生成的另一导航GUI,并且包括相对于3D对象772布置的父镜球774和子镜球778。通常,镜球星座788使得终端用户能够通过父镜球774查看子镜球778。镜球星座788还使得终端用户能够通过子镜球778查看3D对象772。
导航引擎138被配置成生成父镜球774和子镜球778并相对于可以作为较大的3D对象组的一部分的3D对象772定位父镜球774和子镜球778,以使得能够更好地查看该3D对象组。辅助线784表示父镜球774与子镜球778之间的父子关系,而辅助线786表示子镜球778与3D对象772之间的关系。父镜球774和子镜球778中的每一个均基本上与以上结合图7A所描述的镜球702类似。父镜球包括Voronoi区域776,而子镜球包括Voronoi区域780。如所示的,Voronoi区域780反射3D对象772的图像782。
当使用镜球星座788来对3D环境进行导航时,终端用户通常依赖于父镜球774来识别3D对象和3D对象组。导航引擎138被配置成使得父镜球774使用子镜球778来表示3D对象组。因此,Voronoi区域776可以反射子球镜778的图像,子球镜778又可以表示3D对象772。以这种方式,导航引擎138被配置成生成父子镜球的空间层次。导航引擎138还使得终端用户能够对该空间层次进行导航。例如,终端用户可以选择子镜球778在父镜球774内的反射图像,并且作为响应,导航引擎138可以移动终端用户的摄像装置位置以导向子镜球778。此外,终端用户可以接着选择图像782,并且作为响应,导航引擎138可以移动终端用户的摄像装置位置以导向3D对象772。在一个实施例中,父镜球774和子镜球778各自与多尺度3D数据集132内的不同3D数据集相对应。
如以下结合图8更详细地描述的,导航引擎138还被配置成通过将镜球的表面投影到2D空间内来生成该镜球的2D表示。
图8示出了根据本发明的一个实施例的、与多尺度3D数据集132相关联的3D环境的屏幕截图800。如所示的,屏幕截图800包括展开的表面802。导航引擎138通过将镜球的反射表面展开并将该反射表面投影到2D平面上来生成展开的表面802。本领域技术人员会认识到,可以使用用于展开球体表面的任何技术上可行的算法、基于镜球来生成展开的表面802。展开的表面802包括Voronoi区域810、820、830、840、850、860、870、880和890。Voronoi区域810、820和880分别包括方向锥812、822和882。
布置在展开的表面802的Voronoi区域内的给定方向锥表示与该Voronoi区域相关联的对象或对象组。例如,方向锥812表示3D对象814,方向锥822表示包括3D对象824和826的3D对象组,以及方向锥882表示3D对象884。导航引擎138被配置成将与给定的方向锥相关联的给定3D对象或3D对象组定位在该方向锥上方的特定高度处。导航引擎138基于终端用户的摄像装置位置与3D对象或3D对象组之间的距离来确定该高度。如同以上结合图7A所描述的镜球702一样,终端用户可以使用展开的表面902来导航至特定的3D对象或3D对象组。
如以下图9中更详细地描述的,导航引擎138还被配置成生成使得终端用户能够查看3D环境的压缩表示的“变形透镜”导航GUI。
图9示出了根据本发明的一个实施例的、与多尺度3D数据集132相关联的3D环境的屏幕截图900。如所示的,屏幕截图900包括变形透镜802、以及3D对象814、824和864。变形透镜802的表面被划分成Voronoi区域810、820、830、840、850和860。每个Voronoi区域可以显示与3D环境的不同区域相对应的图像。导航引擎138使得变形透镜802显示3D环境的区域中在水平方向和垂直方向上都位于180度视场内的图像。因此,变形透镜802可以显示屏幕上3D对象和屏幕外3D对象两者的图像。
Voronoi区域810显示3D对象814的图像812,Voronoi区域820显示3D对象824的图像822,Voronoi区域850显示屏幕外3D对象的图像,以及Voronoi区域860显示3D对象864的图像862。导航引擎138被配置成基于从终端用户的摄像装置位置到与每个Voronoi区域相关联的3D对象或3D对象组的距离使得该Voronoi区域着色。例如,3D对象824相对靠近终端用户的摄像装置位置,所以Voronoi区域820被轻微地上色。相反,3D对象864相对远离终端用户的摄像装置位置,所以Voronoi区域860成比例地着色。
导航引擎138还被配置成对每个Voronoi区域内的图像进行缩放,使得每个图像具有类似大小。例如,尽管3D对象824显得相当大,而3D对象814显得相当小,但是与这些3D对象相对应的图像(分别为图像822和812)在大小上显得相似。在一个实施例中,导航引擎138结合镜球702来实现变形透镜802,以便显示存在于终端用户的摄像装置位置后面的3D对象和3D对象组。
本领域技术人员会认识到,当使得终端用户能够对与多尺度3D数据集132相关联的3D环境进行导航时,导航引擎138可以实现以上结合图3A至图9所描述的导航GUI中的任一个及其任意组合。另外,导航引擎138可以基于多尺度3D数据集132、多尺度3D数据集132内的特定3D数据集、用户输入和/或用户偏好或者3D环境的当前尺度等来选择特定的导航GUI。此外,导航引擎138可以通过将导航GUI中的任一个关联在一起来生成3D环境内的父子关系的空间层次。
图10是根据本发明的一个实施例的、用于对多尺度3D数据集132进行可视化的方法步骤的流程图。尽管结合图1A和图1B的系统描述了这些方法步骤,但是本领域技术人员会理解,被配置成以任何顺序执行这些方法步骤的任何系统在本发明的范围内。
如所示的,方法1000开始于步骤1002,在步骤1002中,多尺度数据引擎130内的可视化引擎134显示3D环境内的一个或多个3D对象。可视化引擎134基于多尺度3D数据集132来生成3D环境。在步骤1004处,可视化引擎134确定各3D对象之间的线性距离。在步骤1006处,可视化引擎134确定相对于与终端用户相关联的摄像装置位置的、在各3D对象之间的角距离。实际上,可视化引擎134可以根据该摄像装置位置的视角来渲染3D环境以进行显示。在步骤1008处,可视化引擎134确定与终端用户相关联的摄像装置位置与每个3D对象之间的距离。
在步骤1010处,可视化引擎134基于3D对象之间的线性距离、相对于摄像装置位置的在3D对象之间的角距离和/或3D对象与摄像装置位置之间的距离来确定一个或多个对象组。在步骤1012处,可视化引擎134使得对象组显示在3D环境内。通过实现方法1000,可视化引擎134可以通过减少可见的3D对象的数量来“清理”3D环境。
图11是根据本发明的一个实施例的、用于查询多尺度3D数据集132的方法步骤的流程图。尽管结合图1A和图1B的系统描述了这些方法步骤,但本领域普通技术人员会理解,被配置成以任何顺序执行这些方法步骤的任何系统在本发明的范围内。
如所示的,方法1100开始于步骤1102,在步骤1102中,多尺度数据引擎130内的查询引擎136接收来自终端用户的、指定与期望的3D对象集相关联的一个或多个空间属性的查询。空间属性可以是例如距摄像装置位置的最大距离。在一个实施例中,该查询还可以指定非空间属性,诸如与期望的3D对象相关联的类别。在步骤1104处,查询引擎136识别与查询中所指定的空间属性相匹配的任何3D对象。这些3D对象存在于与多尺度3D数据集132相关联的3D环境内。在步骤1106处,查询引擎136使得所识别出的3D对象的指示显示。该指示可以是例如围绕所识别出的3D对象的辉光。通过实现方法1100,查询引擎136使得终端用户能够识别与所指定的属性相匹配的3D对象。
图12是根据本发明的一个实施例的、用于基于多尺度3D数据集132来生成导航GUI的方法步骤的流程图。尽管结合图1A和图1B的系统描述了这些方法步骤,但本领域技术人员会理解,被配置成以任何顺序执行这些方法步骤的任何系统在本发明的范围内。
如所示的,方法1200开始于步骤1202,在步骤1202中,多尺度数据引擎130内的导航引擎138接收与多尺度3D数据集132相关联的3D环境内的当前摄像装置位置。当前摄像装置位置可以用于对3D环境的图像进行渲染以向终端用户显示。在步骤1204处,导航引擎138识别3D环境内的3D对象集。3D对象可以是单独的3D对象或3D对象组。在步骤1206处,导航引擎138确定与3D对象相关联的一个或多个空间属性。在步骤1208处,导航引擎138使得一个或多个导航GUI基于一个或多个空间属性来显示。
本领域技术人员会认识到,当终端用户使用导航GUI通过3D环境进行导航时,可以重复地实现方法1200。例如,在导航引擎138通过实现方法1200来使得导航GUI显示之后,终端用户可以操纵导航GUI,以将摄像装置移动到3D环境内的不同位置。然后,导航引擎138可以通过再次实现方法1200来使得另一导航GUI显示。通过这样一次或多次地实现方法1200,导航引擎138可以使得各种不同的导航GUI显示。
总之,多尺度数据引擎被配置成访问多尺度3D数据集,并且基于该多尺度3D数据集来生成3D环境。多尺度数据引擎操纵3D环境,以对该环境内的各种3D对象进行分组。多尺度数据引擎还可以进行对3D环境的搜索,以识别与从终端用户接收到的搜索准则相匹配的3D对象。另外,多尺度数据引擎被配置成生成使得终端用户能够对3D环境进行导航的各种导航GUI。有利地,向终端用户提供用于与包括能够以各种不同的尺度观察的属性的复杂的3D环境进行交互的各种技术。这样的方法对于用与这样的3D环境的每个不同尺度相关联的视觉上身临其境的细节来吸引用户而言是至关重要的。
本发明的一个实施例可以被实现为用在计算机系统上的程序产品。程序产品的程序定义实施例的功能(包括本文所述的方法),并且可以包含在各种计算机可读存储介质上。说明性的计算机可读存储介质包括但不限于:(i)永久地存储有信息的非可写存储介质(例如,计算机内的只读存储器装置,诸如CD-ROM驱动器可读的CD-ROM磁盘、闪存、ROM芯片或任何类型的固态非易失性半导体存储器);以及(ii)存储有可变信息的可写存储介质(例如,软盘驱动器或硬盘驱动器中的软盘或任何类型的固态随机存取半导体存储器)。
以上已参照具体实施例对本发明进行了描述。然而,本领域技术人员会理解,可以在不偏离所附权利要求书中所阐述的本发明的更宽精神和范围的情况下,对本发明做出各种修改和变化。因此,以上描述和附图应当被视为说明性的而非限制性的。在所述权利要求中对本发明进行了阐述。

Claims (20)

1.一种用于生成导航图形用户界面GUI的计算机实现方法,所述导航图形用户界面GUI用于对与多尺度三维3D数据集相关联的3D环境进行导航,所述方法包括:
接收所述3D环境内的当前位置,其中,基于与所述当前位置相关联的视角来渲染所述3D环境的可见部分以进行显示;
识别存在于所述3D环境的不可见部分内的3D对象;以及
使得对象指示符显示在所述3D环境的可见部分内,其中,所述对象指示符具有指示在所述3D环境的不可见部分内的3D对象相对于所述当前位置的位置的取向。
2.根据权利要求1所述的计算机实现方法,其中,所述对象指示符在所述3D环境的可见部分内的位置被约束到也存在于所述可见部分内的圆形边界,并且所述方法还包括:
接收所述3D环境内的更新位置;
基于所述更新位置来在所述圆形边界上对所述对象指示符重新定位;以及
对所述对象指示符重定向,以指示在所述3D环境的不可见部分内的3D对象相对于所述更新位置的位置。
3.根据权利要求1所述的计算机实现方法,其中,所述对象指示符在所述3D环境的可见部分内的位置被约束到也存在于所述可见部分内的球形边界。
4.根据权利要求3所述的计算机实现方法,还包括:
接收所述3D环境内的更新位置;
基于所述更新位置来在所述球形边界上对所述对象指示符重新定位;以及
对所述对象指示符重定向,以指示在所述3D环境的不可见部分内的3D对象相对于所述更新位置的位置。
5.根据权利要求3所述的计算机实现方法,还包括:将所述球形边界投影到存在于所述3D环境的可见部分内的二维2D平面上,并且使得取向指示符呈现在所述2D平面上,其中,所述取向指示符指示所述当前位置与所述3D对象之间的距离。
6.根据权利要求3所述的计算机实现方法,其中,所述球形边界具有能够反射从所述3D环境的不可见部分得到的一个或多个图像的反射表面,并且其中,所述球形边界从所述3D环境的可见部分内反射所述3D环境的不可见部分内的3D对象的图像。
7.根据权利要求6所述的计算机实现方法,其中,所述3D环境包括具有反射表面并且存在于所述3D环境的不可见部分内的附加球形边界,并且其中,所述附加球形边界从所述3D环境的不可见部分内反射所述3D对象的图像,而所述球形边界从所述3D环境的可见部分内反射所述附加球形边界的图像。
8.根据权利要求6所述的计算机实现方法,还包括:将所述球形边界投影到存在于所述3D环境的可见部分内的2D平面上,并且使得所述3D对象的3D缩略图图像呈现在所述2D平面上方的表示所述当前位置与所述3D对象之间的距离的高度处。
9.根据权利要求1所述的计算机实现方法,其中,所述对象指示符被约束到包括变形透镜并且存在于所述3D环境的可见部分内的2D圆盘的表面,并且其中,所述变形透镜被配置成显示来自所述3D环境的可见部分和所述3D环境的不可见部分两者的图像。
10.一种包括指令的非暂时性计算机可读介质,所述指令在由处理单元执行时,通过执行以下步骤使得所述处理单元生成用于对与多尺度3D数据集相关联的3D环境进行导航的导航GUI,所述步骤包括:
接收所述3D环境内的当前位置,其中,基于与所述当前位置相关联的视角来渲染所述3D环境的可见部分以进行显示;
识别存在于所述3D环境的不可见部分内的3D对象;以及
使得对象指示符显示在所述3D环境的可见部分内,其中,所述对象指示符具有指示在所述3D环境的不可见部分内的3D对象相对于所述当前位置的位置的取向。
11.根据权利要求10所述的非暂时性计算机可读介质,其中,所述对象指示符在所述3D环境的可见部分内的位置被约束到也存在于所述可见部分内的圆形边界,并且还包括:
接收所述3D环境内的更新位置;
基于所述更新位置来在所述圆形边界上对所述对象指示符重新定位;以及
对所述对象指示符重定向,以指示在所述3D环境的不可见部分内的3D对象相对于所述更新位置的位置。
12.根据权利要求10所述的非暂时性计算机可读介质,其中,所述对象指示符在所述3D环境的可见部分内的位置被约束到也存在于所述可见部分内的球形边界。
13.根据权利要求12所述的非暂时性计算机可读介质,还包括以下步骤:
接收所述3D环境内的更新位置;
基于所述更新位置来在所述球形边界上对所述对象指示符重新定位;以及
对所述对象指示符重定向,以指示在所述3D环境的不可见部分内的3D对象相对于所述更新位置的位置。
14.根据权利要求12所述的非暂时性计算机可读介质,还包括:将所述球形边界投影到存在于所述3D环境的可见部分内的2D平面上,并且使得取向指示符呈现在所述2D平面上,其中,所述取向指示符指示所述当前位置与所述3D对象之间的距离。
15.根据权利要求12所述的非暂时性计算机可读介质,其中,所述球形边界具有能够反射从所述3D环境的不可见部分得到的一个或多个图像的反射表面,并且其中,所述球形边界从所述3D环境的可见部分内反射所述3D环境的不可见部分内的3D对象的图像。
16.根据权利要求15所述的非暂时性计算机可读介质,其中,所述3D环境包括具有反射表面并且存在于所述3D环境的不可见部分内的附加球形边界,并且其中,所述附加球形边界从所述3D环境的不可见部分内反射所述3D对象的图像,而所述球形边界从所述3D环境的可见部分内反射所述附加球形边界的图像。
17.根据权利要求15所述的非暂时性计算机可读介质,还包括以下步骤:将所述球形边界投影到存在于所述3D环境的可见部分内的2D平面上,并且使得所述3D缩略图图像呈现在所述2D平面上方的表示所述当前位置与所述3D对象之间的距离的高度处。
18.根据权利要求10所述的非暂时性计算机可读介质,其中,所述对象指示符被约束到包括变形透镜并且存在于所述3D环境的可见部分内的2D圆盘的表面,并且其中,所述变形透镜被配置成显示来自所述3D环境的可见部分和所述3D环境的不可见部分两者的图像。
19.一种被配置成生成导航GUI的计算装置,所述导航GUI用于对与多尺度3D数据集相关联的3D环境进行导航,所述计算装置包括:
处理单元,其被配置成:
接收所述3D环境内的当前位置,其中,基于与所述当前位置相关联的视角来渲染所述3D环境的可见部分以进行显示;
识别存在于所述3D环境的不可见部分内的3D对象;以及
使得对象指示符显示在所述3D环境的可见部分内,其中,所述对象指示符具有指示在所述3D环境的不可见部分内的3D对象相对于所述当前位置的位置的取向。
20.根据权利要求19所述的计算装置,还包括存储程序指令的存储器,所述程序指令在由所述处理器执行时将所述处理器配置成:
接收所述3D环境内的当前位置;
识别所述3D对象;以及
使得对象指示符显示在所述3D环境的可见部分内。
CN2011800376743A 2010-07-30 2011-07-29 多尺度三维取向 Pending CN103052933A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US36963510P 2010-07-30 2010-07-30
US61/369,635 2010-07-30
US13/193,531 US10140000B2 (en) 2010-07-30 2011-07-28 Multiscale three-dimensional orientation
US13/193,531 2011-07-28
PCT/US2011/046026 WO2012016220A1 (en) 2010-07-30 2011-07-29 Multiscale three-dimensional orientation

Publications (1)

Publication Number Publication Date
CN103052933A true CN103052933A (zh) 2013-04-17

Family

ID=45528001

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011800376743A Pending CN103052933A (zh) 2010-07-30 2011-07-29 多尺度三维取向

Country Status (6)

Country Link
US (1) US10140000B2 (zh)
EP (1) EP2598982A4 (zh)
JP (1) JP5592011B2 (zh)
CN (1) CN103052933A (zh)
DE (1) DE202011110655U1 (zh)
WO (1) WO2012016220A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106345118A (zh) * 2016-08-24 2017-01-25 网易(杭州)网络有限公司 一种渲染方法及装置

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9818220B2 (en) 2011-12-28 2017-11-14 General Electric Company Method and system for indicating light direction for a volume-rendered image
US10127722B2 (en) 2015-06-30 2018-11-13 Matterport, Inc. Mobile capture visualization incorporating three-dimensional and two-dimensional imagery
US10163261B2 (en) 2014-03-19 2018-12-25 Matterport, Inc. Selecting two-dimensional imagery data for display within a three-dimensional model
US10139985B2 (en) 2012-06-22 2018-11-27 Matterport, Inc. Defining, displaying and interacting with tags in a three-dimensional model
US9786097B2 (en) * 2012-06-22 2017-10-10 Matterport, Inc. Multi-modal method for interacting with 3D models
US20140062998A1 (en) * 2012-09-04 2014-03-06 Google Inc. User Interface for Orienting a Camera View Toward Surfaces in a 3D Map and Devices Incorporating the User Interface
US10019130B2 (en) * 2013-04-21 2018-07-10 Zspace, Inc. Zero parallax drawing within a three dimensional display
WO2015090421A1 (en) * 2013-12-19 2015-06-25 Metaio Gmbh Method and system for providing information associated with a view of a real environment superimposed with a virtual object
US9986225B2 (en) * 2014-02-14 2018-05-29 Autodesk, Inc. Techniques for cut-away stereo content in a stereoscopic display
JP2016143203A (ja) * 2015-01-30 2016-08-08 富士フイルム株式会社 診療支援装置、診療支援装置の作動方法および作動プログラム、並びに診療支援システム
US10209871B2 (en) * 2015-10-21 2019-02-19 International Business Machines Corporation Two-dimensional indication in contents
US11395020B2 (en) * 2016-09-08 2022-07-19 Telefonaktiebolaget Lm Ericsson (Publ) Bitrate control in a virtual reality (VR) environment
US10922895B2 (en) * 2018-05-04 2021-02-16 Microsoft Technology Licensing, Llc Projection of content libraries in three-dimensional environment
JP7052613B2 (ja) * 2018-07-20 2022-04-12 株式会社Jvcケンウッド 表示制御装置、表示制御方法及びプログラム
US20230119646A1 (en) * 2021-10-14 2023-04-20 Autodesk, Inc. Integration of a two-dimensional input device into a three-dimensional computing environment
US11550406B1 (en) 2021-10-14 2023-01-10 Autodesk, Inc. Integration of a two-dimensional input device into a three-dimensional computing environment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101033972A (zh) * 2007-02-06 2007-09-12 华中科技大学 一种空间非合作物体三维信息的获取方法
US20080150921A1 (en) * 2006-12-20 2008-06-26 Microsoft Corporation Supplementing and controlling the display of a data set
US20090289937A1 (en) * 2008-05-22 2009-11-26 Microsoft Corporation Multi-scale navigational visualtization

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001224849A (ja) 1999-12-10 2001-08-21 Sony Computer Entertainment Inc エンタテインメントシステム、エンタテインメント装置、記録媒体及びプログラム
US6791578B1 (en) 2000-05-30 2004-09-14 Apple Computer, Inc. 16:9 aspect ratio and anamorphic image processing
US7814436B2 (en) 2003-07-28 2010-10-12 Autodesk, Inc. 3D scene orientation indicator system with scene orientation change capability
US7737965B2 (en) * 2005-06-09 2010-06-15 Honeywell International Inc. Handheld synthetic vision device
US20070139408A1 (en) 2005-12-19 2007-06-21 Nokia Corporation Reflective image objects
US8954886B2 (en) * 2006-08-02 2015-02-10 Ebay Inc. System to present additional item information
US7782319B2 (en) 2007-03-28 2010-08-24 Autodesk, Inc. Three-dimensional orientation indicator and controller
US8191001B2 (en) * 2008-04-05 2012-05-29 Social Communications Company Shared virtual area communication environment based apparatus and methods
US8397168B2 (en) * 2008-04-05 2013-03-12 Social Communications Company Interfacing with a spatial virtual communication environment
US20090169060A1 (en) * 2007-12-26 2009-07-02 Robert Bosch Gmbh Method and apparatus for spatial display and selection
US20100188397A1 (en) * 2009-01-28 2010-07-29 Apple Inc. Three dimensional navigation using deterministic movement of an electronic device
US8719730B2 (en) * 2010-04-23 2014-05-06 Ganz Radial user interface and system for a virtual world game
US8944911B2 (en) * 2010-07-27 2015-02-03 Disney Enterprises, Inc. Online parallel play

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080150921A1 (en) * 2006-12-20 2008-06-26 Microsoft Corporation Supplementing and controlling the display of a data set
CN101033972A (zh) * 2007-02-06 2007-09-12 华中科技大学 一种空间非合作物体三维信息的获取方法
US20090289937A1 (en) * 2008-05-22 2009-11-26 Microsoft Corporation Multi-scale navigational visualtization

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JAMES MCCRAE等: "Exploring the Design Space of Multiscale 3D Orientation", 《CONFERENCE ON ADVANCED VISUAL INTERFACES(AVI ’10)》, 29 May 2010 (2010-05-29) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106345118A (zh) * 2016-08-24 2017-01-25 网易(杭州)网络有限公司 一种渲染方法及装置
CN106345118B (zh) * 2016-08-24 2019-07-30 网易(杭州)网络有限公司 一种渲染方法及装置

Also Published As

Publication number Publication date
EP2598982A1 (en) 2013-06-05
US10140000B2 (en) 2018-11-27
US20120030630A1 (en) 2012-02-02
JP2013536502A (ja) 2013-09-19
DE202011110655U1 (de) 2015-07-27
EP2598982A4 (en) 2014-09-24
WO2012016220A1 (en) 2012-02-02
JP5592011B2 (ja) 2014-09-17

Similar Documents

Publication Publication Date Title
CN103052933A (zh) 多尺度三维取向
US11494995B2 (en) Systems and methods for virtual and augmented reality
Zhang et al. Visualizing toronto city data with hololens: Using augmented reality for a city model
US9330501B2 (en) Systems and methods for augmenting panoramic image data with performance related data for a building
JP5799521B2 (ja) 情報処理装置、オーサリング方法及びプログラム
US10460510B2 (en) Methods and systems for viewing a three-dimensional (3D) virtual object
Bekele Walkable mixed reality map as interaction interface for virtual heritage
CN107223269A (zh) 三维场景定位方法和装置
WO2017203774A1 (ja) 情報処理装置、情報処理方法及び記憶媒体
WO2021018214A1 (zh) 虚拟对象处理方法及装置、存储介质和电子设备
US10672144B2 (en) Image display method, client terminal and system, and image sending method and server
JP2016516241A (ja) 拡張現実体験の様々な環境へのマッピング
CN103959340A (zh) 用于自动立体三维显示器的图形呈现技术
McCrae et al. Exploring the design space of multiscale 3D orientation
Liarokapis et al. Mobile augmented reality techniques for geovisualisation
US10489965B1 (en) Systems and methods for positioning a virtual camera
Trapp et al. Strategies for visualising 3D points-of-interest on mobile devices
JP2022034560A (ja) リモートデバイス上に大型3dモデルを表示するための方法およびシステム
US10891780B2 (en) Methods and systems for viewing a three-dimensional (3D) virtual object
Tatzgern et al. Exploring Distant Objects with Augmented Reality.
Henrysson et al. Using a mobile phone for 6 DOF mesh editing
Chu et al. Mobile navigation services with augmented reality
Ortman et al. Guidelines for user interactions in mobile augmented reality
Tseng et al. Development of intelligent tourism information system based on virtual reality
Asiminidis Augmented and Virtual Reality: Extensive Review

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130417