CN102985901B - 用于为移动设备上基于位置的服务渲染对象的立体图及与其相关的内容的方法和装置 - Google Patents
用于为移动设备上基于位置的服务渲染对象的立体图及与其相关的内容的方法和装置 Download PDFInfo
- Publication number
- CN102985901B CN102985901B CN201180034828.3A CN201180034828A CN102985901B CN 102985901 B CN102985901 B CN 102985901B CN 201180034828 A CN201180034828 A CN 201180034828A CN 102985901 B CN102985901 B CN 102985901B
- Authority
- CN
- China
- Prior art keywords
- axonometric chart
- content
- visual field
- user
- real time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9537—Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- Radar, Positioning & Navigation (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computing Systems (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Computer Hardware Design (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种方法,包括至少部分地促使渲染示出了视场中的一个或多个对象的立体图。该进一步包括检索与所述视场中的一个或多个对象中的对象关联的内容,以及至少部分地促使与所述内容相关的图形表示在用户界面中的立体图中可见的对象的表面上渲染以用于移动设备的基于位置的服务。
Description
背景技术
服务提供商(例如,无线、蜂窝、因特网、内容、社交网络等)和设备制造商不断受到挑战,以通过例如提供有竞争力的网络服务向消费者传递价值和便利。一个感兴趣的区域是随着例如导航标签和位置相关内容扩张的测绘和导航图形(例如,数字地图)和/或图像(例如,各个位置和兴趣点的360°全景街道标高视图)的发展。通常,导航、测绘和其它类似的服务可以显示全景视图或者两维渲染的地图。在2D地图视图中通常限制使用内容信息,并且尝试显示内容的增强现实视图往往提供不稳定的、杂乱的显示。
发明内容
因此,需要一种用于为移动设备上基于位置的服务渲染对象的立体图及与其相关的内容的方法。
根据一个实施例,一种方法包括至少部分地促使对示出视场中的一个或多个对象的立体图的渲染。该方法还包括检索与视场中的一个或多个对象中的对象关联的内容。该方法进一步包括至少部分地促使对涉及用户界面中的立体图中可见的对象的表面上的内容的图形表示的渲染以用于移动设备的基于位置的服务。
根据另一实施例,一种装置包括至少一个处理器和包括计算机程序代码的至少一个存储器,所述至少一个存储器和所述计算机程序代码被配置成使用所述至少一个处理器至少部分地使得所述装置至少部分地促使对示出视场中的一个或多个对象的立体图的渲染。还使得所述装置检索与视场中的一个或多个对象中的对象关联的内容。进一步使得所述装置至少部分地促使对涉及用户界面中的立体图中可见的对象的表面上的内容的图形表示的渲染以用于所述装置的基于位置的服务,其中所述装置是移动设备。
根据另一实施例,一种计算机可读存储介质承载一个或多个指令的一个或多个序列,当由一个或多个处理器执行时,其至少部分地使得装置至少部分地促使对示出视场中的一个或多个对象的立体图的渲染。还使得所述装置执行检索与视场中的一个或多个对象中的对象关联的内容。进一步使得所述装置执行至少部分地促使对涉及用户界面中的立体图中可见的对象的表面上的内容的图形表示的渲染以用于移动设备的基于位置的服务。
根据另一实施例,一种装置包括用于至少部分地促使对示出视场中的一个或多个对象的立体图的渲染的部件。该装置还包括用于检索与视场中的一个或多个对象中的对象关联的内容的部件。该装置进一步包括用于至少部分地促使对涉及用户界面中的立体图中可见的对象的表面上的内容的图形表示的渲染以用于移动设备的基于位置的服务的部件。
通过简单地示出多个特定实施例和实现方式,包括预期用于执行本发明的最佳模式,从下面的详细描述可容易地理解本发明的其它方面、特征和优势。本发明还可以有其它和不同的实施例,在不背离本发明的精神和范围的情况下,可以在各个明显的方面修改其不同细节。相应地,附图和描述应视为说明性的,而非限制性的。
附图说明
通过示例但非限制的方式示出本发明的实施例,在附图中:
图1是根据一个实施例,能够为移动设备上基于位置的服务渲染对象的立体图及其相关的内容的系统的示意图;
图2是根据一个实施例的测绘和用户界面应用的组件的示意图;
图3A是根据一个实施例为移动设备上基于位置的服务渲染对象的立体图及其相关的内容的过程的流程图;
图3B是根据一个实施例省略被另一对象在立体图中的渲染遮住的远处对象的图形表示的过程的流程图;
图4A和4B是根据各种实施例在图3A和3B的过程中使用的用户界面的示意图;
图5是根据一个实施例在图3A和3B的过程中使用的用户界面的示意图;
图6是根据一个实施例在图3A和3B的过程中使用的用户界面的示意图;
图7是可用于实现本发明的实施例的硬件的示意图;
图8是可用于实现本发明的实施例的芯片集的示意图;以及
图9是可用于实现本发明的实施例的移动终端(例如,手持设备)的示意图。
具体实施方式
公开了用于渲染对象的立体图和与其相关的内容的方法、装置和计算机程序的示例,以用于移动设备上基于位置的服务。在下面的描述中,为了说明的目的,列举了许多特定细节以提供对本发明的实施例的全面理解。然而,本领域技术人员显而易见的是,本发明的实施例可以在没有这些特定细节或具有等同配置的情况下实现。在其他实例中,以框图形式示出了已知的结构和设备以避免不必要地模糊本发明的实施例。
此处使用的术语“图像”指代照相机(例如,静物照相机、数码相机、摄影机、照相手机等)或任何其它成像设备所拍的一张或一系列图像。尽管关于实况照相机视图描述了各种实施例,可设想此处描述的方法可用于其它实况或实时图像(例如,静像、实况视图、实况网络摄影视图等),只要该图像在图像捕获时与成像设备(例如,照相机)的位置、倾角和指向(heading)关联。
此处使用的术语“兴趣点”(POI)指代用户或服务提供商指定的任意点。术语POI还与术语“对象”可交换地使用。作为示例,兴趣点可以是陆标、餐馆、博物馆、建筑物、桥梁、塔、坝、工厂、制造厂、航天飞机等。
此处使用的术语“立体图”指代提供其中示出的对象的某种透视的视图,不管是使用2D或3D显示器显示,还是使用2D或3D图像显示。这样的立体图可以是实时图像(例如,在使用设备的照相机的增强现实设置中)、全景图像(例如,预存储的全景照片)、虚拟现实中的3D建模、或者不管使用2D还是3D图像构建,尝试示出对对象或环境的真实或虚拟景深的其它修改的视图。
图1是根据一个实施例,能够渲染对象的立体图以及与其相关的内容以用于移动设备上的基于位置的服务的系统的示意图。
如之前所述,导航、测绘及其它类似服务和系统显示全景图或两维渲染的地图,然而,其不尝试合并两个视图。当在2D视图中呈现内容时,某一内容可能聚合或太靠近以至于对用户来说不可见。当在3D视图中呈现内容时,例如,全景图或直接经由相机的视图,可见内容限于相机的当前场景或位置。切换视图可引起空间和位置的理解中的混淆通常是个问题,尤其是在用户不是很熟悉视图中的地点时。一些相关的现有服务仅当视图最大化时示出仅地图中的内容。其它增强现实或混合现实服务可基于内容的类型以不同的方式显示内容;然而,通常,内容以抖动方式示出并且不以稳定方式附加到对象或POI。
为了解决其它相关现有系统的不足。图1的系统100引入了渲染对象的立体图及与其相关的内容以用于移动设备上基于位置的服务的能力。系统100可渲染用于基于位置的服务的用户界面,其具有主视图部分和预览部分,这可以允许用户同时地形象化(visualize)区域的地图的对应平面图和立体图(例如,示出区域的全景图像)并在需要时在这样的图像之间进行切换。
因此,可以在移动UI中显示小预览,其中示出了最相关的内容。例如,当用户在浏览UI上的全景图时,用户有预览示出全景图中显示了什么的环境的地图的选择权。类似地,当浏览地图时,预览示出了用户在地图上关注的点的最接近的全景。两种视图均显示可在区域中找到的内容,允许更好的空间和位置感。在预览中反映主视图中的动作,因此如果用户碰巧在期待的位置或者实质上如果用户在远程地浏览该区域,则用户总是有身体上去哪里的意识。选择地图上拥挤区域中丰富的内容信息可以打开该拥挤区域中的所有内容的列表视图,而选择全景上的内容可以打开更具体的内容或列表视图。立体图还限制这种丰富的内容信息的图形表示到立体图中可见的对象/POI的显示,并省略不可见的那些的图形表示,以提供整洁的立体图。
可以容易地轻击预览以切换视图并基于用户的需求容易地导航。通过开启全屏视图模式也可以容易地隐藏预览。如果用户正在地图或平面图中导航,用户可在地图中的任何新位置轻击,并且这会将用户的视点带到地图上被轻击的点,并且同时预览中的全景将从地图上新确定的点更新到最新的全景图像。用户也可以旋转手机或视点(POV)图标以移动地图的方向,这也将影响全景预览的方向。为了在大小上适应以及快速,可以以低分辨率从主全景图拍得全景图像。
在浏览基于位置的内容或在2D地图和3D全景图像中导航时,该方案允许用户更好地理解他们的环境以及远程环境。内容的发现和与内容有联系的精确场所的理解变得更容易和更好。从一个试图到另一试图的切换是非常直观的,因为两个视图均示出了同一位置和方向。
作为示例,当用户站在当前位置处(例如,Farragut西地铁站)时,用户可操作用户设备(例如,用户设备(UE)101)的用户界面以在用户界面的主视图部分中示出周围区域(或另一区域,例如用户的最终目的地)的地图的平面图,而在用户界面的预览部分中示出周围区域的立体图,以给用户关于周围区域的3D全景图的概念。通过使用用户设备的相机实时地(例如,以增强现实)捕获周围区域的图像、通过使用预存储的图像(例如,之前捕获的图像或虚拟现实图像)、或实时图像与预存储的图像的组合(例如,混合现实),可以生成立体图。示出地图的平面图的用户界面的部分可包括指示立体图的视场的方向表示(例如,具有外表上延伸的视锥的潜望镜图标)。通过调整用户设备的方向(例如,利用指南针或其他设备来确定方向中的改变)、通过手工地操控用户界面上的地图的平面图上的视场的方向表示、和/或通过手工地操控用户界面上的立体图中的视图,用户可以调整视野。用户可将地图的平面图从用户界面的主视图部分切换到预览部分,并因此还将立体图从预览部分切换到用户界面的主视图部分。该双窗口配置允许用户容易地解释立体图的位置和方向,并允许用户快速地和直观地导航到POI或确定他们的位置。
如上所述,可使用实时图像、预存储(预记录)的图像来显示立体图,或者系统100可以检索并且并排地缝合紧邻实况图像的静止图像,然后将无缝缝合的图像显示给用户。为了无缝切换,系统100使预记录的具有同一倾角和具有紧邻实况图像的方向指向的全景图像相关,并将相关的预记录的全景图像显示在屏幕上。即使两个图像由同一设备以同一倾角和同一方向指向在同一位置拍得,由于用户高度或设置(例如,数字缩放、对比、分辨率、编辑、修剪等)的原因图像的覆盖范围可以是不同的。如果两个图像由两个设备在同一位置以同一倾角和同一方向指向拍得,由于两个设备的不同规范图像的覆盖范围可以仍然是不同的。设备可具有不同的成像规范,诸如LCD大小、光学变焦、数字变焦、变焦宽、变焦镜头、有效像素、像素密度、图像稳定性、光圈范围等,其影响两个设备所拍得的图像的质量和景深。
然而,现有照片匹配技术允许实况图像与预存储的全景图像之间接近100%的匹配。存在用于为实况图像选择最匹配的全景静止图像的照片匹配应用(例如,逐个像素地比较图像的照片匹配在线搜索引擎)。还存在使得实况图像与预存储的全景静止图像之间的界限无缝的照片缝合应用。随着用户持续触摸导航箭头触摸屏幕边缘,更多预记录的全景静止图像被匹配和缝合以铺向屏幕,作为运行中(onthefly)的全景图。
为了从当前位置导航到POI,用户向系统100指示POI作为目的地。通过示例的方式,当系统100接收诸如国际货币基金组织(IMF)大楼的目标位置作为预期的POI时(例如,作为文本接收,或者在UE101的屏幕上的数字地图上等),系统100检索IMF的位置数据(例如,地址、GPS坐标等),或者用于捕获IMF的预记录的全景图像的设备的位置数据(例如,如果POI不如IMF出名,例如,公园里的旋转木马)。然后系统100绘制从当前位置(例如,地铁站)到指定POI的路线并在主视图部分或者预览部分中将数字地图上的路线呈现给用户。在用户沿着路线行走时,系统100还在预览部分或主视图部分的另一个中将周围位置的实况图像视图呈现在屏幕上。无论何时用户想要在主视图部分中的立体图(以及预览部分中的平面图)和主部分中的平面图(以及预览部分中的立体图)中进行切换时,用户可使用用户界面自由地这么做。其它兴趣点可位于路线上,并且可使用过滤器来选择使用图形表示标记的以及没有被标记的POI的类型。
可选地,用户可利用用户界面来查看远程位置。例如,如果用户计划在当天中的稍后时间拜访特定POI,则用户可将该POI定位在地图的平面图上(例如,通过滚动到POI的位置、输入POI的地址、使用POI的关键字或名称来搜索POI等),例如,在用户界面的主视图部分中。然后,用户可操控视场的方向表示以提供所需的有利位置。例如,如果用户计划沿着某条路向北(traveldown)以到达POI,则用户可操控视场以提供沿着该条路的有利位置,用户在沿着该条路的时候将看见该有利位置并到达POI。随着视场被设置为所需的方向,用户可在用户界面的预览部分中看见POI的立体图的预览,并且用户可将POI的立体图切换到用户界面的主视图部分以查看POI的放大的图像。因此,用户将能够看见POI看起来像什么,从而允许用户在当天的稍后到达POI时识别POI。POI的立体图还可以包括提供到与POI有关的内容的链接(例如,名称、地址、电话号码、网页链接等)的图形表示或标签(例如,气泡、图标、图像、文本等),其可由用户在用户界面中选择,以获得关于POI的进一步内容信息。
在一个实施例中,系统100基于由用户倾斜和旋转的UE101的倾角和方向指向在UE101的屏幕上显示预记录的全景图的不同部分。在该实施例中,用户可改变预记录的全景图中预记录的全景图像,而不移动/拖动UE101的屏幕上的查看标签。
在另一实施例中,系统100进一步利用增强现实或增强虚拟(例如,使用3D模型和3D测绘信息)来以实时方式插入与实况图像视图中的POI相关的丰富的内容信息(例如,从因特网、用户输入等绘制)。标签显示在立体图中的对象或POI的表面上并实际上附着到其上,并且在对象或POI的表面上以固定的3D方向示出。也可以在预记录的全景图中看到与POI相关的内容,并且该内容可能已经嵌入/标记在预记录的全景图中,或者以实时方式插入。POI可以由用户、服务提供商(例如,无线、蜂窝、因特网、内容、社交网络等)和/或设备制造商预先设置,并且相关内容也可以由这些实体的任何一种组合来嵌入/标记。
通过示例,用户选择部门的第四层作为POI,并且标记从百货公司网站检索的POI的内容信息。系统100保存POI和标记的内容,并向用户呈现实况图像视图和/或预记录的全景图中大多数更新的内容信息,自动地或者根据需求。内容信息可以包括:(1)POI的建筑平面图,(2)位于POI中的居住者/商店/设施(例如,在缩略图像、动画片、音频警报等中),(3)关于居住者/商店/设施的介绍和背景内容,(4)关于居住者/商店/设施的营销和销售内容,或者与POI有关的任何其它数据或信息。还可以设想内容可与多个楼层关联。内容信息包括实况媒体、存储的媒体、与媒体关联的元数据、文本信息、其它用户设备的位置信息、测绘数据、地理标记的数据或其组合。
在特定实施例中,尽管地图的平面图可示出链接到其丰富的内容信息的对象的所有图形表示,在给定区域中,仅为在立体图的视场中可见的对象示出附着到立体图中的对象的图形表示。因此,可从立体图省略从立体图中的视图隐藏的对象(例如,隐藏在建筑物或者隐藏在树后面的对象等)的图形表示,以避免用户界面的立体图的杂乱。
如图1所示,用户设备(UE)101可经由通信网络105从内容测绘平台103检索内容信息(例如,内容和位置信息)和测绘信息(例如,地图、GPS数据、预记录的全景图等)。UE101上的测绘和用户界面应用107(例如,增强现实应用、导航应用或其它基于位置的应用)可将内容和测绘信息用于实况图像视图和/或预记录的全景图。在图1的示例中,内容测绘平台103在地图数据库109a中存储测绘信息并在内容目录109b中存储内容信息。通过示例,测绘信息包括数字地图、GPS坐标、预记录的全景图、地理标记的数据、兴趣点数据或其组合。通过示例,内容信息包括一个或多个标识符、元数据、接入地址(例如,诸如统一资源定位器(URL)的网络地址或因特网协议(IP)地址;或诸如UE101的存储器中的文件或存储位置的本地地址)、描述或与内容关联的类似物。在一个实施例中,内容包括实况媒体(例如,流广播)、存储的媒体(例如,存储在网络上或本地)、与媒体关联的元数据、文本信息、其它用户设备的位置信息或其组合。内容可由包括一个或多个服务113a-113n(例如,音乐服务、测绘服务、视频服务、社交网络服务、内容广播服务等)、一个或多个内容提供商115a-115m(例如,网上内容零售商、公共数据库等)、通过通信网络105可用或可访问的其它内容源的服务平台111提供。
附加地或可选地,在某些实施例中,可以结合应用107使用UE101的用户地图和内容数据库117以向用户呈现内容信息、位置信息(例如,测绘和导航信息)、有效信息等。可为用户呈现与应用107关联的增强现实界面和/或允许内容和相关信息的3D对象或其它表示叠加到UE101上的物理环境的图像上的内容测绘平台。在某些实施例中,用户界面可显示混合的物理和虚拟环境,其中来自地图数据库109a的3D对象叠加到物理图像的顶部。
通过示例,UE101可执行应用107以从内容测绘平台103或网络105的其它组件接收内容和/或测绘信息。如上所述,UE101利用GPS卫星119来确定UE101的位置,以利用内容测绘平台103和/或应用107的内容测绘功能,并且可从真实世界建筑物和其它站点的实况相机视图创建存储在地图数据库109a中的地图信息。这样,内容可被增强到预记录的全景图和/或真实世界位置的实况相机视图中(例如,基于诸如全球定位系统(GPS)坐标的位置坐标)。
应用107和内容测绘平台103接收关于内容的接入信息、基于接入信息确定内容的有效性、然后呈现预记录的全景图或具有增强内容的实况图像视图(例如,具有增强内容的IMF大楼的实况相机视图,诸如其源、宗旨(mission)、设施信息:高度、楼层数等)。在某些实施例中,内容信息可包括物理环境(例如,建筑物)中的对象、设施和结构的2D和3D数字地图。
通过示例,系统100的通信网络105包括一个或多个网络,诸如数据网络(未示出)、无线网络(未示出)、电话网络(未示出)、或其任何组合。可设想数据网络可以是任何局域网(LAN)、城域网(MAN)、广域网(WAN)、公共数据网(例如,因特网)或任何其它合适的分组交换网,诸如商业拥有的、私有的分组交换网络,例如私有电缆或光纤网络。此外,无线网络例如可以是蜂窝网络并可以采用各种技术,包括增强数据率全球演进(EDGE)、通用分组无线业务(GPRS)、全球移动通信系统(GSM)、因特网协议多媒体子系统(IMS)、通用移动通信系统(UMTS)等,以及任何其它合适的无线介质,例如,微波接入全球互连(WiMAX)、长期演进(LTE)网络、码分多址(CDMA)、宽带码分多址(WCDMA)、无线保真(WiFi)、卫星、移动自组织网络(MANET)等。
UE101是任何类型的移动终端、固定终端或便携式终端,包括移动手机、台、单元、设备、多媒体计算机、多媒体输入板、因特网节点、通信器、桌面计算机、膝上型计算机、个人数字助理(PDA)或其任意组合。还可以设想UE101可支持任何类型的到用户的接口(诸如“可佩带”电路等)。
通过示例,UE101和内容测绘平台103使用已知的、新的或仍在开发中的协议彼此通信并与通信网络105的其它组件通信。在此上下文中,协议包括定义通信网络105内的网络节点如何基于在通信链路上发送的信息彼此交互的规则集。协议在每个节点内的操作的不同层处有效,从生成和接收各种类型的物理信号、到选择用于传递这些信号的链路、到由这些信号指示的信息的格式、到识别计算机系统上执行的哪个软件应用发送或接收该信息。在开放系统互连(OSI)参考模型中描述了用于在网络上交换信息的协议的概念上不同的层。
网络节点之间的通信通常被交换数据的离散分组影响。每个分组通常包括(1)与特定协议相关联的头部信息,以及(2)在头部信息后面并且含有可独立于该特定协议而被处理的信息的有效载荷信息。在一些协议中,分组包括(3)在有效载荷后面并且指示了有效载荷信息的结束的尾部信息。头部包括诸如以下的信息:分组的源、其目的地、有效载荷的长度以及协议所使用的其它特性。通常,针对特定协议的有效载荷中的数据包括用于与OSI参考模型的不同的较高层相关联的不同协议的头部和有效载荷。针对特定协议的头部通常指示了包含在其有效载荷中的下一协议的类型。较高层协议据说封装在较低层协议中。包括在穿过多个异构网络(例如因特网)的分组中的头部通常包括物理(层1)头部、数据链路(层2)头部、网络间(层3)头部和传输(层4)头部,以及如OSI参考模型定义的各种应用头部(层5、层6和层7)。
在一个实施例中,应用107和内容测绘平台103可根据客户端-服务器模型交互,从而UE101的应用107根据需求从内容测绘平台103请求测绘和/或内容数据。根据客户端-服务器模型,客户端过程发送包括请求的消息到服务器过程,并且服务器过程通过提供服务(例如,提供地图信息)来进行响应。服务器过程还可以返回带有响应的消息给客户端过程。通常,客户端过程和服务器过程在不同的计算机设备(称为主机)上执行,并且使用用于网络通信的一个或多个协议经由网络进行通信。术语“服务器”传统上用于指提供服务的过程,或运行所述过程的主机。相似地,术语“客户端”传统上用于指作出请求的过程,或运行所述过程的主机。此处使用的术语“客户端”和“服务器”是指过程,不是指主机,除非从上下文中明确的表示。此外,出于包括可靠性、可伸缩性和冗余性等的原因,可以将服务器执行的过程拆分以作为多个主机上的多个过程(有时称为层)来运行。
图2是根据一个实施例的测绘和用户界面应用的组件的示意图。作为示例,测绘和用户界面应用107包括用于在实况相机图像和预记录的全景图像之间进行关联和导航的一个或多个组件。期望的是,这些组件的功能可以组合在一个或多个组件中或者由具有等同功能性的其它组件执行。在该实施例中,测绘和用户界面应用107包括至少一个控制逻辑201,其执行至少一个用于执行测绘和用户界面应用107的功能的算法。例如,控制逻辑201与图像模块203交互以向用户提供UE101的当前位置的周围环境的实况相机视图(例如,Farragut西地铁站)。图像模块203可包括相机、摄影机、其组合等。在一个实施例中,以图像或一系列图像的格式捕获视觉媒体。
接下来,控制逻辑201与定位模块205交互以检索UE101的当前位置的位置数据。在一个实施例中,位置数据可包括地址、地理坐标(例如,GPS坐标)或可与当前位置关联的其它指示符(例如,经纬度信息)。例如,位置数据可由用户手动输入(例如,输入地址或标题、在数字地图上点击等)或者从任何地理标记的数据提取或导出。可以设想,位置数据或地理标记的数据也可以由定位模块205通过导出与位置关联的元数据(例如,媒体标题、标签和评论)来创建。更具体地,定位模块205可以解析关于指示与特定位置的关联的任何术语的元数据。
在一个实施例中,定位模块205通过诸如GPS、辅助GPS(A-GPS)A-GPS、原点小区的三角测量系统、无线局域网三角测量或其它位置推断技术来确定用户的位置。标准GPS和A-GPS系统可使用卫星119来精确定位UE101的位置(例如,经度、纬度和海拔)。原点小区系统可用于确定与蜂窝UE101同步的蜂窝塔。该信息提供UE101的粗定位,因为蜂窝塔可以具有可被地理测绘的唯一的蜂窝标识符(小区ID)。定位模块205还可以使用多种技术来检测UE101的位置。关于UE101的位置GPS坐标可以提供更精细的细节。如之前所述,可以使用定位模块205来确定用于应用107和/或内容测绘平台103的位置坐标。
再次,控制逻辑201与图像模块203交互以显示当前位置的实况相机视图和位置数据。在显示当前位置的实况相机视图时,控制逻辑201与图像模块203交互以接收用户例如通过触摸UE101的屏幕上的“切换”图标对切换视图的指示。控制逻辑201与关联模块207交互以使用位置数据关联实况图像视图与预记录的全景图,还与切换模块209交互以交替/切换从实况图像视图到关联的预记录的全景图的显示。同样,切换模块209可以控制用户界面217的主视图部分中示出的视图(即,平面图或立体图)以及用户界面217的预览部分中示出的视图之间的切换。
在另一实施例中,切换模块209与确定UE101的水平方向或方向指向(例如,指南针指向)的磁力计模块211和确定UE101的垂直方向或仰角的加速计模块213交互。此后,切换模块209与图像模块203交互以基于随用户倾斜和/或旋转的UE101的倾角和方向指向来在UE101的屏幕上显示预记录的全景图的不同部分。在这些情况下,用户可以查看预记录的全景图的不同部分,而不需要移动/拖动UE101的屏幕上的查看标签。
在一个实施例中,使用从磁力计获得的水平方向数据确定UE101的方向。磁力计模块211可以包括可以测量磁场的强度和/或方向的仪器。使用与指南针相同的方法,磁力计能够使用地球磁场确定UE101的方向指向。图像捕获设备(例如,数码相机)的前部(或UE101上的另一参考点)可标记为确定方向的参考点。因此,如果与参考点相比磁场指向北,则UE101参考点相对磁场的角度已知。可以进行简单的计算以确定UE101的方向。该方向信息可与UE101的位置信息关联以确定UE101正指向何处(例如,在什么地理特征或对象处)。可以利用该信息来选择渲染给用户的预记录的全景图的部分。
此外,加速计模块213可包括可测量加速度的仪器。使用三轴的加速计,轴X、Y和Z,以已知角度在三个方向中提供加速。再一次,在确定方向的过程中可将媒体捕获设备的前端标记为参考点。因为由于万有引力导致的加速度已知,当UE101静止时,加速计模块213可确定与地球的万有引力相比UE101指向的角度。在一个实施例中,使用从加速计获得的垂直方向数据确定UE101正指向的仰角或倾角。可以使用该信息结合磁力计信息和位置信息来确定对于用户来说预记录的全景图中的视角。这样,该信息可用于选择可用的内容项以向用户呈现导航信息。此外,可以使用组合的信息以确定用户可能感兴趣的特定数字地图或预记录的全景图的部分。
然后,控制逻辑与图像模块203交互以向用户渲染预记录的全景图中的视角,无论何时用户旋转/倾斜UE101。如上所述,关联模块207可以从相机获得实况图像并经由位置信息将实况图像与预记录的全景图关联。此外,关联模块207使用磁力计信息、加速计信息或其组合来确定向用户显示预记录的全景图的部分的视角。
然后,控制逻辑201与内容管理模块215和图像模块203交互以增强与实况图像中的一个或多个POI相关的内容信息。可从服务平台111、服务113a-113n、内容提供商115a-115m、其它类似组件或其组合接收该内容。还可以设想,用户或用户授权的另一方可手动地输入内容项。在一个实施例中,内容管理模块215可以创建列出提供给内容管理模块215的所有内容项和关联的接入地址的内容目录。在某些实施例中,内容目录可包括描述内容的附加描述信息和其它元数据。可用的媒体内容或流可采用很多形式(例如,实况视频反馈、照片、声音文件等)并且可使用任何数量的部件(例如,流媒体、下载的媒体、自发创建的媒体等)来传递。内容管理模块215包括用于接收和/或检测其原始格式中的媒体内容或用于将媒体内容转换为与测绘和增强现实应用107兼容的媒体格式的一个或多个子模块或应用编程接口(API)(未绘出)。在其它实施例中,内容管理模块215可以发起核实内容或流所需的组件(例如,编解码器、播放应用等)的下载或安装。可将内容数据缓存或保存在用户地图和内容数据库117中。
为了促进查找特定内容或特征,内容管理模块215使得用户能够输入搜索条件(例如,内容项、人、城市、天气等)并得到用于查找搜索的内容项位于真实物质世界中的方向的指南。内容管理模块215还使得用户能够指定时间段以使用位置和时间两者来导航内容信息。在一个实施例中,用于查看内容和测绘信息的缺省时间是当前。如果时间段设置为将来,则内容管理模块215将基于指定的时间确定一个或多个内容项,诸如在接下来的三个小时里在百货商店第四层将特价出售什么。通过示例,出售的内容和产品信息可呈现在具有根据关联的位置信息放置的每个产品的表示的建筑平面图上。
内容可描述为覆盖在与兴趣点(例如,楼层)或兴趣点的一部分(例如,楼层上的设施)对应的位置处的用户界面地图上的缩略图,并以固定的3D方向附着到POI。如所讨论的,用户界面可以是图形用户界面。此外或者可选地,用户界面可以是音频或触觉界面。在一个实施例中,内容管理模块215仅呈现在指定的时间处可用并与任何局限或排他限制无关的那些内容项。该实施例提供了用户可简单地从所呈现的内容项中选择并被确保所选的项将可用于单次选择点击的用户体验。在其它实施例中,内容管理模块215可呈现所有可用的内容并区分可用于单次点击的内容对(versus)与附加局限或限制关联的内容的呈现。呈现的特定类型可由用户、内容提供商115、网络运营商、服务平台111或其组合指定。然后内容管理模块215确定是否周期性地更新内容信息。
在某些实施例中,当具有比可在现有用户界面中显示的内容更多的内容可用时,内容管理模块215不断地激励内容项的显示,以便在原来的内容消失时新的内容保持出现。该激励过程还使得用户界面对于用户来说更有娱乐性,并给予一种世界随着活动变得“有生机”的感觉。
在某些实施例中,用户地图和内容数据库117包括地图数据库109a和内容目录109b中的所有信息或一部分信息。从所选视角,可在UE101的屏幕上提供使用内容增强的实况图像视图。在某些实施例中,内容管理模块215使用从数据库117或内容测绘平台103生成或检索的内容,根据所选视角提供关联的预记录的全景图。内容信息可以由另一装置事先嵌入/标记在关联的预记录的全景图中,或当在UE101的屏幕上显示关联的预记录的全景图时由内容管理模块215根据需求和/或以实时方式嵌入/标记在关联的预记录的全景图中。
内容和测绘信息可经由用户界面217呈现给用户,其可以包括各种通信方法。例如,用户界面217可具有包括视觉组件(例如,屏幕)、音频组件(例如,口头指令)、物理组件(例如,震动)和其它通信方法的输出。用户输入可包括触屏界面、麦克风、相机、滚动点击界面、按钮界面等。此外,用户可输入请求以开始应用107(例如,测绘和用户界面应用)并使用用户界面217接收内容和测绘信息。通过用户界面217,用户可请求呈现不同类型的内容、测绘或位置信息。进一步地,可向用户呈现特定位置和相关对象(例如,特定位置处的建筑物、地形特征、POI等)的3D或增强现实表示,作为UE101的屏幕上的图形用户界面的一部分。如前所述,UE101与内容测绘平台103、服务平台111和/或内容提供商115a-115m通信以获取内容、测绘和/或位置信息。UE101可使用客户端服务器格式的请求来检索内容和测绘信息。此外,UE101可在请求中指定位置信息和/或方向信息以检索内容和测绘信息。
图3A是根据一个实施例用于渲染对象的立体图及与其相关的内容以用于移动设备上基于位置的服务的过程的流程图。图3B是根据一个实施例省略被另一对象在立体图中的渲染遮住的远处对象的图形表示的过程的流程图。图4A、4B、5和6是根据各种实施例在图3A和3B的过程中使用的用户界面的示意图。
在一个实施例中,测绘和用户界面应用107执行过程300并实现在例如包括图8中示出的处理器和存储器的芯片集中。在步骤301,测绘和用户界面应用107至少部分地促使示出视场中的一个或多个对象的立体图的渲染。例如,针对基于位置的服务的用户界面可同时地包括主视图部分和预览部分,其中在一个部分(即,主视图部分或预览部分)中显示立体图而在另一部分(即,预览部分或主视图部分中的另一个)中显示平面图。然后,在步骤303,测绘和用户界面应用107检索与视场中的一个或多个对象中的对象关联的内容。然后,在步骤305,应用107至少部分地促使与内容相关的图形表示在用户界面中的立体图中可见的对象的表面上渲染以用于移动设备的基于位置的服务。因此,涉及与POI相关的丰富的内容信息的图形表示(例如,从因特网、用户输入等绘制)被插入立体图,这样其被附着到对象/POI的表面。因此,标签在对象或POI的表面上显示并在立体图中实际附着到其上,并在对象或POI的表面上以固定的3D方向示出。与POI相关的内容还可以在预记录的全景图中看见,并且该内容可能已经嵌入/标记在预记录的全景图中或以实时方式插入全景图中。POI可由用户、服务提供商(例如,无线、蜂窝、因特网、内容、社交网络等)和/或设备制造商预先设置,并且相关内容也可以由这些实体的任一组合嵌入/标记。因此,用户可通过选择以稳定方式附着到立体图中的对象/POI的图形表示来访问丰富的内容信息。
在生成立体图时,测绘和用户界面应用107从实时图像和/或预先存储的图像确定用于立体图的一个或多个对象的最佳图像。例如,应用107可比较特定视场的各个存储的图像,并确定哪个图像在最佳焦点中、处于最有利位置(例如,离用户选择的视场最靠近的有利位置),并然后使用该可用的最好图像。然后,应用可使用最佳图像至少部分地促使立体图在用户界面中渲染。附加地,应注意,可通过使用覆盖到对象的表面上的图形表示提供实时图像、预存储的图像和/或实时图像与预存储的图像的混合之间的流畅转换来形成立体图,从而以流畅和连续的方式提供最好可能的立体图。
同样,应注意,当应用107接收改变立体图或平面图中的显示的方向的输入时,应用107与输入相对应地同时改变立体图和平面图中的另一个的显示的方向。因此,一个试图中的任何改变将同时地导致另一试图中的改变。例如,如果用户界面正在示出立体图中的实时图像并转圈移动(pan),则平面图也将示出以圆周运动移动的视点图标。同样,如果用户围绕平面图上的各种位置扫描,则将同时地更新立体图以在所选位置所选方向处示出图像。
在一个实施例中,测绘和用户界面应用107执行过程320并实现在例如包括图8中示出的处理器和存储器的芯片集中。在步骤321,测绘和用户界面应用107确定与一个或多个对象有关的立体图的渲染的立体系数(perspective)(例如,位置、海拔、方向)。因此,例如,应用107确定示出立体图所处的位置、海拔和方向,并将立体图的视场与关于立体图的区域中当前示出的一个或多个对象的3D信息进行比较。在步骤323,应用107确定远处对象的渲染是否被另一对象在立体图中的渲染遮住。因此,例如,应用107确定视场的方向中的哪些对象将在立体图中可见,哪些对象由于被靠近的对象遮住而不可见。然后,在步骤325,当远处对象被另一对象在立体图中的渲染遮住时,应用107从立体图省略关于与远处对象关联的内容的图形表示或提供关于与远处对象关联的内容的替代图形表示。因此,例如,当确定了远处的特定对象将在立体图中不可见时,应用107省略与来自立体图的丰富的内容信息相关的图形表示以保持立体图整洁。可选地,当确定了远处的特定对象将在立体图中不可见时,应用107可提供立体图中与隐藏的对象/POI的位置处的丰富的内容信息相关的替代图形表示(例如,加亮的或透明的图像或者针对该对象的原始图形表示的修改版本),以便用户能够知道其存在但仍然能保持立体图相对整洁。
图4A和4B是根据各种实施例在图3A和3B的过程中使用的用户界面的示意图。图4A和4B描述了用户设备400,诸如移动设备,其包括具有诸如触摸屏的显示屏403的外壳401。显示屏403当前正显示同时示出主视图部分405和预览部分407的用户界面。在该实施例中,将预览部分407示出为主视图的左下角处的半圆形窗;然而,可以任何形状和在主视图上的任何位置处提供预览部分。在图4A中示出的实施例中,主视图部分405当前正显示示出了地图的平面图,预览部分407当前正显示示出了全景图的立体图。平面图和立体图可基于用户设备400的当前位置和/或方向或者基于用户选择的位置显示这种视图。
在图4A中的主视图405中示出的平面图中示出了方向表示,在该实施例中其包括潜望镜图形(或者也通常在此处称为视点图标)411和从潜望镜图形411延伸的圆锥形区域413,其示出规划立体图的视场的方向以及通常由视场覆盖的区域。因此潜望镜图形411和从其延伸的圆锥形区域413直接与立体图中示出的视场相关联。立体图中示出的图像可以是使用UE101的相机捕获的实时图像、服务提供商提供和/或存储在UE101上的预存储的图像、或者实时图像与预存储的图像的混合。
在图4A中示出的实施例中,显示在显示屏403上的用户界面示出了对应于与各种对象/POI相关的丰富的内容信息的各种图形表示(例如示出的气泡,或其他图像、图标、文本等)409。平面图中示出的图形表示409还可以在立体图中显示在对象/POI的表面上(参见,例如图4B、5和6)并实际上附着到其上,并在对象/POI的表面上以固定的3D方向示出。用户可在平面图或立体图中选择图形表示,提供丰富的内容信息的上托窗口将出现。内容信息包括实况媒体、存储的媒体、与媒体关联的元数据、文本信息、其它用户设备的位置信息、测绘数据、地理标记的数据或其组合。
此外,关于图4A,注意在平面图中示出为在视场的常规方向上的图形表示409A从预览部分407中的立体图中省略,因为与它们对应的对象/POI被遮住并因此在立体图中不可见。
在图4A中示出的实施例中,显示屏403上显示的用户界面示出了沿主视图部分405的下边缘的各种图标,其向用户提供了各种菜单选项。例如,用户可选择图标415(例如,使用触摸屏)来添加用于对象/POI的图形表示。因此,例如,如果用户想要向用户的朋友居住的特定建筑物添加新图形表示,则用户可选择图标415并在希望的位置拖放新图形表示,然后以希望的内容信息填充图形表示。附加地,用户可选择图标417以过滤显示在用户界面上的图形表示的类型。例如,如果用户想要仅在平面图和/或立体图中示出餐馆的图形表示,则用户可选择图标417,其将向用户提供预先设置的类别列表,用户可从该类别列表选择和/或允许用户从该类别列表定义所需的过滤器或执行文本搜索以定义所需的过滤器。附加地,用户可选择图标419以在图4A、4B、4和6中示出的双窗口视图(即,包括主视图部分和预览部分)和全屏视图模式之间来回切换,在全屏视图模式中示出平面图或立体图之一而不示出预览部分407。
图4B是根据另一实施例在图3A和3B的过程中使用的用户界面的示意图。图4B描述了具有显示用户界面的显示屏403的用户设备400,其中主视图部分405示出立体图,预览部分407示出对应的平面图。在图4B中,示出平面图的预览部分407包括示出为潜望镜图形421和从潜望镜图形421延伸的圆锥形区域423,其示出规划立体图的视场的方向以及通常由视场覆盖的区域。同样,在图4B中,示出立体图的主视图部分405包括图形表示,例如,气泡425,其对应于与各个对象/POI相关的丰富的内容信息。
在任何给定时刻,用户例如可通过选择来回切换图标427来切换哪个视图(即,立体图或平面图)在主视图部分405中示出以及哪个视图在预览部分407中示出。同样,用户可使用加减缩放图标429来放大和缩小(例如,同时在两个视图中,或者仅在视图之一中,诸如在主视图部分中示出的视图)。
图5是根据另一实施例在图3A和3B的过程中使用的用户界面的示意图。图5描述了用户设备500,诸如移动设备,其包括具有显示屏503的外壳501。显示屏503当前正显示同时示出主视图部分505和预览部分507的用户界面。在图5中示出的该实施例中,主视图部分505当前正显示示出了地图的平面图,预览部分507当前正显示示出了全景图的立体图。平面图和立体图可基于用户设备500的当前位置和/或方向或者基于用户选择的位置显示这种视图。
在图5中,示出平面图的主视图部分505包括示出为潜望镜图形509和从潜望镜图形509延伸的圆锥形区域511,其示出规划立体图的视场的方向以及通常由视场覆盖的区域。同样,主视图部分505包括图形表示,例如,气泡513,其对应于与相应的对象/POI相关的丰富的内容信息。此外,预览部分507包括图形表示,例如,气泡515,其对应于与平面图中的气泡513同样的对象/POI。显示在立体图中的图形表示515示出在对象/POI的表面上并实际上附着到其上,并在对象/POI的表面上以固定的3D方向示出。例如,如立体图中所看到的或者如用户或服务提供商预先设置的,图形表示515附着到对象/POI的最突出的表面上。图形表示可以是气泡图标、图像(例如,由用户设置,诸如住在建筑物中的人的照片,或者由服务提供商设置)、表示对象/POI的类别的图标(例如,指示餐馆POI的刀叉、表示商店POI的购物车等)、文本(例如,对象/POI的名称或描述)等。
此外,关于图5,注意在平面图中示出为在视场的常规方向上的图形表示513A从预览部分507中的立体图中省略,因为与其对应的对象/POI被遮住并因此在立体图中不可见。因此,立体图保持整洁的外观。
图6是根据另一实施例在图3A和3B的过程中使用的用户界面的示意图。图6描述了包括具有显示屏603的外壳601的用户设备600。显示屏603当前正显示同时示出主视图部分605和预览部分607的用户界面。在图6中示出的实施例中,主视图部分605当前正显示示出了全景图的立体图,预览部分607当前正显示示出了地图的平面图。平面图和立体图可基于用户设备600的当前位置和/或方向或者基于用户选择的位置显示这种视图。
在图6中,示出平面图的预览部分607包括示出为潜望镜图形609和从潜望镜图形609延伸的圆锥形区域611,其示出规划立体图的视场的方向以及通常由视场覆盖的区域。同样,主视图部分605包括图形表示,例如,气泡613,其对应于与相应的对象/POI相关的丰富的内容信息。此外,主视图部分605包括其它图形表示,例如,气泡615,其对应于与透视图的视场中可见的其它对象/POI相关的丰富的内容信息。在某些实施例中,尽管地图的平面图可示出链接到其丰富的内容信息的对象的所有图形表示,但在给定区域中,仅为在立体图的视场中可见的对象示出附着到立体图中的对象的图形表示。因此,从立体图中省略在立体图中看不见的对象的图形表示(例如,隐藏在建筑物后面或者隐藏在树后面的对象的图形表示等)以避免用户界面的立体图的杂乱。
可以通过软件、硬件、固件或者软件和/或固件和/或硬件的组合来有利地实现此处描述的用于渲染对象的立体图以及与其相关的内容以用于移动设备上基于位置的服务的过程。例如,此处描述的包括用于提供与服务的有效性关联的用户界面导航信息的过程可以经由处理器、数字信号处理(DSP)芯片、专用集成电路(ASIC)、场可编程门阵列(FPGA)等来有利地实现。下面详细地介绍用于执行所述功能的这种示例性硬件。
图7示出了可在其上实施本发明的实施例的计算机系统700。尽管关于特定设备或者装备对计算机系统700进行描述,期望的是,图7内的其它设备或者装备(例如,网络元件、服务器等)能够部属所示出的系统700的硬件和组件。计算机系统700被编程(例如,经由计算机程序代码或者指令)以如此处描述的为移动设备上基于位置的服务渲染对象的立体图和与其相关的内容,并且包括诸如总线710的用于在计算机系统700的其它内部和外部组件之间传递信息的通信机制。信息(也称为数据)表示为可测量现象的物理表达,通常为电压,但是在其它实施例中包括诸如磁、电磁、压强、化学、生物、分子、原子、亚原子和量子相互作用的现象。例如,北磁场和南磁场或者零和非零电压表示二进制数字(比特)的两个状态(0,1)。其它现象可以表示更高基的数字。测量前多个同时发生的量子状态的叠加表示量子比特(qubit)。一个或多个数字的序列组成用于表示字符号码或者代码的数字数据。在一些实施例中,被称为模拟数据的信息由特定范围内的近似连续的可测量值表示。计算机系统700或者其部分组成用于执行为移动设备上基于位置的服务渲染对象的立体图和与其相关的内容的一个或多个步骤的部件。
总线710包括一个或多个平行的信息导体以便信息在与总线710耦合的设备之间快速传输。用于处理信息的一个或多个处理器702与总线710耦合。
处理器(或多个处理器)702按照关于为移动设备上基于位置的服务渲染对象的立体图和与其相关的内容的计算机程序代码所指定的那样对信息执行操作集合。计算机程序代码是为处理器和/或计算机系统的操作提供了用于实施指定功能的指令的一组指令或声明。例如可以用被编译成处理器的原生指令集的计算机编程语言来编写代码。也可以直接使用原生指令集(例如,机器语言)来编写代码。操作集合包括从总线710带入信息并且将信息置于总线710上。操作集合通常还包括诸如通过加法或乘法或者比如“或(OR)”、“异或(XOR)”和“与(AND)”这样的逻辑运算来:比较两个或更多信息单元,将信息单元的位置进行移位,以及组合两个或更多信息单元。可以由处理器执行的操作集合中的每个操作由称为指令的信息而被表示给处理器,诸如一个或多个数位的操作代码。要由处理器702执行的操作序列(诸如操作代码序列)构成了处理器指令,也称为计算机系统指令或简单地称为计算机指令。处理器可以单独地或组合地被实现为机械、电、磁、光、化学或量子组件等。
计算机系统700还包括耦合到总线710的存储器704。诸如随机存取存储器(RAM)或其它动态存储设备的存储器704存储信息,包括用于为移动设备上基于位置的服务渲染对象的立体图和与其相关的内容的处理器指令。动态存储器允许计算机系统700改变存储在其中的信息。RAM允许独立于在相邻地址处的信息来存储和检索被存储在称为存储器地址的位置处的信息单元。存储器704还被处理器702用于存储在处理器指令的执行期间的临时值。计算机系统700还包括只读存储器(ROM)706或者耦合到总线710的其它静态存储设备,用于存储不被计算机系统700改变的静态信息(包括指令)。特定存储器包括易失性储存器,当断电时,易失性储存器会丢失在其上存储的信息。也耦合到总线710的是非易失性(永久)存储设备708,诸如磁盘、光盘或闪卡,用于存储包括指令的信息,非易失性存储设备708即使当计算机系统700关闭或以其它方式断电时也进行存留。
从外部输入设备712(诸如含有由人类用户操作的字母数字键的键盘)或传感器将信息(包括用于为移动设备上基于位置的服务渲染对象的立体图和与其相关的内容的指令)提供给总线710来由处理器使用。传感器检测其附近的状况,并且将那些检测结果变换成与用于表示计算机系统700中的信息的可测量现象相兼容的物理表达。耦合到总线710的主要用于与人类进行交互的其它外部设备包括显示设备714,诸如阴极射线管(CRT)或液晶显示器(LCD),或者用于呈现文本或图像的等离子屏幕或打印机,以及定点设备716,诸如鼠标或轨迹球或光标方向键,或者运动传感器,用于控制在显示器714上呈现的小型光标图像的位置以及发布与显示器714上所呈现的图形元素相关联的命令。在一些实施例中,例如,在计算机系统700在没有人类输入的情况下自动地实现所有功能的实施例中,省略外部输入设备712、显示设备714和定点设备716中的一个或多个。
在所图示的实施例中,诸如专用集成电路(ASIC)720的专用硬件耦合到总线710。专用硬件被配置以便出于专用目的而足够快地执行处理器702不执行的操作。专用IC的例子包括:用于为显示器714生成图像的图形加速器卡、用于加密和解密在网络上发送的消息的密码板、语音识别以及针对专门的外部设备的接口,诸如重复地执行在硬件中更为高效实现的一些复杂操作序列的机器臂和医疗扫描设备。
计算机系统700还包括耦合到总线710的通信接口770的一个或多个实例。通信接口770提供了耦合到与其自己的处理器一起操作的各种外部设备(诸如打印机、扫描仪和外部盘)的单向或双向通信。通常,耦合是针对网络链路778,网络链路778连接到本地网络780,具有其自己的处理器的各种外部设备连接到本地网络780。例如,通信接口770可以是个人计算机上的并行端口或串行端口或通用串行总线(USB)端口。在一些实施例中,通信接口770是综合服务数字网络(ISDN)卡或数字订户线路(DSL)卡或者向对应类型的电话线路提供信息通信连接的电话调制解调器。在一些实施例中,通信接口770是将总线710上的信号转换成用于在同轴电缆上的通信连接的信号或转换成用于在光纤电缆上的通信连接的光信号的电缆调制解调器。又例如,通信接口770可以是用于向兼容的LAN(诸如以太网)提供数据通信连接的局域网(LAN)卡。也可以实现无线链路。对于无线链路,通信接口770发送或接收或者既发送又接收携带了信息流(诸如数字数据)的电、声或电磁信号,包括红外信号和光信号。例如,在无线手持设备(诸如像蜂窝电话这样的移动电话)中,通信接口770包括被称为无线电收发器的无线电频带电磁发射机和接收机。在特定实施例中,通信接口770实现了与通信网络105的连接,用于向UE101渲染对象的立体图和与其相关的内容以用于移动设备上基于位置的服务。
术语“计算机可读介质”在此用于指的是参与向处理器702提供信息(包括用于执行的指令)的任何介质。这样的介质可以采用很多形式,包括但不限于计算机可读存储介质(例如,非易失性介质、易失性介质)和传输介质。诸如非易失性介质的非暂态介质包括例如光盘或磁盘,诸如存储设备708。易失性介质包括例如动态存储器704。传输介质包括例如同轴电缆、铜导线、光纤电缆以及在没有导线或电缆的情况下通过空间行进的载波,诸如声波和电磁波,包括无线电波、光波和红外波。信号包括通过传输介质传送的在幅度、频率、相位、极化或其它物理属性方面的人为瞬时变化。计算机可读介质的常见形式包括例如软盘、柔性盘、硬盘、磁带、任何其它磁介质、CD-ROM、CDRW、DVD、任何其它光介质、穿孔卡、纸带、光标记片材、具有孔图案或其它光可识别标记的任何其它物理介质、RAM、PROM、EPROM、FLASH-EPROM、任何其它存储器芯片或卡式盒、载波,或者计算机可以从其进行读取的任何其它介质。在此使用术语“计算机可读存储介质”来指代除了传输介质之外的任何计算机可读介质。
在一个或多个有形介质中编码的逻辑包括以下中的一个或两个:在计算机可读存储介质上的处理器指令以及专用硬件,诸如ASIC720。
网络链路778通常使用传输介质来通过一个或多个网络向使用或处理信息的其它设备提供信息通信。例如,网络链路778可以通过本地网络780提供针对主机计算机782或针对由因特网服务提供商(ISP)操作的设备784的连接。ISP设备784进而通过现在常被称为因特网790的网络的公共全球分组交换通信网络来提供数据通信服务。
被称为服务器主机792的连接到因特网的计算机托管了响应于在因特网上接收到的信息而提供服务的进程。例如,服务器主机792托管了提供表示出用于在显示器714处呈现的视频数据的信息的进程。可以设想,可以在其它计算机系统(例如主机782和服务器792)内按照各种配置来部署系统700的组件。
本发明的至少一些实施例涉及对用于实现在此描述的一些或所有技术的计算机系统700的使用。根据本发明的一个实施例,响应于处理器702执行包含在存储器704中的一个或多个处理器指令的一个或多个序列,由计算机系统700来实现那些技术。这样的指令(也称为计算机指令、软件和程序代码)可以从诸如存储设备708或网络链路778的另一计算机可读介质读入到存储器704中。包含在存储器704中的指令序列的执行使得处理器702实现在此描述的方法步骤中的一个或多个。在替代实施例中,诸如ASIC720的硬件可以代替软件或与软件相组合地用来实现本发明。因此,本发明的实施例不限于硬件和软件的任何具体组合,除非在此另外明确声明。
通过通信接口770在网络链路778和其它网络上传送的信号携带了去往和来自计算机系统700的信息。计算机系统700可以通过网络780、790等经由网络链路778和通信接口770来发送和接收信息,包括程序代码。在使用因特网790的例子中,服务器主机792通过因特网790、ISP设备784、本地网络780和通信接口770来传送由从计算机700发送的消息所请求的用于特定应用的程序代码。所接收到的代码可以当其被接收到时由处理器702来执行,或者可以被存储在存储器704中或存储设备708或其它非易失性存储器中以用于以后执行,或者二者皆可。以这种方式,计算机系统700可以按照载波上的信号的形式来获得应用程序代码。
各种形式的计算机可读介质可以涉及将数据或指令的一个或多个序列或这二者携带到处理器702来执行。例如,指令和数据可以初始地被携带在诸如主机782的远程计算机的磁盘上。远程计算机将指令和数据加载到其动态存储器中,并且使用调制解调器在电话线路上发送指令和数据。计算机系统700本地的调制解调器在电话线路上接收指令和数据,并且使用红外发射机来将指令和数据转换成在充当网络链路778的红外载波上的信号。充当通信接口770的红外检测器接收在红外信号中携带的指令和数据,并且将表示指令和数据的信息置于总线710上。总线710将该信息携带到存储器704,处理器702从存储器704中检索该信息,并且使用与指令一起发送的一些数据来执行该指令。在存储器704中接收到的指令和数据可以视情况在由处理器702执行之前或之后被存储在存储设备708上。
图8图示了可以在其上实现本发明实施例的芯片集或芯片800。芯片集800被编程以便如在此描述的渲染对象的立体图及与其相关的内容以用于移动设备上基于位置的服务,并且包括例如相对于图7描述的合并在一个或多个物理封装(例如,芯片)中的处理器和存储器组件。举例来说,物理封装包括在结构配件(例如,基板)上的一个或多个材料、组件和/或导线的布置,以便提供一个或多个特性,诸如物理强度、大小的保持和/或电子交互的限制。可以设想,在特定实施例中,芯片集800可以在单个芯片中实现。可以进一步设想,在特定实施例中,芯片集或芯片800可以实现为单个“片上系统”。可以进一步设想,在特定实施例中,例如可以使用单独的ASIC,并且可以通过处理器实现此处描述的所有相关功能。芯片集或芯片800或其一部分构成了用于执行提供对与服务的有效性关联的用户界面导航信息的一个或多个步骤的部件。芯片集或芯片800或其一部分构成了用于渲染对象的立体图及其相关的内容以用于移动设备上基于位置的服务的一个或多个步骤的部件。
在一个实施例中,芯片集或芯片800包括诸如用于在芯片集800的组件当中传递信息的总线801的通信机制。处理器803具有到总线801的连接,以便执行指令和处理在例如存储器805中存储的信息。处理器803可以包括一个或多个处理核心,每个核心被配置成独立地执行。多核处理器使得能够在单个物理封装中进行多处理。多核处理器的例子包括两个、四个、八个或更多数目的处理核心。替代地或附加地,处理器803可以包括经由总线801而联合配置的一个或多个微处理器,以便使得能够独立执行指令、流水线操作和多线程。处理器803还可以附配有一个或多个专用组件来执行特定处理功能和任务,诸如一个或多个数字信号处理器(DSP)807或者一个或多个专用集成电路(ASIC)809。DSP807通常被配置成独立于处理器803而实时地处理真实世界的信号(例如,声音)。类似地,ASIC809可以被配置成实现通用处理器不容易实现的专用功能。有助于实现在此描述的本发明功能的其它专用组件包括:一个或多个现场可编程门阵列(FPGA)(未示出)、一个或多个控制器(未示出),或者一个或多个其它专用计算机芯片。
在一个实施例中,芯片集或芯片800只包括一个或多个处理器和支持和/或涉及和/或用于一个或多个处理器的一些软件和/或固件。
处理器803和所附组件具有经由总线801与存储器805的连接。存储器805包括动态存储器(例如,RAM、磁盘、可写光盘等)和静态存储器(例如,ROM、CD-ROM等)这二者,用于存储可执行指令,当执行所述可执行指令时实现在此描述的用于渲染对象的立体图及其关联的内容以用于移动设备上基于位置的服务的本发明步骤。存储器805还存储了与本发明步骤的执行相关联的或通过本发明步骤的执行而生成的数据。
图9是根据一个实施例的能够在图1的系统中操作的用于通信的移动终端(例如,手机)的示例性组件的示图。在一些实施例中,移动终端900或其一部分构成了用于实现渲染对象的立体图及其关联的内容以用于移动设备上基于位置的服务的一个或多个步骤的部件。通常,常常关于前端和后端特性来定义无线电接收机。接收机的前端包括所有的射频(RF)电路,而后端包括所有的基带处理电路。如在本申请中使用的,术语“电路”指的是以下两者:(1)仅硬件实现(诸如仅在模拟和/或数字电路中的实现),以及(2)电路和软件(和/或固件)的组合(诸如,如果可应用于特定情境的话,涉及处理器(包括数字信号处理器)、软件和存储器的组合,它们一起工作以便使得诸如移动电话或服务器这样的装置来实现各种功能)。“电路”的该定义适用于本申请中(包括任何权利要求中)对该术语的所有使用。作为进一步的例子,如在本申请中使用的,如果可应用于特定情境的话,术语“电路”还将覆盖仅一个处理器(或多个处理器)及其(或它们)附配的软件和/或固件的实现。术语“电路”还将覆盖(如果可应用于特定情境的话)例如在移动电话中的基带集成电路或应用处理器集成电路,或者在蜂窝网络设备或其它网络设备中的类似集成电路。
电话的相关内部组件包括主控制单元(MCU)903、数字信号处理器(DSP)905,以及接收机/发射机单元(包括扩音器增益控制单元和扬声器增益控制单元)。主显示单元907向用户提供显示器,从而支持用于执行或支持渲染对象的立体图及其关联的内容以用于移动设备上基于位置的服务的步骤的各种应用和移动终端功能。显示器9包括显示电路,该显示电路被配置成显示移动终端(例如,移动电话)的用户界面的至少一部分。另外,显示器907和显示电路被配置成促进用户对移动终端的至少一些功能的控制。音频功能电路909包括扩音器911和扩音器放大器,扩音器放大器放大了从扩音器911输出的语音信号。从扩音器911输出的已放大的语音信号被馈送到编码器/解码器(编解码器)913。
无线电部分915放大功率并转换频率,以便经由天线917来与包括在移动通信系统中的基站通信。如本领域中已知的,利用来自耦合到双工器921或循环器或天线开关的PA919的输出,功率放大器(PA)919和发射机/调制电路可操作地响应于MCU903。PA919还耦合到电池接口和功率控制单元920。
在使用中,移动终端901的用户向扩音器911讲话,并且他或她的语音连同任何检测到的背景噪声被转换成模拟电压。然后,该模拟电压通过模数转换器(ADC)923被转换成数字信号。控制单元903将数字信号路由到DSP905用于在其中进行处理,诸如语音编码、信道编码、加密和交织。在一个实施例中,使用蜂窝传输协议(诸如全球演进(EDGE)、通用分组无线电服务(GPRS)、全球移动通信系统(GSM)、因特网协议多媒体子系统(IMS)、通用移动电信网络(UMTS)等)以及任何其它合适的无线介质(例如微波接入(WiMAX)、长期演进(LTE)网络、码分多址(CDMA)、宽带码分多址(WCDMA)、无线保真(WiFi)、卫星等),通过未单独示出的单元来编码经处理的语音信号。
然后,编码信号被路由到均衡器925,用于补偿在通过空气传输期间发生的诸如相位和幅度失真这样的任何依赖于频率的损伤。在均衡了比特流之后,调制器927将该信号与在RF接口929中生成的RF信号进行组合。调制器927通过频率或相位调制来生成正弦波。为了准备用于传输的信号,上变频器931将从调制器927输出的正弦波与由合成器933生成的另一正弦波进行组合,以便实现期望的传输频率。然后,信号被发送通过PA919以便将信号增加到适合的功率电平。在实际系统中,PA919充当可变增益放大器,其增益根据从网络基站接收到的信息而受到DSP905的控制。然后,该信号在双工器921中被过滤并且可选地被发送到天线耦合器935以便匹配阻抗,从而提供最大功率传输。最后,该信号经由天线917被传送到本地基站。自动增益控制(AGC)可以被供应来控制接收机的最后阶段的增益。该信号可以从那里被转发到远程电话,远程电话可以是另一蜂窝电话、其它移动电话或者连接到公共交换电话网络(PSTN)或其它电话网络的陆线。
经由天线917来接收被传送到移动终端901的语音信号,并且由低噪声放大器(LNA)937立即放大。下变频器939降低载波频率,而解调器941去掉RF仅留下数字比特流。然后,该信号经过均衡器925并由DSP905进行处理。数模转换器(DAC)923转换该信号并将所得到的输出通过扬声器945传送到用户,所有的这些都在主控制单元(MCU)903(其可被实现为中央处理单元(CPU)(未示出))的控制之下。
MCU903从键盘947接收包括输入信号的各种信号。与其它用户输入组件(例如,扩音器911)相组合的键盘947和/或MCU903包括用于管理用户输入的用户接口电路。MCU903运行用户接口软件以便促进用户控制移动终端901的至少一些功能,从而为移动设备上基于位置的服务渲染对象的立体图以及与其关联的内容。MCU903还向显示器907和语音输出切换控制器分别递送显示命令和切换命令。此外,MCU903与DSP905交换信息,并且可以访问可选地被合并的SIM卡949和存储器951。另外,MCU903执行终端所需要的各种控制功能。DSP905可以根据实现方式来对语音信号执行各种常规数字处理功能中的任何功能。另外,DSP905根据由扩音器911所检测到的信号来确定本地环境的背景噪声电平,并且将扩音器911的增益设置成被选择用于补偿移动终端901的用户的自然倾向的电平。
编解码器913包括ADC923和DAC943。存储器951存储了包括呼入音调数据的各种数据,并且能够存储包括经由例如全球因特网而接收到的音乐数据在内的其它数据。软件模块可以驻留在RAM存储器、闪速存储器、寄存器或本领域已知的任何其它形式的可写存储介质中。存储设备951可以是但不限于单个存储器、CD、DVD、ROM、RAM、EEPROM、光储存器或者能够存储数字数据的任何其它非易失性存储介质。
可选地被合并的SIM卡949携带了例如重要信息,诸如蜂窝电话号码、供应服务的载波、预订细节和安全信息。SIM卡949主要服务于标识出无线电网络上的移动终端901。卡949还含有用于存储个人电话号码登记簿、文本消息和特定于用户的移动终端设置的存储器。
尽管已经结合多个实施例和实现方式描述了本发明,但是本发明并不如此受到限制,而是覆盖了落入所附权利要求的范围之内的各种明显的修改和等同布置。尽管在权利要求当中的特定组合中表达了本发明的特征,但是可以设想这些特征可以按照任何组合和顺序来布置。
Claims (16)
1.一种用于渲染对象的立体图和相关内容的方法,包括:
至少部分地促使渲染所述立体图,该立体图示出视场中的一个或多个对象;
检索与所述视场中的所述一个或多个对象中的对象关联的内容;
至少部分地促使在用户界面中的所述立体图中可见的对象的表面上渲染与所述内容相关的图形表示,以用于移动设备的基于位置的服务;
确定与所述一个或多个对象相关的所述立体图的渲染的立体系数;
确定在所述立体图中远处对象的渲染是否被另一对象的渲染遮住;以及
当在所述立体图中所述远处对象的渲染被所述另一对象的渲染遮住时,从所述立体图中省略与所述远处对象关联的内容有关的图形表示或者提供与所述远处对象关联的内容有关的替代图形表示,其中所述替代图形表示是在所述远处对象的表面上的图形表示的加亮或透明版本,
其中,所述远处对象不同于所述另一对象。
2.根据权利要求1所述的方法,其中图形表示的渲染包括设定图形表示关于在所述立体图中可见的对象的表面的方向,并且所述远处对象和所述另一对象是兴趣点。
3.根据权利要求1所述的方法,进一步包括:
根据实时图像和/或预存储的图像确定用于所述立体图的一个或多个对象的最佳图像;以及
至少部分地促使在所述用户界面中使用所述最佳图像同时渲染所述立体图和地图的平面图,
其中,在所述立体图中的一个或多个对象对应于在所述地图的所述平面图中的一个或多个对象,并且在所述用户界面中同时渲染所述立体图和所述地图的所述平面图的期间,可切换所述立体图和所述地图的所述平面图。
4.根据权利要求1所述的方法,进一步包括:
接收用于经由用户界面选择图形表示的输入;以及
至少部分地促使在所述用户界面上显示与对象关联的内容。
5.根据权利要求1所述的方法,进一步包括:
接收所述视场中的所述一个或多个对象的由所述移动设备捕获的实时图像,
其中所述立体图使用覆盖到所述视场中的所述一个或多个对象中的对象的表面上的图形表示显示所述实时图像。
6.根据权利要求1所述的方法,进一步包括:
接收所述视场中的所述一个或多个对象的预存储图像,
其中所述立体图使用覆盖到所述视场中的所述一个或多个对象中的对象的表面上的图形表示显示所述预存储图像。
7.根据权利要求1所述的方法,进一步包括:
接收所述视场中的所述一个或多个对象的由所述移动设备捕获的实时图像;以及
接收所述视场中的所述一个或多个对象的预存储图像,
其中所述立体图使用覆盖到所述视场中的所述一个或多个对象中的对象的表面上的图形表示显示所述实时图像和所述预存储图像的混合。
8.根据权利要求1所述的方法,进一步包括:
接收所述视场中的所述一个或多个对象的由所述移动设备捕获的实时图像;以及
接收所述视场中的所述一个或多个对象的预存储图像,
其中所述立体图使用覆盖到所述视场中的所述一个或多个对象中的对象的表面上的图形表示在所述实时图像、所述预存储图像以及所述实时图像和所述预存储图像的混合之间转换。
9.一种用于渲染对象的立体图和相关内容的装置,包括:
用于至少部分地促使渲染所述立体图的部件,该立体图示出视场中的一个或多个对象;
用于检索与所述视场中的所述一个或多个对象中的对象关联的内容的部件;
用于至少部分地促使在用户界面中的立体图中可见的对象的表面上渲染与所述内容相关的图形表示以用于移动设备的基于位置的服务的部件;
用于确定与所述一个或多个对象相关的所述立体图的渲染的立体系数的部件;
用于确定在所述立体图中远处对象的渲染是否被另一对象的渲染遮住的部件;以及
当在所述立体图中所述远处对象的渲染被所述另一对象的渲染遮住时,用于从所述立体图中省略与所述远处对象关联的内容有关的图形表示或者提供与所述远处对象关联的内容有关的替代图形表示的部件,其中所述替代图形表示是在所述远处对象的表面上的图形表示的加亮或透明版本,
其中,所述远处对象不同于所述另一对象。
10.根据权利要求9所述的装置,其中图形表示的渲染包括设定图形表示关于所述立体图中可见的对象的表面的方向,并且所述远处对象和所述另一对象是兴趣点。
11.根据权利要求9所述的装置,进一步包括:
用于根据实时图像和/或预存储的图像确定用于所述立体图的一个或多个对象的最佳图像的部件;以及
用于至少部分地促使在所述用户界面中使用所述最佳图像同时渲染所述立体图和地图的平面图的部件,
其中,在所述立体图中的一个或多个对象对应于在所述地图的所述平面图中的一个或多个对象,并且在所述用户界面中同时渲染所述立体图和所述地图的所述平面图的期间,可切换所述立体图和所述地图的所述平面图。
12.根据权利要求9所述的装置,进一步包括:
用于接收输入的部件,所述输入用于经由所述用户界面选择图形表示;以及
用于至少部分地促使在所述用户界面上显示与对象关联的内容的部件。
13.根据权利要求9所述的装置,进一步包括:
用于接收所述视场中的所述一个或多个对象的由所述移动设备捕获的实时图像的部件,
其中所述立体图使用覆盖到所述视场中的所述一个或多个对象中的对象的表面上的图形表示显示所述实时图像。
14.根据权利要求9所述的装置,进一步包括:
用于接收所述视场中的所述一个或多个对象的预存储图像的部件,
其中所述立体图使用覆盖到所述视场中的所述一个或多个对象中的对象的表面上的图形表示显示所述预存储图像。
15.根据权利要求9所述的装置,进一步包括:
用于接收所述视场中的所述一个或多个对象的由所述移动设备捕获的实时图像;以及
用于接收所述视场中的所述一个或多个对象的预存储图像的部件,
其中所述立体图使用覆盖到所述视场中的所述一个或多个对象中的对象的表面上的图形表示显示所述实时图像和预存储的图像的混合。
16.根据权利要求9所述的装置,进一步包括:
用于接收所述视场中的所述一个或多个对象的由所述移动设备捕获的实时图像的部件;以及
用于接收所述视场中的所述一个或多个对象的预存储图像的部件,
其中所述立体图使用覆盖到所述视场中的所述一个或多个对象中的对象的表面上的图形表示在所述实时图像、所述预存储图像以及所述实时图像和所述预存储图像的混合之间转换。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/780,914 | 2010-05-16 | ||
US12/780,914 US20110279446A1 (en) | 2010-05-16 | 2010-05-16 | Method and apparatus for rendering a perspective view of objects and content related thereto for location-based services on mobile device |
PCT/FI2011/050125 WO2011144799A1 (en) | 2010-05-16 | 2011-02-10 | Method and apparatus for rendering a perspective view of objects and content related thereto for location-based services on mobile device |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102985901A CN102985901A (zh) | 2013-03-20 |
CN102985901B true CN102985901B (zh) | 2016-08-03 |
Family
ID=44911378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180034828.3A Active CN102985901B (zh) | 2010-05-16 | 2011-02-10 | 用于为移动设备上基于位置的服务渲染对象的立体图及与其相关的内容的方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US20110279446A1 (zh) |
EP (1) | EP2572266A4 (zh) |
CN (1) | CN102985901B (zh) |
WO (1) | WO2011144799A1 (zh) |
ZA (1) | ZA201209417B (zh) |
Families Citing this family (88)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8799411B2 (en) | 2010-05-28 | 2014-08-05 | Arvato Digital Services Canada, Inc. | Method and apparatus for providing enhanced streaming content delivery with multi-archive support using secure download manager and content-indifferent decoding |
KR101685145B1 (ko) * | 2010-06-09 | 2016-12-09 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
KR101685980B1 (ko) * | 2010-07-30 | 2016-12-13 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US20120036485A1 (en) * | 2010-08-09 | 2012-02-09 | XMG Studio | Motion Driven User Interface |
GB2489685B (en) * | 2011-03-31 | 2017-01-25 | Geovs Ltd | A Display System |
US20120315611A1 (en) * | 2011-06-13 | 2012-12-13 | Robert Arnone | System and method for sports officials training |
KR101789624B1 (ko) * | 2011-06-20 | 2017-10-25 | 엘지전자 주식회사 | 휴대 단말기 및 그 제어방법 |
US8825392B2 (en) | 2011-06-30 | 2014-09-02 | Navteq B.V. | Map view |
KR101907002B1 (ko) * | 2011-09-29 | 2018-10-12 | 삼성전자주식회사 | 컴퓨팅 기기에서 위치 정보가 부착된 컨텐츠 생성 및 검색을 위한 장치 및 방법 |
US9639857B2 (en) | 2011-09-30 | 2017-05-02 | Nokia Technologies Oy | Method and apparatus for associating commenting information with one or more objects |
US20130106990A1 (en) | 2011-11-01 | 2013-05-02 | Microsoft Corporation | Planar panorama imagery generation |
US9870429B2 (en) * | 2011-11-30 | 2018-01-16 | Nokia Technologies Oy | Method and apparatus for web-based augmented reality application viewer |
KR101873525B1 (ko) * | 2011-12-08 | 2018-07-03 | 삼성전자 주식회사 | 휴대단말기의 콘텐츠 표시장치 및 방법 |
US9406153B2 (en) * | 2011-12-14 | 2016-08-02 | Microsoft Technology Licensing, Llc | Point of interest (POI) data positioning in image |
US9324184B2 (en) | 2011-12-14 | 2016-04-26 | Microsoft Technology Licensing, Llc | Image three-dimensional (3D) modeling |
US10008021B2 (en) | 2011-12-14 | 2018-06-26 | Microsoft Technology Licensing, Llc | Parallax compensation |
US9672659B2 (en) | 2011-12-27 | 2017-06-06 | Here Global B.V. | Geometrically and semanitically aware proxy for content placement |
US20130173156A1 (en) * | 2011-12-30 | 2013-07-04 | Nokia Corporation | Apparatus, Method and Computer Program for Displaying Points of Interest |
US9525964B2 (en) * | 2012-02-02 | 2016-12-20 | Nokia Technologies Oy | Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers |
JP5891843B2 (ja) * | 2012-02-24 | 2016-03-23 | ソニー株式会社 | クライアント端末、サーバ、およびプログラム |
GB2502549A (en) | 2012-05-30 | 2013-12-04 | Ibm | Navigation system |
US8533615B1 (en) * | 2012-06-06 | 2013-09-10 | Google, Inc. | Systems and methods for order-independent rendering of graphical objects using operating system resources |
US9619138B2 (en) * | 2012-06-19 | 2017-04-11 | Nokia Corporation | Method and apparatus for conveying location based images based on a field-of-view |
US9395875B2 (en) * | 2012-06-27 | 2016-07-19 | Ebay, Inc. | Systems, methods, and computer program products for navigating through a virtual/augmented reality |
US9378591B2 (en) | 2012-07-27 | 2016-06-28 | Nokia Technologies Oy | Method and apparatus for detecting occlusion in an augmented reality display |
US20140063057A1 (en) * | 2012-08-31 | 2014-03-06 | Nokia Corporation | System for guiding users in crowdsourced video services |
US9886795B2 (en) * | 2012-09-05 | 2018-02-06 | Here Global B.V. | Method and apparatus for transitioning from a partial map view to an augmented reality view |
US9354631B2 (en) * | 2012-09-10 | 2016-05-31 | Honeywell International Inc. | Handheld device rendering of plant model portion based on task |
US9117382B2 (en) * | 2012-09-28 | 2015-08-25 | Intel Corporation | Device and method for automatic viewing perspective correction |
US20150062114A1 (en) * | 2012-10-23 | 2015-03-05 | Andrew Ofstad | Displaying textual information related to geolocated images |
WO2014102440A1 (en) * | 2012-12-27 | 2014-07-03 | Nokia Corporation | Method, apparatus and computer program product for image rendering |
CN103198096B (zh) * | 2013-03-05 | 2017-05-24 | 腾讯科技(深圳)有限公司 | 街景视图展示方法及终端 |
US9354791B2 (en) | 2013-06-20 | 2016-05-31 | Here Global B.V. | Apparatus, methods and computer programs for displaying images |
US20150035823A1 (en) | 2013-07-31 | 2015-02-05 | Splunk Inc. | Systems and Methods for Using a Three-Dimensional, First Person Display to Convey Data to a User |
US10380799B2 (en) | 2013-07-31 | 2019-08-13 | Splunk Inc. | Dockable billboards for labeling objects in a display having a three-dimensional perspective of a virtual or real environment |
US9310987B2 (en) * | 2013-08-19 | 2016-04-12 | Google Inc. | Projections to fix pose of panoramic photos |
US9134764B2 (en) * | 2013-12-20 | 2015-09-15 | Sony Corporation | Apparatus and method for controlling a display based on a manner of holding the apparatus |
US10068354B2 (en) * | 2014-01-02 | 2018-09-04 | Deere & Company | Obtaining and displaying agricultural data |
US20150199380A1 (en) * | 2014-01-16 | 2015-07-16 | Microsoft Corporation | Discovery of viewsheds and vantage points by mining geo-tagged data |
JP6334715B2 (ja) | 2014-01-31 | 2018-05-30 | エンパイア テクノロジー ディベロップメント エルエルシー | 拡張現実スキンの評価 |
KR101827550B1 (ko) | 2014-01-31 | 2018-02-08 | 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 | 증강 현실 스킨 매니저 |
EP3100240B1 (en) * | 2014-01-31 | 2018-10-31 | Empire Technology Development LLC | Evaluation of augmented reality skins |
WO2015116183A2 (en) | 2014-01-31 | 2015-08-06 | Empire Technology Development, Llc | Subject selected augmented reality skin |
FR3018123B1 (fr) * | 2014-03-03 | 2016-02-26 | Somfy Sas | Procede de configuration d'un dispositif de commande d'une installation domotique d'un batiment et de l'environnement du batiment et dispositif de commande associe |
KR102244248B1 (ko) * | 2014-04-01 | 2021-04-26 | 삼성전자주식회사 | 컨텐츠 운용 방법 및 이를 지원하는 전자 장치 |
EP2996088B1 (en) * | 2014-09-10 | 2018-08-29 | My Virtual Reality Software AS | Method for visualising surface data together with panorama image data of the same surrounding |
US10834450B2 (en) * | 2014-09-30 | 2020-11-10 | Nbcuniversal Media, Llc | Digital content audience matching and targeting system and method |
US20160110791A1 (en) | 2014-10-15 | 2016-04-21 | Toshiba Global Commerce Solutions Holdings Corporation | Method, computer program product, and system for providing a sensor-based environment |
FR3032544B1 (fr) * | 2015-02-05 | 2018-03-09 | Schneider Electric Industries Sas | Procede de gestion de l'affichage, produit programme d'ordinateur et dispositif electronique associes |
US20160320202A1 (en) * | 2015-04-29 | 2016-11-03 | Microsoft Technology Licensing, Llc | Navigation with contextual information |
US10169917B2 (en) * | 2015-08-20 | 2019-01-01 | Microsoft Technology Licensing, Llc | Augmented reality |
US9652896B1 (en) | 2015-10-30 | 2017-05-16 | Snap Inc. | Image based tracking in augmented reality systems |
US9984499B1 (en) | 2015-11-30 | 2018-05-29 | Snap Inc. | Image and point cloud based tracking and in augmented reality systems |
CN105912123A (zh) * | 2016-04-15 | 2016-08-31 | 北京小鸟看看科技有限公司 | 一种三维沉浸式环境下的界面布局方法和装置 |
WO2017192467A1 (en) * | 2016-05-02 | 2017-11-09 | Warner Bros. Entertainment Inc. | Geometry matching in virtual reality and augmented reality |
KR20190005208A (ko) * | 2016-05-07 | 2019-01-15 | 스마트 써드-아이 리미티드 | 핸드헬드 디바이스 내의 에지 카메라 어셈블리를 수반하는 시스템 및 방법 |
US10416836B2 (en) * | 2016-07-11 | 2019-09-17 | The Boeing Company | Viewpoint navigation control for three-dimensional visualization using two-dimensional layouts |
US10313652B1 (en) * | 2016-08-18 | 2019-06-04 | Relay Cars LLC | Cubic or spherical mapped content for presentation of pre-rendered images viewed from a fixed point of view in HTML, javascript and/or XML for virtual reality applications |
US20180095636A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
EP3322149B1 (en) * | 2016-11-10 | 2023-09-13 | Tata Consultancy Services Limited | Customized map generation with real time messages and locations from concurrent users |
US10319149B1 (en) * | 2017-02-17 | 2019-06-11 | Snap Inc. | Augmented reality anamorphosis system |
US10074381B1 (en) | 2017-02-20 | 2018-09-11 | Snap Inc. | Augmented reality speech balloon system |
US10387730B1 (en) | 2017-04-20 | 2019-08-20 | Snap Inc. | Augmented reality typography personalization system |
CN107656961B (zh) * | 2017-08-04 | 2020-03-27 | 阿里巴巴集团控股有限公司 | 一种信息显示方法及装置 |
US10552680B2 (en) * | 2017-08-08 | 2020-02-04 | Here Global B.V. | Method, apparatus and computer program product for disambiguation of points of-interest in a field of view |
CN109756727B (zh) * | 2017-08-25 | 2021-07-20 | 华为技术有限公司 | 信息显示方法及相关设备 |
CN109427085B (zh) * | 2017-08-29 | 2022-10-18 | 阿里巴巴集团控股有限公司 | 一种图像数据的处理、渲染方法、服务器及客户端 |
WO2019046821A1 (en) | 2017-09-01 | 2019-03-07 | Magic Leap, Inc. | GENERATING A NEW FRAME USING REBUILDED CONTENT AND UNRESTITUDED CONTENT FROM A PREVIOUS PERSPECTIVE |
US10740974B1 (en) | 2017-09-15 | 2020-08-11 | Snap Inc. | Augmented reality system |
US10521961B2 (en) * | 2017-12-10 | 2019-12-31 | International Business Machines Corporation | Establishing a region of interest for a graphical user interface for finding and depicting individuals |
US10338768B1 (en) | 2017-12-10 | 2019-07-02 | International Business Machines Corporation | Graphical user interface for finding and depicting individuals |
WO2019164514A1 (en) * | 2018-02-23 | 2019-08-29 | Google Llc | Transitioning between map view and augmented reality view |
US10813169B2 (en) | 2018-03-22 | 2020-10-20 | GoTenna, Inc. | Mesh network deployment kit |
CN109165195B (zh) * | 2018-08-01 | 2020-12-04 | 山东省国土测绘院 | 一种测绘成果目录多元转换系统及方法 |
US10706630B2 (en) * | 2018-08-13 | 2020-07-07 | Inspirium Laboratories LLC | Augmented reality user interface including dual representation of physical location |
US10997760B2 (en) | 2018-08-31 | 2021-05-04 | Snap Inc. | Augmented reality anthropomorphization system |
US10846933B2 (en) * | 2018-09-14 | 2020-11-24 | Advanced Geosciences, Inc. | Geophysical sensor positioning system |
US10488215B1 (en) * | 2018-10-26 | 2019-11-26 | Phiar Technologies, Inc. | Augmented reality interface for navigation assistance |
US10997761B2 (en) * | 2018-11-09 | 2021-05-04 | Imaginear Inc. | Systems and methods for creating and delivering augmented reality content |
US11972529B2 (en) | 2019-02-01 | 2024-04-30 | Snap Inc. | Augmented reality system |
KR102627612B1 (ko) * | 2019-02-19 | 2024-01-22 | 삼성전자주식회사 | 증강현실을 이용한 주변 정보 표시 방법 및 그 전자 장치 |
CN109974729A (zh) * | 2019-03-07 | 2019-07-05 | 百度在线网络技术(北京)有限公司 | 街景图像的更新方法、装置和系统 |
CN112492193B (zh) * | 2019-09-12 | 2022-02-18 | 华为技术有限公司 | 一种回调流的处理方法及设备 |
US20210225038A1 (en) * | 2020-01-16 | 2021-07-22 | Fyusion, Inc. | Visual object history |
US11776142B2 (en) | 2020-01-16 | 2023-10-03 | Fyusion, Inc. | Structuring visual data |
WO2022010451A1 (en) * | 2020-07-06 | 2022-01-13 | Google Llc | Stable orientation cues for augmented reality (ar) |
US11609563B2 (en) * | 2020-08-31 | 2023-03-21 | Ford Global Technologies, Llc | Remote control system for a vehicle and trailer |
KR20220114336A (ko) * | 2021-02-08 | 2022-08-17 | 현대자동차주식회사 | 사용자 단말 및 그 제어 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6563529B1 (en) * | 1999-10-08 | 2003-05-13 | Jerry Jongerius | Interactive system for displaying detailed view and direction in panoramic images |
CN1880918A (zh) * | 2005-06-14 | 2006-12-20 | Lg电子株式会社 | 匹配相机拍摄图像和便携终端中地图数据及旅程导航方法 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3547947B2 (ja) | 1997-08-11 | 2004-07-28 | アルパイン株式会社 | ナビゲーション装置における所在階数表示方法 |
US6285317B1 (en) | 1998-05-01 | 2001-09-04 | Lucent Technologies Inc. | Navigation system with three-dimensional display |
WO2002016875A1 (de) | 2000-08-24 | 2002-02-28 | Siemens Aktiengesellschaft | Verfahren zum abfragen von zielinformation und zum navigieren in einer kartenansicht, computerprogrammprodukt und navigationsgerät |
US6885939B2 (en) | 2002-12-31 | 2005-04-26 | Robert Bosch Gmbh | System and method for advanced 3D visualization for mobile navigation units |
EP1769635A2 (en) * | 2004-06-01 | 2007-04-04 | L-3 Communications Corporation | Modular immersive surveillance processing system and method. |
US7460953B2 (en) | 2004-06-30 | 2008-12-02 | Navteq North America, Llc | Method of operating a navigation system using images |
US7886024B2 (en) | 2004-07-01 | 2011-02-08 | Microsoft Corporation | Sharing media objects in a network |
US7720436B2 (en) * | 2006-01-09 | 2010-05-18 | Nokia Corporation | Displaying network objects in mobile devices based on geolocation |
US8040361B2 (en) * | 2005-04-11 | 2011-10-18 | Systems Technology, Inc. | Systems and methods for combining virtual and real-time physical environments |
WO2006121986A2 (en) * | 2005-05-06 | 2006-11-16 | Facet Technology Corp. | Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route |
US7728869B2 (en) * | 2005-06-14 | 2010-06-01 | Lg Electronics Inc. | Matching camera-photographed image with map data in portable terminal and travel route guidance method |
US8160400B2 (en) | 2005-11-17 | 2012-04-17 | Microsoft Corporation | Navigating images using image based geometric alignment and object based controls |
WO2007076555A2 (en) * | 2005-12-29 | 2007-07-05 | Aechelon Technology, Inc. | A location based wireless collaborative environment with a visual user interface |
US20080033641A1 (en) | 2006-07-25 | 2008-02-07 | Medalia Michael J | Method of generating a three-dimensional interactive tour of a geographic location |
JP2008108246A (ja) | 2006-10-23 | 2008-05-08 | Internatl Business Mach Corp <Ibm> | 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム |
US20080147730A1 (en) * | 2006-12-18 | 2008-06-19 | Motorola, Inc. | Method and system for providing location-specific image information |
US7844229B2 (en) | 2007-09-21 | 2010-11-30 | Motorola Mobility, Inc | Mobile virtual and augmented reality system |
US20090167786A1 (en) | 2007-12-24 | 2009-07-02 | Ronald Stanions | Methods and apparatus for associating image data |
US8903430B2 (en) | 2008-02-21 | 2014-12-02 | Microsoft Corporation | Location based object tracking |
US8428873B2 (en) * | 2008-03-24 | 2013-04-23 | Google Inc. | Panoramic images within driving directions |
US20100066750A1 (en) | 2008-09-16 | 2010-03-18 | Motorola, Inc. | Mobile virtual and augmented reality system |
US8493408B2 (en) * | 2008-11-19 | 2013-07-23 | Apple Inc. | Techniques for manipulating panoramas |
US8294766B2 (en) * | 2009-01-28 | 2012-10-23 | Apple Inc. | Generating a three-dimensional model using a portable electronic device recording |
US8943420B2 (en) * | 2009-06-18 | 2015-01-27 | Microsoft Corporation | Augmenting a field of view |
US8768846B2 (en) | 2009-08-27 | 2014-07-01 | International Business Machines Corporation | System, method, and apparatus for management of media objects |
US8638332B2 (en) | 2009-08-28 | 2014-01-28 | International Business Machines Corporation | Teleport preview provisioning in virtual environments |
US9390544B2 (en) | 2009-10-20 | 2016-07-12 | Robert Bosch Gmbh | 3D navigation methods using nonphotorealistic (NPR) 3D maps |
US8903166B2 (en) | 2010-01-20 | 2014-12-02 | Microsoft Corporation | Content-aware ranking for visual search |
-
2010
- 2010-05-16 US US12/780,914 patent/US20110279446A1/en not_active Abandoned
-
2011
- 2011-02-10 WO PCT/FI2011/050125 patent/WO2011144799A1/en active Application Filing
- 2011-02-10 CN CN201180034828.3A patent/CN102985901B/zh active Active
- 2011-02-10 EP EP11783127.1A patent/EP2572266A4/en active Pending
-
2012
- 2012-12-12 ZA ZA2012/09417A patent/ZA201209417B/en unknown
-
2016
- 2016-10-17 US US15/295,749 patent/US9916673B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6563529B1 (en) * | 1999-10-08 | 2003-05-13 | Jerry Jongerius | Interactive system for displaying detailed view and direction in panoramic images |
CN1880918A (zh) * | 2005-06-14 | 2006-12-20 | Lg电子株式会社 | 匹配相机拍摄图像和便携终端中地图数据及旅程导航方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102985901A (zh) | 2013-03-20 |
EP2572266A1 (en) | 2013-03-27 |
US20170039695A1 (en) | 2017-02-09 |
US20110279446A1 (en) | 2011-11-17 |
ZA201209417B (en) | 2014-05-28 |
WO2011144799A1 (en) | 2011-11-24 |
US9916673B2 (en) | 2018-03-13 |
EP2572266A4 (en) | 2018-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102985901B (zh) | 用于为移动设备上基于位置的服务渲染对象的立体图及与其相关的内容的方法和装置 | |
CN103003786A (zh) | 用于为基于位置的服务渲染具有主视图部分和预览部分的用户界面的方法和装置 | |
US9766089B2 (en) | Method and apparatus for correlating and navigating between a live image and a prerecorded panoramic image | |
US8601380B2 (en) | Method and apparatus for displaying interactive preview information in a location-based user interface | |
US10776442B2 (en) | Systems and methods for photograph mapping | |
US8543917B2 (en) | Method and apparatus for presenting a first-person world view of content | |
US8319772B2 (en) | 3D layering of map metadata | |
KR102125556B1 (ko) | 주변 위치 정보의 증강 현실 배치 | |
US9678660B2 (en) | Method and apparatus for conveying efficient map panning over a mapping user interface | |
CA2799443C (en) | Method and apparatus for presenting location-based content | |
CN103003847A (zh) | 用于渲染基于位置的用户界面的方法和装置 | |
US20170134646A1 (en) | Method and apparatus for guiding media capture | |
US20120013609A1 (en) | Method and apparatus for presenting a first person world view of content | |
US20100325154A1 (en) | Method and apparatus for a virtual image world | |
US20110161875A1 (en) | Method and apparatus for decluttering a mapping display | |
US20130335446A1 (en) | Method and apparatus for conveying location based images based on a field-of-view | |
US20120221552A1 (en) | Method and apparatus for providing an active search user interface element | |
US20130061147A1 (en) | Method and apparatus for determining directions and navigating to geo-referenced places within images and videos | |
CN105917329A (zh) | 信息显示装置和信息显示程序 | |
KR101497994B1 (ko) | 멀티미디어 지도서비스 시스템 및 이의 제공방법 | |
US9596404B2 (en) | Method and apparatus for generating a media capture request using camera pose information | |
Nowostawski et al. | A Virtual Spatiotemporal Annotation System: The Virtual Stickies Mobile Augmented Reality Study |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C41 | Transfer of patent application or patent right or utility model | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20160106 Address after: Espoo, Finland Applicant after: Technology Co., Ltd. of Nokia Address before: Espoo, Finland Applicant before: Nokia Oyj |
|
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |