CN103003786A - 用于为基于位置的服务渲染具有主视图部分和预览部分的用户界面的方法和装置 - Google Patents
用于为基于位置的服务渲染具有主视图部分和预览部分的用户界面的方法和装置 Download PDFInfo
- Publication number
- CN103003786A CN103003786A CN2011800348103A CN201180034810A CN103003786A CN 103003786 A CN103003786 A CN 103003786A CN 2011800348103 A CN2011800348103 A CN 2011800348103A CN 201180034810 A CN201180034810 A CN 201180034810A CN 103003786 A CN103003786 A CN 103003786A
- Authority
- CN
- China
- Prior art keywords
- stereographic map
- preview
- visual field
- user
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3647—Guidance involving output of stored or live camera images or video streams
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/028—Multiple view windows (top-side-front-sagittal-orthogonal)
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种方法,包括至少部分地促使为基于位置的服务渲染同时地包括主视图部分(505)和预览部分(507)两者的用户界面。至少部分地促使所述主视图部分(505)和预览部分(507)之一显示视场中的一个或多个对象的立体图,以及至少部分地促使所述主视图部分(505)和预览部分(507)中的另一个显示视场中的一个或多个对象的至少一部分的平面图。
Description
背景技术
服务提供商(例如,无线、蜂窝、因特网、内容、社交网络等)和设备制造商不断受到挑战,以通过例如提供有竞争力的网络服务向消费者传递价值和便利。一个感兴趣的区域是随着例如导航标签和位置相关内容扩张的测绘和导航图形(例如,数字地图)和/或图像(例如,各个位置和兴趣点的360°全景街道标高视图)的发展。通常,导航、测绘和其它类似的服务可以显示全景视图或者两维渲染的地图。每个类型的视图具有各自的优势和劣势。然而,用户通常不得不在这些视图之间手动地来回切换,这使得用户很难了解这些视图是如何彼此关联的。
发明内容
因此,需要一种为基于位置的服务渲染具有主视图部分和预览部分的用户界面的方法。
根据一个实施例,一种方法包括至少部分地促使为基于位置的服务渲染同时地具有主视图部分和预览部分两者的用户界面,其中至少部分地促使主视图部分和预览部分之一显示视场中的一个或多个对象的立体图,并且其中至少部分地促使主视图部分和预览部分中的另一个显示视场中的一个或多个对象的至少一部分的平面图。
根据另一实施例,一种装置包括至少一个处理器和包括计算机程序代码的至少一个存储器,所述至少一个存储器和所述计算机程序代码被配置成使用所述至少一个处理器至少部分地使得所述装置至少部分地促使为基于位置的服务渲染同时地具有主视图部分和预览部分两者的用户界面,其中至少部分地促使主视图部分和预览部分之一显示视场中的一个或多个对象的立体图,并且其中至少部分地促使主视图部分和预览部分中的另一个显示视场中的一个或多个对象的至少一部分的平面图。
根据另一实施例,一种计算机可读存储介质承载一个或多个指令的一个或多个序列,当由一个或多个处理器执行时,其至少部分地使得装置至少部分地促使为基于位置的服务渲染同时地具有主视图部分和预览部分两者的用户界面,其中至少部分地促使主视图部分和预览部分之一显示视场中的一个或多个对象的立体图,并且其中至少部分地促使主视图部分和预览部分中的另一个显示视场中的一个或多个对象的至少一部分的平面图。
根据另一实施例,一种装置包括用于至少部分地为基于位置的服务渲染同时地具有主视图部分和预览部分两者的用户界面的部件,其中至少部分地促使主视图部分和预览部分之一显示视场中的一个或多个对象的立体图,并且其中至少部分地促使主视图部分和预览部分中的另一个显示视场中的一个或多个对象的至少一部分的平面图。
通过简单地示出多个特定实施例和实现方式,包括预期用于执行本发明的最佳模式,从下面的详细描述可容易地理解本发明的其它方面、特征和优势。本发明还可以有其它和不同的实施例,在不背离本发明的精神和范围的情况下,可以在各个明显的方面修改其不同细节。相应地,附图和描述应视为说明性的,而非限制性的。
附图说明
通过示例但非限制的方式示出本发明的实施例,在附图中:
图1是根据一个实施例,能够为基于位置的服务渲染具有主视图部分和预览部分的用户界面的系统的示意图;
图2是根据一个实施例的测绘和用户界面应用的组件的示意图;
图3A是根据一个实施例为基于位置的服务渲染具有主视图部分和预览部分的用户界面的过程的流程图;
图3B是根据一个实施例通过操作平面图中的方向表示控制立体图的视场的方向的过程的流程图;
图4A和4B是根据各种实施例在图3A和3B的过程中使用的用户界面的示意图;
图5是根据一个实施例在图3A和3B的过程中使用的用户界面的示意图;
图6是根据一个实施例在图3A和3B的过程中使用的用户界面的示意图;
图7是可用于实现本发明的实施例的硬件的示意图;
图8是可用于实现本发明的实施例的芯片集的示意图;以及
图9是可用于实现本发明的实施例的移动终端(例如,手持设备)的示意图。
具体实施方式
公开了为基于位置的服务渲染具有主视图部分和预览部分的用户界面的方法、装置和计算机程序的示例。在下面的描述中,为了说明的目的,列举了许多特定细节以提供对本发明的实施例的全面理解。然而,本领域技术人员显而易见的是,本发明的实施例可以在没有这些特定细节或具有等同配置的情况下实现。在其他实例中,以框图形式示出了已知的结构和设备以避免不必要地模糊本发明的实施例。
此处使用的术语“图像”指代照相机(例如,静物照相机、数码相机、摄影机、照相手机等)或任何其它成像设备所拍的一张或一系列图像。尽管关于实况照相机视图描述了各种实施例,可设想此处描述的方法可用于其它实况或实时图像(例如,静像、实况视图、实况网络摄影视图等),只要该图像在图像捕获时与成像设备(例如,照相机)的位置、倾角和指向(heading)关联。
此处使用的术语“兴趣点”(POI)指代用户或服务提供商指定的任意点。术语POI还与术语“对象”可交换地使用。作为示例,兴趣点可以是陆标、餐馆、博物馆、建筑物、桥梁、塔、坝、工厂、制造厂、航天飞机等。
此处使用的术语“立体图”指代提供其中示出的对象的某种透视的视图,不管是使用2D或3D显示器显示,或者使用2D或3D图像显示。这样的立体图可以是实时图像(例如,在使用设备的照相机的增强现实设置中)、全景图像(例如,预存储的全景照片)、虚拟现实中的3D建模、或者不管使用2D还是3D图像构建,尝试示出对对象或环境的真实或虚拟景深的其它修改的视图。
图1是根据一个实施例,能够为基于位置的服务渲染具有主视图部分和预览部分的用户界面(UI)的系统的示意图。
如之前所述,导航、测绘及其它类似服务和系统显示全景图或两维渲染的地图,但不尝试合并两个视图。当在2D视图中呈现内容时,某一内容可能聚合或太靠近以至于对用户来说不可见。当在3D视图中呈现内容时,例如,全景图或直接经由相机的视图,可见内容限于相机的当前场景或位置。切换视图可引起空间和位置的理解中的混淆通常是个问题,尤其是在用户不是很熟悉视图中的地点时。一些相关的现有服务仅当视图最大化时示出仅地图中的内容。其它增强现实或混合现实服务可基于内容的类型以不同的方式显示内容;然而,通常,内容以抖动方式示出并且不以稳定方式附加到对象或POI。
为了解决其它相关现有系统的不足。图1的系统100引入了为基于位置的服务渲染具有主视图部分和预览部分的用户界面的能力,这可以允许用户同时地形象化(visualize)区域的地图的对应平面图和立体图(例如,示出区域的全景图像)并在需要时在这样的图像之间进行切换。
因此,可以在移动UI中显示小预览,其中示出了最相关的内容。例如,当用户在浏览UI上的全景图时,用户有预览示出全景图中显示了什么的环境的地图的选择权。类似地,当浏览地图时,预览示出了用户在地图上关注的点的最接近的全景。两种视图均显示可在区域中找到的内容,允许更好的空间和位置感。在预览中反映主视图中的动作,因此如果用户碰巧在期待的位置或者实质上如果用户在远程地浏览该区域,则用户总是有身体上去哪里的意识。选择地图上拥挤区域中丰富的内容信息可以打开该拥挤区域中的所有内容的列表视图,而选择全景上的内容可以打开更具体的内容或列表视图。
可以容易地轻击预览以切换视图并基于用户的需求容易地导航。通过开启全屏视图模式也可以容易地隐藏预览。如果用户正在地图或平面图中导航,用户可在地图中的任何新位置轻击,并且这会将用户的视点带到地图上被轻击的点,并且同时预览中的全景将从地图上新确定的点更新到最新的全景图像。用户也可以旋转手机或视点(POV)图标以移动地图的方向,这也将影响全景预览的方向。为了在大小上适应以及快速,可以以低分辨率从主全景图拍得全景图像。使用屏幕的一部分作为不同的UI视图的预览并作为在场面和视图之间容易地切换的方式。
在浏览基于位置的内容或在2D地图和3D全景图像中导航时,该方案允许用户更好地理解他们的环境以及远程环境。内容的发现和与内容有联系的精确场所的理解变得更容易和更好。从一个试图到另一试图的切换是非常直观的,因为两个视图均示出了同一位置和方向。
作为示例,当用户站在当前位置处(例如,Farragut西地铁站)时,用户可操作用户设备(例如,用户设备(UE)101)的用户界面以在用户界面的主视图部分中示出周围区域(或另一区域,例如用户的最终目的地)的地图的平面图,而在用户界面的预览部分中示出周围区域的立体图,以给用户关于周围区域的3D全景图的概念。通过使用用户设备的相机实时地(例如,以增强现实)捕获周围区域的图像、通过使用预存储的图像(例如,之前捕获的图像或虚拟现实图像)、或实时图像与预存储的图像的组合(例如,混合现实),可以生成立体图。示出地图的平面图的用户界面的部分可包括指示立体图的视场的方向表示(例如,具有外表上延伸的视锥的潜望镜图标)。通过调整用户设备的方向(例如,利用指南针或其他设备来确定方向中的改变)、通过手工地操控用户界面上的地图的平面图上的视场的方向表示、和/或通过手工地操控用户界面上的立体图中的视图,用户可以调整视野。用户可将地图的平面图从用户界面的主视图部分切换到预览部分,并因此还将立体图从预览部分切换到用户界面的主视图部分。该双窗口配置允许用户容易地解释立体图的位置和方向,并允许用户快速地和直观地导航到POI或确定他们的位置。
如上所述,可使用实时图像、预存储(预记录)的图像来显示立体图,或者系统100可以检索并且并排地缝合紧邻实况图像的静止图像,然后将无缝缝合的图像显示给用户。为了无缝切换,系统100使预记录的具有同一倾角和具有紧邻实况图像的方向指向的全景图像相关,并将相关的预记录的全景图像显示在屏幕上。即使两个图像由同一设备以同一倾角和同一方向指向在同一位置拍得,由于用户高度或设置(例如,数字缩放、对比、分辨率、编辑、修剪等)的原因图像的覆盖范围可以是不同的。如果两个图像由两个设备在同一位置以同一倾角和同一方向指向拍得,由于两个设备的不同规范图像的覆盖范围可以仍然是不同的。设备可具有不同的成像规范,诸如LCD大小、光学变焦、数字变焦、变焦宽、变焦镜头、有效像素、像素密度、图像稳定性、光圈范围等,其影响两个设备所拍得的图像的质量和景深。
然而,现有照片匹配技术允许实况图像与预存储的全景图像之间接近100%的匹配。存在用于为实况图像选择最匹配的全景静止图像的照片匹配应用(例如,逐个像素地比较图像的照片匹配在线搜索引擎)。还存在使得实况图像与预存储的全景静止图像之间的界限无缝的照片缝合应用。随着用户持续触摸导航箭头触摸屏幕边缘,更多预记录的全景静止图像被匹配和缝合以铺向屏幕,作为运行中(on the fly)的全景图。
为了从当前位置导航到POI,用户向系统100指示POI作为目的地。通过示例的方式,当系统100接收诸如国际货币基金组织(IMF)大楼的目标位置作为预期的POI时(例如,作为文本接收,或者在UE101的屏幕上的数字地图上等),系统100检索IMF的位置数据(例如,地址、GPS坐标等),或者用于捕获IMF的预记录的全景图像的设备的位置数据(例如,如果POI不如IMF出名,例如,公园里的旋转木马)。然后系统100绘制从当前位置(例如,地铁站)到指定POI的路线并在主视图部分或者预览部分中将数字地图上的路线呈现给用户。在用户沿着路线行走时,系统100还在预览部分或主视图部分的另一个中将周围位置的实况图像视图呈现在屏幕上。无论何时用户想要在主视图部分中的立体图(以及预览部分中的平面图)和主部分中的平面图(以及预览部分中的立体图)中进行切换时,用户可使用用户界面自由地这么做。其它兴趣点可位于路线上,并且可使用过滤器来选择使用图形表示标记的以及没有被标记的POI的类型。
可选地,用户可利用用户界面来查看远程位置。例如,如果用户计划在当天中的稍后时间拜访特定POI,则用户可将该POI定位在地图的平面图上(例如,通过滚动到POI的位置、输入POI的地址、使用POI的关键字或名称来搜索POI等),例如,在用户界面的主视图部分中。然后,用户可操控视场的方向表示以提供所需的有利位置。例如,如果用户计划沿着某条路向北(travel down)以到达POI,则用户可操控视场以提供沿着该条路的有利位置,用户在沿着该条路的时候将看见该有利位置并到达POI。随着视场被设置为所需的方向,用户可在用户界面的预览部分中看见POI的立体图的预览,并且用户可将POI的立体图切换到用户界面的主视图部分以查看POI的放大的图像。因此,用户将能够看见POI看起来像什么,从而允许用户在当天的稍后到达POI时识别POI。POI的立体图还可以包括提供到与POI有关的内容的链接(例如,名称、地址、电话号码、网页链接等)的图形表示或标签(例如,气泡、图标、图像、文本等),其可由用户在用户界面中选择,以获得关于POI的进一步内容信息。
在一个实施例中,系统100基于由用户倾斜和旋转的UE101的倾角和方向指向在UE101的屏幕上显示预记录的全景图的不同部分。在该实施例中,用户可改变预记录的全景图中预记录的全景图像,而不移动/拖动UE101的屏幕上的查看标签。
在另一实施例中,系统100进一步利用增强现实或增强虚拟(例如,使用3D模型和3D测绘信息)来以实时方式插入与实况图像视图中的POI相关的丰富的内容信息(例如,从因特网、用户输入等绘制)。标签显示在立体图中的对象或POI的表面上并实际上附着到其上,并且在对象或POI的表面上以固定的3D方向示出。也可以在预记录的全景图中看到与POI相关的内容,并且该内容可能已经嵌入/标记在预记录的全景图中,或者以实时方式插入。POI可以由用户、服务提供商(例如,无线、蜂窝、因特网、内容、社交网络等)和/或设备制造商预先设置,并且相关内容也可以由这些实体的任何一种组合来嵌入/标记。
通过示例,用户选择部门的第四层作为POI,并且标记从百货公司网站检索的POI的内容信息。系统100保存POI和标记的内容,并向用户呈现实况图像视图和/或预记录的全景图中大多数更新的内容信息,自动地或者根据需求。内容信息可以包括:(1)POI的建筑平面图,(2)位于POI中的居住者/商店/设施(例如,在缩略图像、动画片、音频警报等中),(3)关于居住者/商店/设施的介绍和背景内容,(4)关于居住者/商店/设施的营销和销售内容,或者与POI有关的任何其它数据或信息。还可以设想内容可与多个楼层关联。内容信息包括实况媒体、存储的媒体、与媒体关联的元数据、文本信息、其它用户设备的位置信息、测绘数据、地理标记的数据或其组合。
在特定实施例中,尽管地图的平面图可示出链接到其丰富的内容信息的对象的所有图形表示,在给定区域中,仅为在立体图的视场中可见的对象示出附着到立体图中的对象的图形表示。因此,可从立体图省略从立体图中的视图隐藏的对象(例如,隐藏在建筑物或者隐藏在树后面的对象等)的图形表示,以避免用户界面的立体图的杂乱。
如图1所示,用户设备(UE)101可经由通信网络105从内容测绘平台103检索内容信息(例如,内容和位置信息)和测绘信息(例如,地图、GPS数据、预记录的全景图等)。UE101上的测绘和用户界面应用107(例如,增强现实应用、导航应用或其它基于位置的应用)可将内容和测绘信息用于实况图像视图和/或预记录的全景图。在图1的示例中,内容测绘平台103在地图数据库109a中存储测绘信息并在内容目录109b中存储内容信息。通过示例,测绘信息包括数字地图、GPS坐标、预记录的全景图、地理标记的数据、兴趣点数据或其组合。通过示例,内容信息包括一个或多个标识符、元数据、接入地址(例如,诸如统一资源定位器(URL)的网络地址或因特网协议(IP)地址;或诸如UE101的存储器中的文件或存储位置的本地地址)、描述或与内容关联的类似物。在一个实施例中,内容包括实况媒体(例如,流广播)、存储的媒体(例如,存储在网络上或本地)、与媒体关联的元数据、文本信息、其它用户设备的位置信息或其组合。内容可由包括一个或多个服务113a-113n(例如,音乐服务、测绘服务、视频服务、社交网络服务、内容广播服务等)、一个或多个内容提供商115a-115m(例如,网上内容零售商、公共数据库等)、通过通信网络105可用或可访问的其它内容源的服务平台111提供。
附加地或可选地,在某些实施例中,可以结合应用107使用UE101的用户地图和内容数据库117以向用户呈现内容信息、位置信息(例如,测绘和导航信息)、有效信息等。可为用户呈现与应用107关联的增强现实界面和/或允许内容和相关信息的3D对象或其它表示叠加到UE101上的物理环境的图像上的内容测绘平台。在某些实施例中,用户界面可显示混合的物理和虚拟环境,其中来自地图数据库109a的3D对象叠加到物理图像的顶部。
通过示例,UE101可执行应用107以从内容测绘平台103或网络105的其它组件接收内容和/或测绘信息。如上所述,UE101利用GPS卫星119来确定UE101的位置,以利用内容测绘平台103和/或应用107的内容测绘功能,并且可从真实世界建筑物和其它站点的实况相机视图创建存储在地图数据库109a中的地图信息。这样,内容可被增强到预记录的全景图和/或真实世界位置的实况相机视图中(例如,基于诸如全球定位系统(GPS)坐标的位置坐标)。
应用107和内容测绘平台103接收关于内容的接入信息、基于接入信息确定内容的有效性、然后呈现预记录的全景图或具有增强内容的实况图像视图(例如,具有增强内容的IMF大楼的实况相机视图,诸如其源、宗旨(mission)、设施信息:高度、楼层数等)。在某些实施例中,内容信息可包括物理环境(例如,建筑物)中的对象、设施和结构的2D和3D数字地图。
通过示例,系统100的通信网络105包括一个或多个网络,诸如数据网络(未示出)、无线网络(未示出)、电话网络(未示出)、或其任何组合。可设想数据网络可以是任何局域网(LAN)、城域网(MAN)、广域网(WAN)、公共数据网(例如,因特网)或任何其它合适的分组交换网,诸如商业拥有的、私有的分组交换网络,例如私有电缆或光纤网络。此外,无线网络例如可以是蜂窝网络并可以采用各种技术,包括增强数据率全球演进(EDGE)、通用分组无线业务(GPRS)、全球移动通信系统(GSM)、因特网协议多媒体子系统(IMS)、通用移动通信系统(UMTS)等,以及任何其它合适的无线介质,例如,微波接入全球互连(WiMAX)、长期演进(LTE)网络、码分多址(CDMA)、宽带码分多址(WCDMA)、无线保真(WiFi)、卫星、移动自组织网络(MANET)等。
UE101是任何类型的移动终端、固定终端或便携式终端,包括移动手机、台、单元、设备、多媒体计算机、多媒体输入板、因特网节点、通信器、桌面计算机、膝上型计算机、个人数字助理(PDA)或其任意组合。还可以设想UE101可支持任何类型的到用户的接口(诸如“可佩带”电路等)。
通过示例,UE101和内容测绘平台103使用已知的、新的或仍在开发中的协议彼此通信并与通信网络105的其它组件通信。在此上下文中,协议包括定义通信网络105内的网络节点如何基于在通信链路上发送的信息彼此交互的规则集。协议在每个节点内的操作的不同层处有效,从生成和接收各种类型的物理信号、到选择用于传递这些信号的链路、到由这些信号指示的信息的格式、到识别计算机系统上执行的哪个软件应用发送或接收该信息。在开放系统互连(OSI)参考模型中描述了用于在网络上交换信息的协议的概念上不同的层。
网络节点之间的通信通常被交换数据的离散分组影响。每个分组通常包括(1)与特定协议相关联的头部信息,以及(2)在头部信息后面并且含有可独立于该特定协议而被处理的信息的有效载荷信息。在一些协议中,分组包括(3)在有效载荷后面并且指示了有效载荷信息的结束的尾部信息。头部包括诸如以下的信息:分组的源、其目的地、有效载荷的长度以及协议所使用的其它特性。通常,针对特定协议的有效载荷中的数据包括用于与OSI参考模型的不同的较高层相关联的不同协议的头部和有效载荷。针对特定协议的头部通常指示了包含在其有效载荷中的下一协议的类型。较高层协议据说封装在较低层协议中。包括在穿过多个异构网络(例如因特网)的分组中的头部通常包括物理(层1)头部、数据链路(层2)头部、网络间(层3)头部和传输(层4)头部,以及如OSI参考模型定义的各种应用头部(层5、层6和层7)。
在一个实施例中,应用107和内容测绘平台103可根据客户端-服务器模型交互,从而UE101的应用107根据需求从内容测绘平台103请求测绘和/或内容数据。根据客户端-服务器模型,客户端过程发送包括请求的消息到服务器过程,并且服务器过程通过提供服务(例如,提供地图信息)来进行响应。服务器过程还可以返回带有响应的消息给客户端过程。通常,客户端过程和服务器过程在不同的计算机设备(称为主机)上执行,并且使用用于网络通信的一个或多个协议经由网络进行通信。术语“服务器”传统上用于指提供服务的过程,或运行所述过程的主机。相似地,术语“客户端”传统上用于指作出请求的过程,或运行所述过程的主机。此处使用的术语“客户端”和“服务器”是指过程,不是指主机,除非从上下文中明确的表示。此外,出于包括可靠性、可伸缩性和冗余性等的原因,可以将服务器执行的过程拆分以作为多个主机上的多个过程(有时称为层)来运行。
图2是根据一个实施例的测绘和用户界面应用的组件的示意图。作为示例,测绘和用户界面应用107包括用于在实况相机图像和预记录的全景图像之间进行关联和导航的一个或多个组件。期望的是,这些组件的功能可以组合在一个或多个组件中或者由具有等同功能性的其它组件执行。在该实施例中,测绘和用户界面应用107包括至少一个控制逻辑201,其执行至少一个用于执行测绘和用户界面应用107的功能的算法。例如,控制逻辑201与图像模块203交互以向用户提供UE101的当前位置的周围环境的实况相机视图(例如,Farragut西地铁站)。图像模块203可包括相机、摄影机、其组合等。在一个实施例中,以图像或一系列图像的格式捕获视觉媒体。
接下来,控制逻辑201与定位模块205交互以检索UE101的当前位置的位置数据。在一个实施例中,位置数据可包括地址、地理坐标(例如,GPS坐标)或可与当前位置关联的其它指示符(例如,经纬度信息)。例如,位置数据可由用户手动输入(例如,输入地址或标题、在数字地图上点击等)或者从任何地理标记的数据提取或导出。可以设想,位置数据或地理标记的数据也可以由定位模块205通过导出与位置关联的元数据(例如,媒体标题、标签和评论)来创建。更具体地,定位模块205可以解析关于指示与特定位置的关联的任何术语的元数据。
在一个实施例中,定位模块205通过诸如GPS、辅助GPS(A-GPS)A-GPS、原点小区的三角测量系统、无线局域网三角测量或其它位置推断技术来确定用户的位置。标准GPS和A-GPS系统可使用卫星119来精确定位UE101的位置(例如,经度、纬度和海拔)。原点小区系统可用于确定与蜂窝UE101同步的蜂窝塔。该信息提供UE101的粗定位,因为蜂窝塔可以具有可被地理测绘的唯一的蜂窝标识符(小区ID)。定位模块205还可以使用多种技术来检测UE101的位置。关于UE101的位置GPS坐标可以提供更精细的细节。如之前所述,可以使用定位模块205来确定用于应用107和/或内容测绘平台103的位置坐标。
再次,控制逻辑201与图像模块203交互以显示当前位置的实况相机视图和位置数据。在显示当前位置的实况相机视图时,控制逻辑201与图像模块203交互以接收用户例如通过触摸UE101的屏幕上的“切换”图标对切换视图的指示。控制逻辑201与关联模块207交互以使用位置数据关联实况图像视图与预记录的全景图,还与切换模块209交互以交替/切换从实况图像视图到关联的预记录的全景图的显示。同样,切换模块209可以控制用户界面217的主视图部分中示出的视图(即,平面图或立体图)以及用户界面217的预览部分中示出的视图之间的切换。
在另一实施例中,切换模块209与确定UE101的水平方向或方向指向(例如,指南针指向)的磁力计模块211和确定UE101的垂直方向或仰角的加速计模块213交互。此后,切换模块209与图像模块203交互以基于随用户倾斜和/或旋转的UE101的倾角和方向指向来在UE101的屏幕上显示预记录的全景图的不同部分。在这些情况下,用户可以查看预记录的全景图的不同部分,而不需要移动/拖动UE101的屏幕上的查看标签。
在一个实施例中,使用从磁力计获得的水平方向数据确定UE101的方向。磁力计模块211可以包括可以测量磁场的强度和/或方向的仪器。使用与指南针相同的方法,磁力计能够使用地球磁场确定UE101的方向指向。图像捕获设备(例如,数码相机)的前部(或UE101上的另一参考点)可标记为确定方向的参考点。因此,如果与参考点相比磁场指向北,则UE101参考点相对磁场的角度已知。可以进行简单的计算以确定UE101的方向。该方向信息可与UE101的位置信息关联以确定UE101正指向何处(例如,在什么地理特征或对象处)。可以利用该信息来选择渲染给用户的预记录的全景图的部分。
此外,加速计模块213可包括可测量加速度的仪器。使用三轴的加速计,轴X、Y和Z,以已知角度在三个方向中提供加速。再一次,在确定方向的过程中可将媒体捕获设备的前端标记为参考点。因为由于万有引力导致的加速度已知,当UE101静止时,加速计模块213可确定与地球的万有引力相比UE101指向的角度。在一个实施例中,使用从加速计获得的垂直方向数据确定UE101正指向的仰角或倾角。可以使用该信息结合磁力计信息和位置信息来确定对于用户来说预记录的全景图中的视角。这样,该信息可用于选择可用的内容项以向用户呈现导航信息。此外,可以使用组合的信息以确定用户可能感兴趣的特定数字地图或预记录的全景图的部分。
然后,控制逻辑与图像模块203交互以向用户渲染预记录的全景图中的视角,无论何时用户旋转/倾斜UE101。如上所述,关联模块207可以从相机获得实况图像并经由位置信息将实况图像与预记录的全景图关联。此外,关联模块207使用磁力计信息、加速计信息或其组合来确定向用户显示预记录的全景图的部分的视角。
然后,控制逻辑201与内容管理模块215和图像模块203交互以增强与实况图像中的一个或多个POI相关的内容信息。可从服务平台111、服务113a-113n、内容提供商115a-115m、其它类似组件或其组合接收该内容。还可以设想,用户或用户授权的另一方可手动地输入内容项。在一个实施例中,内容管理模块215可以创建列出提供给内容管理模块215的所有内容项和关联的接入地址的内容目录。在某些实施例中,内容目录可包括描述内容的附加描述信息和其它元数据。可用的媒体内容或流可采用很多形式(例如,实况视频反馈、照片、声音文件等)并且可使用任何数量的部件(例如,流媒体、下载的媒体、自发创建的媒体等)来传递。内容管理模块215包括用于接收和/或检测其原始格式中的媒体内容或用于将媒体内容转换为与测绘和增强现实应用107兼容的媒体格式的一个或多个子模块或应用编程接口(API)(未绘出)。在其它实施例中,内容管理模块215可以发起核实内容或流所需的组件(例如,编解码器、播放应用等)的下载或安装。可将内容数据缓存或保存在用户地图和内容数据库117中。
为了促进查找特定内容或特征,内容管理模块215使得用户能够输入搜索条件(例如,内容项、人、城市、天气等)并得到用于查找搜索的内容项位于真实物质世界中的方向的指南。内容管理模块215还使得用户能够指定时间段以使用位置和时间两者来导航内容信息。在一个实施例中,用于查看内容和测绘信息的缺省时间是当前。如果时间段设置为将来,则内容管理模块215将基于指定的时间确定一个或多个内容项,诸如在接下来的三个小时里在百货商店第四层将特价出售什么。通过示例,出售的内容和产品信息可呈现在具有根据关联的位置信息放置的每个产品的表示的建筑平面图上。
内容可描述为覆盖在与兴趣点(例如,楼层)或兴趣点的一部分(例如,楼层上的设施)对应的位置处的用户界面地图上的缩略图,并以固定的3D方向附着到POI。如所讨论的,用户界面可以是图形用户界面。此外或者可选地,用户界面可以是音频或触觉界面。在一个实施例中,内容管理模块215仅呈现在指定的时间处可用并与任何局限或排他限制无关的那些内容项。该实施例提供了用户可简单地从所呈现的内容项中选择并被确保所选的项将可用于单次选择点击的用户体验。在其它实施例中,内容管理模块215可呈现所有可用的内容并区分可用于单次点击的内容对(versus)与附加局限或限制关联的内容的呈现。呈现的特定类型可由用户、内容提供商115、网络运营商、服务平台111或其组合指定。然后内容管理模块215确定是否周期性地更新内容信息。
在某些实施例中,当具有比可在现有用户界面中显示的内容更多的内容可用时,内容管理模块215不断地激励内容项的显示,以便在原来的内容消失时新的内容保持出现。该激励过程还使得用户界面对于用户来说更有娱乐性,并给予一种世界随着活动变得“有生机”的感觉。
在某些实施例中,用户地图和内容数据库117包括地图数据库109a和内容目录109b中的所有信息或一部分信息。从所选视角,可在UE101的屏幕上提供使用内容增强的实况图像视图。在某些实施例中,内容管理模块215使用从数据库117或内容测绘平台103生成或检索的内容,根据所选视角提供关联的预记录的全景图。内容信息可以由另一装置事先嵌入/标记在关联的预记录的全景图中,或当在UE101的屏幕上显示关联的预记录的全景图时由内容管理模块215根据需求和/或以实时方式嵌入/标记在关联的预记录的全景图中。
内容和测绘信息可经由用户界面217呈现给用户,其可以包括各种通信方法。例如,用户界面217可具有包括视觉组件(例如,屏幕)、音频组件(例如,口头指令)、物理组件(例如,震动)和其它通信方法的输出。用户输入可包括触屏界面、麦克风、相机、滚动点击界面、按钮界面等。此外,用户可输入请求以开始应用107(例如,测绘和用户界面应用)并使用用户界面217接收内容和测绘信息。通过用户界面217,用户可请求呈现不同类型的内容、测绘或位置信息。进一步地,可向用户呈现特定位置和相关对象(例如,特定位置处的建筑物、地形特征、POI等)的3D或增强现实表示,作为UE101的屏幕上的图形用户界面的一部分。如前所述,UE101与内容测绘平台103、服务平台111和/或内容提供商115a-115m通信以获取内容、测绘和/或位置信息。UE101可使用客户端服务器格式的请求来检索内容和测绘信息。此外,UE101可在请求中指定位置信息和/或方向信息以检索内容和测绘信息。
图3A是根据一个实施例为基于位置的服务渲染具有主视图部分和预览部分的用户界面的过程的流程图。图3B是根据一个实施例通过操作平面图中的方向表示控制立体图的视场的方向的过程的流程图。图4A、4B、5和6是根据各种实施例在图3A和3B的过程中使用的用户界面的示意图。
在一个实施例中,测绘和用户界面应用107执行过程300并实现在例如包括图8中示出的处理器和存储器的芯片集中。在步骤301,测绘和用户界面应用107至少部分地促使为基于位置的服务渲染同时地包括主视图部分和预览部分两者的用户界面,其中在一个部分(即,主视图部分或预览部分)中显示立体图而在另一部分(即,预览部分或主视图部分中的另一个)中显示平面图。然后,在步骤303,测绘和用户界面应用107(例如从用户界面217)接收用户输入以在下列两者之间切换:在主视图部分中显示立体图并在预览部分中显示平面图,和在主视图部分中显示平面图并在预览部分中显示立体图(或反之亦然,即,在下列两者之间切换:在主视图部分中显示平面图并在预览部分中显示立体图,和在主视图部分中显示立体图并在预览部分中显示平面图)。例如,用户可触摸预览部分以将预览部分中示出的视图切换为主视图部分中示出的视图,或者用户可将UE101倾斜到特定角度(例如,水平位置),以便该角度可自动地触发视图的切换(例如,在UE101水平时,如果平面图在预览部分中示出,则其可被切换到主视图部分)。在用户定制(order)切换后,测绘和用户界面应用107至少部分地促使在UE101的屏幕上的哪个视图部分中示出了哪个视图的表示的替换。
在生成立体图时,测绘和用户界面应用107从实时图像和/或预先存储的图像确定用于立体图的一个或多个对象的最佳图像。例如,应用107可比较特定视场的各个存储的图像,并确定哪个图像在最佳焦点中、处于最有利位置(例如,离用户选择的视场最靠近的有利位置),并然后使用该可用的最好图像。然后,应用可使用最佳图像至少部分地促使立体图在用户界面中渲染。附加地,应注意,可通过使用覆盖到对象的表面上的图形表示提供实时图像、预存储的图像和/或实时图像与预存储的图像的混合之间的流畅转换来形成立体图,从而以流畅和连续的方式提供最好可能的立体图。
同样,应注意,当应用107接收改变立体图或平面图中的显示的方向的输入时,应用107与输入相对应地同时改变立体图和平面图中的另一个的显示的方向。因此,一个试图中的任何改变将同时地导致另一试图中的改变。例如,如果用户界面正在示出立体图中的实时图像并转圈移动(pan),则平面图也将示出以圆周运动移动的视点图标。同样,如果用户围绕平面图上的各种位置扫描,则将同时地更新立体图以在所选位置所选方向处示出图像。
在一个实施例中,测绘和用户界面应用107执行过程320并实现在例如包括图8中示出的处理器和存储器的芯片集中。在步骤321,测绘和用户界面应用107至少部分地促使方向表示在立体图中显示的视场的平面图中渲染。例如,方向表示可包括图形表示(如人或者潜望镜或者表明特定视点的其它对象的2D或者3D图形)以及从其延伸的圆锥形区域,其示出规划视场的方向以及通常由视场覆盖的区域。然后,在步骤323,测绘和用户界面应用107(例如从用户界面217)接收用户输入以通过操作平面图中的方向表示来控制立体图中显示的视场的方向。因此,例如,用户可通过使用用户界面的触摸屏将潜望镜移动到另一位置或在不同的方向转动潜望镜(例如,通过围绕平面图中示出的潜望镜的周围移动手指)、或者通过使用触摸屏移动或转动立体图(例如,通过缩放或滑动(swipe)动作)、或者通过物理上改变移动设备的定向方向(例如,在使用实时图像或预存储的图像时转动设备以转动潜望镜和立体图)来操作平面图中的方向表示。基于这种输入,测绘和用户界面应用107至少部分地促使平面图中方向表示的方向中的改变,以及UE101的屏幕上的立体图中视场的方向中的相应的改变。
图4A和4B是根据各种实施例在图3A和3B的过程中使用的用户界面的示意图。图4A和4B描述了用户设备400,诸如移动设备,其包括具有诸如触摸屏的显示屏403的外壳401。显示屏403当前正显示同时示出主视图部分405和预览部分407的用户界面。在该实施例中,将预览部分407示出为主视图的左下角处的半圆形窗;然而,可以任何形状和在主视图上的任何位置处提供预览部分。在图4A中示出的实施例中,主视图部分405当前正显示示出了地图的平面图,预览部分407当前正显示示出了全景图的立体图。平面图和立体图可基于用户设备400的当前位置和/或方向或者基于用户选择的位置显示这种视图。
在图4A中的主视图405中示出的平面图中示出了方向表示,在该实施例中其包括潜望镜图形(或者也通常在此处称为视点图标)411和从潜望镜图形411延伸的圆锥形区域413,其示出规划立体图的视场的方向以及通常由视场覆盖的区域。因此潜望镜图形411和从其延伸的圆锥形区域413直接与立体图中示出的视场相关联。立体图中示出的图像可以是使用UE101的相机捕获的实时图像、服务提供商提供和/或存储在UE101上的预存储的图像、或者实时图像与预存储的图像的混合。
在图4A中示出的实施例中,显示在显示屏403上的用户界面示出了对应于与各种对象/POI相关的丰富的内容信息的各种图形表示(例如示出的气泡,或其他图像、图标、文本等)409。平面图中示出的图形表示409还可以在立体图中显示在对象/POI的表面上(参见,例如图4B、5和6)并实际上附着到其上,并在对象/POI的表面上以固定的3D方向示出。用户可在平面图或立体图中选择图形表示,提供丰富的内容信息的上托窗口将出现。内容信息包括实况媒体、存储的媒体、与媒体关联的元数据、文本信息、其它用户设备的位置信息、测绘数据、地理标记的数据或其组合。
在图4A中示出的实施例中,显示屏403上显示的用户界面示出了沿主视图部分405的下边缘的各种图标,其向用户提供了各种菜单选项。例如,用户可选择图标415(例如,使用触摸屏)来添加用于对象/POI的图形表示。因此,例如,如果用户想要向用户的朋友居住的特定建筑物添加新图形表示,则用户可选择图标415并在希望的位置拖放新图形表示,然后以希望的内容信息填充图形表示。附加地,用户可选择图标417以过滤显示在用户界面上的图形表示的类型。例如,如果用户想要仅在平面图和/或立体图中示出餐馆的图形表示,则用户可选择图标417,其将向用户提供预先设置的类别列表,用户可从该类别列表选择和/或允许用户从该类别列表定义所需的过滤器或执行文本搜索以定义所需的过滤器。附加地,用户可选择图标419以在图4A、4B、4和6中示出的双窗口视图(即,包括主视图部分和预览部分)和全屏视图模式之间来回切换,在全屏视图模式中示出平面图或立体图之一而不示出预览部分407。
图4B是根据另一实施例在图3A和3B的过程中使用的用户界面的示意图。图4B描述了具有显示用户界面的显示屏403的用户设备400,其中主视图部分405示出立体图,预览部分407示出对应的平面图。在图4B中,示出平面图的预览部分407包括示出为潜望镜图形421和从潜望镜图形421延伸的圆锥形区域423,其示出规划立体图的视场的方向以及通常由视场覆盖的区域。同样,在图4B中,示出立体图的主视图部分405包括图形表示,例如,气泡425,其对应于与各个对象/POI相关的丰富的内容信息。
在任何给定时刻,用户例如可通过选择来回切换图标427来切换哪个视图(即,立体图或平面图)在主视图部分405中示出以及哪个视图在预览部分407中示出。同样,用户可使用加减缩放图标429来放大和缩小(例如,同时在两个视图中,或者仅在视图之一中,诸如在主视图部分中示出的视图)。
图5是根据另一实施例在图3A和3B的过程中使用的用户界面的示意图。图5描述了用户设备500,诸如移动设备,其包括具有显示屏503的外壳501。显示屏503当前正显示同时示出主视图部分505和预览部分507的用户界面。在图5中示出的该实施例中,主视图部分505当前正显示示出了地图的平面图,预览部分507当前正显示示出了全景图的立体图。平面图和立体图可基于用户设备500的当前位置和/或方向或者基于用户选择的位置显示这种视图。
在图5中,示出平面图的主视图部分505包括示出为潜望镜图形509和从潜望镜图形509延伸的圆锥形区域511,其示出规划立体图的视场的方向以及通常由视场覆盖的区域。同样,主视图部分505包括图形表示,例如,气泡513,其对应于与相应的对象/POI相关的丰富的内容信息。此外,预览部分507包括图形表示,例如,气泡515,其对应于与平面图中的气泡513同样的对象/POI。显示在立体图中的图形表示515示出在对象/POI的表面上并实际上附着到其上,并在对象/POI的表面上以固定的3D方向示出。例如,如立体图中所看到的或者如用户或服务提供商预先设置的,图形表示515附着到对象/POI的最突出的表面上。图形表示可以是气泡图标、图像(例如,由用户设置,诸如住在建筑物中的人的照片,或者由服务提供商设置)、表示对象/POI的类别的图标(例如,指示餐馆POI的刀叉、表示商店POI的购物车等)、文本(例如,对象/POI的名称或描述)等。
图6是根据另一实施例在图3A和3B的过程中使用的用户界面的示意图。图6描述了包括具有显示屏603的外壳601的用户设备600。显示屏603当前正显示同时示出主视图部分605和预览部分607的用户界面。在图6中示出的实施例中,主视图部分605当前正显示示出了全景图的立体图,预览部分607当前正显示示出了地图的平面图。平面图和立体图可基于用户设备600的当前位置和/或方向或者基于用户选择的位置显示这种视图。
在图6中,示出平面图的预览部分607包括示出为潜望镜图形609和从潜望镜图形609延伸的圆锥形区域611,其示出规划立体图的视场的方向以及通常由视场覆盖的区域。同样,主视图部分605包括图形表示,例如,气泡613,其对应于与相应的对象/POI相关的丰富的内容信息。此外,主视图部分605包括其它图形表示,例如,气泡615,其对应于与透视图的视场中可见的其它对象/POI相关的丰富的内容信息。在某些实施例中,尽管地图的平面图可示出链接到其丰富的内容信息的对象的所有图形表示,但在给定区域中,仅为在立体图的视场中可见的对象示出附着到立体图中的对象的图形表示。因此,从立体图中省略在立体图中看不见的对象的图形表示(例如,隐藏在建筑物后面或者隐藏在树后面的对象的图形表示等)以避免用户界面的立体图的杂乱。
可以通过软件、硬件(例如,通用处理器、数字信号处理(DSP)芯片、专用集成电路(ASIC)、场可编程门阵列(FPGA)等)、固件或者其组合来有利地实现此处描述的为基于位置的服务渲染具有主视图部分和预览部分的用户界面的过程。下面详细地介绍用于执行所述功能的这种示例性硬件。
图7示出了可在其上实施本发明的实施例的计算机系统700。尽管关于特定设备或者装备对计算机系统700进行描述,期望的是,图7内的其它设备或者装备(例如,网络元件、服务器等)能够部属所示出的系统700的硬件和组件。计算机系统700被编程(例如,经由计算机程序代码或者指令)以如此处描述的为基于位置的服务渲染具有主视图部分和预览部分的用户界面,并且包括诸如总线710的用于在计算机系统700的其它内部和外部组件之间传递信息的通信机制。信息(也称为数据)表示为可测量现象的物理表达,通常为电压,但是在其它实施例中包括诸如磁、电磁、压强、化学、生物、分子、原子、亚原子和量子相互作用的现象。例如,北磁场和南磁场或者零和非零电压表示二进制数字(比特)的两个状态(0,1)。其它现象可以表示更高基的数字。测量前多个同时发生的量子状态的叠加表示量子比特(qubit)。一个或多个数字的序列组成用于表示字符号码或者代码的数字数据。在一些实施例中,被称为模拟数据的信息由特定范围内的近似连续的可测量值表示。计算机系统700或者其部分组成用于执行为基于位置的服务渲染具有主视图部分和预览部分的用户界面的一个或多个步骤的部件。
总线710包括一个或多个平行的信息导体以便信息在与总线710耦合的设备之间快速传输。用于处理信息的一个或多个处理器702与总线710耦合。
处理器(或多个处理器)702按照关于为基于位置的服务渲染具有主视图部分和预览部分的用户界面的计算机程序代码所指定的那样对信息执行操作集合。计算机程序代码是为处理器和/或计算机系统的操作提供了用于实施指定功能的指令的一组指令或声明。例如可以用被编译成处理器的原生指令集的计算机编程语言来编写代码。也可以直接使用原生指令集(例如,机器语言)来编写代码。操作集合包括从总线710带入信息并且将信息置于总线710上。操作集合通常还包括诸如通过加法或乘法或者比如“或(OR)”、“异或(XOR)”和“与(AND)”这样的逻辑运算来:比较两个或更多信息单元,将信息单元的位置进行移位,以及组合两个或更多信息单元。可以由处理器执行的操作集合中的每个操作由称为指令的信息而被表示给处理器,诸如一个或多个数位的操作代码。要由处理器702执行的操作序列(诸如操作代码序列)构成了处理器指令,也称为计算机系统指令或简单地称为计算机指令。处理器可以单独地或组合地被实现为机械、电、磁、光、化学或量子组件等。
计算机系统700还包括耦合到总线710的存储器704。诸如随机存取存储器(RAM)或其它动态存储设备的存储器704存储信息,包括用于为基于位置的服务渲染具有主视图部分和预览部分的用户界面的处理器指令。动态存储器允许计算机系统700改变存储在其中的信息。RAM允许独立于在相邻地址处的信息来存储和检索被存储在称为存储器地址的位置处的信息单元。存储器704还被处理器702用于存储在处理器指令的执行期间的临时值。计算机系统700还包括只读存储器(ROM)706或者耦合到总线710的其它静态存储设备,用于存储不被计算机系统700改变的静态信息(包括指令)。特定存储器包括易失性储存器,当断电时,易失性储存器会丢失在其上存储的信息。也耦合到总线710的是非易失性(永久)存储设备708,诸如磁盘、光盘或闪卡,用于存储包括指令的信息,非易失性存储设备708即使当计算机系统700关闭或以其它方式断电时也进行存留。
从外部输入设备712(诸如含有由人类用户操作的字母数字键的键盘)或传感器将信息(包括用于为基于位置的服务渲染具有主视图部分和预览部分的用户界面的指令)提供给总线710来由处理器使用。传感器检测其附近的状况,并且将那些检测结果变换成与用于表示计算机系统700中的信息的可测量现象相兼容的物理表达。耦合到总线710的主要用于与人类进行交互的其它外部设备包括显示设备714,诸如阴极射线管(CRT)或液晶显示器(LCD),或者用于呈现文本或图像的等离子屏幕或打印机,以及定点设备716,诸如鼠标或轨迹球或光标方向键,或者运动传感器,用于控制在显示器714上呈现的小型光标图像的位置以及发布与显示器714上所呈现的图形元素相关联的命令。在一些实施例中,例如,在计算机系统700在没有人类输入的情况下自动地实现所有功能的实施例中,省略外部输入设备712、显示设备714和定点设备716中的一个或多个。
在所图示的实施例中,诸如专用集成电路(ASIC)720的专用硬件耦合到总线710。专用硬件被配置以便出于专用目的而足够快地执行处理器702不执行的操作。专用IC的例子包括:用于为显示器714生成图像的图形加速器卡、用于加密和解密在网络上发送的消息的密码板、语音识别以及针对专门的外部设备的接口,诸如重复地执行在硬件中更为高效实现的一些复杂操作序列的机器臂和医疗扫描设备。
计算机系统700还包括耦合到总线710的通信接口770的一个或多个实例。通信接口770提供了耦合到与其自己的处理器一起操作的各种外部设备(诸如打印机、扫描仪和外部盘)的单向或双向通信。通常,耦合是针对网络链路778,网络链路778连接到本地网络780,具有其自己的处理器的各种外部设备连接到本地网络780。例如,通信接口770可以是个人计算机上的并行端口或串行端口或通用串行总线(USB)端口。在一些实施例中,通信接口770是综合服务数字网络(ISDN)卡或数字订户线路(DSL)卡或者向对应类型的电话线路提供信息通信连接的电话调制解调器。在一些实施例中,通信接口770是将总线710上的信号转换成用于在同轴电缆上的通信连接的信号或转换成用于在光纤电缆上的通信连接的光信号的电缆调制解调器。又例如,通信接口770可以是用于向兼容的LAN(诸如以太网)提供数据通信连接的局域网(LAN)卡。也可以实现无线链路。对于无线链路,通信接口770发送或接收或者既发送又接收携带了信息流(诸如数字数据)的电、声或电磁信号,包括红外信号和光信号。例如,在无线手持设备(诸如像蜂窝电话这样的移动电话)中,通信接口770包括被称为无线电收发器的无线电频带电磁发射机和接收机。在特定实施例中,通信接口770实现了与通信网络105的连接,用于向UE101渲染具有主视图部分和预览部分的用户界面以用于基于位置的服务。
术语“计算机可读介质”在此用于指的是参与向处理器702提供信息(包括用于执行的指令)的任何介质。这样的介质可以采用很多形式,包括但不限于计算机可读存储介质(例如,非易失性介质、易失性介质)和传输介质。诸如非易失性介质的非暂态介质包括例如光盘或磁盘,诸如存储设备708。易失性介质包括例如动态存储器704。传输介质包括例如同轴电缆、铜导线、光纤电缆以及在没有导线或电缆的情况下通过空间行进的载波,诸如声波和电磁波,包括无线电波、光波和红外波。信号包括通过传输介质传送的在幅度、频率、相位、极化或其它物理属性方面的人为瞬时变化。计算机可读介质的常见形式包括例如软盘、柔性盘、硬盘、磁带、任何其它磁介质、CD-ROM、CDRW、DVD、任何其它光介质、穿孔卡、纸带、光标记片材、具有孔图案或其它光可识别标记的任何其它物理介质、RAM、PROM、EPROM、FLASH-EPROM、任何其它存储器芯片或卡式盒、载波,或者计算机可以从其进行读取的任何其它介质。在此使用术语“计算机可读存储介质”来指代除了传输介质之外的任何计算机可读介质。
在一个或多个有形介质中编码的逻辑包括以下中的一个或两个:在计算机可读存储介质上的处理器指令以及专用硬件,诸如ASIC720。
网络链路778通常使用传输介质来通过一个或多个网络向使用或处理信息的其它设备提供信息通信。例如,网络链路778可以通过本地网络780提供针对主机计算机782或针对由因特网服务提供商(ISP)操作的设备784的连接。ISP设备784进而通过现在常被称为因特网790的网络的公共全球分组交换通信网络来提供数据通信服务。
被称为服务器主机792的连接到因特网的计算机托管了响应于在因特网上接收到的信息而提供服务的进程。例如,服务器主机792托管了提供表示出用于在显示器714处呈现的视频数据的信息的进程。可以设想,可以在其它计算机系统(例如主机782和服务器792)内按照各种配置来部署系统700的组件。
本发明的至少一些实施例涉及对用于实现在此描述的一些或所有技术的计算机系统700的使用。根据本发明的一个实施例,响应于处理器702执行包含在存储器704中的一个或多个处理器指令的一个或多个序列,由计算机系统700来实现那些技术。这样的指令(也称为计算机指令、软件和程序代码)可以从诸如存储设备708或网络链路778的另一计算机可读介质读入到存储器704中。包含在存储器704中的指令序列的执行使得处理器702实现在此描述的方法步骤中的一个或多个。在替代实施例中,诸如ASIC720的硬件可以代替软件或与软件相组合地用来实现本发明。因此,本发明的实施例不限于硬件和软件的任何具体组合,除非在此另外明确声明。
通过通信接口770在网络链路778和其它网络上传送的信号携带了去往和来自计算机系统700的信息。计算机系统700可以通过网络780、790等经由网络链路778和通信接口770来发送和接收信息,包括程序代码。在使用因特网790的例子中,服务器主机792通过因特网790、ISP设备784、本地网络780和通信接口770来传送由从计算机700发送的消息所请求的用于特定应用的程序代码。所接收到的代码可以当其被接收到时由处理器702来执行,或者可以被存储在存储器704中或存储设备708或其它非易失性存储器中以用于以后执行,或者二者皆可。以这种方式,计算机系统700可以按照载波上的信号的形式来获得应用程序代码。
各种形式的计算机可读介质可以涉及将数据或指令的一个或多个序列或这二者携带到处理器702来执行。例如,指令和数据可以初始地被携带在诸如主机782的远程计算机的磁盘上。远程计算机将指令和数据加载到其动态存储器中,并且使用调制解调器在电话线路上发送指令和数据。计算机系统700本地的调制解调器在电话线路上接收指令和数据,并且使用红外发射机来将指令和数据转换成在充当网络链路778的红外载波上的信号。充当通信接口770的红外检测器接收在红外信号中携带的指令和数据,并且将表示指令和数据的信息置于总线710上。总线710将该信息携带到存储器704,处理器702从存储器704中检索该信息,并且使用与指令一起发送的一些数据来执行该指令。在存储器704中接收到的指令和数据可以视情况在由处理器702执行之前或之后被存储在存储设备708上。
图8图示了可以在其上实现本发明实施例的芯片集或芯片800。芯片集800被编程以便如在此描述的为基于位置的服务渲染具有主视图部分和预览部分的用户界面,并且包括例如相对于图7描述的合并在一个或多个物理封装(例如,芯片)中的处理器和存储器组件。举例来说,物理封装包括在结构配件(例如,基板)上的一个或多个材料、组件和/或导线的布置,以便提供一个或多个特性,诸如物理强度、大小的保持和/或电子交互的限制。可以设想,在特定实施例中,芯片集800可以在单个芯片中实现。可以进一步设想,在特定实施例中,芯片集或芯片800可以实现为单个“片上系统”。可以进一步设想,在特定实施例中,例如可以使用单独的ASIC,并且可以通过处理器实现此处描述的所有相关功能。芯片集或芯片800或其一部分构成了用于执行提供对与服务的有效性关联的用户界面导航信息的一个或多个步骤的部件。芯片集或芯片800或其一部分构成了用于为基于位置的服务渲染具有主视图部分和预览部分的用户界面的一个或多个步骤的部件。
在一个实施例中,芯片集或芯片800包括诸如用于在芯片集800的组件当中传递信息的总线801的通信机制。处理器803具有到总线801的连接,以便执行指令和处理在例如存储器805中存储的信息。处理器803可以包括一个或多个处理核心,每个核心被配置成独立地执行。多核处理器使得能够在单个物理封装中进行多处理。多核处理器的例子包括两个、四个、八个或更多数目的处理核心。替代地或附加地,处理器803可以包括经由总线801而联合配置的一个或多个微处理器,以便使得能够独立执行指令、流水线操作和多线程。处理器803还可以附配有一个或多个专用组件来执行特定处理功能和任务,诸如一个或多个数字信号处理器(DSP)807或者一个或多个专用集成电路(ASIC)809。DSP807通常被配置成独立于处理器803而实时地处理真实世界的信号(例如,声音)。类似地,ASIC809可以被配置成实现通用处理器不容易实现的专用功能。有助于实现在此描述的本发明功能的其它专用组件包括:一个或多个现场可编程门阵列(FPGA)(未示出)、一个或多个控制器(未示出),或者一个或多个其它专用计算机芯片。
在一个实施例中,芯片集或芯片800只包括一个或多个处理器和支持和/或涉及和/或用于一个或多个处理器的一些软件和/或固件。
处理器803和所附组件具有经由总线801与存储器805的连接。存储器805包括动态存储器(例如,RAM、磁盘、可写光盘等)和静态存储器(例如,ROM、CD-ROM等)这二者,用于存储可执行指令,当执行所述可执行指令时实现在此描述的为基于位置的服务渲染具有主视图部分和预览部分的用户界面的本发明步骤。存储器805还存储了与本发明步骤的执行相关联的或通过本发明步骤的执行而生成的数据。
图9是根据一个实施例的能够在图1的系统中操作的用于通信的移动终端(例如,手机)的示例性组件的示图。在一些实施例中,移动终端900或其一部分构成了用于为基于位置的服务渲染具有主视图部分和预览部分的用户界面的一个或多个步骤的部件。通常,常常关于前端和后端特性来定义无线电接收机。接收机的前端包括所有的射频(RF)电路,而后端包括所有的基带处理电路。如在本申请中使用的,术语“电路”指的是以下两者:(1)仅硬件实现(诸如仅在模拟和/或数字电路中的实现),以及(2)电路和软件(和/或固件)的组合(诸如,如果可应用于特定情境的话,涉及处理器(包括数字信号处理器)、软件和存储器的组合,它们一起工作以便使得诸如移动电话或服务器这样的装置来实现各种功能)。“电路”的该定义适用于本申请中(包括任何权利要求中)对该术语的所有使用。作为进一步的例子,如在本申请中使用的,如果可应用于特定情境的话,术语“电路”还将覆盖仅一个处理器(或多个处理器)及其(或它们)附配的软件和/或固件的实现。术语“电路”还将覆盖(如果可应用于特定情境的话)例如在移动电话中的基带集成电路或应用处理器集成电路,或者在蜂窝网络设备或其它网络设备中的类似集成电路。
电话的相关内部组件包括主控制单元(MCU)903、数字信号处理器(DSP)905,以及接收机/发射机单元(包括扩音器增益控制单元和扬声器增益控制单元)。主显示单元907向用户提供显示器,从而支持用于执行或支持为基于位置的服务渲染具有主视图部分和预览部分的用户界面的步骤的各种应用和移动终端功能。显示器9包括显示电路,该显示电路被配置成显示移动终端(例如,移动电话)的用户界面的至少一部分。另外,显示器907和显示电路被配置成促进用户对移动终端的至少一些功能的控制。音频功能电路909包括扩音器911和扩音器放大器,扩音器放大器放大了从扩音器911输出的语音信号。从扩音器911输出的已放大的语音信号被馈送到编码器/解码器(编解码器)913。
无线电部分915放大功率并转换频率,以便经由天线917来与包括在移动通信系统中的基站通信。如本领域中已知的,利用来自耦合到双工器921或循环器或天线开关的PA919的输出,功率放大器(PA)919和发射机/调制电路可操作地响应于MCU903。PA919还耦合到电池接口和功率控制单元920。
在使用中,移动终端901的用户向扩音器911讲话,并且他或她的语音连同任何检测到的背景噪声被转换成模拟电压。然后,该模拟电压通过模数转换器(ADC)923被转换成数字信号。控制单元903将数字信号路由到DSP905用于在其中进行处理,诸如语音编码、信道编码、加密和交织。在一个实施例中,使用蜂窝传输协议(诸如全球演进(EDGE)、通用分组无线电服务(GPRS)、全球移动通信系统(GSM)、因特网协议多媒体子系统(IMS)、通用移动电信网络(UMTS)等)以及任何其它合适的无线介质(例如微波接入(WiMAX)、长期演进(LTE)网络、码分多址(CDMA)、宽带码分多址(WCDMA)、无线保真(WiFi)、卫星等),通过未单独示出的单元来编码经处理的语音信号。
然后,编码信号被路由到均衡器925,用于补偿在通过空气传输期间发生的诸如相位和幅度失真这样的任何依赖于频率的损伤。在均衡了比特流之后,调制器927将该信号与在RF接口929中生成的RF信号进行组合。调制器927通过频率或相位调制来生成正弦波。为了准备用于传输的信号,上变频器931将从调制器927输出的正弦波与由合成器933生成的另一正弦波进行组合,以便实现期望的传输频率。然后,信号被发送通过PA919以便将信号增加到适合的功率电平。在实际系统中,PA919充当可变增益放大器,其增益根据从网络基站接收到的信息而受到DSP905的控制。然后,该信号在双工器921中被过滤并且可选地被发送到天线耦合器935以便匹配阻抗,从而提供最大功率传输。最后,该信号经由天线917被传送到本地基站。自动增益控制(AGC)可以被供应来控制接收机的最后阶段的增益。该信号可以从那里被转发到远程电话,远程电话可以是另一蜂窝电话、其它移动电话或者连接到公共交换电话网络(PSTN)或其它电话网络的陆线。
经由天线917来接收被传送到移动终端901的语音信号,并且由低噪声放大器(LNA)937立即放大。下变频器939降低载波频率,而解调器941去掉RF仅留下数字比特流。然后,该信号经过均衡器925并由DSP905进行处理。数模转换器(DAC)923转换该信号并将所得到的输出通过扬声器945传送到用户,所有的这些都在主控制单元(MCU)903(其可被实现为中央处理单元(CPU)(未示出))的控制之下。
MCU903从键盘947接收包括输入信号的各种信号。与其它用户输入组件(例如,扩音器911)相组合的键盘947和/或MCU903包括用于管理用户输入的用户接口电路。MCU903运行用户接口软件以便促进用户控制移动终端901的至少一些功能,从而为基于位置的服务渲染具有主视图部分和预览部分的用户界面。MCU903还向显示器907和语音输出切换控制器分别递送显示命令和切换命令。此外,MCU903与DSP905交换信息,并且可以访问可选地被合并的SIM卡949和存储器951。另外,MCU903执行终端所需要的各种控制功能。DSP905可以根据实现方式来对语音信号执行各种常规数字处理功能中的任何功能。另外,DSP905根据由扩音器911所检测到的信号来确定本地环境的背景噪声电平,并且将扩音器911的增益设置成被选择用于补偿移动终端901的用户的自然倾向的电平。
编解码器913包括ADC923和DAC943。存储器951存储了包括呼入音调数据的各种数据,并且能够存储包括经由例如全球因特网而接收到的音乐数据在内的其它数据。软件模块可以驻留在RAM存储器、闪速存储器、寄存器或本领域已知的任何其它形式的可写存储介质中。存储设备951可以是但不限于单个存储器、CD、DVD、ROM、RAM、EEPROM、光储存器或者能够存储数字数据的任何其它非易失性存储介质。
可选地被合并的SIM卡949携带了例如重要信息,诸如蜂窝电话号码、供应服务的载波、预订细节和安全信息。SIM卡949主要服务于标识出无线电网络上的移动终端901。卡949还含有用于存储个人电话号码登记簿、文本消息和特定于用户的移动终端设置的存储器。
尽管已经结合多个实施例和实现方式描述了本发明,但是本发明并不如此受到限制,而是覆盖了落入所附权利要求的范围之内的各种明显的修改和等同布置。尽管在权利要求当中的特定组合中表达了本发明的特征,但是可以设想这些特征可以按照任何组合和顺序来布置。
Claims (20)
1.一种方法,包括:
至少部分地促使为基于位置的服务渲染同时地包括主视图部分和预览部分两者的用户界面,
其中至少部分地促使所述主视图部分和预览部分之一显示视场中的一个或多个对象的立体图,以及
其中至少部分地促使所述主视图部分和预览部分中的另一个显示视场中的一个或多个对象的至少一部分的平面图。
2.根据权利要求1所述的方法,进一步包括:
接收用户输入以在第一配置和第二配置之间切换,其中在第一配置中在主视图部分中显示立体图并在预览部分中显示平面图,在第二配置中在主视图部分中显示平面图并在预览部分中显示立体图。
3.根据权利要求1所述的方法,其中所述平面图包括立体图中显示的视场的方向的方向表示。
4.根据权利要求3所述的方法,进一步包括:
接收用户输入以通过操作平面图中显示的方向表示来控制立体图中显示的视场的方向。
5.根据权利要求1所述的方法,进一步包括:
接收改变立体图或者平面图中的显示的方向的输入;以及
与所述输入相对应地同时改变立体图和平面图中的另一个的显示的方向,至少部分地促使与内容相关的图形表示在用户界面中的立体图中可见的对象的表面上渲染以用于移动设备的基于位置的服务。
6.根据权利要求1所述的方法,进一步包括:
检索与所述视场中的一个或多个对象中的对象关联的内容;以及
至少部分地促使与所述内容相关的图形表示在所述平面图和/或立体图中的对象上渲染。
7.根据权利要求1所述的方法,进一步包括:
接收由移动设备捕获的所述视场中的一个或多个对象的实时图像,
其中所述立体图示出所述实时图像。
8.根据权利要求1所述的方法,进一步包括:
接收所述视场中的一个或多个对象的预存储的图像,
其中所述立体图以示出所述预存储的图像。
9.根据权利要求1所述的方法,进一步包括:
接收由移动设备捕获的所述视场中的一个或多个对象的实时图像;以及
接收所述视场中的一个或多个对象的预存储的图像,
其中所述立体图示出所述实时图像和所述预存储的图像的混合。
10.一种装置,包括:
至少一个处理器;以及
包括用于一个或多个程序的计算机程序代码的至少一个存储器,
所述至少一个存储器和所述计算机程序代码被配置成使用所述至少一个处理器使得所述装置至少执行下列步骤,
至少部分地促使为基于位置的服务渲染同时地包括主视图部分和预览部分两者的用户界面,
其中至少部分地促使所述主视图部分和预览部分之一显示视场中的一个或多个对象的立体图,以及
其中至少部分地促使所述主视图部分和预览部分中的另一个显示视场中的一个或多个对象的至少一部分的平面图。
11.根据权利要求10所述的装置,其中进一步促使所述装置:
接收用户输入以在第一配置和第二配置之间切换,其中在第一配置中在主视图部分中显示立体图并在预览部分中显示平面图,在第二配置中在主视图部分中显示平面图并在预览部分中显示立体图。
12.根据权利要求10所述的装置,其中所述平面图包括立体图中显示的视场的方向的方向表示。
13.根据权利要求12所述的装置,其中进一步促使所述装置:
接收用户输入以通过操作平面图中显示的方向表示来控制立体图中显示的视场的方向。
14.根据权利要求10所述的装置,其中进一步促使所述装置:
接收改变立体图或者平面图中的显示的方向的输入;以及
与所述输入相对应地同时改变立体图和平面图中的另一个的显示的方向,至少部分地促使与内容相关的图形表示在用户界面中的立体图中可见的对象的表面上渲染以用于移动设备的基于位置的服务。
15.根据权利要求10所述的装置,其中进一步促使所述装置:
检索与所述视场中的一个或多个对象中的对象关联的内容;以及
至少部分地促使与所述内容相关的图形表示在所述平面图和/或立体图中的对象上渲染。
16.根据权利要求10所述的装置,其中进一步促使所述装置:
接收由移动设备捕获的所述视场中的一个或多个对象的实时图像,
其中所述立体图示出所述实时图像。
17.根据权利要求10所述的装置,其中进一步促使所述装置:
接收所述视场中的一个或多个对象的预存储的图像,
其中所述立体图示出所述预存储的图像。
18.根据权利要求10所述的装置,其中进一步促使所述装置:
接收由移动设备捕获的所述视场中的一个或多个对象的实时图像;以及
接收所述视场中的一个或多个对象的预存储的图像,
其中所述立体图示出所述实时图像和所述预存储的图像的混合。
19.一种携带一个或多个指令的一个或多个序列的计算机可读存储介质,当被一个或多个处理器执行时,促使装置至少执行下列步骤:
至少部分地促使为基于位置的服务渲染同时地包括主视图部分和预览部分两者的用户界面,
其中至少部分地促使所述主视图部分和预览部分之一显示视场中的一个或多个对象的立体图,以及
其中至少部分地促使所述主视图部分和预览部分中的另一个显示视场中的一个或多个对象的至少一部分的平面图。
20.根据权利要求19所述的计算机可读存储介质,其中进一步促使所述装置:
接收用户输入以在第一配置和第二配置之间切换,其中在第一配置中在主视图部分中显示立体图并在预览部分中显示平面图,在第二配置中在主视图部分中显示平面图并在预览部分中显示立体图。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/780,911 US9582166B2 (en) | 2010-05-16 | 2010-05-16 | Method and apparatus for rendering user interface for location-based service having main view portion and preview portion |
US12/780,911 | 2010-05-16 | ||
PCT/FI2011/050123 WO2011144797A1 (en) | 2010-05-16 | 2011-02-10 | Method and apparatus for rendering user interface for location-based service having main view portion and preview portion |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103003786A true CN103003786A (zh) | 2013-03-27 |
Family
ID=44912837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011800348103A Pending CN103003786A (zh) | 2010-05-16 | 2011-02-10 | 用于为基于位置的服务渲染具有主视图部分和预览部分的用户界面的方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9582166B2 (zh) |
EP (1) | EP2572264B1 (zh) |
CN (1) | CN103003786A (zh) |
WO (1) | WO2011144797A1 (zh) |
ZA (1) | ZA201209419B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104102759A (zh) * | 2013-04-02 | 2014-10-15 | 建国工程股份有限公司 | 建筑模型影像显示系统及其方法 |
CN106447788A (zh) * | 2016-09-26 | 2017-02-22 | 北京疯景科技有限公司 | 观看视角的指示方法及装置 |
CN106527722A (zh) * | 2016-11-08 | 2017-03-22 | 网易(杭州)网络有限公司 | 虚拟现实中的交互方法、系统及终端设备 |
CN104183015B (zh) * | 2014-09-02 | 2017-04-05 | 中国商用飞机有限责任公司北京民用飞机技术研究中心 | 用于飞机中取代部分舱体物理窗户的方法和装置 |
CN106664465A (zh) * | 2014-07-09 | 2017-05-10 | 郑芝娟 | 用于创建和再现增强现实内容的系统以及使用其的方法 |
CN104821135B (zh) * | 2015-05-25 | 2017-07-11 | 吉林大学 | 一种实现纸质地图与电子地图结合显示的方法及装置 |
CN108604380A (zh) * | 2016-05-03 | 2018-09-28 | 谷歌有限责任公司 | 用于在移动设备上获得成对极线约束和解决全景姿态的方法和系统 |
CN109977189A (zh) * | 2019-03-31 | 2019-07-05 | 联想(北京)有限公司 | 显示方法、装置和电子设备 |
Families Citing this family (153)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FI117488B (fi) * | 2001-05-16 | 2006-10-31 | Myorigo Sarl | Informaation selaus näytöllä |
US20090297062A1 (en) * | 2005-03-04 | 2009-12-03 | Molne Anders L | Mobile device with wide-angle optics and a radiation sensor |
US20090305727A1 (en) * | 2005-03-04 | 2009-12-10 | Heikki Pylkko | Mobile device with wide range-angle optics and a radiation sensor |
US10878646B2 (en) | 2005-12-08 | 2020-12-29 | Smartdrive Systems, Inc. | Vehicle event recorder systems |
US20070150138A1 (en) | 2005-12-08 | 2007-06-28 | James Plante | Memory management in event recording systems |
US9201842B2 (en) | 2006-03-16 | 2015-12-01 | Smartdrive Systems, Inc. | Vehicle event recorder systems and networks having integrated cellular wireless communications systems |
US8996240B2 (en) | 2006-03-16 | 2015-03-31 | Smartdrive Systems, Inc. | Vehicle event recorders with integrated web server |
US8989959B2 (en) | 2006-11-07 | 2015-03-24 | Smartdrive Systems, Inc. | Vehicle operator performance history recording, scoring and reporting systems |
US8649933B2 (en) | 2006-11-07 | 2014-02-11 | Smartdrive Systems Inc. | Power management systems for automotive video event recorders |
US8868288B2 (en) | 2006-11-09 | 2014-10-21 | Smartdrive Systems, Inc. | Vehicle exception event management systems |
US8994644B2 (en) | 2007-01-26 | 2015-03-31 | Apple Inc. | Viewing images with tilt control on a hand-held device |
US8239092B2 (en) | 2007-05-08 | 2012-08-07 | Smartdrive Systems Inc. | Distributed vehicle event recorder systems having a portable memory data transfer system |
US8525825B2 (en) | 2008-02-27 | 2013-09-03 | Google Inc. | Using image content to facilitate navigation in panoramic image data |
TWI393861B (zh) * | 2009-01-21 | 2013-04-21 | Htc Corp | 位置資訊的分享方法、系統及電腦程式產品 |
US20100293173A1 (en) * | 2009-05-13 | 2010-11-18 | Charles Chapin | System and method of searching based on orientation |
US9230292B2 (en) * | 2012-11-08 | 2016-01-05 | Uber Technologies, Inc. | Providing on-demand services through use of portable computing devices |
WO2011069170A1 (en) | 2009-12-04 | 2011-06-09 | Uber, Inc. | System and method for arranging transport amongst parties through use of mobile devices |
US9582166B2 (en) * | 2010-05-16 | 2017-02-28 | Nokia Technologies Oy | Method and apparatus for rendering user interface for location-based service having main view portion and preview portion |
US8799411B2 (en) | 2010-05-28 | 2014-08-05 | Arvato Digital Services Canada, Inc. | Method and apparatus for providing enhanced streaming content delivery with multi-archive support using secure download manager and content-indifferent decoding |
KR101357262B1 (ko) * | 2010-08-13 | 2014-01-29 | 주식회사 팬택 | 필터 정보를 이용한 객체 인식 장치 및 방법 |
US9294717B2 (en) * | 2010-10-13 | 2016-03-22 | At&T Intellectual Property I, L.P. | System and method to enable layered video messaging |
US8533187B2 (en) | 2010-12-23 | 2013-09-10 | Google Inc. | Augmentation of place ranking using 3D model activity in an area |
US8566325B1 (en) | 2010-12-23 | 2013-10-22 | Google Inc. | Building search by contents |
EP3659681A1 (en) | 2011-01-05 | 2020-06-03 | Sphero, Inc. | Self-propelled device with actively engaged drive system |
JP2012142825A (ja) * | 2011-01-05 | 2012-07-26 | Sony Corp | 情報処理装置、情報表示方法及びコンピュータプログラム |
US9090214B2 (en) | 2011-01-05 | 2015-07-28 | Orbotix, Inc. | Magnetically coupled accessory for a self-propelled device |
US10281915B2 (en) | 2011-01-05 | 2019-05-07 | Sphero, Inc. | Multi-purposed self-propelled device |
US9218316B2 (en) | 2011-01-05 | 2015-12-22 | Sphero, Inc. | Remotely controlling a self-propelled device in a virtualized environment |
US9429940B2 (en) | 2011-01-05 | 2016-08-30 | Sphero, Inc. | Self propelled device with magnetic coupling |
US11145215B1 (en) | 2011-03-11 | 2021-10-12 | Sitting Man, Llc | Methods, systems, and computer program products for providing feedback to a user of a portable electronic in motion |
US9552376B2 (en) | 2011-06-09 | 2017-01-24 | MemoryWeb, LLC | Method and apparatus for managing digital files |
US8825392B2 (en) | 2011-06-30 | 2014-09-02 | Navteq B.V. | Map view |
US9392102B2 (en) * | 2011-08-23 | 2016-07-12 | Samsung Electronics Co., Ltd. | Apparatus and method for providing panoramic view during video telephony and video messaging |
US9274595B2 (en) * | 2011-08-26 | 2016-03-01 | Reincloud Corporation | Coherent presentation of multiple reality and interaction models |
US10129211B2 (en) * | 2011-09-15 | 2018-11-13 | Stephan HEATH | Methods and/or systems for an online and/or mobile privacy and/or security encryption technologies used in cloud computing with the combination of data mining and/or encryption of user's personal data and/or location data for marketing of internet posted promotions, social messaging or offers using multiple devices, browsers, operating systems, networks, fiber optic communications, multichannel platforms |
US9606992B2 (en) * | 2011-09-30 | 2017-03-28 | Microsoft Technology Licensing, Llc | Personal audio/visual apparatus providing resource management |
US9116011B2 (en) | 2011-10-21 | 2015-08-25 | Here Global B.V. | Three dimensional routing |
US9047688B2 (en) | 2011-10-21 | 2015-06-02 | Here Global B.V. | Depth cursor and depth measurement in images |
US8553942B2 (en) | 2011-10-21 | 2013-10-08 | Navteq B.V. | Reimaging based on depthmap information |
US20130162665A1 (en) * | 2011-12-21 | 2013-06-27 | James D. Lynch | Image view in mapping |
US8604977B2 (en) * | 2011-12-21 | 2013-12-10 | Microsoft Corporation | Real-time markup of maps with user-generated content |
US9223138B2 (en) | 2011-12-23 | 2015-12-29 | Microsoft Technology Licensing, Llc | Pixel opacity for augmented reality |
US10191641B2 (en) | 2011-12-29 | 2019-01-29 | Apple Inc. | Device, method, and graphical user interface for navigation of information in a map-based interface |
US8930141B2 (en) * | 2011-12-30 | 2015-01-06 | Nokia Corporation | Apparatus, method and computer program for displaying points of interest |
US20130173156A1 (en) * | 2011-12-30 | 2013-07-04 | Nokia Corporation | Apparatus, Method and Computer Program for Displaying Points of Interest |
US9024970B2 (en) | 2011-12-30 | 2015-05-05 | Here Global B.V. | Path side image on map overlay |
US9404764B2 (en) | 2011-12-30 | 2016-08-02 | Here Global B.V. | Path side imagery |
US9606586B2 (en) | 2012-01-23 | 2017-03-28 | Microsoft Technology Licensing, Llc | Heat transfer device |
US9525964B2 (en) * | 2012-02-02 | 2016-12-20 | Nokia Technologies Oy | Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers |
US9779643B2 (en) | 2012-02-15 | 2017-10-03 | Microsoft Technology Licensing, Llc | Imaging structure emitter configurations |
US9368546B2 (en) | 2012-02-15 | 2016-06-14 | Microsoft Technology Licensing, Llc | Imaging structure with embedded light sources |
US9726887B2 (en) | 2012-02-15 | 2017-08-08 | Microsoft Technology Licensing, Llc | Imaging structure color conversion |
US9297996B2 (en) | 2012-02-15 | 2016-03-29 | Microsoft Technology Licensing, Llc | Laser illumination scanning |
US10600235B2 (en) | 2012-02-23 | 2020-03-24 | Charles D. Huston | System and method for capturing and sharing a location based experience |
US10937239B2 (en) | 2012-02-23 | 2021-03-02 | Charles D. Huston | System and method for creating an environment and for sharing an event |
EP2817785B1 (en) | 2012-02-23 | 2019-05-15 | Charles D. Huston | System and method for creating an environment and for sharing a location based experience in an environment |
GB2499810A (en) * | 2012-02-29 | 2013-09-04 | Franco Forghieri | Remotely locating an object and creating video link to messenger |
US9578318B2 (en) | 2012-03-14 | 2017-02-21 | Microsoft Technology Licensing, Llc | Imaging structure emitter calibration |
US11068049B2 (en) * | 2012-03-23 | 2021-07-20 | Microsoft Technology Licensing, Llc | Light guide display and field of view |
CN103366713B (zh) * | 2012-03-27 | 2016-01-27 | 联想(北京)有限公司 | 一种显示方法和装置 |
US10191515B2 (en) | 2012-03-28 | 2019-01-29 | Microsoft Technology Licensing, Llc | Mobile device light guide display |
US9558590B2 (en) | 2012-03-28 | 2017-01-31 | Microsoft Technology Licensing, Llc | Augmented reality light guide display |
US20130263090A1 (en) * | 2012-03-30 | 2013-10-03 | Sony Online Entertainment Llc | System and method for automated testing |
US9717981B2 (en) | 2012-04-05 | 2017-08-01 | Microsoft Technology Licensing, Llc | Augmented reality and physical games |
KR20150012274A (ko) | 2012-05-14 | 2015-02-03 | 오보틱스, 아이엔씨. | 이미지 내 원형 객체 검출에 의한 계산장치 동작 |
US9292758B2 (en) * | 2012-05-14 | 2016-03-22 | Sphero, Inc. | Augmentation of elements in data content |
US9827487B2 (en) | 2012-05-14 | 2017-11-28 | Sphero, Inc. | Interactive augmented reality using a self-propelled device |
US10502876B2 (en) | 2012-05-22 | 2019-12-10 | Microsoft Technology Licensing, Llc | Waveguide optics focus elements |
US8989535B2 (en) | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
US8533615B1 (en) * | 2012-06-06 | 2013-09-10 | Google, Inc. | Systems and methods for order-independent rendering of graphical objects using operating system resources |
US10139985B2 (en) | 2012-06-22 | 2018-11-27 | Matterport, Inc. | Defining, displaying and interacting with tags in a three-dimensional model |
US9786097B2 (en) | 2012-06-22 | 2017-10-10 | Matterport, Inc. | Multi-modal method for interacting with 3D models |
US10127722B2 (en) | 2015-06-30 | 2018-11-13 | Matterport, Inc. | Mobile capture visualization incorporating three-dimensional and two-dimensional imagery |
US10163261B2 (en) | 2014-03-19 | 2018-12-25 | Matterport, Inc. | Selecting two-dimensional imagery data for display within a three-dimensional model |
US9456244B2 (en) | 2012-06-25 | 2016-09-27 | Intel Corporation | Facilitation of concurrent consumption of media content by multiple users using superimposed animation |
US9256961B2 (en) | 2012-06-28 | 2016-02-09 | Here Global B.V. | Alternate viewpoint image enhancement |
US9256983B2 (en) | 2012-06-28 | 2016-02-09 | Here Global B.V. | On demand image overlay |
US10056791B2 (en) | 2012-07-13 | 2018-08-21 | Sphero, Inc. | Self-optimizing power transfer |
US9728228B2 (en) * | 2012-08-10 | 2017-08-08 | Smartdrive Systems, Inc. | Vehicle event playback apparatus and methods |
CN103634519A (zh) * | 2012-08-28 | 2014-03-12 | 北京博威康技术有限公司 | 一种基于双摄像头的图像显示方法及装置 |
WO2014033354A1 (en) * | 2012-08-30 | 2014-03-06 | Nokia Corporation | A method and apparatus for updating a field of view in a user interface |
KR101434888B1 (ko) * | 2012-11-19 | 2014-09-02 | 네이버 주식회사 | 위치 기반의 타깃 컨텐츠를 제공하는 지도 서비스 방법 및 시스템 |
US10192358B2 (en) | 2012-12-20 | 2019-01-29 | Microsoft Technology Licensing, Llc | Auto-stereoscopic augmented reality display |
EP2746726A1 (en) * | 2012-12-21 | 2014-06-25 | GN Store Nord A/S | System and method for tagging an audio signal to an object or a location; system and method of playing back a tagged audio signal |
US9063582B2 (en) * | 2012-12-28 | 2015-06-23 | Nokia Technologies Oy | Methods, apparatuses, and computer program products for retrieving views extending a user's line of sight |
CN103116444B (zh) * | 2013-02-07 | 2016-05-11 | 腾讯科技(深圳)有限公司 | 电子地图控制方法及电子地图装置 |
JP6228392B2 (ja) * | 2013-05-31 | 2017-11-08 | 任天堂株式会社 | パノラマ画像表示プログラム、パノラマ画像表示装置、パノラマ画像表示システム、および、パノラマ画像表示方法 |
EP3004803B1 (en) * | 2013-06-07 | 2021-05-05 | Nokia Technologies Oy | A method and apparatus for self-adaptively visualizing location based digital information |
EP3008708B1 (en) | 2013-06-13 | 2019-12-18 | Mobileye Vision Technologies Ltd. | Vision augmented navigation |
US9354791B2 (en) | 2013-06-20 | 2016-05-31 | Here Global B.V. | Apparatus, methods and computer programs for displaying images |
US20150035823A1 (en) | 2013-07-31 | 2015-02-05 | Splunk Inc. | Systems and Methods for Using a Three-Dimensional, First Person Display to Convey Data to a User |
US10380799B2 (en) | 2013-07-31 | 2019-08-13 | Splunk Inc. | Dockable billboards for labeling objects in a display having a three-dimensional perspective of a virtual or real environment |
KR102222336B1 (ko) * | 2013-08-19 | 2021-03-04 | 삼성전자주식회사 | 맵 화면을 디스플레이 하는 사용자 단말 장치 및 그 디스플레이 방법 |
KR102165818B1 (ko) | 2013-09-10 | 2020-10-14 | 삼성전자주식회사 | 입력 영상을 이용한 사용자 인터페이스 제어 방법, 장치 및 기록매체 |
US9805057B2 (en) * | 2013-10-15 | 2017-10-31 | Google Inc. | Automatic generation of geographic imagery tours |
US9501878B2 (en) | 2013-10-16 | 2016-11-22 | Smartdrive Systems, Inc. | Vehicle event playback apparatus and methods |
US10126913B1 (en) | 2013-11-05 | 2018-11-13 | Google Llc | Interactive digital map including context-based photographic imagery |
US9610955B2 (en) | 2013-11-11 | 2017-04-04 | Smartdrive Systems, Inc. | Vehicle fuel consumption monitor and feedback systems |
US20150130843A1 (en) * | 2013-11-14 | 2015-05-14 | Microsoft Corporation | Lens view for map |
US9829882B2 (en) | 2013-12-20 | 2017-11-28 | Sphero, Inc. | Self-propelled device with center of mass drive system |
US9811245B2 (en) | 2013-12-24 | 2017-11-07 | Dropbox, Inc. | Systems and methods for displaying an image capturing mode and a content viewing mode |
US9843642B2 (en) * | 2014-01-28 | 2017-12-12 | Dolby International Ab | Geo-referencing media content |
US9953462B2 (en) | 2014-01-31 | 2018-04-24 | Empire Technology Development Llc | Augmented reality skin manager |
US10192359B2 (en) | 2014-01-31 | 2019-01-29 | Empire Technology Development, Llc | Subject selected augmented reality skin |
EP3100256A4 (en) | 2014-01-31 | 2017-06-28 | Empire Technology Development LLC | Augmented reality skin evaluation |
WO2015116186A1 (en) * | 2014-01-31 | 2015-08-06 | Empire Technology Development, Llc | Evaluation of augmented reality skins |
US10365804B1 (en) * | 2014-02-20 | 2019-07-30 | Google Llc | Manipulation of maps as documents |
US8892310B1 (en) | 2014-02-21 | 2014-11-18 | Smartdrive Systems, Inc. | System and method to detect execution of driving maneuvers |
JP6549892B2 (ja) * | 2014-05-19 | 2019-07-24 | 株式会社堀場製作所 | 車両試験システム、試験管理装置、試験管理プログラム及び車両試験方法 |
US9482548B2 (en) * | 2014-07-17 | 2016-11-01 | Microsoft Technology Licensing, Llc | Route inspection portals |
US9304235B2 (en) | 2014-07-30 | 2016-04-05 | Microsoft Technology Licensing, Llc | Microfabrication |
US10678412B2 (en) | 2014-07-31 | 2020-06-09 | Microsoft Technology Licensing, Llc | Dynamic joint dividers for application windows |
US10592080B2 (en) | 2014-07-31 | 2020-03-17 | Microsoft Technology Licensing, Llc | Assisted presentation of application windows |
US10254942B2 (en) | 2014-07-31 | 2019-04-09 | Microsoft Technology Licensing, Llc | Adaptive sizing and positioning of application windows |
AT15769U1 (de) * | 2014-08-25 | 2018-05-15 | Dipl Ing Mairinger Klaus | System zur Visualisierung von mit digitalen Kameras aufgenommenen Panoramabildern an Client-Geräten |
US20160065669A1 (en) * | 2014-09-03 | 2016-03-03 | Agt International Gmbh | Location-oriented team intercommunication |
US9772281B2 (en) | 2014-10-25 | 2017-09-26 | Isle Management Co. | Air quality analyzing apparatus |
US9663127B2 (en) | 2014-10-28 | 2017-05-30 | Smartdrive Systems, Inc. | Rail vehicle event detection and recording system |
US11069257B2 (en) | 2014-11-13 | 2021-07-20 | Smartdrive Systems, Inc. | System and method for detecting a vehicle event and generating review criteria |
US9858676B2 (en) * | 2015-01-08 | 2018-01-02 | International Business Machines Corporation | Displaying location-based rules on augmented reality glasses |
US9535253B2 (en) | 2015-02-09 | 2017-01-03 | Microsoft Technology Licensing, Llc | Display system |
CN104657934B (zh) | 2015-02-09 | 2018-08-10 | 青岛海信移动通信技术股份有限公司 | 一种图像数据的处理方法和装置 |
US10317677B2 (en) | 2015-02-09 | 2019-06-11 | Microsoft Technology Licensing, Llc | Display system |
US11086216B2 (en) | 2015-02-09 | 2021-08-10 | Microsoft Technology Licensing, Llc | Generating electronic components |
CN104657206B (zh) | 2015-02-09 | 2018-09-28 | 青岛海信移动通信技术股份有限公司 | 一种图像数据的处理方法和装置 |
US9827209B2 (en) | 2015-02-09 | 2017-11-28 | Microsoft Technology Licensing, Llc | Display system |
US9423360B1 (en) | 2015-02-09 | 2016-08-23 | Microsoft Technology Licensing, Llc | Optical components |
US10018844B2 (en) | 2015-02-09 | 2018-07-10 | Microsoft Technology Licensing, Llc | Wearable image display system |
US9429692B1 (en) | 2015-02-09 | 2016-08-30 | Microsoft Technology Licensing, Llc | Optical components |
US9513480B2 (en) | 2015-02-09 | 2016-12-06 | Microsoft Technology Licensing, Llc | Waveguide |
US9372347B1 (en) | 2015-02-09 | 2016-06-21 | Microsoft Technology Licensing, Llc | Display system |
US9754413B1 (en) | 2015-03-26 | 2017-09-05 | Google Inc. | Method and system for navigating in panoramic images using voxel maps |
WO2016157076A1 (en) * | 2015-03-30 | 2016-10-06 | Ghoson Ziad | Information processing system and method using image recognition |
US9679420B2 (en) | 2015-04-01 | 2017-06-13 | Smartdrive Systems, Inc. | Vehicle event recording system and method |
KR102063895B1 (ko) * | 2015-04-20 | 2020-01-08 | 삼성전자주식회사 | 서버, 사용자 단말 장치 및 그 제어 방법 |
US10228841B2 (en) * | 2015-06-04 | 2019-03-12 | Cisco Technology, Inc. | Indicators for relative positions of connected devices |
US9589358B1 (en) * | 2015-09-29 | 2017-03-07 | International Business Machines Corporation | Determination of point of interest views from selected vantage points |
US9766712B2 (en) * | 2016-01-14 | 2017-09-19 | Google Inc. | Systems and methods for orienting a user in a map display |
KR101806957B1 (ko) * | 2016-06-02 | 2017-12-11 | 네이버 주식회사 | 관심 지점의 자동 업데이트를 위한 방법 및 시스템 |
US10155596B2 (en) * | 2016-06-06 | 2018-12-18 | The Boeing Company | Three-dimensional aircraft inspection system for layout of passenger accommodations |
US10506221B2 (en) | 2016-08-03 | 2019-12-10 | Adobe Inc. | Field of view rendering control of digital content |
US20180046363A1 (en) * | 2016-08-10 | 2018-02-15 | Adobe Systems Incorporated | Digital Content View Control |
US11461820B2 (en) | 2016-08-16 | 2022-10-04 | Adobe Inc. | Navigation and rewards involving physical goods and services |
US10198846B2 (en) | 2016-08-22 | 2019-02-05 | Adobe Inc. | Digital Image Animation |
US10068378B2 (en) | 2016-09-12 | 2018-09-04 | Adobe Systems Incorporated | Digital content interaction and navigation in virtual and augmented reality |
US10430559B2 (en) | 2016-10-18 | 2019-10-01 | Adobe Inc. | Digital rights management in virtual and augmented reality |
US10687119B2 (en) | 2017-06-27 | 2020-06-16 | Samsung Electronics Co., Ltd | System for providing multiple virtual reality views |
US10630895B2 (en) * | 2017-09-11 | 2020-04-21 | Qualcomm Incorporated | Assist for orienting a camera at different zoom levels |
JP7187494B2 (ja) * | 2017-12-15 | 2022-12-12 | グーグル エルエルシー | ナビゲーションアプリケーションにおける配車サービスに関するストリートレベル画像の提供 |
WO2019164514A1 (en) * | 2018-02-23 | 2019-08-29 | Google Llc | Transitioning between map view and augmented reality view |
US10813169B2 (en) | 2018-03-22 | 2020-10-20 | GoTenna, Inc. | Mesh network deployment kit |
US20200026731A1 (en) * | 2018-07-17 | 2020-01-23 | Vidit, LLC | Systems and Methods for Archiving and Accessing of Image Content |
US20240028283A1 (en) * | 2022-07-20 | 2024-01-25 | Twinit Limited | Systems and Methods for Combining and Synchronizing Display Content of Disparate Display Content Generators |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6563529B1 (en) * | 1999-10-08 | 2003-05-13 | Jerry Jongerius | Interactive system for displaying detailed view and direction in panoramic images |
WO2006039389A2 (en) * | 2004-09-30 | 2006-04-13 | Ipac Acquisition Subsidiary I, Llc | Method for incorporating images with a user perspective in navigation |
US20070273758A1 (en) * | 2004-06-16 | 2007-11-29 | Felipe Mendoza | Method and apparatus for accessing multi-dimensional mapping and information |
CN101300459A (zh) * | 2005-11-01 | 2008-11-05 | 松下电器产业株式会社 | 信息显示装置 |
US20080291217A1 (en) * | 2007-05-25 | 2008-11-27 | Google Inc. | Viewing and navigating within panoramic images, and applications thereof |
US20090240431A1 (en) * | 2008-03-24 | 2009-09-24 | Google Inc. | Panoramic Images Within Driving Directions |
US20090249228A1 (en) * | 2008-03-26 | 2009-10-01 | Li-Te Cheng | Computer method and apparatus for persisting pieces of a virtual world group conversation |
US20090268047A1 (en) * | 2006-10-04 | 2009-10-29 | Nikon Corporation | Electronic device |
CN101702132A (zh) * | 2009-09-07 | 2010-05-05 | 无锡景象数字技术有限公司 | 基于DirectShow技术的2D与3D软件切换方法 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6169552B1 (en) * | 1996-04-16 | 2001-01-02 | Xanavi Informatics Corporation | Map display device, navigation device and map display method |
US6028603A (en) * | 1997-10-24 | 2000-02-22 | Pictra, Inc. | Methods and apparatuses for presenting a collection of digital media in a media container |
US6346938B1 (en) | 1999-04-27 | 2002-02-12 | Harris Corporation | Computer-resident mechanism for manipulating, navigating through and mensurating displayed image of three-dimensional geometric model |
US6397145B1 (en) * | 2000-03-06 | 2002-05-28 | Magellan Dis, Inc. | Navigation system with complex maneuver instruction |
JP3627914B2 (ja) * | 2000-05-23 | 2005-03-09 | シャープ株式会社 | 車両の周囲監視システム |
US7230628B1 (en) * | 2000-10-05 | 2007-06-12 | Shutterfly, Inc. | Previewing a framed image print |
US7689933B1 (en) * | 2005-11-14 | 2010-03-30 | Adobe Systems Inc. | Methods and apparatus to preview content |
JP5118813B2 (ja) * | 2005-12-08 | 2013-01-16 | クラリオン株式会社 | ナビゲーション装置 |
US9582937B2 (en) | 2008-01-02 | 2017-02-28 | Nokia Technologies Oy | Method, apparatus and computer program product for displaying an indication of an object within a current field of view |
US8072448B2 (en) * | 2008-01-15 | 2011-12-06 | Google Inc. | Three-dimensional annotations for street view data |
DE102008050803A1 (de) * | 2008-10-08 | 2010-04-15 | Volkswagen Ag | Verfahren und Vorrichtung zum Anzeigen von Informationen in einem Fahrzeug |
US8493408B2 (en) * | 2008-11-19 | 2013-07-23 | Apple Inc. | Techniques for manipulating panoramas |
EP2193825B1 (en) * | 2008-12-03 | 2017-03-22 | Alcatel Lucent | Mobile device for augmented reality applications |
US20100188397A1 (en) * | 2009-01-28 | 2010-07-29 | Apple Inc. | Three dimensional navigation using deterministic movement of an electronic device |
US8111247B2 (en) * | 2009-03-27 | 2012-02-07 | Sony Ericsson Mobile Communications Ab | System and method for changing touch screen functionality |
US9024972B1 (en) * | 2009-04-01 | 2015-05-05 | Microsoft Technology Licensing, Llc | Augmented reality computing with inertial sensors |
US8943420B2 (en) * | 2009-06-18 | 2015-01-27 | Microsoft Corporation | Augmenting a field of view |
US9298345B2 (en) * | 2009-06-23 | 2016-03-29 | Microsoft Technology Licensing, Llc | Block view for geographic navigation |
US20110010650A1 (en) * | 2009-07-09 | 2011-01-13 | Mapquest, Inc. | Systems and methods for decluttering electronic map displays |
US9710938B2 (en) * | 2010-03-26 | 2017-07-18 | Bmc Software, Inc. | Graph expansion mini-view |
US9582166B2 (en) * | 2010-05-16 | 2017-02-28 | Nokia Technologies Oy | Method and apparatus for rendering user interface for location-based service having main view portion and preview portion |
US8295589B2 (en) * | 2010-05-20 | 2012-10-23 | Microsoft Corporation | Spatially registering user photographs |
US8164599B1 (en) * | 2011-06-01 | 2012-04-24 | Google Inc. | Systems and methods for collecting and providing map images |
-
2010
- 2010-05-16 US US12/780,911 patent/US9582166B2/en active Active
-
2011
- 2011-02-10 CN CN2011800348103A patent/CN103003786A/zh active Pending
- 2011-02-10 WO PCT/FI2011/050123 patent/WO2011144797A1/en active Application Filing
- 2011-02-10 EP EP11783125.5A patent/EP2572264B1/en active Active
-
2012
- 2012-12-12 ZA ZA2012/09419A patent/ZA201209419B/en unknown
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6563529B1 (en) * | 1999-10-08 | 2003-05-13 | Jerry Jongerius | Interactive system for displaying detailed view and direction in panoramic images |
US20070273758A1 (en) * | 2004-06-16 | 2007-11-29 | Felipe Mendoza | Method and apparatus for accessing multi-dimensional mapping and information |
WO2006039389A2 (en) * | 2004-09-30 | 2006-04-13 | Ipac Acquisition Subsidiary I, Llc | Method for incorporating images with a user perspective in navigation |
CN101300459A (zh) * | 2005-11-01 | 2008-11-05 | 松下电器产业株式会社 | 信息显示装置 |
US20090268047A1 (en) * | 2006-10-04 | 2009-10-29 | Nikon Corporation | Electronic device |
US20080291217A1 (en) * | 2007-05-25 | 2008-11-27 | Google Inc. | Viewing and navigating within panoramic images, and applications thereof |
US20090240431A1 (en) * | 2008-03-24 | 2009-09-24 | Google Inc. | Panoramic Images Within Driving Directions |
US20090249228A1 (en) * | 2008-03-26 | 2009-10-01 | Li-Te Cheng | Computer method and apparatus for persisting pieces of a virtual world group conversation |
CN101702132A (zh) * | 2009-09-07 | 2010-05-05 | 无锡景象数字技术有限公司 | 基于DirectShow技术的2D与3D软件切换方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104102759A (zh) * | 2013-04-02 | 2014-10-15 | 建国工程股份有限公司 | 建筑模型影像显示系统及其方法 |
CN104102759B (zh) * | 2013-04-02 | 2018-10-12 | 卫武咨询股份有限公司 | 建筑模型影像显示系统及其方法 |
CN106664465B (zh) * | 2014-07-09 | 2020-02-21 | 郑芝娟 | 用于创建和再现增强现实内容的系统以及使用其的方法 |
CN106664465A (zh) * | 2014-07-09 | 2017-05-10 | 郑芝娟 | 用于创建和再现增强现实内容的系统以及使用其的方法 |
CN104183015B (zh) * | 2014-09-02 | 2017-04-05 | 中国商用飞机有限责任公司北京民用飞机技术研究中心 | 用于飞机中取代部分舱体物理窗户的方法和装置 |
CN104821135B (zh) * | 2015-05-25 | 2017-07-11 | 吉林大学 | 一种实现纸质地图与电子地图结合显示的方法及装置 |
CN108604380A (zh) * | 2016-05-03 | 2018-09-28 | 谷歌有限责任公司 | 用于在移动设备上获得成对极线约束和解决全景姿态的方法和系统 |
US11080871B2 (en) | 2016-05-03 | 2021-08-03 | Google Llc | Method and system for obtaining pair-wise epipolar constraints and solving for panorama pose on a mobile device |
CN108604380B (zh) * | 2016-05-03 | 2022-04-12 | 谷歌有限责任公司 | 用于在移动设备上获得成对极线约束和解决全景姿态的方法和系统 |
US11568551B2 (en) | 2016-05-03 | 2023-01-31 | Google Llc | Method and system for obtaining pair-wise epipolar constraints and solving for panorama pose on a mobile device |
CN106447788A (zh) * | 2016-09-26 | 2017-02-22 | 北京疯景科技有限公司 | 观看视角的指示方法及装置 |
CN106527722A (zh) * | 2016-11-08 | 2017-03-22 | 网易(杭州)网络有限公司 | 虚拟现实中的交互方法、系统及终端设备 |
CN106527722B (zh) * | 2016-11-08 | 2019-05-10 | 网易(杭州)网络有限公司 | 虚拟现实中的交互方法、系统及终端设备 |
CN109977189A (zh) * | 2019-03-31 | 2019-07-05 | 联想(北京)有限公司 | 显示方法、装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
EP2572264B1 (en) | 2020-07-08 |
US20110283223A1 (en) | 2011-11-17 |
EP2572264A4 (en) | 2016-04-06 |
ZA201209419B (en) | 2014-05-28 |
EP2572264A1 (en) | 2013-03-27 |
WO2011144797A1 (en) | 2011-11-24 |
US9582166B2 (en) | 2017-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103003786A (zh) | 用于为基于位置的服务渲染具有主视图部分和预览部分的用户界面的方法和装置 | |
CN102985901B (zh) | 用于为移动设备上基于位置的服务渲染对象的立体图及与其相关的内容的方法和装置 | |
Schmalstieg et al. | Augmented Reality 2.0 | |
CN103857989B (zh) | 用于在活动用户接口元素中呈现搜索结果的方法和装置 | |
US9766089B2 (en) | Method and apparatus for correlating and navigating between a live image and a prerecorded panoramic image | |
CN102741797B (zh) | 用于转换三维地图对象以呈现导航信息的方法和装置 | |
CN103502982A (zh) | 用于在基于位置的用户接口中显示交互式预览信息的方法和装置 | |
Simon et al. | A mobile application framework for the geospatial web | |
CN102754097B (zh) | 用于呈现内容的第一人世界视图的方法和装置 | |
RU2417437C2 (ru) | Отображение объектов сети на мобильных устройствах на основании геопозиции | |
US8700301B2 (en) | Mobile computing devices, architecture and user interfaces based on dynamic direction information | |
CN103003847A (zh) | 用于渲染基于位置的用户界面的方法和装置 | |
CA2799443C (en) | Method and apparatus for presenting location-based content | |
JP5739874B2 (ja) | 向きに基づいた検索システム及び方法 | |
US20120013609A1 (en) | Method and apparatus for presenting a first person world view of content | |
Ferraro et al. | Location-aware applications | |
CN103262125A (zh) | 用于注解兴趣点信息的方法和装置 | |
Chen | Ubiquitous positioning and mobile location-based services in smart phones | |
CN103443589A (zh) | 用于确定位置偏移信息的方法和装置 | |
CN106796116A (zh) | 提供减少路线中断的导航中搜索结果 | |
CN102300205A (zh) | 基于位置和上下文的移动应用程序的宣传和传递 | |
US20130061147A1 (en) | Method and apparatus for determining directions and navigating to geo-referenced places within images and videos | |
KR101497994B1 (ko) | 멀티미디어 지도서비스 시스템 및 이의 제공방법 | |
Khan et al. | Markerless Location-Based Augmented Reality Application for Showcasing Deals | |
CN109934663A (zh) | 采用虚拟实境技术的标记定位系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C41 | Transfer of patent application or patent right or utility model | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20160105 Address after: Espoo, Finland Applicant after: Technology Co., Ltd. of Nokia Address before: Espoo, Finland Applicant before: Nokia Oyj |
|
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20130327 |