CN104160369B - 用于使用可移动引导标记来提供交互导航辅助的方法、装置和计算机可读存储介质 - Google Patents
用于使用可移动引导标记来提供交互导航辅助的方法、装置和计算机可读存储介质 Download PDFInfo
- Publication number
- CN104160369B CN104160369B CN201380013278.6A CN201380013278A CN104160369B CN 104160369 B CN104160369 B CN 104160369B CN 201380013278 A CN201380013278 A CN 201380013278A CN 104160369 B CN104160369 B CN 104160369B
- Authority
- CN
- China
- Prior art keywords
- user equipment
- label
- view
- user
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/024—Guidance services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3632—Guidance using simplified or iconic instructions, e.g. using arrows
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3647—Guidance involving output of stored or live camera images or video streams
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
- G09G2340/145—Solving problems related to the presentation of information to be displayed related to small screens
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
用于在第一用户设备处显示在一个位置的第一标记的方法、装置和计算机可读存储介质,其中在第二用户设备处远程地定义该位置;在第二用户设备处显示用于第一用户设备的当前地理位置和当前有利地点;在第二用户设备处显示第二标记;在第二用户设备处接受用于将第二标记从第一位置调整到第二位置的输入,其中第二位置指示如在第二用户设备上显示的第一用户设备的当前地理位置的第一虚拟视图中的目标地理位置;以及响应于该调整,在第一用户设备处显示在当前地理位置的在第二虚拟视图中的目标地理位置显示第二标记。
Description
技术领域
本发明主要地涉及无线网络,并且更具体地涉及用于使用可移动引导标记来提供交互导航辅助的方法、装置和计算机可读存储介质。
背景技术
本节旨在于提供以下公开的本发明的背景或者情境。这里的说明书可以包括如下概念,这些概念可以被探求,但是未必是先前已经设想、实施或者描述的概念。因此,除非这里另有明示,在本节中描述的内容不是在本申请中的说明书之前的现有技术并且不因包含于本节中而被承认为现有技术。
经常需要第一用户在第一用户和第二用户在不同位置时从第二用户获得导航指令。用于导航辅助的各种技术基于第一用户通过无线通信网络从第一用户设备向第二用户设备发出视频呼叫。向第二用户设备发送由在第一用户设备处的相机捕获的图像。通过在第二用户设备处使用语音或者文本消息传送,第二用户指示第一用户(即需要导航引导的个人)将相机指向有利地点,以便辅助第二用户标识第一用户的位置。然而,在许多情形中,第二用户可能难以从由第一用户初始地提供的有利地点来识别位置。因此,第二用户可能必须反复地告知第一用户通过试错到处移动并且使相机在不同方向上指向,直至第二用户有希望观察到相似图像。因此,需要能够提供增强型导航辅助的改进方法、装置和计算机可读存储介质。
发明内容
根据本发明的第一方面,一种方法包括:在第一用户设备处显示在一个位置的第一标记,其中在第二用户设备处远程地定义该位置;在第二用户设备处显示用于第一用户设备的当前地理位置和当前有利地点;在第二用户设备处显示第二标记;在第二用户设备处接受用于将第二标记从第一位置调整到第二位置的输入,其中第二位置指示如在第二用户设备上显示的第一用户设备的当前地理位置的第一虚拟视图中的目标地理位置;以及响应于调整,在第一用户设备处显示在当前地理位置的第二虚拟视图中的目标地理位置的第二标记。
根据本发明的第二方面,一种装置被配置为接受用于定义位置的输入。该装置包括用于与被配置为在第一用户设备的当前地理位置显示第一标记的第一用户设备一起使用的第二用户设备。第二用户设备被配置为显示用于第一用户设备的当前地理位置和当前有利地点;第二用户设备显示第二标记;第二用户设备接受输入,并且响应于输入,将第二标记从第一位置调整到第二位置,其中第二位置指示第一用户设备的当前地理位置的第一虚拟视图中的目标地理位置;并且响应于调整,使第一用户设备显示在当前地理位置的第二虚拟视图中的目标地理位置的第二标记。
说明性地,可以各自使用以下各项中的任何一项来实施第一标记和第二标记:持续指针、非持续指针、持续醒目显示范围或者非持续醒目显示范围。例如,如果均使用持续指针来实施第一标记和第二标记,则第一指针首先在第一用户设备上的某个位置被显示,并且然后移动到在第一用户设备上的、如由在第二用户设备处操控第二指针的远程用户指定的显示位置。备选地或者附加地,可以在第二用户设备上通过非持续指向或者醒目显示机制来实施第一标记和第二标记,其中远程用户在选择的显示建筑物或者显示建筑物的选择部分上敲击手指,并且对于短时间段(比如数秒),醒目显示区域或者范围在第一用户设备和第二用户设备二者上在与手指敲击对应的地理位置、周围或者旁边被显示。在这一示例中,暂时或者瞬时醒目显示的区域用来提供在第一用户设备上的第一标记以及在第二用户设备上的第二标记。备选地或者附加地,可以使用持续指针来实施第一标记,并且可以使用非持续醒目显示区域来实施第二标记。备选地或者附加地,可以使用非持续醒目显示区域来实施第一标记,并且可以使用持续指针来实施第二标记。备选地或者附加地,醒目显示区域可以保持醒目显示直至接收用户输入(比如敲击、触摸或者按压第一用户设备显示器或者第二用户设备显示器的非醒目显示区域)。醒目显示区域可以包括整个建筑物或者建筑物的部分或者建筑物的特定楼层。
根据本发明的第三方面,提供一种具有在其上存储的可执行程序的非瞬态计算机可读存储介质。该程序指示处理设备执行:在第一用户设备处显示在一个位置的第一标记,其中在第二用户设备处远程地定义该位置;在第二用户设备处显示用于第一用户设备的当前地理位置和当前有利地点;在第二用户设备处显示第二标记;在第二用户设备处接受用于将第二标记从第一位置调整到第二位置的输入,其中第二位置指示如在第二用户设备上显示的第一用户设备的当前地理位置的第一虚拟视图中的目标地理位置;以及响应于调整,在第一用户设备处显示在当前地理位置的第二虚拟视图中的目标地理位置的第二标记。
附图说明
图1是图示根据本发明的用于使用引导标记来提供交互导航辅助的示例配置的框图;
图2A和图2B一起包括图示根据本发明的用于使用引导标记来提供交互导航辅助的示例方法的流程图;
图3图示根据本发明的用于提供交互导航辅助的第一图形用户界面的示例屏幕截图;
图4图示根据本发明的用于使用引导标记来提供交互导航辅助的第二图形用户界面的示例屏幕截图;
图5图示根据本发明的用于使用引导标记来提供交互导航辅助的第三图形用户界面的示例屏幕截图;
图6图示根据本发明的用于使用引导标记来提供交互导航辅助的第四图形用户界面的示例屏幕截图;
图7图示根据本发明的用于使用引导标记来提供交互导航辅助的第五图形用户界面的示例屏幕截图;
图8图示根据本发明的用于使用引导标记来提供交互导航辅助的第六图形用户界面的示例屏幕截图;
图9图示根据本发明的用于使用引导标记来提供交互导航辅助的第七图形用户界面的示例屏幕截图;以及
图10图示根据本发明的用于使用引导标记来提供交互导航辅助的第八图形用户界面的示例屏幕截图。
具体实施方式
图1是图示根据本发明的用于使用引导标记来提供交互导航辅助的示例配置的硬件框图。第一用户设备11和第二用户设备12均被配备用于通过无线网络26通信。备选地或者附加地,第一用户设备11和第二用户设备12中的任何一个用户设备可以被配备用于通过有线网络通信。说明性地,第一用户设备11和第二用户设备12可以各自代表移动电话、平板或者无线手持设备。第一用户设备11包括操作地耦合到GPS接收器15、罗盘17、用户接口19和计算机可读存储介质19的处理器13。
根据本发明的一个说明性实施例,用于第二用户使用的第二用户设备12可以包括操作地耦合到GPS接收器16、罗盘18、用户接口20和计算机可读存储介质22的处理器14。然而,根据其它说明性实施例,无需第二用户设备12包括GPS接收器或者罗盘。无需GPS接收器或者罗盘是因为第二用户设备12被配置为显示与第一用户设备11的当前位置对应的虚拟视图。用户接口20被配置为响应于从第二用户接收输入来改变第二用户设备12显示的虚拟视图的方向。接收的输入说明性地包括以下各项中的至少一项:摇动、按压或者敲击在第二用户设备12的显示器上的各种用户接口20元素中的任何一个元素。因此,按照这些其它的说明性实施例,取代先前提到的平板和移动电话或者除了它们之外,第二用户设备12还可以使用普通或者静止的个人计算机(PC)来实施。又另一选项是使用罗盘18用于改变在第二用户设备12上显示的虚拟视图的方向,但是在其它情况下,用于改变虚拟视图的方向的实施方式将使用在触屏上的手指输入或者用于摇动的鼠标输入。
GPS接收器15被配置为基于第一用户设备11的当前地理位置获得地理坐标集。如果第二用户设备12被这样配备,则GPS接收器16被配置为基于第二用户设备12的当前地理位置获得地理坐标集。罗盘17被配备为确定用于第一用户设备11的当前方位或者有利地点。如果第二用户设备被这样配备,则罗盘18被配备为确定用于第二用户设备12的当前方位或者有利地点。出于说明的目的,用户接口19和用户接口20可以各自使用触敏显示屏幕或者备选地使用显示屏幕和关联的输入设备(比如鼠标、指针、小键盘或者触笔)来实施。
无线网络26耦合到地图服务器23。地图服务器23被配置为响应于接收地理坐标集和当前方位来取回用于地理位置的视图数据集。地图服务器向无线网络26发送取回的视图数据集。无线网络26向第一用户设备11或者第二用户设备12中的至少一个用户设备分发视图数据集。视图数据由第一用户设备11或者第二用户设备12处理以显示以下各项中的至少一项:地图视图、增强现实(AR)视图、全景视图或者包括三维(3D)模型的虚拟视图。3D模型可以但是无需包括全景视图。备选地或者附加地,3D模型可以利用使用来自现实的相片进行纹理化的建筑物3D模型。
全景视图无论AR视图被定向的当前方向或者方位如何都能够提供用于在任何方向或者方位上指向的全360度自由移动。地图服务器23向一个或者多个用户设备(比如第一用户设备11和第二用户设备12)存储全景内容数据(包括建筑物三维对象)。使用三维对象允许准确指向,即使可以从不同有利地点取得如在第一用户设备11上显示的给定的地理位置的第一视点以及如在第二用户设备12上显示的给定的地理位置的第二视点。
地图服务器也向第一用户设备11转送来自第二用户设备12的引导指针信息。可选地,地图服务器23可以存储用于多个用户中的每个用户的联系人列表以及在两个或者更多用户之间反复交换的地理位置和有利地点数据。地图服务器23可以被编程为将通过全景视图获得的第二用户的引导指针坐标转化成第一用户的AR视图。
可选地图视图通过在与地理坐标集和当前方位对应的地理区域的二维街道地图或者道路地图上放置光标或者标记来显示用于第一用户设备11或者第二用户设备12的当前位置。AR视图以透视图的形式显示用于地理坐标集和当前方位的视觉图像。AR视图通过向显示的透视图上叠加光标或者标记来显示用于第一用户设备11或者第二用户设备12的当前位置。这一透视图与例如将通过数字相机的取景器查看的视图相似或者相同。
从在地理区域中的建筑物和结构的相片创建全景视图。说明性地,可以使用车载相机来捕获相片,而地理坐标数据和激光测距器数据被收集并且与拍摄的每个相片关联。用于多个相片中的每个相片的图像文件和与每个图像文件关联的激光测距器数据和地理坐标数据一起被存储于在地图服务器23可访问的计算机可读存储介质25上的地图和全景数据库24中。图像文件、激光测距器数据和地理坐标数据用来生成地理区域的三维(3D)模型。备选地或者附加地,可以分离地获取3D模型,并且使用激光测距器数据来对准3D模型与相片。相片、激光测距器数据和地理坐标数据的相应集合(其一起包括来自3D模型的全景数据集合)用来生成用于对应地理位置和方位的全景视图。
图2A和图2B一起包括图示根据本发明的用于使用引导标记来提供交互导航辅助的示例方法的流程图。经常需要在第一用户设备11(图1)处的第一用户当第一用户和第二用户在不同位置时从在第二用户设备12处的第二用户获得导航指令。概括而言,图2的操作序列提供一种技术解决方案,其中第一用户设备11(图1)显示与第一用户设备的当前地理位置和当前有利地点对应的增强现实(AR)视图。第二用户设备12显示与第一用户设备的当前地理位置和当前有利地点对应的全景视图。第二用户设备12接受用于改变在第二用户设备12上显示的全景视图的有利地点的第一输入。第二用户设备12接受用于调整在第二用户设备12上显示的全景视图的第一视觉引导指针的位置的第二输入。第一视觉引导指针是说明性地包括以下各项中的任一项的标记:持续指针、非持续指针、持续醒目显示区域或范围或者非持续醒目显示区域或范围。备选地或者附加地,醒目显示区域可以保持醒目显示直至接收用户输入(比如敲击、触摸或者按压第一用户设备11或者第二用户设备12显示器的非醒目显示区域)。第一用户设备11的显示的AR视图包括响应于调整在第一用户设备11的全景视图上的第一视觉引导指针的位置而移动的第二视觉引导指针。第二视觉引导指针是说明性地包括以下各项中的任一项的标记:持续指针、非持续指针、持续醒目显示区域或范围或者非持续醒目显示区域或范围。语音或者文本通信信道可以在图2A和图2B中所示操作序列的全部或者部分期间通过无线网络26在第一用户设备11与第二用户设备12之间是活跃的。第一视觉引导指针或者第二视觉引导指针中的任何视觉引导指针可以说明性地包括醒目显示区域,该区域包括整个建筑物或者建筑物的一部分或者建筑物的特定楼层。因此,标识当前地理位置可以包括不仅标识纬度和经度或者相似坐标,而且标识指示在地面以上的高度的参数。
图2A和图2B的操作序列在图2A的块201开始,其中第一用户设备11(图1)收集用于第一用户的地理位置和方位信息。第一用户设备11显示与收集的地理位置对应的增强现实(AR)视图并且从AR视图显示与方位信息对应的有利地点(图2A,块203)。接着,第一用户设备11(图1)通过无线网络26与第二用户设备12建立通信以请求导航引导(图2A,块205)。
在块207,第一用户设备11(图1)通过无线网络26向地图服务器23发送地理位置和方位信息。方位信息可以但是无需包括AR视图有利地点信息。地图服务器23使用地理位置和方位信息以取回用于生成与地理位置和方位信息对应的全景视图的全景数据集(图2A,块209)。接着,在块211,地图服务器23(图1)向第二用户设备12发送全景数据集。第二用户设备12通过无线网络26从地图服务器23接收全景数据并且显示全景视图,该全景视图与地理位置接近地对应并且具有与第一用户设备11的AR视图有利地点接近地对应的全景视图有利地点(图2A,块213)。在实践中,全景视图尽可能接近地对应于地理位置,但是在一些情况下,最接近可用的全景数据可以对于某些地理位置有些脱离。
可选地,第一用户设备11和第二用户设备12(图1)之一或者两者分别在与AR视图或者全景视图同时显示的小型地图中显示用于第一用户的地图视图有利地点(图2A,块215),其中从在块201中先前收集的方位信息获得地图视图有利地点。对于第二用户设备12(图1),注意到可能不参照第二用户设备12的物理位置或者地理位置获得这一方位信息,但是取而代之,方位信息可以与第一用户设备11处于的并且第二用户设备12正在为其显示虚拟视图的地理位置的虚拟视点有关。例如,可以参考在第二用户设备12的屏幕上显示的全景视图上的位置确定第二用户设备12的方位信息。
在块217(图2A),第二用户设备12(图1)接受用于将全景视图的全景视图有利地点改变为新全景视图有利地点的第一输入。实际上,这使第二用户能够从多个不同视角查看相同地理位置的全景视图。在块219(图2A),第二用户设备12(图1)向地图服务器23发送对于与新全景视图有利地点对应的新全景视图数据的请求。第二用户设备12从地图服务器接收与新全景视图有利地点对应的新全景视图数据并且显示与新全景视图有利地点对应的新全景视图(图2A,块221)。第二用户设备12(图1)接受请求可移动视觉引导指针功能的第二输入,并且响应于该第二输入,在第二用户设备上当前正在显示的全景视图上显示第一视觉引导指针(图2A,块223)。
图2A和图2B的操作序列前进到图2B的块225,其中第二用户设备12(图1)通过使用显示的全景视图的三维(3D)模型来确定与第一视觉引导指针的当前位置对应的地理坐标集。可以通过无线网络26从地图服务器23获得3D模型,或者在第二用户设备12中存储3D模型,或者上述二者。第二用户设备12然后通过无线网络26向第一用户设备11发送地理坐标集。第二用户设备12从第二用户接受指定第一视觉引导指针的重新定位的第三输入(图2B,块227)。程序然后循环回到块225(图2B),其中第二用户设备12(图1)确定与第一视觉引导指针的新位置对应的新地理坐标集。第二用户设备12通过使用显示的全景视图的3D模型来确定与第一视觉引导指针的新位置对应的新地理坐标集。第二用户设备12然后通过无线网络26向第一用户设备11发送新地理坐标集。
程序控制从块225(图2B)进行到块229,其中第一用户设备11(图1)通过无线网络26从第二用户设备12接收地理坐标集。接着,在块233(图2B),第一用户设备11(图1)在与在块229(图2B)从第二用户设备接收的地理坐标对应的位置、在AR视图上显示第二视觉引导指针。可以用光标或者标记的形式实施第二视觉引导指针。可选地,第一用户设备11(图1)与AR视图同时显示用于第二用户设备12的地理位置和有利地点或者用于第二用户设备12的虚拟视点(图2B,块235)。可选地,第一用户设备11和第二用户设备12(图1)可以交换(或者预存)建筑物的附加描述,以保证第一用户设备11在正确建筑物上面并且甚至在建筑物的正确楼层在AR视图上放置第二视觉引导指针。如果第一用户设备11的有利地点不同于第二用户设备12的虚拟视点,从而第一用户设备11的相机沿着与第二用户设备当前正在显示的虚拟视点或者查看方向的方位不同的方位被瞄准,则地图服务器23或者第一用户设备11可以被编程为提供用于将第一用户设备向新的或者不同的有利地点定向的视觉提示。
作为块225和块229的备选或者附加,第二用户设备12(图1)可以确定与可移动视觉引导指针的当前位置对应的全景视图坐标集。第二用户设备12然后向地图服务器23发送全景视图坐标集。地图服务器23将全景视图坐标集转化成用于将由第一用户设备11显示的固定视觉引导指针的AR视图坐标集。地图服务器23然后向第一用户设备11发送AR视图坐标集(图2B,块231)。第一用户设备11(图1)接收AR视图坐标集,并且在与在第二用户设备12显示的全景视图上的可移动视觉引导指针的当前位置对应的位置、在AR视图上显示固定标记或者光标。
按照在图2A和图2B中描述的过程,在第二用户设备12(图1)处的用户可以视为“远程引导提供者”。这一用户可以参照全景视图自由选择他/她的有利地点。这一用户例如可以从与第一用户设备11的有利地点不同的有利地点指向建筑物。
图3图示根据本发明的用于在第一用户设备11(图1)接收交互导航辅助的图形用户界面300的示例屏幕截图。在界面300左上角的小型地图301(图3)显示用户设备11(图1)的当前位置,并且阴影楔形303(图3)显示用于用户设备11(图1)的当前方位或者有利地点。大罗盘304(图3)也在界面300的底部显示当前方位或者有利地点。用户设备(图1)11显示当前位置的增强现实(AR)视图302(图3)。在这一示例中,名为Lisa的用户正在使用用户设备11(图1)。Lisa到达她的近似目的地,该目的地是Honolulu咖啡馆(CaféHonolulu),但是她不确定咖啡馆的确切位置。地图服务器23(图1)在AR视图302上放置兴趣点图标312(图3)是不准确的。另外,在AR视图302(图3)上示出的建筑物综合体具有许多不同入口。为了对于Lisa引起进一步的不确定,兴趣点图标312为英语,但是实际的咖啡馆具有Lisa不理解的外国语标志。
图4图示根据本发明的用于在第一用户设备11(图1)接收交互导航辅助的图形用户界面的示例屏幕截图。图4的图形用户界面以横向模式示出图3的AR视图302。横向模式可以提供来自第一用户设备11(图1)的当前位置的实况视频的显示。
图5图示根据本发明的用于从第二用户设备12(图1)向第一用户设备11提供交互导航辅助的图形用户界面500的示例屏幕截图。Lisa对咖啡馆的确切位置有疑惑,因此她为了一些导航引导而呼叫她的好友Mark。Mark在第二用户设备12(图1)处。一旦Mark在第二用户设备12应答Lisa的呼叫,则第二用户设备被配置为显示第一用户设备11的位置的全景视图502(图5)。图形用户界面500也在实况视频视图500的左上角包括显示第一用户设备11(图1)的当前位置的小型地图501(图5)以及显示用于第一用户设备11(图1)的当前方位或者有利地点的阴影楔形503(图5)。大罗盘504(图5)也在实况视频视图500的底部显示第一用户设备11的当前方位或者有利地点。
图6图示根据本发明的用于在第一用户设备11(图1)接收交互导航辅助的图形用户界面的示例屏幕截图。在这一示例中,视觉引导指针610(图6)在图4中所示图形用户界面400的AR视图600上出现。这一视觉引导指针610(图6)指示第二用户设备12(图1)已经接收第一用户设备11的位置的全景视图。第二用户设备12现在准备好接受来自Mark的用于向第一用户设备提供导航引导的输入。
图7和图8分别图示根据本发明的使用可移动视觉引导指针710(图7)这一形式的标记在第二用户设备12(图1)提供交互导航辅助的图形用户界面的示例屏幕截图700和屏幕截图800。同前,第二用户设备被配置为显示第一用户设备11(图1)的位置的全景视图502(图5、图7和图8)。Mark将可移动视觉引导指针710从图7中所示的初始位置移动到图8中所示的新位置。在这一示例中,Mark知道Lisa正在寻找的咖啡馆位于何处。因此,Mark已经将可移动视觉引导指针710(图7和图8)从在屏幕截图700和屏幕截图800的中心的建筑物的第二层移动到在屏幕截图的右手侧的建筑物的顶层。图8的屏幕截图800也图示第二用户设备12(图1)可以可选地具有在全景视图502内的希望位置上进行放大的能力。
图9图示根据本发明的使用视觉引导指针610(图9)这一形式的标记在第一用户设备11(图1)接收交互导航辅助的图形用户界面900的示例屏幕截图。随着可移动视觉引导指针710(图7和图8)在第二用户设备12(图1)上被移动,视觉引导指针610(图9)在第一用户设备11(图1)上从如图6中所示的第一位置对应地移动到如图9中所示的第二位置。除了点状引导指针610和引导指针710(图6-图9)之外或者取代它们,可以运用许多其它种类的视觉指示,包括使被指向的建筑物以相对于周围建筑物的不同颜色、阴影(shade)、亮度或者强度来发光。引导指针610和引导指针710可以使用任何用于在AR视图中醒目显示建筑物的一部分的方法来实施。可选地,第二用户设备12可以被配备为接受用于定义用于引导指针610、引导指针710的多个点的多点触摸或者悬停感测输入。例如,用两手指输入可以操纵可移动视觉引导指针710(图7),以醒目显示建筑物的整个楼层。备选地或者附加地,醒目显示区域可以保持醒目显示直至接收用户输入(比如敲击、触摸或者按压第一用户设备11或者第二用户设备12(图1)显示器的非醒目显示区域)。
图10图示用于在第二用户设备12(图1)提供交互导航辅助的图形用户界面1000的示例屏幕截图。在这一示例中,在第二用户设备12处的第二用户可以将他的或者她的有利地点(即方位)改变成与第一用户设备11提供的有利地点不同的有利地点。例如,第二用户可能希望一睹第一用户设备11的位置周围而不指示在第一用户设备11处的第一用户到处摇动他们的相机。图形用户界面1000(图10)在小型地图上指示第一楔形1001和第二楔形1003(图10),该第一楔形图示用于第一用户设备11(图1)的方位或者有利地点,而该第二楔形图示用于第二用户设备12(图1)的方位或者有利地点。
可以在软件(由一个或者多个处理器执行)、硬件(例如专用集成电路)或者软件与硬件的组合中实施本发明的实施例。在示例实施例中,在各种常规计算机可读介质中的任何常规计算机可读介质上维护软件(例如应用逻辑、指令集)。在本文的上下文中,“计算机可读介质”可以是任何可以包含、存储、传达、传播或者传送用于由或者结合指令执行系统、装置或者设备(比如计算机)使用的指令的介质或者部件,而例如在图1中描述和描绘计算机的一个示例。计算机可读介质可以包括计算机可读存储介质21或者计算机可读存储介质22或者其它设备,该其它设备可以是任何可以包含或者存储用于由或者结合指令执行系统、装置或者设备(比如计算机)使用的指令的介质或者部件。
如果希望,则可以按照不同顺序和/或相互并行执行这里讨论的不同功能。另外,如果希望,则以上描述的功能中的一个或者多个功能可以是可选的或者可以被组合。虽然以上阐述本发明的各方面,但是本发明的其它方面包括来自所述实施例的特征的其它组合而不仅包括以上明确地阐述的组合。
这里也注意到,尽管以上描述本发明的示例实施例,但是不应在限制意义上看待这些描述。相反,有可以在不脱离本发明的范围的情况下进行的若干变化和修改。
Claims (30)
1.一种用于通信的方法,包括:
使得在第一用户设备处显示第二虚拟视图和在一个位置的第一标记,其中在第二用户设备处远程地定义所述位置,其中所述第二虚拟视图是增强现实视图或全景视图;
在所述第二用户设备处显示基于用于所述第一用户设备的当前地理位置和当前有利地点而生成的第一虚拟视图,其中所述第一虚拟视图是增强现实视图或全景视图;
在所述第二用户设备处显示第二标记;
在所述第二用户设备处接受用于将所述第二标记从第一位置调整到第二位置的输入,其中所述第二位置指示在所述第二用户设备上显示的所述第一用户设备的所述当前地理位置的所述第一虚拟视图中的目标地理位置;以及
响应于所述调整,使得在所述第一用户设备处显示在所述当前地理位置的所述第二虚拟视图中的所述目标地理位置的所述第一标记,其中在所述第二虚拟视图中在所述目标地理位置处显示的所述第一标记向所述第一用户提供导航引导,以用于基于对所述第二标记做出的从所述第一位置到所述第二位置的所述调整来导航到所述目标地理位置。
2.根据权利要求1所述的方法,其中所述第一标记包括以下各项中的至少一项:持续指针、非持续指针、持续醒目显示区域或者非持续醒目显示区域,并且其中所述第二标记包括以下各项中的至少一项:持续指针、非持续指针、持续醒目显示区域或者非持续醒目显示区域。
3.根据权利要求1或2所述的方法,还包括通过在所述第二用户设备处显示与所述第一用户设备的所述当前地理位置和所述当前有利地点对应的全景视图来提供所述第一虚拟视图。
4.根据权利要求1或2所述的方法,还包括通过使得在所述第一用户设备处显示与所述第一用户设备的所述当前地理位置和所述当前有利地点对应的增强现实视图来提供所述第二虚拟视图。
5.根据权利要求3所述的方法,还包括在所述第二用户设备处接受用于改变在所述第二用户设备上显示的所述全景视图的所述有利地点的第一输入。
6.根据权利要求5所述的方法,还包括在所述第二用户设备处接受用于调整在所述第二用户设备上显示的所述全景视图上的所述第二标记的位置的第二输入,其中所述第一用户设备的所述显示的增强现实视图包括所述第一标记,并且所述第一标记响应于在所述第二用户设备的所述全景视图上的所述第二标记的所述位置的所述调整而移动。
7.根据权利要求1或2所述的方法,还包括提供在所述第一用户设备与所述第二用户设备之间的语音或者文本通信信道。
8.根据权利要求7所述的方法,其中通过无线通信网络提供所述通信信道。
9.根据权利要求1或2所述的方法,其中使用持续第一指针来实施所述第一标记,所述持续第一指针首先在所述第一用户设备上的任何位置显示,并且然后移动到在所述第一用户设备上的、由在所述第二用户设备处操控所述第二标记的远程用户指定的显示位置。
10.根据权利要求1或2所述的方法,其中通过非持续指向机制来实施所述第二标记,从而所述第二用户设备被配置为接受在选择的显示建筑物或者所述显示建筑物的选择的部分上的手指敲击输入,并且醒目显示在与所述第二用户设备上的所述手指敲击输入对应的地理位置处在所述第一用户设备和所述第二用户设备二者上被瞬时地或者暂时地显示,其中所述暂时地或者瞬时地醒目显示的区域被用来提供在所述第一用户设备上的所述第一标记以及在所述第二用户设备上的所述第二标记;或者备选地或者附加地,所述醒目显示区域保持醒目显示直至接收到包括以下各项中的至少一项的用户输入:在所述第一用户设备或者所述第二用户设备上敲击、触摸或者按压非醒目显示区域。
11.一种用于通信的装置,
所述装置包括用于与被配置为显示第二虚拟视图和在一个位置的第一标记的第一用户设备一起使用的第二用户设备,其中所述第二虚拟视图是增强现实视图或全景视图;
所述第二用户设备被配置为显示基于用于所述第一用户设备的当前地理位置和当前有利地点而生成的第一虚拟视图,其中所述第一虚拟视图是增强现实视图或全景视图;
所述第二用户设备显示第二标记;
所述第二用户设备接受输入,并且响应于所述输入,将所述第二标记从第一位置调整到第二位置,其中所述第二位置指示所述第一用户设备的所述当前地理位置的所述第一虚拟视图中的目标地理位置;并且响应于所述调整,使所述第一用户设备显示在所述当前地理位置的所述第二虚拟视图中的所述目标地理位置的所述第一标记,其中在所述第二虚拟视图中在所述目标地理位置处显示的所述第一标记向所述第一用户提供导航引导,以用于基于对所述第二标记做出的从所述第一位置到所述第二位置的所述调整来导航到所述目标地理位置。
12.根据权利要求11所述的装置,其中所述第一标记包括以下各项中的至少一项:持续指针或者非持续醒目显示区域,并且其中所述第二标记包括以下各项中的至少一项:持续指针或者非持续醒目显示区域。
13.根据权利要求11或12所述的装置,其中通过在所述第二用户设备处显示与所述第一用户设备的所述当前地理位置和所述当前有利地点对应的全景视图来提供所述第一虚拟视图。
14.根据权利要求11或12所述的装置,其中所述第二虚拟视图包括与所述第一用户设备的所述当前地理位置和所述当前有利地点对应的增强现实视图。
15.根据权利要求13所述的装置,其中所述第二用户设备被配置为接受用于改变在所述第二用户设备上显示的所述全景视图的所述有利地点的第一输入。
16.根据权利要求15所述的装置,其中所述第二用户设备被配置为接受用于调整在所述第二用户设备上显示的所述全景视图上的所述第二标记的位置的第二输入,其中所述第一用户设备的所述显示的增强现实视图包括所述第一标记,并且所述第一标记响应于在所述第二用户设备的所述全景视图上的所述第二标记的所述位置的所述调整而移动。
17.根据权利要求11或12所述的装置,其中所述第二用户设备被配置为建立在所述第一用户设备与所述第二用户设备之间的语音或者文本通信信道。
18.根据权利要求17所述的装置,其中通过无线通信网络提供所述通信信道。
19.根据权利要求11或12所述的装置,其中使用持续第一指针来实施所述第一标记和所述第二标记,所述持续第一指针首先在所述第一用户设备上的任何位置显示,并且然后移动到在所述第一用户设备上的、由在所述第二用户设备处操控所述第二标记的远程用户指定的显示位置。
20.根据权利要求11或12所述的装置,其中通过非持续指向机制在所述第二用户设备上来实施所述第二标记,从而所述第二用户设备被配置为接受在选择的显示建筑物或者所述显示建筑物的选择的部分上的手指敲击输入,并且醒目显示在与所述第二用户设备上的所述手指敲击输入对应的地理位置处在所述第一用户设备和所述第二用户设备二者上被瞬时地或者暂时地显示,其中所述暂时地或者瞬时地醒目显示的区域被用来提供在所述第一用户设备上的所述第一标记以及在所述第二用户设备上的所述第二标记。
21.一种用于通信的系统,包括:
第一用户设备和第二用户设备;
其中所述第一用户设备被配置为显示第二虚拟视图和在一个位置的第一标记,其中在所述第二用户设备处远程地定义所述位置,其中所述第二虚拟视图是增强现实视图或全景视图;
其中所述第二用户设备被配置为:
显示基于用于所述第一用户设备的当前地理位置和当前有利地点而生成的第一虚拟视图,其中所述第一虚拟视图是增强现实视图或全景视图;
显示第二标记;以及
接受用于将所述第二标记从第一位置调整到第二位置的输入,其中所述第二位置指示在所述第二用户设备上显示的所述第一用户设备的所述当前地理位置的所述第一虚拟视图中的目标地理位置;以及
其中所述第一用户设备被配置为响应于所述调整,显示在所述当前地理位置的所述第二虚拟视图中的所述目标地理位置的所述第一标记,其中在所述第二虚拟视图中在所述目标地理位置处显示的所述第一标记向所述第一用户提供导航引导,以用于基于对所述第二标记做出的从所述第一位置到所述第二位置的所述调整来导航到所述目标地理位置。
22.根据权利要求21所述的系统,其中所述第一标记包括以下各项中的至少一项:持续指针或者非持续醒目显示区域,并且其中所述第二标记包括以下各项中的至少一项:持续指针或者非持续醒目显示区域。
23.根据权利要求21所述的系统,其中所述第二用户设备还被配置为通过在所述第二用户设备处显示与所述第一用户设备的所述当前地理位置和所述当前有利地点对应的全景视图来提供所述第一虚拟视图。
24.根据权利要求21所述的系统,其中所述第一用户设备还被配置为通过使得在所述第一用户设备处显示与所述第一用户设备的所述当前地理位置和所述当前有利地点对应的增强现实视图来提供所述第二虚拟视图。
25.根据权利要求23所述的系统,其中所述第二用户设备还被配置为接受用于改变在所述第二用户设备上显示的所述全景视图的所述有利地点的第一输入。
26.根据权利要求21所述的系统,其中所述第二用户设备还被配置为接受用于调整在所述第二用户设备上显示的所述全景视图上的所述第二标记的位置的第二输入,其中所述第一用户设备的所述显示的增强现实视图包括所述第一标记,并且所述第一标记响应于在所述第二用户设备的所述全景视图上的所述第二标记的所述位置的所述调整而移动。
27.根据权利要求21所述的系统,其中所述第二用户设备还被配置为提供在所述第一用户设备与所述第二用户设备之间的语音或者文本通信信道。
28.根据权利要求21所述的系统,其中所述第二用户设备还被配置为通过无线通信网络提供所述通信信道。
29.根据权利要求21所述的系统,其中使用持续第一指针来实施所述第一标记,所述持续第一指针首先在所述第一用户设备上的任何位置显示,并且然后移动到在所述第一用户设备上的、由在所述第二用户设备处操控所述第二标记的远程用户指定的显示位置。
30.根据权利要求21所述的系统,其中通过非持续指向机制来实施所述第二标记,从而所述第二用户设备被配置为接受在选择的显示建筑物或者所述显示建筑物的选择的部分上的手指敲击输入,并且醒目显示在与在所述第二用户设备上的所述手指敲击输入对应的地理位置处在所述第一用户设备和所述第二用户设备二者上被瞬时地或者暂时地显示,其中所述暂时地或者瞬时地醒目显示的区域被用来提供在所述第一用户设备上的所述第一标记以及在所述第二用户设备上的所述第二标记。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811045965.7A CN109584374A (zh) | 2012-02-02 | 2013-01-07 | 用于使用可移动引导标记来提供交互导航辅助的方法、装置和计算机可读存储介质 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/364,483 | 2012-02-02 | ||
US13/364,483 US9525964B2 (en) | 2012-02-02 | 2012-02-02 | Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers |
PCT/FI2013/050009 WO2013113984A1 (en) | 2012-02-02 | 2013-01-07 | Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811045965.7A Division CN109584374A (zh) | 2012-02-02 | 2013-01-07 | 用于使用可移动引导标记来提供交互导航辅助的方法、装置和计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104160369A CN104160369A (zh) | 2014-11-19 |
CN104160369B true CN104160369B (zh) | 2018-09-28 |
Family
ID=48902502
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811045965.7A Pending CN109584374A (zh) | 2012-02-02 | 2013-01-07 | 用于使用可移动引导标记来提供交互导航辅助的方法、装置和计算机可读存储介质 |
CN201380013278.6A Active CN104160369B (zh) | 2012-02-02 | 2013-01-07 | 用于使用可移动引导标记来提供交互导航辅助的方法、装置和计算机可读存储介质 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811045965.7A Pending CN109584374A (zh) | 2012-02-02 | 2013-01-07 | 用于使用可移动引导标记来提供交互导航辅助的方法、装置和计算机可读存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9525964B2 (zh) |
EP (2) | EP4099144A1 (zh) |
CN (2) | CN109584374A (zh) |
WO (1) | WO2013113984A1 (zh) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9325797B2 (en) * | 2012-02-29 | 2016-04-26 | Google Inc. | System and method for requesting an updated user location |
KR101533320B1 (ko) * | 2012-04-23 | 2015-07-03 | 주식회사 브이터치 | 포인터가 불필요한 3차원 객체 정보 획득 장치 |
JP6450064B2 (ja) * | 2013-03-18 | 2019-01-09 | 任天堂株式会社 | 情報処理装置、動画データのデータ構造、情報処理システム、動画再生プログラム、および、動画の再生方法。 |
WO2015116962A1 (en) | 2014-01-31 | 2015-08-06 | Hover Inc. | Scale error correction in a geo-referenced multi-dimensional model |
US9654693B2 (en) * | 2014-10-29 | 2017-05-16 | Gvbb Holdings S.A.R.L. | Degradation control of display pixels for a high definition display |
US20170053545A1 (en) * | 2015-08-19 | 2017-02-23 | Htc Corporation | Electronic system, portable display device and guiding device |
US11095727B2 (en) * | 2015-12-22 | 2021-08-17 | Samsung Electronics Co., Ltd. | Electronic device and server for providing service related to internet of things device |
EP3206121A1 (en) * | 2016-02-09 | 2017-08-16 | Nokia Technologies Oy | Methods and apparatuses relating to the handling of visual virtual reality content |
EP3206122A1 (en) | 2016-02-10 | 2017-08-16 | Nokia Technologies Oy | An apparatus and associated methods |
WO2018051310A1 (en) * | 2016-09-19 | 2018-03-22 | Project Ray Ltd. | System and method for remotely assisted user-orientation |
JP2018097160A (ja) * | 2016-12-14 | 2018-06-21 | セイコーエプソン株式会社 | 表示システム、表示装置、及び、表示装置の制御方法 |
CN107102794B (zh) * | 2017-04-27 | 2020-08-11 | 武汉数文科技有限公司 | 操作处理方法及装置 |
TWI672057B (zh) | 2017-05-02 | 2019-09-11 | 比利時商巴可公司 | 簡報伺服器、資料中繼方法以及產生虛擬指標之方法 |
CN107277450A (zh) * | 2017-07-14 | 2017-10-20 | 福建铁工机智能机器人有限公司 | 一种利用ar实现远程指挥现场救灾的方法及设备 |
CN107656961B (zh) * | 2017-08-04 | 2020-03-27 | 阿里巴巴集团控股有限公司 | 一种信息显示方法及装置 |
US11087558B1 (en) | 2017-09-29 | 2021-08-10 | Apple Inc. | Managing augmented reality content associated with a physical location |
CA3085741A1 (en) * | 2017-12-13 | 2019-06-20 | Aurelius, Inc. | Systems, devices, and methods for augmented reality |
US20210102820A1 (en) * | 2018-02-23 | 2021-04-08 | Google Llc | Transitioning between map view and augmented reality view |
CN108924453A (zh) * | 2018-06-19 | 2018-11-30 | 中国联合网络通信集团有限公司 | 视频流推送方法及系统、上报单元 |
US10488215B1 (en) * | 2018-10-26 | 2019-11-26 | Phiar Technologies, Inc. | Augmented reality interface for navigation assistance |
US11461942B2 (en) | 2018-12-21 | 2022-10-04 | Koninklijke Kpn N.V. | Generating and signaling transition between panoramic images |
US20210034869A1 (en) * | 2019-07-30 | 2021-02-04 | Didi Research America, Llc | Method and device for using augmented reality in transportation |
FR3102592B1 (fr) * | 2019-10-29 | 2022-02-11 | Immersion | Procédé d’interaction avec un utilisateur d’un système immersif et dispositif pour la mise en œuvre d’un tel procédé |
CN112465971B (zh) * | 2020-12-03 | 2022-05-13 | 贝壳技术有限公司 | 模型中点位的引导方法和装置、存储介质、电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101109643A (zh) * | 2007-08-22 | 2008-01-23 | 广东瑞图万方科技有限公司 | 导航装置 |
CN101640002A (zh) * | 2008-07-31 | 2010-02-03 | 宏达国际电子股份有限公司 | 电子地图标记的同步方法、系统及所使用的记录介质 |
CN102176770A (zh) * | 2011-02-17 | 2011-09-07 | 宇龙计算机通信科技(深圳)有限公司 | 在移动通信中协助导航的方法及移动终端 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7865306B2 (en) | 2000-09-28 | 2011-01-04 | Michael Mays | Devices, methods, and systems for managing route-related information |
SE0203908D0 (sv) | 2002-12-30 | 2002-12-30 | Abb Research Ltd | An augmented reality system and method |
US7460953B2 (en) | 2004-06-30 | 2008-12-02 | Navteq North America, Llc | Method of operating a navigation system using images |
RU2008110056A (ru) * | 2005-08-15 | 2009-09-27 | Конинклейке Филипс Электроникс Н.В. (Nl) | Система, устройство и способ для очков расширенной реальности для программирования конечным пользователем |
US8139514B2 (en) * | 2006-02-24 | 2012-03-20 | Yahoo! Inc. | Method and system for communicating with multiple users via a map over the internet |
JP2011515717A (ja) | 2008-03-24 | 2011-05-19 | グーグル インコーポレイテッド | 運転指図内のパノラマ画像 |
US8493408B2 (en) * | 2008-11-19 | 2013-07-23 | Apple Inc. | Techniques for manipulating panoramas |
US8943420B2 (en) | 2009-06-18 | 2015-01-27 | Microsoft Corporation | Augmenting a field of view |
JP5549220B2 (ja) | 2009-12-25 | 2014-07-16 | ソニー株式会社 | 連携表示システム、連携表示方法およびプログラム |
US8400548B2 (en) | 2010-01-05 | 2013-03-19 | Apple Inc. | Synchronized, interactive augmented reality displays for multifunction devices |
US20110279446A1 (en) * | 2010-05-16 | 2011-11-17 | Nokia Corporation | Method and apparatus for rendering a perspective view of objects and content related thereto for location-based services on mobile device |
US9582166B2 (en) | 2010-05-16 | 2017-02-28 | Nokia Technologies Oy | Method and apparatus for rendering user interface for location-based service having main view portion and preview portion |
US9071709B2 (en) * | 2011-03-31 | 2015-06-30 | Nokia Technologies Oy | Method and apparatus for providing collaboration between remote and on-site users of indirect augmented reality |
US20120299962A1 (en) * | 2011-05-27 | 2012-11-29 | Nokia Corporation | Method and apparatus for collaborative augmented reality displays |
US8812021B2 (en) * | 2011-12-02 | 2014-08-19 | Yellowpages.Com, Llc | System and method for coordinating meetings between users of a mobile communication network |
-
2012
- 2012-02-02 US US13/364,483 patent/US9525964B2/en active Active
-
2013
- 2013-01-07 EP EP21217228.2A patent/EP4099144A1/en active Pending
- 2013-01-07 WO PCT/FI2013/050009 patent/WO2013113984A1/en active Application Filing
- 2013-01-07 EP EP13743068.2A patent/EP2810153A4/en not_active Ceased
- 2013-01-07 CN CN201811045965.7A patent/CN109584374A/zh active Pending
- 2013-01-07 CN CN201380013278.6A patent/CN104160369B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101109643A (zh) * | 2007-08-22 | 2008-01-23 | 广东瑞图万方科技有限公司 | 导航装置 |
CN101640002A (zh) * | 2008-07-31 | 2010-02-03 | 宏达国际电子股份有限公司 | 电子地图标记的同步方法、系统及所使用的记录介质 |
CN102176770A (zh) * | 2011-02-17 | 2011-09-07 | 宇龙计算机通信科技(深圳)有限公司 | 在移动通信中协助导航的方法及移动终端 |
Also Published As
Publication number | Publication date |
---|---|
EP4099144A1 (en) | 2022-12-07 |
EP2810153A4 (en) | 2015-09-23 |
CN104160369A (zh) | 2014-11-19 |
US20130201214A1 (en) | 2013-08-08 |
EP2810153A1 (en) | 2014-12-10 |
CN109584374A (zh) | 2019-04-05 |
US9525964B2 (en) | 2016-12-20 |
WO2013113984A1 (en) | 2013-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104160369B (zh) | 用于使用可移动引导标记来提供交互导航辅助的方法、装置和计算机可读存储介质 | |
US11663785B2 (en) | Augmented and virtual reality | |
CN105659295B (zh) | 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备 | |
CN110944727B (zh) | 控制虚拟照相机的系统和方法 | |
EP3457253B1 (en) | Collaboration methods to improve use of 3d models in mixed reality environments | |
JP6635037B2 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
CN105637559B (zh) | 使用深度传感器的结构建模 | |
KR20190088545A (ko) | 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들 | |
US9256986B2 (en) | Automated guidance when taking a photograph, using virtual objects overlaid on an image | |
JP5755915B2 (ja) | 情報処理装置、拡張現実感提供方法、及びプログラム | |
EP3819752A1 (en) | Personalized scene image processing method and apparatus, and storage medium | |
CN112667179B (zh) | 一种基于混合现实的远程同步协作系统 | |
WO2018025825A1 (ja) | 撮像システム | |
JP6617547B2 (ja) | 画像管理システム、画像管理方法、プログラム | |
JP2011060254A (ja) | 拡張現実システム、拡張現実装置および仮想オブジェクト表示方法 | |
Rasmussen et al. | SceneCam: Improving multi-camera remote collaboration using augmented reality | |
CN108694257A (zh) | 在Web浏览器中浏览BIM模型时能对观察点进行准确定位的方法 | |
KR20170120299A (ko) | 립모션을 이용한 실감형 콘텐츠 서비스 시스템 | |
KR20180071492A (ko) | 키넥트 센서를 이용한 실감형 콘텐츠 서비스 시스템 | |
JP5965515B2 (ja) | 情報処理装置、拡張現実感提供方法、及びプログラム | |
JP2015121892A (ja) | 画像処理装置、画像処理方法 | |
JP2005018385A (ja) | 作業情報提供装置 | |
JP2011123748A (ja) | 携帯端末、描画システム及び描画方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C41 | Transfer of patent application or patent right or utility model | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20160114 Address after: Espoo, Finland Applicant after: Technology Co., Ltd. of Nokia Address before: Espoo, Finland Applicant before: Nokia Oyj |
|
GR01 | Patent grant | ||
GR01 | Patent grant |