CN111124128B - 位置提示方法及相关产品 - Google Patents

位置提示方法及相关产品 Download PDF

Info

Publication number
CN111124128B
CN111124128B CN201911361997.2A CN201911361997A CN111124128B CN 111124128 B CN111124128 B CN 111124128B CN 201911361997 A CN201911361997 A CN 201911361997A CN 111124128 B CN111124128 B CN 111124128B
Authority
CN
China
Prior art keywords
navigation
starting point
point position
virtual scene
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911361997.2A
Other languages
English (en)
Other versions
CN111124128A (zh
Inventor
郭富祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201911361997.2A priority Critical patent/CN111124128B/zh
Publication of CN111124128A publication Critical patent/CN111124128A/zh
Application granted granted Critical
Publication of CN111124128B publication Critical patent/CN111124128B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例公开了一种位置提示方法及相关产品,其中,位置提示方法应用于头戴式可视设备,该头戴式可视设备与共享设备建立网络连接,该方法包括:检测所述头戴式可视设备的起点位置和视线方向;根据所述起点位置和所述视线方向显示虚拟场景图像;当所述起点位置属于第一导航路段时,确定所述起点位置对应的导航方向,以及所述起点位置在所述第一导航路段中的剩余路段距离,所述第一导航路段为所述头戴式可视设备和所述共享设备之间的导航路线中的一个导航路段;在所述虚拟场景图像中标记所述第一导航路段、所述导航方向和所述剩余路段距离。采用本发明,可提高共享路线应用的操作便利性。

Description

位置提示方法及相关产品
技术领域
本申请涉及头戴式可视设备技术领域,具体涉及一种位置提示方法及相关产品。
背景技术
随着头戴式可视设备技术的发展,用户可单独使用头戴式可视设备(如头盔、眼镜或眼罩等)进行文字阅读、收发邮件、社交聊天、欣赏视频或者操作游戏等功能。在现有技术中,头戴式可视设备中显示的共享路线大多基于地图,对于方向感较差的用户来说体验不佳。
发明内容
本发明实施例提供一种位置提示方法及相关产品,可提高共享路线应用的操作便利性。
第一方面,本申请实施例提供一种位置提示方法,应用于头戴式可视设备,所述头戴式可视设备与共享设备建立网络连接,所述方法包括:
检测所述头戴式可视设备的起点位置和视线方向;
根据所述起点位置和所述视线方向显示虚拟场景图像;
当所述起点位置属于第一导航路段时,确定所述起点位置对应的导航方向,以及所述起点位置在所述第一导航路段中的剩余路段距离,所述第一导航路段为所述头戴式可视设备和所述共享设备之间的导航路线中的一个导航路段;
在所述虚拟场景图像中标记所述第一导航路段、所述导航方向和所述剩余路段距离。
第二方面,本申请实施例提供一种位置提示装置,应用于头戴式可视设备,所述头戴式可视设备与共享设备建立网络连接,所述装置包括:
检测单元,用于检测所述头戴式可视设备的起点位置和视线方向;
显示单元,用于根据所述起点位置和所述视线方向显示虚拟场景图像;
处理单元,用于当所述起点位置属于第一导航路段时,确定所述起点位置对应的导航方向,以及所述起点位置在所述第一导航路段中的剩余路段距离,所述第一导航路段为所述头戴式可视设备和所述共享设备之间的导航路线中的一个导航路段;
标记单元,用于在所述虚拟场景图像中标记所述第一导航路段、所述导航方向和所述剩余路段距离。
第三方面,本申请实施例提供一种头戴式可视设备,所述头戴式可视设备包括存储和处理电路,与所述存储和处理电路连接的传感器模块、定位模块和显示屏,其中:
所述传感器模块,用于检测所述头戴式可视设备的视线方向;
所述定位模块,用于检测所述头戴式可视设备的起点位置;
所述显示屏,用于根据所述起点位置和所述视线方向显示虚拟场景图像;
所述存储和处理电路,用于当所述起点位置属于第一导航路段时,确定所述起点位置对应的导航方向,以及所述起点位置在所述第一导航路段中的剩余路段距离,所述第一导航路段为所述头戴式可视设备和所述共享设备之间的导航路线中的一个导航路段;在所述虚拟场景图像中标记所述第一导航路段、所述导航方向和所述剩余路段距离。
第四方面,本申请实施例提供一种头戴式可视设备,包括处理器、传感器模块、定位模块、显示器、通信接口、存储器以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,所述程序包括用于如第一方面中所描述的部分或全部步骤的指令。
第五方面,本申请实施例提供了一种计算机可读存储介质,其中,所述计算机可读存储介质存储计算机程序,其中,所述计算机程序使得计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。
第六方面,本申请实施例提供了一种计算机程序产品,其中,所述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,所述计算机程序可操作来使计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
在本申请实施例中,头戴式可视设备根据自身对应的视线方向和起点位置显示虚拟场景图像。当该起点位置属于头戴式可视设备和与之建立网络连接的共享设备之间的导航路线中的一个导航路段时,头戴式可视设备确定该起点位置对应的导航方向,以及该起点位置在该导航路段中的剩余路段距离。然后,头戴式可视设备在显示的虚拟场景图像中标记该导航路段、导航方向和剩余路段距离。如此,头戴式可视设备在显示与起点位置和视线方向对应的虚拟场景图像的基础上,还显示了对应导航路段的方向和剩余路段距离,便于提示用户,可提高共享路线应用的操作便利性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种头戴式可视设备与共享设备建立连接的场景示意图;
图2为本发明实施例提供的一种头戴式可视设备的结构示意图;
图3为本发明实施例提供的一种位置提示方法的流程示意图;
图4为本发明实施例提供的一种全局场景模型的示意图;
图5为本发明实施例提供的另一种位置提示方法的流程示意图;
图6为本发明实施例提供的一种视锥区域的示意图;
图7为本发明实施例提供的一种采用视锥剔除算法的场景模型示意图;
图8为本发明实施例提供的一种采用遮挡剔除算法的场景模型示意图;
图9为本发明实施例中提供的又一种位置提示方法的流程示意图;
图10为本发明实施例中提供的另一种头戴式可视设备的结构示意图;
图11为本发明实施例中提供的一种位置提示装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本申请实施例中,头戴式可视设备作为可穿戴设备中的一种,可以是头盔、眼镜或眼罩等。头戴式可视设备可以与其他的头戴式可视设备、可穿戴设备,或者除了可穿戴设备之外的电子设备(例如,手持设备、车载设备、计算设备等)进行连接。
该网络可以是移动数据网络、无线保真(Wireless-Fidelity,Wi-Fi)网络或蓝牙(Bluetooth)网络,也可以是基于低功耗广域网(low-power Wide-Area Network,LPWAN)技术建立的自组网。其中,LPWAN可包括工作于未授权频谱的LoRa、SigFox、Weightless、Halow、随机相位多址接入(Random Phase Multiple Access,RPMA)、Qowisio、N-Wave、Telensa、DART等。
在本申请实施例,将与头戴式可视设备建立网络连接,并允许与头戴式可视设备进行位置共享的设备作为共享设备。本申请以头戴式可视设备为眼镜,共享设备为手机进行举例说明,如图1所示,头戴式可视设备10与手机20建立网络连接。该头戴式可视设备10可作为手机20的显示设备,也可以单独进行显示。头戴式可视设备10的显示内容可以是基于虚拟现实技术的图像。
虚拟现实技术(Virtual Reality,VR)又称灵境技术,是以沉浸性、交互性和构想性为基本特征的计算机高级人机界面。它综合利用了计算机图形学、仿真技术、多媒体技术、人工智能技术、计算机网络技术、并行处理技术和多传感器技术,模拟人的视觉、听觉、触觉等感觉器官功能,使人能够沉浸在计算机生成的虚拟境界中,并能够通过语言、手势、鼠标和键盘等方式与之进行实时交互,创建了一种适人化的多维信息空间。
请参阅图2,图2是本申请实施例提供了一种头戴式可视设备10的结构示意图。如图2所示,上述头戴式可视设备10可包括:处理器110、传感器模块120、定位模块130和显示器140。
在本申请实施例中,处理器110可以用于控制头戴式可视设备10的运转。该处理电路可以基于一个或多个微处理器,微控制器,数字信号处理器,基带处理器,功率管理单元,音频编解码器芯片,专用集成电路,显示驱动器集成电路等来实现。
处理器110可用于运行头戴式可视设备10中的软件,例如互联网浏览应用程序,互联网协议语音(Voice over Internet Protocol,VOIP)电话呼叫应用程序,电子邮件应用程序,媒体播放应用程序,操作系统功能等。这些软件可以用于执行一些控制操作,例如,基于照相机的图像采集,基于环境光传感器的环境光测量,基于接近传感器的接近传感器测量,基于诸如发光二极管的状态指示灯等状态指示器实现的信息显示功能,基于触摸传感器的触摸事件检测,与在多个(例如分层的)显示屏上显示信息相关联的功能,与执行无线通信功能相关联的操作,与收集和产生音频信号相关联的操作,与收集和处理按钮按压事件数据相关联的控制操作,以及头戴式可视设备10中的其它功能等,本申请实施例不作限制。
在本申请实施例中,传感器模块120包括电子罗盘和陀螺仪。其中,电子罗盘可作为导航仪器或姿态传感器已被广泛应用。通过电子罗盘可用于指示头戴式可视设备10的方向。陀螺仪为三轴陀螺仪,陀螺仪可同时测定6个方向的位置、移动轨迹、转动角度和加速度,所测的方向和位置是立体的。通过陀螺仪可检测头戴式可视设备10的转动角度。此外,传感器模块120还包括光传感器、气压计、湿度计、温度计、红外线传感器等等传感器。
在本申请实施例中,定位模块130用于确定头戴式可视设备10的当前位置,可以基于全球卫星导航系统(Global Navigation Satellite System,GNSS)。该GNSS泛指所有的卫星导航系统,包括全球的、区域的和增强的,如美国的全球定位系统(GlobalPositioning System,GPS)、俄罗斯的全球卫星导航系统-格洛纳斯(GLONASS)、欧洲的伽利略卫星导航系统(Galileo)、中国的北斗卫星导航系统,以及相关的增强系统,如美国的广域增强系统(Wide Area Augmentation System,WAAS)、欧洲的静地导航重叠系统(EGNOS)和日本的多功能运输卫星增强系统(Multi-Functional Satellite AugmentationSystem,MSAS)等,还涵盖在建和以后要建设的其他卫星导航系统。国际GNSS系统是个多系统、多层面、多模式的复杂组合系统。
在本申请实施例中,头戴式可视设备10还可包括一个或多个显示器140。显示器140可以包括液晶显示屏,有机发光二极管显示屏,电子墨水显示屏,等离子显示屏,使用其它显示技术的显示屏中一种或者几种的组合。显示器140可以包括触摸传感器阵列(即,显示器140可以是触控显示屏)。触摸传感器可以是由透明的触摸传感器电极(例如氧化铟锡(ITO)电极)阵列形成的电容式触摸传感器,或者可以是使用其它触摸技术形成的触摸传感器,例如音波触控,压敏触摸,电阻触摸,光学触摸等,本申请实施例不作限制。
在本申请实施例中,头戴式可视设备10还包括存储器,例如硬盘驱动存储器,非易失性存储器(例如闪存或用于形成固态驱动器的其它电子可编程只读存储器等),易失性存储器(例如静态或动态随机存取存储器等)等,本申请实施例不作限制。
在本申请实施例中,头戴式可视设备10还包括通信接口160,用于为头戴式可视设备10提供与外部设备通信的能力。通信接口160可以包括模拟和数字输入输出接口电路,和基于射频信号和/或光信号的无线通信电路。通信接口160中的无线通信电路可以包括射频收发器电路、功率放大器电路、低噪声放大器、开关、滤波器和天线。举例来说,通信接口160中的无线通信电路可以包括用于通过发射和接收近场耦合电磁信号来支持近场通信(nearfield communication,NFC)的电路。例如,通信接口160可以包括近场通信天线和近场通信收发器。通信接口160还可以包括蜂窝电话收发器和天线,无线局域网收发器电路和天线等。
可选的,头戴式可视设备10可通过通信接口160向共享设备发送位置共享请求,并通过该通信接口160接收共享设备针对该位置共享请求发送的目标位置。如此,处理器110可根据接收到的目标位置和该头戴式可视设备10的当前位置确定该头戴式可视设备10和共享设备之间的位置共享地图,并基于虚拟现实技术显示于显示器140上。
以上仅为举例,头戴式可视设备10还包括音频输入接口、串行端口、键盘、扬声器、充电接口等输入输出接口,摄像头、蓝牙模块等未示出的模块,本申请不作限定。
在本申请实施例中,所述传感器模块120用于检测所述头戴式可视设备的视线方向,所述定位模块130用于检测所述头戴式可视设备的起点位置,所述显示器140用于根据所述起点位置和所述视线方向显示虚拟场景图像,所述处理器110用于当所述起点位置属于第一导航路段时,确定所述起点位置对应的导航方向,以及所述起点位置在所述第一导航路段中的剩余路段距离,所述第一导航路段为所述头戴式可视设备和所述共享设备之间的导航路线中的一个导航路段;在所述虚拟场景图像中标记所述第一导航路段、所述导航方向和所述剩余路段距离。
可见,在显示虚拟场景图像的基础上,还显示了对应导航路段的方向和剩余路段距离,便于提示用户,提高了位置共享应用的操作便利性。
在一个可能的示例中,在所述根据所述起点位置和所述视线方向显示虚拟场景图像方面,所述处理器110用于根据所述起点位置和所述视线方向获取虚拟场景模型;获取预设显示区域的尺寸;根据所述尺寸调整所述虚拟场景模型,得到虚拟场景图像;所述显示器140具体用于在所述预设显示区域,显示所述虚拟场景图像。
在一个可能的示例中,在所述根据所述起点位置和所述视线方向获取虚拟场景模型方面,所述处理器110具体用于采用视锥剔除算法在预设的全局场景模型中,确定与所述视点位置和所述视线方向对应的视锥区域内的场景模型;采用遮挡剔除算法在所述视锥区域内的场景模型中,将可见性为可见的场景模型作为虚拟场景模型。
在一个可能的示例中,在所述根据所述起点位置和所述视线方向获取虚拟场景模型之前,所述处理器110还用于生成遮挡层;所述显示器140还用于在所述遮挡层上显示预设图像;在所述根据所述尺寸调整所述虚拟场景模型,得到虚拟场景图像之后,所述处理器110还用于移除所述遮挡层。
在一个可能的示例中,在所述遮挡层上显示预设图像之前,所述处理器110还用于确定所述起点位置和所述共享设备的目标位置之间的直线距离;根据所述视线方向、所述起点位置和所述目标位置确定导航方向角;所述通信接口160用于接收所述共享设备发送的所述目标位置和所述导航方向角对应的目标图像;所述处理器110还用于在所述目标图像上标记所述导航方向角和所述直线距离,得到所述预设图像。
在一个可能的示例中,所述处理器110还用于当所述视线方向与所述导航方向不一致时,确定所述视线方向和所述导航方向之间的夹角;在所述虚拟场景图像中标记所述夹角。
在一个可能的示例中,所述处理器110还用于当所述起点位置不属于所述导航路线之间的任一导航路段时,根据所述起点位置确定所述导航路线中的第二导航路段;确定所述起点位置和所述第二导航路段之间的目标路段,并确定所述目标路段的行驶方向和路段长度;在所述虚拟场景图像中标记所述目标路段、所述行驶方向和所述路段长度。
下面对本申请实施例进行详细介绍。
请参阅图3,图3是本申请实施例提供了一种位置提示方法的流程示意图。如图3所示,本位置提示方法应用于头戴式可视设备,该头戴式可视设备与共享设备建立网络连接。该方法包括:
S301:检测头戴式可视设备的起点位置和视线方向。
在本申请实施例中,起点位置指头戴式可视设备的当前位置。该起点位置可通过上述的定位模块进行确定。视线方向指佩戴头戴式可视设备的用户注视该头戴式可视设备的方向。该视线方向可通过电子罗盘进行确定,也可以通过陀螺仪进行确定,在此不做限定。视线方向的初始位置通常为开机或应用启动时的位置。视点位置指用户注视该头戴式可视设备的焦点位置,可根据视线方向和起点位置确定的位置,即视线方向和起点位置对应的竖直方向之间的交点。需要说明的是,当视线方向变化时,头戴式可视设备所显示的图像也随着视线方向和视点位置移动。
举例来说,请参照图4,如图4所示,视点位置为E点的坐标点为(234,358)。其中EF方向为原始的视线方向,转动角度为80度,即为EF′为所表示的转动之后的视线方向。视点位置从头戴式可视设备的显示屏与EF方向相交的位置,移动到与EF′方向相交的位置。
S302:根据所述起点位置和所述视线方向显示虚拟场景图像。
在本申请实施例中,虚拟场景图像指的是对虚拟现实中的具体物体进行建模,例如一个城市的虚拟现实图像中,包含楼房、道路和路牌等物体,将这些物体进行合理的建模保存之后,根据显示设备的相关参数进行还原绘制得到的图像。该虚拟场景图像为佩戴头戴式可视设备的用户当前可视的现实场景的立体图像。可以理解,当头戴式可视设备显示该虚拟场景图像,可展示立体视觉,便于用户熟悉道路。
S303:判断所述起点位置是否属于头戴式可视设备和共享设备之间的导航路线中的一个导航路段。
在本申请实施例中,导航路段是指头戴式可视设备和共享设备之间的可行路线,即在头戴式可视设备和共享设备之间进行位置共享之后,根据实际道路情况所选择的路线。可以理解,一个路线可能出现转弯,掉头等情况。因此,在本申请实施例中,将导航路线划分为多个导航路段。如此,分段进行提示,避免用户迷路,可提高应用的便利性。
在本申请实施例中,当起点位置属于头戴式可视设备和共享设备之间的导航路线中的一个导航路段时,执行步骤S304。否则执行步骤S306。
S304:确定所述起点位置对应的导航方向,以及所述起点位置在对应的第一导航路段中的剩余路段距离。
在本申请实施例中,导航方向是指在起点位置时该行驶的方向,例如,直走的导航方向朝向北方;掉头的导航方向朝向南方;右转的导航方向朝向东方;左转的导航方向朝向西方。
在本申请实施例中,将起点位置属于头戴式可视设备和共享设备之间的导航路线中的一个导航路段作为第一导航路段。剩余路段距离指起点位置与该第一导航路段的终点位置的距离。
S305:在所述虚拟场景图像中标记所述第一导航路段、所述导航方向和所述剩余路段距离。
可以理解,当起点位置属于头戴式可视设备和共享设备之间的导航路线中的一个导航路段时,表示用户到达正确的导航路线上。该头戴式可视设备在显示与起点位置和视线方向对应的虚拟场景图像的基础上,还显示了对应导航路段的方向和剩余路段距离,便于提示用户,提高了位置共享应用的操作便利性。
可选的,所述方法还包括:当所述视线方向与所述导航方向不一致时,确定所述视线方向和所述导航方向之间的夹角;在所述虚拟场景图像中标记所述夹角。
可以理解,在视线方向和导航方向不一致时,用户可能走错道路,因此确定视线方向和导航方向之间的夹角,并在虚拟场景图像中标记该夹角,从而避免走错,便于进一步提高共享路线的操作便利性。
可选的,还可在虚拟场景图像中标记剩余时间。该剩余时间可根据头戴式可视设备记录的历史行驶信息确定行驶速度,再将剩余路段距离除以行驶速度得到预测的剩余时间。如此,用户可进一步了解行驶情况。
S306:根据所述起点位置确定所述导航路线中的第二导航路段。
在本申请实施例中,第二导航路段可以是与头戴式可视设备和共享设备之间的导航路线中与起点位置最近的一个导航路段,也可以是根据起点位置计算行驶时间,所选择的花费时间最少的一个导航路段。
S307:确定所述起点位置和所述第二导航路段之间的目标路段,并确定所述目标路段的行驶方向和路段长度。
S308:在所述虚拟场景图像中标记所述目标路段、所述行驶方向和所述路段长度。
在本申请实施例中,目标路段是指从起点位置到第二导航路段的路线。可以理解,当起点位置不属于头戴式可视设备和共享设备之间的导航路线中的一个导航路段时,表示用户未到达正确的导航路线上。因此,确定该导航路线中的第二导航路段,并确定从起点位置到第二导航路段的目标路段,以及该目标路段的行驶方向和路段长度。然后,在显示与起点位置和视线方向对应的虚拟场景图像的基础上,还显示了该目标路段,以及该目标路段的行驶方向和路段长度。如此,用户走错时进行提示,提高了位置共享的操作便利性。
与上述图3所示的实施例一致的,请参阅图5,图5是本申请实施例提供了另一种位置提示方法的流程示意图。如图5所示,本位置提示方法应用于头戴式可视设备,该头戴式可视设备与共享设备建立网络连接。其中,步骤S502~S503为上述步骤S302的具体实施方式。该方法包括:
S501:检测头戴式可视设备的起点位置和视线方向。
其中,步骤S501可参照步骤S301的描述,在此不做限定。
S502:根据所述起点位置和所述视线方向获取虚拟场景模型。
在本申请实施例中,虚拟场景模型指的是对虚拟现实中的具体物体进行建模得到模型。本申请对于获取虚拟场景模型的方法不做限定,步骤S502可包括以下步骤S11~S13。其中:
S11:根据所述起点位置和所述视线方向确定视点位置。
视点位置指用户注视该头戴式可视设备的焦点位置,可根据视线方向和起点位置对应的竖直方向之间的交点进行确定。
S12:采用视锥剔除算法在预设的全局场景模型中,确定与所述视点位置和所述视线方向对应的视锥区域内的场景模型。
视锥剔除算法是指通过坐标转换为世界矩阵、观察矩阵和投影矩阵得到视锥区域,将不在视锥区域内的场景模型剔除,剔除后就能减少处理场景模型的数量,能够大大减少后续处理阶段(如几何变换阶段和光栅化阶段)的计算量。其中,世界坐标系转换将顶点从几何模型坐标系移到世界坐标系中。所有顶点在转换到世界坐标系后,观察坐标系转换将其从世界坐标系转换为观察坐标系中。在观察坐标系内,观测者将站在原点(或者说以观测者为原点),透视的方向即是Z轴方向,即观察方向为Z轴方向。投影坐标系转换即是将定点转换为三维坐标系,顶点的X和Y坐标是根据在三维空间中的X/Z和Y/Z的比率获得的。如图6所示,以视点位置E点为顶点,视线方向EF′为观测方向,经过坐标转换得到世界矩阵、观察矩阵和投影矩阵后,可得到视锥区域。
在一个场景中,由于每一个场景模型都有其自己的大小,方向和位置,所以每一个场景模型都有它的世界矩阵、观察矩阵以及投影矩阵。也就是说,可根据场景模型的水平方向、垂直方向和缩放大小计算场景模型的世界矩阵、观察矩阵以及投影矩阵,从而判断视锥区域内的场景模型。
根据视点位置和视线方向以及视锥剔除算法在预设的全局场景模型中确定视锥区域内的场景模型,也就是说根据视线方向和视线方向在全局场景模型中确定视锥区域和视锥区域内的场景模型,它有上、下、左、右、近、远,共6个面组成。也就是说,在全局场景模型中保留视锥区域内的场景模型,反之删除,减少图像处理器的绘制对象,从而提高图像处理器的处理效率。
如图6所示的视锥区域示意图,朝着视点位置E向视线方向EF′描绘的图像偏离线夹角与两个裁剪面定义的截棱锥为视锥体,也就是虚线所描述的截棱锥为视锥体,视锥体所覆盖的区域为视锥区域,可以看出编号1和编号2的场景模型在视锥区域内,而编号3和编号4的场景模型不在视锥区域内。则经过视锥剔除算法后得到的场景模型示意图如图7所示,剔除了编号3和编号4的场景模型,视锥区域内只有编号1和编号2的场景模型。
S13:采用遮挡剔除算法在所述视锥区域内的场景模型中,将可见性为可见的场景模型作为虚拟场景模型。
遮挡剔除不同于视锥体剔除,视锥体剔除只是不渲染视角范围外的物体而对于被其他物体遮挡依然在视角范围内的物体,则不会被剔除。进一步的,获取可见对象集的层级视图中的场景模型,也就是获取视锥区域内的场景模型的可见性,从而确定可见的和不可见的场景模型,对目标场景模型进行渲染,确保仅渲染可见对象从而减少绘制调用的次数,提高图像处理器的处理效率。需要说明的是,目标场景模型至少包括一个以上的场景模型。
已知图7为视锥剔除的场景示意图,视锥区域内包含编号1和编号2的场景模型。而如图6所示的视锥区域示意图中,编号1和编号2的场景模型在视锥区域内,且编号1的场景模型完全被编号2的场景模型遮挡,则编号1的场景模型的可见性为不可见,编号2的场景模型的可见性为可见,所以编号2的场景模型作为目标场景模型。则经过遮挡剔除算法后得到的场景模型示意图如图8所示,视锥区域内只有编号2的场景模型,即编号2的场景模型为目标场景模型,获取目标场景模型的信息进行绘制即可生成虚拟场景图像。
在步骤S11~S13中,采用视锥剔除算法以及遮挡剔除算法获取虚拟场景模型,可提高虚拟场景图像的准确性和图像处理效率。
S503:获取预设显示区域的尺寸。
在本申请实施例中,预设显示区域可以是显示屏中的任一区域,在此不做限定。
S504:根据所述尺寸调整所述虚拟场景模型,得到虚拟场景图像。
S505:在所述预设显示区域,显示所述虚拟场景图像。
S506:当所述起点位置属于第一导航路段时,确定所述起点位置对应的导航方向,以及所述起点位置在所述第一导航路段中的剩余路段距离,所述第一导航路段为所述头戴式可视设备和所述共享设备之间的导航路线中的一个导航路段。
S507:在所述虚拟场景图像中标记所述第一导航路段、所述导航方向和所述剩余路段距离。
在如图5所示的方法中,采用视锥剔除算法以及遮挡剔除算法获取与起点位置和视线方向对应的虚拟场景模型。再根据预设显示区域的尺寸调整虚拟场景模型以得到虚拟场景图像,并显示该虚拟场景图像。若该起点位置属于头戴式可视设备和与之建立网络连接的共享设备之间的导航路线中的一个导航路段,在显示的虚拟场景图像中标记该导航路段、导航方向和剩余路段距离。如此,提高了场景的真实性和位置共享应用的操作便利性。
与上述图5所示的实施例一致的,请参阅图9,图9是本申请实施例提供了又一种位置提示方法的流程示意图。如图9所示,本位置提示方法应用于头戴式可视设备,该头戴式可视设备与共享设备建立网络连接。该方法包括:
S901:检测头戴式可视设备的起点位置和视线方向。
其中,步骤S901可参照步骤S301的描述,在此不做限定。
S902:生成遮挡层,在所述遮挡层上显示预设图像。
在本申请实施例中,对于预设图像不做限定,该预设图像可显示头戴式可视设备和共享设备之间共享路径的大致情况。可选的,所述方法还包括步骤S21~S24,其中:
S21:确定所述起点位置和所述共享设备的目标位置之间的直线距离。
在本申请实施例中,目标位置为共享设备的当前位置。直线距离可根据起点位置和目标位置进行计算。
S22:根据所述视线方向、所述起点位置和所述目标位置确定导航方向角。
在本申请实施例中,导航方向角可根据起点位置和目标位置对应的直线,以及视线方向之间的夹角进行确定。
S23:接收所述共享设备发送的所述目标位置和所述导航方向角对应的目标图像。
在本申请实施例中,目标图像为共享设备在目标位置上与导航方向角对应的图像。
S24:在所述目标图像上标记所述导航方向角和所述直线距离,得到所述预设图像。
实施步骤S21~S24,预设图像可包括标记了直线距离和导航方向角的目标图像。如此,用户通过预设图像可大致了解目标位置的图像和距离。
S903:根据所述起点位置和所述视线方向获取虚拟场景模型。
S904:获取预设显示区域的尺寸。
S905:根据所述尺寸调整所述虚拟场景模型,得到虚拟场景图像。
S906:移除所述遮挡层。
S907:在所述预设显示区域,显示所述虚拟场景图像。
可以理解,在生成虚拟场景图像之前,显示预设图像,当虚拟场景图像生成后,移除遮挡层,展示虚拟场景图像,可提高浏览效果,为图像处理提供必要的时间。另一方面,若头戴式可视设备未连接移动数据网络和无线网络,或者该头戴式可视设备未存储虚拟现实模型,则当头戴式可视设备与共享设备建立自主连接之后,可显示一个预设图像,以使用户了解大致情况,提高了共享路径应用的多样性。
与上述图3、图5和图9所示的实施例一致的,请参阅图10,图10是本申请实施例提供的另一种头戴式可视设备10的结构示意图。如图10所示,该头戴式可视设备包括处理器110、传感器模块120、定位模块130、显示器140、存储器150、通信接口160以及一个或多个程序151。处理器110通过总线170连接传感器模块120、定位模块130、显示器140、存储器150和通信接口160。上述一个或多个程序151被存储在上述存储器150中,并且被配置由上述处理器110执行,上述程序151包括用于执行以下步骤的指令:
检测所述头戴式可视设备的起点位置和视线方向;
根据所述起点位置和所述视线方向显示虚拟场景图像;
当所述起点位置属于第一导航路段时,确定所述起点位置对应的导航方向,以及所述起点位置在所述第一导航路段中的剩余路段距离,所述第一导航路段为所述头戴式可视设备和所述共享设备之间的导航路线中的一个导航路段;
在所述虚拟场景图像中标记所述第一导航路段、所述导航方向和所述剩余路段距离。
可以看出,在显示与起点位置和视线方向对应的虚拟场景图像的基础上,还显示了对应导航路段的方向和剩余路段距离,便于提示用户,可提高共享路线应用的操作便利性。
在一个可能的示例中,在所述根据所述起点位置和所述视线方向显示虚拟场景图像方面,所述程序151中的指令具体用于执行以下操作:
根据所述起点位置和所述视线方向获取虚拟场景模型;
获取预设显示区域的尺寸;
根据所述尺寸调整所述虚拟场景模型,得到虚拟场景图像;
在所述预设显示区域,显示所述虚拟场景图像。
在一个可能的示例中,在所述根据所述起点位置和所述视线方向获取虚拟场景模型方面,所述程序151中的指令具体用于执行以下操作:
根据所述起点位置和所述视线方向确定视点位置;
采用视锥剔除算法在预设的全局场景模型中,确定与所述视点位置和所述视线方向对应的视锥区域内的场景模型;
采用遮挡剔除算法在所述视锥区域内的场景模型中,将可见性为可见的场景模型作为虚拟场景模型。
在一个可能的示例中,在所述根据所述起点位置和所述视线方向获取虚拟场景模型之前,所述程序151中的指令还用于执行以下操作:
生成遮挡层,在所述遮挡层上显示预设图像;
在所述根据所述尺寸调整所述虚拟场景模型,得到虚拟场景图像之后,移除所述遮挡层。
在一个可能的示例中,在所述遮挡层上显示预设图像之前,所述程序151中的指令还用于执行以下操作:
确定所述起点位置和所述共享设备的目标位置之间的直线距离;
根据所述视线方向、所述起点位置和所述目标位置确定导航方向角;
接收所述共享设备发送的所述目标位置和所述导航方向角对应的目标图像;
在所述目标图像上标记所述导航方向角和所述直线距离,得到所述预设图像。
在一个可能的示例中,所述程序151中的指令还用于执行以下操作:
当所述视线方向与所述导航方向不一致时,确定所述视线方向和所述导航方向之间的夹角;
在所述虚拟场景图像中标记所述夹角。
在一个可能的示例中,所述程序151中的指令还用于执行以下操作:
当所述起点位置不属于所述导航路线之间的任一导航路段时,根据所述起点位置确定所述导航路线中的第二导航路段;
确定所述起点位置和所述第二导航路段之间的目标路段,并确定所述目标路段的行驶方向和路段长度;
在所述虚拟场景图像中标记所述目标路段、所述行驶方向和所述路段长度。
请参照图11,图11所示的位置提示装置应用于头戴式可视设备,该头戴式可视设备与共享设备建立网络连接。如图11所示,该位置提示装置包括:
检测单元1001,用于检测所述头戴式可视设备的起点位置和视线方向;
显示单元1002,用于根据所述起点位置和所述视线方向显示虚拟场景图像;
处理单元1003,用于当所述起点位置属于第一导航路段时,确定所述起点位置对应的导航方向,以及所述起点位置在所述第一导航路段中的剩余路段距离,所述第一导航路段为所述头戴式可视设备和所述共享设备之间的导航路线中的一个导航路段;
标记单元1004,用于在所述虚拟场景图像中标记所述第一导航路段、所述导航方向和所述剩余路段距离。
可以看出,在显示与起点位置和视线方向对应的虚拟场景图像的基础上,还显示了对应导航路段的方向和剩余路段距离,便于提示用户,可提高共享路线应用的操作便利性。
在一个可能的示例中,所述处理单元1003还用于根据所述起点位置和所述视线方向获取虚拟场景模型;获取预设显示区域的尺寸;根据所述尺寸调整所述虚拟场景模型,得到虚拟场景图像;所述显示单元1002具体用于在所述预设显示区域,显示所述虚拟场景图像。
在一个可能的示例中,所述处理单元1003具体用于根据所述起点位置和所述视线方向确定视点位置;采用视锥剔除算法在预设的全局场景模型中,确定与所述视点位置和所述视线方向对应的视锥区域内的场景模型;采用遮挡剔除算法在所述视锥区域内的场景模型中,将可见性为可见的场景模型作为虚拟场景模型。
在一个可能的示例中,在所述根据所述起点位置和所述视线方向获取虚拟场景模型之前,所述处理单元1003还用于生成遮挡层;所述显示单元1002还用于在所述遮挡层上显示预设图像;在所述根据所述尺寸调整所述虚拟场景模型,得到虚拟场景图像之后,所述处理单元1003还用于移除所述遮挡层。
在一个可能的示例中,在所述遮挡层上显示预设图像之前,所述处理单元1003还用于确定所述起点位置和所述共享设备的目标位置之间的直线距离;根据所述视线方向、所述起点位置和所述目标位置确定导航方向角;所述装置还包括通信单元1005用于接收所述共享设备发送的所述目标位置和所述导航方向角对应的目标图像;所述标记单元1004还用于在所述目标图像上标记所述导航方向角和所述直线距离,得到所述预设图像。
在一个可能的示例中,所述处理单元1003还用于当所述视线方向与所述导航方向不一致时,确定所述视线方向和所述导航方向之间的夹角;所述标记单元904还用于在所述虚拟场景图像中标记所述夹角。
在一个可能的示例中,所述处理单元1003还用于当所述起点位置不属于所述导航路线之间的任一导航路段时,根据所述起点位置确定所述导航路线中的第二导航路段;确定所述起点位置和所述第二导航路段之间的目标路段,并确定所述目标路段的行驶方向和路段长度;所述标记单元1004还用于在所述虚拟场景图像中标记所述目标路段、所述行驶方向和所述路段长度。
本申请实施例还提供一种计算机存储介质,其中,该计算机存储介质存储用于存储计算机程序,该计算机程序使得计算机执行如方法实施例中记载的任一方法的部分或全部步骤,计算机包括头戴式可视设备。
本申请实施例还提供一种计算机程序产品,计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,计算机程序可操作来使计算机执行如方法实施例中记载的任一方法的部分或全部步骤。该计算机程序产品可以为一个软件安装包,计算机包括头戴式可视设备。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模式并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件程序模式的形式实现。
集成的单元如果以软件程序模式的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(read-only memory,ROM)、随机存取存储器(randomaccess memory,RAM)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、ROM、RAM、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本申请的限制。

Claims (9)

1.一种位置提示方法,其特征在于,应用于头戴式可视设备,所述头戴式可视设备与共享设备建立网络连接,所述方法包括:
生成遮挡层;
检测所述头戴式可视设备的起点位置和视线方向;
确定所述起点位置和所述共享设备的目标位置之间的直线距离;
根据所述视线方向、所述起点位置和所述目标位置确定导航方向角;
接收所述共享设备发送的所述目标位置和所述导航方向角对应的目标图像;
在所述目标图像上标记所述导航方向角和所述直线距离,得到预设图像;
在所述遮挡层上显示所述预设图像;
根据所述起点位置和所述视线方向显示虚拟场景图像;
当所述起点位置属于第一导航路段时,确定所述起点位置对应的导航方向,以及所述起点位置在所述第一导航路段中的剩余路段距离,所述第一导航路段为所述头戴式可视设备和所述共享设备之间的导航路线中的一个导航路段;
在所述虚拟场景图像中标记所述第一导航路段、所述导航方向和所述剩余路段距离。
2.根据权利要求1所述的方法,其特征在于,所述根据所述起点位置和所述视线方向显示虚拟场景图像,包括:
根据所述起点位置和所述视线方向获取虚拟场景模型;
获取预设显示区域的尺寸;
根据所述尺寸调整所述虚拟场景模型,得到虚拟场景图像;
在所述预设显示区域,显示所述虚拟场景图像。
3.根据权利要求2所述的方法,其特征在于,所述根据所述起点位置和所述视线方向获取虚拟场景模型,包括:
根据所述起点位置和所述视线方向确定视点位置;
采用视锥剔除算法在预设的全局场景模型中,确定与所述视点位置和所述视线方向对应的视锥区域内的场景模型;
采用遮挡剔除算法在所述视锥区域内的场景模型中,将可见性为可见的场景模型作为虚拟场景模型。
4.根据权利要求2或3所述的方法,其特征在于,在所述根据所述起点位置和所述视线方向获取虚拟场景模型之前,所述方法还包括:
在所述根据所述尺寸调整所述虚拟场景模型,得到虚拟场景图像之后,移除所述遮挡层。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述方法还包括:
当所述视线方向与所述导航方向不一致时,确定所述视线方向和所述导航方向之间的夹角;
在所述虚拟场景图像中标记所述夹角。
6.根据权利要求1-4任一项所述的方法,其特征在于,所述方法还包括:
当所述起点位置不属于所述导航路线之间的任一导航路段时,根据所述起点位置确定所述导航路线中的第二导航路段;
确定所述起点位置和所述第二导航路段之间的目标路段,并确定所述目标路段的行驶方向和路段长度;
在所述虚拟场景图像中标记所述目标路段、所述行驶方向和所述路段长度。
7.一种位置提示装置,其特征在于,应用于头戴式可视设备,所述头戴式可视设备与共享设备建立网络连接,所述装置包括:
检测单元,用于检测所述头戴式可视设备的起点位置和视线方向;
显示单元,用于根据所述起点位置和所述视线方向显示虚拟场景图像;
处理单元,还用于当所述起点位置属于第一导航路段时,确定所述起点位置对应的导航方向,以及所述起点位置在所述第一导航路段中的剩余路段距离,所述第一导航路段为所述头戴式可视设备和所述共享设备之间的导航路线中的一个导航路段;
标记单元,用于在所述虚拟场景图像中标记所述第一导航路段、所述导航方向和所述剩余路段距离;
所述处理单元,还用于生成遮挡层;确定所述起点位置和所述共享设备的目标位置之间的直线距离;根据所述视线方向、所述起点位置和所述目标位置确定导航方向角;
通信单元,用于接收所述共享设备发送的所述目标位置和所述导航方向角对应的目标图像;
所述标记单元,还用于在所述目标图像上标记所述导航方向角和所述直线距离,得到预设图像;
所述显示单元,还用于在所述遮挡层上显示所述预设图像。
8.一种头戴式可视设备,其特征在于,包括处理器、传感器模块、定位模块、显示器、通信接口、存储器,所述存储器用于存储一个或多个程序,并且被配置由所述处理器执行,所述程序包括用于执行如权利要求1-6任一项所述的方法中的步骤的指令。
9.一种计算机可读存储介质,其特征在于,其用于存储计算机程序,其中,所述计算机程序使得计算机执行如权利要求1-6任一项所述的方法。
CN201911361997.2A 2019-12-24 2019-12-24 位置提示方法及相关产品 Active CN111124128B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911361997.2A CN111124128B (zh) 2019-12-24 2019-12-24 位置提示方法及相关产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911361997.2A CN111124128B (zh) 2019-12-24 2019-12-24 位置提示方法及相关产品

Publications (2)

Publication Number Publication Date
CN111124128A CN111124128A (zh) 2020-05-08
CN111124128B true CN111124128B (zh) 2022-05-17

Family

ID=70502737

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911361997.2A Active CN111124128B (zh) 2019-12-24 2019-12-24 位置提示方法及相关产品

Country Status (1)

Country Link
CN (1) CN111124128B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113721599B (zh) * 2020-05-25 2023-10-20 华为技术有限公司 定位方法和定位装置
CN115243091B (zh) * 2022-06-14 2024-02-02 北京箩筐时空数据技术有限公司 一种地图轨迹动态展示方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104407700A (zh) * 2014-11-27 2015-03-11 曦煌科技(北京)有限公司 一种移动头戴式虚拟现实和增强现实的设备
CN105466413A (zh) * 2015-11-10 2016-04-06 上海格虏博运动科技有限公司 一种基于智能移动平台并结合gps的增强现实实景导航技术
CN110019580A (zh) * 2017-08-25 2019-07-16 腾讯科技(深圳)有限公司 地图显示方法、装置、存储介质及终端

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105910614B (zh) * 2016-03-30 2019-10-22 宁波元鼎电子科技有限公司 一种健康型的虚拟现实的步行导航方法与系统
TWI660304B (zh) * 2016-05-30 2019-05-21 李建樺 虛擬實境即時導覽方法及系統
CN106600703A (zh) * 2016-11-22 2017-04-26 宇龙计算机通信科技(深圳)有限公司 基于虚拟现实设备的图像处理方法及装置
GB2559133A (en) * 2017-01-25 2018-08-01 Avantis Systems Ltd A method of navigating viewable content within a virtual environment generated by a virtual reality system
CN109029419A (zh) * 2018-06-04 2018-12-18 Oppo(重庆)智能科技有限公司 导航方法、装置、终端及计算机可读存储介质
CN109459029B (zh) * 2018-11-22 2021-06-29 亮风台(上海)信息科技有限公司 一种用于确定目标对象的导航路线信息的方法与设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104407700A (zh) * 2014-11-27 2015-03-11 曦煌科技(北京)有限公司 一种移动头戴式虚拟现实和增强现实的设备
CN105466413A (zh) * 2015-11-10 2016-04-06 上海格虏博运动科技有限公司 一种基于智能移动平台并结合gps的增强现实实景导航技术
CN110019580A (zh) * 2017-08-25 2019-07-16 腾讯科技(深圳)有限公司 地图显示方法、装置、存储介质及终端

Also Published As

Publication number Publication date
CN111124128A (zh) 2020-05-08

Similar Documents

Publication Publication Date Title
KR102410802B1 (ko) 마커 포인트 위치를 표시하기 위한 방법, 전자 장치, 및 컴퓨터 판독가능 저장매체
US10169923B2 (en) Wearable display system that displays a workout guide
KR101817452B1 (ko) 모바일 디바이스 상에 실제 환경의 뷰에서 관심 지점을 나타내기 위한 방법 및 그것을 위한 모바일 디바이스
KR102595150B1 (ko) 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체
EP2553662B1 (en) Augmented reality direction orientation mask
EP3832605B1 (en) Method and device for determining potentially visible set, apparatus, and storage medium
JP2017146651A (ja) 画像処理方法及び画像処理プログラム
US10999412B2 (en) Sharing mediated reality content
CN110917616B (zh) 虚拟场景中的方位提示方法、装置、设备及存储介质
US20150378159A1 (en) Display control device, display control program, and display control method
CN111760288A (zh) 虚拟三维场景中方位显示方法、装置、终端和存储介质
CN111124128B (zh) 位置提示方法及相关产品
CN113160427A (zh) 虚拟场景的创建方法、装置、设备及存储介质
CN113590070A (zh) 导航界面的显示方法、装置、终端及存储介质
JP6481456B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
JP2012141779A (ja) 拡張現実提供装置、拡張現実提供システム、拡張現実提供方法及びプログラム
KR20190047922A (ko) 혼합현실을 이용한 정보 공유 시스템
CN112734346B (zh) 航线覆盖范围的确定方法、装置、设备及可读存储介质
WO2018008096A1 (ja) 情報表示装置およびプログラム
CN113209610A (zh) 虚拟场景画面展示方法、装置、计算机设备及存储介质
CN109271042B (zh) 数据展示方法、装置、电子设备及存储介质
WO2024087456A1 (zh) 确定朝向信息以及自动驾驶车辆
KR101153127B1 (ko) 스마트 폰의 지리정보 표시장치
WO2021200187A1 (ja) 携帯端末および情報処理方法、並びに記憶媒体
US20220345680A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant