CN113805829B - 导航界面的显示方法、装置、终端、存储介质及程序产品 - Google Patents
导航界面的显示方法、装置、终端、存储介质及程序产品 Download PDFInfo
- Publication number
- CN113805829B CN113805829B CN202111354456.4A CN202111354456A CN113805829B CN 113805829 B CN113805829 B CN 113805829B CN 202111354456 A CN202111354456 A CN 202111354456A CN 113805829 B CN113805829 B CN 113805829B
- Authority
- CN
- China
- Prior art keywords
- time
- real
- target
- scene
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000000694 effects Effects 0.000 claims abstract description 25
- 230000004044 response Effects 0.000 claims description 53
- 238000012545 processing Methods 0.000 claims description 38
- 238000001514 detection method Methods 0.000 claims description 27
- 230000007704 transition Effects 0.000 claims description 25
- 239000000470 constituent Substances 0.000 claims description 21
- 238000002156 mixing Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 9
- 230000002159 abnormal effect Effects 0.000 claims description 3
- 230000005855 radiation Effects 0.000 claims description 3
- 239000000203 mixture Substances 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000004927 fusion Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000000919 ceramic Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 241000112598 Pseudoblennius percoides Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 239000012086 standard solution Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3691—Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
- G01C21/3694—Output thereof on a road map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1407—General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
- G01C21/3638—Guidance using 3D or perspective road maps including 3D objects and buildings
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3647—Guidance involving output of stored or live camera images or video streams
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3667—Display of a road map
- G01C21/367—Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/08—Testing, supervising or monitoring using real traffic
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Biodiversity & Conservation Biology (AREA)
- Environmental Sciences (AREA)
- Environmental & Geological Engineering (AREA)
- Ecology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Atmospheric Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Navigation (AREA)
Abstract
本申请实施例公开了一种导航界面的显示方法、装置、终端、存储介质及程序产品,属于导航技术领域。该方法包括:获取实时环境信息;基于实时环境信息对应的导航场景,确定目标界面组成元素;显示由目标底图和目标天空盒融合得到的导航界面。本申请实施例可应用于地图领域,通过获取当前所处环境的时间信息以及位置信息确定导航场景,利用当前导航场景对应的界面组成元素显示导航界面,使得导航界面所呈现的虚拟环境与当前的实际环境一致,能够基于不同地区的环境差异性显示相对应的导航环境,优化了导航界面的显示效果,提升了导航界面显示内容的真实性。
Description
技术领域
本申请实施例涉及导航技术领域,特别涉及一种导航界面的显示方法、装置、终端、存储介质及程序产品。
背景技术
目前在线导航功能的应用较为广泛,例如网约车应用软件、导航应用软件、地图应用软件等,均需要提供导航功能。
相关技术中,导航界面通常提供多种显示模式。客户端提供有操作入口,用户可以选择白天模式、夜晚模式或自动模式。在自动模式下,终端直接根据预先设置的日出时间和日落时间进行夜晚模式和白天模式的切换,比如6:00至18:00为白天模式,而18:00至次日6:00为夜晚模式。
然而,相关技术中的导航界面仅根据固定的时间进行白天黑夜的切换,模式过渡较为生硬和突兀,例如在接近日落时间时环境光线已经很暗而导航界面仍然是白天模式,且由于时差、天气差异等因素,不同地区的环境差异较大,而相关技术使用统一的模式,导致导航界面中的场景与实际环境不符。
发明内容
本申请实施例提供了一种导航界面的显示方法、装置、终端、存储介质及程序产品,能够优化导航界面的显示效果,提升导航界面显示内容的真实性。所述技术方案如下。
一方面,本申请实施例提供了一种导航界面的显示方法,所述方法包括:
获取实时环境信息,所述实时环境信息包括实时位置信息以及实时时间信息;
基于所述实时环境信息对应的导航场景,确定目标界面组成元素,其中,所述目标界面组成元素包括目标底图以及目标天空盒,所述目标底图用于展示路面环境,所述目标天空盒用于展示天空环境,不同导航场景对应界面组成元素的样式不同;
显示由所述目标底图和所述目标天空盒融合得到的导航界面。
另一方面,本申请实施例提供了一种导航界面的显示装置,所述装置包括:
获取模块,用于获取实时环境信息,所述实时环境信息包括实时位置信息以及实时时间信息;
确定模块,用于基于所述实时环境信息对应的导航场景,确定目标界面组成元素,其中,所述目标界面组成元素包括目标底图以及目标天空盒,所述目标底图用于展示路面环境,所述目标天空盒用于展示天空环境,不同导航场景对应界面组成元素的样式不同;
显示模块,用于显示由所述目标底图和所述目标天空盒融合得到的导航界面。
另一方面,本申请实施例提供了一种终端,所述终端包括处理器和存储器;所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述方面所述的导航界面的显示方法。
另一方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条计算机程序,所述计算机程序由处理器加载并执行以实现如上述方面所述的导航界面的显示方法。
根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。终端的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该终端执行上述方面的各种可选实现方式中提供的导航界面的显示方法。
本申请实施例提供的技术方案至少包括以下有益效果:
本申请实施例中,通过获取当前所处环境的时间信息以及位置信息确定导航场景,利用当前导航场景对应的界面组成元素显示导航界面,使得导航界面所呈现的虚拟环境与当前的实际环境一致,相比于相关技术中采用统一的时间切换界面模式的方法,能够基于不同地区的环境差异性显示相对应的导航环境,优化了导航界面的显示效果,提升了导航界面显示内容的真实性。
附图说明
图1是相关技术中导航界面样式更新方式的示意图;
图2示出了本申请一个示例性实施例提供的导航界面的显示方法的流程图;
图3是本申请一个示例性实施例示出的天空盒与底图的示意图;
图4是本申请一个示例性实施例示出的不同导航场景的界面组成元素样式的示意图;
图5示出了本申请另一个示例性实施例提供的导航界面的显示方法的流程图;
图6是本申请一个示例性实施例示出的样式索引的示意图;
图7是本申请一个示例性实施例示出的导航界面的显示过程的示意图;
图8是本申请一个示例性实施例示出的元素融合处理的示意图;
图9是本申请一个示例性实施例示出的调整导航界面俯仰角和比例尺的示意图;
图10是本申请一个示例性实施例示出的比例尺索引的示意图;
图11是本申请一个示例性实施例示出的太阳高度角计算模型的示意图;
图12是本申请另一个示例性实施例示出的太阳高度角计算模型的示意图;
图13示出了本申请又一个示例性实施例提供的导航界面的显示方法的流程图;
图14示出了本申请再一个示例性实施例提供的导航界面的显示方法的流程图;
图15示出了本申请一个示例性实施例提供的导航界面的显示装置的结构框图;
图16示出了本申请一个示例性实施例提供的终端的结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
相关技术中,导航界面通常提供多种显示模式。客户端提供有操作入口,用户可以选择白天模式、夜晚模式或自动模式。在自动模式下,终端直接根据预先设置的日出时间和日落时间进行夜晚模式和白天模式的切换。比如6:00至18:00为白天模式,而18:00至次日6:00为夜晚模式,如图1所示,6:00至18:00内终端按照白天场景样式101显示导航界面,18:00至次日6:00期间终端按照夜晚场景样式102显示导航界面。相关技术的显示方式主要存在如下几点问题:仅有白天黑夜的判断,时间上无过渡区间的设置,切换过于生硬,界面明暗变化无法与外界真实环境中的光线变化一致;终端按照系统时间切换显示模式,由于不同终端系统对于时间的处理方式不同,其获取到的系统时间与实际时间可能存在差异;终端依据的日出日落时间均为时区标准时间,而部分国家和地区幅员辽阔,各地日出日落时间相差较大,以北京和乌鲁木齐为例,其日出日落时间相差两小时左右,若采用统一的标准切换导航界面样式,则会导致乌鲁木齐地区部分黑夜时段显示为白天模式,而白天时段显示为黑夜模式;未基于网络质量的差异设置不同的界面更新策略,终端在网络质量较好的情况下可以获取较多的信息用于昼夜模式的切换,而在网络较差时,则无法及时更新界面。
为了解决上述技术问题,本申请实施例提供了一种导航界面的显示方法。该方法通过获取当前所处环境的时间信息以及位置信息确定导航场景,基于实时时间信息以及实时位置信息确定终端所处位置的环境类型,使得导航界面所呈现的虚拟环境与当前的实际环境一致,相比于相关技术中采用统一的时间切换界面模式的方法,能够基于不同地区的环境差异性显示相对应的导航环境,优化了导航界面的显示效果,提升了导航界面显示内容的真实性。
图2示出了本申请一个示例性实施例提供的导航界面的显示方法的流程图。本实施例以该方法应用于运行有导航应用程序的终端为例进行说明,该方法包括如下步骤。
步骤201,获取实时环境信息,实时环境信息包括实时位置信息以及实时时间信息。
在一种可能的实施方式中,终端获取实施环境信息,该实施环境信息是用于更新导航界面中虚拟环境的信息,该虚拟环境用于反映当前用户所在的实际环境(时间、地点、天气、景观等)。实时环境信息包括实时位置信息以及实时时间信息,例如当前用户(所在地区)的经纬度以及日期和时间。
实施环境信息还可能包括其他实时信息,例如实时天气信息。
可选的,终端在启动导航应用程序时获取实施环境信息;终端在导航应用程序运行过程中,每隔预定时间间隔获取实施环境信息,以根据实际场景更新导航界面;终端在导航应用程序运行过程中,在接受到用户对导航界面的触发操作时,获取实施环境信息。
步骤202,基于实时环境信息对应的导航场景,确定目标界面组成元素。
其中,目标界面组成元素包括目标底图以及目标天空盒,目标底图用于展示路面环境,目标天空盒用于展示天空环境,不同导航场景对应界面组成元素的样式不同。
在一种可能的实施方式中,终端基于实时位置信息以及实时时间信息确定导航场景,进而确定目标界面组成元素。同一时刻(实施时间信息相同)不同地点(实时位置信息不同)的终端,其目标界面组成元素不同。例如,同样是19:00,北京地区的终端所显示的导航界面为夜晚场景,而新疆地区的终端所显示的导航界面为黄昏场景。
相对于实际环境中的陆地和天空,导航界面由底图和天空盒组成,如图3所示,导航界面中的虚拟环境由穹顶式天空301以及底面302组成。
示意性的,如图4所示,其示出了6个导航场景(黎明、清晨、白天、傍晚、黄昏、黑夜)的导航界面示意图,不同导航场景对应的天空盒和底图的样式不同,天空盒与底图的样式能够反映对应场景下的天空景象和陆地景象。
步骤203,显示由目标底图和目标天空盒融合得到的导航界面。
终端获取到目标底图和目标天空盒后,对目标底图和目标天空盒进行融合处理,然后基于用户的行进方向以及当前的导航视角,显示由目标底图和目标天空盒融合得到的导航界面。
综上所述,本申请实施例中,通过获取当前所处环境的时间信息以及位置信息确定导航场景,利用当前导航场景对应的界面组成元素显示导航界面,使得导航界面所呈现的虚拟环境与当前的实际环境一致,相比于相关技术中采用统一的时间切换界面模式的方法,能够基于不同地区的环境差异性显示相对应的导航环境,优化了导航界面的显示效果,提升了导航界面显示内容的真实性。
在一种可能的实施方式中,在使导航界面所显示的场景更加贴合实际的基础上,终端对目标界面显示元素进行特殊处理,优化元素融合得到的导航界面,解决相关技术中天空与地面过渡生硬、融合效果差的问题。图5示出了本申请另一个示例性实施例提供的导航界面的显示方法的流程图。本实施例以该方法应用于运行有导航应用程序的终端为例进行说明,该方法包括如下步骤。
步骤501,获取实时环境信息,实时环境信息包括实时位置信息以及实时时间信息。
步骤501的具体实施方式可以参考上述步骤201,本申请实施例在此不再赘述。
步骤502,基于实时位置信息和实时时间信息确定目标场景景象。
场景景象是由时间、地点信息组合决定的。在一种可能的实施方式中,终端首先基于实时位置信息和实时时间信息确定当前所处场景景象,然后基于目标场景景象确定目标界面组成元素,步骤502包括如下步骤。
步骤502a,基于实时位置信息中的经纬度以及实时时间信息中的日期,确定实时位置对应的日出时间以及日落时间。
由于各地的时间均采用对应时区的标准时间,而纬度差异会导致同一时刻不同地区的景象不同。例如,同一时区内东部地区处于夜晚景象,其中天空景象包含月亮和星星,且天空为黑色,而西部地区处于黄昏,天空景象包含太阳且天空为黄色,二者陆地景象对应的色调也不同,若各地均在相同的时间使用相同的导航界面,则会导致部分地区的导航界面与实际场景不一致。在一种可能的实施方式中,为了使导航界面显示的场景更加接近真实情况,终端基于实时位置信息中的经纬度以及实时时间信息中的日期,确定实时位置对应的日出时间以及日落时间,从而基于当地日出时间和日落时间确定各个场景景象对应的时段。
步骤502b,基于日出时间、日落时间以及场景景象对应时段与日出时间或日落时间的时间差,确定各个场景景象对应的时段。
在一种可能的实施方式中,终端内存储有各场景景象对应的时段与日出时间或者日落时间的关系(时间差),当获取到(当天的)日出时间以及日落时间之后,终端即可确定出当前位置处各场景景象对应的时段。
示意性的,导航应用程序提供有6种场景景象对应的界面组成元素。假设日出时间为tup,日落时间为tdown,则(tup-2)至tup为黎明对应的时段,其中(tup-2)表示日出前两小时;tup至(tup+2)为清晨对应的时段,其中(tup+2)表示日出后两小时;(tdown-1)至(tdown+1)为傍晚对应的时段,其中(tdown-1)表示日落前一小时,(tdown+1)表示日落后一小时;(tdown+1)至(tdown+3)为黄昏对应的时段,其中(tdown+3)表示日落后三小时;(tup+2)至(tdown-1)为白天对应时段;(tdown+3)至次日的(tup-2)为黑夜对应时段。当确定出日出时间以及日落时间之后,终端即可确定6个景象对应的具体时段。例如,实时位置信息a对应地区的日出时间为5:30,则该地的终端在5:30至7:30显示清晨对应的导航界面,实时位置信息b对应地区的日出时间为6:00,则该地的终端在6:00至8:00显示清晨对应的导航界面,而并非采用同一的时段显示相同的导航景象。相应的,由于日出日落时间会不断发生变化,因此即使终端处于同一地区,不同时期内各个场景景象对应的时段也不同,例如夏季清晨对应的时段较早,而冬季清晨对应的时段较晚。
步骤502c,基于场景景象与时段的对应关系,以及实时时间信息所指示的目标时段,确定目标场景景象。
终端按照预设的时间差以及日出日落时间划分得到各场景对应的时段后,基于场景景象与时段的对应关系(例如步骤502b示出的对应关系),以及实时时间信息所指示的目标时段(当前时刻所属的时段),确定目标场景景象,从而使得终端通过导航界面展示的场景景象与终端所处的实际环境一致。
示意性的,终端A获取到的实时位置信息为东经116°23′17〃,北纬39°54′27〃2,实时时间信息为2021年11月8日6:00,终端A基于该经纬度和日期确定该地的日出时间为06:51,日落时间为17:04,最终基于各场景的时段确定目标场景景象为黎明;与终端A处于同一时区的终端B获取到的实时位置信息为东经86°37′33〃,北纬42°45′32〃,实时时间信息为2021年11月8日6:00,终端B基于该经纬度和日期确定该地的日出时间为08:55,日落时间为18:51,最终基于各场景的时段确定目标场景景象为黑夜。
步骤503,基于场景景象与底图样式的对应关系,确定目标场景景象对应的目标底图。
其中,不同场景景象的导航场景对应底图的样式不同。
导航应用程序提供有各个场景景象对应的底图样式,终端基于场景景象与底图样式的对应关系,确定目标场景景象对应的目标底图,该目标底图是结合目标场景景象对应的底图样式,以及实时位置信息对应的地图结合得到的,能够反映用户当前所处的实际环境。
在一种可能的实施方式中,终端还结合当前的天气情况显示导航界面,进一步提高导航界面的真实性。在步骤503之前,本申请实施例提供的导航界面的显示方法还包括如下步骤。
基于实时位置信息以及实时时间信息确定目标场景天气。
可选的,终端向后台服务器发送天气信息获取请求,该天气信息获取请求中包含实时位置信息,后天服务器基于该请求查询天气信息并发送至终端,终端基于后台服务器返回的天气信息确定目标场景天气(例如基于温度、湿度、风速、降雨量或降雪量等信息确定目标场景天气);或者,终端直接通过第三方平台查询得到天气信息,进而确定目标场景天气。
步骤503还包括如下步骤。
步骤503a,基于场景景象以及场景天气与底图样式的对应关系,确定目标场景景象以及目标场景天气对应的目标底图,相同场景景象下不同场景天气对应的底图样式不同。
示意性的,同一场景景象下,还包含不同场景天气对应的底图样式。例如,“黎明初升”具体包含“黎明初升,晴”、“黎明初升,阴”、“黎明初升,雨”以及“黎明初升,雪”等底图样式。
步骤504,基于场景景象与天空盒样式的对应关系,确定目标场景景象对应的目标天空盒。
不同场景景象的导航场景对应天空盒的样式不同。
当考虑到场景天气时,步骤504还包括如下步骤。
步骤504a,基于场景景象以及场景天气与天空盒样式的对应关系,确定目标场景景象以及目标场景天气对应的目标天空盒,相同场景景象下不同场景天气对应的天空盒样式不同。
示意性的,同一场景景象下,还包含不同场景天气对应的天空盒样式。例如,“黎明初升”具体包含“黎明初升,晴”、“黎明初升,阴”、“黎明初升,雨”以及“黎明初升,雪”等天空盒样式。图6示出了一种样式索引的示意图,其示出了一种场景景象、场景天气、样式标识以及样式描述之间的对应关系。
示意性的,图7示出了终端基于实时环境信息显示导航界面的过程的示意图。终端基于时间、位置以及天气等信息确定当前场景,然后通过样式引擎搜索导航场景对应的目标界面组成元素,最终对目标界面组成元素进行融合,得到导航界面。图中示出了三种导航场景分别对应普通导航界面以及道路级导航界面的显示效果。
步骤505,显示由目标底图和目标天空盒融合得到的导航界面。
在一种可能的实施方式中,终端对目标底图和目标天空盒进行融合时,对交接处的过渡区域进行融合处理,解决相关技术中底图与天空盒融合效果较差,过渡生硬的问题。步骤505包括如下步骤。
步骤505a,对目标底图以及目标天空盒进行组合,得到目标虚拟场景。
终端获取到目标底图以及目标天空盒后,首先按照底图在下天空盒在上的方式对二者进行组合拼接,得到完整的目标虚拟场景对应的模型。
步骤505b,对目标虚拟场景中的过渡区域进行透明混合处理,透明混合处理后的过渡区域显示为半透明效果。
在一种可能的实施方式中,目标底图与目标天空盒相接,且目标底图与目标天空盒接触面上方目标高度内的区域为过渡区域。终端基于组合目标底图与目标天空盒得到的目标虚拟场景,确定过渡区域,并对该过渡区域进行透明混合处理,由此解决过渡生硬,缝合效果较差的问题。
具体的,终端并非对视野范围内所有过渡区域的天空盒和底图部分进行透明混合处理,而是基于虚拟摄像机的拍摄视角,对拍摄得到的画面中天空与底面交界处进行透明混合处理。
如图8所示,目标天空盒802位于目标底图801的上方,终端基于目标高度确定出过渡区域803,对其进行透明混合处理,使过渡区域803为一半透明区域。
步骤505c,基于虚拟摄像机对目标虚拟场景拍摄得到的导航画面,显示导航界面。
在一种可能的实施方式中,天空盒与底图均为立体图像,导航界面中的导航画面是由虚拟摄像机按照拍摄角度对目标虚拟场景拍摄得到的。步骤505c还包括如下步骤。
步骤一,基于俯仰角调整范围、比例尺调整范围以及当前比例尺,确定虚拟摄像机的俯仰角,当前比例尺基于默认比例尺以及接收到的缩放操作确定得到。
在一种可能的实施方式中,终端运行导航应用程序后,按照默认比例尺以及默认俯仰角显示导航界面。当接收到用户的缩放操作时,基于缩放操作所指示的缩小比例或放大比例,调整俯仰角以及比例尺,更新导航界面。
示意性的,如图9所示,当接收到对导航画面的放大操作时,终端基于放大比例增大俯仰角并增大比例尺,即用户放大地图,则俯仰角放大、天空盒显示区域增大、底图显示区域减小,由俯视逐渐向平时靠近。如图9所示,终端初始以40°的俯仰角以及500米的比例尺显示导航界面901,当接收到用户的放大操作时,基于放大比例,以65°的俯仰角以及10000米的比例尺显示导航界面902。
在一种可能的实施方式中,终端基于用户缩放操作所指示的缩放比例(例如基于双指反向滑动操作的滑动距离确定缩放比例),确定当前比例尺。图10示出了一种比例尺级别与实际物理长度对应关系表。在确定得到当前比例尺后,基于俯仰角计算公式确定虚拟摄像机的俯仰角。
假设当前比例尺为nScaleLevel,则俯仰角fSkewAngle的计算公式如下。
fSkewAngle=20+(nScaleLevel-ScaleLevel1)*(MaxSkewAngle -MinSkewAngle)/(ScaleLevel2 -ScaleLevel1)
其中,MinSkewAngle为最小俯仰角,MaxSkewAngle为最大俯仰角,比例尺ScaleLevel2大于比例尺ScaleLevel1。
例如,比例尺调整范围是13至18级比例尺,俯仰角调整范围为20至50度,假设当前比例尺为nScaleLevel,则当nScaleLevel<13时,fSkewAngle =20°;当nScaleLevel>18时,fSkewAngle =50°;当13<nScaleLevel<18时,fSkewAngle =20+(nScaleLevel-13)*(50-20)/(18-13)。
步骤二,基于第一角度差与第二角度差的比值,确定当前天空盒显示区域占天空盒最大显示区域的显示比例,第一角度差为俯仰角与俯仰角调整范围中最小角的角度差,第二角度差为俯仰角调整范围中最大角与最小角的角度差。
步骤三,基于显示比例以及天空盒最大显示区域,确定目标天空盒的天空盒显示区域以及目标底图的底图显示区域。
在一种可能的实施方式中,不同俯仰角下虚拟摄像机拍摄到的画面中天空盒显示区域与底图显示区域的占比不同,俯仰角越大,天空占比越大,底图占比越小。
示意性的,目标天空盒对应天空盒显示区域的显示面积计算公式如下。
fratio=Maxratio*(fSkewAngle-MinSkewAngle)/(MaxSkewAngle -MinSkewAngle)
其中,fratio为目标天空盒对应天空盒显示区域的面积(或高度),Maxratio为天空盒最大显示面积(或高度)。示意性的,由于天空盒显示区域占界面的比例超过0.5时,底图显示区域将被压缩,底图显示的真实物理范围也将被压缩,无法达到天空与陆地的平衡,且界面中能够展示的导航信息也较少,因此开发人员将天空盒显示区域的最大比例设置为0.5,即Maxratio为导航界面(或导航画面)的一半。
步骤四,对目标底图中显示区域与天空盒显示区域存在交集的虚拟物体进行半透明处理。
为了减少建筑物对天空盒区域的遮挡,终端对视野范围外的建筑物等虚拟物体做隐藏处理,并对视野范围内显示区域与天空盒显示区域存在交集的虚拟物体进行半透明处理。如图8所示,建筑物A位于视野范围外,终端对其进行隐藏处理,建筑物B位于视野范围内,终端基于当前虚拟摄像机的俯仰角判断其是否与天空盒显示区域存在交集,若存在则对其进行半透明处理。
步骤五,基于半透明处理后的导航画面显示导航界面。
在确定得到目标天空盒的天空盒显示区域以及目标底图的底图显示区域后,终端基于半透明处理后的导航画面显示导航界面。
在另一种可能的实施方式中,终端还支持在底图上展示太阳光照射的投影效果,即为底图中的建筑、公共设置、车辆等添加阴影效果。太阳直射点每年在南北回归线之间运动,且太阳每天东升西落,因此每时每刻每地的太阳照射角度都在发生变化,终端基于实时时间信息以及实时位置信息确定太阳照射角度,进而确定虚拟物体的目标阴影效果,上述步骤505还包括如下步骤。
步骤505d,获取实时时间信息以及实时位置信息对应的实时太阳高度角。
在一种可能的实施方式中,步骤505d包括如下步骤。
步骤六,基于实时时间信息中的日期确定太阳直射纬度。
步骤七,基于实时位置信息中的实时纬度以及太阳直射纬度,确定实时太阳高度角。
如图11所示的太阳照射地图的示意图,此处取其中B地的太阳高度角h作为导航场景中的太阳入射角。φ是B地的纬度(即实时纬度),δ是当前太阳直射点A地的纬度(即太阳直射纬度)。由于h+θ+γ+90°=180°,其中γ=φ-δ,且太阳与地球的距离远大于地球半径使得θ可以忽略不计,因此B地的太阳高度角h=90°-(φ-δ)。如图12所示是导航场景对应的模型,当太阳直射底图平面时,太阳东升西落的运动轨迹是U—R1—D,运动轨迹平面U—R1—D—O—U垂直于底图所在平面,当太阳非直射底图平面时,太阳东升西落的轨迹是U—R2—D,运动轨迹平面U—R2—D—O—U与底图所在平面的夹角为α,此处的α对应在图11即为B地的太阳高度角h。
步骤505e,基于实时太阳高度角、实时时间信息以及实时位置信息,确定目标底图上虚拟物体的目标阴影效果。
步骤505f,按照目标阴影效果,显示由目标底图和目标天空盒融合得到的导航界面。
终端基于实时太阳高度角、实时时间信息以及实时位置信息,确定实际环境中太阳的方位以及地面物体的阴影效果,进而确定目标底图上虚拟物体的目标阴影效果。按照目标阴影效果,显示由目标底图和目标天空盒融合得到的导航界面。
本申请实施例中,一方面,终端对天空盒与底图的交接部分进行透明混合处理,并对过渡区域的虚拟物体进行半透明处理,使得导航界面中天空与地面的融合更加自然,避免界线过于分明;另一方面,基于实时时间信息以及实时位置信息确定太阳高度角以及日出日落时间等,使得各场景景象的时间段更加符合当地情况,且能够基于太阳高度角确定虚拟物体的阴影效果,同时还加入了天气等外部信息丰富导航场景,解决不同地区环境差异较大的问题,使得导航界面更加真实,与实际环境一致。
上述各个实施例示出了终端如何基于实时环境信息显示导航界面。通过网络连接云服务获取终端所需的实时信息是一种标准的解决方案,然而,用户在实时环境中随时可能处于复杂网络情况下,例如在隧道等无网络信号或信号较弱的区域无法得到后台服务器的正常响应,甚至无法接收卫星信号。本申请实施例提供了两种获取实施环境信息的策略,即在线策略和离线策略,以解决网络质量较差的情况下导航界面的样式无法及时切换的问题。图13示出了本申请另一个示例性实施例提供的导航界面的显示方法的流程图。本实施例以该方法应用于运行有导航应用程序的终端为例进行说明,该方法包括如下步骤。
步骤1301,基于当前网络质量确定导航界面更新策略,导航界面更新策略包括在线策略和离线策略。
在一种可能的实施方式中,基于当前网络质量确定导航界面更新策略,当网络质量较好时,采用在线策略,从后台服务器处获取实施环境信息以及目标界面组成元素,以提高实时环境信息的准确率,并降低终端功耗;在网络质量较差时,采用离线策略,本地获取或计算得到实施环境信息,以保证导航界面更新的时效性。步骤1301具体包括如下步骤。
步骤1301a,响应于导航界面更新指令,向后台服务器发送网络质量检测请求。
当接收到导航界面更新指令时,终端向后台服务器发送网络质量检测请求,请求云端网速检测服务检查终端的网络情况。可选的,当接收到用户对导航界面的触发操作时,终端确定接收到导航界面更新指令;当达到界面更新时间周期时,终端确定接收到导航界面更新指令。本申请实施例对此不作限定。
在一种可能的实施方式中,上述步骤1301a还包括如下步骤。
步骤八,获取本地环境信息,本地环境信息包括本地位置信息以及本地时间信息。
步骤九,向后台服务器发送网络质量检测请求以及信息获取请求,信息获取请求中包含本地环境信息,后台服务器用于在网络质量正常时,基于本地环境信息确定云端环境信息以及将云端环境信息发送至终端。
终端将携带有本地环境信息以及网络信号的网络质量检测请求发送至后台服务器,请求在网络质量较好时获取精准的位置信息以及时间信息。例如,终端将本地系统时间、基站信号和/或无线保真(Wireless Fidelity,WiFi)信号发送至服务器,后台服务器基于基站信号和/或WiFi信号以及定位服务确定终端的位置等云端环境信息。
步骤1301b,响应于接收到后台服务器发送的网络质量检测应答,且网络质量检测应答指示网络质量正常,确定导航界面更新策略为在线策略。
步骤1301c,响应于接收到网络质量检测应答且网络质量异常,或目标时长内未接受到网络质量检测应答,确定导航界面更新策略为离线策略。
当网络质量较好时,终端采用在线策略。例如,后台服务器将当前网速反馈至终端,终端基于当前网速以及网速阈值判断采取何种策略,当前网速高于网速阈值则采用在线策略,当前网速低于网速阈值则采用离线策略。
在一种可能的实施方式中,当后台服务器确定终端网络质量较好时,在回馈网络质量检测应答的同时,向终端发送实时环境信息,以简化终端与后台服务器之间的交互流程,提高界面更新效率。
相应的,当网络质量较差时,终端采用离线策略。
步骤1302,通过导航界面更新策略获取实时环境信息。
确定出导航界面更新策略后,终端基于相应策略对应的信息获取逻辑,获取实施环境信息。步骤1302具体包括如下步骤。
步骤1302a,响应于导航界面更新策略为在线策略,基于本地环境信息和网络质量检测应答中的云端环境信息确定实时环境信息。
在一种可能的实施方式中,本地时间信息包括终端系统时间以及全球定位系统(Global Positioning System,GPS)时间,云端环境信息中的云端时间信息为服务器时间。当采用在线策略时,实时时间信息的获取流程为:响应于终端系统时间、服务器时间以及GPS时间中任意二者的时间差小于时间差阈值,将终端系统时间确定为实时时间;响应于终端系统时间与GPS时间的时间差大于时间差阈值,将GPS时间确定为实时时间;响应于未获取到GPS时间且终端系统时间与服务器时间的时间差大于时间差阈值,将服务器时间确定为实时时间。
终端从本地系统获取系统时间,从GPS定位信号中获取GPS时间,进行网络质量检查时从后台服务器处获取服务器时间。然后检查三个时间的差异,在三者相差不大的情况下,以本地的系统时间为准,相差较大时,优先使用GPS时间,若未获取到GPS时间则使用服务器时间。相应的,若终端获取GPS时间以及服务器时间均失败,则转为离线策略,直接将终端系统时间确定为实时时间。
在一种可能的实施方式中,本地位置信息包括GPS定位位置以及历史定位位置,云端环境信息中的云端位置信息为服务器定位位置。当采用在线策略时,实时位置信息的获取流程为:将服务器定位位置确定为实时位置。
终端基于在线位置服务获取服务器定位位置,若获取成功,则将服务器定位位置确定为实时位置。若获取失败,则转为离线策略。
步骤1302b,响应于导航界面更新策略为离线策略,将本地环境信息确定为实时环境信息。
在一种可能的实施方式中,本地位置信息包括GPS定位位置以及历史定位位置,云端环境信息中的云端位置信息为服务器定位位置。当采用离线策略时,实时时间信息的获取流程为:响应于未获取到GPS时间,或GPS时间与终端系统时间的时间差小于时间差阈值,将终端系统时间确定为实时时间;响应于终端系统时间与GPS时间的时间差大于时间差阈值,将GPS时间确定为实时时间。
当终端与后台服务器连接失败时,终端基于系统时间以及GPS时间确定实时时间,即优先采用GPS时间,当获取GPS信号失败时,以本地系统时间为准。
在一种可能的实施方式中,本地位置信息包括GPS定位位置以及历史定位位置,云端环境信息中的云端位置信息为服务器定位位置。当采用离线策略时,实时位置信息的获取流程为:响应于获取到GPS定位位置,将GPS定位位置确定为实时位置;响应于未获取到GPS定位位置,将历史定位位置中最近一次定位位置确定为实时位置;响应于未获取到GPS定位位置,且不存在历史定位位置,将默认导航位置确定为实时位置。
终端基于GPS信号获取GPS定位位置,若获取失败,则检查是否保存历史位置,若有保存则返回上次位置,若未保存则使用导航应用程序的默认位置。
在另一种可能的实施方式中,终端还需获取实时天气信息。当采用在线策略时,终端从后台服务器处请求获取实时天气信息和日出日落时间以及出行建议等信息,当请求失败或采用离线策略时,终端采用默认天气信息(例如晴天),并自行计算日出日落时间。
步骤1303,基于实时环境信息对应的导航场景,确定目标界面组成元素。
可选的,当导航界面更新策略为离线策略时,终端基于导航场景与界面组成元素之间的对应关系,从本地元素库中获取实施环境信息对应的目标界面组成元素;当导航界面更新策略为离线策略时,终端向后台服务器发送包含实施环境信息的元素获取请求,由后台服务器将该实施环境信息对应的最新的目标界面组成元素发送至终端,或者,后台服务器在上述步骤中确定出终端的实施环境信息后,在反馈实时环境信息时直接将目标界面组成元素发送至终端。本申请实施例对此不作限定。
步骤1304,显示由目标底图和目标天空盒融合得到的导航界面。
步骤1303至步骤1304的具体实施方式可以参考上述步骤202至步骤203,本申请实施例在此不再赘述。
本申请实施例中,提供了在线策略和离线策略两种方式更新导航界面,通过在离线融合的方式解决无网情况下导航界面样式无法及时切换的问题。
结合上述实施例,在一个示意性的例子中,终端执行导航界面显示任务的流程如图14所示,该流程包括如下步骤。
步骤1401,判断网络质量是否满足条件。若是,则执行步骤1402;若否,则执行步骤1403。
步骤1402,执行在线策略。
步骤1403,执行离线策略。
步骤1404,获取实时位置。若失败,则执行步骤1405获取GPS位置;若成功,则继续执行步骤1406。
步骤1405,获取GPS位置。
步骤1406,请求天气和日出日落时间。若失败,则执行步骤1407计算日出日落时间;若成功,则继续执行步骤1408。
步骤1407,计算日出日落时间。
步骤1408,请求底图和天空盒样式。若失败,则执行步骤1409自行划分场景时段并从本地获取底图和天空盒样式;若成功,则继续执行步骤1410。
步骤1409,划分场景时段,获取底图和天空盒样式。
步骤1410,动态调整天空盒和底图的样式以及显示比例。
在一种可能的实施方式中,上述各实施例中的导航界面的显示方法可以应用于导航类应用程序。该导航类应用程序可以是独立运行的应用程序,也可以是依附于其它类型应用程序/网页运行的程序组件。例如,用户在车内驾驶过程中开启车载导航,或者触发更新导航界面时,终端向后台服务器发送网络质量检测请求,基于网络质量检测结果确定采用在线策略或离线策略更新导航界面。终端通过对应的策略,获取实时时间信息、实时位置信息以及实时天气信息等实时环境信息,基于实时环境信息确定终端当前所述的真实环境,进而确定该真实环境对应的目标界面显示元素,即目标天空盒和目标底图,目标天空盒和目标底图能够反映终端所处真实环境的景象、天气等。基于实时环境信息确定界面显示元素的样式,从而显示导航界面,使得导航界面能够反映用户当前所处的真实环境,避免由于时差、气候的不同导致采用统一的界面切换方式时,部分地区终端展示的导航场景与实际场景不符的情况,使得用户在车内也能够实时感知外界真实环境。
图15是本申请一个示例性实施例提供的导航界面的显示装置的结构框图,该装置的组成如下:
获取模块1501,用于获取实时环境信息,所述实时环境信息包括实时位置信息以及实时时间信息;
确定模块1502,用于基于所述实时环境信息对应的导航场景,确定目标界面组成元素,其中,所述目标界面组成元素包括目标底图以及目标天空盒,所述目标底图用于展示路面环境,所述目标天空盒用于展示天空环境,不同导航场景对应界面组成元素的样式不同;
显示模块1503,用于显示由所述目标底图和所述目标天空盒融合得到的导航界面。
可选的,所述确定模块1502,包括:
第一确定单元,用于基于所述实时位置信息和所述实时时间信息确定目标场景景象;
第二确定单元,用于基于场景景象与底图样式的对应关系,确定所述目标场景景象对应的所述目标底图,不同场景景象的导航场景对应底图的样式不同;
第三确定单元,用于基于所述场景景象与天空盒样式的对应关系,确定所述目标场景景象对应的所述目标天空盒,不同场景景象的导航场景对应天空盒的样式不同。
可选的,所述第一确定单元,还用于:
基于所述实时位置信息中的经纬度以及所述实时时间信息中的日期,确定实时位置对应的日出时间以及日落时间;
基于所述日出时间、所述日落时间以及场景景象对应时段与所述日出时间或所述日落时间的时间差,确定各个场景景象对应的时段;
基于所述场景景象与时段的对应关系,以及所述实时时间信息所指示的目标时段,确定所述目标场景景象。
可选的,所述第二确定单元,还用于:
基于所述实时位置信息以及所述实时时间信息确定目标场景天气;
基于所述场景景象以及场景天气与所述底图样式的对应关系,确定所述目标场景景象以及所述目标场景天气对应的所述目标底图,相同场景景象下不同场景天气对应的所述底图样式不同;
所述第三确定单元,还用于:
基于所述场景景象以及所述场景天气与所述天空盒样式的对应关系,确定所述目标场景景象以及所述目标场景天气对应的所述目标天空盒,相同场景景象下不同场景天气对应的所述天空盒样式不同。
可选的,所述目标底图与所述目标天空盒相接,且所述目标底图与所述目标天空盒接触面上方目标高度内的区域为过渡区域;
所述显示模块1503,包括:
组合单元,用于对所述目标底图以及所述目标天空盒进行组合,得到目标虚拟场景;
处理单元,用于对所述目标虚拟场景中的所述过渡区域进行透明混合处理,透明混合处理后的所述过渡区域显示为半透明效果;
第一显示单元,用于基于虚拟摄像机对所述目标虚拟场景拍摄得到的导航画面,显示所述导航界面。
可选的,所述第一显示单元,还用于:
基于俯仰角调整范围、比例尺调整范围以及当前比例尺,确定所述虚拟摄像机的俯仰角,所述当前比例尺基于默认比例尺以及接收到的缩放操作确定得到;
基于第一角度差与第二角度差的比值,确定当前天空盒显示区域占天空盒最大显示区域的显示比例,所述第一角度差为所述俯仰角与所述俯仰角调整范围中最小角的角度差,所述第二角度差为所述俯仰角调整范围中最大角与最小角的角度差;
基于所述显示比例以及所述天空盒最大显示区域,确定所述目标天空盒的天空盒显示区域以及所述目标底图的底图显示区域;
对所述目标底图中显示区域与所述天空盒显示区域存在交集的虚拟物体进行半透明处理;
基于半透明处理后的所述导航画面显示所述导航界面。
可选的,所述显示模块1503,包括:
第一获取单元,用于获取所述实时时间信息以及所述实时位置信息对应的实时太阳高度角;
第四确定单元,用于基于所述实时太阳高度角、所述实时时间信息以及所述实时位置信息,确定所述目标底图上虚拟物体的目标阴影效果;
第二显示单元,用于按照所述目标阴影效果,显示由所述目标底图和所述目标天空盒融合得到的所述导航界面。
可选的,所述获取单元,还用于:
基于所述实时时间信息中的日期确定太阳直射纬度;
基于所述实时位置信息中的实时纬度以及所述太阳直射纬度,确定所述实时太阳高度角。
可选的,所述获取模块1501,包括:
第五确定单元,用于基于当前网络质量确定导航界面更新策略,所述导航界面更新策略包括在线策略和离线策略;
第二获取单元,用于通过所述导航界面更新策略获取所述实时环境信息。
可选的,所述第五确定单元,还用于:
响应于导航界面更新指令,向后台服务器发送网络质量检测请求;
响应于接收到所述后台服务器发送的网络质量检测应答,且所述网络质量检测应答指示网络质量正常,确定所述导航界面更新策略为所述在线策略;
响应于接收到所述网络质量检测应答且所述网络质量异常,或目标时长内未接受到所述网络质量检测应答,确定所述导航界面更新策略为所述离线策略。
可选的,所述第五确定单元,还用于:
获取本地环境信息,所述本地环境信息包括本地位置信息以及本地时间信息;
向所述后台服务器发送所述网络质量检测请求以及信息获取请求,所述信息获取请求中包含所述本地环境信息,所述后台服务器用于在所述网络质量正常时,基于所述本地环境信息确定云端环境信息以及将所述云端环境信息发送至终端;
所述第二获取单元,还用于:
响应于所述导航界面更新策略为所述在线策略,基于所述本地环境信息和所述网络质量检测应答中的所述云端环境信息确定所述实时环境信息;
响应于所述导航界面更新策略为所述离线策略,将所述本地环境信息确定为所述实时环境信息。
可选的,所述本地时间信息包括终端系统时间以及全球定位系统GPS时间,所述云端环境信息中的云端时间信息为服务器时间;
所述第二获取单元,还用于:
响应于所述终端系统时间、所述服务器时间以及所述GPS时间中任意二者的时间差小于时间差阈值,将所述终端系统时间确定为实时时间;
响应于所述终端系统时间与所述GPS时间的时间差大于所述时间差阈值,将所述GPS时间确定为所述实时时间;
响应于未获取到所述GPS时间且所述终端系统时间与所述服务器时间的时间差大于所述时间差阈值,将所述服务器时间确定为所述实时时间;
响应于未获取到所述GPS时间,或所述GPS时间与所述终端系统时间的时间差小于所述时间差阈值,将所述终端系统时间确定为所述实时时间;
响应于所述终端系统时间与所述GPS时间的时间差大于所述时间差阈值,将所述GPS时间确定为所述实时时间。
可选的,所述本地位置信息包括GPS定位位置以及历史定位位置,所述云端环境信息中的云端位置信息为服务器定位位置;
所述第二获取单元,还用于:
将所述服务器定位位置确定为实时位置;
响应于获取到所述GPS定位位置,将所述GPS定位位置确定为所述实时位置;
响应于未获取到所述GPS定位位置,将所述历史定位位置中最近一次定位位置确定为所述实时位置;
响应于未获取到所述GPS定位位置,且不存在所述历史定位位置,将默认导航位置确定为所述实时位置。
请参考图16,其示出了本申请一个示例性实施例提供的终端1600的结构框图。该终端1600可以是便携式移动终端,比如:智能手机、平板电脑、动态影像专家压缩标准音频层面3(Moving Picture Experts Group Audio Layer III,MP3)播放器、动态影像专家压缩标准音频层面4(Moving Picture Experts Group Audio Layer IV,MP4)播放器。终端1600还可能被称为用户设备、便携式终端等其他名称。
通常,终端1600包括有:处理器1601和存储器1602。
处理器1601可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1601可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器1601也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称中央处理器(CentralProcessing Unit,CPU);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1601可以在集成有图像处理器(Graphics Processing Unit,GPU),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1601还可以包括人工智能(Artificial Intelligence,AI)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1602可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是有形的和非暂态的。存储器1602还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1602中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1601所执行以实现本申请实施例提供的方法。
在一些实施例中,终端1600还可选包括有:外围设备接口1603和至少一个外围设备。具体地,外围设备包括:射频电路1604、触摸显示屏1605、摄像头1606、音频电路1607、定位组件1608和电源1609中的至少一种。
外围设备接口1603可被用于将输入/输出(Input /Output,I/O)相关的至少一个外围设备连接到处理器1601和存储器1602。在一些实施例中,处理器1601、存储器1602和外围设备接口1603被集成在同一芯片或电路板上;在一些其他实施例中,处理器1601、存储器1602和外围设备接口1603中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1604用于接收和发射射频(Radio Frequency,RF)信号,也称电磁信号。射频电路1604通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1604将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1604包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1604可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或无线保真(Wireless Fidelity,WiFi)网络。在一些实施例中,射频电路1604还可以包括近距离无线通信(Near Field Communication,NFC)有关的电路,本申请对此不加以限定。
触摸显示屏1605用于显示UI。该UI可以包括图形、文本、图标、视频及其它们的任意组合。触摸显示屏1605还具有采集在触摸显示屏1605的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1601进行处理。触摸显示屏1605用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,触摸显示屏1605可以为一个,设置终端1600的前面板;在另一些实施例中,触摸显示屏1605可以为至少两个,分别设置在终端1600的不同表面或呈折叠设计;在再一些实施例中,触摸显示屏1605可以是柔性显示屏,设置在终端1600的弯曲表面上或折叠面上。甚至,触摸显示屏1605还可以设置成非矩形的不规则图形,也即异形屏。触摸显示屏1605可以采用液晶显示器(LiquidCrystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等材质制备。
摄像头组件1606用于采集图像或视频。可选地,摄像头组件1606包括前置摄像头和后置摄像头。通常,前置摄像头用于实现视频通话或自拍,后置摄像头用于实现照片或视频的拍摄。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能,主摄像头和广角摄像头融合实现全景拍摄以及虚拟现实(Virtual Reality,VR)拍摄功能。在一些实施例中,摄像头组件1606还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1607用于提供用户和终端1600之间的音频接口。音频电路1607可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1601进行处理,或者输入至射频电路1604以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1600的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1601或射频电路1604的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1607还可以包括耳机插孔。
定位组件1608用于定位终端1600的当前地理位置,以实现导航或基于位置的服务(Location Based Service,LBS)。定位组件1608可以是基于美国的全球定位系统(GlobalPositioning System,GPS)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源1609用于为终端1600中的各个组件进行供电。电源1609可以是交流电、直流电、一次性电池或可充电电池。当电源1609包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1600还包括有一个或多个传感器1610。该一个或多个传感器1610包括但不限于:加速度传感器1611、陀螺仪传感器1612、压力传感器1613、指纹传感器1614、光学传感器1615以及接近传感器1616。
加速度传感器1611可以检测以终端1600建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1611可以用于检测重力加速度在三个坐标轴上的分量。处理器1601可以根据加速度传感器1611采集的重力加速度信号,控制触摸显示屏1605以横向视图或纵向视图进行用户界面的显示。加速度传感器1611还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1612可以检测终端1600的机体方向及转动角度,陀螺仪传感器1612可以与加速度传感器1611协同采集用户对终端1600的3D动作。处理器1601根据陀螺仪传感器1612采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1613可以设置在终端1600的侧边框和/或触摸显示屏1605的下层。当压力传感器1613设置在终端1600的侧边框时,可以检测用户对终端1600的握持信号,根据该握持信号进行左右手识别或快捷操作。当压力传感器1613设置在触摸显示屏1605的下层时,可以根据用户对触摸显示屏1605的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1614用于采集用户的指纹,以根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1601授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1614可以被设置终端1600的正面、背面或侧面。当终端1600上设置有物理按键或厂商标志(Logo)时,指纹传感器1614可以与物理按键或厂商Logo集成在一起。
光学传感器1615用于采集环境光强度。在一个实施例中,处理器1601可以根据光学传感器1615采集的环境光强度,控制触摸显示屏1605的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1605的显示亮度;当环境光强度较低时,调低触摸显示屏1605的显示亮度。在另一个实施例中,处理器1601还可以根据光学传感器1615采集的环境光强度,动态调整摄像头组件1606的拍摄参数。
接近传感器1616,也称距离传感器,通常设置在终端1600的正面。接近传感器1616用于采集用户与终端1600的正面之间的距离。在一个实施例中,当接近传感器1616检测到用户与终端1600的正面之间的距离逐渐变小时,由处理器1601控制触摸显示屏1605从亮屏状态切换为息屏状态;当接近传感器1616检测到用户与终端1600的正面之间的距离逐渐变大时,由处理器1601控制触摸显示屏1605从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图12中示出的结构并不构成对终端1600的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如上各个实施例所述的导航界面的显示方法。
根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。终端的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该终端执行上述方面的各种可选实现方式中提供的导航界面的显示方法。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本申请实施例所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读存储介质中或者作为计算机可读存储介质上的一个或多个指令或代码进行传输。计算机可读存储介质包括计算机存储介质和通信介质,其中通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。存储介质可以是通用或专用计算机能够存取的任何可用介质。
可以理解的是,在本申请的具体实施方式中,涉及到终端的实施环境信息,即实时时间信息、实时位置信息以及实时天气信息等的相关数据,当本申请以上实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (15)
1.一种导航界面的显示方法,其特征在于,所述方法包括:
获取实时环境信息,所述实时环境信息包括实时位置信息以及实时时间信息;
基于所述实时环境信息对应的导航场景,确定目标界面组成元素,其中,所述目标界面组成元素包括目标底图以及目标天空盒,所述目标底图用于展示路面环境,所述目标天空盒用于展示天空环境,不同导航场景对应界面组成元素的样式不同,所述目标底图与所述目标天空盒相接,且所述目标底图与所述目标天空盒接触面上方目标高度内的区域为过渡区域;
对所述目标底图以及所述目标天空盒进行组合,得到目标虚拟场景;
对所述目标虚拟场景中的所述过渡区域进行透明混合处理,透明混合处理后的所述过渡区域显示为半透明效果;
基于虚拟摄像机对所述目标虚拟场景拍摄得到的导航画面,显示所述导航界面,所述导航画面中与天空盒显示区域存在交集的虚拟物体显示为半透明效果,所述天空盒显示区域基于俯仰角调整范围、比例尺调整范围以及缩放操作确定得到,所述缩放操作用于调整比例尺以及所述虚拟摄像机的俯仰角。
2.根据权利要求1所述的方法,其特征在于,所述基于所述实时环境信息对应的导航场景,确定目标界面组成元素,包括:
基于所述实时位置信息和所述实时时间信息确定目标场景景象;
基于场景景象与底图样式的对应关系,确定所述目标场景景象对应的所述目标底图,不同场景景象的导航场景对应底图的样式不同;
基于所述场景景象与天空盒样式的对应关系,确定所述目标场景景象对应的所述目标天空盒,不同场景景象的导航场景对应天空盒的样式不同。
3.根据权利要求2所述的方法,其特征在于,所述基于所述实时位置信息和所述实时时间信息确定目标场景景象,包括:
基于所述实时位置信息中的经纬度以及所述实时时间信息中的日期,确定实时位置对应的日出时间以及日落时间;
基于所述日出时间、所述日落时间以及场景景象对应时段与所述日出时间或所述日落时间的时间差,确定各个场景景象对应的时段;
基于所述场景景象与时段的对应关系,以及所述实时时间信息所指示的目标时段,确定所述目标场景景象。
4.根据权利要求2所述的方法,其特征在于,所述基于场景景象与底图样式的对应关系,确定所述目标场景景象对应的所述目标底图,包括:
基于所述实时位置信息以及所述实时时间信息确定目标场景天气;
基于所述场景景象以及场景天气与所述底图样式的对应关系,确定所述目标场景景象以及所述目标场景天气对应的所述目标底图,相同场景景象下不同场景天气对应的所述底图样式不同;
所述基于所述场景景象与天空盒样式的对应关系,确定所述目标场景景象对应的所述目标天空盒,包括:
基于所述场景景象以及所述场景天气与所述天空盒样式的对应关系,确定所述目标场景景象以及所述目标场景天气对应的所述目标天空盒,相同场景景象下不同场景天气对应的所述天空盒样式不同。
5.根据权利要求1所述的方法,其特征在于,所述基于虚拟摄像机对所述目标虚拟场景拍摄得到的导航画面,显示所述导航界面,包括:
基于所述俯仰角调整范围、所述比例尺调整范围以及当前比例尺,确定所述虚拟摄像机的所述俯仰角,所述当前比例尺基于默认比例尺以及接收到的所述缩放操作确定得到;
基于第一角度差与第二角度差的比值,确定当前天空盒显示区域占天空盒最大显示区域的显示比例,所述第一角度差为所述俯仰角与所述俯仰角调整范围中最小角的角度差,所述第二角度差为所述俯仰角调整范围中最大角与最小角的角度差;
基于所述显示比例以及所述天空盒最大显示区域,确定所述目标天空盒的所述天空盒显示区域以及所述目标底图的底图显示区域;
对所述目标底图中显示区域与所述天空盒显示区域存在交集的虚拟物体进行半透明处理;
基于半透明处理后的所述导航画面显示所述导航界面。
6.根据权利要求1至4任一所述的方法,其特征在于,所述显示由所述目标底图和所述目标天空盒融合得到的导航界面,包括:
获取所述实时时间信息以及所述实时位置信息对应的实时太阳高度角;
基于所述实时太阳高度角、所述实时时间信息以及所述实时位置信息,确定所述目标底图上虚拟物体的目标阴影效果;
按照所述目标阴影效果,显示由所述目标底图和所述目标天空盒融合得到的所述导航界面。
7.根据权利要求6所述的方法,其特征在于,所述获取所述实时时间信息以及所述实时位置信息对应的实时太阳高度角,包括:
基于所述实时时间信息中的日期确定太阳直射纬度;
基于所述实时位置信息中的实时纬度以及所述太阳直射纬度,确定所述实时太阳高度角。
8.根据权利要求1至4任一所述的方法,其特征在于,所述获取实时环境信息,包括:
基于当前网络质量确定导航界面更新策略,所述导航界面更新策略包括在线策略和离线策略;
通过所述导航界面更新策略获取所述实时环境信息。
9.根据权利要求8所述的方法,其特征在于,所述基于当前网络质量确定导航界面更新策略,包括:
响应于导航界面更新指令,向后台服务器发送网络质量检测请求;
响应于接收到所述后台服务器发送的网络质量检测应答,且所述网络质量检测应答指示网络质量正常,确定所述导航界面更新策略为所述在线策略;
响应于接收到所述网络质量检测应答且所述网络质量异常,或目标时长内未接受到所述网络质量检测应答,确定所述导航界面更新策略为所述离线策略。
10.根据权利要求9所述的方法,其特征在于,所述响应于导航界面更新指令,向后台服务器发送网络质量检测请求,包括:
获取本地环境信息,所述本地环境信息包括本地位置信息以及本地时间信息;
向所述后台服务器发送所述网络质量检测请求以及信息获取请求,所述信息获取请求中包含所述本地环境信息,所述后台服务器用于在所述网络质量正常时,基于所述本地环境信息确定云端环境信息以及将所述云端环境信息发送至终端;
所述通过所述导航界面更新策略获取实施环境信息,包括:
响应于所述导航界面更新策略为所述在线策略,基于所述本地环境信息和所述网络质量检测应答中的所述云端环境信息确定所述实时环境信息;
响应于所述导航界面更新策略为所述离线策略,将所述本地环境信息确定为所述实时环境信息。
11.根据权利要求10所述的方法,其特征在于,所述本地时间信息包括终端系统时间以及全球定位系统GPS时间,所述云端环境信息中的云端时间信息为服务器时间;
所述基于所述本地环境信息和所述网络质量检测应答中的所述云端环境信息确定所述实时环境信息,包括:
响应于所述终端系统时间、所述服务器时间以及所述GPS时间中任意二者的时间差小于时间差阈值,将所述终端系统时间确定为实时时间;
响应于所述终端系统时间与所述GPS时间的时间差大于所述时间差阈值,将所述GPS时间确定为所述实时时间;
响应于未获取到所述GPS时间且所述终端系统时间与所述服务器时间的时间差大于所述时间差阈值,将所述服务器时间确定为所述实时时间;
所述将所述本地环境信息确定为所述实时环境信息,包括:
响应于未获取到所述GPS时间,或所述GPS时间与所述终端系统时间的时间差小于所述时间差阈值,将所述终端系统时间确定为所述实时时间;
响应于所述终端系统时间与所述GPS时间的时间差大于所述时间差阈值,将所述GPS时间确定为所述实时时间。
12.根据权利要求10所述的方法,其特征在于,所述本地位置信息包括GPS定位位置以及历史定位位置,所述云端环境信息中的云端位置信息为服务器定位位置;
所述基于所述本地环境信息和所述网络质量检测应答中的所述云端环境信息确定所述实时环境信息,包括:
将所述服务器定位位置确定为实时位置;
所述将所述本地环境信息确定为所述实时环境信息,包括:
响应于获取到所述GPS定位位置,将所述GPS定位位置确定为所述实时位置;
响应于未获取到所述GPS定位位置,将所述历史定位位置中最近一次定位位置确定为所述实时位置;
响应于未获取到所述GPS定位位置,且不存在所述历史定位位置,将默认导航位置确定为所述实时位置。
13.一种导航界面的显示装置,其特征在于,所述装置包括:
获取模块,用于获取实时环境信息,所述实时环境信息包括实时位置信息以及实时时间信息;
确定模块,用于基于所述实时环境信息对应的导航场景,确定目标界面组成元素,其中,所述目标界面组成元素包括目标底图以及目标天空盒,所述目标底图用于展示路面环境,所述目标天空盒用于展示天空环境,不同导航场景对应界面组成元素的样式不同,所述目标底图与所述目标天空盒相接,且所述目标底图与所述目标天空盒接触面上方目标高度内的区域为过渡区域;
显示模块,用于对所述目标底图以及所述目标天空盒进行组合,得到目标虚拟场景;对所述目标虚拟场景中的所述过渡区域进行透明混合处理,透明混合处理后的所述过渡区域显示为半透明效果;基于虚拟摄像机对所述目标虚拟场景拍摄得到的导航画面,显示所述导航界面,所述导航画面中与天空盒显示区域存在交集的虚拟物体显示为半透明效果,所述天空盒显示区域基于俯仰角调整范围、比例尺调整范围以及缩放操作确定得到,所述缩放操作用于调整比例尺以及所述虚拟摄像机的俯仰角。
14.一种终端,其特征在于,所述终端包括处理器和存储器;所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至12任一所述的导航界面的显示方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条计算机程序,所述计算机程序由处理器加载并执行以实现如权利要求1至12任一所述的导航界面的显示方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111354456.4A CN113805829B (zh) | 2021-11-16 | 2021-11-16 | 导航界面的显示方法、装置、终端、存储介质及程序产品 |
PCT/CN2022/126694 WO2023088030A1 (zh) | 2021-11-16 | 2022-10-21 | 导航界面的显示方法、装置、终端、存储介质及程序产品 |
US18/455,705 US20230400323A1 (en) | 2021-11-16 | 2023-08-25 | Navigation interface display method and apparatus, terminal, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111354456.4A CN113805829B (zh) | 2021-11-16 | 2021-11-16 | 导航界面的显示方法、装置、终端、存储介质及程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113805829A CN113805829A (zh) | 2021-12-17 |
CN113805829B true CN113805829B (zh) | 2022-03-11 |
Family
ID=78898704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111354456.4A Active CN113805829B (zh) | 2021-11-16 | 2021-11-16 | 导航界面的显示方法、装置、终端、存储介质及程序产品 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230400323A1 (zh) |
CN (1) | CN113805829B (zh) |
WO (1) | WO2023088030A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113805829B (zh) * | 2021-11-16 | 2022-03-11 | 腾讯科技(深圳)有限公司 | 导航界面的显示方法、装置、终端、存储介质及程序产品 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3806541B2 (ja) * | 1999-04-08 | 2006-08-09 | 株式会社ケンウッド | 車載用ナビゲーション装置 |
CN201503271U (zh) * | 2009-03-03 | 2010-06-09 | 台湾国际航电股份有限公司 | 具有即时信息显示的导航装置 |
CN101859554A (zh) * | 2009-04-10 | 2010-10-13 | 厦门高德软件有限公司 | 一种屏显模式确定方法和装置 |
CN101539620A (zh) * | 2009-04-29 | 2009-09-23 | 北京四维图新科技股份有限公司 | 导航设备和导航模式切换方法 |
CN102538798A (zh) * | 2012-01-11 | 2012-07-04 | 广东好帮手电子科技股份有限公司 | 导航设备、导航显示模式自动切换方法及系统 |
CN103514626B (zh) * | 2012-06-20 | 2016-04-20 | 厦门高德软件有限公司 | 一种显示天气信息的方法及其装置和移动终端 |
KR101503801B1 (ko) * | 2013-02-22 | 2015-03-19 | 나비스오토모티브시스템즈 주식회사 | 네비게이션 장치 및 그의 일출 및 일몰에 따른 배경 표시방법 |
KR102274405B1 (ko) * | 2014-11-28 | 2021-07-07 | 현대엠엔소프트 주식회사 | 지도 축척 변화에 따른 웹 벡터 지도 표시 방법 |
CN104977015B (zh) * | 2015-03-27 | 2017-12-29 | 腾讯科技(深圳)有限公司 | 一种路线导航的方法以及装置 |
CN111338726A (zh) * | 2020-02-18 | 2020-06-26 | 北京梧桐车联科技有限责任公司 | 显示界面的调整方法、装置及计算机存储介质 |
CN113805829B (zh) * | 2021-11-16 | 2022-03-11 | 腾讯科技(深圳)有限公司 | 导航界面的显示方法、装置、终端、存储介质及程序产品 |
-
2021
- 2021-11-16 CN CN202111354456.4A patent/CN113805829B/zh active Active
-
2022
- 2022-10-21 WO PCT/CN2022/126694 patent/WO2023088030A1/zh unknown
-
2023
- 2023-08-25 US US18/455,705 patent/US20230400323A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230400323A1 (en) | 2023-12-14 |
CN113805829A (zh) | 2021-12-17 |
WO2023088030A1 (zh) | 2023-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110967024A (zh) | 可行驶区域的检测方法、装置、设备及存储介质 | |
KR101928944B1 (ko) | 이미지를 기반으로 한 무선단말의 위치 측정 장치 및 방법 | |
US20130083216A1 (en) | Apparatus and method for automatic white balance with supplementary sensors | |
CN108055402B (zh) | 一种拍摄方法及移动终端 | |
CN110986930B (zh) | 设备定位方法、装置、电子设备及存储介质 | |
CN111854780B (zh) | 车辆导航方法、装置、车辆、电子设备及存储介质 | |
CN111104893B (zh) | 目标检测方法、装置、计算机设备及存储介质 | |
US20230400323A1 (en) | Navigation interface display method and apparatus, terminal, and storage medium | |
CN111126276A (zh) | 车道线检测方法、装置、计算机设备及存储介质 | |
CN113384880A (zh) | 虚拟场景显示方法、装置、计算机设备及存储介质 | |
CN105917329B (zh) | 信息显示装置和信息显示程序 | |
JP2014215731A (ja) | 分布データ表示装置、方法及びプログラム | |
CN112839107A (zh) | 推送内容的确定方法、装置、设备及计算机可读存储介质 | |
CN108564196B (zh) | 预报洪水的方法和装置 | |
CN110728390B (zh) | 一种事件预测的方法及装置 | |
CN112241987A (zh) | 确定防区的系统、方法、装置及存储介质 | |
CN112037545B (zh) | 信息管理方法、装置、计算机设备及存储介质 | |
CN111383243A (zh) | 一种跟踪目标对象的方法、装置、设备和存储介质 | |
CN115545592A (zh) | 显示定位的方法、装置、设备和存储介质 | |
CN112243083A (zh) | 抓拍方法、装置及计算机存储介质 | |
CN113689484B (zh) | 深度信息的确定方法、装置、终端及存储介质 | |
CN113205582B (zh) | 烘焙贴图的生成和使用方法、装置、设备及介质 | |
CN112241662B (zh) | 一种检测可行驶区域的方法及装置 | |
WO2022088919A1 (zh) | 一种界面显示方法及电子设备 | |
CN110633335B (zh) | 获取poi数据的方法、终端和可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |