CN115393509A - 一种基于增强现实的图像显示方法、显示设备及存储介质 - Google Patents
一种基于增强现实的图像显示方法、显示设备及存储介质 Download PDFInfo
- Publication number
- CN115393509A CN115393509A CN202210999995.1A CN202210999995A CN115393509A CN 115393509 A CN115393509 A CN 115393509A CN 202210999995 A CN202210999995 A CN 202210999995A CN 115393509 A CN115393509 A CN 115393509A
- Authority
- CN
- China
- Prior art keywords
- display
- dimensional space
- image
- position information
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种基于增强现实的图像显示方法、显示设备及存储介质。基于增强现实的图像显示方法包括:获取当前位置信息,以及若干图像的存储位置信息;基于当前位置信息创建三维空间,在三维空间中确定当前显示方向;按照当前位置信息和当前显示方向确定三维空间的显示条件;将存储位置信息符合显示条件的图像显示在三维空间内。通过上述方式,在三维空间中确定当前的显示方向,以确定三维空间的显示条件,仅将存储位置信息符合显示条件的图像显示在三维空间中,从而提高了图像显示的互动性和趣味性。
Description
技术领域
本申请涉及计算机视觉技术领域,特别是涉及一种基于增强现实的图像显示方法、显示设备及存储介质。
背景技术
增强现实(Augmented Reality)技术是一种将虚拟信息与真实世界进行巧妙融合的技术。其广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互以及传感等多种技术手段。增强现实通过将计算机生成的文字、图像、三维模型、音乐以及视频等虚拟信息进行模拟仿真后,应用到真实世界中,使两种信息互为补充,从而实现对真实世界的“增强”。
增强现实技术发展了很多年,希望有一天能在日常生活和工作中能使用该技术,提供生活的便利,提高工作效率等,目前也出现了很多的工作场景,随着技术的进步也有基于视觉高精度地图、信号定位等多传感器融合的全局定位的方法,数字孪生、平行世界等各类科幻的概念逐渐的成为可能。
然而,现有技术中对于图像的查看方法多数停留在普通的图像展示方式,少有结合增强现实技术来查看图像,导致现有的结合增强现实技术的图像展示方法比较单一,难以满足不同用户的体验需求。
发明内容
为了解决现有技术中存在的上述技术问题,本申请提供了一种基于增强现实的图像显示方法、显示设备及存储介质。
为解决上述问题,本申请实施例提供了一种基于增强现实的图像显示方法,基于增强现实的图像显示方法包括:获取当前位置信息,以及若干图像的存储位置信息;基于所述当前位置信息创建三维空间,在所述三维空间中确定当前显示方向;按照所述当前位置信息和所述当前显示方向确定所述三维空间的显示条件;将所述存储位置信息符合所述显示条件的图像显示在所述三维空间内。
为解决现有技术的中存在的技术问题,本申请提供了一种图像显示设备,图像显示设备包括:处理器和存储器,所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序以实现上述的方法。
为解决现有技术的中存在的技术问题,本申请提供了一种计算机可读存储介质,计算机可读存储介质存储有程序指令,所述程序指令被处理器执行时实现上述的方法。
与现有技术相比,本申请的基于增强现实的图像显示方法包括:获取当前位置信息,以及若干图像的存储位置信息;基于当前位置信息创建三维空间,在三维空间中确定当前显示方向;按照当前位置信息和当前显示方向确定三维空间的显示条件;将存储位置信息符合显示条件的图像显示在三维空间内。通过上述方式,在三维空间中确定当前的显示方向,以确定三维空间的显示条件,仅将存储位置信息符合显示条件的图像显示在三维空间中,从而提高了图像显示的互动性和趣味性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本申请。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请提供的基于增强现实的图像显示方法的一实施例流程示意图;
图2是图1所示的步骤S103的一实施例流程示意图;
图3是图1中步骤S104的一实施例流程示意图;
图4是图3中步骤S302的一实施例流程示意图;
图5是图4中步骤S402的一实施例流程示意图;
图6是图1中步骤S104的一实施例流程示意图;
图7是本申请提供的基于增强现实的图像显示装置一实施例结构示意图;
图8是本申请图像显示设备一实施例的结构示意图;
图9是本申请计算机存储介质一实施例的结构示意图。
具体实施方式
下面结合附图和实施例,对本申请作进一步的详细描述。特别指出的是,以下实施例仅用于说明本申请,但不对本申请的范围进行限定。同样的,以下实施例仅为本申请的部分实施例而非全部实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其他实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其他实施例相结合。
本申请的描述中,需要说明书的是,除非另外明确的规定和限定,术语“安装”、“设置”、“相连”、“连接”应做广义理解,例如,可以是固定连接,可以是可拆卸连接,或一体地连接;可以是机械来能接,也可以是电连接;可以是直接相连,也可以通过中间媒介间隔相连。对于本领域的普通技术人员而言,可以具体情况连接上述属于在本申请的具体含义。
本公开涉及增强现实领域,通过获取现实环境中的目标对象的图像信息,进而借助各类视觉相关算法实现对目标对象的相关特征、状态及属性进行检测或识别处理,从而得到与具体应用匹配的虚拟与现实相结合的AR效果。示例性的,目标对象可涉及与人体相关的脸部、肢体、手势、动作等,或者与物体相关的标识物、标志物,或者与场馆或场所相关的沙盘、展示区域或展示物品等。视觉相关算法可涉及视觉定位、SLAM、三维重建、图像注册、背景分割、对象的关键点提取及跟踪、对象的位姿或深度检测等。具体应用不仅可以涉及跟真实场景或物品相关的导览、导航、讲解、重建、虚拟效果叠加展示等交互场景,还可以涉及与人相关的特效处理,比如妆容美化、肢体美化、特效展示、虚拟模型展示等交互场景。
可通过卷积神经网络,实现对目标对象的相关特征、状态及属性进行检测或识别处理。上述卷积神经网络是基于深度学习框架进行模型训练而得到的网络模型。
基于上述的技术基础,本申请提供了一种基于增强现实的图像显示方法,参见图1,图1是本申请提供的基于增强现实的图像显示方法的一实施例流程示意图。具体而言,可以包括如下步骤S101~步骤S104。
步骤S101:获取当前位置信息,以及若干图像的存储位置信息。
当前位置信息可以是用户的当前所处的点位的位置信息,用户可持有显示设备,通过获取显示设备的当前位置信息即可获取用户的当前位置信息。显示设备可以为任何能够支持AR功能的电子设备,包括但不限于AR眼镜、平板电脑、智能手机等。示例性的,显示设备中呈现AR效果,可以理解为在显示设备中展示融入到现实场景的虚拟对象,可以是直接将虚拟对象的呈现内容渲染出来,并与现实场景融合,也可以是将虚拟对象的呈现内容与现实场景画面融合后,展示融合后的显示画面。在本实施例中,显示设备可以为移动终端等显示设备。
当前位置信息获取方式可以接收定位设备传输而来的当前位置信息,示例性地,定位设备可以是卫星定位设备、也可以是惯性定位设备,或者是两者的结合;卫星定位设备可以是基于全球定位系统、伽利略卫星定位系统、格洛纳斯卫星定位系统或北斗定位系统的设备。
若干图像可以包括拍摄的若干照片等,存储位置信息包括在获取照片时的位置信息。示例性地,当图片为照片时,通过传感器拍摄照片时的位置即为存储位置信息。存储位置信息可包括在获取图像时的城市信息,例如,获取图像的位置位于北京、上海、广州等;存储位置信息还可以包括在获取图像时的地理坐标值,例如,获取图像的位置位于北纬40度,东经116度等。
步骤S102:基于当前位置信息创建三维空间,在三维空间中确定当前显示方向。
三维空间可以是基于对实际环境拍摄得到的图片构建得到的。其中,拍摄的图片的数量大于1,例如可以是10张、20张、50张等等,图片的数量越多,构建的三维空间则越准确,但是相对而言构建三维空间所需要的时间则更多。当前显示方向可为显示设备朝向的方向,或者当前显示方向为用户面部朝向的方向,三维空间可以是以用户为中心的虚拟空间,也即用户在三维空间中,其朝向的方向均能在三维空间中确定当前显示方向与其对应。
步骤S103:按照当前位置信息和当前显示方向确定三维空间的显示条件。
按照当前位置信息和当前显示方向即可确定三维空间所显示的当前显示空间,示例性地,三维空间包括以用户为中心可自由切换的三维空间,当显示设备为移动终端时,确定移动终端的当前朝向方向,即可在移动终端中显示三维空间的当前显示空间。当用户以自身为中心转动一定角度时,三维空间的当前显示空间则会根据转动后的显示方向更新移动终端显示的当前显示空间。显示条件可以为存储位置信息和当前位置信息的相对距离;存储位置信息相对于当前位置信息的方位是否处于当前显示方向上等。
步骤S104:将存储位置信息符合显示条件的图像显示在三维空间内。
从每个图像的存储位置信息中即可确定图像是否符合显示条件,将符合显示条件的图像显示在三维空间中。示例性地,以显示条件包括处于当前位置信息的北方为例,当前位置信息位于湖北省内,存储位置信息位于湖北省以北的图像均可认定为符合显示条件的图像,在确定符合显示条件的图像后,即将符合显示条件的图像显示在三维空间中,以供用户在三维空间中浏览符合条件的图像。
通过上述实施方式,在三维空间中确定当前的显示方向,以确定三维空间的显示条件,仅将存储位置信息符合显示条件的图像显示在三维空间中,从而提高了图像显示的互动性和趣味性。
在一实施例中,在步骤S104之后,方法还可以包括获取下一显示方向,其中,下一显示方向不同于当前显示方向;基于下一显示方向和当前位置信息更新三维空间的显示条件;将存储位置信息符合更新后的显示条件的图像显示在三维空间内。
当三维空间可以是以用户为中心的虚拟空间,也即用户在三维空间中,其朝向的方向均能在三维空间中确定一当前显示方向与其对应,当用户持有显示设备转动特定角度后,即可根据转动后的朝向确定下一显示方向。当下一显示方向确定之后,即基于下一显示方向和当前位置信息更新三维空间的显示条件,并将符合更新后的显示条件的图像显示在三维空间内,以此能够根据显示方向的切换更新显示条件,从而达到更新显示在三维空间中的图像的目的,从而提高了图像显示的互动性和趣味性。
参见图2,图2是图1所示的步骤S103的一实施例流程示意图。具体而言,可以包括如下步骤S201~步骤S203。
步骤S201:基于当前显示方向和当前位置信息在三维空间中确定当前显示空间。
在确定用户的当前位置信息和三维空间的当前显示方向即可在三维空间中确定当前显示空间,当前显示空间可显示在显示终端中,以供用户查阅。示例性地,以显示终端为移动终端为例,用户手持移动终端,移动终端的后置摄像头的朝向即可定义为当前显示方向,基于移动终端的后置摄像头获取的三维空间即为显示在移动终端中的三维空间的当前显示空间,当用户手持移动终端转动特定角度时,移动终端的朝向发生改变,以改变当前显示方向,进而改变当前显示空间。
步骤S202:按照当前显示空间确定当前显示空间所指示的方向区域在地理坐标系下的坐标值区域。
当前显示空间为一个范围区域,示例性地,三维空间以用户自身为中心,也即可以认为三维空间是以用户为中心且在用户的360°方向上均存在的三维虚拟空间。当显示终端为移动终端时,用户手持移动终端,显示在移动终端中的当前显示空间,当前显示空间包括以用户为所处的位置为起始点,展示的三维空间的部分区域空间。为了便于理解,可简单的认定三维空间为以用户为球心的三维虚拟空间,当前显示空间即为以用户为顶点的圆锥形的三维空间。
当前显示空间所指示的方向区域即包括以当前显示空间的边界线向外延伸所形成的区域范围。该区域范围在映射在地理坐标系下即可确定该指示的方向区域在地理坐标系下的坐标值区域。
步骤S203:将坐标值区域作为三维空间的显示条件。
在确定当前显示空间所指示的方向区域在地理坐标系下的坐标值区域,即可确定该坐标值区域中所有的点在地理坐标系下的坐标值,并将其作为三维空间的显示条件。
在本实施例中,将存储位置信息符合显示条件的图像显示在三维空间内的步骤(步骤S104),包括:从存储位置信息中分别确定每一图像在地理坐标系下的存储坐标值;将存储坐标值位于坐标值区域的图像显示在当前显示空间中。
具体地,存储位置信息中可包括获取图像时的位置在地理坐标系下的存储坐标值。示例性地,第一图像的存储坐标值为北纬40度,东经116度、第二图像的存储坐标值为北纬39度,东经115度、第三图像的存储坐标值为北纬40度,东经117度等等,当坐标值区域包括北纬30度~北纬45度,东经110度~东经120度范围内时,即可认定第一图像、第二图像和第三图像均位于坐标值区域,即将第一图像、第二图像和第三图像均展示在当前显示空间中。
参见图3,图3是图1中步骤S104的一实施例流程示意图。具体而言,包括如下步骤S301~步骤S302。
步骤S301:基于存储位置信息和当前位置信息,确定符合显示条件的图像与当前位置信息的相对距离值。
在确定了符合显示条件的图像之后,如果直接将符合显示条件的图像无规律的排列在三维空间中,最终呈现的内容并不一定适合用户查看,尤其是当符合显示条件的图像较多时更是如此。为了便于用户在三维空间中查看相关图像,可将所有符合显示条件的图像按照一定的规律显示在三维空间中。具体地,可以通过获取符合显示条件的图像与当前位置信息的相对距离值,以根据相对的距离值来将显示图像显示在三维空间中。
步骤S302:将符合显示条件的图像按照相对距离值显示在三维空间中。
可将符合显示条件的图像按照相对距离值从大到小的顺序显示在三维空间中;或将符合显示条件的图像按照相对距离值从小到大的顺序显示在三维空间中;或者将符合显示条件的图像按照相对距离值从小到大的顺序呈特定形状显示在三维空间中,示例性地,将相对距离值最小的图像放置在三维空间的中间位置,然后将相对距离值逐渐增大的图像分别围绕距离值最小的图像以形成第一个扇环状,再然后继续将相对距离值逐渐增大的图像分别围绕第一个扇环状的图像排列以形成第二个扇环状,重复此种布局方式,直至将所有符合显示条件的图像均显示在三维空间中。
参见图4,图4是图3中步骤S302的一实施例流程示意图。具体而言,包括如下步骤S401~步骤S402。
步骤S401:基于当前显示方向和存储位置信息,确定符合显示条件的图像与当前位置信息的相对角度值。
在确定当前显示方向、存储位置信息以及当前位置信息即可确定符合显示条件的图像与当前位置信息的相对角度值。示例性地,当前位置信息确定用户处于第一点位、从第一图像的存储位置信息中确定第一图像在第二点位存储得到、当前显示方向则是以第一点位为起点当前显示方向为射线组成的第一参考线,第一点位和第二点位之间的连线组成的第二参考线。相对角度值则是第一参考线和第二参考线之间的夹角。当具有多个符合显示条件的图像时,每个图像分别形成一相对角度值。
步骤S402:将符合显示条件的图像按照相对距离值和相对角度值显示在三维空间中。
在得到符合显示条件的图像的相对距离值和相对角度值之后,即可确定所有符合显示条件的图像与用户的相对位置,也可以确定每个图像之间的相对距离。其中,在三维空间中显示图像时相对角度值的优先级可以大于相对距离值,示例性地,在显示图像时可以先考虑相对角度值,将相对角度值较小的图像选出,然后再根据相对距离值的大小将选出的图像进行排序,将选出的图像按照排序后的结果显示在三维空间中,再继续以此方式选择其他符合显示条件的图像一起显示在三维空间中。当然,在其他实施例中,在三维空间中显示图像时相对距离值的优先级也可以大于相对角度值。
参见图5,图5是图4中步骤S402的一实施例流程示意图。具体而言,包括如下步骤S501~步骤S502。
步骤S501:将符合显示条件的图像按照相对距离值和相对角度值进行聚类,得到若干聚类图像集。
在得到符合显示条件的图像的相对距离值和相对角度值之后,即可确定所有符合显示条件的图像与用户的相对位置,也可以确定每个图像之间的相对距离。将图像与当前位置信息的相对距离值小于预设距离阈值以及相对角度值小于预设角度阈值的图像聚类为一个聚类图像集,可以将相互关联的符合显示条件的图像做成一个聚类图像集。示例性地,按照此种方式划分方式,可以将符合显示条件的图像,按照不同城市划分为若干聚类图像集,或者按照不同旅游景点划分为若干聚类图像集等等。
步骤S502:将若干聚类图像集显示在三维空间内。
若干聚类图像集可以按照一定规律显示在三维空间中,示例性地,将图像较多的聚类图像集显示在三维空间的前面,按照图像数量依次递减的方式,将其余的聚类图像集依次显示在三维空间中。
在一实施例中,在步骤将若干聚类图像集显示在三维空间内(步骤S502)之后,还可以包括响应于用户的操作指令,在若干聚类图像集中选择至少一聚类图像集,将被选择聚类图像集中的图像显示在三维空间中。
用户的操作指令可以包括针对乐器模型所做出的操作指令,示例性地,操作指令可以是对乐器模型的单击、双击、拖拽、滑动等指令。进一步地,可根据用户不同的滑动方向,得到不同的操作指令。当然,操作指令还可以是语音操作。例如,通过识别到预设的语音信息时,则认为用户输入了操作指令,由此可以通过不同的方式输入操作指令,使得整个交互过程方便快捷。
在接收到用户的操作指令之后,即可根据操作指令选择对应的聚类图像集,示例性地,可以选择一个聚类图像集或同时选择两个及以上的聚类图像集。
每个聚类图像集中存在若干符合显示条件的图像,在选择聚类图像集后,将每个被选择的聚类图像集中所有的图像仪显示在三维空间中,由此能够方便用户选择性地查看相互具有关联性的图像,提高图像显示的多样性以及用户查看图像的便捷性。
参见图6,图6是图1中步骤S104的一实施例流程示意图。具体而言,可包括如下步骤S601~步骤S603。
步骤S601:获取符合显示条件的若干图像的存储时间信息。
若干图像可以包括拍摄的若干照片等,存储时间信息包括在获取照片时的具体时间。示例性地,当图片为照片时,通过传感器拍摄照片时的时间即为存储时间信息,存储时间信息可以细化到某一具体的日期。
步骤S602:将符合显示条件的图像按照存储时间信息进行排序,得到时间排序结果。
可将符合显示条件的图像按照存储时间的先后顺序进行排序,示例性地,将存储时间较近的图像排序在前面,然后将图像按照存储时间渐远的顺序依次排列,或者将存储时间最远的图像排序在前面,然后将图像按照存储时间渐近的顺序依次排列。
步骤S603:将符合显示条件的图像按照时间排序结果显示在三维空间中。
通过上述实施方式,在三维空间中确定当前的显示方向,以确定三维空间的显示条件,仅将存储位置信息符合显示条件的图像显示在三维空间中,并将符合显示条件的图像按照排序的结果显示在三维空间中,以此能够提高图像显示的多样性以及用户查看图像的便捷性。
为实现上述实施例的基于增强现实的图像显示方法,本申请提供了一种基于增强现实的图像显示装置。参见图7,图7是本申请提供的基于增强现实的图像显示装置一实施例结构示意图。
具体地,基于增强现实的图像显示装置70可以包括:获取模块71、创建模块72、确定模块73以及显示模块74。
获取模块71用于获取当前位置信息,以及若干图像的存储位置信息。
创建模块72用于基于当前位置信息创建三维空间。
确定模块73用于在三维空间中确定当前显示方向,以及按照当前位置信息和当前显示方向确定三维空间的显示条件。
显示模块74用于将存储位置信息符合显示条件的图像显示在三维空间内。
其中,在本申请的一个实施例,图7所示的基于增强现实的图像显示装置中的各个模块可以分别或全部合并为一个或若干个单元来构成,或者其中的某个(些)单元还可以再拆分为功能上更小的多个子单元,可以实现同样的操作,而不影响本申请的实施例的技术效果的实现。上述模块是基于逻辑功能划分的,在实际应用中,一个模块的功能也可以由多个单元来实现,或者多个模块的功能由一个单元实现。在本申请的其它实施例中,基于增强现实的图像显示装置也可以包括其它单元,在实际应用中,这些功能也可以由其它单元协助实现,并且可以由多个单元协作实现。
本申请的基于增强现实的图像显示装置可以为服务器,也可以为移动设备,还可以为由服务器和移动设备相互配合的系统。相应地,移动设备包括的各个部分,例如各个单元、子单元、模块、子模块可以全部设置于服务器中,也可以全部设置于移动设备中,还可以分别设置于服务器和移动设备中。
进一步地,上述服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块,例如用来提供分布式服务器的软件或软件模块,也可以实现成单个软件或软件模块,在此不做具体限定。
上述方法应用于图像显示设备中。具体请参阅图8,图8是本申请图像显示设备一实施例的结构示意图,本实施例图像显示设备80包括处理器81和存储器82。其中,存储器82中存储有计算机程序,处理器81用于执行计算机程序以实现上述任意实施例的方法。
其中,处理器81可以是一种集成电路芯片,具有信号的处理能力。处理器81还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
对于上述实施例的基于增强现实的图像显示方法,其可以计算机程序的形式呈现,本申请提出一种承载计算机程序的计算机存储介质,请参阅图9,图9是本申请计算机存储介质一实施例的结构示意图,本实施例计算机存储介质90包括计算机程序91,其可被执行以实现上述基于增强现实的图像显示方法。
本实施例计算机存储介质90可以是U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等可以存储程序指令的介质,或者也可以为存储有该程序指令的服务器,该服务器可将存储的程序指令发送给其他设备运行,或者也可以自运行该存储的程序指令。
另外,上述功能如果以软件功能的形式实现并作为独立产品销售或使用时,可存储在一个移动终端可读取存储介质中,即,本申请还提供一种存储有程序数据的存储装置,所述程序数据能够被执行以实现上述实施例的方法,该存储装置可以为如U盘、光盘、服务器等。也就是说,本申请可以以软件产品的形式体现出来,其包括若干指令用以使得一台智能终端执行各个实施例所述方法的全部或部分步骤。
在本申请的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(可以是个人计算机,服务器,网络设备或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
以上所述仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (11)
1.一种基于增强现实的图像显示方法,其特征在于,所述方法包括:
获取当前位置信息,以及若干图像的存储位置信息;
基于所述当前位置信息创建三维空间,在所述三维空间中确定当前显示方向;
按照所述当前位置信息和所述当前显示方向确定所述三维空间的显示条件;
将所述存储位置信息符合所述显示条件的图像显示在所述三维空间内。
2.根据权利要求1所述的方法,其特征在于,所述按照所述当前位置信息和所述当前显示方向确定所述三维空间的显示条件,包括:
基于所述当前显示方向和所述当前位置信息在所述三维空间中确定当前显示空间;
按照所述当前显示空间确定所述当前显示空间所指示的方向区域在地理坐标系下的坐标值区域;
将所述坐标值区域作为所述三维空间的显示条件。
3.根据权利要求2所述的方法,其特征在于,所述将所述存储位置信息符合所述显示条件的图像显示在所述三维空间内,包括:
从所述存储位置信息中分别确定每一图像在所述地理坐标系下的存储坐标值;
将所述存储坐标值位于所述坐标值区域的图像显示在所述当前显示空间中。
4.根据权利要求1所述的方法,其特征在于,所述将所述存储位置信息符合所述显示条件的图像显示在所述三维空间内,包括:
基于所述存储位置信息和所述当前位置信息,确定符合所述显示条件的图像与所述当前位置信息的相对距离值;
将符合所述显示条件的图像按照所述相对距离值显示在所述三维空间中。
5.根据权利要求4所述的方法,其特征在于,所述将符合所述显示条件的图像按照所述相对距离值显示在所述三维空间中,包括:
基于所述当前显示方向和所述存储位置信息,确定符合所述显示条件的图像与所述当前位置信息的相对角度值;
将符合所述显示条件的图像按照所述相对距离值和所述相对角度值显示在所述三维空间中。
6.根据权利要求5所述的方法,其特征在于,所述将符合所述显示条件的图像按照所述相对距离值和所述相对角度值显示在所述三维空间中,包括:
将符合所述显示条件的图像按照所述相对距离值和所述相对角度值进行聚类,得到若干聚类图像集;
将所述若干聚类图像集显示在所述三维空间内。
7.根据权利要求5所述的方法,其特征在于,在所述将所述若干聚类图像集显示在所述三维空间内之后,所述方法还包括:
响应于用户的操作指令,在所述若干聚类图像集中选择至少一所述聚类图像集;
将被选择所述聚类图像集中的图像显示在所述三维空间中。
8.根据权利要求1所述的方法,其特征在于,所述将所述存储位置信息符合所述显示条件的图像显示在所述三维空间内,包括:
获取符合所述显示条件的若干图像的存储时间信息;
将符合所述显示条件的图像按照所述存储时间信息进行排序,得到时间排序结果;
将符合所述显示条件的图像按照所述时间排序结果显示在所述三维空间中。
9.根据权利要求1所述的方法,其特征在于,所述方法包括:
获取下一显示方向,其中,所述下一显示方向不同于所述当前显示方向;
基于所述下一显示方向和所述当前位置信息更新所述三维空间的显示条件;
将所述存储位置信息符合更新后的所述显示条件的图像显示在所述三维空间内。
10.一种图像显示设备,其特征在于,包括:处理器和存储器,所述存储器中存储有计算机程序,所述处理器用于执行所述计算机程序以实现权利要求1至9中任一项所述的方法。
11.一种计算机可读存储介质,其上存储有程序指令,其特征在于,所述程序指令被处理器执行时实现权利要求1至9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210999995.1A CN115393509A (zh) | 2022-08-19 | 2022-08-19 | 一种基于增强现实的图像显示方法、显示设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210999995.1A CN115393509A (zh) | 2022-08-19 | 2022-08-19 | 一种基于增强现实的图像显示方法、显示设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115393509A true CN115393509A (zh) | 2022-11-25 |
Family
ID=84121014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210999995.1A Pending CN115393509A (zh) | 2022-08-19 | 2022-08-19 | 一种基于增强现实的图像显示方法、显示设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115393509A (zh) |
-
2022
- 2022-08-19 CN CN202210999995.1A patent/CN115393509A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11562540B2 (en) | Method for representing virtual information in a real environment | |
CN110954083B (zh) | 移动设备的定位 | |
US9766712B2 (en) | Systems and methods for orienting a user in a map display | |
US20140111547A1 (en) | Synchronized, interactive augmented reality displays for multifunction devices | |
US11151791B2 (en) | R-snap for production of augmented realities | |
EP2560145A2 (en) | Methods and systems for enabling the creation of augmented reality content | |
US10018480B2 (en) | Point of interest selection based on a user request | |
US10810466B2 (en) | Method for location inference from map images | |
US11532138B2 (en) | Augmented reality (AR) imprinting methods and systems | |
US20130167014A1 (en) | Method and Apparatus of Physically Moving a Portable Unit to View Composite Webpages of Different Websites | |
Sekhavat et al. | The effect of tracking technique on the quality of user experience for augmented reality mobile navigation | |
US11302067B2 (en) | Systems and method for realistic augmented reality (AR) lighting effects | |
US11568579B2 (en) | Augmented reality content generation with update suspension | |
EP3488355A1 (en) | Point of interest selection based on a user request | |
CN114967914A (zh) | 一种虚拟显示方法、装置、设备以及存储介质 | |
CN115731370A (zh) | 一种大场景元宇宙空间叠加方法和装置 | |
CN115393509A (zh) | 一种基于增强现实的图像显示方法、显示设备及存储介质 | |
Raposo et al. | Revisiting the city, augmented with digital technologies: the SeeARch tool | |
US10878278B1 (en) | Geo-localization based on remotely sensed visual features | |
Daraghmi | Augmented Reality Based Mobile App for a University Campus | |
US11726740B2 (en) | Immersive audio tours | |
CN116600045A (zh) | 一种日程显示方法、日程显示设备以及存储介质 | |
CN115965742A (zh) | 空间展示方法、装置、设备和存储介质 | |
CN118071970A (zh) | 一种虚拟场景的交互方法、装置、电子设备及存储介质 | |
Au | Integrating multiple views to improve scene understanding and spatial awareness |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |