CN108985275B - 增强现实设备及电子设备的显示追踪方法和装置 - Google Patents
增强现实设备及电子设备的显示追踪方法和装置 Download PDFInfo
- Publication number
- CN108985275B CN108985275B CN201810946734.7A CN201810946734A CN108985275B CN 108985275 B CN108985275 B CN 108985275B CN 201810946734 A CN201810946734 A CN 201810946734A CN 108985275 B CN108985275 B CN 108985275B
- Authority
- CN
- China
- Prior art keywords
- feature set
- features
- reference feature
- image
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开提供了一种增强现实设备的显示追踪方法,包括:获取增强现实设备所在物理空间的图像信息,该物理空间的图像信息包括另一电子设备的当前显示图像;识别物理空间的图像信息,得到另一电子设备的当前显示图像;基于该当前显示图像提取组成特征集的一个或多个特征;以及基于特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置,该显示追踪位置为增强现实设备展示虚拟图像的位置,一个参考特征集对应由基于另一电子设备第一时刻的显示图像提取的一个或多个参考特征组成,不同参考特征集对应由不同时刻的显示图像提取的参考特征组成。本公开还提供了一种增强现实设备的显示追踪装置以及一种电子设备的显示追踪方法和装置。
Description
技术领域
本公开涉及一种增强现实设备的显示追踪方法和装置,以及一种电子设备的显示追踪方法和装置。
背景技术
随着科技的快速发展,将真实世界信息和虚拟世界信息“无缝”集成的新技术增强现实有望能够应用于更多场景中,以丰富现实世界,构建更加丰富和美好的世界。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:现有的增强现实无标记跟踪技术中,通常都需要基于预先输入的图像生成离线模型作为目标图像的参考,然后识别增强现实设备的摄像头实时捕获的图像中的特征,并将该识别的特征与离线模型进行匹配对比,若存在匹配成功的特征,则说明该捕获的图像中与该特征对应的部分为目标图像,根据该目标图像相对于增强现实设备摄像头的三维坐标等信息对虚拟物体进行渲染、投影变换,得到虚拟物体正确的投影图像,然后将其叠加于捕获图像进行融合显示,得到增强效果。但此种方法以离线模型为参考,要求目标图像的结构和轮廓维持不变,且在目标或用户快速移动时,该跟踪技术的实时性差,因此,此方法对于目标图像的特征持续改变的情形(例如数字显示)则不再适用。
发明内容
本公开的一个方面提供了一种增强现实设备的显示追踪方法,包括:获取增强现实设备所在物理空间的图像信息,该物理空间的图像信息包括另一电子设备的当前显示图像;识别物理空间的图像信息,得到另一电子设备的当前显示图像;基于另一电子设备的当前显示图像,提取一个或多个特征,该一个或多个特征组成特征集;以及基于特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置,其中,显示追踪位置为增强现实设备展示虚拟图像的位置,一个参考特征集对应由基于另一电子设备第一时刻的显示图像提取的一个或多个参考特征组成,不同参考特征集对应由不同时刻的显示图像提取的参考特征组成。
可选地,基于特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置包括:将特征集基于预设顺序依次与至少一个参考特征集进行匹配对比,直至得到至少一个匹配的特征或所述至少一个参考特征集都被匹配对比;以及基于匹配对比的结果,确定当前的显示追踪位置。
可选地,基于匹配对比的结果,确定当前的显示追踪位置包括:在得到至少一个匹配的特征的情况下:将增强现实设备的投影画面中、与至少一个匹配的特征在另一电子设备的当前显示图像中的位置对应的位置作为当前的显示追踪位置;和/或,在至少一个匹配的特征是与预设顺序的第一个参考特征集的参考特征匹配的情况下:获取参考特征集,以更新预设顺序的第一个参考特征集;其中,获取的参考特征集包括:增强现实设备通过向另一电子设备发送第一获取请求获取的、另一电子设备基于其在接收第一获取请求的时刻的显示图像提取的一个或多个参考特征;或者,参考特征集包括:增强现实设备基于向另一电子设备发送第二获取请求获取的另一电子设备在接收第二获取请求时的显示图像,提取的一个或多个参考特征。
可选地,基于匹配对比的结果,确定当前的显示追踪位置包括:在没有匹配的特征的情况下:将特征集中,与已存储的匹配特征表征同一物体的一个或多个特征确定为匹配的一个或多个特征;以及将增强现实设备的投影画面中、与匹配的一个或多个特征在另一电子设备的当前显示图像中的位置对应的位置作为当前的显示追踪位置,其中,已存储的匹配特征包括:基于获取当前显示图像之前获取的先前显示图像提取得到的特征集中匹配的至少一个特征。
可选地,基于匹配对比的结果,确定当前的显示追踪位置包括:在没有匹配的特征的情况下,基于已存储的至少两个显示追踪位置,确定当前的显示追踪位置,其中,已存储的显示追踪位置包括:基于获取当前显示图像之前获取的先前显示图像提取得到的特征集中,匹配的至少一个特征得到的显示追踪位置。
可选地,基于匹配对比的结果,确定当前的显示追踪位置包括:在没有匹配的特征的情况的持续时长不小于预设时长的情况下,获取参考特征集,以更新预设顺序的第一个参考特征集,其中,预设时长包括:根据显示图像得到参考特征集的时长;并且/或者,上述方法还包括:定期获取参考特征集,以定期更新预设顺序的第一个参考特征集,其中,获取的参考特征集包括:增强现实设备通过向另一电子设备发送第一获取请求获取的、另一电子设备基于其在接收第一获取请求的时刻的显示图像提取的一个或多个参考特征;或者,参考特征集包括:增强现实设备基于向另一电子设备发送第二获取请求获取的另一电子设备在接收第二获取请求时的显示图像,提取的一个或多个参考特征。
本公开的另一方面提供了一种电子设备的显示追踪方法,包括:基于显示图像,提取一个或多个参考特征,该一个或多个参考特征组成参考特征集;以及向增强现实设备发送参考特征集,以使增强现实设备基于特征集与一个或多个参考特征集匹配对比的结果确定当前的显示追踪位置,该显示追踪位置为所述增强现实设备展示虚拟图像的位置,其中,特征集由增强现实设备基于获取的其所在物理空间的图像信息中电子设备的当前显示图像,提取的一个或多个特征组成,一个参考特征集对应由电子设备的第一时刻的显示图像生成,不同参考特征集对应由所述电子设备的不同时刻的显示图像生成。
可选地,基于显示图像,提取一个或多个参考特征包括:电子设备在接收到增强现实设备的第一获取请求的情况下,基于其在接收第一获取请求的时刻的显示图像,提取一个或多个参考特征。
本公开的另一方面提供了一种增强现实设备的显示追踪方法,包括:获取增强现实设备所在物理空间的图像信息,该物理空间的图像信息包括另一电子设备的当前显示图像;向另一电子设备发送物理空间的图像信息;以及自另一电子设备获取当前的显示追踪位置,其中,显示追踪位置为增强现实设备展示虚拟图像的位置,该显示追踪位置包括:另一电子设备根据其基于物理空间的图像信息包括的当前显示图像提取的特征集与一个或多个参考特征集匹配对比的结果,确定的显示追踪位置,一个参考特征集对应由另一电子设备基于其第一时刻的显示图像提取的一个或多个参考特征组成,不同参考特征集对应由另一电子设备基于其不同时刻的显示图像提取的参考特征组成。
本公开的另一方面提供了一种电子设备的显示追踪方法,包括:接收增强现实设备发送的其所在物理空间的图像信息,该物理空间的图像信息包括电子设备的当前显示图像;识别物理空间的图像信息,得到电子设备的当前显示图像;基于当前显示图像,提取一个或多个特征,该一个或多个特征组成特征集;基于特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置;以及向增强现实设备发送显示追踪位置,其中,显示追踪位置为所述增强现实设备展示虚拟图像的位置,一个参考特征集对应由电子设备基于其第一时刻的显示图像提取的一个或多个参考特征组成,不同参考特征集对应由电子设备基于其不同时刻的显示图像提取的参考特征组成。
可选地:基于特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置包括:将特征集基于预设顺序依次与至少一个参考特征集进行匹配对比,直至得到至少一个匹配的特征或至少一个参考特征集都被匹配对比;以及基于匹配对比的结果,确定当前的显示追踪位置。
可选地,基于匹配对比的结果,确定当前的显示追踪位置包括:在得到至少一个匹配的特征的情况下:将增强现实设备的投影画面中、与至少一个匹配的特征在电子设备的当前显示图像中的位置对应的位置作为当前的显示追踪位置;和/或,在至少一个匹配的特征是与预设顺序的第一个参考特征集的参考特征匹配的情况下:获取参考特征集,以更新预设顺序的第一个参考特征集,其中,获取的参考特征集包括:电子设备基于其最新的显示图像提取的一个或多个参考特征。
可选地,基于匹配对比的结果,确定当前的显示追踪位置包括:在没有匹配的特征的情况下:将特征集中,与已存储的匹配特征表征同一物体的一个或多个特征确定为匹配的一个或多个特征,以及将增强现实设备的投影画面中、与匹配的一个或多个特征在电子设备的当前显示图像中的位置对应的位置作为当前的显示追踪位置,其中,已存储的匹配特征包括:基于获取当前显示图像之前获取的先前显示图像提取得到的特征集中匹配的至少一个特征。
可选地,基于匹配对比的结果,确定当前的显示追踪位置包括:在没有匹配的特征的情况下,基于已存储的至少两个显示追踪位置,确定当前的显示追踪位置,其中,已存储的显示追踪位置包括:基于获取当前显示图像之前获取的先前显示图像提取得到的特征集中,匹配的至少一个特征得到的显示追踪位置。
可选地,基于匹配对比的结果,确定当前的显示追踪位置包括:在没有匹配的特征的情况的持续时长不小于预设时长的情况下,获取参考特征集,以更新预设顺序的第一个参考特征集,其中,预设时长包括:根据显示图像得到参考特征集的时长;和/或,上述方法还包括:定期获取参考特征集,以定期更新预设顺序的第一个参考特征集,其中,获取的参考特征集包括:电子设备基于其最新的显示图像提取的一个或多个参考特征。
本公开的另一方面提供了一种增强现实设备的显示追踪装置,包括:图像信息获取模块,获取增强现实设备所在物理空间的图像信息,该物理空间的图像信息包括另一电子设备的当前显示图像;第一图像信息识别模块,识别物理空间的图像信息,得到另一电子设备的当前显示图像;第一特征提取模块,基于另一电子设备的当前显示图像,提取一个或多个特征,该一个或多个特征组成特征集;以及第一位置确定模块,基于特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置,其中,显示追踪位置为增强现实设备展示虚拟图像的位置;一个参考特征集对应由基于另一电子设备第一时刻的显示图像提取的一个或多个参考特征组成,不同参考特征集对应由不同时刻的显示图像提取的参考特征组成。
本公开的另一方面提供了一种电子设备的显示追踪装置,包括:图像信息接收模块,接收增强现实设备发送的其所在物理空间的图像信息,该物理空间的图像信息包括所述电子设备的当前显示图像;第二图像信息识别模块,识别物理空间的图像信息,得到电子设备的当前显示图像;第二特征提取模块,基于当前显示图像,提取一个或多个特征,该一个或多个特征组成特征集;第二位置确定模块,基于特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置;以及位置发送模块,向增强现实设备发送显示追踪位置,其中,显示追踪位置为增强现实设备展示虚拟图像的位置,一个参考特征集对应由电子设备基于其第一时刻的显示图像提取的一个或多个参考特征组成,不同参考特征集对应由电子设备基于其不同时刻的显示图像提取的参考特征组成。
本公开的另一方面提供了一种非易失存储介质,存储有计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
本公开的另一方面提供了一种计算机程序,所述计算机程序包括计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
附图说明
为了更完整地理解本公开及其优势,现在将参考结合附图的以下描述,其中:
图1示意性示出了根据本公开实施例的增强实现设备及电子设备的显示追踪方法和装置的应用场景;
图2示意性示出了根据本公开实施例的增强现实设备的显示追踪方法的流程图;
图3A~图3E示意性示出了根据本公开实施例的基于匹配对比的结果,确定当前的显示追踪位置的流程图;
图4示意性示出了根据本公开另一实施例的增强现实设备的显示追踪方法的流程图;
图5示意性示出了根据本公开实施例的电子设备的显示追踪方法的流程图;
图6示意性示出了根据本公开实施例的显示追踪方法的原理图;
图7示意性示出了根据本公开另一实施例的增强现实设备的显示追踪方法的流程图;
图8示意性示出了根据本公开另一实施例的电子设备的显示追踪方法的流程图;
图9示意性示出了根据本公开实施例的增强现实设备的显示追踪装置的结构框图;
图10示意性示出了根据本公开实施例的电子设备的显示追踪装置的结构框图;
图11示意性示出了根据本公开实施例的适于实现显示追踪方法的计算机系统的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。本领域技术人员还应理解,实质上任意表示两个或更多可选项目的转折连词和/或短语,无论是在说明书、权利要求书还是附图中,都应被理解为给出了包括这些项目之一、这些项目任一方、或两个项目的可能性。例如,短语“A或B”应当被理解为包括“A”或“B”、或“A和B”的可能性。
附图中示出了一些方框图和/或流程图。应理解,方框图和/或流程图中的一些方框或其组合可以由计算机程序指令来实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,从而这些指令在由该处理器执行时可以创建用于实现这些方框图和/或流程图中所说明的功能/操作的装置。
因此,本公开的技术可以硬件和/或软件(包括固件、微代码等)的形式来实现。另外,本公开的技术可以采取存储有指令的计算机可读介质上的计算机程序产品的形式,该计算机程序产品可供指令执行系统使用或者结合指令执行系统使用。在本公开的上下文中,计算机可读介质可以是能够包含、存储、传送、传播或传输指令的任意介质。例如,计算机可读介质可以包括但不限于电、磁、光、电磁、红外或半导体系统、装置、器件或传播介质。计算机可读介质的具体示例包括:磁存储装置,如磁带或硬盘(HDD);光存储装置,如光盘(CD-ROM);存储器,如随机存取存储器(RAM)或闪存;和/或有线/无线通信链路。
本公开的实施例提供了一种增强现实设备的显示追踪方法,包括:获取增强现实设备所在物理空间的图像信息,该物理空间的图像信息包括另一电子设备的当前显示图像;识别物理空间的图像信息,得到另一电子设备的当前显示图像;基于另一电子设备的当前显示图像,提取一个或多个特征,该一个或多个特征组成特征集;以及基于特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置,其中,显示追踪位置为增强现实设备展示虚拟图像的位置,一个参考特征集对应由基于另一电子设备第一时刻的显示图像提取的一个或多个参考特征组成,不同参考特征集对应由不同时刻的显示图像提取的参考特征组成。
本公开的实施例还提供了一种电子设备的显示追踪方法,包括:接收增强现实设备发送的其所在物理空间的图像信息,该物理空间的图像信息包括所述电子设备的当前显示图像;识别物理空间的图像信息,得到电子设备的当前显示图像;基于当前显示图像,提取一个或多个特征,该一个或多个特征组成特征集;基于特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置;以及向增强现实设备发送显示追踪位置,其中,显示追踪位置为所述增强现实设备展示虚拟图像的位置,一个参考特征集对应由电子设备基于其第一时刻的显示图像提取的一个或多个参考特征组成,不同参考特征集对应由电子设备基于其不同时刻的显示图像提取的参考特征组成。
上述的显示追踪方法,由于采用根据电子设备的显示图像提取的特征作为参考特征,使得参考特征可随着电子设备的显示图像的变化而发生变化,相较于现有技术中采用预先设定的参考特征的显示追踪方法,能够避免因目标物体发生改变导致的追踪失败的缺陷,从而能够在一定程度上提高显示追踪的实时性与精度,提高增强现实技术中展示虚拟图像的流畅性。
图1示意性示出了根据本公开实施例的增强现实设备及电子设备的显示追踪方法和装置的应用场景。需要注意的是,图1所示仅为可以应用本公开实施例的场景的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,该应用场景包括增强现实设备110、电子设备120、用户130以及网络140,网络140用以在增强现实设备110和电子设备120之间提供通信链路的介质。网络140可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
增强现实设备110包括有摄像组件和处理组件,当用户130佩戴增强现实设备110时,该摄像组件用于拍摄增强现实设备110所在物理空间的图像信息,而处理组件用于对该图像信息进行处理以确定当前的显示追踪位置,并根据确定的显示追踪位置展示虚拟内容,向用户130提供额外的虚拟信息。
电子设备120例如可以是具有显示屏且具有数据处理功能的各种电子设备,该电子设备120位于增强现实设备110所在物理空间,从而以使得摄像组件拍摄的物理空间的图像信息包括该电子设备120的显示图像;同时,该电子设备120还可以响应于增强现实设备110的获取请求,对接收该获取请求时的显示图像进行处理得到参考特征集,以作为增强现实设备110确定显示追踪位置的依据。
电子设备120可以安装有各种客户端应用,例如视频类应用、增强现实类应用等,该电子设备120包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
根据本公开的实施例,上述增强现实设备110的处理组件例如还可以仅具有根据显示追踪位置展示虚拟内容的功能,此处的显示追踪位置可以是由电子设备120根据摄像组件拍摄的物理空间的图像信息确定的。
根据本公开的实施例,上述增强现实设备110的处理组件例如可以仅具有根据显示追踪位置展示虚拟内容的功能,以及根据摄像组件111拍摄的物理空间的图像信息提取特征集的功能,相应地,此处的显示追踪位置可以由电子设备120根据该特征集确定。
应该理解,图1中的增强现实设备110、电子设备120及网络140的类型和数目仅仅是示意性的。根据实现需要,可以具有任意数目和类型的增强现实设备、电子设备及网络。
图2示意性示出了根据本公开实施例的增强现实设备的显示追踪方法的流程图。
如图2所示,该方法包括操作S210~操作S240。
在操作S210,获取增强现实设备所在物理空间的图像信息,该物理空间的图像信息包括另一电子设备的当前显示图像。
根据本公开的实施例,该图像信息例如可以是增强现实设备的摄像组件拍摄的,所在物理空间的图像信息具体则为该摄像组件的视角范围内的图像信息。具体地,该图像信息具体可以是在参考图1中的用户130佩戴增强现实设备观看另一电子设备120的显示图像时拍摄的,则该物理空间的图像信息包括另一电子设备120的当前显示图像。
在操作S220,识别物理空间的图像信息,得到另一电子设备的当前显示图像。
根据本公开的实施例,另一电子设备的当前显示图像具体可以通过对图像信息进行初步识别得到,例如可以预先存储有另一电子设备的边界信息(例如另一电子设备的外边界图形特征等),通过识别物理空间的图像信息中另一电子设备的边界信息来裁剪得到另一电子设备的当前显示图像。可以理解的是,得到另一电子设备的当前显示图像可以采用现有技术中图像提取、图像裁剪的任意方法,上述方法仅作为示例以利于理解本公开,本公开对此不作限定。
在操作S230,基于另一电子设备的当前显示图像,提取一个或多个特征,该一个或多个特征组成特征集。
根据本公开的实施例,该一个或多个特征的提取,具体例如可以是提取多个特征点,多个特征点的提取例如可以通过基于模板的方法、基于边缘的方法、基于灰度的方法或基于空间变换的方法来提取。特征点的提取具体可以采用现有技术中任意的提取方法,例如Harris算法或SIFT算法等,本公开对此不作限定。
根据本公开的实施例,该提取的一个或多个特征例如可以包括颜色特征、形状特征、纹理特征和/或空间关系特征等。其中纹理特征即为当前显示图像中具有的物体的表面性质,形状特征可以为当前显示图像中具有的物体的形状信息等,空间关系特征可以为当前显示图像中具有的多个物体之间的相对方向或空间位置关系等。具体地,该一个或多个特征例如可以为角点、颜色变化或直线等。可以理解的是,上述特征仅作为示例以利于理解本公开,本公开对此不作限定。
根据本公开的实施例,该操作S230具体例如可以是,先提取特征,再建立特征描述子(descriptor),以对当前显示图像的局部结构特征进行定量化描述,充分反映在特征点附近局部图像的形状和纹理结构。
根据本公开的实施例,为了提高特征点提取的准确性,在该操作S230之前例如还可以对物理空间的图像信息或识别得到的另一电子设备的当前显示图像进行去噪、灰度化等预处理。
在操作S240,基于特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置,其中,显示追踪位置为增强现实设备展示虚拟图像的位置。
根据本公开的实施例,每个参考特征集具体可以对应由基于另一电子设备一个时刻的显示图像提取得到的一个或多个参考特征组成,且不同参考特征集对应由基于不同时刻的显示图像提取的参考特征组成,此处的参考特征与特征集包括的特征类似,也可以是颜色特征、形状特征、纹理特征和空间关系特征等,且该参考特征的提取与特征集包括的特征的提取方法类似,在此不再赘述。
根据本公开的实施例,该特征集与一个或多个参考特征集匹配对比例如可以是将特征集的每个特征均与一个或多个参考特征集中的每个参考特征进行比对,以确定该每个特征是否具有匹配的参考特征,若有匹配的参考特征,则可以将增强现实设备的投影画面中,与该具有匹配的参考特征的特征在当前显示图像中的位置对应的位置作为当前的显示追踪位置,则增强现实设备即可根据该显示追踪位置展示虚拟图像。根据本公开的实施例,该虚拟图像可以是该具有匹配的参考特征的特征表征的物体的额外信息,例如该特征表征的物体的属性信息等。
根据本公开的实施例,特征集与参考特征集的匹配对比本质例如为寻找获取的当前显示图像与一个或多个参考特征集对应的另一电子设备的显示图像间的映射关系,即要将两幅或多幅图像中同一景物或物体联系起来,以展示与该同一景物或物体对应的虚拟图像,提供该同一景物或物体的额外信息。
综上可知,由于显示追踪方法采用基于另一电子设备的显示图像得到的特征作为参考特征进行追踪位置的确定,因此当用户通过增强现实设备观看另一电子设备的显示图像时,能够实时的看到显示图像中目标物体的虚拟图像,相较于现有技术中采用预设的参考特征的显示追踪方法,能够在一定程度上避免因目标物体发生改变导致的追踪失败的缺陷,并因此提高增强现实设备图像特征匹配的准确率,以及显示追踪的实时性与精度,从而提高增强现实技术中展示虚拟图像的流畅性。
图3A~图3E示意性示出了根据本公开实施例的基于匹配对比的结果,确定当前的显示追中位置的流程图。图4示意性示出了根据本公开另一实施例的增强现实设备的显示追踪方法的流程图。
如图3A所示,参考图2中的操作S240具体可以包括操作S241~操作S242。
在操作S241,将特征集基于预设顺序依次与至少一个参考特征集进行匹配对比,直至得到至少一个匹配的特征或所述至少一个参考特征集都被匹配对比。
根据本公开的实施例,预设顺序例如可以是产生参考特征集的时间顺序,具体地,该特征集例如可以先与在时间上最新的参考特征集进行匹配对比,若该最新的参考特征集中不存在与特征集中的特征匹配的参考特征,则将该特征集与时间上次新的参考特征集进行匹配对比,依次类推,直至得到与多个参考特征集中的参考特征匹配的特征为止,或者直到该至少一个参考特征集都被匹配对比。
根据本公开的实施例,为了避免占用过多存储空间,该参考特征集例如可以为一个,该一个参考特征集为时间上最新的参考特征集,此处的一个参考特征集之所以选择时间上最新的参考特征集,是考虑到目标物体可能发生位置或形状的改变等,而时间上最新的参考特征集显然与当前的显示图像提取的特征集匹配的概率最大。
根据本公开的实施例,在另一电子设备在放映动作电影的情况下,显示图像更新频率很快,例如为60帧/秒,而考虑到目前增强现实设备的摄像组件的最大捕捉频率仅为30帧/秒,若仅将特征集与一个参考特征集进行匹配对比,不可避免的会出现在显示追踪过程中丢失目标物体的情况,本公开实施例的参考特征集例如可以设置至少两个,以提高显示追踪的精度,避免丢失目标物体的情况发生。
根据本公开的实施例,考虑到在另一电子设备播放视频时,显示图像在短时间内可能发生很大的变化,因此可能导致现有的参考特征集相较于当前的显示图像已过时,不存在匹配的特征的情况,则如图4所示,本公开实施例的参考特征集例如还可以由增强现实设备定期获取,以定期的更新预设顺序的第一个参考特征集,则本公开实施例的方法可以包括操作S250,定期获取参考特征集,以定期更新预设顺序的第一个参考特征集。因此可以在一定程度上避免上述情况的发生,从而提高显示追踪的实时性。
根据本公开的实施例,定期获取参考特征集的周期例如可以为基于显示图像得到参考特征集的周期,具体地,相邻两个参考特征集的获取间隔应不小于基于显示图像得到参考特征集的时长。
在操作S242,基于匹配对比的结果,确定当前的显示追踪位置。
具体地,如图3B所示,该操作S242例如可以包括操作S2421~操作S2422。
在操作S2421,在得到至少一个匹配的特征的情况下:将增强现实设备的投影画面中、与至少一个匹配的特征在另一电子设备的当前显示图像中的位置对应的位置作为当前的显示追踪位置。在操作S2422,在至少一个匹配的特征是与预设顺序的第一个参考特征集的参考特征匹配的情况下,获取参考特征集,以更新预设顺序的第一个参考特征集。
根据本公开的实施例,此处匹配的特征例如可以是与参考特征的匹配度大于预设值的特征,此处的预设值例如可以为70%等,可以理解的是,上述匹配的特征的确定及预设值仅作为示例以利于理解本公开,本公开对此不做限定。
根据本公开的实施例,该增强现实设备的投影画面例如可以是增强现实设备将获取的物理空间的图像信息投影至人眼的位置,则根据该确定的显示追踪位置展示虚拟图像,可以使得佩戴增强现实设备的用户能够看到该虚拟图像。
根据本公开的实施例,上述操作S2422具体可以是:在至少一个匹配的特征是与预设顺序的第一个参考特征集的参考特征匹配的情况下,增强现实设备向另一电子设备发送第一获取请求(具体可以是参考特征集获取请求),并获取另一电子设备基于其在接收该第一获取请求时的显示图像提取的一个或多个参考特征组成的参考特征集,作为后续显示追踪中预设顺序的第一个参考特征集。因此,操作S2422获取的参考特征集包括:增强现实设备通过向另一电子设备发送第一获取请求获取的、另一电子设备基于其在接收第一获取请求的时刻的显示图像提取的一个或多个参考特征。
根据本公开的实施例,上述操作S2422具体可以是:在至少一个匹配的特征是与预设顺序的第一个参考特征集的参考特征匹配的情况下,增强现实设备向另一电子设备发送第二获取请求(具体可以是显示图像获取请求),以获取另一电子设备在接收该第二获取请求时的显示图像,并基于获取的显示图像提取一个或多个参考特征组成参考特征集,作为后续显示追踪中预设顺序的第一个参考特征集。因此,操作S2422获取的参考特征包括增强现实设备基于向另一电子设备发送第二获取请求得到的另一电子设备在接收第二获取请求时的显示图像,提取的一个或多个参考特征。
根据本公开的实施例,如图3C所示,该操作S242例如可以包括操作S2423~操作S2424。
在操作S2423,在没有匹配的特征的情况下:将特征集中,与已存储的匹配特征表征同一物体的一个或多个特征确定为匹配的一个或多个特征;在操作S2424,将增强现实设备的投影画面中、与匹配的一个或多个特征在另一电子设备的当前显示图像中的位置对应的位置作为当前的显示追踪位置。
根据本公开的实施例,已存储的匹配特征包括:基于获取当前显示图像之前获取的先前显示图像提取得到的特征集中匹配的至少一个特征。具体地,该已存储的匹配特征可以是当前时刻之前,通过参考图3A的操作确定的匹配的特征,相应地,本公开实施例的增强现实设备的显示追踪方法在得到匹配的特征时,会实时的存储该匹配的特征。
根据本公开的实施例,在另一电子设备播放视频的情况下,考虑到显示图像的更新速率较快,可能存在显示追踪过程中丢失目标物体的情况,即不存在匹配的特征的情况。而为了避免参考特征集占用增强现实设备的过多缓存空间,通常仅存若干个最新的参考特征集,则例如视频中目标物体A在显示该若干个最新的参考特征集对应的图像之前显示,在该若干个最新的参考特征集对应的图像没有显示,而在当前显示图像中又出现,此种情况下,参考特征集中必定不存在与该目标物体A的特征匹配的参考特征,此种情况则无法正常提供目标物体A的虚拟图像(例如可以是目标物体A的属性信息的图像);或者例如视频中目标物体A发生由苹果变成果核的变化,具体在该若干个最新的参考特征集对应的显示图像组成的视频中该苹果逐渐被视频中的人物食用,考虑到在确定匹配的特征时只要保证匹配度大于预设值(60%)即可,则若当前显示图像之前的前一显示图像中目标物体A与最新的参考特征集的匹配度大于该预设值(例如最新的参考特征集中苹果还剩20%未被食用,而前一显示图像中苹果还剩15%未被食用),而当前显示图像中苹果还剩10%未被食用,若将当前显示图像中的苹果与最新的参考特征集比对,匹配度可能低于预设值,从而无法正常提供目标物体A(苹果)的虚拟图像。
为了避免此缺陷,考虑到已存储的匹配特征中可能存在表征目标物体A的特征,则在不存在匹配的特征的情况下,可以将特征集中与已存储的匹配特征中表征同一物体(即目标物体A)的一个或多个特征确定为匹配的一个或多个特征(例如将已存储的匹配特征与当前的特征进行匹配对比,可以确定与已存储的匹配特征表征同一物体的特征,具体例如将已存储的前一显示图像中还剩15%的苹果的特征与当前的特征比对,可以确定得到还剩10%的苹果的特征为匹配的特征),则即可根据特征集中表征目标物体A的特征确定显示追踪位置,从而可以实时的显示该目标物体A的虚拟图像(例如可以是目标物体A的属性信息的图像)。可以理解的是,上述根据已存储的匹配特征来确定当前的匹配的一个或多个特征,从而确定显示追踪位置的方法仅作为示例以利于理解本公开,本公开对此不作限定。
综上可知,本公开实施例在不存在匹配的特征的情况下通过执行上述操作S2423~操作S2424,可以在一定程度上避免显示追踪过程中目标物体丢失,从而导致无法及时提供与目标物体对应的虚拟图像的缺陷,并因此可以在一定程度上提高确定的显示追踪位置的精度,向用户实时的提供与该目标物体对应的虚拟图像。
根据本公开的实施例,如图3D所示,该操作S242例如可以包括操作S2425。
在操作S2425,在没有匹配的特征的情况下,基于已存储的至少两个显示追踪位置,确定当前的显示追踪位置。
根据本公开的实施例,已存储的显示追踪位置包括:基于获取当前显示图像之前获取的先前显示图像提取得到的特征集中,匹配的至少一个特征得到的显示追踪位置。具体地,该已存储的显示追踪位置可以是当前时刻之前,通过参考图3A的操作确定的显示追踪位置,相应地,本公开实施例的增强现实设备的显示追踪方法在得到当前显示追踪位置时,会实时的存储该当前显示追踪位置。
根据本公开的实施例,在另一电子设备播放动作电影类的视频的情况下,考虑到显示图像的更新速率可能要快于摄像组件的捕捉速率,存在显示追踪过程中丢失目标物体的情况,即不存在匹配的特征的情况。具体地,在与特征集进行匹配对比的参考特征集仅为最新的一个参考特征集的情况下,考虑到另一电子设备的显示图像的更新频率可能为60帧/秒,而摄像组件的捕捉频率为30帧/秒,若目标物体B在该播放的视频中的运动轨迹是自画面左侧移动到右侧并移出画面,则可能存在通过参考图2获取的另一电子设备的当前显示图像中显示有该目标物体B,而在最新的参考特征集对应的显示图像中未显示有该目标物体B的情况(考虑到另一电子设备的显示图像的更新频率快,该最新的参考特征集对应的显示图像中目标物体B可能已经移出画面),此种情况下,参考特征集中不存在与目标物体B的特征匹配的参考特征,因此,无法确定显示追踪位置,也就无法展示与目标物体B对应的虚拟图像。
为了避免此种情况,考虑到目标物体B移出画面的运动是连续的,则可以根据已存储的基于与目标物体B匹配的特征确定的至少两个显示追踪位置,来确定该目标物体B的运动轨迹、速度及加速度,从而根据运动规律,推算得到该目标物体B的当前的位置,以作为当前的显示追踪位置,从而可以实现该目标物体B对应的虚拟图像的显示。可以理解的是,此处已存储的显示追踪位置至少为两个,且为了提高当前显示追踪位置的准确性,该已存储的显示追踪位置的数量的设定应以能够推算得到运动轨迹、速度和加速度为标准。
综上可知,本公开实施例在不存在匹配的特征的情况下通过执行上述操作S2425,可以在一定程度上避免显示追踪过程中目标物体丢失,从而导致无法及时提供与目标物体对应的虚拟图像的缺陷,并因此可以在一定程度上提高确定的显示追踪位置的精度,向用户实时的提供与该目标物体对应的虚拟图像。
根据本公开的实施例,如图3E所示,该操作S242例如可以包括操作S2426。
在操作S2426,在没有匹配的特征的情况的持续时长不小于预设时长的情况下,获取参考特征集,以更新预设顺序的第一个参考特征集。
根据本公开的实施例,上述预设时长例如可以是根据显示图像得到参考特征集的时长。根据本公开的实施例,若持续的不存在匹配的特征,则可以说明当前显示图像相较于参考特征集对应的显示图像发生了很大的变化,则需要重新获取参考特征集,以确保能够实时的展示与当前显示图像中的目标物体对应的虚拟图像,提高用户体验感。
根据本公开的实施例,在没有匹配的特征的情况的持续时长不小于预设时长的情况下,例如还可以适当的减小定期获取参考特征集的周期,以减小显示与最新的参考特征集对应的图像信息与显示当前显示图像的时间间隔,提高从参考特征集中找到与特征集中的特征匹配的参考特征的几率,从而避免无法实时展示与当前显示图像中的目标物体对应的虚拟图像的缺陷。
图5示意性示出了根据本公开实施例的电子设备的显示追踪方法的流程图。
如图5所示,该方法包括操作S510~操作S520。
在操作S510,基于显示图像,提取一个或多个参考特征,该一个或多个参考特征组成参考特征集;在操作S520,向增强现实设备发送参考特征集,以使增强现实设备基于特征集与一个或多个参考特征集匹配对比的结果确定当前的显示追踪位置。
根据本公开的实施例,特征集是由增强现实设备基于获取的其所在物理空间的图像信息中电子设备的当前显示图像,提取的一个或多个特征组成。根据本公开的实施例,该特征集例如可以是经由参考图2描述的操作S210~操作S230获取得到,在此不再赘述。
根据本公开的实施例,增强现实设备确定的当前的显示追踪位置例如可以通过参考图3A~图3E描述的操作得到,在此不再赘述。
根据本公开的实施例,一个参考特征集对应由电子设备的第一时刻的显示图像生成,不同参考特征集对应由所述电子设备的不同时刻的显示图像生成。
根据本公开的实施例,参考图5中的操作S510例如可以在电子设备接收到增强现实设备的第一获取请求的情况下执行,则其中的显示图像即为电子设备在接收该第一获取请求的时刻的显示图像,其中的第一获取请求例如可以是增强现实设备在至少一个匹配的特征是与预设顺序的第一个参考特征集的参考特征匹配的情况下发送的参考特征集获取请求,在此不再赘述。
根据本公开的实施例,参考图5中的操作S510~操作S520例如还可以定期地执行,以供增强现实设备定期地获取参考特征集。
图6示意性示出了根据本公开实施例的显示追踪方法的原理图。
如图6所示,该显示追踪方法包括操作S610~操作S680。具体地,该方法包括三部分:
第一部分为参考特征集的生成,具体包括操作S610~操作S630,在操作S610,电子设备获取其显示图像,在操作S620,基于电子设备获取的显示图像提取参考特征,在操作S630,根据提取的参考特征,生成参考特征的描述子,得到参考特征集。其中,操作S620~操作S630类似于参考图5中的操作S510,操作S610由电子设备执行,操作S620~操作S630既可以由电子设备执行,也可以由增强现实设备执行;
第二部分为特征集的生成,具体包括操作S640~操作S660,在操作S640,增强现实设备获取其所在物理空间的图像信息;在操作S650,根据所述物理空间的图像信息,获取得到该图像信息中电子设备的当前显示图像;在操作S660,基于该获取的电子设备的当前显示图像提取特征,并根据提取的特征,生成特征的描述子,得到特征集。其中,操作S640~操作S660类似于参考图2中的操作S210~操作S230,操作S640由增强现实设备执行,而操作S650~操作S660既可由增强现实设备执行,也可由电子设备执行;
第三部分为匹配对比以确定显示追踪位置,具体包括操作S670~操作S680,在操作S670,将第二部分生成的特征集基于预设顺序依次与经由第一部分的操作得到的n个参考特征集匹配对比,直至得到匹配的特征或者该n个参考特征集均被匹配对比;则根据操作S670匹配对比的结果,可以选择执行操作S680并且/或者返回执行操作S610。具体地,在匹配对比的结果为存在匹配的特征的情况下,或者在匹配对比结果为不存在匹配特征,但根据已存储的匹配特征能够确定当前的匹配特征的情况下,或者在匹配对比结果为不存在匹配特征,但根据已存储的显示追踪位置能够确定当前的显示追踪位置的情况下,执行操作S680,确定显示追踪位置;而在匹配对比的结果为存在匹配特征,且该匹配的特征是与预设顺序的第一个参考特征集的参考特征匹配的情况下、或者在匹配对比的结果为不存在匹配特征,且没有匹配的特征的情况的持续时长不小于预设时长的情况下,返回执行操作S610,以更新预设顺序的第一个参考特征集。其中,增强现实设备与电子设备为不同的设备,n为自然数,且该显示追踪方法还可以定期执行操作S610~操作S630,以定期更新预设顺序的第一个参考特征集,操作S670类似于参考图3A中的操作S241,而操作S680类似于参考图3B中的操作S2421、参考图3C中的操作S2424,或者参考图3D中的操作S2425,在此不再赘述。
图7示意性示出了根据本公开另一实施例的增强现实设备的显示追踪方法的流程图。
如图7所示,该方法包括操作S710~操作S730。
在操作S710,获取增强现实设备所在物理空间的图像信息,该物理空间的图像信息包括另一电子设备的当前显示图像。在操作S720,向另一电子设备发送物理空间的图像信息;在操作S730,自另一电子设备获取当前的显示追踪位置,该显示追踪位置为增强现实设备展示虚拟图像的位置。根据本公开的实施例,操作S710例如与参考图2中的操作S210类似,在此不再赘述。
根据本公开的实施例,显示追踪位置包括:另一电子设备根据其基于物理空间的图像信息包括的当前显示图像提取的特征集与一个或多个参考特征集匹配对比的结果,确定的显示追踪位置。根据本公开的实施例,该显示追踪位置例如可以是另一电子设备通过执行参考图3A~图3E中的操作确定的,在此不再赘述。
图8示意性示出了根据本公开另一实施例的电子设备的显示追踪方法的流程图。
如图8所示,该方法包括操作S810~操作850。
在操作S810,接收增强现实设备发送的其所在物理空间的图像信息,该物理空间的图像信息包括电子设备的当前显示图像。其中,物理空间的图像信息例如可以是增强现实设备通过参考图7中的操作S710~操作720发送的。
在操作S820,识别物理空间的图像信息,得到电子设备的当前显示图像;在操作S830,基于当前显示图像,提取一个或多个特征,该一个或多个特征组成特征集;在操作S840,基于特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置。根据本公开的实施例,操作S820~操作S840的执行例如类似于参考图2描述的操作S220~操作S240,区别仅在于,该操作S820~操作S840由电子设备执行,在此不再赘述。
在操作S850,向增强现实设备发送显示追踪位置,该显示追踪位置为增强现实设备展示虚拟图像的位置。
根据本公开的实施例,上述一个或多个参考特征集中的一个参考特征集对应由电子设备基于其第一时刻的显示图像提取的一个或多个参考特征组成,不同参考特征集对应由电子设备基于其不同时刻的显示图像提取的参考特征组成。
根据本公开的实施例,基于特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置包括:将特征集基于预设顺序依次与至少一个参考特征集进行匹配对比,直至得到至少一个匹配的特征或至少一个参考特征集都被匹配对比;以及基于匹配对比的结果,确定当前的显示追踪位置。根据本公开的实施例,上述操作类似于参考图3A描述的操作S241~操作S242,区别仅在于上述操作由电子设备执行,在此不再赘述。
根据本公开的实施例,基于匹配对比的结果,确定当前的显示追踪位置包括:在得到至少一个匹配的特征的情况下,将所述增强现实设备的投影画面中、与至少一个匹配的特征在电子设备的当前显示图像中的位置对应的位置作为当前的显示追踪位置;和/或,在至少一个匹配的特征是与预设顺序的第一个参考特征集的参考特征匹配的情况下,获取参考特征集,以更新预设顺序的第一个参考特征集。其中,获取的参考特征集包括:电子设备基于其最新的显示图像提取的一个或多个参考特征。根据本公开的实施例,上述操作类似于参考图3B描述的操作S2421~操作S2422,区别仅在于上述操作由电子设备执行,在此不再赘述。
根据本公开的实施例,基于匹配对比的结果,确定当前的显示追踪位置包括:在没有匹配的特征的情况下,将特征集中,与已存储的匹配特征表征同一物体的一个或多个特征确定为匹配的一个或多个特征。其中,已存储的匹配特征包括:基于获取所述当前显示图像之前获取的先前显示图像提取得到的特征集中匹配的至少一个特征;以及将增强现实设备的投影画面中、与匹配的一个或多个特征在所述电子设备的当前显示图像中的位置对应的位置作为当前的显示追踪位置。根据本公开的实施例,上述操作类似于参考图3C描述的操作S2423~操作S2424,区别仅在于上述操作由电子设备执行,在此不再赘述。
根据本公开的实施例,基于匹配对比的结果,确定当前的显示追踪位置包括:在没有匹配的特征的情况下,基于已存储的至少两个显示追踪位置,确定当前的显示追踪位置,其中,已存储的显示追踪位置包括:基于获取当前显示图像之前获取的先前显示图像提取得到的特征集中,匹配的至少一个特征得到的显示追踪位置。根据本公开的实施例,上述操作类似于参考图3D描述的操作S2425,区别仅在于,上述操作由电子设备执行,在此不再赘述。
根据本公开的实施例,基于匹配对比的结果,确定当前的显示追踪位置包括:在没有匹配的特征的情况的持续时长不小于预设时长的情况下,获取参考特征集,以更新预设顺序的第一个参考特征集,其中,预设时长包括:根据显示图像得到参考特征集的时长,获取的参考特征集包括:电子设备基于其最新的显示图像提取的一个或多个参考特征。根据本公开的实施例,上述操作类似于参考图3E描述的操作S2426,区别仅在于,参考特征集由电子设备提取的一个或多个参考特征组成,上述操作由电子设备执行,在此不再赘述。
根据本公开的实施例,该电子设备的显示追踪方法例如还可以包括以下操作:定期获取参考特征集,以定期更新预设顺序的第一个参考特征集,其中,获取的参考特征集包括:电子设备基于其最新的显示图像提取的一个或多个参考特征。根据本公开的实施例,上述操作类似于参考图4描述的操作S250,区别仅在于,参考特征集由电子设备提取的一个或多个参考特征组成,在此不再赘述。
图9示意性示出了根据本公开实施的增强现实设备的显示追踪装置的结构框图。
如图9所示,该增强现实设备的显示追踪装置900包括图像信息获取模块910、第一图像信息识别模块920、第一特征提取模块930以及第一位置确定模块940。
其中,图像信息获取模块910用于获取增强现实设备所在物理空间的图像信息,该物理空间的图像信息包括另一电子设备的当前显示图像;第一图像信息识别模块920用于基于另一电子设备的当前显示图像,提取一个或多个特征,该一个或多个特征组成特征集;第一特征提取模块930用于基于另一电子设备的当前显示图像,提取一个或多个特征,该一个或多个特征组成特征集;第一位置确定模块940用于基于特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置,该显示追踪位置为增强现实设备展示虚拟图像的位置,一个参考特征集对应由基于另一电子设备第一时刻的显示图像提取的一个或多个参考特征组成,不同参考特征集对应由不同时刻的显示图像提取的参考特征组成。根据本公开的实施例,图像信息获取模块910、第一图像信息识别模块920、第一特征提取模块930以及第一位置确定模块940例如可以分别用于执行参考图2描述的操作S210~操作S240,在此不再赘述。
根据本公开的实施例,如图9所示,上述第一位置确定模块940例如可以包括第一匹配对比子模块941和第一位置确定子模块942,第一匹配对比子模块941用于将特征集基于预设顺序依次与至少一个参考特征集进行匹配对比,直至得到至少一个匹配的特征或至少一个参考特征集都被匹配对比;第一位置确定子模块942用于基于匹配对比的结果,确定当前的显示追踪位置。根据本公开的实施例,第一匹配对比子模块941和第一位置确定子模块942例如可以分别用于执行参考图3A描述的操作S241~操作S242,在此不再赘述。
根据本公开的实施例,如图9所示,第一位置确定子模块942例如可以包括第一位置确定单元9421和第一参考特征集获取单元9422,第一位置确定单元9421用于在得到至少一个匹配的特征的情况下:将增强现实设备的投影画面中、与至少一个匹配的特征在另一电子设备的当前显示图像中的位置对应的位置作为当前的显示追踪位置,第一参考特征集获取单元9422用于在至少一个匹配的特征是与预设顺序的第一个参考特征集的参考特征匹配的情况下,获取参考特征集,以更新预设顺序的第一个参考特征集。根据本公开的实施例,第一位置确定单元9421和第一参考特征集获取单元9422例如可以分别用于执行参考图3B描述的操作S2421~操作S2422,在此不再赘述。
根据本公开的实施例,第一位置确定子模块942例如还可以包括第一匹配特征确定单元9423,用于在没有匹配的特征的情况下:将特征集中,与已存储的匹配特征表征同一物体的一个或多个特征确定为匹配的一个或多个特征。根据本公开的实施例,该第一匹配特征确定单元9423例如可以用于执行参考图3C描述的操作S2423,则第一位置确定单元9421例如还可以用于执行参考图3C描述的操作S2424,在此不再赘述。
根据本公开的实施例,上述第一位置确定单元9421例如还可以用于在没有匹配的特征的情况下,基于已存储的至少两个显示追踪位置,确定当前的显示追踪位置。根据本公开的实施例,该第一位置确定单元9421例如还可以用于执行参考图3D描述的操作S2425,在此不再赘述。
根据本公开的实施例,第一参考特征集获取单元9422例如还可以用于在没有匹配的特征的情况的持续时长不小于预设时长的情况下,获取参考特征集,以更新预设顺序的第一个参考特征集,其中,预设时长包括:根据显示图像得到参考特征集的时长;并且/或者,该第一参考特征集获取单元9422还用于定期获取参考特征集,以定期更新预设顺序的第一个参考特征集。根据本公开的实施例,该第一参考特征集获取单元9422例如还可以用于执行参考图3E描述的操作S2426,和/或参考图4描述的操作S250,在此不再赘述。
可以理解的是,参考图9中增强现实设备的显示追踪装置仅作为示例以利于理解本公开,本公开对此不作限定,例如,该显示追踪装置例如还可以仅包括图像信息获取模块910、图像信息发送模块和位置获取模块,其中的图像信息发送模块用于向另一电子设备发送物理空间的图像信息,显示追踪位置获取模块用于自另一电子设备获取当前的显示追踪位置,根据本公开的实施例,图像信息获取模块910、图像信息发送模块和位置获取模块可以分别用于执行参考图7描述的操作S710~操作S730,在此不再赘述。
根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,图像信息获取模块910、第一图像信息识别模块920、第一特征提取模块930、第一位置确定模块940、图像信息发送模块、位置获取模块、第一匹配对比子模块941、第一位置确定子模块942、第一位置确定单元9421、第一参考特征集获取单元9422以及第一匹配特征确定单元9423中的任意多个可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,图像信息获取模块910、第一图像信息识别模块920、第一特征提取模块930、第一位置确定模块940、图像信息发送模块、位置获取模块、第一匹配对比子模块941、第一位置确定子模块942、第一位置确定单元9421、第一参考特征集获取单元9422以及第一匹配特征确定单元9423中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,图像信息获取模块910、第一图像信息识别模块920、第一特征提取模块930、第一位置确定模块940、图像信息发送模块、位置获取模块、第一匹配对比子模块941、第一位置确定子模块942、第一位置确定单元9421、第一参考特征集获取单元9422以及第一匹配特征确定单元9423中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图10示意性示出了根据本公开实施例的电子设备的显示追踪装置的结构框图。
如图10所示,该装置1000包括图像信息接收模块1010、第二图像信息识别模块1020、第二特征提取模块1030、第二位置确定模块1040和位置发送模块1050。
其中,图像信息接收模块1010用于接收增强现实设备发送的其所在物理空间的图像信息,该物理空间的图像信息包括所述电子设备的当前显示图像;第二图像信息识别模块1020用于识别物理空间的图像信息,得到电子设备的当前显示图像;第二特征提取模块1030用于基于当前显示图像,提取一个或多个特征,该一个或多个特征组成特征集;第二位置确定模块1040用于基于特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置;位置发送模块1050用于向增强现实设备发送显示追踪位置,该显示追踪位置为增强现实设备展示虚拟图像的位置。根据本公开的实施例,图像信息接收模块1010、第二图像信息识别模块1020、第二特征提取模块1030、第二位置确定模块1040和位置发送模块1050可以分别用于执行参考图8描述的操作S810~操作S850,在此不再赘述。
根据本公开的实施例,如图10所示,上述第二位置确定模块1040例如可以包括第二匹配对比子模块1041和第二位置确定子模块1042,第二匹配对比子模块1041用于将特征集基于预设顺序依次与至少一个参考特征集进行匹配对比,直至得到至少一个匹配的特征或至少一个参考特征集都被匹配对比;第二显示追踪位置子模块1042用于基于匹配对比的结果,确定当前的显示追踪位置。根据本公开的实施例,第二匹配对比子模块1041和第二位置确定子模块1042例如可以分别用于执行参考图3A描述的操作S241~操作S242,在此不再赘述。
根据本公开的实施例,第二位置确定子模块1042例如可以包括第二位置确定单元10421和第二参考特征集获取单元10422,第二位置确定单元10421用于在得到至少一个匹配的特征的情况下:将增强现实设备的投影画面中、与至少一个匹配的特征在另一电子设备的当前显示图像中的位置对应的位置作为当前的显示追踪位置,第二参考特征集获取单元10422用于在至少一个匹配的特征是与预设顺序的第一个参考特征集的参考特征匹配的情况下,获取参考特征集,以更新预设顺序的第一个参考特征集。根据本公开的实施例,第二位置确定单元10421和第二参考特征集获取单元10422例如可以分别用于执行参考图3B描述的操作S2421~操作S2422,在此不再赘述。
根据本公开的实施例,第二位置确定子模块1042例如还可以包括第二匹配特征确定单元10423,用于在没有匹配的特征的情况下:将特征集中,与已存储的匹配特征表征同一物体的一个或多个特征确定为匹配的一个或多个特征。根据本公开的实施例,该第二匹配特征确定单元10423例如可以用于执行参考图3C描述的操作S2423,则第二显示追踪位置确定单元10421例如还可以用于执行参考图3C描述的操作S2424,在此不再赘述。
根据本公开的实施例,上述第二位置确定单元10421例如还可以用于在没有匹配的特征的情况下,基于已存储的至少两个显示追踪位置,确定当前的显示追踪位置。根据本公开的实施例,该第二位置确定单元10421例如还可以用于执行参考图3D描述的操作S2425,在此不再赘述。
根据本公开的实施例,第二参考特征集获取单元10422例如还可以用于在没有匹配的特征的情况的持续时长不小于预设时长的情况下,获取参考特征集,以更新预设顺序的第一个参考特征集,其中,预设时长包括:根据显示图像得到参考特征集的时长;并且/或者,该第二参考特征集获取单元10422还用于定期获取参考特征集,以定期更新预设顺序的第一个参考特征集。根据本公开的实施例,该第二参考特征集获取单元10422例如还可以用于执行参考图3E描述的操作S2426,和/或参考图4描述的操作S250,在此不再赘述。
可以理解的是,参考图10描述的电子设备的显示追踪装置仅作为示例以利于理解本公开,本公开对此不作限定,例如该显示追踪装置例如还可以仅包括参考特征提取模块和参考特征发送模块,参考特征提取模块用于基于显示图像,提取一个或多个参考特征,该一个或多个参考特征组成参考特征集;参考特征发送模块用于向增强现实设备发送参考特征集,以使增强现实设备基于特征集与一个或多个参考特征集匹配对比的结果确定当前的显示追踪位置。根据本公开的实施例,参考特征提取模块和参考特征发送模块例如可以分别用于执行参考图5描述的操作S510~操作S520,在此不再赘述。
根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,图像信息接收模块1010、第二图像信息识别模块1020、第二特征提取模块1030、第二位置确定模块1040、位置发送模块1050、参考特征提取模块、参考特征发送模块、第二匹配对比子模块1041、第二位置确定子模块1042、第二位置确定单元10421、第二参考特征集获取单元10422以及第二匹配特征确定单元10423中的任意多个可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,图像信息接收模块1010、第二图像信息识别模块1020、第二特征提取模块1030、第二位置确定模块1040、位置发送模块1050、参考特征提取模块、参考特征发送模块、第二匹配对比子模块1041、第二位置确定子模块1042、第二位置确定单元10421、第二参考特征集获取单元10422以及第二匹配特征确定单元10423中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,图像信息接收模块1010、第二图像信息识别模块1020、第二特征提取模块1030、第二位置确定模块1040、位置发送模块1050、参考特征提取模块、参考特征发送模块、第二匹配对比子模块1041、第二位置确定子模块1042、第二位置确定单元10421、第二参考特征集获取单元10422以及第二匹配特征确定单元10423中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图11示意性示出了根据本公开实施例的适于实现显示追踪方法的计算机系统的方框图。图11示出的计算机系统仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图11所示,增强现实设备/电子设备1100包括处理器1110、计算机可读存储介质1120、信号发送器1130、以及信号接收器1140。该增强现实设备/电子设备1100可以执行根据本公开实施例的方法。
具体地,处理器1110例如可以包括通用微处理器、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器1110还可以包括用于缓存用途的板载存储器。处理器1110可以是用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
计算机可读存储介质1120,例如可以是能够包含、存储、传送、传播或传输指令的任意介质。例如,可读存储介质可以包括但不限于电、磁、光、电磁、红外或半导体系统、装置、器件或传播介质。可读存储介质的具体示例包括:磁存储装置,如磁带或硬盘(HDD);光存储装置,如光盘(CD-ROM);存储器,如随机存取存储器(RAM)或闪存;和/或有线/无线通信链路。
计算机可读存储介质1120可以包括计算机程序1121,该计算机程序1121可以包括代码/计算机可执行指令,其在由处理器1110执行时使得处理器1110执行根据本公开实施例的方法或其任何变形。
计算机程序1121可被配置为具有例如包括计算机程序模块的计算机程序代码。例如,在示例实施例中,计算机程序1121中的代码可以包括一个或多个程序模块,例如包括1121A、模块1121B、……。应当注意,模块的划分方式和个数并不是固定的,本领域技术人员可以根据实际情况使用合适的程序模块或程序模块组合,当这些程序模块组合被处理器1110执行时,使得处理器1110可以执行根据本公开实施例的方法或其任何变形。
根据本公开的实施例,处理器1110可以与信号发送器1130和信号接收器1140进行交互,来执行根据本公开实施例的方法或其任何变形。
根据本发明的实施例,图像信息获取模块910、第一图像信息识别模块920、第一特征提取模块930、第一位置确定模块940、第一匹配对比子模块941、第一位置确定子模块942、第一位置确定单元9421、第一匹配特征确定单元9423、第二图像信息识别模块1020、第二特征提取模块1030、第二位置确定模块1040、参考特征提取模块、第二匹配对比子模块1041、第二位置确定子模块1042、第二位置确定单元10421、第二参考特征集获取单元10422以及第二匹配特征确定单元10423中的至少一个可以实现为参考图11描述的计算机程序模块,其在被处理器1110执行时,可以实现上面描述的相应操作。
本公开还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、使携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、有线、光缆、射频信号等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
尽管已经参照本公开的特定示例性实施例示出并描述了本公开,但是本领域技术人员应该理解,在不背离所附权利要求及其等同物限定的本公开的精神和范围的情况下,可以对本公开进行形式和细节上的多种改变。因此,本公开的范围不应该限于上述实施例,而是应该不仅由所附权利要求来进行确定,还由所附权利要求的等同物来进行限定。
Claims (9)
1.一种增强现实设备的显示追踪方法,包括:
获取所述增强现实设备所在物理空间的图像信息,所述物理空间的图像信息包括另一电子设备的当前显示图像;
识别所述物理空间的图像信息,得到所述另一电子设备的当前显示图像;
基于所述另一电子设备的当前显示图像,提取一个或多个特征,所述一个或多个特征组成特征集;以及
基于所述特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置,其中,所述显示追踪位置为所述增强现实设备展示虚拟图像的位置,
其中,一个参考特征集对应由基于所述另一电子设备第一时刻的显示图像提取的一个或多个参考特征组成,不同参考特征集对应由不同时刻的显示图像提取的参考特征组成;
其中,所述基于所述特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置包括:
将所述特征集基于预设顺序依次与至少一个参考特征集进行匹配对比,直至得到至少一个匹配的特征或所述至少一个参考特征集都被匹配对比;以及
基于所述匹配对比的结果,确定当前的显示追踪位置;
其中,所述预设顺序为产生参考特征集的时间顺序;
所述方法还包括:定期获取参考特征集,以定期更新所述预设顺序的第一个参考特征集。
2.根据权利要求1所述的方法,其中,基于所述匹配对比的结果,确定当前的显示追踪位置包括:
在得到至少一个匹配的特征的情况下:
将所述增强现实设备的投影画面中、与所述至少一个匹配的特征在所述另一电子设备的当前显示图像中的位置对应的位置作为当前的显示追踪位置;和/或
在所述至少一个匹配的特征是与预设顺序的第一个参考特征集的参考特征匹配的情况下,获取参考特征集,以更新所述预设顺序的第一个参考特征集,
其中,获取的所述参考特征集包括:所述增强现实设备通过向所述另一电子设备发送第一获取请求获取的、所述另一电子设备基于其在接收所述第一获取请求的时刻的显示图像提取的一个或多个参考特征;或者,所述参考特征集包括:所述增强现实设备基于向所述另一电子设备发送第二获取请求获取的另一电子设备在接收所述第二获取请求时的显示图像,提取的一个或多个参考特征。
3.根据权利要求1所述的方法,其中,基于所述匹配对比的结果,确定当前的显示追踪位置包括:
在没有匹配的特征的情况下:
将所述特征集中,与已存储的匹配特征表征同一物体的一个或多个特征确定为匹配的一个或多个特征;以及
将所述增强现实设备的投影画面中、与所述匹配的一个或多个特征在所述另一电子设备的当前显示图像中的位置对应的位置作为当前的显示追踪位置,
其中,所述已存储的匹配特征包括:基于获取所述当前显示图像之前获取的先前显示图像提取得到的特征集中匹配的至少一个特征。
4.根据权利要求1所述的方法,其中,基于所述匹配对比的结果,确定当前的显示追踪位置包括:
在没有匹配的特征的情况下,基于已存储的至少两个显示追踪位置,确定当前的显示追踪位置,
其中,所述已存储的显示追踪位置包括:基于获取所述当前显示图像之前获取的先前显示图像提取得到的特征集中,匹配的至少一个特征得到的显示追踪位置。
5.根据权利要求1所述的方法,其中:
基于所述匹配对比的结果,确定当前的显示追踪位置包括:在没有匹配的特征的情况的持续时长不小于预设时长的情况下,获取参考特征集,以更新所述预设顺序的第一个参考特征集,其中,所述预设时长包括:根据所述显示图像得到参考特征集的时长;并且/或者
其中,获取的所述参考特征集包括:所述增强现实设备通过向所述另一电子设备发送第一获取请求获取的、所述另一电子设备基于其在接收所述第一获取请求的时刻的显示图像提取的一个或多个参考特征;或者,所述参考特征集包括:所述增强现实设备基于向所述另一电子设备发送第二获取请求获取的另一电子设备在接收所述第二获取请求时的显示图像,提取的一个或多个参考特征。
6.一种电子设备的显示追踪方法,包括:
接收增强现实设备发送的其所在物理空间的图像信息,所述物理空间的图像信息包括所述电子设备的当前显示图像;
识别所述物理空间的图像信息,得到所述电子设备的当前显示图像;
基于所述当前显示图像,提取一个或多个特征,所述一个或多个特征组成特征集;
基于所述特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置;以及
向所述增强现实设备发送所述显示追踪位置,其中,所述显示追踪位置为所述增强现实设备展示虚拟图像的位置,
其中,一个参考特征集对应由所述电子设备基于其第一时刻的显示图像提取的一个或多个参考特征组成,不同参考特征集对应由所述电子设备基于其不同时刻的显示图像提取的参考特征组成;
基于所述特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置包括:
将所述特征集基于预设顺序依次与至少一个参考特征集进行匹配对比,直至得到至少一个匹配的特征或所述至少一个参考特征集都被匹配对比;以及
基于所述匹配对比的结果,确定当前的显示追踪位置;
其中,所述预设顺序为产生参考特征集的时间顺序;
所述电子设备的显示追踪方法还包括:定期获取参考特征集,以定期更新所述预设顺序的第一个参考特征集。
7.根据权利要求6所述的方法,其中:
基于所述匹配对比的结果,确定当前的显示追踪位置包括:
在得到至少一个匹配的特征的情况下:
将所述增强现实设备的投影画面中、与所述至少一个匹配的特征在所述电子设备的当前显示图像中的位置对应的位置作为当前的显示追踪位置;和/或
在所述至少一个匹配的特征是与预设顺序的第一个参考特征集的参考特征匹配的情况下,获取参考特征集,以更新所述预设顺序的第一个参考特征集;和/或
在没有匹配的特征的情况下:
将所述特征集中,与已存储的匹配特征表征同一物体的一个或多个特征确定为匹配的一个或多个特征,其中,所述已存储的匹配特征包括:基于获取所述当前显示图像之前获取的先前显示图像提取得到的特征集中匹配的至少一个特征;以及
将所述增强现实设备的投影画面中、与所述匹配的一个或多个特征在所述电子设备的当前显示图像中的位置对应的位置作为当前的显示追踪位置;和/或
在没有匹配的特征的情况下,基于已存储的至少两个显示追踪位置,确定当前的显示追踪位置,其中,所述已存储的显示追踪位置包括:基于获取所述当前显示图像之前获取的先前显示图像提取得到的特征集中,匹配的至少一个特征得到的显示追踪位置;和/或
在没有匹配的特征的情况的持续时长不小于预设时长的情况下,获取参考特征集,以更新所述预设顺序的第一个参考特征集,其中,所述预设时长包括:根据显示图像得到参考特征集的时长;和/或
获取的所述参考特征集包括:所述电子设备基于其最新的显示图像提取的一个或多个参考特征。
8.一种增强现实设备的显示追踪装置,包括:
图像信息获取模块,获取所述增强现实设备所在物理空间的图像信息,所述物理空间的图像信息包括另一电子设备的当前显示图像;
第一图像信息识别模块,识别所述物理空间的图像信息,得到所述另一电子设备的当前显示图像;
第一特征提取模块,基于所述另一电子设备的当前显示图像,提取一个或多个特征,所述一个或多个特征组成特征集;以及
第一位置确定模块,基于所述特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置,其中,所述显示追踪位置为所述增强现实设备展示虚拟图像的位置;还定期获取参考特征集,以定期更新预设顺序的第一个参考特征集;
其中,一个参考特征集对应由基于所述另一电子设备第一时刻的显示图像提取的一个或多个参考特征组成,不同参考特征集对应由不同时刻的显示图像提取的参考特征组成;
所述第一位置确定模块包括第一匹配对比子模块和第一位置确定子模块,所述第一匹配对比子模块用于将所述特征集基于预设顺序依次与至少一个参考特征集进行匹配对比,直至得到至少一个匹配的特征或所述至少一个参考特征集都被匹配对比;所述第一位置确定子模块用于基于所述匹配对比的结果,确定当前的显示追踪位置;其中,所述预设顺序为产生参考特征集的时间顺序。
9.一种电子设备的显示追踪装置,包括:
图像信息接收模块,接收增强现实设备发送的其所在物理空间的图像信息,所述物理空间的图像信息包括所述电子设备的当前显示图像;
第二图像信息识别模块,识别所述物理空间的图像信息,得到所述电子设备的当前显示图像;
第二特征提取模块,基于所述当前显示图像,提取一个或多个特征,所述一个或多个特征组成特征集;
第二位置确定模块,基于所述特征集与一个或多个参考特征集匹配对比的结果,确定当前的显示追踪位置;还定期获取参考特征集,以定期更新预设顺序的第一个参考特征集;以及
位置发送模块,向所述增强现实设备发送所述显示追踪位置,其中,所述显示追踪位置为所述增强现实设备展示虚拟图像的位置,
其中,一个参考特征集对应由所述电子设备基于其第一时刻的显示图像提取的一个或多个参考特征组成,不同参考特征集对应由所述电子设备基于其不同时刻的显示图像提取的参考特征组成;
所述第二位置确定模块包括第二匹配对比子模块和第二位置确定子模块,第二匹配对比子模块用于将所述特征集基于预设顺序依次与至少一个参考特征集进行匹配对比,直至得到至少一个匹配的特征或至少一个参考特征集都被匹配对比;第二显示追踪位置子模块用于基于匹配对比的结果,确定当前的显示追踪位置;其中,所述预设顺序为产生参考特征集的时间顺序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810946734.7A CN108985275B (zh) | 2018-08-17 | 2018-08-17 | 增强现实设备及电子设备的显示追踪方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810946734.7A CN108985275B (zh) | 2018-08-17 | 2018-08-17 | 增强现实设备及电子设备的显示追踪方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108985275A CN108985275A (zh) | 2018-12-11 |
CN108985275B true CN108985275B (zh) | 2022-09-23 |
Family
ID=64553567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810946734.7A Active CN108985275B (zh) | 2018-08-17 | 2018-08-17 | 增强现实设备及电子设备的显示追踪方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108985275B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111970557A (zh) * | 2020-09-01 | 2020-11-20 | 深圳市慧鲤科技有限公司 | 图像显示方法、装置、电子设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2657882A1 (en) * | 2012-04-27 | 2013-10-30 | Layar B.V. | Reference image slicing |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2339537B1 (en) * | 2009-12-23 | 2016-02-24 | Metaio GmbH | Method of determining reference features for use in an optical object initialization tracking process and object initialization tracking method |
US9511291B2 (en) * | 2010-11-15 | 2016-12-06 | Bally Gaming, Inc. | System and method for enhanced augmented reality tracking |
CN102231093B (zh) * | 2011-06-14 | 2013-07-31 | 伍斌 | 一种屏幕定位控制方法及装置 |
CN106250938B (zh) * | 2016-07-19 | 2021-09-10 | 易视腾科技股份有限公司 | 目标跟踪方法、增强现实方法及其装置 |
CN108227920B (zh) * | 2017-12-26 | 2021-05-11 | 中国人民解放军陆军航空兵学院 | 运动封闭空间追踪方法及追踪系统 |
-
2018
- 2018-08-17 CN CN201810946734.7A patent/CN108985275B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2657882A1 (en) * | 2012-04-27 | 2013-10-30 | Layar B.V. | Reference image slicing |
Also Published As
Publication number | Publication date |
---|---|
CN108985275A (zh) | 2018-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11217006B2 (en) | Methods and systems for performing 3D simulation based on a 2D video image | |
US11482192B2 (en) | Automated object selection and placement for augmented reality | |
US9846960B2 (en) | Automated camera array calibration | |
CN109891189B (zh) | 策划的摄影测量 | |
US10962780B2 (en) | Remote rendering for virtual images | |
CN113811920A (zh) | 分布式姿势估计 | |
WO2022088918A1 (zh) | 虚拟图像的显示方法、装置、电子设备及存储介质 | |
US9460351B2 (en) | Image processing apparatus and method using smart glass | |
CN107911737B (zh) | 媒体内容的展示方法、装置、计算设备及存储介质 | |
US20150193970A1 (en) | Video playing method and system based on augmented reality technology and mobile terminal | |
US10244163B2 (en) | Image processing apparatus that generates a virtual viewpoint image, image generation method, and non-transitory computer-readable storage medium | |
US10769849B2 (en) | Use of temporal motion vectors for 3D reconstruction | |
US10887719B2 (en) | Apparatus and associated methods for presentation of spatial audio | |
EP3236336B1 (en) | Virtual reality causal summary content | |
JPWO2017169369A1 (ja) | 情報処理装置、情報処理方法、プログラム | |
US11463673B2 (en) | Method and device for transmitting immersive media | |
CN108985275B (zh) | 增强现实设备及电子设备的显示追踪方法和装置 | |
CN109816791B (zh) | 用于生成信息的方法和装置 | |
CN113327309B (zh) | 视频播放方法和装置 | |
US20200374567A1 (en) | Generation apparatus, reproduction apparatus, generation method, reproduction method, control program, and recording medium | |
CN114143568B (zh) | 一种用于确定增强现实直播图像的方法与设备 | |
KR101773929B1 (ko) | 광 시야각 영상 처리 시스템, 광 시야각 영상의 전송 및 재생 방법, 및 이를 위한 컴퓨터 프로그램 | |
US20180097865A1 (en) | Video processing apparatus and method | |
US11902603B2 (en) | Methods and systems for utilizing live embedded tracking data within a live sports video stream | |
US11615767B2 (en) | Information processing apparatus, information processing method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |