CN107993247A - 追踪定位方法、系统、介质和计算设备 - Google Patents

追踪定位方法、系统、介质和计算设备 Download PDF

Info

Publication number
CN107993247A
CN107993247A CN201711221117.2A CN201711221117A CN107993247A CN 107993247 A CN107993247 A CN 107993247A CN 201711221117 A CN201711221117 A CN 201711221117A CN 107993247 A CN107993247 A CN 107993247A
Authority
CN
China
Prior art keywords
characteristic area
kinematic parameter
electronic equipment
tracking
reference frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711221117.2A
Other languages
English (en)
Other versions
CN107993247B (zh
Inventor
翟尚进
丛林
李晓燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Yixian Advanced Technology Co.,Ltd.
Original Assignee
Netease Hangzhou Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netease Hangzhou Network Co Ltd filed Critical Netease Hangzhou Network Co Ltd
Priority to CN201711221117.2A priority Critical patent/CN107993247B/zh
Publication of CN107993247A publication Critical patent/CN107993247A/zh
Application granted granted Critical
Publication of CN107993247B publication Critical patent/CN107993247B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明的实施方式提供了一种追踪定位方法,包括,获取包含有连续多帧图像的追踪图像中的拟定参考帧和当前帧,其中,追踪图像是通过电子设备采集且用于对电子设备进行追踪定位的;提取追踪图像的特征区域,其中,特征区域表述追踪图像中有区分度的区域;确定拟定参考帧所对应的电子设备的第一运动参数以及当前帧所对应的电子设备的第二运动参数;以及基于第一运动参数和第二运动参数,确定用于对电子设备进行追踪定位的目标参考帧的特征区域。通过借助运动参数识别模糊程度,本发明的方法能够始终选择模糊程度低的特征区域对电子设备进行追踪定位,保证了追踪图像的质量。此外,本发明的实施方式提供了一种追踪定位系统、介质及计算设备。

Description

追踪定位方法、系统、介质和计算设备
技术领域
本发明的实施方式涉及智能设备跟踪领域,更具体地,本发明的实施方式涉及一种追踪定位方法、系统、介质和计算设备。
背景技术
本部分旨在为权利要求书中陈述的本发明的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
在整个智能设备追踪定位领域,利用智能设备自身附带的图像采集装置如摄像头和传感器如惯性测量单元(Inertial Measurement Unit,简称为IMU)等,而不依赖外部的传感器等配件对智能设备进行追踪定位的方法被称为Inside-out追踪技术,该追踪技术的应用前景普遍被看好且应用领域越来越广,如可以应用于增强现实(Augmented Reality,简称为AR)、虚拟现实(Virtual Reality,简称为VR)以及智能设备的导航等相关领域。由于目前智能设备自身附带的图像采集装置是利用传感器的感光成像原理来实现图像的采集,所以对采集得到的每一张图片来说,这一张图片并不是在某一时间点采集得到的,而是在一个较短的时间段内采集得到的。换言之,在智能设备固定不动的时候,曝光时间对图像采集产生的影响可以忽略不计,但是一旦智能设备运动的时候,曝光时间对图像采集产生的影响就无法忽略不计,因为由于智能设备在曝光时间内的运动在成像的过程中会累积,从而导致采集到的图像会由于智能设备的运动而模糊。
目前,已经出现了一些智能设备的追踪定位方法,如使用图像金字塔方法,将图像进行高斯模糊并降采样,通过由粗到细的方法进行智能设备的追踪定位,然而,在实现本公开构思的过程中,发明人发现相关技术中至少存在如下问题:
相关技术提供的智能设备追踪定位方法,在智能设备运动的过程中,追踪定位精度不高,甚至容易导致追踪定位失败。
发明内容
如上所述,由于在追踪定位过程中智能设备运动的原因,采集到的追踪图像会产生运动模糊,从而导致定位算法跟踪失败或者跟踪精度不高。
因此在现有技术中,追踪定位方法在智能设备运动的情况下无法满足对智能设备的高精度的追踪定位,甚至会出现追踪场景或物体突然丢失的情况。这是非常令人烦恼的过程。
为此,非常需要一种改进的追踪定位方法,以使在智能设备运动的情况下,进行较为精准的追踪定位。
在本上下文中,本发明的实施方式期望提供一种在智能设备运动的情况下,通过借助运动参数识别模糊程度,本发明的方法能够始终选择模糊程度低的特征区域对电子设备进行追踪定位,保证了追踪图像的质量。
在本发明实施方式的第一方面中,提供了一种追踪定位方法,包括,获取包含有连续多帧图像的追踪图像中的拟定参考帧和当前帧,其中,上述追踪图像是通过电子设备采集且用于对上述电子设备进行追踪定位的;提取上述追踪图像的特征区域;确定上述拟定参考帧所对应的上述电子设备的第一运动参数以及上述当前帧所对应的上述电子设备的第二运动参数;以及基于上述第一运动参数和上述第二运动参数,确定用于对上述电子设备进行追踪定位的目标参考帧的特征区域。
在本发明的一个实施例中,上述方法还包括:在基于上述第一运动参数和上述第二运动参数确定用于对上述电子设备进行追踪定位的目标参考帧的特征区域过程中,检测包含在上述当前帧的特征区域中的部分特征区域是否跟踪丢失;以及在上述当前帧的特征区域中的部分特征区域跟踪丢失的情况下,在除被跟踪上的特征区域之外的上述追踪图像上重新提取特征区域。
在本发明的一个实施例中,检测包含在上述当前帧的特征区域中的部分特征区域是否跟踪丢失包括:确定包含在上述当前帧的特征区域中的至少一个像素点的第一像素值;确定与上述当前帧的特征区域中的至少一个像素点对应的且包含在上述拟定参考帧的特征区域中的至少一个像素点进行预测得到的第二像素值;根据上述第一像素值和上述第二像素值,得到对应的像素差值;以及基于上述像素差值,检测包含在上述当前帧的特征区域中的部分特征区域是否跟踪丢失。
在本发明的一个实施例中,基于上述像素差值,检测包含在上述当前帧的特征区域中的部分特征区域是否跟踪丢失包括:检测上述像素差值是否大于预设阈值;以及在上述像素差值大于上述预设阈值的情况下,确定包含在上述当前帧的特征区域中的部分特征区域已跟踪丢失。
在本发明的另一实施例中,基于上述第一运动参数和上述第二运动参数,确定用于对上述电子设备进行追踪定位的目标参考帧的特征区域包括:检测上述第一运动速度是否大于上述第二运动速度,其中,上述第一运动参数包括上述第一运动速度,上述第二运动参数包括上述第二运动速度;以及在上述第一运动速度大于上述第二运动速度的情况下,将上述当前帧的特征区域确定为用于对上述电子设备进行追踪定位的目标参考帧的特征区域。
在本发明的又一个实施例中,基于上述第一运动参数和上述第二运动参数,确定用于对上述电子设备进行追踪定位的目标参考帧的特征区域还包括:检测上述拟定参考帧的特征区域在预设时间段内是否未被更新;在上述拟定参考帧的特征区域在预设时间段内未被更新的情况下,检测上述当前帧的特征区域是否被跟踪上;以及在上述当前帧的特征区域被跟踪上的情况下,将上述当前帧的特征区域确定为用于对上述电子设备进行追踪定位的目标参考帧的特征区域。
在本发明的又一个实施例中,上述方法还包括:在基于上述第一运动参数和上述第二运动参数确定用于对上述电子设备进行追踪定位的目标参考帧的特征区域之后,获取上述电子设备在追踪图像的采集过程中上述参考帧的第三运动参数;获取上述电子设备在追踪图像的采集过程中上述当前帧的第四运动参数,其中,上述第三运动参数包括上述第一运动距离,上述第四运动参数包括上述第二运动距离;检测上述第一运动距离是否小于上述第二运动距离;以及在上述第一运动距离小于上述第二运动距离的情况下,对上述目标参考帧的特征区域进行模糊处理。
在本发明的又一个实施例中,上述追踪图像的特征区域包括:以上述追踪图像中轨迹曲率大于曲率阈值的特征点为中心形成的正方形矩阵区域;以及以上述追踪图像中梯度值大于梯度阈值的特征点为中心形成的正方形矩阵区域。
在本发明实施方式的第二方面中,提供了一种追踪定位系统,包括,第一获取模块,用于获取包含有连续多帧图像的追踪图像中的拟定参考帧和当前帧,其中,上述追踪图像是通过电子设备采集且用于对上述电子设备进行追踪定位的;第一提取模块,用于提取上述追踪图像的特征区域;第一确定模块,用于确定上述拟定参考帧所对应的上述电子设备的第一运动参数以及上述当前帧所对应的上述电子设备的第二运动参数;以及第二确定模块,用于基于上述第一运动参数和上述第二运动参数,确定用于对上述电子设备进行追踪定位的目标参考帧的特征区域。
在本发明的一个实施例中,上述系统还包括:第一检测模块,用于在基于上述第一运动参数和上述第二运动参数确定用于对上述电子设备进行追踪定位的目标参考帧的特征区域过程中,检测包含在上述当前帧的特征区域中的部分特征区域是否跟踪丢失;以及第二提取模块,用于在上述当前帧的特征区域中的部分特征区域跟踪丢失的情况下,在除被跟踪上的特征区域之外的上述追踪图像上重新提取特征区域。
在本发明的一个实施例中,第一检测模块包括:第一确定单元,用于确定包含在上述当前帧的特征区域中的至少一个像素点的第一像素值;第二确定单元,用于确定与上述当前帧的特征区域中的至少一个像素点对应的且包含在上述拟定参考帧的特征区域中的至少一个像素点进行预测得到的第二像素值;计算单元,用于根据上述第一像素值和上述第二像素值,得到对应的像素差值;以及第一检测单元,用于基于上述像素差值,检测包含在上述当前帧的特征区域中的部分特征区域是否跟踪丢失。
在本发明的一个实施例中,第一检测单元包括:检测子单元,用于检测上述像素差值是否大于预设阈值;以及确定子单元,用于在上述像素差值大于上述预设阈值的情况下,确定包含在上述当前帧的特征区域中的部分特征区域已跟踪丢失。
在本发明的另一个实施例中,第二确定模块包括:第二检测单元,用于检测上述第一运动速度是否大于上述第二运动速度,其中,上述第一运动参数包括上述第一运动速度,上述第二运动参数包括上述第二运动速度;以及第三确定单元,用于在上述第一运动速度大于上述第二运动速度的情况下,将上述当前帧的特征区域确定为用于对上述电子设备进行追踪定位的目标参考帧的特征区域。
在本发明的又一个实施例中,第二确定模块还包括:第三检测单元,用于检测上述拟定参考帧的特征区域在预设时间段内是否未被更新;第四检测单元,用于在上述拟定参考帧的特征区域在预设时间段内未被更新的情况下,检测上述当前帧的特征区域是否被跟踪上;以及第四确定单元,用于在上述当前帧的特征区域被跟踪上的情况下,将上述当前帧的特征区域确定为用于对上述电子设备进行追踪定位的目标参考帧的特征区域。
在本发明的又一个实施例中,上述系统还包括:第二获取模块,用于在基于上述第一运动参数和上述第二运动参数确定用于对上述电子设备进行追踪定位的目标参考帧的特征区域之后,获取上述电子设备在追踪图像的采集过程中上述参考帧的第三运动参数;第三获取模块,用于获取上述电子设备在追踪图像的采集过程中上述当前帧的第四运动参数,其中,上述第三运动参数包括上述第一运动距离,上述第四运动参数包括上述第二运动距离;第二检测模块,用于检测上述第一运动距离是否小于上述第二运动距离;以及第一处理模块,用于在上述第一运动距离小于上述第二运动距离的情况下,对上述目标参考帧的特征区域进行模糊处理。
在本发明的又一个实施例中,上述追踪图像的特征区域包括:以上述追踪图像中轨迹曲率大于曲率阈值的特征点为中心形成的正方形矩阵区域;以及以上述追踪图像中梯度值大于梯度阈值的特征点为中心形成的正方形矩阵区域。
在本发明实施方式的第三方面中,提供了一种介质,存储有计算机可执行指令,上述指令被处理单元执行时用于实现上述任一项所述的追踪定位方法。
在本发明实施方式的第四方面中,提供了一种计算设备,包括,处理单元,以及存储单元,其上存储有可执行指令,上述指令被处理单元执行时用于实现上述任一项所述的追踪定位方法。
根据本发明实施方式的追踪定位方法、系统、介质以及计算设备,可以在智能设备运动的过程中,借助运动参数识别模糊程度,并对追踪图像的特征区域不断的更新和优化,始终选择模糊程度低的特征区域对智能电子设备进行追踪定位,保证了追踪图像的质量,至少部分克服了相关技术中基于图像的追踪定位方法在智能电子设备的图像采集装置如相机运动过快产生运动模糊时无法很好地进行追踪定位,导致用户的AR/VR体验效果中虚拟场景或者物体突然丢失的技术问题。
附图说明
通过参考附图阅读下文的详细描述,本发明示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本发明的若干实施方式,其中:
图1示意性地示出了根据本发明实施例的追踪定位方法可以在其中实现的环境;
图2示意性地示出了根据本发明一实施例的追踪定位方法的流程图;
图3A示意性地示出了根据本发明另一实施例的追踪定位方法的流程图;
图3B示意性地示出了根据本发明一实施例的检测包含在当前帧的特征区域中的部分特征区域是否跟踪丢失的流程图;
图3C示意性地示出了根据本发明一实施例的基于像素差值,检测包含在当前帧的特征区域中的部分特征区域是否跟踪丢失的流程图;
图3D示意性地示出了根据本发明一实施例的基于第一运动参数和第二运动参数,确定用于对电子设备进行追踪定位的目标参考帧的特征区域的流程图;
图3E示意性地示出了根据本发明另一实施例的基于第一运动参数和第二运动参数,确定用于对电子设备进行追踪定位的目标参考帧的特征区域的流程图;
图3F示意性地示出了根据本发明又一实施例的追踪定位方法的流程图;
图4示意性地示出了根据本发明一实施例的追踪定位系统的框图;
图5A示意性地示出了根据本发明另一实施例的追踪定位系统的框图;
图5B示意性地示出了根据本发明一实施例的第一检测模块的框图;
图5C示意性地示出了根据本发明一实施例的第一检测单元的框图;
图5D示意性地示出了根据本发明一实施例的第二确定模块的框图;
图5E示意性地示出了根据本发明另一实施例的第二确定模块的框图;
图5F示意性地示出了根据本发明又一实施例的追踪定位系统的框图;
图6示意性地示出了根据本发明实施例的计算机可读存储介质产品的示意图;以及
图7示意性地示出了根据本发明实施例的计算设备的框图。
在附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参考若干示例性实施方式来描述本发明的原理和精神。应当理解,给出这些实施方式仅仅是为了使本领域技术人员能够更好地理解进而实现本发明,而并非以任何方式限制本发明的范围。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
本领域技术人员知道,本发明的实施方式可以实现为一种系统、装置、设备、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式。
根据本发明的实施方式,提出了一种追踪定位的方法、系统、介质和计算设备。
此外,附图中的任何元素数量均用于示例而非限制,以及任何命名都仅用于区分,而不具有任何限制含义。
下面参考本发明的若干代表性实施方式,详细阐释本发明的原理和精神。
发明概述
本发明人发现,在一些情况下,例如在智能电子设备在运动的过程中,现有的追踪定位算法会由于电子设备的运动带来的运动模糊,导致定位算法跟踪失败或者跟踪精度不高的问题。为了解决这一问题,本发明示例性实施例提供了一种追踪定位方法,通过借助运动参数识别模糊程度,本发明的方法能够始终选择模糊程度低的特征区域对电子设备进行追踪定位,保证了追踪图像的质量,使得在智能电子设备运动的情况下,甚至在智能电子设备发生大幅度的运动时,也可以较为稳定精准的进行追踪定位。
在介绍了本发明的基本原理之后,下面具体介绍本发明的各种非限制性实施方式。
应用场景总览
首先参考图1,图1示意性示出了根据本公开实施例的可以应用追踪定位方法的环境100。
利用智能设备自身附带的图像采集装置如摄像头和传感器如IMU等,而不依赖外部的传感器等配件对智能设备进行追踪定位的方法被称为 Inside-out追踪技术,该追踪技术的应用前景普遍被看好且应用领域越来越广,如可以应用于AR、VR以及智能设备的导航等相关领域。
如图1所示,在该AR环境100中,用户可以利用AR头显上附带的摄像头和IMU传感器进行AR头显的空间定位,尤其在AR头显发生运动的情况下,也可以对AR头显进行追踪定位。
应该理解,图1中的智能电子设备可以包括但不限于手机、AR、VR 以及导航设备,图1中的AR头显仅仅是示意性的。根据实现需要,可以选择任何有追踪定位需求的智能电子设备。
示例性方法
下面结合图1示意性示出的根据本公开实施例的可以应用追踪定位方法的环境100,参考图2以及图3A~图3F来描述根据本发明示例性实施方式的追踪定位的方法。需要注意的是,上述环境仅是为了便于理解本发明的精神和原理而示出,本发明的实施方式在此方面不受任何限制。相反,本发明的实施方式可以应用于适用的任何场景。
图2示意性地示出了根据本发明一实施例的追踪定位方法的流程图。
如图2所示,该方法包括操作S210~S240。
在操作S210,获取包含有连续多帧图像的追踪图像中的拟定参考帧和当前帧。
在操作S220,提取追踪图像的特征区域。
在操作S230,确定拟定参考帧所对应的电子设备的第一运动参数以及当前帧所对应的电子设备的第二运动参数。
在操作S240,基于第一运动参数和第二运动参数,确定用于对电子设备进行追踪定位的目标参考帧的特征区域。
根据本发明示例性实施例,追踪图像可以通过电子设备的图像采集装置采集,如手机附带的摄像头,智能头戴设备(AR/VR)上的一个或多个摄像头,追踪图像是用于对电子设备进行追踪定位的,例如,在图1所示例的环境中,通过AR头显上的一个或多个摄像头采集到的所处当前环境的某一场景图像,图像的具体内容在此不做限定。
电子设备可以包括但不限于手机、VR头显、AR头显等,只要包括图像采集装置如摄像头和传感器如惯性测量单元等的电子设备都在本发明的包含范围之内,在此不再赘述。
跟踪图像由多帧图像组成,为了对本发明的示例性实施例做说明,将当前时间点采集到的那一帧图像称为当前帧,将除当前帧之外的某一帧称为拟定参考帧。
需要说明的是,与大多数现有的视觉融合IMU的空间定位算法一致,进行相机和IMU的初始化,对齐相机与IMU以及真实场景之间的真实尺度信息,同时恢复出设备的运动状态以及IMU的偏置量信息。
在跟踪过程中,首先进行特征图像区域的提取,特征区域表示追踪图像中有区分度的区域或者角点,在此不作限定。与传统的特征选取方法一致,可以选择响应度高并且纹理丰富的区域为特征区域,特征区域在每一帧都有很多个。为避免相机运动模糊导致特征区域图像描述能力的退化,可以有一个特征区域的更新机制对特征区域进行更新和优化。
由于电子设备的运动过程会在成像的过程中积分,导致图像的运动模糊,因此根据本发明示例性实施例,基于拟定参考帧所对应的电子设备的第一运动参数和当前帧所对应的电子设备的第二运动参数,可以确定出拟定参考帧的特征区域的模糊程度和当前帧的特征区域的模糊程度,从中选出特征区域的模糊程度相对较低的特征区域的作为对电子设备进行追踪定位的目标参考帧的特征区域。
通过本发明示例性实施例,借助运动参数识别模糊程度,本发明的方法能够始终选择模糊程度低的特征区域对电子设备进行追踪定位,保证了追踪图像的质量,使得在智能电子设备运动的情况下,甚至在智能电子设备发生大幅度的运动时,也可以较为稳定精准的进行追踪定位。
图3A示意性地示出了根据本发明另一实施例的追踪定位方法的流程图。
如图3所示,该方法还包括操作S311和S312。
在操作S311,检测包含在当前帧的特征区域中的部分特征区域是否跟踪丢失。
在操作S312,在当前帧的特征区域中的部分特征区域跟踪丢失的情况下,在除被跟踪上的特征区域之外的追踪图像上重新提取特征区域。
根据本发明示例性实施例,在电子设备的追踪定位过程中,对特征区域实时更新和优化,同时对于每一帧图像来说,特征区域可以有很多个,如500个,在追踪定位的过程中,特征区域的部分特征区域可能丢失,在部分特征区域由于某些原因而没有被跟踪上的情况下,为了保证跟踪图像的质量,可以在除被跟踪上的特征区域之外的追踪图像上重新提取特征区域,使得特征区域可以补齐至500个,具体地,提取特征区域的方式/方法可以根据具体的实际需要自由选择,在此不再赘述,任何可以实现提取特征区域的方式/方法都在本发明的保护范围之内。
可以理解的是,当跟踪图像的特征区域中的部分特征区域跟踪丢失的情况下,可以在除被跟踪上的特征区域之外的追踪图像上重新提取特征区域,也可以在特征区域跟踪不稳定的情况下,重新选取新的特征区域,还可以在特征区域与预测的特征区域差距过大时,丢弃特征区域,重新选取新的特征区域,在此不再赘述。
通过本发明示例性实施例,在特征区域的部分特征区域丢失的情况下,及时补齐特征区域,可以在通过追踪图像对电子设备进行追踪定位的过程中,保证跟踪图像的特征区域的质量,进而利用高质量的特征区域进行跟踪,实现更为精准的追踪定位。
图3B示意性地示出了根据本发明一实施例的检测包含在当前帧的特征区域中的部分特征区域是否跟踪丢失的流程图。
如图3B所示,该方法包括操作S321~S324。
在操作S321,确定包含在当前帧的特征区域中的至少一个像素点的第一像素值。
在操作S322,确定与当前帧的特征区域中的至少一个像素点对应的且包含在拟定参考帧的特征区域中的至少一个像素点进行预测得到的第二像素值。
在操作S323,根据第一像素值和第二像素值,得到对应的像素差值。
在操作S324,基于像素差值,检测包含在当前帧的特征区域中的部分特征区域是否跟踪丢失。
根据本发明示例性实施例,可以利用特征区域中的像素点的像素值来检测包含在当前帧的特征区域中的部分特征区域是否跟踪丢失。具体地,对特征区域中的至少一个像素点来说,可以确定出该像素点在当前帧的第一像素值和对应于拟定参考帧的预测像素值即第二像素值,计算第一像素值和第二像素值的差值,来检测包含在当前帧的特征区域中的部分特征区域是否跟踪丢失。
需要说明的是,检测包含在当前帧的特征区域中的部分特征区域是否跟踪丢失的方法包括但不限于利用特征区域中的像素点的像素值来检测,具体的方法可以根据实际需要做自由选择,在此不做限定。
通过本发明示例性实施例,由于采用当前帧的特征区域的第一像素值和包含在拟定参考帧的特征区域中的至少一个像素点进行预测得到的第二像素值之间的像素差值,检测包含在当前帧的特征区域中的部分特征区域是否跟踪丢失的技术方案,可以在追踪定位的过程中,及时准确的检测出跟踪丢失的那部分特征区域,便于重新选取新的特征区域或者在除被跟踪上的特征区域之外的追踪图像上重新提取特征区域,使得特征区域始终能够满足精准追踪定位的要求。
图3C示意性地示出了根据本发明一实施例的基于像素差值,检测包含在当前帧的特征区域中的部分特征区域是否跟踪丢失的流程图。
如图3C所示,该方法包括操作S331~S332。
在操作S331,检测像素差值是否大于预设阈值。
在操作S332,在像素差值大于预设阈值的情况下,确定包含在当前帧的特征区域中的部分特征区域已跟踪丢失。
根据本发明示例性实施例,在确定出当前帧的特征区域的第一像素值和包含在拟定参考帧的特征区域中的至少一个像素点进行预测得到的第二像素值之间的像素差值后,可以检测该像素差值是否大于预设阈值,在该像素差值大于预设阈值的情况下,可以确定包含在当前帧的特征区域中的部分特征区域已跟踪丢失,在该像素差值不大于预设阈值的情况下,可以确定包含在当前帧的特征区域中的部分特征区域被跟踪上。
通过本发明示例性实施例,根据预先设定的像素值的阈值,来检测包含在当前帧的特征区域中的部分特征区域是否跟踪丢失,方便直观,及时准确,为重新选取新的特征区域或者在除被跟踪上的特征区域之外的追踪图像上重新提取特征区域提供数据支持。
图3D示意性地示出了根据本发明一实施例的基于第一运动参数和第二运动参数,确定用于对电子设备进行追踪定位的目标参考帧的特征区域的流程图。
如图3D所示,该方法包括操作S341~S342。
在操作S341,检测第一运动速度是否大于第二运动速度,其中,第一运动参数包括第一运动速度,第二运动参数包括第二运动速度。
在操作S342,在第一运动速度大于第二运动速度的情况下,将当前帧的特征区域确定为用于对电子设备进行追踪定位的目标参考帧的特征区域。
根据本发明示例性实施例,在电子设备的追踪定位过程中,对特征区域实时更新和优化,在特征区域跟踪稳定的情况下,可以确定当前帧的第一运动速度,还可以确定出特征区域选取时,拟定参考帧的特征区域的第二运动速度。
图像的模糊过程可以量化为一块清晰的图像区域对于相机在曝光阶段整个运动过程的积分,因此,可以基于第一运动速度和第二运动速度的大小关系,识别出当前帧的特征区域的模糊程度和拟定参考帧的特征区域的模糊程度,并从中选出模糊程度较低的特征区域作为目标参考帧的特征区域。
通过本发明示例性实施例,在追踪定位的过程中,由于采用特征区域的更新和优化机制,始终选取模糊程度最低的特征区域对电子设备进行追踪定位,保证目标参考帧的质量,提高定位算法的跟踪精度。
图3E示意性地示出了根据本发明另一实施例的基于第一运动参数和第二运动参数,确定用于对电子设备进行追踪定位的目标参考帧的特征区域的流程图。
如图3E所示,该方法包括操作S351~S353。
在操作S351,检测拟定参考帧的特征区域在预设时间段内是否未被更新。
在操作S352,在拟定参考帧的特征区域在预设时间段内未被更新的情况下,检测当前帧的特征区域是否被跟踪上。
在操作S353,在当前帧的特征区域被跟踪上的情况下,将当前帧的特征区域确定为用于对电子设备进行追踪定位的目标参考帧的特征区域。
根据本发明示例性实施例,在电子设备的追踪定位过程中,对特征区域实时更新和优化,当拟定参考特征区域长时间未被更新,且当前帧的特征区域已被跟踪上并且当前的运动速度在合理的阈值范围内,则使用当前帧的特征区域更新拟定参考帧的特征区域,否则继续采用拟定参考帧的特征区域进行跟踪。
通过本发明示例性实施例,由于在追踪定位的过程中,在当前帧的特征区域是否被跟踪上且当前的运动速度在合理的阈值范围内,使用当前的特征区域更新拟定参考帧的特征区域的技术方案,始终选取模糊程度最低的特征区域对电子设备进行追踪定位,保证目标参考帧的质量,提高定位算法的跟踪精度。
图3F示意性地示出了根据本发明又一实施例的追踪定位方法的流程图。
如图3F所示,该方法包括操作S361~S364。
在操作S361,获取电子设备在追踪图像的采集过程中目标参考帧的第三运动参数。
在操作S362,获取电子设备在追踪图像的采集过程中当前帧的第四运动参数,其中,第三运动参数包括第一运动距离,第四运动参数包括第二运动距离。
在操作S363,检测第一运动距离是否小于第二运动距离。
在操作S364,在第一运动距离小于第二运动距离的情况下,对目标参考帧的特征区域进行模糊处理。
根据本发明示例性实施例,在基于第一运动参数和第二运动参数确定用于对电子设备进行追踪定位的目标参考帧的特征区域之后,将目标参考帧进行模糊处理预测当前帧由于相机的运动而在跟踪图像生成过程中产生的运动模糊效果。
根据本发明示例性实施例,一块清晰的图像区域对于相机在曝光阶段整个运动过程的积分,为了处理方便和提高计算效率,这个积分可以简单地表示成高斯模糊的形式,高斯模糊的参量只跟参考帧的运动速度、参考帧的曝光时间、当前帧的运动速度、当前帧的曝光时间相关(由于特征块的更新策略,不考虑特征块在跟踪过程中产生了极大的畸变)。
需要说明的是,在进行图像模糊的预测之前首先需要得到相机在曝光过程中的运动速度。令相机开始采集当前图片的时间为t1,当前帧对应相机的曝光时间为te,上一帧相机的位姿为T∈SE(3)(其中T=(R,p),R∈ SO(3)),运动的速度为v0,对应的时间戳为t0,假设图像在曝光过程中做匀速运动,使用t1+te/2时刻的速度作为匀速运动的平均速度,那么就可以利用在时间段[t0,t1+te/2]内采集IMU的加速度信息和角速度信息以及其在t0时刻的速度v0得到相机在t1+te/2时刻的预测速度。
根据本发明示例性实施例,已知拟定参考帧图像的运动速度为v0,曝光时间为te0,根据上述方法预测当前帧图像的运动速度为v1,曝光时间为 te,则拟定参考帧在图像采集过程中运动的实际距离为s0=v0·te0,当前帧在图像采集过的实际运动距离为s1=v1·te。如果s0≥s1,则认为当前帧的模糊程度小于拟定参考帧,不对特征区域进行模糊处理,否则认为图像存在运动模糊,使用高斯核kv对拟定参考的特征区域做高斯模糊,拟合图片由运动产生的模糊:
其中,Ir(x)表示拟定参考特征区域,I(x)表示模糊后的拟定参考特征区域,Pr(s1-s0)表示从实际距离到相机像素距离的投影关系。
通过本发明示例性实施例,由于采用根据相机的运动速度以及单帧的曝光时间进行特征区域模糊程度预测的技术方案,使得模糊预测方法融合 IMU,可以很好的解决传统的基于图像的空间定位方法在相机运动过快产生运动模糊时无法很好地进行空间定位,给用户的AR/VR体验效果造成虚拟场景或者物体突然丢失的问题,达到在相机产生大幅度的运动时也能进行较为稳定的运动跟踪的技术效果。
根据本发明示例性实施例,追踪图像的特征区域包括:以追踪图像中轨迹曲率大于曲率阈值的特征点为中心形成的正方形矩阵区域;以及以追踪图像中梯度值大于梯度阈值的特征点为中心形成的正方形矩阵区域,即本发明实施方式中涉及到的特征区域是追踪图像中具有一定区分度的图像区域。
根据本发明示例性实施例,可以依据“中心点”的选取原则来确定追踪图像中的特征区域。具体地,一方面可以利用图像边缘检测方法,检测出追踪图像的边缘信息,进而识别出轨迹,将轨迹中曲率大于曲率阈值的点作为特征点,以该特征点为中心形成N*N如3*3的正方形矩阵区域作为追踪图像的特征区域,另一方面可以计算出追踪图像中各像素点的梯度值,将梯度值大于梯度阈值的点作为特征点,以该特征点为中心形成N*N如3*3 的正方形矩阵区域作为追踪图像的特征区域,此处,不对N的具体数值做限定,可以根据实际情况的需要,以特征点为中心形成N*N的正方形矩阵区域作为追踪图像的特征区域,具体做法可以依据本发明提供的实施方式的精神做适当展开,此处不再赘述。
需要说明的是,上述特征区域的提取方法只是示意性的,并不是对本发明的具体限定,任何可以实现特征区域提取的方式都在本发明的保护范围之内,此处不再赘述。
示例性系统
在介绍了本发明示例性实施方式的介质之后,接下来,参考图4对本发明示例性实施方式的追踪定位系统进行说明。
图4示意性地示出了根据本发明一实施例的追踪定位系统的框图。
如图4所示,追踪定位系统400包括第一获取模块410、第一提取模块 420、第一确定模块430以及第二确定模块440。其中:
第一获取模块410用于获取包含有连续多帧图像的追踪图像中的拟定参考帧和当前帧,其中,所述追踪图像是通过电子设备采集且用于对所述电子设备进行追踪定位的。
第一提取模块420用于提取所述追踪图像的特征区域,其中,所述特征区域表述所述追踪图像中有区分度的区域。
第一确定模块430用于确定所述拟定参考帧所对应的所述电子设备的第一运动参数以及所述当前帧所对应的所述电子设备的第二运动参数。
第二确定模块440用于基于所述第一运动参数和所述第二运动参数,确定用于对所述电子设备进行追踪定位的目标参考帧的特征区域。
通过本发明示例性实施例,借助运动参数识别模糊程度,本发明的方法能够始终选择模糊程度低的特征区域对电子设备进行追踪定位,保证了追踪图像的质量,使得在智能电子设备运动的情况下,甚至在智能电子设备发生大幅度的运动时,也可以较为稳定精准的进行追踪定位。
图5A示意性地示出了根据本发明另一实施例的追踪定位系统的框图。
如图5A所示,追踪定位系统400还可以包括第一检测模块511以及第二提取模块512。其中:
第一检测模块511用于在基于所述第一运动参数和所述第二运动参数确定用于对所述电子设备进行追踪定位的目标参考帧的特征区域过程中,检测包含在所述当前帧的特征区域中的部分特征区域是否跟踪丢失。
第二提取模块512用于在所述当前帧的特征区域中的部分特征区域跟踪丢失的情况下,在除被跟踪上的特征区域之外的所述追踪图像上重新提取特征区域。
通过本发明示例性实施例,在特征区域的部分特征区域丢失的情况下,及时补齐特征区域,可以在通过追踪图像对电子设备进行追踪定位的过程中,保证跟踪图像的特征区域的质量,进而利用高质量的特征区域进行跟踪,实现更为精准的追踪定位。
图5B示意性地示出了根据本发明一实施例的第一检测模块的框图。
如图5B所示,第一检测模块511包括第一确定单元521、第二确定单元522、计算单元523以及第一检测单元524。其中:
第一确定单元521用于确定包含在所述当前帧的特征区域中的至少一个像素点的第一像素值。
第二确定单元522用于确定对所述拟定参考帧的特征区域中的至少一个像素点进行预测得到的第二像素值。
计算单元523用于根据所述第一像素值和所述第二像素值,得到对应的像素差值。
第一检测单元524用于基于所述像素差值,检测包含在所述当前帧的特征区域中的部分特征区域是否跟踪丢失。
通过本发明示例性实施例,由于采用当前帧的特征区域的第一像素值和包含在拟定参考帧的特征区域中的至少一个像素点进行预测得到的第二像素值之间的像素差值,检测包含在当前帧的特征区域中的部分特征区域是否跟踪丢失的技术方案,可以在追踪定位的过程中,及时准确的检测出跟踪丢失的那部分特征区域,便于重新选取新的特征区域或者在除被跟踪上的特征区域之外的追踪图像上重新提取特征区域,使得特征区域始终能够满足精准追踪定位的要求。
图5C示意性地示出了根据本发明一实施例的第一检测单元的框图。
如图5C所示,第一检测单元524包括检测子单元531以及确定子单元 532。其中:
检测子单元531用于检测所述像素差值是否大于预设阈值。
确定子单元532用于在所述像素差值大于所述预设阈值的情况下,确定包含在所述当前帧的特征区域中的部分特征区域已跟踪丢失。
通过本发明示例性实施例,根据预先设定的像素值的阈值,来检测包含在当前帧的特征区域中的部分特征区域是否跟踪丢失,方便直观,及时准确,为重新选取新的特征区域或者在除被跟踪上的特征区域之外的追踪图像上重新提取特征区域提供数据支持。
图5D示意性地示出了根据本发明一实施例的第二确定模块的框图。
如图5D所示,第二确定模块440包括第二检测单元541以及第三确定单元542。其中:
第二检测单元541用于检测第一运动速度是否大于第二运动速度,其中,第一运动参数包括第一运动速度,第二运动参数包括第二运动速度。
第三确定单元542用于在第一运动速度大于第二运动速度的情况下,将当前帧的特征区域确定为用于对电子设备进行追踪定位的目标参考帧的特征区域。
通过本发明示例性实施例,在追踪定位的过程中,由于采用特征区域的更新和优化机制,始终选取模糊程度最低的特征区域对电子设备进行追踪定位,保证目标参考帧的质量,提高定位算法的跟踪精度。
图5E示意性地示出了根据本发明另一实施例的第二确定模块的框图。
如图5E所示,第二确定模块440可以包括第三检测单元551、第四检测单元552以及第四确定单元553。
第三检测单元551用于检测拟定参考帧的特征区域在预设时间段内是否未被更新。
第四检测单元552用于在拟定参考帧的特征区域在预设时间段内未被更新的情况下,检测当前帧的特征区域是否被跟踪上。
第四确定单元553用于在当前帧的特征区域被跟踪上的情况下,将当前帧的特征区域确定为用于对电子设备进行追踪定位的目标参考帧的特征区域。
通过本发明示例性实施例,由于在追踪定位的过程中,在当前帧的特征区域是否被跟踪上且当前的运动速度在合理的阈值范围内,使用当前的特征区域更新拟定参考帧的特征区域的技术方案,始终选取模糊程度最低的特征区域对电子设备进行追踪定位,保证目标参考帧的质量,提高定位算法的跟踪精度。
图5F示意性地示出了根据本发明又一实施例的追踪定位系统的框图。
如图5F所示,追踪定位系统400还包括第二获取模块561、第三获取模块562、第二检测模块563以及第一处理模块564。其中:
第二获取模块561用于在基于所述第一运动参数和所述第二运动参数确定用于对所述电子设备进行追踪定位的目标参考帧的特征区域之后,获取所述电子设备在追踪图像的采集过程中所述参考帧的第三运动参数。
第三获取模块562用于获取所述电子设备在追踪图像的采集过程中所述当前帧的第四运动参数,其中,所述第三运动参数包括所述第一运动距离,所述第四运动参数包括所述第二运动距离。
第二检测模块563用于检测所述第一运动距离是否小于所述第二运动距离。
第一处理模块564用于在所述第一运动距离小于所述第二运动距离的情况下,对所述目标参考帧的特征区域进行模糊处理。
根据本发明示例性实施例,追踪图像的特征区域包括:以追踪图像中轨迹曲率大于曲率阈值的特征点为中心形成的正方形矩阵区域;以及以追踪图像中梯度值大于梯度阈值的特征点为中心形成的正方形矩阵区域,即本发明实施方式中涉及到的特征区域是追踪图像中具有一定区分度的图像区域。
通过本发明示例性实施例,由于采用根据相机的运动速度以及单帧的曝光时间进行特征区域模糊程度预测的技术方案,使得模糊预测方法融合 [MU,可以很好的解决传统的基于图像的空间定位方法在相机运动过快产生运动模糊时无法很好地进行空间定位,给用户的AR/VR体验效果造成虚拟场景或者物体突然丢失的问题,达到在相机产生大幅度的运动时也能进行较为稳定的运动跟踪的技术效果。
示例性介质
在介绍了本发明示例性实施方式的方法之后,接下来,参考图6对本发明示例性实施方式的一种计算机可读存储介质进行说明。本发明示例性实施方式提供了一种计算机可读存储介质,其上存储有可执行指令,所述指令被处理单元执行时使所述处理单元执行上文所述的追踪定位的方法。
在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在计算设备上运行时,所述程序代码用于使所述计算设备执行本说明书上述“示例性方法”部分中描述的方法中的步骤,例如,所述计算设备可以执行如图2中所示的操作 S210:获取包含有连续多帧图像的追踪图像中的拟定参考帧和当前帧,其中,追踪图像是通过电子设备采集且用于对电子设备进行追踪定位的;操作S220:提取追踪图像的特征区域,其中,特征区域表述追踪图像中有区分度的区域;操作S230:确定拟定参考帧所对应的电子设备的第一运动参数以及当前帧所对应的电子设备的第二运动参数;以及操作S240:基于第一运动参数和第二运动参数,确定用于对电子设备进行追踪定位的目标参考帧的特征区域。
所述程序产品可以采用一个或多个可读介质的任意组合的形式。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM 或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
如图6所示,描述了根据本发明的实施方式的用于追踪定位的程序产品60,其可以采用便携式紧凑盘只读存储器(CD-ROM)的形式,并包括程序代码,并可以在计算设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、有线、光缆,RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言——诸如 Java,C++等,还包括常规的过程式程序设计语言——诸如“C”,语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)一连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
示例性计算设备
在介绍了本发明示例性实施方式的方法、介质和系统之后,接下来,参考图7对本发明示例性实施方式追踪定位的计算设备进行说明。
本发明实施例还提供了一种追踪定位的计算设备。该计算设备包括:处理单元;以及存储单元,存储有计算机可执行指令,上述指令在被处理单元执行时用于实现上述方法实施例中任一项上述的追踪定位方法。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
在一些可能的实施方式中,根据本发明的追踪定位的电子设备可以至少包括至少一个处理单元、以及至少一个存储单元。其中,所述存储单元存储有程序代码,当所述程序代码被所述处理单元执行时,使得所述处理单元执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的追踪定位方法中的步骤。例如,所述计算设备可以执行如图2 中所示的操作S210:获取包含有连续多帧图像的追踪图像中的拟定参考帧和当前帧,其中,追踪图像是通过电子设备采集且用于对电子设备进行追踪定位的;操作S220:提取追踪图像的特征区域,其中,特征区域表述追踪图像中有区分度的区域;操作S230:确定拟定参考帧所对应的电子设备的第一运动参数以及当前帧所对应的电子设备的第二运动参数;以及操作 S240:基于第一运动参数和第二运动参数,确定用于对电子设备进行追踪定位的目标参考帧的特征区域。
下面参照图7来描述根据本发明的这种实施方式的追踪定位的计算设备70。如图7所示的计算设备70仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,计算设备70以通用计算设备的形式表现。计算设备70 的组件可以包括但不限于:上述至少一个处理单元701、上述至少一个存储单元702、连接不同系统组件(包括存储单元702和处理单元701)的总线 703。
总线703包括地址总线、控制总线和数据总线。
存储单元702可以包括易失性存储器,例如随机存取存储器(RAM)7021 和/或高速缓存存储器7022,还可以进一步包括只读存储器(ROM)7023。
存储单元702还可以包括具有一组(至少一个)程序模块7024的程序 /实用工具7025,这样的程序模块7024包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
计算设备70也可以与一个或多个外部设备704(例如键盘、指向设备、蓝牙设备等)通信,这种通信可以通过输入/输出(I/O)接口705进行。并且,计算设备70还可以通过网络适配器706与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器706通过总线703与计算设备70的其它模块通信。应当明白,尽管图中未示出,可以结合计算设备70使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
应当注意,尽管在上文详细描述中提及了用于追踪定位的系统的若干单元/模块或子单元/子模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。
此外,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
虽然已经参考若干具体实施方式描述了本发明的精神和原理,但是应该理解,本发明并不限于所公开的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本发明旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。

Claims (10)

1.一种追踪定位方法,包括:
获取包含有连续多帧图像的追踪图像中的拟定参考帧和当前帧,其中,所述追踪图像是通过电子设备采集且用于对所述电子设备进行追踪定位的;
提取所述追踪图像的特征区域;
确定所述拟定参考帧所对应的所述电子设备的第一运动参数以及所述当前帧所对应的所述电子设备的第二运动参数;以及
基于所述第一运动参数和所述第二运动参数,确定用于对所述电子设备进行追踪定位的目标参考帧的特征区域。
2.根据权利要求1所述的方法,其中,所述方法还包括:
在基于所述第一运动参数和所述第二运动参数确定用于对所述电子设备进行追踪定位的目标参考帧的特征区域过程中,检测包含在所述当前帧的特征区域中的部分特征区域是否跟踪丢失;以及
在所述当前帧的特征区域中的部分特征区域跟踪丢失的情况下,在除被跟踪上的特征区域之外的所述追踪图像上重新提取特征区域。
3.根据权利要求2所述的方法,其中,检测包含在所述当前帧的特征区域中的部分特征区域是否跟踪丢失包括:
确定包含在所述当前帧的特征区域中的至少一个像素点的第一像素值;
确定与所述当前帧的特征区域中的至少一个像素点对应的且包含在所述拟定参考帧的特征区域中的至少一个像素点进行预测得到的第二像素值;
根据所述第一像素值和所述第二像素值,得到对应的像素差值;以及
基于所述像素差值,检测包含在所述当前帧的特征区域中的部分特征区域是否跟踪丢失。
4.根据权利要求1所述的方法,其中,基于所述第一运动参数和所述第二运动参数,确定用于对所述电子设备进行追踪定位的目标参考帧的特征区域包括:
检测所述第一运动速度是否大于所述第二运动速度,其中,所述第一运动参数包括所述第一运动速度,所述第二运动参数包括所述第二运动速度;以及
在所述第一运动速度大于所述第二运动速度的情况下,将所述当前帧的特征区域确定为用于对所述电子设备进行追踪定位的目标参考帧的特征区域。
5.根据权利要求1所述的方法,其中,基于所述第一运动参数和所述第二运动参数,确定用于对所述电子设备进行追踪定位的目标参考帧的特征区域还包括:
检测所述拟定参考帧的特征区域在预设时间段内是否未被更新;
在所述拟定参考帧的特征区域在预设时间段内未被更新的情况下,检测所述当前帧的特征区域是否被跟踪上;以及
在所述当前帧的特征区域被跟踪上的情况下,将所述当前帧的特征区域确定为用于对所述电子设备进行追踪定位的目标参考帧的特征区域。
6.根据权利要求1所述的方法,其中,所述方法还包括:
在基于所述第一运动参数和所述第二运动参数确定用于对所述电子设备进行追踪定位的目标参考帧的特征区域之后,获取所述电子设备在追踪图像的采集过程中所述目标参考帧的第三运动参数;
获取所述电子设备在追踪图像的采集过程中所述当前帧的第四运动参数,其中,所述第三运动参数包括所述第一运动距离,所述第四运动参数包括所述第二运动距离;
检测所述第一运动距离是否小于所述第二运动距离;以及
在所述第一运动距离小于所述第二运动距离的情况下,对所述目标参考帧的特征区域进行模糊处理。
7.根据权利要求1所述的方法,其中,所述追踪图像的特征区域包括:
以所述追踪图像中轨迹曲率大于曲率阈值的特征点为中心形成的正方形矩阵区域;以及
以所述追踪图像中梯度值大于梯度阈值的特征点为中心形成的正方形矩阵区域。
8.一种追踪定位系统,包括:
第一获取模块,用于获取包含有连续多帧图像的追踪图像中的拟定参考帧和当前帧,其中,所述追踪图像是通过电子设备采集且用于对所述电子设备进行追踪定位的;
第一提取模块,用于提取所述追踪图像的特征区域;
第一确定模块,用于确定所述拟定参考帧所对应的所述电子设备的第一运动参数以及所述当前帧所对应的所述电子设备的第二运动参数;以及
第二确定模块,用于基于所述第一运动参数和所述第二运动参数,确定用于对所述电子设备进行追踪定位的目标参考帧的特征区域。
9.一种介质,存储有计算机可执行指令,所述指令在被处理单元执行时用于实现权利要求1至7中任一项所述的追踪定位方法。
10.一种计算设备,包括:
处理单元;以及
存储单元,存储有计算机可执行指令,所述指令在被处理单元执行时用于实现权利要求1至7中任一项所述的追踪定位方法。
CN201711221117.2A 2017-11-28 2017-11-28 追踪定位方法、系统、介质和计算设备 Active CN107993247B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711221117.2A CN107993247B (zh) 2017-11-28 2017-11-28 追踪定位方法、系统、介质和计算设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711221117.2A CN107993247B (zh) 2017-11-28 2017-11-28 追踪定位方法、系统、介质和计算设备

Publications (2)

Publication Number Publication Date
CN107993247A true CN107993247A (zh) 2018-05-04
CN107993247B CN107993247B (zh) 2020-10-20

Family

ID=62033865

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711221117.2A Active CN107993247B (zh) 2017-11-28 2017-11-28 追踪定位方法、系统、介质和计算设备

Country Status (1)

Country Link
CN (1) CN107993247B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109977833A (zh) * 2019-03-19 2019-07-05 网易(杭州)网络有限公司 物体追踪方法、物体追踪装置、存储介质及电子设备
CN110910332A (zh) * 2019-12-03 2020-03-24 苏州科技大学 一种视觉slam系统动态模糊处理算法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107077140A (zh) * 2016-03-28 2017-08-18 深圳市大疆创新科技有限公司 无人飞行器的悬停控制方法、控制系统和无人飞行器
CN107274450A (zh) * 2016-04-01 2017-10-20 佳能株式会社 信息处理装置及其控制方法
US20170310901A1 (en) * 2016-04-20 2017-10-26 Samsung Electronics Co., Ltd Methodology and apparatus for generating high fidelity zoom for mobile video

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107077140A (zh) * 2016-03-28 2017-08-18 深圳市大疆创新科技有限公司 无人飞行器的悬停控制方法、控制系统和无人飞行器
CN107274450A (zh) * 2016-04-01 2017-10-20 佳能株式会社 信息处理装置及其控制方法
US20170310901A1 (en) * 2016-04-20 2017-10-26 Samsung Electronics Co., Ltd Methodology and apparatus for generating high fidelity zoom for mobile video

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HAIYING ZHAO ET.AL: "Filtering Based Adaptive Visual Odometry Sensor Framework Robust to Blurred Images", 《SENSORS》 *
桂振文 等: "基于自然场景在线学习的跟踪注册技术", 《软件学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109977833A (zh) * 2019-03-19 2019-07-05 网易(杭州)网络有限公司 物体追踪方法、物体追踪装置、存储介质及电子设备
CN109977833B (zh) * 2019-03-19 2021-08-13 网易(杭州)网络有限公司 物体追踪方法、物体追踪装置、存储介质及电子设备
CN110910332A (zh) * 2019-12-03 2020-03-24 苏州科技大学 一种视觉slam系统动态模糊处理算法
CN110910332B (zh) * 2019-12-03 2023-09-26 苏州科技大学 一种视觉slam系统动态模糊处理方法

Also Published As

Publication number Publication date
CN107993247B (zh) 2020-10-20

Similar Documents

Publication Publication Date Title
US10674142B2 (en) Optimized object scanning using sensor fusion
US10854006B2 (en) AR-enabled labeling using aligned CAD models
US10592747B2 (en) Method and apparatus for 3-D auto tagging
US20190335156A1 (en) Visual annotation using tagging sessions
US12073574B2 (en) Structuring visual data
RU2708027C1 (ru) Способ передачи движения субъекта из видео на анимированного персонажа
JP6456347B2 (ja) 平面固有の特徴のターゲットのinsitu生成
JP7490784B2 (ja) 拡張現実マップキュレーション
CN107341442A (zh) 运动控制方法、装置、计算机设备和服务机器人
WO2023093217A1 (zh) 数据标注方法、装置、计算机设备、存储介质和程序
CN109461208A (zh) 三维地图处理方法、装置、介质和计算设备
US20160210761A1 (en) 3d reconstruction
US20210225038A1 (en) Visual object history
CN107330980A (zh) 一种基于无标志物的虚拟家具布置系统
CN107993247A (zh) 追踪定位方法、系统、介质和计算设备
CN114882106A (zh) 位姿确定方法和装置、设备、介质
CN117456558A (zh) 一种基于摄像头的人体姿态估计与控制方法及相关设备
WO2023086398A1 (en) 3d rendering networks based on refractive neural radiance fields
Zhou et al. Vision sensor‐based SLAM problem for small UAVs in dynamic indoor environments
Jiang [Retracted] Application of Rotationally Symmetrical Triangulation Stereo Vision Sensor in National Dance Movement Detection and Recognition
CN116643648B (zh) 一种三维场景匹配交互方法、装置、设备及存储介质
WO2023063937A1 (en) Methods and systems for detecting planar regions using predicted depth
CN117813626A (zh) 从多视图立体(mvs)图像重建深度信息
WO2023023162A1 (en) 3d semantic plane detection and reconstruction from multi-view stereo (mvs) images
CN117475062A (zh) 三维导航车标的创建方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210517

Address after: 311200 Room 102, 6 Blocks, C District, Qianjiang Century Park, Xiaoshan District, Hangzhou City, Zhejiang Province

Patentee after: Hangzhou Yixian Advanced Technology Co.,Ltd.

Address before: 310052 Building No. 599, Changhe Street Network Business Road, Binjiang District, Hangzhou City, Zhejiang Province, 4, 7 stories

Patentee before: NETEASE (HANGZHOU) NETWORK Co.,Ltd.