CN111798489A - 一种特征点跟踪方法、设备、介质及无人设备 - Google Patents

一种特征点跟踪方法、设备、介质及无人设备 Download PDF

Info

Publication number
CN111798489A
CN111798489A CN202010611029.9A CN202010611029A CN111798489A CN 111798489 A CN111798489 A CN 111798489A CN 202010611029 A CN202010611029 A CN 202010611029A CN 111798489 A CN111798489 A CN 111798489A
Authority
CN
China
Prior art keywords
feature point
camera
image data
measurement unit
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010611029.9A
Other languages
English (en)
Other versions
CN111798489B (zh
Inventor
智向阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN202010611029.9A priority Critical patent/CN111798489B/zh
Publication of CN111798489A publication Critical patent/CN111798489A/zh
Application granted granted Critical
Publication of CN111798489B publication Critical patent/CN111798489B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本说明书公开了一种特征点跟踪方法、设备、介质及无人设备,包括:获取至少两个相机中的第一相机在当前时刻采集的第一图像数据;检测第一图像数据中包含的特征点,从检测到的特征点中选取第一特征点;获取惯性测量单元在当前时刻测量的无人设备的第一位姿信息;基于第一位姿信息,确定特征点在至少两个相机中的第二相机的图像平面上的第一位置;以第一位置为初始位置,在第二相机于当前时刻采集的第二图像数据中进行特征点跟踪。这样不仅增加了特征点的跟踪时间和跟踪次数,还有效地将不同的相机关联起来,进而提升视觉惯性里程计的定位精度。

Description

一种特征点跟踪方法、设备、介质及无人设备
技术领域
本说明书涉及无人驾驶技术领域,尤其涉及一种特征点跟踪方法、设备、介质及无人设备。
背景技术
里程计(Odometry)是通过运动传感器采集的数据来估计移动智能设备(例如:机器人、无人车以及具备配送能力的无人驾驶车辆(以下简称车辆))位姿变换的方式。虽然里程计测量的是移动智能设备短时间内的位姿变换,但是通过累积的方式可以得到移动智能设备连续的位姿信息。正是因为能够得到连续的位姿信息,里程计成为机器人、无人驾驶领域非常重要的定位方法之一。
相机作为一种运动传感器,通过拍摄的序列图片来估计位姿,这种方法被称之为视觉里程计;惯性测量单元(Inertial Measurement Unit;IMU)作为另一种运动传感器,通过将陀螺仪、加速度计和磁力计这三种传感器的数据进行融合来估计位姿,这种方法称之为惯性里程计。
在实际应用中,视觉里程计和惯性里程计的方法差异较大,各具优势经常被融合使用,即视觉惯性里程计。视觉惯性里程计常见的应用是相机+IMU组合。经研究发现,由于视觉惯性里程计依然采用累积的方式来确定位姿信息,不可避免的在计算过程中会存在累积误差,这将增大视觉惯性里程计的定位误差。
发明内容
本说明书提供一种特征点跟踪方法、设备、介质及无人设备,以部分解决上述现有技术存在的问题。
本说明书采用下述技术方案:
本说明书提供的一种特征点跟踪方法,无人设备上安装有惯性测量单元和至少两个相机,所述方法包括:
获取所述至少两个相机中的第一相机在当前时刻采集的第一图像数据;
检测所述第一图像数据中包含的特征点,从检测到的所述特征点中选取第一特征点;
获取所述惯性测量单元在所述当前时刻测量的所述无人设备的第一位姿信息;
基于所述第一位姿信息,确定所述第一特征点在所述至少两个相机中的第二相机的图像平面上的第一位置;
根据所述第一位置,在所述第二相机于所述当前时刻采集的第二图像数据中进行特征点跟踪。
可选的,检测所述第一图像数据中包含的特征点,从检测到的所述特征点中选取第一特征点,具体包括:
对所述第一图像数据中包含的特征点进行检测;
针对检测到的所述第一图像数据中包含的各特征点,分别确定各所述征点对应的世界坐标系下的3D位置;
从确定有所述3D位置的特征点中选取一个特征点,作为第一特征点。
可选的,基于所述第一位姿信息,确定所述第一特征点在所述至少两个相机中的第二相机的图像平面上的第一位置,具体包括:
确定所述惯性测量单元与所述至少两个相机中的第二相机之间的外部参数,所述外部参数包含所述惯性测量单元对应的世界坐标系与所述第二相机对应的相机坐标系之间的旋转参数和平移参数;
根据所述第一位姿信息和所述外部参数,确定所述第二相机在所述当前时刻的第二位姿信息;
根据所述第二位姿信息和所述第一特征点的3D位置,确定所述第一特征点在所述第二相机对应的相机坐标系下的坐标;
基于所述坐标和所述第二相机的内部参数,得到所述第一特征点投影在所述第二相机的图像平面上的第一位置。
可选的,根据所述第一位姿信息和所述外部参数,确定所述第二相机在所述当前时刻的第二位姿信息,具体包括:
根据所述惯性测量单元对应的世界坐标系与所述第二相机对应的相机坐标系之间的旋转参数和平移参数,将所述惯性测量单元测量得到的第一位姿信息转换到所述第二相机对应的相机坐标系下,得到所述第二相机在所述当前时刻的第二位姿信息。
可选的,基于所述坐标和所述第二相机的内部参数,得到所述第一特征点投影在所述第二相机的图像平面上的第一位置,具体包括:
根据所述第二相机对应的相机坐标系与图像坐标系之间的投影关系,将所述坐标投影到所述第二相机的图像平面上,得到所述第一特征点投影在所述第二相机的图像平面上的第一位置。
可选的,根据所述第一位置,在所述第二相机于所述当前时刻采集的第二图像数据中进行特征点跟踪,具体包括:
根据所述第一位置,确定所述第一位置在所述第二相机于所述当前时刻采集的第二图像数据中对应的像素值;
根据所述像素值和所述第一特征点对应的像素值,判断所述第一位置对应的特征点与所述第一特征点是否为同一个特征点;
在确定所述第一位置对应的特征点与所述第一特征点不为同一个特征点的情况下,以所述第一位置为原点,在所述第二图像数据中进行特征点跟踪,其中,跟踪到的特征点的像素值与所述第一特征点的像素值之间满足设定条件。
可选的,所述方法还包括:
基于所述第一位置和跟踪到的特征点在所述第二图像数据中的位置,确定所述第二相机在所述当前时刻的第三位姿信息;
根据确定的所述第二相机在所述当前时刻的位姿信息,对所述惯性测量单元在所述当前时刻测量的位姿信息进行更新,并存储更新后的所述惯性测量单元在所述当前时刻测量的位姿信息。
本说明书实施例还提供了一种特征点跟踪装置,其中,无人设备上安装有惯性测量单元和至少两个相机,包括:
获取单元,用于获取所述至少两个相机中的第一相机在当前时刻采集的第一图像数据;
检测单元,用于检测所述第一图像数据中包含的特征点,从检测到的所述特征点中选取第一特征点;
所述获取单元,还用于获取所述惯性测量单元在所述当前时刻测量的所述无人设备的第一位姿信息;
处理单元,用于基于所述第一位姿信息,确定所述第一特征点在所述至少两个相机中的第二相机的图像平面上的第一位置;根据所述第一位置,在所述第二相机于所述当前时刻采集的第二图像数据中进行特征点跟踪。
本说明书提供的一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述的特征点跟踪方法。
本说明书提供的一种无人设备,所述无人设备上安装有惯性测量单元IMU和至少两个相机;所述无人设备还包括存储器、处理器及存储在存储器上并在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的特征点跟踪方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
本说明书提供的特征点跟踪方法,对于安装了惯性测量单元和至少两个相机的无人设备,通过获取所述至少两个相机中的第一相机在当前时刻采集的第一图像数据;检测所述第一图像数据中包含的特征点,从检测到的所述特征点中选取一个第一特征点;获取所述惯性测量单元在所述当前时刻测量的无人设备的位姿信息;基于所述位姿信息,确定所述特征点在所述至少两个相机中的第二相机的图像平面上的第一位置;根据所述第一位置,在所述第二相机于所述当前时刻采集的第二图像数据中进行特征点跟踪。对于第一相机采集到的特征点,通过转换、投影等方式能够确定该特征点在第二相机的图像平面上的位置,并以此位置为初始位置在第二相机采集的图像数据中进行特征点跟踪,这样不仅增加了特征点的跟踪时间和跟踪次数,还有效地将不同的相机关联起来,进而提升视觉惯性里程计的定位精度。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书实施例提供的一种特征点跟踪方法的流程示意图;
图2为本说明书实施例提供的一种特征点跟踪方法的流程示意图;
图3为本说明书实施例提供的一种特征点跟踪装置的结构示意图;
图4为本说明书实施例提供的无人设备的结构示意图。
具体实施方式
通常视觉里程计可以采用特征点法来估计位姿。所谓特征点法是指从相机采集的图像数据中选取一些特征明显的点(例如:角点)(以下称之为特征点),并在相邻帧图像数据中跟踪这些特征点,之后利用多视角几何技术计算出特征点的3D位置以及估计出相机的位姿。
在实际应用中,由于采集角度、光线等原因,在对一个相机采集的图像数据中的特征点进行跟踪的过程中,可能因某一个特征点在某一帧图像数据中尚未被观测到,而使该特征点的跟踪结束,这样用于位姿估算的特征点的数量将减少,进而导致位姿估算的误差增大,降低视觉惯性里程计的定位精度。
基于此,本说明书提供一种特征点跟踪方法,对于安装了惯性测量单元和至少两个相机的无人设备,通过获取所述至少两个相机中的第一相机在当前时刻采集的第一图像数据;检测所述第一图像数据中包含的特征点,从检测到的所述特征点中选取第一特征点;获取所述惯性测量单元在所述当前时刻测量的无人设备的第一位姿信息;基于所述第一位姿信息,确定所述特征点在所述至少两个相机中的第二相机的图像平面上的第一位置;根据所述第一位置,在所述第二相机于所述当前时刻采集的第二图像数据中进行特征点跟踪。对于第一相机采集到的特征点,通过转换、投影等方式确定该特征点在第二相机的图像平面上的位置,并以此位置为初始位置在第二相机采集的图像数据中进行特征点跟踪,不仅增加了特征点的跟踪时间和跟踪次数,还有效地将不同的相机关联起来,进而提升视觉惯性里程计的定位精度。
需要说明的是,安装在无人设备上的惯性测量单元和至少两个相机需要在时间上同步,即对于惯性测量单元和至少两个相机在同一时刻采集的数据都会附带同一时钟源赋予的时间戳。
本说明书实施例中记载的“至少两个相机”可以理解为无人设备上至少安装两部相机,也就是说无人设备上可以安装多部相机;其中,第一相机可以理解为无人设备上安装的至少两部相机中任意一部相机或者任意多部相机;第二相机可以理解为无人设备上上安装的至少两部相机中任意一部相机或者任意多部相机,也就是说,无人设备上安装的相机既可以是第一相机,也可以是第二相机,但同一时刻,第一相机与第二相机属于不同的相机。
本说明书实施例中记载的“第一相机”、“第二相机”中的“第一”和“第二”作用在于区分不同的相机,没有其他特别含义;“第一图像数据”和“第二图像数据”中的“第一”和“第二”作用在于区分不同的图像数据,没有其他特别含义;“第一位置”和“第二位置”中的“第一”和“第二”作用在于区分不同的位置,没有其他特别含义;“第一位姿信息”、“第二位姿信息”和“第三位姿信息”中的“第一”、“第二”和“第三”作用在于区分不同的位姿信息,没有其他特别含义。
本说明书实施例中记载的世界坐标系可以理解为:在环境中选择一个参考坐标系来描述相机和障碍物的位置,该参考坐标系可以称为世界坐标系;相机坐标系可以理解为:以相机光心为原点,Z轴与光轴重合,X轴和Y轴平行于投影面;图像坐标系可以理解为:原点位于光轴和投影面的交点,X轴和Y轴平行于投影面。
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书实施例提供的一种特征点跟踪方法的流程示意图。所述方法可以如下所述。本说明书实施例的执行主体是无人设备,该无人设备上安装有惯性测量单元和至少两个相机。
步骤101:获取所述至少两个相机中的第一相机在当前时刻采集的第一图像数据。
在本说明书提供的实施例中,无人设备在行驶的过程中,安装在无人设备上的相机实时采集行驶的环境信息。无人设备从安装的多个相机(例如:至少两个相机)中选择一个相机作为第一相机,并获取该第一相机在当前时刻采集的第一图像数据。这里的选择可以是有条件的选择,也可以是随机选择,这里对于如何选择不做限定。
步骤103:检测所述第一图像数据中包含的特征点,从检测到的所述特征点中选取第一特征点。
在本说明书提供的实施例中,首先,对所述第一图像数据中包含的特征点进行检测。
这里所记载的特征点可以理解为有意义的图像区域。例如:常见的角点(即图像亮度变化剧烈的点或图像边缘曲线上曲率极大值的点)、边缘区域、斑点等。
这里可以采用一些特征点检测算法对第一图像数据中包含的特征点进行检测;也可以通过一些软件方式对第一图像数据中包含的特征点进行检测;还可以采用其他方式对第一图像数据中包含的特征点进行检测,这里对于特征点的检测方式不做具体限定。
例如:检测第一图像数据中是否包含角点,可以采用基于灰度图像的角点检测方法,还可以采用基于二值图像的角点检测方法,等等。这里对于采用何种方式如何具体检测特征点不做一一介绍。
其次,针对检测到的所述第一图像数据中包含的各特征点,分别确定各所述特征点对应的世界坐标系下的3D位置。
在本说明书提供的实施例中,检测到的所述第一图像数据中包含的各特征点,这些特征点属于2D平面点。基于所述第一相机对应的图像坐标系,可以确定该特征点在第一相机的图像平面中的位置(即2D位置),之后通过坐标转换的方式可以得到特征点对应在世界坐标系下的3D位置。
在实际应用中,有些特征点通过上述方式能够得到其对应的3D位置,而有些特征点通过上述方式则不能够得到其对应的3D位置。
最后,从确定有所述3D位置的特征点中,选取一个特征点,作为第一特征点。
这里选取特征点的方式可以按照设定的选取条件进行选取,也可以采用随机的方式选取,这里对于选取方式不做具体限定。这里选取特征点可以为一个,也可以是多个,本说明书实施例以选取一个特征点为例进行说明。选取多个特征点的执行步骤与选取一个的相同,仅是重复执行选取一个特征点的技术方案。
步骤105:获取所述惯性测量单元在所述当前时刻测量的所述无人设备的第一位姿信息。
在本说明书提供的实施例中,无人设备在行驶的过程中,惯性测量单元实时采集加速度和角速度,并通过积分运算的方式计算得到某一时刻无人设备的位姿信息。
在计算得到某一个时刻的位姿信息的情况下,存储计算得到的位姿信息与数据采集时间之间的映射关系。
由于在本说明书提供的实施例中安装在无人设备上的惯性测量单元和至少两个相机在时间上同步,那么在获取第一相机在当前时刻采集的第一图像数据时,同步可以获取惯性测量单元计算得到的当前时刻的第一位姿信息。
步骤107:基于所述第一位姿信息,确定所述第一特征点在所述至少两个相机中的第二相机的图像平面上的第一位置。
在本说明书提供的实施例中,首先,确定所述惯性测量单元与所述至少两个相机中的第二相机之间的外部参数。
其中,所述外部参数包含所述惯性测量单元对应的世界坐标系与所述第二相机对应的相机坐标系之间的旋转参数和平移参数。
其次,根据所述第一位姿信息和所述外部参数,确定所述第二相机在所述当前时刻的位姿信息。
具体地,根据所述IMU对应的世界坐标系与所述第二相机对应的相机坐标系之间的旋转参数和平移参数,将所述惯性测量单元测量得到的第一位姿信息转换到所述第二相机对应的相机坐标系下,得到所述第二相机在所述当前时刻的第二位姿信息。
这里通过利用所述惯性测量单元对应的世界坐标系与所述第二相机对应的相机坐标系之间的旋转参数和平移参数,实现将惯性测量单元测量得到的世界坐标系下的位姿信息转换到第二相机对应的相机坐标系下,即得到第二相机在所述当前时刻的第二位姿信息。
第三,根据所述第二位姿信息和所述第一特征点的3D位置,确定所述第一特征点在所述第二相机对应的相机坐标系下的坐标。
具体地,根据所述第二位姿信息,调整所述第二相机对应的相机坐标系参数,进而根据所述第一特征点的3D位置和所述第二相机对应的相机坐标系参数,将所述第一特征点转换到所述第二相机对应的相机坐标系下,并得到所述第一特征点在所述第二相机对应的相机坐标系下的坐标。
最后,基于所述坐标和所述第二相机的内部参数,得到所述第一特征点投影在所述第二相机的图像平面上的第一位置。
具体地,根据所述第二相机对应的相机坐标系与图像坐标系之间的投影关系,将所述坐标投影到所述第二相机的图像平面上,得到所述第一特征点投影在所述第二相机的图像平面上的第一位置。
可选的,在本说明书提供的实施例中,还可以通过以下方式计算得到所述第一特征点投影在所述第二相机的图像平面上的第一位置:
Figure BDA0002560937950000101
其中,pt是第一特征点的3D位置,
Figure BDA0002560937950000102
是惯性测量单元测量的第一位姿信息,
Figure BDA0002560937950000103
是第二相机和惯性测量单元之间的外部参数,P为第二相机的内参投影函数,at为预测的第一特征点在第二相机的图像平面上的第一位置。
需要说明的是,这里确定的第一位置为2D位置。
步骤109:根据所述第一位置,在所述第二相机于所述当前时刻采集的第二图像数据中进行特征点跟踪。
在本说明书提供的实施例中,特征点跟踪的目的在于跟踪所述第一特征点在所述第二相机于当前时刻采集的图像数据中的位置。
具体地,根据所述第一位置,确定所述第一位置在所述第二相机于所述当前时刻采集的第二图像数据中对应的像素值;
根据所述像素值和所述第一特征点对应的像素值,判断所述第一位置对应的特征点与所述第一特征点是否为同一个特征点;
在确定所述第一位置对应的特征点与所述第一特征点不为同一个特征点的情况下,以所述第一位置为原点,在所述第二图像数据中进行特征点跟踪,其中,跟踪到的特征点的像素值与所述第一特征点的像素值之间满足设定条件。
具体地,假设特征点在图像数据中的像素值不变,那么可以确定第一特征点在所述第一图像数据中的第一像素值,在得到所述第一位置对应于第二图像数据中的第二像素值之后,可以通过将该第二像素值与该第一像素值进行比较,若第二像素值与第一像素值相同,则确定第一位置对应的特征点与所述第一特征点为同一个特征点;若第二像素值与第一像素值不相同,则确定第一位置对应的特征点与所述第一特征点不为同一个特征点。
在确定所述第一位置对应的特征点与所述第一特征点不为同一个特征点的情况下,以所述第一位置为原点,在所述第二图像数据中进行特征点跟踪,即从第一位置周围的特征点中选择像素值与所述第一特征点的像素值之间满足设定条件的特征点,那么该特征点为在第二图像数据中跟踪到的与第一特征点为同一特征点的特征点。
这里设定条件可以为像素值之差最小或者最接近,还可以根据实际需要确定,对于具体条件不做限定。
在以第一位置为原点,在所述第二图像数据中进行特征点跟踪,有可能跟踪不到满足设定条件的特征点,那么说明第二相机在采集图像数据时出现可特征点丢失,在本说明提供的实施例中,此时可以存储第一位置,以该第一位置为初始位置,在第二相机采集的其他图像数据中进行特征点跟踪,就是说通过本说明书提供的方式,可以将第一相机在当前时刻采集的第一图像数据中包含的特征点投影到第二相机的图像平面上,进而执行特征点跟踪,尤其在没有跟踪到同一个特征点时,可以以确定的第一位置对应的特征点为起点,继续进行特征点跟踪,有效增加第二图像数据中包含的特征点,有效地在第二相机采集的连续图像序列中实现特征点跟踪,为后续计算精确的位姿奠定基础。
需要说明的是,在得到所述第一特征点投影在所述第二相机的图像平面上的第一位置之后,基于该第一位置进行特征点跟踪之后得到的特征点可以作为第二图像数据中的新增特征点,在第二相机于下一时刻采集的图像数据中进行同相机的特征点跟踪。
可选地,本说明书实施例提供的第一相机和第二相机可以是互为相邻的相机,也可以是互为共视的相机。这里所谓“共视”可以理解为拍摄角度相同,同一时刻所拍摄的环境信息相同。
可选的,在本说明书提供的另一个实施例中,所述方法还包括:
基于所述第一位置和跟踪到的特征点在所述第二图像数据中的位置,确定所述第二相机在所述当前时刻的第三位姿信息;
根据确定的所述第三位姿信息,对所述惯性测量单元在所述当前时刻测量的第一位姿信息进行更新,并存储更新后的所述惯性测量单元在所述当前时刻测量的第一位姿信息。
具体地,基于所述第一位置和跟踪到的特征点在所述第二图像数据中的位置,计算所述第二相机在所述当前时刻的运动信息,根据所述运动信息确定所述第二相机在所述当前时刻的位姿信息。进而基于该位姿信息,可以对惯性测量单元在所述当前时刻测量的第一位姿信息进行更新。
需要说明的是,由于噪声的存在,惯性测量单元通过积分方式计算得到的位姿信息将产生较大误差,而通过特征点跟踪方式计算得到的第二相机的位姿相对比较准确,因此可以通过确定的第二相机的位姿来更新惯性测量单元计算得到的位姿信息,以纠正长时间积分所造成的位姿误差。
通过本说明书提供的基于多目相机的特征点跟踪方法,对于第一相机采集到的特征点,通过转换、投影等方式确定该特征点在第二相机的图像平面上的位置,并以此位置为初始位置在第二相机采集的图像数据中进行特征点跟踪,不仅增加了特征点的跟踪时间和跟踪次数,还有效地将不同的相机关联起来,进而提升视觉惯性里程计的定位精度。
基于同一个发明构思,图2为本说明书实施例提供的一种基于多目相机的特征点跟踪方法的流程示意图。所述方法可以如下所述。
无人设备在执行本说明书实施例提供的方案时,可以启动两个线程,一个线程用于获取相机的数据,另一个线程用于获取惯性测量单元的数据。
例如:线程1获取第一相机在T时刻采集的图像数据1,并判断该图像数据1是否为新产生的图像数据,在确定是新产生的图像数据的情况下,检测图像数据1中包含的特征点。如果没有检测到特征点,此时线程1则获取第二相机在T时刻采集到的图像数据2。
如果检测到的特征点,则选择一个特征点,将选择的该特征点对应的2D位置转换成为3D位置。如果位置转换失败,则选择下一个特征点继续进行转换。
从确定了3D位置的特征点中,选择一个特征点,作为第一特征点。
线程2获取惯性测量单元在T时刻采集的传感数据,并基于该传感数据,利用积分的方式计算得到无人设备在T时刻的位姿。一方面线程2将计算得到的位姿存储在缓存中,建立时间与位姿之间的映射关系;另一方面线程2将计算得到的T时刻的位姿发送给线程1。
线程1接收线程2发送的惯性测量单元在T时刻计算得到的位姿,根据该位姿和惯性测量单元与第二相机之间预先标定的外部参数,得到第二相机在T时刻的位姿;根据第二相机在T时刻的位姿、第一特征点对应的3D位置和第二相机对应的相机坐标系参数,将所述第一特征点转换到所述第二相机对应的相机坐标系下,并得到所述第一特征点在所述第二相机对应的相机坐标系下的坐标;再根据所述第二相机对应的相机坐标系与图像坐标系之间的投影关系,将所述坐标投影到所述第二相机的图像平面上,得到所述第一特征点投影在所述第二相机的图像平面上的第一位置,即预测的异相机进行特征点跟踪的初始位置。
线程1以所述第一位置为初始位置,在所述第二相机于T时刻采集的第二图像数据中进行特征点跟踪。
该种方式不仅增加了特征点的跟踪时间和跟踪次数,还有效地将不同的相机关联起来,进而提升视觉惯性里程计的定位精度。
本说明书提供的基于多目相机的特征点跟踪方法可应用于无人车行驶的各种应用场景中。无人车可以为无人配送车。该无人配送车可以应用于使用无人配送车进行配送的领域,如,使用无人配送车进行快递、外卖等配送的场景。
以上为本说明书实施例提供的特征点跟踪的方法,基于同样的思路,本说明书还提供了相应的装置、存储介质和电子设备。
图3为本说明书实施例提供的一种特征点跟踪装置的结构示意图。该装置安装在无人设备上,该无人设备还安装有惯性测量单元和至少两个相机。所述装置包括:获取单元301、检测单元303和处理单元305,其中:
获取单元301,用于获取所述至少两个相机中的第一相机在当前时刻采集的第一图像数据;
检测单元303,用于检测所述第一图像数据中包含的特征点,从检测到的所述特征点中选取第一特征点;
所述获取单元301,还用于获取所述惯性测量单元在所述当前时刻测量的所述无人设备的第一位姿信息;
处理单元305,用于基于所述第一位姿信息,确定所述第一特征点在所述至少两个相机中的第二相机的图像平面上的第一位置;根据所述第一位置,在所述第二相机于所述当前时刻采集的第二图像数据中进行特征点跟踪。
在本说明书提供的另一个实施例中,所述检测单元303检测所述第一图像数据中包含的特征点,从检测到的所述特征点中选取一个第一特征点,具体包括:
对所述第一图像数据中包含的特征点进行检测;
针对检测到的所述第一图像数据中包含的各特征点,分别确定各所述征点对应的世界坐标系下的3D位置;
从确定有所述3D位置的特征点中选取一个特征点,作为第一特征点。
在本说明书提供的另一个实施例中,所述处理单元305基于所述第一位姿信息,确定所述第一特征点在所述至少两个相机中的第二相机的图像平面上的第一位置,具体包括:
确定所述惯性测量单元与所述至少两个相机中的第二相机之间的外部参数,所述外部参数包含所述惯性测量单元对应的世界坐标系与所述第二相机对应的相机坐标系之间的旋转参数和平移参数;
根据所述第一位姿信息和所述外部参数,确定所述第二相机在所述当前时刻的第二位姿信息;
根据所述第二位姿信息和所述第一特征点的3D位置,确定所述第一特征点在所述第二相机对应的相机坐标系下的坐标;
基于所述坐标和所述第二相机的内部参数,得到所述第一特征点投影在所述第二相机的图像平面上的第一位置。
在本说明书提供的另一个实施例中,所述处理单元305根据所述第一位姿信息和所述外部参数,确定所述第二相机在所述当前时刻的第二位姿信息,具体包括:
根据所述惯性测量单元对应的世界坐标系与所述第二相机对应的相机坐标系之间的旋转参数和平移参数,将所述惯性测量单元测量得到的第一位姿信息转换到所述第二相机对应的相机坐标系下,得到所述第二相机在所述当前时刻的第二位姿信息。
在本说明书提供的另一个实施例中,所述处理单元305基于所述坐标和所述第二相机的内部参数,得到所述第一特征点投影在所述第二相机的图像平面上的第一位置,包括:
根据所述第二相机对应的相机坐标系与图像坐标系之间的投影关系,将所述坐标投影到所述第二相机的图像平面上,得到所述第一特征点投影在所述第二相机的图像平面上的第一位置。
在本说明书提供的另一个实施例中,所述处理单元305根据所述第一位置,在所述第二相机于所述当前时刻采集的第二图像数据中进行特征点跟踪,包括:
根据所述第一位置,确定所述第一位置在所述第二相机于所述当前时刻采集的第二图像数据中对应的像素值;
根据所述像素值和所述第一特征点对应的像素值,判断所述第一位置对应的特征点与所述第一特征点是否为同一个特征点;
在确定所述第一位置对应的特征点与所述第一特征点不为同一个特征点的情况下,以所述第一位置为原点,在所述第二图像数据中进行特征点跟踪,其中,跟踪到的特征点的像素值与所述第一特征点的像素值之间满足设定条件。
在本说明书提供的另一个实施例中,所述装置还包括:更新单元307,其中:
所述更新单元307,用于基于所述第一位置和跟踪到的特征点在所述第二图像数据中的位置,确定所述第二相机在所述当前时刻的第三位姿信息;
根据确定的所述第三位姿信息,对所述惯性测量单元在所述当前时刻测量的第一位姿信息进行更新,并存储更新后的所述惯性测量单元在所述当前时刻测量的第一位姿信息。
需要说明的是,本说明书实施例提供的特征点跟踪装置可以通过软件方式实现,也可以通过硬件方式实现,这里不做具体限定。这里所记载的特征点跟踪装置对于第一相机采集到的特征点,通过转换、投影等方式确定该特征点在第二相机的图像平面上的位置,并以此位置为初始位置在第二相机采集的图像数据中进行特征点跟踪,不仅增加了特征点的跟踪时间和跟踪次数,还有效地将不同的相机关联起来,进而提升视觉惯性里程计的定位精度。
本说明书还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时可用于执行上述图1提供的特征点跟踪方法。
基于图1所示的特征点跟踪方法,本说明书实施例还提供了图4所示的无人设备的结构示意图。如图4,在硬件层面,该无人设备包括惯性测量单元、至少两个相机、处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的特征点跟踪方法。对于第一相机采集到的特征点,通过转换、投影等方式确定该特征点在第二相机的图像平面上的位置,并以此位置为初始位置在第二相机采集的图像数据中进行特征点跟踪,不仅增加了特征点的跟踪时间和跟踪次数,还有效地将不同的相机关联起来,进而提升视觉惯性里程计的定位精度。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(Flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (10)

1.一种特征点跟踪方法,其特征在于,无人设备上安装有惯性测量单元和至少两个相机,所述方法包括:
获取所述至少两个相机中的第一相机在当前时刻采集的第一图像数据;
检测所述第一图像数据中包含的特征点,从检测到的所述特征点中选取第一特征点;
获取所述惯性测量单元在所述当前时刻测量的所述无人设备的第一位姿信息;
基于所述第一位姿信息,确定所述第一特征点在所述至少两个相机中的第二相机的图像平面上的第一位置;
根据所述第一位置,在所述第二相机于所述当前时刻采集的第二图像数据中进行特征点跟踪。
2.如权利要求1所述的特征点跟踪方法,其特征在于,检测所述第一图像数据中包含的特征点,从检测到的所述特征点中选取第一特征点,包括:
对所述第一图像数据中包含的特征点进行检测;
针对检测到的所述第一图像数据中包含的各特征点,分别确定各所述征点对应的世界坐标系下的3D位置;
从确定有所述3D位置的特征点中选取一个特征点,作为第一特征点。
3.如权利要求2所述的特征点跟踪方法,其特征在于,基于所述第一位姿信息,确定所述第一特征点在所述至少两个相机中的第二相机的图像平面上的第一位置,包括:
确定所述惯性测量单元与所述至少两个相机中的第二相机之间的外部参数,所述外部参数包含所述惯性测量单元对应的世界坐标系与所述第二相机对应的相机坐标系之间的旋转参数和平移参数;
根据所述第一位姿信息和所述外部参数,确定所述第二相机在所述当前时刻的第二位姿信息;
根据所述第二位姿信息和所述第一特征点的3D位置,确定所述第一特征点在所述第二相机对应的相机坐标系下的坐标;
基于所述坐标和所述第二相机的内部参数,得到所述第一特征点投影在所述第二相机的图像平面上的第一位置。
4.如权利要求3所述的特征点跟踪方法,其特征在于,根据所述第一位姿信息和所述外部参数,确定所述第二相机在所述当前时刻的第二位姿信息,包括:
根据所述惯性测量单元对应的世界坐标系与所述第二相机对应的相机坐标系之间的旋转参数和平移参数,将所述惯性测量单元测量得到的第一位姿信息转换到所述第二相机对应的相机坐标系下,得到所述第二相机在所述当前时刻的第二位姿信息。
5.如权利要求3所述的特征点跟踪方法,其特征在于,基于所述坐标和所述第二相机的内部参数,得到所述第一特征点投影在所述第二相机的图像平面上的第一位置,包括:
根据所述第二相机对应的相机坐标系与图像坐标系之间的投影关系,将所述坐标投影到所述第二相机的图像平面上,得到所述第一特征点投影在所述第二相机的图像平面上的第一位置。
6.如权利要求1所述的特征点跟踪方法,其特征在于,根据所述第一位置,在所述第二相机于所述当前时刻采集的第二图像数据中进行特征点跟踪,包括:
根据所述第一位置,确定所述第一位置在所述第二相机于所述当前时刻采集的第二图像数据中对应的像素值;
根据所述像素值和所述第一特征点对应的像素值,判断所述第一位置对应的特征点与所述第一特征点是否为同一个特征点;
在确定所述第一位置对应的特征点与所述第一特征点不为同一个特征点的情况下,以所述第一位置为原点,在所述第二图像数据中进行特征点跟踪,其中,跟踪到的特征点的像素值与所述第一特征点的像素值之间满足设定条件。
7.如权利要求6所述的特征点跟踪方法,其特征在于,所述方法还包括:
基于所述第一位置和跟踪到的特征点在所述第二图像数据中的位置,确定所述第二相机在所述当前时刻的第三位姿信息;
根据确定的所述第三位姿信息,对所述惯性测量单元在所述当前时刻测量的第一位姿信息进行更新,并存储更新后的所述惯性测量单元在所述当前时刻测量的第一位姿信息。
8.一种特征点跟踪装置,其特征在于,无人设备上安装有惯性测量单元和至少两个相机,包括:
获取单元,用于获取所述至少两个相机中的第一相机在当前时刻采集的第一图像数据;
检测单元,用于检测所述第一图像数据中包含的特征点,从检测到的所述特征点中选取第一特征点;
所述获取单元,还用于获取所述惯性测量单元在所述当前时刻测量的所述无人设备的第一位姿信息;
处理单元,用于基于所述第一位姿信息,确定所述第一特征点在所述至少两个相机中的第二相机的图像平面上的第一位置;根据所述第一位置,在所述第二相机于所述当前时刻采集的第二图像数据中进行特征点跟踪。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1至7任一项所述的特征点跟踪方法。
10.一种无人设备,所述无人设备上安装有惯性测量单元和至少两个相机;所述无人设备还包括存储器、处理器及存储在存储器上并在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1至7任一项所述的特征点跟踪方法。
CN202010611029.9A 2020-06-29 2020-06-29 一种特征点跟踪方法、设备、介质及无人设备 Active CN111798489B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010611029.9A CN111798489B (zh) 2020-06-29 2020-06-29 一种特征点跟踪方法、设备、介质及无人设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010611029.9A CN111798489B (zh) 2020-06-29 2020-06-29 一种特征点跟踪方法、设备、介质及无人设备

Publications (2)

Publication Number Publication Date
CN111798489A true CN111798489A (zh) 2020-10-20
CN111798489B CN111798489B (zh) 2024-03-08

Family

ID=72809867

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010611029.9A Active CN111798489B (zh) 2020-06-29 2020-06-29 一种特征点跟踪方法、设备、介质及无人设备

Country Status (1)

Country Link
CN (1) CN111798489B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113436349A (zh) * 2021-06-28 2021-09-24 展讯通信(天津)有限公司 一种3d背景替换方法、装置、存储介质和终端设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180217663A1 (en) * 2017-01-27 2018-08-02 Qualcomm Incorporated Systems and methods for tracking a controller
CN108648235A (zh) * 2018-04-27 2018-10-12 腾讯科技(深圳)有限公司 相机姿态追踪过程的重定位方法、装置及存储介质
US20180315211A1 (en) * 2017-04-28 2018-11-01 Htc Corporation Tracking system and method thereof
CN108734736A (zh) * 2018-05-22 2018-11-02 腾讯科技(深圳)有限公司 相机姿态追踪方法、装置、设备及存储介质
US20190279387A1 (en) * 2016-12-01 2019-09-12 SZ DJI Technology Co., Ltd. Method and system for detecting and tracking objects using characteristic points
CN110520694A (zh) * 2017-10-31 2019-11-29 深圳市大疆创新科技有限公司 一种视觉里程计及其实现方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190279387A1 (en) * 2016-12-01 2019-09-12 SZ DJI Technology Co., Ltd. Method and system for detecting and tracking objects using characteristic points
US20180217663A1 (en) * 2017-01-27 2018-08-02 Qualcomm Incorporated Systems and methods for tracking a controller
US20180315211A1 (en) * 2017-04-28 2018-11-01 Htc Corporation Tracking system and method thereof
CN110520694A (zh) * 2017-10-31 2019-11-29 深圳市大疆创新科技有限公司 一种视觉里程计及其实现方法
CN108648235A (zh) * 2018-04-27 2018-10-12 腾讯科技(深圳)有限公司 相机姿态追踪过程的重定位方法、装置及存储介质
CN108734736A (zh) * 2018-05-22 2018-11-02 腾讯科技(深圳)有限公司 相机姿态追踪方法、装置、设备及存储介质

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
ANDREA MASIERO 等: "Improved Feature Matching for Mobile Devices with IMU", 《SENSORS》, vol. 16, no. 8, pages 1 - 20 *
KEVIN ECKENHOFF 等: "Multi-Camera Visual-Inertial Navigation with Online Intrinsic and Extrinsic Calibration", 《2019 INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION》, pages 3158 - 3164 *
刘艳萍: "基于cnn卷积神经网络的特征点提取与相机估计研究", 《电子质量》, no. 2, pages 19 - 23 *
智向阳 等: "基于凸优化的扩展手眼标定算法", 《电子设计工程》, vol. 26, no. 20, pages 148 - 153 *
王逍 等: "对失效卫星特征点的自适应位姿跟踪控制", 《中国空间科学技术》, vol. 38, no. 1, 31 January 2018 (2018-01-31), pages 8 - 17 *
贺元晨: "基于特征点的目标检测与跟踪快速算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑(月刊)》, no. 3, pages 138 - 4825 *
郑晓萌 等: "基于有效特征点的运动目标匹配跟踪算法", 《电子设计工程》, vol. 26, no. 20, 20 October 2018 (2018-10-20), pages 59 - 64 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113436349A (zh) * 2021-06-28 2021-09-24 展讯通信(天津)有限公司 一种3d背景替换方法、装置、存储介质和终端设备

Also Published As

Publication number Publication date
CN111798489B (zh) 2024-03-08

Similar Documents

Publication Publication Date Title
US10948297B2 (en) Simultaneous location and mapping (SLAM) using dual event cameras
CN112001456B (zh) 一种车辆定位方法、装置、存储介质及电子设备
CN111260726A (zh) 一种视觉定位方法及装置
US20230100776A1 (en) Visual positioning based on a plurality of image frames
CN111288971B (zh) 一种视觉定位方法及装置
US11494987B2 (en) Providing augmented reality in a web browser
CN110162089B (zh) 一种无人驾驶的仿真方法及装置
KR102559203B1 (ko) 포즈 정보를 출력하는 방법 및 장치
CN111797906B (zh) 基于视觉和惯性里程定位的方法及装置
CN111077555A (zh) 一种定位方法及装置
CN111127551A (zh) 一种目标检测的方法及装置
CN111126362A (zh) 一种预测障碍物轨迹的方法及装置
CN111192303A (zh) 一种点云数据处理方法及装置
CN116309823A (zh) 一种位姿的确定方法、装置、设备及存储介质
CN113674424B (zh) 一种电子地图绘制的方法及装置
CN114494381A (zh) 模型训练及深度估计方法、装置、存储介质及电子设备
CN112902987B (zh) 一种位姿修正的方法及装置
CN111783611B (zh) 无人车的定位方法、装置、无人车及存储介质
CN112861831A (zh) 一种目标物的识别方法、装置、存储介质及电子设备
CN111798489A (zh) 一种特征点跟踪方法、设备、介质及无人设备
CN112461258A (zh) 一种参数修正的方法及装置
CN112712561A (zh) 一种建图方法、装置、存储介质及电子设备
CN116558545A (zh) 一种传感器数据的标定方法及装置
CN114623824A (zh) 一种确定障碍物速度的方法及装置
CN115690231A (zh) 一种基于多目视觉的定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant