CN116645400B - 视觉及惯性混合位姿跟踪方法、系统、头盔及存储介质 - Google Patents
视觉及惯性混合位姿跟踪方法、系统、头盔及存储介质 Download PDFInfo
- Publication number
- CN116645400B CN116645400B CN202310897099.9A CN202310897099A CN116645400B CN 116645400 B CN116645400 B CN 116645400B CN 202310897099 A CN202310897099 A CN 202310897099A CN 116645400 B CN116645400 B CN 116645400B
- Authority
- CN
- China
- Prior art keywords
- tracking
- data
- pose
- image
- inertial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 113
- 230000004927 fusion Effects 0.000 claims abstract description 100
- 238000001914 filtration Methods 0.000 claims abstract description 94
- 238000012545 processing Methods 0.000 claims abstract description 35
- 230000000295 complement effect Effects 0.000 claims abstract description 19
- 238000009417 prefabrication Methods 0.000 claims abstract description 17
- 238000005259 measurement Methods 0.000 claims description 77
- 238000012937 correction Methods 0.000 claims description 26
- 230000003044 adaptive effect Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000005484 gravity Effects 0.000 claims description 13
- 230000001133 acceleration Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000009897 systematic effect Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Navigation (AREA)
Abstract
本发明提供了一种视觉及惯性混合位姿跟踪方法、系统、头盔及存储介质,属于位姿跟踪技术领域。该方法包括采用惯性捷联位姿解算采集的IMU数据得到惯性跟踪数据;采用图像位姿解算采集的图像数据得到图像跟踪数据;通过数据融合算法将惯性跟踪数据及图像跟踪数据进行数据融合,得到组合跟踪数据;创建基于头部位姿跟踪的预制判定策略;根据预制判定策略,从惯性跟踪模式、图像跟踪模式、及互补式融合模式中确定预制组合参数所对应的最优跟踪模式;将最优跟踪模式获取的跟踪数据通过与其对应的滤波算法处理,输出当前头部位姿的跟踪信息。通过本申请,可以提高头盔的头部位姿跟踪在运动载具具有多变速度、颠簸和振动等因素下的精度及实时性。
Description
技术领域
本发明属于位姿跟踪技术领域,具体地涉及一种视觉及惯性混合位姿跟踪方法、系统、头盔及存储介质。
背景技术
传统头部跟踪实现的技术手段有多种方法,可分为电磁法、光电法、超声波法等。电磁法基本原理是建立一个特定磁场区域,利用磁场感应器来获取磁场信息,根据所得信息来计算出感应器所在位置的坐标系与参考系之间的关系参数;缺点是易受到磁性金属、电磁场级地磁的干扰,稳定性不好。超声波法以脉冲时间为基础的超声波测距技术,在超声波跟踪器中,所有能够影响声速的因素都会影响系统的性能,且发射器和接收器之间不能有遮挡,而较大的延迟则进一步限制其适用范围。光电法利用光电探测器对一定辐射源进行位置和角度测量,进而求出被测物体的姿态、位置参数;其具有抗电磁能力强,一旦位置固定,其精度可以保证;缺点是存在遮挡问题。
现有技术的运动载具中的头盔位姿跟踪应用主流方法有两种:1、惯性测量算法,其根据陀螺仪的角速度、加速度计的加速度以及磁传感器的磁强度计算目标的姿态角,具有刷新频率较高以及测量延迟较低的优点且跟踪时不依赖于外部标志点,在出现遮挡问题时可在较短时间继续进行位置和姿态跟踪,具有短时高精度的优点;但其测量误差会随时间的不断增加而积累,再加上自身的漂移特性,不能满足长时间的精度要求。2、视觉测量算法,其采用布置在头盔上的红外灯组与布置在运动载具座舱内的红外相机进行配合,完成头盔位姿计算。通过精确标定后的高速相机与灯组配合,在相机获取实时图像后经过载具计算机的图像处理,提取出灯特征点信息,经过特征点匹配后通过计算机视觉的PnP方法解算出头盔相对座舱的位姿信息,具有误差无累积性的优点。但是这种视觉模式建立于准确的特征点匹配基础上,仅适用于慢速运动的运动载具,在特征点位置在图像中变化较大就难以完成特征点匹配而跟踪失败。
因此,如何将视觉测量算法的误差无累积与惯性测量算法的短时高精度相结合应用于运动载具中头盔的位姿跟踪,以解决因运动载具具有多变速度、颠簸和振动等因素导致头盔的头部位姿跟踪的精度低、实时性差的技术问题,是本领域技术人员亟待解决的课题。
发明内容
为了解决上述技术问题,本发明提供了一种视觉及惯性混合位姿跟踪方法、系统、头盔及存储介质,提高头盔的头部位姿跟踪在运动载具具有多变速度、颠簸和振动等因素下的精度及实时性。
第一方面,本申请提供一种视觉及惯性混合位姿跟踪方法,包括:
采用惯性跟踪模式的惯性捷联位姿解算采集的IMU数据得到头部位姿的惯性跟踪数据;其中,所述IMU数据包括来自运动载具及头盔上的IMU数据;
采用图像跟踪模式的图像位姿解算采集的图像数据得到头部位姿的图像跟踪数据;其中,所述图像数据为头盔上LED标识点阵列的数据;
通过互补式融合模式的数据融合算法将所述惯性跟踪数据及所述图像跟踪数据进行数据融合,得到头部位姿的组合跟踪数据;其中,所述数据融合算法为改进自适应卡尔曼滤波;
创建基于头部位姿跟踪的预制判定策略;
根据所述预制判定策略,从所述惯性跟踪模式、所述图像跟踪模式、及所述互补式融合模式中确定预制组合参数所对应的最优跟踪模式;其中,所述预制组合参数包括精度、速度和稳定性;
将所述最优跟踪模式获取的跟踪数据通过与其对应的滤波算法处理,输出当前头部位姿的跟踪信息。
较佳地,所述采用惯性跟踪模式的惯性捷联位姿解算采集的IMU数据得到头部位姿的惯性跟踪数据的步骤具体包括:
选取运动载具作为惯性跟踪测量的基准;
基于所述基准,通过安装在所述运动载具及所述头盔上的IMU分别获取所述运动载具及所述头盔相对于惯性系的惯性测量数据;其中,所述惯性测量数据包括角速度和加速度;
通过惯性捷联位姿解算所述惯性测量数据求解头部位姿的惯性跟踪数据。
较佳地,所述采用图像跟踪模式的图像位姿解算采集的图像数据得到头部位姿的图像跟踪数据的步骤具体包括:
基于图像传感器获取头盔上LED标识点的图像测量数据;
根据所述图像测量数据提取所述LED标识点的质心;
利用标定的所述图像传感器的内参数对所述质心进行畸变校正,得到无畸变质心坐标;
采用图像位姿解算所述无畸变质心坐标、标定的所述LED标识点的内参数及外参数和标定的所述图像传感器的外参数,得到头部位姿的图像跟踪数据。
较佳地,所述通过互补式融合模式的数据融合算法将所述惯性跟踪数据及所述图像跟踪数据进行数据融合,得到头部位姿的组合跟踪数据的步骤具体包括:
基于运动载具及头盔相对位姿关系建立基于相对位姿误差状态的运动学方程,并推导出卡尔曼滤波的滤波状态方程;
利用图像位姿解算的相对位姿结果作为观测信息建立线性观测方程;
根据所述线性观测方程及所述滤波状态方程计算滤波相对误差值,并根据所述滤波相对误差值选取适配的滤波算法作为数据融合算法;
将所述惯性跟踪数据及所述图像跟踪数据通过所述数据融合算法进行数据融合,得到头部位姿的组合跟踪数据。
较佳地,所述滤波算法为Sage-Husa自适应卡尔曼滤波算法、扩展卡尔曼滤波、强跟踪卡尔曼滤波算法中的一种。
较佳地,所述预制判定策略具体包括:
当所述惯性捷联位姿解算有效,而所述图像位姿解算无效且时间为第一时长时,针对所述数据融合算法进行时间更新,将所述组合跟踪数据通过时间更新后的所述数据融合算法处理,输出当前头部位姿的跟踪信息;
当所述惯性捷联位姿解算有效,而所述图像位姿解算无效且时间为第二时长时,其中所述第二时长大于所述第一时长,将所述组合跟踪数据进行惯性修正滤波算法处理,输出当前头部位姿的跟踪信息;
当所述图像位姿解算有效,而所述惯性捷联位姿解算无效且时间为第一时长时,针对所述数据融合算法进行观测更新,将所述组合跟踪数据通过观测更新后的所述数据融合算法处理,输出当前头部位姿的跟踪信息;
当所述图像位姿解算有效,而所述惯性捷联位姿解算无效且时间为第二时长时,将所述组合跟踪数据进行图像跟踪滤波算法处理,输出当前头部位姿的跟踪信息。
较佳地,所述将所述组合跟踪数据进行惯性修正滤波算法处理的步骤具体包括:
以所述惯性捷联位姿解算为状态方程,利用倾角仪原理获取三轴加速度以解算出重力矢量;
基于倾角仪计算合理性判定,自适应输出所述重力矢量的观测误差协方差;
根据所述观测误差协方差以使组合跟踪数据在卡尔曼滤波框架下进行预测校正。
第二方面,本申请还提供了一种视觉及惯性混合位姿跟踪系统,包括:
惯性解算模块,用于采用惯性跟踪模式的惯性捷联位姿解算采集的IMU数据得到头部位姿的惯性跟踪数据;其中,所述IMU数据包括来自运动载具及头盔上的IMU数据;
图像解算模块,用于采用图像跟踪模式的图像位姿解算采集的图像数据得到头部位姿的图像跟踪数据;其中,所述图像数据为头盔上LED标识点阵列的数据;
数据融合模块,用于通过互补式融合模式的数据融合算法将所述惯性跟踪数据及所述图像跟踪数据进行数据融合,得到头部位姿的组合跟踪数据;其中,所述数据融合算法为改进自适应卡尔曼滤波;
策略创建模块,用于创建基于头部位姿跟踪的预制判定策略;
择优确定模块,用于根据所述预制判定策略,从所述惯性跟踪模式、所述图像跟踪模式、及所述互补式融合模式中确定预制组合参数所对应的最优跟踪模式;其中,所述预制组合参数包括精度、速度和稳定性;
滤波处理模块,用于将所述最优跟踪模式获取的跟踪数据通过与其对应的滤波算法处理,输出当前头部位姿的跟踪信息。
较佳地,所述惯性解算模块具体包括:
基准单元,用于选取运动载具作为惯性跟踪测量的基准;
第一获取单元,用于基于所述基准,通过安装在所述运动载具及所述头盔上的IMU分别获取所述运动载具及所述头盔相对于惯性系的惯性测量数据;其中,所述惯性测量数据包括角速度和加速度;
第一解算单元,用于通过惯性捷联位姿解算所述惯性测量数据求解头部位姿的惯性跟踪数据。
较佳地,所述图像解算模块具体包括:
第二获取单元,用于基于图像传感器获取头盔上LED标识点的图像测量数据;
提取单元,用于根据所述图像测量数据提取所述LED标识点的质心;
畸变校正单元,用于利用标定的所述图像传感器的内参数对所述质心进行畸变校正,得到无畸变质心坐标;
第二解算单元,采用图像位姿解算所述无畸变质心坐标、标定的所述LED标识点的内参数及外参数和标定的所述图像传感器的外参数,得到头部位姿的图像跟踪数据。
较佳地,所述数据融合模块具体包括:
推导单元,用于基于运动载具及头盔相对位姿关系建立基于相对位姿误差状态的运动学方程,并推导出卡尔曼滤波的滤波状态方程;
建立单元,用于利用图像位姿解算的相对位姿结果作为观测信息建立线性观测方程;
选取单元,用于根据所述线性观测方程及所述滤波状态方程计算滤波相对误差值,并根据所述滤波相对误差值选取适配的滤波算法作为数据融合算法;
数据融合单元,用于将所述惯性跟踪数据及所述图像跟踪数据通过所述数据融合算法进行数据融合,得到头部位姿的组合跟踪数据。
第三方面,本申请实施例提供了一种头盔,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的视觉及惯性混合位姿跟踪方法。
第四方面,本申请实施例提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面所述的视觉及惯性混合位姿跟踪方法。
相比现有技术,本发明的有益效果为:
基于人在稳定凝视观察和快速搜索目标时,其头部具有不同的运动状态,而在整个使用过程中,头部运动呈现较强的随机性,可能时而稳定时而大角速度运动,本申请通过自适应滤波估计以适应图像跟踪观测值的精度变化,根据观测值噪声的大小自适应设置观测噪声方差的大小,从而调整对惯性和图像跟踪结果的利用权重。诸如当图像跟踪的观测噪声变得较大时,则观测噪声方差阵随之增大,此时滤波观测更新过程立即增大惯性跟踪的位姿信息利用权重,而利用图像观测修正的权重变小。当图像观测噪声变小时,观测噪声方差阵随之减小,此时观测更新过程立即降低惯性跟踪信息的利用权重,而利用图像观测修正的权重变大,以此达到自适应调节惯性和图像跟踪信息利用权重、达到图像和惯性数据最优化融合的组合滤波效果,消除解算误差,提高跟踪精度,减小解算延时。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例1提供的视觉及惯性混合位姿跟踪方法的流程图;
图2是本发明实施例2提供的与实施例1方法对应的视觉及惯性混合位姿跟踪系统结构框图;
图3是本发明实施例3提供的头盔的硬件结构示意图。
附图标记说明:
10-惯性解算模块、11-基准单元、12-第一获取单元、13-第一解算单元;
20-图像解算模块、21-第二获取单元、22-提取单元、23-畸变校正单元、24-第二解算单元;
30-数据融合模块、31-推导单元、32-建立单元、33-选取单元、34-数据融合单元;
40-策略创建模块;
50-择优确定模块;
60-滤波处理模块;
70-总线、71-处理器、72-存储器、73-通信接口。
具体实施方式
为实现智能头盔头部姿态和位置的准确测量跟踪,针对位姿跟踪系统中存在车体运动惯性测量单元、头部惯性测量单元和图像测量传感器等多传感器测量数据的情况,根据头部相对车体姿态是否存在图像和惯性冗余测量的条件,设计了有冗余测量时的高精度位姿跟踪与无冗余测量情况下位姿跟踪方案。为获得头部相对车体的位姿跟踪信息,冗余测量是指头部惯性测量+车体惯性测量与图像相对姿态测量之间的冗余,也即是能够利用头部、车体在惯性空间中的不同位姿间接获得两者之间的相对位姿,图像测量则是对两者之间相对位姿的直接测量。在这种情况下,本申请能够有效进行图像和惯性两种不同传感器的测量数据融合方法,将图像测量误差无累积性与惯性测量短时高精度相结合,获得优于二者任意单一测量精度的融合测量结果。
实施例1
具体而言,图1所示为本实施例所提供的一种视觉及惯性混合位姿跟踪方法的流程示意图。
如图1所示,本实施例的视觉及惯性混合位姿跟踪方法包括以下步骤:
S101,采用惯性跟踪模式的惯性捷联位姿解算采集的IMU数据得到头部位姿的惯性跟踪数据。
其中,所述IMU数据包括来自运动载具及头盔上的IMU数据。
具体地,本实施例中在头部跟踪测量中选取运动载具-车体作为跟踪测量的基准,其相对于地球坐标系也存在相对运动,无法使用单个惯性传感器完成头部相对于车体的位姿测量,需要两个或者更多惯性传感器进行差分解算。在车体和头盔上分别放置IMU,分别测量各自相对于地球惯性坐标系的位姿变化,组合形成惯性跟踪测量系统,完成头部和车体之间的相对位姿跟踪测量。
进一步地,本实施例的步骤S101具体包括:
S1011,选取运动载具作为惯性跟踪测量的基准。
具体地,为便于描述和计算,首先定义一系列笛卡尔参考坐标系,每一个坐标系都是正交的右手系。其中,惯性坐标系(i系)是以原点位于地球中心,坐标轴相对于恒星无转动,轴向定义为OXi,OYi,OZi。其中OZi轴的方向与地球极轴的方向一致(假定极轴方向保持不变)。地球坐标系(e系)是以原点位于地球中心,坐标轴与地球固连,轴向定义为OXe,OYe,OZe。其中OZe沿地球极轴方向,OXe轴沿格林尼治子午面和地球赤道的交线。地球坐标系相对于惯性坐标系绕OZi轴以角速度ωe转动。地理坐标系(g系)取当地地理坐标系,原点位于车体重心,坐标系三个轴指向为:Xg轴指向东,Yg轴指向北,Zg轴指向当地垂线方向。导航坐标系(n系)取当地地理坐标系,原点位于车体重心,当与地理坐标系重合时,Xn坐标轴指向东,Yn坐标轴指向北,Zn坐标轴指向当地垂线方向(向上)。车体坐标系(b系)取原点位于车体重心,Xb轴指向车体前方,Yb轴沿车体指向左,Zb轴为按右手定则沿车体的方位轴指向上方。头部坐标系(h系)取人体的两眼连线中心为坐标原点,以视线正前方方向为Xh轴,以人体正常坐姿的从右到左的方向为Yh轴,Zh轴按右手定则沿头部方位轴指向正上方。本实施例中,根据根据IMU跟踪测量的基本原理,需要分析由两个IMU组成的惯性差分跟踪测量系统的系统方程和测量方程,因此选取运动载具(车体坐标系)作为惯性跟踪测量的基准。
S1012,基于所述基准,通过安装在所述运动载具及所述头盔上的IMU分别获取所述运动载具及所述头盔相对于惯性系的惯性测量数据;其中,所述惯性测量数据包括角速度和加速度。
具体地,为了便于精确描述车体、头部的位姿信息,引入了相关的导航参数。诸如:1、位置、速度参数;由于头部始终位于车体中,故忽略车体与头部的杆臂效应,认为车体与头部位置相同,用经度λ、纬度L、高度h、东向速度V e、北向速度V n、天向速度V μ、描述。2、姿态参数;引入方位角、俯仰角和横滚角来描述头部与车体的姿态信息。3、地球几何常量;使用惯性装置进行姿态测量,需要对地球的形状作一些假设,通常把地球视为一个参考椭球,本算法使用WGS-84坐标系所选定的参考椭球。所涉及到的地球几何常量如下表。
S1013,通过惯性捷联位姿解算所述惯性测量数据求解头部位姿的惯性跟踪数据。
具体地,姿态有多种参数化表示方法,如方向余弦阵、欧拉轴角、欧拉角和单位四元数等。本实施例采用单位四元数的表示方法,和方向余弦阵或欧拉角相比,四元数有几个显著优点:用四元数计算时不用三角函数,计算速度快;四元数不存在奇点;如果用方向余弦阵计算两次转动,需要81次乘法和加法,而用四元数计算,只需要16次乘法和加法,所以它的计算量最小。本实施例采用四元数q=[q1,q2,q3,q4]T来表示追踪器相对于目标器的姿态,四元数可用欧拉轴角表示为qv=[q1,q2,q3]T=esin(α/2),q4=cos(α/2),其中e为旋转轴的方向向量,α为旋转角。由于四元数q利用四维向量表示三个自由度,因此存在一个冗余参数,必须满足一个归一化约束如下:
四元数q对应的方向余弦阵A(q)可将目标坐标系中的向量变换到追踪坐标系中,可表示如下:
,其中
,
式中,I3×3表示3阶单位矩阵,[q13]表示向量q13的叉乘矩阵。
S102,采用图像跟踪模式的图像位姿解算采集的图像数据得到头部位姿的图像跟踪数据。
具体地,所述图像数据为头盔上LED标识点阵列的数据。本实施例中从图像传感器成像理论出发,构建跟踪测量特征点的成像模型,通过图像位姿解算算法完成头部位姿跟踪测量。现有的图像跟踪测量包括图像传感器标定、跟踪特征点空间坐标测量、图像位姿解算算法、图像跟踪滤波与系统全局校准等方法和技术。
进一步地,本实施例的步骤S102具体包括:
S1021,基于图像传感器获取头盔上LED标识点的图像测量数据。
S1022,根据所述图像测量数据提取所述LED标识点的质心。
S1023,利用标定的所述图像传感器的内参数对所述质心进行畸变校正,得到无畸变质心坐标。
S1024,采用图像位姿解算所述无畸变质心坐标、标定的所述LED标识点的内参数及外参数和标定的所述图像传感器的外参数,得到头部位姿的图像跟踪数据。
S103,通过互补式融合模式的数据融合算法将所述惯性跟踪数据及所述图像跟踪数据进行数据融合,得到头部位姿的组合跟踪数据。
其中,所述数据融合算法为改进自适应卡尔曼滤波,其中,改进自适应卡尔曼滤波为采用互补式融合模式的数据融合,具体采用航位推测法的方式。
具体地,从多传感器数据融合的角度,可将组合跟踪方法分为互补式、竞争式和协作式传感器融合三类;其中,互补式传感器融合是组合或者融合相互独立的不同传感器的不完整测量数据,以获得一个更完整的系统状态估计。对不同传感器不完整测量数据的不同融合处理方式导致四类不同的互补式融合,包括自由度组合/切换、单次单限制、间接滤波和航位推测法。本实施例采用航位推测法,该方法所使用的滤波策略不直接作用于跟踪器测量误差,其关键之处是在滤波器融合结构中保留状态过程模型的输入信号,且以惯性实际测量作为此输入信号,利用滤波器内部的预测校正机制实现视觉测量对惯性测量的漂浮补偿。
进一步地,本实施例的步骤S103具体包括:
S1031,基于运动载具及头盔相对位姿关系建立基于相对位姿误差状态的运动学方程,并推导出卡尔曼滤波的滤波状态方程。
S1032,利用图像位姿解算的相对位姿结果作为观测信息建立线性观测方程。
S1033,根据所述线性观测方程及所述滤波状态方程计算滤波相对误差值,并根据所述滤波相对误差值选取适配的滤波算法作为数据融合算法。
具体地,滤波算法为Sage-Husa自适应卡尔曼滤波算法、扩展卡尔曼滤波、强跟踪卡尔曼滤波算法中的一种。本实施例中,滤波相对误差值具体如下:
,
式中,γ表示滤波相对误差值,表示新息序列的平方和,/>表示新息序列的方差矩阵;其中,新息序列具体为/>,Z k+1表示k+1时刻的观测值,H k+1表示k+1时刻的观测矩阵,/>表示k时刻与k+1时刻之间时段的状态估计值。
该滤波相对误差值的具体计算过程为:当滤波器发散时,滤波算法的误差协方差阵无界,这时实际的估计误差往往比理论预计的误差大很多倍。根据这一特点,利用新息序列的性质来构造滤波算法的收敛性判据。由于/>为新息序列的平方和,包含了实际估计误差的信息,而理论预测误差的信息可通过新息序列的方差来描述,具体为:/>,因此,可定义上述的滤波相对误差。
进一步地,然后根据该误差值的取值范围选择合适的滤波算法,即有如下规则:时,采用Sage-Husa自适应卡尔曼滤波算法;/>,采用扩展卡尔曼滤波;,采用强跟踪卡尔曼滤波算法。其中,γ min表示滤波相对误差值的最小值,γ max表示滤波相对误差值的最大值。
S1034,将所述惯性跟踪数据及所述图像跟踪数据通过所述数据融合算法进行数据融合,得到头部位姿的组合跟踪数据。
其中,本申请所涉及的数据融合算法包括Sage-Husa自适应卡尔曼滤波算法、强跟踪卡尔曼滤波算法、扩展卡尔曼滤波。具体地,Sage-Husa自适应卡尔曼滤波算法涉及到时间更新算法、观测更新算法、时变噪声估计算法。强跟踪卡尔曼滤波算法涉及到时间更新算法、观测更新算法。扩展卡尔曼滤波涉及到时间更新算法、观测更新算法。诸如:卡尔曼滤波主要是采用预测和更新两个过程:预测过程主要是根据机器人运动模型,对机器人的下一个位置进行预测。系统误差是在更新的(例如传感器测量误差非常大,这样导致卡尔曼增益K值变小),这样测量值对于预测值的修正作用就会降低,因为测量值没有对预测值起到足够的修正作用,这也就导致系统误差在累计增加。同样,如果传感器足够精确,对预测量起到有效的修正,这是的系统误差就会降低。
进一步地,拓展卡尔曼滤波主要是为了解决预测方程和测量方程可能不是线性方程,如果是非线性方程,只能使用泰勒公式进行求导;多个传感器的融合过程其实是每个测量值与系统模型预测值进行融合,融合结果形成新的系统模型预测值,所有导航子系统各进行一次拓展卡尔曼滤波过程,则整个组合导航系统完成一次组合导航系统,系统模型的最新预测值即为整个组合导航系统的输出的最优估计结果。
S104,创建基于头部位姿跟踪的预制判定策略。
具体地,所述预制判定策略具体包括:
当所述惯性捷联位姿解算有效,而所述图像位姿解算无效且时间为第一时长时,针对所述数据融合算法进行时间更新,将所述组合跟踪数据通过时间更新后的所述数据融合算法处理,输出当前头部位姿的跟踪信息;
当所述惯性捷联位姿解算有效,而所述图像位姿解算无效且时间为第二时长时,其中所述第二时长大于所述第一时长,将所述组合跟踪数据进行惯性修正滤波算法处理,输出当前头部位姿的跟踪信息;
当所述图像位姿解算有效,而所述惯性捷联位姿解算无效且时间为第一时长时,针对所述数据融合算法进行观测更新,将所述组合跟踪数据通过观测更新后的所述数据融合算法处理,输出当前头部位姿的跟踪信息;
当所述图像位姿解算有效,而所述惯性捷联位姿解算无效且时间为第二时长时,将所述组合跟踪数据进行图像跟踪滤波算法处理,输出当前头部位姿的跟踪信息。
进一步地,所述将所述组合跟踪数据进行惯性修正滤波算法处理的步骤具体包括:
以所述惯性捷联位姿解算为状态方程,利用倾角仪原理获取三轴加速度以解算出重力矢量;
基于倾角仪计算合理性判定,自适应输出所述重力矢量的观测误差协方差;
根据所述观测误差协方差以使组合跟踪数据在卡尔曼滤波框架下进行预测校正。
S105,根据所述预制判定策略,从所述惯性跟踪模式、所述图像跟踪模式、及所述互补式融合模式中确定预制组合参数所对应的最优跟踪模式。
具体地,所述预制组合参数包括精度、速度和稳定性。本实施例中可以适应图像跟踪观测值的精度变化,根据观测值噪声的大小,自适应设置观测噪声方差的大小,从而调整对惯性和图像跟踪结果的利用权重。具体实践中,当图像跟踪的观测噪声变得较大时,则观测噪声方差阵随之增大,此时滤波观测更新过程立即增大惯性跟踪的位姿信息利用权重,而利用图像观测修正的权重变小。当图像观测噪声变小时,观测噪声方差阵随之减小,此时观测更新过程立即降低惯性跟踪信息的利用权重,而利用图像观测修正的权重变大,以此达到自适应调节惯性和图像跟踪信息利用权重。
S106,将所述最优跟踪模式获取的跟踪数据通过与其对应的滤波算法处理,输出当前头部位姿的跟踪信息。
具体地,根据图像传感器和惯性传感器的可用性,确定图像跟踪状态、惯性跟踪状态及组合跟踪状态,选择头部位姿的最优估计方案,以实时输出最高精度的头部位姿信息,避免因图像或惯性传感器故障导致无法准确快速连续进行头部跟踪。
综上所述,本实施例利用惯性捷联位姿解算和图像位姿解算的位姿测量数据,通过组合滤波算法实现图像传感器和惯性传感器的数据融合,获得头部位姿的图像和惯性组合跟踪信息;然后通过头部位姿跟踪方案判定模块,从图像跟踪、惯性跟踪与组合跟踪三种跟踪方案中选择和确定精度、速度和稳定性最优的跟踪方案,最后将该最优方案的跟踪测量结果作为头部位姿跟踪的最终输出。
实施例2
本实施例提供了与实施例1所述方法相对应的系统的结构框图。图2是根据本实施例的视觉及惯性混合位姿跟踪系统的结构框图,如图2所示,该系统包括:
惯性解算模块10,用于采用惯性跟踪模式的惯性捷联位姿解算采集的IMU数据得到头部位姿的惯性跟踪数据;其中,所述IMU数据包括来自运动载具及头盔上的IMU数据。
图像解算模块20,用于采用图像跟踪模式的图像位姿解算采集的图像数据得到头部位姿的图像跟踪数据;其中,所述图像数据为头盔上LED标识点阵列的数据。
数据融合模块30,用于通过互补式融合模式的数据融合算法将所述惯性跟踪数据及所述图像跟踪数据进行数据融合,得到头部位姿的组合跟踪数据;其中,所述数据融合算法为改进自适应卡尔曼滤波。
策略创建模块40,用于创建基于头部位姿跟踪的预制判定策略;其中,所述预制判定策略具体包括:
当所述惯性捷联位姿解算有效,而所述图像位姿解算无效且时间为第一时长时,针对所述数据融合算法进行时间更新,将所述组合跟踪数据通过时间更新后的所述数据融合算法处理,输出当前头部位姿的跟踪信息。
当所述惯性捷联位姿解算有效,而所述图像位姿解算无效且时间为第二时长时,其中所述第二时长大于所述第一时长,将所述组合跟踪数据进行惯性修正滤波算法处理,输出当前头部位姿的跟踪信息;其中,所述将所述组合跟踪数据进行惯性修正滤波算法处理的步骤具体包括:
以所述惯性捷联位姿解算为状态方程,利用倾角仪原理获取三轴加速度以解算出重力矢量;
基于倾角仪计算合理性判定,自适应输出所述重力矢量的观测误差协方差;
根据所述观测误差协方差以使组合跟踪数据在卡尔曼滤波框架下进行预测校正。
当所述图像位姿解算有效,而所述惯性捷联位姿解算无效且时间为第一时长时,针对所述数据融合算法进行观测更新,将所述组合跟踪数据通过观测更新后的所述数据融合算法处理,输出当前头部位姿的跟踪信息。
当所述图像位姿解算有效,而所述惯性捷联位姿解算无效且时间为第二时长时,将所述组合跟踪数据进行图像跟踪滤波算法处理,输出当前头部位姿的跟踪信息。
择优确定模块50,用于根据所述预制判定策略,从所述惯性跟踪模式、所述图像跟踪模式、及所述互补式融合模式中确定预制组合参数所对应的最优跟踪模式;其中,所述预制组合参数包括精度、速度和稳定性;
滤波处理模块60,用于将所述最优跟踪模式获取的跟踪数据通过与其对应的滤波算法处理,输出当前头部位姿的跟踪信息。
进一步地,所述惯性解算模块10具体包括:
基准单元11,用于选取运动载具作为惯性跟踪测量的基准;
第一获取单元12,用于基于所述基准,通过安装在所述运动载具及所述头盔上的IMU分别获取所述运动载具及所述头盔相对于惯性系的惯性测量数据;其中,所述惯性测量数据包括角速度和加速度;
第一解算单元13,用于通过惯性捷联位姿解算所述惯性测量数据求解头部位姿的惯性跟踪数据。
进一步地,所述图像解算模块20具体包括:
第二获取单元21,用于基于图像传感器获取头盔上LED标识点的图像测量数据;
提取单元22,用于根据所述图像测量数据提取所述LED标识点的质心;
畸变校正单元23,用于利用标定的所述图像传感器的内参数对所述质心进行畸变校正,得到无畸变质心坐标;
第二解算单元24,采用图像位姿解算所述无畸变质心坐标、标定的所述LED标识点的内参数及外参数和标定的所述图像传感器的外参数,得到头部位姿的图像跟踪数据。
进一步地,所述数据融合模块30具体包括:
推导单元31,用于基于运动载具及头盔相对位姿关系建立基于相对位姿误差状态的运动学方程,并推导出卡尔曼滤波的滤波状态方程;
建立单元32,用于利用图像位姿解算的相对位姿结果作为观测信息建立线性观测方程;
选取单元33,用于根据所述线性观测方程及所述滤波状态方程计算滤波相对误差值,并根据所述滤波相对误差值选取适配的滤波算法作为数据融合算法;
数据融合单元34,用于将所述惯性跟踪数据及所述图像跟踪数据通过所述数据融合算法进行数据融合,得到头部位姿的组合跟踪数据。
需要说明的是,上述各个模块可以是功能模块也可以是程序模块,既可以通过软件来实现,也可以通过硬件来实现。对于通过硬件来实现的模块而言,上述各个模块可以位于同一处理器中;或者上述各个模块还可以按照任意组合的形式分别位于不同的处理器中。
实施例3
结合图3所描述的视觉及惯性混合位姿跟踪方法可以由头盔来实现。图3为根据本实施例的头盔的硬件结构示意图。
头盔可以包括处理器71以及存储有计算机程序指令的存储器72。
具体地,上述处理器71可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者可以被配置成实施本申请的一个或多个集成电路。
其中,存储器72可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器72可包括硬盘驱动器(Hard Disk Drive,简称为HDD)、软盘驱动器、固态驱动器(SolidState Drive,简称为SSD)、闪存、光盘、磁光盘、磁带或通用串行总线(Universal SerialBus,简称为USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器72可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器72可在数据处理装置的内部或外部。在特定实施例中,存储器72是非易失性(Non-Volatile)存储器。在特定实施例中,存储器72包括只读存储器(Read-Only Memory,简称为ROM)和随机存取存储器(RandomAccess Memory,简称为RAM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(Programmable Read-Only Memory,简称为PROM)、可擦除PROM(Erasable ProgrammableRead-Only Memory,简称为EPROM)、电可擦除PROM(Electrically Erasable ProgrammableRead-Only Memory,简称为EEPROM)、电可改写ROM(Electrically Alterable Read-OnlyMemory,简称为EAROM)或闪存(FLASH)或者两个或更多个以上这些的组合。在合适的情况下,该RAM可以是静态随机存取存储器(Static Random-Access Memory,简称为SRAM)或动态随机存取存储器(Dynamic Random Access Memory,简称为DRAM),其中,DRAM可以是快速页模式动态随机存取存储器(Fast Page Mode Dynamic Random Access Memory,简称为FPMDRAM)、扩展数据输出动态随机存取存储器(Extended Date Out Dynamic RandomAccess Memory,简称为EDODRAM)、同步动态随机存取内存(Synchronous Dynamic Random-Access Memory,简称SDRAM)等。
存储器72可以用来存储或者缓存需要处理和/或通信使用的各种数据文件,以及处理器71所执行的可能的计算机程序指令。
处理器71通过读取并执行存储器72中存储的计算机程序指令,以实现上述实施例1的视觉及惯性混合位姿跟踪方法。
在其中一些实施例中,头盔还可包括通信接口73和总线70。其中,如图3所示,处理器71、存储器72、通信接口73通过总线70连接并完成相互间的通信。
通信接口73用于实现本申请中各模块、装置、单元和/或设备之间的通信。通信接口73还可以实现与其他部件例如:外接设备、图像/数据采集设备、数据库、外部存储以及图像/数据处理工作站等之间进行数据通信。
总线70包括硬件、软件或两者,将设备的部件彼此耦接在一起。总线70包括但不限于以下至少之一:数据总线(Data Bus)、地址总线(Address Bus)、控制总线(ControlBus)、扩展总线(Expansion Bus)、局部总线(Local Bus)。举例来说而非限制,总线70可包括图形加速接口(Accelerated Graphics Port,简称为AGP)或其他图形总线、增强工业标准架构(Extended Industry Standard Architecture,简称为EISA)总线、前端总线(FrontSide Bus,简称为FSB)、超传输(Hyper Transport,简称为HT)互连、工业标准架构(Industry Standard Architecture,简称为ISA)总线、无线带宽(InfiniBand)互连、低引脚数(Low Pin Count,简称为LPC)总线、存储器总线、微信道架构(Micro ChannelArchitecture,简称为MCA)总线、外围组件互连(Peripheral Component Interconnect,简称为PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(Serial AdvancedTechnology Attachment,简称为SATA)总线、视频电子标准协会局部(Video ElectronicsStandards Association Local Bus,简称为VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线70可包括一个或多个总线。尽管本申请描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
该头盔可以获取到视觉及惯性混合位姿跟踪系统,执行本实施例1的视觉及惯性混合位姿跟踪方法。
另外,结合上述实施例1的视觉及惯性混合位姿跟踪方法,本申请可提供一种存储介质来实现。该存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例1的视觉及惯性混合位姿跟踪方法。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种视觉及惯性混合位姿跟踪方法,其特征在于,包括:
采用惯性跟踪模式的惯性捷联位姿解算采集的IMU数据得到头部位姿的惯性跟踪数据;其中,所述IMU数据包括来自运动载具及头盔上的IMU数据;
采用图像跟踪模式的图像位姿解算采集的图像数据得到头部位姿的图像跟踪数据;其中,所述图像数据为头盔上LED标识点阵列的数据;
通过互补式融合模式的数据融合算法将所述惯性跟踪数据及所述图像跟踪数据进行数据融合,得到头部位姿的组合跟踪数据;其中,所述数据融合算法为改进自适应卡尔曼滤波;
创建基于头部位姿跟踪的预制判定策略;
根据所述预制判定策略,从所述惯性跟踪模式、所述图像跟踪模式、及所述互补式融合模式中确定预制组合参数所对应的最优跟踪模式;其中,所述预制组合参数包括精度、速度和稳定性;
将所述最优跟踪模式获取的跟踪数据通过与其对应的滤波算法处理,输出当前头部位姿的跟踪信息;
所述通过互补式融合模式的数据融合算法将所述惯性跟踪数据及所述图像跟踪数据进行数据融合,得到头部位姿的组合跟踪数据的步骤具体包括:
基于运动载具及头盔相对位姿关系建立基于相对位姿误差状态的运动学方程,并推导出卡尔曼滤波的滤波状态方程;
利用图像位姿解算的相对位姿结果作为观测信息建立线性观测方程;
根据所述线性观测方程及所述滤波状态方程计算滤波相对误差值,并根据所述滤波相对误差值选取适配的滤波算法作为数据融合算法;
将所述惯性跟踪数据及所述图像跟踪数据通过所述数据融合算法进行数据融合,得到头部位姿的组合跟踪数据;
所述预制判定策略具体包括:
当所述惯性捷联位姿解算有效,而所述图像位姿解算无效且时间为第一时长时,针对所述数据融合算法进行时间更新,将所述组合跟踪数据通过时间更新后的所述数据融合算法处理,输出当前头部位姿的跟踪信息;
当所述惯性捷联位姿解算有效,而所述图像位姿解算无效且时间为第二时长时,其中所述第二时长大于所述第一时长,将所述组合跟踪数据进行惯性修正滤波算法处理,输出当前头部位姿的跟踪信息;
当所述图像位姿解算有效,而所述惯性捷联位姿解算无效且时间为第一时长时,针对所述数据融合算法进行观测更新,将所述组合跟踪数据通过观测更新后的所述数据融合算法处理,输出当前头部位姿的跟踪信息;
当所述图像位姿解算有效,而所述惯性捷联位姿解算无效且时间为第二时长时,将所述组合跟踪数据进行图像跟踪滤波算法处理,输出当前头部位姿的跟踪信息;
所述将所述组合跟踪数据进行惯性修正滤波算法处理的步骤具体包括:
以所述惯性捷联位姿解算为状态方程,利用倾角仪原理获取三轴加速度以解算出重力矢量;
基于倾角仪计算合理性判定,自适应输出所述重力矢量的观测误差协方差;
根据所述观测误差协方差以使组合跟踪数据在卡尔曼滤波框架下进行预测校正。
2.根据权利要求1所述的视觉及惯性混合位姿跟踪方法,其特征在于,所述采用惯性跟踪模式的惯性捷联位姿解算采集的IMU数据得到头部位姿的惯性跟踪数据的步骤具体包括:
选取运动载具作为惯性跟踪测量的基准;
基于所述基准,通过安装在所述运动载具及所述头盔上的IMU分别获取所述运动载具及所述头盔相对于惯性系的惯性测量数据;其中,所述惯性测量数据包括角速度和加速度;
通过惯性捷联位姿解算所述惯性测量数据求解头部位姿的惯性跟踪数据。
3.根据权利要求1所述的视觉及惯性混合位姿跟踪方法,其特征在于,所述采用图像跟踪模式的图像位姿解算采集的图像数据得到头部位姿的图像跟踪数据的步骤具体包括:
基于图像传感器获取头盔上LED标识点的图像测量数据;
根据所述图像测量数据提取所述LED标识点的质心;
利用标定的所述图像传感器的内参数对所述质心进行畸变校正,得到无畸变质心坐标;
采用图像位姿解算所述无畸变质心坐标、标定的所述LED标识点的内参数及外参数和标定的所述图像传感器的外参数,得到头部位姿的图像跟踪数据。
4.根据权利要求1所述的视觉及惯性混合位姿跟踪方法,其特征在于,所述滤波算法为Sage-Husa自适应卡尔曼滤波算法、扩展卡尔曼滤波、强跟踪卡尔曼滤波算法中的一种。
5.一种视觉及惯性混合位姿跟踪系统,其特征在于,包括:
惯性解算模块,用于采用惯性跟踪模式的惯性捷联位姿解算采集的IMU数据得到头部位姿的惯性跟踪数据;其中,所述IMU数据包括来自运动载具及头盔上的IMU数据;
图像解算模块,用于采用图像跟踪模式的图像位姿解算采集的图像数据得到头部位姿的图像跟踪数据;其中,所述图像数据为头盔上LED标识点阵列的数据;
数据融合模块,用于通过互补式融合模式的数据融合算法将所述惯性跟踪数据及所述图像跟踪数据进行数据融合,得到头部位姿的组合跟踪数据;其中,所述数据融合算法为改进自适应卡尔曼滤波;
策略创建模块,用于创建基于头部位姿跟踪的预制判定策略;
择优确定模块,用于根据所述预制判定策略,从所述惯性跟踪模式、所述图像跟踪模式、及所述互补式融合模式中确定预制组合参数所对应的最优跟踪模式;其中,所述预制组合参数包括精度、速度和稳定性;
滤波处理模块,用于将所述最优跟踪模式获取的跟踪数据通过与其对应的滤波算法处理,输出当前头部位姿的跟踪信息;
所述数据融合模块具体包括:
推导单元,用于基于运动载具及头盔相对位姿关系建立基于相对位姿误差状态的运动学方程,并推导出卡尔曼滤波的滤波状态方程;
建立单元,用于利用图像位姿解算的相对位姿结果作为观测信息建立线性观测方程;
选取单元,用于根据所述线性观测方程及所述滤波状态方程计算滤波相对误差值,并根据所述滤波相对误差值选取适配的滤波算法作为数据融合算法;
数据融合单元,用于将所述惯性跟踪数据及所述图像跟踪数据通过所述数据融合算法进行数据融合,得到头部位姿的组合跟踪数据;
所述预制判定策略具体包括:
当所述惯性捷联位姿解算有效,而所述图像位姿解算无效且时间为第一时长时,针对所述数据融合算法进行时间更新,将所述组合跟踪数据通过时间更新后的所述数据融合算法处理,输出当前头部位姿的跟踪信息;
当所述惯性捷联位姿解算有效,而所述图像位姿解算无效且时间为第二时长时,其中所述第二时长大于所述第一时长,将所述组合跟踪数据进行惯性修正滤波算法处理,输出当前头部位姿的跟踪信息;
当所述图像位姿解算有效,而所述惯性捷联位姿解算无效且时间为第一时长时,针对所述数据融合算法进行观测更新,将所述组合跟踪数据通过观测更新后的所述数据融合算法处理,输出当前头部位姿的跟踪信息;
当所述图像位姿解算有效,而所述惯性捷联位姿解算无效且时间为第二时长时,将所述组合跟踪数据进行图像跟踪滤波算法处理,输出当前头部位姿的跟踪信息;
其中,所述将所述组合跟踪数据进行惯性修正滤波算法处理的步骤具体包括:
以所述惯性捷联位姿解算为状态方程,利用倾角仪原理获取三轴加速度以解算出重力矢量;
基于倾角仪计算合理性判定,自适应输出所述重力矢量的观测误差协方差;
根据所述观测误差协方差以使组合跟踪数据在卡尔曼滤波框架下进行预测校正。
6.一种头盔,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1~4中任一项所述的视觉及惯性混合位姿跟踪方法。
7.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1~4中任一项所述的视觉及惯性混合位姿跟踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310897099.9A CN116645400B (zh) | 2023-07-21 | 2023-07-21 | 视觉及惯性混合位姿跟踪方法、系统、头盔及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310897099.9A CN116645400B (zh) | 2023-07-21 | 2023-07-21 | 视觉及惯性混合位姿跟踪方法、系统、头盔及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116645400A CN116645400A (zh) | 2023-08-25 |
CN116645400B true CN116645400B (zh) | 2023-12-08 |
Family
ID=87640345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310897099.9A Active CN116645400B (zh) | 2023-07-21 | 2023-07-21 | 视觉及惯性混合位姿跟踪方法、系统、头盔及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116645400B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8761439B1 (en) * | 2011-08-24 | 2014-06-24 | Sri International | Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit |
CN105953796A (zh) * | 2016-05-23 | 2016-09-21 | 北京暴风魔镜科技有限公司 | 智能手机单目和imu融合的稳定运动跟踪方法和装置 |
CN107063246A (zh) * | 2017-04-24 | 2017-08-18 | 齐鲁工业大学 | 一种视觉导航/惯性导航的松散组合导航方法 |
CN107255476A (zh) * | 2017-07-06 | 2017-10-17 | 青岛海通胜行智能科技有限公司 | 一种基于惯性数据和视觉特征的室内定位方法和装置 |
CN109974714A (zh) * | 2019-04-29 | 2019-07-05 | 南京航空航天大学 | 一种Sage-Husa自适应无迹卡尔曼滤波姿态数据融合方法 |
CN111486867A (zh) * | 2020-03-19 | 2020-08-04 | 天津大学 | 一种视觉和惯性混合跟踪组件安装参数的标定装置及方法 |
CN115690910A (zh) * | 2022-10-28 | 2023-02-03 | 中国兵器工业计算机应用技术研究所 | Imu协助视觉特征点捕获的头盔位姿跟踪系统及方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150276400A1 (en) * | 2013-03-13 | 2015-10-01 | Electronic Scripting Products, Inc. | Reduced homography for ascertaining conditioned motion of an optical apparatus |
US11185305B2 (en) * | 2016-06-30 | 2021-11-30 | Koninklijke Philips N.V. | Intertial device tracking system and method of operation thereof |
CN110517319B (zh) * | 2017-07-07 | 2022-03-15 | 腾讯科技(深圳)有限公司 | 一种相机姿态信息确定的方法及相关装置 |
-
2023
- 2023-07-21 CN CN202310897099.9A patent/CN116645400B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8761439B1 (en) * | 2011-08-24 | 2014-06-24 | Sri International | Method and apparatus for generating three-dimensional pose using monocular visual sensor and inertial measurement unit |
CN105953796A (zh) * | 2016-05-23 | 2016-09-21 | 北京暴风魔镜科技有限公司 | 智能手机单目和imu融合的稳定运动跟踪方法和装置 |
CN107063246A (zh) * | 2017-04-24 | 2017-08-18 | 齐鲁工业大学 | 一种视觉导航/惯性导航的松散组合导航方法 |
CN107255476A (zh) * | 2017-07-06 | 2017-10-17 | 青岛海通胜行智能科技有限公司 | 一种基于惯性数据和视觉特征的室内定位方法和装置 |
CN109974714A (zh) * | 2019-04-29 | 2019-07-05 | 南京航空航天大学 | 一种Sage-Husa自适应无迹卡尔曼滤波姿态数据融合方法 |
CN111486867A (zh) * | 2020-03-19 | 2020-08-04 | 天津大学 | 一种视觉和惯性混合跟踪组件安装参数的标定装置及方法 |
CN115690910A (zh) * | 2022-10-28 | 2023-02-03 | 中国兵器工业计算机应用技术研究所 | Imu协助视觉特征点捕获的头盔位姿跟踪系统及方法 |
Non-Patent Citations (5)
Title |
---|
Indoor Vision Navigation and Target Tracking System for Aerial Robot;Shuai Li 等;IEEE;57-62 * |
互补滤波算法在四旋翼飞行器姿态解算中的应用;万晓凤 等;测控技术;13-16 * |
单频精密单点定位中基于卡尔曼滤波的自适应导航算法;陆晨曦 等;北京大学学报(自然科学版);10-15 * |
基于图像和惯性的头盔组合跟踪原理;黄丽琼 等;火力与指挥控制;181-184 * |
基于数据融合的座舱头部姿态跟踪方法研究;刘延新 等;电光与控制;69-73 * |
Also Published As
Publication number | Publication date |
---|---|
CN116645400A (zh) | 2023-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111780755B (zh) | 一种基于因子图和可观测度分析的多源融合导航方法 | |
EP2434256B1 (en) | Camera and inertial measurement unit integration with navigation data feedback for feature tracking | |
CN109991636A (zh) | 基于gps、imu以及双目视觉的地图构建方法及系统 | |
CN113916243B (zh) | 目标场景区域的车辆定位方法、装置、设备和存储介质 | |
US8494225B2 (en) | Navigation method and aparatus | |
CN110174105B (zh) | 一种复杂环境下智能体自主导航算法及系统 | |
CN109099912A (zh) | 室外精确定位导航方法、装置、电子设备及存储介质 | |
CN109937341B (zh) | 用于估计自己的位置的方法和设备 | |
CN106643709B (zh) | 一种海上运载体的组合导航方法及装置 | |
CN106767785B (zh) | 一种双回路无人机的导航方法及装置 | |
WO2014134710A1 (en) | Method and apparatus for fast magnetometer calibration | |
CN110146076A (zh) | 一种无逆矩阵自适应滤波的sins/dvl组合定位方法 | |
CN116295511B (zh) | 一种用于管道潜航机器人的鲁棒初始对准方法及系统 | |
CN107643088A (zh) | 无人机导航方法、装置、无人机及存储介质 | |
CN111750854A (zh) | 车辆定位方法、装置、系统及存储介质 | |
JP2012215491A (ja) | 位置算出方法及び位置算出装置 | |
CN114332225A (zh) | 车道线匹配定位方法、电子设备及存储介质 | |
CN110864692A (zh) | 掘进机的位姿确定方法 | |
CN110637209B (zh) | 估计机动车的姿势的方法、设备和具有指令的计算机可读存储介质 | |
CN110989619B (zh) | 用于定位对象的方法、装置、设备和存储介质 | |
CN108801250B (zh) | 基于水下机器人的实时姿态获取方法及装置 | |
US10466054B2 (en) | Method and system for estimating relative angle between headings | |
CN113252041A (zh) | 一种适用于小型水下机器人的组合导航方法 | |
Si et al. | A novel positioning method of anti-punching drilling robot based on the fusion of multi-IMUs and visual image | |
CN116645400B (zh) | 视觉及惯性混合位姿跟踪方法、系统、头盔及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |