CN110674888B - 一种基于数据融合的头部姿态识别方法 - Google Patents
一种基于数据融合的头部姿态识别方法 Download PDFInfo
- Publication number
- CN110674888B CN110674888B CN201910960904.1A CN201910960904A CN110674888B CN 110674888 B CN110674888 B CN 110674888B CN 201910960904 A CN201910960904 A CN 201910960904A CN 110674888 B CN110674888 B CN 110674888B
- Authority
- CN
- China
- Prior art keywords
- rotation angle
- head
- axis rotation
- gyroscope
- axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C1/00—Measuring angles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C19/00—Gyroscopes; Turn-sensitive devices using vibrating masses; Turn-sensitive devices without moving masses; Measuring angular rate using gyroscopic effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Abstract
本发明公开了一种基于数据融合的头部姿态识别方法,先采集头部转动过程中精确头部X轴转动角度和精确头部Y轴转动角度,然后采集头部转动过程中Z轴转动角度,Z轴转动角度包括陀螺仪Z轴转动角度和红外特征点Z轴转动角度、将陀螺仪Z轴转动角度和红外特征点Z轴转动角度作为数据融合算法的输入量,经过数据融合获取精确头部Z轴转动角度,最后输出由精确头部X轴转动角度、精确头部Y轴转动角度和精确头部Z轴转动角度构成的头部姿态参数;本发明不仅测量成本低,且通过融合算法,能够采用红外扫描测量结果修正陀螺仪测量结果的漂移量,在保持这两种测量方法原有的优点的基础上达到高精度测量的目的。
Description
技术领域
本发明涉及飞行系统仿真及空间定位技术领域,尤其涉及一种基于数据融合的头部姿态识别方法。
背景技术
现代战斗机上大多配备头盔瞄准系统,头盔瞄准系统可以使飞行员通过头部转动控制武器瞄准和雷达扫描。在飞行员正式真机训练过程之前,必须在飞行模拟器中经过严格的头盔瞄准训练,由于真机头盔瞄准系统功能复杂且成本很高,因此,在飞行模拟器中要想实现飞行员通过头部转动控制武器瞄准和雷达扫描等功能,就需要开发一套低成本的头盔瞄准系统仿真装置,其中,核心设备即为头部转动角度测量装置。
目前,常用的头部转动角度测量装置包括两种,一种是采用陀螺仪测量姿态方式测量头部转动角度,一种是采用特征点识别方法测量头部转动角度。前者能够测量头部转动角度,测量范围大,但数据有漂移,且使用时间越长漂移越大;后者也能测量头部转动角度,测量结果精度高,但在只有一个红外扫描仪的情况下可测量范围较小。
发明内容
本发明的目的是提供一种基于数据融合的头部姿态识别方法,不仅测量成本低,且通过融合算法,能够采用红外扫描测量结果修正陀螺仪测量结果的漂移量,在保持这两种测量方法原有的优点的基础上达到高精度测量的目的。
本发明采用的技术方案为:
一种基于数据融合的头部姿态识别方法,包括以下步骤:
A、采集头部转动过程中精确头部x轴转动角度和精确头部Y轴转动角度;具体为:
a1:头部转动,倾角传感器随动;
a2:采用倾角传感器采集精确头部X轴转动角度和精确头部Y轴转动角度;
B、采集头部转动过程中Z轴转动角度,Z轴转动角度包括陀螺仪Z轴转动角度和红外特征点Z轴转动角度;陀螺仪Z轴转动角度由陀螺仪采集获取,红外特征点Z轴转动角度由红外工业相机采集获取;
C、将陀螺仪Z轴转动角度和红外特征点Z轴转动角度作为数据融合算法的输入量,经过数据融合获取精确头部Z轴转动角度;
D、输出由精确头部X轴转动角度、精确头部Y轴转动角度和精确头部Z轴转动角度构成的头部姿态参数。
进一步地,所述步骤B中陀螺仪Z轴转动角度的获取过程具体为:
b1.1:头部转动,陀螺仪随动;
b1.2:陀螺仪测量头部Z轴转动角速度;
b1.3:头部Z轴转动角速度经积分获取陀螺仪Z轴转动角度。
进一步地,所述步骤B中红外特征点Z轴转动角度的获取过程具体为:
b2.1:头部转动,红外特征点随动;
b2.2:红外工业相机采集红外特征点图像;
b2.3:采用图像处理算法解算红外特征点图像,获取包括红外特征点Z轴转动角度在内的头部自由度姿态参数。
进一步地,所述步骤b2.3中,解算红外特征点图像采用的图像处理算法包括EPNP方法、POSIT方法或牛顿迭代法中的一种。
进一步地,所述融合算法的具体过程为:
(a)参数初始化:设置补偿步长θSTEP取值范围为0.0001~0.1,设置补偿角度θCPS(K)=0;,设置循环计数K=0;
(b)读入陀螺仪输出的Z轴旋转角速度γGYRO(K),对γGYRO(K)进行积分运算得到Z轴转角θGYRO(K);
(c)判断红头部姿态是否在红外特征识别范围内,是则读取红外特征识别法计算的Z轴转角θIR(K),否则进入步骤(h);
(d)判断是否K=0,是则计算初始角度差θINI=θIR(K)-θGyRO(K)并返回步骤(b),否则进入下一步;
(e)计算漂移偏差θERR(K);漂移偏差θERR(K)计算公式为θERR(K)=θGYRO(K)-θIR(K)+θINI+θCPS(K);
(g)判断θERR(K)是否大于0,是则令θCPS(K)=θCPS(K-1)-θSTEP并进入步骤(h);否则令θCPS(K)=θCPS(K+1)-θSTEP并进入步骤(h);
(h)计算输出Z轴转角θOUT(K),θouT(K)计算公式为θOUT(K)=θGYRO(K)+θINI+θCPS(K);
(i)输出Z轴转角θOUT,即精确头部Z轴转动角度,同时,令K加1并返回步骤(b)。
本发明具有以下有益效果:
同时采用陀螺仪和红外工业相机测量红外特征点Z轴转动角度,然后采用融合算法进行数据运算,使用红外特征点识别的结果修正陀螺仪漂移量,使得测量结果不受陀螺仪漂移影响,有效提高测量精度。
附图说明
图1为本发明的流程图;
图2为数据融合算法的流程图。
具体实施方式
如图1所示,本发明公开了一种基于数据融合的头部姿态识别方法,包括以下步骤:
A、采集头部转动过程中精确头部X轴转动角度和精确头部Y轴转动角度。
具体为:
a1:头部转动,倾角传感器随动;
a2:采用倾角传感器采集精确头部X轴转动角度和精确头部Y轴转动角度。
B、采集头部转动过程中Z轴转动角度,Z轴转动角度包括陀螺仪Z轴转动角度和红外特征点Z轴转动角度;陀螺仪Z轴转动角度由陀螺仪采集获取,红外特征点Z轴转动角度由红外工业相机采集获取。
C、将陀螺仪Z轴转动角度和红外特征点Z轴转动角度作为数据融合算法的输入量,经过数据融合获取精确头部Z轴转动角度;
D、输出由精确头部X轴转动角度、精确头部Y轴转动角度和精确头部Z轴转动角度构成的头部姿态参数。
为了更好地理解本发明,下面结合附图对本发明的技术方案做进一步说明。
如图1所示,本发明包括以下步骤:
A、采集头部转动过程中精确头部X轴转动角度和精确头部Y轴转动角度。
具体为:
a1:头部转动,倾角传感器随动;倾角传感器安装在与模拟操作者头部固定的头盔或支架上,实现与头部随动;
a2:采用倾角传感器采集精确头部X轴转动角度和精确头部Y轴转动角度;
B、采集头部转动过程中Z轴转动角度,Z轴转动角度包括陀螺仪Z轴转动角度和红外特征点Z轴转动角度;陀螺仪Z轴转动角度由陀螺仪采集获取,红外特征点Z轴转动角度由红外工业相机采集获取。
陀螺仪Z轴转动角度的获取过程具体为:
b1.1:头部转动,陀螺仪随动;
b1.2:陀螺仪测量头部Z轴转动角速度;
b1.3:头部Z轴转动角速度经积分获取陀螺仪Z轴转动角度。
红外特征点Z轴转动角度的获取过程具体为:
b2.1:头部转动,红外特征点随动;
b2.2:红外工业相机采集红外特征点图像;
b2.3:采用图像处理算法解算红外特征点图像,获取包括红外特征点Z轴转动角度在内的头部自由度姿态参数。
陀螺仪和红外特征点安装在与模拟操作者头部固定的头盔或支架上,实现与头部随动,红外工业相机对准红外特征点方向。
解算红外特征点图像采用的图像处理算法包括EPNP方法、POSIT方法或牛顿迭代法等算法。
C、将陀螺仪Z轴转动角度和红外特征点Z轴转动角度作为数据融合算法的输入量,经过数据融合获取精确头部Z轴转动角度。
D、输出由精确头部X轴转动角度、精确头部Y轴转动角度和精确头部Z轴转动角度构成的头部姿态参数。
如图2所示,融合算法的具体过程为:
(a)参数初始化:设置补偿步长θSTEP取值范围为0.0001~0.1,设置补偿角度θCPS(K)=0;,设置循环计数K=0;
(b)读入陀螺仪输出的Z轴旋转角速度γGYRO(K),对γGYRO(K)进行积分运算得到Z轴转角θGYRo(K);
(c)判断红头部姿态是否在红外特征识别范围内,是则读取红外特征识别法计算的Z轴转角θIR(K),否则进入步骤(h);即判断与模拟操作者头部随动的红外特征点是否在红外工业相机的识别范围内;
(d)判断是否K=0,是则计算初始角度差θINI=θIR(K)-θGYRO(K)并返回步骤(b),否则进入下一步;
(e)计算漂移偏差θERR(K);漂移偏差θERR(K)计算公式为θERR(K)=θGYRO(K)-θIR(K)+θINI+θCPS(K);
(g)判断θERR(K)是否大于0,是则令θCPS(K)=θCPS(K-1)-θSTEP并进入步骤(h);否则令θcPS(K)=θCPS(K+1)-θSTEP并进入步骤(h);
(h)计算输出Z轴转角θOUT(K),θOUT(K)计算公式为θOUT(K)=θGYRO(K)+θINI+θCPS(K);
(i)输出Z轴转角θOUT,即精确头部Z轴转动角度,同时,令K加1并返回步骤(b)。
本发明采用陀螺仪和红外工业相机同时测量红外特征点Z轴转动角度,然后采用融合算法进行数据运算,使用特征点识别的结果修正陀螺仪漂移量,使得测量结果不受陀螺仪漂移影响,有效提高测量精度。本方法的核心在于补偿角度θCPS(K)的计算,陀螺仪测量角度范围大,但缺点是测量结果有漂移,测量误差会随时间增加而增加,而红外工业相机测量角度范围小,但结果准确。因此本方法采用红外工业相机测量结果校正陀螺仪测量角度误差,每次头部转向前方时,红外工业相机测量到红外特征点Z轴转动角度,然后通过与陀螺仪测量所得的陀螺仪Z轴转动角度对比得出适当的补偿角度θCPS(K),用于修正陀螺仪测量角度的漂移误差,进而提高测量结果的精确性。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解,其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换,而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的范围。
Claims (4)
1.一种基于数据融合的头部姿态识别方法,其特征在于:包括以下步骤:
A、采集头部转动过程中精确头部X轴转动角度和精确头部Y轴转动角度;具体为:
a1:头部转动,倾角传感器随动;
a2:采用倾角传感器采集精确头部X轴转动角度和精确头部Y轴转动角度;
B、采集头部转动过程中Z轴转动角度,Z轴转动角度包括陀螺仪Z轴转动角度和红外特征点Z轴转动角度;陀螺仪Z轴转动角度由陀螺仪采集获取,红外特征点Z轴转动角度由红外工业相机采集获取;
C、将陀螺仪Z轴转动角度和红外特征点Z轴转动角度作为数据融合算法的输入量,经过数据融合获取精确头部Z轴转动角度;
所述融合算法的具体过程为:
(a)参数初始化:设置补偿步长θSTEP取值范围为0.0001~0.1,设置补偿角度θCPS(K)=0;设置循环计数K=0;
(b)读入陀螺仪输出的Z轴旋转角速度γGYRO(K),对γGYRO(K)进行积分运算得到Z轴转角θGYRO(K);
(c)判断红头部姿态是否在红外特征识别范围内,是则读取红外特征识别法计算的Z轴转角θIR(K),否则进入步骤(h);
(d)判断是否K=0,是则计算初始角度差θINI=θIR(K)-θGYRO(K)并返回步骤(b),否则进入下一步;
(e)计算漂移偏差θERR(K);漂移偏差θERR(K)计算公式为θERR(K)=θGYRO(K)-θIR(K)+θINI+θCPS(K);
(g)判断θERR(K)是否大于0,是则令θCPS(K)=θCPS(K-1)-θSTEP并进入步骤(h);否则令θCPS(K)=θCPS(K+1)-θSTEP并进入步骤(h);
(h)计算输出Z轴转角θOUT(K),θOUT(K)计算公式为θOUT(K)=θGYRO(K)+ θINI+θCPS(K);
(i)输出Z轴转角θOUT,即精确头部Z轴转动角度,同时,令K加1并返回步骤(b);
D、输出由精确头部X轴转动角度、精确头部Y轴转动角度和精确头部Z轴转动角度构成的头部姿态参数。
2.根据权利要求1所述的基于数据融合的头部姿态识别方法,其特征在于:所述步骤B中陀螺仪Z轴转动角度的获取过程具体为:
b1.1:头部转动,陀螺仪随动;
b1.2:陀螺仪测量头部Z轴转动角速度;
b1.3:头部Z轴转动角速度经积分获取陀螺仪Z轴转动角度。
3.根据权利要求1所述的基于数据融合的头部姿态识别方法,其特征在于:所述步骤B中红外特征点Z轴转动角度的获取过程具体为:
b2.1:头部转动,红外特征点随动;
b2.2:红外工业相机采集红外特征点图像;
b2.3:采用图像处理算法解算红外特征点图像,获取包括红外特征点Z轴转动角度在内的头部自由度姿态参数。
4.根据权利要求3所述的基于数据融合的头部姿态识别方法,其特征在于:所述步骤b2.3中,解算红外特征点图像采用的图像处理算法包括EPNP方法、POSIT方法或牛顿迭代法中的一种。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910960904.1A CN110674888B (zh) | 2019-10-11 | 2019-10-11 | 一种基于数据融合的头部姿态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910960904.1A CN110674888B (zh) | 2019-10-11 | 2019-10-11 | 一种基于数据融合的头部姿态识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110674888A CN110674888A (zh) | 2020-01-10 |
CN110674888B true CN110674888B (zh) | 2022-04-05 |
Family
ID=69081832
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910960904.1A Active CN110674888B (zh) | 2019-10-11 | 2019-10-11 | 一种基于数据融合的头部姿态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110674888B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113447020B (zh) * | 2021-06-25 | 2024-02-13 | 中国电子科技集团公司第五十八研究所 | 一种基于多传感器融合的姿态解算方法 |
CN114511916B (zh) * | 2022-04-19 | 2022-06-17 | 亿慧云智能科技(深圳)股份有限公司 | 基于人脸识别的终端设备控制方法、控制装置及终端设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105698765A (zh) * | 2016-02-22 | 2016-06-22 | 天津大学 | 双imu单目视觉组合测量非惯性系下目标物位姿方法 |
WO2018184467A1 (zh) * | 2017-04-06 | 2018-10-11 | 亿航智能设备(广州)有限公司 | 一种云台姿态检测方法及装置 |
CN108917746A (zh) * | 2018-07-26 | 2018-11-30 | 中国人民解放军国防科技大学 | 头盔姿态测量方法、测量装置及测量系统 |
CN109001787A (zh) * | 2018-05-25 | 2018-12-14 | 北京大学深圳研究生院 | 一种姿态角解算与定位的方法及其融合传感器 |
CN109506646A (zh) * | 2018-11-20 | 2019-03-22 | 石家庄铁道大学 | 一种双控制器的无人机姿态解算方法及系统 |
-
2019
- 2019-10-11 CN CN201910960904.1A patent/CN110674888B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105698765A (zh) * | 2016-02-22 | 2016-06-22 | 天津大学 | 双imu单目视觉组合测量非惯性系下目标物位姿方法 |
WO2018184467A1 (zh) * | 2017-04-06 | 2018-10-11 | 亿航智能设备(广州)有限公司 | 一种云台姿态检测方法及装置 |
CN109001787A (zh) * | 2018-05-25 | 2018-12-14 | 北京大学深圳研究生院 | 一种姿态角解算与定位的方法及其融合传感器 |
CN108917746A (zh) * | 2018-07-26 | 2018-11-30 | 中国人民解放军国防科技大学 | 头盔姿态测量方法、测量装置及测量系统 |
CN109506646A (zh) * | 2018-11-20 | 2019-03-22 | 石家庄铁道大学 | 一种双控制器的无人机姿态解算方法及系统 |
Non-Patent Citations (2)
Title |
---|
基于数据融合的座舱头部姿态跟踪方法研究;刘延新 等;《电光与控制》;20160831;第23卷(第8期);第65-69页 * |
基于陀螺仪及加速度计信号融合的姿态角度测量;冯智勇 等;《西南师范大学学报(自然科学版)》;20110831;第36卷(第4期);第137-140页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110674888A (zh) | 2020-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108731673B (zh) | 机器人自主导航定位方法及系统 | |
CN111415387B (zh) | 相机位姿确定方法、装置、电子设备及存储介质 | |
CN110674888B (zh) | 一种基于数据融合的头部姿态识别方法 | |
RU2753004C2 (ru) | Система и способ позиционирования и управления летательным аппаратом при его движении по рулежной дорожке | |
CN105806369B (zh) | 一种星敏感器在轨光行差修正方法 | |
CN105526951B (zh) | 一种星敏感器原始观测数据预处理方法及系统 | |
KR101106048B1 (ko) | 센서오차의 작동 중 자동교정 방법과 이를 이용한 관성항법장치 | |
CN112964276A (zh) | 一种基于激光和视觉融合的在线标定方法 | |
CN110488838B (zh) | 一种室内自主导航机器人精确重复定位方法 | |
CN113409396A (zh) | 一种adas单目相机的标定方法 | |
CN112129322A (zh) | 一种捷联惯组与三轴转台的安装误差检测方法及校正方法 | |
KR101107219B1 (ko) | 비행체의 항법 방법 및 이를 이용한 관성항법장치 필터 및 항법 시스템 | |
CN111750896B (zh) | 云台标定方法、装置、电子设备及存储介质 | |
JP6335237B2 (ja) | ステレオ測距装置、ステレオ測距方法及びステレオ測距プログラム | |
CN108592860B (zh) | 用于机载光电观瞄系统基轴对准操作后的瞄准线输出角度计算方法 | |
CN109737985B (zh) | 一种基于gnss角度的初始对准优化方法 | |
CN109949655B (zh) | 用于头戴式显示系统的双重协调方法和系统 | |
CN112797979B (zh) | 一种应用于agv的惯性姿态导航系统 | |
CN116184430B (zh) | 一种激光雷达、可见光相机、惯性测量单元融合的位姿估计算法 | |
CN109655080B (zh) | 一种数字式太阳敏感器在轨标定方法 | |
KR101368846B1 (ko) | 정렬오차 허용치 산출 항공기 탑재용 촬영 장치 및 이의 정렬오차 허용치 산출방법 | |
CN110940357A (zh) | 一种用于旋转惯导单轴自对准的内杆臂标定方法 | |
CN115683170A (zh) | 基于雷达点云数据融合误差的校准方法 | |
CN107764272B (zh) | 安装有星敏感器的旋转载荷和高精度姿态确定方法 | |
CN114012719A (zh) | 一种六轴机器人的零点标定方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |