CN105139406B - 一种基于序列图像的跟踪精度反演方法 - Google Patents

一种基于序列图像的跟踪精度反演方法 Download PDF

Info

Publication number
CN105139406B
CN105139406B CN201510566567.XA CN201510566567A CN105139406B CN 105139406 B CN105139406 B CN 105139406B CN 201510566567 A CN201510566567 A CN 201510566567A CN 105139406 B CN105139406 B CN 105139406B
Authority
CN
China
Prior art keywords
satellite
target
point
coordinate system
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510566567.XA
Other languages
English (en)
Other versions
CN105139406A (zh
Inventor
王征
汪洪源
侯晴宇
王泽斌
杨召松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University Of Technology Robot Group Co Ltd
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201510566567.XA priority Critical patent/CN105139406B/zh
Publication of CN105139406A publication Critical patent/CN105139406A/zh
Application granted granted Critical
Publication of CN105139406B publication Critical patent/CN105139406B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于序列图像的跟踪精度反演方法,其步骤如下:一、基于现已知的观测卫星的轨/姿数据、目标卫星的轨/姿数据、连续的图像序列,采用坐标变换方法求得选取目标点的理想位置;二、基于同面特征点搜索获取基础变换矩阵方法获取目标点的实际位置;三、求得目标点的理想位置和实际位置之差,结合给定相机参数,可得到以角度形式表示的反演误差。本发明使用所拍摄连续的图像序列,反演追踪观测卫星对目标卫星的指向误差,该方法能够涵盖悬停、接近和绕飞三种情况。

Description

一种基于序列图像的跟踪精度反演方法
技术领域
本发明属于航天卫星在轨实时跟踪技术领域,涉及一种基于序列图像的跟踪精度反演方法。
背景技术
航天领域中,对于卫星在轨实时跟踪领域,国内研究集中在跟踪系统的基本原理、结构、关键技术及跟踪过程,而对于跟踪精度方向也主要集中在误差产生原因、误差在成像链路各个环节的定量分析与计算及误差补偿系统的研究,而对于基于图像进行反演得到跟踪精度的定量计算研究较少,且这是近年来刚刚提出的方向,可以查阅的资料较少。
发明内容
本发明的目的在于提供一种基于序列图像的跟踪精度反演方法,使用所拍摄连续的图像序列,反演追踪观测卫星对目标卫星的指向误差,该方法能够涵盖悬停、接近和绕飞三种情况。
本发明的目的是通过以下技术方案实现的:
一、基于现已知的观测卫星的轨/姿数据、目标卫星的轨/姿数据、连续的图像序列,采用坐标变换方法求得选取目标点的理想位置;
二、基于同面特征点搜索获取基础变换矩阵方法获取目标点的实际位置;
三、求得目标点的理想位置和实际位置之差,结合给定相机参数,可得到以角度形式表示的反演误差。
本发明可以较快速的反演出目标点与实际点的距离之差,并且误差精度在可接受的范围之内,为后续的整个卫星链路的反演提供数据支撑,并为将来发射卫星做一些先验经验。
附图说明
图1为坐标系;
图2为焦平面像元在相机本体系下的坐标;
图3为单幅图像的处理过程;
图4为基于同面配准特征点获取基础变换矩阵流程;
图5为SIFT算法获取特征点过程;
图6为像平面上的角度表示方法。
具体实施方式
下面结合附图对本发明的技术方案作进一步的说明,但并不局限于此,凡是对本发明技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,均应涵盖在本发明的保护范围中。
本发明提供了一种基于序列图像的跟踪精度反演方法,具体包括以下内容:
1、问题的提出和假设条件
本问题的提出在于:使用所拍摄连续的图像序列,反演追踪观测卫星对目标卫星的指向误差,能够涵盖悬停、接近和绕飞三种情况。
本问题的前提包括:
1)目标卫星为非合作目标,其形貌和内在参数均未知。
2)目标卫星在观测期间,其星载部件可能发生改变。
3)可获取的参数主要为拍摄的连续图像序列,并有观测卫星的轨道和姿态数据及目标卫星的轨道和姿态数据。
2、指向误差反演研究思路
2.1 指向误差反演分析
悬停工况:悬停状态包括无需主动控制的同轨追踪悬停以及需要主动控制的正向悬停和侧向悬停。卫星悬停状态下,当相对指向不发生改变时,如果目标卫星维持姿态不变,则在观测卫星的视场中,目标卫星的图像基本维持不变,仅受到定轨误差的影响,发生小幅的漂移。当目标卫星的姿态改变或所载部件运动时,在观测卫星的视场中,目标卫星的成像形状随姿态的变化或部件运动发生改变。
接近工况:观测卫星向目标卫星接近的情况下,即使观测卫星视线始终对准目标卫星,由于观测卫星轨道与目标卫星的轨道角均变化,在观测卫星的视场中,目标由小及大,在图中的位置和角度也随之变化。当目标卫星的姿态改变或所载部件运动时,在观测卫星的视场中,目标卫星的成像形状随姿态的变化或部件运动发生改变。
绕飞工况:观测卫星与目标卫星处于相近轨道,典型的周期型绕飞有椭圆绕飞、摆型绕飞、空间圆绕飞等。在绕飞工况下,目标卫星在视场内成像形状随绕飞的状态发生改变,当目标卫星的姿态改变或所载部件运动时,将进一步增加成像形状变化的复杂性。
对象无论是悬停、接近或者绕飞工况下,目标的成像形状均可能发生变化,还存在成像大小变化的耦合情况。由上述分析可知,在进行指向误差反演时,需考虑的是通用性算法,同时涵盖目标在成像面上的缩放、三维旋转效应。
2.2 指向误差反演思路
基于现已知的观测卫星的轨/姿数据、目标卫星的轨/姿数据、连续的图像序列,拟采用坐标变换方法求得选取目标点的理想位置,再通过图像匹配的方法找到目标点的实际位置,求得两者之差(ΔX,ΔY),结合给定相机参数,转化成为角度误差,当图像序列的每一幅图均获取了该角度误差后,则会形成指向误差的变化序列。
该问题进一步分解为三个问题:
1)目标点如何选取?
2)如何确定图像中目标点的理想位置?
3)如何确定图像中目标点的实际位置?
对于目标点的确定问题,与观测卫星的指向对准策略相关。理论上来说,有几种预期目标点:
1)质心点:目标卫星的质心位置作为预期对准点具有最佳的唯一性和不变性,但是由于目标形貌、内部参数等信息未知,因此质心位置仅理论存在,但无法获知。
2)几何中心:几何中心对于无大部件移动的对象而言,也具有较好的唯一性和不变性,但建立和获取几何中心至少需要在前期对对象的外形形状和尺寸开展深入的分析,以确定不同角度下的几何中心位置,显然本问题中无达成该条件。
3)某个典型形貌:基于典型形貌的对准广泛用于光学指向任务中,但其有两个前提,第一,典型形貌需要提前预知;第二典型形貌需要在始终存在于视场中;显然对于本问题,该方法所需的前提均不成立,既没有对象的外形,更不用提典型形貌,而且由于姿态改变或绕飞使得观测角度的变化,也不能保证典型形貌始终存在于视场中。
4)光学中心:从工程实现角度来看,光学中心的可实现性最高,然而光学中心随成像的形状改变而变化,不存在唯一性,不变性也较差,这对反演指向误差是不利的。对于红外成像,由于目标的细节难以准确反映,除了光学中心外,也没有更好的方法。
对于目标点的确定,本发明给出的方法是在光学中心及其衍生中心为基础下,发展由人介入进行标记的方法。所述的光学衍生中心,包括如下几种:
1)目标轮廓中心:即以目标边缘轮廓为像集的光学中心。
2)目标边框中心:即以包括目标边缘的矩形框的几何中心。
3)有效配准中心:即前帧图像与当帧图像的有效配准点为像集的光学中心。
上述光学中心及其衍生中心均可由计算机自动处理获得,但由于这类中心不存在物理意义,均无不变性,由此引入人介入进行标记。人的介入是必要也是有可实现性的,首先,由于误差反演是获取图像序列数据后的后处理,因此具备人处理的条件,人可以通过小部件的认知,主体的认知对质心点、几何中心点或者是表面的特征部件进行先期学习和基本标记。
对于目标点在各幅图像中的位置确定问题,人难以做到的是对每帧图像均进行标记和分析,因此本发明的方法是人首先对序列图像进行按时序分组,对于每一组的首帧图像,选取目标点,该目标点可以任意选取,而该组的其他帧图像,以第一帧为基准,通过坐标变换确定第一帧的目标点在后续各帧的位置,再找到目标点的实际位置,以实现序列图的误差反演。
3、指向误差反演算法
3.1 基于坐标变换方法确定目标点的理论位置
3.1.1 轨道要素:卫星在空间轨道上的位置,可用6个参数描述。这些参数分别为:
(1)升交点赤经Ω:轨道升交点与地球惯性坐标系指向春分点轴的夹角。
(2)轨道倾角i:轨道面与地球赤道面的夹角。
(3)近地点幅角ω:轨道面内由升交点到近地点拱线的夹角。
(4)轨道长半轴a:椭圆长轴的一半。
(5)轨道偏心率e:椭圆两焦点之间的距离与长轴的比值,该值决定了椭圆偏心大小。
(6)卫星过近地点时刻τ:卫星飞过近地点的时刻,一般用年、月、日、时、分、秒表示,它是描述卫星运动时间的起始点。
在六个要素中,升交点赤经Ω和轨道倾角i决定了轨道面在空间的位置;近地点幅角ω决定了轨道面的指向;轨道长半轴a和轨道偏心率e决定了轨道大小和形状;卫星飞过近地点的时刻τ决定了卫星在轨道上的位置。
3.1.2 空间位置确定:为了确定目标表面(网格单元)光线的入射方向矢量及探测器的观测方向矢量,本发明建立参考坐标系,基于目标卫星、观测卫星轨道参数及目标卫星的姿态特性进行坐标变换确定它们之间的相互位置关系。
(1)建立坐标系:为了分析地球、观测卫星、目标卫星三者之间的位置随时间变化的关系,首先建立三个坐标系:J2000.0惯性坐标系、轨道坐标系与卫星本体坐标系,如图1所示。
J2000.0惯性坐标系FI:OXYZ。原点O位于地球的质心,OX轴和OZ轴分别指向春分点和北极,并与OY轴构成右手直角坐标系。
轨道坐标系FO:SXoYoZo。原点S位于卫星的质心,SXo轴与轨道速度方向一致,SZo轴指向地心,SYo轴垂直轨道平面并构成右手直角坐标系。
本体坐标系FB:SXbYbZb。原点S位于卫星的质心,三轴为卫星的三个惯性主轴。其中SXb为滚动轴,SYb为俯仰轴,SZb为偏航轴。
(2)坐标系变换:观测卫星和目标卫星相对于地球的运动遵循开普勒定律,常用椭圆运动方程表示为:
(1)
v=M+e(2-e2/4+5e4/96)sinM+e2(5/4-11e2/24)sin2M+ (2)
e3(13/12-43e2/64)sin3M+103e4sin4M/96+1097e5sin5M/960
(3)
式中:a——轨道半长轴(km);
e——轨道偏心率;
t——观测时刻;
τ——过近地点时刻;
μ——开普勒常数,μ=3.986032×1014m3·s-2
t与τ均采用J2000.0标准历元起算的儒略日计时。
若知道观测卫星和目标卫星的轨道根数,由开普勒定律可得观测卫星和目标卫星在J2000.0惯性坐标系中的矢量坐标:
p=Rz(-Ω)Rx(-i)Rz(-ω)p0 (4)
式中:i——轨道倾角(deg);
Ω——升交点赤经(deg);
ω——近地点辐角(deg)。
Rx——绕x轴旋转变换矩阵,
Rz——绕z轴旋转变换矩阵,
p0——近焦坐标系下的矢量坐标,p0=(rcosv,rsinv,0)。
将各量在J2000.0惯性坐标系中的矢量坐标转换到轨道坐标系,则为:
qo=L001Rz(ω+v)Rx(i)Rz(Ω)p (5)
式中:qo——各量在轨道坐标系中的矢量坐标;
L001——坐标轴的反向变换矩阵,
为了便于目标特性分析,将各量在轨道坐标系中的矢量坐标转换到本体坐标系,则为:
q=Aqo (6)
式中:A——卫星姿态矩阵。
对于三轴稳定卫星,常采用zxy转序,则姿态矩阵由旋转变换矩阵表示为:
(7)
式中:Ψ——卫星绕偏航轴转动的角度,即偏航角。向右偏转为正,向左偏转为负;
θ——卫星绕俯仰轴转动的角度,即俯仰角。向上为正又称抬头,向下为负又称低头;
——卫星绕滚动轴转动的角度,即滚动角。逆时针为正,顺时针为负。
Ψ,θ与称为卫星姿态描述的欧拉角。
为了使本体坐标系与图像坐标有效转换,可进行如下变换(图2):
q=[Xc,YC,ZC]。
定义OYZ为图像坐标系,O'YCZC为相机焦平面坐标系,O’在OTZ下的坐标为(y0,zo)。
焦面上任意一点p坐标为(yc,zc),则相机焦平面转换到图像坐标系下的坐标为:
[(yc-yo)/D,(zc-zo)/D] (8)。
前一步最终的结果可整理的q=[Xc,YC,ZC],其中D为像元尺寸,带入公式(8),即可得到在图像中的坐标形式。
因此,给定观测目标、目标卫星的轨道参数、连续图像的时间间隔、像元尺寸及目标卫星姿态特性的欧拉角后,即可算的目标点的理想位置。
3.2 基于同面特征点搜索获取基础变换矩阵方法获取目标点的实际位置
3.2.1 配准区的获取
为了提高后续配准算法的准确度及提高效率,需要首先获得算法的实施区域。为此,可对单幅图像进行如下过程的处理:二值化、开运算、闭运算、提取轮廓,确定配准区等步骤,如图4所示。
通过二值化和开运算,可以剔除星光背景。
通过闭运算形成连续闭合的图像,通过轮廓提取和最长的轮廓搜索选取外轮廓。
3.2.2 获取基础变换矩阵
为了找到同面配准特征点,需要将本帧图像与下一帧图像进行配准。对同面配准特征点进行多次筛选获得同面特征点,最后基于同面特征点获取基础变换矩阵,如图3所示。
第一步是采用较成熟的SIFT算法来获取图像的特征点,它具有良好的尺度、光照和空间旋转的不变性。是通过对原始图像进行高斯滤波,建立高斯金字塔,获得高斯差分来找到那感兴趣的关键点,也就是在以后的图像匹配中可能发挥作用的特征点。而这些特征点需要经过稳定性的筛选才能成为真正的关键点。再根据每一个关键点邻域内点的梯度方向,为关键点分配梯度方向和梯度的模,最终特征点以多维向量的形式描述出来。图4显示了一个特征点的选取过程。
第二步,对经过SIFT算法筛选的特征点进行初步筛选,本筛选主要分为两个过程。
一、对于各特征点Pi,获取其在前帧图上的坐标位置Pi(x,y)before,以及本帧图像上的坐标位置Pi(x,y)now,计算其位置移动的变化量:
(9)
剔除移动距离超过设定阀值Dk的特征点,阀值Dk设定可取:
(10)
式中,n为配准特征点的总数,t为阀值系数,一般t>1。
剔除移动距离较大点后,剩余特征点进行如下变换:
剩余特征点与目标点的距离,PT(x,y)为目标点在本帧图像中的位置坐标。
(11)
满足 的特征点,其中m为剩余特征点的总数,h为阀值系数,一般h<1。经过与标记点的距离筛选后,获得较近的配准特征点。
对筛选后的配准特征点,取离标记点最近的k个点,以周边三个像素为半径,取各配准特征点周围的小图像,并计算特征点周围对应小图的直方图,对各特征点的直方图,与其他的配准点所对应的直方图进行相关系数计算:
其中:N等于直方图中数据的个数。
随后进行求和,并取最大值对应的配准特征点为基准点Po(x,y)。
然后以基准点Po(x,y)对其他各配准特征点对应的直方图求相关系数,取相关系数大于阀值x>0.9的认为是同面配准特征点。经过直方图系数计算获取的基准点,认定为同面配准特征点。
通过直方图的相关系数搜索同面配准特征点的物理基础在于:对于同面特征点的纹理相近。方法先设法找到与所有配准特征点纹理最相近的点作为基准点,然后寻找与该基准点纹理接近的点作为同面点。结合之前的筛选,该方法对于同面点搜索具有一定的适应性。
当确定了共面配准特征点后,通过成熟的RANSAC方法实现两帧图像间的基础变换矩阵,再将前帧的目标位置通过基础变换矩阵变换到本帧上,获取目标点在本帧图像中的坐标。
4、角度误差的求取
经过前面的过程,即可求得图像中目标点的实际位置与理想位置,在已知相机的焦距的情况下,可得到以角度形式表示的反演误差,如图5所示。
可见,误差用角度表示的形式为:
其中f为相机焦距,a为理想点距离光轴距离,b为实际点距离光轴距离。

Claims (1)

1.一种基于序列图像的跟踪精度反演方法,其特征在于所述方法步骤如下:
一、基于现已知的观测卫星的轨/姿数据、目标卫星的轨/姿数据、连续的图像序列,采用坐标变换方法求得选取目标点的理想位置;
二、基于同面特征点搜索获取基础变换矩阵方法获取目标点的实际位置;
三、求得目标点的理想位置和实际位置之差,结合给定相机参数,可得到以角度形式表示的反演误差;
所述目标点为光学中心或其衍生中心;
所述光学中心衍生中心包括目标轮廓中心、目标边框中心、有效配准中心;
所述采用坐标变换方法求得选取目标点的理想位置的步骤如下:
(1)建立坐标系:为了分析地球、观测卫星、目标卫星三者之间的位置随时间变化的关系,建立J2000.0惯性坐标系、轨道坐标系与卫星本体坐标系;
(2)坐标系变换:若知道观测卫星和目标卫星的轨道根数,由开普勒定律可得观测卫星和目标卫星在J2000.0惯性坐标系中的矢量坐标:
p=Rz(-Ω)Rx(-i)Rz(-ω)p0
式中:i—轨道倾角;Ω—升交点赤经;ω—近地点辐角;Rx—绕x轴旋转变换矩阵;Rz—绕z轴旋转变换矩阵;p0—近焦坐标系下的矢量坐标;
将各量在J2000.0惯性坐标系中的矢量坐标转换到轨道坐标系,则为:
qo=L001Rz(ω+v)Rx(i)Rz(Ω)p,
式中:qo—各量在轨道坐标系中的矢量坐标;L001——坐标轴的反向变换矩阵;
为了便于目标特性分析,将各量在轨道坐标系中的矢量坐标转换到本体坐标系,则为:
q=Aqo
式中:A—卫星姿态矩阵;
对于三轴稳定卫星,常采用zxy转序,则姿态矩阵由旋转变换矩阵表示为:
式中:Ψ—卫星绕偏航轴转动的角度,即偏航角;θ—卫星绕俯仰轴转动的角度,即俯仰角;—卫星绕滚动轴转动的角度,即滚动角;Ψ,θ与称为卫星姿态描述的欧拉角;
焦面上任意一点p坐标为(yc,zc),则相机焦平面转换到图像坐标系下的坐标为:
[(yc-y0)/D,(zc-z0)/D];
在本体坐标系下最终结果可表示成q=[Xc,YC,ZC]的形式,将其中的YC,ZC,带入[(yc-y0)/D,(zc-z0)/D]中,其中D为像元尺寸,即可得到在图像中的坐标形式;
因此,给定观测目标、目标卫星的轨道参数、连续图像的时间间隔、像元尺寸及目标卫星姿态特性的欧拉角后,即可算得目标点的理想位置;
所述J2000.0惯性坐标系FI:OXYZ,原点O位于地球的质心,OX轴和OZ轴分别指向春分点和北极,并与OY轴构成右手直角坐标系;
所述轨道坐标系FO:SXoYoZo,原点S位于卫星的质心,SXo轴与轨道速度方向一致,SZo轴指向地心,SYo轴垂直轨道平面并构成右手直角坐标系;
所述本体坐标系FB:SXbYbZb,原点S位于卫星的质心,三轴为卫星的三个惯性主轴,其中SXb为滚动轴,SYb为俯仰轴,SZb为偏航轴;
所述基于同面特征点搜索获取基础变换矩阵方法获取目标点的实际位置的方法如下:
第一步,采用SIFT算法来获取图像的特征点;
第二步,对经过SIFT算法筛选的特征点进行初步筛选,筛选过程如下:
对于各特征点Pi,获取其在前帧图上的坐标位置Pi(x,y)before以及本帧图像上的坐标位置Pi(x,y)now,计算其位置移动的变化量:
<mrow> <msub> <mi>D</mi> <mi>i</mi> </msub> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>P</mi> <mi>i</mi> </msub> <msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mrow> <mi>n</mi> <mi>o</mi> <mi>w</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>P</mi> <mi>i</mi> </msub> <msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mrow> <mi>b</mi> <mi>e</mi> <mi>f</mi> <mi>o</mi> <mi>r</mi> <mi>e</mi> </mrow> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>P</mi> <mi>i</mi> </msub> <msub> <mrow> <mo>(</mo> <mi>y</mi> <mo>)</mo> </mrow> <mrow> <mi>n</mi> <mi>o</mi> <mi>w</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>P</mi> <mi>i</mi> </msub> <msub> <mrow> <mo>(</mo> <mi>y</mi> <mo>)</mo> </mrow> <mrow> <mi>b</mi> <mi>e</mi> <mi>f</mi> <mi>o</mi> <mi>r</mi> <mi>e</mi> </mrow> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>;</mo> </mrow>
剔除移动距离超过设定阀值Dk的特征点,阀值Dk设定可取:
<mrow> <msub> <mi>D</mi> <mi>k</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msub> <mi>D</mi> <mi>i</mi> </msub> </mrow> <mi>n</mi> </mfrac> <mo>&amp;times;</mo> <mi>&amp;tau;</mi> <mo>,</mo> </mrow>
式中,n为配准特征点的总数,τ为阀值系数;
剔除移动距离较大点后,剩余特征点进行如下变换:
剩余特征点与目标点的距离PT(x,y)为目标点在本帧图像中的位置坐标,则有:
<mrow> <msubsup> <mi>D</mi> <mi>j</mi> <mi>T</mi> </msubsup> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>P</mi> <mi>j</mi> </msub> <msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mrow> <mi>n</mi> <mi>o</mi> <mi>w</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>P</mi> <mi>T</mi> </msub> <mo>(</mo> <mi>x</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>P</mi> <mi>j</mi> </msub> <msub> <mrow> <mo>(</mo> <mi>y</mi> <mo>)</mo> </mrow> <mrow> <mi>n</mi> <mi>o</mi> <mi>w</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>P</mi> <mi>T</mi> </msub> <mo>(</mo> <mi>y</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>;</mo> </mrow>
满足的特征点,其中m为剩余特征点的总数,η为阀值系数,经过与标记点的距离筛选后,获得较近的配准特征点;
对筛选后的配准特征点,取离标记点最近的k个点,以周边三个像素为半径,取各配准特征点周围的小图像,并计算特征点周围对应小图的直方图,对各特征点的直方图,与其他的配准点所对应的直方图进行相关系数计算:
<mrow> <msub> <mi>d</mi> <mrow> <mi>c</mi> <mi>o</mi> <mi>r</mi> <mi>r</mi> <mi>e</mi> <mi>l</mi> </mrow> </msub> <mrow> <mo>(</mo> <msub> <mi>H</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msub> <mi>&amp;Sigma;</mi> <mi>k</mi> </msub> <msub> <mi>H</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msub> <mi>H</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> <msqrt> <mrow> <msub> <mi>&amp;Sigma;</mi> <mi>k</mi> </msub> <msup> <msub> <mi>H</mi> <mi>i</mi> </msub> <mn>2</mn> </msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msup> <msub> <mi>H</mi> <mi>j</mi> </msub> <mn>2</mn> </msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> </msqrt> </mfrac> <mo>,</mo> </mrow>
其中:H′k(i)=Hk(i)-(1/N)(∑jHk(j)),N等于直方图中数据的个数;
随后进行求和,并取最大值对应的配准特征点为基准点Po(x,y):
<mrow> <msub> <mi>P</mi> <mi>o</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>~</mo> <mi>M</mi> <mi>a</mi> <mi>x</mi> <munderover> <mo>&amp;Sigma;</mo> <mn>1</mn> <mi>k</mi> </munderover> <msubsup> <msub> <mi>d</mi> <mrow> <mi>c</mi> <mi>o</mi> <mi>r</mi> <mi>r</mi> <mi>e</mi> <mi>l</mi> </mrow> </msub> <mi>j</mi> <mi>i</mi> </msubsup> <mo>;</mo> </mrow>
然后以基准点Po(x,y)对其他各配准特征点对应的直方图求相关系数,取相关系数大于阀值ξ>0.9的认为是同面配准特征点;经过直方图系数计算获取的基准点,认定为同面配准特征点;
当确定了共面配准特征点后,通过RANSAC方法实现两帧图像间的基础变换矩阵,再将前帧的目标位置通过基础变换矩阵变换到本帧上,获取目标点在本帧图像中的坐标;
所述τ>1,η<1;
所述误差用角度表示的形式为:其中f为相机焦距,a为理想点距离光轴距离,b为实际点距离光轴距离。
CN201510566567.XA 2015-09-08 2015-09-08 一种基于序列图像的跟踪精度反演方法 Active CN105139406B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510566567.XA CN105139406B (zh) 2015-09-08 2015-09-08 一种基于序列图像的跟踪精度反演方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510566567.XA CN105139406B (zh) 2015-09-08 2015-09-08 一种基于序列图像的跟踪精度反演方法

Publications (2)

Publication Number Publication Date
CN105139406A CN105139406A (zh) 2015-12-09
CN105139406B true CN105139406B (zh) 2018-02-23

Family

ID=54724738

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510566567.XA Active CN105139406B (zh) 2015-09-08 2015-09-08 一种基于序列图像的跟踪精度反演方法

Country Status (1)

Country Link
CN (1) CN105139406B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108225276B (zh) * 2018-01-11 2020-06-23 中国人民解放军战略支援部队航天工程大学 一种单星成像目标运动特性反演方法及系统
CN110047110B (zh) * 2019-03-11 2021-06-11 北京空间飞行器总体设计部 一种基于序列图像的柔性星载天线在轨振动测量方法
CN111121822B (zh) * 2019-12-25 2021-07-20 南京先进激光技术研究院 一种利用图像识别解决星敏相机自动修正指向的方法
CN111175797B (zh) * 2020-02-02 2023-11-03 上海交通大学 基于虚拟质心的多gnss接收机协同导航方法
CN111591472B (zh) * 2020-05-15 2021-12-10 北京世冠金洋科技发展有限公司 一种调整卫星姿态的方法和相关装置
CN112307981A (zh) * 2020-10-29 2021-02-02 西北工业大学 一种空间翻滚非合作目标观测过程中的特征信息传递与协作跟踪方法
CN114383632B (zh) * 2021-12-23 2023-09-29 北京市遥感信息研究所 一种基于均方根误差的光学星上处理目标定位精度评估方法
CN116091546B (zh) * 2023-01-12 2024-04-19 北京航天飞行控制中心 光学相机推扫模式下的观测构建方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101216319A (zh) * 2008-01-11 2008-07-09 南京航空航天大学 基于联邦ukf算法的低轨卫星多传感器容错自主导航方法
CN102024143A (zh) * 2010-11-16 2011-04-20 湖南大学 高速医药生产线上药液异物图像跟踪识别方法
CN102110296A (zh) * 2011-02-24 2011-06-29 上海大学 一种复杂场景下的运动目标跟踪方法
CN102116626A (zh) * 2009-12-31 2011-07-06 北京控制工程研究所 星点轨迹图像的节点预测修正方法
CN103413330A (zh) * 2013-08-30 2013-11-27 中国科学院自动化研究所 一种复杂场景下可靠的视频摘要生成方法
CN103954969A (zh) * 2014-05-06 2014-07-30 西安电子科技大学 基于激光一维距离像反演动态锥形目标姿态角和几何尺寸
CN104567819A (zh) * 2015-01-16 2015-04-29 航天东方红卫星有限公司 一种星载相机全视场偏流角确定与补偿方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI479431B (zh) * 2012-04-03 2015-04-01 Univ Chung Hua 物件追蹤方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101216319A (zh) * 2008-01-11 2008-07-09 南京航空航天大学 基于联邦ukf算法的低轨卫星多传感器容错自主导航方法
CN102116626A (zh) * 2009-12-31 2011-07-06 北京控制工程研究所 星点轨迹图像的节点预测修正方法
CN102024143A (zh) * 2010-11-16 2011-04-20 湖南大学 高速医药生产线上药液异物图像跟踪识别方法
CN102110296A (zh) * 2011-02-24 2011-06-29 上海大学 一种复杂场景下的运动目标跟踪方法
CN103413330A (zh) * 2013-08-30 2013-11-27 中国科学院自动化研究所 一种复杂场景下可靠的视频摘要生成方法
CN103954969A (zh) * 2014-05-06 2014-07-30 西安电子科技大学 基于激光一维距离像反演动态锥形目标姿态角和几何尺寸
CN104567819A (zh) * 2015-01-16 2015-04-29 航天东方红卫星有限公司 一种星载相机全视场偏流角确定与补偿方法

Also Published As

Publication number Publication date
CN105139406A (zh) 2015-12-09

Similar Documents

Publication Publication Date Title
CN105139406B (zh) 一种基于序列图像的跟踪精度反演方法
US10515458B1 (en) Image-matching navigation method and apparatus for aerial vehicles
Trebi-Ollennu et al. Design and analysis of a sun sensor for planetary rover absolute heading detection
CN110081881B (zh) 一种基于无人机多传感器信息融合技术的着舰引导方法
Aghili et al. Fault-tolerant position/attitude estimation of free-floating space objects using a laser range sensor
Meyer et al. The MADMAX data set for visual‐inertial rover navigation on Mars
US20090125223A1 (en) Video navigation
CN102116626B (zh) 星点轨迹图像的节点预测修正方法
Bryson et al. Bearing-only SLAM for an airborne vehicle
CN102788579A (zh) 基于sift算法的无人机视觉导航方法
CN112710311A (zh) 一种地形自适应无人机三维实景重建航摄点自动规划方法
CN114693754A (zh) 一种基于单目视觉惯导融合的无人机自主定位方法与系统
Veth et al. Stochastic constraints for efficient image correspondence search
CN109178345A (zh) 一种用于空中动目标跟踪的云台指向及星体姿态协同控制方法
Chen et al. Real-time geo-localization using satellite imagery and topography for unmanned aerial vehicles
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach
CN105547258B (zh) 一种遥感卫星tdiccd相机积分时间星上优化计算方法
Mostafa et al. Optical flow based approach for vision aided inertial navigation using regression trees
Pan et al. An optical flow-based integrated navigation system inspired by insect vision
Fan et al. Bio-inspired multisensor navigation system based on the skylight compass and visual place recognition for unmanned aerial vehicles
So et al. Visual odometry for a hopping rover on an asteroid surface using multiple monocular cameras
Indelman et al. Navigation aiding based on coupled online mosaicking and camera scanning
Allak et al. AMADEE-18: Vision-based unmanned aerial vehicle navigation for Analog Mars Mission (AVI-NAV)
Cheng et al. High precision passive target localization based on airborne electro-optical payload
Tehrani et al. Low-altitude horizon-based aircraft attitude estimation using UV-filtered panoramic images and optic flow

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20190524

Address after: 150000 Heilongjiang Harbin Dalian economic and Trade Zone, the North Road and Xingkai Road intersection

Patentee after: Harbin University of Technology Robot Group Co., Ltd.

Address before: 150000 No. 92, West Da Zhi street, Nangang District, Harbin, Heilongjiang.

Patentee before: Harbin Institute of Technology

TR01 Transfer of patent right