CN104574347A - 基于多源遥感数据的在轨卫星图像几何定位精度评价方法 - Google Patents

基于多源遥感数据的在轨卫星图像几何定位精度评价方法 Download PDF

Info

Publication number
CN104574347A
CN104574347A CN201310507594.0A CN201310507594A CN104574347A CN 104574347 A CN104574347 A CN 104574347A CN 201310507594 A CN201310507594 A CN 201310507594A CN 104574347 A CN104574347 A CN 104574347A
Authority
CN
China
Prior art keywords
image
evaluated
reference picture
follows
reference mark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310507594.0A
Other languages
English (en)
Other versions
CN104574347B (zh
Inventor
孙权森
耿蕾蕾
宋艳涛
王思文
陈艺虾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201310507594.0A priority Critical patent/CN104574347B/zh
Publication of CN104574347A publication Critical patent/CN104574347A/zh
Application granted granted Critical
Publication of CN104574347B publication Critical patent/CN104574347B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于多源遥感数据的在轨卫星图像几何定位精度评价方法,采用如下步骤:步骤1,将待评图像和参考图像调整为同一椭球体、基准面和分辨率下的两幅图像;步骤2,对以上两幅图像进行下采样,并进行辐射增强处理;步骤3,使用加速稳健特征Surf算法对以上两幅图像进行粗匹配,并用对极几何约束剔除误匹配点对;步骤4,根据粗匹配结果,对待评图像进行几何关系补偿,并对几何补偿后的待评图像和参考图像进行精确分块;步骤5,针对待评图像和参考图像块对,使用Surf算法进行精匹配,并用对极几何约束剔除误匹配点对;步骤6,计算外部几何定位精度,同时根据筛选出的各方向控制点对计算内部几何定位精度。本发明对来自不同传感器、不同光谱范围以及不同时相的多源、高精度遥感图像能够实现自动、快速和精确评价。

Description

基于多源遥感数据的在轨卫星图像几何定位精度评价方法
技术领域
本发明涉及遥感图像评价领域,具体涉及一种基于多源遥感数据的在轨卫星图像几何定位精度评价方法。
背景技术
随着国内遥感卫星的迅速发展,卫星图像的图幅越来越大。在对在轨图像进行几何定位精度评价时,需要将多景参考图像拼接成一景参考图像。然而,参考图像库是由来自不同时相、不同传感器和不同卫星所拍摄的遥感图像组成,使得拼接成的参考图像呈现多源化的特点。因此,在卫星图像和参考图像之间提取精确且分布均匀控制点信息成为几何定位精度评价的一个技术难点。
在遥感图像成像过程中,由于成像投影方式、传感器外方位元素变化、传感介质不均匀以及地形起伏和地球旋转或曲率等变化因素的影响,采集的遥感图像相对于实际地表目标存在一定的几何形变,因此遥感图像在应用前必须进行几何校正。然而,遗憾的是几何校正的精确度往往非常有限,导致系统误差纠正后图像上还存在难以预测的剩余形变。所以,有必要对几何校正后图像的几何精度进行评价,并用以指导后续的几何精校正。评价遥感图像几何精度需要借助地面控制点(Ground Control Point, GCP),GCP的传统采集方式,是由人工对照在轨卫星图像和参考图像来完成的,GCP精度依赖于采集者个人的认识水平和技能。传统的人工采集方式不仅耗时长、精度低,而且严重影响几何精度评价效率。因此,如何采用自动化的方法提高获取控制点的数目和精度,是当前遥感图像评价有待解决的一个关键问题。
近年来,国内外研究学者在自动提取控制点方面做了大量的研究工作,控制点提取技术主要分为基于像素的方法和基于特征的方法两大类。前者直接利用灰度值来进行相关性度量,该类方法直观且容易实现,但是计算量大,对光照和畸变比较敏感。后者提取图像中含有图像重要特征的特征点,并通过相似性度量进行匹配,该类方法操作简单、匹配速度快、精度高。近年来的研究热点主要包括Harris 算子、F?rstner 算子、尺度不变特征变换特征点检测方法[6]和加速稳健特征(Speeded Up Robust Features, Surf)算法。由于目前遥感图像图幅越来越大,对遥感图像进行几何精度评价时,通常需将该图像所对应的多幅多源参考图像(包括不同光谱、时相、分辨率或传感器所拍摄的遥感图像)拼接成一幅参考图像。此类参考图像的灰度信息存在较大的差异,并且在轨图像存在定位精度误差和多种畸变(一般为旋转、拉伸和平移等),这些因素加大了控制点的提取难度,从而,基于像素的方法已经不适用,同时基于特征的方法也不能满足需求。
发明内容
本发明的目的在于针对现有几何定位精度评价技术的不足,针对多源遥感图像,提出基于整体最优的两级匹配策略(粗匹配与精匹配相结合)提取在轨图像与多源参考图之间的控制点信息。
实现本发明目的的技术方案为:一种基于多源遥感数据的在轨卫星图像几何定位精度评价方法,步骤如下:
1.针对待评图像,在参考图像库中搜索对应的参考图像集,然后,将参考图像集投影到同一地球椭球体、同一大地基准面以及同一地面分辨率下,最后对参考图像集进行拼接得到参考图像1;
2.将待评图像和参考图像1按照同比率进行下采样,然后对两幅图像进行辐射增强,得到待评图像1和参考图像2;
3.针对待评图像1和参考图像2,使用Surf算法提取同名控制点对,并采用対极几何约束剔除误匹配的控制点,得到控制点对集合A;
4.根据步骤3提取出来的控制点对集合A,建立待评图像和参考图像1两幅图像的整体几何关系,并按照该几何关系对待评图像进行几何关系补偿,得到待评图像2;
5.针对待评图像2和参考图像2,首先对两幅图像进行辐射增强,然后使用Surf算法提取同名控制点对,最后采用対极几何约束剔除误匹配的控制点,得到最终的控制点对集合B;
6.根据控制点对集合B,计算待评图像的外部几何定位精度,同时筛选该图像各个方向的控制点对计算其内部几何定位精度。
步骤1中所述的图像投影转换过程和基于参考图像集的图像拼接过程,具体步骤如下:
1.1根据待评图像覆盖区域的地理经纬度范围,搜索该图像在参考图像库中所所对应的参考图像集合,主要步骤如下:
(1)       选择参考图像库类型;
(2)       根据待评图像各像素点的地理经纬度以及参考图像库类型计算参考图库中所对应的参考图像集的文件名;
(3)       根据参考图像的文件名搜索参考图像;
1.2参考图像集投影转换,主要步骤如下:
(1)       根据待评图像左上角纬度,计算该图像的投影带标号,公式如下:
其中,lat为待评图像左上角纬度;
(2)       根据投影转换参数,采用最近邻方法对参考图像集进行重采样,投影转换参数包括目标地球椭球体、目标大地基准面和地面分辨率;
1.3参考图像集拼接:导入参考图像集,设定拼接最佳参数,即拼接模式、忽略像素值和羽化参数。
步骤2中所述的下采样和图像辐射增强,其步骤如下:
2.1采用三次卷积内插模型,将待评图像和参考图像1进行同比率下采样;
2.2采用wallis滤波,对待评图像和参考图像1进行图像纹理增强,得到待评图像1和参考图像2,Wallis滤波器表示为:
其中,,参数分别为乘性系数和加性系数,为图像中某一像素的邻域均值;为图像中某一像素的邻域方差;为目标均值,它为图像动态范围的中值;为目标方差;c为图像反差扩展常数;b为图像亮度系数。
所述步骤3中使用Surf算法选取同名控制点,并根据对极几何约束剔除误匹配的控制点;
所述Surf算法主要包括提取特征点、确定特征点主方向、生成描述符和特征点匹配四个步骤,其步骤如下:
3.1使用Surf算法选取同名控制点:
3.1.1提取特征点,其步骤如下:
(1)      针对待评图像1和参考图像2,分别构建Surf算法的尺度空间,并计算每层图像的Hessian矩阵行列式近似值;
(2)      计算邻域窗口内的抑制值,选取最大或者最小点作为候选特征点;
3.1.2确定特征点主方向,其步骤如下:
(1)      以特征点为中心,计算在x和y方向的Haar小波滤波器响应值;
(2)      对Haar响应值赋以高斯权重系数;
(3)      根据设定的量化步长,计算特征点所在圆形区域的每个角度范围内所包含的Haar小波响应值之和,将具有最大分布响应的角度作为当前特征点主方向;
3.1.3生成描述符,其步骤如下:
(1)      以特征点为中心,将坐标轴旋转到该特征点主方向上;
(2)      选取矩形区域,将该区域划分为相同大小的子区域,计算每一个子区域内Haar小波响应值,得到一个4维的特征描述向量
(3)      将所有子区域的特征向量串接成一个高维的特征向量,并进行归一化处理,得到Surf算法的特征描述符;
3.1.4采用最近邻比率匹配方法对Surf算法的特征描述符进行特征匹配,其步骤如下:
(1)      计算待评图像1上的Surf算法描述符特征向量与参考图像2上的Surf算法描述符特征向量之间的欧氏距离;
(2)      如果两特征点的欧式距离最短,则认为两特征点为对应的同名控制点对,否则认为该特征点没有匹配点;
3.2使用对极几何约束关系剔除误匹配控制点信息,先后使用改进的M-估计算法和随机抽样一致性模型,其步骤如下:
3.2.1采用改进的M-估计算法,剔除误匹配控制点信息,其步骤如下:
(1)       根据7点法计算基础矩阵初始值,计算特征点到基础矩阵的对极距离平方和,并进行排序;
(2)       计算所有值到中值的差值的平均值;
(3)       随机进行数次迭代,通过比较所有平均值选择最小平均值所对应的矩阵作为算法的精确初始值,根据此初始值剔除掉原特征点集合中的误匹配点和坏点;
(4)      运用Torr-M-Estimators法对新的匹配点集合进行迭代求精,得到精确的匹配点对;
3.2.2采用随机抽样一致性模型,剔除误匹配控制点信息,其步骤如下:
(1)       从总体样本中随机选取4对GCP作为最小样本集,根据这4对GCP计算模型R的参数,变换模型如下:
其中,(x,y)为待评影像中控制点坐标,(X,Y)为Surf算法匹配出的(x,y)所对应的参考影像中的控制点坐标,该模型可校正由于几何失真引起的图像旋转和尺度变化、相机侧摆引起的图像尺度变化;
(2)       将备选“内点”逐一代入上述描述的模型参数中,计算所有GCP在模型R下的累积残差,残差模型选取MSE模型,如下式所示,
(3)       在完成一定的抽样次数后,选取最小累积残差所对应的模型R作为最终选定的计算模型;
(4)       将该模型R下残差MSEi大于阈值t的GCP剔除。
步骤4中所述的根据步骤3提取出来的控制点集合A对待评图像进行几何关系补偿,几何补偿模型选择二次多项式模型,即利用待评图像和参考图像1中控制点对坐标按最小二乘原理求解出多项式系数,然后以此多项式模型表达待评图像和参考图像1之间的整体几何关系;多项式模型如下所示:
其中,参数a和b是通过特征点集合计算得到的,x和y分别代表待评影像的像素点的经纬度坐标,通过上述多项式模型得到新坐标,作为经纬度补偿后的值,即为补偿过程。
 
步骤5中所述的对待评图像2和参考图像2进行辐射增强,包括参数为高斯线性剪裁拉伸和wallis滤波;
5.1采用高斯线性剪裁拉伸,分别对待评图像2和参考图像2进行辐射增强,主要步骤如下:
(1)       将直方图两端的灰度值进行剪裁;
(2)       设定输出图像均值n,标准差,进行高斯拉伸,公式如下:
其中为图像标准差,为图像均值;
5.2采用wallis滤波分别对高斯线性剪裁拉伸后的待评图像和参考图像进行辐射增强。
步骤6中所述的快速筛选各个方向上的控制点对,其主要步骤如下:
6.1将经过图像中心的并且平行于所求方向的直线设定为基线方向,计算各个控制点到基线的距离作为各个控制点的特征描述;
6.2使用聚类算法对各个方向的控制点特征进行聚类,以减少控制点选择时的计算量,主要步骤如下:
(1)       对所有控制点,根据它们的特征值进行从小到大的排序;
(2)       计算排序后相邻控制点的特征值之差的绝对值,求出最大差值MAX_V和最小差值MIN_V;
(3)       定义一个窗口阈值W=(MAX_V+MIN_V)/2,然后利用这个阈值对排序后的控制点进行分类;分类的方法如下:假设排序后的控制点特征值的序列为V={x1,x2,x3,…,xn},n为控制点的个数;定义目前的类别序号为L=1,计算D1=|x1-x2|,若D1<W,则认为x1和x2属于同一个类别,定义类别C1={x1,x2}.然后计算D2=|x2-x3|,若D2<W,则归并到C1类别当中去,否则L=L+1,创建一个新的类别C2={x3},如此类推,将所有控制点加以分类;
(4)       若分类得到的类别数L大于预期的类别数时,加大窗口W=W+step,step是窗口增加的步长,重复第(3)步,直到类别数满足需求为止;
6.3在各个分类集合中,根据角度和长度对已有的控制点对进行筛选:
(1)       角度筛选
首先计算两两控制点间的向量,然后计算各向量与基线的夹角αi,最后按照夹角对候选控制点进行排序;当αi小于给定的角度阈值α0时,该控制点对是符合选取要求的;
(2)       长度筛选
计算控制点对间的像素点数目ni,当ni大于给定的长度阈值n0时,该控制点对是符合选取要求的。
本发明与现有技术相比,其特征在于:本发明对来自不同传感器、不同光谱范围以及不同时相的多源、高精度遥感图像能够实现自动、快速和精确评价。实验表明,针对资源一号02C和资源三号卫星,本发明可以提取出精确且分布均匀控制点信息,准确的计算出卫星的几何定位精度。
附图说明
图1为本发明整体流程图。
图2为生成参考图像的流程示意图。
图3为提取待评图像和参考图像的控制点信息的总体流程图,该信息用于计算几何定位精度。
图4为提取控制点信息中的粗匹配流程图。
图5为提取控制点信息的精匹配流程图。
图6为选取指定方向上控制点信息的流程图,该信息用于计算内部几何定位精度。
具体实施方式
本发明的具体步骤如下:
1.         构建待评图像所对应的参考图像。
首先,根据待评图像所覆盖的经纬度范围搜索到对应的参考图像集。由于待评图像和参考图像集具有不同的比例尺(具有不同的分辨率、椭球体和基准面),因此要对待评图像和参考图像集投影变换。最后,将参考图像集拼接成一幅完整的参考图像。
 
2.         粗匹配
由于多源遥感图像的成像模型和相关参数不同,使得很难直接在待评图像和参考图像两幅图像之间提取同名控制点信息。因此,本发明在精确提取控制点信息之前加入粗匹配对待评图像进行几何关系补偿,以实现快速和精确在图像块对之间提取控制点信息,进而实现快速和精确的几何定位精度的评价。
1)         对待评图像和参考图像进行下采样,同时对下采样后的图像进行相应的辐射增强处理,即对两幅图像均进行wallis滤波。
wallis滤波器是一种比较特殊的滤波器,它可以增强原始图像的反差并同时可以抑制噪声,同时他可以大大增强图像中不同尺度的图像纹理模式。通过对图像的增强,在提取图像中的点特征时可提高提取点特征的数量和精度,而在同名点对匹配中则可以提高匹配结果的可靠性和精度。该滤波器的目的是将图像的灰度均值和方差(即图像的动态范围)映射到给定的灰度均值和方差均值。它实际上是一种局部图像变换,它使在图像不同位置处的灰度方差和灰度均值都具有近似相等的数值,即图像反差小的区域的反差增强,图像反差大的区域的反差减小,使得图像中灰度的微小变化信息得到增强。
 
2)         使用Surf算法对1)过程处理后的图像提取控制点信息。
因为多源遥感图像的灰度信息存在较大的差异,所以基于灰度提取GCP技术已经不适用于解决现有问题。近年来的研究热点主要集中在Lowe提出的尺度不变特征变换(Scale-invariant Feature Transform, Sift)特征点检测方法和Bay在Sift的基础上改进的加速稳健特征(Speeded Up Robust Features, Surf)算法。在Sift算法中,Lowe等人使用高斯差分尺度空间(DOG, Difference of Gaussians)来进行特征点的提取。由于高斯滤波器在实际使用中需要离散化和截断,因此在Surf算法中,利用方框滤波器来近似代替高斯滤波器,用积分图像来加速积分过程,使得Surf算法在保持较高精度的情况下尽可能地提升了速度。Surf算法的速度具有放缩不变性和旋转不变性,还有一定的抗光照变化和抗视点变换性能。因此,本发明选取Surf算法提取GCP。
 
3)         使用对极几何约束剔除误匹配的控制点。
不同视点处获得的同一场景的两幅图像间存在着重要的几何约束关系,即对极几何关系。对极几何关系可以用一个矩阵来表示。该矩阵的估计是三维重建、运动估计、匹配及跟踪的关键,该矩阵同时包含了摄像机的所有内参和外参信息,独立于场景结构,仅由两幅图像中的对应点就可以求出。因此本发明通过估计对极几何约束来去除误匹配,包括改进的M-估计算法(M-Estimators)和随机抽样一致性模型(Random Sample Consensus,Ransac)。这两种估计方法都是通过随机抽样检验的方法剔除原始对应控制点集中误差较大的控制点,获得一个内点集,然后用内点集中所有控制点通过线性方法获得基本矩阵的最小二乘解。
1)         改进的M-估计算法(M-Estimators)
在鲁棒算法中,M-Estimators法,用一个残差函数来代替最小二乘法中的距离的平方,以此抑制大误差数据对估计过程的干扰。M-Estimators具有相对较快的计算速度及对高斯噪声的稳定性,因此具有很好的应用前景。但该类方法完全依赖由线性最小二乘法估计得到的矩阵初始值,精度较低,稳定性较差。基于此,本发明采用一种改进的M-Estimators算法。改进的M-Estimators法在误匹配以及高斯噪声存在的情况下,不仅提高了基础矩阵的估计精度而且具有很好的鲁棒性。
2)         随机抽样一致性模型(Random Sample Consensus,Ransac) 
Ransac算法用尽可能少的抽样区域估计模型并尽可能的扩大一致性数据集。该算法首先通过对预匹配点集的多次迭代随机抽样,然后与预先设定的阈值比较,不断剔除错误数据,采样最后得到的最大内点集,精确的估计基本矩阵。
 
4)         根据3)过程得到的控制点信息,对待评图像进行几何关系补偿,几何补偿模型选取多项式模型。
遥感图像在成像时,由于成像投影方式、传感器外方位元素变化、传感介质的不均匀、地球曲率、地形起伏、地球旋转等因素的影响,使获得的遥感图像相对于地表目标存在一定的几何形变,几何形变主要表现为位移、旋转、缩放、仿射、弯曲,或者表现为象元相对地面实际位置产生挤压、伸展、扭曲或偏移。本发明选取多项式模型近似描述ZY3图像和参考图像之间的坐标关系,并利用GCP的图像坐标和参考坐标系中理论坐标按最小二乘原理求解出多项式中的系数,然后以此多项式模型表达ZY3图像和参考图像之间的整体几何关系。
 
5)         根据4)过程得到的待评图像和原参考图像进行分块,以实现精确提取控制点信息。
3.         精匹配
针对待评图像和参考图像块对,首先进行辐射增强处理,然后使用Surf算法提取丰富和精确的控制点信息,最后使用对极几何约束剔除误匹配的控制点信息。
1)         辐射增强处理过程包括高斯线性剪裁拉伸和wallis滤波。
高斯线性剪裁拉伸,即用高斯曲线来规定输出图像的直方图,高斯数学期望值设为处理后图像的平均值,高斯方差设定为处理后图像的标准差。该辐射增强处理,保留了部分像素的灰度值,同时图像相邻像素间的灰度差异基本被保留,故图像的细节也得到了保留。
wallis滤波器是一种比较特殊的滤波器,它可以增强原始图像的反差并同时可以抑制噪声,同时他可以大大增强图像中不同尺度的图像纹理模式。通过对图像的增强,在提取图像中的点特征时可提高提取点特征的数量和精度,而在同名点对匹配中则可以提高匹配结果的可靠性和精度。
2)         使用Surf算法提取控制点信息。
3)         使用对极几何约束剔除误匹配控制点对,包括改进的M-估计算法(M-Estimators)和随机抽样一致性模型(Random Sample Consensus,Ransac)。
4.         计算几何定位精度
1)         计算外部几何定位精度
图像外部几何定位精度指的是卫星产品的几何定位精度,即几何校正后的图像上地理位置和真实位置之间的差异。在卫星运行阶段,需要统计外部定位精度的系统偏差,然后在偏航角、俯仰角和滚转角方向上调整系统几何模型,得到相应的偏移矩阵,消除系统误差,减少随机误差,以提高图像二级产品的定位精度,从而为用户提供更高质量的数据产品。
2)         计算内部几何定位精度
图像内部几何变形可以归纳为长度变形、角度变形和放射变形,评价的内容主要包括变形的绝对量和征服图像变形的一致性。因此,本发明的内部几何定位精度测试指各方向控制点间相对几何误差。内部几何定位精度评价可以显示出耳机产品图像的内部几何畸变程度,可以反映出系统几何校正的精度,通过内部几何定位精度的结果指导系统几何校正。例如几何模型误差的特点是在垂轨方向有明显的畸变,并且畸变具有左右对称性。通过计算垂轨方向的几何定位精度,可以计算几何校正程序中的相机几何模型误差和参数误差,即相机光学部件本身的畸变误差和相机的安装偏差,继而调整相机几何模型参数,最终改善内部几何畸变。
 
下面结合附图和具体的实施例对本发明的技术方案作进一步的描述。
1.         准备数据
本发明所要求的输入数据是以下集中卫星的图像数据,格式为TIFF、DEOTIFF、IMG:
1)         待评图像:HJ1A,B遥感图像、中巴02B遥感图像、ETM遥感图像(Enhance Thematic Mapper)、资源一号02C遥感图像、资源三号卫星遥感图像。
2)         参考图像:一度带分幅标准参考图像库和国家基本比例尺地形图的1:50000分幅标准参考图像库。参考图像库中的图像是由同一区域不同时相、不同传感器的遥感图像组成。
以上数据均有中国资源卫星与应用中心提供。
2.         比例尺变换
当待评图像和参考图像具有不同的比例尺时,即多源遥感图像具有不同的分辨率、椭球体和基准面,图像首先要进行比例尺变换,使两张图像具有相同的比例尺,即待评图像和参考图像的每个像素在地面上对应几何尺度相等,主要步骤如下:
1)        根据图像所在的经纬度信息计算其投影带标号zone,计算公式如下:
其中,lat指图像的左上角点的经度值。
2)        设定投影转换参数,即目标地球椭球体为WGS84、目标大地基准面为UTM、地面分辨率为待评图像分辨率。
3)        根据上述参数对参考图像集进行投影变换。
3.         粗匹配
由于多源遥感图像的成像模型和相关参数不同,使得很难直接在待评图像和参考图像两幅图像之间提取同名控制点信息。因此,本发明在提取控制点信息之前加入粗匹配的处理过程,以实现快速和精确在图像块对之间提取控制点信息,进而实现快速和精确的几何定位精度的评价,主要步骤如下:
1)         对待评图像和参考图像进行下采样,下采样模型参数为0.5的三次卷积内插模型。
2)         对下采样后的待评图像和参考图像采用进行辐射增强,辐射增强选取wallis滤波器。该滤波器是一种比较特殊的滤波器,它可以增强原始图像的反差并同时可以抑制噪声,同时他可以大大增强图像中不同尺度的图像纹理模式。Wallis滤波器的一般形式可以表示为:
其中,。参数分别为乘性系数和加性系数。当时,该变换为一高通滤波;当时,该变换为一低通滤波。为图像中某一像素的一定邻域的图像灰度均值;为为图像中某一像素的一定邻域的图像灰度方差;为图像均值的目标值,它应选择为图像动态范围的中值;为图像方差的目标值,该值决定着图像的反差,一般情况下该值越大越好;c为图像反差扩展常数;b为图像亮度系数,当时,图像的均值被强制到,而当时,图像的均值被强制到,因此,为了尽量保持原始图像的灰度均值,应使用较小的b值。
由wallis滤波器的公式可知,乘性系数决定着该滤波器的性能,它与图像及其他参数的关系可重写为:
    wallis滤波器的主要步骤如下:
(1)      把数字图像分为互不重叠的区域,区域的尺度对应于要增强的纹理模式的尺度,窗口尺度设为25;
(2)      计算个矩阵区域的灰度均值和方差;
(3)      目标均值为(120,140)、目标方差为(30,60)、图像反差扩展常数为(1,2)、图像亮度系数为(0.5,1),窗口尺寸为(15,35)。然后计算出各区域的wallis滤波器乘性系数r1和加性系数r0
(4)      由于个矩形区域不重叠,所以数字图像的任一像素的乘性系数r1和加性系数r0采用双线性内插得到,并计算出所有像素新的灰度值。
 
3)         使用Surf算法对2)过程处理后的图像提取控制点信息。Surf算法主要包括提取特征点、确定特征点主方向、生成描述符和特征点匹配四个步骤。其步骤如下:
(1)      提取特征点
在Sift算法中,Lowe等人使用高斯差分尺度空间(DOG, Difference of Gaussians)来进行特征点的提取。由于高斯滤波器在实际使用中需要离散化和截断,因此在Surf算法中,利用方框滤波器来近似代替高斯滤波器,用积分图像来加速积分过程,使得Surf算法在保持较高精度的情况下尽可能地提升了速度。在获得尺度空间与求得每层图像的Hessian矩阵行列式近似值以后,计算邻域窗口的非最大抑制(non-maximum suppression),只有当前点的值比周围26个点的值都要大或者都要小时,该点才能被选择为候选特征点。邻域窗口为(3,7),尺度空间子层数为(3,7),尺度σ为(1,2)。
(2)      确定特征点主方向
在Surf描述符的计算中,为了实现描述符对于旋转的不变性,需要首先确定其主方向,主要步骤如下:
a)        以特征点为中心计算在x和y方向的Haar小波滤波器响应值,其中Haar小波边长为4σ,计算区域的半径为6σ,这里σ表示特征点所在的尺度大小;
b)        对这些响应值赋以高斯权重系数,离特征点近的响应值权重较大相应贡献较大,离特征点远的响应值权重较小相应贡献也较小,这样更符合客观实际情况;
c)         计算特征点的主方向分布,以60为量化步长计算,遍历特征点周围的圆形区域,计算每个角度所包含的Haar小波响应值之和,找到具有最大分布响应的角度,将其作为当前描述符的主方向。
(3)      生成描述符
生成描述符的主要步骤如下:
a)        以特征点为中心,将坐标轴旋转到该特征点的主方向上,选取大小为20σ*20σ的矩形区域作为特征提取区域;
b)        将该区域划分成4*4个大小为5σ*5σ的子区域,并在每一个子区域内计算Haar小波响应值,设相对于主方向的水平、垂直方向的Haar小波响应分别为dx、dy,同时将以特征点为中心的高斯加权系数赋予这些响应值,以达到增强算法鲁棒性的目的。每一个子区域能够得到一个4维的特征描述向量
c)         特征区域内的所有16个子区域的4维特征向量可以串接成一个64维的特征向量作为中心点的特征,并进行归一化处理,这样就得到了Surf算法的特征描述符。
(4)      特征点匹配
本发明采用最近邻比率匹配方法(nearest neighbor ratio matching strategy)对上述提取的特征描述符进行特征匹配,主要步骤如下:
a)        将待配准图像上的特征点的描述符特征向量将与基准图像上的特征点的描述符特征向量进行比较,计算两特征向量的欧氏距离;
b)        如果两特征点的欧式距离最短,并且此距离小于次短距离的0.7倍,则认为两特征点为对应的匹配点对,否则认为该特征点没有匹配点。
4)         使用对极几何约束剔除误匹配的控制点。
本发明通过估计对极几何约束来去除误匹配,包括改进的M-估计算法(M-Estimators)和随机抽样一致性模型(Random Sample Consensus,Ransac)。这两种估计方法都是通过随机抽样检验的方法剔除原始对应控制点集中误差较大的控制点,获得一个内点集,然后用内点集中所有控制点通过线性方法获得基本矩阵的最小二乘解。
(1)       M-Estimators估计
在鲁棒算法中,M-Estimators法,用一个残差函数来代替最小二乘法中的距离的平方,以此抑制大误差数据对估计过程的干扰。M-Estimators具有相对较快的计算速度及对高斯噪声的稳定性,因此具有很好的应用前景。但该类方法完全依赖由线性最小二乘法估计得到的矩阵初始值,精度较低,稳定性较差。基于此,本发明采用一种改进的M-Estimators算法,主要步骤如下:
a)         进行一定次数的随机选点,每次选取7个点,利用7点法计算得到基础矩阵的初始值,由各初始值计算所有特征点的对极距离平方和。迭代次数为(500,1500)。
b)        将得到的对极距离平方和由小到大排序,求最小值到中间值的所有值的平均,通过比较所有平均值,选择最小平均值所对应的矩阵作为本章算法中的精确初始值。
c)         用此初始值剔除掉原特征点集合中的错误匹配点及坏点。
d)        运用M-Estimators法对新的匹配点集合进行迭代求精,得到精确的匹配点对,精确恢复了对极几何。
 
(2)       Random Sample Consensus(Ransac)模型
Ransac模型,即根据一组包含异常数据的样本数据集,计算出数据的数学模型参数,得到有效样本数据的算法,主要步骤如下:
a)        从总体样本(所有GCP)中随机选取4对GCP作为最小样本集,根据这四对GCP计算模型M的参数,变换模型如下:
该模型,可以校正由于几何失真引起的图像旋转和尺度变化、相机侧摆引起的图像尺度变化。
b)        将备选“内点”逐一代入上述描述的模型参数中,计算它们在模型中的残差。残差模型选取MSE模型,如下,
计算所有GCP在模型M下的累积残差
c)         在完成一定的抽样次数后,选取最小累积残差所对应的模型Mi作为最终选定的计算模型。将该模型Mi下误差大于阈值t的GCP剔除。其中,抽样次数为(500,1500),阈值为(1,3)。
 
5)         根据(2)得到的控制点信息,对待评图像进行几何补偿。
本发明选取多项式模型近似描述ZY3图像和参考图像之间的坐标关系,并利用GCP的图像坐标和参考坐标系中理论坐标按最小二乘原理求解出多项式中的系数,然后以此多项式模型表达ZY3图像和参考图像之间的整体几何关系,多项式模型如下所示:
6)         针对几何补偿后的待评图像和参考图像进行分块,以实现精确提取控制点信息。
4.         精匹配
针对待评图像和参考图像块对,进行辐射增强处理,然后使用Surf算法提取丰富和精确的控制点信息,最后使用对极几何约束剔除误匹配的控制点。
1)         辐射增强处理过程包括高斯线性剪裁拉伸和wallis滤波。
(1)       高斯线性剪裁拉伸可以将图像的灰度值拉伸到一个比较均匀的水平,同时可以增强图像的纹理信息,其主要步骤如下:
a)        将直方图两端的灰度值进行参数为2%的剪裁;
b)        设定输出图像均值n为(120,150),标准差σ为(2,5)为127,标准差为3;
c)         进行高斯拉伸,公式如下:
(2)       wallis滤波可以抑制没用的信息,同时可以增强有用的纹理信息,使得图像可以提取出丰富的控制点信息。
a)         把数字图像分为互不重叠的区域,区域的尺度对应于要增强的纹理模式的尺度,窗口尺度设为31;
b)         计算个矩阵区域的灰度均值和方差;
c)         目标均值为(120,140)、目标方差为(30,60)、图像反差扩展常数为(1,2)、图像亮度系数为(0.5,1),窗口尺寸为(15,35),然后计算出各区域的wallis滤波器乘性系数r1和加性系数r0
d)         由于个矩形区域不重叠,所以数字图像的任一像素的乘性系数r1和加性系数r0采用双线性内插得到,并计算出所有像素新的灰度值。
2)         使用Surf算法提取控制点信息
3)         使用对极几何约束剔除误匹配控制点对
5.         计算外部几何定位精度
图像外部几何定位精度指的是卫星产品的几何定位精度,即几何校正后的图像上地理位置和真实位置之间的差异,主要步骤如下:
1)         根据控制点的坐标和图像的投影信息计算每个控制点的公里网坐标;
2)         计算待评图像和参考图像的同名控制点对之间的公里网距离;
3)         计算外部几何定位精度均值和方差。
 
6.         计算内部几何定位精度
图像内部几何变形可以归纳为长度变形、角度变形和放射变形,评价的内容主要包括变形的绝对量和征服图像变形的一致性。因此,本专利的内部几何定位精度主要计算各方向控制点间相对几何误差,主要步骤如下:
1)      将经过图像中心的并且平行于所求方向(垂轨、沿轨、对角线)的直线设定为基线方向,计算各个控制点到基线的距离作为各个控制点的特征描述。
2)      使用聚类算法对各个方向的控制点特征进行聚类,以减少控制点选择时的计算量,主要步骤如下:
(1)    对所有控制点,根据它们的特征值进行从小到大的排序;
(2)    计算排序后相邻控制点的特征值之差的绝对值,求出最大差值MAX_V和最小差值MIN_V;
(3)    定义一个窗口阈值W=(MAX_V+MIN_V)/2,然后利用这个阈值对排序后的控制点进行分类;
(4)    分类的方法如下:假设排序后的控制点特征值的序列为V={x1,x2,x3,…,xn},n为控制点的个数。定义目前的类别序号为L=1,我们计算D1=|x1-x2|,若D1<W,则我们认为x1和x2属于同一个类别,定义类别C1={x1,x2}.然后我们计算D2=|x2-x3|,若D2<W,则归并到C1类别当中去,否则L=L+1(此时L=2),我们创建一个新的类别C2={x3},如此类推,将所有控制点加以分类;
(5)    若分类得到的类别数L大于我们预期的类别数时,我们可以加大窗口W=W+step,step是窗口增加的步长,重复第d步,直到类别数满足我们的需求为止
3)      在各个分类集合中,根据角度和长度对已有的控制点对进行筛选:
(1)    角度筛选
首先计算两两控制点间的向量,然后计算各向量与基线的夹角,最后按照夹角对候选控制点进行排序。我们认为当小于给定的角度阈值时,该控制点对是符合选取要求的。角度阈值取(0.005, 0.02)。
(2)    长度筛选
计算控制点对间的像素点数目ni,我们认为当ni大于给定的长度阈值n0时,该控制点对是符合选取要求的。长度阈值n0为(100,300)。
4)         根据控制点的坐标和图像的投影信息计算每个控制点的公里网坐标;
5)         分别计算待评图像和参考图像上的各方向控制点对之间的距离,并计算相应线段之间的公里网距离差;
6)         计算各方向内部几何定位精度均值和方差。

Claims (7)

1.一种基于多源遥感数据的在轨卫星图像几何定位精度评价方法,其特征在于步骤如下:
1.针对待评图像,在参考图像库中搜索对应的参考图像集,然后,将参考图像集投影到同一地球椭球体、同一大地基准面以及同一地面分辨率下,最后对参考图像集进行拼接得到参考图像1;
2.将待评图像和参考图像1按照同比率进行下采样,然后对两幅图像进行辐射增强,得到待评图像1和参考图像2;
3.针对待评图像1和参考图像2,使用Surf算法提取同名控制点对,并采用対极几何约束剔除误匹配的控制点,得到控制点对集合A;
4.根据步骤3提取出来的控制点对集合A,建立待评图像和参考图像1两幅图像的整体几何关系,并按照该几何关系对待评图像进行几何关系补偿,得到待评图像2;
5.针对待评图像2和参考图像2,首先对两幅图像进行辐射增强,然后使用Surf算法提取同名控制点对,最后采用対极几何约束剔除误匹配的控制点,得到最终的控制点对集合B;
6.根据控制点对集合B,计算待评图像的外部几何定位精度,同时筛选该图像各个方向的控制点对计算其内部几何定位精度。
2.根据权利要求1所述的基于多源遥感数据的在轨卫星图像几何定位精度评价方法,其特征在于:步骤1中所述的图像投影转换过程和基于参考图像集的图像拼接过程,具体步骤如下:
1.1根据待评图像覆盖区域的地理经纬度范围,搜索该图像在参考图像库中所所对应的参考图像集合,主要步骤如下:
(1)选择参考图像库类型;
(2)根据待评图像各像素点的地理经纬度以及参考图像库类型计算参考图库中所对应的参考图像集的文件名;
(3)根据参考图像的文件名搜索参考图像;
1.2参考图像集投影转换,主要步骤如下:
(1)根据待评图像左上角纬度,计算该图像的投影带标号,公式如下:
其中,lat为待评图像左上角纬度;
(2)根据投影转换参数,采用最近邻方法对参考图像集进行重采样,投影转换参数包括目标地球椭球体、目标大地基准面和地面分辨率;
1.3参考图像集拼接:导入参考图像集,设定拼接最佳参数,即拼接模式、忽略像素值和羽化参数。
3.根据权利要求1所述的基于多源遥感数据的在轨卫星图像几何定位精度评价方法,其特征在于步骤2中所述的下采样和图像辐射增强,其步骤如下:
2.1采用三次卷积内插模型,将待评图像和参考图像1进行同比率下采样;
2.2采用wallis滤波,对待评图像和参考图像1进行图像纹理增强,得到待评图像1和参考图像2,Wallis滤波器表示为:
其中,,参数分别为乘性系数和加性系数,为图像中某一像素的邻域均值;为图像中某一像素的邻域方差;为目标均值,它为图像动态范围的中值;为目标方差;c为图像反差扩展常数;b为图像亮度系数。
4.根据权利要求1所述的基于多源遥感数据的在轨卫星图像几何定位精度评价方法,其特征在于所述步骤3中使用Surf算法选取同名控制点,并根据对极几何约束剔除误匹配的控制点;
所述Surf算法主要包括提取特征点、确定特征点主方向、生成描述符和特征点匹配四个步骤,其步骤如下:
3.1使用Surf算法选取同名控制点:
3.1.1提取特征点,其步骤如下:
(1)针对待评图像1和参考图像2,分别构建Surf算法的尺度空间,并计算每层图像的Hessian矩阵行列式近似值;
(2)计算邻域窗口内的抑制值,选取最大或者最小点作为候选特征点;
3.1.2确定特征点主方向,其步骤如下:
(1)以特征点为中心,计算在x和y方向的Haar小波滤波器响应值;
(2)对Haar响应值赋以高斯权重系数;
(3)根据设定的量化步长,计算特征点所在圆形区域的每个角度范围内所包含的Haar小波响应值之和,将具有最大分布响应的角度作为当前特征点主方向;
3.1.3生成描述符,其步骤如下:
(1)以特征点为中心,将坐标轴旋转到该特征点主方向上;
(2)选取矩形区域,将该区域划分为相同大小的子区域,计算每一个子区域内Haar小波响应值,得到一个4维的特征描述向量
(3)将所有子区域的特征向量串接成一个高维的特征向量,并进行归一化处理,得到Surf算法的特征描述符;
3.1.4采用最近邻比率匹配方法对Surf算法的特征描述符进行特征匹配,其步骤如下:
(1)计算待评图像1上的Surf算法描述符特征向量与参考图像2上的Surf算法描述符特征向量之间的欧氏距离;
(2)如果两特征点的欧式距离最短,则认为两特征点为对应的同名控制点对,否则认为该特征点没有匹配点;
3.2使用对极几何约束关系剔除误匹配控制点信息,先后使用改进的M-估计算法和随机抽样一致性模型,其步骤如下:
3.2.1采用改进的M-估计算法,剔除误匹配控制点信息,其步骤如下:
(1)根据7点法计算基础矩阵初始值,计算特征点到基础矩阵的对极距离平方和,并进行排序;
(2)计算所有值到中值的差值的平均值;
(3)随机进行数次迭代,通过比较所有平均值选择最小平均值所对应的矩阵作为算法的精确初始值,根据此初始值剔除掉原特征点集合中的误匹配点和坏点;
(4)运用Torr-M-Estimators法对新的匹配点集合进行迭代求精,得到精确的匹配点对;
3.2.2采用随机抽样一致性模型,剔除误匹配控制点信息,其步骤如下:
(1)从总体样本中随机选取4对GCP作为最小样本集,根据这4对GCP计算模型R的参数,变换模型如下:
其中,(x,y)为待评影像中控制点坐标,(X,Y)为Surf算法匹配出的(x,y)所对应的参考影像中的控制点坐标,该模型可校正由于几何失真引起的图像旋转和尺度变化、相机侧摆引起的图像尺度变化;
(2)将备选“内点”逐一代入上述描述的模型参数中,计算所有GCP在模型R下的累积残差,残差模型选取MSE模型,如下式所示,
(3)在完成一定的抽样次数后,选取最小累积残差所对应的模型R作为最终选定的计算模型;
(4)将该模型R下残差MSEi大于阈值t的GCP剔除。
5.根据权利要求1所述的基于多源遥感数据的在轨卫星图像几何定位精度评价方法,其特征在于步骤4中所述的根据步骤3提取出来的控制点集合A对待评图像进行几何关系补偿,几何补偿模型选择二次多项式模型,即利用待评图像和参考图像1中控制点对坐标按最小二乘原理求解出多项式系数,然后以此多项式模型表达待评图像和参考图像1之间的整体几何关系;多项式模型如下所示:
其中,参数a和b是通过特征点集合计算得到的,x和y分别代表待评影像的像素点的经纬度坐标,通过上述多项式模型得到新坐标,作为经纬度补偿后的值,即为补偿过程。
6.根据权利要求1所述的基于多源遥感数据的在轨卫星图像几何定位精度评价方法,其特征在于步骤5中所述的对待评图像2和参考图像2进行辐射增强,包括参数为高斯线性剪裁拉伸和wallis滤波;
5.1采用高斯线性剪裁拉伸,分别对待评图像2和参考图像2进行辐射增强,主要步骤如下:
(1)将直方图两端的灰度值进行剪裁;
(2)设定输出图像均值n,标准差,进行高斯拉伸,公式如下:
其中为图像标准差,为图像均值;
5.2采用wallis滤波分别对高斯线性剪裁拉伸后的待评图像和参考图像进行辐射增强。
7.根据权利要求1所述的基于多源遥感数据的在轨卫星图像几何定位精度评价方法,其特征在于步骤6中所述的快速筛选各个方向上的控制点对,其主要步骤如下:
6.1将经过图像中心的并且平行于所求方向的直线设定为基线方向,计算各个控制点到基线的距离作为各个控制点的特征描述;
6.2使用聚类算法对各个方向的控制点特征进行聚类,以减少控制点选择时的计算量,主要步骤如下:
(1)对所有控制点,根据它们的特征值进行从小到大的排序;
(2)计算排序后相邻控制点的特征值之差的绝对值,求出最大差值MAX_V和最小差值MIN_V;
(3)定义一个窗口阈值W=(MAX_V+MIN_V)/2,然后利用这个阈值对排序后的控制点进行分类;分类的方法如下:假设排序后的控制点特征值的序列为V={x1,x2,x3,…,xn},n为控制点的个数;定义目前的类别序号为L=1,计算D1=|x1-x2|,若D1<W,则认为x1和x2属于同一个类别,定义类别C1={x1,x2}.然后计算D2=|x2-x3|,若D2<W,则归并到C1类别当中去,否则L=L+1,创建一个新的类别C2={x3},如此类推,将所有控制点加以分类;
(4)若分类得到的类别数L大于预期的类别数时,加大窗口W=W+step,step是窗口增加的步长,重复第(3)步,直到类别数满足需求为止;
6.3在各个分类集合中,根据角度和长度对已有的控制点对进行筛选:
(1)角度筛选
首先计算两两控制点间的向量,然后计算各向量与基线的夹角αi,最后按照夹角对候选控制点进行排序;当αi小于给定的角度阈值α0时,该控制点对是符合选取要求的;
(2)长度筛选
计算控制点对间的像素点数目ni,当ni大于给定的长度阈值n0时,该控制点对是符合选取要求的。
CN201310507594.0A 2013-10-24 2013-10-24 基于多源遥感数据的在轨卫星图像几何定位精度评价方法 Active CN104574347B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310507594.0A CN104574347B (zh) 2013-10-24 2013-10-24 基于多源遥感数据的在轨卫星图像几何定位精度评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310507594.0A CN104574347B (zh) 2013-10-24 2013-10-24 基于多源遥感数据的在轨卫星图像几何定位精度评价方法

Publications (2)

Publication Number Publication Date
CN104574347A true CN104574347A (zh) 2015-04-29
CN104574347B CN104574347B (zh) 2019-01-11

Family

ID=53090324

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310507594.0A Active CN104574347B (zh) 2013-10-24 2013-10-24 基于多源遥感数据的在轨卫星图像几何定位精度评价方法

Country Status (1)

Country Link
CN (1) CN104574347B (zh)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104992400A (zh) * 2015-06-19 2015-10-21 北京邮电大学 多光谱图像配准方法和装置
CN105354841A (zh) * 2015-10-21 2016-02-24 武汉工程大学 一种快速遥感影像匹配方法及系统
CN105868761A (zh) * 2016-06-06 2016-08-17 黑龙江科技大学 一种与spot5影像匹配的城市森林植被覆盖度采样方法
CN106056605A (zh) * 2016-05-26 2016-10-26 西安空间无线电技术研究所 一种基于图像匹配的在轨高精度图像定位方法
CN106295641A (zh) * 2016-08-09 2017-01-04 鞍钢集团矿业有限公司 一种基于影像surf特征的边坡位移自动监测方法
CN106709870A (zh) * 2017-01-11 2017-05-24 辽宁工程技术大学 一种近景影像直线段匹配方法
CN106846384A (zh) * 2016-12-30 2017-06-13 中国人民解放军61540部队 一种多视角大倾斜线阵影像匹配方法及装置
CN107316280A (zh) * 2017-05-24 2017-11-03 三亚中科遥感研究所 离岛卫星影像rpc模型高精度几何定位方法
CN107563438A (zh) * 2017-08-31 2018-01-09 西南交通大学 一种快速鲁棒的多模态遥感影像匹配方法和系统
CN107796417A (zh) * 2016-09-06 2018-03-13 北京自动化控制设备研究所 一种自适应估计景象匹配与惯导安装误差的方法
CN108089162A (zh) * 2017-12-29 2018-05-29 中国电子科技集团公司第二十研究所 一种脉冲干扰信号的检测与抑制方法
CN108154526A (zh) * 2016-12-06 2018-06-12 奥多比公司 突发模式图像的图像对准
CN108241858A (zh) * 2016-12-23 2018-07-03 上海锦渡信息科技有限公司 一种两级影像分离式定位采集方法与系统
CN109255042A (zh) * 2018-08-29 2019-01-22 清华大学深圳研究生院 基于大规模街景数据的实时图片匹配地理定位方法和系统
CN109407699A (zh) * 2018-10-29 2019-03-01 宋永端 一种无人机室内自主飞行定位方法
CN110020659A (zh) * 2019-03-29 2019-07-16 武汉九天高分遥感技术有限公司 一种基于二进小波的遥感影像多尺度边缘提取与匹配方法和系统
CN110084743A (zh) * 2019-01-25 2019-08-02 电子科技大学 基于多航带起始航迹约束的图像拼接与定位方法
CN110097498A (zh) * 2019-01-25 2019-08-06 电子科技大学 基于无人机航迹约束的多航带图像拼接与定位方法
CN111144350A (zh) * 2019-12-30 2020-05-12 长光卫星技术有限公司 一种基于参考底图的遥感影像定位精度评价方法
CN111199523A (zh) * 2019-12-24 2020-05-26 深圳供电局有限公司 电力设备识别方法、装置、计算机设备和存储介质
CN111610001A (zh) * 2020-05-25 2020-09-01 中国科学院长春光学精密机械与物理研究所 一种宽幅遥感图像mtf地面模拟测试装置
CN111652826A (zh) * 2020-05-18 2020-09-11 哈尔滨工业大学 基于Wallis滤波+直方图匹配的有重多/高光谱遥感图像匀色方法
CN111678511A (zh) * 2020-04-29 2020-09-18 北京牡丹电子集团有限责任公司 一种机器人的多传感器融合定位方法和系统
CN112508938A (zh) * 2020-12-22 2021-03-16 中国科学院空天信息创新研究院 一种光学卫星影像几何质量评价方法、装置、设备和存储介质
CN113015924A (zh) * 2018-11-16 2021-06-22 宝马股份公司 基于来自一个或多个位置传感器的测量样本表征对象的装置和方法
CN114255051A (zh) * 2021-12-21 2022-03-29 中科星通(廊坊)信息技术有限公司 基于立体测绘卫星的正射产品的真实性检验方法
CN114358166A (zh) * 2021-12-29 2022-04-15 青岛星科瑞升信息科技有限公司 一种基于自适应k均值聚类的多目标定位方法
CN114383632A (zh) * 2021-12-23 2022-04-22 北京市遥感信息研究所 一种基于均方误差的光学星上处理目标定位精度评估方法
TWI767575B (zh) * 2020-02-25 2022-06-11 美商雷神公司 用於多影像地面控制點判定之方法、非暫時性機器可讀媒體及系統
WO2024012024A1 (zh) * 2022-07-14 2024-01-18 北京数慧时空信息技术有限公司 一种光学遥感影像几何质量可用性评价方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101339570B (zh) * 2008-08-12 2011-12-07 北京航空航天大学 一种高效的海量遥感数据分布式组织管理方法
CN102693542B (zh) * 2012-05-18 2015-02-11 中国人民解放军信息工程大学 一种影像特征匹配方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LEILEI GENG等: "Control Point Extraction in the Remote Sensing Image via Adaptive Filter", 《APPLIED MECHANICS AND MATERIALS VOLS》 *
耿蕾蕾等: ""资源三号"卫星图像影像特征匹配方法研究", 《航天返回与遥感》 *
陈艺虾: "遥感图像几何定位精度评价方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104992400B (zh) * 2015-06-19 2018-05-25 北京邮电大学 多光谱图像配准方法和装置
CN104992400A (zh) * 2015-06-19 2015-10-21 北京邮电大学 多光谱图像配准方法和装置
CN105354841A (zh) * 2015-10-21 2016-02-24 武汉工程大学 一种快速遥感影像匹配方法及系统
CN105354841B (zh) * 2015-10-21 2019-02-01 武汉工程大学 一种快速遥感影像匹配方法及系统
CN106056605A (zh) * 2016-05-26 2016-10-26 西安空间无线电技术研究所 一种基于图像匹配的在轨高精度图像定位方法
CN106056605B (zh) * 2016-05-26 2018-09-18 西安空间无线电技术研究所 一种基于图像匹配的在轨高精度图像定位方法
CN105868761A (zh) * 2016-06-06 2016-08-17 黑龙江科技大学 一种与spot5影像匹配的城市森林植被覆盖度采样方法
CN106295641A (zh) * 2016-08-09 2017-01-04 鞍钢集团矿业有限公司 一种基于影像surf特征的边坡位移自动监测方法
CN107796417B (zh) * 2016-09-06 2021-02-05 北京自动化控制设备研究所 一种自适应估计景象匹配与惯导安装误差的方法
CN107796417A (zh) * 2016-09-06 2018-03-13 北京自动化控制设备研究所 一种自适应估计景象匹配与惯导安装误差的方法
CN108154526A (zh) * 2016-12-06 2018-06-12 奥多比公司 突发模式图像的图像对准
CN108154526B (zh) * 2016-12-06 2023-09-22 奥多比公司 突发模式图像的图像对准
CN108241858B (zh) * 2016-12-23 2022-03-11 上海锦渡信息科技有限公司 一种两级影像分离式定位采集方法与系统
CN108241858A (zh) * 2016-12-23 2018-07-03 上海锦渡信息科技有限公司 一种两级影像分离式定位采集方法与系统
CN106846384A (zh) * 2016-12-30 2017-06-13 中国人民解放军61540部队 一种多视角大倾斜线阵影像匹配方法及装置
CN106709870B (zh) * 2017-01-11 2020-02-14 辽宁工程技术大学 一种近景影像直线段匹配方法
CN106709870A (zh) * 2017-01-11 2017-05-24 辽宁工程技术大学 一种近景影像直线段匹配方法
CN107316280B (zh) * 2017-05-24 2019-10-11 三亚中科遥感研究所 离岛卫星影像rpc模型高精度几何定位方法
CN107316280A (zh) * 2017-05-24 2017-11-03 三亚中科遥感研究所 离岛卫星影像rpc模型高精度几何定位方法
WO2019042232A1 (zh) * 2017-08-31 2019-03-07 西南交通大学 一种快速鲁棒的多模态遥感影像匹配方法和系统
US11244197B2 (en) 2017-08-31 2022-02-08 Southwest Jiaotong University Fast and robust multimodal remote sensing image matching method and system
CN107563438A (zh) * 2017-08-31 2018-01-09 西南交通大学 一种快速鲁棒的多模态遥感影像匹配方法和系统
CN107563438B (zh) * 2017-08-31 2019-08-30 西南交通大学 一种快速鲁棒的多模态遥感影像匹配方法和系统
CN108089162A (zh) * 2017-12-29 2018-05-29 中国电子科技集团公司第二十研究所 一种脉冲干扰信号的检测与抑制方法
CN109255042A (zh) * 2018-08-29 2019-01-22 清华大学深圳研究生院 基于大规模街景数据的实时图片匹配地理定位方法和系统
CN109255042B (zh) * 2018-08-29 2020-09-25 清华大学深圳研究生院 基于大规模街景数据的实时图片匹配地理定位方法和系统
CN109407699A (zh) * 2018-10-29 2019-03-01 宋永端 一种无人机室内自主飞行定位方法
CN113015924B (zh) * 2018-11-16 2024-04-12 宝马股份公司 基于来自一个或多个位置传感器的测量样本表征对象的装置和方法
CN113015924A (zh) * 2018-11-16 2021-06-22 宝马股份公司 基于来自一个或多个位置传感器的测量样本表征对象的装置和方法
CN110084743B (zh) * 2019-01-25 2023-04-14 电子科技大学 基于多航带起始航迹约束的图像拼接与定位方法
CN110097498A (zh) * 2019-01-25 2019-08-06 电子科技大学 基于无人机航迹约束的多航带图像拼接与定位方法
CN110084743A (zh) * 2019-01-25 2019-08-02 电子科技大学 基于多航带起始航迹约束的图像拼接与定位方法
CN110020659A (zh) * 2019-03-29 2019-07-16 武汉九天高分遥感技术有限公司 一种基于二进小波的遥感影像多尺度边缘提取与匹配方法和系统
CN111199523A (zh) * 2019-12-24 2020-05-26 深圳供电局有限公司 电力设备识别方法、装置、计算机设备和存储介质
CN111199523B (zh) * 2019-12-24 2023-08-25 深圳供电局有限公司 电力设备识别方法、装置、计算机设备和存储介质
CN111144350B (zh) * 2019-12-30 2022-02-11 长光卫星技术有限公司 一种基于参考底图的遥感影像定位精度评价方法
CN111144350A (zh) * 2019-12-30 2020-05-12 长光卫星技术有限公司 一种基于参考底图的遥感影像定位精度评价方法
TWI767575B (zh) * 2020-02-25 2022-06-11 美商雷神公司 用於多影像地面控制點判定之方法、非暫時性機器可讀媒體及系統
US11538135B2 (en) 2020-02-25 2022-12-27 Raytheon Company Automatic multi-image 3D ground control point extraction
CN111678511B (zh) * 2020-04-29 2022-04-08 北京牡丹电子集团有限责任公司 一种机器人的多传感器融合定位方法和系统
CN111678511A (zh) * 2020-04-29 2020-09-18 北京牡丹电子集团有限责任公司 一种机器人的多传感器融合定位方法和系统
CN111652826A (zh) * 2020-05-18 2020-09-11 哈尔滨工业大学 基于Wallis滤波+直方图匹配的有重多/高光谱遥感图像匀色方法
CN111610001A (zh) * 2020-05-25 2020-09-01 中国科学院长春光学精密机械与物理研究所 一种宽幅遥感图像mtf地面模拟测试装置
CN112508938A (zh) * 2020-12-22 2021-03-16 中国科学院空天信息创新研究院 一种光学卫星影像几何质量评价方法、装置、设备和存储介质
CN114255051B (zh) * 2021-12-21 2023-04-18 中科星通(廊坊)信息技术有限公司 基于立体测绘卫星的正射产品的真实性检验方法
CN114255051A (zh) * 2021-12-21 2022-03-29 中科星通(廊坊)信息技术有限公司 基于立体测绘卫星的正射产品的真实性检验方法
CN114383632A (zh) * 2021-12-23 2022-04-22 北京市遥感信息研究所 一种基于均方误差的光学星上处理目标定位精度评估方法
CN114383632B (zh) * 2021-12-23 2023-09-29 北京市遥感信息研究所 一种基于均方根误差的光学星上处理目标定位精度评估方法
CN114358166A (zh) * 2021-12-29 2022-04-15 青岛星科瑞升信息科技有限公司 一种基于自适应k均值聚类的多目标定位方法
CN114358166B (zh) * 2021-12-29 2023-11-07 青岛星科瑞升信息科技有限公司 一种基于自适应k均值聚类的多目标定位方法
WO2024012024A1 (zh) * 2022-07-14 2024-01-18 北京数慧时空信息技术有限公司 一种光学遥感影像几何质量可用性评价方法

Also Published As

Publication number Publication date
CN104574347B (zh) 2019-01-11

Similar Documents

Publication Publication Date Title
CN104574347A (zh) 基于多源遥感数据的在轨卫星图像几何定位精度评价方法
CN111583110B (zh) 一种航拍图像的拼接方法
CN103822616B (zh) 一种图分割与地形起伏约束相结合的遥感影像匹配方法
CN103337052B (zh) 面向宽幅遥感影像的自动几何纠正方法
CN112084869B (zh) 一种基于紧致四边形表示的建筑物目标检测方法
US10366501B2 (en) Method and apparatus for performing background image registration
KR100986809B1 (ko) 크기불변특징변환을 이용한 다중해상도 위성영상간자동기하보정 방법
Zhao et al. Road network extraction from airborne LiDAR data using scene context
CN109255781B (zh) 一种面向对象的多光谱高分辨率遥感影像变化检测方法
CN109523585B (zh) 一种基于方向相位一致性的多源遥感影像特征匹配方法
CN103106688A (zh) 基于双层配准方法的室内三维场景重建方法
CN104077760A (zh) 一种航空摄影测量的快速拼接系统及其实现方法
CN109376641B (zh) 一种基于无人机航拍视频的运动车辆检测方法
CN110334762A (zh) 一种基于四叉树结合orb和sift的特征匹配方法
CN111160192A (zh) 基于海岸线状特征的遥感图像定位方法
Gao et al. A general deep learning based framework for 3D reconstruction from multi-view stereo satellite images
Li et al. Spatiotemporal fuzzy clustering strategy for urban expansion monitoring based on time series of pixel-level optical and SAR images
Ji et al. An evaluation of conventional and deep learning‐based image‐matching methods on diverse datasets
CN109300115B (zh) 一种面向对象的多光谱高分辨率遥感影像变化检测方法
CN114266947A (zh) 一种基于激光点云和可见光图像融合的分类方法及装置
CN105631860A (zh) 基于局部排序方向直方图描述子的图像同名点提取方法
Hussnain et al. Automatic feature detection, description and matching from mobile laser scanning data and aerial imagery
CN112837353A (zh) 一种基于多阶特征点线匹配的异源影像匹配方法
CN110084203B (zh) 基于上下文关联的全卷积网络飞机层级检测方法
CN115457022B (zh) 基于实景三维模型正视影像的三维形变检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant