CN105469415A - 多视角遥感图像融合方法 - Google Patents
多视角遥感图像融合方法 Download PDFInfo
- Publication number
- CN105469415A CN105469415A CN201510999147.0A CN201510999147A CN105469415A CN 105469415 A CN105469415 A CN 105469415A CN 201510999147 A CN201510999147 A CN 201510999147A CN 105469415 A CN105469415 A CN 105469415A
- Authority
- CN
- China
- Prior art keywords
- formula
- remote sensing
- dot matrix
- matrix
- sensing images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Landscapes
- Image Processing (AREA)
Abstract
多视角遥感图像融合方法,涉及地理信息技术领域。本发明是为了解决现有的配准技术对地面起伏变化或者图像发生的多视角变化产生的非刚性变换的配准具有局限性,导致配准精度低的问题。本发明步骤一、通过卫星图或者无人机获取同一位置不同视角的多组遥感图像,步骤二、采用尺度不变特征转换算法对步骤一中获取的多组遥感图像的特征点进行提取,分别得到点阵a和点阵b,步骤三、采用基于全局和局部混合向量和特征的非刚性点阵配准方法对不同状态下的两组点阵a和b进行配准,利用仿射变换对步骤三获得的遥感图像在发生视角变换前后的对应关系进行转换并输出配准结果,从而实现对多视角遥感图像的融合。它用于对图像发生多视角变化时的图像融合。
Description
技术领域
本发明涉及多视角遥感图像融合方法,属于地理信息技术领域。
背景技术
目前,多视角遥感图像融合技术在航空测量、斜影测量、新型导航以及地图更新等地理信息系统领域扮演着重要的角色。然而,当地面起伏变化或者图像发生多视角变化时会发生一些非刚性变换,当前所用的配准技术在精度上会受到显著影响,具有一定的局限性。
发明内容
本发明是为了解决现有的配准技术对地面起伏变化或者图像发生的多视角变化产生的非刚性变换的配准具有局限性,导致配准精度低的问题。现提供多视角遥感图像融合方法。
多视角遥感图像融合方法,该方法包括以下步骤:
步骤一、通过卫星图或者无人机获取同一位置不同视角的多组遥感图像,
步骤二、采用尺度不变特征转换算法对步骤一中获取的多组遥感图像的特征点进行提取,分别得到点阵a和点阵b,
步骤三、采用基于全局和局部混合向量和特征的非刚性点阵配准方法对不同状态下的两组点阵a和b进行配准,配准过程如下:
步骤三一、首先创建一个可变形的代理点阵aw,在每一步的迭代中,获得aw在点阵b中的对应点bc,其中,aw的初始状态等于源点阵a;
步骤三二、根据步骤三一的对应关系建立薄板样条函数空间变换,使用薄板样条函数空间变换更新aw的空间位置和几何形状,步骤三一与步骤三二交替进行使得点阵aw在空间位置和几何形态上逐渐接近目标点阵b;
步骤三三、最终找到aw在目标点阵b中的真实对应点,获得遥感图像在发生视角变换前后的对应关系;
步骤四、利用仿射变换对步骤三三获得的遥感图像在发生视角变换前后的对应关系进行转换并输出配准结果,从而实现对多视角遥感图像的融合。
本发明的有益效果为:采用卫星图或者无人机获取同一位置不同视角的多组遥感图像,读入遥感图像,采用尺度不变特征转换算法来对图像的特征点进行提取,分别得到点阵a和点阵b。采用基于全局和局部混合向量和特征的非刚性点阵配准方法对不同状态下的两组点阵a和b进行配准,最终找到aw在目标点阵b中的真实对应点,获得遥感图像在发生视角变换前后的对应关系;最后采用仿射变换对图像进行转换并输出配准结果,采用该方法进行进行图像融合精度高,与现有的融合方法相比精度高了3倍以上。
附图说明
图1为具体实施方式一所述的多视角遥感图像融合方法的流程图。
具体实施方式
具体实施方式一:参照图1具体说明本实施方式,本实施方式所述的多视角遥感图像融合方法,该方法包括以下步骤:
步骤一、通过卫星图或者无人机获取同一位置不同视角的多组遥感图像,
步骤二、采用尺度不变特征转换算法对步骤一中获取的多组遥感图像的特征点进行提取,分别得到点阵a和点阵b,
步骤三、采用基于全局和局部混合向量和特征的非刚性点阵配准方法对不同状态下的两组点阵a和b进行配准,配准过程如下:
步骤三一、首先创建一个可变形的代理点阵aw,在每一步的迭代中,获得aw在点阵b中的对应点bc,其中,aw的初始状态等于源点阵a;
步骤三二、根据步骤三一的对应关系建立薄板样条函数空间变换,使用薄板样条函数空间变换更新aw的空间位置和几何形状,步骤三一与步骤三二交替进行使得点阵aw在空间位置和几何形态上逐渐接近目标点阵b;
步骤三三、最终找到aw在目标点阵b中的真实对应点,获得遥感图像在发生视角变换前后的对应关系;
步骤四、利用仿射变换对步骤三三获得的遥感图像在发生视角变换前后的对应关系进行转换并输出配准结果,从而实现对多视角遥感图像的融合。
本实施方式中,使用非刚性点阵配准技术,我们可以对不同状态下(例如原遥感图像和经过视角变换的遥感图像)的两组点阵进行配准。为了对不同状态下的两组点阵进行非刚性配准,本发明设计出了全新的基于全局和局部混合向量和特征的非刚性点阵配准方法。
本实施方式中,全局和局部混合向量和特征的优点:
1、在处理多视角遥感图像时,利用尺度不变特征转换算法(SIFT)找出的特征点无几
何关系,此时,利用向量空间分布找出的对应关系效果更好。
2、该方法对于处理点阵比较密集,特征点比较多的图像优势更为明显。
3、对于发生了旋转之后的多视角遥感图像的配准,采用混合向量和特征进行配准效果更好。
具体实施方式二:本实施方式是对具体实施方式一所述的多视角遥感图像融合方法作进一步说明,本实施方式中,步骤三中全局和局部混合向量和特征的方程为:
根据公式:
(公式1),
获得全局结构特征差异矩阵矩阵中的每个元素值为两个向量和相减后的模,
式中, 为点ai到点ak的几何向量,为点bj到bk的几何向量,i和j均为正整数,n和m均为公式中的上界,
根据公式:
(公式2),
获得局部结构特征差异矩阵
式中,K是邻近点的数量,n(ai)k为点ai的第k个邻近点,n(bj)k为点bj的第k个邻近点,T是平移函数,T(n(ai)k,bj)=n(ai)k+(bj-ai)。
具体实施方式三:本实施方式是对具体实施方式二所述的多视角遥感图像融合方法作进一步说明,本实施方式中,步骤三一中首先创建一个可变形的代理点阵aw,在每一步的迭代中,获得aw在点阵b中的对应点bc的步骤为:
根据能量优化方程:
获得在每一次迭代中,从点阵aw到点阵b的一一对应关系,
式中,Mij满足∑Mij=1forj∈mand∑Mij=1fori∈n,α是一个权重变量,用来调节能量优化时 和 的比重,
根据公式:
bc=Mb(公式4),
更新当前迭代的对应点集bc。
本实施方式中,在每一次迭代中,点阵aw和b的对应关系通过最小化基于混合特征的能量优化方程 获得,基于混合特征的能量优化在本文中被看做一个线性分配问题,所以,可以通过Jonker-Volgenant算法来求解,即在配准之前,我们首先将需要配准的点阵坐标缩放至[0,1]之间,然后在每一次迭代中把计算出来的全局和局部结构特征差异矩阵通过使用和进行数值处理,其中R被设置为106。
通过使用Jonker-Volgenant算法求解的对应关系矩阵M确保了从点阵aw到点阵b的一一对应关系。当前迭代的对应点集bc由下式进行更新:bc=M.b。
具体实施方式四:本实施方式是对具体实施方式一所述的多视角遥感图像融合方法作进一步说明,本实施方式中,步骤三二中使用薄板样条函数空间变换更新aw的空间位置和几何形状的过程为:
根据能量方程:
ETPS(d,w)=||bc-ad-Φw||2+λtrace(wTΦw)(公式5),
获得仿射系数矩阵d和非刚性变形系数矩阵w,
式中,λ是一个正规化变量,Φ是由φ(a)计算而来的内核矩阵,是薄板样条函数的内核函数,在2D和3D的情况下分别为:
φ(a)=||a-ac||2log||a-ac||和φ(a)=||a-ac||,ac是在点阵a中选取的一组控制点,
利用QR分解技术,将 带入公式3中,获得公式为:
其中,Q1是N×D的矩阵,表示Q1的倒置矩阵,Q2是N×(N-D)的矩阵,R1为D×D的矩阵,w=Q2γ,γ为(N-D-1)×(D+1),N和D代表矩阵的行数和列数,bc为a的对应点集,
最终获得方程:
式中,为w的解,为d的解,
将公式7和公式8带入公式:
aw=ad+Φw(公式9),
获得可变形点阵aw的新位置。
本实施方式中,λ是一个正规化变量,同时其大小被使用退火算法控制。
我们使用了退火算法。在退火算法中我们使用了一个温度变量T。这个温度变量T开始于一个高温度值Tinit,退火处理停止在当变量T达到一个指定的低温度值Tfinal。在退火过程中,T通过T=T×r逐步降低,r被称之为退火率。
使用退火算法的主要目的有两个:
1、用于降低前述混合向量特征中的权重变量α(α=αinit×T),使得最小化总消耗方程可
以从最小化局部结构差异到全局结构差异。
2、用于降低TPS能量方程中的λ(λ=λinit×T),使得TPS(薄板样条函数)空间变换方程可以从刚性变换逐渐转变为非刚性变换。
参数设置:
1、退火参数:Tinit,Tfinal和λ是用于设置迭代次数的参数。在算法中,这三个参数的设置目的是为整个配准过程提供必要的迭代次数。通过前期的基础实验,我们把Tinit的值设为点阵a与点阵b之间最大距离的平方的十分之一;把Tfinal的值设为点阵a中相邻点的平均平方距离(MeanSquaredDistance)的八分之一;把r设为0.7。
2、权重参数:在配准初期,把权重变量α设为一个较大的值可以使得整个配准过程集中在最小化局部结构差异。因此,我们把αinit设为邻近点个数的平方K2。
3、正规化参数:参数λ的值被设置为很大的值,以至于确保TPS空间变换可以在配准初期处于刚性变换。我们把Tinit的值设为点阵a中点的个数。
4、邻近点个数:邻近点个数K都被设置为5。
通过上述非刚性配准算法对指定的遥感图像和经过不同视角变换后的遥感图像进行配准,并与当前其他国际著名配准技术进行对比,显示出了我们算法在配准精度上的优越性。
分别采用本申请的方法、CPD(CoherentPointDrift)算法、SURF(Speededuprobustfeatures)算法和尺度不变特征变换SIFT(Scale-invariantfeaturetransform)算法对选取的湄公河A、北京B、牛栏江C、纽约D、和拉斯维加斯E这五个地方的卫星图像进行配准,获得图像数据集的像素,像素单位为pix,对该图像的数据集进行精度对比,如表1:
表1:
采用本发明的方法对无人机获得的ABCDE五组图像进行配准,获得的ABCDE五组实验数据结果如表2:
表2:
具体实施方式五:本实施方式是对具体实施方式一所述的多视角遥感图像融合方法作进一步说明,本实施方式中,步骤四中,利用仿射变换对步骤三三获得的遥感图像在发生视角变换前后的对应关系进行转换并输出配准结果的过程为:
根据仿射变换公式:
It(x,y)=Is(T(x,y))(公式10),
获得转换后的图像It和原遥感图像Is的关系式,
式中,T(x,y)是两张不同视角遥感图像的评估仿射模型。
仿射变换公式还能够被定义为:
其中,aw为源点阵a的对应点阵,ax和ay为源点阵的坐标,和代表特征点阵aw的坐标,
矩阵 和 已知,则仿射模型
通过
Claims (5)
1.多视角遥感图像融合方法,其特征在于,该方法包括以下步骤:
步骤一、通过卫星图或者无人机获取同一位置不同视角的多组遥感图像,
步骤二、采用尺度不变特征转换算法对步骤一中获取的多组遥感图像的特征点进行提取,分别得到点阵a和点阵b,
步骤三、采用基于全局和局部混合向量和特征的非刚性点阵配准方法对不同状态下的两组点阵a和b进行配准,配准过程如下:
步骤三一、首先创建一个可变形的代理点阵aw,在每一步的迭代中,获得aw在点阵b中的对应点bc,其中,aw的初始状态等于源点阵a;
步骤三二、根据步骤三一的对应关系建立薄板样条函数空间变换,使用薄板样条函数空间变换更新aw的空间位置和几何形状,步骤三一与步骤三二交替进行使得点阵aw在空间位置和几何形态上逐渐接近目标点阵b;
步骤三三、最终找到aw在目标点阵b中的真实对应点,获得遥感图像在发生视角变换前后的对应关系;
步骤四、利用仿射变换对步骤三三获得的遥感图像在发生视角变换前后的对应关系进行转换并输出配准结果,从而实现对多视角遥感图像的融合。
2.根据权利要求1所述的多视角遥感图像融合方法,其特征在于,步骤三中全局和局部混合向量和特征的方程为:
根据公式:
获得全局结构特征差异矩阵矩阵中的每个元素值为两个向量和相减后的模,
式中, 为点ai到点ak的几何向量,为点bj到bk的几何向量,i和j均为正整数,n和m均为公式中的上界,且n和m均为正整数,
根据公式:
获得局部结构特征差异矩阵
式中,K是邻近点的数量,n(ai)k为点ai的第k个邻近点,n(bj)k为点bj的第k个邻近点,T是平移函数,T(n(ai)k,bj)=n(ai)k+(bj-ai)。
3.根据权利要求2所述的多视角遥感图像融合方法,其特征在于,步骤三一中首先创建一个可变形的代理点阵aw,在每一步的迭代中,获得aw在点阵b中的对应点bc的步骤为:
根据能量优化方程:
(公式3),
获得在每一次迭代中,从点阵aw到点阵b的一一对应关系,
式中,Mij满足∑Mij=1forj∈mand∑Mij=1fori∈n,α是一个权重变量,用来调节能量优化时和的比重,
根据公式:
bc=Mb(公式4),
更新当前迭代的对应点集bc。
4.根据权利要求1所述的多视角遥感图像融合方法,其特征在于,步骤三二中使用薄板样条函数空间变换更新aw的空间位置和几何形状的过程为:
根据能量方程:
ETPS(d,w)=||bc-ad-Φw||2+λtrace(wTΦw)(公式5),
获得仿射系数矩阵d和非刚性变形系数矩阵w,
式中,λ是一个正规化变量,Φ是由φ(a)计算而来的内核矩阵,是薄板样条函数的内核函数,在2D和3D的情况下分别为:
φ(a)=||a-ac||2log||a-ac||和φ(a)=||a-ac||,ac是在点阵a中选取的一组控制点,
利用QR分解技术,将带入公式3中,获得公式为:
(公式6),
其中,Q1是N×D的矩阵,表示Q1的倒置矩阵,Q2是N×(N-D)的矩阵,R1为D×D的矩阵,w=Q2γ,γ为(N-D-1)×(D+1),N和D代表矩阵的行数和列数,bc为a的对应点集,
最终获得方程:
(公式7)和(公式8),
式中,为w的解,为d的解,
将公式7和公式8带入公式:
aw=ad+Φw(公式9),
获得可变形点阵aw的新位置。
5.根据权利要求1所述的多视角遥感图像融合方法,其特征在于,步骤四中,利用仿射变换对步骤三三获得的遥感图像在发生视角变换前后的对应关系进行转换并输出配准结果的过程为:
根据仿射变换公式:
It(x,y)=Is(T(x,y))(公式10),
获得转换后的图像It和原遥感图像Is的关系式,
式中,T(x,y)是两张不同视角遥感图像的评估仿射模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510999147.0A CN105469415A (zh) | 2015-12-28 | 2015-12-28 | 多视角遥感图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510999147.0A CN105469415A (zh) | 2015-12-28 | 2015-12-28 | 多视角遥感图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105469415A true CN105469415A (zh) | 2016-04-06 |
Family
ID=55607074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510999147.0A Pending CN105469415A (zh) | 2015-12-28 | 2015-12-28 | 多视角遥感图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105469415A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108121764A (zh) * | 2016-11-26 | 2018-06-05 | 星克跃尔株式会社 | 图像处理装置、图像处理方法、电脑程序及电脑可读取记录介质 |
CN109448031A (zh) * | 2018-09-28 | 2019-03-08 | 武汉大学 | 基于高斯场约束和流形正则化的图像配准方法及系统 |
CN112488029A (zh) * | 2020-12-10 | 2021-03-12 | 重庆邮电大学 | 一种基于空地协同的车辆检测方法 |
CN113962897A (zh) * | 2021-11-02 | 2022-01-21 | 中国空间技术研究院 | 基于序列遥感影像的调制传递函数补偿方法及装置 |
CN117934518A (zh) * | 2024-03-21 | 2024-04-26 | 国家海洋局南海规划与环境研究院 | 用于海洋国土空间详细规划的遥感图像分割方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080037845A1 (en) * | 2006-07-26 | 2008-02-14 | Yu Deuerling-Zheng | Accelerated image registration by means of parallel processors |
CN103020945A (zh) * | 2011-09-21 | 2013-04-03 | 中国科学院电子学研究所 | 一种多源传感器的遥感图像配准方法 |
CN105160686A (zh) * | 2015-10-21 | 2015-12-16 | 武汉大学 | 一种基于改进sift算子的低空多视角遥感影像匹配方法 |
-
2015
- 2015-12-28 CN CN201510999147.0A patent/CN105469415A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080037845A1 (en) * | 2006-07-26 | 2008-02-14 | Yu Deuerling-Zheng | Accelerated image registration by means of parallel processors |
CN103020945A (zh) * | 2011-09-21 | 2013-04-03 | 中国科学院电子学研究所 | 一种多源传感器的遥感图像配准方法 |
CN105160686A (zh) * | 2015-10-21 | 2015-12-16 | 武汉大学 | 一种基于改进sift算子的低空多视角遥感影像匹配方法 |
Non-Patent Citations (4)
Title |
---|
HAILI CHUI 等: "A new point matching algorithm for non-rigid registration", 《COMPUTER VISION & IMAGE UNDERSTANDING》 * |
YANG YANG 等: "A robust global and local mixture distance based non-grid point set registration", 《PATTERN RECOGNITION》 * |
杭利华 等: "基于仿射变换与B样条自由形变的医学图像配准", 《兰州交通大学学报》 * |
纪华 等: "结合全局信息的SIFT特征匹配算法", 《光学精密工程》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108121764A (zh) * | 2016-11-26 | 2018-06-05 | 星克跃尔株式会社 | 图像处理装置、图像处理方法、电脑程序及电脑可读取记录介质 |
CN108121764B (zh) * | 2016-11-26 | 2022-03-11 | 星克跃尔株式会社 | 图像处理装置、图像处理方法、电脑程序及电脑可读取记录介质 |
CN109448031A (zh) * | 2018-09-28 | 2019-03-08 | 武汉大学 | 基于高斯场约束和流形正则化的图像配准方法及系统 |
CN109448031B (zh) * | 2018-09-28 | 2021-04-16 | 武汉大学 | 基于高斯场约束和流形正则化的图像配准方法及系统 |
CN112488029A (zh) * | 2020-12-10 | 2021-03-12 | 重庆邮电大学 | 一种基于空地协同的车辆检测方法 |
CN112488029B (zh) * | 2020-12-10 | 2022-07-08 | 重庆邮电大学 | 一种基于空地协同的车辆检测方法 |
CN113962897A (zh) * | 2021-11-02 | 2022-01-21 | 中国空间技术研究院 | 基于序列遥感影像的调制传递函数补偿方法及装置 |
CN117934518A (zh) * | 2024-03-21 | 2024-04-26 | 国家海洋局南海规划与环境研究院 | 用于海洋国土空间详细规划的遥感图像分割方法及系统 |
CN117934518B (zh) * | 2024-03-21 | 2024-06-04 | 国家海洋局南海规划与环境研究院 | 用于海洋国土空间详细规划的遥感图像分割方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105469415A (zh) | 多视角遥感图像融合方法 | |
CN102622653B (zh) | 风场影响下微型无人飞行器的多分辨率路径规划方法 | |
CN109658450B (zh) | 一种基于无人机的快速正射影像生成方法 | |
CN110009674A (zh) | 基于无监督深度学习的单目图像景深实时计算方法 | |
CN107016649A (zh) | 一种基于局部低秩张量估计的视觉数据补全方法 | |
CN109035327B (zh) | 基于深度学习的全景相机姿态估计方法 | |
CN106683185B (zh) | 一种基于大数据的高精度曲面建模方法 | |
CN104165750A (zh) | 立体视觉结合陀螺仪风洞模型位姿测量方法 | |
CN104615880B (zh) | 一种三维激光雷达点云匹配的快速icp方法 | |
CN105956074A (zh) | 邻近位姿融合引导的单幅图像场景六自由度定位方法 | |
Yin et al. | SLAM-based self-calibration of a binocular stereo vision rig in real-time | |
CN104318551A (zh) | 基于凸包特征检索的高斯混合模型点云配准方法 | |
CN103247033A (zh) | 一种基于影像选取控制点的矢量数据纠正方法 | |
CN109670547A (zh) | 一种多尺度序列图像匹配的位置识别定位方法 | |
Lee et al. | Connectivity-based convolutional neural network for classifying point clouds | |
CN106485074B (zh) | 一种基于自适应采样率的海洋温盐场采样方法 | |
CN102708589A (zh) | 一种基于特征聚类的三维目标多视点视图建模方法 | |
CN103116888A (zh) | 利用平面三角形求解摄像机的内参数 | |
CN107330934B (zh) | 低维度的集束调整计算方法与系统 | |
CN102682223A (zh) | 一种蛋白质冷冻电镜密度图结构检测方法 | |
CN115795402B (zh) | 一种基于变分法的多源降水数据融合方法和系统 | |
CN107748834A (zh) | 一种计算起伏观测面磁场的快速、高精度数值模拟方法 | |
CN105427371B (zh) | 一种三维透视投影场景中保持图形对象等像素面积显示的方法 | |
Dan et al. | Multifeature energy optimization framework and parameter adjustment-based nonrigid point set registration | |
Zhao et al. | 3D component segmentation network and dataset for non-cooperative spacecraft |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160406 |
|
WD01 | Invention patent application deemed withdrawn after publication |