CN117173224A - 基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法 - Google Patents

基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法 Download PDF

Info

Publication number
CN117173224A
CN117173224A CN202311147759.8A CN202311147759A CN117173224A CN 117173224 A CN117173224 A CN 117173224A CN 202311147759 A CN202311147759 A CN 202311147759A CN 117173224 A CN117173224 A CN 117173224A
Authority
CN
China
Prior art keywords
image
algorithm
unmanned aerial
aerial vehicle
cross
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311147759.8A
Other languages
English (en)
Inventor
黄林生
王浩宇
樊江川
郭新宇
肖鹏亮
吴延东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Original Assignee
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University filed Critical Anhui University
Priority to CN202311147759.8A priority Critical patent/CN117173224A/zh
Publication of CN117173224A publication Critical patent/CN117173224A/zh
Pending legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法,包括:获取无人机大田影像以及与无人机大田影像对应的位姿信息;对每张无人机大田影像进行重投影,得到初始投影矩阵;通过Delauny算法构成三角剖分网络;通过三角剖分网络中的节点,每两个节点对应的影像通过SIFT算子做特征点匹配;生成拼接顺序;获得全景图;计算全景图的全局配准误差,对全景图的全局配准误差进行优化。针对大田无人机影像特征点匹配不易、容易出现误匹配的情况,本发明采用互相关系数可以检验特征点误匹配;本发明采用Delauny算法构建三角剖分网络,可极大降低局部配准的次数;本发明可以参与的无人机影像数量大。

Description

基于Delauny算法和Kruskal最大生成树算法的大田影像拼接 方法
技术领域
本发明涉及摄影测量学和图像处理技术领域,尤其是一种基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法。
背景技术
在农业生产中,精准获取大田作物的表型信息至关重要,如叶绿素含量、生物量、作物产量等。在大田中,手动操作仪器获取一些表型信息费时费力,效率极低,无法在短时间内获得作物的表型信息。及时准确地对作物的表型信息进行估计,可以反映作物的生长状况,及时作出相应的措施,对提高作物产量、抗旱、抗倒伏等情况具有积极意义。随着遥感卫星、无人机平台和专业的作物表型平台的迅速发展,通过表型平台携带可见光相机、多光谱相机和激光雷达等传感器获取大田数据,反演作物表型信息成为了重要方式,其中,对可见光或者多光谱相机获取的影像进行拼接必不可少。
遥感卫星获取渐渐成为一种获取表型参数的平台,具有时间分辨率高,效率高的优势,通常对大面积范围内的作物非常有效,但遥感获取的影像空间分辨率低,容易出现混元现象;无人机平台采集大田影像,起降灵敏、易于操作,相对于遥感平台,空间分辨率更高,但面临影像覆盖范围有限、影像数量较多等问题,需要将多幅影像拼接观察整个拍摄区域的原貌。因此,影像拼接算法是获取大田作物的表型信息的关键技术之一。
大田影像具有地物单调、特征点容易误匹配的特点。目前的研究中,参与的无人机影像细节较丰富,特征点匹配容易,参与拼接的影像数量少,没有针对大田影像的特点进行分析;或者只是将其中两张无人机获取的大田影像拼接,没有考虑到将多幅大田影像放在全景图中拼接。
发明内容
为解决大田影像易误匹配、参与影像太少的问题,本发明的目的在于提供一种可以检验特征点误匹配,可极大降低局部配准的次数,可参与的无人机影像数量大的基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法。
为实现上述目的,本发明采用了以下技术方案:一种基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法,该方法包括下列顺序的步骤:
(1)获取无人机大田影像以及与无人机大田影像对应的位姿信息,每张无人机大田影像的位姿信息包括内方位元素和外方位元素;所述内方位元素包括内参矩阵、焦距和畸变参数,所述外方位元素包括Xs、Ys、Zs、ω、和γ,其中,Xs、Ys、Zs为摄影中心坐标,ω、γ为方位角;
(2)根据无人机大田影像的内方位元素和外方位元素对每张无人机大田影像进行重投影,得到初始投影矩阵;
(3)由无人机大田影像的摄影中心坐标Xs、Ys构成节点,通过Delauny算法构成三角剖分网络;
(4)通过三角剖分网络中的节点,每两个节点对应的影像通过SIFT算子做特征点匹配,然后通过初始投影矩阵求得单应性矩阵并投影,若投影后的互相关系数大于0.5或者小于-0.5,则保留互相关系数及对应的特征点匹配结果;否则删除互相关系数及对应的特征点匹配结果;
(5)将步骤(4)保留的互相关系数作为权值,保留的互相关系数对应的影像序号作为节点构成无向图,通过Kruskal最大生成树算法和DFS遍历算法生成拼接顺序;
(6)以拼接顺序的第一个节点作为全景图的基准,按照拼接顺序和保留的特征点匹配结果进行投影,获得全景图;
(7)计算全景图的全局配准误差,对全景图的全局配准误差进行优化。
所述步骤(2)具体包括以下步骤:
(2a)首先,根据内参矩阵和畸变参数将无人机大田影像进行去畸变操作,如式(1)所示,并保存去畸变影像;
其中,(x,y)为像素坐标,r2=x2+y2,k1,k2,k3均为径向畸变参数,p1,p2均为切向畸变参数,xdistortion和ydistortion为畸变量;
(2b)根据无人机影像的外方位元素、无人机相机焦距,获取影像的4个角的wgs84坐标即4个角点坐标(x1,y1)、(x2,y2)、(x3,y3)和(x4,y4),由共线原理得到在地面平均高程处与4个角点的共线坐标(X1,Y1,Zavr)、(X2,Y2,Zavr)、(X3,Y3,Zavr)和(X4,Y4,Zavr):
其中,Zavr为平均高程,f为焦距,λ为缩放系数,
(2c)根据影像的4个角点坐标与步骤(2b)获得的共线坐标,求对应的单应性矩阵,并作为初始投影矩阵保存:
其中,初始投影矩阵h0至h7为初始投影矩阵H的元素。
所述步骤(3)具体是指:每张影像的坐标[Xs,Ys]作为节点,通过Delauny算法,生成三角剖分网络,如果该网络中的节点与节点之间有边连接,则表明两个节点对应的影像可能有重叠部分,最后按照格式[节点,节点]保存。
所述步骤(4)具体包括以下步骤:
(4a)通过步骤(3)获得的三角剖分网络,每两个节点i和j对应的影像通过SIFT算子提取各自的特征点和特征向量,假设需要通过单应性矩阵将投影影像i投影到参考影像j的坐标系内;
(4b)对提取的特征向量做比值粗匹配和ransac算法精匹配,然后求单应性矩阵Hi,j;通过求得的单应性矩阵Hi,j,得到将投影影像投影到参考影像坐标系的单应性矩阵:
Hi=Hi,jHj (4)
其中,Hi和Hj分别为影像i和j的初始投影矩阵;
(4c)计算重叠区域像素的互相关系数,如式(5)所示,互相关系数大于0,则表明重叠相似程度正相关,越接近1相关程度越高;互相关系数小于0,表明重叠区域程度负相关,越接近-1相关程度越高;互相关系数等于0,表明重叠区域不相关:
其中,ncc表示互相关系数,m表示重叠区域内像素的数量,Ii,p表示影像i在重叠区域内第p个像素的灰度,Ij,p表示影像j在重叠区域内第p个像素的灰度;表示影像i在重叠区域内像素灰度的平均值,/>表示影像j在重叠区域内像素灰度的平均值;
(4d)如果互相关系数小于0.5且大于-0.5,表明配准效果太差,很可能出现特征点误匹配,将互相关系数小于0.5且大于-0.5对应的特征点匹配结果删除,将剩余的特征点匹配结果保存。
所述步骤(5)具体包括以下步骤:
(5a)将步骤(4)保留的互相关系数放大到100倍,并取绝对值作为权值E,将保留的互相关系数对应的影像序号作为节点V构成无向图G=<V,E>;
(5b)通过Kruskal最大生成树算法,生成最大生成树,以权值最大的边的节点为起始节点,通过DFS遍历算法生成影像的拼接顺序。
所述步骤(6)具体包括以下步骤:
(6a)以拼接顺序中的第一张影像为全景图的基准,将初始投影矩阵作为第一张影像的单应性矩阵;
(6b)按照拼接顺序逐个通过SIFT算子做特征点匹配,记录该影像的单应性矩阵,同时对重叠区域进行图像融合,反复执行步骤(6b),直到所有影像全部拼接完毕,得到全景图。
所述步骤(7)具体包括以下步骤:
(7a)拼接完毕后,计算无向图的节点之间的误差:
其中,errori,j表示影像i和影像j的局部配准误差,n为影像i和影像j的特征点匹配的数量;(xi,k,yi,k)为影像i的第k个特征点,(xj,k,yj,k)为影像j的第k个特征点,Hi(xi,k,yi,k)为影像i的第k个特征点通过单一性矩阵Hi变换到全景图中的坐标,Hj(xj,k,yj,k)为影像j的第k个特征点单一性矩阵Hj变换到全景图中的坐标;
(7b)计算全局配准误差:
其中,error表示全局配准误差,其中i∈[0,s],j∈[0,t];
(7c)利用Nelder-Mead内德-美德算法优化全局配准误差,保存优化后各影像变换到全景图中的单应性矩阵;
(7d)根据保存的单应性矩阵,将影像变换到全景图中。
由上述技术方案可知,本发明的有益效果为:第一,针对大田无人机影像特征点匹配不易、容易出现误匹配的情况,本发明采用互相关系数可以检验特征点误匹配;第二,本发明采用Delauny算法构建三角剖分网络,可极大降低局部配准的次数;第三,本发明可以参与的无人机影像数量大;第四,本发明通过对132张无人机大田影像作为研究对象,解决了大田影像易误匹配、参与影像太少的缺点;第五,特征点误匹配会导致计算单应性矩阵出错,对后续影像的单应性矩阵的计算造成重大影响,本发明利用互相关系数检验特征点是否出现误匹配,剔除了配准效果差的特征点对;第六,本发明利用Nelder-Mead内德-美德算法优化配准结果,一定程度上可以减轻全局误差。
附图说明
图1为本发明的方法流程图;
图2为Delauny算法构成的三角剖分网络示意图;
图3为本发明中各影像间影像局部配准的结果示意图;
图4为本发明中将部分权值剔除的结果示意图;
图5为本发明中生成的拼接顺序示意图;
图6为本发明中的全景图;
图7为本发明优化后的全景图。
具体实施方式
如图1所示,一种基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法,该方法包括下列顺序的步骤:
(1)获取无人机大田影像以及与无人机大田影像对应的位姿信息,每张无人机大田影像的位姿信息包括内方位元素和外方位元素;所述内方位元素包括内参矩阵、焦距和畸变参数,所述外方位元素包括Xs、Ys、Zs、ω、和γ,其中,Xs、Ys、Zs为摄影中心坐标,ω、γ为方位角;
(2)根据无人机大田影像的内方位元素和外方位元素对每张无人机大田影像进行重投影,得到初始投影矩阵;
(3)由无人机大田影像的摄影中心坐标Xs、Ys构成节点,通过Delauny算法即德劳奈三角剖分算法构成三角剖分网络;
(4)通过三角剖分网络中的节点,每两个节点对应的影像通过SIFT算子做特征点匹配,然后通过初始投影矩阵求得单应性矩阵并投影,若投影后的互相关系数大于0.5或者小于-0.5,则保留互相关系数及对应的特征点匹配结果;否则删除互相关系数及对应的特征点匹配结果;
(5)将步骤(4)保留的互相关系数作为权值,保留的互相关系数对应的影像序号作为节点构成无向图,通过Kruskal最大生成树算法即克鲁斯卡尔算法和DFS遍历算法即深度优先遍历算法生成拼接顺序;
(6)以拼接顺序的第一个节点作为全景图的基准,按照拼接顺序和保留的特征点匹配结果进行投影,获得全景图;
(7)计算全景图的全局配准误差,对全景图的全局配准误差进行优化。
所述步骤(2)具体包括以下步骤:
(2a)首先,根据内参矩阵和畸变参数将无人机大田影像进行去畸变操作,如式(1)所示,并保存去畸变影像;
其中,(x,y)为像素坐标,r2=x2+y2,k1,k2,k3均为径向畸变参数,p1,p2均为切向畸变参数,xdistortion和ydistortion为畸变量;
(2b)根据无人机影像的外方位元素、无人机相机焦距,获取影像的4个角的wgs84坐标即4个角点坐标(x1,y1)、(x2,y2)、(x3,y3)和(x4,y4),由共线原理得到在地面平均高程处与4个角点的共线坐标(X1,Y1,Zavr)、(X2,Y2,Zavr)、(X3,Y3,Zavr)和(X4,Y4,Zavr):
其中,Zavr为平均高程,f为焦距,λ为缩放系数,
(2c)根据影像的4个角点坐标与步骤(2b)获得的共线坐标,求对应的单应性矩阵,并作为初始投影矩阵保存:
其中,初始投影矩阵h0至h7为初始投影矩阵H的元素。
如图2所示,所述步骤(3)具体是指:每张影像的坐标[Xs,Ys]作为节点,通过Delauny算法,生成三角剖分网络,如果该网络中的节点与节点之间有边连接,则表明两个节点对应的影像可能有重叠部分,最后按照格式[节点,节点]保存。
所述步骤(4)具体包括以下步骤:
(4a)通过步骤(3)获得的三角剖分网络,每两个节点i和j对应的影像通过SIFT算子提取各自的特征点和特征向量,假设需要通过单应性矩阵将投影影像i投影到参考影像j的坐标系内;
(4b)对提取的特征向量做比值粗匹配和ransac算法精匹配,然后求单应性矩阵Hi,j;通过求得的单应性矩阵Hi,j,得到将投影影像投影到参考影像坐标系的单应性矩阵:
Hi=Hi,jHj (4)
其中,Hi和Hj分别为影像i和j的初始投影矩阵;
(4c)计算重叠区域像素的互相关系数,如式(5)所示,互相关系数大于0,则表明重叠相似程度正相关,越接近1相关程度越高;互相关系数小于0,表明重叠区域程度负相关,越接近-1相关程度越高;互相关系数等于0,表明重叠区域不相关:
其中,ncc表示互相关系数,m表示重叠区域内像素的数量,Ii,p表示影像i在重叠区域内第p个像素的灰度,Ij,p表示影像j在重叠区域内第p个像素的灰度;表示影像i在重叠区域内像素灰度的平均值,/>表示影像j在重叠区域内像素灰度的平均值;图3为步骤(4c)中各影像间影像局部配准的结果,权值为互相关系数取绝对值后放大100倍的结果。
(4d)如果互相关系数小于0.5且大于-0.5,表明配准效果太差,很可能出现特征点误匹配,将互相关系数小于0.5且大于-0.5对应的特征点匹配结果删除,将剩余的特征点匹配结果保存。
所述步骤(5)具体包括以下步骤:
(5a)将步骤(4)保留的互相关系数放大到100倍,并取绝对值作为权值E,将保留的互相关系数对应的影像序号作为节点V构成无向图G=<V,E>;图4为步骤(5a)中将部分权值剔除的结果。
(5b)通过Kruskal最大生成树算法,生成最大生成树,以权值最大的边的节点为起始节点,通过DFS遍历算法生成影像的拼接顺序。图5为步骤(5b)生成的拼接顺序,括号的颜色表明两张影像在步骤(4c)中的配准结果,括号内的数字表明在全局配准中的影像拼接顺序,箭头表示由投影影像经过单应性变换到参考影像的坐标系中。
所述步骤(6)具体包括以下步骤:
(6a)以拼接顺序中的第一张影像为全景图的基准,将初始投影矩阵作为第一张影像的单应性矩阵;
(6b)按照拼接顺序逐个通过SIFT算子做特征点匹配,记录该影像的单应性矩阵,同时对重叠区域进行图像融合,反复执行步骤(6b),直到所有影像全部拼接完毕,得到全景图,如图6所示。
所述步骤(7)具体包括以下步骤:
(7a)拼接完毕后,计算无向图的节点之间的误差:
其中,errori,j表示影像i和影像j的局部配准误差,n为影像i和影像j的特征点匹配的数量;(xi,k,yi,k)为影像i的第k个特征点,(xj,k,yj,k)为影像j的第k个特征点,Hi(xi,k,yi,k)为影像i的第k个特征点通过单一性矩阵Hi变换到全景图中的坐标,Hj(xj,k,yj,k)为影像j的第k个特征点单一性矩阵Hj变换到全景图中的坐标;
(7b)计算全局配准误差:
其中,error表示全局配准误差,其中i∈[0,s],j∈[0,t];
(7c)利用Nelder-Mead内德-美德算法优化全局配准误差,保存优化后各影像变换到全景图中的单应性矩阵;
(7d)根据保存的单应性矩阵,将影像变换到全景图中,如图7所示。
综上所述,针对大田无人机影像特征点匹配不易、容易出现误匹配的情况,本发明采用互相关系数可以检验特征点误匹配;本发明采用Delauny算法构建三角剖分网络,可极大降低局部配准的次数;本发明可以参与的无人机影像数量大;本发明通过对132张无人机大田影像作为研究对象,解决了大田影像易误匹配、参与影像太少的缺点;特征点误匹配会导致计算单应性矩阵出错,对后续影像的单应性矩阵的计算造成重大影响,本发明利用互相关系数检验特征点是否出现误匹配,剔除了配准效果差的特征点对;本发明利用Nelder-Mead内德-美德算法优化配准结果,一定程度上可以减轻全局误差。

Claims (7)

1.一种基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法,其特征在于:该方法包括下列顺序的步骤:
(1)获取无人机大田影像以及与无人机大田影像对应的位姿信息,每张无人机大田影像的位姿信息包括内方位元素和外方位元素;所述内方位元素包括内参矩阵、焦距和畸变参数,所述外方位元素包括Xs、Ys、Zs、ω、和γ,其中,Xs、Ys、Zs为摄影中心坐标,ω、/>γ为方位角;
(2)根据无人机大田影像的内方位元素和外方位元素对每张无人机大田影像进行重投影,得到初始投影矩阵;
(3)由无人机大田影像的摄影中心坐标Xs、Ys构成节点,通过Delauny算法构成三角剖分网络;
(4)通过三角剖分网络中的节点,每两个节点对应的影像通过SIFT算子做特征点匹配,然后通过初始投影矩阵求得单应性矩阵并投影,若投影后的互相关系数大于0.5或者小于-0.5,则保留互相关系数及对应的特征点匹配结果;否则删除互相关系数及对应的特征点匹配结果;
(5)将步骤(4)保留的互相关系数作为权值,保留的互相关系数对应的影像序号作为节点构成无向图,通过Kruskal最大生成树算法和DFS遍历算法生成拼接顺序;
(6)以拼接顺序的第一个节点作为全景图的基准,按照拼接顺序和保留的特征点匹配结果进行投影,获得全景图;
(7)计算全景图的全局配准误差,对全景图的全局配准误差进行优化。
2.根据权利要求1所述的基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法,其特征在于:所述步骤(2)具体包括以下步骤:
(2a)首先,根据内参矩阵和畸变参数将无人机大田影像进行去畸变操作,如式(1)所示,并保存去畸变影像;
其中,(x,y)为像素坐标,r2=x2+y2,k1,k2,k3均为径向畸变参数,p1,p2均为切向畸变参数,xdistortion和ydistortion为畸变量;
(2b)根据无人机影像的外方位元素、无人机相机焦距,获取影像的4个角的wgs84坐标即4个角点坐标(x1,y1)、(x2,y2)、(x3,y3)和(x4,y4),由共线原理得到在地面平均高程处与4个角点的共线坐标(X1,Y1,Zavr)、(X2,Y2,Zavr)、(X3,Y3,Zavr)和(X4,Y4,Zavr):
其中,Zavr为平均高程,f为焦距,λ为缩放系数,
(2c)根据影像的4个角点坐标与步骤(2b)获得的共线坐标,求对应的单应性矩阵,并作为初始投影矩阵保存:
其中,初始投影矩阵h0至h7为初始投影矩阵H的元素。
3.根据权利要求1所述的基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法,其特征在于:所述步骤(3)具体是指:每张影像的坐标[Xs,Ys]作为节点,通过Delauny算法,生成三角剖分网络,如果该网络中的节点与节点之间有边连接,则表明两个节点对应的影像可能有重叠部分,最后按照格式[节点,节点]保存。
4.根据权利要求1所述的基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法,其特征在于:所述步骤(4)具体包括以下步骤:
(4a)通过步骤(3)获得的三角剖分网络,每两个节点i和j对应的影像通过SIFT算子提取各自的特征点和特征向量,假设需要通过单应性矩阵将投影影像i投影到参考影像j的坐标系内;
(4b)对提取的特征向量做比值粗匹配和ransac算法精匹配,然后求单应性矩阵Hi,j;通过求得的单应性矩阵Hi,j,得到将投影影像投影到参考影像坐标系的单应性矩阵:
Hi=Hi,jHj (4)
其中,Hi和Hj分别为影像i和j的初始投影矩阵;
(4c)计算重叠区域像素的互相关系数,如式(5)所示,互相关系数大于0,则表明重叠相似程度正相关,越接近1相关程度越高;互相关系数小于0,表明重叠区域程度负相关,越接近-1相关程度越高;互相关系数等于0,表明重叠区域不相关:
其中,ncc表示互相关系数,m表示重叠区域内像素的数量,Ii,p表示影像i在重叠区域内第p个像素的灰度,Ij,p表示影像j在重叠区域内第p个像素的灰度;表示影像i在重叠区域内像素灰度的平均值,/>表示影像j在重叠区域内像素灰度的平均值;
(4d)如果互相关系数小于0.5且大于-0.5,表明配准效果太差,很可能出现特征点误匹配,将互相关系数小于0.5且大于-0.5对应的特征点匹配结果删除,将剩余的特征点匹配结果保存。
5.根据权利要求1所述的基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法,其特征在于:所述步骤(5)具体包括以下步骤:
(5a)将步骤(4)保留的互相关系数放大到100倍,并取绝对值作为权值E,将保留的互相关系数对应的影像序号作为节点V构成无向图G=<V,E>;
(5b)通过Kruskal最大生成树算法,生成最大生成树,以权值最大的边的节点为起始节点,通过DFS遍历算法生成影像的拼接顺序。
6.根据权利要求1所述的基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法,其特征在于:所述步骤(6)具体包括以下步骤:
(6a)以拼接顺序中的第一张影像为全景图的基准,将初始投影矩阵作为第一张影像的单应性矩阵;
(6b)按照拼接顺序逐个通过SIFT算子做特征点匹配,记录该影像的单应性矩阵,同时对重叠区域进行图像融合,反复执行步骤(6b),直到所有影像全部拼接完毕,得到全景图。
7.根据权利要求1所述的基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法,其特征在于:所述步骤(7)具体包括以下步骤:
(7a)拼接完毕后,计算无向图的节点之间的误差:
其中,errori,j表示影像i和影像j的局部配准误差,n为影像i和影像j的特征点匹配的数量;(xi,k,yi,k)为影像i的第k个特征点,(xj,k,yj,k)为影像j的第k个特征点,Hi(xi,k,yi,k)为影像i的第k个特征点通过单一性矩阵Hi变换到全景图中的坐标,Hj(xj,k,yj,k)为影像j的第k个特征点单一性矩阵Hj变换到全景图中的坐标;
(7b)计算全局配准误差:
其中,error表示全局配准误差,其中i∈[0,s],j∈[0,t];
(7c)利用Nelder-Mead内德-美德算法优化全局配准误差,保存优化后各影像变换到全景图中的单应性矩阵;
(7d)根据保存的单应性矩阵,将影像变换到全景图中。
CN202311147759.8A 2023-09-07 2023-09-07 基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法 Pending CN117173224A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311147759.8A CN117173224A (zh) 2023-09-07 2023-09-07 基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311147759.8A CN117173224A (zh) 2023-09-07 2023-09-07 基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法

Publications (1)

Publication Number Publication Date
CN117173224A true CN117173224A (zh) 2023-12-05

Family

ID=88933268

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311147759.8A Pending CN117173224A (zh) 2023-09-07 2023-09-07 基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法

Country Status (1)

Country Link
CN (1) CN117173224A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117876379A (zh) * 2024-03-13 2024-04-12 山东鑫国矿业技术开发有限公司 基于图像特征的锚杆缺陷智能化检测方法
CN117911245A (zh) * 2024-02-28 2024-04-19 华东师范大学 基于显微高光谱成像平台的大区域数据立方体采集方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117911245A (zh) * 2024-02-28 2024-04-19 华东师范大学 基于显微高光谱成像平台的大区域数据立方体采集方法
CN117876379A (zh) * 2024-03-13 2024-04-12 山东鑫国矿业技术开发有限公司 基于图像特征的锚杆缺陷智能化检测方法
CN117876379B (zh) * 2024-03-13 2024-05-24 山东鑫国矿业技术开发有限公司 基于图像特征的锚杆缺陷智能化检测方法

Similar Documents

Publication Publication Date Title
CN117173224A (zh) 基于Delauny算法和Kruskal最大生成树算法的大田影像拼接方法
CN106373088B (zh) 大倾斜低重叠率航空图像的快速拼接方法
CN107274380B (zh) 一种无人机多光谱影像快速拼接方法
CN110718137B (zh) 目标物密度分布地图的构建方法及装置、终端、移动装置
CN108759788B (zh) 无人机影像定位定姿方法及无人机
CN110225264A (zh) 无人机近地航拍检测农田残膜的方法
Li et al. A study on automatic UAV image mosaic method for paroxysmal disaster
CN114973028B (zh) 一种航拍视频图像实时变化检测方法及系统
CN109472752A (zh) 基于航拍图像的多曝光融合系统
CN113610905A (zh) 基于子图像匹配的深度学习遥感图像配准方法及应用
CN110599424B (zh) 影像自动匀色处理方法及装置、电子设备、存储介质
Hakim et al. Development of systematic image preprocessing of LAPAN-A3/IPB multispectral images
Magri et al. Bending the doming effect in structure from motion reconstructions through bundle adjustment
CN113012084A (zh) 无人机影像实时拼接方法、装置及终端设备
Chiabrando et al. Performance evaluation of cots uav for architectural heritage documentation. A test on s. giuliano chapel in savigliano (cn)–Italy
CN116597080A (zh) 一种多源空间数据的完整场景3d精细模型构建系统及方法
Bhatt et al. Image registration for meteorological applications: Development of a generalized software for sensor data registration at isro
CN115456870A (zh) 基于外参估计的多图像拼接方法
CN115082812A (zh) 一种农业景观非农生境绿地斑块提取方法及其相关设备
CN113379738A (zh) 一种基于图像的疫木检测与定位方法及系统
CN115578656B (zh) 一种支持多型号多光谱相机数据全自动处理的方法和系统
Fallah et al. Intensifying the spatial resolution of 3D thermal models from aerial imagery using deep learning-based image super-resolution
Otoya et al. Real-time non-invasive leaf area measurement method using depth images
Zhang et al. Guided feature matching for multi-epoch historical image blocks pose estimation
CN109029365B (zh) 电力走廊异侧影像连接点提取方法、系统、介质及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination