CN115187798A - 一种多无人机高精度匹配定位方法 - Google Patents
一种多无人机高精度匹配定位方法 Download PDFInfo
- Publication number
- CN115187798A CN115187798A CN202210675489.7A CN202210675489A CN115187798A CN 115187798 A CN115187798 A CN 115187798A CN 202210675489 A CN202210675489 A CN 202210675489A CN 115187798 A CN115187798 A CN 115187798A
- Authority
- CN
- China
- Prior art keywords
- image
- matching
- coordinate
- images
- unmanned aerial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种多无人机高精度匹配定位方法,包括多无人机数据采集,基于POS数据的多航拍图像粗匹配,基于改进SIFT特征的多航拍图像精匹配及图像匹配定位等四个步骤。本发明综合应用了多无人机的POS数据和图像信息,基于POS数据共线解算实现多航拍图像校正和匹配底图裁剪,基于特征向量欧式距离、地理距离的二次匹配方法剔除SIFT误匹配点,实现多无人机航拍图像特征匹配、航拍融合图像与基准图像的匹配,从原理上克服了定位精度直接受制于导航系统姿态测量误差的问题,并可有效提高图像匹配概率和匹配精度。本发明可实现多无人机航拍图像多目标的精确定位,定位精度高、适应性好、易于工程实现。
Description
技术领域
本发明涉及一种多无人机高精度匹配定位方法,属无人机遥感、测绘术领域。
背景技术
单一的无人机平台侦察探测,受着作用半径、续航时间、实用升限和任务载荷等性能局限,往往具有局部、不完全、不确定等特点,难以执行遮蔽、伪装、时敏、分散等复杂条件下目标侦察定位任务,不能满足高时效和高质量目标感知要求。多无人机平台运用能够拓展战场覆盖和延伸,实现信息共享和融合处理,增强完成多任务的概率和效能,提高对于战场应急情况的响应能力,提升战场生存能力。多无人机以多角度构型对多目标进行协同定位,能够获取更及时、更全面、更精确的战场区域态势。
当前多无人机协同定位研究,主要是应用无人机位置和姿态数据、光电云台姿态等定位定向(positioning and orientation,POS)数据进行空间解算,比如交叉定位、多点定位等方法,通过多机测量传感数据的解算抑制定位误差,实现了多机协同定位比单机定位精度的提升。然而,当前还缺乏综合运用多无人机的POS数据和图像信息的协同定位方法,将空间解算定位与匹配定位方法综合研究,可从原理上克服了定位精度直接受制于导航系统姿态测量误差的问题。
因此,针对以上分析,提出了一种多无人机匹配定位方法。结合多无人机获取的同区域航拍序列图像,应用图像匹配定位方法,实现多无人机序列图像匹配、序列航拍图像和基准图像的匹配,进而将融合图像依据位置信息引导至地理信息系统(geographicinformation system,GIS),获取包含目标位置信息的区域战场图像。该方法有助于弱化对高精度硬件测量设备的依赖,有效实现多目标精确定位和目标态势感知。
因此针对这一现状,需要研究和开发一种多无人机高精度匹配定位方法,以满足应用需求。
发明内容
为了解决现有技术上的不足,本发明提供一种多无人机高精度匹配定位方法及方法。
一种多无人机高精度匹配定位方法,包括如下步骤:
S1,多无人机数据采集,首先,预先获取具有精确位置信息的数字卫星地图或预先拼接图像等基准匹配图像;而后,以实时采集或离线加载形式获取多无人机的视频帧图像和POS数据,POS数据主要包括无人机位置和姿态数据、光电云台姿态等;
S2,基于POS数据的多航拍图像粗匹配,首先结合多无人机的各自位置和姿态角、光电平台姿态角等POS参数,基于共线成像方程初步解算出图像中任意点位置数据,实现对各无人机提供的多航拍图像校正,获取多航拍图像的区域位置;而后基于多无人机图像的区域位置,确定基准图像的区域范围,裁剪基准卫星图或拼接图,获取包含多无人机侦察图像范围的小区域基准匹配底图,完成基于区域位置的基准图像裁剪处理作业;
S3,基于改进SIFT特征的多航拍图像精匹配,首先基于改进SIFT特征的匹配方法,实现对S2步骤校正后多航拍图像的匹配融合,获得的覆盖区域大于各无人机航拍图像覆盖区域的融合图像区域,并抑制S2步骤中残存的校正误差;然后基于改进SIFT特征的匹配方法,实现航拍融合图像和基准图像的匹配融合;
S4,图像匹配定位,依据融合图像的位置信息引导至地理信息系统(geographicinformation system,GIS),进而获知航拍图像上任意点位置数据和区域态势信息。
进一步的,所述S1步骤中,数字卫星地图可通过测绘部门申请或资源下载等形式获得,预先拼接图像可应用预先侦察的航空相片或视频进行图像拼接。
进一步的,所述S2步骤中基于共线方程的图像位置解算时,按以下步骤进行:
第一步,坐标转换矩阵解算,计算无人机地理坐标系和像空间坐标系的转换矩阵,应用像空间坐标系、无人机机体坐标系、无人机地理坐标系、高斯平面直角坐标系等4个坐标系,各坐标系定义如下:
1)像空间坐标系s,原点Os为投影中心,Xs、Ys分别平行于成像面阵外框且与图像显示存储方向一致,Zs依右手坐标系确定,相机光轴为Zs轴;
2)无人机机体坐标系b,坐标原点Ob为飞机质心,Xb指右,Yb指前,Zb指上;
3)无人机地理坐标系e,坐标原点Oe为飞机质心,Xe指东,Ye指北,Ze指天;4)高斯平面直角坐标系g;
同时,设航空相机或摄像机云台的高低角为α,方位角为β,设无人机的航向角为ψ,俯仰角为θ,倾斜角为γ,根据坐标变换原理,得到不同坐标系之间的坐标变换矩阵,设目标在无人机地理坐标系e中的坐标为(xe,ye,ze),目标在像空间坐标系s中的坐标为(xs,ys,-f),f为相机或摄像机焦距,则两者之间的坐标变换关系表示为:
第二步,解算共线成像方程,设目标在高斯平面直角坐标系g中的坐标为(xg,yg),无人机在高斯平面直角坐标系g中的坐标为(xa,ya),H为无人机与地面目标点的相对高度;则基于无人机姿态数据、航空相机或摄像机的姿态数据和内参数等遥测参数,根据成像模型的共线条件方程可得
第三步,坐标位置解算和图像校正,根据共线成像方程,可以求出航拍图像中任意像素点的高斯平面直角坐标。根据航拍图像的像素坐标、高斯平面直角坐标和坐标变换矩阵,应用最邻近插值重采样实现图像校正。正射校正图像可抑制图像畸变、减弱拍摄角度差异等,与基准卫星地图或预先拼接图像视角类似,从而有效提高图像匹配定位的成功率和精度。
进一步的,所述S2步骤中基于区域位置的基准图像裁剪按以下步骤进行:
第一步,坐标极值计算,由于数字卫星地图或预先拼接图像的区域范围,远大于航拍图像,缩小图像匹配区域、减小图像匹配时间,根据各个航拍图像的四角点位置裁剪基准地图,获取图像匹配的基准底图;其中在进行坐标值计算时,设共有n幅图像,第i幅航拍图像四角点位置分别为(xi1,yi1)、(xi2,yi2)、(xi3,yi3)、(xi4,yi4),则各幅航拍图像的坐标极值(xmin,xmax,ymin,ymax)为
第二步,基准图像裁剪,根据裁剪图像坐标进行基准图像裁剪,获得小区域范围的基准底图,实现航拍图像的粗匹配;在进行航拍图像的粗匹配中,首先用共线定位方法求得的位置坐标存在定位误差;并设最大定位误差值为l,则可确定裁剪图像的左上角坐标为(xmax+l,ymin-l)、右下角坐标为(xmin-l,ymax+l);然后图像裁剪时依据像素坐标进行,并进行位置坐标与像素坐标之间的坐标变换;
其中在进行位置坐标与像素坐标变换时,设基准图像左上角位置坐标(x0,y0),裁剪图像左上角位置坐标(xs,ys)、像素坐标(rs,cs),x方向上的图像像素分辨率t1,y方向上的图像像素分辨率t2,行旋转参数t3,列旋转参数t4,图像上方指北时旋转参数为0,置坐标与像素坐标变换关系表示为:
进一步的,所述S3步骤中所述基于改进SIFT特征的匹配方法,包括基于改进SIFT特征的匹配方法主要包括改进SIFT特征提取和描述、基于二次误匹配剔除的特征匹配两个环节。
进一步的,所述S3步骤中基于改进SIFT特征的匹配方法,在改进SIFT特征提取和描述环节,按以下步骤进行:
第一步,SIFT特征提取,提取航拍校正图像间、或是航拍校正图像和基准裁剪图像中的SIFT特征关键点;为了提高特征点匹配的稳定性,通过三维二次拟合函数精确确定关键点的位置和尺度;
其中,SIFT特征提取主要包括尺度空间构建、空间极值点检测两个步骤。尺度空间构建的基础是DOG金字塔,二维图像I(x,y)在不同尺度下的尺度空间表示为L(x,y,σ),可由图像I(x,y)与高斯核G(x,y,σ)的卷积得到:
其中,x,y分别表示像素点的横纵坐标,σ代表高斯正态分布的方差,尺度空间中某一个点在周围8个点以及上下层18个邻域点中是最大或最小值,就可确定该点是一个极值点,为了提高特征点匹配的稳定性,通过三维二次拟合函数精确确定关键点的位置和尺度;
第二步,改进SIFT特征描述,利用关键点邻域内所有像素点的梯度方向投影,确定关键点的主方向,在进行主方向确定时直接设特征主方向为0;同时使关键点保持旋转不变性,以关键点为中心选取16个4×4像素的小邻域,在每个小邻域形成8个方向的梯度直方图,最终得到一个128维的特征向量。
进一步的,所述S3步骤中基于改进SIFT特征的匹配方法,在基于二次误匹配剔除的特征匹配环节,按以下步骤进行:
第一步,应用暴力匹配方法,确定待匹配图像之间的初始匹配点对,采用匹配点对的特征向量欧式距离,初步滤除误差较大的匹配点对;
计算出待配准图像间匹配点对的欧式距离,求出所有匹配点对的最小和最大距离,若匹配点对距离小于设定阈值的最近和最远距离,则保留该匹配点对,否则舍弃该匹配点对;
式中,xi,k为匹配图像中第i个特征点的特征向量的第k个元素,yi,k为基准图像中第j个特征点的特征向量的第k个元素,n为特征向量的维数,di,j为航拍图像第i个特征点与基准图像第j个特征点的匹配点对欧式距离,dmax为匹配点对最大欧式距离,dmin为匹配点对最小欧式距离,α和β为设定阈值;
第二步,进一步剔除误匹配点对,利用POS数据计算匹配点对的位置坐标和地理距离,将最大定位误差值作为阈值剔除误匹配点,可适应不同类型的输入图像,提高匹配概率和匹配精度,其中定义基准图像中特征匹配点Pa的像素坐标(ra,ca)、高斯平面直角坐标(xa,ya),匹配图像中Pb的像素坐标(rb,cb)、高斯平面直角坐标(xb,yb)。Pa和Pb的地理位置距离k为
若k<l,即匹配特征点对的地理距离k小于最大定位误差l,则接受该匹配点对,否则丢弃该匹配点对;
第三步,依据RANSAC(random sample consensus)算法,计算待匹配图像之间的变换矩阵,通过基于特征向量欧式距离、地理距离的二次匹配方法,有效滤除了误匹配点,减少了RANSAC的计算量,设匹配图像像素坐标为(ri,ci),基准图像匹配控制点的像素坐标为(rri,cri),变换矩阵H表示为
第四步,根据图像变换矩阵,实现待匹配图像的图像融合。
本发明较传统的定位方法,综合应用多无人机的POS数据和图像信息,应用POS数据辅助多无人机航拍图像的匹配定位,一方面基于POS数据共线解算实现多航拍图像校正和匹配底图裁剪,另一方面基于特征向量欧式距离、地理距离的二次匹配方法剔除SIFT误匹配点,分别实现多无人机航拍图像特征匹配、航拍融合图像与基准图像的匹配,从原理上克服了定位精度直接受制于导航系统姿态测量误差的问题,并可有效提高图像匹配概率和匹配精度。本发明可实现多无人机航拍图像多目标的精确定位,定位精度高、适应性好、易于工程实现。
附图说明
下面结合附图和具体实施方式来详细说明本发明;
图1为本发明定位方法流程示意图;
图2为本发明多无人机高精度匹配定位流程框图;
图3为本发明基于改进SIFT特征的匹配方法流程框图;
图4为本发明基准图像裁剪示意图;
图5为本发明多航拍图像匹配定位测试结果1;
图6为本发明多航拍图像匹配定位测试结果2.
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功效易于施工,下面结合具体实施方式,进一步阐述本发明。
如图1—4所示,一种多无人机高精度匹配定位方法,包括如下步骤:
S1,多无人机数据采集,首先,预先获取具有精确位置信息的数字卫星地图或预先拼接图像等基准匹配图像;而后,以实时采集或离线加载形式获取多无人机的视频帧图像和POS数据,POS数据主要包括无人机位置和姿态数据、光电云台姿态等;
S2,基于POS数据的多航拍图像粗匹配,首先结合多无人机的各自位置和姿态角、光电平台姿态角等POS参数,基于共线成像方程初步解算出图像中任意点位置数据,实现对各无人机提供的多航拍图像校正,获取多航拍图像的区域位置;而后基于多无人机图像的区域位置,确定基准图像的区域范围,裁剪基准卫星图或拼接图,获取包含多无人机侦察图像范围的小区域基准匹配底图,完成基于区域位置的基准图像裁剪处理作业;
S3,基于改进SIFT特征的多航拍图像精匹配,首先基于改进SIFT特征的匹配方法,实现对S2步骤校正后多航拍图像的匹配融合,获得的覆盖区域大于各无人机航拍图像覆盖区域的融合图像区域,并抑制S2步骤中残存的校正误差;然后基于改进SIFT特征的匹配方法,实现航拍融合图像和基准图像的匹配融合;
通过融合图像区域范围更大,可有效实现抑制校正误差,易于实现与基准图像的匹配;
S4,图像匹配定位,依据融合图像的位置信息引导至地理信息系统(geographicinformation system,GIS),进而获知航拍图像上任意点位置数据和区域态势信息。
进一步的,所述S1步骤中,数字卫星地图可通过测绘部门申请或资源下载等形式获得,预先拼接图像可应用预先侦察的航空相片或视频进行图像拼接。
进一步的,所述S2步骤中基于共线方程的图像位置解算时,按以下步骤进行:
第一步,坐标转换矩阵解算,计算无人机地理坐标系和像空间坐标系的转换矩阵,应用像空间坐标系、无人机机体坐标系、无人机地理坐标系、高斯平面直角坐标系等4个坐标系,各坐标系定义如下:
1)像空间坐标系s,原点Os为投影中心,Xs、Ys分别平行于成像面阵外框且与图像显示存储方向一致,Zs依右手坐标系确定,相机光轴为Zs轴;
2)无人机机体坐标系b,坐标原点Ob为飞机质心,Xb指右,Yb指前,Zb指上;
3)无人机地理坐标系e,坐标原点Oe为飞机质心,Xe指东,Ye指北,Ze指天;4)高斯平面直角坐标系g;
同时,设航空相机或摄像机云台的高低角为α,方位角为β,设无人机的航向角为ψ,俯仰角为θ,倾斜角为γ,根据坐标变换原理,得到不同坐标系之间的坐标变换矩阵,设目标在无人机地理坐标系e中的坐标为(xe,ye,ze),目标在像空间坐标系s中的坐标为(xs,ys,-f),f为相机或摄像机焦距,则两者之间的坐标变换关系表示为:
第二步,解算共线成像方程,设目标在高斯平面直角坐标系g中的坐标为(xg,yg),无人机在高斯平面直角坐标系g中的坐标为(xa,ya),H为无人机与地面目标点的相对高度;则基于无人机姿态数据、航空相机或摄像机的姿态数据和内参数等遥测参数,根据成像模型的共线条件方程可得
第三步,坐标位置解算和图像校正,根据共线成像方程,可以求出航拍图像中任意像素点的高斯平面直角坐标。根据航拍图像的像素坐标、高斯平面直角坐标和坐标变换矩阵,应用最邻近插值重采样实现图像校正。正射校正图像可抑制图像畸变、减弱拍摄角度差异等,与基准卫星地图或预先拼接图像视角类似,从而有效提高图像匹配定位的成功率和精度。
进一步的,所述S2步骤中基于区域位置的基准图像裁剪按以下步骤进行:
第一步,坐标极值计算,由于数字卫星地图或预先拼接图像的区域范围,远大于航拍图像,缩小图像匹配区域、减小图像匹配时间,根据各个航拍图像的四角点位置裁剪基准地图,获取图像匹配的基准底图;其中在进行坐标值计算时,设共有n幅图像,第i幅航拍图像四角点位置分别为(xi1,yi1)、(xi2,yi2)、(xi3,yi3)、(xi4,yi4),则各幅航拍图像的坐标极值(xmin,xmax,ymin,ymax)为
第二步,基准图像裁剪,根据裁剪图像坐标进行基准图像裁剪,获得小区域范围的基准底图,实现航拍图像的粗匹配;在进行航拍图像的粗匹配中,首先用共线定位方法求得的位置坐标存在定位误差;并设最大定位误差值为l,则可确定裁剪图像的左上角坐标为(xmax+l,ymin-l)、右下角坐标为(xmin-l,ymax+l);然后图像裁剪时依据像素坐标进行,并进行位置坐标与像素坐标之间的坐标变换;
其中在进行位置坐标与像素坐标变换时,设基准图像左上角位置坐标(x0,y0),裁剪图像左上角位置坐标(xs,ys)、像素坐标(rs,cs),x方向上的图像像素分辨率t1,y方向上的图像像素分辨率t2,行旋转参数t3,列旋转参数t4,图像上方指北时旋转参数为0,置坐标与像素坐标变换关系表示为:
进一步的,所述S3步骤中所述基于改进SIFT特征的匹配方法,包括基于改进SIFT特征的匹配方法主要包括改进SIFT特征提取和描述、基于二次误匹配剔除的特征匹配两个环节。
进一步的,所述S3步骤中基于改进SIFT特征的匹配方法,在改进SIFT特征提取和描述环节,按以下步骤进行:
第一步,SIFT特征提取,提取航拍校正图像间、或是航拍校正图像和基准裁剪图像中的SIFT特征关键点;为了提高特征点匹配的稳定性,通过三维二次拟合函数精确确定关键点的位置和尺度;
其中,SIFT特征是一种图像尺度不变特征,利用高斯差分(Difference ofGaussian,DOG)算子提取关键点,精确确定关键点位置和主方向,生成关键点的局部邻域描述子。SIFT特征提取主要包括尺度空间构建、空间极值点检测两个步骤。尺度空间构建的基础是DOG金字塔,二维图像I(x,y)在不同尺度下的尺度空间表示为L(x,y,σ),可由图像I(x,y)与高斯核G(x,y,σ)的卷积得到:
其中,x,y分别表示像素点的横纵坐标,σ代表高斯正态分布的方差,尺度空间中某一个点在周围8个点以及上下层18个邻域点中是最大或最小值,就可确定该点是一个极值点,为了提高特征点匹配的稳定性,通过三维二次拟合函数精确确定关键点的位置和尺度;
第二步,改进SIFT特征描述,利用关键点邻域内所有像素点的梯度方向投影,确定关键点的主方向,在进行主方向确定时直接设特征主方向为0;同时使关键点保持旋转不变性,以关键点为中心选取16个4×4像素的小邻域,在每个小邻域形成8个方向的梯度直方图,最终得到一个128维的特征向量。
针对多无人机航拍图像特征匹配、航拍校正图像与基准图像匹配的应用场景,待匹配图像的视角类似,可忽略确定关键点主方向步骤,直接设特征主方向为0。省略关键点主方向判定,能够提高算法速度,获得更多匹配控制点,提高匹配成功率。
进一步的,所述S3步骤中基于改进SIFT特征的匹配方法,在基于二次误匹配剔除的特征匹配环节,设计了基于特征向量欧式距离、匹配点对地理距离的二次匹配方法;其中:
SIFT特征匹配点往往存在大量的错误匹配点对,将可能使无人机匹配定位精度降低,甚至导致匹配定位失败。传统SIFT特征匹配采用固定阈值的相似性度量,剔除错误特征匹配点,难以适应不同图像的差异性。设计了基于特征向量欧式距离、匹配点对地理距离的二次匹配方法,充分剔除误匹配点对,并结合RANSAC算法解算出图像变换矩阵。具体按以下步骤进行:
第一步,应用暴力匹配方法,确定待匹配图像之间的初始匹配点对,采用匹配点对的特征向量欧式距离,初步滤除误差较大的匹配点对;
计算出待配准图像间匹配点对的欧式距离,求出所有匹配点对的最小和最大距离,若匹配点对距离小于设定阈值的最近和最远距离,则保留该匹配点对,否则舍弃该匹配点对;
式中,xi,k为匹配图像中第i个特征点的特征向量的第k个元素,yi,k为基准图像中第j个特征点的特征向量的第k个元素,n为特征向量的维数,di,j为航拍图像第i个特征点与基准图像第j个特征点的匹配点对欧式距离,dmax为匹配点对最大欧式距离,dmin为匹配点对最小欧式距离,α和β为设定阈值;
第二步,进一步剔除误匹配点对,利用POS数据计算匹配点对的位置坐标和地理距离,将最大定位误差值作为阈值剔除误匹配点,可适应不同类型的输入图像,提高匹配概率和匹配精度,其中定义基准图像中特征匹配点Pa的像素坐标(ra,ca)、高斯平面直角坐标(xa,ya),匹配图像中Pb的像素坐标(rb,cb)、高斯平面直角坐标(xb,yb)。Pa和Pb的地理位置距离k为
若k<l,即匹配特征点对的地理距离k小于最大定位误差l,则接受该匹配点对,否则丢弃该匹配点对;
第三步,依据RANSAC(random sample consensus)算法,计算待匹配图像之间的变换矩阵,通过基于特征向量欧式距离、地理距离的二次匹配方法,有效滤除了误匹配点,减少了RANSAC的计算量,设匹配图像像素坐标为(ri,ci),基准图像匹配控制点的像素坐标为(rri,cri),变换矩阵H表示为
第四步,图像匹配定位,根据图像变换矩阵,实现待匹配图像的图像融合。
依据融合图像的位置信息引导至地理信息系统,进而获知航拍图像上任意点位置数据和区域态势信息,行了多航拍图像的匹配定位测试。
如图5所示,基于无人机高精度匹配定位方法的匹配定位方法,设计了匹配定位测试软件,软件界面主要包括菜单栏、GIS显示区域、状态显示区域等。无人机任务载荷均为光电云台,采集了2幅航拍视频帧图像及其对应的POS数据,图像分辨率为1920*1080。在共线定位解算的基础上,实现航拍图像校正和基准地图裁剪,进行航拍图像的匹配融合,根据匹配图像位置数据引导至GIS系统,可获知任意点位置数据,匹配定位解算时间为19s。可以看出,航拍图像精确匹配至基准图像,匹配定位误差较小,定位误差均值为15米,具有较高的定位精度。
如图6所示,进行了多航拍图像的匹配定位测试。无人机任务载荷均为光电云台,采集了3幅航拍视频帧图像及其对应的POS数据,图像分辨率为1920*1080。在共线定位解算的基础上,实现航拍图像校正和基准地图裁剪,进行航拍图像的匹配融合,根据匹配图像位置数据引导至GIS系统,可获知任意点位置数据,匹配定位解算时间为30s。可以看出,航拍图像精确匹配至基准图像,匹配定位误差较小,定位误差均值为10米,具有较高的定位精度。
本发明较传统的定位方法,综合应用多无人机的POS数据和图像信息,应用POS数据辅助多无人机航拍图像的匹配定位,一方面基于POS数据共线解算实现多航拍图像校正和匹配底图裁剪,另一方面基于特征向量欧式距离、地理距离的二次匹配方法剔除SIFT误匹配点,分别实现多无人机航拍图像特征匹配、航拍融合图像与基准图像的匹配,从原理上克服了定位精度直接受制于导航系统姿态测量误差的问题,并可有效提高图像匹配概率和匹配精度。本发明可实现多无人机航拍图像多目标的精确定位,定位精度高、适应性好、易于工程实现。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (7)
1.一种多无人机高精度匹配定位方法,其特征在于:所述的多无人机高精度匹配定位方法包括如下步骤:
S1,多无人机数据采集,首先,预先获取具有精确位置信息的数字卫星地图或预先拼接图像等基准匹配图像;而后,以实时采集或离线加载形式获取多无人机的视频帧图像和POS数据,POS数据主要包括无人机位置和姿态数据、光电云台姿态等;
S2,基于POS数据的多航拍图像粗匹配,首先结合多无人机的各自位置和姿态角、光电平台姿态角等POS参数,基于共线成像方程初步解算出图像中任意点位置数据,实现对各无人机提供的多航拍图像校正,获取多航拍图像的区域位置;而后基于多无人机图像的区域位置,确定基准图像的区域范围,裁剪基准卫星图或拼接图,获取包含多无人机侦察图像范围的小区域基准匹配底图,完成基于区域位置的基准图像裁剪处理作业;
S3,基于改进SIFT特征的多航拍图像精匹配,首先基于改进SIFT特征的匹配方法,实现对S2步骤校正后多航拍图像的匹配融合,获得的覆盖区域大于各无人机航拍图像覆盖区域的融合图像区域,并抑制S2步骤中残存的校正误差;然后基于改进SIFT特征的匹配方法,实现航拍融合图像和基准图像的匹配融合;
S4,图像匹配定位,依据融合图像的位置信息引导至地理信息系统(geographicinformation system,GIS),进而获知航拍图像上任意点位置数据和区域态势信息。
2.根据权利要求1所述的一种多无人机高精度匹配定位方法,其特征在于,所述S1步骤中,数字卫星地图可通过测绘部门申请或资源下载等形式获得,预先拼接图像可应用预先侦察的航空相片或视频进行图像拼接。
3.根据权利要求1所述的一种多无人机高精度匹配定位方法,其特征在于,所述S2步骤中基于共线方程的图像位置解算时,按以下步骤进行:
第一步,坐标转换矩阵解算,计算无人机地理坐标系和像空间坐标系的转换矩阵,应用像空间坐标系、无人机机体坐标系、无人机地理坐标系、高斯平面直角坐标系等4个坐标系,各坐标系定义如下:
1)像空间坐标系s,原点Os为投影中心,Xs、Ys分别平行于成像面阵外框且与图像显示存储方向一致,Zs依右手坐标系确定,相机光轴为Zs轴;
2)无人机机体坐标系b,坐标原点Ob为飞机质心,Xb指右,Yb指前,Zb指上;
3)无人机地理坐标系e,坐标原点Oe为飞机质心,Xe指东,Ye指北,Ze指天;4)高斯平面直角坐标系g;
同时,设航空相机或摄像机云台的高低角为α,方位角为β,设无人机的航向角为ψ,俯仰角为θ,倾斜角为γ,根据坐标变换原理,得到不同坐标系之间的坐标变换矩阵,设目标在无人机地理坐标系e中的坐标为(xe,ye,ze),目标在像空间坐标系s中的坐标为(xs,ys,-f),f为相机或摄像机焦距,则两者之间的坐标变换关系表示为:
第二步,解算共线成像方程,设目标在高斯平面直角坐标系g中的坐标为(xg,yg),无人机在高斯平面直角坐标系g中的坐标为(xa,ya),H为无人机与地面目标点的相对高度;则基于无人机姿态数据、航空相机或摄像机的姿态数据和内参数等遥测参数,根据成像模型的共线条件方程可得
第三步,坐标位置解算和图像校正,根据共线成像方程,可以求出航拍图像中任意像素点的高斯平面直角坐标。根据航拍图像的像素坐标、高斯平面直角坐标和坐标变换矩阵,应用最邻近插值重采样实现图像校正。正射校正图像可抑制图像畸变、减弱拍摄角度差异等,与基准卫星地图或预先拼接图像视角类似,从而有效提高图像匹配定位的成功率和精度。
4.根据权利要求1所述的一种多无人机高精度匹配定位方法,其特征在于,所述S2步骤中基于区域位置的基准图像裁剪按以下步骤进行:
第一步,坐标极值计算,根据各个航拍图像的四角点位置裁剪基准地图,获取图像匹配的基准底图;其中在进行坐标值计算时,设共有n幅图像,第i幅航拍图像四角点位置分别为(xi1,yi1)、(xi2,yi2)、(xi3,yi3)、(xi4,yi4),则各幅航拍图像的坐标极值(xmin,xmax,ymin,ymax)为
第二步,基准图像裁剪,根据裁剪图像坐标进行基准图像裁剪,获得小区域范围的基准底图,实现航拍图像的粗匹配;在进行航拍图像的粗匹配中,首先用共线定位方法求得的位置坐标存在定位误差;并设最大定位误差值为l,则可确定裁剪图像的左上角坐标为(xmax+l,ymin-l)、右下角坐标为(xmin-l,ymax+l);然后图像裁剪时依据像素坐标进行,并进行位置坐标与像素坐标之间的坐标变换;
其中在进行位置坐标与像素坐标变换时,设基准图像左上角位置坐标(x0,y0),裁剪图像左上角位置坐标(xs,ys)、像素坐标(rs,cs),x方向上的图像像素分辨率t1,y方向上的图像像素分辨率t2,行旋转参数t3,列旋转参数t4,图像上方指北时旋转参数为0,置坐标与像素坐标变换关系表示为:
5.根据权利要求1所述的一种多无人机高精度匹配定位方法,其特征在于,所述S3步骤中所述基于改进SIFT特征的匹配方法,包括基于改进SIFT特征的匹配方法主要包括改进SIFT特征提取和描述、基于二次误匹配剔除的特征匹配两个环节。
6.根据权利要求1或5述的一种多无人机高精度匹配定位方法,其特征在于,所述S3步骤中基于改进SIFT特征的匹配方法,在改进SIFT特征提取和描述环节,按以下步骤进行:
第一步,SIFT特征提取,提取航拍校正图像间、或是航拍校正图像和基准裁剪图像中的SIFT特征关键点;为了提高特征点匹配的稳定性,通过三维二次拟合函数精确确定关键点的位置和尺度;
其中,SIFT特征提取主要包括尺度空间构建、空间极值点检测两个步骤。尺度空间构建的基础是DOG金字塔,二维图像I(x,y)在不同尺度下的尺度空间表示为L(x,y,σ),可由图像I(x,y)与高斯核G(x,y,σ)的卷积得到:
其中,x,y分别表示像素点的横纵坐标,σ代表高斯正态分布的方差,尺度空间中某一个点在周围8个点以及上下层18个邻域点中是最大或最小值,就可确定该点是一个极值点,为了提高特征点匹配的稳定性,通过三维二次拟合函数精确确定关键点的位置和尺度;
第二步,改进SIFT特征描述,利用关键点邻域内所有像素点的梯度方向投影,确定关键点的主方向,在进行主方向确定时直接设特征主方向为0;同时使关键点保持旋转不变性,以关键点为中心选取16个4×4像素的小邻域,在每个小邻域形成8个方向的梯度直方图,最终得到一个128维的特征向量。
7.根据权利要求1或5所述的一种多无人机高精度匹配定位方法,其特征在于,所述S3步骤中基于改进SIFT特征的匹配方法,在基于二次误匹配剔除的特征匹配环节,按以下步骤进行:
第一步,应用暴力匹配方法,确定待匹配图像之间的初始匹配点对,采用匹配点对的特征向量欧式距离,初步滤除误差较大的匹配点对;
计算出待配准图像间匹配点对的欧式距离,求出所有匹配点对的最小和最大距离,若匹配点对距离小于设定阈值的最近和最远距离,则保留该匹配点对,否则舍弃该匹配点对;
式中,xi,k为匹配图像中第i个特征点的特征向量的第k个元素,yi,k为基准图像中第j个特征点的特征向量的第k个元素,n为特征向量的维数,di,j为航拍图像第i个特征点与基准图像第j个特征点的匹配点对欧式距离,dmax为匹配点对最大欧式距离,dmin为匹配点对最小欧式距离,α和β为设定阈值;
第二步,进一步剔除误匹配点对,利用POS数据计算匹配点对的位置坐标和地理距离,将最大定位误差值作为阈值剔除误匹配点,可适应不同类型的输入图像,提高匹配概率和匹配精度,其中定义基准图像中特征匹配点Pa的像素坐标(ra,ca)、高斯平面直角坐标(xa,ya),匹配图像中Pb的像素坐标(rb,cb)、高斯平面直角坐标(xb,yb)。Pa和Pb的地理位置距离k为
若k<l,即匹配特征点对的地理距离k小于最大定位误差l,则接受该匹配点对,否则丢弃该匹配点对;
第三步,依据RANSAC(random sample consensus)算法,计算待匹配图像之间的变换矩阵,通过基于特征向量欧式距离、地理距离的二次匹配方法,有效滤除了误匹配点,减少了RANSAC的计算量,设匹配图像像素坐标为(ri,ci),基准图像匹配控制点的像素坐标为(rri,cri),变换矩阵H表示为
第四步,根据图像变换矩阵,实现待匹配图像的图像融合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210675489.7A CN115187798A (zh) | 2022-06-15 | 2022-06-15 | 一种多无人机高精度匹配定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210675489.7A CN115187798A (zh) | 2022-06-15 | 2022-06-15 | 一种多无人机高精度匹配定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115187798A true CN115187798A (zh) | 2022-10-14 |
Family
ID=83513370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210675489.7A Pending CN115187798A (zh) | 2022-06-15 | 2022-06-15 | 一种多无人机高精度匹配定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115187798A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115495611A (zh) * | 2022-11-18 | 2022-12-20 | 中国电子科技集团公司第五十四研究所 | 一种面向无人机自主定位的空间场景检索方法 |
CN115618749A (zh) * | 2022-12-05 | 2023-01-17 | 四川腾盾科技有限公司 | 一种大型无人机实时定位的误差补偿方法 |
CN116485858A (zh) * | 2023-06-25 | 2023-07-25 | 中国人民解放军国防科技大学 | 基于多尺度跨模态邻域描述子的异源图像配准方法及装置 |
CN116486290A (zh) * | 2023-06-21 | 2023-07-25 | 成都庆龙航空科技有限公司 | 一种无人机监测追踪方法、装置、电子设备及存储介质 |
CN116704037A (zh) * | 2023-08-08 | 2023-09-05 | 南京遇简信息科技有限公司 | 一种基于图像处理技术的卫星失锁重定位方法及系统 |
CN117291980A (zh) * | 2023-10-09 | 2023-12-26 | 宁波博登智能科技有限公司 | 一种基于深度学习的单张无人机图像像素定位方法 |
-
2022
- 2022-06-15 CN CN202210675489.7A patent/CN115187798A/zh active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115495611A (zh) * | 2022-11-18 | 2022-12-20 | 中国电子科技集团公司第五十四研究所 | 一种面向无人机自主定位的空间场景检索方法 |
CN115618749A (zh) * | 2022-12-05 | 2023-01-17 | 四川腾盾科技有限公司 | 一种大型无人机实时定位的误差补偿方法 |
CN116486290A (zh) * | 2023-06-21 | 2023-07-25 | 成都庆龙航空科技有限公司 | 一种无人机监测追踪方法、装置、电子设备及存储介质 |
CN116486290B (zh) * | 2023-06-21 | 2023-09-05 | 成都庆龙航空科技有限公司 | 一种无人机监测追踪方法、装置、电子设备及存储介质 |
CN116485858A (zh) * | 2023-06-25 | 2023-07-25 | 中国人民解放军国防科技大学 | 基于多尺度跨模态邻域描述子的异源图像配准方法及装置 |
CN116485858B (zh) * | 2023-06-25 | 2023-09-01 | 中国人民解放军国防科技大学 | 基于多尺度跨模态邻域描述子的异源图像配准方法及装置 |
CN116704037A (zh) * | 2023-08-08 | 2023-09-05 | 南京遇简信息科技有限公司 | 一种基于图像处理技术的卫星失锁重定位方法及系统 |
CN116704037B (zh) * | 2023-08-08 | 2024-01-05 | 南京遇简信息科技有限公司 | 一种基于图像处理技术的卫星失锁重定位方法及系统 |
CN117291980A (zh) * | 2023-10-09 | 2023-12-26 | 宁波博登智能科技有限公司 | 一种基于深度学习的单张无人机图像像素定位方法 |
CN117291980B (zh) * | 2023-10-09 | 2024-03-15 | 宁波博登智能科技有限公司 | 一种基于深度学习的单张无人机图像像素定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115187798A (zh) | 一种多无人机高精度匹配定位方法 | |
CN107316325B (zh) | 一种基于图像配准的机载激光点云与影像配准融合方法 | |
CN107527328B (zh) | 一种兼顾精度与速度的无人机影像几何处理方法 | |
CN113850126A (zh) | 一种基于无人机的目标检测和三维定位方法和系统 | |
CN104268935A (zh) | 一种基于特征的机载激光点云与影像数据融合系统及方法 | |
CN107560603B (zh) | 一种无人机倾斜摄影测量系统及测量方法 | |
CN108665499B (zh) | 一种基于视差法的近距飞机位姿测量方法 | |
CN111044037B (zh) | 一种光学卫星影像的几何定位方法及装置 | |
CN113222820B (zh) | 一种位姿信息辅助的航空遥感图像拼接方法 | |
CN113624231B (zh) | 基于异源图像匹配的惯性视觉组合导航定位方法及飞行器 | |
CN113313659B (zh) | 一种多机协同约束下高精度图像拼接方法 | |
CN113793270A (zh) | 一种基于无人机姿态信息的航拍图像几何校正方法 | |
CN114004977A (zh) | 一种基于深度学习的航拍数据目标定位方法及系统 | |
CN114372992A (zh) | 一种基于动平台的边缘角点检测四目视觉算法 | |
CN116385504A (zh) | 一种基于无人机采集点云与图像配准的巡检、测距方法 | |
CN113963067B (zh) | 一种采用小靶标对大视场视觉传感器进行标定的标定方法 | |
CN111598930B (zh) | 彩色点云生成方法、装置及终端设备 | |
CN109146936B (zh) | 一种图像匹配方法、装置、定位方法及系统 | |
CN112132029B (zh) | 一种面向地震应急响应的无人机遥感影像快速定位方法 | |
CN115423863A (zh) | 相机位姿估计方法、装置及计算机可读存储介质 | |
CN114004949A (zh) | 机载点云辅助的移动测量系统安置参数检校方法及系统 | |
Gotovac et al. | A model for automatic geomapping of aerial images mosaic acquired by UAV | |
US20240085186A1 (en) | A method, software product, and system for determining a position and orientation in a 3d reconstruction of the earth's surface | |
CN111561949B (zh) | 机载激光雷达和高光谱成像仪一体机的坐标匹配方法 | |
He et al. | A Structure-from-Motion Approach Using UAV-based Imagery for Precision Agriculture Applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |