CN111693025B - 一种遥感影像数据生成方法、系统及设备 - Google Patents

一种遥感影像数据生成方法、系统及设备 Download PDF

Info

Publication number
CN111693025B
CN111693025B CN202010535670.9A CN202010535670A CN111693025B CN 111693025 B CN111693025 B CN 111693025B CN 202010535670 A CN202010535670 A CN 202010535670A CN 111693025 B CN111693025 B CN 111693025B
Authority
CN
China
Prior art keywords
images
image
remote sensing
image data
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010535670.9A
Other languages
English (en)
Other versions
CN111693025A (zh
Inventor
汪驰升
唐倩迪
胡忠文
张德津
涂伟
周宝定
李清泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN202010535670.9A priority Critical patent/CN111693025B/zh
Publication of CN111693025A publication Critical patent/CN111693025A/zh
Application granted granted Critical
Publication of CN111693025B publication Critical patent/CN111693025B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/12Interpretation of pictures by comparison of two or more pictures of the same area the pictures being supported in the same relative position as when they were taken
    • G01C11/26Interpretation of pictures by comparison of two or more pictures of the same area the pictures being supported in the same relative position as when they were taken using computers to control the position of the pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C5/00Measuring height; Measuring distances transverse to line of sight; Levelling between separated points; Surveyors' levels
    • G01C5/005Measuring height; Measuring distances transverse to line of sight; Levelling between separated points; Surveyors' levels altimeters for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

本发明提供了一种遥感影像数据生成方法、系统及设备,通过在飞机上的拍摄设备拍摄目标区域内的多组多聚焦倾斜影像;对采集到的多组多聚焦倾斜影像进行图像配准和对重叠区域进行融合后得到多组拼接影像;将全部所述拼接影像进行三维重建生成密集点云;对所述密集点云生成数字表面模型;基于所述数字表面模型和各个拍摄设备所在的位置信息对所述融合后的多组拼接影像进行矫正,得到正射影像;将所述正射影像拼接成所述目标区域的遥感影像数据。本实施例公开的方法成本低廉,时效性好,且数据分辨率高,实现了低成本的收集并处理影像数据,得到高分辨率的遥感影像数据。

Description

一种遥感影像数据生成方法、系统及设备
技术领域
本发明涉及地理测绘技术领域,尤其涉及的是一种遥感影像数据生成方法、系统及设备。
背景技术
遥感技术始于20世纪60年代,可在远距离通过各式传感仪器收集目标物体表面辐射及电磁波信息,将其处理成像,从而满足对目标景物进行探测和识别的需求,是地理信息的重要获取方式。
地理信息的采集任务通常需要将传感器固定在气球、航模、飞机、人造卫星、宇宙飞船、空间实验室等平台上,后将数据传输并处理成可用数据。这些传统遥感技术存在成本高昂、周期长、缺乏即时性、数据质量影像因素多等不足。
因此,现有技术有待于进一步的改进。
发明内容
鉴于上述现有技术中的不足之处,本发明的目的在于为用户提供一种遥感数据生成方法、系统及设备,克服现有技术中遥控技术存在地理信息采集成本高、数量传输和处理周期长、即时性差和影响数据指令的因素多的缺陷。
本发明解决技术问题所采用的技术方案如下:
第一方面,本实施例公开了一种遥感影像数据生成方法,其中,包括步骤:
在飞机上的拍摄设备拍摄目标区域内的多组多聚焦倾斜影像;
对采集到的多组多聚焦倾斜影像进行图像配准,并对每组图像配准后的多聚焦倾斜影像中重叠的区域进行融合,得到图像配准和融合后的多组拼接影像;
将全部所述拼接影像进行三维重建,得到密集点云;
根据所述密集点云生成数字表面模型;
基于所述数字表面模型和各个拍摄设备所在的位置信息对所述融合后的多组拼接影像进行矫正,得到矫正后的正射影像;
将矫正后的所述正射影像拼接成所述目标区域的遥感影像数据。
可选的,所述在飞机上的拍摄设备拍摄目标区域内的多组多聚焦倾斜影像的步骤包括:
针对所述目标区域内的同一拍摄目标,改变拍摄设备的光轴角度、焦距及焦点,分别获取近聚焦图像和远聚焦图像,并将获取到的近聚焦图像和远聚焦图像作为一个多聚焦倾斜影像组。
可选的,所述对采集到的多组多聚焦倾斜影像进行图像配准的步骤包括:
利用SIFT算法识别出一组图像的特征点,分别生成两幅图像的特征向量集,将两个特征向量集中的特征点进行匹配后,删除错误匹配点,得到匹配校正后的结果。
可选的,所述对每组图像配准后的多聚焦倾斜影像中重叠的区域进行融合,得到图像配准和融合后的多组拼接影像的步骤包括:
利用拉普拉斯金字塔融合算法对各组多聚焦倾斜影像中含有的近聚焦图像和远聚焦图像中存在的重叠区域进行融合处理。
可选的,所述利用拉普拉斯金字塔融合算法对各组多聚焦倾斜影像中含有的近聚焦图像和远聚焦图像中存在的重叠区域进行融合处理的步骤包括:
分别对同组多聚焦倾斜影像中的近聚焦图像和远聚焦图像进行高斯金字塔分解和拉普拉斯金字塔分解,分别得到两幅图像的高斯金字塔和拉普拉斯金字塔;其中,高斯金字塔的图层为N+1层,所述拉普拉斯金字塔的图层为N层;
利用预先设置的二值掩膜建立的N+1层高斯金字塔;
以所述二值掩膜建立的N+1层高斯金字塔中每一层二值掩膜为权值,将同组多聚焦倾斜影像中的近聚焦图像和远聚焦图像的拉普拉斯金字塔的对应图层相加,得到第一金字塔;
将同组多聚焦倾斜影像中的近聚焦图像和远聚焦图像的高斯金字塔的第N+1图层相加,得到第一融合图像;
利用所述第一融合图像对所述第一金字塔进行重构,得到融合后的多组拼接影像。
可选的,所述将全部所述拼接影像进行三维重建,得到密集点云的步骤包括:
获取所述飞机的飞行轨迹数据,并根据所述飞行轨迹数据得到飞行时段内每秒的GPS信息,并将所述飞行时间对应的GPS信息与所述近聚焦图像的拍摄时间相匹配,得到拍摄图像时拍摄设备的经纬度及海拔信息;
基于三维重建算法对融合后的多组拼接影像进行三维重建,得到三维的密集点云。
可选的,所述基于三维重建算法对融合后的多组拼接影像进行三维重建,得到三维的密集点云的步骤包括:
提取各组拼接影像的图像特征点,对相邻拼接影像两两之间的特征点进行匹配,去除重复特征点匹配对,并提取共同特征匹配点;
连接各个共同特征匹配点,形成连接轨迹;
估计初始化匹配对的相机外参,将所述连接轨迹三角化后得到初始化的3D点;
对拼接影像进行光束法平差优化,得到相机估计参数和场景几何信息,得到稀疏3D点云;
利用地面控制点优化拍摄设备位置信息和EXI F方向数据,根据优化后的所述拍摄设备位置信息、EXIF方向数据和DEM地面高程数据,对所述稀疏3D点云进行插值,生成密集点云。
可选的,所述将矫正后的所述正射影像拼接成所述目标区域的遥感影像数据的步骤之后,还包括:
根据所述飞机的飞行高度、拍摄设备的镜头焦距、像素尺寸以及传感器尺寸,得到遥感影像数据对应的空间分辨率。
第二方面,本实施例还公开了一种遥感影像数据生成系统,其中,包括:设置在飞机上的拍摄设备、处理器、与处理器通信连接的存储介质,所述存储介质适于存储多条指令;所述处理器适于调用所述存储介质中的指令,以执行实现所述的遥感影像数据生成方法。
第三方面,本实施例还公开了一种计算机可读存储介质,其中,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现所述的遥感影像数据生成方法的步骤。
有益效果,本发明提供了一种遥感影像数据生成方法、系统及设备,通过在飞机上的拍摄设备拍摄目标区域内的多组多聚焦倾斜影像;对采集到的多组多聚焦倾斜影像进行图像配准和对重叠区域进行融合后得到多组拼接影像;将全部所述拼接影像进行三维重建,得到密集点云;对所述密集点云进行校正,并基于校正后的密集点云生成数字表面模型;基于所述数字表面模型和各个拍摄设备所在的位置信息对所述融合后的多组拼接影像进行矫正,得到矫正后的正射影像;将矫正后的所述正射影像拼接成所述目标区域的遥感影像数据。本实施例公开的方法成本低廉,时效性好,且数据分辨率高,实现了低成本的收集并处理影像数据,得到高分辨率的遥感影像数据。
附图说明
图1是本发明实施例提供的一种遥感影像数据生成方法的步骤流程图;
图2是本发明实施例所述方法中影像采集的原理示意图;
图3是本发明实施例中遥感影像分辨率的计算原理示意图;
图4是本发明实施例中所提供电子设备的结构原理示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用于解释本发明,并不用于限定本发明。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
由于现有技术中遥感技术一般是利用传感器收集目标物体表面辐射和电磁波信息,因此采集数据的仪器价格昂贵,并且对传感器收集的大量数据进行处理,不仅处理时间长,而且需要花费大量的人力,并且由于数据处理时间长,因此最终得到的遥感数据的即时性差,无法满足数据收集容易,数据及时的要求。
基于上述现有技术中出现的问题,发明人发现随着全球经济的发展,全球客机航线繁多且重访周期短,加之便携拍摄设备普及,飞机乘客常能以高空视角拍摄到地球表面的高分辨率影像。若能将这些影像数据收集并处理成可应用的遥感数据,则可在一定程度上弥补传统遥感技术的不足,节约巨大的人力物力资源。
本实施公开了一种遥感影像数据生成方法,利用飞机乘客在飞行中使用相机拍摄一系列连续性的多组多聚聚焦倾斜影像,利用SIFT算法将每组影像进行图像配准,对每组配准后的图像,采用拉普拉斯金字塔融合算法将重叠部分进行融合;通过SfM算法对拼接融合后的所有影像组进行三维重建,生成密集点云,对密集点云进行插值处理,删除噪声,生成数字表面模型,最后再基于生成的数字表面模型和各个相机位置信息,将多组影像矫正为正射影像,并将多个正射影像拼接后得到目标区域的遥控影像数据。
下面结合附图,通过对实施例的描述,对发明内容作进一步说明。
本实施例公开了一种遥感影像数据生成方法,如图1所示,包括步骤:
步骤S1、在飞机上的拍摄设备拍摄目标区域内的多组多聚焦倾斜影像。
由于目前摄像设备普遍,飞机上的乘客手上可能会携带有具有一定的拍摄设备或高分辨率相机的移动终端,因此乘客可以通过飞机窗口向下采集地面的影像,拍摄出的影像中含有地面信息。由于从飞机向下拍摄因此拍摄到的影像为倾斜影像。为了获取到更准确的地面信息,本步骤中拍摄的影像包含针对同一个拍摄目标在不同聚焦点上的图像,也即是分别拍摄近聚焦图像和远聚焦图像,而针对同一拍摄目标获取到的图像分到同一组,针对不同的拍摄目标拍摄到的多组图像组成多组多聚焦倾斜影像,并且不同的拍摄目标覆盖整个目标区域。
进一步的,所述在飞机上的拍摄设备拍摄目标区域内的多组多聚焦倾斜影像的步骤包括:
针对所述目标区域内的同一拍摄目标,改变拍摄设备的光轴角度、焦距及焦点,分别获取近聚焦图像和远聚焦图像,并将获取到的近聚焦图像和远聚焦图像作为一个多聚焦倾斜影像组。
本实施例中的拍摄设备可以为具有拍照功能的智能手机或消费型相机。结合图2所示,乘客在进行拍照时针对目标区域内的同一拍摄目标,通过改变相机光轴角度、焦距及焦点,分别拍摄近聚焦图像IMGA(i)和远聚焦图像IMGB(i)两幅影像,将近聚焦图像和远聚焦图像作为一个影像组IMGC(i),其中i表示组别,需保证i组照片能覆盖目标区域。
在一种实施方式中,近聚焦图像IMGA(i)拍摄时相机光轴与地面铅垂线的角度约为3°+FOV/2,其中3°为相机倾角,FOV为相机视场角,聚焦点在图像下方四分之一处;远聚焦图像IMGB(i)拍摄时相机光轴与地面铅垂线的角度约为3°+FOV,确保近、远聚焦图像重叠部分占图像1/2,聚焦点在图像下方四分之一处,适当调大镜头焦距。
步骤S2、对采集到的多组多聚焦倾斜影像进行图像配准,并对每组图像配准后的多聚焦倾斜影像中重叠的区域进行融合,得到图像配准和融合后的多组拼接影像。
对上述步骤S1中拍摄到的多组多聚焦倾斜影像首先进行图像配准,其中,所述图像配准是为了将同一场景的不同图像在空间位置上进行对准,再将图像配准后的图像进行图像融合,其中,图像融合是为了将图像配准后的两幅或多幅图像中含有的重叠区域平滑处理,使之过渡自然。
具体的,多聚焦倾斜影像拼接分为两个步骤:图像配准和图像融合。
(1)图像配准
所述对采集到的多组多聚焦倾斜影像进行图像配准的步骤包括:
利用图像识别算法识别出一组图像的特征点,分别得到含有两幅图像特定点对应特征向量的特征向量集,将两个特征向量集中的特征点进行匹配后,删除错误匹配点,得到匹配校正后的结果。
具体的,运用SIFT算法识别每组多聚焦倾斜图像的特征点,分别生成两幅图像的特征向量集,将两特征向量集利用最优节点有限算法(Best-bin-first算法,BBF算法)进行匹配后,采用RANSAC算法剔除错匹配点,进行匹配校正。
(2)图像融合
所述对每组图像配准后的多聚焦倾斜影像中重叠的区域进行融合,得到图像配准和融合后的多组拼接影像的步骤包括:
利用拉普拉斯金字塔融合算法对各组多聚焦倾斜影像中含有的近聚焦图像和远聚焦图像中存在的重叠区域进行融合处理。
具体的,融合处理的步骤包括:
分别对同组多聚焦倾斜影像中的近聚焦图像和远聚焦图像进行高斯金字塔分解和拉普拉斯金字塔分解,得到两幅图像的高斯金字塔和拉普拉斯金字塔;其中,高斯金字塔的图层是N+1层,拉普拉斯金字塔是N层。
利用预先设置的二值掩膜建立的N+1层高斯金字塔;
以所述二值掩膜为权值,将同组多聚焦倾斜影像中的近聚焦图像和远聚焦图像对应的拉普拉斯金字塔对应图层之间相加,得到第一金字塔,同时将所述近聚焦图像和远聚焦图像对应的高斯金字塔对应的第N+1层图层相加,得到第一融合图像;其中,N为正整数;
利用第一融合图像对第一金字塔进行重构,得到融合后的多组拼接影像。
采用拉普拉斯金字塔融合算法(Laplacian Pyramid Blending算法,LPB算法)对每一组图像的IMGA(i)与IMGB(i)重叠区域进行平滑处理,分为以下步骤:
①以同一拍摄目标的同一场景、不同聚焦点为一组的两张图像分别完成拉普拉斯金字塔分解,层数N为参数。
高斯金字塔分解是拉普拉斯金字塔分解的基础,拉普拉斯金字塔第i层图像定义为:
Figure BDA0002536903450000081
式中,Li表示第i层拉普拉斯图像,Gi表示第i层高斯图像,UP()操作是将源图像(其中,源图像和目标图像均为高斯图像)中位置为(x,y)的像素映射到目标图像的(2x+1,2y+1)位置上,即对源图像进行上采样,符号
Figure BDA0002536903450000082
表示卷积,
Figure BDA0002536903450000083
为5×5的高斯内核。式子意为:第i层拉普拉斯图像Li是第i层高斯图像Gi减去第i+1层高斯图像Gi+1上采样并高斯模糊后的结果。
②生成并传入一个二值掩膜mask,代表融合位置,即为图像组的重叠部分。
③对二值掩膜mask建立高斯金字塔,层数为N+1层。
④以二值掩膜mask建立高斯金字塔中每层mask为权值,将IMGA(i)和IMGB(i)的拉普拉斯金字塔进行相加,得到一个新的第一金字塔。同时将两幅图像的第N+1层高斯金字塔进行相加处理,得到第一融合图像,为IMG(i)1
④得到新的第一金字塔的图像信息后,将第一金字塔进行重构,得到最终的拼接图像。
具体的,对第一融合图像IMG(i)1进行上采样,并将其上采样后得到的图像与第一金字塔顶层相加(即于第一金字塔的N层相加),得到第二融合图像IMG(i)2,对第二融合图像IMG(i)2进行上采样,并将第二融合图像上采样得到的图像与第一金字塔的第N-1层相加,得到IMG(i)3,重复该过程,直至将IMG(i)n与第一金字塔的第1层相加,得到IMG(i)N+1,此处得到的图像IMG(i)N+1即为最后两幅图像融合后的结果,即拼接影像。
步骤S3、将全部所述拼接影像进行三维重建,得到密集点云。
基于上述步骤中得到的拼接影像可以建立得到目标区域的三维点云,也即是所述密集点云。
具体的,所述将全部所述拼接影像进行三维重建,得到密集点云的步骤包括:
提取各组拼接影像的图像特征点,对相邻拼接影像两两之间的特征点进行匹配,去除重复特征点匹配对,并提取共同特征匹配点;
连接各个共同特征匹配点,形成连接轨迹;
估计初始化匹配对的外参,将所述连接轨迹三角化后得到初始化的3D点;
对拼接影像进行光束法平差优化,得到相机估计参数和场景几何信息,得到稀疏3D点云;
利用地面控制点优化拍摄设备位置信息和EXIF方向数据,根据优化后的所述拍摄设备位置信息、EXIF方向数据和DEM地面高程数据,对所述稀疏3D点云进行插值,生成密集点云。
在一种实施方式中,将每一组多聚焦倾斜影像融合后,影像组的位置信息、相机内部参数信息取该组图像中近聚焦图像IMGA(i)的信息,将图像位置和相机内部参数初始化。
具体步骤如下:
从航班追踪服务网站下载航班的飞行轨迹数据,采用线性插值的方法获取飞行时段内每秒的GPS信息,并与图像IMGA(i)拍摄时间信息匹配后得到IMGC(i)组影像拍摄时相机的经度、纬度及海拔信息。
基于计算机视觉领域中的SfM算法对融合后的图像组进行处理,基于多视角几何原理,将时间系列的二维图像进行三维重建。该算法主要流程包括:图像特征点提取及匹配;估计相机参数;生成3D点云。
具体的,图像特征点提取及匹配包括:首先从各个拼接影像之间找到匹配点对相邻拼接影像两两之间的特征点进行匹配,去除重复特征点匹配对,并提取共同特征匹配点;其次,估计每个拼接影像对应的相机位置,并构建稀疏点云模型,具体的连接各个共同特征匹配点,形成连接轨迹;估计初始化匹配对的外参,将所述连接轨迹三角化后得到初始化的3D点;对拼接影像进行光束法平差优化,得到相机估计参数和场景几何信息,得到稀疏3D点云,建立出稀疏点云模型;然后选取多个地面控制点,利用地面控制点优化相机位置和方向数据,确保地理位置的精度;之后又利用控制点提高相机内外参数的计算精度,最后根据优化后的相机位置,以及添加的DEM地面高程数据,对构建出的稀疏3D点云进行插值处理,从而构建出密集点云。
本步骤中还包括利用全球数字高程模型中含有的地理信息对点云进行纠正的步骤,一种实施方式中,手动选取道路交叉口等特征较明显的点为地面控制点,从GoogleEarth上获取同名点的坐标,并从星载热辐射和反射计(ASTER)30米分辨率全球数字高程模型(GDEM)数据中提取控制点的地面高程,输入控制点的地理信息完成对点云的纠正工作。
步骤S4、根据所述密集点云生成数字表面模型。
对SfM算法获取的密集点云进行插值,手动删除噪声点,以光栅图像的形式生成数字表面模型(Digital Surface Model,DSM),基于DSM、相机及控制点位置,将融合后的每组影像校正为正射影像。
步骤S5、基于所述数字表面模型和各个拍摄设备所在的位置信息对所述融合后的多组拼接影像进行矫正,得到矫正后的正射影像。
基于DSM和各个相机位置,将多组影像矫正为正射影像。为减少畸变,利用GDEM替代密集点云生成的DEM。
步骤S6、将矫正后的所述正射影像拼接成所述目标区域的遥感影像数据。
由于矫正后的多个正射影像还是分别针对某一场景拍摄出的影像,因此需要将多个正射影像进行拼接,从而得到整个目标区域内的遥感影像数据。
进一步的,本步骤之后,还包括对遥感影像数据进行空间分辨率的计算,具体的,计算遥感影像数据的空间分辨率的步骤包括:
根据所述飞机的飞行高度、拍摄设备的镜头焦距、像素尺寸以及传感器尺寸,得到遥感影像数据对应的空间分辨率。
结合图3所示,根据地面采样分辨率(Ground Sample Distance,GSD)计算公式可计算空间分辨率,公式如下:
Figure BDA0002536903450000111
式(2)中,飞行高度近似计算为相机到地面场景中心的距离,传感器尺寸、镜头焦距、像素尺寸3个参数从图像EXIF头文件获得。
倾斜影像的空间分辨率随着距离变化而变化,分别对源图像IMGA(i),IMGB(i)计算所得最大、最小分辨率的均值为空间分辨率。
Figure BDA0002536903450000121
Figure BDA0002536903450000122
(3)、(4)式中CSD(Ai)、CSD(Bi)分别代表IMGA(i)、IMGB(i)的空间分辨率。其中,正射影像的空间分辨率取二者均值。
本实施例还公开了一种遥感影像数据生成系统,包括:设置在飞机上的拍摄设备、处理器、与处理器通信连接的存储介质,所述存储介质适于存储多条指令;所述处理器适于调用所述存储介质中的指令,以执行实现所述的遥感影像数据生成方法。
具体的,如图4所示,所述遥感影像数据生成系统包括多个拍摄设备,以及至少一个处理器(processor)20以及存储器(memory)22,还可以包括显示屏21、通信接口(Communications Interface)23和总线24。其中,处理器20、显示屏21、存储器22和通信接口23可以通过总线24完成相互间的通信。显示屏21设置为显示初始设置模式中预设的用户引导界面。通信接口23可以传输信息。处理器20可以调用存储器22中的逻辑指令,以执行上述实施例中的方法。
此外,上述的存储器22中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
存储器22作为一种计算机可读存储介质,可设置为存储软件程序、计算机可执行程序,如本公开实施例中的方法对应的程序指令或模块。处理器30通过运行存储在存储器22中的软件程序、指令或模块,从而执行功能应用以及数据处理,即实现上述实施例中的方法。
存储器22可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储器22可以包括高速随机存取存储器,还可以包括非易失性存储器。例如,U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。
本实施例还公开了一种计算机可读存储介质,其中,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现所述的遥感影像数据生成方法的步骤。
上述存储介质以及终端中的多条指令处理器加载并执行的具体过程在上述方法中已经详细说明,在这里就不再一一陈述。
本发明提供了一种遥感影像数据生成方法、系统及设备,通过在飞机上的拍摄设备拍摄目标区域内的多组多聚焦倾斜影像;对采集到的多组多聚焦倾斜影像进行图像配准和对重叠区域进行融合后得到多组拼接影像;将全部所述拼接影像进行三维重建,得到密集点云;对所述密集点云进行校正,并基于校正后的密集点云生成数字表面模型;基于所述数字表面模型和各个拍摄设备所在的位置信息对所述融合后的多组拼接影像进行矫正,得到矫正后的正射影像;将矫正后的所述正射影像拼接成所述目标区域的遥感影像数据。本实施例公开的方法成本低廉,时效性好,且数据分辨率高,实现了低成本的收集并处理影像数据,得到高分辨率的遥感影像数据。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (8)

1.一种遥感影像数据生成方法,其特征在于,包括步骤:
在飞机上的拍摄设备拍摄目标区域内的多组多聚焦倾斜影像;
对采集到的多组多聚焦倾斜影像进行图像配准,并对每组图像配准后的多聚焦倾斜影像中重叠的区域进行融合,得到图像配准和融合后的多组拼接影像;
将全部所述拼接影像进行三维重建,得到密集点云;
根据所述密集点云生成数字表面模型;
基于所述数字表面模型和各个拍摄设备所在的位置信息对所述融合后的多组拼接影像进行矫正,得到矫正后的正射影像;
将矫正后的所述正射影像拼接成所述目标区域的遥感影像数据;
所述对每组图像配准后的多聚焦倾斜影像中重叠的区域进行融合,得到图像配准和融合后的多组拼接影像的步骤包括:
分别对同组多聚焦倾斜影像中的近聚焦图像和远聚焦图像进行高斯金字塔分解和拉普拉斯金字塔分解,分别得到两幅图像的高斯金字塔和拉普拉斯金字塔;其中,所述高斯金字塔的图层为N+1层,所述拉普拉斯金字塔的图层为N层;
利用预先设置的二值掩膜建立的N+1层高斯金字塔;
以所述二值掩膜建立的N+1层高斯金字塔中每一层二值掩膜为权值,将同组多聚焦倾斜影像中的近聚焦图像和远聚焦图像的拉普拉斯金字塔的对应图层相加,得到第一金字塔;
将同组多聚焦倾斜影像中的近聚焦图像和远聚焦图像的高斯金字塔的第N+1图层相加,得到第一融合图像;
利用所述第一融合图像对所述第一金字塔进行重构,得到融合后的拼接影像。
2.根据权利要求1所述的遥感影像数据生成方法,其特征在于,所述在飞机上的拍摄设备拍摄目标区域内的多组多聚焦倾斜影像的步骤包括:
针对所述目标区域内的同一拍摄目标,改变拍摄设备的光轴角度、焦距及焦点,分别获取近聚焦图像和远聚焦图像,并将获取到的近聚焦图像和远聚焦图像作为一个多聚焦倾斜影像组。
3.根据权利要求1所述的遥感影像数据生成方法,其特征在于,所述对采集到的多组多聚焦倾斜影像进行图像配准的步骤包括:
利用SIFT算法识别出一组图像的特征点,分别生成两幅图像的特征向量集,将两个特征向量集中的特征点进行匹配后,删除错误匹配点,得到匹配校正后的结果。
4.根据权利要求2所述的遥感影像数据生成方法,其特征在于,所述将全部所述拼接影像进行三维重建,得到密集点云的步骤包括:
获取所述飞机的飞行轨迹数据,并根据所述飞行轨迹数据得到飞行时段内每秒的GPS信息,并将所述飞行时间对应的GPS信息与所述近聚焦图像的拍摄时间相匹配,得到拍摄图像时拍摄设备的经纬度及海拔信息;
基于三维重建算法对融合后的多组拼接影像进行三维重建,得到三维的密集点云。
5.根据权利要求4所述的遥感影像数据生成方法,其特征在于,所述基于三维重建算法对融合后的多组拼接影像进行三维重建,得到三维的密集点云的步骤包括:
提取各组拼接影像的图像特征点,对相邻拼接影像两两之间的特征点进行匹配,去除重复特征点匹配对,并提取共同特征匹配点;
连接各个共同特征匹配点,形成连接轨迹;
估计初始化匹配对的相机外参,将所述连接轨迹三角化后得到初始化的3D点;
对拼接影像进行光束法平差优化,得到相机估计参数和场景几何信息,得到稀疏3D点云;
利用地面控制点优化拍摄设备位置信息和EXIF方向数据,根据优化后的所述拍摄设备位置信息、EXIF方向数据和DEM地面高程数据对所述稀疏3D点云进行插值,生成密集点云。
6.根据权利要求5所述的遥感影像数据生成方法,其特征在于,所述将矫正后的所述正射影像拼接成所述目标区域的遥感影像数据的步骤之后,还包括:
根据所述飞机的飞行高度、拍摄设备的镜头焦距、像素尺寸以及传感器尺寸,计算出所述遥感影像数据的空间分辨率。
7.一种遥感影像数据生成系统,其特征在于,包括:设置在飞机上的拍摄设备、处理器、与处理器通信连接的存储介质,所述存储介质适于存储多条指令;所述处理器适于调用所述存储介质中的指令,以执行实现上述权利要求1-6任一项所述的遥感影像数据生成方法。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1~6任一项所述的遥感影像数据生成方法的步骤。
CN202010535670.9A 2020-06-12 2020-06-12 一种遥感影像数据生成方法、系统及设备 Active CN111693025B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010535670.9A CN111693025B (zh) 2020-06-12 2020-06-12 一种遥感影像数据生成方法、系统及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010535670.9A CN111693025B (zh) 2020-06-12 2020-06-12 一种遥感影像数据生成方法、系统及设备

Publications (2)

Publication Number Publication Date
CN111693025A CN111693025A (zh) 2020-09-22
CN111693025B true CN111693025B (zh) 2022-04-15

Family

ID=72480585

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010535670.9A Active CN111693025B (zh) 2020-06-12 2020-06-12 一种遥感影像数据生成方法、系统及设备

Country Status (1)

Country Link
CN (1) CN111693025B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112445497B (zh) * 2020-11-25 2022-12-27 中国电子科技集团公司第五十四研究所 一种基于插件式可扩展架构的遥感图像处理系统
CN113066173B (zh) * 2021-04-21 2023-03-14 国家基础地理信息中心 三维模型构建方法、装置和电子设备
CN114264660A (zh) * 2021-12-03 2022-04-01 国网黑龙江省电力有限公司电力科学研究院 基于绿光激光成像的输电线路杆塔表面缺陷检测方法装置
CN114757978B (zh) * 2022-05-19 2022-08-30 中国科学院空天信息创新研究院 一种遥感卫星多相机多载荷图像配对方法
CN117190982B (zh) * 2023-11-07 2024-02-02 武汉追月信息技术有限公司 一种基于遥感影像的地理信息测绘系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001082591A1 (de) * 2000-04-20 2001-11-01 Walter Moser Vorrichtung für opto-elektronische instrumente zur vervielfältigung der pixelanzahl deren flächensensoren mittels spezieller blenden und teilbildern
CN101008676A (zh) * 2006-01-16 2007-08-01 北京林业大学 无人机航空摄影遥感森林计测方法
CN103020933A (zh) * 2012-12-06 2013-04-03 天津师范大学 一种基于仿生视觉机理的多源图像融合方法
CN110675448A (zh) * 2019-08-21 2020-01-10 深圳大学 基于民航客机的地面灯光遥感监测方法、系统及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101882308A (zh) * 2010-07-02 2010-11-10 上海交通大学 提高图像拼接精度和稳定性的方法
CN105763859A (zh) * 2016-05-11 2016-07-13 北京迈凯飞工程技术有限公司 一种提高无人机航测精度的方法、系统及无人机

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001082591A1 (de) * 2000-04-20 2001-11-01 Walter Moser Vorrichtung für opto-elektronische instrumente zur vervielfältigung der pixelanzahl deren flächensensoren mittels spezieller blenden und teilbildern
CN101008676A (zh) * 2006-01-16 2007-08-01 北京林业大学 无人机航空摄影遥感森林计测方法
CN103020933A (zh) * 2012-12-06 2013-04-03 天津师范大学 一种基于仿生视觉机理的多源图像融合方法
CN110675448A (zh) * 2019-08-21 2020-01-10 深圳大学 基于民航客机的地面灯光遥感监测方法、系统及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"城市天际线对地动态观测:一种新型城市突发事件遥感监测方式探讨";汪驰升 等;《中国科学:技术科学》;20200610;正文第81页右栏、82页左栏、右栏 *
"志愿者民航客机夜光遥感方法与数据验证";宿瑞博 等;《测绘通报》;20200425;正文第88页左栏、第89页左栏 *
"民航客机平台夜光遥感方法在香港经济活动变化检测中的应用";王永全 等;《地球信息科学》;20200531;正文第1156页左栏 *

Also Published As

Publication number Publication date
CN111693025A (zh) 2020-09-22

Similar Documents

Publication Publication Date Title
CN111693025B (zh) 一种遥感影像数据生成方法、系统及设备
CN107316325B (zh) 一种基于图像配准的机载激光点云与影像配准融合方法
Carbonneau et al. Cost‐effective non‐metric photogrammetry from consumer‐grade sUAS: implications for direct georeferencing of structure from motion photogrammetry
CN110211043B (zh) 一种用于全景图像拼接的基于网格优化的配准方法
De Franchis et al. An automatic and modular stereo pipeline for pushbroom images
CN109387186B (zh) 测绘信息获取方法、装置、电子设备及存储介质
US9219858B2 (en) Generating a composite field of view using a plurality of oblique panoramic images of a geographic area
CN110663246B (zh) 用于处理图像的方法和系统
CN112197764B (zh) 实时位姿确定方法、装置及电子设备
CN111784585B (zh) 图像拼接方法、装置、电子设备和计算机可读存储介质
JP2004021921A (ja) ステレオ画像を用いた地形計測システム及び記憶媒体並びにプログラム
CN108399631B (zh) 一种尺度不变性的倾斜影像多视密集匹配方法
CN108801225B (zh) 一种无人机倾斜影像定位方法、系统、介质及设备
CN112288637A (zh) 无人机航拍图像快速拼接装置及快速拼接方法
JP2017201261A (ja) 形状情報生成システム
CN115330594A (zh) 一种基于无人机倾斜摄影3d模型的目标快速识别与标定方法
CN114544006B (zh) 一种基于环境光照条件的低空遥感影像校正系统及方法
Koeva 3D modelling and interactive web-based visualization of cultural heritage objects
CN114445583A (zh) 数据处理方法、装置、电子设备及存储介质
CN117253029A (zh) 基于深度学习的图像匹配定位方法及计算机设备
CN115423863B (zh) 相机位姿估计方法、装置及计算机可读存储介质
Wang et al. Automated mosaicking of UAV images based on SFM method
CN115950435A (zh) 无人机巡检影像的实时定位方法
CN114387532A (zh) 边界的识别方法及其装置、终端、电子设备和无人设备
CN117665841B (zh) 一种地理空间信息采集测绘方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant