CN110189283A - 基于语义分割图的遥感图像dsm融合方法 - Google Patents
基于语义分割图的遥感图像dsm融合方法 Download PDFInfo
- Publication number
- CN110189283A CN110189283A CN201910421713.8A CN201910421713A CN110189283A CN 110189283 A CN110189283 A CN 110189283A CN 201910421713 A CN201910421713 A CN 201910421713A CN 110189283 A CN110189283 A CN 110189283A
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- dsm
- sensing images
- img
- semantic segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 72
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 13
- 230000004927 fusion Effects 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims description 26
- 239000011159 matrix material Substances 0.000 claims description 19
- 238000012937 correction Methods 0.000 claims description 13
- 239000000203 mixture Substances 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 230000001174 ascending effect Effects 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims 1
- 238000000034 method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 201000004569 Blindness Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于语义分割图的遥感图像DSM融合方法,用于解决现有遥感图像DSM融合方法中存在的融合的遥感图像DSM精度较低的技术问题,实现步骤包括:获取多个有效时间差对应的图像对;获取每个有效时间差所对应的图像对ai的视差图;获取每个有效时间差所对应的图像对ai的数字表面模型DSMi;获取语义分割图;基于语义分割图对遥感图像数字表面模型DSM进行融合。本发明根据语义分割图的标签信息对融合前的多个遥感图像DSM的高度值进行更改并将其限定在标准高度范围内,提高了融合的遥感图像DSM的精度。本发明成果可应用于城市规划、立体导航等领域。
Description
技术领域
本发明属于遥感图像处理技术领域,涉及一种遥感图像的DSM融合方法,具体涉及一种基于语义分割图的遥感图像DSM融合方法,可用于城市规划、立体导航等领域中遥感图像的分析与处理。
背景技术
遥感图像DSM(Digital Surface Model),即遥感图像数字表面模型,是指包含了地表建筑物、桥梁和树木等高度值的地面高程模型,真实地表达地面起伏情况。
遥感图像DSM融合是指将多个遥感图像DSM按一定的融合规则进行融合,以得到所含高度值更准确的DSM的过程。近年来,研究者对遥感图像DSM融合的研究较少,使用的都是简单的数学计算方法,未考虑融合前DSM的高度值的准确性的问题,得到的融合的遥感图像DSM精度较低。
目前实际应用中,对遥感图像DSM进行融合时使用最多的是中值法融合方法。OzgeC.Ozcanli在2015年Computer Vision&Pattern Recognition Workshops会议上发表的论文A comparison of stereo and multiview 3-D reconstruction using cross-sensorsatellite imagery中提出利用中值法对遥感图像DSM进行融合,融合过程中将多个DSM在相同像素点的高度值取中值的结果作为融合的遥感图像DSM在该像素点的高度值,该融合过程仅是将中值法这一数学计算方法作为融合规则对DSM进行融合,并未考虑如树木等存在的高度不连贯和高度值差异较大等问题,容易将融合前的多个DSM中错误的高度值代入计算,具有盲目性,导致最终得到的融合的遥感图像DSM精度较低。
语义分割图,即每个像素被赋予特定标签信息的图像。目前在遥感图像处理技术领域中,将单个尺度的由遥感图像和对应的语义分割图构成的遥感训练集输入深度卷积神经网络中,网络无法同时学习遥感图像的全局特征信息和细节特征信息,导致得到标签信息不够准确的语义分割图,进而无法利用该语义分割图提高融合的遥感图像DSM的精度。
发明内容
本发明的目的在于克服上述现有技术存在的缺陷,提出一种基于语义分割图的遥感图像DSM融合方法,用于解决现有技术中存在的融合的遥感图像DSM精度较低的技术问题。
为实现上述目的,本发明采取的技术方案包括如下步骤:
1、一种基于语义分割图的遥感图像DSM融合方法,其特征在于,包括如下步骤:
(1)获取多个有效时间差对应的图像对:
(1a)对n个卫星在不同时间对同一区域拍摄的n幅遥感图像进行组合方式配对,得到个图像对,并计算每个图像对中两幅遥感图像的时间差Δt,得到个时间差,n≥2;
(1b)按照升序的方式对个时间差进行排序,并选择前p个时间差作为有效时间差,该前p个有效时间差所对应的图像对为a1,a2,…,ai,…,ap,ai表示第i个有效时间差所对应的图像对,ai的一幅遥感图像为ai1,另一幅遥感图像为ai2,ai1和ai2的大小均为w×h,1≤i≤p,p≥1;
(2)获取每个有效时间差所对应的图像对ai的视差图:
(2a)对每个图像对ai的两幅遥感图像ai1和ai2进行校正,得到由大小均为的校正图像bi1和bi2构成的校正图像对bi,p个图像对a1,a2,…,ai,…,ap的校正图像对为b1,b2,…,bi,…,bp;
(2b)采用半全局匹配算法计算bi的大小为的视差图bidisp,并将其作为ai的视差图,p个图像对a1,a2,…,ai,…,ap的视差图为b1disp,b2disp,…,bidisp,…,bpdisp;
(3)获取每个有效时间差所对应的图像对ai的数字表面模型DSMi:
(3a)通过bi1和bidisp对bi2进行配准,得到大小为的配准图像p个配准图像为
(3b)采用三角测量法,通过bi1和计算ai的3D点云,并通过3D点云构造ai的大小为的数字表面模型DSMi,p个图像对a1,a2,…,ai,…,ap的数字表面模型为DSM1,DSM2,…,DSMi,…,DSMp, 为DSMi上坐标为(μ,σ)的像素点的高度值;
(4)获取语义分割图:
(4a)构建W个不同尺度的遥感训练集T1,T2,…,Tq,…,TW,并将其分别输入深度卷积神经网络中,得到W个分割网络模型Model1,Model2,…,Modelq,…,ModelW,Tq和Modelq分别表示第q个尺度的遥感训练集和其分割网络模型,W≥2;
(4b)获取bi1在Model1,Model2,…,Modelq,…,ModelW下的大小均为的W个语义分割图imgi1,imgi2,…,imgiq,…,imgiW,并将其作为ai1的W个语义分割图,p个遥感图像a11,a21,…,ai1,…,ap1在Model1,Model2,…,Modelq,…,ModelW下的pW个语义分割图为其中 表示imgiq在坐标为的像素点的标签值,
(4c)计算ai1的W个语义分割图imgi1,imgi2,…,imgiq,…,imgiW在坐标为的像素点的标签值的众数并对个众数构成的矩阵进行可视化,得到ai1的语义分割图imgimod,p个遥感图像a11,a21,…,ai1,…,ap1的语义分割图为img1mod,img2mod,…,imgimod,…,imgpmod,其中
(4d)计算p个语义分割图img1mod,img2mod,…,imgimod,…,imgpmod在坐标为的像素点的标签值的众数并对个众数构成的矩阵进行可视化,得到语义分割图Imgfuse,
(5)基于语义分割图对遥感图像数字表面模型DSM进行融合:
(5a)统计ai所在区域的带有人工标注的Ground truth语义分割图中每个标签值Cε对应的高度范围并将其作为DSM1,DSM2,…,DSMi,…,DSMp融合的标准高度范围,ε为整数,ε≥1;
(5b)当时,若令若令计算的中值并对个中值构成的矩阵进行可视化,得到所有图像对的DSM1,DSM2,…,DSMi,…,DSMp融合的数字表面模型DSMfuse,
本发明与现有技术相比,具有如下优点:
第一,本发明根据语义分割图的标签信息对融合前的多个遥感图像DSM的高度值进行更改并将其限定在标准高度范围内,避免了传统融合方法中直接利用中值法将融合前的多个DSM中错误的高度值代入计算而导致的融合的遥感图像DSM所含高度值不够准确的缺点,提高了融合的遥感图像DSM的精度。
第二,本发明将多个尺度遥感训练集分别输入深度卷积神经网络中,网络既可以通过较大尺度训练集学习到遥感图像的全局特征信息,又可以通过较小尺度训练集学习到遥感图像的细节特征信息,避免了单个尺度遥感训练集输入深度卷积神经网络中导致网络无法同时学习遥感图像的全局特征信息和细节特征信息的缺点,提高了语义分割图的精度,使其更好的应用于遥感图像的DSM融合。
附图说明
图1是本发明的实现流程图。
具体实施方式
下面结合附图和具体实施例,对本发明作进一步详细说明:
参照图1,本发明包括如下步骤:
步骤1)获取多个有效时间差对应的图像对:
步骤1a)对n个卫星在不同时间对同一区域拍摄的n幅遥感图像进行组合方式配对,得到个图像对,并计算每个图像对中两幅遥感图像的时间差Δt,得到个时间差,n≥2;
本实施例中使用的数据集为Urban Semantic 3D(US3D),这是一个大型公共数据集,包括美国佛罗里达州杰克逊维尔市和美国内布拉斯加州奥马哈市的遥感图像以及语义分割图,其中n=26;
本实施例中每个图像对中两幅遥感图像的时间差Δt的计算公式为:
Δt=|t1-t2|
其中t1表示每个图像对的一幅遥感图像的月份时间信息,t2表示另一幅遥感图像的月份时间信息;
步骤1b)按照升序的方式对个时间差进行排序,并选择前p个时间差作为有效时间差,该前p个有效时间差所对应的图像对为a1,a2,…,ai,…,ap,ai表示第i个有效时间差所对应的图像对,ai的一幅遥感图像为ai1,另一幅遥感图像为ai2,ai1和ai2的大小均为w×h,1≤i≤p,p≥1;
本实施例中Urban Semantic 3D数据集的遥感图像的宽和高分别为w=2048,h=2048;
本实施例中p=50,即选择前50个时间差作为有效时间差,该50个时间差的差值较小,对应的图像对的两幅遥感图像的内容差异较小,而当p>50时,随着时间差的差值不断增大,对应的图像对的两幅遥感图像的内容差异增大,导致校正难度加大,当p<50时,融合的遥感图像DSM精度会大幅度下降;
步骤2)获取每个有效时间差所对应的图像对ai的视差图:
步骤2a)对每个图像对ai的两幅遥感图像ai1和ai2进行校正,得到由大小均为的校正图像bi1和bi2构成的校正图像对bi,p个图像对a1,a2,…,ai,…,ap的校正图像对为b1,b2,…,bi,…,bp;
本实施例中对每个图像对ai的两幅遥感图像ai1和ai2进行校正的具体方法为:首先将遥感图像ai1的相机旋转矩阵Ri1和相机投影矩阵Pi1以及ai2的相机旋转矩阵Ri2和相机投影矩阵和Pi2输入到OpenCV函数库的stereoRectify函数中计算ai1的单应性矩阵和ai2的单应性矩阵接着将和分别输入到OpenCV函数库的initUndistortRectifyMap函数中计算ai1的校正查找映射表mapi1和ai2的校正查找映射表mapi2,最后将mapi1和mapi2分别输入到OpenCV函数库的remap函数中得到大小均为w×h的校正图像ci1和ci2,并对ci1和ci2分别进行中心裁剪,得到由大小均为的校正图像bi1和bi2构成的校正图像对bi。
步骤2b)采用半全局匹配算法计算bi的大小为的视差图bidisp,并将其作为ai的视差图,p个图像对a1,a2,…,ai,…,ap的视差图为b1disp,b2disp,…,bidisp,…,bpdisp;
本实施例中采用半全局匹配算法计算bi的大小为视差图bidisp的具体方法为:将bi中的bi1和bi2输入OpenCV函数库的sgbm函数中,计算视差矩阵bimetric,然后对bimetric进行可视化得到bi的大小为的视差图bidisp;
步骤3)获取每个有效时间差所对应的图像对ai的数字表面模型DSMi:
步骤3a)通过bi1和bidisp对bi2进行配准,得到大小为的配准图像p个配准图像为
本实施例中通过bi1和bidisp对bi2进行配准的具体方法为:bi1的所有像素点的列坐标和行坐标展开为其中表示bi1的坐标为(x,y)位置的像素点的列坐标,表示bi1的坐标为(x,y)位置的像素点的行坐标;
bidisp的所有像素点的视差值构成的矩阵为则bi2的坐标为(x,y)位置的像素点的列坐标和行坐标的计算公式分别为:
计算bi2的所有像素点的行坐标和列坐标,结果为
步骤3b)采用三角测量法,通过bi1和计算ai的3D点云,并通过3D点云构造ai的大小为的数字表面模型DSMi,p个图像对a1,a2,…,ai,…,ap的数字表面模型为DSM1,DSM2,…,DSMi,…,DSMp, 为DSMi上坐标为(μ,σ)的像素点的高度值;
本实施例中,采用三角测量法,通过bi1和计算ai的3D点云的具体方法为:将bi1的相机矩阵的相机矩阵bi1在投影坐标系下的所有像素点坐标和在投影坐标系下的所有像素点坐标输入Opencv函数库的triangulatePoints函数中,得到ai的3D点云;
步骤4)获取语义分割图:
步骤4a)构建W个不同尺度的遥感训练集T1,T2,…,Tq,…,TW,并将其分别输入深度卷积神经网络中,得到W个分割网络模型Model1,Model2,…,Modelq,…,ModelW,Tq和Modelq分别表示第q个尺度的遥感训练集和其分割网络模型,W≥2;
本实施例中构建W个不同尺度的遥感训练集T1,T2,…,Tq,…,TW的步骤为:选择G幅与bi1类型相同且大小为的遥感图像,以及对应大小为的G幅语义分割图构成遥感训练集T1,G≥1;接着对T1中包含的G幅遥感图像和G幅语义分割图分别同时进行尺度比例为的切图处理,得到由大小均为的Gq幅遥感图像和Gq幅语义分割图构成的遥感训练集Tq,W个不同尺度的遥感训练集为T1,T2,…,Tq,…,TW,W≥2,Gq=22(q-1)G;
本实施例中W=3,即构建3个不同尺度的遥感训练集T1,T2,T3,其中遥感训练集T1由大小均为1024×1024的G幅遥感图像和G幅语义分割图构成,遥感训练集T2由大小均为512×512的4G幅遥感图像和4G幅语义分割图构成,遥感训练集T3由大小均为256×256的16G幅遥感图像和16G幅语义分割图构成;
本实施例中G=19374,本实施例中遥感训练集T1采用了Urban Semantic 3D(US3D)遥感数据集中19374幅遥感图像和19374幅语义分割图。
步骤4b)获取bi1在Model1,Model2,…,Modelq,…,ModelW下的大小均为的W个语义分割图imgi1,imgi2,…,imgiq,…,imgiW,并将其作为ai1的W个语义分割图,p个遥感图像a11,a21,…,ai1,…,ap1在Model1,Model2,…,Modelq,…,ModelW下的pW个语义分割图为其中 表示imgiq在坐标为的像素点的标签值,
步骤4c)计算ai1的W个语义分割图imgi1,imgi2,…,imgiq,…,imgiW在坐标为的像素点的标签值的众数并对个众数构成的矩阵进行可视化,得到ai1的语义分割图imgimod,p个遥感图像a11,a21,…,ai1,…,ap1的语义分割图为img1mod,img2mod,…,imgimod,…,imgpmod,其中
步骤4d)计算p个语义分割图img1mod,img2mod,…,imgimod,…,imgpmod在坐标为的像素点的标签值的众数并对个众数构成的矩阵进行可视化,得到语义分割图Imgfuse,
步骤5)基于语义分割图对遥感图像数字表面模型DSM进行融合:
步骤5a)统计ai所在区域的带有人工标注的Ground truth语义分割图中每个标签值Cε对应的高度范围并将其作为DSM1,DSM2,…,DSMi,…,DSMp融合的标准高度范围,ε为整数,ε≥1;
本实施例中ε=5,即ai所在区域的带有人工标注的Ground truth语义分割图的标签信息对应5个不同的数值,其中1代表地面,2代表高植被,3代表建筑物,4代表水,5代表高架桥;
步骤5b)当时,若令若令计算的中值并对个中值构成的矩阵进行可视化,得到所有图像对的DSM1,DSM2,…,DSMi,…,DSMp融合的数字表面模型DSMfuse,
本发明提高融合的遥感图像DSM精度的原理是:本发明引入精度较高的语义分割图的标签信息,将融合前的多个遥感图像DSM中的高度值更改并限定在标准高度范围内,达到对融合前的多个遥感图像DSM中偏离真实高度值较大的高度值进行矫正的目的,从而提高了融合的遥感图像DSM的精度。本发明引入的语义分割图精度较高的原因在于将多个尺度遥感训练集分别输入深度卷积神经网络中,网络既可以通过较大尺度训练集学习到遥感图像的全局特征信息,又可以通过较小尺度训练集学习到遥感图像的细节特征信息,最后对多个语义分割图进行融合,提高了语义分割图的精度,进而提高了融合的遥感图像DSM的精度。
Claims (3)
1.一种基于语义分割图的遥感图像DSM融合方法,其特征在于,包括如下步骤:
(1)获取多个有效时间差对应的图像对:
(1a)对n个卫星在不同时间对同一区域拍摄的n幅遥感图像进行组合方式配对,得到个图像对,并计算每个图像对中两幅遥感图像的时间差Δt,得到个时间差,n≥2;
(1b)按照升序的方式对个时间差进行排序,并选择前p个时间差作为有效时间差,该前p个有效时间差所对应的图像对为a1,a2,…,ai,…,ap,ai表示第i个有效时间差所对应的图像对,ai的一幅遥感图像为ai1,另一幅遥感图像为ai2,ai1和ai2的大小均为w×h,1≤i≤p,p≥1;
(2)获取每个有效时间差所对应的图像对ai的视差图:
(2a)对每个图像对ai的两幅遥感图像ai1和ai2进行校正,得到由大小均为的校正图像bi1和bi2构成的校正图像对bi,p个图像对a1,a2,…,ai,…,ap的校正图像对为b1,b2,…,bi,…,bp;
(2b)采用半全局匹配算法计算bi的大小为的视差图bidisp,并将其作为ai的视差图,p个图像对a1,a2,…,ai,…,ap的视差图为b1disp,b2disp,…,bidisp,…,bpdisp;
(3)获取每个有效时间差所对应的图像对ai的数字表面模型DSMi:
(3a)通过bi1和bidisp对bi2进行配准,得到大小为的配准图像p个配准图像为
(3b)采用三角测量法,通过bi1和计算ai的3D点云,并通过3D点云构造ai的大小为的数字表面模型DSMi,p个图像对a1,a2,…,ai,…,ap的数字表面模型为DSM1,DSM2,…,DSMi,…,DSMp, 为DSMi上坐标为(μ,σ)的像素点的高度值;
(4)获取语义分割图:
(4a)构建W个不同尺度的遥感训练集T1,T2,…,Tq,…,TW,并将其分别输入深度卷积神经网络中,得到W个分割网络模型Model1,Model2,…,Modelq,…,ModelW,Tq和Modelq分别表示第q个尺度的遥感训练集和其分割网络模型,W≥2;
(4b)获取bi1在Model1,Model2,…,Modelq,…,ModelW下的大小均为的W个语义分割图imgi1,imgi2,…,imgiq,…,imgiW,并将其作为ai1的W个语义分割图,p个遥感图像a11,a21,…,ai1,…,ap1在Model1,Model2,…,Modelq,…,ModelW下的pW个语义分割图为其中 表示imgiq在坐标为的像素点的标签值,
(4c)计算ai1的W个语义分割图imgi1,imgi2,…,imgiq,…,imgiW在坐标为的像素点的标签值的众数并对个众数构成的矩阵进行可视化,得到ai1的语义分割图imgimod,p个遥感图像a11,a21,…,ai1,…,ap1的语义分割图为img1mod,img2mod,…,imgimod,…,imgpmod,其中
(4d)计算p个语义分割图img1mod,img2mod,…,imgimod,…,imgpmod在坐标为的像素点的标签值的众数并对个众数构成的矩阵进行可视化,得到语义分割图Imgfuse,
(5)基于语义分割图对遥感图像数字表面模型DSM进行融合:
(5a)统计ai所在区域的带有人工标注的Ground truth语义分割图中每个标签值Cε对应的高度范围并将其作为DSM1,DSM2,…,DSMi,…,DSMp融合的标准高度范围,ε为整数,ε≥1;
(5b)当时,若令若令计算的中值并对个中值构成的矩阵进行可视化,得到所有图像对的DSM1,DSM2,…,DSMi,…,DSMp融合的数字表面模型DSMfuse,
2.根据权利要求1所述的基于语义分割图的遥感图像DSM融合方法,其特征在于,步骤(1b)中所述的计算每个图像对中两幅遥感图像的时间差Δt,计算公式为:
Δt=|t1-t2|
其中t1表示每个图像对的一幅遥感图像的时间信息,t2表示另一幅遥感图像的时间信息。
3.根据权利要求1所述的基于语义分割图的遥感图像DSM融合方法,其特征在于,步骤(4a)中所述的构建W个不同尺度的遥感训练集T1,T2,…,Tq,…,TW,实现步骤为:
(4a1)选择G幅与bi1类型相同且大小为的遥感图像,以及对应大小为的G幅语义分割图构成遥感训练集T1,G≥1;
(4a2)对T1中包含的G幅遥感图像和G幅语义分割图分别同时进行切图处理,得到由大小均为的Gq幅遥感图像和Gq幅语义分割图构成的遥感训练集Tq,W个不同尺度的遥感训练集为T1,T2,…,Tq,…,TW,W≥2,Gq=22(q-1)G。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910421713.8A CN110189283B (zh) | 2019-05-21 | 2019-05-21 | 基于语义分割图的遥感图像dsm融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910421713.8A CN110189283B (zh) | 2019-05-21 | 2019-05-21 | 基于语义分割图的遥感图像dsm融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110189283A true CN110189283A (zh) | 2019-08-30 |
CN110189283B CN110189283B (zh) | 2021-10-29 |
Family
ID=67717025
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910421713.8A Active CN110189283B (zh) | 2019-05-21 | 2019-05-21 | 基于语义分割图的遥感图像dsm融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110189283B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111914848A (zh) * | 2020-09-21 | 2020-11-10 | 南京航空航天大学 | 一种融合gis数据的遥感图像语义分割方法及系统 |
CN116188497A (zh) * | 2023-04-27 | 2023-05-30 | 成都国星宇航科技股份有限公司 | 立体遥感影像对生成dsm优化方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013121340A1 (en) * | 2012-02-13 | 2013-08-22 | Stellenbosch University | Digital elevation model |
CN107240153A (zh) * | 2017-06-16 | 2017-10-10 | 千寻位置网络有限公司 | 基于dsm的无人机飞行安全区域计算显示方法 |
CN108305237A (zh) * | 2018-01-23 | 2018-07-20 | 中国科学院遥感与数字地球研究所 | 考虑不同光照成像条件的多立体影像融合制图方法 |
CN108564656A (zh) * | 2017-12-11 | 2018-09-21 | 高力 | 一种dsm数据处理方法和装置 |
CN108681706A (zh) * | 2018-05-15 | 2018-10-19 | 哈尔滨工业大学 | 一种双源遥感数据语义分割方法 |
-
2019
- 2019-05-21 CN CN201910421713.8A patent/CN110189283B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013121340A1 (en) * | 2012-02-13 | 2013-08-22 | Stellenbosch University | Digital elevation model |
CN107240153A (zh) * | 2017-06-16 | 2017-10-10 | 千寻位置网络有限公司 | 基于dsm的无人机飞行安全区域计算显示方法 |
CN108564656A (zh) * | 2017-12-11 | 2018-09-21 | 高力 | 一种dsm数据处理方法和装置 |
CN108305237A (zh) * | 2018-01-23 | 2018-07-20 | 中国科学院遥感与数字地球研究所 | 考虑不同光照成像条件的多立体影像融合制图方法 |
CN108681706A (zh) * | 2018-05-15 | 2018-10-19 | 哈尔滨工业大学 | 一种双源遥感数据语义分割方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111914848A (zh) * | 2020-09-21 | 2020-11-10 | 南京航空航天大学 | 一种融合gis数据的遥感图像语义分割方法及系统 |
CN111914848B (zh) * | 2020-09-21 | 2024-04-12 | 南京航空航天大学 | 一种融合gis数据的遥感图像语义分割方法及系统 |
CN116188497A (zh) * | 2023-04-27 | 2023-05-30 | 成都国星宇航科技股份有限公司 | 立体遥感影像对生成dsm优化方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110189283B (zh) | 2021-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111486855B (zh) | 一种具有物体导航点的室内二维语义栅格地图构建方法 | |
CN110246159A (zh) | 基于视觉和雷达信息融合的3d目标运动分析方法 | |
CN109685842B (zh) | 一种基于多尺度网络的稀疏深度稠密化方法 | |
CN105631861B (zh) | 结合高度图从无标记单目图像中恢复三维人体姿态的方法 | |
CN104036488B (zh) | 一种基于双目视觉的人体姿态动作研究方法 | |
CN107204010A (zh) | 一种单目图像深度估计方法与系统 | |
CN104820991B (zh) | 一种基于代价矩阵的多重软约束立体匹配方法 | |
CN106091984A (zh) | 一种基于线激光的三维点云数据获取方法 | |
CN106327532A (zh) | 一种单幅图像的三维配准方法 | |
CN105913487A (zh) | 一种基于人眼图像中虹膜轮廓分析匹配的视线方向计算方法 | |
CN109558902A (zh) | 一种快速目标检测方法 | |
WO2021051344A1 (zh) | 高精度地图中车道线的确定方法和装置 | |
CN108648274A (zh) | 一种视觉slam的认知点云地图创建系统 | |
CN113409459B (zh) | 高精地图的生产方法、装置、设备和计算机存储介质 | |
CN105930795A (zh) | 一种基于人体骨骼关节点间空间向量的行走状态识别方法 | |
CN106485207A (zh) | 一种基于双目视觉图像的指尖检测方法及系统 | |
CN111784775B (zh) | 一种标识辅助的视觉惯性增强现实注册方法 | |
CN107578376A (zh) | 基于特征点聚类四叉划分和局部变换矩阵的图像拼接方法 | |
CN102831601A (zh) | 基于联合相似性测度和自适应支持权重的立体匹配方法 | |
CN106650701A (zh) | 基于双目视觉的室内阴影环境下障碍物检测方法及装置 | |
CN112884841B (zh) | 一种基于语义目标的双目视觉定位方法 | |
CN106446785A (zh) | 基于双目视觉的可行道路检测方法 | |
CN104182968A (zh) | 宽基线多阵列光学探测系统模糊动目标分割方法 | |
CN110189283A (zh) | 基于语义分割图的遥感图像dsm融合方法 | |
CN110533716A (zh) | 一种基于3d约束的语义slam系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |