CN117612017B - 一种环境自适应的遥感影像变化检测方法 - Google Patents
一种环境自适应的遥感影像变化检测方法 Download PDFInfo
- Publication number
- CN117612017B CN117612017B CN202410090942.7A CN202410090942A CN117612017B CN 117612017 B CN117612017 B CN 117612017B CN 202410090942 A CN202410090942 A CN 202410090942A CN 117612017 B CN117612017 B CN 117612017B
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- image
- images
- network
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008859 change Effects 0.000 title claims abstract description 43
- 238000001514 detection method Methods 0.000 title claims abstract description 34
- 230000004927 fusion Effects 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 13
- 238000004364 calculation method Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 10
- 125000003275 alpha amino acid group Chemical group 0.000 claims description 3
- 150000001875 compounds Chemical class 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种环境自适应的遥感影像变化检测方法,包括构造遥感影像数据集;构造融合网络,包括特征统一网络和超分辨网络;用遥感影像数据集训练融合网络得到融合模型;变化检测中融合网络先将两张遥感影像P0、P1分别转换为特征分布相同的转换影像PC0和PC1,然后将PC0进行放大获得影像PL0,通过对PC1和PL0中像素点的距离计算获得变化检测结果。本发明用特征统一网络将不同特征的遥感影像转换为特征分布相同的转换影像,再进行变化检测使得变化检测能够适应不同环境。尤其适用于因采集时间不同、地区不同下的特征差异大的遥感影像。同时用超分辨网络进行背景建模,能充分利用相邻像素间相关性,提高变化检测准确性。
Description
技术领域
本发明涉及图像分析技术领域,尤其涉及一种环境自适应的遥感影像变化检测方法。
背景技术
变化检测是从不同时期的遥感数据中定量确定遥感影像中的地表变化区域。常用的方法是建立遥感影像的背景模型,通过将采集到的遥感影像与背景模型进行对比,来确定背景变化像素。
然而由于采集时间不同,同一地区不同时间采集到的影像特征差异大,如同一地区的冬季和夏季采集的影像,二者特征差异大,为变化检测算法中的背景建模和检测带来了巨大挑战;同时不同地区的遥感影像特征差异大,如在东北地区的遥感影像上训练的获得的变化检测模型,很难适应在海南地区遥感影像。因此有必要设计一个变化检测模型,使其能够适应不同的环境变化。
名词解释:
FSRCNN:英文为Fast Super-Resolution by CNN,中文为超分辨率网络,整个网络可以被分解为5个部分:Feature extraction(特征提取层)、Shrinking(缩小层)、No-linear mapping(非线性映射层)、Expanding(扩大)和Deconvolution(反卷积)。FSRCNN学习从LR到HR的映射函数,训练速度变快,可以共享其中的映射层。
发明内容
本发明的目的就在于提供一种解决上述问题,避免因影像特征差异大造成变化检测不准确的一种环境自适应的遥感影像变化检测方法。
为了实现上述目的,本发明采用的技术方案是这样的:一种环境自适应的遥感影像变化检测方法,包括以下步骤;
S1,构造遥感影像数据集,包括原始数据集D和下采样数据集Dd;
获取不同时间不同地点的遥感影像,并分别下采样得到对应的下采样影像,所有遥感影像构成原始数据集D,所有下采样影像构成下采样数据集Dd;
S2,构造一融合网络,所述融合网络包括一特征统一网络和一超分辨网络;
所述特征统一网络用于将输入的原影像进行转换,得到转换影像,转换影像具有相同的特征分布,所述原影像包括遥感影像和下采样影像;
所述超分辨网络为FSRCNN,用于将转换影像中的每个像素点,映射为m×m个像素点,得到放大图像;
S3,设置训练次数,用遥感影像数据集训练融合网络至收敛,得到融合模型,其中一次训练包括步骤S31~S33;
S31,从D中随机选取两批原始遥感影像,构成样本集X和样本集Y,从Dd中选取两批下采样遥感影像,构成样本集Xd和样本集Yd,其中Xd与X中原影像一一对应,Yd与Y中原影像一一对应;
S32,将X、Y、Xd、Yd送入特征统一网络,对每张原影像,特征统一网络将其转换为具有相同特征分布的转换影像,将与X、Y、Xd、Yd对应的转换影像,分别构成转换影像集合X'、Y'、Xd'、Yd';
S33,构造损失函数L,并用L训练融合网络;
(1),
(2),
(3),
式(1)中,、/>分别为特征统一网络和超分辨网络的损失函数,/>为/>的权重;
式(2)中,为均值计算,/>为方差计算,d为特征统一网络输出的转换影像扁平化后的维度,||·||2为L2范数计算;
式(3)中,L FSRCNN (·)为FSRCNN的损失函数,x'为X中原影像x的转换影像,x' d 为Xd'中与x对应的转换影像,y'为Y中原影像y的转换影像,y' d 为Yd'中与y对应的转换影像,s(x' d )、s(y' d )分别为x' d 、y' d 对应的放大图像;
S4,待测区域的变化检测,包括S41~S44;
S41,获取测区域不同时刻的遥感影像,选取两张需要进行变化检测的遥感影像,将时刻靠前的遥感影像标记为P0,另一张标记为P1;
S42,将P0、P1送入融合模型,获取P0对应的放大图像PL0、P1对应的转换影像PC1;
S43,对PC1中每个像素点,找到其对应到PL0中的m×m个像素点,作为该像素点的对应像素集合;
对每个像素点,通过该像素点与对应像素集合的距离计算,判断其是否为背景点;
S44,将非背景点按坐标位置映射到P1中,得到变化检测结果。
作为优选:步骤S1中,使用3×3的最大池化层对数据集D中的遥感影像进行下采样。
作为优选:相同的特征分布,指所有转换影像的特征和方差相同。
作为优选:所述特征统一网络由五层依次连接的卷积层构成,所述卷积层的卷积核大小为3×3,步长为1,并采用零填充方式,使卷积层的输入输出尺寸相同。
作为优选:,式中,/>,为/>的初始化取值,N为预设的训练次数,n为第n次训练,1≤n≤N。
作为优选:所述m=3或5。
作为优选:步骤S43中,确定PC1中每个像素点的对应像素集合具体为:
P0经融合模型得到对应的转换影像PC0、放大图像PL0;
对PC0中第i行第j列的像素点p0(i,j),将其映射到PL0中的m×m个像素点构成像素集合M ij ,作为PC1中第i行第j列的像素点p1(i,j)的对应像素集合。
作为优选:步骤S43中,判断p1(i,j)是否为背景点包括a1~a4;
a1,预设一距离阈值ε;
a2,对M ij 中1个像素点q,根据下式计算p1(i,j)与q的距离d(p1(i,j),q);
(4),
式(4)中,c为通道数量,pc为p1(i,j)在c通道的取值,qc为q在c通道的取值;
a3,按步骤a2,得到M ij 中m×m个像素点与p1(i,j)的距离,并得到所有距离的最小值dmin;
a4,若dmin<ε,则p1(i,j)为背景点。
作为优选:
(5),
式(5)中,W和H分别为PC0的高度和宽度,d(p0(i,j),p1(i,j))为p0(i,j)与p1(i,j)的距离。
与现有技术相比,本发明的优点在于:
1、提出了一种新的遥感影像变化检测方法,构造了一种包含特征统一网络和超分辨网络的融合网络,其中,特征统一网络用于将不同特征的遥感影像转换为特征分布相同的转换影像,使用转换影像进行变化检测,使得变化检测能够适应不同的环境。同时通过超分辨网络进行背景建模,能充分利用相邻像素间的相关性,提高变化检测的相关性。
2、融合网络中,特征统一网络和超分辨网络协同训练,使得两者计算耦合性更强。另外,本发明根据公式调整/>的取值,从而能使/>的取值在N次迭代的训练过程中有序下降。使得本发明在训练初期,更注重特征统一网络的学习,当特征统一网络能够使不同影像具有相似分布时,也就是训练后期,更注重超分辨网络的训练,即背景的建模能力。
4、待测区域变化检测时,利用P1对应的转换影像PC1与背景模型进行变化检测的计算。由于超分辨网络中充分利用了相邻像素的相关性,因此使用超分辨生成的PL0作为背景模型,在变化检测中可以充分利用相邻像素的相关性,提高变化检测的准确性。
5、本发明在统一特征分布时,仅使用均值计算和方差计算,使特征统一的计算简单、效率高、速度快。
综上,本发明尤其适用于因采集时间不同、采集地区不同等情况导致的影像特征差异大的遥感影像的变化检测。
附图说明
图1为本发明流程图;
图2为特征统一网络结构图;
图3为融合模型处理遥感影像的示意图。
具体实施方式
下面将结合附图对本发明作进一步说明。
实施例1:参见图1到图3,一种环境自适应的遥感影像变化检测方法,包括以下步骤;
S1,构造遥感影像数据集,包括原始数据集D和下采样数据集Dd;
获取不同时间不同地点的遥感影像,并分别下采样得到对应的下采样影像,所有遥感影像构成原始数据集D,所有下采样影像构成下采样数据集Dd;
S2,构造一融合网络,所述融合网络包括一特征统一网络和一超分辨网络;
所述特征统一网络用于将输入的原影像进行转换,得到转换影像,转换影像具有相同的特征分布,所述原影像包括遥感影像和下采样影像;
所述超分辨网络为FSRCNN,用于将转换影像中的每个像素点,映射为m×m个像素点,得到放大图像;
S3,设置训练次数,用遥感影像数据集训练融合网络至收敛,得到融合模型,其中一次训练包括步骤S31~S33;
S31,从D中随机选取两批原始遥感影像,构成样本集X和样本集Y,从Dd中选取两批下采样遥感影像,构成样本集Xd和样本集Yd,其中Xd与X中原影像一一对应,Yd与Y中原影像一一对应;
S32,将X、Y、Xd、Yd送入特征统一网络,对每张原影像,特征统一网络将其转换为具有相同特征分布的转换影像,将与X、Y、Xd、Yd对应的转换影像,分别构成转换影像集合X'、Y'、Xd'、Yd';
S33,构造损失函数L,并用L训练融合网络;
(1),
(2),
(3),
式(1)中,、/>分别为特征统一网络和超分辨网络的损失函数,/>为/>的权重;
式(2)中,为均值计算,/>为方差计算,d为特征统一网络输出的转换影像扁平化后的维度,||·||2为L2范数计算;
式(3)中,L FSRCNN (·)为FSRCNN的损失函数,x'为X中原影像x的转换影像,x' d 为Xd'中与x对应的转换影像,y'为Y中原影像y的转换影像,y' d 为Yd'中与y对应的转换影像,s(x' d )、s(y' d )分别为x' d 、y' d 对应的放大图像;
S4,待测区域的变化检测,包括S41~S44;
S41,获取测区域不同时刻的遥感影像,选取两张需要进行变化检测的遥感影像,将时刻靠前的遥感影像标记为P0,另一张标记为P1;
S42,将P0、P1送入融合模型,获取P0对应的放大图像PL0、P1对应的转换影像PC1;
S43,对PC1中每个像素点,找到其对应到PL0中的m×m个像素点,作为该像素点的对应像素集合;
对每个像素点,通过该像素点与对应像素集合的距离计算,判断其是否为背景点;
S44,将非背景点按坐标位置映射到P1中,得到变化检测结果。
本实施例中,S1使用3×3的最大池化层对数据集D中的遥感影像进行下采样。另外,所有转换影像具有相同的特征分布,指所有转换影像的特征和方差相同。后续检测用转换影像来进行,使变化检测能够适应不同的环境,克服采集时间不同造成的影像特征差异大,或某区域模型无法很好适配其他区域的技术问题。
本实施例中,所述特征统一网络由五层依次连接的卷积层构成,所述卷积层的卷积核大小为3×3,步长为1,并采用零填充方式,使卷积层的输入输出尺寸相同。的值,也会跟着训练次数进行变化,主要通过公式/>实现,式中,/>,为/>的初始化取值,N为预设的训练次数,n为第n次训练,1≤n≤N。该公式使得本发明在训练初期更注重特征统一网络的学习,训练后期更注重超分辨网络的训练。
本实施例中m=3或5。
步骤S43中,确定PC1中每个像素点的对应像素集合具体为:
P0经融合模型得到对应的转换影像PC0、放大图像PL0;
对PC0中第i行第j列的像素点p0(i,j),将其映射到PL0中的m×m个像素点构成像素集合M ij ,作为PC1中第i行第j列的像素点p1(i,j)的对应像素集合。
步骤S43中,判断p1(i,j)是否为背景点包括a1~a4;
a1,预设一距离阈值ε;
a2,对M ij 中1个像素点q,根据下式计算p1(i,j)与q的距离d(p1(i,j),q);
(4),
式(4)中,c为通道数量,pc为p1(i,j)在c通道的取值,qc为q在c通道的取值;
a3,按步骤a2,得到M ij 中m×m个像素点与p1(i,j)的距离,并得到所有距离的最小值dmin;
a4,若dmin<ε,则p1(i,j)为背景点。
实施例2:在实施例1的基础上,我们设m=3。
关于步骤S43中,确定PC1中每个像素点的对应像素集合主要通过以下几步:
第一、PC0、PC1作为P0、P1的转换影像,二者尺寸大小完全相同,宽度为W、高度为H,两张转换影像的像素点是一一对应的关系,也就是p0(i,j)和p1(i,j)是一一对应的。
第二、PL0在PC0的基础上,宽度、高度均增加了3倍,PC0中每个像素点,映射到放大图像PL0中为3×3=9个像素点,所以PC0中1个像素点与PL0中9个像素点对应,也就是p0(i,j)对应PL0中包含9个像素点的像素集合;
第三、基于PC0与PC1的对应关系、PC0与像素集合的对应关系,将p0(i,j)对应的像素集合,作为p1(i,j)的对应像素集合。
步骤S43中,关于像素集合中各像素点的坐标,以p1(i,j)为例,该像素点坐标为(i,j),在PL0中对应为一3行3列的正方形区域,如图3所示,该正方形区域共9个像素点,左上角的像素点坐标为((i-1)×m+1,(j-1)×m+1),右下角的像素点坐标为((i-1)×m+3,(j-1)×m+3)。
步骤S43中,距离阈值ε根据p0(i,j)与p1(i,j)的距离来自适应生成,具体参见下式:
(5),
式(5)中,W和H分别为PC0的高度和宽度,d(p0(i,j),p1(i,j))为p0(i,j)与p1(i,j)的距离。
另外,距离阈值ε也能根据实际需要或经验进行预设,并不一定按公式(5)得到,此处仅给出一种最优的方式。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种环境自适应的遥感影像变化检测方法,其特征在于:包括以下步骤;
S1,构造遥感影像数据集,包括原始数据集D和下采样数据集Dd;
获取不同时间不同地点的遥感影像,并分别下采样得到对应的下采样影像,所有遥感影像构成原始数据集D,所有下采样影像构成下采样数据集Dd;
S2,构造一融合网络,所述融合网络包括一特征统一网络和一超分辨网络;
所述特征统一网络用于将输入的原影像进行转换,得到转换影像,转换影像具有相同的特征分布,所述原影像包括遥感影像和下采样影像;
所述超分辨网络为FSRCNN,用于将转换影像中的每个像素点,映射为m×m个像素点,得到放大图像;
S3,设置训练次数,用遥感影像数据集训练融合网络至收敛,得到融合模型,其中一次训练包括步骤S31~S33;
S31,从D中随机选取两批原始遥感影像,构成样本集X和样本集Y,从Dd中选取两批下采样遥感影像,构成样本集Xd和样本集Yd,其中Xd与X中原影像一一对应,Yd与Y中原影像一一对应;
S32,将X、Y、Xd、Yd送入特征统一网络,对每张原影像,特征统一网络将其转换为具有相同特征分布的转换影像,将与X、Y、Xd、Yd对应的转换影像,分别构成转换影像集合X'、Y'、Xd'、Yd';
S33,构造损失函数L,并用L训练融合网络;
(1),
(2),
(3),
式(1)中,、/>分别为特征统一网络和超分辨网络的损失函数,/>为/>的权重;
式(2)中,为均值计算,/>为方差计算,d为特征统一网络输出的转换影像扁平化后的维度,||·||2为L2范数计算;
式(3)中,L FSRCNN (·)为FSRCNN的损失函数,x'为X中原影像x的转换影像,x' d 为Xd'中与x对应的转换影像,y'为Y中原影像y的转换影像,y' d 为Yd'中与y对应的转换影像,s(x' d )、s(y' d )分别为x' d 、y' d 对应的放大图像;
S4,待测区域的变化检测,包括S41~S44;
S41,获取测区域不同时刻的遥感影像,选取两张需要进行变化检测的遥感影像,将时刻靠前的遥感影像标记为P0,另一张标记为P1;
S42,将P0、P1送入融合模型,获取P0对应的放大图像PL0、P1对应的转换影像PC1;
S43,对PC1中每个像素点,找到其对应到PL0中的m×m个像素点,作为该像素点的对应像素集合;
对每个像素点,通过该像素点与对应像素集合的距离计算,判断其是否为背景点;
S44,将非背景点按坐标位置映射到P1中,得到变化检测结果;
所述相同的特征分布,指所有转换影像的特征和方差相同;
,式中,/>,为/>的初始化取值,N为预设的训练次数,n为第n次训练,1≤n≤N;
步骤S43中,确定PC1中每个像素点的对应像素集合具体为:
P0经融合模型得到对应的转换影像PC0、放大图像PL0;
对PC0中第i行第j列的像素点p0(i,j),将其映射到PL0中的m×m个像素点构成像素集合M ij ,作为PC1中第i行第j列的像素点p1(i,j)的对应像素集合;
判断p1(i,j)是否为背景点包括a1~a4;
a1,预设一距离阈值ε;
a2,对M ij 中1个像素点q,根据下式计算p1(i,j)与q的距离d(p1(i,j),q);
(4),
式(4)中,c为通道数量,pc为p1(i,j)在c通道的取值,qc为q在c通道的取值;
a3,按步骤a2,得到M ij 中m×m个像素点与p1(i,j)的距离,并得到所有距离的最小值dmin;
a4,若dmin<ε,则p1(i,j)为背景点。
2.根据权利要求1所述的一种环境自适应的遥感影像变化检测方法,其特征在于:步骤S1中,使用3×3的最大池化层对数据集D中的遥感影像进行下采样。
3.根据权利要求1所述的一种环境自适应的遥感影像变化检测方法,其特征在于:所述特征统一网络由五层依次连接的卷积层构成,所述卷积层的卷积核大小为3×3,步长为1,并采用零填充方式,使卷积层的输入输出尺寸相同。
4.根据权利要求1所述的一种环境自适应的遥感影像变化检测方法,其特征在于:所述m=3或5。
5.根据权利要求1所述的一种环境自适应的遥感影像变化检测方法,其特征在于:
(5),
式(5)中,W和H分别为PC0的高度和宽度,d(p0(i,j),p1(i,j))为p0(i,j)与p1(i,j)的距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410090942.7A CN117612017B (zh) | 2024-01-23 | 2024-01-23 | 一种环境自适应的遥感影像变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410090942.7A CN117612017B (zh) | 2024-01-23 | 2024-01-23 | 一种环境自适应的遥感影像变化检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117612017A CN117612017A (zh) | 2024-02-27 |
CN117612017B true CN117612017B (zh) | 2024-05-24 |
Family
ID=89952059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410090942.7A Active CN117612017B (zh) | 2024-01-23 | 2024-01-23 | 一种环境自适应的遥感影像变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117612017B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111640159A (zh) * | 2020-05-11 | 2020-09-08 | 武汉大学 | 一种基于孪生卷积神经网络的遥感影像变化检测方法 |
CN112686184A (zh) * | 2021-01-05 | 2021-04-20 | 浙江臻善科技股份有限公司 | 基于神经网络的遥感房屋变化检测方法 |
CN112949549A (zh) * | 2021-03-19 | 2021-06-11 | 中山大学 | 一种基于超分辨率的多分辨率遥感影像的变化检测方法 |
CN113516135A (zh) * | 2021-06-23 | 2021-10-19 | 江苏师范大学 | 一种基于深度学习的遥感影像建筑物提取及轮廓优化方法 |
WO2022057837A1 (zh) * | 2020-09-16 | 2022-03-24 | 广州虎牙科技有限公司 | 图像处理和人像超分辨率重建及模型训练方法、装置、电子设备及存储介质 |
WO2022083202A1 (zh) * | 2020-10-20 | 2022-04-28 | 山东科技大学 | 基于U-net神经网络的精细水体提取方法 |
CN115331087A (zh) * | 2022-10-11 | 2022-11-11 | 水利部交通运输部国家能源局南京水利科学研究院 | 融合区域语义与像素特征的遥感影像变化检测方法及系统 |
WO2023077816A1 (zh) * | 2021-11-03 | 2023-05-11 | 中国华能集团清洁能源技术研究院有限公司 | 边界优化的遥感图像语义分割方法、装置、设备及介质 |
-
2024
- 2024-01-23 CN CN202410090942.7A patent/CN117612017B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111640159A (zh) * | 2020-05-11 | 2020-09-08 | 武汉大学 | 一种基于孪生卷积神经网络的遥感影像变化检测方法 |
WO2022057837A1 (zh) * | 2020-09-16 | 2022-03-24 | 广州虎牙科技有限公司 | 图像处理和人像超分辨率重建及模型训练方法、装置、电子设备及存储介质 |
WO2022083202A1 (zh) * | 2020-10-20 | 2022-04-28 | 山东科技大学 | 基于U-net神经网络的精细水体提取方法 |
CN112686184A (zh) * | 2021-01-05 | 2021-04-20 | 浙江臻善科技股份有限公司 | 基于神经网络的遥感房屋变化检测方法 |
CN112949549A (zh) * | 2021-03-19 | 2021-06-11 | 中山大学 | 一种基于超分辨率的多分辨率遥感影像的变化检测方法 |
CN113516135A (zh) * | 2021-06-23 | 2021-10-19 | 江苏师范大学 | 一种基于深度学习的遥感影像建筑物提取及轮廓优化方法 |
WO2023077816A1 (zh) * | 2021-11-03 | 2023-05-11 | 中国华能集团清洁能源技术研究院有限公司 | 边界优化的遥感图像语义分割方法、装置、设备及介质 |
CN115331087A (zh) * | 2022-10-11 | 2022-11-11 | 水利部交通运输部国家能源局南京水利科学研究院 | 融合区域语义与像素特征的遥感影像变化检测方法及系统 |
Non-Patent Citations (2)
Title |
---|
基于深度残差生成对抗网络的医学影像超分辨率算法;高媛;刘志;秦品乐;王丽芳;;计算机应用;20180521(09);全文 * |
结合深度学习和超像元的高分遥感影像变化检测;王艳恒;高连如;陈正超;张兵;;中国图象图形学报;20200616(06);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117612017A (zh) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112052783B (zh) | 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法 | |
CN107688829A (zh) | 一种基于支持向量机的识别系统及识别方法 | |
CN105405133A (zh) | 一种遥感影像变化检测方法 | |
CN113361542B (zh) | 一种基于深度学习的局部特征提取方法 | |
CN111832228B (zh) | 基于cnn-lstm的振动传递系统 | |
CN113536925B (zh) | 一种基于引导注意力机制的人群计数方法 | |
CN109934799B (zh) | 多时相差异影像模值计算及变化检测方法 | |
CN110490924B (zh) | 一种基于多尺度Harris的光场图像特征点检测方法 | |
CN112819871B (zh) | 一种基于直线分割的表格图像配准方法 | |
CN106372612A (zh) | 一种fcm结合mrf模型的多时相遥感影像变化检测方法 | |
CN106650571A (zh) | 一种基于自适应卡方变换的多时相遥感影像变化检测方法 | |
CN115830596A (zh) | 基于融合金字塔注意力的遥感图像语义分割方法 | |
CN106373120B (zh) | 基于非负矩阵分解和核fcm的多时相遥感影像变化检测方法 | |
CN110007764B (zh) | 一种手势骨架识别方法、装置、系统及存储介质 | |
CN111523586A (zh) | 一种基于噪声可知的全网络监督目标检测方法 | |
CN110991563A (zh) | 一种基于特征融合的胶囊网络随机路由算法 | |
CN117612017B (zh) | 一种环境自适应的遥感影像变化检测方法 | |
CN102402687B (zh) | 基于深度信息的刚体部件方向检测方法和装置 | |
CN109409224B (zh) | 一种自然场景火焰检测的方法 | |
CN106485693A (zh) | 卡方变换结合mrf模型的多时相遥感影像变化检测方法 | |
CN116543297A (zh) | 一种基于时期耦合的遥感变化检测方法 | |
CN112598738B (zh) | 一种基于深度学习的人物定位方法 | |
JP2019175139A (ja) | 建築物抽出システム | |
CN114067359A (zh) | 融合人体关键点与可见部位注意力特征的行人检测方法 | |
CN111899284A (zh) | 一种基于参数化esm网络的平面目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |