CN111583166A - 一种影像融合网络模型构建及训练方法、装置 - Google Patents
一种影像融合网络模型构建及训练方法、装置 Download PDFInfo
- Publication number
- CN111583166A CN111583166A CN201911348694.7A CN201911348694A CN111583166A CN 111583166 A CN111583166 A CN 111583166A CN 201911348694 A CN201911348694 A CN 201911348694A CN 111583166 A CN111583166 A CN 111583166A
- Authority
- CN
- China
- Prior art keywords
- image
- network model
- fusion network
- image fusion
- multispectral
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10041—Panchromatic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种影像融合网络模型构建及训练方法、装置,其中,影像融合网络模型构建方法包括:构建含有多个卷积模块的卷积神经网络,对所述全色影像与所述多光谱影像进行特征提取,得到卷积特征;将所述卷积特征与所述多光谱影像进行相加操作,构建影像融合网络模型。通过实施本发明,利用多个卷积模块进行特征提取,再将提取出的特征与多光谱影像进行残差相加,能够实现全色影像与多光谱影像的有效融合。
Description
技术领域
本发明涉及影像处理领域,具体涉及一种影像融合网络模型构建及训练方法、装置。
背景技术
全色影像空间分辨率高,但光谱分辨率低,导致全色影像包含的光谱信息量少;多光谱影像光谱分辨率高,而空间分辨率低,导致多光谱影像包含的空间信息量少。两种图像各有缺陷与优势,为了恢复出空间分辨率与光谱分辨率均高的理想影像,需要将多光谱与全色影像进行融合,而如何有效融合多光谱与全色影像成为了一个重要课题。
发明内容
因此,本发明要解决的技术问题在于克服现有技术中全色影像光谱信息少和多光谱影像空间信息少的缺陷,从而提供一种遥感影像融合方法及装置。
根据第一方面,本实施例提供一种影像融合网络模型构建方法,包括如下步骤:构建含有多个卷积模块的卷积神经网络,对所述全色影像与所述多光谱影像进行特征提取,得到卷积特征;将所述卷积特征与所述多光谱影像进行相加操作,构建影像融合网络模型。
结合第一方面,在第一方面第一实施方式中,所述构建含有多个卷积模块的卷积神经网络,每个卷积模块包括:
其中,y(j)表示输出,k(i)(j)是作用于第i个输入特征图以得到第j个输出特征图的卷积核,b表示偏置。
根据第二方面,本实施例提供一种影像融合网络模型训练方法,包括如下步骤:获取训练样本,所述训练样本为对全色影像与多光谱影像分别进行预设倍数的下采样获取的影像;采用Wald准则对所述训练样本进行预处理,生成表征全色影像与多光谱影像的标签;通过第一方面或第一方面任一实施方式所述的影像融合网络模型,得到残差结果;根据所述残差结果与所述训练样本的所述标签确定所述影像融合网络模型的损失函数;根据所述损失函数利用梯度下降法调整所述影像融合网络模型参数。
结合第二方面,在第二方面第一实施方式中,通过以下公式根据所述残差结果与所述训练样本的所述标签确定所述影像融合网络模型的损失函数:
其中Loss表示损失;x(t)表示第t个的输入影像,y(t)表示第t个具备高空间分辨率的多光谱影像,f(x(t))表示基于深度残差神经网络融合出的结果,T为训练样本数目。
根据第三方面,本发明实施例提供一种影像融合网络模型构建装置,包括:卷积特征提取模块,用于构建含有多个卷积模块的卷积神经网络,对全色影像与多光谱影像进行特征提取;影像融合网络模型构建模块,用于将所述卷积特征与所述多光谱影像进行相加操作,构建影像融合网络模型。
结合第三方面,在第三方面第一实施方式中,所述卷积特征提取模块中的每个卷积模块包括:
其中,y(j)表示输出,k(i)(j)是作用于第i个输入特征图以得到第j个输出特征图的卷积核,b表示偏置。
根据第四方面,本发明提供一种影像融合网络模型训练装置,包括:样本获取模块,用于获取训练样本,所述训练样本为对全色影像与多光谱影像分别进行预设倍数的下采样获取的影像;标签生成模块,用于采用Wald准则对所述训练样本进行预处理,生成表征全色影像与多光谱影像的标签;残差结果获取模块,用于通过第一方面或第一方面任一实施方式所述的影像融合网络模型,得到残差结果;损失函数计算模块,用于根据所述残差结果与所述训练样本的所述标签确定所述影像融合网络模型的损失函数;参数调整模块,用于根据所述损失函数利用梯度下降法调整所述影像融合网络模型参数。
结合第四方面,在第四方面第一实施方式中,损失函数计算模块中通过以下公式根据所述残差结果与所述训练样本的所述标签确定所述影像融合网络模型的损失函数:
其中Loss表示损失;x(t)表示第t个的输入影像,y(t)表示第t个具备高空间分辨率的多光谱影像,f(x(t))表示基于深度残差神经网络融合出的结果,T为训练样本数目。
根据第五方面,本发明提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现第一方面或第一方面任一实施方式所述的影像融合网络模型构建方法或第二方面或第二方面任一实施方式所述的影像融合网络模型训练方法的步骤。
根据第六方面,本发明提供一种存储介质,其上存储有计算机指令,该指令被处理器执行时实现第一方面或第一方面任一实施方式所述的影像融合网络模型构建方法或第二方面或第二方面任一实施方式所述的影像融合网络模型训练方法的步骤。
本发明技术方案,具有如下优点:
1.本实施例提供一种影像融合网络模型构建方法,通过多个卷积模块进行特征提取,再将提取出的特征与多光谱影像进行残差相加,实现了全色影像与多光谱影像的有效融合。
2.本发明提供了一种影像融合网络模型训练方法,通过对融合网络模型参数的调整,得到理想的遥感影像融合模型,实现了充分利用遥感影像中的多光谱影像和全色影像所提供的光谱和空间信息,得到空间分辨率与光谱分辨率都高的影像。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中影像融合网络模型构建方法的一个具体示例的流程图;
图2为本发明实施例中影像融合网络模型训练方法的一个具体示例的流程图;
图3为本发明实施例中影像融合网络模型构建装置的一个具体示例的原理框图;
图4为本发明实施例中影像融合网络模型训练装置的一个具体示例的原理框图;
图5为本发明实施例中电子设备的一个具体示例的原理框图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,还可以是两个元件内部的连通,可以是无线连接,也可以是有线连接。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
本实施例提供一种影像融合网络模型构建方法,影像融合网络模型的输入为全色影像与多光谱影像,如图1所示,该方法包括如下步骤:
S110,构建含有多个卷积模块的卷积神经网络,对全色影像与多光谱影像进行特征提取,得到卷积特征。
示例性地,为了提取深层次的影像特征,构建含有多个卷积模块的卷积神经网络来对全色与多光谱影像的特征进行提取。卷积模块的个数大于等于20,从而构建一个深度卷积神经网络模型。
S120,将卷积特征与多光谱影像进行相加操作,构建影像融合网络模型。
示例性地,在提取出的特征的基础上对两种影像进行融合以获得更好的融合效果。通过构建含有多个卷积模块的神经网络来对输入的训练样本进行特征的提取,最后将提取出的特征与输入的低空间分辨率多光谱影像相加构成残差结果从而获得融合后的影像。
本实施例提供一种影像融合网络模型构建方法,通过多个卷积模块进行特征提取,再将提取出的特征与多光谱影像进行残差相加,实现了全色影像与多光谱影像的有效融合。
作为本申请的一个可选实施方式,步骤S110中,构建含有多个卷积模块的卷积神经网络,每个卷积模块包括:
其中,y(j)表示输出,k(i)(j)是作用于第i个输入特征图以得到第j个输出特征图的卷积核,b表示偏置。
本实施例提供一种影像融合网络模型训练方法,如图2所示,包括如下步骤:
S210,获取训练样本,训练样本为对全色影像与多光谱影像分别进行预设倍数的下采样获取的影像。
示例性地,样本的获取方式可以是通过地观测卫星,如Gaofen系列、GeoEye-1、QuickBird等,拍摄多光谱影像以及同一区域的全色影像,也可以是从网络图片数据库中获取同一区域的全色影像和多光谱影像。训练样本可以是所有获取得到的样本,也可以是获取得到的样本的一部分,比如,以获取的样本的70%作为训练样本。本实施例对训练样本的获取方式不做限定,可以根据需要确定。
由于与全色影像具备一致空间分辨率的多光谱影像不存在,可以将原始多光谱影像作为真值,将下采样后的全色与多光谱影像作为输入来训练网络。以WorldView影像为例,原本的融合任务为将0.3米的全色影像与1.2米的多光谱影像融合为0.3米的多光谱影像。由于网络需要0.3米的多光谱影像作为真值从而进行训练,而这一影像实际上并不存在,这会使得训练无法进行。为了缓解这一问题,可以将0.3米的全色影像与1.2米的多光谱影像均做4倍下采样,获得1.2米的全色影像与4.8米的多光谱影像。此时,融合任务变为将1.2米的全色影像与4.8米的多光谱影像融合为1.2米的多光谱影像,此时1.2米的多光谱影像的真值是存在的,从而使得整个训练流程能够正常进行。
S220,采用Wald准则对训练样本进行预处理,生成表征全色影像与多光谱影像的标签。
示例性地,由于没有真实的同时具备高空间分辨率与高光谱分辨率的影像作为标签训练整个网络,因此采用Wald准则准备训练时所需要的全色影像与多光谱影像与标签。
S230,通过上述实施例中的影像融合网络模型,得到残差结果。
示例性地,得到残差结果的具体方式见上述实施例,此处不再赘述。
S240,根据残差结果与训练样本的标签确定影像融合网络模型的损失函数。
示例性地,损失函数可以是根据残差结果与训练样本的标签得到的指数误差损失,可以是绝对误差损失,还可以是平方误差损失,本实施例对得到损失函数的方式不做限定,可以根据需要确定。
S250,根据损失函数利用梯度下降法调整影像融合网络模型参数。
示例性地,利用损失函数改变深度残差神经网络模型的内部参数,使得损失函数按照梯度下降的方向进行减少。
本实施例提供一种影像融合网络模型训练方法,通过对融合网络模型参数的调整,得到理想的遥感影像融合模型,实现了充分利用遥感影像中的多光谱影像和全色影像所提供的光谱和空间信息,得到空间分辨率与光谱分辨率都高的影像。
作为本申请的一个可选实施方式,通过以下公式根据残差结果与训练样本的标签确定影像融合网络模型的损失函数:
其中Loss表示损失;x(t)表示第t个的输入影像,y(t)表示第t个具备高空间分辨率的多光谱影像,f(x(t))表示基于深度残差神经网络融合出的结果,T为训练样本数目。
本实施例提供一种影像融合网络模型构建装置,如图3所示,包括:
卷积特征提取模块310,用于构建含有多个卷积模块的卷积神经网络,对全色影像与多光谱影像进行特征提取;具体实现方式见本实施例S110对应部分,在此不再赘述。
影像融合网络模型构建模块320,用于将卷积特征与多光谱影像进行相加操作,构建影像融合网络模型。具体实现方式见本实施例S120对应部分,在此不再赘述。
本实施例提供一种影像融合网络模型构建装置,通过多个卷积模块进行特征提取,再将提取出的特征与多光谱影像进行残差相加,实现了全色影像与多光谱影像的有效融合。
作为本申请的一个可选实施方式,卷积特征提取模块310中的每个卷积模块包括:
其中,y(j)表示输出,k(i)(j)是作用于第i个输入特征图以得到第j个输出特征图的卷积核,b表示偏置。
本实施例提供一种影像融合网络模型训练装置,如图4所示,包括:
样本获取模块410,用于获取训练样本,训练样本为对全色影像与多光谱影像分别进行预设倍数的下采样获取的影像;具体实现方式见本实施例S210对应部分,在此不再赘述。
标签生成模块420,用于采用Wald准则对训练样本进行预处理,生成表征全色影像与多光谱影像的标签;具体本实施例S220对应部分,在此不再赘述。
残差结果获取模块430,用于通过预设的深度残差神经网络模型对训练样本进行特征提取,得到卷积特征,并将卷积特征与多光谱影像进行相加操作,得到残差结果;具体实现方式见本实施例S230对应部分,在此不再赘述。
损失函数计算模块440,用于根据残差结果与训练样本的标签确定预设的深度残差神经网络模型的损失函数;具体实现方式见本实施例S240对应部分,在此不再赘述。
参数调整模块450,用于根据损失函数利用梯度下降法调整影像融合网络模型参数。具体实现方式见本实施例S250对应部分,在此不再赘述。
本实施例提供一种影像融合网络模型训练装置,通过对融合网络模型参数的调整,得到理想的遥感影像融合模型,实现了充分利用遥感影像中的多光谱影像和全色影像所提供的光谱和空间信息,能够得到空间分辨率与光谱分辨率都高的影像。
作为本申请的一个可选实施方式,损失函数计算模块440通过以下公式根据残差结果与训练样本的标签确定影像融合网络模型的损失函数:
其中Loss表示损失;x(t)表示第t个的输入影像,y(t)表示第t个具备高空间分辨率的多光谱影像,f(x(t))表示基于深度残差神经网络融合出的结果,T为训练样本数目。具体实现方式见本实施例方法对应部分,在此不再赘述。
本申请实施例还提供一种电子设备,如图5所示,处理器510和存储器520,其中处理器510和存储器520可以通过总线或者其他方式连接。
处理器510可以为中央处理器(Central Processing Unit,CPU)。处理器510还可以为其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等芯片,或者上述各类芯片的组合。
存储器520作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态计算机可执行程序以及模块,如本发明实施例中的影像融合网络模型构建及训练方法对应的程序指令/模块。处理器通过运行存储在存储器中的非暂态软件程序、指令以及模块,从而执行处理器的各种功能应用以及数据处理。
存储器520可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储处理器所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施例中,存储器520可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述一个或者多个模块存储在所述存储器520中,当被所述处理器510执行时,执行如图1或图2所示实施例中的影像融合网络模型构建及训练方法。
上述电子设备的具体细节可以对应参阅图1或图2所示的实施例中对应的相关描述和效果进行理解,此处不再赘述。
本施例还提供了一种计算机存储介质,所述计算机存储介质存储有计算机可执行指令,该计算机可执行指令可执行上述任意方法实施例中影像融合网络模型构建及训练方法。其中,所述存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)、随机存储记忆体(Random Access Memory,RAM)、快闪存储器(Flash Memory)、硬盘(Hard DiskDrive,缩写:HDD)或固态硬盘(Solid-State Drive,SSD)等;所述存储介质还可以包括上述种类的存储器的组合。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。
Claims (10)
1.一种影像融合网络模型构建方法,影像融合网络模型的输入为全色影像与多光谱影像,其特征在于,包括如下步骤:
构建含有多个卷积模块的卷积神经网络,对所述全色影像与所述多光谱影像进行特征提取,得到卷积特征;
将所述卷积特征与所述多光谱影像进行相加操作,构建影像融合网络模型。
3.一种影像融合网络模型训练方法,其特征在于,包括如下步骤:
获取训练样本,所述训练样本为对全色影像与多光谱影像分别进行预设倍数的下采样获取的影像;
采用Wald准则对所述训练样本进行预处理,生成表征全色影像与多光谱影像的标签;
通过权利要求1或2所述的影像融合网络模型,得到残差结果;
根据所述残差结果与所述训练样本的所述标签确定所述影像融合网络模型的损失函数;
根据所述损失函数利用梯度下降法调整所述影像融合网络模型参数。
5.一种影像融合网络模型构建装置,其特征在于,包括:
卷积特征提取模块,用于构建含有多个卷积模块的卷积神经网络,对全色影像与多光谱影像进行特征提取;
影像融合网络模型构建模块,用于将所述卷积特征与所述多光谱影像进行相加操作,构建影像融合网络模型。
7.一种影像融合网络模型训练装置,其特征在于,包括:
样本获取模块,用于获取训练样本,所述训练样本为对全色影像与多光谱影像分别进行预设倍数的下采样获取的影像;
标签生成模块,用于采用Wald准则对所述训练样本进行预处理,生成表征全色影像与多光谱影像的标签;
残差结果获取模块,用于通过权利要求1所述的影像融合网络模型,得到残差结果;
损失函数计算模块,用于根据所述残差结果与所述训练样本的所述标签确定所述影像融合网络模型的损失函数;
参数调整模块,用于根据所述损失函数利用梯度下降法调整所述影像融合网络模型参数。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1或2所述的影像融合网络模型构建方法或权利要求3或4所述的影像融合网络模型训练方法的步骤。
10.一种存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1或2所述的影像融合网络模型构建方法或权利要求3或4所述的影像融合网络模型训练方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911348694.7A CN111583166A (zh) | 2019-12-24 | 2019-12-24 | 一种影像融合网络模型构建及训练方法、装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911348694.7A CN111583166A (zh) | 2019-12-24 | 2019-12-24 | 一种影像融合网络模型构建及训练方法、装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111583166A true CN111583166A (zh) | 2020-08-25 |
Family
ID=72112914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911348694.7A Pending CN111583166A (zh) | 2019-12-24 | 2019-12-24 | 一种影像融合网络模型构建及训练方法、装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111583166A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112508082A (zh) * | 2020-12-02 | 2021-03-16 | 武汉大学 | 一种非监督学习的遥感影像空谱融合方法及系统 |
CN112529827A (zh) * | 2020-12-14 | 2021-03-19 | 珠海大横琴科技发展有限公司 | 遥感图像融合模型的训练方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103926584A (zh) * | 2014-04-30 | 2014-07-16 | 电子科技大学 | 一种空间-频率-极化组合协同探测方法 |
CN109146831A (zh) * | 2018-08-01 | 2019-01-04 | 武汉大学 | 基于双支深度学习网络的遥感图像融合方法及系统 |
CN109767412A (zh) * | 2018-12-28 | 2019-05-17 | 珠海大横琴科技发展有限公司 | 一种基于深度残差神经网络的遥感影像融合方法及系统 |
CN110415199A (zh) * | 2019-07-26 | 2019-11-05 | 河海大学 | 基于残差学习的多光谱遥感图像融合方法及装置 |
-
2019
- 2019-12-24 CN CN201911348694.7A patent/CN111583166A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103926584A (zh) * | 2014-04-30 | 2014-07-16 | 电子科技大学 | 一种空间-频率-极化组合协同探测方法 |
CN109146831A (zh) * | 2018-08-01 | 2019-01-04 | 武汉大学 | 基于双支深度学习网络的遥感图像融合方法及系统 |
CN109767412A (zh) * | 2018-12-28 | 2019-05-17 | 珠海大横琴科技发展有限公司 | 一种基于深度残差神经网络的遥感影像融合方法及系统 |
CN110415199A (zh) * | 2019-07-26 | 2019-11-05 | 河海大学 | 基于残差学习的多光谱遥感图像融合方法及装置 |
Non-Patent Citations (2)
Title |
---|
YIZHOU RAO: "A Residual Convolutional Neural Network for Pan-Shaprening", 《2017 INTERNATIONAL WORKSHOP ON REMOTE SENSING WITH INTELLIGENT PROCESSING(RSIP)》 * |
茆诗松: "《贝叶斯统计》", 30 September 2012 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112508082A (zh) * | 2020-12-02 | 2021-03-16 | 武汉大学 | 一种非监督学习的遥感影像空谱融合方法及系统 |
CN112529827A (zh) * | 2020-12-14 | 2021-03-19 | 珠海大横琴科技发展有限公司 | 遥感图像融合模型的训练方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111524063A (zh) | 一种遥感图像融合方法及装置 | |
CN108229455B (zh) | 物体检测方法、神经网络的训练方法、装置和电子设备 | |
CN110570426B (zh) | 使用深度学习的图像联合配准和分割 | |
CN110415199B (zh) | 基于残差学习的多光谱遥感图像融合方法及装置 | |
CN111291825B (zh) | 病灶分类模型训练方法、装置、计算机设备和存储介质 | |
CN110781756A (zh) | 基于遥感图像的城市道路提取方法及装置 | |
CN113674421B (zh) | 3d目标检测方法、模型训练方法、相关装置及电子设备 | |
CN114299034A (zh) | 一种缺陷检测模型的训练方法、缺陷检测方法及装置 | |
US11532090B2 (en) | Electronic device and method for estimating optical flow | |
CN111583166A (zh) | 一种影像融合网络模型构建及训练方法、装置 | |
CN113870215B (zh) | 中线提取方法及装置 | |
CN114240779B (zh) | 一种点云去噪方法、装置、设备及存储介质 | |
CN117407710A (zh) | 高光谱遥感水质参数反演方法、装置、电子设备及存储介质 | |
CN112215304A (zh) | 一种用于地理影像拼接的灰度影像匹配方法及装置 | |
CN110751061B (zh) | 基于sar网络的sar图像识别方法、装置、设备和存储介质 | |
CN114882115B (zh) | 车辆位姿的预测方法和装置、电子设备和存储介质 | |
CN111582013A (zh) | 一种基于灰度共生矩阵特征船只检索方法及装置 | |
CN116052097A (zh) | 一种地图要素检测方法、装置、电子设备和存储介质 | |
CN112668637B (zh) | 网络模型的训练方法、识别方法、装置及电子设备 | |
CN113191440A (zh) | 一种遥感影像实例分类方法、系统、终端及存储介质 | |
CN111950527A (zh) | 一种基于yolo v2神经网络的目标检测方法及装置 | |
CN114299128A (zh) | 多视角定位检测方法及装置 | |
CN117693768A (zh) | 语义分割模型的优化方法和装置 | |
CN115049895B (zh) | 一种图像属性识别方法、属性识别模型训练方法及装置 | |
CN112328584B (zh) | 多维时空谱数据融合方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200825 |
|
RJ01 | Rejection of invention patent application after publication |