CN112634184A - 基于融合性卷积神经网络的rgb图像光谱反射率重建方法 - Google Patents
基于融合性卷积神经网络的rgb图像光谱反射率重建方法 Download PDFInfo
- Publication number
- CN112634184A CN112634184A CN202011395707.9A CN202011395707A CN112634184A CN 112634184 A CN112634184 A CN 112634184A CN 202011395707 A CN202011395707 A CN 202011395707A CN 112634184 A CN112634184 A CN 112634184A
- Authority
- CN
- China
- Prior art keywords
- image
- neural network
- cnn
- rgb image
- spatial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003595 spectral effect Effects 0.000 title claims abstract description 65
- 238000002310 reflectometry Methods 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000004927 fusion Effects 0.000 title claims abstract description 23
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 11
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 110
- 238000013507 mapping Methods 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 15
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 230000008569 process Effects 0.000 claims abstract description 6
- 238000001228 spectrum Methods 0.000 claims description 38
- 238000010606 normalization Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000005316 response function Methods 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000000605 extraction Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000002035 prolonged effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于融合性卷积神经网络的RGB图像光谱反射率重建方法,首先建立图像数据库,并批量进行图像预处理;然后利用图像数据库训练基于卷积神经网络的深度卷积模型,建立基于光谱非线性映射与空间相似性融合的重建方法;最后采集待重建的RGB图像,并对其进行预处理,将其输入卷积模型进行卷积神经网络特征提取,输出重建的光谱反射率,将重建结果反馈给用户,完成光谱反射率过程。本发明的有益效果是:避免了图像种类、图像大小、相机响应函数、光源光谱功率等因素对重建结果造成的影响,大幅度提高了模型训练时间,有效解决了因线性方法或外界因素影响从而导致重建精度不高的问题。
Description
技术领域
本发明涉及视觉光谱反射率重建领域,尤其涉及一种基于融合性卷积神经网络的RGB图像光谱反射率重建方法。
背景技术
在数字化和计算机视觉迅猛发展的过程中,各种彩色印刷技术、图像重建技术得到了快速普及,丰富多样的颜色呈现在大众眼中,这些都需要准确的颜色表示方法来保证。光谱反射率指物体表面反射光通量与入射光通量的比值,是物体呈现不同颜色的本质原因,是物体表面的本质属性,同时是描述物体颜色最准确的方式,利用光谱反射率可得到物体在任意光照和观测条件下的颜色。传统获取物体表面光谱反射率的仪器设备主要有分光光度计、光谱扫描仪和多光谱相机,但由于测量速度慢、仪器效率低以及成本高昂等问题,限制了这些设备在实际中的应用。通过采集描述目标物体的色度参数,然后通过转换矩阵,将物体表面的色度参数转换为光谱反射率,而这种由色度参数转换得到的光谱反射率的方法叫做光谱反射率重建。彩色相机能够在不同的光照环境中对物体表面进行非接触式拍摄,获得物体表面的RGB图像信息,然后使用获得的RGB信息用来重建物体的反射率。
光谱反射率重建的研究对颜色科学等领域具有重要意义,随着计算机硬件的快速发展以及数据量的指数增长,深度学习技术特别是卷积神经网络能直接从图像数据中学习到数据的分布,已在图像分类、图像分割、目标检测、人脸识别等视觉任务中取得了成功,其准确率已经超越了传统线性方法。
发明内容
针对上述上述目前反射率重建精度不高、计算量大的技术问题,本发明提供了一种基于融合性卷积神经网络的RGB图像光谱反射率重建方法,首先建立图像数据库并对图像进行预处理,其次利用卷积神经网络的强大的图像特征提取能力,建立基于融合性卷积神经网络的RGB图像光谱反射率重建方法,最终,光谱CNN单元输出的无空间结构性信息的光谱反射率数据,与空间CNN单元输出的RGB图像中的空间相似性特征信息叠加,形成最终的光谱反射率数据。具体包括以下步骤:
S1:建立图像数据库,并对所述图形数据库中的所有图像进行批量预处理,所述图像数据库包括高光谱图像和RGB图像;
S2:根据从步骤S1所建立的图像数据库中获得训练数据集,训练光谱CNN卷积神经网络,建立图像与反射率之间的非线性映射模型,用于提取光谱CNN特征;
S3:利用图像与反射率之间的非线性映射模型输出的光谱CNN特征和RGB图像数据训练空间CNN卷积神经网络,建立空间相似性卷积模型,用于提取空间CNN相似性特征;
S4:采用融合性卷积神经网络方法,将图像与反射率之间的非线性映射模型和空间相似性卷积模型进行融合,得到深度卷积模型,用于同时获取光谱CNN特征和空间CNN相似性特征;
S5:采集待重建RGB图像,并对所述待重建RGB图像进行预处理,使用所述深度卷积模型进行光谱反射率重建,输出最后的光谱反射率。
进一步的,步骤S1中具体过程如下:
S1.1:收集图像,准备用于检索的图像数据库,并利用所述图像数据库中的图像组成实验数据集,所述实验数据集包括训练数据集和测试数据集;
S1.2:将所述图像数据库中的所有图像进行归一化和零均值化处理,以对整个图像数据消除该图像数据的均值。
进一步的,光谱CNN卷积神经网络将RGB图像数据和对应光谱反射率数据作为空间独立的数据集合,设置卷积模型参数将二维图像降维至一维RGB值阵列,仅仅学习图像数据RGB值和对应光谱反射率数据之间的非线性映射。
进一步的,为了有效利用空间相关性信息,采用稠密卷积神经网络模型对空间CNN卷积神经网络训练,得到空间相似性特征,以获得图像场景中大空间范围内的空间相关性信息;为更好的学习空间相关性,稠密卷积神经网络模块均接受前面所有层的输出,以建立不同层之间的连接关系,最后形成最终的空间相似性卷积模型。
进一步的,通过对所述待重建RGB图像进行预处理后,输入至所述深度卷积模型中,所述深度卷积模型包括光谱CNN单元和空间CNN单元,光谱CNN单元用于输出无空间结构性信息的光谱反射率数据,空间CNN单元用于输出的RGB图像中的空间相似性特征,将所述光谱反射率数据与空间相似性特征进行叠加,形成最终的光谱反射率数据结果。
本发明提供的技术方案带来的有益效果是:
1、本发明提出了基于融合性卷积神经网络的RGB图像光谱反射率重建方法,根据卷积神经网络的自学习能力,避免了图像种类、图像大小、相机响应函数、光源光谱功率等因素对重建结果造成的影响。
2、使用较小的专用数据集对已有的网络模型进行微调,提高了模型的准确性;利用GPU加速,大幅度提高了模型训练时间。
3、利用卷积神经网络模型提取图像特征,有效解决了因图纹理复杂而导致特征表示不全面,从而导致重建精度不高的问题。
4、通过光谱CNN构建光谱反射率与RGB图像的非线性映射,通过空间CNN构建两者的空间相似性特征,重点选择得当。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例中一种基于融合性卷积神经网络的RGB图像光谱反射率重建方法的流程图;
图2是本发明实施例中基于融合性卷积神经网络的RGB图像光谱反射率重建方法的卷积神经网络结构图;
图3是本发明实施例中基于融合性卷积神经网络的RGB图像光谱反射率重建方法的对应重建精度与三种传统方法的色差对比图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。
本发明的实施例提供了一种基于融合性卷积神经网络的RGB图像光谱反射率重建方法,这里的卷积神经网络就是深度卷积模型。
请参考图1,图1是本发明实施例中一种基于融合性卷积神经网络的RGB图像光谱反射率重建方法的流程图,具体包括如下步骤:
步骤1、建立图像数据库,并批量进行图像预处理;具体步骤如下:
步骤1.1、收集图像,准备用于检索的图像数据库,并利用所述图像数据库组成实验数据集,所述实验数据集包括训练数据集和测试数据集;
步骤1.2、将图像数据库中的图像进行归一化和零均值化处理,以对整个图像数据消除该图像数据的均值。
步骤2、利用步骤1中建立的数据库训练光谱CNN卷积神经网络具体方法是:
光谱CNN卷积神经网络的结构,在第一层,使用尺寸为s1×s1的卷积核计算a0个输出特征图,其中a0=64,当输入是RGB图像时,滤波器的尺寸为3×s1×s1×a0。在第2到第(L-1)层中,使用尺寸为s1×s1的卷积核和线性修正单元(Rectified Linear Unit,ReLU)计算输出特征图,滤波器的尺寸为a0×s1×s1×a0。最后一层使用相同的卷积核,滤波器的尺寸为a0×s1×s1×B。在本实施例的实验中,设置L=5,第一层的输入为RGB图像,令Y∈R3 ×M且X∈RB×M表示输入RGB图像和恢复的光谱反射率REF,其中M和B是REF的像素和频谱带的数量。Y和X之间的关系可以描述为:
Y=C×X
其中C∈R3×B表示相机响应函数。经过光谱CNN卷积神经网络后,第L层的输出为:
Fl=ReLU(Wl*Fl-1+bl),F0=Y
其中,ReLU(x)=max{0,x},x为上一层神经网络的输入向量,Wl和bl分别表示第L层的滤波器参数和偏置,Fl-1为第L-1层神经网络的输出。为了学习光谱非线性映射,s1=1并且卷积核在空间域中是1×1。这意味着只学习光谱非线性映射而没有任何空间结构。
光谱CNN卷积神经网络将RGB图像数据和对应光谱反射率数据作为空间独立的数据集合,将二维图像降维至一维RGB值阵列,仅仅学习图像数据RGB值和对应光谱反射率数据之间的非线性映射(无任何空间结构信息)。光谱CNN由多个CNN模块组成,每个CNN模块由卷积层Conv和激活函数ReLU组成。在此过程中,每一像素的RGB值经过光谱CNN后可输出初始的光谱反射率数据。
步骤3、基于空间CNN卷积神经网络,建立光谱反射率与RGB图像之间的空间特性;具体过程如下:
由于图像中丰富的自重复模式,空间信息在邻近区域通常是相似的。所以恢复的REF中的相邻像素应该相似,也具有空间约束:
其中,函数fs表示局部空间操作。为了有效地利用空间相似性,需要在更大的区域内获得丰富的空间相似性,这可以通过使用几个DenseNet模块来实现,空间CNN结构,从光谱CNN卷积神经网络输出初始化的REF与输入的RGB图像叠加共同进入RGB引导层,经过DenseNet模块及其内部ResNet模型的深度卷积处理后,输出修正后的光谱反射率。
步骤3.1、RGB引导层设计,许多用于平移的研究使用全色图像来保存结构信息,因为两个输入图像应该具有相似的空间结构。受此启发,使用输入RGB图像来引导空间信息重建,其通过堆叠输入RGB图像和来自光谱CNN卷积神经网络的初始化来建模,表示为stack(Y,FL)。因此,RGB引导层的输出可以表示为:
FL+1=C(WL+1*stack(Y,FL))+bL+1
其中,WL+1表示第L+1层的卷积神经网络的权重,bL+1表示第L+1层的卷积神经网络的偏置,FL表示第L层的卷积神经网络的输出,Y表示F0,即第0层卷积神经网络的输出,C代表激活函数,首先是批量标准化(batch normalization,BN),接着是ReLU。在每个卷积神经网络中都会有参数权重和偏置。
步骤3.2、DenseNet模块层设计,使用N个DenseNet模块,N表示DenseNet模块的总数,由于稠密卷积神经网络结构是每一层都接受它前面所有层的输出,建立了不同层之间的连接关系,并且在每个DenseNet模块中,都有k个ResNet模型,这可以充分利用网络特征并进一步减轻随着网络深度增加梯度消失的问题,所以可以有效抑制过拟合,最后设置N=4和k=4。综上,第n个DenseNet块的输入为stack(S0,…,Sn-1),其输出可以表示为:
Sn=Dn(stack(S0,…,Sn-1)),S0=FL+1
其中FL+1为RGB引导层的输出,Dn表示第n个DenseNet模块。对于第n个DenseNet模块,输入为Sn-1,第k个ResNet模型的输出可表示为:
步骤3.3、优化输出,由于空间结构信息主要存在于高通分量中,采用残差学习来有效地重建细节信息。因此,最终输出可以描述为:
其中,SN表示空间CNN卷积神经网络的最终输出,输出为矫正REF;FL表示光谱CNN卷积神经网络的最终输出,输出为初始化的REF。
对于所有设计的网络模块,将小批量大小设置为16,将动量参数设置为0.9,并将权重衰减设置为10-4。
RGB图像引导层以RGB图像引导光谱反射率数据的空间信息的重构,RGB图像与光谱CNN建立初始化的高光谱图像在该层叠加,形成并输出空间相似性特征信息。该引导层由卷积层ConV、归一化函数(Batch Normalization)和激活函数ReLU组成。
空间CNN卷积神经网络为了有效利用空间相关性信息,采用稠密卷积神经网络模块训练空间相似性特征信息,以获得图像场景中大空间范围内的空间相关性信息。为更好的学习空间相关性,稠密卷积神经网络模块均接受前面所有层的输出,以建立不同层之间的连接关系,最后训练后形成最终的空间相似性卷积模型。
步骤4、重建光谱反射率;具体方法是:
通过对待重建RGB图像进行预处理后,输入到所述深度卷积模型中,所述深度卷积模型包括光谱CNN单元和空间CNN单元,光谱CNN单元输出无空间结构性信息的光谱反射率数据,空间CNN单元输出RGB图像中的空间相似性特征,将无空间结构性信息的光谱反射率数据与RGB图像中的空间相似性特征信息叠加,形成最终的光谱反射率数据结果,即得到重建后的RGB图像。
如图2所示,首先光谱CNN卷积神经网络学习RGB图像与光谱反射率的非线性映射,输出初始化的REF,然后初始化REF与RGB图像进入RGB向导层融合,之后空间CNN卷积神经网络学习融合数据的空间结构信息,输出校正REF,最后融合初始化REF和校正REF得到最终的重建结果。通过本发明公开的一种基于融合性卷积神经网络的RGB图像光谱反射率重建方法,得到如图3所示的结果对比图,图3是本发明实施例中基于融合性卷积神经网络的RGB图像光谱反射率重建方法的对应重建精度与三种传统方法的色差对比图,图3中,最左侧的一列是初始的RGB图像,左侧第二列为采用RBF方法后的光谱反射率精度,左侧第三列为采用SR方法后的光谱反射率精度,左侧第四列为采用HSCNN方法后的光谱反射率精度,最右侧一列为采用申请的基于融合性卷积神经网络的RGB图像光谱反射率重建方法(OURS)后的光谱反射率精度,经过对比可知,采用本申请公开的方法,图像的光谱反射率精度更高,使得重建效果更好。
本发明的有益效果是:
1、本发明提出了基于融合性卷积神经网络的RGB图像光谱反射率重建方法,根据卷积神经网络的自学习能力,避免了图像种类、图像大小、相机响应函数、光源光谱功率等因素对重建结果造成的影响。
2、使用较小的专用数据集对已有的网络模型进行微调,提高了模型的准确性;利用GPU加速,大幅度提高了模型训练时间。
3、利用卷积神经网络模型提取图像特征,有效解决了因图纹理复杂而导致特征表示不全面,从而导致重建精度不高的问题。
4、通过光谱CNN构建光谱反射率与RGB图像的非线性映射,通过空间CNN构建两者的空间相似性特征,重点选择得当。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于融合性卷积神经网络的RGB图像光谱反射率重建方法,其特征在于:包括以下步骤:
S1:建立图像数据库,并对所述图形数据库中的所有图像进行批量预处理,所述图像数据库包括高光谱图像和RGB图像;
S2:根据从步骤S1所建立的图像数据库中获得训练数据集,训练光谱CNN卷积神经网络,建立图像与反射率之间的非线性映射模型,用于提取光谱CNN特征;
S3:利用图像与反射率之间的非线性映射模型输出的光谱CNN特征和RGB图像数据训练空间CNN卷积神经网络,建立空间相似性卷积模型,用于提取空间CNN相似性特征;
S4:采用融合性卷积神经网络方法,将图像与反射率之间的非线性映射模型和空间相似性卷积模型进行融合,得到深度卷积模型,用于同时获取光谱CNN特征和空间CNN相似性特征;
S5:采集待重建RGB图像,并对所述待重建RGB图像进行预处理,使用所述深度卷积模型进行光谱反射率重建,输出最后的光谱反射率。
2.如权利要求1所述的一种基于融合性卷积神经网络的RGB图像光谱反射率重建方法,其特征在于:步骤S1中具体过程如下:
S1.1:收集图像,准备用于检索的图像数据库,并利用所述图像数据库中的图像组成实验数据集,所述实验数据集包括训练数据集和测试数据集;
S1.2:将所述图像数据库中的所有图像进行归一化和零均值化处理,以对整个图像数据消除该图像数据的均值。
3.如权利要求1所述的一种基于融合性卷积神经网络的RGB图像光谱反射率重建方法,其特征在于:步骤S2中,光谱CNN卷积神经网络将RGB图像数据和对应光谱反射率数据作为空间独立的数据集合,设置卷积模型参数将二维图像降维至一维RGB值阵列,仅仅学习图像数据RGB值和对应光谱反射率数据之间的非线性映射。
4.如权利要求1所述的一种基于融合性卷积神经网络的RGB图像光谱反射率重建方法,其特征在于:步骤S2中,所述光谱CNN卷积神经网络包括多个CNN模块,每个CNN模块由卷积层Conv和激活函数ReLU组成。
5.如权利要求1所述的一种基于融合性卷积神经网络的RGB图像光谱反射率重建方法,其特征在于:步骤S3中,为了有效利用空间相关性信息,采用稠密卷积神经网络模型对空间CNN卷积神经网络训练,得到空间相似性特征,以获得图像场景中大空间范围内的空间相关性信息;为更好的学习空间相关性,稠密卷积神经网络模块均接受前面所有层的输出,以建立不同层之间的连接关系,最后形成最终的空间相似性卷积模型。
6.如权利要求1所述的一种基于融合性卷积神经网络的RGB图像光谱反射率重建方法,其特征在于:步骤S5中,通过对所述待重建RGB图像进行预处理后,输入至所述深度卷积模型中,所述深度卷积模型包括光谱CNN单元和空间CNN单元,光谱CNN单元用于输出无空间结构性信息的光谱反射率数据,空间CNN单元用于输出的RGB图像中的空间相似性特征,将所述光谱反射率数据与空间相似性特征进行叠加,形成最终的光谱反射率数据结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011395707.9A CN112634184A (zh) | 2020-12-03 | 2020-12-03 | 基于融合性卷积神经网络的rgb图像光谱反射率重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011395707.9A CN112634184A (zh) | 2020-12-03 | 2020-12-03 | 基于融合性卷积神经网络的rgb图像光谱反射率重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112634184A true CN112634184A (zh) | 2021-04-09 |
Family
ID=75307814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011395707.9A Pending CN112634184A (zh) | 2020-12-03 | 2020-12-03 | 基于融合性卷积神经网络的rgb图像光谱反射率重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112634184A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113256733A (zh) * | 2021-05-14 | 2021-08-13 | 四川大学 | 基于置信度投票卷积神经网络的相机光谱灵敏度重建方法 |
CN113607684A (zh) * | 2021-08-18 | 2021-11-05 | 燕山大学 | 基于gaf图像和四元数卷积的光谱定性建模方法 |
CN114972625A (zh) * | 2022-03-22 | 2022-08-30 | 广东工业大学 | 一种基于rgb光谱超分辨技术的高光谱点云生成方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190096049A1 (en) * | 2017-09-27 | 2019-03-28 | Korea Advanced Institute Of Science And Technology | Method and Apparatus for Reconstructing Hyperspectral Image Using Artificial Intelligence |
CN109598306A (zh) * | 2018-12-06 | 2019-04-09 | 西安电子科技大学 | 基于srcm和卷积神经网络的高光谱图像分类方法 |
-
2020
- 2020-12-03 CN CN202011395707.9A patent/CN112634184A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190096049A1 (en) * | 2017-09-27 | 2019-03-28 | Korea Advanced Institute Of Science And Technology | Method and Apparatus for Reconstructing Hyperspectral Image Using Artificial Intelligence |
CN109598306A (zh) * | 2018-12-06 | 2019-04-09 | 西安电子科技大学 | 基于srcm和卷积神经网络的高光谱图像分类方法 |
Non-Patent Citations (1)
Title |
---|
LIJUN ZHANG ET AL.: "Reconstruction of Spectral Reflectance Based on Fusion Convolution Neural Network", 《ICCPR 2020: PROCEEDING OF THE 2020 9TH INTERNATIONAL CONFERENCE ON COMPUTING AND PATTERN RECOGNITION》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113256733A (zh) * | 2021-05-14 | 2021-08-13 | 四川大学 | 基于置信度投票卷积神经网络的相机光谱灵敏度重建方法 |
CN113256733B (zh) * | 2021-05-14 | 2022-05-20 | 四川大学 | 基于置信度投票卷积神经网络的相机光谱灵敏度重建方法 |
CN113607684A (zh) * | 2021-08-18 | 2021-11-05 | 燕山大学 | 基于gaf图像和四元数卷积的光谱定性建模方法 |
CN114972625A (zh) * | 2022-03-22 | 2022-08-30 | 广东工业大学 | 一种基于rgb光谱超分辨技术的高光谱点云生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110119780B (zh) | 基于生成对抗网络的高光谱图像超分辨重建方法 | |
Liu et al. | A spectral grouping and attention-driven residual dense network for hyperspectral image super-resolution | |
CN110363215B (zh) | 基于生成式对抗网络的sar图像转化为光学图像的方法 | |
Xie et al. | Hyperspectral image super-resolution using deep feature matrix factorization | |
Fu et al. | Joint camera spectral sensitivity selection and hyperspectral image recovery | |
Mei et al. | Learning hyperspectral images from RGB images via a coarse-to-fine CNN | |
CN112634184A (zh) | 基于融合性卷积神经网络的rgb图像光谱反射率重建方法 | |
Lin et al. | Hyperspectral image denoising via matrix factorization and deep prior regularization | |
CN111145131A (zh) | 一种基于多尺度生成式对抗网络的红外和可见光图像融合方法 | |
CN109064396A (zh) | 一种基于深度成分学习网络的单幅图像超分辨率重建方法 | |
CN110717851A (zh) | 图像处理方法及装置、神经网络的训练方法、存储介质 | |
CN112819910B (zh) | 基于双鬼注意力机制网络的高光谱图像重建方法 | |
Zhang et al. | LR-Net: Low-rank spatial-spectral network for hyperspectral image denoising | |
CN109389667B (zh) | 一种基于深度学习的高效全局光照明绘制方法 | |
CN113283444B (zh) | 一种基于生成对抗网络的异源图像迁移方法 | |
CN108764250B (zh) | 一种运用卷积神经网络提取本质图像的方法 | |
CN112734915A (zh) | 一种基于深度学习的多视角立体视觉三维场景重建方法 | |
CN111626267B (zh) | 一种利用空洞卷积的高光谱遥感图像分类方法 | |
CN113850324B (zh) | 一种基于Yolov4的多光谱目标检测方法 | |
CN113505634B (zh) | 一种双流解码跨任务交互网络的光学遥感图像显著目标检测方法 | |
CN111488951B (zh) | 一种用于rgb-d图像分类的对抗度量学习模型生成方法 | |
CN115423734A (zh) | 一种基于多尺度注意机制的红外与可见光图像融合方法 | |
CN116486074A (zh) | 一种基于局部和全局上下文信息编码的医学图像分割方法 | |
CN116758340A (zh) | 基于超分辨率特征金字塔和注意力机制的小目标检测方法 | |
Ma et al. | Multi-task interaction learning for spatiospectral image super-resolution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210409 |
|
RJ01 | Rejection of invention patent application after publication |