CN109360146A - 基于深度卷积对抗生成网络dcgan的双光图像融合模型 - Google Patents
基于深度卷积对抗生成网络dcgan的双光图像融合模型 Download PDFInfo
- Publication number
- CN109360146A CN109360146A CN201810960343.0A CN201810960343A CN109360146A CN 109360146 A CN109360146 A CN 109360146A CN 201810960343 A CN201810960343 A CN 201810960343A CN 109360146 A CN109360146 A CN 109360146A
- Authority
- CN
- China
- Prior art keywords
- image
- feature
- network
- light image
- infrared light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 41
- 239000000284 extract Substances 0.000 claims abstract description 18
- 238000002156 mixing Methods 0.000 claims abstract description 17
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 25
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 108010074506 Transfer Factor Proteins 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003115 biocidal effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
- G06T3/4061—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution by injecting details from different spectral ranges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度卷积对抗生成网络DCGAN的双光图像融合模型,该模型通过深度鉴别卷积网络提取可见光和红外光下同一目标的图像特征,将两图像特征按照同一个特征字典进行稀疏编码;然后融合该编码特征,并将其作为深度卷积生成网络的输入数据,从而使生成网络生成融合图像;最后利用融合生成图像的融合特征与编码融合特征之间的误差训练生成模型,使其生成双光融合图像。该模型利用深度学习网络对可见光图像和红外光图像进行特征提取和编码,融合编码特征可以对两幅图像的特征点进行自动匹配。本发明所述的模型在训练结束后可随时调用,同时输入可见光图像和红外光图像便可自动生成融合质量较高的双光图像。
Description
技术领域
本发明涉及计算机图像采集合成技术领域,具体的说是一种基于深度卷积对抗生成网络DCGAN的双光图像融合模型。
背景技术
近年来,随着现代科学技术的不断发展与互联网的广泛普及,温度夜视监控装备的各项功能得到了大幅提升,其应用成本也有了大幅度的下降。因此,利用红外监控摄像头获取各项工业机械设备的热度信息变得非常普及,很多处理红外光监控图像的方法也顺势出现。一般的红外探测器主要通过接收场景中目标向外辐射或者反射出来的红外辐射进行成像,其对烟雾具有较强的穿透能力,且在光照条件较差情况下仍具有较好的目标探测能力,但其所成的红外图像细节表现能力较差,这就导致红外光图像无法观察较细致的信息。而可见光图像的内容丰富,细节纹理清晰,空间分辨率较高,但其在光照条件差时,所以成像质量将受到严重影响。因此,如何开发一种融合低分辨率红外热图像与可见光图像算法非常重要。目前能解决双光融合问题的方法分两类,一类是通过光学设备产生对称光轴直接融合图像,另一类则是利用传统的图像增强和融合方法进行处理。
发明内容
本发明的目的是提供一种基于深度卷积对抗生成网络DCGAN的双光图像融合模型,以解决传统图像融合和增强方法中图像融合效果不佳的问题。
为解决上述技术问题,本发明所采取的技术方案为:
一种基于深度卷积对抗生成网络DCGAN的双光图像融合模型,该模型将同一物体的可见光图像与红外光图像进行融合,该模型的建立过程包括以下步骤:
步骤一、鉴别网络提取特征:先将物体的大量可见光图像与红外光图像按照图像比例放缩到相同尺寸,构成图像训练库;然后构建一个以vgg网络为初始参数的卷积神经网络作为鉴别网络,利用图像库训练该鉴别网络,使得鉴别网络能有效区分红外光图像与可见光图像;再将待融合的可见光图像和红外光图像输入到该鉴别网络中,分别提取对应的图像特征;
步骤二、稀疏编码特征融合:将所有图像特征构建成完备的特征库,利用无监督的K-means方法在特征库数据上创建一个特征字典,用求解LASSO问题的自我学习方法获得待融合的可见光图像和红外光图像特征在该特征字典上的编码,然后利用平均加权的方式融合该编码信息;
步骤三、生成网络生成图像:创建一个反卷积网络作为模型的生成网络,将步骤二所得的训练图像中的融合编码信息输入生成网络得到融合图像,利用融合图像在鉴别网络中的特征和实际融合编码特征之间的误差调整生成网络的参数;训练完成后,直接将待融合两幅图像的融合编码数据输入生成网络,便可生成同一物体的双光融合图像。
优选的,步骤一中所述鉴别网络提取特征的步骤为:
(1)用于提取可见光和红外光图像的特殊信息,鉴别网络在原本的vgg网络后面加上结构为500-100-2的小型神经网络,初始化鉴别网络时,小型神经网络用截断正态分布随机数初始化,其他参数均使用原本vgg网络训练好的参数作为初始化;
(2)鉴别网络的训练方式为将训练图像库中的数据按照可见光图像和红外光图像分为两类,将训练图像输入鉴别网络得到实际输出,对应输入图像的实际标签求得交叉熵:
在设置完成迭代次数和优化器参数后,就可以进行鉴别网络训练,训练好的鉴别网络作为一个特定的特征提取器;
(3)训练完成鉴别网络之后,利用该鉴别网络提取可见光图像和红外光图像的最后一层语义一维特征,设该网络提取的最后一层可见光图像和红外光图像的特征集为,先随机选取k个聚类聚类中心,然后按照距离计算每个特征样本应该属于的类别:
特征样本分类完成后再对每个类别重新按照以下公式计算该类别的聚类中心:
通过反复的重复迭代之后得到网络最后一层语义特征集的最终聚类中心,而该聚类中心样本便是该层特征的编码字典,编码字典以矩阵的形式存在;聚类迭代的次数为30次。
优选的,所述步骤二中特征字典编码的训练过程为:在融合两种同一物体的可见光图像和红外光图像时,将两张图像首先分别输入鉴别网络,通过鉴别网络提取可见光图像和红外光图像的语义特征,然后求解以下公式:
将可见光图像和红外光图像的特征带入该公式,得到该特征在特征字典上对应的编码结果;得到两个编码结果后将编码结果按照评价加权求和的方式进行融合,融合后的编码结果将附带两种光照图像的各项信息;最后利用该编码信息和特征字典得到融合特征,该特征将作为深度卷积对抗生成网络DCGAN的输入隐变量。
优选的,所述步骤三所述的生成网络图像的方法为:所述步骤三所述的生成网络图像的方法为:首先构造一个16层的反卷积网络,该反卷积网络的输入维度为100,与鉴别网络的最后一层神经网络的神经元维度相同,反卷积网络的输出维度与鉴别网络的输入图像尺寸相同;构造完成深度卷积对抗生成网络DCGAN后将融合编码特征输入深度卷积对抗生成网络DCGAN将得到一张生成图像,该生成图像通过鉴别网络提取特征,鉴别网络逐层将所提取生成图像的特征:记生成图像第l层的特征为,可见光图像第l层的特征为,红外光图像第l层的特征为,则利用误差函数
来调节生成网络的参数;该误差函数保证了生成图像在像素级别和特征级别上均近似于可见光图像和红外光图像;利用该误差函数反复迭代调整生成模型的参数,训练完成之后将融合特征输入深度卷积对抗生成网络DCGAN时就可以自动生成双光融合图像。
本发明所述的模型需要大量的红外光图像和可见光图像进行模型的训练,训练完成后输入待融合的两种光图便可以直接生成融合的双光图像。本发明所述的模型采用深度卷积对抗生成网络DCGAN模型进行图像的生成和特征自动匹配,可以实现直接生成融合效果不错的双光图像。
本发明可应用于对可见光和红外光图像的融合利于,其有益效果是:
(1)首先在图像处理算法上完成了这个双光图像融合过程,避免了融合双光问题对硬件设备的高需求;
(2)由于提出了一个基于深度卷积对抗生成网络DCGAN模型的双光融合模型,其中的生成网络结构和鉴别网络结构均是深度卷积神经网络,因此本模型保证了对待融合图像在像素级别和特征级别上的双重融合,达到远优于传统图像处理方法的融合效果;
(3)本发明所述的模型在训练结束后可随时调用,同时输入可见光和红外光图像便可自动生成融合质量较高的双光图像,减轻了传统融合双光图像所需要具备的硬件压力。
附图说明
图1是本发明所述的深度卷积对抗生成网络DCGAN模型的结构示意图;
图2是特征融合过程示意图。
具体实施方式
下面结合附图对本发明做进一步详细的说明。
如图1所示的一种基于深度卷积对抗生成网络DCGAN的双光图像融合模型,该模型将同一物体的可见光图像与红外光图像进行融合,该模型的建立过程包括以下步骤:
步骤一、鉴别网络提取特征:先将物体的大量可见光图像与红外光图像按照图像比例放缩到相同尺寸,构成图像训练库;然后构建一个以vgg网络为初始参数的卷积神经网络作为鉴别网络,利用图像库训练该鉴别网络,使得鉴别网络能有效区分红外光图像与可见光图像;再将待融合的可见光图像和红外光图像输入到该鉴别网络中,分别提取对应的图像特征;其具体过程为:
(1)用于提取可见光和红外光图像的特殊信息,鉴别网络在原本的vgg网络后面加上结构为500-100-2的小型神经网络,初始化鉴别网络时,小型神经网络用截断正态分布随机数初始化,其他参数均使用原本vgg网络训练好的参数作为初始化;
(2)鉴别网络的训练方式为将训练图像库中的数据按照可见光图像和红外光图像分为两类,将训练图像输入鉴别网络得到实际输出,对应输入图像的实际标签求得交叉熵:
在设置完成迭代次数和优化器参数后,就可以进行鉴别网络训练,训练好的鉴别网络作为一个特定的特征提取器;
(3)训练完成鉴别网络之后,利用该鉴别网络提取可见光图像和红外光图像的最后一层语义一维特征,设该网络提取的最后一层可见光图像和红外光图像的特征集为,先随机选取k个聚类聚类中心,然后按照距离计算每个特征样本应该属于的类别:
特征样本分类完成后再对每个类别重新按照以下公式计算该类别的聚类中心:
通过反复的重复迭代之后得到网络最后一层语义特征集的最终聚类中心,而该聚类中心样本便是该层特征的编码字典,编码字典以矩阵的形式存在;聚类迭代的次数为30次。
步骤二、稀疏编码特征融合:将所有图像特征构建成完备的特征库,利用无监督的K-means方法在特征库数据上创建一个特征字典,用求解LASSO问题的自我学习方法获得待融合的可见光图像和红外光图像特征在该特征字典上的编码,然后利用平均加权的方式融合该编码信息;
在融合两种同一物体的可见光图像和红外光图像时,将两张图像首先分别输入鉴别网络,通过鉴别网络提取可见光图像和红外光图像的语义特征,然后求解以下公式:
将可见光图像和红外光图像的特征带入该公式,得到该特征在特征字典上对应的编码结果;得到两个编码结果后将编码结果按照评价加权求和的方式进行融合,融合后的编码结果将附带两种光照图像的各项信息;最后利用该编码信息和特征字典得到融合特征,该特征将作为深度卷积对抗生成网络DCGAN的输入隐变量。
步骤三、生成网络生成图像:创建一个反卷积网络作为模型的生成网络,将步骤二所得的训练图像中的融合编码信息输入生成网络得到融合图像,利用融合图像在鉴别网络中的特征和实际融合编码特征之间的误差调整生成网络的参数;训练完成后,直接将待融合两幅图像的融合编码数据输入生成网络,便可生成同一物体的双光融合图像。
所述的生成网络图像的方法为:首先构造一个16层的反卷积网络,该反卷积网络的输入维度为100,与鉴别网络的最后一层神经网络的神经元维度相同,反卷积网络的输出维度与鉴别网络的输入图像尺寸相同;构造完成深度卷积对抗生成网络DCGAN后将融合编码特征输入深度卷积对抗生成网络DCGAN将得到一张生成图像,该生成图像通过鉴别网络提取特征,鉴别网络逐层将所提取生成图像的特征:记生成图像第l层的特征为,可见光图像第l层的特征为,红外光图像第l层的特征为,则利用误差函数
来调节生成网络的参数;该误差函数保证了生成图像在像素级别和特征级别上均近似于可见光图像和红外光图像;利用该误差函数反复迭代调整生成模型的参数,训练完成之后将融合特征输入深度卷积对抗生成网络DCGAN时就可以自动生成双光融合图像。
本发明提出的融合模型训练完成之后就可以直接进行线上融合,不需要重复训练,且本发明利用特征编码字典的方式,使得不同图像在融合时能自动匹配对应的特征。另外得益于深度学习模型超强的语义学习能力,本模型可以做到对可见光和红外光图像在像素级别和特征级别均进行融合,使得最终的双光融合图像融合效果远优于传统的融合模型。本发明所述的模型在训练结束后可随时调用,同时输入可见光和红外光图像便可自动生成融合质量较高的双光图像,减轻了传统融合双光图像所需要具备的硬件压力。
Claims (4)
1.一种基于深度卷积对抗生成网络DCGAN的双光图像融合模型,该模型将同一物体的可见光图像与红外光图像进行融合,其特征在于:该模型的建立过程包括以下步骤:
步骤一、鉴别网络提取特征:先将物体的大量可见光图像与红外光图像按照图像比例放缩到相同尺寸,构成图像训练库;然后构建一个以vgg网络为初始参数的卷积神经网络作为鉴别网络,利用图像库训练该鉴别网络,使得鉴别网络能有效区分红外光图像与可见光图像;再将待融合的可见光图像和红外光图像输入到该鉴别网络中,分别提取对应的图像特征;
步骤二、稀疏编码特征融合:将所有图像特征构建成完备的特征库,利用无监督的K-means方法在特征库数据上创建一个特征字典,用求解LASSO问题的自我学习方法获得待融合的可见光图像和红外光图像特征在该特征字典上的编码,然后利用平均加权的方式融合该编码信息;
步骤三、生成网络生成图像:创建一个反卷积网络作为模型的生成网络,将步骤二所得的训练图像中的融合编码信息输入生成网络得到融合图像,利用融合图像在鉴别网络中的特征和实际融合编码特征之间的误差调整生成网络的参数;训练完成后,直接将待融合两幅图像的融合编码数据输入生成网络,便可生成同一物体的双光融合图像。
2.根据权利要求1所述的基于深度卷积对抗生成网络DCGAN的双光图像融合模型,其特征在于:步骤一中所述鉴别网络提取特征的步骤为:
(1)用于提取可见光和红外光图像的特殊信息,鉴别网络在原本的vgg网络后面加上结构为500-100-2的小型神经网络,初始化鉴别网络时,小型神经网络用截断正态分布随机数初始化,其他参数均使用原本vgg网络训练好的参数作为初始化;
(2)鉴别网络的训练方式为将训练图像库中的数据按照可见光图像和红外光图像分为两类,将训练图像输入鉴别网络得到实际输出,对应输入图像的实际标签求得交叉熵:
在设置完成迭代次数和优化器参数后,就可以进行鉴别网络训练,训练好的鉴别网络作为一个特定的特征提取器;
(3)训练完成鉴别网络之后,利用该鉴别网络提取可见光图像和红外光图像的最后一层语义一维特征,设该网络提取的最后一层可见光图像和红外光图像的特征集为,先随机选取k个聚类聚类中心,然后按照距离计算每个特征样本应该属于的类别:
特征样本分类完成后再对每个类别重新按照以下公式计算该类别的聚类中心:
通过反复的重复迭代之后得到网络最后一层语义特征集的最终聚类中心,而该聚类中心样本便是该层特征的编码字典,编码字典以矩阵的形式存在;聚类迭代的次数为30次。
3.根据权利要求1或2所述的基于深度卷积对抗生成网络DCGAN的双光图像融合模型,其特征在于:所述步骤二中特征字典编码的训练过程为:在融合两种同一物体的可见光图像和红外光图像时,将两张图像首先分别输入鉴别网络,通过鉴别网络提取可见光图像和红外光图像的语义特征,然后求解以下公式:
将可见光图像和红外光图像的特征带入该公式,得到该特征在特征字典上对应的编码结果;得到两个编码结果后将编码结果按照评价加权求和的方式进行融合,融合后的编码结果将附带两种光照图像的各项信息;最后利用该编码信息和特征字典得到融合特征,该特征将作为深度卷积对抗生成网络DCGAN的输入隐变量。
4.根据权利要求3所述的基于深度卷积对抗生成网络DCGAN的双光图像融合模型,其特征在于:所述步骤三所述的生成网络图像的方法为:所述步骤三所述的生成网络图像的方法为:首先构造一个16层的反卷积网络,该反卷积网络的输入维度为100,与鉴别网络的最后一层神经网络的神经元维度相同,反卷积网络的输出维度与鉴别网络的输入图像尺寸相同;构造完成深度卷积对抗生成网络DCGAN后将融合编码特征输入深度卷积对抗生成网络DCGAN将得到一张生成图像,该生成图像通过鉴别网络提取特征,鉴别网络逐层将所提取生成图像的特征:记生成图像第l层的特征为,可见光图像第l层的特征为,红外光图像第l层的特征为,则利用误差函数
来调节生成网络的参数;该误差函数保证了生成图像在像素级别和特征级别上均近似于可见光图像和红外光图像;利用该误差函数反复迭代调整生成模型的参数,训练完成之后将融合特征输入深度卷积对抗生成网络DCGAN时就可以自动生成双光融合图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810960343.0A CN109360146A (zh) | 2018-08-22 | 2018-08-22 | 基于深度卷积对抗生成网络dcgan的双光图像融合模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810960343.0A CN109360146A (zh) | 2018-08-22 | 2018-08-22 | 基于深度卷积对抗生成网络dcgan的双光图像融合模型 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109360146A true CN109360146A (zh) | 2019-02-19 |
Family
ID=65350287
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810960343.0A Pending CN109360146A (zh) | 2018-08-22 | 2018-08-22 | 基于深度卷积对抗生成网络dcgan的双光图像融合模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109360146A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188621A (zh) * | 2019-05-09 | 2019-08-30 | 东南大学 | 一种基于ssf-il-cnn的三维人脸表情识别方法 |
CN110289927A (zh) * | 2019-07-01 | 2019-09-27 | 上海大学 | 基于条件生成对抗网络的信道模拟实现方法 |
CN111209724A (zh) * | 2019-12-31 | 2020-05-29 | 智慧神州(北京)科技有限公司 | 文本的校验方法、装置、存储介质以及处理器 |
CN111445018A (zh) * | 2020-03-27 | 2020-07-24 | 国网甘肃省电力公司电力科学研究院 | 基于加速卷积神经网络算法的紫外成像实时信息处理方法 |
CN111681195A (zh) * | 2020-06-09 | 2020-09-18 | 中国人民解放军63811部队 | 红外图像和可见光图像的融合方法、装置及可读存储介质 |
CN112288663A (zh) * | 2020-09-24 | 2021-01-29 | 山东师范大学 | 一种红外与可见光图像融合方法及系统 |
CN112733835A (zh) * | 2021-03-31 | 2021-04-30 | 杭州科技职业技术学院 | 基于原图像和动态信息融合的息屏画面生成方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107944483A (zh) * | 2017-11-17 | 2018-04-20 | 西安电子科技大学 | 基于双通道dcgan和特征融合的多光谱图像分类方法 |
-
2018
- 2018-08-22 CN CN201810960343.0A patent/CN109360146A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107944483A (zh) * | 2017-11-17 | 2018-04-20 | 西安电子科技大学 | 基于双通道dcgan和特征融合的多光谱图像分类方法 |
Non-Patent Citations (2)
Title |
---|
ALE RADFORD&LUKE METZ,SOUMITH CHINTALA: "Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks", 《UNDER REVIEW AS A CONFERENCE PAPER AT ICLR2016》 * |
刘盛鹏,方勇: "基于Contourlet变换和IPCNN的融合算法及其在可见光与红外线图像融合中的应用", 《红外与毫米波学报》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188621A (zh) * | 2019-05-09 | 2019-08-30 | 东南大学 | 一种基于ssf-il-cnn的三维人脸表情识别方法 |
CN110188621B (zh) * | 2019-05-09 | 2023-06-02 | 东南大学 | 一种基于ssf-il-cnn的三维人脸表情识别方法 |
CN110289927A (zh) * | 2019-07-01 | 2019-09-27 | 上海大学 | 基于条件生成对抗网络的信道模拟实现方法 |
CN110289927B (zh) * | 2019-07-01 | 2021-06-15 | 上海大学 | 基于条件生成对抗网络的信道模拟实现方法 |
CN111209724A (zh) * | 2019-12-31 | 2020-05-29 | 智慧神州(北京)科技有限公司 | 文本的校验方法、装置、存储介质以及处理器 |
CN111445018A (zh) * | 2020-03-27 | 2020-07-24 | 国网甘肃省电力公司电力科学研究院 | 基于加速卷积神经网络算法的紫外成像实时信息处理方法 |
CN111681195A (zh) * | 2020-06-09 | 2020-09-18 | 中国人民解放军63811部队 | 红外图像和可见光图像的融合方法、装置及可读存储介质 |
CN111681195B (zh) * | 2020-06-09 | 2023-06-30 | 中国人民解放军63811部队 | 红外图像和可见光图像的融合方法、装置及可读存储介质 |
CN112288663A (zh) * | 2020-09-24 | 2021-01-29 | 山东师范大学 | 一种红外与可见光图像融合方法及系统 |
CN112733835A (zh) * | 2021-03-31 | 2021-04-30 | 杭州科技职业技术学院 | 基于原图像和动态信息融合的息屏画面生成方法 |
CN112733835B (zh) * | 2021-03-31 | 2021-06-22 | 杭州科技职业技术学院 | 基于原图像和动态信息融合的息屏画面生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109360146A (zh) | 基于深度卷积对抗生成网络dcgan的双光图像融合模型 | |
CN108520535B (zh) | 基于深度恢复信息的物体分类方法 | |
CN108388900A (zh) | 基于多特征融合和时空注意力机制相结合的视频描述方法 | |
CN112446476A (zh) | 神经网络模型压缩的方法、装置、存储介质和芯片 | |
CN107391709A (zh) | 一种基于新型注意模型进行图像字幕生成的方法 | |
CN110572696A (zh) | 一种变分自编码器与生成对抗网络结合的视频生成方法 | |
CN113128424B (zh) | 基于注意力机制的图卷积神经网络动作识别方法 | |
CN112653899A (zh) | 一种基于联合注意力ResNeSt的复杂场景下网络直播视频特征提取方法 | |
CN111027559A (zh) | 一种基于扩张点卷积空间金字塔池化的点云语义分割方法 | |
CN115132313A (zh) | 基于注意力机制的医学影像报告自动生成方法 | |
Sun et al. | Data-driven light field depth estimation using deep convolutional neural networks | |
Ribeiro et al. | Iris super‐resolution using CNNs: is photo‐realism important to iris recognition? | |
CN106355210B (zh) | 基于深度神经元响应模式的绝缘子红外图像特征表达方法 | |
CN112183240A (zh) | 一种基于3d时间流和并行空间流的双流卷积行为识别方法 | |
CN116912708A (zh) | 一种基于深度学习的遥感影像建筑物提取方法 | |
CN115330620A (zh) | 一种基于循环生成对抗网络的图像去雾方法 | |
CN115484410A (zh) | 基于深度学习的事件相机视频重建方法 | |
Hu et al. | Deep learning for distinguishing computer generated images and natural images: A survey | |
CN113627504B (zh) | 基于生成对抗网络的多模态多尺度特征融合目标检测方法 | |
Jiang et al. | DeeperForensics Challenge 2020 on real-world face forgery detection: Methods and results | |
Qu et al. | Non-local representation based mutual affine-transfer network for photorealistic stylization | |
Fu et al. | A pixel pair–based encoding pattern for stereo matching via an adaptively weighted cost | |
Hao et al. | Facial expression recognition based on regional adaptive correlation | |
CN116257648A (zh) | 基于噪声网络和图像预处理的图像检索防御方法及系统 | |
Weng et al. | Image inpainting technique based on smart terminal: A case study in CPS ancient image data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20231229 |
|
AD01 | Patent right deemed abandoned |