CN116805388A - 一种基于多尺度策略的图像融合方法 - Google Patents

一种基于多尺度策略的图像融合方法 Download PDF

Info

Publication number
CN116805388A
CN116805388A CN202310752556.5A CN202310752556A CN116805388A CN 116805388 A CN116805388 A CN 116805388A CN 202310752556 A CN202310752556 A CN 202310752556A CN 116805388 A CN116805388 A CN 116805388A
Authority
CN
China
Prior art keywords
image
fusion
convolution
scale
fused
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310752556.5A
Other languages
English (en)
Inventor
秦玉文
谢俊
豆嘉真
钟丽云
邸江磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202310752556.5A priority Critical patent/CN116805388A/zh
Publication of CN116805388A publication Critical patent/CN116805388A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像处理领域,公开了一种基于多尺度策略的图像融合方法,用于解决基于深度学习的图像融合方法对复杂双模态图像的特征提取能力差与融合效果欠佳的问题,本发明的融合方法基于编解码器结构,核心在于对编码器分离出的不同尺度的特征进行不同的特征提取操作,后利用包含双路处理的融合模块对提取的多层次特征进行融合,最后在通道维对不同层次的融合特征进行拼接和上采样重构出融合图像。本发明能够有效实现复杂双模态图像的融合,具有多尺度特征提取效果好,融合图像目标对比度高、重构精度高、鲁棒性较强等特点。

Description

一种基于多尺度策略的图像融合方法
技术领域:
本发明涉及一种图像融合方法,具体涉及一种基于多尺度策略的图像融合方法。
背景技术:
图像是目前使用最广泛的数据之一,但单一模态的图像提供的信息有时无法满足人类的视觉需求或者对目标的识别探测需求,尤其在目标和背景的差别在某一波段下较小时,该问题更加明显,因此需要不同成像模式的相机拍摄不同模态的图像,通过图像融合的手段获取多种模态信息的融合图像。图像融合技术通过算法将不同传感器或不同焦点、亮度等的同一场景的两幅或者多幅图像的信息进行提取,整合到单幅融合图像中,生成一幅包含各个模态特性的融合图像,以全面表征场景、增加目标对比度并促进后续的视觉任务。相对单一的源图像而言,融合图像具有多模态的信息,更高的目标对比度以及更多的场景细节。目前图像融合方法已逐渐由人工设计的传统方法,转向基于深度学习的图像融合方法。传统图像融合方法发展成熟,由人工设计图像分解、特征融合以及图像重建算法,具有较高的人工误差以及计算成本,在面对复杂图像时,融合效果较差。基于深度学习的融合方法将部分或全部工作交由神经网络完成,利用神经网络强大的端到端拟合能力,实现融合参数的自动化更新,能够更好地适配不同模态的图像,然而现阶段基于深度学习的融合方法仍存在对多尺度信息利用率差、特征提取不准确,融合结果中目标对比度不高等问题。
发明内容:
本发明的目的在于克服现有技术的不足,提供一种基于多尺度神经网络结构的图像融合方法,所述的图像融合方法可实现对多尺度特征的高效利用,能够有效融合不同尺度的边缘以及目标特征,重建出具有更多边缘信息以及更好目标对比度的融合图像。
本发明解决上述技术问题的技术方案是:一种基于多尺度策略的图像融合方法,包括以下步骤:
(S1)、利用不同成像模式的相机拍摄2000对双模态图像构成待融合的双模态图像集D,两种模态的图像分别记为A1、A2
(S2)、将双模态图像A1、A2作为网络输入,经过编码器子网络得到包含4层尺度的中间特征FA1和FA2
(S3)、利用训练好的融合子网络融合两种模态图像的中间特征FA1和FA2,得到融合特征Ffused
(S4)、将融合特征Ffused输入解码器子网络重建出融合图像F;
(S5)、将上述子网络构建成一个多尺度图像融合网络,并计算输出的融合图像F与输入的多模态图像A1和A2之间的损失函数Loss值,通过对Loss值的梯度进行反向传播来训练多尺度图像融合网络,直至Loss值收敛,得到训练好的多尺度图像融合网络;
(S6)、将待融合的双模态图像集D放入训练好的多尺度图像融合网络中,得到融合图像F。
优选的,在步骤(S1)中,所述双模态图像包括但不限于可见光图像、不同波段红外图像、线偏振度图像(DoLP)等。
优选的,在步骤(S2)中,所述编码器子网络包括4个逆向残差卷积模块(IR)以及2个位置感知卷积模块(ParC),其中IR模块由卷积核大小为1×1的卷积层,卷积核大小为3×3的深度卷积层,卷积核大小为1×1的卷积以及非线性激活函数ReLU组成,用于分离出基本的多尺度特征;ParC模块由位置感知卷积块、全局横向环卷积、全局纵向环卷积、前馈神经网络以及通道注意力模块组成,通道注意力模块包括全局平均池化模块、2层全连接层,用于提取出深层次的全局特征。
优选的,在步骤(S3)中,所述融合子网络由两路组成:先将中间特征FA1和FA2的第i通道特征图取出,一路将两特征图进行直接相加,另一路将两特征图进行通道维拼接后通过3次3×3卷积,再与第一路相加得到第i通道的融合特征将所有通道处理并拼接起来后得到总融合特征Ffused
优选的,在步骤(S4)中,所述解码器子网络包括6个解码块(DCB),每个解码块由一个卷积核大小为3×3的卷积和一个卷积核大小为1×1的卷积组成,解码块之间辅以差异上采样和跳跃连接实现多尺度特征的融合。
优选的,在步骤(S5)中,所述损失函数Loss由下式计算
Loss=λ1LMWSSIM2LACOS (1)
其中,LMWSSIM为多尺度加权结构相似性损失函数,用于构造输入和融合图像间的背景及纹理损失,由式(2)计算,LACOS为调整余弦相似性损失函数,用于约束融合图像的目标特征,由式(4)计算,λ1,λ2为用于平衡两种损失函数的超参数。
其中,βw为权重系数,LSSIM(x,y;w)代表在窗口w内图像x和y的局部结构相似性,由式(3)计算。
其中表示窗口w在图像x中的均值,σ(wxwy)为wx和wy的协方差,C1和C2为常数,防止等式的除数为0。LACOS通过下式计算:
其中,Ffused是融合特征,Fen为输出图像放入编码器得出的中间特征。
本发明与现有技术相比的有益效果在于:
1、本发明的基于多尺度策略的图像融合方法首先采用逆残差模块提取出图像的4层尺度的特征,随后对不同尺度的特征采用不同的方式进行进一步的处理,由于浅层特征包含更多的纹理及细节信息,因此为保留图像细节,不对浅层特征做过多处理,深层特征包含更多目标的全局特征,因此采用位置感知循环卷积对深层特征进行全局特征的提取,这种处理方式能够有针对性地利用不同尺度的特征,实现更好的特征提取性能,同时避免过多增加网络参数。
2、本发明的基于多尺度策略的图像融合方法采用双路并行的特征融合方式,先取出来自不同模态图像的第i通道的特征图,一路将该特征图直接相加获得保持纹理细节的特征图,另一路将两张特征图在通道维度拼接后,经过三层卷积获得融合整体特征的特征图,最后将两路的特征图进行相加,得到融合的第i通道的特征图,这种特征融合方法将纹理和目标特征进行分路处理,能够充分利用不同尺度中的不同分量的纹理和整体特征,实现目标特征融合的同时保留良好的纹理信息。
3、本发明的基于多尺度策略的图像融合方法在构建损失函数时使用了加权结构相似性损失函数,能够从不同尺度约束图像的亮度、对比度以及结构与源图像相似,同时利用调整余弦相似性损失函数的高维一致性,来约束融合图像的多维目标特征与源图像的多维目标特征保持一致,两种损失函数结合能够使融合图像既具有良好的纹理和细节信息,又有较高的目标对比度。
附图说明:
图1为本发明的基于多尺度策略的图像融合方法的流程图。
图2为本发明的基于多尺度策略的图像融合方法的总网络图。
图3为本发明的基于多尺度策略的图像融合方法的位置循环感知卷积块图。
图4为本发明的基于多尺度策略的图像融合方法的残差融合模块图。
图5为本发明的基于多尺度策略的图像融合方法的训练与具体测试执行案例流程示意图。
具体实施方式:
下面结合实施例对本发明作进一步详细的描述,但本发明的实施方式不限于此。
参见图1,本发明的基于多尺度策略的图像融合方法包括以下步骤:
(S1)、利用不同成像模式的相机拍摄2000对双模态图像构成待融合的双模态图像集D,图像分辨率为256×256,两种模态的图像分别记为A1、A2
(S2)、将双模态图像A1、A2作为网络输入,经过编码器子网络得到包含4层尺度的中间特征FA1和FA2
(S3)、利用训练好的融合子网络融合两种模态图像的中间特征FA1和FA2,得到融合特征Ffused
(S4)、将融合特征Ffused输入解码器子网络重建出融合图像F;
(S5)、将上述子网络构建成一个多尺度图像融合网络,并计算输出的融合图像F与输入的多模态图像A1和A2之间的损失函数Loss值,通过对Loss值的梯度进行反向传播来训练多尺度图像融合网络,直至Loss值收敛,得到训练好的多尺度图像融合网络;
(S6)、将待融合的双模态图像集D放入训练好的多尺度图像融合网络中,得到融合图像F。
参见图2,编码器子网络中的4个IR块为逆向残差卷积块,包括卷积核大小为1×1的卷积层,卷积核大小为3×3的深度卷积层和卷积核大小为1×1的卷积以及非线性激活函数ReLU,该模块通过1×1卷积提升通道数后再通过3×3深度卷积能够有效提取红外图像、DoLP图像等这类仅有显著目标特征的图像特征,同时参数量比常规卷积核大小为3×3的卷积少,最后的1×1卷积用于通道信息交互以及控制特征通道数,因此IR模块适用于分离出初步的4个尺度特征。
参见图2和图3,编码器子网络中采用的位置循环感知卷积块(ParC)包括位置感知卷积块(PWConv)、全局横向环卷积(GCC-H)、全局纵向环卷积(GCC-V)、前馈神经网络(FFN)以及通道注意力模块(CWA),其通过位置感知卷积分配空间权重,后通过连续的全局横向换卷积及全局纵向环卷积提取出深层全局空间特征,将特征拼接后进行正则化,再通过前馈神经网络和通道注意力模块提取出通道特征,从而实现全局空间和通道特征的提取,适用于对深层的全局特征进行提取。
由于经过编码器子网络提取的特征包含四个尺度,且不同尺度含有不同的纹理和目标特征分量,因此通道拼接、相加或传统人工设计的融合方法等方法无法适配或处理该分量不同的复杂特征,需要对纹理细节及目标特征进行分别处理才能够有效保留和融合相应特征。
为此,参见图2和图4,融合子网络中的RF模块包含能够分别对纹理细节和目标特征进行处理的两路操作:先将中间特征FA1和FA2的第i通道特征图取出,一路将两特征图进行直接相加,保持了中间特征的纹理信息,另一路将两特征图进行通道维拼接后通过3次3×3卷积,实现目标特征的融合,与第一路相加后得到第i通道的融合特征将所有通道处理并拼接起来后得到总融合特征Ffused,该融合模块通过两路处理实现了边缘和目标特征的分别处理,避免了单一处理方式对另一种特征的影响。
融合后的特征Ffused包含4个尺度的融合特征,将其合并重建为通道数为1的融合图像,需要不断地进行上采样和拼接操作,使各尺度的信息汇合的同时降低通道数。
为此,参见图2,解码器子网络将6个解码块(DCB)通过插值上采样和跳跃连接进行链接,实现多尺度特征的汇合及通道降维,每个解码块包含1个卷积核大小为3×3的卷积层以及卷积核大小为1×1的卷积层,最后通过卷积核大小为1×1的实现融合图像的重建。
参见图5,基于多尺度策略的图像融合网络的损失函数Loss采用多尺度加权结构相似性损失函数LMWSSIM来构造输入和融合图像间的背景及纹理损失,用调整余弦相似性损失函数LACOS来约束融合图像的目标特征,LMWSSIM通过下式计算:
其中,βw为权重系数,由式(2)计算,其意义在于,方差越大的图像包含有更多图像信息,因此需要更大的权重,LSSIM(x,y;w)代表在窗口w内图像x和y的局部结构相似性,由式(3)计算。
其中,g(x)=max(x,0.0001)为校正系数,用以提升稳定性,σ2(·)表示方差计算,表示窗口w内图像A1的方差。
其中表示窗口w在图像x中的均值,σ(wxwy)为wx和wy的协方差,C1和C2为常数0.0001和0.0009,用于方式等式除数为0。LACOS通过下式计算:
其中,Ffused是融合特征,Fen为输出图像放入编码器得出的中间特征。
最后网络的总损失函数为:
Loss=λ1LMWSSIM2LACOS (5)
其中,λ1,λ2为0.1和1的超参数。
上述为本发明较佳的实施方式,但本发明的实施方式并不受上述内容的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (6)

1.一种基于多尺度策略的图像融合方法,其特征在于,包括以下步骤:
(S1)、利用不同成像模式的相机拍摄2000对双模态图像构成待融合的双模态图像集D,两种模态的图像分别记为A1、A2
(S2)、将双模态图像A1、A2作为网络输入,经过编码器子网络得到包含4层尺度的中间特征FA1和FA2
(S3)、利用训练好的融合子网络融合两种模态图像的中间特征FA1和FA2,得到融合特征Ffused
(S4)、将融合特征Ffused输入解码器子网络重建出融合图像F;
(S5)、将上述子网络构建成一个多尺度图像融合网络,并计算输出的融合图像F与输入的多模态图像A1和A2之间的损失函数Loss值,通过对Loss值的梯度进行反向传播来训练多尺度图像融合网络,直至Loss值收敛,得到训练好的多尺度图像融合网络;
(S6)、将待融合的双模态图像集D放入训练好的多尺度图像融合网络中,得到融合图像F。
2.根据权利要求1所述的基于多尺度策略的图像融合方法,其特征在于,在步骤(S1)中,所述双模态图像包括但不限于可见光图像、不同波段红外图像、线偏振度图像(Degreeof LinerPolarization,DoLP)等。
3.根据权利要求1所述的基于多尺度策略的图像融合方法,其特征在于,在步骤(S2)中,所述编码器子网络包括4个逆向残差卷积模块(IR)以及2个位置感知卷积模块(ParC),其中IR模块由卷积核大小为1×1的卷积层,卷积核大小为3×3的深度卷积层,卷积核大小为1×1的卷积以及非线性激活函数ReLU组成,用于分离出基本的多尺度特征;ParC模块由位置感知卷积块、全局横向环卷积、全局纵向环卷积、前馈神经网络以及通道注意力模块组成,通道注意力模块包括全局平均池化模块、2层全连接层,用于提取出深层次的全局特征。
4.根据权利要求1所述的基于多尺度策略的图像融合方法,其特征在于,在步骤(S3)中,所述融合子网络由两路组成:先将中间特征FA1和FA2的第i通道特征图取出,一路将两特征图进行直接相加,另一路将两特征图进行通道维拼接后通过3次3×3卷积,再与第一路相加得到第i通道的融合特征将所有通道处理并拼接起来后得到总融合特征Ffused
5.根据权利要求1所述的基于多尺度策略的图像融合方法,其特征在于,在步骤(S4)中,所述解码器子网络包括6个解码块(DCB),每个解码块由一个卷积核大小为3×3的卷积和一个卷积核大小为1×1的卷积组成,解码块之间辅以差异上采样和跳跃连接实现多尺度特征的融合。
6.根据权利要求1所述的基于多尺度策略的图像融合方法,其特征在于,在步骤(S5)中,所述损失函数Loss由下式计算:
Loss=λ1LMWSSIM2LACOS (1)
其中,LMWSSIM为多尺度加权结构相似性损失函数,用于构造输入和融合图像间的背景及纹理损失,由式(2)计算,LACOS为调整余弦相似性损失函数,用于约束融合图像的目标特征,由式(4)计算,λ1,λ2为用于平衡两种损失函数的超参数;
其中,βw为权重系数,LSSIM(x,y;w)代表在窗口w内图像x和y的局部结构相似性,由式(3)计算:
其中表示窗口w在图像x中的均值,σ(wxwy)为wx和wy的协方差,C1和C2为常数,防止等式的除数为0;LACOS通过下式计算:
其中,Ffused是融合特征,Fen为输出图像放入编码器得出的中间特征。
CN202310752556.5A 2023-06-26 2023-06-26 一种基于多尺度策略的图像融合方法 Pending CN116805388A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310752556.5A CN116805388A (zh) 2023-06-26 2023-06-26 一种基于多尺度策略的图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310752556.5A CN116805388A (zh) 2023-06-26 2023-06-26 一种基于多尺度策略的图像融合方法

Publications (1)

Publication Number Publication Date
CN116805388A true CN116805388A (zh) 2023-09-26

Family

ID=88080440

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310752556.5A Pending CN116805388A (zh) 2023-06-26 2023-06-26 一种基于多尺度策略的图像融合方法

Country Status (1)

Country Link
CN (1) CN116805388A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117593619A (zh) * 2024-01-18 2024-02-23 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117593619A (zh) * 2024-01-18 2024-02-23 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备及存储介质
CN117593619B (zh) * 2024-01-18 2024-05-14 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN107748895B (zh) 基于dct-cnn模型的无人机着陆地貌图像分类方法
CN109360171B (zh) 一种基于神经网络的视频图像实时去模糊方法
CN111402146B (zh) 图像处理方法以及图像处理装置
CN112446834A (zh) 图像增强方法和装置
CN109064423B (zh) 一种基于非对称循环生成对抗损失的智能修图方法
CN114041161A (zh) 训练用于增强图像细节的神经网络模型的方法和装置
CN112308200A (zh) 神经网络的搜索方法及装置
CN112967178B (zh) 一种图像转换方法、装置、设备及存储介质
CN110148088B (zh) 图像处理方法、图像去雨方法、装置、终端及介质
CN111914997A (zh) 训练神经网络的方法、图像处理方法及装置
CN116805388A (zh) 一种基于多尺度策略的图像融合方法
CN116681636B (zh) 基于卷积神经网络的轻量化红外与可见光图像融合方法
CN112184604A (zh) 一种基于图像融合的彩色图像增强方法
CN114782298B (zh) 一种具有区域注意力的红外与可见光图像融合方法
CN113658040A (zh) 一种基于先验信息和注意力融合机制的人脸超分辨方法
CN113592018B (zh) 基于残差密集网络和梯度损失的红外光与可见光图像融合方法
CN117392496A (zh) 基于红外与可见光图像融合的目标检测方法及系统
CN112767467A (zh) 一种基于自监督深度学习的双图深度估计方法
CN116071676A (zh) 一种基于注意力导向金字塔融合的红外小目标检测方法
CN116757986A (zh) 一种红外与可见光图像融合方法及装置
CN114581318B (zh) 一种低照明度图像增强方法及系统
CN113762277B (zh) 一种基于Cascade-GAN的多波段红外图像融合方法
CN116343015A (zh) 基于人工智能的医用食物含水量测量系统
CN114004775B (zh) 结合潜在低秩表示和卷积神经网络的红外和可见光图像融合方法
CN116977809A (zh) 一种基于深度学习的端到端多模态图像融合框架

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination