CN114359078A - 基于特征金字塔注意力神经网络的太赫兹图像增强方法 - Google Patents

基于特征金字塔注意力神经网络的太赫兹图像增强方法 Download PDF

Info

Publication number
CN114359078A
CN114359078A CN202111584286.9A CN202111584286A CN114359078A CN 114359078 A CN114359078 A CN 114359078A CN 202111584286 A CN202111584286 A CN 202111584286A CN 114359078 A CN114359078 A CN 114359078A
Authority
CN
China
Prior art keywords
neural network
channels
image
loss
above formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111584286.9A
Other languages
English (en)
Inventor
吴衡
杨鹏飞
赵艮平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202111584286.9A priority Critical patent/CN114359078A/zh
Publication of CN114359078A publication Critical patent/CN114359078A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及太赫兹成像的技术领域,更具体地说,它涉及基于特征金字塔注意力神经网络的太赫兹图像增强方法,其技术方案要点是:S1、使用SIDD公开数据集作为数据集,选取SIDD数据集中M张成对的低质量‑高质量图像,记为
Figure DDA0003427755070000011
i=1,2,…,M;S2、构建特征金字塔注意力卷积神经网络模型;S3、训练所述神经网络模型;S4、利用太赫兹成像仪拍摄得到K张分辨率为a×b的带噪声的太赫兹图像集H,然后将该图像集输入到深度神经网络,之后输出即为高质量图像GT。本发明具有算法去噪效果好、图像信息保留较完整、算法运行较快的优点。

Description

基于特征金字塔注意力神经网络的太赫兹图像增强方法
技术领域
本发明涉及太赫兹成像的技术领域,更具体地说,它涉及基于特征金字塔注意力神经网络的太赫兹图像增强方法。
背景技术
太赫兹成像技术是利用太赫兹波作为信号源的成像技术。相比于X射线技术,太赫兹成像技术没有电离辐射,具有应用安全、非接触式的优势。因此太赫兹成像技术在安检、通信、生物医学、无损检测等方面得到广泛的应用。
传统的太赫兹图像增强算法在成像过程中,由于太赫兹波源的扰动、成像系统或者目标物运动、信号采集系统噪声等随机因素干扰,导致太赫兹图像存在成像质量较差、分辨率较低、对比度较低等问题。
发明内容
针对现有技术存在的不足,本发明的目的在于提供基于特征金字塔注意力神经网络的太赫兹图像增强方法,具有算法去噪效果好、图像信息保留较完整、算法运行较快的优点。
本发明的上述技术目的是通过以下技术方案得以实现的,基于特征金字塔注意力神经网络的太赫兹图像增强方法,包括以下步骤:
S1、使用SIDD公开数据集作为数据集,选取SIDD数据集中M张成对的低质量-高质量图像,记为
Figure BDA0003427755050000011
i=1,2,...,M;
S2、构建特征金字塔注意力卷积神经网络模型;
S3、训练所述神经网络模型;
S4、利用太赫兹成像仪拍摄得到K张分辨率为a×b的带噪声的太赫兹图像集H,然后将该图像集输入到深度神经网络,之后输出即为高质量图像GT。
在其中一个实施例中,所述步骤S1还包括以下步骤:
首先将SIDD数据集彩色图像转为单通道灰度图,然后进行数据增强,将灰度图裁剪为K张分辨率为a×b的图像,接着将裁剪后的图像随机上下翻转、随机将图像旋转R1,R2,R3,R4度,Rl∈[1,4]∈[D,E]
,得到用于训练的子图像集
Figure BDA0003427755050000021
j=1,2,...,K,记为S。
在其中一个实施例中,所述步骤S2还包括以下步骤:
S21、使用h个卷积核尺寸为s,通道数为c1的卷积层和Relu层,将分辨率为m×n,通道数为c2的太赫兹图像处理为分辨率为m×n,通道数为c1的张量信息,上述操作如下:
C1=Convh(Wi)
上式中Wi为输入的通道数为c2,分辨率为m×n的张量信息,Convh(·)表示卷积层,C1为输出的张量信息;
然后将张量信息输入至通道注意力模块,最后通过h1个卷积核尺寸为s,通道数为c3的卷积层,上述操作如下:
Nest=Conv(CAB(C1,θ,β))
上式中Nest为通道数为c3,分辨率为m×n的张量信息,Conv(·)表示卷积操作,CAB(·)为通道注意力模块,θ和β是网络待优化的参数;通道注意力利用通道映射之间的相互依赖性,改进特定语义信息的特征表示,来显式地建模通道之间的相互依赖关系;
S22、输入特征首先通过卷积层,尺寸为s,通道数为c4,然后分别进行Reshape和Transpose操作,最后在不同阶段进行相乘和相加,给不同特征通道进行加权,其表示如下:
C1_1=Reshape(C1)
C1_2=Reshape(C1)
C1_3=RT(C1)
C1_4=Softmax(C1_2*C1_3)
C1_5=Reshape(β(C1_1*C1_4))
C1 *=C1+C1_5
上式中C1 *为经过加权后的C1,RT表示Reshape和Transpose操作;最后将输入特征与输出特征进行维度层面的拼接操作,实现低级特征和高级特征的融合,其表示如下:
C2=Concat(Nest,Wi)
上式中C2为通道数为c5=c2+c3,分辨率为m×n的张量信息,Concat(·)为维度的层面拼接操作,然后将C2通过h个卷积核尺寸为s,通道数为c6的卷积层和Relu层提取特征,然后通过h个特征金字塔注意力模块进行不同尺度特征的融合,之后通过h个卷积核尺寸为s,通道数为c7的卷积层和Relu层,其过程表示如下:
C3=Convh(C2)
C4=FPAh(C3)
C5=Convh(C4)
上式中Convh(·)表示h个卷积层和Relu层的操作,FPAh(·)表示h个特征金字塔注意力模块;
S23、输入通道数为c6,分辨率为的m×n特征C3分别通过下采样残差模块之后生成四个通道数为c6,尺度为m/2×n/2,n/4×n/4,m/8×n/8,m/16×n/16的特征图,这样构建了五层的特征金字塔模型;对每个尺度下的特征图通过一个通道注意力模块,建模通道之间的相互依赖关系,最后对每个尺度下的特征使用bicubic上采样,进行特征融合;特征金字塔注意力通过利用构建的多尺度特征图,使用注意力机制来显式建模不同尺度特征的相关性,使得重建后的太赫兹图像细节信息保留完整;最后,使用残差连接来保留更丰富的特征信息,最后通过h2个卷积核尺寸为s,通道数为c8的卷积层得到增强后的太赫兹图像;其过程表示如下:
Cout=Conv(C3+C5)
上式中Cout为最终增强后的太赫兹图像。
在其中一个实施例中,所述步骤S3具体为:
采用生成对抗网络的训练方法,训练的网络包括图像增强网络G和判别网络D,损失函数包含三个部分,内容损失L(θ),噪声损失Ln以及生成对抗损失LA(G,D);
内容损失衡量高质量图像与神经网络模型增强之后的图像之间的差距,采用l1损失,公式表示如下:
Figure BDA0003427755050000041
上式中N为一个epochs下训练的图像数量,Net(·)为网络模型,Wj *为第j个低质量图像,GTj *为第j个高质量图像,θ为神经网络待优化的参数;
噪声损失公式表示如下:
Figure BDA0003427755050000042
上式中α为常数,Nj gt=Wj *-GTj *为第j张图像的真实噪声,Nest j为神经网络估计的噪声;
生成对抗损失公式表示如下:
Figure BDA0003427755050000051
Figure BDA0003427755050000052
上式中minD为判别器的损失函数,minG为生成器的损失函数,D(·)为判别器网络,G(·)为生成器网络,E[·]为损失;
总的损失Ltotal为三个损失的线性组合;其公式表示如下:
Ltotal=λ1L(θ)+λ2Ln3LA(G,D)
上式中λ1,λ2,λ3是三种损失函数的权重,其值为常数;
在深度神经网络训练过程中,采用ADAM函数对损失函数Ltotal进行优化,初始学习率设置为lr,每迭代I次学习率下降α倍;用于训练每一批的图片数量为N;经过epochs次迭代训练后,可得到优化参数θ*
在其中一个实施例中,所述步骤S4具体为:
数学模型可以表示如下:
GT=GT(x,y)=Net(H,θ*)
上式中GT(x,y)表示高质量图像,Net(·)是一个隐函数,表示训练好的深度神经网络,θ*是训练好的深度神经网络的参数,(x,y)表示像素坐标。
上述基于特征金字塔注意力神经网络的太赫兹图像增强方法,具有以下有益效果:
通过设计特征金字塔注意力模块,融合图像的多尺度信息。利用构建的多尺度特征图,使用注意力机制来显式建模不同尺度特征的相关性;使用通道注意力显式地建模通道之间的相互依赖关系,为不同特征分配权重;最终使得增强后的图像边缘不易丢失;同时,由于采用LSGAN的生成对抗网络的训练方法,避免了神经网络训练不稳定的问题,实用性更强,可以快速重建出高质量的太赫兹图像。
附图说明
图1是本实施例中生成器神经网络模型结构示意图;
图2是图1中通道注意力(CA Block)模块结构示意图;
图3是图1中特征金字塔注意力模块(FPA Block)结构示意图;
图4是图3中ResBlock残差模块结构示意图;
图5是判别器网络结构示意图;
图6是图5中CIL模块结构示意图。
具体实施方式
下面结合附图和实施例,对本发明进行详细描述。
如图1所示,基于特征金字塔注意力神经网络的太赫兹图像增强方法,包括以下步骤:
S1、使用SIDD公开数据集作为数据集,选取SIDD数据集中M张成对的低质量-高质量图像,记为
Figure BDA0003427755050000061
i=1,2,...,M。
具体的,所述步骤S1还包括以下步骤:
首先将SIDD数据集彩色图像转为单通道灰度图,然后进行数据增强,将灰度图裁剪为K张分辨率为a×b的图像,接着将裁剪后的图像随机上下翻转、随机将图像旋转R1,R2,R3,R4度,Rl∈[1,4]∈[D,E],得到用于训练的子图像集
Figure BDA0003427755050000062
j=1,2,...,K,记为S。
S2、构建特征金字塔注意力卷积神经网络模型。
具体的,所述步骤S2还包括以下步骤:
S21、使用h个卷积核尺寸为s,通道数为c1的卷积层和Relu层,将分辨率为m×n,通道数为c2的太赫兹图像处理为分辨率为m×n,通道数为c1的张量信息,上述操作如下:
C1=Convh(Wi)
上式中Wi为输入的通道数为c2,分辨率为m×n的张量信息,Convh(·)表示卷积层,C1为输出的张量信息;
然后将张量信息输入至通道注意力模块,最后通过h1个卷积核尺寸为s,通道数为c3的卷积层,上述操作如下:
Nest=Conv(CAB(C1,θ,β))
上式中Nest为通道数为c3,分辨率为m×n的张量信息,Conv(·)表示卷积操作,CAB(·)为通道注意力模块,θ和β是网络待优化的参数;通道注意力利用通道映射之间的相互依赖性,改进特定语义信息的特征表示,来显式地建模通道之间的相互依赖关系;
S22、输入特征首先通过卷积层,尺寸为s,通道数为c4,然后分别进行Reshape和Transpose操作,最后在不同阶段进行相乘和相加,给不同特征通道进行加权,其表示如下:
C1_1=Reshape(C1)
C1_2=Reshape(C1)
C1_3=RT(C1)
C1_4=Softmax(C1_2*C1_3)
C1_5=Reshape(β(C1_1*C1_4))
C1 *=C1+C1_5
上式中C1 *为经过加权后的C1,RT表示Reshape和Transpose操作;最后将输入特征与输出特征进行维度层面的拼接操作,实现低级特征和高级特征的融合,其表示如下:
C2=Concat(Nest,Wi)
上式中C2为通道数为c5=c2+c3,分辨率为m×n的张量信息,Concat(·)为维度的层面拼接操作,然后将C2通过h个卷积核尺寸为s,通道数为c6的卷积层和Relu层提取特征,然后通过h个特征金字塔注意力模块进行不同尺度特征的融合,之后通过h个卷积核尺寸为s,通道数为c7的卷积层和Relu层,其过程表示如下:
C3=Convh(C2)
C4=FPAh(C3)
C5=Convh(C4)
上式中Convh(·)表示h个卷积层和Relu层的操作,FPAh(·)表示h个特征金字塔注意力模块;
S23、输入通道数为c6,分辨率为的m×n特征C3分别通过下采样残差模块之后生成四个通道数为c6,尺度为m/2×n/2,n/4×n/4,m/8×n/8,m/16×n/16的特征图,这样构建了五层的特征金字塔模型;对每个尺度下的特征图通过一个通道注意力模块,建模通道之间的相互依赖关系,最后对每个尺度下的特征使用bicubic上采样,进行特征融合;特征金字塔注意力通过利用构建的多尺度特征图,使用注意力机制来显式建模不同尺度特征的相关性,使得重建后的太赫兹图像细节信息保留完整;最后,使用残差连接来保留更丰富的特征信息,最后通过h2个卷积核尺寸为s,通道数为c8的卷积层得到增强后的太赫兹图像;其过程表示如下:
Cout=Conv(C3+C5)
上式中Cout为最终增强后的太赫兹图像。
作为一可选的实施例,如图1所示,首先,使用h=3个卷积核尺寸为s=3×3,通道数为c1=64的卷积层和Relu层101,将分辨率为128×128,通道数为c2=1的太赫兹图像处理为分辨率为128×128,通道数为c1=64的张量信息。上述操作如下:
C1=Conv3(Wi)
上式中Wi为输入的通道数为c2=1,分辨率为128×128的张量信息。Conv3(·)表示图1中的101。C1为输出的张量信息。然后将张量信息输入至通道注意力模块102。最后通过h1=1个卷积核尺寸为s=3×3,通道数为c3=1的卷积层。上述操作如下:
Nest=Conv(CAB(C1,θ,β))
上式中Nest为通道数为c3=1,分辨率为128×128的张量信息,Conv(·)表示图1中的103,CAB(·)为通道注意力模块,θ和β是网络待优化的参数。通道注意力利用通道映射之间的相互依赖性,改进特定语义信息的特征表示,来显式地建模通道之间的相互依赖关系。其结构如图2所示,输入特征首先通过3个卷积层201,202,203,尺寸为s=3×3,通道数为c4=64,然后分别进行Reshape和Transpose操作,最后在不同阶段进行相乘和相加,给不同特征通道进行加权。其表示如下:
C1_1=Reshape(C1)
C1_2=Reshape(C1)
C1_3=RT(C1)
C1_4=Softmax(C1_2*C1_3)
C1_5=Reshape(β(C1_1*C1_4))
C1 *=C1+C1_5
上式中C1 *为经过加权后的C1,RT表示Reshape和Transpose操作。最后将输入特征与输出特征进行维度层面拼接操作104,实现低级特征和高级特征的融合。其表示如下:
C2=Concat(Nest,Wi)
上式中C2为通道数为c5=2,分辨率为128×128的张量信息。Concat(·)为104。然后将C2通过h=3个卷积核尺寸为s=3×3,通道数为c6=64的卷积层和Relu层105提取特征,然后通过h=3个特征金字塔注意力模块106进行不同尺度特征的融合,之后通过h=3个卷积核尺寸为s=3×3,通道数为c7=64的卷积层和Relu层107,其过程表示如下:
C3=Conv3(C2)
C4=FPA3(C3)
C5=Conv3(C4)
上式中Conv3(·)表示h=3个卷积层和Relu层的操作,FPA3(·)表示h=3个特征金字塔注意力模块,结构如图3所示。输入通道数为c6=64,分辨率为的128×128特征C3分别通过下采样残差模块301,302,303,304之后生成四个通道数为64,尺度为64×64,32×32,16×16,8×8的特征图,这样构建了五层的特征金字塔模型。对每个尺度下的特征图通过一个通道注意力模块,建模通道之间的相互依赖关系,最后对每个尺度下的特征使用bicubic上采样,进行特征融合。特征金字塔注意力通过利用构建的多尺度特征图,使用注意力机制来显式建模不同尺度特征的相关性,使得重建后的太赫兹图像细节信息保留完整。下采样残差模块结构如图6所示。最后,在105之后,108之前使用残差连接来保留更丰富的特征信息,最后通过h2=1个卷积核尺寸为s=3×3,通道数为c8=1的卷积层得到增强后的太赫兹图像。其过程表示如下:
Cout=Conv(C3+C5)
上式中Cout为最终增强后的太赫兹图像。
S3、训练所述神经网络模型。
具体的,所述步骤S3具体为:
采用生成对抗网络的训练方法,训练的网络包括图像增强网络G和判别网络D,损失函数包含三个部分,内容损失L(θ),噪声损失Ln以及生成对抗损失LA(G,D);
内容损失衡量高质量图像与神经网络模型增强之后的图像之间的差距,采用l1损失,公式表示如下:
Figure BDA0003427755050000111
上式中N为一个epochs下训练的图像数量,Net(·)为网络模型,Wj *为第j个低质量图像,GTj *为第j个高质量图像,θ为神经网络待优化的参数;
噪声损失公式表示如下:
Figure BDA0003427755050000112
上式中α为常数,Nj gt=Wj *-GTj *为第j张图像的真实噪声,Nest j为神经网络估计的噪声;
生成对抗损失公式表示如下:
Figure BDA0003427755050000113
Figure BDA0003427755050000114
上式中minD为判别器的损失函数,minG为生成器的损失函数,D(·)为判别器网络,G(·)为生成器网络,E[·]为损失;
总的损失Ltotal为三个损失的线性组合;其公式表示如下:
Ltotal=λ1L(θ)+λ2Ln3LA(G,D)
上式中λ1,λ2,λ3是三种损失函数的权重,其值为常数;
在深度神经网络训练过程中,采用ADAM函数对损失函数Ltotal进行优化,初始学习率设置为lr,每迭代I次学习率下降α倍;用于训练每一批的图片数量为N;经过epochs次迭代训练后,可得到优化参数θ*
作为一可选的实施例,为了提高太赫兹图像的成像质量,采用生成对抗网络的训练方法。训练的网络包括图像增强网络G和判别网络D,分别如图1,图5所示。损失函数包含三个部分,内容损失L(θ),噪声损失Ln以及生成对抗损失LA(G,D)。
内容损失衡量高质量图像与神经网络模型增强之后的图像之间的差距,采用l1损失,公式表示如下:
Figure BDA0003427755050000121
上式中N=64为一个epochs下训练的图像数量,Net(·)表示网络模型,Wj *为第j个低质量图像,GTj *为第j个高质量图像,θ为神经网络待优化的参数。
生成对抗损失采用非对称损失,衡量真实噪声与网络估计噪声的差距,优化训练过程,公式表示如下:
Figure BDA0003427755050000122
上式中α=3,Nj gt=Wj *-GTj *为第j张图像的真实噪声,Nest j为神经网络估计的噪声。
生成对抗损失公式表示如下:
Figure BDA0003427755050000123
Figure BDA0003427755050000124
上式中minD为判别器的损失函数,minG为生成器的损失函数,D(·)为判别器网络,G(·)为生成器网络,E[·]为损失。
总的损失Ltotal为三个损失的线性组合。其公式表示如下:
Ltotal=λ1L(θ)+λ2Ln3LA(G,D)
上式中λ1=1,λ2=0.3,λ3=0.005是三种损失函数的权重。
在深度神经网络训练过程中,采用ADAM函数对损失函数Ltotal进行优化,初始学习率设置为lr=10-4,每迭代50此学习率下降10倍。用于训练每一批的图片数量N=64。使用Kaiming初始化方法来初始化Net(·)网络。经过epochs=200次迭代训练后,可得到优化参数θ*
S4、利用太赫兹成像仪拍摄得到K张分辨率为a×b的带噪声的太赫兹图像集H,然后将该图像集输入到深度神经网络,之后输出即为高质量图像GT。
具体的,所述步骤S4具体为:
数学模型可以表示如下:
GT=GT(x,y)=Net(H,θ*)
上式中GT(x,y)表示高质量图像,Net(·)是一个隐函数,表示训练好的深度神经网络,θ*是训练好的深度神经网络的参数,(x,y)表示像素坐标。
作为一可选的实施例,所述的基于特征金字塔注意力神经网络的太赫兹图像增强算法获取增强后的图像是通过深度神经网络来实现。首先,利用太赫兹成像仪拍摄得到20张分辨率为240×480的带噪声的太赫兹图像集H,然后将该图像集输入到深度神经网络,之后输出即为高质量图像GT,其数学模型可以表示如下:
GT=GT(x,y)=Net(H,θ*)
上式中GT(x,y)表示高质量图像,Net(·)是一个隐函数,表示训练好的深度神经网络,θ*是深度神经网络的网络参数,(x,y)表示像素坐标。
本发明通过设计特征金字塔注意力模块,融合图像的多尺度信息。利用构建的多尺度特征图,使用注意力机制来显式建模不同尺度特征的相关性;使用通道注意力显式地建模通道之间的相互依赖关系,为不同特征分配权重;最终使得增强后的图像边缘不易丢失;同时,由于采用LSGAN的生成对抗网络的训练方法,避免了神经网络训练不稳定的问题,实用性更强,可以快速重建出高质量的太赫兹图像。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (5)

1.基于特征金字塔注意力神经网络的太赫兹图像增强方法,其特征在于,包括以下步骤:
S1、使用SIDD公开数据集作为数据集,选取SIDD数据集中M张成对的低质量-高质量图像,记为
Figure FDA0003427755040000011
S2、构建特征金字塔注意力卷积神经网络模型;
S3、训练所述神经网络模型;
S4、利用太赫兹成像仪拍摄得到K张分辨率为a×b的带噪声的太赫兹图像集H,然后将该图像集输入到深度神经网络,之后输出即为高质量图像GT。
2.根据权利要求1所述的基于特征金字塔注意力神经网络的太赫兹图像增强方法,其特征在于,所述步骤S1还包括以下步骤:
首先将SIDD数据集彩色图像转为单通道灰度图,然后进行数据增强,将灰度图裁剪为K张分辨率为a×b的图像,接着将裁剪后的图像随机上下翻转、随机将图像旋转R1,R2,R3,R4度,Rl∈[1,4]∈[D,E],得到用于训练的子图像集
Figure FDA0003427755040000012
记为S。
3.根据权利要求1所述的基于特征金字塔注意力神经网络的太赫兹图像增强方法,其特征在于,所述步骤S2还包括以下步骤:
S21、使用h个卷积核尺寸为s,通道数为c1的卷积层和Relu层,将分辨率为m×n,通道数为c2的太赫兹图像处理为分辨率为m×n,通道数为c1的张量信息,上述操作如下:
C1=Convh(Wi)
上式中Wi为输入的通道数为c2,分辨率为m×n的张量信息,Convh(·)表示卷积层,C1为输出的张量信息;
然后将张量信息输入至通道注意力模块,最后通过h1个卷积核尺寸为s,通道数为c3的卷积层,上述操作如下:
Nest=Conv(CAB(C1,θ,β))
上式中Nest为通道数为c3,分辨率为m×n的张量信息,Conv(·)表示卷积操作,CAB(·)为通道注意力模块,θ和β是网络待优化的参数;通道注意力利用通道映射之间的相互依赖性,改进特定语义信息的特征表示,来显式地建模通道之间的相互依赖关系;
S22、输入特征首先通过卷积层,尺寸为s,通道数为c4,然后分别进行Reshape和Transpose操作,最后在不同阶段进行相乘和相加,给不同特征通道进行加权,其表示如下:
C1_1=Reshape(C1)
C1_2=Reshape(C1)
C1_3=RT(C1)
C1_4=Softmax(C1_2*C1_3)
C1_5=Reshape(β(C1_1*C1_4))
C1 *=C1+C1_5
上式中C1 *为经过加权后的C1,RT表示Reshape和Transpose操作;最后将输入特征与输出特征进行维度层面的拼接操作,实现低级特征和高级特征的融合,其表示如下:
C2=Concat(Nest,Wi)
上式中C2为通道数为c5=c2+c3,分辨率为m×n的张量信息,Concat(·)为维度的层面拼接操作,然后将C2通过h个卷积核尺寸为s,通道数为c6的卷积层和Relu层提取特征,然后通过h个特征金字塔注意力模块进行不同尺度特征的融合,之后通过h个卷积核尺寸为s,通道数为c7的卷积层和Relu层,其过程表示如下:
C3=Convh(C2)
C4=FPAh(C3)
C5=Convh(C4)
上式中Convh(·)表示h个卷积层和Relu层的操作,FPAh(·)表示h个特征金字塔注意力模块;
S23、输入通道数为c6,分辨率为的m×n特征C3分别通过下采样残差模块之后生成四个通道数为c6,尺度为m/2×n/2,n/4×n/4,m/8×n/8,m/16×n/16的特征图,这样构建了五层的特征金字塔模型;对每个尺度下的特征图通过一个通道注意力模块,建模通道之间的相互依赖关系,最后对每个尺度下的特征使用bicubic上采样,进行特征融合;特征金字塔注意力通过利用构建的多尺度特征图,使用注意力机制来显式建模不同尺度特征的相关性,使得重建后的太赫兹图像细节信息保留完整;最后,使用残差连接来保留更丰富的特征信息,最后通过h2个卷积核尺寸为s,通道数为c8的卷积层得到增强后的太赫兹图像;其过程表示如下:
Cout=Conv(C3+C5)
上式中Cout为最终增强后的太赫兹图像。
4.根据权利要求1所述的基于特征金字塔注意力神经网络的太赫兹图像增强方法,其特征在于,所述步骤S3具体为:
采用生成对抗网络的训练方法,训练的网络包括图像增强网络G和判别网络D,损失函数包含三个部分,内容损失L(θ),噪声损失Ln以及生成对抗损失LA(G,D);
内容损失衡量高质量图像与神经网络模型增强之后的图像之间的差距,采用l1损失,公式表示如下:
Figure FDA0003427755040000041
上式中N为一个epochs下训练的图像数量,Net(·)为网络模型,Wj *为第j个低质量图像,GTj *为第j个高质量图像,θ为神经网络待优化的参数;
噪声损失公式表示如下:
Figure FDA0003427755040000042
上式中α为常数,Nj gt=Wj *-GTj *为第j张图像的真实噪声,Nest j为神经网络估计的噪声;
生成对抗损失公式表示如下:
Figure FDA0003427755040000043
Figure FDA0003427755040000044
上式中minD为判别器的损失函数,minG为生成器的损失函数,D(·)为判别器网络,G(·)为生成器网络,E[·]为损失;
总的损失Ltotal为三个损失的线性组合;其公式表示如下:
Ltotal=λ1L(θ)+λ2Ln3LA(G,D)
上式中λ1,λ2,λ3是三种损失函数的权重,其值为常数;
在深度神经网络训练过程中,采用ADAM函数对损失函数Ltotal进行优化,初始学习率设置为lr,每迭代I次学习率下降α倍;用于训练每一批的图片数量为N;经过epochs次迭代训练后,可得到优化参数θ*
5.根据权利要求1所述的基于特征金字塔注意力神经网络的太赫兹图像增强方法,其特征在于,所述步骤S4具体为:
数学模型可以表示如下:
GT=GT(x,y)=Net(H,θ*)
上式中GT(x,y)表示高质量图像,Net(·)是一个隐函数,表示训练好的深度神经网络,θ*是训练好的深度神经网络的参数,(x,y)表示像素坐标。
CN202111584286.9A 2021-12-23 2021-12-23 基于特征金字塔注意力神经网络的太赫兹图像增强方法 Pending CN114359078A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111584286.9A CN114359078A (zh) 2021-12-23 2021-12-23 基于特征金字塔注意力神经网络的太赫兹图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111584286.9A CN114359078A (zh) 2021-12-23 2021-12-23 基于特征金字塔注意力神经网络的太赫兹图像增强方法

Publications (1)

Publication Number Publication Date
CN114359078A true CN114359078A (zh) 2022-04-15

Family

ID=81102189

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111584286.9A Pending CN114359078A (zh) 2021-12-23 2021-12-23 基于特征金字塔注意力神经网络的太赫兹图像增强方法

Country Status (1)

Country Link
CN (1) CN114359078A (zh)

Similar Documents

Publication Publication Date Title
US11645835B2 (en) Hypercomplex deep learning methods, architectures, and apparatus for multimodal small, medium, and large-scale data representation, analysis, and applications
CN108921799B (zh) 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法
CN112132959B (zh) 数字岩心图像处理方法、装置、计算机设备及存储介质
Dalsasso et al. SAR image despeckling by deep neural networks: From a pre-trained model to an end-to-end training strategy
CN111784560A (zh) 基于级联残差生成对抗网络的sar和光学图像双向翻译方法
Sonogashira et al. High-resolution bathymetry by deep-learning-based image superresolution
CN113570508A (zh) 图像修复方法及装置、存储介质、终端
He et al. Remote sensing image super-resolution using deep–shallow cascaded convolutional neural networks
Tao et al. Thick cloud removal in optical remote sensing images using a texture complexity guided self-paced learning method
Zhang et al. Dense haze removal based on dynamic collaborative inference learning for remote sensing images
Zhou et al. MSAR‐DefogNet: Lightweight cloud removal network for high resolution remote sensing images based on multi scale convolution
Wang et al. A self-supervised deep denoiser for hyperspectral and multispectral image fusion
CN115240240A (zh) 基于yolo网络的红外人脸识别方法及系统
CN113034371B (zh) 一种基于特征嵌入的红外与可见光图像融合方法
Masse et al. Denoising very high resolution optical remote sensing images: Application and optimization of nonlocal bayes method
CN117788296A (zh) 基于异构组合深度网络的红外遥感图像超分辨率重建方法
Wang et al. Poissonian blurred hyperspectral imagery denoising based on variable splitting and penalty technique
Zhang et al. Enhanced visual perception for underwater images based on multistage generative adversarial network
Wali et al. Recent progress in digital image restoration techniques: a review
CN114202473A (zh) 一种基于多尺度特征和注意力机制的图像复原方法及装置
CN113762277A (zh) 一种基于Cascade-GAN的多波段红外图像融合方法
CN116486183B (zh) 基于多种注意力权重融合特征的sar图像建筑区分类方法
CN117422619A (zh) 图像重建模型的训练方法、图像重建方法、装置及设备
CN116823610A (zh) 一种基于深度学习的水下图像超分辨率生成方法和系统
CN116682105A (zh) 一种毫米波雷达和视觉特征注意力融合的目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination