CN114359078A - 基于特征金字塔注意力神经网络的太赫兹图像增强方法 - Google Patents
基于特征金字塔注意力神经网络的太赫兹图像增强方法 Download PDFInfo
- Publication number
- CN114359078A CN114359078A CN202111584286.9A CN202111584286A CN114359078A CN 114359078 A CN114359078 A CN 114359078A CN 202111584286 A CN202111584286 A CN 202111584286A CN 114359078 A CN114359078 A CN 114359078A
- Authority
- CN
- China
- Prior art keywords
- neural network
- channels
- image
- loss
- above formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
技术领域
本发明涉及太赫兹成像的技术领域,更具体地说,它涉及基于特征金字塔注意力神经网络的太赫兹图像增强方法。
背景技术
太赫兹成像技术是利用太赫兹波作为信号源的成像技术。相比于X射线技术,太赫兹成像技术没有电离辐射,具有应用安全、非接触式的优势。因此太赫兹成像技术在安检、通信、生物医学、无损检测等方面得到广泛的应用。
传统的太赫兹图像增强算法在成像过程中,由于太赫兹波源的扰动、成像系统或者目标物运动、信号采集系统噪声等随机因素干扰,导致太赫兹图像存在成像质量较差、分辨率较低、对比度较低等问题。
发明内容
针对现有技术存在的不足,本发明的目的在于提供基于特征金字塔注意力神经网络的太赫兹图像增强方法,具有算法去噪效果好、图像信息保留较完整、算法运行较快的优点。
本发明的上述技术目的是通过以下技术方案得以实现的,基于特征金字塔注意力神经网络的太赫兹图像增强方法,包括以下步骤:
S2、构建特征金字塔注意力卷积神经网络模型;
S3、训练所述神经网络模型;
S4、利用太赫兹成像仪拍摄得到K张分辨率为a×b的带噪声的太赫兹图像集H,然后将该图像集输入到深度神经网络,之后输出即为高质量图像GT。
在其中一个实施例中,所述步骤S1还包括以下步骤:
首先将SIDD数据集彩色图像转为单通道灰度图,然后进行数据增强,将灰度图裁剪为K张分辨率为a×b的图像,接着将裁剪后的图像随机上下翻转、随机将图像旋转R1,R2,R3,R4度,Rl∈[1,4]∈[D,E]
在其中一个实施例中,所述步骤S2还包括以下步骤:
S21、使用h个卷积核尺寸为s,通道数为c1的卷积层和Relu层,将分辨率为m×n,通道数为c2的太赫兹图像处理为分辨率为m×n,通道数为c1的张量信息,上述操作如下:
C1=Convh(Wi)
上式中Wi为输入的通道数为c2,分辨率为m×n的张量信息,Convh(·)表示卷积层,C1为输出的张量信息;
然后将张量信息输入至通道注意力模块,最后通过h1个卷积核尺寸为s,通道数为c3的卷积层,上述操作如下:
Nest=Conv(CAB(C1,θ,β))
上式中Nest为通道数为c3,分辨率为m×n的张量信息,Conv(·)表示卷积操作,CAB(·)为通道注意力模块,θ和β是网络待优化的参数;通道注意力利用通道映射之间的相互依赖性,改进特定语义信息的特征表示,来显式地建模通道之间的相互依赖关系;
S22、输入特征首先通过卷积层,尺寸为s,通道数为c4,然后分别进行Reshape和Transpose操作,最后在不同阶段进行相乘和相加,给不同特征通道进行加权,其表示如下:
C1_1=Reshape(C1)
C1_2=Reshape(C1)
C1_3=RT(C1)
C1_4=Softmax(C1_2*C1_3)
C1_5=Reshape(β(C1_1*C1_4))
C1 *=C1+C1_5
上式中C1 *为经过加权后的C1,RT表示Reshape和Transpose操作;最后将输入特征与输出特征进行维度层面的拼接操作,实现低级特征和高级特征的融合,其表示如下:
C2=Concat(Nest,Wi)
上式中C2为通道数为c5=c2+c3,分辨率为m×n的张量信息,Concat(·)为维度的层面拼接操作,然后将C2通过h个卷积核尺寸为s,通道数为c6的卷积层和Relu层提取特征,然后通过h个特征金字塔注意力模块进行不同尺度特征的融合,之后通过h个卷积核尺寸为s,通道数为c7的卷积层和Relu层,其过程表示如下:
C3=Convh(C2)
C4=FPAh(C3)
C5=Convh(C4)
上式中Convh(·)表示h个卷积层和Relu层的操作,FPAh(·)表示h个特征金字塔注意力模块;
S23、输入通道数为c6,分辨率为的m×n特征C3分别通过下采样残差模块之后生成四个通道数为c6,尺度为m/2×n/2,n/4×n/4,m/8×n/8,m/16×n/16的特征图,这样构建了五层的特征金字塔模型;对每个尺度下的特征图通过一个通道注意力模块,建模通道之间的相互依赖关系,最后对每个尺度下的特征使用bicubic上采样,进行特征融合;特征金字塔注意力通过利用构建的多尺度特征图,使用注意力机制来显式建模不同尺度特征的相关性,使得重建后的太赫兹图像细节信息保留完整;最后,使用残差连接来保留更丰富的特征信息,最后通过h2个卷积核尺寸为s,通道数为c8的卷积层得到增强后的太赫兹图像;其过程表示如下:
Cout=Conv(C3+C5)
上式中Cout为最终增强后的太赫兹图像。
在其中一个实施例中,所述步骤S3具体为:
采用生成对抗网络的训练方法,训练的网络包括图像增强网络G和判别网络D,损失函数包含三个部分,内容损失L(θ),噪声损失Ln以及生成对抗损失LA(G,D);
内容损失衡量高质量图像与神经网络模型增强之后的图像之间的差距,采用l1损失,公式表示如下:
上式中N为一个epochs下训练的图像数量,Net(·)为网络模型,Wj *为第j个低质量图像,GTj *为第j个高质量图像,θ为神经网络待优化的参数;
噪声损失公式表示如下:
上式中α为常数,Nj gt=Wj *-GTj *为第j张图像的真实噪声,Nest j为神经网络估计的噪声;
生成对抗损失公式表示如下:
上式中minD为判别器的损失函数,minG为生成器的损失函数,D(·)为判别器网络,G(·)为生成器网络,E[·]为损失;
总的损失Ltotal为三个损失的线性组合;其公式表示如下:
Ltotal=λ1L(θ)+λ2Ln+λ3LA(G,D)
上式中λ1,λ2,λ3是三种损失函数的权重,其值为常数;
在深度神经网络训练过程中,采用ADAM函数对损失函数Ltotal进行优化,初始学习率设置为lr,每迭代I次学习率下降α倍;用于训练每一批的图片数量为N;经过epochs次迭代训练后,可得到优化参数θ*。
在其中一个实施例中,所述步骤S4具体为:
数学模型可以表示如下:
GT=GT(x,y)=Net(H,θ*)
上式中GT(x,y)表示高质量图像,Net(·)是一个隐函数,表示训练好的深度神经网络,θ*是训练好的深度神经网络的参数,(x,y)表示像素坐标。
上述基于特征金字塔注意力神经网络的太赫兹图像增强方法,具有以下有益效果:
通过设计特征金字塔注意力模块,融合图像的多尺度信息。利用构建的多尺度特征图,使用注意力机制来显式建模不同尺度特征的相关性;使用通道注意力显式地建模通道之间的相互依赖关系,为不同特征分配权重;最终使得增强后的图像边缘不易丢失;同时,由于采用LSGAN的生成对抗网络的训练方法,避免了神经网络训练不稳定的问题,实用性更强,可以快速重建出高质量的太赫兹图像。
附图说明
图1是本实施例中生成器神经网络模型结构示意图;
图2是图1中通道注意力(CA Block)模块结构示意图;
图3是图1中特征金字塔注意力模块(FPA Block)结构示意图;
图4是图3中ResBlock残差模块结构示意图;
图5是判别器网络结构示意图;
图6是图5中CIL模块结构示意图。
具体实施方式
下面结合附图和实施例,对本发明进行详细描述。
如图1所示,基于特征金字塔注意力神经网络的太赫兹图像增强方法,包括以下步骤:
具体的,所述步骤S1还包括以下步骤:
首先将SIDD数据集彩色图像转为单通道灰度图,然后进行数据增强,将灰度图裁剪为K张分辨率为a×b的图像,接着将裁剪后的图像随机上下翻转、随机将图像旋转R1,R2,R3,R4度,Rl∈[1,4]∈[D,E],得到用于训练的子图像集j=1,2,...,K,记为S。
S2、构建特征金字塔注意力卷积神经网络模型。
具体的,所述步骤S2还包括以下步骤:
S21、使用h个卷积核尺寸为s,通道数为c1的卷积层和Relu层,将分辨率为m×n,通道数为c2的太赫兹图像处理为分辨率为m×n,通道数为c1的张量信息,上述操作如下:
C1=Convh(Wi)
上式中Wi为输入的通道数为c2,分辨率为m×n的张量信息,Convh(·)表示卷积层,C1为输出的张量信息;
然后将张量信息输入至通道注意力模块,最后通过h1个卷积核尺寸为s,通道数为c3的卷积层,上述操作如下:
Nest=Conv(CAB(C1,θ,β))
上式中Nest为通道数为c3,分辨率为m×n的张量信息,Conv(·)表示卷积操作,CAB(·)为通道注意力模块,θ和β是网络待优化的参数;通道注意力利用通道映射之间的相互依赖性,改进特定语义信息的特征表示,来显式地建模通道之间的相互依赖关系;
S22、输入特征首先通过卷积层,尺寸为s,通道数为c4,然后分别进行Reshape和Transpose操作,最后在不同阶段进行相乘和相加,给不同特征通道进行加权,其表示如下:
C1_1=Reshape(C1)
C1_2=Reshape(C1)
C1_3=RT(C1)
C1_4=Softmax(C1_2*C1_3)
C1_5=Reshape(β(C1_1*C1_4))
C1 *=C1+C1_5
上式中C1 *为经过加权后的C1,RT表示Reshape和Transpose操作;最后将输入特征与输出特征进行维度层面的拼接操作,实现低级特征和高级特征的融合,其表示如下:
C2=Concat(Nest,Wi)
上式中C2为通道数为c5=c2+c3,分辨率为m×n的张量信息,Concat(·)为维度的层面拼接操作,然后将C2通过h个卷积核尺寸为s,通道数为c6的卷积层和Relu层提取特征,然后通过h个特征金字塔注意力模块进行不同尺度特征的融合,之后通过h个卷积核尺寸为s,通道数为c7的卷积层和Relu层,其过程表示如下:
C3=Convh(C2)
C4=FPAh(C3)
C5=Convh(C4)
上式中Convh(·)表示h个卷积层和Relu层的操作,FPAh(·)表示h个特征金字塔注意力模块;
S23、输入通道数为c6,分辨率为的m×n特征C3分别通过下采样残差模块之后生成四个通道数为c6,尺度为m/2×n/2,n/4×n/4,m/8×n/8,m/16×n/16的特征图,这样构建了五层的特征金字塔模型;对每个尺度下的特征图通过一个通道注意力模块,建模通道之间的相互依赖关系,最后对每个尺度下的特征使用bicubic上采样,进行特征融合;特征金字塔注意力通过利用构建的多尺度特征图,使用注意力机制来显式建模不同尺度特征的相关性,使得重建后的太赫兹图像细节信息保留完整;最后,使用残差连接来保留更丰富的特征信息,最后通过h2个卷积核尺寸为s,通道数为c8的卷积层得到增强后的太赫兹图像;其过程表示如下:
Cout=Conv(C3+C5)
上式中Cout为最终增强后的太赫兹图像。
作为一可选的实施例,如图1所示,首先,使用h=3个卷积核尺寸为s=3×3,通道数为c1=64的卷积层和Relu层101,将分辨率为128×128,通道数为c2=1的太赫兹图像处理为分辨率为128×128,通道数为c1=64的张量信息。上述操作如下:
C1=Conv3(Wi)
上式中Wi为输入的通道数为c2=1,分辨率为128×128的张量信息。Conv3(·)表示图1中的101。C1为输出的张量信息。然后将张量信息输入至通道注意力模块102。最后通过h1=1个卷积核尺寸为s=3×3,通道数为c3=1的卷积层。上述操作如下:
Nest=Conv(CAB(C1,θ,β))
上式中Nest为通道数为c3=1,分辨率为128×128的张量信息,Conv(·)表示图1中的103,CAB(·)为通道注意力模块,θ和β是网络待优化的参数。通道注意力利用通道映射之间的相互依赖性,改进特定语义信息的特征表示,来显式地建模通道之间的相互依赖关系。其结构如图2所示,输入特征首先通过3个卷积层201,202,203,尺寸为s=3×3,通道数为c4=64,然后分别进行Reshape和Transpose操作,最后在不同阶段进行相乘和相加,给不同特征通道进行加权。其表示如下:
C1_1=Reshape(C1)
C1_2=Reshape(C1)
C1_3=RT(C1)
C1_4=Softmax(C1_2*C1_3)
C1_5=Reshape(β(C1_1*C1_4))
C1 *=C1+C1_5
上式中C1 *为经过加权后的C1,RT表示Reshape和Transpose操作。最后将输入特征与输出特征进行维度层面拼接操作104,实现低级特征和高级特征的融合。其表示如下:
C2=Concat(Nest,Wi)
上式中C2为通道数为c5=2,分辨率为128×128的张量信息。Concat(·)为104。然后将C2通过h=3个卷积核尺寸为s=3×3,通道数为c6=64的卷积层和Relu层105提取特征,然后通过h=3个特征金字塔注意力模块106进行不同尺度特征的融合,之后通过h=3个卷积核尺寸为s=3×3,通道数为c7=64的卷积层和Relu层107,其过程表示如下:
C3=Conv3(C2)
C4=FPA3(C3)
C5=Conv3(C4)
上式中Conv3(·)表示h=3个卷积层和Relu层的操作,FPA3(·)表示h=3个特征金字塔注意力模块,结构如图3所示。输入通道数为c6=64,分辨率为的128×128特征C3分别通过下采样残差模块301,302,303,304之后生成四个通道数为64,尺度为64×64,32×32,16×16,8×8的特征图,这样构建了五层的特征金字塔模型。对每个尺度下的特征图通过一个通道注意力模块,建模通道之间的相互依赖关系,最后对每个尺度下的特征使用bicubic上采样,进行特征融合。特征金字塔注意力通过利用构建的多尺度特征图,使用注意力机制来显式建模不同尺度特征的相关性,使得重建后的太赫兹图像细节信息保留完整。下采样残差模块结构如图6所示。最后,在105之后,108之前使用残差连接来保留更丰富的特征信息,最后通过h2=1个卷积核尺寸为s=3×3,通道数为c8=1的卷积层得到增强后的太赫兹图像。其过程表示如下:
Cout=Conv(C3+C5)
上式中Cout为最终增强后的太赫兹图像。
S3、训练所述神经网络模型。
具体的,所述步骤S3具体为:
采用生成对抗网络的训练方法,训练的网络包括图像增强网络G和判别网络D,损失函数包含三个部分,内容损失L(θ),噪声损失Ln以及生成对抗损失LA(G,D);
内容损失衡量高质量图像与神经网络模型增强之后的图像之间的差距,采用l1损失,公式表示如下:
上式中N为一个epochs下训练的图像数量,Net(·)为网络模型,Wj *为第j个低质量图像,GTj *为第j个高质量图像,θ为神经网络待优化的参数;
噪声损失公式表示如下:
上式中α为常数,Nj gt=Wj *-GTj *为第j张图像的真实噪声,Nest j为神经网络估计的噪声;
生成对抗损失公式表示如下:
上式中minD为判别器的损失函数,minG为生成器的损失函数,D(·)为判别器网络,G(·)为生成器网络,E[·]为损失;
总的损失Ltotal为三个损失的线性组合;其公式表示如下:
Ltotal=λ1L(θ)+λ2Ln+λ3LA(G,D)
上式中λ1,λ2,λ3是三种损失函数的权重,其值为常数;
在深度神经网络训练过程中,采用ADAM函数对损失函数Ltotal进行优化,初始学习率设置为lr,每迭代I次学习率下降α倍;用于训练每一批的图片数量为N;经过epochs次迭代训练后,可得到优化参数θ*。
作为一可选的实施例,为了提高太赫兹图像的成像质量,采用生成对抗网络的训练方法。训练的网络包括图像增强网络G和判别网络D,分别如图1,图5所示。损失函数包含三个部分,内容损失L(θ),噪声损失Ln以及生成对抗损失LA(G,D)。
内容损失衡量高质量图像与神经网络模型增强之后的图像之间的差距,采用l1损失,公式表示如下:
上式中N=64为一个epochs下训练的图像数量,Net(·)表示网络模型,Wj *为第j个低质量图像,GTj *为第j个高质量图像,θ为神经网络待优化的参数。
生成对抗损失采用非对称损失,衡量真实噪声与网络估计噪声的差距,优化训练过程,公式表示如下:
上式中α=3,Nj gt=Wj *-GTj *为第j张图像的真实噪声,Nest j为神经网络估计的噪声。
生成对抗损失公式表示如下:
上式中minD为判别器的损失函数,minG为生成器的损失函数,D(·)为判别器网络,G(·)为生成器网络,E[·]为损失。
总的损失Ltotal为三个损失的线性组合。其公式表示如下:
Ltotal=λ1L(θ)+λ2Ln+λ3LA(G,D)
上式中λ1=1,λ2=0.3,λ3=0.005是三种损失函数的权重。
在深度神经网络训练过程中,采用ADAM函数对损失函数Ltotal进行优化,初始学习率设置为lr=10-4,每迭代50此学习率下降10倍。用于训练每一批的图片数量N=64。使用Kaiming初始化方法来初始化Net(·)网络。经过epochs=200次迭代训练后,可得到优化参数θ*。
S4、利用太赫兹成像仪拍摄得到K张分辨率为a×b的带噪声的太赫兹图像集H,然后将该图像集输入到深度神经网络,之后输出即为高质量图像GT。
具体的,所述步骤S4具体为:
数学模型可以表示如下:
GT=GT(x,y)=Net(H,θ*)
上式中GT(x,y)表示高质量图像,Net(·)是一个隐函数,表示训练好的深度神经网络,θ*是训练好的深度神经网络的参数,(x,y)表示像素坐标。
作为一可选的实施例,所述的基于特征金字塔注意力神经网络的太赫兹图像增强算法获取增强后的图像是通过深度神经网络来实现。首先,利用太赫兹成像仪拍摄得到20张分辨率为240×480的带噪声的太赫兹图像集H,然后将该图像集输入到深度神经网络,之后输出即为高质量图像GT,其数学模型可以表示如下:
GT=GT(x,y)=Net(H,θ*)
上式中GT(x,y)表示高质量图像,Net(·)是一个隐函数,表示训练好的深度神经网络,θ*是深度神经网络的网络参数,(x,y)表示像素坐标。
本发明通过设计特征金字塔注意力模块,融合图像的多尺度信息。利用构建的多尺度特征图,使用注意力机制来显式建模不同尺度特征的相关性;使用通道注意力显式地建模通道之间的相互依赖关系,为不同特征分配权重;最终使得增强后的图像边缘不易丢失;同时,由于采用LSGAN的生成对抗网络的训练方法,避免了神经网络训练不稳定的问题,实用性更强,可以快速重建出高质量的太赫兹图像。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (5)
3.根据权利要求1所述的基于特征金字塔注意力神经网络的太赫兹图像增强方法,其特征在于,所述步骤S2还包括以下步骤:
S21、使用h个卷积核尺寸为s,通道数为c1的卷积层和Relu层,将分辨率为m×n,通道数为c2的太赫兹图像处理为分辨率为m×n,通道数为c1的张量信息,上述操作如下:
C1=Convh(Wi)
上式中Wi为输入的通道数为c2,分辨率为m×n的张量信息,Convh(·)表示卷积层,C1为输出的张量信息;
然后将张量信息输入至通道注意力模块,最后通过h1个卷积核尺寸为s,通道数为c3的卷积层,上述操作如下:
Nest=Conv(CAB(C1,θ,β))
上式中Nest为通道数为c3,分辨率为m×n的张量信息,Conv(·)表示卷积操作,CAB(·)为通道注意力模块,θ和β是网络待优化的参数;通道注意力利用通道映射之间的相互依赖性,改进特定语义信息的特征表示,来显式地建模通道之间的相互依赖关系;
S22、输入特征首先通过卷积层,尺寸为s,通道数为c4,然后分别进行Reshape和Transpose操作,最后在不同阶段进行相乘和相加,给不同特征通道进行加权,其表示如下:
C1_1=Reshape(C1)
C1_2=Reshape(C1)
C1_3=RT(C1)
C1_4=Softmax(C1_2*C1_3)
C1_5=Reshape(β(C1_1*C1_4))
C1 *=C1+C1_5
上式中C1 *为经过加权后的C1,RT表示Reshape和Transpose操作;最后将输入特征与输出特征进行维度层面的拼接操作,实现低级特征和高级特征的融合,其表示如下:
C2=Concat(Nest,Wi)
上式中C2为通道数为c5=c2+c3,分辨率为m×n的张量信息,Concat(·)为维度的层面拼接操作,然后将C2通过h个卷积核尺寸为s,通道数为c6的卷积层和Relu层提取特征,然后通过h个特征金字塔注意力模块进行不同尺度特征的融合,之后通过h个卷积核尺寸为s,通道数为c7的卷积层和Relu层,其过程表示如下:
C3=Convh(C2)
C4=FPAh(C3)
C5=Convh(C4)
上式中Convh(·)表示h个卷积层和Relu层的操作,FPAh(·)表示h个特征金字塔注意力模块;
S23、输入通道数为c6,分辨率为的m×n特征C3分别通过下采样残差模块之后生成四个通道数为c6,尺度为m/2×n/2,n/4×n/4,m/8×n/8,m/16×n/16的特征图,这样构建了五层的特征金字塔模型;对每个尺度下的特征图通过一个通道注意力模块,建模通道之间的相互依赖关系,最后对每个尺度下的特征使用bicubic上采样,进行特征融合;特征金字塔注意力通过利用构建的多尺度特征图,使用注意力机制来显式建模不同尺度特征的相关性,使得重建后的太赫兹图像细节信息保留完整;最后,使用残差连接来保留更丰富的特征信息,最后通过h2个卷积核尺寸为s,通道数为c8的卷积层得到增强后的太赫兹图像;其过程表示如下:
Cout=Conv(C3+C5)
上式中Cout为最终增强后的太赫兹图像。
4.根据权利要求1所述的基于特征金字塔注意力神经网络的太赫兹图像增强方法,其特征在于,所述步骤S3具体为:
采用生成对抗网络的训练方法,训练的网络包括图像增强网络G和判别网络D,损失函数包含三个部分,内容损失L(θ),噪声损失Ln以及生成对抗损失LA(G,D);
内容损失衡量高质量图像与神经网络模型增强之后的图像之间的差距,采用l1损失,公式表示如下:
上式中N为一个epochs下训练的图像数量,Net(·)为网络模型,Wj *为第j个低质量图像,GTj *为第j个高质量图像,θ为神经网络待优化的参数;
噪声损失公式表示如下:
上式中α为常数,Nj gt=Wj *-GTj *为第j张图像的真实噪声,Nest j为神经网络估计的噪声;
生成对抗损失公式表示如下:
上式中minD为判别器的损失函数,minG为生成器的损失函数,D(·)为判别器网络,G(·)为生成器网络,E[·]为损失;
总的损失Ltotal为三个损失的线性组合;其公式表示如下:
Ltotal=λ1L(θ)+λ2Ln+λ3LA(G,D)
上式中λ1,λ2,λ3是三种损失函数的权重,其值为常数;
在深度神经网络训练过程中,采用ADAM函数对损失函数Ltotal进行优化,初始学习率设置为lr,每迭代I次学习率下降α倍;用于训练每一批的图片数量为N;经过epochs次迭代训练后,可得到优化参数θ*。
5.根据权利要求1所述的基于特征金字塔注意力神经网络的太赫兹图像增强方法,其特征在于,所述步骤S4具体为:
数学模型可以表示如下:
GT=GT(x,y)=Net(H,θ*)
上式中GT(x,y)表示高质量图像,Net(·)是一个隐函数,表示训练好的深度神经网络,θ*是训练好的深度神经网络的参数,(x,y)表示像素坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111584286.9A CN114359078A (zh) | 2021-12-23 | 2021-12-23 | 基于特征金字塔注意力神经网络的太赫兹图像增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111584286.9A CN114359078A (zh) | 2021-12-23 | 2021-12-23 | 基于特征金字塔注意力神经网络的太赫兹图像增强方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114359078A true CN114359078A (zh) | 2022-04-15 |
Family
ID=81102189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111584286.9A Pending CN114359078A (zh) | 2021-12-23 | 2021-12-23 | 基于特征金字塔注意力神经网络的太赫兹图像增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114359078A (zh) |
-
2021
- 2021-12-23 CN CN202111584286.9A patent/CN114359078A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11645835B2 (en) | Hypercomplex deep learning methods, architectures, and apparatus for multimodal small, medium, and large-scale data representation, analysis, and applications | |
CN108921799B (zh) | 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法 | |
CN112132959B (zh) | 数字岩心图像处理方法、装置、计算机设备及存储介质 | |
Dalsasso et al. | SAR image despeckling by deep neural networks: From a pre-trained model to an end-to-end training strategy | |
CN111784560A (zh) | 基于级联残差生成对抗网络的sar和光学图像双向翻译方法 | |
Sonogashira et al. | High-resolution bathymetry by deep-learning-based image superresolution | |
CN113570508A (zh) | 图像修复方法及装置、存储介质、终端 | |
He et al. | Remote sensing image super-resolution using deep–shallow cascaded convolutional neural networks | |
Tao et al. | Thick cloud removal in optical remote sensing images using a texture complexity guided self-paced learning method | |
Zhang et al. | Dense haze removal based on dynamic collaborative inference learning for remote sensing images | |
Zhou et al. | MSAR‐DefogNet: Lightweight cloud removal network for high resolution remote sensing images based on multi scale convolution | |
Wang et al. | A self-supervised deep denoiser for hyperspectral and multispectral image fusion | |
CN115240240A (zh) | 基于yolo网络的红外人脸识别方法及系统 | |
CN113034371B (zh) | 一种基于特征嵌入的红外与可见光图像融合方法 | |
Masse et al. | Denoising very high resolution optical remote sensing images: Application and optimization of nonlocal bayes method | |
CN117788296A (zh) | 基于异构组合深度网络的红外遥感图像超分辨率重建方法 | |
Wang et al. | Poissonian blurred hyperspectral imagery denoising based on variable splitting and penalty technique | |
Zhang et al. | Enhanced visual perception for underwater images based on multistage generative adversarial network | |
Wali et al. | Recent progress in digital image restoration techniques: a review | |
CN114202473A (zh) | 一种基于多尺度特征和注意力机制的图像复原方法及装置 | |
CN113762277A (zh) | 一种基于Cascade-GAN的多波段红外图像融合方法 | |
CN116486183B (zh) | 基于多种注意力权重融合特征的sar图像建筑区分类方法 | |
CN117422619A (zh) | 图像重建模型的训练方法、图像重建方法、装置及设备 | |
CN116823610A (zh) | 一种基于深度学习的水下图像超分辨率生成方法和系统 | |
CN116682105A (zh) | 一种毫米波雷达和视觉特征注意力融合的目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |