CN115660044A - 基于拉东域稀疏表征的数据重构方法及相关设备 - Google Patents
基于拉东域稀疏表征的数据重构方法及相关设备 Download PDFInfo
- Publication number
- CN115660044A CN115660044A CN202211262099.3A CN202211262099A CN115660044A CN 115660044 A CN115660044 A CN 115660044A CN 202211262099 A CN202211262099 A CN 202211262099A CN 115660044 A CN115660044 A CN 115660044A
- Authority
- CN
- China
- Prior art keywords
- coefficient
- radon
- resolution
- data
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本公开提供了一种基于拉东域稀疏表征的数据重构方法及相关设备,涉及通信技术领域,该方法包括:获取低分辨率拉东系数;将所述低分辨率拉东系数输入至编码‑解码结构的神经网络得到第一高分辨率拉东系数;通过所述神经网络后级联的自适应软阈值函数增加所述第一高分辨率拉东系数的稀疏程度得到第二高分辨率拉东系数。本方法可以实现减小时变拉东变换时域反演的数据规模、运算时间、运算成本以及提高重构数据的稳定性和分辨率。
Description
技术领域
本公开涉及通信技术领域,尤其涉及一种基于拉东域稀疏表征的数据重构方法、装置、计算机可读存储介质及电子设备。
背景技术
随着现代科技的高速发展,网络中生成的数据类型和数据量急剧增多,增大了网络运维人员数据处理的难度,且低分辨率的数据难以达到训练高准确率算法模型的需求。高分辨率数据的像素密度大,细节展现非常清晰和丰富,高频成分较多,可以满足研究学者对于数据的后期处理和实际应用的需求。数据超分辨率重构将低分辨率数据生成同场景高分辨率数据的过程,多应用在数据预处理、提取知识图谱的特征信息等领域中。从观测数据得到物理参数的过程称为反演过程。反演问题通常是一个不适定问题,只有对反演进行约束才能够得到一个较为精确且稳定的解。稀疏反演被证明是低分辨率数据处理的重要工具。低分辨率数据可以用适当变换域中的少数系数表示,并且变换域中的稀疏数据十分有利于去噪、分离、高分辨率重构等操作。拉东Radon反演作为数据图像处理的重要手段之一,对数据图像的超分辨率重构提供保障。
就其应用而言,拉东Radon变换面临两大问题:
其一是计算效率低,利用大量复杂的数据反演涉及到大型算子矩阵、特征向量的构造,运算时间长、成本高;其二是分辨率难以满足要求,真实数据质量差,像素密度小将导致低分辨率的反演结果,只能通过算法上的改进弥补这一缺陷。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种基于拉东域稀疏表征的数据重构方法、装置、计算机可读存储介质及电子设备,以至少解决相关技术中针对时变拉东变换时域反演矩阵规模过大、运算时间长、成本高以及卷积算子反演不稳定、分辨率低的技术问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
本公开的技术方案如下:
根据本公开的一个方面,提供一种基于拉东域稀疏表征的数据重构方法,该方法包括:获取低分辨率拉东系数;将所述低分辨率拉东系数输入至编码-解码结构的神经网络得到第一高分辨率拉东系数;通过所述神经网络后级联的自适应软阈值函数增加所述第一高分辨率拉东系数的稀疏程度得到第二高分辨率拉东系数。
在本公开的一些实施例中,将低分辨率拉东系数输入至编码-解码结构的神经网络得到第一高分辨率拉东系数的步骤包括:将低分辨率拉东系数通过神经网络中的编码卷积层进行下采样得到编码数据;将编码数据通过神经网络中的解码卷积层进行上采样得到的解码数据融合下采样过程中得到的编码数据得到第一高分辨率拉东系数。
在本公开的一些实施例中,获取低分辨率拉东系数的步骤之前包括:将训练数据集依次输入至所述神经网络和所述自适应软阈值函数,得到预测变换域系数;计算所述预测变换域系数的损失值;以及根据所述损失值,梯度更新所述自适应软阈值函数。
在本公开的一些实施例中,使用共轭解和对应的最小二乘解构建训练数据集,所述共轭解作为模型输入,所述最小二乘解作为标签。
在本公开的一些实施例中,计算所述预测变换域系数的损失值的损失函数表示为公式(3)。
在本公开的一些实施例中,自适应软阈值函数AdST表示为公式(4)。
在本公开的一些实施例中,根据所述损失值,梯度更新所述自适应软阈值函数的计算方法为公式(5)和公式(6)。
根据本公开的又一个方面,提供一种基于拉东域稀疏表征的数据重构装置,该装置包括:输入模块,用于获取低分辨率拉东系数;编解码模块,用于低分辨率拉东系数首先通过编码-解码结构的神经网络得到第一高分辨率拉东系数;稀疏模块,用于通过所述神经网络后级联的自适应软阈值函数增加所述第一高分辨率拉东系数的稀疏程度得到第二高分辨率拉东系数。
根据本公开的又一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述的基于拉东域稀疏表征的数据重构方法。
根据本公开的又一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的基于拉东域稀疏表征的数据重构方法。
本公开中编码-解码结构通过压缩过程丢弃冗余数据再解压,保证了数据时空信噪比,同时实现了缩减数据规模,提高重构运算效率,减少运算成本。
进一步地,通过引入稀疏约束使经过反演得到的拉东系数收敛程度更高,系数的拟合能力更强。因此,当拉东系数正演回时空域时,伪影更少,信噪比更高,重构的拉东系数分辨率更高。
更进一步地,采用编码-解码结构和自适应软阈值函数级联的方式改变拉东系数的分布,实现稀疏反演。自适应软阈值函数在编码-解码结构基础之上,利用神经网络的复杂非线性表征能力,加快反演速度,提高重构数据的稳定性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例的一种基于拉东域稀疏表征的数据重构方法的流程示意图。
图2示出本公开实施例中一种编码-解码结构的神经网络的简化示意图。
图3示出本公开实施例中一种通过编码-解码结构得到第一高分辨率拉东系数的流程示意图。
图4示出本公开实施例中一种自适应软阈值函数的更新方法的流程示意图。
图5示出本公开实施例中一种编码-解码结构的神经网络和自适应软阈值的训练过程示意图。
图6示出本公开实施例中一种自适应软阈值函数的曲线示意图。
图7示出本公开实施例中一种快速稀疏双曲拉东变换(Fast Sparse HyperbolicRadon Transform,FSHRT)模型的结构示意图。
图8示出本公开实施例中FSHRT模型的训练过程中损失函数值的变化趋势示意图。
图9示出通过预条件共轭梯度(Preconditioned conjugate gradient,PCG)算法得到的拉东系数(a)和(b)以及使用本公开实施例中快速稀疏双曲拉东变换模型得到的拉东系数(c)和(d)的稀疏度对比示意图。
图10示出在时间截距和速度参数两个方向上说明通过PCG算法和FSHRT模型得到的拉东系数的拟合效果的对比示意图。
图11示出本公开实施例中一种基于拉东域稀疏表征的数据重构装置的结构示意图。
图12示出本公开实施例中一种基于拉东域稀疏表征的数据重构方法的电子设备的示意性框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本公开的描述中,“多个”的含义是至少两个,例如两个、三个等,除非另有明确具体的限定。
针对上述相关技术中存在的技术问题,本公开实施例提供了一种加密流量检测方法,以用于至少解决上述技术问题中的一个或全部。
需要指出的是,本申请实施例中涉及的名词或术语可以相互参考,不再赘述。
下面,将结合附图及实施例对本示例实施方式中的基于拉东域稀疏表征的数据重构方法的各个步骤进行更详细的说明。
图1示出本公开实施例中一种基于拉东域稀疏表征的数据重构方法的流程图。如图1所示,方法100可以包括以下步骤:
在步骤S110中,获取低分辨率拉东系数。
其中,低分辨率拉东系数是将时空域特定路径上的原始数据(表征为能量)通过拉东(Radon)变换后(数据反演)在变换域收敛聚焦生成的点。
在步骤S120中,将低分辨率拉东系数输入至编码-解码结构的神经网络得到第一高分辨率拉东系数。
其中,编码-解码结构的神经网络可例如图2中示出的简化示意图,如图2所示,低分辨率的拉东系数m*被送入神经网络后,规模被压缩。在一些实施例中,压缩过程是通过最大池化操作实现的。通过压缩,丢弃掉大部分冗余数据后,得到一个隐藏层拉东系数mhidden。然后再将mhidden解压恢复到原始尺寸。通过编码-解码结构,既缩减了数据规模,从而缩短了运算时间,减少了运算成本;又保证了数据的时空域信噪比。
在步骤S130中,通过神经网络后级联的自适应软阈值函数增加第一高分辨率拉东系数的稀疏程度得到第二高分辨率拉东系数。
其中,自适应软阈值函数(Adaptive soft threshold,AdST)的阈值是非固定的,并且具有激活的功能。因此,对前述编码-解码结构的神经网络而言具有提高其输出结果表达能力和准确性的作用。
本公开中编码-解码结构通过压缩过程丢弃冗余数据再解压,保证了数据时空信噪比,同时实现了缩减数据规模,提高重构运算效率,减少运算成本。
进一步地,通过引入稀疏约束使经过反演得到的拉东系数收敛程度更高,系数的拟合能力更强。因此,当拉东系数正演回时空域时,伪影更少,信噪比更高,重构的拉东系数分辨率更高。
更进一步地,采用编码-解码结构和自适应软阈值函数级联的方式改变拉东系数的分布,实现稀疏反演。自适应软阈值函数在编码-解码结构基础之上,利用神经网络的复杂非线性表征能力,加快反演速度,提高重构数据的稳定性。
在本公开的一些实施例中,步骤S120还可以包括例如图3示出的方法流程图。如图3所示,通过编码-解码结构的神经网络得到第一高分辨率拉东系数的方法300可以包括以下步骤:
在步骤S310中,将低分辨率拉东系数通过神经网络中的编码卷积层进行下采样得到编码数据。
其中,在编码-解码结构中可以包括一个或多个编码卷积层,相应地进行一轮或多个下采样。
在步骤S320中,将编码数据通过神经网络中的解码卷积层进行上采样得到的解码数据融合下采样过程中得到的编码数据得到第一高分辨率拉东系数。
其中,解码卷积层也可以包括一个或多个,相应地进行一轮或多轮上采样。在本公开的一些实施例中,编码卷积层的个数和解码卷积层的个数是对应的。在进行上采样的过程中,上采样的对象可以包括上一层解码卷积层输出的解码数据以及对应的编码卷积层输出的编码数据。
因此,本公开实施例的方法通过编码-解码结构可以有效防止数据发散,保证函数值稳定地收敛。还可以去掉大部分冗余信息,保证数据的时空域信噪比。
进一步地,通过使浅层特征串联到深层的特征上,增加了特征的感受野,增强神经网络对于数据的自适应性。
在本公开的一些实施例中,自适应软阈值函数的阈值是在神经网络训练的过程中可学习的。例如图4示出的自适应软阈值函数的更新方法的流程图。如图4所示,方法400可以包括以下步骤:
在步骤S410中,将训练数据集依次输入至神经网络和自适应软阈值函数,得到预测变换域系数。
在步骤S420中,计算预测变换域系数的损失值。
在步骤S430中,根据损失值,梯度更新自适应软阈值函数。
公开实施例方法通过学习自适应软阈值实现有效提高变换域系数的稀疏程度。
具体地,例如图5示出的训练过程500,如图5所示,训练过程500可以包括:
在步骤S502中,通过正演合成数据的方法构建训练数据集。首先设定双曲拉东变换域的能量幅值与位置,得到若干个二维矩阵。将矩阵与数据的特征向量做二维卷积得到若干个理想的变换域系数矩阵m1,m2,…,mn。对以上系数矩阵做双曲拉东反变换得到对应的数据d1,d2,…,dn。之后得到共轭解对于合成数据,为标签。
其中,使用最小二乘解而非某种高分辨率解作为标签具有以下好处:
第一,最小二乘解能够保留更多原始信息。最小二乘解相较于其它高分辨率解稀疏性差,但拥有更高的信噪比。选择最小二乘解作为标签能够控制时空域拟合误差。
第二,最小二乘解更容易获得。相较于其他更稀疏的反演算法,最小二乘反演的效率是较高的。在较短时间内建立数据集,减少了进行数据重构的整个流程的时间成本。
第三,最小二乘解作为标签数据并不能表征数据重构的稀疏程度,提高了神经网络预测的准确性。
在步骤S506-S508中,将低分辨率拉东系数依次输入至编码-解码结构的神经网络和自适应阈值函数得到预测高分辨率拉东系数mnet。
其中,在每一个编码卷积层或解码卷积层后面都包括一个双曲正切激活函数(Tanh)。其中,每一个用于编码或解码的卷积层以及通过激活函数的计算方法可以分别表示为公式(1)和公式(2):
mapi+1=factivation(mapi) (2)
其中,map(c)是第c个特征图,kc和bias(c)分别是第c个特征图对应的卷积核与偏置。
在步骤S510中,根据输入的共轭解对应的实际标签值,计算预测高分辨率拉东系数的损失值。
在本公开的一些实施例中,计算预测变换域系数的损失值的损失函数为公式(3):
在步骤S512中,根据损失值,梯度更新自适应软阈值函数。
其中,在训练编码-解码结构的神经网络的参数过程中,自适应软阈值函数也是网络需要训练的一部分,根据每一轮训练的损失值进行梯度更新。
在本公开的一些实施例中,自适应软阈值(AdST)函数可以表示为公式(4):
AdST(m)=(|m|-σ)+sgn(m) (4)
其中,σ≥0是阈值;m即卷积后的结果。
进一步地,梯度更新AdST函数中的阈值σ可以根据Adam优化算法的计算方法,如公式(5)和(6):
gt=▽σAdSTt(σt-1) (5)
其中,m和v初始化为0,在这两个变量中存放了σ梯度和梯度平方的信息;α、β1、β2和ε通常取0.001、0.9、0.999和10-8。如图6所示,AdST函数对每个位置上的数据进行了一次滤波处理,将小于阈值σ的数据置为0,有效提升了拉东系数的稀疏度,从而有助于高分辨率数据重构。
重复上述步骤S502至S512直到损失函数收敛,结束训练过程。
在本公开的一些实施例中,还存在一种执行基于拉东域稀疏表征的数据重构方法的快速稀疏双曲拉东变换(Fast Sparse Hyperbolic Radon Transform,FSHRT)模型。如图7所示,模型700可以包括:编码-解码结构的神经网络710和自适应软阈值函数720。
其中,编码-解码结构的神经网络710中包括依次串联的多个编码卷积层712,该编码卷积层712用于将低分辨率拉东系数进行编码,得到的编码数据的通道数每次增加一倍。
其中,在编码卷积层712之后串联多个解码卷积层714,该解码卷积层714用于将编码数据进行解码,得到的解码数据的通道数每次减少一倍,得到第一高分辨率拉东系数。
其中,输出相同通道数的编码卷积层712和解码卷积层714跳跃连接,以通过解码数据结合下采样的编码数据进行数据重构。
其中,在编码-解码结构的神经网络710之后串联自适应软阈值函数720,增加该第一高分辨率拉东系数的稀疏度得到第二高分辨率拉东系数。
具体地,模型700首先通过编码解码卷积结构710中的编码卷积层712对尺寸为4M*4N、通道数为32的低分辨率拉东系数进行压缩。每进行一次压缩,数据尺寸在两个方向上减小一倍,通道数扩大一倍。在图7中包括三个压缩等级,从尺寸4M*4N、通道数为32压缩到尺寸2M*2N、通道数为64再到M*N、通道数为128,压缩过程实现了数据的编码,减小了数据的复杂性和冗余度,但数据的有用特征得到保留。之后再将编码数据进行扩展,将同一个压缩等级间配合跳跃连接,将浅层的特征图直接串联到深层的特征图上。浅层的特征作为额外信息辅助上采样过程中高分辨率结果的生成,为结果增加了高频信息。
FHSRT模型通过编码-解码结构通过压缩过程丢弃冗余数据再解压,保证了数据时空信噪比,同时实现了缩减数据规模,提高运算效率,减少运算成本。
进一步地,FHSRT模型通过引入稀疏约束使经过反演得到的拉东系数收敛程度更高,系数的拟合能力更强。因此,当拉东系数正演回时空域时,伪影更少,信噪比更高,重构的拉东系数分辨率更高。
进一步地,FHSRT模型采用编码-解码结构和自适应软阈值函数级联的方式改变拉东系数的分布,实现稀疏反演。自适应软阈值函数在编码-解码结构基础之上,利用神经网络的复杂非线性表征能力,加快反演速度,提高重构数据的稳定性。
在本公开的一些实施例中,设计了合成数据集,验证基于拉东域稀疏表征的数据重构方法的有效性。具体实验背景:将合成数据集分为训练集和验证集,训练集包含180组数据,验证集包含20组数据。通过执行基于拉东域稀疏表征的数据重构方法的FSHRT模型获得稀疏的Radon系数。采用Adam算法对梯度更新进行优化。初始学习率为0.0001,每训练100个epochs,学习率衰减为原来的70%。损失函数为模型输入输出间的MSE。图8是FSHRT模型训练过程中损失函数值的变化,损失值方向为对数坐标。
图8(a)、(b)分别是训练集和验证集的MSE。训练集中不同数据间存在一定的差异性,这种差异性使梯度更新的方向不断变化,导致训练集的损失曲线出现较大的波动。但从总体上看,将梯度更新的方向进行叠加,会指向损失函数下降的方向,因此训练集的损失值一直呈现下降的趋势。增大训练的批尺寸(batch size)能够让损失曲线更加平滑,但损失曲线的收敛速度会减小。验证集的损失值变化更能说明训练的有效性。随着训练的进行,验证集损失曲线平滑的下降,并且在第200epoch时趋于收敛,表现出较强的泛化性能。
进一步地,分别采用本发明FSHRT模型(训练500epochs)和预条件共轭梯度(Preconditioned conjugate gradient,PCG)算法对测试数据进行反演得到稀疏的Radon系数。图9(a)和图9(b)是PCG算法反演结果。图9(c)和9(d)是FSHRT反演结果。在稍复杂的合成记录反演任务中,FSHRT的效果要明显优于PCG算法。图9(a)和9(b)黑色箭头指向的位置能明显看到PCG算法反演结果仍然存在能量的扩散,虽然相较一般的共轭解在分辨率上有较大的提升,但残留的伪影说明其稀疏程度不够高。这些伪影会在正演过程中随有效信号一同转移到时空域,降低数据SNR,影响数据高分辨率重构。而在图9(c)和9(d)中,黑色箭头对应的位置没有观察到任何能量的扩散。这说明FSHRT的稀疏表征能力较强,在保留有效信号位置和幅值的前提下,极大消除了扩散的能量,拉东系数稀疏度很高。
图10更直观的在时间截距τ和速度参数v两个方向上说明FSHRT模型对拉东系数稀疏度的提升作用。选取恒定的速度v对τ-v平面进行切片。如图10(a)所示,拉东切片方向示意图。如图10(b)所示,本发明用基于神经网络的FSHRT得到的高分辨率系数能够较好的拟合理想的变换域系数。同样,图10(d)展示了以恒定的时间τ对τ-v平面进行切片的结果,FSHRT反演结果同样精确。图10(c)和10(e)分别是FSHRT和PCG算法反演结果在两个方向上的残差。FSHRT反演结果相较PCG算法更为精确,残差更小。可以预见的是,由于FSHRT在Radon域误差更小,Radon系数正演到时空域时SNR相较PCG算法一定更高。
图11示出本公开实施例中一种基于拉东域稀疏表征的数据重构装置的示意图。如图11所示,该装置1100包括:
输入模块1110,用于获取低分辨率拉东系数;编解码模块1120,用于低分辨率拉东系数首先通过编码-解码结构的神经网络得到第一高分辨率拉东系数;稀疏模块1130,用于通过神经网络后级联的自适应软阈值函数增加第一高分辨率拉东系数的稀疏程度得到第二高分辨率拉东系数。
在本公开的一些实施例中,编解码模块1120,还用于将低分辨率拉东系数通过神经网络中的编码卷积层进行下采样得到编码数据;将编码数据通过神经网络中的解码卷积层进行上采样得到的解码数据融合下采样过程中得到的编码数据得到第一高分辨率拉东系数。
在本公开的一些实施例中,该装置1100还包括训练模块,用于将训练数据集依次输入至所述神经网络和所述自适应软阈值函数,得到预测变换域系数;计算所述预测变换域系数的损失值;以及根据所述损失值,梯度更新所述自适应软阈值函数。
在本公开的一些实施例中,使用共轭解和对应的最小二乘解构建训练数据集,所述共轭解作为模型输入,所述最小二乘解作为标签。
在本公开的一些实施例中,计算所述预测变换域系数的损失值的损失函数表示为公式(3)。
在本公开的一些实施例中,自适应软阈值函数AdST表示为公式(4)。
在本公开的一些实施例中,根据所述损失值,梯度更新所述自适应软阈值函数的计算方法为公式(5)和公式(6)。
关于上述实施例中的基于拉东域稀疏表征的数据重构装置1100,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图12来描述根据本公开的这种实施方式的电子设备1200。图12显示的电子设备1200仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图12所示,电子设备1200以通用计算设备的形式表现。电子设备1200的组件可以包括但不限于:上述至少一个处理单元1210、上述至少一个存储单元1220、连接不同系统组件(包括存储单元1220和处理单元1210)的总线1230。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元1210执行,使得所述处理单元1210执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元1210可以执行如图1中所示的步骤S120,获取低分辨率拉东系数;步骤S120,根据每个边缘节点的第一生成器丢弃率、第一判别器丢弃率和第一生成器网络拆分点,生成每个边缘节点的初始生成器网络和初始判别器网络;步骤S130,通过所述神经网络后级联的自适应软阈值函数增加所述第一高分辨率拉东系数的稀疏程度得到第二高分辨率拉东系数。
存储单元1220可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)1221和/或高速缓存存储单元1222,还可以进一步包括只读存储单元(ROM)1223。
存储单元1220还可以包括具有一组(至少一个)程序模块1225的程序/实用工具1224,这样的程序模块1225包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1230可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1200也可以与一个或多个外部设备(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1200交互的设备通信,和/或与使得该电子设备1200能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1250进行。并且,电子设备1200还可以通过网络适配器1260与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1260通过总线1230与电子设备1200的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1200使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
根据本公开的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、服务器、终端或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、服务器、终端或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、服务器、终端、或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
根据本公开的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例的各种可选实现方式中提供的方法。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (10)
1.一种基于拉东域稀疏表征的数据重构方法,其特征在于,所述方法包括:
获取低分辨率拉东系数;
将所述低分辨率拉东系数输入至编码-解码结构的神经网络得到第一高分辨率拉东系数;
通过所述神经网络后级联的自适应软阈值函数增加所述第一高分辨率拉东系数的稀疏程度得到第二高分辨率拉东系数。
2.根据权利要求1所述的基于拉东域稀疏表征的数据重构方法,其特征在于,将所述低分辨率拉东系数输入至编码-解码结构的神经网络得到第一高分辨率拉东系数的步骤包括:
将所述低分辨率拉东系数通过所述神经网络中的编码卷积层进行下采样得到编码数据;
将所述编码数据通过所述神经网络中的解码卷积层进行上采样得到的解码数据融合下采样过程中得到的编码数据得到所述第一高分辨率拉东系数。
3.根据权利要求2所述的基于拉东域稀疏表征的数据重构方法,其特征在于,获取低分辨率拉东系数的步骤之前包括:
将训练数据集依次输入至所述神经网络和所述自适应软阈值函数,得到预测变换域系数;
计算所述预测变换域系数的损失值;以及
根据所述损失值,梯度更新所述自适应软阈值函数。
4.根据权利要求3所述的基于拉东域稀疏表征的数据重构方法,其特征在于,使用共轭解和对应的最小二乘解构建训练数据集,所述共轭解作为模型输入,所述最小二乘解作为标签。
6.根据权利要求5所述的基于拉东域稀疏表征的数据重构方法,其特征在于,所述自适应软阈值函数AdST表示为:
AdST(m)=(|m|-σ)+sgn(m)
其中,σ≥0是阈值;m即卷积后的结果。
8.一种基于拉东域稀疏表征的数据重构装置,其特征在于,所述装置包括:
输入模块,用于获取低分辨率拉东系数;
编解码模块,用于低分辨率拉东系数首先通过编码-解码结构的神经网络得到第一高分辨率拉东系数;
稀疏模块,用于通过所述神经网络后级联的自适应软阈值函数增加所述第一高分辨率拉东系数的稀疏程度得到第二高分辨率拉东系数。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~7中任意一项所述的基于拉东域稀疏表征的数据重构方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7中任意一项所述的基于拉东域稀疏表征的数据重构方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211262099.3A CN115660044A (zh) | 2022-10-14 | 2022-10-14 | 基于拉东域稀疏表征的数据重构方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211262099.3A CN115660044A (zh) | 2022-10-14 | 2022-10-14 | 基于拉东域稀疏表征的数据重构方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115660044A true CN115660044A (zh) | 2023-01-31 |
Family
ID=84987872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211262099.3A Pending CN115660044A (zh) | 2022-10-14 | 2022-10-14 | 基于拉东域稀疏表征的数据重构方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115660044A (zh) |
-
2022
- 2022-10-14 CN CN202211262099.3A patent/CN115660044A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10713294B2 (en) | Method for learning cross-domain relations based on generative adversarial networks | |
CN110347873B (zh) | 视频分类方法、装置、电子设备及存储介质 | |
US10311370B2 (en) | Efficient reduction of resources for the simulation of Fermionic Hamiltonians on quantum hardware | |
CN110612538B (zh) | 生成输入数据项的离散潜在表示 | |
CN110796619A (zh) | 一种图像处理模型训练方法、装置、电子设备及存储介质 | |
US11869221B2 (en) | Data compression using integer neural networks | |
US20240135191A1 (en) | Method, apparatus, and system for generating neural network model, device, medium, and program product | |
CN109558605B (zh) | 用于翻译语句的方法和装置 | |
CN114820871B (zh) | 字体生成方法、模型的训练方法、装置、设备和介质 | |
CN111062431A (zh) | 图像聚类方法、图像聚类装置、电子设备及存储介质 | |
WO2022155277A1 (en) | Quantum enhanced word embedding for natural language processing | |
Huai et al. | Zerobn: Learning compact neural networks for latency-critical edge systems | |
CN115426075A (zh) | 语义通信的编码传输方法及相关设备 | |
Jin et al. | An unsupervised multi‐focus image fusion method based on Transformer and U‐Net | |
Wang et al. | Efficient compression of encrypted binary images using the Markov random field | |
Li et al. | Towards communication-efficient digital twin via ai-powered transmission and reconstruction | |
Zhou et al. | Compressed sensing in the presence of speckle noise | |
CN115660044A (zh) | 基于拉东域稀疏表征的数据重构方法及相关设备 | |
US20230409374A1 (en) | Information processing apparatus, information processing method, and information processing system | |
CN115310618A (zh) | 量子操作中的量子噪声消除方法及装置、电子设备和介质 | |
CN114445510A (zh) | 一种图像优化方法、装置、电子设备和存储介质 | |
Berk | Deep generative demixing: Recovering Lipschitz signals from noisy subgaussian mixtures | |
Wu et al. | Optimized compressed sensing for communication efficient federated learning | |
Lewandowsky | The information bottleneck method in communications | |
CN115115918B (zh) | 一种基于多知识融合的视觉学习方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |