CN114386595A - 一种基于超先验架构的sar图像压缩方法 - Google Patents

一种基于超先验架构的sar图像压缩方法 Download PDF

Info

Publication number
CN114386595A
CN114386595A CN202111597113.0A CN202111597113A CN114386595A CN 114386595 A CN114386595 A CN 114386595A CN 202111597113 A CN202111597113 A CN 202111597113A CN 114386595 A CN114386595 A CN 114386595A
Authority
CN
China
Prior art keywords
super
encoder
arithmetic
layer
channels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111597113.0A
Other languages
English (en)
Other versions
CN114386595B (zh
Inventor
邸志雄
陈旋
吴强
冯全源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN202111597113.0A priority Critical patent/CN114386595B/zh
Publication of CN114386595A publication Critical patent/CN114386595A/zh
Application granted granted Critical
Publication of CN114386595B publication Critical patent/CN114386595B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/174Redundancy elimination performed by the file system
    • G06F16/1744Redundancy elimination performed by the file system using compression, e.g. sparse files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明公开了一种基于超先验架构的SAR图像压缩方法,具体为:构建自编解码器卷积网络,自编解码器卷积网络包括编码器、算术编解码器和解码器;超先验网络的熵建模,超先验网络的熵建模分为四个部分,分别为超参编码器、超参算术编解码器、超参解码器、概率模型;同时本模型最后使用了单高斯混合模型对均值和方差进行预测,来模拟信号分布,实现熵建模;失真优化,模型根据损失函数进行反向传播,不断地训练和优化,取得更好的压缩效果。本发明对潜在空间中的变量进行熵建模,根据不同的压缩对象进行调整进一步地提高压缩率,通过设计和改进网络结构,提升网络的特征提取和泛化能力,兼顾SAR图像的压缩率和压缩质量。

Description

一种基于超先验架构的SAR图像压缩方法
技术领域
本发明属于图像压缩技术领域,尤其涉及一种基于超先验架构的SAR图像压缩方法。
背景技术
合成孔径雷达(SAR)图像在各种遥感应用中越来越重要。然而,随着传输图像数据的能力迅速提高,而地面站的储存速度并没有达到相应的增长率。大多数图像压缩算法依赖于准确的信号表示,基于离散小波变换(DWT)的SAR图像压缩算法已经得到了广泛的研究。然而,由于SAR图像包含丰富的纹理,DWT以及传统的压缩算法JPEG,JPEG2000也一样不能获得有效的表示。因此,在保持SAR图像质量的同时,开发出一种能够获得更高压缩比的压缩算法具有重要的研究意义。
近几年,基于神经网络的图像压缩方法研究在快速发展。神经网络具有较好的特征提取能力和高维数据的处理能力,可以充分挖掘图像的本质信息,提取关键的特征,剔除无用的冗余信息,这是神经网络具有的独有优势。
发明内容
本发明旨在保证SAR图像的压缩质量的同时,尽量提高SAR图像的压缩比。为此,本发明提供一种基于超先验架构的SAR图像压缩方法。
本发明的一种基于超先验架构的SAR图像压缩方法,包括以下步骤:
步骤1:自编解码器卷积网络的构建。
自编解码器网络分为三大部分:一部分是编码器,编码器通过多层卷积完成对SAR图像的压缩编码,调整卷积的层数、步长以及通道数控制相应的压缩比;第二部分是算术编解码器,算术编解码器根据图像信号的分布,生成二进制流,进一步压缩比特数;最后一部分是解码器,解码器通过多层的转置卷积完成对编码图像的解码。
步骤2:超先验网络的熵建模。
为了实现适应性的熵建模,需要对不同的图片预测其信号分布,为此,选择一个参数化的先验模型,由超先验网络预测得到超参数;超先验网络的熵建模分为四个部分,分别为超参编码器、超参算术编解码器、超参解码器、概率模型;同时本模型最后使用了单高斯混合模型对均值和方差进行预测,来模拟信号分布,实现熵建模。
步骤3:失真优化。
损失函数由两部分组成,第一部分为失真率,具体为通过自编码器前向传播压缩恢复后的图像与原始图像的均方误差,第二部分为码率,由编码器得到的信号y的码率以及超参编码器得到的边信息z的码率组成;模型根据损失函数进行反向传播,不断地训练和优化。
进一步的,自编解码器卷积网络的编码器、算术编解码器和解码器具体为:
编码器:
卷积层:设置通道数为192,卷积核大小为3,步长为2,进行填充;每次经过卷积层之后,从原图像中提取得到新的192张特征图,每张特征图高宽变为原图的二分之一,大小变为原来的四分之一;多次卷积后达到数据压缩的效果,编码器最后一层的通道数为320,通过调整其取值改变压缩程度。
激活层:采用一对广义可除归一化层GDN作为激活函数,对每一位数据进行非线性映射,维持梯度,GDN激活函数公式如下:
Figure BDA0003430707990000021
其中,xi表示输入的第i层特征图,βi和γi是需要学习的参数。
解码器:
反卷积层:设置通道数为192,卷积核大小为3,步长为2,进行填充;反卷积层与卷积层相对应,每经过一次反卷积层,每张特征图高宽变为原图的2倍,特征图尺寸放大4倍,特征图数量不变,最后一层反卷积通道数变为1,进入输出层输出。
激活层:采用IGDN的激活函数,IGDN为GDN的逆变换,与编码器中激活层相对应。算术编解码器:
算术编码器AE:算术编码首先定义了一个介于[0,1]区间的实数区间,然后按照待处理的信号,一个一个信号读入,每读入一个信号,就将该信号源在[0,1]上的范围,按照比例缩小到最新得到的间隔中,该比例的值由各信源信号出现的频率决定,然后依次迭代,直到最后信号中的信源信号全部读完为止;此处是对编码器得到的信号y进行编码。
算术解码器AD:算术解码为算术编码的反过程,给定一个[0,1]中的浮点数,通过解码操作之后就能完全获得原始的信号串。
进一步的,超先验网络的熵建模具体为:
超参编码器:
卷积层:设置通道数为192,卷积核大小为3,第一层卷积步长为1,不改变特征图大小,后续两层设置步长为2,进行填充,每张特征图高宽变为原图的二分之一,大小变为原来的四分之一。
激活层:采用ReLU的激活函数,对每一位数据进行非线性映射,维持梯度;ReLU的激活公式如下:
Figure BDA0003430707990000031
超参算术编解码器:
算术编码器AE:与自编解码器卷积网络的算术编码器AE相同,但此处是对超参编码器得到的边信息z进行编码,信号的概率分布由一个均值为0的正态分布进行粗略模拟。
算术解码器AD:算术解码为算术编码的反过程,与自编解码器卷积网络的算术解码器AD相同。
超参解码器:
反卷积层:设置通道数为192,卷积核大小为3,前两层步长为2,每张特征图高宽变为原图的2倍,特征图尺寸放大4倍,特征图数量不变,最后一次反卷积步长设置为1,通道数为320,特征图尺寸不变,通过指数函数EXP转换到高斯分布。
激活函数:采用ReLU的激活函数,与超参编码器中激活层相同。
概率模型:
残差块:输入特征图x经过卷积后被映射为F(x),再经过一层卷积变为F'(x),然后将F'(x)与原始输入x累加,得到整个残差结构的输出。
卷积层:设置通道数为640,分别对应320个通道的均值μ,320个通道的标准差σ,卷积核大小为3,步长为1,特征图尺寸不变。
单高斯模型:单变量正态分布概率密度函数定义如下:
Figure BDA0003430707990000032
其中,μ和σ由上层卷积得到,由此来模拟信号分布,得到概率。
进一步的,失真优化具体为:
以网络的输入图像以及重建图像的差别最小为优化目标,优化采用率-失真优化的方法,即网络损失定义为:
L=R+λD
模型的损失函数中R为码率,由两部分组成:自编码器得到的信号码率y和超参编码器得到的边信息码率z,此处采用单位像素比特数BPP;D为失真率,即重建图像相比于输入原始图像的差值,此处采用均方误差MSE,λ控制比特数和失真率的平衡。
模型的优化器选用的是Adam,设置学习率为0.0001;模型训练时的批尺寸大小设置为1;模型训练的迭代次数设置为250k。
本发明的有益技术效果为:
本发明基于“边信息”的概念,使用一种自适应性的熵模型来对潜在空间中的变量进行熵建模,根据不同的压缩对象进行调整进一步地提高压缩率。通过设计和改进网络结构,提升网络的特征提取和泛化能力,兼顾SAR图像的压缩率和压缩质量。
附图说明
图1为本发明自编解码器卷积网络结构示意图。
图2为本发明超先验网络结构示意图。
图3为本发明超先验网络超参编码器激活层的ReLU的激活函数。
图4为本发明超先验网络概率模型残差块结构。
图5为对于SAR图像测试集整体的压缩效果PSNR对比图。
图6为对于SAR图像测试集整体的压缩效果MS-SSIM对比图。
图7为实验原始图像。
图8为本发明变分自编码器(VAE)网络和对比例JPEG在BPP约为0.2时的解压缩后的结果对比(a为VAE解压、b为JPEG解压)。
图9为本发明VAE网络和对比例JPEG在BPP约为0.3时的解压缩后的结果对比(a为VAE解压、b为JPEG解压)。
图10为本发明VAE网络和对比例JPEG在BPP约为0.7时的解压缩后的结果对比(a为VAE解压、b为JPEG解压)。
具体实施方式
下面结合附图和实施例对本发明做进一详细说明。
本发明的一种基于超先验架构的SAR图像压缩方法,包括以下步骤:
步骤1:自编解码器卷积网络的构建。
自编解码器网络分为三大部分:一部分是编码器,编码器通过多层卷积完成对SAR图像的压缩编码,调整卷积的层数、步长以及通道数控制相应的压缩比;第二部分是算术编解码器,算术编解码器根据图像信号的分布,生成二进制流,进一步压缩比特数;最后一部分是解码器,解码器通过多层的转置卷积完成对编码图像的解码。编解码器网络结构的设计应遵从一定的对称原则,具体的网络结构如图1所示。
自编解码器卷积网络具体为:
编码器:
卷积层:设置通道数为192,卷积核大小为3,步长为2,进行填充;每次经过卷积层之后,从原图像中提取得到新的192张特征图,每张特征图高宽变为原图的二分之一,大小变为原来的四分之一。如第一次进行卷积时,数据格式会从原图的[256,256,1]变为[128,128,192]。多次卷积后达到数据压缩的效果,编码器最后一层的通道数为320,通过调整其取值改变压缩程度。
激活层:采用一对广义可除归一化层GDN作为激活函数,对每一位数据进行非线性映射,维持梯度,GDN激活函数公式如下:
Figure BDA0003430707990000051
其中,xi表示输入的第i层特征图,βi和γi是需要学习的参数。
解码器:
反卷积层:设置通道数为192,卷积核大小为3,步长为2,进行填充;反卷积层与卷积层相对应,每经过一次反卷积层,每张特征图高宽变为原图的2倍,特征图尺寸放大4倍,特征图数量不变,最后一层反卷积通道数变为1,进入输出层输出。
激活层:采用IGDN的激活函数,IGDN为GDN的逆变换,与编码器中激活层相对应。算术编解码器:
算术编码器AE:算术编码首先定义了一个介于[0,1]区间的实数区间,然后按照待处理的信号,一个一个信号读入,每读入一个信号,就将该信号源在[0,1]上的范围,按照比例缩小到最新得到的间隔中,该比例的值由各信源信号出现的频率决定,然后依次迭代,直到最后信号中的信源信号全部读完为止;此处是对编码器得到的信号y进行编码。
算术解码器AD:算术解码为算术编码的反过程,给定一个[0,1]中的浮点数,通过解码操作之后就能完全获得原始的信号串。
步骤2:超先验网络的熵建模。
为了实现适应性的熵建模,需要对不同的图片预测其信号分布,为此,选择一个参数化的先验模型,由超先验网络预测得到超参数;超先验网络的熵建模分为四个部分,分别为超参编码器、超参算术编解码器、超参解码器、概率模型;同时本模型最后使用了单高斯混合模型对均值和方差进行预测,来模拟信号分布,实现熵建模。具体实现结构如图2所示。
超先验网络的熵建模具体为:
超参编码器:
卷积层:设置通道数为192,卷积核大小为3,第一层卷积步长为1,不改变特征图大小,后续两层设置步长为2,进行填充,每张特征图高宽变为原图的二分之一,大小变为原来的四分之一。
激活层:采用ReLU的激活函数,对每一位数据进行非线性映射,维持梯度;ReLU的激活函数如图3所示,ReLU的激活公式如下:
Figure BDA0003430707990000061
超参算术编解码器:
算术编码器AE:与自编解码器卷积网络的算术编码器AE相同,但此处是对超参编码器得到的边信息z进行编码,信号的概率分布由一个均值为0的正态分布进行粗略模拟。
算术解码器AD:算术解码为算术编码的反过程,与自编解码器卷积网络的算术解码器AD相同。
超参解码器:
反卷积层:设置通道数为192,卷积核大小为3,前两层步长为2,每张特征图高宽变为原图的2倍,特征图尺寸放大4倍,特征图数量不变,最后一次反卷积步长设置为1,通道数为320,特征图尺寸不变,通过指数函数EXP转换到高斯分布。
激活函数:采用ReLU的激活函数,与超参编码器中激活层相同。
概率模型:
残差块:如图4所示,输入特征图x经过卷积后被映射为F(x),再经过一层卷积变为F'(x),然后将F'(x)与原始输入x累加(F'(x)与x的尺寸、维度相同,他们累加时按照逐像素点累加计算,输出结构与x的尺寸、维度相同),得到整个残差结构的输出。
卷积层:设置通道数为640,分别对应320个通道的均值μ,320个通道的标准差σ,卷积核大小为3,步长为1,特征图尺寸不变。
单高斯模型:单变量正态分布概率密度函数定义如下:
Figure BDA0003430707990000062
其中,μ和σ由上层卷积得到,由此来模拟信号分布,得到概率。
步骤3:失真优化。
损失函数由两部分组成,第一部分为失真率,具体为通过自编码器前向传播压缩恢复后的图像与原始图像的均方误差,第二部分为码率,由编码器得到的信号y的码率以及超参编码器得到的边信息z的码率组成;模型根据损失函数进行反向传播,不断地训练和优化,能够在一定的压缩比下取得更好的压缩效果。
以网络的输入图像以及重建图像的差别最小为优化目标,优化采用率-失真优化的方法,即网络损失定义为:
L=R+λD
模型的损失函数中R为码率,由两部分组成:自编码器得到的信号码率y和超参编码器得到的边信息码率z,此处采用单位像素比特数BPP(bits per pixel);D为失真率,即重建图像相比于输入原始图像的差值,此处采用均方误差MSE(Mean Squared Error),λ控制比特数和失真率的平衡。
模型的优化器选用的是Adam,设置学习率(Learing Rate)为0.0001;模型训练时的批尺寸(Batchsize)大小设置为1;模型训练的迭代次数设置为250k。
测试实验:
对于SAR图像测试集整体的压缩效果对比图如图5、图6所示,压缩结果各指标具体评估如表1所示。PSNR为客观指标,峰值信噪比,MS-SSIM为主观指标,多尺度结构相似性。
表1 压缩结果
Figure BDA0003430707990000071
挑选其中一个样本进行展示。原始图像为图7,使用本发明所改进的VAE网络和JPEG的解压缩后的对比结果如图8、图9和图10,分别对应BPP约为0.2、0.3、0.7三个范围内的解压缩结果。由结果可以看出,图8,在BPP为0.2左右时,JPEG算法压缩后的图像失真严重,完全无法反映原图的灰度和轮廓信息,而本算法仍然能够较好地保留轮廓信息。图9,在BPP约为0.3时,本算法失真率进一步降低,图像的轮廓更为清晰,而JPEG算法相应也有一些提升,但失真仍较为严重。图10,在BPP为0.7左右时,本算法压缩后的图片已经很好的保留了纹理细节,和原图对比相差不大,而JPEG算法也开始能够反映轮廓信息了,但相对于本算法,仍有较大的差距。

Claims (4)

1.一种基于超先验架构的SAR图像压缩方法,其特征在于,包括以下步骤:
步骤1:自编解码器卷积网络的构建:
自编解码器网络分为三大部分:一部分是编码器,编码器通过多层卷积完成对SAR图像的压缩编码,调整卷积的层数、步长以及通道数控制相应的压缩比;第二部分是算术编解码器,算术编解码器根据图像信号的分布,生成二进制流,进一步压缩比特数;最后一部分是解码器,解码器通过多层的转置卷积完成对编码图像的解码;
步骤2:超先验网络的熵建模:
为了实现适应性的熵建模,需要对不同的图片预测其信号分布,为此,选择一个参数化的先验模型,由超先验网络预测得到超参数;超先验网络的熵建模分为四个部分,分别为超参编码器、超参算术编解码器、超参解码器、概率模型;同时本模型最后使用了单高斯混合模型对均值和方差进行预测,来模拟信号分布,实现熵建模;
步骤3:失真优化:
损失函数由两部分组成,第一部分为失真率,具体为通过自编码器前向传播压缩恢复后的图像与原始图像的均方误差,第二部分为码率,由编码器得到的信号y的码率以及超参编码器得到的边信息z的码率组成;模型根据损失函数进行反向传播,不断地训练和优化。
2.根据权利要求1所述的一种基于超先验架构的SAR图像压缩方法,其特征在于,所述自编解码器卷积网络的编码器、算术编解码器和解码器具体为:
编码器:
卷积层:设置通道数为192,卷积核大小为3,步长为2,进行填充;每次经过卷积层之后,从原图像中提取得到新的192张特征图,每张特征图高宽变为原图的二分之一,大小变为原来的四分之一;多次卷积后达到数据压缩的效果,编码器最后一层的通道数为320,通过调整其取值改变压缩程度;
激活层:采用一对广义可除归一化层GDN作为激活函数,对每一位数据进行非线性映射,维持梯度,GDN激活函数公式如下:
Figure FDA0003430707980000011
其中,xi表示输入的第i层特征图,βi和γi是需要学习的参数;
解码器:
反卷积层:设置通道数为192,卷积核大小为3,步长为2,进行填充;反卷积层与卷积层相对应,每经过一次反卷积层,每张特征图高宽变为原图的2倍,特征图尺寸放大4倍,特征图数量不变,最后一层反卷积通道数变为1,进入输出层输出;
激活层:采用IGDN的激活函数,IGDN为GDN的逆变换,与编码器中激活层相对应;算术编解码器:
算术编码器AE:算术编码首先定义了一个介于[0,1]区间的实数区间,然后按照待处理的信号,一个一个信号读入,每读入一个信号,就将该信号源在[0,1]上的范围,按照比例缩小到最新得到的间隔中,该比例的值由各信源信号出现的频率决定,然后依次迭代,直到最后信号中的信源信号全部读完为止;此处是对编码器得到的信号y进行编码;
算术解码器AD:算术解码为算术编码的反过程,给定一个[0,1]中的浮点数,通过解码操作之后就能完全获得原始的信号串。
3.根据权利要求2所述的一种基于超先验架构的SAR图像压缩方法,其特征在于,所述超先验网络的熵建模具体为:
超参编码器:
卷积层:设置通道数为192,卷积核大小为3,第一层卷积步长为1,不改变特征图大小,后续两层设置步长为2,进行填充,每张特征图高宽变为原图的二分之一,大小变为原来的四分之一;
激活层:采用ReLU的激活函数,对每一位数据进行非线性映射,维持梯度;ReLU的激活公式如下:
Figure FDA0003430707980000021
超参算术编解码器:
算术编码器AE:与自编解码器卷积网络的算术编码器AE相同,但此处是对超参编码器得到的边信息z进行编码,信号的概率分布由一个均值为0的正态分布进行粗略模拟;
算术解码器AD:算术解码为算术编码的反过程,与自编解码器卷积网络的算术解码器AD相同;
超参解码器:
反卷积层:设置通道数为192,卷积核大小为3,前两层步长为2,每张特征图高宽变为原图的2倍,特征图尺寸放大4倍,特征图数量不变,最后一次反卷积步长设置为1,通道数为320,特征图尺寸不变,通过指数函数EXP转换到高斯分布;
激活函数:采用ReLU的激活函数,与超参编码器中激活层相同;
概率模型:
残差块:输入特征图x经过卷积后被映射为F(x),再经过一层卷积变为F'(x),然后将F'(x)与原始输入x累加,得到整个残差结构的输出;
卷积层:设置通道数为640,分别对应320个通道的均值μ,320个通道的标准差σ,卷积核大小为3,步长为1,特征图尺寸不变;
单高斯模型:单变量正态分布概率密度函数定义如下:
Figure FDA0003430707980000031
其中,μ和σ由上层卷积得到,由此来模拟信号分布,得到概率。
4.根据权利要求3所述的一种基于超先验架构的SAR图像压缩方法,其特征在于,所述失真优化具体为:
以网络的输入图像以及重建图像的差别最小为优化目标,优化采用率-失真优化的方法,即网络损失定义为:
L=R+λD
模型的损失函数中R为码率,由两部分组成:自编码器得到的信号码率y和超参编码器得到的边信息码率z,此处采用单位像素比特数BPP;D为失真率,即重建图像相比于输入原始图像的差值,此处采用均方误差MSE,λ控制比特数和失真率的平衡;
模型的优化器选用的是Adam,设置学习率为0.0001;模型训练时的批尺寸大小设置为1;模型训练的迭代次数设置为250k。
CN202111597113.0A 2021-12-24 2021-12-24 一种基于超先验架构的sar图像压缩方法 Active CN114386595B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111597113.0A CN114386595B (zh) 2021-12-24 2021-12-24 一种基于超先验架构的sar图像压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111597113.0A CN114386595B (zh) 2021-12-24 2021-12-24 一种基于超先验架构的sar图像压缩方法

Publications (2)

Publication Number Publication Date
CN114386595A true CN114386595A (zh) 2022-04-22
CN114386595B CN114386595B (zh) 2023-07-28

Family

ID=81197546

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111597113.0A Active CN114386595B (zh) 2021-12-24 2021-12-24 一种基于超先验架构的sar图像压缩方法

Country Status (1)

Country Link
CN (1) CN114386595B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023246655A1 (zh) * 2022-06-20 2023-12-28 华为技术有限公司 一种图像编码、解码方法及编码、解码装置

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200160565A1 (en) * 2018-11-19 2020-05-21 Zhan Ma Methods And Apparatuses For Learned Image Compression
CN111405283A (zh) * 2020-02-20 2020-07-10 北京大学 基于深度学习的端到端视频压缩方法、系统及存储介质
CN111565317A (zh) * 2019-02-13 2020-08-21 合肥图鸭信息科技有限公司 图像压缩方法、编解码网络训练方法、装置及电子设备
CN111681293A (zh) * 2020-06-09 2020-09-18 西南交通大学 一种基于卷积神经网络的sar图像压缩方法
CN111698508A (zh) * 2020-06-08 2020-09-22 北京大学深圳研究生院 基于超分辨率的图像压缩方法、设备及存储介质
KR20200138079A (ko) * 2019-05-31 2020-12-09 한국전자통신연구원 전역적 문맥을 이용하는 기계 학습 기반의 이미지 압축을 위한 방법 및 장치
CN112149652A (zh) * 2020-11-27 2020-12-29 南京理工大学 用于高光谱图像有损压缩的空谱联合深度卷积网络方法
CN112203093A (zh) * 2020-10-12 2021-01-08 苏州天必佑科技有限公司 一种基于深度神经网络的信号处理方法
CN112866694A (zh) * 2020-12-31 2021-05-28 杭州电子科技大学 联合非对称卷积块和条件上下文的智能图像压缩优化方法
CN112950729A (zh) * 2019-12-10 2021-06-11 山东浪潮人工智能研究院有限公司 一种基于自编码器和熵编码的图像压缩方法
CN113259676A (zh) * 2020-02-10 2021-08-13 北京大学 一种基于深度学习的图像压缩方法和装置
CN113382244A (zh) * 2021-08-13 2021-09-10 杭州博雅鸿图视频技术有限公司 编解码网络结构、图像压缩方法、装置及存储介质
CN113537456A (zh) * 2021-06-15 2021-10-22 北京大学 一种深度特征压缩方法
CN113822147A (zh) * 2021-08-04 2021-12-21 北京交通大学 一种协同机器语义任务的深度压缩方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200160565A1 (en) * 2018-11-19 2020-05-21 Zhan Ma Methods And Apparatuses For Learned Image Compression
CN111565317A (zh) * 2019-02-13 2020-08-21 合肥图鸭信息科技有限公司 图像压缩方法、编解码网络训练方法、装置及电子设备
KR20200138079A (ko) * 2019-05-31 2020-12-09 한국전자통신연구원 전역적 문맥을 이용하는 기계 학습 기반의 이미지 압축을 위한 방법 및 장치
CN112950729A (zh) * 2019-12-10 2021-06-11 山东浪潮人工智能研究院有限公司 一种基于自编码器和熵编码的图像压缩方法
CN113259676A (zh) * 2020-02-10 2021-08-13 北京大学 一种基于深度学习的图像压缩方法和装置
CN111405283A (zh) * 2020-02-20 2020-07-10 北京大学 基于深度学习的端到端视频压缩方法、系统及存储介质
CN111698508A (zh) * 2020-06-08 2020-09-22 北京大学深圳研究生院 基于超分辨率的图像压缩方法、设备及存储介质
CN111681293A (zh) * 2020-06-09 2020-09-18 西南交通大学 一种基于卷积神经网络的sar图像压缩方法
CN112203093A (zh) * 2020-10-12 2021-01-08 苏州天必佑科技有限公司 一种基于深度神经网络的信号处理方法
CN112149652A (zh) * 2020-11-27 2020-12-29 南京理工大学 用于高光谱图像有损压缩的空谱联合深度卷积网络方法
CN112866694A (zh) * 2020-12-31 2021-05-28 杭州电子科技大学 联合非对称卷积块和条件上下文的智能图像压缩优化方法
CN113537456A (zh) * 2021-06-15 2021-10-22 北京大学 一种深度特征压缩方法
CN113822147A (zh) * 2021-08-04 2021-12-21 北京交通大学 一种协同机器语义任务的深度压缩方法
CN113382244A (zh) * 2021-08-13 2021-09-10 杭州博雅鸿图视频技术有限公司 编解码网络结构、图像压缩方法、装置及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JOHANNES BALLÉ等: "Variational image compression with a scale hyperprior", HTTPS://ARXIV.ORG/ABS/1802.01436 *
QIHAN XU等: "Synthetic Aperture Radar Image Compression Based on a Variational Autoencoder", IEEE GEOSCIENCE AND REMOTE SENSING LETTERS *
刘东等: "端到端优化的图像压缩技术进展", 计算机科学 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023246655A1 (zh) * 2022-06-20 2023-12-28 华为技术有限公司 一种图像编码、解码方法及编码、解码装置

Also Published As

Publication number Publication date
CN114386595B (zh) 2023-07-28

Similar Documents

Publication Publication Date Title
US11153566B1 (en) Variable bit rate generative compression method based on adversarial learning
CN109889839B (zh) 基于深度学习的感兴趣区域图像编码、解码系统及方法
CN111641832B (zh) 编码方法、解码方法、装置、电子设备及存储介质
CN116016917A (zh) 点云压缩方法、编码器、解码器及存储介质
CN111681293B (zh) 一种基于卷积神经网络的sar图像压缩方法
CN111147862B (zh) 一种基于目标编码的端到端图像压缩方法
CN110248190B (zh) 一种基于压缩感知的多层残差系数图像编码方法
CN112183742B (zh) 基于渐进式量化和Hessian信息的神经网络混合量化方法
CN112866694A (zh) 联合非对称卷积块和条件上下文的智能图像压缩优化方法
CN114286093A (zh) 一种基于深度神经网络的快速视频编码方法
CN110753225A (zh) 一种视频压缩方法、装置及终端设备
CN112149652A (zh) 用于高光谱图像有损压缩的空谱联合深度卷积网络方法
CN111754592A (zh) 一种基于特征通道信息的端到端多光谱遥感图像压缩方法
CN114386595B (zh) 一种基于超先验架构的sar图像压缩方法
CN115941943A (zh) 一种hevc视频编码方法
Wu et al. Fractal image compression with variance and mean
CN112702600B (zh) 一种图像编解码神经网络分层定点化方法
CN114037071A (zh) 获取用于图像前处理以抵抗jpge压缩失真的神经网络的方法
CN111343458B (zh) 一种基于重建残差的稀疏灰度图像编解码方法及系统
CN117980914A (zh) 用于以有损方式对图像或视频进行编码、传输和解码的方法及数据处理系统
Gray et al. Image compression and tree-structured vector quantization
Saudagar Learning based coding for medical image compression
CN117528085B (zh) 一种基于智能特征聚类的视频压缩编码方法
CN115661275A (zh) 一种基于通道增益的可变速率稀疏点云压缩方法
CN109302614B (zh) 一种基于三阶张量自编码网络的视频压缩方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant