CN111080729B - 基于Attention机制的训练图片压缩网络的构建方法及系统 - Google Patents

基于Attention机制的训练图片压缩网络的构建方法及系统 Download PDF

Info

Publication number
CN111080729B
CN111080729B CN201911347886.6A CN201911347886A CN111080729B CN 111080729 B CN111080729 B CN 111080729B CN 201911347886 A CN201911347886 A CN 201911347886A CN 111080729 B CN111080729 B CN 111080729B
Authority
CN
China
Prior art keywords
matrix
picture
training
network
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911347886.6A
Other languages
English (en)
Other versions
CN111080729A (zh
Inventor
冯落落
李锐
金长新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Inspur Scientific Research Institute Co Ltd
Original Assignee
Shandong Inspur Scientific Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Inspur Scientific Research Institute Co Ltd filed Critical Shandong Inspur Scientific Research Institute Co Ltd
Priority to CN201911347886.6A priority Critical patent/CN111080729B/zh
Publication of CN111080729A publication Critical patent/CN111080729A/zh
Application granted granted Critical
Publication of CN111080729B publication Critical patent/CN111080729B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明公开了一种基于Attention机制的训练图片压缩网络的构建方法及系统,属于图像压缩、Attention机制及卷积神经网络领域,本发明要解决的技术问题为如何基于Attention机制去为图片中的每个像素点赋予不同的权值,从而使得深度网络在解压时,生成一个视觉效果上比较好的图片,采用的技术方案为:该方法具体如下:将训练图片进行压缩和解压获取重构图片,同时获取熵编码R;利用改进的Vgg网络生产关于一个图片的Attention map;在训练压缩和解压网络过程中获取损失函数,公式如下:Loss=R+λD;其中,D是通过训练图片和重构图片之间对应点的MSE获得;λ表示Attention Map矩阵;R表示熵编码参数。该系统包括重构图片获取模块、Attention map生成模块及损失函数获取模块。

Description

基于Attention机制的训练图片压缩网络的构建方法及系统
技术领域
本发明涉及图像压缩、Attention机制及卷积神经网络领域,具体地说是一种基于Attention机制的训练图片压缩网络的构建方法及系统。
背景技术
基于深度学习DNN的图片压缩方法目前已经成为最近研究的主流方向。基于深度学习的图片压缩方法已经成为目前的主流方法的JPEG和BGP的有力竞争者。除了自然的图片上,深度学习方法实现了强有力的压缩率,它们还能都轻松的适应到具体的某个领域,例如立体图像或者医学影像,并且还可以通过图像的压缩表示直接进行索引。深度学习方法也主要在PSNR和MS-SSIM上进行比较。传统的深度学习压缩网络在训练的时候,对于图像中的每一个点都是平等看待,但是实际情况下,我们一般对前景会使用较小的压缩比,对背景使用较大的压缩比,为了实现这种效果,如何基于Attention机制去为图片中的每个像素点赋予不同的权值,从而使得深度网络在解压时,生成一个视觉效果上比较好的图片是目前急需解决的技术问题。
发明内容
本发明的技术任务是提供一种基于Attention机制的训练图片压缩网络的构建方法及系统,来解决如何基于Attention机制去为图片中的每个像素点赋予不同的权值,从而使得深度网络在解压时,生成一个视觉效果上比较好的图片的问题。
本发明的技术任务是按以下方式实现的,一种基于Attention机制的训练图片压缩网络的构建方法,该方法具体如下:
将训练图片进行压缩和解压获取重构图片,同时获取熵编码R;
利用改进的Vgg网络生产关于一个图片的Attention map;
在训练压缩和解压网络过程中获取损失函数,公式如下:
Loss=R+λD;
其中,D是通过训练图片和重构图片之间对应点的MSE获得;λ表示Attention Map矩阵;R表示熵编码参数。
作为优选,所述获取重构图片,同时获取熵编码R具体如下:
通过编码器对训练图片进行编码,得到编码后的特征图;
通过量化器对特征图进行量化,得到量化后的特征图;
同时通过熵编码器对量化后特征图进行熵编码,得到熵编码参数;
通过解码器对量化后的特征图进行解码,得到重构图片。
更优地,所述编码器使用一个3层的神经网络,每一层包括一个卷积、一个下采样和一个Relu激活函数;
所述解码器使用一个3层的神经网络,每一层包括一个反卷积、一个上采样和一个Relu激活函数。
作为优选,所述Vgg网络的改进具体如下:去掉Vgg中的全连接网络,在最后一个卷积层后面加上一个depthwise_conv2d和一个global pooling层;再接一个全连接层。
更优地,所述Vgg网络使用mageNet数据集进行训练。
作为优选,所述Attention Map矩阵获取过程如下:
对于训练好的Vgg网络,通过输入一张大小为224*224*3的图片,获得该图片的一个Conv_last,大小为14*14*1024;
global pooling层和Fc输出层之间加入W,W表示1024*1000的矩阵,通过转置运算符,获得一个W_transpose为1000*1024;
从W_transpose选择预测类别最大的那一行的1024个元素,转置成为一个1024*1的矩阵;
把Conv_last矩阵进行双线性差值,成为一个224*224*1024的矩阵;
将224*224*1024的矩阵通过reshape操作变成一个50176*1024的矩阵;
把50176*1024的矩阵与1024*1的矩阵相乘,得到一个50176*1的矩阵;
将50176*1的矩阵进行转置变成224*224*1的Attention map矩阵。
一种基于Attention机制的训练图片压缩网络的构建系统,该系统包括,
重构图片获取模块,用于将训练图片进行压缩和解压获取重构图片,同时获取熵编码R;
Attention map生成模块,用于利用改进的Vgg网络生产关于一个图片的Attention map;
损失函数获取模块,用于在训练压缩和解压网络过程中获取损失函数,公式如下:
Loss=R+λD;
其中,D是通过训练图片和重构图片之间对应点的MSE获得;λ表示Attention Map矩阵;R表示熵编码参数;
作为优选,所述重构图片获取模块包括,
编码器,用于对训练图片进行编码,得到编码后的特征图;编码器使用一个3层的神经网络,每一层包括一个卷积、一个下采样和一个Relu激活函数;
量化器,用于对特征图进行量化,得到量化后的特征图;
熵编码器,用于对量化后特征图进行熵编码,得到熵编码参数;
解码器,用于对量化后的特征图进行解码,得到重构图片;解码器使用一个3层的神经网络,每一层包括一个反卷积、一个上采样和一个Relu激活函数。
作为优选,所述Vgg网络的改进具体如下:去掉Vgg中的全连接网络,在最后一个卷积层后面加上一个depthwise_conv2d和一个global pooling层;再接一个全连接层;其中,Vgg网络使用mageNet数据集进行训练。
作为优选,所述Attention Map矩阵获取过程如下:
对于训练好的Vgg网络,通过输入一张大小为224*224*3的图片,获得该图片的一个Conv_last,大小为14*14*1024;
global pooling层和Fc输出层之间加入W,W表示1024*1000的矩阵,通过转置运算符,获得一个W_transpose为1000*1024;
从W_transpose选择预测类别最大的那一行的1024个元素,转置成为一个1024*1的矩阵;
把Conv_last矩阵进行双线性差值,成为一个224*224*1024的矩阵;
将224*224*1024的矩阵通过reshape操作变成一个50176*1024的矩阵;
把50176*1024的矩阵与1024*1的矩阵相乘,得到一个50176*1的矩阵;
将50176*1的矩阵进行转置变成224*224*1的Attention map矩阵。
本发明的基于Attention机制的训练图片压缩网络的构建方法及系统具有以下优点:
(一)传统方法的深度学习图片压缩方法,损失函数为R+λD,该损失函数对于图片中前景和背景都是利用相同的λ值,本发明中引入图片的Attention Map进行λ的构造,使前景拥有更大的λ值,背景拥有更小的λ,这样不同像素点会对应不同的Attention值,这样使得在同样压缩比的情况下,解压后的图像视觉效果更好;
(二)本发明和其他的传统的方法JPEG、BPG和CNN相比,在更小的压缩比下,还训练图片的效果差不多;
(三)本发明使用一个Attention Map去为图片中的每个像素点赋予不同的权值,从而使得深度网络在解压的时候,生成一个视觉效果上比较好的图片;
(四)本发明主要提出使用Attention进行图片压缩技术,在进行图片压缩时,可以有选择对图片不同区域采用不同的压缩能力,对不是很看重的地方着重进行压缩,对于比较看重的地方,尽可能保持图片的原有信息,为了实现这种效果,引入一个Attention机制,该机制针对不同的像素点生成不同的大小的权重,权重越大代表越看重图片的这部分信息,越小表示图片这部分信息不重要,可以适当的进行缩减。
附图说明
下面结合附图对本发明进一步说明。
附图1为基于Attention机制的训练图片压缩网络的构建方法示意图;
附图2为编码器的示意图;
附图3为解码器的示意图。
具体实施方式
参照说明书附图和具体实施例对本发明的基于Attention机制的训练图片压缩网络的构建方法及系统作以下详细地说明。
实施例1:
如附图1所示,本发明的基于Attention机制的训练图片压缩网络的构建方法,该方法具体如下:
S1、将训练图片进行压缩和解压获取重构图片,同时获取熵编码R;具体如下:
S101、通过编码器对训练图片进行编码,得到编码后的特征图;如附图2所示,编码器使用一个3层的神经网络,每一层包括一个卷积、一个下采样和一个Relu激活函数;
S102、通过量化器对特征图进行量化,得到量化后的特征图;
S103、同时通过熵编码器对量化后特征图进行熵编码,得到熵编码参数;
S104、通过解码器对量化后的特征图进行解码,得到重构图片;如附图3所示,解码器使用一个3层的神经网络,每一层包括一个反卷积、一个上采样和一个Relu激活函数。
S2、利用改进的Vgg网络生产关于一个图片的Attention map;Vgg网络的改进具体如下:去掉Vgg中的全连接网络,在最后一个卷积层后面加上一个depthwise_conv2d和一个global pooling层;再接一个全连接层。Vgg网络使用mageNet数据集进行训练。由于我们使用ImageNet数据集进行训练,因此最后一个全连接层,我们使用1000个神经元。
S3、在训练压缩和解压网络过程中获取损失函数,公式如下:
Loss=R+λD;
其中,D是通过训练图片和重构图片之间对应点的MSE获得(MSE为训练图片与重构图片相减后的平方和);
Figure BDA0002333886940000051
其中,x表示训练图片,
Figure BDA0002333886940000052
表示重构图片,/>
Figure BDA0002333886940000053
表示训练图片中像素点和重构图片中对应像素点之间的距离;
λ表示Attention Map矩阵;R表示熵编码参数。其中,Attention Map会在看重的物体地方矩阵点的值比较大,背景处的值比较小,因为λ起到一个trade off的功能,用于平衡码流大小和率失真。如果图片上的某个像素点对应Attention Map上的数值比较大,就使用更大的码流去存储。对应AttentionMap的数值比较小,就使用更小的码流去存储。因此这使得压缩和解压网络增加一定的选择性功能。
其中,Attention Map矩阵获取过程如下:
S301、对于训练好的Vgg网络,通过输入一张大小为224*224*3的图片,获得该图片的一个Conv_last,大小为14*14*1024;
S302、global pooling层和Fc输出层之间加入W,W表示1024*1000的矩阵,通过转置运算符,获得一个W_transpose为1000*1024;
S303、从W_transpose选择预测类别最大的那一行的1024个元素,转置成为一个1024*1的矩阵;
S304、把Conv_last矩阵进行双线性差值,成为一个224*224*1024的矩阵;
S305、将224*224*1024的矩阵通过reshape操作变成一个50176*1024的矩阵;
S306、把50176*1024的矩阵与1024*1的矩阵相乘,得到一个50176*1的矩阵;
S307、将50176*1的矩阵进行转置变成224*224*1的Attention map矩阵。
实施例2:
本发明的基于Attention机制的训练图片压缩网络的构建系统,该系统包括,
重构图片获取模块,用于将训练图片进行压缩和解压获取重构图片,同时获取熵编码R;重构图片获取模块包括,
编码器,用于对训练图片进行编码,得到编码后的特征图;编码器使用一个3层的神经网络,每一层包括一个卷积、一个下采样和一个Relu激活函数;
量化器,用于对特征图进行量化,得到量化后的特征图;
熵编码器,用于对量化后特征图进行熵编码,得到熵编码参数;
解码器,用于对量化后的特征图进行解码,得到重构图片;解码器使用一个3层的神经网络,每一层包括一个反卷积、一个上采样和一个Relu激活函数。
Attention map生成模块,用于利用改进的Vgg网络生产关于一个图片的Attention map;Vgg网络的改进具体如下:去掉Vgg中的全连接网络,在最后一个卷积层后面加上一个depthwise_conv2d和一个global pooling层;再接一个全连接层;其中,Vgg网络使用mageNet数据集进行训练。
损失函数获取模块,用于在训练压缩和解压网络过程中获取损失函数,公式如下:
Loss=R+λD;
其中,D是通过训练图片和重构图片之间对应点的MSE获得;λ表示Attention Map矩阵;R表示熵编码参数;Attention Map矩阵获取过程如下:
(1)、对于训练好的Vgg网络,通过输入一张大小为224*224*3的图片,获得该图片的一个Conv_last,大小为14*14*1024;
(2)、global pooling层和Fc输出层之间加入W,W表示1024*1000的矩阵,通过转置运算符,获得一个W_transpose为1000*1024;
(3)、从W_transpose选择预测类别最大的那一行的1024个元素,转置成为一个1024*1的矩阵;
(4)、把Conv_last矩阵进行双线性差值,成为一个224*224*1024的矩阵;
(5)、将224*224*1024的矩阵通过reshape操作变成一个50176*1024的矩阵;
(6)、把50176*1024的矩阵与1024*1的矩阵相乘,得到一个50176*1的矩阵;
(7)、将50176*1的矩阵进行转置变成224*224*1的Attention map矩阵。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (5)

1.一种基于Attention机制的训练图片压缩网络的构建方法,其特征在于,该方法具体如下:
将训练图片进行压缩和解压获取重构图片,同时获取熵编码R;
利用改进的Vgg网络生产关于一个图片的Attention map;
在训练压缩和解压网络过程中获取损失函数,公式如下:
Loss=R+λD;
其中,D是通过训练图片和重构图片之间对应点的MSE获得;λ表示Attention Map矩阵;R表示熵编码参数;
其中,Vgg网络的改进具体如下:去掉Vgg中的全连接网络,在最后一个卷积层后面加上一个depthwise_conv2d和一个global pooling层;再接一个全连接层;Vgg网络使用mageNet数据集进行训练;
Attention Map矩阵获取过程如下:
对于训练好的Vgg网络,通过输入一张大小为224*224*3的图片,获得该图片的一个Conv_last,大小为14*14*1024;
global pooling层和Fc输出层之间加入W,W表示1024*1000的矩阵,通过转置运算符,获得一个W_transpose为1000*1024;
从W_transpose选择预测类别最大的那一行的1024个元素,转置成为一个1024*1的矩阵;
把Conv_last矩阵进行双线性差值,成为一个224*224*1024的矩阵;
将224*224*1024的矩阵通过reshape操作变成一个50176*1024的矩阵;
把50176*1024的矩阵与1024*1的矩阵相乘,得到一个50176*1的矩阵;
将50176*1的矩阵进行转置变成224*224*1的Attention map矩阵。
2.根据权利要求1所述的基于Attention机制的训练图片压缩网络的构建方法,其特征在于,所述获取重构图片,同时获取熵编码R具体如下:
通过编码器对训练图片进行编码,得到编码后的特征图;
通过量化器对特征图进行量化,得到量化后的特征图;
同时通过熵编码器对量化后特征图进行熵编码,得到熵编码参数;
通过解码器对量化后的特征图进行解码,得到重构图片。
3.根据权利要求2所述的基于Attention机制的训练图片压缩网络的构建方法,其特征在于,所述编码器使用一个3层的神经网络,每一层包括一个卷积、一个下采样和一个Relu激活函数;
所述解码器使用一个3层的神经网络,每一层包括一个反卷积、一个上采样和一个Relu激活函数。
4.一种基于Attention机制的训练图片压缩网络的构建系统,其特征在于,该系统包括,
重构图片获取模块,用于将训练图片进行压缩和解压获取重构图片,同时获取熵编码R;
Attention map生成模块,用于利用改进的Vgg网络生产关于一个图片的Attentionmap;
损失函数获取模块,用于在训练压缩和解压网络过程中获取损失函数,公式如下:
Loss=R+λD;
其中,D是通过训练图片和重构图片之间对应点的MSE获得;λ表示Attention Map矩阵;R表示熵编码参数;
Vgg网络的改进具体如下:去掉Vgg中的全连接网络,在最后一个卷积层后面加上一个depthwise_conv2d和一个global pooling层;再接一个全连接层;其中,Vgg网络使用mageNet数据集进行训练;
Attention Map矩阵获取过程如下:
对于训练好的Vgg网络,通过输入一张大小为224*224*3的图片,获得该图片的一个Conv_last,大小为14*14*1024;
global pooling层和Fc输出层之间加入W,W表示1024*1000的矩阵,通过转置运算符,获得一个W_transpose为1000*1024;
从W_transpose选择预测类别最大的那一行的1024个元素,转置成为一个1024*1的矩阵;
把Conv_last矩阵进行双线性差值,成为一个224*224*1024的矩阵;
将224*224*1024的矩阵通过reshape操作变成一个50176*1024的矩阵;
把50176*1024的矩阵与1024*1的矩阵相乘,得到一个50176*1的矩阵;
将50176*1的矩阵进行转置变成224*224*1的Attention map矩阵。
5.根据权利要求4所述的基于Attention机制的训练图片压缩网络的构建系统,其特征在于,所述重构图片获取模块包括,
编码器,用于对训练图片进行编码,得到编码后的特征图;编码器使用一个3层的神经网络,每一层包括一个卷积、一个下采样和一个Relu激活函数;
量化器,用于对特征图进行量化,得到量化后的特征图;
熵编码器,用于对量化后特征图进行熵编码,得到熵编码参数;
解码器,用于对量化后的特征图进行解码,得到重构图片;解码器使用一个3层的神经网络,每一层包括一个反卷积、一个上采样和一个Relu激活函数。
CN201911347886.6A 2019-12-24 2019-12-24 基于Attention机制的训练图片压缩网络的构建方法及系统 Active CN111080729B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911347886.6A CN111080729B (zh) 2019-12-24 2019-12-24 基于Attention机制的训练图片压缩网络的构建方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911347886.6A CN111080729B (zh) 2019-12-24 2019-12-24 基于Attention机制的训练图片压缩网络的构建方法及系统

Publications (2)

Publication Number Publication Date
CN111080729A CN111080729A (zh) 2020-04-28
CN111080729B true CN111080729B (zh) 2023-06-13

Family

ID=70317325

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911347886.6A Active CN111080729B (zh) 2019-12-24 2019-12-24 基于Attention机制的训练图片压缩网络的构建方法及系统

Country Status (1)

Country Link
CN (1) CN111080729B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113762452B (zh) * 2020-06-04 2024-01-02 合肥君正科技有限公司 一种量化prelu激活函数的方法
CN113450421B (zh) * 2021-07-16 2022-07-01 中国电子科技集团公司第二十八研究所 一种基于增强深度学习的无人机侦察图像压缩与解压方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102186076A (zh) * 2011-04-29 2011-09-14 中国科学院光电技术研究所 一种实时码率预分配的图像压缩方法及图像压缩装置
CN106649542A (zh) * 2015-11-03 2017-05-10 百度(美国)有限责任公司 用于视觉问答的系统和方法
CN108243129A (zh) * 2017-12-15 2018-07-03 西安电子科技大学 基于注意力深度网络的无线电信号特征提取方法
CN110263874A (zh) * 2019-06-27 2019-09-20 山东浪潮人工智能研究院有限公司 一种基于注意力关系图学习的图像分类方法及装置
CN110298387A (zh) * 2019-06-10 2019-10-01 天津大学 融入像素级attention机制的深度神经网络目标检测方法
CN110348487A (zh) * 2019-06-13 2019-10-18 武汉大学 一种基于深度学习的高光谱图像压缩方法及装置
CN110363716A (zh) * 2019-06-25 2019-10-22 北京工业大学 一种基于条件生成对抗网络复合降质图像高质量重建方法
CN110378895A (zh) * 2019-07-25 2019-10-25 山东浪潮人工智能研究院有限公司 一种基于深度注意力学习的乳腺癌图像识别方法
CN110555458A (zh) * 2019-07-24 2019-12-10 中北大学 基于注意力机制生成对抗网络的多波段图像特征级融合方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190205700A1 (en) * 2017-12-29 2019-07-04 Uber Technologies, Inc. Multiscale analysis of areas of interest in an image

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102186076A (zh) * 2011-04-29 2011-09-14 中国科学院光电技术研究所 一种实时码率预分配的图像压缩方法及图像压缩装置
CN106649542A (zh) * 2015-11-03 2017-05-10 百度(美国)有限责任公司 用于视觉问答的系统和方法
CN108243129A (zh) * 2017-12-15 2018-07-03 西安电子科技大学 基于注意力深度网络的无线电信号特征提取方法
CN110298387A (zh) * 2019-06-10 2019-10-01 天津大学 融入像素级attention机制的深度神经网络目标检测方法
CN110348487A (zh) * 2019-06-13 2019-10-18 武汉大学 一种基于深度学习的高光谱图像压缩方法及装置
CN110363716A (zh) * 2019-06-25 2019-10-22 北京工业大学 一种基于条件生成对抗网络复合降质图像高质量重建方法
CN110263874A (zh) * 2019-06-27 2019-09-20 山东浪潮人工智能研究院有限公司 一种基于注意力关系图学习的图像分类方法及装置
CN110555458A (zh) * 2019-07-24 2019-12-10 中北大学 基于注意力机制生成对抗网络的多波段图像特征级融合方法
CN110378895A (zh) * 2019-07-25 2019-10-25 山东浪潮人工智能研究院有限公司 一种基于深度注意力学习的乳腺癌图像识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
翟强 ; 王陆洋 ; 殷保群 ; 彭思凡 ; 邢思思 ; .基于尺度自适应卷积神经网络的人群计数算法.计算机工程.(第02期), *

Also Published As

Publication number Publication date
CN111080729A (zh) 2020-04-28

Similar Documents

Publication Publication Date Title
Cheng et al. Learned image compression with discretized gaussian mixture likelihoods and attention modules
CN110087092B (zh) 基于图像重构卷积神经网络的低码率视频编解码方法
US20200160565A1 (en) Methods And Apparatuses For Learned Image Compression
WO2020237646A1 (zh) 图像处理方法、设备及计算机可读存储介质
CN111246206B (zh) 一种基于自编码器的光流信息压缩方法及装置
CN102792695A (zh) 通过使用大变换单元对图像进行编码和解码的方法和设备
CN110099280B (zh) 一种无线自组织网络带宽受限下的视频业务质量增强方法
CN113079378B (zh) 图像处理方法、装置和电子设备
CN111641826B (zh) 对数据进行编码、解码的方法、装置与系统
CN111080729B (zh) 基于Attention机制的训练图片压缩网络的构建方法及系统
CN113822147A (zh) 一种协同机器语义任务的深度压缩方法
Akbari et al. Learned multi-resolution variable-rate image compression with octave-based residual blocks
Fu et al. An extended hybrid image compression based on soft-to-hard quantification
Ma et al. A cross channel context model for latents in deep image compression
CN109274682B (zh) 数据处理方法及其设备
CN106559668B (zh) 一种基于智能量化技术的低码率图像压缩方法
Huang et al. Multi-channel multi-loss deep learning based compression model for color images
WO2023225808A1 (en) Learned image compress ion and decompression using long and short attention module
CN116980611A (zh) 图像压缩方法、装置、设备、计算机程序产品及介质
CN107205151B (zh) 基于混合失真度量准则的编解码装置及方法
CN111131834B (zh) 可逆自编码器、编解码方法以及图像压缩方法、装置
Ayyoubzadeh et al. Lossless compression of mosaic images with convolutional neural network prediction
CN111343458A (zh) 一种基于重建残差的稀疏灰度图像编解码方法及系统
CN117915107B (zh) 图像压缩系统、图像压缩方法、存储介质与芯片
CN114697632B (zh) 一种基于双向条件编码的端到端立体图像压缩方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20230512

Address after: Building S02, 1036 Gaoxin Langchao Road, Jinan, Shandong 250100

Applicant after: Shandong Inspur Scientific Research Institute Co.,Ltd.

Address before: North 6th floor, S05 building, Langchao Science Park, 1036 Langchao Road, hi tech Zone, Jinan City, Shandong Province, 250100

Applicant before: SHANDONG INSPUR ARTIFICIAL INTELLIGENCE RESEARCH INSTITUTE Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant