CN111080729B - 基于Attention机制的训练图片压缩网络的构建方法及系统 - Google Patents
基于Attention机制的训练图片压缩网络的构建方法及系统 Download PDFInfo
- Publication number
- CN111080729B CN111080729B CN201911347886.6A CN201911347886A CN111080729B CN 111080729 B CN111080729 B CN 111080729B CN 201911347886 A CN201911347886 A CN 201911347886A CN 111080729 B CN111080729 B CN 111080729B
- Authority
- CN
- China
- Prior art keywords
- matrix
- picture
- training
- network
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明公开了一种基于Attention机制的训练图片压缩网络的构建方法及系统,属于图像压缩、Attention机制及卷积神经网络领域,本发明要解决的技术问题为如何基于Attention机制去为图片中的每个像素点赋予不同的权值,从而使得深度网络在解压时,生成一个视觉效果上比较好的图片,采用的技术方案为:该方法具体如下:将训练图片进行压缩和解压获取重构图片,同时获取熵编码R;利用改进的Vgg网络生产关于一个图片的Attention map;在训练压缩和解压网络过程中获取损失函数,公式如下:Loss=R+λD;其中,D是通过训练图片和重构图片之间对应点的MSE获得;λ表示Attention Map矩阵;R表示熵编码参数。该系统包括重构图片获取模块、Attention map生成模块及损失函数获取模块。
Description
技术领域
本发明涉及图像压缩、Attention机制及卷积神经网络领域,具体地说是一种基于Attention机制的训练图片压缩网络的构建方法及系统。
背景技术
基于深度学习DNN的图片压缩方法目前已经成为最近研究的主流方向。基于深度学习的图片压缩方法已经成为目前的主流方法的JPEG和BGP的有力竞争者。除了自然的图片上,深度学习方法实现了强有力的压缩率,它们还能都轻松的适应到具体的某个领域,例如立体图像或者医学影像,并且还可以通过图像的压缩表示直接进行索引。深度学习方法也主要在PSNR和MS-SSIM上进行比较。传统的深度学习压缩网络在训练的时候,对于图像中的每一个点都是平等看待,但是实际情况下,我们一般对前景会使用较小的压缩比,对背景使用较大的压缩比,为了实现这种效果,如何基于Attention机制去为图片中的每个像素点赋予不同的权值,从而使得深度网络在解压时,生成一个视觉效果上比较好的图片是目前急需解决的技术问题。
发明内容
本发明的技术任务是提供一种基于Attention机制的训练图片压缩网络的构建方法及系统,来解决如何基于Attention机制去为图片中的每个像素点赋予不同的权值,从而使得深度网络在解压时,生成一个视觉效果上比较好的图片的问题。
本发明的技术任务是按以下方式实现的,一种基于Attention机制的训练图片压缩网络的构建方法,该方法具体如下:
将训练图片进行压缩和解压获取重构图片,同时获取熵编码R;
利用改进的Vgg网络生产关于一个图片的Attention map;
在训练压缩和解压网络过程中获取损失函数,公式如下:
Loss=R+λD;
其中,D是通过训练图片和重构图片之间对应点的MSE获得;λ表示Attention Map矩阵;R表示熵编码参数。
作为优选,所述获取重构图片,同时获取熵编码R具体如下:
通过编码器对训练图片进行编码,得到编码后的特征图;
通过量化器对特征图进行量化,得到量化后的特征图;
同时通过熵编码器对量化后特征图进行熵编码,得到熵编码参数;
通过解码器对量化后的特征图进行解码,得到重构图片。
更优地,所述编码器使用一个3层的神经网络,每一层包括一个卷积、一个下采样和一个Relu激活函数;
所述解码器使用一个3层的神经网络,每一层包括一个反卷积、一个上采样和一个Relu激活函数。
作为优选,所述Vgg网络的改进具体如下:去掉Vgg中的全连接网络,在最后一个卷积层后面加上一个depthwise_conv2d和一个global pooling层;再接一个全连接层。
更优地,所述Vgg网络使用mageNet数据集进行训练。
作为优选,所述Attention Map矩阵获取过程如下:
对于训练好的Vgg网络,通过输入一张大小为224*224*3的图片,获得该图片的一个Conv_last,大小为14*14*1024;
global pooling层和Fc输出层之间加入W,W表示1024*1000的矩阵,通过转置运算符,获得一个W_transpose为1000*1024;
从W_transpose选择预测类别最大的那一行的1024个元素,转置成为一个1024*1的矩阵;
把Conv_last矩阵进行双线性差值,成为一个224*224*1024的矩阵;
将224*224*1024的矩阵通过reshape操作变成一个50176*1024的矩阵;
把50176*1024的矩阵与1024*1的矩阵相乘,得到一个50176*1的矩阵;
将50176*1的矩阵进行转置变成224*224*1的Attention map矩阵。
一种基于Attention机制的训练图片压缩网络的构建系统,该系统包括,
重构图片获取模块,用于将训练图片进行压缩和解压获取重构图片,同时获取熵编码R;
Attention map生成模块,用于利用改进的Vgg网络生产关于一个图片的Attention map;
损失函数获取模块,用于在训练压缩和解压网络过程中获取损失函数,公式如下:
Loss=R+λD;
其中,D是通过训练图片和重构图片之间对应点的MSE获得;λ表示Attention Map矩阵;R表示熵编码参数;
作为优选,所述重构图片获取模块包括,
编码器,用于对训练图片进行编码,得到编码后的特征图;编码器使用一个3层的神经网络,每一层包括一个卷积、一个下采样和一个Relu激活函数;
量化器,用于对特征图进行量化,得到量化后的特征图;
熵编码器,用于对量化后特征图进行熵编码,得到熵编码参数;
解码器,用于对量化后的特征图进行解码,得到重构图片;解码器使用一个3层的神经网络,每一层包括一个反卷积、一个上采样和一个Relu激活函数。
作为优选,所述Vgg网络的改进具体如下:去掉Vgg中的全连接网络,在最后一个卷积层后面加上一个depthwise_conv2d和一个global pooling层;再接一个全连接层;其中,Vgg网络使用mageNet数据集进行训练。
作为优选,所述Attention Map矩阵获取过程如下:
对于训练好的Vgg网络,通过输入一张大小为224*224*3的图片,获得该图片的一个Conv_last,大小为14*14*1024;
global pooling层和Fc输出层之间加入W,W表示1024*1000的矩阵,通过转置运算符,获得一个W_transpose为1000*1024;
从W_transpose选择预测类别最大的那一行的1024个元素,转置成为一个1024*1的矩阵;
把Conv_last矩阵进行双线性差值,成为一个224*224*1024的矩阵;
将224*224*1024的矩阵通过reshape操作变成一个50176*1024的矩阵;
把50176*1024的矩阵与1024*1的矩阵相乘,得到一个50176*1的矩阵;
将50176*1的矩阵进行转置变成224*224*1的Attention map矩阵。
本发明的基于Attention机制的训练图片压缩网络的构建方法及系统具有以下优点:
(一)传统方法的深度学习图片压缩方法,损失函数为R+λD,该损失函数对于图片中前景和背景都是利用相同的λ值,本发明中引入图片的Attention Map进行λ的构造,使前景拥有更大的λ值,背景拥有更小的λ,这样不同像素点会对应不同的Attention值,这样使得在同样压缩比的情况下,解压后的图像视觉效果更好;
(二)本发明和其他的传统的方法JPEG、BPG和CNN相比,在更小的压缩比下,还训练图片的效果差不多;
(三)本发明使用一个Attention Map去为图片中的每个像素点赋予不同的权值,从而使得深度网络在解压的时候,生成一个视觉效果上比较好的图片;
(四)本发明主要提出使用Attention进行图片压缩技术,在进行图片压缩时,可以有选择对图片不同区域采用不同的压缩能力,对不是很看重的地方着重进行压缩,对于比较看重的地方,尽可能保持图片的原有信息,为了实现这种效果,引入一个Attention机制,该机制针对不同的像素点生成不同的大小的权重,权重越大代表越看重图片的这部分信息,越小表示图片这部分信息不重要,可以适当的进行缩减。
附图说明
下面结合附图对本发明进一步说明。
附图1为基于Attention机制的训练图片压缩网络的构建方法示意图;
附图2为编码器的示意图;
附图3为解码器的示意图。
具体实施方式
参照说明书附图和具体实施例对本发明的基于Attention机制的训练图片压缩网络的构建方法及系统作以下详细地说明。
实施例1:
如附图1所示,本发明的基于Attention机制的训练图片压缩网络的构建方法,该方法具体如下:
S1、将训练图片进行压缩和解压获取重构图片,同时获取熵编码R;具体如下:
S101、通过编码器对训练图片进行编码,得到编码后的特征图;如附图2所示,编码器使用一个3层的神经网络,每一层包括一个卷积、一个下采样和一个Relu激活函数;
S102、通过量化器对特征图进行量化,得到量化后的特征图;
S103、同时通过熵编码器对量化后特征图进行熵编码,得到熵编码参数;
S104、通过解码器对量化后的特征图进行解码,得到重构图片;如附图3所示,解码器使用一个3层的神经网络,每一层包括一个反卷积、一个上采样和一个Relu激活函数。
S2、利用改进的Vgg网络生产关于一个图片的Attention map;Vgg网络的改进具体如下:去掉Vgg中的全连接网络,在最后一个卷积层后面加上一个depthwise_conv2d和一个global pooling层;再接一个全连接层。Vgg网络使用mageNet数据集进行训练。由于我们使用ImageNet数据集进行训练,因此最后一个全连接层,我们使用1000个神经元。
S3、在训练压缩和解压网络过程中获取损失函数,公式如下:
Loss=R+λD;
其中,D是通过训练图片和重构图片之间对应点的MSE获得(MSE为训练图片与重构图片相减后的平方和);
λ表示Attention Map矩阵;R表示熵编码参数。其中,Attention Map会在看重的物体地方矩阵点的值比较大,背景处的值比较小,因为λ起到一个trade off的功能,用于平衡码流大小和率失真。如果图片上的某个像素点对应Attention Map上的数值比较大,就使用更大的码流去存储。对应AttentionMap的数值比较小,就使用更小的码流去存储。因此这使得压缩和解压网络增加一定的选择性功能。
其中,Attention Map矩阵获取过程如下:
S301、对于训练好的Vgg网络,通过输入一张大小为224*224*3的图片,获得该图片的一个Conv_last,大小为14*14*1024;
S302、global pooling层和Fc输出层之间加入W,W表示1024*1000的矩阵,通过转置运算符,获得一个W_transpose为1000*1024;
S303、从W_transpose选择预测类别最大的那一行的1024个元素,转置成为一个1024*1的矩阵;
S304、把Conv_last矩阵进行双线性差值,成为一个224*224*1024的矩阵;
S305、将224*224*1024的矩阵通过reshape操作变成一个50176*1024的矩阵;
S306、把50176*1024的矩阵与1024*1的矩阵相乘,得到一个50176*1的矩阵;
S307、将50176*1的矩阵进行转置变成224*224*1的Attention map矩阵。
实施例2:
本发明的基于Attention机制的训练图片压缩网络的构建系统,该系统包括,
重构图片获取模块,用于将训练图片进行压缩和解压获取重构图片,同时获取熵编码R;重构图片获取模块包括,
编码器,用于对训练图片进行编码,得到编码后的特征图;编码器使用一个3层的神经网络,每一层包括一个卷积、一个下采样和一个Relu激活函数;
量化器,用于对特征图进行量化,得到量化后的特征图;
熵编码器,用于对量化后特征图进行熵编码,得到熵编码参数;
解码器,用于对量化后的特征图进行解码,得到重构图片;解码器使用一个3层的神经网络,每一层包括一个反卷积、一个上采样和一个Relu激活函数。
Attention map生成模块,用于利用改进的Vgg网络生产关于一个图片的Attention map;Vgg网络的改进具体如下:去掉Vgg中的全连接网络,在最后一个卷积层后面加上一个depthwise_conv2d和一个global pooling层;再接一个全连接层;其中,Vgg网络使用mageNet数据集进行训练。
损失函数获取模块,用于在训练压缩和解压网络过程中获取损失函数,公式如下:
Loss=R+λD;
其中,D是通过训练图片和重构图片之间对应点的MSE获得;λ表示Attention Map矩阵;R表示熵编码参数;Attention Map矩阵获取过程如下:
(1)、对于训练好的Vgg网络,通过输入一张大小为224*224*3的图片,获得该图片的一个Conv_last,大小为14*14*1024;
(2)、global pooling层和Fc输出层之间加入W,W表示1024*1000的矩阵,通过转置运算符,获得一个W_transpose为1000*1024;
(3)、从W_transpose选择预测类别最大的那一行的1024个元素,转置成为一个1024*1的矩阵;
(4)、把Conv_last矩阵进行双线性差值,成为一个224*224*1024的矩阵;
(5)、将224*224*1024的矩阵通过reshape操作变成一个50176*1024的矩阵;
(6)、把50176*1024的矩阵与1024*1的矩阵相乘,得到一个50176*1的矩阵;
(7)、将50176*1的矩阵进行转置变成224*224*1的Attention map矩阵。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (5)
1.一种基于Attention机制的训练图片压缩网络的构建方法,其特征在于,该方法具体如下:
将训练图片进行压缩和解压获取重构图片,同时获取熵编码R;
利用改进的Vgg网络生产关于一个图片的Attention map;
在训练压缩和解压网络过程中获取损失函数,公式如下:
Loss=R+λD;
其中,D是通过训练图片和重构图片之间对应点的MSE获得;λ表示Attention Map矩阵;R表示熵编码参数;
其中,Vgg网络的改进具体如下:去掉Vgg中的全连接网络,在最后一个卷积层后面加上一个depthwise_conv2d和一个global pooling层;再接一个全连接层;Vgg网络使用mageNet数据集进行训练;
Attention Map矩阵获取过程如下:
对于训练好的Vgg网络,通过输入一张大小为224*224*3的图片,获得该图片的一个Conv_last,大小为14*14*1024;
global pooling层和Fc输出层之间加入W,W表示1024*1000的矩阵,通过转置运算符,获得一个W_transpose为1000*1024;
从W_transpose选择预测类别最大的那一行的1024个元素,转置成为一个1024*1的矩阵;
把Conv_last矩阵进行双线性差值,成为一个224*224*1024的矩阵;
将224*224*1024的矩阵通过reshape操作变成一个50176*1024的矩阵;
把50176*1024的矩阵与1024*1的矩阵相乘,得到一个50176*1的矩阵;
将50176*1的矩阵进行转置变成224*224*1的Attention map矩阵。
2.根据权利要求1所述的基于Attention机制的训练图片压缩网络的构建方法,其特征在于,所述获取重构图片,同时获取熵编码R具体如下:
通过编码器对训练图片进行编码,得到编码后的特征图;
通过量化器对特征图进行量化,得到量化后的特征图;
同时通过熵编码器对量化后特征图进行熵编码,得到熵编码参数;
通过解码器对量化后的特征图进行解码,得到重构图片。
3.根据权利要求2所述的基于Attention机制的训练图片压缩网络的构建方法,其特征在于,所述编码器使用一个3层的神经网络,每一层包括一个卷积、一个下采样和一个Relu激活函数;
所述解码器使用一个3层的神经网络,每一层包括一个反卷积、一个上采样和一个Relu激活函数。
4.一种基于Attention机制的训练图片压缩网络的构建系统,其特征在于,该系统包括,
重构图片获取模块,用于将训练图片进行压缩和解压获取重构图片,同时获取熵编码R;
Attention map生成模块,用于利用改进的Vgg网络生产关于一个图片的Attentionmap;
损失函数获取模块,用于在训练压缩和解压网络过程中获取损失函数,公式如下:
Loss=R+λD;
其中,D是通过训练图片和重构图片之间对应点的MSE获得;λ表示Attention Map矩阵;R表示熵编码参数;
Vgg网络的改进具体如下:去掉Vgg中的全连接网络,在最后一个卷积层后面加上一个depthwise_conv2d和一个global pooling层;再接一个全连接层;其中,Vgg网络使用mageNet数据集进行训练;
Attention Map矩阵获取过程如下:
对于训练好的Vgg网络,通过输入一张大小为224*224*3的图片,获得该图片的一个Conv_last,大小为14*14*1024;
global pooling层和Fc输出层之间加入W,W表示1024*1000的矩阵,通过转置运算符,获得一个W_transpose为1000*1024;
从W_transpose选择预测类别最大的那一行的1024个元素,转置成为一个1024*1的矩阵;
把Conv_last矩阵进行双线性差值,成为一个224*224*1024的矩阵;
将224*224*1024的矩阵通过reshape操作变成一个50176*1024的矩阵;
把50176*1024的矩阵与1024*1的矩阵相乘,得到一个50176*1的矩阵;
将50176*1的矩阵进行转置变成224*224*1的Attention map矩阵。
5.根据权利要求4所述的基于Attention机制的训练图片压缩网络的构建系统,其特征在于,所述重构图片获取模块包括,
编码器,用于对训练图片进行编码,得到编码后的特征图;编码器使用一个3层的神经网络,每一层包括一个卷积、一个下采样和一个Relu激活函数;
量化器,用于对特征图进行量化,得到量化后的特征图;
熵编码器,用于对量化后特征图进行熵编码,得到熵编码参数;
解码器,用于对量化后的特征图进行解码,得到重构图片;解码器使用一个3层的神经网络,每一层包括一个反卷积、一个上采样和一个Relu激活函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911347886.6A CN111080729B (zh) | 2019-12-24 | 2019-12-24 | 基于Attention机制的训练图片压缩网络的构建方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911347886.6A CN111080729B (zh) | 2019-12-24 | 2019-12-24 | 基于Attention机制的训练图片压缩网络的构建方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111080729A CN111080729A (zh) | 2020-04-28 |
CN111080729B true CN111080729B (zh) | 2023-06-13 |
Family
ID=70317325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911347886.6A Active CN111080729B (zh) | 2019-12-24 | 2019-12-24 | 基于Attention机制的训练图片压缩网络的构建方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111080729B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113762452B (zh) * | 2020-06-04 | 2024-01-02 | 合肥君正科技有限公司 | 一种量化prelu激活函数的方法 |
CN113450421B (zh) * | 2021-07-16 | 2022-07-01 | 中国电子科技集团公司第二十八研究所 | 一种基于增强深度学习的无人机侦察图像压缩与解压方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102186076A (zh) * | 2011-04-29 | 2011-09-14 | 中国科学院光电技术研究所 | 一种实时码率预分配的图像压缩方法及图像压缩装置 |
CN106649542A (zh) * | 2015-11-03 | 2017-05-10 | 百度(美国)有限责任公司 | 用于视觉问答的系统和方法 |
CN108243129A (zh) * | 2017-12-15 | 2018-07-03 | 西安电子科技大学 | 基于注意力深度网络的无线电信号特征提取方法 |
CN110263874A (zh) * | 2019-06-27 | 2019-09-20 | 山东浪潮人工智能研究院有限公司 | 一种基于注意力关系图学习的图像分类方法及装置 |
CN110298387A (zh) * | 2019-06-10 | 2019-10-01 | 天津大学 | 融入像素级attention机制的深度神经网络目标检测方法 |
CN110348487A (zh) * | 2019-06-13 | 2019-10-18 | 武汉大学 | 一种基于深度学习的高光谱图像压缩方法及装置 |
CN110363716A (zh) * | 2019-06-25 | 2019-10-22 | 北京工业大学 | 一种基于条件生成对抗网络复合降质图像高质量重建方法 |
CN110378895A (zh) * | 2019-07-25 | 2019-10-25 | 山东浪潮人工智能研究院有限公司 | 一种基于深度注意力学习的乳腺癌图像识别方法 |
CN110555458A (zh) * | 2019-07-24 | 2019-12-10 | 中北大学 | 基于注意力机制生成对抗网络的多波段图像特征级融合方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190205700A1 (en) * | 2017-12-29 | 2019-07-04 | Uber Technologies, Inc. | Multiscale analysis of areas of interest in an image |
-
2019
- 2019-12-24 CN CN201911347886.6A patent/CN111080729B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102186076A (zh) * | 2011-04-29 | 2011-09-14 | 中国科学院光电技术研究所 | 一种实时码率预分配的图像压缩方法及图像压缩装置 |
CN106649542A (zh) * | 2015-11-03 | 2017-05-10 | 百度(美国)有限责任公司 | 用于视觉问答的系统和方法 |
CN108243129A (zh) * | 2017-12-15 | 2018-07-03 | 西安电子科技大学 | 基于注意力深度网络的无线电信号特征提取方法 |
CN110298387A (zh) * | 2019-06-10 | 2019-10-01 | 天津大学 | 融入像素级attention机制的深度神经网络目标检测方法 |
CN110348487A (zh) * | 2019-06-13 | 2019-10-18 | 武汉大学 | 一种基于深度学习的高光谱图像压缩方法及装置 |
CN110363716A (zh) * | 2019-06-25 | 2019-10-22 | 北京工业大学 | 一种基于条件生成对抗网络复合降质图像高质量重建方法 |
CN110263874A (zh) * | 2019-06-27 | 2019-09-20 | 山东浪潮人工智能研究院有限公司 | 一种基于注意力关系图学习的图像分类方法及装置 |
CN110555458A (zh) * | 2019-07-24 | 2019-12-10 | 中北大学 | 基于注意力机制生成对抗网络的多波段图像特征级融合方法 |
CN110378895A (zh) * | 2019-07-25 | 2019-10-25 | 山东浪潮人工智能研究院有限公司 | 一种基于深度注意力学习的乳腺癌图像识别方法 |
Non-Patent Citations (1)
Title |
---|
翟强 ; 王陆洋 ; 殷保群 ; 彭思凡 ; 邢思思 ; .基于尺度自适应卷积神经网络的人群计数算法.计算机工程.(第02期), * |
Also Published As
Publication number | Publication date |
---|---|
CN111080729A (zh) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cheng et al. | Learned image compression with discretized gaussian mixture likelihoods and attention modules | |
CN110087092B (zh) | 基于图像重构卷积神经网络的低码率视频编解码方法 | |
US20200160565A1 (en) | Methods And Apparatuses For Learned Image Compression | |
WO2020237646A1 (zh) | 图像处理方法、设备及计算机可读存储介质 | |
CN111246206B (zh) | 一种基于自编码器的光流信息压缩方法及装置 | |
CN102792695A (zh) | 通过使用大变换单元对图像进行编码和解码的方法和设备 | |
CN110099280B (zh) | 一种无线自组织网络带宽受限下的视频业务质量增强方法 | |
CN113079378B (zh) | 图像处理方法、装置和电子设备 | |
CN111641826B (zh) | 对数据进行编码、解码的方法、装置与系统 | |
CN111080729B (zh) | 基于Attention机制的训练图片压缩网络的构建方法及系统 | |
CN113822147A (zh) | 一种协同机器语义任务的深度压缩方法 | |
Akbari et al. | Learned multi-resolution variable-rate image compression with octave-based residual blocks | |
Fu et al. | An extended hybrid image compression based on soft-to-hard quantification | |
Ma et al. | A cross channel context model for latents in deep image compression | |
CN109274682B (zh) | 数据处理方法及其设备 | |
CN106559668B (zh) | 一种基于智能量化技术的低码率图像压缩方法 | |
Huang et al. | Multi-channel multi-loss deep learning based compression model for color images | |
WO2023225808A1 (en) | Learned image compress ion and decompression using long and short attention module | |
CN116980611A (zh) | 图像压缩方法、装置、设备、计算机程序产品及介质 | |
CN107205151B (zh) | 基于混合失真度量准则的编解码装置及方法 | |
CN111131834B (zh) | 可逆自编码器、编解码方法以及图像压缩方法、装置 | |
Ayyoubzadeh et al. | Lossless compression of mosaic images with convolutional neural network prediction | |
CN111343458A (zh) | 一种基于重建残差的稀疏灰度图像编解码方法及系统 | |
CN117915107B (zh) | 图像压缩系统、图像压缩方法、存储介质与芯片 | |
CN114697632B (zh) | 一种基于双向条件编码的端到端立体图像压缩方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230512 Address after: Building S02, 1036 Gaoxin Langchao Road, Jinan, Shandong 250100 Applicant after: Shandong Inspur Scientific Research Institute Co.,Ltd. Address before: North 6th floor, S05 building, Langchao Science Park, 1036 Langchao Road, hi tech Zone, Jinan City, Shandong Province, 250100 Applicant before: SHANDONG INSPUR ARTIFICIAL INTELLIGENCE RESEARCH INSTITUTE Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |