CN114782565A - 基于神经网络的数字档案馆图像压缩、存储、恢复方法 - Google Patents
基于神经网络的数字档案馆图像压缩、存储、恢复方法 Download PDFInfo
- Publication number
- CN114782565A CN114782565A CN202210710539.0A CN202210710539A CN114782565A CN 114782565 A CN114782565 A CN 114782565A CN 202210710539 A CN202210710539 A CN 202210710539A CN 114782565 A CN114782565 A CN 114782565A
- Authority
- CN
- China
- Prior art keywords
- neural network
- layer
- image
- output
- neurons
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 63
- 238000007906 compression Methods 0.000 title claims abstract description 59
- 230000006835 compression Effects 0.000 title claims abstract description 57
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000003860 storage Methods 0.000 title claims abstract description 28
- 238000011084 recovery Methods 0.000 title claims abstract description 19
- 239000013598 vector Substances 0.000 claims abstract description 45
- 239000011159 matrix material Substances 0.000 claims abstract description 35
- 210000002569 neuron Anatomy 0.000 claims abstract description 32
- 238000012549 training Methods 0.000 claims abstract description 25
- 238000007667 floating Methods 0.000 claims abstract description 7
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 10
- 238000005457 optimization Methods 0.000 claims description 8
- 238000010295 mobile communication Methods 0.000 claims description 5
- 239000000126 substance Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- QVRVXSZKCXFBTE-UHFFFAOYSA-N n-[4-(6,7-dimethoxy-3,4-dihydro-1h-isoquinolin-2-yl)butyl]-2-(2-fluoroethoxy)-5-methylbenzamide Chemical compound C1C=2C=C(OC)C(OC)=CC=2CCN1CCCCNC(=O)C1=CC(C)=CC=C1OCCF QVRVXSZKCXFBTE-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于神经网络的数字档案馆图像压缩、存储、恢复方法,包括:将像素为H ×W的3通道彩色图像的灰度矩阵转换成向量;设计输入层与输出层神经元数量一致且隐含层的神经元的数量远小于输入层神经元数量的3层的全连接神经网络;训练设计的全连接神经网络;将待压缩的彩色图像输入训练好的全连接神经网络中,进行从输入层到隐含层的转换并提取对应的隐含层数据,得到压缩后的图像数据;在关系型数据库中新建与隐含层的神经元的数量相同的浮点类型的数值型字段,将压缩后的图像数据进行存储;将压缩后的图像数据,进行隐含层到输出层的转换,恢复图像数据;该方法占用更少的数据库存储空间,压缩、恢复过程是接近无损的。
Description
技术领域
本发明属于图像处理领域,具体涉及一种基于神经网络的数字档案馆图像压缩、存储、恢复方法。
背景技术
随着多媒体数据库特别是图像库的广泛使用,图像检索技术对现代数字档案馆建设具有十分重要的意义。
在数字档案馆中,一个典型场景下的图像检索流程涉及到3项具体的技术及其实现:图像的压缩、图像在数据库中的存储、压缩后图像数据的恢复。图像采用何种压缩方法决定了图像在数据库中的存储及相似度计算方法的选型。业界主流的图像压缩方法是将图像以jpg格式保存在文件中,jpg既是一种图像文件格式,也是一种图像压缩技术,jpg格式的图像文件可以以二级制数据流的形式直接存储在关系型数据库中,压缩后的图像数据相对于压缩前有较大的质量损失,以现有的技术无法从压缩后的数据恢复到压缩前的状态。
上述以jpg压缩技术为核心的图像压缩、图像存储、图像恢复流程,存在的缺陷是:jpg压缩是有损压缩,压缩率越高,图像质量的损失也就越严重,jpg图像的计算及存储的效率与图像质量不可兼顾,为了确保较高的计算效率以及占用较少的存储空间,而采用较高的压缩率,使得图像的质量损失严重,为了降低图像质量的损失而采用较低的压缩率,又会导致较低的计算效率以及占用更多的存储空间。其它常见的有损图像压缩技术也会存在类似的问题。
为了解决以jpg压缩技术为代表的传统图像压缩技术存在的上述缺陷,本专利创新性地提出了一种新的近似无损的图像压缩方法:设计一个3层的全连接神经网络,输入是原始图像的灰度值向量,输出是一个尺寸与输入一致且数值非常接近的灰度值向量,正常情况下的图像的像素都不低于100万像素,因此输入层和输出层的神经元的数量都不会低于100万,为了达到图像压缩的目的,中间的隐含层的神经元的数量远低于100万,图像从输入层转换到隐含层的过程中,神经元数量急剧降低,达到了数据压缩的目的,从隐含层转换到输出层,神经元的数量又恢复到与原始图像保持一致且输出值与原始灰度向量非常接近,这就意味着从隐含层的数据可以近似无损地恢复为原始图像数据。在海量的图像上训练这个3层的神经网络,训练完成后,对于新的待压缩的图像,首先将这这张图象输入进该神经网络中并进行从输入层到输出层的转换,并提取对应的隐含层数据,就得到了这张图象的无损压缩数据,该图像压缩后数据可以直接以浮点类型的形式存储在数据库中。提取对应的输出数据,就是从压缩后的数据恢复得到的图像数据,3层神经网络的训练确保了该图像的原始数据与压缩后恢复的数据非常接近,质量上的损失相较于传统的有损图像压缩技术非常小。
发明内容
针对现有技术的以上缺陷或改进需求,本发明要解决的是现有技术中以jpg压缩技术为核心的图像压缩、图像存储、图像恢复流程,存在的缺陷是:jpg压缩是有损压缩,压缩率越高,图像质量的损失也就越严重,jpg图像的计算及存储的效率与图像质量不可兼顾的问题。
为了实现上述目的,本发明涉及一种基于神经网络的数字档案馆图像压缩、存储、恢复方法,包括如下步骤:
步骤1:将像素为H×W的3通道彩色图像的灰度矩阵转换成向量;
步骤2:设计一个输入层与输出层神经元数量相同且隐含层的神经元的数量远小于输入层神经元数量的3层的全连接神经网络;
步骤3:采集彩色图像数据,在训练数据上通过反向传播算法求解这个无约束优化问题,训练步骤2中设计的全连接神经网络;该神经网络的损失函数是输入与输出的误差平方和;该神经网络的训练目标是损失函数的最小化;
步骤4:将待压缩的彩色图像输入步骤3训练好的全连接神经网络中,进行从输入层到隐含层的转换并提取对应的隐含层数据,得到压缩后的图像数据;
步骤5:在关系型数据库中新建与隐含层的神经元的数量相同的浮点类型的数值型字段,将步骤四中得到的压缩后的图像数据进行存储;
步骤6:将压缩后的图像数据,进行隐含层到输出层的转换,即可进行图像数据的恢复。
进一步的,所述步骤1的具体方法为:对像素为H×W的3通道彩色图像进行向量化处理;彩色图像的3个通道按照红绿蓝的排列顺序对应着3个尺寸均为H×W的灰度值矩阵R、 G、B,将这三个矩阵依次按行展开成3个灰度值向量,每个向量的长度都是H×W,再把这三个向量拼接成一个长度为3×H×W的灰度值向量;将这个长为3×H×W的灰度值向量记为x。
进一步的,所述步骤2的具体方法为:设计一个3层的全连接神经网络,输入层(第1层)和输出层(第3层)的神经元的数量均是3×H×W,中间层的神经元的数量是M,为了达到压缩图像的目的,要求M远小于3×H×W;在对神经网络进行训练之前各层的参数都是未知的。
进一步的,所述为了确保较高的图像压缩率,M的值不超过3×H×W的1/10。
进一步的,所述3层的全连接神经网络,该神经网络的输入层到隐含层的转换过程为:设隐含层(中间层)有M个神经元, M个神经元的非线性激活函数是:
则从输入层到隐含层的转换公式为:
进一步的,所述3层的全连接神经网络,该神经网络的隐含层到输出层转换过程为:设输出层有3×H×W个神经元,它们的非线性激活函数是:
则从隐含层到输出层的转换公式为:
其中, 行1列的矩阵存储输出层个神经元的输出值,是行列参数矩阵,是行1列的参数矩阵,是代表从压缩
后的数据中恢复的行1列的图像数据矩阵;其中参数矩阵、及输出层
的个神经元的非线性激活函数的参
数都为未知待求量。
进一步的,所述步骤3具体方法为:采集张尺寸均为的3通道的图像,设它
们的灰度值列向量分别是,将输入进该神经网络后,对应的输
出向量分别是,为了确保从压缩后的数据中能尽可能地恢复输入图
像的原始数据,要求输入与输出尽可能地接近,针对该神经网络地训练设计了如下的损失
函数:
可以得到:W , b , W out , b out , f middle,1 , f middle,2 , … , f middle , M , f out,1 , f out,2 , … , f out,3×H×W
中的所有未知参数的估计值,min是最小化函数符号,求解这个优化问题的过程也就是对该神经网络进行训练的过程;损失函数loss的最小化确保输入与输出接近。所以基于该神经网络来对图像进行压缩是近似无损的。
进一步的,所述步骤5的具体方法为:在关系型数据库中新建M个浮点类型的数值型字段,将步骤4得到的无损压缩数据进行存储。
进一步的,所述步骤6的具体方法为:针对步骤5中存储的近似无损压缩后的数据,也就是隐含层的数据,进行步骤3训练好的3层神经网络隐含层到输出层的转换公式,得到待压缩图像的输出向量,由于神经网络的训练确保了原始图像的灰度向量与神经网络的输出向量非常接近,确保了待压缩图像的输出向量与压缩前的图像数据非常接近,这就完成了压缩后图像的恢复。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
本发明的基于神经网络的数字档案馆图像压缩、存储、恢复方法,使用3层神经网络压缩图像,该压缩方法相较于传统的图像压缩方法占用更少的数据库存储空间,压缩及恢复过程是接近无损的,确保能够从压缩后的数据中尽可能完整地复原出压缩前的原始图像信息。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明涉及一种接近无损的图像压缩方法,使用该压缩方法对原始图像进行压缩,压缩后的图像数据可以占用较少的数据库存储空间,压缩后的图像可以近似无损地恢复为压缩前地状态;具体包括如下步骤:
(1)图像的向量描述
一张像素为的彩色图像,横向像素点数为,纵向像素点数为,该图像
有3个颜色通道,3个通道按照红绿蓝的排列顺序对应着3个尺寸均为的灰度值矩阵、、,将这三个矩阵依次按行展开成3个灰度值向量,每个向量的长度都是,再
把这三个向量拼接成一个长度为的灰度值向量,将这个长为的灰
度值向量记为。
(2)用于图像压缩的神经网络设计及训练
则从输入层到隐含层的转换公式为:
则从隐含层到输出层的转换公式为
采集张尺寸均为的3通道的图像,设它们的灰度值列向量分别是,将输入进该神经网络后,对应的输出向量分别是,为了确保从压缩后的数据中能尽可能地恢复输入图像的原始数据,
要求输入与输出尽可能地接近,为此针对该神经网络地训练设计了如下的损失函数:
可以得到:W , b , W out , b out , f middle,1 , f middle,2 , … , f middle , M , f out,1 , f out,2 , … , f out,3×H×W
中的所有未知参数的估计值, min是最小化函数符号,求解这个优化问题的过程
也就是对该神经网络进行训练的过程;损失函数的最小化确保了输入与输出尽可能地
接近,所以基于该神经网络来对图像进行压缩是近似无损的。
(3)压缩后图像在数据库中的存储
对于(2)中涉及到的3层神经网络,训练完成后,所有参数
(4) 压缩后图像数据的恢复
对于(3)中涉及到的被压缩的图像,也就是隐含层的数据,执行对(2)中涉及到的3层神经网络的隐含层到输出层的转换,转换后的输出层的具体计算公式为:
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,包括如下步骤:
步骤1:将像素为H×W的3通道彩色图像的灰度矩阵转换成向量;
步骤2:设计一个输入层与输出层神经元数量相同且隐含层的神经元的数量远小于输入层神经元数量的3层的全连接神经网络;
步骤3:采集彩色图像数据,在训练数据上通过反向传播算法求解这个无约束优化问题,训练步骤2中设计的全连接神经网络;该神经网络的损失函数是输入与输出的误差平方和;该神经网络的训练目标是损失函数的最小化;
步骤4:将待压缩的彩色图像输入步骤3训练好的全连接神经网络中,进行从输入层到隐含层的转换并提取对应的隐含层数据,得到压缩后的图像数据;
步骤5:在关系型数据库中新建与隐含层的神经元的数量相同的浮点类型的数值型字段,将步骤四中得到的压缩后的图像数据进行存储;
步骤6:将压缩后的图像数据,进行隐含层到输出层的转换,即可进行图像数据的恢复。
2.根据权利要求1所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述步骤1的具体方法为:对像素为H×W的3通道彩色图像进行向量化处理;彩色图像的3个通道按照红绿蓝的排列顺序对应着3个尺寸均为H×W的灰度值矩阵R、G、B,将这三个矩阵依次按行展开成3个灰度值向量,每个向量的长度都是H×W,再把这三个向量拼接成一个长度为3×H×W的灰度值向量;将这个长为3×H×W的灰度值向量记为x。
3.根据权利要求1所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述步骤2的具体方法为:设计一个3层的全连接神经网络,输入层和输出层的神经元的数量均是3×H×W,中间层的神经元的数量是M,为了达到压缩图像的目的,要求M远小于3×H×W;在对神经网络进行训练之前各层的参数都是未知的。
4.根据权利要求3所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述为了确保较高的图像压缩率,M的值不超过3×H×W的1/10。
7.根据权利要求6所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特
征在于,所述步骤3具体方法为:采集张尺寸均为的3通道的图像,设它们的灰度
值列向量分别是,将输入进该神经网络后,对应的输出向量分别是,针对该神经网络地训练设计了如下的损失函数:
可以得到:W , b , W out , b out , f middle,1 , f middle,2 , … , f middle , M , f out,1 , f out,2 , … , f out,3×H×W 中的所有未知参数的估计值,min为最小化函数符号,求解这个优化问题的过程也就是对该神经网络进行训练的过程;损失函数loss的最小化确保输入与输出接近。
9.根据权利要求8所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述步骤5的具体方法为:在关系型数据库中新建M个浮点类型的数值型字段,将步骤4得到的无损压缩数据进行存储。
10.根据权利要求1-9任一权利要求所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述步骤6的具体方法为:针对步骤5中存储的近似无损压缩后的数据,也就是隐含层的数据,进行步骤3训练好的3层神经网络隐含层到输出层的转换公式,得到待压缩图像的输出向量,完成压缩后图像的恢复。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210710539.0A CN114782565A (zh) | 2022-06-22 | 2022-06-22 | 基于神经网络的数字档案馆图像压缩、存储、恢复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210710539.0A CN114782565A (zh) | 2022-06-22 | 2022-06-22 | 基于神经网络的数字档案馆图像压缩、存储、恢复方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114782565A true CN114782565A (zh) | 2022-07-22 |
Family
ID=82422281
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210710539.0A Pending CN114782565A (zh) | 2022-06-22 | 2022-06-22 | 基于神经网络的数字档案馆图像压缩、存储、恢复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114782565A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117313562A (zh) * | 2023-11-30 | 2023-12-29 | 西华大学 | 适用于机载防撞系统的逻辑表压缩方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101795344A (zh) * | 2010-03-02 | 2010-08-04 | 北京大学 | 数字全息图像压缩、解码方法及系统、传输方法及系统 |
CN105976408A (zh) * | 2016-04-28 | 2016-09-28 | 北京大学 | 一种量子逆向传播神经网络的数字全息压缩传输方法 |
CN109919864A (zh) * | 2019-02-20 | 2019-06-21 | 重庆邮电大学 | 一种基于稀疏去噪自编码网络的图像压缩感知方法 |
CN110956669A (zh) * | 2019-11-11 | 2020-04-03 | 珠海格力电器股份有限公司 | 一种图像压缩编码方法及系统 |
CN111681293A (zh) * | 2020-06-09 | 2020-09-18 | 西南交通大学 | 一种基于卷积神经网络的sar图像压缩方法 |
-
2022
- 2022-06-22 CN CN202210710539.0A patent/CN114782565A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101795344A (zh) * | 2010-03-02 | 2010-08-04 | 北京大学 | 数字全息图像压缩、解码方法及系统、传输方法及系统 |
CN105976408A (zh) * | 2016-04-28 | 2016-09-28 | 北京大学 | 一种量子逆向传播神经网络的数字全息压缩传输方法 |
CN109919864A (zh) * | 2019-02-20 | 2019-06-21 | 重庆邮电大学 | 一种基于稀疏去噪自编码网络的图像压缩感知方法 |
CN110956669A (zh) * | 2019-11-11 | 2020-04-03 | 珠海格力电器股份有限公司 | 一种图像压缩编码方法及系统 |
CN111681293A (zh) * | 2020-06-09 | 2020-09-18 | 西南交通大学 | 一种基于卷积神经网络的sar图像压缩方法 |
Non-Patent Citations (1)
Title |
---|
刘立程: "基于BP人工神经网络的图像压缩技术过程及分析", 《微计算机信息》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117313562A (zh) * | 2023-11-30 | 2023-12-29 | 西华大学 | 适用于机载防撞系统的逻辑表压缩方法 |
CN117313562B (zh) * | 2023-11-30 | 2024-02-27 | 西华大学 | 适用于机载防撞系统的逻辑表压缩方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537731B (zh) | 基于压缩多尺度特征融合网络的图像超分辨率重建方法 | |
CN112991183B (zh) | 一种基于多帧注意力机制渐进式融合的视频超分辨率方法 | |
CN111861961A (zh) | 单幅图像超分辨率的多尺度残差融合模型及其复原方法 | |
CN110287770B (zh) | 一种基于卷积神经网络的水中个体目标匹配识别方法 | |
CN111986188A (zh) | 基于Resnet与LSTM的胶囊机器人排水管网缺陷识别方法 | |
CN114782565A (zh) | 基于神经网络的数字档案馆图像压缩、存储、恢复方法 | |
CN112699844A (zh) | 一种基于多尺度残差层级密连接网络的图像超分辨率方法 | |
CN115660955A (zh) | 高效多注意力特征融合的超分辨率重建模型、方法、设备及存储介质 | |
CN115618051A (zh) | 一种基于互联网的智慧校园监控视频存储方法 | |
CN111199237A (zh) | 一种基于注意力的卷积神经网络分频特征提取方法 | |
CN114897704A (zh) | 一种基于反馈机制的单图像超分辨率算法 | |
CN113505856A (zh) | 一种高光谱影像无监督自适应分类方法 | |
CN113362239A (zh) | 一种基于特征交互的深度学习图像修复方法 | |
CN116777745A (zh) | 一种基于稀疏自适应聚类的图像超分辨率重建方法 | |
CN108550111B (zh) | 一种基于多级字典学习的残差实例回归超分辨重建方法 | |
CN116309078A (zh) | 一种基于多角度知识蒸馏的单幅图像超分辨率方法 | |
CN115375537A (zh) | 非线性感知多尺度的超分辨率图像生成系统及方法 | |
CN114245126A (zh) | 一种纹理协同的深度特征图压缩方法 | |
CN112308772A (zh) | 基于深度学习局部与非局部信息的超分辨率重建方法 | |
Chen et al. | Residual based hierarchical feature compression for multi-task machine vision | |
CN112699929B (zh) | 一种多监督递归学习的深度网络多源光谱图像融合方法 | |
CN115035377A (zh) | 基于双流编码和交互解码的显著性检测网络系统 | |
Song et al. | Reference-based JPEG image artifacts removal | |
Zhang et al. | Hybrid Adaptive Enhanced Network for Single Image Super Resolution | |
CN117456017A (zh) | 一种基于上下文聚类变换的端到端图像压缩方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220722 |