CN114782565A - 基于神经网络的数字档案馆图像压缩、存储、恢复方法 - Google Patents

基于神经网络的数字档案馆图像压缩、存储、恢复方法 Download PDF

Info

Publication number
CN114782565A
CN114782565A CN202210710539.0A CN202210710539A CN114782565A CN 114782565 A CN114782565 A CN 114782565A CN 202210710539 A CN202210710539 A CN 202210710539A CN 114782565 A CN114782565 A CN 114782565A
Authority
CN
China
Prior art keywords
neural network
layer
image
output
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210710539.0A
Other languages
English (en)
Inventor
周力
余晓红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Souyou Digital Technology Co ltd
Original Assignee
Wuhan Souyou Digital Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Souyou Digital Technology Co ltd filed Critical Wuhan Souyou Digital Technology Co ltd
Priority to CN202210710539.0A priority Critical patent/CN114782565A/zh
Publication of CN114782565A publication Critical patent/CN114782565A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于神经网络的数字档案馆图像压缩、存储、恢复方法,包括:将像素为H ×W的3通道彩色图像的灰度矩阵转换成向量;设计输入层与输出层神经元数量一致且隐含层的神经元的数量远小于输入层神经元数量的3层的全连接神经网络;训练设计的全连接神经网络;将待压缩的彩色图像输入训练好的全连接神经网络中,进行从输入层到隐含层的转换并提取对应的隐含层数据,得到压缩后的图像数据;在关系型数据库中新建与隐含层的神经元的数量相同的浮点类型的数值型字段,将压缩后的图像数据进行存储;将压缩后的图像数据,进行隐含层到输出层的转换,恢复图像数据;该方法占用更少的数据库存储空间,压缩、恢复过程是接近无损的。

Description

基于神经网络的数字档案馆图像压缩、存储、恢复方法
技术领域
本发明属于图像处理领域,具体涉及一种基于神经网络的数字档案馆图像压缩、存储、恢复方法。
背景技术
随着多媒体数据库特别是图像库的广泛使用,图像检索技术对现代数字档案馆建设具有十分重要的意义。
在数字档案馆中,一个典型场景下的图像检索流程涉及到3项具体的技术及其实现:图像的压缩、图像在数据库中的存储、压缩后图像数据的恢复。图像采用何种压缩方法决定了图像在数据库中的存储及相似度计算方法的选型。业界主流的图像压缩方法是将图像以jpg格式保存在文件中,jpg既是一种图像文件格式,也是一种图像压缩技术,jpg格式的图像文件可以以二级制数据流的形式直接存储在关系型数据库中,压缩后的图像数据相对于压缩前有较大的质量损失,以现有的技术无法从压缩后的数据恢复到压缩前的状态。
上述以jpg压缩技术为核心的图像压缩、图像存储、图像恢复流程,存在的缺陷是:jpg压缩是有损压缩,压缩率越高,图像质量的损失也就越严重,jpg图像的计算及存储的效率与图像质量不可兼顾,为了确保较高的计算效率以及占用较少的存储空间,而采用较高的压缩率,使得图像的质量损失严重,为了降低图像质量的损失而采用较低的压缩率,又会导致较低的计算效率以及占用更多的存储空间。其它常见的有损图像压缩技术也会存在类似的问题。
为了解决以jpg压缩技术为代表的传统图像压缩技术存在的上述缺陷,本专利创新性地提出了一种新的近似无损的图像压缩方法:设计一个3层的全连接神经网络,输入是原始图像的灰度值向量,输出是一个尺寸与输入一致且数值非常接近的灰度值向量,正常情况下的图像的像素都不低于100万像素,因此输入层和输出层的神经元的数量都不会低于100万,为了达到图像压缩的目的,中间的隐含层的神经元的数量远低于100万,图像从输入层转换到隐含层的过程中,神经元数量急剧降低,达到了数据压缩的目的,从隐含层转换到输出层,神经元的数量又恢复到与原始图像保持一致且输出值与原始灰度向量非常接近,这就意味着从隐含层的数据可以近似无损地恢复为原始图像数据。在海量的图像上训练这个3层的神经网络,训练完成后,对于新的待压缩的图像,首先将这这张图象输入进该神经网络中并进行从输入层到输出层的转换,并提取对应的隐含层数据,就得到了这张图象的无损压缩数据,该图像压缩后数据可以直接以浮点类型的形式存储在数据库中。提取对应的输出数据,就是从压缩后的数据恢复得到的图像数据,3层神经网络的训练确保了该图像的原始数据与压缩后恢复的数据非常接近,质量上的损失相较于传统的有损图像压缩技术非常小。
发明内容
针对现有技术的以上缺陷或改进需求,本发明要解决的是现有技术中以jpg压缩技术为核心的图像压缩、图像存储、图像恢复流程,存在的缺陷是:jpg压缩是有损压缩,压缩率越高,图像质量的损失也就越严重,jpg图像的计算及存储的效率与图像质量不可兼顾的问题。
为了实现上述目的,本发明涉及一种基于神经网络的数字档案馆图像压缩、存储、恢复方法,包括如下步骤:
步骤1:将像素为H×W的3通道彩色图像的灰度矩阵转换成向量;
步骤2:设计一个输入层与输出层神经元数量相同且隐含层的神经元的数量远小于输入层神经元数量的3层的全连接神经网络;
步骤3:采集彩色图像数据,在训练数据上通过反向传播算法求解这个无约束优化问题,训练步骤2中设计的全连接神经网络;该神经网络的损失函数是输入与输出的误差平方和;该神经网络的训练目标是损失函数的最小化;
步骤4:将待压缩的彩色图像输入步骤3训练好的全连接神经网络中,进行从输入层到隐含层的转换并提取对应的隐含层数据,得到压缩后的图像数据;
步骤5:在关系型数据库中新建与隐含层的神经元的数量相同的浮点类型的数值型字段,将步骤四中得到的压缩后的图像数据进行存储;
步骤6:将压缩后的图像数据,进行隐含层到输出层的转换,即可进行图像数据的恢复。
进一步的,所述步骤1的具体方法为:对像素为H×W的3通道彩色图像进行向量化处理;彩色图像的3个通道按照红绿蓝的排列顺序对应着3个尺寸均为H×W的灰度值矩阵R、 G、B,将这三个矩阵依次按行展开成3个灰度值向量,每个向量的长度都是H×W,再把这三个向量拼接成一个长度为3×H×W的灰度值向量;将这个长为3×H×W的灰度值向量记为x
进一步的,所述步骤2的具体方法为:设计一个3层的全连接神经网络,输入层(第1层)和输出层(第3层)的神经元的数量均是3×H×W,中间层的神经元的数量是M,为了达到压缩图像的目的,要求M远小于3×H×W;在对神经网络进行训练之前各层的参数都是未知的。
进一步的,所述为了确保较高的图像压缩率,M的值不超过3×H×W的1/10。
进一步的,所述3层的全连接神经网络,该神经网络的输入层到隐含层的转换过程为:设隐含层(中间层)有M个神经元, M个神经元的非线性激活函数是:
Figure 185010DEST_PATH_IMAGE001
则从输入层到隐含层的转换公式为:
Figure 948567DEST_PATH_IMAGE002
其中,
Figure 798842DEST_PATH_IMAGE003
行1列的矩阵
Figure 218322DEST_PATH_IMAGE004
存储隐含层
Figure 694303DEST_PATH_IMAGE003
个神经元的输出值,W
Figure 515629DEST_PATH_IMAGE003
Figure 458177DEST_PATH_IMAGE005
列参数矩阵,b
Figure 974740DEST_PATH_IMAGE003
行1列的参数矩阵,其中参数矩阵W、b及
Figure 129778DEST_PATH_IMAGE003
个神经元的非线性 激活函数:
Figure 602347DEST_PATH_IMAGE006
的参数都为未知待求量。
进一步的,所述3层的全连接神经网络,该神经网络的隐含层到输出层转换过程为:设输出层有3×H×W个神经元,它们的非线性激活函数是:
Figure 43693DEST_PATH_IMAGE007
则从隐含层到输出层的转换公式为:
Figure 437765DEST_PATH_IMAGE008
其中,
Figure 927652DEST_PATH_IMAGE009
行1列的矩阵
Figure 598936DEST_PATH_IMAGE010
存储输出层
Figure 86549DEST_PATH_IMAGE009
个神经元的输出值,
Figure 499076DEST_PATH_IMAGE011
Figure 120550DEST_PATH_IMAGE009
Figure 505395DEST_PATH_IMAGE012
列参数矩阵,
Figure 304855DEST_PATH_IMAGE013
Figure 470257DEST_PATH_IMAGE009
行1列的参数矩阵,
Figure 505209DEST_PATH_IMAGE010
是代表从压缩 后的数据中恢复的
Figure 869195DEST_PATH_IMAGE009
行1列的图像数据矩阵;其中参数矩阵
Figure 760927DEST_PATH_IMAGE011
Figure 351309DEST_PATH_IMAGE013
及输出层 的
Figure 799739DEST_PATH_IMAGE009
个神经元的非线性激活函数
Figure 221493DEST_PATH_IMAGE014
的参 数都为未知待求量。
进一步的,所述步骤3具体方法为:采集
Figure 487389DEST_PATH_IMAGE015
张尺寸均为
Figure 424121DEST_PATH_IMAGE016
的3通道的图像,设它 们的灰度值列向量分别是
Figure 800876DEST_PATH_IMAGE017
,将
Figure 77136DEST_PATH_IMAGE017
输入进该神经网络后,对应的输 出向量分别是
Figure 389300DEST_PATH_IMAGE018
,为了确保从压缩后的数据
Figure 688694DEST_PATH_IMAGE019
中能尽可能地恢复输入图 像的原始数据,要求输入与输出尽可能地接近,针对该神经网络地训练设计了如下的损失 函数:
Figure 665878DEST_PATH_IMAGE020
其中
Figure 390120DEST_PATH_IMAGE021
是向量
Figure 997819DEST_PATH_IMAGE022
与自身的点积运算,N是正整 数,损失函数是对应图像的输入与输出之差的平方再求和,衡量了第i张训练图像的输入与 输出之间的接近程度;使用反向传播算法来求解无约束优化问题:
Figure 394296DEST_PATH_IMAGE023
可以得到:W , b , W out , b out , f middle,1 , f middle,2 , … , f middle , M , f out,1 , f out,2 , … , f out,3×H×W
中的所有未知参数的估计值,min是最小化函数符号,求解这个优化问题的过程也就是对该神经网络进行训练的过程;损失函数loss的最小化确保输入与输出接近。所以基于该神经网络来对图像进行压缩是近似无损的。
进一步的,所述步骤4的具体方法为:对于任意一张采集的且尺寸为
Figure 175170DEST_PATH_IMAGE024
的3通 道彩色图像,提取该图像的长为
Figure 629286DEST_PATH_IMAGE025
的灰度值向量
Figure 266940DEST_PATH_IMAGE026
,输入进步骤3训练好的全连接 神经网络中,则该图像压缩后的数据是如下的
Figure 540927DEST_PATH_IMAGE027
维列向量:
Figure 859913DEST_PATH_IMAGE028
进一步的,所述步骤5的具体方法为:在关系型数据库中新建M个浮点类型的数值型字段,将步骤4得到的无损压缩数据进行存储。
进一步的,所述步骤6的具体方法为:针对步骤5中存储的近似无损压缩后的数据,也就是隐含层的数据,进行步骤3训练好的3层神经网络隐含层到输出层的转换公式,得到待压缩图像的输出向量,由于神经网络的训练确保了原始图像的灰度向量与神经网络的输出向量非常接近,确保了待压缩图像的输出向量与压缩前的图像数据非常接近,这就完成了压缩后图像的恢复。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
本发明的基于神经网络的数字档案馆图像压缩、存储、恢复方法,使用3层神经网络压缩图像,该压缩方法相较于传统的图像压缩方法占用更少的数据库存储空间,压缩及恢复过程是接近无损的,确保能够从压缩后的数据中尽可能完整地复原出压缩前的原始图像信息。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明涉及一种接近无损的图像压缩方法,使用该压缩方法对原始图像进行压缩,压缩后的图像数据可以占用较少的数据库存储空间,压缩后的图像可以近似无损地恢复为压缩前地状态;具体包括如下步骤:
(1)图像的向量描述
一张像素为
Figure 43900DEST_PATH_IMAGE024
的彩色图像,横向像素点数为
Figure 727823DEST_PATH_IMAGE029
,纵向像素点数为
Figure 551422DEST_PATH_IMAGE030
,该图像 有3个颜色通道,3个通道按照红绿蓝的排列顺序对应着3个尺寸均为
Figure 736416DEST_PATH_IMAGE024
的灰度值矩阵
Figure 899544DEST_PATH_IMAGE031
Figure 895313DEST_PATH_IMAGE032
Figure 940629DEST_PATH_IMAGE033
,将这三个矩阵依次按行展开成3个灰度值向量,每个向量的长度都是
Figure 804680DEST_PATH_IMAGE024
,再 把这三个向量拼接成一个长度为
Figure 946948DEST_PATH_IMAGE034
的灰度值向量,将这个长为
Figure 238253DEST_PATH_IMAGE034
的灰 度值向量记为
Figure 770865DEST_PATH_IMAGE035
(2)用于图像压缩的神经网络设计及训练
设计一个3层的全连接神经网络,输入层(第1层)和输出层(第3层)的神经元的数 量均是
Figure 313973DEST_PATH_IMAGE034
,中间层的神经元的数量是
Figure 186114DEST_PATH_IMAGE027
,为了达到压缩图像的目的,要求
Figure 445057DEST_PATH_IMAGE027
远小 于
Figure 792862DEST_PATH_IMAGE034
设隐含层(中间层)的
Figure 998715DEST_PATH_IMAGE027
个神经元的非线性激活函数是:
Figure 866308DEST_PATH_IMAGE036
则从输入层到隐含层的转换公式为:
Figure 296152DEST_PATH_IMAGE037
其中,
Figure 741040DEST_PATH_IMAGE027
行1列的矩阵
Figure 875218DEST_PATH_IMAGE038
存储隐含层
Figure 518689DEST_PATH_IMAGE027
个神经元的输出值,
Figure 588277DEST_PATH_IMAGE029
Figure 118529DEST_PATH_IMAGE027
Figure 931764DEST_PATH_IMAGE034
列参数矩阵,
Figure 429741DEST_PATH_IMAGE039
Figure 529284DEST_PATH_IMAGE027
行1列的参数矩阵,
Figure 948764DEST_PATH_IMAGE035
是代表输入图像的
Figure 96849DEST_PATH_IMAGE034
行1列 的矩阵。
设输出层的
Figure 527961DEST_PATH_IMAGE034
个神经元的非线性激活函数是:
Figure 939351DEST_PATH_IMAGE040
则从隐含层到输出层的转换公式为
Figure 642865DEST_PATH_IMAGE041
其中,
Figure 922537DEST_PATH_IMAGE034
行1列的矩阵
Figure 332789DEST_PATH_IMAGE042
存储输出层
Figure 790447DEST_PATH_IMAGE034
个神经元的输出值,
Figure 981257DEST_PATH_IMAGE043
Figure 408827DEST_PATH_IMAGE034
Figure 329378DEST_PATH_IMAGE027
列参数矩阵,
Figure 613729DEST_PATH_IMAGE044
Figure 495097DEST_PATH_IMAGE034
行1列的参数矩阵,
Figure 601725DEST_PATH_IMAGE042
是代表从压 缩后的数据中恢复的
Figure 48887DEST_PATH_IMAGE034
行1列的图像数据矩阵。
在对上述神经网络进行训练之前,参数矩阵
Figure 972980DEST_PATH_IMAGE045
以及激活函数:
Figure 935120DEST_PATH_IMAGE046
的参数 均是未知的,训练这个神经网络的目的就是为了得到所有未知参数的值。
采集
Figure 970072DEST_PATH_IMAGE047
张尺寸均为
Figure 537320DEST_PATH_IMAGE024
的3通道的图像,设它们的灰度值列向量分别是
Figure 507681DEST_PATH_IMAGE048
,将
Figure 832483DEST_PATH_IMAGE049
输入进该神经网络后,对应的输出向量分别是
Figure 795760DEST_PATH_IMAGE050
,为了确保从压缩后的数据
Figure 217514DEST_PATH_IMAGE038
中能尽可能地恢复输入图像的原始数据, 要求输入与输出尽可能地接近,为此针对该神经网络地训练设计了如下的损失函数:
Figure 483410DEST_PATH_IMAGE051
其中
Figure 170875DEST_PATH_IMAGE052
是向量
Figure 547629DEST_PATH_IMAGE053
与自身的点积运算,衡量了第i次训练图像 的输入与输出之间的接近程度,通过反向传播算法求解无约束优化问题。
Figure 823890DEST_PATH_IMAGE023
可以得到:W , b , W out , b out , f middle,1 , f middle,2 , … , f middle , M , f out,1 , f out,2 , … , f out,3×H×W
中的所有未知参数的估计值, min是最小化函数符号,求解这个优化问题的过程 也就是对该神经网络进行训练的过程;损失函数
Figure 385321DEST_PATH_IMAGE054
的最小化确保了输入与输出尽可能地 接近,所以基于该神经网络来对图像进行压缩是近似无损的。
(3)压缩后图像在数据库中的存储
对于(2)中涉及到的3层神经网络,训练完成后,所有参数
Figure 684716DEST_PATH_IMAGE055
均是已知值,对于任意一张采集的且尺寸为
Figure 661899DEST_PATH_IMAGE024
的图像,提取该图像的长为
Figure 871294DEST_PATH_IMAGE034
的灰度值向量
Figure 213414DEST_PATH_IMAGE035
,输入进(2)中涉及到的3层神经网络中,则该图像压缩后的数 据是如下的
Figure 390317DEST_PATH_IMAGE027
维列向量
Figure 374454DEST_PATH_IMAGE056
只需在关系型数据库中新建
Figure 359728DEST_PATH_IMAGE027
个浮点类型的数值型字段,就可以将压缩后的图像 数据
Figure 13694DEST_PATH_IMAGE038
存储,由于
Figure 287680DEST_PATH_IMAGE027
远小于
Figure 934562DEST_PATH_IMAGE034
,所以相较于传统的jpg压缩方法,
Figure 39922DEST_PATH_IMAGE038
能 够占用更少的数据库存储空间。
(4) 压缩后图像数据的恢复
对于(3)中涉及到的被压缩的图像,也就是隐含层的数据,执行对(2)中涉及到的3层神经网络的隐含层到输出层的转换,转换后的输出层的具体计算公式为:
Figure 989423DEST_PATH_IMAGE057
上述
Figure 891651DEST_PATH_IMAGE034
维列向量就是输出层的数据,也即是彩色图像从压缩后的数据 进行恢复得到的数据。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,包括如下步骤:
步骤1:将像素为H×W的3通道彩色图像的灰度矩阵转换成向量;
步骤2:设计一个输入层与输出层神经元数量相同且隐含层的神经元的数量远小于输入层神经元数量的3层的全连接神经网络;
步骤3:采集彩色图像数据,在训练数据上通过反向传播算法求解这个无约束优化问题,训练步骤2中设计的全连接神经网络;该神经网络的损失函数是输入与输出的误差平方和;该神经网络的训练目标是损失函数的最小化;
步骤4:将待压缩的彩色图像输入步骤3训练好的全连接神经网络中,进行从输入层到隐含层的转换并提取对应的隐含层数据,得到压缩后的图像数据;
步骤5:在关系型数据库中新建与隐含层的神经元的数量相同的浮点类型的数值型字段,将步骤四中得到的压缩后的图像数据进行存储;
步骤6:将压缩后的图像数据,进行隐含层到输出层的转换,即可进行图像数据的恢复。
2.根据权利要求1所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述步骤1的具体方法为:对像素为H×W的3通道彩色图像进行向量化处理;彩色图像的3个通道按照红绿蓝的排列顺序对应着3个尺寸均为H×W的灰度值矩阵R、G、B,将这三个矩阵依次按行展开成3个灰度值向量,每个向量的长度都是H×W,再把这三个向量拼接成一个长度为3×H×W的灰度值向量;将这个长为3×H×W的灰度值向量记为x
3.根据权利要求1所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述步骤2的具体方法为:设计一个3层的全连接神经网络,输入层和输出层的神经元的数量均是3×H×W,中间层的神经元的数量是M,为了达到压缩图像的目的,要求M远小于3×H×W;在对神经网络进行训练之前各层的参数都是未知的。
4.根据权利要求3所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述为了确保较高的图像压缩率,M的值不超过3×H×W的1/10。
5.根据权利要求3所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述3层的全连接神经网络,该神经网络的输入层到隐含层的转换过程为:设隐含层有M个神经元, M个神经元的非线性激活函数是:
Figure 807114DEST_PATH_IMAGE001
则从输入层到隐含层的转换公式为:
Figure 94876DEST_PATH_IMAGE002
其中,
Figure 215278DEST_PATH_IMAGE003
行1列的矩阵
Figure 339223DEST_PATH_IMAGE004
存储隐含层
Figure 203274DEST_PATH_IMAGE003
个神经元的输出值,W
Figure 283225DEST_PATH_IMAGE003
Figure 433584DEST_PATH_IMAGE005
列 参数矩阵,b
Figure 169459DEST_PATH_IMAGE003
行1列的参数矩阵,其中参数矩阵W、b及
Figure 712567DEST_PATH_IMAGE003
个神经元的非线性激活函数:
Figure 647025DEST_PATH_IMAGE006
的参数都为未知待求量。
6.根据权利要求3所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述3层的全连接神经网络,该神经网络的隐含层到输出层转换过程为:设输出层有3×H×W个神经元,它们的非线性激活函数是:
Figure 109230DEST_PATH_IMAGE007
则从隐含层到输出层的转换公式为:
Figure 191456DEST_PATH_IMAGE008
其中,
Figure 397309DEST_PATH_IMAGE009
行1列的矩阵
Figure 186274DEST_PATH_IMAGE010
存储输出层
Figure 960326DEST_PATH_IMAGE009
个神经元的输出值,
Figure 405213DEST_PATH_IMAGE011
Figure 273812DEST_PATH_IMAGE009
Figure 182862DEST_PATH_IMAGE012
列参数矩阵,
Figure 986870DEST_PATH_IMAGE013
Figure 794421DEST_PATH_IMAGE009
行1列的参数矩阵,
Figure 342077DEST_PATH_IMAGE010
是代表从压缩后的数 据中恢复的
Figure 105633DEST_PATH_IMAGE009
行1列的图像数据矩阵;其中参数矩阵
Figure 205176DEST_PATH_IMAGE011
Figure 624656DEST_PATH_IMAGE013
及输出层的
Figure 772741DEST_PATH_IMAGE009
个神经元的非线性激活函数
Figure 469433DEST_PATH_IMAGE014
的 参数都为未知待求量。
7.根据权利要求6所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特 征在于,所述步骤3具体方法为:采集
Figure 880822DEST_PATH_IMAGE015
张尺寸均为
Figure 646653DEST_PATH_IMAGE016
的3通道的图像,设它们的灰度 值列向量分别是
Figure 536112DEST_PATH_IMAGE017
,将输入进该神经网络后,对应的输出向量分别是
Figure 274260DEST_PATH_IMAGE018
,针对该神经网络地训练设计了如下的损失函数:
Figure 731918DEST_PATH_IMAGE019
其中
Figure 860411DEST_PATH_IMAGE020
是向量
Figure 678194DEST_PATH_IMAGE021
与自身的点积运算,N是正整数,损 失函数是对应图像的输入与输出之差的平方再求和,衡量了第i张训练图像的输入与输出 之间的接近程度;使用反向传播算法来求解无约束优化问题:
Figure 5270DEST_PATH_IMAGE022
可以得到:W , b , W out , b out , f middle,1 , f middle,2 , … , f middle , M , f out,1 , f out,2 , … , f out,3×H×W 中的所有未知参数的估计值,min为最小化函数符号,求解这个优化问题的过程也就是对该神经网络进行训练的过程;损失函数loss的最小化确保输入与输出接近。
8.根据权利要求5所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特 征在于,所述步骤4的具体方法为:对于任意一张采集的且尺寸为
Figure 758463DEST_PATH_IMAGE023
的3通道彩色图 像,提取该图像的长为
Figure 249618DEST_PATH_IMAGE024
的灰度值向量
Figure 746458DEST_PATH_IMAGE025
,输入进步骤3训练好的全连接神经网 络中,则该图像压缩后的数据是如下的
Figure 193620DEST_PATH_IMAGE026
维列向量:
Figure 976768DEST_PATH_IMAGE027
9.根据权利要求8所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述步骤5的具体方法为:在关系型数据库中新建M个浮点类型的数值型字段,将步骤4得到的无损压缩数据进行存储。
10.根据权利要求1-9任一权利要求所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述步骤6的具体方法为:针对步骤5中存储的近似无损压缩后的数据,也就是隐含层的数据,进行步骤3训练好的3层神经网络隐含层到输出层的转换公式,得到待压缩图像的输出向量,完成压缩后图像的恢复。
CN202210710539.0A 2022-06-22 2022-06-22 基于神经网络的数字档案馆图像压缩、存储、恢复方法 Pending CN114782565A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210710539.0A CN114782565A (zh) 2022-06-22 2022-06-22 基于神经网络的数字档案馆图像压缩、存储、恢复方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210710539.0A CN114782565A (zh) 2022-06-22 2022-06-22 基于神经网络的数字档案馆图像压缩、存储、恢复方法

Publications (1)

Publication Number Publication Date
CN114782565A true CN114782565A (zh) 2022-07-22

Family

ID=82422281

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210710539.0A Pending CN114782565A (zh) 2022-06-22 2022-06-22 基于神经网络的数字档案馆图像压缩、存储、恢复方法

Country Status (1)

Country Link
CN (1) CN114782565A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117313562A (zh) * 2023-11-30 2023-12-29 西华大学 适用于机载防撞系统的逻辑表压缩方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101795344A (zh) * 2010-03-02 2010-08-04 北京大学 数字全息图像压缩、解码方法及系统、传输方法及系统
CN105976408A (zh) * 2016-04-28 2016-09-28 北京大学 一种量子逆向传播神经网络的数字全息压缩传输方法
CN109919864A (zh) * 2019-02-20 2019-06-21 重庆邮电大学 一种基于稀疏去噪自编码网络的图像压缩感知方法
CN110956669A (zh) * 2019-11-11 2020-04-03 珠海格力电器股份有限公司 一种图像压缩编码方法及系统
CN111681293A (zh) * 2020-06-09 2020-09-18 西南交通大学 一种基于卷积神经网络的sar图像压缩方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101795344A (zh) * 2010-03-02 2010-08-04 北京大学 数字全息图像压缩、解码方法及系统、传输方法及系统
CN105976408A (zh) * 2016-04-28 2016-09-28 北京大学 一种量子逆向传播神经网络的数字全息压缩传输方法
CN109919864A (zh) * 2019-02-20 2019-06-21 重庆邮电大学 一种基于稀疏去噪自编码网络的图像压缩感知方法
CN110956669A (zh) * 2019-11-11 2020-04-03 珠海格力电器股份有限公司 一种图像压缩编码方法及系统
CN111681293A (zh) * 2020-06-09 2020-09-18 西南交通大学 一种基于卷积神经网络的sar图像压缩方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘立程: "基于BP人工神经网络的图像压缩技术过程及分析", 《微计算机信息》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117313562A (zh) * 2023-11-30 2023-12-29 西华大学 适用于机载防撞系统的逻辑表压缩方法
CN117313562B (zh) * 2023-11-30 2024-02-27 西华大学 适用于机载防撞系统的逻辑表压缩方法

Similar Documents

Publication Publication Date Title
CN108537731B (zh) 基于压缩多尺度特征融合网络的图像超分辨率重建方法
CN112991183B (zh) 一种基于多帧注意力机制渐进式融合的视频超分辨率方法
CN111861961A (zh) 单幅图像超分辨率的多尺度残差融合模型及其复原方法
CN110287770B (zh) 一种基于卷积神经网络的水中个体目标匹配识别方法
CN111986188A (zh) 基于Resnet与LSTM的胶囊机器人排水管网缺陷识别方法
CN114782565A (zh) 基于神经网络的数字档案馆图像压缩、存储、恢复方法
CN112699844A (zh) 一种基于多尺度残差层级密连接网络的图像超分辨率方法
CN115660955A (zh) 高效多注意力特征融合的超分辨率重建模型、方法、设备及存储介质
CN115618051A (zh) 一种基于互联网的智慧校园监控视频存储方法
CN111199237A (zh) 一种基于注意力的卷积神经网络分频特征提取方法
CN114897704A (zh) 一种基于反馈机制的单图像超分辨率算法
CN113505856A (zh) 一种高光谱影像无监督自适应分类方法
CN113362239A (zh) 一种基于特征交互的深度学习图像修复方法
CN116777745A (zh) 一种基于稀疏自适应聚类的图像超分辨率重建方法
CN108550111B (zh) 一种基于多级字典学习的残差实例回归超分辨重建方法
CN116309078A (zh) 一种基于多角度知识蒸馏的单幅图像超分辨率方法
CN115375537A (zh) 非线性感知多尺度的超分辨率图像生成系统及方法
CN114245126A (zh) 一种纹理协同的深度特征图压缩方法
CN112308772A (zh) 基于深度学习局部与非局部信息的超分辨率重建方法
Chen et al. Residual based hierarchical feature compression for multi-task machine vision
CN112699929B (zh) 一种多监督递归学习的深度网络多源光谱图像融合方法
CN115035377A (zh) 基于双流编码和交互解码的显著性检测网络系统
Song et al. Reference-based JPEG image artifacts removal
Zhang et al. Hybrid Adaptive Enhanced Network for Single Image Super Resolution
CN117456017A (zh) 一种基于上下文聚类变换的端到端图像压缩方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20220722