CN115147501A - 图片解压方法、装置、终端设备以及存储介质 - Google Patents

图片解压方法、装置、终端设备以及存储介质 Download PDF

Info

Publication number
CN115147501A
CN115147501A CN202211075975.1A CN202211075975A CN115147501A CN 115147501 A CN115147501 A CN 115147501A CN 202211075975 A CN202211075975 A CN 202211075975A CN 115147501 A CN115147501 A CN 115147501A
Authority
CN
China
Prior art keywords
picture
decompression
model
picture decompression
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211075975.1A
Other languages
English (en)
Other versions
CN115147501B (zh
Inventor
陈涛涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Mingyuan Cloud Technology Co Ltd
Original Assignee
Shenzhen Mingyuan Cloud Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Mingyuan Cloud Technology Co Ltd filed Critical Shenzhen Mingyuan Cloud Technology Co Ltd
Priority to CN202211075975.1A priority Critical patent/CN115147501B/zh
Publication of CN115147501A publication Critical patent/CN115147501A/zh
Application granted granted Critical
Publication of CN115147501B publication Critical patent/CN115147501B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本申请公开了一种图片解压方法、装置、终端设备以及存储介质,其图片解压方法包括:确定待解压图片的关注区域;将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图,所述图片解压模型基于预设的神经网络训练得到。本申请解决了图片整体解压的效率低的问题,提升图片解压效率。

Description

图片解压方法、装置、终端设备以及存储介质
技术领域
本申请涉及图片处理领域,尤其涉及一种图片解压方法、装置、终端设备以及存储介质。
背景技术
现如今是一个数据爆炸的信息时代,基于工作和生活,不断地产生图片数据。
目前传统的图片压缩算法,主要利用了相邻像素值相近的原理进行图片的压缩、解压,例如SVD算法、PCA算法等。
针对不同的应用场景,只需要对图片的某一个区域进行查看和处理。但是,从网际网络或其它图像档案数据库中得到的各种格式的图片数据,本身具有一定的冗余性,且传统的图片压缩算法是整体压缩的,在解压时需要完整还原整个图片,消耗大量的内存计算。如此,使用传统的图片压缩算法解压图片需要进行大量的计算,导致图片解压的效率低。
发明内容
本申请的主要目的在于提供一种图片解压方法、装置、终端设备以及存储介质,旨在解决图片整体解压的效率低的问题,提升图片解压效率。
为实现上述目的,本申请提供一种图片解压方法,所述图片解压方法包括:
确定待解压图片的关注区域;
将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图,所述图片解压模型基于预设的神经网络训练得到。
可选地,所述将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图的步骤包括:
创建所述图片解压模型,具体包括:
针对预设的数据转换规则,获取图片训练集;
创建所述神经网络;
基于所述神经网络,构建得到初始图片解压模型;
将所述图片训练集输入所述初始图片解压模型中进行处理,得到训练结果,结合所述训练结果及预设的损失函数训练所述初始图片解压模型,得到创建后的图片解压模型。
可选地,所述神经网络包括隐藏层,所述基于所述神经网络,构建得到初始图片解压模型的步骤包括:
根据预设的图片压缩值,计算所述隐藏层的参数;
基于所述参数,初始化所神经网络的权重,构建得到所述初始图片解压模型。
可选地,所述将所述图片训练集输入所述初始图片解压模型中进行处理,得到训练结果,结合所述训练结果及预设的损失函数训练所述初始图片解压模型,得到创建后的图片解压模型的步骤包括:
针对所述图片训练集中的每一训练数据进行前馈传播,得到模拟值;
将所述模拟值与所述训练数据所对应的真实值进行对比,计算得到损失函数;
针对所述损失函数,得到对应的梯度向量;
将所述梯度向量的负方向回传到所述初始图片解压模型,对所述权重进行更新;并返回执行步骤:针对所述图片训练集中的每一训练数据进行前馈传播,得到模拟值;
以此循环,进行参数迭代,直到所述初始图片解压模型收敛,终止训练,得到所述图片解压模型。
可选地,所述图片解压方法还包括以下步骤:
获取待压缩图片;
将所述待压缩图片输入所述图片解压模型中进行压缩,得到压缩后的图片并存储。
可选地,所述确定待解压图片的关注区域的步骤包括:
将所述待解压图片进行堆叠,得到垂直方向、长方向、宽方向;
基于所述垂直方向、长方向、宽方向,确定所述关注区域,所述关注区域包括垂直方向闭区间、长方向闭区间、宽方向闭区间。
可选地,所述将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图的步骤包括:
针对所述垂直方向闭区间、长方向闭区间、宽方向闭区间,分别进行前馈传播,得到所述解压后的局部图。
本申请实施例还提出一种图片解压装置,所述图片解压装置包括:
区域确定模块,用于确定待解压图片的关注区域;
图片解压模块,用于将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图,所述图片解压模型基于预设的神经网络训练得到。
本申请实施例还提出一种终端设备,所述终端设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的图片解压程序,所述图片解压程序被所述处理器执行时实现如上所述的图片解压方法的步骤。
本申请实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有图片解压程序,所述图片解压程序被处理器执行时实现如上所述的图片解压方法的步骤。
本申请实施例提出的图片解压方法、装置、终端设备以及存储介质,通过确定待解压图片的关注区域;将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图,所述图片解压模型基于预设的神经网络训练得到。通过训练后的图片解压网络模型对图片进行解压,可以解决图片整体解压的效率低的问题,提升图片解压效率。基于本申请方案,从图片整体解压需要消耗大量的内存计算的问题出发,构建了一个基于数据转换规则的训练集,并在该数据集上验证了本申请提出的图片解压方法的有效性,最后经过本申请方法针对图片的局部区域所解压的效率得到了明显改善。
附图说明
图1为本申请图片解压装置所属终端设备的功能模块示意图;
图2为本申请图片解压方法第一示例性实施例的流程示意图;
图3为本申请图片解压方法的数据转换示意图;
图4为本申请图片解压方法第二示例性实施例的流程示意图;
图5为本申请图片解压方法第三示例性实施例的流程示意图;
图6为本申请图片解压方法第四示例性实施例的流程示意图;
图7为本申请图片解压方法第五示例性实施例的流程示意图;
图8为本申请图片解压方法第六示例性实施例的流程示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例的主要解决方案是:通过确定待解压图片的关注区域;将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图,所述图片解压模型基于预设的神经网络训练得到。通过训练后的图片解压网络模型对图片进行解压,可以解决图片整体解压的效率低的问题,提升图片解压效率。基于本申请方案,从图片整体解压需要进行大量计算的规律出发,构建了一个基于数据转换规则的训练集,并在该数据集上验证了本申请提出的图片解压方法的有效性,最后经过本申请方法解压照片的效率得到明显改善。
本申请实施例考虑到,针对不同的应用场景,只需要对图片的某一个区域进行查看和处理。但是,由于传统的图片压缩算法是整体压缩的,在解压时需要完整还原整个图片,且从网际网络或其它图像档案数据库中得到的各种格式的图片数据,本身有一定的冗余性,导致占据了大量的存储空间。如此,使用传统的图片压缩算法进行解压,就会占用大量的存储空间,存在明显的弊端。
因此,本申请实施例方案,从图片整体解压占用大量的存储空间的问题出发,结合神经网络的在图像数据方面的映射能力以及存储能力,设计一种适用于海量图片检查的图片的解压方案,解决图片整体解压占用过多存储空间的问题,节省存储空间。
具体地,参照图1,图1为本申请图片解压装置所属终端设备的功能模块示意图。该图片解压装置可以为独立于终端设备的、能够进行图片压缩、图片解压、网络模型训练的装置,其可以通过硬件或软件的形式承载于终端设备上。该终端设备可以为手机、平板电脑等具有数据处理功能的智能移动终端,还可以为具有数据处理功能的固定终端设备或服务器等。
在本实施例中,该图片解压装置所属终端设备至少包括输出模块110、处理器120、存储器130以及通信模块140。
存储器130中存储有操作系统以及图片解压程序,图片解压装置可以将确定的待解压图片的关注区域;将所述关注区域输入的预先创建的图片解压模型中进行解压,得到的解压后的局部图,基于预设的神经网络训练得到的所述图片解压模型等信息存储于该存储器130中;输出模块110可为显示屏等。通信模块140可以包括WIFI模块、移动通信模块以及蓝牙模块等,通过通信模块140与外部设备或服务器进行通信。
其中,存储器130中的图片解压程序被处理器执行时实现以下步骤:
确定待解压图片的关注区域;
将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图,所述图片解压模型基于预设的神经网络训练得到。
进一步地,存储器130中的图片解压程序被处理器执行时还实现以下步骤:
创建所述图片解压模型,具体包括:
针对预设的数据转换规则,获取图片训练集;
创建所述神经网络;
基于所述神经网络,构建得到初始图片解压模型;
将所述图片训练集输入所述初始图片解压模型中进行处理,得到训练结果,结合所述训练结果及预设的损失函数训练所述初始图片解压模型,得到创建后的图片解压模型。
进一步地,存储器130中的图片解压程序被处理器执行时还实现以下步骤:
根据预设的图片压缩值,计算所述隐藏层的参数;
基于所述参数,初始化所神经网络的权重,构建得到所述初始图片解压模型。
进一步地,存储器130中的图片解压程序被处理器执行时还实现以下步骤:
针对所述图片训练集中的每一训练数据进行前馈传播,得到模拟值;
将所述模拟值与所述训练数据所对应的真实值进行对比,计算得到损失函数;
针对所述损失函数,得到对应的梯度向量;
将所述梯度向量的负方向回传到所述初始图片解压模型,对所述权重进行更新;并返回执行步骤:针对所述图片训练集中的每一训练数据进行前馈传播,得到模拟值;
以此循环,进行参数迭代,直到所述初始图片解压模型收敛,终止训练,得到所述图片解压模型。
进一步地,存储器130中的图片解压程序被处理器执行时还实现以下步骤:
获取待压缩图片;
将所述待压缩图片输入所述图片解压模型中进行压缩,得到压缩后的图片并存储。
进一步地,存储器130中的图片解压程序被处理器执行时还实现以下步骤:
将所述待解压图片进行堆叠,得到垂直方向、长方向、宽方向;
基于所述垂直方向、长方向、宽方向,确定所述关注区域,所述关注区域包括垂直方向闭区间、长方向闭区间、宽方向闭区间。
进一步地,存储器130中的图片解压程序被处理器执行时还实现以下步骤:
针对所述垂直方向闭区间、长方向闭区间、宽方向闭区间,分别进行前馈传播,得到所述解压后的局部图。
本实施例通过上述方案,具体通过确定待解压图片的关注区域;将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图,所述图片解压模型基于预设的神经网络训练得到。通过训练后的图片解压网络模型对图片进行解压,可以解决图片整体解压的效率低的问题,提升图片解压效率。基于本申请方案,从图片整体解压需要消耗大量的内存计算的问题出发,构建了一个基于数据转换规则的训练集,并在该数据集上验证了本申请提出的图片解压方法的有效性,最后经过本申请方法针对图片的局部区域所解压的效率得到了明显改善。
基于上述终端设备架构但不限于上述架构,提出本申请方法实施例。
参照图2,图2为本申请图片解压方法第一示例性实施例的流程示意图。所述图片解压方法包括:
步骤S210,确定待解压图片的关注区域;
具体地,基于工作和生活,不断地产生图片数据,占用了大量的存储空间,同时,针对压缩的图片进行批量检查会消耗额外的计算能力。二者形成了矛盾。基于此背景,提出了一种适用于快速检查海量图片文件的解压方案。例如,对一批图片进行水印检查,由于水印通常在图片的右下角区域,也即,确定水印处于右下角,只需要解压右下角区域即可。
如图3所示,图3为本申请图片解压方法的数据转换示意图。将图片数据堆叠形成了多个截面,每个截面可是一张图片,将图片的长方向作为x,宽方向作为y,图片的垂直方向(即堆叠方向)作为z方向,可以将海量数据看作一个三维数据。
更具体地,确定关注区域的x、y和z的范围,得到三个方向的闭区间。然后,将闭区间输入到训练后的图片解压模型中,对区间内的x、y和z坐标进行前馈传播,即可计算出该坐标的像素值,并将三个像素值结合,如此,即可还原整个局部区间。
步骤S220,将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图,所述图片解压模型基于预设的神经网络训练得到。
具体地,神经网络用于映射:设三维数据当中某一图片的某一个像素当中存储的信息(实际上是保存该像素的颜色)为c,从x、y和z到c的映射c=f(x,y,z),那么可以通过多层循环,逐个界面逐个像素计算出颜色,就可以还原出整个三维数据,也即该映射本身已经包含了所有图片数据的信息。考虑到相邻像素值一般是相近的,因此映射应选择连续函数为佳。并且,到映射的参数越多,能表达的能力越强。因此,本实施例以神经网络作为优选,在其他实施例中,也可以是其他拥有映射能力的网络模型。将关注区域(x、y、z)输入到图片解压模型中进行解压,得到解压后的局部图,无需图片整体解压,且解压后的图片占用存储空间小,可以解决图片整体解压的效率低的问题,节省存储空间。
其中,训练图片解压模型的具体步骤可以包括:针对预设的数据转换规则,获取图片训练集;创建神经网络;基于神经网络,构建得到初始图片解压模型;将图片训练集输入初始图片解压模型中进行处理,得到训练结果,结合训练结果及预设的损失函数训练初始图片解压模型,得到创建后的图片解压模型。
本实施例通过上述方案,具体通过确定待解压图片的关注区域;将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图,所述图片解压模型基于预设的神经网络训练得到。通过训练后的图片解压网络模型对图片进行解压,可以解决图片整体解压的效率低的问题,提升图片解压效率。基于本申请方案,从图片整体解压需要消耗大量的内存计算的问题出发,构建了一个基于数据转换规则的训练集,并在该数据集上验证了本申请提出的图片解压方法的有效性,最后经过本申请方法针对图片的局部区域所解压的效率得到了明显改善。
参照图4,图4为本申请图片解压方法第二示例性实施例的流程示意图。基于上述图2所示的实施例,步骤S220,将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图,所述图片解压模型基于预设的神经网络训练得到的步骤之前,还包括:
创建所述图片解压模型,具体包括:
步骤S410,针对预设的数据转换规则,获取图片训练集;
需要说明的是,本实施例以步骤S310至步骤S340在步骤S210之前实施,在其他实施例中,也可以在步骤S210与步骤S220之间实施。
具体地,参考图3,将图片训练集中的图片数据堆叠形成了多个截面,每个截面可是一张图片,并将图片数据的长方向作为x,宽方向作为y,图片数据的垂直方向(即堆叠方向)作为z方向,可以将海量数据看作一个三维数据。
步骤S420,创建所述神经网络;
具体地,一个经典的神经网络是一个包含三个层次的。包括输入层、输出层、中间层(即隐藏层)。其中,输入层有3个单元,隐藏层有4个单元,输出层有2个单元,其中,单元即为神经元。需要说明的是,设计一个神经网络时,输入层与输出层的节点数为固定节点数,中间层则可以自由指定;神经网络结构中的拓扑与箭头代表着预测过程时数据的流向,跟训练时的数据流有一定的区别;连接线将神经元之间进行连接,且每个连接线对应一个不同的权重(其值称为权值),权重需要训练得到。
需要说明的是,神经网络用于映射:设三维数据当中某一图片的某一个像素当中存储的信息(实际上是保存该像素的颜色)为c,从x、y和z到c的映射c=f(x,y,z),那么可以通过多层循环,逐个界面逐个像素计算出颜色,就可以还原出整个三维数据,也即该映射本身已经包含了所有图片数据的信息。考虑到相邻像素值一般是相近的,因此映射应选择连续函数为佳。并且,到映射的参数越多,能表达的能力越强。因此,本实施例以神经网络作为优选,在其他实施例中,也可以是其他拥有映射能力的网络模型。
步骤S430,基于所述神经网络,构建得到初始图片解压模型;
具体地,在本实施例中,根据预设的图片压缩值,计算所述隐藏层的参数;基于参数,初始化所神经网络的权重,构建得到所述初始图片解压模型。
步骤S440,将所述图片训练集输入所述初始图片解压模型中进行处理,得到训练结果,结合所述训练结果及预设的损失函数训练所述初始图片解压模型,得到创建后的图片解压模型。
其中,训练初始图片解压模型的具体步骤可以如下:
针对图片训练集中的每一训练数据进行前馈传播,得到模拟值;将模拟值与训练数据所对应的真实值进行对比,得到对比结果;基于对比结果及损失函数,计算得到图片训练集的总损失参数;将总损失参数回传到初始图片解压模型,对权重进行更新;并返回执行步骤:针对图片训练集中的每一训练数据进行前馈传播,得到模拟值;以此循环,进行参数迭代,直到初始图片解压模型收敛,终止训练得到图片解压模型。
其中,损失函数包括但不限于交叉熵损失函数、Softmax函数。
本实施例通过上述方案,具体通过针对预设的数据转换规则,获取图片训练集;创建所述神经网络;基于所述神经网络,构建得到初始图片解压模型;将所述图片训练集输入所述初始图片解压模型中进行处理,得到训练结果,结合所述训练结果及预设的损失函数训练所述初始图片解压模型,得到创建后的图片解压模型。通过训练后的图片解压网络模型对图片进行解压,可以解决图片整体解压的效率低的问题,提升图片解压效率。基于本申请方案,从图片整体解压需要消耗大量的内存计算的问题出发,构建了一个基于数据转换规则的训练集,并在该数据集上验证了本申请提出的图片解压方法的有效性,最后经过本申请方法针对图片的局部区域所解压的效率得到了明显改善。
参照图5,图5为本申请图片解压方法第三示例性实施例的流程示意图。基于上述图4所示的实施例,所述神经网络包括隐藏层,步骤S430,基于所述神经网络,构建得到初始图片解压模型的步骤包括:
步骤S510,根据预设的图片压缩值,计算所述隐藏层的参数;
具体地,首先确定计划压缩后的大小,计算出神经网络的参数的数量。由于使用float32格式保存参数,每个参数占用空间4B,因此,每层隐藏层使用512个神经元,最后一个隐藏层受压缩大小限制神经元可以减少,同时考虑到输入输出维度均是3,因此压缩公式如下:
[(3+1)*512+(512+1)*512*(n-1)+(512+1)*y+(y+1)*3]*4=压缩后的大小
式中,n表示隐藏层的层数,y表示最后一层隐藏层的大小。
例如,目标大小为10MB,由此可以计算出n=10,y=495。
步骤S520,基于所述参数,初始化所神经网络的权重,构建得到所述初始图片解压模型。
具体地,逐层对神经网络的权重进行初始化,本实施例以正态分布作为优选,通过正态分布为初始图片解压模型进行随机赋值,构建得到初始图片解压模型。
本实施例通过上述方案,具体通过根据预设的图片压缩值,计算所述隐藏层的参数;基于所述参数,初始化所神经网络的权重,构建得到所述初始图片解压模型。通过根据预设的图片压缩值,并结合神经网络的映射能力,构建得到初始图片解压模型,使得能表达的能力明显加强,存储数据效果得到明显改善。
参照图6,图6为本申请图片解压方法第四示例性实施例的流程示意图。基于上述图5所示的实施例,步骤S440,将所述图片训练集输入所述初始图片解压模型中进行处理,得到训练结果,结合所述训练结果及预设的损失函数训练所述初始图片解压模型,得到创建后的图片解压模型的步骤包括:
步骤S610,针对所述图片训练集中的每一训练数据进行前馈传播,得到模拟值;
具体地,随机抽取一批次的坐标x、y、z,传入神经网络,进行前馈传播,得到坐标所对应的数据的模拟值。其中,批次大小可自行定义,本实施例对此不作限定。
步骤S620,将所述模拟值与所述训练数据所对应的真实值进行对比,计算得到损失函数;
具体地,将得到的模拟值与对应坐标下数据的真实值进行对比,计算出损失。并对损失函数求梯度向量,其梯度向量的负方向即是学习方向,也即,网络模型权重更新的方向。
步骤S630,针对所述损失函数,得到对应的梯度向量;
具体地,损失函数用于将随机事件或其有关随机变量的取值映射为非负实数,以表示该随机事件的损失的函数。在本实施例中,将得到的模拟值与对应坐标下的数据的真实值进行对比,计算出损失函数,并对损失函数求梯度向量,其梯度向量的负方向即是学习方向,也即初始图片解压模型的权重更新的方向。
步骤S640,将所述梯度向量的负方向回传到所述初始图片解压模型,对所述权重进行更新;并返回执行步骤:针对所述图片训练集中的每一训练数据进行前馈传播,得到模拟值;
具体地,根据学习方向和当前的学习率更新初始图片解压模型的权重,并重复循环,返回步骤S610,针对所述图片训练集中的每一训练数据进行前馈传播,得到模拟值,直到初始图片解压模型收敛,得到训练后的图片解压模型。
步骤S650,以此循环,进行参数迭代,直到所述初始图片解压模型收敛,终止训练,得到所述图片解压模型。
具体地,根据学习方向和当前的学习率更新初始图片解压模型的权重,并重复循环,返回步骤S610,针对所述图片训练集中的每一训练数据进行前馈传播,得到模拟值,直到初始图片解压模型收敛,得到训练后的图片解压模型。其中,训练的次数可以根据实际情况进行设定,例如,设定2-5次重复训练,得到训练后的图片解压模型。
本实施例通过上述方案,具体通过针对所述图片训练集中的每一训练数据进行前馈传播,得到模拟值;将所述模拟值与所述训练数据所对应的真实值进行对比,得到对比结果;基于所述对比结果及所述损失函数,计算得到所述图片训练集的总损失参数;将所述总损失参数回传到所述初始图片解压模型,对所述权重进行更新;并返回执行步骤:针对所述图片训练集中的每一训练数据进行前馈传播,得到模拟值;以此循环,进行参数迭代,直到所述初始图片解压模型收敛,终止训练,得到所述图片解压模型。通过结合神经网络的在图像数据方面的映射能力以及存储能力,可以解决图片整体解压的效率低的问题,节省存储空间。
参照图7,图7为本申请图片解压方法第五示例性实施例的流程示意图。基于上述图2所示的实施例,所述图片解压方法还包括:
步骤S710,获取待压缩图片;
具体地,生活中正在源源不断地产生图片数据,占据了大量的存储空间,这是图片压缩的必要性。处于一个信息爆炸时代,每天产生海量的图片,图片数据本身有一定的冗余性,占用空间大,因此有必要对图片数据进行压缩保存。
步骤S720,将所述待压缩图片输入所述图片解压模型中进行压缩,得到压缩后的图片并存储。
具体地,将待压缩图片输入所述图片解压模型中进行压缩,得到压缩后的图片并存储,使用神经网络来存储海量图片数据,在实现对海量图片数据压缩的同时,支持局部还原,满足快速批量检查的需求。
本实施例通过上述方案,具体通过获取待压缩图片;将所述待压缩图片输入所述图片解压模型中进行压缩,得到压缩后的图片并存储。通过结合神经网络的在图像数据方面的映射能力以及存储能力,可以压缩图片数据,存储海量图片数据,节省存储空间。
参照图8,图8为本申请图片解压方法第六示例性实施例的流程示意图。基于上述图2所示的实施例,步骤S210,确定待解压图片的关注区域的步骤包括:
步骤S810,将所述待解压图片进行堆叠,得到垂直方向、长方向、宽方向;
具体地,如图3所示,图3为本申请图片解压方法的数据转换示意图。将图片数据堆叠形成了多个截面,每个截面可是一张图片,将图片的长方向作为x,宽方向作为y,图片的垂直方向(即堆叠方向)作为z方向,可以将海量数据看作一个三维数据。
步骤S820,基于所述垂直方向、长方向、宽方向,确定所述关注区域,所述关注区域包括垂直方向闭区间、长方向闭区间、宽方向闭区间。
具体地,图片的垂直方向(即堆叠方向)作为z方向,可以将海量数据看作一个三维数据,也即关注区域。
进一步地,步骤S220,将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图,所述图片解压模型基于预设的神经网络训练得到的步骤包括:
步骤S830,针对所述垂直方向闭区间、长方向闭区间、宽方向闭区间,分别进行前馈传播,得到所述解压后的局部图。
具体地,针对所述垂直方向闭区间、长方向闭区间、宽方向闭区间,分别进行前馈传播,得到所述解压后的局部图。其中,前馈神经网络中,把每个神经元按接收信息的先后分为不同的组,每一组可以看做是一个神经层。每一层中的神经元接收前一层神经元的输出,并输出到下一层神经元。整个网络中的信息朝着一个方向传播,可以用一个有向无环图来表示。前馈神经网络可以看做是一个函数,通过简单非线性函数的多次复合,实现输入空间到输出空间的复杂映射,前馈神经网络包括但不限于全连接前馈神经网络和卷积神经网络。
本实施例通过上述方案,具体通过将所述待解压图片进行堆叠,得到垂直方向、长方向、宽方向;基于所述垂直方向、长方向、宽方向,确定所述关注区域;针对所述垂直方向闭区间、长方向闭区间、宽方向闭区间,分别进行前馈传播,得到所述解压后的局部图。通过将待解压图片转换为三个方向的闭区间,可以确定待解压图片的局部区域位置,解决了图片整体解压的效率低的问题,提升图片解压效率。
此外,本申请实施例还提出一种图片解压装置,所述图片解压装置包括:
区域确定模块,用于确定待解压图片的关注区域;
图片解压模块,用于将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图,所述图片解压模型基于预设的神经网络训练得到。
进一步地,所述图片解压装置还包括:
模型训练模块,用于针对预设的数据转换规则,获取图片训练集;创建所述神经网络;基于所述神经网络,构建得到初始图片解压模型;将所述图片训练集输入所述初始图片解压模型中进行处理,得到训练结果,结合所述训练结果及预设的损失函数训练所述初始图片解压模型,得到创建后的图片解压模型。
本实施例实现图片解压的原理及实施过程,请参照上述各实施例,在此不再赘述。
此外,本申请实施例还提出一种终端设备,所述终端设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的图片解压程序,所述图片解压程序被所述处理器执行时实现如上所述的图片解压方法的步骤。
由于本图片解压程序被处理器执行时,采用了前述所有实施例的全部技术方案,因此至少具有前述所有实施例的全部技术方案所带来的所有有益效果,在此不再一一赘述。
此外,本申请实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有图片解压程序,所述图片解压程序被处理器执行时实现如上所述的图片解压方法的步骤。
由于本图片解压程序被处理器执行时,采用了前述所有实施例的全部技术方案,因此至少具有前述所有实施例的全部技术方案所带来的所有有益效果,在此不再一一赘述。
相比现有技术,本申请实施例提出的图片解压方法、装置、终端设备以及存储介质,通过获取待修复图片;将待修复图片输入预先创建的图片解压网络模型中进行修复,得到修复后的图片,其中,所述图片解压网络模型包括编码器、生成器和判别器,所述图片解压网络模型基于所述编码器、生成器和判别器训练得到。通过训练后的图片解压网络模型对图片进行修复,可以解决老照片低画质修复问题,提升老照片的画质效果。基于本申请方案,从真实世界中低画质存在的图像退化规律出发,构建了一个真实世界的低画质和高画质老照片数据集,并在该数据集上验证了本申请提出的图片解压方法的有效性,最后经过本申请方法修复的老照片画质得到明显提升。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,被控终端,或者网络设备等)执行本申请每个实施例的方法。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (10)

1.一种图片解压方法,其特征在于,所述图片解压方法包括以下步骤:
确定待解压图片的关注区域;
将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图,所述图片解压模型基于预设的神经网络训练得到。
2.如权利要求1所述的图片解压方法,其特征在于,所述将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图的步骤包括:
创建所述图片解压模型,具体包括:
针对预设的数据转换规则,获取图片训练集;
创建所述神经网络;
基于所述神经网络,构建得到初始图片解压模型;
将所述图片训练集输入所述初始图片解压模型中进行处理,得到训练结果,结合所述训练结果及预设的损失函数训练所述初始图片解压模型,得到创建后的图片解压模型。
3.如权利要求2所述的图片解压方法,其特征在于,所述神经网络包括隐藏层,所述基于所述神经网络,构建得到初始图片解压模型的步骤包括:
根据预设的图片压缩值,计算所述隐藏层的参数;
基于所述参数,初始化所神经网络的权重,构建得到所述初始图片解压模型。
4.如权利要求3所述的图片解压方法,其特征在于,所述将所述图片训练集输入所述初始图片解压模型中进行处理,得到训练结果,结合所述训练结果及预设的损失函数训练所述初始图片解压模型,得到创建后的图片解压模型的步骤包括:
针对所述图片训练集中的每一训练数据进行前馈传播,得到模拟值;
将所述模拟值与所述训练数据所对应的真实值进行对比,计算得到损失函数;
针对所述损失函数,得到对应的梯度向量;
将所述梯度向量的负方向回传到所述初始图片解压模型,对所述权重进行更新;并返回执行步骤:针对所述图片训练集中的每一训练数据进行前馈传播,得到模拟值;
以此循环,进行参数迭代,直到所述初始图片解压模型收敛,终止训练,得到所述图片解压模型。
5.如权利要求1所述的图片解压方法,其特征在于,所述图片解压方法还包括以下步骤:
获取待压缩图片;
将所述待压缩图片输入所述图片解压模型中进行压缩,得到压缩后的图片并存储。
6.如权利要求1所述的图片解压方法,其特征在于,所述确定待解压图片的关注区域的步骤包括:
将所述待解压图片进行堆叠,得到垂直方向、长方向、宽方向;
基于所述垂直方向、长方向、宽方向,确定所述关注区域,所述关注区域包括垂直方向闭区间、长方向闭区间、宽方向闭区间。
7.如权利要求6所述的图片解压方法,其特征在于,所述将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图的步骤包括:
针对所述垂直方向闭区间、长方向闭区间、宽方向闭区间,分别进行前馈传播,得到所述解压后的局部图。
8.一种图片解压装置,其特征在于,所述图片解压装置包括:
区域确定模块,用于确定待解压图片的关注区域;
图片解压模块,用于将所述关注区域输入预先创建的图片解压模型中进行解压,得到解压后的局部图,所述图片解压模型基于预设的神经网络训练得到。
9.一种终端设备,其特征在于,所述终端设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的图片解压程序,所述图片解压程序被所述处理器执行时实现如权利要求1-7中任一项所述的图片解压方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有图片解压程序,所述图片解压程序被处理器执行时实现如权利要求1-7中任一项所述的图片解压方法的步骤。
CN202211075975.1A 2022-09-05 2022-09-05 图片解压方法、装置、终端设备以及存储介质 Active CN115147501B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211075975.1A CN115147501B (zh) 2022-09-05 2022-09-05 图片解压方法、装置、终端设备以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211075975.1A CN115147501B (zh) 2022-09-05 2022-09-05 图片解压方法、装置、终端设备以及存储介质

Publications (2)

Publication Number Publication Date
CN115147501A true CN115147501A (zh) 2022-10-04
CN115147501B CN115147501B (zh) 2022-12-02

Family

ID=83416271

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211075975.1A Active CN115147501B (zh) 2022-09-05 2022-09-05 图片解压方法、装置、终端设备以及存储介质

Country Status (1)

Country Link
CN (1) CN115147501B (zh)

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0794674A2 (en) * 1996-03-06 1997-09-10 Hewlett-Packard Company Fast DCT inverse motion compensation
CN1973535A (zh) * 2004-06-21 2007-05-30 皇家飞利浦电子股份有限公司 缩减并混和两个高分辨率图像的设备和方法
CN103674278A (zh) * 2012-09-21 2014-03-26 杭州美盛红外光电技术有限公司 红外显示控制装置和红外显示控制方法
CN104361548A (zh) * 2014-10-28 2015-02-18 河南师范大学 基于bp神经网络数字图像压缩的图像水印嵌入与提取方法
CN105631809A (zh) * 2015-12-31 2016-06-01 北京理工大学 一种非均匀分辨率球面全景图生成方法
CN107301668A (zh) * 2017-06-14 2017-10-27 成都四方伟业软件股份有限公司 一种基于稀疏矩阵、卷积神经网络的图片压缩方法
CN108419056A (zh) * 2018-05-02 2018-08-17 西南大学 大数据图像的传输、查看方法和在桥梁隐患监控中的应用
CN108810418A (zh) * 2018-07-16 2018-11-13 Oppo广东移动通信有限公司 图像处理方法、装置、移动终端及计算机可读存储介质
CN109218737A (zh) * 2018-09-19 2019-01-15 厦门理工学院 一种视频数据的有损压缩、解压缩方法以及装置
CN109302636A (zh) * 2017-07-24 2019-02-01 阿里巴巴集团控股有限公司 提供数据对象全景图信息的方法及装置
CN109727663A (zh) * 2018-09-30 2019-05-07 上海联影医疗科技有限公司 生成用于图像处理的神经网络模型的系统和方法
CN109801221A (zh) * 2019-01-18 2019-05-24 腾讯科技(深圳)有限公司 生成对抗网络的训练方法、图像处理方法、装置和存储介质
CN109859091A (zh) * 2018-12-24 2019-06-07 中国人民解放军国防科技大学 基于Gabor滤波和卷积神经网络的图像隐写检测方法
CN110189385A (zh) * 2019-06-05 2019-08-30 京东方科技集团股份有限公司 模型训练及图片压缩、解压方法、装置、介质和电子设备
CN110659628A (zh) * 2019-10-09 2020-01-07 山东浪潮人工智能研究院有限公司 一种基于深度学习的煤矿监控视频解压缩方法及系统
CN111681182A (zh) * 2020-06-04 2020-09-18 Oppo广东移动通信有限公司 图片修复方法、装置、终端设备以及存储介质
CN114067007A (zh) * 2020-07-30 2022-02-18 华为技术有限公司 图像处理方法与装置、神经网络训练的方法与装置
CN114897728A (zh) * 2022-05-10 2022-08-12 南方海洋科学与工程广东省实验室(湛江) 图像增强方法、装置、终端设备以及存储介质

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0794674A2 (en) * 1996-03-06 1997-09-10 Hewlett-Packard Company Fast DCT inverse motion compensation
CN1973535A (zh) * 2004-06-21 2007-05-30 皇家飞利浦电子股份有限公司 缩减并混和两个高分辨率图像的设备和方法
CN103674278A (zh) * 2012-09-21 2014-03-26 杭州美盛红外光电技术有限公司 红外显示控制装置和红外显示控制方法
CN104361548A (zh) * 2014-10-28 2015-02-18 河南师范大学 基于bp神经网络数字图像压缩的图像水印嵌入与提取方法
CN105631809A (zh) * 2015-12-31 2016-06-01 北京理工大学 一种非均匀分辨率球面全景图生成方法
CN107301668A (zh) * 2017-06-14 2017-10-27 成都四方伟业软件股份有限公司 一种基于稀疏矩阵、卷积神经网络的图片压缩方法
CN109302636A (zh) * 2017-07-24 2019-02-01 阿里巴巴集团控股有限公司 提供数据对象全景图信息的方法及装置
CN108419056A (zh) * 2018-05-02 2018-08-17 西南大学 大数据图像的传输、查看方法和在桥梁隐患监控中的应用
CN108810418A (zh) * 2018-07-16 2018-11-13 Oppo广东移动通信有限公司 图像处理方法、装置、移动终端及计算机可读存储介质
CN109218737A (zh) * 2018-09-19 2019-01-15 厦门理工学院 一种视频数据的有损压缩、解压缩方法以及装置
CN109727663A (zh) * 2018-09-30 2019-05-07 上海联影医疗科技有限公司 生成用于图像处理的神经网络模型的系统和方法
CN109859091A (zh) * 2018-12-24 2019-06-07 中国人民解放军国防科技大学 基于Gabor滤波和卷积神经网络的图像隐写检测方法
CN109801221A (zh) * 2019-01-18 2019-05-24 腾讯科技(深圳)有限公司 生成对抗网络的训练方法、图像处理方法、装置和存储介质
CN110189385A (zh) * 2019-06-05 2019-08-30 京东方科技集团股份有限公司 模型训练及图片压缩、解压方法、装置、介质和电子设备
CN110659628A (zh) * 2019-10-09 2020-01-07 山东浪潮人工智能研究院有限公司 一种基于深度学习的煤矿监控视频解压缩方法及系统
CN111681182A (zh) * 2020-06-04 2020-09-18 Oppo广东移动通信有限公司 图片修复方法、装置、终端设备以及存储介质
CN114067007A (zh) * 2020-07-30 2022-02-18 华为技术有限公司 图像处理方法与装置、神经网络训练的方法与装置
CN114897728A (zh) * 2022-05-10 2022-08-12 南方海洋科学与工程广东省实验室(湛江) 图像增强方法、装置、终端设备以及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
胡甄博: "面向神经网络的浮点数有损压缩技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Also Published As

Publication number Publication date
CN115147501B (zh) 2022-12-02

Similar Documents

Publication Publication Date Title
CN109948029B (zh) 基于神经网络自适应的深度哈希图像搜索方法
CN112035746A (zh) 一种基于时空序列图卷积网络的会话推荐方法
EP3255586A1 (en) Method, program, and apparatus for comparing data graphs
JP7412847B2 (ja) 画像処理方法、画像処理装置、サーバ、及びコンピュータプログラム
CN113132232B (zh) 一种能量路由优化方法
WO2022166115A1 (en) Recommendation system with adaptive thresholds for neighborhood selection
CN113011529B (zh) 文本分类模型的训练方法、装置、设备及可读存储介质
CN112464057A (zh) 一种网络数据分类方法、装置、设备及可读存储介质
CN112465122B (zh) 优化神经网络模型中原始维度算子的装置和方法
CN112200266A (zh) 基于图结构数据的网络训练方法、装置以及节点分类方法
CN113255798A (zh) 一种分类模型训练方法、装置、设备及介质
CN114186609A (zh) 模型训练方法和装置
CN111488528A (zh) 内容缓存管理方法及装置、电子设备
CN115546589A (zh) 一种基于图神经网络的图像生成方法
CN115147501B (zh) 图片解压方法、装置、终端设备以及存储介质
Xu et al. Online topology‐based voltage regulation: A computational performance enhanced algorithm based on deep reinforcement learning
CN116992151A (zh) 一种基于双塔图卷积神经网络的在线课程推荐方法
CN117114776A (zh) 一种面向省间日前现货交易的量价申报方法
CN111814368B (zh) 基于张量的土地利用模拟方法、系统、设备及存储介质
US20200372363A1 (en) Method of Training Artificial Neural Network Using Sparse Connectivity Learning
CN114626284A (zh) 一种模型处理方法及相关装置
Kim Distributed learning algorithms and lossless convex relaxation for economic dispatch with transmission losses and capacity limits
CN116454890B (zh) 基于scuc模型的机组组合控制方法、装置和设备
US20240161245A1 (en) Image optimization
KR102389555B1 (ko) 가중 트리플 지식 그래프를 생성하는 장치, 방법 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant