CN107547773B - 一种图像处理方法、装置及设备 - Google Patents

一种图像处理方法、装置及设备 Download PDF

Info

Publication number
CN107547773B
CN107547773B CN201710617940.9A CN201710617940A CN107547773B CN 107547773 B CN107547773 B CN 107547773B CN 201710617940 A CN201710617940 A CN 201710617940A CN 107547773 B CN107547773 B CN 107547773B
Authority
CN
China
Prior art keywords
image
neural network
decompression
image data
compression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710617940.9A
Other languages
English (en)
Other versions
CN107547773A (zh
Inventor
梁鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
New H3C Technologies Co Ltd
Original Assignee
New H3C Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by New H3C Technologies Co Ltd filed Critical New H3C Technologies Co Ltd
Priority to CN201710617940.9A priority Critical patent/CN107547773B/zh
Publication of CN107547773A publication Critical patent/CN107547773A/zh
Application granted granted Critical
Publication of CN107547773B publication Critical patent/CN107547773B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明实施例提供了一种图像处理方法、装置及设备,方法包括:利用多份图像数据对压缩神经网络及解压缩神经网络进行训练,得到压缩计算参数及解压缩计算参数;将压缩神经网络的计算参数设置为压缩计算参数,以对各份图像数据进行压缩,得到图像数据的压缩数据;生成的图像压缩包中包含至少一份图像数据的压缩数据、第一解压缩神经网络的构建信息及第一解压缩计算参数;可见,本方案中压缩计算参数是该多份图像数据的共用参数,所以可以认为该压缩计算参数是基于该多份图像数据之间的冗余信息训练得到的。因此,也可以认为每份图像数据都是基于该多份图像数据之间的冗余信息进行压缩的,实现了基于图像之间的冗余信息进行压缩。

Description

一种图像处理方法、装置及设备
技术领域
本发明涉及图像处理技术领域,特别是涉及一种图像处理方法、装置及设备。
背景技术
为了减少图像数据占用的资源,比如网络资源、或者存储资源等,通常需要对图像数据进行压缩。一般来说,图像数据中存在冗余信息,比如,空间相关冗余、频谱相关冗余、结构相关冗余等等,图像压缩,也就是去除部分冗余信息。
现有的图像压缩方案大多是基于单张图像中的冗余信息进行压缩,比如,利用DCT(Discrete Cosine Transform,离散余弦变换)编码压缩技术,通过频域变换,将原图像数据用直流分量及少数低频交流分量的系数来表示,以实现对单张图像中的空间相关冗余进行压缩。
而不同图像之间通常也存在冗余信息,比如,用户采集了多张背景类似的图像,这多张图像中即存在冗余信息,利用现有方案对这多张图像进行压缩时,并不能基于各张图像之间的冗余信息进行压缩。
发明内容
本发明实施例的目的在于提供一种图像处理方法、装置及设备,以实现基于各张图像之间的冗余信息进行压缩。
为达到上述目的,本发明实施例提供一种图像处理方法,包括:
将多张待处理图像中的每张待处理图像转换为一份图像数据;
将转换得到的每份图像数据分别输入第一压缩神经网络,所述第一压缩神经网络的输出为第一解压缩神经网络的输入,以使所述第一压缩神经网络和所述第一解压缩神经网络利用所述每份图像数据调整计算参数;
当所述每份图像数据与该图像数据对应的从所述第一解压缩神经网络输出的数据的相似度均大于预设阈值时,将所述第一压缩神经网络的计算参数确定为第一压缩计算参数,将所述第一解压缩神经网络的计算参数确定为第一解压缩计算参数;
将所述第一压缩神经网络的计算参数设置为所述第一压缩计算参数,分别将每份图像数据输入设置后的第一压缩神经网络,以对每份图像数据进行压缩,生成每份图像数据的压缩数据;
生成至少一个第一图像压缩包,所述第一图像压缩包中包含至少一份图像数据的压缩数据、所述第一解压缩神经网络的构建信息及所述第一解压缩计算参数。
为达到上述目的,本发明实施例还提供一种图像处理装置,包括:
第一转换模块,用于将多张待处理图像中的每张待处理图像转换为一份图像数据;
输入模块,用于将转换得到的每份图像数据分别输入第一压缩神经网络,所述第一压缩神经网络的输出为第一解压缩神经网络的输入,以使所述第一压缩神经网络和所述第一解压缩神经网络利用所述每份图像数据调整计算参数;
确定模块,用于当所述每份图像数据与该图像数据对应的从所述第一解压缩神经网络输出的数据的相似度均大于预设阈值时,将所述第一压缩神经网络的计算参数确定为第一压缩计算参数,将所述第一解压缩神经网络的计算参数确定为第一解压缩计算参数;
压缩模块,用于将所述第一压缩神经网络的计算参数设置为所述第一压缩计算参数,分别将每份图像数据输入设置后的第一压缩神经网络,以对每份图像数据进行压缩,生成每份图像数据的压缩数据;
生成模块,用于生成至少一个第一图像压缩包,所述第一图像压缩包中包含至少一份图像数据的压缩数据、所述第一解压缩神经网络的构建信息及所述第一解压缩计算参数。
为达到上述目的,本发明实施例还提供一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存储机器可读指令;
处理器,用于读取所述存储器上所存储的机器可读指令,以执行上述任一种图像处理方法。
为达到上述目的,本发明实施例还提供一种机器可读存储介质,存储有机器可执行指令,在被处理器调用和执行时,所述机器可执行指令促使所述处理器:执行上述任一种图像处理方法。
应用本发明实施例,利用多份图像数据对压缩神经网络及解压缩神经网络进行训练,得到压缩计算参数及解压缩计算参数;将压缩神经网络的计算参数设置为压缩计算参数,以对各份图像数据进行压缩,得到图像数据的压缩数据;生成的图像压缩包中包含至少一份图像数据的压缩数据、第一解压缩神经网络的构建信息及第一解压缩计算参数;由此可见,本方案中压缩神经网络的压缩计算参数是基于多份图像数据训练得到,并且该多份图像数据中的每份图像数据都可以利用该压缩计算参数在压缩神经网络中进行压缩,也就是说,该压缩计算参数是该多份图像数据的共用压缩计算参数,所以可以认为该压缩计算参数是基于该多份图像数据之间的冗余信息训练得到的。因此,也可以认为每份图像数据都是基于该多份图像数据之间的冗余信息进行压缩的,实现了基于图像之间的冗余信息进行压缩。
当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种图像处理方法的流程示意图;
图2为本发明实施例提供的一种神经网络结构示意图;
图3为本发明实施例提供的一种图像解压缩方法的流程示意图;
图4为本发明实施例提供的一种图像处理装置的结构示意图;
图5为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了解决上述技术问题,本发明实施例提供了一种图像处理方法、装置及设备,该方法可以应用于手机、电脑等各种具备图像处理功能的电子设备,具体不做限定。
下面首先对本发明实施例提供的图像处理方法进行详细说明。
图1为本发明实施例提供的一种图像处理方法的流程示意图,包括:
S101:将多张待处理图像中的每张待处理图像转换为一份图像数据。
S102:将转换得到的每份图像数据分别输入第一压缩神经网络,该第一压缩神经网络的输出为第一解压缩神经网络的输入,以使该第一压缩神经网络和该第一解压缩神经网络利用该每份图像数据调整计算参数。
S103:当该每份图像数据与该图像数据对应的从该第一解压缩神经网络输出的数据的相似度均大于预设阈值时,将该第一压缩神经网络的计算参数确定为第一压缩计算参数,将该第一解压缩神经网络的计算参数确定为第一解压缩计算参数。
S104:将该第一压缩神经网络的计算参数设置为该第一压缩计算参数,分别将每份图像数据输入设置后的第一压缩神经网络,以对每份图像数据进行压缩,生成每份图像数据的压缩数据。
S105:生成至少一个第一图像压缩包,该第一图像压缩包中包含至少一份图像数据的压缩数据、该第一解压缩神经网络的构建信息及该第一解压缩计算参数。
应用本发明图1所示实施例,利用多份图像数据对压缩神经网络及解压缩神经网络进行训练,得到压缩计算参数及解压缩计算参数;将压缩神经网络的计算参数设置为压缩计算参数,以对各份图像数据进行压缩,得到图像数据的压缩数据;生成的图像压缩包中包含至少一份图像数据的压缩数据、第一解压缩神经网络的构建信息及第一解压缩计算参数;由此可见,本方案中压缩神经网络的压缩计算参数是基于多份图像数据训练得到,并且该多份图像数据中的每份图像数据都可以利用该压缩计算参数在压缩神经网络中进行压缩,也就是说,该压缩计算参数是该多份图像数据的共用压缩计算参数,所以可以认为该压缩计算参数是基于该多份图像数据之间的冗余信息训练得到的。因此,也可以认为每份图像数据都是基于该多份图像数据之间的冗余信息进行压缩的,实现了基于图像之间的冗余信息进行压缩
下面对图1所示实施例进行详细说明:
S101:将多张待处理图像中的每张待处理图像转换为一份图像数据。
这里的“图像数据”为输入至第一压缩神经网络的数据。可以理解,输入神经网络的数据格式通常是固定的,因此需要将待处理图像进行格式转换。
作为一种实施方式,该数据格式可以为一维向量,这种情况下,S101可以包括:
将每张待处理图像按照预设的缩放参数进行缩放,得到第一位图图像;
将所述第一位图图像转换为第一矩阵,并将所述第一矩阵转换为一维向量,将所述一维向量作为一份图像数据。
该缩放参数可以包括长度,宽度及图像通道数。假设缩放参数包括:长度L,宽度W及图像通道数3,则将待处理图像进行缩放,得到长度为L、宽度为W,图像通道数为3的位图。
可以理解,位图是由像素(Pixel)组成的,像素是位图最小的信息单元,每个像素都具有特定的位置和颜色值。如果位图图像的长为L,宽为W,通道数量为3(RGB,RED红,GREEN绿,BLUE蓝),则该位图图像转换为行为W、列为(L*3)的矩阵,矩阵中的每个元素表示一个通道,每个元素的值为该元素对应的R通道或G通道或B通道的值。再将该矩阵拉伸为一维向量,一维向量也就是这L*W*3个元素的值组成的序列,该一维向量即为S101中转换得到的图像数据。
或者,作为另一种实施方式,该图像数据也可以为其他格式,比如矩阵格式、位图格式等,图像数据的格式具体不做限定。
S102:将转换得到的每份图像数据分别输入第一压缩神经网络,该第一压缩神经网络的输出为第一解压缩神经网络的输入,以使该第一压缩神经网络和该第一解压缩神经网络利用该每份图像数据调整计算参数。
神经网络的结构可以如图2所示,图2中的左半部分为压缩神经网络,右半部分为解压缩神经网络,压缩神经网络的输出作为解压缩神经网络的输入。将转换得到的图像数据作为训练集,对图2中的整个网络进行训练。
S103:当该每份图像数据与该图像数据对应的从该第一解压缩神经网络输出的数据的相似度均大于预设阈值时,将该第一压缩神经网络的计算参数确定为第一压缩计算参数,将该第一解压缩神经网络的计算参数确定为第一解压缩计算参数。
S102-S103可以理解为神经网络训练过程中的一部分。作为一种实施方式,该训练过程具体可以包括:
11、预先设定神经网络的结构:该结构中包含压缩神经网络和解压缩神经网络,二者结构对称,二者相连接的部分(图2中的中轴线)为二者的对称轴。
作为一种实施方式,压缩神经网络的输入层神经元个数、以及解压缩神经网络的输出层神经元个数=上述缩放参数中的长度*宽度*图像通道数。
延续上述例子,假设图像数据中包含L*W*3个元素的值,则可以将初始神经网络的输入层的神经元数据设定为L*W*3,每个元素对应一个神经元,相对称的,该初始神经网络的输出层的神经元数据也为L*W*3,每个元素对应一个神经元。
另外,压缩神经网络和解压缩神经网络的对称轴也是二者的分界线,该位置既为输出压缩数据的位置,也为输入压缩数据的位置,该位置所在层级的神经元个数可以根据压缩数据的规格尺寸来设定。
12、对压缩神经网络及解压缩神经网络中的计算参数进行初始化。
13、假设转换得到了n份图像数据,将该n份图像数据中的一份图像数据输入压缩神经网络,采用压缩神经网络的当前计算参数,对该份图像数据进行压缩处理,得到压缩数据;将该压缩数据输入至解压缩神经网络,采用解压缩神经网络的当前计算参数,对该压缩数据进行解压缩处理,得到解压缩数据。
14、计算该解压缩数据与该图像数据之间的相似度,判断该相似度是否大于预设阈值;如果是,获取该n份图像数据中的下一份图像数据,返回步骤13继续对该下一份图像数据进行处理,如果否,执行步骤15。
15、调整压缩神经网络及解压缩神经网络中的计算参数,直至该相似度大于预设阈值后,获取该n份图像数据中的下一份图像数据,返回步骤13继续对该下一份图像数据进行处理。
具体的,可以通过BP(Error Back Propagation,误差反向传播)算法反向传播算法、以及SGD(随机梯度下降)算法对压缩神经网络及解压缩神经网络中的计算参数进行调整,直至二者的相似度大于预设阈值。
16、重复执行上述步骤,直至每份图像数据与其对应的解压缩数据之间的相似度都大于预设阈值后,将压缩神经网络的当前计算参数确定为压缩计算参数,将解压缩神经网络的当前计算参数确定为解压缩计算参数。
本领域技术人员可以理解,神经网络的训练过程为迭代求解的过程,最终的迭代结果需要满足:使得每份图像数据与其对应的解压缩数据之间的相似度都大于预设阈值。基于此,迭代结束条件可以设定为:对计算参数的调整幅度越来越小,当计算参数基本不变时(调整幅度小于一阈值),则可以认为迭代结束,实现了每份图像数据与其对应的解压缩数据之间的相似度都大于预设阈值。
具体的,可以将上述n份数据轮流多次输入神经网络,每次都对神经网络的计算参数进行调整,直至调整幅度小于一阈值时,调整结束,得到了最终的压缩计算参数和解压缩计算参数,完成了训练过程。
或者,也可以针对迭代次数设定一阈值,其中,每将一份图像数据输入神经网络、并调整计算参数直至该份图像数据与其对应的解压缩数据之间的相似度大于预设阈值,作为一次迭代。
当迭代次数达到该阈值时,认为达到上述结束条件。可以理解,如果迭代次数很多,也可以实现每份图像数据与其对应的解压缩数据之间的相似度都大于预设阈值。
具体的,可以将上述n份数据轮流多次输入神经网络,每次都对神经网络的计算参数进行调整,直至迭代次数达到阈值,调整结束,得到了最终的压缩计算参数和解压缩计算参数,完成了训练过程。
作为一种实施方式,图2中的神经网络可以为自编码神经网络(AutoEncoder)或者堆栈自编码神经网络(Stacked Autoencoders)。图2左侧部分的网络结构可以为编码网络结构,右侧部分的网络结构为解码网络结构,编码网络结构与解码网络结构相对称。
需要说明的是,图2中压缩神经网络和解压缩神经网络的计算参数也是对称的,上述对神经网络的计算参数进行调整时,可以对二者对称调整。
作为另一种实施方式,训练过程可以包括:
21、预先设定神经网络的结构。
22、对压缩神经网络及解压缩神经网络中的计算参数进行初始化。
23、假设转换得到了n份图像数据,在这n份图像数据中,选择一组图像数据,其中,一组图像数据中包含m份图像数据,m小于n。可以随机选择,也可以顺序选择,具体选择方式不做限定。
24、将该组图像数据依次输入压缩神经网络,采用压缩神经网络的当前计算参数,对该组中每份图像数据进行压缩处理,得到压缩数据;将该压缩数据输入至解压缩神经网络,采用解压缩神经网络的当前计算参数,对该压缩数据进行解压缩处理,得到解压缩数据。
25、计算该组图像数据与解压缩数据之间的相似度,判断该相似度是否大于预设阈值;如果是,选择下一组图像数据,返回步骤24继续对该下一组图像数据进行处理,如果否,执行步骤26。
26、调整压缩神经网络及解压缩神经网络中的计算参数,直至该相似度大于预设阈值后,选择下一组图像数据,返回步骤24继续对该下一组图像数据进行处理。
具体的,可以通过BP(Error Back Propagation,误差反向传播)算法反向传播算法、以及SGD(随机梯度下降)算法对压缩神经网络及解压缩神经网络中的计算参数进行调整,直至二者的相似度大于预设阈值。
举例来说,步骤24中可以将整组图像数据一并输入压缩神经网络、解压缩神经网络,并得到整组图像数据的解压缩数据;这种情况下,步骤25中计算整组的图像数据与解压缩数据的相似度,如果相似度大于预设阈值,对神经网络中的计算参数进行调整,直至该相似度大于预设阈值。然后选择下一组图像数据,继续对下一组图像数据进行处理。
或者,步骤24中也可以将该组图像数据中的每份图像数据依次输入压缩神经网络、解压缩神经网络,这样,每份图像数据都对应一份解压缩数据;这种情况下,步骤25中可以针对每份图像数据,计算该份图像数据与其对应的解压缩数据的相似度,如果相似度大于预设阈值,对神经网络中的计算参数进行调整,直至该相似度大于预设阈值。需要说明的是,这里的调整可以只是暂时调整,对调整结果进行记录后,再恢复至调整前的计算参数。
这样,便针对该组中每份图像数据都记录了一个调整结果,可以将该组对应的全部调整结果取平均值,根据该平均值,对神经网络中的计算参数进行调整。这里的调整不是暂时调整,不进行恢复,调整后选择下一组图像数据,继续对下一组图像数据进行处理。
27、重复执行上述步骤,直至每组图像数据与其对应的解压缩数据之间的相似度都大于预设阈值后,将压缩神经网络的当前计算参数确定为压缩计算参数,将解压缩神经网络的当前计算参数确定为解压缩计算参数。
如上所述,神经网络的训练过程为迭代求解的过程,最终的迭代结果需要满足:使得每组图像数据与其对应的解压缩数据之间的相似度都大于预设阈值。基于此,迭代结束条件可以设定为:对计算参数的调整幅度越来越小,当计算参数基本不变时(调整幅度小于一阈值),则可以认为迭代结束,实现了每组图像数据与其对应的解压缩数据之间的相似度都大于预设阈值。
具体的,可以将各组图像数据轮流多次输入神经网络,每次都对神经网络的计算参数进行调整,直至调整幅度小于一阈值时,调整结束,得到了最终的压缩计算参数和解压缩计算参数,完成了训练过程。
或者,也可以针对迭代次数设定一阈值,其中,每将一组图像数据输入神经网络、并调整计算参数直至该组图像数据与其对应的解压缩数据之间的相似度大于预设阈值,作为一次迭代。
当迭代次数达到该阈值时,认为达到上述结束条件。可以理解,如果迭代次数很多,也可以实现每组图像数据与其对应的解压缩数据之间的相似度都大于预设阈值。
具体的,可以将各组图像数据轮流多次输入神经网络,每次都对神经网络的计算参数进行调整,直至迭代次数达到阈值,调整结束,得到了最终的压缩计算参数和解压缩计算参数,完成了训练过程。
需要说明的是,本实施方式上述一种训练过程不同:本实施方式基于一组图像数据与其对应的解压缩数据的相似度,对神经网络中的计算参数进行调整,相比于上述一种训练过程中,基于一份图像数据与其对应的解压缩数据的相似度,对神经网络中的计算参数进行调整,减少了调整次数,提高了训练效率。
在本发明实施例提供的神经网络训练方式中,第一次训练时,将计算参数由初始值调整为训练得到的值,第二次训练时,基于第一次训练得到的计算参数进一步进行调整,之后的每次训练,都基于上一次训练得到的计算参数进一步进行调整,这样,每次训练过程中,计算参数调整幅度较小,计算量较小。
训练得到神经网络的方式有多种,不再一一列举。
S104:将该第一压缩神经网络的计算参数设置为该第一压缩计算参数,分别将每份图像数据输入设置后的第一压缩神经网络,以对每份图像数据进行压缩,生成每份图像数据的压缩数据。
利用上述训练得到的压缩计算参数对每份图像数据进行压缩,生成各份压缩数据。也就是说,在本实施例中,神经网络的训练集与进行压缩处理的图像数据一致,换句话说,S101中得到的图像数据既作为训练集,参与神经网络的训练过程,又作为待压缩的图像数据。
上述神经网络的训练过程中确定出的压缩计算参数及解压缩计算参数为迭代计算出的最优解,该最优解可以理解为针对S101中各份图像数据压缩的最优解,因此,利用该最优解对这各份图像数据进行压缩,能得到较好的压缩效果。
S105:生成至少一个第一图像压缩包,该第一图像压缩包中包含至少一份图像数据的压缩数据、该第一解压缩神经网络的构建信息及该第一解压缩计算参数。
作为一种实施方式,可以将S104中生成的所有压缩数据、第一解压缩神经网络的构建信息及第一解压缩计算参数进行打包,生成一个图像压缩包。
或者,作为另一种实施方式,可以针对S104中生成的每份压缩数据分别生成一个图像压缩包,每个压缩包中包含一份压缩数据、第一解压缩神经网络的构建信息及第一解压缩计算参数。
或者,作为另一种实施方式,可以在S104中生成的压缩数据中指定一部分压缩数据,将指定的压缩数据、第一解压缩神经网络的构建信息及第一解压缩计算参数进行打包,生成一个图像压缩包。
或者,作为另一种实施方式,可以在S104中生成的压缩数据中指定多组压缩数据,每组压缩数据中包含多份压缩数据,针对每组压缩数据分别生成一个图像压缩包,每个压缩包中包含一组压缩数据、第一解压缩神经网络的构建信息及第一解压缩计算参数。
该解压缩神经网络的构建信息、以及该解压缩计算参数是图像解压缩过程需要的。可以理解,图像解压缩设备利用该解压缩神经网络的构建信息,构建解压缩神经网络,并将该解压缩神经网络的计算参数设置为该解压缩计算参数;这样,图像解压缩设备便可以利用该解压缩神经网络对图像压缩包中的压缩数据进行解压缩。
可见,可以根据实际解压缩的需求,设定图像压缩包中具体包含哪一份或者哪几份压缩数据。
举例来说,解压缩神经网络的构建信息包括:网络结构、网络层级数量、各层级中神经元的个数,每个神经元的连接权重、激活函数等等。
作为一种实施方式,图像压缩包中还包含图像数据的元信息;元信息包括:图像的原始信息及所述缩放参数。
图像对应的元信息可以包含上述位图图像的长度L、宽度W、通道数量3等信息(缩放参数),或者,还可以包含图像分辨率、采集时间等信息(原始信息),具体不做限定。图像压缩包中包含元信息,可以使得解压缩得到的图像信息更完整。
本发明实施例还提供一种解压缩方法,如图3所示,解压缩方法可以包括:
S301:获取第二图像压缩包,该第二图像压缩包中包括:至少一份压缩数据、第二解压缩神经网络的构建信息及第二解压缩计算参数。
S302:根据该第二解压缩神经网络的构建信息构建第二解压缩神经网络,并将该第二解压缩神经网络的计算参数设置为该第二解压缩计算参数;
S303:将该第二图像压缩包中的每份压缩数据输入设置后的第二解压缩神经网络,以对该第二图像压缩包中的每份压缩数据进行解压缩,生成每份压缩数据的图像数据。
S304:将所生成的图像数据转换为图像。
本实施例中,为了区分描述,将图1实施例中的解压缩神经网络称为第一解压缩神经网络,将图3实施例中的解压缩神经网络称为第二神经网络,将图1实施例中的图像压缩包称为第一图像压缩包,将图3实施例中的图像压缩包称为第二图像压缩包。另外,为了体现压缩神经网络与解压缩神经网络的对称性,将图1实施例中的压缩神经网络称为第一压缩神经网络。
该第二图像压缩包可以为其他设备生成的图像压缩包,或者,也可以自身设备(本发明实施例的执行主体)生成的图像压缩包,具体不做限定。
如上所述,图像解压缩设备可以利用解压缩神经网络的构建信息,构建解压缩神经网络,并将解压缩神经网络的计算参数设置为该解压缩计算参数;这样,图像解压缩设备便可以利用该解压缩神经网络对图像压缩包中的压缩数据进行解压缩。
举例来说,解压缩神经网络的构建信息包括:网络结构、网络层级数量、各层级中神经元的个数,每个神经元的连接权重、激活函数等等。
将压缩数据输入构建的解压缩神经网络,输出的是图像数据,还需要将图像数据转换为图像。将图像数据转换为图像可以为图1实施例中将图像转换为图像数据的逆过程,如果压缩数据为一维向量,则该逆过程包括:
针对每份图像数据,根据缩放参数,将该份份图像数据转换为第二矩阵;
将所述第二矩阵转换为第二位图图像;
根据图像的原始信息将所述第二位图图像转换为图像。
为了区分描述,将图1实施例中的位图图像称为第一位图图像,将图3实施例中的位图图像称为第二位图图像,将图1实施例中的矩阵称为第一矩阵,将图3实施例中的矩阵称为第二矩阵。
在图1的一种实施方式中,图像压缩包中还包含缩放参数及图像的原始信息,这样,解压缩设备便可以利用图像压缩包中的缩放参数及图像的原始信息,实现上述将图像数据转换为图像的过程。或者,解压缩设备也可以利用其他方式确定缩放参数及图像的原始信息,具体不做限定。
与上述方法实施例相对应,本发明实施例还提供一种图像处理装置。图4为本发明实施例提供的一种图像处理装置的结构示意图,包括:
第一转换模块401,用于将多张待处理图像中的每张待处理图像转换为一份图像数据;
输入模块402,用于将转换得到的每份图像数据分别输入第一压缩神经网络,所述第一压缩神经网络的输出为第一解压缩神经网络的输入,以使所述第一压缩神经网络和所述第一解压缩神经网络利用所述每份图像数据调整计算参数;
确定模块403,用于当所述每份图像数据与该图像数据对应的从所述第一解压缩神经网络输出的数据的相似度均大于预设阈值时,将所述第一压缩神经网络的计算参数确定为第一压缩计算参数,将所述第一解压缩神经网络的计算参数确定为第一解压缩计算参数;
压缩模块404,用于将所述第一压缩神经网络的计算参数设置为所述第一压缩计算参数,分别将每份图像数据输入设置后的第一压缩神经网络,以对每份图像数据进行压缩,生成每份图像数据的压缩数据;
生成模块405,用于生成至少一个第一图像压缩包,所述第一图像压缩包中包含至少一份图像数据的压缩数据、所述第一解压缩神经网络的构建信息及所述第一解压缩计算参数。
作为一种实施方式,第一转换模块401,具体可以用于:
将每张待处理图像按照预设的缩放参数进行缩放,得到第一位图图像;
将所述第一位图图像转换为第一矩阵,并将所述第一矩阵转换为一维向量,将所述一维向量作为一份图像数据;
所述第一图像压缩包中还包含所述至少一份图像数据的元信息;所述元信息包括:图像的原始信息及所述缩放参数。
作为一种实施方式,所述缩放参数包括:长度,宽度及图像通道数;所述第一压缩神经网络的输入层神经元个数、以及所述第一解压缩神经网络的输出层神经元个数为:所述长度与所述宽度与所述图像通道数的积。
作为一种实施方式,所述装置还可以包括:获取模块、构建模块、解压缩模块和第二转换模块(图中未示出),其中,
获取模块,用于获取第二图像压缩包,所述第二图像压缩包中包括:至少一份压缩数据、第二解压缩神经网络的构建信息及第二解压缩计算参数;
构建模块,用于根据所述第二解压缩神经网络的构建信息构建第二解压缩神经网络,并将所述第二解压缩神经网络的计算参数设置为所述第二解压缩计算参数;
解压缩模块,用于将所述第二图像压缩包中的每份压缩数据输入设置后的第二解压缩神经网络,以对所述第二图像压缩包中的每份压缩数据进行解压缩,生成每份压缩数据的图像数据;
第二转换模块,用于将所生成的图像数据转换为图像。
第二转换模块,所述第二图像压缩包中还包括:图像的元信息,所述元信息包括:缩放参数和图像的原始信息;所述第二转换模块,具体可以用于:
针对每份图像数据,根据所述缩放参数,将该份份图像数据转换为第二矩阵;
将所述第二矩阵转换为第二位图图像;
根据所述图像的原始信息将所述第二位图图像转换为图像。
应用本发明图4所示实施例,利用多份图像数据对压缩神经网络及解压缩神经网络进行训练,得到压缩计算参数及解压缩计算参数;将压缩神经网络的计算参数设置为压缩计算参数,以对各份图像数据进行压缩,得到图像数据的压缩数据;生成的图像压缩包中包含至少一份图像数据的压缩数据、第一解压缩神经网络的构建信息及第一解压缩计算参数;由此可见,本方案中压缩神经网络的压缩计算参数是基于多份图像数据训练得到,并且该多份图像数据中的每份图像数据都可以利用该压缩计算参数在压缩神经网络中进行压缩,也就是说,该压缩计算参数是该多份图像数据的共用压缩计算参数,所以可以认为该压缩计算参数是基于该多份图像数据之间的冗余信息训练得到的。因此,也可以认为每份图像数据都是基于该多份图像数据之间的冗余信息进行压缩的,实现了基于图像之间的冗余信息进行压缩
与上述方法实施例相对应,本发明实施例还提供一种电子设备,如图5所示,本发明实施例还提供了一种电子设备,如图5所示,包括处理器501、通信接口502、存储器503和通信总线504,其中,处理器501,通信接口502,存储器503通过通信总线504完成相互间的通信,
存储器503,用于存放计算机程序;
处理器501,用于执行存储器503上所存放的程序时,实现如下步骤:
将多张待处理图像中的每张待处理图像转换为一份图像数据;
将转换得到的每份图像数据分别输入第一压缩神经网络,所述第一压缩神经网络的输出为第一解压缩神经网络的输入,以使所述第一压缩神经网络和所述第一解压缩神经网络利用所述每份图像数据调整计算参数;
当所述每份图像数据与该图像数据对应的从所述第一解压缩神经网络输出的数据的相似度均大于预设阈值时,将所述第一压缩神经网络的计算参数确定为第一压缩计算参数,将所述第一解压缩神经网络的计算参数确定为第一解压缩计算参数;
将所述第一压缩神经网络的计算参数设置为所述第一压缩计算参数,分别将每份图像数据输入设置后的第一压缩神经网络,以对每份图像数据进行压缩,生成每份图像数据的压缩数据;
生成至少一个第一图像压缩包,所述第一图像压缩包中包含至少一份图像数据的压缩数据、所述第一解压缩神经网络的构建信息及所述第一解压缩计算参数。
作为一种实施方式,处理器501还用于实现如下步骤:
将每张待处理图像按照预设的缩放参数进行缩放,得到第一位图图像;
将所述第一位图图像转换为第一矩阵,并将所述第一矩阵转换为一维向量,将所述一维向量作为一份图像数据;所述第一图像压缩包中还包含所述至少一份图像数据的元信息;所述元信息包括:图像的原始信息及所述缩放参数。
作为一种实施方式,所述缩放参数包括:长度,宽度及图像通道数;
所述第一压缩神经网络的输入层神经元个数、以及所述第一解压缩神经网络的输出层神经元个数为:所述长度与所述宽度与所述图像通道数的积。
作为一种实施方式,处理器501还用于实现如下步骤:
获取第二图像压缩包,所述第二图像压缩包中包括:至少一份压缩数据、第二解压缩神经网络的构建信息及第二解压缩计算参数;
根据所述第二解压缩神经网络的构建信息构建第二解压缩神经网络,并将所述第二解压缩神经网络的计算参数设置为所述第二解压缩计算参数;
将所述第二图像压缩包中的每份压缩数据输入设置后的第二解压缩神经网络,以对所述第二图像压缩包中的每份压缩数据进行解压缩,生成每份压缩数据的图像数据;
将所生成的图像数据转换为图像。
作为一种实施方式,所述第二图像压缩包中还包括:图像的元信息,所述元信息包括:缩放参数和图像的原始信息;
处理器501还用于实现如下步骤:
针对每份图像数据,根据所述缩放参数,将该份份图像数据转换为第二矩阵;
将所述第二矩阵转换为第二位图图像;
根据所述图像的原始信息将所述第二位图图像转换为图像。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本发明实施例还提供了机器可读存储介质,存储有机器可读指令,在被处理器读取时,所述机器可读指令促使所述处理器:执行本发明实施例提供的图像处理方法。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (12)

1.一种图像处理方法,其特征在于,包括:
将多张待处理图像中的每张待处理图像转换为一份图像数据;
将转换得到的每份图像数据分别输入第一压缩神经网络,所述第一压缩神经网络的输出为第一解压缩神经网络的输入,以使所述第一压缩神经网络和所述第一解压缩神经网络利用所述每份图像数据调整计算参数;
当所述每份图像数据与该图像数据对应的从所述第一解压缩神经网络输出的数据的相似度均大于预设阈值时,将所述第一压缩神经网络的计算参数确定为第一压缩计算参数,将所述第一解压缩神经网络的计算参数确定为第一解压缩计算参数;
将所述第一压缩神经网络的计算参数设置为所述第一压缩计算参数,分别将每份图像数据输入设置后的第一压缩神经网络,以对每份图像数据进行压缩,生成每份图像数据的压缩数据;
生成至少一个第一图像压缩包,所述第一图像压缩包中包含至少一份图像数据的压缩数据、所述第一解压缩神经网络的构建信息及所述第一解压缩计算参数。
2.根据权利要求1所述的方法,其特征在于,所述将多张待处理图像中的每张待处理图像转换为一份图像数据,包括:
将每张待处理图像按照预设的缩放参数进行缩放,得到第一位图图像;
将所述第一位图图像转换为第一矩阵,并将所述第一矩阵转换为一维向量,将所述一维向量作为一份图像数据;
所述第一图像压缩包中还包含所述至少一份图像数据的元信息;所述元信息包括:图像的原始信息及所述缩放参数。
3.根据权利要求2所述的方法,其特征在于,所述缩放参数包括:长度,宽度及图像通道数;
所述第一压缩神经网络的输入层神经元个数、以及所述第一解压缩神经网络的输出层神经元个数为:所述长度与所述宽度与所述图像通道数的积。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取第二图像压缩包,所述第二图像压缩包中包括:至少一份压缩数据、第二解压缩神经网络的构建信息及第二解压缩计算参数;
根据所述第二解压缩神经网络的构建信息构建第二解压缩神经网络,并将所述第二解压缩神经网络的计算参数设置为所述第二解压缩计算参数;
将所述第二图像压缩包中的每份压缩数据输入设置后的第二解压缩神经网络,以对所述第二图像压缩包中的每份压缩数据进行解压缩,生成每份压缩数据的图像数据;
将所生成的图像数据转换为图像。
5.根据权利要求4所述的方法,其特征在于,所述第二图像压缩包中还包括:图像的元信息,所述元信息包括:缩放参数和图像的原始信息;
所述将所生成的图像数据转换为图像,包括:
针对每份图像数据,根据所述缩放参数,将该份图像数据转换为第二矩阵;
将所述第二矩阵转换为第二位图图像;
根据所述图像的原始信息将所述第二位图图像转换为图像。
6.一种图像处理装置,其特征在于,包括:
第一转换模块,用于将多张待处理图像中的每张待处理图像转换为一份图像数据;
输入模块,用于将转换得到的每份图像数据分别输入第一压缩神经网络,所述第一压缩神经网络的输出为第一解压缩神经网络的输入,以使所述第一压缩神经网络和所述第一解压缩神经网络利用所述每份图像数据调整计算参数;
确定模块,用于当所述每份图像数据与该图像数据对应的从所述第一解压缩神经网络输出的数据的相似度均大于预设阈值时,将所述第一压缩神经网络的计算参数确定为第一压缩计算参数,将所述第一解压缩神经网络的计算参数确定为第一解压缩计算参数;
压缩模块,用于将所述第一压缩神经网络的计算参数设置为所述第一压缩计算参数,分别将每份图像数据输入设置后的第一压缩神经网络,以对每份图像数据进行压缩,生成每份图像数据的压缩数据;
生成模块,用于生成至少一个第一图像压缩包,所述第一图像压缩包中包含至少一份图像数据的压缩数据、所述第一解压缩神经网络的构建信息及所述第一解压缩计算参数。
7.根据权利要求6所述的装置,其特征在于,所述第一转换模块,具体用于:
将每张待处理图像按照预设的缩放参数进行缩放,得到第一位图图像;
将所述第一位图图像转换为第一矩阵,并将所述第一矩阵转换为一维向量,将所述一维向量作为一份图像数据;
所述第一图像压缩包中还包含所述至少一份图像数据的元信息;所述元信息包括:图像的原始信息及所述缩放参数。
8.根据权利要求7所述的装置,其特征在于,所述缩放参数包括:长度,宽度及图像通道数;所述第一压缩神经网络的输入层神经元个数、以及所述第一解压缩神经网络的输出层神经元个数为:所述长度与所述宽度与所述图像通道数的积。
9.根据权利要求6所述的装置,其特征在于,所述装置还包括:
获取模块,用于获取第二图像压缩包,所述第二图像压缩包中包括:至少一份压缩数据、第二解压缩神经网络的构建信息及第二解压缩计算参数;
构建模块,用于根据所述第二解压缩神经网络的构建信息构建第二解压缩神经网络,并将所述第二解压缩神经网络的计算参数设置为所述第二解压缩计算参数;
解压缩模块,用于将所述第二图像压缩包中的每份压缩数据输入设置后的第二解压缩神经网络,以对所述第二图像压缩包中的每份压缩数据进行解压缩,生成每份压缩数据的图像数据;
第二转换模块,用于将所生成的图像数据转换为图像。
10.根据权利要求9所述的装置,其特征在于,所述第二图像压缩包中还包括:图像的元信息,所述元信息包括:缩放参数和图像的原始信息;所述第二转换模块,具体用于:
针对每份图像数据,根据所述缩放参数,将该份图像数据转换为第二矩阵;
将所述第二矩阵转换为第二位图图像;
根据所述图像的原始信息将所述第二位图图像转换为图像。
11.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存储机器可读指令;
处理器,用于读取所述存储器上所存储的机器可读指令,以执行权利要求1-5任一所述的方法步骤。
12.一种机器可读存储介质,其特征在于,存储有机器可执行指令,在被处理器调用和执行时,所述机器可执行指令促使所述处理器:执行权利要求1-5任一所述的方法步骤。
CN201710617940.9A 2017-07-26 2017-07-26 一种图像处理方法、装置及设备 Active CN107547773B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710617940.9A CN107547773B (zh) 2017-07-26 2017-07-26 一种图像处理方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710617940.9A CN107547773B (zh) 2017-07-26 2017-07-26 一种图像处理方法、装置及设备

Publications (2)

Publication Number Publication Date
CN107547773A CN107547773A (zh) 2018-01-05
CN107547773B true CN107547773B (zh) 2020-01-03

Family

ID=60970795

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710617940.9A Active CN107547773B (zh) 2017-07-26 2017-07-26 一种图像处理方法、装置及设备

Country Status (1)

Country Link
CN (1) CN107547773B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754357B (zh) * 2018-01-26 2021-09-21 京东方科技集团股份有限公司 图像处理方法、处理装置以及处理设备
WO2019178711A1 (zh) * 2018-03-18 2019-09-26 广东欧珀移动通信有限公司 图像的处理方法、装置、存储介质及电子设备
CN110933432A (zh) * 2018-09-19 2020-03-27 珠海金山办公软件有限公司 图像压缩、解压缩方法、装置、电子设备及存储介质
CN111970519B (zh) * 2020-08-28 2021-06-15 中国人民解放军国防科技大学 机载视频回传方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352354A (ja) * 2005-06-14 2006-12-28 Funai Electric Co Ltd データ圧縮伸張方法
JP2008117226A (ja) * 2006-11-06 2008-05-22 Funai Electric Co Ltd 画像データ圧縮伸長装置
CN101795344A (zh) * 2010-03-02 2010-08-04 北京大学 数字全息图像压缩、解码方法及系统、传输方法及系统
CN105049669A (zh) * 2015-06-17 2015-11-11 西安空间无线电技术研究所 一种把多幅图像隐藏在一幅图像中传输的方法
CN105681622A (zh) * 2015-12-31 2016-06-15 复旦大学 一种基于细胞神经网络超混沌和dna序列的彩色图像加密方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352354A (ja) * 2005-06-14 2006-12-28 Funai Electric Co Ltd データ圧縮伸張方法
JP2008117226A (ja) * 2006-11-06 2008-05-22 Funai Electric Co Ltd 画像データ圧縮伸長装置
CN101795344A (zh) * 2010-03-02 2010-08-04 北京大学 数字全息图像压缩、解码方法及系统、传输方法及系统
CN105049669A (zh) * 2015-06-17 2015-11-11 西安空间无线电技术研究所 一种把多幅图像隐藏在一幅图像中传输的方法
CN105681622A (zh) * 2015-12-31 2016-06-15 复旦大学 一种基于细胞神经网络超混沌和dna序列的彩色图像加密方法

Also Published As

Publication number Publication date
CN107547773A (zh) 2018-01-05

Similar Documents

Publication Publication Date Title
US11057585B2 (en) Image processing method and device using line input and output
CN107547773B (zh) 一种图像处理方法、装置及设备
US20170195692A1 (en) Video data encoding and decoding methods and apparatuses
US11962937B2 (en) Method and device of super resolution using feature map compression
JP2018511227A (ja) フレーム内符号化方法、フレーム内復号化方法、エンコーダ、及びデコーダ
CN110636313B (zh) 变换、二次变换矩阵训练方法、编码器及相关装置
WO2022166298A1 (zh) 一种图像处理方法、装置、电子设备及可读存储介质
CN111510739B (zh) 一种视频传输方法及装置
US20230276023A1 (en) Image processing method and device using a line-wise operation
AU2008245952B2 (en) Image compression and decompression using the pixon method
AU2019101274A4 (en) Method and apparatus for super-resolution using line unit operation
US11636626B2 (en) Apparatus and method of using AI metadata related to image quality
JP6065613B2 (ja) 動画像符号化装置
CN113079378A (zh) 图像处理方法、装置和电子设备
CN104392207A (zh) 一种用于数字图像内容识别的特征编码方法
CN113256744B (zh) 一种图像编码、解码方法及系统
JP2006270737A (ja) 復号化装置、分布推定方法、復号化方法及びこれらのプログラム
CN113038131B (zh) 视频编码方法、装置、计算机设备和存储介质
RU2339082C1 (ru) Способ компрессии и декомпрессии статических изображений и видеоинформации в цифровой форме
WO2019225344A1 (ja) 符号化装置、画像補間システム及び符号化プログラム
CN113554719A (zh) 一种图像编码方法、解码方法、存储介质及终端设备
US9560364B2 (en) Encoding image data with quantizing and inverse-quantizing pixel values
CN107172425B (zh) 缩略图生成方法、装置及终端设备
CN116916034B (zh) 基于safd的图像处理方法、装置、设备及存储介质
WO2022268236A1 (en) Image compression and associated color approximation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant