CN115761020B - 一种基于神经网络自动构建的影像数据压缩方法 - Google Patents

一种基于神经网络自动构建的影像数据压缩方法 Download PDF

Info

Publication number
CN115761020B
CN115761020B CN202211476822.8A CN202211476822A CN115761020B CN 115761020 B CN115761020 B CN 115761020B CN 202211476822 A CN202211476822 A CN 202211476822A CN 115761020 B CN115761020 B CN 115761020B
Authority
CN
China
Prior art keywords
neural network
image data
population
evolution
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211476822.8A
Other languages
English (en)
Other versions
CN115761020A (zh
Inventor
文力
李朋龙
敖影
丁忆
张滔
罗鼎
马泽忠
张孝成
肖禾
李晓龙
胡艳
张灿
刘亦凡
范文武
吕帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Geographic Information And Remote Sensing Application Center
Original Assignee
Chongqing Geographic Information And Remote Sensing Application Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Geographic Information And Remote Sensing Application Center filed Critical Chongqing Geographic Information And Remote Sensing Application Center
Priority to CN202211476822.8A priority Critical patent/CN115761020B/zh
Publication of CN115761020A publication Critical patent/CN115761020A/zh
Application granted granted Critical
Publication of CN115761020B publication Critical patent/CN115761020B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种基于神经网络自动构建的影像数据压缩方法,包括步骤:待压缩影像数据预处理;初始化神经网络种群;神经网络种群的迭代训练与更新;神经网络种群演化;导出数据完成压缩。其显著效果是:通过神经网络对影像数据进行编码和重建,将影像数据压缩存储至神经网络的参数中,大幅减少了数据占用的存储空间;具有更强的通用性和易用性,能够用于压缩各种类型、不同规模、不同复杂度的影像数据集。

Description

一种基于神经网络自动构建的影像数据压缩方法
技术领域
本发明涉及到影像数据处理技术领域,具体涉及一种基于神经网络自动构建的影像数据压缩方法。
背景技术
随着科学技术的发展,智能终端、监控摄像头、遥感卫星等传感器的数量快速增加,使得影像数据的规模也呈爆炸式增长,同时这些传感器的分辨率越来越高,拍摄的影像数据占用的空间也越来越大,使得存储和传输这些影像数据都需要付出较高的代价,降低这些影像数据存储空间的压缩方法具有很高的经济价值和实用价值。
传统的影像数据压缩方法主要分为无损压缩方法和有损压缩方法,无损影像数据压缩方法通过消除数据中的冗余信息,利用编码替代数据中重复出现的长编码,达到降低数据存储空间的目的。解压缩的过程是利用压缩文件中保存的长编码对应关系,将编码还原为长编码,从而恢复原始的数据。当影像内容简单时,无损数据压缩方法具有较好的压缩效果,但当影像数据内容变复杂时,无损数据压缩方法的压缩效果则会明显降低。
有损影像数据压缩方法是利用人眼自动使用相近颜色填补丢失颜色的机制,通过算法删除影像中人眼不敏感的颜色变化,以减少数据的存储空间,压缩后的影像数据无法还原。有损影像数据压缩方法能够压缩复杂的影像数据,但需要大幅压缩影像数据存储空间时,压缩后影像数据的信息损失严重。
综上,传统的影像数据压缩方法压缩和解压速度较快,且具有较强的通用性,能够被应用于处理不同类型的影像数据,但在处理大规模复杂影像数据,且需要保证影像质量时,传统的影像数据压缩方法则会出现数据压缩率低的问题。
此外,随着近年影像处理和深度学习技术的发展,有研究人员基于编码解码的思想设计神经网络用于压缩影像数据。基于深度学习的影像数据压缩方法能够大幅提高影像数据的压缩比,这类方法存在如下缺陷:一是通常针对某一类影像、某一个影像数据集甚至某一张影像设计特定的网络结构,而设计神经网络是一件专业性较强的工作;二是已有的神经网络都是针对一批数据手动设计的神经网络,当数据规模不断变化时,设计人员难以根据数据集的情况设计出大小合适的神经网络,而且设计的神经网络都需要花很长的时间来进行测试调整,这使得人工设计的深度神经网络不具有通用性,难以被应用到压缩不同类型、不同规模、不同复杂度的影像数据集。
发明内容
针对现有技术的不足,本发明的目的是提供一种基于神经网络自动构建的影像数据压缩方法,该方法基于神经网络自动构建技术为不同的数据集自动演化生成不同的神经网络,通过神经网络对影像数据进行压缩和解压,兼具高压缩比和高通用性的优点。
为达到上述目的,本发明采用的技术方案如下:
一种基于神经网络自动构建的影像数据压缩方法,其关键在于,包括如下步骤:
步骤1、待压缩影像数据预处理:
将待压缩影像数据进行归一化处理,并对处理后的影像数据进行聚类分组;
步骤2、初始化神经网络种群:
对神经网络种群进行参数配置,根据配置的参数和步骤1获得的数据集随机初始化神经网络种群;
步骤3、神经网络种群的迭代训练与更新:
使用步骤1获得的数据集对神经网络种群通过迭代训练的方式进行压缩和解压,并根据解压结果与原始影像的误差对种群中神经网络的参数进行更新;
步骤4、神经网络种群演化:
依据种群中神经网络的训练结果,淘汰训练结果较差的神经网络,并随机从种群中挑选神经网络进行演化,当达到最大演化次数时进入步骤5,否则返回步骤3继续训练种群中的神经网络;
步骤5、导出数据完成压缩:
选取训练误差最小的神经网络,导出该神经网络的压缩模型对影像数据的编码,同时导出其解压模型的网络结构和参数,完成影像数据的压缩。
进一步的,步骤1中对待压缩影像数据进行预处理的具体步骤如下:
步骤1.1、分析待压缩的影像数据集,根据影像的特征评估影像数据集需要划分的组数;
步骤1.2、将待压缩的影像数据集中的影像归一化处理;
步骤1.3、使用K-Means算法对影像数据集进行聚类分组,使得同一组内的影像数据相似。
进一步的,使用K-Means算法对影像数据集进行聚类分组过程如下:
S1、从待压缩的影像数据集中随机选取3张影像作为聚类中心;
S2、计算待压缩的影像数据集中影像与聚类中心的距离,将影像的分组标记为距离较近的聚类中心;
S3、根据分组结果,更新聚类中心,返回步骤S2循环,直到聚类中心不再变化;
S4、根据聚类结果,将数据集中的影像分组为D1,D2,D3
进一步的,步骤2中配置的参数包括神经网络种群中初始神经网络数量、神经网络种群中神经网络最大数量、种群演化最大次数、交叉演化的概率、变异演化的概率、每个批次输入神经网络的影像数量、神经网络参数的学习率。
进一步的,步骤3中神经网络种群的迭代训练与更新的具体过程为:
步骤3.1、将步骤1聚类分组获得的影像数据集输入神经网络的压缩模型对影像数据进行下采样,然后生成影像数据的编码;
步骤3.2、将编码输入神经网络的解压模型对编码进行解码,输出重建后的影像数据;
步骤3.3、计算解压模型重建的影像数据与原始影像数据之间的误差;
步骤3.4、利用得到的误差计算神经网络中参数的更新梯度,通过反向传播对解压模型和压缩模型中的参数进行更新。
进一步的,步骤3.3中解压模型重建的影像数据与原始影像数据之间的误差计算方式为:
Figure BDA0003960264750000031
L是L1与MSSSIM的混合损失函数,其中,α为平衡因子,LMSSSIM为感知误差,Ll1为平均绝对误差,
Figure BDA0003960264750000032
为MSSSIM中的高斯核。
进一步的,步骤4中神经网络种群演化的过程如下:
步骤4.1、根据步骤3种群中神经网络的训练结果,对神经网络种群中的神经网络进行排序;
步骤4.2、根据排序结果淘汰种群中误差较大的神经网络,被淘汰的神经网络不再参与后期的训练和演化;
步骤4.3、从种群中随机挑选未被淘汰的神经网络,对被挑选的神经网络进行演化以产生新的神经网络加入种群。
进一步的,步骤4.3对被挑选的神经网络进行演化时包括交叉演化和变异演化,所述交叉演化是将两个神经网络中的结构进行随机交叉,所述变异演化包括增加或修改网络结构中的某一层,过程如下:
从种群中随机挑选两个未被淘汰的神经网络进行交叉演化,互相交换网络结构和网络参数生成两个子代神经网络;
从种群中随机挑选一个未被淘汰的神经网络进行变异演化,经过变异演化后生成一个子代神经网络;
训练交叉演化与变异演化生成的子代神经网络,固定子代神经网络中继承自父代的参数,训练新增加的网络参数,训练的迭代次数为当前神经网络的演化次数,将训练后的子代神经网络加入种群中,参与后续的训练和演化;
如果达到最大演化次数则进入步骤5,否则跳转至步骤3循环进行,继续训练和演化种群中的神经网络。
进一步的,所述变异演化包括添加神经元、神经元连接和网络层,三种变异演化的概率分别是0.6、0.3和0.1。
本发明的显著效果是:
(1)本发明使用演化算法自动生成神经网络,并对神经网络进行自动演化,能够根据待压缩影像数据的规模和复杂程度自动调整神经网络的宽度和深度,自动演化出拟合数据集的神经网络,不需要人为设计神经网络的结构,使得本发明提出的影像数据压缩方法具有更强的通用性和易用性,能够用于压缩各种类型、不同规模、不同复杂度的影像数据集。
(2)获取的最终神经网络由初始种群中一系列神经网络的竞争和演化而来,确保来解压模型重建输出的影像与压缩前影像的信息损失较小;在神经网络演化的过程中以细粒度的演化为主,使得神经网络的规模不会过快膨胀,确保数据的压缩比。
(3)通过神经网络对影像数据进行编码和重建,将影像数据压缩存储至神经网络的参数中,大幅减少了数据占用的存储空间。
附图说明
图1是本发明的方法流程图;
图2是本发明神经网络演化的示意图;
图3是本发明将影像数据集压缩为神经网络和编码的过程示意图;
图4是本发明对影像数据集压缩和解压的效果图。
具体实施方式
下面结合附图对本发明的具体实施方式以及工作原理作进一步详细说明。
如图1所示,一种基于神经网络自动构建的影像数据压缩方法,具体步骤如下:
步骤1、待压缩影像数据预处理:将待压缩影像数据进行归一化处理,并对处理后的影像数据进行聚类分组,具体步骤如下:
步骤1.1、分析待压缩的影像数据集D={X1,X2,...,Xn},根据影像的颜色、纹理等特征评估影像数据集需要划分的组数,本实施例分别使用灰度影像数据集、自然影像数据集和卫星遥感影像数据集进行压缩,压缩过程中分别将这三个数据集划分为3个组;
步骤1.2、将待压缩的影像数据集中的影像归一化处理,使用的数据集为8bit位深,所以将影像的像素值除以255,使得影像的像素的值Xit∈[0,1];
步骤1.3、使用K-Means算法对影像数据集进行聚类分组,将数据集分为3组,使得同一组内的影像数据相似,详细的分组过程如下:
S1、从待压缩的影像数据集中随机选取3张影像作为聚类中心C;
S2、计算数据集中影像与聚类中心的距离,将影像的分组标记为距离较近的聚类中心,影像与聚类中心的计算公式如下:
Figure BDA0003960264750000051
其中,m表示影像的像素,Xit表示第i张影像的第t个像素的值;
S3、根据分组结果,更新聚类中心,返回步骤S2循环,直到聚类中心不再变化;
S4、根据聚类结果,将数据集中的影像分组为D1,D2,D3
步骤2、初始化神经网络种群:对神经网络种群进行参数配置,根据配置的参数和步骤1获得的数据集随机初始化神经网络种群,限制神经网络的初始层数不超过2层;
本例中,设置种群中初始神经网络数量为150,种群中神经网络最大数量为600,种群演化最大次数为600,交叉演化的概率为0.8,变异演化的概率为0.8,每个批次输入神经网络的影像数量为32,神经网络参数的学习率设置为0.0008,使用Adam优化器更新神经网络的参数。
步骤3、神经网络种群的迭代训练与更新:使用步骤1获得的数据集对神经网络种群通过迭代训练的方式进行压缩和解压,具体参见附图3,并根据解压结果与原始影像的误差对种群中神经网络的参数进行更新,使得解压神经网络输出的影像数据与输入的影像数据更拟合,详细的步骤如下:
步骤3.1、将步骤1聚类分组获得的影像数据集分批次输入神经网络的压缩模型,利用压缩模型中的神经元对影像数据进行下采样,降低影像特征的维度,然后将压缩模型最后一层神经元的输出作为影像数据的编码;
步骤3.2、将压缩模型输出的影像数据编码输入神经网络的解压模型,解压模型通过自动构建的网络逐层对编码进行解码,实现对影像数据进行重建,输出重建后的影像数据;
步骤3.3、计算解压模型输出的重建的影像数据与原始影像数据之间的误差,计算公式如下所示:
Figure BDA0003960264750000061
L是L1与MSSSIM的混合损失函数,其中平衡因子α设置为0.84,LMSSSIM为感知误差,Ll1为平均绝对误差,
Figure BDA0003960264750000062
为MSSSIM中的高斯核;
步骤3.4、利用步骤3.3得到的误差计算神经网络中参数的更新梯度,通过反向传播对解压模型和压缩模型中的参数进行更新。
步骤4、神经网络种群演化:依据种群中神经网络的训练结果,淘汰训练结果较差的神经网络,并随机从种群中挑选神经网络进行演化,当达到最大演化次数时进入步骤5,否则返回步骤3继续训练种群中的神经网络;
步骤4.1、根据步骤3种群中神经网络的训练结果也即解压模型输出的重建影像数据和原始影像数据的误差,对神经网络种群中的神经网络按照误差由低到高的顺序进行排序;
步骤4.2、根据对神经网络的排序结果,淘汰种群中误差较大也即排名靠后的50%的神经网络,被淘汰的神经网络不再参与后期的训练和演化;
步骤4.3、从种群中随机挑选未被淘汰的神经网络,优先选择神经网络中精度高且网络参数更少的神经网络,对被挑选的神经网络进行演化以产生新的神经网络加入种群;
进一步的,步骤4.3对被挑选的神经网络进行演化时包括交叉演化和变异演化,所述交叉演化是将两个神经网络中的结构进行随机交叉,所述变异演化包括增加或修改网络结构中的某一层,神经网络演化示意图如图2所示,具体过程如下:
从种群中随机挑选两个未被淘汰的神经网络进行交叉演化,互相交换网络结构和网络参数生成两个子代神经网络;两个子代神经网络具有相同的网络结构,子代神经网络1是在父代1的基础上继承父代2中不同的网络结构,子代神经网络2则是在父代2的基础上继承父代1中不同的网络结构,继承的网络结构包括神经元和神经元连接;
从种群中随机挑选一个未被淘汰的神经网络进行变异演化,变异演化包括添加神经元、神经元连接和网络层,三种变异演化的概率分别是0.6、0.3和0.1,增加神经元和增加网络层会同时随机生成相应的输入和输出神经元连接,每个神经网络经过变异演化后生成一个子代神经网络;
训练交叉演化与变异演化生成的子代神经网络,固定子代神经网络中继承自父代的参数,训练新增加的网络参数,训练的迭代次数为当前神经网络的演化次数,将训练后的子代神经网络加入种群中,参与后续的训练和演化;
如果达到最大演化次数则进入步骤5,否则跳转至步骤3循环进行,继续训练和演化种群中的神经网络。
步骤5、导出数据完成压缩:选取训练误差最小的神经网络,导出该神经网络的压缩模型对影像数据的编码,同时导出其解压模型的网络结构和参数,完成影像数据的压缩。
完成种群中神经网络的训练和演化,同时完成影像数据的压缩,根据神经网络的排序结果,选择训练误差最小的神经网络,将该网络的解压神经网络和该网络的压缩神经网络对影像数据的编码作为最终的压缩结果导出。
在需要对数据进行解压时,将影像数据的编码输入解压神经网络,解压神经网络对编码进行上采样,最后输出解压完成的影像数据。
采用本实施例所述的压缩方法对影像数据集进行压缩和解压的效果如图4所示。从图中可以看出,本发明通过神经网络对影像数据进行编码和重建,将影像数据压缩存储至神经网络的参数中,大幅减少了数据占用的存储空间。另外,本发明使用演化算法自动生成神经网络,并对神经网络进行自动演化,从而实现压缩和解压神经网络自动匹配影像数据集,使得本发明具有较强的通用性,能够被应用于压缩不同规模、不同复杂度的数据集。
以上对本发明所提供的技术方案进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。

Claims (9)

1.一种基于神经网络自动构建的影像数据压缩方法,其特征在于,包括如下步骤:
步骤1、待压缩影像数据预处理:
将待压缩影像数据进行归一化处理,并对处理后的影像数据进行聚类分组;
步骤2、初始化神经网络种群:
对神经网络种群进行参数配置,根据配置的参数和步骤1获得的数据集随机初始化神经网络种群;
步骤3、神经网络种群的迭代训练与更新:
使用步骤1获得的数据集对神经网络种群通过迭代训练的方式进行压缩和解压,并根据解压结果与原始影像的误差对种群中神经网络的参数进行更新;
步骤4、神经网络种群演化:
依据种群中神经网络的训练结果,淘汰训练结果较差的神经网络,并随机从种群中挑选神经网络进行演化,当达到最大演化次数时进入步骤5,否则返回步骤3继续训练种群中的神经网络;
步骤5、导出数据完成压缩:
选取训练误差最小的神经网络,导出该神经网络的压缩模型对影像数据的编码,同时导出其解压模型的网络结构和参数,完成影像数据的压缩。
2.根据权利要求1所述的基于神经网络自动构建的影像数据压缩方法,其特征在于:步骤1中对待压缩影像数据进行预处理的具体步骤如下:
步骤1.1、分析待压缩的影像数据集,根据影像的特征评估影像数据集需要划分的组数;
步骤1.2、将待压缩的影像数据集中的影像归一化处理;
步骤1.3、使用K-Means算法对影像数据集进行聚类分组,使得同一组内的影像数据相似。
3.根据权利要求2所述的基于神经网络自动构建的影像数据压缩方法,其特征在于:使用K-Means算法对影像数据集进行聚类分组过程如下:
S1、从待压缩的影像数据集中随机选取3张影像作为聚类中心;
S2、计算待压缩的影像数据集中影像与聚类中心的距离,将影像的分组标记为距离较近的聚类中心;
S3、根据分组结果,更新聚类中心,返回步骤S2循环,直到聚类中心不再变化;
S4、根据聚类结果,将数据集中的影像分组为D1,D2,D3
4.根据权利要求1所述的基于神经网络自动构建的影像数据压缩方法,其特征在于:步骤2中配置的参数包括神经网络种群中初始神经网络数量、神经网络种群中神经网络最大数量、种群演化最大次数、交叉演化的概率、变异演化的概率、每个批次输入神经网络的影像数量、神经网络参数的学习率。
5.根据权利要求1所述的基于神经网络自动构建的影像数据压缩方法,其特征在于:步骤3中神经网络种群的迭代训练与更新的具体过程为:
步骤3.1、将步骤1聚类分组获得的影像数据集输入神经网络的压缩模型对影像数据进行下采样,然后生成影像数据的编码;
步骤3.2、将编码输入神经网络的解压模型对编码进行解码,输出重建后的影像数据;
步骤3.3、计算解压模型重建的影像数据与原始影像数据之间的误差;
步骤3.4、利用得到的误差计算神经网络中参数的更新梯度,通过反向传播对解压模型和压缩模型中的参数进行更新。
6.根据权利要求5所述的基于神经网络自动构建的影像数据压缩方法,其特征在于:步骤3.3中解压模型重建的影像数据与原始影像数据之间的误差计算方式为:
Figure FDA0003960264740000021
L是L1与MSSSIM的混合损失函数,其中,α为平衡因子,LMSSSIM为感知误差,Ll1为平均绝对误差,
Figure FDA0003960264740000022
为MSSSIM中的高斯核。
7.根据权利要求1所述的基于神经网络自动构建的影像数据压缩方法,其特征在于:步骤4中神经网络种群演化的过程如下:
步骤4.1、根据步骤3种群中神经网络的训练结果,对神经网络种群中的神经网络进行排序;
步骤4.2、根据排序结果淘汰种群中误差较大的神经网络,被淘汰的神经网络不再参与后期的训练和演化;
步骤4.3、从种群中随机挑选未被淘汰的神经网络,对被挑选的神经网络进行演化以产生新的神经网络加入种群。
8.根据权利要求7所述的基于神经网络自动构建的影像数据压缩方法,其特征在于:步骤4.3对被挑选的神经网络进行演化时包括交叉演化和变异演化,所述交叉演化是将两个神经网络中的结构进行随机交叉,所述变异演化包括增加或修改网络结构中的某一层,过程如下:
从种群中随机挑选两个未被淘汰的神经网络进行交叉演化,互相交换网络结构和网络参数生成两个子代神经网络;
从种群中随机挑选一个未被淘汰的神经网络进行变异演化,经过变异演化后生成一个子代神经网络;
训练交叉演化与变异演化生成的子代神经网络,固定子代神经网络中继承自父代的参数,训练新增加的网络参数,训练的迭代次数为当前神经网络的演化次数,将训练后的子代神经网络加入种群中,参与后续的训练和演化;
如果达到最大演化次数则进入步骤5,否则跳转至步骤3循环进行,继续训练和演化种群中的神经网络。
9.根据权利要求8所述的基于神经网络自动构建的影像数据压缩方法,其特征在于:所述变异演化包括添加神经元、神经元连接和网络层,三种变异演化的概率分别是0.6、0.3和0.1。
CN202211476822.8A 2022-11-23 2022-11-23 一种基于神经网络自动构建的影像数据压缩方法 Active CN115761020B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211476822.8A CN115761020B (zh) 2022-11-23 2022-11-23 一种基于神经网络自动构建的影像数据压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211476822.8A CN115761020B (zh) 2022-11-23 2022-11-23 一种基于神经网络自动构建的影像数据压缩方法

Publications (2)

Publication Number Publication Date
CN115761020A CN115761020A (zh) 2023-03-07
CN115761020B true CN115761020B (zh) 2023-05-30

Family

ID=85336220

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211476822.8A Active CN115761020B (zh) 2022-11-23 2022-11-23 一种基于神经网络自动构建的影像数据压缩方法

Country Status (1)

Country Link
CN (1) CN115761020B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0395150A1 (fr) * 1989-04-26 1990-10-31 Laboratoires D'electronique Philips Procédé et structure pour la compression de données
CN108881660A (zh) * 2018-05-02 2018-11-23 北京大学 一种采用优化初始权重的量子神经网络压缩计算全息图的方法
CN111062478A (zh) * 2019-12-18 2020-04-24 天地伟业技术有限公司 基于神经网络的特征压缩算法
CN112004092A (zh) * 2020-07-04 2020-11-27 国网山西省电力公司电力科学研究院 一种基于改进图像块分类算法的bp神经网络图像压缩方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0395150A1 (fr) * 1989-04-26 1990-10-31 Laboratoires D'electronique Philips Procédé et structure pour la compression de données
CN108881660A (zh) * 2018-05-02 2018-11-23 北京大学 一种采用优化初始权重的量子神经网络压缩计算全息图的方法
CN111062478A (zh) * 2019-12-18 2020-04-24 天地伟业技术有限公司 基于神经网络的特征压缩算法
CN112004092A (zh) * 2020-07-04 2020-11-27 国网山西省电力公司电力科学研究院 一种基于改进图像块分类算法的bp神经网络图像压缩方法

Also Published As

Publication number Publication date
CN115761020A (zh) 2023-03-07

Similar Documents

Publication Publication Date Title
CN109996071B (zh) 基于深度学习的可变码率图像编码、解码系统及方法
Oehler et al. Combining image compression and classification using vector quantization
CN109889839B (zh) 基于深度学习的感兴趣区域图像编码、解码系统及方法
CN111147862B (zh) 一种基于目标编码的端到端图像压缩方法
CN111078911A (zh) 一种基于自编码器的无监督哈希方法
CN114581544A (zh) 图像压缩方法、计算机设备及计算机存储介质
US20210326710A1 (en) Neural network model compression
CN110892419A (zh) 停止码容忍的图像压缩神经网络
CN111246206A (zh) 一种基于自编码器的光流信息压缩方法及装置
CN112861976A (zh) 一种基于孪生图卷积哈希网络的敏感图像识别方法
CN112712855B (zh) 一种基于联合训练的含缺失值基因微阵列的聚类方法
CN116600119B (zh) 视频编码、解码方法、装置、计算机设备和存储介质
CN115761020B (zh) 一种基于神经网络自动构建的影像数据压缩方法
CN109670057B (zh) 一种渐进式的端到端深度特征量化系统及方法
US8285053B2 (en) Codebook generating method
CN116318172A (zh) 一种设计仿真软件数据自适应压缩方法
Shah et al. Vector quantization with codebook and index compression
CN114386595B (zh) 一种基于超先验架构的sar图像压缩方法
CN111343458B (zh) 一种基于重建残差的稀疏灰度图像编解码方法及系统
CN114332481A (zh) 一种基于非负稀疏自编码器的盲端元提取与光谱解混方法
CN113344060A (zh) 文本分类模型训练方法、诉讼状分类方法及装置
CN113628290A (zh) 基于3d卷积自编码器的波段自适应高光谱图像压缩方法
CN113177627A (zh) 优化系统、重新训练系统及其方法及处理器和可读介质
CN116029340B (zh) 一种基于深度学习网络的图像及语义信息传输方法
CN111368976B (zh) 基于神经网络特征识别的数据压缩方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant