CN110569967A - 一种基于算术编码的神经网络模型压缩加密方法及系统 - Google Patents
一种基于算术编码的神经网络模型压缩加密方法及系统 Download PDFInfo
- Publication number
- CN110569967A CN110569967A CN201910857261.8A CN201910857261A CN110569967A CN 110569967 A CN110569967 A CN 110569967A CN 201910857261 A CN201910857261 A CN 201910857261A CN 110569967 A CN110569967 A CN 110569967A
- Authority
- CN
- China
- Prior art keywords
- arithmetic coding
- convolution kernel
- convolution
- neural network
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/08—Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
- H04L9/0861—Generation of secret information including derivation or calculation of cryptographic keys or passwords
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Security & Cryptography (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明公开了一种基于算术编码的神经网络模型压缩加密方法及系统,属于人工智能数据压缩加密技术领域。本发明的基于算术编码的神经网络模型压缩加密方法包括以下步骤:S1、对卷积神经网络模型进行逐层卷积核多通道截短均匀量化;S2、统计均匀量化后各卷积核数值概率分布,得到卷积核每个位置对应的概率表;S3、根据概率表,对量化后各卷积核进行逐卷积核到通道算术编码,得到算术编码值;S4、对算术编码值进行二进制转换,并截取相同长度;S5、在卷积神经网络推理时,远端将算术编码值传入推理主体部件。该发明的基于算术编码的神经网络模型压缩加密方法能够有效减少卷积核传输所占的带宽资源及存储资源,具有很好的推广应用价值。
Description
技术领域
本发明涉及人工智能数据压缩加密技术领域,具体提供一种基于算术编码的神经网络模型压缩加密方法及系统。
背景技术
卷积神经网络(CNN)是目前最流行的深度学习算法之一,该算法的模型直接从图像、视频、文本或声音中学习执行分类任务。CNN尤其适用于发现图像中的模式,从而识别物体、人脸和场景。直接从图像数据中学习,使用模式对图像进行分类,无需手动特征提取。卷积神经网络可能有数十个甚至数百个层,每个层学习检测图像的不同特征。卷积层滤波器会应用到不同分辨率的各个训练图像,且每个卷积图像的输出会用作下一层的输入。
每一层卷积的channel数和网络的总卷积层数,构成了一个巨大的超参集合。随着卷积层数及通道数增加,卷积核所占空间急剧上升,对于计算和存储提出了更高要求。
在卷积神经网络推理过程中,卷积核数值一般以明文形式传输,若被不法截取,可能造成信息泄露。
算术编码是一种无损数据压缩方法,也是一种熵编码的方法。和其它熵编码方法不同的地方在于,其他的熵编码方法通常是把输入的消息分割为符号,然后对每个符号进行编码,而算术编码是直接把整个输入的消息编码为一个数,一个满足(0.0≤n<1.0)的小数n。
发明内容
本发明的技术任务是针对上述存在的问题,提供一种能够有效减少卷积核传输所占的带宽资源及存储资源,减少片上面积与功耗的基于算术编码的神经网络模型压缩加密方法。
本发明进一步的技术任务是提供一种基于算术编码的神经网络模型压缩加密系统。
为实现上述目的,本发明提供了如下技术方案:
一种基于算术编码的神经网络模型压缩加密方法,该方法包括以下步骤:
S1、对卷积神经网络模型进行逐层卷积核多通道截短均匀量化;
S2、统计均匀量化后各卷积核数值概率分布,得到卷积核每个位置对应的概率表;
S3、根据概率表,对量化后各卷积核进行逐卷积核到通道算术编码,得到每个卷积核对应的算术编码值;
S4、对算术编码值进行二进制转换,并截取相同长度,得到最终卷积核对应的算术编码值;
S5、在卷积神经网络推理时,远端将算术编码值传入推理主体部件,推理主体部件查找概率表,对算术编码值进行解码,用于卷积运算;
S6、可根据计算精度需要,在S5的基础上,推理主体部件查找量化表,对卷积核进行反量化,得到浮点型数据,用于卷积运算。
作为优选,步骤S1中所述逐层逐卷积核多通道,为解析卷积神经网络模型,对每层卷积所需的每个卷积核,取一定数目的通道数作为一组,进行截短均匀量化。
作为优选,所述一定数目可根据部件算力选取,如取128个通道为一组,卷积核通道小于128的保持原通道数,大于128的拆分为多个128通道的组。
作为优选,所述截短均匀量化,为对待算术编码组内所有值进行统计计算,将与平均值差异较大的值舍去,并用量化区间的端点值代替,将剩余值与量化步长相除并按需保留浮点位数,得到均匀量化后的模型参数,用于后续算术编码。
作为优选,所述概率表可事先保存在推理主体部件存储器中,也可随卷积核数据一同传入所述推理主体部件。
一种基于算术编码的神经网络模型压缩加密系统,包括以下模块:
多通道截短均匀量化模块,用于对卷积神经网络模型进行逐层卷积核多通道截短均匀量化;
概率表获取模块,用于统计均匀量化后各卷积核数值概率分布,得到卷积核每个位置对应的概率表;
算术编码值获取模块,用于根据概率表,对量化后各卷积核进行逐卷积核到通道算术编码,得到每个卷积核对应的算术编码值;
卷积核对应的算术编码值获取模块,用于对算术编码值进行二进制转换,并截取相同长度,得到最终卷积核对应的算术编码值;
卷积运算模块,用于在卷积神经网络推理时,远端将算术编码值传入推理主体部件,推理主体部件查找概率表,对算术编码值进行解码,用于卷积运算。
作为优选,所述卷积运算模块可根据计算精度需要,推理主体部件查找量化表,对卷积核进行反量化,得到浮点型数据,用于卷积运算。
作为优选,所述多通道截短均匀量化模块逐层逐卷积核多通道,为解析卷积神经网络模型,对每层卷积所需的每个卷积核,取一定数目的通道数作为一组,进行截短均匀量化。
与现有技术相比,本发明的基于算术编码的神经网络模型压缩加密方法具有以下突出的有益效果:基于算术编码的神经网络模型压缩加密方法通过采用算术编码方法对原始卷积核参数进行压缩与转码,可有效减少卷积核传输所占的带宽资源及存储资源,减少片上面积与功耗;算术编码可逆性保证了卷积计算的精度与准确性,同时由于传输时仅对编码后的数值进行传输,若没有算术编码概率表及数值数目,无法准确还原原始卷积核参数,对卷积核参数进行有效加密,保证了卷积神经网络的保密性与安全可靠性,具有良好的推广应用价值。
具体实施方式
下面将结合实施例,对本发明的基于算术编码的神经网络模型压缩加密方法及系统作进一步详细说明。
实施例
本发明的基于算术编码的神经网络模型压缩加密方法包括以下步骤:
S1、对卷积神经网络模型进行逐层卷积核多通道截短均匀量化。
逐层逐卷积核多通道,为解析卷积神经网络模型,对每层卷积所需的每个卷积核,取一定数目的通道数作为一组,进行截短均匀量化。一定数目可根据部件算力选取,如取128个通道为一组,卷积核通道小于128的保持原通道数,大于128的拆分为多个128通道的组。
截短均匀量化,为对待算术编码组内所有值进行统计计算,将与平均值差异较大的值舍去,并用量化区间的端点值代替,将剩余值与量化步长相除并按需保留浮点位数,得到均匀量化后的模型参数,用于后续算术编码。
S2、统计均匀量化后各卷积核数值概率分布,得到卷积核每个位置对应的概率表。
概率表可事先保存在推理主体部件存储器中,也可随卷积核数据一同传入所述推理主体部件。
S3、根据概率表,对量化后各卷积核进行逐卷积核到通道算术编码,得到每个卷积核对应的算术编码值。
S4、对算术编码值进行二进制转换,并截取相同长度,得到最终卷积核对应的算术编码值。
S5、在卷积神经网络推理时,远端将算术编码值传入推理主体部件,推理主体部件查找概率表,对算术编码值进行解码,用于卷积运算。
S6、可根据计算精度需要,在S5的基础上,推理主体部件查找量化表,对卷积核进行反量化,得到浮点型数据,用于卷积运算。
具体过程如下:
1、某2x2卷积核128个通道内容如下:[0.0086,0.1232,0.6635,0.0097][...][...]...,首先进行逐层逐卷积核多通道截短均匀量化;取量化区间为[0,1],量化步长为0.01,对数据进行量化得到:[0.01,0.12,0.66,0.01][...][...]...。
2、统计量化后各卷积核数值概率分布,得到卷积核每个位置对应的概率表,对128个通道内所有数据进行概率统计,得到各字符概率值,如通道一[0.01,0.12,0.66,0.01]各字符对应概率为
3、开始算术编码,将[0,1)区间按概率比例3:2:1:4划分为
[0,0.3),[0.3-0.5),[0.5-0.6),[0.6-1.0),简称为区间01到区间04;
由于第一个字符为0.01,属于区间01,将区间01按概率比例3:2:1:4继续划分为
[0,0.09),[0.09,0.15),[0.15,0.18),[0.18-0.30),简称为区间11到区间14;
由于第二个字符为0.12,属于区间12,将区间11按概率比例3:2:1:4继续划分为
[0.09,0.108),[0.108,0.12),[0.12,0.126),[0.126-0.15),简称为区间21到区间24;
由于第三个字符为0.66,属于区间23,将区间23按概率比例3:2:1:4继续划分为
[0.12,0.1218),[0.1218,0.123),[0.123,0.1236),[0.1236-0.126),简称为区间31到区间34;
由于第四个字符为0.01,属于区间31,此时可取区间31中的一个小数,如0.1215,代表[0.01,0.12,0.66,0.01]编码结果;
将区间31按概率比例3:2:1:4继续划分为
[0.12,0.12054),[0.12054,0.1209),[0.1209,0.12108),[0.12108-0.1218),简称为区间41到区间44,继续卷积核其他元素编码。
4、对0.120进行二进制转换(0001111100),并截取固定8位长度,得到最终卷积核对应的算术编码值(00011111)。
5、在卷积神经网络推理时,远端将算术编码值(00011111)传入推理主体部件,推理主体部件查找概率表{字符0.01:概率0.3;字符0.12,概率0.2;字符0.66,概率0.1;其他字符:概率0.4};,对算术编码值进行解码,步骤如3所述,得到解码后的卷积核[0.01,0.12,0.66,0.01]用于卷积运算。
6、也可根据计算精度需要,在五的基础上,推理主体部件查找量化表,对卷积核进行反量化,得到浮点型数据,用于卷积运算。
本发明的基于算术编码的神经网络模型压缩加密系统,包括以下模块:
多通道截短均匀量化模块,用于对卷积神经网络模型进行逐层卷积核多通道截短均匀量化。
多通道截短均匀量化模块逐层逐卷积核多通道,为解析卷积神经网络模型,对每层卷积所需的每个卷积核,取一定数目的通道数作为一组,进行截短均匀量化。一定数目可根据部件算力选取,如取128个通道为一组,卷积核通道小于128的保持原通道数,大于128的拆分为多个128通道的组。
截短均匀量化,为对待算术编码组内所有值进行统计计算,将与平均值差异较大的值舍去,并用量化区间的端点值代替,将剩余值与量化步长相除并按需保留浮点位数,得到均匀量化后的模型参数,用于后续算术编码。
概率表获取模块,用于统计均匀量化后各卷积核数值概率分布,得到卷积核每个位置对应的概率表。
概率表可事先保存在推理主体部件存储器中,也可随卷积核数据一同传入所述推理主体部件。
算术编码值获取模块,用于根据概率表,对量化后各卷积核进行逐卷积核到通道算术编码,得到每个卷积核对应的算术编码值。
卷积核对应的算术编码值获取模块,用于对算术编码值进行二进制转换,并截取相同长度,得到最终卷积核对应的算术编码值。
卷积运算模块,用于在卷积神经网络推理时,远端将算术编码值传入推理主体部件,推理主体部件查找概率表,对算术编码值进行解码,用于卷积运算。
卷积运算模块可根据计算精度需要,推理主体部件查找量化表,对卷积核进行反量化,得到浮点型数据,用于卷积运算。
以上所述的实施例,只是本发明较优选的具体实施方式,本领域的技术人员在本发明技术方案范围内进行的通常变化和替换都应包含在本发明的保护范围内。
Claims (8)
1.一种基于算术编码的神经网络模型压缩加密方法,其特征在于:该方法包括以下步骤:
S1、对卷积神经网络模型进行逐层卷积核多通道截短均匀量化;
S2、统计均匀量化后各卷积核数值概率分布,得到卷积核每个位置对应的概率表;
S3、根据概率表,对量化后各卷积核进行逐卷积核到通道算术编码,得到每个卷积核对应的算术编码值;
S4、对算术编码值进行二进制转换,并截取相同长度,得到最终卷积核对应的算术编码值;
S5、在卷积神经网络推理时,远端将算术编码值传入推理主体部件,推理主体部件查找概率表,对算术编码值进行解码,用于卷积运算;
S6、可根据计算精度需要,在S5的基础上,推理主体部件查找量化表,对卷积核进行反量化,得到浮点型数据,用于卷积运算。
2.根据权利要求1所述的基于算术编码的神经网络模型压缩加密方法,其特征在于:步骤S1中所述逐层逐卷积核多通道,为解析卷积神经网络模型,对每层卷积所需的每个卷积核,取一定数目的通道数作为一组,进行截短均匀量化。
3.根据权利要求2所述的基于算术编码的神经网络模型压缩加密方法,其特征在于:所述一定数目可根据部件算力选取,如取128个通道为一组,卷积核通道小于128的保持原通道数,大于128的拆分为多个128通道的组。
4.根据权利要求3所述的基于算术编码的神经网络模型压缩加密方法,其特征在于:所述截短均匀量化,为对待算术编码组内所有值进行统计计算,将与平均值差异较大的值舍去,并用量化区间的端点值代替,将剩余值与量化步长相除并按需保留浮点位数,得到均匀量化后的模型参数,用于后续算术编码。
5.根据权利要求4所述的基于算术编码的神经网络模型压缩加密方法,其特征在于:所述概率表可事先保存在推理主体部件存储器中,也可随卷积核数据一同传入所述推理主体部件。
6.一种基于算术编码的神经网络模型压缩加密系统,其特征在于:包括以下模块:
多通道截短均匀量化模块,用于对卷积神经网络模型进行逐层卷积核多通道截短均匀量化;
概率表获取模块,用于统计均匀量化后各卷积核数值概率分布,得到卷积核每个位置对应的概率表;
算术编码值获取模块,用于根据概率表,对量化后各卷积核进行逐卷积核到通道算术编码,得到每个卷积核对应的算术编码值;
卷积核对应的算术编码值获取模块,用于对算术编码值进行二进制转换,并截取相同长度,得到最终卷积核对应的算术编码值;
卷积运算模块,用于在卷积神经网络推理时,远端将算术编码值传入推理主体部件,推理主体部件查找概率表,对算术编码值进行解码,用于卷积运算。
7.根据权利要求6所述的基于算术编码的神经网络模型压缩加密系统,其特征在于:所述卷积运算模块可根据计算精度需要,推理主体部件查找量化表,对卷积核进行反量化,得到浮点型数据,用于卷积运算。
8.根据权利要求7所述的基于算术编码的神经网络模型压缩加密系统,其特征在于:所述多通道截短均匀量化模块逐层逐卷积核多通道,为解析卷积神经网络模型,对每层卷积所需的每个卷积核,取一定数目的通道数作为一组,进行截短均匀量化。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910857261.8A CN110569967A (zh) | 2019-09-11 | 2019-09-11 | 一种基于算术编码的神经网络模型压缩加密方法及系统 |
PCT/CN2019/111911 WO2021046970A1 (zh) | 2019-09-11 | 2019-10-18 | 一种基于算术编码的神经网络模型压缩加密方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910857261.8A CN110569967A (zh) | 2019-09-11 | 2019-09-11 | 一种基于算术编码的神经网络模型压缩加密方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110569967A true CN110569967A (zh) | 2019-12-13 |
Family
ID=68779189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910857261.8A Pending CN110569967A (zh) | 2019-09-11 | 2019-09-11 | 一种基于算术编码的神经网络模型压缩加密方法及系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110569967A (zh) |
WO (1) | WO2021046970A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310734A (zh) * | 2020-03-19 | 2020-06-19 | 支付宝(杭州)信息技术有限公司 | 保护用户隐私的人脸识别方法和装置 |
CN112953565A (zh) * | 2021-01-19 | 2021-06-11 | 华南理工大学 | 一种基于卷积神经网络的归零卷积码译码方法和系统 |
CN113705791A (zh) * | 2021-08-31 | 2021-11-26 | 上海阵量智能科技有限公司 | 神经网络推理量化的方法、装置、电子设备及存储介质 |
CN114707646A (zh) * | 2022-01-26 | 2022-07-05 | 电子科技大学 | 基于远程推理的分布式人工智能实践平台 |
US11868446B2 (en) | 2020-11-03 | 2024-01-09 | Samsung Electronics Co., Ltd. | Method of operating neural network model using DRM package and method of processing data using the same |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106656461A (zh) * | 2016-11-25 | 2017-05-10 | 中国石油大学(华东) | 一种信号量化情形下的混沌神经网络保密通信方法 |
US9941900B1 (en) * | 2017-10-03 | 2018-04-10 | Dropbox, Inc. | Techniques for general-purpose lossless data compression using a recurrent neural network |
CN108734287A (zh) * | 2017-04-21 | 2018-11-02 | 展讯通信(上海)有限公司 | 深度神经网络模型的压缩方法及装置、终端、存储介质 |
CN108932124A (zh) * | 2018-06-26 | 2018-12-04 | Oppo广东移动通信有限公司 | 神经网络模型压缩方法、装置、终端设备及存储介质 |
CN110020721A (zh) * | 2019-04-09 | 2019-07-16 | 武汉大学 | 一种基于参数压缩的目标检测深度学习网络优化方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105184303B (zh) * | 2015-04-23 | 2019-08-09 | 南京邮电大学 | 一种基于多模态深度学习的图像标注方法 |
US11071501B2 (en) * | 2015-08-14 | 2021-07-27 | Elucid Bioiwaging Inc. | Quantitative imaging for determining time to adverse event (TTE) |
-
2019
- 2019-09-11 CN CN201910857261.8A patent/CN110569967A/zh active Pending
- 2019-10-18 WO PCT/CN2019/111911 patent/WO2021046970A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106656461A (zh) * | 2016-11-25 | 2017-05-10 | 中国石油大学(华东) | 一种信号量化情形下的混沌神经网络保密通信方法 |
CN108734287A (zh) * | 2017-04-21 | 2018-11-02 | 展讯通信(上海)有限公司 | 深度神经网络模型的压缩方法及装置、终端、存储介质 |
US9941900B1 (en) * | 2017-10-03 | 2018-04-10 | Dropbox, Inc. | Techniques for general-purpose lossless data compression using a recurrent neural network |
CN108932124A (zh) * | 2018-06-26 | 2018-12-04 | Oppo广东移动通信有限公司 | 神经网络模型压缩方法、装置、终端设备及存储介质 |
CN110020721A (zh) * | 2019-04-09 | 2019-07-16 | 武汉大学 | 一种基于参数压缩的目标检测深度学习网络优化方法 |
Non-Patent Citations (1)
Title |
---|
陈靖,刘京,曹喜信: "算术编码的基本原理", 《深入理解视频编解码技术 基于H.264标准及参考模型》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310734A (zh) * | 2020-03-19 | 2020-06-19 | 支付宝(杭州)信息技术有限公司 | 保护用户隐私的人脸识别方法和装置 |
US11868446B2 (en) | 2020-11-03 | 2024-01-09 | Samsung Electronics Co., Ltd. | Method of operating neural network model using DRM package and method of processing data using the same |
CN112953565A (zh) * | 2021-01-19 | 2021-06-11 | 华南理工大学 | 一种基于卷积神经网络的归零卷积码译码方法和系统 |
CN112953565B (zh) * | 2021-01-19 | 2022-06-14 | 华南理工大学 | 一种基于卷积神经网络的归零卷积码译码方法和系统 |
CN113705791A (zh) * | 2021-08-31 | 2021-11-26 | 上海阵量智能科技有限公司 | 神经网络推理量化的方法、装置、电子设备及存储介质 |
CN113705791B (zh) * | 2021-08-31 | 2023-12-19 | 上海阵量智能科技有限公司 | 神经网络推理量化的方法、装置、电子设备及存储介质 |
CN114707646A (zh) * | 2022-01-26 | 2022-07-05 | 电子科技大学 | 基于远程推理的分布式人工智能实践平台 |
CN114707646B (zh) * | 2022-01-26 | 2023-06-02 | 电子科技大学 | 基于远程推理的分布式人工智能实践平台 |
Also Published As
Publication number | Publication date |
---|---|
WO2021046970A1 (zh) | 2021-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110569967A (zh) | 一种基于算术编码的神经网络模型压缩加密方法及系统 | |
CN111147862B (zh) | 一种基于目标编码的端到端图像压缩方法 | |
CN110930408B (zh) | 基于知识重组的语义图像压缩方法 | |
CN116016606B (zh) | 一种基于智慧云的污水处理运维数据高效管理系统 | |
CN116978011B (zh) | 一种用于智能目标识别的图像语义通信方法及系统 | |
Kabir et al. | Edge-based transformation and entropy coding for lossless image compression | |
CN111479286B (zh) | 一种边缘计算系统减少通信流量的数据处理方法 | |
US9235610B2 (en) | Short string compression | |
US20140133552A1 (en) | Method and apparatus for encoding an image | |
CN115361559A (zh) | 图像编码方法、图像解码方法、装置以及存储介质 | |
Thepade et al. | New clustering algorithm for Vector Quantization using Slant transform | |
CN111008276B (zh) | 一种完整实体关系抽取方法及装置 | |
Thepade et al. | New clustering algorithm for Vector Quantization using Haar sequence | |
Otair et al. | Research article lossy image compression by Rounding the Intensity Followed by Dividing (RIFD) | |
CN116032431B (zh) | 针对分布式学习的通信压缩方法以及相关设备 | |
CN113554719A (zh) | 一种图像编码方法、解码方法、存储介质及终端设备 | |
Chang et al. | Very efficient variable-length codes for the lossless compression of VQ indices | |
Chuang et al. | Improved mean-removed vector quantization scheme for grayscale image coding | |
CN111275184B (zh) | 一种实现神经网络压缩的方法、系统、装置和存储介质 | |
CN117893624B (zh) | 基于四元数神经网络的彩色图像无损压缩与解压缩方法 | |
CN112200301B (zh) | 卷积计算装置及方法 | |
Moon et al. | Local Non-linear Quantization for Neural Network Compression in MPEG-NNR | |
Kamal et al. | Iteration free fractal compression using genetic algorithm for still colour images | |
Laitinen et al. | Efficient Topology Coding and Payload Partitioning Techniques for Neural Network Compression (NNC) Standard | |
Zhang et al. | Image Coding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191213 |