CN101094402A - 基于神经网络与svm的图像编码方法 - Google Patents
基于神经网络与svm的图像编码方法 Download PDFInfo
- Publication number
- CN101094402A CN101094402A CN 200710016832 CN200710016832A CN101094402A CN 101094402 A CN101094402 A CN 101094402A CN 200710016832 CN200710016832 CN 200710016832 CN 200710016832 A CN200710016832 A CN 200710016832A CN 101094402 A CN101094402 A CN 101094402A
- Authority
- CN
- China
- Prior art keywords
- information source
- svm
- character string
- virtual information
- mapping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明公开一种基于神经网络与SVM的图像编码方法,包括下述步骤:压缩,其包括诸如建立虚拟信源Y1的神经网络模型,建立虚拟信源Y2的SVM模型,用SVM模型参数去编码γ3由虚拟信源产生的字符串γ2等,解压缩,其包括恢复SVM模型参数,恢复虚拟信源的SVM模型,虚拟信源的SVM模型结合特别变换构建字符串的恢复映射,恢复虚拟信源Y1的神经网络模型,虚拟信源Y1的神经网络模型结合特别变换构建字符串的恢复映射,完全恢复虚拟信源Y1产生的字符串γ1等。该方法在微损的条件下,有较高的压缩比,部分情况下解决了图像编码系统中“高保真”与“高压缩比”不能统一的矛盾。
Description
技术领域
本发明属于计算机技术领域,特别涉及一种基于神经网络与SVM的图像编码方法。
背景技术
随着通信与信息技术的迅速发展,人们对于传输内容的要求早已从文本数据、语音数据扩展到了图像及视频。图像信息是我们平时接触到的一大类信息,我们经常需要对图像进行快速的存储和传输,这时压缩技术必不可少。传输同样的图像而占用更小的带宽,或者存储同样的图像而占用更小的存储空间,都是非常有意义的。
当今人们已经提出众多有效的关于图像压缩方法和技术,如其中的Huffman编码、游程编码、算术编码、字典编码、小波编码、神经网络压缩(编码)方案及它们的结合等。但基于支持向量机SVM图像压缩(编码)方法目前没见报道。
由于各种需要储存的数字数据指数级增长,网上要传输的数据越来越多,因此图像数据压缩(编码)研究者、信息编码研究者工作者有义务和责任不断改进、发展已有的图像数据压缩(编码)理论、方法和技术,创造出新的更为有效的图像数据压缩(编码)方法和信息编码方法。
发明内容
本发明的任务在于提出一种基于虚拟信源建模的数据压缩(编码)思想,通过用BP神经网络和SVM对信源两次建模,给出了基于神经网络和SVM的新的图像编码(压缩)方法,此方法可视为由一种“基于SVM的图像编码(压缩)方案”嵌套“基于神经网络的无损数据压缩方法”而成。
其技术解决方案是:
一种基于神经网络与SVM的图像编码方法,包括下述步骤:
a.压缩
a1.把所有要处理的图像数据视为由虚拟信源Y1产生的字符串γ1;
a2.建立虚拟信源Y1的神经网络模型;
a3.用模型参数去编码γ2由虚拟信源产生的字符串;
a4.建立虚拟信源Y2的SVM模型;
a5.用SVM模型参数去编码γ3由虚拟信源产生的字符串γ2;
b.解压缩
b1.恢复SVM模型参数;
b2.恢复虚拟信源的SVM模型;
b3.虚拟信源的SVM模型结合特别变换构建字符串的恢复映射;
b4.完全恢复虚拟信源Y2产生的字符串γ2;
b5.恢复神经网络模型参数;
b6.恢复虚拟信源Y1的神经网络模型;
b7.虚拟信源Y1的神经网络模型结合特别变换构建字符串的恢复映射;
b8.完全恢复虚拟信源Y1产生的字符串γ1;
上述步骤a3中,所述模型参数,其数据量少于原始字符串的数据量;上述步骤a5中,所述SVM模型参数,其数据量少于原始字符串的数据量。
上述虚拟信源是一映射:
其中,映射Y:设A={(x1,…,xi,…,x12)|xi=0,1}把(x1,…,xi,…,x12)按二进制数x1x2…xi…x12的大小倒序排列,即排为有序点a1=(1,1,…,1),a2=(1,…,1,0),a3=(1,…,1,0,1),…,a4095=(0,…,0,1),a4096=(0,…,0,0)。假定待压缩的0与1的字符串γ=c1…c49152,cj=0 or 1,其中γ的长度为49152,记B={bj|bj=(c12x(j-1)+1,…,c12×j),1≤j≤4096}。注:bj中的ci要转换为0与1数的形式。定义Y为A到B的映射
Y:A→B
Y:ai→bi,i=1,…,4096,ai∈A,bi∈B
即bi=Y(ai),i=1,…,4096。
上述虚拟信源Y2的SVM模型是径向基型支持向量机。
上述字符串γ1恢复映射是BP模型复合取整函数[yi(X)+0.5]。
本发明基于虚拟信源建模的数据编码思想,提出了基于神经网络与SVM的图像编码(压缩)方法。此方法是由一种“基于SVM的图像编码(压缩)方法”嵌套“基于神经网络的无损数据压缩方法”而成。实验表明,该方法在微损的条件下,有较高的压缩比,部分情况下解决了图像编码系统中“高保真”与“高压缩比”不能统一的矛盾。
附图说明
图1是本发明一种实施方式的压缩原理与解压缩原理流程图,示出了对γ1进行无损数据压缩的流程图。
图2是本发明一种实施方式的压缩原理与解压缩原理流程图,示出了对γ2进行SVM压缩(编码)的过程图。
下面结合附图对本发明进行说明:
具体实施方式
本发明提供一种基于神经网络与SVM的图像编码方法,其有关流程如图1及2所示。本发明实施步骤如下:
(1)基于神经网络的无损数据编码(压缩)原理
基于神经网络的无损数据压缩具体原理由BP压缩原理和BP取整函数解压缩原理两部分组成。
BP压缩原理(压缩γ1):如前设定待压缩的长串γ1=c1…c49152,cj=0 or 1,其中γ1的长度为49152,ak,bk,k=1,…,4096及映射Y1。(i)用顺序样本(ak,bk)训练所选BP网络,k=1,…,4096,训练时设置变量|wij (k)|,|wj (k)|的上界为128,所有权值wij (k)和阈值wj (k)都精确到小数点后2位,(ii)选定BP网络的一状态(称为稳态):该状态下输出bk′与期望输出bk的分量差的绝对值小于0.49,即|bki′-bki|<0.49,i=1,…,12,(iii)在稳态时,顺序取960个神经元联接权值wij (1),i=1,…,12,j=1,…,40;wij (2),i=1,…,40,j=1,…,12和64个阈值wj (k),j=1,…,12,k=1,2,3,wj (2),j=29,…,40,作为字符长串γ1的编码,(iv)顺序把960个神经元联接权值和64个阈值依次2进制编码,方案是用2个字节16位为每个wij (k),wj (k)编码,其中1位是符号位,1位是小数点记号位,7位用于小数点后2位编码,7位用于小数点前2位编码(此编码可确保当|wij (k)|<128+1,|wj (k)|<128+1,wij (k),wj (k)精确到小数点后2位时,编码正确有效,尽管压缩时编码有偏差,但是经下面解压缩方法解压缩之后可完全恢复γ1)。
以上BP压缩(编码)γ1=c1…c49152,cj=0 or 1得二进制编码数据,顺序连接得新0与1字符串γ=d1…dp,dj=0 or 1,把γ=d1…dp加长为γ2=d1…dpdp+1…dL,dj=0 or 1,其中L=[p/10]+10是10的倍数。
(2)虚拟信源的SVM模型和基于SVM的图像编码(压缩)方案
①把上述所有要处理的数据γ2=d1…dL,dj=0 or 1视为由虚拟信源映射Y2产生的字符串;
其中映射Y2:设A={(x1,…,xi,…,x10)| xi=0,1}把(x1,…,xi,…,x10)按二进制数x1x2…xi…x10的大小升序排列,即排为有序点a1=(0,0,…,0),a2=(0,…,0,1),a3=(0,…,0,1,0),…。假定待压缩(编码)的0与1的字符串γ2=d1…dL,dj=0 or 1,其中γ2的长度为L,记B={dj|,1≤j≤L}。定义Y2为A到B的映射
Y2:A→B
Y2:ai→di,i=1,…,L,ai∈A,di∈B
即di=Y(ai),i=1,…,L。
易见,顺序输入固定向量ai∈A,i=1,…,L,可顺序产生di∈B,i=1,…,L,从而产生γ2=d1…dL,dj=0 or 1。因此Y2确实是产生γ2=d1…dL,dj=0 or 1的虚拟信源。可视为是0与1的字符串的通用虚拟信源。
②建立虚拟信源的SVM神经网络模型(把A={ai}={(x1,…,xi,…,x10)|xj=0,1}分为两类。上述映射中对应0的为一类,用-1标记,对应1的为另一类,用1标记。用这些数据去构造SVM);
用模型参数,以下即是指SVM神经网络分类判别函数
的系数(数据量少于原始字符串γ2的数据量,这些是要储存的数据,即压缩(编码)后的数据。这里由于系数精确位不够高可能造成
误差,使支撑向量附近出现少量分类错误,以至下面解压缩(编码)时少量数据恢复错误。 当然,系数近似程度越高,出错越小,而且近似程度到一定时候一定不出错(注:因为两支撑曲面有一定间隙
有时间隙ρ还很大)去编码由虚拟信源产生的字符串γ2。
以上SVM压缩(编码)γ2=d1…dL,dj=0 or 1得二进制编码数据γ3(顺序连接得新0与1字符串γ3)。
(3)基于SVM的图像解编码(压缩)方案
①由储存的数据γ3,即压缩(编码)后的数据γ3恢复模型参数,以下即是指神经网络分类判别函数
的系数;
②恢复虚拟信源的模型;
④顺序代入ai完全恢复虚拟信源产生的字符串γ2=d1…dL,dj=0 or 1,从而恢复γ=d1…dp,dj=0 or 1.
(4)基于神经网络的解编码(压缩)原理
BP取整函数解压缩原理:BP取整函数解压缩模型是由所选BP网络构成的映射复合(或外套)取整函数而成。(i)由γ2恢复γ,再恢复稳态时的wij (1),i=1,…,12,j=1,…,40,k=1,2;wij (2),i=1,…,40,j=1,…,12,值和稳态时的阈值wj (k),j=1,…,12,k=1,2,3,wj (2),j=29,…,40,,恢复BP模型稳定状态,(ii)把恢复的网络视为一固定映射Y1,这时Y1是Y1的似近映射,且逼近度量值小于0.49(注:与理论逼近度至多相差0.01,见[8]附页的数学严格证明),(iii)把Y1与取整函数[yi+0.5],i=1,…,10,复合得[yi(X)+0.5],i=1,…,12,X=(x1,…,xi,…,x12),(iv)把ak,k=1,…,4096顺序输入复合函数[yi(X)+0.5],i=1,…,12中,顺序获得bk,k=1,…,4096,(v)由bk,k=1,…,4096完全恢复长串γ1=c1…c49152。
应用实例:
任取待压缩的图像数据长串γ1=c1…c49152,cj=0 or 1,其中γ1的长度为49152(长串长度超过49152,则分成若干段长度为49152的子段,若长度不够49152,则在串后面补若干个0使其长度变为49152)。
1.建立γ1=c1…c49152,cj=0 or 1的虚拟信源Y1。映射Y1:设A={(x1,…,xi,…,x12)|xi=0,1}把(x1,…,xi,…,x12)按二进制数x1x2…xi…x12的大小倒序排列,即排为有序点a1=(1,1,…,1),a2=(1,…,1,0),a3=(1,…,1,0,1),…,a4095=(0,…,0,1),a4096=(0,…,0,0)。假定待压缩的0与1的字符串γ1=c1…c49152,cj=0 or 1,其中γ1的长度为49152,记B={bj|bj=(c12x(j-1)+1,…,c12×j),1≤j≤4096}。注:bj中的cj要转换为0与1数的形式。定义Y1为A到B的映射
Y1:A→B
Y1:ai→bi,i=1,…,4096,ai∈A,bi∈B
即bi=Y1(ai),i=1,…,4096。
2.建立虚拟信源Y1的神经网络模型。具体用神经网络3层64个神经元(输入、输出层各12个,隐含层40个)和隐含层输出函数为Sigmoid函数的BP模型来作为特定映射Y1的逼近映射。其中960个接权值为wij (1),i=1,…,12,j=1,…,40;wij (2),i=1,…,40,j=1,…,12和64个阈值为wj (k),j=1,…,12,k=1,2,3,wj (2),j=29,…,40。
3.γ1的BP压缩:如前设定待压缩的长串γ1=c1…c49152,cj=0 or 1,其中γ1的长度为49152,ak,bk,k=1,…,4096及映射Y。(i)用顺序样本(ak,bk)训练所选BP网络,k=1,…,4096,训练时设置变量|wij (k)|,|wj (k)|的上界为128,所有权值wij (k)和阈值wj (k)都精确到小数点后2位,(ii)选定BP网络的一状态(称为稳态):该状态下输出bk′与期望输出bk的分量差的绝对值小于0.49,即|bki′-bki|<0.49,i=1,…,12,(iii)在稳态时,顺序取960个神经元联接权值wij (1),i=1,…,12,j=1,…,40;wij (2),i=1,…,40,j=1,…,12和64个阈值wj (k),j=1,…,12,k=1,2,3,wj (2),j=29,…,40,作为字符长串γ1的编码,(iv)顺序把960个神经元联接权值和64个阈值依次2进制编码,方案是用2个字节16位为每个wij (k),wj (k)编码,其中1位是符号位,1位是小数点记号位,7位用于小数点后2位编码,7位用于小数点前2位编码。
4.把上述所得编码数据γ2=d1…dL,dj=0 or 1视为由虚拟信源映射Y2产生的字符串,其中映射Y2:
设A={(x1,…,xi,…,x10)| xi=0,1}把(x1,…,xi,…,x10)按二进制数x1x2…xi…x10的大小升序排列,即排为有序点a1=(0,0,…,0),a2=(0,…,0,1),a3=(0,…,0,1,0),…。假定待压缩(编码)的0与1的字符串γ2=d1…dL,dj=0 or 1,其中γ2的长度为L,记B={dj|,1≤j≤L}。定义Y2为A到B的映射
Y2:A→B
Y2:ai→di,i=1,…,L,ai∈A,di∈B
即di=Y(ai),i=1,…,L。
以上SVM压缩(编码)γ2=d1…dL,dj=0 or 1得二进制编码数据γ3(顺序连接得新0与1字符串γ3)。
8.恢复虚拟信源Y2的模型;
9.虚拟信源Y2的模型结合特别变换构建字符串的恢复映顺序代入ai完全恢复虚拟信源产生的字符串γ2=d1…dL,dj=0 or 1.
10.γ1的BP取整函数解压缩:BP取整函数解压缩模型是由所选BP网络构成的映射复合(或外套)取整函数而成。由γ2=d1…dL,dj=0 or 1,(i)恢复稳态时的wij (1),i=1,…,12,j=1,…,40,k=1,2;wij (2),i=1,…,40,j=1,…,12,值和稳态时的阈值wj (k),j=1,…,12,k=1,2,3,wj (2),j=29,…,40,,恢复BP模型稳定状态,(ii)把恢复的网络视为一固定映射Y1,这时Y1是Y1的似近映射,且逼近度量值小于0.49,(iii)把Y1与取整函数[yi+0.5],i=1,…,10,复合得[yi(X)+0.5],i=1,…,12,X=(x1,…,xi,…,x12),(iv)把ak,k=1,…,4096顺序输入复合函数[yi(X)+0.5],i=1,…,12 中,顺序获得bk,k=1,…,4096,(v)由bk,k=1,…,4096完全恢复图像数据长串γ1=c1…c49152。
Claims (6)
1、一种基于神经网络与SVM的图像编码方法,包括下述步骤:
a.压缩
a1.把所有要处理的图像数据视为由虚拟信源Y1产生的字符串γ1;
a2.建立虚拟信源Y1的神经网络模型;
a3.用模型参数去编码γ2由虚拟信源产生的字符串;
a4.建立虚拟信源Y2的SVM模型;
a5.用SVM模型参数去编码γ3由虚拟信源产生的字符串γ2;
b.解压缩
b1.恢复SVM模型参数;
b2.恢复虚拟信源的SVM模型;
b3.虚拟信源的SVM模型结合特别变换构建字符串的恢复映射;
b4.完全恢复虚拟信源Y2产生的字符串γ2;
b5.恢复神经网络模型参数;
b6.恢复虚拟信源Y1的神经网络模型;
b7.虚拟信源Y1的神经网络模型结合特别变换构建字符串的恢复映射;
b8.完全恢复虚拟信源Y1产生的字符串γ1。
2、根据权利要求1所述的基于神经网络与SVM的图像编码方法,其特征在于:在步骤a3中,所述模型参数,其数据量少于原始字符串的数据量;在步骤a5中,所述SVM模型参数,其数据量少于原始字符串的数据量。
3、根据权利要求1所述的基于神经网络与SVM的图像编码方法,其特征在于:所述虚拟信源是一映射:
其中,映射Y:设A={(x1,…,xi,…,X12)| xi=0,1}把(x1,…,xi,…,x12)按二进制数x1x2…xi…x12的大小倒序排列,即排为有序点a1=(1,1,…,1),a2=(1,…,1,0),a3=(1,…,1,0,1),…,a4095=(0,…,0,1),a4096=(0,…,0,0)。假定待压缩的0与1的字符串γ=c1…c49152,cj=0 or 1,其中γ的长度为49152,记B={bj|bj=(c12×(j-1)+1,…,c12×j),1≤j≤4096}。注:bj中的ci要转换为0与1数的形式。定义Y为A到B的映射
Y:A→B
Y:ai→bi,i=1,…,4096,ai∈A,bi∈B
即bi=Y(ai),i=1,…,4096。
4、根据权利要求1所述的基于神经网络与SVM的图像编码方法,其特征在于:所述虚拟信源Y2的SVM模型是径向基型支持向量机。
5、根据权利要求1所述的基于神经网络与SVM的图像编码方法,其特征在于:所述字符串γ2的恢复映为
6、根据权利要求1所述的基于神经网络与SVM的图像编码方法,其特征在于:所述字符串γ1恢复映射是BP模型复合取整函数[yi(X)+0.5]。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 200710016832 CN101094402A (zh) | 2007-07-13 | 2007-07-13 | 基于神经网络与svm的图像编码方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 200710016832 CN101094402A (zh) | 2007-07-13 | 2007-07-13 | 基于神经网络与svm的图像编码方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101094402A true CN101094402A (zh) | 2007-12-26 |
Family
ID=38992375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 200710016832 Pending CN101094402A (zh) | 2007-07-13 | 2007-07-13 | 基于神经网络与svm的图像编码方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101094402A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101308551B (zh) * | 2008-05-05 | 2010-06-02 | 西安理工大学 | Ls-svm分类与回归学习递归神经网络硬件电路及实现方法 |
CN106254879A (zh) * | 2016-08-31 | 2016-12-21 | 广州精点计算机科技有限公司 | 一种应用自编码神经网络的有损图像压缩方法 |
WO2018107414A1 (zh) * | 2016-12-15 | 2018-06-21 | 上海寒武纪信息科技有限公司 | 压缩/解压缩神经网络模型的装置、设备和方法 |
CN110663048A (zh) * | 2017-09-05 | 2020-01-07 | 松下电器(美国)知识产权公司 | 用于深度神经网络的执行方法、执行装置、学习方法、学习装置以及程序 |
-
2007
- 2007-07-13 CN CN 200710016832 patent/CN101094402A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101308551B (zh) * | 2008-05-05 | 2010-06-02 | 西安理工大学 | Ls-svm分类与回归学习递归神经网络硬件电路及实现方法 |
CN106254879A (zh) * | 2016-08-31 | 2016-12-21 | 广州精点计算机科技有限公司 | 一种应用自编码神经网络的有损图像压缩方法 |
CN106254879B (zh) * | 2016-08-31 | 2019-11-08 | 广东精点数据科技股份有限公司 | 一种应用自编码神经网络的有损图像压缩方法 |
WO2018107414A1 (zh) * | 2016-12-15 | 2018-06-21 | 上海寒武纪信息科技有限公司 | 压缩/解压缩神经网络模型的装置、设备和方法 |
CN110663048A (zh) * | 2017-09-05 | 2020-01-07 | 松下电器(美国)知识产权公司 | 用于深度神经网络的执行方法、执行装置、学习方法、学习装置以及程序 |
CN110663048B (zh) * | 2017-09-05 | 2023-10-24 | 松下电器(美国)知识产权公司 | 用于深度神经网络的执行方法、执行装置、学习方法、学习装置以及记录介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11610124B2 (en) | Learning compressible features | |
CN101222476B (zh) | 一种可扩展标记语言文件编辑器、文件传输方法及系统 | |
US11417415B2 (en) | Molecular representation | |
JP2004177965A (ja) | データを符号化するためのシステム及び方法 | |
CN114048350A (zh) | 一种基于细粒度跨模态对齐模型的文本-视频检索方法 | |
CN109377532B (zh) | 基于神经网络的图像处理方法及装置 | |
CN112232052B (zh) | 文本拼接方法、装置、计算机设备及存储介质 | |
CN101094402A (zh) | 基于神经网络与svm的图像编码方法 | |
CN111767697B (zh) | 文本处理方法、装置、计算机设备以及存储介质 | |
KR20230072454A (ko) | 이미지 텍스트 양방향 생성 장치, 방법 및 프로그램 | |
CN112560456A (zh) | 一种基于改进神经网络的生成式摘要生成方法和系统 | |
CN112598039A (zh) | 获取nlp分类领域阳性样本方法及相关设备 | |
CN115841119A (zh) | 一种基于图结构的情绪原因提取方法 | |
CN112100486A (zh) | 一种基于图模型的深度学习推荐系统及其方法 | |
US20230353765A1 (en) | Lossless Compression with Probabilistic Circuits | |
CN117422065A (zh) | 基于强化学习算法的自然语言数据处理系统 | |
CN116991621A (zh) | 故障原因提取方法及装置、存储介质及电子设备 | |
CN114662659B (zh) | 一种基于多阶段迁移学习策略综合的众包文本集成方法 | |
CN110517328A (zh) | 一种基于相关双自编码器在零次学习上的运用方法 | |
Žalik et al. | FLoCIC: A few lines of code for raster image compression | |
JPS58184646A (ja) | メツセ−ジ通信方式 | |
JP4953145B2 (ja) | 文字列データ圧縮装置及びその方法並びに文字列データ復元装置及びその方法 | |
Srinivas et al. | Storage Optimization Using File Compression Techniques for Big Data. | |
CN116110056B (zh) | 信息抽取方法及装置、电子设备和存储介质 | |
US9697413B2 (en) | System and method for compressing electronic signatures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Open date: 20071226 |