CN101094402A - 基于神经网络与svm的图像编码方法 - Google Patents

基于神经网络与svm的图像编码方法 Download PDF

Info

Publication number
CN101094402A
CN101094402A CN 200710016832 CN200710016832A CN101094402A CN 101094402 A CN101094402 A CN 101094402A CN 200710016832 CN200710016832 CN 200710016832 CN 200710016832 A CN200710016832 A CN 200710016832A CN 101094402 A CN101094402 A CN 101094402A
Authority
CN
China
Prior art keywords
information source
svm
character string
virtual information
mapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN 200710016832
Other languages
English (en)
Inventor
杨国为
高绪慧
王守觉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao University
Original Assignee
Qingdao University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao University filed Critical Qingdao University
Priority to CN 200710016832 priority Critical patent/CN101094402A/zh
Publication of CN101094402A publication Critical patent/CN101094402A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明公开一种基于神经网络与SVM的图像编码方法,包括下述步骤:压缩,其包括诸如建立虚拟信源Y1的神经网络模型,建立虚拟信源Y2的SVM模型,用SVM模型参数去编码γ3由虚拟信源产生的字符串γ2等,解压缩,其包括恢复SVM模型参数,恢复虚拟信源的SVM模型,虚拟信源的SVM模型结合特别变换构建字符串的恢复映射,恢复虚拟信源Y1的神经网络模型,虚拟信源Y1的神经网络模型结合特别变换构建字符串的恢复映射,完全恢复虚拟信源Y1产生的字符串γ1等。该方法在微损的条件下,有较高的压缩比,部分情况下解决了图像编码系统中“高保真”与“高压缩比”不能统一的矛盾。

Description

基于神经网络与SVM的图像编码方法
技术领域
本发明属于计算机技术领域,特别涉及一种基于神经网络与SVM的图像编码方法。
背景技术
随着通信与信息技术的迅速发展,人们对于传输内容的要求早已从文本数据、语音数据扩展到了图像及视频。图像信息是我们平时接触到的一大类信息,我们经常需要对图像进行快速的存储和传输,这时压缩技术必不可少。传输同样的图像而占用更小的带宽,或者存储同样的图像而占用更小的存储空间,都是非常有意义的。
当今人们已经提出众多有效的关于图像压缩方法和技术,如其中的Huffman编码、游程编码、算术编码、字典编码、小波编码、神经网络压缩(编码)方案及它们的结合等。但基于支持向量机SVM图像压缩(编码)方法目前没见报道。
由于各种需要储存的数字数据指数级增长,网上要传输的数据越来越多,因此图像数据压缩(编码)研究者、信息编码研究者工作者有义务和责任不断改进、发展已有的图像数据压缩(编码)理论、方法和技术,创造出新的更为有效的图像数据压缩(编码)方法和信息编码方法。
发明内容
本发明的任务在于提出一种基于虚拟信源建模的数据压缩(编码)思想,通过用BP神经网络和SVM对信源两次建模,给出了基于神经网络和SVM的新的图像编码(压缩)方法,此方法可视为由一种“基于SVM的图像编码(压缩)方案”嵌套“基于神经网络的无损数据压缩方法”而成。
其技术解决方案是:
一种基于神经网络与SVM的图像编码方法,包括下述步骤:
a.压缩
a1.把所有要处理的图像数据视为由虚拟信源Y1产生的字符串γ1
a2.建立虚拟信源Y1的神经网络模型;
a3.用模型参数去编码γ2由虚拟信源产生的字符串;
a4.建立虚拟信源Y2的SVM模型;
a5.用SVM模型参数去编码γ3由虚拟信源产生的字符串γ2
b.解压缩
b1.恢复SVM模型参数;
b2.恢复虚拟信源的SVM模型;
b3.虚拟信源的SVM模型结合特别变换构建字符串的恢复映射;
b4.完全恢复虚拟信源Y2产生的字符串γ2
b5.恢复神经网络模型参数;
b6.恢复虚拟信源Y1的神经网络模型;
b7.虚拟信源Y1的神经网络模型结合特别变换构建字符串的恢复映射;
b8.完全恢复虚拟信源Y1产生的字符串γ1
上述步骤a3中,所述模型参数,其数据量少于原始字符串的数据量;上述步骤a5中,所述SVM模型参数,其数据量少于原始字符串的数据量。
上述虚拟信源是一映射:
其中,映射Y:设A={(x1,…,xi,…,x12)|xi=0,1}把(x1,…,xi,…,x12)按二进制数x1x2…xi…x12的大小倒序排列,即排为有序点a1=(1,1,…,1),a2=(1,…,1,0),a3=(1,…,1,0,1),…,a4095=(0,…,0,1),a4096=(0,…,0,0)。假定待压缩的0与1的字符串γ=c1…c49152,cj=0 or 1,其中γ的长度为49152,记B={bj|bj=(c12x(j-1)+1,…,c12×j),1≤j≤4096}。注:bj中的ci要转换为0与1数的形式。定义Y为A到B的映射
Y:A→B
Y:ai→bi,i=1,…,4096,ai∈A,bi∈B
即bi=Y(ai),i=1,…,4096。
上述虚拟信源Y2的SVM模型是径向基型支持向量机。
上述字符串γ2的恢复映为
Figure A20071001683200051
上述字符串γ1恢复映射是BP模型复合取整函数[yi(X)+0.5]。
本发明基于虚拟信源建模的数据编码思想,提出了基于神经网络与SVM的图像编码(压缩)方法。此方法是由一种“基于SVM的图像编码(压缩)方法”嵌套“基于神经网络的无损数据压缩方法”而成。实验表明,该方法在微损的条件下,有较高的压缩比,部分情况下解决了图像编码系统中“高保真”与“高压缩比”不能统一的矛盾。
附图说明
图1是本发明一种实施方式的压缩原理与解压缩原理流程图,示出了对γ1进行无损数据压缩的流程图。
图2是本发明一种实施方式的压缩原理与解压缩原理流程图,示出了对γ2进行SVM压缩(编码)的过程图。
下面结合附图对本发明进行说明:
具体实施方式
本发明提供一种基于神经网络与SVM的图像编码方法,其有关流程如图1及2所示。本发明实施步骤如下:
(1)基于神经网络的无损数据编码(压缩)原理
基于神经网络的无损数据压缩具体原理由BP压缩原理和BP取整函数解压缩原理两部分组成。
BP压缩原理(压缩γ1):如前设定待压缩的长串γ1=c1…c49152,cj=0 or 1,其中γ1的长度为49152,ak,bk,k=1,…,4096及映射Y1。(i)用顺序样本(ak,bk)训练所选BP网络,k=1,…,4096,训练时设置变量|wij (k)|,|wj (k)|的上界为128,所有权值wij (k)和阈值wj (k)都精确到小数点后2位,(ii)选定BP网络的一状态(称为稳态):该状态下输出bk′与期望输出bk的分量差的绝对值小于0.49,即|bki′-bki|<0.49,i=1,…,12,(iii)在稳态时,顺序取960个神经元联接权值wij (1),i=1,…,12,j=1,…,40;wij (2),i=1,…,40,j=1,…,12和64个阈值wj (k),j=1,…,12,k=1,2,3,wj (2),j=29,…,40,作为字符长串γ1的编码,(iv)顺序把960个神经元联接权值和64个阈值依次2进制编码,方案是用2个字节16位为每个wij (k),wj (k)编码,其中1位是符号位,1位是小数点记号位,7位用于小数点后2位编码,7位用于小数点前2位编码(此编码可确保当|wij (k)|<128+1,|wj (k)|<128+1,wij (k),wj (k)精确到小数点后2位时,编码正确有效,尽管压缩时编码有偏差,但是经下面解压缩方法解压缩之后可完全恢复γ1)。
以上BP压缩(编码)γ1=c1…c49152,cj=0 or 1得二进制编码数据,顺序连接得新0与1字符串γ=d1…dp,dj=0 or 1,把γ=d1…dp加长为γ2=d1…dpdp+1…dL,dj=0 or 1,其中L=[p/10]+10是10的倍数。
(2)虚拟信源的SVM模型和基于SVM的图像编码(压缩)方案
①把上述所有要处理的数据γ2=d1…dL,dj=0 or 1视为由虚拟信源映射Y2产生的字符串;
其中映射Y2:设A={(x1,…,xi,…,x10)| xi=0,1}把(x1,…,xi,…,x10)按二进制数x1x2…xi…x10的大小升序排列,即排为有序点a1=(0,0,…,0),a2=(0,…,0,1),a3=(0,…,0,1,0),…。假定待压缩(编码)的0与1的字符串γ2=d1…dL,dj=0 or 1,其中γ2的长度为L,记B={dj|,1≤j≤L}。定义Y2为A到B的映射
Y2:A→B
Y2:ai→di,i=1,…,L,ai∈A,di∈B
即di=Y(ai),i=1,…,L。
易见,顺序输入固定向量ai∈A,i=1,…,L,可顺序产生di∈B,i=1,…,L,从而产生γ2=d1…dL,dj=0 or 1。因此Y2确实是产生γ2=d1…dL,dj=0 or 1的虚拟信源。可视为是0与1的字符串的通用虚拟信源。
②建立虚拟信源的SVM神经网络模型(把A={ai}={(x1,…,xi,…,x10)|xj=0,1}分为两类。上述映射中对应0的为一类,用-1标记,对应1的为另一类,用1标记。用这些数据去构造SVM);
用模型参数,以下即是指SVM神经网络分类判别函数
Figure A20071001683200071
的系数(数据量少于原始字符串γ2的数据量,这些是要储存的数据,即压缩(编码)后的数据。这里由于系数精确位不够高可能造成
Figure A20071001683200072
误差,使支撑向量附近出现少量分类错误,以至下面解压缩(编码)时少量数据恢复错误。  当然,系数近似程度越高,出错越小,而且近似程度到一定时候一定不出错(注:因为两支撑曲面有一定间隙
Figure A20071001683200073
Figure A20071001683200074
Figure A20071001683200075
有时间隙ρ还很大)去编码由虚拟信源产生的字符串γ2
以上SVM压缩(编码)γ2=d1…dL,dj=0 or 1得二进制编码数据γ3(顺序连接得新0与1字符串γ3)。
(3)基于SVM的图像解编码(压缩)方案
①由储存的数据γ3,即压缩(编码)后的数据γ3恢复模型参数,以下即是指神经网络分类判别函数 的系数;
②恢复虚拟信源的模型;
③虚拟信源的模型结合特别变换构建字符串的恢复映
Figure A20071001683200077
④顺序代入ai完全恢复虚拟信源产生的字符串γ2=d1…dL,dj=0 or 1,从而恢复γ=d1…dp,dj=0 or 1.
(4)基于神经网络的解编码(压缩)原理
BP取整函数解压缩原理:BP取整函数解压缩模型是由所选BP网络构成的映射复合(或外套)取整函数而成。(i)由γ2恢复γ,再恢复稳态时的wij (1),i=1,…,12,j=1,…,40,k=1,2;wij (2),i=1,…,40,j=1,…,12,值和稳态时的阈值wj (k),j=1,…,12,k=1,2,3,wj (2),j=29,…,40,,恢复BP模型稳定状态,(ii)把恢复的网络视为一固定映射Y1,这时Y1是Y1的似近映射,且逼近度量值小于0.49(注:与理论逼近度至多相差0.01,见[8]附页的数学严格证明),(iii)把Y1与取整函数[yi+0.5],i=1,…,10,复合得[yi(X)+0.5],i=1,…,12,X=(x1,…,xi,…,x12),(iv)把ak,k=1,…,4096顺序输入复合函数[yi(X)+0.5],i=1,…,12中,顺序获得bk,k=1,…,4096,(v)由bk,k=1,…,4096完全恢复长串γ1=c1…c49152
应用实例:
任取待压缩的图像数据长串γ1=c1…c49152,cj=0 or 1,其中γ1的长度为49152(长串长度超过49152,则分成若干段长度为49152的子段,若长度不够49152,则在串后面补若干个0使其长度变为49152)。
1.建立γ1=c1…c49152,cj=0 or 1的虚拟信源Y1。映射Y1:设A={(x1,…,xi,…,x12)|xi=0,1}把(x1,…,xi,…,x12)按二进制数x1x2…xi…x12的大小倒序排列,即排为有序点a1=(1,1,…,1),a2=(1,…,1,0),a3=(1,…,1,0,1),…,a4095=(0,…,0,1),a4096=(0,…,0,0)。假定待压缩的0与1的字符串γ1=c1…c49152,cj=0 or 1,其中γ1的长度为49152,记B={bj|bj=(c12x(j-1)+1,…,c12×j),1≤j≤4096}。注:bj中的cj要转换为0与1数的形式。定义Y1为A到B的映射
Y1:A→B
Y1:ai→bi,i=1,…,4096,ai∈A,bi∈B
即bi=Y1(ai),i=1,…,4096。
2.建立虚拟信源Y1的神经网络模型。具体用神经网络3层64个神经元(输入、输出层各12个,隐含层40个)和隐含层输出函数为Sigmoid函数的BP模型来作为特定映射Y1的逼近映射。其中960个接权值为wij (1),i=1,…,12,j=1,…,40;wij (2),i=1,…,40,j=1,…,12和64个阈值为wj (k),j=1,…,12,k=1,2,3,wj (2),j=29,…,40。
3.γ1的BP压缩:如前设定待压缩的长串γ1=c1…c49152,cj=0 or 1,其中γ1的长度为49152,ak,bk,k=1,…,4096及映射Y。(i)用顺序样本(ak,bk)训练所选BP网络,k=1,…,4096,训练时设置变量|wij (k)|,|wj (k)|的上界为128,所有权值wij (k)和阈值wj (k)都精确到小数点后2位,(ii)选定BP网络的一状态(称为稳态):该状态下输出bk′与期望输出bk的分量差的绝对值小于0.49,即|bki′-bki|<0.49,i=1,…,12,(iii)在稳态时,顺序取960个神经元联接权值wij (1),i=1,…,12,j=1,…,40;wij (2),i=1,…,40,j=1,…,12和64个阈值wj (k),j=1,…,12,k=1,2,3,wj (2),j=29,…,40,作为字符长串γ1的编码,(iv)顺序把960个神经元联接权值和64个阈值依次2进制编码,方案是用2个字节16位为每个wij (k),wj (k)编码,其中1位是符号位,1位是小数点记号位,7位用于小数点后2位编码,7位用于小数点前2位编码。
4.把上述所得编码数据γ2=d1…dL,dj=0 or 1视为由虚拟信源映射Y2产生的字符串,其中映射Y2
设A={(x1,…,xi,…,x10)| xi=0,1}把(x1,…,xi,…,x10)按二进制数x1x2…xi…x10的大小升序排列,即排为有序点a1=(0,0,…,0),a2=(0,…,0,1),a3=(0,…,0,1,0),…。假定待压缩(编码)的0与1的字符串γ2=d1…dL,dj=0 or 1,其中γ2的长度为L,记B={dj|,1≤j≤L}。定义Y2为A到B的映射
Y2:A→B
Y2:ai→di,i=1,…,L,ai∈A,di∈B
即di=Y(ai),i=1,…,L。
5.建立虚拟信源Y2的SVM模型:把A={ai}={(x1,…,xi,…,x10)|xi=0,1}分为两类。上述映射中对应0的为一类,用-1标记,对应1的为另一类,用1标记。用这些数据去构造
Figure A20071001683200091
6.用模型参数,以下即是指SVM神经网络分类判别函数
Figure A20071001683200092
的系数去编码由虚拟信源Y2产生的字符串γ2
以上SVM压缩(编码)γ2=d1…dL,dj=0 or 1得二进制编码数据γ3(顺序连接得新0与1字符串γ3)。
7.由储存的数据γ3,即压缩(编码)后的数据γ3恢复模型参数,以下即是指神经网络分类判别函数
Figure A20071001683200093
的系数;
8.恢复虚拟信源Y2的模型;
9.虚拟信源Y2的模型结合特别变换构建字符串的恢复映顺序代入ai完全恢复虚拟信源产生的字符串γ2=d1…dL,dj=0 or 1.
10.γ1的BP取整函数解压缩:BP取整函数解压缩模型是由所选BP网络构成的映射复合(或外套)取整函数而成。由γ2=d1…dL,dj=0 or 1,(i)恢复稳态时的wij (1),i=1,…,12,j=1,…,40,k=1,2;wij (2),i=1,…,40,j=1,…,12,值和稳态时的阈值wj (k),j=1,…,12,k=1,2,3,wj (2),j=29,…,40,,恢复BP模型稳定状态,(ii)把恢复的网络视为一固定映射Y1,这时Y1是Y1的似近映射,且逼近度量值小于0.49,(iii)把Y1与取整函数[yi+0.5],i=1,…,10,复合得[yi(X)+0.5],i=1,…,12,X=(x1,…,xi,…,x12),(iv)把ak,k=1,…,4096顺序输入复合函数[yi(X)+0.5],i=1,…,12  中,顺序获得bk,k=1,…,4096,(v)由bk,k=1,…,4096完全恢复图像数据长串γ1=c1…c49152

Claims (6)

1、一种基于神经网络与SVM的图像编码方法,包括下述步骤:
a.压缩
a1.把所有要处理的图像数据视为由虚拟信源Y1产生的字符串γ1
a2.建立虚拟信源Y1的神经网络模型;
a3.用模型参数去编码γ2由虚拟信源产生的字符串;
a4.建立虚拟信源Y2的SVM模型;
a5.用SVM模型参数去编码γ3由虚拟信源产生的字符串γ2
b.解压缩
b1.恢复SVM模型参数;
b2.恢复虚拟信源的SVM模型;
b3.虚拟信源的SVM模型结合特别变换构建字符串的恢复映射;
b4.完全恢复虚拟信源Y2产生的字符串γ2
b5.恢复神经网络模型参数;
b6.恢复虚拟信源Y1的神经网络模型;
b7.虚拟信源Y1的神经网络模型结合特别变换构建字符串的恢复映射;
b8.完全恢复虚拟信源Y1产生的字符串γ1
2、根据权利要求1所述的基于神经网络与SVM的图像编码方法,其特征在于:在步骤a3中,所述模型参数,其数据量少于原始字符串的数据量;在步骤a5中,所述SVM模型参数,其数据量少于原始字符串的数据量。
3、根据权利要求1所述的基于神经网络与SVM的图像编码方法,其特征在于:所述虚拟信源是一映射:
其中,映射Y:设A={(x1,…,xi,…,X12)| xi=0,1}把(x1,…,xi,…,x12)按二进制数x1x2…xi…x12的大小倒序排列,即排为有序点a1=(1,1,…,1),a2=(1,…,1,0),a3=(1,…,1,0,1),…,a4095=(0,…,0,1),a4096=(0,…,0,0)。假定待压缩的0与1的字符串γ=c1…c49152,cj=0 or 1,其中γ的长度为49152,记B={bj|bj=(c12×(j-1)+1,…,c12×j),1≤j≤4096}。注:bj中的ci要转换为0与1数的形式。定义Y为A到B的映射
                    Y:A→B
Y:ai→bi,i=1,…,4096,ai∈A,bi∈B
即bi=Y(ai),i=1,…,4096。
4、根据权利要求1所述的基于神经网络与SVM的图像编码方法,其特征在于:所述虚拟信源Y2的SVM模型是径向基型支持向量机。
5、根据权利要求1所述的基于神经网络与SVM的图像编码方法,其特征在于:所述字符串γ2的恢复映为
6、根据权利要求1所述的基于神经网络与SVM的图像编码方法,其特征在于:所述字符串γ1恢复映射是BP模型复合取整函数[yi(X)+0.5]。
CN 200710016832 2007-07-13 2007-07-13 基于神经网络与svm的图像编码方法 Pending CN101094402A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 200710016832 CN101094402A (zh) 2007-07-13 2007-07-13 基于神经网络与svm的图像编码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 200710016832 CN101094402A (zh) 2007-07-13 2007-07-13 基于神经网络与svm的图像编码方法

Publications (1)

Publication Number Publication Date
CN101094402A true CN101094402A (zh) 2007-12-26

Family

ID=38992375

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 200710016832 Pending CN101094402A (zh) 2007-07-13 2007-07-13 基于神经网络与svm的图像编码方法

Country Status (1)

Country Link
CN (1) CN101094402A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101308551B (zh) * 2008-05-05 2010-06-02 西安理工大学 Ls-svm分类与回归学习递归神经网络硬件电路及实现方法
CN106254879A (zh) * 2016-08-31 2016-12-21 广州精点计算机科技有限公司 一种应用自编码神经网络的有损图像压缩方法
WO2018107414A1 (zh) * 2016-12-15 2018-06-21 上海寒武纪信息科技有限公司 压缩/解压缩神经网络模型的装置、设备和方法
CN110663048A (zh) * 2017-09-05 2020-01-07 松下电器(美国)知识产权公司 用于深度神经网络的执行方法、执行装置、学习方法、学习装置以及程序

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101308551B (zh) * 2008-05-05 2010-06-02 西安理工大学 Ls-svm分类与回归学习递归神经网络硬件电路及实现方法
CN106254879A (zh) * 2016-08-31 2016-12-21 广州精点计算机科技有限公司 一种应用自编码神经网络的有损图像压缩方法
CN106254879B (zh) * 2016-08-31 2019-11-08 广东精点数据科技股份有限公司 一种应用自编码神经网络的有损图像压缩方法
WO2018107414A1 (zh) * 2016-12-15 2018-06-21 上海寒武纪信息科技有限公司 压缩/解压缩神经网络模型的装置、设备和方法
CN110663048A (zh) * 2017-09-05 2020-01-07 松下电器(美国)知识产权公司 用于深度神经网络的执行方法、执行装置、学习方法、学习装置以及程序
CN110663048B (zh) * 2017-09-05 2023-10-24 松下电器(美国)知识产权公司 用于深度神经网络的执行方法、执行装置、学习方法、学习装置以及记录介质

Similar Documents

Publication Publication Date Title
US11610124B2 (en) Learning compressible features
CN101222476B (zh) 一种可扩展标记语言文件编辑器、文件传输方法及系统
US11417415B2 (en) Molecular representation
JP2004177965A (ja) データを符号化するためのシステム及び方法
CN114048350A (zh) 一种基于细粒度跨模态对齐模型的文本-视频检索方法
CN109377532B (zh) 基于神经网络的图像处理方法及装置
CN112232052B (zh) 文本拼接方法、装置、计算机设备及存储介质
CN101094402A (zh) 基于神经网络与svm的图像编码方法
CN111767697B (zh) 文本处理方法、装置、计算机设备以及存储介质
KR20230072454A (ko) 이미지 텍스트 양방향 생성 장치, 방법 및 프로그램
CN112560456A (zh) 一种基于改进神经网络的生成式摘要生成方法和系统
CN112598039A (zh) 获取nlp分类领域阳性样本方法及相关设备
CN115841119A (zh) 一种基于图结构的情绪原因提取方法
CN112100486A (zh) 一种基于图模型的深度学习推荐系统及其方法
US20230353765A1 (en) Lossless Compression with Probabilistic Circuits
CN117422065A (zh) 基于强化学习算法的自然语言数据处理系统
CN116991621A (zh) 故障原因提取方法及装置、存储介质及电子设备
CN114662659B (zh) 一种基于多阶段迁移学习策略综合的众包文本集成方法
CN110517328A (zh) 一种基于相关双自编码器在零次学习上的运用方法
Žalik et al. FLoCIC: A few lines of code for raster image compression
JPS58184646A (ja) メツセ−ジ通信方式
JP4953145B2 (ja) 文字列データ圧縮装置及びその方法並びに文字列データ復元装置及びその方法
Srinivas et al. Storage Optimization Using File Compression Techniques for Big Data.
CN116110056B (zh) 信息抽取方法及装置、电子设备和存储介质
US9697413B2 (en) System and method for compressing electronic signatures

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Open date: 20071226