CN104346819B - 基于限定小波大纲的最大误差图像压缩方法 - Google Patents

基于限定小波大纲的最大误差图像压缩方法 Download PDF

Info

Publication number
CN104346819B
CN104346819B CN201410627605.3A CN201410627605A CN104346819B CN 104346819 B CN104346819 B CN 104346819B CN 201410627605 A CN201410627605 A CN 201410627605A CN 104346819 B CN104346819 B CN 104346819B
Authority
CN
China
Prior art keywords
mrow
mtd
mtr
msub
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410627605.3A
Other languages
English (en)
Other versions
CN104346819A (zh
Inventor
黎彤亮
李晓云
黄世中
庞超逸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
APPLICATION MATHEMATICS INSTITUTE, HEBEI ACADEMY OF SCIENCES
Original Assignee
Institute Of Applied Mathematics Hebei Academy Of Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute Of Applied Mathematics Hebei Academy Of Sciences filed Critical Institute Of Applied Mathematics Hebei Academy Of Sciences
Priority to CN201410627605.3A priority Critical patent/CN104346819B/zh
Publication of CN104346819A publication Critical patent/CN104346819A/zh
Application granted granted Critical
Publication of CN104346819B publication Critical patent/CN104346819B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)

Abstract

本发明涉及一种基于限定小波大纲的最大误差图像压缩方法,本发明的技术要点如下:首先对像素矩阵的每一行进行第一级行Haar小波分解,存储其近似值,并对生成的细节分量进行过滤,保留需要的细节分量;然后对每一列进行第一级列Haar小波分解,存储其近似值,并对生成的细节分量进行过滤,保留需要的细节分量;然后交替的对新生成的近似值进行行与列的Haar小波分解,并进行细节分量的过滤,直到只剩下一个近似值为止;最后利用近似值和细节分量进行数据重构。本发明的优点是能够保证重构数据每一点的误差在给定范围内,并且相比已有的最大误差图像压缩算法,可以降低算法的运行时间,提高重构图像质量。

Description

基于限定小波大纲的最大误差图像压缩方法
技术领域
本发明涉及一种基于限定小波大纲的最大误差图像压缩方法,属于图像处理技术领域。
背景技术
随着信息技术的发展,图像信息被广泛应用于多媒体通讯以及计算机系统中。图像数据的显著特点是信息量大。庞大的信息量显然给数据的处理带来了“存不下”、“查不快”、”算不准”的难题。尽管信道传输带宽不断加宽,磁盘以及硬盘等存放器容量越来越大,但是依然不能够解决数据量庞大的根本问题,而数据压缩技术能够节省数据存放空间,并且能够提高数据传输的效率。
对于图像来说,一般使用的图像压缩技术都是有损压缩技术。传统的图像压缩技术都是以均方误差准则为基础的一类算法,只能保证整体数据的平均误差在一定范围内,而对于每一点的重构误差不可预测和控制,因此该类算法不能够直接用于后续数据的查询。
目前,人们已经提出了基于最大误差的图像压缩算法,即能够保证图像质量又能有效控制每一点数据误差的图像压缩算法,但是该算法的时间复杂度较高、并且图像的重构质量并不理想。如将预测编码方法应用于误差可控的图像压缩算法中,利用相邻已知像素来预测当前像素值,在量化过程中对预测误差结合给定的误差限来进行量化。这种方法在预测时采用了已经处理过的数据来预测当前像素值,会导致预测性能下降,从而导致图像重构质量的下降。再如利用小波变换的方法,将像素阈的误差限制转换成对小波大纲中系数的限制,并采用动态规划策略来确定系数阈值的选取,然而该算法的时间复杂度较高,为O(N2BlogB),其中N代表原始数据大小,B代表小波大纲的大小。如有的学者认为以往小波大纲中系数的选取都是从小波分解系数中选取的,这不是必须的也不能保证得到最好质量的小波大纲,因此他们提出了一种非限定小波大纲技术,该技术的算法复杂度为多项式复杂度。近期有的学者提出了转换压缩算法,该算法同样是一种非限定小波大纲技术,算法的时间复杂度得到进一步降低,为O(N),但是该算法在图像压缩的应用上还并不够有效,其压缩时间、图像重构质量都有待进一步改善。
现有的最大误差的图像压缩方法算法的缺点是时间复杂度较高,并且重构的图像质量失真度较大。
发明内容
本发明所要解决的技术问题是提供一种能够缩短压缩时间、提高图像的重构质量的基于限定小波大纲的最大误差图像压缩方法。
本发明解决其技术问题所采用的技术方案:
本发明的步骤如下:
一.对于由图像像素组成的原始矩阵(1)进行Haar小波分解:
所述原始矩阵(1)如下:
式中n=2k,k=1,2,3……,i为行数,j为列数;
(一)首先对原始矩阵(1)进行行第一级Haar小波分解,存放其近似值,并对生成的细节分量进行过滤,存放过滤后的细节分量:
(1)按照下述公式(2)和公式(3)逐行计算相邻两像素对的近似值M1和细节分量M2,并将计算结果存放在原始矩阵(1)的相应位置上:
M1=(dij+di(j+1)/2 (2)
M2=(dij-di(j+1)/2 (3)
式中j为奇数;
将近似值M1存放在原始矩阵(1)的(i,(j+1)/2)位置上;
(2)对细节分量M2进行过滤,将过滤的细节分量存放在原始矩阵(1)的(i,(j+1+m1)/2)位置上,其中m1为每一行像素的个数:
首先给定一个误差限D,设行第一级Haar小波分解的过滤阈值为D/2,列第一级Haar小波分解的过滤阈值为D/4,以后每进行一级行或列Haar小波分解其过滤阈值为前一次的1/2;
如果该级的细节分量的绝对值不大于该级的过滤阈值,则该细节分量用“0”代替,即:减少了数据量,实现了压缩;
(3)最后,由各近似值M1和各过滤后细节分量组成第一级行分解矩阵;
(二)对第一级行分解矩阵中的近似值所形成的列逐列进行列第一级Haar小波分解,生成第一级列分解矩阵:
(1)按照下述公式(4)和公式(5)逐列计算相邻两像素对的近似值M3和细节分量M4,并将计算结果存放在所述第一级行分解矩阵中相应位置上:
M3=(dij+d(i+1)j)/2 (4)
M4=(dij-d(i+1)j)/2 (5)
式中i为奇数;
将近似值M3存放在第一级行分解矩阵的((i+1)/2,j)位置上;
(2)对上述细节分量M4进行过滤,将过滤后的细节分量存放在第一级行分解矩阵的((i+1+m2)/2,j)位置上,式中m2为第一级行分解矩阵中每一列近似值的个数;
其过滤方法与上述第(一)步中的过滤方法相同;
(3)最后由各近似值M3和过滤后的细节分量组成第一级列分解矩阵;
(三)对所述第一级列分解矩阵中的近似值所形成的行逐行进行第二级Haar小波分解生成第二级行分解矩阵:
其分解方法与上述第(一)步相同,不同的是所述m1的取值为第一级列分解矩阵中的每一行中近似值的个数;
(四)对所述第二级行分解矩阵中近似值所形成的列逐列进行列第二级Haar小波分解,生成第二级列分解矩阵:
其分解方法与上述第(二)步相同,不同的是所述m2为第二级行分解矩阵中的每一列的近似值的个数;
(五)然后对新生成的矩阵交替进行下一级的行、列Haar小波分解,其分解方法与上述第(三)至第(四)步相同,直至只剩下一个近似值为止,此时的矩阵为压缩后的最终矩阵(6),所述最终矩阵(6)中的第一数据d′11为原始矩阵中所有像素的近似值,其它位置存放的是相应的细节分量;
所述最终矩阵(6)如下:
二.数据重构:
每一级列还原的计算重构数据的通式如下:
式中,分别为该级列还原矩阵中存放位置为(i,j)、((i+1),j)的重构数据,i为奇数;为在前一级行还原矩阵中存放位置在的重构数据,当进行第一级列还原时,为最终矩阵(6)中存放位置为处的数据为在前一级行还原矩阵中位置为的数据,当进行第一级列还原时,为在最终矩阵(6)中位置为的数据;m3为前一级行还原矩阵中需要还原的矩阵部分中每一列的数据个数,当进行第一级列还原时,m3为最终矩阵(6)中需要还原的矩阵部分每一列的数据个数;
每一级行还原的计算重构数据的通式如下:
式中,分别为在该级行还原矩阵中存放位置为(i,j)、(i,(j+1))的重构数据,j为奇数;为在该级列还原矩阵中存放位置为处的重构数据;为在该级列还原矩阵中存放位置为处的数据;m4为该级列还原矩阵中需要还原的矩阵部分每一行的数据个数;
(一)首先对所述最终矩阵中的2×1矩阵部分进行第一级列还原:
所述2×1矩阵部分为
按照上述式(7)和公式(8)计算所述2×1矩阵部分的重构数据并存放在最终矩阵的相应位置上;
在所述2×1矩阵部分中,所述公式(7)和公式(8)中的i为奇数、m3=2,即该列有两个数据d′11和d′21
存放在最终矩阵中,最终矩阵中的其余位置的数值不变,得到第一级列还原矩阵;
(二)对所述第一级列还原矩阵中的2×2矩阵部分进行第一级行还原:
所述2×2矩阵部分为
按照上述公式(9)和公式(10)计算所述2×2矩阵部分的重构数据并存放在所述第一级列还原矩阵的相应位置上;
在所述2×2矩阵部分中,j为需要还原的数据的列数,且为奇数;m4为该级需要还原的2×2矩阵部分中每一行的数据个数,此时m4=2;
存放在第一级列还原矩阵中,第一级列还原矩阵中的其余位置上的数据不变,得到第一级行还原矩阵;
(三)再对第一级行还原矩阵中的4×2矩阵部分进行第二级列还原,还原方法同上述第二步中的第(一)步;
如此交替重复,直至对n×n矩阵部分进行行还原后就实现了数据重构。
所述误差限D的选取原则如下:
为了得到预期的图像压缩比CR,通过反复试验来确定误差限D的取值;
先给一个任意的D1值,从实验结果看此时的图像压缩比CR1与预期的图像比CR的关系:如果CR1=CR,说明此时D1正是所需误差限;如果CR1>CR,说明D1取值较大,应该减小D1;如果CR1<CR,那么说明D1取值较小,应该增大D1;通过多次反复试验,最终可得到适合的D1值,使其满足预期的图像压缩比。
为了达到预期峰值信噪比PSNR,通过反复试验来确定误差限D的取值,先给一个任意的D值,比如值为D1。从实验结果看此时的图像峰值信噪比PSNR1与预期的图像峰值信噪比PSNR的关系:如果PSNR1=PSNR,说明此时D1正是所需要的误差限;如果PSNR1>PSNR,那么说明D1取值较小,应该增大D1;如果PSNR1<PSNR,那么说明D1取值较大,应该减小D1;通过多次反复试验,最终可得到适合的D值,使其满足预期的峰值信噪比。
所述Haar小波分解的原理如下(参见图1):
小波变换的基本思想是利用一组小波或者基函数表示一个函数或信号,例如图像信号。设有一幅分辨率只有8个像素的一维图像,图1所示为该一维图像的Haar小波分解树结构。该图像的像素值为[18,12,4,-4,7,5,2,-4],Haar小波分解的过程是:首先计算相邻像素对的平均值,也称作近似值,比如得到一副分辨率为原图像1/2的新图像[15,0,6,-1],这时图像信息已经部分丢失,为了能从4个像素值组成的图像重构出8个像素的原图像,必须把每个像素对差值的均值,例如即Haar小波系数[c4=3,c5=4,c6=1,c7=3]作为细节分量保存,因此原图像可用四个近似值和四个细节分量[15,0,6,-1,3,4,1,3]来表示。接下来需要将变换后的近似值部分[15,0,6,-1]进一步分解,可以得到近似值[7.5,2.5]与细节分量[c2=7.5,c3=3.5],最后对近似值[7.5,2.5]进行进一步分解,直到只剩下一个近似值为止,可得[5,2.5],最后将均值5作为c0存放,将细节分量2.5作为c1存放。最终这幅8个像素点的图像可由一组小波大纲[c0=5,c1=2.5,c2=7.5,c3=3.5,c4=3,c5=4,c6=1,c7=3]来重构。数据重构公式为:其中,cj为小波分解系数,path(di)代表小波树中节点di的所有祖先节点,当di属于cj的左子树时δij=+1,di属于cj的右子树时δij=-1。例如:
本发明有益效果如下:本发明利用Haar小波分解技术以及阈值限定技术实现了限定小波大纲的最大误差图像压缩算法。本发明可以保证重构数据每一点的误差在给定范围内,并且相比已有的最大误差图像压缩算法,可以降低算法的运行时间,提高重构图像质量。
附图说明
图1为Haar小波分解树。
图2(a)至图2(e)为实施例1的压缩过程示意图。
图2(a)为原始数据。
图2(b)为第一级行分解矩阵。
图2(c)为第一级列分解矩阵。
图2(d)为第二级行分解矩阵。
图2(e)为第二级列分解矩阵。
图3(a)至图3(e)为实施例1的数据重构过程示意图。
图3(a)为压缩数据(即图2(e))。
图3(b)为第一级列还原矩阵。
图3(c)为第一级行还原矩阵。
图3(d)为第二级列还原矩阵。
图3(e)为第二级行还原矩阵。
图4(a)至图4(c)为原始测试图像。
图4(a)的图像分辨率为256×256。
图4(b)的图像分辨率为512×512。
图4(c)的图像分辨率为1024×1024。
图5(a)至图5(c)为相同压缩比下图像峰值信噪比对比图。
图5(a)为分辨率为256×256。
图5(b)为分辨率为512×512。
图5(c)为分辨率为1024×1024。
图6(a)至图6(c)为对比文献(1)的重构图像。
图7(a)至图7(c)为本发明的重构图像。
图8为相同压缩比下不同图像的压缩时间对比图。
在图1和图8中,1为文献1中的峰值信噪比,2为本发明中的峰值信噪比,3为文献1中的压缩时间,4为本发明中的压缩时间;所述文献1为《On multidimensional waveletsynopses for maximum error bounds》。
具体实施方式
实施例1(见图2(a)至图2(e)):
本实施案例1是对4×4图像像素值矩阵(图2(a))进行压缩的实施例,具体压缩过程如下:
(一)首先对图2(a)进行第一级行Haar小波分解及过滤:
本实施例在进行压缩时,首先进行Haar小波分解,然后利用滤波剔除不重要的小波系数,由于保留的小波系数直接由Haar小波分解系数得来,因此称为限定小波大纲。
(1)按所述公式(2)和公式(3)对图2(a)中的第一行(5,8,9,2)中的相邻两像素对计算近似值M1和细节分量M2:
①先对第一行的像素对(5,8)求近似值:
M1=(5+8)/2=6.5
由于“5”所在位置为(i=1,j=1),因此近似值M1=6.5存放于(i,(2+1)/2),即(i=1,j=1)处(见图2(b));
②求(5,8)的细节分量M2:
M2=(5-8)/2=-1.5
将M2=-1.5存放于(i,(j+1+m1)/2)处,此时m1=4,即将细节分量M2=-1.5存放于(i=1,j=3)处(见图2(b));
③再对第一行的(9,2)求近似值M1:
M1=(9+2)/2=5.5
近似值M1=5.5存放于(i=1,j=2)处;
④求(9,2)的细节分量M2:
M2=(9-2)/2=3.5
细节分量M2=3.5存放于(i=1,j=4)处;
第一行分解后变为(6.5,5.5,-1.5,3.5)(见图2(b));剩下的第2-4行也按照上述方式进行分解,接下来对各细节分量进行过滤。
(2)过滤:
为了实现压缩,需要将生成的细节分量进行过滤,剔除不重要的细节分量。具体办法是:事先给定误差限为D,则在此设定过滤阈值为D/2,如果细节分量的绝对值不大于此过滤阈值,则判定该细节分量为不重要的细节分量,可用0代替,即不需要存放该细节分量,因此可减少数据存放量,实现压缩。
例如在第一行分解后,该行变为[6.5,5.5,-1.5,3.5],其细节分量为[-1.5,3.5],假设事先给定的误差限D=2,因此此时的过滤阈值D/2=1,判断细节分量-1.5和3.5的绝对值都大于1,因此需要保留。对于第二行分解后,该行变为[5,4,-1,-1],细节分量-1和-1的绝对值都不大于1,因此都可以剔除,以0代替。最终每一行进行第一级行分解和过滤后可得如图2(b)所示结果(即第一级行分解矩阵)。
(二)对图2(b)所示的第一级行分解矩阵进行第一级列Haar小波分解及过滤:
对每一行完成行分解之后,如图2(b)所示的黑框内存放的是近似值。在进行列分解的时候只需要对该近似值部分进行列分解即可。假设某一列中相邻的数据对为dij、d(i+1)j(注意i为奇数),存放位置分别为(i,j)、(i+1,j)。
对于图2(b)中黑框范围内所示为需要进行列分解的近似值部分。对于第一列首先按所述公式是(4)求的近似值得M3=5.75,由于6.5所在位置为(i=1,j=1),应将近似值M3存放于((i+1)/2,j)处,即(1,1),按所述公式(5)求其细节分量得M4=0.75,应存放于((i+1+m2)/2,j)处(m2=4),即(3,1);再求的近似值得M3=6,存放于该列的第二行(即(i=2,j=1)),求其细节分量得M4=-1.5,存放于该列的第四行(即(i=4,j=1))。因此该列分解后变为(见图2(c))。对其细节分量进行过滤,过滤阈值相对第一级行分解时的阈值减半,变为0.5,由于这两个细节分量的绝对值都大于0.5,因此这两个细节分量都需要保留。之后需要对2(b)黑框内的第二列进行列分解和过滤。最终列分解的结果见图2(c)所示。
(三)接下来交替进行行、列Haar小波分解及过滤:
对每一行以及每一列进行完第一级分解及过滤后,还需要对新生成的矩阵交替对行和列进行分解以及过滤,直到只剩下一个均值为止。注意每次的分解仅针对对近似值部分进行,如图2(a)至图2(e)中黑框部分所示,而不对细节分量部分进行分解。每次行分解,近似值都存放于相应矩阵的左半部分,细节分量存放于相应矩阵的右半部分,过滤阈值缩小为前一级阈值的一半。每次进行列分解,近似值都存放于相应矩阵的上半部分,细节分量存放于相应矩阵的下半部分,过滤阈值进一步缩小为前一级阈值的一半。
对图2(a)所示的图像矩阵进行完第一级行分解及过滤和第一级列分解及过滤后,由于近似值不是1个,因此还需要对近似值进行第二级的行分解以及列分解,并过滤。如图2(c)黑框内所示,此时第一行近似值为[5.75,4.75],求二者的近似值为5.25,存放于该行的第一列,求二者的细节分量为0.5,存放于该行的第二列;同理对于第二行近似值[6,4],可求得近似值为5,存放于该行的第一列,求得细节分量为1,存放于该行的第二列。由于此时过滤阈值进一步减半,为0.25,经过判断两个细节分量均需要保留。最终结果如图2(d)所示。
在图2(d)所示结果中,黑框内为两个近似值因此需要进行第二级列分解及过滤,分解后得二者近似值为5.125,存放于该列的第一行,二者的细节分量为0.125,存放于该列的第二行。此时过滤阈值进一步减半,为0.125,经过判断,此时细节分量可剔除,以0代替即可,如图2(e)所示,此时只剩下一个近似值5.125,因此数据压缩已经完成。接下来就是如何进行数据重构。
(四)数据重构:
进行图像数据的压缩后,最终矩阵的第一个元素就是该矩阵所有元素的近似值,其它位置存放的是相应的细节分量。
(1)第一级列还原:对压缩后的最终矩阵的2×1矩阵部分(如图3(a)黑框所示部分)进行列还原,通过所述公式(7)和公式(8)对近似值与相应的细节分量进行求和与求差来进行第一级列还原。重构完之后,可恢复出相应位置数值为矩阵其余位置数值不变。
图3(a)所示,黑框内为其2×1矩阵其中5.125是近似值,0为细节分量,此时还原的数据位置分别为(i,j)、(i+1,j),其中i≤2且i为奇数,j≤1。此时m3=2。因此重构数据存放的位置为(1,1)、(2,1),按所述公式(7)和公式(8)求重构数值为:
重构结果如图3(b)黑框内第一列所示,其余位置数值不变。
(2)第一级行还原:对最新生成矩阵的2×2部分(如图3(b)黑框所示部分),假设为进行第一级行还原,重构出新的近似值其余位置矩阵数值不变。
对于图3(b)所示新生成的2×2部分进行第一级行还原,此时还原位置为(i,j)、(i,j+1),i≤2,j≤2且j为奇数。因此重构数据的存放位置为(1,1)、(1,2)、(2,1)、(2,2)。重构数据按所述公式(9)和公式(10)计算如下:
重构结果如图3(c)黑框内第一行与第二行所示,其余位置数值不变。
(3)对4×2矩阵(如图3(c)黑框内所示)进行列还原,如此重复,直到对n×n矩阵进行行还原后就实现了数据的重构。由于给定了每一级的误差限,因此重构的误差因此可以保证重构每一点的误差都在给给定误差限内。
例如:图3(c)黑框所示4×2矩阵进行第二级列还原,得结果为最终结果如图3(d)黑框内所示。
接下来需要对4×4矩阵进行第二级行还原,还原结果为见图3(e)所示。
原始数据与重构数据的误差数据为可见每一点的误差的绝对值均小于D=2。
实验对比结果:
图4(a)至图4(c)是原始测试图像,其图像分辨率分别为256×256、512×512、1024×1024:
(1)相同压缩比下峰值信噪比对比
本发明中图像压缩比定义为图像原始数据个数与压缩完之后的非限定小波大纲的大小之比。例如对于图2(a)所示,原始数据为16个,压缩后的数据如图2(e)所示,非限定小波大纲大小为12,即非零值的个数,因此压缩比为4/3。图5(a)至图5(c)是两种压缩算法在相同压缩比下,图像峰值信噪比的对比图,图中的1为是文献1中的最大误差图像压缩算法的峰值信噪比,图中的2为本发明算法的峰值信噪比。
一般评价重构图像与原始图像的相似度的测量参数有平均绝对误差(MAE)、均方误差(MSE)、归一化均方误差(NMSE)、信噪比(SNR)和峰值信噪比(PSNR)。这里采用了较常用的PSNR作为判断图像相似度高低的参数。PSNR值越大,表明图像相似度越高。从图5(a)至图5(c)中可看到本发明的算法在相同的压缩比下,图像质量均要优于已有算法。图6(a)至图6(c)是所述文献1中压缩算法的重构图像,图7(a)至图7(c)是本发明的最大误差图像压缩算法在相同压缩比下的重构图像。图中CR代表图像的压缩比。从图中对比可发现,本发明的算法无论是从主观还是客观计算上均可以得到与图5(a)至图5(c)相同的结论,因此利用本发明的算法可以提高图像的重构质量。
(2)算法压缩时间对比
图8是在相同压缩比下不同图像的压缩时间对比图,图中3是所述文献1的压缩时间,4是本发明的压缩时间。从图中可看出利用本发明的算法,可大大降低算法的压缩时间,最多能降低到所述文献1算法压缩时间的1/10,因此利用本发明的算法可以降低压缩时间。

Claims (3)

1.一种基于限定小波大纲的最大误差图像压缩方法,其特征在于步骤如下:
一.对于由图像像素组成的原始矩阵(1)进行Haar小波分解:
所述原始矩阵(1)如下:
<mrow> <mtable> <mtr> <mtd> <msub> <mi>d</mi> <mn>11</mn> </msub> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <msub> <mi>d</mi> <mrow> <mn>1</mn> <mi>j</mi> </mrow> </msub> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <msub> <mi>d</mi> <mrow> <mn>1</mn> <mi>n</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <mtable> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> </mtable> </mtd> </mtr> <mtr> <mtd> <msub> <mi>d</mi> <mrow> <mi>i</mi> <mn>1</mn> </mrow> </msub> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <msub> <mi>d</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <msub> <mi>d</mi> <mrow> <mi>i</mi> <mi>n</mi> </mrow> </msub> </mtd> </mtr> <mtr> <mtd> <mtable> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> </mtable> </mtd> </mtr> <mtr> <mtd> <msub> <mi>d</mi> <mrow> <mi>n</mi> <mn>1</mn> </mrow> </msub> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <msub> <mi>d</mi> <mrow> <mi>n</mi> <mi>j</mi> </mrow> </msub> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <msub> <mi>d</mi> <mrow> <mi>n</mi> <mi>n</mi> </mrow> </msub> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
式中n=2k,k=1,2,3……,i为行数,j为列数;
(一)首先对原始矩阵(1)进行行第一级Haar小波分解,存放其近似值,并对生成的细节分量进行过滤,存放过滤后的细节分量:
(1)按照下述公式(2)和公式(3)逐行计算相邻两像素对的近似值M1和细节分量M2,并将计算结果存放在原始矩阵(1)的相应位置上:
M1=(dij+di(j+1))/2 (2)
M2=(dij-di(j+1))/2 (3)
式中j为奇数;
将近似值M1存放在原始矩阵(1)的(i,(j+1)/2)位置上;
(2)对细节分量M2进行过滤,将过滤的细节分量存放在原始矩阵(1)的(i,(j+1+m1)/2)位置上,其中m1为每一行像素的个数:
首先给定一个误差限D,设行第一级Haar小波分解的过滤阈值为D/2,列第一级Haar小波分解的过滤阈值为D/4,以后每进行一级行或列Haar小波分解其过滤阈值为前一次的1/2;
如果该级的细节分量的绝对值不大于该级的过滤阈值,则该细节分量用“0”代替,即:减少了数据量,实现了压缩;
(3)最后,由各近似值M1和各过滤后细节分量组成第一级行分解矩阵;
(二)对第一级行分解矩阵中的近似值所形成的列逐列进行列第一级Haar小波分解,生成第一级列分解矩阵:
(1)按照下述公式(4)和公式(5)逐列计算相邻两像素对的近似值M3和细节分量M4,并将计算结果存放在所述第一级行分解矩阵中相应位置上:
M3=(dij+d(i+1)j)/2 (4)
M4=(dij-d(i+1)j)/2 (5)
式中i为奇数;
将近似值M3存放在第一级行分解矩阵的((i+1)/2,j)位置上;
(2)对上述细节分量M4进行过滤,将过滤后的细节分量存放在第一级行分解矩阵的((i+1+m2)/2,j)位置上,式中m2为第一级行分解矩阵中每一列近似值的个数;
其过滤方法与上述第(一)步中的过滤方法相同;
(3)最后由各近似值M3和过滤后的细节分量组成第一级列分解矩阵;
(三)对所述第一级列分解矩阵中的近似值所形成的行逐行进行第二级Haar小波分解生成第二级行分解矩阵:
其分解方法与上述第(一)步相同,不同的是所述m1的取值为第一级列分解矩阵中的每一行中近似值的个数;
(四)对所述第二级行分解矩阵中近似值所形成的列逐列进行列第二级Haar小波分解,生成第二级列分解矩阵:
其分解方法与上述第(二)步相同,不同的是所述m2为第二级行分解矩阵中的每一列的近似值的个数;
(五)然后对新生成的矩阵交替进行下一级的行、列Haar小波分解,其分解方法与上述第(三)至第(四)步相同,直至只剩下一个近似值为止,此时的矩阵为压缩后的最终矩阵(6),所述最终矩阵(6)中的第一数据d′11为原始矩阵中所有像素的近似值,其它位置存放的是相应的细节分量;
所述最终矩阵(6)如下:
<mrow> <mtable> <mtr> <mtd> <mrow> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mn>11</mn> </msub> </mrow> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <mrow> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mn>1</mn> <mi>j</mi> </mrow> </msub> </mrow> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <mrow> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mn>1</mn> <mi>n</mi> </mrow> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mtable> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> </mtable> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mi>i</mi> <mn>1</mn> </mrow> </msub> </mrow> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <mrow> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> </mrow> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <mrow> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mi>i</mi> <mi>n</mi> </mrow> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mtable> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> <mtr> <mtd> <mrow></mrow> </mtd> </mtr> </mtable> </mtd> <mtd> <mtable> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> </mtable> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mi>n</mi> <mn>1</mn> </mrow> </msub> </mrow> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <mrow> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mi>n</mi> <mi>j</mi> </mrow> </msub> </mrow> </mtd> <mtd> <mo>...</mo> </mtd> <mtd> <mrow> <msup> <msub> <mi>d</mi> <mrow> <mi>n</mi> <mi>n</mi> </mrow> </msub> <mo>&amp;prime;</mo> </msup> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>
二.数据重构:
每一级列还原的计算重构数据的通式如下:
<mrow> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mrow> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>i</mi> <mo>+</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> <mi>j</mi> </mrow> </msub> <mo>+</mo> <msubsup> <mi>d</mi> <mrow> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>i</mi> <mo>+</mo> <mn>1</mn> <mo>+</mo> <msub> <mi>m</mi> <mn>3</mn> </msub> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> <mi>j</mi> </mrow> <mo>&amp;prime;</mo> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mrow> <mo>(</mo> <mi>i</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mrow> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>i</mi> <mo>+</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> <mi>j</mi> </mrow> </msub> <mo>-</mo> <msubsup> <mi>d</mi> <mrow> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>i</mi> <mo>+</mo> <mn>1</mn> <mo>+</mo> <msub> <mi>m</mi> <mn>3</mn> </msub> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> <mi>j</mi> </mrow> <mo>&amp;prime;</mo> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
式中,分别为该级列还原矩阵中存放位置为(i,j)、((i+1),j)的重构数据,i为奇数;为在前一级行还原矩阵中存放位置在的重构数据,当进行第一级列还原时,为最终矩阵(6)中存放位置为处的数据 为在前一级行还原矩阵中位置为的数据,当进行第一级列还原时,为在最终矩阵(6)中位置为的数据;m3为前一级行还原矩阵中需要还原的矩阵部分中每一列的数据个数,当进行第一级列还原时,m3为最终矩阵(6)中需要还原的矩阵部分每一列的数据个数;
每一级行还原的计算重构数据的通式如下:
<mrow> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mrow> <mi>i</mi> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>j</mi> <mo>+</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> </mrow> </msub> <mo>+</mo> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mi>i</mi> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>j</mi> <mo>+</mo> <mn>1</mn> <mo>+</mo> <msub> <mi>m</mi> <mn>4</mn> </msub> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mrow> <mi>i</mi> <mrow> <mo>(</mo> <mi>j</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </msub> <mo>=</mo> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mrow> <mi>i</mi> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>j</mi> <mo>+</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> </mrow> </msub> <mo>-</mo> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mi>i</mi> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>j</mi> <mo>+</mo> <mn>1</mn> <mo>+</mo> <msub> <mi>m</mi> <mn>4</mn> </msub> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>10</mn> <mo>)</mo> </mrow> </mrow>
式中,分别为在该级行还原矩阵中存放位置为(i,j)、(i,(j+1))的重构数据,j为奇数;为在该级列还原矩阵中存放位置为处的重构数据;为在该级列还原矩阵中存放位置为处的数据;m4为该级列还原矩阵中需要还原的矩阵部分每一行的数据个数;
(一)首先对所述最终矩阵中的2×1矩阵部分进行第一级列还原:
所述2×1矩阵部分为
按照上述式(7)和公式(8)计算所述2×1矩阵部分的重构数据并存放在最终矩阵的相应位置上;
在所述2×1矩阵部分中,所述公式(7)和公式(8)中的i为奇数、m3=2,即该列有两个数据d′11和d′21
<mrow> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mn>11</mn> </msub> <mo>=</mo> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mrow> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> <mn>1</mn> </mrow> </msub> <mo>+</mo> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> <mo>+</mo> <mn>2</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> <mn>1</mn> </mrow> </msub> <mo>=</mo> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> <mn>1</mn> </mrow> </msub> <mo>+</mo> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> <mo>+</mo> <mn>2</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> <mn>1</mn> </mrow> </msub> <mo>=</mo> <msubsup> <mi>d</mi> <mn>11</mn> <mo>&amp;prime;</mo> </msubsup> <mo>+</mo> <msubsup> <mi>d</mi> <mn>21</mn> <mo>&amp;prime;</mo> </msubsup> </mrow>
<mrow> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mn>21</mn> </msub> <mo>=</mo> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mrow> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> <mn>1</mn> </mrow> </msub> <mo>-</mo> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> <mo>+</mo> <mn>2</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> <mn>1</mn> </mrow> </msub> <mo>=</mo> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> <mn>1</mn> </mrow> </msub> <mo>-</mo> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> <mo>+</mo> <mn>2</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> <mn>1</mn> </mrow> </msub> <mo>=</mo> <msubsup> <mi>d</mi> <mn>11</mn> <mo>&amp;prime;</mo> </msubsup> <mo>-</mo> <msubsup> <mi>d</mi> <mn>21</mn> <mo>&amp;prime;</mo> </msubsup> </mrow>
存放在最终矩阵中,最终矩阵中的其余位置的数值不变,得到第一级列还原矩阵;
(二)对所述第一级列还原矩阵中的2×2矩阵部分进行第一级行还原:
所述2×2矩阵部分为
按照上述公式(9)和公式(10)计算所述2×2矩阵部分的重构数据并存放在所述第一级列还原矩阵的相应位置上;
在所述2×2矩阵部分中,j为需要还原的数据的列数,且为奇数;m4为该级需要还原的2×2矩阵部分中每一行的数据个数,此时m4=2;
<mrow> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mn>11</mn> </msub> <mo>=</mo> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mrow> <mn>1</mn> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> </mrow> </msub> <mo>+</mo> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mn>1</mn> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> <mo>+</mo> <mn>2</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> </mrow> </msub> <mo>=</mo> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mn>11</mn> </msub> <mo>+</mo> <msubsup> <mi>d</mi> <mn>12</mn> <mo>&amp;prime;</mo> </msubsup> </mrow>
<mrow> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mn>12</mn> </msub> <mo>=</mo> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mrow> <mn>1</mn> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> </mrow> </msub> <mo>-</mo> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mn>1</mn> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> <mo>+</mo> <mn>2</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> </mrow> </msub> <mo>=</mo> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mn>11</mn> </msub> <mo>-</mo> <msubsup> <mi>d</mi> <mn>12</mn> <mo>&amp;prime;</mo> </msubsup> </mrow> 3
<mrow> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mn>21</mn> </msub> <mo>=</mo> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mrow> <mn>2</mn> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> </mrow> </msub> <mo>+</mo> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mn>2</mn> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> <mo>+</mo> <mn>2</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> </mrow> </msub> <mo>=</mo> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mn>21</mn> </msub> <mo>+</mo> <msubsup> <mi>d</mi> <mn>22</mn> <mo>&amp;prime;</mo> </msubsup> </mrow>
<mrow> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mn>22</mn> </msub> <mo>=</mo> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mrow> <mn>2</mn> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> </mrow> </msub> <mo>-</mo> <msub> <msup> <mi>d</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mn>2</mn> <mrow> <mo>(</mo> <mfrac> <mrow> <mn>1</mn> <mo>+</mo> <mn>1</mn> <mo>+</mo> <mn>2</mn> </mrow> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> </mrow> </msub> <mo>=</mo> <msub> <mover> <mi>d</mi> <mo>^</mo> </mover> <mn>21</mn> </msub> <mo>-</mo> <msubsup> <mi>d</mi> <mn>22</mn> <mo>&amp;prime;</mo> </msubsup> </mrow>
存放在第一级列还原矩阵中,第一级列还原矩阵中的其余位置上的数据不变,得到第一级行还原矩阵;
(三)再对第一级行还原矩阵中的4×2矩阵部分进行第二级列还原,还原方法同上述第二步中的第(一)步;
如此交替重复,直至对n×n矩阵部分进行行还原后就实现了数据重构。
2.根据权利要求1所述的基于限定小波大纲的最大误差图像压缩方法,其特征在于:所述误差限D的选取原则如下:
为了得到预期的图像压缩比CR,通过反复试验来确定误差限D的取值;
先给一个任意的D1值,从实验结果看此时的图像压缩比CR1与预期的图像比CR的关系:如果CR1=CR,说明此时D1正是所需误差限;如果CR1>CR,说明D1取值较大,应该减小D1;如果CR1<CR,那么说明D1取值较小,应该增大D1;通过多次反复试验,最终可得到适合的D值,使其满足预期的图像压缩比。
3.根据权利要求1所述的基于限定小波大纲的最大误差图像压缩方法,其特征在于:所述误差限D的选取原则如下:为了达到预期的峰值信噪比PSNR,通过反复试验来确定误差限D的取值,先给一个任意的D值,比如值为D1,从实验结果看此时的图像峰值信噪比PSNR1与预期的图像峰值信噪比PSNR的关系:如果PSNR1=PSNR,说明此时D1正是所需要的误差限;如果PSNR1>PSNR,说明D1取值较小,应该增大D1;如果PSNR1<PSNR,说明D1取值较大,应该减小D1;通过多次反复试验,最终可得到适合的D值,使其满足预期的峰值信噪比。
CN201410627605.3A 2014-11-10 2014-11-10 基于限定小波大纲的最大误差图像压缩方法 Active CN104346819B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410627605.3A CN104346819B (zh) 2014-11-10 2014-11-10 基于限定小波大纲的最大误差图像压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410627605.3A CN104346819B (zh) 2014-11-10 2014-11-10 基于限定小波大纲的最大误差图像压缩方法

Publications (2)

Publication Number Publication Date
CN104346819A CN104346819A (zh) 2015-02-11
CN104346819B true CN104346819B (zh) 2017-09-05

Family

ID=52502359

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410627605.3A Active CN104346819B (zh) 2014-11-10 2014-11-10 基于限定小波大纲的最大误差图像压缩方法

Country Status (1)

Country Link
CN (1) CN104346819B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104394412B (zh) * 2014-11-29 2017-12-12 河北省科学院应用数学研究所 一种基于转换压缩的最大误差图像压缩方法
CN110009016B (zh) * 2019-03-25 2021-08-27 新华三信息安全技术有限公司 特征提取方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101902648A (zh) * 2002-04-19 2010-12-01 德罗普莱特科技公司 小波变换系统,方法和计算机程序产品
CN102938138A (zh) * 2012-10-27 2013-02-20 广西工学院 一种基于多元统计模型的分形小波自适应图像去噪方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7613761B2 (en) * 2005-06-27 2009-11-03 The Aerospace Corporation Haar wavelet transform embedded lossless type II discrete cosine transform
US8452111B2 (en) * 2008-06-05 2013-05-28 Microsoft Corporation Real-time compression and decompression of wavelet-compressed images
US8983206B2 (en) * 2011-05-04 2015-03-17 Ecole de Techbologie Superieure Method and system for increasing robustness of visual quality metrics using spatial shifting

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101902648A (zh) * 2002-04-19 2010-12-01 德罗普莱特科技公司 小波变换系统,方法和计算机程序产品
CN102938138A (zh) * 2012-10-27 2013-02-20 广西工学院 一种基于多元统计模型的分形小波自适应图像去噪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
L∞准则的最大误差图像压缩算法;李晓云等;《中国图象图形学报》;20140831;第19卷(第8期);第1136页右栏第3段至第1137页左栏第2段、第1139页倒数第2段及附图1、3、5 *
On Multidimensional Wavelet Synopses for Maximum Error Bounds;Zhang Q,et al;《DASFAA’ 09 Proceedings of the 14th International Conference on Database Systems for Advanced Applications》;20090316;第649页倒数第2段至第650页第1段及附图1 *

Also Published As

Publication number Publication date
CN104346819A (zh) 2015-02-11

Similar Documents

Publication Publication Date Title
CN110889895B (zh) 一种融合单帧重建网络的人脸视频超分辨率重建方法
Nashat et al. Image compression based upon wavelet transform and a statistical threshold
CN106791836A (zh) 一种基于一对多网络的减少图像压缩效应的方法
Brahimi et al. An improved multimodal signal-image compression scheme with application to natural images and biomedical data
CN104346819B (zh) 基于限定小波大纲的最大误差图像压缩方法
CN113962882B (zh) 一种基于可控金字塔小波网络的jpeg图像压缩伪影消除方法
Gansner et al. COAST: A convex optimization approach to stress-based embedding
CN104394412B (zh) 一种基于转换压缩的最大误差图像压缩方法
Sadkhan A proposed image compression technique based on DWT and predictive techniques
CN104683818A (zh) 基于双正交不变集多小波的图像压缩方法
Jeengar et al. A review comparison of wavelet and cosine image transforms
CN115131226B (zh) 一种基于小波张量低秩正则化的图像复原方法
CN114331853B (zh) 基于目标向量更新模块的单幅图像复原迭代框架
Balakrishnan Design and implementation of lifting based daubechies wavelet transforms using algebraic integers
Abood Image compression using 3-D two-level techniques
Budhewar Wavelet and Curvelet Transform based Image Fusion Algorithm
Lian et al. An Image Deblurring Method Using Improved U‐Net Model
Naqvi et al. Sparse representation of image and video using easy path wavelet transform
Naqvi et al. Adaptive geometric wavelet transform based two dimensional data compression
Rajkumar et al. Adaptive thresholding based medical image compression technique using Haar wavelet based listless SPECK encoder and artificial neural network
Wu et al. Hierarchical tensor approximation of multidimensional images
Nagamani et al. Image Compression Techniques for High Resolution Satellite Imageries using Classical Lifting Scheme
KR100300338B1 (ko) 2차원 이산 웨이브렛 변환을 위한 초고밀도 집적회로 구조
Liu et al. CARP: Compression through adaptive recursive partitioning for multi-dimensional images
Rajeshwari et al. DWT based Multimedia Compression

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C53 Correction of patent for invention or patent application
CB03 Change of inventor or designer information

Inventor after: Li Tongliang

Inventor after: Li Xiaoyun

Inventor after: Huang Shizhong

Inventor after: Pang Chaoyi

Inventor before: Li Tongliang

Inventor before: Li Xiaoyun

Inventor before: Huang Shizhong

COR Change of bibliographic data

Free format text: CORRECT: INVENTOR; FROM: LI TONGLIANG LI XIAOYUN HUANG SHIZHONG TO: LI TONGLIANG LI XIAOYUN HUANG SHIZHONG PANG CHAOYI

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20161214

Address after: 050081 Hebei, Shijiazhuang friendship south street, building 46, No. 1

Applicant after: APPLICATION MATHEMATICS INSTITUTE, HEBEI ACADEMY OF SCIENCES

Address before: 050081 Hebei, Shijiazhuang friendship south street, building 46, No. 1

Applicant before: Shijiazhuang Development Zone Jike Shangshi Sci-Tech Co., Ltd.

GR01 Patent grant
GR01 Patent grant