CN103366384A - 重要度驱动的面向全局冗余图像压缩方法 - Google Patents

重要度驱动的面向全局冗余图像压缩方法 Download PDF

Info

Publication number
CN103366384A
CN103366384A CN2013102858826A CN201310285882A CN103366384A CN 103366384 A CN103366384 A CN 103366384A CN 2013102858826 A CN2013102858826 A CN 2013102858826A CN 201310285882 A CN201310285882 A CN 201310285882A CN 103366384 A CN103366384 A CN 103366384A
Authority
CN
China
Prior art keywords
image
importance degree
image block
block
error coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013102858826A
Other languages
English (en)
Other versions
CN103366384B (zh
Inventor
汤颖
汪斌
范菁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201310285882.6A priority Critical patent/CN103366384B/zh
Publication of CN103366384A publication Critical patent/CN103366384A/zh
Application granted granted Critical
Publication of CN103366384B publication Critical patent/CN103366384B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

重要度驱动的面向全局冗余图像压缩方法,分四个步骤:第一步基于图像重要度计算图像块的自相似匹配误差系数;第二步计算每个图像块的自相似匹配块;第三步创建图像摘要图;第四步对摘要图进行组装。

Description

重要度驱动的面向全局冗余图像压缩方法
所属技术领域
本发明涉及计算机图像处理技术领域。
现有技术
随着网络技术的发展,面向网络的大规模三维场景绘制需要大量的纹理图像数据,而网络带宽和显存是有限的。如何在有限的网络带宽和显存下高效地传输纹理数据并快速的绘制三维场景成为一个迫切需要解决的问题。因此我们需要研究面向绘制的压缩,使得这些纹理图像数据能够在客户端快速地绘制。面向绘制的图像压缩需要结合图形硬件来进行快速解压,在解压过程中还应该支持对纹理元素的随机访问。
传统的图像压缩算法如JPEG,JPEG2000等能够很好地利用视觉局限性,去除图像频域中局部高频冗余部分,从而达到对图像的压缩。然而它们不能采用计算机图形硬件解压,无法支持解压过程中对纹理元素随机访问,从而实现边解压边绘制,因而不适合用于面向绘制的纹理压缩。
工业界已经提出了一些面向绘制的压缩标准。S3TC(S3Texture Compression)是由S3公司开发出来的纹理压缩技术。它是一种基于索引思想的压缩方法,将纹理按4×4大小划分成块,每个块对应一张四色查找表,块中每个像素点用两个bit表示,每一个都代表四色查找表中的一种颜色。ETC(Ericsson Texture Compression)是由爱立信研究中心在2005年提出的一种面向手机移动平台的纹理压缩技术。最初的ETC1压缩方案对24位的RGB数据有6倍的压缩率,但它不支持有Alpha通道的图像。ETC2是对ETC1的扩展,它不仅能够兼容ETC1,提供更高品质的RGB图像压缩,还支持RGBA(Red Green Blue Alpha)图像压缩。
但是S3TC和ETC纹理压缩算法没有充分利用图像全局之间的相关性,压缩率还有待进一步提高。Huamin Wang等人提出的基于摘要的纹理压缩方法,能够有效地去除全局重复信息,也能够结合硬件实现图像解压。但是它在压缩过程中没有结合图像不同区域的重要度进行自适应压缩,图像的压缩质量还有待进一步提高。本专利利用人眼视觉模型计算图像重要度信息,基于重要度信息对图像的全局冗余进行自适应压缩,从而在不降低压缩率的同时提高压缩质量。本专利技术生成的压缩纹理数据格式支持网络渐进传输,可以有效应用于网络环境下的大规模场景的快速绘制。
发明内容
本发明要克服现有技术的缺点,解决面向绘制的图像压缩问题,提供一种结合图像的重要度信息,利用全局冗余信息对图像进行视觉自适应压缩,使得解压后的图像视觉质量较高,同时支持图形硬件对压缩数据的实时解压绘制的方法。
一般图像中存在很多重复的内容,这些内容不仅是局部重复,也可能是全局重复,即在图像的全局区域都可能有重复的内容出现。通过提取出可以表示图像所有内容的代表块信息并记录其它块和代表块之间的变换重构关系可以有效压缩图像内容。面向全局冗余图像压缩算法主要针对图像中的全局重复信息进行搜索和提取,是一种基于图像分块的压缩算法,该算法通过构建图像的摘要图和映射表对图像进行压缩。其中摘要图是代表块的信息组合,是原图中的一片连通格子的集合,根据这些格子的集合可以重建原图的一部分内容。映射表是原图中的块和摘要图中块的映射关系。摘要图和映射表构成了我们的压缩数据,利用图形硬件可以对它们进行实时解压绘制。
本发明进一步结合了图像的重要度信息,在搜索代表块时考虑了图像的重要度信息,使得该方法能够根据视觉重要度信息进行自适应压缩。
方案共分四个步骤:第一步基于图像重要度计算图像块的自相似匹配误差系数;第二步计算每个图像块的自相似匹配块;第三步创建图像摘要图;第四步对摘要图进行组装。
详细步骤如下:
(1)基于图像重要度计算块匹配误差系数:图像块的重要度和图像块自相似匹配误差系数一一对应。我们用Ei表示每个图像块Bi的自相似匹配误差系数。要计算Ei,首先需要计算图像的重要度图。我们使用Saliency Filters算法计算图像的重要度图:首先对图像进行超像素分割,保留相关结构特征,并剔除一些不必要的细节特征,然后计算元素的唯一性和空间分布,最后将二者结合起来得到图像的重要度图。重要度图是一个和原图分辨率大小一致的灰度图,越重要的区域像素亮度值越大,否则反之。下面给出如何根据重要度图计算每个图像块的自相似匹配误差系数:
a.计算每个图像块的重要度(blockSaliency):
blockSalienc y i = Σ x = 1 16 Σ y = 1 16 gray x , y - - - ( 1 )
其中blockSaliencyi表示第i个图像块的重要度值,grayx,y表示重要度图中像素(x,y)的灰度值,x,y为像素在图像块内的坐标值,x,y的取值范围为[1,16],即块的大小为16×16。由公式(1)可知,块重要度等于此图像块内所有像素的灰度值之和。
在计算完所有图像块的重要度后,分别找到所有图像块中具有最大重要度(maxSaliency)和最小重要度(minSaliency)的图像块。
b.计算图像块匹配误差系数:图像块自相似匹配误差系数越小,则表示图像块匹配越精确。图像中重要度越高的区域,它所匹配到的图像块应越精确。因此图像块的重要度和误差系数成反比关系,即图像块的重要度越大,误差系数越小。对于重要度最大的块,我们将其误差系数设为2,对于重要度最小的块,其误差系数设为6.25。首先对所有图像块的重要度进行归一化,即:
blockSalienc y i = blockSaliency i - min Saliency max Saliency - min Saliency - - - ( 2 )
minSaliency表示所有块中最小的重要度值,maxSaliency表示所有块中最大的重要度值。对于上述取值范围在[0,1]之间的blockSaliency值我们将其线性映射到[0.16,0.5]范围内(公式(3));然后对线性映射后的blockSaliency值取倒数(公式(4)),即得到每个图像块的自相似匹配误差系数Ei,它的取值范围是[2,6.25]。
blockSaliencyi=blockSaliencyi*0.34+0.16     (3)
E i = 1 blockSalienc y i - - - ( 4 )
(2)图像自相似块查找:我们使用Kanade-Lucas-Tomasi(KLT)feature tracker来查找每个块的自相似块。KLT是计算机视觉中特征跟踪匹配的公知技术,它可以处理仿射变换,且速度较快。对于每一个图像块Bi,我们设定KLT匹配算法误差系数为Ei,其中Ei就是上面求得的图像块自相似匹配误差系数。为了通过KLT匹配技术在全局图像区域找到当前块的所有相似块,我们在图像x,y方向每平移4个像素单位即调用KLT算法进行匹配。KLT算法只能找到小幅度旋转变换范围内的匹配块,需要设置较好的旋转角度初值。我们使用公式(5)计算待匹配块相对当前块的旋转角度初值θguess,该值由两个区域的方向直方图来计算:
Figure BDA00003480191800024
(该公式调整过符号)
其中Bi为当前块,Sj为待匹配块,Horient(θ,X)是X在θ方向的方向直方图,θ′为旋转角度变量。
(3)创建图像摘要图:在上述相似块查找的基础上,我们使用一种贪心算法来建立摘要图E,使得一个摘要图能够尽量多地重建原图的区域。假设IE表示摘要图E所能重建的区域。我们在原图中找到一片区域ΔE加入到当前的摘要图,使得式(6)定义的Benefit最大,即加入ΔE后新增的重建区域面积减去ΔE本身的面积的值最大:
Benefit(ΔE)=|IE+ΔE\IE|-|ΔE|     (6)
下面阐述怎样找到这样的区域ΔE加入到当前的摘要图中:
首先要计算每个图像块Bj的覆盖集Cover(Bj)。如果原图中的块Bi的匹配区域和Bj有重叠部分,那么就把这些匹配区域集合起来作为Cover(Bj)。再定义一个块集合Cj,它表示包含Cover(Bj)的图像块(4×4像素)的集合。
接下来我们把所有块Bi对应的Ci\E,Ci去除和原有摘要图相交的部分,作为ΔE。在选择ΔE加入到现有摘要图中时,优先考虑那些和现有摘要图相交的ΔE,使用其中Benefit最大的ΔE来增长现有摘要图。当所有和原有的摘要图相交的ΔE的Benefit都等于0的时候,使用新的Benefit最大的和其它摘要图不相交的ΔE作为一个新的摘要图。这个步骤进行直到重建区域覆盖全图为止。
建立摘要图的算法如下:
Figure BDA00003480191800031
(4)组装摘要图:上一步中计算出来的每一个摘要图分布在原图中的各个区域,我们要用一种有效的方法将这些大小不一的摘要图组装在一起,使得组装后的摘要图面积尽可能小。这里采用一种启发式算法,该算法在摘要图E中逐个加入每一个小的摘要图,在增加一个新的摘要图的时候,使构造的E的面积增加最小。
组装摘要图的步骤如下:
a.计算每一个小的摘要图的矩形闭包Pi(如图3中的P1、P2、P3、P4、P5所示),Pi由图像块(4×4像素)组成。
b.将得到的每个矩形区域Pi按所占格子数大小排序。
c.首先将最大的P1作为初始组装摘要图,接下来遍历后面的每一个Pi,在组装摘要图中找到合适的位置,使得Pi加入到组装的摘要图中以后,其增加面积最小。寻找合适位置的方法如下:假设当前已经组装的摘要图为unionPart,待组装的矩形区域Pi为newPart,它们的大小分别为x1×y1和x2×y2。按下面的方式遍历unionPart,找到一个合适位置,使得newPart放到该位置时不会和unionPart相交,且新增面积最小:
Figure BDA00003480191800032
本发明描述了一种重要度驱动的面向全局冗余图像压缩方法,将图像的重要度信息转换为图像块自相似匹配的误差系数,能够很好地保留图像中的重要区域,且压缩效率较高。
本发明的优点如下:
(1)自适应压缩。在查找图像自相似块的时候,考虑图像的重要度信息,将图像的重要度信息映射为匹配的误差系数,因此能对图像按视觉重要度进行自适应压缩,压缩结果视觉质量较高。
(2)解压速度快。能够结合图形硬件来进行解压,速度较快。
(3)实现简单。计算每个块的误差匹配系数,只需要将每个块的显著性值映射到某个范围即可,然后将其作为KLT匹配算法误差系数进行自相似块查找,实现简单。
(4)方便易行,操作简单。用户只需要提供一副图像,算法会自动计算其重要度图,对图像进行重要度驱动的自适应压缩,且用户不需要输入其它参数。
(5)适用于渐进的网络传输。算法的压缩数据结构支持在有限的网络带宽实现渐进传输纹理数据。我们可以通过控制误差系数生成对应不同重建质量的摘要图和增量摘要图,从而在网络上实现渐进传输。
附图说明
图1是本发明的图像分块,摘要图和映射关系示例
图2是本发明的覆盖集示意图
图3是摘要图组装示例
具体实施方式
参照附图:一般图像中存在很多重复的内容,这些内容不仅是局部重复,也可能是全局重复,即在图像的全局区域都可能有重复的内容出现。通过提取出可以表示图像所有内容的代表块信息并记录其它块和代表块之间的变换重构关系可以有效压缩图像内容。面向全局冗余图像压缩算法主要针对图像中的全局重复信息进行搜索和提取,是一种基于图像分块的压缩算法,该算法通过构建图像的摘要图和映射表对图像进行压缩。其中摘要图是代表块的信息组合,是原图中的一片连通格子的集合,根据这些格子的集合可以重建原图的一部分内容。映射表是原图中的块和摘要图中块的映射关系。摘要图和映射表构成了我们的压缩数据,利用图形硬件可以对它们进行实时解压绘制。
图1展示了图像分块、摘要图、映射之间的关系。从图中可以看出,原图被划分成16×16像素的小块,每个小块在摘要图中都有对应的区域匹配。图中的摘要图1和摘要图2实际上分布在图像中的不同区域,在构建总摘要图时要将它们组装成一个更加紧凑的摘要图。
本发明进一步结合了图像的重要度信息,在搜索代表块时考虑了图像的重要度信息,使得该方法能够根据视觉重要度信息进行自适应压缩。
方案共分四个步骤:第一步基于图像重要度计算图像块的自相似匹配误差系数;第二步计算每个图像块的自相似匹配块;第三步创建图像摘要图;第四步对摘要图进行组装。
详细步骤如下:
(1)基于图像重要度计算块匹配误差系数:图像块的重要度和图像块自相似匹配误差系数一一对应。我们用Ei表示每个图像块Bi的自相似匹配误差系数。要计算Ei,首先需要计算图像的重要度图。我们使用Saliency Filters算法计算图像的重要度图:首先对图像进行超像素分割,保留相关结构特征,并剔除一些不必要的细节特征,然后计算元素的唯一性和空间分布,最后将二者结合起来得到图像的重要度图。重要度图是一个和原图分辨率大小一致的灰度图,越重要的区域像素亮度值越大,否则反之。下面给出如何根据重要度图计算每个图像块的自相似匹配误差系数:
a.计算每个图像块的重要度(blockSaliency):
blockSalienc y i = Σ x = 1 16 Σ y = 1 16 gray x , y - - - ( 1 )
其中blockSaliencyi表示第i个图像块的重要度值,grayx,y表示重要度图中像素(x,y)的灰度值,x,y为像素在图像块内的坐标值,x,y的取值范围为[1,16],即块的大小为16×16。由公式(1)可知,块重要度等于此图像块内所有像素的灰度值之和。
在计算完所有图像块的重要度后,分别找到所有图像块中具有最大重要度(maxSaliency)和最小重要度(minSaliency)的图像块。
b.计算图像块匹配误差系数:图像块自相似匹配误差系数越小,则表示图像块匹配越精确。图像中重要度越高的区域,它所匹配到的图像块应越精确。因此图像块的重要度和误差系数成反比关系,即图像块的重要度越大,误差系数越小。对于重要度最大的块,我们将其误差系数设为2,对于重要度最小的块,其误差系数设为6.25。首先对所有图像块的重要度进行归一化,即:
blockSalienc y i = blockSaliency i - min Saliency max Saliency - min Saliency - - - ( 2 )
minSaliency表示所有块中最小的重要度值,maxSaliency表示所有块中最大的重要度值。对于上述取值范围在[0,1]之间的blockSaliency值我们将其线性映射到[0.16,0.5]范围内(公式(3));然后对线性映射后的blockSaliency值取倒数(公式(4)),即得到每个图像块的自相似匹配误差系数Ei,它的取值范围是[2,6.25]。
blockSaliencyi=blockSaliencyi*0.34+0.16     (3)
E i = 1 blockSalienc y i - - - ( 4 )
(2)图像自相似块查找:我们使用Kanade-Lucas-Tomasi(KLT)feature tracker来查找每个块的自相似块。KLT是计算机视觉中特征跟踪匹配的公知技术,它可以处理仿射变换,且速度较快。对于每一个图像块Bi,我们设定KLT匹配算法误差系数为Ei,其中Ei就是上面求得的图像块自相似匹配误差系数。为了通过KLT匹配技术在全局图像区域找到当前块的所有相似块,我们在图像x,y方向每平移4个像素单位即调用KLT算法进行匹配。KLT算法只能找到小幅度旋转变换范围内的匹配块,需要设置较好的旋转角度初值。我们使用公式(5)计算待匹配块相对当前块的旋转角度初值θguess,该值由两个区域的方向直方图来计算:
其中Bi为当前块,Sj为待匹配块,Horient(θ,X)是X在θ方向的方向直方图,θ′为旋转角度变量。
(3)创建图像摘要图:在上述相似块查找的基础上,我们使用一种贪心算法来建立摘要图E,使得一个摘要图能够尽量多地重建原图的区域。假设IE表示摘要图E所能重建的区域。我们在原图中找到一片区域ΔE加入到当前的摘要图,使得式(6)定义的Benefit最大,即加入ΔE后新增的重建区域面积减去ΔE本身的面积的值最大:
Benefit(ΔE)=|IE+ΔE\IE|-|ΔE|     (6)
下面阐述怎样找到这样的区域ΔE加入到当前的摘要图中:
首先要计算每个图像块Bj的覆盖集Cover(Bj)。如果原图中的块Bi的匹配区域和Bj有重叠部分,那么就把这些匹配区域集合起来作为Cover(Bj)。再定义一个块集合Cj,它表示包含Cover(Bj)的图像块(4×4像素)的集合。
图2描述的是一个图像块Bj的覆盖集示意图。从图中可以看出图像块B1、B2、B3的匹配区域T1、T2、T3和Bj相交,所以Cover(Bj)={T1,T2,T3}。Cj即为包含区域T1、T2、T3的图像块的集合,图中为用红色线条框出的区域。
接下来我们把图中所有块Bi对应的Ci\E(Ci去除和原有摘要图相交的部分)作为ΔE。在选择ΔE加入到现有摘要图中时,优先考虑那些和现有摘要图相交的ΔE,使用其中Benefit最大的ΔE来增长现有摘要图。当所有和原有的摘要图相交的ΔE的Benefit都等于0的时候,使用新的Benefit最大的和其它摘要图不相交的ΔE作为一个新的摘要图。这个步骤进行直到重建区域覆盖全图为止。
建立摘要图的算法如下:
Figure BDA00003480191800061
(4)组装摘要图:上一步中计算出来的每一个摘要图分布在原图中的各个区域,我们要用一种有效的方法将这些大小不一的摘要图组装在一起,使得组装后的摘要图面积尽可能小。这里采用一种启发式算法,该算法在摘要图E中逐个加入每一个小的摘要图,在增加一个新的摘要图的时候,使构造的E的面积增加最小。
组装摘要图的步骤如下:
a.计算每一个小的摘要图的矩形闭包Pi(如图3中的P1、P2、P3、P4、P5所示),Pi由图像块(4×4像素)组成。
b.将得到的每个矩形区域Pi按所占格子数大小排序。
c.首先将最大的P1作为初始组装摘要图,接下来遍历后面的每一个Pi,在组装摘要图中找到合适的位置,使得Pi加入到组装的摘要图中以后,其增加面积最小。寻找合适位置的方法如下:假设当前已经组装的摘要图为unionPart,待组装的矩形区域Pi为newPart,它们的大小分别为x1×y1和x2×y2。按下面的方式遍历unionPart,找到一个合适位置,使得newPart放到该位置时不会和unionPart相交,且新增面积最小:
Figure BDA00003480191800062
图3展示了将摘要图进行组装的过程。

Claims (1)

1.重要度驱动的面向全局冗余图像压缩方法,详细步骤如下: 
步骤1,基于图像重要度计算块匹配误差系数:图像块的重要度和图像块自相似匹配误差系数一一对应。我们用Ei表示每个图像块Bi的自相似匹配误差系数。要计算Ei,首先需要计算图像的重要度图。我们使用Saliency Filters算法计算图像的重要度图:首先对图像进行超像素分割,保留相关结构特征,并剔除一些不必要的细节特征,然后计算元素的唯一性和空间分布,最后将二者结合起来得到图像的重要度图。重要度图是一个和原图分辨率大小一致的灰度图,越重要的区域像素亮度值越大,否则反之。下面给出如何根据重要度图计算每个图像块的自相似匹配误差系数: 
a.计算每个图像块的重要度(blockSaliency): 
Figure FDA00003480191700011
其中blockSaliencyi表示第i个图像块的重要度值,grayx,y表示重要度图中像素(x,y)的灰度值,x,y为像素在图像块内的坐标值,x,y的取值范围为[1,16],即块的大小为16×16。由公式(1)可知,块重要度等于此图像块内所有像素的灰度值之和。 
在计算完所有图像块的重要度后,分别找到所有图像块中具有最大重要度(maxSaliency)和最小重要度(minSaliency)的图像块。 
b.计算图像块匹配误差系数:图像块自相似匹配误差系数越小,则表示图像块匹配越精确。图像中重要度越高的区域,它所匹配到的图像块应越精确。因此图像块的重要度和误差系数成反比关系,即图像块的重要度越大,误差系数越小。对于重要度最大的块,我们将其误差系数设为2,对于重要度最小的块,其误差系数设为6.25。首先对所有图像块的重要度进行归一化,即: 
minSaliency表示所有块中最小的重要度值,maxSaliency表示所有块中最大的重要度值。对于上述取值范围在[0,1]之间的blockSaliency值我们将其线性映射到[0.16,0.5]范围内(公式(3));然后对线性映射后的blockSaliency值取倒数(公式(4)),即得到每个图像块的自相似匹配误差系数Ei,它的取值范围是[2,6.25]。 
blockSaliencyi=blockSaliencyi*0.34+0.16     (3) 
Figure FDA00003480191700013
步骤2,图像自相似块查找:我们使用Kanade-Lucas-Tomasi(KLT)feature tracker来查找每个块的自相似块。KLT是计算机视觉中特征跟踪匹配的公知技术,它可以处理仿射变换,且速度较快。对于每一个图像块Bi,我们设定KLT匹配算法误差系数为Ei,其中Ei就是上面求得的图像块自相似匹配误差系数。为了通过KLT匹配技术在全局图像区域找到当前块的所有相似块,我们在图像x,y方向每平移4个像素单位即调用KLT算法进行匹配。KLT算法只能找到小幅度旋转变换范围内的匹配块,需要设置较好的旋转角度初值。我们使用公式(5)计算待匹配块相对当前块的旋转角度初值θguess,该值由两个区域的方向直方图来计算: 
Figure FDA00003480191700014
其中Bi为当前块,Sj为待匹配块,Horient(θ,X)是X在θ方向的方向直方图,θ′为旋转角度变量。 
步骤3,创建图像摘要图:在上述相似块查找的基础上,我们使用一种贪心算法来建立摘要图E,使得一个摘要图能够尽量多地重建原图的区域。假设IE表示摘要图E所能重建 的区域。我们在原图中找到一片区域ΔE加入到当前的摘要图,使得式(6)定义的Benefit最大,即加入ΔE后新增的重建区域面积减去ΔE本身的面积的值最大: 
Benefit(ΔE)=|IE+ΔE\IE|-|ΔE|     (6) 
下面阐述怎样找到这样的区域ΔE加入到当前的摘要图中: 
首先要计算每个图像块Bj的覆盖集Cover(Bj)。如果原图中的块Bi的匹配区域和Bj有重叠部分,那么就把这些匹配区域集合起来作为Cover(Bj)。再定义一个块集合Cj,它表示包含Cover(Bj)的图像块(4×4像素)的集合。 
接下来我们把所有块Bi对应的Ci\E,Ci去除和原有摘要图相交的部分,作为ΔE。在选择ΔE加入到现有摘要图中时,优先考虑那些和现有摘要图相交的ΔE,使用其中Benefit最大的ΔE来增长现有摘要图。当所有和原有的摘要图相交的ΔE的Benefit都等于0的时候,使用新的Benefit最大的和其它摘要图不相交的ΔE作为一个新的摘要图。这个步骤进行直到重建区域覆盖全图为止。 
建立摘要图的算法如下: 
Figure FDA00003480191700021
步骤4,组装摘要图:上一步中计算出来的每一个摘要图分布在原图中的各个区域,我们要用一种有效的方法将这些大小不一的摘要图组装在一起,使得组装后的摘要图面积尽可能小。这里采用一种启发式算法,该算法在摘要图E中逐个加入每一个小的摘要图,在增加一个新的摘要图的时候,使构造的E的面积增加最小。 
组装摘要图的步骤如下: 
a.计算每一个小的摘要图的矩形闭包Pi(如图3中的P1、P2、P3、P4、P5所示),Pi由图像块(4×4像素)组成。 
b.将得到的每个矩形区域Pi按所占格子数大小排序。 
c.首先将最大的P1作为初始组装摘要图,接下来遍历后面的每一个Pi,在组装摘要图中找到合适的位置,使得Pi加入到组装的摘要图中以后,其增加面积最小。寻找合适位置的方法如下:假设当前已经组装的摘要图为unionPart,待组装的矩形区域Pi为newPart,它们的大小分别为x1×y1和x2×y2。按下面的方式遍历unionPart,找到一个合适位置,使得newPart放到该位置时不会和unionPart相交,且新增面积最小: 
CN201310285882.6A 2013-07-08 2013-07-08 重要度驱动的面向全局冗余图像压缩方法 Active CN103366384B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310285882.6A CN103366384B (zh) 2013-07-08 2013-07-08 重要度驱动的面向全局冗余图像压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310285882.6A CN103366384B (zh) 2013-07-08 2013-07-08 重要度驱动的面向全局冗余图像压缩方法

Publications (2)

Publication Number Publication Date
CN103366384A true CN103366384A (zh) 2013-10-23
CN103366384B CN103366384B (zh) 2016-03-30

Family

ID=49367652

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310285882.6A Active CN103366384B (zh) 2013-07-08 2013-07-08 重要度驱动的面向全局冗余图像压缩方法

Country Status (1)

Country Link
CN (1) CN103366384B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104869425A (zh) * 2015-05-13 2015-08-26 信阳师范学院 一种基于纹理图像相似性的压缩和解压缩方法
CN107018287A (zh) * 2015-10-09 2017-08-04 汤姆逊许可公司 使用视频缩影对图像进行降噪的方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090028447A1 (en) * 2007-07-26 2009-01-29 Yusuke Yatabe Image compression method and image processing apparatus
CN102393966A (zh) * 2011-06-15 2012-03-28 西安电子科技大学 基于多尺度显著图的自适应图像压缩采样方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090028447A1 (en) * 2007-07-26 2009-01-29 Yusuke Yatabe Image compression method and image processing apparatus
CN102393966A (zh) * 2011-06-15 2012-03-28 西安电子科技大学 基于多尺度显著图的自适应图像压缩采样方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
汤颖: "纹理映射、合成和压缩", 《中国优秀博硕士学位论文全文数据库(博士)信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104869425A (zh) * 2015-05-13 2015-08-26 信阳师范学院 一种基于纹理图像相似性的压缩和解压缩方法
CN107018287A (zh) * 2015-10-09 2017-08-04 汤姆逊许可公司 使用视频缩影对图像进行降噪的方法和装置

Also Published As

Publication number Publication date
CN103366384B (zh) 2016-03-30

Similar Documents

Publication Publication Date Title
US11995775B2 (en) Delivering virtualized content
US8059911B2 (en) Depth-based image enhancement
US20170188002A1 (en) Auxiliary data for artifacts - aware view synthesis
US10991150B2 (en) View generation from a single image using fully convolutional neural networks
US20100134494A1 (en) Remote shading-based 3d streaming apparatus and method
US20130182184A1 (en) Video background inpainting
CN104937927A (zh) 2维图像或视频到3维立体图像或视频的实时自动转换
CN105210374B (zh) 利用图像特征对频率提高超分辨率的控制
CN105230032B (zh) 利用自适应频率提高来创建图像中的细节
Plath et al. Adaptive image warping for hole prevention in 3D view synthesis
EP2539868A1 (en) Hierarchical blurring of texture maps
CN107465939A (zh) 视频图像数据流的处理方法及装置
US20200236401A1 (en) Point cloud coding using homography transform
Xi et al. Depth-image-based rendering with spatial and temporal texture synthesis for 3DTV
CN107767437B (zh) 一种多层混合异步渲染方法
CN116248955A (zh) 一种基于ai抽帧补帧的vr云渲染图像增强方法
Olanda et al. Terrain data compression using wavelet-tiled pyramids for online 3D terrain visualization
CN101662695A (zh) 一种获取虚拟视图的方法和装置
CN103366384B (zh) 重要度驱动的面向全局冗余图像压缩方法
EP4133719A1 (en) A method, an apparatus and a computer program product for volumetric video coding
CN108198163A (zh) 一种基于离散余弦变换的全色与多光谱图像融合方法
CN115375539A (zh) 图像分辨率增强、多帧图像超分辨率系统和方法
Kang et al. FPGA implementation for enhancing image using pixel-based median channel prior
CN103198495B (zh) 重要度驱动的纹理压缩方法
TWI613903B (zh) 結合小波轉換及邊緣偵測建立單張影像深度圖的裝置及其方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant