CN103927746B - 一种三维网格序列的配准及压缩方法 - Google Patents
一种三维网格序列的配准及压缩方法 Download PDFInfo
- Publication number
- CN103927746B CN103927746B CN201410133394.8A CN201410133394A CN103927746B CN 103927746 B CN103927746 B CN 103927746B CN 201410133394 A CN201410133394 A CN 201410133394A CN 103927746 B CN103927746 B CN 103927746B
- Authority
- CN
- China
- Prior art keywords
- frame
- data
- vertex
- dimensional grid
- grid sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开一种三维网格序列的配准及压缩方法,其能够去除网格序列在帧间拓扑信息上的冗余性,大大地提高对网格序列的压缩效率,从而降低存储空间。这种三维网格序列的配准及压缩方法,包括步骤:(1)基于视频的帧间编码来配准一个三维网格序列;(2)用开源软件7‑Zip无损压缩所有的I帧的顶点和面片数据;通过压缩相邻帧之间的顶点残差数据来压缩P帧和B帧的顶点数据,而P帧和B帧的面片数据将与I帧共享;(3)用开源软件7‑Zip对步骤(b)的压缩文件进行解压,然后重建。
Description
技术领域
本发明属于多媒体技术领域,具体地涉及一种三维网格序列的配准及压缩方法。
背景技术
随着计算机图形学技术的飞速发展,三维网格已被广泛地应用于计算机图形学的应用中。因此,为了更高效地存储和传输三维网格数据,对三维网格的表达和压缩便成为了一个非常重要的研究环节。
一个三维网格的数据通常可以由以下几个部分组成:顶点、边、面片以及一些属性信息如法向量、纹理坐标和纹理颜色等。最简单的三维网格往往只用记录顶点和面片数据。通常,顶点的坐标信息被称为三维网格的几何信息,顶点的连接信息也即面片数据被称为三维网格的拓扑信息。已有的三维网格压缩算法通常都是针对三维网格的几何信息和拓扑信息来进行压缩的,这些压缩算法往往用于压缩静态的单一网格,利用的是三维网格数据在几何或拓扑信息上的空间相关性。而对于动态的三维网格序列,如果我们仅仅用这些方法对序列中的每个网格单独压缩,那么存在于序列中各帧之间的时间相关性就会被浪费掉,这将使得对一个网格序列的压缩效率大大降低。
获取三维网格数据的方式通常可以划分为两种,一种是通过计算机程序人工生成三维网格模型;另一种是通过用一些如Cyberware三维扫描仪或多视点摄像机等专业感知设备捕获现实世界中的物体来获得三维网格数据。对于前一种获取方式,通常可以人工地控制三维网格的顶点连接性以使产生的三维网格序列具有时间一致性,即序列中的所有网格的顶点连接信息一致。而对于后一种获取方式,在同一个序列中的不同帧的原始网格数据的顶点连接信息通常是不同的。因此,在存储三维网格数据时,必须将序列中的所有三维网格的面片数据都存储下来。如果网格序列是一个三维动画,相邻帧的顶点连接性往往是十分相似的,这时在压缩网格序列数据的过程中这种在顶点连接信息上的时间冗余一定是可以通过某种方法去除的。
三维人脸配准是一种将不同三维人脸网格的顶点对齐的技术,即找到网格与网格之间的顶点对应关系。当将配准算法应用于一个三维人脸模型的序列时,由于找到了序列上所有网格之间的顶点对应关系,即所有网格在相同下标下的顶点都是对应的,所以序列中的所有网格也就获得了相同的顶点连接信息,即可以共享相同的面片数据。这样的结果恰恰能够满足去除之前提到的网格序列在顶点连接信息上的冗余数据的要求。
有人提出了一种基于薄板样条(thin plate spine,TPS)变换的非刚性三维人脸配准方法。本质上,TPS是一种径向基函数,它的基函数为:
φ=r2logr
其中r是笛卡尔坐标系中两个点的欧拉距离。TPS变换的形式如下
f(P)=Pd+Kw
其中P是一个顶点集中顶点的齐次坐标矩阵;d和w分别是非仿射变换矩阵和仿射变换矩阵,K是关于TPS基函数的矩阵。该配准方法是先对参考三维网格进行TPS变换,然后再通过用K维二叉搜索树(KD-tree)搜索变换后的三维网格中的所有顶点在目标三维网格中的最邻近点来匹配参考网格和目标网格之间的对应顶点。这个配准方法可以在两个网格之间获得较好的配准效果。但是当配准一个人脸网格序列时,因为只从序列中选出一个网格作为参考网格,所以当目标网格距离该参考网格越来越远时,对目标网格的配准效果往往会越来越差。
发明内容
本发明的技术解决问题是:克服现有技术的不足,提供一种三维网格序列的配准及压缩方法,其能够去除网格序列在帧间拓扑信息上的冗余性,大大地提高对网格序列的压缩效率,从而降低存储空间。
本发明的技术解决方案是:这种三维网格序列的配准及压缩方法,包括以下步骤:
(1)基于视频的帧间编码来配准一个三维网格序列;
(2)用开源软件7-Zip无损压缩所有的I帧的顶点和面片数据;通过压缩相邻帧之间的顶点残差数据来压缩P帧和B帧的顶点数据,而P帧和B帧的面片数据将与I帧共享;
(3)用开源软件7-Zip对步骤(b)的压缩文件进行解压,然后重建。
本发明将配准过程和视频编码技术中的帧间编码思想结合在一起,通过设定和视频的帧间编码中类似的帧间编码结构,用一种更复杂的方式来配准一个人脸网格序列,从而获得更好的配准效果;在配准完毕后,由于所有网格的顶点已被对齐,一方面相邻帧网格之间的各对应顶点的坐标残差会比较小,这时可以对顶点的残差数据进行时频变换和量化后再采用无损的文本压缩程序编码,另一方面所有网格都共享一个面片数据,所以可以只保存并编码一个面片数据;因此本发明能够去除网格序列在帧间拓扑信息上的冗余性,大大地提高对网格序列的压缩效率,从而降低存储空间。
附图说明
图1示出了用两个参考帧网格共同配准目标帧网格的过程;
图2是五种GOF结构的示意图;
图3示出了对5种GOF结构的配准结果压缩的平均Mesh PSNR曲线;
图4示出了对5种GOF结构的配准结果压缩的压缩比曲线;
图5示出了本发明的三维人脸网格编码方法编码端实施例的流程图;
图6示出了本发明的三维网格人脸编码方法解码端实施例的流程图。
具体实施方式
这种三维网格序列的配准及压缩方法,包括以下步骤:
(1)基于视频的帧间编码来配准一个三维网格序列;
(2)用开源软件7-Zip无损压缩所有的I帧的顶点和面片数据;通过压缩相邻帧之间的顶点残差数据来压缩P帧和B帧的顶点数据,而P帧和B帧的面片数据将与I帧共享;
(3)用开源软件7-Zip对步骤(b)的压缩文件进行解压,然后重建。
本发明将配准过程和视频编码技术中的帧间编码思想结合在一起,通过设定和视频的帧间编码中类似的帧间编码结构,用一种更复杂的方式来配准一个人脸网格序列,从而获得更好的配准效果;在配准完毕后,由于所有网格的顶点已被对齐,一方面相邻帧网格之间的各对应顶点的坐标残差会比较小,这时可以对顶点的残差数据进行时频变换和量化后再采用无损的文本压缩程序编码,另一方面所有网格都共享一个面片数据,所以可以只保存并编码一个面片数据;因此本发明能够去除网格序列在帧间拓扑信息上的冗余性,大大地提高对网格序列的压缩效率,从而降低存储空间。
优选地,如图5所示,步骤(a)中包括以下分步骤:
(a.1)设置一种帧组GOF结构和I帧周期;
(a.2)根据此GOF结构分析整个三维网格序列,设置每一帧的帧类型和参考帧序号;
(a.3)按照此设置对整个三维网格序列进行全局配准。
优选地,如图5所示,步骤(b)包括以下分步骤:
(b.1)将三维网格序列中的总帧数、I帧周期和量化步长写入二进制码流文件头;
(b.2)对三维网格序列按帧出现顺序进行逐帧编码:如果当前帧是I帧,将顶点数和面片数分别用2字节无符号整型保存,顶点数据每个坐标值用8字节双精度保存,面片数据每个顶点下标用2字节无符号整型保存,并一起写入二进制码流文件中;如果是P帧或B帧,对其与前一帧的重建结果的顶点坐标残差进行保留两位小数精度取整、一维Haar DWT变换和量化,将量化结果每个元素用2字节存储并写入到二进制文件中,再将过程反过来重建当前帧网格;
(b.3)用开源软件7-Zip对二进制码流文件进行无损压缩成7z格式作为最终压缩结果。
优选地,如图6所示,步骤(c)包括以下分步骤:
(c.1)用7-Zip对7z格式压缩文件解压,得到二进制码流文件;
(c.2)读出码流文件中的头部信息,包括三维网格序列的总帧数、I帧周期和量化步长;
(c.3)根据读出的头部信息对三维网格序列中每一帧进行解码重建:如果当前帧是I帧,先读出分别占用两个字节的顶点数和面片数,在根据顶点数和面片数直接读出固定字节数的内容作为此I帧的顶点和面片数据;如果当前帧是P帧或B帧,先按之前已读出的顶点数读出指定字节数的内容作为顶点残差数据,然后按照编码时的逆过程进行解码重建当前帧网格的顶点数据,而面片数据和之前的I帧面片数据一样。
以下更详细地说明本发明:
1.改进的三维人脸网格序列非刚性配准方法
如果我们将一个三维人脸网格序列当做一个三维视频,其中每一帧都是一个三维网格,那么和视频编码技术中类似,在配准过程中人脸网格序列可以被分为三种类型,即I帧、P帧和B帧。并且如视频编码技术中的GOP(group of pictures)一样,三维网格序列也被划分成多个组,在下面的叙述中将称它们为GOF(group of frames,帧组)。
如我们所知道的,在视频编码标准中,GOP的结构可以有多种,并且可以在配置文件中设置,在一种GOP结构中,每一个P帧和B帧都有若干个参考帧。而在本发明的方案中,GOF的结构比视频编码标准中的GOP结构要简单一些,每个P帧或B帧网格至多拥有两个参考帧,并且没有其它的参数——GOF的作用仅仅在于设置各个帧在做配准时的参考帧。用两个参考帧F1和F2配准帧Fn的过程如下:
1)分别求解由两个参考帧到目标帧的TPS变换fi,i=1,2并将变换应用于参考帧的所有顶点得到变换后的顶点集Pi’,i=1,2;
2)计算两个变换顶点集的如下形式的所有线性组合:
P'=a·P1'+b·P2'
其中a,b=0,0.1,0.2,...1并且满足a+b=1。对于每个线性组合结果Pj',j=1,2,...11,在目标帧Fn中搜索并得到最邻近顶点集Pj”作为Pj'的对应顶点集,并计算Pj'和Pj”各对应点的距离,然后挑出具有最小平均距离的Pj”作为配准结果。图1为此过程的示意图。
需要注意的一个关键的问题是,在本发明的方案中,一个目标帧的所有参考帧都必须具有相同的顶点连接性,这意味着所有的I帧都必须是向后方向做配准的,而不是像在视频编码标准中的GOP那样有的I帧会向前预测。因此,我们将每个I帧都放到一个GOF的前面,而不是放到GOF之中。此外,该方案共设计并采用了5种GOF结构,详细的介绍如下:
1)IPPP...IPPP...(1),在这种GOF结构中,所有的GOF都仅包含P帧,每个P帧都是由其之前的I帧配准。
2)IPPP...IPPP...(2),在这种GOF结构中,所有的GOF都仅有P帧,但是每个P帧都是由其前一帧来配准的。
3)IPPP...IPPP...(3),在这种GOF结构中,所有的GOF都仅有P帧,但是每个P帧都可能由其前一个P帧和之前的I帧共同作为参考帧来配准。
4)IBPBP...IBP...,在这种GOF结构中,每个BP序列构成一个GOF。P帧由其前面的I帧(如果是在这个I帧后面的第一个GOF中)或者前一个GOF中的P帧配准;B帧由其前面的I帧或P帧和相同GOF中的P帧共同作为参考帧来配准.
5)IBBBPBBBP...IBBBP...,在这种GOF结构中,每个BBBP序列构成一个GOF。P帧的情况与第4种GOF结构一样,由其前面的I帧或P帧配准;三个B帧的配准顺序为POC2,1然后3,每个B帧都是由其最近的两个已经配准过的I帧、P帧或者B帧作为参考帧来配准。
由于I帧不在任何GOF之中,而是被置于某一个GOF的前面,并且作为该GOF中的P帧或者B帧的参考帧,因此,I帧的出现间隔必须等于GOF的长度的整数倍加1。图2中是上述几种GOF结构类型的图示说明。
2.压缩配准后的人脸网格序列的方法
对一个人脸网格序列配准后,两个I帧之间的所有帧都具有相同的顶点连接性,即与前一个I帧具有相同的面片数据,这就意味着这些网格在同一个下标的顶点都是对应的,并且两个相邻的网格之间的顶点残差会很小。所以,本发明用开源软件7-Zip无损压缩所有的I帧的顶点和面片数据;通过压缩相邻帧之间的顶点残差数据来压缩P帧和B帧的顶点数据,而它们面片数据将与I帧共享。我们将序列中的所有帧以I帧作为间隔划分为若干个组,由配准过程可知每个组中的所有帧都具有相同的面片数据。对于每个组,首先将I帧的顶点数、面片数以及顶点和面片数据写入二进制码流文件,然后按照如下步骤编码P帧和B帧的顶点数据:
1)计算当前帧和其前一帧的重建结果之间的顶点坐标残差。注意第一帧的前一帧是I帧。
2)按照指定的小数位精度将残差数据量化为整数。
3)对取整后的顶点残差数据的三个笛卡尔坐标分量分别做一维离散小波变换(一维DWT)。
4)按指定的量化步长对一维DWT的结果再次进行量化。
5)将量化后的结果以及在解码时需要用到的如量化步长等信息保存到一个二进制码流文件。
6)按上述过程的逆过程进行解压重建。
由于P帧和B帧的编码结果是量化后的数据,此时二进制码流结果中会有大量的冗余数据,所以最后要对二进制码流文件再用开源软件7-Zip进行无损压缩成7z格式作为最终的压缩结果。
为了验证改进的配准方案和编码框架的有效性,我们在BU3D_FE三维人脸数据库上进行了实验。BU3D_FE中的原始人脸网格通过Cyberware激光扫描仪扫描真实人脸获得,每个网格拥有30000多个顶点和6000多个三角面片。我们将所有网格的顶点和面片数据都存储到OFF格式的网格文件中,每个网格文件的字节数在2500KB左右。我们分别使用之前提到的5中GOF结构以及10、15、20、25、30、40、50这7种量化步长测试本发明中的人脸配准和压缩方法。做小波变换时采用的小波是Haar小波。对于每种GOF结构,I帧的周期都被设为17,也就是每17帧后出现一个I帧。为了方便起见,我们挑出了人脸数据库中的某一套人脸表情模型序列,并拿其中的表情变化比较明显的20帧做实验,这意味着其中只有两个I帧需要存储面片数据。
为了评估配准和压缩方法的效果,我们采用一种针对三维网格的峰值信噪比(Peak Signal to Noise Ratio,PSNR)来度量重建网格的客观质量。这种用于三维网格的PSNR(下文称之为Mesh PSNR)的定义如下:
psnr=20·log10(peak/d)
其中peak为三维网格模型的包围盒对角线长度,d是原始网格与重构网格之间的Hausdorff距离,由MESH工具计算得出。
图3中显示了分别对5种GOF结构的配准结果在7个量化步长下的压缩解压结果的各帧平均Mesh PSNR曲线。从图2中我们可以看出使用用多于一个参考帧来配准P帧或B帧的GOF结构做配准的效果比使用只用一个参考帧来配准P帧的GOF结构做配准的效果要好。值得注意的是,随着量化步长的增加,虽然图3显示平均Mesh PSNR结果只有很小幅度的下降甚至有时上升,但是在图5中可以看出网格的真实重建质量却有明显的下降。
图4显示了分别对5种GOF结构的配准结果压缩的压缩比曲线。与图3一起比较,我们可以看出5种GOF结构的Mesh PSNR结果和压缩比结果并不一致。图中显示第二种GOF结构的压缩结果的压缩比最大,但是其MeshPSNR结果却最低;而第一种GOF结构的结果却同时具有低压缩比和低MeshPSNR。
编码端实施例
图5为本发明编码端实施例的结构示意图,具体包括:
1.按改进的配准方案对三维人脸网络序列进行全局配准
具体过程为:首先按照与视频编码标准中类似的形式设置一种改进的GOF结构(实验结果显示第5种效果最好,可以选择这种GOF结构)和I帧出现周期intra_period。具体的GOF结构的参数设置例子如表1。然后根据此GOF结构分析整个网格序列,设置每一帧的帧类型和参考帧序号。最后按照此设置对整个网格序列进行全局配准。
Frame1 | Frame2 | Frame3 | Frame4 | |
Type | P | B | B | B |
POC | 4 | 2 | 1 | 3 |
num_references | 1 | 2 | 2 | 2 |
references | -4 | -22 | -11 | -11 |
表1
2.对配准后的网格序列进行压缩编码。
在编码端,通过编码器对由配准程序生成的经过全局配准后的对齐的三维人脸网格序列进行压缩编码。先将序列中的总帧数、I帧周期和量化步长写入二进制码流文件头,然后对序列按帧出现顺序进行逐帧编码。如果当前帧是I帧,将顶点数和面片数分别用2字节无符号整型保存,顶点数据每个坐标值用8字节双精度保存,面片数据每个顶点下标用2字节无符号整型保存,并一起写入二进制码流文件中;如果是P帧或B帧,对其与前一帧的重建结果的顶点坐标残差进行保留两位小数精度取整、一维HaarDWT变换和量化,将最后的量化结果每个元素用2字节存储并写入到二进制文件中,最后再将过程反过来重建当前帧网格。最后用开源软件7-Zip对二进制码流文件进行无损压缩成7z格式作为最终压缩结果。
解码端实施例
图6为本发明编码端实施例的结构示意图,具体包括:
1.用7-Zip对7z格式压缩文件解压,得到二进制码流文件。
2.读出码流文件中的头部信息,包括序列的总帧数、I帧周期和量化步长。
3.根据读出的头部信息对网格序列中每一帧进行解码重建。如果当前帧是I帧,先读出分别占用两个字节的顶点数和面片数,在根据顶点数和面片数直接读出固定字节数的内容作为此I帧的顶点和面片数据;如果当前帧是P帧或B帧,先按之前已读出的顶点数读出指定字节数的内容作为顶点残差数据,然后按照编码时的逆过程进行解码重建当前帧网格的顶点数据,而面片数据和之前的I帧面片数据一样。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属本发明技术方案的保护范围。
Claims (3)
1.一种三维网格序列的配准及压缩方法,其特征在于:包括以下步骤:
(a)基于视频的帧间编码来配准一个三维网格序列;
(b)用开源软件7-Zip无损压缩所有的I帧的顶点和面片数据;通过压缩相邻帧之间的顶点坐标值残差数据来压缩P帧和B帧的顶点数据,而P帧和B帧的面片数据将与I帧共享;
(c)用开源软件7-Zip对步骤(b)的压缩文件进行解压,然后重建;
步骤(a)中包括以下分步骤:
(a.1)设置一种帧组GOF结构和I帧周期;
(a.2)根据此GOF结构分析整个三维网格序列,设置每一帧的帧类型和参考帧序号;
(a.3)按照此设置对整个三维网格序列进行全局配准。
2.根据权利要求1所述的方法,其特征在于:步骤(b)包括以下分步骤:
(b.1)将三维网格序列中的总帧数、I帧周期和量化步长写入二进制码流文件头;
(b.2)对三维网格序列按帧出现顺序进行逐帧编码:如果当前帧是I帧,将顶点数和面片数分别用2字节无符号整型保存,顶点数据每个坐标值用8字节双精度保存,面片数据每个顶点下标用2字节无符号整型保存,并一起写入二进制码流文件中;如果是P帧或B帧,对其与前一帧的重建结果的顶点坐标值残差进行保留两位小数精度取整、一维Haar DWT变换和量化,将量化结果每个元素用2字节存储并写入到二进制文件中,再将过程反过来重建当前帧网格;
(b.3)用开源软件7-Zip对二进制码流文件进行无损压缩成7z格式作为最终压缩结果。
3.根据权利要求2所述的方法,其特征在于:步骤(c)包括以下分步骤:
(c.1)用7-Zip对7z格式压缩文件解压,得到二进制码流文件;
(c.2)读出码流文件中的头部信息,包括三维网格序列的总帧数、I帧周期和量化步长;
(c.3)根据读出的头部信息对三维网格序列中每一帧进行解码重建:如果当前帧是I帧,先读出分别占用两个字节的顶点数和面片数,在根据顶点数和面片数直接读出固定字节数的内容作为此I帧的顶点和面片数据;如果当前帧是P帧或B帧,先按之前已读出的顶点数读出指定字节数的内容作为顶点坐标值残差数据,然后按照编码时的逆过程进行解码重建当前帧网格的顶点数据,而面片数据和之前的I帧面片数据一样。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410133394.8A CN103927746B (zh) | 2014-04-03 | 2014-04-03 | 一种三维网格序列的配准及压缩方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410133394.8A CN103927746B (zh) | 2014-04-03 | 2014-04-03 | 一种三维网格序列的配准及压缩方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103927746A CN103927746A (zh) | 2014-07-16 |
CN103927746B true CN103927746B (zh) | 2017-02-15 |
Family
ID=51145957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410133394.8A Expired - Fee Related CN103927746B (zh) | 2014-04-03 | 2014-04-03 | 一种三维网格序列的配准及压缩方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103927746B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023041838A1 (en) * | 2021-09-14 | 2023-03-23 | Nokia Technologies Oy | An apparatus, a method and a computer program for volumetric video |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105069820B (zh) * | 2015-08-07 | 2018-04-06 | 北京工业大学 | 一种适用于三维网格序列的压缩方法 |
CN106157339B (zh) * | 2016-07-05 | 2019-06-18 | 华南理工大学 | 基于低秩顶点轨迹子空间提取的动画网格序列压缩方法 |
CN111194550B (zh) * | 2017-05-06 | 2021-06-08 | 北京达佳互联信息技术有限公司 | 处理3d视频内容 |
US10417806B2 (en) * | 2018-02-15 | 2019-09-17 | JJK Holdings, LLC | Dynamic local temporal-consistent textured mesh compression |
CN109189725B (zh) * | 2018-07-23 | 2020-09-18 | 广州都市圈网络科技有限公司 | 面向规则建筑物的obj文件无损压缩方法 |
CN112017292A (zh) * | 2019-05-31 | 2020-12-01 | 华为技术有限公司 | 网格译码方法和装置 |
CN110363862B (zh) * | 2019-07-15 | 2023-03-10 | 叠境数字科技(上海)有限公司 | 基于人体模板对齐的三维网格序列压缩方法 |
CN110766735B (zh) * | 2019-10-21 | 2020-06-26 | 北京推想科技有限公司 | 一种图像的匹配方法、装置、设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101626509B (zh) * | 2009-08-10 | 2011-02-02 | 北京工业大学 | 三维网格编码、解码方法及编码、解码装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008053029A2 (en) * | 2006-10-31 | 2008-05-08 | Gottfried Wilhelm Leibniz Universität Hannover | Method for concealing a packet loss |
-
2014
- 2014-04-03 CN CN201410133394.8A patent/CN103927746B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101626509B (zh) * | 2009-08-10 | 2011-02-02 | 北京工业大学 | 三维网格编码、解码方法及编码、解码装置 |
Non-Patent Citations (3)
Title |
---|
Motion-compensated compression of 3D animation models;Jeong-Hwan Ahn等;《Electronics Letters》;20011122;第37卷(第24期);第1445-1446页 * |
Video-to-3D;Marc Pollefeys等;《International archives of photogrammetry remote sensing and spatial information sciences》;20021231;第32卷(第3/A期);第252-257页 * |
一种保留特征的网格简化和压缩递进传输方法;沈旭昆等;《计算机研究与发展》;20071231;第44卷(第7期);第1097-1104页 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023041838A1 (en) * | 2021-09-14 | 2023-03-23 | Nokia Technologies Oy | An apparatus, a method and a computer program for volumetric video |
Also Published As
Publication number | Publication date |
---|---|
CN103927746A (zh) | 2014-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103927746B (zh) | 一种三维网格序列的配准及压缩方法 | |
CN108322742B (zh) | 一种基于帧内预测的点云属性压缩方法 | |
US11216985B2 (en) | Point cloud attribute compression method based on deleting 0 elements in quantisation matrix | |
WO2019213986A1 (zh) | 一种基于多角度自适应帧内预测的点云属性压缩方法 | |
JP5232799B2 (ja) | スティチング情報を含む3dメッシュ情報を符号化/復号する方法及び装置 | |
He et al. | Best-effort projection based attribute compression for 3D point cloud | |
CN108028945A (zh) | 通过使用单例系数更新执行变换的设备和方法 | |
JP2012068881A (ja) | 3次元動画像の圧縮に用いる基本単位及び当該基本単位の生成方法、当該基本単位を用いた3次元動画像の圧縮方法 | |
US6757441B1 (en) | Image data encoding/decoding method and apparatus | |
KR20060087631A (ko) | 3차원 삼각 메쉬의 기하 정보 데이터 단순 압축 및 해제 기술 | |
US20240040101A1 (en) | Method and device for compressing data representative of a volumetric three-dimensional scene with a view to real-time decompression for online viewing | |
Yang et al. | Real-time 3d video compression for tele-immersive environments | |
CN107105245A (zh) | 基于tms320c6678芯片的高速jpeg图像压缩方法 | |
WO2023179710A1 (zh) | 编码方法及终端 | |
Salih et al. | Image compression for quality 3D reconstruction | |
CN106534866A (zh) | 图像压缩方法及装置 | |
WO2023155794A1 (zh) | 编码、解码方法、装置及设备 | |
WO2023174337A1 (zh) | 编码、解码方法、装置及设备 | |
WO2023155778A1 (zh) | 编码方法、装置及设备 | |
CN105069820B (zh) | 一种适用于三维网格序列的压缩方法 | |
CN105741332B (zh) | 一种真实感三维网格压缩方法 | |
WO2023197990A1 (zh) | 编码方法、解码方法及终端 | |
CN108933944A (zh) | 一种对图像数据进行处理的图像压缩方法 | |
Lv et al. | A survey on motion capture data compression algorithm | |
KR100473702B1 (ko) | 3차원 영상의 꼭지점 좌표 압축장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170215 Termination date: 20210403 |