CN113613000A - 一种智能多分辨率深度视频帧内预测方法 - Google Patents

一种智能多分辨率深度视频帧内预测方法 Download PDF

Info

Publication number
CN113613000A
CN113613000A CN202110958521.8A CN202110958521A CN113613000A CN 113613000 A CN113613000 A CN 113613000A CN 202110958521 A CN202110958521 A CN 202110958521A CN 113613000 A CN113613000 A CN 113613000A
Authority
CN
China
Prior art keywords
depth
resolution
vsd
ctu
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110958521.8A
Other languages
English (en)
Other versions
CN113613000B (zh
Inventor
雷建军
李戈
潘兆庆
彭勃
靳登朝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202110958521.8A priority Critical patent/CN113613000B/zh
Publication of CN113613000A publication Critical patent/CN113613000A/zh
Application granted granted Critical
Publication of CN113613000B publication Critical patent/CN113613000B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种智能多分辨率深度视频帧内预测方法,方法包括:使用全分辨率模式、1/2分辨率模式和1/4分辨率模式分别对深度编码树单元进行编码;上采样网络通过卷积层和多个残差块分别提取CTU的低分辨率的重建浅层和深层特征,并通过上采样模块得到重建的高分辨率深度CTU;基于VSD的损失函数和深度重建损失函数构建一VSD引导机制,用于提高重建深度CTU的质量;基于上采样网络和VSD引导机制构建一合成视点失真约束的最终上采样网络,使用深度重建损失函数和基于VSD的损失函数训练最终上采样网络;将最终上采样网络集成到3D视频编码平台上,进行多分辨率深度视频帧内预测。本发明有效提高了深度视频编码效率。

Description

一种智能多分辨率深度视频帧内预测方法
技术领域
本发明涉及深度学习、视频编码领域,尤其涉及一种智能多分辨率深度视频帧内预测方法。
背景技术
3D视频广泛应用于虚拟现实、自由视点显示等领域。然而,由于3D视频包含多个视点的彩色和深度视频,相比于传统的平面视频,3D视频的数据量显著增加。用于压缩3D视频的编码标准3D-HEVC(3D-High Efficiency Video Coding)采用多视点加深度(Multi-Viewplus Depth,MVD)视频格式。MVD格式由彩色视频和其对应的深度视频组成。相比于彩色视频,深度视频包含大量的平滑区域和更锐利的边界,这使得面向彩色视频的帧内预测方法并不适用于编码深度视频。因此,研究面向深度视频的帧内预测方法具有重要的意义。
为了提高深度视频的编码效率,3D-HEVC基于深度视频特性设计了一些帧内预测方法,包括:区域边界链编码(Region Boundary Chain,RBC)和深度建模模式(DepthModeling Modes,DMM)。RBC和DMM采用基于划分的策略,将深度编码单元划分为非矩形区域,并将每个区域中的像素都预测为一个相同的值。为了进一步提高深度视频编码效率,一些学者提出了手工设计的深度帧内预测方法。Zhang等人通过扩展实际深度视频的边界,优化了DMM预测的深度值。Chen等人提出了将平滑块重建为一个深度值的单一深度帧内模式,以提高平滑深度块的编码效率。然而,这些手工设计的方法依据有限的先验信息来提高深度视频编码效率。
由于深度学习技术具有强大的特征提取能力,已有学者提出基于深度学习的帧内预测方法用于提高彩色视频的编码效率。Cui等人提出一种基于卷积神经网络的帧内预测方法,利用相邻8×8重建块来精细化高效视频编码标准(High Efficiency Video Coding,HEVC)生成的帧内预测块。Li等人提出了一种全连接网络,从相邻多行重建像素端到端的生成更好的预测结果。由于这些方法没有考虑深度视频的特性,因此不适用于优化深度视频的编码效率。
发明内容
考虑到深度视频存在大量平滑区域和锐利边界,本发明提出了一种智能多分辨率深度视频帧内预测方法,以提高深度视频编码效率;同时,设计了一个合成视点失真约束的上采样网络,用于恢复重建深度视频编码树单元的分辨率,并提高深度视频的重建质量,详见下文描述:
一种智能多分辨率深度视频帧内预测方法,所述方法包括:
使用全分辨率模式、1/2分辨率模式和1/4分辨率模式分别对深度编码树单元进行编码;
上采样网络通过卷积层和多个残差块分别提取CTU的低分辨率的重建浅层和深层特征,并通过上采样模块得到重建的高分辨率深度CTU;
基于VSD的损失函数和深度重建损失函数构建一VSD引导机制,用于提高重建深度CTU的质量;
基于上采样网络和VSD引导机制构建一合成视点失真约束的最终上采样网络,使用深度重建损失函数和基于VSD的损失函数训练最终上采样网络;
将最终上采样网络集成到3D视频编码平台上,进行多分辨率深度视频帧内预测。
在一种实施方式中,所述1/4分辨率模式为:将CTU下采样到1/4×1/4大小,之后使用帧内预测编码低分辨率的CTU。
进一步地,所述方法还包括:构建一基于VSD的损失函数,并通过最小化基于VSD的损失函数提高合成视点的质量。
在一种实施方式中,所述方法使用ORM标志位表示选中的最优分辨率模式。
进一步地,在解码端,通过解码ORM标志位决定待解码深度CTU的分辨率,并解码重建对应分辨率的深度CTU;若深度CTU选中了1/2分辨率模式或1/4分辨率模式,则使用对应上采样倍数的最终上采样网络,将重建的深度CTU恢复至原始分辨率。
优选地,所述上采样模块由反卷积层组成。
本发明提供的技术方案的有益效果是:
1、本发明用于提高深度视频的编码效率,深度视频的每个CTU(编码树单元)具有多种候选分辨率编码模式,候选分辨率编码模式分别基于不同的下采样比例,包括×1、×1/2和×1/4;
2、本发明设计了一个VSD(合成视点失真)约束的上采样网络,用于约束合成视点的失真,并提高重建的高分辨率深度CTU的质量;
3、本发明所提智能多分辨率深度视频帧内预测方法集成至3D视频编码平台,与3D视频编码标准3D-HEVC的参考软件HTM 16.2相比,本发明能有效节省码率,提升深度视频编码效率。
附图说明
图1为一种智能多分辨率深度视频帧内预测方法的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
一种智能多分辨率深度视频帧内预测方法,参见图1,该方法包括以下步骤:
一、对深度CTU进行多分辨率预测编码
使用全分辨率模式、1/2分辨率模式和1/4分辨率模式分别对深度编码树单元(Coding Tree Unit,CTU)进行编码。
其中,对于全分辨率模式,通过帧内预测方法对CTU以原始大小进行压缩编码。对于1/2分辨率模式,首先使用下采样方法将CTU下采样到1/2×1/2大小,之后使用帧内预测方法编码低分辨率的CTU。对于1/4分辨率模式,首先使用下采样方法将CTU下采样到1/4×1/4大小,之后使用帧内预测方法编码低分辨率的CTU,其中,低分辨率的CTU为1/2×1/2大小的CTU和1/4×1/4大小的CTU。
二、构建上采样网络
构建的上采样网络首先通过一个卷积层提取低分辨率重建深度CTU的浅层特征f1。之后通过10个残差块和一个卷积层获得深层重建特征f12。公式表达如下:
fm+1=Conv(RB10(…RBm(…RB2(RB1(f1)))))
其中,RBm(·)为第m个残差块,Conv(·)为卷积层。
然后,通过一个上采样模块UpB对深层重建特征f12和浅层特征f1之和进行上采样,获得重建的高分辨率深度特征,m的取值范围为3-9,具体实现时,本发明实施例对此不做赘述。
其中,2倍上采样网络的上采样模块由一个反卷积层组成,4倍上采样网络的上采样模块由两个反卷积层组成。最后通过一个卷积层得到重建的高分辨率深度
Figure BDA0003221228020000031
上采样网络的公式表达如下:
Figure BDA0003221228020000041
三、构建合成视点失真引导机制
在3D视频系统中,合成视点由已压缩的彩色视频和其对应的深度视频合成。然而,传统的上采样网络只考虑重建的深度视频的质量,而忽视了合成视点的质量。为了解决这个问题,本发明实施例设计了一个合成视点失真(View Synthesis Distortion,VSD)引导机制,包括基于VSD的损失函数和深度重建损失函数,以提高深度视频上采样网络的重建质量。
基于VSD的损失函数Lsyn为原始合成视点与重建合成视点间的距离平方和。其中,原始合成视点与重建合成视点间的距离为经过权重调整的重建深度CTU残差ΔSD,调整权重为彩色梯度
Figure BDA0003221228020000042
与比例因子dw的乘积。本发明实施例通过最小化Lsyn以提高合成视点质量公式表达如下:
Figure BDA0003221228020000043
其中,
Figure BDA0003221228020000044
Figure BDA0003221228020000045
Figure BDA0003221228020000046
其中,N表示批次大小,i为第i个低分辨率重建深度CTU,SD表示原始深度CTU,
Figure BDA0003221228020000047
表示对应的重建彩色CTU。
此外,本发明实施例也采用深度重建损失函数约束重建深度CTU的质量,公式表达如下:
Figure BDA0003221228020000048
最终,将基于VSD的损失函数和深度重建损失函数的加权求和作为总损失函数L,公式如下:
L=Ldepth+βLsyn
其中,β表示基于VSD的损失函数的权重。
四、训练合成视点失真约束的上采样网络
合成视点失真约束的上采样网络包括:上采样网络和VSD引导机制。在训练合成视点失真约束的上采样网络过程中,首先使用深度重建损失函数训练深度学习网络。在网络收敛后,更改基于VSD的损失函数权重β为5继续优化网络。分别训练合成视点失真约束的2倍上采样网络模型和4倍上采样网络模型。
五、集成至3D视频编码平台
将训练好的合成视点失真约束的上采样网络模型集成到3D视频编码平台HTM16.2。
在编码端。使用训练好的合成视点失真约束的2倍上采样网络模型,将1/2分辨率模式下编码的1/2×1/2大小重建深度CTU上采样至原始分辨率大小。使用训练好的合成视点失真约束的4倍上采样网络模型,将1/4分辨率模式下编码的1/4×1/4大小重建深度CTU上采样至原始分辨率大小。至此,获得分别使用三种分辨率模式编码深度CTU的编码结果。然后,使用视点合成优化方法计算每个分辨率模式的率失真代价,并选择率失真代价最小的分辨率模式为最优分辨率模式,即ORM。使用一个ORM标志位表示选中的最优分辨率模式。
在解码端,通过解码ORM标志位决定待解码深度CTU的分辨率,并解码重建对应分辨率的深度CTU。如果深度CTU选中了1/2分辨率模式或1/4分辨率模式,则使用训练好的对应上采样倍数的上采样网络模型,将重建的深度CTU恢复至原始分辨率。
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种智能多分辨率深度视频帧内预测方法,其特征在于,所述方法包括:
使用全分辨率模式、1/2分辨率模式和1/4分辨率模式分别对深度编码树单元进行编码;
上采样网络通过卷积层和多个残差块分别提取CTU的低分辨率的重建浅层和深层特征,并通过上采样模块得到重建的高分辨率深度CTU;
基于VSD的损失函数和深度重建损失函数构建一VSD引导机制,用于提高重建深度CTU的质量;
基于上采样网络和VSD引导机制构建一合成视点失真约束的最终上采样网络,使用深度重建损失函数和基于VSD的损失函数训练最终上采样网络;
将最终上采样网络集成到3D视频编码平台上,进行多分辨率深度视频帧内预测。
2.根据权利要求1所述的一种智能多分辨率深度视频帧内预测方法,其特征在于,所述1/4分辨率模式为:将CTU下采样到1/4×1/4大小,之后使用帧内预测编码低分辨率的CTU。
3.根据权利要求1所述的一种智能多分辨率深度视频帧内预测方法,其特征在于,所述方法还包括:构建一基于VSD的损失函数,并通过最小化基于VSD的损失函数提高合成视点的质量。
4.根据权利要求1所述的一种智能多分辨率深度视频帧内预测方法,其特征在于,所述方法使用ORM标志位表示选中的最优分辨率模式。
5.根据权利要求1所述的一种智能多分辨率深度视频帧内预测方法,其特征在于,
在解码端,通过解码ORM标志位决定待解码深度CTU的分辨率,并解码重建对应分辨率的深度CTU;
若深度CTU选中了1/2分辨率模式或1/4分辨率模式,则使用对应上采样倍数的最终上采样网络,将重建的深度CTU恢复至原始分辨率。
6.根据权利要求1所述的一种智能多分辨率深度视频帧内预测方法,其特征在于,所述上采样模块由反卷积层组成。
CN202110958521.8A 2021-08-20 2021-08-20 一种智能多分辨率深度视频帧内预测方法 Active CN113613000B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110958521.8A CN113613000B (zh) 2021-08-20 2021-08-20 一种智能多分辨率深度视频帧内预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110958521.8A CN113613000B (zh) 2021-08-20 2021-08-20 一种智能多分辨率深度视频帧内预测方法

Publications (2)

Publication Number Publication Date
CN113613000A true CN113613000A (zh) 2021-11-05
CN113613000B CN113613000B (zh) 2024-04-26

Family

ID=78341410

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110958521.8A Active CN113613000B (zh) 2021-08-20 2021-08-20 一种智能多分辨率深度视频帧内预测方法

Country Status (1)

Country Link
CN (1) CN113613000B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116152441A (zh) * 2023-03-21 2023-05-23 电子科技大学 一种基于深度先验的多分辨率U-net曲面重建方法

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130086911A (ko) * 2012-01-26 2013-08-05 삼성전자주식회사 3차원 비디오를 위한 영상 처리 방법 및 장치
CN103905812A (zh) * 2014-03-27 2014-07-02 北京工业大学 一种纹理/深度联合上采样方法
CN104125473A (zh) * 2014-07-31 2014-10-29 南京理工大学 一种3d视频深度图像帧内预测模式选择方法及系统
CN104601993A (zh) * 2014-12-31 2015-05-06 乐视网信息技术(北京)股份有限公司 一种视频编码方法及装置
CN105007494A (zh) * 2015-07-20 2015-10-28 南京理工大学 一种3d视频深度图像模型模式的帧内楔形分割模式选择方法
CN106331727A (zh) * 2016-08-26 2017-01-11 天津大学 一种深度建模模式简化搜索方法
CN106791768A (zh) * 2016-12-16 2017-05-31 浙江大学 一种基于图割优化的深度图帧率提升方法
CN108712648A (zh) * 2018-04-10 2018-10-26 天津大学 一种深度视频快速帧内编码方法
CN109327703A (zh) * 2018-11-13 2019-02-12 长春理工大学 一种基于不同采样块的深度图编解码方法
CN110087092A (zh) * 2019-03-11 2019-08-02 西安电子科技大学 基于图像重构卷积神经网络的低码率视频编解码方法
CN110351568A (zh) * 2019-06-13 2019-10-18 天津大学 一种基于深度卷积网络的视频环路滤波器
CN110493596A (zh) * 2019-09-02 2019-11-22 西北工业大学 一种基于神经网络的视频编码框架
CN110519606A (zh) * 2019-08-22 2019-11-29 天津大学 一种深度视频帧内智能编码方法
CN111711817A (zh) * 2019-03-18 2020-09-25 四川大学 一种结合卷积神经网络的hevc帧内编码压缩性能优化研究
CN112770120A (zh) * 2020-12-29 2021-05-07 南京理工大学 基于深度神经网络的3d视频深度图帧内快速编码方法

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130086911A (ko) * 2012-01-26 2013-08-05 삼성전자주식회사 3차원 비디오를 위한 영상 처리 방법 및 장치
CN103905812A (zh) * 2014-03-27 2014-07-02 北京工业大学 一种纹理/深度联合上采样方法
CN104125473A (zh) * 2014-07-31 2014-10-29 南京理工大学 一种3d视频深度图像帧内预测模式选择方法及系统
CN104601993A (zh) * 2014-12-31 2015-05-06 乐视网信息技术(北京)股份有限公司 一种视频编码方法及装置
CN105007494A (zh) * 2015-07-20 2015-10-28 南京理工大学 一种3d视频深度图像模型模式的帧内楔形分割模式选择方法
CN106331727A (zh) * 2016-08-26 2017-01-11 天津大学 一种深度建模模式简化搜索方法
CN106791768A (zh) * 2016-12-16 2017-05-31 浙江大学 一种基于图割优化的深度图帧率提升方法
CN108712648A (zh) * 2018-04-10 2018-10-26 天津大学 一种深度视频快速帧内编码方法
CN109327703A (zh) * 2018-11-13 2019-02-12 长春理工大学 一种基于不同采样块的深度图编解码方法
CN110087092A (zh) * 2019-03-11 2019-08-02 西安电子科技大学 基于图像重构卷积神经网络的低码率视频编解码方法
CN111711817A (zh) * 2019-03-18 2020-09-25 四川大学 一种结合卷积神经网络的hevc帧内编码压缩性能优化研究
CN110351568A (zh) * 2019-06-13 2019-10-18 天津大学 一种基于深度卷积网络的视频环路滤波器
CN110519606A (zh) * 2019-08-22 2019-11-29 天津大学 一种深度视频帧内智能编码方法
CN110493596A (zh) * 2019-09-02 2019-11-22 西北工业大学 一种基于神经网络的视频编码框架
CN112770120A (zh) * 2020-12-29 2021-05-07 南京理工大学 基于深度神经网络的3d视频深度图帧内快速编码方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
占文枢;伦增珉;陈洪刚;周霞;陈敬勖;滕奇志;: "基于像素及梯度域双层深度卷积神经网络的页岩图像超分辨率重建", 科学技术与工程, no. 03, 28 January 2018 (2018-01-28) *
李雅婷;杨静;: "3D-HEVC深度图帧内预测快速编码算法", 光电子・激光, no. 02, 15 February 2020 (2020-02-15) *
王婷;何小海;孙伟恒;熊淑华;KARN PRADEEP;: "结合卷积神经网络的HEVC帧内编码压缩改进算法", 太赫兹科学与电子信息学报, no. 02, 25 April 2020 (2020-04-25) *
王春萌;: "基于量化误差估计模型的视频超分辨率重建算法", 金陵科技学院学报, no. 01, 30 March 2020 (2020-03-30) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116152441A (zh) * 2023-03-21 2023-05-23 电子科技大学 一种基于深度先验的多分辨率U-net曲面重建方法
CN116152441B (zh) * 2023-03-21 2023-11-14 电子科技大学 一种基于深度先验的多分辨率U-net曲面重建方法

Also Published As

Publication number Publication date
CN113613000B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
CN102792695B (zh) 通过使用大变换单元对图像进行编码和解码的方法和设备
CN110087092B (zh) 基于图像重构卷积神经网络的低码率视频编解码方法
CN101990100B (zh) 一种解码方法以及编码方法
CN102726044B (zh) 使用基于示例的超分辨率的用于视频压缩的数据剪切
CN102835111B (zh) 使用先前块的运动矢量作为当前块的运动矢量来对图像进行编码/解码的方法和设备
US7529417B2 (en) Apparatus, method and storage medium for image encoding/decoding using shape-based coefficient interpolation
CN102640492A (zh) 对图像边界的编码单元进行编码和解码的方法和设备
CN111586412B (zh) 高清视频处理方法、主设备、从设备和芯片系统
CN103119935A (zh) 图像插值方法和设备
CN106162180A (zh) 一种图像编解码方法及装置
CN109547784A (zh) 一种编码、解码方法及装置
CN101584220B (zh) 对视频信号进行编码的方法和系统、编码的视频信号、对视频信号进行解码的方法和系统
CN103561270A (zh) 一种用于hevc的编码控制方法及装置
CN105122801A (zh) 视频信号处理方法及装置
CN104780383B (zh) 一种3d‑hevc多分辨率视频编码方法
CN113613000A (zh) 一种智能多分辨率深度视频帧内预测方法
CN116582685A (zh) 一种基于ai的分级残差编码方法、装置、设备和存储介质
CN114363617A (zh) 一种网络轻量级视频流传输方法、系统及设备
CN110677644A (zh) 一种视频编码、解码方法及视频编码帧内预测器
CN110519606B (zh) 一种深度视频帧内智能编码方法
CN105245889B (zh) 一种基于分层采样的参考帧压缩方法
CN101720043B (zh) 基于多模式预测的成像光谱图像压缩方法
TW440804B (en) Method and apparatus for resizing image information
CN113938687A (zh) 多参考帧间预测方法、系统、设备及存储介质
CN103379349B (zh) 一种视点合成预测编码方法、解码方法、对应的装置及码流

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant