CN109151476B - 一种基于双向预测的b帧图像的参考帧生成方法及装置 - Google Patents
一种基于双向预测的b帧图像的参考帧生成方法及装置 Download PDFInfo
- Publication number
- CN109151476B CN109151476B CN201811109358.2A CN201811109358A CN109151476B CN 109151476 B CN109151476 B CN 109151476B CN 201811109358 A CN201811109358 A CN 201811109358A CN 109151476 B CN109151476 B CN 109151476B
- Authority
- CN
- China
- Prior art keywords
- image
- frame
- coded
- module
- reconstructed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本申请公开了一种基于双向预测的B帧图像的参考帧生成方法及装置,属于视频编码技术领域。所述方法包括:获取与待编码B帧图像时间距离相等且反向的第一重构图像和第二重构图像;根据第一重构图像和第二重构图像,生成待编码B帧图像的预测图像;对预测图像进行质量增强,得到待编码B帧图像的参考帧。本申请中,通过双向预测,使得生成的参考帧与待编码B帧图像位于同一时刻,从而提升了待编码B帧图像的预测质量。
Description
技术领域
本申请涉及视频编码技术领域,尤其涉及一种基于双向预测的B帧图像的参考帧生成方法及装置。
背景技术
随着多媒体技术的广泛应用,以及多媒体数据的日渐膨胀,视频编码技术的重要性日渐突显。现代编码技术采用混合编码框架,包括预测、变换、量化和熵编码等过程。其中,预测编码包括帧内预测和帧间预测,前者是利用同一帧图像中已经编码并重建的图像块对当前要编码的图像块进行预测,后者是利用已经编码并重建的其它帧的图像对当前要编码的图像进行预测。由于帧间预测编码利用了视频序列的时间相关性,去除了空间冗余,因而是目前视频编码框架中的重要环节。
最新一代视频编码标准(HEVC)[1]中引入了双向运动估计的方法,在RandomAccess配置下,B帧图像使用前向参考帧和后向参考帧作为参考,通过运动估计获得当前待编码图像的参考图像。然后,由于参考图像与当前待编码图像位于不同时刻,导致图像内容存在较大程度的差异,预测性能偏低。因而,急需一种高效的参考帧生成方法,使得参考图像与待编码图像位于同一时刻,进而提升预测性能。
发明内容
为解决现有技术的不足,本申请提出一种基于双向预测的B帧图像的参考帧生成方法及装置。
一方面,本申请提出一种基于双向预测的B帧图像的参考帧生成方法,包括:
获取与待编码B帧图像时间距离相等且反向的第一重构图像和第二重构图像;
根据所述第一重构图像和所述第二重构图像,生成所述待编码B帧图像的预测图像;
对所述预测图像进行质量增强,得到所述待编码B帧图像的参考帧。
可选的,所述获取与待编码B帧图像时间距离相等且反向的第一重构图像和第二重构图像,包括:
根据待编码B帧图像所在的当前时刻,在已解码缓冲区中获取所在时刻与所述当前时刻的时间间隔相等、方向相反的第一重构图像和第二重构图像,且所述第一重构图像的所在时刻与所述第二重构图像的所在时刻之间的时间间隔最小。
可选的,所述根据所述第一重构图像和所述第二重构图像,生成所述待编码B帧图像的预测图像,包括:
采用帧率提升算法对所述第一重构图像和所述第二重构图像进行重构,得到所述待编码B帧图像的预测图像。
可选的,所述对所述预测图像进行质量增强,包括:
采用深度学习方法对所述预测图像进行质量增强。
可选的,所述得到所述待编码B帧图像的参考帧之后,还包括:
将所述参考帧保存至参考列表,并根据所述参考列表中的各参考帧对所述待编码B帧图像进行编码。
另一方面,本申请提出一种基于双向预测的B帧图像的参考帧生成装置,包括:
获取模块,用于获取与待编码B帧图像时间距离相等且反向的第一重构图像和第二重构图像;
生成模块,用于根据所述获取模块获取的第一重构图像和第二重构图像,生成所述待编码B帧图像的预测图像;
增强模块,用于对所述生成模块生成的预测图像进行质量增强,得到所述待编码B帧图像的参考帧。
可选的,所述获取模块具体用于:
根据待编码B帧图像所在的当前时刻,在已解码缓冲区中获取所在时刻与所述当前时刻的时间间隔相等、方向相反的第一重构图像和第二重构图像,且所述第一重构图像的所在时刻与所述第二重构图像的所在时刻之间的时间间隔最小。
可选的,所述生成模块具体用于:
采用帧率提升算法对所述第一重构图像和所述第二重构图像进行重构,得到所述待编码B帧图像的预测图像。
可选的,所述增强模块具体用于:
采用深度学习方法对所述预测图像进行质量增强。
可选的,装置还包括:保存模块和编码模块;
所述保存模块,用于将所述增强模块得到的参考帧保存至参考列表;
所述编码模块,用于根据所述参考列表中的各参考帧对所述待编码B帧图像进行编码。
本申请的优点在于:
通过双向预测,使得生成的参考帧与待编码B帧图像位于同一时刻,并且,将该参考帧保存至参考列表,实现了参考列表的扩充,从而在基于参考列表对待编码B帧图像进行帧间编码时,提升了待编码B帧图像的预测质量。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
附图1为根据本申请实施方式的层次B帧编码结构示意图;
附图2为根据本申请实施方式的一种基于双向预测的B帧图像的参考帧生成方法流程图;
附图3为根据本申请实施方式的参考列表管理示意图;
附图4为根据本申请实施方式的一种待编码B帧图像的编码方法流程图;
附图5为根据本申请实施方式的另一种待编码B帧图像的编码方法流程图;
附图6为根据本申请实施方式的一种基于双向预测的B帧图像的参考帧生成装置框图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施方式。虽然附图中显示了本公开的示例性实施方式,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
最新一代的视频编码标准(HEVC)采用层次B帧编码结构,其示意图如图 1所示,其中I0和B8属于第0层,B4属于第1层,B2和B6属于第2层,B1、 B3、B5、B7属于第3层。本申请中,在双向预测待编码B帧图像时,利用与待编码B帧图像时间间隔最近的一对重构图像生成待编码B帧图像的预测图像,并基于该预测图像对待编码B帧图像进行帧间编码;以下对本申请中的方法及装置进行进一步详述。
实施例一
根据本申请的实施方式,提出一种基于双向预测的B帧图像的参考帧生成方法,如图2所示,包括:
步骤101:获取与待编码B帧图像时间距离相等且反向的第一重构图像和第二重构图像;
具体的,根据待编码B帧图像所在的当前时刻,在已解码缓冲区(DPB)中获取所在时刻与所述当前时刻的时间间隔相等、方向相反的第一重构图像和第二重构图像,且第一重构图像的所在时刻与第二重构图像的所在时刻之间的时间间隔最小。
abs(T(Pi)-T(Bcurrent))=abs(T(Pj)-T(Bcurrent));
min(abs(T(Pj)-T(Pi)));
其中,abs表示绝对值算子,T(Pi)为第一重构图像的所在时刻,T(Bcurrent)为待编码B帧图像所在的当前时刻,T(Pj)为第二重构图像的所在时刻。
步骤102:根据获取的第一重构图像和第二重构图像,生成待编码B帧图像的预测图像;
具体的,采用帧率提升算法对获取的第一重构图像和第二重构图像进行重构,得到待编码B帧图像的预测图像;该过程表示为:
Bcurrent`=F(Rec(Pi),Rec(Pj))
其中,Bcurrent`为待编码B帧图像的预测图像,Rec表示重构过程,F表示帧率提升过程。
以图1中位于第三层图像为例,在生成图像B1的预测图像时,对应的第一重构图像为I0、第二重构图像为B2;在生成图像B3的预测图像时,对应的第一重构图像为B2、第二重构图像为B4;在生成图像B5的预测图像时,对应的第一重构图像为B4、第二重构图像为B6;在生成图像B7的预测图像时,对应的第一重构图像为B6、第二重构图像为B8;预测图像的生成过程可表示为:
其中,B1`、B3`、B5`、B7`分别为图像B1、B3、B5、B7的预测图像。
步骤103:对生成的预测图像进行质量增强,得到待编码B帧图像的参考帧。
具体的,采用深度学习方法对生成的预测图像进行质量增强。
更加具体的,采用神经网络模型对生成的预测图像进行质量增强,该神经网络模型的目标为最小化预测图像与待编码B帧图像的均方误差,即:
其中,L(Θ)为训练过程的损失函数,Θ表示卷积模型参数,E表示增强过程, n为图像中像素的总数量,1≤i≤n,增强后的结果为E(Bcurrent`;Θ)。
进一步的,该神经网络模型的生成过程包括:
在原始视频帧序列中获取相邻帧作为帧率提升方法的输入,并将经过帧率提升方法处理的输出作为标注数据;
对获取的相邻帧分别进行基于量化步长(Qp)的编码,并将编码后的相邻帧作为帧率提升方法的输入,将将经过帧率提升方法处理的输出作为输入数据;
将标注数据和输入数据作为训练数据,以L(Θ)作为模型优化目标进行训练,收敛后得到模型参数。
需要说明的,本申请中,对于不同的量化步长训练对应模型。
更进一步的,在HEVC参考软件HM16.6上,对于HEVC通用测试序列,在测试时间2s,以及Random Access配置下,对于本申请生成的预测图像,在未进行质量增强处理时,预测图像的性能如表1所示,在进行了质量增强处理后的预测图像的性能如表2所示。
表1
表2
通过上述实验数据可知,本申请中生成的预测图像在不进行质量增强处理时,在HM16.6平台上Y分量可以获得平均5.9%的性能增益;而进行了质量增强处理后,在HM16.6平台上Y分量可以获得平均6.8%的性能增益;在进行质量增强处理后,图片质量显著提高。
需要说明的是,本申请中的方法不限于集成在HEVC参考软件HM16.6中,同样适用于其他的编解码平台,如JEM,H.264/AVC,AVS2等。
本申请中,由于步骤102中对第一重构图像和第二重构图像进行了重构,使得生成的预测图像的图像内容包含了编码带来的量化噪声,失真严重。通过质量增强操作,提升了生成的预测图像的质量,以在后续基于参考帧对待编码B帧图像进行编码时,提升编码质量。
根据本申请的实施方式,步骤103之后,还包括:
步骤F:将得到的参考帧保存至参考列表,并根据参考列表中的各参考帧对待编码B帧图像进行编码。
其中,参考列表中存有多个原始参考帧,用于图像编码时进行参考。
具体的,将得到的参考帧作为预测参考帧保存至待编码B帧图像的两个参考列表List0和List1中,并根据参考列表中的预测参考帧及原始参考帧对待编码B帧图像进行帧间编码。其中参考列表管理示意图如图3所示。
可选的,如图4所示,对待编码B帧图像进行帧间编码的过程,包括:
步骤A1:对待编码B帧图像进行分块,得到多个图像块;
步骤A2:在得到的多个图像块中选取一个图像块作为当前图像块;
步骤A3:基于运动搜索,在参考列表中的预测参考帧及原始参考帧中搜索与当前图像块最相似的图像块作为参考块;
步骤A4:计算当前图像块与参考块的残差;
步骤A5:使用预设的各编码方法对残差进行编码,得到各编码方法对应的率失真代价;
步骤A6:在得到的各率失真代价中确定最小率失真代价,并使用最小率失真代价对应的编码方法对当前图像块进行编码,得到对应的编码图像;
步骤A7:判断是否得到所有图像块的编码图像,是则执行步骤A8,否则返回步骤A2;
步骤A8:对得到的所有编码图像进行组合,得到待编码B帧图像的编码图像。
或者,如图5所示,对待编码B帧图像进行帧间编码的过程,包括:
步骤B1:对待编码B帧图像进行分块,得到多个图像块;
步骤B2:在得到的多个图像块中选取一个图像块作为当前图像块;
步骤B3:根据当前图像块在待编码B帧图像中的位置,基于零运动搜索,将参考列表中预测参考帧的相应位置的图像作为第一参考块;
步骤B4:计算当前图像块与第一参考块的第一残差,使用预设的各编码方法对第一残差进行编码,得到各编码方法对应的率失真代价,并在得到的各率失真代价中确定第一最小率失真代价;
步骤B5:基于运动搜索,在参考列表中的原始参考帧中搜索与当前图像块最相似的图像块作为第二参考块;
步骤B6:计算当前图像块与第二参考块的第二残差,使用预设的各编码方法对第二残差进行编码,得到各编码方法对应的率失真代价,并在得到的各率失真代价中确定第二最小率失真代价;
步骤B7:比较第一最小率失真代价与第二最小率失真代价的大小,当第一最小率失真代价小于第二最小率失真代价时,使用第一最小率失真代价对应的编码方法对当前图像块编码;否则使用第二最小率失真代价对应的编码方法对当前图像块编码。
步骤B8:判断是否得到所有图像块的编码图像,是则执行步骤B9,否则返回步骤B2;
步骤B9:对得到的所有编码图像进行组合,得到待编码B帧图像的编码图像。
需要指出的,上述步骤B3和步骤B4,与步骤B5和步骤B6的执行顺序可以互换,还可以同时执行。
进一步的,步骤B6中,还可以包括:根据比较结果设置当前图像块的标志位及编码方法标识;
例如,当第一最小率失真代价小于第二最小率失真代价时,设置当前图像块的标志位为0以及对应的编码方法标识,当第一最小率失真代价大于第二最小率失真代价时,设置当前图像块的标志位为1以及对应的编码方法标识;以根据标志位的值和编码方法标识,识别当前图像块的参考块及编码方法。
更进一步的,本申请中的方法,不仅适用于帧级图像参考帧的生成及编码,而且适用于块级图像参考块的生成及编码,即根据待编码块(PU,CU,CTU)的位置,获取第一重构图像相应位置的图像块作为第一重构图像块,并获取第二重构图像相应位置的图像块作为第二重构图像块,根据第一重构图像块和第二重构图像块生成待编码块的预测块,对预测块进行质量增强,得到待编码块的参考块;对待编码块的CTU进行编码的过程可参见上述步骤A1-A8,或者步骤 B1-B9,在此不再详述。
由此,通过双向预测,使得生成的参考帧与待编码B帧图像位于同一时刻,并且,将该参考帧保存至参考列表,实现了参考列表的扩充,从而在基于参考列表对待编码B帧图像进行帧间编码时,提升了待编码B帧图像的预测质量。
实施例二
根据本申请的实施方式,还提出一种基于双向预测的B帧图像的参考帧生成装置如图6所示,包括:
获取模块,用于获取与待编码B帧图像时间距离相等且反向的第一重构图像和第二重构图像;
生成模块,用于根据获取模块获取的第一重构图像和第二重构图像,生成待编码B帧图像的预测图像;
增强模块,用于对生成模块生成的预测图像进行质量增强,得到待编码B 帧图像的参考帧。
根据本申请的实施方式,获取模块具体用于:
根据待编码B帧图像所在的当前时刻,在已解码缓冲区中获取所在时刻与当前时刻的时间间隔相等、方向相反的第一重构图像和第二重构图像,且第一重构图像的所在时刻与第二重构图像的所在时刻之间的时间间隔最小。
abs(T(Pi)-T(Bcurrent))=abs(T(Pj)-T(Bcurrent));
min(abs(T(Pj)-T(Pi)));
其中,abs表示绝对值算子,T(Pi)为第一重构图像的所在时刻,T(Bcurrent)为待编码B帧图像所在的当前时刻,T(Pj)为第二重构图像的所在时刻。
根据本申请的实施方式,生成模块具体用于:
采用帧率提升算法对第一重构图像和第二重构图像进行重构,得到待编码 B帧图像的预测图像。
该重构过程表示为:
Bcurrent`=F(Rec(Pi),Rec(Pj))
其中,Bcurrent`为待编码B帧图像的预测图像,Rec表示重构过程,F表示帧率提升过程。
根据本申请的实施方式,增强模块具体用于:
采用深度学习方法对预测图像进行质量增强。
更加具体的,增强模块采用神经网络模型对生成的预测图像进行质量增强,该神经网络模型的目标为最小化预测图像与待编码B帧图像的均方误差,即:
其中,L(Θ)为训练过程的损失函数,Θ表示卷积模型参数,E表示增强过程, n为图像中像素的总数量,1≤i≤n,增强后的结果为E(Bcurrent`;Θ)。
根据本申请的实施方式,装置还包括:保存模块和编码模块;
保存模块,用于将增强模块得到的参考帧保存至参考列表;
编码模块,用于根据参考列表中的各参考帧对待编码B帧图像进行编码。
根据本申请的实施方式,还提出一种基于双向预测的B帧图像的参考帧生成设备,包括:
一个或多个处理器,存储一个或多个程序的存储装置,当所述一个或多个程序被所述一个或多个处理器执行时,实现如本申请实施例一所述的方法。
根据本申请的实施方式,还提出一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序被处理器执行时,实现如本申请实施例一所述的方法。
需要说明的,本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参考即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本申请中,通过双向预测,使得生成的参考帧与待编码B帧图像位于同一时刻,并且,将该参考帧保存至参考列表,实现了参考列表的扩充,从而在基于参考列表对待编码B帧图像进行帧间编码时,提升了待编码B帧图像的预测质量。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (8)
1.一种基于双向预测的B帧图像的参考帧生成方法,其特征在于,包括:
获取与待编码B帧图像时间距离相等且反向的第一重构图像和第二重构图像;
通过帧率提升算法对所述第一重构图像和所述第二重构图像进行重构,生成与所述待编码B帧图像同一时刻的预测图像;
对所述预测图像进行质量增强,得到所述待编码B帧图像的参考帧。
2.根据权利要求1所述的方法,其特征在于,所述获取与待编码B帧图像时间距离相等且反向的第一重构图像和第二重构图像,包括:
根据待编码B帧图像所在的当前时刻,在已解码缓冲区中获取所在时刻与所述当前时刻的时间间隔相等、方向相反的第一重构图像和第二重构图像,且所述第一重构图像的所在时刻与所述第二重构图像的所在时刻之间的时间间隔最小。
3.根据权利要求1所述的方法,其特征在于,所述对所述预测图像进行质量增强,包括:
采用深度学习方法对所述预测图像进行质量增强。
4.根据权利要求1所述的方法,其特征在于,所述得到所述待编码B帧图像的参考帧之后,还包括:
将所述参考帧保存至参考列表,并根据所述参考列表中的各参考帧对所述待编码B帧图像进行编码。
5.一种基于双向预测的B帧图像的参考帧生成装置,其特征在于,包括:
获取模块,用于获取与待编码B帧图像时间距离相等且反向的第一重构图像和第二重构图像;
生成模块,用于通过帧率提升算法对所述获取模块获取的第一重构图像和第二重构图像进行重构,生成与所述待编码B帧图像同一时刻的预测图像;
增强模块,用于对所述生成模块生成的预测图像进行质量增强,得到所述待编码B帧图像的参考帧。
6.根据权利要求5所述的装置,其特征在于,所述获取模块具体用于:
根据待编码B帧图像所在的当前时刻,在已解码缓冲区中获取所在时刻与所述当前时刻的时间间隔相等、方向相反的第一重构图像和第二重构图像,且所述第一重构图像的所在时刻与所述第二重构图像的所在时刻之间的时间间隔最小。
7.根据权利要求5所述的装置,其特征在于,所述增强模块具体用于:
采用深度学习方法对所述预测图像进行质量增强。
8.根据权利要求5所述的装置,其特征在于,装置还包括:保存模块和编码模块;
所述保存模块,用于将所述增强模块得到的参考帧保存至参考列表;
所述编码模块,用于根据所述参考列表中的各参考帧对所述待编码B帧图像进行编码。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811109358.2A CN109151476B (zh) | 2018-09-21 | 2018-09-21 | 一种基于双向预测的b帧图像的参考帧生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811109358.2A CN109151476B (zh) | 2018-09-21 | 2018-09-21 | 一种基于双向预测的b帧图像的参考帧生成方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109151476A CN109151476A (zh) | 2019-01-04 |
CN109151476B true CN109151476B (zh) | 2020-08-25 |
Family
ID=64823397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811109358.2A Active CN109151476B (zh) | 2018-09-21 | 2018-09-21 | 一种基于双向预测的b帧图像的参考帧生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109151476B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111953971B (zh) * | 2019-05-16 | 2023-03-14 | 武汉Tcl集团工业研究院有限公司 | 视频处理方法、视频处理装置及终端设备 |
CN110545425B (zh) * | 2019-08-21 | 2021-11-16 | 浙江大华技术股份有限公司 | 一种帧间预测方法、终端设备以及计算机存储介质 |
CN113473145B (zh) * | 2020-03-31 | 2024-05-31 | 武汉Tcl集团工业研究院有限公司 | 一种视频压缩方法、视频解压方法、智能终端及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007053554A (ja) * | 2005-08-17 | 2007-03-01 | Sony Corp | 符号化装置、符号化方法、復号装置、復号方法およびプログラム |
CN101720042A (zh) * | 2009-11-27 | 2010-06-02 | 宁波大学 | 一种多视点视频信号的编码方法 |
US8934552B2 (en) * | 2011-03-31 | 2015-01-13 | Qualcomm Incorporated | Combined reference picture list construction and mapping |
US20170006303A1 (en) * | 2015-06-30 | 2017-01-05 | Intel Corporation | Method and system of adaptive reference frame caching for video coding |
US9955183B2 (en) * | 2016-04-14 | 2018-04-24 | Avid Technology, Inc. | Open to closed group of pictures conversion in interframe video compression |
-
2018
- 2018-09-21 CN CN201811109358.2A patent/CN109151476B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109151476A (zh) | 2019-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107105278B (zh) | 运动矢量自动生成的视频编解码系统 | |
US20190387248A1 (en) | Methods and systems for motion vector derivation at a video decoder | |
TWI613910B (zh) | 用於訊框序列之影像編碼的方法和編碼器 | |
JP5422168B2 (ja) | 動画像符号化方法および動画像復号化方法 | |
US9426477B2 (en) | Method and apparatus for encoding surveillance video | |
US7893968B2 (en) | Composite still-image creating device capable of creating a still image from moving images | |
CN109151476B (zh) | 一种基于双向预测的b帧图像的参考帧生成方法及装置 | |
CN111010495B (zh) | 一种视频降噪处理方法及装置 | |
TWI376159B (en) | Method for video coding | |
JP5897218B2 (ja) | 映像符号化方法、およびこの方法を用いる映像符号化装置 | |
CN109922336B (zh) | 视频数据的帧间预测方法和装置 | |
TWI600313B (zh) | Image prediction decoding device, image prediction decoding method | |
WO2015010319A1 (zh) | 一种基于p帧的多假设运动补偿编码方法 | |
CN114363612A (zh) | 用于双向光流的比特宽度控制的方法和设备 | |
CN101605256A (zh) | 一种视频编解码的方法及装置 | |
WO2015188585A1 (zh) | 图像编码方法和装置以及图像解码方法和装置 | |
JPWO2010100672A1 (ja) | 圧縮動画符号化装置、圧縮動画復号化装置、圧縮動画符号化方法および圧縮動画復号化方法 | |
CN108810549B (zh) | 一种面向低功耗的流媒体播放方法 | |
US20100303154A1 (en) | method and device for video sequence decoding with error concealment | |
TW201244498A (en) | Video coding apparatus, video coding method, and video coding program | |
Zhu et al. | Video coding with spatio-temporal texture synthesis and edge-based inpainting | |
CN110324634A (zh) | 一种基于运动矢量嵌入失真分解的视频隐写方法 | |
WO2022104678A1 (zh) | 视频编解码方法、装置、可移动平台和存储介质 | |
JP2009535881A (ja) | エンコード/トランスコード及びデコードのための方法及び装置 | |
JP5938424B2 (ja) | 画像ブロックを再構成および符号化する方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |