CN106878750A - 一种基于长期参考帧的视频编码方法及装置 - Google Patents

一种基于长期参考帧的视频编码方法及装置 Download PDF

Info

Publication number
CN106878750A
CN106878750A CN201710160537.8A CN201710160537A CN106878750A CN 106878750 A CN106878750 A CN 106878750A CN 201710160537 A CN201710160537 A CN 201710160537A CN 106878750 A CN106878750 A CN 106878750A
Authority
CN
China
Prior art keywords
macro block
term reference
inter prediction
coding
long term
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710160537.8A
Other languages
English (en)
Other versions
CN106878750B (zh
Inventor
王军
李洁珺
付涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Allwinner Technology Co Ltd
Original Assignee
Allwinner Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Allwinner Technology Co Ltd filed Critical Allwinner Technology Co Ltd
Priority to CN201710160537.8A priority Critical patent/CN106878750B/zh
Publication of CN106878750A publication Critical patent/CN106878750A/zh
Application granted granted Critical
Publication of CN106878750B publication Critical patent/CN106878750B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明提供一种基于长期参考帧的视频编码方法及装置,该方法包括:获取当前编码宏块所对应的短期参考宏块数据和长期参考宏块数据;利用第一帧间预测方式获得短期参考宏块的帧间预测信息,利用第二帧间预测方式获得长期参考宏块的帧间预测信息;根据短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息对当前编码宏块的所有编码子宏块进行融合处理,得到当前编码宏块的帧间预测信息;对当前编码宏块的所有编码子宏块进行运动补偿处理,获得当前编码宏块的帧间预测编码数据。该装置为该方法提供执行模块。应用本发明有效提高视频压缩率和编码质量。

Description

一种基于长期参考帧的视频编码方法及装置
技术领域
本发明涉及视频编码器技术领域,具体的,涉及一种基于长期参考帧的视频编码方法,以及应用该方法的装置。
背景技术
近年来,随着高清、超高清视频应用逐步走进人们的视野,视频压缩技术受到了巨大的挑战。此外,各式各样的视频应用也随着网络和存储技术的发展不断涌现。如今,数字视频广播、移动无线视频、远程监控、医学成像和便携摄影等,都已走进人们的生活。视频应用的多样化和高清化趋势对视频压缩性能提出了更高的要求。因此,提高监控视频的编码质量和压缩率对现有视频压缩技术提出了更高的要求。
从视频压缩标准的角度,2013年4月13日,新一代视频编解码标准HEVC/H.265被ITU-T正式接受为国际标准,2013年11月25日,ISO/IEC正式发布了HEVC/H.265标准。新一代HEVC/H.265标准在理论上比上一代AVC/H.264标准能提高一倍的压缩效率,采用新的编解码标准能显著提高监控视频的编码质量和压缩率。另一方面,自从AVC/H.264标准开始,多参考帧编码成了提高视频编码质量的一个有效手段,多帧参考能提高编码预测精度,但是多帧参考处理会大幅增加编码计算复杂度和硬件数据传输带宽,增加硬件实现成本,相对于编码质量的提高,传统的多帧参考效率太低,因此不适用于新一代监控视频编码技术的要求。
发明内容
本发明的主要目的是提供一种有效提高视频压缩率和编码质量的基于长期参考帧的视频编码方法。
本发明的另一目的是提供一种有效提高视频压缩率和编码质量的基于长期参考帧的视频编码装置。
为了实现上述主要目的,本发明提供的基于长期参考帧的视频编码方法包括:获取当前编码宏块所对应的短期参考宏块数据和长期参考宏块数据;利用第一帧间预测方式获得短期参考宏块的帧间预测信息,利用第二帧间预测方式获得长期参考宏块的帧间预测信息;根据短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息对当前编码宏块的所有编码子宏块进行融合处理,得到当前编码宏块的帧间预测信息;对当前编码宏块的所有编码子宏块进行运动补偿处理,获得当前编码宏块的帧间预测编码数据。
由上述方案可见,本发明通过在传统单帧参考的基础上,增加一帧长期参考帧对当前编码帧进行编码参考,长期参考帧无需进行运动估计处理,只需加载编码宏块对应位置处的长期参考宏块的数据,相对于单帧参考帧,只增加对应编码宏块大小的传输带宽,可迅速恢复高质量的背景图像,且只占用少量的编码比特数,显著提高了视频的编码质量和压缩率。
进一步的方案中,利用第二帧间预测方式获得长期参考宏块的帧间预测信息,包括:获取长期参考宏块的分块编码代价和不分块编码代价;根据分块编码代价和不分块编码代价获得长期参考宏块的编码代价。
由上述方案可见,通过获取长期参考宏块的分块编码代价和不分块编码代价,比较分块与不分块的编码代价的大小,判断是否需要对长期参考宏块进行分块处理,选择编码代价最小的方式,提高编码的压缩率。
进一步的方案中,根据短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息对当前编码宏块的所有编码子宏块进行融合处理,得到当前编码宏块的帧间预测信息,包括:复制短期参考子宏块和长期参考子宏块两者中编码代价最小的一个的参考子宏块的帧间预测信息,得到每一个编码子宏块的帧间预测信息。
由上述可见,同时对短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息进行择优处理,选择编码代价最小的参考子宏块的帧间预测信息作为对应的编码子宏块的帧间预测信息,使得由编码子宏块组成的编码宏块的编码代价最小化,提高编码的压缩率,并保障视频的质量。
进一步的方案中,在对当前编码宏块的所有编码子宏块进行运动补偿处理前,基于长期参考帧的视频编码方法还包括:判断当前编码宏块的帧间预测信息是否同时包含短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息,若是,求取所有编码子宏块的最优预测运动向量并获取所有编码子宏块的预测模式。
由此可见,将短期参考子宏块和长期参考子宏块进行融合后得到的当前编码宏块中可能有多种组合方式。若整个编码宏块仅括短期参考子宏块或仅包括长期参考子宏块,则可直接进行运动补偿处理,进而结束当前宏块的编码,若当前编码宏块中同时包含短期参考子宏块和长期参考子宏块,使当前编码子宏块的最优预测运动向量和预测模式存在不一致,可能导致编码错误,因此需要重新进行运动估计及预测模式估计。
进一步的方案中,对当前编码宏块的所有编码子宏块进行运动补偿处理,包括:对所有编码子宏块进行亮度和色度的运动补偿。
由此可见,本发明的方法中需要同时对亮度和色度进行运动补偿,分别得到亮度预测编码数据和色度预测编码数据,从而得到当前编码宏块的帧间预测编码数据。
为了实现上述另一目的,本发明提供的基于长期参考帧的视频编码装置,其特征在于,包括:宏块获取模块,获取当前编码宏块所对应的短期参考宏块数据和长期参考宏块数据;帧间预测信息获取模块,利用第一帧间预测方式获得短期参考宏块的帧间预测信息,利用第二帧间预测方式获得长期参考宏块的帧间预测信息;子宏块融合模块,根据短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息对当前编码宏块的所有编码子宏块进行融合处理,得到当前编码宏块的帧间预测信息;运动补偿模块,对当前编码宏块的所有编码子宏块进行运动补偿处理,获得当前编码宏块的帧间预测编码数据。
由此可见,本发明通过在传统单帧参考的基础上,增加一帧长期参考帧对当前编码帧进行编码参考,长期参考帧无需进行运动估计处理,只需加载编码宏块对应位置处的长期参考宏块的数据,相对于单帧参考帧,只增加对应编码宏块大小的传输带宽,可迅速恢复高质量的背景图像,且只占用少量的编码比特数。此外,同时对短期参考帧的短期参考宏块和长期参考帧的长期参考宏块进行处理,再择优选择进行后续处理,显著提高了视频的编码质量和压缩率。
附图说明
图1是本发明基于长期参考帧的视频编码方法实施例的流程图。
图2是本发明基于长期参考帧的视频编码装置实施例的结构框图。
以下结合附图及实施例对本发明作进一步说明。
具体实施方式
本发明基于长期参考帧的视频编码方法应用于视频编码中P帧编码的帧间预测部分,利用短期参考帧和长期参考帧进行融合编码,提高视频压缩率和编码质量。本发明基于长期参考帧的视频编码装置用于实现本发明基于长期参考帧的视频编码方法。
基于长期参考帧的视频编码方法实施例:
如图1所示,在进行P帧编码时,首先执行步骤S1,获取当前编码宏块所对应的短期参考宏块数据和长期参考宏块数据。在对当前帧的编码宏块进行编码时,需要获取短期参考帧中对应的短期参考宏块数据和长期参考帧中对应的长期参考宏块数据。短期参考宏块对应的运动向量的取值范围落在一个搜索窗内,对编码宏块进行编码时需加载搜索窗内的短期参考帧数据。长期参考宏块对应的运动向量为零向量,对编码宏块进行编码时仅需加载对应长期参考宏块处的数据。
获取参考帧数据后,执行步骤S2,利用第一帧间预测方式获得短期参考宏块的帧间预测信息,利用第二帧间预测方式获得长期参考宏块的帧间预测信息。
对于短期参考宏块作为参考进行宏块编码时,需采取第一帧间预测方式获得短期参考宏块的帧间预测信息,第一帧间预测方式为基于编码标准中传统的基于运动估计的帧间预测技术,利用相邻帧之间的时间相关性,通过运动估计技术,预测处理得到当前帧数据的方法。运动估计技术指的是通过匹配误差比较,搜索得到参考帧中当前宏块的运动向量的方法,通常采用的是基于空间域搜索的块匹配法。例如,在以HEVC/H.265标准进行编码处理时,可以采用HEVC官方测试模型(HM)中的处理方法;在以AVC/H.264标准进行编码处理时,可以采用AVC官方测试模型(JM)中的处理方法。帧间预测信息指的是宏块尺寸、运动向量、预测运动向量(PMV)、参考帧索引、Merge标志和Merge索引、编码代价等信息。
对于长期参考宏块作为参考进行宏块编码时,需采用第二帧间预测方式获得长期参考宏块的帧间预测信息。由于长期参考帧数据仅加载当前编码宏块对应的长期参考宏块区域,所以长期参考宏块对应的运动向量值为0,无需进行运动估计。因此,获取长期参考宏块的帧间预测信息包括:求取当前编码宏块的SATD(Sum of Absolute TransformedDifference,即Hadamard变换后再绝对值求和)值以及获取长期参考宏块的编码代价。其中,获取长期参考宏块的编码代价包括:获取长期参考宏块的分块编码代价和不分块编码代价;根据分块编码代价和不分块编码代价获得长期参考宏块的编码代价。
当前编码宏块在进行编码预测时有多种分块模式,因此,在求取当前编码宏块的SATD值时,需要考虑多种分块时的SATD值。
在以HEVC/H.265标准进行编码处理时,采用的是32x32的编码宏块,32x32的编码宏块可分为4个16x16子宏块,16x16子宏块可进一步分为4个8x8子宏块。因此,在求取编码宏块的SATD值时,首先求取当前编码宏块中每个8x8子宏块的SATD值,并通过叠加得到4个16x16子宏块的SATD值,并进一步求取当前编码宏块(即,32x32宏块)的SATD值。而在以AVC/H.264标准和AVS标准进行编码处理时,编码宏块的最大尺寸为16x16,因此只需要考虑16x16编码宏块的SATD值即可。
获得4个16x16子宏块和32x32宏块的SATD值后,分别对4个16x16子宏块和32x32宏块进行最优预测向量的获取。在HEVC/H.265标准中,利用高级运动向量预测技术(AMVP)进行获取最优预测向量的获取。在AVC/H.264标准和AVS标准中不存在高级运动向量预测技术(AMVP),因此需要换成传统的预测运动向量(PMV)求取方法。
获取最优预测向量后,进行编码预测模式的估计,分别获取子宏块和宏块的预测模式,并分别获得子宏块的编码代价和宏块的编码代价。在HEVC/H.265标准中,若编码宏块的运动向量均为零向量,可利用Merge处理技术分别求取编码宏块的Merge候选,如果存在一个Merge候选的运动向量等于零向量,并且其参考帧索引等于1,则将编码宏块编码为Merge预测模式,并得到对应的Merge编码代价,否则将编码宏块编码为ME预测模式,并得到对应的ME编码代价。由于16x16子宏块和32x32宏块的运动向量均为零向量,因此,可用Merge处理技术分别获得4个16x16子宏块的预测模式和32x32宏块的预测模式,并分别获得4个16x16子宏块的编码代价和32x32宏块的编码代价。其中,在HEVC/H.265标准中,Merge预测模式和ME预测模式指的是在帧间预测中的两种编码模式,Merge预测模式是通过Merge标志和Merge索引传递预测信息,ME预测模式是通过运动向量差分(MVD)传递预测信息,两种预测模式是互斥的。宏块的预测模式和编码代价可参考HEVC官方测试模型(HM)中的处理方法获得。
在分别获得4个16x16子宏块的预测模式和32x32宏块的预测模式并分别获得4个16x16子宏块的编码代价和32x32宏块的编码代价后,将4个16x16子宏块的编码代价相加,再加上1bit的分块语法元素代价,得到当前编码宏块的分块编码代价,而32x32宏块的编码代价即为当前编码宏块的不分块编码代价。当分块编码代价小于不分块编码代价时,则将当前编码宏块划分为4个16x16子宏块进行编码,否则当前编码宏块不进行划分,即利用32x32宏块进行编码。
而在以AVC/H.264标准和AVS标准进行编码处理时,不存在Merge处理技术,因此,需要分别按照AVC/H.264标准和AVS标准中的帧间预测模式进行编码,据此获得编码宏块与编码子宏块的预测模式和编码代价,从而获得长期参考宏块的帧间预测信息。
获得短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息后,执行步骤S3,根据短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息对当前编码宏块的所有编码子宏块进行融合处理,得到当前编码宏块的帧间预测信息。获得的短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息中包括有参考宏块的分块信息及编码代价信息及参考帧索引信息等。
在获得当前编码宏块的帧间预测信息时,包括:复制短期参考子宏块和长期参考子宏块两者中编码代价最小的一个的帧间预测信息,得到每一个编码子宏块的帧间预测信息。将当前编码宏块的所有编码子宏块的帧间预测信息融合,获得当前编码宏块的帧间预测信息。
短期参考宏块与长期参考宏块的分块模式可以相同也可以不同,本发明中,进行编码子宏块融合时子宏块最小的尺寸为16x16,最大的尺寸等于编码宏块的尺寸,因此,对当前编码宏块的所有编码子宏块进行融合处理时,以16x16子宏块作为最小单位进行融合处理,若参考宏块中还包含了更小的子宏块,则需将更小的子宏块合并为16x16子宏块,再进行下一步操作。
例如,在以HEVC/H.265标准进行编码处理时,采用的是32x32的编码宏块,32x32的编码宏块可分为4个16x16子宏块,16x16子宏块可进一步分为4个8x8子宏块。在进行子宏块融合时需要考虑以下四种分块情况:1、短期参考宏块和长期参考宏块均不分块,即保持32x32宏块;2、短期参考宏块至少划分为4个16x16子宏块,长期参考宏块至少划分为4个16x16子宏块;3、短期参考宏块不分块,长期参考宏块至少划分为4个16x16子宏块;4、短期参考宏块至少划分为4个16x16子宏块,长期参考宏块不分块。
短期参考宏块和长期参考宏块均不分块时,比较短期参考宏块的编码代价和长期参考宏块的编码代价,如果短期参考宏块的编码代价小于等于长期参考宏块的编码代价,则将当前编码宏块的参考帧索引值置为0,并复制短期参考宏块的帧间预测信息,否则当前编码宏块的参考帧索引值置为1,复制长期参考宏块的帧间预测信息。将复制的帧间预测信息作为当前编码宏块的帧间预测信息。
短期参考宏块至少划分为4个16x16子宏块,长期参考宏块至少划分为4个16x16子宏块时,依次比较短期参考宏块中与长期参考宏块中每个16x16子宏块的编码代价。其中,如果存在16x16子宏块划分为4个8x8子宏块,需要先将4个8x8块的编码代价相加,再加上1bit的分块语法元素代价,才能得到16x16子宏块的编码代价。对于16x16子宏块,如果短期参考子宏块的编码代价小于等于长期参考子宏块的编码代价,则对应的当前编码宏块的16x16子宏块的参考帧索引值置为0,并复制对应短期参考子宏块的帧间预测信息;否则对应的当前编码宏块的16x16子宏块的参考帧索引值置为1,并复制长期参考子宏块的帧间预测信息。将复制的帧间预测信息作为当前编码宏块的帧间预测信息。
短期参考宏块不分块,长期参考宏块至少划分为4个16x16子宏块时,先将长期参考宏块的4个16x16子宏块的编码代价相加,得到长期参考宏块的编码代价,其中,如果存在4个8x8子宏块叠加为1个16x16子宏块时,需要加上1bit的分块语法元素代价,当4个16x16块叠加为32x32宏块时,也需要加上1bit的分块语法元素代价。将长期参考宏块的编码代价与短期参考宏块的编码代价作比较,如果短期参考宏块的编码代价小于等于长期参考宏块的编码代价,则将当前编码宏块的参考帧索引值置为0,并复制短期参考宏块的帧间预测信息;否则将当前编码宏块的参考帧索引值置为1,复制长期参考宏块的帧间预测信息。将复制的帧间预测信息作为当前编码宏块的帧间预测信息。
短期参考宏块至少划分为4个16x16子宏块,长期参考宏块不分块时,先将短期参考宏块的子宏块编码代价相加,得到短期参考宏块的编码代价,将其与长期参考宏块编码代价作比较,将长期参考宏块的编码代价与短期参考宏块的编码代价作比较,如果短期参考宏块的编码代价小于等于长期参考宏块的编码代价,则将当前编码宏块的参考帧索引值置为0,并复制短期参考宏块的帧间预测信息;否则将当前编码宏块的参考帧索引值置为1,并复制长期参考宏块的帧间预测信息。将复制的帧间预测信息作为当前编码宏块的帧间预测信息。
而在以AVC/H.264标准和AVS标准进行编码处理时,编码宏块的最大尺寸为16x16,因此在进行融合处理时只需要考虑16x16编码宏块的编码代价即可。
获得当前编码宏块的帧间预测信息后,执行步骤S4, 判断当前编码宏块的帧间预测信息是否同时包含短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息。由于当前编码宏块的帧间预测信息包括短期参考宏块的帧间预测信息和/或长期参考宏块的帧间预测信息,可通过参考帧索引判断当前编码宏块的帧间预测信息的组成部分。若当前编码宏块参考帧索引值全部为0,则代表当前编码宏块的帧间预测信息仅包含短期参考宏块的帧间预测信息;若当前编码宏块参考帧索引值全部为1,则代表当前编码宏块的帧间预测信息仅包含长期参考宏块的帧间预测信息;若当前编码宏块参考帧索引值部分为0且部分为1,则当前编码宏块的帧间预测信息同时包含短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息。
若判断当前编码宏块的帧间预测信息同时包含短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息,则执行步骤S5,求取所有编码子宏块的最优预测运动向量并获取所有编码子宏块的预测模式。由于短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息可能存在差异,使当前编码子宏块的最优预测运动向量和预测模式存在不一致,可能导致编码错误,因此需要重新进行运动估计及预测模式估计。
在以HEVC/H.265标准编码时,首先按照高级运动向量预测技术(AMVP)求取编码子宏块的预测运动向量候选,选取预测运动向量与当前编码子宏块运动向量最接近的候选作为最优预测运动向量候选。选取与当前编码子宏块运动向量最接近的预测运动向量候选时,根据候选的预测运动向量的垂直分量和水平分量分别与当前编码子宏块运动向量的对应分量进行求取绝对差值和(SAD),绝对差值和最小的运动向量与当前编码子宏块运动向量最接近的预测运动向量为最优预测运动向量,对应的候选即为最优预测运动向量候选。然后按照Merge处理技术求取编码子宏块的Merge候选,如果存在一组候选的运动向量等于当前子宏块的运动向量,并且其参考帧索引等于当前编码子宏块的参考帧索引,则选择其中Merge索引最小的一组Merge候选作为最优Merge候选,并将当前子宏块编码为Merge预测模式,否则当前子宏块编码为ME预测模式。
而在以AVC/H.264标准和AVS标准进行编码处理时,不存在高级运动向量预测技术(AMVP)和Merge处理技术,因此需要换成传统的预测运动向量(PMV)求取方法,并分别按照AVC/H.264标准和AVS标准中的帧间预测模式进行编码。从而求取所有编码子宏块的最优预测运动向量并获取所有编码子宏块的预测模式。
求取所有编码子宏块的最优预测运动向量并获取所有编码子宏块的预测模式后,执行步骤S6,对当前编码宏块的所有编码子宏块进行运动补偿处理,获得当前编码宏块的帧间预测编码数据。对当前编码宏块的所有编码子宏块进行运动补偿处理,包括:对所有编码子宏块进行亮度和色度的运动补偿。对当前编码宏块的所有编码子宏块进行运动补偿处理可采用现有的运动补偿处理技术。通常情况下,运动补偿处理技术指的是通过参考帧数据和运动向量来预测和计算当前编码宏块的数据的方法。例如,以HEVC/H.265标准编码时,进行运动补偿处理可以采用HM中的处理方法;以AVC/H.264标准进行编码处理时,进行运动补偿处理可以采用AVC官方测试模型(JM)中的处理方法。
此外,在执行步骤S4时,若判断当前编码宏块的帧间预测信息仅包含短期参考宏块的帧间预测信息或长期参考宏块的帧间预测信息。则执行步骤S6,对当前编码宏块的所有编码子宏块进行运动补偿处理,获得当前编码宏块的帧间预测编码数据。因为,使用同一参考宏块的帧间预测信息则表示当前编码宏块的最优预测运动向量和预测模式一致,无需再进行最优预测运动向量和预测模式的估计,直接对编码子宏块进行运动补偿处理,从而完成帧间预测处理。
需要说明的是,本发明中的长期参考帧可以用高编码质量的短期参考帧替代,该短期参考帧不是本发明中所陈述的临近当前帧的短期参考帧,而是间隔当前帧一定距离的短期参考帧,该短期参考帧所起的作用与长期参考帧相同,均是用于编码静止的背景区域,对该短期参考帧的处理方式也与长期参考帧相同,仅最后写到码流中的语法元素需要替换为相应短期参考帧的语法元素。此外,HEVC/H.265标准也支持64x64尺寸和16x16尺寸的编码宏块,对于64x64的编码宏块,则需要划分为16个16x16子宏块分别进行比较;对于16x16的编码宏块,则只有1个16x16子宏块。
基于长期参考帧的视频编码装置实施例:
如图2所示,本发明基于长期参考帧的视频编码装置包括宏块获取模块11、帧间预测信息获取模块12、子宏块融合模块13、预测调整模块14以及运动补偿模块15。
宏块获取模块11用于获取当前编码宏块所对应的短期参考宏块数据和长期参考宏块数据。在对当前帧的编码宏块进行编码时,需要获取短期参考帧中对应的短期参考宏块数据和长期参考帧中对应的长期参考宏块数据。短期参考宏块对应的运动向量的取值范围落在一个搜索窗内,对编码宏块进行编码时需加载搜索窗内的短期参考帧数据。长期参考宏块对应的运动向量为零向量,对编码宏块进行编码时仅需加载对应长期参考宏块处的数据。
帧间预测信息获取模块12用于利用第一帧间预测方式获得短期参考宏块的帧间预测信息,利用第二帧间预测方式获得长期参考宏块的帧间预测信息。
帧间预测信息获取模块12根据短期参考宏块作为参考进行宏块编码时,需采取第一帧间预测方式获得短期参考宏块的帧间预测信息,第一帧间预测方式为基于编码标准中传统的基于运动估计的帧间预测技术,利用相邻帧之间的时间相关性,通过运动估计技术,预测处理得到当前帧数据的方法。运动估计技术指的是通过匹配误差比较,搜索得到参考帧中当前宏块的运动向量的方法,通常采用的是基于空间域搜索的块匹配法。例如,在以HEVC/H.265标准进行编码处理时,可以采用HEVC官方测试模型(HM)中的处理方法;在以AVC/H.264标准进行编码处理时,可以采用AVC官方测试模型(JM)中的处理方法。帧间预测信息指的是宏块尺寸、运动向量、预测运动向量(PMV)、参考帧索引、Merge标志和Merge索引、编码代价等信息。
帧间预测信息获取模块12根据长期参考宏块作为参考进行宏块编码时,需采用第二帧间预测方式获得长期参考宏块的帧间预测信息。由于长期参考帧数据仅加载当前编码宏块对应的长期参考宏块区域,所以长期参考宏块对应的运动向量值为0,无需进行运动估计。因此,帧间预测信息获取模块12获取长期参考宏块的帧间预测信息包括:帧间预测信息获取模块12求取当前编码宏块的SATD值以及长期参考宏块的编码代价。其中,帧间预测信息获取模块12获取长期参考宏块的编码代价包括:帧间预测信息获取模块12获取长期参考宏块的分块编码代价和不分块编码代价;帧间预测信息获取模块12根据分块编码代价和不分块编码代价获得长期参考宏块的编码代价。
当前编码宏块在进行编码预测时有多种分块模式,因此,在求取当前编码宏块的SATD值时,需要考虑多种分块时的SATD值。
在以HEVC/H.265标准进行编码处理时,采用的是32x32的编码宏块,32x32的编码宏块可分为4个16x16子宏块,16x16子宏块可进一步分为4个8x8子宏块。因此,在求取编码宏块的SATD值时,首先求取当前编码宏块中每个8x8子宏块的SATD值,并通过叠加得到4个16x16子宏块的SATD值,并进一步求取当前编码宏块(即,32x32宏块)的SATD值。而在以AVC/H.264标准和AVS标准进行编码处理时,编码宏块的最大尺寸为16x16,因此只需要考虑16x16编码宏块的SATD值即可。
获得4个16x16子宏块和32x32宏块的SATD值后,分别对4个16x16子宏块和32x32宏块进行最优预测向量的获取。在HEVC/H.265标准中,利用高级运动向量预测技术(AMVP)进行获取最优预测向量的获取。在AVC/H.264标准和AVS标准中不存在高级运动向量预测技术(AMVP),因此需要换成传统的预测运动向量(PMV)求取方法。
帧间预测信息获取模块12获取最优预测向量后,进行编码预测模式的估计,分别获取子宏块和宏块的预测模式,并分别获得子宏块的编码代价和宏块的编码代价。在HEVC/H.265标准中,若编码宏块的运动向量均为零向量,可利用Merge处理技术分别求取编码宏块的Merge候选,如果存在一个Merge候选的运动向量等于零向量,并且其参考帧索引等于1,则将编码宏块编码为Merge预测模式,并得到对应的Merge编码代价,否则将编码宏块编码为ME预测模式,并得到对应的ME编码代价。由于16x16子宏块和32x32宏块的运动向量均为零向量,因此,可用Merge处理技术分别获得4个16x16子宏块的预测模式和32x32宏块的预测模式,并分别获得4个16x16子宏块的编码代价和32x32宏块的编码代价。其中,在HEVC/H.265标准中,Merge预测模式和ME预测模式指的是在帧间预测中的两种编码模式,Merge预测模式是通过Merge标志和Merge索引传递预测信息,ME预测模式是通过运动向量差分(MVD)传递预测信息,两种预测模式是互斥的。宏块的预测模式和编码代价可参考HEVC官方测试模型(HM)中的处理方法获得。
在分别获得4个16x16子宏块的预测模式和32x32宏块的预测模式并分别获得4个16x16子宏块的编码代价和32x32宏块的编码代价后,将4个16x16子宏块的编码代价相加,再加上1bit的分块语法元素代价,得到当前编码宏块的分块编码代价,而32x32宏块的编码代价即为当前编码宏块的不分块编码代价。当分块编码代价小于不分块编码代价时,则将当前编码宏块划分为4个16x16子宏块进行编码,否则当前编码宏块不进行划分,即利用32x32宏块进行编码。
而在以AVC/H.264标准和AVS标准进行编码处理时,不存在Merge处理技术,因此,需要分别按照AVC/H.264标准和AVS标准中的帧间预测模式进行编码,据此获得编码宏块与编码子宏块的预测模式和编码代价,从而获得长期参考宏块的帧间预测信息。
子宏块融合模块13用于根据短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息对当前编码宏块的所有编码子宏块进行融合处理,得到当前编码宏块的帧间预测信息。其中,子宏块融合模块13复制短期参考子宏块和长期参考子宏块两者中编码代价最小的一个的帧间预测信息,得到每一个编码子宏块的帧间预测信息。子宏块融合模块13将当前编码宏块的所有编码子宏块的帧间预测信息融合,获得当前编码宏块的帧间预测信息。
短期参考宏块与长期参考宏块的分块模式可以相同也可以不同,本发明中,进行编码子宏块融合时子宏块最小的尺寸为16x16,最大的尺寸等于编码宏块的尺寸,因此,对当前编码宏块的所有编码子宏块进行融合处理时,以16x16子宏块作为最小单位进行融合处理,若参考宏块中还包含了更小的子宏块,则需将更小的子宏块合并为16x16子宏块,再进行下一步操作。
例如,在以HEVC/H.265标准进行编码处理时,采用的是32x32的编码宏块,32x32的编码宏块可分为4个16x16子宏块,16x16子宏块可进一步分为4个8x8子宏块。在进行子宏块融合时需要考虑以下四种分块情况:1、短期参考宏块和长期参考宏块均不分块,即保持32x32宏块;2、短期参考宏块至少划分为4个16x16子宏块,长期参考宏块至少划分为4个16x16子宏块;3、短期参考宏块不分块,长期参考宏块至少划分为4个16x16子宏块;4、短期参考宏块至少划分为4个16x16子宏块,长期参考宏块不分块。
短期参考宏块和长期参考宏块均不分块时,比较短期参考宏块的编码代价和长期参考宏块的编码代价,如果短期参考宏块的编码代价小于等于长期参考宏块的编码代价,则将当前编码宏块的参考帧索引值置为0,并复制短期参考宏块的帧间预测信息,否则当前编码宏块的参考帧索引值置为1,复制长期参考宏块的帧间预测信息。将复制的帧间预测信息作为当前编码宏块的帧间预测信息。
短期参考宏块至少划分为4个16x16子宏块,长期参考宏块至少划分为4个16x16子宏块时,依次比较短期参考宏块中与长期参考宏块中每个16x16子宏块的编码代价。其中,如果存在16x16子宏块划分为4个8x8子宏块,需要先将4个8x8块的编码代价相加,再加上1bit的分块语法元素代价,才能得到16x16子宏块的编码代价。对于16x16子宏块,如果短期参考子宏块的编码代价小于等于长期参考子宏块的编码代价,则对应的当前编码宏块的16x16子宏块的参考帧索引值置为0,并复制对应短期参考子宏块的帧间预测信息;否则对应的当前编码宏块的16x16子宏块的参考帧索引值置为1,并复制长期参考子宏块的帧间预测信息。将复制的帧间预测信息作为当前编码宏块的帧间预测信息。
短期参考宏块不分块,长期参考宏块至少划分为4个16x16子宏块时,先将长期参考宏块的4个16x16子宏块的编码代价相加,得到长期参考宏块的编码代价,其中,如果存在4个8x8子宏块叠加为1个16x16子宏块时,需要加上1bit的分块语法元素代价,当4个16x16块叠加为32x32宏块时,也需要加上1bit的分块语法元素代价。将长期参考宏块的编码代价与短期参考宏块的编码代价作比较,如果短期参考宏块的编码代价小于等于长期参考宏块的编码代价,则将当前编码宏块的参考帧索引值置为0,并复制短期参考宏块的帧间预测信息;否则将当前编码宏块的参考帧索引值置为1,复制长期参考宏块的帧间预测信息。将复制的帧间预测信息作为当前编码宏块的帧间预测信息。
短期参考宏块至少划分为4个16x16子宏块,长期参考宏块不分块时,先将短期参考宏块的子宏块编码代价相加,得到短期参考宏块的编码代价,将其与长期参考宏块编码代价作比较,将长期参考宏块的编码代价与短期参考宏块的编码代价作比较,如果短期参考宏块的编码代价小于等于长期参考宏块的编码代价,则将当前编码宏块的参考帧索引值置为0,并复制短期参考宏块的帧间预测信息;否则将当前编码宏块的参考帧索引值置为1,并复制长期参考宏块的帧间预测信息。将复制的帧间预测信息作为当前编码宏块的帧间预测信息。
而在以AVC/H.264标准和AVS标准进行编码处理时,编码宏块的最大尺寸为16x16,因此在进行融合处理时只需要考虑16x16编码宏块的编码代价即可。
预测调整模块14用于判断当前编码宏块的帧间预测信息是否同时包含短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息。由于当前编码宏块的帧间预测信息包括短期参考宏块的帧间预测信息和/或长期参考宏块的帧间预测信息,可通过参考帧索引判断当前编码宏块的帧间预测信息的组成部分。若当前编码宏块参考帧索引值全部为0,则代表当前编码宏块的帧间预测信息仅包含短期参考宏块的帧间预测信息;若当前编码宏块参考帧索引值全部为1,则代表当前编码宏块的帧间预测信息仅包含长期参考宏块的帧间预测信息;若当前编码宏块参考帧索引值部分为0且部分为1,则当前编码宏块的帧间预测信息同时包含短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息。
若预测调整模块14判断当前编码宏块的帧间预测信息同时包含短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息,则求取所有编码子宏块的最优预测运动向量并获取所有编码子宏块的预测模式。由于短期参考宏块的帧间预测信息和长期参考宏块的帧间预测信息可能存在差异,使当前编码子宏块的最优预测运动向量和预测模式存在不一致,可能导致编码错误,因此需要重新进行运动估计及预测模式估计。
在以HEVC/H.265标准编码时,首先按照高级运动向量预测技术(AMVP)求取编码子宏块的预测运动向量候选,选取预测运动向量与当前编码子宏块运动向量最接近的候选作为最优预测运动向量候选。选取与当前编码子宏块运动向量最接近的预测运动向量候选时,根据候选的预测运动向量的垂直分量和水平分量分别与当前编码子宏块运动向量的对应分量进行求取绝对差值和(SAD),绝对差值和最小的运动向量与当前编码子宏块运动向量最接近的预测运动向量为最优预测运动向量,对应的候选即为最优预测运动向量候选。然后按照Merge处理技术求取编码子宏块的Merge候选,如果存在一组候选的运动向量等于当前子宏块的运动向量,并且其参考帧索引等于当前编码子宏块的参考帧索引,则选择其中Merge索引最小的一组Merge候选作为最优Merge候选,并将当前子宏块编码为Merge预测模式,否则当前子宏块编码为ME预测模式。
而在以AVC/H.264标准和AVS标准进行编码处理时,不存在高级运动向量预测技术(AMVP)和Merge处理技术,因此需要换成传统的预测运动向量(PMV)求取方法,并分别按照AVC/H.264标准和AVS标准中的帧间预测模式进行编码。从而求取所有编码子宏块的最优预测运动向量并获取所有编码子宏块的预测模式。
运动补偿模块15用于对当前编码宏块的所有编码子宏块进行运动补偿处理,获得当前编码宏块的帧间预测编码数据。其中,运动补偿模块对当前编码宏块的所有编码子宏块进行运动补偿处理,包括:运动补偿模块15对所有编码子宏块进行亮度和色度的运动补偿。对当前编码宏块的所有编码子宏块进行运动补偿处理可采用现有的运动补偿处理技术。通常情况下,运动补偿处理技术指的是通过参考帧数据和运动向量来预测和计算当前编码宏块的数据的方法。例如,以HEVC/H.265标准编码时,进行运动补偿处理可以采用HM中的处理方法;以AVC/H.264标准进行编码处理时,进行运动补偿处理可以采用AVC官方测试模型(JM)中的处理方法。
由上述可知,本发明通过在传统单帧参考的基础上,增加一帧长期参考帧对当前编码帧进行编码参考,长期参考帧无需进行运动估计处理,只需加载编码宏块对应位置处的长期参考宏块的数据,相对于单帧参考帧,只增加对应编码宏块大小的传输带宽,可迅速恢复高质量的背景图像,且只占用少量的编码比特数。此外,同时对短期参考帧的短期参考宏块和长期参考帧的长期参考宏块进行处理,再择优选择进行后续处理,使得编码宏块的编码代价最小化,显著提高了视频的编码质量和压缩率。
需要说明的是,以上仅为本发明的优选实施例,但发明的设计构思并不局限于此,凡利用此构思对本发明做出的非实质性修改,也均落入本发明的保护范围之内。

Claims (10)

1.一种基于长期参考帧的视频编码方法,其特征在于,包括:
获取当前编码宏块所对应的短期参考宏块数据和长期参考宏块数据;
利用第一帧间预测方式获得短期参考宏块的帧间预测信息,利用第二帧间预测方式获得长期参考宏块的帧间预测信息;
根据所述短期参考宏块的帧间预测信息和所述长期参考宏块的帧间预测信息对所述当前编码宏块的所有编码子宏块进行融合处理,得到所述当前编码宏块的帧间预测信息;
对所述当前编码宏块的所有所述编码子宏块进行运动补偿处理,获得所述当前编码宏块的帧间预测编码数据。
2.根据权利要求1所述的基于长期参考帧的视频编码方法,其特征在于,所述利用第二帧间预测方式获得所述长期参考宏块的帧间预测信息,包括:
获取所述长期参考宏块的分块编码代价和不分块编码代价;
根据所述分块编码代价和所述不分块编码代价获得所述长期参考宏块的编码代价。
3.根据权利要求1或2所述的基于长期参考帧的视频编码方法,其特征在于,所述根据所述短期参考宏块的帧间预测信息和所述长期参考宏块的帧间预测信息对所述当前编码宏块的所有编码子宏块进行融合处理,得到当前编码宏块的帧间预测信息,包括:
复制短期参考子宏块和长期参考子宏块两者中所述编码代价最小的一个的帧间预测信息,得到每一个所述编码子宏块的帧间预测信息。
4.根据权利要求3所述的基于长期参考帧的视频编码方法,其特征在于,在所述对所述当前编码宏块的所有所述编码子宏块进行运动补偿处理前,所述方法还包括:
判断所述当前编码宏块的帧间预测信息是否同时包含所述短期参考宏块的帧间预测信息和所述长期参考宏块的帧间预测信息,若是,求取所有所述编码子宏块的最优预测运动向量并获取所有所述编码子宏块的预测模式。
5.根据权利要求4所述的基于长期参考帧的视频编码方法,其特征在于,所述对所述当前编码宏块的所有所述编码子宏块进行运动补偿处理,包括:
对所有所述编码子宏块进行亮度和色度的运动补偿。
6.一种基于长期参考帧的视频编码装置,其特征在于,包括:
宏块获取模块,获取当前编码宏块所对应的短期参考宏块数据和长期参考宏块数据;
帧间预测信息获取模块,利用第一帧间预测方式获得短期参考宏块的帧间预测信息,利用第二帧间预测方式获得长期参考宏块的帧间预测信息;
子宏块融合模块,根据所述短期参考宏块的帧间预测信息和所述长期参考宏块的帧间预测信息对所述当前编码宏块的所有编码子宏块进行融合处理,得到所述当前编码宏块的帧间预测信息;
运动补偿模块,对所述当前编码宏块的所有所述编码子宏块进行运动补偿处理,获得所述当前编码宏块的帧间预测编码数据。
7.根据权利要求6所述的基于长期参考帧的视频编码装置,其特征在于,所述帧间预测信息获取模块利用第二帧间预测方式获得所述长期参考宏块的帧间预测信息,包括:
所述帧间预测信息获取模块获取所述长期参考宏块的分块编码代价和不分块编码代价;
所述帧间预测信息获取模块根据所述分块编码代价和所述不分块编码代价获得所述长期参考宏块的编码代价。
8.根据权利要求6或7所述的基于长期参考帧的视频编码装置,其特征在于,所述子宏块融合模块根据所述短期参考宏块的帧间预测信息和所述长期参考宏块的帧间预测信息对所述当前编码宏块的所有编码子宏块进行融合处理,得到当前编码宏块的帧间预测信息,包括:
所述子宏块融合模块复制短期参考子宏块和长期参考子宏块两者中所述编码代价最小的一个的帧间预测信息,得到每一个所述编码子宏块的帧间预测信息。
9.根据权利要求8所述的基于长期参考帧的视频编码装置,其特征在于,所述装置还包括:
预测调整模块,判断所述当前编码宏块的帧间预测信息是否同时包含所述短期参考宏块的帧间预测信息和所述长期参考宏块的帧间预测信息,若是,求取所有所述编码子宏块的最优预测运动向量并获取所有所述编码子宏块的预测模式。
10.根据权利要求9所述的基于长期参考帧的视频编码装置,其特征在于,所述运动补偿模块对所述当前编码宏块的所有所述编码子宏块进行运动补偿处理,包括:
所述运动补偿模块对所有所述编码子宏块进行亮度和色度的运动补偿。
CN201710160537.8A 2017-03-17 2017-03-17 一种基于长期参考帧的视频编码方法及装置 Active CN106878750B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710160537.8A CN106878750B (zh) 2017-03-17 2017-03-17 一种基于长期参考帧的视频编码方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710160537.8A CN106878750B (zh) 2017-03-17 2017-03-17 一种基于长期参考帧的视频编码方法及装置

Publications (2)

Publication Number Publication Date
CN106878750A true CN106878750A (zh) 2017-06-20
CN106878750B CN106878750B (zh) 2020-05-19

Family

ID=59173092

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710160537.8A Active CN106878750B (zh) 2017-03-17 2017-03-17 一种基于长期参考帧的视频编码方法及装置

Country Status (1)

Country Link
CN (1) CN106878750B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111416981A (zh) * 2019-01-07 2020-07-14 华为技术有限公司 视频图像解码、编码方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100499788C (zh) * 2003-01-09 2009-06-10 加利福尼亚大学董事会 视频编码设备
CN102045557A (zh) * 2009-10-20 2011-05-04 鸿富锦精密工业(深圳)有限公司 视频编解码方法及使用其的视频编码、解码装置
CN103348679A (zh) * 2011-10-27 2013-10-09 松下电器产业株式会社 图像编码方法、图像解码方法、图像编码装置及图像解码装置
US20160261873A1 (en) * 2015-03-04 2016-09-08 Panasonic Intellectual Property Management Co., Ltd. Moving image coding apparatus and moving image coding method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100499788C (zh) * 2003-01-09 2009-06-10 加利福尼亚大学董事会 视频编码设备
CN102045557A (zh) * 2009-10-20 2011-05-04 鸿富锦精密工业(深圳)有限公司 视频编解码方法及使用其的视频编码、解码装置
CN103348679A (zh) * 2011-10-27 2013-10-09 松下电器产业株式会社 图像编码方法、图像解码方法、图像编码装置及图像解码装置
US20160261873A1 (en) * 2015-03-04 2016-09-08 Panasonic Intellectual Property Management Co., Ltd. Moving image coding apparatus and moving image coding method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘达: "基于双参考帧运动补偿的视频编码研究", 《中国博士学位论文全文数据库》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111416981A (zh) * 2019-01-07 2020-07-14 华为技术有限公司 视频图像解码、编码方法及装置
WO2020143589A1 (zh) * 2019-01-07 2020-07-16 华为技术有限公司 视频图像解码、编码方法及装置

Also Published As

Publication number Publication date
CN106878750B (zh) 2020-05-19

Similar Documents

Publication Publication Date Title
CN103079070B (zh) 视频编码器
CN104935939B (zh) 对图像进行编码/解码的装置和方法
CN108353184A (zh) 用于视频编解码的使用平均运动矢量的帧间预测的方法和装置
CN101023674B (zh) 用于中间帧的快速模式判定的方法和装置
CN110313180A (zh) 用于编码和解码运动信息的方法和装置
KR101383612B1 (ko) 비디오 시퀀스에서 데이터 압축 방법
CN110521205A (zh) 用于视频编解码的子预测单元时间运动向量预测
CN100531400C (zh) 基于宏块级和像素级运动估计的视频差错掩盖方法
CN108293131A (zh) 用于视频编解码的运动矢量预测或者运动补偿的方法和装置
CN106993187A (zh) 一种可变帧率的编码方法及装置
KR20110107829A (ko) 픽처 시퀀스를 나타내는 스트림을 디코딩하는 방법, 픽처 시퀀스를 코딩하는 방법, 및 코딩 데이터 스트럭처
CN106454349B (zh) 一种基于h.265视频编码的运动估计块匹配方法
CN101309408A (zh) 一种亮度块帧内预测模式选择方法
CN109495738A (zh) 一种运动信息的编解码方法和装置
CN104811729A (zh) 一种视频多参考帧编码方法
CN103384327A (zh) 基于自适应阈值的avs快速模式选择算法
CN100525454C (zh) 帧间预测模式的选择方法
CN104333755B (zh) HEVC中B帧的基于SKIP/Merge RD Cost的CU提前终止方法
CN104918047B (zh) 一种双向运动估计的排除方法和装置
CN106878750A (zh) 一种基于长期参考帧的视频编码方法及装置
CN110876058B (zh) 一种历史候选列表更新方法与装置
CN109040756A (zh) 一种基于hevc图像内容复杂度的快速运动估计方法
CN103702127B (zh) 基于运动向量相关性的运动估计搜索范围预测方法和系统
CN1319384C (zh) 硬件计算能力资源在运动估计中的优化分配方法
CN111510726B (zh) 一种编解码方法及其设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant