CN113796082A - 视频编解码方法及装置 - Google Patents
视频编解码方法及装置 Download PDFInfo
- Publication number
- CN113796082A CN113796082A CN202080033659.0A CN202080033659A CN113796082A CN 113796082 A CN113796082 A CN 113796082A CN 202080033659 A CN202080033659 A CN 202080033659A CN 113796082 A CN113796082 A CN 113796082A
- Authority
- CN
- China
- Prior art keywords
- intra
- coded
- region
- inter
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000012545 processing Methods 0.000 claims abstract description 44
- 108091026890 Coding region Proteins 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 25
- 108700026244 Open Reading Frames Proteins 0.000 claims description 9
- 238000002360 preparation method Methods 0.000 claims description 4
- 239000011248 coating agent Substances 0.000 claims 3
- 238000000576 coating method Methods 0.000 claims 3
- 230000033001 locomotion Effects 0.000 description 38
- 230000006835 compression Effects 0.000 description 25
- 238000007906 compression Methods 0.000 description 25
- 239000013598 vector Substances 0.000 description 25
- 230000005540 biological transmission Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 18
- 239000000872 buffer Substances 0.000 description 16
- 238000003860 storage Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 230000002123 temporal effect Effects 0.000 description 9
- 230000000295 complement effect Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000002093 peripheral effect Effects 0.000 description 6
- 241000023320 Luma <angiosperm> Species 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 4
- 238000013139 quantization Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000000153 supplemental effect Effects 0.000 description 2
- 102100029469 WD repeat and HMG-box DNA-binding protein 1 Human genes 0.000 description 1
- 101710097421 WD repeat and HMG-box DNA-binding protein 1 Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 239000004814 polyurethane Substances 0.000 description 1
- 229920002635 polyurethane Polymers 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本申请实施例公开了一种视频编解码方法及装置。装置中的处理电路从已编码视频码流中解码得到第一关键图片中的第一编码块的第一预测信息,所述第一关键图片是视频序列中的多个关键图片中的一个,所述第一关键图片包括第一帧内编码区域和第一帧间编码区域,所述第一预测信息指示所述第一编码块处于所述第一帧内编码区域中还是处于所述第一帧间编码区域中。当所述第一预测信息指示所述第一编码块处于所述第一帧内编码区域中时,处理电路基于所述第一帧内编码区域,重建所述第一编码块的至少一个样本。当所述第一预测信息指示所述第一编码块处于所述第一帧间编码区域中时,处理电路基于与所述第一帧间编码区域不同的区域,重建所述第一编码块的至少一个样本。
Description
引用并入
本申请要求于2019年6月6日提交的美国申请第16/433,746号、发明名称为“视频编解码方法及装置”的优先权,其全部内容通过引用并入本申请中。
技术领域
本申请涉及视频编解码技术。
背景技术
本文所提供的背景描述旨在整体呈现本申请的背景。在背景技术部分以及本说明书的各个方面中所描述的目前已署名的发明人的工作所进行的程度,并不表明其在本申请提交时作为现有技术,且从未明示或暗示其被承认为本申请的现有技术。
使用带有运动补偿的帧内预测,可以执行视频编码和解码。未压缩的数字视频可包括一系列图片,每个图片具有例如1920×1080亮度样本及相关色度样本的空间维度。所述系列图片具有固定的或可变的图片速率(也非正式地称为帧率),例如每秒60个图片或60Hz。未压缩的视频具有非常大的比特率要求。例如,每个样本8比特的1080p604:2:0的视频(1920x1080亮度样本分辨率,60Hz帧率)要求接近1.5Gbit/s带宽。一小时这样的视频就需要超过600GB的存储空间。
视频编码和解码的一个目的,是通过压缩减少输入视频信号的冗余信息。视频压缩可以帮助降低对上述带宽或存储空间的要求,在某些情况下可降低两个或更多数量级。无损和有损压缩,以及两者的组合均可采用。无损压缩是指从压缩的原始信号中重建原始信号精确副本的技术。当使用有损压缩时,重建信号可能与原始信号不完全相同,但是原始信号和重建信号之间的失真足够小,使得重建信号可用于预期应用。有损压缩广泛应用于视频。容许的失真量取决于应用。例如,相比于电视应用的用户,某些消费流媒体应用的用户可以容忍更高的失真。可实现的压缩比反映出:较高的允许/容许失真可产生较高的压缩比。
运动补偿可以是一种有损压缩技术,且可涉及如下技术:来自先前重建的图片或重建图片一部分(参考图片)的样本数据块在空间上按运动矢量(下文称为MV)指示的方向移位后,用于新重建的图片或图片部分的预测。在某些情况下,参考图片可与当前正在重建的图片相同。MV可具有两个维度X和Y,或者三个维度,其中第三个维度表示使用中的参考图片(后者间接地可为时间维度)。
在一些视频压缩技术中,应用于某个样本数据区域的MV可根据其它MV来预测,例如根据与正在重建的区域空间相邻的另一个样本数据区域相关的、且按解码顺序在该MV前面的那些MV。这样做可以大大减少编码MV所需的数据量,从而消除冗余信息并增加压缩量。MV预测可以有效地进行,例如,当对从相机导出的输入视频信号(称为自然视频)进行编码时,存在一种统计上的可能性,即面积大于单个MV适用区域的区域,会朝着类似的方向移动,因此,在某些情况下,可以用邻近区域的MV导出的相似运动矢量进行预测。这导致针对给定区域发现的MV与根据周围MV预测的MV相似或相同,并且在熵编码之后,又可以用比直接编码MV时使用的比特数更少的比特数来表示。在某些情况下,MV预测可以是对从原始信号(即样本流)导出的信号(即MV)进行无损压缩的示例。在其它情况下,MV预测本身可能是有损的,例如由于根据几个周围MV计算预测值时产生的取整误差。
H.265/HEVC(ITU-T H.265建议书,“高效视频编解码(High Efficiency VideoCoding)”,2016年12月)中描述了各种MV预测机制。在H.265提供的多种MV预测机制中,本申请描述的是下文称作“空间合并”的技术。
请参考图1,当前块(101)包括在运动搜索过程期间已由编码器发现的样本,根据已产生空间偏移的相同大小的先前块,可预测所述样本。另外,可从一个或至少两个参考图片相关联的元数据中导出所述MV,而非对MV直接编码。例如,使用关联于A0、A1和B0、B1、B2(分别对应102到106)五个周围样本中的任一样本的MV,(按解码次序)从最近的参考图片的元数据中导出所述MV。在H.265中,MV预测可使用相邻块也正在使用的相同参考图片的预测值。
发明内容
本申请的各实施例提供了视频编码/解码方法及装置。在一些实施例中,视频解码装置包括处理电路。处理电路从已编码视频码流中解码得到第一关键图片中的第一编码块的第一预测信息,所述第一关键图片是视频序列中的多个关键图片中的一个,所述第一关键图片包括第一帧内编码区域和第一帧间编码区域,所述第一预测信息指示所述第一编码块处于所述第一帧内编码区域中还是处于所述第一帧间编码区域中。当所述第一预测信息指示所述第一编码块处于所述第一帧内编码区域中时,处理电路基于所述第一帧内编码区域,重建所述第一编码块的至少一个样本。当所述第一预测信息指示所述第一编码块处于所述第一帧间编码区域中时,处理电路基于与所述第一帧间编码区域不同的区域,重建所述第一编码块的至少一个样本。
在一示例中,处理电路从所述已编码视频码流中解码得到第二关键图片中的第二编码块的第二预测信息,所述第二关键图片是所述多个关键图片中的一个,所述第二关键图片包括第二帧内编码区域和第二帧间编码区域,所述第二预测信息指示所述第二编码块处于所述第二帧内编码区域中还是处于所述第二帧间编码区域中;当所述第二预测信息指示所述第二编码块处于所述第二帧内编码区域中时,处理电路基于所述第二帧内编码区域,重建所述第二编码块的至少一个样本;当所述第二预测信息指示所述第二编码块处于所述第二帧间编码区域中时,处理电路基于与所述第二帧间编码区域不同的区域,重建所述第二编码块的至少一个样本。在一示例中,所述多个关键图片是所述视频序列中按照解码顺序连续的多个图片。
在一实施例中,所述多个关键图片包括多个帧内编码区域和多个帧间编码区域,每个帧内编码区域在相应的关键图片中具有相对位置,所述多个帧内编码区域包括所述第一帧内编码区域,所述多个帧间编码区域包括所述第一帧间编码区域;各个帧内编码区域的相对位置不同。在一示例中,所述多个帧内编码区域的大小之和等于所述第一关键图片的大小。
在一实施例中,所述第一帧内编码区域为条带、图块、图块组中的任一个。
在一实施例中,所述第一预测信息进一步指示,所述第一帧间编码区域处于先前随机存取间隔中,所述第一帧内编码区域处于当前随机存取间隔中,随机存取点将所述先前随机存取间隔和所述当前随机存取间隔在所述视频序列中分开,所述第一关键图片是在所述多个关键图片中首先被重建的,所述与所述第二帧间编码区域不同的区域,处于所述先前随机存取间隔中,或者处于所述第一关键图片中。在一示例中,所述第一关键图片包括至少一个帧内编码区域,所述至少一个帧内编码区域包括所述第一帧内编码区域;所述多个关键图片包括第二关键图片,所述第二关键图片包括第二帧内编码区域和第二帧间编码区域,所述第二帧间编码区域是在所述第二帧内编码区域之后解码得到的,所述第二关键图片是所述多个关键图片中第二个被重建的;处理电路确定所述至少一个帧内编码区域中有至少一个帧内编码区域在所述第一关键图片中的相对位置,与所述第二帧间编码区域在所述第二关键图片中的相对位置,是否相同;当所述至少一个帧内编码区域中有至少一个帧内编码区域与所述第二帧间编码区域处于相同的相对位置时,仅在所述至少一个帧内编码区域中有至少一个帧内编码区域与所述第二帧内编码区域都处于所述当前随机存取间隔中时,基于所述至少一个帧内编码区域或者所述第二帧内编码区域,对所述第二帧间编码区域进行解码;当所述至少一个帧内编码区域中没有一个帧内编码区域与所述第二帧间编码区域处于相同的相对位置时,基于如下任一个对所述第二帧间编码区域进行解码:所述先前随机存取间隔、所述第一关键图片、所述第二帧内编码区域。
在一实施例中,所述第一预测信息进一步指示,所述第一关键图片是在所述视频序列中随机存取点的随机存取间隔中首先被重建的,并且所述随机存取点的所述随机存取间隔从所述第一帧内编码区域开始。在一示例中,所述多个关键图片包括多个帧内编码区域和多个帧间编码区域,所述多个帧内编码区域包括所述第一帧内编码区域,所述多个帧间编码区域包括所述第一帧间编码区域;所述与所述第二帧间编码区域不同的区域为所述第一帧内编码区域;处理电路仅基于所述随机接入间隔,对所述第一帧间编码区域之外的剩余帧间编码区域进行解码。
本申请实施例还提供一种非暂时性计算机可读介质,其上存储有指令,当所述指令由计算机执行视频解码时,使得所述计算机执行如上所述的视频解码方法。
附图说明
根据以下详细描述和附图,所公开的主题的其他特征、性质和各种优点将进一步明确,其中:
图1示出了一个示例中的当前块及其周围的空间合并候选的示意图;
图2示出了根据本申请一实施例的通信系统(200)的简化框图的示意图;
图3示出了根据本申请另一实施例的通信系统(300)的简化框图的示意图;
图4示出了根据本申请一实施例的解码器的简化框图的示意图;
图5示出了根据本申请一实施例的编码器的简化框图的示意图;
图6示出了根据本申请另一实施例的编码器的框图;
图7示出了根据本申请另一实施例的解码器的框图;
图8示出了根据本申请一实施例的多个关键图片的示例;
图9示出了根据本申请一实施例的多个关键图片的示例;
图10示出了根据本申请另一实施例的多个关键图片的示例;
图11示出了根据本申请一实施例的第一随机存取模式的示例;
图12示出了根据本申请一实施例的第二随机存取模式的流程图;
图13示出了根据本申请另一实施例的概述示例性过程(1300)的流程图;以及
图14示出了根据实施例的计算机系统的示意图。
具体实施方式
图2是根据本申请公开的实施例的通信系统(200)的简化框图。通信系统(200)包括至少两个终端装置,所述终端装置可通过例如网络(250)彼此通信。举例来说,通信系统(200)包括通过网络(250)互连的第一终端装置(210)和第二终端装置(220)。在图2的实施例中,第一终端装置(210)和第二终端装置(220)执行单向数据传输。举例来说,第一终端装置(210)可对视频数据(例如由终端装置(210)采集的视频图片流)进行编码以通过网络(250)传输到第二端装置(220)。已编码的视频数据以一个或至少两个已编码视频码流形式传输。第二终端装置(220)可从网络(250)接收已编码视频数据,对已编码视频数据进行解码以恢复视频数据,并根据恢复的视频数据显示视频图片。单向数据传输在媒体服务等应用中是较常见的。
在另一实施例中,通信系统(200)包括执行已编码视频数据的双向传输的第三终端装置(230)和第四终端装置(240),所述双向传输可例如在视频会议期间发生。对于双向数据传输,第三终端装置(230)和第四终端装置(240)中的每个终端装置可对视频数据(例如由终端装置采集的视频图片流)进行编码,以通过网络(250)传输到第三终端装置(230)和第四终端装置(240)中的另一终端装置。第三终端装置(230)和第四终端装置(240)中的每个终端装置还可接收由第三终端装置(230)和第四终端装置(240)中的另一终端装置传输的已编码视频数据,且可对所述已编码视频数据进行解码以恢复视频数据,且可根据恢复的视频数据在可访问的显示装置上显示视频图片。
在图2的实施例中,第一终端装置(210)、第二终端装置(220)、第三终端装置(230)和第四终端装置(240)可为服务器、个人计算机和智能电话,但本申请公开的原理可不限于此。本申请公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络(250)表示在第一终端装置(210)、第二终端装置(220)、第三终端装置(230)和第四终端装置(240)之间传送已编码视频数据的任何数目的网络,包括例如有线(连线的)和/或无线通信网络。通信网络(250)可在电路交换和/或分组交换信道中交换数据。该网络可包括电信网络、局域网、广域网和/或互联网。出于本申请的目的,除非在下文中有所解释,否则网络(250)的架构和拓扑对于本申请公开的操作来说可能是无关紧要的。
作为实施例,图3示出视频编码器和视频解码器在流式传输环境中的放置方式。本申请所公开主题可同等地适用于其它支持视频的应用,包括例如视频会议、数字TV、在包括CD、DVD、存储棒等的数字介质上存储压缩视频等等。
流式传输系统可包括采集子系统(313),所述采集子系统可包括数码相机等视频源(301),所述视频源创建未压缩的视频图片流(302)。在实施例中,视频图片流(302)包括由数码相机拍摄的样本。相较于已编码的视频数据(304)(或已编码的视频码流),视频图片流(302)被描绘为粗线以强调高数据量的视频图片流,视频图片流(302)可由电子装置(320)处理,所述电子装置(320)包括耦接到视频源(301)的视频编码器(303)。视频编码器(303)可包括硬件、软件或软硬件组合以实现或实施如下文更详细地描述的所公开主题的各方面。相较于视频图片流(302),已编码的视频数据(304)(或已编码的视频码流(304))被描绘为细线以强调较低数据量的已编码的视频数据(304)(或已编码的视频码流(304)),其可存储在流式传输服务器(305)上以供将来使用。一个或至少两个流式传输客户端子系统,例如图3中的客户端子系统(306)和客户端子系统(308),可访问流式传输服务器(305)以检索已编码的视频数据(304)的副本(307)和副本(309)。客户端子系统(306)可包括例如电子装置(330)中的视频解码器(310)。视频解码器(310)对已编码的视频数据的传入副本(307)进行解码,且产生可在显示器(312)(例如显示屏)或另一呈现装置(未描绘)上呈现的输出视频图片流(311)。在一些流式传输系统中,可根据某些视频编码/压缩标准对已编码的视频数据(304)、视频数据(307)和视频数据(309)(例如视频码流)进行编码。该些标准的实施例包括ITU-T H.265。在实施例中,正在开发的视频编码标准非正式地称为下一代视频编码(Versatile Video Coding,VVC),本申请可用于VVC标准的上下文中。
应注意,电子装置(320)和电子装置(330)可包括其它组件(未示出)。举例来说,电子装置(320)可包括视频解码器(未示出),且电子装置(330)还可包括视频编码器(未示出)。
图4是根据本申请公开的实施例的视频解码器(410)的框图。视频解码器(410)可设置在电子装置(430)中。电子装置(430)可包括接收器(431)(例如接收电路)。视频解码器(410)可用于代替图3实施例中的视频解码器(310)。
接收器(431)可接收将由视频解码器(410)解码的一个或至少两个已编码视频序列;在同一实施例或另一实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的解码独立于其它已编码视频序列。可从信道(401)接收已编码视频序列,所述信道可以是通向存储已编码的视频数据的存储装置的硬件/软件链路。接收器(431)可接收已编码的视频数据以及其它数据,例如,可转发到它们各自的使用实体(未标示)的已编码音频数据和/或辅助数据流。接收器(431)可将已编码视频序列与其它数据分开。为了防止网络抖动,缓冲存储器(415)可耦接在接收器(431)与熵解码器/解析器(420)(此后称为“解析器(420)”)之间。在某些应用中,缓冲存储器(415)是视频解码器(410)的一部分。在其它情况下,所述缓冲存储器(415)可设置在视频解码器(410)外部(未标示)。而在其它情况下,视频解码器(410)的外部设置缓冲存储器(未标示)以例如防止网络抖动,且在视频解码器(410)的内部可配置另一缓冲存储器(415)以例如处理播出定时。而当接收器(431)从具有足够带宽和可控性的存储/转发装置或从等时同步网络接收数据时,也可能不需要配置缓冲存储器(415),或可以将所述缓冲存储器做得较小。当然,为了在互联网等业务分组网络上使用,也可能需要缓冲存储器(415),所述缓冲存储器可相对较大且可具有自适应性大小,且可至少部分地实施于操作系统或视频解码器(410)外部的类似元件(未标示)中。
视频解码器(410)可包括解析器(420)以根据已编码视频序列重建符号(421)。这些符号的类别包括用于管理视频解码器(410)的操作的信息,以及用以控制显示装置(412)(例如,显示屏)等显示装置的潜在信息,所述显示装置不是电子装置(430)的组成部分,但可耦接到电子装置(430),如图4中所示。用于显示装置的控制信息可以是辅助增强信息(Supplemental Enhancement Information,SEI消息)或视频可用性信息(VideoUsability Information,VUI)的参数集片段(未标示)。解析器(420)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循各种原理,包括可变长度编码、霍夫曼编码(Huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器(420)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group of Pictures,GOP)、图片、图块、分片、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。解析器(420)还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
解析器(420)可对从缓冲存储器(415)接收的视频序列执行熵解码/解析操作,从而创建符号(421)。
取决于已编码视频图片或一部分已编码视频图片(例如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其它因素,符号(421)的重建可涉及至少两个不同单元。涉及哪些单元以及涉及方式可由解析器(420)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(420)与下文的至少两个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器(410)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施例中,这些单元中的许多单元彼此紧密交互并且可以彼此集成。然而,出于描述所公开主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(451)。缩放器/逆变换单元(451)从解析器(420)接收作为符号(421)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(451)可输出包括样本值的块,所述样本值可输入到聚合器(455)中。
在一些情况下,缩放器/逆变换单元(451)的输出样本可属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元(452)提供。在一些情况下,帧内图片预测单元(452)采用从当前图片缓冲器(458)提取的已重建信息生成大小和形状与正在重建的块相同的周围块。举例来说,当前图片缓冲器(458)缓冲部分重建的当前图片和/或完全重建的当前图片。在一些情况下,聚合器(455)基于每个样本,将帧内预测单元(452)生成的预测信息添加到由缩放器/逆变换单元(451)提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元(451)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(453)可访问参考图片存储器(457)以提取用于预测的样本。在根据符号(421)对提取的样本进行运动补偿之后,这些样本可由聚合器(455)添加到缩放器/逆变换单元(451)的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元(453)从参考图片存储器(457)内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(421)的形式而供运动补偿预测单元(453)使用,所述符号(421)例如是包括X、Y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器(457)提取的样本值的内插、运动矢量预测机制等等。
聚合器(455)的输出样本可在环路滤波器单元(456)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频序列(也称作已编码视频码流)中的参数,且所述参数作为来自解析器(420)的符号(421)可用于环路滤波器单元(456)。然而,在其他实施例中,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(456)的输出可以是样本流,所述样本流可输出到显示装置(412)以及存储在参考图片存储器(457),以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。举例来说,一旦对应于当前图片的已编码图片被完全重建,且已编码图片(通过例如解析器(420))被识别为参考图片,则当前图片缓冲器(458)可变为参考图片存储器(457)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片缓冲器。
视频解码器(410)可根据例如ITU-T H.265标准中的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法以及视频压缩技术或标准中记录的配置文件的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。具体地说,配置文件可从视频压缩技术或标准中可用的所有工具中选择某些工具作为在所述配置文件下可供使用的仅有工具。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical ReferenceDecoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
在实施例中,接收器(431)可连同已编码视频一起接收附加(冗余)数据。所述附加数据可以是已编码视频序列的一部分。所述附加数据可由视频解码器(410)用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signal noise ratio,SNR)增强层、冗余分片、冗余图片、前向纠错码等形式。
图5是根据本申请公开的实施例的视频编码器(503)的框图。视频编码器(503)设置于电子装置(520)中。电子装置(520)包括传输器(540)(例如传输电路)。视频编码器(503)可用于代替图3实施例中的视频编码器(303)。
视频编码器(503)可从视频源(501)(并非图5实施例中的电子装置(520)的一部分)接收视频样本,所述视频源可采集将由视频编码器(503)编码的视频图像。在另一实施例中,视频源(501)是电子装置(520)的一部分。
视频源(501)可提供将由视频编码器(503)编码的呈数字视频样本流形式的源视频序列,所述数字视频样本流可具有任何合适位深度(例如:8位、10位、12位……)、任何色彩空间(例如BT.601Y CrCB、RGB……)和任何合适取样结构(例如Y CrCb 4:2:0、Y CrCb 4:4:4)。在媒体服务系统中,视频源(501)可以是存储先前已准备的视频的存储装置。在视频会议系统中,视频源(501)可以是采集本地图像信息作为视频序列的相机。可将视频数据提供为至少两个单独的图片,当按顺序观看时,这些图片被赋予运动。图片自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括一个或至少两个样本。所属领域的技术人员可以很容易理解像素与样本之间的关系。下文侧重于描述样本。
根据实施例,视频编码器(503)可实时或在由应用所要求的任何其它时间约束下,将源视频序列的图片编码且压缩成已编码视频序列(543)。施行适当的编码速度是控制器(550)的一个功能。在一些实施例中,控制器(550)控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器(550)设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group of pictures,GOP)布局,最大运动矢量搜索范围等。控制器(550)可用于具有其它合适的功能,这些功能涉及针对某一系统设计优化的视频编码器(503)。
在一些实施例中,视频编码器(503)在编码环路中进行操作。作为简单的描述,在实施例中,编码环路可包括源编码器(530)(例如,负责基于待编码的输入图片和参考图片创建符号,例如符号流)和嵌入于视频编码器(503)中的(本地)解码器(533)。解码器(533)以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据(因为在本申请所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。将重建的样本流(样本数据)输入到参考图片存储器(534)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器(534)中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)也用于一些相关技术。
“本地”解码器(533)的操作可与例如已在上文结合图4详细描述视频解码器(410)的“远程”解码器相同。然而,另外简要参考图4,当符号可用且熵编码器(545)和解析器(420)能够无损地将符号编码/解码为已编码视频序列时,包括缓冲存储器(415)和解析器(420)在内的视频解码器(410)的熵解码部分,可能无法完全在本地解码器(533)中实施。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。出于此原因,本申请侧重于解码器操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
在操作期间,在一些实施例中,源编码器(530)可执行运动补偿预测编码。参考来自视频序列中被指定为“参考图片”的一个或至少两个先前已编码图片,所述运动补偿预测编码对输入图片进行预测性编码。以此方式,编码引擎(532)对输入图片的像素块与参考图片的像素块之间的差异进行编码,所述参考图片可被选作所述输入图片的预测参考。
本地视频解码器(533)可基于源编码器(530)创建的符号,对可指定为参考图片的图片的已编码视频数据进行解码。编码引擎(532)的操作可为有损过程。当已编码视频数据可在视频解码器(图5中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(533)复制解码过程,所述解码过程可由视频解码器对参考图片执行,且可使重建的参考图片存储在参考图片高速缓存(534)中。以此方式,视频编码器(503)可在本地存储重建的参考图片的副本,所述副本与将由远端视频解码器获得的重建参考图片具有共同内容(不存在传输误差)。
预测器(535)可针对编码引擎(532)执行预测搜索。即,对于将要编码的新图片,预测器(535)可在参考图片存储器(534)中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器(535)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(535)获得的搜索结果,可确定输入图片可具有从参考图片存储器(534)中存储的至少两个参考图片取得的预测参考。
控制器(550)可管理源编码器(530)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(545)中对所有上述功能单元的输出进行熵编码。熵编码器(545)根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
传输器(540)可缓冲由熵编码器(545)创建的已编码视频序列,从而为通过通信信道(560)进行传输做准备,所述通信信道可以是通向将存储已编码的视频数据的存储设备的硬件/软件链路。传输器(540)可将来自视频编码器(503)的已编码视频数据与要传输的其它数据合并,所述其它数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
控制器(550)可管理视频编码器(503)的操作。在编码期间,控制器(550)可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型:
帧内图片(I图片),其可以是不将序列中的任何其它图片用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,至少两个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成至少两个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其它块。举例来说,I图片的块可进行非预测编码,或所述块可参考同一图片的已编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行预测编码。
视频编码器(503)可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(503)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
在实施例中,传输器(540)可在传输已编码的视频时传输附加数据。源编码器(530)可将此类数据作为已编码视频序列的一部分。附加数据可包括时间/空间/SNR增强层、冗余图片和分片等其它形式的冗余数据、SEI消息、VUI参数集片段等。
采集到的视频可作为呈时间序列的至少两个源图片(视频图片)。帧内图片预测(常常简化为帧内预测)利用给定图片中的空间相关性,而帧间图片预测则利用图片之间的(时间或其它)相关性。在实施例中,将正在编码/解码的特定图片分割成块,正在编码/解码的特定图片被称作当前图片。在当前图片中的块类似于视频中先前已编码且仍被缓冲的参考图片中的参考块时,可通过称作运动矢量的矢量对当前图片中的块进行编码。所述运动矢量指向参考图片中的参考块,且在使用至少两个参考图片的情况下,所述运动矢量可具有识别参考图片的第三维度。
在一些实施例中,双向预测技术可用于帧间图片预测中。根据双向预测技术,使用两个参考图片,例如按解码次序都在视频中的当前图片之前(但按显示次序可能分别是过去和将来)第一参考图片和第二参考图片。可通过指向第一参考图片中的第一参考块的第一运动矢量和指向第二参考图片中的第二参考块的第二运动矢量对当前图片中的块进行编码。具体来说,可通过第一参考块和第二参考块的组合来预测所述块。
此外,合并模式技术可用于帧间图片预测中以改善编码效率。
根据本申请公开的一些实施例,帧间图片预测和帧内图片预测等预测的执行以块为单位。举例来说,根据HEVC标准,将视频图片序列中的图片分割成编码树单元(codingtree unit,CTU)以用于压缩,图片中的CTU具有相同大小,例如64×64像素、32×32像素或16×16像素。一般来说,CTU包括三个编码树块(coding tree block,CTB),所述三个编码树块是一个亮度CTB和两个色度CTB。更进一步的,还可将每个CTU以四叉树拆分为一个或至少两个编码单元(coding unit,CU)。举例来说,可将64×64像素的CTU拆分为一个64×64像素的CU,或4个32×32像素的CU,或16个16×16像素的CU。在实施例中,分析每个CU以确定用于CU的预测类型,例如帧间预测类型或帧内预测类型。此外,取决于时间和/或空间可预测性,将CU拆分为一个或至少两个预测单元(prediction unit,PU)。通常,每个PU包括亮度预测块(prediction block,PB)和两个色度PB。在实施例中,编码(编码/解码)中的预测操作以预测块为单位来执行。以亮度预测块作为预测块为例,预测块包括像素值(例如,亮度值)的矩阵,例如8×8像素、16×16像素、8×16像素、16×8像素等等。
图6是根据本申请公开的另一实施例的视频编码器(603)的图。视频编码器(603)用于接收视频图片序列中的当前视频图片内的样本值的处理块(例如预测块),且将所述处理块编码到作为已编码视频序列的一部分的已编码图片中。在本实施例中,视频编码器(603)用于代替图3实施例中的视频编码器(303)。
在HEVC实施例中,视频编码器(603)接收用于处理块的样本值的矩阵,所述处理块为例如8×8样本的预测块等。视频编码器(603)使用例如率失真(rate-distortion,RD)优化来确定是否使用帧内模式、帧间模式或双向预测模式来编码所述处理块。当在帧内模式中编码处理块时,视频编码器(603)可使用帧内预测技术以将处理块编码到已编码图片中;且当在帧间模式或双向预测模式中编码处理块时,视频编码器(603)可分别使用帧间预测或双向预测技术将处理块编码到已编码图片中。在某些视频编码技术中,合并模式可以是帧间图片预测子模式,其中,在不借助预测值外部的已编码运动矢量分量的情况下,从一个或至少两个运动矢量预测值导出运动矢量。在某些其它视频编码技术中,可存在适用于主题块的运动矢量分量。在实施例中,视频编码器(603)包括其它组件,例如用于确定处理块模式的模式决策模块(未示出)。
在图6的实施例中,视频编码器(603)包括如图6所示的耦接到一起的帧间编码器(630)、帧内编码器(622)、残差计算器(623)、开关(626)、残差编码器(624)、通用控制器(621)和熵编码器(625)。
帧间编码器(630)用于接收当前块(例如处理块)的样本、比较所述块与参考图片中的一个或至少两个参考块(例如先前图片和后来图片中的块)、生成帧间预测信息(例如根据帧间编码技术的冗余信息描述、运动矢量、合并模式信息)、以及基于帧间预测信息使用任何合适的技术计算帧间预测结果(例如已预测块)。在一些实施例中,参考图片是基于已编码的视频信息解码的已解码参考图片。
帧内编码器(622)用于接收当前块(例如处理块)的样本、在一些情况下比较所述块与同一图片中已编码的块、在变换之后生成量化系数、以及在一些情况下还(例如根据一个或至少两个帧内编码技术的帧内预测方向信息)生成帧内预测信息。在实施例中,帧内编码器(622)还基于帧内预测信息和同一图片中的参考块计算帧内预测结果(例如已预测块)。
通用控制器(621)用于确定通用控制数据,且基于所述通用控制数据控制视频编码器(603)的其它组件。在实施例中,通用控制器(621)确定块的模式,且基于所述模式将控制信号提供到开关(626)。举例来说,当所述模式是帧内模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧内模式结果,且控制熵编码器(625)以选择帧内预测信息且将所述帧内预测信息添加在码流中;以及当所述模式是帧间模式时,通用控制器(621)控制开关(626)以选择供残差计算器(623)使用的帧间预测结果,且控制熵编码器(625)以选择帧间预测信息且将所述帧间预测信息添加在码流中。
残差计算器(623)用于计算所接收的块与选自帧内编码器(622)或帧间编码器(630)的预测结果之间的差(残差数据)。残差编码器(624)用于基于残差数据操作,以对残差数据进行编码以生成变换系数。在实施例中,残差编码器(624)用于将残差数据从时域转换到频域,且生成变换系数。变换系数接着经由量化处理以获得量化的变换系数。在各种实施例中,视频编码器(603)还包括残差解码器(628)。残差解码器(628)用于执行逆变换,且生成已解码残差数据。已解码残差数据可适当地由帧内编码器(622)和帧间编码器(630)使用。举例来说,帧间编码器(630)可基于已解码残差数据和帧间预测信息生成已解码块,且帧内编码器(622)可基于已解码残差数据和帧内预测信息生成已解码块。适当处理已解码块以生成已解码图片,且在一些实施例中,所述已解码图片可在存储器电路(未示出)中缓冲并用作参考图片。
熵编码器(625)用于将码流格式化以产生已编码的块。熵编码器(625)根据HEVC标准等合适标准产生各种信息。在实施例中,熵编码器(625)用于获得通用控制数据、所选预测信息(例如帧内预测信息或帧间预测信息)、残差信息和码流中的其它合适的信息。应注意,根据所公开的主题,当在帧间模式或双向预测模式的合并子模式中对块进行编码时,不存在残差信息。
图7是根据本申请公开的另一实施例的视频解码器(710)的图。视频解码器(710)用于接收作为已编码视频序列的一部分的已编码图像,且对所述已编码图像进行解码以生成重建的图片。在实施例中,视频解码器(710)用于代替图3实施例中的视频解码器(310)。
在图7实施例中,视频解码器(710)包括如图7中所示耦接到一起的熵解码器(771)、帧间解码器(780)、残差解码器(773)、重建模块(774)和帧内解码器(772)。
熵解码器(771)可用于根据已编码图片来重建某些符号,这些符号表示构成所述已编码图片的语法元素。此类符号可包括例如用于对所述块进行编码的模式(例如帧内模式、帧间模式、双向预测模式、后两者的合并子模式或另一子模式)、可分别识别供帧内解码器(772)或帧间解码器(780)用以进行预测的某些样本或元数据的预测信息(例如帧内预测信息或帧间预测信息)、呈例如量化的变换系数形式的残差信息等等。在实施例中,当预测模式是帧间或双向预测模式时,将帧间预测信息提供到帧间解码器(780);以及当预测类型是帧内预测类型时,将帧内预测信息提供到帧内解码器(772)。残差信息可经由逆量化并提供到残差解码器(773)。
帧间解码器(780)用于接收帧间预测信息,且基于所述帧间预测信息生成帧间预测结果。
帧内解码器(772)用于接收帧内预测信息,且基于所述帧内预测信息生成预测结果。
残差解码器(773)用于执行逆量化以提取解量化的变换系数,且处理所述解量化的变换系数,以将残差从频域转换到空间域。残差解码器(773)还可能需要某些控制信息(用以获得量化器参数QP),且所述信息可由熵解码器(771)提供(未标示数据路径,因为这仅仅是低量控制信息)。
重建模块(774)用于在空间域中组合由残差解码器(773)输出的残差与预测结果(可由帧间预测模块或帧内预测模块输出)以形成重建的块,所述重建的块可以是重建的图片的一部分,所述重建的图片继而可以是重建的视频的一部分。应注意,可执行解块操作等其它合适的操作来改善视觉质量。
应注意,可使用任何合适的技术来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在实施例中,可使用一个或至少两个集成电路来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。在另一实施例中,可使用执行软件指令的一个或至少两个处理器来实施视频编码器(303)、视频编码器(503)和视频编码器(603)以及视频解码器(310)、视频解码器(410)和视频解码器(710)。
本申请的各方面提供了用于视频传输的带宽平滑装置和方法,例如用于易出错的上下文中和/或带宽受限的信道的上下文中。可以在多个图片上使用帧内分割来执行带宽平滑,例如使用视频序列的多个关键图片中的帧内编码区域。
在视频序列中,首先要编码的图片(也称为第一图片),通常是使用帧内预测进行编码。因此,第一图片可以被称为I图片(帧内编码图片)。而帧间编码图片,诸如P图片(预测图片)、B图片(双向预测图片)等,可以取决于至少一个先前编码的图片。I图片被独立地编码,并且可以用作后续P或B图片的参考图片。
当编解码出现错误或视频传输出现错误时,可以使用I图片,防止在I图片之后解码的后续图片之间出现错误传播,例如,在I图片之前解码的图片中的错误不会传播到在I图片之后解码的后续图片。针对随机存取功能,除了第一图片之外,还希望在视频序列中插入至少一个I图片,这样,不仅可以从视频序列的开头,而且还可以从视频序列上的至少一个其它位置,存取视频码流。用于上述目的的I图片可以被称为“关键图片”。例如,当关键图片中没有分段时,可以仅使用帧内预测对关键图片进行编码。
帧内编码区域是指区域中的样本可以使用来自同一区域的编码部分的信息作为参考的区域。因此,可以基于帧内编码区域的信息重建帧内编码区域。在示例中,帧内编码区域是条带、图块、图块组等,因此也可以称为帧内编码条带(也称为I条带或I_slice)、帧内编码图块(也称为I图块)、帧内编码图块组(也称为I图块组)等。根据不同的实施例,帧内编码区域可以覆盖图片的全部或一部分。此外,覆盖所有图片的帧内编码区域可以被称为帧内编码图片,其中,图片中的样本可以使用来自同一图片的编码部分的信息作为参考。因此,可以基于帧内编码图片的信息重建帧内编码图片。
帧间编码区域是指区域中的样本可以使用除了同一区域的编码部分之外的至少一个先前编码区域的信息作为参考的区域。在示例中,帧间编码区域是条带、图块、图块组等。帧间编码条带可以是P条带、B条带等。在实施例中,可以使用至多一个运动矢量和参考索引对P条带进行编码以预测P条带的样本值,并且可以使用至多两个运动矢量和参考索引对B条带进行编码以预测B条带的样本值。帧间编码图块可以是P图块、B图块等。帧间编码条带可以是P图块组、B图块组等。P图块和P图块组的描述类似于P条带的描述,B图块和B图块组的描述类似于B条带的描述。
根据不同的实施例,帧间编码区域可以覆盖图片的全部或一部分。此外,覆盖所有图片的帧间编码区域可以被称为帧间编码图片,其中,图片中的样本可以使用除了同一图片的编码部分之外的至少一个先前编码图片的信息作为参考。帧间编码图片可以是P图片、B图片等。
为了进行随机存取或错误恢复,在已编码的视频序列中,关键图片可以周期性地插入在帧间编码的图片之间。在实施例中,关键图片是I图片。在示例中,视频码流结构为:I-P-P-P-P-P-P-P-I-P-P-P-P-P-P-P……其中,I和P分别指I图片和P图片。在另一示例中,视频码流结构为:I-B-B-P-B-B-P-B-B-I-B-B-P-B-B-P-B-B-……其中,B指B图片。通常,使用具有运动补偿的帧间编码图片的编解码效率高于使用帧内编码图片的编解码效率。因此,传输帧间编码图片所需的带宽可以显著小于传输帧内编码图片所需的带宽。例如,在具有I-P-P-P结构或I-B-B-P结构的已编码视频码流中,至少一个帧内编码图片或至少一个关键图片可以使用比诸如P或B图片等其它图片大得多的带宽。
用于视频码流中的帧内编码图片的带宽可以超过视频传输信道的最大允许带宽(也称为带宽容量)。例如,视频传输信道的带宽容量可以为1Mb/s,而帧内编码图片可以导致2Mb/s的带宽消耗。因此,在具有1Mb/s带宽容量的视频传输信道上传送1秒的以帧内预测编码的视频内容,可能需要2秒。例如,超过视频传输信道的带宽容量的帧内编码图片,可能导致诸如端到端传输延迟较长等问题,并且对于有效的视频传送不是所期望的。
为了减少具有大带宽要求的帧内编码图片的挑战,可以将帧内编码图片分割成多个区域,诸如两个区域。在实施例中,这两个区域可以包括帧内编码条带和帧间编码条带(诸如P条带或B条带)。与仅使用帧内预测相比,帧间编码条带可以实现更高的编解码效率,因为帧间编码条带中的样本不仅可以参考同一帧间编码条带内的信息,还可以参考同一图片的先前编码的I条带。因此,可以减少对帧内编码图片(诸如视频序列中首先要编码的图片)进行编码的带宽要求,并且可以平滑视频序列的带宽分布。在示例中,在视频序列中对帧内编码图片的带宽要求是最高的,因此对应于视频序列的峰值带宽。因此,减小了视频序列的峰值带宽,并且平滑了视频序列的带宽分布。
本申请的各种实施例提供用于提高已编码视频序列的编解码效率和用于错误恢复的方法和装置。
可以仅使用帧内预测来选择关键图片,以及对关键图片进行编码,因此关键图片也是帧内编码图片。在关键图片之后的视频序列中的后续图片可以仅参考关键图片或参考关键图片的至少一个其它参考图片。根据本申请的实施例,可以将多个帧内编码区域插入到已编码视频序列中,例如用于刷新目的。此外,可以在多个图片中而不是在单个关键图片中分配多个帧内编码区域。在本申请中,具有多个帧内编码区域中的至少一个帧内编码区域的多个图片中,每个图片都可以被称为关键图片。即,关键图片可以是包括至少一个帧内编码区域的图片。在一些实施例中,关键图片可以包括帧内编码区域和帧间编码区域。
根据本申请的实施例,多个关键图片包括在视频序列中。多个关键图片包括帧内编码区域,其中多个关键图片中的每一个包括至少一个帧内编码区域。在示例中,多个关键图片中的至少一个还包括帧间编码区域。在另一示例中,多个关键图片中的每一个包括帧间编码区域。例如,多个关键图片包括第一关键图片和第二关键图片。第一关键图片包括第一帧内编码区域和第一帧间编码区域。第二关键图片包括第二帧内编码区域和第二帧间编码区域。可以仅基于第一帧内编码区域的信息对第一帧内编码区域进行编码,可以仅基于第二帧内编码区域的信息对第二帧内编码区域进行编码,可以基于至少一个先前编码区域的信息对第一帧间编码区域进行编码,并且可以基于至少一个先前编码区域的信息对第二帧间编码区域进行编码。根据一个实施例,第一关键图片和第二关键图片是视频序列中按照解码顺序连续的多个图片。在另一实施例中,第一关键图片和第二关键图片,按照视频序列的解码顺序而言,并不连续。
多个关键图片的数量可以是任何合适的数量,并且可以变化,诸如2、3、4、…、GOP大小(GOP中图片的数量)等。在一个实施例中,多个关键图片的数量可以是大于1的正整数。在一个实施例中,多个关键图片的数量小于或等于GOP大小。
多个关键图片可以是视频序列中按照解码顺序连续的多个图片,如图8至图10所示。在实施例中,视频序列的多个关键图片中的帧内编码区域是互补的,例如,从相应的多个关键图片中的帧内编码区域的相对位置和帧内编码区域的大小来看。例如,各个关键图片中的每个帧内编码区域处于不同的相对位置。当帧内编码区域的数量等于N(大于1的正整数)时,多个关键图片中的每一个可以包括相同数量(即,N)的区段(即,区段0至N-1),其区段大小为图片大小的1/N。多个关键图片的每一个关键图片中的N个区段,具有不同的相对位置并且不重叠。N个帧内编码区域对应于相应的多个关键图片中的区段0至(N-1)。在示例中,N为4,多个关键图片对应于图片0至1,并且4个帧内编码区域对应于图片0中的区段0和2以及图片1中的区段1和3。在另一示例中,N为4,多个关键图片对应于图片0至3,并且4个帧内编码区域对应于图片0中的区段0、图片1中的区段1、图片2中的区段2和图片3中的区段3。也可以使用帧内编码区域和相应区段之间的其它对应关系。例如,4个帧内编码区域也可以对应于图片0中的区段1、图片1中的区段0、图片2中的区段2和图片3中的区段3。
图8示出了根据本申请的实施例的视频序列(801)中的多个关键图片的示例。多个关键图片包括图片0至图片3。视频序列(801)还包括图片4至5,图片4至5不包括帧内编码区域的图片,因此,图片4至5仅包括诸如P区域和/或B区域的帧间编码区域。
视频序列(801)的解码顺序是沿着视频序列(801)从左至右,因此是从图片0到图片5。多个关键图片是按照解码顺序连续的多个图片,即图片0到图片3。多个关键图片中的每一个可以被分区成1个以上的片段。各个关键图片内的区域的分割可以通过一种方法或多种方法的组合来完成,包括但不限于使用条带、图块、图块组等。在图8中,使用条带的分割被用作示例。
多个关键图片中的每一个包括帧内编码区域。更具体地,图片0至3分别包括帧内编码区域(811)-(814)。多个关键图片中的每一个还包括至少一个帧间编码区域。更具体地,图片0包括帧间编码区域(821),图片1包括帧间编码区域(822)-(823),图片2包括帧间编码区域(824)-(825),并且图片3包括帧间编码区域(826)。在示例中,帧内编码区域(811)-(814)是I条带,而帧间编码区域(821)-(826)是P和/或B条带。
参考图8,帧内编码区域(811)-(814)是互补的,因此,帧内编码区域(811)-(814)中的一个区域与帧内编码区域(811)-(814)中的其余区域互补。例如,帧内编码区域(811)与帧内编码区域(812)-(814)互补。多个关键图片(即,图片0至3)包括在相应的多个关键图片中具有不同的相对位置的帧内编码区域(811)-(814),并且帧内编码区域(811)-(814)的大小(或面积)之和等于多个关键图片(诸如图片0)的图片大小(或图片面积)。参考图8,图片0至3相应的四个帧内编码区域(811)-(814)可以针对图片0至3中相应图片的相对像素位置,形成非重叠图片。在图8中,通过按照各个关键图片从上到下的顺序,跨(cross)多个关键图片,选择帧内编码区域(811)-(814)。
在示例中,区域或图片的相对位置可以由该区域或图片的左上样本表示。再次参考图8,图片0至5具有相同的高度H1。帧内编码区域(811)-(814)的数量为4。虚线(831)-(833)将多个关键图片0至3中的每一个图片划分成4个区段0至3(S0-S3),其区段高度为1/4H1,区段大小为图片大小的1/4。帧内编码区域(811)对应于图片0的区段0(S0),并且帧内编码区域(811)的左上样本是图片0的左上样本。帧内编码区域(812)对应于图片1的区段1(S1),并且帧内编码区域(812)的左上样本位于图片1的左上样本下方的1/4H1处。帧内编码区域(813)对应于图片2的区段2(S2),并且帧内编码区域(813)的左上样本位于图片2的左上样本下方的2/4(即,1/2)H1处。帧内编码区域(814)对应于图片3的区段3(S3),并且帧内编码区域(814)的左上样本位于图片3的左上样本下方的3/4H1处。因此,帧内编码区域(811)-(813)是互补的。
还可以在多个关键图片上不同地分布帧内编码区域。例如,多个关键图片(即,图片0至3)的4个帧内编码区域包括图片0中的区段1(S1)、图片1中的区段0(S0)、图片2中的区段2(S2),图片3中的区段3(S3)。也可以实现其它合适的分布。
通常,帧内编码区域也可以通过遵循其它合适的顺序来选择,诸如图9至图10所示。此外,帧内编码区域可以对应于图块,诸如图9中所示。图9示出了根据本申请的实施例的视频序列(901)中的多个关键图片的示例。多个关键图片包括图片0至3。视频序列(901)还包括图片4至5,图片4至5不包括帧内编码区域,因此,图片4至5中的所有区域都是帧间编码区域,诸如P区域和/或B区域。
在图9中,视频序列(901)的解码顺序是沿着视频序列(901)从左至右,因此是从图片0至图片5。多个关键图片是按照解码顺序连续的多个图片,即图片0至3。多个关键图片中的每一个图片包括帧内编码区域。更具体地,图片0至3分别包括帧内编码区域(911)-(914)。多个关键图片中的每一个图片包括三个帧间编码区域。更具体地,图片0包括帧间编码区域(921)-(923),图片1包括帧间编码区域(924)-(926),图片2包括帧间编码区域(927)-(929),图片3包括帧间编码区域(930)-(932)。在示例中,帧内编码区域(911)-(914)是I图块,而帧间编码区域(921)-(932)是P和/或B图块。
参考图9,图片0至3具有相同的宽度W2和相同的高度H2。帧内编码区域(911)-(914)的数量为4。图片0至3中的每一个图片包括4个区段,左上区段0(S0)、右上区段1(S1)、左下区段2(S2)和右下区段3(S3)。每个区段的大小是图片大小的1/4。帧内编码区域(911)是图片0的左上区段0,并且帧内编码区域(911)的左上样本是图片0的左上样本。帧内编码区域(912)是图片1的右上区段1,并且帧内编码区域(912)的左上样本位于图片1的左上样本右侧的1/2W2处。帧内编码区域(913)是图片2的左下区域2,并且帧内编码区域(913)的左上样本位于图片2的左上样本下方的1/2H2处。帧内编码区域(914)是图片3的右下区域3,并且帧内编码区域(914)的左上样本位于图片3的左上样本右侧的1/2H2和下方的1/2W2处。在图9中,分别按照各个图片0至3中的左上区段0、右上区段1、左下区段2和右下区段3的顺序来选择帧内编码区域(911)-(914),并且帧内编码区域(811)-(813)是互补的。
图10示出了根据本申请的实施例的视频序列(1001)中的多个关键图片的示例。多个关键图片包括图片0和1。视频序列(1001)还包括图片2至3,图片2至3不包括帧内编码区域,因此,图片2至3中的所有区域都是帧间编码区域,诸如P区域和/或B区域。
在图10中,视频序列(1001)的解码顺序是沿着视频序列(1001)从左至右,因此是从图片0至图片3。多个关键图片是按照解码顺序连续的多个图片,即图片0至1。图片0包括帧内编码区域(1011)-(1012)和帧间编码区域(1021)-(1022)。图片1包括帧内编码区域(1013)-(1014)和帧间编码区域(1023)-(1024)。在示例中,帧内编码区域(1011)-(1014)是I条带,而帧间编码区域(1021)-(1024)是P或B条带。
参考图10,图片0至1具有相同的高度H3。帧内编码区域(1011)-(1014)的数量为4。虚线(1031)-(1033)将图片0至1中的每一个图片划分成四个区段0至3,其区段高度为1/4H3且区段大小为图片大小的1/4。帧内编码区域(1011)是图片0的区段0(S0),并且帧内编码区域(1011)的左上样本是图片0的左上样本。帧内编码区域(1012)是图片0的区段2(S2),并且帧内编码区域(1012)的左上样本位于图片0的左上样本下方的2/4(即,1/2)H3处。帧内编码区域(1013)是图片1的区段1(S1),并且帧内编码区域(1013)的左上样本位于图片1的左上样本下方的1/4H3处。帧内编码区域(1014)是图片1的区段3(S3),并且帧内编码区域(1014)的左上样本位于图片1的左上样本下方的3/4H3处。按照包括图片0中的区段0和2以及图片1中的区段1和3的顺序来选择帧内编码区域(1011)-(1014),并且帧内编码区域(1011)-(1013)是互补的。在示例中,区域(1011)-(1014)是I条带,而帧间编码条带(1021-1024)是B条带和/或P条带。
在实施例中,可以通过任何合适的方法将关键图片分割成多个区域,包括但不限于使用条带、图块、图块组等。关键图片可以包括仅使用帧内预测进行编码的至少一个帧内编码区域。关键图片还可以包括至少一个帧间编码区域,至少一个帧间编码区域是使用关键图片中的至少一个先前编码区域或者至少一个不同图片中的至少一个先前编码区域进行编码得到的。
在图8至图10所示的示例中,每个关键图片包括仅使用帧内预测进行编码的至少一个帧内编码区域。在图8至图10所示的示例中,多个关键图片是视频序列中按照解码顺序连续的多个图片。在其它实施例中,视频序列中具有帧内编码区域的多个关键图片并非是按照视频序列的解码顺序连续的多个图片。此外,在其它实施例中可以利用帧内编码区域的不同选择顺序。
在实施例中,对于视频序列中不是关键图片的其它图片,没有施加任何特定的约束,除了在对视频序列中之前已被重建的关键图片的帧内编码区域进行解码之前,其它图片不能参考已编码信息之外。
在实施例中,视频序列的GOP大小为正整数M。因此,可以对每M个图片重复使用参考结构和图片类型,并且可以对GOP中的M个图片进行类似的渐进的帧内编码区域插入。在实施例中,只有随机存取边界(在一些实施例中也称为随机存取点)处的图片使用渐进的帧内编码区域插入来进行帧内刷新。对于N个关键图片中的每一个,区域面积为图片面积的1/N的区域可以仅以帧内预测进行编码(诸如I条带)。参考图8,使用I条带对图片i中的区段i进行编码,其中i为0、1、2或3。
在以上用于跨多个关键图片分配帧内编码区域的描述中,为了随机存取,可以生成或不生成视频码流。视频码流可以从视频码流中的多个关键图片的关键图片中随机存取,如下面进一步详细讨论的。
直接参考可以定义如下。当重建当前区域时,通过发信号通知先前编码区域是当前区域的参考,可以直接参考先前编码区域用于预测的目的,因此,先前编码区域是当前区域的直接参考。例如,当先前编码区域的图片被列为当前区域的参考图片时,先前编码区域是当前区域的直接参考。
间接参考可以定义如下。当重建当前区域时,为了预测的目的,通过发信号通知第一编码区域作为当前区域的参考来参考第一编码区域。此外,第一编码区域可以直接或间接地使用第二编码区域作为参考。然后,第二编码区域是当前区域的间接参考,即使当前区域不直接发信号通知将第二编码区域用作参考。
在实施例中,视频码流或视频序列可以包括由随机存取边界分开的多个随机存取间隔。在示例中,随机存取边界(也称为随机存取点)的随机存取间隔从随机存取边界开始,其中,在不知道至少一个先前随机存取间隔中的先前解码数据的情况下,可以对随机存取间隔中的视频数据进行独立地解码。随机存取间隔内的至少一个帧内编码区域可以是对随机存取间隔中的后续帧间编码区域的直接或间接参考。因此,可以通过参考同一随机存取间隔中的至少一个区域来对随机存取间隔中的帧间编码区域进行解码。在一些示例中,直接或间接地参考先前随机存取间隔的帧内编码区域,打破了随机存取边界的定义,因此,随机存取间隔中的视频数据可以仅直接或间接地参考来自相同随机存取间隔的参考数据,诸如图12中所示。
可以在对视频序列的多个关键图片中的帧间编码区域进行编码时,使用两种随机存取模式,如图11至图12所示。图11示出了根据本申请的实施例的第一随机存取模式的示例。视频序列(1100)包括第一组图片(1101)(也称为第一组(1101))和第二组图片(1102)(也称为第二组(1102))。第一组(1101)包括图片-2至-1。第二组(1102)包括图片0至4。第二组(1102)包括多个关键图片,即图片0至3。图片0至3中的每一个包括帧内编码区域和至少一个帧间编码区域。图片0至3包括帧内编码区域(1111)-(1114)和帧间编码区域(1121)-(1126)。图片4是包括至少一个帧间编码区域的帧间编码图片。
在图11中,解码顺序从左到右,即从图片-2至图片4。以下描述可以适用于其它解码顺序。随机存取边界(1130)跨越多个关键图片(即,图片0至3),并且包括多个边界(1131)-(1138),诸如解码顺序中相邻图片之间的部分边界(1131)、(1133)、(1135)和(1137),同一图片中相邻区域之间的区域边界(1132)、(1134)和(1136),以及边界(1138)。在示例中,边界(1138)可以是图片边界等。在实施例中,包括随机存取边界(1130)的多个随机存取边界将视频序列(1100)划分成多个随机存取间隔。来自多个随机存取间隔中至少一个随机存取间隔的图片可以共享公共信息,诸如序列头信息(例如,序列参数集(SPS))。
位于随机存取边界(1130)下方或左侧的视频序列(1100)的第一部分可以包括图片-2至-1以及图片0至2的各个部分,诸如帧间编码区域(1121)、(1123)和(1125)。在图11所示的示例中,视频序列(1100)的第一部分与位于随机存取边界(1130)下方或左侧的先前随机存取间隔相关联(或属于该先前随机存取间隔)。因此,视频序列(1100)的第一部分中的图片-2至-1和帧间编码区域(1121)、(1123)和(1125),与视频序列(1100)或先前解码的视频序列中的先前随机存取边界的先前随机存取间隔相关联。在一个实施例中,即使先前编码图片或同一图片的已编码区域与不同的随机存取间隔相关联,与先前存取间隔相关联的关键图片0至2中的帧间编码区域(1121)、(1123)和(1125)可以指先前编码图片和/或已解码的同一图片的已编码区域。
位于随机存取边界(1130)上方或右侧的视频序列(1100)的第二部分可以包括图片4和图片0至3的部分,诸如帧间编码区域(1122)、(1124)和(1126)以及帧内编码区域(1111)-(1114)。视频序列(1100)的第二部分与对应于随机存取边界(1130)的当前随机存取间隔相关联(或属于该当前随机存取间隔)。因此,视频序列(1100)的第二部分中的图片4、帧间编码区域(1122)、(1124)和(1126)以及帧内编码区域(1111)-(1114)与随机存取边界(1130)的当前随机存取间隔相关联。在一个实施例中,与当前随机存取间隔相关联的关键图片1至3的帧间编码区域(1122)、(1124)和(1126)只能使用相同随机存取间隔中的先前编码数据作为参考。在示例中,首先在视频序列(1100)的当前随机存取间隔中对帧内编码区域(1111)进行解码。
第一随机存取模式可用于对多个关键图片中的帧间编码区域(1121)-(1126)进行编码,如下所述。
对于第二组(1102)中的关键图片中的帧间编码区域,如果在第二组(1102)中的至少一个先前编码的关键图片中不存在仅使用帧内预测编码的同位帧内编码区域,则除了相同关键图片的至少一个编码区域之外,帧间编码区域可以参考至少一个先前编码图片的信息。至少一个先前编码图片可以与先前随机存取间隔相关联,并且至少一个已编码区域可以与当前随机存取间隔相关联。换言之,位于随机存取边界(1130)下方或左侧的帧间编码区域(1121)、(1123)和(1125)满足上述条件,因此,可以参考图片-2和/或-1的信息,和/或相应关键图片中的帧内编码区域(1111)-(1113)和帧间编码区域(1122)和(1124)中的一个区域。如上所述,帧间编码区域(1121)、(1123)和(1125)可以使用先前编码区域进行编码,诸如图片(例如,与先前随机存取间隔相关联的图片-2或-1)的信息,和/或与当前随机存取间隔相关联的相应关键图片中的帧内编码区域(1111)-(1113)和帧间编码区域(1122)和(1124)中的一个区域。
例如,图片1的帧间编码区域(1123)可以参考先前编码图片中待编码的信息或数据,诸如先前随机存取间隔的图片-2和-1。当图片0、图片1的帧内编码区域(1112)和帧间编码区域(1122)先前已被编码时,帧间编码区域(1123)也可以指图片0、图片1的帧内编码区域(1112)和帧间编码区域(1122)。因此,与先前随机存取间隔相关联的帧间编码区域(1123)可以使用与先前随机存取间隔相关联的信息、与当前随机存取间隔相关联的先前编码信息等进行编码。
对于第二组(1102)中的关键图片的帧间编码区域,如果在先前编码的关键图片中存在仅在第二组(1102)中使用帧内预测编码的同位区域,则关键图片的帧间编码区域可以参考至少一个先前编码的帧间编码区域的信息,这些帧间编码区域来自与当前随机存取间隔相关联的多个关键图片,以及参考多个关键图片的至少一个先前帧内编码区域的信息。至少一个先前编码的帧间编码区域与当前随机存取间隔相关联,并且在至少一个先前随机存取间隔(诸如先前随机存取间隔)中不具有来自先前编码的帧内编码区域的直接或间接参考。在一些实施例中,至少一个先前编码的帧间编码区域可以指当前随机存取间隔的关键图片中的先前编码的帧内编码区域。
例如,图片2的帧间编码区域(1124)可以指图片1的帧间编码区域(1122)和帧内编码区域(1112)以及图片0的帧内编码区域(1111)。帧间编码区域(1124)不能指图片1的帧间编码区域(1123)或图片0的帧间编码区域(1121),因为帧间编码区域(1121)和(1123)在随机存取边界(1130)的下方或左侧,并且与先前随机存取间隔相关联。
在图11所示的示例中,与对应于随机存取点(1130)的当前随机存取间隔相关联的帧间编码区域(1122),(1124)和(1126),可以使用与当前随机存取间隔相关联的信息进行编码。此外,不能使用与先前随机存取间隔相关联的信息对帧间编码区域(1122)、(1124)和(1126)进行编码。因此,在随机存取边界(1130)之前的至少一个先前随机存取间隔中的错误,不能传播到随机存取边界(1130)之外的区域或图片,诸如当前随机存取间隔内的区域或图片。因此,在第一随机存取模式中,视频数据可以对错误传播更具抵抗力。随机存取边界(1130)被认为是“宽松的”,并且第一随机存取模式被认为是“宽松的”模式,因为关键图片的一部分可以在随机存取边界(1130)的下方或左侧,而同一关键图片的另一部分可以在随机存取边界(1130)的上方或右侧。例如,帧间编码区域(1121)在随机存取边界(1130)的下方或左侧,而帧内编码区域(1111)在随机存取边界(1130)的上方。换言之,随机存取边界(1130)可以将关键图片划分成与多个随机存取间隔相关联的多个部分。
当在第一随机存取模式中通过对关键图片进行解码来执行随机存取时,关键图片中的可用数据可以位于关键图片的一部分中,其中,可用数据用于对当前随机存取间隔中的区域进行编码。在实施例中,图片0中的可用数据位于帧内编码区域(1111)中,或者位于不包括帧间编码区域(1121)的部分图片0中。图片1中的可用数据位于帧内编码区域(1112)和帧间编码区域(1122)中,或者位于不包括帧间编码区域(1123)的部分图片1中。图片2中的可用数据位于帧内编码区域(1113)和帧间编码区域(1124)中,或者位于不包括帧间编码区域(1125)的部分图片2中。
图12示出了根据本申请的实施例的第二随机存取模式的示例。视频序列(1200)包括第一组图片(1201)(也称为第一组(1201))和第二组图片(1202)(也称为第二组(1202))。第一组(1201)包括图片-2至-1。第二组(1202)包括图片0至4。第二组(1202)包括多个关键图片,即图片0至3。图片0至3中的每一个包括帧内编码区域和至少一个帧间编码区域。图片0至3包括帧内编码区域(1211)-(1214)和帧间编码区域(1221)-(1226)。图片4是包括至少一个帧间编码区域的帧间编码图片。
在图12中,解码顺序从左到右,即从图片-2至图片4。以下描述可以适用于其它解码顺序。因此,用于第二随机存取模式的随机存取边界或随机存取点(1203)开始于在第二组(1202)中首先重建的帧内编码区域(1211)。随机存取点(1203)对应于相邻图片-1和0之间的单个图片边界。因此,随机存取点(1203)的当前随机存取间隔开始于随机存取点(1203),并且包括第二组(1202)。
第二随机存取模式可用于对多个关键图片(即,图片0至3)中的帧间编码区域(1221)-(1226)进行编码,如下所述。图片0中的帧内编码区域(1211)之后的所有后续数据以及按照解码顺序稍后解码的图片,可以指当前随机存取间隔的已解码数据,其中,所有后续数据在当前随机存取间隔中。因此,整个关键图片0至3属于当前随机存取间隔。当前随机存取间隔中的任何帧间编码区域,无论帧间编码区域是否在关键图片内,都可以不直接或间接地参考位于随机存取点(1203)左侧的先前随机存取间隔的信息。
因此,基于当前随机存取点间隔内的信息,诸如图片0至3,对多个关键图片中的帧间编码区域(1221)-(1226)进行解码。此外,不基于诸如图片-2至-1的先前随机存取间隔的信息对帧间编码区域(1221)-(1226)进行解码。第二随机存取模式可以促进视频数据的随机存取。
图13示出了概述根据本申请的实施例的过程(1300)的流程图。过程(1300)可以用于对帧间预测编码的第一编码块的重建,从而生成用于重建中的第一编码块的预测块。在各种实施例中,过程(1300)由诸如终端设备(210)、(220)、(230)和(240)中的处理电路、执行视频编码器(303)的功能的处理电路、执行视频解码器(310)的功能的处理电路、执行视频解码器(410)的功能的处理电路、执行视频编码器(503)的功能的处理电路、执行预测器(535)的功能的处理电路等处理电路执行。在一些实施例中,过程(1300)以软件指令实现,因此当处理电路执行软件指令时,处理电路执行过程(1300)。该过程开始于(S1301)并进行到(S1310)。
在(S1310)处,从已编码视频码流中解码得到第一关键图片中的第一编码块的第一预测信息,第一关键图片是视频序列中的多个关键图片中的一个,并且包括第一帧内编码区域和第一帧间编码区域。第一预测信息可以指示第一编码块处于第一帧内编码区域中还是处于第一帧间编码区域中。参考图8至图12,在各种示例中,视频序列可以是视频序列(801)、(901)、(1001)、(1100)和(1200)之一。第一关键图片可以是图8至图12所示的关键图片之一。第一帧内编码区域可以是帧内编码区域(811)-(814)、(911)-(914)、(1011)-(1014)、(1111)-(1114)和(1211)-(1214)之一。第一帧间编码区域可以是帧间编码区域(821)-(826)、(921)-(932)、(1021)-(1024)、(1121)-(1126)和(1221)-(1226)之一。在示例中,第一图片是图8中的关键图片0,第一帧内编码区域是帧内编码区域(801),并且第一帧间编码区域是帧间编码区域(821)。第一帧内编码区域和帧间编码区域可以是条带、图块、图块组等。在示例中,多个关键图片是视频序列的以解码顺序的连续图片。在示例中,多个关键图片中的帧内编码区域是互补的。
在(S1320)处,确定第一编码块是否在第一帧内编码区域中,例如,基于第一编码块和第一帧内编码区域的位置和大小。当确定第一编码块在第一帧内编码区域中时,过程(1300)进行到(S1330)。否则,确定第一编码块在第一帧间编码区域中,因此,过程(1300)进行到S(1340)。
在(S1330)处,第一编码块在第一帧内编码区域中,基于第一帧内编码区域,重建第一编码块的至少一个样本。例如,仅基于第一帧内编码区域重建第一编码块的至少一个样本,而不使用第一关键图片或视频序列中的其它图片中的另一区域的信息。过程(1300)进行到(S1399)并终止。
在(S1340)处,第一编码块在第一帧间编码区域中,基于与第一帧间编码区域不同的区域,重建第一编码块的至少一个样本。在示例中,与第一帧间编码区域不同的区域是第一帧内编码区域。在示例中,与第一帧间编码区域不同的区域可以是不同图片中的先前解码区域。过程(1300)进行到(S1399)并终止。
注意,可以适当地修改过程(1300)。例如,可以添加附加步骤以对视频序列中的多个关键图片中的第二关键图片中的第二编码块进行解码。例如,从已编码视频码流解码得到第二编码块的第二预测信息。第二关键图片包括第二帧内编码区域和第二帧间编码区域。第二预测信息可以指示第二编码块处于第二帧内编码区域中或者第二帧间编码区域中。当确定第二编码块在第二帧内编码区域中时,基于第二帧内编码区域重建第二编码块的至少一个样本。例如,仅基于第二帧内编码区域重建第一编码块的至少一个样本,而不使用视频序列中的另一区域的信息。当确定第二编码块在第二帧间编码区域中时,基于与第二帧间编码区域不同的区域重建第二编码块的至少一个样本。
上述技术可以通过计算机可读指令实现为计算机软件,并且物理地存储在一个或至少两个计算机可读介质中。例如,图14示出了计算机系统(1400),其适于实现所公开主题的某些实施例。
所述计算机软件可通过任何合适的机器代码或计算机语言进行编码,通过汇编、编译、链接等机制创建包括指令的代码,所述指令可由一个或至少两个计算机中央处理单元(CPU),图形处理单元(GPU)等直接执行或通过译码、微代码等方式执行。
所述指令可以在各种类型的计算机或其组件上执行,包括例如个人计算机、平板电脑、服务器、智能手机、游戏设备、物联网设备等。
图14所示的用于计算机系统(1400)的组件本质上是示例性的,并不用于对实现本申请实施例的计算机软件的使用范围或功能进行任何限制。也不应将组件的配置解释为与计算机系统(1400)的示例性实施例中所示的任一组件或其组合具有任何依赖性或要求。
计算机系统(1400)可以包括某些人机界面输入设备。这种人机界面输入设备可以通过触觉输入(如:键盘输入、滑动、数据手套移动)、音频输入(如:声音、掌声)、视觉输入(如:手势)、嗅觉输入(未示出),对一个或至少两个人类用户的输入做出响应。所述人机界面设备还可用于捕获某些媒体,气与人类有意识的输入不必直接相关,如音频(例如:语音、音乐、环境声音)、图像(例如:扫描图像、从静止影像相机获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
人机界面输入设备可包括以下中的一个或至少两个(仅绘出其中一个):键盘(1401)、鼠标(1402)、触控板(1403)、触摸屏(1410)、数据手套(未示出)、操纵杆(1405)、麦克风(1406)、扫描仪(1407)、照相机(1408)。
计算机系统(1400)还可以包括某些人机界面输出设备。这种人机界面输出设备可以通过例如触觉输出、声音、光和嗅觉/味觉来刺激一个或至少两个人类用户的感觉。这样的人机界面输出设备可包括触觉输出设备(例如通过触摸屏(1410)、数据手套(未示出)或操纵杆(1405)的触觉反馈,但也可以有不用作输入设备的触觉反馈设备)、音频输出设备(例如,扬声器(1409)、耳机(未示出))、视觉输出设备(例如,包括阴极射线管屏幕、液晶屏幕、等离子屏幕、有机发光二极管屏的屏幕(1410),其中每一个都具有或没有触摸屏输入功能、每一个都具有或没有触觉反馈功能——其中一些可通过诸如立体画面输出的手段输出二维视觉输出或三维以上的输出;虚拟现实眼镜(未示出)、全息显示器和放烟箱(未示出))以及打印机(未示出)。
计算机系统(1400)还可以包括人可访问的存储设备及其相关介质,如包括具有CD/DVD的高密度只读/可重写式光盘(CD/DVD ROM/RW)(1420)或类似介质(1421)的光学介质、拇指驱动器(1422)、可移动硬盘驱动器或固体状态驱动器(1423),诸如磁带和软盘(未示出)的传统磁介质,诸如安全软件保护器(未示出)等的基于ROM/ASIC/PLD的专用设备,等等。
本领域技术人员还应当理解,结合所公开的主题使用的术语“计算机可读介质”不包括传输介质、载波或其它瞬时信号。
计算机系统(1400)还可以包括通往一个或至少两个通信网络的接口。例如,网络可以是无线的、有线的、光学的。网络还可为局域网、广域网、城域网、车载网络和工业网络、实时网络、延迟容忍网络等等。网络还包括以太网、无线局域网、蜂窝网络(GSM、3G、4G、5G、LTE等)等局域网、电视有线或无线广域数字网络(包括有线电视、卫星电视、和地面广播电视)、车载和工业网络(包括CANBus)等等。某些网络通常需要外部网络接口适配器,用于连接到某些通用数据端口或外围总线(1449)(例如,计算机系统(1400)的USB端口);其它系统通常通过连接到如下所述的系统总线集成到计算机系统(1400)的核心(例如,以太网接口集成到PC计算机系统或蜂窝网络接口集成到智能电话计算机系统)。通过使用这些网络中的任何一个,计算机系统(1400)可以与其它实体进行通信。所述通信可以是单向的,仅用于接收(例如,无线电视),单向的仅用于发送(例如CAN总线到某些CAN总线设备),或双向的,例如通过局域或广域数字网络到其它计算机系统。上述的每个网络和网络接口可使用某些协议和协议栈。
上述的人机界面设备、人可访问的存储设备以及网络接口可以连接到计算机系统(1400)的核心(1440)。
核心(1440)可包括一个或至少两个中央处理单元(CPU)(1441)、图形处理单元(GPU)(1442)、以现场可编程门阵列(FPGA)(1443)形式的专用可编程处理单元、用于特定任务的硬件加速器(1444)等。这些设备以及只读存储器(ROM)(1445)、随机存取存储器(1446)、内部大容量存储器(例如内部非用户可存取硬盘驱动器、固态硬盘等)(1447)等可通过系统总线(1448)进行连接。在某些计算机系统中,可以以一个或至少两个物理插头的形式访问系统总线(1448),以便可通过额外的中央处理单元、图形处理单元等进行扩展。外围装置可直接附接到核心的系统总线(1448),或通过外围总线(1449)进行连接。外围总线的体系结构包括外部控制器接口PCI、通用串行总线USB等。
CPU(1441)、GPU(1442)、FPGA(1443)和加速器(1444)可以执行某些指令,这些指令组合起来可以构成上述计算机代码。该计算机代码可以存储在ROM(1445)或RAM(1446)中。过渡数据也可以存储在RAM(1446)中,而永久数据可以存储在例如内部大容量存储器(1447)中。通过使用高速缓冲存储器可实现对任何存储器设备的快速存储和检索,高速缓冲存储器可与一个或至少两个CPU(1441)、GPU(1442)、大容量存储器(1447)、ROM(1445)、RAM(1446)等紧密关联。
所述计算机可读介质上可具有计算机代码,用于执行各种计算机实现的操作。介质和计算机代码可以是为本申请的目的而特别设计和构造的,也可以是计算机软件领域的技术人员所熟知和可用的介质和代码。
作为实施例而非限制,具有体系结构(1400)的计算机系统,特别是核心(1440),可以作为处理器(包括CPU、GPU、FPGA、加速器等)提供执行包含在一个或至少两个有形的计算机可读介质中的软件的功能。这种计算机可读介质可以是与上述的用户可访问的大容量存储器相关联的介质,以及具有非易失性的核心(1440)的特定存储器,例如核心内部大容量存储器(1447)或ROM(1445)。实现本申请的各种实施例的软件可以存储在这种设备中并且由核心(1440)执行。根据特定需要,计算机可读介质可包括一个或一个以上存储设备或芯片。该软件可以使得核心(1440)特别是其中的处理器(包括CPU、GPU、FPGA等)执行本文所述的特定过程或特定过程的特定部分,包括定义存储在RAM(1446)中的数据结构以及根据软件定义的过程来修改这种数据结构。另外或作为替代,计算机系统可以提供逻辑硬连线或以其它方式包含在电路(例如,加速器(1444))中的功能,该电路可以代替软件或与软件一起运行以执行本文所述的特定过程或特定过程的特定部分。在适当的情况下,对软件的引用可以包括逻辑,反之亦然。在适当的情况下,对计算机可读介质的引用可包括存储执行软件的电路(如集成电路(IC)),包含执行逻辑的电路,或两者兼备。本申请包括任何合适的硬件和软件组合。
附录A:首字母缩略词
JEM:联合开发模式
VVC:通用视频编码
BMS:基准集合
MV:运动向量
HEVC:高效视频编码
SEI:补充增强信息
VUI:视频可用性信息
GOP:图片组
TU:变换单元
PU:预测单元
CTU:编码树单元
CTB:编码树块
PB:预测块
HRD:假设参考解码器
SNR:信噪比
CPU:中央处理单元
GPU:图形处理单元
CRT:阴极射线管
LCD:液晶显示
OLED:有机发光二极管
CD:光盘
DVD:数字化视频光盘
ROM:只读存储器
RAM:随机存取存储器
ASIC:专用集成电路
PLD:可编程逻辑设备
LAN:局域网
GSM:全球移动通信系统
LTE:长期演进
CANBus:控制器局域网络总线
USB:通用串行总线
PCI:外围设备互连
FPGA:现场可编程门阵列
SSD:固态驱动器
IC:集成电路
CU:编码单元
虽然本申请已对至少两个示例性实施例进行了描述,但实施例的各种变更、排列和各种等同替换均属于本申请的范围内。因此应理解,本领域技术人员能够设计多种系统和方法,所述系统和方法虽然未在本文中明确示出或描述,但其体现了本申请的原则,因此属于本申请的精神和范围之内。
Claims (20)
1.一种视频解码方法,包括:
从已编码视频码流中解码得到第一关键图片中的第一编码块的第一预测信息,所述第一关键图片是视频序列中的多个关键图片中的一个,所述第一关键图片包括第一帧内编码区域和第一帧间编码区域,所述第一预测信息指示所述第一编码块处于所述第一帧内编码区域中还是处于所述第一帧间编码区域中;
当所述第一预测信息指示所述第一编码块处于所述第一帧内编码区域中时,基于所述第一帧内编码区域,重建所述第一编码块的至少一个样本;及,
当所述第一预测信息指示所述第一编码块处于所述第一帧间编码区域中时,基于与所述第一帧间编码区域不同的区域,重建所述第一编码块的至少一个样本。
2.根据权利要求1所述的方法,还包括:
从所述已编码视频码流中解码得到第二关键图片中的第二编码块的第二预测信息,所述第二关键图片是所述多个关键图片中的一个,所述第二关键图片包括第二帧内编码区域和第二帧间编码区域,所述第二预测信息指示所述第二编码块处于所述第二帧内编码区域中还是处于所述第二帧间编码区域中;
当所述第二预测信息指示所述第二编码块处于所述第二帧内编码区域中时,基于所述第二帧内编码区域,重建所述第二编码块的至少一个样本;
当所述第二预测信息指示所述第二编码块处于所述第二帧间编码区域中时,基于与所述第二帧间编码区域不同的区域,重建所述第二编码块的至少一个样本。
3.根据权利要求2所述的方法,其中,所述多个关键图片是所述视频序列中按照解码顺序连续的多个图片。
4.根据权利要求1所述的方法,其中,所述多个关键图片包括多个帧内编码区域和多个帧间编码区域,每个帧内编码区域在相应的关键图片中具有相对位置,所述多个帧内编码区域包括所述第一帧内编码区域,所述多个帧间编码区域包括所述第一帧间编码区域;
各个帧内编码区域的相对位置不同。
5.根据权利要求4所述的方法,其中,所述多个帧内编码区域的大小之和等于所述第一关键图片的大小。
6.根据权利要求1所述的方法,其中,所述第一帧内编码区域为条带、图块、图块组中的任一个。
7.根据权利要求1所述的方法,其中,所述第一预测信息进一步指示,所述第一帧间编码区域处于先前随机存取间隔中,所述第一帧内编码区域处于当前随机存取间隔中,随机存取点将所述先前随机存取间隔和所述当前随机存取间隔在所述视频序列中分开,所述第一关键图片是在所述多个关键图片中首先被重建的,所述与所述第二帧间编码区域不同的区域,处于所述先前随机存取间隔中,或者处于所述第一关键图片中。
8.根据权利要求7所述的方法,其中,所述第一关键图片包括至少一个帧内编码区域,所述至少一个帧内编码区域包括所述第一帧内编码区域;
所述多个关键图片包括第二关键图片,所述第二关键图片包括第二帧内编码区域和第二帧间编码区域,所述第二帧间编码区域是在所述第二帧内编码区域之后解码得到的,所述第二关键图片是所述多个关键图片中第二个被重建的;
所述方法还包括:
确定所述至少一个帧内编码区域中有至少一个帧内编码区域在所述第一关键图片中的相对位置,与所述第二帧间编码区域在所述第二关键图片中的相对位置,是否相同;
当所述至少一个帧内编码区域中有至少一个帧内编码区域与所述第二帧间编码区域处于相同的相对位置时,仅在所述至少一个帧内编码区域中有至少一个帧内编码区域与所述第二帧内编码区域都处于所述当前随机存取间隔中时,基于所述至少一个帧内编码区域或者所述第二帧内编码区域,对所述第二帧间编码区域进行解码;
当所述至少一个帧内编码区域中没有一个帧内编码区域与所述第二帧间编码区域处于相同的相对位置时,基于如下任一个对所述第二帧间编码区域进行解码:所述先前随机存取间隔、所述第一关键图片、所述第二帧内编码区域。
9.根据权利要求1所述的方法,其中,所述第一预测信息进一步指示,所述第一关键图片是在所述视频序列中随机存取点的随机存取间隔中首先被重建的,并且所述随机存取点的所述随机存取间隔从所述第一帧内编码区域开始。
10.根据权利要求9所述的方法,其中,所述多个关键图片包括多个帧内编码区域和多个帧间编码区域,所述多个帧内编码区域包括所述第一帧内编码区域,所述多个帧间编码区域包括所述第一帧间编码区域;
所述与所述第二帧间编码区域不同的区域为所述第一帧内编码区域;
所述方法还包括:
仅基于所述随机接入间隔,对所述第一帧间编码区域之外的剩余帧间编码区域进行解码。
11.一种视频解码装置,包括处理电路,用于:
从已编码视频码流中解码得到第一关键图片中的第一编码块的第一预测信息,所述第一关键图片是视频序列中的多个关键图片中的一个,所述第一关键图片包括第一帧内编码区域和第一帧间编码区域,所述第一预测信息指示所述第一编码块处于所述第一帧内编码区域中还是处于所述第一帧间编码区域中;
当所述第一预测信息指示所述第一编码块处于所述第一帧内编码区域中时,基于所述第一帧内编码区域,重建所述第一编码块的至少一个样本;及,
当所述第一预测信息指示所述第一编码块处于所述第一帧间编码区域中时,基于与所述第一帧间编码区域不同的区域,重建所述第一编码块的至少一个样本。
12.根据权利要求11所述的装置,其中,所述处理电路进一步用于:
从所述已编码视频码流中解码得到第二关键图片中的第二编码块的第二预测信息,所述第二关键图片是所述多个关键图片中的一个,所述第二关键图片包括第二帧内编码区域和第二帧间编码区域,所述第二预测信息指示所述第二编码块处于所述第二帧内编码区域中还是处于所述第二帧间编码区域中;
当所述第二预测信息指示所述第二编码块处于所述第二帧内编码区域中时,基于所述第二帧内编码区域,重建所述第二编码块的至少一个样本;
当所述第二预测信息指示所述第二编码块处于所述第二帧间编码区域中时,基于与所述第二帧间编码区域不同的区域,重建所述第二编码块的至少一个样本。
13.根据权利要求12所述的装置,其中,所述多个关键图片是所述视频序列中按照解码顺序连续的多个图片。
14.根据权利要求11所述的装置,其中,所述多个关键图片包括多个帧内编码区域和多个帧间编码区域,每个帧内编码区域在相应的关键图片中具有相对位置,所述多个帧内编码区域包括所述第一帧内编码区域,所述多个帧间编码区域包括所述第一帧间编码区域;
各个帧内编码区域的相对位置不同。
15.根据权利要求14所述的装置,其中,所述多个帧内编码区域的大小之和等于所述第一关键图片的大小。
16.根据权利要求11所述的装置,其中,所述第一帧内编码区域为条带、图块、图块组中的任一个。
17.根据权利要求11所述的装置,其中,所述第一预测信息进一步指示,所述第一帧间编码区域处于先前随机存取间隔中,所述第一帧内编码区域处于当前随机存取间隔中,随机存取点将所述先前随机存取间隔和所述当前随机存取间隔在所述视频序列中分开,所述第一关键图片是在所述多个关键图片中首先被重建的,所述与所述第二帧间编码区域不同的区域,处于所述先前随机存取间隔中,或者处于所述第一关键图片中。
18.根据权利要求1所述的装置,其中,所述第一预测信息进一步指示,所述第一关键图片是在所述视频序列中随机存取点的随机存取间隔中首先被重建的,并且所述随机存取点的所述随机存取间隔从所述第一帧内编码区域开始。
19.根据权利要求18所述的装置,其中,所述多个关键图片包括多个帧内编码区域和多个帧间编码区域,所述多个帧内编码区域包括所述第一帧内编码区域,所述多个帧间编码区域包括所述第一帧间编码区域;
所述与所述第二帧间编码区域不同的区域为所述第一帧内编码区域;
所述处理电路进一步用于:
仅基于所述随机接入间隔,对所述第一帧间编码区域之外的剩余帧间编码区域进行解码。
20.一种非暂时性计算机可读介质,其上存储有指令,当所述指令由计算机执行时,使得所述计算机针对视频解码实现:
从已编码视频码流中解码得到第一关键图片中的第一编码块的第一预测信息,所述第一关键图片是视频序列中的多个关键图片中的一个,所述第一关键图片包括第一帧内编码区域和第一帧间编码区域,所述第一预测信息指示所述第一编码块处于所述第一帧内编码区域中还是处于所述第一帧间编码区域中;
当所述第一预测信息指示所述第一编码块处于所述第一帧内编码区域中时,基于所述第一帧内编码区域,重建所述第一编码块的至少一个样本;及,
当所述第一预测信息指示所述第一编码块处于所述第一帧间编码区域中时,基于与所述第一帧间编码区域不同的区域,重建所述第一编码块的至少一个样本。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/433,746 US10735745B1 (en) | 2019-06-06 | 2019-06-06 | Method and apparatus for video coding |
US16/433,746 | 2019-06-06 | ||
PCT/US2020/033132 WO2020247164A1 (en) | 2019-06-06 | 2020-05-15 | Method and apparatus for video coding |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113796082A true CN113796082A (zh) | 2021-12-14 |
CN113796082B CN113796082B (zh) | 2024-02-09 |
Family
ID=71838962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080033659.0A Active CN113796082B (zh) | 2019-06-06 | 2020-05-15 | 视频解码方法、装置、计算机设备及存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10735745B1 (zh) |
EP (1) | EP3932071A4 (zh) |
CN (1) | CN113796082B (zh) |
WO (1) | WO2020247164A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230024288A1 (en) * | 2021-07-13 | 2023-01-26 | Tencent America LLC | Feature-based multi-view representation and coding |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020106023A1 (en) * | 2001-02-07 | 2002-08-08 | O'neill Thomas | Distributed intraframe transmission in digital video compression |
JP2003092760A (ja) * | 2001-09-18 | 2003-03-28 | Mega Chips Corp | 画像圧縮符号化方法、画像配信方法、およびそれらのプログラム |
US20040218673A1 (en) * | 2002-01-03 | 2004-11-04 | Ru-Shang Wang | Transmission of video information |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2002239237A1 (en) | 2000-10-10 | 2002-06-03 | Broadcom Corporation | System and method for special reproduction modes of a digitally encoded video data stream |
US7599438B2 (en) * | 2003-09-07 | 2009-10-06 | Microsoft Corporation | Motion vector block pattern coding and decoding |
US7609762B2 (en) * | 2003-09-07 | 2009-10-27 | Microsoft Corporation | Signaling for entry point frames with predicted first field |
US9872045B2 (en) * | 2006-10-16 | 2018-01-16 | Conversant Wireless Licensing S.A R.L. | Method, electronic device, system, computer program product and circuit assembly for reducing error in video coding |
JP4875007B2 (ja) * | 2007-02-09 | 2012-02-15 | パナソニック株式会社 | 動画像符号化装置、動画像符号化方法、及び、動画像復号化装置 |
US8340510B2 (en) * | 2009-07-17 | 2012-12-25 | Microsoft Corporation | Implementing channel start and file seek for decoder |
US8711933B2 (en) * | 2010-08-09 | 2014-04-29 | Sony Computer Entertainment Inc. | Random access point (RAP) formation using intra refreshing technique in video coding |
US9635385B2 (en) * | 2011-04-14 | 2017-04-25 | Texas Instruments Incorporated | Methods and systems for estimating motion in multimedia pictures |
US20120287987A1 (en) * | 2011-05-13 | 2012-11-15 | Madhukar Budagavi | Coding of Scene Changes Using Picture Dropping |
US9451254B2 (en) * | 2013-07-19 | 2016-09-20 | Qualcomm Incorporated | Disabling intra prediction filtering |
KR101785886B1 (ko) * | 2014-02-03 | 2017-10-16 | 미쓰비시덴키 가부시키가이샤 | 화상 부호화 장치, 화상 복호 장치, 부호화 스트림 변환 장치, 화상 부호화 방법, 및 화상 복호 방법 |
WO2015192989A1 (en) * | 2014-06-18 | 2015-12-23 | Telefonaktiebolaget L M Ericsson (Publ) | Robust encoding and decoding of pictures in video |
-
2019
- 2019-06-06 US US16/433,746 patent/US10735745B1/en active Active
-
2020
- 2020-05-15 WO PCT/US2020/033132 patent/WO2020247164A1/en unknown
- 2020-05-15 CN CN202080033659.0A patent/CN113796082B/zh active Active
- 2020-05-15 EP EP20819142.9A patent/EP3932071A4/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020106023A1 (en) * | 2001-02-07 | 2002-08-08 | O'neill Thomas | Distributed intraframe transmission in digital video compression |
JP2003092760A (ja) * | 2001-09-18 | 2003-03-28 | Mega Chips Corp | 画像圧縮符号化方法、画像配信方法、およびそれらのプログラム |
US20040218673A1 (en) * | 2002-01-03 | 2004-11-04 | Ru-Shang Wang | Transmission of video information |
Also Published As
Publication number | Publication date |
---|---|
WO2020247164A1 (en) | 2020-12-10 |
CN113796082B (zh) | 2024-02-09 |
EP3932071A1 (en) | 2022-01-05 |
EP3932071A4 (en) | 2022-07-13 |
US10735745B1 (en) | 2020-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111869212B (zh) | 视频解码方法、装置和可读介质 | |
CN111903131B (zh) | 用于解码器中的视频解码的方法、装置及计算机可读介质 | |
CN112470478B (zh) | 视频解码方法、装置和计算机设备 | |
CN110771168B (zh) | 视频解码的方法、装置和存储介质 | |
CN111937387A (zh) | 用于采用并行处理的基于历史的运动矢量的预测方法和装置 | |
CN112313952A (zh) | 用于视频编码的方法和设备 | |
CN113785564B (zh) | 视频编解码的方法和装置 | |
CN113557728A (zh) | 视频编解码方法和装置 | |
CN112055971A (zh) | 一种用于最可能模式导出的方法和装置 | |
CN113348668B (zh) | 一种视频解码方法、装置及存储介质 | |
CN113545084A (zh) | 用于帧内图片块补偿的统一块矢量预测 | |
CN113557527A (zh) | 通用视频编解码中色彩变换的方法和装置 | |
CN112514385B (zh) | 视频解码方法及装置、计算机设备和计算机可读介质 | |
CN111919440B (zh) | 用于视频解码的方法、装置和计算机可读介质 | |
CN114503570A (zh) | 视频编解码的方法和装置 | |
CN111901609A (zh) | 视频解码的方法和装置、计算机设备和存储介质 | |
CN110719462B (zh) | 视频解码方法、解码器、计算机可读存储介质以及计算机设备 | |
CN111988631A (zh) | 视频编码、解码的方法、装置以及存储介质 | |
CN112771869A (zh) | 小型编码块的简化合并列表构建 | |
CN113170208A (zh) | 帧内图片块补偿的色度去块滤波器 | |
CN113841412B (zh) | 视频编解码的方法、装置、计算机设备及存储介质 | |
CN113728649A (zh) | 用于视频编解码的方法和装置 | |
CN110708554A (zh) | 视频编解码的方法及装置 | |
CN110830800A (zh) | 视频解码方法、装置、计算机设备及存储介质 | |
CN113796082B (zh) | 视频解码方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |