CN113678457A - 视频流中的具有子区域划分的填充处理方法 - Google Patents

视频流中的具有子区域划分的填充处理方法 Download PDF

Info

Publication number
CN113678457A
CN113678457A CN202080027200.XA CN202080027200A CN113678457A CN 113678457 A CN113678457 A CN 113678457A CN 202080027200 A CN202080027200 A CN 202080027200A CN 113678457 A CN113678457 A CN 113678457A
Authority
CN
China
Prior art keywords
surround
video
picture
encoded
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202080027200.XA
Other languages
English (en)
Other versions
CN113678457B (zh
Inventor
崔秉斗
史蒂芬·文格尔
刘杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent America LLC filed Critical Tencent America LLC
Publication of CN113678457A publication Critical patent/CN113678457A/zh
Application granted granted Critical
Publication of CN113678457B publication Critical patent/CN113678457B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/563Motion estimation with padding, i.e. with filling of non-object values in an arbitrarily shaped picture block or region for estimation purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Polyesters Or Polycarbonates (AREA)

Abstract

本申请提供了一种用于视频编解码的方法、计算机程序和计算机系统。对与环绕填充过程对应的已编码语法元素进行解码。使用环绕填充过程重建至少一个已编码的当前图片。语法元素指示:用于环绕处理的偏移值;或左侧填充宽度信息和右侧填充宽度信息。一标志指示与环绕填充过程对应的语法元素是否存在于参数集中。参考图片中用于运动补偿预测的像素位置,是通过利用限幅过程来解释与环绕填充过程对应的语法元素而确定。

Description

视频流中的具有子区域划分的填充处理方法
相关申请的交叉引用
本申请要求2019年9月20日提交的、申请号为62/903,635的美国临时专利申请以及2020年9月14日提交的、申请号为17/019,692的美国专利申请的优先权,这两个专利申请的全部内容通过引用并入本申请中。
技术领域
本申请总体上涉及数据处理领域,特别是涉及视频编码和解码。
背景技术
使用具有运动补偿的图片间预测的视频编码和解码的例子已经有几十年了。未压缩的数字视频可以由一系列图片组成,每个图片具有一定的空间维度,例如,1920×1080个亮度样本和相关联的色度样本。所述一系列图片可以具有固定的或可变的图片速率(通俗也称为帧速率),例如,每秒60张图片或60Hz。未压缩的视频具有非常高的比特率要求。例如,每个样本8比特的1080p60 4:2:0视频(60Hz帧速率下的1920×1080亮度样本分辨率)需要接近1.5Gbit/s的带宽。这样的视频一个小时需要超过600GByte的存储空间。
视频编码和解码的一个目的可以是通过压缩来减少输入视频信号中的冗余。压缩可有助于降低上述带宽或存储空间的要求,在一些情况下,可降低两个或更多的数量级。无损压缩和有损压缩以及其组合均可以用于视频编码和解码。无损压缩是指可以由压缩的原始信号重建原始信号的精确副本的技术。当使用有损压缩时,重建的信号可能与原始信号不完全一致,但是原始信号与重建的信号之间的失真小得足以使重建的信号可以用于预期应用。有损压缩广泛应用于视频中。有损压缩容许的失真量取决于应用;例如,与电视分发应用的用户相比,某些消费者流式传输应用的用户可以容忍较高的失真。可实现的压缩比可以反映的是:可允许的/可容许的失真越高,可产生的压缩比越高。
视频编码器和解码器可利用来自若干广泛类别的技术,包括例如运动补偿、变换、量化及熵编解码,在下文将介绍其中的一些。
将已编码视频码流划分为用于在分组网络上传输的数据包的概念已经使用了数十年。早期,视频编解码标准和技术大多数的优化是用于面向机器人的传输和定义的码流。数据包打包发生在例如以实时传输协议(RTP)有效载荷格式规定的系统层接口中。随着适于在因特网上大量使用视频的因特网连接性的出现,视频编解码标准通过视频编码层(VCL)和网络抽象层(NAL)的概念上的区别反映了这一突出的用例。NAL单元是在2003年引入H.264中的,并且从那时起已经被保留在某些视频编解码标准和技术中,仅有略微的修改。
在许多情况下,NAL单元可视为是解码器可作用于其上、而不必已经对已编码视频序列的所有先前NAL单元进行解码的最小实体。在此范围内,NAL单元使得某些差错恢复技术以及某些码流操纵技术,能够包括由诸如选择性转发单元(SFU)或多点控制单元(MCU)等媒体感知网络元件(MANE)进行的码流修剪。
图1描绘了根据H.264(101)和H.265(102)的NAL单元头的语法图的相关部分,在这两种情况下没有任何它们各自的扩展。在这两种情况下,forbidden_zero_bit是在某些系统层环境中用于防止起始码竞争的零位。nal_unit_type语法元素是指NAL单元携带的数据类型,其可以是例如某些条带类型、参数集类型、补充增强信息(SEI)消息等其中之一。H.265NAL单元头进一步包括nuh_layer_id和nuh_temporal_id_plus1,这两者指示NAL单元所属的已编码图片的空间/SNR和时间层。
可以观察到,NAL单元头仅包括可容易解析的固定长度码字,这些固定长度码字对于码流中的其它数据(例如,其它NAL单元头、参数集等)不具有任何解析依赖性。由于NAL单元头是NAL单元中的第一个八位字节,因此MANE可以容易地提取它们、解析它们并对它们起作用。相反,其它高级语法元素(例如,条带头或图块头)不易被MANE存取,因为它们可能需要保持参数集上下文和/或处理可变长度编码或算术编码的码点。
还可以观察到,如图1所示的NAL单元头不包括可以将NAL单元与由多个NAL单元(例如,包括多个图块或条带,其中至少一些被分组在单独的NAL单元中)组成的已编码图片相关联的信息。
诸如RTP(RFC 3550)、MPEG系统标准、ISO文件格式等等之类某些传输技术可以包括特定的信息,这些信息的形式通常为诸如呈现时间(在MPEG和ISO文件格式的情况下)或采集时间(在RTP的情况下)之类的定时信息,这些信息可以容易地被MANE存取并且可以帮助将它们各自的传输单元与已编码图片相关联。然而,不同传输/存储技术之间,这些信息的语义可能会不同,并且可能与视频编解码中使用的图片结构没有直接关系。因此,这些信息最多可以是启发式的,也可能不是特别适合于识别NAL单元流中的NAL单元是否属于相同的已编码图片。
发明内容
实施例涉及一种用于视频编解码的方法、系统和计算机可读介质。
根据一个方面,提供了一种视频编解码方法。该方法包括:对与环绕填充过程对应的已编码语法元素进行解码。使用环绕填充过程重建至少一个已编码的当前图片。所述语法元素指示:用于环绕处理的偏移值;或左侧填充宽度信息和右侧填充宽度信息。
根据另一个方面,提供了一种用于视频编解码的计算机系统。该计算机系统可以包括:一个或多个处理器;一个或多个计算机可读存储器;一个或多个计算机可读有形存储设备;以及存储在一个或多个存储设备中的至少一个之上、用于由所述一个或多个处理器中的至少一个通过所述一个或多个存储器中的至少一个执行的程序指令,从而使所述计算机系统能够执行一种方法。所述方法可以包括:对与环绕填充过程对应的已编码语法元素进行解码。使用环绕填充过程重建至少一个已编码的当前图片。所述语法元素指示:用于环绕处理的偏移值;或左侧填充宽度信息和右侧填充宽度信息。
根据再一个方面,提供了一种用于视频编解码的计算机可读介质。所述计算机可读介质可以包括一个或多个计算机可读存储设备以及存储在一个或多个有形存储设备上的程序指令,所述程序指令能够由处理器执行。所述程序指令能够由处理器执行,用于执行一种方法,该方法可以相应地包括:对与环绕填充过程对应的已编码语法元素进行解码。使用环绕填充过程重建至少一个已编码的当前图片。所述语法元素指示:用于环绕处理的偏移值;或左侧填充宽度信息和右侧填充宽度信息。
附图说明
从下面结合附图阅读的说明性实施例的详细描述中,这些和其它目的、特征和优点将会更清楚。附图的各种特征不是按比例绘制的,因为为了清楚起见,结合详细描述,这些图示有助于本领域技术人员的理解。在附图中:
图1是根据H.264和H.265的NAL单元头的示意图;
图2是根据实施例的通信系统的简化框图的示意图;
图3是根据实施例的通信系统的简化框图的示意图;
图4是根据实施例的解码器的简化框图的示意图;
图5是根据实施例的编码器的简化框图的示意图;
图6是根据实施例的用于偏移信令的语法元素的示意图;
图7是根据实施例的用于编码器的填充宽度信令的语法元素的示意图;
图8是根据实施例的每个子区域(图块或子图片)的填充处理的简化框图的示意图;
图9是根据实施例的用于每个子图片的填充偏移信令的语法元素的示意图;
图10是根据实施例的用于每个子图片的统一填充偏移信令的语法元素的示意图;以及
图11是根据实施例的计算机系统的示意图。
具体实施方式
本申请公开了所要求保护的结构和方法的详细实施例;然而,可理解的是,所公开的实施例仅仅是图示了可以以各种形式实施的所要求保护的结构和方法。然而,这些结构和方法可以以许多不同的形式来实施,并且不应当被解释为限于在此阐述的示例性实施例。相反,提供这些示例性实施例使得本申请会是详尽和完整的,并且会向本领域技术人员充分传达其范围。在描述中,可能省略了公知特征和技术的细节,以避免不必要地模糊所呈现的实施例。
实施例总体上涉及数据处理领域,尤其涉及视频编码和解码。以下描述的示例性实施例提供了一种系统、方法和计算机程序,尤其用于基于对已编码语法元素进行解码,使用环绕填充过程来重建已编码的当前图片。因此,一些实施例具有通过允许对要在压缩图片的重建中使用的语法元素进行编解码来改进计算领域的能力。
如前所述,视频编码和解码的一个目的可以是通过压缩减少输入视频信号中的冗余。压缩可有助于降低上述带宽或存储空间需求,在一些情况下,可降低两个数量级或更多。可以采用无损压缩和有损压缩,以及它们的组合。无损压缩是指可以由压缩的原始信号重建原始信号的精确副本的技术。当使用有损压缩时,重建的信号可能与原始信号不相同,但是原始信号和重建的信号之间的失真小到足以使重建的信号可用于预期应用。在视频的情况下,有损压缩被广泛采用。有损压缩容许的失真量取决于应用;例如,与电视分发应用的用户相比,某些消费者流式传输应用的用户可以容忍较高的失真。可实现的压缩比可以反映:越高的可允许的/可容许的失真,可产生越高的压缩比。然而,当图片被划分成一个或多个子区域(图块、条带或子图片)时,每个子区域的边界处理可能影响编解码效率和主观视觉质量。每个子区域边界的边界处理自适应控制是360°媒体处理中的关键因素。因此,基于对已编码语法元素进行解码,使用环绕填充过程来重建已编码的当前图片,可能是有利的。
本申请的各方面参考根据各个实施例的方法、装置(系统)和计算机可读介质的流程图图示和/或框图来描述。应当理解,流程图图示和/或框图的每个框以及流程图图示和/或框图中的框的组合可以由计算机可读程序指令来实现。
以下描述的示例性实施例提供了一种系统、方法和计算机程序,其使用基于对已编码语法元素进行解码的环绕填充过程来重建已编码的当前图片。
图2图示了用于支持已编码视频的双向传输的第二对终端(230,240),所述已编码视频的双向传输可例如在视频会议期间发生。对于双向数据传输,终端(230,240)中的每个终端可对本地位置采集的视频数据进行编码,以通过网络(250)传输到另一终端。终端(230,240)中的每个终端还可接收由另一终端传输的已编码视频数据,且可对所述已编码数据进行解码,并可在本地显示装置上显示恢复的视频数据。
在图2中,终端(210-240)可能图示为服务器、个人计算机和智能电话,但本申请公开的原理可不限于此。本申请公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络(250)表示在终端(210-240)之间传送已编码视频数据的任何数目的网络,包括例如有线和/或无线通信网络。通信网络(250)可在电路交换和/或分组交换信道中交换数据。代表性的网络包括电信网络、局域网、广域网和/或互联网。出于本申请论述的目的,除非在下文中有所解释,否则网络(250)的架构和拓扑对于本申请公开的操作来说可能是无关紧要的。
作为本申请所公开主题应用的示例,图3示出了视频编码器和视频解码器在流式传输环境中的放置方式。本申请所公开主题可同等地适用于其它支持视频的应用,包括例如视频会议、数字TV、在包括CD、DVD、存储棒等的数字介质上存储压缩视频等等。
流式传输系统可包括采集子系统(313),所述采集子系统(313)可包括数码相机等视频源(301),所述视频源(301)用于创建例如未压缩的视频样本流(302)。样本流(302)被描绘为粗线,以强调与已编码的视频码流相比,其具有高数据量,样本流(302)可由耦接在相机(301)上的编码器(303)处理。编码器(303)可包括硬件、软件或软硬件组合,以实现或实施如下文更详细地描述的所公开主题的各方面。已编码的视频码流(304)被描绘为细线,以强调与样本流相比,其具有较低的数据量,已编码的视频码流(304)可存储在流式传输服务器(305)上以供将来使用。至少一个流式传输客户端(306,308)可访问流式传输服务器(305),以检索已编码的视频码流(304)的副本(307,309)。客户端(306)可包括视频解码器(310)。视频解码器(310)对已编码的视频码流的传入副本(307)进行解码,且产生可在显示器(312)或其它呈现装置(未描绘)上呈现的输出视频样本流(311)。在一些流式传输系统中,可根据某些视频编码/压缩标准,对视频码流(304,307,309)进行编码。该些标准的示例包括ITU-T H.265建议书。正在开发的视频编码标准非正式地称为通用视频编码(Versatile Video Coding,VVC),本申请所公开主题可用于VVC标准的上下文中。
图4可以是根据本申请实施例的视频解码器(310)的框图。
接收器(410)可接收将由解码器(310)解码的至少一个编解码视频序列;在同一实施例或另一实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的解码独立于其它已编码视频序列。可从信道(412)接收已编码视频序列,所述信道可以是通向存储已编码的视频数据的存储装置的硬件/软件链路。接收器(410)可接收已编码的视频数据以及其它数据,例如,可转发到它们各自的使用实体(未绘出)的已编码音频数据和/或辅助数据流。接收器(410)可将已编码视频序列与其它数据分开。为了防止网络抖动,缓冲存储器(415)可耦接在接收器(410)与熵解码器/解析器(420)(此后称为“解析器”)之间。当接收器(410)从具有足够带宽和可控性的存储/转发装置,或从等时同步网络接收数据时,也可能不需要配置缓冲器(415),或者所述缓冲器可以很小。为了在互联网等尽力而为业务分组网络上使用,也可能需要缓冲器(415),所述缓冲器可相对较大且可具有自适应性大小。
视频解码器(310)可包括解析器(420),以根据已熵编码视频序列重建符号(421)。这些符号的类别包括用于管理解码器(410)的操作的信息,以及潜在包括用以控制显示器(312)等显示装置的信息,所述显示装置不是解码器的组成部分,但可耦接到解码器,如图3中所示。用于显示装置的控制信息可以是辅助增强信息(Supplemental EnhancementInformation,SEI消息)或视频可用性信息(Video Usability Information,VUI)的参数集片段(未绘出)。解析器(420)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编码可根据视频编码技术或标准进行,且可遵循本领域技术人员所知的各种原理,包括可变长度编码、霍夫曼编码(Huffman coding)、具有或不具有上下文灵敏度的算术编码等等。解析器(420)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group ofPictures,GOP)、图片、图块(tile)、条带(slice)、宏块、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。熵解码器/解析器还可从已编码视频序列提取信息,例如变换系数、量化器参数(QP)值、运动矢量等等。
解析器(420)可对从缓冲器(415)接收的视频序列执行熵解码/解析操作,从而创建符号(421)。
符号(421)的重建可涉及多个不同单元,取决于已编码视频图片或其部分(诸如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其它因素。涉及哪些单元以及涉及方式可由解析器(420)从已编码视频序列解析的子群控制信息控制。为了清楚起见,未描述解析器(420)与下文的多个单元之间的此类子群控制信息流。
除已经提及的功能块以外,解码器310可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施中,这些单元中的许多单元彼此紧密交互并且可以彼此集成。然而,出于描述本申请所公开主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(451)。缩放器/逆变换单元(451)从解析器(420)接收作为符号(421)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(451)可输出包括样本值的块,所述样本值可输入到聚合器(455)中。
在一些情况下,缩放器/逆变换单元(451)的输出样本可属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元(452)提供。在一些情况下,帧内图片预测单元(452)采用从当前(已部分重建的)图片(458)提取的周围已重建信息,生成大小和形状与正在重建的块相同的块。在一些情况下,聚合器(455)基于每个样本,将帧内预测单元(452)生成的预测信息添加到由缩放器/逆变换单元(451)提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元(451)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(453)可访问参考图片存储器(457)以提取用于预测的样本。在根据与所述块相关的符号(421)对提取的样本进行运动补偿之后,这些样本可由聚合器(455)添加到缩放器/逆变换单元的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元从参考图片存储器内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(421)的形式而供运动补偿预测单元使用,所述符号(421)例如是包括X、Y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器提取的样本值的内插、运动矢量预测机制等等。
聚合器(455)的输出样本可在环路滤波器单元(456)中经过各种环路滤波技术处理。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频码流中的参数,且所述参数作为来自解析器(420)的符号(421)可用于环路滤波器单元(456)。然而,在其它实施例中,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(456)的输出可以是样本流,所述样本流可输出到显示装置(312)以及存储在参考图片存储器,以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。一旦已编码图片被完全重建,且已编码图片(通过例如解析器(420))被识别为参考图片,则当前参考图片(456)可变为参考图片存储器(457)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片存储器。
视频解码器(420)可根据例如ITU-T H.265建议书中记载的预定视频压缩技术执行解码操作。在已编码视频序列遵循视频压缩技术或标准的语法的意义上,如视频压缩技术文档或标准以及特别是其中的配置文件中所规定,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。对于合规性而言,已编码视频序列的复杂度必须处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片尺寸、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片尺寸等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical ReferenceDecoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
在实施例中,接收器(410)可连同已编码视频一起接收附加(冗余)数据。所述附加数据可以是已编码视频序列的一部分。所述附加数据可由视频解码器(420)使用,用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signal noise ratio,SNR)增强层、冗余切片、冗余图片、前向纠错码等形式。
图5是根据本申请公开的实施例的视频编码器(803)的框图。
编码器(303)可从视频源(301)(并非编码器的一部分)接收视频样本,所述视频源可采集将由编码器(303)编码的视频图像。
视频源(301)可提供将由编码器(303)编码的呈数字视频样本流形式的源视频序列,所述数字视频样本流可具有任何合适位深度(例如:8位、10位、12位……)、任何色彩空间(例如BT.601Y CrCB、RGB……)和任何合适取样结构(例如Y CrCb 4:2:0、Y CrCb 4:4:4)。在媒体服务系统中,视频源(301)可以是存储先前已准备好的视频的存储装置。在视频会议系统中,视频源(303)可以是采集本地图像信息作为视频序列的相机。可将视频数据提供为多个单独的图片,当按顺序观看时,这些图片被赋予运动。图片自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括至少一个样本。所属领域的技术人员可以很容易理解像素与样本之间的关系。下文侧重于描述样本。
根据实施例,编码器(303)可实时或在由应用所要求的任何其它时间约束下,将源视频序列的图片编码且压缩成已编码视频序列(543)。施行适当的编码速度是控制器(550)的一个功能。控制器控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了清楚起见,图中未标示耦接。由控制器设置的参数可包括速率控制相关参数(图片跳过、量化器、率失真优化技术的λ值等)、图片尺寸、图片群组(group of pictures,GOP)布局,最大运动矢量搜索范围等。本领域技术人员可识别控制器(550)的其他功能,因为这些功能可能涉及针对某一系统设计优化的视频编码器(303)。
一些视频编码器在本领域技术人员容易识别出的“编码环路”中进行操作。作为简单的描述,编码环路可包括编码器(530)(下文称为“源编码器”)的编码部分(负责基于待编码的输入图片和参考图片创建符号)和嵌入于编码器(303)中的(本地)解码器(533)。解码器(533)重建符号,以创建(远程)解码器同样会创建的样本数据(因为在本申请所公开主题所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩都是无损的)。将重建的样本流输入到参考图片存储器(534)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片缓冲器中的内容在本地编码器与远程编码器之间也是按位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)对于本领域技术人员而言,也是熟知的。
“本地”解码器(533)的操作可与已在上文结合图4详细描述的“远程”解码器(310)相同。然而,另外简要参考图4,当符号可用且熵编码器(545)和解析器(420)能够无损地将符号编码/解码为已编码视频序列时,解码器(310)的熵解码部分,包括信道(412)、接收器(410)、缓冲器(415)和解析器(420),可以不是全部在本地解码器(533)中实现。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式,存在于对应的编码器中。处于这个原因,本申请主题着重于解码器的操作。可简化编码器技术的描述,因为编码器技术与全面地描述的解码器技术互逆。仅在某些区域中需要更详细的描述,在下文提供。
作为其操作的一部分,源编码器(530)可执行运动补偿预测编码,参考来自视频序列中被指定为“参考帧”的至少一个先前已编码帧,对输入帧进行预测性编码。以此方式,编码引擎(532)对输入帧的像素块与参考帧的像素块之间的差异进行编码,所述参考帧可被选作所述输入帧的预测参考。
本地视频解码器(533)可基于源编码器(530)创建的符号,对可指定为参考帧的帧的已编码视频数据进行解码。编码引擎(532)的操作可为有损过程。当已编码视频数据可在视频解码器(图5中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(533)复制解码过程,所述解码过程可由视频解码器对参考帧执行,且可使重建的参考帧存储在参考图片高速缓存(534)中。以此方式,编码器(303)可在本地存储重建的参考帧的副本,所述副本与将由远端视频解码器获得的重建参考帧具有共同内容(不存在传输误差)。
预测器(535)可针对编码引擎(532)执行预测搜索。即,对于将要编码的新帧,预测器(535)可在参考图片存储器(534)中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器(535)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(535)获得的搜索结果,可确定输入图片可具有从参考图片存储器(534)中存储的多个参考图片取得的预测参考。
控制器(550)可管理视频编码器(530)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(545)中对所有上述功能单元的输出进行熵编码。熵编码器根据例如霍夫曼编码、可变长度编码、算术编码等技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
传输器(540)可缓冲由熵编码器(545)创建的已编码视频序列,从而为通过通信信道(560)进行传输做准备,所述通信信道可以是通向将存储已编码的视频数据的存储装置的硬件/软件链路。传输器(540)可将来自视频编码器(530)的已编码视频数据与要传输的其它数据合并,所述其它数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
控制器(550)可管理编码器(303)的操作。在编码期间,控制器(550)可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种帧类型:
帧内图片(I图片),其可以是不将序列中的任何其它帧用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,“IDR”)图片。所属领域的技术人员了解I图片的变体及其相应的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成多个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其它块。举例来说,I图片的块可进行非预测编码,或所述块可参考同一图片的已经编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行非预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行非预测编码。
视频编码器(303)可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(303)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
在实施例中,传输器(540)可在传输已编码的视频时传输附加数据。视频编码器(530)可将此类数据作为已编码视频序列的一部分。附加数据可包括时间/空间/SNR增强层、冗余图片和切片等其它形式的冗余数据、SEI消息、VUI参数集片段等。
在实施例中,360°视频由一组摄像机或具有多个镜头的摄像机设备采集。摄像机通常覆盖摄像机组中心点周围的全方向。将同一时刻的图像进行拼接、有可能进行旋转、投影和映射到图片上。根据特定的媒体容器文件格式,将打包的图片编码为已编码视频码流,并且进行流式传输。所述文件包括元数据,例如投影信息和打包信息。
在实施例中,可以使用等角投影(ERP)将360°视频投影为2D视频。ERP投影可能会导致接缝伪影。填充ERP(PERP)格式可以有效地减少涵盖ERP图片的左边界和右边界的重建视口中的接缝伪影。然而,填充和混合可能不足以完全解决接缝问题。
在实施例中,水平几何填充可应用于ERP或PERP,以减少接缝伪影。用于PERP的填充过程可以与用于ERP的填充过程相同,除了其偏移可能是基于未填充的ERP宽度,而不是图片宽度,以考虑填充区域的大小。如果参考块在左侧(右侧)参考图片边界之外,则其可以用向右侧(左侧)移位ERP宽度的“环绕”(wrapped-around)参考块来代替。可以在垂直方向上采用传统的重复填充。左侧填充区域和右侧填充区域的混合不在循环中,作为后处理操作。
在实施例中,在图6中示出了实现ERP格式和PERP格式的参考图片的水平几何填充的语法。
sps_ref_wraparound_enabled_flag(602)等于1,指定水平环绕运动补偿用于帧间预测。sps_ref_wraparound_enabled_flag等于0,指定不应用此运动补偿方法。
ref_wraparound_offset(603)指定用于计算水平环绕位置的亮度样本的偏移。ref_wraparound_offset应大于pic_width_in_luma_sample-1,不应大于pic_width_in_luma_samples,并且应为MinCbSizeY的整数倍。
在实施例中,在图7示出了实现ERP格式和PERP格式的参考图片的水平几何填充的语法元素。
sps_ref_wraparound_enabled_flag(702)等于1,指定水平环绕运动补偿用于帧间预测。sps_ref_wraparound_enabled_flag等于0,指定不应用此运动补偿方法。
left_wraparound_padding_width(703)指定亮度样本中左侧填充区域的宽度。ref_wraparound_offset应大于或等于0,应不大于pic_width_in_luma_samples/2,并且应为MinCbSizeY的整数倍。
right_wraparound_padding_width(704)指定亮度样本中右侧填充区域的宽度。ref_wraparound_offset应大于或等于0,应不大于pic_width_in_luma_samples/2,并且应为MinCbSizeY的整数倍。
现参考图8,描绘了图示用于对视频数据进行编码的方法900的步骤的操作流程图。
在901,方法900包括解析参数集。
在902,方法900包括对图片划分信息进行解码。
在903,方法900包括确定是否在子区域的边界应用填充。
在904,方法900包括:如果在子区域的边界应用填充,则解析填充类型。
在905,方法900包括:如果在子区域的边界不应用填充,则在不进行填充的情况下,对每个子区域进行解码。
在906,方法900包括确定是否应用环绕填充。
在907,方法900包括:如果应用环绕填充,则用环绕填充来填充子区域的边界。
在908,方法900包括:如果不应用环绕填充,则用非环绕填充来填充子区域的边界。
在实施例中,环绕偏移值可以通过以下推导过程获得:
如果ref_wraparound_offset存在
wrapAroundOffset=ref_wraparound_offset
否则,如果left_wraparound_padding_width和right_wraparound_padding_width存在
wrapAroundOffset=pic_width_in_luma_samples–(left_wraparound_padding_width+right_wraparound_padding_width)
否则
wrapAroundOffset=pic_width_in_luma_samples
在实施例中,为了实现ERP格式和PERP格式的参考图片的水平几何填充,可以修改亮度样本插值过程和色度样本插值过程。
Figure BDA0003292759620000121
Figure BDA0003292759620000122
亮度样本插值过程。该过程的输入可以包括:全样本单元中的亮度位置(xIntL,yIntL)、分数样本单元中的亮度位置(xFracL,yFracL)以及亮度参考样本阵列refPicLXL。该过程的输出可包括预测亮度样本值predSampleLXL
变量shift1、shift2和shift3的推导方式如下。变量shift1设置为等于Min(4,BitDepthY-8),变量shift2设置为等于6,并且变量shift3设置为等于Max(2,14-BitDepthY)。变量picW设置为等于pic_width_in_luma_samples,并且变量picH设置为等于pic_height_in_luma_samples。变量xOffset设置为等于wrapAroundOffset。可指定等于xFracL或yFracL的每一1/16分数样本位置p的亮度插值滤波器系数fL[p]。
预测亮度样本值predSampleLXL的推导方式如下。如果xFracL和yFracL都等于0,则以下适用。如果sps_ref_wraparound_enabled_flag等于0,则推出predSampleLXL的值为predSampleLXL=refPicLXL[Clip3(0,picW-1,xIntL)][Clip3(0,picH-1,yIntL)]<<shift3。否则,推导出predSampleLXL的值为:predSampleLXL=refPicLXL[ClipH(xOffset,picW,xIntL)][Clip3(0,picH-1,yIntL)]<<shift3。否则,如果xFracL不等于0且yFracL等于0,则以下适用。yPosL的值的推导方式为yPosL=Clip3(0,picH-1,yIntL)。
如果sps_ref_wraparound_enabled_flag等于0,则predSampleLXL的值的推导方式如下:
predSampleLXL
(fL[xFracL][0]*refPicLXL[Clip3(0,picW-1,xIntL-3)][yPosL]+fL[xFracL][1]*refPicLXL[Clip3(0,picW-1,xIntL-2)][yPosL]+fL[xFracL][2]*refPicLXL[Clip3(0,picW-1,xIntL-1)][yPosL]+fL[xFracL][3]*refPicLXL[Clip3(0,picW-1,xIntL)][yPosL]+fL[xFracL][4]*refPicLXL[Clip3(0,picW-1,xIntL+1)][yPosL]+fL[xFracL][5]*refPicLXL[Clip3(0,picW-1,xIntL+2)][yPosL]+fL[xFracL][6]*refPicLXL[Clip3(0,picW-1,xIntL+3)][yPosL]+fL[xFracL][7]*refPicLXL[Clip3(0,picW-1,xIntL+4)][yPosL])>>shift1
否则,predSampleLXL的值的推导方式如下:
predSampleLXL=(fL[xFracL][0]*refPicLXL[ClipH(xOffset,picW,xIntL-3)][yPosL]+fL[xFracL][1]*refPicLXL[ClipH(xOffset,picW,xIntL-2)][yPosL]+fL[xFracL][2]*refPicLXL[ClipH(xOffset,picW,xIntL-1)][yPosL]+fL[xFracL][3]*refPicLXL[ClipH(xOffset,picW,xIntL)][yPosL]+fL[xFracL][4]*refPicLXL[ClipH(xOffset,picW,xIntL+1)][yPosL]+fL[xFracL][5]*refPicLXL[ClipH(xOffset,picW,xIntL+2)][yPosL]+fL[xFracL][6]*refPicLXL[ClipH(xOffset,picW,xIntL+3)][yPosL]+fL[xFracL][7]*refPicLXL[ClipH(xOffset,picW,xIntL+4)][yPosL])>>shift。
否则,如果xFracL等于0且yFracL不等于0,则predSampleLXL的值的推导方式如下。如果sps_ref_wraparound_enabled_flag等于0,则xPosL的值的推导方式为xPosL=Clip3(0,picW-1,xIntL)。否则,xPosL的值的推导方式为:xPosL=ClipH(xOffset,picW,xIntL)。
预测亮度样本值predSampleLXL的推导方式如下:
predSampleLXL=(fL[yFracL][0]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL-3)]+fL[yFracL][1]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL-2)]+fL[yFracL][2]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL-1)]+fL[yFracL][3]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL)]+fL[yFracL][4]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL+1)]+fL[yFracL][5]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL+2)]+fL[yFracL][6]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL+3)]+fL[yFracL][7]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL+4)])>>shift1。
否则,如果xFracL不等于0且yFracL不等于0,则predSampleLXL的值的推导方式如下。如果sps_ref_wraparound_enabled_flag等于0,则样本数组temp[n](n=0..7)的推导方式如下:
yPosL=Clip3(0,picH-1,yIntL+n-3)
temp[n]=(fL[xFracL][0]*refPicLXL[Clip3(0,picW-1,xIntL-3)][yPosL]+fL[xFracL][1]*refPicLXL[Clip3(0,picW-1,xIntL-2)][yPosL]+fL[xFracL][2]*refPicLXL[Clip3(0,picW-1,xIntL-1)][yPosL]+fL[xFracL][3]*refPicLXL[Clip3(0,picW-1,xIntL)][yPosL]+fL[xFracL][4]*refPicLXL[Clip3(0,picW-1,xIntL+1)][yPosL]+fL[xFracL][5]*refPicLXL[Clip3(0,picW-1,xIntL+2)][yPosL]+fL[xFracL][6]*refPicLXL[Clip3(0,picW-1,xIntL+3)][yPosL]+fL[xFracL][7]*refPicLXL[Clip3(0,picW-1,xIntL+4)][yPosL])>>shift1。
否则,样本数组temp[n](n=0..7)的推导方式如下:
yPosL=Clip3(0,picH-1,yIntL+n-3)
temp[n]=(fL[xFracL][0]*refPicLXL[ClipH(xOffset,picW,xIntL-3)][yPosL]+fL[xFracL][1]*refPicLXL[ClipH(xOffset,picW,xIntL-2)][yPosL]+fL[xFracL][2]*refPicLXL[ClipH(xOffset,picW,xIntL-1)][yPosL]+fL[xFracL][3]*refPicLXL[ClipH(xOffset,picW,xIntL)][yPosL]+fL[xFracL][4]*refPicLXL[ClipH(xOffset,picW,xIntL+1)][yPosL]+fL[xFracL][5]*refPicLXL[ClipH(xOffset,picW,xIntL+2)][yPosL]+fL[xFracL][6]*refPicLXL[ClipH(xOffset,picW,xIntL+3)][yPosL]+fL[xFracL][7]*refPicLXL[ClipH(xOffset,picW,xIntL+4)][yPosL])>>shift1。
预测亮度样本值predSampleLXL的推导方式如下:
predSampleLXL=(fL[yFracL][0]*temp[0]+fL[yFracL][1]*temp[1]+fL[yFracL][2]*temp[2]+fL[yFracL][3]*temp[3]+fL[yFracL][4]*temp[4]+fL[yFracL][5]*temp[5]+fL[yFracL][6]*temp[6]+fL[yFracL][7]*temp[7])>>shift2。
色度样本插值过程。该过程的输入可包括全样本单元中的色度位置(xIntC,yIntC)、1/32分数样本单元中的色度位置(xFracC,yFracC)以及色度参考样本阵列refPicLXC。该过程的输出可包括预测色度样本值predSampleLXC
变量shift1、shift2和shift3的推导方式如下。变量shift1设置为等于Min(4,BitDepthC-8),变量shift2设置为等于6,并且变量shift3设置为等于Max(2,14-BitDepthC)。变量picWC设置为等于pic_width_in_luma_samples/SubWidthC,并且变量picHC设置为等于pic_height_in_luma_samples/SubHeightC。变量xOffsetC设置为等于wrapAroundOffset/SubWidthC。可指定等于xFracC或yFracC的每一1/32分数样本位置p的亮度插值滤波器系数fC[p]。
预测色度样本值predSampleLXC的推导方式如下。如果xFracC和yFracC都等于0,则以下适用。如果sps_ref_wraparound_enabled_flag等于0,则predSampleLXC的值的推导方式为:
predSampleLXC=refPicLXC[Clip3(0,picWC-1,xIntC)][Clip3(0,picHC-1,yIntC)]<<shift3。
否则,predSampleLXC的值的推导方式为predSampleLXC=refPicLXC[ClipH(xOffsetC,picWC,xIntC)][Clip3(0,picHC-1,yIntC)]<<shift3。
否则,如果xFracC不等于0且yFracC等于0,则以下适用。yPosC的值的推导方式为yPosC=Clip3(0,picHC-1,yIntC)。如果sps_ref_wraparound_enabled_flag等于0,则predSampleLXC的值的推导方式为:
predSampleLXC
(fC[xFracC][0]*refPicLXC[Clip3(0,picWC-1,xIntC-1)][yIntC]+fC[xFracC][1]*refPicLXC[Clip3(0,picWC-1,xIntC)][yIntC]+fC[xFracC][2]*refPicLXC[Clip3(0,picWC-1,xIntC+1)][yIntC]+fC[xFracC][3]*refPicLXC[Clip3(0,picWC-1,xIntC+2)][yIntC])>>shift1。
否则,predSampleLXC的值的推导方式为:
predSampleLXC
(fC[xFracC][0]*refPicLXC[ClipH(xOffsetC,picWC,xIntC-1)][yPosC]+fC[xFracC][1]*refPicLXC[ClipH(xOffsetC,picWC,xIntC)][yPosC]+fC[xFracC][2]*refPicLXC[ClipH(xOffsetC,picWC,xIntC+1)][yPosC]+fC[xFracC][3]*refPicLXC[ClipH(xOffsetC,picWC,xIntC+2)][yPosC])>>shift1。
否则,如果xFracC等于0且yFracC不等于0,则predSampleLXC的值的推导方式如下。如果sps_ref_wraparound_enabled_flag等于0,则xPosC的值的推导方式为:xPosC=Clip3(0,picWC-1,xIntC)。否则,xPosC的值的推导方式为:xPosC=ClipH(xOffsetC,picWC,xIntC)
预测色度样本值predSampleLXC的推导方式如下:
predSampleLXC
(fC[yFracC][0]*refPicLXC[xPosC][Clip3(0,picHC-1,yIntC-1)]+fC[yFracC][1]*refPicLXC[xPosC][Clip3(0,picHC-1,yIntC)]+fC[yFracC][2]*refPicLXC[xPosC][Clip3(0,picHC-1,yIntC+1)]+fC[yFracC][3]*refPicLXC[xPosC][Clip3(0,picHC-1,yIntC+2)])>>shift1。
否则,如果xFracC不等于0且yFracC不等于0,则predSampleLXC的值的推导方式如下。如果sps_ref_wraparound_enabled_flag等于0,则样本数组temp[n](n=0..3)的推导方式如下:
yPosC=Clip3(0,picHC-1,yIntC+n-1)
temp[n]=(fC[xFracC][0]*refPicLXC[Clip3(0,picWC-1,xIntC-1)][yPosC]+fC[xFracC][1]*refPicLXC[Clip3(0,picWC-1,xIntC)][yPosC]+fC[xFracC][2]*refPicLXC[Clip3(0,picWC-1,xIntC+1)][yPosC]+fC[xFracC][3]*refPicLXC[Clip3(0,picWC-1,xIntC+2)][yPosC])>>shift1。
否则,样本数组temp[n](n=0..3)的推导方式如下:
yPosC=Clip3(0,picHC-1,yIntC+n-1)
temp[n]=(fC[xFracC][0]*refPicLXC[ClipH(xOffsetC,picWC,xIntC-1)][yPosC]+fC[xFracC][1]*refPicLXC[ClipH(xOffsetC,picWC,xIntC)][yPosC]+fC[xFracC][2]*refPicLXC[ClipH(xOffsetC,picWC,xIntC+1)][yPosC]+fC[xFracC][3]*refPicLXC[ClipH(xOffsetC,picWC,xIntC+2)][yPosC])>>shift1。
预测色度样本值predSampleLXC的推导方式如下:
predSampleLXC=(fC[yFracC][0]*temp[0]+fC[yFracC][1]*temp[1]+fC[yFracC][2]*temp[2]+fC[yFracC][3]*temp[3])>>shift2。
在实施例中,如果sps_ref_wraparound_enabled_flag等于0或不存在,则可应用传统的重复填充。否则,可以应用环绕填充。
在实施例中,可以在水平边界和垂直边界应用环绕填充。高级语法结构中的标志可指示在水平方向上和垂直方向上两者均应用环绕填充。
在实施例中,可以在图块边界或图块组边界应用环绕填充。高级语法结构中的标志可指示在水平方向上和垂直方向上两者均应用环绕填充。
在实施例中,参考图片可以与用于运动补偿预测的当前图片相同。当当前图片是参考图片时,可以在当前图片的边界应用环绕填充。
在实施例中,当图片被划分成一个或多个子图片时,每个子图片的边界可以或可以不按图片边界处理,所述一个或多个子图片是一个或多个条带的矩形区域。将子图片视为图片表示可以填充每个子图片的边界,用于运动补偿预测。
参考图9,在SPS(或任何其它参数集)中,subpic_treated_as_pic_flag[i]等于1,指定CVS中的每个已编码图片的第i个子图片在解码过程中视为图片。subpic_treated_as_pic_flag[i]等于0,指定CVS中的每个已编码图片的第i个子图片在解码过程中不视为图片。当subpic_treated_as_pic_flag[i]不存在时,推断其值等于0。
在同一实施例中,当subpic_treated_as_pic_flag[i]等于1(其指示第i个子图片视为图片)时,用信号通知标志subpic_ref_wraparound_enabled_flag[i]。subpic_ref_wraparound_enabled_flag[i]等于1。subpic_ref_wraparound_enabled_flag[i]等于1,指定在帧间预测中在每个已编码图片的第i子图片的边界应用水平环绕运动补偿。sps_ref_wraparound_enabled_flag[i]等于0,指定在每个已编码图片的第i个子图片的边界不应用水平环绕运动补偿。
在同一实施例中,subpic_ref_wraparound_offset_minus1[i]加1指定每个已编码图片的第i个子图片的偏移,用于以MinCbSizeY亮度样本为单位,计算水平环绕位置。
在同一实施例中,插值滤波过程如下。亮度样本插值滤波过程。该过程的输入可包括全样本单元中的亮度位置(xIntL,yIntL)、分数样本单元中的亮度位置(xFracL,yFracL)、全样本单元中的亮度位置(xSbIntL,ySbIntL)(指定用于参考样本填充的限位块(boundingblock)的左上样本相对于参考图片的左上亮度样本)、亮度参考样本阵列refPicLXL、半样本插值滤波器索引hpelIfIdx、指定当前子块的宽度的变量sbWidth、指定当前子块的高度的变量sbHeight、以及指定当前子块的左上样本相对于当前图片的左上亮度样本的亮度位置(xSb,ySb)。该过程的输出可包括预测亮度样本值predSampleLXL
变量shift1、shift2和shift3的推导方式如下。变量shift1设置为等于Min(4,BitDepthY-8),变量shift2设置为等于6,并且变量shift3设置为等于Max(2,14-BitDepthY)。变量picW设置为等于pic_width_in_luma_samples,并且变量picH设置为等于pic_height_in_luma_samples。
等于xFracL或yFracL的每一1/16分数样本位置p的亮度插值滤波器系数fL[p]的推导方式如下。如果MotionModelIdc[xSb][ySb]大于0,且sbWidth及sbHeight均等于4,则可指定亮度插值滤波器系数fL[p]。否则,根据hpelIfIdx,在表8-11中指定亮度插值滤波器系数fL[p]。
全样本单元中的亮度位置(xInti,yInti)(i=0…7)的推导方式如下。如果subpic_treated_as_pic_flag[SubPicIdx]等于1,则以下适用:
xInti=Clip3(SubPicLeftBoundaryPos,SubPicRightBoundaryPos,
subpic_ref_wraparound_enabled_flag[SubPicIdx]
ClipH((subpic_ref_wraparound_offset_minus1[SubPicIdx]+1)*MinCbSizeY,SubPicRightBo undaryPos,xIntL+i-3):
xIntL+i-3)。
yInti=Clip3(SubPicTopBoundaryPos,SubPicBotBoundaryPos,yIntL+i-3)。
否则(subpic_treated_as_pic_flag[SubPicIdx]等于0),则以下适用:
xInti=Clip3(0,picW-1,sps_ref_wraparound_enabled_flag
ClipH((sps_ref_wraparound_offset_minus1+1)*MinCbSizeY,picW,xIntL+i-3):xIntL+i-3)
yInti=Clip3(0,picH-1,yIntL+i-3)
对于i=0…7,如下进一步修改全样本单元中的亮度位置:
xInti=Clip3(xSbIntL-3,xSbIntL+sbWidth+4,xInti)
yInti=Clip3(ySbIntL-3,ySbIntL+sbHeight+4,yInti)
预测亮度样本值predSampleLXL的推导如下。如果xFracL和yFracL都等于0,则predSampleLXL的值的推导方式为:
predSampleLXL=refPicLXL[xInt3][yInt3]<<shift3。
否则,如果xFracL不等于0且yFracL等于0,则predSampleLXL的值的推导方式为
Figure BDA0003292759620000181
否则,如果xFracL等于0且yFracL不等于0,则predSampleLXL的值的推导方式为
Figure BDA0003292759620000182
否则,如果xFracL不等于0且yFracL不等于0,则predSampleLXL的值的推导方式如下:
样本数组temp[n](n=0..7)的推导方式为:
Figure BDA0003292759620000183
Figure BDA0003292759620000184
预测亮度样本值predSampleLXL的推导方式为
Figure BDA0003292759620000191
Figure BDA0003292759620000192
在同一或另一实施例中,参考图10,在SPS(或任何其它参数集)中,all_subpic_treated_as_pic_flag等于1,指定CVS中的每一已编码图片的任何子图片在解码过程中视为图片。subpic_treated_as_pic_flag[i]等于0,指定CVS中的每一已编码图片的任何子图片在解码过程中不视为图片。
在同一实施例中,当all_subpic_treated_as_pic_flag[i]等于1时,用信号通知标志all_subpic_ref_wraparound_enabled_flag。all_subpic_ref_wraparound_enabled_flag等于1,指定在帧间预测中在每个已编码图片的任何子图片的边界应用水平环绕运动补偿。all_sps_ref_wraparound_enabled_flag等于0,指定在每个已编码图片的任何子图片的边界不应用水平环绕运动补偿。
在同一实施例中,all_subpic_ref_wraparound_offset_minus1[i]加1指定每个已编码图片的任何子图片的偏移,用于以MinCbSizeY亮度样本为单位计算水平环绕位置。在同一实施例中,当subpic_treated_as_pic_flag[i]不存在时,推断subpic_treated_as_pic_flag[i]的值等于all_subpic_treated_as_pic_flag。
在同一实施例中,当subpic_ref_wraparound_enabled_flag[i]不存在时,推断subpic_ref_wraparound_enabled_flag[i]的值等于all_subpic_ref_wraparound_enabled_flag。
在同一实施例中,当subpic_ref_wraparound_offset_minus1[i]不存在时,推断subpic_ref_wraparound_offset_minus1[i]的值等于all_subpic_ref_wraparound_offset_minus1。
上文所描述的环绕填充处理技术可使用计算机可读指令实施为计算机软件且以物理方式存储在至少一个计算机可读存储介质中,或者可以由至少一个特别配置的硬件处理器实施。例如,图11示出适于实施本申请主题的某些实施例的计算机系统800。
所述计算机软件可使用任何合适的机器代码或计算机语言来编码,所述机器代码或计算机语言可经受汇编、编译、链接或类似机制以创建包括指令的代码,所述指令可直接或通过解译、微码执行等而由计算机中央处理单元(central processing unit,CPU)、图形处理单元(Graphics Processing Unit,GPU)等执行。
所述指令可在各种类型的计算机或计算机组件上执行,所述计算机或计算机组件包括例如个人计算机、平板电脑、服务器、智能电话、游戏装置、物联网装置等。
图11中所示的用于计算机系统800的组件在本质上是示范性的,并非旨在暗示关于实施本申请的实施例的计算机软件的使用或功能的范围的任何限制。也不应将组件的配置解释为对计算机系统800的示范性实施例中所示的组件中的任一个组件或组件组合有任何依赖或需求。
计算机系统800可包括某些人机接口输入装置。此类人机接口输入装置可响应于至少一个人类用户通过例如触觉输入(例如:按键、滑动、数据手套移动)、音频输入(例如:语音、拍击)、视觉输入(例如:手势)、嗅觉输入(未描绘)进行的输入。人机接口装置还可用于捕获未必与人的有意识输入直接相关的某些媒体,例如音频(例如:话语、音乐、环境声)、图像(例如:扫描图像、从静态图像相机获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
输入人机接口装置可包括以下至少一个(每种仅描绘一个):键盘801、鼠标802、轨迹垫803、触摸屏810、数据手套804、操纵杆805、麦克风806、扫描仪807、相机808。
计算机系统800还可包括某些人机接口输出装置。此类人机接口输出装置可通过例如触觉输出、声音、光和气味/味道刺激至少一个人类用户的感觉。此类人机接口输出装置可包括触觉输出装置(例如触摸屏810、数据手套804或操纵杆805的触觉反馈,但还可存在不充当输入装置的触觉反馈装置)、音频输出装置(例如:扬声器809、头戴式耳机(未描绘))、视觉输出装置(例如,屏幕810,包括阴极射线管(CRT)屏幕、液晶显示屏(LCD)屏幕、等离子体屏幕、有机发光二极管(OLED)屏幕,各自具有或不具有触摸屏输入能力,各自具有或不具有触觉反馈能力--其中的一些能够通过例如立体平画输出的方式输出二维视觉输出或大于三维的输出;虚拟现实眼镜(未描绘)、全息显示器和烟雾箱(未描绘),以及打印机(未描绘)。
计算机系统800还可包括人类可访问的存储装置和存储装置的相关联介质,例如光学介质,包括具有CD/DVD等介质821的CD/DVD ROM/RW820、拇指驱动器822、可移动硬盘驱动器或固态驱动器823、磁带和软盘(未描绘)等旧版磁性媒体、基于ROM/ASIC/PLD的专用装置,例如安全保护装置(未描绘),等等。
所属领域的技术人员还应理解,结合当前公开的主题使用的术语“计算机可读介质”并未涵盖传输介质、载波或其他瞬时信号。
计算机系统800还可包括到至少一个通信网络的接口。网络可例如是无线的、有线的、光学的。网络还可以是本地的、广域的、城域的、车载和工业的、实时的、容忍延迟的等等。网络的示例包括例如以太网、无线LAN的局域网、包括全球移动通讯系统(GSM)、第三代(3G)、第四代(4G)、第五代(5G)、长期演进(LTE)等的蜂窝网络、包括有线TV、卫星TV和地面广播TV的TV有线或无线广域数字网络、包括CAN总线的车载网络和工业网络等。某些网络通常需要附接到某些通用数据端口或外围总线(849)(例如,计算机系统800的USB端口)的外部网络接口适配器;其他网络通常通过附接到如下文所描述的系统总线而集成到计算机系统800的核心中(例如通过以太网接口集成到PC计算机系统中,或通过蜂窝网络接口集成到智能电话计算机系统中)。通过使用这些网络中的任一网络,计算机系统800可与其他实体通信。此类通信可以是仅单向接收(例如广播TV)、仅单向发送(例如连到某些CAN总线装置的CAN总线)或是双向的,例如使用局域数字网络或广域数字网络连接到其他计算机系统。可在如上文所描述的那些网络和网络接口中的每一个上使用某些协议和协议栈。
上述人机接口装置、人类可访问存储装置和网络接口可附接到计算机系统800的核心840。
核心840可包括至少一个中央处理单元(Central Processing Unit,CPU)841、图形处理单元(Graphics Processing Unit,GPU)842、现场可编程门区域(FieldProgrammable Gate Areas,FPGA)形式的专用可编程处理单元843、用于某些任务的硬件加速器844等等。这些装置连同只读存储器(Read-only memory,ROM)845、随机存取存储器(Random-access memory)846、例如内部非用户可访问的硬盘驱动器、固态驱动器(solid-state drive,SSD)等内部大容量存储装置847可通过系统总线848连接。在一些计算机系统中,系统总线848可通过至少一个物理插头形式访问以实现通过额外CPU、GPU等来扩展。外围装置可直接或通过外围总线849附接到核心的系统总线848。用于外围总线的架构包括外围部件互连(Peripheral component interconnect,PCI)、USB等等。
CPU841、GPU842、FPGA843和加速器844可执行某些指令,所述指令组合起来可构成上述计算机代码。计算机代码可存储在ROM845或RAM846中。过渡数据也可存储在RAM846中,而永久性数据可例如存储在内部大容量存储装置847中。可通过使用高速缓冲存储器来实现对任一存储器装置的快速存储和检索,所述高速缓冲存储器可与至少一个CPU841、GPU842、大容量存储装置847、ROM845、RAM846等紧密关联。
计算机可读介质上可具有用于执行各种计算机实施的操作的计算机代码。所述介质和计算机代码可以是专为本申请的目的设计和构建的介质和计算机代码,或可属于计算机软件领域中的技术人员众所周知且可用的种类。
举例来说但不作为限制,具有架构800且尤其是核心840的计算机系统可提供因处理器(包括CPU、GPU、FPGA、加速器等)执行以至少一个有形计算机可读介质体现的软件而产生的功能。此类计算机可读介质可以是与上文所介绍的用户可访问大容量存储装置以及核心840的非易失性质的某些存储装置(例如核心内部大容量存储装置847或ROM845)相关联的介质。实施本申请的各种实施例的软件可存储在此类装置中且由核心840执行。根据特定需求,计算机可读介质可包括至少一个存储器装置或芯片。软件可使核心840且具体地说使其中的处理器(包括CPU、GPU、FPGA等等)执行本文中所描述的特定过程或特定过程的特定部分,包括限定存储在RAM846中的数据结构以及根据由软件限定的过程修改此类数据结构。另外或作为替代方案,计算机系统可提供由硬连线的或以其他方式体现于电路(例如:加速器844)中的逻辑所产生的功能,所述逻辑可代替或连同软件一起操作以执行本文描述的特定过程或特定过程的特定部分。适当时,对软件的引用可涵盖逻辑,且反之亦然。适当时,对计算机可读介质的引用可涵盖存储用于执行的软件的电路(例如集成电路(IC))、体现用于执行的逻辑的电路或这两种电路。本申请涵盖硬件与软件的任何合适的组合。
尽管本申请描述了若干示范性实施例,但在本申请的范围内,可以有各种改动、排列组合方式以及各种替代等同物。因此,应该理解,在申请的精神和范围内,本领域技术人员可以设计出各种虽未在本文明确示出或描述、但可以体现本申请的原理的系统和方法。

Claims (20)

1.一种能够由处理器执行的视频解码的方法,其特征在于,所述方法包括:
对与环绕填充过程对应的已编码语法元素进行解码;以及
使用环绕填充过程重建至少一个已编码的当前图片。
2.根据权利要求1所述的方法,其特征在于,所述语法元素指示:用于环绕处理的偏移值;或左侧填充宽度信息和右侧填充宽度信息。
3.根据权利要求2所述的方法,其特征在于,一标志指示与环绕填充过程对应的语法元素是否存在于参数集中。
4.根据权利要求3所述的方法,其特征在于,参考图片中用于运动补偿预测的像素位置,是通过利用限幅过程来解释所述与环绕填充过程对应的语法元素而确定。
5.根据权利要求4所述的方法,其特征在于,基于确定的像素位置,内插分数像素,以用于运动补偿预测。
6.根据权利要求5所述的方法,其特征在于,对外包裹区域进行混合以去除接缝伪影,作为后处理。
7.根据权利要求1所述的方法,其特征在于,所述环绕填充过程应用在图块边界或图块组边界。
8.根据权利要求1所述的方法,其特征在于,所述当前图片是用于运动补偿的参考。
9.根据权利要求8所述的方法,其特征在于,所述环绕填充应用在所述当前图片的边界。
10.根据权利要求1所述的方法,其特征在于,所述环绕填充应用在水平边界或垂直边界或垂直边界和水平边界两者。
11.根据权利要求10所述的方法,其特征在于,高级语法结构中的标志指示所述环绕填充是应用在水平边界或垂直边界,还是均应用在垂直和水平边界两者上。
12.一种用于视频编解码的计算机系统,其特征在于,所述计算机系统包括:
一个或多个计算机可读非易失性存储介质,被配置为存储计算机程序代码;以及
一个或多个计算机处理器,被配置为存取所述计算机程序代码并按照所述计算机程序代码的指示进行操作,所述计算机程序代码包括:
解码代码,被配置为使所述一个或多个计算机处理器对与环绕填充过程对应的已编码语法元素进行解码;以及
重建代码,被配置为使所述一个或多个计算机处理器使用环绕填充过程重建至少一个已编码的当前图片。
13.根据权利要求12所述的计算机系统,其特征在于,所述语法元素指示:用于环绕处理的偏移值;或左侧填充宽度信息和右侧填充宽度信息。
14.根据权利要求13所述的计算机系统,其特征在于,一标志指示与环绕填充过程对应的语法元素是否存在于参数集中。
15.根据权利要求14所述的计算机系统,其特征在于,参考图片中用于运动补偿预测的像素位置,是通过利用限幅过程来解释所述与环绕填充过程对应的语法元素而确定。
16.根据权利要求15所述的计算机系统,其特征在于,基于确定的像素位置,内插分数像素,以用于运动补偿预测。
17.根据权利要求16所述的计算机系统,其特征在于,对外包裹区域进行混合以去除接缝伪影,作为后处理。
18.根据权利要求12所述的计算机系统,其特征在于,所述环绕填充过程应用在图块边界或图块组边界。
19.根据权利要求12所述的计算机系统,其特征在于,所述当前图片是用于运动补偿的参考。
20.一种非易失性计算机可读介质,其特征在于,其上存储有用于视频编解码的计算机程序,所述计算机程序被配置为使一个或多个计算机处理器:
对与环绕填充过程对应的已编码语法元素进行解码;以及
使用环绕填充过程重建至少一个已编码的当前图片。
CN202080027200.XA 2019-09-20 2020-09-17 视频编解码方法、计算机系统和电子设备 Active CN113678457B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962903635P 2019-09-20 2019-09-20
US62/903,635 2019-09-20
US17/019,692 2020-09-14
US17/019,692 US11375238B2 (en) 2019-09-20 2020-09-14 Method for padding processing with sub-region partitions in video stream
PCT/US2020/051192 WO2021055552A1 (en) 2019-09-20 2020-09-17 Method for padding processing with sub-region partitions in video stream

Publications (2)

Publication Number Publication Date
CN113678457A true CN113678457A (zh) 2021-11-19
CN113678457B CN113678457B (zh) 2024-04-19

Family

ID=74880214

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080027200.XA Active CN113678457B (zh) 2019-09-20 2020-09-17 视频编解码方法、计算机系统和电子设备

Country Status (9)

Country Link
US (2) US11375238B2 (zh)
EP (1) EP4032303A4 (zh)
JP (2) JP2022521943A (zh)
KR (2) KR20240056776A (zh)
CN (1) CN113678457B (zh)
AU (2) AU2020349504B2 (zh)
CA (1) CA3134210A1 (zh)
SG (1) SG11202110266UA (zh)
WO (1) WO2021055552A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114449345A (zh) * 2022-02-08 2022-05-06 腾讯科技(深圳)有限公司 视频处理方法、装置、设备及存储介质

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220049000A (ko) 2019-08-23 2022-04-20 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 참조 픽처 리샘플링에서의 클리핑
US11375238B2 (en) 2019-09-20 2022-06-28 Tencent America LLC Method for padding processing with sub-region partitions in video stream
KR20220080107A (ko) * 2019-10-23 2022-06-14 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 참조 픽처 리샘플링을 위한 시그널링
JP7395727B2 (ja) 2019-10-23 2023-12-11 北京字節跳動網絡技術有限公司 ビデオ・データを処理する方法、装置及び記憶方法
US11589037B2 (en) * 2019-12-20 2023-02-21 Qualcomm Incorporated Motion compensation using size of reference picture
WO2021194307A1 (ko) * 2020-03-26 2021-09-30 엘지전자 주식회사 랩-어라운드 움직임 보상에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
EP4297405A1 (en) * 2022-06-21 2023-12-27 Beijing Xiaomi Mobile Software Co., Ltd. Boundary pixel padding using motion compensation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190082184A1 (en) * 2016-03-24 2019-03-14 Nokia Technologies Oy An Apparatus, a Method and a Computer Program for Video Coding and Decoding
US20190110076A1 (en) * 2016-05-27 2019-04-11 Panasonic Intellectual Property Corporation Of America Encoder, decoder, encoding method, and decoding method
CN113228633A (zh) * 2018-12-31 2021-08-06 腾讯美国有限责任公司 用于全向媒体编解码的环绕填充方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2810253T3 (es) * 2013-04-23 2021-03-08 Qualcomm Inc Reposicionamiento de bloques residuales de predicción en codificación de vídeo
GB2516824A (en) * 2013-07-23 2015-02-11 Nokia Corp An apparatus, a method and a computer program for video coding and decoding
CN108293136B (zh) * 2015-09-23 2022-12-30 诺基亚技术有限公司 编码360度全景视频的方法、装置和计算机可读存储介质
EP3422724B1 (en) * 2017-06-26 2024-05-01 Nokia Technologies Oy An apparatus, a method and a computer program for omnidirectional video
CN118018761A (zh) 2017-12-28 2024-05-10 韩国电子通信研究院 图像编码和解码的方法和装置以及存储比特流的记录介质
MX2021002979A (es) 2018-09-14 2021-05-14 Vid Scale Inc Métodos y aparatos para regiones de cuadrícula flexible.
US11375238B2 (en) * 2019-09-20 2022-06-28 Tencent America LLC Method for padding processing with sub-region partitions in video stream

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190082184A1 (en) * 2016-03-24 2019-03-14 Nokia Technologies Oy An Apparatus, a Method and a Computer Program for Video Coding and Decoding
US20190110076A1 (en) * 2016-05-27 2019-04-11 Panasonic Intellectual Property Corporation Of America Encoder, decoder, encoding method, and decoding method
CN113228633A (zh) * 2018-12-31 2021-08-06 腾讯美国有限责任公司 用于全向媒体编解码的环绕填充方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIANLE CHEN等: "AHG12: Treating tile and tile group boundaries as picture boundaries", 《JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11》, pages 1 - 7 *
PHILIPPE HANHART等: "CE13: PERP with horizontal geometry padding of reference pictures (Test 3.3)", 《JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11》, pages 1 - 10 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114449345A (zh) * 2022-02-08 2022-05-06 腾讯科技(深圳)有限公司 视频处理方法、装置、设备及存储介质
CN114449345B (zh) * 2022-02-08 2023-06-23 腾讯科技(深圳)有限公司 视频处理方法、装置、设备及存储介质

Also Published As

Publication number Publication date
KR102660034B1 (ko) 2024-04-25
EP4032303A1 (en) 2022-07-27
US11930217B2 (en) 2024-03-12
KR20210118455A (ko) 2021-09-30
AU2020349504B2 (en) 2023-07-27
EP4032303A4 (en) 2023-09-06
CA3134210A1 (en) 2021-03-25
US20210092447A1 (en) 2021-03-25
AU2020349504A1 (en) 2021-10-21
US11375238B2 (en) 2022-06-28
KR20240056776A (ko) 2024-04-30
WO2021055552A1 (en) 2021-03-25
US20220329867A1 (en) 2022-10-13
JP2022521943A (ja) 2022-04-13
SG11202110266UA (en) 2021-10-28
JP2023126347A (ja) 2023-09-07
AU2023255026A1 (en) 2023-11-16
CN113678457B (zh) 2024-04-19

Similar Documents

Publication Publication Date Title
JP7342210B2 (ja) 無指向性媒体符号化及び復号のためのラップアラウンドパディングの方法
CN113678457B (zh) 视频编解码方法、计算机系统和电子设备
AU2023201375B2 (en) Signaling of adaptive picture size in video bitstream
US11483558B2 (en) Method for region-wise scalability with adaptive resolution change
AU2020348846B2 (en) Signaling of inter layer prediction in video bitstream
CA3133707C (en) Signaling of inter layer prediction in video bitstream
US20230013085A1 (en) Region-wise scalability with adaptive resolution change
US11166038B2 (en) Method for support of scalability with adaptive picture resolution
EP3903477B1 (en) Method for syntax controlled decoded picture buffer management
RU2793903C1 (ru) Способ обработки заполнения частями подобластей в потоке видео

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40055142

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant