CN113228633A - 用于全向媒体编解码的环绕填充方法 - Google Patents

用于全向媒体编解码的环绕填充方法 Download PDF

Info

Publication number
CN113228633A
CN113228633A CN201980084988.5A CN201980084988A CN113228633A CN 113228633 A CN113228633 A CN 113228633A CN 201980084988 A CN201980084988 A CN 201980084988A CN 113228633 A CN113228633 A CN 113228633A
Authority
CN
China
Prior art keywords
padding
sub
regions
picture
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201980084988.5A
Other languages
English (en)
Other versions
CN113228633B (zh
Inventor
崔秉斗
封薇薇
刘杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent America LLC
Original Assignee
Tencent America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent America LLC filed Critical Tencent America LLC
Publication of CN113228633A publication Critical patent/CN113228633A/zh
Application granted granted Critical
Publication of CN113228633B publication Critical patent/CN113228633B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/563Motion estimation with padding, i.e. with filling of non-object values in an arbitrarily shaped picture block or region for estimation purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

重建已编码当前图片以进行视频解码包括:对当前图片对应的图片分区信息进行解码;使用所述图片分区信息确定是否对所述当前图片的多个子区域应用填充;基于确定不应用填充,对所述多个子区域进行解码而不填充所述多个子区域;基于确定应用填充,使用所述图片分区信息确定所述填充是否包括环绕填充;基于确定所述填充不包括环绕填充,对所述多个子区域应用重复填充,并且使用所述重复填充对所述多个子区域进行解码;基于确定所述填充包括环绕填充,对所述多个子区域应用所述环绕填充,并且使用所述环绕填充对所述多个子区域进行解码;以及基于所述解码的多个子区域重建所述当前图片。

Description

用于全向媒体编解码的环绕填充方法
相关申请的交叉引用
本申请根据35U.S.C.§119要求于2018年12月31日在美国专利商标局提交的、申请号为62/787,063的美国临时申请、于2019年12月11日在美国专利商标局提交的、申请号为16/710,936的美国申请的优先权,其公开的内容通过引用整体并入本文。
技术领域
所公开的主题涉及视频编码和解码,更具体地,涉及包括用于360度全向媒体编解码的环绕填充处理。
背景技术
几十年来,使用具有运动补偿的图片间预测来进行视频编码和解码的示例已经众所周知。未压缩的数字视频可以包括一系列图片,每个图片具有例如1920×1080亮度样本及相关色度样本的空间维度。所述系列图片可以具有固定的或可变的图片速率(也非正式地称为帧率),例如每秒60个图片或60Hz。未压缩的视频具有很高的比特率要求。例如,每个样本8比特的1080p60 4:2:0视频(60Hz帧率下1920x1080亮度样本分辨率)要求接近1.5Gbit/s带宽。一小时这样的视频就需要超过600GB的存储空间。
视频编码和解码的一个目的是通过压缩减少输入视频信号的冗余。压缩可以帮助降低对上述带宽或存储空间的要求,在某些情况下可降低两个或更多数量级。无损压缩和有损压缩、以及两者的组合均可采用。无损压缩是指从压缩的原始信号中重建原始信号精确副本的技术。当使用有损压缩时,重建信号可能与原始信号不完全相同,但是原始信号和重建信号之间的失真足够小,使得重建信号可用于预期应用。有损压缩广泛应用于视频。容许的失真量取决于应用。例如,相比于电视应用的用户,某些消费流媒体应用的用户可以容忍更高的失真。可实现的压缩比反映出:较高的允许/容许失真可产生较高的压缩比。
视频编码器和解码器可以利用几大类技术,例如包括运动补偿、变换、量化和熵编码,其中的一些技术将会在下文中介绍。
将已编码视频比特流划分成分组(packet)以在分组网络上传输的示例已经使用了几十年。早期,大多数视频编解码标准和技术针对面向机器人的传输和定义的比特流进行了优化。分组(packetization)发生在例如以实时传输协议(RTP)有效负载格式指定的系统层接口中。随着适合在因特网(Internet)上大量使用视频的因特网连接的出现,视频编解码标准通过视频编解码层(VCL)和网络抽象层(NAL)的概念区别反映了这一突出的用例。NAL单元在2003年引入H.264,并且从那时起一直保留在某些视频编解码标准和技术中,仅做了少量的修改。
在许多情况下,NAL单元可以被视为解码器可以作用于其上的最小实体,而不必对已编码视频序列的所有先前NAL单元进行解码。在此范围内,NAL单元通过诸如选择性转发单元(SFU)或多点控制单元(MCU)之类的媒体感知网络元件(MANE),使得某些错误恢复技术以及某些比特流操作技术能够包括比特流修剪。
图1描绘了根据H.264(101)和H.265(102)的NAL单元头的语法图的相关部分,在这两种情况下都没有它们各自的任何扩展。在这两种情况下,forbidden_zero_bit都是零比特,用于在某些系统层环境中防止启动代码仿真。nal_unit_type语法元素是指NAL单元携带的数据类型,例如可以是某些切片类型、参数集类型、补充增强信息(SEI)消息等中的一种。H.265NAL单元头还包括nuh_layer_id和nuh_temporal_id_plus1,它们指示NAL单元所属的已编码图片的空间/SNR和时间层。
可以看到,NAL单元头仅包括易于解析的固定长度码字,该固定长度码字对比特流中的其它数据(例如其它NAL单元头、参数集等)没有任何解析依赖性。由于NAL单元头是NAL单元中的第一个八位字节,所以MANE可以很容易地提取、解析它们并对它们进行操作。相比之下,其它高级语法元素(例如切片或图块头)则不太容易被MANE访问,因为它们可能需要保持参数集上下文和/或处理可变长度或算术编码的代码点。
还可以看到,如图1所示的NAL单元头不包括可以将NAL单元与包括多个NAL单元(例如,包括多个图块或切片,其中至少一些被分组在单独的NAL单元中)的已编码图片相关联的信息。
某些传输技术,例如RTP(RFC 3550)、MPEG系统标准、ISO文件格式等,可能包括某些信息,通常是定时信息的形式,例如呈现时间(在MPEG和ISO文件格式的情况下)或捕获时间(在RTP的情况下),这些信息可以很容易地被MANE访问,并且有助于将它们各自的传输单元与已编码图片相关联。然而,这些信息的语义可能因传输/存储技术的不同而不同,并且可能与视频编解码中使用的图片结构没有直接关系。因此,这些信息充其量只能是启发式的,并且也可能不是特别适合于识别NAL单元流中的NAL单元是否属于同一已编码图片。
发明内容
在实施例中,提供一种使用至少一个处理器重建已编码当前图片以进行视频解码的方法。所述方法包括:对当前图片对应的图片分区信息进行解码;使用所述图片分区信息确定是否对所述当前图片的多个子区域应用填充;基于确定不应用填充,对所述多个子区域进行解码而不填充所述多个子区域;基于确定应用填充,使用所述图片分区信息确定所述填充是否包括环绕填充;基于确定所述填充不包括环绕填充,对所述多个子区域应用重复填充,并且使用所述重复填充对所述多个子区域进行解码;基于确定所述填充包括环绕填充,对所述多个子区域应用所述环绕填充,并且使用所述环绕填充对所述多个子区域进行解码;以及基于所述解码的多个子区域重建所述当前图片。
在实施例中,提供一种重建已编码当前图片以进行视频解码的设备。所述设备包括:至少一个存储器,被配置为存储程序代码;以及至少一个处理器,被配置为读取所述程序代码,并按照所述程序代码的指示进行操作,所述程序代码包括:第一解码代码,被配置为使所述至少一个处理器对当前图片对应的图片分区信息进行解码;第一确定代码,被配置为使所述至少一个处理器使用所述图片分区信息确定是否对所述当前图片的多个子区域应用填充;第二解码代码,被配置为使所述至少一个处理器基于确定不应用填充,对所述多个子区域进行解码而不填充所述多个子区域;第二确定代码,被配置为基于确定应用填充,使用所述图片分区信息确定所述填充是否包括环绕填充;第一重复代码,被配置为使所述至少一个处理器基于确定所述填充不包括环绕填充,对所述多个子区域应用重复填充,并且使用所述重复填充对所述多个子区域进行解码;第二重复代码,被配置为使所述至少一个处理器基于确定所述填充包括环绕填充,对所述多个子区域应用所述环绕填充,并且使用所述环绕填充对所述多个子区域进行解码;以及重建代码,被配置为使所述至少一个处理器基于所述解码的多个子区域重建所述当前图片。
在实施例中,提供一种非易失性计算机可读介质,用于存储指令,所述指令包括一个或多个指令,当所述一个或多个指令由重建已编码当前图片以进行视频解码的设备的一个或多个处理器执行时,使得所述一个或多个处理器:对当前图片对应的图片分区信息进行解码;使用所述图片分区信息确定是否对所述当前图片的多个子区域应用填充;基于确定不应用填充,对所述多个子区域进行解码而不填充所述多个子区域;基于确定应用填充,使用所述图片分区信息确定所述填充是否包括环绕填充;基于确定所述填充不包括环绕填充,对所述多个子区域应用重复填充,并且使用所述重复填充对所述多个子区域进行解码;基于确定所述填充包括环绕填充,对所述多个子区域应用所述环绕填充,并且使用所述环绕填充对所述多个子区域进行解码;以及基于所述解码的多个子区域重建所述当前图片。
附图说明
根据以下详细描述和附图,所公开的主题的其他特征、性质和各种优点将进一步明确,其中
图1是根据H.264和H.265的NAL单元头的示意图;
图2是根据实施例的通信系统的简化框图的示意图;
图3是根据实施例的通信系统的简化框图的示意图;
图4是根据实施例的解码器的简化框图的示意图;
图5是根据实施例的编码器的简化框图的示意图;
图6是根据实施例的用于偏移信令的语法元素的示意图。
图7是根据实施例的用于编码器的填充宽度信令的语法元素的示意图。
图8是根据实施例的重建已编码当前图片以进行视频解码的示例过程的流程图。
图9是根据实施例的计算机系统的示意图。
待解决问题
使用3D到2D投影方法(例如等矩形投影(ERP))将360度视频映射到2D视频上。投影的视频由传统的2D视频编解码器进行编码和解码,并通过将2D视频重新投影到3D表面上进行渲染。然后,通过拼接独立编码的区域,由重新投影过程产生接缝视觉伪像。
具体实施方式
图2示出了根据本公开实施例的通信系统(200)的简化框图。通信系统(200)可以包括通过网络(250)互联的至少两个终端装置(210,220)。对于单向数据传输,第一终端装置(210)可在本地位置对视频数据进行编码,以通过网络(250)传输到另一终端装置(220)。第二终端装置(220)可从网络(250)接收另一终端装置的已编码视频数据,对已编码视频数据进行解码并显示恢复的视频数据。单向数据传输在媒体服务等应用中是较常见的。
图2示出了支持已编码视频的双向传输的第二对终端装置(230,240),所述双向传输可例如在视频会议期间发生。对于双向数据传输,每个终端装置(230,240)可对在本地位置采集的视频数据进行编码,以通过网络(250)传输到另一终端装置。每个终端装置(230,240)还可接收由另一终端装置传输的已编码视频数据,且可对所述已编码视频数据进行解码并在本地显示设备上显示恢复的视频数据。
在图2中,终端装置(210-240)可为服务器、个人计算机和智能手机,但本公开的原理可不限于此。本公开的实施例适用于膝上型计算机、平板电脑、媒体播放器和/或专用视频会议设备。网络(250)表示在终端装置(210-240)之间传送已编码视频数据的任何数目的网络,包括例如有线和/或无线通信网络。通信网络(250)可在电路交换和/或分组交换信道中交换数据。代表性网络包括电信网络、局域网、广域网和/或互联网。出于本讨论的目的,除非在下文中有所解释,否则网络(250)的架构和拓扑对于本公开的操作来说可能是无关紧要的。
作为所公开主题的应用实施例,图3示出了视频解码器和编码器在流式传输环境中的放置方式。所公开的主题可同等地适用于其它支持视频的应用,包括例如视频会议、数字TV、在包括CD、DVD、存储棒等的数字介质上存储压缩视频等等。
流式传输系统可包括采集子系统(313),所述采集子系统可包括诸如数码相机等视频源(301),所述视频源创建例如未压缩的视频样本流(302)。较于已编码的视频比特流,样本流(302)被描绘为粗线,以强调其为高数据量的视频样本流,样本流(302)可由耦接到相机(301)的编码器(303)处理。编码器(303)可包括硬件、软件或软硬件组合以实现或实施如下文更详细地描述的所公开主题的各方面。相较于样本流(302),已编码的视频比特流(304)被描绘为细线,以强调较低数据量的已编码的视频比特流,其可存储在流式传输服务器(305)上以供将来使用。一个或多个流式传输客户端(306,308)可访问流式传输服务器(305)以检索已编码的视频比特流(304)的副本(307,309)。客户端(306)可包括视频解码器(310)。视频解码器(310)对已编码的视频比特流的传入副本(307)进行解码,且产生可在显示器(312)或另一呈现装置(未示出)上呈现的输出视频样本流(311)。在一些流式传输系统中,可以根据某些视频编解码/压缩标准对视频比特流(304,307,309)进行编码。这些标准的示例包括ITU-T H.265建议书。正在开发的视频编解码标准被非正式地称为多功能视频编解码(VVC)。所公开的主题可以在VVC的上下文中使用。
图4是根据本公开实施例的视频解码器(310)的功能框图。
接收器(410)可接收将由视频解码器(310)解码的一个或多个已编码视频序列;在同一实施例或另一实施例中,一次接收一个已编码视频序列,其中每个已编码视频序列的解码独立于其它已编码视频序列。可从信道(412)接收已编码视频序列,所述信道可以是通向存储已编码的视频数据的存储装置的硬件/软件链路。接收器(410)可接收已编码的视频数据以及其它数据,例如,可转发到它们各自的使用实体(未标示)的已编码音频数据和/或辅助数据流。接收器(410)可将已编码视频序列与其它数据分开。为了防止网络抖动,缓冲存储器(415)可耦接在接收器(410)与熵解码器/解析器(420)(此后称为“解析器”)之间。当接收器(410)从具有足够带宽和可控性的存储/转发装置或从等时同步网络接收数据时,也可能不需要配置缓冲存储器(415),或可以将所述缓冲存储器做得较小。当然,为了在互联网等分组网络上使用,也可能需要缓冲存储器(415),所述缓冲存储器可相对较大且可有利地具有自适应性大小。
视频解码器(310)可包括解析器(420)以根据熵编码视频序列重建符号(421)。这些符号的类别包括用于管理视频解码器(310)的操作的信息,以及用以控制诸如显示器312的显示装置的潜在信息,所述显示装置不是解码器的组成部分,但可耦接到解码器,如图3中所示。用于显示装置的控制信息可以是辅助增强信息(Supplementary EnhancementInformation,SEI消息)或视频可用性信息(Video Usability Information,VUI)的参数集片段(未标示)的形式。解析器(420)可对接收到的已编码视频序列进行解析/熵解码。已编码视频序列的编解码可根据视频编解码技术或标准进行,且可遵循本领域技术人员公知的原理,包括可变长度编解码、霍夫曼编解码(Huffman coding)、具有或不具有上下文灵敏度的算术编解码等等。解析器(420)可基于对应于群组的至少一个参数,从已编码视频序列提取用于视频解码器中的像素的子群中的至少一个子群的子群参数集。子群可包括图片群组(Group of Pictures,GOP)、图片、子图片、图块(tile)、切片(slice)、砖块(brick)、宏块、编码树单元(Coding Tree Unit,CTU)、编码单元(Coding Unit,CU)、块、变换单元(Transform Unit,TU)、预测单元(Prediction Unit,PU)等等。图块可以指示图片中的特定图块列和行内的CU/CTU的矩形区域。砖块可以指示特定图块内的CU/CTU行的矩形区域。切片可以指示图片的一个或多个砖块,其包含在NAL单元中。子图片可以指示图片中的一个或多个切片的矩形区域。熵解码器/解析器还可从已编码视频序列提取信息,例如变换系数、量化器参数值、运动矢量等等。
解析器(420)可对从缓冲存储器(415)接收的视频序列执行熵解码/解析操作,从而创建符号(421)。
取决于已编码视频图片或一部分已编码视频图片(例如:帧间图片和帧内图片、帧间块和帧内块)的类型以及其它因素,符号(421)的重建可涉及多个不同单元。涉及哪些单元以及涉及方式可由解析器(420)从已编码视频序列解析的子群控制信息控制。为了简洁起见,未描述解析器(420)与下文的多个单元之间的此类子群控制信息流。
除已经提及的功能块以外,视频解码器(310)可在概念上细分成如下文所描述的数个功能单元。在商业约束下运行的实际实施中,这些单元中的许多单元彼此紧密交互并且可以至少部分地彼此集成。然而,出于描述所公开的主题的目的,概念上细分成下文的功能单元是适当的。
第一单元是缩放器/逆变换单元(451)。缩放器/逆变换单元(451)从解析器(420)接收作为符号(421)的量化变换系数以及控制信息,包括使用哪种变换方式、块大小、量化因子、量化缩放矩阵等。缩放器/逆变换单元(451)可输出包括样本值的块,所述样本值可输入到聚合器(455)中。
在一些情况下,缩放器/逆变换单元(451)的输出样本可属于帧内编码块;即:不使用来自先前重建的图片的预测性信息,但可使用来自当前图片的先前重建部分的预测性信息的块。此类预测性信息可由帧内图片预测单元(452)提供。在一些情况下,帧内图片预测单元(452)采用从(部分重建的)当前图片(458)提取的周围已重建的信息生成大小和形状与正在重建的块相同的块。在一些情况下,聚合器(455)基于每个样本,将帧内预测单元(452)生成的预测信息添加到由缩放器/逆变换单元(451)提供的输出样本信息中。
在其它情况下,缩放器/逆变换单元(451)的输出样本可属于帧间编码和潜在运动补偿块。在此情况下,运动补偿预测单元(453)可访问参考图片存储器(457)以提取用于预测的样本。在根据符号(421)对提取的样本进行运动补偿之后,这些样本可由聚合器(455)添加到缩放器/逆变换单元的输出(在这种情况下被称作残差样本或残差信号),从而生成输出样本信息。运动补偿预测单元从参考图片存储器内的地址获取预测样本可受到运动矢量控制,且所述运动矢量以所述符号(421)的形式而供运动补偿预测单元(453)使用,所述符号(421)例如是包括X、Y和参考图片分量。运动补偿还可包括在使用子样本精确运动矢量时,从参考图片存储器(457)提取的样本值的内插、运动矢量预测机制等等。
聚合器(455)的输出样本可在环路滤波器单元(456)中被各种环路滤波技术采用。视频压缩技术可包括环路内滤波器技术,所述环路内滤波器技术受控于包括在已编码视频比特流中的参数,且所述参数作为来自解析器(420)的符号(421)可用于环路滤波器单元(456)。然而,视频压缩技术还可响应于在解码已编码图片或已编码视频序列的先前(按解码次序)部分期间获得的元信息,以及响应于先前重建且经过环路滤波的样本值。
环路滤波器单元(456)的输出可以是样本流,所述样本流可输出到显示装置(312)以及存储在参考图片存储器,以用于后续的帧间图片预测。
一旦完全重建,某些已编码图片就可用作参考图片以用于将来预测。一旦已编码图片被完全重建,且已编码图片(通过例如解析器(420))被识别为参考图片,则当前图片(458)可变为参考图片存储器(457)的一部分,且可在开始重建后续已编码图片之前重新分配新的当前图片存储器。
视频解码器(420)可根据例如ITU-T H.265标准中记录的预定视频压缩技术执行解码操作。在已编码视频序列遵循在视频压缩技术文献或标准、特别是配置文件中所规定的视频压缩技术或标准的语法的意义上,已编码视频序列可符合所使用的视频压缩技术或标准指定的语法。对于合规性,还要求已编码视频序列的复杂度处于视频压缩技术或标准的层级所限定的范围内。在一些情况下,层级限制最大图片大小、最大帧率、最大重建取样率(以例如每秒兆(mega)个样本为单位进行测量)、最大参考图片大小等等。在一些情况下,由层级设定的限制可通过假想参考解码器(Hypothetical Reference Decoder,HRD)规范和在已编码视频序列中用信号表示的HRD缓冲器管理的元数据来进一步限定。
在实施例中,接收器(410)可连同已编码视频一起接收附加(冗余)数据。所述附加数据可以是已编码视频序列的一部分。所述附加数据可由视频解码器(420)用以对数据进行适当解码和/或较准确地重建原始视频数据。附加数据可呈例如时间、空间或信噪比(signal noise ratio,SNR)增强层、冗余切片、冗余图片、前向纠错码等形式。
图5是根据本公开实施例的视频编码器(303)的功能框图。
视频编码器(303)可从视频源(301)(并非该编码器的一部分)接收视频样本,所述视频源可采集将由视频编码器(303)编码的视频图像。
视频源(301)可提供将由视频编码器(303)编码的呈数字视频样本流形式的源视频序列,所述数字视频样本流可具有任何合适位深度(例如:8位、10位、12位……)、任何色彩空间(例如BT.601Y CrCB、RGB……)和任何合适取样结构(例如Y CrCb 4:2:0、Y CrCb4:4:4)。在媒体服务系统中,视频源(301)可以是存储先前已准备的视频的存储装置。在视频会议系统中,视频源(303)可以为采集本地图像信息作为视频序列的相机。可将视频数据提供为多个单独的图片,当按顺序观看时,这些图片被赋予运动。图片自身可构建为空间像素阵列,其中取决于所用的取样结构、色彩空间等,每个像素可包括一个或多个样本。本领域技术人员可以容易地理解像素和样本之间的关系。下文侧重于描述样本。
根据实施例,视频编码器(303)可实时或在由应用所要求的任何其它时间约束下,将源视频序列的图片编码且压缩成已编码视频序列(543)。施行适当的编码速度是控制器(550)的一个功能。控制器控制如下文所描述的其它功能单元且在功能上耦接到这些单元。为了简洁起见,图中未标示耦接。由控制器设置的参数可包括速率控制相关参数(例如,图片跳过、量化器、率失真优化技术的λ值等)、图片大小、图片群组(group of pictures,GOP)布局,最大运动矢量搜索范围等。本领域技术人员可以容易地识别控制器(550)的其他功能,因为它们可能属于针对特定系统设计而优化的视频编码器(303)。
一些视频编码器以本领域技术人员容易识别为“编码环路”方式进行操作。作为简单的描述,编码环路可包括编码器(530)(下文称为“源编码器(source coder)”,其负责基于待编码的输入图片和参考图片创建符号)的编码部分、和嵌入于视频编码器(303)中的(本地)解码器(533)。“本地”解码器(533)以类似于(远程)解码器创建样本数据的方式重建符号以创建样本数据(因为在所公开的主题所考虑的视频压缩技术中,符号与已编码视频码流之间的任何压缩是无损的)。将重建的样本流输入到参考图片存储器(534)。由于符号流的解码产生与解码器位置(本地或远程)无关的位精确结果,因此参考图片存储器中的内容在本地编码器与远程编码器之间也是按比特位精确对应的。换句话说,编码器的预测部分“看到”的参考图片样本与解码器将在解码期间使用预测时所“看到”的样本值完全相同。这种参考图片同步性基本原理(以及在例如因信道误差而无法维持同步性的情况下产生的漂移)是本领域技术人员公知的。
“本地”解码器(533)的操作可与已在上文结合图4详细描述的“远程”解码器(310)相同。然而,另外简要参考图4,当符号可用且熵编码器(545)和解析器(420)能够无损地将符号编码/解码为已编码视频序列时,视频解码器(310)的熵解码部分(包括信道(412)、接收器(410)、缓冲存储器(415)和解析器(420))可能无法完全在本地解码器(533)中实施。
此时可以观察到,除存在于解码器中的解析/熵解码之外的任何解码器技术,也必定以基本上相同的功能形式存在于对应的编码器中。由于这个原因,所公开的主题专注于解码器操作。对编码器技术的描述可以简写,因为它们与全面描述的解码器技术互逆。仅在某些区域中需要更详细的描述,并且在下文提供。
作为操作的一部分,源编码器(530)可执行运动补偿预测编码。参考来自视频序列中被指定为“参考帧”的一个或多个先前已编码帧,所述运动补偿预测编码对输入帧进行预测性编码。以此方式,编码引擎(532)对输入帧的像素块与参考帧的像素块之间的差异进行编码,所述参考帧可被选作所述输入帧的预测参考。
本地视频解码器(533)可基于源编码器(530)创建的符号,对可指定为参考帧的帧的已编码视频数据进行解码。编码引擎(532)的操作可以有利地为有损过程。当已编码视频数据可在视频解码器(图5中未示)处被解码时,重建的视频序列通常可以是带有一些误差的源视频序列的副本。本地视频解码器(533)复制解码过程,所述解码过程可由视频解码器对参考帧执行,且可使重建的参考帧存储在参考图片存储器(534)中。以此方式,编码器(303)可在本地存储重建的参考帧的副本,所述副本与将由远端视频解码器获得的重建参考帧具有共同内容(不存在传输误差)。
预测器(535)可针对编码引擎(532)执行预测搜索。即,对于将要编码的新帧,预测器(535)可在参考图片存储器(534)中搜索可作为所述新图片的适当预测参考的样本数据(作为候选参考像素块)或某些元数据,例如参考图片运动矢量、块形状等。预测器(535)可基于样本块逐像素块操作,以找到合适的预测参考。在一些情况下,根据预测器(535)获得的搜索结果,可确定输入图片可具有从参考图片存储器(534)中存储的多个参考图片取得的预测参考。
控制器(550)可管理视频编码器(530)的编码操作,包括例如设置用于对视频数据进行编码的参数和子群参数。
可在熵编码器(545)中对所有上述功能单元的输出进行熵编码。熵编码器可根据例如霍夫曼编码、可变长度编码、算术编码等本领域技术人员公知的技术对各种功能单元生成的符号进行无损压缩,从而将所述符号转换成已编码视频序列。
传输器(540)可缓冲由熵编码器(545)创建的已编码视频序列,从而为通过通信信道(560)进行传输做准备,所述通信信道可以是通向将存储已编码的视频数据的存储装置的硬件/软件链路。传输器(540)可将来自视频编码器(530)的已编码视频数据与要传输的其它数据合并,所述其它数据例如是已编码音频数据和/或辅助数据流(未示出来源)。
控制器(550)可管理视频编码器(303)的操作。在编码期间,控制器(550)可以为每个已编码图片分配某一已编码图片类型,但这可能影响可应用于相应的图片的编码技术。例如,通常可将图片分配为以下任一种图片类型。
帧内图片(I图片),其可以是不将序列中的任何其它帧用作预测源就可被编码和解码的图片。一些视频编解码器容许不同类型的帧内图片,包括例如独立解码器刷新(Independent Decoder Refresh,IDR)图片。本领域技术人员知道I图片的那些变体以及它们各自的应用和特征。
预测性图片(P图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多一个运动矢量和参考索引来预测每个块的样本值。
双向预测性图片(B图片),其可以是可使用帧内预测或帧间预测进行编码和解码的图片,所述帧内预测或帧间预测使用至多两个运动矢量和参考索引来预测每个块的样本值。类似地,多个预测性图片可使用多于两个参考图片和相关联元数据以用于重建单个块。
源图片通常可在空间上细分成多个样本块(例如,4×4、8×8、4×8或16×16个样本的块),且逐块进行编码。这些块可参考其它(已编码)块进行预测编码,根据应用于块的相应图片的编码分配来确定所述其它块。举例来说,I图片的块可进行非预测编码,或所述块可参考同一图片的已经编码的块来进行预测编码(空间预测或帧内预测)。P图片的像素块可参考一个先前编码的参考图片通过空间预测或通过时域预测进行非预测编码。B图片的块可参考一个或两个先前编码的参考图片通过空间预测或通过时域预测进行非预测编码。
视频编码器(303)可根据例如ITU-T H.265建议书的预定视频编码技术或标准执行编码操作。在操作中,视频编码器(303)可执行各种压缩操作,包括利用输入视频序列中的时间和空间冗余的预测编码操作。因此,已编码视频数据可符合所用视频编码技术或标准指定的语法。
在实施例中,传输器(540)可传输附加数据和已编码的视频。视频编码器(530)可以包括诸如已编码视频序列的一部分的此类数据。附加数据可包括时间/空间/SNR增强层、冗余图片和切片等其它形式的冗余数据、SEI消息、VUI参数集片段等。
参考图6至图7,在实施例中,360度视频由一组摄像机或具有多个镜头的相机设备捕获。相机可以覆盖相机组中心点周围的全方向。同一时刻的图像被拼接,可能被旋转、投影和映射到图片上。将打包的图片编码为已编码视频比特流,并且根据特定的媒体容器文件格式进行流式传输。该文件包括元数据,例如投影和打包信息。
在实施例中,可以使用等矩形投影(ERP)将360度视频投影为2D视频。ERP投影可能导致接缝伪像。填充的ERP(PERP)格式可以有效地减少重建视口中包含ERP图片的左右边界的接缝伪像。然而,填充和混合可能不足以完全解决接缝问题。
在实施例中,可以将水平几何填充应用于ERP或PERP,以减少接缝伪像。PERP的填充过程可以与ERP的填充过程相同,不同之处在于,偏移可基于未填充的ERP宽度而不是图片宽度,以说明填充区域的大小。如果参考块位于左(右)参考图片边界之外,则可以将其替换为向右(左)移位ERP宽度的“环绕”参考块。可以在垂直方向上采用传统的重复填充。作为后处理操作,左填充区域和右填充区域的混合不进行循环。
在实施例中,图6中示出了一种语法,例如seq_parameter_set_rbsp()(601),用于启用ERP和PERP格式的参考图片的水平几何填充。
在实施例中,sps_ref_wraparound_enabled_flag(602)等于1指定将水平环绕运动补偿用于帧间预测。在实施例中,sps_ref_wraparound_enabled_flag(602)等于0指定不应用该运动补偿方法。
在实施例中,ref_wraparound_offset(603)指定用于计算水平环绕位置的亮度样本中的偏移。在实施例中,ref_wraparound_offset(603)应大于pic_width_in_luma_samples-1,不应大于pic_width_in_luma_samples,并且应为MinCbSizeY的整数倍。
在实施例中,图7中示出了一种语法,例如seq_parameter_set_rbsp()(701),用于启用ERP和PERP格式的参考图片的水平几何填充。
在实施例中,sps_ref_wraparound_enabled_flag(702)等于1指定将水平环绕运动补偿用于帧间预测。sps_ref_wraparound_enabled_flag(702)等于0指定不应用该运动补偿方法。
在实施例中,left_wraparound_padding_width(703)指定亮度样本中左侧填充区域的宽度。在实施例中,ref_wraparound_offset应大于或等于0,不应大于pic_width_in_luma_samples/2,并且应为MinCbSizeY的整数倍。
在实施例中,right_wraparound_padding_width(704)指定亮度样本中右侧填充区域的宽度。在实施例中,ref_wraparound_offset应大于或等于0,不应大于pic_width_in_luma_samples/2,并且应为MinCbSizeY的整数倍。
在实施例中,环绕偏移值可以通过以下导出过程获得:
如果存在ref_wraparound_offset,则
wrapAroundOffset=ref_wraparound_offset
否则,如果存在left_wraparound_padding_width and right_wraparound_padding_width,
wrapAroundOffset=pic_width_in_luma_samples–(left_wraparound_padding_width+
right_wraparound_padding_width)
否则,
wrapAroundOffset=pic_width_in_luma_samples
在实施例中,为了启用ERP和PERP格式的参考图片的水平几何填充,可以修改亮度和色度样本插值过程。
Figure BDA0003123805040000102
Figure BDA0003123805040000101
下文描述根据实施例的亮度样本插值过程的示例和根据实施例的色度样本插值过程的示例。
亮度样本插值过程
该过程的输入为:
-全样本单元(xIntL,yIntL)中的亮度位置,
-分数样本单元(xFracL,yFracL)中的亮度位置,
-亮度参考样本阵列refPicLXL
该过程的输出是预测的亮度样本值predSampleLXL
变量shift1、shift2和shift3导出如下:
-将变量shift1设置为等于Min(4,BitDepthY-8),将变量shift2设置为等于6,将变量shift3设置为等于Max(2,14-BitDepthY)。
-将变量picW设置为等于pic_width_in_luma_samples,将变量picH设置为等于pic_height_in_luma_samples。
-将变量xOffset设置为等于wrapAroundOffset。
等于xFracL或yFracL的每个1/16分数样本位置p的亮度插值滤波器系数fL[p]在下文中指定。
预测的亮度样本值predSampleLXL导出如下:
-如果xFracL和yFracL都等于0,则以下适用:
-如果sps_ref_wraparound_enabled_flag等于0,则predSampleLXL的值导出如下:
predSampleLXL
refPicLXL[Clip3(0,picW-1,xIntL)][Clip3(0,picH-1,yIntL)]<<shift3
-否则,predSampleLXL的值导出如下:
predSampleLXL
refPicLXL[ClipH(xOffset,picW,xIntL)][Clip3(0,picH-1,yIntL)]<<shift3
-否则,如果xFracL不等于0并且yFracL等于0,则以下适用:
-yPosL的值导出如下:
yPosL=Clip3(0,picH-1,yIntL)
-如果sps_ref_wraparound_enabled_flag等于0,则predSampleLXL的值导出如下:
predSampleLXL=(fL[xFracL][0]*refPicLXL[Clip3(0,picW-1,xIntL-3)][yPosL]+
fL[xFracL][1]*refPicLXL[Clip3(0,picW-1,xIntL-2)][yPosL]+
fL[xFracL][2]*refPicLXL[Clip3(0,picW-1,xIntL-1)][yPosL]+
fL[xFracL][3]*refPicLXL[Clip3(0,picW-1,xIntL)][yPosL]+
fL[xFracL][4]*refPicLXL[Clip3(0,picW-1,xIntL+1)][yPosL]+
fL[xFracL][5]*refPicLXL[Clip3(0,picW-1,xIntL+2)][yPosL]+
fL[xFracL][6]*refPicLXL[Clip3(0,picW-1,xIntL+3)][yPosL]+
fL[xFracL][7]*refPicLXL[Clip3(0,picW-1,xIntL+4)][yPosL])>>shift1
-否则,predSampleLXL的值导出如下:
predSampleLXL
(fL[xFracL][0]*refPicLXL[ClipH(xOffset,picW,xIntL-3)][yPosL]+
fL[xFracL][1]*refPicLXL[ClipH(xOffset,picW,xIntL-2)][yPosL]+
fL[xFracL][2]*refPicLXL[ClipH(xOffset,picW,xIntL-1)][yPosL]+
fL[xFracL][3]*refPicLXL[ClipH(xOffset,picW,xIntL)][yPosL]+
fL[xFracL][4]*refPicLXL[ClipH(xOffset,picW,xIntL+1)][yPosL]+
fL[xFracL][5]*refPicLXL[ClipH(xOffset,picW,xIntL+2)][yPosL]+
fL[xFracL][6]*refPicLXL[ClipH(xOffset,picW,xIntL+3)][yPosL]+
fL[xFracL][7]*refPicLXL[ClipH(xOffset,picW,xIntL+4)][yPosL])>>shift1
-否则,如果xFracL等于0并且yFracL不等于0,则predSampleLXL的值导出如下:
-如果sps_ref_wraparound_enabled_flag等于0,则xPosL的值导出如下:
xPosL=Clip3(0,picW-1,xIntL)
-否则,xPosL的值导出如下:
xPosL=ClipH(xOffset,picW,xIntL)
-预测的亮度样本值predSampleLXL导出如下:
predSampleLXL=(fL[yFracL][0]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL-3)]+
fL[yFracL][1]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL-2)]+
fL[yFracL][2]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL-1)]+
fL[yFracL][3]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL)]+
fL[yFracL][4]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL+1)]+
fL[yFracL][5]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL+2)]+
fL[yFracL][6]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL+3)]+
fL[yFracL][7]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL+4)])>>shift1
-否则,如果xFracL不等于0并且yFracL不等于0,则predSampleLXL的值导出如下:
-如果sps_ref_wraparound_enabled_flag等于0,则n=0..7的样本阵列temp[n]导出如下:
yPosL=Clip3(0,picH-1,yIntL+n-3)
temp[n]=(fL[xFracL][0]*refPicLXL[Clip3(0,picW-1,xIntL-3)][yPosL]+
fL[xFracL][1]*refPicLXL[Clip3(0,picW-1,xIntL-2)][yPosL]+
fL[xFracL][2]*refPicLXL[Clip3(0,picW-1,xIntL-1)][yPosL]+
fL[xFracL][3]*refPicLXL[Clip3(0,picW-1,xIntL)][yPosL]+
fL[xFracL][4]*refPicLXL[Clip3(0,picW-1,xIntL+1)][yPosL]+
fL[xFracL][5]*refPicLXL[Clip3(0,picW-1,xIntL+2)][yPosL]+
fL[xFracL][6]*refPicLXL[Clip3(0,picW-1,xIntL+3)][yPosL]+
fL[xFracL][7]*refPicLXL[Clip3(0,picW-1,xIntL+4)][yPosL])>>shift1
-否则,n=0..7的样本阵列temp[n]导出如下:
yPosL=Clip3(0,picH-1,yIntL+n-3)
temp[n]=(fL[xFracL][0]*refPicLXL[ClipH(xOffset,picW,xIntL-3)][yPosL]+
fL[xFracL][1]*refPicLXL[ClipH(xOffset,picW,xIntL-2)][yPosL]+
fL[xFracL][2]*refPicLXL[ClipH(xOffset,picW,xIntL-1)][yPosL]+
fL[xFracL][3]*refPicLXL[ClipH(xOffset,picW,xIntL)][yPosL]+
fL[xFracL][4]*refPicLXL[ClipH(xOffset,picW,xIntL+1)][yPosL]+
fL[xFracL][5]*refPicLXL[ClipH(xOffset,picW,xIntL+2)][yPosL]+
fL[xFracL][6]*refPicLXL[ClipH(xOffset,picW,xIntL+3)][yPosL]+
fL[xFracL][7]*refPicLXL[ClipH(xOffset,picW,xIntL+4)][yPosL])>>shift1
-预测的亮度样本值predSampleLXL导出如下:
predSampleLXL=(fL[yFracL][0]*temp[0]+
fL[yFracL][1]*temp[1]+
fL[yFracL][2]*temp[2]+
fL[yFracL][3]*temp[3]+
fL[yFracL][4]*temp[4]+
fL[yFracL][5]*temp[5]+
fL[yFracL][6]*temp[6]+
fL[yFracL][7]*temp[7])>>shift2
色度样本插值过程
该过程的输入为:
-全样本单元(xIntC,yIntC)中的色度位置,
-1/32分数样本单元(xFracC,yFracC)中的色度位置,
-色度参考样本阵列refPicLXC
该过程的输出是预测的色度样本值predSampleLXC
变量shift1、shift2和shift3导出如下:
-将变量shift1设置为等于Min(4,BitDepthC-8),将变量shift2设置为等于6,将变量shift3设置为等于Max(2,14-BitDepthC)。
-将变量picWC设置为等于pic_width_in_luma_samples/SubWidthC,将变量picHC设置为等于pic_height_in_luma_samples/SubHeightC。
-将变量xOffsetC设置为等于wrapAroundOffset/SubWidthC。
等于xFracC或yFracC的每个1/32分数样本位置p的亮度插值滤波器系数fC[p]在下文中指定。
预测的色度样本值predSampleLXC导出如下:
-如果xFracC和yFracC都等于0,则以下适用:
-如果sps_ref_wraparound_enabled_flag等于0,则predSampleLXC的值导出如下:
predSampleLXC=refPicLXC[Clip3(0,picWC-1,xIntC)][Clip3(0,picHC-1,yIntC)]<<shift3
-否则,predSampleLXC的值导出如下:
predSampleLXC=refPicLXC[ClipH(xOffsetC,picWC,xIntC)][Clip3(0,picHC-1,yIntC)]<<shift3
-否则,如果xFracC不等于0并且yFracC等于0,则以下适用:
-yPosC的值导出如下:
yPosC=Clip3(0,picHC-1,yIntC)
-如果sps_ref_wraparound_enabled_flag等于0,则predSampleLXC的值导出如下:
predSampleLXC=(fC[xFracC][0]*refPicLXC[Clip3(0,picWC-1,xIntC-1)][yIntC]+
fC[xFracC][1]*refPicLXC[Clip3(0,picWC-1,xIntC)][yIntC]+
fC[xFracC][2]*refPicLXC[Clip3(0,picWC-1,xIntC+1)][yIntC]+
fC[xFracC][3]*refPicLXC[Clip3(0,picWC-1,xIntC+2)][yIntC])>>shift1
-否则,predSampleLXC的值导出如下:
predSampleLXC
(fC[xFracC][0]*refPicLXC[ClipH(xOffsetC,picWC,xIntC-1)][yPosC]+
fC[xFracC][1]*refPicLXC[ClipH(xOffsetC,picWC,xIntC)][yPosC]+
fC[xFracC][2]*refPicLXC[ClipH(xOffsetC,picWC,xIntC+1)][yPosC]+
fC[xFracC][3]*refPicLXC[ClipH(xOffsetC,picWC,xIntC+2)][yPosC])>>shift1
-否则,如果xFracC等于0并且yFracC不等于0,则predSampleLXC的值导出如下:
-如果sps_ref_wraparound_enabled_flag等于0,则xPosC的值导出如下:
xPosC=Clip3(0,picWC-1,xIntC)
-否则,xPosC的值导出如下:
xPosC=ClipH(xOffsetC,picWC,xIntC)
-预测的色度样本值predSampleLXC导出如下:
predSampleLXC=(fC[yFracC][0]*refPicLXC[xPosC][Clip3(0,picHC-1,yIntC-1)]+
fC[yFracC][1]*refPicLXC[xPosC][Clip3(0,picHC-1,yIntC)]+
fC[yFracC][2]*refPicLXC[xPosC][Clip3(0,picHC-1,yIntC+1)]+
fC[yFracC][3]*refPicLXC[xPosC][Clip3(0,picHC-1,yIntC+2)])>>shift1
-否则,如果xFracC不等于0并且yFracC不等于0,则predSampleLXC的值导出如下:
-如果sps_ref_wraparound_enabled_flag等于0,则n=0..3的样本阵列temp[n]导出如下:
yPosC=Clip3(0,picHC-1,yIntC+n-1)
temp[n]=(fC[xFracC][0]*refPicLXC[Clip3(0,picWC-1,xIntC-1)][yPosC]+
fC[xFracC][1]*refPicLXC[Clip3(0,picWC-1,xIntC)][yPosC]+
fC[xFracC][2]*refPicLXC[Clip3(0,picWC-1,xIntC+1)][yPosC]+
fC[xFracC][3]*refPicLXC[Clip3(0,picWC-1,xIntC+2)][yPosC])>>shift1
-否则,n=0..3的样本阵列temp[n]导出如下:
yPosC=Clip3(0,picHC-1,yIntC+n-1)
temp[n]=(fC[xFracC][0]*refPicLXC[ClipH(xOffsetC,picWC,xIntC-1)][yPosC]+
fC[xFracC][1]*refPicLXC[ClipH(xOffsetC,picWC,xIntC)][yPosC]+
fC[xFracC][2]*refPicLXC[ClipH(xOffsetC,picWC,xIntC+1)][yPosC]+
fC[xFracC][3]*refPicLXC[ClipH(xOffsetC,picWC,xIntC+2)][yPosC])>>shift1
-预测的色度样本值predSampleLXC导出如下:
predSampleLXC=(fC[yFracC][0]*temp[0]+
fC[yFracC][1]*temp[1]+
fC[yFracC][2]*temp[2]+
fC[yFracC][3]*temp[3])>>shift2
在实施例中,如果sps_ref_wraparound_enabled_flag(601)或sps_ref_wraparound_enabled_flag(601)等于0或不存在,则可应用传统的重复填充。否则,可以应用环绕填充。
在实施例中,可以在水平和垂直边界处应用环绕填充。高级语法结构中的标志可指示在水平和垂直边界上应用环绕填充。
在实施例中,可以在砖块、图块、切片或子图片边界处应用环绕填充。在实施例中,可以在图块组边界处应用环绕填充。高级语法结构中的标志可以指示在水平和垂直边界上应用环绕填充。
在实施例中,参考图片可以与用于运动补偿预测的当前图片相同。当当前图片是参考图片时,可以在当前图片的边界处应用环绕填充。
图8是使用中间候选生成合并候选列表的示例过程800的流程图。在一些实施方式中,图8的一个或多个过程可以由解码器310执行。在一些实施方式中,图8的一个或多个过程可以由与解码器310分离或包括解码器310的另一设备或一组设备执行,例如编码器303。
如图8所示,过程800可以包括对当前图片对应的图片分区信息进行解码(框810)。
如图8进一步所示,过程800可以包括使用所述图片分区信息确定是否对所述当前图片的多个子区域应用填充(框820)。
如图8进一步所示,基于确定不应用填充,过程800可以包括对所述多个子区域进行解码而不填充所述多个子区域(框830)。然后,过程800可以执行基于所述解码的多个子区域重建所述当前图片(框870)。
如图8进一步所示,基于确定应用填充,过程800可以包括使用所述图片分区信息确定所述填充是否包括环绕填充(框840)。
如图8进一步所示,基于确定所述填充不包括环绕填充,过程800可以包括对所述多个子区域应用重复填充,并且使用所述重复填充对所述多个子区域进行解码(框850)。然后,过程800可以执行基于所述解码的多个子区域重建所述当前图片(框870)。
如图8进一步所示,基于确定所述填充包括环绕填充,过程800可以包括对所述多个子区域应用所述环绕填充,并且使用所述环绕填充对所述多个子区域进行解码(框860)。然后,过程800可以执行基于所述解码的多个子区域重建所述当前图片(框870)。
在实施例中,所述图片分区信息包括在与所述当前图片对应的图片参数集中。
在实施例中,所述图片分区信息包括所述图片参数集中包括的至少一个标志。
在实施例中,所述多个子区域包括砖块、图块、切片、图块组、子图片或子层中的至少一个。
在实施例中,对所述多个子区域中的子区域的边界应用所述填充。
在实施例中,所述边界是所述子区域的垂直边界。
在实施例中,所述边界是所述子区域的水平边界。
在实施例中,对所述多个子区域中的子区域的垂直边界和所述子区域的水平边界应用所述填充。
在实施例中,所述图片分区信息指示所述环绕填充的偏移值。
在实施例中,所述图片分区信息指示左填充宽度信息和右填充宽度信息。
虽然图8示出了过程800的示例框,但是在一些实施方式中,过程800可以包括比图8中所描绘的更多的框、更少的框、不同的框或不同排列的框。另外或可替代地,过程800的两个或多于两个的框可以并行执行。
此外,所提出的方法可以由处理电路(例如,一个或多个处理器或一个或多个集成电路)来实现。在一示例中,该一个或多个处理器执行存储在非易失性计算机可读介质中的程序,以执行所提出的方法中的一个或多个。
上述技术可以通过计算机可读指令实现为计算机软件,并且物理地存储在一个或多个计算机可读介质中。例如,图9示出了计算机系统900,其适于实现所公开主题的一些实施例。
所述计算机软件可通过任何合适的机器代码或计算机语言进行编码,通过汇编、编译、链接等机制创建包括指令的代码,所述指令可由一个或多个计算机中央处理单元(CPU),图形处理单元(GPU)等直接执行或通过译码、微代码等方式执行。
所述指令可以在各种类型的计算机或其组件上执行,包括例如个人计算机、平板电脑、服务器、智能手机、游戏设备、物联网设备等。
图9所示的用于计算机系统900的组件本质上是示例性的,并不用于对实现本公开实施例的计算机软件的使用范围或功能进行任何限制。也不应将组件的配置解释为与计算机系统900的示例性实施例中所示的任一组件或其组合具有任何依赖性或要求。
计算机系统900可以包括某些人机界面输入设备。这种人机界面输入设备可以通过触觉输入(如:键盘输入、滑动、数据手套移动)、音频输入(如:声音、掌声)、视觉输入(如:手势)、嗅觉输入(未示出),对一个或多个人类用户的输入做出响应。所述人机界面设备还可用于捕获某些媒体,气与人类有意识的输入不必直接相关,如音频(例如:语音、音乐、环境声音)、图像(例如:扫描图像、从静止影像相机获得的摄影图像)、视频(例如二维视频、包括立体视频的三维视频)。
人机界面输入设备可包括以下中的一个或多个(仅绘出其中一个):键盘901、鼠标902、触控板903、触摸屏910和相关图形适配器950、数据手套1204、操纵杆905、麦克风906、扫描仪907、照相机908。
计算机系统900还可以包括某些人机界面输出设备。这种人机界面输出设备可以通过例如触觉输出、声音、光和嗅觉/味觉来刺激一个或多个人类用户的感觉。这样的人机界面输出设备可包括触觉输出设备(例如通过触摸屏910、数据手套1204或操纵杆905的触觉反馈,但也可以有不用作输入设备的触觉反馈设备)、音频输出设备(例如,扬声器909、耳机(未示出))、视觉输出设备(例如,包括阴极射线管(CRT)屏幕、液晶显示(LCD)屏幕、等离子屏幕、有机发光二极管(OLED)屏幕的屏幕910,其中每一个都具有或没有触摸屏输入功能、每一个都具有或没有触觉反馈功能——其中一些可通过诸如立体画面输出的手段输出二维视觉输出或三维以上的输出;虚拟现实眼镜(未示出)、全息显示器和放烟箱(未示出))以及打印机(未示出)。
计算机系统900还可以包括人可访问的存储设备及其相关介质,如包括具有CD/DVD的高密度只读/可重写式光盘(CD/DVD ROM/RW)920或类似介质921的光学介质、拇指驱动器922、可移动硬盘驱动器或固体状态驱动器923,诸如磁带和软盘(未示出)的传统磁介质,诸如安全软件保护器(未示出)等的基于ROM/ASIC/PLD的专用设备,等等。
本领域技术人员还应当理解,结合当前公开的主题使用的术语“计算机可读介质”不包括传输介质、载波或其它瞬时信号。
计算机系统900还可以包括通往一个或多个通信网络(955)的接口。例如,网络可以是无线的、有线的、光学的。网络还可为局域网、广域网、城域网、车载网络和工业网络、实时网络、延迟容忍网络等等。网络还包括诸如以太网、无线局域网、蜂窝网络(包括全球移动通信系统(GSM)、第三代(3G)、第四代(4G)、第五代(5G)、长期演进(LTE)等)等的局域网、电视有线或无线广域数字网络(包括有线电视、卫星电视、和地面广播电视)、车载和工业网络(包括CANBus)等等。某些网络通常需要外部网络接口适配器(954),用于连接到某些通用数据端口或外围总线(949)(例如,计算机系统900的通用串行总线(USB)端口);其它系统通常通过连接到如下所述的系统总线集成到计算机系统900的核心(例如,以太网接口集成到PC计算机系统或蜂窝网络接口集成到智能电话计算机系统)。作为示例,网络955可以使用网络接口954连接到外围总线949。通过使用这些网络中的任何一个,计算机系统900可以与其它实体进行通信。所述通信可以是单向的,仅用于接收(例如,无线电视),单向的仅用于发送(例如CAN总线到某些CAN总线设备),或双向的,例如通过局域或广域数字网络到其它计算机系统。上述的每个网络和网络接口(954)可使用某些协议和协议栈。
上述的人机界面设备、人可访问的存储设备以及网络接口可以连接到计算机系统900的核心940。
核心940可包括一个或多个中央处理单元(CPU)941、图形处理单元(GPU)942、以现场可编程门阵列(FPGA)943形式的专用可编程处理单元、用于特定任务的硬件加速器944等。这些设备以及只读存储器(ROM)945、随机存取存储器(RAM)946、内部大容量存储器(例如内部非用户可存取硬盘驱动器、固态硬盘(SSD)等)947等可通过系统总线1248进行连接。在某些计算机系统中,可以以一个或多个物理插头的形式访问系统总线1248,以便可通过额外的中央处理单元、图形处理单元等进行扩展。外围装置可直接附接到核心的系统总线1248,或通过外围总线949进行连接。外围总线的体系结构包括外围组件互联(PCI)、通用串行总线USB等。
CPU 941、GPU 942、FPGA 943和加速器944可以执行某些指令,这些指令组合起来可以构成上述计算机代码。该计算机代码可以存储在ROM 945或RAM 946中。过渡数据也可以存储在RAM 946中,而永久数据可以存储在例如内部大容量存储器947中。通过使用高速缓冲存储器可实现对任何存储器设备的快速存储和检索,高速缓冲存储器可与一个或多个CPU 941、GPU 942、大容量存储器947、ROM 945、RAM 946等紧密关联。
所述计算机可读介质上可具有计算机代码,用于执行各种计算机实现的操作。介质和计算机代码可以是为本公开的目的而特别设计和构造,也可以是计算机软件领域的技术人员所熟知和可用的介质和代码。
作为实施例而非限制,具有体系结构900的计算机系统,特别是核心940,可以作为处理器(包括CPU、GPU、FPGA、加速器等)提供执行包含在一个或多个有形的计算机可读介质中的软件的功能。这种计算机可读介质可以是与上述的用户可访问的大容量存储器相关联的介质,以及具有非易失性的核心940的特定存储器,例如核心内部大容量存储器947或ROM945。实现本申请的各种实施例的软件可以存储在这种设备中并且由核心940执行。根据特定需要,计算机可读介质可包括一个或一个以上存储设备或芯片。该软件可以使得核心940特别是其中的处理器(包括CPU、GPU、FPGA等)执行本文所述的特定过程或特定过程的特定部分,包括定义存储在RAM 946中的数据结构以及根据软件定义的过程来修改这种数据结构。另外或作为替代,计算机系统可以提供逻辑硬连线或以其它方式包含在电路(例如,加速器944)中的功能,该电路可以代替软件或与软件一起运行以执行本文所述的特定过程或特定过程的特定部分。在适当的情况下,对软件的引用可以包括逻辑,反之亦然。在适当的情况下,对计算机可读介质的引用可包括存储执行软件的电路(如集成电路(IC)),包含执行逻辑的电路,或两者兼备。本公开包括任何合适的硬件和软件组合。
虽然本公开已对多个示例性实施例进行了描述,但实施例的各种变更、排列和各种等同替换均属于本公开的范围内。因此应理解,本领域技术人员能够设计多种系统和方法,所述系统和方法虽然未在本文中明确示出或描述,但其体现了本公开的原则,因此属于本公开的精神和范围之内。

Claims (20)

1.一种使用至少一个处理器重建已编码当前图片以进行视频解码的方法,其特征在于,所述方法包括:
对当前图片对应的图片分区信息进行解码;
使用所述图片分区信息确定是否对所述当前图片的多个子区域应用填充;
基于确定不应用填充,对所述多个子区域进行解码而不填充所述多个子区域;
基于确定应用填充,使用所述图片分区信息确定所述填充是否包括环绕填充;
基于确定所述填充不包括环绕填充,对所述多个子区域应用重复填充,并且使用所述重复填充对所述多个子区域进行解码;
基于确定所述填充包括环绕填充,对所述多个子区域应用所述环绕填充,并且使用所述环绕填充对所述多个子区域进行解码;以及
基于所述解码的多个子区域重建所述当前图片。
2.根据权利要求1所述的方法,其特征在于,所述图片分区信息包括在与所述当前图片对应的图片参数集中。
3.根据权利要求2所述的方法,其特征在于,所述图片分区信息包括所述图片参数集中包括的至少一个标志。
4.根据权利要求1所述的方法,其特征在于,所述多个子区域包括砖块、图块、切片、图块组、子图片或子层中的至少一个。
5.根据权利要求1所述的方法,其特征在于,对所述多个子区域中的子区域的边界应用所述填充。
6.根据权利要求5所述的方法,其特征在于,所述边界是所述子区域的垂直边界。
7.根据权利要求5所述的方法,其特征在于,所述边界是所述子区域的水平边界。
8.根据权利要求1所述的方法,其特征在于,对所述多个子区域中的子区域的垂直边界和所述子区域的水平边界应用所述填充。
9.根据权利要求1所述的方法,其特征在于,所述图片分区信息指示所述环绕填充的偏移值。
10.根据权利要求1所述的方法,其特征在于,所述图片分区信息指示左填充宽度信息和右填充宽度信息。
11.一种重建已编码当前图片以进行视频解码的设备,其特征在于,所述设备包括:
至少一个存储器,被配置为存储程序代码;以及
至少一个处理器,被配置为读取所述程序代码,并按照所述程序代码的指示进行操作,所述程序代码包括:
第一解码代码,被配置为使所述至少一个处理器对当前图片对应的图片分区信息进行解码;
第一确定代码,被配置为使所述至少一个处理器使用所述图片分区信息确定是否对所述当前图片的多个子区域应用填充;
第二解码代码,被配置为使所述至少一个处理器基于确定不应用填充,对所述多个子区域进行解码而不填充所述多个子区域;
第二确定代码,被配置为基于确定应用填充,使用所述图片分区信息确定所述填充是否包括环绕填充;
第一重复代码,被配置为使所述至少一个处理器基于确定所述填充不包括环绕填充,对所述多个子区域应用重复填充,并且使用所述重复填充对所述多个子区域进行解码;
第二重复代码,被配置为使所述至少一个处理器基于确定所述填充包括环绕填充,对所述多个子区域应用所述环绕填充,并且使用所述环绕填充对所述多个子区域进行解码;以及
重建代码,被配置为使所述至少一个处理器基于所述解码的多个子区域重建所述当前图片。
12.根据权利要求11所述的设备,其特征在于,所述图片分区信息包括在与所述当前图片对应的图片参数集中。
13.根据权利要求11所述的设备,其特征在于,所述多个子区域包括砖块、图块、切片、图块组、子图片或子层中的至少一个。
14.根据权利要求11所述的设备,其特征在于,对所述多个子区域中的子区域的边界应用所述填充。
15.根据权利要求14所述的设备,其特征在于,所述边界是所述子区域的垂直边界。
16.根据权利要求14所述的设备,其特征在于,所述边界是所述子区域的水平边界。
17.根据权利要求11所述的设备,其特征在于,对所述多个子区域中的子区域的垂直边界和所述子区域的水平边界应用所述填充。
18.根据权利要求11所述的设备,其特征在于,所述图片分区信息指示所述环绕填充的偏移值。
19.根据权利要求11所述的设备,其特征在于,所述图片分区信息指示左填充宽度信息和右填充宽度信息。
20.一种非易失性计算机可读介质,其特征在于,用于存储指令,所述指令包括一个或多个指令,当所述一个或多个指令由重建已编码当前图片以进行视频解码的设备的一个或多个处理器执行时,使得所述一个或多个处理器:
对当前图片对应的图片分区信息进行解码;
使用所述图片分区信息确定是否对所述当前图片的多个子区域应用填充;
基于确定不应用填充,对所述多个子区域进行解码而不填充所述多个子区域;
基于确定应用填充,使用所述图片分区信息确定所述填充是否包括环绕填充;
基于确定所述填充不包括环绕填充,对所述多个子区域应用重复填充,并且使用所述重复填充对所述多个子区域进行解码;
基于确定所述填充包括环绕填充,对所述多个子区域应用所述环绕填充,并且使用所述环绕填充对所述多个子区域进行解码;以及
基于所述解码的多个子区域重建所述当前图片。
CN201980084988.5A 2018-12-31 2019-12-27 视频编解码的方法和设备 Active CN113228633B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862787063P 2018-12-31 2018-12-31
US62/787,063 2018-12-31
US16/710,936 2019-12-11
US16/710,936 US11252434B2 (en) 2018-12-31 2019-12-11 Method for wrap-around padding for omnidirectional media coding
PCT/US2019/068678 WO2020142360A1 (en) 2018-12-31 2019-12-27 Method for wrap-around padding for omnidirectional media coding

Publications (2)

Publication Number Publication Date
CN113228633A true CN113228633A (zh) 2021-08-06
CN113228633B CN113228633B (zh) 2024-05-03

Family

ID=71121895

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980084988.5A Active CN113228633B (zh) 2018-12-31 2019-12-27 视频编解码的方法和设备

Country Status (6)

Country Link
US (2) US11252434B2 (zh)
EP (1) EP3906673A4 (zh)
JP (3) JP7110490B2 (zh)
KR (2) KR20240051290A (zh)
CN (1) CN113228633B (zh)
WO (1) WO2020142360A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113678457A (zh) * 2019-09-20 2021-11-19 腾讯美国有限责任公司 视频流中的具有子区域划分的填充处理方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI822863B (zh) * 2018-09-27 2023-11-21 美商Vid衡器股份有限公司 360度視訊寫碼樣本導出
US11095916B2 (en) * 2019-07-23 2021-08-17 Qualcomm Incorporated Wraparound motion compensation in video coding
WO2021054805A1 (ko) * 2019-09-20 2021-03-25 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN114375580A (zh) * 2019-09-27 2022-04-19 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法和解码方法
US20220400287A1 (en) * 2019-11-15 2022-12-15 Hfi Innovation Inc. Method and Apparatus for Signaling Horizontal Wraparound Motion Compensation in VR360 Video Coding
WO2021100863A1 (en) * 2019-11-22 2021-05-27 Sharp Kabushiki Kaisha Systems and methods for signaling tiles and slices in video coding
US11711537B2 (en) * 2019-12-17 2023-07-25 Alibaba Group Holding Limited Methods for performing wrap-around motion compensation
US11425420B2 (en) * 2019-12-27 2022-08-23 Qualcomm Incorporated Wraparound offsets for reference picture resampling in video coding
KR20220160038A (ko) 2020-03-26 2022-12-05 알리바바 그룹 홀딩 리미티드 비디오 코딩 데이터를 시그널링하기 위한 방법들
CN115349263A (zh) * 2020-05-19 2022-11-15 谷歌有限责任公司 质量归一化视频转码的动态参数选择
WO2024091399A1 (en) * 2022-10-24 2024-05-02 Op Solutions, Llc Systems and methods for region packing based encoding and decoding

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108886620A (zh) * 2016-03-24 2018-11-23 诺基亚技术有限公司 用于视频编码和解码的装置、方法及计算机程序

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103339932B (zh) * 2010-10-01 2017-05-31 谷歌技术控股有限责任公司 在灵活分块时利用图片边界填补的代码化和解码
US9641866B2 (en) 2011-08-18 2017-05-02 Qualcomm Incorporated Applying partition-based filters
US20150071357A1 (en) * 2013-09-12 2015-03-12 Qualcomm Incorporated Partial intra block copying for video coding
KR102332006B1 (ko) 2016-02-09 2021-12-01 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 효율적인 감소성 또는 효율적인 랜덤 액세스를 허용하는 픽처/비디오 데이터 스트림들에 대한 개념
WO2017205648A1 (en) * 2016-05-26 2017-11-30 Vid Scale, Inc. Geometric conversion for 360-degree video coding
EP3378229A4 (en) * 2016-08-23 2018-12-26 SZ DJI Technology Co., Ltd. System and method for improving efficiency in encoding/decoding a curved view video
US10728573B2 (en) * 2017-09-08 2020-07-28 Qualcomm Incorporated Motion compensated boundary pixel padding
WO2020056247A1 (en) * 2018-09-14 2020-03-19 Vid Scale, Inc. Methods and apparatus for flexible grid regions
TWI822863B (zh) * 2018-09-27 2023-11-21 美商Vid衡器股份有限公司 360度視訊寫碼樣本導出
CN112997501B (zh) * 2018-11-02 2024-02-27 夏普株式会社 导出用于对视频数据进行解码的预测亮度样本值的方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108886620A (zh) * 2016-03-24 2018-11-23 诺基亚技术有限公司 用于视频编码和解码的装置、方法及计算机程序

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIANLE CHEN, 等: "Algorithm description for Versatile Video Coding and Test Model 3 (VTM 3)", 《JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 JVET-L1002》, pages 47 - 48 *
PHILIPPE HANHART,等: "CE13: PERP with horizontal geometry padding of reference pictures (Test 3.3)", 《JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 JVET-L0231》, pages 1 - 2 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113678457A (zh) * 2019-09-20 2021-11-19 腾讯美国有限责任公司 视频流中的具有子区域划分的填充处理方法
CN113678457B (zh) * 2019-09-20 2024-04-19 腾讯美国有限责任公司 视频编解码方法、计算机系统和电子设备

Also Published As

Publication number Publication date
US20200213617A1 (en) 2020-07-02
JP7110490B2 (ja) 2022-08-01
CN113228633B (zh) 2024-05-03
KR20210077769A (ko) 2021-06-25
EP3906673A1 (en) 2021-11-10
JP7342210B2 (ja) 2023-09-11
WO2020142360A1 (en) 2020-07-09
US20220116642A1 (en) 2022-04-14
EP3906673A4 (en) 2022-03-16
KR102656160B1 (ko) 2024-04-11
KR20240051290A (ko) 2024-04-19
JP2023162361A (ja) 2023-11-08
JP2022513715A (ja) 2022-02-09
US11252434B2 (en) 2022-02-15
JP2022141847A (ja) 2022-09-29

Similar Documents

Publication Publication Date Title
CN113228633B (zh) 视频编解码的方法和设备
CN113678457B (zh) 视频编解码方法、计算机系统和电子设备
US11159827B2 (en) Method for signaling output layer set with sub picture
US11641480B2 (en) Signaling of adaptive picture size in video bitstream
US11356681B2 (en) Coded video sub-bitstream extraction
US11483558B2 (en) Method for region-wise scalability with adaptive resolution change
CN113892260A (zh) 用于随机存取点和图片类型的标识的方法
CN113574873A (zh) 图块和子图像分割
CN112292859A (zh) 在解码中使用带外流结尾nal单元的方法和装置
CN113424546A (zh) 用于预测模式和已编码块标志(cbf)的进一步改进的上下文设计的方法和装置
US20230013085A1 (en) Region-wise scalability with adaptive resolution change
US20240098288A1 (en) Method for support of scalability with adaptive picture resolution
CN111953996A (zh) 视频解码的方法和装置
CN113994686A (zh) 点云编码的数据单元和参数集设计
US11166038B2 (en) Method for support of scalability with adaptive picture resolution
EP3903477B1 (en) Method for syntax controlled decoded picture buffer management
CN112995680A (zh) 重建已编码增强层图片的方法和设备
CN114073084A (zh) 在视频码流中有效发信号通知图片大小和分区信息的方法和装置
CN112118453A (zh) 视频解码方法和设备、计算机设备以及存储介质
RU2775391C1 (ru) Разбиение на тайлы и подизображения
CN118118667A (zh) 视频编码、解码的方法和计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40050981

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant