CN112262580B - 用于视频编码的解码器侧运动矢量推导 - Google Patents

用于视频编码的解码器侧运动矢量推导 Download PDF

Info

Publication number
CN112262580B
CN112262580B CN201980038521.7A CN201980038521A CN112262580B CN 112262580 B CN112262580 B CN 112262580B CN 201980038521 A CN201980038521 A CN 201980038521A CN 112262580 B CN112262580 B CN 112262580B
Authority
CN
China
Prior art keywords
video data
motion vector
current block
video
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980038521.7A
Other languages
English (en)
Other versions
CN112262580A (zh
Inventor
Y-H·赵
Y-C·孙
W-J·钱
Y-W·陈
M·卡切夫维茨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of CN112262580A publication Critical patent/CN112262580A/zh
Application granted granted Critical
Publication of CN112262580B publication Critical patent/CN112262580B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一种对视频数据进行解码的方法包括:执行针对与视频数据的当前块相邻的视频数据的一个或多个相邻块的预测过程,以获得视频数据的当前块的相邻像素的预测像素值;使用预测像素值来推导用于视频数据的当前块的模板;使用所推导的模板来执行解码器侧运动矢量推导技术,以推导用于视频数据的当前块的运动矢量;以及使用所推导的运动矢量来对视频数据的当前块进行解码。

Description

用于视频编码的解码器侧运动矢量推导
本申请要求于2019年4月9日递交的美国专利申请No.16/379,560的优先权,上述申请要求于2018年4月10日递交的美国临时专利申请No.62/655,718的权益,其中每个申请的全部内容通过引用的方式并入本文。
技术领域
本公开内容涉及视频编码和视频解码。
背景技术
数字视频能力可以被合并到大范围的设备中,包括数字电视机、数字直播系统、无线广播系统、个人数字助理(PDA)、膝上型计算机或台式计算机、平板计算机、电子书阅读器、数字相机、数字记录设备、数字媒体播放器、视频游戏设备、视频游戏控制台、蜂窝或卫星无线电电话(所谓的“智能电话”)、视频电话会议设备、视频流设备等。数字视频设备实现视频编码技术(诸如在通过MPEG-2、MPEG-4、ITU-T H.263、ITU-T H.264/MPEG-4(第10部分,高级视频编码(AVC))、高效率视频编码(HEVC)标准、ITU-T H.265/高效率视频编码(HEVC)、以及这样的标准的扩展所定义的标准中描述的那些技术)。通过实现这样的视频编码技术,视频设备可以更加高效地发送、接收、编码、解码和/或存储数字视频信息。
视频编码技术包括空间(帧内图片)预测和/或时间(帧间图片)预测以减少或去除在视频序列中固有的冗余。对于基于块的视频编码,视频切片(例如,视频图片或视频图片的一部分)可以被分割为视频块,视频块还可以被称为编码树单元(CTU)、编码单元(CU)和/或编码节点。图片的经帧内编码(I)的切片中的视频块是使用相对于相同图片中的相邻块中的参考样本的空间预测来编码的。图片的经帧间编码(P或B)的切片中的视频块可以使用相对于相同图片中的相邻块中的参考样本的空间预测或者相对于其它参考图片中的参考样本的时间预测。图片可以被称为帧,以及参考图片可以被称为参考帧。
发明内容
概括而言,本公开内容描述了用于解码器侧运动矢量推导的技术。在一些示例中,本公开内容描述了使用相邻块的预测像素值而不是使用重构的相邻像素值来推导用于解码器侧运动矢量推导的模板的技术。因为对模板的推导不使用残差信息,所以可以降低解码实现方式的复杂性。
在一个示例中,本公开内容描述了一种对视频数据进行解码的方法,所述方法包括:执行针对与视频数据的当前块相邻的视频数据的一个或多个相邻块的预测过程,以获得视频数据的所述当前块的相邻像素的预测像素值;使用所述预测像素值来推导用于视频数据的所述当前块的模板;使用所推导的模板来执行解码器侧运动矢量推导技术,以推导用于视频数据的所述当前块的运动矢量;以及使用所推导的运动矢量来对视频数据的所述当前块进行解码。
在另一示例中,本公开内容描述了一种被配置为对视频数据进行解码的装置,所述装置包括被配置为存储视频数据的存储器以及与所述存储器进行通信的一个或多个处理器,所述一个或多个处理器被配置为:执行针对与视频数据的当前块相邻的视频数据的一个或多个相邻块的预测过程,以获得视频数据的所述当前块的相邻像素的预测像素值;使用所述预测像素值来推导用于视频数据的所述当前块的模板;使用所推导的模板来执行解码器侧运动矢量推导技术,以推导用于视频数据的所述当前块的运动矢量;以及使用所推导的运动矢量来对视频数据的所述当前块进行解码。
在另一示例中,本公开内容描述了一种被配置为对视频数据进行解码的装置,所述装置包括:用于执行针对与视频数据的当前块相邻的视频数据的一个或多个相邻块的预测过程,以获得视频数据的所述当前块的相邻像素的预测像素值的单元;用于使用所述预测像素值来推导用于视频数据的所述当前块的模板的单元;用于使用所推导的模板来执行解码器侧运动矢量推导技术,以推导用于视频数据的所述当前块的运动矢量的单元;以及用于使用所推导的运动矢量来对视频数据的所述当前块进行解码的单元。
在另一示例中,本公开内容描述了一种存储指令的非暂时性计算机可读存储介质,所述指令在被执行时使得一个或多个处理器进行以下操作:执行针对与视频数据的当前块相邻的视频数据的一个或多个相邻块的预测过程,以获得视频数据的所述当前块的相邻像素的预测像素值;使用所述预测像素值来推导用于视频数据的所述当前块的模板;使用所推导的模板来执行解码器侧运动矢量推导技术,以推导用于视频数据的所述当前块的运动矢量;以及使用所推导的运动矢量来对视频数据的所述当前块进行解码。
在附图和下文的描述中阐述了一个或多个示例的细节。根据描述、附图以及权利要求,其它特征、对象和优势将是显而易见的。
附图说明
图1是示出可以执行本公开内容的技术的示例视频编码和解码系统的框图。
图2A和图2B是示出示例四叉树二叉树(QTBT)结构以及对应的编码树单元(CTU)的概念图。
图3A是示出用于合并模式的空间运动矢量候选的概念图。
图3B是示出用于高级运动矢量预测(AMVP)模式的空间运动矢量候选的概念图。
图4A是示出时间运动矢量候选的概念图。
图4B是示出运动矢量缩放的概念图。
图5是示出帧速率上转换双边(bilateral)匹配技术的概念图。
图6是示出帧速率上转换模板匹配技术的概念图。
图7是示出基于双边模板匹配的解码器侧运动矢量推导的概念图。
图8是示出当前块的相邻运动矢量的概念图。
图9是示出并置块的运动矢量和相邻运动矢量的概念图。
图10是示出可以执行本公开内容的技术的示例视频编码器的框图。
图11是示出可以执行本公开内容的技术的示例视频解码器的框图。
图12是示出根据本公开内容的技术的视频解码器的示例操作的流程图。
具体实施方式
本公开内容涉及解码器侧运动矢量推导(DMVD)。本公开内容中描述的解码器侧运动矢量推导技术可以与现有视频编解码器(诸如HEVC(高效率视频编码))中的任何一者结合使用,或者可以用作用于任何未来视频编码标准(诸如H.266通用视频编码(VVC))的编码技术。
图1是示出可以执行本公开内容的解码器侧运动矢量推导技术的示例视频编码和解码系统100的框图。概括而言,本公开内容的技术涉及对视频数据进行编码(coding)(编码(encoding)和/或解码(decoding)),以及具体地涉及用于DMVD的技术。通常,视频数据包括用于处理视频的任何数据。因此,视频数据可以包括原始的未经编码的视频、经编码的视频、经解码(例如,经重构)的视频、以及视频元数据(诸如信令数据)。
如图1所示,在该示例中,系统100包括源设备102,源设备102提供要由目的地设备116解码和显示的、经编码的视频数据。具体地,源设备102经由计算机可读介质110来将视频数据提供给目的地设备116。源设备102和目的地设备116可以包括大范围的设备中的任何设备,包括台式计算机、笔记本计算机(即,膝上型计算机)、平板计算机、机顶盒、电话手机(诸如智能电话)、电视机、相机、显示设备、数字媒体播放器、视频游戏控制台、视频流设备等。在一些情况下,源设备102和目的地设备116可以被配备用于无线通信,以及因此可以被称为无线通信设备。
在图1的示例中,源设备102包括视频源104、存储器106、视频编码器200以及输出接口108。目的地设备116包括输入接口122、视频解码器300、存储器120以及显示设备118。根据本公开内容,源设备102的视频编码器200和目的地设备116的视频解码器300可以被配置为应用用于解码器侧运动矢量推导的技术。因此,源设备102表示视频编码设备的示例,而目的地设备116表示视频解码设备的示例。在其它示例中,源设备和目的地设备可以包括其它组件或排列。例如,源设备102可以从诸如外部相机的外部视频源接收视频数据。同样,目的地设备116可以与外部显示设备对接,而不是包括集成显示设备。
在图1中所示的系统100仅是一个示例。通常,任何数字视频编码和/或解码设备可以执行用于解码器侧运动矢量推导的技术。源设备102和目的地设备116仅是这样的编码设备的示例,其中,源设备102生成经编码的视频数据以用于去往目的地设备116的传输。本公开内容将“编码”设备指代为执行对数据的编码(例如,编码和/或解码)的设备。因此,视频编码器200和视频解码器300分别表示编码设备(具体地,视频编码器和视频解码器)的示例。在一些示例中,设备102、116可以以基本上对称的方式进行操作,使得设备102、116中的每一者包括视频编码和解码组件。因此,系统100可以支持在视频设备102、116之间的单向或双向视频传输,例如,以用于视频流式传输、视频回放、视频广播或视频电话。
通常,视频源104表示视频数据(即,原始的未经编码的视频数据)的源,以及将视频数据的连续的一系列图片(还被称为“帧”)提供给视频编码器200,视频编码器200对用于图片的数据进行编码。源设备102的视频源104可以包括视频捕获设备,诸如摄像机、包含先前捕获的原始视频的视频存档、和/或用于从视频内容提供者接收视频的视频馈送接口。作为另外的替代方式,视频源104可以生成基于计算机图形的数据作为源视频,或者生成实时视频、被存档的视频和计算机生成的视频的组合。在每个情况下,视频编码器200可以对被捕获的、预捕获的或计算机生成的视频数据进行编码。视频编码器200可以将图像从所接收的次序(有时被称为“显示次序”)重新排列为用于编码的编码次序。视频编码器200可以生成包括经编码的视频数据的比特流。然后,源设备102可以经由输出接口108将经编码的视频数据输出到计算机可读介质110上,以便由例如目的地设备116的输入接口122接收和/或取回。
源设备102的存储器106和目的地设备116的存储器120表示通用存储器。在一些示例中,存储器106、120可以存储原始视频数据,例如,来自视频源104的原始视频以及来自视频解码器300的原始的经解码的视频数据。另外或可替代地,存储器106、120可以存储可由例如视频编码器200和视频解码器300分别地执行的软件指令。尽管在该示例中与视频编码器200和视频解码器300分别地示出,但是应当理解的是,视频编码器200和视频解码器300还可以包括用于在功能上类似或等效目的的内部存储器。此外,存储器106、120可以存储例如从视频编码器200输出以及输入到视频解码器300的经编码的视频数据。在一些示例中,存储器106、120的部分可以被分配为一个或多个视频缓冲器,例如,以存储原始的经解码和/或经编码的视频数据。
计算机可读介质110可以表示能够将经编码的视频数据从源设备102传输到目的地设备116的任何类型的介质或设备。在一个示例中,计算机可读介质110表示通信介质,其使得源设备102能够例如经由射频网络或基于计算机的网络,来实时地向目的地设备116直接地发送经编码的视频数据。根据诸如无线通信协议的通信标准,输出接口108可以对包括经编码的视频数据的传输信号进行调制,以及输入接口122可以对所接收的传输信息进行调制。通信介质可以包括任何无线或有线通信介质,诸如射频(RF)频谱或一条或多条物理传输线。通信介质可以形成诸如以下各项的基于分组的网络的一部分:局域网、广域网、或诸如互联网的全球网络。通信介质可以包括路由器、交换机、基站、或对于促进从源设备102到目的地设备116的通信而言可以有用的任何其它设备。
在一些示例中,源设备102可以将经编码的数据从输出接口108输出到存储设备112。类似地,目的地设备116可以经由输入接口122从存储设备112存取经编码的数据。存储设备112可以包括各种各样的分布式或本地存取的数据存储介质中的任何一种数据存储介质,诸如硬盘驱动器、蓝光光盘、DVD、CD-ROM、闪存、易失性或非易失性存储器、或用于存储经编码的视频数据的任何其它合适的数字存储介质。
在一些示例中,源设备102可以将经编码的视频数据输出到文件服务器114或者可以存储由源设备102生成的经编码的视频的另一中间存储设备。目的地设备116可以经由流式传输或下载来从文件服务器114存取被存储的视频数据。文件服务器114可以是能够存储经编码的视频数据以及将该经编码的视频数据发送给目的地设备116的任何类型的服务器设备。文件服务器114可以表示网页服务器(例如,用于网站)、文件传输协议(FTP)服务器、内容传送网络(CDN)设备、或网络附加存储(NAS)设备。目的地设备116可以通过任何标准数据连接(包括互联网连接)来从文件服务器114存取经编码的视频数据。这可以包括适合用于存取被存储在文件服务器114上的经编码的视频数据的无线信道(例如,Wi-Fi连接)、有线连接(例如,DSL、电缆调制解调器等)、或这两者的组合。文件服务器114和输入接口122可以被配置为根据流式传输协议、下载传输协议或其组合进行操作。
输出接口108和输入接口122可以表示无线发射机/接收机、调制解调器、有线联网组件(例如,以太网卡)、根据各种各样的IEEE 802.11标准中的任何一种标准进行操作的无线通信组件、或其它物理组件。在其中输出接口108和输入接口122包括无线组件的示例中,输出接口108和输入接口122可以被配置为根据蜂窝通信标准(诸如4G、4G-LTE(长期演进)、改进的LTE、5G等)来传输数据(诸如经编码的视频数据)。在其中输出接口108包括无线发射机的一些示例中,输出接口108和输入接口122可以被配置为根据其它无线标准(诸如IEEE802.11规范、IEEE 802.15规范(例如,ZigBeeTM)、BluetoothTM标准等)来传输数据(诸如经编码的视频数据)。在一些示例中,源设备102和/或目的地设备116可以包括相应的片上系统(SoC)设备。例如,源设备102可以包括用于执行被赋予视频编码器200和/或输出接口108的功能的SoC设备,以及目的地设备116可以包括用于执行被赋予视频解码器300和/或输入接口122的功能的SoC设备。
本公开内容的技术可以应用于视频编码,以支持各种各样的多媒体应用中的任何一种多媒体应用,诸如空中电视广播、有线电视传输、卫星电视传输、互联网流式视频传输(诸如基于HTTP的动态自适应流式传输(DASH))、被编码到数据存储介质上的数字视频、对被存储在数据存储介质上的数字视频的解码、或其它应用。
目的地设备116的输入接口122从计算机可读介质110(例如,存储设备112、文件服务器114等)接收经编码的视频比特流。经编码的视频比特流计算机可读介质110可以包括由视频编码器200定义的诸如以下语法元素的信令信息(其还由视频解码器300使用),所述语法元素具有描述视频块或其它编码单元(例如,切片、图片、图片组、序列等)的特性和/或处理的值。显示设备118将经解码的视频数据的经解码的图片显示给用户。显示设备118可以表示各种各样的显示设备中的任何一种显示设备,诸如液晶显示器(LCD)、等离子显示器、有机发光二极管(OLED)显示器、或另一类型的显示设备。
尽管在图1中未示出,但是在一些示例中,视频编码器200和视频解码器300可以各自与音频编码器和/或音频解码器整合,以及可以包括适当的MUX-DEMUX单元或其它硬件和/或软件,以处理包括公共数据流中的音频和视频两者的经复用的流。如果适用,MUX-DEMUX单元可以遵循ITU H.223复用器协议或其它协议(诸如用户数据报协议(UDP))。
视频编码器200和视频解码器300各自可以被实现为各种各样的合适的编码器电路和/或解码器电路中的任何一者,诸如一个或多个微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、分立逻辑、软件、硬件、固件、或其任何组合。当所述技术部分地在软件中实现时,设备可以将用于软件的指令存储在合适的非暂时性计算机可读介质中,以及使用一个或多个处理器,在硬件中执行指令以执行本公开内容的技术。视频编码器200和视频解码器300中的每一者可以被包括在一个或多个编码器或解码器中,编码器或解码器中的任一者可以被集成为相应设备中的组合编码器/解码器(CODEC)的一部分。包括视频编码器200和/或视频解码器300的设备可以包括集成电路、微处理器、和/或无线通信设备(诸如蜂窝电话)。
视频编码标准包括ITU-T H.261、ISO/IEC MPEG-1Visual、ITU-T H.262或ISO/IECMPEG-2Visual、ITU-T H.263、ISO/IEC MPEG-4Visual和ITU-T H.264(还被称为ISO/IECMPEG-4AVC),包括其可缩放视频编码(SVC)和多视图视频编码(MVC)扩展。
ITU-T视频编码专家组(VCEG)和ISO/IEC运动图像专家组(MPEG)的视频编码联合协作小组(JCT-VC)以及3D视频编码扩展开发联合协作小组(JCT-3V)已经开发出一种视频编码标准,即高效率视频编码(HEVC)或ITU-T H.265,包括其范围扩展、多视图扩展(MV-HEVC)和可缩放扩展(SHVC)。
ITU-T VCEG(Q6/16)和ISO/IEC MPEG(JTC 1/SC 29/WG 11)目前正在研究未来视频编码技术的标准化的潜在需求,所述未来视频编码技术具有超过当前的HEVC标准(包括其当前扩展和屏幕内容编码和高动态范围编码的近期扩展)压缩能力。这些组正在联合探索一项被称为联合视频探索小组(JVET)的合作,以评估由他们在该领域的专家提出的压缩技术设计。JVET于2015年10月19日至21日首次会面。以及最新版本的参考软件,即联合探索模型7(JEM 7)可从以下网址下载:https://jvet.hhi.fraunhofer.de/svn/svn_ HMJEMSoftware/tags/HM-16.6-JEM-57.0/联合探索试验模型7(JEM7)的算法描述可以被称为JVET-G1001
视频编码器200和视频解码器300可以根据视频编码标准(诸如ITU-T H.265(还被称为高效率视频编码(HEVC)标准)或对其的扩展(诸如多视图和/或可伸缩视频编码扩展))进行操作。替代地,视频编码器200和视频解码器300可以根据其它专有或行业标准(诸如联合探索试验模型(JEM)或ITU-T H.266,还被称为多功能视频编码(VVC))进行操作。VVC标准的近期草案是在以下各项中描述的:Bross等人,“Versatile Video Coding(Draft 3)”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11的联合视频专家组(JVET),第13次会议,马萨诸塞州马拉喀什,2019年1月9-18日,JVET-M1001-v3(下文中称为“VVC草案4”)。然而,本公开内容的技术不限于任何特定的编码标准。
如下文将更详细地说明的,视频解码器300可以被配置为执行本公开内容的一种或多种技术。例如,视频解码器300可以被配置为:执行针对与视频数据的当前块相邻的视频数据的一个或多个相邻块的预测过程,以获得视频数据的当前块的相邻像素的预测像素值;使用预测像素值来推导用于视频数据的当前块的模板;使用所推导的模板来执行解码器侧运动矢量推导技术,以推导用于视频数据的当前块的运动矢量;以及使用所推导的运动矢量来对视频数据的当前块进行解码。
通常,视频编码器200和视频解码器300可以执行对图片的基于块的编码。术语“块”通常指代包括要被处理的(例如,在编码和/或解码过程中要被编码、被解码或以其它方式使用的)数据的结构。例如,块可以包括亮度和/或色度数据的样本的二维矩阵。通常,视频编码器200和视频解码器300可以对以YUV(例如,Y、Cb、Cr)格式表示的视频数据进行编码。也就是说,视频编码器200和视频解码器300可以对亮度和色度分量进行编码,而不是对用于图片的样本的红色、绿色和蓝色(RGB)数据进行编码,其中,色度分量可以包括红色色调和蓝色色调色度分量两者。在一些示例中,视频编码器200在进行编码之前将所接收的经RGB格式化的数据转换为YUV表示,以及视频解码器300将YUV表示转换为RGB格式。替代地,预处理和后处理单元(未示出)可以执行这些转换。
概括而言,本公开内容可以涉及对图片的编码(例如,编码和解码)以包括对图片的数据进行编码或解码的过程。类似地,本公开内容可以涉及对图片的块的编码以包括对用于块的数据进行编码或解码(例如,预测和/或残差编码)的过程。经编码的视频比特流通常包括用于表示编码决策(例如,编码模式)以及将图片分割为块的语法元素的一系列值。因此,对图片或块的编码的参考通常应当被理解为用于形成图片或块的语法元素的编码值。
HEVC定义了各种块,包括编码单元(CU)、预测单元(PU)和变换单元(TU)。根据HEVC,视频编码装置(coder)(诸如视频编码器200)根据四叉树结构来将编码树单元(CTU)分割为CU。也就是说,视频编码装置将CTU和CU分割为四个相等的、不重叠的正方形,以及四叉树的每个节点具有零个或四个子节点。没有子节点的节点可以被称为“叶节点”,以及这样的叶节点的CU可以包括一个或多个PU和/或一个或多个TU。视频编码装置可以进一步分割PU和TU。例如,在HEVC中,残差四叉树(RQT)表示对TU的分区。在HEVC中,PU表示帧间预测数据,而TU表示残差数据。经帧内预测的CU包括帧内预测信息,诸如帧内模式指示。
作为另一示例,视频编码器200和视频解码器300可以被配置为根据JEM或VVC进行操作。根据JEM或VVC,视频编码装置(诸如视频编码器200)将图片分割为多个编码树单元(CTU)。视频编码器200可以根据树结构(诸如四叉树-二叉树(QTBT)结构或多类型树(MTT)结构)分割CTU。QTBT结构去除了多个分割类型的概念,诸如在HEVC的CU、PU和TU之间的分隔。QTBT结构包括两个级别:根据四叉树分割来分割的第一级、以及根据二叉树分割来分割的第二级。QTBT结构的根节点对应于CTU。二叉树的叶节点对应于编码单元(CU)。
在MTT分割结构中,可以使用四叉树(QT)分割、二叉树(BT)分割以及一个或多个类型的三叉树(TT)分割来对块进行分割。三叉树分割是其中块被拆分为三个子块的分割。在一些示例中,三叉树分割将块划划分为三个子块,而不通过来中心划分原始块。MTT中的分割类型(例如,QT、BT和TT)可以是对称的或不对称的。
在一些示例中,视频编码器200和视频解码器300可以使用单个QTBT或MTT结构来表示亮度和色度分量中的每一者,而在其它示例中,视频编码器200和视频解码器300可以使用两个或更多个QTBT或MTT结构,诸如用于亮度分量的一个QTBT/MTT结构和以及用于两个色度分量的另一QTBT/MTT结构(或者用于相应色度分量的两个QTBT/MTT结构)。
视频编码器200和视频解码器300可以被配置为使用每HEVC的四叉树分割、QTBT分割、MTT分割、或其它分割结构。为了解释的目的,关于QTBT分割给出了本公开内容的技术的描述。然而,应当理解的是,本公开内容的技术还可以应用于被配置为使用四叉树分割或者还使用其它类型的分割的视频编码装置。
本公开内容可以可互换地使用“NxN”和“N乘N”来指代块(诸如CU或其它视频块)在垂直和水平维度方面的样本维度,例如,16x16个样本或16乘16个样本。通常,16x16 CU在垂直方向上将具有16个样本(y=16),以及在水平方向上将具有16个样本(x=16)。同样地,NxN CU通常在垂直方向上具有N个样本,以及在水平方向上具有N个样本,其中N表示非负整数值。CU中的样本可以按行和列来排列。此外,CU不一定需要在水平方向上具有与在垂直方向上相同的数量的样本。例如,CU可以包括NxM个样本,其中M不一定等于N。
视频编码器200对用于CU的表示预测和/或残差信息以及其它信息的视频数据进行编码。预测信息指示将如何预测CU以便形成用于CU的预测块。残差信息通常表示在编码之前的CU的样本与预测块之间的逐样本的差异。
为了预测CU,视频编码器200通常可以通过帧间预测或帧内预测来形成用于CU的预测块。帧间预测通常指代根据先前编码的图片的数据来预测CU,而帧内预测通常指代根据相同图片的先前编码的数据来预测CU。为了执行帧间预测,视频编码器200可以使用一个或多个运动矢量来生成预测块。视频编码器200通常可以执行运动搜索,以识别例如在CU与参考块之间的差异方面与CU紧密匹配的参考块。视频编码器200可以使用绝对差之和(SAD)、平方差之和(SSD)、平均绝对差(MAD)、均方差(MSD)、或其它这样的差计算来计算差度量,以确定参考块是否与当前CU紧密匹配。在一些示例中,视频编码器200可以使用单向预测或双向预测来预测当前CU。
JEM和VVC的一些示例还提供仿射运动补偿模式,其可以被认为是帧间预测模式。在仿射运动补偿模式下,视频编码器200可以确定表示非平移运动(诸如放大或缩小、旋转、透视运动或其它不规则的运动类型)的两个或更多个运动矢量。
为了执行帧内预测,视频编码器200可以选择帧内预测模式来生成预测块。JEM和VVC的一些示例提供六十七个帧内预测模式,包括各种方向性模式、以及平面模式和DC模式。通常,视频编码器200选择帧内预测模式,帧内预测模式描述要根据其来预测当前块(例如,CU的块)的样本的、当前块的相邻样本。假设视频编码器200以光栅扫描次序(从左到右、从上到下)对CTU和CU进行编码,则这样的样本通常可以是在与当前块相同的图片中在当前块的上方、左上方或左侧的。
视频编码器200对表示用于当前块的预测模式的数据进行编码。例如,对于帧间预测模式,视频编码器200可以对表示使用各种可用的帧间预测模式中的哪一者的数据以及用于对应模式的运动信息进行编码。对于单向或双向帧间预测,例如,视频编码器200可以使用高级运动矢量预测(AMVP)或合并模式来对运动矢量进行编码。视频编码器200可以使用类似的模式来对用于仿射运动补偿模式的运动矢量进行编码。
在诸如对块的帧内预测或帧间预测的预测之后,视频编码器200可以计算用于该块的残差数据。残差数据(诸如残差块)表示在块与用于该块的预测块之间的逐样本的差异,该预测块是使用对应的预测模式来形成的。视频编码器200可以将一个或多个变换应用于残差块,以在变换域中而非在样本域中产生经变换的数据。例如,视频编码器200可以将离散余弦变换(DCT)、整数变换、小波变换或概念上类似的变换应用于残差视频数据。另外,视频编码器200可以在第一变换之后应用二次变换,诸如依赖于模式的不可分离二次变换(MDNSST)、依赖于信号的变换、Karhunen-Loeve变换(KLT)等。视频编码器200在应用一个或多个变换之后产生变换系数。
如上所述,在任何变换以产生变换系数之后,视频编码器200可以执行对变换系数的量化。量化通常指代如下的过程:在该过程中,对变换系数进行量化以可能减少用于表示系数的数据量,从而提供进一步的压缩。通过执行量化过程,视频编码器200可以减少与一些或全部系数相关联的比特深度。例如,视频编码器200可以在量化期间将n比特的值向下舍入为m比特的值,其中n大于m。在一些示例中,为了执行量化,视频编码器200可以执行对要被量化的值的按位右移。
在量化之后,视频编码器200可以扫描变换系数,从而根据包括经量化的变换系数的二维矩阵产生一维矢量。扫描可以被设计为将较高能量(以及因此较低频率)的系数放在矢量的前面,以及将较低能量(以及因此较低频率)的变换系数放在矢量的后面。在一些示例中,视频编码器200可以利用预定义的扫描次序来扫描经量化的变换系数以产生经串行化的矢量,以及然后对矢量的经量化的变换系数进行熵编码。在其它示例中,视频编码器200可以执行自适应扫描。在扫描经量化的变换系数以形成一维矢量之后,视频编码器200可以例如根据上下文自适应二进制算术编码(CABAC)来对一维矢量进行熵编码。视频编码器200还可以对用于描述与经编码的视频数据相关联的元数据的语法元素的值进行熵编码,以供视频解码器300在对视频数据进行解码时使用。
为了执行CABAC,视频编码器200可以将上下文模型内的上下文分配给要被发送的符号。上下文可以涉及例如符号的相邻值是不是零值。概率确定可以是基于被分配给符号的上下文的。
视频编码器200还可以例如在图片报头、块报头、切片报头中对视频解码器300生成诸如基于块的语法数据、基于图片的语法数据和基于序列的语法数据的语法数据,或诸如序列参数集合(SPS)、图片参数集合(PPS)或视频参数集合(VPS)的其它语法数据。同样地,视频解码器300可以对这样的语法数据进行解码以确定如何解码对应的视频数据。
以这种方式,视频编码器200可以生成比特流,其包括经编码的视频数据,例如,描述将图片分割为块(例如,CU)以及用于该块的预测和/或残差信息的语法元素。最终,视频解码器300可以接收比特流以及对经编码的视频数据进行解码。
通常,视频解码器300执行与由视频编码器200执行的过程互易的过程,以对比特流的经编码的视频数据进行解码。例如,视频解码器300可以使用CABAC,以与视频编码器200的CABAC编码过程基本上类似的、但是互易的方式来对用于比特流的语法元素的值进行解码。语法元素可以定义图片到CTU的分割信息、以及根据对应的分割结构(诸如QTBT结构)对每个CTU的分割,以定义CTU的CU。语法元素还可以定义用于视频数据的块(例如,CU)的预测和残差信息。
残差信息可以通过例如经量化的变换系数来表示。视频解码器300可以对块的经量化的变换系数进行逆量化和逆变换以重新产生用于该块的残差块。视频解码器300使用发信号通知的预测模式(帧内预测或帧间预测)和相关的预测信息(例如,用于帧间预测的运动信息)来形成用于该块的预测块。视频解码器300然后可以对预测块和残差块(在逐个样本的基础上)进行组合以重新产生原始块。视频解码器300可以执行额外处理,诸如执行去块化处理以减少沿着块的边界的视觉伪影。
本公开内容通常可能涉及“发信号通知”某些信息(诸如语法元素)。术语“发信号通知”通常可以指代对用于语法元素值和/或用于对经编码的视频数据进行解码的其它数据的传送。也就是说,视频编码器200可以在比特流中发信号通知用于语法元素的值。通常,发信号通知指代在比特流中生成值。如上所述,源设备102可以基本上实时地或不是实时地(诸如可以在将语法元素存储到存储设备112以供目的地设备116稍后取回时发生)将比特流传输到目的地设备116。
图2A和2B是示出示例四叉树二叉树(QTBT)结构130以及对应的编码树单元(CTU)132的概念图。实线表示四叉树拆分,以及虚线表示二叉树拆分。在二叉树的每个拆分(即,非叶)节点中,发信号通知一个标记以指示使用哪个拆分类型(即,水平或垂直),在该示例中,0指示水平拆分,以及1指示垂直拆分。对于四叉树拆分,由于四叉树节点将块水平地和垂直地拆分为具有相等大小的4个子块,因此不需要指示拆分类型。相应地,视频编码器200可以对以下各项进行编码,而视频解码器300可以对以下各项进行解码:用于QTBT结构130的区域树级别(即,实线)的语法元素(诸如拆分信息)、以及用于QTBT结构130的预测树级别(即,虚线)的语法元素(诸如拆分信息)。视频编码器200可以对用于通过QTBT结构130的终端叶节点表示的CU的视频数据(诸如预测和变换数据)进行编码,而视频解码器300可以对用于通过QTBT结构130的终端叶节点表示的CU的视频数据进行解码。
通常,图2B的CTU 132可以与定义与QTBT结构130的处于第一和第二级别的节点相对应的块的大小的参数相关联。这些参数可以包括CTU大小(表示样本中的CTU 132的大小)、最小四叉树大小(MinQTSize,其表示最小允许四叉树叶节点大小)、最大二叉树大小(MaxBTSize,其表示最大允许二叉树根节点大小)、最大二叉树深度(MaxBTDepth,其表示最大允许二叉树深度)、以及最小二叉树大小(MinBTSize,其表示最小允许二叉树叶节点大小)。
QTBT结构的与CTU相对应的根节点可以在QTBT结构的第一级别处具有四个子节点,其中的每个子节点可以是根据四叉树分割来分割的。也就是说,第一级别的节点是叶节点(没有子节点)或者具有四个子节点。QTBT结构130的示例将这样的节点表示为包括具有实线分支的父节点和子节点。如果第一级别的节点不大于最大允许二叉树根节点大小(MaxBTSize),则可以通过相应的二叉树进一步对它们进行分割。可以对一个节点的二叉树拆分进行迭代,直到根据拆分产生的节点达到最小允许二叉树叶节点大小(MinBTSize)或最大允许二叉树深度(MaxBTDepth)。QTBT结构130的示例将这样的节点表示为具有虚线分支。二叉树叶节点被称为编码单元(CU),其用于预测(例如,图片内或图片间预测)和变换,而不进行任何进一步分割。如上所讨论的,CU还可以被称为“视频块”或“块”。
在QTBT分割结构的一个示例中,CTU大小被设置为128x128(亮度样本和两个对应的64x64色度样本),MinQTSize被设置为16x16,MaxBTSize被设置为64x64,MinBTSize(对于宽度和高度两者)被设置为4,以及MaxBTDepth被设置为4。首先对CTU应用四叉树分割以生成四叉树叶节点。四叉树叶节点可以具有从16x16(即,MinQTSize)到128x128(即,CTU大小)的大小。如果叶四叉树节点是128x128,则由于该大小超过MaxBTSize(即,在该示例中是64x64),因此其将不通过二叉树进一步拆分。否则,叶四叉树节点将通过二叉树进一步分割。因此,四叉树叶节点还是用于二叉树的根节点,以及具有二叉树的深度为0。当二叉树深度达到MaxBTDepth(在该示例中是4)时,不允许进一步拆分。当二叉树节点具有等于MinBTSize(在该示例中是4)的宽度时,其意味着不允许进一步的水平拆分。类似地,具有等于MinBTSize的高度的二叉树节点意味着针对该二叉树节点不允许进一步的垂直拆分。如上所述,二叉树的叶节点被称为CU,以及根据预测和变换来被进一步处理,而不需要进一步分割。
在下一节中,将更详细地回顾与本公开内容相关的HEVC和JEM技术。首先讨论了HEVC中的CU结构和运动矢量预测。
在HEVC中,切片中最大的编码单元被称为编码树块(CTB)或编码树单元(CTU)。CTB包含四叉树,其节点是编码单元(CU)。
在HEVC主简档中,CTB的大小范围可以从16x16到64x64(但是在技术上可以支持8x8 CTB大小)。CU可以与CTB是相同的大小,小至8x8。每个CU是利用一个编码模式(例如,帧间或帧内)来编码的。当对CU进行帧间编码时,CU可以被进一步分割为2或4个预测单元(PU),或者当不应用进一步的分割时仅成为一个PU。当一个CU中存在两个PU时,这两个PU可以是一半大小的矩形或者两个大小是CU大小的1/4或3/4的矩形。
当对CU进行帧间编码时,每个PU具有一个运动信息集合,其是利用独特的帧间预测模式推导出的。在HEVC标准中,针对预测单元(PU)存在两个帧间预测模式,分别被称为合并模式(作为合并的特殊情况,被视为跳过)和高级运动矢量预测(AMVP)模式。
在AMVP或合并模式下,视频编码器200和视频解码器300可以被配置为针对多个运动矢量预测器来维护运动矢量(MV)候选列表。视频编码器200和视频解码器300可以被配置为通过从MV候选列表中选取一个候选来生成当前PU的运动矢量以及合并模式下的参考索引。
在HEVC中,MV候选列表包含用于合并模式的多达5个候选,以及仅包含用于AMVP模式的两个候选。合并候选可以包含运动信息集合,例如,与参考图片列表(列表0和列表1)和参考索引两者相对应的运动矢量。如果合并候选是通过合并索引识别的,则视频编码器200和视频解码器300可以被配置为确定用于当前块的预测的参考图片以及相关联的运动矢量。在另一方面,在AMVP模式下,对于来自列表0或列表1的每个潜在预测方向,由于AMVP候选仅包含运动矢量,因此参考索引是连同MV候选列表的MV预测器(MVP)索引一起显式地发信号通知的。在AMVP模式下,可以进一步完善预测的运动矢量。用于两个模式的候选是根据相同的空间和时间相邻块来类似地推导的。
尽管空间MV候选是根据针对特定PU(PU0)的相邻块(在图3A和3B中示出)推导出的,但是对于合并模式和AMVP模式,用于根据块来生成候选的方法是不同的。
在合并模式下,多达四个空间MV候选可以是以图3A中示出的顺序针对块400(PU0)推导的。顺序如下:左(0,A1),上(1,B1),右上(2,B0),左下(3,A0)和左上(4,B2)。
在AVMP模式中,块402(PU0)的相邻的块被划分成两组:包括块0和1的左组,以及包括块2、3和4组成的上组,如图3B所示。对于每个组,引用与通过发信号通知的参考索引指示的参考图片相同的参考图片的相邻块中的潜在候选具有被选择为形成该组的最终候选的最高优先级。全部相邻块可能不包含指向相同参考图片的运动矢量。因此,如果不能找到这样的候选,则第一可用候选将被缩放以形成最终候选,因此可以补偿时间距离差。
现在将讨论HEVC中的时间运动矢量预测。视频编码器200和视频解码器300可以被配置为:如果时间运动矢量预测器(TMVP)候选被启用并且可用,则可以将其在MV候选列表中添加到空间运动矢量候选之后。针对TMVP候选的运动矢量推导的过程对于合并模式和AMVP模式两者是相同的。然而,在HEVC中,在合并模式下,用于TMVP候选的目标参考索引被设置为0。
图4A示出了用于块404(PU0)的示例TMVP候选,以及图4B示出了运动矢量缩放过程406。用于TMVP候选推导的主块位置是在并置的PU外部的右下块。该候选在图4A中被示为块“T”。块T的位置用于补偿对用于生成空间相邻候选的上方和左边的块的偏差。然而,如果该块位于当前CTB行的外部,或者运动信息不可用,则利用PU的中心块替换该块。
TMVP候选的运动矢量是根据在切片级别指示的并置图片的并置PU推导出的。并置PU的运动矢量被称为并置MV。类似于AVC中的时间直接模式,为了推导TMVP候选运动矢量,并置MV可以被缩放以补偿时间距离差,如图4B所示。
现在将讨论HEVC中运动预测的其它方面。合并模式和AMVP模式的若干方面值得一提,如下所示。
运动矢量缩放:假设运动矢量的值与呈现时间中图片的距离成比例。运动矢量将两个图片(即参考图片和包含运动矢量的图片(被称为包含图片))进行关联。当利用运动矢量来预测另一运动矢量时,包含图片和参考图片的距离是基于图片顺序计数(POC)值来计算的。
对于要预测的运动矢量,两者的相关联的包含图片和参考图片可以是不同的。因此,计算新的距离(基于POC),以及基于这两个POC距离来缩放运动矢量。对于空间相邻候选,用于两个运动矢量的包含图片是相同的,而参考图片是不同的。在HEVC中,对于空间相邻候选和时间相邻候选,运动矢量缩放应用于TMVP和AMVP两者。
人工运动矢量候选生成:如果运动矢量候选列表不完整(例如,少于某个预先确定的数量的候选),则生成人工运动矢量候选以及将其插入在列表的末尾处,直到该列表具有指定数量的候选为止。
在合并模式下,存在两种类型的人工MV候选:仅针对B切片推导出的组合候选;以及用于AMVP的零运动矢量候选(如果第一种类型没有提供足够的人工候选者)。
对于已经在候选列表中并且具有必要的运动信息的每对候选,双向组合运动矢量候选是通过引用列表0中的图片的第一候选的运动矢量和引用列表1中的图片的第二候选的运动矢量的组合来推导的。
用于候选插入的修剪过程:来自不同块的候选可能碰巧是相同的,这降低了合并/AMVP候选列表的效率。应用修剪过程以解决该问题。修剪过程将一个候选与当前候选者列表中的其它候选进行比较,以避免在某种程度上插入完全相同的候选。为了降低复杂性,仅应用了有限数量的修剪过程,而不是将每个潜在的候选与全部其它现有候选进行比较。
现在将讨论JEM中的解码器侧运动矢量推导(DMVD)。在JEM参考软件的示例中,存在若干帧间编码工具,它们在解码器侧(例如,在视频解码器处)推导或完善用于当前块的运动矢量(MV)。下文是对与本公开内容相关的解码器侧MV推导(DMVD)方法的描述。
模式匹配运动矢量推导(Pattern matched motion vector derivation)(PMMVD)模式是基于帧速率上转换(FRUC)技术的特殊合并模式。利用该模式,块的运动信息不是发信号通知的,而是在解码器侧推导的。该技术被包括在JEM中。
视频编码器200可以被配置为当CU的合并标志为真时发信号通知用于CU的FRUC标志。当FRUC标志为假时,视频编码器200可以被配置为发信号通知合并索引,以及使用常规合并模式。当FRUC标志为真时,视频编码器200可以被配置为发信号通知额外的FRUC模式标志,以指示视频解码器300将使用哪种DMVD方法(例如,双边匹配或模板匹配)来推导用于块的运动信息。
在运动推导过程期间,视频解码器300首先基于双边匹配或模板匹配来推导用于整个CU的初始运动矢量。首先,视频解码器300检查CU的合并列表(被称为PMMVD种子),以及导致最小匹配成本的候选被选择作为起始点。然后,视频解码器300在起始点附近基于双边匹配或模板匹配来执行局部搜索,以及导致最小匹配成本的MV被采取作为用于整个CU的MV。随后,视频解码器300可以以所推导的CU运动矢量作为起始点来进一步完善子块级别的运动信息。
如图5所示,视频解码器300使用双边匹配,以通过在两个不同的参考图片(例如,参考图片412(Ref0)和414(Ref1))中沿着当前块的运动轨迹寻找两个参考块之间的最佳匹配来推导图片410中的当前块408的运动信息。在图5中,视频解码器300沿着运动矢量MV0寻找参考块416(R0)和参考块418(R1)作为最佳匹配。同样,视频解码器300沿着运动矢量MV1寻找参考块420(R'0)和参考块422(R'1)作为最佳匹配。在连续运动轨迹的假设下,指向两个参考块的运动矢量MV0和MV1应当同当前图片与两个参考图片之间的时间距离成比例。作为特殊情况,当当前图片在时间上在两个参考图片之间并且从当前图片到两个参考图片的时间距离相同时,双边匹配变为基于镜像的双向MV。
如图6所示,使用模板匹配,以通过寻找当前图片426中的模板(当前块424的上相邻块428和/或左相邻块430)与参考图片(例如,参考图片432(Ref0)或434(Ref1))中的块(大小与模板相同)之间的最佳匹配来推导图片426中的当前块424的运动信息。在图6中,可能作为最佳匹配的参考块被示为参考块436(R1)、参考块438(R'1)、参考块440(R0)和参考块442(R'0)。
在编码器侧(例如,视频编码器200),关于是否针对CU使用FRUC合并模式的决策是基于RD(速率-失真)成本选择的,如针对正常合并候选所做的。也就是说,两个匹配模式(双边匹配和模板匹配)都是通过使用RD成本选择来针对CU进行检查的。进一步对导致最低成本的模式与其它CU模式进行比较。如果FRUC匹配模式是最高效的模式,则对于CU,FRUC标志被设置为真,以及使用相关的匹配模式。
现在将讨论双边模板匹配。图7示出了双边模板匹配的示例。当执行双边模板匹配时,视频解码器300可以被配置为生成用于当前图片450中的当前块452的双边模板454。双边模板454是分别来自列表0的初始MV0和列表1的MV1的两个预测块的加权组合(例如,(R0+R1)>>1),如图7所示。例如,两个预测块可以是图片456(Ref0)中的块460(R0)和图片458(Ref1)中的块464(R1)。在另一示例中,两个预测块可以是图片456(Ref0)中的块462(R'0)和图片458(Ref1)中的块466(R'1)。
模板匹配操作包括计算生成的模板与参考图片中的样本区域(初始预测块周围)之间的成本度量。对于两个参考图片中的每个参考图片,产生最小模板成本的MV被视为该列表的经更新的MV来代替原始的MV。最后,使用两个新的MV(即,MV0'和MV1')进行常规预测。由于通常用于块匹配运动估计,因此可以利用绝对差之和(SAD)作为成本度量。
所提出的解码器侧运动矢量推导(DMVD)技术被应用于双预测的合并模式,其中一个来自过去的参考图片,以及另一个来自未来的参考图片,而不需要传输额外的语法元素。
在JEM4.0中,当局部照明补偿(LIC)、仿射、子CU合并候选或FRUC被选择用于一个CU时,不应用DMVD。
在与DMVD相关的方法(诸如FRUC双边匹配和模板匹配)中,可以在解码器侧推导MV,以及因此没有信令被要求用于运动信息。然而,推导过程增加解码器中(例如,在视频解码器300中)的复杂性。本公开内容描述了用于解决DMVD方法的解码器中的复杂性问题的若干技术。
在若干不同的逐条列举的示例中阐述了本公开内容的技术,如下所列出的。可以单独地应用下文的用于改进DMVD的编码效率和/或降低在视频解码器中实现DMVD的复杂性的技术。替代地,下文的技术的任何组合可以一起使用。第一示例技术解决了FRUC的一些限制,FRUC使用重构的像素作为模板。在其它示例中,本公开内容描述了在空间和时间相邻的PU中使用MV的其它运动推导方法,这避免了在FRUC模板匹配中高成本的搜索过程。
通过预测像素值来推导FRUC模板
在本公开内容的第一示例中,视频编码器200和视频解码器300可以被配置为通过使用预测像素值(例如,预测块的像素值)来推导DMVD模板,而不是使用重构的像素作为用于DMVD(例如,FRUC)的模板。在该示例中,对模板的推导不依赖于残差信息,因此可以降低视频解码器300的解码器实现方式的复杂性。
在该技术的一个示例中,在视频解码器300执行帧内/帧间预测以及获得相邻像素的预测像素值之后,视频解码器300可以使用预测像素值来推导DMVD模板(例如,FRUC模板)以及执行模板匹配(例如,FRUC模板匹配)。
更详细地说,视频解码器300可以首先执行针对与视频数据的当前块相邻的视频数据的一个或多个相邻块的预测过程,以获得视频数据的当前块的相邻像素的预测像素值。预测过程可以是帧间预测、帧内预测或任何其它预测编码技术。然后,视频解码器300可以被配置为使用预测像素值来推导用于视频数据的当前块的模板(例如,用于DMVD的模板)。然后,视频解码器300可以使用所推导的模板来执行解码器侧运动矢量推导技术,以推导用于视频数据的当前块的运动矢量,以及使用所推导的运动矢量来对视频数据的当前块进行解码。
上述技术可以用于任何使用模板来推导运动矢量的DMVD技术。在一个示例中,模板是帧速率上转换(FRUC)模板,以及解码器侧运动矢量推导技术是FRUC模板匹配。在另一示例中,解码器侧运动矢量推导技术是双边模板匹配。在另一示例中,解码器侧运动矢量推导技术是模式匹配运动矢量推导。
在一些示例中,用于推导模板的技术可以取决于相邻CU的编码模式。模板可以与预测结果(例如,来自帧内预测或帧间预测的预测结果)相同。如果相邻像素在利用帧间预测进行编码的CU中,则视频解码器300可以被配置为首先执行简化的帧间预测以及使用预测结果来推导FRUC模板。在一个示例中,简化的帧间预测可以是不需要双向光流(BIO)的帧间预测。在另一示例中,简化的帧间预测可以是具有整数运动的帧间预测。
如果相邻像素通过帧内预测的CU进行编码,则视频解码器300可以被配置为从模板中排除那些像素,因为帧内预测结果可能不可靠。在另一示例中,当视频解码器300执行FRUC模板匹配时,视频解码器300可以应用较低的权重值来计算通过帧内预测的CU进行编码的那些像素的绝对差之和(SAD)。
根据相邻运动矢量来推导MV
在本公开内容的另一示例中,视频解码器300可以被配置为根据当前块的相邻的运动矢量来推导用于当前块的运动矢量。如图8所示,视频解码器300可以被配置为将用于当前块470的MV推导为全部相邻MV的加权平均值:
Figure BDA0002820238530000221
视频解码器300可以被配置为将一个或多个设置用于权重值wi。在一个示例中,用于权重的设置是从视频编码器200显式地发信号通知给视频解码器300的,或者是由视频解码器300隐式地推导/定义的。
在一些示例中,可以应用特殊的权重值。一个示例可以是角点位置上的MV的权重值(例如,图8中的MV0和MVN)可以大于其它MV。权重值可以取决于当前块大小。如果相邻MV中的一个MV远离其它相邻MV,则可以将特殊的权重值应用于该MV。
在另一示例中,视频解码器300可以被配置为将用于当前块470的MV推导为角点MV的加权平均值。角点MV可以是位于当前块的左上角、右上角和左下角的空间相邻块的MV的子集。
在又一示例中,当前块470被划分为子块。视频解码器300可以被配置为根据当前块的相邻运动矢量来推导用于每个子块的运动矢量。视频解码器300可以被配置为将用于每个子块的MV推导为全部相邻MV的加权平均值。可以存在用于每个子块的权重值的一个或多个设置,以及该设置可以是从视频编码器200显式地发信号通知给视频解码器300的,或者是由视频解码器300隐式地推导/定义的。
根据并置图片上的MV来推导MV
在一个示例中,视频解码器300可以被配置为根据并置图片486中的并置块484(PU)来推导用于当前图片482中的当前块480(当前PU)的运动矢量,如图9所示。视频解码器300可以被配置为将用于当前块480的MV(或其子块的MV)推导为并置PU 484的MV的加权平均值,如下所示:
Figure BDA0002820238530000231
其中,MVcol是当前块480的并置图片486中的并置块484的运动矢量,以及MVi′是并置图片486中的运动矢量。与上述示例一样,可以存在用于权重值wi′的一个或多个设置,其可以是从视频编码器200显式地发信号通知给视频解码器300的,或者是由视频解码器300隐式地推导/定义的。在一些示例中,可以应用特殊的权重值。除了上述示例之外,另一示例可以是并置运动矢量的MV的权重值大于相邻MV的权重值。
本节中的技术还可以与上文的空间相邻MV相结合,即,视频解码器300可以被配置为将用于当前块的MV推导为空间相邻MV和并置图片上的MV的加权平均值,如下所示:
Figure BDA0002820238530000232
图10是示出可以执行本公开内容的技术的示例视频编码器200的框图。图10是出于解释的目的而提供的,以及不应当被认为对在本公开内容中广泛地举例说明和描述的技术进行限制。出于解释的目的,本公开内容在诸如HEVC视频编码标准和开发中的H.266视频编码标准的视频编码标准的背景下描述了视频编码器200。然而,本公开内容的技术不限于这些视频编码标准,以及通常适用于视频编码和解码。
在图10的示例中,视频编码器200包括视频数据存储器230、模式选择单元202、残差生成单元204、变换处理单元206、量化单元208、逆量化单元210、逆变换处理单元212、重构单元214、滤波器单元216、解码图片缓冲器(DPB)218和熵编码单元220。
视频数据存储器230可以存储要由视频编码器200的组件来编码的视频数据。视频编码器200可以从例如视频源104(图1)接收被存储在视频数据存储器230中的视频数据。DPB 218可以充当参考图片存储器,其存储参考视频数据以在由视频编码器200对后续视频数据进行预测时使用。视频数据存储器230和DPB 218可以由各种各样的存储器设备中的任何一种存储器设备形成,诸如动态随机存取存储器(DRAM)(包括同步DRAM(SDRAM))、磁阻RAM(MRAM)、电阻性RAM(RRAM)、或其它类型的存储器设备。视频数据存储器230和DPB 218可以由相同的存储器设备或分别的存储器设备来提供。在各个示例中,视频数据存储器230可以与视频编码器200的其它组件在芯片上(如图所示),或者相对于那些组件在芯片外。
在本公开内容中,对视频数据存储器230的参考不应当被解释为限于在视频编码器200内部的存储器(除非如此具体地描述)或者限于在视频编码器200外部的存储器(除非如此具体地描述)。而是,对视频数据存储器230的参考应当被理解为存储视频编码器200接收以用于编码的视频数据(例如,用于要被编码的当前块的视频数据)的参考存储器。图1的存储器106还可以提供对来自视频编码器200的各个单元的输出的临时存储。
示出了图10的各个单元以帮助理解由视频编码器200执行的操作。这些单元可以被实现为固定功能电路、可编程电路、或其组合。固定功能电路指代提供特定功能以及在可以执行的操作上预先设置的电路。可编程电路指代可以被编程以执行各种任务以及在可以执行的操作中提供灵活功能的电路。例如,可编程电路可以执行软件或固件,软件或固件使得可编程电路以通过软件或固件的指令定义的方式进行操作。固定功能电路可以执行软件指令(例如,以接收参数或输出参数),但是固定功能电路执行的操作类型通常是不可变的。在一些示例中,所述单元中的一个或多个单元可以是不同的电路块(固定功能或可编程),以及在一些示例中,一个或多个单元可以是集成电路。
视频编码器200可以包括根据可编程电路形成的算术逻辑单元(ALU)、基本功能单元(EFU)、数字电路、模拟电路和/或可编程内核。在其中使用由可编程电路执行的软件来执行视频编码器200的操作的示例中,存储器106(图1)可以存储视频编码器200接收和执行的软件的目标代码,或者视频编码器200内的另一存储器(未示出)可以存储这样的指令。
视频数据存储器230被配置为存储所接收的视频数据。视频编码器200可以从视频数据存储器230取回视频数据的图片,以及将视频数据提供给残差生成单元204和模式选择单元202。视频数据存储器230中的视频数据可以是要被编码的原始视频数据。
模式选择单元202包括运动估计单元222、运动补偿单元224和帧内预测单元226。模式选择单元202可以包括额外功能单元,其根据其它预测模式来执行视频预测。作为示例,模式选择单元202可以包括调色板单元、块内复制单元(其可以是运动估计单元222和/或运动补偿单元224的一部分),仿射单元、线性模型(LM)单元等。
模式选择单元202通常协调多个编码通路(pass),以测试编码参数的组合以及针对这样的组合的所得到的速率-失真值。编码参数可以包括将CTU分割为CU、用于CU的预测模式、用于CU的残差数据的变换类型、用于CU的残差数据的量化参数等。模式选择单元202可以最终选择编码参数的具有比其它测试的组合更佳的速率-失真值的组合。
视频编码器200可以将从视频数据存储器230取回的图片分割为一系列CTU,以及将一个或多个CTU封装在切片内。模式选择单元202可以根据树结构(诸如,上述HEVC的QTBT结构或四叉树结构)来分割图片的CTU。如上所述,视频编码器200可以通过根据树结构来分割CTU,从而形成一个或多个CU。这样的CU通常还可以被称为“视频块”或“块”。
通常,模式选择单元202还控制其组件(例如,运动估计单元222、运动补偿单元224和帧内预测单元226)以生成用于当前块(例如,当前CU,或者在HEVC中的PU和TU的重叠部分)的预测块。针对当前块的帧间预测,运动估计单元222可以执行运动搜索以识别在一个或多个参考图片(例如,被存储在DPB 218中的一个或多个先前编码的图片)中的一个或多个紧密匹配的参考块。具体地,运动估计单元222可以例如根据绝对差之和(SAD)、平方差之和(SSD)、平均绝对差(MAD)、均方差(MSD)等,来计算表示潜在参考块将与当前块的类似程度的值。运动估计单元222通常可以使用在当前块与所考虑的参考块之间的逐样本的差异来执行这些计算。运动估计单元222可以从这些计算中识别具有最低值的参考块,其指示与当前块最紧密匹配的参考块。
运动估计单元222可以形成一个或多个运动矢量(MV),所述运动矢量定义相对于当前图片中的当前块的位置而言参考块在参考图片中的的位置。然后,运动估计单元222可以将运动矢量提供给运动补偿单元224。例如,对于单向帧间预测,运动估计单元222可以提供单个运动矢量,而对于双向帧间预测,运动估计单元222可以提供两个运动矢量。然后,运动补偿单元224可以使用运动矢量来生成预测块。例如,运动补偿单元224可以使用运动矢量来取回参考块的数据。作为另一示例,如果运动矢量具有分数样本精度,则运动补偿单元224可以根据一个或多个插值滤波器来对用于预测块的值进行插值。此外,对于双向帧间预测,运动补偿单元224可以例如通过逐样本的平均或加权平均来取回用于通过相应的运动矢量标识的两个参考块的数据,以及对所取回的数据进行组合。
作为另一示例,对于帧内预测或帧内预测编码,帧内预测单元226可以根据与当前块相邻的样本来生成预测块。例如,对于方向性模式,帧内预测单元226通常可以在数学上对相邻样本的值进行组合,以及跨越当前块沿着所定义的方向来填充这些计算出的值以产生预测块。作为另一示例,对于DC模式,帧内预测单元226可以计算与当前块的相邻样本的平均值,以及生成预测块以包括针对预测块的每个样本的该得到的平均值。
模式选择单元202将预测块提供给残差生成单元204。残差生成单元204从视频数据存储器230接收当前块的原始的未经编码的版本,以及从模式选择单元202接收预测块。残差生成单元204计算在当前块与预测块之间的逐样本的差异。所得到的逐样本的差异定义了用于当前块的残差块。在一些示例中,残差生成单元204还可以确定在残差块中的样本值之间的差,以使用残差差分脉冲编码调制(RDPCM)来生成残差块。在一些示例中,可以使用执行二进制减法的一个或多个减法器电路来形成残差生成单元204。
在其中模式选择单元202将CU分割为PU的示例中,每个PU可以与亮度预测单元和对应的色度预测单元相关联。视频编码器200和视频解码器300可以支持具有各个大小的PU。如上文指示的,CU的大小可以指代CU的亮度编码块的大小,以及PU的大小可以指代PU的亮度预测单元的大小。假设特定CU的大小是2Nx2N,则视频编码器200可以支持用于帧内预测的2Nx2N或NxN的PU大小、以及用于帧间预测的2Nx2N、2NxN、Nx2N、NxN或类似的对称的PU大小。视频编码器200和视频解码器300还可以支持针对用于帧间预测的2NxnU、2NxnD、nLx2N和nRx2N的PU大小的非对称分割。
在其中模式选择单元202不将CU进一步分割为PU的示例中,每个CU可以与亮度编码块和对应的色度编码块相关联。如上所述,CU的大小可以指代CU的亮度编码块的大小。视频编码器200和视频解码器300可以支持2N×2N、2N×N或N×2N的CU大小。
对于其它视频编码技术(诸如块内复制模式编码、仿射模式编码和线性模型(LM)模式编码),作为少数示例,模式选择单元202经由与编码技术相关联的相应单元来生成用于正被编码的当前块的预测块。在一些示例中(诸如调色板模式编码),模式选择单元202可以不生成预测块,而是替代生成指示基于选择的调色板来重构块的方式的语法元素。在这样的模式下,模式选择单元202可以将这些语法元素提供给熵编码单元220以进行编码。
如上所述,残差生成单元204接收用于当前块和对应的预测块的视频数据。然后,残差生成单元204生成用于当前块的残差块。为了生成残差块,残差生成单元204计算在预测块与当前块之间的逐样本的差异。因此,
变换处理单元206将一个或多个变换应用于残差块,以生成变换系数的块(本文中被称为“变换系数块”)。变换处理单元206可以将各个变换应用于残差块,以形成变换系数块。例如,变换处理单元206可以将离散余弦变换(DCT)、方向变换、Karhunen-Loeve变换(KLT)、或概念上类似的变换应用于残差块。在一些示例中,变换处理单元206可以对残差块执行多个变换,例如,初级变换和二次变换(诸如旋转变换)。在一些示例中,变换处理单元206不对残差块应用变换。
量化单元208可以对变换系数块中的变换系数进行量化,以产生经量化的变换系数块。量化单元208可以根据与当前块相关联的量化参数(QP)值来对变换系数块的变换系数进行量化。视频编码器200(例如,经由模式选择单元202)可以通过调整与CU相关联的QP值来调整被应用于与当前块相关联的系数块的量化程度。量化可能引入信息丢失,以及因此,经量化的变换系数可以具有与由变换处理单元206生成的原始变换系数相比更低的精度。
逆量化单元210和逆变换处理单元212可以将逆量化和逆变换分别应用于经量化的变换系数块,以根据变换系数块来重构残差块。重构单元214可以基于经重构的残差块和由模式选择单元202生成的预测块来产生与当前块相对应的经重构的块(尽管潜在地具有某种程度的失真)。例如,重构单元214可以将经重构的残差块的样本与来自由模式选择单元202生成的预测块的对应样本相加,以产生经重构的块。
滤波器单元216可以对经重构的块执行一个或多个滤波器操作。例如,滤波器单元216可以执行去块化操作以减少沿着CU的边缘的块状伪影。在一些示例中,可以跳过滤波器单元216的操作。
视频编码器200将经重构的块存储在DPB 218中。例如,在其中不需要滤波器单元216的操作的示例中,重构单元214可以将经重构的块存储到DPB 218中。在其中需要滤波器单元216的操作的示例中,滤波器单元216可以将经滤波的经重构的块存储到DPB 218中。运动估计单元222和运动补偿单元224可以从DPB 218取回根据经重构的(以及潜在地经滤波的)块形成的参考图片,以对后续编码的图片的块进行帧间预测。另外,帧内预测单元226可以使用在DPB 218中的当前图片的经重构的块来对当前图片中的其它块进行帧内预测。
通常,熵编码单元220可以对从视频编码器200的其它功能组件接收的语法元素进行熵编码。例如,熵编码单元220可以对来自量化单元208的经量化的变换系数块进行熵编码。作为另一示例,熵编码单元220可以对来自模式选择单元202的预测语法元素(例如,用于帧间预测的运动信息或用于帧内预测的帧内模式信息)进行熵编码。熵编码单元220可以对作为视频数据的另一示例的语法元素执行一个或多个熵编码操作,以生成经熵编码的数据。例如,熵编码单元220可以执行上下文自适应可变长度编码(CAVLC)操作、CABAC操作、可变-可变(V2V)长度编码操作、基于语法的上下文自适应二进制算术编码(SBAC)操作、概率区间分割熵(PIPE)编码操作、指数哥伦布编码操作、或对数据的另一类型的熵编码操作。在一些示例中,熵编码单元220可以在其中语法元素未被熵编码的旁路(bypass)模式下操作。
视频编码器200可以输出比特流,其包括切片或图片的经重构的块所需要的经熵编码的语法元素。具体地,熵编码单元220可以输出比特流。
上述操作是关于块描述的。这样的描述应当被理解为用于亮度编码块和/或色度编码块的操作。如上所述,在一些示例中,亮度编码块和色度编码块是CU的亮度分量和色度分量。在一些示例中,亮度编码块和色度编码块是PU的亮度分量和色度分量。
在一些示例中,关于亮度编码块执行的操作不需要被重复用于色度编码块。作为一个示例,用于识别用于亮度编码块的运动矢量(MV)和参考图片的操作不需要被重复用于识别用于色度块的MV和参考图片。而是,用于亮度编码块的MV可以被缩放以确定用于色度块的MV,以及参考图片可以是相同的。作为另一示例,对于亮度编码块和色度编码块,帧内预测过程可以是相同的。
视频编码器200表示被配置为对视频数据进行编码的设备的示例,该设备包括:存储器,其被配置为存储视频数据;以及一个或多个处理单元,其在电路中实现并且被配置为:使用预测像素值来推导帧速率上转换(FRUC)模板以及使用所推导的模板来执行解码器侧运动矢量推导技术。在另一示例中,视频解码器300可以被配置为:确定来自视频数据的一个或多个相邻块的相应的运动矢量,以及使用来自视频数据的一个或多个相邻块的相应的运动矢量来推导用于视频数据的当前块的运动矢量。在另一示例中,视频解码器300可以被配置为:确定来自视频数据的一个或多个并置块的相应的运动矢量,以及使用来自视频数据的一个或多个并置块的相应的运动矢量来推导用于视频数据的当前块的运动矢量。
图11是示出可以执行本公开内容的技术的示例视频解码器300的框图。图11是出于解释的目的而提供的,以及不对在本公开内容中广泛地举例说明和描述的技术进行限制。出于解释的目的,本公开内容根据JEM、H.266/VVC和HEVC的技术描述了视频解码器300。然而,本公开内容的技术可以由被配置为其它视频编码标准的视频编码设备来执行。
在图11的示例中,视频解码器300包括编码图片缓冲器(CPB)存储器320、熵解码单元302、预测过程单元304、逆量化单元306、逆变换处理单元308、重构单元310、滤波器单元312和解码图片缓冲器(DPB)134。预测过程单元304包括运动补偿单元316和帧内预测单元318。预测过程单元304可以包括加法单元,以根据其它预测模式来执行预测。作为示例,预测过程单元304可以包括调色板单元、块内复制单元(其可以形成运动补偿单元316的一部分)、仿射单元、线性模型(LM)单元等。在其它示例中,视频解码器300可以包括更多、更少或不同的功能组件。
CPB存储器320可以存储要由视频解码器300的组件解码的视频数据,诸如经编码的视频比特流。例如,可以从计算机可读介质110(图1)获得被存储在CPB存储器320中的视频数据。CPB存储器320可以包括存储来自经编码的视频比特流的经编码的视频数据(例如,语法元素)的CPB。此外,CPB存储器320可以存储除了经编码的图片的语法元素之外的视频数据,诸如表示来自视频解码器300的各个单元的输出的临时数据。DPB314通常存储经解码的图片,视频解码器300可以输出经解码的图片,和/或当对经编码的视频比特流的后续数据或图片进行解码时使用经解码的图片作为参考视频数据。CPB存储器320和DPB 314可以由各种各样的存储器设备中的任何一者形成,诸如诸如动态随机存取存储器(DRAM)(包括同步DRAM(SDRAM))、磁阻RAM(MRAM)、电阻性RAM(RRAM)、或其它类型的存储器设备。CPB存储器320和DPB 314可以由相同的存储器设备或分别的存储器设备来提供。在各个示例中,CPB存储器320可以与视频解码器300的其它组件在芯片上,或者相对于那些组件在芯片外。
另外或替代地,在一些示例中,视频解码器300可以从存储器120(图1)取回经编码的视频数据。也就是说,存储器120可以如上文所讨论地利用CPB存储器320来存储数据。同样,当视频解码器300的一些或全部功能是在要由视频解码器300的处理电路执行的软件中实现的时,存储器120可以存储要由视频解码器300执行的指令。
示出了在图11中示出的各个单元以帮助理解由视频解码器300执行的操作。所述单元可以被实现为固定功能电路、可编程电路、或其组合。类似于图10,固定功能电路指代提供特定功能以及在可以执行的操作上预先设置的电路。可编程电路指代可以被编程以执行各种任务以及在可以执行的操作中提供灵活功能的电路。例如,可编程电路可以执行软件或固件,软件或固件使得可编程电路以通过软件或固件的指令定义的方式进行操作。固定功能电路可以执行软件指令(例如,以接收参数或输出参数),但是固定功能电路执行的操作类型通常是不可变的。在一些示例中,所述单元中的一个或多个单元可以是不同的电路块(固定功能或可编程),以及在一些示例中,一个或多个单元可以是集成电路。
视频解码器300可以包括根据可编程电路形成的ALU、EFU、数字电路、模拟电路和/或可编程内核。在其中由在可编程电路上执行的软件执行视频解码器300的操作的示例中,片上或片外存储器可以存储视频解码器300接收和执行的软件的指令(例如,目标代码)。
熵解码单元302可以从CPB接收经编码的视频数据,以及对视频数据进行熵解码以重新产生语法元素。预测过程单元304、逆量化单元306、逆变换处理单元308、重构单元310和滤波器单元312可以基于从比特流中提取的语法元素来生成经解码的视频数据。
通常,视频解码器300在逐块的基础上重构图片。视频解码器300可以单独地对每个块执行重构操作(其中,当前正在被重构(即,被解码)的块可以被称为“当前块”)。
熵解码单元302可以对定义经量化的变换系数块的经量化的变换系数的语法元素以及诸如量化参数(QP)和/或变换模式指示的变换信息进行熵解码。逆量化单元306可以使用与经量化的变换系数块相关联的QP来确定量化程度,以及同样地,确定逆量化程度以供逆量化单元306应用。逆量化单元306可以例如执行按位左移操作以对经量化的变换系数进行逆量化。逆量化单元306从而可以形成包括变换系数的变换系数块。
在逆量化单元306形成变换系数块之后,逆变换处理单元308可以将一个或多个逆变换应用于变换系数块,以生成与当前块相关联的残差块。例如,逆变换处理单元308可以将逆DCT、逆整数变换、逆Karhunen-Loeve变换(KLT)、逆旋转变换、逆方向变换或另一逆变换应用于系数块。
此外,预测过程单元304根据由熵解码单元302进行熵解码的预测信息语法元素来生成预测块。例如,如果预测信息语法元素指示当前块是经帧间预测的,则运动补偿单元316可以生成预测块。在这种情况下,预测信息语法元素可以指示在DPB 314中的要从其取回参考块的参考图片、以及标识相对于当前图片中的当前块的位置而言参考图片中的参考块的位置的运动矢量。运动补偿单元316通常可以以与关于运动补偿单元224(图10)所描述的方式基本类似的方式来执行帧间预测过程。
作为另一示例,如果预测信息语法元素指示当前块是经帧内预测的,则帧内预测单元318可以根据通过预测信息语法元素指示的帧内预测模式来生成预测块。再次,帧内预测单元318通常可以以与关于帧内预测单元226(图10)所描述的方式基本上类似的方式来执行帧内预测过程。帧内预测单元318可以从DPB 314取回与当前块的相邻样本的数据。
重构单元310可以使用预测块和残差块来重构当前块。例如,重构单元310可以将残差块的样本与预测块的对应样本相加来重构当前块。
滤波器单元312可以对经重构的块执行一个或多个滤波器操作。例如,滤波器单元312可以执行去块化操作以减少沿着经重构的块的边缘的块状伪影。不必要在全部示例中都执行滤波器单元312的操作。
视频解码器300可以将经重构的块存储在DPB 314中。如上所讨论的,DPB 314可以将参考信息(诸如用于帧内预测的当前图片以及用于后续运动补偿的先前解码的图片的样本)提供给预测过程单元304。此外,视频解码器300可以从DPB输出经解码的图片,以用于在诸如图1的显示设备118的显示设备上的后续呈现。
以这种方式,视频解码器300表示视频解码设备的示例,该视频解码设备包括:存储器,其被配置为存储视频数据;以及一个或多个处理单元,其在电路中实现并且被配置为:执行针对与视频数据的当前块相邻的视频数据的一个或多个相邻块的预测过程,以获得视频数据的当前块的相邻像素的预测像素值;使用预测像素值来推导用于视频数据的当前块的模板;使用所推导的模板来执行解码器侧运动矢量推导技术,以推导用于视频数据的当前块的运动矢量;以及使用所推导的运动矢量来对视频数据的当前块进行解码。
图12是根据本公开内容的技术示出视频解码器的示例操作的流程图。视频解码器300的一个或多个结构组件(包括运动补偿单元316)可以被配置为执行图12的技术。
在本公开内容的一个示例中,视频解码器300可以被配置为:执行针对与视频数据的当前块相邻的视频数据的一个或多个相邻块的预测过程,以获得视频数据的当前块的相邻像素的预测像素值(600);使用预测像素值来推导用于视频数据的当前块的模板(602);使用所推导的模板来执行解码器侧运动矢量推导技术,以推导用于视频数据的当前块的运动矢量(604)。视频解码器300还可以被配置为:使用所推导的运动矢量来对视频数据的当前块进行解码(606)。在一个示例中,预测过程是帧内预测或帧间预测。
在一个示例中,模板是帧速率上转换(FRUC)模板,以及解码器侧运动矢量推导技术是FRUC模板匹配。在另一示例中,解码器侧运动矢量推导技术是双边模板匹配。在另一示例中,解码器侧运动矢量推导技术是模式匹配运动矢量推导。
在本公开内容的另一示例中,为了使用预测像素值来推导用于视频数据的当前块的模板,视频解码器300还被配置为:基于预测像素值和视频数据的一个或多个相邻块的编码模式来推导用于视频数据的当前块的模板。
要认识到的是,根据示例,本文描述的任何技术的某些动作或事件可以以不同的顺序执行,可以被添加、合并或完全省略(例如,并非全部描述的动作或事件对于所述技术的实践都是必要的)。此外,在某些示例中,动作或事件可以例如通过多线程处理、中断处理或多个处理器并发地而不是顺序地执行。
在一个或多个示例中,所描述的功能可以在硬件、软件、固件或其任何组合中实现。如果在软件中实现,则所述功能可以作为一个或多个指令或代码存储在计算机可读介质上或者通过其进行发送以及由基于硬件的处理单元执行。计算机可读介质可以包括计算机可读存储介质,其对应于诸如数据存储介质的有形介质或者通信介质,所述通信介质包括例如根据通信协议来促进计算机程序从一个地方传送到另一个地方的任何介质。以这种方式,计算机可读介质通常可以对应于(1)非暂时性的有形计算机可读存储介质、或者(2)诸如信号或载波的通信介质。数据存储介质可以是可以由一个或多个计算机或者一个或多个处理器访问以取得用于实现在本公开内容中描述的技术的指令、代码和/或数据结构的任何可用的介质。计算机程序产品可以包括计算机可读介质。
通过举例而非限制性的方式,这样的计算机可读存储介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储、磁盘存储或其它磁存储设备、闪存、或者能够用于以指令或数据结构形式存储期望的程序代码以及能够由计算机访问的任何其它介质。此外,任何连接被适当地称为计算机可读介质。例如,如果使用同轴电缆、光纤光缆、双绞线、数字用户线(DSL)或者无线技术(诸如红外线、无线电和微波)从网站、服务器或其它远程源发送指令,则同轴电缆、光纤光缆、双绞线、DSL或者无线技术(诸如红外线、无线电和微波)被包括在介质的定义中。然而,应当理解的是,计算机可读存储介质和数据存储介质不包括连接、载波、信号或其它暂时性介质,而是替代地针对非暂时性的有形存储介质。如本文所使用的,磁盘和光盘包括压缩光盘(CD)、激光光盘、光盘、数字多功能光盘(DVD)、软盘和蓝光光盘,其中,磁盘通常磁性地复制数据,而光盘则利用激光来光学地复制数据。上述各项的组合也应当被包括在计算机可读介质的范围之内。
指令可以由一个或多个处理器来执行,诸如一个或多个数字信号处理器(DSP)、通用微处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、或其它等效的集成或分立逻辑电路。相应地,如本文所使用的术语“处理器”可以指代前述结构中的任何一者或者适合于实现本文描述的实现方式的任何其它结构。另外,在一些方面中,本文描述的功能可以在被配置用于编码和解码的专用硬件和/或软件模块内提供,或者被并入经组合的编解码器中。此外,所述技术可以完全在一个或多个电路或逻辑元件中实现。
本公开内容的技术可以在各种各样的设备或装置中实现,包括无线手机、集成电路(IC)或一组IC(例如,芯片组)。在本公开内容中描述了各个组件、模块或单元以强调被配置为执行所公开的技术的设备的功能性方面,但是不一定需要通过不同的硬件单元来实现。而是,如上所述,各个单元可以被组合在编解码器硬件单元中,或者由可互操作的硬件单元的集合(包括如上所述的一个或多个处理器)结合合适的软件和/或固件来提供。
已经描述了各个示例。这些示例和其它示例在下文的权利要求的范围内。

Claims (26)

1.一种对视频数据进行解码的方法,所述方法包括:
执行针对与视频数据的当前块相邻的视频数据的一个或多个相邻块的预测过程,以获得视频数据的所述当前块的相邻像素的预测像素值;
使用所述预测像素值来推导用于视频数据的所述当前块的模板,而不对视频数据的所述一个或多个相邻块进行重构;
基于所述预测像素值和视频数据的所述一个或多个相邻块的编码模式来推导用于视频数据的所述当前块的所述模板;
使用所推导的模板来执行解码器侧运动矢量推导技术,以推导用于视频数据的所述当前块的运动矢量;以及
使用所推导的运动矢量来对视频数据的所述当前块进行解码。
2.根据权利要求1所述的方法,其中,所述预测过程是帧内预测或帧间预测。
3.根据权利要求1所述的方法,其中,所述模板是帧速率上转换FRUC模板,以及所述解码器侧运动矢量推导技术为FRUC模板匹配。
4.根据权利要求1所述的方法,其中,所述解码器侧运动矢量推导技术是双边模板匹配。
5.根据权利要求1所述的方法,其中,所述解码器侧运动矢量推导技术是模式匹配运动矢量推导。
6.根据权利要求1所述的方法,还包括:
输出视频数据的经解码的当前块以用于显示。
7.一种被配置为对视频数据进行解码的装置,所述装置包括:
被配置为存储视频数据的存储器;以及
与所述存储器进行通信的一个或多个处理器,所述一个或多个处理器被配置为:
执行针对与视频数据的当前块相邻的视频数据的一个或多个相邻块的预测过程,以获得视频数据的所述当前块的相邻像素的预测像素值;
使用所述预测像素值来推导用于视频数据的所述当前块的模板,而不对视频数据的所述一个或多个相邻块进行重构;
基于所述预测像素值和视频数据的所述一个或多个相邻块的编码模式来推导用于视频数据的所述当前块的所述模板;
使用所推导的模板来执行解码器侧运动矢量推导技术,以推导用于视频数据的所述当前块的运动矢量;以及
使用所推导的运动矢量来对视频数据的所述当前块进行解码。
8.根据权利要求7所述的装置,其中,所述预测过程是帧内预测或帧间预测。
9.根据权利要求7所述的装置,其中,所述模板是帧速率上转换FRUC模板,以及所述解码器侧运动矢量推导技术是FRUC模板匹配。
10.根据权利要求7所述的装置,其中,所述解码器侧运动矢量推导技术是双边模板匹配。
11.根据权利要求7所述的装置,其中,所述解码器侧运动矢量推导技术是模式匹配运动矢量推导。
12.根据权利要求7所述的装置,其中,所述一个或多个处理器还被配置为:
输出视频数据的经解码的当前块以用于显示。
13.根据权利要求12所述的装置,还包括:
被配置为显示经解码的视频数据的显示器。
14.根据权利要求7所述的装置,其中,所述装置包括以下各项中的一项或多项:相机、计算机、移动设备、广播接收机设备、或机顶盒。
15.一种被配置为对视频数据进行解码的装置,所述装置包括:
用于执行针对与视频数据的当前块相邻的视频数据的一个或多个相邻块的预测过程,以获得视频数据的所述当前块的相邻像素的预测像素值的单元;
用于使用所述预测像素值来推导用于视频数据的所述当前块的模板,而不对视频数据的所述一个或多个相邻块进行重构的单元;
用于基于所述预测像素值和视频数据的所述一个或多个相邻块的编码模式来推导用于视频数据的所述当前块的所述模板的单元;
用于使用所推导的模板来执行解码器侧运动矢量推导技术,以推导用于视频数据的所述当前块的运动矢量的单元;以及
用于使用所推导的运动矢量来对视频数据的所述当前块进行解码的单元。
16.根据权利要求15所述的装置,其中,所述预测过程是帧内预测或帧间预测。
17.根据权利要求15所述的装置,其中,所述解码器侧运动矢量推导技术是模式匹配运动矢量推导。
18.根据权利要求15所述的装置,其中,所述解码器侧运动矢量推导技术是双边模板匹配。
19.根据权利要求15所述的装置,其中,所述模板是帧速率上转换FRUC模板,以及所述解码器侧运动矢量推导技术是FRUC模板匹配。
20.根据权利要求15所述的装置,还包括:
用于输出视频数据的经解码的当前块以用于显示的单元。
21.一种存储指令的非暂时性计算机可读存储介质,所述指令在被执行时使得一个或多个处理器进行以下操作:
执行针对与视频数据的当前块相邻的视频数据的一个或多个相邻块的预测过程,以获得视频数据的所述当前块的相邻像素的预测像素值;
使用所述预测像素值来推导用于视频数据的所述当前块的模板,而不对视频数据的所述一个或多个相邻块进行重构;
基于所述预测像素值和视频数据的所述一个或多个相邻块的编码模式来推导用于视频数据的所述当前块的所述模板;
使用所推导的模板来执行解码器侧运动矢量推导技术,以推导用于视频数据的所述当前块的运动矢量;以及
使用所推导的运动矢量来对视频数据的所述当前块进行解码。
22.根据权利要求21所述的非暂时性计算机可读存储介质,其中,所述预测过程是帧内预测或帧间预测。
23.根据权利要求21所述的非暂时性计算机可读存储介质,其中,所述模板是帧速率上转换FRUC模板,以及所述解码器侧运动矢量推导技术是FRUC模板匹配。
24.根据权利要求21所述的非暂时性计算机可读存储介质,其中,所述解码器侧运动矢量推导技术是双边模板匹配。
25.根据权利要求21所述的非暂时性计算机可读存储介质,其中,所述解码器侧运动矢量推导技术是模式匹配运动矢量推导。
26.根据权利要求21所述的非暂时性计算机可读存储介质,其中,所述指令还使得所述一个或多个处理器进行以下操作:
输出视频数据的经解码的当前块以用于显示。
CN201980038521.7A 2018-04-10 2019-04-10 用于视频编码的解码器侧运动矢量推导 Active CN112262580B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862655718P 2018-04-10 2018-04-10
US62/655,718 2018-04-10
US16/379,560 2019-04-09
US16/379,560 US10958928B2 (en) 2018-04-10 2019-04-09 Decoder-side motion vector derivation for video coding
PCT/US2019/026766 WO2019199953A1 (en) 2018-04-10 2019-04-10 Decoder-side motion vector derivation for video coding

Publications (2)

Publication Number Publication Date
CN112262580A CN112262580A (zh) 2021-01-22
CN112262580B true CN112262580B (zh) 2021-09-07

Family

ID=68096190

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980038521.7A Active CN112262580B (zh) 2018-04-10 2019-04-10 用于视频编码的解码器侧运动矢量推导

Country Status (3)

Country Link
US (1) US10958928B2 (zh)
CN (1) CN112262580B (zh)
WO (1) WO2019199953A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4072141A1 (en) * 2016-03-24 2022-10-12 Intellectual Discovery Co., Ltd. Method and apparatus for encoding/decoding video signal
US10602176B2 (en) * 2016-04-15 2020-03-24 Google Llc Coding interpolation filter type
WO2019183906A1 (zh) * 2018-03-29 2019-10-03 华为技术有限公司 帧间预测的方法和装置
WO2019200366A1 (en) * 2018-04-12 2019-10-17 Arris Enterprises Llc Motion information storage for video coding and signaling
US11272203B2 (en) * 2019-07-23 2022-03-08 Tencent America LLC Method and apparatus for video coding
KR20220157765A (ko) * 2021-05-21 2022-11-29 삼성전자주식회사 영상 부호화 장치 및 이의 동작 방법
CN117837145A (zh) * 2021-08-19 2024-04-05 联发科技(新加坡)私人有限公司 使用模板匹配细化候选选择
CN118101964A (zh) * 2022-11-25 2024-05-28 京东方科技集团股份有限公司 视频数据处理方法及装置、显示装置和存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5199123B2 (ja) * 2006-01-12 2013-05-15 エルジー エレクトロニクス インコーポレイティド 多視点ビデオの処理
EP2347590B1 (fr) * 2008-10-15 2018-01-17 Orange Prediction d'une image par compensation en mouvement en avant
US8917769B2 (en) * 2009-07-03 2014-12-23 Intel Corporation Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
US9247265B2 (en) * 2010-09-01 2016-01-26 Qualcomm Incorporated Multi-input adaptive filter based on combination of sum-modified Laplacian filter indexing and quadtree partitioning
JP2012151576A (ja) * 2011-01-18 2012-08-09 Hitachi Ltd 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置
JP5291134B2 (ja) * 2011-03-09 2013-09-18 日本電信電話株式会社 映像符号化/復号方法,映像符号化/復号装置およびそのプログラム
WO2012144876A2 (ko) * 2011-04-21 2012-10-26 한양대학교 산학협력단 인루프 필터링을 적용한 예측 방법을 이용한 영상 부호화/복호화 방법 및 장치
US20130208795A1 (en) * 2012-02-09 2013-08-15 Google Inc. Encoding motion vectors for video compression
WO2014078068A1 (en) * 2012-11-13 2014-05-22 Intel Corporation Content adaptive transform coding for next generation video
WO2016056822A1 (ko) * 2014-10-08 2016-04-14 엘지전자 주식회사 3d 비디오 코딩 방법 및 장치
US10958927B2 (en) * 2015-03-27 2021-03-23 Qualcomm Incorporated Motion information derivation mode determination in video coding
US20180249172A1 (en) * 2015-09-02 2018-08-30 Mediatek Inc. Method and apparatus of motion compensation for video coding based on bi prediction optical flow techniques
US10375413B2 (en) * 2015-09-28 2019-08-06 Qualcomm Incorporated Bi-directional optical flow for video coding
US10778999B2 (en) * 2016-09-30 2020-09-15 Qualcomm Incorporated Frame rate up-conversion coding mode with affine motion model
US20180192071A1 (en) * 2017-01-05 2018-07-05 Mediatek Inc. Decoder-side motion vector restoration for video coding
US10694181B2 (en) * 2017-01-27 2020-06-23 Qualcomm Incorporated Bilateral filters in video coding with reduced complexity
US10491917B2 (en) * 2017-03-22 2019-11-26 Qualcomm Incorporated Decoder-side motion vector derivation
US10986360B2 (en) * 2017-10-16 2021-04-20 Qualcomm Incorproated Various improvements to FRUC template matching
US11265551B2 (en) * 2018-01-18 2022-03-01 Qualcomm Incorporated Decoder-side motion vector derivation

Also Published As

Publication number Publication date
US20190313115A1 (en) 2019-10-10
CN112262580A (zh) 2021-01-22
WO2019199953A1 (en) 2019-10-17
US10958928B2 (en) 2021-03-23

Similar Documents

Publication Publication Date Title
CN113196749B (zh) 用于译码视频数据的方法和设备
CN112262580B (zh) 用于视频编码的解码器侧运动矢量推导
US20200228796A1 (en) Local illumination compensation in video coding
CN113170180A (zh) 基于历史的运动矢量预测的简化
KR20210046677A (ko) 애파인 모션 예측
JP2022533664A (ja) ビデオコーディングのためのマージモードコーディング
CN113812148A (zh) 用于视频译码的参考图片重采样和帧间译码工具
CN114128261A (zh) 用于视频译码的组合的帧间和帧内预测模式
WO2020069329A1 (en) Ultimate motion vector expression with adaptive directional information set
CN113508594A (zh) 视频编解码中三角形合并模式索引的信令
CN111869217A (zh) 简化的局部照度补偿
AU2019288269B2 (en) Signaling sub-prediction unit motion vector predictor
CN112534821A (zh) 运动向量预测子列表生成
US11064192B2 (en) Simplification of spatial-temporal motion vector prediction
CN113170162A (zh) 用于视频译码的共享候选列表和并行候选列表推导
CN113892264A (zh) 使用非矩形预测模式来减少用于视频数据预测的运动场存储
CN112640451A (zh) 矢量预测器列表生成
CN114009039A (zh) 视频译码中的时间运动矢量预测候选的推导
CN115997381A (zh) 视频译码中具有色度缩放的亮度映射映射域中的局部照度补偿的模型参数推导
WO2021061787A1 (en) Harmonized early termination in bdof and dmvr in video coding
US20210014524A1 (en) Motion vector prediction with motion information collecting buffer
CN112534820B (zh) 信令通知子预测单元运动矢量预测器
KR20230135587A (ko) 비디오 코딩을 위한 모델-기반 모션 벡터 차이 도출및 템플릿 매칭 예측
CN114731429A (zh) 视频译码中运动矢量细化过程的提前终止
JP2022521979A (ja) デコーダ側動きベクトル改良に対する制約

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant