CN103270700A - 使用平面表达的增强帧内预测编码 - Google Patents

使用平面表达的增强帧内预测编码 Download PDF

Info

Publication number
CN103270700A
CN103270700A CN2011800621389A CN201180062138A CN103270700A CN 103270700 A CN103270700 A CN 103270700A CN 2011800621389 A CN2011800621389 A CN 2011800621389A CN 201180062138 A CN201180062138 A CN 201180062138A CN 103270700 A CN103270700 A CN 103270700A
Authority
CN
China
Prior art keywords
value
pixel
prediction
transformation kernel
residual error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011800621389A
Other languages
English (en)
Other versions
CN103270700B (zh
Inventor
F·J·宝森
S·卡努木里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to CN201510204699.8A priority Critical patent/CN104796714B/zh
Priority to CN201510205155.3A priority patent/CN104796715B/zh
Priority to CN201510206211.5A priority patent/CN104811702B/zh
Priority to CN201510205685.8A priority patent/CN104796716B/zh
Priority to CN201510204609.5A priority patent/CN104811713B/zh
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to CN201510204610.8A priority patent/CN104811714B/zh
Priority to CN201510205697.0A priority patent/CN104811715B/zh
Publication of CN103270700A publication Critical patent/CN103270700A/zh
Application granted granted Critical
Publication of CN103270700B publication Critical patent/CN103270700B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明提供一种低复杂度平面模式编码,其中,使用在相应水平边界像素的值和垂直边界像素其中一个的值之间的线性插值计算第一预测值,且使用在相应垂直边界像素的值和水平边界像素其中一个的值之间的线性插值计算第二预测值。第一和第二预测值然后被平均以得出预测块中的相应预测像素值。预测块和目标块之间的残差被以信号方式发送到解码器。

Description

使用平面表达的增强帧内预测编码
相关申请
本申请要求2010年12月21日提交的临时美国专利申请序列号No.61/425,670和2011年3月4日提交的临时美国专利申请序列号No.61/449,528在35U.S.C§119(e)下的优先权,此处以引用的方式并入其全部内容。
本发明的背景
技术领域
本发明涉及视频编码且尤其涉及使用低复杂度平面预测模式编码增强的帧内预测。
背景技术
数字视频需要大量数据来以压缩方式表达数字视频序列(例如帧系列)的每一个或每个帧。对于大多数应用而言,因为带宽限制,在计算机网络上发送非压缩数字视频是不切实际的。另外,非压缩数字视频需要大量存储空间。数字视频通常以一些方式编码以减小存储需求且减小带宽需求。
用于编码数字视频的一种技术是帧间预测或间预测。帧间预测采用不同帧当中的时间冗余。视频的时间相邻帧典型地包括像素块,其基本上保持相同。在编码处理中,运动向量使得一个帧的像素的块的移动与另一帧中相似像素的块相互关联。因此,不需要系统两次编码像素块,而是一次编码像素块且提供运动向量以预测另一像素块。
用于编码数字视频的另一技术是帧内预测或内预测。帧内预测编码帧或其一部分而不参考另一帧中的像素。帧内预测采用帧内像素块之间的空间冗余。因为空间相邻的像素块一般具有相似属性,通过参考相邻块之间的空间关联改善了编码处理的效率。基于在相邻块中使用的预测模式,这种关联可以被目标块的预测采用。
典型地,编码器包括像素预测器,该像素预测器包括帧间预测器、帧内预测器和模式选择器。帧间预测器基于运动补偿参考帧针对接收的图像执行预测。帧内预测器基于当前帧或图片已经处理的部分针对接收的图像执行预测。帧内预测还包含多个不同帧内预测模式且在相应预测模式下执行预测。来自帧间预测器和帧内预测器的输出被提供到模式选择器。
模式选择器确定使用哪种编码方法,帧间预测编码或帧内预测编码,且当使用帧内预测编码时,确定使用在多个帧内预测模式中的哪个帧内预测编码的模式。在确定处理中,模式选择器使用成本函数来分析哪个编码方法或哪个模式相对于编码效率和处理成本给出最有效的结果。
帧内预测模式包括DC模式和定向模式。DC模式适当地表达像素值在块上恒定的块。定向模式适于表达在某一方向具有条纹图案的块。存在另一图像图案:其中图像是平滑的且其像素值在块中逐渐变化。DC模式和定向模式不适于预测图像内容中的小渐变,且尤其在低至中等码率可能形成恼人的块效应。这是因为当具有渐变像素值的块被编码时,块的AC系数倾向于量化为0,而DC系数具有非零值。
为了应付这种问题,H.264/AVC标准下的帧内预测模式附加地包括平面模式以利用像素值随着小平面梯度逐渐变化的平滑图像来表达块。在H.264/AVC标准的平面模式下,平面梯度被估算且以比特流以信号方式发送到解码器。
发明内容
本发明提供一种可以改善帧内预测编码的编码效率的低复杂度平面模式编码。在本发明中,在平面预测模式下,编码器计算第一预测值和第二预测值。使用在相应水平边界像素的值和垂直边界像素其中一个的值之间的线性插值计算第一预测值。使用在相应垂直边界像素的值和水平边界像素其中一个的值之间的线性插值计算第二预测值。编码器还执行第一和第二预测值的平均以得出预测块中的相应预测值。
在本发明的一个方面中,编码器以比特流向解码器以信号方式发送在预测块和目标块之间的残差。
在本发明的另一方面中,主要变换核集HN(i.j)被切换为次要变换核集GN(i.,j)。编码器使用次要变换核集GN(i.,j)变换残差。
次要变换核集GN(i.,j)可以通过以下等式其中一个来定义:
(a) G N ( i , j ) = k i × sin ( ( 2 i - 1 ) jπ 2 N + 1 ) ;
(b) G F N ( i , j ) = k i × sin ( ( 2 i - 1 ) ( 2 j - 1 ) π 4 N ) , ∀ 1 ≤ i , j ≤ N ; 以及
(c) G N ( i , j ) = k i × cos ( ( i - 1 ) ( 2 j - 1 ) π 2 N ) .
在本发明的另一方面中,用于尺寸N×N的次要变换核集GN(i.,j)通过用于尺寸M×M的主要变换核集HM(i.j)定义,其中M>N。具体而言,如果支持尺寸2N×2N(H2N)的变换核,则次要变换核集GN(i.,j)可以通过GN(i,j)=ki×H2N(2i,N+1-j)定义,或者在其它情况,GN(i,j)=HN(i,j)。
本发明还提供用于解码的低复杂度平面模式编码。在平面模式下,解码器计算第一预测值和第二预测值。使用在相应水平边界像素的值和垂直边界像素其中一个的值之间的线性插值计算第一预测值。使用在相应垂直边界像素的值和水平边界像素其中一个的值之间的线性插值计算第二预测值。解码器然后执行第一和第二预测值的平均以得出在预测块中的相应预测值。解码器解码从编码器以信号方式发送的由编码器在平面模式下产生的残差,且将经解码的残差相加到预测块以重构图像数据。
附图说明
图1是示出其上可以实施本发明的示例性硬件架构的框图。
图2是示出可以应用本发明的视频编码器的一般视图的框图。
图3是示出可以应用本发明的视频解码器的一般视图的框图。
图4是示出根据本发明的实施方式的编码器的功能模块的框图。
图5是示出根据本发明的实施方式的视频编码器执行的编码处理的流程图。
图6是示出根据本发明的实施方式的解码器的功能模块的框图。
图7是示出根据本发明的实施方式的视频解码器执行的解码处理的图。
图8是包含8×8个像素P(i,j)的目标块和用于预测像素P(i,j)的参考像素的示意性表达。
图9是示出根据JCT-VC A119中建议的平面模式编码产生预测像素的处理的示意性表达。
图10是示出根据本发明的平面模式编码产生预测像素的处理的示意性表达。
图11是示出根据本发明的平面模式编码产生预测像素的处理的另一示意性表达。
图12是示出主要变换核集和次要变换核集之间的切换的处理的流程图。
具体实施方式
图1示出其上可以实施本发明的计算机100的示例性硬件架构。请注意,图1中示出的硬件架构在实施本发明的实施方式的视频编码器和视频解码器中可以通用。计算机100包括处理器101、存储器102、存储设备105以及经由本地接口107通信耦合的一个或更多输入和/或输出(I/O)设备106(或外围设备)。如本领域所已知,本地接口105例如可以是但不限于一个或更多总线或其它有线或无线连接。
处理器101是用于执行尤其存储在存储器102中的软件的硬件设备。处理器101可以是任意客户定制或商业可得的处理器、中央处理单元(CPU)、与计算机100相关的若干处理器中的辅助处理器、基于半导体的微处理器(以微芯片或芯片集的形式)或一般用于执行软件指令的任意设备。
存储器102包括计算机可读介质,该计算机可读介质可以包括易失性存储器元件(例如随机存取存储器(RAM,诸如DRAM、SRAM、SDRAM等))和非易失性存储器元件(例如ROM、硬盘驱动、带、CDROM等)其中任意一个或组合。此外,存储器102可以包含电子、磁性、光学和/或其它类型的存储介质。计算机可读介质可以是可以存储、通信、传播或传输被指令执行系统、装置或设备使用或与之结合使用的程序的任意装置。请注意,存储器102可以具有分布式架构,其中各个组件彼此远程布置,但是可以被处理器101接入。
存储器102中的软件103可以包括一个或更多单独的程序,如下所述,程序中的每一个包含用于实施计算机100的逻辑功能的可执行指令的有序列表。根据本发明,在图1的示例中,存储器102中的软件103定义计算机100的视频编码和视频解码功能性。另外,尽管并不要求,存储器102可以包含操作系统(O/S)104。操作系统104基本控制计算机程序的执行且提供调度、输入输出控制、文件和数据管理、存储器管理以及通信控制和相关服务。
计算机100的存储设备105可以是包括静态存储设备或便携式存储设备的很多不同类型的存储设备其中之一。作为示例,存储设备105可以是磁带、盘、闪存、易失性存储器或不同存储设备。另外,存储设备105可以是安全数字存储卡或任意其它可拆卸存储设备105。
I/O设备106可以包括输入设备,例如但不限于触摸屏、键盘、鼠标、扫描仪、麦克风或其它输入设备。再者,I/O设备106还可以包括输出设备,例如但不限于显示器或其它输出设备。I/O设备106还可以包括经由输入和输出二者通信的设备,例如但不限于调制器/解调器(例如调制解调器;用于接入另一设备、系统或网络)、射频(RF)、无线或其它收发器、电话接口、桥、路由器或用作输入和输出二者的其它设备。
如本领域技术人员所已知,视频压缩通过在视频序列中去除冗余信息实现。存在很多不同视频编码标准,例如包括MPEG-1、MPEG-2、MPEG-4、H.261、H.263和H.264/AVC。应当注意,本发明并不旨在限制于任意具体的视频编码标准的应用。然而,使用此处通过引用结合的H.264/AVC标准的示例提供本发明的以下描述。H.264/AVC是最新的视频编码标准且实现优于诸如MPEG-1、MPEG-2、H.261和H.263的原先编码标准的明显性能改善。
在H.264/AVC中,视频的每个帧或图片可以分解成若干片段。这些片段被分割成称为宏块的16×16像素块,所述块然后可以进一步分割成8×16、16×8、8×8、4×8、8×4一直到4×4像素。存在H.264/AVC支持的5种类型的片段。在I片段中,所有宏块使用帧内预测编码。在P片段中,宏块可以使用帧内或帧间预测编码。P片段仅允许在每个宏块中使用一个运动补偿预测(MCP)信号。在B片段中,宏块可以使用帧内或帧间预测编码。每个预测可以使用两个MCP信号。SP片段允许P片段在两个不同视频流之间有效地切换。SI片段是用于SP片段的精确匹配,用于在仅使用帧内预测同时的随机访问或错误恢复。
图2示出可以应用本发明的视频编码器的一般视图。图中示出的块表示执行存储器102内的软件103的处理器101实现的功能模块。视频帧200的图片馈入到视频编码器201。视频编码器以宏块200A为单位处理图片200。每个宏块包含图片200的若干像素。在每个宏块上,执行到变换系数的变换,接着是到变换系数水平的量化。此外,使用帧内预测或帧间预测,从而针对预测像素值,不直接对像素数据而是对像素数据的差异执行编码步骤,由此实现更容易压缩的小值。
对于每个片段,编码器201产生形成相应片段的宏块的编码版本的大量句法元素。涉及变换系数(诸如变换系数水平或指示跳过的变换系数水平的要性图)的编码的句法元素中的所有残差数据元素被称为残差数据句法元素。除了这些残差数据句法元素之外,编码器201产生的句法元素包含控制信息句法元件,该控制信息句法元素分别包含每个宏块如何被编码以及必须被编码的控制信息。换句话说,句法元素可分割成两个类别。在第一类别中,控制信息句法元素例如包含涉及宏块类型、子宏块类型和关于空间和时间类型的预测模式的信息以及基于片段或基于宏块的控制信息。在第二类别中,所有残差数据元素(诸如指示量化变换系数块内的所有有效系数的位置和有效系数(以对应于量化步骤的水平的单位指示)值的要性图)组合且变成残差数据句法元素。
编码器201包括编码句法元素且产生用于每个片段的算术码字的熵编码器。当产生用于片段的算术码字时,熵编码器在视频信号比特流中采用在句法元素的数据值当中的统计相关性。编码器201向图3中示出的视频解码器301输出用于图片200的片段的编码视频信号。
图3示出可以应用本发明的视频解码器的一般视图。同样,图中示出的块表示通过执行存储器102中的软件103的处理器101实现的功能模块。视频解码器301接收编码视频信号且首先将信号熵解码回句法元素。解码器301使用句法元素以逐个宏块地且然后逐个片段地重构图片300中像素的图片样本300A。
图4示出视频编码器201的功能模块。这些功能模块通过执行存储器102中的软件103的处理器101实现。输入视频图片是表达诸如单色(“chroma”)和亮度(“luma”)(其它成分是可能的,例如色调、饱和度和值)之类的原始颜色的成分的采样点定义的自然(未压缩)视频图像的帧或域。输入视频图片被分割成宏块400,每个宏块表达由图片颜色的亮度成分的16×16个像素组成的方形图片区域。输入视频图片还被分割成宏块,每个宏块表达图片颜色的两个色度成分中的每个的8×8像素。在一般的编码器操作中,可以使用帧间或帧内预测来时间或空间预测输入的宏块。然而,用于讨论目的,假设宏块400全都是I片段类型宏块且仅经历帧内预测。
帧内预测在帧内预测模块401完成,下面将详细讨论该模块的操作。帧内预测模块401从原先已经编码、重构且存储在帧存储器403中的相邻块的水平和垂直边界像素产生预测块402。作为目标块400和预测块402之间的差异的预测块402的残差404通过变换模块405变换且通过量化器406量化。变换模块405将残差404变换成变换系数块。量化器406将变换系数量化成量化变换系数407。量化变换系数407然后在熵编码模块408被熵编码且作为编码视频信号409被发送(与涉及选择的帧内预测模式相关的其它信息一起)。
视频编码器201包括针对目标块执行帧内预测的解码功能性。解码功能性包括反向量化器410和反向变换模块411,它们针对已经量化的变换系数407执行反向量化和反向变换以产生与预测块402相加的解码预测残差412。解码预测残差410和预测块402的和值是重构块413,该重构块被存储在帧存储器403中且将从其读取且被帧内预测模块401使用以产生用于下一目标块400的解码的预测块402。去块效应滤波器可以可选地布置在帧存储器403的输入或输出以从重构图像去除块效应。
图5是示出视频编码器201执行的处理的流程图。根据H.264/AVC标准,帧内预测涉及使用原先编码和重构的相邻块的边界像素(“参考像素”)的插值在多个预测模式下预测目标块400的每个像素。预测模式通过正整数0、1、2标识,每个整数与用于预测目标块400中的具体像素的不同指令或算法有关。帧内预测模块401在相应预测模式中下运行帧内预测且产生不同预测块。在全搜索(“FS”)算法中,产生的预测块中的每一个与目标块400进行比较以发现最佳预测模式,该最佳预测模式在预测模式当中最小化预测残差404或产生较小预测残差404(步骤501)。最佳预测模式的标识被压缩(步骤502)且将与其它控制信息句法元素一起以信号方式发送到解码器301。
每个预测模式可以通过如口头描述的一般预测方向(例如,水平向上、垂直且对角向左下)描述。预测方向可以通过角度方向图形地描述。对应于预测模式的角度具有与从用于预测目标像素的参考像素的加权平均位置到目标像素位置的方向的一般关系。在DC预测模式中,产生预测块402,使得预测块402中的每个像素均匀地设置为参考像素的平均值。
返回图5,帧内预测模块401输出预测块402,其被从目标块400减去以获得残差404(步骤503)。变换模块405将残差404变换成变换系数块(步骤504)。量化器406将变换系数量化为量化变换系数。熵编码模式408熵编码量化变换系数(步骤506),该系数与最佳预测模式的压缩标识一同被发送。反向量化器410反向量化已量化的变换系数(步骤507)。反向变换模块411执行反向变换以得出解码预测残差412(步骤508),该残差与预测块402相加以变成重构块413(步骤509)。
图6示出视频解码器301的功能模块。这些功能模块通过执行存储器102中的软件103的处理器101实现。来自编码器201的编码视频信号首先被熵解码器600接收且被熵解码回量化变换系数601。量化变换系统601通过反向量化器602反向量化且通过反向变换模块603反向变换以产生预测残差604。帧内预测模块605被告知编码器201选择的预测模式。根据选择的预测模式,帧内预测模块605使用原先重构且存储在帧存储器607中的相邻块的边界像素执行与图5的步骤503中执行的类似的帧内预测处理以产生预测块606。预测块606被添加到预测残差604以重构解码视频信号块608。重构块608被存储在帧存储器607中以用于下一块的预测。
图7是示出视频编码器201执行的处理的流程图。视频解码器301解码从视频编码器201以信号方式发送的最佳预测模式的标识。使用解码的预测模式,帧内预测模块605使用原先重构且存储在帧存储器607中的相邻块的边界像素产生预测块606(步骤702)。算术解码器600将源自编码器201的编码视频信号解码回量化变换系数601(步骤703)。反向量化器602将量化变换系数反向量化为变换系数(步骤704)。反向变换模块603将变换系数反向变换为预测残差604(步骤705),该预测残差与预测块606相加以重构解码视频信号块608(步骤706)。
还可以参考图8解释视频编码器201执行的编码处理。图8是包含8×8个像素P(i,j)的目标块和用于预测像素P(i,j)的参考像素的示意性表达。在图8中,参考像素包含17个水平像素和17个垂直像素,其中左上像素对于水平和垂直边界共有。因此,32个不同像素可用于产生用于目标块的预测像素。请注意,尽管图8示出将要预测的8×8块,下面的解释一般化为对于不同配置中的各种数目的像素可用。例如,将要预测的块可以包含4×4像素阵列。预测块还可以包含8×8像素阵列、16×16像素阵列或更大像素阵列。包括方形或矩形阵列的其它像素配置也可以构成预测块。
假设像素块({P(i,j):1≤i,j≤N})使用水平和垂直参考像素({P(i,0):0≤i≤2N}∪{P(0,j):0≤j≤2N})进行帧内预测编码。其中PO(i,j)指示目标块的原始像素值,PP(i,j)指示预测像素值,PR(i,j)指示残差值,PQ(i,j)指示压缩残差值,且PC(i,j)指示用于像素P(i,j)的压缩值,下面的等式定义了它们的关系:
P R ( i , j ) = P O ( i , j ) - P P ( i , j ) , ∀ 1 ≤ i , j ≤ N
P T ( 1 : N , 1 : N ) = Q F ( H F N * P R ( 1 : N , 1 : N ) * ( H F N ) T )
P Q ( 1 : N , 1 : N ) = H I N * Q I ( P T ( 1 : N , 1 : N ) ) * ( H I H ) T
P C ( i , j ) = P Q ( i , j ) + P P ( i , j ) , ∀ 1 ≤ i , j ≤ N
Figure BDA00003388582000091
是表示正向变换核的N×N矩阵。
Figure BDA00003388582000092
是表示反向变换核的N×N矩阵。PT(1:N,1:N)表示在比特流中的变换和量化的残差信号。QF()表示量化操作且QI()表示反向量化操作。
预测像素值PP(i,j)通过使用参考像素{P(i,0):0≤i≤2N}∪{P(0,j):0≤j≤2N}执行的帧内预测模式确定。H.264/AVC支持帧内_4×4预测、帧内_8×8预测和帧内16×16预测。帧内_4×4预测在包括垂直预测模式、水平预测模式、DC预测模式、6个角度预测模式的9个预测模式下执行。帧内_8×8预测在如帧内_4×4预测中执行的9个预测模式下执行。帧内_16×16预测在包括垂直预测模式、水平预测模式、DC预测模式和平面预测模式的4个预测模式下执行。例如,在DC预测模式、垂直预测模式和水平预测模式下得出的预测像素值PP(i.j)如下定义:
DC预测模式:
P P ( i , j ) = Σ k = 1 N P C ( k , 0 ) + P C ( 0 , k ) 2 N , ∀ 1 ≤ i , j ≤ N
垂直预测模式:
P P ( i , j ) = P C ( 0 , j ) , ∀ 1 ≤ i , j ≤ N
水平预测模式:
P P ( i , j ) = P C ( i , 0 ) , ∀ 1 ≤ i , j ≤ N
最近,提议No.JCT-VC A119被提交给视频编码联合合作小组(JCT-VC),此处通过引用结合于此。提议No.JCT-VC A119提出一种低复杂度平面模式操作,其使用线性和双线性插值操作的组合来预测具有小平面梯度的渐变像素值。提出的平面模式处理在图9中示意性示出。该处理开始于识别在将要预测的块中的右底部像素的值PP(N,N)。然后,在值PP(N,N)和参考像素值PC(N,O)之间执行线性插值以获得在块中的底行的预测像素值PP(N,j)。同样,在值PP(N,N)和参考像素值PC(O,N)之间执行线性插值以获得在块中的最右边列的预测像素值PP(i,N)。此后,在预测像素值PP(N,j)和PP(i,N)以及参考像素值PC(i,0)和PC(0,j)之间执行双线性插值以获得在块中的剩余像素值PP(i,j)。提出的平面模式处理通过下面的等式表达:
右列:
P P ( i , N ) = ( N - i ) × P C ( 0 , N ) + i × P P ( N , N ) N , ∀ 1 ≤ i ≤ ( N - 1 )
底行:
P P ( N , j ) = ( N - j ) × P C ( N , 0 ) + j × P P ( N , N ) N , ∀ 1 ≤ j ≤ ( N - 1 )
其余像素:
P P ( i , j ) = ( N - i ) × P C ( 0 , j ) + i × P P ( N , j ) + ( N - j ) × P C ( i , 0 ) + j × P P ( i , N ) 2 N , ∀ 1 ≤ i , j ≤ ( N - 1 )
在JCT-VC A119中提出的平面模式处理中可以发现两个需要解决的问题。在提出的处理中,右底部像素的值PP(N,N)被以比特流以信号方式发送给解码器且用于在解码器解码目标块。换句话说,解码器需要右底部像素值来在提出的平面模式下执行预测。而且,在提出的处理中,在平面模式下残差不被得出且不被以信号方式发送到解码器。残差以信号方式发送的省略可以有助于将要发送的编码视频数据的减少,但是限制了平面模式应用到低比特率视频编码。
根据本发明的平面模式设计为解决与在JCT-VC A119中提出的平面模式处理相关的上述问题。根据本发明的一个实施方式,从参考像素得出右底部像素的值PP(N,N)。因此,无需向解码器以信号方式发送右底部像素的像素值PP(N,N)。在本发明的另一实施方式中,在平面模式下形成的预测块用于得出残差,该残差被变换和量化以用于以信号方式发送到解码器。常规离散余弦变换(DCT)和使用中等或粗糙量化参数的量化的应用倾向于从在平面模式下获得的残差得出零AC系数和非零DC系数。为了避免这点,本发明的一个实施方式使用次要变换核而不是主要变换核来变换在平面模式下获得的残差。而且,另一实施方式在平面模式下执行自适应量化,其中,量化参数根据目标块中的空间活动性(spatial activity)来自适应地变化。
在本发明的一个实施方式中,从参考像素计算右底部像素的值PP(N,N)。根据以下三个方法其中之一计算值PP(N,N):
方法1:
PP(N,N)=((Pc(N,O)+Pc(O,N))>>l)
其中运算符“>>”表示具有或不具有舍入的右移位操作。
方法2:
PP(N,N)=wh×PC(N,0)+wv×PC(0,N)
其中Wh和wv是使用PC(0,1:N)和Pc(1:N,0)确定的权重因子。例如,wh和wv如下计算:
w h = var ( P C ( 1 : N , 0 ) ) var ( P C ( 1 : N , 0 ) + var ( P C ( 0,1 : N ) )
w v = var ( P C ( 0,1 : N ) ) var ( P C ( 1 : N , 0 ) + var ( P C ( 0,1 : N ) )
其中运算符“var()”表示计算方差的操作。
方法3:
P P ( N , N ) = ( ( P C f ( N , 0 ) + P C f ( 0 , N ) ) > > 1 ) ,
其中, P C f ( 0 , N ) = f ( P C ( 0,0 ) , P C ( 0,1 ) , . . . , P C ( 0,2 N ) ) P C f ( N , 0 ) = f ( P C ( 0,0 ) , P C ( 1 , 0 ) , . . . , P C ( 2 N , 0 ) ) . y=f(x0,xl,…,x2N)表示算术运算。在本发明的一个实施方式中,算术运算定义为 y = f ( x 0 , x 1 , . . . , x 2 N ) = x N - 1 + 2 x N + x N + 1 4 . 在本发明的另一实施方式中,算术运算简单地定义为:y=f(x0,x1,…,x2N)二X2N。请注意,在本发明中,右底部像素的值PP(N,N)不被以信号方式发送到解码器。而是,解码器根据编码器采用的方法计算值PP(N,N),该方法可以是预定的或其标识可以被以信号方式发送到解码器。
图10是示出根据本发明的一个实施方式在平面模式下执行的预测像素值的处理的示意图,其中实施上述方法1。处理开始于使用方法1计算在块中的右底部像素的值PP(N,N)。在计算值PP(N,N)之后,在值PP(N,N)和参考像素值PC(N,0)之间执行线性插值以获得在块中的底部行的预测像素值PP(N,j)。同样,在值PP(N,N)和参考像素值PC(0,N)之间执行线性插值以获得在块中的最右列的预测像素值PP(i,N)。此后,在预测像素值PP(N,j)和PP(i,N)以及参考像素值PC(i,0)和PC(0,j)之间执行双线性插值以获得在块中的剩余像素值PP(i,j)。如下面的等式和图11所示,方法1可以简化预测在目标块中的像素值PP(i,j)的操作:
P P ( i , j ) = ( ( P P h ( i , j ) + P P v ( i , j ) > > 1 ) , ∀ 1 ≤ i , j ≤ N ,
其中, P P h ( i , j ) = ( N - j ) × P C ( i , 0 ) + j × P C ( 0 , N ) N 且如果需要分数精确度,则
P P v ( i , j ) = ( N - i ) × P C ( 0 , j ) + i × P C ( N , 0 ) N .
上述等式需要除以值N,以计算块中的像素值PP(i,j)。除法运算可以通过使用以下整数运算来避免:
P P ( i , j ) = ( ( P P h ( i , j ) + P P v ( i , j ) ) > > ( 1 + log 2 N ) , ∀ 1 ≤ i , j ≤ N
其中, P P h ( i , j ) = ( N - j ) × P C ( i , 0 ) + j × P C ( 0 , N ) 并且
P P v ( i , j ) = ( N - i ) × P C ( 0 , j ) + i × P C ( N , 0 )
如果整数精确度足够,则像素值PP(i,j)可以通过下式表达:
P P ( i , j ) = ( ( P P h ( i , j ) + P P v ( i , j ) > > 1 ) , ∀ 1 ≤ i , j ≤ N
其中, P P h ( i , j ) = ( ( N - j ) × P C ( i , 0 ) + j × P C ( 0 , N ) ) > > ( log 2 N )
P P v ( i , j ) = ( ( N - i ) × P C ( 0 , j ) + i × P C ( N , 0 ) ) > > ( log 2 N ) .
方法1可以修改为:
P P ( i , j ) = ( ( P P h ( i , j ) + P P v ( i , j ) > > 1 ) , ∀ 1 ≤ i , j ≤ N
P P h ( i , j ) = ( N - j ) × P C ( i , 0 ) + j × P C f ( 0 , N ) N
P P v ( i , j ) = ( N - j ) × P C ( 0 , j ) + i × P C f ( N , 0 ) N
P C f ( 0 , N ) = f ( P C ( 0,0 ) , P C ( 0,1 ) , . . . , P C ( 0,2 N ) )
P C f ( N , 0 ) = f ( P C ( 0,0 ) , P C ( 1 , 0 ) , . . . , P C ( 2 N , 0 ) ) ,
其中,y=f(x0,x1,…,x2Nl表示算术运算。在本发明的一个实施方式中,算术运算定义为 y = f ( x 0 , x 1 , . . . , x 2 N ) = x N - 1 + 2 x N + x N + 1 4 . 在本发明的另一实施方式中,算术操作简单地定义为y=f(x0,x1,…,x2N)=x2N
方法1还可以修改如下:
P P ( i , j ) = ( ( P P h ( i , j ) + P P v ( i , j ) > > 1 ) , ∀ 1 ≤ i , j ≤ N
P P h ( i , j ) = ( N - j ) × P C ( i , 0 ) + j × P C f ( i , N ) N
P P v ( i , j ) = ( N - i ) × P C ( 0 , j ) + i × P C f ( N , j ) N
P C f ( i , N ) = g ( i , P C ( 0,0 ) , P C ( 0,1 ) , . . . , P C ( 0,2 N ) )
P C f ( N , j ) = g ( i , P C ( 0,0 ) , P C ( 1 , 0 ) , . . . , P C ( 2 N , 0 ) ) ,
其中,y=g(i,x0,x1,…,x2N)表示可以通过以下四个等式其中之一定义的函数:
等式1:
y=g(i,x0,x1,…,x2N)=x2N
等式2:
y=g(i,x0,x1,…,x2N)=x(N+i)
等式3:
y = g ( i , x 0 , x 1 , . . . , x 2 N ) = ( N - i ) × x N + i × x 2 N N
等式4:
y = g ( i , x 0 , x 1 , . . . , x 2 N ) = x ( N + i ) f , 其中,
Figure BDA00003388582000138
是当在阵列[x0,x1,…x2N]上应用滤波器时x(N+i)的滤波值。在本发明的一个实施方式中,滤波器可以是3抽头滤波器 [ 1,2,1 ] 4 .
在上述实施方式中,假设垂直和水平参考像素{P(i,0)∶0≤i≤2N}∪{P(0,j∶0≤j≤2N}全都可用于预测。如果目标块位于片段或帧的边界,则参考像素可能不可用。如果垂直参考像素{P(i,0):0≤i≤2N}不可用于预测但是水平参考像素{P(0,j)∶0≤j≤2N}可用,则执行赋值以产生用于预测的垂直参考像素。如果水平像素{P(0,j):0≤i≤2N}不可用于预测但是垂直参考像素{P(i,j):0≤j≤2N}可用,则执行赋值
Figure BDA00003388582000141
以产生用于预测的水平参考像素。如果垂直参考像素或水平参考像素均不可用于预测,则执行赋值 P C ( i , 0 ) = P C ( 0 , j ) = ( 1 < < ( N b - 1 ) ) , &ForAll; 1 &le; i , j &le; 2 N 以产生垂直和水平参考像素。在等式中,Nb表示用于表示像素值的位深。
在本发明的一个实施方式中,和其它预测模式下产生的预测块一样,平面模式下产生的预测块用于得出残差PR(1∶N,l∶N),该残差通过变换模块405变换且通过量化器406量化。变换和量化的残差PT(l∶N,l∶N)以比特流以信号方式发送给解码器。而且,变换和量化的残差pT(l∶N,l∶N)被反向变换模块410和反向量化器411反向变换和量化以变成压缩残差PQ(l∶N,l∶N),该压缩残差被存储在帧存储器403中以用于预测后续目标块。
整个变换和量化残差PT(l:N,l:N)可以以比特流以信号方式发送给解码器。备选地,仅残差的一部分PT(l:K,l:K)以比特流以信号方式发送给解码器。K小于N(k<N)且被设置为预定值,例如1。K的值可以以比特流以信号方式发送给解码器。如果解码器仅接收残差的一部分PT(l∶K,l∶K)则它解码残差的该部分且将残差的剩余部分设置为0。尽管仅残差的一部分被以信号方式发送给解码器,但是整个残差PT(l:N,l:N)被反向变换且量化以得出压缩残差PQ(l∶N,l∶N)以用于预测后续目标块的目的。
而且,在本发明的另一实施方式中,量化参数自适应地变化以量化在平面模式下产生的残差。平面模式应用于具有平滑图像的块,该平滑图像的像素值随着小平面梯度逐渐变化。来自这种平滑块的残差倾向于使用中等或粗糙量化参数而量化为0。为了确保量化得出非零系数,在本发明的实施方式中,当在平面模式下产生的残差被量化时,量化参数切换为更精细的量化参数。用于量化在平面模式下产生的残差的量化参数(QPPlanar)可以使用基本量化参数(QPbaseP)定义。QPbaseP可以设置为表示更精细量化参数的预定值。如果QPbaseP对于解码器未知,它可以以比特流以信号方式发送到解码器,或更具体而言,如在H.264/AVC中定义的,在片段头或图片参数集中以信号方式发送。
在本发明的一个实施方式中,QPplanar被简单地设置为QPbaseP(QPplanar=QPbaseP)。QPplanar可以使用QPbaseP和QPN的和值定义:(QPPlanar=QPbaseP+QPN)其中,使用列出QPN值与N值关系的查找表确定QPN。QPplanar可以备选地定义为QPPlanar=QPbaseP+QPdiff(N)。QPdiff(N)是值N的函数且以比特流以信号方式发送到解码器,或更具体而言,如H.264/AVC定义在片段头或图片参数集中以信号方式发送。解码器针对其视频编解码器方案中支持的值N中的每一个值从比特流确定QPdiff(N)。
在本发明的另一实施方式中,通过添加差分量化参数(QPdelta),QPbaseP被修改为QPbaseP=QPbaseP+QPdelta,QPdelta是从块或块组中的空间活动性确定的量化参数以自适应地调节QPbaseP到空间活动性。QPdelta以比特流以信号方式发送到解码器。因为QPdelta从块中的空间活动性确定,所以它可以依赖于块中的图像内容而变成零,且不影响用于平面预测模式的QPbaseP
而且,在本发明的另一实施方式中,使用标准量化参数QPnormal确定QPPlanar,该标准量化参数用于量化在不同于平面模式中的预测模式下产生的残差。在这种实施方式中,根据以下5种方式中的一种来确定QPPlanar:
1.QPPlanar=QPnormal
2.QPplanar=QPnormal+QPN,其中从列出QPN值与N值关系的查找表确定QPN
3.QPPlanar=QPnormal+QPdiff(N),其中QPdiff(N)是值N的函数且以比特流以信号方式发送到解码器。
4.QPPlanar=QPnormal+QPdelta,其中QPdelta是从块或块组中的空间活动性确定的量化参数以自适应地调节QPnormal且以比特流以信号方式发送到解码器。
5.QPPlanar=QPnormal+QPN+QPdelta
在本发明的另一实施方式中,取代使用正向和反向变换核的主要集
Figure BDA00003388582000152
变换模块405和反向变换模块410使用正向和反向变换核的次要集
Figure BDA00003388582000151
来正向和反向变换在平面模式下产生的残差。主要变换核集用于变换在不同于平面模式的预测模式下产生的残差且适用于存在高频能力的块。另一方面,将经历平面预测模式的块具有低空间活动性且需要适用于具有平滑图像的块的变换核。在该实施方式中,如图12所示,变换模块405和反向变换模块410在主要变换核集和次要变换核集之间切换,且在变换在不同于平面模式下的预测模式下产生的残差时采用主要变换核集,且在变换在平面预测模式下产生的残差时使用次要变换核集。然而,请注意,次要变换核集不限于变换在平面预测模式下产生的残差且可以用于变换在不同于平面模式的预测模式下产生的残差。
次要正向变换核集
Figure BDA00003388582000161
可以是从以下选项其中之一得出的定点近似:
选项1(类型-7DST):
G F N ( i , j ) = k i &times; sin ( ( 2 i - 1 ) j&pi; 2 N + 1 ) , &ForAll; 1 &le; i , j &le; N
选项2(类型-4DST)
G F N ( i , j ) = k i &times; sin ( ( 2 i - 1 ) ( 2 j - 1 ) &pi; 4 N ) , &ForAll; 1 &le; i , j &le; N
选项3(类型-2DCT,通常已知为DCT):
G F N ( i , j ) = k i &times; cos ( ( i - 1 ) ( 2 j - 1 ) &pi; 2 N ) , &ForAll; 1 &le; i , j &le; N
选项4:
如果视频编解码器支持尺寸2N×2N的变换核
Figure BDA00003388582000165
G F N ( i , j ) = k i &times; H F 2 N ( 2 i , N + 1 - j ) , &ForAll; 1 &le; i , j &le; N , 否则
Figure BDA00003388582000167
因此,在选项4中,如果在视频编码中支持的最小和最大变换尺寸是4×4和32×32,则用于尺寸4×4的次要变换核集从用于尺寸8×8的主要变换核集得出。同样,用于尺寸8×8的次要变换核集从用于尺寸16×16的主要变换核集得出,且用于尺寸16×16的次要变换核集从用于尺寸32×32的主要变换核集得出。然而,由于支持的最大尺寸是32×32的尺寸限制,用于尺寸32×32的次要变换核集从用于尺寸32×32的主要变换核集得出。
缩放因子ki可以定义为满足
Figure BDA00003388582000168
缩放因子ki可以用于调节在H.264/AVC中使用的量化参数。可以使用正向变换核
Figure BDA000033885820001610
得出次要反向变换核集
Figure BDA000033885820001611
其中IN表示尺寸N×N的鉴别矩阵。
如果主要变换核集满足属性 H F 2 N ( i , j ) = ( - 1 ) i + 1 &times; H F 2 N ( i , 2 N + 1 - j ) , &ForAll; 1 &le; i , j &le; 2 N , 则选项4中定义的次要变换核集是优选的。选项4的有利之处在于,次要变换核集不需要与主要变换核集分开存储,因为可以从主要集得出次要集。如果用于尺寸2N×2N的主要变换核集是类型-2DCT的近似,则满足上述属性,且用于尺寸N×N的次要变换核集
Figure BDA00003388582000171
可以是类型-4DST的近似。如果主要变换核集不满足上述属性,则在选项1中的次要变换核集是优选的。
可以以两种方式其中之一来选择平面预测模式。在第一方式中,针对编码效率评估在平面预测模式下产生的预测块以及在其它预测模式下产生的预测块。如果在平面模式下产生的预测块在预测块中呈现最佳编码效率,则选择平面模式。备选地,针对编码效率仅评估平面模式。对于图像是平滑的且平面梯度小的区域,平面预测模式是优选的。因此,目标块的内容被分析以查看在块中的高频能量的量和沿着块的边缘的图像不连续性。如果高频能量的量低于阈值,且沿着块的边缘没有发现明显不连续性,则选择平面模式。否则,在其它预测模式下产生的预测块被评估以选择一个模式。在两种情况中,平面预测模式的选择以比特流以信号方式发送到解码器。
尽管本领域技术人员在阅读上述说明之后将毋庸置疑地显见本发明的很多变型和修改,但是应当理解,通过说明示出和描述的任意特定实施方式并不旨在以任意方式限制。因此,对于各个实施方式的具体内容的参考并不旨在限制权利要求的范围,权利要求本身仅陈述被视为对本发明关键的那些特征。

Claims (16)

1.一种用于在平面模式下预测目标块中的像素值的视频编码方法,该方法包括通过视频编码器的处理器执行的计算机可执行步骤以实施以下步骤:
使用在相应水平边界像素的值和垂直边界像素中的一个像素的值之间的线性插值来计算第一预测值;
使用在相应垂直边界像素的值和水平边界像素中的一个像素的值之间的线性插值来计算第二预测值;以及
平均所述第一预测值和所述第二预测值以得出在预测块中的相应预测像素值。
2.根据权利要求1所述的方法,该方法还包括以信号方式发送在所述预测块和所述目标块之间的残差。
3.根据权利要求2所述的方法,该方法还包括以下步骤:
从主要变换核集HN(i.j)切换为次要变换核集GN(i.,j);以及
使用所述次要变换核集GN(i.,j)变换所述残差。
4.根据权利要求3所述的方法,其中,所述次要变换核集GN(i.,j)通过以下等式其中一个来定义:
(a) G N ( i , j ) = k i &times; sin ( ( 2 i - 1 ) j&pi; 2 N + 1 ) ;
(b) G N ( i , j ) = k i &times; sin ( ( 2 i - 1 ) ( 2 j - 1 ) &pi; 4 N ) ; 以及
(c) G N ( i , j ) = k i &times; cos ( ( i - 1 ) ( 2 j - 1 ) &pi; 2 N ) .
5.根据权利要求3所述的方法,其中,用于尺寸N×N的次要变换核集GN(i.,j)通过用于尺寸M×M的主要变换核集HM(i.j)定义,其中M>N。
6.根据权利要求5所述的方法,其中,如果支持尺寸2N×2N(H2N)的变换核,则所述次要变换核集GN(i.,j)通过GN(i,j)=ki×H2N(2i,N+1-j)定义,或者在其它情况,GN(i,j)=HN(i,j)。
7.一种用于在平面模式下预测目标块中的像素值的视频解码方法,该方法包括通过视频解码器的处理器执行的计算机可执行步骤以实施以下步骤:
使用在相应水平边界像素的值和垂直边界像素中的一个像素的值之间的线性插值来计算第一预测值;
使用在相应垂直边界像素的值和水平边界像素中的一个像素的值之间的线性插值来计算第二预测值;以及
平均所述第一预测值和所述第二预测值以得出在预测块中的相应预测像素值。
8.根据权利要求7所述的方法,该方法还包括以下步骤:
解码从编码器以信号方式发送的由所述编码器在所述平面模式下产生的残差;以及
将经解码的残差相加到所述预测块以重构图像数据。
9.一种在平面模式下预测目标块中的像素值的视频编码器,该视频编码器包括计算机系统的处理器和存储器,所述存储器存储所述处理器可执行的程序以执行以下步骤:
使用在相应水平边界像素的值和垂直边界像素中的一个像素的值之间的线性插值来计算第一预测值;
使用在相应垂直边界像素的值和水平边界像素中的一个像素的值之间的线性插值来计算第二预测值;以及
平均所述第一预测值和所述第二预测值以得出在预测块中的相应预测像素值。
10.根据权利要求9所述的视频编码器,其中,所述处理器以信号方式发送在所述预测块和所述目标块之间的残差。
11.根据权利要求10所述的视频编码器,其中,所述处理器执行以下步骤:
从主要变换核集HN(i.j)切换为次要变换核集GN(i.,j);以及
使用所述次要变换核集GN(i.,j)变换所述残差。
12.根据权利要求11所述的视频编码器,其中,所述次要变换核集GN(i.,j)通过以下等式其中一个来定义:
(a) G N ( i , j ) = k i &times; sin ( ( 2 i - 1 ) j&pi; 2 N + 1 ) ;
(b) G N ( i , j ) = k i &times; sin ( ( 2 i - 1 ) ( 2 j - 1 ) &pi; 4 N ) ; 以及
(c) G N ( i , j ) = k i &times; cos ( ( i - 1 ) ( 2 j - 1 ) &pi; 2 N ) .
13.根据权利要求11所述的视频编码器,其中,用于尺寸N×N的次要变换核集GN(i.,j)通过用于尺寸M×M的主要变换核集HM(i.j)定义,其中M>N。
14.根据权利要求13所述的视频编码器,其中,如果支持尺寸2N×2N
Figure FDA00003388581900031
的变换核,则所述次要变换核集GN(i.,j)通过
Figure FDA00003388581900032
定义,或者在其它情况, G N ( i , j ) = H F N ( i , j ) .
15.一种在平面模式下预测目标块中的像素值的视频解码器,该视频解码器包括计算机系统的处理器和存储器,所述存储器存储所述处理器可执行的程序以执行以下步骤:
使用在相应水平边界像素的值和垂直边界像素中的一个像素的值之间的线性插值来计算第一预测值;
使用在相应垂直边界像素的值和水平边界像素中的一个像素的值之间的线性插值来计算第二预测值;以及
平均所述第一预测值和所述第二预测值以得出在预测块中的相应预测像素值。
16.根据权利要求19所述的视频解码器,其中,所述处理器还执行以下步骤:
解码从编码器以信号方式发送的残差;以及
将经解码的残差相加到所述预测块。
CN201180062138.9A 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码 Active CN103270700B (zh)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN201510205155.3A CN104796715B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510206211.5A CN104811702B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510205685.8A CN104796716B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510204609.5A CN104811713B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510204699.8A CN104796714B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510204610.8A CN104811714B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510205697.0A CN104811715B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201061425670P 2010-12-21 2010-12-21
US61/425,670 2010-12-21
US201161449528P 2011-03-04 2011-03-04
US61/449,528 2011-03-04
PCT/US2011/066359 WO2012088211A1 (en) 2010-12-21 2011-12-21 Enhanced intra-prediction coding using planar representations

Related Child Applications (7)

Application Number Title Priority Date Filing Date
CN201510206211.5A Division CN104811702B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510205685.8A Division CN104796716B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510204610.8A Division CN104811714B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510204609.5A Division CN104811713B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510205697.0A Division CN104811715B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510204699.8A Division CN104796714B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510205155.3A Division CN104796715B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码

Publications (2)

Publication Number Publication Date
CN103270700A true CN103270700A (zh) 2013-08-28
CN103270700B CN103270700B (zh) 2015-05-06

Family

ID=46314437

Family Applications (8)

Application Number Title Priority Date Filing Date
CN201180062138.9A Active CN103270700B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510206211.5A Active CN104811702B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510204609.5A Active CN104811713B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510205155.3A Active CN104796715B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510205685.8A Active CN104796716B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510204699.8A Active CN104796714B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510204610.8A Active CN104811714B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510205697.0A Active CN104811715B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码

Family Applications After (7)

Application Number Title Priority Date Filing Date
CN201510206211.5A Active CN104811702B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510204609.5A Active CN104811713B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510205155.3A Active CN104796715B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510205685.8A Active CN104796716B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510204699.8A Active CN104796714B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510204610.8A Active CN104811714B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码
CN201510205697.0A Active CN104811715B (zh) 2010-12-21 2011-12-21 使用平面表达的增强帧内预测编码

Country Status (16)

Country Link
US (8) US10863195B2 (zh)
EP (9) EP3370420B1 (zh)
JP (9) JP5625124B2 (zh)
KR (9) KR101839466B1 (zh)
CN (8) CN103270700B (zh)
AU (1) AU2011349244C1 (zh)
BR (1) BR112013016043B1 (zh)
CA (8) CA2822391C (zh)
ES (9) ES2767966T3 (zh)
MX (7) MX337948B (zh)
PL (9) PL3370421T3 (zh)
PT (9) PT3370421T (zh)
RU (9) RU2562762C2 (zh)
SG (1) SG191267A1 (zh)
TR (2) TR201811262T4 (zh)
WO (1) WO2012088211A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104871538A (zh) * 2013-10-25 2015-08-26 联发科技股份有限公司 通过在平坦检查中使用相邻像素信息和/或将平滑功能应用于量化参数/像素值以改进视觉的质量的方法和装置
CN111869211A (zh) * 2018-03-22 2020-10-30 华为技术有限公司 图像编码装置和方法

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HUE041324T2 (hu) * 2010-05-25 2019-05-28 Lg Electronics Inc Új síkbani elõrejelzés üzemmód
KR20120016991A (ko) * 2010-08-17 2012-02-27 오수미 인터 프리딕션 방법
KR102086145B1 (ko) 2010-12-13 2020-03-09 한국전자통신연구원 인트라 예측 방법 및 그 장치
WO2012081895A1 (ko) 2010-12-13 2012-06-21 한국전자통신연구원 인트라 예측 방법 및 그 장치
JP5625124B2 (ja) * 2010-12-21 2014-11-12 株式会社Nttドコモ 平面表現を用いる拡張されたイントラ予測符号化
WO2012115420A2 (ko) 2011-02-23 2012-08-30 엘지전자 주식회사 필터링을 이용한 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
CN103650496B (zh) 2011-07-12 2018-09-21 华为技术有限公司 用于在hevc中编码的基于像素的帧内预测
US10645398B2 (en) 2011-10-25 2020-05-05 Texas Instruments Incorporated Sample-based angular intra-prediction in video coding
WO2014003421A1 (ko) * 2012-06-25 2014-01-03 한양대학교 산학협력단 비디오 부호화 및 복호화를 위한 방법
KR101307257B1 (ko) * 2012-06-28 2013-09-12 숭실대학교산학협력단 영상의 인트라 예측 장치
US9277212B2 (en) * 2012-07-09 2016-03-01 Qualcomm Incorporated Intra mode extensions for difference domain intra prediction
WO2015056941A1 (ko) * 2013-10-14 2015-04-23 한국전자통신연구원 다계층 기반의 영상 부호화/복호화 방법 및 장치
WO2015056945A1 (ko) * 2013-10-14 2015-04-23 삼성전자 주식회사 깊이 인트라 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
KR102290091B1 (ko) 2013-10-14 2021-08-18 한국전자통신연구원 다계층 기반의 영상 부호화/복호화 방법 및 장치
WO2016200235A1 (ko) * 2015-06-11 2016-12-15 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN108353193B (zh) * 2015-08-19 2022-07-15 Lg 电子株式会社 基于多个基于图的模型处理视频数据的方法和设备
US10917660B2 (en) 2017-01-13 2021-02-09 Vid Scale, Inc. Prediction approaches for intra planar coding
WO2018174457A1 (ko) * 2017-03-22 2018-09-27 엘지전자(주) 영상 처리 방법 및 이를 위한 장치
WO2019009749A1 (en) * 2017-07-05 2019-01-10 Huawei Technologies Co., Ltd APPARATUS AND METHOD FOR INTRA DIRECTIONAL PREDICTION USING AN ADJUSTMENT PLAN AND A PLURALITY OF PRIMARY REFERENCE SAMPLES AND A PLURALITY OF SECONDARY REFERENCE SAMPLES
CN111247799B (zh) 2017-10-18 2022-08-09 韩国电子通信研究院 图像编码/解码方法和装置以及存储有比特流的记录介质
DE112019000036T5 (de) 2018-02-06 2020-01-02 Ngk Insulators, Ltd. Gassensor
WO2019212230A1 (ko) * 2018-05-03 2019-11-07 엘지전자 주식회사 영상 코딩 시스템에서 블록 사이즈에 따른 변환을 사용하는 영상 디코딩 방법 및 그 장치
US10687081B2 (en) 2018-06-29 2020-06-16 Tencent America LLC Method, apparatus and medium for decoding or encoding
CN115695783A (zh) * 2018-11-26 2023-02-03 华为技术有限公司 对图像的块进行解码的方法和设备,解码设备,和计算机可读介质
KR20220022902A (ko) 2019-06-25 2022-02-28 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 맵핑 방법, 인코더, 디코더 및 컴퓨터 저장 매체
US11485874B2 (en) 2019-06-27 2022-11-01 Prc-Desoto International, Inc. Addition polymer for electrodepositable coating compositions
US11274167B2 (en) * 2019-06-27 2022-03-15 Prc-Desoto International, Inc. Carbamate functional monomers and polymers and use thereof
US11313048B2 (en) 2019-06-27 2022-04-26 Prc-Desoto International, Inc. Addition polymer for electrodepositable coating compositions
EP4315854A1 (en) * 2021-03-31 2024-02-07 Telefonaktiebolaget LM Ericsson (publ) Smooth surface prediction
US20220345690A1 (en) * 2021-04-16 2022-10-27 Tencent America LLC Harmonized Design Among Multiple Reference Line Intra Prediction, Transform Partitioning and Transform Kernels

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060268990A1 (en) * 2005-05-25 2006-11-30 Microsoft Corporation Adaptive video encoding using a perceptual model
CN101502124A (zh) * 2006-07-28 2009-08-05 株式会社东芝 图像编码和解码的方法以及装置
CN101543036A (zh) * 2006-11-24 2009-09-23 日本电气株式会社 编码和解码装置、编码和解码方法以及程序

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5631318A (en) 1979-08-22 1981-03-30 Matsushita Electric Works Ltd Leakage breaker
JPH0595538A (ja) 1991-10-02 1993-04-16 Toshiba Corp 画像符号化装置
EP0750428B1 (en) * 1995-06-22 2004-03-31 Canon Kabushiki Kaisha Image processing apparatus and method
RU2201654C2 (ru) * 1997-12-23 2003-03-27 Томсон Лайсенсинг С.А. Способ низкошумового кодирования и декодирования
US6950469B2 (en) * 2001-09-17 2005-09-27 Nokia Corporation Method for sub-pixel value interpolation
US20050013498A1 (en) * 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US20050129130A1 (en) * 2003-12-10 2005-06-16 Microsoft Corporation Color space coding framework
RU2406254C2 (ru) * 2006-03-29 2010-12-10 Квэлкомм Инкорпорейтед Видеообработка с масштабируемостью
TW200808067A (en) 2006-07-31 2008-02-01 Univ Nat Cheng Kung Prediction module
ES2630203T3 (es) * 2006-10-10 2017-08-18 Nippon Telegraph And Telephone Corporation Método y dispositivo de control de codificación de predicción intra, su programa, y medio de almacenamiento que contiene programa
FR2908007A1 (fr) 2006-10-31 2008-05-02 Thomson Licensing Sas Procede de codage d'une sequence d'images
WO2008084817A1 (ja) * 2007-01-09 2008-07-17 Kabushiki Kaisha Toshiba 画像符号化と復号化の方法及び装置
CN103281542B (zh) * 2007-06-29 2017-07-14 夏普株式会社 图像编码装置、图像编码方法、图像译码装置、图像译码方法
KR101517768B1 (ko) * 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
JP5187062B2 (ja) * 2008-08-15 2013-04-24 富士通株式会社 動画像符号化装置および動画像符号化方法
EP2173100A3 (en) * 2008-10-06 2010-08-11 LG Electronics Inc. A method and an apparatus for decoding a video signal
KR101647376B1 (ko) * 2009-03-30 2016-08-10 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US9113168B2 (en) * 2009-05-12 2015-08-18 Lg Electronics Inc. Method and apparatus of processing a video signal
JPWO2011158657A1 (ja) 2010-06-17 2013-08-19 シャープ株式会社 画像フィルタ装置、復号装置、符号化装置、および、データ構造
KR101530284B1 (ko) 2010-07-16 2015-06-19 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
JP5625124B2 (ja) * 2010-12-21 2014-11-12 株式会社Nttドコモ 平面表現を用いる拡張されたイントラ予測符号化

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060268990A1 (en) * 2005-05-25 2006-11-30 Microsoft Corporation Adaptive video encoding using a perceptual model
CN101502124A (zh) * 2006-07-28 2009-08-05 株式会社东芝 图像编码和解码的方法以及装置
CN101543036A (zh) * 2006-11-24 2009-09-23 日本电气株式会社 编码和解码装置、编码和解码方法以及程序

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104871538A (zh) * 2013-10-25 2015-08-26 联发科技股份有限公司 通过在平坦检查中使用相邻像素信息和/或将平滑功能应用于量化参数/像素值以改进视觉的质量的方法和装置
CN104871538B (zh) * 2013-10-25 2018-01-19 联发科技股份有限公司 通过在平坦检查中使用相邻像素信息和/或将平滑功能应用于量化参数/像素值以改进视觉的质量的方法和装置
CN111869211A (zh) * 2018-03-22 2020-10-30 华为技术有限公司 图像编码装置和方法
CN111869211B (zh) * 2018-03-22 2022-12-30 华为技术有限公司 图像编码装置和方法

Also Published As

Publication number Publication date
PT3373580T (pt) 2020-01-21
US10863195B2 (en) 2020-12-08
TR201809780T4 (tr) 2018-07-23
CN104811713A (zh) 2015-07-29
CA3029042A1 (en) 2012-06-28
EP2656507B1 (en) 2017-05-24
PL3373579T3 (pl) 2019-12-31
JP2014241643A (ja) 2014-12-25
MX337948B (es) 2016-03-29
CA3029042C (en) 2021-06-15
US20190052902A1 (en) 2019-02-14
EP3373580B1 (en) 2019-12-11
JP2020018022A (ja) 2020-01-30
MX2019003465A (es) 2022-06-22
CA2900863C (en) 2019-02-26
US10805632B2 (en) 2020-10-13
RU2694144C1 (ru) 2019-07-09
JP2020018024A (ja) 2020-01-30
RU2600536C2 (ru) 2016-10-20
JP6615290B2 (ja) 2019-12-04
EP2996334B1 (en) 2018-07-11
PL3370421T3 (pl) 2020-06-01
CA2822391C (en) 2016-08-02
ES2682102T3 (es) 2018-09-18
CN104796714B (zh) 2018-03-27
CA3029046A1 (en) 2012-06-28
EP3370421A1 (en) 2018-09-05
EP2996334A1 (en) 2016-03-16
PL3373580T3 (pl) 2020-05-18
CN104811702A (zh) 2015-07-29
JP5960316B2 (ja) 2016-08-02
PT3370420T (pt) 2019-10-31
US20170026661A1 (en) 2017-01-26
RU2562762C2 (ru) 2015-09-10
CN104811702B (zh) 2018-04-20
AU2011349244B2 (en) 2015-05-07
KR101839466B1 (ko) 2018-03-16
EP3373579A1 (en) 2018-09-12
RU2713610C1 (ru) 2020-02-05
JP5732582B2 (ja) 2015-06-10
RU2643504C1 (ru) 2018-02-01
PT3373579T (pt) 2019-10-25
KR101962284B1 (ko) 2019-03-26
PT2656507T (pt) 2017-06-15
EP3373581B1 (en) 2019-12-18
RU2673011C1 (ru) 2018-11-21
PL3370420T3 (pl) 2020-03-31
JP6851450B2 (ja) 2021-03-31
EP3373579B1 (en) 2019-09-11
PL2996334T3 (pl) 2018-11-30
KR20160086972A (ko) 2016-07-20
KR20160085376A (ko) 2016-07-15
ES2770312T3 (es) 2020-07-01
JP2016184970A (ja) 2016-10-20
KR20180028564A (ko) 2018-03-16
CN104796715A (zh) 2015-07-22
RU2013133861A (ru) 2015-01-27
EP3373580A1 (en) 2018-09-12
US20190052898A1 (en) 2019-02-14
US20140341281A1 (en) 2014-11-20
ES2773887T3 (es) 2020-07-15
CA3029046C (en) 2020-07-14
RU2694013C1 (ru) 2019-07-08
CN104796716B (zh) 2017-12-29
PT2993903T (pt) 2018-07-25
RU2696318C1 (ru) 2019-08-01
US10897630B2 (en) 2021-01-19
EP2656507A1 (en) 2013-10-30
EP3373582A1 (en) 2018-09-12
US10205963B2 (en) 2019-02-12
WO2012088211A1 (en) 2012-06-28
CN104796716A (zh) 2015-07-22
ES2681838T3 (es) 2018-09-17
CN104811713B (zh) 2018-01-02
PL2993903T3 (pl) 2018-09-28
AU2011349244A1 (en) 2013-06-20
CN104811714A (zh) 2015-07-29
KR101640873B1 (ko) 2016-07-19
KR102062568B1 (ko) 2020-01-06
CA3029043A1 (en) 2012-06-28
US10834423B2 (en) 2020-11-10
EP3370420B1 (en) 2019-10-02
US20190075318A1 (en) 2019-03-07
KR20160085922A (ko) 2016-07-18
KR20180030244A (ko) 2018-03-21
CN103270700B (zh) 2015-05-06
JP6397555B2 (ja) 2018-09-26
KR20190033654A (ko) 2019-03-29
TR201811262T4 (tr) 2018-08-27
US10841611B2 (en) 2020-11-17
CA3029045A1 (en) 2012-06-28
MX363570B (es) 2019-03-27
PT3370421T (pt) 2020-02-28
EP3370420A1 (en) 2018-09-05
US20190052900A1 (en) 2019-02-14
CN104811715A (zh) 2015-07-29
PL3373582T3 (pl) 2020-07-13
ES2750325T3 (es) 2020-03-25
CN104811714B (zh) 2018-06-29
US10771812B2 (en) 2020-09-08
JP6953497B2 (ja) 2021-10-27
PT2996334T (pt) 2018-09-28
PT3373582T (pt) 2020-02-14
CA2822391A1 (en) 2012-06-28
CA3029038A1 (en) 2012-06-28
KR101838123B1 (ko) 2018-03-13
CA3029043C (en) 2020-06-30
JP2014504107A (ja) 2014-02-13
ES2752723T3 (es) 2020-04-06
KR101961783B1 (ko) 2019-03-25
CA3029047C (en) 2020-07-21
MX2013007169A (es) 2013-08-01
PT3373581T (pt) 2020-01-27
ES2627907T3 (es) 2017-08-01
KR101838122B1 (ko) 2018-03-13
KR20130128441A (ko) 2013-11-26
EP3370421B1 (en) 2020-01-22
US20190052899A1 (en) 2019-02-14
AU2011349244C1 (en) 2016-02-18
EP2656507A4 (en) 2015-07-08
JP2018019445A (ja) 2018-02-01
BR112013016043B1 (pt) 2019-10-08
KR20160086974A (ko) 2016-07-20
MX2019003463A (es) 2022-06-22
CA3029047A1 (en) 2012-06-28
MX351231B (es) 2017-10-06
EP2993903B1 (en) 2018-06-20
CN104796715B (zh) 2018-03-27
CN104796714A (zh) 2015-07-22
SG191267A1 (en) 2013-07-31
JP2020018023A (ja) 2020-01-30
ES2767966T3 (es) 2020-06-19
BR112013016043A2 (pt) 2018-11-06
EP3373581A1 (en) 2018-09-12
KR20180029108A (ko) 2018-03-19
CA3029045C (en) 2021-06-15
KR101838124B1 (ko) 2018-03-13
AU2011349244A8 (en) 2013-07-04
CN104811715B (zh) 2018-02-23
JP2015149763A (ja) 2015-08-20
PL2656507T3 (pl) 2017-08-31
CA2900863A1 (en) 2012-06-28
RU2694012C1 (ru) 2019-07-08
JP5625124B2 (ja) 2014-11-12
JP6242438B2 (ja) 2017-12-06
EP3373582B1 (en) 2020-01-22
CA3029038C (en) 2020-07-07
MX2019003464A (es) 2022-06-22
KR101949720B1 (ko) 2019-02-19
ES2767926T3 (es) 2020-06-19
US10856008B2 (en) 2020-12-01
PL3373581T3 (pl) 2020-05-18
RU2015129679A (ru) 2015-11-27
US20190052901A1 (en) 2019-02-14
JP2018186581A (ja) 2018-11-22
EP2993903A1 (en) 2016-03-09

Similar Documents

Publication Publication Date Title
CN103270700B (zh) 使用平面表达的增强帧内预测编码
CN102905125B (zh) 运动图像编码设备和运动图像编码方法
AU2019210554B2 (en) Enhanced intra-prediction coding using planar representations
AU2015203228B2 (en) Enhanced intra-prediction coding using planar representations

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant