CN107071415B - 编码设备、解码设备、编码方法和解码方法 - Google Patents

编码设备、解码设备、编码方法和解码方法 Download PDF

Info

Publication number
CN107071415B
CN107071415B CN201710259304.3A CN201710259304A CN107071415B CN 107071415 B CN107071415 B CN 107071415B CN 201710259304 A CN201710259304 A CN 201710259304A CN 107071415 B CN107071415 B CN 107071415B
Authority
CN
China
Prior art keywords
value
prediction
weighting factor
decoding
color difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710259304.3A
Other languages
English (en)
Other versions
CN107071415A (zh
Inventor
谷泽昭行
中条健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to CN201710259304.3A priority Critical patent/CN107071415B/zh
Publication of CN107071415A publication Critical patent/CN107071415A/zh
Application granted granted Critical
Publication of CN107071415B publication Critical patent/CN107071415B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • H04N19/45Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder performing compensation of the inverse transform mismatch, e.g. Inverse Discrete Cosine Transform [IDCT] mismatch
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Abstract

本发明公开了编码设备、解码设备、编码方法和解码方法。根据一个实施例的编码方法包括索引设置步骤,预测步骤,以及编码步骤。索引设定步骤设定的索引表示的参考图像和信息的加权因子。预测步骤预测,以使加权因子的基准值时,所述至少一个参考图像与待编码的目标图像之间的像素值的变化是一个具体的参考或更少,导出作为预测值。所述编码步骤编码该加权因子和预测值之间的差值。

Description

编码设备、解码设备、编码方法和解码方法
本申请是申请日为2011年10月17日、申请号为201180073122.8、发明名称为“编码设备、解码设备、编码方法和解码方法”的发明专利申请的分案申请。
技术领域
本发明的实施例涉及一种编码方法和解码方法。
背景技术
近年来,以显著改善的编码效率对图像进行编码的方法被推荐为与ITU-T(国际电信联盟电信标准化部门)和ISO(国际标准化组织)/IEC(国际电工委员会合作)合作的ITU-TREC.H.264和ISO/IEC 14496-10(以下简称为“H.264”)。
在H.264中,公开了帧间预测编码系统,其中通过使用编码图像作为参考图像做出小数精度的运动补偿预测,冗余在时间方向上被消除以实现高编码效率。
此外,提出了一种系统,其中包括衰退或消融效果的运动图像以高于根据ISO/IECMPEG(运动图像专家组)-1、2、4的帧间预测编码系统的效率被编码。在这个系统中,为具有亮度和两种色差的作为用于预测时间方向上的亮度变化的帧的输入运动图像进行小数精度的运动补偿预测。然后,通过使用表示参考图像、对每个亮度和两个色差的加权因子、和针对每个亮度和两个色差的偏移的组合的索引,预测图像被乘以所述加权因子,并且偏移被加入其中。
引文列表
专利文献
专利文献1:JP特开专利公开No.2004-7377。
发明内容
技术问题
然而,在如上所述的传统技术中,由于索引是以被保持为直接值进行编码的,编码效率降低。本发明要解决的一个目的是提供一种能够改善编码效率的编码方法和解码方法。
技术方案
根据实施例的一种编码设备包括索引设置单元、索引重构单元以及熵编码单元。索引设置单元设置表示参考图像和加权因子的信息的索引。索引重构单元预测加权因子的参考值,其中如果参考图像与待编码的目标图像之间的像素值的差小于或等于特定值,则该参考值指示将被设置的因子。所述熵编码单元对该加权因子和参考值之间的差值进行编码。
附图说明
图1是示出了根据第一实施例的编码设备的示例的方框图。
图2是示出了根据第一实施例的像素块的预测编码序列的示例的示意图。
图3A是示出了根据第一实施例的编码树块的块大小的示例的图。
图3B是示出了根据第一实施例的编码树块的特定示例的图
图3C是示出了根据第一实施例的编码树块的特定示例的图。
图3D是示出了根据第一实施例的编码树块的特定示例的图
图4是示出了根据第一实施例的预测图像生成单元示例的方框图。
图5是示出了根据第一实施例的在一个双向预测的运动补偿预测的运动矢量之间关系的示例的图。
图6是示出了根据第一实施例的多帧运动补偿单元的示例的方框图。
图7是示出了根据第一实施例的加权因子定点精度(fixed point precision)的示例的说明图。
图8A是示出根据第一实施例的WP参数信息的示例的图。
图8B是示出根据第一实施例的上述WP参数信息的示例的图。
图9是示出了根据第一实施例的句法的示例的图。
图10是示出了根据第一实施例的图像参数集句法的示例的图。
图11是示出了根据第一实施例的片头部句法的示例的图
图12是示出了根据第一实施例的预测加权表格(Pred weight table)句法的示例的图
图13是示出了根据第一实施例的明确地表示预测方法的句法结构的示例的图。
图14是示出了根据第一实施例的预测固定点精度过程的示例的流程图。
图15是示出了根据第一实施例的恢复固定点精度过程的示例的流程图。
图16是示出了根据第一实施例的加权因子预测过程的示例的流程图。
图17是示出了根据第一实施例的加权因子恢复过程的示例的流程图。
图18是示出了根据第一实施例的另一个加权因子预测过程的示例的流程图。
图19是示出了根据第一实施例的恢复luma_weight_lx[i]的过程的另一示例的流程图。
图20是示出了根据第一实施例的色差信号预测过程的示例的流程图。
图21是示出了根据第一实施例的色差信号恢复过程的示例的流程图。
图22是示出了根据第一实施例的另一个加权因子预测过程的示例的流程图。
图23是示出了根据第一实施例的另一个加权因子恢复流程的示例的流程图。
图24是示出了根据第二实施例的解码设备的配置的示例的方块图。
具体实施方式
在下文中,将参考附图来对实施例进行详细描述。根据每个下面给出的实施例的编码设备和解码设备可以通过硬件来实现,例如LSI(大规模集成电路)芯片、DSP(数字信号处理器)或FPGA(现场可编程门阵列)。另外,根据每个下面给出的实施例的编码设备和解码设备也可以通过使计算机执行程序,换言之,通过软件来实现。在下面的描述中,术语“图像”可以适当地替换为诸如“视频”、“像素”、“图像信号”、“图片”或“图像数据”。
第一实施例
在第一实施例中,将描述对运动图像进行编码的编码设备。
图1是示出根据本发明第一实施例的编码设备100的配置的示例的方框图。
编码设备100将配置输入图像的每个字段或每一帧划分为多个像素块,并使用从编码控制单元111输入的编码参数执行对划分的像素块的预测编码,由此生成预测图像。然后,编码设备100通过从被划分成多个像素的输入图像中减去预测图像生成预测误差,通过对生成的预测误差执行正交变换以及量化、并然后进行熵编码来生成编码数据,并输出生成的编码数据。
所述编码设备100通过选择性地施加多个预测模式来进行预测编码,所述多个预测模式至少在像素块的块大小和生成预测图像的方法的至少其中一个方面是彼此不同的。生成预测图像的方法可以大致分为两种类型,包括帧内预测和帧间预测,在帧内预测中,预测是在编码目标帧内进行的,在帧间预测中,使用不同的时间点的一个或多个参考帧进行运动补偿预测。帧内预测也被称为屏幕内部预测、帧内部预测等,并且帧间预测也被称为屏幕间预测、帧间预测、运动补偿预测等。
图2是示出根据第一实施例的像素块的预测编码顺序的一个示例的说明图。在图2所示的示例中,编码设备100从像素块的左上方向右下方执行预测编码。因此,在编码处理目标帧f中,在编码目标像素块C的左侧和上侧,已完成的将被编码的像素块p被定位。在下文中,为了描述的简化,假定编码设备100以图2中所示的顺序执行预测编码,但预测编码的顺序不限于此。
该像素块代表用于处理图像的单元,以及例如具有M×N大小的块(这里,M和N是自然数),编码树块,宏块,子块,一个像素,或与之对应的类似物。在下面给出的描述中,基本上,像素块被用作编码树块的含义,但也可以用作不同的含义。例如,在预测单元的描述中,像素块被用作预测单元的象素块的含义。块可以被称为单元等。例如,编码块可被称为编码单元。
图3A是示出根据第一实施例的编码树块的大小的示例的图。通常,编码树块为图3A中所示的64×64的图像素块。然而,编码树块并不限于此,也可以是32×32的像素块、16×16的像素块、8×8的像素块、4×4的像素块等。在本文中,编码树块可以不是正方形,而是,例如,可以是一个M×N大小的像素块(这里,M≠N)。
图3B至3D是表示根据第一实施例的编码树块的具体示例的图。图3B表示具有64×64块大小(N=32)的编码树块。这里,N表示参考编码树块的大小。其中编码树块被划分的情况下的大小被定义为N,并且其中所述编码树块没有被划分的情况下的大小被定义为2N。图3C表示通过将图3B中所示的编码树块划分成四叉树获得的编码树块。如图3C所示,该编码树块具有四叉树结构。如图3C所示,在编码树块被划分的情况下,数字以Z扫描顺序在划分之后附着到4个像素块。
此外,在四叉树的每个数字内编码树块可被进一步划分成四叉树。因此,编码树块可以以分级的方式进行划分。在这种情况下,该划分的深度定义为Depth。图3D表示通过将图3B中所示的编码树块划分成四叉树获得的编码树块中的一个块,并且该块的大小为32×32(N=16)。在图3B中所示的编码树块的深度为“0”,而在图3D中所示的编码树块的深度为“1”。此外,具有最大单元的编码树块被称为大编码树块,并且输入图像信号以光栅扫描顺序在这样的单元中进行编码。
在下面给出的描述中,输入图像的编码目标块或编码树块可以被称作预测目标块或预测像素块。此外,编码单元不限于该像素块,而是帧、字段、片、线和像素中的至少一个可以被用作编码单元。
如图1所示的编码设备100包括:减法单元101;正交变换单元102;量化单元103;逆量化单元104;逆正交变换单元105;加法单元106;预测图像生成单元107;索引设置单元108;运动评估单元109;以及编码单元110。此外,图1中所示的编码控制单元111控制所述编码设备100,并且,例如,可以通过使用CPU(中央处理单元)等来实现。
减法单元101通过从被划分成像素块的输入图像减去对应的预测图像获得预测误差。减法单元101输出预测误差,从而被输入到正交变换单元102。
正交变换单元102对从减法单元101输入的预测误差执行正交变换,例如离散余弦变换(DCT)或离散正弦变换(DST),从而获得变换系数。正交变换单元102输出变换系数,以便输入到量化单元103。
量化单元103为从正交变换单元102输入的变换系数执行量化处理,从而获得量化变换系数。更具体地,量化单元103基于由编码控制单元111指定的量化参数和诸如量化矩阵的量化的信息执行量化。更详细地,量化单元103通过将所述变换系数除以基于所述量化信息得到的量化步长获得量化变换系数。量化参数表示量化的细度。量化矩阵被用于为变换系数的各分量加权量化的细度。量化单元103输出量化变换系数,从而被输入到逆量化单元104和编码单元110。
逆量化单元104对从量化单元103输入的量化变换系数执行逆量化处理,从而获得恢复变换系数。更具体地,逆量化单元104根据量化单元103所使用的量化信息执行逆量化。详细地,逆量化单元104通过将量化变换系数乘以基于所述量化信息得到的量化步长获得恢复变换系数。此外,量化单元103所使用的量化信息被从编码控制单元111的内部存储器(图中没有示出)加载和使用。逆量化单元104输出恢复变换系数,从而被输入到逆正交变换单元105。
逆正交变换单元105为从逆量化单元104输入的恢复变换系数执行逆正交变换,例如离散余弦逆变换(IDCT)或离散正弦逆变换(1DST),从而获得恢复预测误差。这里,由逆正交变换单元105所执行的逆正交变换对应于由正交变换单元102执行的正交变换。逆正交变换单元105输出恢复预测误差,以便输入到加法单元106。
加法单元106将从逆正交变换单元105输入的恢复预测误差与对应的预测图像相加,从而生成局部解码图像。加法单元106输出局部解码图像,以被输入到预测图像生成单元107。
预测图像生成单元107在存储器(图1中未示出)中存储从加法单元106输入的局部解码图像作为参考图像,并输出存储在存储器中的参考图像,从而将其输入到运动评估单元109。此外,预测图像生成单元107通过基于从运动评估单元109输入的运动信息和WP参数信息执行加权的运动补偿预测来生成预测图像。预测图像生成单元107输出预测图像,以使其被输入到减法单元101和加法单元106
图4是示出根据第一实施例的预测图像生成单元107的配置的示例的框图。如图中4所示的预测图像生成单元107包括:多帧运动补偿单元201;存储器202;单向运动补偿单元203;预测参数控制单元204;参考图像选择器205;帧存储器206;以及参考图像控制单元207。
帧存储器206在参考图像控制单元207的控制下存储从加法单元106输入的局部解码图像作为参考图像。帧存储器206包括用于临时存储参考图像的多个存储器设置FM1至FMN(这里,N≥2)。
预测参数控制单元204基于从运动评估单元109输入的运动信息准备每一个参考图像编号和预测参数的多个组合作为表。这里,运动信息表示代表用于运动补偿预测的运动偏差的运动矢量、参考图像编号和诸如单向/双向的预测模式的信息。预测参数表示有关运动矢量和预测模式的信息。然后,该预测参数控制单元204基于输入图像选择用于生成预测图像的预测参数和参考编号的组合,并输出所选择的组合,以允许所述参考图像编号被输入到参考图像选择器205,并允许预测参数被输入到单向运动补偿单元203。
参考图像选择器205是基于从预测参数控制单元204输入的参考图像编号改变要被切换到的帧存储器的输出端FM1至FMN(其被包括在帧存储器206中)之一的开关。例如,当参考图像编号为“0”时,参考图像选择器205将帧存储器FM1的输出端连接到参考图像选择器205的输出端,并且,当参考图像编号为N-1时,参考图像选择器205将帧存储器的FMN的输出端连接到参考图像选择器205的输出端。参考图像选择器205输出存储在其输出端将从包括在帧存储器206中的帧存储器FM1至FMN中连接到参考图像选择器205的帧存储器中的参考图像,以使其被输入到单向运动补偿单元203和运动评估单元109。
单向运动补偿单元203基于从预测参数控制单元204输入的预测参数和从参考图像选择器205输入的参考图像执行运动补偿预测过程,从而生成单向预测图像。
图5是示出了根据第一实施例的用于双向预测的运动补偿预测的运动矢量之间的关系的示例的图。在运动补偿预测中,用参考图像执行内插处理,并基于所生成的内插图像和来自位于该编码目标位置的象素块的输入图像的运动的偏差生成单向预测图像。这里,偏差是运动矢量。如该图5所示,在双向预测切片(B-片)中,预测图像是通过使用两种类型的参考图像和运动矢量集生成的。作为内插处理,使用1/2像素精度的内插处理、1/4像素精度的内插处理等,并且,通过执行对参考图像的滤波处理,生成内插图像的值。例如,在可以对亮度信号执行高达1/4像素精度内插的H.264中,该偏差被表示为整数像素精度的4倍。
单向运动补偿单元203输出单向预测图像并将该单向预测图像暂时存储在存储器202中。这里,在运动信息(预测参数)表示双向预测的情况下,多帧运动补偿单元201使用两种类型的单向预测图像进行加权预测。相应地,单向运动补偿单元203在存储器202中存储对应于第一类型的单向预测图像,并直接输出对应于所述第二类型的单向预测图像到多帧运动补偿单元201。这里,对应于第一类型的单向预测图像将被称为第一预测图像,对应于第二类型的单向预测图像将被称为第二预测图像。
此外,可以制备两个单向运动补偿单元203并生成两个单向预测图像。在这种情况下,当运动信息(预测参数)表示单向预测时,单向运动补偿单元203可以直接输出第一单向预测图像到多帧运动补偿单元201作为第一预测图像。
多帧运动补偿单元201通过使用从存储器202输入的第一预测图像、从单向运动补偿单元203输入的第二预测图像以及从运动评估单元109输入的WP参数信息进行加权预测,由此生成预测图像。多帧运动补偿单元201输出预测图像,以使其被输入到减法单元101和加法单元106。
图6是示出了根据第一实施例的多帧运动补偿单元201的配置的示例的方框图。如图6所示,多帧运动补偿单元201包括:缺省运动补偿单元301;加权运动补偿单元302;WP参数控制单元303;和WP选择器304和305。
该WP参数控制单元303基于从运动评估单元109输入的WP参数信息输出WP应用标志和加权信息,以将WP应用标志输入到WP选择器304和305,并将加权信息输入到加权运动补偿单元302。
在这里,WP参数信息包括加权因子、第一WP应用标志、第一加权因子、对应于所述第一预测图像的第一偏移、第二WP应用标志、第二加权因子,以及对应于所述第二预测图像的第二偏移的定点精度的信息。该WP应用标志是可以为每个对应的参考图像和信号分量设置并表示是否进行了加权运动补偿预测的参数。加权信息包括所述加权因子、所述第一加权因子、所述第一偏移、所述第二加权因子以及第二偏移的定点精度的信息。
详细地,当WP参数信息是从运动评估单元109输入时,WP参数控制单元303输出被分成第一WP应用标志、第二WP应用标志和加权信息的WP参数信息,从而将第一WP应用标志输入到WP选择器304,将第二WP应用标志输入到WP选择器305,并将加权信息输入到加权运动补偿单元302。
该WP选择器304和305基于从WP参数控制单元303输入的WP应用标志改变该预测图像的连接端部。在对应的WP应用标志是“0”的情况下,选择器WP 304和305中的每一个将其输出端连接到缺省运动补偿单元301。然后,WP选择器304和305输出第一和第二预测图像,以使其被输入到缺省运动补偿单元301。另一方面,在对应的WP应用标志是“1”的情况下,每一个WP选择器304和305将其输出端连接到加权运动补偿单元302。然后,WP选择器304和305输出第一和第二预测图像,以使其被输入到加权运动补偿单元302。
缺省运动补偿单元301基于从WP选择器304和305输入的两个单向预测图像(第一和第二预测图像)执行平均处理,由此生成预测图像。更特别地,在第一和第二WP应用标志都是“0”的情况下,缺省运动补偿单元301基于数值表达式(1)执行平均处理。
P[X,Y]=CLIP1((PL0[X,Y]+PLl[X,Y]+offset2)>>(shift 2)) (1)
这里,P[X,Y]为预测图像,PL0[X,Y]为第一预测图像,并且PL1[X,Y]为第二预测图像。此外,offset2和SHIFT2是平均处理中取整方法的参数,并且基于所述第一和第二预测图像的内部计算精度而确定。当预测图像的比特精度为L,并且所述第一和第二预测图像的比特精度为M(L≤M)时,SHIFT2由数值表达式(2)表示,offset2由数值表达式(3)表示。
shift 2=(M-L+1) (2)
offset2=(1<<(shift 2-1) (3)
例如,该预测图像的比特精度为“8”,并且所述第一和第二预测图像的比特精度为“14”,根据数值表达式(2),shift2=7,根据数值表达式(3),offset2=(1<<6)。
此外,在由所述运动信息(预测参数)所表示的预测模式是单向预测的情况下,缺省运动补偿单元301基于数值表达式(4)仅使用第一预测图像来计算最终的预测图像。
P[X,Y]=CLIP1((PLX[X,Y]+offset1)>>(shift1)) (4)
这里,PLX[X,Y]表示单向预测图像(第一预测图像),X是表示“0”或“1”作为参考列表的标识符。例如,PLX[X,Y]在参考列表是“0”的情况下为PL0[X,Y],并且在参考列表是“1”的情况下是PL1[X,Y]。此外,offset1和shift1是用于取整过程的参数,并基于所述第一预测图像的内部计算精度而确定。当预测图像的比特精度为L,并且所述第一预测图像的比特精度是M时,shift1由数值表达式(5)表示,offset1由数值表达式(6)表示。
shift1=(M-L) (5)
offset1=(1<<(shift1-1)) (6)
例如,在预测图像的比特精度为“8”,第一预测图像的比特精度为“14”的情况下,根据数值表达式(5),shift1=6,根据数值表达式(6),offset1=(1<<5)。
加权运动补偿单元302基于从WP选择器304和305输入的两个单向预测图像(第一和第二预测图像)以及从WP参数控制单元303输入的加权信息执行加权运动补偿。更特别地,在第一和第二WP应用标志是“1”的情况下加权运动补偿单元302根据数值表达式(7)执行加权处理。
P[X,Y]=CLIP1(((PL0[X,Y]*W0C+PL1[X,Y]*W1C+(1<<logWDC))>>(logWDC+1))+((O0C+O1C+1)>>1)) (7)
这里,W0C表示对应于第一预测图像的加权因子,W1C表示对应于所述第二预测图像的加权因子,O0C表示对应于所述第一预测图像的偏移,并且O1C表示对应于所述第二预测图像的偏移。然后,他们将被分别称为第一加权因子、第二加权因子、第一偏移和第二偏移。logWDC是表示每个加权因子的定点精度的参数。另外,变量C表示信号分量。例如,在YUV空间信号的情况下,亮度信号由C=Y表示,铬色差信号由C=CR表示,并且钶色差分量由C=Cb表示。
此外,在第一和第二预测图像的计算精度与预测图像的计算精度彼此不同的情况下,加权运动补偿单元302通过控制logWDC来实现定点精度的取整过程,如数值表达式(8)所示。
logWD′C=logWDC+offset1 (8)
取整过程可以通过用在数值表达式(8)中表示的logWD′C替换在数值表达式(7)中表示的logWDC来实现。例如,在预测图像的比特精度为“8”,并且所述第一和第二预测图像的比特精度为“14”的情况下,通过重置logWDC,以类似于数值表达式(1)中表示的SHIFT2的计算精度实现批量取整处理是可行的。
此外,在由所述运动信息(预测参数)所表示的预测模式是单向预测的情况下,加权运动补偿单元302基于数值表达式(9)仅使用第一预测图像计算最终的预测图像。
P[X,Y]=CLIP1((PLX[X,Y]*WXC+(1<<logWDC-1))>>(logWDC))
(9)
这里,PLX[X,Y]表示单向预测图像(第一预测图像),WXC表示对应于单向预测的加权因子,并且X是表示“0”或“1”作为参考列表的标识符。例如,PLX[X,Y]和WXC在参考列表是“0”的情况下是PL0[X,Y]和W0C,并且在参考列表是“1”的情况下是PL1[X,Y]和W1C
此外,在第一和第二预测图像的计算精度与预测图像的计算精度彼此不同的情况下,加权运动补偿单元302通过控制logWDC来实现定点精度的取整过程,如在数值表达式(8)中所示,与双向预测的情况类似。
取整过程可以通过用在数值表达式(8)中表示的logWD′C替换在数值表达式(7)中表示的logWDC来实现。例如,在预测图像的比特精度为“8”,并且所述第一预测图像的比特精度为“14”的情况下,通过重置logWDC,以类似于数值表达式(4)中表示的SHIFT1的计算精度实现批量取整处理是可行的。
图7是示出根据第一实施例的加权因子的定点精度的示例的说明图,并且是示出具有在时间方向的亮度变化和灰度值的运动图像中的改变的示例的图。在图7中所示的示例中,编码目标帧是Frame(t),为编码目标帧在时间上的前一帧的是Frame(t-1),为编码目标帧在时间上的后一帧的是Frame(t+1)。如该图7所示,在从白到黑变化的衰退图像中,图像的亮度(灰度值)根据时间的消逝而降低。加权因子表示图7中的改变程度,并且在亮度没有变化的情况下,从数值表达式(7)和(9)明显可知该加权因子取“1.0”的值。定点精度是控制对应于加权因子的小数点的间隔宽度的参数,并且在亮度没有变化的情况下加权因子是1<<logWDC
此外,在单向预测的情况下,不使用对应于第二预测图像的各种参数(第二WP应用标志、第二加权因子和第二偏移信息),并且该各种参数可被设置为预先确定的初始值。
回到图1,运动评估单元109基于输入图像和从预测图像生成单元107输入的参考图像在多帧之间执行运动评估,并输出运动信息和WP参数信息,从而将运动信息输入到预测图像生成单元107和编码单元110,并将WP参数信息输入到预测图像生成单元107和索引设置单元108。
例如,运动评估单元109通过计算预测目标像素块的输入图像和对应于作为起点的同一位置的多个参考图像之间的差值来计算误差、以小数精度移动该位置、并使用诸如用于查找最小误差的块的块匹配的技术来计算最佳运动信息。在双向预测的情况下,运动评估单元109使用从单向预测得到的运动信息执行包括在数值表达式(1)和(4)中表示的缺省运动补偿预测的块匹配,从而计算双向预测的运动信息。
此时,运动评估单元109可通过执行包括如数值表达式(7)和(9)中表示的加权运动补偿预测的块匹配来计算WP参数信息。此外,对于WP参数信息的计算,可以使用利用输入图像的亮度梯度计算加权因子或偏移的方法,根据在编码中预测误差的累积计算加权因子或偏移的方法等等。此外,关于WP参数信息,可以使用预先为每个编码设备确定的固定值。
这里,将参考图7描述从具有在时间上改变的亮度的运动图像计算加权因子、加权因子的定点精度以及偏移的方法。如上所述,如图7所示的从白到黑变化的衰退图像中,图像的亮度(灰度值)根据时间的流逝而降低。运动评估单元109可以通过计算其斜率计算加权因子。
所述加权因子的定点精度是表示斜率的精度的信息,并且运动评估单元109可以基于在时间上到参考图像的距离和图像亮度的变化程度计算最佳值。例如,在图7中,在帧(t-1)和帧(t+1)之间的加权因子为具有小数精度的0.75的情况下,在1/4精度的情况下可以表示为3/4,并且相应地,运动评估单元109将定点精度设置为2(1<<2)。在对加权因子进行编码的情况下由于定点精度的值影响代码量,对于定点精度的值,可以考虑代码量和预测精度选择最佳值。另外,定点精度的值可以是预先确定的固定值。
此外,在斜率不匹配的情况下,运动评估单元109可以通过获得对应于线性函数的截距的修正值(偏差量)计算偏移值。例如,在图7中,在帧(t-1)和帧(t+1)之间的加权因子为具有小数点精度的0.60,并且定点精度是“1”(1<<1)的情况下,具有将加权因子设置为“1”(对应于加权因子的0.50的小数点精度)的高可能性。在这种情况下,由于加权因子的小数点精度以0.10值偏离最佳值0.60,运动评估单元109基于像素的最大值计算与其对应的修正值,并将其设置为偏移值。在像素的最大值为255的情况下,运动评估单元109可设置诸如25(255×0.1)的值。
在第一实施例中,虽然作为示例运动评估单元109被表示为编码设备100的一个功能,但运动评估单元109不是编码设备100的必要配置,例如,运动评估单元109可以是除了编码设备100以外的设备。在这种情况下,由所述运动评估单元109计算的运动信息和WP参数信息可以被加载到编码设备100。
该索引设置单元108接收从运动评估单元109输入的WP参数信息,检查参考列表(列表号)和参考图像(参考编号),并输出索引信息,以使其被输入到编码单元110。索引设置单元108通过将从运动评估单元109输入的WP参数信息映射到后面将要描述的句法元素生成索引信息。
图8A和8B是示出根据第一实施例的WP参数信息的示例的图。在P-Slice时间处的WP参数信息的示例如图8A所示,在B-Slice时间处的WP参数信息的示例如图8A和8B所示。列表号是表示预测方向的标识符。在单向预测的情况下列表号具有“0”值。另一方面,在双向预测的情况下,可以使用两种类型的预测,并且相应地,列表号具有“0”和“1”两个值。参考编号是对应于帧存储器206中所表示的1至N中的任何一个的值。由于WP参数信息是为每个参考列表和参考图像保存的,在存在N个参考图像的情况下,在B-Slice时间处需要2N条信息。
返回参考图1所示,编码单元110执行各种编码参数的编码处理,从而生成编码数据,其中各种编码参数诸如有从量化单元103输入的量化变换系数、从运动评估单元109输入的运动信息、从索引设置单元108输入的索引信息以及由编码控制单元111指定的量化信息。作为编码过程,例如,有霍夫曼编码或算法编码。
这里,编码参数是诸如表示预测方法等的预测信息、涉及量化变换系数的信息以及涉及解码处理所必需的量化的信息的参数。例如,其可以被配置成使得在图中未示出的内部存储器被包括在编码控制单元111中,编码参数被保持在内部存储器中,以及已完成待编码的相邻像素块的编码参数在编码像素块时被使用。例如,在H.264的帧内预测中,像素块的预测信息可从已完成要被编码的相邻块的预测信息获得。
编码单元110在由编码控制单元111所管理的适当的输出时序输出生成的编码数据。为输出的编码数据的各种信息例如被附图中没有示出的复用单元等复用,被暂时存储在附图中未示出的输出缓冲器等中,并且,然后,例如,被输出到存储系统(存储介质)或传输系统(通信线)。
编码单元110包括熵编码单元110A和索引重构单元110B。
该熵编码单元110A对已经输入的信息执行诸如可变长度编码或者算法编码处理的编码处理。例如,在H.264中,使用基于上下文的自适应可变长度编码(CAVLC),基于上下文的自适应二进制算法编码(CABAC)等。
为了减少从索引设置单元108输入的索引信息的句法元素的编码长度,索引重构单元110B基于句法元素的参数的特性执行预测处理,计算句法元素的值(直接值)和预测值之间的差值,并将差值输出到熵编码单元110A。预测过程的特定示例将在后面描述。
图9是示出了根据第一实施例的编码设备100使用的句法500的图。句法500示出了通过使用编码设备100编码输入图像(运动图像数据)所生成的编码数据的结构。在解码所述编码后的数据时,将在后面描述的解码设备通过参考与句法500相同的句法结构执行对运动图像的句法分析。
句法500包括三个部分,包括高级句法501,片级(slice level)句法502,和编码树级句法503。高级句法501包括具有比片更高级别的上层的句法信息。这里,片(slice)表示包括在帧或字段中的矩形区域或连续区域。片级句法502包括解码每个片所必需的信息。编码树级句法503包括解码每个编码树(换句话说,每个编码树块)所必需的信息。这些部分中的每个部分包括更详细的句法。
高级句法501包括诸如序列参数集句法504、图片参数集句法505和自适应参数集句法506的序列和图片级的句法。
片级句法502包括片头句法507、预测加权表格句法508、片数据句法509等。预测加权表格句法508从片头句法507调用。
编码树级句法503包括编码树单元句法510、变换单元句法511、预测单元句法512等。编码树单元句法510可以具有四叉树结构。更具体地说,编码树单元句法510可以被递归地进一步调用作为编码树单元句法510的句法元素。换句话说,一个编码树块可以被细分成四叉树。此外,该变换单元句法511包括在编码树句法单元510中。变换单元句法511从位于四叉树的尾端的每个编码树单元句法510调用。在变换单元句法511中,描述了涉及逆正交变换的信息、量化信息等。在该句法中,可以描述涉及加权运动补偿预测的信息。
图10是示出了根据第一实施例的图片参数集句法505的示例的图。这里,例如,weighted_pred_flag是根据P-Slice的第一实施方式表示加权补偿预测的有效或无效的句法元素。在weighted_pred_flag是“0”的情况下,根据第一实施例的P-Slice中的加权运动补偿预测无效。因此,包括在WP参数信息中的WP应用标志被恒定设置为“0”,WP选择器304和305的输出端被连接到缺省运动补偿单元301。另一方面,在weighted_pred_flag是“1”的情况下,根据第一实施例的P-Slice中的加权运动补偿预测是有效的。
作为另一个示例,在weighted_pred_flag是“1”的情况下,可以为较低层句法中的片内的每个局部区域(片头、编码树块、变换单元、预测单元等)定义根据第一实施例的加权运动补偿预测的有效或无效。
此外,weighted_bipred_idc例如是表示根据第一实施例的用于B-slice的加权补偿预测的有效或无效的句法元素。在weighted_bipred_idc是“0”的情况下,根据第一实施例的B-Slice内加权运动补偿预测无效。因此,包括在WP参数信息中的WP应用标志被恒定设置为“0”,WP选择器304和305的输出端被连接到缺省运动补偿单元301。另一方面,在weighted_bipred_idc是“1”的情况下,根据第一实施例的B-Slice内加权运动补偿预测是有效的。
作为另一个示例,在weighted_bipred_idc是“1”的情况下,可以为较低层句法中的片内的每个局部区域(片头、编码树块、变换单元等)定义根据第一实施例的加权运动补偿预测的有效或无效。
图11是示出了根据第一实施例的片头句法507的示例的图。这里,slice_type表示片的片类型(I_slice、P_slice、B_slice等)。此外,pic_parameter_set_id是表示将被引用的图片参数集句法505的标识符。num_ref_idx_active_override_flag是表示是否需要更新有效参考图像的数目的标志,并且,在该标志为“1”的情况下,可以使用定义参考列表的参考图像的编号的num_ref_idx_l0_active_minus1和num_ref_idx_l1_active_minus1。此外,pred_weight_table()是表示用于加权运动补偿预测的预测(pred)加权表格句法的函数,并且就P-slice而言在weighted_pred_flag是“1”的情况下以及就B-slice而言在weighted_bipred_idc是“1”的情况下,该函数被调用。
图12是示出了根据第一实施例的预测加权表格句法508的示例的图。这里,luma_log2_weight_denom表示片中的亮度信号的加权因子的定点精度,并且是对应于数值表达式(7)或(9)中表示的logWDC的值。此外,chroma_log2_weight_denom表示片中的色差信号的加权因子的定点精度,并且是对应于数值表达式(7)或(9)中表示的logWDC的值。chroma_format_idc是表示色彩空间的标识符,MONO_IDX是表示单色视频的值。此外,num_ref_common_active_minusl表示从包含在片内的公共列表中的参考图像的数目减去1获得的值。
luma_weight_l0_flag和luma_weight_l1_flag表示对应于列表0和1的亮度信号的WP应用标志。在该标志为“1”的情况下,根据第一实施例的亮度信号的加权运动补偿预测对于片内的所有区域都是有效的。此外,chroma_weight_l0_flag和chroma_weight_l1_flag代表对应于列表0和1的色差信号的WP应用标志。在该标志为“1”的情况下,根据第一实施例的色差信号的加权运动补偿预测对于片内的所有区域都是有效的。luma_weight_l0[i]和luma_weight_l1[i]是由列表0和1所管理的第i个亮度信号的加权因子。此外,luma_offset_l0[i]和luma_offset_l1[i]是由列表0和1所管理的第i个亮度信号的偏移。这些是对应于数值表达式(7)或(9)中表示的W0C、W1C、O0C、O1C的值。这里,C=Y。
chroma_weight_l0[i][j]与chroma_weight_l1[i][j]是通过列表0和1所管理的第i个色差信号的加权因子。此外,chroma_offset_l0[i][j]与chroma_offset_l1[i][j]的是由列表0和1所管理的第i个色差信号的偏移。这些是对应于数值表达式(7)或(9)中表示的W0C、W1C、O0C、O1C的值。这里,C=Cr或Cb。另外,j表示色差分量,并且,例如,在YUV信号4:2:0的情况下,j=0表示Cr分量,并且j=1表示Cb分量。
这里,将详细描述预测涉及句法结构中的加权预测的每个句法元素的方法。句法元素的预测由索引重构单元110B执行。图13是示出了明确地表示根据第一实施例的预测方法的句法结构的示例的图。在图13所述的该示例中,虽然已为其引入预测的每个句法元素通过附加一个前缀“delta”来表示,但是句法结构基本上具有如图12中所示的句法结构的相同的构成要素。
首先,将描述表示加权因子的定点精度的luma_log2_weight_denom和chroma_log2_weight_denom的信号间预测方法。索引重构单元110B使用数值表达式(10)执行luma_log2_weight_denom和chroma_log2_weight_denom的信号间预测处理,并使用数值表达式(11)执行恢复过程。这里,如图12和13中所示,由于luma_log2_weight_denom被首先定义,chroma_log2_weight_denom是基于luma_log2_weight_denom的值预测的。
delta_chroma_log2_weight_denom=(chroma_log2_weight_denom-luma_log2_weight_denom) (10)
chroma_log2_weight_denom=(luma_log2_weight_denom+delta_chroma_log2_weight_denom) (11)
图14是示出根据第一实施例的预测chroma_log2_weight_denom的处理的示例的流程图。
首先,索引重构单元110B获得索引信息中的luma_log2_weight_denom设置作为预测值(步骤S101)。
随后,索引重构单元110B从chroma_log2_weight_denom中减去luma_log2_weight_denom(步骤S102),并将其色差值设置为索引信息中的delta_chroma_log2_weight_denom(步骤S103)。
图15是示出根据第一实施例的恢复chroma_log2_weight_denom的处理的示例的流程图。
首先,索引重构单元110B获得设置在索引信息中的luma_log2_weight_denom作为预测值(步骤S201)。
随后,索引重构单元110B将luma_log2_weight_denom添加到delta_chroma_log2_weight_denom(步骤S202),并在索引信息中设置相加后的值作为chroma_log2_weight_denom(步骤S203)。
通常,在衰退效应中,由于时间上的变化对于每个色彩空间不同的情况很少,每个信号分量的定点精度与亮度分量和色差分量有很强的相关性。因此,通过如上所述进行色彩空间内的预测,可以减少表示定点精度的信息量。
在数值表达式(10)中,虽然亮度分量被从色差分量中减去,色差分量也可以被从亮度分量中减去。在这种情况下,数值表达式(11)可以根据数值表达式(10)来变化。
接下来,将描述预测表示亮度和色差信号的加权因子luma_weight_lx[i]和chroma_weight_lx[i][j]的方法。这里,x是表示“0”或“1”的标识符。luma_weight_lx[i]和chroma_weight_lx[i][j]的值根据luma_log2_weight_denom和chroma_log2_weight_denom的值而增加或减少。例如,在luma_log2_weight_denom的值是“3”的情况下,在假设亮度没有发生变化的情况下luma_weight_lx[i]为(1<<3)。在另一方面,在luma_log2_weight_denom的值是“5”的情况下,在假设亮度没有发生变化的情况下luma_weight_lx[i]为(1<<5)。
因此,索引重构单元110B以在亮度没有变化被用来作为参考系数(缺省值)的情况下的加权因子执行预测处理。更具体地,索引重构单元110B使用数值表达式(12)和(13)执行luma_weight_lx[i]的预测处理,并使用数值表达式(14)执行恢复处理。类似地,索引重构单元110B使用数值表达式(15)和(16)执行chroma_weight_lx[i]的预测处理,并使用数值表达式(17)执行恢复处理。
delta_luma_weight_lx[i]=(luma_weight_lx[i]-default_luma_weight_lx) (12)
default_luma_weight_lx=(1<<luma_log2_weight_denom) (13)
luma_weight_lx[i]=(default_luma_weight_lx+delta_luma_weight_lx[i]) (14)
delta_chroma_weight_lx[i][j]=(chroma_weight_lx[i][j]-default_chroma_weight_lx) (15)
default_chroma_weight_lx=(1<<chroma_log2_weight_denom)
(16)
chroma_weight_lx[i][j]=(default_chroma_weight_lx+delta_chroma_weight_lx[i][j]) (17)
这里,default_luma_weight_lx,default_chroma_weight_lx是在亮度分量和色差分量中没有亮度变化的情况下的缺省值。
图16是示出根据第一实施例的预测luma_weight_lx[i]的过程的示例的流程图。
首先,索引重构单元110B获得索引信息中设置的luma_log2_weight_denom(步骤S301),并计算default_luma_weight_lx作为预测值(步骤S302)。
随后,索引重构单元110B从luma_weight_lx[i]中减去default_luma_weight_lx(步骤S303)并在索引信息中设置其差值作为delta_luma_weight_lx[i](步骤S304)。
通过以参考图像的数目重复该过程,预测过程可以应用于luma_weight_lx[i]。
图17是示出根据第一实施例的恢复luma_weight_lx[i]的处理的示例的流程图。
首先,索引重构单元110B获得已经设置在索引信息中的delta_luma_weight_lx[i]为(步骤S401),并计算default_luma_weight_lx作为预测值(步骤S402)。
随后,索引重构单元110B将delta_luma_weight_lx[i]添加到default_luma_weight_lx(步骤S403)并在索引信息中设置其相加后的值作为luma_weight_lx[i](步骤S404)。
虽然这里已经说明了用于亮度分量的流程图,可以类似地实现用于色差分量(chroma_weight_lx[i][j])的预测处理和恢复处理。
包括衰退效应的图像在特定的退变点处退去,而且存在许多这样的情况,其中其他的图像是普通的自然图像或不具有衰退效应的图像。在这种情况下,存在许多这样的情况,其中加权因子采取亮度没有变化的情况。因此,在亮度没有变化的情况下,初始值基于定点精度来导出并用作预测值,从而可以减少加权因子的代码量。
此外,亮度和色差信号的加权因子(luma_weight_lx[i]和chroma_weight_lx[i][j])的预测值可以基于其他的参考编号或其他的POC号来导出。在这种情况下,当最靠近编码目标片的参考编号是base_idx时,索引重构单元110B使用数值表达式(18)执行luma_weight_lx[i]的预测处理,并使用数值表达式(19)执行恢复处理。类似地,索引重构单元110B使用数值表达式(20)执行chroma_weight_lx[i][j]的预测处理,并使用数值表达式(21)执行恢复过程。
delta_luma_weight_lx[i]=(luma_weight_lx[i]-luma_weight_lx[base_idx]) (18)
luma_weight_lx[i]=(delta_luma_weight_lx[i]+luma_weight_lx[base_idx]) (19)
delta_chroma_weight_lx[i][j]=(chroma_weight_lx[i][j]-chroma_weight_lx[base_idx][j]) (20)
chroma_weight_lx[i][j]=(delta_chroma_weight_lx[i][j]+chroma_weight_lx[base_idx][j]) (21)
这里,在数值表达式(18)和(20)中,i≠base_idx。对于由base_idx表示的参考编号的加权因子,不能使用数值表达式(18)和(20),相应地,可以使用数值表达式(12),(13),(15)和(16)。
图18是示出了根据第一实施例的luma_weight_lx[i]的预测过程另一示例的流程图。
首先,索引重构单元110B设置表示作为参考的参考编号的baseidx(步骤S501)。这里,baseidx的值被临时假定为“0”。
随后,索引重构单元110B从索引信息获得luma_weight_lx[baseidx]作为基于baseidx的预测值(步骤S502)。此外,由baseidx表示的索引信息的luma_weight_lx[baseidx],例如,不被预测而是作为直接值被编码。
随后,索引重构单元110B从luma_weight_lx[i]减去luma_weight_lx[baseidx](步骤S503),并将其差值设置为索引信息中的delta_luma_weight_lx[i](步骤S504)。
通过以参考图像的数目重复该过程,在baseidx以外预测过程可以应用于luma_weight_lx[i]。
图19是示出根据第一实施例的恢复luma_weight_lx[i]的过程的另一示例的流程图。
首先,索引重构单元110B设置表示作为参考的参考编号baseidx(步骤S601)。这里,baseidx的值被临时假定为“0”。
随后,索引重构单元110B从索引信息导出luma_weight_lx[baseidx]作为基于baseidx的预测值(步骤S602)。此外,由baseidx表示的索引信息的luma_weight_lx[baseidx]例如不被预测而是作为直接值被编码。
随后,索引重构单元110B将delta_luma_weight_lx[i]与luma_weight_lx[baseidx]相加(步骤S603),并将相加后的值设置为索引信息中的luma_weight_lx[i](步骤S604)。
虽然已示出了亮度分量的流程图,但可以为色差分量(chroma_weight_lx[i][j])类似地实现预测过程和恢复过程。此外,尽管作为示例描述了luma_weight_lx[i]的预测方法和恢复方法,luma_offset_lx[i]可以被类似地预测和恢复。
此外,可以利用编码目标与参考片之间的距离导出亮度和色差信号的加权因子(luma_weight_lx[i]和chroma_weight_lx[i][j])的预测值。在这样的情况下,索引重构单元110B使用数值表达式(22)执行luma_weight_lx[i]的预测处理,并使用数值表达式(23)执行恢复处理。类似地,索引重构单元110B使用数值表达式(24)执行chroma_weight_lx[i][j]的预测处理,并使用数值表达式(25)执行恢复处理。
delta_luma_weight_l[i]=(luma_weight_lx[i]-luma_weight_lx[i-1]) (22)
luma_weight_l[i]=(delta_luma_weight_l[i]+luma_weight_lx[i-1]) (23)
delta_chroma_weight_lx[i][j]=(chroma_weight_lx[i][j]-chroma_weight_lx[i-1][j]) (24)
chroma_weight_lx[i][j]=(delta_chroma_weight_lx[i][j]+chroma_weight_lx[i-1][j]) (25)
这里,在数值表达式(22)和(24)中,i≠0。
此外,由于通过将第(i-1)个值(i≠0)代入baseidx,这些预测和恢复过程与图18和19中所示的流程图相同,其描述将不再呈现。虽然已示出了亮度分量的流程图,但可以为色差分量(chroma_weight_lx[i][j])类似地实现预测过程和恢复过程。此外,尽管作为示例描述了luma_weight_lx[i]的预测方法和恢复方法,luma_offset_lx[i]可以被类似地预测和恢复。
存在许多这样的情况,从编码效率的角度设置在时间或空间距离上靠近编码目标片的片作为可以由编码目标片参考的参考片。这里,由于时间距离上连续的片的亮度变化具有高的相关性,与加权因子和偏移之间的时间距离有关的相关性也高。因此,通过使用用作参考的参考片的加权因子和偏移值,预测与其不同的参考片的加权因子和偏移值,由此可以有效地降低代码量。此外,由于存在空间中具有许多具有相同加权因子和偏移值的参考片的情况,通过以同样的原因引入预测,可以降低代码量。
接着,将描述表示色差信号的偏移的chroma_offset_lx[i][j]的预测方法。在YUV色彩空间,色差分量表示使用来自中间值的偏差量的颜色。因此,使用加权因子在考虑中间值的情况下基于亮度变化的变化量可以被设置为预测值。更具体地,索引重构单元110B使用数值表达式(26)和(27)执行chroma_offset_lx[i][j]的预测处理,并使用数值表达式(28)执行恢复过程。
delta_chroma_offset_lx[i][j]=(chroma_offset_lx[i][j]+((MED*chroma_weight_lx[i][j])>>chroma_log2_weight_denom)-MED) (26)
MED=(MaxChromaValue>>1) (27)
这里,MaxChromaValue表示获得色差信号处的最大亮度。例如,在8比特信号的情况下,MaxChromaValue是255,MED为128。
chroma_offset_lx[i][j]=(delta_chroma_offset_lx[i][j]-((MED*chroma_weight_lx[i][j])>>chroma_log2_weight_denom)+MED) (28)
图20是示出根据第一实施例的chroma_offset_lx[i][j]的预测过程的实例的流程图。
首先,索引重构单元110B导出设置在索引信息中的chroma_log2_weight_denom(步骤S701)。
随后,索引重构单元110B导出设置在索引信息中的chroma_offset_lx[i][j](步骤S702)。
随后,索引重构单元110B导出色差信号的最大值(最大信号)的中间值(步骤S703)。
随后,索引重构单元110B导出delta_chroma_offset_lx[i][j]并在索引信息中设置delta_chroma_offset_lx[i][j](步骤S704)。
图21是示出根据第一实施例的chroma_offset_lx[i][j]的恢复过程的示例的流程图。
首先,索引重构单元110B导出已经设置在索引信息中的chroma_log2_weight_denom(步骤S801)。
随后,索引重构单元110B导出设置在索引信息中的chroma_offset_lx[i][j](步骤S802)。
随后,索引重构单元110B导出色差信号的最大值(最大信号)的中间值(步骤S803)。
随后,索引重构单元110B导出chroma_offset_lx[i][j]并在索引信息中设置chroma_offset_lx[i][j](步骤S804)。
通过引入通过考虑使用色差信号的信号特性从中间值的偏差量获得的预测值,色差信号的偏移值的代码量可以小于比所述偏移值被直接编码的情况。
接下来,将描述使用导出H.264等中定义的加权预测中的隐式加权预测的WP参数的方法导出定点精度和加权因子的预测值的技术。在H.264的隐式加权预测中,根据参考片在时间上的距离(POC号的时间比)导出加权因子(偏移量变成零)。参考片之间的时间上的距离通过基于POC号导出编码目标片和参考片之间的距离来获得,加权因子基于距离的比来确定。此时,定点精度被设置为固定值“5”。
例如,在H.264中,根据数值表达式(29)表示的伪代码导出加权因子。
td=Clip3(-128,127,POCA-POCB)
tb=Clip3(-128,127,POCT-POCA)
tx=(td!=0)?((16384+abs(td/2))/td):(0)
DistScaleFactor=Clip3(-1024,1023,(tb*tx+32)>>6)
implicit_luma_weight_l0[i]=64-(DistScaleFactor>>2)
implicit_luma_weight_l1[i]=DistScaleFactor>>2 (29)
这里,POCA表示对应于列表1的参考图像A的POC号,POCB表示对应于列表0的参考图像B的POC号,POCT表示预测目标图像的POC号。此外,CLip3(L,M,N)为用于执行限幅(clipping)处理的函数,使得最后的变量(argument)N不超出由前两个变量表示的最小值L和最大值M的范围。abs()函数是用于返回变量的绝对值的函数。此外,td和tb表示时间比,td表示对应于列表1的参考图像的POC号和对应于列表0的参考图像的POC号之间的差,tb表示预测目标图像的POC号和对应于列表0的参考图像的POC号之间的差。基于这样的值,导出加权因子的距离中的缩放变量DistScaleFactor。基于DistScaleFactor,导出对应于列表0和1的加权因子(implicit_luma_weight_l0[i]和implicit_luma_weight_l1[i])。此外,色差信号被类似地设置。索引重构单元110B通过使用此处导出的定点精度implicit_log2_weight_denom基于数值表达式(30)预测定点精度。
delta_luma_log2_weight_denom=(luma_log2_weight_denom-implicit_log2_weight_denom) (30)
此外,可以使用数值表达式(30)预测色差信号的定点精度。可通过使用数值表达式(31)来恢复该值。
luma_log2_weight_denom=(delta_luma_log2_weight_denom+implicit_log2_weight_denom) (31)
此外,可以使用数值表达式(31)中表示的同一方法恢复色差信号的定点精度。
接下来,将描述用于预测加权因子的方程式。当隐式加权因子为implicit_luma_weight_lx[i]时,索引重构单元110B使用数值表达式(32)预测加权因子luma_weight_lx[i]并使用数值表达式(33)恢复加权因子。
if(luma_log2_weight_denom>=implicit_log2_weight_denom){
norm_denom=(luma_log2_weight_denom-implicit_log2_weight_denom)
delta_luma_weight_lx[i]=(luma_weight_lx[i]-(implicit_luma_weight_lx[i]<<norm_denom))
}
else{
norm_denom=(implicit_log2_weight_denom-luma_log2_weight_denom)
delta_luma_weight_lx[i]=(luma_weight_lx[i]-(implicit_luma_weight_lx[i]>>norm_denom))
} (32)
这里,索引重构单元110B基于所述隐式加权预测大于还是小于定点精度来校正加权因子,并使用经校正的加权因子进行预测。
if(luma_log2_weight_denom>=implicit_log2_weight_denom){
norm_denom=(luma_log2_weight_denom-implicit_log2_weight_denom)
luma_weight_lx[i]=(delta_luma_weight_lx[i]+(implicit_luma_weight_lx[i]<<norm_denom))
}
else{
norm_denom=(implicit_log2_weight_denom-luma_log2_weight_denom)
luma_weight_lx[i]=(delta_luma_weight_lx[i]+(implicit_luma_weight_lx[i]>>norm_denom))
} (33)
在数值表达式(32)中,虽然表示了亮度分量的加权因子的示例,通过对色差分量使用相同的方法,可以导出预测值。
图22是示出根据第一实施例的luma_weight_lx[i]的预测过程的另一示例的流程图。
首先,索引重构单元110B导出设置在索引信息中的luma_log2_weight_denom(步骤S901)。
随后,索引重构单元110B根据导出H.264的隐式加权预测的方法导出implicit_log2_weight_denom和implicit_luma_weight_lx[i](步骤S902和S903)。
随后,索引重构单元110B确定luma_log2_weight_denom是否大于等于implicit_log2_weight_denom(步骤S904)。
另外,在luma_log2_weight_denom大于等于implicit_log2_weight_denom的情况下(步骤S904中的是),索引重构单元110B从luma_log2_weight_denom减去implicit_log2_weight_denom(步骤S905),并以对应于相减后的值的量向左移位implicit_luma_weight_lx[i],从而导出预测值(步骤S906)。
另一方面,在luma_log2_weight_denom不大于等于implicit_log2_weight_denom的情况下(步骤S904中的否),索引重构单元110B从implicit_log2_weight_denom减去luma_lo2_weight_denom(步骤S907),并以对应于相减后的值的量向右移位implicit_luma_weight_lx[i],从而导出预测值(步骤S908)。
随后,索引重构单元110B从luma_weight_lx[i]中减去导出的预测值(步骤S909),并在索引信息中设置相减后的值(差值)(步骤S910)。
图23是示出根据第一实施例的luma_weight_lx[i]的恢复过程的另一示例的流程图。
首先,索引重构单元110B导出已经设置在索引信息中的luma_log2_weight_denom(步骤S1001)。
随后,索引重构单元110B根据导出H.264的隐式加权预测的方法导出implicit_log2_weight_denom和implicit_luma_weight_lx[i](步骤S1002和S1003)。
随后,索引重构单元110B确定luma_log2_weight_denom是否大于等于implicit_log2_weight_denom(步骤S1004)。
另外,在luma_log2_weight_denom大于等于implicit_log2_weight_denom的情况下(步骤S1004中的是),索引重构单元110B从luma_log2_weight_denom减去implicit_log2_weight_denom(步骤S1005),并以对应于相减后的值的量向左移位implicit_luma_weight_lx[i],从而导出预测值(步骤S1006)。
另一方面,在luma_log2_weight_denom不大于等于implicit_log2_weight_denom的情况下(步骤S1004中的否),索引重构单元110B从implicit_log2_weight_denom减去luma_log2_weight_denom(步骤S1007),并以对应于相减后的值的量向右移位implicit_luma_weight_lx[i],从而导出预测值(步骤S1008)。
随后,索引重构单元110B将导出的预测值添加到luma_weight_lx[i](步骤S1009),并在索引信息中设置相加后的值(步骤S1010)。
多种上述预测方法不仅可以单独使用,而且也可以组合的方式使用。例如,通过组合数值表达式(10)、(12)和(13)、(15)和(16)、以及(26)和(27)等,能够有效地减少索引信息的句法元素的编码量。
如上所述,根据第一实施例,索引设置单元108输出索引信息,其中WP参数信息映射到对应的句法结构,并且索引重构单元110B基于片内编码的信息预测句法元素的冗余表示。因此,根据第一实施例,编码量可以小于句法元素被直接地(直接值)编码的情况下的编码量。
这里,根据在对目标片进行编码中所使用的句法元素的定义的顺序(编码顺序),通过导出预测值作为来自已完成待编码句法元素的屏幕间相关性,或者从通过假设没有亮度的改变获得的缺省值导出预测值,可以进行利用句法元素的特性的预测。作为结果,获得了用于编码句法元素所需的降低开销的优势。
另外,在根据作为示例的第一实施例的图10-13所示的句法表的行之间,可以插入该实施例中未定义的句法元素,并可包括与其他的条件分支相关的描述。此外,句法表可以被划分成多个表,或多个句法表可以被整合。此外,作为示例表示的每个句法元素的术语可以任意改变。
如上所述,根据第一实施例的编码设备100通过使用待编码的信息的参数之间的相关性来消除空间冗余,解决了降低编码效率的问题。相比于加权运动补偿预测中使用的句法元素被直接(直接值)编码的常规配置,编码设备100可以减少代码量。
第二实施例
在第二实施例中,将描述对由根据第一实施例的编码设备编码的编码数据进行解码的解码设备。
图24是示出根据第二实施例的解码设备800的配置的示例的框图。
所述解码设备800将存储在图中未示出的输入缓冲器等中的编码数据解码成解码图像,并将解码后的图像输出到图中未示出的输出缓冲器作为输出图像。例如,编码数据从图1所示的编码设备100等输出,并通过图中未示出的存储系统、传输系统、缓冲器等输入到解码设备800。
如图24中所示,所述解码设备800包括:解码单元801;逆量化单元802;逆正交变换单元803;加法单元804;预测图像生成单元805;以及索引设置单元806。逆量化单元802、逆正交变换单元803、加法单元804以及预测图像生成单元805是与图1中描述的逆量化单元104、逆正交变换单元105、加法单元106以及预测图像生成单元107大致相同的或相似的元件。此外,图24中描述的解码控制单元807控制解码设备800,并且,例如,由CPU等来实现。
为了对已编码数据进行解码,解码单元801基于每帧或每字段的句法进行解码。解码单元801包括熵解码单元801A和索引重构单元801B。
熵解码单元801A顺序地执行各句法的代码串的熵解码并重新生成包括预测模式、运动矢量、和参考编号、用于预测加权运动补偿预测的索引信息以及对诸如量化变换系数等的目标块进行编码的编码参数的运动信息。这里,所述编码参数是除了上述那些之外,用于对涉及变换系数的信息、涉及量化的信息等进行解码所必需的所有信息。
更具体地,熵解码单元801A具有用于对输入的编码数据执行诸如可变长度解码处理或算法解码处理的功能。例如,在H.264中,使用基于上下文的自适应可变长度编码(CAVLC)、基于上下文的自适应二进制算法编码(CABAC)等。这样的处理也被称为解码处理。
该索引重构单元801B通过恢复解码的索引信息重构索引信息。更具体地,为了降低解码的索引信息的句法元素的编码长度,索引重构单元801B执行根据句法元素的参数的特性的预测处理,恢复句法元素,并重构索引信息。预测过程的具体示例将在后面描述。
解码单元801输出运动信息、索引信息以及量化变换系数,以将量化变换系数输入到逆量化单元802,将索引信息输入到索引设置单元806,并将运动信息输入到预测图像生成单元805。
逆量化单元802对从解码单元801输入的量化变换系数执行逆量化处理,并获得恢复变换系数。更具体地,逆量化单元802基于解码单元801所使用的量化信息执行逆量化。更详细地,逆量化单元802将量化变换系数乘以基于所述量化信息得到的量化步长,从而获得恢复的变换系数。逆量化单元802输出恢复的变换系数,从而使其被输入到逆正交变换单元803。
逆正交变换单元803对于从逆量化单元802输入的恢复的变换系数执行对应于在编码侧执行的正交变换的逆正交变换,从而获得恢复的预测误差。逆正交变换单元803输出恢复的预测误差,以使其被输入到加法单元804。
加法单元804将从逆正交变换单元803输入的恢复的预测误差与对应的预测图像相加,从而生成解码图像。加法单元804输出解码后的图像,以使其被输入到预测图像生成单元805。另外,加法单元804将解码图像向外部输出作为输出图像。此后,输出图像被暂时存储在图中未示出的外部输出缓存器等中,并且在例如解码控制单元807管理的输出时序处输出到显示器系统,诸如图中未示出的显示器或监控器或视频设备系统。
该索引设置单元806接收从解码单元801输入的索引信息,将索引信息转换成WP参数信息,并输出WP参数信息,以使其被输入到预测图像生成单元805。更具体地,索引设置单元806接收已被处理以由熵解码单元801A解码并由索引重构单元801B重构的索引信息。然后,索引设置单元806检查参考号和参考图像的列表,将索引信息转换为WP参数信息,并且将转换的WP参数信息输出到预测图像生成单元805。已经参考图8A和8B描述了WP参数信息,因此,将不再给出其说明。
该预测图像生成单元805通过使用从解码单元801输入的运动信息,从索引设置单元806输入的WP参数信息,及从加法单元804输入的解码图像生成预测图像。
这里,将参考图4详细描述上述预测图像生成单元805。类似于上述预测图像生成单元107,预测图像生成单元805包括:多帧运动补偿单元201;存储器202;单向运动补偿单元203;预测参数控制单元204;参考图像选择器205;帧存储器206;以及参考图像控制单元207。
帧存储器206在参考图像控制单元207的控制下存储从加法单元106输入的解码图像作为参考图像。帧存储器206包括用于临时存储参考图像的多个存储器设置FM1至FMN(这里,N≥2)。
预测参数控制单元204基于从解码单元801输入的运动信息准备每一个参考图像编号和预测参数的多个组合作为表。这里,运动信息表示代表用于运动补偿预测的运动偏差的运动矢量、参考图像编号和诸如单向/双向的预测模式的信息。预测参数表示有关运动矢量和预测模式的信息。然后,该预测参数控制单元204基于运动信息选择用于生成预测图像的预测参数和参考图像编号的组合,并输出所选择的组合,以允许所述参考图像编号被输入到参考图像选择器205,并允许预测参数被输入到单向运动补偿单元203。
参考图像选择器205是基于从预测参数控制单元204输入的参考图像编号改变要被连接到的帧存储器的输出端FM1至FMN(其被包括在帧存储器206中)之一的开关。例如,当参考图像编号为“0”时,参考图像选择器205将帧存储器FM1的输出端连接到参考图像选择器205的输出端,并且,当参考图像编号为N-1时,参考图像选择器205将帧存储器的FMN的输出端连接到参考图像选择器205的输出端。参考图像选择器205输出存储在其输出端将从包括在帧存储器206中的帧存储器FM1至FMN中连接到参考图像选择器205的帧存储器中的参考图像,以使其被输入到单向运动补偿单元203。在解码设备800中,除了预测图像生成单元805之外,参考图像不被任何其他单元使用,相应地,参考图像可不被输出到预测图像生成单元805之外。
单向运动补偿单元203基于从预测参数控制单元204输入的预测参数和从参考图像选择器205输入的参考图像执行运动补偿预测过程,从而生成单向预测图像。运动补偿预测已经参考图5描述过了,因此将不再呈现其描述。
单向运动补偿单元203输出单向预测图像并将该单向预测图像暂时存储在存储器202中。这里,在运动信息(预测参数)表示双向预测的情况下,多帧运动补偿单元201使用两种类型的单向预测图像进行加权预测。相应地,单向运动补偿单元203在存储器202中存储对应于第一类型的单向预测图像,并直接输出对应于所述第二类型的单向预测图像到多帧运动补偿单元201。这里,对应于第一类型的单向预测图像将被称为第一预测图像,对应于第二类型的单向预测图像将被称为第二预测图像。
此外,可以制备两个单向运动补偿单元203并生成两个单向预测图像。在这种情况下,当运动信息(预测参数)表示单向预测时,单向运动补偿单元203可以直接输出第一单向预测图像到多帧运动补偿单元201作为第一预测图像。
多帧运动补偿单元201通过使用从存储器202输入的第一预测图像、从单向运动补偿单元203输入的第二预测图像以及从运动评估单元109输入的WP参数信息进行加权预测,由此生成预测图像。多帧运动补偿单元201输出预测图像,以使其被输入到加法单元804。
这里,将参考图6详细描述多帧运动补偿单元201。类似于预测图像生成单元107,多帧运动补偿单元201包括:缺省运动补偿单元301;加权运动补偿单元302;WP参数控制单元303;和WP选择器304和305。
该WP参数控制单元303基于从索引设置单元806输入的WP参数信息输出WP应用标志和加权信息,以将WP应用标志输入到WP选择器304和305,并将加权信息输入到加权运动补偿单元302。
在这里,WP参数信息包括加权因子、第一WP应用标志、第一加权因子、对应于所述第一预测图像的第一偏移、第二WP应用标志、第二加权因子,以及对应于所述第二预测图像的第二偏移的定点精度的信息。该WP应用标志是可以为每个对应的参考图像和信号分量设置并表示是否进行了加权运动补偿预测的参数。加权信息包括所述加权因子、所述第一加权因子、所述第一偏移、所述第二加权因子以及第二偏移的定点精度的信息。这里,WP参数信息表示与第一实施例中相同的信息。
详细地,当WP参数信息是从索引设置单元806输入时,WP参数控制单元303输出被分成第一WP应用标志、第二WP应用标志和加权信息的WP参数信息,从而将第一WP应用标志输入到WP选择器304,将第二WP应用标志输入到WP选择器305,并将加权信息输入到加权运动补偿单元302。
该WP选择器304和305基于从WP参数控制单元303输入的WP应用标志改变该预测图像的连接端部。在对应的WP应用标志是“0”的情况下,选择器WP 304和305中的每一个将其输出端连接到缺省运动补偿单元301。然后,WP选择器304和305输出第一和第二预测图像,以使其被输入到缺省运动补偿单元301。另一方面,在对应的WP应用标志是“1”的情况下,每一个WP选择器304和305将其输出端连接到加权运动补偿单元302。然后,WP选择器304和305输出第一和第二预测图像,以使其被输入到加权运动补偿单元302。
缺省运动补偿单元301基于从WP选择器304和305输入的两个单向预测图像(第一和第二预测图像)执行平均处理,由此生成预测图像。更特别地,在第一和第二WP应用标志都是“0”的情况下,缺省运动补偿单元301基于数值表达式(1)执行平均处理。
此外,在由所述运动信息(预测参数)所表示的预测模式是单向预测的情况下,缺省运动补偿单元301基于数值表达式(4)仅使用第一预测图像来计算最终的预测图像。
加权运动补偿单元302基于从WP选择器304和305输入的两个单向预测图像(第一和第二预测图像)以及从WP参数控制单元303输入的加权信息执行加权运动补偿。更特别地,在第一和第二WP应用标志是“1”的情况下加权运动补偿单元302根据数值表达式(7)执行加权处理。
此外,在第一和第二预测图像的计算精度与预测图像的计算精度彼此不同的情况下,加权运动补偿单元302通过控制logWDC来实现定点精度的取整过程,如数值表达式(8)所示。
此外,在由所述运动信息(预测参数)所表示的预测模式是单向预测的情况下,加权运动补偿单元302基于数值表达式(9)仅使用第一预测图像计算最终的预测图像。
此外,在第一和第二预测图像的计算精度与预测图像的计算精度彼此不同的情况下,加权运动补偿单元302通过控制logWDC来实现定点精度的取整过程,如在数值表达式(8)中所示,与双向预测的情况类似。
已参考图7对加权因子的定点精度进行了描述,因此将不再呈现其描述。此外,在单向预测的情况下,不使用对应于第二预测图像的各种参数(第二WP应用标志、第二加权因子和第二偏移信息),并且该各种参数可被设置为预先确定的初始值。
解码单元801使用图9中表示的句法500。句法500表示作为解码单元801的解码目标的编码数据的结构。已参考图9对句法500进行了描述,因此将不再呈现其描述。此外,除了此处是使用解码而不是编码之外,已参考图10对图片参数集句法505进行了描述,因此将不再呈现其描述。此外,除了此处是使用解码而不是编码之外,已参考图11对片头句法507进行了描述,因此将不再呈现其描述。此外,除了此处是使用解码而不是编码之外,已参考图12对预测加权表格句法508进行了描述,因此将不再呈现其描述。
这里,将详细描述预测关于句法结构中的加权预测的每个句法元素的方法。句法元素的预测由索引重构单元801B执行。明确地表示根据第二实施例的预测方法的句法结构与第二实施例的配置是相同的,并且如图13中所示。
在表示加权因子的定点精度的luma_log2_weight_denom和chroma_log2_weight_denom的信号间预测方法中,使用数值表达式(11)执行恢复过程。恢复过程的细节如图15所示。
在表示亮度和色差信号的加权因子的luma_weight_lx[i]和chroma_weight_lx[i][j]的预测方法中,用数值表达式(14)和(17)执行恢复处理。恢复过程的细节如图17所示。
在使用其它参考编号和其它POC号导出亮度和色差信号的加权因子(luma_weight_lx[i]和chroma_weight_lx[i][j])的预测值的预测方法中,使用数值表达式(19)和(21)执行恢复处理。恢复处理的细节如图19所示。
在使用编码目标和参数片之间的距离导出亮度和色差信号的加权因子(luma_weight_lx[i]和chroma_weight_lx[i][j])的预测值的预测方法中,使用数值表达式(23)和(25)执行恢复处理。通过将第(i-1)个值(i≠0)代入baseidx,恢复处理的细节如图19所示的流程图相同。
在使用导出H.264等中定义的隐式加权预测的WP参数的方法导出定点精度和加权因子的预测值的技术中,用数值表达式(31)和(33)执行恢复过程。恢复过程的细节如图23所示。
多个上述预测技术不仅可以单独使用,而且也可以组合的方式使用。例如,通过组合数值表达式(11)、(14)、(17)和(28),能够有效地减少索引信息的句法元素的编码量。
如上所述,根据第二实施例,解码设备800使用待编码的信息的参数之间的相关性来消除空间冗余,由此解决了降低编码效率的问题。相比于加权运动补偿预测中使用的句法元素被直接(直接值)编码的常规配置,解码设备800可以减少代码量。
在上述第一和第二实施例中,描述了帧被划分成多个矩形块的示例,其中每个块具有16×16等的像素大小并且以从屏幕的左上块到右下块的顺序(见图2)被编码/解码。然而,编码顺序和解码顺序不限于该本例中所示。例如,编码和解码可以以从右下到左上方的顺序执行,或者可以从屏幕的中心向末端画漩涡的方式执行编码和解码。另外,编码和解码可以以从右上到左下方的顺序执行,或者可以从屏幕的末端向中心画漩涡的方式执行编码和解码。在这种情况下,由于可以按照编码顺序索引的相邻像素块的位置变化,该位置可以被改变到适当可用的位置。
在上述第一和第二实施例中,虽然已经描述了被示出作为示例的具有诸如4×4像素块、8×8像素块、16×16像素块预测目标块的大小,但预测目标块可能不具有均匀的块形状。例如,预测目标块的大小可以是16×8像素块、8×16像素块、8×4像素块、4×8像素块等等。此外,没有必要均匀化一个编码树块内的所有块大小,可以混合彼此不同的多个块大小。在一个编码树块内混合彼此不同的多个块大小的情况下,用于编码或解码划分信息的代码量根据划分数目的增加而增加。因此,最好考虑划分信息的代码量和局部编码图像或解码图像的质量之间的平衡来选择块大小。
在上述第一和第二实施例中,为简化起见,已在没有未区分彼此的色差信号和亮度信号的预测过程的情况下为色彩信号分量呈现了全面的描述。但是,在色差信号和亮度信号的预测过程彼此不同的情况下,可以使用同一预测方法或者彼此不同的预测方法。在对色差信号和亮度信号使用彼此不同的预测方法的情况下,可以使用为色差信号选择的类似于亮度信号的预测方法来执行编码或解码。
在上述第一和第二实施例中,为简化起见,已在没有未区分彼此的色差信号和亮度信号的加权运动补偿预测过程的情况下为色彩信号分量呈现了全面的描述。但是,在色差信号和亮度信号的加权运动补偿预测过程彼此不同的情况下,可以使用同一加权运动补偿预测方法或者彼此不同的加权运动补偿预测方法。在对色差信号和亮度信号使用彼此不同的加权运动补偿预测方法的情况下,可以使用为色差信号选择的类似于亮度信号的加权运动补偿预测方法来执行编码或解码。
在上面描述的第一和第二实施例中,在句法结构中表示的表的行之间,可以插入该实施例中未定义的句法元素,并可包括与其他的条件分支相关的描述。可替换地,句法表可以被划分成多个表,或句法表可以被整合在一起。此外,可以不必使用相同的术语,而是该术语可以根据使用形式任意改变。
如上所述,根据每个实施例,在执行加权运动补偿预测的时候编码句法结构的冗余信息的问题得以解决,并且实现了具有高效率的加权运动补偿预测过程。因此,根据每个实施例,改善了编码效率,并且提高了主观图像质量。
虽然已描述了本发明的几个实施例,但这些实施例仅作为示例而不意在限制本发明的范围。这些新颖实施例可以其他各种形式来执行,并且在不偏离本发明的概念的范围内可以做出各种省略、替代和变化。这些实施例及其修改属于本发明的概念或范围,并属于在权利要求和其等效方案所记载的发明。
例如,实现上述各实施例的过程的程序可以提供为被存储在计算机可读存储介质中。作为存储介质,可以使用可以存储程序并可被计算机读取的存储介质,诸如磁盘、光盘(CD-ROM、CD-R、DVD等)、磁光盘(MO等)或半导体存储器,而不管其存储形式。
此外,实现各实施例的过程的程序可以存储在连接到诸如因特网的网络的计算机(服务器),并且可以通过网络下载到计算机(客户端)。
图标列表
100编码设备
101减法单元
102正交变换单元
103量化单元
104逆量化单元
105逆正交变换单元
106加法单元
107预测图像生成单元
108索引设置单元
109运动评估单元
110编码单元
110A熵编码单元
110B索引重构单元
111编码控制单元
201多帧运动补偿单元
202存储器
203单向运动补偿单元
204预测参数控制单元
205参考图像选择器
206帧存储器
207参考图像控制单元
301缺省运动补偿单元
302加权运动补偿单元
303WP参数控制单元
304、305WP选择器
800解码设备
801解码单元
801A熵解码单元
801B索引重构单元
802逆量化单元
803逆正交变换单元
804加法单元
805预测图像生成单元
806索引设置单元
807解码控制单元

Claims (18)

1.一种电子电路,包括:
接收器模块,配置成经由通信链路接收已编码数据;
缓冲器,配置成暂时存储所述已编码数据的至少一部分;以及
解码器模块,配置成:
从所述缓冲器读取所述已编码数据的至少一部分;
通过从色差信号的最大值的中间值减去通过将所述中间值与色差加权因子相乘并且右移由用于所述色差加权因子的第一定点精度指定的至少一个二进制位获得的值,获得色差偏移的第一参考值;
从已编码数据解码所述色差偏移的第一差值,其中所述第一差值等于所述色差偏移与所述第一参考值之间的差值;
通过将所述第一参考值与所述第一差值相加获得所述色差偏移;
根据所述第一定点精度获得所述色差加权因子的第三参考值,其中所述第三参考值等于“1”左移由所述第一定点精度指定的至少一个二进制位获得的值;
从所述已编码数据解码所述色差加权因子的第四差值,其中所述第四差值等于所述色差加权因子与所述第三参考值之间的差值;以及
通过将所述第三参考值与所述第四差值相加获得所述色差加权因子。
2.根据权利要求1所述的电子电路,其中
所述解码器模块进一步配置成:
从所述已编码数据解码用于亮度加权因子的第二定点精度;
根据所述第二定点精度获得所述亮度加权因子的第二参考值,其中所述第二参考值等于“1”左移由所述第二定点精度指定的至少一个二进制位获得的值;
从所述已编码数据解码所述亮度加权因子的第二差值,其中所述第二差值等于所述亮度加权因子与所述第二参考值之间的差值;
通过将所述第二参考值与所述第二差值相加获得所述亮度加权因子。
3.根据权利要求2所述的电子电路,其中
所述解码器模块进一步配置成:
从所述已编码数据解码等于所述第一定点精度与所述第二定点精度之间的差值的第三差值;并且
通过将所述第二定点精度与所述第三差值相加获得所述第一定点精度。
4.根据权利要求2所述的电子电路,其中
所述解码器模块进一步配置成:
从已编码数据解码亮度偏移;
通过使用至少将参考图像的亮度分量乘以所述亮度加权因子、右移由所述第二定点精度指定的所述至少一个二进制位并且与所述亮度偏移相加获得预测的亮度值;以及
通过使用至少将所述参考图像的色差分量乘以所述色差加权因子、右移由所述第一定点精度指定的所述至少一个二进制位并且与所述色差偏移相加获得预测的色差值。
5.根据权利要求4所述的电子电路,其中
所述解码器模块进一步配置成:
从已编码数据解码变换系数;
通过至少使用所述变换系数的逆变换获得预测误差值;以及
通过至少使用所述预测误差值、所述预测的亮度值和所述预测的色差值获得解码图像。
6.根据权利要求4所述的电子电路,其中
所述解码器模块进一步配置成:
从已编码数据解码运动矢量;以及
基于所述运动矢量确定所述参考图像。
7.根据权利要求2所述的电子电路,其中
“1”左移由所述第二定点精度指定的所述二进制位获得的值等于在目标图像与参考图像没有亮度差时所使用的具体亮度加权因子。
8.一种电子装置,包括:
根据权利要求1到7中任一项所述的电子电路,
其中
所述解码器模块进一步配置成:
解码所述已编码数据中的参数,并且
所述解码器模块是中央处理单元(CPU)。
9.一种电子装置,包括:
根据权利要求1到7中任一项所述的电子电路;
其中
所述解码器模块进一步配置成:
解码所述已编码数据中的参数,并且
所述解码器模块是数字信号处理器(DSP)或者现场可编程门阵列(FPGA)。
10.一种至少部分地由电子电路执行的解码方法,包括:
通过从色差信号的最大值的中间值减去通过将所述中间值与色差加权因子相乘并且右移由用于所述色差加权因子的第一定点精度指定的至少一个二进制位获得的值,获得色差偏移的第一参考值;
从已编码数据解码所述色差偏移的第一差值,其中所述第一差值等于所述色差偏移与所述第一参考值之间的差值;
通过将所述第一参考值与所述第一差值相加获得所述色差偏移;
根据所述第一定点精度获得所述色差加权因子的第三参考值,其中所述第三参考值等于“1”左移由所述第一定点精度指定的至少一个二进制位获得的值;
从所述已编码数据解码所述色差加权因子的第四差值,其中所述第四差值等于所述色差加权因子与所述第三参考值之间的差值;以及
通过将所述第三参考值与所述第四差值相加获得所述色差加权因子。
11.根据权利要求10所述的解码方法,其中
所述方法还包括:
从所述已编码数据解码用于亮度加权因子的第二定点精度;
根据所述第二定点精度获得所述亮度加权因子的第二参考值,其中所述第二参考值等于“1”左移由所述第二定点精度指定的至少一个二进制位获得的值;
从所述已编码数据解码所述亮度加权因子的第二差值,其中所述第二差值等于所述亮度加权因子与所述第二参考值之间的差值;
通过将所述第二参考值与所述第二差值相加获得所述亮度加权因子。
12.根据权利要求11所述的解码方法,其中
所述方法还包括:
从所述已编码数据解码等于所述第一定点精度与所述第二定点精度之间的差值的第三差值;并且
通过将所述第二定点精度与所述第三差值相加获得所述第一定点精度。
13.根据权利要求11所述的解码方法,其中
所述方法还包括:
从所述已编码数据解码亮度偏移;
通过使用至少将参考图像的亮度分量乘以所述亮度加权因子、右移由所述第二定点精度指定的所述至少一个二进制位并且与所述亮度偏移相加获得预测的亮度值;以及
通过使用至少将所述参考图像的色差分量乘以所述色差加权因子、右移由所述第一定点精度指定的所述至少一个二进制位并且与所述色差偏移相加获得预测的色差值。
14.根据权利要求13所述的解码方法,其中
所述方法还包括:
从已编码数据解码变换系数;
通过至少使用所述变换系数的逆变换获得预测误差值;以及
通过至少使用所述预测误差值、所述预测的亮度值和所述预测的色差值获得解码图像。
15.根据权利要求13所述的解码方法,其中
所述方法还包括:
从已编码数据解码运动矢量;以及
基于所述运动矢量确定所述参考图像。
16.根据权利要求11所述的解码方法,其中
“1”左移由所述第二定点精度指定的所述二进制位获得的值等于在目标图像与参考图像没有亮度差时所使用的具体亮度加权因子。
17.根据权利要求10到16中任一项所述的解码方法,其中
所述方法还包括:
由缓冲器暂时存储所述已编码数据的至少一部分;
由解码器模块从所述缓冲器读取已编码数据的至少一部分;以及
由所述解码器模块解码所述已编码数据中的参数,并且
所述解码器模块是中央处理单元(CPU)。
18.根据权利要求10到16中任一项所述的解码方法,其中
所述方法还包括:
由缓冲器暂时存储已编码数据的至少一部分;
由解码器模块从所述缓冲器读取所述已编码数据的至少一部分;以及
由所述解码器模块解码所述已编码数据中的参数,并且
所述解码器模块是数字信号处理器(DSP)或者现场可编程门阵列(FPGA)。
CN201710259304.3A 2011-10-17 2011-10-17 编码设备、解码设备、编码方法和解码方法 Active CN107071415B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710259304.3A CN107071415B (zh) 2011-10-17 2011-10-17 编码设备、解码设备、编码方法和解码方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
PCT/JP2011/073852 WO2013057783A1 (ja) 2011-10-17 2011-10-17 符号化方法及び復号方法
CN201710259304.3A CN107071415B (zh) 2011-10-17 2011-10-17 编码设备、解码设备、编码方法和解码方法
CN201180073122.8A CN103843345B (zh) 2011-10-17 2011-10-17 编码设备、解码设备、编码方法和解码方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201180073122.8A Division CN103843345B (zh) 2011-10-17 2011-10-17 编码设备、解码设备、编码方法和解码方法

Publications (2)

Publication Number Publication Date
CN107071415A CN107071415A (zh) 2017-08-18
CN107071415B true CN107071415B (zh) 2020-07-07

Family

ID=48140461

Family Applications (5)

Application Number Title Priority Date Filing Date
CN201710259276.5A Active CN107027026B (zh) 2011-10-17 2011-10-17 电子电路和解码方法
CN201710101163.2A Active CN106899847B (zh) 2011-10-17 2011-10-17 电子装置和解码方法
CN201180073122.8A Active CN103843345B (zh) 2011-10-17 2011-10-17 编码设备、解码设备、编码方法和解码方法
CN201710259304.3A Active CN107071415B (zh) 2011-10-17 2011-10-17 编码设备、解码设备、编码方法和解码方法
CN201710101164.7A Active CN106791832B (zh) 2011-10-17 2011-10-17 解码装置和解码方法

Family Applications Before (3)

Application Number Title Priority Date Filing Date
CN201710259276.5A Active CN107027026B (zh) 2011-10-17 2011-10-17 电子电路和解码方法
CN201710101163.2A Active CN106899847B (zh) 2011-10-17 2011-10-17 电子装置和解码方法
CN201180073122.8A Active CN103843345B (zh) 2011-10-17 2011-10-17 编码设备、解码设备、编码方法和解码方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201710101164.7A Active CN106791832B (zh) 2011-10-17 2011-10-17 解码装置和解码方法

Country Status (23)

Country Link
US (7) US9521422B2 (zh)
EP (6) EP3675499B1 (zh)
KR (6) KR101920601B1 (zh)
CN (5) CN107027026B (zh)
AU (5) AU2011379259B2 (zh)
BR (5) BR122020003032B1 (zh)
CA (1) CA2847299C (zh)
CY (2) CY1123691T1 (zh)
DK (2) DK3217667T3 (zh)
ES (2) ES2848525T3 (zh)
HR (2) HRP20201778T1 (zh)
HU (2) HUE053615T2 (zh)
LT (2) LT3217667T (zh)
MX (3) MX2014002392A (zh)
PL (2) PL3197164T3 (zh)
PT (2) PT3217667T (zh)
RS (2) RS61338B1 (zh)
RU (3) RU2586876C2 (zh)
SG (1) SG11201400294SA (zh)
SI (2) SI3217667T1 (zh)
TW (2) TWI492635B (zh)
WO (1) WO2013057783A1 (zh)
ZA (1) ZA201401563B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101678347B1 (ko) * 2011-06-20 2016-11-21 가부시키가이샤 제이브이씨 켄우드 화상 부호화 장치, 화상 부호화 방법 및 화상 부호화 프로그램, 또한 화상 복호 장치, 화상 복호 방법 및 화상 복호 프로그램
KR101920601B1 (ko) 2011-10-17 2018-11-20 가부시끼가이샤 도시바 암호화 장치 및 암호화 방법
MX336158B (es) 2012-06-27 2016-01-11 Toshiba Kk Dispositivo de codificacion, dispositivo de decodificacion, metodo de codificacion, y metodo de decodificacion.
US10148961B2 (en) 2015-05-29 2018-12-04 Qualcomm Incorporated Arithmetic coder with multiple window sizes
KR20170058838A (ko) * 2015-11-19 2017-05-29 한국전자통신연구원 화면간 예측 향상을 위한 부호화/복호화 방법 및 장치
WO2017086738A1 (ko) * 2015-11-19 2017-05-26 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
CN113473122A (zh) 2016-07-05 2021-10-01 株式会社Kt 对视频进行解码或编码的方法和计算机可读介质
WO2018056763A1 (ko) * 2016-09-23 2018-03-29 엘지전자(주) 템플릿 기반 가중치를 이용하여 예측을 수행하는 방법 및 장치
EP3509304B1 (en) 2016-09-30 2023-11-01 Huawei Technologies Co., Ltd. Method for image decoding and device for image coding and decoding for inter-frame prediction
US20210243475A1 (en) * 2016-12-28 2021-08-05 Sony Corporation Image processing apparatus and method
CN107995490A (zh) * 2017-12-14 2018-05-04 清华大学 信号获取方法及装置
KR102534719B1 (ko) * 2018-02-28 2023-05-22 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 합성된 예측 및 제한된 병합
CN108366242B (zh) * 2018-03-07 2019-12-31 绍兴文理学院 按视频内容自适应调整色度失真权重因子的视频压缩方法
EP3550834A1 (en) * 2018-04-06 2019-10-09 Comcast Cable Communications LLC Encoding of video cross-fades using weighted inter-prediction
CN108614778B (zh) * 2018-05-10 2022-08-16 天津大学 基于高斯过程回归的安卓App程序演化变更预测方法
CN112740704B (zh) * 2018-09-21 2024-04-16 夏普株式会社 图像解码装置以及图像编码装置
USD944065S1 (en) * 2019-08-30 2022-02-22 American Torch Tip, Co. Push button for releasing a gooseneck in a welding torch
BR112022013803A2 (pt) * 2020-01-12 2022-09-13 Huawei Tech Co Ltd Método e aparelho de harmonização de predição ponderada com modos de mesclagem não retangulares

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1981535A (zh) * 2004-05-04 2007-06-13 高通股份有限公司 预测帧里的加权预测方法和设备
CN101335902A (zh) * 2007-06-25 2008-12-31 华为技术有限公司 色度补偿方法和装置
CN101371583A (zh) * 2006-01-23 2009-02-18 马普科技促进协会 高动态范围编解码器
EP2375754A1 (en) * 2010-04-09 2011-10-12 Mitsubishi Electric R&D Centre Europe B.V. Weighted motion compensation of video

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69718834T2 (de) * 1996-05-17 2003-11-13 Matsushita Electric Ind Co Ltd Bilddekodiervorrichtung mit Objektzonendekoder und Formdekoder
DE19952982B4 (de) 1999-11-03 2004-01-29 Acgt Progenomics Ag Verfahren zur gerichteten Verpackung von molekularen Substanzen in Proteinhüllen
JP2004007379A (ja) * 2002-04-10 2004-01-08 Toshiba Corp 動画像符号化方法及び動画像復号化方法
JP4015934B2 (ja) * 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
CN1897703A (zh) * 2002-01-18 2007-01-17 株式会社东芝 视频编码方法和装置以及视频解码方法和装置
WO2004032506A1 (en) 2002-10-01 2004-04-15 Thomson Licensing S.A. Implicit weighting of reference pictures in a video encoder
JP2004179687A (ja) 2002-11-22 2004-06-24 Toshiba Corp 動画像符号化/復号化方法及び装置
AU2003290895A1 (en) 2002-12-04 2004-06-30 Thomson Licensing S.A. Encoding of video cross-fades using weighted prediction
KR20060055472A (ko) 2003-06-25 2006-05-23 톰슨 라이센싱 변위된 프레임 차분을 이용하여 가중된 예측 추정을 위한방법 및 장치
JP2005318297A (ja) 2004-04-28 2005-11-10 Toshiba Corp 動画像符号化・復号方法及び装置
CN101023673B (zh) * 2004-09-16 2011-06-08 汤姆逊许可证公司 具有利用局部亮度变化的加权预测的视频编解码器
TW200612385A (en) * 2004-10-08 2006-04-16 Mstar Semiconductor Inc Image contrast enhancing device and method thereof
US8638862B2 (en) 2005-03-18 2014-01-28 Sharp Laboratories Of America, Inc. Methods and systems for upsampling filter design
US8457203B2 (en) * 2005-05-26 2013-06-04 Ntt Docomo, Inc. Method and apparatus for coding motion and prediction weighting parameters
US20060293038A1 (en) 2005-06-23 2006-12-28 Sbc Knowledge Ventures L.P. Home cellular system
JP2007043651A (ja) 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
JP2007081518A (ja) * 2005-09-12 2007-03-29 Victor Co Of Japan Ltd 動画像符号化装置および動画像符号化方法
BRPI0619193A2 (pt) * 2005-11-30 2011-09-20 Toshiba Kk Toshiba Corp método de codificação de imagem / decodificação de imagem, aparelho de codificação de imagem / decodificação de imagem
US7831434B2 (en) * 2006-01-20 2010-11-09 Microsoft Corporation Complex-transform channel coding with extended-band frequency coding
EP1980112B1 (en) 2006-02-02 2012-10-24 Thomson Licensing Method and apparatus for adaptive weight selection for motion compensated prediction
CN101072355B (zh) * 2006-05-12 2010-07-28 中国科学院计算技术研究所 一种加权预测运动补偿方法
EP2136564A1 (en) * 2007-01-09 2009-12-23 Kabushiki Kaisha Toshiba Image encoding and decoding method and device
US8428133B2 (en) * 2007-06-15 2013-04-23 Qualcomm Incorporated Adaptive coding of video block prediction mode
US8750378B2 (en) * 2008-09-23 2014-06-10 Qualcomm Incorporated Offset calculation in switched interpolation filters
US20110007893A1 (en) 2009-07-08 2011-01-13 Berk Sunar Method and apparatus for fingerprinting and copy protecting optical recording media
EP2302933A1 (en) 2009-09-17 2011-03-30 Mitsubishi Electric R&D Centre Europe B.V. Weighted motion compensation of video
US9083984B2 (en) * 2010-03-19 2015-07-14 Texas Instruments Incorporated Adaptive coding structure and adaptive FCode determination in video coding
WO2011126288A2 (en) 2010-04-05 2011-10-13 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image and method and apparatus for decoding image using adaptive coefficient scan order
US20110261885A1 (en) 2010-04-27 2011-10-27 De Rivaz Peter Francis Chevalley Method and system for bandwidth reduction through integration of motion estimation and macroblock encoding
RU2014107469A (ru) 2011-10-17 2015-11-27 Кабусики Кайся Тосиба Устройство кодирования, устройство декодирования, способ кодирования и способ декодирования
KR101920601B1 (ko) 2011-10-17 2018-11-20 가부시끼가이샤 도시바 암호화 장치 및 암호화 방법
MX336158B (es) 2012-06-27 2016-01-11 Toshiba Kk Dispositivo de codificacion, dispositivo de decodificacion, metodo de codificacion, y metodo de decodificacion.

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1981535A (zh) * 2004-05-04 2007-06-13 高通股份有限公司 预测帧里的加权预测方法和设备
CN101371583A (zh) * 2006-01-23 2009-02-18 马普科技促进协会 高动态范围编解码器
CN101335902A (zh) * 2007-06-25 2008-12-31 华为技术有限公司 色度补偿方法和装置
EP2375754A1 (en) * 2010-04-09 2011-10-12 Mitsubishi Electric R&D Centre Europe B.V. Weighted motion compensation of video

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Weighted Prediction";Philippe Bordes;《Joint Collaborative Team on Video Coding(JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11》;20110722;全文 *

Also Published As

Publication number Publication date
RU2014107490A (ru) 2015-11-27
EP3675499A1 (en) 2020-07-01
RU2681379C1 (ru) 2019-03-06
EP3675499B1 (en) 2021-12-29
AU2018286602A1 (en) 2019-02-21
AU2018286602B2 (en) 2020-05-07
EP3197164A1 (en) 2017-07-26
US20170164006A1 (en) 2017-06-08
BR112014004805B1 (pt) 2022-05-17
US20190191175A1 (en) 2019-06-20
CN107071415A (zh) 2017-08-18
EP2770736A4 (en) 2015-06-03
KR101829179B1 (ko) 2018-03-29
EP3197164B1 (en) 2020-12-09
RS61015B1 (sr) 2020-11-30
DK3197164T3 (da) 2021-01-25
US20160050428A1 (en) 2016-02-18
CN106899847A (zh) 2017-06-27
US20200177905A1 (en) 2020-06-04
US20200177904A1 (en) 2020-06-04
BR122020003041B1 (pt) 2021-11-09
AU2017202582A1 (en) 2017-05-11
LT3197164T (lt) 2021-02-10
US10271061B2 (en) 2019-04-23
SI3217667T1 (sl) 2020-12-31
MX348004B (es) 2017-05-23
CN103843345B (zh) 2017-05-10
HRP20210129T1 (hr) 2021-03-19
EP3217667B1 (en) 2020-08-12
KR20150123970A (ko) 2015-11-04
CN106791832B (zh) 2020-06-09
RS61338B1 (sr) 2021-02-26
KR101822346B1 (ko) 2018-01-25
US9826247B2 (en) 2017-11-21
CN107027026B (zh) 2020-04-24
AU2011379259B2 (en) 2015-07-16
BR112014004805A2 (pt) 2017-03-28
EP3217667A1 (en) 2017-09-13
CA2847299A1 (en) 2013-04-25
BR122020003032B1 (pt) 2021-11-09
DK3217667T3 (da) 2020-11-16
US20200177903A1 (en) 2020-06-04
WO2013057783A1 (ja) 2013-04-25
MX336659B (es) 2016-01-27
US11039159B2 (en) 2021-06-15
US11153593B2 (en) 2021-10-19
CY1123835T1 (el) 2022-05-27
PL3197164T3 (pl) 2021-04-19
TW201540051A (zh) 2015-10-16
KR20170046197A (ko) 2017-04-28
LT3217667T (lt) 2020-11-10
CY1123691T1 (el) 2022-03-24
CN106899847B (zh) 2019-12-27
US10602173B2 (en) 2020-03-24
AU2011379259A1 (en) 2014-03-27
HRP20201778T1 (hr) 2021-02-05
RU2586876C2 (ru) 2016-06-10
US20140056357A1 (en) 2014-02-27
TWI492635B (zh) 2015-07-11
EP3675497B1 (en) 2021-12-29
AU2017202582B2 (en) 2018-09-27
RU2681359C1 (ru) 2019-03-06
BR122020003031B1 (pt) 2021-11-09
CN107027026A (zh) 2017-08-08
KR20140059218A (ko) 2014-05-15
PT3197164T (pt) 2021-02-03
KR102003180B1 (ko) 2019-07-23
EP3675498A1 (en) 2020-07-01
EP2770736B1 (en) 2019-06-19
BR122020003071B1 (pt) 2021-11-09
MX2014002392A (es) 2014-06-05
ZA201401563B (en) 2015-08-26
AU2017202570B2 (en) 2018-09-27
KR101624058B1 (ko) 2016-05-24
ES2848525T3 (es) 2021-08-10
AU2015243067A1 (en) 2015-11-05
TWI569630B (zh) 2017-02-01
PL3217667T3 (pl) 2020-12-14
US9521422B2 (en) 2016-12-13
US11140405B2 (en) 2021-10-05
ES2828048T3 (es) 2021-05-25
KR101738289B1 (ko) 2017-05-19
CA2847299C (en) 2016-10-11
SG11201400294SA (en) 2014-09-26
KR20180017225A (ko) 2018-02-20
HUE052527T2 (hu) 2021-05-28
SI3197164T1 (sl) 2021-03-31
EP2770736A1 (en) 2014-08-27
KR101920601B1 (ko) 2018-11-20
CN103843345A (zh) 2014-06-04
AU2017202570A1 (en) 2017-06-01
TW201318435A (zh) 2013-05-01
CN106791832A (zh) 2017-05-31
HUE053615T2 (hu) 2021-07-28
AU2015243067B2 (en) 2017-06-08
PT3217667T (pt) 2020-11-03
KR20180124162A (ko) 2018-11-20
EP3675497A1 (en) 2020-07-01
KR20170051549A (ko) 2017-05-11

Similar Documents

Publication Publication Date Title
CN107071415B (zh) 编码设备、解码设备、编码方法和解码方法
JP5702011B2 (ja) 符号化方法、符号化装置及びプログラム
JP6744507B2 (ja) 符号化方法および復号方法
JP6396566B2 (ja) 電子機器、符号化方法及びプログラム
JP6235742B2 (ja) 電子機器、復号方法及びプログラム
JP6235745B2 (ja) 電子機器、復号方法及びプログラム
JP5869160B2 (ja) 復号方法、復号装置及びプログラム
JP2020129848A (ja) 符号化データのデータ構造、記憶装置、送信装置および符号化方法
JP2019009792A (ja) 符号化方法、復号方法及び符号化データ
JPWO2013057783A1 (ja) 符号化方法及び復号方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant