CN103918265A - 跨通道残余预测 - Google Patents

跨通道残余预测 Download PDF

Info

Publication number
CN103918265A
CN103918265A CN201180074683.XA CN201180074683A CN103918265A CN 103918265 A CN103918265 A CN 103918265A CN 201180074683 A CN201180074683 A CN 201180074683A CN 103918265 A CN103918265 A CN 103918265A
Authority
CN
China
Prior art keywords
channel
prediction residue
prediction
passage
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201180074683.XA
Other languages
English (en)
Other versions
CN103918265B (zh
Inventor
徐理东
邱怡仁
韩钰
张文豪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Priority to CN201410224832.1A priority Critical patent/CN104023238B/zh
Publication of CN103918265A publication Critical patent/CN103918265A/zh
Application granted granted Critical
Publication of CN103918265B publication Critical patent/CN103918265B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

描述了系统、设备和方法,包括:确定视频数据的通道的预测残余;以及,使用所述第一通道的预测残余,确定所述视频数据的第二通道的预测残余。进一步地,可以使用第二通道的预测残余来确定视频数据的第三通道的预测残余。

Description

跨通道残余预测
背景
高效率视频编码(HEVC)是当前由通过ISO/IEC运动图像专家组(MPEG)和ITU-T视频编码专家小组(VCEG)形成的关于视频编码的联合协作团队(Joint Collaborative Team on Video Coding:JCT-VC)开发的视频压缩标准。在本HEVC规范中,图像是以最大编码单元(LCU)编码的。LCU可以是128x128块、64x64块、32x32块或16x16块。LCU可以被直接编码或可以被分成四个编码单元(CU),供下一级别的编码。CU可以被直接编码或可以进一步被分成下一级别供编码。最小的CU是8x8块。
一般而言,在每一个级别,大小2Nx2N的CU可以被分成预测单元(PU),用于预测目的。对于帧内编码,2Nx2N CU可以以一个2Nx2N PU来编码,或编码为四个NxN PU。对于帧间编码,2Nx2N CU可以以一个2Nx2N PU、两个2NxN PU、两个Nx2N PU、0.5Nx2N PU加1.5Nx2N PU、1.5Nx2N PU加0.5Nx2N PU、2Nx0.5N PU加2Nx1.5N PU、2Nx1.5N PU加2Nx0.5N PU,或四个NxN PU来编码。在其中图像数据可以跨三个通道(包括亮度(1uma:亮度)通道Y和两个色度(chroma:色度)通道U和V)分布的彩色视频中,PU可以包括一个亮度块Y和两个色度块U和V。
在HEVC编码器中,在执行帧内预测(帧内预测模块)或帧间预测(运动估计&运动补偿模块)之后,变换和量化对应于输入PU和预测的PU之间的差异的预测残余,用于熵编码。当PU在帧内编码模式下编码时,可以应用不同的帧内预测模式,包括DC预测、平面预测、水平预测、垂直预测等等。
附图简述
此处所描述的材料是作为示例说明的,而不仅限于各个附图的图形。为说明简单和清楚起见,图形中所示出的元件不一定是按比例绘制的。例如,为了清楚起见,某些元件的尺寸可以相对于其他元件而放大。此外,在合适的情况下,在不同的图形中参考标签重复使用,以表示对应的或类似的元件。在图形中:
图1是示例视频编码器系统的说明图;
图2示出了示例跨通道残余预测方案;
图3示出了另一示例跨通道残余预测方案;
图4示出了另一示例跨通道残余预测方案;
图5是示例视频解码器系统的说明图;
图6是示例跨通道残余预测过程的流程图;
图7是示例跨通道残余预测过程的流程图;
图8是示例系统的说明图;以及
图9是示例系统的说明图,所有都是根据本发明的至少某些实现配置的。
详细描述
现在将参考所附的图形来描述一个或多个实施例或实现。尽管讨论了特定配置和布局,但是,应该理解,这只是为了说明。那些精通相关技术的人员将认识到,在不偏离描述的精神和范围的情况下,可以使用其他配置和布局。对于那些精通相关技术的人来说显而易见的是,此处所描述的技术和/或布局也可以用于除此处所描述的以外的各种其他系统和应用中。
尽管下列描述阐述了可以在诸如,例如,片上系统(SoC)体系结构之类的体系结构中表现的各种实现,但是,此处所描述的技术和/或布局的实现不局限于特定体系结构和/或计算系统,并可以对于类似的目的通过任何体系结构和/或计算系统来实现。例如,使用,例如,多个集成电路(IC)芯片和/或封装,和/或各种计算设备和/或消费者电子(CE)设备(诸如机顶盒、智能电话等等)的各种体系结构都可以实现此处所描述的技术和/或布局。进一步地,尽管下列描述可以阐述诸如逻辑实现、系统组件的类型和相互关系、逻辑划分/集成选择等等之类的很多具体细节,但是,所要求保护的主题可以在没有这些具体细节的情况下实施。在其他情况下,没有详细示出诸如,例如,控制结构和完全软件指令序列之类的某些材料,以便不至于使此处所公开的材料变得模糊。
此处所公开的材料可以以硬件、固件、软件,或其任何组合来实现。此处所公开的材料还可实现为存储在机器可读取的介质中的可以由一个或多个处理器读取和执行的指令。机器可读的介质可以包括用于以机器(例如,计算设备)可读的形式存储或传输信息的任何介质和/或机制。例如,机器可读的介质可以包括,只读存储器(ROM);随机存取存储器(RAM);磁盘存储介质;光存储介质;闪存设备;电的、光学的、声音或其他形式的传播信号(例如,载波、红外信号、数字信号等等);及其他。
说明书中对″一个实现″、″实现″、″示例实现″等等的引用指示所描述的实现可包括特定特征、结构或特性,但是,每一个实现可以不一定包括该特定特征、结构或特征。此外,这样的短语不一定是指同一个实现。此外,当结合一个实现描述特定特征、结构或特性时,认为在本领域技术人员学识范围内,可以与其他实现一起实施这样的特征、结构或特性,无论是否对此明确描述。
图1示出了根据本发明的示例视频编码器系统100。在各实现中,系统100可以被配置成根据一个或多个高级视频编解码器标准进行视频编码和/或实现视频编解码器,这些标准诸如例如H.264标准(ISO/IEC JTC1和ITU-T,″H.264/AVC-用于一般视听服务的高级视频编码″,ITU-T建议H.264和ISO/IEC14496-10(MPEG-4部分10),版本3,2005)以及其扩展。进一步地,视频编码器系统100可以被配置成根据由通过ISO/IEC运动图像专家组(MPEG)和ITU-T视频编码专家小组(VCEG)形成的关于视频编码的联合协作团队(JCT-VC)开发的高效率视频编码(HEVC)H.265视频压缩标准,进行视频编码和/或实现视频编解码器。进一步地,在各种实施例中,视频编码器系统100可以实现为图像处理器、视频处理器,和/或媒体处理器的一部分,并可以进行根据本发明的帧间预测、帧内预测、预测编码,和/或残余预测,包括跨通道残余预测。
在系统100中,当前视频信息可以以视频数据的帧的形式提供到内部比特深度增大模块102。当前视频帧可以在模块104处拆分成最大编码单元(LCU),然后,传递到残余预测模块106。可以由变换和量化模块108对残余预测模块106的输出进行已知视频变换和量化处理。变换和量化模块108的输出可以提供到熵编码模块109以及去量化和逆变换模块110。去量化和逆变换模块110可以实现由变换和量化模块106进行的操作的逆,以将残余预测模块106的输出提供到残余重构模块112。所属领域的技术人员可以认识到,如此处所描述的变换和量化模块和去量化和逆变换模块可以使用缩放技术。
残余重构模块112的输出可以被反馈到残余预测模块106,并且也可以被提供到包括去成块化(de-b1ocking)滤波器114、样本自适应偏移滤波器116、自适应循环滤波器、缓冲器120、运动估计模块122、运动补偿模块124和帧内预测模块126。如图1所示,运动补偿模块124或者帧内预测模块126中任何一个的输出与作为到去成块化滤波器114的输入的残余预测模块106的输出相结合,并与LCU拆分模块104的输出有区别,以充当到残余预测模块106的输入。
如下面将更详细地说明的,残余预测模块106可以与残余重构模块112一起操作,以根据本发明来提供跨通道残余预测。在各实现中,残余预测模块106可以被用来生成视频数据的一个通道的预测残余,而残余重构模块112可以重构该通道的预测残余,供残余预测模块106在生成视频数据的另一个通道的预测残余时使用。例如,残余预测模块106可以被用来生成预测单元(PU)的亮度通道的预测残余,而残余重构模块112可以重构亮度通道的预测残余,供残余预测模块106在生成PU的色度通道的预测残余时使用。一般而言,如果三个通道中的任何两个都使用相同预测类型和/或相同预测模式,从而导致两个通道的预测残余之间的可能的关联,则使用如此处所描述的跨通道残余预测技术可以促进冗余信息的去除,并可以允许较高的视频编码效率。
在各实现中,可以对预测残余执行残余预测,可以变换和量化初始预测残余和预测的残余之间的所产生的二阶预测残余。在根据本发明的跨通道残余预测技术中,如果将从第二通道(B)的残余预测第一通道(A)的残余,则由残余预测模块106所生成的通道B的残余可以由变换和量化模块108编码(例如,变换&量化),然后,首先由去量化和逆变换模块110和残余重构模块112重构,并接着通道B的重构的残余可以被残余预测模块106用来随后预测通道A的残余。
图2示出了根据本发明的示例跨通道残余预测方案200。在各实现中,图1的系统100可以实现方案200。在方案200中,第一通道(B)的重构的预测的残余被用来预测第二通道(A)的残余,然后,通道B的经编码的残余和通道A的所产生的跨通道预测的残余(在编码之后)与第三通道(C)的经编码的残余一起经历熵编码。在各实现中,通道A、B或C可以是亮度通道(Y)或色度通道(U和V)中的任何一个,且通道A、B或C中的每一个都可以不同(即,不同于其他通道)。在各实现中,通道A可以是亮度通道,而通道B和C可以是色度通道。在其他实现中,通道A可以是色度通道,而通道B和C中的一个可以是亮度通道,而通道B和C的其他通道可以是其他色度通道。
如在方案200中所描绘的,作为通道B的重构的残余提供到跨通道预测块206之前,在框202,可以变换和量化通道B的预测的残余,然后,在框204去量化和逆变换。在框206,通道B的重构的残余可以被用来预测通道A的残余。然后,在框210处连同从框202中获取的变换的和量化的通道B以及通道C的经变换的和量化的(框212)预测的残余一起被熵编码之前,可以在框208变换和量化通道A的预测的残余。
根据本发明,根据本发明的跨通道残余预测(例如,如在框206进行的)可以使用线性的或非线性模型,并可以使用固定的或自适应确定的模型参数。例如,对于像素位置k,可以使用下列表达式,从位置k的重构的通道B残余值B′(k)预测通道A残余值A(k):
Ap(k)=f(B′(k))    (1)
其中,Ap(k)是预测的残余值,而f(·)可以是线性的或非线性的函数或变换。在各实现中,f(·)的参数可以具有预先定义的固定值,或可以使用至少某些相邻像素位置的生成的或重构的残余值,来自适应地确定。例如,在各实现中,相邻像素位置的残余值可以被用来针对f(·)构建线性或非线性方程组。在这样的实现中,f(·)的参数可以使用已知的技术,诸如例如线性最小平方、非线性最小平方、加权最小平方或其他已知的最优化方法,来从相邻像素位置的残余值中自适应地获取。
一般而言,使用f(·)的线性形式的根据本发明的线性的残余预测可以提供残余值A(k)的下列表达式:
Ap(k)=a*B′(k)+b    (2)
其中,a和b是模型参数。在各实现中,模型参数a和b可以具有固定值,可以由解码器确定,或可以由编码器确定来传输到解码器。
一般而言,使用f(·)的非线性形式的根据本发明的非线性残余预测可以提供残余值A(k)的下列表达式:
Ap(k)=a(k)*B′(k)+b(k)    (3)
其中,a(k)和b(k)是非线性方程参数。在各实现中,参数a(k)和b(k)可以响应于B′(k)的值,自适应地确定。例如,B′(k)的可能值的范围可以被分成M个较小的残余值子集S(k)。然后,可以给每一个子集S(k)指定要用于方程(3)中的a(k)和b(k)的不同的值,以便当特定残余位置的B′(k)的值在给定子集S(k)内时,可以应用a(k)和b(k)的对应的值,来预测该位置的残余值Ap(k)。
一般而言,在各实现中,线性或非线性模型参数可以由视频编码器和/或解码器基于当前图像中的和/或以前解码的图像中的已经解码的像素自适应地生成。进一步地,在各实现中,线性或非线性模型参数可以由视频编码器和/或编码器基于当前图像的输入像素和当前图像中的已经编码的像素和/或以前编码的图像中的已经编码的像素自适应地生成。视频编码器可以确定模型参数,然后,编码所生成的模型参数并将它们传输到解码器,供解码器在执行根据本发明的跨通道残余预测方案时使用。
在各实现中,编码单元(CU)或PU可以根据各种编码模式和/或预测模式来处理。例如,可以在帧内模式或帧间模式下编码CU,并且对于帧内模式,可以使用各种预测模式,诸如DC预测、平面预测、垂直预测、水平预测及其他方向性预测,来处理PU。根据本发明,取决于所使用的编码模式和/或预测模式,可以应用不同的跨通道残余预测方案。例如,在各实现中,线性跨通道残余预测可以应用于帧内模式编码,而跨通道残余预测可能不应用于帧间模式编码。进一步地,在各实现中,固定参数线性的跨通道残余预测可以应用于帧内垂直&水平预测模式,而自适应线性的跨通道残余预测可以应用于DC,平面及其他方向性预测模式。
在各实现中,不同的模型参数生成方案可以应用于不同的编码模式下。例如,在帧内编码模式下与在帧间编码模式下可以应用不同的模型参数生成方案。另外,可以对不同的块大小应用不同的模型参数生成方案。进一步地,不同的帧内预测模式可以使用不同的模型参数生成方案。
在各实现中,标记、指示器或信号可以指示是否对于特定编码模式或预测模式应用自适应残余预测。例如,编码器(例如,系统100)可以使用一个或多个标记来指示(例如,每个CU和/或每个PU地)是否对于特定编码模式或预测模式应用残余预测。在各实现中,这样的标记的值(例如,是与否)可以基于率失真成本来决定。进一步地,在各实现中,对于特定编码模式或预测模式应用残余预测可以是强制性的。
那些精通本技术的普通人员将认识到,当输入视频数据是YUV420或YUV422格式时,U和V通道的残余块大小小于Y通道的残余块大小。在这些情况下,可以对Y通道残余块应用下采样——如果它将用于预测U和/或V通道残余块的话,或者也可以对U和/或V残余块应用上采样——如果它们将用于预测Y通道残余块的话。进一步地,尽管各种实现此处是在YUV颜色空间的上下文中描述的,但是,本发明不仅限于特定视频数据格式或颜色空间。
图3示出了根据本发明的另一示例跨通道残余预测方案300。在各实现中,图1的系统100可以实现方案300。在方案300中,两个通道(B和C)的重构的预测的残余被用来预测第三通道(A)的残余,然后,通道B和C的编码的残余和通道A的跨通道预测的残余(在被编码之后)经历熵编码。在各实现中,通道A、B或C可以是亮度通道(Y)或色度通道(U和V)中的任何一个,并且通道A、B或C中的每一个都可以不同(即,不同于其他通道)。在各实现中,通道A可以是亮度通道,而通道B和C可以是色度通道。在其他实现中,通道A可以是色度通道,而通道B和C中的一个可以是亮度通道,而通道B和C的其他通道可以是其他色度通道。
如在方案300中所描绘的,作为重构的残余提供到跨通道预测块306之前,在框302,可以变换和量化通道B的预测的残余,然后,在框304去量化和逆变换。类似地,在也作为重构的残余提供到跨通道预测块306之前,在框308,可以变换和量化通道C的预测的残余,然后,在框310去量化和逆变换。在框306,通道B和C两者的重构的残余可以被用来预测通道A的残余,如此处所描述的。然后,在框314处连同通道B和C的编码的残余一起被熵编码之前,可以在框312变换和量化通道A的所产生的预测的残余。
图4示出了根据本发明的另一示例跨通道残余预测方案400。在各实现中,图1的系统100可以实现方案400。在方案400中,第一通道(C)的重构的预测的残余被用来预测第二通道(B)的残余,然后,通道B的重构的跨通道预测的残余被用来预测第三通道(A)的残余。然后,全部三个通道A、B和C的编码的残余经历熵编码。在各实现中,通道A、B或C可以是亮度通道(Y)或色度通道(U和V)中的任何一个,且通道A、B或C中的每一个都可以不同(即,不同于其他通道)。在各实现中,通道A可以是亮度通道,而通道B和C可以是色度通道。在其他实现中,通道A可以是色度通道,而通道B和C中的一个可以是亮度通道,而通道B和C的其他通道可以是其他色度通道。
如在方案400中所描绘的,在作为重构的残余提供到第一跨通道预测块406之前,通道C的预测的残余可以在框402处被变换和量化,然后,在框404处被去量化和逆变换。在框406,通道C的重构的残余可以被用来预测通道B的残余。然后,作为重构的残余提供到第二跨通道预测块412之前,通道B的跨通道预测的残余可以在框408处被变换和量化,然后,在框410处被去量化和逆变换。在框412,通道B的重构的残余可以被用来预测通道A的残余。然后,在框416处熵编码全部三个通道的编码的残余之前,可以在框414,变换和量化通道A的所产生的跨通道预测的残余。
图5示出了根据本发明的示例视频解码器系统500。在各实现中,系统500可以被配置成根据一个或多个高级视频编解码器标准,诸如例如,H.264标准和其扩展,进行视频解码和/或实现视频编解码器。进一步地,视频解码器系统500可以被配置成根据HEVC H.265视频压缩标准,进行视频编码和/或实现视频编解码器。进一步地,在各种实施例中,视频解码器系统500可以实现为图像处理器、视频处理器,和/或媒体处理器的一部分,并可以进行根据本发明的帧间预测、帧内预测、预测编码,和/或残余预测,包括跨通道残余预测。
在系统500中,可以给解码器模块502提供编码的比特流,该解码器模块502包括可以根据本发明实现跨通道残余预测的残余预测模块504和残余重构模块506。在各实现中,残余预测模块504和残余重构模块506可以分别类似于系统100的残余预测模块106和残余重构模块112,并可以提供类似的功能。如那些精通相关技术的人可以认识到的,系统500的解码器502可以包括各种额外的项目(为清楚起见,在图5中未描绘),诸如去量化和逆变换模块、熵解码模块、运动补偿模块等等。
在各实现中,根据本发明的编码器(例如,系统100)可以向解码器502提供编码的比特流。当这样做时,编码器可以在比特流中包括诸如一个或多个模式标记之类的信息,该信息可以指示解码器502是否应该对于给定PU进行如此处所描述的跨通道残余预测。例如,由解码器502接收到的比特流可以包括诸如报头信息之类的信息,该信息指出解码器502是否将对于特定编码模式或预测模式应用自适应跨通道残余预测。例如,编码器(例如,系统100)可以使用一个或多个标记来指示(例如,每个CU和/或每个PU地)解码器502是否将对于特定编码模式或预测模式应用跨通道残余预测。
图6示出了根据本发明的各种实现的用于视频编码的示例过程600的流程图。过程600可以包括如图6的框602、604、606、608和610中的一个或多个所示出的一个或多个操作、功能或动作。作为非限制性示例,此处将参考图1的示例视频编码器系统100和图2-4的示例方案来描述过程600。
过程600可以从框602开始,为视频数据的第一通道确定第一预测残余。例如,残余预测模块106可以对于视频数据的通道(亮度或色度)执行框602。在框604,可以使用在框602所生成的第一预测残余,来确定视频数据的第二通道的第二预测残余。例如,残余预测模块106可以使用由残余重构模块112所提供的第一预测残余,对于视频数据的不同的通道,执行框604。在各实现中,如果对于亮度通道执行框602,那么,可以对于色度通道执行框604。相反,如果对于色度通道执行框602,那么,可以对于色度通道或亮度通道执行框604。在各实现中,框602和604可以对应于图2的方案200的框202-206的实现。
过程600可以在框606继续,在那里,可以使用第二预测残余,来确定视频数据的第三通道的第三预测残余。例如,残余预测模块106可以使用由残余重构模块112在框604所提供的第二预测残余,来对于视频数据的第三通道,执行框606。在各实现中,如果对于亮度通道执行框602,那么,可以对于色度通道执行框604,而对于其他色度通道,可以执行框606。如果对于亮度通道执行框602而对于其他色度通道执行框604,那么,对于亮度通道,可以执行框606。在各实现中,框602、604和606可以对应于图3的方案300的框302-306和308-310的实现。
过程600也可以包括框608,在那里,可以对于视频数据的第三通道,确定第三预测残余。例如,残余预测模块106可以对于视频数据的第三通道执行框608。在框610,可以使用来自框602的第一预测残余,以及来自框608的第三预测值,来确定视频数据的第二通道的第二预测残余。例如,残余预测模块106可以分别使用由残余重构模块112在框602和608所提供的第一预测残余和第三预测残余,来对于视频数据的第二通道,执行框610。在各实现中,如果对于亮度通道执行框602,那么,可以对于色度通道执行框608,对于其他色度通道,可以执行框610。如果对于亮度通道执行框602,对于其他色度通道,执行框606,那么,对于亮度通道,可以执行框610。在各实现中,框602、608和610可以对应于图4的方案400的框402-412的实现。
图7示出了根据本发明的各种实现的用于视频解码的示例过程700的流程图。过程700可以包括如图7的框702、704、706、708和710中的一个或多个所示出的一个或多个操作、功能或动作。作为非限制性示例,此处将参考图5的示例视频解码器系统500来描述过程700。
过程700可以从框702开始,在那里,可以接收视频数据的第一通道的第一预测残余。例如,框702可以涉及解码器502解码接收到的比特流和使用残余重构模块506来提供视频数据的一个通道的重构的预测残余。在框704,可以使用在框702所接收到的第一预测残余,来确定视频数据的第二通道的第二预测残余。例如,解码器502的残余预测模块504可以使用由残余重构模块112所提供的第一预测残余,对于视频数据的不同的通道,执行框704。在各实现中,如果框702涉及接收亮度通道的预测残余,那么,可以对于色度通道执行框704。相反,如果框702涉及接收亮度通道的预测残余,那么,可以对于亮度通道或亮度通道执行框704。
过程700可以在框706继续,在那里,可以使用第二预测残余,来确定视频数据的第三通道的第三预测残余。例如,残余预测模块504可以使用由残余重构模块506在框704所提供的第二预测残余,来对于视频数据的第三通道,执行框706。在各实现中,如果框702涉及接收亮度通道的预测残余,那么,可以对于色度通道执行框704,而可以对于其他色度通道执行框706。如果框702涉及接收色度通道的预测残余,并且,对于其他色度通道执行框704,那么,可以对于亮度通道执行框706。
过程700也可以包括框708,在那里,可以接收第三预测残余,其中,第三预测残余对应于视频数据的第三通道。例如,框708可以涉及解码器502解码接收到的比特流和使用残余重构模块506来提供视频数据的第三通道的重构的预测残余。在框710,可以使用在框702接收到的第一预测残余以及在框708的接收到的第三预测值,来确定视频数据的第二通道的第二预测残余。例如,残余预测模块504可以分别使用由残余重构模块506在框702和708所提供的第一预测残余和第三预测残余,对于视频数据的第二通道,执行框710。在各实现中,如果对于亮度通道执行框702,那么,可以对于色度通道执行框708,而对于其他色度通道,可以执行框710。如果对于亮度通道执行框702,对于其他色度通道,执行框706,那么,对于亮度通道,可以执行框710。
尽管如图6和7所示的示例过程600和700的实现可以包括按所示出的顺序执行所示出的全部框,但是,过程600和700的实现可以包括只执行所示出的框的子集和/或以与所示出的不同的顺序来执行。
另外,图6和7的框中的任何一个或多个可以响应于由一个或多个计算机程序产品所提供的指令来执行。这样的程序产品可以包括提供指令的信号承载介质,所述指令当由例如,处理器执行时,可以提供此处所描述的功能。计算机程序产品可以以任何形式的计算机可读介质来提供。如此,例如,包括一个或多个处理器核的处理器可以响应于通过计算机可读介质传输到处理器的指令来执行图6和7所示出的框中的一个或多个。
如此处所描述的任何实现中所使用的,术语“模块”是指被配置成提供此处所描述的功能的软件、固件和/或硬件的任何组合。软件可以作为软件程序包、代码和/或指令集或指令来实现,而此处所描述的任何实现中所使用的“硬件”可以包括,例如,单独地或以任何组合的硬连线的电路、可编程电路、状态机电路和/或存储由可编程电路执行的指令的固件。模块可以共同地或分别地被实现为构成较大的系统的一部分的电路,例如,集成电路(IC)、芯片上系统(SoC)等等。
图8示出了根据本公开的示例系统800。在各实现中,系统800可以是媒体系统,但是系统800不仅限于此上下文。例如,系统800可以集成到个人计算机(PC)、膝上型计算机、超膝上型计算机、平板电脑、触摸板、便携式计算机、手持式计算机、掌上电脑、个人数字助理(PDA)、蜂窝电话、蜂窝电话/PDA的组合、电视机、智能设备(例如,智能电话、智能平板电脑或智能电视机)、移动因特网设备(MID)、消息接发设备、数据通信设备等等。
在各实现中,系统800包括耦合到显示器820的平台802。平台802可以从诸如内容服务设备830、或内容分发设备840之类的内容设备或其他类似的内容源接收内容。包括一个或多个导航特征的导航控制器850可以被用来与例如平台802和/或显示器820进行交互。下面将更详细地描述这些组件中的每一个。
在各实现中,平台802可以包括芯片组805、处理器810、存储器812、存储814、图形子系统815、应用程序816、和/或无线电818的任何组合。芯片组805可以在处理器810、存储器812、存储814、图形子系统815、应用程序816和/或无线电818之间提供相互通信。例如,芯片组805可以包括能够与存储814进行相互通信的存储器适配器(未描绘)。
处理器810可以实现为复杂指令集计算机(CISC)或精简指令集计算机(RISC)处理器、x86指令集兼容处理器、多核,或任何其他微处理器或中央处理单元(CPU)。在各实现中,处理器810可以是双核处理器、双核移动处理器等等。
存储器812可以实现为易失性存储器设备,诸如,但不仅限于,随机存取存储器(RAM)、动态随机存取存储器(DRAM),或静态RAM(SRAM)。
存储器814可以实现为非易失性存储器设备,诸如,但不仅限于,磁盘驱动、光盘驱动、磁带驱动、内部存储设备、附连存储设备、闪存、电池供电的SDRAM(同步DRAM),和/或网络可访问的存储设备。在各实现中,存储器814可以包括当,例如,包括多个硬盘驱动器时,提高存储器性能或对有价值的数字媒体的增强的保护的技术。
图形子系统815可以对诸如静止图像或视频之类的图像执行处理,供显示。图形子系统815可以是,例如,图形处理单元(GPU)或视觉处理单元(VPU)。模拟或数字接口可以被用来可通信地耦合图形子系统815和显示器820。例如,接口可以是高清晰度多媒体接口、显示端口(DisplayPort)、无线HDMI,和/或遵循无线HD的技术中的任何一个。图形子系统815可以被集成到处理器810或芯片组805中。在一些实现中,图形子系统815可以是可通信地耦合到芯片组805的独立卡。
此处所描述的图形和/或视频处理技术可以以各种硬件体系结构来实现。例如,图形和/或视频功能可以集成在芯片组内。替代地,可以使用单独的图形和/或视频处理器。作为再一个实现,图形和/或视频功能可以通过通用处理器(包括多核处理器)来提供。在进一步的实施例中,功能可以在消费电子产品中实现。
无线电818可以包括能够使用各种合适的无线通信技术传输和接收信号的一个或多个无线电。这样的技术可以涉及跨一个或多个无线网络的通信。示例无线网络包括(但不仅限于)无线局域网(WLAN)、无线人域网(WPAN)、无线城域网(WMAN)、蜂窝网络,以及卫星网络。在跨这样的网络的通信中,无线电818可以根据任何版本的一个或多个适用的标准来操作。
在各实现中,显示器820可以包括任何电视机类型监视器或显示器。显示器820可以包括,例如,计算机显示器屏幕、触摸屏显示器、视频监视器、类似于电视机的设备,和/或电视机。显示器820可以是数字和/或模拟的。在各实现中,显示器820可以是全息显示器。同样,显示器820还可以是可以接收视觉投影的透明表面。这样的投影可以传达各种形式的信息、图像,和/或对象。例如,这样的投影可以是对于移动增强的现实(MAR)应用程序的视觉覆盖。在一个或多个软件应用程序816的控制下,平台802可以在显示器822上显示用户界面820。
在各实现中,内容服务设备830可以由任何国家的,国际的和/或独立的服务托管(host),并由此可以被平台802例如通过因特网来访问。内容服务设备830可以耦合到平台802和/或显示器820。平台802和/或内容服务设备830可以耦合到网络860以往返于网络860进行通信(例如,发送和/或接收)媒体信息。内容分发设备840还可以耦合到平台802和/或显示器820。
在各实现中,内容服务设备830可以包括有线电视盒、个人计算机、网络、电话、启用因特网的设备或能够分发数字信息和/或内容的电器,以及能够通过网络860或直接在内容提供商和平台802和/或显示器820之间单方向地或双向地传递内容的任何其他类似的设备。可以理解,内容可以通过网络860往返于系统800中的组件中的任何一个和内容提供商单向地和/或双向地传递。内容的示例可以包括任何媒体信息,包括,例如,视频、音乐、医学和游戏信息等等。
内容服务设备830可以接收内容,诸如有线电视节目,包括媒体信息、数字信息和/或其他内容。内容提供商的示例可以包括任何有线或卫星电视或电台或因特网内容提供商。所提供的示例不以任何方式限制根据本发明的各实现。
在各实现中,平台802可以从具有一个或多个导航特征的导航控制器850接收控制信号。控制器850的导航特征可以被用来,例如,与用户界面822进行交互。在各实施例中,导航控制器850可以是指示设备,该指示设备可以是计算机硬件组件(具体地,人机接口设备),可使用户向计算机中输入空间(例如,连续的和多维)数据。诸如图形用户界面(GUI)、电视机和监视器之类的许多系统可使用户使用物理手势控制并向计算机或电视机提供数据。
控制器850的导航特征的移动可以通过指针、光标、焦点环,或显示在显示器上的其他可视指示器,在显示器(例如,显示器820)上复制。例如,在软件应用816的控制下,位于导航控制器850上的导航特征可以被例如映射到用户界面822上显示的虚拟导航特征。在各实施例中,控制器850可以不是单独的组件,而是可以集成到平台802和/或显示器820中。然而,本发明不仅限于在所示出的或此处所描述的上下文中的元件。
在各实现中,驱动程序(未示出)可以包括允许用户立即打开和关闭平台802的技术,类似于电视机,例如,当启用时,在初始引导之后,按下按钮。程序逻辑可以允许平台802甚至在平台被“关闭”时向媒体适配器或其他内容服务设备830或内容分发设备840流式播放内容。另外,芯片组805还可以包括,例如,对于5.1环绕声音频和/或高清晰度7.1环绕声音频的硬件和/或软件支持。驱动程序可以包括集成的图形平台的图形驱动程序。在各实施例中,图形驱动程序可以包括外围组件互连(PCI)快速(Express)图形卡。
在各实现中,可以集成系统800所示出的组件的任何一个或更多。例如,可以集成平台802和内容服务设备830,或者也可以集成平台802和内容分发设备840,或者,例如,也可以集成平台802、内容服务设备830,以及内容分发设备840。在各种实施例中,平台802和显示器820可以是集成单元。例如,可以集成显示器820和内容服务设备830,或者也可以集成显示器820和内容分发设备840。这些示例不限制本发明。
在各种实施例中,系统800可以实现为无线系统、有线系统,或两者的组合。当实现为无线系统时,系统800可以包括适用于通过无线共享介质进行通信的组件和接口,诸如一个或多个天线、发射器、接收器、收发器、放大器、滤波器、控制逻辑等等。无线共享介质的示例可以包括诸如RF频谱之类的无线范围的某些部分等等。当实现为有线系统时,系统800可以包括适用于通过有线通信介质进行通信的组件和接口,诸如输入/输出(I/O)适配器、将I/O适配器与相应的有线通信介质连接的物理连接器、网络接口卡(NIC)、光盘控制器、视频控制器、音频控制器等等。有线通信介质的示例可包括,线路、电缆、金属导线、印刷电路板(PCB)、后面板、交换机结构、半导体材料、双绞线、同轴电缆、光纤等等。
平台802可以建立一个或多个逻辑或物理信道以传递信息。信息可以包括媒体信息和控制信息。媒体信息可以是指表示给用户的内容的任何数据。内容的示例可以包括,例如,来自语音谈话、视频会议、流式视频、电子邮件(“email”)消息、语音邮件消息、字母数字符号、图形、图像、视频、文本等等的数据。来自语音谈话的数据可以是,例如,语音信息、静默时间长度、背景噪声、舒适噪声、音调等等。控制信息可以是指表示用于自动化系统的命令、指令或控制字的任何数据。例如,控制信息可以用来通过系统路由媒体信息,或指示节点以预先确定的方式处理媒体信息。然而,各实施例不仅限于图8中所示出的或所描述的上下文中的元件。
如上文所描述的,系统800可以以不同的物理样式或形状因子来体现。图9示出了其中可以实现系统800的小形状因子设备900的各实施例。在各实施例中,例如,设备900可以实现为具有无线能力的移动计算设备。移动计算设备可以是指具有处理系统和移动电源(诸如,例如,一个或多个电池)的任何设备。
如上文所描述的,移动计算设备的示例可以包括个人计算机(PC)、膝上型计算机、超膝上型计算机、平板电脑、触摸板、便携式计算机、手持式计算机、掌上电脑、个人数字助理(PDA)、蜂窝电话、蜂窝电话/PDA的组合、电视机、智能设备(例如,智能电话、智能平板电脑或智能电视机)、移动因特网设备(MID)、消息传送设备、数据通信设备等等。
移动计算设备的示例还可以包括被配置为由人佩带的计算机,诸如腕计算机、手指计算机、戒指计算机、眼镜计算机、皮带计算机、臂带计算机、鞋计算机、衣服计算机,及其他可佩带的计算机。例如,在各实施例中,移动计算设备可以实现为能够执行计算机应用程序以及语音通信和/或数据通信的智能电话。虽然可以利用作为示例实现为智能电话的移动计算设备描述一些实施例,但是,可以理解,其他实施例也可以使用其他无线移动计算设备来实现。在此上下文中,实施例不受限制。
如图9所示,设备900可以包括外壳902、显示器904、输入/输出(I/O)设备906,以及天线909。设备900还可以包括导航特征912。显示器904可以包括用于显示适合于移动计算设备的信息的任何合适的显示单元。I/O设备906可以包括用于向移动计算设备中输入信息的任何合适的I/O设备。I/O设备906的示例可以包括字母数字键盘、数字键区、触摸板、输入键、按钮、开关、往复式开关、麦克风、扬声器、语音识别设备以及软件等等。信息还可以通过麦克风(未示出)输入到设备900中。这样的信息可以通过语音识别设备(未示出)来数字化。在此上下文中,实施例不受限制。
各实施例可以使用硬件元件、软件元件或两者的组合来实现。硬件元件的示例可包括处理器、微处理器、电路、电路元件(例如,晶体管、电阻器、电容器、感应器等等)、集成电路、专用集成电路(ASIC)、可编程逻辑器件(PLD)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、逻辑门、寄存器、半导体器件、芯片、微芯片、芯片组等等。软件的示例可包括软件组件、程序、应用程序、计算机程序、系统程序、机器程序、操作系统软件、中间件、固件、软件模块、例程、子例程、函数、方法、过程、软件接口、应用程序接口(API)、指令集、计算代码、计算机代码、代码段、计算机代码段、字、值、符号,或其任何组合。判断一个实施例是否使用硬件元件或软件元件来实现可以根据任意数量的因素而不同,如所希望的计算速率、功率级别、耐热性、处理周期预算、输入数据速率、输出数据速率、存储器资源、数据总线速度,及其他设计或性能约束。
至少一个实施例的一个或多个方面可以通过存储在机器可读介质上的代表性的指令来实现,指令表示处理器内的各种逻辑,指令在由机器读取时使机器制造执行此处所描述的技术的逻辑。被称为“IP核”的这样的表示可以存储在有形的机器可读介质中,并提供给各种客户或生产设施,以加载到实际制造逻辑或处理器的制造机器中。
尽管参考各种实现描述了此处所阐述的某些特征,但是,此描述不旨在以限制性方式来解释。因此,对本发明涉及的所属技术领域的专业人员显而易见的对此处所描述的实现的各种修改,以及其他实现被认为在本发明的精神和范围内。

Claims (33)

1.一种计算机实现的方法,包括:
在视频编码器处:
确定视频数据的第一通道的第一预测残余;以及
使用所述第一预测残余,确定所述视频数据的第二通道的第二预测残余。
2.如权利要求1所述的方法,其特征在于,当所述第一通道包括亮度通道时,所述第二通道包括色度通道;并且,其中当所述第一通道包括色度通道时,所述第二通道包括亮度通道或另一色度通道中的一个。
3.如权利要求1所述的方法,其特征在于,还包括:
使用所述第二预测残余,确定所述视频数据的第三通道的第三预测残余。
4.如权利要求1所述的方法,其特征在于,还包括:
确定所述视频数据的第三通道的第三预测残余;以及
其中确定所述第二预测残余包括使用所述第一预测残余和所述第三预测残余两者来确定所述第二预测残余。
5.如权利要求4所述的方法,其特征在于,所述第一通道包括亮度通道,所述第二通道包括色度通道,而所述第三通道包括另一色度通道。
6.如权利要求1所述的方法,其特征在于,确定所述第二预测残余包括应用线性关系模型或非线性关系模型中的一个。
7.如权利要求6所述的方法,其特征在于,应用所述线性关系模型或所述非线性关系模型中的一个包括响应于编码模式,应用所述线性关系模型或所述非线性关系模型中的一个。
8.如权利要求6所述的方法,其特征在于,当所述编码模式包括帧内模式编码时,应用所述线性关系模型,并且其中当所述编码模式包括帧间模式编码时,不应用所述线性关系模型或所述非线性关系模型中的任何一个。
9.如权利要求6所述的方法,其特征在于,确定所述第二预测残余包括应用一个或多个固定关系模型参数。
10.如权利要求9所述的方法,其特征在于,当预测模式包括垂直预测模式或水平预测模式中的至少一个时,应用所述一个或多个固定关系模型参数。
11.如权利要求6所述的方法,其特征在于,确定所述第二预测残余包括自适应地确定一个或多个关系模型参数。
12.如权利要求11所述的方法,其特征在于,自适应地确定所述一个或多个关系模型参数包括响应于编码模式,自适应地确定所述一个或多个关系模型参数。
13.如权利要求12所述的方法,其特征在于,当所述编码模式包括DC预测模式或平面预测模式中的至少一个时,自适应地确定所述一个或多个关系模型参数。
14.如权利要求11所述的方法,其特征在于,自适应地确定所述一个或多个关系模型参数包括响应于当前图像的编码的像素或者一个或多个以前编码的图像的编码的像素中的至少一个,自适应地生成所述一个或多个关系模型参数。
15.一种计算机实现的方法,包括:
在视频解码器处:
接收视频数据的第一通道的第一预测残余;以及
使用所述第一预测残余,确定所述视频数据的第二通道的第二预测残余。
16.如权利要求15所述的方法,其特征在于,当所述第一通道包括亮度通道时,所述第二通道包括色度通道;并且,其中当所述第一通道包括色度通道时,所述第二通道包括亮度通道或另一色度通道中的一个。
17.如权利要求15所述的方法,其特征在于,还包括:
使用所述第二预测残余,确定所述视频数据的第三通道的第三预测残余。
18.如权利要求15所述的方法,其特征在于,还包括:
接收所述视频数据的第三通道的第三预测残余;以及
其中确定所述第二预测残余包括使用所述第一预测残余和所述第三预测残余两者来确定所述第二预测残余。
19.如权利要求18所述的方法,其特征在于,所述第一通道包括亮度通道,所述第二通道包括色度通道,而所述第三通道包括另一色度通道。
20.如权利要求15所述的方法,其特征在于,确定所述第二预测残余包括应用线性关系模型或非线性关系模型中的一个。
21.如权利要求15所述的方法,其特征在于,确定所述第二预测残余包括响应于标记信号,来确定所述第二预测残余。
22.一种设备,包括:
处理器,其被配置成:
确定视频数据的第一通道的第一预测残余;以及
使用所述第一预测残余,确定所述视频数据的第二通道的第二预测残余。
23.如权利要求22所述的设备,其特征在于,当所述第一通道包括亮度通道时,所述第二通道包括色度通道;并且,其中当所述第一通道包括色度通道时,所述第二通道包括亮度通道或另一色度通道中的一个。
24.如权利要求22所述的设备,其特征在于,所述处理器被配置成:
使用所述第二预测残余,确定所述视频数据的第三通道的第三预测残余。
25.如权利要求22所述的设备,其特征在于,所述处理器被配置成:
确定所述视频数据的第三通道的第三预测残余;以及
其中为确定所述第二预测残余,所述处理器被配置成使用所述第一预测残余和所述第三预测残余两者来确定所述第二预测残余。
26.如权利要求22所述的设备,其特征在于,为确定所述第二预测残余,所述处理器被配置成应用线性关系模型或非线性关系模型中的一个。
27.如权利要求26所述的设备,其特征在于,为确定所述第二预测残余,所述处理器被配置成应用一个或多个预定的关系模型参数或应用一个或多个自适应地确定的关系模型参数。
28.一种系统,包括:
接收视频数据的编码的比特流的天线;以及,
视频解码器,其中所述视频解码器可通信地耦合到所述天线,并且其中所述视频解码器将通过至少部分地使用从所述编码的比特流中获取的所述视频数据的第一通道的第一预测残余确定所述视频数据的第二通道的第二预测残余,来解码所述编码的比特流。
29.如权利要求28所述的系统,其特征在于,当所述第一通道包括亮度通道时,所述第二通道包括色度通道;并且,其中当所述第一通道包括色度通道时,所述第二通道包括亮度通道或另一色度通道中的一个。
30.如权利要求28所述的系统,其特征在于,所述视频解码器将通过至少部分地使用所述第二预测残余确定所述视频数据的第三通道的第三预测残余,来解码所述编码的比特流。
31.如权利要求28所述的系统,其特征在于,所述视频解码器将通过至少部分地确定所述视频数据的第三通道的第三预测残余,来解码所述编码的比特流;其中为确定所述第二预测残余,所述视频解码器使用所述第一预测残余和所述第三预测残余两者来确定所述第二预测残余。
32.如权利要求28所述的系统,其特征在于,为确定所述第二预测残余,所述视频解码器将应用线性关系模型或非线性关系模型中的一个。
33.如权利要求28所述的系统,其特征在于,所述视频解码器响应于标记信号,来确定所述第二预测残余。
CN201180074683.XA 2011-11-07 2011-11-07 跨通道残余预测 Active CN103918265B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410224832.1A CN104023238B (zh) 2011-11-07 2011-11-07 跨通道残余预测

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2011/081862 WO2013067667A1 (en) 2011-11-07 2011-11-07 Cross-channel residual prediction

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201410224832.1A Division CN104023238B (zh) 2011-11-07 2011-11-07 跨通道残余预测

Publications (2)

Publication Number Publication Date
CN103918265A true CN103918265A (zh) 2014-07-09
CN103918265B CN103918265B (zh) 2018-09-18

Family

ID=48288431

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180074683.XA Active CN103918265B (zh) 2011-11-07 2011-11-07 跨通道残余预测

Country Status (6)

Country Link
US (4) US10015485B2 (zh)
EP (1) EP2777250B1 (zh)
JP (1) JP2014534746A (zh)
CN (1) CN103918265B (zh)
TW (2) TWI571109B (zh)
WO (1) WO2013067667A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107211124A (zh) * 2015-01-27 2017-09-26 高通股份有限公司 适应性跨分量残差预测
CN111586408A (zh) * 2019-02-19 2020-08-25 诺基亚技术有限公司 用于跨通道残差编码和解码的量化参数得出
CN112218077A (zh) * 2019-07-11 2021-01-12 腾讯美国有限责任公司 通道间点云属性编码方法、装置以及可读存储介质

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103918265B (zh) 2011-11-07 2018-09-18 英特尔公司 跨通道残余预测
US9438904B2 (en) * 2012-01-19 2016-09-06 Futurewei Technologies, Inc. Reduced look-up table for LM mode calculation
EP2868078A4 (en) * 2012-06-27 2016-07-27 Intel Corp PREDICTION OF RESIDUES BETWEEN LAYERS AND BETWEEN CHANNELS
US9501864B2 (en) * 2013-12-27 2016-11-22 Intel Corporation Adaptive depth offset compression
EP3114835B1 (en) 2014-03-04 2020-04-22 Microsoft Technology Licensing, LLC Encoding strategies for adaptive switching of color spaces
US10171833B2 (en) 2014-03-04 2019-01-01 Microsoft Technology Licensing, Llc Adaptive switching of color spaces, color sampling rates and/or bit depths
JP6367359B2 (ja) 2014-03-27 2018-08-01 マイクロソフト テクノロジー ライセンシング,エルエルシー 色空間を切り替えるときの量子化/スケーリング及び逆量子化/スケーリングの調整
US10687069B2 (en) 2014-10-08 2020-06-16 Microsoft Technology Licensing, Llc Adjustments to encoding and decoding when switching color spaces
US10694204B2 (en) * 2016-05-06 2020-06-23 Vid Scale, Inc. Systems and methods for motion compensated residual prediction
JP6669617B2 (ja) * 2016-09-12 2020-03-18 ルネサスエレクトロニクス株式会社 動画像処理システム
BR112020004557A2 (pt) 2017-09-15 2020-09-08 Sony Corporation dispositivo e método de processamento de imagem.
EP3471418A1 (en) 2017-10-12 2019-04-17 Thomson Licensing Method and apparatus for adaptive transform in video encoding and decoding
EP4254955A3 (en) 2018-08-09 2023-12-06 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Video image component prediction methods, decoder and encoder
WO2020036130A1 (ja) 2018-08-15 2020-02-20 日本放送協会 イントラ予測装置、画像符号化装置、画像復号装置、及びプログラム
PH12019000380A1 (en) * 2018-12-17 2020-09-28 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
CN114096987A (zh) * 2019-07-03 2022-02-25 韩国科学技术院 视频处理方法及装置
US11463688B2 (en) 2019-12-09 2022-10-04 Qualcomm Incorporated Joint chroma residual video coding
WO2021195500A1 (en) * 2020-03-26 2021-09-30 Alibaba Group Holding Limited Method and apparatus for cross component filtering
US11816868B2 (en) * 2020-08-14 2023-11-14 Tencent America LLC Coding of multiple-component attributes for point cloud coding
WO2023013966A1 (ko) * 2021-08-06 2023-02-09 삼성전자 주식회사 Ai 기반의 영상의 부호화 및 복호화 장치, 및 이에 의한 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6785425B1 (en) * 1999-03-28 2004-08-31 Ramot At Tel-Aviv University Ltd. Method and system for compression of images
CN1574970A (zh) * 2003-05-16 2005-02-02 三星电子株式会社 使用图像残余预测编码/解码图像的方法和设备
CN1777283A (zh) * 2004-12-31 2006-05-24 上海广电(集团)有限公司 一种基于微块的视频信号编/解码方法
CN101426141A (zh) * 2007-10-30 2009-05-06 株式会社日立制作所 图像编码装置和编码方法,图像译码装置和译码方法
CN101507277A (zh) * 2006-08-16 2009-08-12 三星电子株式会社 图像编码/解码方法和设备

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6285710B1 (en) 1993-10-13 2001-09-04 Thomson Licensing S.A. Noise estimation and reduction apparatus for video signal processing
EP1509045A3 (en) * 2003-07-16 2006-08-09 Samsung Electronics Co., Ltd. Lossless image encoding/decoding method and apparatus using intercolor plane prediction
US9055298B2 (en) 2005-07-15 2015-06-09 Qualcomm Incorporated Video encoding method enabling highly efficient partial decoding of H.264 and other transform coded information
US8239766B2 (en) 2005-09-27 2012-08-07 Qualcomm Incorporated Multimedia coding techniques for transitional effects
KR101256548B1 (ko) * 2005-12-30 2013-04-19 삼성전자주식회사 영상 부호화 및 복호화 장치 및 그 방법
KR101261526B1 (ko) * 2006-07-04 2013-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
TWI332799B (en) 2006-09-13 2010-11-01 Realtek Semiconductor Corp A video data source system and an analog back end device
US20080089411A1 (en) 2006-10-16 2008-04-17 Nokia Corporation Multiple-hypothesis cross-layer prediction
TWI330341B (en) 2007-03-05 2010-09-11 Univ Nat Chiao Tung Video surveillance system hiding and video encoding method based on data
TW200845758A (en) 2007-05-03 2008-11-16 Nat Univ Chung Cheng Fast intra coding algorithms for dynamic definition adjustment
TW200845723A (en) 2007-04-23 2008-11-16 Thomson Licensing Method and apparatus for encoding video data, method and apparatus for decoding encoded video data and encoded video signal
JP2009005652A (ja) 2007-06-29 2009-01-15 Yaizu Suisankagaku Industry Co Ltd ペットフードの製造方法
JP2009200552A (ja) 2008-02-19 2009-09-03 Olympus Imaging Corp 撮像装置および撮像装置の表示方法
KR20090097688A (ko) 2008-03-12 2009-09-16 삼성전자주식회사 영상의 인트라 예측 부호화/복호화 방법 및 장치
CN102106147B (zh) 2008-09-29 2013-06-19 松下电器产业株式会社 动态图像编码方法以及动态图像编码装置
US8665964B2 (en) * 2009-06-30 2014-03-04 Qualcomm Incorporated Video coding based on first order prediction and pre-defined second order prediction mode
KR101646085B1 (ko) * 2010-01-25 2016-08-05 톰슨 라이센싱 비디오 인코더, 비디오 디코더, 각각의 컬러 면에 대해 별개로 비디오 인코딩하기 위한 방법 및 비디오 디코딩하기 위한 방법
KR102223526B1 (ko) 2010-04-09 2021-03-04 엘지전자 주식회사 비디오 데이터 처리 방법 및 장치
AU2011345535B2 (en) 2010-12-23 2015-08-20 Samsung Electronics Co., Ltd. Method and device for encoding intra prediction mode for image prediction unit, and method and device for decoding intra prediction mode for image prediction unit
CN108540810B (zh) * 2011-03-06 2021-01-08 Lg 电子株式会社 使用亮度采样的色度块的内部预测方法以及使用其的装置
US9693070B2 (en) 2011-06-24 2017-06-27 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
US9948938B2 (en) 2011-07-21 2018-04-17 Texas Instruments Incorporated Methods and systems for chroma residual data prediction
US20130058404A1 (en) 2011-09-01 2013-03-07 Jiun-In Guo Method of motion prediction of multimedia video coding
CN103918265B (zh) 2011-11-07 2018-09-18 英特尔公司 跨通道残余预测
CN109218730B (zh) 2012-01-19 2023-07-28 华为技术有限公司 用于lm帧内预测的参考像素缩减
US20130251028A1 (en) 2012-03-22 2013-09-26 The Hong Kong University Of Science And Technology Video encoding and decoding with channel prediction and error correction capability
GB2501535A (en) 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6785425B1 (en) * 1999-03-28 2004-08-31 Ramot At Tel-Aviv University Ltd. Method and system for compression of images
CN1574970A (zh) * 2003-05-16 2005-02-02 三星电子株式会社 使用图像残余预测编码/解码图像的方法和设备
CN1777283A (zh) * 2004-12-31 2006-05-24 上海广电(集团)有限公司 一种基于微块的视频信号编/解码方法
CN101507277A (zh) * 2006-08-16 2009-08-12 三星电子株式会社 图像编码/解码方法和设备
CN101426141A (zh) * 2007-10-30 2009-05-06 株式会社日立制作所 图像编码装置和编码方法,图像译码装置和译码方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SANG HEON LEE ET AL.: "INTRA PREDICTION METHOD BASED ON THE LINEAR RELATIONSHIP BETWEEN THE CHANNELS FOR YUV 4:2:0 INTRA CODING", 《IMAGE PROCESSING(ICIP), 2009 16TH HEEE INTERNATIONAL CONFERENCE DIGITAL OBJECT IDENTIFIER:10.1109/ICIP.2009.5413727》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107211124A (zh) * 2015-01-27 2017-09-26 高通股份有限公司 适应性跨分量残差预测
TWI705698B (zh) * 2015-01-27 2020-09-21 美商高通公司 適應性跨組件殘差預測
CN111586408A (zh) * 2019-02-19 2020-08-25 诺基亚技术有限公司 用于跨通道残差编码和解码的量化参数得出
US11323710B2 (en) 2019-02-19 2022-05-03 Nokia Technologies Oy Quantization parameter derivation for cross-channel residual encoding and decoding
CN111586408B (zh) * 2019-02-19 2022-08-19 诺基亚技术有限公司 用于跨通道残差编码和解码的量化参数得出
CN112218077A (zh) * 2019-07-11 2021-01-12 腾讯美国有限责任公司 通道间点云属性编码方法、装置以及可读存储介质
CN112218077B (zh) * 2019-07-11 2022-07-01 腾讯美国有限责任公司 通道间点云属性编码方法、装置以及可读存储介质

Also Published As

Publication number Publication date
JP2014534746A (ja) 2014-12-18
US10075709B2 (en) 2018-09-11
TW201325256A (zh) 2013-06-16
EP2777250A4 (en) 2015-09-23
CN103918265B (zh) 2018-09-18
US10659777B2 (en) 2020-05-19
WO2013067667A1 (en) 2013-05-16
US10015485B2 (en) 2018-07-03
US20190098294A1 (en) 2019-03-28
EP2777250A1 (en) 2014-09-17
TWI571109B (zh) 2017-02-11
US20140211846A1 (en) 2014-07-31
TW201442491A (zh) 2014-11-01
US20140023139A1 (en) 2014-01-23
US20140219347A1 (en) 2014-08-07
EP2777250B1 (en) 2017-05-31
TWI538479B (zh) 2016-06-11

Similar Documents

Publication Publication Date Title
CN103918265A (zh) 跨通道残余预测
KR101741940B1 (ko) 3d 비디오 코딩을 위한 예측 파라미터 상속
CN104541506A (zh) 层间像素样本预测
CN104584553A (zh) 层间残差预测
KR20150024398A (ko) 크기 기반 변환 유닛 컨텍스트 도출
CN104541505A (zh) 层间内部模式预测
CN103581665A (zh) 转码视频数据
CN104169971A (zh) 使用非线性缩放和自适应源块大小的分层运动估计
CN104321970A (zh) 层间编码单元四叉树模式预测
JP6060394B2 (ja) クロスレイヤー・クロスチャネル残差予測
CN104798373A (zh) 包括在多个独立编码流之间的共享运动估计的视频编码
TWI559749B (zh) 層間移動資料繼承之技術
EP2865185A1 (en) Cross-layer cross-channel sample prediction
CN104023238A (zh) 跨通道残余预测
JP2014209757A (ja) クロスチャネル残差予測
JP6227698B2 (ja) クロスチャネル残差予測
JP6177966B2 (ja) クロスチャネル残差予測
CN104717501A (zh) 层间像素样本预测

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant