CN105357525A - 视频解码方法和视频解码设备 - Google Patents

视频解码方法和视频解码设备 Download PDF

Info

Publication number
CN105357525A
CN105357525A CN201510900319.4A CN201510900319A CN105357525A CN 105357525 A CN105357525 A CN 105357525A CN 201510900319 A CN201510900319 A CN 201510900319A CN 105357525 A CN105357525 A CN 105357525A
Authority
CN
China
Prior art keywords
coding
unit
coding unit
band section
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510900319.4A
Other languages
English (en)
Other versions
CN105357525B (zh
Inventor
李泰美
崔秉斗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN105357525A publication Critical patent/CN105357525A/zh
Application granted granted Critical
Publication of CN105357525B publication Critical patent/CN105357525B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47JKITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
    • A47J36/00Parts, details or accessories of cooking-vessels
    • A47J36/24Warming devices
    • A47J36/2483Warming devices with electrical heating means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47JKITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
    • A47J39/00Heat-insulated warming chambers; Cupboards with heating arrangements for warming kitchen utensils
    • A47J39/02Dish-warmers; Devices to keep food hot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • H04N19/68Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience involving the insertion of resynchronisation markers into the bitstream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B3/00Ohmic-resistance heating
    • H05B3/20Heating elements having extended surface area substantially in a two-dimensional plane, e.g. plate-heater
    • H05B3/22Heating elements having extended surface area substantially in a two-dimensional plane, e.g. plate-heater non-flexible
    • H05B3/28Heating elements having extended surface area substantially in a two-dimensional plane, e.g. plate-heater non-flexible heating conductor embedded in insulating material
    • H05B3/30Heating elements having extended surface area substantially in a two-dimensional plane, e.g. plate-heater non-flexible heating conductor embedded in insulating material on or between metallic plates
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B3/00Ohmic-resistance heating
    • H05B3/68Heating arrangements specially adapted for cooking plates or analogous hot-plates
    • H05B3/686Heat-storage plates

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Food Science & Technology (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Error Detection And Correction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种视频解码方法和视频解码设备。用于对视频信号进行熵解码的方法包括以下步骤:确定用于从比特流获得的最大编码单元的二进制位串和二进制位索引;当通过将目前获得的二进制位串与二进制位索引中的被分配给语法元素的二进制位串进行比较确定所述语法元素的值时,如果所述语法元素是最后一个最大编码单元中的最后一个语法元素,并且在包括所述最大编码单元的画面中可包括次级条带段,则存储用于所述最大编码单元的上下文参数;通过使用先前确定的所述语法元素的值来对所述最大编码单元的符号进行解码。

Description

视频解码方法和视频解码设备
本申请是向中国知识产权局提交的申请日为2014年01月06日的标题为“用于对条带段进行熵编码的方法及其设备以及用于对条带段进行熵解码的方法及其设备”的第201480012100.4号申请的分案申请。
技术领域
本发明涉及用于视频编码和解码的熵编码和熵解码。
背景技术
随着用于再现和存储高分辨率或高质量视频内容的硬件的开发和提供,对于用于有效地对高分辨率或高质量视频内容进行编码或解码的视频编解码器的需求正在增加。根据传统的视频编解码器,基于具有预定尺寸的宏块,根据受限的编码方法来对视频进行编码。
通过使用频率变换将空间域的图像数据变换为频域的系数。为了快速地执行频率变换,视频编解码器将图像划分为均具有预定尺寸的块,对每个块执行DCT变换,并以块为单位对频率系数进行编码。与空间域的图像数据相比,频域的系数可更容易被压缩。具体地,由于空间域的图像像素值通过视频编解码器的帧间预测或帧内预测被表示为预测误差,因此当对预测误差执行频率变换时,大量数据可被变换为零(0)。视频编解码器通过用小量数据代替连续并重复产生的数据来减少数据量。
执行熵编码以对通过视频编码而产生的符号的比特串进行压缩。基于算术编码的熵编码最近已被广泛使用。为了执行基于算术编码的熵编码,将符号数字化为比特串,并对该比特串执行基于上下文的算术编码。
发明内容
技术问题
本发明提供用于视频编码和解码的考虑条带段的属性而使用附近数据的上下文信息的熵编码方法和熵解码方法。
解决方案
根据各种示例性实施例的视频熵解码方法包括:确定用于从比特流获得的最大编码单元的二进制位串和二进制位索引;通过将确定的二进制位串与二进制位索引中的可分配给语法元素的二进制位串进行比较来确定所述语法元素的值;当所述语法元素是所述最大编码单元中的最后一个语法元素,在包括所述最大编码单元的画面中可包括非独立条带段,并且所述最大编码单元是条带段中的最后一个最大编码单元时,存储用于最大编码单元的上下文变量;通过使用确定的所述语法元素的值来恢复所述最大编码单元的符号。
有益效果
如果基于熵编码/解码可在当前画面中使用非独立条带段,则在完成对每个条带段的最后一个最大编码单元(LCU)的熵编码(解码)之后,可存储上下文变量。因此,虽然先前条带段是独立条带段,但是可从被先前编码的独立条带段的最后一个LCU的上下文变量获得对于下一个非独立条带段而言必需的上下文变量的初始变量。
此外,由于指示比子集偏移小1的数字的信息通过条带段被提供以有效地通知用于熵编码/解码的上下文变量的同步点,因此条带段的数据大小可被减小。
附图说明
图1a是示出根据各种示例性实施例的视频熵编码设备的框图。
图1b是根据各种示例性实施例的视频熵编码方法的流程图。
图2a是示出根据各种示例性实施例的视频熵解码设备的框图。
图2b是根据各种示例性实施例的视频熵解码方法的流程图。
图3是示出画面中的并行块(tile)和最大编码单元(LCU)的示图。
图4是示出画面中的条带段和LCU的示图。
图5是根据示例性实施例的上下文自适应二进制算术编码(CABAC)解析操作的流程图。
图6a是用于解释使用存储的上下文变量进行熵解码的示图。
图6b是根据示例性实施例的在CABAC解析操作中的存储上下文变量的操作的详细流程图。
图7是示出根据示例性实施例的条带段头的语法的示图。
图8是根据示例性实施例的基于具有树结构的编码单元的视频编码设备的框图。
图9是根据示例性实施例的基于具有树结构的编码单元的视频解码设备的框图。
图10是用于解释根据本发明的示例性实施例的编码单元的概念的示图。
图11是根据本发明的示例性实施例的基于编码单元的图像编码器的框图。
图12是根据本发明的示例性实施例的基于编码单元的图像解码器的框图。
图13是示出根据本发明的示例性实施例的根据深度的较深层编码单元以及分区的示图。
图14是用于解释根据本发明的示例性实施例的编码单元和变换单元之间的关系的示图。
图15是用于解释根据本发明的示例性实施例的与编码深度相应的编码单元的编码信息的示图。
图16是示出根据本发明的示例性实施例的根据深度的较深层编码单元的示图。
图17至图19是用于解释根据本发明的示例性实施例的编码单元、预测单元和变换单元之间的关系的示图。
图20是用于解释根据表1的编码模式信息的编码单元、预测单元和变换单元之间的关系的示图。
图21是示出根据示例性实施例的存储程序的盘的物理结构的示图。
图22是示出用于通过使用盘来记录和读取程序的盘驱动器的示图。
图23是示出用于提供内容分配服务的内容供应系统的整体结构的示图。
图24和图25是示出根据示例性实施例的应用了根据本发明的视频编码方法和视频解码方法的移动电话的外部结构和内部结构的示图。
图26是示出根据本发明的应用通信系统的数字广播系统的示图。
图27是示出根据本发明的示例性实施例的使用视频编码设备和视频解码设备的云计算系统的网络结构的示图。
最佳实施方式
根据各种示例性实施例的一种视频熵解码方法包括:确定用于从比特流获得的最大编码单元的二进制位串和二进制位索引;通过将确定的二进制位串与二进制位索引中的能够分配给语法元素的二进制位串进行比较来确定所述语法元素的值;当所述语法元素是所述最大编码单元中的最后一个语法元素,在包括所述最大编码单元的画面中能够包括非独立条带段,并且所述最大编码单元是条带段中的最后一个最大编码单元时,存储用于所述最大编码单元的上下文变量;通过使用确定的所述语法元素的值来恢复所述最大编码单元的符号。
根据各种示例性实施例的存储用于所述最大编码单元的上下文变量的步骤可包括:当在所述画面中能够包括非独立条带段时,不论所述条带段是独立条带段还是非独立条带段,存储用于所述最大编码单元的上下文变量。
根据各种示例性实施例的视频熵解码方法还可包括:将存储的上下文变量用于对所述非独立条带段的第一个最大编码单元的上下文变量进行熵解码,其中,所述非独立条带段位于所述画面中所包括的多个条带段中并且紧接在所述条带段之后。
根据各种示例性实施例的视频熵解码方法还可包括:基于从比特流的画面参数集获得的第一信息来确定在所述画面中是否能够包括非独立条带段;基于从关于所述最大编码单元的数据获得的第二信息来确定所述最大编码单元是否是所述条带段中的最后一个最大编码单元,其中,关于所述最大编码单元的数据被包括在比特流的与多个条带段相应的数据中;从关于所述最大编码单元的数据获得二进制位串。
根据各种示例性实施例的视频熵解码方法还可包括:基于从比特流的条带段头获得的第三信息来确定所述条带段中包括的子集的入口点的数量;通过使用偏移和由第四信息指示的数字来确定每个入口点的位置,其中,偏移是比由第四信息指示的数字大1的数字,第四信息是从比特流的条带段头获得的,并且第四信息指示根据每个入口点的偏移,其中,当在所述画面中所包括的条带段中能够包括并行块,或者能够针对所述画面中所包括的最大编码单元的上下文变量执行同步操作时,入口点的数量和入口点的位置被确定。
根据各种示例性实施例的一种视频熵编码方法包括:产生通过对最大编码单元进行编码而确定的符号的比特串;根据与所述符号相应的语法元素值的每个二进制位索引来确定上下文变量;基于所述语法元素的上下文值来确定指示语法元素值的二进制位串;当所述语法元素是所述最大编码单元中的最后一个语法元素,在包括所述最大编码单元的画面中能够包括非独立条带段,并且所述最大编码单元是条带段中的最后一个最大编码单元时,存储用于所述最大编码单元的上下文变量。
根据各种示例性实施例的存储用于所述最大编码单元的上下文变量的步骤可包括:当在所述画面中能够包括非独立条带段时,无论所述条带段是独立条带段还是非独立条带段,存储用于所述最大编码单元的上下文变量。
根据各种示例性实施例的视频熵解码设备包括:上下文初始化器,确定用于从比特流获得的最大编码单元的二进制位串和二进制位索引,并通过将确定的二进制位串与二进制位索引中的能够分配给语法元素的二进制位串进行比较来确定所述语法元素的值;上下文存储单元,当所述语法元素是最大编码单元中的最后一个语法元素,在包括所述最大编码单元的画面中能够包括非独立条带段,并且所述最大编码单元是条带段中的最后一个最大编码单元时,存储用于所述最大编码单元的上下文变量;符号恢复单元,通过使用确定的所述语法元素的值来恢复所述最大编码单元的符号。
根据各种示例性实施例的一种视频熵编码设备包括:二值化器,产生通过对最大编码单元执行编码而确定的符号的比特串;二进制位串确定器,根据与所述符号相应的语法元素值的每个二进制位索引来确定上下文值,并基于所述语法元素的上下文变量来确定指示语法元素值的二进制位串;上下文存储单元,当所述语法元素是所述最大编码单元中的最后一个语法元素,在包括所述最大编码单元的画面中能够包括非独立条带段,并且所述最大编码单元是条带段中的最后一个最大编码单元时,存储用于所述最大编码单元的上下文变量。
根据各种示例性实施例的一种包含有当被计算机运行时执行所述视频熵解码方法的程序的计算机可读记录介质。
根据各种示例性实施例的一种包含有当被计算机运行时执行所述视频熵编码方法的程序的计算机可读记录介质。
具体实施方式
将参照图1a至图7解释根据各种示例性实施例的基于条带段的熵编码方法和基于条带段的熵解码方法。此外,将参照图8至图20解释根据可应用熵编码方法和熵解码方法的各种示例性实施例的基于具有树结构的编码单元的视频编码方法和视频解码方法。此外,将参照图21至图27解释可应用视频编码方法和视频解码方法的各种示例性实施例。在下文中,术语“图像”可表示静止图像或运动图像(即,视频本身)。
图1a是根据各种示例性实施例的视频熵编码设备10的框图。
根据各种示例性实施例的视频熵编码设备10包括二值化器12、二进制位串确定器14和上下文存储单元16。
视频熵编码设备10可对根据最大编码单元(LCU)编码的符号执行熵编码。视频熵编码设备10可存储对LCU执行编码的视频编码器(未示出)。
为了便于解释,现在将详细解释包括用于对LCU执行编码并产生符号的视频编码器(未示出)的视频熵编码设备10所使用的处理。然而,将理解,视频熵编码设备10不限于直接包括视频编码器(未示出)的结构,并且视频熵编码设备10可接收由外部编码设备编码的符号。
根据各种示例性实施例的视频编码处理可被划分为源编码处理和熵编码处理,其中,源编码处理使由于图像数据的时空相似性而导致的冗余数据最小化,熵编码处理再次使通过源编码处理而产生的数据的比特串中的冗余最小化。根据示例性实施例的视频熵编码设备10根据块对构成视频的画面中的每个画面执行源编码,并产生编码符号。源编码包括以块为单位对空间域中的视频数据执行帧内预测/帧间预测、变换和量化的处理。作为源编码的结果,可产生根据块的编码符号。编码符号的示例可包括残差分量的量化后的变换系数、运动矢量、帧内模式属性、帧间模式属性和量化参数。
根据示例性实施例的熵编码可被划分为将符号转换为比特串的二值化处理以及对比特串执行基于上下文的算术编码的算术编码处理。上下文自适应二进制算术编码(CABAC)被广泛地用作执行基于上下文的算术编码的编码方法。根据基于上下文的算术编码/解码,符号比特串中的每个比特可以是每个二进制位(bin),每个比特位置可被映射到二进制位索引。比特串的长度(即,二进制位的长度)可根据符号值而变化。对于基于上下文的算术编码/解码,需要用于确定符号的上下文的上下文建模。
对于上下文建模,需要针对符号比特串的每个比特位置(即,针对每个二进制位索引)重新更新上下文。术语“上下文建模”是指分析每个二进制位是0还是1的概率的处理。可以以块为单位来反复执行通过以下操作来更新上下文的处理:将通过根据比特对新块的每个符号的概率进行分析而获得的结果反映到当前上下文。为每个二进制位匹配概率的概率表可被提供作为包含这种上下文建模的结果的信息。根据示例性实施例的熵编码概率信息可以是包含上下文建模的结果的信息。
因此,一旦上下文建模信息(即,熵编码概率信息)被获得,就可通过基于熵编码概率信息的上下文将码分配给块符号的二值化后的比特串中的每个比特来执行熵编码。
此外,由于熵编码涉及基于上下文的算术编码/解码,因此可以以块为单位来更新符号码上下文信息,并且,由于通过使用更新后的符号码上下文信息来执行熵编码,因此压缩率可被提高。
根据本发明的各种示例性实施例的视频编码方法不应被解释为仅限于对作为数据单元的“块”所执行的视频编码方法,还可被应用于各种数据单元。
为了提高图像编码效率,图像被划分为均具有预定尺寸的块,然后被编码。块可具有完美的方形或矩形形状或者任意几何形状。本示例性实施例不限于具有预定尺寸的数据单元。根据示例性实施例的块可以是具有树结构的编码单元中的LCU、编码单元、预测单元或变换单元。下面将参照图8至图20来解释基于根据树结构的编码单元的视频编码/解码方法。
以光栅扫描方向来对画面的块进行编码。
视频熵编码设备10可将画面划分为一个或更多个并行块,每个并行块可包括画面的块之中的沿光栅方向排列的块。可将画面划分为以下并行块:被划分为一列或更多列的并行块、被划分为一行或更多行的并行块、或者被划分为一列或更多列和一行或更多行的并行块。每个并行块可将空间域划分为子域。为了单独地对每个子域进行编码,视频熵编码设备10可以以并行块为单位单独地执行编码。
由于每个条带段包括沿光栅方向排列的块,因此视频熵编码设备10可通过沿水平方向划分画面来产生条带段。画面可被划分为一个或更多个条带段。每个条带段的数据可通过一个网络适应层(NAL)单元来发送。
根据示例性实施例的视频熵编码设备10可对条带段执行编码。根据示例性实施例的视频熵编码设备10可通过顺序地对每个条带段中包括的块执行编码来根据块产生编码符号。每个条带段中的块的编码数据可被包括在一个NAL单元中,并可通过所述一个NAL单元来发送。每个并行块可包括至少一个条带段。如果有必要,每个条带段可包括至少一个并行块。
此外,条带段可被分类为非独立条带段和独立条带段。
如果当前条带段是非独立条带段,则可执行画面内预测,其中,画面内预测参考在当前条带段之前被编码的先前条带段的编码符号。此外,在当前条带段是非独立条带段时,可执行非独立熵编码,其中,非独立熵编码参考在当前条带段之前被编码的先前条带段的熵信息。
如果当前条带段是独立条带段,则不执行参考先前条带段的画面内预测,并且不参考先前条带段的熵信息。
根据示例性实施例的一个画面可包括一个独立条带段以及按光栅扫描顺序在独立条带段之后的至少一个非独立条带段。一个独立条带段可以是一个条带。
根据示例性实施例的视频熵编码设备10可独立于其它并行块对每个并行块单独地执行编码。视频熵编码设备10可根据并行块顺序地对当前并行块中包括的LCU进行编码。
此外,根据示例性实施例的视频熵编码设备10可根据条带段对当前条带段的LCU进行编码。可按照当前并行块的编码顺序对当前条带段中包括的LCU之中的包括在预定并行块中的LCU进行编码。
如果当前条带段的所有LCU属于当前并行块,则根据示例性实施例的视频熵编码设备10可在当前并行块中按光栅扫描顺序对当前条带段中包括的多个LCU进行编码。在此情况下,由于当前条带段没有横跨当前并行块的边界,因此当前条带段的LCU没有越过当前并行块的边界。在此情况下,根据示例性实施例的视频熵编码设备10可顺序地对每个并行块中包括的至少一个条带段执行编码,并可按光栅扫描顺序对每个条带段中包括的多个块进行编码。
此外,即使当当前条带段包括至少一个并行块时,视频熵编码设备10仍可按当前并行块中的LCU的光栅扫描顺序对当前条带段中包括的LCU之中的属于当前并行块的LCU执行编码。根据示例性实施例的视频熵编码设备10可顺序地对条带段执行编码。因此,根据示例性实施例的视频熵编码设备10可通过顺序地对条带段执行编码并顺序地对每个条带段中包括的块执行编码来根据块产生编码符号。视频熵编码设备10可以以每个条带段的块为单位来执行帧内预测、帧间预测、变换、环路滤波、样点自适应偏移(SAO)补偿和量化。
为了对在源编码处理期间产生的编码符号(例如,帧内样点、运动矢量和编码模式信息)执行预测编码,可执行画面内预测。当画面内预测被执行时,可对当前编码符号与先前编码符号之间的差值进行编码,而不是对当前编码符号进行编码。此外,可对当前样点与邻近样点之间的差值进行编码,而不是对当前样点进行编码。
此外,为了对在熵编码处理期间产生的熵上下文信息或码上下文信息执行预测编码,可执行非独立熵编码。当非独立熵编码被执行并且当前熵信息和先前熵信息相同时,可省略对当前熵信息的编码。
然而,由于视频熵编码设备10单独地对每个并行块进行编码,因此可不在属于不同并行块的LCU之间执行画面内预测和非独立熵编码。
视频熵编码设备10可将指示条带段的可用性或者条带段的属性的信息记录在各种编码单元的头(诸如序列参数集(SPS)、画面参数集(PPS)和条带段头)中。
例如,视频熵编码设备10可产生包括指示当前条段是否是当前画面中的初始条带段的信息的条带段头。
关于当前条带段所属于的当前画面的各种基本信息可被包含在PPS中,并可通过PPS被发送。具体地,PPS可包括关于当前画面是否可包括非独立条带段的信息。因此,当PPS中包含指示非独立条带段在当前画面中被使用的信息时,视频熵编码设备10可将指示当前条带段是否是使用先前条带段的条带头信息的非独立条带段的信息包括在当前条带段头中。
相反,当当前画面的PPS中包括指示非独立条带段在当前画面中未被使用的信息时,指示当前条带段是否为非独立条带段的信息不被包括在当前条带段头中。
此外,当当前条带段不是初始条带段时,视频熵编码设备10可将指示当前条带段是否是非独立条带段的信息添加到条带段头。
也就是说,当当前画面的PPS中包括指示非独立条带段在当前画面中被使用的信息,并且当前条带段头中包括指示当前条带段不是初始条带段的信息时,还可将指示当前条带段是否是非独立条带段的信息添加到当前条带段头。根据示例性实施例的初始条带段必须是独立条带段。因此,当当前条带段是初始条带段时,可省略指示当前条带段是否是非独立条带段的信息。因此,视频熵编码设备10可将指示当前条带段是否是初始条带段的信息添加到用于初始条带段的条带段头,然后可将关于当前条带段的基本信息添加到条带段头,并可发送结果信息。
因此,当非独立条带段可在当前画面中被使用,并且当前条带段不是初始条带段时,还可将指示当前条带段是否是非独立条带段的信息添加到当前条带段头。
然而,当当前条带段是非独立条带段,而不是初始条带段时,关于条带段的基本信息可与先前条带段头的信息相同。因此,当当前条带段头包括指示当前条带段是否是初始条带段的信息以及指示当前条带段是否是非独立条带段的信息,而省略与先前条带段头的信息相同的信息时,可发送当前条带段头。
当根据示例性实施例的当前条带段不是非独立条带段时,当前条带段头可包括指示当前条带段是否是非独立条带段的信息,并且还可包括用于当前条带段的各种头信息。
此外,视频熵编码设备10可将用于熵编码的上下文的初始上下文信息和量化参数包含在条带段头中,并可发送结果信息。
然而,当当前条带段是非独立条带段时,视频熵编码设备10可执行参考在当前条带段之前编码的先前条带段的编码符号的画面内预测。当当前条带段是非独立条带段时,视频熵编码设备10可执行参考在当前条带段之前编码的先前条带段的熵信息的非独立熵编码。
因此,当当前条带段是非独立条带段时,视频熵编码设备10不将量化参数和初始上下文信息包含在当前条带段的条带段头中。这是因为非独立条带段的量化参数和初始上下文信息可被初始化为先前编码的独立条带段的头信息中所包含的量化参数和初始上下文信息。
当当前条带段是独立条带段时,由于画面内预测不被执行,因此视频熵编码设备10可不考虑先前条带段而输出当前条带段的编码符号的比特串。当当前条带段是独立条带段时,视频熵编码设备10可不考虑先前编码的邻近条带段的熵信息而输出当前条带段的熵信息。例如,当当前条带段是独立条带段时,量化参数和初始上下文信息必须包含在当前条带段头中。
视频熵编码设备10可根据条带段发送条带段的条带段头和符号。
现在将参照图1b详细解释由视频熵编码设备10的每个元件执行的用于视频熵编码的操作。
图1b是根据各种示例性实施例的视频熵编码方法的流程图。
视频熵编码设备10可将画面划分为至少一个条带段,可对每个条带段执行编码,并可顺序地对每个条带段中包括的LCU执行编码。
在操作11,二值化器12可对通过对LCU执行编码而确定的符号执行二值化以产生符号的比特串。
在操作13,二进制位串确定器14可根据与LCU的符号相应的语法元素值的每个二进制位索引来确定上下文变量。可基于根据在先前编码的另一LCU中所使用的语法元素值的每个二进制位索引的上下文变量来确定用于当前LCU的上下文变量。
每个上下文变量可包括上下文表和上下文索引。上下文变量可根据语法元素来确定。
在操作15,二进制位串确定器14可基于确定的语法元素的上下文变量来确定指示语法元素值的二进制位串。视频熵编码设备10可存储关于上下文表的数据,其中,上下文表包含用于每个语法元素的上下文变量与二进制位串之间的相互关系。
二进制位串确定器14可在用于当前语法元素值的上下文表中采用由在操作13中确定的上下文变量所指示的二进制串。
视频熵编码设备10可产生关于LCU的所有语法元素的二进制位串,并然后可确定是否存储根据LCU确定的上下文变量。
在操作17,当语法元素是LCU中的最后一个语法元素,非独立条带段可被包括在包括该LCU的画面中,并且该LCU是条带段中的最后一个LCU时,上下文存储单元16可存储用于该LCU的上下文变量。
不论条带段是独立条带段还是非独立条带段,当非独立条带段可被包括在画面中时,上下文存储单元16可存储用于LCU的上下文变量。
当多个条带段被包括在画面中时,可将当前条带段中存储的上下文变量用于对在当前条带段之后紧接着的非独立条带段中的第一LCU的上下文变量进行熵编码。
视频熵编码设备10可产生包含画面中所包括的条带段、LCU和对LCU进行编码通常所需的各种信息的PPS。视频熵编码设备10可将指示非独立条带段是否可被包括在画面中的第一信息包括在PPS中。
视频熵编码设备10可产生条带段数据,其中,条带段数据包括通过对每个条带段中所包括的LCU进行编码而产生的数据。视频熵编码设备10可将指示LCU是否是条带段中的最后一个LCU的第二信息包括在根据条带段的数据之中的关于LCU的数据中。此外,通过熵编码而产生的二进制位串可被包括在关于LCU的数据中。
视频熵编码设备10可产生条带段头,其中,条带段头包括条带段中所包括的LCU以及对LCU进行解码通常所需的各种信息。作为对条带段执行编码的结果,视频熵编码设备10可产生包括PPS、条带段头和根据条带段的数据的比特流。
当并行块可被包括在画面中所包括的条带段中,或者同步操作可针对画面中所包括的LCU的上下文变量被执行时,视频熵编码设备10可将第三信息和第四信息包括在条带段头中,其中,第三信息指示条带段中所包括的子集的入口点的数量,第四信息指示比根据每个入口点的偏移小1的数字。
术语“条带段中所包括的子集”指的是条带段中所包括的LCU之中的按扫描顺序被顺序地编码的一组LCU。可同时执行对子集的处理。
可通过使用被分配给每个子集的第四信息来从先前子集到当前子集对子集偏移进行求和,以确定当前子集的第一字节。当存在两个或更多个子集时,由于子集偏移必需大于0,因此可通过将子集偏移减去1来获得指示子集偏移的第四信息。因此,实际的子集偏移可以是比由第四信息指示的数字大1的值。
构成每个子集的字节的索引以0开始,并且,用于指示第一字节的字节索引为0。因此,可通过将当前子集的第一字节与由被分配给当前子集的第四信息指示的数字求和来确定当前子集的最后一个字节。
根据示例性实施例的视频熵编码设备10可包括总体控制二值化器12、二进制位串确定器14和上下文存储单元16的中央处理器(未示出)。可选地,二值化器12、二进制位串确定器14和上下文存储单元16中的每一个可由于其拥有的处理器(未示出)而进行操作,并且视频熵编码设备10通常在处理器(未示出)系统地进行操作时进行操作。可选地,视频编码设备10可基于根据示例性实施例的视频熵编码设备10的外部处理器的控制而进行操作。
根据示例性实施例的视频熵编码设备10可包括一个或更多个数据存储单元(未示出),其中,二值化器12、二进制位串确定器14和上下文存储单元16的输入/输出数据被存储在所述一个或更多个数据存储单元中。视频熵编码设备10可包括控制数据存储单元(未示出)的数据输入/输出的存储器控制器(未示出)。
图2a是根据各种示例性实施例的视频熵解码设备20的框图。
根据示例性实施例的视频熵编码设备20包括上下文初始化器22、符号恢复单元24和上下文存储单元26。
根据示例性实施例的视频熵解码设备20可接收作为在画面被划分为两个或更多个并行块和至少一个条带段并随后被编码之后的结果而产生的比特流。比特流可以是根据条带段产生的数据,并且可以是根据并行块产生的数据。
然后,视频熵解码设备20可根据条带段的属性来解析条带段头。视频熵解码设备20可从当前条带段的条带段头解析指示当前条带段是否是当前画面中的初始条带段的信息。
当从解析出的信息确定当前条带段不是初始条带段时,视频熵解码设备20还可从当前条带段头解析指示当前条带段是否是使用先前条带段的条带头信息的非独立条带段的信息。
然而,可从用于当前条带段所属于的当前画面的PPS解析关于当前画面是否可包括非独立条带段的信息。因此,当从当前画面的PPS解析出指示在当前画面中使用非独立条带段的信息时,视频熵解码设备20可从当前条带段头解析指示当前条带段是否是非独立条带段的信息。
相反,当从当前画面的PPS解析出指示在当前画面中未使用非独立条带段的信息时,不从当前条带段头解析指示当前条带段是否是非独立条带段的信息。
因此,当从当前画面的PPS解析出指示在当前画面中使用非独立条带段的信息,并且解析出指示当前条带段不是初始条带段的信息时,视频熵解码设备20还可从当前条带段头解析指示当前条带段是否是非独立条带段的信息。也就是说,当确定当前画面使用非独立条带段并且当前非独立条带段不是初始条带段时,视频熵解码设备20还可从当前条带段头解析指示当前条带段是否是非独立条带段的信息。
当从解析出的信息确定当前条带段是初始条带段时,视频熵解码设备20不从当前条带段头解析指示当前条带段是否是非独立条带段的信息。由于初始条带段不可能是非独立条带段,因此可在没有解析信息的情况下确定初始条带段是独立条带段。因此,当当前条带段是初始条带段时,视频熵解码设备20还可从画面的初始条带段头解析指示当前条带段是否是初始条带段的信息以及关于当前条带段的基本信息。
当从解析自当前条带段头的信息确定当前条带段是非独立条带段时,视频熵解码设备20可将从先前条带段的头解析出的一些头信息确定为当前条带段的基本信息。
当从解析自当前条带段头的信息确定当前条带段不是非独立条带段时,视频熵解码设备20可从当前条带段头解析用于当前条带段的各种头信息。
视频熵解码设备20可通过使用从当前条带段头解析出的信息以及当前条带段的符号来对当前条带段进行解码。
当每个条带段通过一个NAL单元被接收时,视频熵解码设备20可根据条带段接收块的编码数据。每个并行块可包括至少一个条带段。如果有必要,条带段可包括至少一个并行块。条带段与并行块之间的关系与参照图1a和图1b描述的关系相同。
此外,包括恢复的当前条带段的视频熵解码设备20可恢复每个并行块中包括的至少一个条带段,并可通过组合恢复的并行块来恢复图像。
视频熵解码设备20可根据并行块,基于当前并行块中包括的至少一个条带段,按光栅扫描顺序对当前条带段中包括的多个块的符号进行解析。此外,视频熵解码设备20可通过使用块的按光栅扫描顺序解析出的符号,按光栅扫描顺序对块进行解码。
视频熵解码设备20可通过对每个条带段的比特流执行熵解码来根据LCU对编码符号进行解析。视频熵解码设备20可通过顺序地对条带段中包括的LCU执行熵解码来根据LCU对编码符号进行解析。现在将参照图2b详细解释由视频熵解码设备20使用的通过根据条带段中包括的编码单元对编码符号进行解析来执行恢复的处理。
图2b是根据各种示例性实施例的视频熵解码方法的流程图。
在操作21,上下文初始化器22可确定用于从比特流获得的LCU的二进制位串和二进制位索引。
上下文初始化器22可根据用于每个语法元素的每个上下文索引来恢复用于初始化值的初始化表。根据上下文变量的初始化操作,当前语法元素的上下文索引可基于初始化表被确定为初始化值。
此外,上下文初始化器22可存储关于上下文表的数据,其中,上下文表包含用于每个语法元素的上下文变量与二进制位串之间的相互关系。
上下文初始化器22可确定用于每个语法元素的上下文变量。可通过使用附近LCU的上下文变量来对当前LCU的上下文变量进行同步。
在操作23,上下文初始化器22可通过将可基于上下文表而被分配给当前上下文变量中的语法元素的二进制位串与在操作21确定的二进制位索引中的二进制位串进行比较,来确定由当前二进制位串指示的语法元素的值。
在对用于LCU的二进制位串执行熵解码期间,当开始对LCU进行熵解码时,每个上下文变量可基于新累积的上下文从初始上下文变量被更新。
上下文初始化器22可基于从比特流的PPS获得的第一信息来确定非独立条带段是否可被包括在画面中。上下文初始化器22可基于从根据比特流的条带段的数据之中的关于LCU的数据获得的第二信息来确定LCU是否是条带段中的最后一个LCU。此外,上下文初始化器22可从根据条带段的数据之中的关于LCU的数据获得二进制位串。
在操作25,当语法元素是LCU中的最后一个语法元素,非独立条带段可被包括在包括该LCU的画面中,并且该LCU是条带段中的最后一个LCU时,上下文存储单元26可存储用于该LCU的上下文变量。
不论当前条带段是独立条带段还是非独立条带段,当非独立条带段可被包括在画面中时,用于LCU的上下文变量可被存储。
当多个条带段被包括在画面中时,可将当前条带段中存储的上下文变量用于对在当前条带段之后紧接着的非独立条带段中的第一LCU的上下文变量进行熵编码。
在操作27,符号恢复单元24可通过使用在操作23确定的语法元素的值来恢复LCU的符号。
视频熵解码设备20可基于从比特流的条带段头获得的第三信息来确定条带段中所包括的子集的入口点的数量。
视频熵解码设备20可通过使用以下偏移来确定每个入口点的位置,其中,所述偏移是比由关于根据每个入口点的偏移的第四信息所指示的数字大1的数字,其中,第四信息是从比特流的条带段头获得的。因此,由于视频熵解码设备20可准确地确定用于每个子集(诸如条带段、并行块或LCU的列)的入口点,因此可准确地确定将获得附近LCU的上下文变量的熵同步点。
视频熵解码设备20可通过使用在操作21至27针对每个条带段解析的LCU的编码符号,按光栅扫描顺序来顺序地对每个LCU执行解码。
视频熵解码设备20可独立于其它并行块对每个并行块单独地执行解码。可根据并行块顺序地对当前并行块中包括的LCU进行解码。
因此,视频熵解码设备20可通过使用针对每个条带段解析的LCU的编码符号,按光栅扫描顺序来顺序地对每个LCU执行解码。
此外,当前条带段中所包括的LCU之中的包括在预定并行块中的LCU可根据当前并行块中的解码顺序被解码。
当当前条带段的所有LCU属于当前并行块时,视频熵解码设备20可在当前并行块中按光栅扫描顺序对当前条带段中所包括的多个LCU进行解码。在此情况下,当前条带段没有横跨当前并行块的边界。视频熵解码设备20可顺序地对每个并行块中包括的至少一个条带段进行解码,并可按光栅扫描顺序对每个条带段中包括的多个块进行解码。
此外,即使当前条带段包括至少一个并行块时,视频熵解码设备20仍可在当前并行块中按当前并行块的LCU的光栅扫描顺序对当前条带段中所包括的LCU之中的当前并行块的LCU执行解码。
可通过使用编码符号(诸如根据LCU被解析的帧内样点、运动矢量和编码模式信息)来执行画面内预测。通过画面内预测,可通过将先前编码符号的恢复值和当前编码符号与先前编码符号之间的差值进行合成来确定当前编码符号的恢复值。此外,可通过将在当前样点之前恢复的邻近样点的恢复值和当前样点与先前样点之间的差值进行合成来确定当前样点的恢复值。
可通过反量化、逆变换和帧内预测/运动补偿来执行使用LCU的编码符号的解码操作。例如,可通过对每个LCU的编码符号执行反量化来恢复变换单元的变换系数,可通过对变换单元的变换系数执行逆变换来恢复预测单元的残差信息。可通过使用残差信息中的帧内样点来执行帧内预测。此外,可通过运动补偿来恢复当前预测单元的样点,其中,运动补偿将残差信息与由运动矢量指示的另一个恢复的预测单元进行合成。此外,可对LCU执行SAO补偿和环路滤波。
因此,视频熵解码设备20可根据并行块中的解码顺序来顺序地对每个条带段和每个并行块的LCU进行解码。
根据示例性实施例,当并行块包括至少一个条带段时,可通过对每个条带段的LCU进行解码并组合条带段的恢复结果来恢复一个并行块。
此外,根据示例性实施例,当条带段包括至少一个并行块时,可通过对每个并行块的LCU进行解码并组合并行块的恢复结果来恢复一个条带段。
视频熵解码设备20可恢复由恢复的并行块或恢复的条带段组成的画面。
根据图1a、图1b、图2a和图2b的熵编码/解码方法,当在当前画面中可使用非独立条带段时,在完成对每个条带段的最后一个LCU的熵编码(熵解码)之后,上下文变量可被存储。因此,即使当先前条带段是独立条带段时,可从先前编码的独立条带段中的最后一个LCU的上下文变量获得对于下一个非独立条带段而言必需的上下文变量的初始变量。
此外,由于指示比子集偏移小1的数字的信息可被提供给条带段以有效地通知用于熵编码/熵解码的上下文变量的同步点,因此条带段的数据大小可被减小。
现在将参照图3和图4来解释条带段与并行块之间的关系,其中,条带段和并行块是由根据示例性实施例的视频熵编码设备10和视频熵解码设备20使用的子域。
图3是示出画面301中的并行块和LCU的示图。
当对通过沿垂直方向和水平方向中的至少一个方向划分画面301而产生的每个域独立地执行编码和解码时,每个域可被称为并行块。为了通过使用高清晰度(HD)或超高清晰度(UHD)视频的大量数据来实时地执行处理,可通过将画面划分为至少一个列和至少一个行来形成并行块,并且可根据并行块来执行编码/解码。
由于画面301中的每个并行块是编码/解码被单独执行的空间域,因此可选择性地仅对期望被编码/解码的并行块进行编码/解码。
在图3中,画面301可按列边界321和323以及行边界311和313被划分为并行块。被列边界312和323之一以及行边界311和313之一包围的域是并行块。
当画面301被划分为并行块并被编码时,关于列边界321和323以及行311和313的位置的信息可被包含在SPS或PPS中,并通过SPS或PPS被发送。当画面301被解码时,可从SPS或PPS解析关于列边界321和323和行边界311和313的位置的信息,可并行块执行解码,并且画面301的子域可被恢复,可通过使用关于列边界321和323以及行边界311和313的信息来将子域恢复为一个画面301。
将画面301划分为LCU,并对块执行编码/解码。因此,通过使用列边界321和323以及行边界311和313来划分画面301而形成的每个并行块可包括LCU。由于对画面301进行划分的列边界321和323以及行边界311和313经过相邻LCU之间的边界,因此每个LCU不被划分。因此,每个并行块可包括M(M是整数)个LCU。
因此,当对画面301的并行块执行处理时,可对每个并行块中的LCU执行编码/解码。图3中的每个LCU中的数字表示并行块中LCU的扫描顺序,即,针对编码或解码来执行处理的顺序。
并行块与条带段和条带的不同之处可在于:编码/解码在并行块之间是独立地执行的。现在将参照图4来详细解释条带段和条带。
图4是示出画面401中的条带段和LCU的示图。
画面401被划分为多个LCU。在图4中,画面401沿水平方向被划分为13个LCU并沿垂直方向被划分为9个LCU,即,总共117个LCU。每个LCU可被划分为具有树结构的编码单元并可被编码/解码。
画面401被边界线411划分为上方条带和下方条带(即,两个条带).此外,画面401被边界线421、423和411划分为条带段431、433、435和441。
条带段431、433、435和441可被分类为非独立条带段和独立条带段。在非独立条带段中,在针对预定条带段的源编码和熵编码中所使用或产生的信息可被参考以用于对另一条带段进行源编码和熵编码。类似地,在解码期间,在针对非独立条带段中的预定条带段的源解码中被使用或恢复的信息以及在针对非独立条带段中的预定条带段的熵解码中的解析信息可被参考以用于对另一条带段进行熵解码和源解码。
在独立条带段中,在对条带段执行的源编码和熵编码中所使用或产生的信息完全不进行参考,并且会被独立编码。类似地,在解码期间,对于独立条带段的熵解码和源解码,完全不使用另一条带段的解析的信息和恢复信息。
可获得关于条带段是非独立条带段还是独立条带段的信息,并且可通过条带段头来发送该信息。当画面301将被解码时,可从条带段头解析关于条带段类型的信息,并且可根据条带段类型来确定当前条带段是独立于另一条带段被解码还是通过参考条带段被恢复。
具体地,无法通过从之前的条带段的头信息来推断以确定独立条带段的条带段头的语法元素的值(即,头信息)。相反,可通过从之前的条带段的头信息来推断以确定非独立条带段的条带段头的头信息。
每个条带可包括N(N是整数)个LCU。此外,一个条带可包括至少一个条带段。当一个条带仅包括一个条带段时,该条带可包括独立条带段。此外,一个条带可包括一个独立条带段和位于该独立条带段之后的至少一个非独立条带段。可通过同一访问单元来发送/接收一个条带中所包括的至少一个条带段。
画面410的上方条带包括条带段421以及条带段433和435,其中,条带段421是一个独立条带段,条带段433和435是两个非独立条带段。画面410的下方条带仅包括条带段441,其中,条带段441是一个独立条带段。
现在将参照图5至图7详细解释通过熵解码来解析符号的处理。
图5是根据示例性实施例的CABAC解析操作50的流程图。
根据示例性实施例,当视频熵解码设备20执行CABAC解码时,可通过CABAC解析操作50来解析用于预定语法元素的符号。
在操作511,视频熵解码设备20确定当前将被解析的语法元素是否是子集(诸如一列条带段、并行块或LCU)中的第一语法元素(即,被首先解析的语法元素)。
当在操作511确定当前将被解析的语法元素是第一语法元素时,CABAC解析操作50进行到操作513。在操作513,上下文内部变量被初始化。上下文内部变量可以是用于当前上下文元素的上下文索引和上下文表。上下文内部变量可被确定为预设的默认值。
在操作521,视频熵解码设备20可从比特流获得指示当前语法元素的二进制位串。在操作523和524,二进制位串的第一二进制位索引可被设置为-1,并且每当一个比特被添加到二进制位串时,二进制位索引就会增加1。
在操作527,视频熵解码设备20可获得与语法元素的当前二进制位索引相应的上下文变量。例如,与当前二进制位索引相应的上下文变量可包括上下文表、上下文索引和旁路标志。关于上下文变量的预设数据可被预先存储在视频熵解码设备20中以与每个语法元素的每个二进制位索引相应。可基于预先存储的数据来选择与当前语法元素的二进制位索引相应的上下文变量。
在操作529,视频熵解码设备20可对与二进制位串的上下文变量相应的比特串进行解码。可基于关于旁路标志的数据来确定被分配给当前二进制位索引的旁路状态,其中,旁路标志是根据基于语法元素的每个二进制位索引而被预设的。可基于根据每个语法元素被当前编码的数据单元(例如,编码单元、变换单元或预测单元)的属性(例如,数据单元的扫描索引、颜色分量索引或数据单元的尺寸)或当前状态来确定上下文索引。可在上下文表中确定与当前上下文索引和旁路状态相应的比特串。
在操作531,视频熵解码设备20可将包含当前语法元素中可用的比特串的数据与在操作529确定的当前比特串进行比较。当当前比特串不属于比特串数据时,CABAC解析操作50可返回操作525以将二进制位索引增加1,并返回操作527和529以确定用于通过添加一个比特而获得的二进制位串的上下文变量并对比特串进行解码。
当在操作531确定在操作529确定的当前比特串属于用于语法元素的比特串数据时,CABAC解析操作50进行到操作533。在操作533,可确定当前语法元素是否是指示PCM模式的信息“pcm_flag”并且语法元素值是否指示PCM模式。当在操作529确定单元是PCM模式下的LCU时,CABAC解析操作50进行到操作535。在操作535,CABAC解析操作50可被初始化。
当在操作533确定模式不是PCM模式时,CABAC解析操作50进行到操作537。在操作537,可确定当前语法元素是否是当前子集(例如,LCU或条带段)中的最后一个语法元素,即,是否是将被最后解析的对象。当在操作537确定当前语法元素是最后一个语法元素时,CABAC解析操作50进行到操作539。在操作539,在当前LCU中被最后更新的上下文变量可被存储。
当完成对上下文变量的存储操作或者当前语法元素不是最后一个语法元素时,可结束解析当前语法元素的处理。
在操作539存储的上下文变量可被用于对另一子集进行熵解码。图6a是用于解释使用存储的上下文变量来进行熵解码的示图。
当子集是每个LCU行时,可通过使用先前LCU行的最终上下文变量来确定当前LCU行的初始上下文变量。
例如,图像60中的当前LCU行的第一个LCU的初始上下文变量可被确定为位于当前LCU行正上方的LCU行中的最后一个LCU的最终上下文变量,即,可与位于当前LCU行正上方的LCU行中的最后一个LCU的最终上下文变量同步。因此,当第一LCU行的第一个LCU61的初始上下文变量可被设置为默认上下文变量时,第二LCU行的第一个LCU63的初始上下文变量631可被确定为第一LCU行的最后一个LCU62的最终上下文变量629,第三LCU行的第一个LCU65的初始上下文变量651可被确定为第二LCU行的最后一个LCU64的最终上下文变量649。
如果同步距离是1,则上下文存储单元26可将上方LCU行的第二个LCU的上下文变量用于对当前LCU的上下文变量进行同步。因此,当完成对上方LCU行的第二个LCU的更新操作并且最终上下文变量被确定时,可存储该最终上下文变量,并且通过使用存储的上方LCU行的最终上下文变量来确定当前LCU行的LCU的上下文变量。
图6b是根据示例性实施例的CABAC解析操作50中的存储上下文变量的操作539的详细流程图。
在操作551,上下文存储单元16或26可确定当前LCU是否是当前子集中的第二个LCU并且在当前画面中是否必须执行对上下文变量的同步。当在操作551确定需要对上下文变量进行同步并且当前LCU是第二个LCU时,操作539进行到操作553。在操作553,上下文存储单元16或26可存储用于波前并行处理(WPP)的当前LCU的最终上下文变量。在WPP,如图6a中所示,当同步距离是1时,当前LCU行的第一个LCU的上下文变量可与在上方LCU行的第二个LCU中存储的上下文变量同步。
在操作561,上下文存储单元16或26可确定当前LCU是否是当前条带段中的最后一个LCU并且非独立条带段是否可存在于当前画面中。当在操作561中确定可存在非独立条带段并且当前条带段是最后一个条带段时,操作539可进行到操作563。在操作563,上下文存储单元16或26可存储当前LCU的最终上下文变量以用于随后的非独立条带段。
图7是示出根据示例性实施例的条带段头71的语法的示图。
视频熵解码设备20可从条带段头71获得关于当前条带段的入口点偏移的信息。详细地,在信息72中,当在包括当前条带段的画面中的条带段满足关于存在并行块的可能性“tiles_enabled_flag”的条件以及关于上下文变量根据LCU被同步的可能性“entropy_coding_sync_enabled_flag”的条件中的至少一个条件时,条带段头71可包含指示当前条带段中所包括的子集的入口点的数量的信息73“num_entry_point_offsets”。此外,可根据入口点来分配用于每个入口点74的信息“entry_point_offset_minus1[i]”75,其中,信息“entry_point_offset_minus1[i]”75指示比根据每个实际入口点的偏移小1的数字。
当存在两个或更多个子集时,由于子集偏移必须大于0,因此可通过从实际子集偏移减去1来获得入口点偏移信息“entry_point_offset_minus1[i]”。因此,实际子集偏移可以是比由入口点偏移信息“entry_point_offset_minus1[i]”指示的数字大1的值。
可通过使用被分配给每个子集的入口点偏移信息“entry_point_offset_minus1[i]”,从先前子集到当前子集对子集偏移进行求和来确定当前子集的第一字节。因此,在将比由从先前子集到当前子集的子集的入口点偏移信息“entry_point_offset_minus1[i]”指示的数字大1的值进行求和之后所获得的值可被确定为当前子集的第一字节。
构成每个子集的字节的索引开始于0,并且指示第一字节的字节索引是0。因此,可通过将当前子集的第一字节与由被分配给当前子集的入口点偏移信息“entry_point_offset_minus1[i]”所指示的数字进行求和来确定当前子集的最后一个字节。
在根据示例性实施例的视频熵编码设备10和根据示例性实施例的视频熵解码设备20中,视频数据被划分出的块是LCU,每个LCU被划分为如上所述的具有树结构的编码单元。现在将参照图8至图20来解释根据示例性实施例的基于LCU和具有树结构的编码单元的视频编码方法和设备以及视频解码方法和设备。
图8是根据本发明的示例性实施例的基于具有树结构的编码单元的视频编码设备100的框图。
涉及基于具有树结构的编码单元的视频预测的视频编码设备100包括编码单元确定器120和输出单元130。为便于解释,在下文中,根据示例性实施例的涉及基于具有树结构的编码单元的视频预测的视频编码设备100被称为“视频编码设备100”。
编码单元确定器120可基于图像的当前画面的LCU来划分当前画面,其中,LCU是具有最大尺寸的编码单元。如果当前画面大于LCU,则可将当前画面的图像数据划分为至少一个LCU。根据本发明的示例性实施例的LCU可以是尺寸为32×32、64×64、128×128、256×256等的数据单元,其中,数据单元的形状是宽度和长度为2的若干次方的正方形。
根据示例性实施例的编码单元可由最大尺寸和深度表征。深度表示编码单元从LCU被空间划分的次数,并且随着深度加深,根据深度的较深层编码单元可从LCU被划分到最小编码单元。LCU的深度为最高深度,最小编码单元的深度为最低深度。由于随着LCU的深度加深,与每个深度相应的编码单元的尺寸减小,因此与更高深度相应的编码单元可包括多个与更低深度相应的编码单元。
如上所述,当前画面的图像数据根据编码单元的最大尺寸被划分为LCU,并且每个LCU可包括根据深度被划分的较深层编码单元。由于根据深度对根据本发明的示例性实施例的LCU进行划分,因此可根据深度分层地对包括在LCU中的空间域的图像数据进行分类。
可预先设置编码单元的最大深度和最大尺寸,其中,所述最大深度和最大尺寸限制LCU的高度和宽度被分层划分的总次数。
编码单元确定器120对通过根据深度对LCU的区域进行划分而获得的至少一个划分区域进行编码,并且根据所述至少一个划分区域来确定用于输出最终编码的图像数据的深度。换言之,编码单元确定器120通过根据当前画面的LCU以根据深度的较深层编码单元对图像数据进行编码,并选择具有最小编码误差的深度,来确定编码深度。将确定的编码深度和根据确定的编码深度的编码的图像数据输出到输出单元130。
基于与等于或低于最大深度的至少一个深度相应的较深层编码单元,对LCU中的图像数据进行编码,并且基于每个较深层编码单元比较对图像数据进行编码的结果。在对较深层编码单元的编码误差进行比较之后,可选择具有最小编码误差的深度。可针对每个LCU选择至少一个编码深度。
随着编码单元根据深度而被分层地划分以及随着编码单元的数量增加,LCU的尺寸被划分。另外,即使在一个LCU中编码单元与同一深度相应,仍通过分别测量每个编码单元的图像数据的编码误差来确定是否将与同一深度相应的每个编码单元划分到更低深度。因此,即使图像数据被包括在一个LCU中,编码误差可根据所述一个LCU中的区域而不同,因此编码深度可根据图像数据中的区域而不同。因此,可在一个LCU中确定一个或更多个编码深度,并且可根据至少一个编码深度的编码单元来对LCU的图像数据进行划分。
因此,编码单元确定器120可确定包括在LCU中的具有树结构的编码单元。根据示例性实施例的“具有树结构的编码单元”包括LCU中包括的所有较深层编码单元中的与确定为编码深度的深度相应的编码单元。可根据LCU的同一区域中的深度来分层地确定编码深度的编码单元,并可在不同区域中独立地确定编码深度的编码单元。类似地,可与另一区域的编码深度独立地确定当前区域中的编码深度。
根据示例性实施例的最大深度是与从LCU到最小编码单元的划分次数相关的索引。根据本发明的示例性实施例的第一最大深度可表示从LCU到最小编码单元的总划分次数。根据示例性实施例的第二最大深度可表示从LCU到最小编码单元的深度等级的总数。例如,当LCU的深度是0时,对LCU划分一次的编码单元的深度可被设置为1,对LCU划分两次的编码单元的深度可被设置为2。这里,如果最小编码单元是LCU被划分四次后的编码单元,则存在深度0、1、2、3和4的5个深度等级,并因此第一最大深度可被设置为4,第二最大深度可被设置为5。
可对LCU执行预测编码和变换。还根据LCU,基于根据等于或小于最大深度的深度的较深层编码单元来执行预测编码和变换。
由于每当根据深度对LCU进行划分时,较深层编码单元的数量增加,因此对随着深度加深而产生的所有较深层编码单元必须执行包括预测编码和变换的编码。为了便于解释,在至少一个LCU中,现在将基于当前深度的编码单元来描述预测编码和变换。
根据示例性实施例的视频编码设备100可不同地选择用于对图像数据进行编码的数据单元的尺寸或形状。为了对图像数据进行编码,执行诸如预测编码、变换和熵编码的操作,此时,可针对所有操作使用相同的数据单元,或者可针对每个操作使用不同的数据单元。
例如,视频编码设备100不仅可选择用于对图像数据进行编码的编码单元,还可选择不同于编码单元的数据单元,以便对编码单元中的图像数据执行预测编码。
为了在LCU中执行预测编码,可基于与编码深度相应的编码单元(即,基于不再被划分为与更低深度相应的编码单元的编码单元)来执行预测编码。以下,不再被划分且成为用于预测编码的基本单元的编码单元现在将被称为“预测单元”。通过划分预测单元而获得的分区可包括预测单元或通过对预测单元的高度和宽度中的至少一个进行划分而获得的数据单元。分区是编码单元的预测单元被划分的数据单元,并且预测单元可以是具有与编码单元相同的尺寸的分区。
例如,当2N×2N(其中,N是正整数)的编码单元不再被划分时,编码单元成为2N×2N的预测单元,并且分区的尺寸可以是2N×2N、2N×N、N×2N或N×N。分区类型的示例包括通过对预测单元的高度或宽度进行对称地划分而获得的对称分区、通过对预测单元的高度或宽度进行非对称地划分(诸如,1:n或n:1)而获得的分区、通过对预测单元进行几何地划分而获得的分区、以及具有任意形状的分区。
预测单元的预测模式可以是帧内模式、帧间模式和跳过模式中的至少一个。例如,可对2N×2N、2N×N、N×2N或N×N的分区执行帧内模式或帧间模式。另外,可仅对2N×2N的分区执行跳过模式。可对编码单元中的一个预测单元独立地执行编码,从而选择具有最小编码误差的预测模式。
根据示例性实施例的视频编码设备100不仅可基于用于对图像数据进行编码的编码单元还可基于与编码单元不同的数据单元,来对编码单元中的图像数据执行变换。为了在编码单元中执行变换,可基于具有小于或等于编码单元的尺寸的数据单元来执行变换。例如,用于变换的数据单元可包括帧内模式的数据单元和帧间模式的数据单元。
以与根据树结构的编码单元类似的方式,编码单元中的变换单元可被递归地划分为更小尺寸的区域。因此,可基于根据变换深度的根据树结构的变换单元,对编码单元中的残差进行划分。
还可在变换单元中设置变换深度,其中,变换深度指示通过对编码单元的高度和宽度进行划分而达到变换单元的划分次数。例如,在2N×2N的当前编码单元中,当变换单元的尺寸是2N×2N时,变换深度可以是0,当变换单元的尺寸是N×N时,变换深度可以是1,当变换单元的尺寸是N/2×N/2时,变换深度可以是2。换句话说,还可根据变换深度设置根据树结构的变换单元。
根据与编码深度相应的编码单元的编码信息不仅要求关于编码深度的信息,还要求关于与预测编码和变换相关的信息的信息。因此,编码单元确定器120不仅确定具有最小编码误差的编码深度,还确定预测单元中的分区类型、根据预测单元的预测模式以及用于变换的变换单元的尺寸。
下面将参照图10至图20详细描述根据示例性实施例的LCU中的具有构的编码单元以及确定预测单元/分区和变换单元的方法。
编码单元确定器120可通过使用基于拉格朗日乘数的率失真优化,来测量根据深度的较深层编码单元的编码误差。
输出单元130在比特流中输出LCU的图像数据和关于根据编码深度的编码模式的信息,其中,所述LCU的图像数据基于由编码单元确定器120确定的至少一个编码深度而被编码。
可通过对图像的残差数据进行编码来获得编码图像数据。
关于根据编码深度的编码模式的信息可包括关于编码深度的信息、关于预测单元中的分区类型的信息、关于预测模式的信息和关于变换单元的尺寸的信息。
可通过使用根据深度的划分信息来定义关于编码深度的信息,其中,根据深度的划分信息指示是否对更低深度而不是当前深度的编码单元执行编码。如果当前编码单元的当前深度是编码深度,则对当前编码单元中的图像数据进行编码并输出,因此可将划分信息定义为不将当前编码单元划分到更低深度。可选地,如果当前编码单元的当前深度不是编码深度,则对更低深度的编码单元执行编码,并因此可将划分信息定义为对当前编码单元进行划分来获得更低深度的编码单元。
如果当前深度不是编码深度,则对被划分到更低深度的编码单元的编码单元执行编码。由于更低深度的至少一个编码单元存在于当前深度的一个编码单元中,因此对更低深度的每个编码单元重复执行编码,并因此可对具有相同深度的编码单元递归地执行编码。
由于针对一个LCU确定具有树结构的编码单元,并且针对编码深度的编码单元确定关于至少一个编码模式的信息,因此可针对一个LCU确定关于至少一个编码模式的信息。另外,由于根据深度对图像数据进行分层划分,因此LCU的图像数据的编码深度可根据位置而不同,因此可针对图像数据设置关于编码深度和编码模式的信息。
因此,输出单元130可将关于相应的编码深度和编码模式的编码信息分配给包括在LCU中的编码单元、预测单元和最小单元中的至少一个。
根据示例性实施例的最小单元是通过将构成最低深度的最小编码单元划分为4份而获得的正方形数据单元。可选择地,根据示例性实施例的最小单元可以是可包括LCU中所包括的所有编码单元、预测单元、分区单元和变换单元中的最大正方形数据单元。
例如,通过输出单元130输出的编码信息可被分类为根据较深层编码单元的编码信息和根据预测单元的编码信息。根据较深层编码单元的编码信息可包括关于预测模式的信息和关于分区尺寸的信息。根据预测单元的编码信息可包括关于帧间模式的估计方向的信息、关于帧间模式的参考图像索引的信息、关于运动矢量的信息、关于帧内模式的色度分量的信息、以及关于帧内模式的插值方法的信息。
根据画面、条带或GOP定义的关于编码单元的最大尺寸的信息和关于最大深度的信息可被插入到比特流的头、SPS或PPS中。
还可通过比特流的头、SPS或PPS来输出关于针对当前视频允许的变换单元的最大尺寸的信息、以及关于变换单元的最小尺寸的信息。输出单元130可对与预测相关的参考信息、预测信息和条带类型信息进行编码并输出。
在根据最简单的示例性实施例的视频编码设备100中,较深层编码单元可以是通过将更高深度的编码单元(更高一层)的高度或宽度划分成两份而获得的编码单元。换言之,当当前深度的编码单元的尺寸是2N×2N时,更低深度的编码单元的尺寸是N×N。另外,尺寸为2N×2N的具有当前深度的编码单元可包括最多4个具有更低深度的编码单元。
因此,视频编码设备100可基于考虑当前画面的特征而确定的LCU的尺寸和最大深度,通过针对每个LCU确定具有最优形状和最优尺寸的编码单元来形成具有树结构的编码单元。另外,由于可通过使用各种预测模式和变换中的任意一个对每个LCU执行编码,因此可考虑各种图像尺寸的编码单元的特征来确定最优编码模式。
因此,如果以传统宏块对具有高的分辨率或大数据量的图像进行编码,则每个画面的宏块的数量极度增加。因此,针对每个宏块产生的压缩信息的条数增加,因此难以发送压缩的信息,并且数据压缩效率降低。然而,通过使用根据示例性实施例的视频编码设备100,由于在考虑图像的尺寸的同时增加编码单元的最大尺寸,并同时在考虑图像的特征的同时调整编码单元,因此可提高图像压缩效率。
根据示例性实施例的视频编码设备100确定每个LCU的树结构的编码单元,并产生作为对每个编码单元所执行的编码的结果的符号。根据示例性实施例的视频熵编码设备10可对每个LCU的符号执行熵编码。具体地,针对通过划分画面而产生的每个并行块或条带段,视频熵编码设备10可根据包括沿水平方向连续排列的LCU的一行LCU对每个LCU执行熵编码。此外,视频编码设备10可同时对两行或更多行LCU执行并行熵编码。
视频熵编码设备10可通过对经由对LCU执行编码而确定的符号执行二值化来产生符号的比特串。可确定与LCU的符号相应的语法元素值的每个二进制位索引的上下文变量,并且可基于语法元素的上下文变量来确定指示语法元素值的二进制位串。视频熵编码设备10可采用由在用于当前语法元素值的上下文表中确定的当前上下文变量所指示的二进制位串。
在针对LCU形成所有语法元素的二进制位串之后,视频熵编码设备10可确定是否存储在该LCU中确定的上下文变量。当语法元素是LCU中的最后一个语法元素,非独立条带段可被包括在包括该LCU的画面中,并且该LCU是条带段中的最后一个LCU时,用于该LCU的上下文变量可被存储。
当非独立条带段可被包括在画面中时,不论条带段是独立条带段还是非独立条带段,上下文存储单元16可存储用于LCU的上下文变量。
当多个条带段被包括在画面中时,可将当前条带段中存储的上下文变量用于对在当前条带段之后紧接着的非独立条带段中的第一个LCU的上下文变量的熵编码。
图9是根据本发明的示例性实施例的基于具有树结构的编码单元的视频解码设备200的框图。
根据示例性实施例的涉及基于具有树结构的编码单元的视频预测的视频解码设备200包括接收器210、图像数据和编码信息提取器220和图像数据解码器230。为了便于解释,在下文中,根据示例性实施例的涉及基于具有树结构的编码单元的视频解码设备200被称为“视频解码设备200”。
用于视频解码设备200的解码操作的各种术语(诸如编码单元、深度、预测单元、变换单元和关于各种编码模式的信息)的定义与参照图8和视频编码设备100描述的定义相同。
接收器210接收和解析编码视频的比特流。图像数据和编码信息提取器220从解析的比特流,针对每个编码单元提取编码图像数据,并将提取的图像数据输出到图像数据解码器230,其中,编码单元具有根据每个LCU的树结构。图像数据和编码信息提取器220可从关于当前画面的头、SPS或PPS提取关于当前画面的编码单元的最大尺寸的信息。
另外,图像数据和编码信息提取器220从解析的比特流,根据每个LCU,提取关于具有树结构的编码单元的编码深度和编码模式的信息。提取的关于编码深度和编码模式的信息被输出到图像数据解码器230。换言之,比特串中的图像数据被划分为LCU,使得图像数据解码器230针对每个LCU对图像数据进行解码。
可针对关于与编码深度相应的至少一个编码单元的信息设置关于根据LCU的编码深度和编码模式的信息,关于编码模式的信息可包括关于与编码深度相应的相应编码单元的分区类型的信息、关于预测模式的信息和关于变换单元的尺寸的信息。另外,根据深度的划分信息可被提取为关于编码深度的信息。
由图像数据和编码信息提取器220提取的关于根据每个LCU的编码深度和编码模式的信息是关于这样的编码深度和编码模式的信息:该编码深度和编码模式被确定为在编码器(诸如,视频编码设备100)根据每个LCU对根据深度的每个较深层编码单元重复地执行编码时产生最小编码误差。因此,视频解码设备200可通过根据产生最小编码误差的编码深度和编码模式对图像数据进行解码来恢复图像。
由于关于编码深度和编码模式的编码信息可被分配给相应的编码单元、预测单元和最小单元中的预定数据单元,因此图像数据和编码信息提取器220可根据预定数据单元,提取关于编码深度和编码模式的信息。如果关于相应LCU的编码深度和编码模式的信息根据预定数据单元被记录,则可将被分配相同的关于编码深度和编码模式的信息的预定数据单元推断为是包括在同一LCU中的数据单元。
图像数据解码器230基于关于根据LCU的编码深度和编码模式的信息,通过对每个LCU中的图像数据进行解码,来恢复当前画面。换言之,图像数据解码器230可基于提取出的关于包括在每个LCU中的具有树结构的编码单元之中的每个编码单元的分区类型、预测模式和变换单元的信息,对编码的图像数据进行解码。解码处理可包括预测(包含帧内预测和运动补偿)和逆变换。
图像数据解码器230可基于关于根据编码深度的编码单元的预测单元的分区类型和预测模式的信息,根据每个编码单元的分区和预测模式,执行帧内预测或运动补偿。
此外,为了对每个LCU进行逆变换,图像数据解码器230可针对每个编码单元读取关于根据树结构的变换单元的信息,以基于每个编码单元的变换单元来执行逆变换。经过逆变换,可恢复编码单元的空间域的像素值。
图像数据解码器230可通过使用根据深度的划分信息来确定当前LCU的编码深度。如果划分信息指示图像数据在当前深度中不再被划分,则当前深度是编码深度。因此,图像数据解码器230可通过使用关于用于与编码深度相应的每个编码单元的预测单元的分区类型、预测模式和变换单元的尺寸的信息,对当前LCU中的编码数据进行解码。
换言之,可通过观察被分配给编码单元、预测单元和最小单元中的预定数据单元的编码信息集来收集包含包括相同划分信息的编码信息的数据单元,并且收集的数据单元可被认为是将由图像数据解码器230以相同编码模式进行解码的一个数据单元。因此,可通过获得关于每个编码单元的编码模式的信息来对当前编码单元进行解码。
接收器210可包括图2a的视频熵解码设备20。视频熵解码设备20可从接收到的比特流解析多行LCU。
当接收器210从比特流提取第一行LCU和第二行LCU时,第一熵解码器24可通过对第一行LCU执行熵解码来顺序地恢复第一行LCU中的LCU的符号。
视频熵解码设备20可确定用于从比特流获得的LCU的二进制位串和二进制位索引。视频熵解码设备20可存储关于上下文表的数据,其中,上下文表包含用于每个语法元素的二进制位串与上下文变量之间的相互关系。视频熵解码设备20可通过将可基于上下文表而被分配给当前上下文变量中的语法元素的二进制位串与当前确定的二进制位索引中的二进制位串进行比较来确定由当前二进制位串指示的语法元素的值。
当语法元素是LCU中的最后一个语法元素,非独立条带段可被包括在包括该LCU的画面中,并且该LCU是条带段中的最后一个LCU时,视频熵解码设备20可存储用于该LCU的上下文变量。当非独立条带段可被包括在画面中时,不论条带段是独立条带段还是非独立条带段,可存储用于该LCU的上下文变量。
当多个条带段被包括在画面中时,可将当前条带段中存储的上下文变量用于对在当前条带段之后紧接着的非独立条带段中的第一LCU的上下文变量的熵编码。
视频熵解码设备20可通过使用每个语法元素的值来恢复LCU的符号。
因此,视频解码设备200可通过在编码处理期间对每个LCU递归地执行编码来获得关于具有最小编码误差的编码单元的信息,并可使用所述信息来对当前画面进行解码。换句话说,可对每个LCU的被确定为最优编码单元的具有树结构的编码单元的编码图像数据进行解码。
因此,即使当图像具有高分辨率和大数据量时,也可根据编码单元的编码模式和尺寸来有效地对图像数据进行解码和恢复,其中,所述编码单元的编码模式和尺寸是通过使用从编码器发送的关于最优编码模式的信息,根据图像的特性而被自适应地确定的。
图10是用于解释根据本发明的示例性实施例的编码单元的构思的示图。
编码单元的尺寸可被表示为宽度×高度,并且可以是64×64、32×32、16×16和8×8。64×64的编码单元可被划分为64×64、64×32、32×64或32×32的分区,32×32的编码单元可被划分为32×32、32×16、16×32或16×16的分区,16×16的编码单元可被划分为16×16、16×8、8×16或8×8的分区,8×8的编码单元可被划分为8×8、8×4、4×8或4×4的分区。
在视频数据310中,分辨率为1920×1080,编码单元的最大尺寸为64,最大深度为2。在视频数据320中,分辨率为1920×1080,编码单元的最大尺寸为64,最大深度为3。在视频数据330中,分辨率为352×288,编码单元的最大尺寸为16,最大深度为1。图10中示出的最大深度表示从LCU到最小解码单元的划分总次数。
如果分辨率高或数据量大,则编码单元的最大尺寸可能较大,从而不仅提高编码效率,而且准确地反映图像的特征。因此,具有比视频数据330更高分辨率的视频数据310和320的编码单元的最大尺寸可以是64。
由于视频数据310的最大深度是2,因此由于通过对LCU划分两次,深度加深至两层,因此视频数据310的编码单元315可包括长轴尺寸为64的LCU和长轴尺寸为32和16的编码单元。由于视频数据330的最大深度是1,因此由于通过对LCU划分一次,深度加深至一层,因此视频数据330的编码单元335可包括长轴尺寸为16的LCU和长轴尺寸为8的编码单元。
由于视频数据320的最大深度是3,因此由于通过对LCU划分三次,深度加深至3层,因此视频数据320的编码单元325可包括长轴尺寸为64的LCU和长轴尺寸为32、16和8的编码单元。随着深度加深,详细信息可被精确地表示。
图11是根据本发明的示例性实施例的基于编码单元的图像编码器400的框图。
根据示例性实施例的图像编码器400执行视频编码设备100的编码单元确定器120的操作来对图像数据进行编码。换言之,帧内预测器410对当前帧405中的帧内模式下的编码单元执行帧内预测,运动估计器420和运动补偿器425通过使用当前帧405和参考帧495,对当前帧405中的帧间模式下的编码单元分别执行帧间估计和运动补偿。
从帧内预测器410、运动估计器420和运动补偿器425输出的数据通过变换器430和量化器440被输出为量化后的变换系数。量化后的变换系数通过反量化器460和逆变换器470被恢复为空间域中的数据,恢复的空间域中的数据在通过去块单元480和环路滤波单元490后处理之后被输出为参考帧495。量化后的变换系数可通过熵编码器450被输出为比特流455。
为了将图像编码器400应用于视频编码设备100,图像编码器400的所有元件(即,帧内预测器410、运动估计器420、运动补偿器425、变换器430、量化器440、熵编码器450、反量化器460、逆变换器470、去块单元480和环路滤波单元490)在考虑每个LCU的最大深度的同时,基于具有树结构的编码单元中的每个编码单元执行操作。
具体地,帧内预测器410、运动估计器420和运动补偿器425在考虑当前LCU的最大尺寸和最大深度的同时确定具有树结构的编码单元中的每个编码单元的分区和预测模式,变换器430确定具有树结构的编码单元中的每个编码单元中的变换单元的尺寸。
具体地,熵编码器450可与根据示例性实施例的视频熵编码设备10相应。
图12是根据本发明的示例性实施例的基于编码单元的图像解码器500的框图。
解析器510从比特流505解析将被解码的编码图像数据和解码所需的关于编码的信息。编码图像数据通过熵解码器520和反量化器530被输出为反量化的数据,反量化的数据通过逆变换器540被恢复为空间域中的图像数据。
针对空间域中的图像数据,帧内预测器550对帧内模式下的编码单元执行帧内预测,运动补偿器560通过使用参考帧585对帧间模式下的编码单元执行运动补偿。
通过帧内预测器550和运动补偿器560的空间域中的图像数据可在通过去块单元570和环路滤波单元580后处理之后被输出为恢复帧595。另外,通过去块单元570和环路滤波单元580后处理的图像数据可被输出为参考帧585。
为了在视频解码设备200的图像数据解码器230中对图像数据进行解码,图像解码器500可执行在解析器510之后执行的操作。
为了将图像解码器500应用于视频解码设备200,图像解码器500的所有元件(即,解析器510、熵解码器520、反量化器530、逆变换器540、帧内预测器550、运动补偿器560、去块单元570和环路滤波单元580)针对每个LCU基于具有树结构的编码单元执行操作。
具体地,帧内预测器550和运动补偿器560针对具有树结构的每个编码单元确定分区和预测模式,逆变换器540针对每个编码单元确定变换单元的尺寸。具体地,熵解码器520可与根据示例性实施例的视频熵解码设备20相应。
图13是示出根据本发明的示例性实施例的根据深度的较深层编码单元以及分区的示图。
根据示例性实施例的视频编码设备100和根据示例性实施例的视频解码设备200使用分层编码单元以考虑图像的特征。可根据图像的特征自适应地确定编码单元的最大高度、最大宽度和最大深度,或可由用户不同地设置编码单元的最大高度、最大宽度和最大深度。可根据编码单元的预定最大尺寸来确定根据深度的较深层编码单元的尺寸。
在根据示例性实施例的编码单元的分层结构600中,编码单元的最大高度和最大宽度均是64,最大深度是3。在此情况下,最大深度是指编码单元从LCU到最小编码单元被划分的总次数。由于深度沿着分层结构600的垂直轴加深,因此较深层编码单元的高度和宽度均被划分。另外,预测单元和分区沿着分层结构600的水平轴被示出,其中,所述预测单元和分区是对每个较深层编码单元进行预测编码的基础。
换言之,在分层结构600中,编码单元610是LCU,其中,深度为0,尺寸(即,高度乘宽度)为64×64。深度沿着垂直轴加深,存在尺寸为32×32和深度为1的编码单元620、尺寸为16×16和深度为2的编码单元630、尺寸为8×8和深度为3的编码单元640,尺寸为4×4和深度为4的编码单元650。尺寸为4×4和深度为4的编码单元640是最小编码单元。
编码单元的预测单元和分区根据每个深度沿着水平轴被排列。换言之,如果尺寸为64×64和深度为0的编码单元610是预测单元,则可将预测单元划分成包括在编码单元610中的分区,即,尺寸为64×64的分区610、尺寸为64×32的分区612、尺寸为32×64的分区614或尺寸为32×32的分区616。
类似地,可将尺寸为32×32和深度为1的编码单元620的预测单元划分成包括在编码单元620中的分区,即,尺寸为32×32的分区620、尺寸为32×16的分区622、尺寸为16×32的分区624和尺寸为16×16的分区626。
类似地,可将尺寸为16×16和深度为2的编码单元630的预测单元划分成包括在编码单元630中的分区,即,包括在编码度单元630中的尺寸为16×16的分区、尺寸为16×8的分区632、尺寸为8×16的分区634和尺寸为8×8的分区636。
类似地,可将尺寸为8×8和深度为3的编码单元640的预测单元划分成包括在编码单元640中的分区,即,包括在编码单元640中的尺寸为8×8的分区、尺寸为8×4的分区642、尺寸为4×8的分区644和尺寸为4×4的分区646。
最后,作为最小编码单元的深度为4和尺寸为4×4的编码单元650是具有最低深度的编码单元,相应的预测单元可仅被设置为尺寸为4×4的分区。
为了确定构成LCU610的编码单元的至少一个编码深度,根据示例性实施例的视频编码设备100的编码单元确定器120必须对包括在LCU610中的与每个深度相应的编码单元执行编码。
随着深度加深,包括具有相同范围和相同尺寸的数据的根据深度的较深层编码单元的数量增加。例如,需要四个与深度2相应的编码单元来覆盖包括在与深度1相应的一个编码单元中的数据。因此,为了根据深度比较对相同数据进行编码的结果,与深度1相应的编码单元和四个与深度2相应的编码单元均必须被编码。
为了针对多个深度之中的当前深度执行编码,可沿着分层结构600的水平轴,通过对与当前深度相应的编码单元中的每个预测单元执行编码,来针对当前深度,选择最小编码误差。可选地,随着深度沿着分层结构600的垂直轴加深,可通过针对每个深度执行编码来比较根据深度的最小编码误差,以搜索最小编码误差。在编码单元610中的具有最小编码误差的深度和分区可被选为编码单元610的编码深度和分区类型。
图14是用于解释根据本发明的示例性实施例的编码单元710和变换单元720之间的关系的示图。
根据示例性实施例的视频编码设备100或根据示例性实施例的视频解码设备200针对每个LCU,根据具有小于或等于LCU的尺寸的编码单元,对图像进行编码或解码。可基于不大于相应编码单元的数据单元,来选择用于在编码期间进行变换的变换单元的尺寸。
例如,在根据示例性实施例的视频编码设备100或根据示例性实施例的视频解码设备200中,如果编码单元710的尺寸是64×64,则可通过使用尺寸为32×32的变换单元720来执行变换。
此外,可通过对小于64×64的尺寸为32×32、16×16、8×8和4×4的每个变换单元执行变换,来对尺寸为64×64的编码单元710的数据进行编码,然后可选择具有最小编码误差的变换单元。
图15是用于解释根据本发明的示例性实施例的与编码深度相应的编码单元的编码信息的示图。
根据示例性实施例的视频编码设备100的输出单元130可对与编码深度相应的每个编码单元的关于分区类型的信息800、关于预测模式的信息810以及关于变换单元的尺寸的信息820进行编码,并将信息800、信息810和信息820作为关于编码模式的信息来发送。
信息800指示关于通过划分当前编码单元的预测单元而获得的分区的形状的信息,其中,分区是用于对当前编码单元进行预测编码的数据单元。例如,可将尺寸为2N×2N的当前编码单元CU_0划分成以下分区中的任意一个:尺寸为2N×2N的分区802、尺寸为2N×N的分区804、尺寸为N×2N的分区806和尺寸为N×N的分区808。这里,关于分区类型的信息800被设置为指示以下分区之一:尺寸为2N×N的分区804、尺寸为N×2N的分区806和尺寸为N×N的分区808。
信息810指示每个分区的预测模式。例如,信息810可指示对由信息800指示的分区执行的预测编码的模式,即,帧内模式812、帧间模式814或跳过模式816。
此外,信息820指示当对当前编码单元执行变换时所基于的变换单元。例如,变换单元可以是第一帧内变换单元822、第二帧内变换单元824、第一帧间变换单元826或第二帧间变换单元828。
根据示例性实施例的视频解码设备200的图像数据和编码信息提取器220可根据每个较深层编码单元,提取并使用用于解码的信息800、810和820。
图16是示出根据本发明的示例性实施例的根据深度的较深层编码单元的示图。
划分信息可用来指示深度的改变。划分信息指示当前深度的编码单元是否被划分成更低深度的编码单元。
用于对深度为0和尺寸为2N_0×2N_0的编码单元900进行预测编码的预测单元910可包括以下分区类型的分区:尺寸为2N_0×2N_0的分区类型912、尺寸为2N_0×N_0的分区类型914、尺寸为N_0×2N_0的分区类型916和尺寸为N_0×N_0的分区类型918。图16仅示出了通过对称地划分预测单元910而获得的分区类型912至918,但是分区类型不限于此,并且预测单元910的分区可包括非对称分区、具有预定形状的分区和具有几何形状的分区。
根据每种分区类型,对尺寸为2N_0×2N_0的一个分区、尺寸为2N_0×N_0的两个分区、尺寸为N_0×2N_0的两个分区和尺寸为N_0×N_0的四个分区重复地执行预测编码。可对尺寸为2N_0×2N_0、N_0×2N_0、2N_0×N_0和N_0×N_0的分区执行帧内模式和帧间模式下的预测编码。仅对尺寸为2N_0×2N_0的分区执行跳过模式下的预测编码。
如果在分区类型912至916中的一个分区类型中编码误差最小,则可不将预测单元910划分到更低深度。
如果在分区类型918中编码误差最小,则深度从0改变到1以在操作920中划分分区类型918,并对深度为2和尺寸为N_0×N_0的编码单元930重复地执行编码来搜索最小编码误差。
用于对深度为1和尺寸为2N_1×2N_1(=N_0×N_0)的编码单元930进行预测编码的预测单元940可包括以下分区类型的分区:尺寸为2N_1×2N_1的分区类型942、尺寸为2N_1×N_1的分区类型944、尺寸为N_1×2N_1的分区类型946以及尺寸为N_1×N_1的分区类型948。
如果在分区类型948中编码误差最小,则深度从1改变到2以在操作950中划分分区类型948,并对深度为2和尺寸为N_2×N_2的编码单元960重复执行编码来搜索最小编码误差。
当最大深度是d时,根据每个深度的划分操作可被执行直到深度变成d-1时,并且划分信息可被编码直到深度是0到d-2之一时。换句话说,当编码被执行直到在与d-2的深度相应的编码单元在操作970中被划分之后深度是d-1时,用于对深度为d-1和尺寸为2N_(d-1)×2N_(d-1)的编码单元980进行预测编码的预测单元990可包括以下分区类型的分区:尺寸为2N_(d-1)×2N_(d-1)的分区类型992、尺寸为2N_(d-1)×N_(d-1)的分区类型994、尺寸为N_(d-1)×2N_(d-1)的分区类型996和尺寸为N_(d-1)×N_(d-1)的分区类型998。
可对分区类型992至998中的尺寸为2N_(d-1)×2N_(d-1)的一个分区、尺寸为2N_(d-1)×N_(d-1)的两个分区、尺寸为N_(d-1)×2N_(d-1)的两个分区、尺寸为N_(d-1)×N_(d-1)的四个分区重复地执行预测编码,以搜索具有最小编码误差的分区类型。
即使当分区类型998具有最小编码误差时,由于最大深度是d,因此深度为d-1的编码单元CU_(d-1)也不再被划分到更低深度,用于构成当前LCU900的编码单元的编码深度被确定为d-1,并且当前LCU900的分区类型可被确定为N_(d-1)×N_(d-1)。此外,由于最大深度是d,并且具有最低深度d-1的最小编码单元980不再被划分到更低深度,因此不设置最小编码单元980的划分信息。
数据单元999可以是用于当前LCU的“最小单元”。根据示例性实施例的最小单元可以是通过将最小编码单元980划分成4份而获得的正方形数据单元。通过重复地执行编码,根据示例性实施例的视频编码设备100可通过比较根据编码单元900的深度的编码误差来选择具有最小编码误差的深度以确定编码深度,并将相应分区类型和预测模式设置为编码深度的编码模式。
这样,在所有深度1至d中对根据深度的最小编码误差进行比较,并且具有最小编码误差的深度可被确定为编码深度。编码深度、预测单元的分区类型和预测模式可作为关于编码模式的信息被编码并发送。另外,由于编码单元从0的深度被划分到编码深度,因此仅将编码深度的划分信息设置为0,并且将除了编码深度以外的深度的划分信息设置为1。
根据示例性实施例的视频解码设备200的图像数据和编码信息提取器220可提取并使用关于编码单元900的编码深度和预测单元的信息,来对分区912进行解码。根据示例性实施例的视频解码设备200可通过使用根据深度的划分信息,将划分信息为0的深度确定为编码深度,并且使用关于相应深度的编码模式的信息来进行解码。
图17至图19是用于解释根据本发明的示例性实施例的在编码单元1010、预测单元1060和变换单元1070之间的关系的示图。
编码单元1010是LCU中的与由根据示例性实施例的视频编码设备100确定的编码深度相应的具有树结构的编码单元。预测单元1060是每个编码单元1010中的预测单元的分区,变换单元1070是每个编码单元1010的变换单元。
当在编码单元1010中LCU的深度是0时,编码单元1012和1054的深度是1,编码单元1014、1016、1018、1028、1050和1052的深度是2,编码单元1020、1022、1024、1026、1030、1032和1048的深度是3,编码单元1040、1042、1044和1046的深度是4。
在预测单元1060中,通过划分编码单元1010中的编码单元来获得一些编码单元1014、1016、1022、1032、1048、1050、1052和1054。换句话说,编码单元1014、1022、1050和1054中的分区类型的尺寸是2N×N,编码单元1016、1048和1052中的分区类型的尺寸是N×2N,编码单元1032的分区类型的尺寸为N×N。编码单元1010的预测单元和分区小于或等于每个编码单元。
在小于编码单元1052的数据单元中的变换单元1070中,对编码单元1052的图像数据执行变换或逆变换。另外,在尺寸和形状方面,变换单元1070中的编码单元1014、1016、1022、1032、1048、1050、1052和1054不同于预测单元1060中的编码单元1014、1016、1022、1032、1048、1050、1052和1054。换句话说,根据示例性实施例的视频编码设备100和根据示例性实施例的视频解码设备200可对同一编码单元中的数据单元独立地执行帧内预测、运动估计、运动补偿、变换和逆变换。
因此,对LCU的每个区域中的具有分层结构的每个编码单元递归地执行编码来确定最优编码单元,从而可获得具有递归树结构的编码单元。编码信息可包括关于编码单元的划分信息、关于分区类型的信息、关于预测模式的信息和关于变换单元的尺寸的信息。表1示出可由根据示例性实施例的视频编码设备100和根据示例性实施例的视频解码设备200设置的编码信息。
[表1]
根据示例性实施例的视频编码设备100的输出单元130可输出关于具有树结构的编码单元的编码信息,根据示例性实施例的视频解码设备200的图像数据和编码信息提取器220可从接收到的比特流提取关于具有树结构的编码单元的编码信息。
划分信息指示是否将当前编码单元划分成更低深度的编码单元。如果当前深度d的划分信息是0,则当前编码单元不再被划分成更低深度的深度是编码深度,从而可针对所述编码深度来定义关于分区类型、预测模式和变换单元的尺寸的信息。如果当前编码单元根据划分信息被进一步划分,则对更低深度的四个划分编码单元独立地执行编码。
预测模式可以是帧内模式、帧间模式和跳过模式中的一种。可在所有分区类型中定义帧内模式和帧间模式,仅在尺寸为2N×2N的分区类型中定义跳过模式。
关于分区类型的信息可指示通过对称地划分预测单元的高度或宽度而获得的尺寸为2N×2N、2N×N、N×2N和N×N的对称分区类型,以及通过非对称地划分预测单元的高度或宽度而获得的尺寸为2N×nU、2N×nD、nL×2N和nR×2N的非对称分区类型。可通过按1:3和3:1来划分预测单元的高度来分别获得尺寸为2N×nU和2N×nD的非对称分区类型,可通过按1:3和3:1来划分预测单元的宽度来分别获得尺寸为nL×2N和nR×2N的非对称分区类型。
可将变换单元的尺寸设置成帧内模式下的两种类型和帧间模式下的两种类型。换句话说,如果变换单元的划分信息是0,则变换单元的尺寸可以是2N×2N,即当前编码单元的尺寸。如果变换单元的划分信息是1,则可通过对当前编码单元进行划分来获得变换单元。另外,如果尺寸为2N×2N的当前编码单元的分区类型是对称分区类型,则变换单元的尺寸可以是N×N,如果当前编码单元的分区类型是非对称分区类型,则变换单元的尺寸可以是N/2×N/2。
根据示例性实施例的关于具有树结构的编码单元的编码信息可包括与编码深度相应的编码单元、预测单元和最小单元中的至少一个。与编码深度相应的编码单元可包括包含相同编码信息的预测单元和最小单元中的至少一个。
因此,通过比较邻近数据单元的编码信息来确定邻近数据单元是否被包括在与编码深度相应的同一编码单元中。另外,通过使用数据单元的编码信息来确定与编码深度相应的相应编码单元,并因此可确定LCU中的编码深度的分布。
因此,如果基于邻近数据单元的编码信息来对当前编码单元进行预测,则可直接参考并使用与当前编码单元邻近的较深层编码单元中的数据单元的编码信息。
可选地,如果基于邻近数据单元的编码信息来对当前编码单元进行预测,则使用数据单元的编码信息来搜索与当前编码单元邻近的数据单元,并可参考搜索到的邻近编码单元以对当前编码单元进行预测。
图20是用于描述根据表1的编码模式信息的编码单元、预测单元和变换单元之间的关系的示图。
LCU1300包括多个编码深度的编码单元1302、1304、1306、1312、1314、1316和1318。这里,由于编码单元1318是一个编码深度的编码单元,因此划分信息可被设置成0。可将关于尺寸为2N×2N的编码单元1318的分区类型的信息设置成以下分区类型中的一种:尺寸为2N×2N的分区类型1322、尺寸为2N×N的分区类型1324、尺寸为N×2N的分区类型1326、尺寸为N×N的分区类型1328、尺寸为2N×nU的分区类型1332、尺寸为2N×nD的分区类型1334、尺寸为nL×2N的分区类型1336以及尺寸为nR×2N的分区类型1338。
变换单元的划分信息(TU尺寸标记)是一种类型的变换索引。与变换索引相应的变换单元的尺寸可根据编码单元的预测单元类型或分区类型而改变。
例如,当分区类型被设置成对称(即,分区类型1322、1324、1326或1328)时,如果变换单元的TU尺寸标记是0,则设置尺寸为2N×2N的变换单元1342,如果TU尺寸标记是1,则设置尺寸为N×N的变换单元1344。
当分区类型被设置成非对称(即,分区类型1332、1334、1336或1338)时,如果TU尺寸标记是0,则设置尺寸为2N×2N的变换单元1352,如果TU尺寸标记是1,则设置尺寸为N/2×N/2的变换单元1354。
参照图20,TU尺寸标记是具有值0或1的标记,但是TU尺寸标记不限于1比特,并且变换单元可在TU尺寸标记从0开始增加时被分层划分为具有树结构。变换单元的划分信息(TU尺寸标记)可以是变换索引的示例。
在这种情况下,根据示例性实施例,可通过使用变换单元的TU尺寸标记以及变换单元的最大尺寸和最小尺寸来表示实际上已使用的变换单元的尺寸。根据示例性实施例的视频编码设备100能够对最大变换单元尺寸信息、最小变换单元尺寸信息和最大TU尺寸标记进行编码。对最大变换单元尺寸信息、最小变换单元尺寸信息和最大TU尺寸标记进行编码的结果可被插入SPS。根据示例性实施例的视频解码设备200可通过使用最大变换单元尺寸信息、最小变换单元尺寸信息和最大TU尺寸标记来对视频进行解码。
例如,(a)如果当前编码单元的尺寸是64×64并且最大变换单元尺寸是32×32,则(a-1)当TU尺寸标记为0时,变换单元的尺寸可以是32×32,(a-2)当TU尺寸标记为1时,变换单元的尺寸可以是16×16,(a-3)当TU尺寸标记为2时,变换单元的尺寸可以是8×8。
作为另一示例,(b)如果当前编码单元的尺寸是32×32并且最小变换单元尺寸是32×32,则(b-1)当TU尺寸标记为0时,变换单元的尺寸可以是32×32。这里,由于变换单元的尺寸不能够小于32×32,因此TU尺寸标记不能够被设置为除了0以外的值。
作为另一示例,(c)如果当前编码单元的尺寸是64×64并且最大TU尺寸标记为1,则TU尺寸标记可以是0或1。这里,TU尺寸标记不能够被设置为除了0或1以外的值。
因此,如果定义最大TU尺寸标记为“MaxTransformSizeIndex”,最小变换单元尺寸为“MinTransformSize”,当TU尺寸标记为0时的变换单元尺寸为“RootTuSize”,则可通过等式(1)来定义可在当前编码单元中确定的当前最小变换单元尺寸“CurrMinTuSize”:
CurrMinTuSize=max(MinTransformSize,RootTuSize/(2^MaxTransformSizeIndex))
…(1)
与可在当前编码单元中确定的当前最小变换单元尺寸“CurrMinTuSize”相比,当TU尺寸标记为0的变换单元尺寸“RootTuSize”可指示可在系统中选择的最大变换单元尺寸。在等式(1)中,“RootTuSize/(2^MaxTransformSizeIndex)”指示当TU尺寸标记为0时,变换单元尺寸“RootTuSize”被划分了与最大TU尺寸标记相应的次数时的变换单元尺寸,“MinTransformSize”指示最小变换尺寸。因此,“RootTuSize/(2^MaxTransformSizeIndex)”和“MinTransformSize”中较小的值可以是可在当前编码单元中确定的当前最小变换单元尺寸“CurrMinTuSize”。
根据示例性实施例,最大变换单元尺寸RootTuSize可根据预测模式的类型而改变。
例如,如果当前预测模式是帧间模式,则可通过使用以下的等式(2)来确定“RootTuSize”。在等式(2)中,“MaxTransformSize”指示最大变换单元尺寸,“PUSize”指示当前预测单元尺寸。
RootTuSize=min(MaxTransformSize,PUSize)……(2)
也就是说,如果当前预测模式是帧间模式,则当TU尺寸标记为0时的变换单元尺寸“RootTuSize”可以是最大变换单元尺寸和当前预测单元尺寸中较小的值。
如果当前分区单元的预测模式是帧内模式,则可通过使用以下的等式(3)来确定“RootTuSize”。在等式(3)中,“PartitionSize”指示当前分区单元的尺寸:
RootTuSize=min(MaxTransformSize,PartitionSize)……(3)
也就是说,如果当前预测模式是帧内模式,则当TU尺寸标记为0时的变换单元尺寸“RootTuSize”可以是最大变换单元尺寸和当前分区单元的尺寸之中较小的值。
然而,根据分区单元中的预测模式的类型而改变的当前最大变换单元尺寸“RootTuSize”仅是示例,并且本发明不限于此。
根据参照图8至图20描述的基于具有树结构的编码单元的视频编码方法,可针对具有树结构的每个编码单元对空间域的图像数据进行编码。根据基于具有树结构的编码单元的视频解码方法,可针对每个LCU执行解码来恢复空间域的图像数据。因此,可恢复画面和作为画面序列的视频。恢复的视频可由再现设备来再现,可存储在存储介质中,或可通过网络来发送。
根据本发明的实施例可被编写为计算机程序,并可以以使用计算机可读记录介质执行程序的通用数据计算机来实现。计算机可读记录介质的示例包括磁存储介质(例如,ROM、软盘、硬盘等)和光学记录介质(例如,CD-ROM或DVD)。
为了便于解释,涉及参照图1a至图20描述的熵编码方法的视频编码方法将被统称为“根据本发明的视频编码方法”。另外,涉及参照图1a至图20描述的熵解码方法的视频解码方法将被统称为“根据本发明的视频解码方法”。
另外,参照图1a至图20描述的包括熵编码设备10的视频编码设备100以及包括图像编码器400的视频编码设备将被称为“根据本发明的视频编码设备”。另外,以上参照图1a至图20描述的包括熵解码设备20和图像解码器500的视频解码设备200将被称为“根据本发明的视频解码设备”。
现在将详细描述根据示例性实施例的存储程序的计算机可读记录介质(例如,盘26000)。
图21是根据示例性实施例的存储程序的盘26000的物理结构的示图。作为存储介质的盘26000可以是硬盘驱动器、致密盘只读存储器(CD-ROM)盘、蓝光盘或数字多功能盘(DVD)。盘26000包括多个同心磁道Tr,每个同心磁道Tr沿盘26000的圆周方向被划分成特定数量的扇区Se。在盘26000的特定区域中,可分配并存储执行以上所描述的量化参数确定方法、视频编码方法和视频解码方法的程序。
现在将参照图22来描述使用存储用于执行如上所述的视频编码方法和视频解码方法的程序的存储介质来实现的计算机系统。
图22是通过使用盘26000来记录并读取程序的盘驱动器26800的示图。计算机系统27000可经由盘驱动器26800将执行根据本发明的视频编码方法和视频解码方法中的至少一个的程序存储在盘26000中。为了在计算机系统27000中运行存储在盘26000中的程序,可通过使用盘驱动器26800从盘26000读取程序并将程序发送到计算机系统26700。
执行根据本发明的视频编码方法和视频解码方法中的至少一个的程序不仅可被存储在图21或图22中示出的盘26000中,还可被存储在存储卡、ROM卡带或固态驱动器(SSD)中。
以下将描述应用以上所描述的视频编码方法和视频解码方法的系统。
图23是用于提供内容分布服务的内容供应系统11000的整体结构的示图。将通信系统的服务区域划分成预定尺寸的小区,并将无线基站11700、11800、11900和12000分别安装在这些小区中。
内容供应系统11000包括多个独立装置。例如,诸如计算机12100、个人数字助理(PDA)12200、视频相机12300和移动电话12500的多个独立装置经由互联网服务提供商11200、通信网络11400和无线基站11700、11800、11900和12000连接到互联网11100。
然而,内容供应系统11000不限于如图24中所示,并且装置可选择性地被连接到内容供应系统11000。多个独立装置可不经由无线基站11700、11800、11900和12000而直接连接到通信网络11400。
视频相机12300是能够捕捉视频图像的成像装置,例如,数字视频相机。移动电话12500可利用各种协议(例如,个人数字通信(PDC)、码分多址(CDMA)、宽带码分多址(W-CDMA)、全球移动通信系统(GSM)和个人手持电话系统(PHS))中的至少一种通信方法。
视频相机12300可经由无线基站11900和通信网络11400连接到流服务器11300。流服务器11300允许经由视频相机12300从用户接收到的内容经由实时广播被流传输。可使用视频相机12300或流服务器11300来对从视频相机12300接收到的内容进行编码。通过视频相机12300捕捉到的视频数据可经由计算机12100被发送到流服务器11300。
通过相机12600捕捉到的视频数据也可经由计算机12100被发送到流服务器11300。与数码相机类似,相机12600是能够捕捉静止图像和视频图像两者的成像装置。可使用相机12600或计算机12100对通过相机12600捕捉到的视频数据进行编码。可将对视频执行编码和解码的软件存储在可由计算机12100访问的计算机可读记录介质(例如,CD-ROM盘、软盘、硬盘驱动器、SSD或存储卡)中。
如果视频数据通过内置在移动电话12500中的相机被捕捉到,则可从移动电话12500接收视频数据。
还可通过安装在视频相机12300、移动电话12500或相机12600中的大规模集成电路(LSI)系统来对视频数据进行编码。
内容供应系统11000可对由用户使用视频相机12300、相机12600、移动电话12500或另一成像装置所记录的内容数据(例如,在音乐会期间记录的内容)进行编码,并将编码后的内容数据发送到流服务器11300。流服务器11300可将编码后的内容数据以流传输内容的类型发送到请求内容数据的其它客户端。
客户端是能够对编码后的内容数据进行解码的装置,例如,计算机12100、PDA12200、视频相机12300或移动电话12500。因此,内容供应系统11000允许客户端接收并再现编码后的内容数据。此外,内容供应系统11000允许客户端实时接收编码后的内容数据并对编码后的内容数据进行解码和再现,从而能够进行个人广播。
包括在内容供应系统11000中的多个独立装置的编码和解码操作可类似于根据本发明的视频编码设备和视频解码设备的编码和解码操作。
现在将参照图24和图25更加详细地描述包括在根据本发明的示例性实施例的内容供应系统11000中的移动电话12500。
图24示出根据示例性实施例的应用根据本发明的视频编码方法和视频解码方法的移动电话12500的外部结构。移动电话12500可以是智能电话,所述智能电话的功能不受限,并且所述智能电话的大多数功能可被改变或扩展。
移动电话12500包括可与无线基站12000交换射频(RF)信号的内部天线12510,并包括用于显示由相机12530捕捉到的图像或经由天线12510接收到的并被解码的图像的显示屏12520(例如,液晶显示器(LCD)或有机发光二极管(OLED)屏幕)。智能手机12500包括包含有控制按钮和触摸面板的操作面板12540。如果显示屏12520是触摸屏,则操作面板12540还包括显示屏12520的触摸感测面板。移动电话12500包括用于输出语音和声音的扬声器12580或另一类型声音输出单元、以及用于输入语音和声音的麦克风12550或另一类型声音输入单元。移动电话12500还包括用于捕捉视频和静止图像的相机12530,诸如电荷耦合器件(CCD)相机。移动电话12500还可包括:存储介质12570,用于存储通过相机12530捕捉到的、经由电子邮件接收到的、或根据各种方式获得的编码/解码数据(例如,视频或静止图像);插槽12560,存储介质12570经由插槽12560被装入移动电话12500中。存储介质12570可以是闪存,例如,包括在塑料壳中的安全数字(SD)卡或电可擦和可编程只读存储器(EEPROM)。
图25示出移动电话12500的内部结构的示图。为了系统地控制包括显示屏12520和操作面板12540的移动电话12500的部件,供电电路12700、操作输入控制器12640、图像编码单元12720、相机接口12630、LCD控制器12620、图像解码单元12690、复用器/解复用器12680、记录/读取单元12670、调制/解调单元12660和声音处理器12650经由同步总线12730被连接到中央控制器12710。
如果用户操作电源按钮,并从“电源关闭”状态设置为“电源开启”状态,则供电电路12700从电池组向移动电话12500的所有部件供电,从而将移动电话12500设置为操作模式。
中央控制器12710包括中央处理器(CPU)、ROM和RAM。
在移动电话12500将通信数据发送到外部的同时,在中央控制器12710的控制下,由移动电话12500产生数字信号。例如,声音处理器12650可产生数字声音信号,图像编码单元12720可产生数字图像信号,并且消息的文本数据可经由操作面板12540和操作输入控制器12640被产生。当在中央控制器12710的控制下数字信号被传送到调制/解调单元12660时,调制/解调单元12660对数字信号的频带进行调制,并且通信电路12610对频带调制后的数字声音信号执行数模转换(DAC)和频率转换。从通信电路12610输出的发送信号可经由天线12510被发送到语音通信基站或无线基站12000。
例如,当移动电话12500处于通话模式时,在中央控制器12710的控制下,经由麦克风12550获得的声音信号通过声音处理器12650被变换成数字声音信号。数字声音信号可经由调制/解调单元12660和通信电路12610被变换成发送信号,并可经由天线12510被发送。
当文本消息(例如,电子邮件)在数据通信模式下被发送时,文本消息的文本数据经由操作面板12540被输入,并经由操作输入控制器12640被发送到中央控制器12610。在中央控制器12610的控制下,文本数据经由调制/解调单元12660和通信电路12610被变换成发送信号,并经由天线12510被发送到无线基站12000。
为了在数据通信模式下发送图像数据,由相机12530捕捉到的图像数据经由相机接口12630被提供给图像编码单元12720。捕捉到的图像数据可经由相机接口12630和LCD控制器12620被直接显示在显示屏12520上。
图像编码单元12720的结构可与以上描述的视频编码设备100的结构相应。图像编码单元12720可根据以上描述的由视频编码设备100或图像编码器400采用的视频编码方法,将从相机12530接收到的图像数据变换为压缩和编码后的图像数据,并随后将编码后的图像数据输出到复用器/解复用器12680。在相机12530的记录操作期间,由移动电话12500的麦克风12550获得的声音信号可经由声音处理器12650被变换成数字声音数据,并且数字声音数据可被传送到复用器/解复用器12680。
复用器/解复用器12680对从图像编码单元12720接收到的编码后的图像数据与从声音处理器12650接收到的声音数据一起进行复用。对数据进行复用的结果可经由调制/解调单元12660和通信电路12610被变换成发送信号,然后可经由天线12510被发送。
当移动电话12500从外部接收通信数据时,可对经由天线12510接收到的信号执行频率恢复和ADC以将信号变换成数字信号。调制/解调单元12660对数字信号的频带进行调制。根据频带调制后的数字信号的类型,将所述数字信号发送到视频解码单元12690、声音处理器12650或LCD控制器12620。
在通话模式下,移动电话12500对经由天线12510接收到的信号进行放大,并通过对放大后的信号执行频率转换和ADC来获得数字声音信号。在中央控制器12710的控制下,接收到的数字声音信号经由调制/解调单元12660和声音处理器12650被变换成模拟声音信号,并且模拟声音信号经由扬声器12580被输出。
当在数据通信模式下时,接收在互联网网站上访问的视频文件的数据,经由调制/解调单元12660将经由天线12510从无线基站12000接收到的信号输出为复用数据,并将复用数据发送到复用/解复用单元12680。
为了对经由天线12510接收到的复用数据进行解码,复用/解复用单元12680将复用数据解复用成编码后的视频数据流和编码后的音频数据流。经由同步总线12730,编码后的视频数据流和编码后的音频数据流分别被提供给视频解码单元12690和声音处理器12650。
图像解码单元12690的结构可与根据本发明的视频解码设备的结构相应。图像解码单元12690可根据本发明的视频解码方法,对编码后的视频数据进行解码来获得恢复的视频数据,并经由LCD控制器12620将恢复的视频数据提供给显示屏12520。
因此,可将在互联网网站上访问的视频文件的数据显示在显示屏12520上。同时,声音处理器12650可将音频数据变换成模拟声音信号,并将模拟声音信号提供给扬声器12580。因此,也可经由扬声器12580再现在互联网网站上访问的视频文件中包含的音频数据。
移动电话12500或另一类型的通信终端可以是包括根据本发明的视频编码设备和视频解码设备两者的收发终端,可以是仅包括根据本发明的视频编码设备的收发终端,或者可以是仅包括根据本发明的视频解码设备的收发终端。
根据本发明的通信系统不限于以上参照图24描述的通信系统。例如,图26示出根据本发明的采用通信系统的数字广播系统的示图。图26的数字广播系统可通过使用根据本发明的视频编码设备和视频解码设备来接收经由卫星或地面网络发送的数字广播。
具体地,广播站12890通过使用无线电波将视频数据流发送到通信卫星或广播卫星12900。广播卫星12900发送广播信号,广播信号经由家用天线12860被发送到卫星广播接收器。在每个房屋中,可通过TV接收器12810、机顶盒12870或其它装置对编码后的视频流进行解码并再现。
当根据本发明的视频解码设备被实现在再现设备12830中时,再现设备12830可对记录在存储介质12820(诸如盘或存储卡)上的编码后的视频流进行解析和解码,以恢复数字信号。因此,可在例如监视器12840上再现恢复的视频信号。
在被连接到用于卫星/地面广播的天线12860或用于接收有线电视(TV)广播的线缆天线12850的机顶盒12870中,可安装根据本发明的视频解码设备。从机顶盒12870输出的数据也可被再现在TV监视器12880上。
如另一示例,可将根据本发明的视频解码设备安装在TV接收器12810中,而不是机顶盒12870中。
具有适当天线12910的汽车12920可接收从卫星12900或无线基站11700发送的信号。可在安装在汽车12920中的汽车导航系统12930的显示屏上再现解码后的视频。
视频信号可由根据本发明的视频编码设备来编码,然后可被存储在存储介质中。具体地,可由DVD记录器将图像信号存储在DVD盘12960中,或可由硬盘记录器12950将图像信号存储在硬盘中。如另一示例,可将视频信号存储在SD卡12970中。如果硬盘记录器12950包括根据本发明的示例性实施例的视频解码设备,则记录在DVD盘12960、SD卡12970或另一存储介质上的视频信号可在TV监视器12880上被再现。
汽车导航系统12930可不包括图26的相机12530、相机接口12630和图像编码单元12720。例如,计算机12100和TV接收器12810可不被包括在图26的相机12530、相机接口12630和图像编码单元12720中。
图27是示出根据本发明的示例性实施例的使用视频编码设备和视频解码设备的云计算系统的网络结构的示图。
云计算系统可包括云计算服务器14000、用户数据库(DB)14100、多个计算资源14200和用户终端。
响应于来自用户终端的请求,云计算系统经由数据通信网络(例如,互联网)提供多个计算资源14200的点播外包服务。在云计算环境下,服务提供商通过使用虚拟技术组合位于不同的物理位置的数据中心处的计算资源,来为用户提供想要的服务。服务用户不必将计算资源(例如,应用、存储器、操作系统(OS)和安全软件)安装在他/她自己的终端中以使用它们,但可在想要的时间点在通过虚拟技术产生的虚拟空间中从服务中选择和使用想要的服务。
被指定的服务用户的用户终端经由包括互联网和移动电信网络的数据通信网络被连接到云计算服务器14000。可从云计算服务器14100向用户终端提供云计算服务,特别是视频再现服务。用户终端可以是能够被连接到互联网的各种类型的电子装置,例如,桌上型PC14300、智能TV14400、智能电话14500、笔记本计算机14600、便携式多媒体播放器(PMP)14700、平板PC14800等。
云计算服务器14000可组合分布在云网络中的多个计算资源14200,并向用户终端提供组合的结果。所述多个计算资源14200可包括各种数据服务,并可包括从用户终端上载的数据。如上所描述的,云计算服务器14000可通过根据虚拟技术组合分布在不同区域中的视频数据库来向用户终端提供想要的服务。
将关于已经订购云计算服务的用户的用户信息存储在用户DB14100中。用户信息可包括用户的注册信息、地址、姓名和个人信用信息。用户信息还可包括视频的索引。这里,所述索引可包括已经被再现的视频的列表、正在被再现的视频的列表、之前正在被再现的视频的暂停点等。
可在用户装置之间共享存储在用户DB14100中的关于视频的信息。例如,当响应于来自笔记本计算机14600的请求将视频服务提供给笔记本计算机14600时,视频服务的再现历史被存储在用户DB14100中。当从智能电话14500接收到用于再现此视频服务的请求时,云计算服务器14100基于用户DB14100搜索并再现此视频服务。当智能电话14500从云计算服务器14100接收到视频数据流时,通过对视频数据流进行解码来再现视频的处理与以上参照图24描述的移动电话12500的操作类似。
云计算服务器14100可参考存储在用户DB14100中的想要的视频服务的再现历史。例如,云计算服务器14100从用户终端接收用于再现存储在用户DB14100中的视频的请求。如果此视频被再现过,则由云计算服务器14100执行的对此视频进行流传输的方法可根据来自用户终端的请求(即,根据是将从视频的起点还是视频的暂停点开始再现视频)而不同。例如,如果用户终端请求从视频的起点开始再现视频,则云计算服务器14100将从视频的第一帧开始的视频的流数据发送到用户终端。如果用户终端请求从视频的暂停点开始再现视频,则云计算服务器14100将从与暂停点相应的帧开始的视频的流数据发送到用户终端。
在此情况下,用户终端可包括如以上参照图1a至图20描述的视频解码设备。如另一示例,用户终端可包括如以上参照图1a至图20描述的视频编码设备。可选地,用户终端可包括如以上参照图1a至图20描述的视频解码设备和视频编码设备两者。
以上参照图21至图27描述了以上参照图1a至图20描述的根据本发明的视频编码方法、视频解码方法、视频编码设备和视频解码设备的各种应用。然而,根据本发明的各种实施例的将视频编码方法和视频解码方法存储在存储介质中的方法或者将视频编码设备和视频解码设备实现在装置中的方法不限于以上参照图21至图27描述的实施例。
虽然已经参照本发明的示例性实施例具体示出并描述了本发明,实施例和术语仅被用于解释本发明,而不应被解释为限制由权利要求限定的本发明的范围。示例性实施例应被视为仅是说明性意义,而不是限制的目的。因此,本发明的范围不由本发明的详细描述来限定,而由权利要求来限定,并且在该范围内的所有差异都将被认为包括在本发明中。

Claims (4)

1.一种视频解码设备,包括:
获得单元,被配置为从比特流获得关于编码单元的最大尺寸的信息以及指示是否允许在画面中包括非独立条带段的第一信息;
解码器,被配置为基于通过使用关于最大尺寸的所述信息而确定的最大编码单元尺寸来确定第一条带段中包括的一个或更多个最大编码单元,
其中,获得单元还被配置为从比特流获得指示当前最大编码单元是否位于第一条带段的末端的第二信息;
其中,解码器还被配置为基于从比特流的条带段头获得的第三信息来确定条带段中包括的子集的入口点的数量,并通过使用比第四信息指示的数字大1的偏移来确定入口点的位置;
其中,解码器还被配置为在第一信息指示允许在画面中包括非独立条带段并且第二信息指示当前最大编码单元位于第一条带段的末端的情况下,存储第一条带段的上下文变量;
其中,入口点的数量和位置在并行块能够被包括在画面的条带段中或者同步操作能够针对画面中包括的当前最大编码单元的上下文变量被执行的情况下被确定。
2.如权利要求1所述的视频解码设备,其中,解码器被配置为在非独立条带段被允许包括在画面中的情况下,存储当前最大编码单元的上下文变量。
3.如权利要求1所述的视频解码设备,其中,解码器被配置为在第二信息指示当前最大编码单元位于第一条带段的末端的情况下,存储第一条带段中的被最后解码的当前最大编码单元的上下文变量。
4.如权利要求1所述的视频解码设备,其中,
解码器还被配置为基于从比特流的画面参数集获得的第一信息来确定画面的非独立条带段是否能够被包括,并基于从比特流的每个条带段的数据之中的当前最大编码单元的数据获得的第二信息来确定当前最大编码单元是否是最后的最大编码单元;
其中,获得单元被配置为从当前最大编码单元的数据获得二进制位串。
CN201510900319.4A 2013-01-04 2014-01-06 视频解码设备 Active CN105357525B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361748964P 2013-01-04 2013-01-04
US61/748,964 2013-01-04
CN201480012100.4A CN105027568B (zh) 2013-01-04 2014-01-06 用于对条带段进行熵编码的方法及其设备以及用于对条带段进行熵解码的方法及其设备

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201480012100.4A Division CN105027568B (zh) 2013-01-04 2014-01-06 用于对条带段进行熵编码的方法及其设备以及用于对条带段进行熵解码的方法及其设备

Publications (2)

Publication Number Publication Date
CN105357525A true CN105357525A (zh) 2016-02-24
CN105357525B CN105357525B (zh) 2019-04-16

Family

ID=51062340

Family Applications (6)

Application Number Title Priority Date Filing Date
CN201510900319.4A Active CN105357525B (zh) 2013-01-04 2014-01-06 视频解码设备
CN201480012100.4A Active CN105027568B (zh) 2013-01-04 2014-01-06 用于对条带段进行熵编码的方法及其设备以及用于对条带段进行熵解码的方法及其设备
CN201510902815.3A Active CN105357539B (zh) 2013-01-04 2014-01-06 视频解码方法和视频解码设备
CN201510900872.8A Active CN105472397B (zh) 2013-01-04 2014-01-06 视频解码设备
CN201810214322.4A Active CN108307196B (zh) 2013-01-04 2014-01-06 视频编码方法和视频编码设备
CN201510900716.1A Active CN105472396B (zh) 2013-01-04 2014-01-06 视频解码方法和视频解码设备

Family Applications After (5)

Application Number Title Priority Date Filing Date
CN201480012100.4A Active CN105027568B (zh) 2013-01-04 2014-01-06 用于对条带段进行熵编码的方法及其设备以及用于对条带段进行熵解码的方法及其设备
CN201510902815.3A Active CN105357539B (zh) 2013-01-04 2014-01-06 视频解码方法和视频解码设备
CN201510900872.8A Active CN105472397B (zh) 2013-01-04 2014-01-06 视频解码设备
CN201810214322.4A Active CN108307196B (zh) 2013-01-04 2014-01-06 视频编码方法和视频编码设备
CN201510900716.1A Active CN105472396B (zh) 2013-01-04 2014-01-06 视频解码方法和视频解码设备

Country Status (26)

Country Link
US (6) US9826253B2 (zh)
EP (5) EP2986003B1 (zh)
JP (8) JP5990342B2 (zh)
KR (6) KR101589503B1 (zh)
CN (6) CN105357525B (zh)
AU (1) AU2014204151B2 (zh)
BR (5) BR112015016040B1 (zh)
CA (5) CA2903192C (zh)
CY (4) CY1121633T1 (zh)
DK (4) DK2986004T3 (zh)
ES (5) ES2733223T3 (zh)
HR (4) HRP20190856T1 (zh)
HU (5) HUE044662T2 (zh)
IL (6) IL239751A0 (zh)
LT (4) LT2940999T (zh)
MX (5) MX349298B (zh)
MY (4) MY189418A (zh)
PL (5) PL2986005T3 (zh)
PT (4) PT2986004T (zh)
RS (4) RS58714B1 (zh)
RU (5) RU2608465C1 (zh)
SG (5) SG10201507029UA (zh)
SI (4) SI2986005T1 (zh)
TR (4) TR201906900T4 (zh)
WO (1) WO2014107065A1 (zh)
ZA (4) ZA201506854B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109076216A (zh) * 2016-03-30 2018-12-21 韩国电子通信研究院 使用画面划分信息对视频进行编码和解码的方法和设备
CN115174935A (zh) * 2016-05-10 2022-10-11 三星电子株式会社 用于对图像进行编码/解码的方法及其装置

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014177342A1 (de) * 2013-04-30 2014-11-06 Sioptica Gmbh Bildschirm und verfahren zur sicheren darstellung von informationen
US10264261B2 (en) * 2013-08-27 2019-04-16 Integrated Device Technology, Inc. Entropy encoding initialization for a block dependent upon an unencoded block
WO2016164459A1 (en) * 2015-04-10 2016-10-13 Red.Com, Inc. Video camera with rate control video compression
US10574993B2 (en) 2015-05-29 2020-02-25 Qualcomm Incorporated Coding data using an enhanced context-adaptive binary arithmetic coding (CABAC) design
CN105187845B (zh) 2015-08-10 2018-07-03 珠海全志科技股份有限公司 视频数据解码装置及解码方法
US10368073B2 (en) * 2015-12-07 2019-07-30 Qualcomm Incorporated Multi-region search range for block prediction mode for display stream compression (DSC)
CN106331715B (zh) * 2016-08-24 2019-04-12 上海富瀚微电子股份有限公司 基于视频压缩编码标准h.265的熵编码系统及其编码方法
US20180139464A1 (en) * 2016-11-17 2018-05-17 Mediatek Inc. Decoding system for tile-based videos
KR102414164B1 (ko) * 2017-03-31 2022-06-29 한국전자통신연구원 향상된 산술부호화를 제공하는 영상 처리 방법, 그를 이용한 영상 복호화, 부호화 방법 및 그 장치
AU2018251489B2 (en) * 2017-04-13 2021-05-27 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method and device for entropy encoding, decoding video signal
JP7313330B2 (ja) 2017-07-05 2023-07-24 レッド.コム,エルエルシー 電子機器でのビデオ画像データ処理
WO2019160133A1 (ja) * 2018-02-19 2019-08-22 日本電信電話株式会社 情報管理装置、情報管理方法及び情報管理プログラム
CN110278443B (zh) * 2018-03-16 2022-02-11 华为技术有限公司 划分标志位的上下文建模方法及装置
WO2019174567A1 (zh) 2018-03-16 2019-09-19 华为技术有限公司 划分标志位的上下文建模方法及装置
US10915341B2 (en) * 2018-03-28 2021-02-09 Bank Of America Corporation Computer architecture for processing correlithm objects using a selective context input
US10491914B2 (en) * 2018-03-29 2019-11-26 Tencent America LLC Transform information prediction
EP3777196A1 (en) * 2018-03-29 2021-02-17 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Concept for enhancing parallel coding capabilities
CN108989825B (zh) * 2018-07-18 2021-05-07 北京奇艺世纪科技有限公司 一种算术编码方法、装置及电子设备
KR20230093377A (ko) 2018-12-07 2023-06-27 삼성전자주식회사 타일 및 슬라이스를 이용하는 비디오 부호화 방법 및 복호화 방법, 및 타일 및 슬라이스를 이용하는 비디오 부호화 장치 및 복호화 장치
KR102648032B1 (ko) * 2019-01-09 2024-03-14 후아웨이 테크놀러지 컴퍼니 리미티드 비디오 코딩의 서브 픽처 레벨 지표 시그널링
JP2022526023A (ja) * 2019-04-10 2022-05-20 ホアウェイ・テクノロジーズ・カンパニー・リミテッド エンコーダ、デコーダ、および対応する方法
CN112956198A (zh) 2019-06-22 2021-06-11 株式会社 Xris 用于对图像信号进行编码/解码的方法及其装置
US11516489B2 (en) * 2019-06-24 2022-11-29 Tencent America LLC Method and apparatus for video coding
CN112135135A (zh) * 2019-06-24 2020-12-25 腾讯美国有限责任公司 视频解码方法、装置、计算机设备及存储介质
US11446572B2 (en) * 2019-10-01 2022-09-20 Sony Interactive Entertainment Inc. Early scan-out of server display buffer at flip-time for cloud gaming applications
US11524230B2 (en) 2019-10-01 2022-12-13 Sony Interactive Entertainment Inc. Encoder tuning to improve tradeoffs between latency and video quality in cloud gaming applications
US10974142B1 (en) 2019-10-01 2021-04-13 Sony Interactive Entertainment Inc. Synchronization and offset of VSYNC between cloud gaming server and client
US11865434B2 (en) 2019-10-01 2024-01-09 Sony Interactive Entertainment Inc. Reducing latency in cloud gaming applications by overlapping receive and decode of video frames and their display at the client
US11539960B2 (en) 2019-10-01 2022-12-27 Sony Interactive Entertainment Inc. Game application providing scene change hint for encoding at a cloud gaming server
WO2022035256A1 (ko) * 2020-08-12 2022-02-17 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
US11375242B1 (en) 2021-01-27 2022-06-28 Qualcomm Incorporated Compression of bitstream indexes for parallel entropy coding
WO2023075488A1 (ko) * 2021-10-28 2023-05-04 엘지전자 주식회사 엔트로피 코딩에 기반한 피쳐 부호화/복호화 방법, 장치, 비트스트림을 저장한 기록 매체 및 비트스트림 전송 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100098155A1 (en) * 2008-10-17 2010-04-22 Mehmet Umut Demircin Parallel CABAC Decoding Using Entropy Slices
US20110285560A1 (en) * 2010-05-21 2011-11-24 National Chiao-Tung University Context-based adaptive binary arithmetic coding (cabac) decoding device and decoding method thereof
WO2012134246A2 (ko) * 2011-04-01 2012-10-04 엘지전자 주식회사 엔트로피 디코딩 방법 및 이를 이용하는 디코딩 장치

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7177522B2 (en) * 2000-10-10 2007-02-13 Broadcom Corporation System and method for personal video recording
JP3807342B2 (ja) 2002-04-25 2006-08-09 三菱電機株式会社 デジタル信号符号化装置、デジタル信号復号装置、デジタル信号算術符号化方法、およびデジタル信号算術復号方法
KR100597402B1 (ko) 2003-12-01 2006-07-06 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
RU2329615C2 (ru) 2003-12-01 2008-07-20 Самсунг Электроникс Ко., Лтд. Способ масштабируемого кодирования и декодирования видеосигнала и устройство для его осуществления
CN101150719B (zh) * 2006-09-20 2010-08-11 华为技术有限公司 并行视频编码的方法及装置
JP4962400B2 (ja) * 2008-04-30 2012-06-27 ソニー株式会社 算術復号装置
KR20110017719A (ko) 2009-08-14 2011-02-22 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
US9049450B2 (en) 2010-04-05 2015-06-02 Samsung Electronics Co., Ltd. Method and apparatus for encoding video based on internal bit depth increment, and method and apparatus for decoding video based on internal bit depth increment
KR20110112168A (ko) * 2010-04-05 2011-10-12 삼성전자주식회사 내부 비트뎁스 확장에 기반한 비디오 부호화 방법 및 그 장치, 내부 비트뎁스 확장에 기반한 비디오 복호화 방법 및 그 장치
US8982961B2 (en) 2010-04-05 2015-03-17 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using transformation index, and method and apparatus for decoding video by using transformation index
BR112013001354B1 (pt) * 2010-07-21 2022-03-29 Velos Media International Limited Método e dispositivo para codificação de imagem
US8654860B2 (en) * 2010-11-01 2014-02-18 Mediatek Inc. Apparatus and method for high efficiency video coding using flexible slice structure
US20120106622A1 (en) * 2010-11-03 2012-05-03 Mediatek Inc. Method and Apparatus of Slice Grouping for High Efficiency Video Coding
US20130223528A1 (en) 2010-11-15 2013-08-29 Electronics And Telecommunications Research Institute Method and apparatus for parallel entropy encoding/decoding
CN102595119B (zh) * 2011-01-14 2014-03-12 华为技术有限公司 条带编码方法及装置、条带解码方法及装置
US20120189052A1 (en) 2011-01-24 2012-07-26 Qualcomm Incorporated Signaling quantization parameter changes for coded units in high efficiency video coding (hevc)
GB2488830B (en) * 2011-03-10 2015-07-29 Canon Kk Method and device for encoding image data and method and device for decoding image data
TWI487295B (zh) * 2011-05-17 2015-06-01 Univ Nat Cheng Kung 高產出平行化avc/h.264前後文適應性二位元算數解碼器之方法
US9584819B2 (en) * 2011-10-24 2017-02-28 Qualcomm Incorporated Grouping of tiles for video coding
US9124895B2 (en) * 2011-11-04 2015-09-01 Qualcomm Incorporated Video coding with network abstraction layer units that include multiple encoded picture partitions
KR102238127B1 (ko) * 2011-12-29 2021-04-08 엘지전자 주식회사 비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치
SG10201606621XA (en) * 2012-01-20 2016-09-29 Ge Video Compression Llc Coding Concept Allowing Parallel Processing, Transport Demultiplexer and Video Bitstream
US10244246B2 (en) * 2012-02-02 2019-03-26 Texas Instruments Incorporated Sub-pictures for pixel rate balancing on multi-core platforms
KR102132784B1 (ko) * 2012-03-22 2020-07-13 엘지전자 주식회사 비디오 인코딩 방법, 비디오 디코딩 방법 및 이를 이용하는 장치
US9838684B2 (en) * 2012-04-11 2017-12-05 Qualcomm Incorporated Wavefront parallel processing for video coding
CN104620584B (zh) * 2012-04-13 2019-10-18 Ge视频压缩有限责任公司 可缩放数据流及网络实体
CN108769692B (zh) * 2012-06-26 2022-05-24 Lg 电子株式会社 视频编码方法、视频解码方法和使用其的装置
AU2013322008B2 (en) * 2012-09-26 2016-10-27 Sun Patent Trust Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
MX341067B (es) * 2012-09-26 2016-08-05 Panasonic Ip Corp America Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes.

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100098155A1 (en) * 2008-10-17 2010-04-22 Mehmet Umut Demircin Parallel CABAC Decoding Using Entropy Slices
US20110285560A1 (en) * 2010-05-21 2011-11-24 National Chiao-Tung University Context-based adaptive binary arithmetic coding (cabac) decoding device and decoding method thereof
WO2012134246A2 (ko) * 2011-04-01 2012-10-04 엘지전자 주식회사 엔트로피 디코딩 방법 및 이를 이용하는 디코딩 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS ET AL: "Proposed editorial improvements for High Efficiency Video Coding (HEVC) text specification draft 9 (SoDIS),no.JCTVC-L0030", 《JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109076216A (zh) * 2016-03-30 2018-12-21 韩国电子通信研究院 使用画面划分信息对视频进行编码和解码的方法和设备
CN109076216B (zh) * 2016-03-30 2023-03-31 韩国电子通信研究院 使用画面划分信息对视频进行编码和解码的方法和设备
CN115174935A (zh) * 2016-05-10 2022-10-11 三星电子株式会社 用于对图像进行编码/解码的方法及其装置

Also Published As

Publication number Publication date
PL2940999T3 (pl) 2019-09-30
PT2986005T (pt) 2019-07-08
US20150341671A1 (en) 2015-11-26
DK2986003T3 (da) 2019-05-20
CA2903190A1 (en) 2014-07-10
US20150341670A1 (en) 2015-11-26
SG10201507030WA (en) 2015-10-29
SG10201507029UA (en) 2015-10-29
EP2986006B1 (en) 2019-06-19
RS58714B1 (sr) 2019-06-28
BR112015016040B1 (pt) 2020-09-24
KR101589503B1 (ko) 2016-01-28
MX2018006466A (es) 2022-08-25
JP2017220943A (ja) 2017-12-14
TR201906932T4 (tr) 2019-06-21
ZA201506855B (en) 2017-01-25
IL239751A0 (en) 2015-08-31
MY189418A (en) 2022-02-10
EP2986004B1 (en) 2019-05-08
JP2016226023A (ja) 2016-12-28
CN105472397B (zh) 2018-09-18
EP2986006A3 (en) 2016-03-09
EP2940999A4 (en) 2016-03-02
HUE045384T2 (hu) 2019-12-30
CN105357525B (zh) 2019-04-16
ES2735008T3 (es) 2019-12-13
AU2014204151B2 (en) 2016-11-03
RS58715B1 (sr) 2019-06-28
PL2986003T3 (pl) 2019-08-30
EP2940999B1 (en) 2019-06-12
DK2986005T3 (da) 2019-05-20
PL2986006T3 (pl) 2019-09-30
RU2609749C1 (ru) 2017-02-02
MY193371A (en) 2022-10-07
JP2016506200A (ja) 2016-02-25
PT2940999T (pt) 2019-08-30
DK2940999T3 (da) 2019-06-24
EP2986005A2 (en) 2016-02-17
CA2903192C (en) 2017-01-03
US10271071B2 (en) 2019-04-23
CA2903192A1 (en) 2014-07-10
JP5990342B2 (ja) 2016-09-14
EP2986003A2 (en) 2016-02-17
CN105027568A (zh) 2015-11-04
MY170156A (en) 2019-07-09
LT2986003T (lt) 2019-05-27
HRP20190854T1 (hr) 2019-06-28
MX349298B (es) 2017-07-21
CA2897006A1 (en) 2014-07-10
IL265174B (en) 2019-12-31
JP2016105627A (ja) 2016-06-09
US9866873B2 (en) 2018-01-09
PL2986004T3 (pl) 2019-08-30
JP5990350B2 (ja) 2016-09-14
WO2014107065A1 (ko) 2014-07-10
KR101589506B1 (ko) 2016-01-28
RS58713B1 (sr) 2019-06-28
CY1121656T1 (el) 2020-07-31
HRP20191066T1 (hr) 2019-09-20
TR201908706T4 (tr) 2019-07-22
KR20150087824A (ko) 2015-07-30
LT2986005T (lt) 2019-05-27
JP2016096580A (ja) 2016-05-26
KR20150087822A (ko) 2015-07-30
HRP20190856T1 (hr) 2019-06-28
SI2986005T1 (sl) 2019-08-30
BR112015016040A2 (pt) 2017-07-11
US9877049B2 (en) 2018-01-23
EP2986004A3 (en) 2016-03-09
KR101589507B1 (ko) 2016-01-28
US20150341669A1 (en) 2015-11-26
CN105472397A (zh) 2016-04-06
HUE045383T2 (hu) 2019-12-30
CA2897006C (en) 2017-02-07
EP2940999A1 (en) 2015-11-04
EP2986004A2 (en) 2016-02-17
CY1121765T1 (el) 2020-07-31
RU2608465C1 (ru) 2017-01-18
MX364485B (es) 2019-04-29
HUE045386T2 (hu) 2019-12-30
PT2986003T (pt) 2019-06-25
JP5990349B2 (ja) 2016-09-14
IL243289B (en) 2018-04-30
PL2986005T3 (pl) 2019-08-30
ZA201506856B (en) 2017-01-25
EP2986003A3 (en) 2016-03-16
CA2903195A1 (en) 2014-07-10
CA2903149A1 (en) 2014-07-10
ES2733223T3 (es) 2019-11-28
ES2734907T3 (es) 2019-12-12
MX366775B (es) 2019-07-24
JP5990348B2 (ja) 2016-09-14
US9866874B2 (en) 2018-01-09
IL243291B (en) 2019-03-31
JP5990347B2 (ja) 2016-09-14
RU2608353C1 (ru) 2017-01-18
JP2016105628A (ja) 2016-06-09
EP2986006A2 (en) 2016-02-17
KR102040315B1 (ko) 2019-11-04
LT2986004T (lt) 2019-05-27
RU2609750C1 (ru) 2017-02-02
HUE044662T2 (hu) 2019-11-28
CN105472396A (zh) 2016-04-06
MY189391A (en) 2022-02-09
TR201906900T4 (tr) 2019-06-21
CN105472396B (zh) 2018-05-25
BR122015024099B1 (pt) 2020-09-24
BR122015024098B1 (pt) 2020-12-29
JP6388697B2 (ja) 2018-09-12
TR201906908T4 (tr) 2019-05-21
SI2940999T1 (sl) 2019-08-30
CA2903190C (en) 2017-08-29
IL243292B (en) 2018-10-31
SI2986004T1 (sl) 2019-08-30
EP2986005A3 (en) 2016-03-09
US9826253B2 (en) 2017-11-21
SG11201505296RA (en) 2015-08-28
HUE044717T2 (hu) 2019-11-28
JP6622870B2 (ja) 2019-12-18
RU2608263C1 (ru) 2017-01-17
BR122015024096B1 (pt) 2020-09-24
DK2986004T3 (da) 2019-05-20
JP2018201234A (ja) 2018-12-20
US20150341672A1 (en) 2015-11-26
CN105357539A (zh) 2016-02-24
KR20150087823A (ko) 2015-07-30
PT2986004T (pt) 2019-07-08
CN108307196A (zh) 2018-07-20
BR122015024097B1 (pt) 2021-01-05
CN105357539B (zh) 2018-05-25
CN105027568B (zh) 2018-04-10
ZA201506854B (en) 2017-01-25
JP2016096581A (ja) 2016-05-26
HRP20190855T1 (hr) 2019-06-28
MX356391B (es) 2018-05-28
US9826254B2 (en) 2017-11-21
SI2986003T1 (sl) 2019-08-30
CN108307196B (zh) 2020-12-04
EP2986005B1 (en) 2019-05-08
JP6196355B2 (ja) 2017-09-13
ZA201506857B (en) 2017-01-25
RS58864B1 (sr) 2019-07-31
ES2728091T3 (es) 2019-10-22
SG10201507025QA (en) 2015-10-29
MX2015008710A (es) 2015-10-26
IL243290B (en) 2019-03-31
SG10201507028PA (en) 2015-10-29
IL265174A (en) 2019-05-30
KR101589505B1 (ko) 2016-01-28
KR20160024364A (ko) 2016-03-04
LT2940999T (lt) 2019-07-10
KR20140089484A (ko) 2014-07-15
KR101588219B1 (ko) 2016-01-25
EP2986003B1 (en) 2019-05-08
ES2733027T3 (es) 2019-11-27
AU2014204151A1 (en) 2015-08-13
US20150341668A1 (en) 2015-11-26
CA2903149C (en) 2017-03-14
CY1121633T1 (el) 2020-07-31
US20180077429A1 (en) 2018-03-15
KR20150087825A (ko) 2015-07-30
CY1121634T1 (el) 2020-07-31
CA2903195C (en) 2017-04-18

Similar Documents

Publication Publication Date Title
CN105027568B (zh) 用于对条带段进行熵编码的方法及其设备以及用于对条带段进行熵解码的方法及其设备
CN104205834A (zh) 用于对每个空间子区域进行视频编码的方法和设备以及用于对每个空间子区域进行视频解码的方法和设备
CN103931192A (zh) 用于在视频编码或解码中的运动矢量确定的方法和设备
CN104869396A (zh) 视频解码方法
CN104488272A (zh) 用于预测用于对视频进行编码或用于对视频进行解码的运动矢量的方法和设备
CN104641640A (zh) 用于用信号传输sao参数的视频编码方法和视频编码设备以及视频解码方法和视频解码设备
CN104365101A (zh) 用于确定用于帧间预测的参考图像的方法及设备
CN104012095A (zh) 使用根据按最大编码单元的像素分类的偏移调整的视频编码方法及其设备,和视频解码方法及其设备
CN104396252A (zh) 使用用于多视点视频预测的参考画面集的多视点视频编码方法及其装置、使用用于多视点视频预测的参考画面集的多视点视频解码方法及其装置
CN105308966A (zh) 视频编码方法及其设备以及视频解码方法及其设备
CN105325004A (zh) 基于用信号传输样点自适应偏移参数的视频编码方法和设备以及视频解码方法和设备
CN104081779A (zh) 用于帧间预测的方法及其装置和用于运动补偿的方法及其装置
CN105144713A (zh) 用于解码器设置的对视频进行编码的方法及其装置以及基于解码器设置对视频进行解码的方法及其装置
CN104604237A (zh) 依据块尺寸来确定帧间预测参考画面列表的用于对视频进行编码的方法和设备以及用于对视频进行解码的方法和设备
CN104813665A (zh) 用于对层间预测误差进行编码的sao补偿的方法和设备
CN105103552A (zh) 用于补偿亮度差的对层间视频进行编码的方法及其装置以及用于对视频进行解码的方法及其装置
CN104541510A (zh) 参考画面列表能够被改变的帧间预测方法及其设备
CN104396251A (zh) 使用用于多视点视频预测的参考列表对多视点视频进行编码的方法及其装置以及使用用于多视点视频预测的参考列表对多视点视频进行解码的方法及其装置
CN105340274A (zh) 深度图编码方法及其设备以及深度图解码方法及其设备
CN105308958A (zh) 用于使用视点合成预测的层间视频编码方法和设备以及用于使用视点合成预测的层间视频解码方法和设备
CN105264890A (zh) 用于补偿亮度差的层间视频编码方法和设备以及层间视频解码方法和设备
CN105308961A (zh) 用于补偿亮度差的层间视频编码方法和设备以及层间视频解码方法和设备
CN105532005A (zh) 用于层间编码的方法和设备以及用于使用残差预测对视频进行层间解码的方法和设备
CN105340273A (zh) 用于预测用于层间视频解码的视差矢量的方法以及编码方法和设备
CN104662905A (zh) 使用多个假设估计因子的帧间预测方法及其装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant