WO2012036436A2 - Method and apparatus for entropy encoding/decoding - Google Patents

Method and apparatus for entropy encoding/decoding Download PDF

Info

Publication number
WO2012036436A2
WO2012036436A2 PCT/KR2011/006726 KR2011006726W WO2012036436A2 WO 2012036436 A2 WO2012036436 A2 WO 2012036436A2 KR 2011006726 W KR2011006726 W KR 2011006726W WO 2012036436 A2 WO2012036436 A2 WO 2012036436A2
Authority
WO
WIPO (PCT)
Prior art keywords
context information
symbol
layer
target
decoding
Prior art date
Application number
PCT/KR2011/006726
Other languages
French (fr)
Korean (ko)
Other versions
WO2012036436A3 (en
Inventor
임성창
김휘용
정세윤
조숙희
김종호
이하현
이진호
최진수
김진웅
안치득
최해철
Original Assignee
한국전자통신연구원
한밭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원, 한밭대학교 산학협력단 filed Critical 한국전자통신연구원
Priority to US13/822,582 priority Critical patent/US20130188740A1/en
Priority claimed from KR1020110091755A external-priority patent/KR20120028262A/en
Publication of WO2012036436A2 publication Critical patent/WO2012036436A2/en
Publication of WO2012036436A3 publication Critical patent/WO2012036436A3/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Definitions

  • the present invention relates to image processing, and more particularly, to an entropy encoding / decoding method and apparatus.
  • an inter prediction technique for predicting pixel values included in a current picture from a previous and / or subsequent picture in time, and predicting pixel values included in a current picture using pixel information in the current picture.
  • An intra prediction technique an entropy encoding technique of allocating a short code to a symbol with a high frequency of appearance and a long code to a symbol with a low frequency of appearance may be used.
  • Video compression technology is a technology that provides a constant network bandwidth under a limited operating environment of hardware without considering a fluid network environment.
  • a new compression technique is required to compress image data applied to a network environment in which bandwidth changes frequently, and a scalable video encoding / decoding method may be used for this purpose.
  • An object of the present invention is to provide an entropy encoding method and apparatus capable of improving image compression efficiency.
  • Another object of the present invention is to provide a scalable video encoding method and apparatus for improving image compression efficiency.
  • Another technical problem of the present invention is to provide an entropy decoding method and apparatus which can improve image compression efficiency.
  • Another technical problem of the present invention is to provide a scalable video decoding method and apparatus capable of improving image compression efficiency.
  • One embodiment of the present invention is an entropy decoding method for multi-layer-based scalable video decoding.
  • the method may include deriving context information of a symbol to be decoded using at least one of context information of a target layer and context information of another layer, and using the derived context information to decode the symbol to be decoded. And performing entropy decoding on the target layer, wherein the target layer is a layer including the decoding target symbol, and the other layer is a layer excluding the target layer, which can be used for decoding in the target layer.
  • entropy encoding / decoding performance and image compression efficiency can be improved.
  • FIG. 1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment.
  • FIG. 2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment.
  • FIG. 3 is a conceptual diagram schematically illustrating an embodiment of a scalable video coding structure using multiple layers to which the present invention can be applied.
  • FIG. 4 is a flowchart schematically showing an embodiment of an entropy encoding method according to the present invention.
  • FIG. 5 is a flowchart schematically illustrating an embodiment of an entropy encoding method including a process of deriving context information.
  • FIG. 6 is a flowchart schematically showing another embodiment of an entropy encoding method according to the present invention.
  • FIG. 7 is a flowchart schematically illustrating still another embodiment of an entropy encoding method according to the present invention.
  • FIG. 8 is a flowchart schematically illustrating still another embodiment of an entropy encoding method according to the present invention.
  • FIG. 9 is a flowchart schematically showing an embodiment of an entropy decoding method according to the present invention.
  • FIG. 10 is a flowchart schematically illustrating an embodiment of an entropy decoding method including a context information derivation process.
  • FIG. 11 is a flowchart schematically showing another embodiment of an entropy decoding method according to the present invention.
  • FIG. 12 is a flowchart schematically illustrating still another embodiment of an entropy decoding method according to the present invention.
  • FIG. 13 is a flowchart schematically showing still another embodiment of an entropy decoding method according to the present invention.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • each component shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is made of separate hardware or one software component unit.
  • each component is included in each component for convenience of description, and at least two of the components may be combined into one component, or one component may be divided into a plurality of components to perform a function.
  • Integrated and separate embodiments of the components are also included within the scope of the present invention without departing from the spirit of the invention.
  • the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance.
  • the present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included in the scope of the present invention.
  • FIG. 1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment.
  • a scalable video encoding / decoding method or apparatus may be implemented by an extension of a general video encoding / decoding method or apparatus that does not provide scalability, and the block diagram of FIG. 1 is scalable.
  • An embodiment of an image encoding apparatus that may be the basis of a video encoding apparatus is illustrated.
  • the image encoding apparatus 100 may include a motion predictor 111, a motion compensator 112, an intra predictor 120, a switch 115, a subtractor 125, and a converter 130. And a quantization unit 140, an entropy encoding unit 150, an inverse quantization unit 160, an inverse transform unit 170, an adder 175, a filter unit 180, and a reference image buffer 190.
  • the image encoding apparatus 100 may perform encoding in an intra mode or an inter mode on an input image and output a bit stream.
  • Intra prediction means intra prediction and inter prediction means inter prediction.
  • the switch 115 is switched to intra, and in the inter mode, the switch 115 is switched to inter.
  • the image encoding apparatus 100 may generate a prediction block for an input block of an input image and then encode a difference between the input block and the prediction block.
  • the intra predictor 120 may generate a prediction block by performing spatial prediction using pixel values of blocks that are already encoded around the current block.
  • the motion predictor 111 may obtain a motion vector by searching for a region that best matches an input block in the reference image stored in the reference image buffer 190 during the motion prediction process.
  • the motion compensator 112 may generate a prediction block by performing motion compensation using the motion vector and the reference image stored in the reference image buffer 190.
  • the subtractor 125 may generate a residual block by the difference between the input block and the generated prediction block.
  • the transform unit 130 may output a transform coefficient by performing transform on the residual block.
  • the quantization unit 140 may output the quantized coefficient by quantizing the input transform coefficient according to the quantization parameter.
  • the entropy encoding unit 150 entropy encodes a symbol according to a probability distribution based on values calculated by the quantization unit 140 or encoding parameter values calculated in the encoding process, thereby generating a bit stream. You can print
  • the entropy encoding method is a method of receiving a symbol having various values and expressing it in a decodable column while removing statistical redundancy.
  • Encoding parameters are parameters necessary for encoding and decoding, and may include information that may be inferred during encoding or decoding, as well as information encoded by an encoder and transmitted to a decoder, such as syntax elements. Means necessary information. Coding parameters may be, for example, intra / inter prediction modes, moving / motion vectors, reference picture indexes, coding block patterns, presence or absence of residual signals, transform coefficients, quantized transform coefficients, quantization parameters, block sizes, block partitioning information, or the like. May include statistics.
  • the residual signal may mean a difference between the original signal and the prediction signal, and a signal in which the difference between the original signal and the prediction signal is transformed or a signal in which the difference between the original signal and the prediction signal is converted and quantized It may mean.
  • the residual signal may be referred to as a residual block in block units.
  • the entropy encoder 150 may store a table for performing entropy encoding, such as a variable length coding (VLC) table, and the entropy encoder 150 may store the stored variable length encoding. Entropy encoding may be performed using the (VLC) table. In addition, the entropy encoder 150 derives a binarization method of a target symbol and a probability model of a target symbol / bin, and then performs entropy encoding using the derived binarization method or a probability model. You may.
  • VLC variable length coding
  • CABAC context-adaptive binary arithmetic coding
  • binarization means expressing a symbol value as a binary sequence (bin sequence / string).
  • a bin means the value of each binary number (0 or 1) when the symbol is represented as a column of binary numbers through binarization.
  • the probability model refers to a predicted probability of a symbol / bin to be encoded / decoded, which can be derived through a context information / context model.
  • the context information / context model refers to information for determining a probability of a symbol / bin to be encoded / decoded.
  • the CABAC entropy encoding method binarizes non-binarized symbols to transform them into bins, and uses the encoding information of neighboring and encoding target blocks or the information of symbols / bins encoded in the previous step to construct a context model.
  • the bitstream may be generated by performing an arithmetic encoding of the bin by predicting the occurrence probability of the bin according to the determined context model.
  • the CABAC entropy encoding method may update the context model using information on the encoded symbol / bin for the context model of the next symbol / bin.
  • the quantized coefficients may be inversely quantized by the inverse quantizer 160 and inversely transformed by the inverse transformer 170.
  • the inverse quantized and inverse transformed coefficients are added to the prediction block through the adder 175 and a reconstruction block can be generated.
  • the reconstruction block passes through the filter unit 180, and the filter unit 180 applies at least one or more of a deblocking filter, a sample adaptive offset (SAO), and an adaptive loop filter (ALF) to the reconstruction block or the reconstruction picture. can do.
  • the reconstructed block that has passed through the filter unit 180 may be stored in the reference image buffer 190.
  • FIG. 2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment.
  • a scalable video encoding / decoding method or apparatus may be implemented by extension of a general video encoding / decoding method or apparatus that does not provide scalability
  • the block diagram of FIG. 2 is scalable video decoding.
  • An embodiment of an image decoding apparatus that may be the basis of an apparatus is shown.
  • the image decoding apparatus 200 may include an entropy decoder 210, an inverse quantizer 220, an inverse transformer 230, an intra predictor 240, a motion compensator 250, and a filter. 260 and a reference picture buffer 270.
  • the image decoding apparatus 200 may receive a bitstream output from the encoder and perform decoding in an intra mode or an inter mode, and output a reconstructed image, that is, a reconstructed image.
  • the switch In the intra mode, the switch may be switched to intra, and in the inter mode, the switch may be switched to inter.
  • the image decoding apparatus 200 may generate a reconstructed block, that is, a reconstructed block by obtaining a residual block reconstructed from the received bitstream, generating a prediction block, and adding the reconstructed residual block and the prediction block.
  • the entropy decoder 210 may entropy decode the input bitstream according to a probability distribution to generate symbols including symbols in the form of quantized coefficients.
  • the entropy decoding method is a method of generating each symbol by receiving a binary string.
  • the entropy decoding method is similar to the entropy coding method described above.
  • the CABAC entropy decoding method receives a bin corresponding to each syntax element in a bitstream, and decodes syntax element information, decoding information of neighboring and decoding target blocks, or information of a symbol / bin decoded in a previous step.
  • a context model may be determined using the context model, and a probability corresponding to the value of each syntax element may be generated by performing arithmetic decoding of the bin by predicting a probability of occurrence of a bin according to the determined context model.
  • the CABAC entropy decoding method may update the context model by using the information of the decoded symbol / bin for the context model of the next symbol / bin.
  • the entropy decoding method When the entropy decoding method is applied, a small number of bits are allocated to a symbol having a high probability of occurrence and a large number of bits are allocated to a symbol having a low probability of occurrence, whereby the size of the bit string for each symbol is increased. Can be reduced. Therefore, the compression performance of image decoding can be improved through an entropy decoding method.
  • the quantized coefficients are inversely quantized by the inverse quantizer 220 and inversely transformed by the inverse transformer 230, and as a result of the inverse quantization / inverse transformation of the quantized coefficients, a reconstructed residual block may be generated.
  • the intra predictor 240 may generate a predictive block by performing spatial prediction using pixel values of an already encoded block around the current block.
  • the motion compensator 250 may generate a prediction block by performing motion compensation using the motion vector and the reference image stored in the reference image buffer 270.
  • the reconstructed residual block and the prediction block are added through the adder 255, and the added block passes through the filter unit 260.
  • the filter unit 260 may apply at least one or more of the deblocking filter, SAO, and ALF to the reconstructed block or the reconstructed picture.
  • the filter unit 260 outputs a reconstructed image, that is, a reconstructed image.
  • the reconstructed picture may be stored in the reference picture buffer 270 to be used for inter prediction.
  • FIG. 3 is a conceptual diagram schematically illustrating an embodiment of a scalable video coding structure using multiple layers to which the present invention can be applied.
  • a group of pictures represents a picture group, that is, a group of pictures.
  • a transmission medium In order to transmit image data, a transmission medium is required, and its performance varies depending on the transmission medium according to various network environments.
  • a scalable video coding method may be provided for application to such various transmission media or network environments.
  • the scalable video coding method is a coding method that improves encoding / decoding performance by removing redundancy between layers by using texture information, motion information, and residual signals between layers.
  • the scalable video coding method may provide various scalability in terms of spatial, temporal, and image quality according to ambient conditions such as a transmission bit rate, a transmission error rate, and a system resource.
  • Scalable video coding may be performed using multiple layers structure to provide a bitstream applicable to various network situations.
  • the scalable video coding structure may include a base layer that compresses and processes image data using a general image encoding method, and compresses the image data using both the encoding information of the base layer and a general image encoding method. May include an enhancement layer for processing.
  • the layer may be a set of images and bitstreams classified based on space (eg, image size), time (eg, encoding order, image output order), image quality, complexity, and the like. it means.
  • the plurality of layers may have a dependency between each other.
  • the base layer may be defined as a QCIF (Quarter Common Intermediate Format), a frame rate of 15 Hz, a 3 Mbps bit rate
  • the first enhancement layer may include a CIF (Common Intermediate Format), a frame rate of 30 Hz
  • the second enhancement layer may be defined as a standard definition (SD)
  • SD standard definition
  • the format, frame rate, bit rate, etc. are exemplary and may be determined differently as necessary.
  • the number of hierarchies used is not limited to this embodiment and may be determined differently according to a situation.
  • the bit stream may be truncated and transmitted so that the bit rate is 0.5 Mbp in the first enhancement layer.
  • the scalable video coding method can provide temporal, spatial and image quality scalability by the method described above in the embodiment of FIG. 3.
  • the target layer, the target image, the target slice, the target unit, the target block, the target symbol, and the target bin mean a layer, an image, a slice, a unit, a block, a symbol, and a bin currently encoded or decoded, respectively.
  • the target layer may be a layer to which the target symbol belongs.
  • the other layer is a layer excluding the target layer, and means a layer available in the target layer. That is, another layer may be used to perform decoding in the target layer.
  • Layers available in the target layer may include, for example, temporal, spatial and image quality sublayers.
  • the corresponding layer, the corresponding image, the corresponding slice, the corresponding unit, the corresponding block, the corresponding symbol, and the corresponding bin correspond to the target layer, the target image, the target slice, the target unit, the target block, the target symbol, and the target bin, respectively.
  • the corresponding image refers to an image of another layer existing on the same time axis as the target image.
  • the corresponding slice refers to a slice existing in a position corresponding to the same or similar to the target slice of the target image in the corresponding image.
  • the corresponding unit refers to a unit existing in a corresponding position in the corresponding image that is spatially identical to or similar to the target unit of the target image.
  • the corresponding block refers to a block existing at a position corresponding to the same as or similar to the target block of the target image in the corresponding image.
  • a slice indicating a unit in which an image is divided is used to mean a division unit such as a tile or an entropy slice. Independent image encoding and decoding are possible between the divided units.
  • a block means a unit of image encoding and decoding.
  • a coding or decoding unit refers to a divided unit when a single image is divided into subdivided units to be encoded or decoded, and thus, a macroblock, a coding unit (CU), and a prediction unit (PU). It may be called a Prediction Unit, a Transform Unit, a transform block, or the like. One block may be further divided into smaller sub-blocks.
  • scalable video coding has the same meaning as scalable video encoding from a coding point of view and scalable video decoding from a decoding point of view.
  • context information of a target layer is used and context information of another layer available in a scalable video coding method is not utilized.
  • redundancy between layers may be removed by utilizing texture information, motion information, residual signal information, and the like between layers.
  • entropy encoding / decoding may be performed independently in each layer.
  • the scalable video coding method may have a limitation in improving encoding performance.
  • the scalable video coding method when entropy encoding / decoding is performed on encoding / decoding target information (symbols such as encoding parameters and residual signals) of a target layer, context information of another layer as well as context information of the target layer are performed. Also used may be a method of use together. In this case, in performing the scalable video encoding / decoding method, since entropy encoding / decoding is performed using information between layers, compression performance of image encoding / decoding may be improved.
  • FIG. 4 is a flowchart schematically showing an embodiment of an entropy encoding method according to the present invention.
  • the entropy encoder of the encoder derives context information of a symbol to be encoded (S410).
  • the context information of the encoding target symbol may be derived using the context information in the target layer, or may be derived using the context information in the other layer.
  • the contextual information in the target layer or another layer may include a combination of frequencies and combinations of values and values of symbols and / or bins present in the target layer or other layers.
  • the value of the symbol / bin and the combination of values are collectively referred to as symbol / bin value information, and the combination of the frequency and the symbol frequency is referred to as symbol / bin frequency information.
  • the value of the bin and the combination of values are collectively referred to as bin value information, and the combination of the frequency and the frequency of the bin collectively referred to as frequency information of the bin.
  • context information there may be various types of context information in a target layer or another layer, which is used for deriving context information of a symbol to be encoded.
  • the context information of the encoding target symbol may be derived using the context information in the target layer.
  • the context information in the target layer used to derive the context information of the symbol to be encoded there may be the following types of context information.
  • the context information in the target layer may be the same as the encoding target symbol / bin and the value of the symbol / bin already encoded according to the encoding order in the target layer, and the frequency information.
  • the context information in the target layer may be a value or frequency information of a symbol / bin associated with or dependent on the encoding target symbol / bin and already encoded according to the encoding order in the target layer.
  • the context information in the target layer is a symbol / bin which is the same as the encoding target symbol / bin, and may be the value and frequency information of all symbols / bins existing in the image, slice, unit, or block of the target layer.
  • the context information in the target layer is a symbol / bin present in the encoding target slice, unit or block in the target layer, and may be the same symbol / bin value and frequency information as the encoding target symbol / bin.
  • the slice, unit or block may be a slice, unit or block in which a specific encoding target symbol / bin exists.
  • the context information in the target layer is a symbol / bin present in the encoding target slice, unit or block in the target layer, which is the same as the encoding target symbol / bin and has a spatial position and a scanning position of an already encoded symbol / bin. Information.
  • the slice, unit or block may be a slice, unit or block in which a specific encoding target symbol / bin exists.
  • the context information in the target layer may be a value and frequency information of a bin that is the same as the encoding target bin and is already encoded in a specific encoding target symbol existing in the target layer.
  • the context information in the target layer is a symbol / bin present in the neighboring unit of the encoding target unit or the neighboring block of the encoding target block in the target layer, and is equal to the encoding target symbol / bin and the value of the symbol / bin already encoded, It may be frequency information.
  • the encoding target unit or the encoding target block may be a unit or block in which a specific encoding target symbol / bin exists.
  • the context information of the symbol to be encoded may be derived using context information in another layer.
  • context information in another layer used to derive context information of a symbol to be encoded there may be the following context information types.
  • the context information in the other layer is the same symbol / bin as the symbol / bin to be encoded, and the value of the symbol / bin already encoded according to the coding order in the corresponding video, corresponding slice, corresponding unit or corresponding block of the other layer, It may be frequency information.
  • the context information in another layer is a symbol / bin associated with or dependent on a symbol / bin to be encoded, and a symbol / bin already encoded according to an encoding order in a corresponding video, corresponding slice, corresponding unit, or corresponding block of another layer. It may be a value of, frequency information.
  • the context information in the other layer is the same symbol / bin as the symbol / bin to be encoded, and may be the value of the corresponding symbol / bin in the corresponding layer, the corresponding slice, the corresponding unit or the block of another layer, and the frequency information. .
  • the context information in the other layer is the same symbol / bin as the symbol / bin to be encoded, and the spatial position and scanning of the symbol / bin already encoded in the corresponding image, corresponding slice, corresponding unit or corresponding block of another layer. ) May be location information.
  • the context information in the other layer may be a value and frequency information of a bin that is the same as the encoding target bin and is already encoded in the symbol existing in the corresponding image, the corresponding slice, the corresponding unit, or the corresponding block of the other layer.
  • the symbol may be the same symbol as a specific encoding target symbol.
  • the context information in the other layer is a symbol / bin present in the neighbor slice of the corresponding slice, the neighbor unit of the corresponding unit, or the neighboring block of the corresponding block in another layer, and is the same symbol as the encoding target symbol / bin and already encoded /
  • the value of the bin may be frequency information.
  • the corresponding slice, the corresponding unit, or the corresponding block may be a slice, a unit, or a block in which the same symbol / bin as a specific encoding target symbol / bin exists.
  • the context information in another layer may be context information used for encoding processing of a corresponding video, corresponding slice, corresponding unit, or corresponding block of another layer. That is, the context information for the encoding target symbol / bin in the target layer may be initialized using the context information of the corresponding image, the corresponding slice, the corresponding unit, or the corresponding block of another layer.
  • the context information in another layer may be context information used for encoding processing of a corresponding video, corresponding slice, corresponding unit, or corresponding block of another layer. That is, the context information about the encoding target symbol / bin in the target layer may be initialized using the context information of the encoded symbol / bin in another layer.
  • the entropy encoder of the encoder may derive the context information of the encoding target symbol by using at least one of the above-described context information in the target layer and context information in the other layer.
  • the entropy encoder of the encoder entropy encodes a symbol to be encoded using the derived context information (S420).
  • scalable context encoding information may be used to perform entropy encoding in a target layer, a probability characteristic of a symbol / bin to be encoded may be predicted more accurately. Therefore, compression performance of video or video encoding may be improved.
  • the encoder may use an explicit method to inform the decoder of which layer of context information in the target layer and context information in another layer is used. Also, an implicit method may be used so that the information obtained in the encoder can be obtained in the same way in the decoder.
  • the encoder When an explicit method is used, in one embodiment, the encoder generates and transmits a flag including information indicating whether to use context information in the target layer and / or information indicating whether to use context information in another layer. And / or store.
  • the decoder may receive and / or store the flag from the encoder. The decoder may use the flag to derive information about whether context information in the target layer is used and / or information about whether context information in another layer is used.
  • the encoder may generate, send and / or store a flag indicating whether one of the other layers uses contextual information.
  • the decoder may receive and / or store the flag from the encoder. The decoder may derive information on which of the other layer context information is used using the flag.
  • the encoder and the decoder may use the same method to derive information about which layer's context information is used according to encoding parameter values of the target layer and another layer.
  • the context information derivation method used by the encoder and the decoder in the same manner may be determined between the encoder and the decoder in advance.
  • FIG. 5 is a flowchart schematically illustrating an embodiment of an entropy encoding method including a process of deriving context information.
  • the encoder detects whether there is context information available in a target layer with respect to a symbol or a string of symbols to be encoded (S510).
  • the encoder determines whether there is context information available in the target layer according to the search result (S520).
  • the encoder derives context information of the target layer (S530).
  • context information of the target layer There may be various types of context information in the target layer, and embodiments of the context information available in the target layer have been described above with reference to FIG. 4.
  • the contextual information derived from the encoder may be of the type described above in the embodiment of FIG. 4 or some other type.
  • the encoder searches for available context information of another layer (S540).
  • the encoder derives context information of another layer (S550).
  • S550 context information of another layer
  • the contextual information derived from the encoder may be of the type described above in the embodiment of FIG. 4 or some other type.
  • the encoder performs entropy encoding on the symbol to be encoded using the derived context information (S560).
  • the encoder may generate a bitstream by performing entropy encoding.
  • the encoder may inform the decoder of information on whether there is context information available for the target layer and / or another layer according to the search and determination result. In addition, the encoder may inform the decoder of information of which layer among other layers is used. The above information may be obtained equally in the encoder and the decoder by an implicit method.
  • context information of another layer may be used to perform entropy encoding in a target layer in a scalable video encoding process. Therefore, the probability characteristic of the symbol / bin to be encoded can be predicted more accurately, and the compression performance of video or video encoding can be improved.
  • FIG. 6 is a flowchart schematically showing another embodiment of an entropy encoding method according to the present invention.
  • the encoder derives context information of a symbol to be encoded (S610).
  • the context information of the symbol to be encoded may be derived using context information in the target layer, or may be derived using context information in another layer.
  • context information in the target layer and other layers may have various types as described above in the embodiment of FIG. 4.
  • the encoder derives the probability model of the symbol / bin to be encoded using the derived context information (S620). Since the derived context information may also be derived from context information of another layer, the probability model of the symbol / bin to be encoded may be derived using context information of another layer as well as the target layer.
  • the encoder performs entropy encoding on the symbol / bin to be encoded using the derived probability model (S630).
  • FIG. 7 is a flowchart schematically illustrating still another embodiment of an entropy encoding method according to the present invention.
  • the encoder derives context information of a symbol to be encoded (S710).
  • the context information of the symbol to be encoded may be derived using context information in the target layer, or may be derived using context information in another layer.
  • context information in the target layer and other layers may have various types as described above in the embodiment of FIG. 4.
  • the encoder derives the binarization method of the encoding target symbol by using the derived context information (S720). Since the derived context information may also be derived using context information of another layer, the binarization method of an encoding target symbol may be derived using context information of another layer as well as the target layer.
  • the encoder performs entropy encoding on the symbol to be encoded using the derived binarization method (S730).
  • FIG. 8 is a flowchart schematically illustrating still another embodiment of an entropy encoding method according to the present invention.
  • the encoder derives context information of a symbol to be encoded (S810).
  • the context information of the symbol to be encoded may be derived using context information in the target layer, or may be derived using context information in another layer.
  • context information in the target layer and other layers may have various types as described above in the embodiment of FIG. 4.
  • the encoder derives the VLC table of the symbol to be encoded using the derived context information (S820). Since the derived context information may also be derived by context information of another layer, the VLC table of the symbol to be encoded may be derived using context information of another layer as well as the target layer.
  • the encoder performs entropy encoding on the symbol to be encoded using the derived VLC table (S830).
  • FIG. 9 is a flowchart schematically showing an embodiment of an entropy decoding method according to the present invention.
  • the entropy decoding unit of the decoder derives context information of a decoding target symbol (S910).
  • the context information of the decoding object symbol may be derived using the context information in the target layer, or may be derived using the context information in the other layer.
  • context information there may be various types of context information in a target layer or another layer, which is used for deriving context information of a decoding target symbol.
  • the context information of the decoding target symbol may be derived using the context information in the target layer.
  • the context information in the target layer used to derive the context information of the decoding target symbol there may be the following context information types.
  • the context information in the target layer may be the same as the decoding target symbol / bin and the value and frequency information of the symbol / bin already decoded according to the decoding order in the target layer.
  • the context information in the target layer may be a value or frequency information of a symbol / bin associated with or dependent on the decoding target symbol / bin and already decoded according to the decoding order in the target layer.
  • the context information in the target layer is a symbol / bin which is the same as the decoding target symbol / bin, and may be a value and frequency information of all symbols / bins existing in the image, slice, unit, or block of the target layer.
  • the context information in the target layer is a symbol / bin present in the decoding target slice, unit, or block in the target layer, and may be the same as the decoding target symbol / bin and the value of the already decoded symbol / bin, frequency information.
  • the slice, unit or block may be a slice, unit or block in which a specific decoding target symbol / bin exists.
  • the context information in the target layer is a symbol / bin present in the decoding target slice, unit or block in the target layer, which is the same as the decoding target symbol / bin and the spatial position and scanning position of the already decoded symbol / bin. Information.
  • the slice, unit or block may be a slice, unit or block in which a specific decoding target symbol / bin exists.
  • the context information in the target layer may be a value and frequency information of a bin that is the same as the decoding target bin and is already decoded in a specific decoding target symbol existing in the target layer.
  • the context information in the target layer is a symbol / bin present in the neighboring unit of the decoding target unit or the neighboring block of the decoding target block in the target layer, and is equal to the decoding target symbol / bin and the value of the symbol / bin already decoded, It may be frequency information.
  • the decoding object unit or the decoding object block may be a unit or block in which a specific decoding object symbol / bin exists.
  • the context information of the decoding target symbol may be derived using context information in another layer.
  • context information in another layer used to derive the context information of the decoding target symbol there may be the following context information types.
  • the context information in the other layer is the same symbol / bin as the decoding target symbol / bin, and the value of the symbol / bin already decoded in the decoding order in the corresponding video, corresponding slice, corresponding unit or corresponding block of another layer, It may be frequency information.
  • the context information in the other layer is a symbol / bin associated with or dependent on the decoding target symbol / bin, and the symbol / bin already decoded in the decoding order in the corresponding image, the corresponding slice, the corresponding unit or the corresponding block of the other layer. It may be a value of, frequency information.
  • the context information in the other layer is the same symbol / bin as the decoding target symbol / bin, and may be the value of the corresponding symbol / bin in the other layer, the corresponding slice, the corresponding unit or the corresponding block, or the frequency information of the other layer. .
  • the context information in the other layer is the same symbol / bin as the decoding target symbol / bin, and the spatial position and scanning of the symbol / bin already decoded in the corresponding image, the corresponding slice, the corresponding unit or the corresponding block of the other layer. ) May be location information.
  • the context information in another layer may be a value and frequency information of a bin that is the same as a decoding target bin and is already decoded in a symbol existing in a corresponding image, corresponding slice, corresponding unit, or corresponding block of another layer.
  • the symbol may be the same symbol as a specific decoding target symbol.
  • the context information in the other layer is a symbol / bin present in the neighbor slice of the corresponding slice, the neighbor unit of the corresponding unit, or the neighboring block of the corresponding block in another layer, and is the same symbol as the decoding target symbol / bin and already decoded symbol /
  • the value of the bin may be frequency information.
  • the corresponding slice, the corresponding unit, or the corresponding block may be a slice, a unit, or a block in which the same symbol / bin as a specific decoding target symbol / bin exists.
  • the context information in another layer may be context information used for decoding processing of a corresponding video, corresponding slice, corresponding unit, or corresponding block of another layer. That is, the context information about the decoding target symbol / bin in the target layer may be initialized using the context information of the corresponding image, the corresponding slice, the corresponding unit, or the corresponding block of another layer.
  • the context information in the other layer may be context information used for decoding processing of the corresponding video, the corresponding slice, the corresponding unit, or the corresponding block of the other layer. That is, the context information for the decoding target symbol / bin in the target layer may be initialized using the context information of the decoded symbol / bin in another layer.
  • the entropy decoding unit of the decoder may derive the context information of the decoding target symbol by using at least one of the above-described context information in the target layer and context information in the other layer.
  • the entropy decoding unit of the decoder performs entropy decoding on the decoding target symbol by using the derived context information (S920).
  • scalable information may be used to perform entropy decoding in a target layer in scalable video decoding
  • a probability characteristic of a symbol / bin to be decoded may be more accurately predicted. Therefore, the compression performance of the image or video decoding can be improved.
  • the decoder may receive from the encoder information about which layer of context information in the target layer and context information in another layer is used by an explicit method, or may derive the information by an implicit method. have.
  • the decoder when the explicit method is used, the decoder includes a flag including information indicating whether to use context information in the target layer and / or information indicating whether to use context information in another layer ( flag).
  • the decoder may also receive a flag indicating whether any of the other layers uses context information. In this case, the decoder may obtain information about which layer context information is used by using the flag.
  • the encoder and the decoder may use the same method to derive information about which layer's context information is used according to encoding parameter values of the target layer and another layer.
  • FIG. 10 is a flowchart schematically illustrating an embodiment of an entropy decoding method including a context information derivation process.
  • the decoder receives a bitstream and searches whether there is context information available in a target layer for a decoding target symbol (S1010).
  • the decoder determines whether there is context information available in the target layer according to the search result (S1020).
  • the decoder may search for and determine whether there is context information in the target layer through flag information transmitted from the encoder.
  • the decoder may search for and determine whether there is context information in the target layer by using the same method as the encoder according to the encoding parameter value.
  • the decoder derives context information of the target layer (S1030).
  • context information There may be various types of context information in the target layer, and embodiments of the context information available in the target layer have been described above with reference to FIG. 9.
  • the contextual information derived from the decoder may be of the type described above in the embodiment of FIG. 9 or some other type.
  • the decoder searches for available context information of another layer (S1040). In this case, the decoder may search for and determine whether there is context information in another layer through flag information transmitted from the encoder. The decoder may also search for and determine whether there is context information in another layer using the same method as the encoder according to the encoding parameter value.
  • the decoder derives context information of another layer (S1050).
  • context information of another layer There may be various types of context information in other layers, and embodiments of the context information available in other layers have been described above with reference to FIG. 9.
  • the contextual information derived from the decoder may be of the type described above in the embodiment of FIG. 9 or some other type.
  • the decoder performs entropy decoding on the decoding object symbol by using the derived context information (S1060).
  • the decoder may generate a symbol or a sequence of symbols by performing entropy decoding.
  • context information of another layer may be used to perform entropy decoding in a target layer in a scalable video decoding process. Therefore, the probability characteristic of the decoding target symbol / bin can be predicted more accurately, and the performance of video or video decoding can be improved.
  • FIG. 11 is a flowchart schematically showing another embodiment of an entropy decoding method according to the present invention.
  • the decoder derives context information of a decoding target symbol (S1110).
  • the context information of the decoding target symbol may be derived using context information in the target layer, or may be derived using context information in another layer.
  • context information in the target layer and other layers may have various types as described above in the embodiment of FIG. 9.
  • the decoder derives a probability model of the symbol / bin to be decoded using the derived context information (S1120). Since the derived context information may also be derived from context information of another layer, the probability model of the symbol / bin to be decoded may be derived using context information of another layer as well as the target layer.
  • the decoder performs entropy decoding on the symbol / bin to be decoded using the derived probability model (S1130).
  • FIG. 12 is a flowchart schematically illustrating still another embodiment of an entropy decoding method according to the present invention.
  • the decoder derives context information of a decoding target symbol (S1210).
  • the context information of the decoding target symbol may be derived using context information in the target layer, or may be derived using context information in another layer.
  • context information in the target layer and other layers may have various types as described above in the embodiment of FIG. 9.
  • the decoder derives the binarization method of the decoding object symbol by using the derived context information (S1220). Since the derived context information may also be derived by context information of another layer, the binarization method of the decoding target symbol may be derived using context information of another layer as well as the target layer.
  • the decoder performs entropy decoding on the decoding object symbol by using the derived binarization method (S1230).
  • FIG. 13 is a flowchart schematically showing still another embodiment of an entropy decoding method according to the present invention.
  • the decoder derives context information of a decoding target symbol (S1310).
  • the context information of the decoding target symbol may be derived using context information in the target layer, or may be derived using context information in another layer.
  • context information in the target layer and other layers may have various types as described above in the embodiment of FIG. 9.
  • the decoder derives the VLC table of the symbol to be decoded using the derived context information (S1320). Since the derived context information may also be derived by context information of another layer, the VLC table of the decoding target symbol may be derived using context information of another layer as well as the target layer.
  • the decoder performs entropy decoding on the symbol to be decoded using the derived VLC table (S1330).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Provided is an entropy decoding method. The entropy decoding method according to the present invention comprises the steps of: drawing context information about a symbol to be decoded using at least either context information about corresponding layer or context information about other layers; and performing entropy decoding on the symbol using the drawn context information. According to the present invention, image compression efficiency can be enhanced.

Description

엔트로피 부호화/복호화 방법 및 장치Entropy encoding / decoding method and apparatus
본 발명은 영상 처리에 관한 것으로서, 보다 상세하게는 엔트로피 부호화/복호화 방법 및 장치에 관한 것이다.The present invention relates to image processing, and more particularly, to an entropy encoding / decoding method and apparatus.
최근 HD(High Definition) 해상도를 가지는 방송 서비스가 국내뿐만 아니라 세계적으로 확대되면서, 많은 사용자들이 고해상도, 고화질의 영상에 익숙해지고 있으며 이에 따라 많은 기관들이 차세대 영상기기에 대한 개발에 박차를 가하고 있다. 또한 HDTV와 더불어 HDTV의 4배 이상의 해상도를 갖는 UHD(Ultra High Definition)에 대한 관심이 증대되면서 보다 높은 해상도, 고화질의 영상에 대한 압축기술이 요구되고 있다.Recently, as broadcasting services having high definition (HD) resolution have been expanded not only in Korea but also in the world, many users are accustomed to high resolution and high quality images, and many organizations are accelerating the development of next generation video equipment. In addition, as interest in Ultra High Definition (UHD), which has four times the resolution of HDTV, is increasing along with HDTV, a compression technology for higher resolution and higher quality images is required.
영상 압축을 위해, 시간적으로 이전 및/또는 이후의 픽쳐로부터 현재 픽쳐에 포함된 화소값을 예측하는 인터(inter) 예측 기술, 현재 픽쳐 내의 화소 정보를 이용하여 현재 픽쳐에 포함된 화소값을 예측하는 인트라(intra) 예측 기술, 출현 빈도가 높은 심볼(symbol)에 짧은 부호를 할당하고 출현 빈도가 낮은 심볼에 긴 부호를 할당하는 엔트로피 부호화 기술 등이 사용될 수 있다.For image compression, an inter prediction technique for predicting pixel values included in a current picture from a previous and / or subsequent picture in time, and predicting pixel values included in a current picture using pixel information in the current picture. An intra prediction technique, an entropy encoding technique of allocating a short code to a symbol with a high frequency of appearance and a long code to a symbol with a low frequency of appearance may be used.
영상 압축 기술에는 유동적인 네트워크 환경을 고려하지 않고 하드웨어의 제한적인 동작 환경하에서 일정한 네트워크 대역폭을 제공하는 기술이 있다. 그러나 수시로 대역폭이 변화하는 네트워크 환경에 적용되는 영상 데이터를 압축하기 위해서는 새로운 압축 기술이 요구되고, 이를 위해 스케일러블(scalable) 비디오 부호화/복호화 방법이 사용될 수 있다.Video compression technology is a technology that provides a constant network bandwidth under a limited operating environment of hardware without considering a fluid network environment. However, a new compression technique is required to compress image data applied to a network environment in which bandwidth changes frequently, and a scalable video encoding / decoding method may be used for this purpose.
본 발명의 기술적 과제는 영상 압축 효율을 향상시킬 수 있는 엔트로피 부호화 방법 및 장치를 제공함에 있다.An object of the present invention is to provide an entropy encoding method and apparatus capable of improving image compression efficiency.
본 발명의 다른 기술적 과제는 영상 압축 효율을 향상시킬 수 있는 스케일러블 비디오 부호화 방법 및 장치를 제공함에 있다.Another object of the present invention is to provide a scalable video encoding method and apparatus for improving image compression efficiency.
본 발명의 또 다른 기술적 과제는 영상 압축 효율을 향상시킬 수 있는 엔트로피 복호화 방법 및 장치를 제공함에 있다.Another technical problem of the present invention is to provide an entropy decoding method and apparatus which can improve image compression efficiency.
본 발명의 또 다른 기술적 과제는 영상 압축 효율을 향상시킬 수 있는 스케일러블 비디오 복호화 방법 및 장치를 제공함에 있다.Another technical problem of the present invention is to provide a scalable video decoding method and apparatus capable of improving image compression efficiency.
본 발명의 일 실시 형태는 복수 계층(layer) 기반의 스케일러블(scalable) 비디오 복호화를 위한 엔트로피(entropy) 복호화 방법이다. 상기 방법은 대상 계층의 문맥(context) 정보 및 다른 계층의 문맥 정보 중 적어도 하나를 이용하여 복호화 대상 심볼(symbol)의 문맥 정보를 도출하는 단계 및 상기 도출된 문맥 정보를 이용하여 상기 복호화 대상 심볼에 대한 엔트로피 복호화를 수행하는 단계를 포함하고, 상기 대상 계층은 상기 복호화 대상 심볼이 포함된 계층이고, 상기 다른 계층은 상기 대상 계층을 제외한 계층으로서 상기 대상 계층에서의 복호화 수행에 이용될 수 있는 계층이다.One embodiment of the present invention is an entropy decoding method for multi-layer-based scalable video decoding. The method may include deriving context information of a symbol to be decoded using at least one of context information of a target layer and context information of another layer, and using the derived context information to decode the symbol to be decoded. And performing entropy decoding on the target layer, wherein the target layer is a layer including the decoding target symbol, and the other layer is a layer excluding the target layer, which can be used for decoding in the target layer. .
본 발명에 따르면, 엔트로피 부호화/복호화 성능 및 영상 압축 효율이 향상될 수 있다.According to the present invention, entropy encoding / decoding performance and image compression efficiency can be improved.
도 1은 영상 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment.
도 2는 영상 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment.
도 3은 본 발명이 적용될 수 있는, 복수 계층을 이용한 스케일러블 비디오 코딩 구조의 일 실시예를 개략적으로 나타내는 개념도이다.3 is a conceptual diagram schematically illustrating an embodiment of a scalable video coding structure using multiple layers to which the present invention can be applied.
도 4는 본 발명에 따른 엔트로피 부호화 방법의 일 실시예를 개략적으로 나타내는 흐름도이다. 4 is a flowchart schematically showing an embodiment of an entropy encoding method according to the present invention.
도 5는 문맥 정보 도출 과정을 포함한 엔트로피 부호화 방법의 실시예를 개략적으로 나타내는 흐름도이다.5 is a flowchart schematically illustrating an embodiment of an entropy encoding method including a process of deriving context information.
도 6은 본 발명에 따른 엔트로피 부호화 방법의 다른 실시예를 개략적으로 나타내는 흐름도이다. 6 is a flowchart schematically showing another embodiment of an entropy encoding method according to the present invention.
도 7은 본 발명에 따른 엔트로피 부호화 방법의 또 다른 실시예를 개략적으로 나타내는 흐름도이다. 7 is a flowchart schematically illustrating still another embodiment of an entropy encoding method according to the present invention.
도 8은 본 발명에 따른 엔트로피 부호화 방법의 또 다른 실시예를 개략적으로 나타내는 흐름도이다. 8 is a flowchart schematically illustrating still another embodiment of an entropy encoding method according to the present invention.
도 9는 본 발명에 따른 엔트로피 복호화 방법의 일 실시예를 개략적으로 나타내는 흐름도이다. 9 is a flowchart schematically showing an embodiment of an entropy decoding method according to the present invention.
도 10은 문맥 정보 도출 과정을 포함한 엔트로피 복호화 방법의 실시예를 개략적으로 나타내는 흐름도이다. 10 is a flowchart schematically illustrating an embodiment of an entropy decoding method including a context information derivation process.
도 11은 본 발명에 따른 엔트로피 복호화 방법의 다른 실시예를 개략적으로 나타내는 흐름도이다. 11 is a flowchart schematically showing another embodiment of an entropy decoding method according to the present invention.
도 12는 본 발명에 따른 엔트로피 복호화 방법의 또 다른 실시예를 개략적으로 나타내는 흐름도이다. 12 is a flowchart schematically illustrating still another embodiment of an entropy decoding method according to the present invention.
도 13은 본 발명에 따른 엔트로피 복호화 방법의 또 다른 실시예를 개략적으로 나타내는 흐름도이다. 13 is a flowchart schematically showing still another embodiment of an entropy decoding method according to the present invention.
이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.EMBODIMENT OF THE INVENTION Hereinafter, embodiment of this invention is described concretely with reference to drawings. In describing the embodiments of the present specification, when it is determined that a detailed description of a related well-known configuration or function may obscure the gist of the present specification, the detailed description thereof will be omitted.
어떤 구성 요소가 다른 구성 요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 아울러, 본 발명에서 특정 구성을 “포함”한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다. When a component is said to be “connected” or “connected” to another component, it may be directly connected to or connected to that other component, but it may be understood that another component may exist in between. Should be. In addition, the description "include" a specific configuration in the present invention does not exclude a configuration other than the configuration, it means that additional configuration may be included in the scope of the technical spirit of the present invention or the present invention.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
또한 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.In addition, the components shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is made of separate hardware or one software component unit. In other words, each component is included in each component for convenience of description, and at least two of the components may be combined into one component, or one component may be divided into a plurality of components to perform a function. Integrated and separate embodiments of the components are also included within the scope of the present invention without departing from the spirit of the invention.
또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.In addition, some of the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance. The present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included in the scope of the present invention.

도 1은 영상 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다. 스케일러블(scalable) 비디오 부호화/복호화 방법 또는 장치는 스케일러빌리티(scalability)를 제공하지 않는 일반적인 영상 부호화/복호화 방법 또는 장치의 확장(extension)에 의해 구현될 수 있으며, 도 1의 블록도는 스케일러블 비디오 부호화 장치의 기초가 될 수 있는 영상 부호화 장치의 일 실시예를 나타낸다.1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment. A scalable video encoding / decoding method or apparatus may be implemented by an extension of a general video encoding / decoding method or apparatus that does not provide scalability, and the block diagram of FIG. 1 is scalable. An embodiment of an image encoding apparatus that may be the basis of a video encoding apparatus is illustrated.
도 1을 참조하면, 상기 영상 부호화 장치(100)는 움직임 예측부(111), 움직임 보상부(112), 인트라 예측부(120), 스위치(115), 감산기(125), 변환부(130), 양자화부(140), 엔트로피 부호화부(150), 역양자화부(160), 역변환부(170), 가산기(175), 필터부(180) 및 참조영상 버퍼(190)를 포함한다.Referring to FIG. 1, the image encoding apparatus 100 may include a motion predictor 111, a motion compensator 112, an intra predictor 120, a switch 115, a subtractor 125, and a converter 130. And a quantization unit 140, an entropy encoding unit 150, an inverse quantization unit 160, an inverse transform unit 170, an adder 175, a filter unit 180, and a reference image buffer 190.
영상 부호화 장치(100)는 입력 영상에 대해 인트라(intra) 모드 또는 인터(inter) 모드로 부호화를 수행하고 비트스트림(bit stream)을 출력할 수 있다. 인트라 예측은 화면 내 예측, 인터 예측은 화면 간 예측을 의미한다. 인트라 모드인 경우 스위치(115)가 인트라로 전환되고, 인터 모드인 경우 스위치(115)가 인터로 전환된다. 영상 부호화 장치(100)는 입력 영상의 입력 블록에 대한 예측 블록을 생성한 후, 입력 블록과 예측 블록의 차분을 부호화할 수 있다.The image encoding apparatus 100 may perform encoding in an intra mode or an inter mode on an input image and output a bit stream. Intra prediction means intra prediction and inter prediction means inter prediction. In the intra mode, the switch 115 is switched to intra, and in the inter mode, the switch 115 is switched to inter. The image encoding apparatus 100 may generate a prediction block for an input block of an input image and then encode a difference between the input block and the prediction block.
인트라 모드인 경우, 인트라 예측부(120)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성할 수 있다.In the intra mode, the intra predictor 120 may generate a prediction block by performing spatial prediction using pixel values of blocks that are already encoded around the current block.
인터 모드인 경우, 움직임 예측부(111)는, 움직임 예측 과정에서 참조 영상 버퍼(190)에 저장되어 있는 참조 영상에서 입력 블록과 가장 매치가 잘 되는 영역을 찾아 움직임 벡터를 구할 수 있다. 움직임 보상부(112)는 움직임 벡터와 참조 영상 버퍼(190)에 저장되어 있는 참조 영상을 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다. In the inter mode, the motion predictor 111 may obtain a motion vector by searching for a region that best matches an input block in the reference image stored in the reference image buffer 190 during the motion prediction process. The motion compensator 112 may generate a prediction block by performing motion compensation using the motion vector and the reference image stored in the reference image buffer 190.
감산기(125)는 입력 블록과 생성된 예측 블록의 차분에 의해 잔여 블록(residual block)을 생성할 수 있다. 변환부(130)는 잔여 블록에 대해 변환(transform)을 수행하여 변환 계수(transform coefficient)를 출력할 수 있다. 그리고 양자화부(140)는 입력된 변환 계수를 양자화 파라미터에 따라 양자화하여 양자화된 계수(quantized coefficient)를 출력할 수 있다. The subtractor 125 may generate a residual block by the difference between the input block and the generated prediction block. The transform unit 130 may output a transform coefficient by performing transform on the residual block. The quantization unit 140 may output the quantized coefficient by quantizing the input transform coefficient according to the quantization parameter.

엔트로피 부호화부(150)는, 양자화부(140)에서 산출된 값들 또는 부호화 과정에서 산출된 부호화 파라미터 값 등을 기초로, 심볼(symbol)을 확률 분포에 따라 엔트로피 부호화하여 비트스트림(bit stream)을 출력할 수 있다. 엔트로피 부호화 방법은 다양한 값을 갖는 심볼을 입력 받아, 통계적 중복성을 제거하면서, 복호 가능한 2진수의 열로 표현하는 방법이다. The entropy encoding unit 150 entropy encodes a symbol according to a probability distribution based on values calculated by the quantization unit 140 or encoding parameter values calculated in the encoding process, thereby generating a bit stream. You can print The entropy encoding method is a method of receiving a symbol having various values and expressing it in a decodable column while removing statistical redundancy.
여기서, 심볼이란 부호화/복호화 대상 구문 요소(syntax element) 및 부호화 파라미터(coding parameter), 잔여 신호(residual signal)의 값 등을 의미한다. 부호화 파라미터는 부호화 및 복호화에 필요한 매개변수로서, 구문 요소와 같이 부호화기에서 부호화되어 복호화기로 전달되는 정보뿐만 아니라, 부호화 혹은 복호화 과정에서 유추될 수 있는 정보를 포함할 수 있으며 영상을 부호화하거나 복호화할 때 필요한 정보를 의미한다. 부호화 파라미터는 예를 들어 인트라/인터 예측모드, 이동/움직임 벡터, 참조 영상 색인, 부호화 블록 패턴, 잔여 신호 유무, 변환 계수, 양자화된 변환 계수, 양자화 파라미터, 블록 크기, 블록 분할 정보 등의 값 또는 통계를 포함할 수 있다. 또한 잔여 신호는 원신호와 예측 신호의 차이를 의미할 수 있고, 또한 원신호와 예측 신호의 차이가 변환(transform)된 형태의 신호 또는 원신호와 예측 신호의 차이가 변환되고 양자화된 형태의 신호를 의미할 수도 있다. 잔여 신호는 블록 단위에서는 잔여 블록이라 할 수 있다.Here, the symbol means a syntax element, a coding parameter, a residual signal value, or the like that is to be encoded / decoded. Encoding parameters are parameters necessary for encoding and decoding, and may include information that may be inferred during encoding or decoding, as well as information encoded by an encoder and transmitted to a decoder, such as syntax elements. Means necessary information. Coding parameters may be, for example, intra / inter prediction modes, moving / motion vectors, reference picture indexes, coding block patterns, presence or absence of residual signals, transform coefficients, quantized transform coefficients, quantization parameters, block sizes, block partitioning information, or the like. May include statistics. In addition, the residual signal may mean a difference between the original signal and the prediction signal, and a signal in which the difference between the original signal and the prediction signal is transformed or a signal in which the difference between the original signal and the prediction signal is converted and quantized It may mean. The residual signal may be referred to as a residual block in block units.
엔트로피 부호화가 적용되는 경우, 높은 발생 확률을 갖는 심볼에 적은 수의 비트가 할당되고 낮은 발생 확률을 갖는 심볼에 많은 수의 비트가 할당되어 심볼이 표현됨으로써, 부호화 대상 심볼들에 대한 비트열의 크기가 감소될 수 있다. 따라서 엔트로피 부호화를 통해서 영상 부호화의 압축 성능이 높아질 수 있다. When entropy encoding is applied, a small number of bits are allocated to a symbol having a high probability of occurrence and a large number of bits are allocated to a symbol having a low probability of occurrence, whereby the size of the bit string for the symbols to be encoded is increased. Can be reduced. Therefore, compression performance of image encoding may be increased through entropy encoding.
엔트로피 부호화를 위해 지수 골룸(exponential golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 부호화 방법이 사용될 수 있다. 예를 들어, 엔트로피 부호화부(150)에는 가변 길이 부호화(VLC: Variable Lenghth Coding/Code) 테이블과 같은 엔트로피 부호화를 수행하기 위한 테이블이 저장될 수 있고, 엔트로피 부호화부(150)는 저장된 가변 길이 부호화(VLC) 테이블을 사용하여 엔트로피 부호화를 수행할 수 있다. 또한 엔트로피 부호화부(150)는 대상 심볼의 이진화(binarization) 방법 및 대상 심볼/빈(bin)의 확률 모델(probability model)을 도출한 후, 도출된 이진화 방법 또는 확률 모델을 사용하여 엔트로피 부호화를 수행할 수도 있다.For entropy coding, coding methods such as exponential golomb, context-adaptive variable length coding (CAVLC), and context-adaptive binary arithmetic coding (CABAC) may be used. For example, the entropy encoder 150 may store a table for performing entropy encoding, such as a variable length coding (VLC) table, and the entropy encoder 150 may store the stored variable length encoding. Entropy encoding may be performed using the (VLC) table. In addition, the entropy encoder 150 derives a binarization method of a target symbol and a probability model of a target symbol / bin, and then performs entropy encoding using the derived binarization method or a probability model. You may.
여기서, 이진화(binarization)란 심볼의 값을 2진수의 열(bin sequence/string)로 표현하는 것을 의미한다. 빈(bin)은 심볼이 이진화를 통해 2진수의 열로 표현될 때, 각각의 2진수의 값(0 또는 1)을 의미한다. Here, binarization means expressing a symbol value as a binary sequence (bin sequence / string). A bin means the value of each binary number (0 or 1) when the symbol is represented as a column of binary numbers through binarization.
확률 모델이란, 문맥 정보(context information)/문맥 모델(context model)을 통해서 도출될 수 있는 부호화/복호화 대상 심볼/빈의 예측된 확률을 의미한다. 문맥 정보/문맥 모델은 부호화/복호화 대상 심볼/빈의 확률을 결정하기 위한 정보를 말한다.The probability model refers to a predicted probability of a symbol / bin to be encoded / decoded, which can be derived through a context information / context model. The context information / context model refers to information for determining a probability of a symbol / bin to be encoded / decoded.
보다 상세하게, CABAC 엔트로피 부호화 방법은, 이진화되지 않은 심볼을 이진화(binarization)하여 빈으로 변환하고, 주변 및 부호화 대상 블록의 부호화 정보 혹은 이전 단계에서 부호화된 심볼/빈의 정보를 이용하여 문맥 모델을 결정하고, 결정된 문맥 모델에 따라 빈(bin)의 발생 확률을 예측하여 빈의 산술 부호화(arithmetic encoding)를 수행하여 비트스트림을 생성할 수 있다. 이때, CABAC 엔트로피 부호화 방법은 문맥 모델 결정 후 다음 심볼/빈의 문맥 모델을 위해 부호화된 심볼/빈의 정보를 이용하여 문맥 모델을 업데이트할 수 있다.More specifically, the CABAC entropy encoding method binarizes non-binarized symbols to transform them into bins, and uses the encoding information of neighboring and encoding target blocks or the information of symbols / bins encoded in the previous step to construct a context model. The bitstream may be generated by performing an arithmetic encoding of the bin by predicting the occurrence probability of the bin according to the determined context model. In this case, after determining the context model, the CABAC entropy encoding method may update the context model using information on the encoded symbol / bin for the context model of the next symbol / bin.

양자화된 계수는 역양자화부(160)에서 역양자화되고 역변환부(170)에서 역변환될 수 있다. 역양자화, 역변환된 계수는 가산기(175)를 통해 예측 블록과 더해지고 복원 블록이 생성될 수 있다. The quantized coefficients may be inversely quantized by the inverse quantizer 160 and inversely transformed by the inverse transformer 170. The inverse quantized and inverse transformed coefficients are added to the prediction block through the adder 175 and a reconstruction block can be generated.
복원 블록은 필터부(180)를 거치고, 필터부(180)는 디블록킹 필터(deblocking filter), SAO(Sample Adaptive Offset), ALF(Adaptive Loop Filter) 중 적어도 하나 이상을 복원 블록 또는 복원 픽쳐에 적용할 수 있다. 필터부(180)를 거친 복원 블록은 참조 영상 버퍼(190)에 저장될 수 있다.The reconstruction block passes through the filter unit 180, and the filter unit 180 applies at least one or more of a deblocking filter, a sample adaptive offset (SAO), and an adaptive loop filter (ALF) to the reconstruction block or the reconstruction picture. can do. The reconstructed block that has passed through the filter unit 180 may be stored in the reference image buffer 190.

도 2는 영상 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다. 도 1에서 상술한 바와 같이 스케일러블 비디오 부호화/복호화 방법 또는 장치는 스케일러빌리티를 제공하지 않는 일반적인 영상 부호화/복호화 방법 또는 장치의 확장에 의해 구현될 수 있으며, 도 2의 블록도는 스케일러블 비디오 복호화 장치의 기초가 될 수 있는 영상 복호화 장치의 일 실시예를 나타낸다.2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment. As described above with reference to FIG. 1, a scalable video encoding / decoding method or apparatus may be implemented by extension of a general video encoding / decoding method or apparatus that does not provide scalability, and the block diagram of FIG. 2 is scalable video decoding. An embodiment of an image decoding apparatus that may be the basis of an apparatus is shown.
도 2를 참조하면, 상기 영상 복호화 장치(200)는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 필터부(260) 및 참조 영상 버퍼(270)를 포함한다.2, the image decoding apparatus 200 may include an entropy decoder 210, an inverse quantizer 220, an inverse transformer 230, an intra predictor 240, a motion compensator 250, and a filter. 260 and a reference picture buffer 270.
영상 복호화 장치(200)는 부호화기에서 출력된 비트스트림을 입력 받아 인트라 모드 또는 인터 모드로 복호화를 수행하고 재구성된 영상, 즉 복원 영상을 출력할 수 있다. 인트라 모드인 경우 스위치가 인트라로 전환되고, 인터 모드인 경우 스위치가 인터로 전환될 수 있다. 영상 복호화 장치(200)는 입력 받은 비트스트림으로부터 복원된 잔여 블록(residual block)을 얻고 예측 블록을 생성한 후 복원된 잔여 블록과 예측 블록을 더하여 재구성된 블록, 즉 복원 블록을 생성할 수 있다.The image decoding apparatus 200 may receive a bitstream output from the encoder and perform decoding in an intra mode or an inter mode, and output a reconstructed image, that is, a reconstructed image. In the intra mode, the switch may be switched to intra, and in the inter mode, the switch may be switched to inter. The image decoding apparatus 200 may generate a reconstructed block, that is, a reconstructed block by obtaining a residual block reconstructed from the received bitstream, generating a prediction block, and adding the reconstructed residual block and the prediction block.

엔트로피 복호화부(210)는, 입력된 비트스트림을 확률 분포에 따라 엔트로피 복호화하여, 양자화된 계수(quantized coefficient) 형태의 심볼을 포함한 심볼들을 생성할 수 있다. 엔트로피 복호화 방법은 2진수의 열을 입력 받아 각 심볼들을 생성하는 방법이다. 엔트로피 복호화 방법은 상술한 엔트로피 부호화 방법과 유사하다.The entropy decoder 210 may entropy decode the input bitstream according to a probability distribution to generate symbols including symbols in the form of quantized coefficients. The entropy decoding method is a method of generating each symbol by receiving a binary string. The entropy decoding method is similar to the entropy coding method described above.
보다 상세하게, CABAC 엔트로피 복호화 방법은, 비트스트림에서 각 구문 요소에 해당하는 빈을 수신하고, 복호화 대상 구문 요소 정보와 주변 및 복호화 대상 블록의 복호화 정보 혹은 이전 단계에서 복호화된 심볼/빈의 정보를 이용하여 문맥 모델을 결정하고, 결정된 문맥 모델에 따라 빈(bin)의 발생 확률을 예측하여 빈의 산술 복호화(arithmetic decoding)를 수행하여 각 구문 요소의 값에 해당하는 심볼을 생성할 수 있다. 이때, CABAC 엔트로피 복호화 방법은 문맥 모델 결정 후 다음 심볼/빈의 문맥 모델을 위해 복호화된 심볼/빈의 정보를 이용하여 문맥 모델을 업데이트할 수 있다.More specifically, the CABAC entropy decoding method receives a bin corresponding to each syntax element in a bitstream, and decodes syntax element information, decoding information of neighboring and decoding target blocks, or information of a symbol / bin decoded in a previous step. A context model may be determined using the context model, and a probability corresponding to the value of each syntax element may be generated by performing arithmetic decoding of the bin by predicting a probability of occurrence of a bin according to the determined context model. In this case, after determining the context model, the CABAC entropy decoding method may update the context model by using the information of the decoded symbol / bin for the context model of the next symbol / bin.
엔트로피 복호화 방법이 적용되는 경우, 높은 발생 확률을 갖는 심볼에 적은 수의 비트가 할당되고 낮은 발생 확률을 갖는 심볼에 많은 수의 비트가 할당되어 심볼이 표현됨으로써, 각 심볼들에 대한 비트열의 크기가 감소될 수 있다. 따라서 엔트로피 복호화 방법을 통해서 영상 복호화의 압축 성능이 높아질 수 있다. When the entropy decoding method is applied, a small number of bits are allocated to a symbol having a high probability of occurrence and a large number of bits are allocated to a symbol having a low probability of occurrence, whereby the size of the bit string for each symbol is increased. Can be reduced. Therefore, the compression performance of image decoding can be improved through an entropy decoding method.

양자화된 계수는 역양자화부(220)에서 역양자화되고 역변환부(230)에서 역변환되며, 양자화된 계수가 역양자화/역변환 된 결과, 복원된 잔여 블록(residual block)이 생성될 수 있다. The quantized coefficients are inversely quantized by the inverse quantizer 220 and inversely transformed by the inverse transformer 230, and as a result of the inverse quantization / inverse transformation of the quantized coefficients, a reconstructed residual block may be generated.
인트라 모드인 경우, 인트라 예측부(240)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성할 수 있다. 인터 모드인 경우, 움직임 보상부(250)는 움직임 벡터 및 참조 영상 버퍼(270)에 저장되어 있는 참조 영상을 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다. In the intra mode, the intra predictor 240 may generate a predictive block by performing spatial prediction using pixel values of an already encoded block around the current block. In the inter mode, the motion compensator 250 may generate a prediction block by performing motion compensation using the motion vector and the reference image stored in the reference image buffer 270.
복원된 잔여 블록과 예측 블록은 가산기(255)를 통해 더해지고, 더해진 블록은 필터부(260)를 거친다. 필터부(260)는 디블록킹 필터, SAO, ALF 중 적어도 하나 이상을 복원 블록 또는 복원 픽쳐에 적용할 수 있다. 필터부(260)는 재구성된 영상, 즉 복원 영상을 출력한다. 복원 영상은 참조 영상 버퍼(270)에 저장되어 화면 간 예측에 사용될 수 있다.The reconstructed residual block and the prediction block are added through the adder 255, and the added block passes through the filter unit 260. The filter unit 260 may apply at least one or more of the deblocking filter, SAO, and ALF to the reconstructed block or the reconstructed picture. The filter unit 260 outputs a reconstructed image, that is, a reconstructed image. The reconstructed picture may be stored in the reference picture buffer 270 to be used for inter prediction.

도 3은 본 발명이 적용될 수 있는, 복수 계층을 이용한 스케일러블 비디오 코딩 구조의 일 실시예를 개략적으로 나타내는 개념도이다. 도 3에서 GOP(Group of Picture)는 픽쳐군 즉, 픽쳐의 그룹을 나타낸다.3 is a conceptual diagram schematically illustrating an embodiment of a scalable video coding structure using multiple layers to which the present invention can be applied. In FIG. 3, a group of pictures (GOP) represents a picture group, that is, a group of pictures.
영상 데이터를 전송하기 위해서는 전송 매체가 필요하며, 그 성능은 다양한 네트워크 환경에 따라 전송 매체별로 차이가 있다. 이러한 다양한 전송 매체 또는 네트워크 환경에의 적용을 위해 스케일러블 비디오 코딩 방법이 제공될 수 있다.In order to transmit image data, a transmission medium is required, and its performance varies depending on the transmission medium according to various network environments. A scalable video coding method may be provided for application to such various transmission media or network environments.
스케일러블 비디오 코딩 방법은 계층(layer) 간의 텍스쳐 정보, 움직임 정보, 잔여 신호 등을 활용하여 계층 간 중복성을 제거하여 부호화/복호화 성능을 높이는 코딩 방법이다. 스케일러블 비디오 코딩 방법은, 전송 비트율, 전송 에러율, 시스템 자원 등의 주변 조건에 따라, 공간적, 시간적, 화질적 관점에서 다양한 스케일러빌리티를 제공할 수 있다.The scalable video coding method is a coding method that improves encoding / decoding performance by removing redundancy between layers by using texture information, motion information, and residual signals between layers. The scalable video coding method may provide various scalability in terms of spatial, temporal, and image quality according to ambient conditions such as a transmission bit rate, a transmission error rate, and a system resource.
스케일러블 비디오 코딩은, 다양한 네트워크 상황에 적용 가능한 비트스트림을 제공할 수 있도록, 복수 계층(multiple layers) 구조를 사용하여 수행될 수 있다. 예를 들어 스케일러블 비디오 코딩 구조는, 일반적인 영상 부호화 방법을 이용하여 영상 데이터를 압축하여 처리하는 기초 계층을 포함할 수 있고, 기초 계층의 부호화 정보 및 일반적인 영상 부호화 방법을 함께 사용하여 영상 데이터를 압축 처리하는 향상 계층을 포함할 수 있다.Scalable video coding may be performed using multiple layers structure to provide a bitstream applicable to various network situations. For example, the scalable video coding structure may include a base layer that compresses and processes image data using a general image encoding method, and compresses the image data using both the encoding information of the base layer and a general image encoding method. May include an enhancement layer for processing.
여기서, 계층(layer)은 공간(예를 들어, 영상 크기), 시간(예를 들어, 부호화 순서, 영상 출력 순서), 화질, 복잡도 등을 기준으로 구분되는 영상 및 비트스트림(bitstream)의 집합을 의미한다. 또한 복수의 계층들은 서로 간에 종속성을 가질 수도 있다.Here, the layer may be a set of images and bitstreams classified based on space (eg, image size), time (eg, encoding order, image output order), image quality, complexity, and the like. it means. In addition, the plurality of layers may have a dependency between each other.
도 3을 참조하면, 예를 들어 기초 계층은 QCIF(Quarter Common Intermediate Format), 15Hz의 프레임율, 3Mbps 비트율로 정의될 수 있고, 제1 향상 계층은 CIF(Common Intermediate Format), 30Hz의 프레임율, 0.7Mbps 비트율로 정의될 수 있으며, 제2 향상 계층은 SD(Standard Definition), 60Hz의 프레임율, 0.19Mbps 비트율로 정의될 수 있다. 상기 포맷(format), 프레임율, 비트율 등은 하나의 실시예로서, 필요에 따라 달리 정해질 수 있다. 또한 사용되는 계층의 수도 본 실시예에 한정되지 않고 상황에 따라 달리 정해질 수 있다. Referring to FIG. 3, for example, the base layer may be defined as a QCIF (Quarter Common Intermediate Format), a frame rate of 15 Hz, a 3 Mbps bit rate, and the first enhancement layer may include a CIF (Common Intermediate Format), a frame rate of 30 Hz, It may be defined as a 0.7Mbps bit rate, the second enhancement layer may be defined as a standard definition (SD), a frame rate of 60Hz, 0.19Mbps bit rate. The format, frame rate, bit rate, etc. are exemplary and may be determined differently as necessary. In addition, the number of hierarchies used is not limited to this embodiment and may be determined differently according to a situation.
이 때, 만일 CIF 0.5Mbps 비트스트림(bit stream)이 필요하다면, 제1 향상 계층에서 비트율이 0.5Mbp가 되도록 비트스트림이 잘려서 전송될 수 있다. 스케일러블 비디오 코딩 방법은 상기 도 3의 실시예에서 상술한 방법에 의해 시간적, 공간적, 화질적 스케일러빌리티를 제공할 수 있다.At this time, if a CIF 0.5 Mbps bit stream is needed, the bit stream may be truncated and transmitted so that the bit rate is 0.5 Mbp in the first enhancement layer. The scalable video coding method can provide temporal, spatial and image quality scalability by the method described above in the embodiment of FIG. 3.

이하, 대상 계층, 대상 영상, 대상 슬라이스, 대상 유닛, 대상 블록, 대상 심볼, 대상 빈은 각각 현재 부호화 또는 복호화되는 계층, 영상, 슬라이스, 유닛, 블록, 심볼 및 빈을 의미한다. 따라서 예를 들어, 대상 계층은 대상 심볼이 속한 계층일 수 있다. 또한 다른 계층은 대상 계층을 제외한 계층으로서, 대상 계층에서 이용 가능한 계층을 의미한다. 즉, 다른 계층은 대상 계층에서의 복호화 수행에 이용될 수 있다. 대상 계층에서 이용 가능한 계층에는 예를 들어, 시간적, 공간적, 화질적 하위 계층이 있을 수 있다.Hereinafter, the target layer, the target image, the target slice, the target unit, the target block, the target symbol, and the target bin mean a layer, an image, a slice, a unit, a block, a symbol, and a bin currently encoded or decoded, respectively. Thus, for example, the target layer may be a layer to which the target symbol belongs. In addition, the other layer is a layer excluding the target layer, and means a layer available in the target layer. That is, another layer may be used to perform decoding in the target layer. Layers available in the target layer may include, for example, temporal, spatial and image quality sublayers.
또한 이하, 대응 계층, 대응 영상, 대응 슬라이스, 대응 유닛, 대응 블록, 대응 심볼, 대응 빈은 각각 대상 계층, 대상 영상, 대상 슬라이스, 대상 유닛, 대상 블록, 대상 심볼, 대상 빈에 대응되는 계층, 영상, 슬라이스, 유닛, 블록, 심볼 및 빈을 의미한다. 대응 영상이란, 대상 영상과 동일한 시간축에 존재하는 다른 계층의 영상을 의미한다. 대상 계층 내의 영상과 다른 계층 내의 영상의 디스플레이 순서(display order)가 동일하면, 대상 계층 내의 영상과 다른 계층 내의 영상은 동일한 시간축에 존재한다고 할 수 있다. 영상들이 동일한 시간축에 존재하는 지 여부는 POC (picture order count)와 같은 부호화 파라미터를 이용해서 식별될 수 있다. 대응 슬라이스는 상기 대응 영상 내에서, 대상 영상의 대상 슬라이스와 공간적으로 동일하거나 유사하게 대응되는 위치에 존재하는 슬라이스를 의미한다. 대응 유닛은 상기 대응 영상 내에서, 대상 영상의 대상 유닛과 공간적으로 동일하거나 유사하게 대응되는 위치에 존재하는 유닛을 의미한다. 대응 블록은 상기 대응 영상 내에서, 대상 영상의 대상 블록과 공간적으로 동일하거나 유사하게 대응되는 위치에 존재하는 블록을 의미한다.In addition, hereinafter, the corresponding layer, the corresponding image, the corresponding slice, the corresponding unit, the corresponding block, the corresponding symbol, and the corresponding bin correspond to the target layer, the target image, the target slice, the target unit, the target block, the target symbol, and the target bin, respectively. Means image, slice, unit, block, symbol, and bin. The corresponding image refers to an image of another layer existing on the same time axis as the target image. When the display order of an image in another layer and an image in another layer are the same, it may be said that an image in the target layer and an image in another layer exist on the same time axis. Whether the pictures exist on the same time axis may be identified using an encoding parameter such as a picture order count (POC). The corresponding slice refers to a slice existing in a position corresponding to the same or similar to the target slice of the target image in the corresponding image. The corresponding unit refers to a unit existing in a corresponding position in the corresponding image that is spatially identical to or similar to the target unit of the target image. The corresponding block refers to a block existing at a position corresponding to the same as or similar to the target block of the target image in the corresponding image.
또한 이하, 영상이 분할되는 단위를 나타내는 슬라이스는 타일(tile), 엔트로피 슬라이스(entropy slice) 등의 분할 단위를 통칭하는 의미로 사용된다. 각 분할된 단위 간에는 독립적인 영상 부호화 및 복호화가 가능하다.In addition, hereinafter, a slice indicating a unit in which an image is divided is used to mean a division unit such as a tile or an entropy slice. Independent image encoding and decoding are possible between the divided units.
또한 이하, 블록은 영상 부호화 및 복호화의 단위를 의미한다. 영상 부호화 및 복호화 시 부호화 혹은 복호화 단위는, 하나의 영상을 세분화된 유닛으로 분할하여 부호화 혹은 복호화 할 때 그 분할된 단위를 말하므로, 매크로 블록, 부호화 유닛 (CU: Coding Unit), 예측 유닛 (PU: Prediction Unit), 변환 유닛(TU: Transform Unit), 변환 블록(transform block) 등으로 불릴 수 있다. 하나의 블록은 크기가 더 작은 하위 블록으로 더 분할될 수 있다.In addition, hereinafter, a block means a unit of image encoding and decoding. When encoding or decoding an image, a coding or decoding unit refers to a divided unit when a single image is divided into subdivided units to be encoded or decoded, and thus, a macroblock, a coding unit (CU), and a prediction unit (PU). It may be called a Prediction Unit, a Transform Unit, a transform block, or the like. One block may be further divided into smaller sub-blocks.

또한, 스케일러블 비디오 코딩은 이하 부호화 관점에서는 스케일러블 비디오 부호화, 복호화 관점에서는 스케일러블 비디오 복호화와 동일한 의미를 가진다.In addition, scalable video coding has the same meaning as scalable video encoding from a coding point of view and scalable video decoding from a decoding point of view.

스케일러빌리티를 제공하지 않는 일반적인 영상 압축 기술에서 사용되는 엔트로피 부호화/복호화 방법에서는, 대상 계층의 문맥 정보가 사용되고 스케일러블 비디오 코딩 방법 등에서 사용 가능한 다른 계층의 문맥 정보가 활용되지 않는다. In the entropy encoding / decoding method used in a general image compression technique that does not provide scalability, context information of a target layer is used and context information of another layer available in a scalable video coding method is not utilized.
스케일러블 비디오 코딩 방법에서는, 계층 간의 텍스쳐 정보, 움직임 정보, 잔여 신호 정보 등을 활용하여 계층 간 중복성이 제거될 수 있다. 그러나, 부호화 파라미터 및 최종 잔여 신호 등이 얻어진 후, 각각의 계층에서 독립적으로 엔트로피 부호화/복호화가 수행될 수 있다. 이 때 스케일러블 비디오 코딩 방법은 부호화 성능 향상에 한계를 가질 수 있다.In the scalable video coding method, redundancy between layers may be removed by utilizing texture information, motion information, residual signal information, and the like between layers. However, after the encoding parameters, the final residual signal, etc. are obtained, entropy encoding / decoding may be performed independently in each layer. In this case, the scalable video coding method may have a limitation in improving encoding performance.
따라서 스케일러블 비디오 코딩 방법에 있어, 대상 계층의 부호화/복호화 대상 정보(부호화 파라미터, 잔여 신호 등의 심볼)에 대한 엔트로피 부호화/복호화가 수행될 때, 대상 계층의 문맥 정보뿐만 아니라 다른 계층의 문맥 정보도 함께 사용하는 방법이 제공될 수 있다. 이 때, 스케일러블 비디오 부호화/복호화 방법을 수행함에 있어 계층 간의 정보를 이용하여 엔트로피 부호화/복호화가 수행되므로, 영상 부호화/복호화의 압축 성능이 향상될 수 있다.Therefore, in the scalable video coding method, when entropy encoding / decoding is performed on encoding / decoding target information (symbols such as encoding parameters and residual signals) of a target layer, context information of another layer as well as context information of the target layer are performed. Also used may be a method of use together. In this case, in performing the scalable video encoding / decoding method, since entropy encoding / decoding is performed using information between layers, compression performance of image encoding / decoding may be improved.

도 4는 본 발명에 따른 엔트로피 부호화 방법의 일 실시예를 개략적으로 나타내는 흐름도이다. 4 is a flowchart schematically showing an embodiment of an entropy encoding method according to the present invention.
도 4의 실시예를 참조하면, 부호화기의 엔트로피 부호화부는 부호화 대상 심볼의 문맥 정보를 도출한다(S410). 상술한 바와 같이, 부호화 대상 심볼의 문맥 정보는 대상 계층 내의 문맥 정보를 이용하여 도출될 수도 있고, 다른 계층 내의 문맥 정보를 이용하여 도출될 수도 있다. Referring to the embodiment of FIG. 4, the entropy encoder of the encoder derives context information of a symbol to be encoded (S410). As described above, the context information of the encoding target symbol may be derived using the context information in the target layer, or may be derived using the context information in the other layer.
대상 계층 또는 다른 계층 내의 문맥 정보는 대상 계층 또는 다른 계층 내에 존재하는 심볼 및/또는 빈의 값 및 값들의 조합과 빈도수 및 빈도수의 조합을 포함할 수 있다. 이하, 심볼/빈의 값 및 값들의 조합을 통칭하여 심볼/빈의 값 정보라 하고, 심볼/빈의 빈도수 및 빈도수의 조합을 통칭하여 심볼/빈의 빈도수 정보라 한다. 또한 이하 빈의 값 및 값들의 조합을 통칭하여 빈의 값 정보라 하고, 빈의 빈도수 및 빈도수의 조합을 통칭하여 빈의 빈도수 정보라 한다.The contextual information in the target layer or another layer may include a combination of frequencies and combinations of values and values of symbols and / or bins present in the target layer or other layers. Hereinafter, the value of the symbol / bin and the combination of values are collectively referred to as symbol / bin value information, and the combination of the frequency and the symbol frequency is referred to as symbol / bin frequency information. In addition, the value of the bin and the combination of values are collectively referred to as bin value information, and the combination of the frequency and the frequency of the bin collectively referred to as frequency information of the bin.
부호화 대상 심볼의 문맥 정보 도출을 위해 사용되는, 대상 계층 또는 다른 계층 내의 문맥 정보에는 다양한 유형이 있을 수 있다. There may be various types of context information in a target layer or another layer, which is used for deriving context information of a symbol to be encoded.

상술한 바와 같이, 부호화 대상 심볼의 문맥 정보는 대상 계층 내의 문맥 정보를 이용하여 도출될 수 있다. 부호화 대상 심볼의 문맥 정보를 도출하기 위해 사용되는 대상 계층 내의 문맥 정보의 실시예로서, 다음과 같은 문맥 정보 유형들이 있을 수 있다.As described above, the context information of the encoding target symbol may be derived using the context information in the target layer. As an embodiment of the context information in the target layer used to derive the context information of the symbol to be encoded, there may be the following types of context information.
1. 대상 계층 내의 문맥 정보는, 부호화 대상 심볼/빈과 동일하고 대상 계층에서 부호화 순서에 따라 이미 부호화된 심볼/빈의 값, 빈도수 정보일 수 있다.1. The context information in the target layer may be the same as the encoding target symbol / bin and the value of the symbol / bin already encoded according to the encoding order in the target layer, and the frequency information.
2. 대상 계층 내의 문맥 정보는, 부호화 대상 심볼/빈과 관련되거나 종속되고 대상 계층에서 부호화 순서에 따라 이미 부호화된 심볼/빈의 값, 빈도수 정보일 수 있다.2. The context information in the target layer may be a value or frequency information of a symbol / bin associated with or dependent on the encoding target symbol / bin and already encoded according to the encoding order in the target layer.
3. 대상 계층 내의 문맥 정보는, 부호화 대상 심볼/빈과 동일한 심볼/빈으로서, 대상 계층의 영상, 슬라이스, 유닛 또는 블록 내에 존재하는 전체 심볼/빈의 값, 빈도수 정보일 수 있다.3. The context information in the target layer is a symbol / bin which is the same as the encoding target symbol / bin, and may be the value and frequency information of all symbols / bins existing in the image, slice, unit, or block of the target layer.
4. 대상 계층 내의 문맥 정보는, 대상 계층 내의 부호화 대상 슬라이스, 유닛 또는 블록에 존재하는 심볼/빈으로서, 부호화 대상 심볼/빈과 동일하고 이미 부호화된 심볼/빈의 값, 빈도수 정보일 수 있다. 이 때, 상기 슬라이스, 유닛 또는 블록은 특정 부호화 대상 심볼/빈이 존재하는 슬라이스, 유닛 또는 블록일 수 있다.4. The context information in the target layer is a symbol / bin present in the encoding target slice, unit or block in the target layer, and may be the same symbol / bin value and frequency information as the encoding target symbol / bin. In this case, the slice, unit or block may be a slice, unit or block in which a specific encoding target symbol / bin exists.
5. 대상 계층 내의 문맥 정보는, 대상 계층 내의 부호화 대상 슬라이스, 유닛 또는 블록에 존재하는 심볼/빈으로서, 부호화 대상 심볼/빈과 동일하고 이미 부호화된 심볼/빈의 공간적 위치 및 주사(scanning) 위치 정보일 수 있다. 이 때, 상기 슬라이스, 유닛 또는 블록은 특정 부호화 대상 심볼/빈이 존재하는 슬라이스, 유닛 또는 블록일 수 있다.5. The context information in the target layer is a symbol / bin present in the encoding target slice, unit or block in the target layer, which is the same as the encoding target symbol / bin and has a spatial position and a scanning position of an already encoded symbol / bin. Information. In this case, the slice, unit or block may be a slice, unit or block in which a specific encoding target symbol / bin exists.
6. 대상 계층 내의 문맥 정보는, 대상 계층에 존재하는 특정 부호화 대상 심볼에서, 부호화 대상 빈과 동일하고 이미 부호화된 빈의 값, 빈도수 정보일 수 있다.6. The context information in the target layer may be a value and frequency information of a bin that is the same as the encoding target bin and is already encoded in a specific encoding target symbol existing in the target layer.
7. 대상 계층 내의 문맥 정보는, 대상 계층에서 부호화 대상 유닛의 주변 유닛 또는 부호화 대상 블록의 주변 블록에 존재하는 심볼/빈으로서, 부호화 대상 심볼/빈과 동일하고 이미 부호화된 심볼/빈의 값, 빈도수 정보일 수 있다. 이 때, 상기 부호화 대상 유닛 또는 상기 부호화 대상 블록은 특정 부호화 대상 심볼/빈이 존재하는 유닛 또는 블록일 수 있다.7. The context information in the target layer is a symbol / bin present in the neighboring unit of the encoding target unit or the neighboring block of the encoding target block in the target layer, and is equal to the encoding target symbol / bin and the value of the symbol / bin already encoded, It may be frequency information. In this case, the encoding target unit or the encoding target block may be a unit or block in which a specific encoding target symbol / bin exists.

부호화 대상 심볼의 문맥 정보는 다른 계층 내의 문맥 정보를 이용하여 도출될 수도 있다. 부호화 대상 심볼의 문맥 정보를 도출하기 위해 사용되는 다른 계층 내의 문맥 정보의 실시예로서, 다음과 같은 문맥 정보 유형들이 있을 수 있다.The context information of the symbol to be encoded may be derived using context information in another layer. As an embodiment of context information in another layer used to derive context information of a symbol to be encoded, there may be the following context information types.
1. 다른 계층 내의 문맥 정보는, 부호화 대상 심볼/빈과 동일한 심볼/빈으로서, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록 내에서 부호화 순서에 따라 이미 부호화된 심볼/빈의 값, 빈도수 정보일 수 있다.1. The context information in the other layer is the same symbol / bin as the symbol / bin to be encoded, and the value of the symbol / bin already encoded according to the coding order in the corresponding video, corresponding slice, corresponding unit or corresponding block of the other layer, It may be frequency information.
2. 다른 계층 내의 문맥 정보는, 부호화 대상 심볼/빈과 관련되거나 종속된 심볼/빈으로서, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록 내에서 부호화 순서에 따라 이미 부호화된 심볼/빈의 값, 빈도수 정보일 수 있다.2. The context information in another layer is a symbol / bin associated with or dependent on a symbol / bin to be encoded, and a symbol / bin already encoded according to an encoding order in a corresponding video, corresponding slice, corresponding unit, or corresponding block of another layer. It may be a value of, frequency information.
3. 다른 계층 내의 문맥 정보는, 부호화 대상 심볼/빈과 동일한 심볼/빈으로서, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록 내에 존재하는 전체 심볼/빈의 값, 빈도수 정보일 수 있다.3. The context information in the other layer is the same symbol / bin as the symbol / bin to be encoded, and may be the value of the corresponding symbol / bin in the corresponding layer, the corresponding slice, the corresponding unit or the block of another layer, and the frequency information. .
4. 다른 계층 내의 문맥 정보는, 부호화 대상 심볼/빈과 동일한 심볼/빈으로서, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록 내에서 이미 부호화된 심볼/빈의 공간적 위치 및 주사(scanning) 위치 정보일 수 있다.4. The context information in the other layer is the same symbol / bin as the symbol / bin to be encoded, and the spatial position and scanning of the symbol / bin already encoded in the corresponding image, corresponding slice, corresponding unit or corresponding block of another layer. ) May be location information.
5. 다른 계층 내의 문맥 정보는, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록에 존재하는 심볼에서, 부호화 대상 빈과 동일하고 이미 부호화된 빈의 값, 빈도수 정보일 수 있다. 이 때, 상기 심볼은 특정 부호화 대상 심볼과 동일한 심볼일 수 있다.5. The context information in the other layer may be a value and frequency information of a bin that is the same as the encoding target bin and is already encoded in the symbol existing in the corresponding image, the corresponding slice, the corresponding unit, or the corresponding block of the other layer. In this case, the symbol may be the same symbol as a specific encoding target symbol.
6. 다른 계층 내의 문맥 정보는, 다른 계층에서 대응 슬라이스의 주변 슬라이스, 대응 유닛의 주변 유닛 또는 대응 블록의 주변 블록에 존재하는 심볼/빈으로서, 부호화 대상 심볼/빈과 동일하고 이미 부호화된 심볼/빈의 값, 빈도수 정보일 수 있다. 이 때, 상기 대응 슬라이스, 상기 대응 유닛 또는 상기 대응 블록은 특정 부호화 대상 심볼/빈과 동일한 심볼/빈이 존재하는 슬라이스, 유닛 또는 블록일 수 있다.6. The context information in the other layer is a symbol / bin present in the neighbor slice of the corresponding slice, the neighbor unit of the corresponding unit, or the neighboring block of the corresponding block in another layer, and is the same symbol as the encoding target symbol / bin and already encoded / The value of the bin may be frequency information. In this case, the corresponding slice, the corresponding unit, or the corresponding block may be a slice, a unit, or a block in which the same symbol / bin as a specific encoding target symbol / bin exists.
7. 다른 계층 내의 문맥 정보는, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록의 부호화 처리를 위해 사용되는 문맥 정보일 수 있다. 즉, 대상 계층 내의 부호화 대상 심볼/빈에 대한 문맥 정보는, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록의 문맥 정보를 이용하여 초기화될 수 있다.7. The context information in another layer may be context information used for encoding processing of a corresponding video, corresponding slice, corresponding unit, or corresponding block of another layer. That is, the context information for the encoding target symbol / bin in the target layer may be initialized using the context information of the corresponding image, the corresponding slice, the corresponding unit, or the corresponding block of another layer.
8. 다른 계층 내의 문맥 정보는, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록의 부호화 처리를 위해 사용되는 문맥 정보일 수 있다. 즉, 대상 계층 내의 부호화 대상 심볼/빈에 대한 문맥 정보는, 다른 계층 내의 부호화된 심볼/빈의 문맥 정보를 이용하여 초기화될 수 있다.8. The context information in another layer may be context information used for encoding processing of a corresponding video, corresponding slice, corresponding unit, or corresponding block of another layer. That is, the context information about the encoding target symbol / bin in the target layer may be initialized using the context information of the encoded symbol / bin in another layer.

부호화기의 엔트로피 부호화부는 상술한 대상 계층 내의 문맥 정보 및 다른 계층 내의 문맥 정보 중 최소 하나 이상을 이용하여 부호화 대상 심볼의 문맥 정보를 도출할 수 있다.The entropy encoder of the encoder may derive the context information of the encoding target symbol by using at least one of the above-described context information in the target layer and context information in the other layer.
다시 도 4의 실시예를 참조하면, 부호화기의 엔트로피 부호화부는 도출된 문맥 정보를 이용하여 부호화 대상 심볼을 엔트로피 부호화한다(S420). Referring back to the embodiment of FIG. 4, the entropy encoder of the encoder entropy encodes a symbol to be encoded using the derived context information (S420).
본 발명의 실시예에 따르면, 스케일러블 비디오 부호화 과정에서 다른 계층의 문맥 정보가 대상 계층에서의 엔트로피 부호화 수행에 이용될 수 있으므로, 부호화 대상 심볼/빈의 확률 특성이 보다 정확히 예측될 수 있다. 따라서 영상 또는 비디오 부호화의 압축 성능이 향상될 수 있다.According to an embodiment of the present invention, since scalable context encoding information may be used to perform entropy encoding in a target layer, a probability characteristic of a symbol / bin to be encoded may be predicted more accurately. Therefore, compression performance of video or video encoding may be improved.

부호화기는, 대상 계층 내의 문맥 정보 및 다른 계층 내의 문맥 정보 중 어떤 계층의 문맥 정보가 사용되는지에 대한 정보를 복호화기에 알려주기 위해 명시적(explicit) 방법을 사용할 수 있다. 또한 부호화기에서 얻어지는 상기 정보가 복호화기에서도 동일하게 얻어질 수 있도록, 암시적(implicit) 방법이 사용될 수도 있다. The encoder may use an explicit method to inform the decoder of which layer of context information in the target layer and context information in another layer is used. Also, an implicit method may be used so that the information obtained in the encoder can be obtained in the same way in the decoder.
명시적 방법이 사용되는 경우, 일 실시예로 부호화기는 대상 계층 내의 문맥 정보 이용 여부를 지시하는 정보 및/또는 다른 계층 내의 문맥 정보 이용 여부를 지시하는 정보를 포함하는 플래그(flag)를 생성, 전송 및/또는 저장할 수 있다. 이 때, 복호화기는 상기 플래그를 부호화기로부터 수신 및/또는 저장할 수 있다. 복호화기는 상기 플래그를 이용하여 대상 계층 내의 문맥 정보가 이용되는지 여부에 관한 정보 및/또는 다른 계층 내의 문맥 정보가 이용되는지 여부에 관한 정보를 도출할 수 있다.When an explicit method is used, in one embodiment, the encoder generates and transmits a flag including information indicating whether to use context information in the target layer and / or information indicating whether to use context information in another layer. And / or store. In this case, the decoder may receive and / or store the flag from the encoder. The decoder may use the flag to derive information about whether context information in the target layer is used and / or information about whether context information in another layer is used.
명시적 방법에서 다른 계층 내의 문맥 정보가 사용되는 경우, 일 실시예로 부호화기는 다른 계층들 중 어떤 계층의 문맥 정보를 이용하는지 여부를 지시하는 플래그를 생성, 전송 및/또는 저장할 수 있다. 이 때, 복호화기는 상기 플래그를 부호화기로부터 수신 및/또는 저장할 수 있다. 복호화기는 상기 플래그를 이용하여 다른 계층들 중 어떤 계층의 문맥 정보가 사용되는지 여부에 관한 정보를 도출할 수 있다.When contextual information in another layer is used in an explicit method, in one embodiment the encoder may generate, send and / or store a flag indicating whether one of the other layers uses contextual information. In this case, the decoder may receive and / or store the flag from the encoder. The decoder may derive information on which of the other layer context information is used using the flag.
암시적 방법이 사용되는 경우, 일 실시예로 대상 계층 및 다른 계층의 부호화 파라미터 값에 따라 부호화기 및 복호화기가 동일한 방법을 사용하여 어떤 계층의 문맥 정보가 사용되는지에 대한 정보를 도출할 수 있다. 이 때, 부호화기 및 복호화기가 동일하게 사용하는 문맥 정보 도출 방법은, 미리 부호화기 및 복호화기 사이에 정해져 있을 수 있다.When an implicit method is used, according to an embodiment, the encoder and the decoder may use the same method to derive information about which layer's context information is used according to encoding parameter values of the target layer and another layer. At this time, the context information derivation method used by the encoder and the decoder in the same manner may be determined between the encoder and the decoder in advance.

도 5는 문맥 정보 도출 과정을 포함한 엔트로피 부호화 방법의 실시예를 개략적으로 나타내는 흐름도이다. 5 is a flowchart schematically illustrating an embodiment of an entropy encoding method including a process of deriving context information.
도 5를 참조하면, 부호화기는 부호화 대상 심볼 또는 심볼의 열에 대해, 대상 계층에서 이용 가능한 문맥 정보가 존재하는지 여부를 검색한다(S510). 부호화기는 검색 결과에 따라 대상 계층에 이용 가능한 문맥 정보가 존재하는지 여부를 판단한다(S520). Referring to FIG. 5, the encoder detects whether there is context information available in a target layer with respect to a symbol or a string of symbols to be encoded (S510). The encoder determines whether there is context information available in the target layer according to the search result (S520).
대상 계층에 이용 가능한 문맥 정보가 존재하는 경우, 부호화기는 대상 계층의 문맥 정보를 도출한다(S530). 대상 계층 내의 문맥 정보에는 다양한 유형이 있을 수 있으며, 대상 계층 내에서 이용 가능한 문맥 정보의 실시예는 도 4에서 상술한 바 있다. 따라서 부호화기에서 도출된 문맥 정보는 도 4의 실시예에서 상술된 유형 또는 기타 다른 유형일 수 있다.If there is context information available in the target layer, the encoder derives context information of the target layer (S530). There may be various types of context information in the target layer, and embodiments of the context information available in the target layer have been described above with reference to FIG. 4. Thus, the contextual information derived from the encoder may be of the type described above in the embodiment of FIG. 4 or some other type.
대상 계층에 이용 가능한 문맥 정보가 존재하지 않는 경우, 부호화기는 다른 계층의 이용 가능한 문맥 정보를 검색한다(S540). If there is no context information available in the target layer, the encoder searches for available context information of another layer (S540).
다른 계층에 이용 가능한 문맥 정보가 존재하는 경우, 부호화기는 다른 계층의 문맥 정보를 도출한다(S550). 다른 계층 내의 문맥 정보에도 다양한 유형이 있을 수 있으며, 다른 계층 내에서 이용 가능한 문맥 정보의 실시예는 도 4에서 상술한 바 있다. 따라서 부호화기에서 도출된 문맥 정보는 도 4의 실시예에서 상술된 유형 또는 기타 다른 유형일 수 있다.If there is context information available in another layer, the encoder derives context information of another layer (S550). There may be various types of context information in other layers, and embodiments of the context information available in other layers have been described above with reference to FIG. 4. Thus, the contextual information derived from the encoder may be of the type described above in the embodiment of FIG. 4 or some other type.
부호화기는 도출된 문맥 정보를 이용하여 부호화 대상 심볼에 대한 엔트로피 부호화를 수행한다(S560). 부호화기는 엔트로피 부호화를 수행함으로써 비트스트림을 생성할 수 있다.The encoder performs entropy encoding on the symbol to be encoded using the derived context information (S560). The encoder may generate a bitstream by performing entropy encoding.
부호화기는 검색 및 판단 결과에 따라 대상 계층 및/또는 다른 계층에 이용 가능한 문맥 정보가 존재하는지 여부에 대한 정보를 복호화기에 알려줄 수 있다. 또한 부호화기는 다른 계층들 중 어떤 계층에 대한 문맥 정보가 사용되는지 여부에 대한 정보를 복호화기에 알려줄 수 있다. 상기 정보들은 암시적 방법에 의해 부호화기 및 복호화기에서 동일하게 얻어질 수도 있다.The encoder may inform the decoder of information on whether there is context information available for the target layer and / or another layer according to the search and determination result. In addition, the encoder may inform the decoder of information of which layer among other layers is used. The above information may be obtained equally in the encoder and the decoder by an implicit method.
도 5의 실시예에 따르면, 스케일러블 비디오 부호화 과정에서 다른 계층의 문맥 정보가 대상 계층에서의 엔트로피 부호화 수행에 이용될 수 있다. 따라서 부호화 대상 심볼/빈의 확률 특성이 보다 정확히 예측될 수 있고, 영상 또는 비디오 부호화의 압축 성능이 향상될 수 있다.According to the embodiment of FIG. 5, context information of another layer may be used to perform entropy encoding in a target layer in a scalable video encoding process. Therefore, the probability characteristic of the symbol / bin to be encoded can be predicted more accurately, and the compression performance of video or video encoding can be improved.

도 6은 본 발명에 따른 엔트로피 부호화 방법의 다른 실시예를 개략적으로 나타내는 흐름도이다. 6 is a flowchart schematically showing another embodiment of an entropy encoding method according to the present invention.
도 6의 실시예를 참조하면, 부호화기는 부호화 대상 심볼의 문맥 정보를 도출한다(S610). 부호화 대상 심볼의 문맥 정보는 대상 계층 내의 문맥 정보를 이용하여 도출될 수도 있고, 다른 계층 내의 문맥 정보를 이용하여 도출될 수도 있다. 또한 대상 계층 및 다른 계층 내의 문맥 정보는 도 4의 실시예에서 상술한 바와 같이 다양한 유형을 가질 수 있다.Referring to the embodiment of FIG. 6, the encoder derives context information of a symbol to be encoded (S610). The context information of the symbol to be encoded may be derived using context information in the target layer, or may be derived using context information in another layer. In addition, context information in the target layer and other layers may have various types as described above in the embodiment of FIG. 4.
부호화기는 도출된 문맥 정보를 이용하여 부호화 대상 심볼/빈의 확률 모델을 도출한다(S620). 도출된 문맥 정보는 다른 계층의 문맥 정보에 의해서도 도출될 수 있으므로, 부호화 대상 심볼/빈의 확률 모델은 대상 계층뿐만 아니라, 다른 계층의 문맥 정보를 이용하여 도출될 수 있다.The encoder derives the probability model of the symbol / bin to be encoded using the derived context information (S620). Since the derived context information may also be derived from context information of another layer, the probability model of the symbol / bin to be encoded may be derived using context information of another layer as well as the target layer.
부호화기는 도출된 확률 모델을 이용하여 부호화 대상 심볼/빈에 대한 엔트로피 부호화를 수행한다(S630). The encoder performs entropy encoding on the symbol / bin to be encoded using the derived probability model (S630).

도 7은 본 발명에 따른 엔트로피 부호화 방법의 또 다른 실시예를 개략적으로 나타내는 흐름도이다. 7 is a flowchart schematically illustrating still another embodiment of an entropy encoding method according to the present invention.
도 7의 실시예를 참조하면, 부호화기는 부호화 대상 심볼의 문맥 정보를 도출한다(S710). 부호화 대상 심볼의 문맥 정보는 대상 계층 내의 문맥 정보를 이용하여 도출될 수도 있고, 다른 계층 내의 문맥 정보를 이용하여 도출될 수도 있다. 또한 대상 계층 및 다른 계층 내의 문맥 정보는 도 4의 실시예에서 상술한 바와 같이 다양한 유형을 가질 수 있다.Referring to the embodiment of FIG. 7, the encoder derives context information of a symbol to be encoded (S710). The context information of the symbol to be encoded may be derived using context information in the target layer, or may be derived using context information in another layer. In addition, context information in the target layer and other layers may have various types as described above in the embodiment of FIG. 4.
부호화기는 도출된 문맥 정보를 이용하여 부호화 대상 심볼의 이진화 방법을 도출한다(S720). 도출된 문맥 정보는 다른 계층의 문맥 정보에 의해서도 도출될 수 있으므로, 부호화 대상 심볼의 이진화 방법은 대상 계층뿐만 아니라, 다른 계층의 문맥 정보를 이용하여 도출될 수 있다.The encoder derives the binarization method of the encoding target symbol by using the derived context information (S720). Since the derived context information may also be derived using context information of another layer, the binarization method of an encoding target symbol may be derived using context information of another layer as well as the target layer.
부호화기는 도출된 이진화 방법을 이용하여 부호화 대상 심볼에 대한 엔트로피 부호화를 수행한다(S730).The encoder performs entropy encoding on the symbol to be encoded using the derived binarization method (S730).

도 8은 본 발명에 따른 엔트로피 부호화 방법의 또 다른 실시예를 개략적으로 나타내는 흐름도이다. 8 is a flowchart schematically illustrating still another embodiment of an entropy encoding method according to the present invention.
도 8의 실시예를 참조하면, 부호화기는 부호화 대상 심볼의 문맥 정보를 도출한다(S810). 부호화 대상 심볼의 문맥 정보는 대상 계층 내의 문맥 정보를 이용하여 도출될 수도 있고, 다른 계층 내의 문맥 정보를 이용하여 도출될 수도 있다. 또한 대상 계층 및 다른 계층 내의 문맥 정보는 도 4의 실시예에서 상술한 바와 같이 다양한 유형을 가질 수 있다.Referring to the embodiment of FIG. 8, the encoder derives context information of a symbol to be encoded (S810). The context information of the symbol to be encoded may be derived using context information in the target layer, or may be derived using context information in another layer. In addition, context information in the target layer and other layers may have various types as described above in the embodiment of FIG. 4.
부호화기는 도출된 문맥 정보를 이용하여 부호화 대상 심볼의 VLC 테이블을 도출한다(S820). 도출된 문맥 정보는 다른 계층의 문맥 정보에 의해서도 도출될 수 있으므로, 부호화 대상 심볼의 VLC 테이블은 대상 계층뿐만 아니라, 다른 계층의 문맥 정보를 이용하여 도출될 수 있다.The encoder derives the VLC table of the symbol to be encoded using the derived context information (S820). Since the derived context information may also be derived by context information of another layer, the VLC table of the symbol to be encoded may be derived using context information of another layer as well as the target layer.
부호화기는 도출된 VLC 테이블을 이용하여 부호화 대상 심볼에 대한 엔트로피 부호화를 수행한다(S830).The encoder performs entropy encoding on the symbol to be encoded using the derived VLC table (S830).

도 6 내지 도 8의 실시예를 참조하면, 다른 계층의 문맥 정보가 엔트로피 부호화에 사용될 수 있으므로, 부호화 대상 심볼/빈의 확률 특성이 보다 정확하게 반영될 수 있다. 따라서 엔트로피 부호화 성능 및 영상 압축 효율이 향상될 수 있다.6 to 8, since context information of another layer may be used for entropy encoding, a probability characteristic of an encoding target symbol / bin may be more accurately reflected. Therefore, entropy encoding performance and image compression efficiency can be improved.

도 9는 본 발명에 따른 엔트로피 복호화 방법의 일 실시예를 개략적으로 나타내는 흐름도이다. 9 is a flowchart schematically showing an embodiment of an entropy decoding method according to the present invention.
도 9의 실시예를 참조하면, 복호화기의 엔트로피 복호화부는 복호화 대상 심볼의 문맥 정보를 도출한다(S910). 상술한 바와 같이, 복호화 대상 심볼의 문맥 정보는 대상 계층 내의 문맥 정보를 이용하여 도출될 수도 있고, 다른 계층 내의 문맥 정보를 이용하여 도출될 수도 있다. Referring to the embodiment of FIG. 9, the entropy decoding unit of the decoder derives context information of a decoding target symbol (S910). As described above, the context information of the decoding object symbol may be derived using the context information in the target layer, or may be derived using the context information in the other layer.
복호화 대상 심볼의 문맥 정보 도출을 위해 사용되는, 대상 계층 또는 다른 계층 내의 문맥 정보에는 다양한 유형이 있을 수 있다. There may be various types of context information in a target layer or another layer, which is used for deriving context information of a decoding target symbol.

복호화 대상 심볼의 문맥 정보는 대상 계층 내의 문맥 정보를 이용하여 도출될 수 있다. 복호화 대상 심볼의 문맥 정보를 도출하기 위해 사용되는 대상 계층 내의 문맥 정보의 실시예로서, 다음과 같은 문맥 정보 유형들이 있을 수 있다.The context information of the decoding target symbol may be derived using the context information in the target layer. As an embodiment of the context information in the target layer used to derive the context information of the decoding target symbol, there may be the following context information types.
1. 대상 계층 내의 문맥 정보는, 복호화 대상 심볼/빈과 동일하고 대상 계층에서 복호화 순서에 따라 이미 복호화된 심볼/빈의 값, 빈도수 정보일 수 있다.1. The context information in the target layer may be the same as the decoding target symbol / bin and the value and frequency information of the symbol / bin already decoded according to the decoding order in the target layer.
2. 대상 계층 내의 문맥 정보는, 복호화 대상 심볼/빈과 관련되거나 종속되고 대상 계층에서 복호화 순서에 따라 이미 복호화된 심볼/빈의 값, 빈도수 정보일 수 있다.2. The context information in the target layer may be a value or frequency information of a symbol / bin associated with or dependent on the decoding target symbol / bin and already decoded according to the decoding order in the target layer.
3. 대상 계층 내의 문맥 정보는, 복호화 대상 심볼/빈과 동일한 심볼/빈으로서, 대상 계층의 영상, 슬라이스, 유닛 또는 블록 내에 존재하는 전체 심볼/빈의 값, 빈도수 정보일 수 있다.3. The context information in the target layer is a symbol / bin which is the same as the decoding target symbol / bin, and may be a value and frequency information of all symbols / bins existing in the image, slice, unit, or block of the target layer.
4. 대상 계층 내의 문맥 정보는, 대상 계층 내의 복호화 대상 슬라이스, 유닛 또는 블록에 존재하는 심볼/빈으로서, 복호화 대상 심볼/빈과 동일하고 이미 복호화된 심볼/빈의 값, 빈도수 정보일 수 있다. 이 때, 상기 슬라이스, 유닛 또는 블록은 특정 복호화 대상 심볼/빈이 존재하는 슬라이스, 유닛 또는 블록일 수 있다.4. The context information in the target layer is a symbol / bin present in the decoding target slice, unit, or block in the target layer, and may be the same as the decoding target symbol / bin and the value of the already decoded symbol / bin, frequency information. In this case, the slice, unit or block may be a slice, unit or block in which a specific decoding target symbol / bin exists.
5. 대상 계층 내의 문맥 정보는, 대상 계층 내의 복호화 대상 슬라이스, 유닛 또는 블록에 존재하는 심볼/빈으로서, 복호화 대상 심볼/빈과 동일하고 이미 복호화된 심볼/빈의 공간적 위치 및 주사(scanning) 위치 정보일 수 있다. 이 때, 상기 슬라이스, 유닛 또는 블록은 특정 복호화 대상 심볼/빈이 존재하는 슬라이스, 유닛 또는 블록일 수 있다.5. The context information in the target layer is a symbol / bin present in the decoding target slice, unit or block in the target layer, which is the same as the decoding target symbol / bin and the spatial position and scanning position of the already decoded symbol / bin. Information. In this case, the slice, unit or block may be a slice, unit or block in which a specific decoding target symbol / bin exists.
6. 대상 계층 내의 문맥 정보는, 대상 계층에 존재하는 특정 복호화 대상 심볼에서, 복호화 대상 빈과 동일하고 이미 복호화된 빈의 값, 빈도수 정보일 수 있다.6. The context information in the target layer may be a value and frequency information of a bin that is the same as the decoding target bin and is already decoded in a specific decoding target symbol existing in the target layer.
7. 대상 계층 내의 문맥 정보는, 대상 계층에서 복호화 대상 유닛의 주변 유닛 또는 복호화 대상 블록의 주변 블록에 존재하는 심볼/빈으로서, 복호화 대상 심볼/빈과 동일하고 이미 복호화된 심볼/빈의 값, 빈도수 정보일 수 있다. 이 때, 상기 복호화 대상 유닛 또는 상기 복호화 대상 블록은 특정 복호화 대상 심볼/빈이 존재하는 유닛 또는 블록일 수 있다.7. The context information in the target layer is a symbol / bin present in the neighboring unit of the decoding target unit or the neighboring block of the decoding target block in the target layer, and is equal to the decoding target symbol / bin and the value of the symbol / bin already decoded, It may be frequency information. In this case, the decoding object unit or the decoding object block may be a unit or block in which a specific decoding object symbol / bin exists.

복호화 대상 심볼의 문맥 정보는 다른 계층 내의 문맥 정보를 이용하여 도출될 수도 있다. 복호화 대상 심볼의 문맥 정보를 도출하기 위해 사용되는 다른 계층 내의 문맥 정보의 실시예로서, 다음과 같은 문맥 정보 유형들이 있을 수 있다.The context information of the decoding target symbol may be derived using context information in another layer. As an embodiment of the context information in another layer used to derive the context information of the decoding target symbol, there may be the following context information types.
1. 다른 계층 내의 문맥 정보는, 복호화 대상 심볼/빈과 동일한 심볼/빈으로서, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록 내에서 복호화 순서에 따라 이미 복호화된 심볼/빈의 값, 빈도수 정보일 수 있다.1. The context information in the other layer is the same symbol / bin as the decoding target symbol / bin, and the value of the symbol / bin already decoded in the decoding order in the corresponding video, corresponding slice, corresponding unit or corresponding block of another layer, It may be frequency information.
2. 다른 계층 내의 문맥 정보는, 복호화 대상 심볼/빈과 관련되거나 종속된 심볼/빈으로서, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록 내에서 복호화 순서에 따라 이미 복호화된 심볼/빈의 값, 빈도수 정보일 수 있다.2. The context information in the other layer is a symbol / bin associated with or dependent on the decoding target symbol / bin, and the symbol / bin already decoded in the decoding order in the corresponding image, the corresponding slice, the corresponding unit or the corresponding block of the other layer. It may be a value of, frequency information.
3. 다른 계층 내의 문맥 정보는, 복호화 대상 심볼/빈과 동일한 심볼/빈으로서, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록 내에 존재하는 전체 심볼/빈의 값, 빈도수 정보일 수 있다.3. The context information in the other layer is the same symbol / bin as the decoding target symbol / bin, and may be the value of the corresponding symbol / bin in the other layer, the corresponding slice, the corresponding unit or the corresponding block, or the frequency information of the other layer. .
4. 다른 계층 내의 문맥 정보는, 복호화 대상 심볼/빈과 동일한 심볼/빈으로서, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록 내에서 이미 복호화된 심볼/빈의 공간적 위치 및 주사(scanning) 위치 정보일 수 있다.4. The context information in the other layer is the same symbol / bin as the decoding target symbol / bin, and the spatial position and scanning of the symbol / bin already decoded in the corresponding image, the corresponding slice, the corresponding unit or the corresponding block of the other layer. ) May be location information.
5. 다른 계층 내의 문맥 정보는, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록에 존재하는 심볼에서, 복호화 대상 빈과 동일하고 이미 복호화된 빈의 값, 빈도수 정보일 수 있다. 이 때, 상기 심볼은 특정 복호화 대상 심볼과 동일한 심볼일 수 있다.5. The context information in another layer may be a value and frequency information of a bin that is the same as a decoding target bin and is already decoded in a symbol existing in a corresponding image, corresponding slice, corresponding unit, or corresponding block of another layer. In this case, the symbol may be the same symbol as a specific decoding target symbol.
6. 다른 계층 내의 문맥 정보는, 다른 계층에서 대응 슬라이스의 주변 슬라이스, 대응 유닛의 주변 유닛 또는 대응 블록의 주변 블록에 존재하는 심볼/빈으로서, 복호화 대상 심볼/빈과 동일하고 이미 복호화된 심볼/빈의 값, 빈도수 정보일 수 있다. 이 때, 상기 대응 슬라이스, 상기 대응 유닛 또는 상기 대응 블록은 특정 복호화 대상 심볼/빈과 동일한 심볼/빈이 존재하는 슬라이스, 유닛 또는 블록일 수 있다.6. The context information in the other layer is a symbol / bin present in the neighbor slice of the corresponding slice, the neighbor unit of the corresponding unit, or the neighboring block of the corresponding block in another layer, and is the same symbol as the decoding target symbol / bin and already decoded symbol / The value of the bin may be frequency information. In this case, the corresponding slice, the corresponding unit, or the corresponding block may be a slice, a unit, or a block in which the same symbol / bin as a specific decoding target symbol / bin exists.
7. 다른 계층 내의 문맥 정보는, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록의 복호화 처리를 위해 사용되는 문맥 정보일 수 있다. 즉, 대상 계층 내의 복호화 대상 심볼/빈에 대한 문맥 정보는, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록의 문맥 정보를 이용하여 초기화될 수 있다.7. The context information in another layer may be context information used for decoding processing of a corresponding video, corresponding slice, corresponding unit, or corresponding block of another layer. That is, the context information about the decoding target symbol / bin in the target layer may be initialized using the context information of the corresponding image, the corresponding slice, the corresponding unit, or the corresponding block of another layer.
8. 다른 계층 내의 문맥 정보는, 다른 계층의 대응 영상, 대응 슬라이스, 대응 유닛 또는 대응 블록의 복호화 처리를 위해 사용되는 문맥 정보일 수 있다. 즉, 대상 계층 내의 복호화 대상 심볼/빈에 대한 문맥 정보는, 다른 계층 내의 복호화된 심볼/빈의 문맥 정보를 이용하여 초기화될 수 있다.8. The context information in the other layer may be context information used for decoding processing of the corresponding video, the corresponding slice, the corresponding unit, or the corresponding block of the other layer. That is, the context information for the decoding target symbol / bin in the target layer may be initialized using the context information of the decoded symbol / bin in another layer.

복호화기의 엔트로피 복호화부는 상술한 대상 계층 내의 문맥 정보 및 다른 계층 내의 문맥 정보 중 최소 하나 이상을 이용하여 복호화 대상 심볼의 문맥 정보를 도출할 수 있다.The entropy decoding unit of the decoder may derive the context information of the decoding target symbol by using at least one of the above-described context information in the target layer and context information in the other layer.
다시 도 9의 실시예를 참조하면, 복호화기의 엔트로피 복호화부는 도출된 문맥 정보를 이용하여 복호화 대상 심볼에 대한 엔트로피 복호화를 수행한다(S920). Referring back to the embodiment of FIG. 9, the entropy decoding unit of the decoder performs entropy decoding on the decoding target symbol by using the derived context information (S920).
본 발명의 실시예에 따르면, 스케일러블 비디오 복호화 과정에서 다른 계층의 문맥 정보가 대상 계층에서의 엔트로피 복호화 수행에 이용될 수 있으므로, 복호화 대상 심볼/빈의 확률 특성이 보다 정확히 예측될 수 있다. 따라서 영상 또는 비디오 복호화의 압축 성능이 향상될 수 있다.According to an embodiment of the present invention, since scalable information may be used to perform entropy decoding in a target layer in scalable video decoding, a probability characteristic of a symbol / bin to be decoded may be more accurately predicted. Therefore, the compression performance of the image or video decoding can be improved.

복호화기는, 명시적 방법에 의해 대상 계층 내의 문맥 정보 및 다른 계층 내의 문맥 정보 중 어떤 계층의 문맥 정보가 사용되는지에 대한 정보를 부호화기로부터 수신할 수도 있고, 암시적 방법에 의해 상기 정보를 도출할 수도 있다.The decoder may receive from the encoder information about which layer of context information in the target layer and context information in another layer is used by an explicit method, or may derive the information by an implicit method. have.
도 4의 실시예에서 상술한 바와 같이, 명시적 방법이 사용되는 경우 복호화기는 대상 계층 내의 문맥 정보 이용 여부를 지시하는 정보 및/또는 다른 계층 내의 문맥 정보 이용 여부를 지시하는 정보를 포함하는 플래그(flag)를 수신할 수 있다. 또한 복호화기는 다른 계층들 중 어떤 계층의 문맥 정보를 이용하는지 여부를 지시하는 플래그도 수신할 수 있다. 이 때 복호화기는 상기 플래그를 이용하여 어떤 계층의 문맥 정보가 사용되는지 여부에 관한 정보를 얻을 수 있다.As described above in the embodiment of FIG. 4, when the explicit method is used, the decoder includes a flag including information indicating whether to use context information in the target layer and / or information indicating whether to use context information in another layer ( flag). The decoder may also receive a flag indicating whether any of the other layers uses context information. In this case, the decoder may obtain information about which layer context information is used by using the flag.
암시적 방법이 사용되는 경우, 일 실시예로 대상 계층 및 다른 계층의 부호화 파라미터 값에 따라 부호화기 및 복호화기가 동일한 방법을 사용하여 어떤 계층의 문맥 정보가 사용되는지에 대한 정보를 도출할 수 있다. When an implicit method is used, according to an embodiment, the encoder and the decoder may use the same method to derive information about which layer's context information is used according to encoding parameter values of the target layer and another layer.

도 10은 문맥 정보 도출 과정을 포함한 엔트로피 복호화 방법의 실시예를 개략적으로 나타내는 흐름도이다. 10 is a flowchart schematically illustrating an embodiment of an entropy decoding method including a context information derivation process.
도 10을 참조하면, 복호화기는 비트스트림을 수신하여, 복호화 대상 심볼에 대해 대상 계층에서 이용 가능한 문맥 정보가 존재하는지 여부를 검색한다(S1010). 복호화기는 검색 결과에 따라 대상 계층에 이용 가능한 문맥 정보가 존재하는지 여부를 판단한다(S1020). 이 때, 복호화기는 부호화기에서 전송된 플래그 정보를 통해 대상 계층 내의 문맥 정보 존재 여부를 검색, 판단할 수 있다. 또한 복호화기는 부호화 파라미터 값에 따라 부호화기와 동일한 방법을 사용하여 대상 계층 내의 문맥 정보 존재 여부를 검색, 판단할 수도 있다.Referring to FIG. 10, the decoder receives a bitstream and searches whether there is context information available in a target layer for a decoding target symbol (S1010). The decoder determines whether there is context information available in the target layer according to the search result (S1020). In this case, the decoder may search for and determine whether there is context information in the target layer through flag information transmitted from the encoder. Also, the decoder may search for and determine whether there is context information in the target layer by using the same method as the encoder according to the encoding parameter value.
대상 계층에 이용 가능한 문맥 정보가 존재하는 경우, 복호화기는 대상 계층의 문맥 정보를 도출한다(S1030). 대상 계층 내의 문맥 정보에는 다양한 유형이 있을 수 있으며, 대상 계층 내에서 이용 가능한 문맥 정보의 실시예는 도 9에서 상술한 바 있다. 따라서 복호화기에서 도출된 문맥 정보는 도 9의 실시예에서 상술된 유형 또는 기타 다른 유형일 수 있다.If there is context information available in the target layer, the decoder derives context information of the target layer (S1030). There may be various types of context information in the target layer, and embodiments of the context information available in the target layer have been described above with reference to FIG. 9. Thus, the contextual information derived from the decoder may be of the type described above in the embodiment of FIG. 9 or some other type.
대상 계층에 이용 가능한 문맥 정보가 존재하지 않는 경우, 복호화기는 다른 계층의 이용 가능한 문맥 정보를 검색한다(S1040). 이 때, 복호화기는 부호화기에서 전송된 플래그 정보를 통해 다른 계층 내의 문맥 정보 존재 여부를 검색, 판단할 수 있다. 또한 복호화기는 부호화 파라미터 값에 따라 부호화기와 동일한 방법을 사용하여 다른 계층 내의 문맥 정보 존재 여부를 검색, 판단할 수도 있다.If there is no context information available in the target layer, the decoder searches for available context information of another layer (S1040). In this case, the decoder may search for and determine whether there is context information in another layer through flag information transmitted from the encoder. The decoder may also search for and determine whether there is context information in another layer using the same method as the encoder according to the encoding parameter value.

다른 계층에 이용 가능한 문맥 정보가 존재하는 경우, 복호화기는 다른 계층의 문맥 정보를 도출한다(S1050). 다른 계층 내의 문맥 정보에도 다양한 유형이 있을 수 있으며, 다른 계층 내에서 이용 가능한 문맥 정보의 실시예는 도 9에서 상술한 바 있다. 따라서 복호화기에서 도출된 문맥 정보는 도 9의 실시예에서 상술된 유형 또는 기타 다른 유형일 수 있다.If there is context information available in another layer, the decoder derives context information of another layer (S1050). There may be various types of context information in other layers, and embodiments of the context information available in other layers have been described above with reference to FIG. 9. Thus, the contextual information derived from the decoder may be of the type described above in the embodiment of FIG. 9 or some other type.
복호화기는 도출된 문맥 정보를 이용하여 복호화 대상 심볼에 대한 엔트로피 복호화를 수행한다(S1060). 복호화기는 엔트로피 복호화를 수행함으로써 심볼 또는 심볼의 열을 생성할 수 있다.The decoder performs entropy decoding on the decoding object symbol by using the derived context information (S1060). The decoder may generate a symbol or a sequence of symbols by performing entropy decoding.
도 10의 실시예에 따르면, 스케일러블 비디오 복호화 과정에서 다른 계층의 문맥 정보가 대상 계층에서의 엔트로피 복호화 수행에 이용될 수 있다. 따라서 복호화 대상 심볼/빈의 확률 특성이 보다 정확히 예측될 수 있고, 영상 또는 비디오 복호화의 성능이 향상될 수 있다.According to the embodiment of FIG. 10, context information of another layer may be used to perform entropy decoding in a target layer in a scalable video decoding process. Therefore, the probability characteristic of the decoding target symbol / bin can be predicted more accurately, and the performance of video or video decoding can be improved.

도 11은 본 발명에 따른 엔트로피 복호화 방법의 다른 실시예를 개략적으로 나타내는 흐름도이다. 11 is a flowchart schematically showing another embodiment of an entropy decoding method according to the present invention.
도 11의 실시예를 참조하면, 복호화기는 복호화 대상 심볼의 문맥 정보를 도출한다(S1110). 복호화 대상 심볼의 문맥 정보는 대상 계층 내의 문맥 정보를 이용하여 도출될 수도 있고, 다른 계층 내의 문맥 정보를 이용하여 도출될 수도 있다. 또한 대상 계층 및 다른 계층 내의 문맥 정보는 도 9의 실시예에서 상술한 바와 같이 다양한 유형을 가질 수 있다.Referring to the embodiment of FIG. 11, the decoder derives context information of a decoding target symbol (S1110). The context information of the decoding target symbol may be derived using context information in the target layer, or may be derived using context information in another layer. In addition, context information in the target layer and other layers may have various types as described above in the embodiment of FIG. 9.
복호화기는 도출된 문맥 정보를 이용하여 복호화 대상 심볼/빈의 확률 모델을 도출한다(S1120). 도출된 문맥 정보는 다른 계층의 문맥 정보에 의해서도 도출될 수 있으므로, 복호화 대상 심볼/빈의 확률 모델은 대상 계층뿐만 아니라, 다른 계층의 문맥 정보를 이용하여 도출될 수 있다.The decoder derives a probability model of the symbol / bin to be decoded using the derived context information (S1120). Since the derived context information may also be derived from context information of another layer, the probability model of the symbol / bin to be decoded may be derived using context information of another layer as well as the target layer.
복호화기는 도출된 확률 모델을 이용하여 복호화 대상 심볼/빈에 대한 엔트로피 복호화를 수행한다(S1130). The decoder performs entropy decoding on the symbol / bin to be decoded using the derived probability model (S1130).

도 12는 본 발명에 따른 엔트로피 복호화 방법의 또 다른 실시예를 개략적으로 나타내는 흐름도이다. 12 is a flowchart schematically illustrating still another embodiment of an entropy decoding method according to the present invention.
도 12의 실시예를 참조하면, 복호화기는 복호화 대상 심볼의 문맥 정보를 도출한다(S1210). 복호화 대상 심볼의 문맥 정보는 대상 계층 내의 문맥 정보를 이용하여 도출될 수도 있고, 다른 계층 내의 문맥 정보를 이용하여 도출될 수도 있다. 또한 대상 계층 및 다른 계층 내의 문맥 정보는 도 9의 실시예에서 상술한 바와 같이 다양한 유형을 가질 수 있다.Referring to the embodiment of FIG. 12, the decoder derives context information of a decoding target symbol (S1210). The context information of the decoding target symbol may be derived using context information in the target layer, or may be derived using context information in another layer. In addition, context information in the target layer and other layers may have various types as described above in the embodiment of FIG. 9.
복호화기는 도출된 문맥 정보를 이용하여 복호화 대상 심볼의 이진화 방법을 도출한다(S1220). 도출된 문맥 정보는 다른 계층의 문맥 정보에 의해서도 도출될 수 있으므로, 복호화 대상 심볼의 이진화 방법은 대상 계층뿐만 아니라, 다른 계층의 문맥 정보를 이용하여 도출될 수 있다.The decoder derives the binarization method of the decoding object symbol by using the derived context information (S1220). Since the derived context information may also be derived by context information of another layer, the binarization method of the decoding target symbol may be derived using context information of another layer as well as the target layer.
복호화기는 도출된 이진화 방법을 이용하여 복호화 대상 심볼에 대한 엔트로피 복호화를 수행한다(S1230).The decoder performs entropy decoding on the decoding object symbol by using the derived binarization method (S1230).

도 13은 본 발명에 따른 엔트로피 복호화 방법의 또 다른 실시예를 개략적으로 나타내는 흐름도이다. 13 is a flowchart schematically showing still another embodiment of an entropy decoding method according to the present invention.
도 13의 실시예를 참조하면, 복호화기는 복호화 대상 심볼의 문맥 정보를 도출한다(S1310). 복호화 대상 심볼의 문맥 정보는 대상 계층 내의 문맥 정보를 이용하여 도출될 수도 있고, 다른 계층 내의 문맥 정보를 이용하여 도출될 수도 있다. 또한 대상 계층 및 다른 계층 내의 문맥 정보는 도 9의 실시예에서 상술한 바와 같이 다양한 유형을 가질 수 있다.Referring to the embodiment of FIG. 13, the decoder derives context information of a decoding target symbol (S1310). The context information of the decoding target symbol may be derived using context information in the target layer, or may be derived using context information in another layer. In addition, context information in the target layer and other layers may have various types as described above in the embodiment of FIG. 9.
복호화기는 도출된 문맥 정보를 이용하여 복호화 대상 심볼의 VLC 테이블을 도출한다(S1320). 도출된 문맥 정보는 다른 계층의 문맥 정보에 의해서도 도출될 수 있으므로, 복호화 대상 심볼의 VLC 테이블은 대상 계층뿐만 아니라, 다른 계층의 문맥 정보를 이용하여 도출될 수 있다.The decoder derives the VLC table of the symbol to be decoded using the derived context information (S1320). Since the derived context information may also be derived by context information of another layer, the VLC table of the decoding target symbol may be derived using context information of another layer as well as the target layer.
복호화기는 도출된 VLC 테이블을 이용하여 복호화 대상 심볼에 대한 엔트로피 복호화를 수행한다(S1330).The decoder performs entropy decoding on the symbol to be decoded using the derived VLC table (S1330).

도 11 내지 도 13의 실시예를 참조하면, 다른 계층의 문맥 정보가 엔트로피 복호화에 사용될 수 있으므로, 복호화 대상 심볼/빈의 확률 특성이 보다 정확하게 반영될 수 있다. 따라서 엔트로피 복호화 성능 및 영상 압축 효율이 향상될 수 있다.11 to 13, since context information of another layer may be used for entropy decoding, a probability characteristic of a symbol / bin to be decoded may be more accurately reflected. Therefore, entropy decoding performance and image compression efficiency can be improved.

상술한 실시예에서, 방법들은 일련의 단계 또는 블록으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.In the above-described embodiment, the methods are described based on a flowchart as a series of steps or blocks, but the present invention is not limited to the order of steps, and any steps may occur in a different order or at the same time than the other steps described above. have. Also, one of ordinary skill in the art appreciates that the steps shown in the flowcharts are not exclusive, that other steps may be included, or that one or more steps in the flowcharts may be deleted without affecting the scope of the present invention. I can understand.
상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.The above-described embodiments include examples of various aspects. While not all possible combinations may be described to represent the various aspects, one of ordinary skill in the art will recognize that other combinations are possible. Accordingly, the invention is intended to embrace all other replacements, modifications and variations that fall within the scope of the following claims.

Claims (1)

  1. 복수 계층(layer) 기반의 스케일러블(scalable) 비디오 복호화를 위한 엔트로피(entropy) 복호화 방법으로서,
    대상 계층의 문맥 정보(context information) 및 다른 계층의 문맥 정보 중 적어도 하나를 이용하여 복호화 대상 심볼(symbol)의 문맥 정보를 도출하는 단계; 및
    상기 도출된 문맥 정보를 이용하여 상기 복호화 대상 심볼에 대한 엔트로피 복호화를 수행하는 단계를 포함하고,
    상기 대상 계층은 상기 복호화 대상 심볼이 포함된 계층이고, 상기 다른 계층은 상기 대상 계층을 제외한 계층으로서 상기 대상 계층에서의 복호화 수행에 이용될 수 있는 계층인 엔트로피 복호화 방법.
    An entropy decoding method for multi-layer scalable video decoding,
    Deriving context information of a symbol to be decoded using at least one of context information of a target layer and context information of another layer; And
    Performing entropy decoding on the decoding object symbol by using the derived context information,
    The target layer is a layer including the decoding target symbol, and the other layer is a layer excluding the target layer and may be used for decoding in the target layer.
PCT/KR2011/006726 2010-09-13 2011-09-09 Method and apparatus for entropy encoding/decoding WO2012036436A2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/822,582 US20130188740A1 (en) 2010-09-13 2011-09-09 Method and apparatus for entropy encoding/decoding

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2010-0089697 2010-09-13
KR20100089697 2010-09-13
KR1020110091755A KR20120028262A (en) 2010-09-13 2011-09-09 Method and apparatus for entropy encoding/decoding
KR10-2011-0091755 2011-09-09

Publications (2)

Publication Number Publication Date
WO2012036436A2 true WO2012036436A2 (en) 2012-03-22
WO2012036436A3 WO2012036436A3 (en) 2012-05-18

Family

ID=45832078

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/006726 WO2012036436A2 (en) 2010-09-13 2011-09-09 Method and apparatus for entropy encoding/decoding

Country Status (1)

Country Link
WO (1) WO2012036436A2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008527902A (en) * 2005-01-14 2008-07-24 ソンギュングァン ユニヴァーシティ Adaptive entropy coding and decoding method and apparatus for stretchable coding
KR20090051438A (en) * 2007-11-19 2009-05-22 영남대학교 산학협력단 Peg/jpeg-2000 compressed image quality measurement using context information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008527902A (en) * 2005-01-14 2008-07-24 ソンギュングァン ユニヴァーシティ Adaptive entropy coding and decoding method and apparatus for stretchable coding
KR20090051438A (en) * 2007-11-19 2009-05-22 영남대학교 산학협력단 Peg/jpeg-2000 compressed image quality measurement using context information

Also Published As

Publication number Publication date
WO2012036436A3 (en) 2012-05-18

Similar Documents

Publication Publication Date Title
KR101962183B1 (en) Method for encoding/decoding an intra prediction mode and apparatus for the same
JP6874032B2 (en) Picture encoding / decoding method and equipment using this
KR20200002764A (en) Method and apparatus for image encoding/decoding using prediction of filter information
KR102486026B1 (en) Method and apparatus for parallel entropy encoding/decoding
KR20130037194A (en) Method for video encoding/decoding and apparatus thereof
WO2013048033A1 (en) Method and apparatus for encoding/decoding intra prediction mode
WO2012044093A2 (en) Method and apparatus for video-encoding/decoding using filter information prediction
US9167258B2 (en) Fast mode determining method and apparatus in scalable video coding
KR20120028262A (en) Method and apparatus for entropy encoding/decoding
KR102356481B1 (en) Method and Apparatus for Video Encoding and Video Decoding
WO2012036436A2 (en) Method and apparatus for entropy encoding/decoding
KR102271878B1 (en) Video encoding and decoding method and apparatus using the same
KR102301654B1 (en) Method and apparatus for applying Sample Adaptive Offset filtering
KR102325977B1 (en) Video decoding method and apparatus using the same
WO2013051896A1 (en) Video encoding/decoding method and apparatus for same
KR20120100839A (en) Entropy encoding/decoding method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11825396

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 13822582

Country of ref document: US

NENP Non-entry into the national phase in:

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11825396

Country of ref document: EP

Kind code of ref document: A2