WO2016190690A1 - 적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치 - Google Patents

적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치 Download PDF

Info

Publication number
WO2016190690A1
WO2016190690A1 PCT/KR2016/005599 KR2016005599W WO2016190690A1 WO 2016190690 A1 WO2016190690 A1 WO 2016190690A1 KR 2016005599 W KR2016005599 W KR 2016005599W WO 2016190690 A1 WO2016190690 A1 WO 2016190690A1
Authority
WO
WIPO (PCT)
Prior art keywords
graph
transform
kernel
separable
sub
Prior art date
Application number
PCT/KR2016/005599
Other languages
English (en)
French (fr)
Inventor
구문모
예세훈
이범식
새드아미르
에네스 에길메즈힐라미
오르테가안토니오
Original Assignee
엘지전자(주)
유니버시티 오브 서던 캘리포니아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자(주), 유니버시티 오브 서던 캘리포니아 filed Critical 엘지전자(주)
Priority to US15/577,029 priority Critical patent/US10567763B2/en
Publication of WO2016190690A1 publication Critical patent/WO2016190690A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Definitions

  • the present invention relates to a method and apparatus for encoding and decoding a video signal using a graph-based transform. Specifically, the present invention relates to a method for applying an adaptive separable graph-based transform according to different characteristics of a differential signal.
  • Compression coding refers to a series of signal processing techniques for transmitting digitized information through a communication line or for storing in a form suitable for a storage medium.
  • Media such as an image, an image, an audio, and the like may be a target of compression encoding.
  • a technique of performing compression encoding on an image is called video image compression.
  • Next-generation video content will be characterized by high spatial resolution, high frame rate and high dimensionality of scene representation. Processing such content would result in a tremendous increase in terms of memory storage, memory access rate, and processing power.
  • a graph is a data representation form useful for describing relationship information between pixels, and a graph-based signal processing method of expressing and processing such relationship information between pixels as a graph is used.
  • Such graph-based signal processing can generalize concepts such as sampling, filtering, transformation, etc. using a graph in which each signal sample represents a vertex and the relationships of the signals are represented by graph edges with positive weights.
  • DCT Discrete Cosine Transform
  • the present invention seeks to design generalized separable graph based transformations.
  • the present invention seeks to provide a method of applying a graph-based transformation that is adaptive to the statistical properties of a differential block.
  • the present invention seeks to define a generalizable separable graph based transform by combining two 1D transforms.
  • the present invention seeks to provide a method for selecting a line graph based on edge weights and magnetic loops.
  • An object of the present invention is to provide a method of generating a graph-based transform kernel using various types of line graphs.
  • the present invention seeks to provide a method for defining and signaling a template for graph based transformation.
  • the present invention seeks to provide a method of applying different separable graph-based transforms for the row and column directions of a coding block.
  • the present invention provides a method of applying a generalized separable graph based transform.
  • the present invention provides a method of applying a graph-based transformation that is adaptive to the statistical properties of a differential block.
  • the present invention provides a method of combining two 1D transforms to define a generalized separable graph-based transform.
  • the present invention provides a method for selecting a line graph based on edge weights and magnetic loops.
  • the present invention provides a method of generating a graph-based transform kernel using various types of line graphs.
  • the present invention provides a method of defining and signaling a template for graph-based transformations.
  • the present invention provides a method of applying different separable graph-based transforms for the row and column directions of a coding block.
  • the proposed transform has lower computational complexity and has a low overhead in signaling transform selection information.
  • the present invention can process video signals more efficiently by applying generalized separable graph-based transforms, and more efficiently by applying different separable graph-based transforms for the row direction and the column direction of the coding block. Will be able to perform
  • the present invention ensures flexibility to adaptively apply transforms, reduces computational complexity, enables faster adaptation to changing statistical characteristics in different video segments, and enables transforms. It can provide variability in performance.
  • the present invention can reduce the computational complexity for coding a video signal by using separable transforms, and can significantly reduce the overhead in transmission and transform selection of the transform matrix.
  • the present invention can significantly reduce the overhead for coding graph information by defining a template for graph based transformation and providing a method for signaling it.
  • FIG. 1 is a schematic block diagram of an encoder in which encoding of a video signal is performed as an embodiment to which the present invention is applied.
  • FIG. 2 is a schematic block diagram of a decoder in which decoding of a video signal is performed as an embodiment to which the present invention is applied.
  • FIG. 3 shows examples of graphs used to model statistical relationships within 8x8 blocks in a video frame according to an embodiment to which the present invention is applied.
  • FIG. 4 is a diagram illustrating two types of graphs showing a weight distribution as an embodiment to which the present invention is applied.
  • FIG. 5 is a diagram for describing a process of obtaining a graph-based transformation matrix based on a 1D graph and a 2D graph as an embodiment to which the present invention is applied.
  • FIG. 6 shows an example of one-dimensional graphs that may be a transformation basis for applying a separable transform as an embodiment to which the present invention is applied.
  • FIG. 7 is a diagram for describing a method of applying a different separable transform to each line of a 2D graph as an embodiment to which the present invention is applied.
  • FIG. 8 illustrates a schematic block diagram of an encoder for processing a graph-based signal as an embodiment to which the present invention is applied.
  • FIG. 9 illustrates a schematic block diagram of a decoder for processing a graph-based signal as an embodiment to which the present invention is applied.
  • FIG. 10 illustrates an internal block diagram of a graph-based transform unit according to an embodiment to which the present invention is applied.
  • FIG. 11 illustrates a change of differential pixel values in an 8x8 transform block according to an intra prediction mode according to an embodiment to which the present invention is applied.
  • FIG. 12 is a flowchart illustrating a method of generating a generalized separable graph-based transform as an embodiment to which the present invention is applied.
  • FIG. 13 is a table illustrating a graph type and a transformation type according to an embodiment to which the present invention is applied.
  • 14 to 16 are diagrams for describing transformation types according to edge weights and self-loops as an embodiment to which the present invention is applied.
  • FIG. 17 is a diagram for explaining a two-line graph in a sub block within an NxN intra directional prediction block according to an embodiment to which the present invention is applied.
  • FIG. 18 is a diagram for explaining that L transforms are allocated to L subblocks in a horizontal direction in an N ⁇ N block according to an embodiment to which the present invention is applied.
  • FIG. 19 is a diagram for explaining that M transforms are allocated to M subblocks in a vertical direction in an N ⁇ N block according to an embodiment to which the present invention is applied.
  • DCT Discrete Cosine Transform
  • ADST Asymmetric Discrete Sine Transform
  • RADST Reverse Asymmetric Discrete Sine Transform
  • FIG. 21 shows an example of seven separable transforms that can be generated by a combination of three separable transforms (DCT, ADST and RADST) as an embodiment to which the present invention is applied.
  • FIG. 22 illustrates a comparison result of average PSNR vs. Bit Per Pixel (BPP) with respect to a method of adaptively selecting a transform different from a fixed DCT and ADST as an embodiment to which the present invention is applied.
  • BPP Bit Per Pixel
  • FIG. 23 is a flowchart illustrating a method of deriving a separable graph-based transform kernel using a transform index as an embodiment to which the present invention is applied.
  • 24 is a flowchart illustrating a method of determining a generalizable separable graph-based transform kernel as an embodiment to which the present invention is applied.
  • the present invention provides a method of decoding a video signal using an adaptive separable graph based transform, the method comprising: receiving a transform index for a target block from the video signal, wherein the transform index is the target; Indicates a graph-based transform to be applied to the block; Deriving a graph-based transform kernel corresponding to the transform index; And decoding the target block based on the graph-based transform kernel.
  • the conversion index is characterized in that for each sub-block.
  • the graph-based transform kernel is derived for each sub block according to the conversion index, and at least two or more sub blocks are characterized in that different transform types are applied.
  • the different conversion type is characterized in that it comprises at least two of DCT, ADST and RADST.
  • the graph-based transform kernel is a two-dimensional separable graph-based transform kernel generated based on a combination of a plurality of one-dimensional graph-based transforms.
  • the graph-based transformation kernel is characterized in that predefined for each row or column of the target block.
  • the transform index is characterized in that it is received for at least one unit of a coding unit, a prediction unit or a transform unit.
  • a method of encoding a video signal using an adaptive separable graph-based transform comprising: partitioning a target block into a plurality of sub-blocks in a horizontal or vertical direction; Generating a line graph for each of the plurality of subblocks; Determining a graph based transform kernel based on the line graph; And performing a transformation on the plurality of subblocks using the graph-based transformation kernel.
  • the method further comprises encoding a transform index corresponding to the graph-based transform kernel, wherein the transform index corresponds to each subblock.
  • the graph-based transform kernel represents a two-dimensional separable graph-based transform kernel
  • the graph-based transform kernel is generated based on the combination of a plurality of one-dimensional graph-based transform corresponding to the line graph do.
  • the present invention provides an apparatus for decoding a video signal using an adaptive separable graph-based transform, the apparatus comprising: a parser for receiving a transform index for a target block from the video signal; And an inverse transform unit for deriving a graph-based transform kernel corresponding to the transform index and decoding the target block based on the graph-based transform kernel, wherein the target block is partitioned in a horizontal direction or a vertical direction.
  • the transform index corresponds to each subblock
  • the graph-based transform kernel is derived for each subblock according to the transform index, and at least two or more subblocks are applied with different transform types.
  • an apparatus comprising: a parser for receiving a transform index for a target block from the video signal; And an inverse transform unit for deriving a graph-based transform kernel corresponding to the transform index and decoding the target block based on the graph-based transform kernel, wherein the target block is partitioned in a horizontal direction or a vertical direction.
  • the transform index corresponds to each sub
  • the present invention provides an apparatus for encoding a video signal using an adaptive separable graph-based transform, comprising: an image divider for partitioning a target block into a plurality of sub-blocks in a horizontal or vertical direction; And generating a line graph for each of the plurality of subblocks, determining a graph-based transform kernel based on the line graph, and performing a transform on the plurality of subblocks using the graph-based transform kernel.
  • a graph-based transform unit is provided, wherein at least two or more subblocks of the plurality of subblocks are provided with a different transform type.
  • terms used in the present invention may be replaced for more appropriate interpretation when there are general terms selected to describe the invention or other terms having similar meanings.
  • signals, data, samples, pictures, frames, blocks, etc. may be appropriately replaced and interpreted in each coding process.
  • partitioning, decomposition, splitting, and division may be appropriately replaced and interpreted in each coding process.
  • Compression efficiency can be improved by applying a linear transformation that adaptively changes the statistical properties of the signal in other parts of the video sequence.
  • General statistical methods have been tried for this purpose, but they have had limited results.
  • a graph-based signal processing technique is introduced as a more efficient way of modeling the statistical characteristics of a video signal for video compression.
  • the orthogonal transform for coding or prediction can be derived by calculating the spectral decomposition of the graph Laplacian matrix. For example, an eigen vector and an eigen value may be obtained through the spectral decomposition.
  • the present invention provides a new method of modifying the process of calculating graph-based transformations using a new generalization of traditional spectral decomposition.
  • the transformation obtained from the graph signal may be defined as a graph-based transform (hereinafter, referred to as 'GBT').
  • 'GBT' graph-based transform
  • GBT transform Unit
  • the generalized form of spectral decomposition to which the present invention is applied may be obtained based on an additional set of graph edge parameters having desired characteristics, and graph vertex parameters.
  • This embodiment of the present invention enables better control of the transform characteristics and avoids problems such as sharp discontinuities of the vectors defining the transform.
  • the embodiments to which the present invention is applied will be described in detail.
  • FIG. 1 is a schematic block diagram of an encoder in which encoding of a video signal is performed as an embodiment to which the present invention is applied.
  • the encoder 100 may include an image splitter 110, a transformer 120, a quantizer 130, an inverse quantizer 140, an inverse transformer 150, a filter 160, and a decoder. It may include a decoded picture buffer (DPB) 170, an inter predictor 180, an intra predictor 185, and an entropy encoder 190.
  • DPB decoded picture buffer
  • the image divider 110 may divide an input image (or a picture or a frame) input to the encoder 100 into one or more processing units.
  • the processing unit may be a Coding Tree Unit (CTU), a Coding Unit (CU), a Prediction Unit (PU), or a Transform Unit (TU).
  • CTU Coding Tree Unit
  • CU Coding Unit
  • PU Prediction Unit
  • TU Transform Unit
  • the terms are only used for the convenience of description of the present invention, the present invention is not limited to the definition of the terms.
  • the term coding unit is used as a unit used in encoding or decoding a video signal, but the present invention is not limited thereto and may be appropriately interpreted according to the present invention.
  • the encoder 100 may generate a residual signal by subtracting a prediction signal output from the inter predictor 180 or the intra predictor 185 from the input image signal, and generate the residual signal. Is transmitted to the converter 120.
  • the transformer 120 may generate a transform coefficient by applying a transform technique to the residual signal.
  • the conversion process may be applied to pixel blocks having the same size as the square, or may be applied to blocks of variable size rather than square.
  • the quantization unit 130 may quantize the transform coefficients and transmit the quantized coefficients to the entropy encoding unit 190, and the entropy encoding unit 190 may entropy code the quantized signal and output the bitstream.
  • the quantized signal output from the quantization unit 130 may be used to generate a prediction signal.
  • the quantized signal may restore the residual signal by applying inverse quantization and inverse transformation through the inverse quantization unit 140 and the inverse transform unit 150 in the loop.
  • a reconstructed signal may be generated by adding the reconstructed residual signal to a prediction signal output from the inter predictor 180 or the intra predictor 185.
  • the filtering unit 160 applies filtering to the reconstruction signal and outputs it to the reproduction apparatus or transmits the decoded picture buffer to the decoding picture buffer 170.
  • the filtered signal transmitted to the decoded picture buffer 170 may be used as the reference picture in the inter predictor 180. As such, by using the filtered picture as a reference picture in the inter prediction mode, not only image quality but also encoding efficiency may be improved.
  • the decoded picture buffer 170 may store the filtered picture for use as a reference picture in the inter prediction unit 180.
  • the inter prediction unit 180 performs temporal prediction and / or spatial prediction to remove temporal redundancy and / or spatial redundancy with reference to a reconstructed picture.
  • the reference picture used to perform the prediction is a transformed signal that has been quantized and dequantized in units of blocks at the time of encoding / decoding in the previous time, blocking artifacts or ringing artifacts may exist. have.
  • the inter prediction unit 180 may interpolate the signals between pixels in sub-pixel units by applying a lowpass filter in order to solve performance degradation due to discontinuity or quantization of such signals.
  • the subpixel refers to a virtual pixel generated by applying an interpolation filter
  • the integer pixel refers to an actual pixel existing in the reconstructed picture.
  • the interpolation method linear interpolation, bi-linear interpolation, wiener filter, or the like may be applied.
  • the interpolation filter may be applied to a reconstructed picture to improve the precision of prediction.
  • the inter prediction unit 180 generates an interpolation pixel by applying an interpolation filter to integer pixels, and uses an interpolated block composed of interpolated pixels as a prediction block. You can make predictions.
  • the intra predictor 185 may predict the current block by referring to samples around the block to which current encoding is to be performed.
  • the intra prediction unit 185 may perform the following process to perform intra prediction. First, reference samples necessary for generating a prediction signal may be prepared. The prediction signal may be generated using the prepared reference sample. Then, the prediction mode is encoded. In this case, the reference sample may be prepared through reference sample padding and / or reference sample filtering. Since the reference sample has been predicted and reconstructed, there may be a quantization error. Accordingly, the reference sample filtering process may be performed for each prediction mode used for intra prediction to reduce such an error.
  • a prediction signal generated through the inter predictor 180 or the intra predictor 185 may be used to generate a reconstruction signal or to generate a residual signal.
  • FIG. 2 is a schematic block diagram of a decoder in which decoding of a video signal is performed as an embodiment to which the present invention is applied.
  • the decoder 200 includes a parser (not shown), an entropy decoder 210, an inverse quantizer 220, an inverse transformer 230, a filter 240, and a decoded picture buffer (DPB).
  • a decoded picture buffer unit 250, an inter predictor 260, and an intra predictor 265 may be included.
  • the reconstructed video signal output through the decoder 200 may be reproduced through the reproducing apparatus.
  • the decoder 200 may receive a signal output from the encoder 100 of FIG. 1, and the received signal may be entropy decoded through the entropy decoding unit 210.
  • the inverse quantization unit 220 obtains a transform coefficient from the entropy decoded signal using the quantization step size information.
  • the obtained transform coefficients may be applied to various embodiments described in the transform unit 120 of FIG.
  • the inverse transform unit 230 inversely transforms the transform coefficient to obtain a residual signal.
  • a reconstructed signal is generated by adding the obtained residual signal to a prediction signal output from the inter predictor 260 or the intra predictor 265.
  • the filtering unit 240 applies filtering to the reconstructed signal and outputs the filtering to the reproducing apparatus or transmits it to the decoded picture buffer unit 250.
  • the filtered signal transmitted to the decoded picture buffer unit 250 may be used as the reference picture in the inter predictor 260.
  • the embodiments described by the filtering unit 160, the inter prediction unit 180, and the intra prediction unit 185 of the encoder 100 are respectively the filtering unit 240, the inter prediction unit 260, and the decoder. The same may be applied to the intra predictor 265.
  • FIG. 3 illustrates an example of graphs used to model a statistical relationship in an 8x8 block in a video frame as an embodiment to which the present invention is applied.
  • Discrete-time signal processing techniques have evolved from directly processing and filtering analog signals, and therefore have some common assumptions, such as sampling and processing only regularly and organized data. Has been limited.
  • the field of video compression is basically based on the same assumptions, but is generalized to multidimensional signals.
  • Signal processing based on graph representations generalizes concepts such as sampling, filtering, and Fourier transforms, uses graphs where each signal sample represents a vertex, and from traditional approaches where signal relationships are represented by positively weighted graph edges. Begins. This completely disconnects the signal from its acquisition process, so that characteristics such as sampling rate and sequence are completely replaced by the characteristics of the graph.
  • the graph representation can be defined by some specific graph models.
  • an undirected simple graph and an undirected edge can be used.
  • the undirected simple graph may refer to a graph without a self-loop or multi edges.
  • G is an undirected simple graph with weights assigned to each edge
  • an undirected simple graph G can be described by three parameters as shown in Equation 1 below. have.
  • V denotes a set of V graph vertices
  • denotes a graph edge set
  • W denotes a weight expressed by a VxV matrix.
  • the weight W may be expressed as Equation 2 below.
  • W i, j represents the weight of the edge (i, j)
  • W j, i represents the weight of the edge (j, i)
  • if there is no edge connecting the vertices (i, j), W i, j 0.
  • W i, i 0.
  • the present invention provides two embodiments of a graph type that can be used for processing 8x8 pixel blocks in an image or video.
  • Each pixel is associated with a graph vertex, whose value is the value of the graph vertex.
  • the graph edge may mean a line connecting graph vertices.
  • the graph edge is used to represent any form of statistical dependence in the signal, where a positive weight may indicate its strength.
  • each vertex may be connected to all other vertices, and a weight of zero may be assigned to the edges connecting the unrelated or weakly associated vertices.
  • an edge with a weight of zero may be completely removed.
  • each vertex may be defined to be connected to the eight adjacent vertices nearest thereto.
  • FIG. 4 is a diagram illustrating two types of graphs showing a weight distribution as an embodiment to which the present invention is applied.
  • the vertex values of the graph are independent variables based on signal measurements (typically modeled as arbitrary variables), but it is necessary to select the edge weights of the graph that match the characteristics of some signals.
  • the colors of the lines for the graph edges represent different edge weights.
  • the graph of FIG. 4 (a) shows the case of having a "weak link” along a straight line, and the case of having only two types of edge weights.
  • the "weak link” means that it has a relatively small edge weight.
  • the graph of FIG. 4 (b) shows the distribution of edge weights covering an irregular area, and the present invention intends to provide a method of processing a signal using the distribution graph of the edge weights.
  • FIG. 5 is a diagram for describing a process of obtaining a graph-based transformation matrix based on a 1D graph and a 2D graph as an embodiment to which the present invention is applied.
  • FIG. 5A illustrates a 1D graph corresponding to each line of the pixel block
  • FIG. 5B illustrates a 2D graph corresponding to the pixel block.
  • the graph vertex is associated with each pixel of the pixel block, and the value of the graph vertex may be expressed as a pixel value.
  • the graph edge may mean a line connecting graph vertices.
  • the graph edge is used to represent some form of statistical dependence in the signal, and a value representing the strength may be referred to as an edge weight.
  • a one-dimensional graph is shown, 0 , 1 , 2 , and 3 represent positions of vertices, and W 0 , W 1 and W 2 represent edge weights between the vertices.
  • Each vertex may be connected to all other vertices, and an edge weight of zero may be assigned to the edges connecting the unrelated or weakly associated vertices. However, for the sake of simplicity, the edge with an edge weight of zero can be completely removed.
  • the relationship information between pixels may be represented by edge presence and edge weight values between pixels when each pixel corresponds to a vertex of the graph.
  • GBT can be obtained through the following process.
  • the encoder or decoder may obtain graph information from the target block of the video signal. From the obtained graph information, a Laplacian matrix L may be obtained as shown in Equation 3 below.
  • D represents a degree matrix, for example, the degree matrix may mean a diagonal matrix including information about the order of each vertex.
  • A represents an adjacency matrix that represents, by weight, a connection relationship (eg, an edge) with adjacent pixels.
  • the GBT kernel can be obtained by performing eigen decomposition on the Laplacian matrix L as shown in Equation 4 below.
  • Equation 4 L denotes a Laplacian matrix, U denotes an eigen matrix, and U T denotes a transpose matrix of U.
  • the eigen matrix U may provide a specialized graph-based Fourier transform for a signal that fits the corresponding graph model.
  • an eigen matrix U satisfying Equation 4 may mean a GBT kernel.
  • FIG. 6 shows an example of one-dimensional graphs that may be a transformation basis for applying a separable transform as an embodiment to which the present invention is applied.
  • Embodiments for 1D graphs that can be the basis for a line can be described as follows.
  • the correlation is small for only one pixel pair, so that only the weight value of the corresponding edge is set small.
  • a small edge weight may be set for the graph edge including the block boundary.
  • a self-loop may or may not exist at both ends, or only one side may have a self-loop.
  • FIGS. 6 (a) and 6 (b) show a case in which a self-loop exists only on one side of the 1D graph
  • FIG. 6 (c) shows a magnetic loop (across the 1D graph).
  • self-loop is present
  • FIG. 6 (d) shows a case where a self-loop is not present across the 1D graph.
  • the self-loop represents a dependency with an adjacent vertex and may mean, for example, a self weight. That is, weights may be further added to a portion where a self loop exists.
  • a separate 1D separable transform set may be defined according to the TU size.
  • the transform coefficient data increases with O (N 4 ) as the TU size increases, but in the case of a separable transform, it increases with O (N 2 ). Accordingly, the following configuration may be possible by combining various underlying 1D separable transforms.
  • a template index is signaled, and a separate weight value is additionally assigned to only an edge corresponding to the boundary. You can apply a template instead.
  • FIG. 7 is a diagram for describing a method of applying a different separable transform to each line of a 2D graph as an embodiment to which the present invention is applied.
  • FIG. 7 illustrates a two-dimensional graph corresponding to a pixel block, a graph vertex is associated with each pixel of the pixel block, and the value of the graph vertex may be expressed as a pixel value.
  • the line connecting the graph vertices means a graph edge.
  • the graph edge is used to represent some form of statistical dependence in a signal, and a value representing the strength may be referred to as an edge weight.
  • NGBT 2D non-separable GBT
  • SGBTs 1D separable GBTs
  • edge weights of each side (a ij , b kl ) can be used to create and apply a 2D non-separable GBT (NSGBT) kernel.
  • NGBT non-separable GBT
  • SGBT 1D separable GBT
  • 1D SGBT Separable GBT
  • 1D separate GBTs may be applied to each line.
  • 1D SGBT may be applied to each combination.
  • one GBT template set for an NxN TU consists of M four-connected graphs, a total of M N 2 xN 2 conversion matrices must be prepared so that the memory for storing them The demand is large.
  • one 4-connected graph can be constructed by combining at least one 1D graph element, only a transformation for at least one 1D graph element is required, and thus a memory for storing transformation matrices. The amount can be reduced.
  • a variety of 4-connected 2D graphs can be generated with a limited number of 1D graph elements, thereby making a GBT template set suitable for each mode combination. You can customize Even if the total number of GBT templates increases, the underlying number of 1D transforms will remain the same, minimizing the amount of memory required. For example, after preparing a limited number of (a i0 , a i1 , a i2 ) and (b 0j , b 1j , b 2j ) combinations in FIG. 7, the 1D graphs for each combination may be used as a unit to properly connect them. In this case, one 4-connected 2D graph may be generated.
  • the combination of 1D transforms is used to customize the combination of 1D transforms. can do.
  • FIG. 8 illustrates a schematic block diagram of an encoder for processing a graph-based signal as an embodiment to which the present invention is applied.
  • the encoder 800 to which the present invention is applied includes a graph-based transform unit 810, a quantizer 820, an inverse quantizer 830, an inverse transform unit 840, a buffer 850, and a predictor ( 860, and an entropy encoding unit 870.
  • the encoder 800 receives a video signal and generates a prediction error by subtracting the predicted signal output from the predictor 860 from the video signal.
  • the generated prediction error is transmitted to the graph-based transform unit 810, and the graph-based transform unit 810 generates a transform coefficient by applying a transform scheme to the prediction error.
  • the graph-based transform unit 810 may select a more suitable transform matrix by comparing the obtained graph-based transform matrix with the transform matrix obtained from the transform unit 120 of FIG. 1. have.
  • the quantization unit 820 quantizes the generated transform coefficient and transmits the quantized coefficient to the entropy encoding unit 870.
  • the entropy encoding unit 870 performs entropy coding on the quantized signal and outputs an entropy coded signal.
  • the quantized signal output by the quantization unit 820 may be used to generate a prediction signal.
  • the inverse quantizer 830 and the inverse transformer 840 in the loop of the encoder 800 may perform inverse quantization and inverse transformation on the quantized signal so that the quantized signal is restored to a prediction error. Can be.
  • the reconstructed signal may be generated by adding the reconstructed prediction error to the prediction signal output by the prediction unit 860.
  • the buffer 850 stores the reconstructed signal for future reference by the predictor 860.
  • the prediction unit 860 may generate a prediction signal using a signal previously restored and stored in the buffer 850.
  • the generated prediction signal is subtracted from the original video signal to generate a differential signal, which is transmitted to the graph-based converter 810.
  • FIG. 9 illustrates a schematic block diagram of a decoder for processing a graph-based signal as an embodiment to which the present invention is applied.
  • the decoder 900 of FIG. 9 receives a signal output by the encoder 800 of FIG. 8.
  • the entropy decoding unit 910 performs entropy decoding on the received signal.
  • the inverse quantization unit 920 obtains a transform coefficient from the entropy decoded signal based on a quantization step size.
  • the inverse transform unit 930 obtains a difference signal by performing inverse transform on a transform coefficient.
  • the inverse transform may mean an inverse transform for the graph-based transform obtained by the encoder 800.
  • the reconstruction signal may be generated by adding the obtained difference signal to the prediction signal output by the prediction unit 950.
  • the buffer 940 may store the reconstruction signal for future reference by the predictor 950.
  • the prediction unit 950 may generate a prediction signal based on a signal previously restored and stored in the buffer 940.
  • FIG. 10 illustrates an internal block diagram of a graph-based transform unit according to an embodiment to which the present invention is applied.
  • the graph-based converter 810 may include a graph parameter determiner 811, a graph signal generator 813, a transform matrix determiner 815, and a transform performer 817.
  • the graph parameter determiner 811 may extract a graph parameter in a graph corresponding to the target unit of the video signal or the difference signal.
  • the graph parameter may include at least one of a vertex parameter and an edge parameter.
  • the vertex parameter may include at least one of a vertex position and a vertex number
  • the edge parameter may include at least one of an edge weight value and an edge weight number.
  • the graph parameter may be defined as a predetermined number of sets.
  • the graph parameter extracted from the graph parameter determiner 811 may be expressed in a generalized form.
  • the graph signal generator 813 may generate a graph signal based on the graph parameter extracted from the graph parameter determiner 811.
  • the graph signal may include a weighted or unweighted line graph.
  • the line graph may be generated for each row or column of the target block.
  • the transformation matrix determiner 815 may determine a transformation matrix suitable for the graph signal.
  • the transformation matrix may be determined based on Rate Distortion (RD) performance.
  • the transformation matrix may be replaced with a representation of a transformation or a transformation kernel.
  • the transform matrix may be a value determined at the encoder and the decoder, and in this case, the transform matrix determiner 815 may derive a transform matrix suitable for the graph signal from a stored location.
  • the transformation matrix determiner 815 may generate a one-dimensional transform kernel for a line graph, and combine two of the one-dimensional transform kernels to form a two-dimensional separable graph-based transform kernel. Can be generated.
  • the transform matrix determiner 815 may determine a transform kernel suitable for the graph signal among the two-dimensional separable graph-based transform kernels based on RD (Rate Distortion) performance.
  • the transform performer 817 may perform a transform by using the transform matrix obtained from the transform matrix determiner 815.
  • the function is divided and described for each function, but the present invention is not limited thereto.
  • the graph-based converter 810 may be largely composed of a graph signal generator and a converter.
  • the function of the graph parameter determiner 811 may be performed by the graph signal generator.
  • the transform matrix determiner 815 and the transform performer 817 may perform functions in the transform unit.
  • the function of the transform unit may be divided into a transform matrix determiner and a transform performer.
  • FIG. 11 illustrates a change of differential pixel values in an 8x8 transform block according to an intra prediction mode according to an embodiment to which the present invention is applied.
  • One embodiment of the present invention defines a generalized separable transform that combines two 1D transforms, one of the two 1D transforms applied to each column of the differential block and the other It can be applied to rows.
  • separable 2D DCT and hybrid ADST / DCT separable transforms correspond to one specific embodiment of the present invention.
  • FIGS. 11A to 11D illustrate the difference blocks have different distributions of difference pixel values according to a prediction method (or a prediction mode).
  • a prediction method or a prediction mode
  • FIG. 11A illustrates a change of differential pixel values in an 8x8 transform block in the intra prediction planar mode
  • FIGS. 11B to 11C illustrate intra prediction direction modes 1, 3, and 3, respectively.
  • it represents the change of differential pixel values in the 8x8 transform block.
  • the difference blocks may have different distributions according to the characteristics of the video image.
  • the difference blocks may have a distribution different from the change of the difference pixel values of FIG.
  • the present invention seeks to solve this problem by proposing a generalized separable transform. For example, we propose a method of designing 1D transforms used to create a 2D separable transform, which will be described in detail in the following embodiments.
  • FIG. 12 is a flowchart illustrating a method of generating a generalized separable graph-based transform as an embodiment to which the present invention is applied.
  • One embodiment of the present invention may configure the following steps to generate a generalized separable transform.
  • the encoder may generate or design a line graph (S1210).
  • the line graph may or may not be weighted.
  • the encoder may generate a 1D graph-based transform (GBT) associated with the line graph (S1220).
  • the 1D graph-based transform (GBT) may be generated using a generalized Laplacian operator.
  • Equation 5 assuming that there is an adjacent matrix A and the graph G (A) defined by it, a generalized Laplacian matrix May be obtained through Equation 5 below.
  • D represents a degree matrix, for example, the degree matrix may mean a diagonal matrix including information on the order of each vertex.
  • A represents an adjacency matrix that represents, by weight, a connection relationship (eg, an edge) with adjacent pixels.
  • S represents a diagonal matrix representing a weighted self-loop at the nodes of G.
  • the GBT kernel can be obtained by performing eigen decomposition on Equation 6 below.
  • Equation 6 Denotes a generalized Laplacian matrix, U denotes an eigen matrix, and U t denotes a transpose matrix of U.
  • the eigen matrix U may provide a specialized graph-based Fourier transform for a signal that fits the graph model.
  • an eigen matrix U satisfying Equation 6 may mean a GBT kernel.
  • the columns of the eigen matrix U may refer to basis vectors of the GBT. If the graph does not have a self-loop, the generalized Laplacian matrix is given by Equation 3 above.
  • the encoder may select two 1D graph-based transforms to be used to generate a 2D separable GBT (S1230).
  • the two selected 1D graph-based transforms may be combined to generate a 2D separable graph-based transform (S1240).
  • K 2D separable graph-based transforms may be generated through various combinations of 1D graph-based transforms, where K is a transform signaling overhead (eg, rate distortion trade-off). -Distortion tradeoff).
  • K is a transform signaling overhead (eg, rate distortion trade-off).
  • FIG. 13 is a table illustrating a graph type and a transformation type according to an embodiment to which the present invention is applied.
  • One embodiment of the present invention provides a method of generating various kinds of transformations by designing weight information of a graph signal.
  • the weight information of the graph signal may include at least one of an edge weight and a self-loop weight.
  • the edge weights may include at least one of uniform edge weights, non-uniform edge weights, or any edge weight.
  • the self-loop weight is no self-loop, single self-loop at one end, and one self loop at each end. -at least one of a loop at both ends, or an arbitrary self-loop.
  • another embodiment of the present invention provides a method for generating various kinds of transformations according to a graph type.
  • the graph type may include at least one of a line graph or an arbitrary graph.
  • a 1D separable transform may be generated.
  • a non-separable transform may be generated.
  • the edge weights are uniform, and there is no self-loop weighting, the resulting transform means a separable DCT. can do.
  • the edge weight is uniform, and has a single self-loop at one end, the resulting transform is separable. It may mean a separable ADST.
  • the edge weights are arbitrary edge weights, and have any magnetic loop weights
  • the resulting transform is a generalized separable transform. It may mean.
  • the edge weight is an arbitrary edge weight, and has an arbitrary magnetic loop weight
  • the resulting transform is a non-separable transform. It may mean.
  • the present invention can generate various types of transformations based on at least one of graph type, edge weight, and magnetic loop weight.
  • a generalized separable transform can be designed by selecting line graphs with different edge weights and magnetic loop weights.
  • an adaptive transform may be generated for blocks having different signal characteristics, and the coding efficiency may be improved by performing the transform using the transform.
  • 14 to 16 are diagrams for describing transformation types according to edge weights and self-loops as an embodiment to which the present invention is applied.
  • Figure 14 (a) shows a uniformly weighted line graph with 8 nodes
  • Figure 14 (b) is a separable 1D GBT derived from the line graph of Figure 14 (a) Represents a separable extension.
  • FIG. 14B it can be confirmed that the 2D separable DCT is the same as the 2D separable DCT.
  • FIG. 15 (a) shows a uniformly weighted line graph with a self loop at one end
  • FIG. 15 (b) is derived from the line graph of FIG. 15 (a). Represents a separable extension of 1D GBT. Referring to FIG. 15B, it can be confirmed that the 2D separable ADST is the same.
  • FIG. 16A shows a line graph that generates 1D DCT
  • FIG. 16B shows a weighted line graph with no self loop
  • FIG. Figure 16 (c) shows a 2D separable transform combining the line graphs of Figures 16 (a) and 16 (b).
  • the line graphs of FIGS. 16 (a) and 16 (b) may be combined by applying to the columns and the rows of the block, respectively.
  • FIG. 17 is a diagram for explaining a two-line graph in a sub block within an NxN intra directional prediction block according to an embodiment to which the present invention is applied.
  • 2D non-separable transforms may be obtained using any graphs connecting several line graphs.
  • 2D non-separable transforms derived from a graph that connects two rows of pixels are used as neighboring pairs of two rows or columns in an N ⁇ N block. may be applied to a neighboring pair).
  • FIG. 17 illustrates a two-line graph in a subblock within an N ⁇ N intra directional prediction block, and in the intra angular prediction mode, pixels located along the same prediction direction are predicted to be significantly related, and thus, FIG. As in, edge weights may be assigned along the corresponding pixels.
  • FIG. 18 and 19 illustrate embodiments to which the present invention is applied.
  • FIG. 18 is a diagram for explaining that L transforms are allocated to L subblocks in a horizontal direction in an NxN block
  • FIG. 19 is a diagram illustrating an NxN block.
  • two transform sets can be created in the vertical direction and the horizontal direction.
  • an N ⁇ N block may be partitioned horizontally into L subblocks.
  • each of the L subblocks may have a graph having m lines, and L may represent the number of partitions and may be calculated as N / m.
  • an N ⁇ N block may be partitioned into M sub blocks in a vertical direction.
  • each of the M subblocks may have a graph having n lines, and M may represent the number of partitions and may be calculated as N / n.
  • the pixel sizes of the sub blocks are mxN and Nxn in the horizontal and vertical directions, respectively, where m and n represent the number of lines in the horizontal and vertical directions, respectively, and N represents the block width.
  • the transformation may be performed in each subblock. And if m or n is set to 1, the transform is as derived from a line graph.
  • the transformation may be performed along one direction (horizontal or vertical) based on the partition, as in FIG. 18 or 19.
  • the transformation may be performed in both directions, in which case it may be performed according to the other one after the one of FIG. 18 or 19.
  • each sub block may have p or q transform kernels respectively derived from various types of line graphs in a horizontal or vertical direction.
  • the N subblocks each include p transform kernels ⁇ T 1 , T 2 ,... , T p ⁇
  • the M subblocks each include q transform kernels ⁇ S 1 , S 2 ,... , S q ⁇ .
  • transform kernels or transform kernel sets derived from various types of line graphs may be predetermined values, in which case the encoder and decoder may already be known.
  • the transform kernels (or transform kernel set) in one direction are a predetermined value and are known to the encoder and decoder
  • the transform kernels (or transform kernel set) for the other direction may be defined by an index. Can be.
  • the encoder can signal the index and send it to the decoder.
  • the transformations for the columns or the transformations for the rows may each be different.
  • all of the indexes for the transformations for the columns or the transformations for the rows may be defined and signaled.
  • the indices for the predetermined combination may be signaled. For example, in the case of Fig. 18, ⁇ h1, h2,... , hL ⁇ indexes or, in the case of FIG. 19, ⁇ v1, v2,... , vM ⁇ index may be signaled.
  • 20 is a diagram for describing a process of generating a graph and a separable graph-based transform associated with DCT, ADST, and RADST according to an embodiment to which the present invention is applied.
  • the present invention can generalize separable transforms by allowing different transforms to be used for the rows and columns of the target block.
  • the encoder may generate or design a line graph (Step 1), and then calculate a generalized graph Laplacian (Step 2).
  • the present invention shows a process of generating the separable graph-based transform by applying the above steps for DCT, ADST and Reverse ADST, respectively.
  • DCT and ADST correspond to one particular embodiment of graph-based transformation (GBT), and RADST also follows graph-based analysis.
  • the transforms shown in FIG. 20 can be more generalized by selecting different link weights, instead of using the same link weights.
  • a combination of three transforms may be used to transform the rows and columns of the differential block to characterize the differential signal.
  • a template index may be specified for the three transforms or a combination thereof, in which case the template index may be transmitted in units of coding units or prediction units. Alternatively, you can index zero for the most common transformations and index the rest with other values.
  • FIG. 21 shows an example of seven separable transforms that can be generated by a combination of three separable transforms (DCT, ADST and RADST) as an embodiment to which the present invention is applied.
  • DCT, ADST, and RADST pairs can create seven different 2D separable transforms.
  • the arrow below each embodiment indicates the direction of increasing energy concentration.
  • DCT is selected when the energy is spread in the block and in this case has no directionality.
  • FIG. 21 (a) shows an example in which a 2D separable transform is generated by a DCT / DCT pair, and energy is spread.
  • 21 (b) shows an example in which a 2D separable transform is generated by the ADST / ADST pair, and the energy concentration increases in the lower right direction.
  • 21 (c) shows an example in which a 2D separable transform is generated by the RADST / RADST pair, and the energy concentration increases in the upper left direction.
  • 21 (d) shows an example in which a 2D separable transform is generated by the ADST / DCT pair, and the energy concentration increases in the right direction.
  • 21 (e) shows an example in which a 2D separable transform is generated by the DCT / ADST pair, and the energy concentration increases in the lower direction.
  • 21 (f) shows an example in which a 2D separable transform is generated by the RADST / DCT pair, and the energy concentration increases in the left direction.
  • 21 (g) shows an example in which a 2D separable transform is generated by the DCT / RADST pair, and energy concentration increases in the upper direction.
  • FIG. 22 illustrates a comparison result of the average PSNR vs BPP for a method of adaptively selecting a different DCT and ADST as an embodiment to which the present invention is applied.
  • the size of the transform unit is based on in-frame quadtree partitioning and can be 4x4, 8x8, 16x16 or 32x32, for example.
  • the present invention can generate seven 2D separable transforms for each block size. Conversion selection may be performed based on Rate Distortion (RD) performance.
  • RD Rate Distortion
  • the present invention compared the performance of adaptive selection between seven different transforms compared to DCT / ADST. Average RD performance is as in FIG. 22, and the results show that adaptive selection is better than fixed DCT / ADST in terms of RD performance.
  • FIG. 23 is a flowchart illustrating a method of deriving a separable graph-based transform kernel using a transform index as an embodiment to which the present invention is applied.
  • the decoder may receive a transform index for the target block from the video signal (S2310).
  • the transform index indicates a graph-based transform to be applied to the target block.
  • S2310 may be performed by the parser in the decoder.
  • the transform index may correspond to each subblock.
  • the transform index may be received for at least one unit of a coding unit, a prediction unit, or a transform unit.
  • the decoder may derive a graph-based transform kernel corresponding to the transform index (S2320).
  • the graph-based transform kernel is derived for each subblock according to the transform index, and different transform types may be applied to at least two subblocks.
  • the different conversion types may include at least two of DCT, ADST, and RADST.
  • the graph-based transform kernel may be a two-dimensional separable graph-based transform kernel generated based on a combination of a plurality of one-dimensional graph-based transforms.
  • the graph-based transform kernel may be defined for each row or column of the target block.
  • the encoder and decoder already know the graph-based transform kernel, and may store it as a table, for example.
  • the decoder may decode the target block based on the graph-based transform kernel.
  • S2320 to S2330 may be performed by an inverse transform unit in the decoder.
  • 24 is a flowchart illustrating a method of determining a generalizable separable graph-based transform kernel as an embodiment to which the present invention is applied.
  • the encoder may partition the target block into a plurality of sub blocks in a horizontal or vertical direction (S2410).
  • S2410 may be performed by the image divider.
  • the encoder may generate a line graph for each of the plurality of subblocks (S2420).
  • the encoder may determine a graph-based transform kernel based on the line graph (S2430), and may perform transform on the plurality of subblocks using the graph-based transform kernel (S2440).
  • S2420 to S2440 may be performed by the graph-based converter.
  • the graph-based transform kernel represents a two-dimensional separable graph-based transform kernel, and the graph-based transform kernel is generated based on a combination of a plurality of one-dimensional graph-based transforms corresponding to the line graph. It may have been.
  • the graph-based transform kernel may be defined for each row or column of the target block.
  • the encoder and decoder already know the graph-based transform kernel, and may store it as a table, for example.
  • the encoder may encode a transform index corresponding to the graph-based transform kernel and transmit it to the decoder.
  • the conversion index may correspond to each subblock.
  • the graph-based transform kernel is derived for each subblock according to a transform index, and at least two or more subblocks may have different transform types.
  • the different conversion types may include at least two of DCT, ADST, and RADST.
  • the embodiments described herein may be implemented and performed on a processor, microprocessor, controller, or chip.
  • the functional units illustrated in FIGS. 1, 2, 8, 9, and 10 may be implemented by a computer, a processor, a microprocessor, a controller, or a chip.
  • the decoder and encoder to which the present invention is applied include a multimedia broadcasting transmitting and receiving device, a mobile communication terminal, a home cinema video device, a digital cinema video device, a surveillance camera, a video chat device, a real time communication device such as video communication, a mobile streaming device, Storage media, camcorders, video on demand (VoD) service providing devices, internet streaming service providing devices, three-dimensional (3D) video devices, video telephony video devices, and medical video devices Can be used for
  • the processing method to which the present invention is applied can be produced in the form of a program executed by a computer, and can be stored in a computer-readable recording medium.
  • Multimedia data having a data structure according to the present invention can also be stored in a computer-readable recording medium.
  • the computer readable recording medium includes all kinds of storage devices for storing computer readable data.
  • the computer-readable recording medium may include, for example, a Blu-ray disc (BD), a universal serial bus (USB), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, and an optical data storage device. Can be.
  • the computer-readable recording medium also includes media embodied in the form of a carrier wave (eg, transmission over the Internet).
  • the bit stream generated by the encoding method may be stored in a computer-readable recording medium or transmitted through a wired or wireless communication network.

Abstract

본 발명은, 적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 디코딩하는 방법에 있어서, 상기 비디오 신호로부터, 타겟 블록에 대한 변환 인덱스(transform index)를 수신하는 단계, 여기서 상기 변환 인덱스는 상기 타겟 블록에 적용될 그래프 기반 변환을 가리킴; 상기 변환 인덱스에 대응되는 그래프 기반 변환 커널을 유도하는 단계; 및 상기 그래프 기반 변환 커널에 기초하여 상기 타겟 블록을 디코딩하는 단계를 포함하는 것을 특징으로 하는 방법을 제공한다.

Description

적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치
본 발명은 그래프 기반 변환(graph-based transform)을 이용하여 비디오 신호를 인코딩, 디코딩하는 방법 및 장치에 관한 것이다. 구체적으로, 차분 신호의 서로 다른 특성에 따라 적응적인 분리가능한 그래프 기반 변환을 (separable graph-based transform)을 적용하는 방법에 관한 것이다.
압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하기 위한 일련의 신호 처리 기술을 의미한다. 영상, 이미지, 음성 등의 미디어가 압축 부호화의 대상이 될 수 있으며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다.
차세대 비디오 컨텐츠는 고해상도(high spatial resolution), 고프레임율(high frame rate) 및 영상 표현의 고차원화(high dimensionality of scene representation)라는 특징을 갖게 될 것이다. 그러한 컨텐츠를 처리하기 위해서는 메모리 저장(memory storage), 메모리 액세스율(memory access rate) 및 처리 전력(processing power) 측면에서 엄청난 증가를 가져올 것이다.
따라서, 차세대 비디오 컨텐츠를 보다 효율적으로 처리하기 위한 코딩 툴을 디자인할 필요가 있다.
특히, 그래프는 픽셀 간 관계 정보를 기술하는데 유용한 데이터 표현 형태로써, 이러한 픽셀 간 관계 정보를 그래프로 표현하여 처리하는 그래프 기반 신호 처리 방식이 활용되고 있다. 이러한 그래프 기반 신호 처리는 각 신호 샘플이 꼭지점(vertex)을 나타내며 신호의 관계들이 양의 가중치를 가지는 그래프 에지로 나타내어지는 그래프를 사용하여 샘플링, 필터링, 변환 등과 같은 개념들을 일반화할 수 있다.
일반적으로, 차분 신호를 인코딩할 때 분리가능한 DCT(separable Discrete Cosine Transform)가 이용된다. 분리가능한 DCT의 주요 문제는 모든 차분 신호가 동일한 등방성의 통계적 특성(isotropic statistical property)을 갖는다는 모호한 가정을 하고 있다는 것이다. 그러나, 실제로 차분 블록들은 예측 방법 및 비디오 컨텐트에 따라 매우 다른 통계적 특성을 가질 수 있다. 따라서, 차분 블록의 통계적 특성에 적응적일 수 있는 다른 변환을 이용함으로써 압축 효율을 향상시킬 필요가 있다.
본 발명은, 일반화된 분리가능한 그래프 기반 변환을 디자인하고자 한다.
본 발명은, 차분 블록의 통계적 특성에 적응적인 그래프 기반 변환을 적용하는 방법을 제공하고자 한다.
본 발명은, 2개의 1D 변환을 결합하여 일반화된 분리가능한 그래프 기반 변환을 정의하고자 한다.
본 발명은, 에지 가중치 및 자기 루프에 기초하여 라인 그래프를 선택하는 방법을 제공하고자 한다.
본 발명은, 다양한 타입의 라인 그래프들을 이용하여 그래프 기반 변환 커널을 생성하는 방법을 제공하고자 한다.
본 발명은, 그래프 기반 변환에 대한 템플릿을 정의하고 이를 시그널링하는 방법을 제공하고자 한다.
본 발명은, 코딩 블록의 행 방향과 열 방향에 대해 서로 다른 분리 가능한 그래프 기반 변환을 적용하는 방법을 제공하고자 한다.
본 발명은, 일반화된 분리가능한 그래프 기반 변환을 적용하는 방법을 제공한다.
본 발명은, 차분 블록의 통계적 특성에 적응적인 그래프 기반 변환을 적용하는 방법을 제공한다.
본 발명은, 2개의 1D 변환을 결합하여 일반화된 분리가능한 그래프 기반 변환을 정의하는 방법을 제공한다.
본 발명은, 에지 가중치 및 자기 루프에 기초하여 라인 그래프를 선택하는 방법을 제공한다.
본 발명은, 다양한 타입의 라인 그래프들을 이용하여 그래프 기반 변환 커널을 생성하는 방법을 제공한다.
본 발명은, 그래프 기반 변환에 대한 템플릿을 정의하고 이를 시그널링하는 방법을 제공한다.
본 발명은, 코딩 블록의 행 방향과 열 방향에 대해 서로 다른 분리 가능한 그래프 기반 변환을 적용하는 방법을 제공한다.
본 발명에 따른, 변환에서의 충분한 다양성은 서로 다른 비디오 부분들에서의 통계적 특성들의 변화에 대해 빠른 적응을 가능하게 한다. 또한, 비분리 변환과 비교할 때, 제안된 변환은 더 낮은 계산 복잡도를 가지며, 변환 선택 정보를 시그널링하는데 낮은 오버헤드를 갖는다.
또한, 본 발명은, 일반화된 분리가능한 그래프 기반 변환을 적용함으로써 보다 효율적으로 비디오 신호를 처리할 수 있으며, 코딩 블록의 행 방향과 열 방향에 대해 서로 다른 분리 가능한 그래프 기반 변환을 적용함으로써 보다 효율적인 코딩을 수행할 수 있게 된다.
또한, 본 발명은, 변환을 적응적으로 적용할 수 있는 유연성을 확보하며, 연산 복잡도를 감소시킬 수 있으며, 서로 다른 비디오 세그먼트들에서 변화하는 통계적 특성에 대해 보다 빠른 적응을 가능하게 하며, 변환을 수행함에 있어서의 변동성을 제공할 수 있다.
또한, 본 발명은, 분리 가능한 변환을 이용함으로써 비디오 신호를 코딩하기 위한 연산 복잡도를 감소시킬 수 있으며, 변환 행렬의 전송 및 변환 선택에서의 오버헤드를 현저히 감소시킬 수 있다.
또한, 본 발명은 그래프 기반 변환에 대한 템플릿을 정의하고 이를 시그널링하는 방법을 제공함으로써 그래프 정보를 코딩하기 위한 오버헤드를 현저히 감소시킬 수 있다.
도 1은 본 발명이 적용되는 실시예로서, 비디오 신호의 인코딩이 수행되는 인코더의 개략적인 블록도를 나타낸다.
도 2는 본 발명이 적용되는 실시예로서, 비디오 신호의 디코딩이 수행되는 디코더의 개략적인 블록도를 나타낸다.
도 3은 본 발명이 적용되는 일 실시예에 따라 비디오 프레임 내 8×8 블록 내에서의 통계적 관계를 모델링하기 위해 사용된 그래프의 예들을 나타낸다.
도 4는 본 발명이 적용되는 일 실시예로써, 가중치 분포를 나타내는 2가지 형태의 그래프를 나타낸다.
도 5는 본 발명이 적용되는 일실시예로서, 1차원 그래프와 2차원 그래프에 기초하여 그래프 기반 변환 매트릭스를 획득하는 과정을 설명하기 위한 도면이다.
도 6은 본 발명이 적용되는 일실시예로서, 분리가능한 변환(separable transform)을 적용하기 위한 변환 기저가 될 수 있는 1차원 그래프들의 예를 나타낸다.
도 7은 본 발명이 적용되는 일실시예로서, 2차원 그래프의 각 라인마다 서로 다른 분리가능한 변환(separable transform)을 적용하는 방법을 설명하기 위한 도면이다.
도 8은 본 발명이 적용되는 실시예로서, 그래프 기반의 신호를 처리하는 인코더의 개략적 블록도를 예시한다.
도 9는 본 발명이 적용되는 실시예로서, 그래프 기반의 신호를 처리하는 디코더의 개략적 블록도를 예시한다.
도 10은 본 발명이 적용되는 일실시예로서, 그래프 기반 변환부의 내부 블록도를 나타낸다.
도 11은 본 발명이 적용되는 일실시예로서, 인트라 예측 모드에 따른 8x8 변환 블록 내 차분 픽셀 값들의 변화를 나타낸다.
도 12는 본 발명이 적용되는 일실시예로서, 일반화된 분리가능한 그래프 기반 변환을 생성하는 방법을 나타내는 흐름도이다.
도 13은 본 발명이 적용되는 일실시예로서, 그래프 타입과 그에 따른 변환 유형을 설명하기 위한 테이블을 나타낸다.
도 14 내지 도 16은 본 발명이 적용되는 일실시예들로서, 에지 가중치(edge weight) 및 자기 루프(self-loop)에 따른 변환 유형을 설명하기 위한 도면들이다.
도 17은 본 발명이 적용되는 일실시예로서, NxN 인트라 방향성 예측 블록 내 서브 블록에서 2 라인 그래프를 설명하기 위한 도면이다.
도 18은 본 발명이 적용되는 일실시예로서, NxN 블록 내 수평 방향으로 L 개의 서브 블록에 대해 L 개의 변환이 할당되는 것을 설명하기 위한 도면이다.
도 19는 본 발명이 적용되는 일실시예로서, NxN 블록 내 수직 방향으로 M 개의 서브 블록에 대해 M 개의 변환이 할당되는 것을 설명하기 위한 도면이다.
도 20은 본 발명이 적용되는 일실시예로서, DCT(Discrete Cosine Transform), ADST(Asymmetric Discrete Sine Transform) 및 RADST(Reverse Asymmetric Discrete Sine Transform)에 연관된 그래프 및 분리가능한 그래프 기반 변환을 생성하는 과정을 설명하기 위한 도면이다.
도 21은 본 발명이 적용되는 일실시예로서, 3개의 분리가능한 변환(DCT, ADST 및 RADST)의 조합에 의해 생성될 수 있는 7개의 분리가능한 변환들의 예를 나타낸다.
도 22는 본 발명이 적용되는 일실시예로서, 고정된 DCT, ADST 대비 적응적으로 다른 변환을 선택하는 방법에 대해 평균 PSNR vs BPP(Bit Per Pixel) 의 비교 결과를 나타낸다.
도 23은 본 발명이 적용되는 일실시예로서, 변환 인덱스를 이용하여 분리가능한 그래프 기반 변환 커널을 유도하는 방법을 설명하기 위한 흐름도이다.
도 24는 본 발명이 적용되는 일실시예로서, 일반화된 분리가능한 그래프 기반 변환 커널을 결정하는 방법을 설명하기 위한 흐름도이다.
본 발명은, 적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 디코딩하는 방법에 있어서, 상기 비디오 신호로부터, 타겟 블록에 대한 변환 인덱스(transform index)를 수신하는 단계, 여기서 상기 변환 인덱스는 상기 타겟 블록에 적용될 그래프 기반 변환을 가리킴; 상기 변환 인덱스에 대응되는 그래프 기반 변환 커널을 유도하는 단계; 및 상기 그래프 기반 변환 커널에 기초하여 상기 타겟 블록을 디코딩하는 단계를 포함하는 것을 특징으로 하는 방법을 제공한다.
본 발명에서, 상기 타겟 블록이 수평 방향 또는 수직 방향으로 파티션된 M개 또는 N개의 서브 블록들로 구성된 경우, 상기 변환 인덱스는 각 서브 블록마다 대응되는 것을 특징으로 한다.
본 발명에서, 상기 그래프 기반 변환 커널은 상기 변환 인덱스에 따라 각 서브 블록마다 유도되며, 적어도 2개 이상의 서브 블록은 서로 다른 변환 타입이 적용되는 것을 특징으로 한다.
본 발명에서, 상기 서로 다른 변환 타입은 DCT, ADST 및 RADST 중 적어도 2개를 포함하는 것을 특징으로 한다.
본 발명에서, 상기 그래프 기반 변환 커널은 복수개의 1차원 그래프 기반 변환들의 결합에 기초하여 생성된, 2차원 분리 가능한 그래프 기반 변환 커널인 것을 특징으로 한다.
본 발명에서, 상기 그래프 기반 변환 커널은 상기 타겟 블록의 행 또는 열마다 기정의된 것을 특징으로 한다.
본 발명에서, 상기 변환 인덱스는 코딩 유닛, 예측 유닛 또는 변환 유닛 중 적어도 하나의 유닛마다 수신되는 것을 특징으로 한다.
본 발명은, 적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 인코딩하는 방법에 있어서, 타겟 블록을 수평 또는 수직 방향으로 복수개의 서브 블록들로 파티셔닝하는 단계; 상기 복수개의 서브 블록들 각각에 대해 라인 그래프를 생성하는 단계; 상기 라인 그래프에 기초하여, 그래프 기반 변환 커널을 결정하는 단계; 및 상기 그래프 기반 변환 커널을 이용하여, 상기 복수개의 서브 블록들에 대해 변환을 수행하는 단계를 포함하는 것을 특징으로 하는 방법을 제공한다.
본 발명에서, 상기 방법은 상기 그래프 기반 변환 커널에 대응되는 변환 인덱스를 인코딩하는 단계를 더 포함하고, 상기 변환 인덱스는 각 서브 블록마다 대응되는 것을 특징으로 한다.
본 발명에서, 상기 그래프 기반 변환 커널은 2차원 분리 가능한 그래프 기반 변환 커널을 나타내고, 상기 그래프 기반 변환 커널은 상기 라인 그래프에 대응되는 복수개의 1차원 그래프 기반 변환들의 결합에 기초하여 생성된 것을 특징으로 한다.
본 발명은, 적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 디코딩하는 장치에 있어서, 상기 비디오 신호로부터, 타겟 블록에 대한 변환 인덱스(transform index)를 수신하는 파싱부; 및 상기 변환 인덱스에 대응되는 그래프 기반 변환 커널을 유도하고, 상기 그래프 기반 변환 커널에 기초하여 상기 타겟 블록을 디코딩하는 역변환부를 포함하되, 상기 타겟 블록이 수평 방향 또는 수직 방향으로 파티션된 복수개의 서브 블록들로 구성된 경우, 상기 변환 인덱스는 각 서브 블록마다 대응되고, 상기 그래프 기반 변환 커널은 상기 변환 인덱스에 따라 각 서브 블록마다 유도되며, 적어도 2개 이상의 서브 블록은 서로 다른 변환 타입이 적용되는 것을 특징으로 하는 장치를 제공한다.
본 발명은, 적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 인코딩하는 장치에 있어서, 타겟 블록을 수평 또는 수직 방향으로 복수개의 서브 블록들로 파티셔닝하는 영상 분할부; 및 상기 복수개의 서브 블록들 각각에 대해 라인 그래프를 생성하고, 상기 라인 그래프에 기초하여 그래프 기반 변환 커널을 결정하고, 상기 그래프 기반 변환 커널을 이용하여, 상기 복수개의 서브 블록들에 대해 변환을 수행하는 그래프 기반 변환부를 포함하되, 상기 복수개의 서브 블록들 중 적어도 2개 이상의 서브 블록은 서로 다른 변환 타입이 적용되는 것을 특징으로 하는 장치를 제공한다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예의 구성과 그 작용을 설명하며, 도면에 의해서 설명되는 본 발명의 구성과 작용은 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어를 사용하여 설명한다. 그러한 경우에는 해당 부분의 상세 설명에서 그 의미를 명확히 기재하므로, 본 발명의 설명에서 사용된 용어의 명칭만으로 단순 해석되어서는 안 될 것이며 그 해당 용어의 의미까지 파악하여 해석되어야 함을 밝혀두고자 한다.
또한, 본 발명에서 사용되는 용어들은 발명을 설명하기 위해 선택된 일반적인 용어들이나, 유사한 의미를 갖는 다른 용어가 있는 경우 보다 적절한 해석을 위해 대체 가능할 것이다. 예를 들어, 신호, 데이터, 샘플, 픽쳐, 프레임, 블록 등의 경우 각 코딩 과정에서 적절하게 대체되어 해석될 수 있을 것이다. 또한, 파티셔닝(partitioning), 분해(decomposition), 스플리팅 (splitting) 및 분할(division) 등의 경우에도 각 코딩 과정에서 적절하게 대체되어 해석될 수 있을 것이다.
비디오 시퀀스의 다른 부분들에서 신호의 통계적 특성을 적응적으로 변화시키는 선형 변환을 적용함으로써 압축 효율을 향상시킬 수 있다. 일반적인 통계적 방법들이 이러한 목적으로 시도되어 왔지만, 그것들은 제한적인 결과를 가져왔다. 본 발명에서는, 비디오 압축을 위한 비디오 신호의 통계적 특성을 모델링하는 더 효율적인 방법으로, 그래프 기반 신호 처리 기술을 소개한다.
수학적인 분석을 단순화하고 그래프 이론으로부터 알려진 결과를 이용하기 위해, 그래프 기반 신호 처리를 위해 개발된 대부분의 어플리케이션들은 자기 루프(self-loop)(즉, 그 자체로 노드를 연결하는 에지가 없음)없는 무방향 그래프(undirected graph)를 이용하고, 각 그래프 에지에서 음수가 아닌 에지(non-negative edge)만으로 모델링된다.
이러한 접근은 잘 정의된 불연속성, 강한 에지를 가진 이미지 또는 깊이 이미지를 시그널링하는데 성공적으로 적용될 수 있다. 이미지 및 비디오 어플리케이션에서 N2 픽셀 블록에 대응되는 그래프들은 일반적으로 2N2 또는 4N2 개의 음수가 아닌(non-negative) 에지 가중치에 대한 전송 오버헤드를 필요로 한다. 그래프가 정의된 이후, 코딩 또는 예측을 위한 직교 변환은 그래프 라플라시안 행렬의 스펙트럼 분해(spectral decomposition)를 계산함으로써 유도될 수 있다. 예를 들어, 상기 스펙트럼 분해를 통해 고유 벡터(eigen vector) 및 고유값(eigen value)을 획득할 수 있다.
본 발명은 전통적인 스펙트럼 분해의 새로운 일반화를 이용하여 그래프 기반 변환을 계산하는 과정을 변형하는 새로운 방법을 제공한다. 여기서, 그래프 신호로부터 획득되는 변환을 그래프 기반 변환(Graph-Based Transform, 이하 'GBT'라 함)이라 정의할 수 있다. 예를 들어, TU(Transform Unit)를 구성하는 픽셀 간의 관계 정보를 그래프로 표현한다고 할 때, 이 그래프로부터 얻어진 변환을 GBT라고 할 수 있다.
본 발명이 적용되는 스펙트럼 분해의 일반화 형태는 원하는 특성을 가진 그래프 에지 파라미터들의 부가적인 세트(additional set), 및 그래프 꼭지점 파라미터(graph vertex parameters)에 기초하여 획득될 수 있다. 이와 같은 본 발명의 실시예를 통해, 변환 특성을 더 잘 제어할 수 있고, 변환을 정의하는 벡터들의 강한 불연속성(sharp discontinuities)과 같은 문제를 회피할 수 있다. 이하에서는, 본 발명이 적용되는 실시예들을 구체적으로 살펴보도록 한다.
도 1은 본 발명이 적용되는 실시예로서, 비디오 신호의 인코딩이 수행되는 인코더의 개략적인 블록도를 나타낸다.
도 1을 참조하면, 인코더(100)는 영상 분할부(110), 변환부(120), 양자화부(130), 역양자화부(140), 역변환부(150), 필터링부(160), 복호 픽쳐 버퍼(DPB: Decoded Picture Buffer)(170), 인터 예측부(180), 인트라 예측부(185) 및 엔트로피 인코딩부(190)를 포함하여 구성될 수 있다.
영상 분할부(110)는 인코더(100)에 입력된 입력 영상(Input image)(또는, 픽쳐, 프레임)를 하나 이상의 처리 유닛으로 분할할 수 있다. 예를 들어, 상기 처리 유닛은 코딩 트리 유닛(CTU: Coding Tree Unit), 코딩 유닛(CU: Coding Unit), 예측 유닛(PU: Prediction Unit) 또는 변환 유닛(TU: Transform Unit)일 수 있다.
다만, 상기 용어들은 본 발명에 대한 설명의 편의를 위해 사용할 뿐이며, 본 발명은 해당 용어의 정의에 한정되지 않는다. 또한, 본 명세서에서는 설명의 편의를 위해, 비디오 신호를 인코딩 또는 디코딩하는 과정에서 이용되는 단위로써 코딩 유닛이라는 용어를 사용하지만, 본 발명은 그에 한정되지 않으며 발명 내용에 따라 적절하게 해석 가능할 것이다.
인코더(100)는 입력 영상 신호에서 인터 예측부(180) 또는 인트라 예측부(185)로부터 출력된 예측 신호(prediction signal)를 감산하여 잔여 신호(residual signal)를 생성할 수 있고, 생성된 잔여 신호는 변환부(120)로 전송된다.
변환부(120)는 잔여 신호에 변환 기법을 적용하여 변환 계수(transform coefficient)를 생성할 수 있다. 변환 과정은 정사각형의 동일한 크기를 갖는 픽셀 블록에 적용될 수도 있고, 정사각형이 아닌 가변 크기의 블록에도 적용될 수 있다.
양자화부(130)는 변환 계수를 양자화하여 엔트로피 인코딩부(190)로 전송하고, 엔트로피 인코딩부(190)는 양자화된 신호(quantized signal)를 엔트로피 코딩하여 비트스트림으로 출력할 수 있다.
양자화부(130)로부터 출력된 양자화된 신호(quantized signal)는 예측 신호를 생성하기 위해 이용될 수 있다. 예를 들어, 양자화된 신호(quantized signal)는 루프 내의 역양자화부(140) 및 역변환부(150)를 통해 역양자화 및 역변환을 적용함으로써 잔여 신호를 복원할 수 있다. 복원된 잔여 신호를 인터 예측부(180) 또는 인트라 예측부(185)로부터 출력된 예측 신호(prediction signal)에 더함으로써 복원 신호(reconstructed signal)가 생성될 수 있다.
한편, 위와 같은 압축 과정에서 인접한 블록들이 서로 다른 양자화 파라미터에 의해 양자화됨으로써 블록 경계가 보이는 열화가 발생될 수 있다. 이러한 현상을 블록킹 열화(blocking artifacts)라고 하며, 이는 화질을 평가하는 중요한 요소 중의 하나이다. 이러한 열화를 줄이기 위해 필터링 과정을 수행할 수 있다. 이러한 필터링 과정을 통해 블록킹 열화를 제거함과 동시에 현재 픽쳐에 대한 오차를 줄임으로써 화질을 향상시킬 수 있게 된다.
필터링부(160)는 복원 신호에 필터링을 적용하여 이를 재생 장치로 출력하거나 복호 픽쳐 버퍼(170)에 전송한다. 복호 픽쳐 버퍼(170)에 전송된 필터링된 신호는 인터 예측부(180)에서 참조 픽쳐로 사용될 수 있다. 이처럼, 필터링된 픽쳐를 화면간 예측 모드에서 참조 픽쳐로 이용함으로써 화질 뿐만 아니라 부호화 효율도 향상시킬 수 있다.
복호 픽쳐 버퍼(170)는 필터링된 픽쳐를 인터 예측부(180)에서의 참조 픽쳐로 사용하기 위해 저장할 수 있다.
인터 예측부(180)는 복원 픽쳐(reconstructed picture)를 참조하여 시간적 중복성 및/또는 공간적 중복성을 제거하기 위해 시간적 예측 및/또는 공간적 예측을 수행한다. 여기서, 예측을 수행하기 위해 이용되는 참조 픽쳐는 이전 시간에 부호화/복호화 시 블록 단위로 양자화와 역양자화를 거친 변환된 신호이기 때문에, 블로킹 아티팩트(blocking artifact)나 링잉 아티팩트(ringing artifact)가 존재할 수 있다.
따라서, 인터 예측부(180)는 이러한 신호의 불연속이나 양자화로 인한 성능 저하를 해결하기 위해, 로우패스 필터(lowpass filter)를 적용함으로써 픽셀들 사이의 신호를 서브 픽셀 단위로 보간할 수 있다. 여기서, 서브 픽셀은 보간 필터를 적용하여 생성된 가상의 화소를 의미하고, 정수 픽셀은 복원된 픽쳐에 존재하는 실제 화소를 의미한다. 보간 방법으로는 선형 보간, 양선형 보간(bi-linear interpolation), 위너 필터(wiener filter) 등이 적용될 수 있다.
보간 필터는 복원 픽쳐(reconstructed picture)에 적용되어 예측의 정밀도를 향상시킬 수 있다. 예를 들어, 인터 예측부(180)는 정수 픽셀에 보간 필터를 적용하여 보간 픽셀을 생성하고, 보간 픽셀들(interpolated pixels)로 구성된 보간 블록(interpolated block)을 예측 블록(prediction block)으로 사용하여 예측을 수행할 수 있다.
인트라 예측부(185)는 현재 부호화를 진행하려고 하는 블록의 주변에 있는 샘플들을 참조하여 현재 블록을 예측할 수 있다. 상기 인트라 예측부(185)는 인트라 예측을 수행하기 위해 다음과 같은 과정을 수행할 수 있다. 먼저, 예측 신호를 생성하기 위해 필요한 참조 샘플을 준비할 수 있다. 그리고, 준비된 참조 샘플을 이용하여 예측 신호를 생성할 수 있다. 이후, 예측 모드를 부호화하게 된다. 이때, 참조 샘플은 참조 샘플 패딩 및/또는 참조 샘플 필터링을 통해 준비될 수 있다. 참조 샘플은 예측 및 복원 과정을 거쳤기 때문에 양자화 에러가 존재할 수 있다. 따라서, 이러한 에러를 줄이기 위해 인트라 예측에 이용되는 각 예측 모드에 대해 참조 샘플 필터링 과정이 수행될 수 있다.
상기 인터 예측부(180) 또는 상기 인트라 예측부(185)를 통해 생성된 예측 신호(prediction signal)는 복원 신호를 생성하기 위해 이용되거나 잔여 신호를 생성하기 위해 이용될 수 있다.
도 2는 본 발명이 적용되는 실시예로서, 비디오 신호의 디코딩이 수행되는 디코더의 개략적인 블록도를 나타낸다.
도 2를 참조하면, 디코더(200)는 파싱부(미도시), 엔트로피 디코딩부(210), 역양자화부(220), 역변환부(230), 필터링부(240), 복호 픽쳐 버퍼(DPB: Decoded Picture Buffer Unit)(250), 인터 예측부(260) 및 인트라 예측부(265)를 포함하여 구성될 수 있다.
그리고, 디코더(200)를 통해 출력된 복원 영상 신호(reconstructed video signal)는 재생 장치를 통해 재생될 수 있다.
디코더(200)는 도 1의 인코더(100)로부터 출력된 신호을 수신할 수 있고, 수신된 신호는 엔트로피 디코딩부(210)를 통해 엔트로피 디코딩될 수 있다.
역양자화부(220)에서는 양자화 스텝 사이즈 정보를 이용하여 엔트로피 디코딩된 신호로부터 변환 계수(transform coefficient)를 획득한다. 여기서, 획득된 변환 계수는 상기 도 1의 변환부(120)에서 설명한 다양한 실시예들이 적용된 것일 수 있다.
역변환부(230)에서는 변환 계수를 역변환하여 잔여 신호(residual signal)를 획득하게 된다.
획득된 잔여 신호를 인터 예측부(260) 또는 인트라 예측부(265)로부터 출력된 예측 신호(prediction signal)에 더함으로써 복원 신호(reconstructed signal)가 생성된다.
필터링부(240)는 복원 신호(reconstructed signal)에 필터링을 적용하여 이를 재생 장치로 출력하거나 복호 픽쳐 버퍼부(250)에 전송한다. 복호 픽쳐 버퍼부(250)에 전송된 필터링된 신호는 인터 예측부(260)에서 참조 픽쳐로 사용될 수 있다.
본 명세서에서, 인코더(100)의 필터링부(160), 인터 예측부(180) 및 인트라 예측부(185)에서 설명된 실시예들은 각각 디코더의 필터링부(240), 인터 예측부(260) 및 인트라 예측부(265)에도 동일하게 적용될 수 있다.
도 3은 본 발명이 적용되는 실시예로서, 비디오 프레임 내 8x8 블록 내에서의 통계적 관계를 모델링하기 위해 사용되는 그래프들의 예를 나타낸다.
이산시간(discrete-time) 신호 처리 기술은 아날로그 신호를 직접 처리하고 필터링하는 것으로부터 발전되어 왔고, 그에 따라 규칙적이고 조직화된 데이터(regularly organized data)만을 샘플링하고 처리하는 것과 같은 몇 가지 공통의 가정에 의해 제한되어 왔다.
비디오 압축 분야는 기본적으로 동일한 가정에 기초하지만, 다차원 신호에 일반화되어 있다. 그래프 표현에 기초한 신호 처리는, 샘플링, 필터링, 푸리에 변환과 같은 컨셉을 일반화하고, 각 신호 샘플이 꼭지점을 나타내는 그래프를 이용하며, 신호 관계들이 양의 가중치를 가진 그래프 에지들로 표현되는 전통적인 접근으로부터 시작된다. 이는 그 획득 과정(acquisition process)으로부터 신호를 완전히 단절하고, 그에 따라 샘플링 레이트 및 시퀀스와 같은 특성이 완전히 그래프의 특성으로 대체된다. 따라서, 그래프 표현은 몇 가지 특정 그래프 모델들에 의해 정의될 수 있다.
데이터 값들 간의 경험적 연결을 나타내기 위해, 무방향 단순 그래프(undirected simple graph) 및 무방향 에지(undirected edge)가 이용될 수 있다. 여기서, 무방향 단순 그래프(undirected simple graph)는 자기 루프(self-loop) 또는 멀티 에지가 없는 그래프를 의미할 수 있다.
각 에지마다 할당된 가중치를 가진, 무방향 단순 그래프(undirected simple graph) 를 G라 하면, 무방향 단순 그래프(undirected simple graph) G는 다음 수학식 1과 같이 3개의 인자(triplet)로 설명될 수 있다.
수학식 1
Figure PCTKR2016005599-appb-M000001
여기서, V는 V개의 그래프 꼭지점 셋을 나타내고, ε는 그래프 에지 셋을 나타내며, W는 VxV 행렬로 표현되는 가중치를 나타낸다. 여기서, 가중치 W는 다음 수학식 2와 같이 표현될 수 있다.
수학식 2
Figure PCTKR2016005599-appb-M000002
Wi,j 는 에지 (i, j)의 가중치를 나타내고, Wj,i 는 에지 (j, i)의 가중치를 나타내며, 꼭지점 (i,j)를 연결하는 에지가 없는 경우 Wi,j = 0 이다. 예를 들어, 자기 루프가 없음을 가정하는 경우, 항상 Wi,i = 0 이다.
이러한 표현은 에지 가중치를 가진 무방향 단순 그래프들의 특별한 경우에 대해 부분적으로 중복된다. 이는 W 행렬이 그래프에 대한 모든 정보를 포함하고 있기 때문이다. 따라서, 본 발명에서는 그래프를 G(W)로 표현하기로 한다.
한편, 도3을 참조하면, 본 발명은 이미지 또는 비디오 내의 8x8 픽셀 블록의 처리를 위해 사용될 수 있는 그래프 타입의 두 가지 실시예를 제공한다. 각 픽셀은 그래프 꼭지점에 연관되며, 상기 픽셀의 값은 그래프 꼭지점의 값이 된다.
그래프 에지는 그래프 꼭지점을 연결하는 선을 의미할 수 있다. 상기 그래프 에지는 신호 내의 어떠한 형태의 통계적 의존성을 나타내기 위해 사용되며, 이 때 양의 가중치는 그 강도를 나타낼 수 있다. 예를 들어, 각 꼭지점은 모든 다른 꼭지점에 연결될 수 있으며, 0의 가중치는 서로 연관되지 않거나 약하게 연관된 꼭지점들을 연결하는 에지에 할당될 수 있다. 다만, 표현의 간단화를 위해, 0의 가중치를 갖는 에지는 완전히 제거될 수 있다.
도 3(a)의 그래프에서, 그래프 에지는 각각의 꼭지점이 그로부터 가장 가까운 4개의 인접 꼭지점들에 연결되도록 정의될 수 있다. 다만, 블록 경계의 경우는 다르게 취급될 수 있다. 또한, 도 3(b)의 그래프에서는 각각의 꼭지점이 그로부터 가장 가까운 8개의 인접 꼭지점들에 연결되도록 정의될 수 있다.
도 4는 본 발명이 적용되는 일 실시예로써, 가중치 분포를 나타내는 2가지 형태의 그래프를 나타낸다.
그래프의 꼭지점 값은 신호 측정(통상적으로 임의 변수로 모델링됨)에 기초하는 독립 변수이지만, 일부 신호의 특성과 합치되는 그래프의 에지 가중치를 선택하는 것이 필요하다. 도 4에서, 그래프 에지에 대한 선의 색상이 서로 다른 에지 가중치를 나타내는 그래프의 두 개의 예가 제공된다. 예를 들어, 진한 색의 선은 w = 1의 가중치를 나타내며 연한 색의 선은 w = 0.2의 가중치를 나타낼 수 있다.
도 4(a)의 그래프는 직선을 따라 "약한 링크"를 가지고 있는 경우를 나타내며, 두 종류의 에지 가중치만을 갖고 있는 경우를 나타낸다. 여기서, 상기 "약한 링크"는 상대적으로 작은 에지 가중치를 가지고 있음을 의미한다.
이는 사실 상 그래프 기반의 이미지 처리에서 통상적으로 사용되는 것이며, 이러한 구성은 이미지 내 에지와 다른 변들 간의 픽셀 통계의 차이를 나타낼 수 있다.
도 4(b)의 그래프는 불규칙한 영역을 커버하는 에지 가중치의 분포를 나타내며, 본 발명에서는 이러한 에지 가중치의 분포 그래프를 이용하여 신호를 처리하는 방법을 제공하고자 한다.
도 5는 본 발명이 적용되는 일실시예로서, 1차원 그래프와 2차원 그래프에 기초하여 그래프 기반 변환 매트릭스를 획득하는 과정을 설명하기 위한 도면이다.
본 발명의 일실시예로, 이미지 내 픽셀 블록의 처리를 위해 사용될 수 있는 그래프 타입은 도 5를 통해 설명될 수 있다. 예를 들어, 도 5(a)는 픽셀 블록의 각 라인에 대응되는 1차원 그래프를 나타내고, 도 5(b)는 픽셀 블록에 대응되는 2차원 그래프를 나타낼 수 있다.
그래프 꼭지점(vertex)은 픽셀 블록의 각 픽셀에 연관되며, 그래프 꼭지점의 값은 픽셀 값으로 표현될 수 있다. 그리고, 그래프 에지(graph edge)는 그래프 꼭지점을 연결하는 선을 의미할 수 있다. 상기 그래프 에지는 신호 내의 어떠한 형태의 통계적 의존성을 나타내기 위해 사용되며, 그 강도를 나타내는 값을 에지 가중치(edge weight)라 할 수 있다.
예를 들어, 도 5(a)를 살펴보면, 1차원 그래프를 나타내며, 0,1,2,3은 각 꼭지점의 위치를 나타내고, W0,W1,W2는 각 꼭지점 간의 에지 가중치를 나타낸다. 도 5(b)를 살펴보면, 2차원 그래프를 나타내며, aij (i=0,1,2,3,j=0,1,2), bkl (k=0,1,2,l=0,1,2,3)는 각 꼭지점 간의 에지 가중치를 나타낸다.
각 꼭지점은 모든 다른 꼭지점에 연결될 수 있으며, 0의 에지 가중치는 서로 연관되지 않거나 약하게 연관된 꼭지점들을 연결하는 에지에 할당될 수 있다. 다만, 표현의 간단화를 위해, 0의 에지 가중치를 갖는 에지는 완전히 제거될 수 있다.
픽셀 간 관계 정보는 각 픽셀을 그래프의 꼭지점에 대응시켰을 때 픽셀들 간의 에지 유무 및 에지 가중치(edge weight) 값으로 표현될 수 있다.
이 경우, GBT는 다음과 같은 과정을 통해 획득될 수 있다. 예를 들어, 인코더 또는 디코더는 비디오 신호의 타겟 블록으로부터 그래프 정보를 획득할 수 있다. 상기 획득된 그래프 정보로부터 다음 수학식 3과 같이 라플라시안 행렬(Laplacian matrix) L을 획득할 수 있다.
수학식 3
Figure PCTKR2016005599-appb-M000003
상기 수학식 3에서, D는 차수 행렬(Degree matrix)을 나타내고, 예를 들어 상기 차수 행렬은 각 꼭지점의 차수에 대한 정보를 포함하는 대각 행렬(diagonal matrix)을 의미할 수 있다. A는 인접 픽셀과의 연결 관계(예를 들어, 에지)를 가중치로 나타내는 인접 행렬(adjacency matrix)을 나타낸다.
그리고, 상기 라플라시안 행렬(Laplacian matrix) L에 대해 아래 수학식 4와 같이 고유 분해(eigen decomposition)를 수행함으로써 GBT 커널을 획득할 수 있다.
수학식 4
Figure PCTKR2016005599-appb-M000004
상기 수학식 4에서, L은 라플라시안 행렬(Laplacian matrix), U는 고유 행렬(eigen matrix), UT는 U의 전치 행렬(transpose matrix)을 의미한다. 상기 수학식 4에서, 상기 고유 행렬(eigen matrix) U는 해당 그래프 모델에 맞는 신호에 대해 특화된 그래프 기반 푸리에(Fourier) 변환을 제공할 수 있다. 예를 들어, 상기 수학식 4를 만족하는 고유 행렬(eigen matrix) U는 GBT 커널을 의미할 수 있다.
도 6은 본 발명이 적용되는 일실시예로서, 분리가능한 변환(separable transform)을 적용하기 위한 변환 기저가 될 수 있는 1차원 그래프들의 예를 나타낸다.
한 라인에 대해서 기저가 될 수 있는 1D 그래프들에 대한 실시예들로는 다음과 같이 설명될 수 있다.
첫번째 실시예로, 한 픽셀 쌍(pixel pair)에 대해서만 상관성(correlation)이 작아서 해당 에지(edge)의 가중치 값만 작게 설정하는 경우를 들 수 있다. 예를 들어, 블록 경계를 포함하는 픽셀 쌍(pixel pair)의 경우 상관성이 상대적으로 작으므로 블록 경계를 포함하는 그래프 에지에 대해 작은 에지 가중치를 설정할 수 있다.
두번째 실시예로, 양단에 자기 루프(self-loop)가 존재하거나, 존재하지 않는 경우, 또는 한 쪽만 자기 루프(self-loop)가 존재하는 경우를 들 수 있다. 예를 들어, 도 6(a)와 도 6(b)는 1D 그래프 양단의 한 쪽에만 자기 루프(self-loop)가 존재하는 경우를 나타내고, 도 6(c)는 1D 그래프 양단에 자기 루프(self-loop)가 존재하는 경우를 나타내며, 도 6(d)는 1D 그래프 양단에 자기 루프(self-loop)가 존재하지 않는 경우를 나타낸다. 여기서, 자기 루프(self-loop)란 인접 꼭지점(vertex)와의 의존성(dependency)을 나타내는 것으로, 예를 들어 자기 가중치를 의미할 수 있다. 즉, 자기 루프(self-loop)가 존재하는 부분에 가중치를 더 부여할 수 있다.
본 발명의 다른 실시예로, TU 사이즈에 따라 별도의 1D 분리 가능한 변환 셋(separable transform set)을 정의할 수 있다. 비분리 변환(Non-separable transform)의 경우 TU 사이즈가 커질수록 O(N4)으로 변환 계수 데이터가 늘어나지만, 분리 가능한 변환(separable transform)의 경우는 O(N2)으로 늘어가게 된다. 따라서, 기저를 이루는 여러 가지 1D 분리 가능한 변환(separable transform)들을 조합함으로써 다음과 같은 구성이 가능할 수 있다.
예를 들어, 1D 분리 가능한 변환(separable transform) 템플릿으로, 도 6(a)와 같이 왼쪽에 자기 루프(self-loop)가 존재하는 템플릿, 도 6(b)와 같이 오른쪽에 자기 루프(self-loop)가 존재하는 템플릿, 도 6(c)와 같이 양단에 자기 루프(self-loop)가 존재하는 템플릿, 및 도 6(d)와 같이 양쪽에 자기 루프(self-loop)가 모두 존재하지 않는 템플릿을 들 수 있다. 이들이 모두 이용가능한 경우, 열(row)과 행(column)에 대해 각기 상기 4가지 경우들이 가능하므로 총 16개의 조합에 대한 템플릿 인덱스(template index)를 정의할 수 있다.
다른 실시예로, TU 중간에 파티션 경계(partition boundary) 또는 오브젝트 경계(object boundary)가 존재하는 경우 템플릿 인덱스(template index)를 시그널링하되, 경계에 해당하는 에지에 대해서만 추가적으로 작은 가중치 값을 부여한 별도의 템플릿을 대신 적용할 수 있다.
도 7은 본 발명이 적용되는 일실시예로서, 2차원 그래프의 각 라인마다 서로 다른 분리가능한 변환(separable transform)을 적용하는 방법을 설명하기 위한 도면이다.
상기 도 7은 픽셀 블록에 대응되는 2차원 그래프를 나타내며, 그래프 꼭지점(vertex)은 픽셀 블록의 각 픽셀에 연관되며, 그래프 꼭지점의 값은 픽셀 값으로 표현될 수 있다. 여기서, 그래프 꼭지점을 연결하는 선은 그래프 에지(graph edge)를 의미한다. 앞서 살펴본 바와 같이, 상기 그래프 에지는 신호 내의 어떠한 형태의 통계적 의존성을 나타내기 위해 사용되며, 그 강도를 나타내는 값을 에지 가중치(edge weight)라 할 수 있다. 예를 들어, 도 7을 살펴보면, 2차원 그래프를 나타내며, aij (i=0,1,2,3,j=0,1,2), bkl (k=0,1,2,l=0,1,2,3)는 각 꼭지점 간의 에지 가중치를 나타낸다.
본 발명이 적용되는 일실시예로, 직각 방향으로 이웃한 픽셀들에 대해서만 그래프 에지를 연결하는 2D 그래프의 경우(이를 4-connected graph라 하기도 한다), 2D NSGBT(non-separable GBT)를 적용할 수도 있지만 열(row) 방향과 행(column) 방향에 각각 1D SGBT(separable GBT)를 적용할 수 있다.
예를 들어, 도 7의 2D 그래프의 각 꼭지점에 대해 최대 4개의 이웃한 꼭지점을 가지므로 4-연결 그래프(4-connected graph)라고 할 수 있으며, 여기서, 각 변의 에지 가중치(edge weight) (aij, bkl)를 이용하여 2D NSGBT(non-separable GBT) 커널(kernel)을 생성해서 적용할 수 있다.
구체적 예로, 열(row) 방향에 대해서는 각 열(row)에 대해 i번째 열의 에지 가중치 ai0, ai1, ai2로 이루어진 그래프에 대한 1D SGBT(separable GBT)를 적용하고 각 행(column)에 대해서는 j번째 행(column) b0j, b1j, b2j의 에지 가중치로 이루어진 그래프에 대한 1D SGBT(separable GBT)를 적용할 수 있다.
다른 실시예로, 임의의 4-연결 그래프(4-connected graph)의 경우 각 라인마다 (가로 방향과 세로 방향 모두에 대해) 서로 다른 1D SGBT(separable GBT)을 적용할 수 있다. 예를 들어, 도 7에서 각 열(row)과 행(column)에 대해 에지 가중치(edge weight)의 조합이 다른 경우, 각 조합에 대한 1D SGBT를 적용할 수 있다.
한편, NxN TU에 대한 한 GBT 템플릿 셋(template set)이 M 개의 4-연결 그래프(4-connected graph)들로 구성된 경우, 총 M 개의 N2xN2 변환 매트릭스들이 준비되어야 하므로 이들을 저장하기 위한 메모리 요구량이 커진다. 따라서, 하나의 4-연결 그래프(4-connected graph)를 적어도 하나의 1D 그래프 요소로 조합하여 구성할 수 있다면, 적어도 하나의 1D 그래프 요소에 대한 변환만이 필요하게 되므로 변환 매트릭스들을 저장하기 위한 메모리 양을 줄일 수 있다.
본 발명의 일실시예로, 제한된 개수의 1D 그래프 요소들로 다양한 4-연결 2D 그래프(4-connected 2D graph)들을 생성할 수 있고, 그럼으로써 각 모드 조합에 적합한 GBT 템플릿 셋(GBT template set)을 커스터마이징할 수 있다. 총 GBT 템플릿 개수가 늘어난다 할지라도 기저를 이루는 1D 변환들의 수는 그대로일 것이므로 필요한 메모리 양을 최소화할 수 있다. 예를 들어, 도 7에서 제한된 개수의 (ai0, ai1, ai2)과 (b0j, b1j, b2j) 조합들을 준비한 후, 각 조합에 대한 1D 그래프들을 단위로 하여 이들을 적절히 연결하게 되면 하나의 4-연결 2D 그래프(4-connected 2D graph)를 생성할 수 있다.
예를 들어, 현재 코딩 블록에 대해서, 그래프 에지 정보, 파티션 정보, 픽셀 간 상관성(correlation) 정보 등을 비트스트림으로부터 전달받거나 주변 정보로부터 유도가 가능한 경우, 이 정보들을 이용하여 1D 변환들의 조합을 커스터마이징할 수 있다.
도 8은 본 발명이 적용되는 실시예로서, 그래프 기반의 신호를 처리하는 인코더의 개략적 블록도를 예시한다.
도 8을 살펴보면, 본 발명이 적용되는 인코더(800)는 그래프 기반 변환부(810), 양자화부(820), 역양자화부(830), 역변환부(840), 버퍼(850), 예측부(860), 및 엔트로피 인코딩부(870)을 포함한다.
인코더(800)는 비디오 신호를 수신하고 상기 비디오 신호로부터 상기 예측부(860)에서 출력된 예측된 신호를 차감하여 예측 에러를 생성한다. 상기 생성된 예측 에러는 상기 그래프 기반 변환부(810)으로 전송되고, 상기 그래프 기반 변환부(810)은 변환 방식을 상기 예측 에러에 적용함으로써 변환 계수를 생성한다.
본 발명이 적용되는 다른 실시예로, 상기 그래프 기반 변환부(810)는 획득된 그래프 기반 변환 행렬과 상기 도 1의 변환부(120)로부터 획득된 변환 행렬을 비교하여 보다 적합한 변환 행렬을 선택할 수 있다.
상기 양자화부(820)은 상기 생성된 변환 계수를 양자화하여 상기 양자화된 계수를 엔트로피 인코딩부(870)으로 전송한다.
상기 엔트로피 인코딩부(870)은 상기 양자화된 신호에 대한 엔트로피 코딩을 수행하고 엔트로피 코딩된 신호를 출력한다.
상기 양자화부(820)에 의해 출력된 상기 양자화된 신호는 예측 신호를 생성하기 위해 사용될 수 있다. 예를 들어, 상기 인코더(800)의 루프 내의 상기 역양자화부(830) 및 상기 역변환부(840)은 상기 양자화된 신호가 예측 에러로 복원되도록 상기 양자화된 신호에 대한 역양자화 및 역변환을 수행할 수 있다. 복원된 신호는 상기 복원된 예측 에러를 상기 예측부(860)에 의해 출력된 예측 신호에 더함으로써 생성될 수 있다.
상기 버퍼(850)는 예측부(860)의 향후 참조를 위해 복원된 신호를 저장한다.
상기 예측부(860)은 이전에 복원되어 상기 버퍼(850)에 저장된 신호를 사용하여 예측 신호를 생성할 수 있다. 상기 생성된 예측 신호는 원 비디오 신호로부터 차감되어 차분 신호를 생성하며, 이는 상기 그래프 기반 변환부(810)으로 전송된다.
도 9는 본 발명이 적용되는 실시예로서, 그래프 기반의 신호를 처리하는 디코더의 개략적 블록도를 예시한다.
도 9의 디코더(900)는 도 8의 인코더(800)에 의해 출력된 신호를 수신한다.
상기 엔트로피 디코딩부(910)은 수신된 신호에 대한 엔트로피 디코딩을 수행한다. 상기 역양자화부(920)은 양자화 스텝 사이즈(quantization step size)에 기초하여 상기 엔트로피 디코딩된 신호로부터 변환 계수를 획득한다.
상기 역변환부(930)은 변환 계수에 대한 역변환을 수행함으로써 차분 신호를 획득한다. 이때, 상기 역변환은 상기 인코더(800)에서 획득된 그래프 기반 변환에 대한 역변환을 의미할 수 있다.
상기 획득된 차분 신호를 상기 예측부(950)에 의해 출력된 예측 신호에 더함으로써 복원 신호를 생성할 수 있다.
상기 버퍼(940)는 상기 예측부(950)의 향후 참조를 위해 상기 복원 신호를 저장할 수 있다.
상기 예측부(950)은 이전에 복원되어 상기 버퍼(940)에 저장된 신호를 기반으로 예측 신호를 생성할 수 있다.
도 10은 본 발명이 적용되는 일실시예로서, 그래프 기반 변환부의 내부 블록도를 나타낸다.
도 10을 참조하면, 그래프 기반 변환부(810)는 그래프 파라미터 결정부(811), 그래프 신호 생성부(813), 변환 행렬 결정부(815) 및 변환 수행부(817)를 포함할 수 있다.
그래프 파라미터 결정부(811)는 비디오 신호 또는 차분 신호의 타겟 유닛에 대응되는 그래프 내 그래프 파라미터를 추출할 수 있다. 예를 들어, 상기 그래프 파라미터는 꼭지점 파라미터 및 에지 파라미터 중 적어도 하나를 포함할 수 있다. 상기 꼭지점 파라미터는 꼭지점 위치 및 꼭지점 개수 중 적어도 하나를 포함하고, 상기 에지 파라미터는 에지 가중치 값 및 에지 가중치 개수 중 적어도 하나를 포함할 수 있다. 또한, 상기 그래프 파라미터는 일정 개수의 셋(set)으로 정의될 수 있다.
본 발명의 일실시예에 따르면, 상기 그래프 파라미터 결정부(811)로부터 추출된 그래프 파라미터는 일반화된 형태로 표현될 수 있다.
그래프 신호 생성부(813)는 상기 그래프 파라미터 결정부(811)로부터 추출된 그래프 파라미터에 기초하여 그래프 신호를 생성할 수 있다. 여기서, 상기 그래프 신호는 가중치 적용된 또는 가중치 적용되지 않은 라인 그래프를 포함할 수 있다. 상기 라인 그래프는 타겟 블록의 행 또는 열 각각에 대해 생성될 수 있다.
변환 행렬 결정부(815)는 상기 그래프 신호에 적합한 변환 행렬을 결정할 수 있다. 예를 들어, 상기 변환 행렬은 RD(Rate Distortion) 성능에 기초하여 결정될 수 있다. 또한, 본 명세서에서 변환 행렬은 변환 또는 변환 커널이란 표현으로 대체되어 사용될 수 있다.
본 발명의 실시예로, 상기 변환 행렬은 인코더 및 디코더에서 이미 결정된 값일 수 있으며, 이 경우 변환 행렬 결정부(815)는 상기 그래프 신호에 적합한 변환 행렬을 저장된 곳으로부터 유도할 수 있다.
본 발명의 다른 실시예로, 상기 변환 행렬 결정부(815)는 라인 그래프에 대한 1차원 변환 커널을 생성할 수 있고, 상기 1차원 변환 커널 중 2개를 결합하여 2차원 분리 가능한 그래프 기반 변환 커널을 생성할 수 있다. 상기 변환 행렬 결정부(815)는 RD(Rate Distortion) 성능에 기초하여 상기 2차원 분리 가능한 그래프 기반 변환 커널들 중 상기 그래프 신호에 적합한 변환 커널을 결정할 수 있다.
변환 수행부(817)는 상기 변환 행렬 결정부(815)로부터 획득된 변환 행렬을 이용하여 변환을 수행할 수 있다.
상기 도 10과 관련하여, 본 명세서에서는 그래프 기반 변환을 수행하는 과정을 설명하기 위해 각 기능별로 세분화하여 설명하지만, 본 발명은 이에 한정되지 않는다. 예를 들어, 상기 그래프 기반 변환부(810)는 크게 그래프 신호 생성부와 변환부로 구성될 수 있으며, 이 경우 상기 그래프 파라미터 결정부(811)의 기능은 상기 그래프 신호 생성부에서 수행될 수 있고, 상기 변환 행렬 결정부(815) 및 상기 변환 수행부(817)의 기능은 상기 변환부에서 수행될 수 있다. 또한, 상기 변환부의 기능은 변환 행렬 결정부와 변환 수행부로 구분될 수도 있다.
도 11은 본 발명이 적용되는 일실시예로서, 인트라 예측 모드에 따른 8x8 변환 블록 내 차분 픽셀 값들의 변화를 나타낸다.
본 발명의 일실시예는 2개의 1D 변환들을 결합하는 일반화된 분리가능한 변환(generalized separable transform)을 정의하며, 2개의 1D 변환들 중 하나는 차분 블록의 각 행(column)에 적용되고 나머지는 각 열(row)에 적용될 수 있다. 예를 들어, 분리가능한 2D DCT(separable 2D DCT)와 하이브리드 ADST/DCT 분리가능한 변환들(hybrid ADST/DCT separable transforms)은 본 발명의 특정 일실시예에 해당한다.
고정된 분리가능한 변환(예를 들어, DCT)을 이용하는 경우의 주요 문제는, 모든 차분 블록이 동일한 등방성의 통계적 특성(isotropic statistical property)을 갖는다고 모호하게 가정하는 것이다. 그러나, 도 11(a) 내지 (d)에서와 같이, 실제로 차분 블록들은 예측 방법(또는 예측 모드)에 따라 차분 픽셀 값들이 서로 다른 분포를 가짐을 확인할 수 있다. 예를 들어, 도 11(a)는 인트라 예측 플래너(planar) 모드의 경우 8x8 변환 블록 내 차분 픽셀 값들의 변화를 나타내고, 도 11(b) 내지 (c)는 각각 인트라 예측 방향 모드 1, 3, 7의 경우 8x8 변환 블록 내 차분 픽셀 값들의 변화를 나타낸다.
다른 예로, 차분 블록들은 비디오 영상의 특성에 따라 다른 분포를 가질 수 있으며, 이 경우 상기 도 11과 다른 비디오 영상인 경우 상기 도 11의 차분 픽셀 값들의 변화와 다른 분포를 가질 수 있다.
따라서, 본 발명은 일반화된 분리가능한 변환(generalized separable transform)을 제안함으로써 이러한 문제를 해결하고자 한다. 예를 들어, 2D 분리가능한 변환을 생성하기 위해 사용되는 1D 변환들을 디자인하는 방법을 제안하며, 이는 이하의 실시예들에서 상세히 설명하도록 한다.
도 12는 본 발명이 적용되는 일실시예로서, 일반화된 분리가능한 그래프 기반 변환을 생성하는 방법을 나타내는 흐름도이다.
본 발명의 일실시예는 일반화된 분리가능한 변환(generalized separable transform)을 생성하기 위해 다음과 같은 단계를 구성할 수 있다.
먼저, 인코더는 라인 그래프를 생성 또는 디자인할 수 있다(S1210). 여기서, 상기 라인 그래프는 가중치 적용될 수 있거나 또는 가중치 적용되지 않을 수 있다.
상기 인코더는, 상기 라인 그래프에 연관된 1D 그래프 기반 변환(GBT)을 생성할 수 있다(S1220). 이때, 상기 1D 그래프 기반 변환(GBT)은 일반화된 라플라시안 연산기(Laplacian operator)를 이용하여 생성될 수 있다.
여기서, 인접 행렬 A와 그에 의해 정의된 그래프 G(A)가 있다고 가정할 때, 일반화된 라플라시안 행렬(Laplacian matrix)
Figure PCTKR2016005599-appb-I000001
은 다음 수학식 5를 통해 획득될 수 있다.
수학식 5
Figure PCTKR2016005599-appb-M000005
상기 수학식 5에서, D는 차수 행렬(Degree matrix)을 나타내고, 예를 들어 상기 차수 행렬은 각 꼭지점의 차수에 대한 정보를 포함하는 대각 행렬(diagonal matrix)을 의미할 수 있다. A는 인접 픽셀과의 연결 관계(예를 들어, 에지)를 가중치로 나타내는 인접 행렬(adjacency matrix)을 나타낸다. S는 G의 노드들에서 가중치 적용된 자기 루프(weighted self-loop)를 나타내는 대각 행렬(diagonal matrix)을 나타낸다.
그리고, 일반화된 라플라시안 행렬(Laplacian matrix)
Figure PCTKR2016005599-appb-I000002
에 대해 아래 수학식 6과 같이 고유 분해(eigen decomposition)를 수행함으로써 GBT 커널을 획득할 수 있다.
수학식 6
Figure PCTKR2016005599-appb-M000006
상기 수학식 6에서,
Figure PCTKR2016005599-appb-I000003
은 일반화된 라플라시안 행렬(generalized Laplacian matrix), U는 고유 행렬(eigen matrix), Ut는 U의 전치 행렬(transpose matrix)을 의미한다. 상기 수학식 6에서, 상기 고유 행렬(eigen matrix) U는 해당 그래프 모델에 맞는 신호에 대해 특화된 그래프 기반 푸리에(Fourier) 변환을 제공할 수 있다. 예를 들어, 상기 수학식 6를 만족하는 고유 행렬(eigen matrix) U는 GBT 커널을 의미할 수 있다.
여기서, 고유 행렬(eigen matrix) U의 행들(columns)은 GBT의 기초 벡터들(basis vectors)을 의미할 수 있다. 그래프가 자기 루프(self-loop)가 없으면, 일반화된 라플라시안 행렬(generalized Laplacian matrix)은 상기 수학식 3과 같다.
한편, 상기 인코더는 2D 분리가능한 그래프 기반 변환(2D separable GBT)을 생성하기 위해 이용될 2개의 1D 그래프 기반 변환들을 선택할 수 있다(S1230).
그리고, 상기 2개의 선택된 1D 그래프 기반 변환들을 결합하여 2D 분리가능한 그래프 기반 변환을 생성할 수 있다(S1240).
본 발명의 일실시예로, 1D 그래프 기반 변환들의 다양한 조합을 통해 K개의 2D 분리가능한 그래프 기반 변환이 생성될 수 있으며, 여기서, K는 변환 시그널링 오버헤드(예를 들어, 율왜곡 트레이드 오프(Rate-Distortion tradeoff))를 고려하여 결정될 수 있다.
도 13은 본 발명이 적용되는 일실시예로서, 그래프 타입과 그에 따른 변환 유형을 설명하기 위한 테이블을 나타낸다.
본 발명의 일실시예는 그래프 신호의 가중치 정보를 디자인함으로써 다양한 종류의 변환을 생성하는 방법을 제공한다. 여기서, 상기 그래프 신호의 가중치 정보는 에지 가중치(edge weight) 및 자기 루프 가중치(self-loop weight) 중 적어도 하나를 포함할 수 있다.
상기 에지 가중치는 균일한 에지 가중치, 비균일 에지 가중치, 또는 임의의 에지 가중치 중 적어도 하나를 포함할 수 있다. 그리고, 상기 자기 루프 가중치(self-loop weight)는 자기 루프 없음(no self-loop), 한쪽 끝에 하나의 자기 루프(single self-loop at one end), 양쪽 끝에 각 하나의 자기 루프(each single self-loop at both ends), 또는 임의의 자기 루프(arbitrary self-loop) 중 적어도 하나를 포함할 수 있다.
또한, 본 발명의 다른 일실시예는 그래프 타입에 따라 다양한 종류의 변환을 생성하는 방법을 제공한다. 여기서, 상기 그래프 타입은 라인 그래프 또는 임의의 그래프(arbitrary graph) 중 적어도 하나를 포함할 수 있다.
예를 들어, 그래프 타입이 라인 그래프일 경우, 1D 분리가능한 변환(1D separable transform)이 생성될 수 있다. 그리고, 그래프 타입이 임의의 그래프(arbitrary graph)일 경우, 비분리 변환(non-separable transform)이 생성될 수 있다.
도 13(a) 내지 도 13(d)는 구체적인 실시예들을 나타낸다.
도 13(a)를 살펴보면, 그래프 타입이 라인 그래프이고, 에지 가중치가 균일하고, 자기 루프 가중치가 없는 경우(no self-loop), 결과 변환(resulting transform)은 분리가능한 DCT(separable DCT)를 의미할 수 있다.
도 13(b)를 살펴보면, 그래프 타입이 라인 그래프이고, 에지 가중치가 균일하고, 한쪽 끝에 하나의 자기 루프 가중치(single self-loop at one end)를 갖는 경우, 결과 변환(resulting transform)은 분리가능한 ADST(separable ADST)를 의미할 수 있다.
도 13(c)를 살펴보면, 그래프 타입이 라인 그래프이고, 에지 가중치가 임의의 에지 가중치이며, 임의의 자기 루프 가중치를 갖는 경우, 결과 변환(resulting transform)은 일반화된 분리가능한 변환(generalized separable transform)을 의미할 수 있다.
도 13(d)를 살펴보면, 그래프 타입이 임의의 그래프이고, 에지 가중치가 임의의 에지 가중치이며, 임의의 자기 루프 가중치를 갖는 경우, 결과 변환(resulting transform)은 비분리 변환(non-separable transform)을 의미할 수 있다.
본 발명은 그래프 타입, 에지 가중치, 자기 루프 가중치 중 적어도 하나에 기초하여 다양한 타입의 변환을 생성할 수 있다. 예를 들어, 서로 다른 에지 가중치 및 자기 루프 가중치를 갖는 라인 그래프를 선택함으로써 일반화된 분리가능한 변환(generalized separable transform)을 디자인할 수 있다.
따라서, 서로 다른 신호 특성을 갖는 블록들에 대해 적응적인 변환을 생성할 수 있고, 이를 이용하여 변환을 수행함으로써 코딩 효율을 향상시킬 수 있다.
도 14 내지 도 16은 본 발명이 적용되는 일실시예들로서, 에지 가중치(edge weight) 및 자기 루프(self-loop)에 따른 변환 유형을 설명하기 위한 도면들이다.
도 14(a)는 8개 노드의 균일 가중치의 라인 그래프(Uniformly weighted line graph with 8 nodes)를 나타내고, 도 14(b)는 상기 도 14(a)의 라인 그래프로부터 유도된 1D GBT의 분리 가능한 확장(separable extension)을 나타낸다. 상기 도 14(b)를 살펴보면 2D 분리 가능한 DCT(2D separable DCT)와 같음을 확인할 수 있다.
도 15(a)는 한쪽 끝에 자기 루프를 갖는 균일 가중치의 라인 그래프(Uniformly weighted line graph with a self loop at one end)를 나타내고, 도 15(b)는 상기 도 15(a)의 라인 그래프로부터 유도된 1D GBT의 분리 가능한 확장(separable extension)을 나타낸다. 상기 도 15(b)를 살펴보면 2D 분리 가능한 ADST(2D separable ADST)와 같음을 확인할 수 있다.
도 16(a)는 1D DCT를 생성하는 라인 그래프(line graph that generates 1D DCT)를 나타내고, 도 16(b)는 자기 루프 없는 가중치 적용된 라인 그래프(a weighted line graph with no self loop)를 나타내며, 도 16(c)는 상기 도 16(a) 및 상기 도 16(b)의 라인 그래프들을 결합한 2D 분리가능한 변환을 나타낸다. 여기서, 상기 도 16(a) 및 상기 도 16(b)의 라인 그래프들은 각각 블록의 행들(columns) 및 열들(rows)에 적용하여 결합될 수 있다.
도 17은 본 발명이 적용되는 일실시예로서, NxN 인트라 방향성 예측 블록 내 서브 블록에서 2 라인 그래프를 설명하기 위한 도면이다.
본 발명의 일실시예에서, 2D 비분리 변환들(2D non-separable transforms)은 몇 개의 라인 그래프들을 연결하는 임의의 그래프들을 이용하여 획득될 수 있다.
예를 들어, 도 17을 살펴보면, 두 줄의 픽셀들을 연결하는 그래프로부터 유도된 2D 비분리 변환(2D non-separable transforms)은 NxN 블록 내 2개의 열들(rows) 또는 행들(columns)의 이웃쌍(neighboring pair)에 적용될 수 있다.
상기 도 17은 NxN 인트라 방향성 예측 블록 내 서브 블록에서 2 라인 그래프를 나타내고, 인트라 방향성 예측 모드(intra angular prediction mode)의 경우, 동일한 예측 방향을 따라 위치한 픽셀들은 상당히 관련있는 것으로 예측되므로, 상기 도 17에서와 같이 해당 픽셀들을 따라 에지 가중치를 부여할 수 있다.
도 18 및 도 19는 본 발명이 적용되는 일실시예들로서, 도 18은 NxN 블록 내 수평 방향으로 L 개의 서브 블록에 대해 L 개의 변환이 할당되는 것을 설명하기 위한 도면이고, 도 19는 NxN 블록 내 수직 방향으로 M 개의 서브 블록에 대해 M 개의 변환이 할당되는 것을 설명하기 위한 도면이다.
본 발명에 따라, 2개의 변환 셋은 수직 방향 및 수평 방향으로 생성될 수 있다.
도 18을 살펴보면, NxN 블록은 L개의 서브 블록들로 수평 방향으로 파티션될 수 있다. 여기서, L개의 서브 블록들 각각은 m 라인을 갖는 그래프를 가질 수 있고, L은 파티션 개수를 나타내고 N/m 으로 계산될 수 있다.
도 19를 살펴보면, NxN 블록은 M개의 서브 블록들로 수직 방향으로 파티션될 수 있다. 여기서, M개 서브블록들 각각은 n 라인을 갖는 그래프를 가질 수 있고, M은 파티션 개수를 나타내고 N/n 으로 계산될 수 있다.
서브 블록의 픽셀 사이즈는 수평/수직 방향으로 각각 mxN , Nxn 이고, 여기서, m, n은 각각 수평/수직 방향의 라인 개수를 나타내며, N은 블록 너비(block width)를 나타낸다.
이때, 변환은 각 서브 블록 내에서 수행될 수 있다. 그리고, m 또는 n 이 1로 설정되면, 변환은 라인 그래프로부터 유도되는 것과 같다.
본 발명의 일실시예로, 변환은 도 18 또는 도 19처럼, 파티션에 기초하여 한 방향(수평 또는 수직 방향)에 따라 수행될 수 있다. 또는, 변환은 양 방향에 따라 수행될 수 있으며, 이 경우 상기 도 18 또는 도 19 중 하나 이후에 나머지 하나에 따라 수행될 수 있다.
상기 도 18 및 도 19를 살펴보면, 각 서브 블록은 수평 또는 수직 방향에 대한 다양한 타입의 라인 그래프들로부터 각각 유도된 p 또는 q개의 변환 커널들을 가질 수 있다. 예를 들어, 도 18의 경우, N개의 서브 블록은 각각 p 개의 변환 커널 {T1, T2, … , Tp}을 가질 수 있고, 도 19의 경우, M개의 서브 블록은 각각 q 개의 변환 커널 {S1, S2, … , Sq}을 가질 수 있다.
본 발명의 일실시예로, 다양한 타입의 라인 그래프들로부터 유도된 변환 커널들 또는 변환 커널 셋은 기결정된 값일 수 있으며, 이 경우 인코더 및 디코더는 이미 알고 있을 수 있다.
다른 실시예로, 한 방향의 변환 커널들(또는 변환 커널 셋)이 기결정된 값이고 인코더 및 디코더에서 이미 알고 있는 경우, 나머지 방향에 대한 변환 커널들(또는 변환 커널 셋)은 인덱스에 의해 정의될 수 있다. 이 경우, 인코더는 상기 인덱스를 시그널링해서 디코더에 전송할 수 있다.
다른 실시예로, 행들(columns)에 대한 변환들 또는 열들(rows)에 대한 변환들은 각각 서로 다를 수 있다. 이 경우, 행들(columns)에 대한 변환들 또는 열들(rows)에 대한 변환들에 대한 인덱스를 모두 정의하여 시그널링할 수 있다. 또는, 기설정된 조합에 대한 인덱스들을 시그널링할 수도 있다. 예를 들어, 도 18의 경우, {h1, h2, …, hL} 인덱스를 시그널링하거나, 도 19의 경우, {v1, v2, …, vM} 인덱스를 시그널링할 수 있다.
도 20은 본 발명이 적용되는 일실시예로서, DCT, ADST 및 RADST에 연관된 그래프 및 분리가능한 그래프 기반 변환을 생성하는 과정을 설명하기 위한 도면이다.
본 발명은, 대상 블록의 열들(rows) 및 행들(columns)에 대해 서로 다른 변환을 사용하도록 함으로써, 분리 가능한 변환을 일반화할 수 있다.
먼저, 인코더는 라인 그래프를 생성 또는 디자인한 후(Step1), 일반화된 그래프 라플라시안을 계산할 수 있다(Step2). 그리고, 상기 일반화된 그래프 라플라시안으로부터의 고유 분해(eigen decomposition)에 의해 그래프 기반 변환(GBT)을 생성할 수 있다(Step3).
도 20(a) 내지 도 20(c)를 살펴보면, 본 발명은 각각 DCT, ADST 및 RADST(Reverse ADST)에 대해 상기 단계들을 적용하여 분리가능한 그래프 기반 변환을 생성하는 과정을 보여준다.
이 경우, DCT와 ADST는 그래프 기반 변환(GBT)의 특수한 일실시예에 해당되고, RADST 또한 그래프 기반 해석에 따른다.
상기 도 20에서 보여지는 변환들은 동일한 링크 가중치(link weight)를 이용하는 대신, 서로 다른 링크 가중치를 선택함으로써 더 일반화될 수 있다.
본 발명의 일실시예로, 차분 신호의 다른 특징을 잡기 위해, 차분 블록의 열들(rows) 및 행들(columns)을 변환하기 위해 3개 변환들의 조합을 이용할 수 있다.
본 발명의 다른 일실시예로, 상기 3개의 변환 또는 그 조합에 대해 템플릿 인덱스를 지정할 수 있으며, 이 경우 상기 템플릿 인덱스는 코딩 유닛 또는 예측 유닛 단위로 전송될 수 있다. 또는 자주 나오는 변환에 대해서는 0으로 인덱싱하고 나머지는 다른 값으로 인덱싱할 수 있다.
도 21은 본 발명이 적용되는 일실시예로서, 3개의 분리가능한 변환(DCT, ADST 및 RADST)의 조합에 의해 생성될 수 있는 7개의 분리가능한 변환들의 예를 나타낸다.
도 21을 살펴보면, DCT, ADST, RADST 쌍들은 7개의 서로 다른 2D 분리가능한 변환을 만들 수 있다. 여기서, 각 실시예들의 아래에 있는 화살표는 에너지 집중을 증가시키는 방향을 나타낸다. 다만, 도 21(a)에서와 같이, 블록 내에서 에너지가 스프레드될 때 DCT가 선택되고 이러한 경우 어떠한 방향성도 갖지 않는다.
예를 들어, 도 21(a)는 DCT/DCT 쌍에 의해 2D 분리 가능한 변환이 생성되는 예를 나타내고, 에너지는 스프레드된다.
도 21(b)는 ADST/ADST 쌍에 의해 2D 분리 가능한 변환이 생성되는 예를 나타내고, 에너지 집중은 우측 하단 방향으로 증가한다.
도 21(c)는 RADST/RADST 쌍에 의해 2D 분리 가능한 변환이 생성되는 예를 나타내고, 에너지 집중은 좌측 상단 방향으로 증가한다.
도 21(d)는 ADST/DCT 쌍에 의해 2D 분리 가능한 변환이 생성되는 예를 나타내고, 에너지 집중은 우측 방향으로 증가한다.
도 21(e)는 DCT/ADST 쌍에 의해 2D 분리 가능한 변환이 생성되는 예를 나타내고, 에너지 집중은 하단 방향으로 증가한다.
도 21(f)는 RADST/DCT 쌍에 의해 2D 분리 가능한 변환이 생성되는 예를 나타내고, 에너지 집중은 좌측 방향으로 증가한다.
도 21(g)는 DCT/RADST 쌍에 의해 2D 분리 가능한 변환이 생성되는 예를 나타내고, 에너지 집중은 상단 방향으로 증가한다.
도 22는 본 발명이 적용되는 일실시예로서, 고정된 DCT, ADST 대비 적응적으로 다른 변환을 선택하는 방법에 대해 평균 PSNR vs BPP 의 비교 결과를 나타낸다.
본 실험에서는, 6개의 테스트 시퀀스에 대한 인트라 예측된 차분 블록 신호를 생성하였다. 인코더에서, 변환 유닛의 크기는 프레임 내 쿼드트리 파티셔닝에 기초하며, 예를 들어 4x4, 8x8, 16x16 또는 32x32 일 수 있다. 상기 도 21에서와 같이, 본 발명은 각 블록 사이즈에 대해 7개의 2D 분리 가능한 변환을 생성할 수 있다. 변환 선택은 RD(Rate Distortion) 성능에 기초하여 수행될 수 있다. 본 발명은 DCT/ADST 대비, 7개의 다른 변환들 사이에서 적응적으로 선택하는 성능을 비교하였다. 평균 RD 성능은 도 22에서와 같고, 결과는 적응적인 선택이 RD 성능 측면에서 고정된 DCT/ADST 보다 더 우수함을 보여준다.
도 23은 본 발명이 적용되는 일실시예로서, 변환 인덱스를 이용하여 분리가능한 그래프 기반 변환 커널을 유도하는 방법을 설명하기 위한 흐름도이다.
먼저, 디코더는 비디오 신호로부터 타겟 블록에 대한 변환 인덱스(transform index)를 수신할 수 있다(S2310). 여기서 상기 변환 인덱스는 상기 타겟 블록에 적용될 그래프 기반 변환을 나타낸다. S2310은 디코더 내 파싱부에서 수행될 수 있다.
본 발명의 일실시예로, 상기 타겟 블록이 수평 방향 또는 수직 방향으로 파티션된 M개 또는 N개의 서브 블록들로 구성된 경우, 상기 변환 인덱스는 각 서브 블록마다 대응될 수 있다.
본 발명의 일실시예로, 상기 변환 인덱스는 코딩 유닛, 예측 유닛 또는 변환 유닛 중 적어도 하나의 유닛마다 수신될 수 있다.
상기 디코더는, 상기 변환 인덱스에 대응되는 그래프 기반 변환 커널을 유도할 수 있다(S2320). 여기서, 상기 그래프 기반 변환 커널은 상기 변환 인덱스에 따라 각 서브 블록마다 유도되며, 적어도 2개 이상의 서브 블록은 서로 다른 변환 타입이 적용될 수 있다. 예를 들어, 상기 서로 다른 변환 타입은 DCT, ADST 및 RADST 중 적어도 2개를 포함할 수 있다.
본 발명의 일실시예로, 상기 그래프 기반 변환 커널은 복수개의 1차원 그래프 기반 변환들의 결합에 기초하여 생성된, 2차원 분리 가능한 그래프 기반 변환 커널일 수 있다.
본 발명의 일실시예로, 상기 그래프 기반 변환 커널은 상기 타겟 블록의 행 또는 열마다 기정의될 수 있다. 이 경우, 인코더 및 디코더는 상기 그래프 기반 변환 커널을 이미 알고 있으며, 예를 들어 이를 테이블로 저장하고 있을 수 있다.
그리고, 상기 디코더는 상기 그래프 기반 변환 커널에 기초하여 상기 타겟 블록을 디코딩할 수 있다(S2330).
S2320 내지 S2330 은 디코더 내 역변환부에서 수행될 수 있다.
도 24는 본 발명이 적용되는 일실시예로서, 일반화된 분리가능한 그래프 기반 변환 커널을 결정하는 방법을 설명하기 위한 흐름도이다.
먼저, 인코더는 타겟 블록을 수평 또는 수직 방향으로 복수개의 서브 블록들로 파티셔닝할 수 있다(S2410). S2410은 영상 분할부에서 수행될 수 있다.
상기 인코더는 상기 복수개의 서브 블록들 각각에 대해 라인 그래프를 생성할 수 있다(S2420).
상기 인코더는, 상기 라인 그래프에 기초하여 그래프 기반 변환 커널을 결정할 수 있고(S2430), 상기 그래프 기반 변환 커널을 이용하여 상기 복수개의 서브 블록들에 대해 변환을 수행할 수 있다(S2440). 여기서, S2420 내지 S2440은 그래프 기반 변환부에서 수행될 수 있다.
본 발명의 일실시예로, 상기 그래프 기반 변환 커널은 2차원 분리 가능한 그래프 기반 변환 커널을 나타내고, 상기 그래프 기반 변환 커널은 상기 라인 그래프에 대응되는 복수개의 1차원 그래프 기반 변환들의 결합에 기초하여 생성된 것일 수 있다.
본 발명의 일실시예로, 상기 그래프 기반 변환 커널은 상기 타겟 블록의 행 또는 열마다 기정의될 수 있다. 이 경우, 인코더 및 디코더는 상기 그래프 기반 변환 커널을 이미 알고 있으며, 예를 들어 이를 테이블로 저장하고 있을 수 있다.
한편, 상기 인코더는 상기 그래프 기반 변환 커널에 대응되는 변환 인덱스를 인코딩하여 디코더에 전송할 수 있다. 이때, 상기 변환 인덱스는 각 서브 블록마다 대응될 수 있다.
본 발명의 일실시예로, 상기 그래프 기반 변환 커널은 변환 인덱스에 따라 각 서브 블록마다 유도되며, 적어도 2개 이상의 서브 블록은 서로 다른 변환 타입이 적용될 수 있다. 예를 들어, 상기 서로 다른 변환 타입은 DCT, ADST 및 RADST 중 적어도 2개를 포함할 수 있다.
상기 기술된 것과 같이, 본 발명에서 설명한 실시예들은 프로세서, 마이크로 프로세서, 컨트롤러 또는 칩 상에서 구현되어 수행될 수 있다. 예를 들어, 상기 도 1, 도 2, 도 8, 도 9 및 도 10에서 도시한 기능 유닛들은 컴퓨터, 프로세서, 마이크로 프로세서, 컨트롤러 또는 칩 상에서 구현되어 수행될 수 있다.
또한, 본 발명이 적용되는 디코더 및 인코더는 멀티미디어 방송 송수신 장치, 모바일 통신 단말, 홈 시네마 비디오 장치, 디지털 시네마 비디오 장치, 감시용 카메라, 비디오 대화 장치, 비디오 통신과 같은 실시간 통신 장치, 모바일 스트리밍 장치, 저장 매체, 캠코더, 주문형 비디오(VoD) 서비스 제공 장치, 인터넷 스트리밍 서비스 제공 장치, 3차원(3D) 비디오 장치, 화상 전화 비디오 장치, 및 의료용 비디오 장치 등에 포함될 수 있으며, 비디오 신호 및 데이터 신호를 처리하기 위해 사용될 수 있다.
또한, 본 발명이 적용되는 처리 방법은 컴퓨터로 실행되는 프로그램의 형태로 생산될 수 있으며, 컴퓨터가 판독할 수 있는 기록 매체에 저장될 수 있다. 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 또한 컴퓨터가 판독할 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 판독할 수 있는 기록 매체는 컴퓨터로 읽을 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 상기 컴퓨터가 판독할 수 있는 기록 매체는, 예를 들어, 블루레이 디스크(BD), 범용 직렬 버스(USB), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크 및 광학적 데이터 저장 장치를 포함할 수 있다. 또한, 상기 컴퓨터가 판독할 수 있는 기록 매체는 반송파(예를 들어, 인터넷을 통한 전송)의 형태로 구현된 미디어를 포함한다. 또한, 인코딩 방법으로 생성된 비트 스트림이 컴퓨터가 판독할 수 있는 기록 매체에 저장되거나 유무선 통신 네트워크를 통해 전송될 수 있다.
이상, 전술한 본 발명의 바람직한 실시예는, 예시의 목적을 위해 개시된 것으로, 당업자라면 이하 첨부된 특허청구범위에 개시된 본 발명의 기술적 사상과 그 기술적 범위 내에서, 다양한 다른 실시예들을 개량, 변경, 대체 또는 부가 등이 가능할 것이다.

Claims (15)

  1. 적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 디코딩하는 방법에 있어서,
    상기 비디오 신호로부터, 타겟 블록에 대한 변환 인덱스(transform index)를 수신하는 단계, 여기서 상기 변환 인덱스는 상기 타겟 블록에 적용될 그래프 기반 변환을 가리킴;
    상기 변환 인덱스에 대응되는 그래프 기반 변환 커널을 유도하는 단계; 및
    상기 그래프 기반 변환 커널에 기초하여 상기 타겟 블록을 디코딩하는 단계
    를 포함하는 것을 특징으로 하는 방법.
  2. 제1항에 있어서,
    상기 타겟 블록이 수평 방향 또는 수직 방향으로 파티션된 M개 또는 N개의 서브 블록들로 구성된 경우, 상기 변환 인덱스는 각 서브 블록마다 대응되는 것을 특징으로 하는 방법.
  3. 제2항에 있어서,
    상기 그래프 기반 변환 커널은 상기 변환 인덱스에 따라 각 서브 블록마다 유도되며, 적어도 2개 이상의 서브 블록은 서로 다른 변환 타입이 적용되는 것을 특징으로 하는 방법.
  4. 제3항에 있어서,
    상기 서로 다른 변환 타입은 DCT(Discrete Cosine Transform), ADST(Asymmetric Discrete Sine Transform) 및 RADST(Reverse Asymmetric Discrete Sine Transform) 중 적어도 2개를 포함하는 것을 특징으로 하는 방법.
  5. 제1항에 있어서,
    상기 그래프 기반 변환 커널은 복수개의 1차원 그래프 기반 변환들의 결합에 기초하여 생성된, 2차원 분리 가능한 그래프 기반 변환 커널인 것을 특징으로 하는 방법.
  6. 제1항에 있어서,
    상기 그래프 기반 변환 커널은 상기 타겟 블록의 행 또는 열마다 기정의된 것을 특징으로 하는 방법.
  7. 제1항에 있어서,
    상기 변환 인덱스는 코딩 유닛, 예측 유닛 또는 변환 유닛 중 적어도 하나의 유닛마다 수신되는 것을 특징으로 하는 방법.
  8. 적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 인코딩하는 방법에 있어서,
    타겟 블록을 수평 또는 수직 방향으로 복수개의 서브 블록들로 파티셔닝하는 단계;
    상기 복수개의 서브 블록들 각각에 대해 라인 그래프를 생성하는 단계;
    상기 라인 그래프에 기초하여, 그래프 기반 변환 커널을 결정하는 단계; 및
    상기 그래프 기반 변환 커널을 이용하여, 상기 복수개의 서브 블록들에 대해 변환을 수행하는 단계
    를 포함하는 것을 특징으로 하는 방법.
  9. 제8항에 있어서, 상기 방법은,
    상기 그래프 기반 변환 커널에 대응되는 변환 인덱스를 인코딩하는 단계
    를 더 포함하고,
    상기 변환 인덱스는 각 서브 블록마다 대응되는 것을 특징으로 하는 방법.
  10. 제8항에 있어서,
    상기 복수개의 서브 블록들 중 적어도 2개 이상의 서브 블록은 서로 다른 변환 타입이 적용되는 것을 특징으로 하는 방법.
  11. 제10항에 있어서,
    상기 서로 다른 변환 타입은 DCT, ADST 및 RADST 중 적어도 2개를 포함하는 것을 특징으로 하는 방법.
  12. 제8항에 있어서,
    상기 그래프 기반 변환 커널은 2차원 분리 가능한 그래프 기반 변환 커널을 나타내고,
    상기 그래프 기반 변환 커널은 상기 라인 그래프에 대응되는 복수개의 1차원 그래프 기반 변환들의 결합에 기초하여 생성된 것을 특징으로 하는 방법.
  13. 제8항에 있어서,
    상기 그래프 기반 변환 커널은 상기 타겟 블록의 행 또는 열마다 기정의된 것을 특징으로 하는 방법.
  14. 적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 디코딩하는 장치에 있어서,
    상기 비디오 신호로부터, 타겟 블록에 대한 변환 인덱스(transform index)를 수신하는 파싱부; 및
    상기 변환 인덱스에 대응되는 그래프 기반 변환 커널을 유도하고, 상기 그래프 기반 변환 커널에 기초하여 상기 타겟 블록을 디코딩하는 역변환부
    를 포함하되,
    상기 타겟 블록이 수평 방향 또는 수직 방향으로 파티션된 복수개의 서브 블록들로 구성된 경우, 상기 변환 인덱스는 각 서브 블록마다 대응되고,
    상기 그래프 기반 변환 커널은 상기 변환 인덱스에 따라 각 서브 블록마다 유도되며, 적어도 2개 이상의 서브 블록은 서로 다른 변환 타입이 적용되는 것을 특징으로 하는 장치.
  15. 적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 인코딩하는 장치에 있어서,
    타겟 블록을 수평 또는 수직 방향으로 복수개의 서브 블록들로 파티셔닝하는 영상 분할부; 및
    상기 복수개의 서브 블록들 각각에 대해 라인 그래프를 생성하고, 상기 라인 그래프에 기초하여 그래프 기반 변환 커널을 결정하고, 상기 그래프 기반 변환 커널을 이용하여, 상기 복수개의 서브 블록들에 대해 변환을 수행하는 그래프 기반 변환부
    를 포함하되,
    상기 복수개의 서브 블록들 중 적어도 2개 이상의 서브 블록은 서로 다른 변환 타입이 적용되는 것을 특징으로 하는 장치.
PCT/KR2016/005599 2015-05-26 2016-05-26 적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치 WO2016190690A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/577,029 US10567763B2 (en) 2015-05-26 2016-05-26 Method and device for processing a video signal by using an adaptive separable graph-based transform

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562166667P 2015-05-26 2015-05-26
US62/166,667 2015-05-26

Publications (1)

Publication Number Publication Date
WO2016190690A1 true WO2016190690A1 (ko) 2016-12-01

Family

ID=57392895

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/005599 WO2016190690A1 (ko) 2015-05-26 2016-05-26 적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치

Country Status (2)

Country Link
US (1) US10567763B2 (ko)
WO (1) WO2016190690A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101912769B1 (ko) * 2014-10-24 2018-10-29 엘지전자 주식회사 그래프 템플릿으로부터 유도된 변환을 이용하여 비디오 신호를 디코딩/인코딩하는 방법 및 장치
WO2016190690A1 (ko) * 2015-05-26 2016-12-01 엘지전자(주) 적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치
WO2017014585A1 (ko) * 2015-07-21 2017-01-26 엘지전자(주) 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치
IT201600122898A1 (it) * 2016-12-02 2018-06-02 Ecole Polytechnique Fed Lausanne Epfl Metodi e apparati per codificare e decodificare immagini o flussi video digitali
US11134272B2 (en) * 2017-06-29 2021-09-28 Qualcomm Incorporated Memory reduction for non-separable transforms
CN113365051B (zh) * 2019-03-09 2022-04-08 杭州海康威视数字技术股份有限公司 进行编码和解码的方法、解码端、编码端和系统
US11412258B2 (en) * 2020-02-12 2022-08-09 Tencent America LLC Line graph transforms (LGTs) using 8-bit and 10-bit cores
US11405647B2 (en) * 2020-02-18 2022-08-02 Tencent America LLC Primary transforms using 8-bit and 10-bit cores
US11272212B2 (en) * 2020-05-12 2022-03-08 Tencent America LLC Tuned line graph transforms
US11785254B2 (en) * 2020-05-29 2023-10-10 Tencent America LLC Implicit mode dependent primary transforms

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110135787A (ko) * 2010-06-11 2011-12-19 삼성전자주식회사 엣지-적응 변환을 이용한 영상 부호화/복호화 시스템 및 방법
US20150010048A1 (en) * 2012-11-13 2015-01-08 Atul Puri Content adaptive transform coding for next generation video
US20150112897A1 (en) * 2013-10-23 2015-04-23 Mitsubishi Electric Research Laboratories, Inc. Method for Estimating Parameters of a Graph Spectral Filter Using Training Data

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5122873A (en) * 1987-10-05 1992-06-16 Intel Corporation Method and apparatus for selectively encoding and decoding a digital motion video signal at multiple resolution levels
CN104378639B (zh) * 2011-10-19 2018-05-04 株式会社Kt 解码视频信号的方法
US9703822B2 (en) * 2012-12-10 2017-07-11 Ab Initio Technology Llc System for transform generation
US9681128B1 (en) * 2013-01-31 2017-06-13 Google Inc. Adaptive pre-transform scanning patterns for video and image compression
US9544597B1 (en) * 2013-02-11 2017-01-10 Google Inc. Hybrid transform in video encoding and decoding
US9967559B1 (en) * 2013-02-11 2018-05-08 Google Llc Motion vector dependent spatial transformation in video coding
US9179151B2 (en) * 2013-10-18 2015-11-03 Google Inc. Spatial proximity context entropy coding
US9712829B2 (en) * 2013-11-22 2017-07-18 Google Inc. Implementation design for hybrid transform coding scheme
WO2016190690A1 (ko) * 2015-05-26 2016-12-01 엘지전자(주) 적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치
US20180167618A1 (en) * 2015-06-04 2018-06-14 Lg Electronics Inc. Method and device for processing video signal by using graph-based transform
US11361195B2 (en) * 2015-10-16 2022-06-14 Hewlett Packard Enterprise Development Lp Incremental update of a neighbor graph via an orthogonal transform based indexing
US10390048B2 (en) * 2016-02-15 2019-08-20 Qualcomm Incorporated Efficient transform coding using optimized compact multi-pass transforms

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110135787A (ko) * 2010-06-11 2011-12-19 삼성전자주식회사 엣지-적응 변환을 이용한 영상 부호화/복호화 시스템 및 방법
US20150010048A1 (en) * 2012-11-13 2015-01-08 Atul Puri Content adaptive transform coding for next generation video
US20150112897A1 (en) * 2013-10-23 2015-04-23 Mitsubishi Electric Research Laboratories, Inc. Method for Estimating Parameters of a Graph Spectral Filter Using Training Data

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HU , WEI ET AL.: "Multiresolution Graph Fourier Transform for Compression of Piecewise Smooth Images", IEEE TRANSACTIONS ON IMAGE PROCESSING, vol. 24, no. 1, January 2015 (2015-01-01), pages 419 - 433, XP011569005, ISSN: 1057-7149 *
NARANG, SUNIL K. ET AL.: "Critically Sampled Graph-based Wavelet transforms for Image Coding", SIGNAL AND INFORMATION PROCESSING ASSOCIATION ANNUAL SUMMIT AND CONFERENCE (APSIPA), 2013 ASIA-PACIFIC, 29 October 2013 (2013-10-29), pages 1 - 4, XP032549595 *

Also Published As

Publication number Publication date
US10567763B2 (en) 2020-02-18
US20180146195A1 (en) 2018-05-24

Similar Documents

Publication Publication Date Title
WO2016190690A1 (ko) 적응적인 분리가능한 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치
WO2017014585A1 (ko) 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치
WO2016129872A1 (ko) 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치
WO2018128323A1 (ko) 이차 변환을 이용한 비디오 신호의 인코딩/디코딩 방법 및 장치
WO2018070790A1 (ko) 영상의 부호화/복호화 방법 및 장치
WO2016064185A1 (ko) 최적화 함수를 이용하여 그래프 기반 예측을 수행하는 방법 및 장치
WO2018066849A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018097691A2 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2017010850A1 (ko) 분리 가능한 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치
WO2018236028A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2018221817A1 (ko) 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
WO2020218793A1 (ko) Bdpcm에 기반한 영상 코딩 방법 및 그 장치
WO2016072775A1 (ko) 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2015190839A1 (ko) 임베디드 블록 파티셔닝을 이용하여 비디오 신호를 인코딩, 디코딩하는 방법 및 장치
WO2018236031A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2011096770A2 (ko) 영상 부호화/복호화 장치 및 방법
WO2018070713A1 (ko) 크로마 성분에 대한 인트라 예측 모드를 유도하는 방법 및 장치
WO2018062880A1 (ko) 영상 처리 방법 및 이를 위한 장치
WO2018038554A1 (ko) 이차 변환을 이용한 비디오 신호의 인코딩/디코딩 방법 및 장치
WO2018190523A1 (ko) 영상의 부호화/복호화 방법 및 이를 위한 장치
WO2019017694A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2011019213A2 (ko) 적응적인 루프 필터링을 이용한 비디오의 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2018044089A1 (ko) 비디오 신호 처리 방법 및 장치
WO2016195455A1 (ko) 그래프 기반 변환을 이용하여 비디오 신호를 처리하는 방법 및 장치
WO2021071183A1 (ko) 현재블록의 변환계수들을 역변환하는 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16800329

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15577029

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16800329

Country of ref document: EP

Kind code of ref document: A1