WO2022265420A1 - 영상 코딩 방법 및 그 장치 - Google Patents

영상 코딩 방법 및 그 장치 Download PDF

Info

Publication number
WO2022265420A1
WO2022265420A1 PCT/KR2022/008521 KR2022008521W WO2022265420A1 WO 2022265420 A1 WO2022265420 A1 WO 2022265420A1 KR 2022008521 W KR2022008521 W KR 2022008521W WO 2022265420 A1 WO2022265420 A1 WO 2022265420A1
Authority
WO
WIPO (PCT)
Prior art keywords
transform
lfnst
matrix
target block
transform coefficients
Prior art date
Application number
PCT/KR2022/008521
Other languages
English (en)
French (fr)
Inventor
구문모
임재현
김승환
자오지에
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2022265420A1 publication Critical patent/WO2022265420A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • This document relates to image coding technology, and more particularly, to an image coding method and apparatus based on low-frequency non-separate transform in an image coding system.
  • a high-efficiency video/video compression technology is required to effectively compress, transmit, store, and reproduce high-resolution and high-quality video/video information having various characteristics as described above.
  • the technical problem of this document is to provide a method and apparatus for increasing image coding efficiency.
  • Another technical task of this document is to provide an image coding method and apparatus to which LFNST is applied under various conditions.
  • Another technical problem of this document is to provide an image coding method and apparatus for setting an LFNST kernel in consideration of computational complexity for samples.
  • Another technical task of this document is to provide an image coding method and apparatus to which LFNST is applied, which can improve coding performance and minimize complexity.
  • an image decoding method performed by a decoding device provides an image decoding method performed by a decoding device according to an embodiment of the script document to transform coefficients.
  • the method includes deriving modified transform coefficients based on an inverse quadratic transform for transform coefficients, wherein deriving the modified transform coefficients comprises deriving a transform kernel to be applied to the inverse quadratic transform.
  • the transformation kernel is derived as a 16x16 matrix
  • the horizontal and vertical lengths of the target block Based on the fact that the lengths are all greater than or equal to 8 and the horizontal or vertical lengths are 8, the transform kernel can be derived as a 48x16 matrix.
  • a video encoding method performed by an encoding device includes deriving modified transform coefficients based on a quadratic transform for transform coefficients, and deriving the modified transform coefficients includes deriving a transform kernel to be applied to the secondary transform. And, based on the fact that both the horizontal and vertical lengths of the target block are greater than or equal to 4 and the horizontal or vertical length is 4, the transformation kernel is derived as a 16x16 matrix, and the horizontal and vertical lengths of the target block Based on that both are greater than or equal to 8 and the horizontal or vertical length is 8, the transform kernel can be derived as a 16x48 matrix.
  • a digital storage medium storing image data including encoded image information and/or bitstream generated according to an image encoding method performed by an encoding device, and such image information and/or A bitstream transmission method may be provided.
  • a digital storage medium storing image data including encoded image information and/or bitstream causing a decoding device to perform the image decoding method, and such image information and/or A bitstream transmission method may be provided.
  • overall video/image compression efficiency can be increased.
  • LFNST may be applied based on various conditions.
  • the LFNST set index can be efficiently derived based on the intra prediction mode.
  • the LFNST kernel can be configured considering the computational complexity of the sample.
  • an LFNST-applied video coding method and apparatus capable of improving coding performance and minimizing complexity can be provided.
  • FIG. 1 schematically shows an example of a video/image coding system to which this document can be applied.
  • FIG. 2 is a diagram schematically illustrating the configuration of a video/image encoding device to which this document can be applied.
  • FIG. 3 is a diagram schematically illustrating the configuration of a video/image decoding device to which this document can be applied.
  • FIG. 4 exemplarily shows a structure diagram of a content streaming system to which this document is applied.
  • 5 illustratively shows intra-directional modes of 65 prediction directions.
  • FIG. 7 is a diagram for explaining RST according to an embodiment of the present document.
  • FIG. 8 is a diagram illustrating a forward LFNST input area according to an embodiment of the present document.
  • 9A and 9B are diagrams illustrating an input sequence of input data according to an embodiment of the present document.
  • FIGS. 10A and 10B are diagrams illustrating an input sequence of input data according to another embodiment of the present document.
  • FIG. 11 is a diagram illustrating a non-square ROI according to an embodiment of the present document.
  • FIG. 12 is a diagram illustrating a scanning sequence of transform coefficients according to an embodiment of the present document.
  • FIG. 13 is a flowchart illustrating an operation of a video decoding apparatus according to an embodiment of the present document.
  • FIG. 14 is a flowchart illustrating the operation of a video encoding device according to an embodiment of the present document.
  • each component in the drawings described in this document is shown independently for convenience of description of different characteristic functions, and does not mean that each component is implemented as separate hardware or separate software.
  • two or more of the components may be combined to form one component, or one component may be divided into a plurality of components.
  • Embodiments in which each configuration is integrated and/or separated are also included in the scope of rights of this document as long as they do not deviate from the essence of this document.
  • VVC Versatile Video Coding
  • HEVC High Efficiency Video Coding
  • EMC essential video coding
  • a video may mean a set of a series of images over time.
  • FIG. 1 schematically shows an example of a video/image coding system to which this document can be applied.
  • a video/image coding system may include a source device and a receiving device.
  • the source device may transmit encoded video/image information or data to a receiving device in a file or streaming form through a digital storage medium or network.
  • the source device may include a video source, an encoding device, and a transmission unit.
  • the receiving device may include a receiving unit, a decoding device, and a renderer.
  • the encoding device may be referred to as a video/image encoding device, and the decoding device may be referred to as a video/image decoding device.
  • a transmitter may be included in an encoding device.
  • a receiver may be included in a decoding device.
  • the renderer may include a display unit, and the display unit may be configured as a separate device or an external component.
  • a video source may acquire video/images through a process of capturing, synthesizing, or generating video/images.
  • a video source may include a video/image capture device and/or a video/image generation device.
  • a video/image capture device may include, for example, one or more cameras, a video/image archive containing previously captured video/images, and the like.
  • Video/image generating devices may include, for example, computers, tablets and smart phones, etc., and may (electronically) generate video/images.
  • a virtual video/image may be generated through a computer or the like, and in this case, a video/image capture process may be replaced by a process of generating related data.
  • An encoding device may encode an input video/image.
  • the encoding device may perform a series of procedures such as prediction, transformation, and quantization for compression and coding efficiency.
  • Encoded data (encoded video/video information) may be output in the form of a bitstream.
  • the transmission unit may transmit the encoded video/image information or data output in the form of a bit stream to the receiving unit of the receiving device in the form of a file or streaming through a digital storage medium or a network.
  • Digital storage media may include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, and SSD.
  • the transmission unit may include an element for generating a media file through a predetermined file format, and may include an element for transmission through a broadcasting/communication network.
  • the receiving unit may receive/extract the bitstream and transmit it to a decoding device.
  • the decoding device may decode video/images by performing a series of procedures such as inverse quantization, inverse transformation, and prediction corresponding to operations of the encoding device.
  • the renderer may render the decoded video/image.
  • the rendered video/image may be displayed through the display unit.
  • a video encoding device may include a video encoding device.
  • the encoding device 200 includes an image partitioner 210, a predictor 220, a residual processor 230, an entropy encoder 240, It may include an adder 250, a filter 260, and a memory 270.
  • the prediction unit 220 may include an inter prediction unit 221 and an intra prediction unit 222 .
  • the residual processing unit 230 may include a transformer 232 , a quantizer 233 , a dequantizer 234 , and an inverse transformer 235 .
  • the residual processing unit 230 may further include a subtractor 231 .
  • the adder 250 may be called a reconstructor or a reconstructed block generator.
  • the above-described image segmentation unit 210, prediction unit 220, residual processing unit 230, entropy encoding unit 240, adder 250, and filtering unit 260 may be one or more hardware components ( For example, it may be configured by an encoder chipset or processor). Also, the memory 270 may include a decoded picture buffer (DPB) and may be configured by a digital storage medium. The hardware component may further include a memory 270 as an internal/external component.
  • DPB decoded picture buffer
  • the image divider 210 may divide an input image (or picture or frame) input to the encoding device 200 into one or more processing units.
  • the processing unit may be called a coding unit (CU).
  • the processing unit may further include a prediction unit (PU) or a transform unit (TU).
  • the prediction unit and the transform unit may be divided or partitioned from the above-described final coding unit.
  • the prediction unit may be a unit of sample prediction
  • the transform unit may be a unit for deriving transform coefficients and/or a unit for deriving a residual signal from transform coefficients.
  • an MxN block may represent a set of samples or transform coefficients consisting of M columns and N rows.
  • a sample can generally represent a pixel or a value of a pixel.
  • the subtraction unit 231 subtracts the prediction signal (predicted block, prediction samples, or prediction sample array) output from the prediction unit 220 from the input image signal (original block, original samples, or original sample array) to obtain a residual A signal (residual block, residual samples or residual sample array) may be generated.
  • the generated residual signal is transmitted to the conversion unit 232.
  • the prediction unit 220 may perform prediction on a block to be processed (hereinafter referred to as a current block) and generate a predicted block including predicted samples of the current block.
  • the predictor 220 may determine whether intra prediction or inter prediction is applied in units of current blocks or CUs.
  • the prediction unit may generate various types of information related to prediction, such as prediction mode information, and transmit them to the entropy encoding unit 240 .
  • Prediction-related information may be encoded in the entropy encoding unit 240 and output in the form of a bitstream.
  • the intra predictor 222 may predict the current block by referring to samples (reference samples) in the current picture.
  • prediction modes may include a plurality of non-directional modes and a plurality of directional modes.
  • the intra predictor 222 may determine a prediction mode applied to the current block by using a prediction mode applied to neighboring blocks.
  • the inter-prediction unit 221 may derive a predicted block for a current block based on a reference block (reference sample array) specified by a motion vector on a reference picture.
  • motion information may be predicted in units of blocks, subblocks, or samples based on correlation of motion information between neighboring blocks and the current block.
  • the motion information may include a motion vector and a reference picture index.
  • the prediction signal generated through the inter predictor 221 and/or the intra predictor 222 may be used to generate a reconstructed signal or a residual signal.
  • the transform unit 232 may generate transform coefficients by applying a transform technique to the residual signal.
  • the transformation technique may include Discrete Cosine Transform (DCT), Discrete Sine Transform (DST), Graph-Based Transform (GBT), Karhunen Loeve Transform (KLT), or Conditionally Non-linear Transform (CNT).
  • the conversion unit 232 may perform a primary conversion and/or a secondary conversion.
  • the quantization unit 233 quantizes the transform coefficients and transmits them to the entropy encoding unit 240, and the entropy encoding unit 240 may encode the quantized signal (information on the quantized transform coefficients) and output it as a bitstream. there is. Information about the quantized transform coefficients may be referred to as residual information.
  • the quantization unit 233 may rearrange block-type quantized transform coefficients into a one-dimensional vector form based on a coefficient scanning order, and the quantized transform coefficients based on the one-dimensional vector form quantized transform coefficients. Information about transform coefficients may be generated.
  • the entropy encoding unit 240 may perform various encoding methods such as exponential Golomb, context-adaptive variable length coding (CAVLC), and context-adaptive binary arithmetic coding (CABAC).
  • the entropy encoding unit 240 may encode together or separately information necessary for video/image reconstruction (eg, values of syntax elements) in addition to quantized transform coefficients.
  • a transmission unit (not shown) for transmitting the signal output from the entropy encoding unit 240 and/or a storage unit (not shown) for storing may be configured as internal/external elements of the encoding device 200, or the transmission unit It may also be included in the entropy encoding unit 240.
  • the quantized transform coefficients output from the quantization unit 233 may be used to generate a prediction signal.
  • a residual signal residual block or residual samples
  • inverse quantization and inverse transformation residual block or residual samples
  • the adder 250 may generate a reconstructed signal (reconstructed picture, reconstructed block, reconstructed samples, or reconstructed sample array) by adding the reconstructed residual signal to the prediction signal output from the prediction unit 220.
  • a predicted block may be used as a reconstruction block.
  • the generated reconstruction signal may be used for intra prediction of the next processing target block in the current picture, or may be used for inter prediction of the next picture after filtering as described below.
  • the filtering unit 260 may improve subjective/objective picture quality by applying filtering to the reconstructed signal.
  • the filtering unit 260 may generate a modified reconstructed picture by applying various filtering methods to the reconstructed picture, and store the modified reconstructed picture in the memory 270, specifically the DPB of the memory 270.
  • the various filtering methods may include, for example, deblocking filtering, sample adaptive offset (SAO), adaptive loop filter, bilateral filter, and the like.
  • the modified reconstructed picture transmitted to the memory 270 may be used as a reference picture in the inter prediction unit 280 .
  • the encoding device can avoid prediction mismatch between the encoding device 200 and the decoding device, and can also improve encoding efficiency.
  • the DPB of the memory 270 may store the modified reconstructed picture to be used as a reference picture in the inter prediction unit 221 .
  • the memory 270 may store motion information of a block in a current picture from which motion information is derived (or encoded) and/or motion information of blocks in a previously reconstructed picture.
  • the memory 270 may store reconstructed samples of reconstructed blocks in the current picture and transfer them to the intra predictor 222 .
  • FIG. 3 is a diagram schematically illustrating the configuration of a video/image decoding device to which this document can be applied.
  • the decoding device 300 includes an entropy decoder 310, a residual processor 320, a predictor 330, an adder 340, and a filtering unit. (filter, 350) and memory (memory, 360).
  • the prediction unit 330 may include an inter prediction unit 331 and an intra prediction unit 332 .
  • the residual processing unit 320 may include a dequantizer 321 and an inverse transformer 321 .
  • the above-described entropy decoding unit 310, residual processing unit 320, prediction unit 330, adder 340, and filtering unit 350 may be configured as one hardware component (for example, a decoder chipset or processor) according to an embodiment. ) can be configured by Also, the memory 360 may include a decoded picture buffer (DPB) and may be configured by a digital storage medium.
  • the hardware component may further include a memory 360 as an internal/external component.
  • the decoding device 300 may restore an image corresponding to a process in which the video/image information is processed by the encoding device of FIG. 2 .
  • a processing unit of decoding may be, for example, a coding unit, a prediction unit or a transform unit.
  • One or more transform units may be derived from a coding unit.
  • the decoding device 300 may receive a signal output from the encoding device of FIG. 2 in the form of a bitstream, and the received signal may be decoded through the entropy decoding unit 310 .
  • the entropy decoding unit 310 may parse the bitstream to derive information (eg, video/image information) necessary for image restoration (or picture restoration). Signaled/received information and/or syntax elements described later in this document may be obtained from the bitstream by being decoded through the decoding procedure.
  • the inverse quantization unit 321 may inversely quantize the quantized transform coefficients and output transform coefficients.
  • the inverse quantization unit 321 may rearrange the quantized transform coefficients in a 2D block form. In this case, the rearrangement may be performed based on a coefficient scanning order performed by the encoding device.
  • the inverse quantization unit 321 may perform inverse quantization on quantized transform coefficients using a quantization parameter (eg, quantization step size information) and obtain transform coefficients.
  • a quantization parameter eg, quantization step size information
  • a residual signal (residual block, residual sample array) is obtained by inverse transforming the transform coefficients.
  • the inverse transform unit 322 may perform an inverse primary transform and/or an inverse secondary transform.
  • the prediction unit 330 may perform prediction on a current block and generate a predicted block including predicted samples of the current block.
  • the intra predictor 331 may predict a current block by referring to samples in the current picture.
  • the referenced samples may be located in the neighborhood of the current block or may be located apart from each other according to a prediction mode.
  • prediction modes may include a plurality of non-directional modes and a plurality of directional modes.
  • the intra prediction unit 332 may determine a prediction mode applied to the current block by using a prediction mode applied to neighboring blocks.
  • the inter prediction unit 332 may derive a predicted block for a current block based on a reference block (reference sample array) specified by a motion vector on a reference picture.
  • a neighboring block may include a spatial neighboring block present in the current picture and a temporal neighboring block present in the reference picture.
  • the inter prediction unit 331 may construct a motion information candidate list based on neighboring blocks and derive a motion vector and/or reference picture index of the current block based on the received candidate selection information. Inter prediction may be performed based on various prediction modes, and the prediction information may include information indicating an inter prediction mode for the current block.
  • the adder 340 generates a reconstructed signal (reconstructed picture, reconstructed block, reconstructed sample array) by adding the obtained residual signal to the prediction signal (predicted block, predicted sample array) output from the prediction unit 330.
  • a predicted block may be used as a reconstruction block.
  • the generated reconstruction signal may be used for intra prediction of the next processing target block in the current picture, output after filtering as described later, or may be used for inter prediction of the next picture.
  • the filtering unit 350 may improve subjective/objective picture quality by applying filtering to the reconstructed signal.
  • the filtering unit 350 may generate a modified reconstructed picture by applying various filtering methods to the reconstructed picture.
  • the various filtering methods may include, for example, deblocking filtering, sample adaptive offset, adaptive loop filter, bilateral filter, and the like.
  • a (modified) reconstructed picture stored in the DPB of the memory 360 may be used as a reference picture in the inter prediction unit 331 .
  • the memory 360 may store motion information of a block in the current picture from which motion information is derived (or decoded) and/or motion information of blocks in a previously reconstructed picture.
  • the embodiments described in the prediction unit 330, the inverse quantization unit 321, the inverse transform unit 322, and the filtering unit 350 of the decoding apparatus 300 are each predictive units of the encoding apparatus 200 ( 220), the inverse quantization unit 234, the inverse transform unit 235, and the filtering unit 260 may be applied in the same or corresponding manner.
  • FIG. 4 exemplarily shows a structure diagram of a content streaming system to which this document is applied.
  • a content streaming system to which this document is applied may largely include an encoding server, a streaming server, a web server, a media storage, a user device, and a multimedia input device.
  • the encoding server compresses content input from multimedia input devices such as smart phones, cameras, camcorders, etc. into digital data to generate a bitstream and transmits it to the streaming server.
  • multimedia input devices such as smart phones, cameras, and camcorders directly generate bitstreams
  • the encoding server may be omitted.
  • the bitstream may be generated by an encoding method or a bitstream generation method to which this document is applied, and the streaming server may temporarily store the bitstream in a process of transmitting or receiving the bitstream.
  • the streaming server transmits multimedia data to a user device based on a user request through a web server, and the web server serves as a medium informing a user of what kind of service is available.
  • the web server transmits the request to the streaming server, and the streaming server transmits multimedia data to the user.
  • the content streaming system may include a separate control server, and in this case, the control server serves to control commands/responses between devices in the content streaming system.
  • the streaming server may receive content from a media storage and/or encoding server. For example, when content is received from the encoding server, the content can be received in real time. In this case, in order to provide smooth streaming service, the streaming server may store the bitstream for a certain period of time.
  • Examples of the user devices include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation devices, slate PCs, Tablet PC (tablet PC), ultrabook (ultrabook), wearable device (for example, watch type terminal (smartwatch), glass type terminal (smart glass), HMD (head mounted display), digital TV, desktop computer) , digital signage, etc.
  • PDAs personal digital assistants
  • PMPs portable multimedia players
  • navigation devices slate PCs
  • Tablet PC tablette PC
  • ultrabook ultrabook
  • wearable device for example, watch type terminal (smartwatch), glass type terminal (smart glass), HMD (head mounted display), digital TV, desktop computer) , digital signage, etc.
  • Each server in the content streaming system may be operated as a distributed server, and in this case, data received from each server may be distributed and processed.
  • the intra prediction mode may include non-directional (or non-angular) intra prediction modes and directional (or angular) intra prediction modes.
  • FIG 5 shows an example of intra prediction modes to which embodiments of the present document are applicable.
  • intra prediction modes 2 to 33 have a horizontal direction
  • intra prediction modes 34 to 66 have a vertical direction.
  • the 18th intra prediction mode and the 50th intra prediction mode represent a horizontal intra prediction mode and a vertical intra prediction mode, respectively, and the second intra prediction mode is a downward-left diagonal intra prediction mode
  • the 34th intra prediction mode may be referred to as an upper-left diagonal intra prediction mode
  • the 66th intra prediction mode may be referred to as an upper-left diagonal intra prediction mode.
  • the non-directional prediction mode may include a planar intra prediction mode of number 0 and a DC intra prediction mode of number 1.
  • the transform unit may correspond to the transform unit in the above-described encoding device of FIG. 2, and the inverse transform unit may correspond to the above-described inverse transform unit in the encoding apparatus of FIG. 2 or the inverse transform unit in the decoding apparatus of FIG. 3. .
  • the transform unit may derive (primary) transform coefficients by performing a primary transform based on residual samples (residual sample array) in the residual block (S610).
  • This primary transform may be referred to as a core transform.
  • the primary transform may be based on multiple transform selection (MTS), and when multiple transforms are applied as the primary transform, it may be referred to as a multiple core transform.
  • MTS multiple transform selection
  • the multi-core transform may indicate a transform method by additionally using Discrete Cosine Transform (DCT) Type 2, Discrete Sine Transform (DST) Type 7, DCT Type 8, and/or DST Type 1. That is, the multi-core transform converts a residual signal (or residual block) of a spatial domain into a frequency domain based on a plurality of transform kernels selected from among the DCT type 2, the DST type 7, the DCT type 8, and the DST type 1. It can indicate a transform method for transforming into transform coefficients (or first-order transform coefficients) of .
  • DCT type 2, DST type 7, DCT type 8, and DST type 1 may be referred to as conversion types, conversion kernels, or conversion cores. These DCT/DST transform types can be defined based on basis functions.
  • a vertical transformation kernel and a horizontal transformation kernel for the target block may be selected from among the transformation kernels, and vertical transformation for the target block is performed based on the vertical transformation kernel.
  • Horizontal transformation of the target block may be performed based on a horizontal transformation kernel.
  • the horizontal transformation may represent transformation of horizontal components of the target block
  • the vertical transformation may represent transformation of vertical components of the target block.
  • a vertical transformation or a horizontal transformation when performing the first transformation by applying the MTS, specific basis functions are set to predetermined values, and when a vertical transformation or a horizontal transformation is performed, which basis functions are applied are combined to form a mapping relationship with respect to a transformation kernel.
  • trTypeHor when performing the first transformation by applying the MTS, specific basis functions are set to predetermined values, and when a vertical transformation or a horizontal transformation is performed, which basis functions are applied are combined to form a mapping relationship with respect to a transformation kernel.
  • trTypeHor when performing the first transformation by applying the MTS, specific basis functions are set to predetermined values, and when a vertical transformation or a horizontal transformation is performed, which basis functions are applied are combined to form a mapping relationship with respect to a transformation kernel.
  • MTS index information may be encoded and signaled to the decoding device to indicate one of a plurality of conversion kernel sets. For example, if the MTS index is 0, it indicates that both trTypeHor and trTypeVer values are 0, if the MTS index is 1, it indicates that both trTypeHor and trTypeVer values are 1, and if the MTS index is 2, the trTypeHor value is 2 and the trTypeVer value indicates that trTypeHor is 1 and trTypeVer is 2 when the MTS index is 3, and trTypeHor and trTypeVer are both 2 when the MTS index is 4.
  • a conversion kernel set according to MTS index information is shown in a table as follows.
  • the transform unit may derive modified (secondary) transform coefficients by performing secondary transform on the basis of the (primary) transform coefficients (S620).
  • the first transformation is transformation from the spatial domain to the frequency domain
  • the second transformation means transformation into a more compressed expression using correlation existing between (first-order) transform coefficients.
  • the secondary transform may include a non-separable transform.
  • the secondary transform may be referred to as a non-separable secondary transform (NSST) or a mode-dependent non-separable secondary transform (MDNSST).
  • the non-separable secondary transform is the modified transform coefficients for the residual signal by secondary transforming the (first-order) transform coefficients derived through the primary transform based on a non-separable transform matrix. (or quadratic transform coefficients).
  • a non-separable transform matrix or quadratic transform coefficients.
  • non-separate quadratic transformation rearranges two-dimensional signals (transform coefficients) into one-dimensional signals through a specific direction (eg, a row-first direction or a column-first direction), and then , modified transform coefficients (or secondary transform coefficients) may be derived based on matrix operation of the one-dimensional vector and the non-separate transform matrix.
  • the row priority order is to arrange the 1st row, the 2nd row, ... , the Nth row for the MxN block
  • the column priority order is the 1st column, the 2nd row for the MxN block.
  • Column, ... to arrange them in a row in the order of the Mth column. That is, for the non-separate quadratic transformation, the transformation coefficients (derived through the primary transformation) may be arranged in a one-dimensional vector according to the row-major direction and then subjected to a matrix operation, or converted into a one-dimensional vector according to the column-major direction. Matrix operations may be performed after sorting.
  • the non-separate secondary transform may be applied to a top-left region of a block composed of (primary) transform coefficients (hereinafter referred to as a transform coefficient block or a transform block).
  • a transform coefficient block or a transform block For example, when both the width (W) and the height (H) of the transform coefficient block are 8 or more, an 8x8 non-separate secondary transform may be applied to an 8x8 region at the upper left of the transform coefficient block.
  • a 4 ⁇ 4 non-separate quadratic Transformation may be applied to the upper left min(8,W) ⁇ min(8,H) region of the transform coefficient block.
  • the embodiment is not limited to this, and for example, even if only the condition that both the width (W) or the height (H) of the transform coefficient block are 4 or more is satisfied, a 4 ⁇ 4 non-separate secondary transform is applied to the upper left corner of the transform coefficient block. It may also be applied to the min(8,W) ⁇ min(8,H) region.
  • a non-separate secondary transform may be applied to a 4x4 or 8x8 region at the upper left of the transform block according to the size of the transform block.
  • a transformation for an upper left 4 ⁇ 4 area may be named a 4 ⁇ 4 transformation
  • a transformation for an upper left 8 ⁇ 8 area may be referred to as an 8 ⁇ 8 transformation.
  • two non-separate secondary transform kernels can be configured per transform set for non-separate secondary transform for both the 8x8 transform and the 4x4 transform, and the transform set is 4 days.
  • 4 transform sets may be configured for 8x8 transforms
  • 4 transform sets may be configured for 4x4 transforms.
  • each of the four transformation sets for the 8 ⁇ 8 transformation may include two 8 ⁇ 8 transformation kernels
  • each of the four transformation sets for the 4 ⁇ 4 transformation may include two 4 ⁇ 4 transformation kernels.
  • the size of the transform that is, the size of the region to which the transform is applied, may be a size other than 8 ⁇ 8 or 4 ⁇ 4 as an example, the number of sets is n, and the number of transform kernels in each set is k. It could be a dog.
  • the transform set may be referred to as an NSST set or an LFNST set. Selection of a specific set among the transform sets may be performed, for example, based on the intra prediction mode of the current block (CU or subblock).
  • a low-frequency non-separable transform (LFNST) may be an example of a reduced non-separable transform that will be described later, and represents a non-separate transform for a low-frequency component.
  • one of k transform kernels in the specific set may be selected through a non-separate secondary transform index.
  • the encoding device may derive a non-separable secondary transform index indicating a specific transform kernel based on a rate-distortion (RD) check, and may signal the non-separate secondary transform index to the decoder.
  • the decoding device may select one of k transform kernels in a specific set based on the non-separate secondary transform index.
  • lfnst index value 0 can point to the first non-separate quadratic transform kernel
  • lfnst index value 1 can point to the second non-separate quadratic transform kernel
  • lfnst index value 2 to the third non-separate quadratic transform kernel.
  • the lfnst index value 0 may indicate that the first non-separate secondary transform is not applied to the target block
  • the lfnst index values 1 to 3 may indicate the three transform kernels.
  • the transform unit may perform the non-separate quadratic transform based on the selected transform kernels and obtain modified (secondary) transform coefficients.
  • the modified transform coefficients may be derived as quantized transform coefficients through a quantization unit, encoded, and transmitted to a signaling device for signaling to a decoding device and an inverse quantization/inverse transformation unit within an encoding device.
  • the (primary) transform coefficients that are outputs of the primary (separate) transform can be derived as quantized transform coefficients through the quantization unit as described above, and are encoded. It may be transmitted to the inverse quantization/inverse transform unit in the signaling and encoding device to the decoding device.
  • the inverse transformation unit may perform a series of procedures in the reverse order of the procedures performed by the above-described transformation unit.
  • the inverse transform unit receives the (inverse quantized) transform coefficients, performs a secondary (inverse) transform, derives (first) transform coefficients (S630), and performs a first (inverse) transform on the (primary) transform coefficients.
  • Residual blocks may be obtained by performing transformation (S640).
  • the primary transform coefficients may be referred to as modified transform coefficients from the point of view of the inverse transform unit.
  • the encoding device and the decoding device may generate a reconstructed block based on the residual block and the predicted block and generate a reconstructed picture based on the residual block.
  • the inverse transform unit applies a transform kernel matrix to the (inverse quantized) transform coefficients arranged in a specific order, for example, in a diagonal scan order (specifically, a diagonal scan order starting from the upper left corner of the transform block and proceeding in the lower right direction)
  • a modified transform coefficient can be derived.
  • the modified transform coefficients may be arranged in two dimensions in the upper left region of the transform block according to the direction in which the transform coefficients are read for the secondary transform in the transform unit, that is, the row-first direction or the column-first direction.
  • the inverse transform unit may align the modified transform coefficients in the 4 ⁇ 4 area of the transform block in two dimensions, and when the transform unit performs the 8 ⁇ 8 transform, the inverse transform unit may arrange the transform coefficients of the transform block.
  • the modified transform coefficients in the 8 ⁇ 8 area can be arranged in two dimensions.
  • the secondary inverse transform may be NSST, reduced secondary transform (RST), or LFNST, and whether to apply the secondary inverse transform may be determined based on a secondary transform flag parsed from a bitstream. As another example, whether to apply the secondary inverse transform may be determined based on transform coefficients of the residual block.
  • This second order inverse transform (i.e. transform kernel, transform matrix or transform kernel matrix) may be determined based on the set of LFNST (NSST or RST) transforms specified according to the intra prediction mode.
  • the secondary transform determination method may be determined depending on the primary transform determination method. Depending on the intra prediction mode, various combinations of primary and secondary transforms may be determined. Also, for example, a region to which a secondary inverse transform is applied may be determined based on the size of the current block.
  • a residual block (residual samples) may be obtained by receiving (inverse quantized) transform coefficients and performing the primary (separate) inverse transform.
  • the encoding device and the decoding device may generate a reconstructed block based on the residual block and the predicted block and generate a reconstructed picture based on the residual block.
  • a reduced secondary transform (RST) with a reduced size of a transformation matrix (kernel) can be applied in the concept of NSST in order to reduce the amount of computation and memory required for non-separate secondary transformation.
  • RST reduced secondary transform
  • kernel transformation matrix
  • the RST since the RST is mainly performed in a low-frequency region including non-zero coefficients in a transform block, it may be referred to as a low-frequency non-separable transform (LFNST).
  • the conversion index may be named LFNST index.
  • LFNST may mean a transform performed on residual samples of a target block based on a transform matrix having a reduced size.
  • the simplified transformation is performed, the amount of computation required for transformation may be reduced due to the reduction in the size of the transformation matrix. That is, LFNST can be used to solve the computational complexity issue that occurs when transforming large blocks or non-separate transforms.
  • the inverse transform unit 235 of the encoding apparatus 200 and the inverse transform unit 322 of the decoding apparatus 300 modify transforms based on the inverse RST of transform coefficients. It may include an inverse RST unit for deriving coefficients, and an inverse primary transform unit for deriving residual samples for the target block based on inverse primary transform for modified transform coefficients.
  • the inverse primary transform means an inverse transform of the primary transform applied to the residual.
  • deriving a transform coefficient based on a transform may mean deriving a transform coefficient by applying a corresponding transform.
  • FIG. 7 is a diagram for explaining RST or LFNST to which RST is applied according to an embodiment of the present document.
  • a “target block” may mean a current block, residual block, or transform block on which coding is performed.
  • a reduced transformation matrix may be determined by mapping an N dimensional vector to an R dimensional vector located in another space, where R is less than N.
  • N may mean the square of the length of one side of a block to which a transform is applied or the total number of transform coefficients corresponding to a block to which a transform is applied
  • the simplification factor may mean an R/N value.
  • the simplification factor may be referred to by various terms such as reduced factor, reduction factor, reduced factor, reduction factor, simplified factor, and simple factor.
  • R may be referred to as a reduced coefficient, but in some cases, a reduced factor may mean R.
  • the simplification factor may mean an N/R value.
  • the size of the simplified transform matrix according to an embodiment is RxN smaller than the size NxN of the normal transform matrix, and may be defined as in Equation 1 below.
  • the matrix T in the reduced transform block shown in (a) of FIG. 7 may mean the matrix T RxN of Equation 1. As shown in (a) of FIG. 7 , when residual samples of the target block are multiplied by the simplified transform matrix T RxN , transform coefficients of the target block may be derived.
  • the RST according to (a) of FIG. 7 is as follows It can be expressed as a matrix operation such as Equation 2. In this case, the memory and multiplication operation can be reduced to approximately 1/4 by the simplification factor.
  • matrix operation can be understood as an operation that obtains a column vector by placing the matrix on the left of the column vector and multiplying the matrix by the column vector.
  • r 1 to r 64 may represent residual samples of the target block, and more specifically, may be transform coefficients generated by applying a primary transform.
  • transform coefficients c i for the target block may be derived, and the process of deriving c i may be the same as Equation 3.
  • the size of the normal transformation matrix is 64x64 (NxN), but the size of the simplified transformation matrix is reduced to 16x64 (RxN).
  • Memory usage can be reduced by R/N ratio.
  • the number of multiplication operations can be reduced (RxN) at an R/N ratio when a simplified transformation matrix is used.
  • the transform unit 232 of the encoding apparatus 200 may derive transform coefficients for the target block by performing a primary transform and an RST-based secondary transform on residual samples of the target block. These transform coefficients may be delivered to the inverse transform unit of the decoding device 300, and the inverse transform unit 322 of the decoding device 300 derives modified transform coefficients based on the inverse reduced secondary transform (RST) of the transform coefficients. and derive residual samples for the target block based on the inverse primary transform of the modified transform coefficients.
  • RST inverse reduced secondary transform
  • the size of the inverse RST matrix T NxR is NxR smaller than the size NxN of a normal inverse transform matrix, and has a transpose relationship with the simplified transform matrix T RxN shown in Equation 1.
  • the matrix T t in the Transform block may mean an inverse RST matrix T RxN T (the superscript T means transpose).
  • T means transpose
  • modified transform coefficients of the target block or residual samples of the target block may be derived.
  • the inverse RST matrix T RxN T may be expressed as (T RxN ) T NxR .
  • modified transform coefficients for the target block may be derived when transform coefficients for the target block are multiplied by the inverse RST matrix T RxN T .
  • an inverse RST may be applied as an inverse primary transform.
  • residual samples of the target block may be derived by multiplying the transform coefficients of the target block by the inverse RST matrix T RxN T .
  • the inverse RST according to (b) of FIG. 7 is It can be expressed as a matrix operation such as Equation 4 below.
  • Equation 4 c 1 to c 16 may represent transform coefficients of the target block, that is, transform coefficients derived through residual coding.
  • r i representing modified transform coefficients of the target block or residual samples of the target block may be derived, and the process of deriving r i may be the same as Equation 5.
  • Equation 5 r 1 to r N representing modified transform coefficients of the target block or residual samples of the target block may be derived. Since N is 64 in Equation 4, 64 modified transform coefficients can be derived through Equation 5.
  • the size of the normal inverse transformation matrix is 64x64 (NxN), but the size of the simplified inverse transformation matrix is reduced to 64x16 (NxR).
  • memory usage can be reduced by R/N ratio.
  • NxR the number of multiplication operations
  • a simplified inverse transform matrix or inverse transform matrix may also be named a simplified transform matrix or a transform matrix if it is not confusing whether it is a transform or an inverse transform.
  • a maximum of 16 x 48 transformation kernel is obtained by selecting only 48 data instead of a 16 x 64 transformation kernel matrix for 64 data constituting an 8 x 8 area. matrix can be applied.
  • maximum means that the maximum value of m is 16 for an m x 48 transform kernel matrix capable of generating m coefficients.
  • m coefficients can be generated by receiving 48 pieces of data.
  • m 16 data are input and 16 coefficients are generated. That is, assuming that 48 pieces of data form a 48 x 1 vector, a 16 x 1 vector can be generated by sequentially multiplying a 16 x 48 matrix and a 48 x 1 vector.
  • the column vectors of Equation 2 are r 1 to r 48
  • the size of the transform matrix is 16x48
  • 16 modified transform coefficients (c 1 to c 16 ) are derived through matrix operation.
  • a 48 x 1 vector can be formed by appropriately arranging 48 pieces of data constituting an 8 x 8 area.
  • a 48 x 1 vector may be constructed based on 48 pieces of data constituting an area excluding the 4 x 4 area at the bottom right of the 8 x 8 area.
  • 16 modified transformation coefficients are generated.
  • the 16 modified transformation coefficients can be arranged in the upper left 4 x 4 area according to the scanning order and the upper right area.
  • the 4 x 4 area and the lower left 4 x 4 area can be filled with zeros.
  • a transposed matrix of the transformation kernel matrix described above may be used. That is, when inverse RST or inverse LFNST is performed as an inverse transformation process performed by the decoding device, the input coefficient data to which inverse RST is applied is composed of a 1-dimensional vector according to a predetermined arrangement order (diagonal scanning order), and the 1-dimensional vector
  • the modified coefficient vector obtained by multiplying the corresponding inverse RST matrix from the left side may be arranged in a two-dimensional block according to a predetermined arrangement order.
  • the size of the transformation matrix of Equation 4 is 48 x 16
  • the column vectors are c 1 to c 16
  • the nx1 vector can be interpreted in the same sense as an nx1 matrix, it can also be expressed as an nx1 column vector.
  • * means matrix multiplication operation.
  • 48 modified transform coefficients can be derived, and the 48 modified transform coefficients can be arranged in the upper left, upper right, and lower left areas of the 8x8 area except for the lower right area.
  • Embodiment 1 Method for constructing a region of interest (ROI) representing an input data area based on forward LFNST
  • Forward LFNST receives as input the transform coefficients to which the first transform is applied.
  • transform coefficients belonging to a specific region predefined in the transform block may be received as inputs.
  • this input region that is, the region of input transform coefficients input for the forward LFNST is referred to as Region Of Interest or ROI.
  • FIG. 8(b) shows that the 4th to 6th subblocks are added to the ROI in the scan order of the 4x4 subblock shown in FIG. 8(a). That is, since the ROI is composed of 6 4x4 sub-blocks, the ROI of FIG. 8 (b) is composed of 96 samples based on the samples (here, transform coefficients to which the first transform is applied). Compared to the ROI of FIG. 8 (a) used for VVC, in the case of FIG. 8 (b), more primary transform coefficients can be considered in the LFNST.
  • An extended LFNST (LFNST) based on such an extended ROI can provide higher encoding performance for a larger block (i.e., larger than or equal to 16x16) than the existing VVC LFNST.
  • an NxN transformation matrix is derived when the corresponding transformation matrix is a square matrix.
  • the R value may be equal to or smaller than N, and the R value is the number of output transform coefficients derived by applying LFNST in terms of forward LFNST. can be interpreted Therefore, the dimension of the LFNST transformation kernel corresponding to FIG. .
  • the R value may be any positive integer equal to or smaller than N (i.e., 96).
  • an Rx96 matrix from a 96x96 square matrix it can be generated by sampling R rows from the 96x96 matrix based on the forward LFNST. If the rows constituting the 96x96 matrix are arranged in order of importance from the top, the Rx96 matrix can be constructed by sequentially sampling R rows from the top.
  • the ROIs in FIG. 8(a) and FIG. 8(b) are composed of 48 and 96 input samples (input conversion coefficients or input data), respectively.
  • the order of reading input samples in the ROI can be set in advance, but basically the order can be arbitrarily set. More specifically, when the forward LFNST matrix applied to an arbitrary ROI is an RxN matrix (ie, the ROI consists of N input samples), even if the order in which the input samples are read is changed, N column vectors are written in the changed order. If rearranged accordingly, the output value does not change regardless of the order of the input samples when compared to before the change (the output value consists of R transform coefficients).
  • input samples constituting the ROI may be read in the order shown in FIG. 9 or FIG. 10 and configured as an input vector.
  • 9A to 10B show a sequence of reading input data from an ROI according to an intra prediction mode.
  • FIGS. 9A and 10A correspond to (a) of FIG. 8, and FIGS. 9B and 10B correspond to (b) of FIG.
  • row priority order is applied to modes -14 to -1 and 2 to 33 of FIG. 5 as shown in FIGS. 9A and 9B.
  • 10a and 10b may be applied to modes 35 to 80.
  • the order of FIGS. 9A and 9B may be applied as it is to modes 0, 1, and 34 indicating planar mode and DC mode, or FIGS. 9A and 9B or FIGS. 10A and 10B may be applied for each mode. there is.
  • the upper left quadrangular area of the transform block may be set as the ROI. That is, in the MxN transform block, the upper left m x n (m ⁇ M, n ⁇ N) region can be set as the ROI, and the number of input samples (transform coefficients that have undergone the primary transform) is m x n in terms of the forward LFNST.
  • both m and n may be 8, and the dimension of the forward LFNST matrix may be R x 64 (R is less than or equal to 64, and examples of R values are 16, 32, 48, 64, etc.).
  • a method of selecting R rows from an mn x mn square matrix (eg, a 64x64 matrix) may be the same as the method of generating an Rx96 matrix from a 96x96 described above.
  • a 4x4 subblock may correspond to a transform group (Coefficient Group, CG) for transform blocks to which LFNST can be applied, but this CG is not necessarily a 4x4 subblock.
  • the CG may be any predefined p x q sub block other than a 4x4 sub block.
  • CG transform group
  • the order of reading the ROI input samples of the forward LFNST regardless of the subblock configuration is specified as shown in FIGS. 9a and 9b or FIGS. 10a and 10b. order, and transform coefficients output by the forward LFNST may be arranged according to the scan order for the corresponding CG and transform coefficients.
  • the intra prediction mode symmetrical for one MxN transform block e.g., mode 34 is centered As two modes that are symmetric with , modes 24 and 44
  • symmetry cannot be used.
  • 11 is a diagram illustrating a non-square ROI according to an embodiment of the present document. As shown in (a) of FIG. 11, when the ROI is non-square, when input samples are read in the row-major direction and in the column-major direction, the phases of the transform coefficients are not aligned in the two cases.
  • Symmetry cannot be used because In this case, two symmetric modes in one MxN block cannot share the LFNST kernel by using the symmetry of the prediction direction, but between the MxN transform block and the NxM transform block, the intra prediction mode is symmetric around mode 34. symmetry can be used.
  • the second mode and the 66th mode are performed in the order shown in FIG. 11 (b).
  • Input samples can be read according to That is, for the second mode, input samples may be read according to the left order of FIG. 11(b), and for the 66th mode, input samples may be read according to the right order of FIG. 11(b). If the input samples are read using the symmetry of the two prediction modes in this way, the same LFNST kernel can be applied to the two ROIs of FIG. 11(b).
  • ROIs with somewhat irregular shapes can also be applied to the LFNST.
  • the ROI may be composed of lines having different lengths, and the ROI may be composed of segments of non-contiguous samples.
  • LFNST_4x4 a transform block whose horizontal and vertical lengths are both greater than or equal to 4 and the horizontal or vertical length is 4
  • LFNST_4x4 the 16x16 that can be applied to the upper left 4x4 area LFNST kernel with matrix form
  • the ROI consists of an upper left 4x4 subblock, a 4x4 subblock to the right of the upper left 4x4 subblock, and a 4x4 subblock adjacent to the lower side of the upper left 4x4 subblock.
  • an LFNST kernel with a 16x48 matrix form is applied to the ROI based on the forward LFNST (which can be named LFNST_8x8).
  • LFNST_4x4 and LFNST_8x8 each consist of 4 sets, each set consists of 2 transform kernels, and which set of kernels to apply is determined by the intra prediction mode. For the determined set, which of the two kernels to apply and whether to apply LFNST is specified through signaling of the LFNST index. If the LFNST index value is 0, LFNST is not applied, if it is 1, the first kernel is applied, and if it is 2, the second kernel is applied.
  • the LFNST structure in the VVC standard has been simplified and described, but there are also some exceptions.
  • an 8x16 matrix and an 8x48 matrix sampled from the corresponding matrix are applied as forward LFNST instead of a 16x16 matrix and a 16x48 matrix, respectively.
  • the intra prediction mode is applied.
  • the LFNST set is determined.
  • LFNST_4x4 and LFNST_8x8 each consist of four LFNST sets
  • a group of LFNST sets named LFNST_4x4 or LFNST_8x8 can be represented as an LFNST set list for convenience of description below.
  • LFNST_8x8 may indicate an LFNST set list applied to a transformation block in which both the horizontal and vertical lengths are greater than or equal to 8 and the horizontal or vertical length is 8, and additionally, the horizontal and vertical lengths are greater than 16.
  • the LFNST set list applied to transform blocks that are greater than or equal to can be named LFNST_16x16.
  • LFNST_4x4, LFNST_8x8, and LFNST_16x16 may have are as follows.
  • the transformation matrix is based on when forward transformation is applied.
  • LFNST_4x4 can have a 16x16 matrix, and the ROI can be the upper left 4x4 area.
  • LFNST_8x8 can have an Rx48 matrix or an Sx64 matrix, and 16, 32, and 48 are possible as R values, and 16, 32, 48, and 64 are possible as S values.
  • the ROI for the Rx48 matrix may be (a) of FIG. 8, and the ROI for the Sx64 matrix may be an 8x8 area in the upper left corner.
  • LFNST_16x16 can have Rx96 matrix, Sx64 matrix or Tx48 matrix, R value can be 16, 32, 48, 64, 80, 96, S value can be 16, 32, 48, 64 and T value 16, 32, and 48 are possible.
  • the ROI for the Rx96 matrix may be (b) of FIG. 8
  • the ROI for the Sx64 matrix may be an 8x8 area in the upper left corner
  • the ROI for the Tx48 matrix may be (a) of FIG.
  • LFNST_4x4x4 As an architecture for LFNST_4x4, LFNST_8x8, and LFNST_16x16, any combination of matrix dimensions and ROI suggested in Nos. 1, 2, and 3 above is possible.
  • the ROI of the upper left 4x4 area is applied to a 16x16 matrix
  • the ROI of the upper left 8x8 area is applied to the 32x64 matrix
  • the ROI as shown in (b) in FIG. 8 is applied to the 32x96 matrix
  • the LFNST set and LFNST kernel can be shared for the pair. For example, if the matrix dimension of LFNST_8x8 is 32x64 and the matrix dimension of LFNST_16x16 is 32x64, the same LFNST set list can be assigned to LFNST_8x8 and LFNST_16x16, and the same ROI can be set (for example, the ROI can be set to the upper left 8x8 region). can be set).
  • the same LFNST set list can be assigned to LFNST_8x8 and LFNST_16x16 and the same ROI can be set (for example, the ROI can be set in FIG. 8 can be set as in (a) of).
  • N output samples (output transform coefficients) are generated.
  • the NxR matrix becomes a transposed matrix of the RxN matrix in the forward LFNST, and N output samples may be arranged in ROIs of FIGS. 8 to 14 .
  • the order shown in FIG. 9 or 10 may be followed according to the intra prediction mode value.
  • the row priority order of FIG. 9 is applied to intra prediction modes -14 to -1 and 2 to 33
  • the column priority order of FIG. 10 is applied to modes 35 to 80. can be applied.
  • modes 0, 1, and 34 indicating planar mode and DC mode the order of FIGS. 9A and 9B may be applied, or the order of FIGS. 9A and 9B or 10A and 10B may be applied for each mode. can
  • Embodiment 2 How to construct output data based on forward LFNST
  • the scan order for transform coefficients is hierarchically configured. There is a scan order of CGs and an internal scan order for each CG. 12 is a diagram showing the order of scanning these transform coefficients. As shown in FIG. 12, the scanning sequence proceeds in a diagonal direction from the lower left to the upper right. In FIG. 12, a small square represents one transform coefficient and a number inside the small square indicates a scan order.
  • the first scan line consists of 1 CG
  • the second and third scan lines consist of 2 and 3 CGs, respectively, and the same
  • the Nth scan line also consists of a plurality of CGs.
  • the ROIs shown in FIG. 8(a) and FIG. 8(b) are all composed of these CG-unit scan lines.
  • 8(a) and 8(b) show an ROI composed of the first 2 scan lines and 3 scan lines, respectively, and naturally, the ROI may consist of more scan lines.
  • R when the number of output transform coefficients in the forward LFNST criterion is R and the number of input samples is N, R may be set to be less than or equal to N.
  • a transform coefficient is parsed in a region other than a region in which the LFNST transform coefficient may exist, signaling of the LFNST index may be omitted and it may be inferred that the LFNST is not applied.
  • an area in which LFNST transform coefficients may exist is configured in units of 4x4 subblocks and residual coding is performed in units of corresponding 4x4 subblocks, it is checked whether transform coefficients exist in areas other than the area in which LFNST transform coefficients may exist. It can be done more simply.
  • the CG may have a shape other than a 4x4 sub-block, and in this case (e.g. m x n block, m ⁇ n), the R value may be set to a multiple of m x n.
  • CGs in which forward LFNST output transform coefficients may exist may be composed of first k CGs arranged according to the scanning order of CGs.
  • the output coefficients of the forward LFNST can be arranged according to the transform coefficient scanning order.
  • row vectors of the forward LFNST kernel are arranged from top to bottom in order of importance, so if the transform coefficients constituting the output vector are arranged in order from top to bottom (assuming that the output vector is a column vector here), more The coefficients can be arranged sequentially, starting with significant coefficients.
  • the scanning order of conversion coefficients is to scan from the most important coefficient, and by scanning from the DC position indicated by the upper-left position, conversion coefficients with less importance are placed as they get farther from the DC position, and they mainly have a value of 0 or close to 0. .
  • the residual coding part is designed to increase coding efficiency when transform coefficients having 0 or values close to 0 frequently appear as the distance from the DC position increases.
  • the output transform coefficients of the forward LFNST do not necessarily have to be arranged according to one fixed scan order. That is, according to another embodiment, the output transform coefficients of the LFNST may be sorted according to an order other than the scan order.
  • the LFNST-specific scan order is not the pre-determined scan order. may be applied.
  • a different scan order is applied to forward LFNST output transform coefficients for each intra prediction mode (or group of intra prediction modes). can do.
  • Embodiment 3 Method of applying various LFNST set lists/LFNST sets/LFNST kernels according to the size of a transform block
  • LFNST set unlike the LFNST set list, LFNST set, and LFNST kernel configuration per set in VVC (here, the LFNST kernel configuration per set indicates which LFNST set consists of how many candidate kernels, etc.), conversion
  • the LFNST set list can be further subdivided and applied for each block size.
  • LFNST_MxN a different LFNST set list may be applied to every possible transform block shape (ie, every possible MxN block), and the corresponding set list may be expressed as, for example, LFNST_MxN.
  • a corresponding LFNST set list may be applied to each group by grouping transform block shapes.
  • two types of LFNST set lists are applied, namely LFNST_4x4 and LFNST_8x8, divided into two groups according to the shape of the transform block. Examples of other groupings are as follows.
  • a separate group may be set for cases where both the horizontal and vertical lengths of the transform block are equal to or greater than 16, and an LFNST set list applied to the group may be allocated.
  • the LFNST set list may be named LFNST_16x16.
  • Group 1 can be further divided into 4x4 transform blocks and 4xN/Nx4 (N ⁇ 8), and can be classified as Group 1A and Group 1B.
  • Group 2 can also be divided into 8x8 transform blocks and 8xN/Nx8 (N ⁇ 16) transform blocks, and can be divided into Group 2A and Group 2B.
  • Group 3 can be divided into Group 3A and Group 3B through a specific criterion. For example, 16x16 and 16xN/Nx16 (N ⁇ 16) transform blocks may be set as Group 3A, and the remaining cases may be classified as Group 3B.
  • Group 1, Group 2, and Group 3 may or may not be divided into detailed groups as described above.
  • the entire group may be configured as Group 1A, Group 1B, Group 2, Group 3A, and Group 3B.
  • Group 1, Group 2, and Group 3 are all divided, the groups can be classified as Group 1A, Group 1B, Group 2A, Group 2B, Group 3A, and Group 3B.
  • grouping can be applied according to various criteria based on the size of the transform block, and a corresponding LFNST set list can be assigned to each group.
  • This LFNST set list may be configured differently for each group.
  • the number of kernels per LFNST set constituting the LFNST set list can be set differently (e.g. the number of LFNST kernels per set of 3 for Group 1 and the number of LFNST kernels per set of 2 for Group 2, i.e. For Group 1, the number of LFNST kernels constituting the set is set for every 3 sets, and for Group 2, the number of LFNST kernels constituting the set is set for every 2 sets), and in more detail, the LFNST set constituting one LFNST set list
  • the number of kernels constituting the set may be set differently for each set.
  • the number of LFNST sets included in each LFNST set list may be set differently.
  • Group 1 may consist of 18 LFNST sets and Group 2 may consist of 10 LFNST sets.
  • the dimension of the kernel matrix may be set differently according to the LFNST set list. Taking the VVC standard as an example, LFNST_4x4 consists of a 16x16 matrix and LFNST_8x8 consists of a 16x48 matrix.
  • the dimension of the kernel matrix may be set differently for each LFNST set constituting the LFNST set list.
  • a specific example of the detailed configuration of the LFNST set list is as follows.
  • Group 1 (LFNST_4x4) consists of 18 LFNST sets, and each LFNST set consists of 3 kernels, and the dimension of the corresponding kernel matrix may be 16x16.
  • Group 2 (LFNST_8x8) consists of 18 LFNST sets, and each LFNST set consists of 3 kernels, and the dimension of the corresponding kernel matrix may be 16x48.
  • Group 3 (LFNST_16x16) consists of 18 LFNST sets, and each LFNST set consists of 3 kernels, and the dimension of the corresponding kernel matrix may be 32x96.
  • all LFNST sets can be configured with 2 kernels instead of 3 kernels.
  • All LFNST set lists in the above configuration can be configured with a different number of sets than 18.
  • the LFNST set list may consist of 16, 15, 10, 6, or 4 transform sets.
  • the dimensions of the kernel matrices constituting LFNST_8x8 may be set to 32x48 to 48x48.
  • the dimensions of the kernel matrices constituting LFNST_16x16 may be set to one of 16x96, 48x96, 64x96, 80x96, and 96x96.
  • 96 represents the number of input samples (input transform coefficients) constituting the ROI in terms of the forward LFNST, and the ROI may be configured as shown in FIG. 8(b). If the ROI corresponding to LFNST_16x16 is configured as shown in FIG. 8 (a) instead of FIG.
  • No. 2 No. 3, No. 4, and No. 5 above can be freely combined.
  • number 3 the number of LFNST sets is set to 15, and by applying number 4, the dimensions of the kernel matrices constituting LFNST_8x8 may be set to 32x48.
  • an LFNST set list, an LFNST set, and an LFNST kernel may be applied based on a coding tool and a configured mode.
  • LFNST set lists LFNST sets
  • LFNST kernels may be applied according to a range of quantization parameter (QP) values.
  • QP quantization parameter
  • the LFNST set list applied to the low QP range and the LFNST set list applied to the high QP range may be separately used.
  • the low QP range may represent a case below a predefined threshold QP value
  • the high QP range may represent a case exceeding a predefined QP value.
  • the threshold QP value 27, 28, 29, 30, 31, etc. may be used.
  • all possible QP values can be partitioned into N sets.
  • the N sets may not include overlapping values. That is, when two different sets are selected among N sets, the intersection between the two sets may be an empty set.
  • a different LFNST set list, LFNST set, and LFNST kernel may be applied to each of the N sets.
  • LFNST set lists when there are M possible LFNST set lists, a mapping relationship between the N sets and the M LFNST set lists may be formed. That is, the LFNST set list mapped to each of the N sets may be any one of the M LFNST set lists. Naturally, LFNST set lists mapped to N sets may overlap each other.
  • LFNST_4x4 and LFNST_8x8 exist as LFNST set lists, or LFNST_4x4, LFNST_8x8, and LFNST_16x16 exist, as described above, if M LFNST set lists exist, M LFNST sets for LFNST_4x4, LFNST_8x8, and LFNST_16x16, respectively.
  • LFNST_4x4_1, LFNST_8x8_1 or LFNST_16x16_1 for the low QP range may be mapped, and for the high QP range, LFNST_4x4_2, LFNST_8x8_2, or LFNST_16x16_2 may be mapped according to the transform block size.
  • LFNST_4x4, LFNST_8x8, and LFNST_16x16 is expressed as (LFNST_4x4, LFNST_8x8, LFNST_16x16), or a pair of LFNST_4x4, LFNST_8x8 is expressed as (LFNST_4x4, LFNST_8x8)
  • the tuple or pair of the ith LFNST set list is (xLFNST_4x16_i6_i, LFNST_8x4_i, LFNST).
  • it can be expressed as (LFNST_4x4_i, LFNST_8x8_i).
  • mapping to the i th LFNST set list means that they are mapped to (LFNST_4x4_i, LFNST_8x8_i, LFNST_16x16_i) or (LFNST_4x4_i, LFNST_8x8_i).
  • mapping to one of the M LFNST set lists according to QP values may mean that an LFNST set list mapped to each QP value exists and that the corresponding LFNST set list is applied. For example, if the corresponding LFNST set list is the jth LFNST set list, (LFNST_4x4_j, LFNST_8x8_j, LFNST_16x16_j) may be applied.
  • LFNST set list when there are M applicable LFNST set lists as described above, it is not a method of applying the LFNST set list for a specific condition (range of QP values) based on whether a specific condition (range of QP values) is satisfied, but a higher order list. It can be configured to specify the LFNST set list through a level syntax element (hereinafter also referred to as an HLS element).
  • HLS element level syntax element
  • the corresponding HLS element is the Sequence Parameter Set (SPS), Picture Parameter Set (PPS), and Picture Header (PH), which are syntax tables that collect high-level syntax elements. It may be located in the Slice Header (SH) or the like. In this regard, a corresponding HLS element may have a value from 0 to M-1 to designate one of M possible LFNST set lists.
  • SPS Sequence Parameter Set
  • PPS Picture Parameter Set
  • PH Picture Header
  • SH Slice Header
  • a corresponding HLS element may have a value from 0 to M-1 to designate one of M possible LFNST set lists.
  • the corresponding HLS element may be related to LFNST set list index information.
  • the LFNST set list index information may be located in SPS, PPS, PH, SH, and the like.
  • the LFNST set list index information may have a value from 0 to M-1 to designate one of M possible LFNST set lists.
  • LFNST_4x4, LFNST_8x8, LFNST_16x16, or LFNST_4x4 and LFNST_8x8 exist, and the ith LFNST set list is designated by the LFNST set list index information, (LFNST_4x4_i, LFNST_8x8_i, LFNST_16x16_i) or (LFNST_4x4_i, LFNST_8x8_i) may be applied.
  • the value of the LFNST set list index information can be inferred as a specific value, and the LFNST set list designated by the inferred value will be the default LFNST set list.
  • the default LFNST set list is the kth LFNST set list
  • the default LFNST set list may be (LFNST_4x4_k, LFNST_8x8_k, LFNST_16x16_k) or (LFNST_4x4_k, LFNST_8x8_k).
  • a different LFNST set list may be applied for each transform block size.
  • LFNST_4x4 and LFNST_8x8 as in the VVC standard, 4x4, 4xN/Nx4 (N ⁇ 8), 8x8, 8xN/Nx8 (N ⁇ 16), 16x16, 16xN/Nx16 (N ⁇ 32 ), different LFNST set lists can be applied to cases of 32x32 or more (both horizontal and vertical lengths are 32 or more).
  • LFNST set list for each block size set can be expressed as LFNST_4x4, LFNST_4xN_Nx4, LFNST_8x8, LFNST_8xN_Nx8, LFNST_16x16, LFNST_16xN_Nx16, LFNST_32x32.
  • the i th LFNST set The list can be expressed as a tuple (LFNST_4x4_i, LFNST_4xN_Nx4_i, LFNST_8x8_i, LFNST_8xN_Nx8_i, LFNST_16x16_i, LFNST_16xN_Nx16_i, LFNST_32x32_i).
  • LFNST_4x4 and LFNST_8x8 each indicating an LFNST set list, may each consist of four LFNST sets, and the four LFNST sets may be distinguished by index values of 0, 1, 2, and 3. That is, the LFNST sets can be classified as the 0th LFNST set, the 1st LFNST set, the 2nd LFNST set, and the 3rd LFNST set, and the LFNST set index for each LFNST set has a value of 0, 1, 2 or 3. can have
  • the VVC standard may support a Wide Angle Intra Prediction (WAIP) mode, where the WAIP mode is a mode from -14 to -1 and modes from 67 to 80 among intra prediction modes.
  • WAIP Wide Angle Intra Prediction
  • an existing first LFNST set may be mapped and used for WAIP mode without allocating a separate LFNST set for WAIP mode. That is, as shown in Table 2 below, the first LFNST set is mapped for each intra prediction mode value from -14 to 80.
  • Intra pred. mode may indicate an intra prediction mode for the current block, and the intra pred. If the value of mode is one of -14 to -1 and 67 to 80, it may indicate that the intra prediction mode for the current block is the WAIP mode.
  • a larger number of LFNST sets may be introduced, and separate LFNST sets may be allocated for WAIP mode. If separate LFNST sets are not allocated to the WAIP mode, the first LFNST set may be allocated as shown in Table 2 above.
  • NAIP Normal Angle Intra Prediction
  • LFNST set index values are allocated from 0 to N-1 for N LFNST sets for NAIP mode, and LFNST set index values are assigned from N to N+M-1 for M LFNST sets for WAIP mode. can be assumed to be allocated.
  • examples of a mapping table between the intra prediction mode and the LFNST set for the first to sixth embodiments may be shown in Tables 3 to 8, respectively.
  • Intra pred in Tables 3 to 8 above. mode may indicate an intra prediction mode for the current block, and the intra pred. If the value of mode is one of -14 to -1 and 67 to 80, it may indicate that the intra prediction mode for the current block is the WAIP mode.
  • LFNST_4x4 and LFNST_8x8 that is, a LFNST matrix
  • the LFNST matrix below can be applied when the ROI for LFNST_8x8 is 4x4 subblocks from the top left of the transform target block to the third position in the scan order (FIG. 8(a)).
  • Tables 9 to 18 below show examples of kernel coefficient data for LFNST_4x4 applicable to 4xN or Nx4 blocks (N ⁇ 4).
  • [ 36 ] indicates that the number of LFNST sets is 36
  • [ 3 ] indicates that the number of LNFST kernel candidates per LFNST set is 3
  • [ 16 ] [ 16 ] represents a 16x16 matrix based on the forward LFNST (the array definitions in Tables 9 to 18 are described according to C/C++ grammar).
  • 16 may represent the horizontal (x-axis) length of the matrix
  • 48 may represent the vertical (y-axis) length of the matrix.
  • Tables 9 to 18 are used for LFNST in which the number of LFNST sets is 35, the array can be represented as g_lfnst4x4[ 35 ][ 3 ][ 16 ][ 16 ].
  • An ROI to which the LFNST kernels of Tables 9 to 18 can be applied may be an upper left 4x4 region.
  • Each LFNST kernel consists of 16 transform basis vectors (row vectors), and one vector has a length of 16 ([ 16 ][ 16 ]).
  • the row-direction basis vector of the LFNST kernel (16X16 dimensional matrix) of Tables 9 to 18 and the transform coefficient may be multiplied during matrix operation.
  • the transform coefficient may be multiplied by the row-direction basis vector of the kernel (16X16 dimensional matrix) in which the LFNST kernel below is transposed.
  • Tables 9-18 may represent some of the 36 LFNST sets. As described above, the LFNST set may be selected according to the intra prediction mode and may be mapped according to Table 3 or Table 4. According to Table 3, 35 LFNST sets are used, and according to Table 4, 36 LFNST sets are used. Tables 9 to 18 may be kernels corresponding to specific set numbers among 35 or 36 sets.
  • Table 9 and Table 10 show three LFNST kernels applied when the LFNST set index of Table 3 or Table 4 is 0 (when the intra prediction mode is planner mode), and Table 11 and Table 12 show the values of Table 3 or Table 4.
  • Table 13 and Table 14 show three LFNST kernels applied when the LFNST set index is 1 (when the intra prediction mode is DC mode), and Table 13 and Table 14 show when the LFNST set index in Table 3 or Table 4 is 2 (when the intra prediction mode is DC mode).
  • Table 15 and Table 16 are applied when the LFNST set index of Table 3 or Table 4 is 18 (when the intra prediction mode indicates the horizontal direction or the vertical direction).
  • Table 17 and Table 18 may indicate three LFNST kernels applied when the LFNST set index of Table 3 or Table 4 is 34 (when the intra prediction mode indicates the upper-left direction).
  • Tables 19 to 33 below show examples of kernel coefficient data for LFNST_8x8 applicable to 8xN or Nx8 blocks (N ⁇ 8).
  • g_lfnst8x8[ 36 ][ 3 ][ 16 ][ 48 ] array of Tables 19 to 33 [ 36 ] indicates that the number of LFNST sets is 36, and [ 3 ] indicates that the number of LNFST kernel candidates per LFNST set is 3, [ 16 ] [ 48 ] represents a 16x48 matrix based on the forward LFNST (the corresponding array definitions in Tables 19 to 33 are described according to C/C++ grammar). If Tables 19 to 33 are used for LFNST in which the number of LFNST sets is 35, the array can be represented as g_lfnst8x8[ 35 ][ 3 ][ 16 ][ 48 ].
  • the ROI to which the LFNST kernels in Tables 19 to 33 can be applied may be an area excluding the 4x4 area at the bottom right from the 8x8 area at the top left.
  • Each LFNST kernel consists of 16 transform basis vectors (row vectors), and one vector has a length of 48 ([ 16 ][ 48 ]).
  • the transform coefficient may be multiplied by the row-direction basis vector of the LFNST kernel (16X48 dimensional matrix) of Tables 19 to 33 during matrix operation.
  • the transform coefficient may be multiplied by the row-direction basis vector of the kernel (48X16 dimensional matrix) in which the LFNST kernel below is transposed.
  • Tables 19-33 may represent some of the 36 LFNST sets. As described above, the LFNST set may be selected according to the intra prediction mode and may be mapped according to Table 3 or Table 4. According to Table 3, 35 LFNST sets are used, and according to Table 4, 36 LFNST sets are used. Tables 19 to 33 may be kernels corresponding to specific set numbers among 35 or 36 sets.
  • Tables 19 to 21 show three LFNST kernels applied when the LFNST set index of Table 3 or Table 4 is 0 (when the intra prediction mode is the planner mode), and Tables 22 to 24 show the values of Table 3 or Table 4.
  • Tables 25 to 27 show three LFNST kernels applied when the LFNST set index is 1 (when the intra prediction mode is DC mode), and Tables 25 to 27 show when the LFNST set index of Table 3 or Table 4 is 2 (when the intra prediction mode is Table 28 to Table 30 are applied when the LFNST set index of Table 3 or Table 4 is 18 (when the intra prediction mode indicates the horizontal direction or the vertical direction).
  • Tables 31 to 33 may show three LFNST kernels applied when the LFNST set index of Table 3 or Table 4 is 34 (when the intra prediction mode indicates the upper-left direction).
  • One LFNST kernel is represented by one table.
  • Table 19 may be the first LFNST kernel applied when the LFNST set index is 0
  • Table 20 may be the second LFNST kernel applied when the LFNST set index is 0
  • Table 21 may be the LFNST kernel applied when the LFNST set index is 0. It may be a third LFNST kernel applied when
  • FIG. 13 is a flowchart illustrating an operation of a video decoding apparatus according to an embodiment of the present document.
  • FIG. 13 Each step disclosed in FIG. 13 is based on some of the contents described above in FIGS. 5 to 12 . Accordingly, detailed descriptions of overlapping details with those described above in FIGS. 3, 5 to 12 will be omitted or simplified.
  • the decoding apparatus 300 may receive residual information about a target block from a bitstream (S1310).
  • a target block may be a coding block or a transform block to be coded or transformed.
  • the decoding device may obtain information about quantized transform coefficients from residual information and may receive various information for image decoding. More specifically, the decoding apparatus 300 may decode information about quantized transform coefficients of the target block from the bitstream, and based on the information about the quantized transform coefficients of the target block, Quantized transform coefficients can be derived.
  • information on the LFNST applied to the target block may be received, and the information on the LFNST may be included in a Sequence Parameter Set (SPS) or a slice header.
  • SPS Sequence Parameter Set
  • This information includes information on whether LFNST is applied, information on the minimum transform size to which LFNST is applied, information on the maximum transform size to which LFNST is applied, and a transform index indicating one of the transform kernels included in the transform set. It may include at least one of information about.
  • the decoding apparatus 300 may derive transform coefficients for a target block based on residual information (S1320).
  • the decoding device may derive transform coefficients by performing inverse quantization on the quantized transform coefficients of the target block.
  • the derived transform coefficients may be arranged in a reverse diagonal scan order in units of 4x4 subblocks, and transform coefficients in the 4x4 subblocks may also be arranged according to a reverse diagonal scan order. That is, transform coefficients subjected to inverse quantization may be arranged according to an inverse scan order applied in a video codec such as VVC or HEVC.
  • the decoding apparatus 300 derives a transform kernel to be applied to the inverse quadratic transform (S1330), and performs inverse quadratic transform on transform coefficients based on the derived transform kernel to modify transform coefficients. can be derived (S1340).
  • the transformation kernel is derived as a 16x16 matrix, and both the horizontal and vertical lengths of the target block are Based on being greater than or equal to 8 and having a horizontal or vertical length of 8, a transform kernel can be derived as a 48x16 matrix.
  • a transformation kernel is derived as a 64x32 matrix, and the horizontal and vertical lengths of the target block are derived. Based on the length being all 8, the 64x16 matrix sampled from the 64x32 matrix can be applied to the inverse secondary transform of the target block.
  • the inverse secondary transformation may include LFNST, that is, a non-separate secondary transformation in which RST is reflected, and the inverse secondary transformation may be performed based on the LFNST kernel, and the LFNST kernel has the number of columns It can be a non-square matrix with fewer than the number of rows.
  • LFNST can be applied to the upper left 16x16 region of a transform block larger than or equal to 16x16.
  • the meaning that a PxQ block is greater than or equal to an MxN block means that P and Q are greater than or equal to M and N, respectively.
  • LFNST may be applied to a region of 96 samples composed of 6 4x4 sub-blocks in the upper left 16x16. That is, based on some transform coefficients belonging to the upper left 16x16 region of the target block, ie, the input array, more modified transform coefficients than transform coefficients may be derived.
  • the decoding device may derive L (48 ⁇ L ⁇ 96) modified transform coefficients based on the R transform coefficients of the upper left region of the target block, and the derived L (48 ⁇ L ⁇ 96) transform coefficients. ) may be arranged in a predetermined output area.
  • R is smaller than L.
  • an MxN block is greater than a KxL block may indicate that M and N are greater than or equal to K and L, respectively, and M is greater than K or N is greater than L.
  • the number R of input transform coefficients constituting the input array and the number L of output transform coefficients arranged in the output region may be changed according to the dimension of the transform kernel. According to one example, R can be 16, 32, 48, 80, etc., and L can be 64 or 96.
  • the input array is arranged in units of 4x4 subblocks that may be arranged in forward diagonal scanning order from the DC position of the target block, and may be arranged according to the forward diagonal scanning order within the 4x4 subblock. Therefore, R, the number of transform coefficients constituting the input array, may be set to a multiple of 16, which is the number of transform coefficients in the 4x4 sub-block.
  • the output region refers to an area of input transform coefficients input to perform secondary transform in an encoding device, it may refer to an area where output transform coefficients are arranged when an inverse secondary transform is performed in a decoding device.
  • the output area may correspond to the ROI described with reference to the above-described drawings.
  • the step of deriving the modified transform coefficient may include deriving a transform kernel for transform, and the transform kernel may be derived based on a transform set derived based on an intra prediction mode applied to the target block. there is.
  • a 16x16 matrix may be configured based on Tables 9 to 18, and a 48x16 dimensional matrix may be configured based on Tables 19 to 33.
  • the size of the inverse secondary transform may be set based on the size of the target block, and based on the size of the inverse secondary transform, the number of transform sets, the number of transform kernels constituting the transform set, and the dimensions of the transform kernels At least one of them can be derived.
  • the size of the inverse secondary transform may be set to a first value.
  • the first value may be set to 2.
  • LFNST is applied to the upper-left 4x4 region of the target block, which may correspond to the aforementioned LFNST_4x4.
  • the size of the inverse secondary transform may be set to a second value based on the fact that both the horizontal and vertical lengths of the target block are greater than or equal to 8 and the horizontal and vertical lengths are 8.
  • the second value may be set to 3.
  • LFNST is applied to the 8x8 region at the upper left of the target block, which may correspond to the aforementioned LFNST_8x8.
  • the size of the inverse secondary transform may be set to a third value based on the fact that both the horizontal and vertical lengths of the target block are greater than or equal to 16.
  • the third value may be set to 4.
  • the LFNST is applied to the 16x16 region at the upper left of the target block, which may correspond to the aforementioned LFNST_16x16.
  • At least one of the number of transform sets applied to the target block, the number of transform kernels constituting the transform set, and the dimension of the transform kernel are derived based on grouping according to the size of the inverse secondary transform, that is, the size to which LFNST is applied.
  • the number of transform sets, the number of transform kernels constituting the transform set, and the dimensions of the transform kernels may be set and configured in various ways according to the size of the inverse secondary transform or the size of the target block.
  • the dimension of the transform kernel can be set to 16x16.
  • the dimension of the transform kernel can be set to 48xR or 64xS, where R is one of 16, 32, and 48, and S is 16, 32, 48, and 64 can be set to any one of.
  • the dimension of the transform kernel is set to any one of 96xR, 64xS or 48xT, R is any one of 16, 32, 48, 64, 80, 96, and S is any one of 16, 32, 48, and 64, and T may be set to any one of 16, 32, and 48.
  • LFNST4x4 is applied.
  • the dimension of the transform kernel may be 16x16.
  • the conversion kernel may be set to a 48x16 matrix based on the fact that both the horizontal and vertical lengths of the target block are greater than or equal to 8 and the horizontal or vertical length is 8, that is, when LFNST_8x8 is applied. there is.
  • the decoding apparatus 300 may derive residual samples for the target block based on the inverse primary transform of the modified transform coefficients (S1350).
  • the decoding apparatus 300 may perform an inverse primary transform on the modified transform coefficients of the target block.
  • a simplified inverse transform may be applied or a normal separation transform may be used for the inverse primary transform.
  • the LFNST may also be applied to a target block to which DST-7, DCT-8, or Karhunen Loeve Transform (KLT) is applied as an inverse primary transform.
  • KLT Karhunen Loeve Transform
  • LFNST may also be applied to a target block to which transform skip is applied to horizontal transformation or vertical transformation.
  • transformation kernel DCT-2, DST-7, DCT-8, etc.
  • the number of transformation sets the number of transformation kernels constituting the transformation set, and the dimensions of the transformation kernels, etc.
  • Various combination designs are possible.
  • the decoding apparatus 300 may generate a reconstructed picture based on residual samples of the target block and prediction samples of the target block (S1360).
  • LFNST may be applied not only to intra prediction but also to a target block from which prediction samples are derived based on inter prediction.
  • Transform sets, transform kernels, and the like may be designed in various ways according to motion information and characteristics of motion vectors.
  • FIG. 14 is a flowchart illustrating the operation of a video encoding device according to an embodiment of the present document.
  • FIG. 14 Each step disclosed in FIG. 14 is based on some of the contents described above in FIGS. 5 to 12 . Therefore, descriptions of details overlapping with those described above in FIGS. 2 and 5 to 12 will be omitted or simplified.
  • the encoding apparatus 200 may derive prediction samples based on a prediction mode applied to a target block (S1410).
  • LFNST may be applied not only to intra prediction but also to a target block from which prediction samples are derived based on inter prediction.
  • transform sets and transform kernels which will be described later, can be designed in various ways.
  • the encoding apparatus 200 may derive residual samples for a target block based on prediction samples (S1420).
  • the encoding apparatus 200 may derive transform coefficients for the target block based on the primary transform for the residual sample (S1430).
  • the primary transform may be performed through a plurality of transform kernels, and in this case, a transform kernel may be selected based on an intra prediction mode.
  • a simplified inverse transform may be applied or a normal separation transform may be used.
  • DCT-2, DST-7, DCT-8, or Karhunen Loeve Transform may be applied as the primary transform
  • DST-7 instead of DCT-2 as the primary transform
  • LFNST can also be applied to a target block to which DCT-8 or KLT is applied.
  • LFNST may also be applied to a target block to which transform skip is applied to horizontal transformation or vertical transformation.
  • the number of transform sets applied to the LFNST, the number of transform kernels constituting the transform set, and the transform kernel according to the transform kernel (DCT-2, DST-7, DCT-8, etc.) applied to the primary transform or the combination of transform kernels It is possible to design a variety of combinations for the dimension of .
  • the encoding apparatus 200 derives a transform kernel to be applied to a secondary transform (S1440), and performs a secondary transform on transform coefficients based on the derived transform kernel to perform a modified transform on a target block. Coefficients may be derived (S1450).
  • the transformation kernel is derived as a 16x16 matrix, and both the horizontal and vertical lengths of the target block are Based on being greater than or equal to 8 and having a horizontal or vertical length of 8, a transform kernel can be derived as a 16x48 matrix.
  • a transformation kernel is derived as a 32x64 matrix, and the horizontal and vertical lengths of the target block are derived. Based on the length being all 8, a 16x64 matrix sampled from a 32x64 matrix may be applied to the secondary transform of the target block.
  • the secondary transformation may include LFNST, that is, a non-separate secondary transformation in which RST is reflected, and the secondary transformation may be performed based on the LFNST kernel, and the LFNST kernel determines that the number of rows is the number of columns. It can be a non-square matrix with less than the number.
  • LFNST can be applied to the upper left 16x16 region of a transform block larger than or equal to 16x16.
  • the meaning that a PxQ block is greater than or equal to an MxN block means that P and Q are greater than or equal to M and N, respectively.
  • LFNST may be applied to a region of 96 samples composed of 6 4x4 sub-blocks in the upper left 16x16. That is, fewer modified transform coefficients than the transform coefficients may be derived based on some transform coefficients belonging to the upper left 16x16 region of the target block.
  • the encoding apparatus may perform R transform coefficients based on L (48 ⁇ L ⁇ 96) transform coefficients of the upper left region of the target block based on the size of the target block being MxN (M ⁇ 16, N ⁇ 16).
  • a modified transform coefficient can be derived.
  • the derived R modified transform coefficients may be derived as an output array according to a predetermined scanning order. R is smaller than L.
  • An input region which means a region of input transform coefficients subject to secondary transform in the encoding device, may correspond to an output region described in the decoding method and an ROI described with reference to the above-described drawings. Therefore, redundant description of the ROI is omitted.
  • the number L of input transform coefficients arranged in the input region and the number R of corrected transform coefficients derived through matrix operation may change according to the dimension of the transform kernel.
  • R can be 16, 32, 48, 80, etc.
  • L can be 64 or 96.
  • deriving the modified transform coefficient may include deriving a transform kernel for the transform, and the transform kernel is based on a transform set derived based on an intra prediction mode applied to the target block. can be derived.
  • a 16x16 matrix may be configured based on Tables 9 to 18, and a 16x48 dimensional matrix may be configured based on Tables 19 to 33.
  • the size of the secondary transform may be set based on the size of the target block, and based on the size of the secondary transform, at least one of the number of transform sets, the number of transform kernels constituting the transform set, and the dimension of the transform kernel is set. one can be derived.
  • the size of the secondary transformation may be set to a first value.
  • the first value may be set to 2.
  • LFNST is applied to the upper left 4x4 region of the target block, which may correspond to the aforementioned LFNST_4x4.
  • the size of the secondary transformation may be set to a second value based on the fact that both the horizontal and vertical lengths of the target block are greater than or equal to 8 and the horizontal and vertical lengths are 8.
  • the second value may be set to 3.
  • LFNST is applied to the upper left 8x8 region of the target block, which may correspond to the aforementioned LFNST_8x8.
  • the size of the secondary transformation may be set to a third value based on the fact that both the horizontal and vertical lengths of the target block are greater than or equal to 16.
  • the third value may be set to 4.
  • LFNST is applied to the upper left 16x16 region of the target block, which may correspond to the aforementioned LFNST_16x16.
  • At least one of the number of transform sets applied to the target block, the number of transform kernels constituting the transform set, and the dimension of the transform kernel may be derived based on grouping according to the size of the secondary transform, that is, the size to which LFNST is applied. there is.
  • the number of transformation sets, the number of transformation kernels constituting the transformation set, and the dimensions of the transformation kernels may be set and configured in various ways corresponding to the size of the secondary transformation or the size of the target block.
  • the dimension of the transform kernel can be set to 16x16.
  • the dimension of the transform kernel can be set to Rx48 or Sx64, where R is any one of 16, 32, and 48, and S is one of 16, 32, 48, and 64. can be set to either one.
  • the dimension of the transform kernel is set to any one of Rx96, Sx64 or Tx48, R is any one of 16, 32, 48, 64, 80, and 96, and S is Any one of 16, 32, 48, and 64, and T may be set to any one of 16, 32, and 48.
  • the transform applied to LFNST4x4 may be 16x16.
  • the conversion kernel may be set to a 16x48 matrix based on the fact that both the horizontal and vertical lengths of the target block are greater than or equal to 8 and the horizontal or vertical length is 8, that is, when LFNST_8x8 is applied. there is.
  • the encoding apparatus 200 may encode image information including residual information about a target block (S1460).
  • the encoding device may derive quantized transform coefficients by performing quantization based on the modified transform coefficients, and generate and encode residual information about the quantized transform coefficients.
  • the residual information may include the above-described transformation related information/syntax element.
  • the encoding device may encode image/video information including residual information and output the encoded image/video information in the form of a bitstream.
  • the encoding device may encode information on LFNST applied to the target block, and information on LFNST may be included in a Sequence Parameter Set (SPS) or a slice header.
  • SPS Sequence Parameter Set
  • This information includes information on whether LFNST is applied, information on the minimum transform size to which LFNST is applied, information on the maximum transform size to which LFNST is applied, and a transform index indicating one of the transform kernels included in the transform set. It may include at least one of information about.
  • At least one of quantization/inverse quantization and/or transform/inverse transform may be omitted. If the quantization/inverse quantization is omitted, the quantized transform coefficient may be referred to as a transform coefficient. If the transform/inverse transform is omitted, the transform coefficients may be called coefficients or residual samples, or may still be called transform coefficients for unity of expression.
  • quantized transform coefficients and transform coefficients may be referred to as transform coefficients and scaled transform coefficients, respectively.
  • the residual information may include information on transform coefficient(s), and the information on the transform coefficient(s) may be signaled through residual coding syntax.
  • Transform coefficients may be derived based on the residual information (or information about the transform coefficient(s)), and scaled transform coefficients may be derived through inverse transform (scaling) of the transform coefficients.
  • Residual samples may be derived based on an inverse transform (transform) of the scaled transform coefficients. This may be applied/expressed in other parts of this document as well.
  • the above-described method according to this document may be implemented in the form of software, and the encoding device and / or decoding device according to this document performs image processing of, for example, a TV, computer, smartphone, set-top box, display device, etc. may be included in the device.
  • a module can be stored in memory and executed by a processor.
  • the memory may be internal or external to the processor, and may be coupled with the processor in a variety of well-known means.
  • a processor may include an application-specific integrated circuit (ASIC), other chipsets, logic circuits, and/or data processing devices.
  • Memory may include read-only memory (ROM), random access memory (RAM), flash memory, memory cards, storage media, and/or other storage devices. That is, the embodiments described in this document may be implemented and performed on a processor, microprocessor, controller, or chip. For example, functional units shown in each drawing may be implemented and performed on a computer, processor, microprocessor, controller, or chip.
  • a decoding device and an encoding device to which this document applies are a multimedia broadcasting transmitting and receiving device, a mobile communication terminal, a home cinema video device, a digital cinema video device, a surveillance camera, a video conversation device, a real-time communication device such as video communication, and mobile streaming.
  • devices storage media, camcorders, video-on-demand (VoD) service providing devices, OTT video (Over the top video) devices, Internet streaming service providing devices, 3-dimensional (3D) video devices, videophone video devices, medical video devices, etc. It can be included and used to process video signals or data signals.
  • OTT over the top video
  • video devices may include game consoles, Blu-ray players, Internet-connected TVs, home theater systems, smart phones, tablet PCs, digital video recorders (DVRs), and the like.
  • the processing method to which this document is applied may be produced in the form of a program executed by a computer and stored in a computer-readable recording medium.
  • Multimedia data having a data structure according to this document may also be stored in a computer-readable recording medium.
  • the computer-readable recording medium includes all types of storage devices and distributed storage devices in which computer-readable data is stored.
  • the computer-readable recording medium includes, for example, Blu-ray Disc (BD), Universal Serial Bus (USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical A data storage device may be included.
  • the computer-readable recording medium includes media implemented in the form of a carrier wave (eg, transmission through the Internet).
  • bitstream generated by the encoding method may be stored in a computer-readable recording medium or transmitted through a wired or wireless communication network.
  • the embodiments of this document may be implemented as a computer program product using program codes, and the program codes may be executed on a computer by the embodiments of this document.
  • the program code may be stored on a carrier readable by a computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 문서(This document)에 따른 영상 디코딩 방법은 변환 계수들에 대하여 역 2차 변환을 기반으로 수정된 변환 계수들을 도출하는 단계를 포함하되, 상기 수정된 변환 계수를 도출하는 단계는 상기 역 2차 변환에 적용될 변환 커널을 도출하는 단계를 포함하고, 대상 블록의 가로 및 세로의 길이가 모두 4보다 크거나 같고, 가로 또는 세로의 길이가 4인 것에 기초하여, 상기 변환 커널은 16x16 매트릭스로 도출되고, 상기 대상 블록의 가로 및 세로의 길이가 모두 8보다 크거나 같고, 가로 또는 세로의 길이가 8인 것에 기초하여, 상기 변환 커널은 48x16 매트릭스로 도출될 수 있다.

Description

영상 코딩 방법 및 그 장치
본 문서는 영상 코딩 기술에 관한 것으로서 보다 상세하게는 영상 코딩 시스템에서 저주파 비분리 변환에 기반한 영상 코딩 방법 및 그 장치에 관한 것이다.
최근 4K 또는 8K 이상의 UHD(Ultra High Definition) 영상/비디오와 같은 고해상도, 고품질의 영상/비디오에 대한 수요가 다양한 분야에서 증가하고 있다. 영상/비디오 데이터가 고해상도, 고품질이 될수록 기존의 영상/비디오 데이터에 비해 상대적으로 전송되는 정보량 또는 비트량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 영상/비디오 데이터를 저장하는 경우, 전송 비용과 저장 비용이 증가된다.
또한, 최근 VR(Virtual Reality), AR(Artificial Realtiy) 컨텐츠나 홀로그램 등의 실감 미디어(Immersive Media)에 대한 관심 및 수요가 증가하고 있으며, 게임 영상과 같이 현실 영상과 다른 영상 특성을 갖는 영상/비디오에 대한 방송이 증가하고 있다.
이에 따라, 상기와 같은 다양한 특성을 갖는 고해상도 고품질의 영상/비디오의 정보를 효과적으로 압축하여 전송하거나 저장하고, 재생하기 위해 고효율의 영상/비디오 압축 기술이 요구된다.
본 문서의 기술적 과제는 영상 코딩 효율을 높이는 방법 및 장치를 제공함에 있다.
본 문서의 다른 기술적 과제는 다양한 조건으로 LFNST가 적용되는 영상 코딩 방법 및 장치를 제공함에 있다.
본 문서의 또 다른 기술적 과제는 샘플에 대한 연산 복잡도를 고려하여 LFNST 커널을 설정하는 영상 코딩 방법 및 장치를 제공함에 있다.
본 문서의 또 다른 기술적 과제는 부호화 성능을 향상시키고, 복잡도를 최소화할 수 있는 LFNST를 적용한 영상 코딩 방법 및 장치를 제공함에 있다.
본 문서의 일 실시예에 따르면, 디코딩 장치에 의하여 수행되는 영상 디코딩 방법을 제공한다. 상기 방법은 변환 계수들에 대본 문서의 일 실시예에 따르면, 디코딩 장치에 의하여 수행되는 영상 디코딩 방법을 제공한다. 상기 방법은 변환 계수들에 대하여 역 2차 변환을 기반으로 수정된 변환 계수들을 도출하는 단계를 포함하되, 상기 수정된 변환 계수를 도출하는 단계는 상기 역 2차 변환에 적용될 변환 커널을 도출하는 단계를 포함하고, 대상 블록의 가로 및 세로의 길이가 모두 4보다 크거나 같고, 가로 또는 세로의 길이가 4인 것에 기초하여, 상기 변환 커널은 16x16 매트릭스로 도출되고, 상기 대상 블록의 가로 및 세로의 길이가 모두 8보다 크거나 같고, 가로 또는 세로의 길이가 8인 것에 기초하여, 상기 변환 커널은 48x16 매트릭스로 도출될 수 있다.
본 문서의 일 실시예에 따르면, 인코딩 장치에 의하여 수행되는 영상 인코딩 방법을 제공한다. 상기 방법은 변환 계수에 대하여 2차 변환을 기반으로 수정된 변환 계수들을 도출하는 단계를 포함하고, 상기 수정된 변환 계수를 도출하는 단계는, 상기 2차 변환에 적용될 변환 커널을 도출하는 단계를 포함하고, 상기 대상 블록의 가로 및 세로의 길이가 모두 4보다 크거나 같고, 가로 또는 세로의 길이가 4인 것에 기초하여, 상기 변환 커널은 16x16 매트릭스로 도출되고, 상기 대상 블록의 가로 및 세로의 길이가 모두 8보다 크거나 같고, 가로 또는 세로의 길이가 8인 것에 기초하여, 상기 변환 커널은 16x48 매트릭스로 도출될 수 있다.
본 문서의 또 다른 일 실시예에 따르면, 인코딩 장치에 의하여 수행된 영상 인코딩 방법에 따라 생성된 인코딩된 영상 정보 및/또는 비트스트림이 포함된 영상 데이터가 저장된 디지털 저장 매체 및 이러한 영상 정보 및/또는 비트스트림의 전송 방법이 제공될 수 있다.
본 문서의 또 다른 일 실시예에 따르면, 디코딩 장치에 의하여 상기 영상 디코딩 방법을 수행하도록 야기하는 인코딩된 영상 정보 및/또는 비트스트림이 포함된 영상 데이터가 저장된 디지털 저장 매체 및 이러한 영상 정보 및/또는 비트스트림의 전송 방법이 제공될 수 있다.
본 문서의 일 실시예에 따르면, 전반적인 비디오/영상 압축 효율을 높일 수 있다.
본 문서의 일 실시예에 따르면, 다양한 조건을 기반으로 LFNST가 적용될 수 있다.
본 문서의 일 실시예에 따르면, 인트라 예측 모드를 기반으로 LFNST 세트 인덱스를 효율적으로 도출할 수 있다.
본 문서에 따르면 샘플에 대한 연산 복잡도를 고려하여 LFNST 커널을 설정할 수 있다.
본 문서에 따르면 부호화 성능을 향상시키고, 복잡도를 최소화할 수 있는 LFNST를 적용한 영상 코딩 방법 및 장치가 제공될 수 있다.
본 명세서의 구체적인 일례를 통해 얻을 수 있는 효과는 이상에서 나열된 효과로 제한되지 않는다. 예를 들어, 관련된 기술분야의 통상의 지식을 자긴 자(a person having ordinary skill in the related art)가 본 명세서로부터 이해하거나 유도할 수 있는 다양한 기술적 효과가 존재할 수 있다. 이에 따라 본 명세서의 구체적인 효과는 본 명세서에 명시적으로 기재된 것에 제한되지 않고, 본 명세서의 기술적 특징으로부터 이해되거나 유도될 수 있는 다양한 효과를 포함할 수 있다.
도 1은 본 문서가 적용될 수 있는 비디오/영상 코딩 시스템의 예를 개략적으로 나타낸다.
도 2는 본 문서가 적용될 수 있는 비디오/영상 인코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 3은 본 문서가 적용될 수 있는 비디오/영상 디코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 4는 본 문서가 적용되는 컨텐츠 스트리밍 시스템 구조도를 예시적으로 나타낸다.
도 5는 65개 예측 방향의 인트라 방향성 모드들을 예시적으로 나타낸다.
도 6은 본 문서의 일 실시예에 따른 변환 기법을 개략적으로 나타낸다.
도 7은 본 문서의 일 실시예에 따른 RST를 설명하기 위한 도면이다.
도 8은 본 문서의 일 실시예에 따른 순방향 LFNST 입력 영역을 도시한 도면이다.
도 9a 및 도 9b는 본 문서의 일 실시예에 따른 입력 데이터의 입력 순서를 도시한 도면이다.
도 10a 및 도 10b는 본 문서의 다른 실시예에 따른 입력 데이터의 입력 순서를 도시한 도면이다.
도 11은 본 문서의 일 실시예에 따른 비정방형의 ROI를 도시한 도면이다.
도 12는 본 문서의 일 실시예에 따른 변환 계수의 스캔 순서를 도시한 도면이다.
도 13은 본 문서의 일 실시예에 따른 비디오 디코딩 장치의 동작을 도시하는 흐름도이다.
도 14는 본 문서의 일 실시예에 따른 비디오 인코딩 장치의 동작을 도시하는 흐름도이다.
본 문서는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 문서를 특정 실시예에 한정하려고 하는 것이 아니다. 본 명세서에서 상용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 문서의 기술적 사상을 한정하려는 의도로 사용되는 것은 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
한편, 본 문서에서 설명되는 도면상의 각 구성들은 서로 다른 특징적인 기능들에 관한 설명의 편의를 위해 독립적으로 도시된 것으로서, 각 구성들이 서로 별개의 하드웨어나 별개의 소프트웨어로 구현된다는 것을 의미하지는 않는다. 예컨대, 각 구성 중 두 개 이상의 구성이 합쳐져 하나의 구성을 이룰 수도 있고, 하나의 구성이 복수의 구성으로 나뉘어질 수도 있다. 각 구성이 통합 및/또는 분리된 실시예도 본 문서의 본질에서 벗어나지 않는 한 본 문서의 권리범위에 포함된다.
이하, 첨부한 도면들을 참조하여, 본 문서의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략한다.
이 문서는 비디오/영상 코딩에 관한 것이다. 예를 들어 이 문서에서 개시된 방법/실시예는 VVC (Versatile Video Coding) 표준 (ITU-T Rec. H.266), VVC 이후의 차세대 비디오/이미지 코딩 표준, 또는 그 이외의 비디오 코딩 관련 표준들(예를 들어, HEVC (High Efficiency Video Coding) 표준 (ITU-T Rec. H.265), EVC(essential video coding) 표준, AVS2 표준 등)과 관련될 수 있다.
이 문서에서는 비디오/영상 코딩에 관한 다양한 실시예들을 제시하며, 다른 언급이 없는 한 상기 실시예들은 서로 조합되어 수행될 수도 있다. 이 문서에서 비디오(video)는 시간의 흐름에 따른 일련의 영상(image)들의 집합을 의미할 수 있다.
본 명세서에서 하나의 도면 내에서 개별적으로 설명되는 기술적 특징은, 개별적으로 구현될 수도 있고, 동시에 구현될 수도 있다.
도 1은 본 문서를 적용될 수 있는 비디오/영상 코딩 시스템의 예를 개략적으로 나타낸다.
도 1을 참조하면, 비디오/영상 코딩 시스템은 소스 디바이스 및 수신 디바이스를 포함할 수 있다. 소스 디바이스는 인코딩된 비디오(video)/영상(image) 정보 또는 데이터를 파일 또는 스트리밍 형태로 디지털 저장매체 또는 네트워크를 통하여 수신 디바이스로 전달할 수 있다.
상기 소스 디바이스는 비디오 소스, 인코딩 장치, 전송부를 포함할 수 있다. 상기 수신 디바이스는 수신부, 디코딩 장치 및 렌더러를 포함할 수 있다. 상기 인코딩 장치는 비디오/영상 인코딩 장치라고 불릴 수 있고, 상기 디코딩 장치는 비디오/영상 디코딩 장치라고 불릴 수 있다. 송신기는 인코딩 장치에 포함될 수 있다. 수신기는 디코딩 장치에 포함될 수 있다. 렌더러는 디스플레이부를 포함할 수도 있고, 디스플레이부는 별개의 디바이스 또는 외부 컴포넌트로 구성될 수도 있다.
비디오 소스는 비디오/영상의 캡쳐, 합성 또는 생성 과정 등을 통하여 비디오/영상을 획득할 수 있다. 비디오 소스는 비디오/영상 캡쳐 디바이스 및/또는 비디오/영상 생성 디바이스를 포함할 수 있다. 비디오/영상 캡쳐 디바이스는 예를 들어, 하나 이상의 카메라, 이전에 캡쳐된 비디오/영상을 포함하는 비디오/영상 아카이브 등을 포함할 수 있다. 비디오/영상 생성 디바이스는 예를 들어 컴퓨터, 타블렛 및 스마트폰 등을 포함할 수 있으며 (전자적으로) 비디오/영상을 생성할 수 있다. 예를 들어, 컴퓨터 등을 통하여 가상의 비디오/영상이 생성될 수 있으며, 이 경우 관련 데이터가 생성되는 과정으로 비디오/영상 캡쳐 과정이 갈음될 수 있다.
인코딩 장치는 입력 비디오/영상을 인코딩할 수 있다. 인코딩 장치는 압축 및 코딩 효율을 위하여 예측, 변환, 양자화 등 일련의 절차를 수행할 수 있다. 인코딩된 데이터(인코딩된 비디오/영상 정보)는 비트스트림(bitstream) 형태로 출력될 수 있다.
전송부는 비트스트림 형태로 출력된 인코딩된 비디오/영상 정보 또는 데이터를 파일 또는 스트리밍 형태로 디지털 저장매체 또는 네트워크를 통하여 수신 디바이스의 수신부로 전달할 수 있다. 디지털 저장 매체는 USB, SD, CD, DVD, 블루레이, HDD, SSD 등 다양한 저장 매체를 포함할 수 있다. 전송부는 미리 정해진 파일 포맷을 통하여 미디어 파일을 생성하기 위한 엘리먼트를 포함할 수 있고, 방송/통신 네트워크를 통한 전송을 위한 엘리먼트를 포함할 수 있다. 수신부는 상기 비트스트림을 수신/추출하여 디코딩 장치로 전달할 수 있다.
디코딩 장치는 인코딩 장치의 동작에 대응하는 역양자화, 역변환, 예측 등 일련의 절차를 수행하여 비디오/영상을 디코딩할 수 있다.
렌더러는 디코딩된 비디오/영상을 렌더링할 수 있다. 렌더링된 비디오/영상은 디스플레이부를 통하여 디스플레이될 수 있다.
도 2는 본 문서가 적용될 수 있는 비디오/영상 인코딩 장치의 구성을 개략적으로 설명하는 도면이다. 이하 비디오 인코딩 장치라 함은 영상 인코딩 장치를 포함할 수 있다.
도 2를 참조하면, 인코딩 장치(200)는 영상 분할부(image partitioner, 210), 예측부(predictor, 220), 레지듀얼 처리부(residual processor, 230), 엔트로피 인코딩부(entropy encoder, 240), 가산부(adder, 250), 필터링부(filter, 260) 및 메모리(memory, 270)를 포함하여 구성될 수 있다. 예측부(220)는 인터 예측부(221) 및 인트라 예측부(222)를 포함할 수 있다. 레지듀얼 처리부(230)는 변환부(transformer, 232), 양자화부(quantizer 233), 역양자화부(dequantizer 234), 역변환부(inverse transformer, 235)를 포함할 수 있다. 레지듀얼 처리부(230)는 감산부(subtractor, 231)를 더 포함할 수 있다. 가산부(250)는 복원부(reconstructor) 또는 복원 블록 생성부(reconstructed block generator)로 불릴 수 있다. 상술한 영상 분할부(210), 예측부(220), 레지듀얼 처리부(230), 엔트로피 인코딩부(240), 가산부(250) 및 필터링부(260)는 실시예에 따라 하나 이상의 하드웨어 컴포넌트(예를 들어 인코더 칩셋 또는 프로세서)에 의하여 구성될 수 있다. 또한 메모리(270)는 DPB(decoded picture buffer)를 포함할 수 있고, 디지털 저장 매체에 의하여 구성될 수도 있다. 상기 하드웨어 컴포넌트는 메모리(270)를 내/외부 컴포넌트로 더 포함할 수도 있다.
영상 분할부(210)는 인코딩 장치(200)에 입력된 입력 영상(또는, 픽처, 프레임)를 하나 이상의 처리 유닛(processing unit)으로 분할할 수 있다. 일 예로, 상기 처리 유닛은 코딩 유닛(coding unit, CU)이라고 불릴 수 있다. 다른 예로, 상기 처리 유닛은 예측 유닛(PU: Prediction Unit) 또는 변환 유닛(TU: Transform Unit)을 더 포함할 수 있다. 이 경우 상기 예측 유닛 및 상기 변환 유닛은 각각 상술한 최종 코딩 유닛으로부터 분할 또는 파티셔닝될 수 있다. 상기 예측 유닛은 샘플 예측의 단위일 수 있고, 상기 변환 유닛은 변환 계수를 유도하는 단위 및/또는 변환 계수로부터 레지듀얼 신호(residual signal)를 유도하는 단위일 수 있다.
유닛은 경우에 따라서 블록(block) 또는 영역(area) 등의 용어와 혼용하여 사용될 수 있다. 일반적인 경우, MxN 블록은 M개의 열과 N개의 행으로 이루어진 샘플들 또는 변환 계수(transform coefficient)들의 집합을 나타낼 수 있다. 샘플은 일반적으로 픽셀 또는 픽셀의 값을 나타낼 수 있다.
감산부(231)는 입력 영상 신호(원본 블록, 원본 샘플들 또는 원본 샘플 어레이)에서 예측부(220)로부터 출력된 예측 신호(예측된 블록, 예측 샘플들 또는 예측 샘플 어레이)를 감산하여 레지듀얼 신호(레지듀얼 블록, 레지듀얼 샘플들 또는 레지듀얼 샘플 어레이)를 생성할 수 있다. 생성된 레지듀얼 신호는 변환부(232)로 전송된다.
예측부(220)는 처리 대상 블록(이하, 현재 블록이라 함)에 대한 예측을 수행하고, 상기 현재 블록에 대한 예측 샘플들을 포함하는 예측된 블록(predicted block)을 생성할 수 있다. 예측부(220)는 현재 블록 또는 CU 단위로 인트라 예측이 적용되는지 또는 인터 예측이 적용되는지 결정할 수 있다. 예측부는 예측 모드 정보 등 예측에 관한 다양한 정보를 생성하여 엔트로피 인코딩부(240)로 전달할 수 있다. 예측에 관한 정보는 엔트로피 인코딩부(240)에서 인코딩되어 비트스트림 형태로 출력될 수 있다.
인트라 예측부(222)는 현재 픽처 내의 샘플들을(참조 샘플들) 참조하여 현재 블록을 예측할 수 있다. 인트라 예측에서 예측 모드들은 복수의 비방향성 모드와 복수의 방향성 모드를 포함할 수 있다. 인트라 예측부(222)는 주변 블록에 적용된 예측 모드를 이용하여, 현재 블록에 적용되는 예측 모드를 결정할 수도 있다.
인터 예측부(221)는 참조 픽처 상에서 움직임 벡터에 의해 특정되는 참조 블록(참조 샘플 어레이)을 기반으로, 현재 블록에 대한 예측된 블록을 유도할 수 있다. 이때, 인터 예측 모드에서 전송되는 움직임 정보의 양을 줄이기 위해 주변 블록과 현재 블록 간의 움직임 정보의 상관성에 기초하여 움직임 정보를 블록, 서브블록 또는 샘플 단위로 예측할 수 있다. 상기 움직임 정보는 움직임 벡터 및 참조 픽처 인덱스를 포함할 수 있다.
인터 예측부(221) 및/또는 인트라 예측부(222)를 통해 생성된 예측 신호는 복원 신호를 생성하기 위해 이용되거나 레지듀얼 신호를 생성하기 위해 이용될 수 있다.
변환부(232)는 레지듀얼 신호에 변환 기법을 적용하여 변환 계수들(transform coefficients)를 생성할 수 있다. 예를 들어, 변환 기법은 DCT(Discrete Cosine Transform), DST(Discrete Sine Transform), GBT(Graph-Based Transform), Karhunen Loeve Transform(KLT) 또는 CNT(Conditionally Non-linear Transform) 등을 포함할 수 있다. 변환부(232)는 1차 변환 및/또는 2차 변환을 수행할 수 있다.
양자화부(233)는 변환 계수들을 양자화하여 엔트로피 인코딩부(240)로 전송되고, 엔트로피 인코딩부(240)는 양자화된 신호(양자화된 변환 계수들에 관한 정보)를 인코딩하여 비트스트림으로 출력할 수 있다. 상기 양자화된 변환 계수들에 관한 정보는 레지듀얼 정보라고 불릴 수 있다. 양자화부(233)는 계수 스캔 순서(scanning order)를 기반으로 블록 형태의 양자화된 변환 계수들을 1차원 벡터 형태로 재정렬할 수 있고, 상기 1차원 벡터 형태의 양자화된 변환 계수들을 기반으로 상기 양자화된 변환 계수들에 관한 정보를 생성할 수도 있다.
엔트로피 인코딩부(240)는 예를 들어 지수 골롬(exponential Golomb), CAVLC(context-adaptive variable length coding), CABAC(context-adaptive binary arithmetic coding) 등과 같은 다양한 인코딩 방법을 수행할 수 있다. 엔트로피 인코딩부(240)는 양자화된 변환 계수들 외 비디오/이미지 복원에 필요한 정보들(예컨대 신택스 요소들(syntax elements)의 값 등)을 함께 또는 별도로 인코딩할 수도 있다. 엔트로피 인코딩부(240)로부터 출력된 신호는 전송하는 전송부(미도시) 및/또는 저장하는 저장부(미도시)가 인코딩 장치(200)의 내/외부 엘리먼트로서 구성될 수 있고, 또는 전송부는 엔트로피 인코딩부(240)에 포함될 수도 있다.
양자화부(233)로부터 출력된 양자화된 변환 계수들은 예측 신호를 생성하기 위해 이용될 수 있다. 예를 들어, 양자화된 변환 계수들에 역양자화부(234) 및 역변환부(235)를 통해 역양자화 및 역변환을 적용함으로써 레지듀얼 신호(레지듀얼 블록 or 레지듀얼 샘플들)를 복원할 수 있다.
가산부(250)는 복원된 레지듀얼 신호를 예측부(220)로부터 출력된 예측 신호에 더함으로써 복원(reconstructed) 신호(복원 픽처, 복원 블록, 복원 샘플들 또는 복원 샘플 어레이)를 생성할 수 있다. 스킵 모드가 적용된 경우와 같이 처리 대상 블록에 대한 레지듀얼이 없는 경우, 예측된 블록이 복원 블록으로 사용될 수 있다. 생성된 복원 신호는 현재 픽처 내 다음 처리 대상 블록의 인트라 예측을 위하여 사용될 수 있고, 후술하는 바와 같이 필터링을 거쳐서 다음 픽처의 인터 예측을 위하여 사용될 수도 있다.
필터링부(260)는 복원 신호에 필터링을 적용하여 주관적/객관적 화질을 향상시킬 수 있다. 예를 들어 필터링부(260)는 복원 픽처에 다양한 필터링 방법을 적용하여 수정된(modified) 복원 픽처를 생성할 수 있고, 상기 수정된 복원 픽처를 메모리(270), 구체적으로 메모리(270)의 DPB에 저장할 수 있다. 상기 다양한 필터링 방법은 예를 들어, 디블록킹 필터링, 샘플 적응적 오프셋(sample adaptive offset, SAO), 적응적 루프 필터(adaptive loop filter), 양방향 필터(bilateral filter) 등을 포함할 수 있다.
메모리(270)에 전송된 수정된 복원 픽처는 인터 예측부(280)에서 참조 픽처로 사용될 수 있다. 인코딩 장치는 이를 통하여 인터 예측이 적용되는 경우, 인코딩 장치(200)와 디코딩 장치에서의 예측 미스매치를 피할 수 있고, 부호화 효율도 향상시킬 수 있다.
메모리(270)의 DPB는 수정된 복원 픽처를 인터 예측부(221)에서의 참조 픽처로 사용하기 위해 저장할 수 있다. 메모리(270)는 현재 픽처 내 움직임 정보가 도출된(또는 인코딩된) 블록의 움직임 정보 및/또는 이미 복원된 픽처 내 블록들의 움직임 정보를 저장할 수 있다. 메모리(270)는 현재 픽처 내 복원된 블록들의 복원 샘플들을 저장할 수 있고, 인트라 예측부(222)에 전달할 수 있다.
도 3은 본 문서가 적용될 수 있는 비디오/영상 디코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 3을 참조하면, 디코딩 장치(300)는 엔트로피 디코딩부(entropy decoder, 310), 레지듀얼 처리부(residual processor, 320), 예측부(predictor, 330), 가산부(adder, 340), 필터링부(filter, 350) 및 메모리(memory, 360)를 포함하여 구성될 수 있다. 예측부(330)는 인터 예측부(331) 및 인트라 예측부(332)를 포함할 수 있다. 레지듀얼 처리부(320)는 역양자화부(dequantizer, 321) 및 역변환부(inverse transformer, 321)를 포함할 수 있다. 상술한 엔트로피 디코딩부(310), 레지듀얼 처리부(320), 예측부(330), 가산부(340) 및 필터링부(350)는 실시예에 따라 하나의 하드웨어 컴포넌트(예를 들어 디코더 칩셋 또는 프로세서)에 의하여 구성될 수 있다. 또한 메모리(360)는 DPB(decoded picture buffer)를 포함할 수 있고, 디지털 저장 매체에 의하여 구성될 수도 있다. 상기 하드웨어 컴포넌트는 메모리(360)를 내/외부 컴포넌트로 더 포함할 수도 있다.
비디오/영상 정보를 포함하는 비트스트림이 입력되면, 디코딩 장치(300)는 도 2의 인코딩 장치에서 비디오/영상 정보가 처리된 프로세스에 대응하여 영상을 복원할 수 있다. 디코딩의 처리 유닛은 예를 들어 코딩 유닛, 예측 유닛 또는 변환 유닛일 수 있다. 코딩 유닛으로부터 하나 이상의 변환 유닛이 도출될 수 있다.
디코딩 장치(300)는 도 2의 인코딩 장치로부터 출력된 신호를 비트스트림 형태로 수신할 수 있고, 수신된 신호는 엔트로피 디코딩부(310)를 통해 디코딩될 수 있다. 예를 들어, 엔트로피 디코딩부(310)는 상기 비트스트림을 파싱하여 영상 복원(또는 픽처 복원)에 필요한 정보(ex. 비디오/영상 정보)를 도출할 수 있다. 본 문서에서 후술되는 시그널링/수신되는 정보 및/또는 신택스 요소들은 상기 디코딩 절차를 통하여 디코딩되어 상기 비트스트림으로부터 획득될 수 있다.
역양자화부(321)에서는 양자화된 변환 계수들을 역양자화하여 변환 계수들을 출력할 수 있다. 역양자화부(321)는 양자화된 변환 계수들을 2차원의 블록 형태로 재정렬할 수 있다. 이 경우 상기 재정렬은 인코딩 장치에서 수행된 계수 스캔 순서를 기반하여 재정렬을 수행할 수 있다. 역양자화부(321)는 양자화 파라미터(예를 들어 양자화 스텝 사이즈 정보)를 이용하여 양자화된 변환 계수들에 대한 역양자화를 수행하고, 변환 계수들(transform coefficient)를 획득할 수 있다.
역변환부(322)에서는 변환 계수들를 역변환하여 레지듀얼 신호(레지듀얼 블록, 레지듀얼 샘플 어레이)를 획득하게 된다. 역변환부(322)는 역 1차 변환 및/또는 역 2차 변환을 수행할 수 있다
예측부(330)는 현재 블록에 대한 예측을 수행하고, 상기 현재 블록에 대한 예측 샘플들을 포함하는 예측된 블록(predicted block)을 생성할 수 있다.
인트라 예측부(331)는 현재 픽처 내의 샘플들을 참조하여 현재 블록을 예측할 수 있다. 상기 참조되는 샘플들은 예측 모드에 따라 상기 현재 블록의 주변(neighbor)에 위치할 수 있고, 또는 떨어져서 위치할 수도 있다. 인트라 예측에서 예측 모드들은 복수의 비방향성 모드와 복수의 방향성 모드를 포함할 수 있다. 인트라 예측부(332)는 주변 블록에 적용된 예측 모드를 이용하여, 현재 블록에 적용되는 예측 모드를 결정할 수도 있다.
인터 예측부(332)는 참조 픽처 상에서 움직임 벡터에 의해 특정되는 참조 블록(참조 샘플 어레이)을 기반으로, 현재 블록에 대한 예측된 블록을 유도할 수 있다. 인터 예측의 경우에, 주변 블록은 현재 픽처 내에 존재하는 공간적 주변 블록(spatial neighboring block)과 참조 픽처에 존재하는 시간적 주변 블록(temporal neighboring block)을 포함할 수 있다. 예를 들어, 인터 예측부(331)는 주변 블록들을 기반으로 움직임 정보 후보 리스트를 구성하고, 수신한 후보 선택 정보를 기반으로 상기 현재 블록의 움직임 벡터 및/또는 참조 픽처 인덱스를 도출할 수 있다. 다양한 예측 모드를 기반으로 인터 예측이 수행될 수 있으며, 상기 예측에 관한 정보는 상기 현재 블록에 대한 인터 예측의 모드를 지시하는 정보를 포함할 수 있다.
가산부(340)는 획득된 레지듀얼 신호를 예측부(330)로부터 출력된 예측 신호(예측된 블록, 예측 샘플 어레이)에 더함으로써 복원 신호(복원 픽처, 복원 블록, 복원 샘플 어레이)를 생성할 수 있다. 스킵 모드가 적용된 경우와 같이 처리 대상 블록에 대한 레지듀얼이 없는 경우, 예측된 블록이 복원 블록으로 사용될 수 있다. 생성된 복원 신호는 현재 픽처 내 다음 처리 대상 블록의 인트라 예측을 위하여 사용될 수 있고, 후술하는 바와 같이 필터링을 거쳐서 출력될 수도 있고 또는 다음 픽처의 인터 예측을 위하여 사용될 수도 있다.
필터링부(350)는 복원 신호에 필터링을 적용하여 주관적/객관적 화질을 향상시킬 수 있다. 예를 들어 필터링부(350)는 복원 픽처에 다양한 필터링 방법을 적용하여 수정된(modified) 복원 픽처를 생성할 수 있다. 상기 다양한 필터링 방법은 예를 들어, 디블록킹 필터링, 샘플 적응적 오프셋(sample adaptive offset), 적응적 루프 필터(adaptive loop filter), 양방향 필터(bilateral filter) 등을 포함할 수 있다.
메모리(360)의 DPB에 저장된 (수정된) 복원 픽처는 인터 예측부(331)에서 참조 픽쳐로 사용될 수 있다. 메모리(360)는 현재 픽처 내 움직임 정보가 도출된(또는 디코딩된) 블록의 움직임 정보 및/또는 이미 복원된 픽처 내 블록들의 움직임 정보를 저장할 수 있다.
본 명세서에서, 디코딩 장치(300)의 예측부(330), 역양자화부(321), 역변환부(322) 및 필터링부(350) 등에서 설명된 실시예들은 각각 인코딩 장치(200)의 예측부(220), 역양자화부(234), 역변환부(235) 및 필터링부(260) 등에도 동일 또는 대응되도록 적용될 수 있다.
도 4는 본 문서가 적용되는 컨텐츠 스트리밍 시스템 구조도를 예시적으로 나타낸다.
또한, 본 문서가 적용되는 컨텐츠 스트리밍 시스템은 크게 인코딩 서버, 스트리밍 서버, 웹 서버, 미디어 저장소, 사용자 장치 및 멀티미디어 입력 장치를 포함할 수 있다.
상기 인코딩 서버는 스마트폰, 카메라, 캠코더 등과 같은 멀티미디어 입력 장치들로부터 입력된 컨텐츠를 디지털 데이터로 압축하여 비트스트림을 생성하고 이를 상기 스트리밍 서버로 전송하는 역할을 한다. 다른 예로, 스마트폰, 카메라, 캠코더 등과 같은 멀티미디어 입력 장치들이 비트스트림을 직접 생성하는 경우, 상기 인코딩 서버는 생략될 수 있다. 상기 비트스트림은 본 문서가 적용되는 인코딩 방법 또는 비트스트림 생성 방법에 의해 생성될 수 있고, 상기 스트리밍 서버는 상기 비트스트림을 전송 또는 수신하는 과정에서 일시적으로 상기 비트스트림을 저장할 수 있다.
상기 스트리밍 서버는 웹 서버를 통한 사용자 요청에 기초하여 멀티미디어 데이터를 사용자 장치에 전송하고, 상기 웹 서버는 사용자에게 어떠한 서비스가 있는지를 알려주는 매개체 역할을 한다. 사용자가 상기 웹 서버에 원하는 서비스를 요청하면, 상기 웹 서버는 이를 스트리밍 서버에 전달하고, 상기 스트리밍 서버는 사용자에게 멀티미디어 데이터를 전송한다. 이때, 상기 컨텐츠 스트리밍 시스템은 별도의 제어 서버를 포함할 수 있고, 이 경우 상기 제어 서버는 상기 컨텐츠 스트리밍 시스템 내 각 장치 간 명령/응답을 제어하는 역할을 한다.
상기 스트리밍 서버는 미디어 저장소 및/또는 인코딩 서버로부터 컨텐츠를 수신할 수 있다. 예를 들어, 상기 인코딩 서버로부터 컨텐츠를 수신하게 되는 경우, 상기 컨텐츠를 실시간으로 수신할 수 있다. 이 경우, 원활한 스트리밍 서비스를 제공하기 위하여 상기 스트리밍 서버는 상기 비트스트림을 일정 시간동안 저장할 수 있다.
상기 사용자 장치의 예로는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display), 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등이 있을 수 있다. 상기 컨텐츠 스트리밍 시스템 내 각 서버들은 분산 서버로 운영될 수 있으며, 이 경우 각 서버에서 수신하는 데이터는 분산 처리될 수 있다.
한편, 인트라 예측 모드는 비방향성(non-directional, 또는 비각도성(non-angular)) 인트라 예측 모드들과 방향성(directional, 또는 각도성(angular)) 인트라 예측 모드들을 포함할 수 있다.
도 5는 본 문서의 실시예들이 적용 가능한 인트라 예측 모드들의 일 예를 나타낸다.
도 5를 참조하면, 좌상향 대각 예측 방향을 갖는 34번 인트라 예측 모드를 중심으로 수평 방향성(horizontal directionality)을 갖는 인트라 예측 모드와 수직 방향성(vertical directionality)을 갖는 인트라 예측 모드를 구분할 수 있다. 도 5와 같이, 2번 내지 33번 인트라 예측 모드는 수평 방향성, 34번 내지 66번 인트라 예측 모드는 수직 방향성을 갖는다. 18번 인트라 예측 모드와 50번 인트라 예측 모드는 각각 수평 인트라 예측 모드(horizontal intra prediction mode), 수직 인트라 예측 모드(vertical intra prediction mode)를 나타내며, 2번 인트라 예측 모드는 좌하향 대각 인트라 예측 모드, 34번 인트라 예측 모드는 좌상향 대각 인트라 예측 모드, 66번 인트라 예측 모드는 우상향 대각 인트라 예측 모드라고 불릴 수 있다. 비방향성 예측 모드에는 0번인 플래너(planar) 인트라 예측 모드 및 1번인 DC 인트라 예측 모드를 포함할 수 있다.
도 6은 본 문서에 따른 변환 기법을 개략적으로 나타낸다.
도 6를 참조하면, 변환부는 상술한 도 2의 인코딩 장치 내의 변환부에 대응될 수 있고, 역변환부는 상술한 도 2의 인코딩 장치 내의 역변환부 또는 도 3의 디코딩 장치 내의 역변환부에 대응될 수 있다.
변환부는 레지듀얼 블록 내의 레지듀얼 샘플들(레지듀얼 샘플 어레이)를 기반으로 1차 변환을 수행하여 (1차) 변환 계수들을 도출할 수 있다(S610). 이러한 1차 변환(primary transform)은 핵심 변환(core transform)으로 지칭될 수 있다. 여기서 상기 1차 변환은 다중 변환 선택(Multiple Transform Selection, MTS)에 기반할 수 있으며, 1차 변환으로 다중 변환이 적용될 경우 다중 핵심 변환으로 지칭될 수 있다.
다중 핵심 변환은 DCT(Discrete Cosine Transform) 타입 2과 DST(Discrete Sine Transform) 타입 7, DCT 타입 8, 및/또는 DST 타입 1을 추가적으로 사용하여 변환하는 방식을 나타낼 수 있다. 즉, 상기 다중 핵심 변환은 상기 DCT 타입 2, 상기 DST 타입 7, 상기 DCT 타입 8 및 상기 DST 타입 1 중 선택된 복수의 변환 커널들을 기반으로 공간 도메인의 레지듀얼 신호(또는 레지듀얼 블록)를 주파수 도메인의 변환 계수들(또는 1차 변환 계수들)로 변환하는 변환 방법을 나타낼 수 있다. 여기서, DCT 타입 2, DST 타입 7, DCT 타입 8, 및 DST 타입 1 등은 변환 타입, 변환 커널(kernel) 또는 변환 코어(core)라고 불릴 수 있다. 이러한 DCT/DST 변환 타입들은 기저 함수들을 기반으로 정의될 수 있다.
상기 다중 핵심 변환이 수행되는 경우, 상기 변환 커널들 중 대상 블록에 대한 수직 변환 커널 및 수평 변환 커널이 선택될 수 있고, 상기 수직 변환 커널을 기반으로 상기 대상 블록에 대한 수직 변환이 수행되고, 상기 수평 변환 커널을 기반으로 상기 대상 블록에 대한 수평 변환이 수행될 수 있다. 여기서, 상기 수평 변환은 상기 대상 블록의 수평 성분들에 대한 변환을 나타낼 수 있고, 상기 수직 변환은 상기 대상 블록의 수직 성분들에 대한 변환을 나타낼 수 있다.
일 예에 따르면, MTS을 적용하여 1차 변환을 수행하는 경우, 특정 기저 함수들을 소정 값으로 설정하고, 수직 변환 또는 수평 변환일 때 어떠한 기저 함수들이 적용되는지 여부를 조합하여 변환 커널에 대한 매핑 관계를 설정할 수 있다. 예를 들어, 수평 방향 변환 커널을 trTypeHor로 나타내고, 수직 방향 변환 커널을 trTypeVer로 나타내는 경우, trTypeHor 또는 trTypeVer 값 0은 DCT2로 설정되고, trTypeHor 또는 trTypeVer 값 1은 DST7 로 설정되고, trTypeHor 또는 trTypeVer 값 2는 DCT8로 설정될 수 있다.
이 경우, 다수의 변환 커널 세트들 중 어느 하나를 지시하기 위하여 MTS 인덱스 정보가 인코딩되어 디코딩 장치로 시그널링될 수 있다. 예를 들어, MTS 인덱스가 0이면 trTypeHor 및 trTypeVer 값이 모두 0인 것을 지시하고, MTS 인덱스가 1이면 trTypeHor 및 trTypeVer 값이 모두 1 인 것을 지시하고, MTS 인덱스가 2이면 trTypeHor 값은 2이고 trTypeVer 값은 1 인 것을 지시하고, MTS 인덱스가 3이면 trTypeHor 값은 1이고 trTypeVer 값은 2 인 것을 지시하고, MTS 인덱스가 4이면 trTypeHor 및 trTypeVer 값이 모두 2 인 것을 지시할 수 있다.
일 예에 따라, MTS 인덱스 정보에 따른 변환 커널 세트를 표로 나타내면 다음과 같다.
Figure PCTKR2022008521-appb-img-000001
변환부는 상기 (1차) 변환 계수들을 기반으로 2차 변환을 수행하여 수정된(2차) 변환 계수들을 도출할 수 있다(S620). 상기 1차 변환은 공간 도메인에서 주파수 도메인으로의 변환이고, 상기 2차 변환은 (1차) 변환 계수들 사이에 존재하는 상관 관계(correlation)를 이용하여 보다 압축적인 표현으로 변환하는 것을 의미한다. 상기 2차 변환은 비분리 변환(non- separable transform)을 포함할 수 있다. 이 경우 상기 2차 변환은 비분리 2차 변환(non-separable secondary transform, NSST) 또는 MDNSST(mode-dependent non-separable secondary transform)이라고 불릴 수 있다.
상기 비분리 2차 변환은 상기 1차 변환을 통하여 도출된 (1차) 변환 계수들을 비분리 변환 매트릭스(non-separable transform matrix)를 기반으로 2차 변환하여 레지듀얼 신호에 대한 수정된 변환 계수들(또는 2차 변환 계수들)을 생성하는 변환을 나타낼 수 있다. 여기서, 상기 비분리 변환 매트릭스를 기반으로 상기 (1차) 변환 계수들에 대하여 수직 변환 및 수평 변환을 분리하여(또는 수평 수직 변환을 독립적으로) 적용하지 않고 한번에 변환을 적용할 수 있다. 예를 들어 비분리 2차 변환은 2차원 신호(변환 계수)들을 특정 정해진 방향(예컨대, 행 우선(row-first) 방향 또는 열 우선(column-first) 방향)을 통하여 1차원 신호로 재정렬한 후, 이러한 1차원 벡터와 상기 비분리 변환 매트릭스와의 매트릭스 연산을 기반으로 수정된 변환 계수들(또는 2차 변환 계수들)을 도출할 수 있다.
예를 들어, 행 우선 순서는 MxN 블록에 대해 1번째 행, 2번째 행, ... , N번째 행의 순서로 일렬로 배치하는 것이고, 열 우선 순서는 MxN 블록에 대해 1번째 열, 2번째 열, ... , M번째 열의 순서로 일렬로 배치하는 것이다. 즉, 비분리 2차 변환을 위하여 (1차 변환을 통해 도출된) 변환 계수는 행 우선 방향에 따라 1차원 벡터로 정렬된 후 매트릭스 연산이 수행될 수도 있고, 열 우선 방향에 따라 1차원 벡터로 정렬된 후 매트릭스 연산이 수행될 수도 있다.
상기 비분리 2차 변환은 (1차) 변환 계수들로 구성된 블록(이하, 변환 계수 블록 또는 변환 블록이라고 불릴 수 있다)의 좌상단(top-left) 영역에 대하여 적용될 수 있다. 예를 들어, 상기 변환 계수 블록의 폭(W) 및 높이(H)가 둘 다 8 이상인 경우, 8×8 비분리 2차 변환이 상기 변환 계수 블록의 좌상단 8×8 영역에 대하여 적용될 수 있다. 또한, 상기 변환 계수 블록의 폭(W) 및 높이(H)가 둘 다 4 이상이면서, 상기 변환 계수 블록의 폭(W) 또는 높이(H)가 8보다 작은 경우, 4×4 비분리 2차 변환이 상기 변환 계수 블록의 좌상단 min(8,W)×min(8,H) 영역에 대하여 적용될 수 있다. 다만 실시예는 이에 한정되지 않으며, 예를 들어 상기 변환 계수 블록의 폭(W) 또는 높이(H)가 모두 4 이상인 조건만 만족하더라도, 4×4 비분리 2차 변환이 상기 변환 계수 블록의 좌상단 min(8,W)×min(8,H) 영역에 대하여 적용될 수도 있다. 정리하면, 변환 블록의 크기에 따라 변환 블록의 좌상단 4×4 영역 또는 8×8 영역에 비분리 2차 변환이 적용될 수 있다. 일 예에 따라 좌상단 4×4 영역에 대한 변환을 4×4 변환, 좌상단 8×8 영역에 대한 변환을 8×8 변환으로 명명할 수 있다.
이때, 변환 커널 선택을 위하여, 8×8 변환 및 4×4 변환 둘 다에 대하여 비분리 2차 변환을 위한 변환 세트당 2개씩의 비분리 2차 변환 커널들이 구성될 수 있고, 변환 세트는 4개일 수 있다. 즉, 8×8 변환에 대하여 4개의 변환 세트가 구성되고, 4×4 변환에 대하여 4개의 변환 세트가 구성될 수 있다. 이 경우 8×8 변환에 대한 4개의 변환 세트에는 각각 2개씩의 8×8 변환 커널들이 포함될 수 있고, 이 경우 4×4 변환에 대한 4개의 변환 세트에는 각각 2개씩의 4×4 변환 커널들이 포함될 수 있다.
다만, 상기 변환의 사이즈, 즉 변환이 적용되는 영역의 사이즈는 예시로서 8×8 또는 4×4 이외의 사이즈가 사용될 수 있고, 상기 세트의 수는 n개, 각 세트 내 변환 커널들의 수는 k개일 수도 있다.
상기 변환 세트는 NSST 세트 또는 LFNST 세트라고 불릴 수 있다. 상기 변환 세트들 중 특정 세트의 선택은 예를 들어, 현재 블록(CU 또는 서브블록)의 인트라 예측 모드에 기반하여 수행될 수 있다. LFNST(Low-Frequency Non-Separable Transform)는 후술될 감소된 비분리 변환의 일 예일 수 있으며, 저주파 성분에 대한 비분리 변환을 나타낸다.
한편, 비분리 변환에 특정 세트가 사용되는 것으로 결정되면, 비분리 2차 변환 인덱스를 통하여 상기 특정 세트 내 k개의 변환 커널들 중 하나가 선택될 수 있다. 인코딩 장치는 RD(rate-distortion) 체크 기반으로 특정 변환 커널을 가리키는 비분리 2차 변환 인덱스를 도출할 수 있으며, 상기 비분리 2차 변환 인덱스를 디코딩 장치로 시그널링할 수 있다. 디코딩 장치는 상기 비분리 2차 변환 인덱스를 기반으로 특정 세트 내 k개의 변환 커널들 중 하나를 선택할 수 있다. 예를 들어, lfnst 인덱스 값 0은 첫번째 비분리 2차 변환 커널을 가리킬 수 있고, lfnst 인덱스 값 1은 두번째 비분리 2차 변환 커널을 가리킬 수 있으며, lfnst 인덱스 값 2는 세번째 비분리 2차 변환 커널을 가리킬 수 있다. 또는 lfnst 인덱스 값 0은 대상 블록에 대하여 첫번째 비분리 2차 변환이 적용되지 않음을 가리킬 수 있고, lfnst 인덱스 값 1 내지 3은 상기 3개의 변환 커널들을 가리킬 수 있다.
변환부는 선택된 변환 커널들을 기반으로 상기 비분리 2차 변환을 수행하고 수정된(2차) 변환 계수들을 획득할 수 있다. 상기 수정된 변환 계수들은 상술한 바와 같이 양자화부를 통하여 양자화된 변환 계수들로 도출될 수 있고, 인코딩되어 디코딩 장치로 시그널링 및 인코딩 장치 내의 역양자화/역변환부로 전달될 수 있다.
한편, 상술한 바와 같이 2차 변환이 생략되는 경우 상기 1차 (분리) 변환의 출력인 (1차) 변환 계수들이 상술한 바와 같이 양자화부를 통하여 양자화된 변환 계수들로 도출될 수 있고, 인코딩되어 디코딩 장치로 시그널링 및 인코딩 장치 내의 역양자화/역변환부로 전달될 수 있다.
역변환부는 상술한 변환부에서 수행된 절차의 역순으로 일련의 절차를 수행할 수 있다. 역변환부는 (역양자화된) 변환 계수들을 수신하여, 2차 (역)변환을 수행하여 (1차) 변환 계수들을 도출하고(S630), 상기 (1차) 변환 계수들에 대하여 1차 (역)변환을 수행하여 레지듀얼 블록(레지듀얼 샘플들)을 획득할 수 있다(S640). 여기서 상기 1차 변환 계수들은 역변환부 입장에서 수정된(modified) 변환 계수들로 불릴 수 있다. 인코딩 장치 및 디코딩 장치는 상기 레지듀얼 블록과 예측된 블록을 기반으로 복원 블록을 생성하고, 이를 기반으로 복원 픽처를 생성할 수 있음은 상술한 바와 같다.
역변환부는 특정 순서, 예를 들어 대각 스캔 순서에 따라 (구체적으로, 변환 블록의 좌상단을 시작으로 우하단 방향으로 진행하는 대각 스캔 순서) 정렬된 (역양자화된) 변환 계수에 변환 커널 매트릭스를 적용하여 수정된 변환 계수를 도출할 수 있다. 수정된 변환 계수는 변환부에서 2차 변환을 위하여 변환 계수가 읽혀진 방향, 즉 행 우선 방향 또는 열 우선 방향에 따라 변환 블록의 좌상단 영역에 2차원으로 배열될 수 있다. 변환부에서 4×4 변환이 수행된 경우 역변환부는 변환 블록의 4×4 영역에 수정된 변환 계수를 2차원으로 정렬할 수 있고, 변환부에서 8×8 변환이 수행된 경우 역변환부는 변환 블록의 8×8 영역에 수정된 변환 계수를 2차원으로 정렬할 수 있다.
한편, 2차 역변환은 NSST, RST(reduced secondary transform) 또는 LFNST 일 수 있고, 비트스트림으로부터 파싱한 이차 변환 플래그에 기초하여 2차 역변환의 적용 여부가 결정될 수 있다. 다른 일 예로, 2차 역변환 적용 여부는 레지듀얼 블록의 변환 계수에 기초하여 결정될 수도 있다.
이러한 2차 역변환(즉 변환 커널, 변환 매트릭스 또는 변환 커널 매트릭스)는 인트라 예측 모드에 따라 지정된 LFNST(NSST 또는 RST) 변환 세트에 기초하여 결정될 수 있다. 또한, 일 실시예로서, 1차 변환 결정 방법에 의존적으로(depend on) 이차 변환 결정 방법이 결정될 수 있다. 인트라 예측 모드에 따라 1차 변환과 이차 변환의 다양한 여러 조합이 결정될 수 있다. 또한, 일 예로, 현재 블록의 크기에 기초하여 2차 역변환이 적용되는 영역이 결정될 수도 있다.
한편, 상술한 바와 같이 2차 (역)변환이 생략되는 경우 (역양자화된) 변환 계수들을 수신하여 상기 1차 (분리) 역변환을 수행하여 레지듀얼 블록(레지듀얼 샘플들)을 획득할 수 있다. 인코딩 장치 및 디코딩 장치는 상기 레지듀얼 블록과 예측된 블록을 기반으로 복원 블록을 생성하고, 이를 기반으로 복원 픽처를 생성할 수 있음은 상술한 바와 같다.
한편, 본 문서에서는 비분리 2차 변환에 수반되는 계산량과 메모리 요구량의 저감을 위하여 NSST의 개념에서 변환 매트릭스(커널)의 크기가 감소된 RST(reduced secondary transform)을 적용할 수 있다. 또한, RST는 주로 변환 블록에서 0이 아닌 계수를 포함하는 저주파 영역에서 이루어지므로 LFNST(Low-Frequency Non-Separable Transform)로 지칭될 수도 있다. 상기 변환 인덱스는 LFNST 인덱스로 명명될 수 있다.
본 명세서에서 LFNST는 크기가 감소된 변환 매트릭스(transform matrix)를 기반으로 대상 블록에 대한 레지듀얼 샘플들에 대하여 수행되는 변환을 의미할 수 있다. 간소화 변환을 수행하는 경우, 변환 매트릭스의 크기 감소로 인해 변환 시 요구되는 연산량이 감소될 수 있다. 즉, LFNST은 크기가 큰 블록의 변환 또는 비분리 변환 시 발생하는 연산 복잡도(complexity) 이슈를 해소하기 위해 이용될 수 있다.
한편, 2차 역변환이 LFNST를 기반으로 이루어지는 경우, 인코딩 장치(200)의 역변환부(235)와 디코딩 장치(300)의 역변환부(322)는 변환 계수들에 대한 역 RST을 기반으로 수정된 변환 계수들을 도출하는 역 RST부와, 수정된 변환 계수들에 대한 역 1차변환을 기반으로 상기 대상 블록에 대한 레지듀얼 샘플들을 도출하는 역 1차변환부를 포함할 수 있다. 역 1차변환은 레지듀얼에 적용되었던 1차 변환의 역변환을 의미한다. 본 문서에서 변환을 기반으로 변환 계수를 도출하는 것은 해당 변환을 적용하여 변환 계수를 도출하는 것을 의미할 수 있다.
도 7은 본 문서의 일 실시예에 따른 RST 또는 RST가 적용된 LFNST를 설명하기 위한 도면이다.
본 명세서에서 "대상 블록"은 코딩이 수행되는 현재 블록 또는 레지듀얼 블록 또는 변환 블록을 의미할 수 있다.
일 실시예에 따른 RST에서, N차원 벡터(N dimensional vector)가 다른 공간에 위치한 R차원 벡터(R dimensional vector)에 매핑되어 감소된 변환 매트릭스가 결정될 수 있으며, 여기서 R은 N보다 작다. N은 변환이 적용되는 블록의 한 변의 길이(length)의 제곱 또는 변환이 적용되는 블록에 대응되는 변환 계수들의 총 개수를 의미할 수 있고, 간소화 팩터는 R/N값을 의미할 수 있다. 간소화 팩터는 감소된 팩터, 감소 팩터, reduced factor, reduction factor, simplified factor, simple factor 등 다양한 용어로 지칭될 수 있다. 한편, R은 간소화 계수(reduced coefficient)로 지칭될 수 있으나, 경우에 따라서는 간소화 팩터가 R을 의미할 수도 있다. 또한, 경우에 따라서 간소화 팩터는 N/R값을 의미할 수도 있다.
일 실시예에 따른 간소화 변환 매트릭스의 사이즈는 통상의 변환 매트릭스의 사이즈 NxN보다 작은 RxN이며, 아래의 수학식 1과 같이 정의될 수 있다.
[수학식 1]
Figure PCTKR2022008521-appb-img-000002
도 7의 (a)에 도시된 Reduced Transform 블록 내의 매트릭스 T는 수학식 1의 매트릭스 TRxN를 의미할 수 있다. 도 7의 (a)와 같이 대상 블록에 대한 레지듀얼 샘플들에 대하여 간소화 변환 매트릭스 TRxN가 곱해지는 경우, 대상 블록에 대한 변환 계수들이 도출될 수 있다.
일 실시예에서, 변환이 적용되는 블록의 사이즈가 8x8이고, R=16 (즉, R/N=16/64=1/4이다)인 경우, 도 7의 (a)에 따른 RST는 아래의 수학식 2와 같은 행렬 연산으로 표현될 수 있다. 이 경우, 메모리와 곱하기 연산이 간소화 팩터에 의하여 대략 1/4로 감소할 수 있다.
본 문서에서 행렬 연산이란, 행렬을 열 벡터의 왼쪽에 두고 행렬과 열 벡터를 곱하여 열 벡터를 얻는 연산으로 이해될 수 있다.
[수학식 2]
Figure PCTKR2022008521-appb-img-000003
수학식 2에서 r1 내지 r64는 대상 블록에 대한 레지듀얼 샘플들을 나타낼 수 있고, 보다 구체적으로, 1차 변환을 적용하여 생성된 변환 계수일 수 있다. 수학식 2의 연산 결과 대상 블록에 대한 변환 계수들 ci가 도출될 수 있으며, ci의 도출 과정은 수학식 3과 같을 수 있다.
[수학식 3]
Figure PCTKR2022008521-appb-img-000004
수학식 3의 연산 결과, 대상 블록에 대한 변환 계수들 c1 내지 cR이 도출될 수 있다. 즉, R=16인 경우, 대상 블록에 대한 변환 계수들 c1 내지 c16이 도출될 수 있다. 만약 RST가 아니라 통상의(regular) 변환이 적용되어 사이즈가 64x64(NxN)인 변환 매트릭스가 사이즈가 64x1(Nx1)인 레지듀얼 샘플들에 곱해졌다면 대상 블록에 대한 변환 계수들이 64개(N개)가 도출되었겠지만, RST가 적용되었기 때문에 대상 블록에 대한 변환 계수들이 16개(R개)만 도출되는 것이다. 대상 블록에 대한 변환 계수들의 총 개수가 N개에서 R개로 감소하여 인코딩 장치(200)가 디코딩 장치(300)로 전송하는 데이터의 양이 감소하므로 인코딩 장치(200)-디코딩 장치(300) 간 전송 효율이 증가할 수 있다.
변환 매트릭스의 사이즈 관점에서 검토하면, 통상의 변환 매트릭스의 사이즈는 64x64(NxN)인데 간소화 변환 매트릭스의 사이즈는 16x64(RxN)로 감소하므로, 통상의 변환을 수행할 때와 비교하면 LFNST를 수행할 시 메모리 사용을 R/N 비율로 감소시킬 수 있다. 또한, 통상의 변환 매트릭스를 이용할 때의 곱셈 연산 수 NxN과 비교하면, 간소화 변환 매트릭스를 이용하면 곱셈 연산 수를 R/N 비율로 감소(RxN)시킬 수 있다.
일 실시예에서, 인코딩 장치(200)의 변환부(232)는 대상 블록에 대한 레지듀얼 샘플들을 1차 변환 및 RST 기반의 2차 변환을 수행함으로써 대상 블록에 대한 변환 계수들을 도출할 수 있다. 이러한 변환 계수들은 디코딩 장치(300)의 역변환부로 전달될 수 있으며, 디코딩 장치(300)의 역변환부(322)는 변환 계수들에 대한 역 RST(reduced secondary transform)을 기반으로 수정된 변환 계수들을 도출하고, 수정된 변환 계수들에 대한 역 1차 변환을 기반으로 대상 블록에 대한 레지듀얼 샘플들을 도출할 수 있다.
일 실시예에 따른 역 RST 매트릭스 TNxR의 사이즈는 통상의 역변환 매트릭스의 사이즈 NxN보다 작은 NxR이며, 수학식 1에 도시된 간소화 변환 매트릭스 TRxN과 트랜스포즈(transpose) 관계에 있다.
도 7의 (b)에 도시된 Reduced Inv. Transform 블록 내의 매트릭스 Tt는 역 RST 매트릭스 TRxN T을 의미할 수 있다(위첨자 T는 트랜스포즈를 의미한다). 도 7의 (b)와 같이 대상 블록에 대한 변환 계수들에 대하여 역 RST 매트릭스 TRxN T가 곱해지는 경우, 대상 블록에 대한 수정된 변환 계수들 또는 대상 블록에 대한 레지듀얼 샘플들이 도출될 수 있다. 역 RST 매트릭스 TRxN T는 (TRxN)T NxR로 표현할 수도 있다.
보다 구체적으로, 2차 역변환으로 역 RST가 적용되는 경우에는, 대상 블록에 대한 변환 계수들에 대하여 역 RST 매트릭스 TRxN T가 곱해지면 대상 블록에 대한 수정된 변환 계수들이 도출될 수 있다.
한편, 일 예에 따라, 역 1차 변환으로 역 RST가 적용될 수 있다. 이 경우 대상 블록에 대한 변환 계수들에 대하여 역 RST 매트릭스 TRxN T가 곱해지면 대상 블록에 대한 레지듀얼 샘플들이 도출될 수 있다.
일 실시예에서, 역변환이 적용되는 블록의 사이즈가 8x8이고, R=16(즉, R/N=16/64=1/4인 경우)인 경우, 도 7의 (b)에 따른 역 RST는 아래의 수학식 4와 같은 행렬 연산으로 표현될 수 있다.
[수학식 4]
Figure PCTKR2022008521-appb-img-000005
수학식 4에서 c1 내지 c16은 대상 블록에 대한 변환 계수, 즉 레지듀얼 코딩을 통하여 도출된 변환 계수들을 나타낼 수 있다. 수학식 4의 연산 결과 대상 블록에 대한 수정된 변환 계수들 또는 대상 블록에 대한 레지듀얼 샘플들을 나타내는 ri가 도출될 수 있으며, ri의 도출 과정은 수학식 5와 같을 수 있다.
[수학식 5]
Figure PCTKR2022008521-appb-img-000006
수학식 5의 연산 결과, 대상 블록에 대한 수정된 변환 계수들 또는 대상 블록에 대한 레지듀얼 샘플들을 나타내는 r1 내지 rN이 도출될 수 있다. 수학식 4에서 N이 64이므로, 수학식 5를 통하여 64개의 수정된 변환 계수가 도출될 수 있다.
역변환 매트릭스의 사이즈 관점에서 검토하면, 통상의 역변환 매트릭스의 사이즈는 64x64(NxN)인데 간소화 역변환 매트릭스의 사이즈는 64x16(NxR)으로 감소하므로, 통상의 역변환을 수행할 때와 비교하면 역 RST를 수행할 시 메모리 사용을 R/N 비율로 감소시킬 수 있다. 또한, 통상의 역변환 매트릭스를 이용할 때의 곱셈 연산 수 NxN과 비교하면, 간소화 역변환 매트릭스를 이용하면 곱셈 연산 수를 R/N 비율로 감소(NxR)시킬 수 있다. 간소화 역변환 매트릭스 또는 역변환 매트릭스는 변환인지 역변환인지 혼동되지 않는다면 간소화 변환 매트릭스 또는 변환 매트릭스로 명명될 수도 있다.
한편, 본 문서의 일 실시예에 따라, 인코딩 과정의 변환에서, 8 x 8 영역을 구성하는 64개의 데이터에 대해 16 x 64 변환 커널 매트릭스가 아닌, 48개의 데이터만을 선택하여 최대 16 x 48 변환 커널 매트릭스를 적용할 수 있다. 여기서, "최대"라는 것은 m 개의 계수를 생성할 수 있는 m x 48 변환 커널 매트릭스에 대해 m의 최대 값이 16이라는 것을 의미한다.
즉, 8 x 8 영역에 m x 48 변환 커널 매트릭스(m ≤ 16)를 적용하여 RST를 수행할 경우, 48개의 데이터를 입력 받아서 m개의 계수를 생성해 낼 수 있다. m이 16인 경우, 48개의 데이터를 입력 받아서 16개의 계수를 생성한다. 즉, 48개의 데이터가 48 x 1 벡터를 이룬다고 했을 때, 16 x 48 행렬과 48 x 1 벡터를 순서대로 곱하여 16 x 1 벡터가 생성될 수 있다. 이러한 실시예의 경우, 수학식 2의 열 백터는 r1 내지 r48이 되고, 변환 매트릭스의 크기는 16x48가 되고, 매트릭스 연산을 통하여 16개의 수정된 변환 계수(c1 내지 c16)가 도출된다.
이 때, 8 x 8 영역을 이루는 48개의 데이터를 적절히 배열하여 48 x 1 벡터를 구성할 수 있다. 예를 들어, 8 x 8 영역 중 우하단 4 x 4 영역을 제외한 영역을 구성하는 48 개의 데이터에 기초하여 48 x 1 벡터를 구성할 수 있다. 이때, 최대 16 x 48 변환 커널 매트릭스를 적용하여 행렬 연산을 수행하면 16개의 수정된 변환 계수가 생성되는데, 16개의 수정된 변환 계수는 스캐닝 순서에 따라 좌상단 4 x 4 영역에 배치될 수 있고, 우상단 4 x 4 영역과 좌하단 4 x 4 영역은 0으로 채워질 수 있다.
디코딩 과정의 역변환에는 상기 서술된 변환 커널 매트릭스의 트랜스포즈된 매트릭스가 사용될 수 있다. 즉, 디코딩 장치에서 수행되는 역변환 과정으로 역 RST 또는 역 LFNST가 수행되는 경우, 역 RST를 적용할 입력 계수 데이터는 소정의 배열 순서(대각 스캐닝 순서)에 따라 1차원 벡터로 구성되고, 1차원 벡터에 해당 역 RST 행렬을 왼쪽에서 곱하여 얻어진 수정된 계수 벡터를 소정의 배열 순서에 따라 2차원 블록에 배열될 수 있다.
8 x 8 영역에 RST 또는 LFNST이 수행되었고, 이에 대한 역 RST 또는 역 LFNST가 수행되는 경우, 수학식 4의 변환 매트릭스의 크기는 48 x 16이고, 열 백터는 c1 내지 c16 이 되고, 매트릭스 연산을 통하여 48개의 수정된 변환 계수(r1 내지 r48)가 도출된다.
정리하면, 인코딩 장치에서 수행되는 변환 과정에서, 8x8 영역에 RST 또는 LFNST가 적용되는 경우, 8x8 영역의 변환 계수들 중 8x8 영역의 우하단 영역을 제외한 좌상단, 우상단, 좌하단 영역의 48개 변환 계수들과 16x48의 변환 커널 매트릭스와의 행렬 연산이 수행된다. 행렬 연산을 위하여 48개의 변환 계수들은 1차원 배열로 입력된다. 이러한 행렬 연산이 수행되면 16개의 수정된 변환 계수들이 도출되고, 수정된 변환 계수들은 8x8 영역의 좌상단 영역에 배열될 수 있다.
역으로, 인코딩 장치 또는 디코딩 장치에서 수행되는 역 변환 과정에서, 8x8 영역에 역 RST 또는 LFNST가 적용되는 경우, 8x8 영역의 변환 계수들 중 8x8 영역의 좌상단에 대응하는 16개의 변환 계수들은 스캐닝 순서에 따라 1차원 배열 형태로 입력되어 48 x 16의 변환 커널 매트릭스와 행렬 연산될 수 있다. 즉, 이러한 경우의 행렬 연산은 (48 x 16 행렬) * (16x1 변환 계수 벡터) = (48 x 1 수정된 변환계수벡터)로 나타낼 수 있다. 여기서 nx1 벡터는 nx1 행렬과 같은 의미로 해석될 수 있으므로, nx1 열 벡터로 표기될 수도 있다. 또한, *은 행렬 곱셈 연산을 의미한다. 이러한 행렬 연산이 수행되면, 48개의 수정된 변환 계수가 도출될 수 있고, 48개의 수정된 변환 계수들은 8x8 영역의 우하단 영역을 제외한 좌상단, 우상단, 좌하단 영역에 배열될 수 있다.
이하의 도면은 본 명세서의 구체적인 일례를 설명하기 위해 작성되었다. 도면에 기재된 구체적인 장치의 명칭이나 구체적인 신호/메시지/필드의 명칭은 예시적으로 제시된 것이므로, 본 명세서의 기술적 특징이 이하의 도면에 사용된 구체적인 명칭에 제한되지 않는다.
이하에서는, 상술된 LFNST를 확장한 다양한 실시예가 논의된다.
실시예 1: 순방향 LFNST(forward LFNST)를 기준에서, 입력 데이터 영역을 나타내는 ROI(Region Of Interest)를 구성하는 방법
순방향 LFNST는 1차 변환이 적용된 변환 계수를 입력으로 받는다. 이때 모든 변환 계수를 입력으로 받는 것이 아니라 변환 블록 내에 미리 정의된 특정 영역에 속한 변환 계수를 입력으로 받을 수 있다.
도 8의 (a)는 VVC 표준에서의 순방향 LFNST 입력 영역의 한 예를 보여주며, 4x4 서브 블록(subblock)에 대한 스캔 순서상 세 번째 위치까지를 해당 입력 영역으로 설정하고 있다. 이하 이러한 입력 영역, 즉 순방향 LFNST을 위해 입력되는 입력 변환 계수의 영역을 Region Of Interest 내지 ROI로 명명한다.
도 8의 (b)는 도 8의 (a)에서 나타난 ROI에 4x4 서브 블록에 대한 스캔 순서상 4번째부터 6번째 서브 블록을 ROI에 추가한 것을 나타내고 있다. 즉, ROI가 6개의 4x4 서브 블록으로 구성되기 때문에 샘플들을(여기서는 1차 변환이 적용된 변환 계수) 기준으로 도 8의 (b)의 ROI는 모두 96개의 샘플들로 구성된다. VVC에 사용되었던 도 8의 (a)의 ROI와 비교했을 때, 도 8의 (b)의 경우 더 많은 1차 변환 계수들이 LFNST에서 고려될 수 있다. 이러한 확장된 ROI에 기반한 LFNST(extended LFNST)는 기존의 VVC LFNST보다 큰 블록(i.e., larger than or equal to 16x16)에 대하여 더 높은 부호화 성능을 제공할 수 있다.
ROI에 속한 N개의 샘플들을 기반으로 비분리 변환 행렬을 도출하게 되면 해당 변환 행렬이 정방 행렬이라고 했을 때 NxN 변환 행렬이 도출된다. 여기서 감소된 변환을 위하여 상기 도 7을 참조하여 설명된 R을 적용할 경우, R 값은 N보다 같거나 작을 수 있으며, R 값은 순방향 LFNST 관점에서는 LFNST를 적용하여 도출되는 출력 변환 계수의 개수로 해석될 수 있다. 따라서, 도 8의 (b)에 대응되는 LFNST 변환 커널의 차원은 96x96 뿐만 아니라 16x96, 32x96, 48x96, 64x96, 80x96 등도 가능하다(해당 예시에서는 16m x 96 행렬(m ≥ 1)이라고 볼 수 있다). 이 때 출력 변환 계수의 개수가 반드시 16의 배수인 경우만 허용되는 것은 아니며 R 값은 N (i.e., 96)보다 같거나 작은 임의의 양의 정수가 될 수 있다. 96x96 정방 행렬에서 Rx96 행렬을 생성할 때는 순방향 LFNST 기준으로 96x96 행렬에서 R개의 행을 샘플링하여 생성할 수 있다. 만약 96x96 행렬을 구성하는 행들이 위에서부터 중요도 순으로 정렬되었다면, 위에서부터 R개의 행을 차례로 샘플링하여 Rx96 행렬을 구성할 수 있다.
도 8의 (a)와 도 8의 (b)에서의 ROI는 각각 48개와 96개의 입력 샘플들(입력 변환 계수 또는 입력 데이터)로 구성되어 있다. ROI에서 입력 샘플들을 읽는 순서는 미리 정해 놓을 수 있으나 기본적으로 순서는 임의로 설정될 수 있다. 보다 구체적으로, 임의의 ROI에 적용되는 순방향 LFNST 행렬을 RxN 행렬이라고 했을 때 (즉, ROI는 N개의 입력 샘플들로 구성) 입력 샘플들을 읽는 순서를 변경한다 할지라도 N개의 열 벡터를 변경된 순서에 따라 재배치하면 변경 전과 비교했을 때 출력 값은 입력 샘플들의 순서와 상관없이 변경되지 않는다(출력 값은 R개의 변환 계수들로 구성됨).
한편, 특정 순방향 LFNST 변환 행렬에 대해(즉, 열 벡터들을 위치가 고정되었다고 했을 때) ROI를 구성하는 입력 샘플들은 도 9 또는 도 10과 같은 순서로 읽혀서 입력 벡터로 구성될 수 있다. 도 9a 내지 도 10b는 인트라 예측 모드에 따라 ROI로부터 입력 데이터를 읽는 순서를 도시한 것이다.
도 9a 및 도 10a는 도 8의 (a)에 대응하고, 도 9b와 도 10b는 도 8의 (b)에 대응된다. 만약 VVC LFNST 와 같이, 인트라 예측 모드에 대해 34번 모드를 중심으로 하는 대칭성을 적용하는 경우 도 5의 -14 ~ -1, 2 ~ 33번 모드에 대해서는 도 9a 및 도 9b와 같이 행 우선 순서를 적용하고, 35 ~ 80번 모드에 대해서는 도 10a 및 도 10b의 열 우선 순서를 적용할 수 있다. 플래너 모드와 DC 모드를 가리키는 0번과 1번 모드와 34번 모드에 대해서는 도 9a 및 도 9b의 순서를 그대로 적용할 수도 있고, 모드 별로 도 9a 및 도 9b 또는 도 10a 및 도 10b을 적용할 수도 있다.
ROI에 대한 다른 예시로서 변환 블록의 좌상단 사각형 영역이 ROI로 설정될 수 있다. 즉, MxN 변환 블록에서 좌상단 m x n (m ≤ M, n ≤ N) 영역이 ROI로 설정될 수 있으며 순방향 LFNST 관점에서 입력 샘플(1차 변환을 거친 변환 계수) 수는 m x n 개가 된다. 보다 구체적인 실시예로 m과 n이 모두 8일 수 있고, 순방향 LFNST 행렬의 차원은 R x 64가 될 수 있다 (R은 64보다 같거나 작으며, R 값의 예시로는 16, 32, 48, 64 등이 가능). mn x mn 정방 행렬로부터 (예컨대 64x64 행렬) R 개의 행들을 선택하는 방식은 앞서 설명한 96x96에서 Rx96 행렬을 생성하는 방식과 동일할 수 있다.
한편, ROI는 도 8과 같이 4x4 서브 블록들로만 구성될 수 있는 것은 아니다. VVC 표준에서, 4x4 서브 블록은 LFNST가 적용될 수 있는 변환 블록들에 대한 변환 그룹(Coefficient Group, CG)에 대응될 수 있으나, 이러한 CG가 반드시 4x4 서브 블록인 것은 아니다. 일 예에 따라, CG는 4x4 서브 블록이 아닌 미리 정의된 임의의 p x q 서브 블록이 될 수 있다. 4x4 서브 블록이 아닌 다른 크기의 서브 블록(CG)이 적용된다 할지라도, 서브 블록 구성과 무관하게 순방향 LFNST의 ROI 입력 샘플들을 읽는 순서는 도 9a 및 도 9b 또는 도 10a 및 도 10b과 같이 정해진 특정 순서를 따를 수 있고, 순방향 LFNST에 의해 출력되는 변환 계수들은 해당 CG과 변환 계수에 대한 스캔 순서에 따라 배치될 수 있다.
ROI가 정방형이 아닌 비정방형(non-square)인 경우(즉 좌상단 영역 m x n에 대해 m ≠ n), 하나의 MxN 변환 블록에 대해 대칭되는 인트라 예측 모드 사이의 (예를 들어, 34번 모드를 중심으로 대칭인 두 모드로서 24번과 44번 모드) 대칭성을 이용할 수 없다. 도 11은 본 문서의 일 실시예에 따른 비정방형의 ROI를 도시한 도면이다. 도 11의 (a)에서와 같이 ROI가 비정방형인 경우 행 우선 방향으로 입력 샘플들을 읽을 때와 열 우선 방향으로 읽을 때를 비교했을 때, 두 경우에 대해 변환 계수들의 위상이 정렬(align)되지 않으므로 대칭성을 이용할 수 없다. 이와 같은 경우 한 MxN 블록을 두고 두 개의 대칭인 모드가 예측 방향의 대칭성을 이용하여 LFNST 커널을 공유할 수는 없지만, MxN 변환 블록과 NxM 변환 블록 사이에는 34번 모드를 중심으로 대칭인 인트라 예측 모드의 대칭성을 활용할 수 있다.
예를 들어, 도 11의 (b)와 같이 MxN 블록과 NxM 블록에서의 ROI가 각각 좌상단 m x n 영역과 n x m 영역인 경우, 2번 모드와 66번 모드에 대해 도 11의 (b)에서 표시된 순서에 따라 입력 샘플들을 읽을 수 있다. 즉, 2번 모드에 대해서는 도 11의 (b)의 왼쪽 순서에 따라 입력 샘플들을 읽고 66번 모드에 대해서는 도 11의 (b)의 오른쪽 순서에 따라 입력 샘플들을 읽을 수 있다. 이와 같이 두 예측 모드의 대칭성을 활용하여 입력 샘플들을 읽으면, 도 11의 (b)의 두 ROI에 동일한 LFNST 커널을 적용할 수 있다.
다른 예에 따라, 다소 불규칙한 모양을 가진 ROI도 LFNST에 적용될 수 있다. 일 예에 따라, ROI는 서로 다른 길이를 가진 라인들로 구성될 수도 있고, ROI는 연속되지 않은 샘플들의 세그먼트들로 구성될 수도 있다.
한편, VVC 표준에서는 변환 블록 크기에 따라 다른 LFNST 커널이 적용되도록 구성되어 있다. 즉, 4x4 변환 블록 또는 4xN/Nx4 (N ≥8) 변환 블록(가로 길이와 세로 길이가 모두 4보다 크거나 같으면서 가로 길이 또는 세로 길이가 4인 변환 블록)에 대해서는 좌상단 4x4 영역에 적용될 수 있는 16x16 행렬 형태를 가진 LFNST 커널이 적용된다(LFNST_4x4로 명명 가능). 또한, 가로 길이와 세로 길이가 모두 8보다 같거나 큰 변환 블록에 대해서는 ROI가 좌상단 4x4 서브 블록, 좌상단 4x4 서브 블록의 오른쪽에 인접한 4x4 서브 블록, 좌상단 4x4 서브 블록의 아래쪽에 인접한 4x4 서브 블록으로 구성되며, ROI에 순방향 LFNST 기준으로 16x48 행렬 형태를 가진 LFNST 커널이 적용된다(LFNST_8x8로 명명 가능).
LFNST_4x4와 LFNST_8x8은 각각 4개의 세트들로 구성되고 각 세트는 2개의 변환 커널로 구성되며, 어떤 세트에 속한 커널을 적용할지는 인트라 예측 모드에 의해 결정된다. 결정된 세트에 대해 2개의 커널 중 어떤 커널을 적용할지와 LFNST의 적용 여부는 LFNST 인덱스를 시그널링을 통하여 지정된다. LFNST 인덱스 값이 0이면 LFNST를 적용하지 않고, 1이면 첫 번째 커널이 적용되고, 2이면 두 번째 커널이 적용된다.
이와 같이 VVC 표준에서의 LFNST 구조를 간략화하여 설명하였으나, 그 밖에 몇 가지 예외 경우들도 존재한다. 예를 들어, 4x4 변환 블록과 8x8 변환 블록에 대해서는 각각 16x16 행렬과 16x48 행렬이 아닌 해당 행렬로부터 샘플링된 8x16 행렬과 8x48 행렬이 순방향 LFNST로서 적용되며, MIP 예측 모드가 적용되는 경우에는 인트라 예측 모드를 플래너 모드라고 간주하고 LFNST 세트가 결정된다.
상기 LFNST_4x4와 LFNST_8x8은 각각 4개의 LFNST 세트들로 구성되어 있으므로, LFNST_4x4나 LFNST_8x8로 명명되는 LFNST 세트들의 묶음은 이하 설명의 편의상 LFNST 세트 리스트(LFNST set list)로 나타낼 수 있다.
한편, 본 문서에서 LFNST_8x8은 가로 길이와 세로 길이가 모두 8보다 크거나 같으면서 가로 길이 또는 세로 길이가 8인 변환 블록에 적용되는 LFNST 세트 리스트를 나타낼 수 있으며, 추가적으로 가로 길이와 세로 길이가 모두 16보다 크거나 같은 변환 블록에 적용되는 LFNST 세트 리스트를 LFNST_16x16로 명명할 수 있다.
LFNST_4x4, LFNST_8x8, LFNST_16x16가 가질 수 있는 행렬 차원 및 ROI에 대한 추가적인 실시예는 아래와 같다. 아래 실시예에서 변환 행렬은 순방향 변환을 적용할 때를 기준으로 한다.
1. LFNST_4x4는 16x16 행렬을 가질 수 있으며, ROI는 좌상단 4x4 영역이 될 수 있다.
2. LFNST_8x8은 Rx48 행렬 내지 Sx64 행렬을 가질 수 있으며 R 값으로는 16, 32, 48이 가능하고 S 값으로는 16, 32, 48, 64가 가능하다. Rx48 행렬에 대한 ROI는 도 8의 (a)가 될 수 있으며, Sx64 행렬에 대한 ROI는 좌상단 8x8 영역이 될 수 있다.
3. LFNST_16x16은 Rx96 행렬 또는 Sx64 행렬 또는 Tx48 행렬을 가질 수 있으며 R 값으로는 16, 32, 48, 64, 80, 96이 가능하고 S 값으로는 16, 32, 48, 64가 가능하며 T 값으로는 16, 32, 48이 가능하다. Rx96 행렬에 대한 ROI는 도 8의 (b)가 될 수 있으며 Sx64 행렬에 대한 ROI는 좌상단 8x8 영역이 될 수 있고 Tx48 행렬에 대한 ROI는 도 8의 (a)가 될 수 있다.
LFNST_4x4, LFNST_8x8, LFNST_16x16에 대한 아키텍처로서, 상기 1번, 2번, 3번에서 제시한 행렬 차원과 ROI의 어떠한 조합도 가능하다. 예를 들어, LFNST_4x4의 경우 16x16 행렬에 좌상단 4x4 영역의 ROI가 적용되고, LFNST_8x8의 경우 32x64 행렬에 좌상단 8x8 영역의 ROI가 적용되고, LFNST_16x16의 경우 32x96 행렬에 도 8의 (b)와 같은 ROI가 적용될 수 있다.
또한, LFNST_4x4, LFNST_8x8, LFNST_16x16 중 어느 한 쌍이라도 행렬 차원이 같게 되면, 해당 쌍에 대해 LFNST 세트와 LFNST 커널을 공유할 수 있다. 예를 들어, LFNST_8x8의 행렬 차원이 32x64이고 LFNST_16x16의 행렬 차원이 32x64인 경우, LFNST_8x8과 LFNST_16x16에 동일한 LFNST 세트 리스트가 할당될 수 있으며 ROI도 동일하게 설정될 수 있다(예를 들어 ROI를 좌상단 8x8 영역으로 설정할 수 있다).
또 다른 예로서, LFNST_8x8의 행렬 차원이 32x48이고 LFNST_16x16의 행렬 차원이 32x48일 때, LFNST_8x8과 LFNST_16x16에 동일한 LFNST 세트 리스트를 할당할 수 있으며 ROI도 동일하게 설정될 수 있다(예를 들어 ROI를 도 8의 (a)와 같이 설정할 수 있다).
한편, 역 LFNST(inverse LFNST)를 적용하는 경우, R개의 변환 계수를 입력으로 입력 벡터를 구성하고 해당 입력 벡터의 왼쪽에 NxR 행렬을 곱하면, N개의 출력 샘플(출력 변환 계수)이 생성된다. 여기서 NxR 행렬은 순방향 LFNST에서의 RxN 행렬의 전치 행렬이 되며, N개의 출력 샘플은 도 8 내지 도 14의 ROI에 배치될 수 있다. ROI에 배치될 때는 인트라 예측 모드 값에 따라 도 9 또는 도 10에 제시된 순서를 따를 수 있다. 예컨대, 인트라 예측 모드 간의 대칭성을 활용하는 경우, 인트라 예측 모드 -14 ~ -1, 2 ~ 33번에 대해서는 도 9의 행 우선 순서를 적용하고, 35 ~ 80번 모드에 대해서는 도 10의 열 우선 순서를 적용할 수 있다. 플래너 모드와 DC 모드를 가리키는 0번과 1번 모드와 34번 모드에 대해서는, 모두 도 9a 및 도 9b의 순서를 적용하거나 아니면 모드 별로 도 9a 및 도 9b 또는 도 10a 및 도 10b의 순서를 적용할 수 있다.
실시예 2: 순방향 LFNST를 기준에서, 출력 데이터를 구성하는 방법
VVC 표준에서는 변환 계수에 대한 스캔 순서가 계층적으로 구성된다. CG들의 스캔 순서가 있고 CG마다 내부의 스캔 순서가 있다. 도 12는 이러한 변환 계수의 스캔 순서를 도시한 도면이다. 도 12에서와 같이 스캔 순서는 왼쪽 아래부터 오른쪽 위까지 대각선 방향으로 진행된다. 도 12에서 작은 사각형은 하나의 변환 계수를 나타내고 작은 사각형 내부의 숫자는 스캔 순서를 가리킨다.
CG 단위로 한 번 왼쪽 아래부터 오른쪽 위까지를 스캔하는 것을 하나의 스캔 라인이라고 한다면 첫 번째 스캔 라인은 1개의 CG로 구성되고 두 번째와 세 번째 스캔 라인은 각각 2개와 3개의 CG로 구성되며 동일한 방식에 따라 N 번째 스캔 라인 역시 복수의 CG로 구성된다.
도 8의 (a)와 도 8의 (b)에서 도시된 ROI는 모두 이러한 CG 단위의 스캔 라인들로 구성되어 있다. 도 8의 (a)와 도 8의 (b)는 각각 처음 2개와 3개의 스캔 라인들로 구성된 ROI을 도시하고 있으며, 당연히 ROI는 더 많은 스캔 라인들로 구성될 수도 있다.
상술된 바와 같이, 순방향 LFNST 기준에서의 출력 변환 계수의 개수를 R, 입력 샘플의 수를 N이라고 했을 때, R은 N보다 작거나 같게 설정될 수 있다. 특히 도 8과 같이 R은 16의 배수로 설정될 수 있다(즉, R = 16k, k ≥ 1). 이는 LFNST가 적용되는 변환 블록에 대한 CG가 4x4 서브 블록인 경우를 고려하여 순방향 LFNST의 출력 변환 계수의 개수가 하나의 CG 내부에 존재하는 샘플 수의 배수가 되도록 설정한 것이다. 따라서, R을 16의 배수로 설정하면, 순방향 LFNST를 적용해 얻어진 변환 계수가 특정 4x4 서브 블록들에만 배열되도록 설계할 수 있다. 이러한 설계를 통해 레지듀얼 코딩(residual coding) 파트와 LFNST 인덱스 시그널링 설계를 보다 단순화 시킬 수 있다.
예를 들어 LFNST 변환 계수가 존재할 수 있는 영역 이외의 영역에서 변환 계수가 파싱된다면 LFNST 인덱스의 시그널링을 생략하고 LFNST가 적용되지 않는다고 유추할 수 있다. 여기서 LFNST 변환 계수가 존재할 수 있는 영역이 4x4 서브 블록 단위로 구성되고 레지듀얼 코딩이 해당 4x4 서브 블록 단위로 수행되면, LFNST 변환 계수가 존재할 수 있는 영역 이외의 영역에서 변환 계수가 존재하는지 여부를 체크하는 것이 보다 간단하게 수행될 수 있다.
다른 실시예에 따라, CG는 4x4 서브 블록이 아닌 다른 모양이 될 수 있으며 이러한 경우 (e.g. m x n 블록, m ≠n) R 값은 m x n의 배수로 설정될 수 있다. 또한 순방향 LFNST 출력 변환 계수들이 존재할 수 있는 CG들은 CG의 스캔 순서에 따라 배치된 처음 k개의 CG들로 구성될 수 있다.
기본적으로 순방향 LFNST의 출력 계수들은 변환 계수 스캔 순서에 따라 배치될 수 있다. 보편적으로 순방향 LFNST 커널의 행 벡터들은 중요도 순에 따라 위에서부터 아래로 배치되므로, 출력 벡터를 구성하는 변환 계수들을 위에서부터 아래의 순서로 배치한다고 했을 때 (여기서 출력 벡터는 열 벡터라고 가정), 보다 중요한 계수들부터 차례로 배치될 수 있다. 통상적으로 변환 계수의 스캔 순서는 중요한 계수부터 스캔한다고 가정되고, 좌상단 위치로 나타내어지는 DC 위치부터 스캔하여 DC 위치에서 멀어질수록 중요도가 떨어지는 변환 계수가 배치되어 주로 0이나 0에 가까운 값을 갖게 된다. 따라서, 순방향 LFNST의 출력 변환 계수는 DC 위치부터 스캔 순서에 따라 차례로 배치하는 것이 코딩 성능 관점에서 유리할 수 있다. 또한, 레지듀얼 코딩 파트도 DC 위치에서 멀어질수록 0 또는 0과 가까운 값을 갖는 변환 계수들이 자주 등장할 때 코딩 효율이 높아지도록 설계되는 경우가 많다.
한편, 순방향 LFNST의 출력 변환 계수들을 반드시 고정된 하나의 스캔 순서에 따라 배치할 필요는 없다. 즉, 다른 실시예에 따라 LFNST의 출력 변환 계수들은 스캔 순서가 아닌 다른 순서에 따라 정렬될 수 있다.
만약 통계적으로 VVC 표준에서의 스캔 순서가 아닌 다른 스캔 순서가 해당 LFNST 출력 계수에 적합하다고 판단되면, 레지듀얼 코딩 수행 전 LFNST 적용 여부가 미리 알려진 경우에 대해서는 기존 정해진 스캔 순서가 아닌 LFNST에 특화된 스캔 순서가 적용될 수 있다. 또한 인트라 예측 모드와 같은 코딩 컨텍스트(coding context)에 따라 최적의 스캔 순서가 달라지는 경우, 일 예에 따라, 인트라 예측 모드(또는 인트라 예측 모드 그룹)마다 다른 스캔 순서를 순방향 LFNST 출력 변환 계수들에 적용할 수 있다.
실시예 3: 변환 블록의 크기에 따라 다양한 LFNST 세트 리스트/ LFNST 세트/ LFNST 커널을 적용하는 방법
일 예에 따르면, VVC에서의 LFNST 세트 리스트, LFNST 세트, 세트 당 LFNST 커널 구성과 달리 (여기서의 세트 당 LFNST 커널 구성은 어떤 LFNST 세트가 몇 개의 후보 커널들로 구성되는지 등을 가리킨다.), 변환 블록의 크기 별로 LFNST 세트 리스트를 보다 세분화하여 적용할 수 있다.
예를 들어, 가능한 모든 변환 블록의 모양마다 (즉, 가능한 MxN 블록마다) 다른 LFNST 세트 리스트가 적용될 수 있고, 해당 세트 리스트는 예컨대 LFNST_MxN과 같이 나타낼 수 있다. 또는 변환 블록 모양들을 그룹핑(grouping)하여 그룹마다 해당 LFNST 세트 리스트가 적용될 수 있다. VVC 표준의 경우는 변환 블록 모양에 따라 두 개의 그룹으로 나눠서 두 종류의 LFNST 세트 리스트, 즉 LFNST_4x4와 LFNST_8x8가 적용된다고 볼 수 있다. 다른 그룹핑의 예시들은 다음과 같다.
1. 변환 블록의 가로 길이와 세로 길이가 모두 16보다 같거나 큰 경우에 대해서 별도의 그룹을 설정하고, 해당 그룹에 적용되는 LFNST 세트 리스트가 할당될 수 있다. 여기서 LFNST 세트 리스트는 LFNST_16x16으로 명명될 수 있다. VVC 표준의 그룹핑과 결합하게 되면 (Group 1) 4x4, 4xN/Nx4 (N ≥ 8) 변환 블록, (Group 2) 8x8, 8xN/Nx8 (N ≥ 16) 변환 블록, (Group 3) 가로와 세로가 모두 16보다 크거나 같은 변환 블록과 같이 세 개의 그룹으로 나눠질 수 있고, 각 그룹 및/ 또는 그룹에 적용되는 LFNST 세트 리스트를 LFNST_4x4, LFNST_8x8, LFNST_16x16로 명명할 수 있다.
2. 상기 1번에서의 그룹핑에서 Group 1은 다시 4x4 변환 블록과 4xN/Nx4 (N ≥ 8)으로 나뉠 수 있고 Group 1A와 Group 1B와 같이 구분할 수 있다. Group 2 역시 8x8 변환 블록과 8xN/Nx8 (N ≥ 16) 변환 블록으로 나뉠 수 있고 Group 2A와 Group 2B와 같이 구분될 수 있다. 또한, Group 3도 특정 기준으로 통해 Group 3A와 Group 3B로 나눠질 수 있다. 예를 들어, 16x16과 16xN/Nx16 (N ≥ 16) 변환 블록을 Group 3A로 두고, 나머지 경우를 Group 3B로 분류할 수 있다.
또한, Group 1, Group 2, Group 3는 각각 상기와 같이 세부 그룹으로 나눠질 수도 있고 그렇지 않을 수도 있다. 예를 들어, Group 1과 Group 3만 세부 그룹으로 나뉜다면, 전체 그룹은 Group 1A, Group 1B, Group 2, Group 3A, Group 3B와 같이 구성될 수 있다. 당연히 Group 1, Group 2, Group 3가 모두 나뉜다면 그룹은 Group 1A, Group 1B, Group 2A, Group 2B, Group 3A, Group 3B와 같이 분류될 수 있다.
상기 두 가지 실시예뿐만 아니라 변환 블록의 크기를 기준으로 다양한 기준에 따라 그룹핑을 적용할 수 있으며 각 그룹마다 해당 LFNST 세트 리스트를 부여할 수 있다. 이러한 LFNST 세트 리스트는 그룹마다 다르게 구성될 수 있다.
예를 들어, LFNST 세트 리스트를 구성하는 LFNST 세트당 커널 수를 다르게 설정할 수 있고 (e.g. Group 1에 대해서는 3개의 세트 당 LFNST 커널 수를 부여하고 Group 2에 대해서는 2개의 세트 당 LFNST 커널 수를 부여, 즉 Group 1에 대해서는 3개의 세트 마다 세트를 구성하는 LFNST 커널 수를 설정하고 Group 2에 대해서는 2개의 세트 마다 세트를 구성하는 LFNST 커널 수를 설정), 더욱 세밀하게 하나의 LFNST 세트 리스트를 구성하는 LFNST 세트마다 세트를 구성하는 커널 수가 다르게 설정될 수도 있다.
또는, LFNST 세트 리스트마다 포함되는 LFNST 세트의 수를 다르게 설정할 수 있는데, 예를 들어 Group 1은 18개의 LFNST 세트로 구성하고 Group 2는 10개의 LFNST 세트를 구성할 수 있다. 당연히 LFNST 세트 리스트에 따라 커널 행렬의 차원이 다르게 설정될 수 있다. VVC 표준을 예로 들면, LFNST_4x4는 16x16 행렬로 구성되고 LFNST_8x8은 16x48 행렬로 구성된다.
더욱 다양하게, LFNST 세트 리스트를 구성하는 LFNST 세트마다 커널 행렬의 차원이 다르게 설정될 수도 있다. 이와 같은 LFNST 세트 리스트의 세부 구성에 대한 구체적인 실시예를 들어보면 다음과 같다.
1. Group 1 (LFNST_4x4)은 18개의 LFNST 세트로 구성되고 각 LFNST 세트는 3개의 커널들로 구성되며 해당 커널 행렬의 차원은 16x16일 수 있다. Group 2 (LFNST_8x8)은 18개의 LFNST 세트로 구성되고 각 LFNST 세트는 3개의 커널들로 구성되며 해당 커널 행렬의 차원은 16x48일 수 있다. Group 3 (LFNST_16x16)은 18개의 LFNST 세트로 구성되고 각 LFNST 세트는 3개의 커널들로 구성되며 해당 커널 행렬의 차원은 32x96일 수 있다.
2. 상기 1번 구성에서 모든 LFNST 세트는 3개의 커널 대신 2개의 커널로 구성될 수 있다.
3. 상기 1번 구성에서 모든 LFNST 세트 리스트는 18개가 아닌 다른 개수의 세트으로 구성될수 있다. 예를 들어, LFNST 세트 리스트는 16개, 15개, 10개, 6개, 4개의 변환 세트로 구성될 수 있다.
4. 상기 1번 구성에서 LFNST_8x8을 구성하는 커널 행렬들의 차원은 32x48 내지 48x48로 설정될 수 있다.
5. 상기 1번 구성에서 LFNST_16x16을 구성하는 커널 행렬들의 차원은 16x96, 48x96, 64x96, 80x96, 96x96 중 하나로 설정될 수 있다. 여기서 96은 순방향 LFNST 관점에서 ROI를 구성하는 입력 샘플(입력 변환 계수)들의 수를 나타내며, ROI는 도 8의 (b)와 같이 구성될 수 있다. 만약 LFNST_16x16에 대응되는 ROI를 도 8의 (b)가 아니라 도 8의 (a)와 같이 구성한다면, LFNST_16x16을 구성하는 커널 행렬들의 차원은 16x48, 32x48, 48x48 중 하나로 설정될 수 있다.
6. 상기 1번을 기본으로 하고 상기 2번, 3번, 4번, 5번이 자유롭게 조합될 수 있다. 예를 들어, 3번을 적용해서 LFNST 세트의 수는 15로 설정되고, 4번을 적용하여 LFNST_8x8을 구성하는 커널 행렬들의 차원은 32x48로 설정될 수 있다.
일 실시예에 따르면, 코딩 툴 및 설정되는 모드를 기반으로 LFNST 세트 리스트, LFNST 세트 및 LFNST 커널이 적용될 수 있다.
예를 들어, 양자화 파라미터(Quantization parameter, QP) 값의 범위에 따라 다른 LFNST 세트 리스트, LFNST 세트 및 LFNST 커널이 적용될 수 있다.
일예로, low QP 범위에 적용되는 LFNST 세트 리스트와 high QP 범위에 적용되는 LFNST 세트 리스트가 별도로 사용될 수 있다. 여기서 low QP 범위는 미리 정의된 임계 (threshold) QP 값 이하인 경우를 나타낼 수 있고, high QP 범위는 미리 정의된 QP 값을 초과하는 경우를 나타낼 수 있다. 임계 QP 값으로는 27, 28, 29, 30, 31 등이 사용될 수 있다.
다른 예로, 전체 가능한 QP 값들을 N개의 집합들로 분할할 수 있다. 여기서, N개의 집합들끼리는 서로 겹치는 값들을 포함하지 않을 수 있다. 즉, N개의 집합들 중 서로 다른 2개의 집합들을 선택하는 경우, 상기 2개 집합들 사이에는 교집합이 공집합일 수 있다. 이때, N개의 집합들의 합집합이 전체 가능한 QP 값들로 구성된 집합이라고 할 때, N개의 집합들 각각에 대해 다른 LFNST 세트 리스트, LFNST 세트 및 LFNST 커널이 적용될 수 있다.
또한, 가능한 LFNST 세트 리스트들이 M개일 때 N개의 집합들과 M개의 LFNST 세트 리스트들 간의 매핑 관계가 형성될 수 있다. 즉, N개의 집합들 각각에 대해 매핑되는 LFNST 세트 리스트는 M개의 LFNST 세트 리스트들 중 어느 하나일 수 있다. 당연히 N개의 집합들에 대해 매핑되는 LFNST 세트 리스트는 서로 겹칠 수 있다.
예컨대, LFNST 세트 리스트들로 LFNST_4x4 및 LFNST_8x8이 존재하거나, LFNST_4x4, LFNST_8x8 및 LFNST_16x16이 존재하는 경우에, 상술한 바와 같이 M개의 LFNST 세트 리스트들이 존재하면, LFNST_4x4, LFNST_8x8 및 LFNST_16x16 각각에 대해 M개의 LFNST 세트 리스트들이 존재할 수 있다. 보다 구체적으로 LFNST_4x4에 대해서는 LFNST_4x4_i라는 (i = 1, 2, ..., M) LFNST 세트 리스트가 존재할 수 있고, LFNST_8x8에 대해서는 LFNST_8x8_i라는 (i = 1, 2, 쪋, M) LFNST 세트 리스트가 존재할 수 있으며, LFNST_16x16에 대해서는 LFNST_16x16_i라는 (i = 1, 2, ..., M) LFNST 세트 리스트가 존재할 수 있다.
만약 M 값이 2이고 low QP 범위에 대해서는 1번 LFNST 세트 리스트가 매핑되고 high QP 범위에 대해서는 2번 LFNST 세트 리스트가 매핑된다고 할 때, low QP 범위에 대해서는 변환 블록 사이즈에 따라 LFNST_4x4_1, LFNST_8x8_1 또는 LFNST_16x16_1가 매핑될 수 있으며, high QP 범위에 대해서는 변환 블록 사이즈에 따라 LFNST_4x4_2, LFNST_8x8_2 또는 LFNST_16x16_2가 매핑될 수 있다.
LFNST_4x4, LFNST_8x8 및 LFNST_16x16의 tuple을 (LFNST_4x4, LFNST_8x8, LFNST_16x16)으로 표현하거나 LFNST_4x4, LFNST_8x8의 pair를 (LFNST_4x4, LFNST_8x8)으로 표현할 때, i 번째 LFNST 세트 리스트의 tuple 또는 pair은 (LFNST_4x4_i, LFNST_8x8_i, LFNST_16x16_i) 또는 (LFNST_4x4_i, LFNST_8x8_i)로 표기할 수 있다. 관련하여, LFNST_4x4, LFNST_8x8 및 LFNST_16x16이 존재하거나 LFNST_4x4 및 LFNST_8x8이 존재할 때 i 번째 LFNST 세트 리스트에 매핑된다는 뜻은 (LFNST_4x4_i, LFNST_8x8_i, LFNST_16x16_i) 또는 (LFNST_4x4_i, LFNST_8x8_i)으로 매핑된다는 것을 의미할 수 있다.
따라서, QP 값에 따라 M개의 LFNST 세트 리스트들 중 어느 하나로 매핑된다는 것은, QP 값마다 매핑되는 LFNST 세트 리스트가 존재하고, 해당 LFNST 세트 리스트가 적용되는 것을 의미할 수 있다. 일예로, 해당 LFNST 세트 리스트가 j번째 LFNST 세트 리스트라면, (LFNST_4x4_j, LFNST_8x8_j, LFNST_16x16_j)가 적용될 수 있다.
또한, 예를 들면, 상술한 바와 같이 적용 가능한 M개의 LFNST 세트 리스트들이 존재할 때, 특정 조건(QP 값의 범위)의 만족 여부를 기반으로 해당 조건에 대한 LFNST 세트 리스트를 적용하는 방식이 아니라, 상위 수준 신택스 엘리먼트를 (이하 HLS element로도 표기) 통해 LFNST 세트 리스트를 지정하도록 구성할 수 있다.
해당 HLS element는 상위 수준 신택스 엘리먼트들을 모아 놓은 신택스 테이블인 Sequence Parameter Set (SPS), Picture Parameter Set (PPS), Picture Header (PH). Slice Header (SH) 등에 위치할 수 있다. 관련하여, 해당 HLS element는 M 개의 가능한 LFNST 세트 리스트들 중 하나를 지정하기 위해 0부터 M-1까지의 값을 가질 수 있다.
예를 들어, 해당 HLS element는 LFNST 세트 리스트 인덱스 정보와 관련될 수 있다. 일예로, LFNST 세트 리스트 인덱스 정보는 SPS, PPS, PH, SH 등에 위치할 수 있다. 관련하여, LFNST 세트 리스트 인덱스 정보는 M개의 가능한 LFNST 세트 리스트들 중 하나를 지정하기 위해 0부터 M-1까지의 값을 가질 수 있다.
예컨대, LFNST_4x4와 LFNST_8x8과 LFNST_16x16 또는 LFNST_4x4와 LFNST_8x8이 존재하고, LFNST 세트 리스트 인덱스 정보에 의해 i 번째 LFNST 세트 리스트가 지정되었다면, (LFNST_4x4_i, LFNST_8x8_i, LFNST_16x16_i) 또는 (LFNST_4x4_i, LFNST_8x8_i)가 적용될 수 있다. 또한, 일예로, LFNST 세트 리스트 인덱스 정보에 대한 시그널링이 생략되는 경우, LFNST 세트 리스트 인덱스 정보의 값은 특정 값으로 유추될 수 있고, 유추된 값이 지정하는 LFNST 세트 리스트가 디폴트 LFNST 세트 리스트가 될 수 있다. 일예로, 디폴트 LFNST 세트 리스트가 k번째 LFNST 세트 리스트라고 한다면, 디폴트 LFNST 세트 리스트는 (LFNST_4x4_k, LFNST_8x8_k, LFNST_16x16_k) 또는 (LFNST_4x4_k, LFNST_8x8_k)일 수 있다.
일 실시예에 따르면, 변환 블록 크기 별로 다른 LFNST 세트 리스트를 적용할 수 있다. 보다 구체적인 예로서, VVC 표준에서와 같이 LFNST_4x4와 LFNST_8x8만을 적용하는 것이 아니라, 4x4, 4xN/Nx4 (N ≥ 8), 8x8, 8xN/Nx8 (N ≥ 16), 16x16, 16xN/Nx16 (N ≥ 32), 32x32 이상(가로 길이와 세로 길이가 모두 32 이상)의 경우에 대해 각각 다른 LFNST 세트 리스트를 적용하도록 구성할 수 있다. 여기서, 각 블록 크기 집합에 대한 LFNST 세트 리스트는 LFNST_4x4, LFNST_4xN_Nx4, LFNST_8x8, LFNST_8xN_Nx8, LFNST_16x16, LFNST_16xN_Nx16, LFNST_32x32로 표기할 수 있다.
일예로, 코딩 모드 또는 조건, 또는 LFNST 세트 리스트 인덱스 정보에 의해 지정되는 인덱스 값에 따라, 블록 크기 집합들에 대한 M개의 LFNST 세트 리스트들 중 i번째 LFNST 세트 리스트가 적용되는 경우, i 번째 LFNST 세트 리스트를 tuple로 표현하여 (LFNST_4x4_i, LFNST_4xN_Nx4_i, LFNST_8x8_i, LFNST_8xN_Nx8_i, LFNST_16x16_i, LFNST_16xN_Nx16_i, LFNST_32x32_i)와 같이 나타낼 수 있다.
VVC 표준에 따르면, 각각 LFNST 세트 리스트를 나타내는 LFNST_4x4와 LFNST_8x8은 각각 4개의 LFNST 세트들로 구성될 수 있고, 4개의 LFNST 세트들은 0, 1, 2, 3의 인덱스 값으로 구분될 수 있다. 즉, LFNST 세트들은 0번째 LFNST 세트, 1번째 LFNST 세트, 2번째 LFNST 세트, 3번째 LFNST 세트와 같이 구분될 수 있고, 각 LFNST 세트에 대한 LFNST 세트 인덱스는 0, 1, 2 또는 3의 값을 가질 수 있다.
또한, VVC 표준은 광각 인트라 예측 (Wide Angle Intra Prediction, WAIP) 모드를 지원할 수 있고, 여기서 WAIP 모드는 인트라 예측 모드들 중 -14번부터 -1번까지의 모드와 67번부터 80번까지의 모드에 해당될 수 있다. VVC 표준에서는 WAIP 모드를 위해 별도의 LFNST 세트를 할당하지 않고 WAIP 모드에 대해 기존의 1번째 LFNST 세트를 매핑하여 사용할 수 있다. 즉, 하기 표 2에서와 같이 -14부터 80까지의 인트라 예측 모드 값에 대해 각각 1번째 LFNST 세트를 매핑하고 있다.
Figure PCTKR2022008521-appb-img-000007
상기 표 2에서 Intra pred. mode는 상기 현재 블록에 대한 인트라 예측 모드를 나타낼 수 있고, 상기 intra pred. mode의 값이 -14 내지 -1 및 67 내지 80 중 하나인 경우가 상기 현재 블록에 대한 인트라 예측 모드가 WAIP 모드인 것을 나타낼 수 있다.
관련하여, 본 문서에서 제안하는 일 실시예에 따르면, VVC 표준과 달리 더 많은 수의 LFNST 세트들을 도입할 수 있고, WAIP 모드에 대해 별도의 LFNST 세트들을 할당할 수도 있다. 만약 WAIP 모드에 별도의 LFNST 세트들을 할당하지 않는다면 상기 표 2와 같이 1번째 LFNST 세트를 할당할 수 있다.
일 실시예에 따르면, WAIP 모드가 아닌 모드를 Normal Angle Intra Prediction (NAIP) 모드(즉, 0부터 66번까지의 모드)라고 명명했을 때, NAIP 모드에 할당된 LFNST 세트의 수를 N개라고 하고 WAIP 모드에만 별도로 할당된 LFNST 세트의 수를 M개라고 하면, LFNST 세트에 대한 구조를 (N, M)으로 나타낼 수 있다. (N, M)에 대한 실시예들을 다음과 같을 수 있다.
1. (35, 0)
2. (35, 1)
3. (35, 3)
4. (15, 0)
5. (15, 1)
6. (15, 3)
여기서 NAIP 모드에 대한 N개의 LFNST 세트들에 대해서는 LFNST 세트 인덱스 값을 0부터 N-1로 할당하고, WAIP 모드에 대한 M개의 LFNST 세트들에 대해서는 LFNST 세트 인덱스 값을 N부터 N+M-1로 할당한다고 가정할 수 있다. 이때, 상기 1번부터 6번 실시예들에 대한 인트라 예측 모드와 LFNST 세트 간 매핑 테이블 예시는 각각 하기 표 3 내지 표 8과 같을 수 있다.
Figure PCTKR2022008521-appb-img-000008
Figure PCTKR2022008521-appb-img-000009
Figure PCTKR2022008521-appb-img-000010
Figure PCTKR2022008521-appb-img-000011
Figure PCTKR2022008521-appb-img-000012
Figure PCTKR2022008521-appb-img-000013
상기 표 3 내지 상기 표 8에서 Intra pred. mode는 상기 현재 블록에 대한 인트라 예측 모드를 나타낼 수 있고, 상기 intra pred. mode의 값이 -14 내지 -1 및 67 내지 80 중 하나인 경우가 상기 현재 블록에 대한 인트라 예측 모드가 WAIP 모드인 것을 나타낼 수 있다.
이하에서는, LFNST_4x4, LFNST_8x8에 적용되는 구체적인 LFNST 커널, 즉 LFNST 매트릭스가 기술된다. 일 예에 따라, 아래 LFNST 매트릭스는 LFNST_8x8에 대한 ROI가 변환 대상 블록의 좌상단에서 스캔 순서상 세 번째 위치까지의 4x4 서브 블록(subblock)들일 때 적용될 수 있다( 도 8의 (a)).
하기 표 9 내지 표 18은 4xN 또는 Nx4 블록(N ≥ 4)에 적용될 수 있는 LFNST_4x4에 대한 커널 계수 데이터의 일 예를 나타낸다. 표 9 내지 표 18의 g_lfnst4x4[ 36 ][ 3 ][ 16 ][ 16 ] 어레이에서, [ 36 ]는 LFNST 세트의 수가 36 개인 것을 나타내고, [ 3 ]은 LFNST 세트당 LNFST 커널 후보 수가 3개인 것을 나타내며, [ 16 ][ 16 ]은 순방향 LFNST 기준으로 16x16 행렬인 것을 나타낸다 (표 9 내지 표 18의 해당 어레이 정의는 C/C++ 문법을 따라 기술되어 있다). 예를 들어, 16은 행렬의 가로(x축) 길이, 48은 행렬의 세로(y축) 길이를 나타낼 수 있다. LFNST 세트의 수가 35개인 LFNST에 표 9 내지 표 18이 사용된다면, 상기 어레이는 g_lfnst4x4[ 35 ][ 3 ][ 16 ][ 16 ]로 표시될 수 있다.
표 9 내지 표 18의 LFNST 커널이 적용될 수 있는 ROI는 좌상단 4x4 영역이 될 수 있다. 하나의 LFNST 커널 당 16개의 변환 기저 벡터(transform basis vector(row vector))들로 구성되며 하나의 벡터는 16의 길이를 가진다 ([ 16 ][ 16 ]). 인코딩 장치에서 수행되는 순방향 2차 변환의 경우, 매트릭스 연산 시 표 9 내지 표 18의 LFNST 커널(16X16 차원 매트릭스)의 행 방향 기저 벡터와 변환 계수가 곱해질 수 있다. 디코딩 장치에서 수행되는 역방향 2차 변환의 경우, 아래 LFNST 커널이 트랜스포즈된 커널(16X16 차원 매트리스)의 행 방향 기저 벡터와 변환 계수가 곱해질 수 있다.
표 9 내지 표 18은 36개의 LFNST 세트 중 일부를 나타낼 수 있다. 상술된 바와 같이, LFNST 세트는 인트라 예측 모드에 따라 선택될 수 있으며, 표 3 또는 표 4에 따라 매핑될 수 있다. 표 3에 따르면 35개의 LFNST 세트가 사용되고, 표 4에 따르면 36개의 LFNST 세트가 사용된다. 표 9 내지 표 18은 35개 또는 36개의 세트 중에 특정 세트 번호에 해당하는 커널 일 수 있다.
표 9 및 표 10는 표 3 또는 표 4의 LFNST set index가 0인 경우(인트라 예측 모드가 플래너 모드일 때) 적용되는 세 개의 LFNST 커널을 나타내고, 표 11 및 표 12는 표 3 또는 표 4의 LFNST set index가 1일 때(인트라 예측 모드가 DC 모드일 때) 적용되는 세 개의 LFNST 커널을 나타내고, 표 13 및 표 14는 표 3 또는 표 4의 LFNST set index가 2일 때(인트라 예측 모드가 좌하단 방향을 나타낼 때) 적용되는 세 개의 LFNST 커널을 나타내고, 표 15 및 표 16은 표 3 또는 표 4의 LFNST set index가 18일 때(인트라 예측 모드가 수평 방향 또는 수직 방향을 나타낼 때) 적용되는 세 개의 LFNST 커널을 나타내고, 표 17 및 표 18은 표 3 또는 표 4의 LFNST set index가 34일 때(인트라 예측 모드가 좌상단 방향을 나타낼 때) 적용되는 세 개의 LFNST 커널을 나타낼 수 있다.
Figure PCTKR2022008521-appb-img-000014
Figure PCTKR2022008521-appb-img-000015
Figure PCTKR2022008521-appb-img-000016
Figure PCTKR2022008521-appb-img-000017
Figure PCTKR2022008521-appb-img-000018
Figure PCTKR2022008521-appb-img-000019
Figure PCTKR2022008521-appb-img-000020
Figure PCTKR2022008521-appb-img-000021
Figure PCTKR2022008521-appb-img-000022
Figure PCTKR2022008521-appb-img-000023
하기 표 19 내지 표 33은 8xN 또는 Nx8 블록(N ≥ 8)에 적용될 수 있는 LFNST_8x8에 대한 커널 계수 데이터의 일 예를 나타낸다. 표 19 내지 표 33의 g_lfnst8x8[ 36 ][ 3 ][ 16 ][ 48 ] 어레이에서, [ 36 ]는 LFNST 세트의 수가 36 개인 것을 나타내고, [ 3 ]은 LFNST 세트당 LNFST 커널 후보 수가 3개인 것을 나타내며, [ 16 ][ 48 ]은 순방향 LFNST 기준으로 16x48 행렬인 것을 나타낸다 (표 19 내지 표 33의 해당 어레이 정의는 C/C++ 문법을 따라 기술되어 있다). LFNST 세트의 수가 35개인 LFNST에 표 19 내지 표 33이 사용된다면, 상기 어레이는 g_lfnst8x8[ 35 ][ 3 ][ 16 ][ 48 ]로 표시될 수 있다.
표 19 내지 표 33에서의 LFNST 커널이 적용될 수 있는 ROI는 좌상단 8x8 영역에서 우하단 4x4 영역을 제외한 영역이 될 수 있다. 하나의 LFNST 커널 당 16개의 변환 기저 벡터(transform basis vector(row vector))들로 구성되며 하나의 벡터는 48의 길이를 가진다 ([ 16 ][ 48 ]). 인코딩 장치에서 수행되는 순방향 2차 변환의 경우, 매트릭스 연산 시 표 19 내지 표 33의 LFNST 커널(16X48 차원 매트리스)의 행 방향 기저 벡터와 변환 계수가 곱해질 수 있다. 디코딩 장치에서 수행되는 역방향 2차 변환의 경우, 아래 LFNST 커널이 트랜스포즈된 커널(48X16 차원 매트리스)의 행 방향 기저 벡터와 변환 계수가 곱해질 수 있다.
표 19 내지 표 33은 36개의 LFNST 세트 중 일부를 나타낼 수 있다. 상술된 바와 같이, LFNST 세트는 인트라 예측 모드에 따라 선택될 수 있으며, 표 3 또는 표 4에 따라 매핑될 수 있다. 표 3에 따르면 35개의 LFNST 세트가 사용되고, 표 4에 따르면 36개의 LFNST 세트가 사용된다. 표 19 내지 표 33은 35개 또는 36개의 세트 중에 특정 세트 번호에 해당하는 커널 일 수 있다.
표 19 내지 표 21은 표 3 또는 표 4의 LFNST set index가 0일 때(인트라 예측 모드가 플래너 모드일 때) 적용되는 세 개의 LFNST 커널을 나타내고, 표 22 내지 표 24는 표 3 또는 표 4의 LFNST set index가 1일 때(인트라 예측 모드가 DC 모드일 때) 적용되는 세 개의 LFNST 커널을 나타내고, 표 25 내지 표 27은 표 3 또는 표 4의 LFNST set index가 2일 때(인트라 예측 모드가 좌하단 방향을 나타낼 때) 적용되는 세 개의 LFNST 커널을 나타내고, 표 28 내지 표 30은 표 3 또는 표 4의 LFNST set index가 18일 때(인트라 예측 모드가 수평 방향 또는 수직 방향을 나타낼 때) 적용되는 세 개의 LFNST 커널을 나타내고, 표 31 내지 표 33은 표 3 또는 표 4의 LFNST set index가 34일 때(인트라 예측 모드가 좌상단 방향을 나타낼 때) 적용되는 세 개의 LFNST 커널을 나타낼 수 있다. 하나의 LFNST 커널은 1개의 표로 표현된다. 예를 들어, 표 19는 LFNST set index가 0일 때 적용되는 첫 번째 LFNST 커널이고, 표 20은 LFNST set index가 0일 때 적용되는 두 번째 LFNST 커널일 수 있고, 표 21은 LFNST set index가 0일 때 적용되는 세 번째 LFNST 커널일 수 있다.
Figure PCTKR2022008521-appb-img-000024
Figure PCTKR2022008521-appb-img-000025
Figure PCTKR2022008521-appb-img-000026
Figure PCTKR2022008521-appb-img-000027
Figure PCTKR2022008521-appb-img-000028
Figure PCTKR2022008521-appb-img-000029
Figure PCTKR2022008521-appb-img-000030
Figure PCTKR2022008521-appb-img-000031
Figure PCTKR2022008521-appb-img-000032
Figure PCTKR2022008521-appb-img-000033
Figure PCTKR2022008521-appb-img-000034
Figure PCTKR2022008521-appb-img-000035
Figure PCTKR2022008521-appb-img-000036
Figure PCTKR2022008521-appb-img-000037
Figure PCTKR2022008521-appb-img-000038
이하의 도면은 본 명세서의 구체적인 일례를 설명하기 위해 작성되었다. 도면에 기재된 구체적인 장치의 명칭이나 구체적인 신호/메시지/필드의 명칭은 예시적으로 제시된 것이므로, 본 명세서의 기술적 특징이 이하의 도면에 사용된 구체적인 명칭에 제한되지 않는다.
도 13은 본 문서의 일 실시예에 따른 비디오 디코딩 장치의 동작을 도시하는 흐름도이다.
도 13에 개시된 각 단계는 도 5 내지 도 12에서 전술된 내용들 중 일부를 기반으로 한 것이다. 따라서, 도 3, 도 5 내지 도 12에서 전술된 내용과 중복되는 구체적인 내용은 설명을 생략하거나 간단히 하기로 한다.
일 실시예에 따른 디코딩 장치(300)는, 비트스트림으로부터 대상 블록에 대한 레지듀얼 정보를 수신할 수 있다(S1310). 대상 블록은 코딩 또는 변환의 대상이 되는 코딩 블록 또는 변환 블록일 수 있다.
디코딩 장치는 레지듀얼 정보로부터 양자화된 변환 계수들에 대한 정보를 획득할 수 있고, 영상 디코딩을 위한 다양한 정보를 수신할 수 있다. 보다 구체적으로, 디코딩 장치(300)는 비트스트림으로부터 대상 블록에 대한 양자화된 변환 계수들에 관한 정보를 디코딩할 수 있고, 대상 블록에 대한 양자화된 변환 계수들에 관한 정보를 기반으로 대상 블록에 대한 양자화된 변환 계수들을 도출할 수 있다.
또한, 대상 블록에 적용되는 LFNST에 대한 정보도 수신될 수 있고, LFNST에 대한 정보는 SPS(Sequence Parameter Set) 또는 슬라이스 헤더(slice header)에 포함될 수 있다. 이러한 정보는 LFNST가 적용되는지 여부에 대한 정보, LFNST를 적용하는 최소 변환 사이즈에 대한 정보, LFNST를 적용하는 최대 변환 사이즈에 대한 정보, 변환 세트에 포함된 변환 커널 중 어느 하나를 지시하는 변환 인덱스에 대한 정보 중 적어도 하나를 포함할 수 있다.
일 실시예에 따른 디코딩 장치(300)는, 레지듀얼 정보를 기반으로 대상 블록에 대한 변환 계수들을 도출할 수 있다(S1320). 디코딩 장치는 대상 블록에 대한 양자화된 변환 계수들에 대하여 역양자화를 수행하여 변환 계수들을 도출할 수 있다.
도출된 변환 계수들은 4 x 4 서브 블록 단위로 역방향 대각 스캔 순서에 따라 배열될 수 있고, 4 x 4 서브 블록 내 변환 계수들 역시 역방향 대각 스캔 순서에 따라 배열될 수 있다. 즉, 역양자화가 수행된 변환 계수들은 VVC나 HEVC에서와 같은 비디오 코덱에서 적용되고 있는 역방향 스캔 순서를 따라 배치될 수 있다.
일 실시예에 따른 디코딩 장치(300)는, 역 2차 변환에 적용될 변환 커널을 도출하고(S1330), 도출된 변환 커널을 기반으로 변환 계수들에 대한 역 2차 변환을 수행하여 수정된 변환 계수들을 도출할 수 있다(S1340).
이 때, 대상 블록의 가로 및 세로의 길이가 모두 4보다 크거나 같고, 가로 또는 세로의 길이가 4인 것에 기초하여, 변환 커널은 16x16 매트릭스로 도출되고, 대상 블록의 가로 및 세로의 길이가 모두 8보다 크거나 같고, 가로 또는 세로의 길이가 8인 것에 기초하여, 변환 커널은 48x16 매트릭스로 도출될 수 있다.
또는 일 예에 따라, 대상 블록의 가로 및 세로의 길이가 모두 8보다 크거나 같고, 가로 또는 세로의 길이가 8인 것에 기초하여, 변환 커널은 64x32 매트릭스로 도출되고, 대상 블록의 가로 및 세로의 길이가 모두 8인 것에 기초하여, 64x32 매트릭스로부터 샘플링된 64x16 매트릭스가 대상 블록의 역 2차 변환에 적용될 수 있다.
본 문서에 따를 경우, 역 2차 변환은 LFNST, 즉, RST가 반영된 비분리 2차 변환을 포함할 수 있고, 역 2차 변환은 LFNST 커널을 기반으로 수행될 수 있고, LFNST 커널은 열의 개수가 행의 개수보다 적은 비정방형 매트릭스일 수 있다.
본 문서에 따를 경우, 기존의 VVC 표준과 달리, 16x16 보다 크거나 같은 변환 블록의 좌상단 16x16 영역에 LFNST가 적용될 수 있다. 본 문서에서 PxQ 블록이 MxN 블록보다 크거나 같다는 뜻은 P과 Q가 각기 M과 N보다 크거나 같다는 것을 의미한다. 일 예로, 좌상단 16x16 내 6개의 4x4 서브 블록들로 이루어진 96개의 샘플들에 대한 영역에 LFNST가 적용될 수 있다. 즉, 대상 블록의 좌상단 16x16 영역에 속한 일부 변환 계수, 즉 입력 어레이를 기반으로 변환 계수보다 많은 개수의 수정된 변환 계수를 도출할 수 있다. 일 예에 따라 디코딩 장치는 대상 블록의 좌상단 영역의 R개의 변환 계수를 기반으로 L개(48<L≤96)의 수정된 변환 계수를 도출할 수 있고, 도출된 L개(48<L≤96)의 수정된 변환 계수는 소정의 출력 영역에 배열될 수 있다. R은 L보다 작다. 한편, 본 문서에서 MxN 블록이 KxL 블록보다 크다는 것은, M과 N이 각기 K와 L보다 크거나 같으면서 M이 K보다 크거나 N이 L보다 큰 것을 나타낼 수 있다.
입력 어레이를 구성하는 입력 변환 계수들의 개수 R 및 출력 영역에 배열되는 출력 변환 계수들의 개수 L은 변환 커널의 차원에 따라 변경될 수 있다. 일 예에 따라, R은 16, 32, 48, 80 등이 될 수 있고, L은 64 또는 96이 될 수 있다.
일 예에 따라, 입력 어레이는 대상 블록의 DC 위치로부터 순방향 대각 스캐닝 순서로 배열될 수 있는 4x4 서브 블록 단위로 정렬되고, 4x4 서브 블록 내의 순방향 대각 스캐닝 순서에 따라 정렬될 수 있다. 따라서, 입력 어레이를 구성하는 변환 계수들의 개수인 R은 4x4 서브 블록 내의 변환 계수의 개수인 16의 배수로 설정될 수 있다.
출력 영역은 인코딩 장치에서 2차 변환을 수행하기 위하여 입력된 입력 변환 계수의 영역을 의미하므로, 디코딩 장치에서 역 2차 변환을 수행하는 경우, 출력 변환 계수가 배열되는 영역을 의미할 수 있다. 출력 영역은 상술된 도면들을 참고하여 설명된 ROI에 대응될 수 있다.
한편, 수정된 변환 계수를 도출하는 단계는 변환을 위한 변환 커널을 도출하는 단계를 포함할 수 있고, 변환 커널은 대상 블록에 적용되는 인트라 예측 모드를 기반으로 도출되는 변환 세트를 기반으로 도출될 수 있다.
16x16 매트릭스는 표 9 내지 표 18을 기반으로 구성될 수 있고, 48x16 차원 매트릭스는 표 19 내지 표 33을 기반으로 구성될 수 있다.
한편, 대상 블록의 크기를 기반으로 역 2차 변환의 크기가 설정될 수 있고, 이러한 역 2차 변환의 크기에 기초하여 변환 세트의 개수, 변환 세트를 구성하는 변환 커널의 개수 및 변환 커널의 차원 중 적어도 하나가 도출될 수 있다.
대상 블록의 가로 및 세로의 길이가 모두 4보다 크거나 같고, 가로 또는 세로의 길이가 4인 것에 기초하여, 역 2차 변환의 크기는 제1 값으로 설정될 수 있다. 예를 들어 제1 값은 2로 설정될 수 있다. 역 2차 변환의 크기가 2인 것은, 대상 블록의 좌상단 4x4 영역에 LFNST가 적용되는 것으로, 상술된 LFNST_4x4에 대응될 수 있다.
또는 대상 블록의 가로 및 세로의 길이가 모두 8보다 크거나 같고, 가로 또는 세로의 길이가 8인 것에 기초하여, 역 2차 변환의 크기는 제2 값으로 설정될 수 있다. 예를 들어 제2 값은 3으로 설정될 수 있다. 역 2차 변환의 크기가 3인 것은, 대상 블록의 좌상단 8x8 영역에 LFNST가 적용되는 것으로, 상술된 LFNST_8x8에 대응될 수 있다.
또는, 대상 블록의 가로 및 세로의 길이가 모두 16보다 크거나 같은 것에 기초하여, 역 2차 변환의 크기는 제3 값으로 설정될 수 있다. 예를 들어 제3 값은 4로 설정될 수 있다. 역 2차 변환의 크기가 4인 것은, 대상 블록의 좌상단 16x16 영역에 LFNST가 적용되는 것으로, 상술된 LFNST_16x16에 대응될 수 있다.
역 2차 변환의 크기, 즉, LFNST가 적용되는 크기에 따른 그룹핑을 기반으로 대상 블록에 적용되는 변환 세트의 개수, 변환 세트를 구성하는 변환 커널의 개수 및 변환 커널의 차원 중 적어도 하나가 도출될 수 있다. 다시 말해, 변환 세트의 개수, 변환 세트를 구성하는 변환 커널의 개수 및 변환 커널의 차원 등은 역 2차 변환의 크기 또는 대상 블록의 크기에 대응하여 다양하게 설정 및 구성될 수 있다.
예를 들어, 역 2차 변환의 크기가 2인 것을 기반으로, 변환 커널의 차원은 16x16로 설정될 수 있다. 또한, 역 2차 변환의 크기가 3인 것을 기반으로, 변환 커널의 차원은 48xR 또는 64xS로 설정될수 있고, 이 때 R은 16, 32, 48 중 어느 하나로, S는 16, 32, 48, 64 중 어느 하나로 설정될 수 있다. 또한, 역 2차 변환의 크기가 4인 것을 기반으로, 변환 커널의 차원은 96xR, 64xS 또는 48xT 중 어느 하나로 설정되고, R은 16, 32, 48, 64, 80, 96 중 어느 하나고, S는 16, 32, 48, 64 중 어느 하나이고, T는 16, 32, 48 중 어느 하나로 설정될 수 있다.
또는 일 예에 따라, 역 2차 변환의 크기가 1인 것을 기반으로, 즉, 대상 블록의 가로 및 세로의 길이가 모두 4보다 크거나 같고, 가로 또는 세로의 길이가 4이면, LFNST4x4에 적용되는 변환 커널의 차원은 16x16일 수 있다.
또는 일 예에 따라, 대상 블록의 가로 및 세로의 길이가 모두 8보다 크거나 같고, 가로 또는 세로의 길이가 8인 것에 기초하여, 즉, LFNST_8x8가 적용되는 경우 변환 커널은 48x16 매트릭스로 설정될 수 있다.
일 실시예에 따른 디코딩 장치(300)는, 수정된 변환 계수들에 대한 역 1차 변환을 기반으로 대상 블록에 대한 레지듀얼 샘플들을 도출할 수 있다(S1350).
디코딩 장치(300)는 대상 블록에 대한 수정된 변환 계수들에 대하여 역 1차 변환을 수행할 수 있으며, 이때 역 1차 변환은 간소화 역변환이 적용될 수도 있고, 통상적인 분리 변환이 사용될 수도 있다.
일 실시예에 따라, 역 1차 변환으로 DST-7, DCT-8 또는 KLT(Karhunen Loeve Transform) 등이 적용된 대상 블록에도 LFNST가 적용될 수 있다.
또는, 일 예에 따라, 수평 방향 변환 또는 수직 방향 변환에 변환 스킵이 적용된 대상 블록에도 LFNST가 적용될 수 있다.
역 1차 변환에 적용되는 변환 커널(DCT-2, DST-7, DCT-8 등) 또는 변환 커널들의 조합에 따라 변환 세트의 개수, 변환 세트를 구성하는 변환 커널의 개수 및 변환 커널의 차원 등에 대한 다양한 조합 설계가 가능하다.
일 실시예에 따른 디코딩 장치(300)는, 대상 블록에 대한 레지듀얼 샘플들 및 대상 블록에 대한 예측 샘플들을 기반으로 복원 픽처를 생성할 수 있다(S1360).
본 문서의 일 예에 따를 경우, 인트라 예측뿐만 아니라 인터 예측을 기반으로 예측 샘플들이 도출된 대상 블록에도 LFNST가 적용될수 있다. 움직임 정보, 움직임 벡터의 특징 등에 따라 변환 세트, 변환 커널 등이 다양하게 설계될 수 있다.
이하의 도면은 본 명세서의 구체적인 일례를 설명하기 위해 작성되었다. 도면에 기재된 구체적인 장치의 명칭이나 구체적인 신호/메시지/필드의 명칭은 예시적으로 제시된 것이므로, 본 명세서의 기술적 특징이 이하의 도면에 사용된 구체적인 명칭에 제한되지 않는다.
도 14는 본 문서의 일 실시예에 따른 비디오 인코딩 장치의 동작을 도시하는 흐름도이다.
도 14에 개시된 각 단계는 도 5 내지 도 12에서 전술된 내용들 중 일부를 기반으로 한 것이다. 따라서, 도 2 및 도 5 내지 도 12에서 전술된 내용과 중복되는 구체적인 내용은 설명을 생략하거나 간단히 하기로 한다.
일 실시예에 따른 인코딩 장치(200)는, 대상 블록에 적용되는 예측 모드에 기초하여 예측 샘플들 도출할 수 있다(S1410).
본 문서의 일 예에 따를 경우, 인트라 예측뿐만 아니라 인터 예측을 기반으로 예측 샘플들이 도출된 대상 블록에도 LFNST가 적용될수 있다. 움직임 정보, 움직임 벡터의 특징 등에 따라 후술될 변환 세트, 변환 커널 등이 다양하게 설계될 수 있다.
일 실시예에 따른 인코딩 장치(200)는, 예측 샘플들에 기초하여 대상 블록에 대한 레지듀얼 샘플들을 도출할 수 있다(S1420).
일 실시예에 따른 인코딩 장치(200)는, 레지듀얼 샘플에 대한 1차 변환을 기반으로 상기 대상 블록에 대한 변환 계수들 도출할 수 있다(S1430).
1차 변환은 복수의 변환 커널들을 통하여 수행될 수 있고, 이 경우, 인트라 예측 모드를 기반으로 변환 커널이 선택될 수 있다.
1차 변환은 간소화 역변환이 적용될 수도 있고, 통상적인 분리 변환이 사용될 수도 있다.
1차 변환으로 DCT-2, DST-7, DCT-8 또는 KLT(Karhunen Loeve Transform) 등이 적용될 수 있고, 본 문서의 일 실시예에 따라, 1차 변환으로 DCT-2가 아닌 DST-7, DCT-8 또는 KLT 등이 적용된 대상 블록에도 LFNST가 적용될 수 있다.
또는, 일 예에 따라, 수평 방향 변환 또는 수직 방향 변환에 변환 스킵이 적용된 대상 블록에도 LFNST가 적용될 수 있다.
1차 변환에 적용되는 변환 커널(DCT-2, DST-7, DCT-8 등) 또는 변환 커널들의 조합에 따라 LFNST에 적용되는 변환 세트의 개수, 변환 세트를 구성하는 변환 커널의 개수 및 변환 커널의 차원 등에 대한 다양한 조합 설계가 가능하다.
일 실시예에 따른 인코딩 장치(200)는, 2차 변환에 적용될 변환 커널을 도출하고(S1440), 도출된 변환 커널을 기반으로 변환 계수에 대한 2차 변환을 수행하여 대상 블록에 대한 수정된 변환 계수들을 도출할 수 있다(S1450).
이 때, 대상 블록의 가로 및 세로의 길이가 모두 4보다 크거나 같고, 가로 또는 세로의 길이가 4인 것에 기초하여, 변환 커널은 16x16 매트릭스로 도출되고, 대상 블록의 가로 및 세로의 길이가 모두 8보다 크거나 같고, 가로 또는 세로의 길이가 8인 것에 기초하여, 변환 커널은 16x48 매트릭스로 도출될 수 있다.
또는 일 예에 따라, 대상 블록의 가로 및 세로의 길이가 모두 8보다 크거나 같고, 가로 또는 세로의 길이가 8인 것에 기초하여, 변환 커널은 32x64 매트릭스로 도출되고, 대상 블록의 가로 및 세로의 길이가 모두 8인 것에 기초하여, 32x64 매트릭스로부터 샘플링된 16x64 매트릭스가 대상 블록의 상기 2차 변환에 적용될 수 있다.
본 문서에 따를 경우, 2차 변환은 LFNST, 즉, RST가 반영된 비분리 2차 변환을 포함할 수 있고, 2차 변환은 LFNST 커널을 기반으로 수행될 수 있고, LFNST 커널은 행의 개수가 열의 개수보다 적은 비정방형 매트릭스일 수 있다.
본 문서에 따를 경우, 기존의 VVC 표준과 달리, 16x16 보다 크거나 같은 변환 블록의 좌상단 16x16 영역에 LFNST가 적용될 수 있다. 본 문서에서 PxQ 블록이 MxN 블록보다 크거나 같다는 뜻은 P과 Q가 각기 M과 N보다 크거나 같다는 것을 의미한다. 일 예로, 좌상단 16x16 내 6개의 4x4 서브 블록들로 이루어진 96개의 샘플들에 대한 영역에 LFNST가 적용될 수 있다. 즉, 대상 블록의 좌상단 16x16 영역에 속한 일부 변환 계수를 기반으로 변환 계수보다 적은 개수의 수정된 변환 계수를 도출할 수 있다. 일 예에 따라 인코딩 장치는 대상 블록의 크기가 MxN(M≥16, N≥16)인 것에 기초하여, 대상 블록의 좌상단 영역의 L개(48<L≤96)의 변환 계수를 기반으로 R개의 수정된 변환 계수를 도출할 수 있다. 도출된 R개의 수정된 변환 계수는 소정의 스캐닝 순서에 따라 출력 어레이로 도출될 수 있다. R은 L보다 작다.
인코딩 장치에서 2차 변환의 대상이 되는 입력 변환 계수의 영역을 의미하는 입력 영역은 디코딩 방법에서 설명된 출력 영역 및 상술된 도면들을 참고하여 설명된 ROI에 대응될 수 있다. 따라서, ROI에 대한 중복된 설명은 생략한다.
입력 영역에 배열되는 입력 변환 계수들의 개수 L 및 매트릭스 연산을 통하여 도출된 수정된 변환 계수들의 개수 R 은 변환 커널의 차원에 따라 변경될 수 있다. 일 예에 따라, R은 16, 32, 48, 80 등이 될 수 있고, L은 64 또는 96이 될 수 있다.
상술된 바와 같이, 수정된 변환 계수를 도출하는 단계는 변환을 위한 변환 커널을 도출하는 단계를 포함할 수 있고, 변환 커널은 대상 블록에 적용되는 인트라 예측 모드를 기반으로 도출되는 변환 세트를 기반으로 도출될 수 있다.
16x16 매트릭스는 표 9 내지 표 18을 기반으로 구성될 수 있고, 16x48 차원 매트릭스는 표 19 내지 표 33을 기반으로 구성될 수 있다.
한편, 대상 블록의 크기를 기반으로 2차 변환의 크기가 설정될 수 있고, 이러한 2차 변환의 크기에 기초하여 변환 세트의 개수, 변환 세트를 구성하는 변환 커널의 개수 및 변환 커널의 차원 중 적어도 하나가 도출될 수 있다.
대상 블록의 가로 및 세로의 길이가 모두 4보다 크거나 같고, 가로 또는 세로의 길이가 4인 것에 기초하여, 2차 변환의 크기는 제1 값으로 설정될 수 있다. 예를 들어 제1 값은 2로 설정될 수 있다. 2차 변환의 크기가 2인 것은, 대상 블록의 좌상단 4x4 영역에 LFNST가 적용되는 것으로, 상술된 LFNST_4x4에 대응될 수 있다.
또는 대상 블록의 가로 및 세로의 길이가 모두 8보다 크거나 같고, 가로 또는 세로의 길이가 8인 것에 기초하여, 2차 변환의 크기는 제2 값으로 설정될 수 있다. 예를 들어 제2 값은 3으로 설정될 수 있다. 2차 변환의 크기가 3인 것은, 대상 블록의 좌상단 8x8 영역에 LFNST가 적용되는 것으로, 상술된 LFNST_8x8에 대응될 수 있다.
또는, 대상 블록의 가로 및 세로의 길이가 모두 16보다 크거나 같은 것에 기초하여, 2차 변환의 크기는 제3 값으로 설정될 수 있다. 예를 들어 제3 값은 4로 설정될 수 있다. 2차 변환의 크기가 4인 것은, 대상 블록의 좌상단 16x16 영역에 LFNST가 적용되는 것으로, 상술된 LFNST_16x16에 대응될 수 있다.
2차 변환의 크기, 즉, LFNST가 적용되는 크기에 따른 그룹핑을 기반으로 대상 블록에 적용되는 변환 세트의 개수, 변환 세트를 구성하는 변환 커널의 개수 및 변환 커널의 차원 중 적어도 하나가 도출될 수 있다. 다시 말해, 변환 세트의 개수, 변환 세트를 구성하는 변환 커널의 개수 및 변환 커널의 차원 등은 2차 변환의 크기 또는 대상 블록의 크기에 대응하여 다양하게 설정 및 구성될 수 있다.
예를 들어, 2차 변환의 크기가 2인 것을 기반으로, 변환 커널의 차원은 16x16로 설정될 수 있다. 또한, 2차 변환의 크기가 3인 것을 기반으로, 변환 커널의 차원은 Rx48 또는 Sx64로 설정될수 있고, 이 때 R은 16, 32, 48 중 어느 하나로, S는 16, 32, 48, 64 중 어느 하나로 설정될 수 있다. 또한, 2차 변환의 크기가 4인 것을 기반으로, 변환 커널의 차원은 Rx96, Sx64 또는 Tx48 중 어느 하나로 설정되고, R은 16, 32, 48, 64, 80, 96 중 어느 하나고, S는 16, 32, 48, 64 중 어느 하나이고, T는 16, 32, 48 중 어느 하나로 설정될 수 있다.
또는 일 예에 따라, 2차 변환의 크기가 1인 것을 기반으로, 즉, 대상 블록의 가로 및 세로의 길이가 모두 4보다 크거나 같고, 가로 또는 세로의 길이가 4이면, LFNST4x4에 적용되는 변환 커널의 차원은 16x16일 수 있다.
또는 일 예에 따라, 대상 블록의 가로 및 세로의 길이가 모두 8보다 크거나 같고, 가로 또는 세로의 길이가 8인 것에 기초하여, 즉, LFNST_8x8가 적용되는 경우 변환 커널은 16x48 매트릭스로 설정될 수 있다.
일 실시예에 따른 인코딩 장치(200)는, 대상 블록에 대한 레지듀얼 정보를 포함하는 영상 정보를 인코딩할 수 있다(S1460).
인코딩 장치는 수정된 변환 계수들을 기반으로 양자화를 수행하여 양자화된 변환 계수들을 도출하고, 양자화된 변환 계수들에 관한 레지듀얼 정보를 생성 및 인코딩할 수 있다. 레지듀얼 정보는 상술한 변환 관련 정보/신택스 요소를 포함할 수 있다. 인코딩 장치는 레지듀얼 정보를 포함하는 영상/비디오 정보를 인코딩하여 비트스트림 형태로 출력할 수 있다.
또한 인코딩 장치는 대상 블록에 적용된 LFNST에 대한 정보도 인코딩할 수 있고, LFNST에 대한 정보는 SPS(Sequence Parameter Set) 또는 슬라이스 헤더(slice header)에 포함될 수 있다. 이러한 정보는 LFNST가 적용되는지 여부에 대한 정보, LFNST를 적용하는 최소 변환 사이즈에 대한 정보, LFNST를 적용하는 최대 변환 사이즈에 대한 정보, 변환 세트에 포함된 변환 커널 중 어느 하나를 지시하는 변환 인덱스에 대한 정보 중 적어도 하나를 포함할 수 있다.
본 문서에서 양자화/역양자화 및/또는 변환/역변환 중 적어도 하나는 생략될 수 있다. 상기 양자화/역양자화가 생략되는 경우, 상기 양자화된 변환 계수는 변환 계수라고 불릴 수 있다. 상기 변환/역변환이 생략되는 경우, 상기 변환 계수는 계수 또는 레지듀얼 샘플이라고 불릴 수도 있고, 또는 표현의 통일성을 위하여 변환 계수라고 여전히 불릴 수도 있다.
또한, 본 문서에서 양자화된 변환 계수 및 변환 계수는 각각 변환 계수 및 스케일링된(scaled) 변환 계수라고 지칭될 수 있다. 이 경우 레지듀얼 정보는 변환 계수(들)에 관한 정보를 포함할 수 있고, 상기 변환 계수(들)에 관한 정보는 레지듀얼 코딩 신택스를 통하여 시그널링될 수 있다. 상기 레지듀얼 정보(또는 상기 변환 계수(들)에 관한 정보)를 기반으로 변환 계수들이 도출될 수 있고, 상기 변환 계수들에 대한 역변환(스케일링)을 통하여 스케일링된 변환 계수들이 도출될 수 있다. 상기 스케일링된 변환 계수들에 대한 역변환(변환)을 기반으로 레지듀얼 샘플들이 도출될 수 있다. 이는 본 문서의 다른 부분에서도 마찬가지로 적용/표현될 수 있다.
상술한 실시예에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 문서는 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당업자라면 순서도에 나타내어진 단계들이 배타적이지 않고, 다른 단계가 포함되거나 순서도의 하나 또는 그 이상의 단계가 본 문서의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
상술한 본 문서에 따른 방법은 소프트웨어 형태로 구현될 수 있으며, 본 문서에 따른 인코딩 장치 및/또는 디코딩 장치는 예를 들어 TV, 컴퓨터, 스마트폰, 셋톱박스, 디스플레이 장치 등의 영상 처리를 수행하는 장치에 포함될 수 있다.
본 문서에서 실시예들이 소프트웨어로 구현될 때, 상술한 방법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리에 저장되고, 프로세서에 의해 실행될 수 있다. 메모리는 프로세서 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서와 연결될 수 있다. 프로세서는 ASIC(application-specific integrated circuit), 다른 칩셋, 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다. 메모리는 ROM(read-only memory), RAM(random access memory), 플래쉬 메모리, 메모리 카드, 저장 매체 및/또는 다른 저장 장치를 포함할 수 있다. 즉, 본 문서에서 설명한 실시예들은 프로세서, 마이크로 프로세서, 컨트롤러 또는 칩 상에서 구현되어 수행될 수 있다. 예를 들어, 각 도면에서 도시한 기능 유닛들은 컴퓨터, 프로세서, 마이크로 프로세서, 컨트롤러 또는 칩 상에서 구현되어 수행될 수 있다.
또한, 본 문서가 적용되는 디코딩 장치 및 인코딩 장치는 멀티미디어 방송 송수신 장치, 모바일 통신 단말, 홈 시네마 비디오 장치, 디지털 시네마 비디오 장치, 감시용 카메라, 비디오 대화 장치, 비디오 통신과 같은 실시간 통신 장치, 모바일 스트리밍 장치, 저장 매체, 캠코더, 주문형 비디오(VoD) 서비스 제공 장치, OTT 비디오(Over the top video) 장치, 인터넷 스트리밍 서비스 제공 장치, 3차원(3D) 비디오 장치, 화상 전화 비디오 장치, 및 의료용 비디오 장치 등에 포함될 수 있으며, 비디오 신호 또는 데이터 신호를 처리하기 위해 사용될 수 있다. 예를 들어, OTT 비디오(Over the top video) 장치로는 게임 콘솔, 블루레이 플레이어, 인터넷 접속 TV, 홈시어터 시스템, 스마트폰, 태블릿 PC, DVR(Digital Video Recoder) 등을 포함할 수 있다.
또한, 본 문서가 적용되는 처리 방법은 컴퓨터로 실행되는 프로그램의 형태로 생산될 수 있으며, 컴퓨터가 판독할 수 있는 기록 매체에 저장될 수 있다. 본 문서에 따른 데이터 구조를 가지는 멀티미디어 데이터도 또한 컴퓨터가 판독할 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 판독할 수 있는 기록 매체는 컴퓨터로 읽을 수 있는 데이터가 저장되는 모든 종류의 저장 장치 및 분산 저장 장치를 포함한다. 상기 컴퓨터가 판독할 수 있는 기록 매체는, 예를 들어, 블루레이 디스크(BD), 범용 직렬 버스(USB), ROM, PROM, EPROM, EEPROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크 및 광학적 데이터 저장 장치를 포함할 수 있다. 또한, 상기 컴퓨터가 판독할 수 있는 기록 매체는 반송파(예를 들어, 인터넷을 통한 전송)의 형태로 구현된 미디어를 포함한다. 또한, 인코딩 방법으로 생성된 비트스트림이 컴퓨터가 판독할 수 있는 기록 매체에 저장되거나 유무선 통신 네트워크를 통해 전송될 수 있다. 또한, 본 문서의 실시예는 프로그램 코드에 의한 컴퓨터 프로그램 제품으로 구현될 수 있고, 상기 프로그램 코드는 본 문서의 실시예에 의해 컴퓨터에서 수행될 수 있다. 상기 프로그램 코드는 컴퓨터에 의해 판독 가능한 캐리어 상에 저장될 수 있다.
본 명세서에 기재된 청구항들은 다양한 방식으로 조합될 수 있다. 예를 들어, 본 명세서의 방법 청구항의 기술적 특징이 조합되어 장치로 구현될 수 있고, 본 명세서의 장치 청구항의 기술적 특징이 조합되어 방법으로 구현될 수 있다. 또한, 본 명세서의 방법 청구항의 기술적 특징과 장치 청구항의 기술적 특징이 조합되어 장치로 구현될 수 있고, 본 명세서의 방법 청구항의 기술적 특징과 장치 청구항의 기술적 특징이 조합되어 방법으로 구현될 수 있다.

Claims (12)

  1. 디코딩 장치에 의하여 수행되는 영상 디코딩 방법에 있어서,
    비트스트림으로부터 획득된 레지듀얼 정보를 기반으로 대상 블록에 대한 변환 계수들을 도출하는 단계;
    상기 변환 계수들에 대하여 역 2차 변환을 기반으로 수정된 변환 계수들을 도출하는 단계;
    상기 수정된 변환 계수들에 대한 역 1차 변환을 기반으로 상기 대상 블록에 대한 레지듀얼 샘플들을 도출하는 단계를 포함하되,
    상기 수정된 변환 계수를 도출하는 단계는 상기 역 2차 변환에 적용될 변환 커널을 도출하는 단계를 포함하고,
    상기 대상 블록의 가로 및 세로의 길이가 모두 4보다 크거나 같고, 가로 또는 세로의 길이가 4인 것에 기초하여, 상기 변환 커널은 16x16 매트릭스로 도출되고,
    상기 대상 블록의 가로 및 세로의 길이가 모두 8보다 크거나 같고, 가로 또는 세로의 길이가 8인 것에 기초하여, 상기 변환 커널은 48x16 매트릭스로 도출되는 것을 특징으로 하는 영상 디코딩 방법.
  2. 제1항에 있어서,
    상기 16x16 차원 매트릭스는 아래의 매트릭스를 기반으로 도출되는 것을 특징으로 하는 영상 디코딩 방법.
    Figure PCTKR2022008521-appb-img-000039
  3. 제1항에 있어서,
    상기 48x16 차원 매트릭스는 아래의 매트릭스를 기반으로 도출되는 것을 특징으로 하는 영상 디코딩 방법.
    Figure PCTKR2022008521-appb-img-000040
  4. 영상 인코딩 장치에 의하여 수행되는 영상 인코딩 방법에 있어서,
    대상 블록에 대한 예측 샘플들에 기초하여 상기 대상 블록에 대한 레지듀얼 샘플들을 도출하는 단계;
    상기 레지듀얼 샘플에 대한 1차 변환을 기반으로 상기 대상 블록에 대한 변환 계수들을 도출하는 단계;
    상기 변환 계수에 대하여 2차 변환을 기반으로 수정된 변환 계수들을 도출하는 단계와;
    상기 수정된 변환 계수들 기반으로 도출된 레지듀얼 정보를 포함하는 영상 정보를 인코딩하는 단계를 포함하되,
    상기 수정된 변환 계수를 도출하는 단계는, 상기 2차 변환에 적용될 변환 커널을 도출하는 단계를 포함하고,
    상기 대상 블록의 가로 및 세로의 길이가 모두 4보다 크거나 같고, 가로 또는 세로의 길이가 4인 것에 기초하여, 상기 변환 커널은 16x16 매트릭스로 도출되고,
    상기 대상 블록의 가로 및 세로의 길이가 모두 8보다 크거나 같고, 가로 또는 세로의 길이가 8인 것에 기초하여, 상기 변환 커널은 16x48 매트릭스로 도출되는 것을 특징으로 하는 영상 인코딩 방법.
  5. 제4항에 있어서,
    상기 16x16 차원 매트릭스는 아래의 매트릭스를 기반으로 도출되는 것을 특징으로 하는 영상 인코딩 방법.
    Figure PCTKR2022008521-appb-img-000041
  6. 제4항에 있어서,
    상기 16x48 차원 매트릭스는 아래의 매트릭스를 기반으로 도출되는 것을 특징으로 하는 영상 인코딩 방법.
    Figure PCTKR2022008521-appb-img-000042
  7. 컴퓨터 판독 가능한 디지털 저장 매체로서, 상기 디지털 저장 매체에는 소정 방법에 따라 생성된 비트스트림이 저장되고, 상기 방법은,
    대상 블록에 대한 예측 샘플들에 기초하여 상기 대상 블록에 대한 레지듀얼 샘플들을 도출하는 단계;
    상기 레지듀얼 샘플에 대한 1차 변환을 기반으로 상기 대상 블록에 대한 변환 계수들을 도출하는 단계;
    상기 변환 계수에 대하여 2차 변환을 기반으로 수정된 변환 계수들을 도출하는 단계와;
    상기 비트스트림을 생성하기 위하여, 상기 수정된 변환 계수들 기반으로 도출된 레지듀얼 정보를 포함하는 영상 정보를 인코딩하는 단계를 포함하되,
    상기 수정된 변환 계수를 도출하는 단계는, 상기 2차 변환에 적용될 변환 커널을 도출하는 단계를 포함하고,
    상기 대상 블록의 가로 및 세로의 길이가 모두 4보다 크거나 같고, 가로 또는 세로의 길이가 4인 것에 기초하여, 상기 변환 커널은 16x16 매트릭스로 도출되고,
    상기 대상 블록의 가로 및 세로의 길이가 모두 8보다 크거나 같고, 가로 또는 세로의 길이가 8인 것에 기초하여, 상기 변환 커널은 16x48 매트릭스로 도출되는 것을 특징으로 하는 디지털 저장 매체.
  8. 제7항에 있어서,
    상기 16x16 차원 매트릭스는 아래의 매트릭스를 기반으로 도출되는 것을 특징으로 하는 디지털 저장 매체.
    Figure PCTKR2022008521-appb-img-000043
  9. 제7항에 있어서,
    상기 16x48 차원 매트릭스는 아래의 매트릭스를 기반으로 도출되는 것을 특징으로 하는 디지털 저장 매체.
    Figure PCTKR2022008521-appb-img-000044
  10. 영상에 대한 데이터의 전송 방법에 있어서,
    상기 영상에 대한 비트스트림을 획득하되, 상기 비트스트림은 대상 블록에 대한 예측 샘플들에 기초하여 상기 대상 블록에 대한 레지듀얼 샘플들을 도출하는 단계; 상기 레지듀얼 샘플에 대한 1차 변환을 기반으로 상기 대상 블록에 대한 변환 계수들을 도출하는 단계; 상기 변환 계수에 대하여 2차 변환을 기반으로 수정된 변환 계수들을 도출하는 단계와; 상기 비트스트림을 생성하기 위하여, 상기 수정된 변환 계수들 기반으로 도출된 레지듀얼 정보를 포함하는 영상 정보를 인코딩하는 단계를 수행하여 생성되고,
    상기 비트스트림을 포함하는 상기 데이터를 전송하는 단계를 포함하고,
    상기 대상 블록의 가로 및 세로의 길이가 모두 4보다 크거나 같고, 가로 또는 세로의 길이가 4인 것에 기초하여, 상기 변환 커널은 16x16 매트릭스로 도출되고,
    상기 대상 블록의 가로 및 세로의 길이가 모두 8보다 크거나 같고, 가로 또는 세로의 길이가 8인 것에 기초하여, 상기 변환 커널은 16x48 매트릭스로 도출되는 것을 특징으로 하는 전송 방법.
  11. 제10항에 있어서,
    상기 16x16 차원 매트릭스는 아래의 매트릭스를 기반으로 도출되는 것을 특징으로 하는 전송 방법.
    Figure PCTKR2022008521-appb-img-000045
  12. 제10항에 있어서,
    상기 16x48 차원 매트릭스는 아래의 매트릭스를 기반으로 도출되는 것을 특징으로 하는 전송 방법.
    Figure PCTKR2022008521-appb-img-000046
PCT/KR2022/008521 2021-06-16 2022-06-16 영상 코딩 방법 및 그 장치 WO2022265420A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202163211519P 2021-06-16 2021-06-16
US63/211,519 2021-06-16

Publications (1)

Publication Number Publication Date
WO2022265420A1 true WO2022265420A1 (ko) 2022-12-22

Family

ID=84525797

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/008521 WO2022265420A1 (ko) 2021-06-16 2022-06-16 영상 코딩 방법 및 그 장치

Country Status (1)

Country Link
WO (1) WO2022265420A1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200057991A (ko) * 2018-11-19 2020-05-27 (주)휴맥스 비디오 신호를 위한 dst-7, dct-8 변환 커널 생성 유도 방법 및 장치
KR20200086732A (ko) * 2018-09-05 2020-07-17 엘지전자 주식회사 비디오 신호의 부호화/복호화 방법 및 이를 위한 장치
KR20200086735A (ko) * 2018-09-02 2020-07-17 엘지전자 주식회사 영상 신호를 처리하기 위한 방법 및 장치
KR102231975B1 (ko) * 2014-07-25 2021-03-24 인텔 코포레이션 순방향 변환 행렬을 사용하여 비디오 인코더에 의해 순방향 변환을 수행하는 기술

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102231975B1 (ko) * 2014-07-25 2021-03-24 인텔 코포레이션 순방향 변환 행렬을 사용하여 비디오 인코더에 의해 순방향 변환을 수행하는 기술
KR20200086735A (ko) * 2018-09-02 2020-07-17 엘지전자 주식회사 영상 신호를 처리하기 위한 방법 및 장치
KR20200086732A (ko) * 2018-09-05 2020-07-17 엘지전자 주식회사 비디오 신호의 부호화/복호화 방법 및 이를 위한 장치
KR20200057991A (ko) * 2018-11-19 2020-05-27 (주)휴맥스 비디오 신호를 위한 dst-7, dct-8 변환 커널 생성 유도 방법 및 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
M. KOO (LGE), J. ZHAO (LGE), J. LIM (LGE), S. KIM (LGE): "AHG12: LFNST extension with large kernel", 22. JVET MEETING; 20210420 - 20210428; TELECONFERENCE; (THE JOINT VIDEO EXPLORATION TEAM OF ISO/IEC JTC1/SC29/WG11 AND ITU-T SG.16 ), 19 April 2021 (2021-04-19), pages 1 - 5, XP030294304 *

Similar Documents

Publication Publication Date Title
WO2020149648A1 (ko) 변환 스킵 플래그를 이용한 영상 코딩 방법 및 장치
WO2020009556A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치
WO2020046091A1 (ko) 다중 변환 선택에 기반한 영상 코딩 방법 및 그 장치
WO2020246806A1 (ko) 매트릭스 기반 인트라 예측 장치 및 방법
WO2020213946A1 (ko) 변환 인덱스를 이용하는 영상 코딩
WO2020213944A1 (ko) 영상 코딩에서 매트릭스 기반의 인트라 예측을 위한 변환
WO2020116961A1 (ko) 이차 변환에 기반한 영상 코딩 방법 및 그 장치
WO2020246803A1 (ko) 매트릭스 기반 인트라 예측 장치 및 방법
WO2021096172A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치
WO2020130661A1 (ko) 이차 변환에 기반한 영상 코딩 방법 및 그 장치
WO2020213945A1 (ko) 인트라 예측 기반 영상 코딩에서의 변환
WO2021172912A1 (ko) 사인 데이터 하이딩 관련 영상 디코딩 방법 및 그 장치
WO2021040492A1 (ko) 비디오/영상 코딩 시스템에서 변환 계수 코딩 방법 및 장치
WO2020246805A1 (ko) 매트릭스 기반 인트라 예측 장치 및 방법
WO2021086055A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치
WO2021040487A1 (ko) 영상 코딩 시스템에서 레지듀얼 데이터 코딩에 대한 영상 디코딩 방법 및 그 장치
WO2021025530A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치
WO2021025526A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치
WO2020242183A1 (ko) 광각 인트라 예측 및 변환에 기반한 영상 코딩 방법 및 그 장치
WO2020256482A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치
WO2021006700A1 (ko) 영상 코딩 시스템에서 레지듀얼 코딩 방법에 대한 플래그를 사용하는 영상 디코딩 방법 및 그 장치
WO2020130581A1 (ko) 이차 변환에 기반한 영상 코딩 방법 및 그 장치
WO2022182083A1 (ko) 영상 코딩 방법 및 그 장치
WO2021158048A1 (ko) Tsrc 가용 플래그의 시그널링 관련 영상 디코딩 방법 및 그 장치
WO2021040319A1 (ko) 비디오/영상 코딩 시스템에서 라이스 파라미터 도출 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22825343

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22825343

Country of ref document: EP

Kind code of ref document: A1