WO2020256413A1 - 적응적 루프내 필터링 방법 및 장치 - Google Patents

적응적 루프내 필터링 방법 및 장치 Download PDF

Info

Publication number
WO2020256413A1
WO2020256413A1 PCT/KR2020/007856 KR2020007856W WO2020256413A1 WO 2020256413 A1 WO2020256413 A1 WO 2020256413A1 KR 2020007856 W KR2020007856 W KR 2020007856W WO 2020256413 A1 WO2020256413 A1 WO 2020256413A1
Authority
WO
WIPO (PCT)
Prior art keywords
block
alf
current
adaptation parameter
parameter set
Prior art date
Application number
PCT/KR2020/007856
Other languages
English (en)
French (fr)
Inventor
임성창
강정원
이하현
이진호
김휘용
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to MX2021014754A priority Critical patent/MX2021014754A/es
Priority to US17/616,602 priority patent/US20220248006A1/en
Priority to CN202080040649.XA priority patent/CN113940085B/zh
Publication of WO2020256413A1 publication Critical patent/WO2020256413A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Definitions

  • the present invention relates to a video encoding/decoding method, an apparatus, and a recording medium storing a bitstream. Specifically, the present invention relates to an image encoding/decoding method and apparatus based on intra-loop filtering.
  • High-resolution and high-quality images such as high definition (HD) images and ultra high definition (UHD) images is increasing in various application fields.
  • the higher the resolution and quality of the video data the higher the amount of data is compared to the existing video data. Therefore, if the video data is transmitted using a medium such as a wired/wireless broadband line or stored using an existing storage medium, the transmission cost and The storage cost increases.
  • High-efficiency image encoding/decoding technology for an image having a higher resolution and image quality is required to solve these problems that occur as image data becomes high-resolution and high-quality.
  • Inter-screen prediction technology that predicts pixel values included in the current picture from a picture before or after the current picture using image compression technology
  • intra-screen prediction technology that predicts pixel values included in the current picture using pixel information in the current picture
  • Various technologies exist such as transformation and quantization technology for compressing the energy of the residual signal, and entropy coding technology that allocates short codes to values with a high frequency of appearance and long codes to values with low frequency of appearance.
  • Image data can be effectively compressed and transmitted or stored.
  • the deblocking filter is aimed at reducing the blocking phenomenon occurring at the boundary between blocks by performing vertical and horizontal filtering on the boundary of the block, but the deblocking filter is used to filter the original image and the reconstructed image when filtering the block boundary. There is a drawback of not minimizing the distortion of the fruit.
  • Sample adaptive offset is a method of adding an offset to a specific pixel through comparison of pixel values with adjacent pixels on a pixel-by-pixel basis to reduce ringing, or adding an offset to pixels whose pixel value falls within a specific range.
  • the red offset minimizes some distortion between the original image and the reconstructed image by using rate-distortion optimization, but there is a limit in terms of distortion minimization when the difference in distortion between the original image and the reconstructed image is large.
  • An object of the present invention is to provide a video encoding/decoding method and apparatus using adaptive intra-loop filtering.
  • Another object of the present invention is to provide a recording medium storing a bitstream generated by the video encoding/decoding method or apparatus of the present invention.
  • an adaptation parameter set including an ALF set composed of a plurality of adaptive loop filters (ALFs), from among the adaptation parameter sets, an ALF set applied to a current picture or slice
  • ALFs adaptive loop filters
  • Determining an adaptation parameter set applied to the current picture or slice including, from the adaptation parameter set applied to the current picture or slice, a current coding tree block (CTB, Coding Tree) included in the current picture or slice.
  • Block including an ALF set applied to the current CTB, determining an adaptation parameter set applied to the current CTB, and filtering the current coding tree block based on the determined ALF set of an adaptation parameter set applied to the current CTB.
  • a video decoding method is provided, wherein the adaptation parameter set includes information on the number of color difference ALFs, and the ALF set includes information on the number of color difference ALFs indicated by the number of color difference ALFs.
  • the adaptive parameter set includes a luminance cutting flag indicating whether nonlinear adaptive intra-loop filtering is performed on a luminance component, and a color difference indicating whether nonlinear adaptive intra-loop filtering is performed on a chrominance component. It may be characterized by including a cutting flag.
  • the adaptive parameter set includes a luminance cutting index indicating a cutting value for nonlinear adaptive intra-loop filtering when the luminance cutting flag indicates that nonlinear adaptive intra-loop filtering is performed on a luminance component. And, when the color difference cutting flag indicates that nonlinear adaptive intra-loop filtering is performed on a color difference component, a color difference cutting index indicating a cutting value for nonlinear adaptive intra-loop filtering may be included.
  • the luminance cutting index and the chrominance cutting index may be encoded with a fixed length of 2 bits.
  • a luminance cutting value for nonlinear adaptive in-loop filtering for a luminance component is determined, and the value indicated by the color difference cutting index and the current
  • a chrominance cutoff value for nonlinear adaptive in-loop filtering for a color difference component is determined, and when the value indicated by the luminance cutoff index and the value indicated by the chrominance cutoff index are the same, the luminance cutoff value And the color difference cutting value may be the same.
  • the adaptation parameter set includes an adaptation parameter set identifier indicating an identification number assigned to the adaptation parameter set and adaptation parameter set type information indicating a type of encoding information included in the adaptation parameter set. It can be characterized.
  • the determining of the adaptation parameter set applied to the current picture or slice includes obtaining information on the number of luminance ALF sets of the current picture or slice, and the number indicated by the luminance ALF set number information. It may be characterized in that it comprises the step of obtaining the luminance ALF set identifier.
  • the determining of an adaptation parameter set applied to the current picture or slice comprises: obtaining color difference ALF application information of the current picture or slice, and the color difference ALF application information is a Cb component and a Cr component When indicating that the ALF is applied to at least one of the above, it may be characterized by including the step of obtaining a color difference ALF set identifier.
  • obtaining the adaptation parameter set including the ALF set may include determining an adaptation parameter set including the ALF set when the adaptation parameter set type information indicates an ALF type. have.
  • the adaptation parameter set includes a luminance ALF signaling flag indicating whether the adaptation parameter set includes an ALF for a luminance component, and a color difference indicating whether the adaptation parameter set includes an ALF for a color difference component. It may be characterized by including an ALF signaling flag.
  • the adaptation parameter set includes information on the number of luminance signaling ALFs indicating the number of luminance signaling ALFs, and when the information on the number of luminance signaling ALFs indicates that the number of luminance signaling ALFs is more than one, luminance ALF It may be characterized by including a luminance ALF delta index indicating an index of a luminance signaling ALF referenced by a predetermined number of luminance ALFs in the set.
  • the adaptation parameter set includes one or more luminance signaling ALFs, and the predetermined number of luminance ALFs is determined from the one or more luminance signaling ALFs according to the luminance ALF delta index. have.
  • the adaptation parameter set includes information on the number of color difference ALFs indicating the number of color difference ALFs, and includes color difference ALFs as much as the number indicated by the number of color difference ALF information.
  • the determining of an adaptation parameter set applied to the current CTB includes obtaining a first ALF coded tree block flag indicating whether adaptive intra-loop filtering is applied to a luminance sample of the current coded tree block. And determining whether adaptive intra-loop filtering is applied to luminance samples of the current coded tree block according to the first ALF coded tree block flag, and adaptive intra-loop filtering to Cb samples of the current coded tree block Obtaining a second ALF coded tree block flag indicating whether or not is applied, and determining whether adaptive intra-loop filtering is applied to the Cb samples of the current coded tree block according to the second ALF coded tree block flag And a third ALF coded tree block flag indicating whether adaptive intra-loop filtering is applied to Cr samples of the current coded tree block, and according to the third ALF coded tree block flag, It may be characterized by including the step of determining whether the adaptive in-loop filtering is applied to the Cr samples.
  • the determining of the adaptation parameter set applied to the current CTB comprises: when adaptive intra-loop filtering is applied to a luminance sample of the current coding tree block, the ALF of the adaptation parameter set is applied to the current coding tree block.
  • Obtaining an adaptation parameter set application flag indicating whether a set is applied and when the adaptation parameter set application flag indicates that an ALF set of an adaptation parameter set is applied to the current coding tree block, applied to the current picture or slice
  • the determining of the adaptation parameter set applied to the current CTB comprises: when adaptive intra-loop filtering is applied to Cb samples of the current coding tree block, an ALF set applied to the current picture or slice is selected. Acquiring a second ALF coded tree block identifier representing an adaptation parameter set including a Cb ALF set applied to the current coding tree block from among one or more adaptation parameter sets included, the second ALF coded tree block identifier According to the step of determining an adaptation parameter set including a Cb ALF set applied to the current coding tree block, when adaptive intra-loop filtering is applied to Cr samples of the current coding tree block, applied to the current picture or slice Acquiring a third ALF coded tree block identifier representing an adaptation parameter set including a Cr ALF set applied to the current coded tree block from among one or more adaptation parameter sets including the ALF set to be used, and the third And determining an adaptation parameter set including a Cr ALF set applied to the current coded tree block according to the ALF coded tree
  • the filtering of the current coding tree block further includes allocating a block classification index to a basic filtering unit block of the current coding tree block, wherein the block classification index includes directional information and It may be characterized in that it is determined using activity information.
  • At least one of the directional information and the activity information may be determined based on a gradient value for at least one of vertical, horizontal, first diagonal, and second diagonal directions.
  • determining an adaptation parameter set including an ALF set consisting of a plurality of ALFs from among the adaptation parameter sets, applying to the current picture or slice, including an ALF set applied to a current picture or slice Determining an adaptation parameter set applied to the current picture or slice, including an ALF set applied to the current CTB included in the current picture or slice, from the adaptation parameter set applied to the current picture or slice Determining, and filtering the current coding tree block based on the determined ALF set of the adaptation parameter set applied to the current CTB, wherein the adaptation parameter set includes color difference ALF number information, and the ALF A video encoding method is provided, wherein the set includes the number of color difference ALFs indicated by the color difference ALF number information.
  • the adaptive parameter set includes a luminance cutting flag indicating whether nonlinear adaptive intra-loop filtering is performed on a luminance component, and a color difference indicating whether nonlinear adaptive intra-loop filtering is performed on a chrominance component. It may be characterized by including a cutting flag.
  • the adaptive parameter set includes a luminance cutting index indicating a cutting value for nonlinear adaptive intra-loop filtering when the luminance cutting flag indicates that nonlinear adaptive intra-loop filtering is performed on a luminance component. And, when the color difference cutting flag indicates that nonlinear adaptive intra-loop filtering is performed on a color difference component, a color difference cutting index indicating a cutting value for nonlinear adaptive intra-loop filtering may be included.
  • the luminance cutting index and the chrominance cutting index may be encoded with a fixed length of 2 bits.
  • a luminance cutting value for nonlinear adaptive in-loop filtering for a luminance component is determined, and the value indicated by the color difference cutting index and the current
  • a chrominance cutoff value for nonlinear adaptive in-loop filtering for a color difference component is determined, and when the value indicated by the luminance cutoff index and the value indicated by the chrominance cutoff index are the same, the luminance cutoff value And the color difference cutting value may be the same.
  • the adaptation parameter set includes an adaptation parameter set identifier indicating an identification number assigned to the adaptation parameter set and adaptation parameter set type information indicating a type of encoding information included in the adaptation parameter set. It can be characterized.
  • the determining of an adaptation parameter set applied to the current picture or slice includes determining the number of luminance ALF sets of the current picture or slice, and the number of luminance indicated by the luminance ALF set number information. It may be characterized in that it comprises the step of determining the ALF set identifier.
  • the determining of an adaptation parameter set applied to the current picture or slice includes determining color difference ALF application information of the current picture or slice, and the color difference ALF application information is a Cb component and a Cr component
  • the color difference ALF application information is a Cb component and a Cr component
  • the determining of the adaptation parameter set including the ALF set may include determining an adaptation parameter set including the ALF set when the adaptation parameter set type information indicates an ALF type. have.
  • the adaptation parameter set includes a luminance ALF signaling flag indicating whether the adaptation parameter set includes an ALF for a luminance component, and a color difference indicating whether the adaptation parameter set includes an ALF for a color difference component. It may be characterized by including an ALF signaling flag.
  • the adaptation parameter set includes information on the number of luminance signaling ALFs indicating the number of luminance signaling ALFs, and when the information on the number of luminance signaling ALFs indicates that the number of luminance signaling ALFs is more than one, luminance ALF It may be characterized by including a luminance ALF delta index indicating an index of a luminance signaling ALF referenced by a predetermined number of luminance ALFs in the set.
  • the adaptation parameter set includes one or more luminance signaling ALFs, and the predetermined number of luminance ALFs is determined from the one or more luminance signaling ALFs according to the luminance ALF delta index. have.
  • the adaptation parameter set includes information on the number of color difference ALFs indicating the number of color difference ALFs, and includes color difference ALFs as much as the number indicated by the number of color difference ALF information.
  • a first ALF coded tree block flag indicating whether adaptive intra-loop filtering is applied to a luminance sample of the current coded tree block is determined.
  • a second ALF coded tree block flag indicating whether adaptive intra-loop filtering is applied to Cb samples of the current coded tree block is determined, and whether adaptive intra-loop filtering is applied to Cr samples of the current coded tree block. It may be characterized in that a third ALF coded tree block flag indicating whether or not is determined.
  • the determining of the adaptation parameter set applied to the current CTB comprises: when adaptive intra-loop filtering is applied to a luminance sample of the current coding tree block, the ALF of the adaptation parameter set is applied to the current coding tree block. Determining an adaptation parameter set application flag indicating whether a set is applied, and when the adaptation parameter set application flag indicates that an ALF set of an adaptation parameter set is applied to the current coding tree block, applied to the current picture or slice Determining a luminance ALF set applied to the current coding tree block from one or more adaptation parameter sets including an ALF set, and wherein the adaptation parameter set application flag is applied to the current coding tree block. It may be characterized by including the step of determining a fixed filter applied to the current coding tree block from among fixed ALF sets for luminance samples when indicating not applied.
  • the determining of the adaptation parameter set applied to the current CTB comprises: when adaptive intra-loop filtering is applied to Cb samples of the current coding tree block, an ALF set applied to the current picture or slice is selected. Determining a second ALF coded tree block identifier representing an adaptation parameter set including a Cb ALF set applied to the current coding tree block from among one or more adaptation parameter sets included, the second ALF coded tree block identifier According to the step of determining an adaptation parameter set including a Cb ALF set applied to the current coding tree block, when adaptive intra-loop filtering is applied to Cr samples of the current coding tree block, applied to the current picture or slice Determining a third ALF coded tree block identifier representing an adaptation parameter set including a Cr ALF set applied to the current coded tree block from among one or more adaptation parameter sets including the ALF set to be used, and the third And determining an adaptation parameter set including a Cr ALF set applied to the current coded tree block according to the ALF coded tree
  • the filtering the current coded tree block further includes allocating a block classification index to a basic filtering unit block of the current coded tree block, wherein the block classification index is directional information It can be characterized by being determined using and activity information.
  • At least one of the directional information and the activity information may be determined based on a gradient value for at least one of vertical, horizontal, first diagonal, and second diagonal directions.
  • the video encoding method determines an adaptation parameter set including an ALF set composed of a plurality of ALFs. Determining, among the adaptation parameter sets, an adaptation parameter set applied to the current picture or slice, including an ALF set applied to a current picture or slice, an adaptation parameter set applied to the current picture or slice From, determining an adaptation parameter set applied to the current CTB, including an ALF set applied to the current CTB included in the current picture or slice, and an ALF set of the determined adaptation parameter set applied to the current CTB.
  • the adaptation parameter set includes information on the number of color difference ALFs, and the ALF set includes information on the number of color difference ALFs indicated by the number of color difference ALFs.
  • a computer-readable recording medium is provided.
  • a method and apparatus for encoding/decoding an image using intra-loop filtering can be provided.
  • an intra-loop filtering method and apparatus using subsample-based block classification may be provided.
  • an intra-loop filtering method and apparatus using a multi-filter type may be provided.
  • a recording medium storing a bitstream generated by the video encoding/decoding method or apparatus of the present invention can be provided.
  • FIG. 1 is a block diagram showing a configuration according to an embodiment of an encoding apparatus to which the present invention is applied.
  • FIG. 2 is a block diagram showing a configuration according to an embodiment of a decoding apparatus to which the present invention is applied.
  • FIG. 3 is a diagram schematically illustrating a split structure of an image when encoding and decoding an image.
  • FIG. 4 is a diagram for describing an embodiment of an intra prediction process.
  • 5 is a diagram for describing an embodiment of an inter prediction process.
  • FIG. 6 is a diagram for describing a process of transformation and quantization.
  • FIG. 7 is a diagram for describing reference samples usable for intra prediction.
  • 8A and 8B are flowcharts illustrating an image decoding method and an encoding method according to an embodiment of the present invention.
  • 9 is an example of determining a slope value according to a horizontal, vertical, first diagonal, and second diagonal direction.
  • 10 to 12 are examples of determining inclination values according to horizontal, vertical, first diagonal, and second diagonal directions based on a subsample.
  • 13 to 18 are other examples of determining inclination values according to horizontal, vertical, first diagonal, and second diagonal directions based on a subsample.
  • 19 to 30 are examples of determining inclination values according to horizontal, vertical, first diagonal, and second diagonal directions at a specific sample position according to an embodiment of the present invention.
  • FIG. 31 is an example of determining slope values according to horizontal, vertical, first diagonal, and second diagonal directions when a temporal layer identifier is the highest layer.
  • FIG. 32 is a diagram illustrating various computation techniques in place of 1D Laplacian computation according to an embodiment of the present invention.
  • FIG 33 is a diagram illustrating a filter having a rhombus shape according to an embodiment of the present invention.
  • 34 is a diagram illustrating a filter having a number of filter taps of 5x5 according to an embodiment of the present invention.
  • 35A and 35B are diagrams illustrating various filter types according to an embodiment of the present invention.
  • 36 is a diagram illustrating a horizontal or vertical symmetric filter according to an embodiment of the present invention.
  • FIG. 37 is a diagram illustrating a filter obtained by performing geometric transformation on a square, octagon, snowflake, and rhombus type filter according to an embodiment of the present invention.
  • FIG. 38 is a diagram illustrating a process of converting filter coefficients of a 9x9 rhombus shape into a filter coefficients of a 5x5 square shape according to an embodiment of the present invention.
  • 39 to 55 are still other examples of determining the sum of slope values in the horizontal, vertical, first diagonal, and second diagonal directions based on a subsample.
  • 57 shows an embodiment of an adaptive parameter set syntax required for adaptive intra-loop filtering.
  • 58 shows an embodiment of an adaptation parameter type of an adaptation parameter set.
  • 59 shows an embodiment of slice header syntax required for adaptive intra-loop filtering.
  • 60A and 60D illustrate an embodiment of an adaptive intra-loop filter data syntax required for adaptive intra-loop filtering.
  • 61 shows an embodiment of a coding tree block syntax required for adaptive intra-loop filtering.
  • 62A and 62B illustrate an embodiment of a fixed filter coefficient.
  • 63 shows an embodiment of a mapping relationship between filter coefficient classes and filters in an adaptive loop.
  • 64 shows an embodiment of a truncating index of an adaptive in-loop filter data syntax.
  • FIG. 65 shows a detailed description of the cutting index of the adaptive in-loop filter data syntax of FIG. 64;
  • Fig. 66 shows another embodiment of a cutting index of an adaptive in-loop filter data syntax.
  • FIG. 67 shows a detailed description of the cutting index of the adaptive in-loop filter data syntax of FIG. 66;
  • 69A and 69B illustrate another embodiment of an adaptive intra-loop filter data syntax required for adaptive intra-loop filtering.
  • 70A and 70B illustrate another embodiment of a coding tree block syntax required for adaptive intra-loop filtering.
  • FIG. 71 shows a detailed description of the slice header syntax of FIG. 68.
  • FIGS. 69A and 69B show detailed descriptions of the adaptive in-loop filter data syntax of FIGS. 69A and 69B.
  • 74A and 74B illustrate another embodiment of a fixed filter coefficient.
  • 77 and 78 show detailed descriptions of the coding tree block syntax of FIG. 61.
  • 92 is a diagram illustrating a video decoding method using an adaptive intra-loop filter according to an embodiment.
  • FIG. 93 illustrates a video encoding method using an adaptive intra-loop filter according to an embodiment.
  • an adaptation parameter set including an ALF set composed of a plurality of adaptive loop filters (ALFs), from among the adaptation parameter sets, an ALF set applied to a current picture or slice
  • ALFs adaptive loop filters
  • Determining an adaptation parameter set applied to the current picture or slice including, from the adaptation parameter set applied to the current picture or slice, a current coding tree block (CTB, Coding Tree) included in the current picture or slice.
  • Block including an ALF set applied to the current CTB, determining an adaptation parameter set applied to the current CTB, and filtering the current coding tree block based on the determined ALF set of an adaptation parameter set applied to the current CTB.
  • a video decoding method is provided, wherein the adaptation parameter set includes information on the number of color difference ALFs, and the ALF set includes information on the number of color difference ALFs indicated by the number of color difference ALFs.
  • first and second may be used to describe various components, but the components should not be limited by the terms. These terms are used only for the purpose of distinguishing one component from another component.
  • a first element may be referred to as a second element, and similarly, a second element may be referred to as a first element.
  • the term and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.
  • a component of the present invention When a component of the present invention is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but other components exist in the middle. It should be understood that it may be possible. On the other hand, when a component is referred to as being “directly connected” or “directly connected” to another component, it should be understood that there is no other component in the middle.
  • each component shown in the embodiments of the present invention is independently shown to represent different characteristic functions, and does not mean that each component is formed of separate hardware or a single software component. That is, each constituent part is listed and included as a constituent part for convenience of explanation, and at least two constituent parts of each constituent part are combined to form one constituent part, or one constituent part is divided into a plurality of constituent parts to perform a function. Integrated embodiments and separate embodiments of the components are also included in the scope of the present invention unless departing from the essence of the present invention.
  • Some of the components of the present invention are not essential components that perform essential functions in the present invention, but may be optional components only for improving performance.
  • the present invention can be implemented by including only the components essential to implement the essence of the present invention excluding components used for performance improvement, and a structure including only essential components excluding optional components used for performance improvement Also included in the scope of the present invention.
  • an image may mean one picture constituting a video, and may represent a video itself.
  • encoding and/or decoding of an image may mean “encoding and/or decoding of a video” and “encoding and/or decoding of one of the images constituting a video” May be.
  • the target image may be an encoding target image that is an encoding target and/or a decoding target image that is a decoding target.
  • the target image may be an input image input through an encoding device or an input image input through a decoding device.
  • the target image may have the same meaning as the current image.
  • image image
  • picture picture
  • the target block may be an encoding target block that is an object of encoding and/or a decoding object block that is an object of decoding.
  • the target block may be a current block that is a target of current encoding and/or decoding.
  • target block and current block may have the same meaning, and may be used interchangeably.
  • block and “unit” may be used with the same meaning, and may be used interchangeably. Or “block” may represent a specific unit.
  • region and “segment” may be used interchangeably.
  • the specific signal may be a signal indicating a specific block.
  • the original signal may be a signal representing a target block.
  • the prediction signal may be a signal representing a prediction block.
  • the residual signal may be a signal indicating a residual block.
  • each of the specified information, data, flag, index and element, attribute, and the like may have a value.
  • a value "0" of information, data, flags, indexes, elements, attributes, etc. may represent a logical false or a first predefined value. That is to say, the value "0", false, logical false, and the first predefined value may be replaced with each other and used.
  • a value "1" of information, data, flags, indexes, elements, attributes, etc. may represent a logical true or a second predefined value. That is to say, the value "1", true, logical true and the second predefined value may be used interchangeably.
  • i When a variable such as i or j is used to indicate a row, column, or index, the value of i may be an integer greater than or equal to 0, or may be an integer greater than or equal to 1. That is to say, in embodiments, rows, columns, and indexes may be counted from 0, and may be counted from 1.
  • Encoder refers to a device that performs encoding. That is, it may mean an encoding device.
  • Decoder refers to a device that performs decoding. That is, it may mean a decoding device.
  • MxN array of samples M and N may mean positive integer values, and a block may often mean a two-dimensional array of samples.
  • a block can mean a unit.
  • the current block may mean an encoding object block, which is an object of encoding during encoding, and a decoding object block, which is an object of decoding when decoding. Also, the current block may be at least one of a coding block, a prediction block, a residual block, and a transform block.
  • Sample A basic unit that composes a block. It may be expressed as a value from 0 to 2Bd-1 according to the bit depth (Bd).
  • a sample may be used in the same sense as a pixel or pixel. That is, samples, pixels, and pixels may have the same meaning.
  • Unit It may mean a unit of image encoding and decoding.
  • a unit may be a region obtained by dividing one image.
  • a unit may mean a divided unit when one image is divided into subdivided units and encoded or decoded. That is, one image may be divided into a plurality of units.
  • a predefined process may be performed for each unit.
  • One unit may be further divided into sub-units having a smaller size than the unit.
  • the units are Block, Macroblock, Coding Tree Unit, Coding Tree Block, Coding Unit, Coding Block, and Prediction.
  • the unit may mean a unit (Prediction Unit), a prediction block (Prediction Block), a residual unit (Residual Unit), a residual block (Residual Block), a transform unit (Transform Unit), a transform block (Transform Block) and the like.
  • the unit may mean including a luminance component block, a chrominance component block corresponding thereto, and a syntax element for each block in order to distinguish it from the block.
  • the unit may have various sizes and shapes, and in particular, the shape of the unit may include not only a square, but also a geometric figure that can be expressed in two dimensions, such as a rectangle, a trapezoid, a triangle, and a pentagon.
  • the unit information may include at least one of a type of a unit indicating a coding unit, a prediction unit, a residual unit, a transform unit, and the like, a size of a unit, a depth of a unit, and an order of encoding and decoding units.
  • Coding Tree Unit It is composed of two color difference component (Cb, Cr) coded tree blocks related to one luminance component (Y) coded tree block. It may also mean including the blocks and a syntax element for each block.
  • Each coding tree unit uses one or more partitioning methods, such as a quad tree, a binary tree, and a ternary tree, to construct subunits such as coding units, prediction units, and transform units. Can be divided. Like division of an input image, it may be used as a term to refer to a sample block that becomes a processing unit in an image decoding/encoding process.
  • the quad tree may mean a quadrilateral tree.
  • the predetermined range may be defined as at least one of a maximum size and a minimum size of a coding block that can be divided only by a quadtree.
  • Information indicating the maximum/minimum size of a coding block in which quadtree-type division is allowed can be signaled through a bitstream, and the information is in at least one unit of a sequence, a picture parameter, a tile group, or a slice (segment). Can be signaled.
  • the maximum/minimum size of the coding block may be a fixed size pre-set in the encoder/decoder.
  • the size of the coding block when the size of the coding block corresponds to 256x256 to 64x64, it may be split only into a quadtree.
  • the size of the coding block when the size of the coding block is larger than the size of the maximum transform block, it may be divided only into a quadtree.
  • the divided block may be at least one of a coding block or a transform block.
  • the information indicating splitting of the coding block (eg, split_flag) may be a flag indicating whether to split the quadtree.
  • split_flag When the size of the coded block falls within a predetermined range, it may be divided into a binary tree or a three-division tree. In this case, the above description of the quad tree can be applied equally to a binary tree or a three-division tree.
  • Coding Tree Block It can be used as a term for referring to any one of a Y-coded tree block, a Cb-coded tree block, and a Cr-coded tree block.
  • Neighbor block May mean a block adjacent to the current block.
  • a block adjacent to the current block may refer to a block facing the current block or a block located within a predetermined distance from the current block.
  • the neighboring block may mean a block adjacent to the vertex of the current block.
  • the block adjacent to the vertex of the current block may be a block vertically adjacent to a neighboring block horizontally adjacent to the current block or a block horizontally adjacent to a neighboring block vertically adjacent to the current block.
  • the neighboring block may mean a restored neighboring block.
  • Reconstructed Neighbor Block This may mean a neighboring block that has already been encoded or decoded in a spatial/temporal manner around the current block.
  • the restored neighboring block may mean a restored neighboring unit.
  • the reconstructed spatial neighboring block may be a block in the current picture and already reconstructed through encoding and/or decoding.
  • the reconstructed temporal neighboring block may be a reconstructed block or a neighboring block at a position corresponding to the current block of the current picture in the reference image.
  • Unit Depth It may mean the degree to which a unit is divided.
  • the root node in the tree structure may correspond to the first undivided unit.
  • the highest node may be referred to as a root node.
  • the highest node may have a minimum depth value.
  • the uppermost node may have a depth of level 0.
  • a node having a depth of level 1 may represent a unit generated as the first unit is divided once.
  • a node with a depth of level 2 may represent a unit created as the first unit is divided twice.
  • a node having a depth of level n may represent a unit generated when the first unit is divided n times.
  • the leaf node may be the lowest node, and may be a node that cannot be further divided.
  • the depth of the leaf node may be at the maximum level.
  • a predefined value of the maximum level may be 3. It can be said that the root node has the shallowest depth, and the leaf node has the deepest depth.
  • the level at which the unit exists may mean the unit depth.
  • Bitstream May mean a sequence of bits including coded image information.
  • Parameter Set Corresponds to header information among structures in the bitstream. At least one of a video parameter set, a sequence parameter set, a picture parameter set, and an adaptation parameter set may be included in the parameter set. Also, the parameter set may include a tile group header, a slice header, and tile header information. In addition, the tile group may mean a group including several tiles, and may have the same meaning as a slice.
  • Parsing This may mean determining a value of a syntax element by entropy decoding a bitstream, or it may mean entropy decoding itself.
  • Symbol It may mean at least one of a syntax element of an encoding/decoding target unit, a coding parameter, and a value of a transform coefficient. Further, the symbol may mean an object of entropy encoding or a result of entropy decoding.
  • Prediction Mode This may be information indicating a mode encoded/decoded by intra prediction or a mode encoded/decoded by inter prediction.
  • Prediction Unit It may mean a basic unit when prediction is performed, such as inter prediction, intra prediction, inter-screen compensation, intra-screen compensation, and motion compensation.
  • One prediction unit may be divided into a plurality of partitions having a smaller size or a plurality of sub prediction units.
  • the plurality of partitions may also be basic units in performing prediction or compensation.
  • a partition generated by division of a prediction unit may also be a prediction unit.
  • Prediction Unit Partition This may mean a form in which a prediction unit is divided.
  • Reference Picture List This may mean a list including one or more reference pictures used for inter prediction or motion compensation.
  • the types of the reference image list may include LC (List Combined), L0 (List 0), L1 (List 1), L2 (List 2), L3 (List 3), and more than one reference image for inter prediction. Lists can be used.
  • Inter prediction indicator may mean an inter prediction direction (unidirectional prediction, bidirectional prediction, etc.) of the current block. Alternatively, it may mean the number of reference pictures used when generating a prediction block of the current block. Alternatively, it may mean the number of prediction blocks used when inter prediction or motion compensation is performed on the current block.
  • Prediction list utilization flag Indicates whether a prediction block is generated using at least one reference image in a specific reference image list.
  • An inter prediction indicator can be derived using the prediction list utilization flag, and conversely, the prediction list utilization flag can be derived by using the inter prediction indicator. For example, when the prediction list utilization flag indicates a first value of 0, it may indicate that a prediction block is not generated using a reference image in the reference image list, and when a second value of 1 is indicated, the reference It may indicate that a prediction block can be generated using an image list.
  • Reference Picture Index This may mean an index indicating a specific reference picture in the reference picture list.
  • Reference Picture This may mean an image referenced by a specific block for inter-screen prediction or motion compensation.
  • the reference image may be an image including a reference block referenced by the current block for inter prediction or motion compensation.
  • reference picture and reference image may be used with the same meaning, and may be used interchangeably.
  • Motion Vector It may be a 2D vector used for inter-screen prediction or motion compensation.
  • the motion vector may mean an offset between an encoding/decoding object block and a reference block.
  • (mvX, mvY) may represent a motion vector.
  • mvX may represent a horizontal component
  • mvY may represent a vertical component.
  • the search range may be a two-dimensional area in which a motion vector is searched during inter prediction.
  • the size of the search area may be MxN.
  • M and N may each be a positive integer.
  • Motion Vector Candidate When predicting a motion vector, it may mean a block to be a prediction candidate or a motion vector of the block. Also, the motion vector candidate may be included in the motion vector candidate list.
  • Motion Vector Candidate List This may mean a list constructed by using one or more motion vector candidates.
  • Motion Vector Candidate Index May mean an indicator indicating a motion vector candidate in the motion vector candidate list. It may be an index of a motion vector predictor.
  • Motion Information At least one of a motion vector, a reference image index, an inter-screen prediction indicator, as well as a prediction list utilization flag, reference image list information, reference image, motion vector candidate, motion vector candidate index, merge candidate, merge index, etc. It may mean information including one.
  • Merge Candidate List This may mean a list formed by using one or more merge candidates.
  • the merge candidate may include motion information such as an inter prediction indicator, a reference image index for each list, a motion vector, a prediction list utilization flag, and an inter prediction indicator.
  • Merge Index May mean an indicator indicating a merge candidate in the merge candidate list.
  • the merge index may indicate a block from which a merge candidate is derived from among blocks reconstructed spatially/temporally adjacent to the current block.
  • the merge index may indicate at least one of motion information of the merge candidate.
  • Transform Unit It may mean a basic unit when encoding/decoding a residual signal such as transform, inverse transform, quantization, inverse quantization, and transform coefficient encoding/decoding.
  • One transform unit may be divided into a plurality of sub-transform units having a smaller size.
  • the transform/inverse transform may include at least one of a first-order transform/inverse transform and a second-order transform/inverse transform.
  • Scaling This may mean a process of multiplying a quantized level by a factor. Transform coefficients can be generated as a result of scaling for the quantized level. Scaling can also be called dequantization.
  • Quantization Parameter In quantization, it may mean a value used when generating a quantized level using a transform coefficient. Alternatively, it may mean a value used when generating a transform coefficient by scaling a quantized level in inverse quantization.
  • the quantization parameter may be a value mapped to a quantization step size.
  • Residual quantization parameter (Delta Quantization Parameter): This may mean a difference value between the predicted quantization parameter and the quantization parameter of the encoding/decoding target unit.
  • Scan It may refer to a method of arranging the order of coefficients within a unit, block, or matrix. For example, sorting a two-dimensional array into a one-dimensional array is called a scan. Alternatively, arranging a one-dimensional array into a two-dimensional array may also be referred to as a scan or an inverse scan.
  • Transform Coefficient This may mean a coefficient value generated after transformation is performed by an encoder. Alternatively, it may mean a coefficient value generated after performing at least one of entropy decoding and inverse quantization in the decoder. A quantized level obtained by applying quantization to a transform coefficient or a residual signal or a quantized transform coefficient level may also be included in the meaning of the transform coefficient.
  • Quantized Level This may mean a value generated by quantizing a transform coefficient or a residual signal in an encoder. Alternatively, it may mean a value that is the target of inverse quantization before the decoder performs inverse quantization. Similarly, a quantized transform coefficient level resulting from transform and quantization may also be included in the meaning of the quantized level.
  • Non-zero transform coefficient It may mean a transform coefficient whose size is not 0, or a transform coefficient level or quantized level whose size is not 0.
  • Quantization Matrix This may mean a matrix used in a quantization or inverse quantization process in order to improve subjective or objective quality of an image.
  • the quantization matrix may also be called a scaling list.
  • Quantization Matrix Coefficient May mean each element in a quantization matrix.
  • the quantization matrix coefficient may also be referred to as a matrix coefficient.
  • Default matrix This may mean a predetermined quantization matrix defined in advance in an encoder and a decoder.
  • Non-default Matrix This may mean a quantization matrix that is not predefined by an encoder and a decoder and is signaled by a user.
  • the statistical value of at least one of the variables, encoding parameters, constants, etc. that has specific operable values is the average value, sum value, weighted average value, weighted sum value, minimum value, maximum value, mode value, median value of the specific values. And at least one of interpolation values.
  • FIG. 1 is a block diagram showing a configuration according to an embodiment of an encoding apparatus to which the present invention is applied.
  • the encoding device 100 may be an encoder, a video encoding device, or an image encoding device.
  • a video may include one or more images.
  • the encoding apparatus 100 may sequentially encode one or more images.
  • the encoding apparatus 100 includes a motion prediction unit 111, a motion compensation unit 112, an intra prediction unit 120, a switch 115, a subtractor 125, a transform unit 130, and a quantization unit.
  • a unit 140, an entropy encoder 150, an inverse quantization unit 160, an inverse transform unit 170, an adder 175, a filter unit 180, and a reference picture buffer 190 may be included.
  • the encoding apparatus 100 may encode an input image in an intra mode and/or an inter mode. Also, the encoding apparatus 100 may generate a bitstream including information encoded by encoding an input image, and may output the generated bitstream. The generated bitstream may be stored in a computer-readable recording medium or streamed through a wired/wireless transmission medium.
  • the switch 115 When the intra mode is used as the prediction mode, the switch 115 may be switched to intra, and when the inter mode is used as the prediction mode, the switch 115 may be switched to inter.
  • the intra mode may refer to an intra prediction mode
  • the inter mode may refer to an inter prediction mode.
  • the encoding apparatus 100 may generate a prediction block for an input block of an input image.
  • the encoding apparatus 100 may encode the residual block by using a residual between the input block and the prediction block.
  • the input image may be referred to as a current image that is a current encoding target.
  • the input block may be referred to as a current block or a current block to be encoded.
  • the intra prediction unit 120 may use a sample of a block already encoded/decoded around the current block as a reference sample.
  • the intra prediction unit 120 may perform spatial prediction for the current block using the reference sample, and may generate prediction samples for the input block through spatial prediction.
  • intra prediction may mean intra prediction.
  • the motion prediction unit 111 may search for an area that best matches the input block from the reference image in the motion prediction process, and may derive a motion vector using the searched area. .
  • a search area may be used as the area.
  • the reference image may be stored in the reference picture buffer 190.
  • it when encoding/decoding of the reference image is processed, it may be stored in the reference picture buffer 190.
  • the motion compensation unit 112 may generate a prediction block for the current block by performing motion compensation using a motion vector.
  • inter prediction may mean inter prediction or motion compensation.
  • the motion prediction unit 111 and the motion compensation unit 112 may generate a prediction block by applying an interpolation filter to a partial region of a reference image.
  • the motion prediction and motion compensation methods of the prediction units included in the coding unit are based on the coding unit, and the skip mode, merge mode, and improved motion vector prediction ( It is possible to determine whether there is an Advanced Motion Vector Prediction (AMVP) mode or a current picture reference mode, and according to each mode, inter prediction or motion compensation can be performed.
  • AMVP Advanced Motion Vector Prediction
  • the subtractor 125 may generate a residual block by using a difference between the input block and the prediction block.
  • the residual block may be referred to as a residual signal.
  • the residual signal may mean a difference between the original signal and the predicted signal.
  • the residual signal may be a signal generated by transforming, quantizing, or transforming and quantizing a difference between the original signal and the predicted signal.
  • the residual block may be a residual signal in units of blocks.
  • the transform unit 130 may transform the residual block to generate a transform coefficient, and may output the generated transform coefficient.
  • the transform coefficient may be a coefficient value generated by performing transform on the residual block.
  • the transform unit 130 may omit the transform of the residual block.
  • a quantized level may be generated by applying quantization to a transform coefficient or a residual signal.
  • the quantized level may also be referred to as a transform coefficient.
  • the quantization unit 140 may generate a quantized level by quantizing a transform coefficient or a residual signal according to a quantization parameter, and may output the generated quantized level. In this case, the quantization unit 140 may quantize the transform coefficient using a quantization matrix.
  • the entropy encoding unit 150 may generate a bitstream by performing entropy encoding according to a probability distribution on values calculated by the quantization unit 140 or values of a coding parameter calculated during an encoding process. Yes, and can output a bitstream.
  • the entropy encoder 150 may perform entropy encoding on information about a sample of an image and information for decoding an image. For example, information for decoding an image may include a syntax element or the like.
  • the entropy encoding unit 150 may use an encoding method such as exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC) for entropy encoding.
  • CAVLC Context-Adaptive Variable Length Coding
  • CABAC Context-Adaptive Binary Arithmetic Coding
  • the entropy encoding unit 150 may perform entropy encoding using a variable length encoding (VLC) table.
  • VLC variable length encoding
  • the entropy encoding unit 150 derives the binarization method of the target symbol and the probability model of the target symbol/bin, and then the derived binarization method, probability model, and context model. Arithmetic coding can also be performed using.
  • the entropy encoder 150 may change a two-dimensional block form coefficient into a one-dimensional vector form through a transform coefficient scanning method in order to encode a transform coefficient level (quantized level).
  • the coding parameter may include information (flags, indexes, etc.) encoded by the encoder and signaled by the decoder, such as a syntax element, as well as information derived during the encoding process or the decoding process. It can mean the information you need at the time.
  • signaling a flag or index may mean that the encoder entropy encodes the flag or index and includes the corresponding flag or index in the bitstream. This may mean entropy decoding.
  • the encoded current image may be used as a reference image for another image to be processed later. Accordingly, the encoding apparatus 100 may reconstruct or decode the encoded current image again, and store the reconstructed or decoded image as a reference image in the reference picture buffer 190.
  • the quantized level may be dequantized by the inverse quantization unit 160. It may be inverse transformed by the inverse transform unit 170.
  • the inverse quantized and/or inverse transformed coefficient may be summed with the prediction block through the adder 175, and a reconstructed block may be generated by adding the inverse quantized and/or inverse transformed coefficient and the prediction block.
  • the inverse quantized and/or inverse transformed coefficient means a coefficient in which at least one of inverse quantization and inverse transform is performed, and may mean a reconstructed residual block.
  • the restoration block may pass through the filter unit 180.
  • the filter unit 180 restores at least one of a deblocking filter, a sample adaptive offset (SAO), an adaptive loop filter (ALF), etc. to a reconstructed sample, a reconstructed block, or a reconstructed image. Can be applied to.
  • the filter unit 180 may also be referred to as an in-loop filter.
  • the deblocking filter may remove block distortion occurring at the boundary between blocks.
  • it may be determined whether to apply the deblocking filter to the current block based on samples included in several columns or rows included in the block.
  • different filters can be applied according to the required deblocking filtering strength.
  • An appropriate offset value may be added to a sample value to compensate for an encoding error using a sample adaptive offset.
  • the sample adaptive offset may correct an offset from the original image in units of samples for the deblocking image. After dividing the samples included in the image into a certain number of areas, a method of determining an area to perform offset and applying an offset to the corresponding area, or a method of applying an offset in consideration of edge information of each sample may be used.
  • the adaptive in-loop filter may perform filtering based on a value obtained by comparing the reconstructed image and the original image. After dividing the samples included in the image into predetermined groups, a filter to be applied to the group may be determined, and filtering may be performed differentially for each group. Information related to whether to apply the adaptive intra-loop filter may be signaled for each coding unit (CU), and the shape and filter coefficient of the adaptive intra-loop filter to be applied may vary according to each block.
  • CU coding unit
  • the reconstructed block or reconstructed image that has passed through the filter unit 180 may be stored in the reference picture buffer 190.
  • the reconstructed block that has passed through the filter unit 180 may be a part of the reference image.
  • the reference image may be a reconstructed image composed of reconstructed blocks that have passed through the filter unit 180.
  • the stored reference image can then be used for inter-screen prediction or motion compensation.
  • FIG. 2 is a block diagram showing a configuration according to an embodiment of a decoding apparatus to which the present invention is applied.
  • the decoding device 200 may be a decoder, a video decoding device, or an image decoding device.
  • the decoding apparatus 200 includes an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, an intra prediction unit 240, a motion compensation unit 250, and an adder 255.
  • a filter unit 260 and a reference picture buffer 270 may be included.
  • the decoding apparatus 200 may receive a bitstream output from the encoding apparatus 100.
  • the decoding apparatus 200 may receive a bitstream stored in a computer-readable recording medium or a bitstream streamed through a wired/wireless transmission medium.
  • the decoding apparatus 200 may perform decoding on a bitstream in an intra mode or an inter mode. Also, the decoding apparatus 200 may generate a reconstructed image or a decoded image through decoding, and may output a reconstructed image or a decoded image.
  • the switch When the prediction mode used for decoding is an intra mode, the switch may be switched to intra.
  • the prediction mode used for decoding is the inter mode, the switch may be switched to inter.
  • the decoding apparatus 200 may obtain a reconstructed residual block by decoding the input bitstream, and may generate a prediction block. When the reconstructed residual block and the prediction block are obtained, the decoding apparatus 200 may generate a reconstructed block to be decoded by adding the reconstructed residual block and the prediction block.
  • the block to be decoded may be referred to as a current block.
  • the entropy decoding unit 210 may generate symbols by performing entropy decoding according to a probability distribution for a bitstream.
  • the generated symbols may include quantized level symbols.
  • the entropy decoding method may be a reverse process of the entropy encoding method described above.
  • the entropy decoder 210 may change a one-dimensional vector form coefficient into a two-dimensional block form through a transform coefficient scanning method in order to decode a transform coefficient level (quantized level).
  • the quantized level may be inverse quantized by the inverse quantization unit 220 and may be inversely transformed by the inverse transform unit 230.
  • the quantized level is a result of performing inverse quantization and/or inverse transformation, and may be generated as a reconstructed residual block.
  • the inverse quantization unit 220 may apply a quantization matrix to the quantized level.
  • the intra prediction unit 240 may generate a prediction block by performing spatial prediction using a sample value of an already decoded block adjacent to the decoding target block on the current block.
  • the motion compensation unit 250 may generate a prediction block by performing motion compensation on the current block using a motion vector and a reference image stored in the reference picture buffer 270.
  • the motion compensation unit 250 may generate a prediction block by applying an interpolation filter to a partial region of a reference image.
  • the adder 255 may generate a reconstructed block by adding the reconstructed residual block and the prediction block.
  • the filter unit 260 may apply at least one of a deblocking filter, a sample adaptive offset, and an adaptive intra-loop filter to the reconstructed block or reconstructed image.
  • the filter unit 260 may output a reconstructed image.
  • the reconstructed block or reconstructed image may be stored in the reference picture buffer 270 and used for inter prediction.
  • the reconstructed block that has passed through the filter unit 260 may be a part of the reference image.
  • the reference image may be a reconstructed image composed of reconstructed blocks that have passed through the filter unit 260.
  • the stored reference image can then be used for inter-screen prediction or motion compensation.
  • 3 is a diagram schematically illustrating a split structure of an image when encoding and decoding an image. 3 schematically shows an embodiment in which one unit is divided into a plurality of sub-units.
  • a coding unit may be used in encoding and decoding.
  • An encoding unit may be used as a basic unit of image encoding/decoding.
  • an encoding unit may be used as a unit into which an intra prediction mode and an inter prediction mode are classified.
  • the coding unit may be a basic unit used for a process of prediction, transform, quantization, inverse transform, inverse quantization, or encoding/decoding of transform coefficients.
  • an image 300 is sequentially segmented in units of a largest coding unit (LCU), and a segmentation structure is determined in units of an LCU.
  • the LCU may be used in the same meaning as a coding tree unit (CTU).
  • the division of a unit may mean division of a block corresponding to a unit.
  • the block division information may include information on the depth of the unit.
  • the depth information may indicate the number and/or degree of division of the unit.
  • One unit may be hierarchically divided into a plurality of sub-units with depth information based on a tree structure. In other words, a unit and a sub-unit generated by the division of the unit may correspond to a node and a child node of the node, respectively.
  • Each divided sub-unit may have depth information.
  • the depth information may be information indicating the size of the CU, and may be stored for each CU. Since the unit depth indicates the number and/or degree of division of the unit, the division information of the sub-unit may include information on the size of the sub-unit.
  • the split structure may refer to a distribution of a coding unit (CU) within the CTU 310. This distribution may be determined according to whether or not to divide one CU into a plurality (a positive integer of 2 or more including 2, 4, 8, 16, etc.).
  • the horizontal and vertical dimensions of the CU generated by the division are either half the horizontal size and half the vertical size of the CU before division, or a size smaller than the horizontal size and the vertical size of the CU before division, depending on the number of divisions. Can have.
  • the CU can be recursively divided into a plurality of CUs.
  • the partitioning of the CU can be recursively performed up to a predefined depth or a predefined size.
  • the depth of the CTU may be 0, and the depth of the Smallest Coding Unit (SCU) may be a predefined maximum depth.
  • the CTU may be a coding unit having the largest coding unit size as described above, and the SCU may be a coding unit having the smallest coding unit size.
  • the division starts from the CTU 310, and the depth of the CU increases by one whenever the horizontal size and/or the vertical size of the CU is reduced by the division. For example, for each depth, a CU that is not divided may have a size of 2Nx2N. In addition, in the case of a divided CU, a CU having a size of 2Nx2N may be divided into four CUs having a size of NxN. The size of N can be halved for each increase in depth by 1.
  • information on whether the CU is divided may be expressed through partition information of the CU.
  • the division information may be 1-bit information. All CUs except the SCU may include partition information. For example, if the value of the split information is a first value, the CU may not be split, and if the value of the split information is a second value, the CU can be split.
  • a CTU having a depth of 0 may be a 64x64 block. 0 can be the minimum depth.
  • An SCU of depth 3 may be an 8x8 block. 3 can be the maximum depth.
  • CUs of 32x32 blocks and 16x16 blocks may be represented by depth 1 and depth 2, respectively.
  • the horizontal and vertical sizes of the four split coding units may each have a size of half compared to the horizontal and vertical sizes of the coding units before being split. have.
  • each of the divided four coding units may have a size of 16x16.
  • quad-tree quad-tree partition
  • the horizontal or vertical size of the two split coding units may have a size of half compared to the horizontal or vertical size of the coding unit before being split.
  • each of the two split coding units may have a size of 16x32.
  • each of the two split coding units may have a size of 8x16.
  • one coding unit when one coding unit is split into three coding units, it may be split into three coding units by splitting the horizontal or vertical size of the coding unit before splitting in a ratio of 1:2:1.
  • the three split coding units when a coding unit having a size of 16x32 is horizontally split into three coding units, the three split coding units may have sizes of 16x8, 16x16, and 16x8, respectively, from the top.
  • the split three coding units may have sizes of 8x32, 16x32, and 8x32 from the left, respectively.
  • the CTU 320 of FIG. 3 is an example of a CTU to which quadtree division, binary tree division, and three-division tree division are all applied.
  • quadtree division may be preferentially applied to the CTU.
  • An encoding unit that can no longer be divided into a quadtree may correspond to a leaf node of a quadtree.
  • the coding unit corresponding to the leaf node of the quadtree may be a root node of a binary tree and/or a three-division tree. That is, the coding unit corresponding to the leaf node of the quadtree may be divided into a binary tree, divided into a three-divided tree, or may not be further divided.
  • the coding unit corresponding to the leaf node of the quadtree is divided into a binary tree or generated by dividing a three-divided tree so that quadtree division is not performed again, so that block division and/or signaling of division information is performed. It can be done effectively.
  • the division of the coding unit corresponding to each node of the quadtree may be signaled using quad division information.
  • Quad splitting information having a first value (eg, '1') may indicate that the corresponding coding unit is quadtree split.
  • Quad segmentation information having a second value (eg, '0') may indicate that the corresponding coding unit is not quadtree segmented.
  • the quad division information may be a flag having a predetermined length (eg, 1 bit).
  • Priority may not exist between the binary tree division and the three-division tree division. That is, the coding unit corresponding to the leaf node of the quadtree may be divided into a binary tree or divided into a three-part tree. In addition, the coding unit generated by the binary tree division or the three-division tree division may be again divided into the binary tree or the three-division tree, or may not be further divided.
  • Partitioning when there is no priority between binary tree partitioning and three-partition tree partitioning can be referred to as a multi-type tree partition. That is, the coding unit corresponding to the leaf node of the quad tree may be the root node of the multi-type tree.
  • the division of the coding unit corresponding to each node of the complex type tree may be signaled using at least one of information about whether to divide the complex type tree, information about a division direction, and information about a division tree. In order to divide a coding unit corresponding to each node of the composite tree, information about whether to be divided, information about a division direction, and information about a division tree may be sequentially signaled.
  • the information on whether to split the composite type tree having the first value may indicate that the corresponding coding unit is split the composite type tree.
  • the information on whether to split the composite type tree having the second value may indicate that the corresponding coding unit is not split the composite type tree.
  • the coding unit may further include split direction information.
  • the division direction information may indicate the division direction of the complex type tree division.
  • Split direction information having a first value (eg, '1') may indicate that the corresponding encoding unit is split in the vertical direction.
  • the division direction information having the second value (eg, '0') may indicate that the corresponding encoding unit is divided in the horizontal direction.
  • the coding unit may further include split tree information.
  • the split tree information can indicate a tree used for splitting a composite tree.
  • Split tree information having a first value eg, '1'
  • Split tree information having a second value eg, '0'
  • Split tree information having a third value eg, '0'
  • the information on whether to be divided, information on the division tree, and information on the division direction may be flags each having a predetermined length (eg, 1 bit).
  • At least one of quad split information, information on whether to split the composite tree, split direction information, and split tree information may be entropy encoded/decoded.
  • information on a neighboring encoding unit adjacent to the current encoding unit may be used.
  • the split form (whether or not, the split tree and/or the split direction) of the left coding unit and/or the upper coding unit is likely to be similar to the split form of the current coding unit. Accordingly, it is possible to derive context information for entropy encoding/decoding of information of the current encoding unit based on information of the neighboring encoding unit.
  • the information on the neighboring coding unit may include at least one of quad split information of the corresponding coding unit, information on whether to split a complex type tree, information on a split direction, and information on a split tree.
  • the binary tree division may be performed preferentially. That is, the binary tree division is applied first, and the coding unit corresponding to the leaf node of the binary tree may be set as the root node of the three-division tree. In this case, quadtree splitting and binary tree splitting may not be performed for the coding unit corresponding to the node of the three-division tree.
  • a coding unit that is no longer split by quadtree splitting, binary tree splitting, and/or three-divided tree splitting may be a unit of coding, prediction, and/or transformation. That is, the coding unit may no longer be split for prediction and/or transformation. Therefore, a split structure for splitting the coding unit into a prediction unit and/or a transform unit, split information, etc. may not exist in the bitstream.
  • the corresponding coding unit may be recursively split until the size of the coding unit becomes equal to or smaller than the size of the largest transform block.
  • the coding unit may be divided into four 32x32 blocks for transformation.
  • the coding unit may be divided into two 32x32 blocks for transformation.
  • whether or not to split the coding unit for transformation is not separately signaled, and may be determined by comparing the width or height of the coding unit and the width or height of the largest transform block. For example, when the width of the coding unit is larger than the width of the maximum transform block, the coding unit may be divided into two vertically. In addition, when the length of the coding unit is greater than the length of the maximum transform block, the coding unit may be horizontally divided into two.
  • Information about the maximum and/or minimum size of the coding unit, and information about the maximum and/or minimum size of the transform block may be signaled or determined at a higher level of the coding unit.
  • the higher level may be, for example, a sequence level, a picture level, a tile level, a tile group level, a slice level, and the like.
  • the minimum size of the coding unit may be determined to be 4x4.
  • the maximum size of the transform block may be determined to be 64x64.
  • the minimum size of the transform block may be determined to be 4x4.
  • Information on the minimum size (minimum quadtree size) of the coding unit corresponding to the leaf node of the quadtree and/or the maximum depth from the root node to the leaf node of the complex tree (maximum depth of the complex tree) is encoded. It can be signaled or determined at a higher level of the unit.
  • the higher level may be, for example, a sequence level, a picture level, a slice level, a tile group level, and a tile level.
  • the information on the minimum quadtree size and/or the maximum depth of the composite tree may be signaled or determined for each of an intra-screen slice and an inter-screen slice.
  • Difference information about the size of the CTU and the maximum size of the transform block may be signaled or determined at a higher level of the coding unit.
  • the higher level may be, for example, a sequence level, a picture level, a slice level, a tile group level, and a tile level.
  • Information on the maximum size (the maximum size of the binary tree) of the coding unit corresponding to each node of the binary tree may be determined based on the size of the coding tree unit and the difference information.
  • the maximum size of the coding unit corresponding to each node of the three-division tree (the maximum size of the three-division tree) may have a different value according to the type of the slice.
  • the maximum size of a three-segment tree may be 32x32.
  • the maximum size of the three-division tree may be 128x128.
  • the minimum size of the coding unit corresponding to each node of the binary tree (the minimum size of the binary tree) and/or the minimum size of the coding unit corresponding to each node of the three-division tree (the minimum size of the three-division tree) is the minimum size of the coding block. Can be set to size.
  • the maximum size of the binary tree and/or the maximum size of the three-division tree may be signaled or determined at the slice level.
  • the minimum size of the binary tree and/or the minimum size of the three-divided tree may be signaled or determined at the slice level.
  • quad split information information on whether to split a composite tree, split tree information, and/or split direction information may or may not exist in the bitstream.
  • the coding unit does not include quad split information, and the quad split information may be inferred as a second value.
  • the size (horizontal and vertical) of the coding unit corresponding to the node of the composite tree is larger than the maximum size of the binary tree (horizontal and vertical) and/or the maximum size of the three-segment tree (horizontal and vertical), the coding unit
  • the binary tree may not be divided and/or the three divided tree may not be divided. Accordingly, information on whether to split the composite tree is not signaled and can be inferred as the second value.
  • the size (horizontal and vertical) of the coding unit corresponding to the node of the complex tree is the same as the minimum size of the binary tree (horizontal and vertical), or the size of the coding unit (horizontal and vertical) is the minimum size of the three-segment tree (horizontal).
  • the coding unit may not be divided into a binary tree and/or a three-divided tree. Accordingly, information on whether to split the composite tree is not signaled and can be inferred as the second value. This is because when the coding unit is divided into a binary tree and/or a three-division tree, a coding unit smaller than the minimum size of the binary tree and/or the minimum size of the three-division tree is generated.
  • the binary tree division or the three-division tree division may be limited based on the size of the virtual pipeline data unit (hereinafter, the size of the pipeline buffer). For example, when an encoding unit is divided into sub-coding units that are not suitable for the pipeline buffer size by binary tree division or 3-division tree division, the corresponding binary tree division or 3-division tree division may be limited.
  • the pipeline buffer size may be the size of the maximum transform block (eg, 64X64). For example, when the pipeline buffer size is 64X64, the partition below may be limited.
  • N and/or M is 128) coding units
  • the coding unit may not be divided into a binary tree and/or a three-divided tree. Accordingly, information on whether to split the composite tree is not signaled and can be inferred as the second value.
  • the complex type It is possible to signal whether the tree is divided. Otherwise, the coding unit may not be divided into a binary tree and/or a three-divided tree. Accordingly, information on whether to split the composite tree is not signaled and can be inferred as the second value.
  • the above Split direction information can be signaled. Otherwise, the division direction information is not signaled and may be deduced as a value indicating a direction in which division is possible.
  • the above Split tree information can be signaled. Otherwise, the split tree information is not signaled and may be inferred as a value indicating a splittable tree.
  • FIG. 4 is a diagram for describing an embodiment of an intra prediction process.
  • Arrows from the center to the outside of FIG. 4 may indicate prediction directions of intra prediction modes.
  • Intra-picture encoding and/or decoding may be performed using reference samples of neighboring blocks of the current block.
  • the neighboring block may be a restored neighboring block.
  • intra-picture encoding and/or decoding may be performed using a value of a reference sample or an encoding parameter included in the reconstructed neighboring block.
  • the prediction block may mean a block generated as a result of performing intra prediction.
  • the prediction block may correspond to at least one of CU, PU, and TU.
  • the unit of the prediction block may be the size of at least one of CU, PU, and TU.
  • the prediction block may be a square-shaped block having a size of 2x2, 4x4, 16x16, 32x32, or 64x64, or a rectangular block having a size of 2x8, 4x8, 2x16, 4x16, and 8x16.
  • the intra prediction may be performed according to the intra prediction mode for the current block.
  • the number of intra prediction modes that the current block can have may be a predefined fixed value, and may be differently determined according to the property of the prediction block.
  • the properties of the prediction block may include the size of the prediction block and the shape of the prediction block.
  • the number of prediction modes in the screen may be fixed to N regardless of the size of the block.
  • the number of prediction modes in the screen may be 3, 5, 9, 17, 34, 35, 36, 65, or 67.
  • the number of prediction modes in the screen may be different according to the size of the block and/or the type of color component.
  • the number of prediction modes in the screen may differ depending on whether a color component is a luma signal or a chroma signal. For example, as the size of the block increases, the number of prediction modes in the screen may increase.
  • the number of intra prediction modes of the luminance component block may be greater than the number of intra prediction modes of the color difference component block.
  • the intra prediction mode may be a non-directional mode or a directional mode.
  • the non-directional mode may be a DC mode or a planar mode
  • the angular mode may be a prediction mode having a specific direction or angle.
  • the intra prediction mode may be expressed by at least one of a mode number, a mode value, a mode number, a mode angle, and a mode direction.
  • the number of intra prediction modes may be one or more M including the non-directional and directional modes. Whether samples included in neighboring blocks reconstructed for intra prediction of the current block are available as reference samples of the current block The step of checking may be performed.
  • a sample value of a sample that cannot be used as a reference sample by using a value obtained by copying and/or interpolating at least one sample value among samples included in the reconstructed neighboring block After replacing with, it can be used as a reference sample of the current block.
  • FIG. 7 is a diagram for describing reference samples usable for intra prediction.
  • reference sample lines 0 to 3 For intra prediction of a current block, at least one of reference sample lines 0 to 3 may be used.
  • samples of segment A and segment F may be padded with nearest samples of segment B and segment E, respectively, instead of being taken from a reconstructed neighboring block.
  • Index information indicating a reference sample line to be used for intra prediction of the current block may be signaled.
  • the upper boundary of the current block is the boundary of the CTU, only the reference sample line 0 may be available. Therefore, in this case, the index information may not be signaled.
  • filtering on a prediction block to be described later may not be performed.
  • a filter may be applied to at least one of a reference sample or a prediction sample based on at least one of an intra prediction mode and a size of a current block.
  • the weighted sum of the upper and left reference samples of the current sample and the upper right and lower left reference samples of the current block is used according to the position of the prediction target sample in the prediction block.
  • a sample value of a sample to be predicted can be generated.
  • an average value of upper and left reference samples of the current block may be used.
  • a prediction block may be generated by using the upper, left, upper right and/or lower left reference samples of the current block. Real-level interpolation may be performed to generate predicted sample values.
  • a prediction block for the current block of the second color component may be generated based on the corresponding reconstructed block of the first color component.
  • the first color component may be a luminance component
  • the second color component may be a color difference component.
  • a parameter of a linear model between the first color component and the second color component may be derived based on a template.
  • the template may include upper and/or left peripheral samples of the current block and upper and/or left peripheral samples of the reconstructed block of the first color component corresponding thereto.
  • the parameter of the linear model is a sample value of a first color component having a maximum value among samples in the template, a sample value of a second color component corresponding thereto, and a sample value of a first color component having a minimum value among samples in the template. And the sample value of the second color component corresponding thereto.
  • a prediction block for the current block may be generated by applying the corresponding reconstructed block to the linear model.
  • sub-sampling may be performed on neighboring samples of the reconstructed block of the first color component and the corresponding reconstructed block.
  • one corresponding sample may be calculated by sub-sampling the four samples of the first color component.
  • parameter derivation of the linear model and intra-screen prediction between color components may be performed based on sub-sampled corresponding samples.
  • intra prediction between color components is performed and/or a range of a template may be signaled as an intra prediction mode.
  • the current block may be divided into two or four sub-blocks in a horizontal or vertical direction.
  • the divided sub-blocks may be sequentially restored. That is, the sub-prediction block may be generated by performing intra prediction on the sub-block.
  • inverse quantization and/or inverse transformation may be performed on the sub-block to generate a sub residual block.
  • a reconstructed sub block may be generated by adding the sub prediction block to the sub residual block.
  • the reconstructed sub-block may be used as a reference sample for intra prediction of a subsequent sub-block.
  • the sub-block may be a block including a predetermined number (eg, 16) or more. Thus, for example, when the current block is an 8x4 block or a 4x8 block, the current block may be divided into two sub-blocks.
  • the current block when the current block is a 4x4 block, the current block cannot be divided into sub-blocks. When the current block has a size other than that, the current block may be divided into four sub-blocks. Information on whether the sub-block-based intra prediction is performed and/or a division direction (horizontal or vertical) may be signaled.
  • the subblock-based intra prediction may be limited to be performed only when the reference sample line 0 is used. When the sub-block-based intra prediction is performed, filtering on a prediction block to be described later may not be performed.
  • a final prediction block may be generated by performing filtering on the prediction block predicted in the screen.
  • the filtering may be performed by applying a predetermined weight to a sample to be filtered, a left reference sample, an upper reference sample, and/or an upper left reference sample.
  • the weight and/or reference sample (range, location, etc.) used for the filtering may be determined based on at least one of a block size, an intra prediction mode, and a location of a filtering target sample in the prediction block.
  • the filtering may be performed only in a predetermined intra prediction mode (eg, DC, planar, vertical, horizontal, diagonal, and/or adjacent diagonal mode).
  • the adjacent diagonal mode may be a mode obtained by adding or subtracting k to the diagonal mode. For example, k may be a positive integer of 8 or less.
  • the intra prediction mode of the current block may be predicted from the intra prediction mode of a block existing around the current block and entropy encoding/decoding may be performed. If the intra prediction modes of the current block and the neighboring block are the same, information indicating that the intra prediction modes of the current block and the neighboring block are the same may be signaled using predetermined flag information. In addition, it is possible to signal indicator information for an intra prediction mode that is the same as an intra prediction mode of a current block among intra prediction modes of a plurality of neighboring blocks.
  • entropy encoding/decoding may be performed based on the intra prediction mode of the neighboring block to entropy encoding/decoding the intra prediction mode information of the current block.
  • 5 is a diagram for describing an embodiment of an inter prediction process.
  • the square shown in FIG. 5 may represent an image.
  • arrows in FIG. 5 may indicate a prediction direction.
  • Each image may be classified into an I picture (Intra Picture), a P picture (Predictive Picture), and a B picture (Bi-predictive Picture) according to the encoding type.
  • the I picture may be encoded/decoded through intra prediction without inter prediction.
  • the P picture may be encoded/decoded through inter prediction using only a reference image existing in one direction (eg, forward or reverse).
  • the B picture may be encoded/decoded through inter prediction using reference pictures existing in the bidirectional direction (eg, forward and backward). Also, in the case of a B picture, it may be encoded/decoded through inter prediction using reference pictures existing in bidirectional directions or inter prediction using reference pictures existing in one of the forward and reverse directions. Here, the two directions may be forward and reverse.
  • the encoder may perform inter prediction or motion compensation
  • the decoder may perform motion compensation corresponding thereto.
  • Inter prediction or motion compensation may be performed using a reference image and motion information.
  • Motion information on the current block may be derived during inter prediction by each of the encoding apparatus 100 and the decoding apparatus 200.
  • the motion information may be derived using motion information of a reconstructed neighboring block, motion information of a collocated block, and/or a block adjacent to the collocated block.
  • the collocated block may be a block corresponding to a spatial position of the current block in a collocated picture (col picture) that has already been restored.
  • the collocated picture may be one picture from among at least one reference picture included in the reference picture list.
  • the method of deriving motion information may differ according to the prediction mode of the current block.
  • a prediction mode applied for inter prediction AMVP mode, merge mode, skip mode, merge mode with motion vector difference, subblock merge mode, triangulation mode, inter intra combined prediction mode, Rane inter There may be modes, etc.
  • the merge mode may be referred to as a motion merge mode.
  • a motion vector of a reconstructed neighboring block at least one of a motion vector of a reconstructed neighboring block, a motion vector of a collocated block, a motion vector of a block adjacent to the collocated block, and a (0, 0) motion vector is a motion vector. It is determined as a candidate, and a motion vector candidate list can be generated. A motion vector candidate can be derived using the generated motion vector candidate list. Motion information of the current block may be determined based on the derived motion vector candidate.
  • the motion vector of the collocated block or the motion vector of the block adjacent to the collocated block may be referred to as a temporal motion vector candidate, and the motion vector of the reconstructed neighboring block may be referred to as a spatial motion vector candidate.
  • a temporal motion vector candidate the motion vector of the reconstructed neighboring block
  • a spatial motion vector candidate the motion vector of the reconstructed neighboring block
  • the encoding apparatus 100 may calculate a motion vector difference (MVD) between a motion vector of a current block and a motion vector candidate, and entropy-encode the MVD. Also, the encoding apparatus 100 may generate a bitstream by entropy encoding the motion vector candidate index.
  • the motion vector candidate index may indicate an optimal motion vector candidate selected from motion vector candidates included in the motion vector candidate list.
  • the decoding apparatus 200 may entropy-decode the motion vector candidate index from the bitstream, and select a motion vector candidate of the decoding target block from among the motion vector candidates included in the motion vector candidate list by using the entropy-decoded motion vector candidate index. .
  • the decoding apparatus 200 may derive a motion vector of a decoding target block through the sum of the entropy-decoded MVD and the motion vector candidate.
  • the encoding apparatus 100 may entropy-encode the calculated resolution information of the MVD.
  • the decoding apparatus 200 may adjust the resolution of the entropy-decoded MVD using the MVD resolution information.
  • the encoding apparatus 100 may calculate a motion vector difference (MVD) between a motion vector of a current block and a motion vector candidate based on the affine model, and may entropy-encode the MVD.
  • the decoding apparatus 200 may derive an affine control motion vector of the decoding target block through the sum of the entropy-decoded MVD and the affine control motion vector candidate to derive the motion vector in sub-block units.
  • the bitstream may include a reference picture index indicating a reference picture.
  • the reference image index may be entropy-encoded and signaled from the encoding apparatus 100 to the decoding apparatus 200 through a bitstream.
  • the decoding apparatus 200 may generate a prediction block for a decoding object block based on the derived motion vector and reference image index information.
  • the merge mode may mean merging of motions for a plurality of blocks.
  • the merge mode may mean a mode in which motion information of a current block is derived from motion information of a neighboring block.
  • a merge candidate list may be generated using motion information of a reconstructed neighboring block and/or motion information of a collocated block.
  • the motion information may include at least one of 1) a motion vector, 2) a reference image index, and 3) an inter prediction indicator.
  • the prediction indicator may be unidirectional (L0 prediction, L1 prediction) or bidirectional.
  • the merge candidate list may represent a list in which motion information is stored.
  • the motion information stored in the merge candidate list includes motion information of neighboring blocks adjacent to the current block (spatial merge candidate) and motion information of a block collocated to the current block in a reference image (temporal merge candidate). temporal merge candidate)), new motion information generated by a combination of motion information already in the merge candidate list, motion information of a block encoded/decoded before the current block (history-based merge candidate) And at least one of a zero merge candidate.
  • the encoding apparatus 100 may entropy-encode at least one of a merge flag and a merge index to generate a bitstream and then signal to the decoding apparatus 200.
  • the merge flag may be information indicating whether to perform a merge mode for each block
  • the merge index may be information about which block of neighboring blocks adjacent to the current block is to be merged.
  • neighboring blocks of the current block may include at least one of a left neighboring block, an upper neighboring block, and a temporal neighboring block of the current block.
  • the encoding apparatus 100 may entropy-encode correction information for correcting a motion vector among motion information of the merge candidate and may signal the correction information to the decoding apparatus 200.
  • the decoding apparatus 200 may correct the motion vector of the merge candidate selected by the merge index based on the correction information.
  • the correction information may include at least one of information on whether or not to be corrected, information on a correction direction, and information on a correction size.
  • a prediction mode for correcting a motion vector of a merge candidate based on signaled correction information may be referred to as a merge mode having a motion vector difference.
  • the skip mode may be a mode in which motion information of a neighboring block is applied as it is to a current block.
  • the encoding apparatus 100 may entropy-encode information on which motion information of a block is to be used as motion information of the current block, and may signal the decoding apparatus 200 through a bitstream. In this case, the encoding apparatus 100 may not signal to the decoding apparatus 200 a syntax element related to at least one of motion vector difference information, an encoding block flag, and a transform coefficient level (quantized level).
  • the subblock merge mode may refer to a mode in which motion information is derived in units of subblocks of a coding block (CU).
  • motion information sub-block based temporal merge candidate
  • a subblock merge candidate list may be generated using an affiliate control point motion vector merge candidate.
  • each motion information is derived by dividing the current block in a predetermined direction, and each prediction sample is derived using the derived motion information, and each of the derived prediction samples is derived. It may mean a mode in which a prediction sample of a current block is derived by weighting.
  • the inter-intra combined prediction mode may refer to a mode in which a prediction sample of a current block is derived by weighting a prediction sample generated by inter prediction and a prediction sample generated by intra prediction.
  • the decoding apparatus 200 may self-correct the derived motion information.
  • the decoding apparatus 200 may search for a predefined area based on a reference block indicated by the derived motion information, and may derive the motion information having the minimum SAD as the corrected motion information.
  • the decoding apparatus 200 may compensate for a predicted sample derived through inter prediction using an optical flow.
  • FIG. 6 is a diagram for describing a process of transformation and quantization.
  • a quantized level may be generated by performing a transform and/or quantization process on the residual signal.
  • the residual signal may be generated as a difference between an original block and a prediction block (an intra prediction block or an inter prediction block).
  • the prediction block may be a block generated by intra prediction or inter prediction.
  • the transformation may include at least one of a first order transformation and a second order transformation. When a first-order transform is performed on a residual signal, a transform coefficient may be generated, and a second-order transform coefficient may be generated by performing a second-order transform on the transform coefficient.
  • the primary transform may be performed using at least one of a plurality of pre-defined transform methods.
  • a plurality of pre-defined transformation methods may include a Discrete Cosine Transform (DST), a Discrete Sine Transform (DST), or a Karhunen-Loeve Transform (KLT) based transformation.
  • Secondary transform may be performed on transform coefficients generated after the first transform is performed.
  • the transformation method applied during the first transformation and/or the second transformation may be determined according to at least one of encoding parameters of the current block and/or the neighboring block.
  • conversion information indicating a conversion method may be signaled.
  • the DCT-based conversion may include, for example, DCT2, DCT-8, and the like.
  • DST-based conversion may include, for example, DST-7.
  • a quantized level may be generated by performing quantization on a result of performing a first-order transformation and/or a second-order transformation or a residual signal.
  • the quantized level may be scanned according to at least one of an upper-right diagonal scan, a vertical scan, and a horizontal scan based on at least one of an intra prediction mode or a block size/shape. For example, by scanning the coefficients of a block using up-right diagonal scanning, it can be changed to a one-dimensional vector form.
  • a vertical scan that scans a two-dimensional block shape coefficient in a column direction instead of a diagonal scan in the upper right corner, or a horizontal scan that scans a two-dimensional block shape coefficient in a row direction may be used.
  • the scanned quantized level may be entropy-coded and included in the bitstream.
  • the decoder may entropy-decode the bitstream to generate a quantized level.
  • the quantized levels may be inverse scanned and arranged in a two-dimensional block shape. At this time, at least one of an upper right diagonal scan, a vertical scan, and a horizontal scan may be performed as a reverse scanning method.
  • Inverse quantization can be performed on the quantized level, second-order inverse transformation can be performed depending on whether or not the second-order inverse transformation is performed, and the result of performing the second-order inverse transformation is restored by performing a first-order inverse transformation depending on whether or not the first-order inverse transformation is performed.
  • a residual signal can be generated.
  • inverse mapping of a dynamic range may be performed on a luminance component restored through intra prediction or inter prediction.
  • the dynamic range can be divided into 16 equal pieces, and a mapping function for each piece can be signaled.
  • the mapping function may be signaled at a slice level or a tile group level.
  • An inverse mapping function for performing the inverse mapping may be derived based on the mapping function.
  • In-loop filtering storage of reference pictures, and motion compensation are performed in the demapped region, and the prediction block generated through inter prediction is converted to the mapped region by mapping using the mapping function, and then a reconstructed block is generated. Can be used for However, since intra prediction is performed in a mapped region, a prediction block generated by intra prediction can be used to generate a reconstructed block without mapping/demapping.
  • the residual block may be converted to an inversely mapped area by performing scaling on the color difference component of the mapped area. Whether the scaling is available may be signaled at a slice level or a tile group level.
  • the scaling can be applied only when the mapping for the luma component is available and the division of the luminance component and the division of the chrominance component follow the same tree structure.
  • the scaling may be performed based on an average of sample values of a luminance prediction block corresponding to the color difference block. In this case, when the current block uses inter prediction, the luminance prediction block may mean a mapped luminance prediction block.
  • a value required for the scaling can be derived by referring to a lookup table using an index of a piece to which the average of the sample values of the luminance prediction block belongs. Finally, by scaling the residual block using the derived value, the residual block may be converted into an inversely mapped region. Subsequent reconstruction of a color difference component block, intra prediction, inter prediction, in-loop filtering, and storage of a reference picture may be performed in the demapped region.
  • Information indicating whether the mapping/inverse mapping of the luminance component and the color difference component is available may be signaled through a sequence parameter set.
  • the prediction block of the current block may be generated based on a block vector representing a displacement between the current block and a reference block in the current picture.
  • a prediction mode for generating a prediction block with reference to a current picture may be referred to as an intra block copy (IBC) mode.
  • the IBC mode may include a skip mode, a merge mode, an AMVP mode, and the like.
  • a merge candidate list is configured, and a merge index is signaled, so that one merge candidate may be specified.
  • the specified merge candidate block vector may be used as a block vector of the current block.
  • the merge candidate list may include at least one or more such as a spatial candidate, a history-based candidate, a candidate based on an average of two candidates, or a zero merge candidate.
  • a differential block vector may be signaled.
  • the prediction block vector may be derived from a left neighboring block and an upper neighboring block of the current block. An index on which neighboring block to use may be signaled.
  • the prediction block of the IBC mode is included in the current CTU or the left CTU, and may be limited to a block in a previously reconstructed region. For example, the value of the block vector may be limited so that the predicted block of the current block is located within three 64x64 block regions prior to the 64x64 block to which the current block belongs. By limiting the value of the block vector in this way, it is possible to reduce memory consumption and device complexity according to the implementation of the IBC mode.
  • in-loop filtering is deblocking filtering, sample adaptive offset, bilateral filtering, and adaptive in-loop filtering. It may include at least one of.
  • Blocking artifacts and ringing phenomena existing in the reconstructed image by performing at least one of the deblocking filtering and the sample adaptive offset on the reconstructed image generated by summing the intra/inter prediction block and the reconstructed residual block ( ringing artifact) can be effectively reduced.
  • the deblocking filter is aimed at reducing the blocking phenomenon occurring at the boundary between blocks by performing vertical filtering and horizontal filtering on the boundary of the block.
  • the deblocking filter There is a drawback of not minimizing distortion with the reconstructed image.
  • the sample adaptive offset is a method of adding an offset to a specific pixel by comparing pixel values with adjacent pixels on a pixel-by-pixel basis to reduce the ringing phenomenon, or adding an offset to pixels whose pixel value falls within a specific range.
  • the sample adaptive offset partially minimizes the distortion between the original image and the reconstructed image by using rate-distortion optimization, but there is a limitation in terms of distortion minimization when there is a large difference in distortion between the original image and the reconstructed image.
  • the bidirectional filtering may mean performing filtering by determining a filter coefficient according to a difference between a distance between a center sample in an area to be filtered and other samples in an area and values of samples.
  • the adaptive in-loop filtering may mean filtering that minimizes distortion of the original image and the reconstructed image by applying a filter that minimizes distortion between the original image and the reconstructed image to the reconstructed image.
  • intra-loop filtering may mean adaptive intra-loop filtering.
  • the adaptive in-loop filter may have the same meaning as the adaptive loop filter.
  • filtering may mean applying a filter to at least one unit among samples, blocks, CUs, PUs, TUs, CTUs, slices, tiles, tile groups, images (pictures), and sequences.
  • the filtering may include at least one of classifying blocks, performing filtering, and encoding/decoding filter information.
  • CU Coding Unit, Coding Unit
  • PU Prediction Unit, Prediction Unit
  • TU Transform Unit, Transform Unit
  • CTU Coding Tree Unit, Coding Tree Unit
  • CB Coding Block, Coding Block
  • PB Prediction Block
  • TB Transform Block, Transform Block
  • CTB Coding Tree Block, coding tree block
  • a block may mean at least one of a block or unit unit used in an encoding/decoding process such as CU, PU, TU, CB, PB, and TB.
  • the intra-loop filtering may be applied to the reconstructed image in the order of bidirectional filtering, deblocking filtering, sample adaptive offset, and adaptive intra-loop filtering to generate a decoded image.
  • a decoded image may be generated by changing the order of filtering included in the intra-loop filtering and applying it to the reconstructed image.
  • in-loop filtering may be applied to a reconstructed image in the order of deblocking filtering, sample adaptive offset, and adaptive intra-loop filtering.
  • intra-loop filtering may be applied to the reconstructed image in the order of bidirectional filtering, adaptive intra-loop filtering, deblocking filtering, and sample adaptive offset.
  • intra-loop filtering may be applied to the reconstructed image in the order of adaptive intra-loop filtering, deblocking filtering, and sample adaptive offset.
  • intra-loop filtering may be applied to the reconstructed image in the order of adaptive intra-loop filtering, sample adaptive offset, and deblocking filtering.
  • the decoded image may mean an image resulting from performing intra-loop filtering or post-processing filtering on a reconstructed image composed of a reconstructed block generated by adding a reconstructed residual block to an intra prediction block or an inter prediction block.
  • the meanings of decoded samples/blocks/CTU/videos, and the like and reconstructed samples/blocks/CTUs/videos are not different from each other and may mean the same.
  • the adaptive intra-loop filtering may be performed on a reconstructed image to generate a decoded image.
  • the adaptive intra-loop filtering may be performed on a decoded image on which at least one of deblocking filtering, sample adaptive offset, and bidirectional filtering has been performed.
  • adaptive intra-loop filtering may be performed on a decoded image on which adaptive intra-loop filtering has been performed.
  • adaptive intra-loop filtering may be repeatedly performed N times on the reconstructed or decoded image. In this case, N is a positive integer.
  • In-loop filtering may be performed on a decoded image on which at least one of the intra-loop filtering methods has been filtered. For example, when at least another of the intra-loop filtering methods is performed on a decoded image on which at least one of the intra-loop filtering methods is performed, a parameter used for at least one of the intra-loop filtering methods is changed, and the parameter The intra-loop filtering method in which is changed may be performed on the decoded image.
  • the parameter may include at least one of an encoding parameter, a filter coefficient, the number of filter taps (filter length), a filter type, a filter type, the number of times filtering is performed, a filter intensity, and a threshold value.
  • the filter coefficient may refer to a coefficient constituting a filter, and may refer to a coefficient value corresponding to a specific mask position in the form of a mask multiplied by a reconstructed sample.
  • the number of filter taps refers to the length of the filter, and if the filter has a symmetric characteristic with respect to one specific direction, a filter coefficient that is an actual encoding/decoding target may be reduced by half.
  • the filter tap may mean the width of the filter in the horizontal direction or the height of the filter in the vertical direction.
  • the filter tap may mean a width of a filter in a horizontal direction and a height of a filter in a vertical direction in the form of a two-dimensional filter.
  • the filter may have symmetrical characteristics for a specific two or more directions.
  • the filter shape is a diamond/rhombus, a non-square, a square, a trapezoid, a diagonal, a snowflake, and a shop. (sharp), clover (clover), cross (cross), a triangle, a pentagon, a hexagon, an octagon, a decagonal, a dodecagon, etc. that can be expressed in two-dimensional geometric figures or a combined form thereof.
  • the filter shape may be a shape in which a 3D filter is projected in 2D.
  • the filter types include Wiener filter, low-pass filter, high-pass filter, linear filter, non-linear filter, and bidirectional filter ( It may mean a filter such as a bilateral filter.
  • the Wiener filter is mainly described among the various filter types, but the present invention is not limited thereto, and an embodiment of the present invention or a combination of embodiments may be applied to the various filter types.
  • a Wiener filter can be used as a filter type for adaptive in-loop filtering.
  • the Wiener filter is an optimal linear filter and aims to improve encoding efficiency by effectively removing noise, blurring, and distortion in an image.
  • the Wiener filter may be designed to minimize distortion between the original image and the reconstructed/decoded image.
  • At least one of the filtering methods may be performed in an encoding process or a decoding process.
  • the encoding process or the decoding process may mean that the encoding process or the decoding process is performed in at least one unit among slices, tiles, tile groups, pictures, sequences, CTUs, blocks, CUs, PUs, and TU units.
  • At least one of the filtering methods may be performed in a unit such as a slice, a tile, a tile group, or a picture, during an encoding process or a decoding process.
  • the Wiener filter may be performed in an encoding process or a decoding process in the form of adaptive intra-loop filtering.
  • the meaning of the in-loop means that the filtering is performed in the encoding process or the decoding process.
  • the decoded image on which the adaptive intra-loop filtering is performed may be used as a reference image of an image to be encoded/decoded later.
  • inter prediction or motion compensation can be performed with reference to the decoded image on which adaptive intra-loop filtering has been performed, so not only the encoding efficiency of the decoded image on which adaptive intra-loop filtering has been performed is improved
  • encoding efficiency of the image to be encoded/decoded later may be improved.
  • At least one of the filtering methods may be performed in a CTU unit or a block unit coding process or a decoding process.
  • the Wiener filter may be performed in a CTU-unit or block-based encoding process or a decoding process in the form of adaptive intra-loop filtering. That is, in the adaptive intra-loop filtering, the meaning of the in-loop means that the filtering is performed in a CTU-unit or block-based encoding process or a decoding process.
  • the decoded CTU or decoded block on which the adaptive intra-loop filtering has been performed may be used as a reference CTU or reference block of a CTU or block to be encoded/decoded later.
  • intra-prediction can be performed with reference to the decoded CTU or decoding block on which adaptive intra-loop filtering has been performed. Not only can the coding efficiency be improved, but also the coding efficiency of the CTU or block to be coded/decoded later may be improved.
  • At least one of the filtering methods may be performed after the decoding process in the form of a post filter.
  • the Winner filter may be performed after a decoding process in the form of a post-processing filter.
  • the Winner filter may be performed on the reconstructed/decoded image before image output (display).
  • post-processing filtering a decoded image on which post-processing filtering has been performed cannot be used as a reference image of an image to be encoded/decoded later.
  • Adaptive intra-loop filtering can use block-based filter adaptation.
  • the block-based filter adaptation may mean that a filter used for each block among a plurality of filters is adaptively selected.
  • the block-based filter adaptation may mean block classification.
  • FIG. 7 is a flowchart illustrating an image decoding method according to an embodiment of the present invention.
  • the decoder may decode filter information on an encoding unit (S701).
  • the filter information is not limited only to the coding unit, and may mean filter information on a slice, tile, tile group, picture, sequence, CTU, block, CU, PU, TU, and the like.
  • the filter information includes whether to perform filtering, filter coefficient value, number of filters, number of filter taps (filter length) information, filter type information, filter type information, information on whether to use a fixed filter for the block classification index, and symmetry of the filter. It may include at least one of information on the form.
  • the filter shape information may include at least one of a rhombus, a rectangle, a square, a trapezoid, a diagonal, a snowflake, a shop, a clover, a cross, a triangle, a pentagon, a hexagon, an octagon, a decagon, and a dodecagon.
  • the filter coefficient value may include a filter coefficient value geometrically transformed based on a block classified in a block classification unit.
  • the information on the symmetric shape of the filter may include at least one or more of point symmetry, horizontal symmetry, vertical symmetry, and diagonal symmetry.
  • the decoder may classify the coding unit into a block classification unit (S702). Also, the decoder may allocate a block classification index to the coding units classified in the block classification unit.
  • the block classification is not limited to being performed in units of coding units, and may be performed in units such as slice, tile, tile group, picture, sequence, CTU, block, CU, PU, TU, and the like.
  • the block classification index may be determined using direction information and activity information.
  • At least one of the directional information and the activity information may be determined based on a gradient value for at least one of vertical, horizontal, first diagonal, and second diagonal directions.
  • the slope value may be obtained using a 1D Laplacian operation in the block classification unit.
  • the 1D Laplacian operation may be a 1D Laplacian operation in which the execution position of the operation is subsampled.
  • the slope value may be determined based on a temporal layer identifier.
  • the decoder may filter the coding units classified in the block classification unit by using the filter information (S703).
  • the filtering target is not limited to a coding unit, and filtering may be performed on a slice, tile, tile group, picture, sequence, CTU, block, CU, PU, TU, and the like.
  • FIG. 8 is a flowchart illustrating an image encoding method according to an embodiment of the present invention.
  • the encoder may classify an encoding unit into a block classification unit (S801). Also, the encoder may allocate a block classification index to coding units classified in the block classification unit.
  • the block classification is not limited to being performed in units of coding units, and may be performed in units such as slice, tile, tile group, picture, sequence, CTU, block, CU, PU, TU, and the like.
  • the block classification index may be determined using direction information and activity information.
  • At least one of the directional information and the activity information may be determined based on a slope value for at least one of vertical, horizontal, first diagonal, and second diagonal directions.
  • the slope value may be obtained using a 1D Laplacian operation in the block classification unit.
  • the 1D Laplacian operation may be a 1D Laplacian operation in which the execution position of the operation is subsampled.
  • the slope value may be determined based on a temporal layer identifier.
  • the encoder may filter the coding units classified in the block classification unit by using filter information on the coding unit (S802).
  • the filtering target is not limited to a coding unit, and filtering may be performed on a slice, tile, tile group, picture, sequence, CTU, block, CU, PU, TU, and the like.
  • the filter information includes whether to perform filtering, filter coefficient value, number of filters, number of filter taps (filter length) information, filter type information, filter type information, information on whether to use a fixed filter for the block classification index, and symmetry of the filter. It may include at least one of information on the form.
  • the filter shape information may include at least one of a rhombus, a rectangle, a square, a trapezoid, a diagonal, a snowflake, a shop, a clover, a cross, a triangle, a pentagon, a hexagon, an octagon, a decagon, and a dodecagon.
  • the filter coefficient value may include a filter coefficient value geometrically transformed based on a block classified in a block classification unit.
  • the encoder may encode the filter information (S803).
  • the filter information may mean filter information on a slice, tile, tile group, picture, sequence, CTU, block, CU, PU, TU, and the like.
  • the adaptive intra-loop filtering may include a block classification step, a filtering step, and a filtering information encoding step.
  • the encoder may include a block classification step, a filter coefficient derivation step, a filtering execution determination step, a filter type determination step, a filtering execution step, a filter information encoding step, and the like. Since the step of deriving the filter coefficient, the step of determining the filtering performance, and the step of determining the filter type are out of the scope of the present invention, no specific mention is made in the present invention, but may instead be briefly described as follows. Accordingly, the encoder may include a block classification step, a filtering step, and a filter information encoding step.
  • the Wiener filter coefficient may be derived from the viewpoint of minimizing distortion between the original image and the filtered image.
  • a Wiener filter coefficient may be derived for each block classification index.
  • the Wiener filter coefficient may be derived according to at least one of the number of filter taps and the filter type.
  • Filter coefficients can be calculated by deriving the Wiener-Hopf equation using the derived autocorrelation matrix and the cross-correlation matrix. In this case, filter coefficients may be calculated using a Gaussian elimination method or a Cholesky decomposition method in the Wiener-Hope equation.
  • the rate-distortion of whether to apply adaptive intra-loop filtering in slice/picture/tile/tile group units, whether to apply adaptive intra-loop filtering in block units, or not to apply adaptive intra-loop filtering, etc. It can be determined in terms of rate-distortion optimization.
  • the rate may include filter information to be encoded.
  • the distortion may be a value of the difference between the original image and the reconstructed image, or the difference between the original image and the filtered reconstructed image, and the MSE (Mean of Squared Error), SSE (Sum of Squared Error), SAD (Sum of Absolute Difference) ), etc. may be used.
  • the filtering performance determining step not only the luminance component but also the chrominance component may be filtered.
  • the filter shape determination step when applying adaptive in-loop filtering, it is possible to determine what type of filter type to use and which number of taps to use from the viewpoint of rate-distortion optimization.
  • the decoder may include a step of decoding filter information, a step of classifying a block, a step of performing filtering, and the like.
  • a filter information encoding step and a filter information decoding step are combined to be described later as a filter information encoding/decoding step.
  • Each block may be classified as many as L by allocating a block classification index in units of NxM blocks (or block classification units) in the reconstructed image.
  • a block classification index may be allocated to at least one of a reconstructed/decoded image as well as a reconstructed/decoded slice, a reconstructed/decoded tile group, a reconstructed/decoded tile, a reconstructed/decoded CTU, and a reconstructed/decoded block.
  • N, M, and L may be positive integers.
  • N and M may be one of 2, 4, 8, 16, and 32, respectively, and L may be one of 4, 8, 16, 20, 25, and 32.
  • N and M are each 1, sample classification may be performed in units of samples rather than in units of blocks.
  • the NxM block unit may have an amorphous shape.
  • N and M may have the same positive integer value.
  • a total of 25 block classification indices may be allocated to the reconstructed image in units of 2x2 blocks.
  • a total of 25 block classification indices may be allocated to the reconstructed image in units of 4x4 blocks.
  • the block classification index may have a value of 0 to L-1, or may have a value of 1 to L.
  • the block classification index C is based on at least one of a directionality D value and an activity A value quantized A q value, and may be expressed as Equation 1.
  • Equation 1 the constant value 5 is an example, and the value J may be used.
  • J may be a positive integer having a value smaller than L.
  • each according to a vertical, horizontal, first diagonal (135 degree diagonal), and second diagonal (45 degree diagonal) direction using a 1D Laplacian operation The sum of the gradient values of g v , g h , g d1 , and g d2 can be expressed as in Equations 2 to 5.
  • the D value and A value may be derived by using the sum of the slope values.
  • the sum of the slope values is an example, and a statistical value of the slope values may be used by replacing the sum of the slope values.
  • each of i and j means a horizontal position and a vertical position of the upper left corner in a 2x2 block
  • R(i,j) means a restored sample value at the (i, j) position.
  • each of k and l is the sum of V k,l , H k,l , D1 k,l and D2 k,l as a result of the sample unit 1D Laplacian operation according to the direction. It can mean a horizontal range and a vertical range.
  • the result of the sample unit 1D Laplacian operation according to each direction may mean a sample unit gradient value according to each direction. That is, the result of the 1D Laplacian operation may mean a slope value.
  • the 1D Laplacian operation may be performed for each of the vertical, horizontal, first diagonal, and second diagonal directions, and may represent a slope value for a corresponding direction.
  • the results performed for each of the vertical, horizontal, first diagonal, and second diagonal directions may mean V k,l , H k,l , D1 k,l and D2 k,l , respectively. have.
  • k and l may have the same range. That is, the horizontal length and the vertical length of the range in which the sum of the 1D Laplacian operations is calculated may be the same.
  • k and l may have different ranges. That is, the horizontal length and the vertical length of the range in which the sum of the 1D Laplacian operations is calculated may be different.
  • k has a range of i-2 to i+3
  • l has a range of j-2 to j+3 so that a range in which the sum of 1D Laplacian operations is calculated may be 6x6.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • k has a range of i-1 to i+2
  • l has a range of j-1 to j+2 so that a range in which the sum of 1D Laplacian operations is calculated may be 4x4.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • k has a range from i to i+1
  • l has a range from j to j+1
  • a range in which the sum of 1D Laplacian operations is calculated may be 2x2.
  • a range in which the sum of the 1D Laplacian operations is calculated may be the same as the size of the block classification unit.
  • the range in which the sum of the results of the 1D Laplacian operation is calculated is at least one of rhombus, rectangle, square, trapezoid, diagonal, snowflake, sharp, clover, cross, triangle, pentagon, hexagon, octagon, decagon, and dodecagon. It may be a two-dimensional geometric shape.
  • the shape of the block classification unit is a two-dimensional geometric shape of at least one of a rhombus, a rectangle, a square, a trapezoid, a diagonal, a snowflake, a shop, a clover, a cross, a triangle, a pentagon, a hexagon, an octagon, a decagon, and a dodecagon.
  • a rhombus a rectangle, a square, a trapezoid, a diagonal, a snowflake, a shop, a clover, a cross, a triangle, a pentagon, a hexagon, an octagon, a decagon, and a dodecagon.
  • a range in which the sum of the 1D Laplacian operations is calculated may have a size of SxT.
  • S and T may be positive integers including 0.
  • D1 representing the first diagonal and D2 representing the second diagonal may mean D0 representing the first diagonal and D1 representing the second diagonal.
  • the sum of the slope values in the vertical, horizontal, first diagonal, and second diagonal directions using a 1D Laplacian operation g v , g h , g d1 , g d2 can be expressed as in Equations 6 to 9.
  • the D value and A value may be derived by using the sum of the slope values.
  • the sum of the slope values is an example, and a statistical value of the slope values may be used by replacing the sum of the slope values.
  • each of i and j means a horizontal position and a vertical position of the upper left corner in a 4x4 block
  • R(i,j) means a restored sample value at the (i, j) position.
  • each of k and l is the sum of V k,l , H k,l , D1 k,l and D2 k,l as a result of the sample unit 1D Laplacian operation according to the direction. It can mean a horizontal range and a vertical range.
  • the result of the sample unit 1D Laplacian operation according to each direction may mean a sample unit gradient value according to each direction. That is, the result of the 1D Laplacian operation may mean a slope value.
  • the 1D Laplacian operation may be performed for each of the vertical, horizontal, first diagonal, and second diagonal directions, and may represent a slope value for a corresponding direction.
  • the results performed for each of the vertical, horizontal, first diagonal, and second diagonal directions may mean V k,l , H k,l , D1 k,l and D2 k,l , respectively. have.
  • k and l may have the same range. That is, the horizontal length and the vertical length of the range in which the sum of the 1D Laplacian operations is calculated may be the same.
  • k and l may have different ranges. That is, the horizontal length and the vertical length of the range in which the sum of the 1D Laplacian operations is calculated may be different.
  • k has a range of i-2 to i+5
  • l has a range of j-2 to j+5
  • a range in which the sum of 1D Laplacian operations is calculated may be 8x8.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • k has a range from i to i+3, and l has a range from j to j+3, and thus a range in which the sum of 1D Laplacian operations is calculated may be 4x4.
  • a range in which the sum of the 1D Laplacian operations is calculated may be the same as the size of the block classification unit.
  • the range in which the sum of the results of the 1D Laplacian operation is calculated is at least one of rhombus, rectangle, square, trapezoid, diagonal, snowflake, sharp, clover, cross, triangle, pentagon, hexagon, octagon, decagon, and dodecagon. It may be a two-dimensional geometric shape.
  • a range in which the sum of the 1D Laplacian operations is calculated may have a size of SxT.
  • S and T may be positive integers including 0.
  • the shape of the block classification unit is a two-dimensional geometric shape of at least one of a rhombus, a rectangle, a square, a trapezoid, a diagonal, a snowflake, a shop, a clover, a cross, a triangle, a pentagon, a hexagon, an octagon, a decagon, and a dodecagon.
  • a rhombus a rectangle, a square, a trapezoid, a diagonal, a snowflake, a shop, a clover, a cross, a triangle, a pentagon, a hexagon, an octagon, a decagon, and a dodecagon.
  • 9 is an example of determining a slope value according to a horizontal, vertical, first diagonal, and second diagonal direction.
  • At least one of the sum of slope values in the vertical, horizontal, first diagonal, and second diagonal directions g v , g h , g d1 , and g d2 is calculated.
  • I can.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • the sum of the slope values in the vertical, horizontal, first diagonal, and second diagonal directions using a 1D Laplacian operation g v , g h , g d1 , g d2 can be expressed as in Equation 10 to Equation 13.
  • the slope value may be expressed based on subsampling (or subsampling) in order to reduce the computational complexity of block classification.
  • the D value and A value may be derived by using the sum of the slope values.
  • the sum of the slope values is an example, and a statistical value of the slope values may be used by replacing the sum of the slope values.
  • each of i and j means a horizontal position and a vertical position of the upper left corner in a 4x4 block
  • R(i,j) means a reconstructed sample value at the (i,j) position.
  • each of k and l is the sum of V k,l , H k,l , D1 k,l and D2 k,l as a result of the sample unit 1D Laplacian operation according to the direction. It can mean a horizontal range and a vertical range.
  • the result of the sample unit 1D Laplacian operation according to each direction may mean a sample unit gradient value according to each direction. That is, the result of the 1D Laplacian operation may mean a slope value.
  • the 1D Laplacian operation may be performed for each of the vertical, horizontal, first diagonal, and second diagonal directions, and may represent a slope value for a corresponding direction.
  • the results performed for each of the vertical, horizontal, first diagonal, and second diagonal directions may mean V k,l , H k,l , D1 k,l and D2 k,l , respectively. have.
  • k and l may have the same range. That is, the horizontal length and the vertical length of the range in which the sum of the 1D Laplacian operations is calculated may be the same.
  • k and l may have different ranges. That is, the horizontal length and the vertical length of the range in which the sum of the 1D Laplacian operations is calculated may be different.
  • k has a range of i-2 to i+5
  • l has a range of j-2 to j+5
  • a range in which the sum of 1D Laplacian operations is calculated may be 8x8.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • k has a range from i to i+3, and l has a range from j to j+3, and thus a range in which the sum of 1D Laplacian operations is calculated may be 4x4.
  • a range in which the sum of the 1D Laplacian operations is calculated may be the same as the size of the block classification unit.
  • the range in which the sum of the results of the 1D Laplacian operation is calculated is at least one of rhombus, rectangle, square, trapezoid, diagonal, snowflake, sharp, clover, cross, triangle, pentagon, hexagon, octagon, decagon, and dodecagon. It may be a two-dimensional geometric shape.
  • a range in which the sum of the 1D Laplacian operations is calculated may have a size of SxT.
  • S and T may be positive integers including 0.
  • the shape of the block classification unit is a two-dimensional geometric shape of at least one of a rhombus, a rectangle, a square, a trapezoid, a diagonal, a snowflake, a shop, a clover, a cross, a triangle, a pentagon, a hexagon, an octagon, a decagon, and a dodecagon.
  • a rhombus a rectangle, a square, a trapezoid, a diagonal, a snowflake, a shop, a clover, a cross, a triangle, a pentagon, a hexagon, an octagon, a decagon, and a dodecagon.
  • the method of calculating a gradient value based on the subsample is to apply to a sample located in a corresponding direction within a range in which the sum of 1D Laplacian operations is calculated according to the direction of the gradient value to be calculated.
  • the slope value can be calculated by performing a 1D Laplacian operation.
  • a statistical value of a slope value may be calculated by calculating a statistical value for a 1D Laplacian operation result performed on at least one of samples within a range in which the sum of the 1D Laplacian operation is calculated.
  • the statistic value may be any one of a sum, a weighted sum, or an average value.
  • 1D Laplacian operation is performed at all samples in the row within the range where the sum of the 1D Laplacian operation is calculated, but each row within the range where the sum of the 1D Laplacian operation is calculated is P You can calculate the horizontal slope value by skipping row by row.
  • P is a positive integer.
  • 1D Laplacian operation is performed at all samples in the column within the range where the sum of the 1D Laplacian operation is calculated, but each column within the range where the sum of the 1D Laplacian operation is calculated is P You can calculate the vertical slope value by skipping column by column.
  • P is a positive integer.
  • the sum of the 1D Laplacian operation exists while skipping for at least one of the P column and the Q row for at least one of the horizontal and vertical directions within the calculated range.
  • a 1D Laplacian operation may be performed at the location of the sample to calculate a first diagonal gradient value.
  • P and Q are positive integers including 0.
  • a 1D Laplacian operation may be performed at the position of the sample to calculate a second diagonal gradient value.
  • P and Q are positive integers including 0.
  • the slope value in the method of calculating the slope value based on the subsample, can be calculated by performing a 1D Laplacian operation on at least one sample located within a range in which the sum of the 1D Laplacian operation is calculated.
  • a statistical value of a slope value may be calculated by calculating a statistical value for a 1D Laplacian operation result performed on at least one of samples within a range in which the sum of the 1D Laplacian operation is calculated.
  • the statistic value may be any one of a sum, a weighted sum, or an average value.
  • 1D Laplacian operation is performed at all samples in a row within the range where the sum of the 1D Laplacian operation is calculated, but each row within the range where the sum of the 1D Laplacian operation is calculated is skipped by P rows.
  • P is a positive integer.
  • 1D Laplacian operation is performed at all samples in a row within the range where the sum of the 1D Laplacian operation is calculated, but each column within the range where the sum of the 1D Laplacian operation is calculated is skipped by P columns.
  • P is a positive integer.
  • the slope value when calculating the slope value, the position of the sample that exists while skipping for at least one of the P column and the Q row for at least one of the horizontal and vertical directions within the range in which the sum of the 1D Laplacian operation is calculated
  • the slope value can be calculated by performing a 1D Laplacian operation.
  • P and Q are positive integers including 0.
  • the slope value when calculating the slope value, the slope value by performing a 1D Laplacian operation at the position of the sample while skipping for the P column and Q row for the horizontal and vertical directions within the range in which the sum of the 1D Laplacian operation is calculated. Can be calculated.
  • P and Q are positive integers including 0.
  • the slope may include at least one of a horizontal slope, a vertical slope, a first diagonal slope, and a second diagonal slope.
  • 10 to 12 are examples of determining inclination values according to horizontal, vertical, first diagonal, and second diagonal directions based on a subsample.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions. In addition, the position where the 1D Laplacian operation is performed may be subsampled. In FIG. 10
  • the block classification index C may be allocated in units of 2x2 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • the 1D Laplacian operation in each direction is not performed at the position of the sample where V, H, D1, and D2 are not indicated. That is, it may mean that the 1D Laplacian operation in each direction is performed only at the position of the sample where V, H, D1, and D2 are displayed. If the 1D Laplacian operation is not performed, the result of the 1D Laplacian operation for the corresponding sample may be determined as a specific value H.
  • H may be at least one of a negative integer, 0, and a positive integer.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions. In addition, the position where the 1D Laplacian operation is performed may be subsampled.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions. In addition, the position where the 1D Laplacian operation is performed may be subsampled.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • the range in which the sum of the 1D Laplacian operations is calculated may have the same size as the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • a slope value may be calculated by performing a 1D Laplacian operation on a sample existing at a specific position in an NxM block unit based on a subsample.
  • the specific position may be at least one of an absolute position and a relative position within the block.
  • a statistical value of a slope value may be calculated by calculating a statistical value for a 1D Laplacian operation result performed on at least one of samples within a range in which the sum of the 1D Laplacian operation is calculated.
  • the statistic value may be any one of a sum, a weighted sum, or an average value.
  • an absolute position it may mean an upper left position within an NxM block.
  • an absolute position in the case of an absolute position, it may mean a lower right position within an NxM block.
  • a relative position in the case of a relative position, it may mean a center position within an NxM block.
  • a slope value may be calculated by performing a 1D Laplacian operation on R samples in an NxM block unit based on a subsample.
  • R is a positive integer including 0.
  • R may be equal to or less than the product of N and M.
  • a statistical value of a slope value may be calculated by calculating a statistical value for a 1D Laplacian operation result performed on at least one of samples within a range in which the sum of the 1D Laplacian operation is calculated.
  • the statistic value may be any one of a sum, a weighted sum, or an average value.
  • a 1D Laplacian operation may be performed on only one sample within an NxM block.
  • a 1D Laplacian operation may be performed on only two samples within an NxM block.
  • a 1D Laplacian operation may be performed on only 4 samples in an NxM block.
  • a slope value may be calculated by performing a 1D Laplacian operation on R samples within NxM, which is a range in which the sum of 1D Laplacian operations is calculated based on a subsample.
  • R is a positive integer including 0.
  • R may be equal to or less than the product of N and M.
  • a statistical value of a slope value may be calculated by calculating a statistical value for a 1D Laplacian operation result performed on at least one of samples within a range in which the sum of the 1D Laplacian operation is calculated.
  • the statistic value may be any one of a sum, a weighted sum, or an average value.
  • the 1D Laplacian operation may be performed on only one sample within NxM, which is a range in which the sum of the 1D Laplacian operation is calculated.
  • the 1D Laplacian operation may be performed on only two samples within NxM, which is a range in which the sum of the 1D Laplacian operation is calculated.
  • the 1D Laplacian operation may be performed on only 4 samples within NxM, which is a range in which the sum of the 1D Laplacian operation is calculated.
  • 13 to 18 are other examples of determining inclination values according to horizontal, vertical, first diagonal, and second diagonal directions based on a subsample.
  • each slope value according to the vertical, horizontal, first diagonal, and second diagonal directions using a sample existing at a specific position in an NxM block unit based on a subsample At least one of the sum g v , g h , g d1 , and g d2 can be calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • the range in which the sum of the 1D Laplacian operations is calculated may have the same size as the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • each slope value according to the vertical, horizontal, first diagonal, and second diagonal directions using a sample existing at a specific position in the NxM block unit based on the subsample At least one of the sum g v , g h , g d1 , and g d2 can be calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be smaller than the size of the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • each slope value according to the vertical, horizontal, first diagonal, and second diagonal directions using a sample present at a specific position in an NxM block unit based on a subsample At least one of the sum g v , g h , g d1 , and g d2 can be calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be smaller than the size of the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • each slope value according to the vertical, horizontal, first diagonal, and second diagonal directions using a sample present at a specific position in an NxM block unit based on a subsample At least one of the sum g v , g h , g d1 , and g d2 can be calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be smaller than the size of the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • each slope value according to the vertical, horizontal, first diagonal, and second diagonal directions using a sample existing at a specific position in the NxM block unit based on the subsample At least one of the sum g v , g h , g d1 , and g d2 can be calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be smaller than the size of the block classification unit.
  • the slope value may be calculated without performing the sum of the 1D Laplacian operations.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • each slope value according to the vertical, horizontal, first diagonal, and second diagonal directions using a sample present at a specific position in the NxM block unit based on the subsample At least one of the sum g v , g h , g d1 , and g d2 can be calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 2x2 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be smaller than the size of the block classification unit.
  • the slope value may be calculated without performing the sum of the 1D Laplacian operations.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • the specific sample position may be a subsampled sample position within a block classification unit, or may be a subsampled sample position within a range in which the sum of 1D Laplacian operations is calculated.
  • the specific sample location may be the same for each block. Conversely, the specific sample location may be different for each block.
  • the specific sample position may be the same regardless of the direction of the 1D Laplacian operation to be calculated. Conversely, the specific sample position may be different depending on the direction of the 1D Laplacian operation to be calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions. In addition, the position where the 1D Laplacian operation is performed may be subsampled.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • a specific sample location at which the 1D Laplacian operation is performed may be the same.
  • the pattern of the sample location where the 1D Laplacian operation is performed may be referred to as a checkboard pattern or a quincunx pattern.
  • the sample position where the 1D Laplacian operation is performed has an even value in both the horizontal direction (x-axis direction) and the vertical direction (y-axis direction) within the range or block classification unit or block unit in which the sum of the 1D Laplacian operation is calculated. Or, it may mean a location that has an odd value.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions. In addition, the position where the 1D Laplacian operation is performed may be subsampled.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • a specific sample location at which the 1D Laplacian operation is performed may be the same.
  • the pattern of the sample location where the 1D Laplacian operation is performed may be referred to as a checkboard pattern or a quincunx pattern.
  • the sample position where the 1D Laplacian operation is performed is an even value and an odd number in the horizontal direction (x-axis direction) and vertical direction (y-axis direction) within the range or block classification unit or block unit in which the sum of the 1D Laplacian operation is calculated. It may refer to a position having a value or having an odd value and an even value, respectively.
  • At least one of the sum g v , g h , g d1 , and g d2 of slope values at a specific sample location may be calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions. In addition, the position where the 1D Laplacian operation is performed may be subsampled.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • the range in which the sum of the 1D Laplacian operations is calculated may have the same size as the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • a specific sample location at which the 1D Laplacian operation is performed may be the same.
  • the pattern of the sample location where the 1D Laplacian operation is performed may be referred to as a checkboard pattern or a quincunx pattern.
  • the sample position where the 1D Laplacian operation is performed has an even value in both the horizontal direction (x-axis direction) and the vertical direction (y-axis direction) within the range or block classification unit or block unit in which the sum of the 1D Laplacian operation is calculated. Or, it may mean a location that has an odd value.
  • At least one of the sum g v , g h , g d1 , and g d2 of slope values at a specific sample location may be calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • the range in which the sum of the 1D Laplacian operations is calculated may have the same size as the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • a specific sample location at which the 1D Laplacian operation is performed may be the same.
  • the pattern of the sample location where the 1D Laplacian operation is performed may be referred to as a checkboard pattern or a quincunx pattern.
  • the sample position where the 1D Laplacian operation is performed is an even value and an odd number in the horizontal direction (x-axis direction) and vertical direction (y-axis direction) within the range or block classification unit or block unit in which the sum of the 1D Laplacian operation is calculated. It may refer to a position having a value or having an odd value and an even value, respectively.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions. In addition, the position where the 1D Laplacian operation is performed may be subsampled.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • the range in which the sum of the 1D Laplacian operations is calculated may have the same size as the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • At least one of the sum of slope values g v , g h , g d1 , and g d2 at a specific sample location may be calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • the range in which the sum of the 1D Laplacian operations is calculated may have the same size as the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample
  • the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • the specific sample location may mean all sample locations in a block classification unit.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions. In addition, the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • the range in which the sum of the 1D Laplacian operations is calculated may have the same size as the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • At least one of the sum of slope values g v , g h , g d1 , and g d2 at a specific sample position may be calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • the specific sample position may mean all sample positions within a range in which the sum of the 1D Laplacian operation is calculated.
  • At least one of the sum of slope values g v , g h , g d1 , and g d2 at a specific sample location may be calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • the specific sample position may mean all sample positions within a range in which the sum of the 1D Laplacian operation is calculated.
  • At least one of the sum of slope values g v , g h , g d1 , and g d2 at a specific sample location may be calculated.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective vertical, horizontal, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • a square included in the thin solid line indicates the position of each reconstructed sample, and the thick solid line indicates a range in which the sum of the 1D Laplacian operation is calculated.
  • whether or not to perform at least one of the methods of calculating the gradient value may be determined according to a temporal layer identifier.
  • Equations 2 to 5 may be expressed as one equation as in Equation 14.
  • dir includes horizontal, vertical, first diagonal, and second diagonal directions
  • g dir is the sum of the slope values in the vertical, horizontal, first diagonal, and second diagonal directions g v , It may mean g h , g d1 , g d2 .
  • each of i and j means a horizontal position and a vertical position in a 2x2 block
  • G dir is the result of 1D Laplacian operation according to vertical, horizontal, first diagonal, and second diagonal directions V k,l , H k,l , D1 k,l , D2 may mean k,l .
  • Equation 14 may be expressed as Equation 15.
  • G dir (i 0 ,j 0 ) denotes a slope value at an upper left position in a 2x2 block in the vertical, horizontal, first diagonal, and second diagonal directions.
  • FIG. 31 is an example of determining slope values according to horizontal, vertical, first diagonal, and second diagonal directions when a temporal layer identifier is the highest layer.
  • the sum of the slope values in the vertical, horizontal, first diagonal, and second diagonal directions g v , g h , g d1 , g d2 is calculated at the upper left sample position (i.e., shaded This can be simplified by calculating the slope only at the marked sample position).
  • a weighting factor is applied to the result of a 1D Laplacian operation performed on at least one of samples within a range in which the sum of the 1D Laplacian operation is calculated, and a weighted sum is calculated.
  • the statistical value of the slope value can be calculated.
  • at least one of statistical values such as a weighted average value, a median value, a minimum value, a maximum value, and a mode value may be used.
  • Applying a weight or calculating a weighted sum may be determined based on various conditions or encoding parameters related to the current block and neighboring blocks.
  • the weighted sum may be calculated in at least one of a sample unit, a sample group unit, a line unit, and a block unit.
  • the weighted sum may be calculated by varying the weight in at least one of a sample unit, a sample group unit, a line unit, and a block unit.
  • the weight value may be applied differently according to at least one or more of the size of the current block, the shape of the current block, and the location of a sample.
  • an encoder and a decoder may determine to perform the weighting according to a preset criterion.
  • the weight may be adaptively determined by using at least one of encoding parameters such as a size of at least one block among a current block and a neighboring block, a block shape, and an intra prediction mode.
  • whether to perform weighting adaptively may be determined using at least one of encoding parameters such as a size of at least one block among a current block and a neighboring block, a block type, and an intra prediction mode.
  • At least one weight value applied to samples in the block classification unit is at least one weight value applied to samples other than the block classification unit. Can be greater than
  • all weight values applied to samples in the block classification unit may be the same.
  • the weight and/or information on whether the weighted addition is performed may be entropy-encoded in an encoder and signaled to a decoder.
  • the sum of the slope values of each of the vertical, horizontal, first diagonal, and second diagonal directions g v , g h , g d1 , g d2 is calculated.
  • a slope value may be calculated using the padded sample after performing padding.
  • the padding may refer to a method of copying an available sample value that is adjacent to the unavailable sample to the unavailable sample value.
  • a sample value or a statistical value obtained based on an available sample value and adjacent to the unavailable sample may be used.
  • the padding may be performed repeatedly as many as P columns and R rows.
  • P and R may be positive integers.
  • the sample that is not available may mean a sample that exists outside the CTU, CTB, slice, tile, tile group, or picture boundary.
  • the unavailable sample means a sample belonging to at least one of CTU, CTB, slice, tile, tile group, and picture different from at least one of the CTU, CTB, slice, tile, tile group, and picture to which the current sample belongs. I can.
  • the sum of the slope values of each of the vertical, horizontal, first diagonal, and second diagonal directions g v , g h , g d1 , g d2 is calculated.
  • a predetermined sample may not be used.
  • a padded sample is used. I can't.
  • the unavailable sample may not be used for calculating the sum of the gradient values.
  • a 1D Laplacian operation when calculating at least one of the 1D Laplacian calculation values, if there is an unavailable sample around the current sample, an available sample value that is adjacent to the unavailable sample After performing padding, which is a method of copying to the unavailable sample value, a 1D Laplacian operation may be performed using the padded sample.
  • a predetermined sample may not be used.
  • padded samples may not be used.
  • the unavailable sample may not be used for the 1D Laplacian operation.
  • the surrounding sample when calculating at least one of the 1D Laplacian calculation values, when a sample existing around the current sample is located outside the CTU or CTB boundary, the surrounding sample may not be used for the 1D Laplacian calculation. have.
  • the sum of the slope values of each of the vertical, horizontal, first diagonal, and second diagonal directions g v , g h , g d1 , g d2 is calculated.
  • a sample to which at least one of deblocking filtering, adaptive sample offset, and adaptive intra-loop filtering is applied may be used.
  • the sum of the slope values of each of the vertical, horizontal, first diagonal, and second diagonal directions g v , g h , g d1 , g d2 is calculated.
  • deblocking filtering, adaptive sample offset, and adaptive intra-loop filtering on the corresponding sample At least one of can be applied.
  • the sum of the slope values in the vertical, horizontal, first diagonal, and second diagonal directions when calculating at least one value, if a sample existing around the current sample is located outside the CTU or CTB boundary, at least one of deblocking filtering, adaptive sample offset, and adaptive intra-loop filtering may not be applied to the corresponding sample. have.
  • deblocking filtering and adaptive sample offset on the corresponding unavailable sample it can be used when calculating the sum of 1D Laplacian operations without applying at least one of adaptive in-loop filtering.
  • deblocking filtering when a sample that is not available because it is located outside the CTU or CTB boundary in the block classification unit is included, deblocking filtering, adaptive sample offset, and adaptive intra-loop filtering are included in the non-available sample. It can be used when calculating a 1D Laplacian operation without applying at least one of them.
  • the method of calculating the slope value based on the subsample is to perform the 1D Laplacian operation on the subsampled samples within the range where the sum of the 1D Laplacian operation is calculated, not all samples within the range where the sum of the 1D Laplacian operation is calculated. Therefore, the number of operations such as multiplication operation, shift operation, addition operation, and absolute value operation required for the block classification step can be reduced. In addition, it is possible to reduce the memory access bandwidth required when using the reconstructed sample, thereby reducing the complexity of the encoder and the decoder. In particular, performing the 1D Laplacian operation on the subsampled samples has an advantage in terms of hardware implementation complexity as it can reduce the time required for the block classification step when implementing hardware of an encoder and a decoder.
  • the number of addition operations required for the block classification step may be reduced.
  • the method of calculating the slope value based on the subsample is the position of the sample to be subjected to the 1D Laplacian operation, the number of samples, according to the slope values in the vertical, horizontal, first diagonal and second diagonal directions to be calculated. At least one of the sum g v , g h , g d1 , and g d2 of the slope values in the vertical, horizontal, first diagonal, and second diagonal directions may be calculated by changing at least one of the directions of the sample positions.
  • the method of calculating the slope value based on the subsample is the position of the sample to be subjected to the 1D Laplacian operation, and the number of samples regardless of the slope values in the vertical, horizontal, first diagonal, and second diagonal directions to be calculated.
  • At least one of the sum g v , g h , g d1 , and g d2 of the slope values in the vertical, horizontal, first diagonal, and second diagonal directions may be calculated by making at least one of the directions of the sample positions the same.
  • At least one of g v , g h , g d1 , and g d2 may be calculated as the sum of the slope values for the direction.
  • At least two or more of the sum of the slope values of the vertical, horizontal, first diagonal, and second diagonal directions g v , g h , g d1 , and g d2 Can be compared.
  • the maximum value of the sum of the slope values in the horizontal direction and the vertical direction is compared with the sum g v value of the vertical slope and the sum g h value of the horizontal slope.
  • minimum value Can be derived as in the example of Equation 16.
  • the magnitudes of the sums of the gradient values may be compared with each other as in the example of Equation 17.
  • the maximum value of the sum of the slope values for the first diagonal direction and the second diagonal direction by comparing the sum g d1 value of the first diagonal direction and the sum g d2 value of the second diagonal direction And minimum value can be derived as in the example of Equation 18.
  • the magnitudes of the sums of the gradient values may be compared with each other as in the example of Equation 19.
  • the maximum values and the minimum values may be compared with two threshold values t 1 and t 2 as follows.
  • the directional D value may be a positive integer including 0.
  • the directional D value may have a value between 0 and 4.
  • the directional D value may have a value between 0 and 2.
  • the directional D value may be determined according to the characteristics of the corresponding region. For example, when the directional D value is 0, the texture area, when the directional D value is 1, strong horizontal/vertical directionality, when the directional D value is 2, weak horizontal/vertical directionality, when the directional D value is 3 When the strong first/second diagonal direction and the directional D value is 4, it may mean weak first/second diagonal directions.
  • the determination of the directional D value may be performed by steps 1 to 4 below.
  • Step 1 Is satisfied, set D value to 0
  • Step 2 If is satisfied, proceed to step 3, otherwise proceed to step 4
  • Step 3 If is satisfied, set the D value to 2, otherwise set the D value to 1.
  • Step 4 If is satisfied, set the D value to 4, otherwise set the D value to 3
  • the threshold values t 1 and t 2 are positive integers.
  • t 1 and t 2 may have the same value or different values.
  • t 1 and t 2 may be 2 and 9, respectively.
  • t 1 and t 2 may each be 1.
  • t 1 and t 2 may be 1 and 9, respectively.
  • the activity A value may be expressed as in the example of Equation 20.
  • k and l may have the same range. That is, the horizontal length and the vertical length of the range in which the sum of the 1D Laplacian operations is calculated may be the same.
  • k and l may have different ranges. That is, the horizontal length and the vertical length of the range in which the sum of the 1D Laplacian operations is calculated may be different.
  • k has a range of i-2 to i+3
  • l has a range of j-2 to j+3, so that a range in which the sum of 1D Laplacian operations is calculated may be 6x6.
  • k has a range of i-1 to i+2
  • l has a range of j-1 to j+2, so that a range in which the sum of 1D Laplacian operations is calculated may be 4x4.
  • k has a range from i to i+1
  • l has a range from j to j+1
  • a range in which the sum of 1D Laplacian operations is calculated may be 2x2.
  • a range in which the sum of the 1D Laplacian operations is calculated may be the same as the size of the block classification unit.
  • the range in which the sum of the results of the 1D Laplacian operation is calculated is at least one of rhombus, rectangle, square, trapezoid, diagonal, snowflake, sharp, clover, cross, triangle, pentagon, hexagon, octagon, decagon, and dodecagon. It may be a two-dimensional geometric shape.
  • the activity A value may be expressed as in the example of Equation 21.
  • k and l may have the same range. That is, the horizontal length and the vertical length of the range in which the sum of the 1D Laplacian operations is calculated may be the same.
  • k and l may have different ranges. That is, the horizontal length and the vertical length of the range in which the sum of the 1D Laplacian operations is calculated may be different.
  • k has a range of i-2 to i+5
  • l has a range of j-2 to j+5 so that a range in which the sum of 1D Laplacian operations is calculated may be 8x8.
  • k has a range from i to i+3, and l has a range from j to j+3, and thus a range in which the sum of 1D Laplacian operations is calculated may be 4x4.
  • a range in which the sum of the 1D Laplacian operations is calculated may be the same as the size of the block classification unit.
  • the range in which the sum of the results of the 1D Laplacian operation is calculated is at least one of rhombus, rectangle, square, trapezoid, diagonal, snowflake, sharp, clover, cross, triangle, pentagon, hexagon, octagon, decagon, and dodecagon. It may be a two-dimensional geometric shape.
  • the activity A value may be expressed as in the example of Equation 22 in the case of 2x2 block classification.
  • at least one of the 1D Laplacian calculation values for the first diagonal direction and the second diagonal direction may be additionally used when calculating the activity A value.
  • k and l may have the same range. That is, the horizontal length and the vertical length of the range in which the sum of the 1D Laplacian operations is calculated may be the same.
  • k and l may have different ranges. That is, the horizontal length and the vertical length of the range in which the sum of the 1D Laplacian operations is calculated may be different.
  • k has a range of i-2 to i+3
  • l has a range of j-2 to j+3, so that a range in which the sum of 1D Laplacian operations is calculated may be 6x6.
  • k has a range of i-1 to i+2
  • l has a range of j-1 to j+2, so that a range in which the sum of 1D Laplacian operations is calculated may be 4x4.
  • k has a range from i to i+1
  • l has a range from j to j+1
  • a range in which the sum of 1D Laplacian operations is calculated may be 2x2.
  • a range in which the sum of the 1D Laplacian operations is calculated may be the same as the size of the block classification unit.
  • the range in which the sum of the results of the 1D Laplacian operation is calculated is at least one of rhombus, rectangle, square, trapezoid, diagonal, snowflake, sharp, clover, cross, triangle, pentagon, hexagon, octagon, decagon, and dodecagon. It may be a two-dimensional geometric shape.
  • the activity A value may be expressed as in the example of Equation 23 in the case of 4x4 block classification.
  • at least one of the 1D Laplacian calculation values for the first diagonal direction and the second diagonal direction may be additionally used when calculating the activity A value.
  • k and l may have the same range. That is, the horizontal length and the vertical length of the range in which the sum of the 1D Laplacian operations is calculated may be the same.
  • k and l may have different ranges. That is, the horizontal length and the vertical length of the range in which the sum of the 1D Laplacian operations is calculated may be different.
  • k has a range of i-2 to i+5
  • l has a range of j-2 to j+5 so that a range in which the sum of 1D Laplacian operations is calculated may be 8x8.
  • k has a range from i to i+3, and l has a range from j to j+3, and thus a range in which the sum of 1D Laplacian operations is calculated may be 4x4.
  • a range in which the sum of the 1D Laplacian operations is calculated may be the same as the size of the block classification unit.
  • the range in which the sum of the results of the 1D Laplacian operation is calculated is at least one of rhombus, rectangle, square, trapezoid, diagonal, snowflake, sharp, clover, cross, triangle, pentagon, hexagon, octagon, decagon, and dodecagon. It may be a two-dimensional geometric shape.
  • the activity A value may be quantized to have a quantized activity A q value ranging between I and J.
  • I and J may be positive integers including 0, respectively, and may be 0 and 4, respectively.
  • the quantized activity A q value can be determined using a predetermined method.
  • the quantized activity A q value may be expressed as in the example of Equation 24.
  • the quantized activity A q value may be included within a range of a specific minimum value X and a specific maximum value Y.
  • the activity A q value quantized in Equation 24 may be calculated by multiplying the activity A value by a specific constant W value, and performing a right shift operation by R.
  • X, Y, W, and R are positive integers including 0.
  • W may be 24 and R may be 13.
  • W may be 64, and R may be (3 + N bits).
  • N may be a positive integer, and may be 8 or 10.
  • W may be 32, and R may be (3 + N bits).
  • N may be a positive integer, and may be 8 or 10.
  • the quantized activity A q value may set a mapping relationship between the activity A value and the quantized activity A q value using a Look Up Table (LUT) method. That is, the activity A q value quantized by performing an operation on the activity A value and using the table may be calculated.
  • the operation may include at least one of multiplication, division operation, right shift operation, left shift operation, addition, and subtraction.
  • filtering may be performed on each color difference component using K filters without performing the block classification process.
  • K may be a positive integer including 0.
  • K may be one of 0 to 7.
  • filtering may be performed using a block classification index determined from a luminance component of a corresponding position without performing the block classification process.
  • filter information on the color difference component is not signaled and a fixed type filter may be used.
  • FIG. 32 is a diagram illustrating various computation techniques in place of 1D Laplacian computation according to an embodiment of the present invention.
  • the operation may include at least one of 2D Laplacian, 2D Sobel, 2D edge extraction, and 2D Laplacian of Gaussian (LoG) operations.
  • the LoG operation may mean that a Gaussian filter and a Laplacian filter are combined and applied to the reconstructed sample.
  • at least one of the 1D/2D edge extraction filters may be used instead of the 1D Laplacian operation.
  • DoG Difference of Gaussian
  • the DoG operation may mean that Gaussian filters having different internal parameters are combined and applied to the reconstructed sample.
  • an NxM-sized LoG operation may be used.
  • N and M may be positive integers.
  • At least one of the 5x5 2D LoG of FIG. 32(i) and the 9x9 2D LoG of FIG. 32(j) may be used.
  • 1D LoG operation may be used instead of 2D LoG operation.
  • each 2x2 block of the luminance block may be classified based on directionality and 2D Laplacian activity.
  • a Sobel filter can be used to obtain horizontal/vertical slope characteristics.
  • the directional D value may be obtained using Equations 25 to 26.
  • the representative vector may be calculated such that the condition of Equation 25] is satisfied for a gradient vector within a predetermined window size (eg, 6x6 block). Depending on ⁇ , direction and deformation can be identified.
  • the degree of similarity between the representative vector and each gradient vector within the window may be calculated using the dot product as shown in Equation 26.
  • the directional D value may be determined using the S value calculated in Equation 26.
  • Step 1 If, set D value to 0
  • Step 2 And If it is, set the D value to 2, otherwise set the D value to 1.
  • Step 3 And If, set D value to 4, otherwise set D value to 3
  • the total block classification index may be a total of 25.
  • the restoration sample The block classification of can be expressed as in Equation 27.
  • I is a restoration sample Is the set of all sample locations.
  • D is the class index for each sample position (i,j) Is the classifier that assigns.
  • the class is the collection of all samples for which class index k is assigned by classifier D.
  • the classifier used in the decoder may be designated by the syntax element classification_idx signaled at the slice level. In class If is given, it proceeds as follows.
  • a sample-based feature classifier Can be used as a classifier. Is each sample according to Equation 28 The quantized sample value of can be used.
  • B is the sample bit depth
  • a sample-based feature classifier based on ranking Can be used. Can be expressed as in Equation 30 to be described later. Is the sample value Is a classifier arranged in order of magnitude by comparing with eight samples around it, and can be expressed as Equation 29.
  • Classifier Can have a value between 0 and 8. Sample If this is the largest sample in the 3x3 block centered on (i,j), The value of is 0. Is the second largest sample, The value of is 1.
  • T 1 and T 2 are predefined threshold values. That is, the dynamic range of the sample is divided into three bands, and the rank of the sample within the corresponding local area within each band is used as an additional criterion.
  • T 3 or T 4 is a predefined threshold.
  • Regional variation at each sample location (i,j) Can be expressed as in Equation 32.
  • Each sample first is a local variable Except that it is classified as an element of one of three classes based on It is the same classifier as Then, within each class, the ranking of the samples in the local vicinity can be used as an additional criterion giving 27 classes.
  • a maximum of 16 filter sets using three pixel classification methods such as IntensityClassifier, HistogramClassifier, and DirectionalActivityClassifier may be used for the current slice.
  • three modes of NewFilterMode, SpatialFilterMode, and SliceFilterMode may be supported in units of CTU.
  • the IntensityClassifier may be similar to the band offset of SAO.
  • the range of sample intensity is divided into 32 groups, and the group index can be determined based on the intensity of the sample to be processed.
  • surrounding samples in the form of a 5x5 rhombus filter can be used to compare with the sample to be filtered.
  • the group index of the sample to be filtered may be initialized to 0 first. When the difference between the surrounding samples and the sample to be filtered is greater than one predefined threshold, the group index may be increased by one. In addition, when the difference between the surrounding sample and the sample to be filtered is more than twice as large as the predefined threshold value, 1 may be additionally added to the group index. At this time, there may be 25 groups in the SimilarityClassifier.
  • the range in which the sum of 1D Laplacian operations for one 2x2 block is calculated may be reduced from 6x6 to 4x4.
  • the number of groups is a maximum of 25 or 32 in several classifiers, but the number of filters in a slice filter set can be limited to a maximum of 16. That is, the encoder may merge consecutive groups and maintain the number of merged groups less than or equal to 16.
  • the block classification index when determining the block classification index, may be determined based on at least one encoding parameter of a current block and a neighboring block. Block classification indexes may differ from each other according to at least one of the encoding parameters.
  • the encoding parameter is a prediction mode (whether inter prediction or intra prediction), intra prediction mode, inter prediction mode, inter prediction indicator, motion vector, reference image index, quantization parameter, current block size, current It may include at least one of a block type, a size of a block classification unit, and a coding block flag/pattern.
  • the block classification may be determined according to a quantization parameter. For example, if the quantization parameter is less than the threshold T, then J block classification indices can be used, if the quantization parameter is greater than the threshold R, then H block classification indices can be used; otherwise, G blocks You can use a classification index.
  • T, R, J, H, and G are positive integers including 0. Further, J can be greater than or equal to H.
  • a smaller number of block classification indexes can be used.
  • the block classification may be determined according to the size of the current block. For example, if the size of the current block is less than the threshold T, J block classification indices can be used. If the size of the current block is greater than the threshold R, H block classification indices can be used. Otherwise, G Block classification indexes are available.
  • T, R, J, H, and G are positive integers including 0. Further, J can be greater than or equal to H.
  • a smaller number of block classification indexes can be used.
  • the block classification may be determined according to the size of a block classification unit. For example, if the size of the block classification unit is less than the threshold T, J block classification indices can be used, and if the size of the block classification unit is greater than the threshold R, H block classification indices can be used. In this case, G block classification indexes can be used.
  • T, R, J, H, and G are positive integers including 0. Further, J can be greater than or equal to H.
  • a smaller number of block classification indexes may be used.
  • the sum of the slope values of the corresponding position in the previous image may be determined as at least one of the sum of the slope values of the current block and the sum of the slope values of the current block classification unit.
  • the corresponding position in the previous image may be a position in the previous image or a position around the previous image having a spatial position corresponding to the corresponding reconstructed sample in the current image.
  • a difference between at least one of the sum gv and gh of the slope values in the vertical and horizontal directions of the current block unit and at least one of the sum of the slope values in the horizontal and vertical directions of the block classification units surrounding the current block classification unit is critical If the value is equal to or less than the value E, at least one of the sum gd1 and gd2 of the first and second diagonal gradient values of the block classification unit surrounding the current block classification unit may be determined as at least one of the sum of the slope values of the current block unit.
  • the threshold value E is a positive integer including 0.
  • the current At least one of the sums of the slope values of the block classification unit around the block classification unit may be determined as at least one of the sum of the slope values of the current block.
  • the threshold value E is a positive integer including 0.
  • the threshold value E is a positive integer including 0.
  • the threshold E may be derived from a spatial neighboring block and/or a temporal neighboring block of the current block.
  • the threshold E may be a value predefined in the encoder and decoder.
  • At least one block classification index of a block classification index of a corresponding position in a previous image, a block classification index of a neighboring block of the current block, and a block classification index of a block classification unit adjacent to the current block classification unit May be determined as at least one of a block classification index of a current block and a block classification index of a current block classification unit.
  • a difference between at least one of the sum gv and gh of the slope values in the vertical and horizontal directions of the current block unit and at least one of the sum of the slope values in the horizontal and vertical directions of the block classification units surrounding the current block classification unit is critical If it is equal to or less than the value E, the block classification index of the block classification unit surrounding the current block classification unit may be determined as the block classification index of the current block unit.
  • the threshold value E is a positive integer including 0.
  • the current The block classification index of the block classification unit surrounding the block classification unit may be determined as the block classification index of the current block unit.
  • the threshold value E is a positive integer including 0.
  • the block classification index of the block classification unit of may be determined as the block classification index of the current block unit.
  • the threshold value E is a positive integer including 0.
  • the block classification index may be determined using a combination of at least one or more of the methods for determining the block classification index.
  • filtering may be performed on a sample or a block in a reconstructed/decoded image by using a filter corresponding to the determined block classification index.
  • one of the L types of filters may be selected.
  • L may be a positive integer including 0.
  • one of L filters may be selected as the block classification unit, and filtering may be performed on a reconstructed/decoded image in units of reconstructed/decoded samples.
  • one of L filters may be selected as the block classification unit, and filtering may be performed on the reconstructed/decoded image in a block classification unit.
  • one of L filters may be selected as the block classification unit to perform filtering on the reconstructed/decoded image in units of CU.
  • one of L types of filters may be selected as the block classification unit to perform filtering on the reconstructed/decoded image in block units.
  • U filters may be selected from among L filters as the block classification unit, and filtering may be performed on the reconstructed/decoded image in units of reconstructed/decoded samples.
  • U is a positive integer.
  • U filters among L filters may be selected as the block classification unit, and filtering may be performed on the reconstructed/decoded image in a block classification unit.
  • U is a positive integer.
  • U filters among L filters may be selected as the block classification unit, and filtering may be performed on a reconstructed/decoded image in units of CU.
  • U is a positive integer.
  • U filters among L filters may be selected as the block classification unit to perform filtering on the reconstructed/decoded image in block units.
  • U is a positive integer.
  • the L types of filters may be expressed as a filter set.
  • the L types of filters may have at least one of a filter coefficient, a number of filter taps (filter length), a filter type, and a filter type different from each other.
  • the L types of filters include filter coefficients, filter taps (filter length), and filters in at least one unit of block, CU, PU, TU, CTU, slice, tile, tile group, image (picture), and sequence. At least one of a shape and a filter type may be the same.
  • the L types of filters include filter coefficients in at least one unit among blocks, CUs, PUs, TUs, CTUs, slices, tiles, tile groups, images (pictures), and sequences, number of filter taps (filter length), and filters. At least one of a shape and a filter type may be different.
  • the filtering may be performed using the same filter or different filters in at least one unit of a sample, block, CU, PU, TU, CTU, slice, tile, tile group, image (picture), and sequence.
  • the filtering will be performed according to information on whether to perform filtering in at least one unit among samples, blocks, CUs, PUs, TUs, CTUs, slices, tiles, tile groups, images (pictures), and sequences.
  • the information on whether to perform filtering may be information signaled from an encoder to a decoder in at least one unit of a sample, block, CU, PU, TU, CTU, slice, tile, tile group, image (picture), and sequence.
  • N types of filters having a diamond or rhombus filter shape and different number of filter taps may be used as the filter for filtering.
  • N may be a positive integer.
  • a rhombus shape having the number of filter taps 5x5, 7x7, and 9x9 may be represented as shown in FIG. 33.
  • FIG 33 is a diagram illustrating a filter having a rhombus shape according to an embodiment of the present invention.
  • Entropy encoding/decoding can be performed on the filter index. That is, a sequence parameter set in a bitstream, a picture parameter set, a slice header, a slice data, a tile header, and a tile group header.
  • the filter index can be entropy encoded/decoded, such as header).
  • the filter index is not entropy encoding/decoding, and filtering is performed in the encoder/decoder using the filter.
  • the number of filter taps may be in the form of a 7x7 rhombus in the case of the luminance component, and may be in the form of a 5x5 rhombus in the case of the color difference component.
  • At least one of the three rhombic filters may be used for filtering of reconstructed/decoded samples of at least one of a luminance component and a color difference component.
  • At least one filter among the three rhombus-shaped filters of FIG. 33 may be used for the restoration/decoding sample filtering.
  • a 5x5 rhombus filter of FIG. 33 may be used for reconstruction/decoding sample filtering for a color difference component restoration/decoding sample.
  • filtering may be performed on a color difference component reconstructed/decoded sample using a filter selected from a luminance component corresponding to the color difference component.
  • each filter type of FIG. 33 indicates a filter coefficient index, and the filter coefficient index may have a symmetrical shape with a center of the filter. That is, the filters of FIG. 33 may be referred to as point symmetric filters.
  • a total of 7 filter coefficients may be entropy encoded/decoded. That is, up to 21 filter coefficients must be entropy encoded/decoded.
  • the 9x9 rhombus filter has a size of 9x9 as shown in FIG. 33(a)
  • a 4-line line buffer that is half the vertical length of the filter is required when implementing hardware. That is, a line buffer for up to 4 lines is required.
  • the number of filter taps is the same as 5x5 as a filter for filtering, but the filter shape is rhombus, rectangle, square, trapezoid, diagonal, snowflake, shop, clover, cross, triangle, pentagon ,
  • a filter including at least one of a hexagon, an octagon, a decagon, a dodecagon, and the like may be used.
  • the number of filter taps is 5x5, and the shape of the filter is square, octagon, snowflake, and rhombus, as shown in FIG. 34.
  • the number of filter taps is not limited to 5x5, and at least one filter having HxV filter taps such as 3x3, 4x4, 5x5, 6x6, 7x7, 8x8, 9x9, 5x3, 7x3, 9x3, 7x5, 9x5, 9x7, 11x7, etc.
  • H and V may be positive integers, and may have the same value or different values.
  • at least one of H and V may be a value predefined by the encoder/decoder, and may be a value signaled from the encoder to the decoder.
  • another value may be defined using one of H and V.
  • the final value of H or V may be defined using the values of H and V.
  • the filter index may be entropy coded/decoded in a picture/tile/tile group/slice/sequence unit. That is, a filter index may be entropy encoded/decoded in a sequence parameter set, a picture parameter set, a slice header, slice data, tile header, and tile group header in a bitstream.
  • At least one of a square, octagonal, snowflake, and rhombus type filter as in the example of FIG. 34 may be used to filter the reconstructed/decoded sample of at least one of a luminance component and a color difference component.
  • a number in each filter type of FIG. 34 indicates a filter coefficient index, and the filter coefficient index may have a symmetrical shape around the filter center. That is, the filters of FIG. 34 may be referred to as point symmetric filters.
  • the encoder when filtering a reconstructed image in units of samples, may determine which filter type is used for each image/slice/tile/tile group from the viewpoint of rate-distortion optimization. In addition, filtering may be performed using the determined filter type. Since the degree of encoding efficiency improvement and the amount of filter information (number of filter coefficients) vary according to the filter type as shown in FIG. 34, it is necessary to determine an optimal filter type in units of image/slice/tile/tile group. That is, the optimal filter type may be determined differently from among the filter types shown in the example of FIG. 34 according to the resolution, image characteristics, bitrate, and the like of the image.
  • using a filter like the example of FIG. 34 can reduce computational complexity of an encoder/decoder compared to using a filter like the example of FIG. 33.
  • a total of 13 filter coefficients in the case of a 5x5 square type filter as shown in FIG. 34(a), a total of 13 filter coefficients, in the case of a 5x5 octagonal shape filter as shown in FIG. 34(b), a total of 11 filter coefficients, and a 5x5 snowflake as shown in FIG. 34(c)
  • a total of 9 filter coefficients in the case of a shape filter, a total of 9 filter coefficients, and in the case of a 5x5 rhombus shape filter as shown in FIG. 34(c), a total of 7 filter coefficients may be entropy encoded/decoded. That is, the number of filter coefficients to be entropy encoding/decoding may vary according to the shape of the filter.
  • the maximum number (13) of filter coefficients among the filters shown in the example of FIG. 34 is smaller than the maximum number (21) of filter coefficients among the filters shown in FIG. 33. Accordingly, when the filter as in the example of FIG. 34 is used, the number of filter coefficients to be entropy encoding/decoding is reduced, and thus the computational complexity of the encoder/decoder can be reduced.
  • each filter type has a size of 5x5
  • two line buffers of half the vertical length of the filter are required when implementing hardware.
  • the number of lines (two) of the line buffer required to implement the filters as in the example of FIG. 34 is smaller than the number of lines (four) of the line buffer required to implement the filters as in the example of FIG. 33. Accordingly, when the filter as in the example of FIG. 34 is used, the size of the line buffer can be saved, and the implementation complexity of the encoder/decoder, the amount of memory required, and the memory access bandwidth can be reduced.
  • the filter shape is rhombus, rectangle, square, trapezoid, diagonal, snowflake, shop, clover, cross, triangle, pentagon, hexagon, octagon, decagon, dodecagon
  • a filter including at least one of may be used.
  • it may have a square, an octagon, a snowflake, a rhombus, a hexagon, a rectangle, a cross, a shop, a clover, a diagonal shape, and the like, as in the example of FIGS. 35A and/or 35B.
  • filtering may be performed after configuring a filter set using at least one of filters having a vertical filter length of 5.
  • filtering may be performed after configuring a filter set by using at least one of filters having a vertical filter length of 3 in FIGS. 35A and/or 35B.
  • filtering may be performed after configuring a filter set by using at least one of filters having a vertical filter length of 5 and 3 in FIGS. 35A and/or 35B.
  • the shape of the filter is designed based on a vertical filter length of 3 or 5, but is not limited thereto, and may be designed as a case where the vertical filter length is M and used for filtering.
  • M is a positive integer.
  • a picture/tile/tile group/slice/sequence can be entropy encoded/decoded in units.
  • H is a positive integer. That is, a filter index may be entropy encoded/decoded in a sequence parameter set, a picture parameter set, a slice header, slice data, tile header, and tile group header in a bitstream.
  • At least one of the rhombus, rectangle, square, trapezoid, diagonal, snowflake, shop, clover, cross, triangle, pentagonal, hexagonal, octagonal, decagonal, dodecagonal shape filter restores at least one of a luminance component and a color difference component /Can be used for filtering decoded samples.
  • a number in each filter type of FIGS. 35A and/or 35B represents a filter coefficient index, and the filter coefficient index has a symmetrical shape around the filter center. That is, the filters of FIGS. 35A and/or 35B may be referred to as point symmetric filters.
  • using a filter such as the example of FIGS. 35A and/or 35B may reduce computational complexity of an encoder/decoder compared to using a filter such as the example of FIG. 33.
  • the number of filter coefficients to be entropy encoding/decoding may be reduced rather than the number of 9x9 rhombus filter coefficients as in the example of FIG. 33
  • the number of multiplications per sample required for filtering the 9x9 rhombus filter coefficients as in the example of FIG. 33 may be reduced. It is possible to reduce the computational complexity of the encoder/decoder.
  • the number of lines in the line buffer is greater than the number of lines in the line buffer required for filtering the 9x9 rhombus filter coefficients as in the example of FIG. 33 It is possible to reduce the implementation complexity, memory requirements, and memory access bandwidth of the encoder/decoder.
  • a filter including at least one of a horizontal/vertical symmetric filter type as shown in FIG. 36 may be used for filtering.
  • a diagonal symmetric filter can be used in addition to the point symmetric and horizontal/vertical symmetric filters.
  • a number in each filter type may represent a filter coefficient index.
  • filtering may be performed after configuring a filter set using at least one of filters having a vertical filter length of 5 in FIG. 36.
  • filtering may be performed after configuring a filter set using at least one of filters having a vertical filter length of 3 in FIG. 36.
  • filtering may be performed after configuring a filter set using at least one of filters having a vertical filter length of 5 and 3 in FIG. 36.
  • the shape of the filter in FIG. 36 is designed based on the vertical filter length of 3 or 5, but is not limited thereto, and may be designed and used for filtering when the vertical filter length is M.
  • M is a positive integer.
  • a filter index is calculated in the unit of picture/tile/tile group/slice/sequence.
  • Entropy encoding/decoding can be performed.
  • H is a positive integer. That is, a filter index may be entropy encoded/decoded in a sequence parameter set, a picture parameter set, a slice header, slice data, tile header, and tile group header in a bitstream.
  • At least one of the rhombus, rectangle, square, trapezoid, diagonal, snowflake, shop, clover, cross, triangle, pentagonal, hexagonal, octagonal, decagonal, dodecagonal shape filter restores at least one of a luminance component and a color difference component /Can be used for filtering decoded samples.
  • using a filter like the example of FIG. 36 can reduce computational complexity of an encoder/decoder compared to using a filter like the example of FIG. 33.
  • the number of filter coefficients to be entropy encoding/decoding may be reduced rather than the number of 9x9 rhombus-shaped filter coefficients as in the example of FIG. 33, and the encoder/decoding It is possible to reduce the computational complexity of Qi.
  • the number of multiplications may be reduced than the number of multiplications per sample required for filtering the 9x9 rhombus filter coefficients as in the example of FIG. 33, and the encoder/decoder Can reduce the computational complexity of
  • the number of lines in the line buffer may be reduced than the number of lines in the line buffer required for filtering the 9x9 rhombus filter coefficients as in the example of FIG. Encoder/decoder implementation complexity, memory requirements, and memory access bandwidth can be reduced.
  • the sums of slope values calculated in the block classification unit ie, vertical, horizontal, first diagonal, second diagonal directions
  • a geometric transformation may be performed on the filter coefficient f(k, l) according to at least one of the sum of gradient values g v , g h , g d1 , and g d2 .
  • the geometric transformation of the filter coefficient is performed by rotating the filter by 90 degrees, rotating 180 degrees, rotating 270 degrees, flipping in the second diagonal direction, flipping in the first diagonal direction, flipping in the vertical direction, horizontal direction It may mean computing a geometrically transformed filter by performing at least one of flipping, vertical and horizontal flipping, and zoom in/out.
  • performing geometric transformation on the filter coefficients and then filtering the reconstructed/decoded samples using the geometrically transformed filter coefficients after performing geometric transformation on at least one of the reconstructed/decoded samples to which the filter is applied It may be the same as filtering the reconstructed/decoded samples using filter coefficients.
  • the geometric transformation may be performed as in the example of Equations 33 to 35.
  • Equation 33 is an example of a second diagonal flipping
  • Equation 34 is vertical flipping
  • Equation 35 is a 90-degree rotation
  • K is the number of filter taps (filter length) in the horizontal and vertical directions
  • 0 ⁇ k and l ⁇ K-1 may indicate coordinates of filter coefficients.
  • (0, 0) may refer to an upper left corner
  • (K-1, K-1) may refer to a lower right corner.
  • Table 1 shows an example of the type of geometric transformation applied to the filter coefficient f(k, l) according to the sum of slope values.
  • FIG. 37 is a diagram illustrating a filter obtained by performing geometric transformation on a square, octagon, snowflake, and rhombus type filter according to an embodiment of the present invention.
  • At least one of a second diagonal flipping, a vertical flipping, and a 90 degree rotation may be performed on filter coefficients in the form of a square, an octagon, a snowflake, and a rhombus.
  • the filter coefficient obtained by the geometric transformation may be used for filtering.
  • performing geometric transformation on the filter coefficients and then filtering the reconstructed/decoded samples using the geometrically transformed filter coefficients after performing geometric transformation on at least one of the reconstructed/decoded samples to which the filter is applied It may be the same as filtering the reconstructed/decoded samples using filter coefficients.
  • a restoration/decryption sample The decoded sample filtered by performing the filtering on Can be created.
  • the filtered decoded sample may be expressed as an example of Equation 36.
  • Equation 36 L is the number of filter taps (filter length) in the horizontal or vertical direction, Is the filter coefficient.
  • the offset Y value may be entropy encoded/decoded.
  • the offset Y value may be calculated by using at least one statistical value among values of a current reconstructed/decoded sample value and a value of neighboring reconstructed/decoded samples.
  • the offset Y value may be determined based on at least one encoding parameter of a current reconstructed/decoded sample and a neighboring reconstructed/decoded sample.
  • Y is an integer including 0.
  • cutting may be performed so that the filtered decoded sample is expressed within N bits.
  • N is a positive integer.
  • the final decoded sample value may have a value between 0 and 1023.
  • filtering may be performed based on filtering information of a luminance component.
  • filtering of a reconstructed image of a color difference component may be performed only when filtering of a reconstructed image of a luminance component is performed.
  • the reconstructed image filtering of the color difference component may be performed on at least one of the U(Cr) and V(Cb) components.
  • filtering may be performed using at least one of a filter coefficient of a corresponding luminance component, the number of filter taps, a filter type, and information on whether to perform filtering.
  • the filtering when the filtering is performed, when an unavailable sample exists around a current sample, the filtering may be performed using the padded sample after performing padding.
  • the padding may refer to a method of copying an available sample value that is adjacent to the unavailable sample to the unavailable sample value. Alternatively, a sample value or a statistical value obtained based on an available sample value and adjacent to the unavailable sample may be used.
  • the padding may be performed repeatedly as many as P columns and R rows.
  • P and R may be positive integers.
  • the sample that is not available may mean a sample that exists outside the CTU, CTB, slice, tile, tile group, or picture boundary.
  • the unavailable sample means a sample belonging to at least one of CTU, CTB, slice, tile, tile group, and picture different from at least one of the CTU, CTB, slice, tile, tile group, and picture to which the current sample belongs. I can.
  • a padding method for a sample located outside a picture boundary may be different from a padding method for a sample located outside a predetermined area within a picture boundary but to which adaptive intra-loop filtering is applied.
  • a value of a sample located outside the picture boundary may be determined by copying a value of an available sample located at the picture boundary.
  • a padding value of an unavailable sample may be determined by mirroring the values of available samples based on the picture boundary.
  • padding for samples located outside a picture boundary may be performed only in a horizontal direction and not in a vertical direction. Conversely, padding for samples located outside the picture boundary may be performed only in the vertical direction and not in the horizontal direction.
  • a predetermined sample may not be used.
  • padded samples may not be used.
  • the samples that are not available may not be used for filtering.
  • a sample existing around a current sample when a sample existing around a current sample is located outside a CTU or CTB boundary, a sample existing around the current sample may not be used for filtering.
  • a sample to which at least one of deblocking filtering, adaptive sample offset, and adaptive intra-loop filtering is applied may be used.
  • At least one of deblocking filtering, adaptive sample offset, and adaptive intra-loop filtering may not be applied.
  • the sample used for filtering includes a sample that is not available because it is located outside the CTU or CTB boundary, etc.
  • at least one of deblocking filtering, adaptive sample offset, and adaptive in-loop filtering is applied to the corresponding non-available sample. It can be used for filtering without.
  • filtering when performing the filtering, filtering is performed on at least one of samples existing around at least one boundary among CU, PU, TU, block, block classification unit, CTU, and CTB.
  • the boundary may include at least one of a vertical boundary, a horizontal boundary, and a diagonal boundary.
  • samples existing around the boundary may be at least one of U rows, U columns, and U samples based on the boundary.
  • U may be a positive integer.
  • the boundary may include at least one of a vertical boundary, a horizontal boundary, and a diagonal boundary.
  • samples existing around the boundary may be at least one of U rows, U columns, and U samples based on the boundary.
  • U may be a positive integer.
  • whether to perform the filtering may be determined based on at least one encoding parameter of a current block and a neighboring block.
  • the encoding parameter is a prediction mode (whether inter prediction or intra prediction), intra prediction mode, inter prediction mode, inter prediction indicator, motion vector, reference image index, quantization parameter, current block size, current It may include at least one of a block type, a size of a block classification unit, and a coding block flag/pattern.
  • At least one of a filter coefficient, the number of filter taps (filter length), a filter type, and a filter type may be determined based on at least one encoding parameter of a current block and a neighboring block. At least one of a filter coefficient, a number of filter taps (filter length), a filter type, and a filter type may differ from each other according to at least one of the encoding parameters.
  • the number of filters used in the filtering may be determined according to a quantization parameter. For example, if the quantization parameter is less than the threshold T, J filters can be used for filtering, if the quantization parameter is greater than the threshold R, then H filters can be used, otherwise, G filters Can be used for filtering.
  • T, R, J, H, and G are positive integers including 0. Further, J can be greater than or equal to H.
  • a smaller number of filters can be used.
  • the number of filters used in the filtering may be determined according to the size of the current block. For example, if the size of the current block is less than the threshold T, J filters can be used, if the size of the current block is greater than the threshold R, H filters can be used, otherwise, G filters can be used. I can. Here, T, R, J, H, and G are positive integers including 0. Further, J can be greater than or equal to H. Here, as the size of the block is relatively large, a smaller number of filters can be used.
  • the number of filters used in the filtering may be determined according to the size of a block classification unit. For example, if the size of the block classification unit is less than the threshold T, J filters can be used, if the size of the block classification unit is greater than the threshold R, H filters can be used, otherwise, G filters You can use Here, T, R, J, H, and G are positive integers including 0. Further, J can be greater than or equal to H. Here, as the size of the block classification unit is relatively large, a smaller number of filters may be used.
  • filtering may be performed using a combination of at least one or more of the filtering methods.
  • filter information may be entropy encoded/decoded between a slice header in a bitstream and a first CTU syntax element in slice data.
  • the filter information may be entropy encoded/decoded in a sequence parameter set in a bitstream, a picture parameter set, a slice header, slice data, tile header, tile group header, CTU, CTB, and the like.
  • the filter information includes information on whether to perform luminance component filtering, whether to perform color difference component filtering, filter coefficient values, number of filters, number of filter taps (filter length) information, filter type information, filter type information, slice/tile/tile group/ Picture/CTU/CTB/block/CU unit filtering information, CU unit filtering information count information, CU maximum depth filtering information, CU unit filtering information, previous reference image filter usage information, previous reference image filter index , At least one of information on whether to use a fixed filter for the block classification index, information on whether to use a fixed filter, information on whether to use a different filter for the luminance component and color difference component, and information on the symmetrical shape of the filter. May be included.
  • the number of filter taps may be at least one of the horizontal length of the filter, the vertical length of the filter, the first diagonal length of the filter, the second diagonal length of the filter, the horizontal and vertical length of the filter, and the number of filter coefficients in the filter. .
  • the filter information may include up to L luminance filters.
  • L is a positive integer and may be 25.
  • the filter information may include up to L color difference filters.
  • L is a positive integer including 0, and may be 0 to 8.
  • Information on the maximum L color difference filters may be included in a parameter set or a header.
  • the parameter set may be an adaptation parameter set.
  • the information on the maximum L color difference filters may mean information on the number of color difference ALFs, and may be encoded/decoded in the form of, for example, alf_chroma_num_alt_filters_minus1.
  • K is a positive integer and may be 13.
  • the filter information may include up to K color difference filter coefficients.
  • K is a positive integer and may be 7.
  • the information on the symmetrical shape of the filter may be information on a point symmetrical shape, a horizontally symmetrical shape, a vertically symmetrical shape, or a combination thereof.
  • filter coefficients can be signaled.
  • the filter is of a symmetrical type
  • only one set of information about the symmetrical shape of the filter and a set of symmetrical filter coefficients may be signaled.
  • filter coefficients at the center of the filter may not be signaled because they may be implicitly derived.
  • a filter coefficient value among the filter information may be quantized by an encoder, and a quantized filter coefficient value may be entropy-coded.
  • the quantized filter coefficient values may be entropy-decoded by the decoder, and the quantized filter coefficient values may be dequantized and restored to the filter coefficient values.
  • the filter coefficient values may be quantized within a range of values that can be represented by fixed M bits, and may be inverse quantized.
  • at least one of the filter coefficients may be quantized into different bits and inverse quantized.
  • at least one of the filter coefficients may be quantized with the same bit and inverse quantized.
  • the M bits may be determined according to a quantization parameter.
  • the M bits may be constant values predefined by an encoder and a decoder.
  • M may be a positive integer and may be 8 or 10.
  • the M bits may be less than or equal to the number of bits required to represent samples in the encoder/decoder. For example, if the number of bits required to represent a sample is 10, M may be 8.
  • the first filter coefficient may have a value from -2 M to 2 M -1
  • the second filter coefficient may have a value from 0 to 2 M -1.
  • the first filter coefficient may mean a filter coefficient other than the center filter coefficient among the filter coefficients
  • the second filter coefficient may mean a center filter coefficient among the filter coefficients.
  • a filter coefficient value among the filter information may be clipped by at least one of an encoder and a decoder, and at least one of a minimum value and a maximum value for cutting may be entropy encoded/decoded.
  • the filter coefficient value may be cut within a range of a minimum value and a maximum value.
  • at least one of the minimum and maximum values may have different values for each filter coefficient.
  • at least one of the minimum and maximum values may have the same value for each filter coefficient.
  • at least one of the minimum and maximum values may be determined according to a quantization parameter.
  • at least one of the minimum value and the maximum value may be a constant value predefined by an encoder and a decoder.
  • At least one of the filter information may be entropy encoded/decoded based on at least one encoding parameter of a current block and a neighboring block.
  • the encoding parameter is a prediction mode (whether inter prediction or intra prediction), intra prediction mode, inter prediction mode, inter prediction indicator, motion vector, reference image index, quantization parameter, current block size, current It may include at least one of a block type, a size of a block classification unit, and a coding block flag/pattern.
  • the number of filters among the filter information may be determined according to a quantization parameter of a picture/slice/tile group/tile and a CTU/CTB/block. Specifically, if the quantization parameter is less than the threshold value T, J filters can be entropy encoded/decoded, and when the quantization parameter is greater than the threshold value R, H filters can be entropy encoded/decoded. Entropy encoding/decoding can be performed on the G filters.
  • T, R, J, H, and G are positive integers including 0. Further, J can be greater than or equal to H.
  • the value of the quantization parameter is relatively large, a smaller number of filters may be entropy encoded/decoded.
  • information (flags) on whether to perform filtering may be used to determine whether to perform filtering on at least one of a luminance component and a color difference component.
  • whether to perform filtering on at least one of a luminance component and a color difference component may use information (flags) on whether to perform filtering in units of CTU/CTB/CU/block. For example, when the information on whether to perform filtering in units of CTB is a first value, filtering may be performed on a corresponding CTB, and when the second value is a second value, filtering may not be performed on the corresponding CTB. In this case, information on whether to perform filtering for each CTB may be entropy encoded/decoded.
  • information about the maximum depth or minimum size of the CU may be additionally entropy encoded/decoded to entropy code/decode information on whether to perform CU unit filtering only up to the corresponding maximum depth or minimum size.
  • entropy encoding/decoding may be performed only up to the depth of square block division.
  • the CU unit flag may be additionally entropy encoded/decoded to the depth of the amorphous block division.
  • information on whether to perform filtering on at least one of a luminance component and a color difference component may use a block-based flag. For example, when the flag of the block unit is a first value, filtering may be performed on a corresponding block, and when the flag is a second value, filtering may not be performed on the corresponding block.
  • the size of the block unit is NxM, and N and M may be positive integers.
  • information on whether to perform filtering on at least one of a luminance component and a color difference component may use a flag in units of CTU. For example, when the flag of the CTU unit is a first value, filtering may be performed on the corresponding CTU, and when the flag is the second value, filtering may not be performed on the corresponding CTU.
  • the size of the CTU unit is NxM, and N and M may be positive integers.
  • whether to perform filtering on at least one of a luminance component and a chrominance component may be determined according to a picture/slice/tile group/tile type, and information on whether to perform filtering on at least one of a luminance component and a chrominance component is picture/ Slice/tile group/tile unit flags can be used.
  • filter coefficients corresponding to different block classifications may be merged.
  • filter merging information on whether or not filter coefficients are merged may be entropy encoded/decoded.
  • filter coefficients of a reference image may be used as filter coefficients of a current image.
  • a method of using filter coefficients of a reference image may be referred to as temporal filter coefficient prediction.
  • the temporal filter coefficient prediction may be used for an inter prediction image (B/P-image/slice/tile group/tile).
  • the filter coefficients of the reference image may be stored in a memory.
  • entropy encoding/decoding of the filter coefficients in the current image may be omitted.
  • a previous reference image filter index for which filter coefficients of a reference image to be used may be entropy encoded/decoded.
  • a candidate list of a filter set may be constructed. Before decoding a new sequence, the candidate list of the filter set is empty, but each time one image is decoded, the filter coefficients of the corresponding image may be included in the candidate list of the filter set. If the number of filters in the candidate list of the filter set reaches the maximum number of filters G, the new filter may replace the oldest filter in decoding order. That is, the candidate list of the filter set may be updated in a first-in-first-out (FIFO) method.
  • G is a positive integer and may be 6.
  • filter coefficients of an image without using temporal filter coefficient prediction may be included in the candidate list of the filter set.
  • a candidate list of filter sets for a plurality of temporal layer indexes may be configured to support temporal scalability. That is, a filter set candidate list may be configured for each temporal layer.
  • the candidate list of the filter set for each temporal layer may include a filter set of a decoded image that is equal to or smaller than the temporal layer index of the previous decoded image.
  • the filter coefficients for the corresponding image may be included in a candidate list of a filter set having a temporal layer index equal to or greater than the temporal layer index of the corresponding image.
  • the filtering may use a fixed filter set.
  • Temporal filter coefficient prediction cannot be used for intra-prediction images (I image/slice/tile group/tile), but at least one filter among up to 16 fixed filter sets can be used for filtering according to each block classification index. have.
  • information on whether to use a fixed filter for each block classification index can be entropy encoded/decoded, and if a fixed filter is used, index information on the fixed filter is also available. Entropy encoding/decoding can be performed.
  • the filter coefficients may be entropy-encoded/decoded, and the reconstructed image may be filtered using entropy-encoded/decoded filter coefficients and fixed filter coefficients.
  • the fixed filter set may be used in the inter prediction image (B/P-image/slice/tile group/tile).
  • the adaptive in-loop filtering may be performed with a fixed filter without entropy encoding/decoding of filter coefficients.
  • the fixed filter may mean a filter set predefined by an encoder and a decoder.
  • index information on a fixed filter of which filter or which filter set is to be used among the filter sets predefined by the encoder and the decoder may be entropy encoded/decoded.
  • at least one of the block classification unit, block unit, CU unit, CTU unit, slice, tile, tile group, and picture unit at least one of a filter coefficient value, number of filter taps (filter length), and filter type is different. Filtering can be performed with a filter.
  • a filter having a different number of filter taps and a filter type may be converted.
  • a filter coefficient having a 9x9 rhombus shape may be converted into a filter coefficient having a 5x5 square shape.
  • a filter coefficient having a 9x9 rhombus shape may be converted into a filter coefficient having a 5x5 square shape.
  • the sum of filter coefficients corresponding to the filter coefficient indexes 0, 2, and 6 having a 9x9 rhombus shape may be allocated to the filter coefficient index 2 having a 5x5 square shape.
  • the sum of filter coefficients corresponding to the filter coefficient indexes 1 and 5 in the form of a 9x9 rhombus may be allocated to the filter coefficient index 1 in the form of a 5x5 square.
  • the sum of filter coefficients corresponding to the filter coefficient indexes 3 and 7 in the form of a 9x9 rhombus may be allocated to the filter coefficient index 3 in the form of a 5x5 square.
  • the filter coefficient corresponding to the 9x9 rhombus filter coefficient index 4 may be assigned to the 5x5 square filter coefficient index 0.
  • the filter coefficient corresponding to the filter coefficient index 8 in the form of a 9x9 rhombus may be assigned to the filter coefficient index 4 in the form of a 5x5 square.
  • the sum of filter coefficients corresponding to the 9x9 rhombic filter coefficient indexes 9 and 10 may be allocated to the filter coefficient index 5 of the 5x5 square shape.
  • the filter coefficient corresponding to the filter coefficient index 11 in the form of a 9x9 rhombus may be assigned to the filter coefficient index 6 in the form of a 5x5 square.
  • the filter coefficient corresponding to the filter coefficient index 12 in the form of a 9x9 rhombus may be assigned to the filter coefficient index 7 in the form of a 5x5 square.
  • a filter coefficient corresponding to the filter coefficient index 13 having a 9x9 rhombus shape may be assigned to the filter coefficient index 8 having a 5x5 square shape.
  • the sum of filter coefficients corresponding to the filter coefficient indexes 14 and 15 in the shape of a 9x9 rhombus may be allocated to the filter coefficient index 9 in the shape of a 5x5 square.
  • the sum of filter coefficients corresponding to the filter coefficient indexes 16, 17, and 18 having a 9x9 rhombus shape may be allocated to the filter coefficient index 10 having a 5x5 square shape.
  • a filter coefficient corresponding to the filter coefficient index 19 having a 9x9 rhombus shape may be assigned to the filter coefficient index 11 having a 5x5 square shape.
  • a filter coefficient corresponding to the filter coefficient index 20 having a 9x9 rhombus shape may be assigned to the filter coefficient index 12 having a 5x5 square shape.
  • Table 2 shows an example of generating filter coefficients by converting a filter coefficient of a 9x9 rhombus shape to a filter coefficient of a 5x5 square shape.
  • the sum of the filter coefficients of at least one of the 9x9 rhombus-shaped filters may be equal to the sum of the filter coefficients of at least one of the corresponding 5x5 square-shaped filters.
  • filtering may be performed on the chrominance component reconstructed/decoded sample using a filter in which the number of filter taps and/or the filter shape of the filter selected from the luminance component at the corresponding position is converted.
  • prediction of filter coefficients may be prohibited from a predefined fixed filter.
  • a multiplication operation may be replaced with a shift operation.
  • filter coefficients used to perform filtering of the luminance and/or color difference block may be divided into two groups.
  • the first group ⁇ L0, L1, L2, L3, L4, L5, L7, L8, L9, L10. It can be divided into a second group including L14, L15, L16, L17 ⁇ and the remaining coefficients.
  • the first group may be limited to have coefficient values of ⁇ -64, -32, -16, -8, -4, 0, 4, 8, 16, 32, 64 ⁇ .
  • a multiplication operation for the filter coefficients included in the first group and the reconstructed/decoded sample may be implemented as a single bit shift operation. Accordingly, the filter coefficients included in the first group may be mapped to a value in which a bit shift operation is performed before binarization in order to reduce signaling overhead.
  • a result of a luminance component at the same location may be directly reused.
  • the filter coefficient of the color difference component may reuse the filter coefficient of the luminance component, and, for example, a constant 5x5 rhombus filter type may be used.
  • a filter coefficient may be converted from a 9x9 filter type for a luminance component to a 5x5 filter type for a color difference component.
  • the outermost filter coefficient may be set to 0.
  • the filter coefficient may be the same as a filter coefficient of a color difference component. That is, the filter coefficient of the luminance component may be applied to the filter coefficient of the color difference component as it is.
  • filter coefficients outside the 5x5 rhombus filter shape may be replaced with coefficient values at the 5x5 diamond boundary.
  • FIGS. 39 to 55 are still other examples of determining the sum of the slope values according to the horizontal, vertical, first diagonal, and second diagonal directions based on a subsample.
  • filtering may be performed in units of 4x4 luminance blocks.
  • filtering may be performed using different filter coefficients in units of 4x4 luminance blocks.
  • a subsampled Laplacian operation may be performed to classify the 4x4 luminance block.
  • filter coefficients for filtering may be changed for each 4x4 luminance block.
  • each 4x4 luminance block may be classified into one of a maximum of 25 classes.
  • the classification index corresponding to the filter index of the 4x4 luminance block may be derived based on the directionality and/or the quantized activity value of the block.
  • the sum of the slope values in the vertical, horizontal, first diagonal and/or second diagonal directions is subsampled within the 8x8 block range. It can be calculated by summing the 1D Laplacian calculation results calculated at the position.
  • the sum of the slope values in the vertical, horizontal, first diagonal, and second diagonal directions based on the subsample g v , g h , g d1 , g at least one can be calculated of d2 (hereinafter referred to as "first method").
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical (vertical), horizontal (horizontal), first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective horizontal, vertical, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • a rectangle included in the thin solid line may indicate the position of each reconstructed sample, and the thick solid line may indicate a range in which the sum of 1D Laplacian operations is calculated.
  • FIGS. 40A to 40D are an example of an encoding/decoding process of block classification according to the first method.
  • FIGS. 41A to 41D are other examples illustrating a process of encoding/decoding block classification according to the first method.
  • FIGS. 42A to 42D are another example of an encoding/decoding process of block classification according to the first method.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective horizontal, vertical, first diagonal, and second diagonal directions. In addition, the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • a rectangle included in the thin solid line may indicate the position of each reconstructed sample, and the thick solid line may indicate a range in which the sum of 1D Laplacian operations is calculated.
  • the second method may mean that the 1D Laplacian operation is performed at the (x,y) position when both the coordinate x value and the coordinate y value are even numbers or both the coordinate x value and the coordinate y value are odd numbers. have. If both the coordinate x value and the coordinate y value are not even numbers, or both the coordinate x value and the coordinate y value are not odd numbers, the 1D Laplacian operation result at the (x,y) position may be assigned as 0. have. That is, it may mean that a 1D Laplacian operation is performed in a checkerboard pattern according to the coordinate x value and the coordinate y value.
  • the positions at which the 1D Laplacian operation is performed in the horizontal, vertical, first diagonal, and second diagonal directions may be the same. That is, a 1D Laplacian operation for each direction may be performed using a unified subsampled 1D Laplacian operation position regardless of a vertical, horizontal, first diagonal, or second diagonal direction.
  • FIGS. 44A to 44D are an example of an encoding/decoding process of block classification according to the second method.
  • FIGS. 45A to 45D are other examples showing a process of encoding/decoding block classification according to the second method.
  • FIGS. 46A to 46D are still other examples illustrating a process of encoding/decoding block classification according to the second method.
  • FIGS. 47A to 47D are still other examples illustrating a process of encoding/decoding block classification according to the second method.
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective horizontal, vertical, first diagonal, and second diagonal directions. In addition, the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • a rectangle included in the thin solid line may indicate the position of each reconstructed sample, and the thick solid line may indicate a range in which the sum of 1D Laplacian operations is calculated.
  • the third method may mean that a 1D Laplacian operation is performed at the (x,y) position when one of the coordinate x value and the coordinate y value is an even number and the other is an odd number. If both the coordinate x value and the coordinate y value are even numbers or both the coordinate x value and the coordinate y value are odd numbers, the 1D Laplacian operation result at the (x,y) position may be assigned as 0. That is, it may mean that a 1D Laplacian operation is performed in a checkerboard pattern according to the coordinate x value and the coordinate y value.
  • the positions at which the 1D Laplacian calculation is performed in the horizontal, vertical, first diagonal, and second diagonal directions may be the same. That is, a 1D Laplacian operation for each direction may be performed using a unified subsampled 1D Laplacian operation position regardless of a vertical, horizontal, first diagonal, or second diagonal direction.
  • FIGS. 49A to 49D are examples showing an encoding/decoding process of block classification according to the third method.
  • FIGS. 50A to 50D are other examples illustrating a process of encoding/decoding block classification according to the third method.
  • FIGS. 51A to 51D are still other examples illustrating a process of encoding/decoding block classification according to the third method.
  • the sum of the slope values in the vertical, horizontal, first diagonal, and second diagonal directions based on the subsample g v , g h , g d1 , g d2 At least one can be calculated (hereinafter referred to as “the fourth method”).
  • V, H, D1, and D2 denote the results of each 1D Laplacian operation in the vertical, horizontal, first diagonal, and second diagonal directions in a sample unit. That is, 1D Laplacian operations may be performed at positions V, H, D1, and D2 according to respective horizontal, vertical, first diagonal, and second diagonal directions.
  • the position where the 1D Laplacian operation is performed may be subsampled.
  • the block classification index C may be allocated in units of 4x4 blocks in which shades are displayed.
  • a range in which the sum of 1D Laplacian operations is calculated may be larger than the size of the block classification unit.
  • a rectangle included in the thin solid line may indicate the position of each reconstructed sample, and the thick solid line may indicate a range in which the sum of 1D Laplacian operations is calculated.
  • the fourth method may mean that the 1D Laplacian operation is performed at the (x,y) position subsampled only in the vertical direction without subsampling in the horizontal direction. That is, it may mean that the 1D Laplacian operation is performed while skipping row by row.
  • the positions at which the 1D Laplacian operation is performed in the horizontal, vertical, first diagonal, and second diagonal directions may be the same. That is, a 1D Laplacian operation for each direction may be performed using a unified subsampled 1D Laplacian operation position regardless of a vertical, horizontal, first diagonal, or second diagonal direction.
  • FIGS. 53A to 53D are an example of an encoding/decoding process of block classification according to the fourth method.
  • FIGS. 54A to 54D are another example of an encoding/decoding process of the block classification according to the fourth method.
  • FIGS. 55A to 55D are still other examples illustrating a process of encoding/decoding block classification according to the fourth method.
  • the rest of the process of deriving at least one of the directionality D value and the activity A q value quantized by using the slope value calculated through the examples of FIGS. 39 to 55 may be similar to the aforementioned intra-loop filtering process. I can.
  • the method of calculating the slope value based on the subsample is within the range in which the sum of the 1D Laplacian operation is calculated, not all samples within the range in which the sum of the 1D Laplacian operation is calculated (for example, 8x8 block) Since the 1D Laplacian operation is performed on the sample, the number of operations such as multiplication operation, shift operation, addition operation, and absolute value operation required for the block classification step can be reduced. Accordingly, it is possible to reduce the computational complexity of an encoder and a decoder.
  • V, H, D1, and D2 which are 1D Laplacian calculation results calculated at a subsampled position within an 8x8 range, are vertical, It is summed for each 4x4 luminance block to derive the respective slope values along the horizontal, first diagonal, and second diagonal directions. Therefore, in order to calculate all the slope values in the 8x8 range, 720 + 240 additions, 288 comparisons, and 144 shifts are required.
  • V, H, D1, D2, which are 1D Laplacian calculation results calculated at all positions within an 8x8 range are vertical, horizontal, first diagonal, and second diagonal directions. Are summed for each 4x4 luminance block to derive each slope value according to. Therefore, in order to calculate all of the slope values in the 8x8 range, 1586 + 240 additions, 576 comparisons, and 144 shifts are required.
  • the remaining process of deriving the activity A q value obtained by quantizing the directional D value and the activity A value using the calculated gradient value requires 8 additions, 28 comparisons, 8 multiplications, and 20 shifts.
  • the block classification method using the first to fourth methods within an 8x8 range requires 968 additions, 316 comparisons, 8 multiplications, and 164 shifts.
  • operations per sample require 15.125 additions, 4.9375 comparisons, 0.125 multiplications, and 2.5625 shifts.
  • the block classification method using the conventional intra-loop filtering method within the 8x8 range requires 1832 additions, 604 comparisons, 8 multiplications, and 164 shifts.
  • operations per sample require 28.625 additions, 9.4375 comparisons, 0.125 multiplications, and 2.5625 shifts.
  • the computational complexity for a given block size (e.g., 8x8 range) is determined by the total calculation in the block classification method using the conventional in-loop filtering method and the block classification method using the first to fourth methods.
  • the block classification method using the first to fourth methods can reduce at least 17.02% of the number of operations compared to the operation in the block classification method using the conventional intra-loop filtering method.
  • the computer-readable recording medium comprises the steps of classifying coding units into block classification units, filtering coding units classified into the block classification units using filter information on the coding units, and encoding the filter information.
  • a bitstream generated by an image encoding method including the step of performing may be stored.
  • the block classification is not limited to being performed in units of coding units, and may be performed in units such as slice, tile, tile group, picture, sequence, CTU, block, CU, PU, TU, and the like.
  • the filtering target is not limited to a coding unit, and filtering may be performed on a slice, tile, tile group, picture, sequence, CTU, block, CU, PU, TU, and the like.
  • the filter information is not limited only to the coding unit, and may mean filter information on a slice, tile, tile group, picture, sequence, CTU, block, CU, PU, TU, and the like.
  • syntax may mean the syntax element.
  • At least one of syntax elements required for adaptive in-loop filtering may be entropy encoded/decoded in at least one of a parameter set, a header, a brick, a CTU, or a CU.
  • the parameter set, header, brick, CTU, or CU is a video parameter set, a decoding parameter set, a sequence parameter set, an adaptation parameter set, Picture parameter set, picture header, sub-picture header, slice header, tile group header, tile header, brick It may be at least one of (brick), a coding tree unit (CTU), or a coding unit (CU).
  • the signaled parameter set, header, brick, CTU, or CU may be used for adaptive intra-loop filtering by using a syntax element for the adaptive intra-loop filtering.
  • the adaptive loop using the syntax element for adaptive in-loop filtering having the same syntax element value in a sequence unit I can do my filtering.
  • an adaptive loop using a syntax element for adaptive intra-loop filtering having the same syntax element value in a picture unit I can do my filtering.
  • the syntax element for the adaptive in-loop filtering is entropy-encoded/decoded in a picture header
  • the syntax element for adaptive intra-loop filtering having the same syntax element value is used in the adaptive loop. Filtering can be performed.
  • the syntax element for the adaptive in-loop filtering is entropy-encoded/decoded in the slice header
  • the syntax element for the adaptive in-loop filtering having the same syntax element value in the slice unit is used in the adaptive loop. Filtering can be performed.
  • the syntax element for adaptive intra-loop filtering when the syntax element for adaptive intra-loop filtering is entropy-encoded/decoded in the adaptation parameter set, the syntax element for adaptive intra-loop filtering has the same syntax element value in a unit referencing the same adaptation parameter set Adaptive intra-loop filtering may be performed using.
  • the adaptation parameter set may refer to a parameter set that can be shared by referring to different pictures, subpictures, slices, tile groups, tiles, or bricks.
  • information in the adaptation parameter set may be used by referring to different adaptation parameter sets in subpictures, slices, tile groups, tiles, or bricks within a picture.
  • adaptation parameter sets may refer to different adaptation parameter sets using identifiers of different adaptation parameter sets in subpictures, slices, tile groups, tiles, or bricks within a picture.
  • adaptation parameter sets may refer to different adaptation parameter sets by using identifiers of different adaptation parameter sets in a slice, a tile group, a tile, or a brick within a sub-picture.
  • adaptation parameter sets may refer to different adaptation parameter sets by using identifiers of different adaptation parameter sets in tiles or bricks within a slice.
  • adaptation parameter sets may refer to different adaptation parameter sets by using identifiers of different adaptation parameter sets in bricks within the tile.
  • the adaptation parameter set identifier may mean an identification number assigned to the adaptation parameter set.
  • Information on the adaptation parameter set identifier may be included in the parameter set or header of the sequence. And the adaptation parameter set corresponding to the adaptation parameter set identifier may be used in the corresponding sequence.
  • an adaptation parameter set identifier may be included in the parameter set or header of the picture.
  • an adaptation parameter set corresponding to a corresponding adaptation parameter set identifier may be used in the corresponding picture.
  • Information on an adaptation parameter set identifier may be included in the parameter set or header of the subpicture.
  • an adaptation parameter set corresponding to the corresponding adaptation parameter set identifier may be used in the corresponding subpicture.
  • Information on the adaptation parameter set identifier may be included in the parameter set or header of the tile.
  • the adaptation parameter set corresponding to the adaptation parameter set identifier may be used in the corresponding tile.
  • Information on an adaptation parameter set identifier may be included in the parameter set or header of the slice.
  • the adaptation parameter set corresponding to the adaptation parameter set identifier may be used in the corresponding slice.
  • Information on the adaptation parameter set identifier may be included in the parameter set or header of the brick. And the adaptation parameter set corresponding to the adaptation parameter set identifier may be used in the corresponding brick.
  • the picture may be divided into one or more tile rows and one or more tile columns.
  • the sub-picture may be divided into one or more tile rows and one or more tile columns within the picture.
  • the sub-picture is an area having a rectangular/square shape within the picture, and may include one or more CTUs.
  • at least one tile/brick/slice may be included in one sub-picture.
  • the tile is an area having a rectangular/square shape within a picture, and may include one or more CTUs. Also, a tile can be divided into one or more bricks.
  • the brick may mean one or more CTU rows in the tile.
  • a tile can be divided into one or more bricks, and each brick can have at least one or more CTU rows.
  • a brick may mean a tile that is not additionally divided.
  • the slice may include one or more tiles in a picture, and may include one or more bricks in the tile.
  • sps_alf_enabled_flag may mean information on whether adaptive intra-loop filtering is performed in units of a sequence.
  • adaptive intra-loop filtering may not be performed in a sequence unit.
  • sps_alf_enabled_flag is a first value (eg, 0)
  • adaptive intra-loop filtering may be performed in a sequence unit.
  • sps_alf_enabled_flag may be inferred as a first value (eg, 0).
  • adaptation_parameter_set_id may mean an identifier of an adaptation parameter set referenced by another syntax element. If adaptation_parameter_set_id does not exist in the bitstream, adaptation_parameter_set_id may be inferred as a first value (eg, 0).
  • aps_params_type may mean information on an adaptation parameter set type existing in an adaptation parameter set.
  • aps_params_type may mean a type of encoding information included in the adaptation parameter set. For example, when aps_params_type is a first value (eg, 0), the data/content/syntax element value in the adaptation parameter set may mean a parameter (ALF type) related to adaptive in-loop filtering. When aps_params_type is a second value (eg, 1), the data/contents/syntax element values in the adaptation parameter set may mean parameters related to color difference scaling and luminance mapping (color difference scaling and luminance mapping type).
  • the data/content/syntax element value in the adaptation parameter set may mean a parameter (quantization matrix type) related to the quantization matrix set.
  • SL may mean a scaling list which means a quantization matrix.
  • aps_params_type may be inferred as a value other than a first value (eg, 0), a second value (eg, 1), and a third value (eg, 2).
  • An adaptation parameter set identifier identical to the adaptation parameter set identifier of the previously signaled adaptation parameter set may be newly signaled for the current adaptation parameter set. Further, an adaptation parameter set having the same adaptation parameter set identifier and adaptation parameter type as the adaptation parameter set identifier and adaptation parameter type of the previously signaled adaptation parameter set may be newly signaled. In this case, the data/content/syntax element value of the previously signaled adaptation parameter set may be replaced with the data/content/syntax element value of the newly signaled adaptation parameter set.
  • the replacement process means an adaptation parameter set update process.
  • the encoder/decoder refers to the previously signaled data/contents/syntax element values of the previously signaled adaptation parameter set, and calculates adaptive in-loop filtering, chrominance scaling and luminance mapping (LMCS; luma mapping with chroma scaling), and quantization matrix. At least one of the used quantization/inverse quantization may be performed.
  • LMCS chrominance scaling and luminance mapping
  • adaptive in-loop filtering, chrominance scaling and luminance mapping (LMCS; luma mapping with chroma scaling), and quantization matrix are determined by referring to the previously signaled data/content/syntax element values of the adaptive parameter set. At least one of the used quantization/inverse quantization may be performed. From a newly signaled time point for an adaptation parameter set identifier of a previously signaled adaptation parameter set and an adaptation parameter set having the same adaptation parameter set identifier and adaptation parameter type as the adaptation parameter type, the encoder/decoder adapts the newly signaled time point. At least one of adaptive intra-loop filtering, luma mapping with chroma scaling (LMCS), and quantization/dequantization using a quantization matrix can be performed with reference to the data/content/syntax element values in the parameter set. have.
  • LMCS luma mapping with chroma scaling
  • color difference component presence information (aps_chroma_present_flag) indicating whether encoding information related to a color difference component is included in the adaptation parameter set may be included in the adaptation parameter set and encoded/decoded.
  • the adaptive parameter set includes adaptive in-loop filtering, chrominance scaling and luminance mapping, or coding information for the chrominance component of the quantization matrix. Can include. Otherwise, the adaptive parameter set may not include adaptive intra-loop filtering, chrominance scaling and luminance mapping, or coding information on chrominance components of the quantization matrix.
  • the information on the existence of the color difference component it may be determined whether or not a quantization matrix of the color difference component exists. Also, according to the color difference component presence information, it may be determined whether or not there is adaptive in-loop filter information of the color difference component. In addition, it may be determined whether color difference scaling and luminance mapping information of the color difference component exist according to the information on the existence of the color difference component.
  • the color difference component presence information may indicate that a color difference component does not exist. have. Accordingly, when the chroma format is 4:0:0, the picture header or the slice header may not include an adaptation parameter set identifier for a color difference component. That is, when the chroma format is 4:0:0, the picture header or slice header contains quantization matrix information for a color difference component, adaptive in-loop filter information, chrominance scaling and luminance mapping (LMCS, Luma Mapping with Chroma Scaling) information. May not be included.
  • LMCS chrominance scaling and luminance mapping
  • chroma_format_idc or ChromaArrayType may mean a chroma format.
  • the chroma format may mean a format of a color difference component.
  • chroma_format_idc is a first value (eg, 0)
  • a chroma format may be set to 4:0:0.
  • the current picture may be determined as monochrome without a color difference component.
  • chroma_format_idc is the second value (eg, 1)
  • the chroma format may be set to 4:2:0.
  • chroma_format_idc is a third value (eg, 2)
  • the chroma format may be set to 4:2:2.
  • chroma_format_idc is a fourth value (eg, 3)
  • the chroma format may be set to 4:4:4.
  • the information on the presence of the color difference component in the adaptation parameter set referencing the current picture or the current slice is a first value indicating that there is no encoding information about the color difference component (e.g., 0 ) Can be determined.
  • the information on the presence of the color difference component in the adaptation parameter set referencing the current picture or the current slice is a second value indicating that encoding information on the color difference component exists (e.g. 1 ) Can be determined.
  • the information on the presence of the color difference component in the adaptation parameter set referencing the current picture or the current slice is a first value indicating that quantization matrix information on the color difference component does not exist (e.g.: It can be determined as 0).
  • the presence information of the color difference component in the adaptation parameter set referencing the current picture or the current slice is a second value indicating that quantization matrix information about the color difference component exists (e.g.: 1) can be determined.
  • slice_alf_enabled_flag may mean information on whether adaptive in-loop filtering is performed on at least one of Y, Cb, and Cr components in a slice unit.
  • slice_alf_enabled_flag when slice_alf_enabled_flag is a first value (eg, 0), adaptive intra-loop filtering may not be performed on all components of Y, Cb, and Cr in a slice unit.
  • slice_alf_enabled_flag when slice_alf_enabled_flag is a second value (eg, 1), adaptive intra-loop filtering may be performed on at least one of Y, Cb, and Cr components in a slice unit.
  • slice_alf_enabled_flag may be inferred as a first value (eg, 0).
  • slice_num_alf_aps_ids_luma may be information on the number of slice luminance ALF sets, which means the number of adaptation parameter sets for adaptive in-loop filtering referenced by the slice.
  • the ALF set may mean a filter set composed of a plurality of adaptive loop filters (ALFs).
  • the luminance ALF may mean an adaptive in-loop filter for the luminance component.
  • the slice_num_alf_aps_ids_luma may have a value from 0 to N.
  • N may be a positive integer, for example, 6.
  • slice_num_alf_aps_ids_luma may be inferred as a first value (eg, 0).
  • the maximum number of adaptation parameter sets for adaptive intra-loop filtering preset in the encoder/decoder and the maximum number of adaptation parameter sets for color difference scaling and luminance mapping may be the same.
  • the maximum number of adaptation parameter sets for adaptive intra-loop filtering preset by the encoder/decoder and the maximum number of adaptation parameter sets for the quantization matrix set may be the same.
  • the maximum number of adaptation parameter sets for color difference scaling and luminance mapping preset by the encoder/decoder and the maximum number of adaptation parameter sets for the quantization matrix set may be the same.
  • the maximum number of adaptation parameter sets for adaptive intra-loop filtering preset by the encoder/decoder and the maximum number of adaptation parameter sets for color difference scaling and luminance mapping may be different from each other.
  • the maximum number of adaptation parameter sets for the quantization matrix set preset in the encoder/decoder and the maximum number of adaptation parameter sets for color difference scaling and luminance mapping may be different from each other.
  • the maximum number of adaptation parameter sets for adaptive intra-loop filtering and the maximum number of adaptation parameter sets for the quantization matrix set preset in the encoder/decoder may be different from each other.
  • the maximum number of adaptation parameter sets for adaptive in-loop filtering, the maximum number of adaptation parameter sets for chrominance scaling and luminance mapping, and the sum of the maximum number of adaptation parameter sets for the quantization matrix set can have in the encoder/decoder. It may be the maximum number of adaptation parameter sets.
  • the number of adaptive parameter sets for the adaptive intra-loop filtering may have a maximum of K in the case of intra-screen slices and a maximum of L in the case of inter-screen slices.
  • K and L may be positive integers, for example, K may be 1 and L may be 6.
  • the number of adaptation parameter sets for the color difference scaling and luminance mapping may have a maximum of K in the case of an intra-screen slice, and a maximum of L in the case of an inter-screen slice.
  • K and L may be positive integers, for example, K may be 1 and L may be 6.
  • the number of adaptation parameter sets for the quantization matrix set may have a maximum of K in the case of intra-screen slices and a maximum of L in the case of inter-screen slices.
  • K and L may be positive integers, for example, K may be 1 and L may be 6.
  • the number of adaptation parameter sets for the color difference scaling and luminance mapping may have a maximum of J regardless of a slice type.
  • J may be a positive integer of 1 to 8.
  • J may be 4.
  • the number of adaptation parameter sets for the adaptive in-loop filter may have a maximum of J regardless of the type of slice.
  • J may be a positive integer of 1 to 8.
  • J may be 8.
  • the number of adaptation parameter sets for the quantization matrix set may have a maximum of J regardless of the type of slice.
  • J may be a positive integer of 1 to 8.
  • J may be 8.
  • the adaptation parameter set identifier may have a positive integer value of N bits.
  • the N value is a positive integer greater than 1.
  • the value of N may be 5.
  • the adaptation parameter set identifier may represent one of 0 to 31. That is, a maximum of 32 adaptation parameter sets may be defined.
  • eight adaptation parameter sets may represent information on a quantization matrix.
  • the other eight adaptive parameter sets may indicate information on the adaptive in-loop filter.
  • the other four sets of adaptation parameters may indicate information on color difference scaling and luminance mapping.
  • the adaptation parameter set identifier for the quantization matrix may have a value from 0 to N.
  • N is a positive integer and may be 7.
  • the adaptive parameter set identifier for the adaptive in-loop filter may have a value from 0 to N.
  • N is a positive integer and may be 7.
  • adaptation parameter set identifier for color difference scaling and luminance mapping may have values from 0 to N.
  • N is a positive integer and may be 3.
  • the quantization matrix, the adaptive in-loop filter, the color difference scaling, and the adaptation parameter set identifier for luminance mapping may be coded as a fixed-length code according to an adaptation parameter set type.
  • the maximum number of adaptation parameter sets referenced by slices included in one picture may be one or more.
  • slices included in one picture are an adaptation parameter set for at most one quantization matrix, at most one adaptation parameter set for color difference scaling and luminance mapping, and an adaptation parameter set for at most N adaptive in-loop filters.
  • N is an integer of 2 or more.
  • N can be 8 or 9.
  • slice_alf_aps_id_luma[i] may mean a slice luminance ALF set identifier indicating an adaptation parameter set for the i-th adaptive in-loop filtering referenced by the slice.
  • slice_alf_aps_id_luma[i] may be inferred as a first value (eg, 0).
  • the temporal layer identifier of the adaptation parameter set having the same adaptation_parameter_set_id as slice_alf_aps_id_luma[i] may be less than or equal to the temporal layer identifier of the current slice.
  • adaptation_parameter_set_id may mean an adaptation parameter set identifier.
  • the set of adaptation parameters for two or more adaptive in-loop filtering may have the same data/content/syntax element values.
  • slice_alf_aps_id_luma[i] may not refer to an adaptation parameter set for adaptive intra-loop filtering for a picture including an intra-slice or a picture other than the intra-screen.
  • slice_alf_aps_id_luma[i] may refer to only an adaptation parameter set including an adaptive in-loop filter set for a luminance component.
  • slice_alf_aps_id_luma[i] may refer to an adaptation parameter set for adaptive intra-loop filtering among adaptation parameter sets referenced in a picture header or a slice header.
  • the picture header or slice header may include encoding information indicating a set of adaptation parameters for adaptive intra-loop filtering that can be applied to the picture or slice.
  • the temporal layer identifier of the adaptation parameter set having the adaptation_parameter_set_id indicated by the encoding information may be less than or equal to the temporal layer identifier of the current picture.
  • the adaptation parameter set type of the predetermined adaptation parameter set is a parameter related to adaptive in-loop filtering (ALF type), and the adaptation parameter set identifier (adaptation_parameter_set_id) is the identifier of the adaptation parameter set referenced in the current picture or picture header, alf_aps_id_luma[ i] If equal to, the temporal layer identifier of the predetermined adaptation parameter set may be less than or equal to the temporal layer identifier of the current picture.
  • ALF type adaptive in-loop filtering
  • slice_alf_chroma_idc is a first value (eg, 0)
  • adaptive intra-loop filtering may not be performed on Cb and Cr components.
  • slice_alf_chroma_idc is a second value (eg, 1)
  • adaptive intra-loop filtering may be performed on the Cb component.
  • slice_alf_chroma_idc is a third value (eg, 2)
  • adaptive intra-loop filtering may be performed on the Cr component.
  • slice_alf_chroma_idc is a fourth value (eg, 3)
  • adaptive intra-loop filtering may be performed on Cb and Cr components.
  • slice_alf_chroma_idc may be inferred as a first value (eg, 0).
  • the picture header or slice header may include encoding information indicating whether adaptive intra-loop filtering is performed on Cb and Cr components on a slice or slice included in the picture.
  • slice_alf_chroma_idc may be color difference ALF application information indicating whether the color difference component is allowed in the slice.
  • slice_alf_chroma_idc may represent only the adaptive intra-loop filtering of the Cb component of the slice is allowed.
  • slice_alf_chroma_idc may represent only the adaptive intra-loop filtering of the Cr component of the slice is allowed.
  • slice_alf_chroma_idc is not encoded/decoded/obtained, and may be inferred as a first value (eg, 0).
  • slice_alf_cb_flag indicating whether adaptive intra-loop filtering is performed on each Cb component and slice_alf_cr_flag indicating whether adaptive intra-loop filtering is performed on Cr components may be encoded/decoded/acquired.
  • slice_alf_cb_flag is a first value (eg, 0)
  • adaptive intra-loop filtering may not be performed on the Cb component.
  • slice_alf_cb_flag is a second value (eg, 1)
  • adaptive intra-loop filtering may be performed on the Cb component.
  • slice_alf_cr_flag When slice_alf_cr_flag is a first value (eg, 0), adaptive intra-loop filtering may not be performed on the Cr component. In addition, when slice_alf_cr_flag is a second value (eg, 1), adaptive intra-loop filtering may be performed on the Cr component. When slice_alf_cb_flag and slice_alf_cr_flag do not exist in the bitstream, slice_alf_cb_flag and slice_alf_cr_flag may be inferred as a first value (eg, 0), respectively.
  • a first value eg, 0
  • the picture header or the slice header may include encoding information indicating whether adaptive intra-loop filtering is performed on a Cb component on a slice or slice included in the picture.
  • slice_alf_cb_flag may be encoded/decoded/obtained.
  • slice_alf_cb_flag whether to allow filtering of the Cb component in a picture or slice may be determined.
  • slice_alf_cb_flag is not encoded/decoded/obtained, and slice_alf_cb_flag may be inferred as a first value (e.g., 0). .
  • the picture header or slice header may include encoding information indicating whether adaptive intra-loop filtering is performed on a Cr component on a slice or slice included in the picture.
  • slice_alf_cr_flag may be encoded/decoded/obtained.
  • slice_alf_cr_flag it may be determined whether to allow filtering of the Cr component in a picture or slice.
  • slice_alf_cr_flag is not encoded/decoded/obtained, and slice_alf_cr_flag may be inferred as a first value (eg, 0). .
  • the slice_alf_cb_flag and slice_alf_cr_flag are examples of information on whether adaptive intra-loop filtering is performed on a color difference component signaled in a slice, and when information on whether adaptive intra-loop filtering is performed on a color difference component in a picture is signaled,
  • the slice_alf_cb_flag and slice_alf_cr_flag may be changed and used in the form of ph_alf_cb_flag and ph_alf_cr_flag.
  • slice_alf_aps_id_chroma may mean an identifier of an adaptation parameter set referenced by a color difference component of a slice. That is, slice_alf_aps_id_chroma may mean a slice color difference ALF set identifier indicating an adaptation parameter set for adaptive in-loop filtering referenced by a slice.
  • the slice_alf_aps_id_chroma may be encoded/decoded when at least one of slice_alf_cb_flag and slice_alf_cr_flag is a second value (eg, 1).
  • slice_alf_aps_id_chroma may be inferred as a first value (eg, 0).
  • the temporal layer identifier of the adaptation parameter set having the same adaptation_parameter_set_id as slice_alf_aps_id_chroma may be less than or equal to the temporal layer identifier of the current slice.
  • slice_alf_aps_id_chroma or slice_alf_aps_id_chroma[i] may not refer to an adaptive parameter set for adaptive intra-loop filtering for a picture including an intra-slice or a picture other than an intra-picture.
  • slice_alf_aps_id_chroma[i] may refer to only an adaptation parameter set including an adaptive in-loop filter set for a color difference component.
  • slice_alf_aps_id_chroma[ i] can be used instead of slice_alf_aps_id_chroma. That is, when adaptive intra-loop filtering on a color difference component, one of the two or more adaptation parameter sets including adaptive intra-loop filter information may be selected.
  • the adaptive in-loop filter information (slice_alf_aps_id_chroma[i]) of the corresponding adaptive parameter set may be used for adaptive intra-loop filtering on the color difference component.
  • slice_alf_aps_id_chroma[i] may mean an identifier of an adaptation parameter set for filtering in the i-th adaptive loop referenced by the slice. That is, slice_alf_aps_id_chroma[i] may mean a slice color difference ALF set identifier indicating an adaptation parameter set for the i-th adaptive in-loop filtering referenced in the slice.
  • slice_alf_aps_id_chroma[i] may be inferred as a first value (eg, 0).
  • the temporal layer identifier of the adaptation parameter set having the same adaptation_parameter_set_id as slice_alf_aps_id_chroma[i] may be less than or equal to the temporal layer identifier of the current slice.
  • the set of adaptation parameters for two or more adaptive in-loop filtering may have the same data/content/syntax element values.
  • slice_alf_aps_id_chroma[i] may not refer to an adaptive parameter set for adaptive intra-loop filtering for a picture including an intra-slice or a picture other than an intra-screen picture.
  • the adaptation parameter set type of the predetermined adaptation parameter set is a parameter related to adaptive in-loop filtering (ALF type), and the adaptation parameter set identifier (adaptation_parameter_set_id) is alf_aps_id_chroma or alf_aps_id_chroma[, which is the identifier of the adaptation parameter set referenced in the current picture or picture header. If it is equal to i ], the temporal layer identifier of the predetermined adaptation parameter set may be less than or equal to the temporal layer identifier of the current picture.
  • ALF type adaptive in-loop filtering
  • alf_luma_filter_signal_flag may mean a luminance ALF signaling flag indicating whether the adaptive in-loop filter set for the luminance component is included in the adaptation parameter set. Also, alf_luma_filter_signal_flag may mean a luminance ALF signaling flag indicating whether the adaptive in-loop filter set for luminance components is encoded/decoded.
  • alf_luma_filter_signal_flag is a first value (eg, 0)
  • an adaptive in-loop filter set for a luminance component may not be entropy encoded/decoded.
  • alf_luma_filter_signal_flag is a second value (eg, 1)
  • an adaptive in-loop filter set for a luminance component may be entropy-encoded/decoded.
  • alf_luma_filter_signal_flag When alf_luma_filter_signal_flag does not exist in the bitstream, alf_luma_filter_signal_flag may be inferred as a first value (eg, 0).
  • alf_luma_filter_signal_flag is not included in the adaptive in-loop filter data.
  • alf_luma_filter_signal_flag may be included in filter data in the adaptive loop. That is, alf_luma_filter_signal_flag may be encoded/decoded in the adaptive in-loop filter data.
  • the adaptation parameter set type of the predetermined adaptation parameter set is a parameter related to adaptive in-loop filtering (ALF type) and the adaptation parameter set identifier (adaptation_parameter_set_id) is the same as slice_alf_aps_id_luma[i]
  • the luminance ALF signaling flag (alf_luma_filter_signal_flag) is second It can be determined by a value (eg 1).
  • adaptive in-loop filter information for the luminance component is signaled, so luminance ALF signaling
  • the flag (alf_luma_filter_signal_flag) may have a second value (eg, 1).
  • the alf_chroma_filter_signal_flag may mean a color difference ALF signaling flag indicating whether the adaptive in-loop filter set for the color difference component is included in the adaptation parameter set. Also, alf_chroma_filter_signal_flag may mean a color difference ALF signaling flag indicating whether a filter set in an adaptive loop for a color difference component is encoded/decoded.
  • alf_chroma_filter_signal_flag is a first value (eg, 0)
  • the adaptive in-loop filter set for a color difference component may not be entropy-encoded/decoded.
  • alf_chroma_filter_signal_flag is a second value (eg, 1)
  • An adaptive in-loop filter set for a color difference component may be entropy coded/decoded.
  • alf_chroma_filter_signal_flag may be inferred as a first value (eg, 0).
  • the adaptation parameter set type of the predetermined adaptation parameter set is a parameter related to adaptive in-loop filtering (ALF type) and the adaptation parameter set identifier (adaptation_parameter_set_id) is the same as slice_alf_aps_id_chroma or slice_alf_aps_id_chroma[i]
  • the color difference ALF signaling flag (alf_chroma_filter_signal_flag) is It can be determined as a second value (for example, 1).
  • adaptive in-loop filter information for the color difference component is signaled, so color difference ALF signaling
  • the flag (alf_chroma_filter_signal_flag) may have a second value (eg, 1).
  • NumAlfFilters which is a maximum value of the number of different adaptive in-loop filters included in the adaptive in-loop filter set, may be N.
  • N may be a positive integer, for example, 25.
  • alf_luma_clip_flag may be a luminance cutting flag indicating whether linear adaptive intra-loop filtering or non-linear adaptive intra-loop filtering is performed on the luminance component.
  • alf_luma_clip_flag when alf_luma_clip_flag is a first value (eg, 0), linear adaptive intra-loop filtering may be performed on the luminance component.
  • alf_luma_clip_flag when alf_luma_clip_flag is a second value (eg, 1), nonlinear adaptive intra-loop filtering may be performed on the luminance component.
  • alf_luma_clip_flag may be inferred as a first value (eg, 0).
  • alf_luma_num_filters_signalled_minus1 may mean information on the number of luminance signaling ALFs indicating the number of signaled luminance ALFs.
  • a value of +1 to alf_luma_num_filters_signalled_minus1 may indicate the number of luminance signaling ALFs.
  • the alf_luma_num_filters_signalled_minus1 may have a value ranging from 0 to NumAlfFilters-N.
  • N may be a positive integer, for example, 1.
  • alf_luma_num_filters_signalled_minus1 may be inferred as a value of 0.
  • alf_luma_coeff_delta_idx[filtIdx] may indicate the index of the luminance signaling adaptive in-loop filter referenced by the luminance adaptive in-loop filter corresponding to filtIdx.
  • alf_luma_coeff_delta_idx[filtIdx] may mean a luminance ALF delta index.
  • the luminance ALF delta index may mean a filter coefficient difference index for a luminance component.
  • the filtIdx may have a value from 0 to NumAlfFilters-N.
  • N may be a positive integer, for example, 1.
  • alf_luma_coeff_delta_idx[filtIdx] may be inferred as a value of 0.
  • alf_luma_use_fixed_filter_flag may mean whether a fixed filter is used when signaling filter coefficients in an adaptive loop.
  • alf_luma_use_fixed_filter_flag when alf_luma_use_fixed_filter_flag is a first value (eg, 0), a fixed filter may not be used when signaling an adaptive in-loop filter coefficient.
  • alf_luma_use_fixed_filter_flag when alf_luma_use_fixed_filter_flag is a second value (eg, 1), a fixed filter may be used when signaling an adaptive in-loop filter coefficient.
  • alf_luma_use_fixed_filter_flag may be inferred as a first value (eg, 0).
  • alf_luma_fixed_filter_set_idx may mean a fixed filter set index.
  • the alf_luma_fixed_filter_set_idx may have a value from 0 to N.
  • N may be a positive integer, for example, 15.
  • alf_luma_fixed_filter_set_idx When alf_luma_fixed_filter_set_idx does not exist in the bitstream, alf_luma_fixed_filter_set_idx may be inferred as a value of 0.
  • alf_luma_fixed_filter_pred_present_flag may mean whether alf_luma_fixed_filter_pred_flag[i] is present in the bitstream.
  • alf_luma_fixed_filter_pred_present_flag is a first value (eg, 0)
  • alf_luma_fixed_filter_pred_flag[ i] may not exist in the bitstream.
  • alf_luma_fixed_filter_pred_present_flag is a second value (eg, 1)
  • alf_luma_fixed_filter_pred_flag[ i] may exist in the bitstream.
  • alf_luma_fixed_filter_pred_present_flag may mean whether the entire filter coefficient class (type) in the adaptive loop for the luminance component is predicted and signaled from a fixed filter. For example, when alf_luma_fixed_filter_pred_present_flag is a first value (eg, 0), the entire filter coefficient class (type) in the adaptive loop for the luminance component may not be predicted from a fixed filter and signaled. When alf_luma_fixed_filter_pred_present_flag is a second value (eg, 1), at least one of filter coefficient classes (types) in the adaptive loop for the luminance component may be predicted and signaled from a fixed filter.
  • alf_luma_fixed_filter_pred_present_flag is a second value (eg, 1), at least one of filter coefficient classes (types) in the adaptive loop for the luminance component may be predicted and signaled from a fixed filter.
  • alf_luma_fixed_filter_pred_present_flag may be inferred as a first value (eg, 0).
  • alf_luma_fixed_filter_pred_flag[i] may mean whether a filter coefficient class (type) in the i-th adaptive loop is predicted and signaled from a fixed filter.
  • alf_luma_fixed_filter_pred_flag[i] is a first value (eg, 0)
  • a filter coefficient class (type) in the i-th adaptive loop may not be predicted from a fixed filter.
  • alf_luma_fixed_filter_pred_flag[i] is a second value (eg, 1)
  • a filter coefficient class (type) in the i-th adaptive loop may be predicted from a fixed filter.
  • alf_luma_fixed_filter_pred_flag[ i] may be inferred as a second value (eg, 1).
  • the adaptive in-loop filter data syntax may not include information about a fixed filter (alf_luma_use_fixed_filter_flag, alf_luma_fixed_filter_set_idx, alf_luma_fixed_filter_pred_present_flag, alf_luma_fixed_filter_pred_flag). Therefore, information on a fixed filter may not be signaled. Therefore, a fixed filter preset in the encoder/decoder can be used for adaptive intra-loop filtering. Also, a filter coefficient may be predicted from a fixed filter and thus may not be signaled. Only a fixed filter preset in the encoder/decoder is used for adaptive intra-loop filtering, and filter coefficients predicted from the fixed filter may not be used for adaptive intra-loop filtering.
  • alf_luma_coeff_delta_flag may mean whether alf_luma_coeff_delta_prediction_flag is not signaled.
  • alf_luma_coeff_delta_flag when alf_luma_coeff_delta_flag is a first value (eg, 0), alf_luma_coeff_delta_prediction_flag may be signaled, and when alf_luma_coeff_delta_flag is a second value (eg, 1), alf_luma_coeff_delta_flag may not be signaled.
  • alf_luma_coeff_delta_flag when alf_luma_coeff_delta_flag is a first value (eg, 0), alf_luma_coeff_delta_prediction_flag may be signaled, and when alf_luma_coeff_delta_flag is a second value (eg, 1), alf_luma_coeff_delta_flag may not be signaled.
  • alf_luma_coeff_delta_flag may be inferred as a second value (eg, 1).
  • alf_luma_coeff_delta_prediction_flag may mean whether an adaptive in-loop filter coefficient for a signaled luminance component is predicted from an adaptive in-loop filter coefficient for a previously signaled luminance component.
  • alf_luma_coeff_delta_prediction_flag is a first value (for example, 0)
  • the adaptive in-loop filter coefficient for the signaled luminance component may not be predicted from the adaptive in-loop filter coefficient for the previously signaled luminance component.
  • alf_luma_coeff_delta_prediction_flag is a second value (eg, 1)
  • an adaptive in-loop filter coefficient for a signaled luminance component may be predicted from an adaptive in-loop filter coefficient for a previously signaled luminance component.
  • alf_luma_coeff_delta_prediction_flag may be inferred as a first value (eg, 0).
  • a value of +1 to alf_luma_min_eg_order_minus1 may mean the minimum order of an exponential Golomb code used when signaling an adaptive in-loop filter coefficient for a luminance component.
  • the alf_luma_min_eg_order_minus1 may have a value from 0 to N.
  • N may be a positive integer, for example, 6.
  • alf_luma_min_eg_order_minus1 may be inferred as a value of 0.
  • alf_luma_eg_order_increase_flag[i] may mean whether the order of the exponential-Golomb code used when signaling the adaptive in-loop filter coefficient for the luminance component increases by 1.
  • alf_luma_eg_order_increase_flag[i] when alf_luma_eg_order_increase_flag[i] is a first value (eg, 0), the order of an exponential-Golomb code used when signaling an adaptive in-loop filter coefficient for a luminance component may not increase by 1.
  • alf_luma_eg_order_increase_flag[i] when alf_luma_eg_order_increase_flag[i] is a second value (eg, 1), the order of the exponential-Golomb code used when signaling the adaptive in-loop filter coefficient for the luminance component may increase by 1.
  • alf_luma_eg_order_increase_flag[ i] may be inferred as a first value (eg, 0).
  • the order expGoOrderY[ i] of the exponential-Golomb code used to entropy encoding/decoding the value of alf_luma_coeff_delta_abs[ sfIdx ][ j] can be derived as follows.
  • alf_luma_coeff_flag[ sfIdx] may mean whether an adaptive in-loop filter for a luminance component indicated by sfIdx is signaled.
  • alf_luma_coeff_flag[sfIdx] is a first value (eg, 0)
  • all adaptive in-loop filters for the luminance component indicated by sfIdx may be set to a value of 0.
  • alf_luma_coeff_flag[sfIdx] is a second value (eg, 1)
  • an adaptive in-loop filter for a luminance component indicated by sfIdx may be signaled.
  • alf_luma_coeff_flag[ sfIdx] may be inferred as a second value (eg, 1).
  • alf_luma_coeff_flag[sfIdx] may not be included in the adaptive in-loop filter data syntax. That is, alf_luma_coeff_flag[ sfIdx] may not be encoded/decoded in the adaptive in-loop filter data syntax. Accordingly, it may be determined that coefficient information of the adaptive in-loop filter is encoded/decoded/obtained without encoding/decoding/acquiring alf_luma_coeff_flag[ sfIdx ].
  • alf_luma_coeff_delta_abs[ sfIdx ][ j] may mean an absolute value of a j-th coefficient delta of an adaptive in-loop filter with respect to a luminance component indicated by sfIdx.
  • alf_luma_coeff_delta_abs[ sfIdx ][ j] can be inferred as a value of 0.
  • the order k of the exponential-Golomb sign (binarization) uek(v) can be derived as follows.
  • golombOrderIdxY[] ⁇ 0, 0, 1, 0, 0, 1, 2, 1, 0, 0, 1, 2 ⁇
  • the order k of the exponent-Golomb code uek(v) for entropy encoding/decoding/binarization of alf_luma_coeff_delta_abs[ sfIdx ][ j] may be fixed to 0. Accordingly, for entropy encoding/decoding/binarization of alf_luma_coeff_delta_abs[ sfIdx ][ j ], a zero-order exponent-Golomb code ue(v) can be applied.
  • the value of alf_luma_coeff_delta_abs[ sfIdx ][ j] is a positive integer including 0, and may have a value within the range of 0 to 128.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 개시에서, 복수의 ALF들로 구성된 ALF 세트를 포함하는 적응 파라미터 세트를 획득하는 단계, 상기 적응 파라미터 세트들 중에서, 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트를 결정하는 단계, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트로부터, 상기 현재 픽처 또는 슬라이스에 포함된 현재 CTB에 적용되는 ALF 세트를 포함하는, 상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계, 및 결정된 현재 CTB에 적용되는 적응 파라미터 세트의 ALF 세트에 기초하여, 상기 현재 부호화 트리 블록을 필터링하는 단계를 포함하고, 적응 파라미터 세트는 색차 ALF 개수 정보를 포함하고, ALF 세트는 색차 ALF 개수 정보가 나타내는 개수의 색차 ALF를 포함하는 것을 특징으로 하는 비디오 복호화 방법이 제공된다.

Description

적응적 루프내 필터링 방법 및 장치
본 발명은 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체에 관한 것이다. 구체적으로, 본 발명은 루프내 필터링을 기반으로 하는 영상 부호화/복호화 방법 및 장치에 관한 것이다.
최근 HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 응용 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 데이터량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 저장하는 경우, 전송 비용과 저장 비용이 증가하게 된다. 영상 데이터가 고해상도, 고품질화 됨에 따라 발생하는 이러한 문제들을 해결하기 위해서는 더 높은 해상도 및 화질을 갖는 영상에 대한 고효율 영상 부호화(encoding)/복호화(decoding) 기술이 요구된다.
영상 압축 기술로 현재 픽처의 이전 또는 이후 픽처로부터 현재 픽처에 포함된 화소값을 예측하는 화면 간 예측 기술, 현재 픽처 내의 화소 정보를 이용하여 현재 픽처에 포함된 화소값을 예측하는 화면내 예측 기술, 잔여 신호의 에너지를 압축하기 위한 변환 및 양자화 기술, 출현 빈도가 높은 값에 짧은 부호를 할당하고 출현 빈도가 낮은 값에 긴 부호를 할당하는 엔트로피 부호화 기술 등 다양한 기술이 존재하고 이러한 영상 압축 기술을 이용해 영상 데이터를 효과적으로 압축하여 전송 또는 저장할 수 있다.
디블록킹 필터는 블록의 경계에 대해서 세로 방향 필터링 및 가로 방향 필터링을 수행하여 블록들 사이의 경계에서 발생하는 블록킹 현상을 감소시키는데 목적이 있으나, 디블록킹 필터는 블록 경계 필터링 시에 원본 영상과 복원 영상과의 왜곡을 최소화하지는 못하는 단점이 있다.
샘플 적응적 오프셋은 링잉 현상 감소를 위해 화소 단위로 인접한 화소들과의 화소 값 비교를 통해 특정 화소에 오프셋을 더해주거나, 화소 값이 특정한 범위에 속하는 화소들에 대해서 오프셋을 더해주는 방법이며, 샘플 적응적 오프셋은 율-왜곡 최적화를 이용하여 원본 영상과 복원 영상과의 왜곡을 일부 최소화하나, 원본 영상과 복원 영상 사이에 왜곡 차이가 클 경우에는 왜곡 최소화 관점에서 한계가 존재한다.
본 발명은 적응적 루프내 필터링을 이용한 영상 부호화/복호화 방법 및 장치를 제공하는 것을 목적으로 한다.
또한, 본 발명은 본 발명의 영상 부호화/복호화 방법 또는 장치에 의해 생성된 비트스트림을 저장한 기록 매체를 제공하는 것을 목적으로 한다.
본 개시에서, 복수의 적응적 루프내 필터(ALF, Adaptive Loop Filter)들로 구성된 ALF 세트를 포함하는 적응 파라미터 세트를 획득하는 단계, 상기 적응 파라미터 세트들 중에서, 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트를 결정하는 단계, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트로부터, 상기 현재 픽처 또는 슬라이스에 포함된 현재 부호화 트리 블록(CTB, Coding Tree Block)에 적용되는 ALF 세트를 포함하는, 상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계, 및 상기 결정된 현재 CTB에 적용되는 적응 파라미터 세트의 ALF 세트에 기초하여, 상기 현재 부호화 트리 블록을 필터링하는 단계를 포함하고, 적응 파라미터 세트는 색차 ALF 개수 정보를 포함하고, 상기 ALF 세트는 상기 색차 ALF 개수 정보가 나타내는 개수의 색차 ALF를 포함하는 것을 특징으로 하는 비디오 복호화 방법이 제공된다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 휘도 성분에 대해 비선형 적응적 루프내 필터링이 수행되는지 여부를 나타내는 휘도 절삭 플래그, 및 색차 성분에 대해 비선형 적응적 루프내 필터링이 수행되는지 여부를 나타내는 색차 절삭 플래그를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 상기 휘도 절삭 플래그가 휘도 성분에 대해 비선형 적응적 루프내 필터링이 수행됨을 나타낼 때, 비선형 적응적 루프내 필터링을 위한 절삭 값을 나타내는 휘도 절삭 색인을 포함하고, 상기 색차 절삭 플래그가 색차 성분에 대해 비선형 적응적 루프내 필터링이 수행됨을 나타낼 때, 비선형 적응적 루프내 필터링을 위한 절삭 값을 나타내는 색차 절삭 색인을 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 휘도 절삭 색인 및 상기 색차 절삭 색인은 2비트의 고정 길이로 부호화된 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 휘도 절삭 색인이 나타내는 값과 현재 시퀀스의 비트 뎁스에 따라, 휘도 성분에 대한 비선형 적응적 루프내 필터링을 위한 휘도 절삭 값이 결정되고, 상기 색차 절삭 색인이 나타내는 값과 상기 현재 시퀀스의 비트 뎁스에 따라, 색차 성분에 대한 비선형 적응적 루프내 필터링을 위한 색차 절삭 값이 결정되고, 상기 휘도 절삭 색인이 나타내는 값과 상기 색차 절삭 색인이 나타내는 값이 동일할 때, 상기 휘도 절삭 값과 상기 색차 절삭 값이 동일한 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 상기 적응 파라미터 세트에 부여된 식별번호를 나타내는 적응 파라미터 세트 식별자 및 상기 적응 파라미터 세트에 포함된 부호화 정보의 타입을 나타내는 적응 파라미터 세트 타입 정보를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트를 결정하는 단계는, 상기 현재 픽처 또는 슬라이스의 휘도 ALF 세트 개수 정보를 획득하는 단계, 및 상기 휘도 ALF 세트 개수 정보가 나타내는 개수의 휘도 ALF 세트 식별자를 획득하는 단계를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트를 결정하는 단계는, 상기 현재 픽처 또는 슬라이스의 색차 ALF 적용 정보를 획득하는 단계, 및 상기 색차 ALF 적용 정보가 Cb 성분 및 Cr 성분 중 적어도 하나에 ALF가 적용됨을 나타낼 때, 색차 ALF 세트 식별자를 획득하는 단계를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 ALF 세트를 포함하는 적응 파라미터 세트를 획득하는 단계는, 상기 적응 파라미터 세트 타입 정보가 ALF 타입을 나타낼 때, ALF 세트를 포함하는 적응 파라미터 세트를 결정하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 상기 적응 파라미터 세트가 휘도 성분에 대한 ALF를 포함하는지 여부를 나타내는 휘도 ALF 시그널링 플래그 및 상기 적응 파라미터 세트가 색차 성분에 대한 ALF를 포함하는지 여부를 나타내는 색차 ALF 시그널링 플래그를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 휘도 시그널링 ALF의 개수를 나타내는 휘도 시그널링 ALF 개수 정보를 포함하고, 상기 휘도 시그널링 ALF 개수 정보가 상기 휘도 시그널링 ALF가 1개보다 많음을 나타낼 때, 휘도 ALF 세트의 소정 개수의 휘도 ALF가 참조하는 휘도 시그널링 ALF의 색인을 나타내는 휘도 ALF 델타 색인을 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 하나 이상의 휘도 시그널링 ALF를 포함하고, 상기 휘도 ALF 델타 색인에 따라, 상기 하나 이상의 휘도 시그널링 ALF로부터 상기 소정 개수의 휘도 ALF가 결정되는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 색차 ALF의 개수를 나타내는 색차 ALF 개수 정보를 포함하고, 색차 ALF 개수 정보가 나타내는 개수만큼, 색차 ALF를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계는, 상기 현재 부호화 트리 블록의 휘도 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제1 ALF 부호화 트리 블록 플래그를 획득하고, 상기 제1 ALF 부호화 트리 블록 플래그에 따라, 상기 현재 부호화 트리 블록의 휘도 샘플에 적응적 루프내 필터링이 적용되는지 여부를 결정하는 단계, 상기 현재 부호화 트리 블록의 Cb 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제2 ALF 부호화 트리 블록 플래그를 획득하고, 상기 제2 ALF 부호화 트리 블록 플래그에 따라, 상기 현재 부호화 트리 블록의 Cb 샘플에 적응적 루프내 필터링이 적용되는지 여부를 결정하는 단계, 및 상기 현재 부호화 트리 블록의 Cr 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제3 ALF 부호화 트리 블록 플래그를 획득하고, 상기 제3 ALF 부호화 트리 블록 플래그에 따라, 상기 현재 부호화 트리 블록의 Cr 샘플에 적응적 루프내 필터링이 적용되는지 여부를 결정하는 단계를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계는, 상기 현재 부호화 트리 블록의 휘도 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용되는 여부를 나타내는 적응 파라미터 세트 적용 플래그를 획득하는 단계, 상기 적응 파라미터 세트 적용 플래그가 상기 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용됨을 나타낼 때, 상기 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는 한 개 이상의 적응 파라미터 세트로부터, 상기 현재 부호화 트리 블록에 적용되는 휘도 ALF 세트를 결정하는 단계, 및 상기 적응 파라미터 세트 적용 플래그가 상기 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용되지 않음을 나타낼 때, 휘도 샘플에 대한 고정 ALF 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 고정된 필터를 결정하는 단계를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계는, 상기 현재 부호화 트리 블록의 Cb 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는 한 개 이상의 적응 파라미터 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 Cb ALF 세트를 포함하는 적응 파라미터 세트를 나타내는 제2 ALF 부호화 트리 블록 식별자를 획득하는 단계, 상기 제2 ALF 부호화 트리 블록 식별자에 따라, 상기 현재 부호화 트리 블록에 적용되는 Cb ALF 세트를 포함하는 적응 파라미터 세트를 결정하는 단계, 상기 현재 부호화 트리 블록의 Cr 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는 한 개 이상의 적응 파라미터 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 Cr ALF 세트를 포함하는 적응 파라미터 세트를 나타내는 제3 ALF 부호화 트리 블록 식별자를 획득하는 단계, 및 상기 제3 ALF 부호화 트리 블록 식별자에 따라, 상기 현재 부호화 트리 블록에 적용되는 Cr ALF 세트를 포함하는 적응 파라미터 세트를 결정하는 단계를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 현재 부호화 트리 블록을 필터링하는 단계는, 상기 현재 부호화 트리 블록의 기본 필터링 단위 블록에 대하여, 블록 분류 색인을 할당하는 단계를 더 포함하고, 상기 블록 분류 색인은 방향성 정보와 활동성 정보를 이용하여 결정되는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 방향성 정보 및 활동성 정보 중 적어도 하나는 세로, 가로, 제1 대각, 제2 대각 방향 중 적어도 하나에 대한 기울기(gradient) 값에 기반하여 결정될 수 있다.
본 개시에서, 복수의 ALF들로 구성된 ALF 세트를 포함하는 적응 파라미터 세트를 결정하는 단계, 상기 적응 파라미터 세트들 중에서, 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트를 결정하는 단계, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트로부터, 상기 현재 픽처 또는 슬라이스에 포함된 현재 CTB에 적용되는 ALF 세트를 포함하는, 상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계, 및 상기 결정된 현재 CTB에 적용되는 적응 파라미터 세트의 ALF 세트에 기초하여, 상기 현재 부호화 트리 블록을 필터링하는 단계를 포함하고, 적응 파라미터 세트는 색차 ALF 개수 정보를 포함하고, 상기 ALF 세트는 상기 색차 ALF 개수 정보가 나타내는 개수의 색차 ALF를 포함하는 것을 특징으로 하는 비디오 부호화 방법이 제공된다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 휘도 성분에 대해 비선형 적응적 루프내 필터링이 수행되는지 여부를 나타내는 휘도 절삭 플래그, 및 색차 성분에 대해 비선형 적응적 루프내 필터링이 수행되는지 여부를 나타내는 색차 절삭 플래그를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 상기 휘도 절삭 플래그가 휘도 성분에 대해 비선형 적응적 루프내 필터링이 수행됨을 나타낼 때, 비선형 적응적 루프내 필터링을 위한 절삭 값을 나타내는 휘도 절삭 색인을 포함하고, 상기 색차 절삭 플래그가 색차 성분에 대해 비선형 적응적 루프내 필터링이 수행됨을 나타낼 때, 비선형 적응적 루프내 필터링을 위한 절삭 값을 나타내는 색차 절삭 색인을 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 휘도 절삭 색인 및 상기 색차 절삭 색인은 2비트의 고정 길이로 부호화된 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 휘도 절삭 색인이 나타내는 값과 현재 시퀀스의 비트 뎁스에 따라, 휘도 성분에 대한 비선형 적응적 루프내 필터링을 위한 휘도 절삭 값이 결정되고, 상기 색차 절삭 색인이 나타내는 값과 상기 현재 시퀀스의 비트 뎁스에 따라, 색차 성분에 대한 비선형 적응적 루프내 필터링을 위한 색차 절삭 값이 결정되고, 상기 휘도 절삭 색인이 나타내는 값과 상기 색차 절삭 색인이 나타내는 값이 동일할 때, 상기 휘도 절삭 값과 상기 색차 절삭 값이 동일한 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 상기 적응 파라미터 세트에 부여된 식별번호를 나타내는 적응 파라미터 세트 식별자 및 상기 적응 파라미터 세트에 포함된 부호화 정보의 타입을 나타내는 적응 파라미터 세트 타입 정보를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트를 결정하는 단계는, 상기 현재 픽처 또는 슬라이스의 휘도 ALF 세트 개수를 결정하는 단계, 및 상기 휘도 ALF 세트 개수 정보가 나타내는 개수의 휘도 ALF 세트 식별자를 결정하는 단계를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트를 결정하는 단계는, 상기 현재 픽처 또는 슬라이스의 색차 ALF 적용 정보를 결정하는 단계, 및 상기 색차 ALF 적용 정보가 Cb 성분 및 Cr 성분 중 적어도 하나에 ALF가 적용됨을 나타낼 때, 색차 ALF 세트 식별자를 결정하는 단계를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 ALF 세트를 포함하는 적응 파라미터 세트를 결정하는 단계는, 상기 적응 파라미터 세트 타입 정보가 ALF 타입을 나타낼 때, ALF 세트를 포함하는 적응 파라미터 세트를 결정하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 상기 적응 파라미터 세트가 휘도 성분에 대한 ALF를 포함하는지 여부를 나타내는 휘도 ALF 시그널링 플래그 및 상기 적응 파라미터 세트가 색차 성분에 대한 ALF를 포함하는지 여부를 나타내는 색차 ALF 시그널링 플래그를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 휘도 시그널링 ALF의 개수를 나타내는 휘도 시그널링 ALF 개수 정보를 포함하고, 상기 휘도 시그널링 ALF 개수 정보가 상기 휘도 시그널링 ALF가 1개보다 많음을 나타낼 때, 휘도 ALF 세트의 소정 개수의 휘도 ALF가 참조하는 휘도 시그널링 ALF의 색인을 나타내는 휘도 ALF 델타 색인을 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 하나 이상의 휘도 시그널링 ALF를 포함하고, 상기 휘도 ALF 델타 색인에 따라, 상기 하나 이상의 휘도 시그널링 ALF로부터 상기 소정 개수의 휘도 ALF가 결정되는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 색차 ALF의 개수를 나타내는 색차 ALF 개수 정보를 포함하고, 색차 ALF 개수 정보가 나타내는 개수만큼, 색차 ALF를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계는, 상기 현재 부호화 트리 블록의 휘도 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제1 ALF 부호화 트리 블록 플래그가 결정되고, 상기 현재 부호화 트리 블록의 Cb 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제2 ALF 부호화 트리 블록 플래그가 결정되고, 상기 현재 부호화 트리 블록의 Cr 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제3 ALF 부호화 트리 블록 플래그가 결정되는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계는, 상기 현재 부호화 트리 블록의 휘도 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용되는 여부를 나타내는 적응 파라미터 세트 적용 플래그를 결정하는 단계, 상기 적응 파라미터 세트 적용 플래그가 상기 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용됨을 나타낼 때, 상기 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는 한 개 이상의 적응 파라미터 세트로부터, 상기 현재 부호화 트리 블록에 적용되는 휘도 ALF 세트를 결정하는 단계, 및 상기 적응 파라미터 세트 적용 플래그가 상기 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용되지 않음을 나타낼 때, 휘도 샘플에 대한 고정 ALF 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 고정된 필터를 결정하는 단계를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계는, 상기 현재 부호화 트리 블록의 Cb 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는 한 개 이상의 적응 파라미터 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 Cb ALF 세트를 포함하는 적응 파라미터 세트를 나타내는 제2 ALF 부호화 트리 블록 식별자를 결정하는 단계, 상기 제2 ALF 부호화 트리 블록 식별자에 따라, 상기 현재 부호화 트리 블록에 적용되는 Cb ALF 세트를 포함하는 적응 파라미터 세트를 결정하는 단계, 상기 현재 부호화 트리 블록의 Cr 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는 한 개 이상의 적응 파라미터 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 Cr ALF 세트를 포함하는 적응 파라미터 세트를 나타내는 제3 ALF 부호화 트리 블록 식별자를 결정하는 단계, 및 상기 제3 ALF 부호화 트리 블록 식별자에 따라, 상기 현재 부호화 트리 블록에 적용되는 Cr ALF 세트를 포함하는 적응 파라미터 세트를 결정하는 단계를 포함하는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 현재 부호화 트리 블록을 필터링하는 단계계는, 상기 현재 부호화 트리 블록의 기본 필터링 단위 블록에 대하여, 블록 분류 색인을 할당하는 단계를 더 포함하고, 상기 블록 분류 색인은 방향성 정보와 활동성 정보를 이용하여 결정되는 것을 특징으로 할 수 있다.
일 실시 예에 따르면, 상기 방향성 정보 및 활동성 정보 중 적어도 하나는 세로, 가로, 제1 대각, 제2 대각 방향 중 적어도 하나에 대한 기울기(gradient) 값에 기반하여 결정될 수 있다.
본 개시에서, 비디오 부호화 방법에 의하여 비디오를 부호화함으로써 생성된 비트스트림이 저장된 컴퓨터로 판독가능한 기록매체에 있어서, 상기 비디오 부호화 방법은, 복수의 ALF들로 구성된 ALF 세트를 포함하는 적응 파라미터 세트를 결정하는 단계, 상기 적응 파라미터 세트들 중에서, 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트를 결정하는 단계, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트로부터, 상기 현재 픽처 또는 슬라이스에 포함된 현재 CTB에 적용되는 ALF 세트를 포함하는, 상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계, 및 상기 결정된 현재 CTB에 적용되는 적응 파라미터 세트의 ALF 세트에 기초하여, 상기 현재 부호화 트리 블록을 필터링하는 단계를 포함하고, 적응 파라미터 세트는 색차 ALF 개수 정보를 포함하고, 상기 ALF 세트는 상기 색차 ALF 개수 정보가 나타내는 개수의 색차 ALF를 포함하는 것을 특징으로 하는 컴퓨터로 판독가능한 기록매체가 제공된다.
본 발명에 따르면, 루프내 필터링을 이용한 영상 부호화/복호화 방법 및 장치가 제공될 수 있다.
또한, 본 발명에 따르면, 영상 부호화기/복호화기의 계산 복잡도, 메모리 접근 대역폭을 감소시키기 위해 부표본 기반 블록 분류를 이용한 루프내 필터링 방법 및 장치가 제공될 수 있다.
또한, 본 발명에 따르면, 영상 부호화기/복호화기의 계산 복잡도, 메모리 요구량, 메모리 접근 대역폭을 감소시키기 위해 다중 필터 형태를 이용한 루프내 필터링 방법 및 장치가 제공될 수 있다.
또한, 본 발명에 따르면, 본 발명의 영상 부호화/복호화 방법 또는 장치에 의해 생성된 비트스트림을 저장한 기록 매체가 제공될 수 있다.
또한, 본 발명에 따르면, 영상의 부호화 및/또는 복호화 효율을 향상시킬 수 있다.
도 1은 본 발명이 적용되는 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 2는 본 발명이 적용되는 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 3은 영상을 부호화 및 복호화할 때의 영상의 분할 구조를 개략적으로 나타내는 도면이다.
도 4는 화면 내 예측 과정의 실시예를 설명하기 위한 도면이다.
도 5는 화면 간 예측 과정의 실시예를 설명하기 위한 도면이다.
도 6은 변환 및 양자화의 과정을 설명하기 위한 도면이다.
도 7은 화면 내 예측에 이용 가능한 참조 샘플들을 설명하기 위한 도면이다.
도 8a 및 도 8b는 본 발명의 일 실시 예에 따른 영상 복호화 방법 및 부호화 방법을 나타내는 흐름도이다.
도 9는 가로, 세로, 제1 대각, 제2 대각 방향에 따른 기울기 값을 결정하는 일 예이다.
도 10 내지 도 12는 부표본에 기반하여 가로, 세로, 제1 대각, 제2 대각 방향에 따른 기울기 값을 결정하는 일 예이다.
도 13 내지 도 18은 부표본에 기반하여 가로, 세로, 제1 대각, 제2 대각 방향에 따른 기울기 값을 결정하는 다른 예이다.
도 19 내지 도 30은 본 발명의 일 실시 예에 따른 특정 샘플 위치에서 가로, 세로, 제1 대각, 제2 대각 방향에 따른 기울기 값을 결정하는 일 예이다.
도 31은 시간적 계층 식별자가 최상위 계층인 경우에서의 가로, 세로, 제1 대각, 제2 대각 방향에 따른 기울기 값을 결정하는 일 예이다.
도 32는 본 발명의 일 실시 예에 따른 1D 라플라시안 연산을 대신하는 다양한 연산 기법을 나타내는 도면이다.
도 33은 본 발명의 일 실시 예에 따른 마름모 형태의 필터를 나타내는 도면이다.
도 34는 본 발명의 일 실시 예에 따른 필터 탭 수가 5x5인 필터를 나타내는 도면이다.
도 35a 및 도 35b는 본 발명의 일 실시 예에 따른 다양한 필터 형태를 나타내는 도면이다.
도 36은 본 발명의 일 실시 예에 따른 가로 또는 세로 대칭 필터를 나타내는 도면이다.
도 37은 본 발명의 일 실시 예에 따른 정사각형, 팔각형, 눈송이, 마름모 형태의 필터에 기하학적 변환을 수행한 필터를 나타내는 도면이다.
도 38은 본 발명의 일 실시 예에 9x9 마름모 형태의 필터 계수를 5x5 정사각형 형태의 필터 계수로 변환하는 과정을 나타내는 도면이다.
도 39 내지 도 55는 부표본에 기반하여 가로, 세로, 제1 대각, 제2 대각 방향에 따른 기울기 값의 합을 결정하는 또 다른 예이다.
도 56은 적응적 루프내 필터링에 필요한 시퀀스 파라미터 세트 신택스의 일 실시 예를 나타낸다.
도 57은 적응적 루프내 필터링에 필요한 적응 파라미터 세트 신택스의 일 실시 예를 나타낸다.
도 58은 적응 파라미터 세트의 적응 파라미터 타입의 일 실시 예를 나타낸다.
도 59은 적응적 루프내 필터링에 필요한 슬라이스 헤더 신택스의 일 실시 예를 나타낸다.
도 60a 및 도 60d는 적응적 루프내 필터링에 필요한 적응적 루프내 필터 데이터 신택스의 일 실시 예를 나타낸다.
도 61은 적응적 루프내 필터링에 필요한 부호화 트리 블록 신택스의 일 실시 예를 나타낸다.
도 62a 및 도 62b는 고정된 필터 계수의 일 실시 예를 나타낸다.
도 63은 적응적 루프내 필터 계수 클래스와 필터의 매핑 관계의 일 실시 예를 나타낸다.
도 64는 적응적 루프내 필터 데이터 신택스의 절삭 색인에 대한 일 실시 예를 나타낸다.
도 65는 도 64의 적응적 루프내 필터 데이터 신택스의 절삭 색인에 대한 자세한 설명을 나타낸다.
도 66는 적응적 루프내 필터 데이터 신택스의 절삭 색인에 대한 또 다른 일 실시 예를 나타낸다.
도 67은 도 66의 적응적 루프내 필터 데이터 신택스의 절삭 색인에 대한 자세한 설명을 나타낸다.
도 68은 적응적 루프내 필터링에 필요한 슬라이스 헤더 신택스의 또 다른 일 실시 예를 나타낸다.
도 69a 및 도 69b는 적응적 루프내 필터링에 필요한 적응적 루프내 필터 데이터 신택스의 또 다른 일 실시 예를 나타낸다.
도 70a 및 도 70b는 적응적 루프내 필터링에 필요한 부호화 트리 블록 신택스의 또 다른 일 실시 예를 나타낸다.
도 71은 도 68의 슬라이스 헤더 신택스에 대한 자세한 설명을 나타낸다.
도 72 및 73은 도 69a 및 도 69b의 적응적 루프내 필터 데이터 신택스에 대한 자세한 설명을 나타낸다.
도 74a 및 도 74b는 고정된 필터 계수의 또 다른 일 실시 예를 나타낸다.
도 75 및 76은 도 69a 및 도 69b의 적응적 루프내 필터 데이터 신택스에 대한 자세한 설명을 나타낸다.
도 77 및 도 78은 도 61의 부호화 트리 블록 신택스의 자세한 설명을 나타낸다.
도 79 내지 91은 적응적 루프내 필터 프로세스를 나타낸다.
도 92는 일 실시 예에 따른 적응적 루프내 필터를 이용한 비디오 복호화 방법을 도시한다.
도 93은 일 실시 예에 따른 적응적 루프내 필터를 이용한 비디오 부호화 방법을 도시한다.
본 개시에서, 복수의 적응적 루프내 필터(ALF, Adaptive Loop Filter)들로 구성된 ALF 세트를 포함하는 적응 파라미터 세트를 획득하는 단계, 상기 적응 파라미터 세트들 중에서, 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트를 결정하는 단계, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트로부터, 상기 현재 픽처 또는 슬라이스에 포함된 현재 부호화 트리 블록(CTB, Coding Tree Block)에 적용되는 ALF 세트를 포함하는, 상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계, 및 상기 결정된 현재 CTB에 적용되는 적응 파라미터 세트의 ALF 세트에 기초하여, 상기 현재 부호화 트리 블록을 필터링하는 단계를 포함하고, 적응 파라미터 세트는 색차 ALF 개수 정보를 포함하고, 상기 ALF 세트는 상기 색차 ALF 개수 정보가 나타내는 개수의 색차 ALF를 포함하는 것을 특징으로 하는 비디오 복호화 방법이 제공된다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다. 후술하는 예시적 실시예들에 대한 상세한 설명은, 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 실시예를 실시할 수 있기에 충분하도록 상세히 설명된다. 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 실시예의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 예시적 실시예들의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다.
본 발명에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 발명의 어떤 구성 요소가 다른 구성 요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 발명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 즉, 본 발명에서 특정 구성을 “포함”한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다.
본 발명의 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.
이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략하고, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
이하에서 영상은 동영상(video)을 구성하는 하나의 픽처(picture)를 의미할 수 있으며, 동영상 자체를 나타낼 수도 있다. 예를 들면, "영상의 부호화 및/또는 복호화"는 "동영상의 부호화 및/또는 복호화"를 의미할 수 있으며, "동영상을 구성하는 영상들 중 하나의 영상의 부호화 및/또는 복호화"를 의미할 수도 있다.
이하에서, 용어들 "동영상" 및 "비디오"는 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.
이하에서, 대상 영상은 부호화의 대상인 부호화 대상 영상 및/또는 복호화의 대상인 복호화 대상 영상일 수 있다. 또한, 대상 영상은 부호화 장치로 입력된 입력 영상일 수 있고, 복호화 장치로 입력된 입력 영상일 수 있다. 여기서, 대상 영상은 현재 영상과 동일한 의미를 가질 수 있다.
이하에서, 용어들 "영상", "픽처", "프레임(frame)" 및 "스크린(screen)"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.
이하에서, 대상 블록은 부호화의 대상인 부호화 대상 블록 및/또는 복호화의 대상인 복호화 대상 블록일 수 있다. 또한, 대상 블록은 현재 부호화 및/또는 복호화의 대상인 현재 블록일 수 있다. 예를 들면, 용어들 "대상 블록" 및 "현재 블록"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.
이하에서, 용어들 "블록" 및 "유닛"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다. 또는 "블록"은 특정한 유닛을 나타낼 수 있다.
이하에서, 용어들 "영역(region)" 및 "세그먼트(segment)"는 서로 교체되어 사용될 수 있다.
이하에서, 특정한 신호는 특정한 블록을 나타내는 신호일 수 있다. 예를 들면, 원(original) 신호는 대상 블록을 나타내는 신호일 수 있다. 예측(prediction) 신호는 예측 블록을 나타내는 신호일 수 있다. 잔여(residual) 신호는 잔여 블록(residual block)을 나타내는 신호일 수 있다.
실시예들에서, 특정된 정보, 데이터, 플래그(flag), 색인(index) 및 요소(element), 속성(attribute) 등의 각각은 값을 가질 수 있다. 정보, 데이터, 플래그, 색인 및 요소, 속성 등의 값 "0"은 논리 거짓(logical false) 또는 제1 기정의된(predefined) 값을 나타낼 수 있다. 말하자면, 값 "0", 거짓, 논리 거짓 및 제1 기정의된 값은 서로 대체되어 사용될 수 있다. 정보, 데이터, 플래그, 색인 및 요소, 속성 등의 값 "1"은 논리 참(logical true) 또는 제2 기정의된 값을 나타낼 수 있다. 말하자면, 값 "1", 참, 논리 참 및 제2 기정의된 값은 서로 대체되어 사용될 수 있다.
행, 열 또는 색인(index)을 나타내기 위해 i 또는 j 등의 변수가 사용될 때, i의 값은 0 이상의 정수일 수 있으며, 1 이상의 정수일 수도 있다. 말하자면, 실시예들에서 행, 열 및 색인 등은 0에서부터 카운트될 수 있으며, 1에서부터 카운트될 수 있다.
용어 설명
부호화기(Encoder): 부호화(Encoding)를 수행하는 장치를 의미한다. 즉, 부호화 장치를 의미할 수 있다.
복호화기(Decoder): 복호화(Decoding)를 수행하는 장치를 의미한다. 즉, 복호화 장치를 의미할 수 있다.
블록(Block): 샘플(Sample)의 MxN 배열이다. 여기서 M과 N은 양의 정수 값을 의미할 수 있으며, 블록은 흔히 2차원 형태의 샘플 배열을 의미할 수 있다. 블록은 유닛을 의미할 수 있다. 현재 블록은 부호화 시 부호화의 대상이 되는 부호화 대상 블록, 복호화 시 복호화의 대상이 되는 복호화 대상 블록을 의미할 수 있다. 또한, 현재 블록은 부호화 블록, 예측 블록, 잔여 블록, 변환 블록 중 적어도 하나일 수 있다.
샘플(Sample): 블록을 구성하는 기본 단위이다. 비트 깊이 (bit depth, Bd)에 따라 0부터 2Bd - 1까지의 값으로 표현될 수 있다. 본 발명에서 샘플은 화소 또는 픽셀과 같은 의미로 사용될 수 있다. 즉, 샘플, 화소, 픽셀은 서로 같은 의미를 가질 수 있다.
유닛(Unit): 영상 부호화 및 복호화의 단위를 의미할 수 있다. 영상의 부호화 및 복호화에 있어서, 유닛은 하나의 영상을 분할한 영역일 수 있다. 또한, 유닛은 하나의 영상을 세분화된 유닛으로 분할하여 부호화 또는 복호화 할 때 그 분할된 단위를 의미할 수 있다. 즉, 하나의 영상은 복수의 유닛들로 분할될 수 있다. 영상의 부호화 및 복호화에 있어서, 유닛 별로 기정의된 처리가 수행될 수 있다. 하나의 유닛은 유닛에 비해 더 작은 크기를 갖는 하위 유닛으로 더 분할될 수 있다. 기능에 따라서, 유닛은 블록(Block), 매크로블록(Macroblock), 부호화 트리 유닛(Coding Tree Unit), 부호화 트리 블록(Coding Tree Block), 부호화 유닛(Coding Unit), 부호화 블록(Coding Block), 예측 유닛(Prediction Unit), 예측 블록(Prediction Block), 잔여 유닛(Residual Unit), 잔여 블록(Residual Block), 변환 유닛(Transform Unit), 변환 블록(Transform Block) 등을 의미할 수 있다. 또한, 유닛은 블록과 구분하여 지칭하기 위해 휘도(Luma) 성분 블록과 그에 대응하는 색차(Chroma) 성분 블록 그리고 각 블록에 대한 구문 요소를 포함한 것을 의미할 수 있다. 유닛은 다양한 크기와 형태를 가질 수 있으며, 특히 유닛의 형태는 정사각형뿐만 아니라 직사각형, 사다리꼴, 삼각형, 오각형 등 2차원으로 표현될 수 있는 기하학적 도형을 포함할 수 있다. 또한, 유닛 정보는 부호화 유닛, 예측 유닛, 잔여 유닛, 변환 유닛 등을 가리키는 유닛의 타입, 유닛의 크기, 유닛의 깊이, 유닛의 부호화 및 복호화 순서 등 중 적어도 하나 이상을 포함할 수 있다.
부호화 트리 유닛(Coding Tree Unit): 하나의 휘도 성분(Y) 부호화 트리 블록과 관련된 두 색차 성분(Cb, Cr) 부호화 트리 블록들로 구성된다. 또한, 상기 블록들과 각 블록에 대한 구문 요소를 포함한 것을 의미할 수도 있다. 각 부호화 트리 유닛은 부호화 유닛, 예측 유닛, 변환 유닛 등의 하위 유닛을 구성하기 위하여 쿼드트리(quad tree), 이진트리(binary tree), 3분할트리(ternary tree) 등 하나 이상의 분할 방식을 이용하여 분할될 수 있다. 입력 영상의 분할처럼 영상의 복/부호화 과정에서 처리 단위가 되는 샘플 블록을 지칭하기 위한 용어로 사용될 수 있다. 여기서, 쿼드트리는 4분할트리(quarternary tree)를 의미할 수 있다.
부호화 블록의 크기가 소정의 범위 내에 속하는 경우에는 쿼드트리로만 분할이 가능할 수 있다. 여기서, 소정의 범위는 쿼드트리만으로 분할이 가능한 부호화 블록의 최대 크기 및 최소 크기 중 적어도 하나로 정의될 수 있다. 쿼드트리 형태의 분할이 허용되는 부호화 블록의 최대/최소 크기를 나타내는 정보는 비트스트림을 통해 시그널링될 수 있고, 해당 정보는 시퀀스, 픽처 파라미터, 타일 그룹, 또는 슬라이스(세그먼트) 중 적어도 하나의 단위로 시그널링될 수 있다. 또는, 부호화 블록의 최대/최소 크기는 부호화기/복호화기에 기-설정된 고정된 크기일 수도 있다. 예를 들어, 부호화 블록의 크기가 256x256 내지 64x64 에 해당하는 경우에는 쿼드트리로만 분할이 가능할 수 있다. 또는 부호화 블록의 크기가 최대 변환 블록의 크기 보다 큰 경우에는 쿼드트리로만 분할이 가능할 수 있다. 이때, 상기 분할되는 블록은 부호화 블록 또는 변환 블록 중 적어도 하나일 수 있다. 이러한 경우에 부호화 블록의 분할을 나타내는 정보(예컨대, split_flag)는 쿼드트리 분할 여부를 나타내는 플래그일 수 있다. 부호화 블록의 크기가 소정의 범위 내에 속하는 경우에는 이진트리 또는 3분할트리로만 분할이 가능할 수 있다. 이 경우, 쿼드트리에 관한 상기 설명은 이진트리 또는 3분할트리에 대해서도 동일하게 적용될 수 있다.
부호화 트리 블록(Coding Tree Block): Y 부호화 트리 블록, Cb 부호화 트리 블록, Cr 부호화 트리 블록 중 어느 하나를 지칭하기 위한 용어로 사용될 수 있다.
주변 블록(Neighbor block): 현재 블록에 인접한 블록을 의미할 수 있다. 현재 블록에 인접한 블록은 현재 블록에 경계가 맞닿은 블록 또는 현재 블록으로부터 소정의 거리 내에 위치한 블록을 의미할 수 있다. 주변 블록은 현재 블록의 꼭지점에 인접한 블록을 의미할 수 있다. 여기에서, 현재 블록의 꼭지점에 인접한 블록이란, 현재 블록에 가로로 인접한 이웃 블록에 세로로 인접한 블록 또는 현재 블록에 세로로 인접한 이웃 블록에 가로로 인접한 블록일 수 있다. 주변 블록은 복원된 주변 블록을 의미할 수도 있다.
복원된 주변 블록(Reconstructed Neighbor Block): 현재 블록 주변에 공간적(Spatial)/시간적(Temporal)으로 이미 부호화 또는 복호화된 주변 블록을 의미할 수 있다. 이때, 복원된 주변 블록은 복원된 주변 유닛을 의미할 수 있다. 복원된 공간적 주변 블록은 현재 픽처 내의 블록이면서 부호화 및/또는 복호화를 통해 이미 복원된 블록일 수 있다. 복원된 시간적 주변 블록은 참조 영상 내에서 현재 픽처의 현재 블록과 대응하는 위치의 복원된 블록 또는 그 주변 블록일 수 있다.
유닛 깊이(Depth): 유닛이 분할된 정도를 의미할 수 있다. 트리 구조(Tree Structure)에서 가장 상위 노드(Root Node)는 분할되지 않은 최초의 유닛에 대응할 수 있다. 가장 상위 노드는 루트 노드로 칭해질 수 있다. 또한, 가장 상위 노드는 최소의 깊이 값을 가질 수 있다. 이 때, 가장 상위 노드는 레벨(Level) 0의 깊이를 가질 수 있다. 레벨 1의 깊이를 갖는 노드는 최초의 유닛이 한 번 분할됨에 따라 생성된 유닛을 나타낼 수 있다. 레벨 2의 깊이를 갖는 노드는 최초의 유닛이 두 번 분할됨에 따라 생성된 유닛을 나타낼 수 있다. 레벨 n의 깊이를 갖는 노드는 최초의 유닛이 n번 분할됨에 따라 생성된 유닛을 나타낼 수 있다. 리프 노드(Leaf Node)는 가장 하위의 노드일 수 있으며, 더 분할될 수 없는 노드일 수 있다. 리프 노드의 깊이는 최대 레벨일 수 있다. 예를 들면, 최대 레벨의 기정의된 값은 3일 수 있다. 루트 노드는 깊이가 가장 얕고, 리프 노드는 깊이가 가장 깊다고 할 수 있다. 또한, 유닛을 트리 구조로 표현했을 때 유닛이 존재하는 레벨이 유닛 깊이를 의미할 수 있다.
비트스트림(Bitstream): 부호화된 영상 정보를 포함하는 비트의 열을 의미할 수 있다.
파라미터 세트(Parameter Set): 비트스트림 내의 구조 중 헤더(header) 정보에 해당한다. 비디오 파라미터 세트(video parameter set), 시퀀스 파라미터 세트(sequence parameter set), 픽처 파라미터 세트(picture parameter set), 적응 파라미터 세트(adaptation parameter set) 중 적어도 하나가 파라미터 세트에 포함될 수 있다. 또한, 파라미터 세트는 타일 그룹(tile group) 헤더, 슬라이스(slice) 헤더 및 타일(tile) 헤더 정보를 포함할 수도 있다. 또한, 상기 타일 그룹은 여러 타일을 포함하는 그룹을 의미할 수 있으며, 슬라이스와 동일한 의미일 수 있다.
파싱(Parsing): 비트스트림을 엔트로피 복호화하여 구문 요소(Syntax Element)의 값을 결정하는 것을 의미하거나, 엔트로피 복호화 자체를 의미할 수 있다.
심볼(Symbol): 부호화/복호화 대상 유닛의 구문 요소, 부호화 파라미터(coding parameter), 변환 계수(Transform Coefficient)의 값 등 중 적어도 하나를 의미할 수 있다. 또한, 심볼은 엔트로피 부호화의 대상 또는 엔트로피 복호화의 결과를 의미할 수 있다.
예측 모드(Prediction Mode): 화면 내 예측으로 부호화/복호화되는 모드 또는 화면 간 예측으로 부호화/복호화되는 모드를 지시하는 정보일 수 있다.
예측 유닛(Prediction Unit): 화면 간 예측, 화면 내 예측, 화면 간 보상, 화면 내 보상, 움직임 보상 등 예측을 수행할 때의 기본 단위를 의미할 수 있다. 하나의 예측 유닛은 더 작은 크기를 가지는 복수의 파티션(Partition) 또는 복수의 하위 예측 유닛들로 분할 될 수도 있다. 복수의 파티션들 또한 예측 또는 보상의 수행에 있어서의 기본 단위일 수 있다. 예측 유닛의 분할에 의해 생성된 파티션 또한 예측 유닛일 수 있다.
예측 유닛 파티션(Prediction Unit Partition): 예측 유닛이 분할된 형태를 의미할 수 있다.
참조 영상 리스트(Reference Picture List): 화면 간 예측 또는 움직임 보상에 사용되는 하나 이상의 참조 영상들을 포함하는 리스트를 의미할 수 있다. 참조 영상 리스트의 종류는 LC (List Combined), L0 (List 0), L1 (List 1), L2 (List 2), L3 (List 3) 등이 있을 수 있으며, 화면 간 예측에는 1개 이상의 참조 영상 리스트들이 사용될 수 있다.
화면 간 예측 지시자(Inter Prediction Indicator): 현재 블록의 화면 간 예측 방향(단방향 예측, 쌍방향 예측 등)을 의미할 수 있다. 또는, 현재 블록의 예측 블록을 생성할 때 사용되는 참조 영상의 개수를 의미할 수 있다. 또는, 현재 블록에 대해 화면 간 예측 또는 움직임 보상을 수행할 때 사용되는 예측 블록의 개수를 의미할 수 있다.
예측 리스트 활용 플래그(prediction list utilization flag): 특정 참조 영상 리스트 내 적어도 하나의 참조 영상을 이용하여 예측 블록을 생성하는지 여부를 나타낸다. 예측 리스트 활용 플래그를 이용하여 화면 간 예측 지시자를 도출할 수 있고, 반대로 화면 간 예측 지시자를 이용하여 예측 리스트 활용 플래그를 도출할 수 있다. 예를 들어, 예측 리스트 활용 플래그가 제1 값인 0을 지시하는 경우, 해당 참조 영상 리스트 내 참조 영상을 이용하여 예측 블록을 생성하지 않는 것을 나타낼 수 있고, 제2 값인 1을 지시하는 경우, 해당 참조 영상 리스트를 이용하여 예측 블록을 생성할 수 있는 것을 나타낼 수 있다.
참조 영상 색인(Reference Picture Index): 참조 영상 리스트에서 특정 참조 영상을 지시하는 색인을 의미할 수 있다.
참조 영상(Reference Picture): 화면 간 예측 또는 움직임 보상을 위해서 특정 블록이 참조하는 영상을 의미할 수 있다. 또는, 참조 영상은 화면 간 예측 또는 움직임 보상을 위해 현재 블록이 참조하는 참조 블록을 포함하는 영상일 수 있다. 이하, 용어 "참조 픽처" 및 "참조 영상"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.
움직임 벡터(Motion Vector): 화면 간 예측 또는 움직임 보상에 사용되는 2차원 벡터일 수 있다. 움직임 벡터는 부호화/복호화 대상 블록과 참조 블록 사이의 오프셋을 의미할 수 있다. 예를 들어, (mvX, mvY)는 움직임 벡터를 나타낼 수 있다. mvX는 수평(horizontal) 성분, mvY는 수직(vertical) 성분을 나타낼 수 있다.
탐색 영역(Search Range): 탐색 영역은 화면 간 예측 중 움직임 벡터에 대한 탐색이 이루어지는 2차원의 영역일 수 있다. 예를 들면, 탐색 영역의 크기는 MxN일 수 있다. M 및 N은 각각 양의 정수일 수 있다.
움직임 벡터 후보(Motion Vector Candidate): 움직임 벡터를 예측할 때 예측 후보가 되는 블록 또는 그 블록의 움직임 벡터를 의미할 수 있다. 또한, 움직임 벡터 후보는 움직임 벡터 후보 리스트에 포함될 수 있다.
움직임 벡터 후보 리스트(Motion Vector Candidate List): 하나 이상의 움직임 벡터 후보들을 이용하여 구성된 리스트를 의미할 수 있다.
움직임 벡터 후보 색인(Motion Vector Candidate Index): 움직임 벡터 후보 리스트 내의 움직임 벡터 후보를 가리키는 지시자를 의미할 수 있다. 움직임 벡터 예측기(Motion Vector Predictor)의 색인(index)일 수 있다.
움직임 정보(Motion Information): 움직임 벡터, 참조 영상 색인, 화면 간 예측 지시자 뿐만 아니라 예측 리스트 활용 플래그, 참조 영상 리스트 정보, 참조 영상, 움직임 벡터 후보, 움직임 벡터 후보 색인, 머지 후보, 머지 색인 등 중 적어도 하나를 포함하는 정보를 의미할 수 있다.
머지 후보 리스트(Merge Candidate List): 하나 이상의 머지 후보들을 이용하여 구성된 리스트를 의미할 수 있다.
머지 후보(Merge Candidate): 공간적 머지 후보, 시간적 머지 후보, 조합된 머지 후보, 조합 양예측 머지 후보, 제로 머지 후보 등을 의미할 수 있다. 머지 후보는 화면 간 예측 지시자, 각 리스트에 대한 참조 영상 색인, 움직임 벡터, 예측 리스트 활용 플래그, 화면 간 예측 지시자 등의 움직임 정보를 포함할 수 있다.
머지 색인(Merge Index): 머지 후보 리스트 내 머지 후보를 가리키는 지시자를 의미할 수 있다. 또한, 머지 색인은 공간적/시간적으로 현재 블록과 인접하게 복원된 블록들 중 머지 후보를 유도한 블록을 지시할 수 있다. 또한, 머지 색인은 머지 후보가 가지는 움직임 정보 중 적어도 하나를 지시할 수 있다.
변환 유닛(Transform Unit): 변환, 역변환, 양자화, 역양자화, 변환 계수 부호화/복호화와 같이 잔여 신호(residual signal) 부호화/복호화를 수행할 때의 기본 단위를 의미할 수 있다. 하나의 변환 유닛은 분할되어 더 작은 크기를 가지는 복수의 하위 변환 유닛들로 분할될 수 있다. 여기서, 변환/역변환은 1차 변환/역변환 및 2차 변환/역변환 중 적어도 하나 이상을 포함할 수 있다.
스케일링(Scaling): 양자화된 레벨에 인수를 곱하는 과정을 의미할 수 있다. 양자화된 레벨에 대한 스케일링의 결과로 변환 계수를 생성할 수 있다. 스케일링을 역양자화(dequantization)라고도 부를 수 있다.
양자화 매개변수(Quantization Parameter): 양자화에서 변환 계수를 이용하여 양자화된 레벨(quantized level)을 생성할 때 사용하는 값을 의미할 수 있다. 또는, 역양자화에서 양자화된 레벨을 스케일링하여 변환 계수를 생성할 때 사용하는 값을 의미할 수도 있다. 양자화 매개변수는 양자화 스텝 크기(step size)에 매핑된 값일 수 있다.
잔여 양자화 매개변수(Delta Quantization Parameter): 예측된 양자화 매개변수와 부호화/복호화 대상 유닛의 양자화 매개변수의 차분(difference) 값을 의미할 수 있다.
스캔(Scan): 유닛, 블록 또는 행렬 내 계수의 순서를 정렬하는 방법을 의미할 수 있다. 예를 들어, 2차원 배열을 1차원 배열 형태로 정렬하는 것을 스캔이라고 한다. 또는, 1차원 배열을 2차원 배열 형태로 정렬하는 것도 스캔 또는 역 스캔(Inverse Scan)이라고 부를 수 있다.
변환 계수(Transform Coefficient): 부호화기에서 변환을 수행하고 나서 생성된 계수 값을 의미할 수 있다. 또는, 복호화기에서 엔트로피 복호화 및 역양자화 중 적어도 하나를 수행하고 나서 생성된 계수 값을 의미할 수도 있다. 변환 계수 또는 잔여 신호에 양자화를 적용한 양자화된 레벨 또는 양자화된 변환 계수 레벨도 변환 계수의 의미에 포함될 수 있다.
양자화된 레벨(Quantized Level): 부호화기에서 변환 계수 또는 잔여 신호에 양자화를 수행하여 생성된 값을 의미할 수 있다. 또는, 복호화기에서 역양자화를 수행하기 전 역양자화의 대상이 되는 값을 의미할 수도 있다. 유사하게, 변환 및 양자화의 결과인 양자화된 변환 계수 레벨도 양자화된 레벨의 의미에 포함될 수 있다.
넌제로 변환 계수(Non-zero Transform Coefficient): 값의 크기가 0이 아닌 변환 계수 또는 값의 크기가 0이 아닌 변환 계수 레벨 또는 양자화된 레벨을 의미할 수 있다.
양자화 행렬(Quantization Matrix): 영상의 주관적 화질 또는 객관적 화질을 향상시키기 위해서 양자화 또는 역양자화 과정에서 이용하는 행렬을 의미할 수 있다. 양자화 행렬을 스케일링 리스트(scaling list)라고도 부를 수 있다.
양자화 행렬 계수(Quantization Matrix Coefficient): 양자화 행렬 내의 각 원소(element)를 의미할 수 있다. 양자화 행렬 계수를 행렬 계수(matrix coefficient)라고도 할 수 있다.
기본 행렬(Default Matrix): 부호화기와 복호화기에서 미리 정의되어 있는 소정의 양자화 행렬을 의미할 수 있다.
비 기본 행렬(Non-default Matrix): 부호화기와 복호화기에서 미리 정의되지 않고, 사용자에 의해서 시그널링되는 양자화 행렬을 의미할 수 있다.
통계값(statistic value): 연산 가능한 특정 값들을 가지는 변수, 부호화 파라미터, 상수 등 적어도 하나에 대한 통계값은 해당 특정 값들의 평균값, 합값, 가중평균값, 가중합값, 최소값, 최대값, 최빈값, 중간값, 보간값 중 적어도 하나 이상일 수 있다.
도 1은 본 발명이 적용되는 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
부호화 장치(100)는 인코더, 비디오 부호화 장치 또는 영상 부호화 장치일 수 있다. 비디오는 하나 이상의 영상들을 포함할 수 있다. 부호화 장치(100)는 하나 이상의 영상들을 순차적으로 부호화할 수 있다.
도 1을 참조하면, 부호화 장치(100)는 움직임 예측부(111), 움직임 보상부(112), 인트라 예측부(120), 스위치(115), 감산기(125), 변환부(130), 양자화부(140), 엔트로피 부호화부(150), 역양자화부(160), 역변환부(170), 가산기(175), 필터부(180) 및 참조 픽처 버퍼(190)를 포함할 수 있다.
부호화 장치(100)는 입력 영상에 대해 인트라 모드 및/또는 인터 모드로 부호화를 수행할 수 있다. 또한, 부호화 장치(100)는 입력 영상에 대한 부호화를 통해 부호화된 정보를 포함하는 비트스트림을 생성할 수 있고, 생성된 비트스트림을 출력할 수 있다. 생성된 비트스트림은 컴퓨터 판독가능한 기록 매체에 저장될 수 있거나, 유/무선 전송 매체를 통해 스트리밍될 수 있다. 예측 모드로 인트라 모드가 사용되는 경우 스위치(115)는 인트라로 전환될 수 있고, 예측 모드로 인터 모드가 사용되는 경우 스위치(115)는 인터로 전환될 수 있다. 여기서 인트라 모드는 화면 내 예측 모드를 의미할 수 있으며, 인터 모드는 화면 간 예측 모드를 의미할 수 있다. 부호화 장치(100)는 입력 영상의 입력 블록에 대한 예측 블록을 생성할 수 있다. 또한, 부호화 장치(100)는 예측 블록이 생성된 후, 입력 블록 및 예측 블록의 차분(residual)을 사용하여 잔여 블록을 부호화할 수 있다. 입력 영상은 현재 부호화의 대상인 현재 영상으로 칭해질 수 있다. 입력 블록은 현재 부호화의 대상인 현재 블록 또는 부호화 대상 블록으로 칭해질 수 있다.
예측 모드가 인트라 모드인 경우, 인트라 예측부(120)는 현재 블록의 주변에 이미 부호화/복호화된 블록의 샘플을 참조 샘플로서 이용할 수 있다. 인트라 예측부(120)는 참조 샘플을 이용하여 현재 블록에 대한 공간적 예측을 수행할 수 있고, 공간적 예측을 통해 입력 블록에 대한 예측 샘플들을 생성할 수 있다. 여기서 인트라 예측은 화면 내 예측을 의미할 수 있다.
예측 모드가 인터 모드인 경우, 움직임 예측부(111)는, 움직임 예측 과정에서 참조 영상으로부터 입력 블록과 가장 매치가 잘 되는 영역을 검색할 수 있고, 검색된 영역을 이용하여 움직임 벡터를 도출할 수 있다. 이때, 상기 영역으로 탐색 영역을 사용할 수 있다. 참조 영상은 참조 픽처 버퍼(190)에 저장될 수 있다. 여기서, 참조 영상에 대한 부호화/복호화가 처리되었을 때 참조 픽처 버퍼(190)에 저장될 수 있다.
움직임 보상부(112)는 움직임 벡터를 이용하는 움직임 보상을 수행함으로써 현재 블록에 대한 예측 블록을 생성할 수 있다. 여기서 인터 예측은 화면 간 예측 또는 움직임 보상을 의미할 수 있다.
상기 움직임 예측부(111)와 움직임 보상부(112)는 움직임 벡터의 값이 정수 값을 가지지 않을 경우에 참조 영상 내의 일부 영역에 대해 보간 필터(Interpolation Filter)를 적용하여 예측 블록을 생성할 수 있다. 화면 간 예측 또는 움직임 보상을 수행하기 위해 부호화 유닛을 기준으로 해당 부호화 유닛에 포함된 예측 유닛의 움직임 예측 및 움직임 보상 방법이 스킵 모드(Skip Mode), 머지 모드(Merge Mode), 향상된 움직임 벡터 예측(Advanced Motion Vector Prediction; AMVP) 모드, 현재 픽처 참조 모드 중 어떠한 방법인지 여부를 판단할 수 있고, 각 모드에 따라 화면 간 예측 또는 움직임 보상을 수행할 수 있다.
감산기(125)는 입력 블록 및 예측 블록의 차분을 사용하여 잔여 블록을 생성할 수 있다. 잔여 블록은 잔여 신호로 칭해질 수도 있다. 잔여 신호는 원 신호 및 예측 신호 간의 차이(difference)를 의미할 수 있다. 또는, 잔여 신호는 원신호 및 예측 신호 간의 차이를 변환(transform)하거나, 양자화하거나, 또는 변환 및 양자화함으로써 생성된 신호일 수 있다. 잔여 블록은 블록 단위의 잔여 신호일 수 있다.
변환부(130)는 잔여 블록에 대해 변환(transform)을 수행하여 변환 계수(transform coefficient)를 생성할 수 있고, 생성된 변환 계수를 출력할 수 있다. 여기서, 변환 계수는 잔여 블록에 대한 변환을 수행함으로써 생성된 계수 값일 수 있다. 변환 생략(transform skip) 모드가 적용되는 경우, 변환부(130)는 잔여 블록에 대한 변환을 생략할 수도 있다.
변환 계수 또는 잔여 신호에 양자화를 적용함으로써 양자화된 레벨(quantized level)이 생성될 수 있다. 이하, 실시예들에서는 양자화된 레벨도 변환 계수로 칭해질 수 있다.
양자화부(140)는 변환 계수 또는 잔여 신호를 양자화 매개변수에 따라 양자화함으로써 양자화된 레벨을 생성할 수 있고, 생성된 양자화된 레벨을 출력할 수 있다. 이때, 양자화부(140)에서는 양자화 행렬을 사용하여 변환 계수를 양자화할 수 있다.
엔트로피 부호화부(150)는, 양자화부(140)에서 산출된 값들 또는 부호화 과정에서 산출된 부호화 파라미터(Coding Parameter) 값들 등에 대하여 확률 분포에 따른 엔트로피 부호화를 수행함으로써 비트스트림(bitstream)을 생성할 수 있고, 비트스트림을 출력할 수 있다. 엔트로피 부호화부(150)는 영상의 샘플에 관한 정보 및 영상의 복호화를 위한 정보에 대한 엔트로피 부호화를 수행할 수 있다. 예를 들면, 영상의 복호화를 위한 정보는 구문 요소(syntax element) 등을 포함할 수 있다.
엔트로피 부호화가 적용되는 경우, 높은 발생 확률을 갖는 심볼(symbol)에 적은 수의 비트가 할당되고 낮은 발생 확률을 갖는 심볼에 많은 수의 비트가 할당되어 심볼이 표현됨으로써, 부호화 대상 심볼들에 대한 비트열의 크기가 감소될 수 있다. 엔트로피 부호화부(150)는 엔트로피 부호화를 위해 지수 골롬(exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 부호화 방법을 사용할 수 있다. 예를 들면, 엔트로피 부호화부(150)는 가변 길이 부호화(Variable Length Coding/Code; VLC) 테이블을 이용하여 엔트로피 부호화를 수행할 수 있다. 또한 엔트로피 부호화부(150)는 대상 심볼의 이진화(binarization) 방법 및 대상 심볼/빈(bin)의 확률 모델(probability model)을 도출한 후, 도출된 이진화 방법, 확률 모델, 문맥 모델(Context Model)을 사용하여 산술 부호화를 수행할 수도 있다.
엔트로피 부호화부(150)는 변환 계수 레벨(양자화된 레벨)을 부호화하기 위해 변환 계수 스캐닝(Transform Coefficient Scanning) 방법을 통해 2차원의 블록 형태(form) 계수를 1차원의 벡터 형태로 변경할 수 있다.
부호화 파라미터(Coding Parameter)는 구문 요소와 같이 부호화기에서 부호화되어 복호화기로 시그널링되는 정보(플래그, 색인 등)뿐만 아니라, 부호화 과정 또는 복호화 과정에서 유도되는 정보를 포함할 수 있으며, 영상을 부호화하거나 복호화할 때 필요한 정보를 의미할 수 있다. 예를 들어, 유닛/블록 크기, 유닛/블록 깊이, 유닛/블록 분할 정보, 유닛/블록 형태, 유닛/블록 분할 구조, 쿼드트리 형태의 분할 여부, 이진트리 형태의 분할 여부, 이진트리 형태의 분할 방향(가로 방향 또는 세로 방향), 이진트리 형태의 분할 형태(대칭 분할 또는 비대칭 분할), 3분할트리 형태의 분할 여부, 3분할트리 형태의 분할 방향(가로 방향 또는 세로 방향), 3분할트리 형태의 분할 형태(대칭 분할 또는 비대칭 분할), 복합형트리 형태의 분할 여부, 복합형트리 형태의 분할 방향(가로 방향 또는 세로 방향), 복합형트리 형태의 분할 형태(대칭 분할 또는 비대칭 분할), 복합형트리 형태의 분할 트리(이진트리 또는 3분할 트리), 예측 모드(화면 내 예측 또는 화면 간 예측), 화면 내 휘도 예측 모드/방향, 화면 내 색차 예측 모드/방향, 화면 내 분할 정보, 화면 간 분할 정보, 부호화 블록 분할 플래그, 예측 블록 분할 플래그, 변환 블록 분할 플래그, 참조 샘플 필터링 방법, 참조 샘플 필터 탭, 참조 샘플 필터 계수, 예측 블록 필터링 방법, 예측 블록 필터 탭, 예측 블록 필터 계수, 예측 블록 경계 필터링 방법, 예측 블록 경계 필터 탭, 예측 블록 경계 필터 계수, 화면 내 예측 모드, 화면 간 예측 모드, 움직임 정보, 움직임 벡터, 움직임 벡터 차분, 참조 영상 색인, 화면 간 예측 방향, 화면 간 예측 지시자, 예측 리스트 활용 플래그, 참조 영상 리스트, 참조 영상, 움직임 벡터 예측 색인, 움직임 벡터 예측 후보, 움직임 벡터 후보 리스트, 머지 모드 사용 여부, 머지 색인, 머지 후보, 머지 후보 리스트, 스킵(skip) 모드 사용 여부, 보간 필터 종류, 보간 필터 탭, 보간 필터 계수, 움직임 벡터 크기, 움직임 벡터 표현 정확도, 변환 종류, 변환 크기, 1차 변환 사용 여부 정보, 2차 변환 사용 여부 정보, 1차 변환 색인, 2차 변환 색인, 잔여 신호 유무 정보, 부호화 블록 패턴(Coded Block Pattern), 부호화 블록 플래그(Coded Block Flag), 양자화 매개변수, 잔여 양자화 매개변수, 양자화 행렬, 화면 내 루프 필터 적용 여부, 화면 내 루프 필터 계수, 화면 내 루프 필터 탭, 화면 내 루프 필터 모양/형태, 디블록킹 필터 적용 여부, 디블록킹 필터 계수, 디블록킹 필터 탭, 디블록킹 필터 강도, 디블록킹 필터 모양/형태, 적응적 샘플 오프셋 적용 여부, 적응적 샘플 오프셋 값, 적응적 샘플 오프셋 카테고리, 적응적 샘플 오프셋 종류, 적응적 루프내 필터 적용 여부, 적응적 루프내 필터 계수, 적응적 루프내 필터 탭, 적응적 루프내 필터 모양/형태, 이진화/역이진화 방법, 문맥 모델 결정 방법, 문맥 모델 업데이트 방법, 레귤러 모드 수행 여부, 바이패스 모드 수행 여부, 문맥 빈, 바이패스 빈, 중요 계수 플래그, 마지막 중요 계수 플래그, 계수 그룹 단위 부호화 플래그, 마지막 중요 계수 위치, 계수 값이 1보다 큰지에 대한 플래그, 계수 값이 2보다 큰지에 대한 플래그, 계수 값이 3보다 큰지에 대한 플래그, 나머지 계수 값 정보, 부호(sign) 정보, 복원된 휘도 샘플, 복원된 색차 샘플, 잔여 휘도 샘플, 잔여 색차 샘플, 휘도 변환 계수, 색차 변환 계수, 휘도 양자화된 레벨, 색차 양자화된 레벨, 변환 계수 레벨 스캐닝 방법, 복호화기 측면 움직임 벡터 탐색 영역의 크기, 복호화기 측면 움직임 벡터 탐색 영역의 형태, 복호화기 측면 움직임 벡터 탐색 횟수, CTU 크기 정보, 최소 블록 크기 정보, 최대 블록 크기 정보, 최대 블록 깊이 정보, 최소 블록 깊이 정보, 영상 디스플레이/출력 순서, 슬라이스 식별 정보, 슬라이스 타입, 슬라이스 분할 정보, 타일 그룹 식별 정보, 타일 그룹 타입, 타일 그룹 분할 정보, 타일 식별 정보, 타일 타입, 타일 분할 정보, 픽처 타입, 입력 샘플 비트 심도, 복원 샘플 비트 심도, 잔여 샘플 비트 심도, 변환 계수 비트 심도, 양자화된 레벨 비트 심도, 휘도 신호에 대한 정보, 색차 신호에 대한 정보 중 적어도 하나의 값 또는 조합된 형태가 부호화 파라미터에 포함될 수 있다.
여기서, 플래그 또는 색인을 시그널링(signaling)한다는 것은 인코더에서는 해당 플래그 또는 색인을 엔트로피 부호화(Entropy Encoding)하여 비트스트림(Bitstream)에 포함하는 것을 의미할 수 있고, 디코더에서는 비트스트림으로부터 해당 플래그 또는 색인을 엔트로피 복호화(Entropy Decoding)하는 것을 의미할 수 있다.
부호화 장치(100)가 인터 예측을 통한 부호화를 수행할 경우, 부호화된 현재 영상은 이후에 처리되는 다른 영상에 대한 참조 영상으로서 사용될 수 있다. 따라서, 부호화 장치(100)는 부호화된 현재 영상을 다시 복원 또는 복호화할 수 있고, 복원 또는 복호화된 영상을 참조 영상으로 참조 픽처 버퍼(190)에 저장할 수 있다.
양자화된 레벨은 역양자화부(160)에서 역양자화(dequantization)될 수 있고. 역변환부(170)에서 역변환(inverse transform)될 수 있다. 역양자화 및/또는 역변환된 계수는 가산기(175)를 통해 예측 블록과 합해질 수 있다, 역양자화 및/또는 역변환된 계수와 예측 블록을 합함으로써 복원 블록(reconstructed block)이 생성될 수 있다. 여기서, 역양자화 및/또는 역변환된 계수는 역양자화 및 역변환 중 적어도 하나 이상이 수행된 계수를 의미하며, 복원된 잔여 블록을 의미할 수 있다.
복원 블록은 필터부(180)를 거칠 수 있다. 필터부(180)는 디블록킹 필터(deblocking filter), 샘플 적응적 오프셋(Sample Adaptive Offset; SAO), 적응적 루프내 필터(Adaptive Loop Filter; ALF) 등 적어도 하나를 복원 샘플, 복원 블록 또는 복원 영상에 적용할 수 있다. 필터부(180)는 루프내 필터(in-loop filter)로 칭해질 수도 있다.
디블록킹 필터는 블록들 간의 경계에서 발생한 블록 왜곡을 제거할 수 있다. 디블록킹 필터를 수행할지 여부를 판단하기 위해 블록에 포함된 몇 개의 열 또는 행에 포함된 샘플을 기초로 현재 블록에 디블록킹 필터 적용할지 여부를 판단할 수 있다. 블록에 디블록킹 필터를 적용하는 경우 필요한 디블록킹 필터링 강도에 따라 서로 다른 필터를 적용할 수 있다.
샘플 적응적 오프셋을 이용하여 부호화 에러를 보상하기 위해 샘플 값에 적정 오프셋(offset) 값을 더할 수 있다. 샘플 적응적 오프셋은 디블록킹을 수행한 영상에 대해 샘플 단위로 원본 영상과의 오프셋을 보정할 수 있다. 영상에 포함된 샘플을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 샘플의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다.
적응적 루프내 필터는 복원 영상 및 원래의 영상을 비교한 값에 기반하여 필터링을 수행할 수 있다. 영상에 포함된 샘플을 소정의 그룹으로 나눈 후 해당 그룹에 적용될 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. 적응적 루프내 필터를 적용할지 여부에 관련된 정보는 부호화 유닛(Coding Unit, CU) 별로 시그널링될 수 있고, 각각의 블록에 따라 적용될 적응적 루프내 필터의 모양 및 필터 계수는 달라질 수 있다.
필터부(180)를 거친 복원 블록 또는 복원 영상은 참조 픽처 버퍼(190)에 저장될 수 있다. 필터부(180)를 거친 복원 블록은 참조 영상의 일부일 수 있다. 말하자면, 참조 영상은 필터부(180)를 거친 복원 블록들로 구성된 복원 영상일 수 있다. 저장된 참조 영상은 이후 화면 간 예측 또는 움직임 보상에 사용될 수 있다.
도 2는 본 발명이 적용되는 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
복호화 장치(200)는 디코더, 비디오 복호화 장치 또는 영상 복호화 장치일 수 있다.
도 2를 참조하면, 복호화 장치(200)는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 가산기(255), 필터부(260) 및 참조 픽처 버퍼(270)를 포함할 수 있다.
복호화 장치(200)는 부호화 장치(100)에서 출력된 비트스트림을 수신할 수 있다. 복호화 장치(200)는 컴퓨터 판독가능한 기록 매체에 저장된 비트스트림을 수신하거나, 유/무선 전송 매체를 통해 스트리밍되는 비트스트림을 수신할 수 있다. 복호화 장치(200)는 비트스트림에 대하여 인트라 모드 또는 인터 모드로 복호화를 수행할 수 있다. 또한, 복호화 장치(200)는 복호화를 통해 복원된 영상 또는 복호화된 영상을 생성할 수 있고, 복원된 영상 또는 복호화된 영상을 출력할 수 있다.
복호화에 사용되는 예측 모드가 인트라 모드인 경우 스위치가 인트라로 전환될 수 있다. 복호화에 사용되는 예측 모드가 인터 모드인 경우 스위치가 인터로 전환될 수 있다.
복호화 장치(200)는 입력된 비트스트림을 복호화하여 복원된 잔여 블록(reconstructed residual block)을 획득할 수 있고, 예측 블록을 생성할 수 있다. 복원된 잔여 블록 및 예측 블록이 획득되면, 복호화 장치(200)는 복원된 잔여 블록과 및 예측 블록을 더함으로써 복호화 대상이 되는 복원 블록을 생성할 수 있다. 복호화 대상 블록은 현재 블록으로 칭해질 수 있다.
엔트로피 복호화부(210)는 비트스트림에 대한 확률 분포에 따른 엔트로피 복호화를 수행함으로써 심볼들을 생성할 수 있다. 생성된 심볼들은 양자화된 레벨 형태의 심볼을 포함할 수 있다. 여기에서, 엔트로피 복호화 방법은 상술된 엔트로피 부호화 방법의 역과정일 수 있다.
엔트로피 복호화부(210)는 변환 계수 레벨(양자화된 레벨)을 복호화하기 위해 변환 계수 스캐닝 방법을 통해 1차원의 벡터 형태 계수를 2차원의 블록 형태로 변경할 수 있다.
양자화된 레벨은 역양자화부(220)에서 역양자화될 수 있고, 역변환부(230)에서 역변환될 수 있다. 양자화된 레벨은 역양자화 및/또는 역변환이 수행된 결과로서, 복원된 잔여 블록으로 생성될 수 있다. 이때, 역양자화부(220)는 양자화된 레벨에 양자화 행렬을 적용할 수 있다.
인트라 모드가 사용되는 경우, 인트라 예측부(240)는 복호화 대상 블록 주변의 이미 복호화된 블록의 샘플 값을 이용하는 공간적 예측을 현재 블록에 대해 수행함으로써 예측 블록을 생성할 수 있다.
인터 모드가 사용되는 경우, 움직임 보상부(250)는 움직임 벡터 및 참조 픽처 버퍼(270)에 저장되어 있는 참조 영상을 이용하는 움직임 보상을 현재 블록에 대해 수행함으로써 예측 블록을 생성할 수 있다. 상기 움직임 보상부(250)는 움직임 벡터의 값이 정수 값을 가지지 않을 경우에 참조 영상 내의 일부 영역에 대해 보간 필터를 적용하여 예측 블록을 생성할 수 있다. 움직임 보상을 수행하기 위해 부호화 유닛을 기준으로 해당 부호화 유닛에 포함된 예측 유닛의 움직임 보상 방법이 스킵 모드, 머지 모드, AMVP 모드, 현재 픽처 참조 모드 중 어떠한 방법인지 여부를 판단할 수 있고, 각 모드에 따라 움직임 보상을 수행할 수 있다.
가산기(255)는 복원된 잔여 블록 및 예측 블록을 가산하여 복원 블록을 생성할 수 있다. 필터부(260)는 디블록킹 필터, 샘플 적응적 오프셋 및 적응적 루프내 필터 등 적어도 하나를 복원 블록 또는 복원 영상에 적용할 수 있다. 필터부(260)는 복원 영상을 출력할 수 있다. 복원 블록 또는 복원 영상은 참조 픽처 버퍼(270)에 저장되어 인터 예측에 사용될 수 있다. 필터부(260)를 거친 복원 블록은 참조 영상의 일부일 수 있다. 말하자면, 참조 영상은 필터부(260)를 거친 복원 블록들로 구성된 복원 영상일 수 있다. 저장된 참조 영상은 이후 화면 간 예측 또는 움직임 보상에 사용될 수 있다.
도 3은 영상을 부호화 및 복호화할 때의 영상의 분할 구조를 개략적으로 나타내는 도면이다. 도 3은 하나의 유닛이 복수의 하위 유닛으로 분할되는 실시예를 개략적으로 나타낸다.
영상을 효율적으로 분할하기 위해, 부호화 및 복호화에 있어서, 부호화 유닛(Coding Unit; CU)이 사용될 수 있다. 영상 부호화/복호화의 기본 단위로서 부호화 유닛이 사용될 수 있다. 또한, 영상 부호화/복호화 시 화면 내 예측 모드 및 화면 간 예측 모드가 구분되는 단위로 부호화 유닛을 사용할 수 있다. 부호화 유닛은 예측, 변환, 양자화, 역변환, 역양자화, 또는 변환 계수의 부호화/복호화의 과정을 위해 사용되는 기본 단위일 수 있다.
도 3을 참조하면, 영상(300)은 최대 부호화 유닛(Largest Coding Unit; LCU) 단위로 순차적으로 분할되고, LCU 단위로 분할 구조가 결정된다. 여기서, LCU는 부호화 트리 유닛(Coding Tree Unit; CTU)과 동일한 의미로 사용될 수 있다. 유닛의 분할은 유닛에 해당하는 블록의 분할을 의미할 수 있다. 블록 분할 정보에는 유닛의 깊이(depth)에 관한 정보가 포함될 수 있다. 깊이 정보는 유닛이 분할되는 회수 및/또는 정도를 나타낼 수 있다. 하나의 유닛은 트리 구조(tree structure)를 기초로 깊이 정보를 가지고 계층적으로 복수의 하위 유닛들로 분할될 수 있다. 말하자면, 유닛 및 상기의 유닛의 분할에 의해 생성된 하위 유닛은 노드 및 상기의 노드의 자식 노드에 각각 대응할 수 있다. 각각의 분할된 하위 유닛은 깊이 정보를 가질 수 있다. 깊이 정보는 CU의 크기를 나타내는 정보일 수 있고, 각 CU마다 저장될 수 있다. 유닛 깊이는 유닛이 분할된 회수 및/또는 정도를 나타내므로, 하위 유닛의 분할 정보는 하위 유닛의 크기에 관한 정보를 포함할 수도 있다.
분할 구조는 CTU(310) 내에서의 부호화 유닛(Coding Unit; CU)의 분포를 의미할 수 있다. 이러한 분포는 하나의 CU를 복수(2, 4, 8, 16 등을 포함하는 2 이상의 양의 정수)의 CU들로 분할할지 여부에 따라 결정할 수 있다. 분할에 의해 생성된 CU의 가로 크기 및 세로 크기는 각각 분할 전의 CU의 가로 크기의 절반 및 세로 크기의 절반이거나, 분할된 개수에 따라 분할 전의 CU의 가로 크기보다 작은 크기 및 세로 크기보다 작은 크기를 가질 수 있다. CU는 복수의 CU로 재귀적으로 분할될 수 있다. 재귀적 분할에 의해, 분할된 CU의 가로 크기 및 세로 크기 중 적어도 하나의 크기가 분할 전의 CU의 가로 크기 및 세로 크기 중 적어도 하나에 비해 감소될 수 있다. CU의 분할은 기정의된 깊이 또는 기정의된 크기까지 재귀적으로 이루어질 수 있다. 예컨대, CTU의 깊이는 0일 수 있고, 최소 부호화 유닛(Smallest Coding Unit; SCU)의 깊이는 기정의된 최대 깊이일 수 있다. 여기서, CTU는 상술된 것과 같이 최대의 부호화 유닛 크기를 가지는 부호화 유닛일 수 있고, SCU는 최소의 부호화 유닛 크기를 가지는 부호화 유닛일 수 있다. CTU(310)로부터 분할이 시작되고, 분할에 의해 CU의 가로 크기 및/또는 세로 크기가 줄어들 때마다 CU의 깊이는 1씩 증가한다. 예를 들면, 각각의 깊이 별로, 분할되지 않는 CU는 2Nx2N 크기를 가질 수 있다. 또한, 분할되는 CU의 경우, 2Nx2N 크기의 CU가 NxN 크기를 가지는 4개의 CU들로 분할될 수 있다. N의 크기는 깊이가 1씩 증가할 때마다 절반으로 감소할 수 있다.
또한, CU가 분할되는지 여부에 대한 정보는 CU의 분할 정보를 통해 표현될 수 있다. 분할 정보는 1비트의 정보일 수 있다. SCU를 제외한 모든 CU는 분할 정보를 포함할 수 있다. 예를 들면, 분할 정보의 값이 제1 값이면, CU가 분할되지 않을 수 있고, 분할 정보의 값이 제2 값이면, CU가 분할될 수 있다.
도 3을 참조하면, 깊이가 0인 CTU는 64x64 블록일 수 있다. 0은 최소 깊이일 수 있다. 깊이가 3인 SCU는 8x8 블록일 수 있다. 3은 최대 깊이일 수 있다. 32x32 블록 및 16x16 블록의 CU는 각각 깊이 1 및 깊이 2로 표현될 수 있다.
예를 들어, 하나의 부호화 유닛이 4개의 부호화 유닛으로 분할 될 경우, 분할된 4개의 부호화 유닛의 가로 및 세로 크기는 분할되기 전 부호화 유닛의 가로 및 세로 크기와 비교하여 각각 절반의 크기를 가질 수 있다. 일 예로, 32x32 크기의 부호화 유닛이 4개의 부호화 유닛으로 분할 될 경우, 분할된 4개의 부호화 유닛은 각각 16x16의 크기를 가질 수 있다. 하나의 부호화 유닛이 4개의 부호화 유닛으로 분할 될 경우, 부호화 유닛은 쿼드트리(quad-tree) 형태로 분할(쿼드트리 분할, quad-tree partition)되었다고 할 수 있다.
예를 들어, 하나의 부호화 유닛이 2개의 부호화 유닛으로 분할 될 경우, 분할된 2개의 부호화 유닛의 가로 또는 세로 크기는 분할되기 전 부호화 유닛의 가로 또는 세로 크기와 비교하여 절반의 크기를 가질 수 있다. 일 예로, 32x32 크기의 부호화 유닛이 2개의 부호화 유닛으로 세로로 분할 될 경우, 분할된 2개의 부호화 유닛은 각각 16x32의 크기를 가질 수 있다. 일 예로, 8x32 크기의 부호화 유닛이 2개의 부호화 유닛으로 가로로 분할 될 경우, 분할된 2개의 부호화 유닛은 각각 8x16의 크기를 가질 수 있다. 하나의 부호화 유닛이 2개의 부호화 유닛으로 분할 될 경우, 부호화 유닛은 이진트리(binary-tree) 형태로 분할(이진트리 분할, binary-tree partition)되었다고 할 수 있다.
예를 들어, 하나의 부호화 유닛이 3개의 부호화 유닛으로 분할 될 경우, 분할되기 전 부호화 유닛의 가로 또는 세로 크기를 1:2:1의 비율로 분할함으로써, 3개의 부호화 유닛으로 분할할 수 있다. 일 예로, 16x32 크기의 부호화 유닛이 3개의 부호화 유닛으로 가로로 분할 될 경우, 분할된 3개의 부호화 유닛은 상측부터 각각 16x8, 16x16 및 16x8의 크기를 가질 수 있다. 일 예로, 32x32 크기의 부호화 유닛이 3개의 부호화 유닛으로 세로로 분할 될 경우, 분할된 3개의 부호화 유닛은 좌측부터 각각 8x32, 16x32 및 8x32의 크기를 가질 수 있다. 하나의 부호화 유닛이 3개의 부호화 유닛으로 분할 될 경우, 부호화 유닛은 3분할트리(ternary-tree) 형태로 분할(3분할트리 분할, ternary-tree partition)되었다고 할 수 있다.
도 3의 CTU(320)는 쿼드트리 분할, 이진트리 분할 및 3분할트리 분할이 모두 적용된 CTU의 일 예이다.
전술한 바와 같이, CTU를 분할하기 위해, 쿼드트리 분할, 이진트리 분할 및 3분할트리 분할 중 적어도 하나가 적용될 수 있다. 각각의 분할은 소정의 우선 순위에 기초하여 적용될 수 있다. 예컨대, CTU에 대해 쿼드트리 분할이 우선적으로 적용될 수 있다. 더 이상 쿼드트리 분할될 수 없는 부호화 유닛은 쿼드트리의 리프 노드에 해당될 수 있다. 쿼드트리의 리프 노드에 해당하는 부호화 유닛은 이진트리 및/또는 3분할트리의 루트 노드가 될 수 있다. 즉, 쿼드트리의 리프 노드에 해당하는 부호화 유닛은 이진트리 분할되거나 3분할트리 분할되거나 또는 더 이상 분할되지 않을 수 있다. 이 때, 쿼드트리의 리프 노드에 해당하는 부호화 유닛을 이진트리 분할하거나 3분할트리 분할하여 생성된 부호화 유닛에 대해서는 다시 쿼드트리 분할이 수행되지 않도록 함으로써, 블록의 분할 및/또는 분할 정보의 시그널링을 효과적으로 수행할 수 있다.
쿼드트리의 각 노드에 해당하는 부호화 유닛의 분할은 쿼드 분할 정보를 이용하여 시그널링될 수 있다. 제1값(예컨대, '1')을 갖는 쿼드 분할 정보는 해당 부호화 유닛이 쿼드트리 분할됨을 지시할 수 있다. 제2값(예컨대, '0')을 갖는 쿼드 분할 정보는 해당 부호화 유닛이 쿼드트리 분할되지 않음을 지시할 수 있다. 쿼드 분할 정보는 소정의 길이(예컨대, 1비트)를 갖는 플래그일 수 있다.
이진트리 분할과 3분할트리 분할 사이에는 우선순위가 존재하지 않을 수 있다. 즉, 쿼드트리의 리프 노드에 해당하는 부호화 유닛은 이진트리 분할되거나 3분할트리 분할될 수 있다. 또한, 이진트리 분할 또는 3분할트리 분할에 의해 생성된 부호화 유닛은 다시 이진트리 분할 또는 3분할트리 분할되거나 또는 더 이상 분할되지 않을 수 있다.
이진트리 분할과 3분할트리 분할 사이에 우선순위가 존재하지 않는 경우의 분할은 복합형트리 분할(multi-type tree partition)이라고 호칭할 수 있다. 즉, 쿼드트리의 리프 노드에 해당하는 부호화 유닛은 복합형트리(multi-type tree)의 루트 노드가 될 수 있다. 복합형트리의 각 노드에 해당하는 부호화 유닛의 분할은 복합형트리의 분할 여부 정보, 분할 방향 정보 및 분할 트리 정보 중 적어도 하나를 이용하여 시그널링될 수 있다. 상기 복합형트리의 각 노드에 해당하는 부호화 유닛의 분할을 위해 순차적으로 분할 여부 정보, 분할 방향 정보 및 분할 트리 정보가 시그널링될 수도 있다.
제1값(예컨대, '1')을 갖는 복합형트리의 분할 여부 정보는 해당 부호화 유닛이 복합형트리 분할됨을 지시할 수 있다. 제2값(예컨대, '0')을 갖는 복합형트리의 분할 여부 정보는 해당 부호화 유닛이 복합형트리 분할되지 않음을 지시할 수 있다.
복합형트리의 각 노드에 해당하는 부호화 유닛이 복합형트리 분할되는 경우, 해당 부호화 유닛은 분할 방향 정보를 더 포함할 수 있다. 분할 방향 정보는 복합형트리 분할의 분할 방향을 지시할 수 있다. 제1값(예컨대, '1')을 갖는 분할 방향 정보는 해당 부호화 유닛이 세로 방향으로 분할됨을 지시할 수 있다. 제2값(예컨대, '0')을 갖는 분할 방향 정보는 해당 부호화 유닛이 가로 방향으로 분할됨을 지시할 수 있다.
복합형트리의 각 노드에 해당하는 부호화 유닛이 복합형트리 분할되는 경우, 해당 부호화 유닛은 분할 트리 정보를 더 포함할 수 있다. 분할 트리 정보는 복합형트리 분할을 위해 사용된 트리를 지시할 수 있다. 제1값(예컨대, '1')을 갖는 분할 트리 정보는 해당 부호화 유닛이 이진트리 분할됨을 지시할 수 있다. 제2값(예컨대, '0')을 갖는 분할 트리 정보는 해당 부호화 유닛이 3분할트리 분할됨을 지시할 수 있다.
분할 여부 정보, 분할 트리 정보 및 분할 방향 정보는 각각 소정의 길이(예컨대, 1비트)를 갖는 플래그일 수 있다.
쿼드 분할 정보, 복합형트리의 분할 여부 정보, 분할 방향 정보 및 분할 트리 정보 중 적어도 하나는 엔트로피 부호화/복호화될 수 있다. 상기 정보들의 엔트로피 부호화/복호화를 위해, 현재 부호화 유닛에 인접한 주변 부호화 유닛의 정보가 이용될 수 있다. 예컨대, 좌측 부호화 유닛 및/또는 상측 부호화 유닛의 분할 형태(분할 여부, 분할 트리 및/또는 분할 방향)는 현재 부호화 유닛의 분할 형태와 유사할 확률이 높다. 따라서, 주변 부호화 유닛의 정보에 기초하여, 현재 부호화 유닛의 정보의 엔트로피 부호화/복호화를 위한 컨텍스트 정보를 유도할 수 있다. 이때, 주변 부호화 유닛의 정보에는 해당 부호화 유닛의 쿼드 분할 정보, 복합형트리의 분할 여부 정보, 분할 방향 정보 및 분할 트리 정보 중 적어도 하나가 포함될 수 있다.
다른 실시예로서, 이진트리 분할과 3분할트리 분할 중, 이진트리 분할이 우선적으로 수행될 수 있다. 즉, 이진트리 분할이 먼저 적용되고, 이진트리의 리프 노드에 해당하는 부호화 유닛을 3분할트리의 루트 노드로 설정할 수도 있다. 이 경우, 3분할트리의 노드에 해당하는 부호화 유닛에 대해서는 쿼드트리 분할 및 이진트리 분할이 수행되지 않을 수 있다.
쿼드트리 분할, 이진트리 분할 및/또는 3분할트리 분할에 의해 더 이상 분할되지 않는 부호화 유닛은 부호화, 예측 및/또는 변환의 단위가 될 수 있다. 즉, 예측 및/또는 변환을 위해 부호화 유닛이 더 이상 분할되지 않을 수 있다. 따라서, 부호화 유닛을 예측 유닛 및/또는 변환 유닛으로 분할하기 위한 분할 구조, 분할 정보 등이 비트스트림에 존재하지 않을 수 있다.
다만, 분할의 단위가 되는 부호화 유닛의 크기가 최대 변환 블록의 크기보다 큰 경우, 해당 부호화 유닛은 최대 변환 블록의 크기와 같거나 또는 작은 크기가 될 때까지 재귀적으로 분할될 수 있다. 예컨대, 부호화 유닛의 크기가 64x64이고, 최대 변환 블록의 크기가 32x32인 경우, 상기 부호화 유닛은 변환을 위해, 4개의 32x32 블록으로 분할될 수 있다. 예컨대, 부호화 유닛의 크기가 32x64이고, 최대 변환 블록의 크기가 32x32인 경우, 상기 부호화 유닛은 변환을 위해, 2개의 32x32 블록으로 분할될 수 있다. 이 경우, 변환을 위한 부호화 유닛의 분할 여부는 별도로 시그널링되지 않고, 상기 부호화 유닛의 가로 또는 세로와 최대 변환 블록의 가로 또는 세로의 비교에 의해 결정될 수 있다. 예컨대, 부호화 유닛의 가로가 최대 변환 블록의 가로보다 큰 경우, 부호화 유닛은 세로로 2등분될 수 있다. 또한, 부호화 유닛의 세로가 최대 변환 블록의 세로보다 큰 경우, 부호화 유닛은 가로로 2등분될 수 있다.
부호화 유닛의 최대 및/또는 최소 크기에 관한 정보, 변환 블록의 최대 및/또는 최소 크기에 관한 정보는 부호화 유닛의 상위 레벨에서 시그널링되거나 결정될 수 있다. 상기 상위 레벨은 예컨대, 시퀀스 레벨, 픽처 레벨, 타일 레벨, 타일 그룹 레벨, 슬라이스 레벨 등일 수 있다. 예컨대, 부호화 유닛의 최소 크기는 4x4로 결정될 수 있다. 예컨대, 변환 블록의 최대 크기는 64x64로 결정될 수 있다. 예컨대, 변환 블록의 최소 크기는 4x4로 결정될 수 있다.
쿼드트리의 리프 노드에 해당하는 부호화 유닛의 최소 크기(쿼드트리 최소 크기)에 관한 정보 및/또는 복합형트리의 루트 노드에서 리프 노드에 이르는 최대 깊이(복합형트리 최대 깊이)에 관한 정보는 부호화 유닛의 상위 레벨에서 시그널링되거나 결정될 수 있다. 상기 상위 레벨은 예컨대, 시퀀스 레벨, 픽처 레벨, 슬라이스 레벨, 타일 그룹 레벨, 타일 레벨 등일 수 있다. 상기 쿼드트리 최소 크기에 관한 정보 및/또는 상기 복합형트리 최대 깊이에 관한 정보는 화면 내 슬라이스와 화면 간 슬라이스의 각각에 대해 시그널링되거나 결정될 수 있다.
CTU의 크기와 변환 블록의 최대 크기에 대한 차분 정보는 부호화 유닛의 상위 레벨에서 시그널링되거나 결정될 수 있다. 상기 상위 레벨은 예컨대, 시퀀스 레벨, 픽처 레벨, 슬라이스 레벨, 타일 그룹 레벨, 타일 레벨 등일 수 있다. 이진트리의 각 노드에 해당하는 부호화 유닛의 최대 크기(이진트리 최대 크기)에 관한 정보는 부호화 트리 유닛의 크기와 상기 차분 정보를 기반으로 결정될 수 있다. 3분할트리의 각 노드에 해당하는 부호화 유닛의 최대 크기(3분할트리 최대 크기)는 슬라이스의 타입에 따라 다른 값을 가질 수 있다. 예컨대, 화면 내 슬라이스인 경우, 3분할트리 최대 크기는 32x32일 수 있다. 또한, 예컨대, 화면 간 슬라이스인 경우, 3분할 트리 최대 크기는 128x128일 수 있다. 예컨대, 이진트리의 각 노드에 해당하는 부호화 유닛의 최소 크기(이진트리 최소 크기) 및/또는 3분할트리의 각 노드에 해당하는 부호화 유닛의 최소 크기(3분할트리 최소 크기)는 부호화 블록의 최소 크기로 설정될 수 있다.
또 다른 예로, 이진트리 최대 크기 및/또는 3분할트리 최대 크기는 슬라이스 레벨에서 시그널링되거나 결정될 수 있다. 또한, 이진트리 최소 크기 및/또는 3분할트리 최소 크기는 슬라이스 레벨에서 시그널링되거나 결정될 수 있다.
전술한 다양한 블록의 크기 및 깊이 정보에 기초하여, 쿼드 분할 정보, 복합형트리의 분할 여부 정보, 분할 트리 정보 및/또는 분할 방향 정보 등이 비트스트림에 존재하거나 존재하지 않을 수 있다.
예컨대, 부호화 유닛의 크기가 쿼드트리 최소 크기보다 크지 않으면, 상기 부호화 유닛은 쿼드 분할 정보를 포함하지 않고, 해당 쿼드 분할 정보는 제2값으로 추론될 수 있다.
예컨대, 복합형트리의 노드에 해당하는 부호화 유닛의 크기(가로 및 세로)가 이진트리 최대 크기(가로 및 세로) 및/또는 3분할트리 최대 크기(가로 및 세로)보다 큰 경우, 상기 부호화 유닛은 이진트리 분할 및/또는 3분할트리 분할되지 않을 수 있다. 그에 따라, 상기 복합형트리의 분할 여부 정보는 시그널링되지 않고, 제2값으로 추론될 수 있다.
또는, 복합형트리의 노드에 해당하는 부호화 유닛의 크기(가로 및 세로)가 이진트리 최소 크기(가로 및 세로)와 동일하거나, 부호화 유닛의 크기(가로 및 세로)가 3분할트리 최소 크기(가로 및 세로)의 두 배와 동일한 경우, 상기 부호화 유닛은 이진트리 분할 및/또는 3분할트리 분할되지 않을 수 있다. 그에 따라, 상기 복합형트리의 분할 여부 정보는 시그널링되지 않고, 제2값으로 추론될 수 있다. 왜냐하면, 상기 부호화 유닛을 이진트리 분할 및/또는 3분할트리 분할할 경우, 이진트리 최소 크기 및/또는 3분할트리 최소 크기보다 작은 부호화 유닛이 생성되기 때문이다.
또는, 이진트리 분할 또는 3분할트리 분할은 가상의 파이프라인 데이터 유닛의 크기(이하, 파이프라인 버퍼 크기)에 기초하여 제한될 수 있다. 예컨대, 이진트리 분할 또는 3분할트리 분할에 의해, 부호화 유닛이 파이프라인 버퍼 크기에 적합하지 않은 서브 부호화 유닛으로 분할될 경우, 해당 이진트리 분할 또는 3분할트리 분할은 제한될 수 있다. 파이프라인 버퍼 크기는 최대 변환 블록의 크기(예컨대, 64X64)일 수 있다. 예컨대, 파이프라인 버퍼 크기가 64X64일 때, 아래의 분할은 제한될 수 있다.
- NxM(N 및/또는 M은 128) 부호화 유닛에 대한 3분할트리 분할
- 128xN(N <= 64) 부호화 유닛에 대한 수평 방향 이진트리 분할
- Nx128(N <= 64) 부호화 유닛에 대한 수직 방향 이진트리 분할
또는, 복합형트리의 노드에 해당하는 부호화 유닛의 복합형트리 내의 깊이가 복합형트리 최대 깊이와 동일한 경우, 상기 부호화 유닛은 이진트리 분할 및/또는 3분할트리 분할되지 않을 수 있다. 그에 따라, 상기 복합형트리의 분할 여부 정보는 시그널링되지 않고, 제2값으로 추론될 수 있다.
또는, 복합형트리의 노드에 해당하는 부호화 유닛에 대해 수직 방향 이진트리 분할, 수평 방향 이진트리 분할, 수직 방향 3분할트리 분할 및 수평 방향 3분할트리 분할 중 적어도 하나가 가능한 경우에만, 상기 복합형트리의 분할 여부 정보를 시그널링할 수 있다. 그렇지 않은 경우, 상기 부호화 유닛은 이진트리 분할 및/또는 3분할트리 분할되지 않을 수 있다. 그에 따라, 상기 복합형트리의 분할 여부 정보는 시그널링되지 않고, 제2값으로 추론될 수 있다.
또는, 복합형트리의 노드에 해당하는 부호화 유닛에 대해 수직 방향 이진트리 분할과 수평 방향 이진트리 분할이 모두 가능하거나, 수직 방향 3분할트리 분할과 수평 방향 3분할트리 분할이 모두 가능한 경우에만, 상기 분할 방향 정보를 시그널링할 수 있다. 그렇지 않은 경우, 상기 분할 방향 정보는 시그널링되지 않고, 분할이 가능한 방향을 지시하는 값으로 추론될 수 있다.
또는, 복합형트리의 노드에 해당하는 부호화 유닛에 대해 수직 방향 이진트리 분할과 수직 방향 3분할트리 분할이 모두 가능하거나, 수평 방향 이진트리 분할과 수평 방향 3분할트리 분할이 모두 가능한 경우에만, 상기 분할 트리 정보를 시그널링할 수 있다. 그렇지 않은 경우, 상기 분할 트리 정보는 시그널링되지 않고, 분할이 가능한 트리를 지시하는 값으로 추론될 수 있다.
도 4는 화면 내 예측 과정의 실시예를 설명하기 위한 도면이다.
도 4의 중심으로부터 외곽으로의 화살표들은 화면 내 예측 모드들의 예측 방향들을 나타낼 수 있다.
화면 내 부호화 및/또는 복호화는 현재 블록의 주변 블록의 참조 샘플을 이용하여 수행될 수 있다. 주변 블록은 복원된 주변 블록일 수 있다. 예를 들면, 화면 내 부호화 및/또는 복호화는 복원된 주변 블록이 포함하는 참조 샘플의 값 또는 부호화 파라미터를 이용하여 수행될 수 있다.
예측 블록은 화면 내 예측의 수행의 결과로 생성된 블록을 의미할 수 있다. 예측 블록은 CU, PU 및 TU 중 적어도 하나에 해당할 수 있다. 예측 블록의 단위는 CU, PU 및 TU 중 적어도 하나의 크기일 수 있다. 예측 블록은 2x2, 4x4, 16x16, 32x32 또는 64x64 등의 크기를 갖는 정사각형의 형태의 블록일 수 있고, 2x8, 4x8, 2x16, 4x16 및 8x16 등의 크기를 갖는 직사각형 모양의 블록일 수도 있다.
화면 내 예측은 현재 블록에 대한 화면 내 예측 모드에 따라 수행될 수 있다. 현재 블록이 가질 수 있는 화면 내 예측 모드의 개수는 기정의된 고정된 값일 수 있으며, 예측 블록의 속성에 따라 다르게 결정된 값일 수 있다. 예를 들면, 예측 블록의 속성은 예측 블록의 크기 및 예측 블록의 형태 등을 포함할 수 있다.
화면 내 예측 모드의 개수는 블록의 크기에 관계없이 N개로 고정될 수 있다. 또는, 예를 들면, 화면 내 예측 모드의 개수는 3, 5, 9, 17, 34, 35, 36, 65, 또는 67 등일 수 있다. 또는, 화면 내 예측 모드의 개수는 블록의 크기 및/또는 색 성분(color component)의 타입에 따라 상이할 수 있다. 예를 들면, 색 성분이 휘도(luma) 신호인지 아니면 색차(chroma) 신호인지에 따라 화면 내 예측 모드의 개수가 다를 수 있다. 예컨대, 블록의 크기가 커질수록 화면 내 예측 모드의 개수는 많아질 수 있다. 또는 휘도 성분 블록의 화면 내 예측 모드의 개수는 색차 성분 블록의 화면 내 예측 모드의 개수보다 많을 수 있다.
화면 내 예측 모드는 비방향성 모드 또는 방향성 모드일 수 있다. 비방향성 모드는 DC 모드 또는 플래너(Planar) 모드일 수 있으며, 방향성 모드(angular mode)는 특정한 방향 또는 각도를 가지는 예측 모드일 수 있다. 상기 화면 내 예측 모드는 모드 번호, 모드 값, 모드 숫자, 모드 각도, 모드 방향 중 적어도 하나로 표현될 수 있다. 화면 내 예측 모드의 개수는 상기 비방향성 및 방향성 모드를 포함하는 하나 이상의 M개 일 수 있다.현재 블록을 화면 내 예측하기 위해 복원된 주변 블록에 포함되는 샘플들이 현재 블록의 참조 샘플로 이용 가능한지 여부를 검사하는 단계가 수행될 수 있다. 현재 블록의 참조 샘플로 이용할 수 없는 샘플이 존재할 경우, 복원된 주변 블록에 포함된 샘플들 중 적어도 하나의 샘플 값을 복사 및/또는 보간한 값을 이용하여 참조 샘플로 이용할 수 없는 샘플의 샘플 값으로 대체한 후, 현재 블록의 참조 샘플로 이용할 수 있다.
도 7은 화면 내 예측에 이용 가능한 참조 샘플들을 설명하기 위한 도면이다.
도 7에 도시된 바와 같이, 현재 블록의 화면 내 예측을 위해, 참조 샘플 라인 0 내지 참조 샘플 라인 3 중 적어도 하나가 이용될 수 있다. 도 7에 있어서, 세그먼트 A와 세그먼트 F의 샘플들은 복원된 이웃 블록으로부터 가져오는 대신 각각 세그먼트 B와 세그먼트 E의 가장 가까운 샘플들로 패딩될 수 있다. 현재 블록의 화면 내 예측을 위해 이용될 참조 샘플 라인을 지시하는 인덱스 정보가 시그널링될 수 있다. 현재 블록의 상단 경계가 CTU의 경계인 경우, 참조 샘플 라인 0만 이용가능할 수 있다. 따라서 이 경우, 상기 인덱스 정보는 시그널링되지 않을 수 있다. 참조 샘플 라인 0 이외에 다른 참조 샘플 라인이 이용되는 경우, 후술하는 예측 블록에 대한 필터링은 수행되지 않을 수 있다.
화면 내 예측 시 화면 내 예측 모드 및 현재 블록의 크기 중 적어도 하나에 기반하여 참조 샘플 또는 예측 샘플 중 적어도 하나에 필터를 적용할 수 있다.
플래너 모드의 경우, 현재 블록의 예측 블록을 생성할 때, 예측 대상 샘플의 예측 블록 내 위치에 따라, 현재 샘플의 상단 및 좌측 참조 샘플, 현재 블록의 우상단 및 좌하단 참조 샘플의 가중합을 이용하여 예측 대상 샘플의 샘플값을 생성할 수 있다. 또한, DC 모드의 경우, 현재 블록의 예측 블록을 생성할 때, 현재 블록의 상단 및 좌측 참조 샘플들의 평균 값을 이용할 수 있다. 또한, 방향성 모드의 경우 현재 블록의 상단, 좌측, 우상단 및/또는 좌하단 참조 샘플을 이용하여 예측 블록을 생성할 수 있다. 예측 샘플 값 생성을 위해 실수 단위의 보간을 수행할 수도 있다.
색 성분간 화면내 예측의 경우, 제1 색 성분의 대응 복원 블록에 기초하여 제2 색 성분의 현재 블록에 대한 예측 블록을 생성할 수 있다. 예컨대, 제1 색 성분은 휘도 성분, 제2 색 성분은 색차 성분일 수 있다. 색 성분간 화면내 예측을 위해, 제1 색 성분과 제2 색 성분 간의 선형 모델의 파라미터가 템플릿에 기초하여 유도될 수 있다. 템플릿은 현재 블록의 상단 및/또는 좌측 주변 샘플 및 이에 대응하는 제1 색 성분의 복원 블록의 상단 및/또는 좌측 주변 샘플을 포함할 수 있다. 예컨대, 선형 모델의 파라미터는 템플릿내의 샘플들 중 최대값을 갖는 제1 색 성분의 샘플값과 이에 대응하는 제2 색 성분의 샘플값, 템플릿내의 샘플들 중 최소값을 갖는 제1 색 성분의 샘플값과 이에 대응하는 제2 색 성분의 샘플값을 이용하여 유도될 수 있다. 선형 모델의 파라미터가 유도되면, 대응 복원 블록을 선형 모델에 적용하여 현재 블록에 대한 예측 블록을 생성할 수 있다. 영상 포맷에 따라, 제1 색 성분의 복원 블록의 주변 샘플 및 대응 복원 블록에 대해 서브 샘플링이 수행될 수 있다. 예컨대, 제2 색 성분의 1개의 샘플이 제1 색 성분의 4개의 샘플들에 대응되는 경우, 제1 색 성분의 4개의 샘플들을 서브 샘플링하여, 1개의 대응 샘플을 계산할 수 있다. 이 경우, 선형 모델의 파라미터 유도 및 색 성분간 화면 내 예측은 서브 샘플링된 대응 샘플에 기초하여 수행될 수 있다. 색 성분간 화면내 예측의 수행 여부 및/또는 템플릿의 범위는 화면내 예측 모드로서 시그널링될 수 있다.
현재 블록은 가로 또는 세로 방향으로 2개 또는 4개의 서브 블록들로 분할될 수 있다. 분할된 서브 블록들은 순차적으로 복원될 수 있다. 즉, 서브 블록에 대해 화면 내 예측이 수행되어 서브 예측 블록이 생성될 수 있다. 또한, 서브 블록에 대해 역양자화 및/또는 역변환이 수행되어 서브 잔차 블록이 생성될 수 있다. 서브 예측 블록을 서브 잔차 블록에 더해서 복원된 서브 블록이 생성될 수 있다. 복원된 서브 블록은 후순위 서브 블록의 화면 내 예측을 위한 참조 샘플로서 이용될 수 있다. 서브 블록은 소정 개수(예컨대, 16개) 이상의 샘플들을 포함하는 블록일 수 있다. 따라서, 예컨대, 현재 블록이 8x4 블록 또는 4x8 블록의 경우, 현재 블록은 2개의 서브 블록들로 분할될 수 있다. 또한, 현재 블록이 4x4 블록인 경우, 현재 블록은 서브 블록들로 분할될 수 없다. 현재 블록이 그 외의 크기를 갖는 경우, 현재 블록은 4개의 서브 블록들로 분할될 수 있다. 상기 서브 블록 기반의 화면 내 예측의 수행 여부 및/또는 분할 방향(가로 또는 세로)에 관한 정보가 시그널링될 수 있다. 상기 서브 블록 기반의 화면 내 예측은 참조 샘플 라인 0을 이용하는 경우에만 수행되도록 제한될 수 있다. 상기 서브 블록 기반의 화면 내 예측이 수행되는 경우, 후술하는 예측 블록에 대한 필터링은 수행되지 않을 수 있다.
화면내 예측된 예측 블록에 필터링을 수행하여 최종 예측 블록을 생성할 수 있다. 상기 필터링은 필터링 대상 샘플, 좌측 참조 샘플, 상단 참조 샘플 및/또는 좌상단 참조 샘플에 소정의 가중치를 적용함으로써 수행될 수 있다. 상기 필터링에 이용되는 가중치 및/또는 참조 샘플(범위, 위치 등)은 블록 크기, 화면내 예측 모드 및 필터링 대상 샘플의 예측 블록 내 위치 중 적어도 하나에 기초하여 결정될 수 있다. 상기 필터링은 소정의 화면내 예측 모드(예컨대, DC, planar, 수직, 수평, 대각 및/또는 인접 대각 모드)의 경우에만 수행될 수 있다. 인접 대각 모드는 대각 모드에 k를 가감한 모드일 수 있다. 예컨대, k는 8 이하의 양의 정수일 수 있다.
현재 블록의 화면 내 예측 모드는 현재 블록의 주변에 존재하는 블록의 화면 내 예측 모드로부터 예측하여 엔트로피 부호화/복호화할 수 있다. 현재 블록과 주변 블록의 화면 내 예측 모드가 동일하면 소정의 플래그 정보를 이용하여 현재 블록과 주변 블록의 화면 내 예측 모드가 동일하다는 정보를 시그널링할 수 있다. 또한, 복수 개의 주변 블록의 화면 내 예측 모드 중 현재 블록의 화면 내 예측 모드와 동일한 화면 내 예측 모드에 대한 지시자 정보를 시그널링 할 수 있다. 현재 블록과 주변 블록의 화면 내 예측 모드가 상이하면 주변 블록의 화면 내 예측 모드를 기초로 엔트로피 부호화/복호화를 수행하여 현재 블록의 화면 내 예측 모드 정보를 엔트로피 부호화/복호화할 수 있다.
도 5는 화면 간 예측 과정의 실시예를 설명하기 위한 도면이다.
도 5에 도시된 사각형은 영상을 나타낼 수 있다. 또한, 도 5에서 화살표는 예측 방향을 나타낼 수 있다. 각 영상은 부호화 타입에 따라 I 픽처(Intra Picture), P 픽처(Predictive Picture), B 픽처(Bi-predictive Picture) 등으로 분류될 수 있다.
I 픽처는 화면 간 예측 없이 화면 내 예측을 통해 부호화/복호화될 수 있다. P 픽처는 단방향(예컨대, 순방향 또는 역방향)에 존재하는 참조 영상만을 이용하는 화면 간 예측을 통해 부호화/복호화될 수 있다. B 픽처는 쌍방향(예컨대, 순방향 및 역방향)에 존재하는 참조 영상들을 이용하는 화면 간 예측을 통해 부호화/복호화 될 수 있다. 또한, B 픽처인 경우, 쌍방향에 존재하는 참조 영상들을 이용하는 화면 간 예측 또는 순방향 및 역방향 중 일 방향에 존재하는 참조 영상을 이용하는 화면 간 예측을 통해 부호화/복호화될 수 있다. 여기에서, 쌍방향은 순방향 및 역방향일 수 있다. 여기서, 화면 간 예측이 사용되는 경우, 부호화기에서는 화면 간 예측 또는 움직임 보상을 수행할 수 있고, 복호화기에서는 그에 대응하는 움직임 보상을 수행할 수 있다.
아래에서, 실시예에 따른 화면 간 예측에 대해 구체적으로 설명된다.
화면 간 예측 또는 움직임 보상은 참조 영상 및 움직임 정보를 이용하여 수행될 수 있다.
현재 블록에 대한 움직임 정보는 부호화 장치(100) 및 복호화 장치(200)의 각각에 의해 화면 간 예측 중 도출될 수 있다. 움직임 정보는 복원된 주변 블록의 움직임 정보, 콜 블록(collocated block; col block)의 움직임 정보 및/또는 콜 블록에 인접한 블록을 이용하여 도출될 수 있다. 콜 블록은 이미 복원된 콜 픽처(collocated picture; col picture) 내에서 현재 블록의 공간적 위치에 대응하는 블록일 수 있다. 여기서, 콜 픽처는 참조 영상 리스트에 포함된 적어도 하나의 참조 영상 중에서 하나의 픽처일 수 있다.
움직임 정보의 도출 방식은 현재 블록의 예측 모드에 따라 다를 수 있다. 예를 들면, 화면 간 예측을 위해 적용되는 예측 모드로서, AMVP 모드, 머지 모드, 스킵 모드, 움직임 벡터 차분을 가진 머지 모드, 서브 블록 머지 모드, 삼각 분할 모드, 인터 인트라 결합 예측 모드, 어파인 인터 모드 등이 있을 수 있다. 여기서 머지 모드를 움직임 병합 모드(motion merge mode)라고 지칭할 수 있다.
예를 들면, 예측 모드로서, AMVP가 적용되는 경우, 복원된 주변 블록의 움직임 벡터, 콜 블록의 움직임 벡터, 콜 블록에 인접한 블록의 움직임 벡터, (0, 0) 움직임 벡터 중 적어도 하나를 움직임 벡터 후보로 결정하여 움직임 벡터 후보 리스트(motion vector candidate list)를 생성할 수 있다. 생성된 움직임 벡터 후보 리스트를 이용하여 움직임 벡터 후보를 유도할 수 있다. 유도된 움직임 벡터 후보를 기반으로 현재 블록의 움직임 정보를 결정할 수 있다. 여기서, 콜 블록의 움직임 벡터 또는 콜 블록에 인접한 블록의 움직임 벡터를 시간적 움직임 벡터 후보(temporal motion vector candidate)라 지칭할 수 있고, 복원된 주변 블록의 움직임 벡터를 공간적 움직임 벡터 후보(spatial motion vector candidate)라 지칭할 수 있다.
부호화 장치(100)는 현재 블록의 움직임 벡터 및 움직임 벡터 후보 간의 움직임 벡터 차분(MVD: Motion Vector Difference)을 계산할 수 있고, MVD를 엔트로피 부호화할 수 있다. 또한, 부호화 장치(100)는 움직임 벡터 후보 색인을 엔트로피 부호화하여 비트스트림을 생성할 수 있다. 움직임 벡터 후보 색인은 움직임 벡터 후보 리스트에 포함된 움직임 벡터 후보 중에서 선택된 최적의 움직임 벡터 후보를 지시할 수 있다. 복호화 장치(200)는 움직임 벡터 후보 색인을 비트스트림으로부터 엔트로피 복호화하고, 엔트로피 복호화된 움직임 벡터 후보 색인을 이용하여 움직임 벡터 후보 리스트에 포함된 움직임 벡터 후보 중에서 복호화 대상 블록의 움직임 벡터 후보를 선택할 수 있다. 또한, 복호화 장치(200)는 엔트로피 복호화된 MVD 및 움직임 벡터 후보의 합을 통해 복호화 대상 블록의 움직임 벡터를 도출할 수 있다.
한편, 부호화 장치(100)는 계산된 MVD의 해상도 정보를 엔트로피 부호화할 수 있다. 복호화 장치(200)는 MVD 해상도 정보를 이용하여 엔트로피 복호화된 MVD의 해상도를 조정할 수 있다.
한편, 부호화 장치(100)는 어파인 모델에 기반하여 현재 블록의 움직임 벡터 및 움직임 벡터 후보 간의 움직임 벡터 차분(MVD: Motion Vector Difference)을 계산할 수 있고, MVD를 엔트로피 부호화할 수 있다. 복호화 장치(200)는 엔트로피 복호화된 MVD 및 어파인 제어 움직임 벡터 후보의 합을 통해 복호화 대상 블록의 어파인 제어 움직임 벡터를 도출하여 서브 블록 단위로 움직임 벡터를 유도할 수 있다.
비트스트림은 참조 영상을 지시하는 참조 영상 색인 등을 포함할 수 있다. 참조 영상 색인은 엔트로피 부호화되어 비트스트림을 통해 부호화 장치(100)로부터 복호화 장치(200)로 시그널링될 수 있다. 복호화 장치(200)는 유도된 움직임 벡터와 참조 영상 색인 정보에 기반하여 복호화 대상 블록에 대한 예측 블록을 생성할 수 있다.
움직임 정보의 도출 방식의 다른 예로, 머지 모드가 있다. 머지 모드란 복수의 블록들에 대한 움직임의 병합을 의미할 수 있다. 머지 모드는 현재 블록의 움직임 정보를 주변 블록의 움직임 정보로부터 유도하는 모드를 의미할 수 있다. 머지 모드가 적용되는 경우, 복원된 주변 블록의 움직임 정보 및/또는 콜 블록의 움직임 정보를 이용하여 머지 후보 리스트(merge candidate list)를 생성할 수 있다. 움직임 정보는 1) 움직임 벡터, 2) 참조 영상 색인, 및 3) 화면 간 예측 지시자 중 적어도 하나를 포함할 수 있다. 예측 지시자는 단방향 (L0 예측, L1 예측) 또는 쌍방향일 수 있다.
머지 후보 리스트는 움직임 정보들이 저장된 리스트를 나타낼 수 있다. 머지 후보 리스트에 저장되는 움직임 정보는, 현재 블록에 인접한 주변 블록의 움직임 정보(공간적 머지 후보(spatial merge candidate)) 및 참조 영상에서 현재 블록에 대응되는(collocated) 블록의 움직임 정보(시간적 머지 후보(temporal merge candidate)), 이미 머지 후보 리스트에 존재하는 움직임 정보들의 조합에 의해 생성된 새로운 움직임 정보, 현재 블록 이전에 부호화/복호화된 블록의 움직임 정보(히스토리 기반 머지 후보(history-based merge candidate)) 및 제로 머지 후보 중 적어도 하나일 수 있다.
부호화 장치(100)는 머지 플래그(merge flag) 및 머지 색인(merge index) 중 적어도 하나를 엔트로피 부호화하여 비트스트림을 생성한 후 복호화 장치(200)로 시그널링할 수 있다. 머지 플래그는 블록 별로 머지 모드를 수행할지 여부를 나타내는 정보일 수 있고, 머지 색인은 현재 블록에 인접한 주변 블록들 중 어떤 블록과 머지를 할 것인가에 대한 정보일 수 있다. 예를 들면, 현재 블록의 주변 블록들은 현재 블록의 좌측 인접 블록, 상단 인접 블록 및 시간적 인접 블록 중 적어도 하나를 포함할 수 있다.
한편, 부호화 장치(100)는 머지 후보의 움직임 정보 중 움직임 벡터를 보정하기 위한 보정 정보를 엔트로피 부호화하여 복호화 장치(200)로 시그널링할 수 있다. 복호화 장치(200)는 머지 색인에 의해 선택된 머지 후보의 움직임 벡터를 보정 정보에 기초하여 보정할 수 있다. 여기서, 보정 정보는 보정 여부 정보, 보정 방향 정보 및 보정 크기 정보 중 적어도 하나를 포함할 수 있다. 위와 같이, 시그널링되는 보정 정보를 기초로 머지 후보의 움직임 벡터를 보정하는 예측 모드를 움직임 벡터 차분을 가진 머지 모드로 칭할 수 있다.
스킵 모드는 주변 블록의 움직임 정보를 그대로 현재 블록에 적용하는 모드일 수 있다. 스킵 모드가 사용되는 경우, 부호화 장치(100)는 어떤 블록의 움직임 정보를 현재 블록의 움직임 정보로서 이용할 것인지에 대한 정보를 엔트로피 부호화하여 비트스트림을 통해 복호화 장치(200)에 시그널링할 수 있다. 이때, 부호화 장치(100)는 움직임 벡터 차분 정보, 부호화 블록 플래그 및 변환 계수 레벨(양자화된 레벨) 중 적어도 하나에 관한 구문 요소를 복호화 장치(200)에 시그널링하지 않을 수 있다.
서브 블록 머지 모드(subblock merge mode)는, 부호화 블록(CU)의 서브 블록 단위로 움직임 정보를 유도하는 모드를 의미할 수 있다. 서브 블록 머지 모드가 적용되는 경우, 참조 영상에서 현재 서브 블록에 대응되는(collocated) 서브 블록의 움직임 정보 (서브블록 기반 시간적 머지 후보(Sub-block based temporal merge candidate)) 및/또는 어파인 제어 포인트 움직임 벡터 머지 후보(affine control point motion vector merge candidate)를 이용하여 서브 블록 머지 후보 리스트(subblock merge candidate list)가 생성될 수 있다.
기하 분할 모드(geometric partitioning mode)는, 현재 블록을 소정의 방향으로 분할하여 각각의 움직임 정보를 유도하고, 유도된 각각의 움직임 정보를 이용하여 각각의 예측 샘플을 유도하고, 유도된 각각의 예측 샘플을 가중합하여 현재 블록의 예측 샘플을 유도하는 모드를 의미할 수 있다.
인터 인트라 결합 예측 모드는, 화면 간 예측으로 생성된 예측 샘플과 화면 내 예측으로 생성된 예측 샘플을 가중합하여 현재 블록의 예측 샘플을 유도하는 모드를 의미할 수 있다.
복호화 장치(200)는 도출된 움직임 정보를 자체적으로 보정할 수 있다. 복호화 장치(200)는 도출된 움직임 정보가 지시하는 참조 블록을 기준으로 기정의된 구역 탐색하여 최소의 SAD를 갖는 움직임 정보를 보정된 움직임 정보로 유도할 수 있다.
복호화 장치(200)는 광학적 흐름(Optical Flow)을 이용하여 화면 간 예측을 통해 유도된 예측 샘플을 보상할 수 있다.
도 6은 변환 및 양자화의 과정을 설명하기 위한 도면이다.
도 6에 도시된 바와 같이 잔여 신호에 변환 및/또는 양자화 과정을 수행하여 양자화된 레벨이 생성될 수 있다. 상기 잔여 신호는 원본 블록과 예측 블록(화면 내 예측 블록 또는 화면 간 예측 블록) 간의 차분으로 생성될 수 있다. 여기에서, 예측 블록은 화면 내 예측 또는 화면 간 예측에 의해 생성된 블록일 수 있다. 여기서, 변환은 1차 변환 및 2차 변환 중 적어도 하나를 포함할 수 있다. 잔여 신호에 대해서 1차 변환을 수행하면 변환 계수가 생성될 수 있고, 변환 계수에 2차 변환을 수행하여 2차 변환 계수를 생성할 수 있다.
1차 변환(Primary Transform)은 기-정의된 복수의 변환 방법 중 적어도 하나를 이용하여 수행될 수 있다. 일 예로, 기-정의된 복수의 변환 방법은 DCT(Discrete Cosine Transform), DST(Discrete Sine Transform) 또는 KLT(Karhunen-Loeve Transform) 기반 변환 등을 포함할 수 있다. 1차 변환이 수행 후 생성되는 변환 계수에 2차 변환(Secondary Transform)을 수행할 수 있다. 1차 변환 및/또는 2차 변환시에 적용되는 변환 방법은 현재 블록 및/또는 주변 블록의 부호화 파라미터 중 적어도 하나에 따라 결정될 수 있다. 또는 변환 방법을 지시하는 변환 정보가 시그널링될 수도 있다. DCT 기반 변환은 예컨대, DCT2, DCT-8 등을 포함할 수 있다. DST 기반 변환은 예컨대, DST-7을 포함할 수 있다.
1차 변환 및/또는 2차 변환이 수행된 결과 또는 잔여 신호에 양자화를 수행하여 양자화된 레벨을 생성할 수 있다. 양자화된 레벨은 화면 내 예측 모드 또는 블록 크기/형태 중 적어도 하나를 기준으로 우상단 대각 스캔, 수직 스캔, 수평 스캔 중 적어도 하나에 따라 스캐닝(scanning) 될 수 있다. 예를 들어, 우상단(up-right) 대각 스캐닝을 이용하여 블록의 계수를 스캔함으로써 1차원 벡터 형태로 변경시킬 수 있다. 변환 블록의 크기 및/또는 화면 내 예측 모드에 따라 우상단 대각 스캔 대신 2차원의 블록 형태 계수를 열 방향으로 스캔하는 수직 스캔, 2차원의 블록 형태 계수를 행 방향으로 스캔하는 수평 스캔이 사용될 수도 있다. 스캐닝된 양자화된 레벨은 엔트로피 부호화되어 비트스트림에 포함될 수 있다.
복호화기에서는 비트스트림을 엔트로피 복호화하여 양자화된 레벨을 생성할 수 있다. 양자화된 레벨은 역 스캐닝(Inverse Scanning)되어 2차원의 블록 형태로 정렬될 수 있다. 이때, 역 스캐닝의 방법으로 우상단 대각 스캔, 수직 스캔, 수평 스캔 중 적어도 하나가 수행될 수 있다.
양자화된 레벨에 역양자화를 수행할 수 있고, 2차 역변환 수행 여부에 따라 2차 역변환을 수행할 수 있고, 2차 역변환이 수행된 결과에 1차 역변환 수행 여부에 따라 1차 역변환을 수행하여 복원된 잔여 신호가 생성될 수 있다.
화면 내 예측 또는 화면 간 예측을 통해 복원된 휘도 성분에 대해 인루프 필터링 전에 동적 범위(dynamic range)의 역매핑(inverse mapping)이 수행될 수 있다. 동적 범위는 16개의 균등한 조각(piece)으로 분할될 수 있고, 각 조각에 대한 매핑 함수가 시그널링될 수 있다. 상기 매핑 함수는 슬라이스 레벨 또는 타일 그룹 레벨에서 시그널링될 수 있다. 상기 역매핑을 수행하기 위한 역매핑 함수는 상기 매핑 함수에 기초하여 유도될 수 있다. 인루프 필터링, 참조 픽처의 저장 및 움직임 보상은 역매핑된 영역에서 수행되며, 화면 간 예측을 통해 생성된 예측 블록은 상기 매핑 함수를 이용한 매핑에 의해 매핑된 영역으로 전환된 후, 복원 블록의 생성에 이용될 수 있다. 그러나, 화면 내 예측은 매핑된 영역에서 수행되므로, 화면 내 예측에 의해 생성된 예측 블록은 매핑/역매핑 없이, 복원 블록의 생성에 이용될 수 있다.
현재 블록이 색차 성분의 잔차 블록인 경우, 매핑된 영역의 색차 성분에 대해 스케일링을 수행함으로써 상기 잔차 블록은 역매핑된 영역으로 전환될 수 있다. 상기 스케일링의 가용 여부는 슬라이스 레벨 또는 타일 그룹 레벨에서 시그널링될 수 있다. 상기 스케일링은 루마 성분에 대한 상기 매핑이 가용하고 휘도 성분의 분할과 색차 성분의 분할이 동일한 트리 구조를 따르는 경우에만 상기 스케일링이 적용될 수 있다. 상기 스케일링은 상기 색차 블록에 대응하는 휘도 예측 블록의 샘플값의 평균에 기초하여 수행될 수 있다. 이 때, 현재 블록이 화면 간 예측을 사용하는 경우, 상기 휘도 예측 블록은 매핑된 휘도 예측 블록을 의미할 수 있다. 휘도 예측 블록의 샘플값의 평균이 속하는 조각(piece)의 인덱스를 이용하여, 룩업테이블을 참조함으로써, 상기 스케일링에 필요한 값을 유도할 수 있다. 최종적으로 상기 유도된 값을 이용하여 상기 잔차 블록을 스케일링함으로써, 상기 잔차 블록은 역매핑된 영역으로 전환될 수 있다. 이 후의 색차 성분 블록의 복원, 화면 내 예측, 화면 간 예측, 인루프 필터링 및 참조 픽처의 저장은 역매핑된 영역에서 수행될 수 있다.
상기 휘도 성분 및 색차 성분의 매핑/역매핑이 가용한지 여부를 나타내는 정보는 시퀀스 파라미터 셋을 통해 시그널링될 수 있다.
현재 블록의 예측 블록은 현재 블록과 현재 픽처 내 참조 블록 사이의 위치 이동(displacement)을 나타내는 블록 벡터에 기초하여 생성될 수 있다. 이와 같이, 현재 픽처를 참조하여 예측 블록을 생성하는 예측 모드를 화면내 블록 카피(Intra Block Copy, IBC) 모드라고 명명할 수 있다. IBC 모드는 MxN(M<=64, N<=64) 부호화 유닛에 적용될 수 있다. IBC 모드는 스킵 모드, 머지 모드, AMVP 모드 등을 포함할 수 있다. 스킵 모드 또는 머지 모드의 경우, 머지 후보 리스트가 구성되고, 머지 인덱스가 시그널링되어 하나의 머지 후보가 특정될 수 있다. 상기 특정된 머지 후보의 블록 벡터가 현재 블록의 블록 벡터로서 이용될 수 있다. 머지 후보 리스트는 공간적 후보, 히스토리에 기반한 후보 , 두개 후보의 평균에 기반한 후보 또는 제로 머지 후보 등 적어도 하나 이상을 포함할 수 있다. AMVP 모드의 경우, 차분 블록 벡터가 시그널링될 수 있다. 또한, 예측 블록 벡터는 현재 블록의 좌측 이웃 블록 및 상단 이웃 블록으로부터 유도될 수 있다. 어느 이웃 블록을 이용할지에 관한 인덱스는 시그널링될 수 있다. IBC 모드의 예측 블록은 현재 CTU 또는 좌측 CTU에 포함되고, 기 복원된 영역내의 블록으로 한정될 수 있다. 예를 들어, 현재 블록의 예측 블록은, 현재 블록이 속한 64x64 블록보다 부호화/복호화 순서상 앞선 3개의 64x64 블록 영역내에 위치하도록 블록 벡터의 값이 제한될 수 있다. 이와 같이 블록 벡터의 값을 제한함으로써, IBC 모드 구현에 따른 메모리 소비와 장치의 복잡도를 경감할 수 있다.
이하에서는, 도 8 내지 도 55를 참고하여, 본 발명의 일 실시 예에 따른 부표본 기반의 블록 분류를 이용한 루프내 필터링 방법에 대해 후술한다.
본 발명에서 루프내 필터링(in-loop filtering)은 디블록킹 필터링(deblocking filtering), 샘플 적응적 오프셋(sample adaptive offset), 양방향 필터링(bilateral filtering), 적응적 루프내 필터링(adaptive in-loop filtering) 중 적어도 하나를 포함할 수 있다.
화면내/화면간 예측 블록과 복원된 잔여 블록을 합하여 생성된 복원 영상에 상기 디블록킹 필터링과 상기 샘플 적응적 오프셋 중 적어도 하나를 수행하여 복원 영상 내 존재하는 블록킹 현상(blocking artifact)과 링잉 현상(ringing artifact)을 효과적으로 감소시킬 수 있다. 하지만, 디블록킹 필터는 블록의 경계에 대해서 세로 방향 필터링 및 가로 방향 필터링을 수행하여 블록들 사이의 경계에서 발생하는 블록킹 현상을 감소시키는데 목적이 있으나, 디블록킹 필터는 블록 경계 필터링 시에 원본 영상과 복원 영상과의 왜곡을 최소화하지는 못하는 단점이 있다. 또한, 샘플 적응적 오프셋은 링잉 현상 감소를 위해 화소 단위로 인접한 화소들과의 화소 값 비교를 통해 특정 화소에 오프셋을 더해주거나, 화소 값이 특정한 범위에 속하는 화소들에 대해서 오프셋을 더해주는 방법이며, 샘플 적응적 오프셋은 율-왜곡 최적화를 이용하여 원본 영상과 복원 영상과의 왜곡을 일부 최소화하나, 원본 영상과 복원 영상 사이에 왜곡 차이가 클 경우에는 왜곡 최소화 관점에서 한계가 존재한다.
상기 양방향 필터링은 필터링이 수행되는 영역 내 중심 샘플과 영역 내 다른 샘플들 간의 거리와 샘플들의 값의 차이에 따라 필터 계수가 결정되어 필터링을 수행하는 것을 의미할 수 있다.
상기 적응적 루프내 필터링은 복원 영상에 원본 영상과 복원 영상 간의 왜곡을 최소화하는 필터를 적용함으로써 원본 영상과 복원 영상의 왜곡을 최소화하는 필터링을 의미할 수 있다.
본 발명에서 특별한 언급이 없는 한 루프내 필터링은 적응적 루프내 필터링을 의미할 수 있다. 또한, 적응적 루프내 필터는 적응적 루프 필터와 동일한 의미일 수 있다.
본 발명에서 필터링은 샘플, 블록, CU, PU, TU, CTU, 슬라이스, 타일, 타일 그룹, 영상(픽처), 시퀀스 중 적어도 하나의 단위에 필터를 적용하는 것을 의미할 수 있다. 상기 필터링은 블록 분류, 필터링 수행, 필터 정보 부호화/복호화 중 적어도 하나를 포함할 수 있다.
본 발명에서 CU(Coding Unit, 부호화 유닛), PU(Prediction Unit, 예측 유닛), TU(Transform Unit, 변환 유닛), CTU(Coding Tree Unit, 부호화 트리 유닛)는 각각 CB(Coding Block, 부호화 블록), PB(Prediction Block, 예측 블록), TB(Transform Block, 변환 블록), CTB(Coding Tree Block, 부호화 트리 블록)와 동일한 의미일 수 있다.
본 발명에서 블록은 CU, PU, TU, CB, PB, TB 등 부호화/복호화 과정 내에서 사용되는 블록 또는 유닛 단위 중 적어도 하나를 의미할 수 있다.
상기 루프내 필터링은 양방향 필터링, 디블록킹 필터링, 샘플 적응적 오프셋, 적응적 루프내 필터링 순서대로 복원 영상에 적용되어 복호 영상을 생성할 수 있다. 하지만, 루프내 필터링에 포함되는 필터링들 간 순서를 변경하여 복원 영상에 적용하여 복호 영상을 생성할 수 있다.
일 예로, 디블록킹 필터링, 샘플 적응적 오프셋, 적응적 루프내 필터링 순서대로 복원 영상에 루프내 필터링을 적용할 수 있다.
다른 예로, 양방향 필터링, 적응적 루프내 필터링, 디블록킹 필터링, 샘플 적응적 오프셋 순서대로 복원 영상에 루프내 필터링을 적용할 수 있다.
또 다른 예로, 적응적 루프내 필터링, 디블록킹 필터링, 샘플 적응적 오프셋 순서대로 복원 영상에 루프내 필터링을 적용할 수 있다.
또 다른 예로, 적응적 루프내 필터링, 샘플 적응적 오프셋, 디블록킹 필터링 순서대로 복원 영상에 루프내 필터링을 적용할 수 있다.
본 발명에서 복호 영상은 화면내 예측 블록 또는 화면간 예측 블록에 복원된 잔여 블록을 더하여 생성되는 복원된 블록으로 구성된 복원 영상에 루프내 필터링 또는 후처리 필터링을 수행한 결과 영상을 의미할 수 있다. 또한, 본 발명에서 복호 샘플/블록/CTU/영상 등과 복원 샘플/블록/CTU/영상 등의 의미는 서로 다르지 않고 동일한 것을 의미할 수도 있다.
상기 적응적 루프내 필터링은 복원 영상에 수행되어 복호 영상을 생성할 수 있다. 또는 적응적 루프내 필터링은 디블록킹 필터링, 샘플 적응적 오프셋, 양방향 필터링 중 적어도 하나 이상이 수행된 복호 영상에 수행될 수 있다. 또한, 적응적 루프내 필터링은 적응적 루프내 필터링이 수행된 복호 영상에 수행될 수 있다. 이 경우, 적응적 루프내 필터링을 복원 또는 복호 영상에 N차례 반복적으로 수행할 수 있다. 이때, N은 양의 정수이다.
상기 루프내 필터링 방법 중 적어도 하나의 필터링이 수행된 복호 영상에 루프내 필터링을 수행할 수 있다. 예를 들어, 루프내 필터링 방법 중 적어도 하나가 수행된 복호 영상에 루프내 필터링 방법 중 적어도 다른 하나의 필터링이 수행될 경우, 상기 루프내 필터링 방법 중 적어도 다른 하나에 사용되는 파라미터가 변경되고, 파라미터가 변경된 루프내 필터링 방법이 상기 복호 영상에 수행될 수 있다. 이때, 상기 파라미터는 부호화 파라미터, 필터 계수, 필터 탭 수(필터 길이), 필터 형태, 필터 종류, 필터링 수행 횟수, 필터 강도, 임계값 중 적어도 하나를 포함할 수 있다.
상기 필터 계수는 필터를 구성하는 계수를 의미할 수 있고, 복원 샘플에 곱해지는 마스크(mask) 형태에서 특정 마스크 위치에 해당하는 계수 값을 의미할 수 있다.
상기 필터 탭 수는 필터의 길이를 의미하고, 필터가 특정 1가지 방향에 대해 대칭적(symmetric) 특성을 가지면 실제 부호화/복호화 대상이 되는 필터 계수는 반으로 줄어들 수 있다. 또한, 상기 필터 탭은 가로 방향에서 필터의 넓이를 의미하거나, 세로 방향에서 필터의 높이를 의미할 수 있다. 또한, 상기 필터 탭은 2차원 필터 형태에서 가로 방향으로 필터의 넓이와 세로 방향으로 필터의 높이를 함께 의미할 수 있다. 또한, 필터는 특정 2가지 이상 방향에 대해 대칭적 특징을 가질 수 있다.
상기 필터 형태는 필터가 마스크 형태를 가질 경우, 필터 형태는 마름모(diamond/rhombus), 직사각형(non-square), 정사각형(square), 사다리꼴(trapezoid), 대각(diagonal), 눈송이(snowflake), 샵(sharp), 클로버(clover), 십자가(cross), 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 등 2차원으로 표현될 수 있는 기하학적 도형 또는 이들의 결합된 형태를 의미할 수 있다. 또는, 필터 형태는 3차원 필터를 2차원으로 투사(projection)시킨 형태일 수 있다.
상기 필터 종류는 위너 필터(Wiener filter), 저역 통과 필터(low-pass filter), 고역 통과 필터(high-pass filter), 선형 필터(linear filter), 비선형 필터(non-linear filter), 양방향 필터(bilateral filter) 등의 필터를 의미할 수 있다.
본 발명에서는 상기 다양한 필터 종류 중 위너 필터를 위주로 설명하나, 이에 한정되는 것은 아니고 상기 다양한 필터 종류에 대해서 본 발명의 실시예 또는 실시예의 조합이 적용될 수 있다.
적응적 루프내 필터링의 필터 종류로 위너 필터(Wiener filter)를 이용할 수 있다. 위너 필터는 최적의 선형 필터(optimal linear filter)로 영상 내 잡음(noise), 블러링(blurring), 왜곡(distortion)을 효과적으로 제거하여 부호화 효율을 향상하는데 그 목적이 있다. 이때, 위너 필터는 원본 영상과 복원/복호 영상 사이의 왜곡을 최소화하도록 설계될 수 있다.
상기 필터링 방법 중 적어도 하나는 부호화 과정 또는 복호화 과정 내에서 수행될 수 있다. 이때, 부호화 과정 또는 복호화 과정은 슬라이스, 타일, 타일 그룹, 픽처, 시퀀스, CTU, 블록, CU, PU, TU 단위 중 적어도 하나의 단위로 부호화 과정 또는 복호화 과정이 수행되는 것을 의미할 수 있다. 상기 필터링 방법 중 적어도 하나는 슬라이스, 타일, 타일 그룹, 픽처 등의 단위로 부호화 과정 또는 복호화 과정 내에서 수행될 수 있다. 예를 들어, 위너 필터는 적응적 루프내 필터링 형태로 부호화 과정 또는 복호화 과정 내에서 수행될 수 있다. 즉, 적응적 루프내 필터링에서 루프내의 의미는 부호화 과정 또는 복호화 과정 내에서 필터링이 수행된다는 의미이다. 적응적 루프내 필터링이 수행될 경우, 적응적 루프내 필터링이 수행된 복호 영상은 차후 부호화/복호화되는 영상의 참조 영상으로 사용될 수 있다. 이때, 차후 부호화/복호화되는 영상에서는 적응적 루프내 필터링이 수행된 복호 영상을 참조하여 화면간 예측 또는 움직임 보상을 수행할 수 있으므로 적응적 루프내 필터링이 수행된 복호 영상의 부호화 효율이 향상될 뿐만 아니라, 상기 차후 부호화/복호화되는 영상의 부호화 효율도 향상될 수 있다.
또한, 상기 필터링 방법 중 적어도 하나는 CTU 단위 또는 블록 단위의 부호화 과정 또는 복호화 과정 내에서 수행될 수 있다. 예를 들어, 위너 필터는 적응적 루프내 필터링 형태로 CTU 단위 또는 블록 단위의 부호화 과정 또는 복호화 과정 내에서 수행될 수 있다. 즉, 적응적 루프내 필터링에서 루프내의 의미는 CTU 단위 또는 블록 단위의 부호화 과정 또는 복호화 과정 내에서 필터링이 수행된다는 의미이다. CTU 단위 또는 블록 단위에서 적응적 루프내 필터링이 수행될 경우, 적응적 루프내 필터링이 수행된 복호 CTU 또는 복호 블록은 차후 부호화/복호화되는 CTU 또는 블록의 참조 CTU 또는 참조 블록으로 사용될 수도 있다. 이때, 차후 부호화/복호화되는 CTU 또는 블록에서는 적응적 루프내 필터링이 수행된 복호 CTU 또는 복호 블록을 참조하여 화면내 예측 등을 수행할 수 있으므로 적응적 루프내 필터링이 수행된 복호 CTU 또는 복호 블록의 부호화 효율이 향상될 뿐만 아니라, 상기 차후 부호화/복호화되는 CTU 또는 블록의 부호화 효율도 향상될 수 있다.
또한, 상기 필터링 방법 중 적어도 하나는 후처리 필터(post filter) 형태로 복호화 과정 후에 수행될 수 있다. 예를 들어, 위너 필터는 후처리 필터 형태로 복호화 과정 후에 수행될 수 있다. 위너 필터가 복호화 과정 후에 수행될 경우, 영상 출력(디스플레이) 전에 복원/복호 영상에 위너 필터가 수행될 수 있다. 후처리 필터링이 수행될 경우, 후처리 필터링이 수행된 복호 영상은 차후 부호화/복호화되는 영상의 참조 영상으로 사용될 수 없다.
적응적 루프내 필터링은 블록 기반의 필터 적응을 사용할 수 있다. 여기서, 블록 기반의 필터 적응이란 다수 개의 필터 중에 블록 별로 사용되는 필터가 적응적으로 선택된다는 것을 의미할 수 있다. 상기 블록 기반의 필터 적응은 블록 분류를 의미할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 영상 복호화 방법을 나타내는 흐름도이다.
도 7을 참조하면, 복호화기는 부호화 유닛에 대한 필터 정보를 복호화할 수 있다(S701).
상기 필터 정보는 부호화 유닛에 대해서만 한정되는 것은 아니고, 슬라이스, 타일, 타일 그룹, 픽처, 시퀀스, CTU, 블록, CU, PU, TU 등에 대한 필터 정보를 의미할 수 있다.
한편, 상기 필터 정보는, 필터링 수행 여부, 필터 계수 값, 필터 개수, 필터 탭 수(필터 길이) 정보, 필터 형태 정보, 필터 종류 정보, 블록 분류 색인에 대한 고정된 필터 사용 여부 정보 및 필터의 대칭 형태에 관한 정보 중 적어도 하나를 포함할 수 있다.
한편, 상기 필터 형태 정보는 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 형태 중 적어도 하나의 정보를 포함할 수 있다.
한편, 상기 필터 계수 값은 블록 분류 단위로 분류된 블록에 기반하여 기하학적 변환된 필터 계수 값을 포함할 수 있다.
한편, 필터의 대칭 형태에 관한 정보는 점 대칭, 가로 대칭, 세로 대칭 및 대각 대칭 형태 중 적어도 하나 이상의 정보를 포함할 수 있다.
또한, 복호화기는 상기 부호화 유닛을 블록 분류 단위로 분류할 수 있다(S702). 또한, 복호화기는 상기 블록 분류 단위로 분류된 부호화 유닛에 블록 분류 색인을 할당할 수 있다.
상기 블록 분류는 부호화 유닛 단위로 수행되는 것만 한정하는 것은 아니고, 슬라이스, 타일, 타일 그룹, 픽처, 시퀀스, CTU, 블록, CU, PU, TU 등의 단위에서 수행될 수 있다.
한편, 상기 블록 분류 색인은 방향성 정보와 활동성 정보를 이용하여 결정될 수 있다.
한편, 상기 방향성 정보 및 활동성 정보 중 적어도 하나는 세로, 가로, 제1 대각, 제2 대각 방향 중 적어도 하나에 대한 기울기(gradient) 값에 기반하여 결정될 수 있다.
한편, 상기 기울기 값은 상기 블록 분류 단위에서의 1D 라플라시안 연산을 이용하여 획득될 수 있다.
한편, 상기 1D 라플라시안 연산은 상기 연산의 수행 위치가 서브샘플링된 1D 라플라시안 연산일 수 있다.
한편, 상기 기울기 값은 시간적 계층 식별자(temporal layer identifier)에 기반하여 결정될 수 있다.
또한, 복호화기는 상기 필터 정보를 이용하여 상기 블록 분류 단위로 분류된 부호화 유닛을 필터링할 수 있다(S703).
상기 필터링의 대상은 부호화 유닛으로 한정되는 것은 아니고, 슬라이스, 타일, 타일 그룹, 픽처, 시퀀스, CTU, 블록, CU, PU, TU 등에서 필터링이 수행될 수 있다.
도 8은 본 발명의 일 실시 예에 따른 영상 부호화 방법을 나타내는 흐름도이다.
도 8을 참조하면, 부호화기는 부호화 유닛을 블록 분류 단위로 분류할 수 있다(S801). 또한, 부호화기는 상기 블록 분류 단위로 분류된 부호화 유닛에 블록 분류 색인을 할당할 수 있다.
상기 블록 분류는 부호화 유닛 단위로 수행되는 것만 한정하는 것은 아니고, 슬라이스, 타일, 타일 그룹, 픽처, 시퀀스, CTU, 블록, CU, PU, TU 등의 단위에서 수행될 수 있다.
한편, 상기 블록 분류 색인은 방향성 정보와 활동성 정보를 이용하여 결정될 수 있다.
한편, 상기 방향성 정보 및 활동성 정보 중 적어도 하나는 세로, 가로, 제1 대각, 제2 대각 방향 중 적어도 하나에 대한 기울기 값에 기반하여 결정될 수 있다.
한편, 상기 기울기 값은 상기 블록 분류 단위에서의 1D 라플라시안 연산을 이용하여 획득될 수 있다.
한편, 상기 1D 라플라시안 연산은 상기 연산의 수행 위치가 서브샘플링된 1D 라플라시안 연산일 수 있다.
한편, 상기 기울기 값은 시간적 계층 식별자에 기반하여 결정될 수 있다.
또한, 부호화기는 상기 부호화 유닛에 대한 필터 정보를 이용하여 상기 블록 분류 단위로 분류된 부호화 유닛을 필터링할 수 있다(S802).
상기 필터링의 대상은 부호화 유닛으로 한정되는 것은 아니고, 슬라이스, 타일, 타일 그룹, 픽처, 시퀀스, CTU, 블록, CU, PU, TU 등에서 필터링이 수행될 수 있다.
한편, 상기 필터 정보는, 필터링 수행 여부, 필터 계수 값, 필터 개수, 필터 탭 수(필터 길이) 정보, 필터 형태 정보, 필터 종류 정보, 블록 분류 색인에 대한 고정된 필터 사용 여부 정보 및 필터의 대칭 형태에 관한 정보 중 적어도 하나를 포함할 수 있다.
한편, 상기 필터 형태 정보는 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 형태 중 적어도 하나의 정보를 포함할 수 있다.
한편, 상기 필터 계수 값은 블록 분류 단위로 분류된 블록에 기반하여 기하학적 변환된 필터 계수 값을 포함할 수 있다.
또한, 부호화기는 상기 필터 정보를 부호화할 수 있다(S803).
상기 필터 정보는 슬라이스, 타일, 타일 그룹, 픽처, 시퀀스, CTU, 블록, CU, PU, TU 등에 대한 필터 정보를 의미할 수 있다.
부호화기에서는 적응적 루프내 필터링은 블록 분류(block classification) 단계, 필터링(filtering) 수행 단계, 필터 정보(filtering information) 부호화 단계로 구성될 수 있다.
보다 상세하게, 부호화기에서는 블록 분류 단계, 필터 계수 유도 단계, 필터링 수행 결정 단계, 필터 형태 결정 단계, 필터링 수행 단계, 필터 정보 부호화 단계 등으로 구성될 수 있다. 상기 필터 계수 유도 단계, 상기 필터링 수행 결정 단계, 상기 필터 형태 결정 단계는 본 발명의 범위에 벗어나므로 본 발명에서 구체적인 언급은 하지 않으나, 대신 아래와 같이 간략하게 설명할 수 있다. 따라서, 부호화기는 블록 분류 단계, 필터링 수행 단계, 필터 정보 부호화 단계 등을 포함할 수 있다.
필터 계수 유도 단계에서는 원본 영상과 필터링이 적용된 영상 사이의 왜곡(distortion)을 최소화하는 관점에서 위너 필터 계수를 유도할 수 있다. 이때, 블록 분류 색인 별로 위너 필터 계수를 유도할 수 있다. 또한, 필터 탭 수 및 필터 형태 중 적어도 하나에 따라 위너 필터 계수를 유도할 수 있다. 위너 필터 계수를 유도할 때, 복원 샘플에 대한 자기 상관 함수(auto-correlation function)와 원본 샘플과 복원 샘플에 대한 상호 상관 함수(cross-correlation function)와 자기 상관 행렬 및 상호 상관 행렬을 유도할 수 있다. 유도된 자기 상관 행렬과 상호 상관 행렬을 이용해서 위너-호프 방정식(Wiener-Hopf equation)을 유도하여 필터 계수를 계산할 수 있다. 이때, 위너-호프 방정식에 가우시안 제거(Gaussian elimination) 방법 또는 촐레스키 분해법(Cholesky decomposition method)을 이용하여 필터 계수를 계산할 수 있다.
필터링 수행 결정 단계에서는 슬라이스/픽처/타일/타일 그룹 단위로 적응적 루프내 필터링을 적용할지, 블록 단위로 적응적 루프내 필터링을 적용할지, 적응적 루프내 필터링을 적용하지 않을지 등을 율-왜곡 최적화(rate-distortion optimization) 관점에서 결정할 수 있다. 여기서, 율(rate)은 부호화해야 할 필터 정보를 포함할 수 있다. 또한, 왜곡은 원본 영상과 복원 영상의 차이 또는 원본 영상과 필터링된 복원 영상과의 차이에 대한 값일 수 있으며, MSE(Mean of Squared Error), SSE(Sum of Squared Error), SAD(Sum of Absolute Difference) 등이 사용될 수 있다. 이때, 필터링 수행 결정 단계에서는 휘도 성분뿐만 아니라 색차 성분에 대한 필터링 수행도 결정할 수 있다.
필터 형태 결정 단계에서는 적응적 루프내 필터링을 적용할 때, 어떤 형태의 필터 형태를 사용할지, 어떤 탭 수의 필터를 사용할지 등을 율-왜곡 최적화 관점에서 결정할 수 있다.
한편, 복호화기에서는 필터 정보 복호화 단계, 블록 분류 단계, 필터링 수행 단계 등을 포함할 수 있다.
본 발명에서 중복되는 설명을 피하기 위해, 필터 정보 부호화 단계와 필터 정보 복호화 단계를 합하여 필터 정보 부호화/복호화 단계로 후술한다.
이하에서는, 블록 분류 단계에 대해서 후술한다.
복원 영상 내 NxM 블록 단위(또는, 블록 분류 단위)로 블록 분류 색인(block classification index)을 할당하여, 각 블록을 L개만큼 분류할 수 있다. 여기서, 복원/복호 영상뿐만 아니라, 복원/복호 슬라이스, 복원/복호 타일 그룹, 복원/복호 타일, 복원/복호 CTU, 복원/복호 블록 등 중 적어도 하나에 대해 블록 분류 색인을 할당할 수 있다.
여기서, N, M, L은 양의 정수일 수 있다. 예를 들어, N과 M은 각각 2, 4, 8, 16, 32 중 하나일 수 있고, L은 4, 8, 16, 20, 25, 32 중 하나일 수 있다. 만약, N과 M이 각각 1이면 블록 단위로 블록 분류가 아닌 샘플 단위의 샘플 분류가 수행될 수 있다. 또한, N과 M이 서로 다른 양의 정수 값을 가지면, NxM 블록 단위가 비정방형 형태를 가질 수 있다. 또한, N과 M이 서로 같은 양의 정수 값을 가질 수 있다.
예를 들어, 복원 영상을 2x2 블록 단위로 총 25가지의 블록 분류 색인을 할당할 수 있다. 예를 들어, 복원 영상을 4x4 블록 단위로 총 25가지의 블록 분류 색인을 할당할 수 있다.
상기 블록 분류 색인은 0부터 L-1의 값을 가질 수 있고, 또는, 1부터 L의 값을 가질 수도 있다.
상기 블록 분류 색인 C는 방향성(directionality) D 값과 활동성(activity) A 값을 양자화한 Aq 값 중 적어도 하나를 기반으로 하며, 수학식 1과 같이 나타낼 수 있다.
Figure PCTKR2020007856-appb-M000001
수학식 1에서 상수 값 5는 일 예이며, J 값을 사용할 수 있다. 이때, J는 L보다 작은 값을 가지는 양의 정수일 수 있다.
본 발명의 일 실시 예에 따를 때, 2x2 블록 분류의 경우, 1D 라플라시안(Laplacian) 연산을 이용하여 세로, 가로, 제1 대각(135도 대각), 제2 대각(45도 대각) 방향에 따른 각각의 기울기(gradient) 값의 합 gv, gh, gd1, gd2는 수학식 2 내지 수학식 5와 같이 나타낼 수 있다. 상기 기울기 값의 합을 이용하여 상기 D 값과 A 값을 도출할 수 있다. 상기 기울기 값의 합은 일 실시 예이며, 기울기 값의 통계 값이 기울기 값의 합을 대체하여 사용될 수 있다.
Figure PCTKR2020007856-appb-M000002
Figure PCTKR2020007856-appb-M000003
Figure PCTKR2020007856-appb-M000004
Figure PCTKR2020007856-appb-M000005
수학식 2 내지 수학식 5에서, i와 j 각각은 2x2 블록 내 좌상단 가로 위치와 세로 위치를 의미하고, R(i,j)는 (i, j) 위치에서의 복원된 샘플 값을 의미할 수 있다.
또한, 수학식 2 내지 수학식 5에서, k와 l 각각은 방향에 따른 샘플 단위 1D 라플라시안 연산의 결과 Vk,l, Hk,l, D1k,l, D2k,l의 합이 계산되는 가로 범위와 세로 범위를 의미할 수 있다. 상기 각각의 방향에 따른 샘플 단위 1D 라플라시안 연산의 결과는 각각의 방향에 따른 샘플 단위 기울기(gradient) 값을 의미할 수 있다. 즉, 1D 라플라시안 연산의 결과는 기울기 값을 의미할 수 있다. 상기 1D 라플라시안 연산은 세로, 가로, 제1 대각, 제2 대각 방향 각각에 대해 수행될 수 있으며, 해당 방향에 대한 기울기 값을 나타낼 수 있다. 또한, 상기 1D 라플라시안 연산은 세로, 가로, 제1 대각, 제2 대각 방향 각각에 대해 수행된 결과가 각각 Vk,l, Hk,l, D1k,l, D2k,l를 의미할 수 있다.
일 예로, k와 l은 서로 같은 범위를 가질 수 있다. 즉, 1D 라플라시안 연산의 합이 계산되는 범위의 가로 길이와 세로 길이가 같을 수 있다.
다른 예로, k와 l은 서로 다른 범위를 가질 수 있다. 즉, 1D 라플라시안 연산의 합이 계산되는 범위의 가로 길이와 세로 길이가 다를 수 있다.
또 다른 예로, k는 i-2에서 i+3의 범위, l은 j-2에서 j+3의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 6x6 크기일 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다.
또 다른 예로, k는 i-1에서 i+2의 범위, l은 j-1에서 j+2의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 4x4 크기일 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다.
또 다른 예로, k는 i에서 i+1의 범위, l은 j에서 j+1의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 2x2 크기일 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기와 동일할 수 있다.
또 다른 예로, 1D 라플라시안 연산의 결과의 합이 계산되는 범위는 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 중 적어도 하나의 2차원 기하학적 형태일 수 있다.
또 다른 예로, 블록 분류 단위의 형태는 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 중 적어도 하나의 2차원 기하학적 형태일 수 있다.
또 다른 예로, 상기 1D 라플라시안 연산의 합이 계산되는 범위는 SxT의 크기를 가질 수 있다. 이때, S와 T는 0을 포함한 양의 정수일 수 있다.
한편, 상기 제1 대각을 나타내는 D1과 상기 제2 대각을 나타내는 D2는 상기 제1 대각을 나타내는 D0와 상기 제2 대각을 나타내는 D1을 의미할 수도 있다.
본 발명의 일 실시 예에 따를 때, 4x4 블록 분류의 경우, 1D 라플라시안 연산을 이용하여 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2는 수학식 6 내지 수학식 9와 같이 나타낼 수 있다. 상기 기울기 값의 합을 이용하여 상기 D 값과 A 값을 도출할 수 있다. 상기 기울기 값의 합은 일 실시예이며, 기울기 값의 통계 값이 기울기 값의 합을 대체하여 사용될 수 있다.
Figure PCTKR2020007856-appb-M000006
Figure PCTKR2020007856-appb-M000007
Figure PCTKR2020007856-appb-M000008
Figure PCTKR2020007856-appb-M000009
수학식 6 내지 수학식 9에서, i와 j 각각은 4x4 블록 내 좌상단 가로 위치와 세로 위치를 의미하고, R(i,j)는 (i, j) 위치에서의 복원된 샘플 값을 의미할 수 있다.
또한, 수학식 6 내지 수학식 9에서, k와 l 각각은 방향에 따른 샘플 단위 1D 라플라시안 연산의 결과 Vk,l, Hk,l, D1k,l, D2k,l의 합이 계산되는 가로 범위와 세로 범위를 의미할 수 있다. 상기 각각의 방향에 따른 샘플 단위 1D 라플라시안 연산의 결과는 각각의 방향에 따른 샘플 단위 기울기(gradient) 값을 의미할 수 있다. 즉, 1D 라플라시안 연산의 결과는 기울기 값을 의미할 수 있다. 상기 1D 라플라시안 연산은 세로, 가로, 제1 대각, 제2 대각 방향 각각에 대해 수행될 수 있으며, 해당 방향에 대한 기울기 값을 나타낼 수 있다. 또한, 상기 1D 라플라시안 연산은 세로, 가로, 제1 대각, 제2 대각 방향 각각에 대해 수행된 결과가 각각 Vk,l, Hk,l, D1k,l, D2k,l를 의미할 수 있다.
일 예로, k와 l은 서로 같은 범위를 가질 수 있다. 즉, 1D 라플라시안 연산의 합이 계산되는 범위의 가로 길이와 세로 길이가 같을 수 있다.
다른 예로, k와 l은 서로 다른 범위를 가질 수 있다. 즉, 1D 라플라시안 연산의 합이 계산되는 범위의 가로 길이와 세로 길이가 다를 수 있다.
또 다른 예로, k는 i-2에서 i+5의 범위, l은 j-2에서 j+5의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 8x8 크기일 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다.
또 다른 예로, k는 i에서 i+3의 범위, l은 j에서 j+3의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 4x4 크기일 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기와 동일할 수 있다.
또 다른 예로, 1D 라플라시안 연산의 결과의 합이 계산되는 범위는 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 중 적어도 하나의 2차원 기하학적 형태일 수 있다.
또 다른 예로, 상기 1D 라플라시안 연산의 합이 계산되는 범위는 SxT의 크기를 가질 수 있다. 이때, S와 T는 0을 포함한 양의 정수일 수 있다.
또 다른 예로, 블록 분류 단위의 형태는 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 중 적어도 하나의 2차원 기하학적 형태일 수 있다.
도 9는 가로, 세로, 제1 대각, 제2 대각 방향에 따른 기울기 값을 결정하는 일 예이다.
도 9의 예와 같이, 4x4 블록 분류의 경우, 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 도 9에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
본 발명의 일 실시 예에 따를 때, 4x4 블록 분류의 경우, 1D 라플라시안 연산을 이용하여 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2를 수학식 10 내지 수학식 13과 같이 나타낼 수 있다. 상기 기울기 값은 블록 분류의 계산 복잡도를 감소시키기 위해 부표본(또는, 서브샘플링(subsampling))에 기반하여 나타낼 수 있다. 상기 기울기 값의 합을 이용하여 상기 D 값과 A 값을 도출할 수 있다. 상기 기울기 값의 합은 일 실시예이며, 기울기 값의 통계 값이 기울기 값의 합을 대체하여 사용될 수 있다.
Figure PCTKR2020007856-appb-M000010
Figure PCTKR2020007856-appb-M000011
Figure PCTKR2020007856-appb-M000012
Figure PCTKR2020007856-appb-M000013
수학식 10 내지 수학식 13에서, i와 j 각각은 4x4 블록 내 좌상단 가로 위치와 세로 위치를 의미하고, R(i,j)는 (i,j) 위치에서의 복원된 샘플 값을 의미할 수 있다.
또한, 수학식 10 내지 수학식 13에서, k와 l 각각은 방향에 따른 샘플 단위 1D 라플라시안 연산의 결과 Vk,l, Hk,l, D1k,l, D2k,l의 합이 계산되는 가로 범위와 세로 범위를 의미할 수 있다. 상기 각각의 방향에 따른 샘플 단위 1D 라플라시안 연산의 결과는 각각의 방향에 따른 샘플 단위 기울기(gradient) 값을 의미할 수 있다. 즉, 1D 라플라시안 연산의 결과는 기울기 값을 의미할 수 있다. 상기 1D 라플라시안 연산은 세로, 가로, 제1 대각, 제2 대각 방향 각각에 대해 수행될 수 있으며, 해당 방향에 대한 기울기 값을 나타낼 수 있다. 또한, 상기 1D 라플라시안 연산은 세로, 가로, 제1 대각, 제2 대각 방향 각각에 대해 수행된 결과가 각각 Vk,l, Hk,l, D1k,l, D2k,l를 의미할 수 있다.
일 예로, k와 l은 서로 같은 범위를 가질 수 있다. 즉, 1D 라플라시안 연산의 합이 계산되는 범위의 가로 길이와 세로 길이가 같을 수 있다.
다른 예로, k와 l은 서로 다른 범위를 가질 수 있다. 즉, 1D 라플라시안 연산의 합이 계산되는 범위의 가로 길이와 세로 길이가 다를 수 있다.
또 다른 예로, k는 i-2에서 i+5의 범위, l은 j-2에서 j+5의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 8x8 크기일 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다.
또 다른 예로, k는 i에서 i+3의 범위, l은 j에서 j+3의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 4x4 크기일 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기와 동일할 수 있다.
또 다른 예로, 1D 라플라시안 연산의 결과의 합이 계산되는 범위는 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 중 적어도 하나의 2차원 기하학적 형태일 수 있다.
또 다른 예로, 상기 1D 라플라시안 연산의 합이 계산되는 범위는 SxT의 크기를 가질 수 있다. 이때, S와 T는 0을 포함한 양의 정수일 수 있다.
또 다른 예로, 블록 분류 단위의 형태는 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 중 적어도 하나의 2차원 기하학적 형태일 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 부표본에 기반하여 기울기 값을 계산하는 방법은 계산하고자 하는 기울기 값의 방향에 따라, 1D 라플라시안 연산의 합이 계산되는 범위 내에서 해당 방향에 위치한 샘플에 1D 라플라시안 연산을 수행하여 기울기 값을 계산할 수 있다. 여기서, 1D 라플라시안 연산의 합이 계산되는 범위 내 샘플들 중 적어도 하나에서 수행된 1D 라플라시안 연산 결과에 대해 통계 값을 계산하여 기울기 값의 통계 값을 산출할 수 있다. 이때, 통계값은 합(sum), 가중합 또는 평균값 중 어느 하나일 수 있다.
일 예로, 가로 방향 기울기 값의 계산 시, 1D 라플라시안 연산의 합이 계산되는 범위 내에서 행 내 모든 샘플의 위치에서는 1D 라플라시안 연산을 수행하되, 1D 라플라시안 연산의 합이 계산되는 범위 내 각 행을 P행씩 건너뛰면서 가로 방향 기울기 값을 계산할 수 있다. 여기서, P는 양의 정수이다.
다른 예로, 세로 방향 기울기 값의 계산 시, 1D 라플라시안 연산의 합이 계산되는 범위 내에서 열 내 모든 샘플의 위치에서는 1D 라플라시안 연산을 수행하되, 1D 라플라시안 연산의 합이 계산되는 범위 내 각 열을 P열씩 건너뛰면서 세로 방향 기울기 값을 계산할 수 있다. 여기서, P는 양의 정수이다.
또 다른 예로, 제1 대각 방향 기울기 값 계산 시, 1D 라플라시안 연산의 합이 계산되는 범위 내에서 가로 방향 및 세로 방향 중 적어도 하나의 방향에 대해 P열 및 Q행 중 적어도 하나에 대해 건너뛰면서 존재하는 샘플의 위치에서 1D 라플라시안 연산을 수행하여 제1 대각 방향 기울기 값을 계산할 수 있다. 여기서, P와 Q는 0을 포함한 양의 정수이다.
또 다른 예로, 제2 대각 방향 기울기 값 계산 시, 1D 라플라시안 연산의 합이 계산되는 범위 내에서 가로 방향 및 세로 방향 중 적어도 하나의 방향에 대해 P열 및 Q행 중 적어도 하나에 대해 건너뛰면서 존재하는 샘플의 위치에서 1D 라플라시안 연산을 수행하여 제2 대각 방향 기울기 값을 계산할 수 있다. 여기서, P와 Q는 0을 포함한 양의 정수이다.
본 발명의 일 실시 예에 따를 때, 상기 부표본에 기반하여 기울기 값을 계산하는 방법은 1D 라플라시안 연산의 합이 계산되는 범위 내에 위치한 적어도 하나의 샘플에 1D 라플라시안 연산을 수행하여 기울기 값을 계산할 수 있다. 여기서, 1D 라플라시안 연산의 합이 계산되는 범위 내 샘플들 중 적어도 하나에서 수행된 1D 라플라시안 연산 결과에 대해 통계 값을 계산하여 기울기 값의 통계 값을 산출할 수 있다. 이때, 통계값은 합(sum), 가중합 또는 평균값 중 어느 하나일 수 있다.
일 예로, 기울기 값 계산 시, 1D 라플라시안 연산의 합이 계산되는 범위 내에서 행 내 모든 샘플의 위치에서는 1D 라플라시안 연산을 수행하되, 1D 라플라시안 연산의 합이 계산되는 범위 내 각 행을 P행씩 건너뛰면서 기울기 값을 계산할 수 있다. 여기서, P는 양의 정수이다.
다른 예로, 기울기 값 계산 시, 1D 라플라시안 연산의 합이 계산되는 범위 내에서 열 내 모든 샘플의 위치에서는 1D 라플라시안 연산을 수행하되, 1D 라플라시안 연산의 합이 계산되는 범위 내 각 열을 P열씩 건너뛰면서 기울기 값을 계산할 수 있다. 여기서, P는 양의 정수이다.
또 다른 예로, 기울기 값 계산 시, 1D 라플라시안 연산의 합이 계산되는 범위 내에서 가로 방향 및 세로 방향 중 적어도 하나의 방향에 대해 P열 및 Q행 중 적어도 하나에 대해 건너뛰면서 존재하는 샘플의 위치에서 1D 라플라시안 연산을 수행하여 기울기 값을 계산할 수 있다. 여기서, P와 Q는 0을 포함한 양의 정수이다.
또 다른 예로, 기울기 값 계산 시, 1D 라플라시안 연산의 합이 계산되는 범위 내에서 가로 방향 및 세로 방향에 대해 P열 및 Q행에 대해 건너뛰면서 존재하는 샘플의 위치에서 1D 라플라시안 연산을 수행하여 기울기 값을 계산할 수 있다. 여기서, P와 Q는 0을 포함한 양의 정수이다.
한편, 상기 기울기는 가로 방향 기울기, 세로 방향 기울기, 제1 대각 방향 기울기, 제2 대각 방향 기울기 중 적어도 하나를 포함할 수 있다.
도 10 내지 도 12는 부표본에 기반하여 가로, 세로, 제1 대각, 제2 대각 방향에 따른 기울기 값을 결정하는 일 예이다.
도 10의 예와 같이, 2x2 블록 분류의 경우, 부표본에 기반하여 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 10에서, 블록 분류 색인 C는 음영이 표시된 2x2 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
본 발명의 도면에서 V, H, D1, D2가 표시되어 있지 않은 샘플의 위치에서는 각 방향에 따른 1D 라플라시안 연산이 수행되지 않는 것을 의미할 수 있다. 즉, V, H, D1, D2가 표시되어 있는 샘플의 위치에서만 각 방향에 따른 1D 라플라시안 연산이 수행되는 것을 의미할 수 있다. 만약, 1D 라플라시안 연산이 수행되지 않을 경우 해당 샘플에 대한 1D 라플라시안 연산의 결과는 특정한 값 H로 결정할 수 있다. 여기서, H는 음의 정수, 0, 양의 정수 중 적어도 하나일 수 있다.
도 11의 예와 같이, 4x4 블록 분류의 경우, 부표본에 기반하여 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 11에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
도 12의 예와 같이, 4x4 블록 분류의 경우, 부표본에 기반하여 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 12에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위와 블록 분류 단위의 크기가 같을 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
본 발명의 일 실시 예에 따를 때, 부표본에 기반하여 NxM 블록 단위 내 특정 위치에 존재하는 샘플에 대해 1D 라플라시안 연산을 수행하여 기울기 값을 계산할 수 있다. 이때, 특정 위치는 블록 내에서 절대적인 위치, 상대적인 위치 중 적어도 하나일 수 있다. 여기서, 1D 라플라시안 연산의 합이 계산되는 범위 내 샘플들 중 적어도 하나에서 수행된 1D 라플라시안 연산 결과에 대해 통계 값을 계산하여 기울기 값의 통계 값을 산출할 수 있다. 이때, 통계값은 합(sum), 가중합 또는 평균값 중 어느 하나일 수 있다.
일 예로, 절대적인 위치인 경우, NxM 블록 내 좌상단 위치를 의미할 수 있다.
다른 예로, 절대적인 위치인 경우, NxM 블록 내 우하단 위치를 의미할 수 있다.
또 다른 예로, 상대적인 위치인 경우, NxM 블록 내 가운데 위치를 의미할 수 있다.
본 발명의 일 실시 예에 따를 때, 부표본에 기반하여 NxM 블록 단위 내 R개의 샘플에 대해 1D 라플라시안 연산을 수행하여 기울기 값을 계산할 수 있다. 이때, R은 0을 포함한 양의 정수이다. 또한, 상기 R은 N과 M의 곱보다 같거나 작을 수 있다. 여기서, 1D 라플라시안 연산의 합이 계산되는 범위 내 샘플들 중 적어도 하나에서 수행된 1D 라플라시안 연산 결과에 대해 통계 값을 계산하여 기울기 값의 통계 값을 산출할 수 있다. 이때, 통계값은 합(sum), 가중합 또는 평균값 중 어느 하나일 수 있다.
일 예로, R이 1인 경우, NxM 블록 내에서 1개의 샘플에 대해서만 1D 라플라시안 연산을 수행할 수 있다.
다른 예로, R이 2인 경우, NxM 블록 내에서 2개의 샘플에 대해서만 1D 라플라시안 연산을 수행할 수 있다.
또 다른 예로, R이 4인 경우, NxM 블록 내에서 4개의 샘플에 대해서만 1D 라플라시안 연산을 수행할 수 있다.
본 발명의 일 실시 예에 따를 때, 부표본에 기반하여 1D 라플라시안 연산의 합이 계산되는 범위인 NxM 내 R개의 샘플에 대해 1D 라플라시안 연산을 수행하여 기울기 값을 계산할 수 있다. 이때, R은 0을 포함한 양의 정수이다. 또한, 상기 R은 N과 M의 곱보다 같거나 작을 수 있다. 여기서, 1D 라플라시안 연산의 합이 계산되는 범위 내 샘플들 중 적어도 하나에서 수행된 1D 라플라시안 연산 결과에 대해 통계 값을 계산하여 기울기 값의 통계 값을 산출할 수 있다. 이때, 통계값은 합(sum), 가중합 또는 평균값 중 어느 하나일 수 있다.
일 예로, R이 1인 경우, 1D 라플라시안 연산의 합이 계산되는 범위인 NxM 내에서 1개의 샘플에 대해서만 1D 라플라시안 연산을 수행할 수 있다.
다른 예로, R이 2인 경우, 1D 라플라시안 연산의 합이 계산되는 범위인 NxM 내에서 2개의 샘플에 대해서만 1D 라플라시안 연산을 수행할 수 있다.
또 다른 예로, R이 4인 경우, 1D 라플라시안 연산의 합이 계산되는 범위인 NxM 내에서 4개의 샘플에 대해서만 1D 라플라시안 연산을 수행할 수 있다.
도 13 내지 도 18은 부표본에 기반하여 가로, 세로, 제1 대각, 제2 대각 방향에 따른 기울기 값을 결정하는 다른 예이다.
도 13의 예와 같이, 4x4 블록 분류의 경우, 부표본에 기반하여 NxM 블록 단위 내 특정 위치에 존재하는 샘플을 이용하여 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 13에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위와 블록 분류 단위의 크기가 같을 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
도 14의 예와 같이, 4x4 블록 분류의 경우, 부표본에 기반하여 NxM 블록 단위 내 특정 위치에 존재하는 샘플을 이용하여 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 14에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 작을 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
도 15의 예와 같이, 4x4 블록 분류의 경우, 부표본에 기반하여 NxM 블록 단위 내 특정 위치에 존재하는 샘플을 이용하여 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 15에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 작을 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
도 16의 예와 같이, 4x4 블록 분류의 경우, 부표본에 기반하여 NxM 블록 단위 내 특정 위치에 존재하는 샘플을 이용하여 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 16에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 작을 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
도 17의 예와 같이, 4x4 블록 분류의 경우, 부표본에 기반하여 NxM 블록 단위 내 특정 위치에 존재하는 샘플을 이용하여 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 17에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 작을 수 있다. 여기서, 1D 라플라시안 연산의 합이 계산되는 범위가 1x1이므로, 1D 라플라시안 연산의 합을 수행하지 않고 기울기 값이 계산될 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
도 18의 예와 같이, 2x2 블록 분류의 경우, 부표본에 기반하여 NxM 블록 단위 내 특정 위치에 존재하는 샘플을 이용하여 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 18에서, 블록 분류 색인 C는 음영이 표시된 2x2 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 작을 수 있다. 여기서, 1D 라플라시안 연산의 합이 계산되는 범위가 1x1이므로, 1D 라플라시안 연산의 합을 수행하지 않고 기울기 값이 계산될 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
도 19 내지 도 30은 특정 샘플 위치에서 가로, 세로, 제1 대각, 제2 대각 방향에 따른 기울기 값을 결정하는 일 예이다. 상기 특정 샘플 위치는 블록 분류 단위 내에서 서브샘플링된 샘플 위치일 수 있고, 1D 라플라시안 연산의 합이 계산되는 범위 내에서 서브샘플링된 샘플 위치일 수 있다. 또한, 상기 특정 샘플 위치는 블록 별로 동일할 수 있다. 반대로, 상기 특정 샘플 위치는 블록 별로 상이할 수 있다. 또한, 상기 특정 샘플 위치는 계산하고자 하는 1D 라플라시안 연산의 방향에 관계없이 동일할 수 있다. 반대로, 상기 특정 샘플 위치는 계산하고자 하는 1D 라플라시안 연산의 방향에 따라 상이할 수 있다.
도 19의 예와 같이, 4x4 블록 분류의 경우, 특정 샘플 위치에서 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 19에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
도 19의 예와 같이, 1D 라플라시안 연산의 방향에 관계없이, 1D 라플라시안 연산이 수행되는 특정 샘플 위치가 동일할 수 있다. 또한, 도 19의 예와 같이 1D 라플라시안 연산이 수행되는 샘플 위치의 패턴은 체커판(checkboard) 패턴 또는 quincunx 패턴이라고 할 수 있다. 또한, 1D 라플라시안 연산이 수행되는 샘플 위치는 1D 라플라시안 연산의 합이 계산되는 범위 또는 블록 분류 단위 또는 블록 단위 내에서 가로 방향(x축 방향) 및 세로 방향(y축 방향)으로 모두 짝수 값을 가지거나, 모두 홀수 값을 가지는 위치를 의미할 수 있다.
도 20의 예와 같이, 4x4 블록 분류의 경우, 특정 샘플 위치에서 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 20에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
도 20의 예와 같이, 1D 라플라시안 연산의 방향에 관계없이, 1D 라플라시안 연산이 수행되는 특정 샘플 위치가 동일할 수 있다. 또한, 도 20의 예와 같이 1D 라플라시안 연산이 수행되는 샘플 위치의 패턴은 체커판(checkboard) 패턴 또는 quincunx 패턴이라고 할 수 있다. 또한, 1D 라플라시안 연산이 수행되는 샘플 위치는 1D 라플라시안 연산의 합이 계산되는 범위 또는 블록 분류 단위 또는 블록 단위 내에서 가로 방향(x축 방향) 및 세로 방향(y축 방향)으로 각각 짝수 값 및 홀수 값을 가지거나, 각각 홀수 값 및 짝수 값을 가지는 위치를 의미할 수 있다.
도 21의 예와 같이, 4x4 블록 분류의 경우, 특정 샘플 위치에서 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 21에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
도 22의 예와 같이, 4x4 블록 분류의 경우, 특정 샘플 위치에서 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 22에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
도 23의 예와 같이, 4x4 블록 분류의 경우, 특정 샘플 위치에서 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 23에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위와 블록 분류 단위의 크기가 같을 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
도 23의 예와 같이, 1D 라플라시안 연산의 방향에 관계없이, 1D 라플라시안 연산이 수행되는 특정 샘플 위치가 동일할 수 있다. 또한, 도 23의 예와 같이 1D 라플라시안 연산이 수행되는 샘플 위치의 패턴은 체커판(checkboard) 패턴 또는 quincunx 패턴이라고 할 수 있다. 또한, 1D 라플라시안 연산이 수행되는 샘플 위치는 1D 라플라시안 연산의 합이 계산되는 범위 또는 블록 분류 단위 또는 블록 단위 내에서 가로 방향(x축 방향) 및 세로 방향(y축 방향)으로 모두 짝수 값을 가지거나, 모두 홀수 값을 가지는 위치를 의미할 수 있다.
도 24의 예와 같이, 4x4 블록 분류의 경우, 특정 샘플 위치에서 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 24에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위와 블록 분류 단위의 크기가 같을 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
도 24의 예와 같이, 1D 라플라시안 연산의 방향에 관계없이, 1D 라플라시안 연산이 수행되는 특정 샘플 위치가 동일할 수 있다. 또한, 도 24의 예와 같이 1D 라플라시안 연산이 수행되는 샘플 위치의 패턴은 체커판(checkboard) 패턴 또는 quincunx 패턴이라고 할 수 있다. 또한, 1D 라플라시안 연산이 수행되는 샘플 위치는 1D 라플라시안 연산의 합이 계산되는 범위 또는 블록 분류 단위 또는 블록 단위 내에서 가로 방향(x축 방향) 및 세로 방향(y축 방향)으로 각각 짝수 값 및 홀수 값을 가지거나, 각각 홀수 값 및 짝수 값을 가지는 위치를 의미할 수 있다.
도 25의 예와 같이, 4x4 블록 분류의 경우, 특정 샘플 위치에서 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 25에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위와 블록 분류 단위의 크기가 같을 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
도 26의 예와 같이, 4x4 블록 분류의 경우, 특정 샘플 위치에서 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 도 26에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위와 블록 분류 단위의 크기가 같을 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다. 상기 특정 샘플 위치는 블록 분류 단위 내 모든 샘플 위치를 의미할 수 있다.
도 27의 예와 같이, 4x4 블록 분류의 경우, 특정 샘플 위치에서 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 27에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위와 블록 분류 단위의 크기가 같을 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
도 28의 예와 같이, 4x4 블록 분류의 경우, 특정 샘플 위치에서 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 도 28에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다. 상기 특정 샘플 위치는 1D 라플라시안 연산의 합이 계산되는 범위 내 모든 샘플 위치를 의미할 수 있다.
도 29의 예와 같이, 4x4 블록 분류의 경우, 특정 샘플 위치에서 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 도 29에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다. 상기 특정 샘플 위치는 1D 라플라시안 연산의 합이 계산되는 범위 내 모든 샘플 위치를 의미할 수 있다.
도 30의 예와 같이, 4x4 블록 분류의 경우, 특정 샘플 위치에서 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다. 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 30에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낸다.
한편, 본 발명의 일 실시 예에 따를 때, 상기 기울기 값의 계산 방법들 중 적어도 하나는 시간적 계층 식별자(temporal layer identifier)에 따라 수행 여부가 결정될 수 있다.
예를 들어, 2x2 블록 분류의 경우, 수학식 2 내지 5는 수학식 14와 같이 하나의 식으로 나타낼 수 있다.
Figure PCTKR2020007856-appb-M000014
수학식 14에서 dir은 가로, 세로, 제1 대각, 제2 대각 방향을 포함하고, 따라서, gdir은 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2를 의미할 수 있다. 또한, i와 j 각각은 2x2 블록 내 가로 위치와 세로 위치를 의미하고, Gdir은 세로, 가로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산의 결과 Vk,l, Hk,l, D1k,l, D2k,l를 의미할 수 있다.
이때, 현재 영상(또는 복원 영상)의 시간적 계층 식별자가 최상위 계층이면, 현재 영상(또는 복원 영상)에서 2x2 블록 분류의 경우, 수학식 14는 수학식 15와 같이 나타낼 수 있다.
Figure PCTKR2020007856-appb-M000015
수학식 15에서 Gdir(i0,j0)는 세로, 가로, 제1 대각, 제2 대각 방향에 따른 2x2 블록 내 좌상단 위치에서의 기울기 값을 의미한다.
도 31은 시간적 계층 식별자가 최상위 계층인 경우에서의 가로, 세로, 제1 대각, 제2 대각 방향에 따른 기울기 값을 결정하는 일 예이다.
도 31을 참조하면, 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 계산은 각 2x2 블록에서 좌상단 샘플 위치(즉, 음영이 표시된 샘플 위치)에서만 기울기를 계산함으로써 단순화시킬 수 있다.
본 발명의 일 실시 예에 따를 때, 1D 라플라시안 연산의 합이 계산되는 범위 내 샘플들 중 적어도 하나에서 수행된 1D 라플라시안 연산 결과에 대해 가중치(weighting factor)를 적용하고 가중합(weighted sum)을 계산하여 기울기 값의 통계 값을 산출할 수 있다. 이때, 상기 가중합 대신 가중평균값, 중간값, 최소값, 최대값, 최빈값 등 통계값 중 적어도 하나가 사용될 수 있다.
가중치를 적용하거나 가중합을 계산하는 것은 현재 블록, 주변 블록과 관련된 여러 조건 또는 부호화 파라미터에 기반하여 결정될 수 있다.
일 예로, 가중합은 샘플 단위, 샘플 그룹 단위, 라인 단위 및 블록 단위 중 적어도 하나의 단위로 계산될 수 있다. 이때, 샘플 단위, 샘플 그룹 단위, 라인 단위, 블록 단위 중 적어도 하나의 단위에서 가중치를 달리하여 가중합을 계산할 수 있다.
다른 예로, 가중치 값은 상기 현재 블록의 크기, 현재 블록의 형태, 샘플의 위치 중 적어도 하나 이상에 따라 다르게 적용할 수 있다.
또 다른 예로, 부호화기와 복호화기에서 미리 설정된 기준에 따라 상기 가중합 수행을 결정할 수 있다.
또 다른 예로, 현재 블록 및 주변 블록 중 적어도 하나의 블록의 크기, 블록의 형태, 화면내 예측 모드 등의 부호화 파라미터 중 적어도 하나를 이용하여 적응적으로 가중치를 결정할 수 있다.
또 다른 예로, 현재 블록 및 주변 블록 중 적어도 하나의 블록의 크기, 블록의 형태, 화면내 예측 모드 등의 부호화 파라미터 중 적어도 하나를 이용하여 적응적으로 가중합 수행 여부를 결정할 수 있다.
또 다른 예로, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 경우, 블록 분류 단위 내의 샘플에 적용되는 적어도 하나의 가중치 값은 블록 분류 단위 외의 샘플에 적용되는 적어도 하나의 가중치 값보다 클 수 있다.
또 다른 예로, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기와 같은 경우, 블록 분류 단위 내의 샘플에 적용되는 가중치 값은 모두 동일할 수 있다.
한편, 상기 가중치 및/또는 상기 가중합 수행 여부에 대한 정보는 부호화기에서 엔트로피 부호화되어 복호화기로 시그널링될 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나의 값을 계산할 시, 현재 샘플 주변에 가용(available)하지 않는 샘플이 존재하는 경우, 패딩(padding)을 수행한 후 패딩된 샘플을 이용하여 기울기 값을 계산할 수 있다. 상기 패딩은 상기 가용하지 않는 샘플에 대해 인접하며 가용한 샘플 값을 상기 가용하지 않는 샘플 값에 복사하는 방식을 의미할 수 있다. 또는, 상기 가용하지 않는 샘플에 대해 인접하며 가용한 샘플 값에 기반하여 획득된 샘플 값 또는 통계 값을 이용할 수 있다. 상기 패딩은 P열 개 및 R행 개만큼 반복하여 수행할 수 있다. 여기서, P와 R은 양의 정수일 수 있다.
여기서, 가용하지 않는 샘플은 CTU, CTB, 슬라이스, 타일, 타일 그룹, 픽처 경계 밖에 존재하는 샘플을 의미할 수 있다. 또한, 가용하지 않는 샘플은 현재 샘플이 속한 CTU, CTB, 슬라이스, 타일, 타일 그룹, 픽처 중 적어도 하나와 서로 다른 CTU, CTB, 슬라이스, 타일, 타일 그룹, 픽처 중 적어도 하나에 속한 샘플을 의미할 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나의 값을 계산할 시, 소정의 샘플을 이용하지 않을 수 있다.
일 예로, 상기 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나의 값을 계산할 시, 패딩된 샘플을 이용하지 않을 수 있다.
다른 예로, 상기 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 시, 현재 샘플 주변에 가용하지 않는 샘플이 존재하는 경우, 상기 가용하지 않는 샘플을 기울기 값의 합 계산에 사용하지 않을 수 있다.
또 다른 예로, 상기 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나의 값을 계산할 시, 현재 샘플 주변에 존재하는 샘플이 CTU 또는 CTB 경계 밖에 위치하는 경우, 상기 주변에 존재하는 샘플을 기울기 값의 합 계산에 사용하지 않을 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 1D 라플라시안 연산 값들 중 적어도 하나의 값을 계산할 시, 현재 샘플 주변에 가용하지 않는 샘플이 존재하는 경우, 상기 가용하지 않는 샘플에 대해 인접하며 가용한 샘플 값을 상기 가용하지 않는 샘플 값에 복사하는 방식인 패딩을 수행한 후 패딩된 샘플을 이용하여 1D 라플라시안 연산을 수행할 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 1D 라플라시안 연산 시, 소정의 샘플을 이용하지 않을 수 있다.
일 예로, 상기 1D 라플라시안 연산 시, 패딩된 샘플을 이용하지 않을 수도 있다.
다른 예로, 상기 1D 라플라시안 연산 값들 중 적어도 하나의 값을 계산할 시, 현재 샘플 주변에 가용하지 않는 샘플이 존재하는 경우, 상기 가용하지 않는 샘플을 1D 라플라시안 연산에 사용하지 않을 수 있다.
또 다른 예로, 상기 1D 라플라시안 연산 값들 중 적어도 하나의 값을 계산할 시, 현재 샘플 주변에 존재하는 샘플이 CTU 또는 CTB 경계 밖에 위치하는 경우, 상기 주변에 존재하는 샘플을 1D 라플라시안 연산에 사용하지 않을 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나의 값을 계산할 시 또는 상기 1D 라플라시안 연산 값들 중 적어도 하나의 값을 계산할 시, 디블록킹 필터링, 적응적 샘플 오프셋, 적응적 루프내 필터링 중 적어도 하나가 적용된 샘플을 사용할 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나의 값을 계산할 시 또는 상기 1D 라플라시안 연산 값들 중 적어도 하나의 값을 계산할 시, 현재 샘플 주변에 존재하는 샘플이 CTU 또는 CTB 경계 밖에 위치하는 경우, 해당 샘플에 디블록킹 필터링, 적응적 샘플 오프셋, 적응적 루프내 필터링 중 적어도 하나를 적용할 수 있다.
또는, 상기 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나의 값을 계산할 시 또는 상기 1D 라플라시안 연산 값들 중 적어도 하나의 값을 계산할 시, 현재 샘플 주변에 존재하는 샘플이 CTU 또는 CTB 경계 밖에 위치하는 경우, 해당 샘플에 디블록킹 필터링, 적응적 샘플 오프셋, 적응적 루프내 필터링 중 적어도 하나를 적용하지 않을 수 있다.
본 발명의 일 실시 예에 따를 때, 1D 라플라시안 연산의 합이 계산되는 범위 내에 CTU 또는 CTB 경계 밖 등에 위치하여 가용하지 않는 샘플이 포함될 경우, 해당 가용하지 않은 샘플에 디블록킹 필터링, 적응적 샘플 오프셋, 적응적 루프내 필터링 중 적어도 하나를 적용하지 않고 1D 라플라시안 연산의 합을 계산할 때 사용할 수 있다.
본 발명의 일 실시 예에 따를 때, 블록 분류 단위 내에 CTU 또는 CTB 경계 밖 등에 위치하여 가용하지 않는 샘플이 포함될 경우, 해당 가용하지 않은 샘플에 디블록킹 필터링, 적응적 샘플 오프셋, 적응적 루프내 필터링 중 적어도 하나를 적용하지 않고 1D 라플라시안 연산을 계산할 때 사용할 수 있다.
한편, 상기 부표본에 기반하여 기울기 값을 계산하는 방법은 1D 라플라시안 연산의 합이 계산되는 범위 내 전체 샘플들이 아닌 1D 라플라시안 연산의 합이 계산되는 범위 내 부표본된 샘플에 대해서 1D 라플라시안 연산이 수행되므로, 블록 분류 단계에 필요한 곱셈 연산, 쉬프트(shift) 연산, 덧셈 연산, 절대값 연산 등의 연산 수가 감소할 수 있다. 또한, 복원 샘플을 사용할 때 필요한 메모리 접근 대역폭(memory access bandwidth)도 감소시킬 수 있으며, 이로 인해 부호화기 및 복호화기의 복잡도를 감소시킬 수 있다. 특히, 상기 부표본된 샘플에 대해 1D 라플라시안 연산을 수행하는 것은 부호화기 및 복호화기의 하드웨어 구현 시 블록 분류 단계에 소요되는 시간(timing)을 줄일 수 있기 때문에, 하드웨어 구현 복잡도 관점에서도 장점이 있다.
또한, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 같거나 작을 경우, 블록 분류 단계에 필요한 덧셈 연산 수가 감소할 수 있다. 또한, 복원 샘플을 사용할 때 필요한 메모리 접근 대역폭도 감소시킬 수 있으며, 이로 인해 부호화기 및 복호화기의 복잡도를 감소시킬 수 있다.
한편, 상기 부표본에 기반하여 기울기 값을 계산하는 방법은 계산하고자 하는 세로, 가로, 제1 대각, 제2 대각 방향의 기울기 값에 따라 1D 라플라시안 연산의 대상이 되는 샘플의 위치, 샘플의 개수, 샘플 위치의 방향 중 적어도 하나를 다르게 하여 세로, 가로, 제1 대각, 제2 대각 방향의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다.
또한, 상기 부표본에 기반하여 기울기 값을 계산하는 방법은 계산하고자 하는 세로, 가로, 제1 대각, 제2 대각 방향의 기울기 값에 관계없이 1D 라플라시안 연산의 대상이 되는 샘플의 위치, 샘플의 개수, 샘플 위치의 방향 중 적어도 하나를 동일하게 하여 세로, 가로, 제1 대각, 제2 대각 방향의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다.
또한, 상기 기울기 값을 계산하는 방법들 중 적어도 하나 이상의 조합을 이용하여 세로, 가로, 제1 대각, 제2 대각 방향의 기울기 값에 따른 1D 라플라시안 연산 및 세로, 가로, 제1 대각, 제2 대각 방향에 대한 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다.
본 발명의 일 실시 예에 따를 때, 세로, 가로, 제1 대각, 제2 대각 방향에 대한 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 2개 이상의 값을 서로 비교할 수 있다.
일 예로, 상기 기울기 값의 합들을 계산한 이후, 세로 방향 기울기의 합 gv 값과 가로 방향 기울기의 합 gh 값을 비교하여, 가로 방향 및 세로 방향에 대한 기울기 값의 합의 최대값
Figure PCTKR2020007856-appb-I000001
과 최소값
Figure PCTKR2020007856-appb-I000002
을 수학식 16의 예와 같이 유도할 수 있다.
Figure PCTKR2020007856-appb-M000016
이때, 세로 방향 기울기의 합 gv 값과 가로 방향 기울기의 합 gh 값을 비교하기 위해, 수학식 17의 예와 같이 상기 기울기 값의 합들의 크기를 서로 비교할 수 있다.
Figure PCTKR2020007856-appb-M000017
다른 예로, 제1 대각 방향 기울기의 합 gd1 값과 제2 대각 방향 기울기의 합 gd2 값을 비교하여, 제1 대각 방향 및 제2 대각 방향에 대한 기울기 값의 합의 최대값
Figure PCTKR2020007856-appb-I000003
과 최소값
Figure PCTKR2020007856-appb-I000004
을 수학식 18의 예와 같이 유도할 수 있다.
Figure PCTKR2020007856-appb-M000018
이때, 제1 대각 방향 기울기의 합 gd1 값과 제2 대각 방향 기울기의 합 gd2 값을 비교하기 위해, 수학식 19의 예와 같이 상기 기울기 값의 합들의 크기를 서로 비교할 수 있다.
Figure PCTKR2020007856-appb-M000019
본 발명의 일 실시 예에 따를 때, 방향성 D 값을 산출하기 위해, 상기 최대값들 및 상기 최소값들을 아래와 같이 2개의 임계값 t1 및 t2와 비교할 수 있다.
방향성 D값은 0을 포함하는 양의 정수일 수 있다. 일 예로, 방향성 D 값은 0에서 4 사이의 값을 가질 수 있다. 다른 예로, 방향성 D 값은 0에서 2 사이의 값을 가질 수 있다.
또한, 방향성 D 값은 해당 영역의 특징에 따라 결정될 수 있다. 예를 들어, 방향성 D 값이 0인 경우 텍스쳐(texture) 영역, 방향성 D 값이 1인 경우 강한 수평/수직 방향성, 방향성 D 값이 2인 경우 약한 수평/수직 방향성, 방향성 D 값이 3인 경우 강한 제1/제2 대각 방향성, 방향성 D 값이 4인 경우 약한 제1/제2 대각 방향성을 의미할 수 있다. 상기 방향성 D값의 결정은 하기 단계 1 내지 단계 4에 의해 수행될 수 있다.
단계 1:
Figure PCTKR2020007856-appb-I000005
가 만족하면 D 값을 0으로 설정
단계 2:
Figure PCTKR2020007856-appb-I000006
가 만족하면 단계 3으로 진행, 그렇지 않으면 단계 4로 진행
단계 3:
Figure PCTKR2020007856-appb-I000007
가 만족하면 D 값을 2로 설정, 그렇지 않으면 D 값을 1로 설정
단계 4:
Figure PCTKR2020007856-appb-I000008
가 만족하면 D 값을 4로 설정, 그렇지 않으면 D 값을 3으로 설정
여기서, 임계값 t1 및 t2는 양의 정수이다. t1 및 t2는 같은 값을 가질 수도 있고 서로 다른 값을 가질 수도 있다. 일 예로, t1 및 t2는 각각 2, 9일 수 있다. 다른 예로, t1 및 t2는 각각 1일 수 있다. 또 다른 예로, t1 및 t2는 각각 1, 9일 수 있다.
활동성 A 값은, 2x2 블록 분류의 경우, 수학식 20의 예와 같이 나타낼 수 있다.
Figure PCTKR2020007856-appb-M000020
일 예로, k와 l은 서로 같은 범위를 가질 수 있다. 즉, 1D 라플라시안 연산의 합이 계산되는 범위의 가로 길이와 세로 길이가 같을 수 있다.
다른 예로, k와 l은 서로 다른 범위를 가질 수 있다. 즉, 1D 라플라시안 연산의 합이 계산되는 범위의 가로 길이와 세로 길이가 다를 수 있다.
또 다른 예로, k는 i-2에서 i+3의 범위, l은 j-2에서 j+3의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 6x6 크기일 수 있다.
또 다른 예로, k는 i-1에서 i+2의 범위, l은 j-1에서 j+2의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 4x4 크기일 수 있다.
또 다른 예로, k는 i에서 i+1의 범위, l은 j에서 j+1의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 2x2 크기일 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기와 동일할 수 있다.
또 다른 예로, 1D 라플라시안 연산의 결과의 합이 계산되는 범위는 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 중 적어도 하나의 2차원 기하학적 형태일 수 있다.
또한, 활동성 A 값은 4x4 블록 분류의 경우, 수학식 21의 예와 같이 나타낼 수 있다.
Figure PCTKR2020007856-appb-M000021
일 예로, k와 l은 서로 같은 범위를 가질 수 있다. 즉, 1D 라플라시안 연산의 합이 계산되는 범위의 가로 길이와 세로 길이가 같을 수 있다.
다른 예로, k와 l은 서로 다른 범위를 가질 수 있다. 즉, 1D 라플라시안 연산의 합이 계산되는 범위의 가로 길이와 세로 길이가 다를 수 있다.
또 다른 예로, k는 i-2에서 i+5의 범위, l은 j-2에서 j+5의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 8x8 크기일 수 있다.
또 다른 예로, k는 i에서 i+3의 범위, l은 j에서 j+3의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 4x4 크기일 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기와 동일할 수 있다.
또 다른 예로, 1D 라플라시안 연산의 결과의 합이 계산되는 범위는 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 중 적어도 하나의 2차원 기하학적 형태일 수 있다.
또한, 활동성 A 값은 2x2 블록 분류의 경우, 수학식 22의 예와 같이 나타낼 수 있다. 여기서, 제1 대각 방향 및 제2 대각 방향에 대한 1D 라플라시안 연산 값들 중 적어도 하나를 활동성 A 값을 산출할 때 추가로 사용할 수 있다.
Figure PCTKR2020007856-appb-M000022
일 예로, k와 l은 서로 같은 범위를 가질 수 있다. 즉, 1D 라플라시안 연산의 합이 계산되는 범위의 가로 길이와 세로 길이가 같을 수 있다.
다른 예로, k와 l은 서로 다른 범위를 가질 수 있다. 즉, 1D 라플라시안 연산의 합이 계산되는 범위의 가로 길이와 세로 길이가 다를 수 있다.
또 다른 예로, k는 i-2에서 i+3의 범위, l은 j-2에서 j+3의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 6x6 크기일 수 있다.
또 다른 예로, k는 i-1에서 i+2의 범위, l은 j-1에서 j+2의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 4x4 크기일 수 있다.
또 다른 예로, k는 i에서 i+1의 범위, l은 j에서 j+1의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 2x2 크기일 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기와 동일할 수 있다.
또 다른 예로, 1D 라플라시안 연산의 결과의 합이 계산되는 범위는 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 중 적어도 하나의 2차원 기하학적 형태일 수 있다.
또한, 활동성 A 값은 4x4 블록 분류의 경우, 수학식 23의 예와 같이 나타낼 수 있다. 여기서, 제1 대각 방향 및 제2 대각 방향에 대한 1D 라플라시안 연산 값들 중 적어도 하나를 활동성 A 값을 산출할 때 추가로 사용할 수 있다.
Figure PCTKR2020007856-appb-M000023
일 예로, k와 l은 서로 같은 범위를 가질 수 있다. 즉, 1D 라플라시안 연산의 합이 계산되는 범위의 가로 길이와 세로 길이가 같을 수 있다.
다른 예로, k와 l은 서로 다른 범위를 가질 수 있다. 즉, 1D 라플라시안 연산의 합이 계산되는 범위의 가로 길이와 세로 길이가 다를 수 있다.
또 다른 예로, k는 i-2에서 i+5의 범위, l은 j-2에서 j+5의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 8x8 크기일 수 있다.
또 다른 예로, k는 i에서 i+3의 범위, l은 j에서 j+3의 범위를 가져서, 1D 라플라시안 연산의 합이 계산되는 범위가 4x4 크기일 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기와 동일할 수 있다.
또 다른 예로, 1D 라플라시안 연산의 결과의 합이 계산되는 범위는 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 중 적어도 하나의 2차원 기하학적 형태일 수 있다.
한편, 상기 활동성 A 값은 양자화되어 I과 J 사이 범위의 양자화한 활동성 Aq 값을 가질 수 있다. 여기서, I와 J는 각각 0을 포함한 양의 정수일 수 있고, 각각 0과 4일 수 있다.
양자화한 활동성 Aq 값은 소정의 방식을 이용하여 결정할 수 있다.
일 예로, 양자화한 활동성 Aq 값은 수학식 24의 예와 같이 나타낼 수 있다. 이 경우, 양자화한 활동성 Aq 값은 특정 최소값 X 및 특정 최대값 Y의 범위 안에 포함될 수 있다.
Figure PCTKR2020007856-appb-M000024
수학식 24에서 양자화한 활동성 Aq 값은 상기 활동성 A 값에 특정 상수 W 값을 곱하고, R만큼 우측 쉬프트 연산을 수행하여 산출될 수 있다. 이때, X, Y, W, R은 0을 포함한 양의 정수이다. 일 예로, W는 24일 수 있고, R은 13일 수 있다. 다른 예로, W는 64일 수 있고, R은 (3 + N비트)일 수 있다. 예를 들어, N은 양의 정수일 수 있고, 8 또는 10일 수 있다. 또 다른 예로, W는 32일 수 있고, R은 (3 + N비트)일 수 있다. 예를 들어, N은 양의 정수일 수 있고, 8 또는 10일 수 있다.
다른 예로, 상기 양자화한 활동성 Aq 값은 룩 업 테이블(LUT, Look Up Table) 방식을 이용하여, 활동성 A 값과 양자화한 활동성 Aq 값 사이의 매핑 관계를 설정할 수 있다. 즉, 활동성 A 값에 연산을 수행하고 상기 테이블을 이용하여 양자화한 활동성 Aq 값을 산출할 수 있다. 이때, 상기 연산은 곱셈, 나눗셈 연산, 우측 쉬프트 연산, 좌측 쉬프트 연산, 덧셈, 뺄셈 중 적어도 하나를 포함할 수 있다.
한편, 색차 성분의 경우 상기 블록 분류 과정을 수행하지 않고, K개의 필터로 각각의 색차 성분에 대해 필터링을 수행할 수 있다. 여기서, K는 0을 포함한 양의 정수일 수 있다. 또는 K는 0 내지 7 중 하나일 수 있다. 또한, 색차 성분의 경우 상기 블록 분류 과정을 수행하지 않고, 대응하는 위치의 휘도 성분에서 결정한 블록 분류 색인을 이용하여 필터링을 수행할 수 있다. 또한, 색차 성분의 경우 색차 성분에 대한 필터 정보가 시그널링 되지 않고 고정된 형태의 필터가 이용될 수 있다.
도 32는 본 발명의 일 실시 예에 따른 1D 라플라시안 연산을 대신하는 다양한 연산 기법을 나타내는 도면이다.
본 발명의 일 실시 예에 따를 때, 상기 1D 라플라시안 연산 대신, 도 32에 기재된 연산 중 적어도 하나 이상을 사용할 수 있다. 도 32를 참조하면, 상기 연산은 2D 라플라시안, 2D 소벨(Sobel), 2D 에지 추출 및 2D LoG(Laplacian of Gaussian) 연산 중 적어도 하나를 포함할 수 있다. 여기서, LoG 연산은 가우시안(Gaussian) 필터와 라플라시안 필터가 결합된 형태로 복원 샘플에 대해 적용되는 것을 의미할 수 있다. 이 외에, 1D/2D 에지 추출 필터 중 적어도 하나가 1D 라플라시안 연산 대신 사용될 수 있다. 또한, DoG(Difference of Gaussian) 연산이 사용될 수 있다. 여기서, DoG 연산은 내부 파라미터가 다른 가우시안 필터들이 결합된 형태로 복원 샘플에 대해 적용되는 것을 의미할 수 있다.
또한, 상기 방향성 D 값 또는 상기 활동성 A 값을 산출하기 위해, NxM 크기의 LoG 연산이 사용될 수 있다. 여기서, N과 M은 양의 정수일 수 있다. 일 예로. 도 32 (i)의 5x5 2D LoG, 도 32 (j)의 9x9 2D LoG 연산 중 적어도 하나가 사용될 수 있다. 다른 예로, 2D LoG 연산 대신 1D LoG 연산이 사용될 수도 있다.
본 발명의 일 실시 예에 따를 때, 휘도 블록의 각 2x2 블록은 방향성과 2D 라플라시안 활동성에 기반하여 분류될 수 있다. 예를 들어, 소벨 필터를 이용하여 가로/세로 기울기 특성을 얻을 수 있다. 방향성 D 값은 수학식 25 내지 수학식 26을 이용하여 획득될 수 있다.
대표 벡터는 소정의 윈도우 크기(예를 들어, 6x6 블록) 내의 기울기 벡터에 대해 수학식 25]의 조건이 만족되도록 계산될 수 있다. Θ에 따라 방향과 변형이 식별될 수 있다.
Figure PCTKR2020007856-appb-M000025
상기 윈도우 내에서 대표 벡터 및 각 기울기 벡터간의 유사도는 수학식 26과 같이 내적을 이용하여 계산될 수 있다.
Figure PCTKR2020007856-appb-M000026
그리고, 방향성 D 값은 수학식 26에서 계산된 S 값을 이용하여 결정할 수 있다.
단계 1:
Figure PCTKR2020007856-appb-I000009
이면, D 값을 0으로 설정
단계 2:
Figure PCTKR2020007856-appb-I000010
Figure PCTKR2020007856-appb-I000011
이면, D 값을 2로 설정, 그렇지 않으면 D 값을 1로 설정.
단계 3:
Figure PCTKR2020007856-appb-I000012
Figure PCTKR2020007856-appb-I000013
이면, D 값을 4로 설정, 그렇지 않으면 D 값을 3으로 설정
여기서, 전체 블록 분류 색인은 총 25 개일 수 있다.
본 발명의 일 실시 예에 따를 때, 복원 샘플
Figure PCTKR2020007856-appb-I000014
의 블록 분류는 수학식 27과 같이 나타낼 수 있다.
Figure PCTKR2020007856-appb-M000027
수학식 27에서, I는 복원 샘플
Figure PCTKR2020007856-appb-I000015
의 모든 샘플 위치의 집합이다. D는 각 샘플 위치 (i,j)에 대해 클래스 색인
Figure PCTKR2020007856-appb-I000016
을 할당하는 분류자이다. 또한, 클래스
Figure PCTKR2020007856-appb-I000017
는 클래스 인덱스 k가 분류자 D에 의해 할당된 모든 샘플의 모음이다. 상기 클래스는 네 가지 다른 분류자를 지원하며, 각각의 분류자는 K=25 또는 27의 클래스를 제공할 수 있다. 복호화기에서 사용되는 분류자는 슬라이스 레벨에서 시그널링되는 구문 요소 classification_idx에 의해 지정될 수 있다.
Figure PCTKR2020007856-appb-I000018
인 클래스
Figure PCTKR2020007856-appb-I000019
가 주어지면, 하기의 단계와 같이 진행된다.
classification_idx=0이면, 상기 방향성과 활동성에 기반한 블록 분류자
Figure PCTKR2020007856-appb-I000020
가 이용될 수 있다. 분류자는 K=25개의 클래스를 제공할 수 있다.
classification_idx=1이면, 샘플 기반 특징 분류자
Figure PCTKR2020007856-appb-I000021
가 분류자로 이용될 수 있다.
Figure PCTKR2020007856-appb-I000022
는 수학식 28에 따라 각 샘플
Figure PCTKR2020007856-appb-I000023
의 양자화된 샘플값을 이용할 수 있다.
Figure PCTKR2020007856-appb-M000028
여기서, B는 샘플 비트 깊이이고, 클래스 K의 수는 K=27로 설정되고, 연산자
Figure PCTKR2020007856-appb-I000024
는 크지 않은 가장 큰 정수로 반올림을 하는 연산을 지정한다.
classification_idx=2이면, 순위에 기반한 샘플 기반 특징 분류자
Figure PCTKR2020007856-appb-I000025
가 이용될 수 있다.
Figure PCTKR2020007856-appb-I000026
은 후술하는 수학식 30과 같이 나타낼 수 있다.
Figure PCTKR2020007856-appb-I000027
는 샘플값
Figure PCTKR2020007856-appb-I000028
을 그 주변의 8개의 샘플과 비교하여 크기의 순서대로 나열하는 분류자이며, 수학식 29와 같이 나타낼 수 있다.
Figure PCTKR2020007856-appb-M000029
분류자
Figure PCTKR2020007856-appb-I000029
는 0부터 8 사이의 값을 가질 수 있다. 샘플
Figure PCTKR2020007856-appb-I000030
이 (i,j)을 중심으로 하는 3x3 블록 내에서 가장 큰 샘플이면,
Figure PCTKR2020007856-appb-I000031
의 값은 0이다.
Figure PCTKR2020007856-appb-I000032
가 두 번째로 큰 샘플이면,
Figure PCTKR2020007856-appb-I000033
의 값은 1이다.
Figure PCTKR2020007856-appb-M000030
수학식 30에서, T1와 T2는 미리 정의된 임계 값이다. 즉, 샘플의 동적 범위가 3개의 밴드로 나누어지고, 각 밴드 내부에서 해당 로컬 주변 내의 샘플의 rank가 추가 기준으로서 사용된다. 순위에 기반한 샘플 기반 특징 분류자는 K=27개의 클래스를 제공할 수 있다.
classification_idx=3이면, 순위와 지역 변화량 기반 특징 분류자
Figure PCTKR2020007856-appb-I000034
가 이용될 수 있다.
Figure PCTKR2020007856-appb-I000035
는 수학식 31과 같이 나타낼 수 있다.
Figure PCTKR2020007856-appb-M000031
수학식 31에서, T3 혹은 T4 는 미리 정의된 임계값이다. 각 샘플 위치 (i,j)에서의 지역 변화량
Figure PCTKR2020007856-appb-I000036
는 수학식 32와 같이 나타낼 수 있다.
Figure PCTKR2020007856-appb-M000032
각 샘플이 먼저 로컬 변수
Figure PCTKR2020007856-appb-I000037
에 기초하여 3개의 클래스 중 하나의 요소로서 분류되는 것을 제외하고는
Figure PCTKR2020007856-appb-I000038
와 동일한 분류자이다. 그 다음, 각 클래스 내에서, 로컬 주변에 있는 샘플의 순위가 27개의 클래스를 제공하는 추가 기준으로서 사용될 수 있다.
본 발명의 일 실시 예에 따를 때, 슬라이스 레벨에서, IntensityClassifier, HistogramClassifier, DirectionalActivityClassifier와 같은 세 개의 픽셀 분류 방법을 사용하는 최대 16개의 필터 세트가 현재 슬라이스에 이용될 수 있다. CTU 레벨에서, 슬라이스 헤더에서 시그널링되는 제어 플래그에 기초하여, NewFilterMode, SpatialFilterMode, SliceFilterMode의 세 가지 모드가 CTU 단위에서 지원될 수 있다.
여기서, 상기 IntensityClassifier는 SAO의 밴드 오프셋과 유사할 수 있다. 샘플 강도의 범위는 32개 그룹으로 나누어지고, 그룹 색인은 처리될 샘플의 강도에 기초하여 결정될 수 있다.
또한, SimilarityClassifier에서 5x5 마름모 필터 형태에서 주변 샘플들이 필터링 대상 샘플과 비교하는데 사용될 수 있다. 필터링 대상 샘플의 그룹 색인은 우선 0으로 초기화될 수 있다. 주변 샘플과 필터링 대상 샘플 간의 차이가 미리 정의된 하나의 임계 값보다 큰 경우, 그룹 색인은 1만큼 증가될 수 있다. 또한, 주변 샘플과 필터링 대상 샘플 간의 차이가 미리 정의된 임계 값보다 두 배 이상 큰 경우, 그룹 색인에 추가적으로 1을 더할 수 있다. 이때, SimilarityClassifier에는 25개의 그룹이 있을 수 있다.
또한, RotBAClassifier는 하나의 2x2 블록에 대한 1D 라플라시안 연산의 합이 계산되는 범위가 6x6에서 4x4로 축소될 수 있다. 이 분류에는 최대 25 개의 그룹이 있을 수 있다. 그룹 수는 여러 분류자에서 최대 25 또는 32이지만, 슬라이스 필터 집합의 필터 수는 최대 16 개로 제한될 수 있다. 즉, 부호화기는 연속되는 그룹을 병합하여 병합된 그룹 수를 16보다 작거나 같게 유지할 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 블록 분류 색인을 결정할 시, 현재 블록 및 주변 블록 중 적어도 하나의 부호화 파라미터에 기반하여 블록 분류 색인이 결정될 수 있다. 상기 부호화 파라미터 중 적어도 하나에 따라 블록 분류 색인이 서로 달라질 수 있다. 이때, 상기 부호화 파라미터는 예측 모드(화면간 예측인지 화면내 예측인지), 화면내 예측 모드, 화면간 예측 모드, 화면간 예측 지시자, 움직임 벡터, 참조 영상 색인, 양자화 매개변수, 현재 블록 크기, 현재 블록 형태, 블록 분류 단위의 크기, 부호화 블록 플래그/패턴 중 적어도 하나를 포함할 수 있다.
일 예로, 상기 블록 분류는 양자화 매개변수에 따라 결정될 수 있다. 예를 들어, 양자화 매개변수가 임계값 T보다 작을 경우 J개의 블록 분류 색인을 사용할 수 있고, 양자화 매개변수가 임계값 R보다 클 경우 H개의 블록 분류 색인을 사용할 수 있고, 그렇지 않은 경우 G개의 블록 분류 색인을 사용할 수 있다. 여기서, T, R, J, H, G는 0을 포함한 양의 정수이다. 또한, J는 H보다 크거나 같을 수 있다. 여기서, 양자화 매개변수 값이 상대적으로 클수록 적은 개수의 블록 분류 색인을 사용할 수 있다.
다른 예로, 상기 블록 분류는 현재 블록의 크기에 따라 결정될 수 있다. 예를 들어, 현재 블록의 크기가 임계값 T보다 작을 경우 J개의 블록 분류 색인을 사용할 수 있고, 현재 블록의 크기가 임계값 R보다 클 경우 H개의 블록 분류 색인을 사용할 수 있고, 그렇지 않은 경우 G개의 블록 분류 색인을 사용할 수 있다. 여기서, T, R, J, H, G는 0을 포함한 양의 정수이다. 또한, J는 H보다 크거나 같을 수 있다. 여기서, 블록의 크기가 상대적으로 클수록 적은 개수의 블록 분류 색인을 사용할 수 있다.
또 다른 예로, 상기 블록 분류는 블록 분류 단위의 크기에 따라 결정될 수 있다. 예를 들어, 블록 분류 단위의 크기가 임계값 T보다 작을 경우 J개의 블록 분류 색인을 사용할 수 있고, 블록 분류 단위의 크기가 임계값 R보다 클 경우 H개의 블록 분류 색인을 사용할 수 있고, 그렇지 않은 경우 G개의 블록 분류 색인을 사용할 수 있다. 여기서, T, R, J, H, G는 0을 포함한 양의 정수이다. 또한, J는 H보다 크거나 같을 수 있다. 여기서, 블록 분류 단위의 크기가 상대적으로 클수록 적은 개수의 블록 분류 색인을 사용할 수 있다.
본 발명의 일 실시 예에 따를 때, 이전 영상 내 대응 위치의 기울기 값의 합, 현재 블록의 주변 블록의 기울기 값의 합, 현재 블록 분류 단위 주변의 블록 분류 단위의 기울기 값의 합 중 적어도 하나의 기울기 값의 합을 현재 블록의 기울기 값의 합, 현재 블록 분류 단위의 기울기 값의 합 중 적어도 하나로 결정할 수 있다. 여기서, 이전 영상 내 대응 위치는 현재 영상 내 대응 복원 샘플과 대응하는 공간적 위치를 가지는 이전 영상 내 위치 또는 주변 위치일 수 있다.
일 예로, 현재 블록 단위의 세로, 가로 방향의 기울기 값의 합 gv, gh 들 중 적어도 하나와 현재 블록 분류 단위 주변의 블록 분류 단위의 가로, 세로 방향의 기울기 값의 합 중 적어도 하나의 차이가 임계값 E 이하인 경우, 현재 블록 분류 단위 주변의 블록 분류 단위의 제1 대각, 제2 대각 방향 기울기 값의 합 gd1, gd2 중 적어도 하나를 현재 블록 단위의 기울기 값의 합 중 적어도 하나로 결정할 수 있다. 여기서, 임계값 E는 0을 포함한 양의 정수이다.
다른 예로, 현재 블록 단위의 세로, 가로 방향의 기울기 값의 합 gv, gh의 합과 현재 블록 분류 단위 주변의 블록 분류 단위의 가로, 세로 방향의 기울기 값의 합의 차이가 임계값 E 이하인 경우, 현재 블록 분류 단위 주변의 블록 분류 단위의 기울기 값의 합들 중 적어도 하나를 현재 블록 단위의 기울기 값의 합 중 적어도 하나로 결정할 수 있다. 여기서, 임계값 E는 0을 포함한 양의 정수이다.
또 다른 예로, 현재 블록 단위 내 복원 샘플들 중 적어도 하나의 통계 값과 현재 블록 분류 단위 주변의 블록 분류 단위 내 복원 샘플들 중 적어도 하나의 통계 값의 차이가 임계값 E 이하인 경우, 현재 블록 단위 주변의 블록 분류 단위의 기울기 값의 합들 중 적어도 하나를 현재 블록 단위의 기울기 값의 합 중 적어도 하나로 결정할 수 있다. 여기서, 임계값 E는 0을 포함한 양의 정수이다. 그리고, 임계값 E는 현재 블록의 공간적 이웃 블록 및/또는 시간적 이웃 블록으로부터 유도할 수 있다. 또한, 임계값 E는 부호화기 및 복호화기에 기정의된 값일 수 있다.
본 발명의 일 실시 예에 따를 때, 이전 영상 내 대응 위치의 블록 분류 색인, 현재 블록의 주변 블록의 블록 분류 색인, 현재 블록 분류 단위 주변의 블록 분류 단위의 블록 분류 색인 중 적어도 하나의 블록 분류 색인을 현재 블록의 블록 분류 색인, 현재 블록 분류 단위의 블록 분류 색인 중 적어도 하나로 결정할 수 있다.
일 예로, 현재 블록 단위의 세로, 가로 방향의 기울기 값의 합 gv, gh 들 중 적어도 하나와 현재 블록 분류 단위 주변의 블록 분류 단위의 가로, 세로 방향의 기울기 값의 합 중 적어도 하나의 차이가 임계값 E 이하인 경우, 현재 블록 분류 단위 주변의 블록 분류 단위의 블록 분류 색인을 현재 블록 단위의 블록 분류 색인으로 결정할 수 있다. 여기서, 임계값 E는 0을 포함한 양의 정수이다.
다른 예로, 현재 블록 단위의 세로, 가로 방향의 기울기 값의 합 gv, gh의 합과 현재 블록 분류 단위 주변의 블록 분류 단위의 가로, 세로 방향의 기울기 값의 합의 차이가 임계값 E 이하인 경우, 현재 블록 분류 단위 주변의 블록 분류 단위의 블록 분류 색인을 현재 블록 단위의 블록 분류 색인으로 결정할 수 있다. 여기서, 임계값 E는 0을 포함한 양의 정수이다.
또 다른 예로, 현재 블록 단위 내 복원 샘플들 중 적어도 하나의 통계 값과 현재 블록 분류 단위 주변의 블록 분류 단위 내 복원 샘플들 중 적어도 하나의 통계 값의 차이가 임계값 E 이하인 경우, 현재 블록 단위 주변의 블록 분류 단위의 블록 분류 색인을 현재 블록 단위의 블록 분류 색인으로 결정할 수 있다. 여기서, 임계값 E는 0을 포함한 양의 정수이다.
또 다른 예로, 상기 블록 분류 색인을 결정하는 방법들 중 적어도 하나 이상의 조합을 이용해서 블록 분류 색인을 결정할 수 있다.
이하에서는, 필터링 수행 단계에 대해서 후술한다.
본 발명의 일 실시 예에 따를 때, 상기 결정된 블록 분류 색인에 대응하는 필터를 이용하여 복원/복호 영상 내 샘플 또는 블록에 필터링을 수행할 수 있다. 상기 필터링 수행 시 L가지의 필터 중 하나의 필터가 선택될 수 있다. 상기 L은 0을 포함한 양의 정수일 수 있다.
일 예로, 상기 블록 분류 단위로 L가지의 필터 중 하나의 필터가 선택되어 복원/복호 영상에 복원/복호 샘플 단위로 필터링을 수행할 수 있다.
다른 예로, 상기 블록 분류 단위로 L가지의 필터 중 하나의 필터가 선택되어 복원/복호 영상에 블록 분류 단위로 필터링을 수행할 수 있다.
또 다른 예로, 상기 블록 분류 단위로 L가지의 필터 중 하나의 필터가 선택되어 복원/복호 영상에 CU 단위로 필터링을 수행할 수 있다.
또 다른 예로, 상기 블록 분류 단위로 L가지의 필터 중 하나의 필터가 선택되어 복원/복호 영상에 블록 단위로 필터링을 수행할 수 있다.
또 다른 예로, 상기 블록 분류 단위로 L가지의 필터 중 U개의 필터가 선택되어 복원/복호 영상에 복원/복호 샘플 단위로 필터링을 수행할 수 있다. 이때, U는 양의 정수이다.
또 다른 예로, 상기 블록 분류 단위로 L가지의 필터 중 U개의 필터가 선택되어 복원/복호 영상에 블록 분류 단위로 필터링을 수행할 수 있다. 이때, U는 양의 정수이다.
또 다른 예로, 상기 블록 분류 단위로 L가지의 필터 중 U개의 필터가 선택되어 복원/복호 영상에 CU 단위로 필터링을 수행할 수 있다. 이때, U는 양의 정수이다.
또 다른 예로, 상기 블록 분류 단위로 L가지의 필터 중 U개의 필터가 선택되어 복원/복호 영상에 블록 단위로 필터링을 수행할 수 있다. 이때, U는 양의 정수이다.
한편, 상기 L가지의 필터들을 필터 세트(filter set)라고 표현할 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 L가지의 필터는 필터 계수, 필터 탭 수(필터 길이), 필터 형태 및 필터 종류 중 적어도 하나가 서로 다를 수 있다.
일 예로, 상기 L가지의 필터는 블록, CU, PU, TU, CTU, 슬라이스, 타일, 타일 그룹, 영상(픽처), 시퀀스 중 적어도 하나의 단위에서 필터 계수, 필터 탭 수(필터 길이), 필터 형태, 필터 종류 중 적어도 하나가 서로 같을 수 있다.
다른 예로, 상기 L가지의 필터는 블록, CU, PU, TU, CTU, 슬라이스, 타일, 타일 그룹, 영상(픽처), 시퀀스 중 적어도 하나의 단위에서 필터 계수, 필터 탭 수(필터 길이), 필터 형태, 필터 종류 중 적어도 하나가 서로 다를 수 있다.
또한, 상기 필터링은 샘플, 블록, CU, PU, TU, CTU, 슬라이스, 타일, 타일 그룹, 영상(픽처), 시퀀스 중 적어도 하나의 단위로 동일한 필터 또는 서로 다른 필터를 이용해서 수행될 수 있다.
또한, 상기 필터링은 샘플, 블록, CU, PU, TU, CTU, 슬라이스, 타일, 타일 그룹, 영상(픽처), 시퀀스 중 적어도 하나의 단위에서 필터링을 수행할지에 대한 필터링 수행 여부 정보에 따라 수행될 수 있다. 상기 필터링 수행 여부 정보는 샘플, 블록, CU, PU, TU, CTU, 슬라이스, 타일, 타일 그룹, 영상(픽처), 시퀀스 중 적어도 하나의 단위에서 부호화기에서 복호화기로 시그널링되는 정보일 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 필터링을 위한 필터로 마름모(diamond, rhombus)의 필터 형태를 가지며, 필터 탭 수가 서로 다른 N가지 필터를 사용할 수 있다. 여기서, N은 양의 정수일 수 있다. 예를 들어, 필터 탭수가 5x5, 7x7, 9x9인 마름모 형태는 도 33과 같이 나타낼 수 있다.
도 33은 본 발명의 일 실시 예에 따른 마름모 형태의 필터를 나타내는 도면이다.
도 33을 참조하면, 필터 탭수가 5x5, 7x7, 9x9인 마름모 형태의 3가지 필터 중 어떤 필터를 사용할지에 대한 정보를 부호화기에서 복호화기로 시그널링하기 위해, 픽처/타일/타일 그룹/슬라이스/시퀀스 단위에서 필터 색인(filter index)을 엔트로피 부호화/복호화할 수 있다. 즉, 비트스트림 내 시퀀스 파라미터 세트(sequence parameter set), 픽처 파라미터 세트(picture parameter set), 슬라이스 헤더(slice header), 슬라이스 데이터(slice data), 타일 헤더(tile header), 타일 그룹 헤더(tile group header) 등에 필터 색인을 엔트로피 부호화/복호화할 수 있다.
본 발명의 일 실시 예에 따를 때, 부호화기/복호화기에서 필터 탭수가 1개로 고정되어 있을 경우, 상기 필터 색인을 엔트로피 부호화/복호화하지 않고, 해당 필터를 이용해서 부호화기/복호화기에서 필터링을 수행할 수 있다. 여기서, 상기 필터 탭수는 휘도 성분인 경우 7x7 마름모 형태이고, 색차 성분인 경우 5x5 마름모 형태일 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 3가지의 마름모 형태 필터 중 적어도 하나는 휘도 성분 및 색차 성분 중 적어도 하나의 복원/복호 샘플 필터링에 사용될 수 있다.
일 예로, 휘도 성분 복원/복호 샘플에는 도 33의 3가지 마름모 형태 필터 중 적어도 하나의 필터가 복원/복호 샘플 필터링에 사용될 수 있다.
다른 예로, 색차 성분 복원/복호 샘플에는 도 33의 5x5 마름모 형태 필터가 복원/복호 샘플 필터링에 사용될 수 있다.
또 다른 예로, 색차 성분 복원/복호 샘플에는 상기 색차 성분에 대응하는 휘도 성분에서 선택된 필터를 이용하여 필터링이 수행될 수 있다.
한편, 도 33의 각 필터 형태 내 숫자는 필터 계수 색인(filter coefficient index)을 나타내며, 필터 중심으로 필터 계수 색인이 대칭 형태를 가질 수 있다. 즉, 도 33의 필터들을 점 대칭 필터(point symmetric filter) 형태라고 할 수 있다.
한편, 도 33 (a)와 같이 9x9 마름모 형태 필터의 경우 총 21개의 필터 계수, 도 33 (b)와 같이 7x7 마름모 형태 필터의 경우 총 13개의 필터 계수, 도 33 (c)와 같이 5x5 마름모 형태 필터의 경우 총 7개의 필터 계수가 엔트로피 부호화/복호화될 수 있다. 즉, 최대 21개의 필터 계수를 엔트로피 부호화/복호화해야 한다.
또한, 도 33 (a)와 같이 9x9 마름모 형태 필터의 경우 샘플 당 총 21개의 곱셈, 도 33 (b)와 같이 7x7 마름모 형태 필터의 경우 샘플 당 총 13개의 곱셈, 도 33 (c)와 같이 5x5 마름모 형태 필터의 경우 샘플 당 총 7개의 곱셈이 필요하다. 즉, 샘플 당 최대 21개의 곱셈을 이용해서 필터링을 수행해야 한다.
또한, 도 33 (a)와 같이 9x9 마름모 형태 필터의 경우 9x9 크기를 가지므로, 하드웨어 구현 시 필터 세로 길이의 절반인 4라인의 라인 버퍼(line buffer)가 필요하다. 즉, 최대 4개 라인에 대한 라인 버퍼가 필요하다.
본 발명의 일 실시 예에 따를 때, 상기 필터링을 위한 필터로 필터 탭 수는 모두 5x5로 동일하지만, 필터 형태가 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 등 중 적어도 하나를 포함하는 필터가 사용될 수 있다. 예를 들어, 필터 탭수가 5x5이며, 필터 형태가 정사각형, 팔각형, 눈송이, 마름모 형태는 도 34와 같이 나타낼 수 있다.
여기서, 필터 탭 수는 5x5로 한정되지 않고, 3x3, 4x4, 5x5, 6x6, 7x7, 8x8, 9x9, 5x3, 7x3, 9x3, 7x5, 9x5, 9x7, 11x7 등 HxV의 필터 탭을 가지는 적어도 하나의 필터가 사용될 수 있다. 여기서, H와 V는 양의 정수일 수 있고, 서로 같은 값 또는 서로 다른 값을 가질 수도 있다. 또한, H와 V 중 적어도 하나는 부호화기/복호화기에서 기정의된 값일 수 있고, 부호화기에서 복호화기로 시그널링되는 값일 수 있다. 또한, H와 V 중 하나의 값을 이용하여 다른 하나의 값이 정의될 수 있다. 또한, H와 V의 값을 이용하여 H 또는 V의 최종 값이 정의될 수 있다.
한편, 도 34의 예와 같은 필터들 중 어떤 필터를 사용할지에 대한 정보를 부호화기에서 복호화기로 시그널링하기 위해, 픽처/타일/타일 그룹/슬라이스/시퀀스 단위에서 필터 색인을 엔트로피 부호화/복호화할 수 있다. 즉, 비트스트림 내 시퀀스 파라미터 세트, 픽처 파라미터 세트, 슬라이스 헤더, 슬라이스 데이터, 타일 헤더, 타일 그룹 헤더 등에 필터 색인을 엔트로피 부호화/복호화할 수 있다.
한편, 도 34의 예와 같은 정사각형, 팔각형, 눈송이, 마름모 형태 필터 중 적어도 하나는 휘도 성분 및 색차 성분 중 적어도 하나의 복원/복호 샘플 필터링에 사용될 수 있다.
한편, 도 34의 각 필터 형태 내 숫자는 필터 계수 색인을 나타내며, 필터 중심으로 필터 계수 색인이 대칭 형태를 가질 수 있다. 즉, 도 34의 필터들을 점 대칭 필터 형태라고 할 수 있다.
본 발명의 일 실시 예에 따를 때, 복원 영상을 샘플 단위로 필터링하는 경우, 각 영상/슬라이스/타일/타일 그룹마다 어떤 필터 형태를 사용할지를 부호화기에서 율-왜곡 최적화 관점에서 결정할 수 있다. 또한, 상기 결정된 필터 형태를 이용해서 필터링을 수행할 수 있다. 도 34와 같은 필터 형태에 따라 부호화 효율 향상 정도, 필터 정보의 양(필터 계수의 개수) 등이 달라지므로 영상/슬라이스/타일/타일 그룹 단위로 최적의 필터 형태를 결정할 필요가 있다. 즉, 영상의 해상도, 영상 특성, 비트율(bitrate) 등에 따라 도 34의 예와 같은 필터 형태 중 최적의 필터 형태가 다르게 결정될 수 있다.
본 발명의 일 실시 예를 따를 때, 도 34의 예와 같은 필터를 이용하는 것이 도 33의 예와 같은 필터를 이용하는 것과 비교하여 부호화기/복호화기의 계산 복잡도를 감소시킬 수 있다.
일 예로, 도 34 (a)와 같이 5x5 정사각형 형태 필터의 경우 총 13개의 필터 계수, 도 34 (b)와 같이 5x5 팔각형 형태 필터의 경우 총 11개의 필터 계수, 도 34 (c)와 같이 5x5 눈송이 형태 필터의 경우 총 9개의 필터 계수, 도 34 (c)와 같이 5x5 마름모 형태 필터의 경우 총 7개의 필터 계수가 엔트로피 부호화/복호화될 수 있다. 즉, 필터의 형태에 따라 엔트로피 부호화/복호화 대상의 필터 계수의 개수가 달라질 수 있다. 여기서, 도 34의 예와 같은 필터들 중 필터 계수의 최대 개수(13개)는 도 33의 예와 같은 필터들 중 필터 계수의 최대 개수(21개)보다 작다. 따라서, 도 34의 예와 같은 필터를 이용할 경우 엔트로피 부호화/복호화 대상 필터 계수의 개수가 감소하므로, 부호화기/복호화기의 계산 복잡도를 감소시킬 수 있다.
다른 예로, 도 34 (a)와 같이 5x5 정사각형 형태 필터의 경우 샘플 당 총 13개의 곱셈, 도 34 (b)와 같이 5x5 팔각형 형태 필터의 경우 샘플 당 총 11개의 곱셈, 도 34 (c)와 같이 5x5 눈송이 형태 필터의 경우 샘플 당 총 9개의 곱셈, 도 34 (d)와 같이 5x5 마름모 형태 필터의 경우 샘플 당 총 7개의 곱셈이 필요하다. 도 34의 예와 같은 필터들 중 필터의 샘플 당 최대 곱셈 수(13개)가 도 33의 예와 같은 필터들 중 필터의 샘플 당 최대 곱셈 수(21개)보다 작다. 따라서, 도 34의 예와 같은 필터를 이용할 경우 샘플 당 곱셈 수가 감소하므로, 부호화기/복호화기의 계산 복잡도를 감소시킬 수 있다.
또 다른 예로, 도 34의 예와 같은 필터에서 각 필터 형태는 모두 5x5 크기를 가지므로, 하드웨어 구현 시 필터 세로 길이의 절반인 2라인의 라인 버퍼가 필요하다. 여기서, 도 34의 예와 같은 필터들을 구현하는데 필요한 라인 버퍼의 라인 수(2개)가 도 33의 예와 같은 필터들을 구현하는데 필요한 라인 버퍼의 라인 수(4개)보다 작다. 따라서, 도 34의 예와 같은 필터를 이용할 경우 라인 버퍼의 크기를 절약할 수 있으며, 부호화기/복호화기의 구현 복잡도, 메모리 요구량, 메모리 접근 대역폭을 감소시킬 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 필터링을 위한 필터로서 필터 형태가 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 중 적어도 하나를 포함하는 필터가 사용될 수 있다. 예를 들어, 도 35a 및/또는 도 35b의 예와 같이 정사각형, 팔각형, 눈송이, 마름모, 육각형, 직사각형, 십자가, 샵, 클로버, 대각 형태 등을 가질 수 있다.
일 예로, 도 35a 및/또는 도 35b에서 필터 세로 길이가 5인 필터들 중 적어도 하나를 이용해서 필터 세트를 구성한 후 필터링을 수행할 수 있다.
다른 예로, 도 35a 및/또는 도 35b에서 필터 세로 길이가 3인 필터들 중 적어도 하나를 이용해서 필터 세트를 구성한 후 필터링을 수행할 수 있다.
또 다른 예로, 도 35a 및/또는 도 35b에서 필터 세로 길이가 5 및 3인 필터들 중 적어도 하나를 이용해서 필터 세트를 구성한 후 필터링을 수행할 수 있다.
한편, 도 35a 및/또는 도 35b에서 필터의 형태는 필터 세로 길이를 3 또는 5를 기준으로 설계한 것이지만, 이에 한정되지 않으며, 필터 세로 길이가 M인 경우로 설계하여 필터링에 사용할 수 있다. 여기서, M은 양의 정수이다.
한편, 도 35a 및/또는 도 35b의 예와 같은 필터들 중 H만큼의 필터 세트를 구성하여 어떤 필터를 사용할지에 대한 정보를 부호화기에서 복호화기로 시그널링하기 위해, 픽처/타일/타일 그룹/슬라이스/시퀀스 단위에서 필터 색인을 엔트로피 부호화/복호화할 수 있다. 여기서, H는 양의 정수이다. 즉, 비트스트림 내 시퀀스 파라미터 세트, 픽처 파라미터 세트, 슬라이스 헤더, 슬라이스 데이터, 타일 헤더, 타일 그룹 헤더 등에 필터 색인을 엔트로피 부호화/복호화할 수 있다.
한편, 상기 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 형태 필터 중 적어도 하나는 휘도 성분 및 색차 성분 중 적어도 하나의 복원/복호 샘플 필터링에 사용될 수 있다.
한편, 도 35a 및/또는 도 35b의 각 필터 형태 내 숫자는 필터 계수 색인을 나타내며, 필터 중심으로 필터 계수 색인이 대칭 형태를 가진다. 즉, 도 35a 및/또는 도 35b의 필터들을 점 대칭 필터 형태라고 할 수 있다.
본 발명의 일 실시 예를 따를 때, 도 35a 및/또는 도 35b의 예와 같은 필터를 이용하는 것이 도 33의 예와 같은 필터를 이용하는 것과 비교하여 부호화기/복호화기의 계산 복잡도를 감소시킬 수 있다.
일 예로, 도 35a 및/또는 도 35b의 예와 같은 필터들 중 적어도 하나를 이용할 경우, 도 33의 예와 같은 9x9 마름모 형태 필터 계수의 개수보다 엔트로피 부호화/복호화 대상 필터 계수의 개수를 감소시킬 수 있으며, 부호화기/복호화기의 계산 복잡도를 감소시킬 수 있다.
다른 예로, 도 35a 및/또는 도 35b의 예와 같은 필터들 중 적어도 하나를 이용할 경우, 도 33의 예와 같은 9x9 마름모 형태 필터 계수의 필터링에 필요한 샘플 당 곱셈 수보다 곱셈 수를 감소시킬 수 있으며, 부호화기/복호화기의 계산 복잡도를 감소시킬 수 있다.
또 다른 예로, 도 35a 및/또는 도 35b의 예와 같은 필터들 중 적어도 하나를 이용할 경우, 도 33의 예와 같은 9x9 마름모 형태 필터 계수의 필터링에 필요한 라인 버퍼의 라인 수보다 라인 버퍼의 라인 수를 감소시킬 수 있으며, 부호화기/복호화기의 구현 복잡도, 메모리 요구량, 메모리 접근 대역폭을 감소시킬 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 점 대칭 필터 형태 대신, 도 36의 예와 같이 가로/세로 대칭 필터(horizontal/vertical symmetric filter) 형태 중 적어도 하나를 포함하는 필터를 필터링에 사용할 수 있다. 또는, 점 대칭, 가로/세로 대칭 필터 외에 대각 대칭 필터도 사용할 수 있다. 도 36에서 각 필터 형태 내 숫자는 필터 계수 색인을 나타낼 수 있다.
일 예로, 도 36에서 필터 세로 길이가 5인 필터들 중 적어도 하나를 이용해서 필터 세트를 구성한 후 필터링을 수행할 수 있다.
다른 예로, 도 36에서 필터 세로 길이가 3인 필터들 중 적어도 하나를 이용해서 필터 세트를 구성한 후 필터링을 수행할 수 있다.
또 다른 예로, 도 36에서 필터 세로 길이가 5 및 3인 필터들 중 적어도 하나를 이용해서 필터 세트를 구성한 후 필터링을 수행할 수 있다.
한편, 도 36에서 필터의 형태는 필터 세로 길이를 3 또는 5를 기준으로 설계한 것이지만, 이에 한정되지 않으며, 필터 세로 길이가 M일 경우로 설계하여 필터링에 사용할 수 있다. 여기서, M은 양의 정수이다.
한편, 도 36의 예와 같은 필터들 중 H만큼의 필터 세트를 구성하여 어떤 필터를 사용할지에 대한 정보를 부호화기에서 복호화기로 시그널링하기 위해, 픽처/타일/타일 그룹/슬라이스/시퀀스 단위에서 필터 색인을 엔트로피 부호화/복호화할 수 있다. 여기서, H는 양의 정수이다. 즉, 비트스트림 내 시퀀스 파라미터 세트, 픽처 파라미터 세트, 슬라이스 헤더, 슬라이스 데이터, 타일 헤더, 타일 그룹 헤더 등에 필터 색인을 엔트로피 부호화/복호화할 수 있다.
한편, 상기 마름모, 직사각형, 정사각형, 사다리꼴, 대각, 눈송이, 샵, 클로버, 십자가, 삼각형, 오각형, 육각형, 팔각형, 십각형, 십이각형 형태 필터 중 적어도 하나는 휘도 성분 및 색차 성분 중 적어도 하나의 복원/복호 샘플 필터링에 사용될 수 있다.
본 발명의 일 실시 예를 따를 때, 도 36의 예와 같은 필터를 이용하는 것이 도 33의 예와 같은 필터를 이용하는 것과 비교하여 부호화기/복호화기의 계산 복잡도를 감소시킬 수 있다.
일 예로, 도 36의 예와 같은 필터들 중 적어도 하나를 이용할 경우, 도 33의 예와 같은 9x9 마름모 형태 필터 계수의 개수보다 엔트로피 부호화/복호화 대상 필터 계수의 개수를 감소시킬 수 있으며, 부호화기/복호화기의 계산 복잡도를 감소시킬 수 있다.
다른 예로, 도 36의 예와 같은 필터들 중 적어도 하나를 이용할 경우, 도 33의 예와 같은 9x9 마름모 형태 필터 계수의 필터링에 필요한 샘플 당 곱셈 수보다 곱셈 수를 감소시킬 수 있으며, 부호화기/복호화기의 계산 복잡도를 감소시킬 수 있다.
또 다른 예로, 도 36의 예와 같은 필터 중 적어도 하나를 이용할 경우, 도 33의 예와 같은 9x9 마름모 형태 필터 계수의 필터링에 필요한 라인 버퍼의 라인 수보다 라인 버퍼의 라인 수를 감소시킬 수 있으며, 부호화기/복호화기의 구현 복잡도, 메모리 요구량, 메모리 접근 대역폭을 감소시킬 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 블록 분류 단위로 필터링을 수행하기 전에, 블록 분류 단위에서 계산된 기울기 값의 합들(즉, 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들) 중 적어도 하나에 따라 필터 계수 f(k, l)에 기하학적 변환(geometric transformation)을 수행할 수 있다. 이때, 필터 계수에 대한 기하학적 변환은 필터에 90도 회전(rotation), 180도 회전, 270도 회전, 제2 대각 방향 플리핑(flipping), 제1 대각 방향 플리핑, 수직 방향 플리핑, 수평 방향 플리핑, 수직 및 수평 방향 플리핑, 줌인/아웃(zoom in/out) 중 적어도 하나를 수행하여 기하학적 변환된 필터를 산출하는 것을 의미할 수 있다.
한편, 상기 필터 계수에 기하학적 변환을 수행한 후 상기 기하학적 변환된 필터 계수를 이용해서 복원/복호 샘플을 필터링하는 것은, 필터가 적용되는 복원/복호 샘플들 중 적어도 하나에 대해서 기하학적 변환을 수행한 후 필터 계수를 이용해서 복원/복호 샘플을 필터링하는 것과 동일할 수 있다.
본 발명의 일 실시 예에 따를 때, 기하학적 변환은 수학식 33 내지 수학식 35의 예와 같이 수행될 수 있다.
Figure PCTKR2020007856-appb-M000033
Figure PCTKR2020007856-appb-M000034
Figure PCTKR2020007856-appb-M000035
여기서, 수학식 33은 제2 대각 방향 플리핑, 수학식 34는 수직 방향 플리핑, 수학식 35는 90도 회전에 관한 식을 나타내는 일 예이다. 수학식 34 내지 수학식 35에서 K는 가로 방향 및 세로 방향에 대한 필터 탭 수(필터 길이)이며, 0 ≤ k, l ≤ K-1는 필터 계수의 좌표를 의미할 수 있다. 예를 들어, (0, 0)은 좌상단 코너(corner)를 의미하고, (K-1, K-1)는 우하단 코너를 의미할 수 있다.
또한, 표 1은 기울기 값의 합에 따른 필터 계수 f(k, l)에 적용되는 기하학적 변환 종류의 일 예를 나타낸다.
[표 1]
Figure PCTKR2020007856-appb-I000039
도 37은 본 발명의 일 실시 예에 따른 정사각형, 팔각형, 눈송이, 마름모 형태의 필터에 기하학적 변환을 수행한 필터를 나타내는 도면이다.
도 37을 참조하면, 정사각형, 팔각형, 눈송이, 마름모 형태의 필터 계수에 제2 대각 방향 플리핑, 수직 방향 플리핑, 90도 회전 중 적어도 하나의 기하학적 변환을 수행할 수 있다. 그리고, 상기 기하학적 변환에 의해 획득된 필터 계수를 필터링에 사용할 수 있다. 한편, 상기 필터 계수에 기하학적 변환을 수행한 후 상기 기하학적 변환된 필터 계수를 이용해서 복원/복호 샘플을 필터링하는 것은, 필터가 적용되는 복원/복호 샘플들 중 적어도 하나에 대해서 기하학적 변환을 수행한 후 필터 계수를 이용해서 복원/복호 샘플을 필터링하는 것과 동일할 수 있다.
본 발명의 일 실시 예에 따를 때, 복원/복호 샘플
Figure PCTKR2020007856-appb-I000040
에 대해 상기 필터링을 수행하여, 필터링된 복호 샘플
Figure PCTKR2020007856-appb-I000041
를 생성할 수 있다. 상기 필터링된 복호 샘플은 수학식 36의 예와 같이 나타낼 수 있다.
Figure PCTKR2020007856-appb-M000036
수학식 36에서 L은 가로 방향 혹은 세로 방향에 따른 필터 탭 수(필터 길이)이며,
Figure PCTKR2020007856-appb-I000042
는 필터 계수이다.
한편, 상기 필터링 수행 시 필터링된 복호 샘플
Figure PCTKR2020007856-appb-I000043
에 오프셋 Y 값을 더해줄 수 있다. 상기 오프셋 Y 값은 엔트로피 부호화/복호화될 수 있다. 또한, 오프셋 Y 값은 현재 복원/복호 샘플 값과 주변 복원/복호 샘플들의 값 중 적어도 하나 이상의 통계값을 이용해서 산출될 수 있다. 또한, 상기 오프셋 Y 값은 현재 복원/복호 샘플과 주변 복원/복호 샘플 중 적어도 하나의 부호화 파라미터에 기반하여 결정될 수 있다. 여기서, Y 는 0을 포함하는 정수이다.
한편, 상기 필터링된 복호 샘플은 N 비트 내로 표현되도록 절삭을 수행할 수 있다. 여기서, N은 양의 정수이다. 예를 들어, 복원/복호 샘플에 필터링을 수행하여 생성된 필터링된 복호 샘플에 10비트로 절삭할 경우, 최종 복호 샘플 값은 0~1023 사이의 값을 가질 수 있다.
본 발명의 일 실시 예에 따를 때, 색차 성분의 경우 휘도 성분의 필터링 정보에 기반하여 필터링이 수행될 수 있다.
일 예로, 색차 성분의 복원 영상 필터링은 휘도 성분의 복원 영상 필터링이 수행되는 경우에만 수행될 수 있다. 여기서, 색차 성분의 복원 영상 필터링은 U(Cr) 및 V(Cb) 성분 중 적어도 하나 이상에 수행될 수 있다.
다른 예로, 색차 성분의 경우 대응하는 휘도 성분의 필터 계수, 필터 탭 수, 필터 형태, 필터링 수행 여부 정보 중 적어도 하나를 이용하여 필터링을 수행할 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 필터링 수행 시, 현재 샘플 주변에 가용하지 않는 샘플이 존재하는 경우, 패딩을 수행한 후 패딩된 샘플을 이용하여 필터링이 수행될 수 있다. 상기 패딩은 상기 가용하지 않는 샘플에 대해 인접하며 가용한 샘플 값을 상기 가용하지 않는 샘플 값에 복사하는 방식을 의미할 수 있다. 또는, 상기 가용하지 않는 샘플에 대해 인접하며 가용한 샘플 값에 기반하여 획득된 샘플 값 또는 통계 값을 이용할 수 있다. 상기 패딩은 P열 개 및 R행 개만큼 반복하여 수행할 수 있다. 여기서, P와 R은 양의 정수일 수 있다.
여기서, 가용하지 않는 샘플은 CTU, CTB, 슬라이스, 타일, 타일 그룹, 픽처 경계 밖에 존재하는 샘플을 의미할 수 있다. 또한, 가용하지 않는 샘플은 현재 샘플이 속한 CTU, CTB, 슬라이스, 타일, 타일 그룹, 픽처 중 적어도 하나와 서로 다른 CTU, CTB, 슬라이스, 타일, 타일 그룹, 픽처 중 적어도 하나에 속한 샘플을 의미할 수 있다.
일 실시 예에 따르면, 픽처 경계 밖에 위치한 샘플에 대한 패딩 방법과, 픽처 경계 안에 존재하지만 적응적 루프내 필터링이 적용되는 소정의 영역 밖에 위치한 샘플에 대한 패딩 방법은 상이할 수 있다. 픽처 경계 밖에 위치한 샘플에 대하여, 픽처의 경계에 위치한 가용 샘플의 값을 복사하여, 픽처의 경계 밖에 위치한 샘플의 값이 결정될 수 있다. 픽처 경계 안에 존재하지만 적응적 루프내 필터링이 적용되는 소정의 영역 밖에 위치한 샘플에 대하여, 가용하지 않은 샘플의 패딩 값은 픽처의 경계를 기준으로 가용한 샘플의 값을 미러링함으로써 결정될 수 있다.
일 실시 예에 따르면, 픽처 경계 밖에 위치한 샘플에 대한 패딩은 수평 방향으로만 수행되고, 수직 방향으로는 수행되지 않을 수 있다. 반대로, 픽처 경계 밖에 위치한 샘플에 대한 패딩은 수직 방향으로만 수행되고, 수평 방향으로는 수행되지 않을 수 있다.
또한, 필터링 수행 시, 소정의 샘플을 이용하지 않을 수 있다.
일 예로, 상기 필터링 수행 시, 패딩된 샘플을 이용하지 않을 수도 있다.
다른 예로, 상기 필터링 수행 시, 현재 샘플 주변에 가용하지 않는 샘플이 존재하는 경우, 상기 가용하지 않는 샘플을 필터링에 이용하지 않을 수 있다.
또 다른 예로, 상기 필터링 수행 시, 현재 샘플 주변에 존재하는 샘플이 CTU 또는 CTB 경계 밖에 위치하는 경우, 상기 주변에 존재하는 샘플을 필터링에 이용하지 않을 수 있다.
또한, 상기 필터링 수행 시, 디블록킹 필터링, 적응적 샘플 오프셋, 적응적 루프내 필터링 중 적어도 하나가 적용된 샘플을 사용할 수 있다.
또한, 상기 필터링 수행 시, 현재 샘플 주변에 존재하는 샘플이 CTU 또는 CTB 경계 밖에 위치하는 경우, 디블록킹 필터링, 적응적 샘플 오프셋, 적응적 루프내 필터링 중 적어도 하나를 적용하지 않을 수 있다.
또한, 상기 필터링에 사용되는 샘플에 CTU 또는 CTB 경계 밖 등에 위치하여 가용하지 않는 샘플이 포함될 경우, 해당 가용하지 않은 샘플에 디블록킹 필터링, 적응적 샘플 오프셋, 적응적 루프내 필터링 중 적어도 하나를 적용하지 않고 필터링에 사용할 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 필터링 수행 시, CU, PU, TU, 블록, 블록 분류 단위, CTU, CTB 중 적어도 하나의 경계 주변에 존재하는 샘플들 중 적어도 하나에 대해 필터링을 수행할 수 있다. 이때, 상기 경계는 수직 방향 경계, 수평 방향 경계, 대각 방향 경계 중 적어도 하나를 포함할 수 있다. 또한, 상기 경계 주변에 존재하는 샘플들은 경계를 기준으로 U행, U열, U 샘플들 중 적어도 하나일 수 있다. 여기서, U는 양의 정수일 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 필터링 수행 시, CU, PU, TU, 블록, 블록 분류 단위, CTU, CTB 중 적어도 하나의 경계 주변에 존재하는 샘플들을 제외한 블록 내부에 존재하는 샘플들 중 적어도 하나에 대해 필터링을 수행할 수 있다. 이때, 상기 경계는 수직 방향 경계, 수평 방향 경계, 대각 방향 경계 중 적어도 하나를 포함할 수 있다. 또한, 상기 경계 주변에 존재하는 샘플들은 경계를 기준으로 U행, U열, U 샘플들 중 적어도 하나일 수 있다. 여기서, U는 양의 정수일 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 필터링 수행 시, 현재 블록 및 주변 블록 중 적어도 하나의 부호화 파라미터에 기반하여 수행 여부가 결정될 수 있다. 이때, 상기 부호화 파라미터는 예측 모드(화면간 예측인지 화면내 예측인지), 화면내 예측 모드, 화면간 예측 모드, 화면간 예측 지시자, 움직임 벡터, 참조 영상 색인, 양자화 매개변수, 현재 블록 크기, 현재 블록 형태, 블록 분류 단위의 크기, 부호화 블록 플래그/패턴 중 적어도 하나를 포함할 수 있다.
또한, 상기 필터링 수행 시, 현재 블록 및 주변 블록 중 적어도 하나의 부호화 파라미터에 기반하여 필터 계수, 필터 탭 수(필터 길이), 필터 형태, 필터 종류 중 적어도 하나가 결정될 수 있다. 상기 부호화 파라미터 중 적어도 하나에 따라 필터 계수, 필터 탭 수(필터 길이), 필터 형태, 필터 종류 중 적어도 하나가 서로 달라질 수 있다.
일 예로, 상기 필터링 시에 사용되는 필터 개수는 양자화 매개변수에 따라 결정될 수 있다. 예를 들어, 양자화 매개변수가 임계값 T보다 작을 경우 J개의 필터를 필터링에 사용할 수 있고, 양자화 매개변수가 임계값 R보다 클 경우 H개의 필터를 필터링에 사용할 수 있고, 그렇지 않은 경우 G개의 필터를 필터링에 사용할 수 있다. 여기서, T, R, J, H, G는 0을 포함한 양의 정수이다. 또한, J는 H보다 크거나 같을 수 있다. 여기서, 양자화 매개변수 값이 상대적으로 클수록 적은 개수의 필터를 사용할 수 있다.
다른 예로, 상기 필터링 시에 사용되는 필터 개수는 현재 블록의 크기에 따라 결정될 수 있다. 예를 들어, 현재 블록의 크기가 임계값 T보다 작을 경우 J개의 필터를 사용할 수 있고, 현재 블록의 크기가 임계값 R보다 클 경우 H개의 필터를 사용할 수 있고, 그렇지 않은 경우 G개의 필터를 사용할 수 있다. 여기서, T, R, J, H, G는 0을 포함한 양의 정수이다. 또한, J는 H보다 크거나 같을 수 있다. 여기서, 블록의 크기가 상대적으로 클수록 적은 개수의 필터를 사용할 수 있다.
또 다른 예로, 상기 필터링 시에 사용되는 필터 개수는 블록 분류 단위의 크기에 따라 결정될 수 있다. 예를 들어, 블록 분류 단위의 크기가 임계값 T보다 작을 경우 J개의 필터를 사용할 수 있고, 블록 분류 단위의 크기가 임계값 R보다 클 경우 H개의 필터를 사용할 수 있고, 그렇지 않은 경우 G개의 필터를 사용할 수 있다. 여기서, T, R, J, H, G는 0을 포함한 양의 정수이다. 또한, J는 H보다 크거나 같을 수 있다. 여기서, 블록 분류 단위의 크기가 상대적으로 클수록 적은 개수의 필터를 사용할 수 있다.
또 다른 예로, 상기 필터링 방법들 중 적어도 하나 이상의 조합을 이용해서 필터링을 수행할 수 있다.
이하에서는, 필터 정보 부호화/복호화 단계에 대해서 후술한다.
본 발명의 일 실시 예에 따를 때, 필터 정보는 비트스트림 내 슬라이스 헤더와 슬라이스 데이터 내 첫번째 CTU 구문 요소(syntax element) 사이에서 엔트로피 부호화/복호화될 수 있다.
또한, 필터 정보는 비트스트림 내 시퀀스 파라미터 세트, 픽처 파라미터 세트, 슬라이스 헤더, 슬라이스 데이터, 타일 헤더, 타일 그룹 헤더, CTU, CTB 등에서 엔트로피 부호화/복호화될 수 있다.
한편, 상기 필터 정보에는 휘도 성분 필터링 수행 여부 정보, 색차 성분 필터링 수행 여부, 필터 계수 값, 필터 개수, 필터 탭 수(필터 길이) 정보, 필터 형태 정보, 필터 종류 정보, 슬라이스/타일/타일 그룹/픽처/CTU/CTB/블록/CU 단위 필터링 수행 여부 정보, CU 단위 필터링 수행 여부 정보 수 정보, CU 최대 깊이 필터링 정보, CU 단위 필터링 수행 여부 정보, 이전 참조 영상 필터 사용 여부 정보, 이전 참조 영상 필터 색인, 블록 분류 색인에 대한 고정된 필터 사용 여부 정보, 고정된 필터에 대한 색인 정보, 필터 병합 정보, 휘도 성분과 색차 성분에 다른 필터를 사용하는지 여부 정보, 필터의 대칭 형태에 관한 정보 중 적어도 하나 이상이 포함될 수 있다.
여기서, 상기 필터 탭 수는 필터의 가로 길이, 필터의 세로 길이, 필터의 제1 대각 길이, 필터의 제2 대각 길이, 필터의 가로와 세로 길이, 필터 내 필터 계수의 개수 중 적어도 하나일 수 있다.
한편, 필터 정보에는 최대 L개의 휘도 필터가 포함될 수 있다. 여기서, L은 양의 정수이며, 25일 수 있다. 또한, 필터 정보에는 최대 L개의 색차 필터가 포함될 수 있다. 여기서, L은 0을 포함한 양의 정수이며, 0 내지 8일 수 있다. 상기 최대 L개의 색차 필터에 대한 정보는 파라미터 세트 또는 헤더에 포함될 수 있다. 상기 파라미터 세트는 적응 파라미터 세트일 수 있다. 상기 최대 L개의 색차 필터에 대한 정보는 색차 ALF 개수 정보를 의미할 수 있고, 예를 들어, alf_chroma_num_alt_filters_minus1의 형태로 부호화/복호화될 수 있다.
한편, 하나의 필터에는 최대 K개의 휘도 필터 계수가 포함될 수 있다. 여기서, K는 양의 정수이며, 13일 수 있다. 또한, 필터 정보에는 최대 K개의 색차 필터 계수가 포함될 수 있다. 여기서, K는 양의 정수이며, 7일 수 있다.
예를 들어, 필터의 대칭 형태에 관한 정보는 필터 형태가 점 대칭 형태, 가로 대칭 형태, 세로 대칭 형태 또는 이들의 결합 형태에 관한 정보일 수 있다.
한편, 필터 계수들 중 일부의 계수들만 시그널링 할 수 있다. 예를 들어, 필터가 대칭 형태인 경우, 필터의 대칭 형태에 관한 정보와 대칭되는 필터 계수 세트 중 하나의 세트만 시그널링 할 수 있다. 또한, 예를 들어, 필터 중심의 필터 계수는 암시적으로 도출될 수 있기 때문에 시그널링 되지 않을 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 필터 정보 중 필터 계수 값은 부호화기에서 양자화될 수 있고, 양자화된 필터 계수 값이 엔트로피 부호화될 수 있다. 마찬가지로, 복호화기에서 양자화된 필터 계수 값이 엔트로피 복호화될 수 있고, 양자화된 필터 계수 값이 역양자화되어 필터 계수 값으로 복원될 수도 있다. 상기 필터 계수 값은 고정된 M 비트(bit)로 표현될 수 있는 값 범위 내로 양자화되고, 역양자화될 수도 있다. 또한, 상기 필터 계수 중 적어도 하나는 서로 다른 비트로 양자화되고, 역양자화될 수도 있다. 반대로, 상기 필터 계수 중 적어도 하나는 서로 동일한 비트로 양자화되고, 역양자화될 수도 있다. 또한, 상기 M 비트는 양자화 매개변수에 따라 결정될 수 있다. 또한, 상기 M 비트는 부호화기 및 복호화기에서 기정의된 상수 값일 수 있다. 여기서, M은 양의 정수일 수고 8 또는 10일 수 있다. 또한, 상기 M 비트는 부호화기/복호화기에서 샘플을 표현하는데 필요한 비트 수 보다 작거나 같을 수 있다. 예를 들어, 샘플을 표현하는데 필요한 비트 수가 10이면, 상기 M은 8일 수 있다. 필터 내 필터 계수들 중 제1 필터 계수는 -2M에서 2M-1까지의 값을 가질 수 있고, 제2 필터 계수는 0에서 2M-1까지의 값을 가질 수 있다. 여기서, 제1 필터 계수는 필터 계수들 중 중심 필터 계수를 제외한 나머지 필터 계수를 의미할 수 있고, 제2 필터 계수는 필터 계수들 중 중심 필터 계수를 의미할 수 있다.
또한, 상기 필터 정보 중 필터 계수 값은 부호화기 및 복호화기 중 적어도 하나에서 절삭(clipping)될 수 있고, 절삭에 관한 최소값 및 최대값 중 적어도 하나가 엔트로피 부호화/복호화될 수 있다. 상기 필터 계수 값은 최소값 및 최대값의 범위 내로 절삭될 수 있다. 또한, 상기 최소값 및 최대값 중 적어도 하나는 필터 계수마다 서로 다른 값을 가질 수 있다. 반대로, 상기 최소값 및 최대값 중 적어도 하나는 필터 계수마다 서로 동일한 값을 가질 수 있다. 또한, 상기 최소값 및 최대값 중 적어도 하나는 양자화 매개변수에 따라 결정될 수 있다. 또한 상기 최소값 및 최대값 중 적어도 하나는 부호화기 및 복호화기에서 기정의된 상수 값일 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 필터 정보 중 적어도 하나는 현재 블록 및 주변 블록 중 적어도 하나의 부호화 파라미터에 기반하여 엔트로피 부호화/복호화될 수 있다. 이때, 상기 부호화 파라미터는 예측 모드(화면간 예측인지 화면내 예측인지), 화면내 예측 모드, 화면간 예측 모드, 화면간 예측 지시자, 움직임 벡터, 참조 영상 색인, 양자화 매개변수, 현재 블록 크기, 현재 블록 형태, 블록 분류 단위의 크기, 부호화 블록 플래그/패턴 중 적어도 하나를 포함할 수 있다.
예를 들어, 상기 필터 정보 중 필터 개수는 픽처/슬라이스/타일 그룹/타일, CTU/CTB/블록의 양자화 매개변수에 따라 결정될 수 있다. 구체적으로, 양자화 매개변수가 임계값 T보다 작을 경우 J개의 필터를 엔트로피 부호화/복호화할 수 있고, 양자화 매개변수가 임계값 R보다 클 경우 H개의 필터를 엔트로피 부호화/복호화할 수 있고, 그렇지 않은 경우 G개의 필터를 엔트로피 부호화/복호화할 수 있다. 여기서, T, R, J, H, G는 0을 포함한 양의 정수이다. 또한, J는 H보다 크거나 같을 수 있다. 여기서, 양자화 매개변수 값이 상대적으로 클수록 적은 개수의 필터를 엔트로피 부호화/복호화할 수 있다.
본 발명의 일 실시 예에 따를 때, 휘도 성분 및 색차 성분 중 적어도 하나에 대한 필터링 수행 여부는 필터링 수행 여부 정보(플래그)를 이용할 수 있다.
일 예로, 휘도 성분 및 색차 성분 중 적어도 하나에 대한 필터링 수행 여부는 CTU/CTB/CU/블록 단위의 필터링 수행 여부 정보(플래그)를 이용할 수 있다. 예를 들어, CTB 단위의 필터링 수행 여부 정보가 제1 값인 경우 해당 CTB 에 대해 필터링을 수행할 수 있고, 제2 값인 경우 해당 CTB 에 대해 필터링을 수행하지 않을 수 있다. 이때, 각 CTB 별로 필터링 수행 여부 정보가 엔트로피 부호화/복호화될 수 있다. 또 다른 예로, CU의 최대 깊이 또는 최소 크기에 관한 정보(CU 최대 깊이 필터링 정보)를 추가로 엔트로피 부호화/복호화하여, 해당 최대 깊이 또는 최소 크기까지만 CU 단위 필터링 수행 여부 정보를 엔트로피 부호화/복호화할 수 있다.
예를 들어, CU 단위의 플래그는 블록 구조(block structure)에 따라 정방형 블록 분할과 비정방형 블록 분할이 가능한 경우, 정방형 블록 분할의 깊이까지만 엔트로피 부호화/복호화될 수 있다. 또한, CU 단위의 플래그는 추가적으로 비정방형 블록 분할의 깊이까지 엔트로피 부호화/복호화될 수 있다.
다른 예로, 휘도 성분 및 색차 성분 중 적어도 하나에 대한 필터링 수행 여부 정보는 블록 단위의 플래그를 이용할 수 있다. 예를 들어, 블록 단위의 플래그가 제1 값인 경우 해당 블록에 대해 필터링을 수행할 수 있고, 제2 값인 경우 해당 블록에 대해 필터링을 수행하지 않을 수 있다. 상기 블록 단위의 크기는 NxM이며, N과 M은 양의 정수일 수 있다.
또 다른 예로, 휘도 성분 및 색차 성분 중 적어도 하나에 대한 필터링 수행 여부 정보는 CTU 단위의 플래그를 이용할 수 있다. 예를 들어, CTU 단위의 플래그가 제1 값인 경우 해당 CTU에 대해 필터링을 수행할 수 있고, 제2 값인 경우 해당 CTU에 대해 필터링을 수행하지 않을 수 있다. 상기 CTU 단위의 크기는 NxM이며, N과 M은 양의 정수일 수 있다.
또 다른 예로, 휘도 성분 및 색차 성분 중 적어도 하나에 대한 필터링 수행 여부는 픽처/슬라이스/타일 그룹/타일 종류에 따라 결정될 수 있으며, 휘도 성분 및 색차 성분 중 적어도 하나에 대한 필터링 수행 여부 정보는 픽처/슬라이스/타일 그룹/타일 단위의 플래그를 이용할 수 있다.
본 발명의 일 실시 예에 따를 때, 엔트로피 부호화/복호화해야 할 필터 계수 양을 감소시키기 위해, 서로 다른 블록 분류에 해당하는 필터 계수를 병합(merge)할 수 있다. 이때, 필터 계수가 병합되는지 여부에 대한 필터 병합 정보가 엔트로피 부호화/복호화될 수 있다.
또한, 엔트로피 부호화/복호화해야 할 필터 계수 양을 감소시키기 위해, 참조 영상의 필터 계수를 이용해서 현재 영상의 필터 계수로 사용할 수 있다. 이때, 참조 영상의 필터 계수를 이용하는 방법을 시간적 필터 계수 예측이라고 할 수 있다. 예를 들어, 상기 시간적 필터 계수 예측은 화면간 예측 영상(B/P-영상/슬라이스/타일 그룹/타일)에 사용될 수 있다. 한편, 참조 영상의 필터 계수는 메모리에 저장될 수 있다. 또한, 현재 영상에서 참조 영상의 필터 계수를 사용하는 경우, 현재 영상에 필터 계수의 엔트로피 부호화/복호화를 생략할 수 있다. 이 경우, 어떤 참조 영상의 필터 계수를 사용할지에 대한 이전 참조 영상 필터 색인이 엔트로피 부호화/복호화될 수 있다.
일 예로, 시간적 필터 계수 예측을 사용하는 경우, 필터 세트의 후보 리스트를 구성할 수 있다. 새로운 시퀀스를 복호화하기 전에 필터 세트의 후보 리스트는 비어 있지만, 하나의 영상을 복호화할 때마다 해당 영상의 필터 계수는 필터 세트의 후보 리스트에 포함될 수 있다. 만약, 필터 세트의 후보 리스트 내 필터 개수가 최대 필터 개수 G에 도달하게 되면, 새로운 필터는 복호화 순서상 가장 오래된 필터를 대체할 수 있다. 즉, FIFO(first-in-first-out) 방식으로 필터 세트의 후보 리스트를 업데이트할 수 있다. 여기서, G는 양의 정수이며, 6일 수 있다. 필터 세트의 후보 리스트 내 필터의 중복을 방지하기 위해, 시간적 필터 계수 예측을 사용하지 않은 영상의 필터 계수가 필터 세트의 후보 리스트에 포함될 수 있다.
다른 예로, 시간적 필터 계수 예측을 사용하는 경우, 시간적 확장성(temporal scalability)을 지원하기 위해 다수 개의 시간적 계층(temporal layer) 색인에 대한 필터 세트의 후보 리스트를 구성할 수 있다. 즉, 시간적 계층마다 필터 세트의 후보 리스트를 구성할 수 있다. 예를 들어, 각 시간적 계층에 대한 필터 세트의 후보 리스트는 이전 복호 영상 중 시간적 계층 색인과 같거나 작은 복호 영상의 필터 세트를 포함할 수 있다. 또한, 각 영상에 대한 복호화 이후 해당 영상에 대한 필터 계수는 해당 영상의 시간적 계층 색인과 같거나 큰 시간적 계층 색인을 가지는 필터 세트의 후보 리스트에 포함될 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 필터링은 고정된 필터(fixed filter) 세트를 이용할 수 있다.
화면내 예측 영상(I 영상/슬라이스/타일 그룹/타일)에서는 시간적 필터 계수 예측을 사용할 수 없지만, 각 블록 분류 색인에 따라 최대 16 종류의 고정된 필터 세트들 중 적어도 하나의 필터를 필터링에 사용할 수 있다. 고정된 필터 세트 사용 여부를 부호화기에서 복호화기로 시그널링하기 위해, 각 블록 분류 색인에 대한 고정된 필터 사용 여부 정보가 엔트로피 부호화/복호화될 수 있고, 고정된 필터를 사용할 경우 고정된 필터에 대한 색인 정보도 엔트로피 부호화/복호화할 수 있다. 만약 특정 블록 분류 색인에 대해 고정된 필터를 사용할 경우에도 필터 계수는 엔트로피 부호화/복호화될 수 있고, 엔트로피 부호화/복호화되는 필터 계수와 고정된 필터 계수를 이용하여 복원 영상을 필터링할 수 있다.
또한, 상기 화면간 예측 영상(B/P-영상/슬라이스/타일 그룹/타일)에서도 상기 고정된 필터 세트를 이용할 수 있다.
또한, 상기 적응적 루프내 필터링은 필터 계수의 엔트로피 부호화/복호화 없이 고정된 필터로 수행될 수 있다. 여기서, 고정된 필터는 부호화기와 복호화기에서 미리 정의한 필터 세트를 의미할 수 있다. 이때, 필터 계수의 엔트로피 부호화/복호화 없이, 부호화기와 복호화기에서 미리 정의한 필터 세트 중 어떤 필터 또는 어떤 필터 세트를 사용할지에 대한 고정된 필터에 대한 색인 정보를 엔트로피 부호화/복호화할 수 있다. 상기 블록 분류 단위, 블록 단위, CU 단위, CTU 단위, 슬라이스, 타일, 타일 그룹, 픽처 단위 중 적어도 하나의 단위에서 필터 계수 값, 필터 탭 수(필터 길이), 필터 형태 중 적어도 하나가 다른 고정된 필터로 필터링을 수행할 수 있다.
한편, 상기 고정된 필터 세트 내 적어도 하나의 필터에 대해 필터 탭 수 및 필터 형태가 다른 필터로 변환할 수 있다. 예를 들어, 도 38의 예와 같이, 9x9 마름모 형태의 필터 계수를 5x5 정사각형 형태의 필터 계수로 변환할 수 있다. 구체적으로, 후술하는 바와 같이 9x9 마름모 형태의 필터 계수를 5x5 정사각형 형태의 필터 계수로 변환할 수 있다.
일 예로, 9x9 마름모 형태의 필터 계수 색인 0, 2, 6에 해당하는 필터 계수의 합은 5x5 정사각형 형태의 필터 계수 색인 2에 할당될 수 있다.
다른 예로, 9x9 마름모 형태의 필터 계수 색인 1,5에 해당하는 필터 계수의 합은 5x5 정사각형 형태의 필터 계수 색인 1에 할당될 수 있다.
또 다른 예로, 9x9 마름모 형태의 필터 계수 색인 3,7에 해당하는 필터 계수의 합은 5x5 정사각형 형태의 필터 계수 색인 3에 할당될 수 있다.
또 다른 예로, 9x9 마름모 형태의 필터 계수 색인 4에 해당하는 필터 계수는 5x5 정사각형 형태의 필터 계수 색인 0에 할당될 수 있다.
또 다른 예로, 9x9 마름모 형태의 필터 계수 색인 8에 해당하는 필터 계수는 5x5 정사각형 형태의 필터 계수 색인 4에 할당될 수 있다.
또 다른 예로, 9x9 마름모 형태의 필터 계수 색인 9, 10에 해당하는 필터 계수의 합은 5x5 정사각형 형태의 필터 계수 색인 5에 할당될 수 있다.
또 다른 예로, 9x9 마름모 형태의 필터 계수 색인 11에 해당하는 필터 계수는 5x5 정사각형 형태의 필터 계수 색인 6에 할당될 수 있다.
또 다른 예로, 9x9 마름모 형태의 필터 계수 색인 12에 해당하는 필터 계수는 5x5 정사각형 형태의 필터 계수 색인 7에 할당될 수 있다.
또 다른 예로, 9x9 마름모 형태의 필터 계수 색인 13에 해당하는 필터 계수는 5x5 정사각형 형태의 필터 계수 색인 8에 할당될 수 있다.
또 다른 예로, 9x9 마름모 형태의 필터 계수 색인 14, 15에 해당하는 필터 계수의 합은 5x5 정사각형 형태의 필터 계수 색인 9에 할당될 수 있다.
또 다른 예로, 9x9 마름모 형태의 필터 계수 색인 16, 17, 18에 해당하는 필터 계수의 합은 5x5 정사각형 형태의 필터 계수 색인 10에 할당될 수 있다.
또 다른 예로, 9x9 마름모 형태의 필터 계수 색인 19에 해당하는 필터 계수는 5x5 정사각형 형태의 필터 계수 색인 11에 할당될 수 있다.
또 다른 예로, 9x9 마름모 형태의 필터 계수 색인 20에 해당하는 필터 계수는 5x5 정사각형 형태의 필터 계수 색인 12에 할당될 수 있다.
한편, 표 2는 9x9 마름모 형태의 필터 계수를 5x5 정사각형 형태의 필터 계수로 변환하여 필터 계수를 생성하는 일 예를 나타낸다.
[표 2]
Figure PCTKR2020007856-appb-I000044
Figure PCTKR2020007856-appb-I000045
표 2에서 9x9 마름모 형태의 필터 중 적어도 하나의 필터 계수 합은 대응하는 5x5 정사각형 형태의 필터 중 적어도 하나의 필터 계수 합과 동일할 수 있다.
한편, 9x9 마름모 형태의 필터 계수에 대한 최대 16 종류의 고정된 필터 세트를 사용하는 경우, 최대 21개의 필터 계수 x 25개의 필터 x 16개 종류를 메모리에 저장해야 한다. 만약, 5x5 정사각형 형태의 필터 계수에 대한 최대 16 종류의 고정된 필터 세트를 사용하는 경우, 최대 13개의 필터 계수 x 25개의 필터 x 16개 종류를 메모리에 저장해야 한다. 이때, 5x5 정사각형 형태의 고정된 필터 계수를 저장하는데 필요한 메모리 크기는 9x9 마름모 형태의 고정된 필터 계수를 저장하는데 필요한 메모리 크기보다 작으므로, 부호화기/복호화기 구현 시 필요한 메모리 요구량, 메모리 접근 대역폭을 감소시킬 수 있다.
한편, 색차 성분 복원/복호 샘플에는 대응하는 위치의 휘도 성분에서 선택된 필터의 필터 탭 수 및/또는 필터 형태가 변환된 필터를 이용하여 필터링이 수행될 수 있다.
본 발명의 일 실시 예에 따를 때, 기정의된 고정된 필터로부터 필터 계수 예측이 금지될 수 있다.
본 발명의 일 실시 예에 따를 때, 곱셈 연산을 쉬프트 연산으로 대체할 수 있다. 우선, 휘도 및/또는 색차 블록의 필터링을 수행하기 위해 사용되는 필터 계수들을 2개의 그룹으로 나눌 수 있다. 예를 들어, 제1 그룹 {L0, L1, L2, L3, L4, L5, L7, L8, L9, L10. L14, L15, L16, L17} 및 그 나머지 계수들을 포함하는 제2 그룹으로 나눌 수 있다. 제1 그룹에는 {-64, -32, -16, -8, -4, 0, 4, 8, 16, 32, 64}의 계수 값들을 가지도록 제한될 수 있다. 이때, 제1 그룹에 포함된 필터 계수들과 복원/복호 샘플에 대한 곱셈 연산은 단일 비트 쉬프트 연산으로 구현될 수 있다. 따라서, 제1 그룹에 포함된 필터 계수들은 시그널링 오버헤드를 줄이기 위해, 이진화 전에 각각 비트 쉬프트 연산이 수행된 값에 매핑될 수 있다.
본 발명의 일 실시 예에 따를 때, 색차 성분에 대한 블록 분류 및/또는 필터링 수행 여부 결정은 동일 위치의 휘도 성분의 결과를 직접 재사용 할 수 있다. 또한, 색차 성분의 필터 계수는 휘도 성분의 필터 계수를 재사용할 수 있으며, 예를 들어, 일정한 5x5 마름모 필터 형태를 사용할 수 있다.
일 예로, 휘도 성분에 대한 9x9 필터 형태에서 색차 성분에 대한 5x5 필터 형태로 필터 계수를 변환할 수 있다. 이때, 가장 바깥쪽 필터 계수는 0으로 설정될 수 있다.
다른 예로, 휘도 성분의 5x5 필터 형태의 경우 상기 필터 계수는 색차 성분의 필터 계수와 동일할 수 있다. 즉, 휘도 성분의 필터 계수가 색차 성분의 필터 계수에 그대로 적용될 수 있다.
또 다른 예로, 색차 성분의 필터링에 사용되는 필터 형태를 5x5로 유지하기 위해 5x5 마름모 필터 형태 외부에 있는 필터 계수에 대해서는 5x5 마름모 경계에 있는 계수 값으로 대체할 수 있다.
한편, 도 39 내지 도 55는 부표본에 기반하여 가로, 세로, 제1 대각, 제2 대각 방향에 따른 기울기 값의 합을 결정하는 또 다른 예이다.
도 39 내지 도 55를 참조하면, 4x4 휘도 블록 단위에 필터링이 수행될 수 있다. 이때, 4x4 휘도 블록 단위로 서로 다른 필터 계수를 이용해서 필터링이 수행될 수 있다. 상기 4x4 휘도 블록을 분류하기 위해 서브샘플링된 라플라시안 연산이 수행될 수 있다. 또한, 필터링을 위한 필터 계수들은 각각의 4x4 휘도 블록마다 변경될 수 있다. 또한, 각각의 4x4 휘도 블록은 최대 25개의 클래스 중 하나로 분류될 수 있다. 또한, 4x4 휘도 블록의 필터 색인에 대응하는 분류 색인은 상기 블록의 방향성 및/또는 양자화된 활동성 값에 기반하여 유도될 수 있다. 여기서, 각각의 4x4 휘도 블록에 대한 방향성 및/또는 양자화된 활동성 값을 계산하기 위해, 수직, 수평, 제1 대각 및/또는 제2 대각 방향의 각 기울기 값의 합은 8x8 블록 범위 내 서브샘플링된 위치에서 계산된 1D 라플라시안 연산 결과를 합산함으로써 계산될 수 있다.
구체적으로, 도 39를 참조하면, 4x4 블록 분류의 경우, 부표본에 기반하여 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다(이하 “제1 방법”이라 한다). 여기서, V, H, D1, D2는 샘플 단위에서 세로(수직), 가로(수평), 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 가로, 세로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 39에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낼 수 있다.
여기서, 도 40a 내지 도 40d는 상기 제1 방법에 의한 블록 분류의 부호화/복호화 과정을 나타내는 일 예이다. 또한, 도 41a 내지 도 41d는 상기 제1 방법에 의한 블록 분류의 부호화/복호화 과정을 나타내는 다른 예이다. 또한, 도 42a 내지 42d는 상기 제1 방법에 의한 블록 분류의 부호화/복호화 과정을 나타내는 또 다른 예이다.
도 43을 참조하면, 4x4 블록 분류의 경우, 부표본에 기반하여 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다(이하 “제2 방법”이라 한다). 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 가로, 세로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 43에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낼 수 있다.
구체적으로, 제2 방법은 좌표 x 값 및 좌표 y 값이 모두 짝수이거나 또는 좌표 x 값 및 좌표 y 값이 모두 홀수인 경우, 상기 (x,y) 위치에서 1D 라플라시안 연산이 수행되는 것을 의미할 수 있다. 만약, 좌표 x 값 및 좌표 y 값이 모두 짝수가 아니거나 또는 좌표 x 값 및 좌표 y 값이 모두 홀수가 아닌 경우에는, 상기 (x,y) 위치에서의 1D 라플라시안 연산 결과는 0으로 할당될 수 있다. 즉, 좌표 x 값 및 좌표 y 값에 따라, 체커판(checkerboard) 패턴으로 1D 라플라시안 연산이 수행되는 것을 의미할 수 있다.
한편, 도 43을 참조하면, 상기 가로, 세로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행되는 위치가 같을 수 있다. 즉, 세로, 가로, 제1 대각 또는 제2 대각 방향에 관계없이 하나의(unified) 서브샘플링된 1D 라플라시안 연산 위치를 이용하여 상기 각 방향에 대한 1D 라플라시안 연산이 수행될 수 있다.
여기서, 도 44a 내지 도 44d는 상기 제2 방법에 의한 블록 분류의 부호화/복호화 과정을 나타내는 일 예이다. 또한, 도 45a 내지 도 45d는 상기 제2 방법에 의한 블록 분류의 부호화/복호화 과정을 나타내는 다른 예이다. 또한, 도 46a 내지 도 46d는 상기 제2 방법에 의한 블록 분류의 부호화/복호화 과정을 나타내는 또 다른 예이다. 또한, 도 47a 내지 도 47d는 상기 제2 방법에 의한 블록 분류의 부호화/복호화 과정을 나타내는 또 다른 예이다.
도 48을 참조하면, 4x4 블록 분류의 경우, 부표본에 기반하여 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다(이하 “제3 방법”이라 한다). 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 가로, 세로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 48에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낼 수 있다.
구체적으로, 제3 방법은 좌표 x 값 및 좌표 y 값 중 하나가 짝수이고 다른 하나는 홀수인 경우, 상기 (x,y) 위치에서 1D 라플라시안 연산이 수행되는 것을 의미할 수 있다. 만약, 좌표 x 값 및 좌표 y 값이 모두 짝수이거나 또는 좌표 x 값 및 좌표 y 값이 모두 홀수인 경우에는, 상기 (x,y) 위치에서의 1D 라플라시안 연산 결과는 0으로 할당될 수 있다. 즉, 좌표 x 값 및 좌표 y 값에 따라, 체커판(checkerboard) 패턴으로 1D 라플라시안 연산이 수행되는 것을 의미할 수 있다.
한편, 도 48을 참조하면, 상기 가로, 세로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행되는 위치가 같을 수 있다. 즉, 세로, 가로, 제1 대각 또는 제2 대각 방향에 관계없이 하나의(unified) 서브샘플링된 1D 라플라시안 연산 위치를 이용하여 상기 각 방향에 대한 1D 라플라시안 연산이 수행될 수 있다.
여기서, 도 49a 내지 도 49d는 상기 제3 방법에 의한 블록 분류의 부호화/복호화 과정을 나타내는 일 예이다. 또한, 도 50a 내지 도 50d는 상기 제3 방법에 의한 블록 분류의 부호화/복호화 과정을 나타내는 다른 예이다. 또한, 도 51a 내지 도 51d는 상기 제3 방법에 의한 블록 분류의 부호화/복호화 과정을 나타내는 또 다른 예이다.
도 52를 참조하면, 4x4 블록 분류의 경우, 부표본에 기반하여 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값의 합 gv, gh, gd1, gd2 들 중 적어도 하나를 계산할 수 있다(이하 “제4 방법”이라 한다). 여기서, V, H, D1, D2는 샘플 단위에서 세로, 가로, 제1 대각, 제2 대각 방향에 따른 각각의 1D 라플라시안 연산의 결과를 나타낸다. 즉, V, H, D1, D2 위치에서 각각의 가로, 세로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행될 수 있다. 또한, 1D 라플라시안 연산이 수행되는 위치가 서브샘플링될 수 있다. 도 52에서, 블록 분류 색인 C는 음영이 표시된 4x4 블록 단위로 할당될 수 있다. 이때, 1D 라플라시안 연산의 합이 계산되는 범위가 블록 분류 단위의 크기보다 클 수 있다. 여기서, 가는 실선에 포함된 사각형은 각 복원 샘플 위치를 나타내고, 굵은 실선은 1D 라플라시안 연산의 합이 계산되는 범위를 나타낼 수 있다.
구체적으로, 제4 방법은 가로 방향으로는 서브샘플링 하지 않고 세로 방향으로만 서브샘플링된 (x,y) 위치에서 1D 라플라시안 연산이 수행되는 것을 의미할 수 있다. 즉, 한 행씩 건너 뛰면서 1D 라플라시안 연산이 수행되는 것을 의미할 수 있다.
한편, 도 52를 참조하면, 상기 가로, 세로, 제1 대각, 제2 대각 방향에 따른 1D 라플라시안 연산이 수행되는 위치가 같을 수 있다. 즉, 세로, 가로, 제1 대각 또는 제2 대각 방향에 관계없이 하나의(unified) 서브샘플링된 1D 라플라시안 연산 위치를 이용하여 상기 각 방향에 대한 1D 라플라시안 연산이 수행될 수 있다.
여기서, 도 53a 내지 도 53d는 상기 제4 방법에 의한 블록 분류의 부호화/복호화 과정을 나타내는 일 예이다. 또한, 도 54a 내지 도 54d는 상기 제4 방법에 의한 블록 분류의 부호화/복호화 과정을 나타내는 다른 예이다. 또한, 도 55a 내지 도 55d는 상기 제4 방법에 의한 블록 분류의 부호화/복호화 과정을 나타내는 또 다른 예이다.
한편, 도 39 내지 도 55의 예를 통해 계산된 기울기 값을 이용하여 방향성 D 값 및 활동성 A 값을 양자화한 활동성 Aq 값 중 적어도 하나를 유도하는 나머지 과정은 전술하였던 루프내 필터링 과정과 유사할 수 있다.
한편, 상기 부표본에 기반하여 기울기 값을 계산하는 방법은 1D 라플라시안 연산의 합이 계산되는 범위 내 전체 샘플들이 아닌 1D 라플라시안 연산의 합이 계산되는 범위 내(예를 들어, 8x8 블록) 부표본된 샘플에 대해서 1D 라플라시안 연산이 수행되므로, 블록 분류 단계에 필요한 곱셈 연산, 쉬프트(shift) 연산, 덧셈 연산, 절대값 연산 등의 연산 수가 감소할 수 있다. 이로 인해 부호화기 및 복호화기의 계산 복잡도를 감소시킬 수 있다.
상기 제1 방법 내지 제4 방법에 의하면, 서브샘플링된 1D 라플라시안 연산에 기반한 4x4 블록 분류의 경우, 8x8 범위 내 서브샘플링된 위치에서 계산된 1D 라플라시안 연산 결과인 V, H, D1, D2는 수직, 수평, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값을 유도하기 위해 각 4x4 휘도 블록에 대해 합산된다. 따라서, 8x8 범위에서 상기 기울기 값 모두를 계산하기 위해, 720 + 240 번의 덧셈, 288 번의 비교, 144 번의 쉬프트가 요구된다.
한편, 종래의 루프내 필터링 방법에 의하면, 4x4 블록 분류의 경우, 8x8 범위 내 모든 위치에서 계산된 1D 라플라시안 연산 결과인 V, H, D1, D2는 수직, 수평, 제1 대각, 제2 대각 방향에 따른 각각의 기울기 값을 유도하기 위해 각 4x4 휘도 블록에 대해 합산된다. 따라서, 8x8 범위에서 상기 기울기 값 모두를 계산하기 위해, 1586 + 240 번의 덧셈, 576 번의 비교, 144 번의 쉬프트가 요구된다.
그리고, 상기 계산된 기울기 값을 이용하여 방향성 D 값 및 활동성 A 값을 양자화한 활동성 Aq 값을 유도하는 나머지 과정은 8 번의 덧셈, 28 번의 비교, 8 번의 곱셈, 20 번의 쉬프트가 요구된다.
따라서, 8x8 범위 내 상기 제1 방법 내지 제4 방법을 이용한 블록 분류 방법은 최종적으로 968 번의 덧셈, 316 번의 비교, 8 번의 곱셈, 164 번의 쉬프트가 요구된다. 또한, 샘플 당 연산은 15.125 번의 덧셈, 4.9375 번의 비교, 0.125 번의 곱셈, 2.5625 번의 쉬프트가 요구된다.
반면, 8x8 범위 내 상기 종래의 루프내 필터링 방법을 이용한 블록 분류 방법은 최종적으로 1832 번의 덧셈, 604 번의 비교, 8 번의 곱셈, 164 번의 쉬프트가 요구된다. 또한, 샘플 당 연산은 28.625 번의 덧셈, 9.4375 번의 비교, 0.125 번의 곱셈, 2.5625 번의 쉬프트가 요구된다.
따라서, 주어진 블록 크기(예를 들어, 8x8 범위)에 대한 계산 복잡도는, 상기 제1 방법 내지 제4 방법을 이용한 블록 분류 방법이 상기 종래의 루프내 필터링 방법을 이용한 블록 분류 방법에서의 총 연산과 비교하여 적어도 연산 수의 44.17%를 줄일 수 있다. 또한, 상기 제1 방법 내지 제4 방법을 이용한 블록 분류 방법이 상기 종래의 루프내 필터링 방법을 이용한 블록 분류 방법에서의 동작과 비교하여 적어도 동작 횟수의 17.02%를 줄일 수 있다.
본 발명에 따른 컴퓨터 판독가능한 기록 매체는 부호화 유닛을 블록 분류 단위로 분류하는 단계, 상기 부호화 유닛에 대한 필터 정보를 이용하여 상기 블록 분류 단위로 분류된 부호화 유닛을 필터링하는 단계 및 상기 필터 정보를 부호화하는 단계를 포함하는 영상 부호화 방법으로 생성된 비트스트림을 저장할 수 있다. 상기 블록 분류는 부호화 유닛 단위로 수행되는 것만 한정하는 것은 아니고, 슬라이스, 타일, 타일 그룹, 픽처, 시퀀스, CTU, 블록, CU, PU, TU 등의 단위에서 수행될 수 있다. 또한, 상기 필터링의 대상은 부호화 유닛으로 한정되는 것은 아니고, 슬라이스, 타일, 타일 그룹, 픽처, 시퀀스, CTU, 블록, CU, PU, TU 등에서 필터링이 수행될 수 있다. 또한, 상기 필터 정보는 부호화 유닛에 대해서만 한정되는 것은 아니고, 슬라이스, 타일, 타일 그룹, 픽처, 시퀀스, CTU, 블록, CU, PU, TU 등에 대한 필터 정보를 의미할 수 있다.
아래는 적응적 루프내 필터링을 부호화기/복호화기에서 구현하기 위해 필요한 구문 요소 정보, 구문 요소 정보의 의미, 부호화/복호화 과정의 예를 나타낸다. 본 명세서에서 신택스는 상기 구문 요소를 의미할 수 있다.
도 56 내지 도 61는 적응적 루프내 필터링에 필요한 구문 요소 정보의 예를 나타낸다. 적응적 루프내 필터링에 필요한 구문 요소 중 적어도 하나가 파라미터 세트, 헤더, 브릭, CTU, 또는 CU 중 적어도 하나에서 엔트로피 부호화/복호화될 수 있다.
이때, 파라미터 세트, 헤더, 브릭, CTU, 또는 CU 는 비디오 파라미터 세트(video parameter set), 디코딩 파라미터 세트(decoding parameter set), 시퀀스 파라미터 세트(sequence parameter set), 적응 파라미터 세트(adaptation parameter set), 픽처 파라미터 세트(picture parameter set), 픽처 헤더(picture header), 서브 픽처 헤더(sub-picture header), 슬라이스 헤더(slice header), 타일 그룹 헤더(tile group header), 타일 헤더(tile header), 브릭(brick), CTU(coding tree unit), 또는 CU(coding unit) 등 중 적어도 하나일 수 있다.
여기서, 상기 시그널링되는 파라미터 세트, 헤더, 브릭, CTU, 또는 CU 단위 에서 상기 적응적 루프내 필터링에 대한 구문 요소를 이용하여 적응적 루프내 필터링에 사용될 수 있다.
예를 들어, 상기 적응적 루프내 필터링에 대한 구문 요소가 시퀀스 파라미터 세트에서 엔트로피 부호화/복호화될 경우, 시퀀스 단위에서 동일한 구문 요소 값을 가지는 적응적 루프내 필터링에 대한 구문 요소를 이용하여 적응적 루프내 필터링을 수행할 수 있다.
또 다른 예로, 상기 적응적 루프내 필터링에 대한 구문 요소가 픽처 파라미터 세트에서 엔트로피 부호화/복호화될 경우, 픽처 단위에서 동일한 구문 요소 값을 가지는 적응적 루프내 필터링에 대한 구문 요소를 이용하여 적응적 루프내 필터링을 수행할 수 있다.
또 다른 예로, 상기 적응적 루프내 필터링에 대한 구문 요소가 픽처 헤더에서 엔트로피 부호화/복호화될 경우, 픽처 단위에서 동일한 구문 요소 값을 가지는 적응적 루프내 필터링에 대한 구문 요소를 이용하여 적응적 루프내 필터링을 수행할 수 있다.
또 다른 예로, 상기 적응적 루프내 필터링에 대한 구문 요소가 슬라이스 헤더에서 엔트로피 부호화/복호화될 경우, 슬라이스 단위에서 동일한 구문 요소 값을 가지는 적응적 루프내 필터링에 대한 구문 요소를 이용하여 적응적 루프내 필터링이 수행될 수 있다.
또 다른 예로, 상기 적응적 루프내 필터링에 대한 구문 요소가 적응 파라미터 세트에서 엔트로피 부호화/복호화될 경우, 동일한 적응 파라미터 세트를 참조하는 단위에서 동일한 구문 요소 값을 가지는 적응적 루프내 필터링에 대한 구문 요소를 이용하여 적응적 루프내 필터링이 수행될 수 있다.
적응 파라미터 세트는 서로 다른 픽처, 서브 픽처, 슬라이스, 타일 그룹, 타일, 또는 브릭에서 참조하여 공유될 수 있는 파라미터 세트를 의미할 수 있다. 또한, 픽처 내 서브 픽처, 슬라이스, 타일 그룹, 타일, 또는 브릭에서는 서로 다른 적응 파라미터 세트를 참조하여, 적응 파라미터 세트 내 정보를 사용할 수 있다.
또한, 적응 파라미터 세트는 픽처 내 서브 픽처, 슬라이스, 타일 그룹, 타일, 또는 브릭에서는 서로 다른 적응 파라미터 세트의 식별자를 사용하여 서로 다른 적응 파라미터 세트를 참조할 수 있다.
또한, 적응 파라미터 세트는 서브 픽처 내 슬라이스, 타일 그룹, 타일, 또는 브릭에서는 서로 다른 적응 파라미터 세트의 식별자를 사용하여 서로 다른 적응 파라미터 세트를 참조할 수 있다.
또한, 적응 파라미터 세트는 슬라이스 내 타일, 또는 브릭에서는 서로 다른 적응 파라미터 세트의 식별자를 사용하여 서로 다른 적응 파라미터 세트를 참조할 수 있다.
또한, 적응 파라미터 세트는 타일 내 브릭에서는 서로 다른 적응 파라미터 세트의 식별자를 사용하여 서로 다른 적응 파라미터 세트를 참조할 수 있다.
상기 적응 파라미터 세트 식별자는 적응 파라미터 세트에 부여된 식별번호를 의미할 수 있다.
상기 시퀀스의 파라미터 세트 또는 헤더에 적응 파라미터 세트 식별자에 대한 정보가 포함될 수 있다. 그리고 해당 적응 파라미터 세트 식별자에 대응하는 적응 파라미터 세트가 해당 시퀀스에서 사용될 수 있다.
상기 픽처의 파라미터 세트 또는 헤더에 적응 파라미터 세트 식별자에 대한 정보가 포함될 수 있다. 그리고 해당 적응 파라미터 세트 식별자에 대응하는 적응 파라미터 세트가 해당 픽처에서 사용될 수 있다.
상기 서브 픽처의 파라미터 세트 또는 헤더에 적응 파라미터 세트 식별자에 대한 정보가 포함될 수 있다. 그리고 해당 적응 파라미터 세트 식별자에 대응하는 적응 파라미터 세트가 해당 서브 픽처에서 사용될 수 있다.
상기 타일의 파라미터 세트 또는 헤더에 적응 파라미터 세트 식별자에 대한 정보가 포함될 수 있다. 그리고 해당 적응 파라미터 세트 식별자에 대응하는 적응 파라미터 세트가 해당 타일에서 사용될 수 있다.
상기 슬라이스의 파라미터 세트 또는 헤더에 적응 파라미터 세트 식별자에 대한 정보가 포함될 수 있다. 그리고 해당 적응 파라미터 세트 식별자에 대응하는 적응 파라미터 세트가 해당 슬라이스에서 사용될 수 있다.
상기 브릭의 파라미터 세트 또는 헤더에 적응 파라미터 세트 식별자에 대한 정보가 포함될 수 있다. 그리고 해당 적응 파라미터 세트 식별자에 대응하는 적응 파라미터 세트가 해당 브릭에서 사용될 수 있다.
상기 픽처는 하나 이상의 타일 행과 하나 이상의 타일 열로 분할될 수 있다.
상기 서브 픽처는 픽처 내에서 하나 이상의 타일 행과 하나 이상의 타일 열로 분할될 수 있다. 상기 서브 픽처는 픽처 내에서 직사각형/정사각형 형태를 가지는 영역이며, 하나 이상의 CTU를 포함할 수 있다. 또한, 하나의 서브 픽처 내에는 적어도 하나 이상의 타일/브릭/슬라이스가 포함될 수 있다.
상기 타일은 픽처 내에서 직사각형/정사각형 형태를 가지는 영역이며, 하나 이상의 CTU를 포함할 수 있다. 또한, 타일은 하나 이상의 브릭으로 분할될 수 있다.
상기 브릭은 타일 내에서 하나 이상의 CTU 행을 의미할 수 있다. 타일은 하나 이상의 브릭으로 분할될 수 있고, 각 브릭은 적어도 하나 이상의 CTU 행을 가질 수 있다. 또한 브릭은 추가적으로 분할되지 않는 타일을 의미할 수 있다.
상기 슬라이스는 픽처 내에서 하나 이상의 타일을 포함할 수 있고, 타일 내 하나 이상의 브릭을 포함할 수 있다.
도 56의 예와 같이, sps_alf_enabled_flag는 적응적 루프내 필터링이 시퀀스 단위에서 수행되는지에 대한 정보를 의미할 수 있다.
예를 들어, sps_alf_enabled_flag가 제1 값(예: 0)인 경우 시퀀스 단위에서 적응적 루프내 필터링이 수행되지 않을 수 있다. 그리고 sps_alf_enabled_flag가 제2 값(예: 1)인 경우 시퀀스 단위에서 적응적 루프내 필터링이 수행될 수 있다.
sps_alf_enabled_flag가 비트스트림 내에 존재하지 않을 경우 sps_alf_enabled_flag는 제1 값(예: 0)으로 추론(infer)될 수 있다.
도 57의 예와 같이, adaptation_parameter_set_id는 다른 구문 요소에 의해 참조되는 적응 파라미터 세트의 식별자(identifier)를 의미할 수 있다. adaptation_parameter_set_id가 비트스트림 내에 존재하지 않을 경우 adaptation_parameter_set_id는 제1 값(예: 0)으로 추론될 수 있다.
도 58의 예와 같이, aps_params_type는 적응 파라미터 세트 내에 존재하는 적응 파라미터 세트 타입 정보를 의미할 수 있다. 또한, aps_params_type은 적응 파라미터 세트에 포함된 부호화 정보의 타입을 의미할 수 있다. 예를 들어, aps_params_type가 제1 값(예: 0)인 경우, 적응 파라미터 세트 내 데이터/컨텐츠/구문 요소 값은 적응적 루프내 필터링에 관한 파라미터(ALF 타입)를 의미할 수 있다. aps_params_type가 제2 값(예: 1)인 경우, 적응 파라미터 세트 내 데이터/컨텐츠/구문 요소 값은 색차 스케일링 및 휘도 매핑에 관한 파라미터(색차 스케일링 및 휘도 매핑 타입)를 의미할 수 있다. aps_params_type가 제3 값(예: 2)인 경우, 적응 파라미터 세트 내 데이터/컨텐츠/구문 요소 값은 양자화 행렬 세트에 관한 파라미터(양자화 행렬 타입)를 의미할 수 있다. 여기서, SL은 양자화 행렬을 의미하는 스케일링 리스트(scaling list)를 의미할 수 있다. aps_params_type가 비트스트림 내에 존재하지 않을 경우 aps_params_type는 제1 값(예: 0), 제2 값(예: 1), 및 제3 값(예: 2)이 아닌 다른 값으로 추론될 수 있다.
이전에 시그널링된 적응 파라미터 세트의 적응 파라미터 세트 식별자와 동일한 적응 파라미터 세트 식별자가 현재 적응 파라미터 세트에 대하여 새롭게 시그널링될 수 있다. 또한, 이전에 시그널링된 적응 파라미터 세트의 적응 파라미터 세트 식별자 및 적응 파라미터 타입과 동일한 적응 파라미터 세트 식별자 및 적응 파라미터 타입을 가지는 적응 파라미터 세트에 대하여 새롭게 시그널링될 수 있다. 이 때, 이전에 시그널링된 적응 파라미터 세트의 데이터/컨텐츠/구문 요소 값은 새롭게 시그널링되는 적응 파라미터 세트의 데이터/컨텐츠/구문 요소 값으로 대체될 수 있다. 상기 대체되는 과정은 적응 파라미터 세트 업데이트(update) 과정을 의미한다.
즉, 부호화기/복호화기에서는 이전에 시그널링된 적응 파라미터 세트의 데이터/컨텐츠/구문 요소 값을 참조하여, 적응적 루프내 필터링, 색차 스케일링 및 휘도 매핑(LMCS; luma mapping with chroma scaling), 양자화 행렬을 이용한 양자화/역양자화 중 적어도 하나가 수행될 수 있다. 이전에 시그널링된 적응 파라미터 세트의 적응 파라미터 세트 식별자와 동일한 적응 파라미터 세트 식별자가 현재 적응 파라미터 세트에 대하여 새롭게 시그널링된 시점부터, 부호화기/복호화기에서는 새롭게 시그널링된 시점의 적응 파라미터 세트 내 데이터/컨텐츠/구문 요소 값을 참조하여, 적응적 루프내 필터링, 색차 스케일링 및 휘도 매핑(LMCS; luma mapping with chroma scaling), 양자화 행렬을 이용한 양자화/역양자화 중 적어도 하나가 수행될 수 있다.
또한, 부호화기/복호화기에서는 이전에 시그널링된 적응 파라미터 세트의 데이터/컨텐츠/구문 요소 값을 참조하여, 적응적 루프내 필터링, 색차 스케일링 및 휘도 매핑(LMCS; luma mapping with chroma scaling), 양자화 행렬을 이용한 양자화/역양자화 중 적어도 하나가 수행될 수 있다. 이전에 시그널링된 적응 파라미터 세트의 적응 파라미터 세트 식별자 및 적응 파라미터 타입과 동일한 적응 파라미터 세트 식별자 및 적응 파라미터 타입을 가지는 적응 파라미터 세트에 대하여 새롭게 시그널링된 시점부터, 부호화기/복호화기에서는 새롭게 시그널링된 시점의 적응 파라미터 세트 내 데이터/컨텐츠/구문 요소 값을 참조하여, 적응적 루프내 필터링, 색차 스케일링 및 휘도 매핑(LMCS; luma mapping with chroma scaling), 양자화 행렬을 이용한 양자화/역양자화 중 적어도 하나가 수행될 수 있다.
일 실시 예에 따르면, 적응 파라미터 세트에 색차 성분에 관련된 부호화 정보가 포함되어 있는지 여부를 나타내는 색차 성분 존재 정보(aps_chroma_present_flag)가 적응 파라미터 세트에 포함되어 부호화/복호화될 수 있다. 색차 성분 존재 정보가 적응 파라미터 세트에 색차 성분에 관련된 부호화 정보가 포함되어 있음을 나타내는 경우, 적응 파라미터 세트는 적응적 루프내 필터링, 색차 스케일링 및 휘도 매핑, 또는 양자화 행렬의 색차 성분에 대한 부호화 정보를 포함할 수 있다. 그렇지 않을 경우, 적응 파라미터 세트는 적응적 루프내 필터링, 색차 스케일링 및 휘도 매핑, 또는 양자화 행렬의 색차 성분에 대한 부호화 정보를 포함하지 않을 수 있다.
상기 색차 성분 존재 정보에 따라, 색차 성분의 양자화 행렬이 존재하는지 여부가 결정될 수 있다. 또한 상기 색차 성분 존재 정보에 따라, 색차 성분의 적응적 루프내 필터 정보가 존재하는지 여부가 결정될 수 있다. 또한 상기 색차 성분 존재 정보에 따라, 색차 성분의 색차 스케일링 및 휘도 매핑 정보가 존재하는지 여부가 결정될 수 있다.
일 실시 예에 따르면, 현재 비디오, 시퀀스, 픽처, 또는 슬라이스의 크로마 포맷이 4:0:0인 경우(모노크롬(monochrome)인 경우), 상기 색차 성분 존재 정보는 색차 성분이 존재하지 않음을 나타낼 수 있다. 따라서, 크로마 포맷이 4:0:0인 경우, 픽처 헤더 또는 슬라이스 헤더는 색차 성분에 대한 적응 파라미터 세트 식별자를 포함하지 않을 수 있다. 즉, 크로마 포맷이 4:0:0인 경우, 픽처 헤더 또는 슬라이스 헤더는 색차 성분에 대한 양자화 행렬 정보, 적응적 루프내 필터 정보, 색차 스케일링 및 휘도 매핑(LMCS, Luma Mapping with Chroma Scaling) 정보를 포함하지 않을 수 있다.
chroma_format_idc 또는 ChromaArrayType은 크로마 포맷을 의미할 수 있다. 상기 크로마 포맷은 색차 성분의 형식을 의미할 수 있다.
예를 들어, chroma_format_idc가 제1 값(예: 0)인 경우, 크로마 포맷(chroma format)은 4:0:0 으로 설정될 수 있다. 현재 픽처의 크로마 포맷이 4:0:0인 경우, 현재 픽처는 색차 성분이 없는 모노크롬(monochrome)으로 결정될 수 있다.
또한. chroma_format_idc가 제2 값(예: 1)인 경우, 크로마 포맷은 4:2:0으로 설정될 수 있다. chroma_format_idc가 제3 값(예: 2)인 경우, 크로마 포맷은 4:2:2으로 설정될 수 있다. chroma_format_idc가 제4 값(예: 3)인 경우, 크로마 포맷은 4:4:4으로 설정될 수 있다.
또한, 크로마 포맷이 4:0:0인 경우, 현재 픽처 또는 현재 슬라이스에 참조하는 적응 파라미터 세트 내의 색차 성분 존재 정보는 색차 성분에 관한 부호화 정보가 존재하지 않는 것을 의미하는 제1 값(예: 0)으로 결정될 수 있다.
또한, 크로마 포맷이 4:0:0가 아닌 경우, 현재 픽처 또는 현재 슬라이스에 참조하는 적응 파라미터 세트 내의 색차 성분 존재 정보는 색차 성분에 관한 부호화 정보가 존재하는 것을 의미하는 제2 값(예: 1)으로 결정될 수 있다.
또한, 크로마 포맷이 4:0:0인 경우, 현재 픽처 또는 현재 슬라이스에 참조하는 적응 파라미터 세트 내의 색차 성분 존재 정보는 색차 성분에 관한 양자화 행렬 정보가 존재하지 않는 것을 의미하는 제1 값(예: 0)으로 결정될 수 있다.
또한, 크로마 포맷이 4:0:0가 아닌 경우, 현재 픽처 또는 현재 슬라이스에 참조하는 적응 파라미터 세트 내의 색차 성분 존재 정보는 색차 성분에 관한 양자화 행렬 정보가 존재하는 것을 의미하는 제2 값(예: 1)으로 결정될 수 있다.
도 59의 예와 같이, slice_alf_enabled_flag는 적응적 루프내 필터링이 슬라이스 단위에서 Y, Cb, Cr 성분 중 적어도 하나에 대해 수행되는지에 대한 정보를 의미할 수 있다.
예를 들어, slice_alf_enabled_flag가 제1 값(예: 0)인 경우 슬라이스 단위에서 Y, Cb, Cr 성분 모두에 대해 적응적 루프내 필터링이 수행되지 않을 수 있다. 그리고, slice_alf_enabled_flag가 제2 값(예: 1)인 경우 슬라이스 단위에서 Y, Cb, Cr 성분 중 적어도 하나에 대해 적응적 루프내 필터링이 수행될 수 있다.
slice_alf_enabled_flag가 비트스트림 내에 존재하지 않을 경우, slice_alf_enabled_flag는 제1 값(예: 0)으로 추론될 수 있다.
slice_num_alf_aps_ids_luma는 슬라이스에서 참조하는 적응적 루프내 필터링에 대한 적응 파라미터 세트의 개수를 의미하는 슬라이스 휘도 ALF 세트 개수 정보일 수 있다. 여기서, ALF 세트는 복수의 적응적 루프내 필터(ALF, Adaptive Loop Filter)들로 이루어진 필터 집합을 의미할 수 있다. 이때, 휘도 ALF는 휘도 성분에 대한 적응적 루프내 필터를 의미할 수 있다.
상기 slice_num_alf_aps_ids_luma는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 6일 수 있다.
slice_num_alf_aps_ids_luma가 비트스트림 내에 존재하지 않을 경우 slice_num_alf_aps_ids_luma는 제1 값(예: 0)으로 추론될 수 있다.
또한, 부호화기/복호화기에서 기설정된 적응적 루프내 필터링에 대한 적응 파라미터 세트의 최대 개수와 색차 스케일링 및 휘도 매핑에 대한 적응 파라미터 세트의 최대 개수는 서로 동일할 수 있다. 또한, 부호화기/복호화기에서 기설정된 적응적 루프내 필터링에 대한 적응 파라미터 세트의 최대 개수와 양자화 행렬 세트에 대한 적응 파라미터 세트의 최대 개수는 서로 동일할 수 있다. 또한, 부호화기/복호화기에서 기설정된 색차 스케일링 및 휘도 매핑에 대한 적응 파라미터 세트의 최대 개수와 양자화 행렬 세트에 대한 적응 파라미터 세트의 최대 개수는 서로 동일할 수 있다.
또한, 부호화기/복호화기에서 기설정된 적응적 루프내 필터링에 대한 적응 파라미터 세트의 최대 개수 및 색차 스케일링 및 휘도 매핑에 대한 적응 파라미터 세트의 최대 개수는 서로 상이할 수 있다. 또한, 부호화기/복호화기에서 기설정된 양자화 행렬 세트에 대한 적응 파라미터 세트의 최대 개수 및 색차 스케일링 및 휘도 매핑에 대한 적응 파라미터 세트의 최대 개수는 서로 상이할 수 있다. 또한, 부호화기/복호화기에서 기설정된 적응적 루프내 필터링에 대한 적응 파라미터 세트의 최대 개수 및 양자화 행렬 세트에 대한 적응 파라미터 세트의 최대 개수는 서로 상이할 수 있다.
적응적 루프내 필터링에 대한 적응 파라미터 세트의 최대 개수, 색차 스케일링 및 휘도 매핑에 대한 적응 파라미터 세트의 최대 개수, 및 양자화 행렬 세트에 대한 적응 파라미터 세트의 최대 개수의 합이 부호화기/복호화기에서 가질 수 있는 적응 파라미터 세트의 최대 개수일 수 있다.
상기 적응적 루프내 필터링에 대한 적응 파라미터 세트의 개수는 화면내 슬라이스인 경우 최대 K개를 가질 수 있고, 화면간 슬라이스인 경우 최대 L개를 가질 수 있다. 여기서, K와 L은 양의 정수일 수 있고, 예를 들어 K는 1, L은 6일 수 있다.
상기 색차 스케일링 및 휘도 매핑에 대한 적응 파라미터 세트의 개수는 화면내 슬라이스인 경우 최대 K개를 가질 수 있고, 화면간 슬라이스인 경우 최대 L개를 가질 수 있다. 여기서, K와 L은 양의 정수일 수 있고, 예를 들어 K는 1, L은 6일 수 있다.
상기 양자화 행렬 세트에 대한 적응 파라미터 세트의 개수는 화면내 슬라이스인 경우 최대 K개를 가질 수 있고, 화면간 슬라이스인 경우 최대 L개를 가질 수 있다. 여기서, K와 L은 양의 정수일 수 있고, 예를 들어 K는 1, L은 6일 수 있다.
또는, 상기 색차 스케일링 및 휘도 매핑에 대한 적응 파라미터 세트의 개수는 슬라이스의 종류에 관계없이 최대 J개를 가질 수 있다. 여기서, J는 1 내지 8의 양의 정수일 수 있다. 예를 들어 J는 4일 수 있다.
또는, 상기 적응적 루프내 필터에 대한 적응 파라미터 세트의 개수는 슬라이스의 종류에 관계없이 최대 J개를 가질 수 있다. 여기서, J는 1 내지 8의 양의 정수일 수 있다. 예를 들어 J는 8일 수 있다.
또는, 상기 양자화 행렬 세트에 대한 적응 파라미터 세트의 개수는 슬라이스의 종류에 관계없이 최대 J개를 가질 수 있다. 여기서, J는 1 내지 8의 양의 정수일 수 있다. 예를 들어 J는 8일 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트 식별자는 N비트의 양의 정수 값을 가질 수 있다. 상기 N 값은 1보다 큰 양의 정수이다. 예를 들어, N 값은 5일 수 있다. 따라서, 상기 적응 파라미터 세트 식별자는 0부터 31 중 하나의 값을 나타낼 수 있다. 즉, 최대 32개의 적응 파라미터 세트가 정의될 수 있다.
상기 32개의 적응 파라미터 세트 중에서 8개의 적응 파라미터 세트는 양자화 행렬에 대한 정보를 나타낼 수 있다. 그리고 다른 8개의 적응 파라미터 세트는 적응적 루프내 필터에 관한 정보를 나타낼 수 있다. 그리고 다른 4개의 적응 파라미터 세트는 색차 스케일링 및 휘도 매핑에 관한 정보를 나타낼 수 있다.
양자화 행렬에 대한 적응 파라미터 세트 식별자는 0에서 N까지의 값을 가질 수 있다. 이때, N은 양의 정수이고, 7일 수 있다.
또한, 적응적 루프내 필터에 대한 적응 파라미터 세트 식별자는 0에서 N까지의 값을 가질 수 있다. 이때, N은 양의 정수이고, 7일 수 있다.
또한, 색차 스케일링 및 휘도 매핑에 대한 적응 파라미터 세트 식별자는 0에서 N까지의 값을 가질 수 있다. 이때, N은 양의 정수이고, 3일 수 있다.
상기 양자화 행렬, 적응적 루프내 필터, 색차 스케일링 및 휘도 매핑에 대한 적응 파라미터 세트 식별자는 적응 파라미터 세트 타입에 따라 고정 길이 부호(fixed-length code)로 부호화될 수 있다.
일 실시 예에 따르면, 하나의 픽처에 포함된 슬라이스들에 의하여 참조되는 적응 파라미터 세트의 최대 개수는 하나 이상일 수 있다. 예를 들어, 하나의 픽처에 포함된 슬라이스들은 최대 하나의 양자화 행렬에 대한 적응 파라미터 세트, 최대 하나의 색차 스케일링 및 휘도 매핑에 관한 적응 파라미터 세트, 최대 N개의 적응적 루프내 필터에 대한 적응 파라미터 세트를 참조할 수 있다. 상기 N은 2 이상의 정수 이다. 예를 들어, N은 8 또는 9일 수 있다.
slice_alf_aps_id_luma[ i ]는 슬라이스에서 참조하는 i번째 적응적 루프내 필터링에 대한 적응 파라미터 세트를 나타내는 슬라이스 휘도 ALF 세트 식별자를 의미할 수 있다.
slice_alf_aps_id_luma[ i ]가 비트스트림 내에 존재하지 않을 경우 slice_alf_aps_id_luma[ i ]는 제1 값(예: 0)으로 추론될 수 있다.
여기서, slice_alf_aps_id_luma[ i ]와 동일한 adaptation_parameter_set_id를 가지는 적응 파라미터 세트의 시간적 계층 식별자(Temporal Layer Identifier)는 현재 슬라이스의 시간적 계층 식별자보다 작거나 같을 수 있다. 본 명세서에서, adaptation_parameter_set_id는 적응 파라미터 세트 식별자를 의미할 수 있다.
하나의 픽처 내에서 2개 이상의 서브 픽처/슬라이스/타일 그룹/타일/브릭이 동일한 adaptation_parameter_set_id를 가지고, 상기 adaptation_parameter_set_id를 가지는 2개 이상의 적응적 루프내 필터링에 대한 적응 파라미터 세트가 존재할 경우, 동일한 adaptation_parameter_set_id를 가지는 2개 이상의 적응적 루프내 필터링에 대한 적응 파라미터 세트는 동일한 데이터/콘텐츠/구문 요소 값을 가질 수 있다.
화면내 슬라이스인 경우, slice_alf_aps_id_luma[ i ]는 화면내 슬라이스를 포함하는 픽처 또는 화면내 픽처가 아닌 다른 픽처에 관한 적응적 루프내 필터링에 대한 적응 파라미터 세트를 참조하지 않을 수 있다.
일 실시 예에 따르면, slice_alf_aps_id_luma[ i ]는 휘도 성분에 대한 적응적 루프내 필터 세트가 포함된 적응 파라미터 세트만을 참조할 수 있다.
일 실시 예에 따르면, slice_alf_aps_id_luma[ i ]는 픽처 헤더 또는 슬라이스 헤더에서 참조하는 적응 파라미터 세트들 중에서 적응적 루프내 필터링에 대한 적응 파라미터 세트를 참조할 수 있다. 그리고 픽처 헤더 또는 슬라이스 헤더는 픽처 또는 슬라이스에 적용될 수 있는 적응적 루프내 필터링에 대한 적응 파라미터 세트를 나타내는 부호화 정보를 포함할 수 있다. 여기서, 상기 부호화 정보가 나타내는 adaptation_parameter_set_id를 가지는 적응 파라미터 세트의 시간적 계층 식별자(Temporal Layer Identifier)는 현재 픽처의 시간적 계층 식별자보다 작거나 같을 수 있다.
소정의 적응 파라미터 세트의 적응 파라미터 세트 타입이 적응적 루프내 필터링에 관한 파라미터(ALF 타입)이며 적응 파라미터 세트 식별자(adaptation_parameter_set_id)가 현재 픽처 또는 픽처 헤더에서 참조하는 적응 파라미터 세트의 식별자인 alf_aps_id_luma[ i ]와 동일한 경우, 소정의 적응 파라미터 세트의 시간적 계층 식별자는 현재 픽처의 시간적 계층 식별자보다 작거나 같을 수 있다.
slice_alf_chroma_idc가 제1 값(예: 0)인 경우, Cb 및 Cr 성분에 적응적 루프내 필터링이 수행되지 않을 수 있다.
또한, slice_alf_chroma_idc가 제2 값(예: 1)인 경우, Cb 성분에 적응적 루프내 필터링이 수행될 수 있다.
또한, slice_alf_chroma_idc가 제3 값(예: 2)인 경우, Cr 성분에 적응적 루프내 필터링이 수행될 수 있다.
또한, slice_alf_chroma_idc가 제4 값(예: 3)인 경우, Cb 및 Cr 성분에 적응적 루프내 필터링이 수행될 수 있다.
slice_alf_chroma_idc가 비트스트림 내에 존재하지 않을 경우 slice_alf_chroma_idc는 제1 값(예: 0)으로 추론될 수 있다.
일 실시 예에 따르면, 픽처 헤더 또는 슬라이스 헤더는 픽처에 포함된 슬라이스 또는 슬라이스에 Cb 및 Cr 성분에 적응적 루프내 필터링이 수행되는지 여부를 나타내는 부호화 정보를 포함할 수 있다. 그리고 상기 픽처 헤더 또는 슬라이스 헤더의 부호화 정보가 허용하는 색차 성분 (Cb, Cr)에 대하여, slice_alf_chroma_idc는 슬라이스에 색차 성분의 허용 여부를 나타내는 색차 ALF 적용 정보일 수 있다. 예를 들어, 상기 픽처 헤더 또는 슬라이스 헤더의 Cb 성분의 적응적 루프내 필터링만이 허용될 경우, slice_alf_chroma_idc는 슬라이스에 Cb 성분의 적응적 루프내 필터링이 허용되는지만 나타낼 수 있다. 반대로 상기 픽처 헤더 또는 슬라이스 헤더의 Cr 성분의 적응적 루프내 필터링만이 허용될 경우, slice_alf_chroma_idc는 슬라이스에 Cr 성분의 적응적 루프내 필터링이 허용되는지만 나타낼 수 있다. 그리고 Cb 성분 및 Cr 성분이 모두 허용되지 않을 경우, slice_alf_chroma_idc는 부호화/복호화/획득되지 않고, 제1 값(예: 0)으로 추론될 수 있다.
일 실시 예에 따르면, slice_alf_chroma_idc 대신, 각각 Cb 성분에 적응적 루프내 필터링이 수행되는지 나타내는 slice_alf_cb_flag와 Cr 성분에 적응적 루프내 필터링이 수행되는지 나타내는 slice_alf_cr_flag가 부호화/복호화/획득될 수 있다. slice_alf_cb_flag가 제1 값(예: 0)인 경우, Cb 성분에 적응적 루프내 필터링이 수행되지 않을 수 있다. 그리고 slice_alf_cb_flag가 제2 값(예: 1)인 경우, Cb 성분에 적응적 루프내 필터링이 수행될 수 있다. slice_alf_cr_flag가 제1 값(예: 0)인 경우, Cr 성분에 적응적 루프내 필터링이 수행되지 않을 수 있다. 그리고 slice_alf_cr_flag가 제2 값(예: 1)인 경우, Cr 성분에 적응적 루프내 필터링이 수행될 수 있다. slice_alf_cb_flag 및 slice_alf_cr_flag가 비트스트림 내에 존재하지 않을 경우, slice_alf_cb_flag 및 slice_alf_cr_flag는 각각 제1 값(예: 0)으로 추론될 수 있다.
일 실시 예에 따르면, 픽처 헤더 또는 슬라이스 헤더는 픽처에 포함된 슬라이스 또는 슬라이스에 Cb 성분에 적응적 루프내 필터링이 수행되는지 여부를 나타내는 부호화 정보를 포함할 수 있다. 그리고 상기 픽처 헤더 또는 슬라이스 헤더의 부호화 정보가 Cb 성분의 적응적 루프내 필터링을 허용할 경우, slice_alf_cb_flag는 부호화/복호화/획득될 수 있다. 그리고 slice_alf_cb_flag에 따라, 픽처 또는 슬라이스에 Cb 성분의 필터링 허용 여부가 결정될 수 있다. 만약 상기 픽처 헤더 또는 슬라이스 헤더의 부호화 정보가 Cb 성분의 적응적 루프내 필터링을 허용하지 않을 경우, slice_alf_cb_flag는 부호화/복호화/획득되지 않고, slice_alf_cb_flag는 제1 값(예: 0)으로 추론될 수 있다.
마찬가지로, 픽처 헤더 또는 슬라이스 헤더는 픽처에 포함된 슬라이스 또는 슬라이스에 Cr 성분에 적응적 루프내 필터링이 수행되는지 여부를 나타내는 부호화 정보를 포함할 수 있다. 그리고 상기 픽처 헤더 또는 슬라이스 헤더의 부호화 정보가 Cr 성분의 적응적 루프내 필터링을 허용할 경우, slice_alf_cr_flag는 부호화/복호화/획득될 수 있다. 그리고 slice_alf_cr_flag에 따라, 픽처 또는 슬라이스에 Cr 성분의 필터링 허용 여부가 결정될 수 있다. 만약 상기 픽처 헤더 또는 슬라이스 헤더의 부호화 정보가 Cr 성분의 적응적 루프내 필터링을 허용하지 않을 경우, slice_alf_cr_flag는 부호화/복호화/획득되지 않고, slice_alf_cr_flag는 제1 값(예: 0)으로 추론될 수 있다.
상기 slice_alf_cb_flag 및 slice_alf_cr_flag는 슬라이스에서 시그널링되는 색차 성분에 적응적 루프내 필터링이 수행되는지 여부에 대한 정보의 예이며, 픽처에서 색차 성분에 적응적 루프내 필터링이 수행되는지 여부에 대한 정보가 시그널링될 경우, 상기 slice_alf_cb_flag 및 slice_alf_cr_flag는 ph_alf_cb_flag 및 ph_alf_cr_flag 형태로 변경되어 사용될 수 있다.
slice_alf_aps_id_chroma는 슬라이스의 색차 성분에서 참조하는 적응 파라미터 세트의 식별자를 의미할 수 있다. 즉, slice_alf_aps_id_chroma는 슬라이스에서 참조하는 적응적 루프내 필터링에 대한 적응 파라미터 세트를 나타내는 슬라이스 색차 ALF 세트 식별자를 의미할 수 있다.
상기 slice_alf_aps_id_chroma는 slice_alf_cb_flag와 slice_alf_cr_flag 중 적어도 하나가 제2 값(예: 1)인 경우에 부호화/복호화될 수 있다.
slice_alf_aps_id_chroma가 비트스트림 내에 존재하지 않을 경우 slice_alf_aps_id_chroma는 제1 값(예: 0)으로 추론될 수 있다.
여기서, slice_alf_aps_id_chroma와 동일한 adaptation_parameter_set_id를 가지는 적응 파라미터 세트의 시간적 계층 식별자는 현재 슬라이스의 시간적 계층 식별자보다 작거나 같을 수 있다.
화면내 슬라이스인 경우, slice_alf_aps_id_chroma 또는 slice_alf_aps_id_chroma[ i ]는 화면내 슬라이스를 포함하는 픽처 또는 화면내 픽처가 아닌 다른 픽처에 관한 적응적 루프내 필터링에 대한 적응 파라미터 세트를 참조하지 않을 수 있다.
일 실시 예에 따르면, slice_alf_aps_id_chroma[ i ]는 색차 성분에 대한 적응적 루프내 필터 세트가 포함된 적응 파라미터 세트만을 참조할 수 있다.
또한, slice_alf_aps_id_chroma 대신 slice_alf_aps_id_chroma[ i ]를 사용할 수 있다. 즉, 색차 성분에 대한 적응적 루프내 필터링 시 적응적 루프내 필터 정보를 포함하는 상기 2개 이상의 적응 파라미터 세트 중 하나의 적응 파라미터 세트가 선택될 수 있다. 해당 적응 파라미터 세트의 적응적 루프내 필터 정보(slice_alf_aps_id_chroma[ i ])가 색차 성분에 대한 적응적 루프내 필터링에 사용될 수 있다.
slice_alf_aps_id_chroma[ i ]는 슬라이스에서 참조하는 i번째 적응적 루프내 필터링에 대한 적응 파라미터 세트의 식별자를 의미할 수 있다. 즉, slice_alf_aps_id_chroma[ i ]는 슬라이스에서 참조하는 i번째 적응적 루프내 필터링에 대한 적응 파라미터 세트를 나타내는 슬라이스 색차 ALF 세트 식별자를 의미할 수 있다.
slice_alf_aps_id_chroma[ i ]가 비트스트림 내에 존재하지 않을 경우 slice_alf_aps_id_chroma[ i ]는 제1 값(예: 0)으로 추론될 수 있다.
여기서, slice_alf_aps_id_chroma[ i ]와 동일한 adaptation_parameter_set_id를 가지는 적응 파라미터 세트의 시간적 계층 식별자는 현재 슬라이스의 시간적 계층 식별자보다 작거나 같을 수 있다.
하나의 픽처 내에서 2개 이상의 서브 픽처/슬라이스/타일 그룹/타일/브릭이 동일한 adaptation_parameter_set_id를 가지고, 상기 adaptation_parameter_set_id를 가지는 2개 이상의 적응적 루프내 필터링에 대한 적응 파라미터 세트가 존재할 경우, 동일한 adaptation_parameter_set_id를 가지는 2개 이상의 적응적 루프내 필터링에 대한 적응 파라미터 세트는 동일한 데이터/콘텐츠/구문 요소 값을 가질 수 있다.
화면내 슬라이스인 경우, slice_alf_aps_id_chroma[ i ]는 화면내 슬라이스를 포함하는 픽처 또는 화면내 픽처가 아닌 다른 픽처에 관한 적응적 루프내 필터링에 대한 적응 파라미터 세트를 참조하지 않을 수 있다.
소정의 적응 파라미터 세트의 적응 파라미터 세트 타입이 적응적 루프내 필터링에 관한 파라미터(ALF 타입)이며 적응 파라미터 세트 식별자(adaptation_parameter_set_id)가 현재 픽처 또는 픽처 헤더에서 참조하는 적응 파라미터 세트의 식별자인 alf_aps_id_chroma 또는 alf_aps_id_chroma[ i ]와 동일한 경우, 소정의 적응 파라미터 세트의 시간적 계층 식별자는 현재 픽처의 시간적 계층 식별자보다 작거나 같을 수 있다.
도 60a 내지 60d의 예와 같이, alf_luma_filter_signal_flag는 휘도 성분에 대한 적응적 루프내 필터 세트가 적응 파라미터 세트에 포함되는지 여부를 나타내는 휘도 ALF 시그널링 플래그를 의미할 수 있다. 또한, alf_luma_filter_signal_flag는 휘도 성분에 대한 적응적 루프내 필터 세트가 부호화/복호화되는지 여부를 나타내는 휘도 ALF 시그널링 플래그를 의미할 수 있다.
예를 들어, alf_luma_filter_signal_flag가 제1 값(예: 0)인 경우 휘도 성분에 대한 적응적 루프내 필터 세트가 엔트로피 부호화/복호화되지 않을 수 있다. alf_luma_filter_signal_flag가 제2 값(예: 1)인 경우 휘도 성분에 대한 적응적 루프내 필터 세트가 엔트로피 부호화/복호화될 수 있다.
alf_luma_filter_signal_flag가 비트스트림 내에 존재하지 않을 경우 alf_luma_filter_signal_flag는 제1 값(예: 0)으로 추론될 수 있다.
일 실시 예에 따라, 적응 파라미터 세트에서 부호화/복호화/획득된 색차 성분 존재 정보가 적응 파라미터 세트에 색차 성분에 대한 정보가 포함되어 있지 않다고 나타낸 경우, alf_luma_filter_signal_flag가 적응적 루프내 필터 데이터에 포함되지 않고, 제2 값(예: 1)으로 추론될 수 있다. 즉, alf_luma_filter_signal_flag가 적응적 루프내 필터 데이터에서 부호화/복호화되지 않을 수 있다.
그리고 상기 색차 성분 존재 정보가 적응 파라미터 세트에 색차 성분에 대한 정보가 포함되어 있다고 나타낸 경우, alf_luma_filter_signal_flag가 적응적 루프내 필터 데이터에 포함될 수 있다. 즉, alf_luma_filter_signal_flag가 적응적 루프내 필터 데이터에서 부호화/복호화될 수 있다.
소정의 적응 파라미터 세트의 적응 파라미터 세트 타입이 적응적 루프내 필터링에 관한 파라미터(ALF 타입)이며 적응 파라미터 세트 식별자(adaptation_parameter_set_id)가 slice_alf_aps_id_luma[ i ]와 동일한 경우, 휘도 ALF 시그널링 플래그(alf_luma_filter_signal_flag)는 제2 값(예: 1)로 결정될 수 있다. 즉, 적응 파라미터 세트에 적응적 루프내 필터링에 관한 파라미터가 존재하고, 현재 픽처 또는 현재 슬라이스에서 해당 적응 파라미터 세트를 참조할 경우, 휘도 성분에 대한 적응적 루프내 필터 정보가 시그널링되므로, 휘도 ALF 시그널링 플래그(alf_luma_filter_signal_flag)는 제2 값(예: 1)을 가질 수 있다.
alf_chroma_filter_signal_flag는 색차 성분에 대한 적응적 루프내 필터 세트가 적응 파라미터 세트에 포함되는지 여부를 나타내는 색차 ALF 시그널링 플래그를 의미할 수 있다. 또한, alf_chroma_filter_signal_flag는 색차 성분에 대한 적응적 루프내 필터 세트가 부호화/복호화되는지 여부를 나타내는 색차 ALF 시그널링 플래그를 의미할 수 있다.
예를 들어, alf_chroma_filter_signal_flag가 제1 값(예: 0)인 경우 색차 성분에 대한 적응적 루프내 필터 세트가 엔트로피 부호화/복호화되지 않을 수 있다 그리고, alf_chroma_filter_signal_flag가 제2 값(예: 1)인 경우, 색차 성분에 대한 적응적 루프내 필터 세트가 엔트로피 부호화/복호화될 수 있다.
alf_chroma_filter_signal_flag가 비트스트림 내에 존재하지 않을 경우 alf_chroma_filter_signal_flag는 제1 값(예: 0)으로 추론될 수 있다.
소정의 적응 파라미터 세트의 적응 파라미터 세트 타입이 적응적 루프내 필터링에 관한 파라미터(ALF 타입)이며 적응 파라미터 세트 식별자(adaptation_parameter_set_id)가 slice_alf_aps_id_chroma 또는 slice_alf_aps_id_chroma[ i ]와 동일한 경우, 색차 ALF 시그널링 플래그(alf_chroma_filter_signal_flag)는 제2 값(예: 1)로 결정될 수 있다. 즉, 적응 파라미터 세트에 적응적 루프내 필터링에 관한 파라미터가 존재하고, 현재 픽처 또는 현재 슬라이스에서 해당 적응 파라미터 세트를 참조할 경우, 색차 성분에 대한 적응적 루프내 필터 정보가 시그널링되므로, 색차 ALF 시그널링 플래그(alf_chroma_filter_signal_flag)는 제2 값(예: 1)을 가질 수 있다.
적응적 루프내 필터 세트에 포함되는 서로 다른 적응적 루프내 필터의 개수의 최대값인 NumAlfFilters은 N일 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 25일 수 있다.
alf_luma_clip_flag는 휘도 성분에 대해 선형(linear) 적응적 루프내 필터링이 수행되는지 또는 비선형(non-linear) 적응적 루프내 필터링이 수행되는지를 의미하는 휘도 절삭 플래그일 수 있다.
예를 들어, alf_luma_clip_flag가 제1 값(예: 0)인 경우 휘도 성분에 대해 선형 적응적 루프내 필터링이 수행될 수 있다. 그리고, alf_luma_clip_flag가 제2 값(예: 1)인 경우 휘도 성분에 대해 비선형 적응적 루프내 필터링이 수행될 수 있다.
alf_luma_clip_flag가 비트스트림 내에 존재하지 않을 경우 alf_luma_clip_flag는 제1 값(예: 0)으로 추론될 수 있다.
alf_luma_num_filters_signalled_minus1는 시그널링되는 휘도 ALF의 개수를 나타내는 휘도 시그널링 ALF 개수 정보를 의미할 수 있다. 그리고 alf_luma_num_filters_signalled_minus1에 +1한 값은 휘도 시그널링 ALF의 개수를 의미할 수 있다.
상기 alf_luma_num_filters_signalled_minus1는 0에서 NumAlfFilters - N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 1일 수 있다.
alf_luma_num_filters_signalled_minus1가 비트스트림 내에 존재하지 않을 경우 alf_luma_num_filters_signalled_minus1는 0의 값으로 추론될 수 있다.
alf_luma_coeff_delta_idx[ filtIdx ]는 filtIdx에 대응되는 휘도 적응적 루프내 필터가 참조하는 휘도 시그널링 적응적 루프내 필터의 색인을 나타낼 수 있다. alf_luma_coeff_delta_idx[ filtIdx ]는 휘도 ALF 델타 색인을 의미할 수 있다. 상기 휘도 ALF 델타 색인은 휘도 성분에 대한 필터 계수 차분 색인을 의미할 수 있다.
상기 filtIdx는 0에서 NumAlfFilters - N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 1일 수 있다.
alf_luma_coeff_delta_idx[ filtIdx ]가 비트스트림 내에 존재하지 않을 경우 alf_luma_coeff_delta_idx[ filtIdx ]는 0의 값으로 추론될 수 있다.
alf_luma_use_fixed_filter_flag는 적응적 루프내 필터 계수를 시그널링할 때 고정된 필터를 사용하는지를 의미할 수 있다.
예를 들어, alf_luma_use_fixed_filter_flag가 제1 값(예: 0)인 경우 적응적 루프내 필터 계수를 시그널링할 때 고정된 필터가 사용되지 않을 수 있다. 그리고, alf_luma_use_fixed_filter_flag가 제2 값(예: 1)인 경우, 적응적 루프내 필터 계수를 시그널링할 때 고정된 필터가 사용될 수 있다.
alf_luma_use_fixed_filter_flag가 비트스트림 내에 존재하지 않을 경우 alf_luma_use_fixed_filter_flag는 제1 값(예: 0)으로 추론될 수 있다.
alf_luma_fixed_filter_set_idx는 고정된 필터 세트 색인을 의미할 수 있다.
상기 alf_luma_fixed_filter_set_idx는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 15일 수 있다.
alf_luma_fixed_filter_set_idx가 비트스트림 내에 존재하지 않을 경우 alf_luma_fixed_filter_set_idx는 0의 값으로 추론될 수 있다.
alf_luma_fixed_filter_pred_present_flag는 alf_luma_fixed_filter_pred_flag[ i ]가 비트스트림 내에 존재하는지 여부를 의미할 수 있다.
예를 들어, alf_luma_fixed_filter_pred_present_flag가 제1 값(예: 0)인 경우 alf_luma_fixed_filter_pred_flag[ i ]가 비트스트림 내에 존재하지 않을 수 있다. 그리고, alf_luma_fixed_filter_pred_present_flag가 제2 값(예: 1)인 경우 alf_luma_fixed_filter_pred_flag[ i ]가 비트스트림 내에 존재할 수 있다.
또한, alf_luma_fixed_filter_pred_present_flag는 휘도 성분에 대한 적응적 루프내 필터 계수 클래스(종류) 전체가 고정된 필터로부터 예측되어 시그널링 되는지를 의미할 수 있다. 예를 들어, alf_luma_fixed_filter_pred_present_flag가 제1 값(예: 0)인 경우, 휘도 성분에 대한 적응적 루프내 필터 계수 클래스(종류) 전체가 고정된 필터로부터 예측하여 시그널링 되지 않을 수 있다. alf_luma_fixed_filter_pred_present_flag가 제2 값(예: 1)인 경우 휘도 성분에 대한 적응적 루프내 필터 계수 클래스(종류) 중 적어도 하나를 고정된 필터로부터 예측하여 시그널링될 수 있다.
alf_luma_fixed_filter_pred_present_flag가 비트스트림 내에 존재하지 않을 경우 alf_luma_fixed_filter_pred_present_flag는 제1 값(예: 0)으로 추론될 수 있다.
alf_luma_fixed_filter_pred_flag[ i ]는 i번째 적응적 루프내 필터 계수 클래스(종류)가 고정된 필터로부터 예측되어 시그널링되는지를 의미할 수 있다.
예를 들어, alf_luma_fixed_filter_pred_flag[ i ]가 제1 값(예: 0)인 경우 i번째 적응적 루프내 필터 계수 클래스(종류)가 고정된 필터로부터 예측되지 않을 수 있다. 그리고, alf_luma_fixed_filter_pred_flag[ i ]가 제2 값(예: 1)인 경우 i번째 적응적 루프내 필터 계수 클래스(종류)가 고정된 필터로부터 예측될 수 있다.
alf_luma_fixed_filter_pred_flag[ i ]가 비트스트림 내에 존재하지 않을 경우 alf_luma_fixed_filter_pred_flag[ i ]는 제2 값(예: 1)으로 추론될 수 있다.
일 실시 예에 따르면, 도 60a 내지 60d과 다르게, 적응적 루프내 필터 데이터 신택스는 고정된 필터에 관한 정보(alf_luma_use_fixed_filter_flag, alf_luma_fixed_filter_set_idx, alf_luma_fixed_filter_pred_present_flag, alf_luma_fixed_filter_pred_flag)를 포함하지 않을 수 있다. 따라서 고정된 필터에 관한 정보는 시그널링되지 않을 수 있다. 그러므로 부호화기/복호화기에서 미리 설정된 고정된 필터가 적응적 루프내 필터링에 사용될 수 있다. 또한, 고정된 필터로부터 필터 계수를 예측하여 시그널링되지 않을 수 있다. 부호화기/복호화기에서 미리 설정된 고정된 필터만 적응적 루프내 필터링에 사용되고, 고정된 필터로부터 예측된 필터 계수는 적응적 루프내 필터링에 사용되지 않을 수 있다.
alf_luma_coeff_delta_flag는 alf_luma_coeff_delta_prediction_flag가 시그널링되지 않는지를 의미할 수 있다.
예를 들어, alf_luma_coeff_delta_flag가 제1 값(예: 0)인 경우 alf_luma_coeff_delta_prediction_flag가 시그널링될 수 있고, alf_luma_coeff_delta_flag가 제2 값(예: 1)인 경우 alf_luma_coeff_delta_prediction_flag가 시그널링되지 않을 수 있다.
alf_luma_coeff_delta_flag가 비트스트림 내에 존재하지 않을 경우 alf_luma_coeff_delta_flag는 제2 값(예: 1)으로 추론될 수 있다.
alf_luma_coeff_delta_prediction_flag는 시그널링되는 휘도 성분에 대한 적응적 루프내 필터 계수가 이전에 시그널링된 휘도 성분에 대한 적응적 루프내 필터 계수로부터 예측되는지를 의미할 수 있다.
예를 들어, alf_luma_coeff_delta_prediction_flag가 제1 값(예: 0)인 경우 시그널링되는 휘도 성분에 대한 적응적 루프내 필터 계수가 이전에 시그널링된 휘도 성분에 대한 적응적 루프내 필터 계수로부터 예측되지 않을 수 있다. 그리고, alf_luma_coeff_delta_prediction_flag가 제2 값(예: 1)인 경우 시그널링되는 휘도 성분에 대한 적응적 루프내 필터 계수가 이전에 시그널링된 휘도 성분에 대한 적응적 루프내 필터 계수로부터 예측될 수 있다.
alf_luma_coeff_delta_prediction_flag가 비트스트림 내에 존재하지 않을 경우 alf_luma_coeff_delta_prediction_flag는 제1 값(예: 0)으로 추론될 수 있다.
alf_luma_min_eg_order_minus1에 +1한 값은 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호(exponential Golomb code)의 최소 차수(order)를 의미할 수 있다.
상기 alf_luma_min_eg_order_minus1는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 6일 수 있다.
alf_luma_min_eg_order_minus1가 비트스트림 내에 존재하지 않을 경우 alf_luma_min_eg_order_minus1는 0의 값으로 추론될 수 있다.
alf_luma_eg_order_increase_flag[ i ]는 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부를 의미할 수 있다.
예를 들어, alf_luma_eg_order_increase_flag[ i ]가 제1 값(예: 0)인 경우 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하지 않을 수 있다. 그리고, alf_luma_eg_order_increase_flag[ i ]가 제2 값(예: 1)인 경우 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가할 수 있다.
alf_luma_eg_order_increase_flag[ i ]가 비트스트림 내에 존재하지 않을 경우 alf_luma_eg_order_increase_flag[ i ]는 제1 값(예: 0)으로 추론될 수 있다.
alf_luma_coeff_delta_abs[ sfIdx ][ j ]의 값을 엔트로피 부호화/복호화하기 위해 사용되는 지수-골롬 부호의 차수 expGoOrderY[ i ]는 아래와 같이 유도될 수 있다.
expGoOrderY[ i ] = ( i = = 0 ? alf_luma_min_eg_order_minus1 + 1 : expGoOrderY[ i - 1 ] ) + alf_luma_eg_order_increase_flag[ i ]
alf_luma_coeff_flag[ sfIdx ]는 sfIdx에 의해 지시되는 휘도 성분에 대한 적응적 루프내 필터가 시그널링되는지를 의미할 수 있다.
예를 들어, alf_luma_coeff_flag[ sfIdx ]가 제1 값(예: 0)인 경우 sfIdx에 의해 지시되는 휘도 성분에 대한 적응적 루프내 필터가 모두 0의 값으로 설정될 수 있다. 그리고, alf_luma_coeff_flag[ sfIdx ]가 제2 값(예: 1)인 경우 sfIdx에 의해 지시되는 휘도 성분에 대한 적응적 루프내 필터가 시그널링될 수 있다.
alf_luma_coeff_flag[ sfIdx ]가 비트스트림 내에 존재하지 않을 경우 alf_luma_coeff_flag[ sfIdx ]는 제2 값(예: 1)으로 추론될 수 있다.
일 실시 예에 따르면, 도 60a 내지 60d과 다르게, alf_luma_coeff_flag[ sfIdx ]는 적응적 루프내 필터 데이터 신택스에 포함되지 않을 수 있다. 즉, alf_luma_coeff_flag[ sfIdx ]는 적응적 루프내 필터 데이터 신택스에서 부호화/복호화되지 않을 수 있다. 따라서, alf_luma_coeff_flag[ sfIdx ]의 부호화/복호화/획득 없이, 적응적 루프내 필터의 계수 정보가 부호화/복호화/획득됨이 결정될 수 있다.
alf_luma_coeff_delta_abs[ sfIdx ][ j ]는 sfIdx에 의해 지시되는 휘도 성분에 대한 적응적 루프내 필터의 j번째 계수 차분(delta)의 절대값을 의미할 수 있다.
alf_luma_coeff_delta_abs[ sfIdx ][ j ]가 비트스트림 내에 존재하지 않을 경우 alf_luma_coeff_delta_abs[ sfIdx ][ j ]는 0의 값으로 추론될 수 있다.
지수-골롬 부호(이진화) uek(v)의 차수 k는 아래와 같이 유도될 수 있다.
golombOrderIdxY[ ] = { 0, 0, 1, 0, 0, 1, 2, 1, 0, 0, 1, 2 }
k = expGoOrderY[ golombOrderIdxY[ j ] ]
일 실시 예에 따라, alf_luma_coeff_delta_abs[ sfIdx ][ j ]의 엔트로피 부호화/복호화/이진화를 위한 지수-골롬 부호 uek(v)의 차수 k는 0으로 고정될 수 있다. 따라서, alf_luma_coeff_delta_abs[ sfIdx ][ j ]의 엔트로피 부호화/복호화/이진화를 위하여 0차 지수-골롬 부호 ue(v)가 적용될 수 있다. alf_luma_coeff_delta_abs[ sfIdx ][ j ]의 값은 0을 포함한 양의 정수로, 0 내지 128의 범위 내에서 값을 가질 수 있다.
alf_luma_coeff_delta_sign[ sfIdx ][ j ]는 sfIdx에 의해 지시되는 휘도 성분에 대한 적응적 루프내 필터의 j번째 계수 또는 계수 차분의 부호(sign)를 의미할 수 있다. 또한, alf_luma_coeff_delta_sign[ sfIdx ][ j ]는 아래와 같이 유도될 수 있다.
alf_luma_coeff_delta_sign[ sfIdx ][ j ]가 제1 값(예: 0)인 경우, 대응하는 휘도 성분에 대한 적응적 루프내 필터 계수 또는 계수 차분은 양의 부호(positive sign)를 가질 수 있다.
alf_luma_coeff_delta_sign[ sfIdx ][ j ]가 제2 값(예: 1)인 경우, 대응하는 휘도 성분에 대한 적응적 루프내 필터 계수 또는 계수 차분은 음의 부호(negative sign)를 가질 수 있다.
alf_luma_coeff_delta_sign[ sfIdx ][ j ]가 비트스트림 내에 존재하지 않을 경우 alf_luma_coeff_delta_sign[ sfIdx ][ j ]는 제1 값(예: 0)으로 추론될 수 있다.
일 실시 예에 따르면, 적응적 루프내 필터의 필터 계수 차분 값 대신 필터 계수의 값이 직접 시그널링 될 수 있다. 예를 들어, 필터 계수의 절대 값 정보와 부호 정보가 적응적 루프내 필터 데이터 신택스에 포함될 수 있다. 즉, 필터 계수의 절대 값 정보와 부호 정보가 적응적 루프내 필터 데이터 신택스에서 부호화/복호화될 수 있다. 상기 필터 계수의 절대 값 정보의 부호화/복호화를 위하여, 0차 지수-골롬 부호 ue(v)가 사용될 수 있다. 필터 계수의 절대 값 정보의 값은 0을 포함한 양의 정수로, 0 내지 128의 범위 내에서 값을 가질 수 있다. 상기 적응적 루프내 필터의 필터 계수는 휘도 성분에 대한 적응적 루프내 필터의 필터 계수 및 색차 성분에 대한 적응적 루프내 필터의 필터 계수 중 적어도 하나를 포함할 수 있다.
휘도 시그널링 ALF인 filtCoeff[ sfIdx ][ j ]는 아래와 같이 유도될 수 있다. 이때, sfIdx는 0에서 alf_luma_num_filters_signalled_minus1까지의 값을 가질 수 있다. 또한, j는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 11일 수 있다.
filtCoeff[ sfIdx ][ j ] = alf_luma_coeff_delta_abs[ sfIdx ][ j ] * ( 1 - 2 * alf_luma_coeff_delta_sign[ sfIdx ][ j ] )
alf_luma_coeff_delta_prediction_flag가 제1 값(예: 1)인 경우, filtCoeff[ sfIdx ][ j ]는 아래와 같이 유도될 수 있다. 이때, sfIdx는 1에서 alf_luma_num_filters_signalled_minus1까지의 값을 가질 수 있다. 또한, j는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 11일 수 있다.
filtCoeff[ sfIdx ][ j ] += filtCoeff[ sfIdx - 1 ][ j ]
일 실시 예에 따라, 도 60a 내지 60d과 다르게, alf_luma_coeff_delta_prediction_flag가 적응적 루프내 필터 데이터 신택스에 포함되지 않을 수 있다. 즉, alf_luma_coeff_delta_prediction_flag가 적응적 루프내 필터 데이터 신택스에서 부호화/복호화되지 않을 수 있다. 따라서, 적응적 루프내 필터의 휘도 성분 필터 계수 델타 값은 예측 부호화/복호화되는 대신, 직접 시그널링될 수 있다.
휘도 성분에 대한 적응적 루프내 필터 계수 AlfCoeffL[ adaptation_parameter_set_id ][ filtIdx ][ j ]는 아래와 같이 유도될 수 있다. 이때, filtIdx는 0에서 NumAlfFilters - 1까지의 값을 가질 수 있다. 또한, j는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 11일 수 있다.
AlfCoeffL[ adaptation_parameter_set_id ][ filtIdx ][ j ] = filtCoeff[ alf_luma_coeff_delta_idx[ filtIdx ] ][ j ]
alf_luma_use_fixed_filter_flag가 제2 값(예: 1)을 가지고, alf_luma_fixed_filter_pred_flag[ filtIdx ]가 제2 값(예: 1)을 가지는 경우, AlfCoeffL[ adaptation_parameter_set_id ][ filtIdx ][ j ]는 아래의 예와 같이 유도될 수 있다. 이때, filtIdx는 0에서 NumAlfFilters - 1까지의 값을 가질 수 있다. 또한, j는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 11일 수 있다.
AlfCoeffL[ adaptation_parameter_set_id ][ filtIdx ][ j ] += AlfFixFiltCoeff[ AlfClassToFiltMap[ alf_luma_fixed_filter_set_idx ][ filtIdx ] ][ j ]
고정된 필터 계수 AlfFixFiltCoeff[ i ][ j ]는 도 62a 및 62b의 예와 같이 유도될 수 있다. 이때, i는 0에서 imax까지의 값을 가질 수 있다. 또한, j는 0에서 N까지의 값을 가질 수 있다. 여기서, imax는 양의 정수일 수 있고, 예를 들어 64일 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 11일 수 있다.
적응적 루프내 필터 계수 클래스와 필터의 매핑 관계 AlfClassToFiltMap[ m ][ n ]는 도 63의 예와 같이 유도될 수 있다. 이때, m은 0에서 mmax까지의 값을 가질 수 있다. 또한, n는 0에서 nmax까지의 값을 가질 수 있다. 여기서, mmax는 양의 정수일 수 있고, 예를 들어 15일 수 있다. 여기서, nmax는 양의 정수일 수 있고, 예를 들어 24일 수 있다.
상기 AlfCoeffL[ adaptation_parameter_set_id ][ filtIdx ][ j ]는 -2M에서 2M - 1까지의 값을 가질 수 있다. 이때, filtIdx는 0에서 NumAlfFilters - 1까지의 값을 가질 수 있다. 또한, j는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 11일 수 있다. 이때, M은 양의 정수일 수 있고, 예를 들어 7일 수 있다.
alf_luma_clip_min_eg_order_minus1에 +1한 값은 휘도 성분에 대한 적응적 루프내 필터 절삭 색인(clipping index)을 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수를 의미할 수 있다. 상기 절삭 색인은 비선형 적응적 루프내 필터일 경우에 시그널링되거나 사용될 수 있다.
상기 alf_luma_clip_min_eg_order_minus1는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 6일 수 있다.
alf_luma_clip_min_eg_order_minus1가 비트스트림 내에 존재하지 않을 경우 alf_luma_clip_min_eg_order_minus1는 0의 값으로 추론될 수 있다.
alf_luma_clip_eg_order_increase_flag[ i ]는 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부를 의미할 수 있다.
예를 들어, alf_luma_clip_eg_order_increase_flag[ i ]가 제1 값(예: 0)인 경우, 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하지 않을 수 있다. alf_luma_clip_eg_order_increase_flag[ i ]가 제2 값(예: 1)인 경우 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가할 수 있다.
alf_luma_clip_eg_order_increase_flag[ i ]가 비트스트림 내에 존재하지 않을 경우 alf_luma_clip_eg_order_increase_flag[ i ]는 제1 값(예: 0)으로 추론될 수 있다.
alf_luma_clip_idx[ sfIdx ][ j ]를 엔트로피 부호화/복호화하기 위해 사용되는 지수-골롬 부호의 차수 kClipY[ i ]는 아래와 같이 유도될 수 있다.
kClipY[ i ] = ( i = = 0 ? alf_luma_clip_min_eg_order_minus1 + 1 : kClipY[ i - 1 ] ) + alf_luma_clip_eg_order_increase_flag[ i ]
alf_luma_clip_idx[ sfIdx ][ j ]는 sfIdx에 의해 지시되는 휘도 성분에 대한 적응적 루프내 필터의 j번째 계수가 복원/복호 샘플에 곱해지기 전에 절삭에 사용되는 절삭 값(clipping value)에 대한 휘도 절삭 색인을 의미할 수 있다. 상기 절삭 값은 alf_luma_clip_idx[ sfIdx ][ j ]가 나타내는 휘도 절삭 색인 및 영상의 비트 뎁스에 의하여 결정될 수 있다. 여기서, 비트 뎁스는 시퀀스, 픽처, 슬라이스, 타일 그룹, 타일, CTU 등 중 적어도 하나의 단위에서 결정된 비트 뎁스를 의미할 수 있다.
alf_luma_clip_idx[ sfIdx ][ j ]가 비트스트림 내에 존재하지 않을 경우 alf_luma_clip_idx[ sfIdx ][ j ]는 제1 값(예: 0)으로 추론될 수 있다.
상기 alf_luma_clip_idx[ sfIdx ][ j ]는 0에서 M까지의 값을 가질 수 있다. 여기서, M은 양의 정수일 수 있고, 예를 들어 3일 수 있다. 이때, sfIdx는 0에서 alf_luma_num_filters_signalled_minus1까지의 값을 가질 수 있다. 또한, j는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 11일 수 있다.
지수-골롬 부호(이진화) uek(v)의 차수 k는 아래와 같이 유도될 수 있다.
k = kClipY[ golombOrderIdxY[ j ] ]
filterClips[ sfIdx ][ j ]는 아래와 같이 유도될 수 있다. 이때, sfIdx는 0에서 alf_luma_num_filters_signalled_minus1까지의 값을 가질 수 있다. 또한, j는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 11일 수 있다.
filterClips[ sfIdx ][ j ] = Round( 2( BitDepthY * ( M + 1 - alf_luma_clip_idx[ sfIdx ][ j ] ) / ( M + 1 ) ) 또는 filterClips[ sfIdx ][ j ] = Round( 2( BitDepthY - 8 ) * 2( 8 * ( M - alf_luma_clip_idx[ sfIdx ][ j ] ) / M ) )
여기서, BitDepthY는 휘도 성분에 대한 입력 비트 뎁스/심도(depth)를 의미할 수 있다. 여기서, 비트 뎁스는 시퀀스, 픽처, 슬라이스, 타일 그룹, 타일, CTU 등 중 적어도 하나의 단위에서 결정된 비트 뎁스를 의미할 수 있다.
여기서, M은 양의 정수일 수 있고, 예를 들어 3일 수 있다. 또한, M은 alf_luma_clip_idx[ sfIdx ][ j ]가 가질 수 있는 최대값을 의미할 수 있다.
휘도 성분에 대한 적응적 루프내 필터 절삭 값 AlfClipL[ adaptation_parameter_set_id ][ filtIdx ][ j ]은 아래와 같이 유도될 수 있다. 이때, filtIdx는 0에서 NumAlfFilters - 1까지의 값을 가질 수 있다. 또한, j는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 11일 수 있다.
AlfClipL[ adaptation_parameter_set_id ][ filtIdx ][ j ] = filterClips[ alf_luma_coeff_delta_idx[ filtIdx ] ][ j ]
상기 alf_luma_clip_idx[ sfIdx ][ j ]에 사용되는 지수-골롬 부호는 값이 가질 수 있는 범위가 클 경우 효율적으로 엔트로피 부호화/복호화할 수 있는 방법이다. 하지만, 상기 예와 같이 alf_luma_clip_idx[ sfIdx ][ j ]가 가질 수 있는 값의 범위(0에서 3까지)가 상대적으로 작은 경우, alf_luma_clip_idx[ sfIdx ][ j ]에 사용되는 지수-골롬 부호는 엔트로피 부호화/복호화 측면에서 비효율적일 수 있다.
따라서, alf_luma_clip_min_eg_order_minus1 및 alf_luma_clip_eg_order_increase_flag[ i ] 중 적어도 하나의 구문 요소를 사용하는 대신, alf_luma_clip_idx[ sfIdx ][ j ]가 가질 수 있는 값의 범위(0에서 3까지)가 상대적으로 작은 경우, tu(3), f(2), u(2), tb(3) 등 중 적어도 하나의 엔트로피 부호화/복호화 방법을 사용하여 alf_luma_clip_idx[ sfIdx ][ j ]를 엔트로피 부호화/복호화할 수 있다.
alf_chroma_clip_flag는 색차 성분에 대해 선형 적응적 루프내 필터링이 수행되는지 또는 비선형 적응적 루프내 필터링이 수행되는지를 의미하는 색차 절삭 플래그일 수 있다. 즉, alf_chroma_clip_flag는 시그널링되는 색차 ALF마다 각각 시그널링되어 적용되지 않고, alf_chroma_clip_flag는 시그널링되는 전체 색차 ALF에 대해 한번만 시그널링되어 적용될 수 있다. 이때, 색차 ALF는 색차 성분에 대한 적응적 루프내 필터를 의미할 수 있다.
예를 들어, alf_chroma_clip_flag가 제1 값(예: 0)인 경우. 색차 성분에 대해 선형 적응적 루프내 필터링이 수행될 수 있다. 그리고, alf_chroma_clip_flag가 제2 값(예: 1)인 경우 색차 성분에 대해 비선형 적응적 루프내 필터링이 수행될 수 있다.
alf_chroma_clip_flag가 비트스트림 내에 존재하지 않을 경우 alf_chroma_clip_flag는 제1 값(예: 0)으로 추론될 수 있다.
alf_chroma_min_eg_order_minus1에 +1한 값은 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수를 의미할 수 있다.
상기 alf_chroma_min_eg_order_minus1는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 6일 수 있다.
alf_chroma_min_eg_order_minus1가 비트스트림 내에 존재하지 않을 경우 alf_chroma_min_eg_order_minus1는 0의 값으로 추론될 수 있다.
alf_chroma_eg_order_increase_flag[ i ]는 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부를 의미할 수 있다.
예를 들어, alf_chroma_eg_order_increase_flag[ i ]가 제1 값(예: 0)인 경우, 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하지 않을 수 있다. 그리고, alf_chroma_eg_order_increase_flag[ i ]가 제2 값(예: 1)인 경우, 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가할 수 있다.
alf_chroma_eg_order_increase_flag[ i ]가 비트스트림 내에 존재하지 않을 경우 alf_chroma_eg_order_increase_flag[ i ]는 제1 값(예: 0)으로 추론될 수 있다.
alf_chroma_coeff_abs[ j ]의 값을 엔트로피 부호화/복호화하기 위해 사용되는 지수-골롬 부호의 차수 expGoOrderC[ i ]는 아래와 같이 유도될 수 있다.
expGoOrderC[ i ] = ( i = = 0 ? alf_chroma_min_eg_order_minus1 + 1 : expGoOrderC[ i - 1 ] ) + alf_chroma_eg_order_increase_flag[ i ]
alf_chroma_coeff_abs[ j ]는 색차 성분에 대한 적응적 루프내 필터의 j번째 계수의 절대값을 의미할 수 있다.
alf_chroma_coeff_abs[ j ]가 비트스트림 내에 존재하지 않을 경우 alf_chroma_coeff_abs[ j ]는 0의 값으로 추론될 수 있다.
상기 alf_chroma_coeff_abs[ j ]는 0에서 2M - 1까지의 값을 가질 수 있다. 이때, M은 양의 정수일 수 있고, 예를 들어 7일 수 있다.
지수-골롬 부호(이진화) uek(v)의 차수 k는 아래와 같이 유도될 수 있다.
golombOrderIdxC[ ] = { 0, 0, 1, 0, 0, 1 }
k = expGoOrderC[ golombOrderIdxC[ j ] ]
일 실시 예에 따라, alf_chroma_coeff_abs[ j ]의 엔트로피 부호화/복호화/이진화를 위한 지수-골롬 부호 uek(v)의 차수 k는 0으로 고정될 수 있다. 따라서, alf_chroma_coeff_abs[ j ]의 엔트로피 부호화/복호화/이진화를 위하여 0차 지수-골롬 부호 ue(v)가 사용될 수 있다. alf_chroma_coeff_abs[ j ]의 값은 0을 포함한 양의 정수로, 0 내지 128의 범위 내의 값을 가질 수 있다.
alf_chroma_coeff_sign[ j ]는 색차 성분에 대한 적응적 루프내 필터의 j번째 계수 또는 계수 차분의 부호를 의미할 수 있다. 또한, alf_chroma_coeff_sign[ j ]는 아래와 같이 유도될 수 있다.
alf_chroma_coeff_sign[ j ]가 제1 값(예: 0)인 경우, 대응하는 색차 성분에 대한 적응적 루프내 필터 계수 또는 계수 차분은 양의 부호를 가질 수 있다.
alf_chroma_coeff_sign[ j ]가 제2 값(예: 1)인 경우, 대응하는 색차 성분에 대한 적응적 루프내 필터 계수 또는 계수 차분은 음의 부호를 가질 수 있다.
alf_chroma_coeff_sign[ j ]가 비트스트림 내에 존재하지 않을 우 alf_chroma_coeff_sign[ j ]는 제1 값(예: 0)으로 추론될 수 있다.
색차 성분에 대한 적응적 루프내 필터 계수(색차 시그널링 ALF) AlfCoeffC[ adaptation_parameter_set_id ][ j ]는 아래와 같이 유도될 수 있다. 이때, j는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 5일 수 있다.
AlfCoeffC[ adaptation_parameter_set_id ][ j ] = alf_chroma_coeff_abs[ j ] * ( 1 - 2 * alf_chroma_coeff_sign[ j ] )
상기 AlfCoeffC[ adaptation_parameter_set_id ][ j ]는 -2M - 1에서 2M - 1까지의 값을 가질 수 있다. 이때, j는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 5일 수 있다. 이때, M은 양의 정수일 수 있고, 예를 들어 7일 수 있다. 또는, 상기 AlfCoeffC[ adaptation_parameter_set_id ][ j ]는 -2M에서 2M - 1까지의 값을 가질 수 있다.
alf_chroma_clip_min_eg_order_minus1에 +1한 값은 색차 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수를 의미할 수 있다. 상기 절삭 색인은 비선형 적응적 루프내 필터일 경우에 시그널링되거나 사용될 수 있다.
상기 alf_chroma_clip_min_eg_order_minus1는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 6일 수 있다.
alf_chroma_clip_min_eg_order_minus1가 비트스트림 내에 존재하지 않을 경우 alf_chroma_clip_min_eg_order_minus1는 0의 값으로 추론될 수 있다.
alf_chroma_clip_eg_order_increase_flag[ i ]는 색차 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부를 의미할 수 있다.
예를 들어, alf_chroma_clip_eg_order_increase_flag[ i ]가 제1 값(예: 0)인 경우 색차 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하지 않을 수 있다. 그리고, alf_chroma_clip_eg_order_increase_flag[ i ]가 제2 값(예: 1)인 경우 색차 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가할 수 있다.
alf_chroma_clip_eg_order_increase_flag[ i ]가 비트스트림 내에 존재하지 않을 경우 alf_chroma_clip_eg_order_increase_flag[ i ]는 제1 값(예: 0)으로 추론될 수 있다.
alf_chroma_clip_idx[ j ]를 엔트로피 부호화/복호화하기 위해 사용되는 지수-골롬 부호의 차수 kClipC[ i ]는 아래와 같이 유도될 수 있다.
kClipC[ i ] = ( i = = 0 ? alf_chroma_clip_min_eg_order_minus1 + 1 : kClipC[ i - 1 ] ) + alf_chroma_clip_eg_order_increase_flag[ i ]
alf_chroma_clip_idx[ j ]는 색차 성분에 대한 적응적 루프내 필터의 j번째 계수가 복원/복호 샘플에 곱해지기 전에 절삭에 사용되는 절삭 값에 대한 색차 절삭 색인을 의미할 수 있다. 상기 절삭 값은 alf_chroma_clip_idx[ j ]가 나타내는 색차 절삭 색인 및 영상의 비트 뎁스에 의하여 결정될 수 있다. 여기서, 비트 뎁스는 시퀀스, 픽처, 슬라이스, 타일 그룹, 타일, CTU 등 중 적어도 하나의 단위에서 결정된 비트 뎁스를 의미할 수 있다.
alf_chroma_clip_idx[ j ]가 비트스트림 내에 존재하지 않을 경우 alf_chroma_clip_idx[ j ]는 제1 값(예: 0)으로 추론될 수 있다.
상기 alf_chroma_clip_idx[ j ]는 0에서 M까지의 값을 가질 수 있다. 여기서, M은 양의 정수일 수 있고, 예를 들어 3일 수 있다. 이때, j는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 5일 수 있다.
지수-골롬 부호(이진화) uek(v)의 차수 k는 아래와 같이 유도될 수 있다.
k = kClipC[ golombOrderIdxC[ j ] ]
일 실시 예에 따르면, 색차 성분의 절삭 색인이 나타내는 절삭 값은 휘도 성분의 절삭 색인이 나타내는 절삭 값과 동일한 방식으로 결정될 수 있다. 즉, 색차 성분에 대한 절삭 값과 휘도 성분에 대한 절삭 값은 절삭 색인 및 비트 뎁스 중 적어도 하나에 기반하여 동일한 방식으로 결정될 수 있다. 예를 들어, 색차 성분의 절삭 색인이 3일 때의 절삭 값이 휘도 성분의 절삭 색인이 3일 때의 절삭 값과 동일하도록 결정될 수 있다. 따라서, 절삭 색인과 비트 뎁스가 동일할 때, 휘도 성분 샘플에 대한 절삭 프로세스와 색차 성분 샘플에 대한 절삭 프로세스는 동일한 절삭 값에 의하여 수행될 수 있다.
또한, 상기 절삭 값은 비트 뎁스에 기반하여 설정될 수 있다. 예를 들어, 절삭 값은 2 << (BitDepth - N)의 값으로 설정될 수 있다. 여기서, N은 0을 포함한 양의 정수일 수 있다. 상기 절삭 색인 값에 따라 N이 결정될 수 있다. 상기 절삭 색인이 증가할수록 N도 증가할 수 있다. 여기서, 상기 BitDepth는 비트 뎁스를 의미할 수 있다.
색차 성분에 대한 적응적 루프내 필터 절삭 값 AlfClipC[ adaptation_parameter_set_id ][ j ]은 아래와 같이 유도될 수 있다. 이때, j는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 5일 수 있다.
AlfClipC[ adaptation_parameter_set_id ][ j ] = Round( 2( BitDepthC - 8 ) * 2( 8 * ( M - alf_chroma_clip_idx[ j ] ) / M ) ) 또는 AlfClipC[ adaptation_parameter_set_id ][ j ] = Round( 2( BitDepthC * ( M + 1 - alf_chroma_clip_idx[ j ] ) / ( M + 1 ) )
여기서, BitDepthC는 색차 성분에 대한 입력 비트 뎁스/심도(depth)를 의미할 수 있다. 여기서, 비트 뎁스는 시퀀스, 픽처, 슬라이스, 타일 그룹, 타일, CTU 등 중 적어도 하나의 단위에서 결정된 비트 뎁스를 의미할 수 있다.
여기서, M은 양의 정수일 수 있고, 예를 들어 3일 수 있다. 또한, M은 alf_chroma_clip_idx[ j ]가 가질 수 있는 최대값을 의미할 수 있다.
상기 alf_chroma_clip_idx[ j ]에 사용되는 지수-골롬 부호는 값이 가질 수 있는 범위가 클 경우 효율적으로 엔트로피 부호화/복호화할 수 있는 방법이다. 하지만, 상기 예와 같이 alf_chroma_clip_idx[ j ]가 가질 수 있는 값의 범위(0에서 3까지)가 상대적으로 작은 경우, alf_chroma_clip_idx[ j ]에 사용되는 지수-골롬 부호는 엔트로피 부호화/복호화 측면에서 비효율적일 수 있다.
따라서, alf_chroma_clip_min_eg_order_minus1 및 alf_chroma_clip_eg_order_increase_flag[ i ] 중 적어도 하나의 구문 요소를 사용하는 대신, alf_chroma_clip_idx[ j ]가 가질 수 있는 값의 범위(0에서 3까지)가 상대적으로 작은 경우, tu(3), f(2), u(2), tb(3) 등 중 적어도 하나의 엔트로피 부호화/복호화 방법을 사용하여 alf_chroma_clip_idx[ j ]를 엔트로피 부호화/복호화할 수 있다.
또한, alf_luma_min_eg_order_minus1 및 alf_luma_clip_min_eg_order_minus1 대신 아래의 구문 요소인 alf_luma_min_eg_order_minus1를 사용할 수 있다.
즉, 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수와 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수가 서로 구분되는 2 개의 구문 요소로 시그널링되지 않을 수 있다. 대신, 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수와 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수가 하나의 구문 요소로 시그널링될 수 있다.
이러한 경우, alf_luma_min_eg_order_minus1 및 alf_luma_clip_min_eg_order_minus1에 대한 중복적인 시그널링 없이, 하나의 구문 요소가 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수와 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수를 나타낼 수 있다.
즉, 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수는 alf_luma_min_eg_order_minus1를 엔트로피 부호화/복호화하여 유도될 수 있다. 그리고, 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수도 alf_luma_min_eg_order_minus1를 엔트로피 부호화/복호화하여 유도될 수 있다.
예를 들어, alf_luma_clip_flag가 제2 값(예: 1)인 경우, 상기 alf_luma_min_eg_order_minus1 및 alf_luma_clip_min_eg_order_minus1 대신 아래의 구문 요소인 alf_luma_min_eg_order_minus1를 사용하는 예를 사용할 수 있다.
alf_luma_min_eg_order_minus1에 +1한 값은 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수 및 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수 중 적어도 하나를 의미할 수 있다.
상기 alf_luma_min_eg_order_minus1는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 6일 수 있다.
alf_luma_min_eg_order_minus1가 비트스트림 내에 존재하지 않을 경우 alf_luma_min_eg_order_minus1는 0의 값으로 추론될 수 있다.
상기 예와 유사하게, slice_alf_chroma_idc가 제1 값(예: 0)이 아니고 alf_luma_clip_flag가 제2 값(예: 1)인 경우, 하나의 구문 요소가 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수와 색차 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수를 나타낼 수 있다.
또한, alf_luma_eg_order_increase_flag[ i ] 및 alf_luma_clip_eg_order_increase_flag[ i ] 대신 아래의 구문 요소인 alf_luma_eg_order_increase_flag[ i ]가 사용될 수 있다.
즉, 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부와 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부는 별도로 시그널링되지 않을 수 있다. 대신, 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부 및 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부가 하나의 구문 요소에 통합되어 시그널링될 수 있다.
이러한 경우, alf_luma_eg_order_increase_flag[ i ] 및 alf_luma_clip_eg_order_increase_flag[ i ]에 대한 중복적인 시그널링이 없을 경우, 하나의 구문 요소가 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부와 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부를 나타낼 수 있다.
즉, 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부는 alf_luma_eg_order_increase_flag[ i ]를 엔트로피 부호화/복호화하여 유도될 수 있고, 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부도 alf_luma_eg_order_increase_flag[ i ]를 엔트로피 부호화/복호화하여 유도될 수 있다.
예를 들어, alf_luma_clip_flag가 제2 값(예: 1)인 경우, 상기 alf_luma_eg_order_increase_flag[ i ] 및 alf_luma_clip_eg_order_increase_flag[ i ] 대신 아래의 구문 요소인 alf_luma_eg_order_increase_flag[ i ]만 사용될 수 있다.
alf_luma_eg_order_increase_flag[ i ]는 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부 및 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부 중 적어도 하나를 의미할 수 있다.
예를 들어, alf_luma_eg_order_increase_flag[ i ]가 제1 값(예: 0)인 경우, 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수 및 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하지 않을 수 있다. 그리고, alf_luma_eg_order_increase_flag[ i ]가 제2 값(예: 1)인 경우 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수 및 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가할 수 있다.
alf_luma_eg_order_increase_flag[ i ]가 비트스트림 내에 존재하지 않을 경우 alf_luma_eg_order_increase_flag[ i ]는 제1 값(예: 0)으로 추론될 수 있다.
상기 예와 유사하게, slice_alf_chroma_idc가 제1 값(예: 0)이 아니고 alf_luma_clip_flag가 제2 값(예: 1)인 경우, 하나의 구문 요소는 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부 와 색차 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부를 모두 나타낼 수 있다.
또한, alf_luma_clip_flag 및 alf_chroma_clip_flag 대신 아래의 구문 요소인 alf_clip_flag를 사용할 수 있다.
즉, 휘도 성분에 대해 선형 적응적 루프내 필터링이 수행되는지 여부와 색차 성분에 대해 선형 적응적 루프내 필터링이 수행되는지 여부를 별도로 시그널링되지 않을 수 있다. 대신, 휘도 성분에 대해 선형 적응적 루프내 필터링이 수행되는지 여부와 색차 성분에 대해 선형 적응적 루프내 필터링이 수행되는지 여부가 하나의 구문 요소를 이용하여 시그널링될 수 있다.
이러한 경우, alf_luma_clip_flag 및 alf_chroma_clip_flag에 대한 중복적인 시그널링 없이, 하나의 구문 요소가 휘도 성분에 대해 선형 적응적 루프내 필터링이 수행되는지 여부와 색차 성분에 대해 선형 적응적 루프내 필터링이 수행되는지 여부를 모두 나타낼 수 있다.
즉, 휘도 성분에 대해 선형 적응적 루프내 필터링이 수행되는지 여부 및 색차 성분에 대해 선형 적응적 루프내 필터링이 수행되는지 여부는 모두 alf_clip_flag를 엔트로피 부호화/복호화하여 유도될 수 있다.
예를 들어, slice_alf_chroma_idc가 제1 값(예: 0)이 아닌 경우, 상기 alf_luma_clip_flag 및 alf_chroma_clip_flag 대신 아래의 구문 요소인 alf_clip_flag를 사용하는 예가 사용될 수 있다.
alf_clip_flag는 휘도 성분에 대해 선형 적응적 루프내 필터링이 수행되는지 여부 및 색차 성분에 대해 선형 적응적 루프내 필터링이 수행되는지 여부 중 적어도 하나를 의미할 수 있다.
예를 들어, alf_clip_flag가 제1 값(예: 0)인 경우 휘도 성분에 대해 선형 적응적 루프내 필터링 및 색차 성분에 대해 선형 적응적 루프내 필터링이 수행되지 않을 수 있다. 그리고, alf_clip_flag가 제2 값(예: 1)인 경우 휘도 성분에 대해 선형 적응적 루프내 필터링 및 색차 성분에 대해 선형 적응적 루프내 필터링이 수행될 수 있다.
alf_clip_flag가 비트스트림 내에 존재하지 않을 경우 alf_clip_flag는 제1 값(예: 0)으로 추론될 수 있다.
또한, alf_luma_min_eg_order_minus1 및 alf_chroma_min_eg_order_minus1 대신 아래의 구문 요소인 alf_min_eg_order_minus1를 사용할 수 있다.
즉, 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수와 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수는 별도로 시그널링되지 않을 수 있다. 그리고 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수와 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수는 하나의 구문 요소를 이용하여 시그널링될 수 있다.
이러한 경우, alf_luma_min_eg_order_minus1 및 alf_chroma_min_eg_order_minus1 에 대한 중복적인 시그널링 없이, 하나의 구문 요소가 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수 및 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수를 모두 나타낼 수 있다.
즉, 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수 및 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수는 모두 alf_min_eg_order_minus1를 엔트로피 부호화/복호화하여 유도될 수 있다.
예를 들어, slice_alf_chroma_idc가 제1 값(예: 0)이 아닌 경우, 상기 alf_luma_min_eg_order_minus1 및 alf_chroma_min_eg_order_minus1 대신 아래의 구문 요소인 alf_min_eg_order_minus1를 사용하는 예를 사용할 수 있다.
alf_min_eg_order_minus1에 +1한 값은 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수 및 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수 중 적어도 하나를 의미할 수 있다.
상기 alf_min_eg_order_minus1는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 6일 수 있다.
alf_min_eg_order_minus1가 비트스트림 내에 존재하지 않을 경우 alf_min_eg_order_minus1는 0의 값으로 추론될 수 있다.
상기 예와 유사하게, slice_alf_chroma_idc가 제1 값(예: 0)이 아니고 alf_luma_clip_flag가 제2 값(예: 1)인 경우, 하나의 구문 요소가 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수와 색차 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 최소 차수를 모두 나타낼 수 있다.
또한, alf_luma_eg_order_increase_flag[ i ] 및 alf_chroma_eg_order_increase_flag[ i ] 대신 아래의 구문 요소인 alf_eg_order_increase_flag[ i ]를 사용할 수 있다.
즉, 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부와 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부는 별도로 시그널링되지 않을 수 있다. 그리고, 하나의 구문 요소가 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부와 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부를 하나의 구문 요소를 나타낼 수 있다.
이러한 경우, alf_luma_eg_order_increase_flag[ i ] 및 alf_chroma_eg_order_increase_flag[ i ]에 대한 중복적인 시그널링 없이, 하나의 구문 요소가 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부와 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부를 모두 나타낼 수 있다.
즉, 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부 및 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부는 alf_eg_order_increase_flag[ i ]를 엔트로피 부호화/복호화하여 유도될 수 있다.
예를 들어, alf_luma_clip_flag가 제2 값(예: 1)인 경우, 상기 alf_luma_eg_order_increase_flag[ i ] 및 alf_chroma_eg_order_increase_flag[ i ] 대신 아래의 구문 요소인 alf_eg_order_increase_flag[ i ] 가 사용될 수 있다.
alf_eg_order_increase_flag[ i ]는 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부 및 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부 중 적어도 하나를 의미할 수 있다.
예를 들어, alf_eg_order_increase_flag[ i ]가 제1 값(예: 0)인 경우 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수 및 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하지 않을 수 있다. 그리고, alf_eg_order_increase_flag[ i ]가 제2 값(예: 1)인 경우 휘도 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수 및 색차 성분에 대한 적응적 루프내 필터 계수를 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가할 수 있다.
alf_eg_order_increase_flag[ i ]가 비트스트림 내에 존재하지 않을 경우 alf_eg_order_increase_flag[ i ]는 제1 값(예: 0)으로 추론될 수 있다.
상기 예와 유사하게, slice_alf_chroma_idc가 제1 값(예: 0)이 아니고 alf_luma_clip_flag가 제2 값(예: 1)인 경우, 하나의 구문 요소가 휘도 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부 및 색차 성분에 대한 적응적 루프내 필터 절삭 색인을 시그널링할 때 사용되는 지수-골롬 부호의 차수가 1만큼 증가하는지 여부를 모두 나타낼 수 있다.
도 61의 예와 같이, alf_ctb_flag[ cIdx ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]는 휘도 성분 위치 ( xCtb, yCtb )에서 cIdx에 의해 지시되는 색 성분(Y, Cb, 또는 Cr) 부호화 트리 블록(coding tree block)에서 적응적 루프내 필터링이 사용되는지를 의미할 수 있다.
예를 들어, alf_ctb_flag[ 0 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]는 현재 부호화 트리 블록의 휘도 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제1 ALF 부호화 트리 블록 플래그일 수 있다. alf_ctb_flag[ 0 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]가 제1 값(예: 0)인 경우 휘도 성분 위치 ( xCtb, yCtb )에서 휘도 성분 부호화 트리 블록(coding tree block)에서 적응적 루프내 필터링이 사용되지 않을 수 있다. 그리고, alf_ctb_flag[ 0 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]가 제2 값(예: 1)인 경우 휘도 성분 위치 ( xCtb, yCtb )에서 휘도 성분 부호화 트리 블록(coding tree block)에서 적응적 루프내 필터링이 사용될 수 있다.
alf_ctb_flag[ 0 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]가 비트스트림 내에 존재하지 않을 경우 alf_ctb_flag[ 0 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]는 제1 값(예: 0)으로 추론될 수 있다.
예를 들어, alf_ctb_flag[ 1 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]는 현재 부호화 트리 블록의 Cb 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제2 ALF 부호화 트리 블록 플래그일 수 있다. alf_ctb_flag[ 1 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]가 제1 값(예: 0)인 경우 휘도 성분 위치 ( xCtb, yCtb )에서 Cb 부호화 트리 블록(coding tree block)에서 적응적 루프내 필터링이 사용되지 않을 수 있다. 그리고, alf_ctb_flag[ 1 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]가 제2 값(예: 1)인 경우 휘도 성분 위치 ( xCtb, yCtb )에서 Cb 부호화 트리 블록(coding tree block)에서 적응적 루프내 필터링이 사용될 수 있다.
alf_ctb_flag[ 1 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]가 비트스트림 내에 존재하지 않을 경우 alf_ctb_flag[ 1 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]는 제1 값(예: 0)으로 추론될 수 있다.
예를 들어, alf_ctb_flag[ 2 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]는 현재 부호화 트리 블록의 Cr 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제3 ALF 부호화 트리 블록 플래그일 수 있다. alf_ctb_flag[ 2 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]가 제1 값(예: 0)인 경우 휘도 성분 위치 ( xCtb, yCtb )에서 Cr 부호화 트리 블록(coding tree block)에서 적응적 루프내 필터링이 사용되지 않을 수 있다. 그리고, alf_ctb_flag[ 2 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]가 제2 값(예: 1)인 경우 휘도 성분 위치 ( xCtb, yCtb )에서 Cr 부호화 트리 블록(coding tree block)에서 적응적 루프내 필터링이 사용될 수 있다.
alf_ctb_flag[ 2 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]가 비트스트림 내에 존재하지 않을 경우 alf_ctb_flag[ 2 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]는 제1 값(예: 0)으로 추론될 수 있다.
alf_ctb_use_first_aps_flag는 slice_alf_aps_id_luma[ 0 ]와 동일한 값을 가지는 adaptation_parameter_set_id가 지시하는 적응 파라미터 세트의 적응적 루프내 필터 정보를 사용하는지를 의미할 수 있다.
예를 들어, alf_ctb_use_first_aps_flag가 제1 값(예: 0)인 경우, slice_alf_aps_id_luma[ 0 ]와 동일한 값을 가지는 adaptation_parameter_set_id가 지시하는 적응 파라미터 세트의 적응적 루프내 필터 정보가 사용되지 않을 수 있다. 그리고, alf_ctb_use_first_aps_flag가 제2 값(예: 1)인 경우, slice_alf_aps_id_luma[ 0 ]와 동일한 값을 가지는 adaptation_parameter_set_id가 지시하는 적응 파라미터 세트의 적응적 루프내 필터 정보가 사용될 수 있다.
alf_ctb_use_first_aps_flag가 비트스트림 내에 존재하지 않을 경우 alf_ctb_use_first_aps_flag는 제1 값(예: 0)으로 추론될 수 있다.
일 실시 예에 따르면, 도 61의 예와 다르게, alf_ctb_use_first_aps_flag는 적응적 루프내 필터 데이터 신택스에 포함되지 않을 수 있다. 즉, alf_ctb_use_first_aps_flag는 적응적 루프내 필터 데이터 신택스에서 부호화/복호화되지 않을 수 있다. 따라서, alf_ctb_use_first_aps_flag의 부호화/복호화/획득 없이, alf_luma_prev_filter_idx를 사용하여 현재 휘도 부호화 트리 블록에 적용되는 적응적 루프내 필터 세트가 결정될 수 있다.
alf_use_aps_flag는 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용되는 여부를 나타내는 적응 파라미터 세트 적용 플래그를 의미할 수 있다.
예를 들어, alf_use_aps_flag가 제1 값(예: 0)인 경우 휘도 성분 부호화 트리 블록에서 고정된 필터 중 적어도 하나가 사용될 수 있다. 즉, 고정 ALF 세트 내의 적어도 하나의 고정된 필터가 현재 부호화 트리 블록에서 사용될 수 있다. 그리고, alf_use_aps_flag가 제2 값(예: 1)인 경우 휘도 성분 부호화 트리 블록에서 적어도 하나의 적응 파라미터 세트 내 적응적 루프내 필터 정보가 사용될 수 있다.
alf_use_aps_flag가 비트스트림 내에 존재하지 않을 경우 alf_use_aps_flag는 제1 값(예: 0)으로 추론될 수 있다.
alf_luma_prev_filter_idx_minus1에 1을 더한 값은 이전 픽처들 중 적어도 하나의 픽처/서브 픽처/슬라이스/타일 그룹/브릭에서 사용한 적응 파라미터 세트 내 적응적 루프내 필터 정보 중 어떤 적응적 루프내 필터 정보를 사용하는지에 대한 색인을 의미할 수 있다.
상기 alf_luma_prev_filter_idx_minus1는 0에서 slice_num_alf_aps_ids_luma - N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 1일 수 있다. 도 61에 따르면, alf_ctb_use_first_aps_flag가 현재 부호화 트리 블록에 적용되는 적응적 루프내 필터의 색인 값이 1인지 여부를 나타내기 때문에, alf_luma_prev_filter_idx_minus1는 색인 값이 2 이상인 적어도 2개의 적응적 루프내 필터 중에서 하나를 나타낸다. 따라서, 상기 N은 2로 결정될 수 있다. 그러므로 만약 slice_num_alf_aps_ids_luma가 2일 때, 색인 값이 2 이상인 적응적 루프내 필터가 1개이므로, alf_luma_prev_filter_idx_minus1는 시그널링되지 않을 수 있다.
alf_luma_prev_filter_idx_minus1가 비트스트림 내에 존재하지 않을 경우 alf_luma_prev_filter_idx_minus1는 0의 값으로 추론될 수 있다.
일 실시 예에 따르면, 도 61의 예와 다르게, alf_ctb_use_first_aps_flag가 부호화 트리 블록의 신택스 구조에 포함되지 않을 경우, alf_luma_prev_filter_idx_minus1 대신에 alf_luma_prev_filter_idx가 부호화 트리 블록의 신택스 구조에 포함될 수 있다. 즉, alf_luma_prev_filter_idx가 부호화 트리 블록의 신택스 구조에서 부호화/복호화될 수 있다. alf_luma_prev_filter_idx는 이전 픽처/서브 픽처/슬라이스/타일 그룹/브릭들 중 적어도 하나의 픽처/서브 픽처/슬라이스/타일 그룹/브릭에서 사용한 적응 파라미터 세트 내 적응적 루프내 필터 정보 중 어떤 적응적 루프내 필터 정보를 사용하는지에 대한 색인을 의미할 수 있다
상기 alf_luma_prev_filter_idx 는 0에서 slice_num_alf_aps_ids_luma - N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 1일 수 있다. alf_ctb_use_first_aps_flag가 부호화 트리 블록의 신택스 구조에 포함되지 않을 경우, alf_luma_prev_filter_idx는 색인 값에 관계없이 적어도 2개의 적응적 루프내 필터 중에서 하나를 나타낸다. 따라서, 상기 N은 1로 결정될 수 있다. 그러므로 만약 slice_num_alf_aps_ids_luma가 1일 때, 적응적 루프내 필터의 총 개수가 1개이므로, alf_luma_prev_filter_idx_minus1는 시그널링되지 않을 수 있다
alf_use_aps_flag가 제2 값(예: 1)인 경우 및 slice_num_alf_aps_ids_luma가 2 이상인 경우 중 적어도 하나의 경우를 만족할 경우에, 상기 alf_luma_prev_filter_idx는 부호화/복호화될 수 있다.
alf_luma_prev_filter_idx가 비트스트림 내에 존재하지 않을 경우 alf_luma_prev_filter_idx는 0의 값으로 추론될 수 있다.
휘도 성분 위치 ( xCtb, yCtb )에서 휘도 성분 부호화 트리 블록에서 사용하는 적응적 루프내 필터 색인 AlfCtbFiltSetIdxY[ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]은 아래와 같이 유도될 수 있다.
alf_ctb_use_first_aps_flag가 제2 값(예: 1)인 경우, AlfCtbFiltSetIdxY[ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]는 F의 값으로 결정될 수 있다. 여기서, F는 양의 정수일 수 있고, 16일 수 있다. 또한, F는 부호화기/복호화기에서 사용하는 고정된 필터의 최대 개수를 의미할 수 있다. 즉, F는 alf_luma_fixed_filter_idx가 가질 수 있는 최대값에 +1한 값일 수 있다.
alf_ctb_use_first_aps_flag가 제1 값(예: 0)이고 alf_use_aps_flag가 제1 값(예: 0)인 경우, AlfCtbFiltSetIdxY[ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]는 alf_luma_fixed_filter_idx로 결정될 수 있다.
그 밖의 경우 (alf_ctb_use_first_aps_flag가 제1 값(예: 0)이고 alf_use_aps_flag가 제2 값(예: 1)인 경우), AlfCtbFiltSetIdxY[ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]는 17 + alf_luma_prev_filter_idx_minus1로 결정될 수 있다.
또는, 휘도 성분 위치 ( xCtb, yCtb )에서 휘도 성분 부호화 트리 블록에서 사용하는 적응적 루프내 필터 색인 AlfCtbFiltSetIdxY[ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]은 아래와 같이 유도될 수 있다.
alf_use_aps_flag가 제1 값(예: 0)인 경우, AlfCtbFiltSetIdxY[ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]는 alf_luma_fixed_filter_idx로 결정될 수 있다.
그렇지 않은 경우(alf_use_aps_flag가 제2 값(예: 1)인 경우), AlfCtbFiltSetIdxY[ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]는 F + alf_luma_prev_filter_idx로 결정될 수 있다. 여기서, F는 양의 정수일 수 있고, 16일 수 있다. 또한, F는 부호화기/복호화기에서 사용하는 고정된 필터의 최대 개수를 의미할 수 있다. 즉, F는 alf_luma_fixed_filter_idx가 가질 수 있는 최대값에 +1한 값일 수 있다.
alf_luma_fixed_filter_idx는 휘도 성분 부호화 트리 블록에서 사용하는 고정된 필터 색인을 의미할 수 있다. 즉, 고정 ALF 세트 내의 적어도 하나의 고정된 필터가 현재 부호화 트리 블록에서 사용될 경우, alf_luma_fixed_filter_idx를 이용하여 고정 ALF 세트에서 고정된 필터를 선택할 수 있다.
상기 alf_luma_fixed_filter_idx는 0에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 15일 수 있다.
alf_luma_fixed_filter_idx가 비트스트림 내에 존재하지 않을 경우 alf_luma_fixed_filter_idx는 0의 값으로 추론될 수 있다.
도 61의 부호화 트리 블록의 신택스 구조는 추가적으로 적응 파라미터 세트에 포함된 복수의 색차 적응적 루프내 필터들 중 하나를 나타내는 색차 적응적 루프내 필터 색인 정보(alf_ctb_filter_alt_idx)를 더 포함할 수 있다. 상기 색차 적응적 루프내 필터 색인 정보는 색차 ALF 개수 정보가 1보다 큰 양의 정수일 경우에 시그널링될 수 있다.
예를 들어, alf_ctb_flag[ 1 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]가 Cb 적응적 루프내 필터가 현재 부호화 트리 블록에 사용됨을 나타내고, 적응 파라미터 세트에 2개 이상의 Cb 적응적 루프내 필터가 포함된 경우, 현재 부호화 트리 블록에서 사용되는 Cb 적응적 루프내 필터를 나타내는 Cb 적응적 루프내 필터 색인 정보(alf_ctb_filter_alt_idx)가 부호화 트리 블록의 신택스 구조에 포함될 수 있다. 즉, 현재 부호화 트리 블록에서 사용되는 Cb 적응적 루프내 필터를 나타내는 Cb 적응적 루프내 필터 색인 정보(alf_ctb_filter_alt_idx)가 부호화 트리 블록의 신택스 구조에서 부호화/복호화될 수 있다.
또한 alf_ctb_flag[ 2 ][ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]가 Cr 적응적 루프내 필터가 현재 부호화 트리 블록에 사용됨을 나타내고, 적응 파라미터 세트에 2개 이상의 Cr 적응적 루프내 필터가 포함된 경우, 현재 부호화 트리 블록에서 사용되는 Cr 적응적 루프내 필터를 나타내는 Cr 적응적 루프내 필터 색인 정보(alf_ctb_filter_alt_idx)가 부호화 트리 블록의 신택스 구조에 포함될 수 있다. 즉, 현재 부호화 트리 블록에서 사용되는 Cr 적응적 루프내 필터를 나타내는 Cr 적응적 루프내 필터 색인 정보(alf_ctb_filter_alt_idx)가 부호화 트리 블록의 신택스 구조에서 부호화/복호화될 수 있다.
상기 Cb 적응적 루프내 필터 색인 정보와 Cr 적응적 루프내 필터 색인 정보는 각각의 색차 성분 별로 시그널링될 수 있으며, 서로 다른 필터 색인 또는 서로 동일한 필터 색인을 지시할 수 있다.
이하, 적응적 루프내 필터 프로세스의 일 실시 예가 설명된다. 아래에서, 복원(reconstruction)은 복호(decoding)를 의미할 수 있다.
적응적 루프내 필터링 수행 전 복원된 휘도 성분 픽처 샘플 배열 recPictureL 이 입력될 수 있다. 그리고 ChromaArrayType가 제1 값(예: 0)이 아닌 경우, 적응적 루프내 필터 수행 전 복원된 색차 성분 픽처 샘플 배열 recPictureCb 및 recPictureCr 이 입력될 수 있다.
그리고 적응적 루프내 필터 프로세스에 따라, 적응적 루프내 필터링 수행 후 변경된 복원된 휘도 성분 픽처 샘플 배열 alfPictureL이 출력될 수 있다. 그리고 ChromaArrayType가 제1 값(예: 0)이 아닌 경우, 적응적 루프내 필터 수행 전 복원된 색차 성분 픽처 샘플 배열 alfPictureCb 및 alfPictureCr이 출력될 수 있다.
적응적 루프내 필터링 수행 후 변경된 복원된 휘도 성분 픽처 샘플 배열 alfPictureL은 적응적 루프내 필터링 수행 전 복원된 휘도 성분 픽처 샘플 배열 recPictureL로 초기화될 수 있다.
ChromaArrayType가 제1 값(예: 0)이 아닌 경우, 적응적 루프내 필터 수행 전 복원된 픽처 샘플 배열 alfPictureCb 및 alfPictureCr는 적응적 루프내 필터 수행 전 복원된 픽처 샘플 배열 recPictureCb 및 recPictureCr로 초기화될 수 있다.
slice_alf_enabled_flag가 제2 값(예: 1)인 경우, 휘도 부호화 트리 블록 위치가 ( rx, ry )인 모든 부호화 트리 유닛(coding tree unit)에 대해서 아래의 과정이 수행될 수 있다. 여기서, rx는 0에서 PicWidthInCtbs - 1까지의 값을 가질 수 있고, ry는 0에서 PicHeightInCtbs - 1까지의 값을 가질 수 있다.
alf_ctb_flag[ 0 ][ rx ][ ry ]가 제2 값(예: 1)인 경우, 휘도 성분에 대한 부호화 트리 블록 필터링 과정이 수행될 수 있다.
휘도 성분에 대한 부호화 트리 블록 필터링 과정의 입력: recPictureL, alfPictureL, 휘도 성분 부호화 트리 블록 위치 ( xCtb, yCtb )가 ( rx << CtbLog2SizeY, ry << CtbLog2SizeY )로 설정될 수 있다.
휘도 성분에 대한 부호화 트리 블록 필터링 과정에 의하여 alfPictureL가 출력될 수 있다.
ChromaArrayType가 제1 값(예: 0)이 아니고 alf_ctb_flag[ 1 ][ rx ][ ry ]가 제2 값(예: 1)인 경우 색차 성분 Cb에 대한 부호화 트리 블록 필터링 과정이 수행될 수 있다.
색차 성분 Cb 에 대한 부호화 트리 블록 필터링 과정의 입력은 recPictureCb, alfPictureCb, 및 색차 성분 Cb 부호화 트리 블록 위치 ( xCtbC, yCtbC )가 ( ( rx << CtbLog2SizeY ) / SubWidthC, ( ry << CtbLog2SizeY ) / SubHeightC )로 설정될 수 있다.
색차 성분 Cb 에 대한 부호화 트리 블록 필터링 과정에 의하여 alfPictureCb이 출력될 수 있다.
일 실시 예에 따르면, 현재 부호화 트리 블록의 Cb 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 픽처 또는 현재 슬라이스에 적용되는 적응적 루프내 필터 세트를 포함하는 한 개 이상의 적응 파라미터 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 Cb 적응적 루프내 필터 세트(Cb ALF 세트)를 포함하는 적응 파라미터 세트를 나타내는 제2 ALF 부호화 트리 블록 식별자가 부호화/복호화/획득될 수 있다. 그리고 상기 제2 ALF 부호화 트리 블록 식별자에 따라, 상기 현재 부호화 트리 블록에 적용되는 Cb 적응적 루프내 필터 세트를 포함하는 적응 파라미터 세트가 결정될 수 있다. 그리고 상기 적응 파라미터 세트에서 Cb 적응적 루프내 필터 세트가 부호화/복호화/획득될 수 있다.
ChromaArrayType가 제1 값(예: 0)이 아니고 alf_ctb_flag[ 2 ][ rx ][ ry ]가 제2 값(예: 1)인 경우 색차 성분 Cr에 대한 부호화 트리 블록 필터링 과정이 수행될 수 있다.
색차 성분 Cr에 대한 부호화 트리 블록 필터링 과정의 입력: recPictureCr, alfPictureCr, 색차 성분 Cr 부호화 트리 블록 위치 ( xCtbC, yCtbC )가 ( ( rx << CtbLog2SizeY ) / SubWidthC, ( ry << CtbLog2SizeY ) / SubHeightC )로 설정될 수 있다.
색차 성분 Cr에 대한 부호화 트리 블록 필터링 과정에 의하여 alfPictureCr이 출력될 수 있다.
일 실시 예에 따르면, 현재 부호화 트리 블록의 Cr 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 픽처 또는 현재 슬라이스에 적용되는 적응적 루프내 필터 세트를 포함하는 한 개 이상의 적응 파라미터 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 Cr 적응적 루프내 필터 세트(Cr ALF 세트)를 포함하는 적응 파라미터 세트를 나타내는 제3 ALF 부호화 트리 블록 식별자가 부호화/복호화/획득될 수 있다. 그리고 상기 제3 ALF 부호화 트리 블록 식별자에 따라, 상기 현재 부호화 트리 블록에 적용되는 Cr 적응적 루프내 필터 세트를 포함하는 적응 파라미터 세트가 결정될 수 있다. 그리고 상기 적응 파라미터 세트에서 Cr 적응적 루프내 필터 세트가 부호화/복호화/획득될 수 있다.
이하, 휘도 성분에 대한 부호화 트리 블록 필터링 과정의 일 실시 예가 설명된다.
부호화 트리 블록 필터링을 위하여, 적응적 루프내 필터링 수행 전 복원된 휘도 성분 픽처 샘플 배열 recPictureL, 적응적 루프내 필터링 수행 후 변경된 휘도 성분 픽처 샘플 배열 alfPictureL 및 현재 픽처의 좌상단 샘플을 기준으로 한 현재 휘도 성분 부호화 트리 블록의 좌상단 샘플의 위치( xCtb, yCtb )가 입력될 수 있다.
그리고 부호화 트리 블록 필터링에 따라 변경된 휘도 성분 픽처 샘플 배열 alfPictureL이 출력될 수 있다.
부호화 트리 블록 필터링을 위한 필터 색인 유도 과정은 이하와 같이 수행될 수 있다.
필터 색인 유도 과정을 위하여, 적응적 루프내 필터링 수행 전 복원된 휘도 성분 픽처 샘플 배열 recPictureL 및 현재 픽처의 좌상단 샘플을 기준으로 한 현재 휘도 성분 부호화 트리 블록의 좌상단 샘플의 위치( xCtb, yCtb )가 입력될 수 있다.
필터 색인 유도 과정에 따라, 분류 필터 색인 배열 filtIdx과 전치 색인 배열 transposeIdx가 출력될 수 있다.
이때, x 및 y는 0부터 CtbSizeY - 1까지의 값을 가질 수 있다.
alfPictureL[ x ][ y ]을 유도하기 위해, recPictureL[ x ][ y ] 내 현재 휘도 성분 부호화 트리 블록 내 각 복원된 휘도 성분 샘플은 아래와 같이 필터링될 수 있다. 이때, x 및 y는 0부터 CtbSizeY - 1까지의 값을 가질 수 있다.
filtIdx[ x ][ y ]에 지시되는 필터에 대한 휘도 성분 필터 계수 배열 f[ j ]과 휘도 성분 절삭 값 배열 c[ j ]은 아래와 같이 유도될 수 있다. 여기서, j는 0에서 N까지의 값을 가질 수 있고, 예를 들어 N은 양의 정수이고, 예를 들어 11일 수 있다.
AlfCtbFiltSetIdxY[ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]가 F보다 작은 값을 가질 경우, 아래와 같이 수행될 수 있다. 여기서, F는 양의 정수일 수 있고, 16일 수 있다. 또한, F는 부호화기/복호화기에서 사용하는 고정된 필터의 최대 개수를 의미할 수 있다. 즉, F는 alf_luma_fixed_filter_idx가 가질 수 있는 최대값에 +1한 값일 수 있다.
i = AlfCtbFiltSetIdxY[ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]
f[ j ] = AlfFixFiltCoeff[ AlfClassToFiltMap[ i ][ filtIdx[ x ][ y ] ] ][ j ]
c[ j ] = 2BitdepthY 또는 c[ j ] = AlfClipL[ i ][ filtIdx[ x ][ y ] ][ j ]
여기서, c[ j ]에 AlfClipL[ i ][ filtIdx[ x ][ y ] ][ j ]를 할당하는 것은 고정된 필터에 비선형 적응적 루프내 필터링 방법인 절삭 방법을 사용하는 것을 의미할 수 있다.
AlfCtbFiltSetIdxY[ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ]가 F보다 크거나 같을 경우, 아래와 같이 수행될 수 있다.
i = slice_alf_aps_id_luma[ AlfCtbFiltSetIdxY[ xCtb >> Log2CtbSize ][ yCtb >> Log2CtbSize ] - F ]
f[ j ] = AlfCoeffL[ i ][ filtIdx[ x ][ y ] ][ j ]
c[ j ] = AlfClipL[ i ][ filtIdx[ x ][ y ] ][ j ]
여기서, f[ j ]는 휘도 ALF를 의미할 수 있고, c[ j ]는 휘도 절삭 값을 의미할 수 있다.
휘도 성분 필터 계수 및 절삭 값에 대한 색인 idx은 transposeIdx[ x ][ y ]에 따라 아래와 같이 유도될 수 있다.
transposeIndex[ x ][ y ]가 제2 값(예: 1)인 경우, 아래와 같이 수행될 수 있다.
idx[ ] = { 9, 4, 10, 8, 1, 5, 11, 7, 3, 0, 2, 6 }
transposeIndex[ x ][ y ]가 제3 값(예: 2)인 경우, 아래와 같이 수행될 수 있다.
idx[ ] = { 0, 3, 2, 1, 8, 7, 6, 5, 4, 9, 10, 11 }
transposeIndex[ x ][ y ]가 제4 값(예: 3)인 경우, 아래와 같이 수행될 수 있다.
idx[ ] = { 9, 8, 10, 4, 3, 7, 11, 5, 1, 0, 2, 6 }
그렇지 않은 경우(transposeIndex[ x ][ y ]가 제1 값(예: 0)인 경우), 아래와 같이 수행될 수 있다.
idx[ ] = { 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11 }
각 대응하는 휘도 성분 샘플 ( x, y )에 대한 recPicture 내 위치 ( hx + i, vy + j )는 아래와 같이 유도될 수 있다. 이때, i 및 j는 -N에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 3일 수 있다. 또한, (N*2)+1은 휘도 성분 필터의 가로 크기 또는 세로 크기를 의미할 수 있다.
hx + i = Clip3( 0, pic_width_in_luma_samples - 1, xCtb + x + i )
vy + j = Clip3( 0, pic_height_in_luma_samples - 1, yCtb + y + j )
가상 경계를 적용할지 여부에 대한 변수 applyVirtualBoundary는 아래와 같이 유도될 수 있다.
아래의 조건 중 적어도 하나가 참(true)일 경우, applyVirtualBoundary는 0으로 설정될 수 있다.
현재 부호화 트리 블록의 하단 경계가 픽처의 하단 경계일 경우, applyVirtualBoundary는 0으로 설정될 수 있다.
현재 부호화 트리 블록의 하단 경계가 브릭의 하단 경계이며, loop_filter_across_bricks_enabled_flag가 제1 값(예: 0)인 경우, applyVirtualBoundary는 0으로 설정될 수 있다.
여기서, loop_filter_across_bricks_enabled_flag는 루프내 필터링 방법들 중 적어도 하나가 브릭 경계를 넘어서 필터링될 수 있는지 여부를 의미할 수 있다. 즉, 브릭 경계에 루프내 필터링 방법들 중 적어도 하나를 사용하여 필터링할 수 있는지 여부를 의미할 수 있다.
현재 부호화 트리 블록의 하단 경계가 슬라이스의 하단 경계이며, loop_filter_across_slices_enabled_flag가 제1 값(예: 0)인 경우, applyVirtualBoundary는 0으로 설정될 수 있다.
여기서, loop_filter_across_slices_enabled_flag는 루프내 필터링 방법들 중 적어도 하나가 슬라이스 경계를 넘어서 필터링될 수 있는지 여부를 의미할 수 있다. 즉, 슬라이스 경계에 루프내 필터링 방법들 중 적어도 하나를 사용하여 필터링할 수 있는지 여부를 의미할 수 있다.
현재 부호화 트리 블록의 하단 경계가 타일의 하단 경계이며, loop_filter_across_tiles_enabled_flag가 제1 값(예: 0)인 경우, applyVirtualBoundary는 0으로 설정될 수 있다.
또는, 현재 부호화 트리 블록의 하단 경계가 타일의 하단 경계이며, loop_filter_across_tiles_enabled_flag가 제1 값(예: 0)인 경우, 적응적 루프내 필터가 적용되는 영역(타일)의 하단 경계의 y 좌표의 위치가 현재 부호화 트리 블록의 하단 경계의 y 좌표의 위치에 따라 결정될 수 있다.
여기서, loop_filter_across_tiles_enabled_flag는 루프내 필터링 방법들 중 적어도 하나가 타일 경계를 넘어서 필터링될 수 있는지 여부를 의미할 수 있다. 즉, 타일 경계에 루프내 필터링 방법들 중 적어도 하나를 사용하여 필터링할 수 있는지 여부를 의미할 수 있다.
일 실시 예에 따르면, 현재 부호화 트리 블록의 하단 경계가 슬라이스의 하단 경계인 경우에도, applyVirtualBoundary는 1로 설정될 수 있다.
또한 현재 부호화 트리 블록의 하단 경계가 타일의 하단 경계인 경우에도, applyVirtualBoundary는 1로 설정될 수 있다. 또한 현재 부호화 트리 블록의 하단 경계가 서브 픽처의 하단 경계인 경우에도, applyVirtualBoundary는 1로 설정될 수 있다.
현재 부호화 트리 블록의 하단 경계가 서브 픽처의 하단 경계이며, loop_filter_across_subpictures_enabled_flag가 제1 값(예: 0)인 경우, applyVirtualBoundary는 0으로 설정될 수 있다.
또는, 현재 부호화 트리 블록의 하단 경계가 서브 픽처의 하단 경계이며, loop_filter_across_subpictures_enabled_flag가 제1 값(예: 0)인 경우, 적응적 루프내 필터가 적용되는 영역(서브 픽처)의 하단 경계의 y 좌표의 위치가 현재 부호화 트리 블록의 하단 경계의 y 좌표의 위치에 따라 결정될 수 있다.
여기서, loop_filter_across_subpictures_enabled_flag는 루프내 필터링 방법들 중 적어도 하나가 서브 픽처 경계를 넘어서 필터링될 수 있는지 여부를 의미할 수 있다. 즉, 서브 픽처 경계에 루프내 필터링 방법들 중 적어도 하나를 사용하여 필터링할 수 있는지 여부를 의미할 수 있다.
현재 부호화 트리 블록의 하단 경계가 픽처의 하단 가상 경계이며, pps_loop_filter_across_virtual_boundaries_disabled_flag가 제2 값(예: 1)인 경우, applyVirtualBoundary는 0으로 설정될 수 있다.
그렇지 않은 경우(상기 조건이 참(true)이 아닌 경우), applyVirtualBoundary는 1로 설정될 수 있다.
복원된 샘플 오프셋 r1, r2, 및 r3은 세로 방향 휘도 성분 샘플 위치 y와 applyVirtualBoundary에 따라 표 3과 같이 결정될 수 있다.
조건 r1 r2 r3
(y == CtbSizeY - 5 || y == CtbSizeY-4) && (applyVirtualBoundary == 1) 0 0 0
(y == CtbSizeY - 6 || y == CtbSizeY-3) && (applyVirtualBoundary == 1) 1 1 1
(y == CtbSizeY - 7 || y == CtbSizeY-2) && (applyVirtualBoundary == 1) 1 2 2
그렇지 않은 경우 (위의 조건에 해당하지 않는 경우) 1 2 3
현재 샘플 위치에 대한 샘플 값 curr는 아래와 같이 유도될 수 있다.
curr = recPictureL[ hx, vy ]
현재 샘플에 대해 필터링이 수행된 값 sum은 아래와 같이 유도될 수 있다.
Figure PCTKR2020007856-appb-M000037
alfPictureL[ xCtb + x ][ yCtb + y ]는 아래와 같이 유도될 수 있다.
pcm_loop_filter_disabled_flag가 제2 값(예: 1)이며 pcm_flag[ xCtb+ x ][ yCtb + y ]가 제2 값(예: 1)인 경우, 아래와 같이 수행될 수 있다.
alfPictureL[ xCtb + x ][ yCtb + y ] = recPictureL[ hx, vy ]
그렇지 않은 경우(pcm_loop_filter_disabled_flag가 제1 값(예: 0)이며 pcm_flag[ xCtb+ x ][ yCtb + y ]가 제1 값(예: 0)인 경우), 아래와 같이 수행될 수 있다.
alfPictureL[ xCtb + x ][ yCtb + y ] = Clip3( 0, ( 1 << BitDepthY ) - 1, sum )
이하, 필터 색인 유도 과정의 일 실시 예가 설명된다.
부호화 트리 블록의 좌상단 샘플의 위치인 ( xCtb, yCtb )과 휘도 성분 복원 픽처인 recPictureL이 입력될 수 있다. 그리고 분류 필터 색인 배열(classification filter index array) filtIdx[ x ][ y ]과 전치 색인 배열(transpose index array) transposeIdx[ x ][ y ]이 출력될 수 있다. 이때, x 및 y는 0부터 CtbSizeY - 1까지의 값을 가질 수 있다.
각 대응하는 휘도 성분 샘플 ( x, y )에 대한 recPicture 내 위치 ( hx + i, vy + j )는 아래와 같이 유도될 수 있다. 이때, i 및 j는 -M에서 N까지의 값을 가질 수 있다. 여기서, M과 N은 양의 정수일 수 있고, 예를 들어 M은 2, N은 5일 수 있다. 또한, M+N+1은 1D 라플라시안 연산의 합이 계산되는 범위(가로 크기 및 세로 크기)를 의미할 수 있다.
hx + i = Clip3( 0, pic_width_in_luma_samples - 1, xCtb + x + i )
yCtb + CtbSizeY가 pic_height_in_luma_samples보다 크거나 같을 경우, 아래와 같이 수행될 수 있다.
vy + j = Clip3( 0, pic_height_in_luma_samples - 1, yCtb + y + j )
y가 CtbSizeY - 4보다 작을 경우, 아래와 같이 수행될 수 있다.
vy + j = Clip3( 0, yCtb + CtbSizeY - 5, yCtb + y + j )
그렇지 않은 경우, 아래와 같이 수행될 수 있다.
vy + j = Clip3( yCtb + CtbSizeY - 4, pic_height_in_luma_samples - 1, yCtb + y + j )
분류 필터 색인 배열 filtIdx과 전치 색인 배열 transposeIdx은 아래와 같이 유도될 수 있다.
filtH[ x ][ y ], filtV[ x ][ y ], filtD0[ x ][ y ] 및 filtD1[ x ][ y ]은 아래와 같이 유도될 수 있다. 이때, x 및 y는 -2부터 CtbSizeY + 1까지의 값을 가질 수 있다.
x와 y가 모두 짝수일 경우 또는 x와 y가 모두 홀수일 경우, 수학식 38과 같이 수행될 수 있다.
Figure PCTKR2020007856-appb-M000038
그렇지 않은 경우, filtH[ x ][ y ], filtV[ x ][ y ], filtD0[ x ][ y ] 및 filtD1[ x ][ y ]은 0으로 설정될 수 있다.
minY, maxY 및 ac은 아래와 같이 유도될 수 있다.
( y << 2 )가 ( CtbSizeY - 8 )와 동일하고, ( yCtb + CtbSizeY )가 pic_height_in_luma_samples - 1보다 작을 경우, 아래와 같이 수행될 수 있다.
minY는 -M로 설정될 수 있다. 여기서, M은 양의 정수일 수 있고, 예를 들어 2일 수 있다.
maxY는 N으로 설정될 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 3일 수 있다.
ac는 96으로 설정될 수 있다.
여기서, M+N+1은 1D 라플라시안 연산의 합이 계산되는 범위(세로 크기)를 의미할 수 있다.
minY가 -2이며 maxY가 3일 경우는 minY가 -2이며 maxY가 5일 경우보다 1D 라플라시안 연산의 합이 계산되는 범위가 작아지므로, 상기 ac값을 조정하여 avgVar[ x ][ y ] 값이 0에서 15 사이의 값으로 계산될 수 있도록 할 필요가 있다. 따라서, 이러한 경우 ac는 64와 96 사이의 값으로 설정될 수 있으며, 예를 들어 ac는 85 또는 86일 수 있다.
즉, minY가 -2이며 maxY가 3일 경우에는 1D 라플라시안 연산의 합이 계산되는 범위(가로 크기 x 세로 크기)가 8x6이 되며, minY가 -2이며 maxY가 5일 경우에는 1D 라플라시안 연산의 합이 계산되는 범위(가로 크기 x 세로 크기)가 8x8이 되므로, 1D 라플라시안 연산의 합이 계산되는 범위가 8x8일 때 사용되는 ac인 64에 대해 4/3만큼 곱을 해줄 필요가 있다. 64에 대해 4/3만큼 곱을 할 경우 85.33의 값이 나오므로 ac값으로 85 또는 86을 사용할 수 있다.
( y << 2 )가 ( CtbSizeY - 4 )와 동일하고, ( yCtb + CtbSizeY )가 pic_height_in_luma_samples - 1보다 작을 경우, 아래와 같이 수행될 수 있다.
minY는 M로 설정될 수 있다. 여기서, M은 양의 정수일 수 있고, 예를 들어 0일 수 있다.
maxY는 N으로 설정될 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 5일 수 있다.
ac는 96으로 설정될 수 있다.
여기서, M+N+1은 1D 라플라시안 연산의 합이 계산되는 범위(세로 크기)를 의미할 수 있다.
minY가 0이며 maxY가 5일 경우는 minY가 -2이며 maxY가 5일 경우보다 1D 라플라시안 연산의 합이 계산되는 범위가 작아지므로, 상기 ac값을 조정하여 avgVar[ x ][ y ] 값이 0에서 15 사이의 값으로 계산될 수 있도록 할 필요가 있다. 따라서, 이러한 경우 ac는 64와 96 사이의 값으로 설정될 수 있으며, 예를 들어 ac는 85 또는 86일 수 있다.
즉, minY가 0이며 maxY가 5일 경우에는 1D 라플라시안 연산의 합이 계산되는 범위(가로 크기 x 세로 크기)가 8x6이 되며, minY가 -2이며 maxY가 5일 경우에는 1D 라플라시안 연산의 합이 계산되는 범위(가로 크기 x 세로 크기)가 8x8이 되므로, 1D 라플라시안 연산의 합이 계산되는 범위가 8x8일 때 사용되는 ac인 64에 대해 4/3만큼 곱을 해줄 필요가 있다. 64에 대해 4/3만큼 곱을 할 경우 85.33의 값이 나오므로 ac값으로 85 또는 86을 사용할 수 있다.
그렇지 않은 경우, 아래와 같이 수행될 수 있다.
minY는 -M로 설정될 수 있다. 여기서, M은 양의 정수일 수 있고, 예를 들어 2일 수 있다.
maxY는 N으로 설정될 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 5일 수 있다.
ac는 64로 설정될 수 있다.
여기서, M+N+1은 1D 라플라시안 연산의 합이 계산되는 범위(세로 크기)를 의미할 수 있다.
sumH[ x ][ y ], sumV[ x ][ y ], sumD0[ x ][ y ], sumD1[ x ][ y ] 및 sumOfHV[ x ][ y ]은 수학식 39 내지 42와 같이 유도될 수 있다. 이때, x 및 y는 0부터 ( CtbSizeY - 1 ) >> 2까지의 값을 가질 수 있다.
Figure PCTKR2020007856-appb-M000039
여기서, i는 -2에서 5까지의 값을 가질 수 있고, j는 minY에서 maxY까지의 값을 가질 수 있다.
Figure PCTKR2020007856-appb-M000040
여기서, i는 -2에서 5까지의 값을 가질 수 있고, j는 minY에서 maxY까지의 값을 가질 수 있다.
Figure PCTKR2020007856-appb-M000041
여기서, i는 -2에서 5까지의 값을 가질 수 있고, j는 minY에서 maxY까지의 값을 가질 수 있다.
Figure PCTKR2020007856-appb-M000042
여기서, i는 -2에서 5까지의 값을 가질 수 있고, j는 minY에서 maxY까지의 값을 가질 수 있다.
sumOfHV[ x ][ y ] = sumH[ x ][ y ] + sumV[ x ][ y ]
dir1[ x ][ y ], dir2[ x ][ y ] 및 dirS[ x ][ y ]은 아래와 같이 유도될 수 있다. 이때, x 및 y는 0부터 CtbSizeY - 1까지의 값을 가질 수 있다.
hv1, hv0 및 dirHV는 아래와 같이 유도될 수 있다.
sumV[ x >> 2 ][ y >> 2 ]가 sumH[ x >> 2 ][ y >> 2 ] 보다 클 경우, 아래와 같이 수행될 수 있다.
hv1 = sumV[ x >> 2 ][ y >> 2 ]
hv0 = sumH[ x >> 2 ][ y >> 2 ]
dirHV = 1
그렇지 않은 경우, 아래와 같이 수행될 수 있다.
hv1 = sumH[ x >> 2 ][ y >> 2 ]
hv0 = sumV[ x >> 2 ][ y >> 2 ]
dirHV = 3
d1, d0 및 dirD는 아래와 같이 유도될 수 있다.
sumD0[ x >> 2 ][ y >> 2 ]가 sumD1[ x >> 2 ][ y >> 2 ] 보다 클 경우, 아래와 같이 수행될 수 있다.
d1 = sumD0[ x >> 2 ][ y >> 2 ]
d0 = sumD1[ x >> 2 ][ y >> 2 ]
dirD = 0
그렇지 않은 경우, 아래와 같이 수행될 수 있다.
d1 = sumD1[ x >> 2 ][ y >> 2 ]
d0 = sumD0[ x >> 2 ][ y >> 2 ]
dirD = 2
Hvd1 및 hvd0는 아래와 같이 유도될 수 있다.
hvd1 = ( d1 * hv0 > hv1 * d0 ) ? d1 : hv1
hvd0 = ( d1 * hv0 > hv1 * d0 ) ? d0 : hv0
dirS[ x ][ y ], dir1[ x ][ y ] 및 dir2[ x ][ y ]는 아래와 같이 유도될 수 있다.
dir1[ x ][ y ] = ( d1 * hv0 > hv1 * d0 ) ? dirD : dirHV
dir2[ x ][ y ] = ( d1 * hv0 > hv1 * d0 ) ? dirHV : dirD
dirS[ x ][ y ] = ( hvd1 > 2 * hvd0 ) ? 1 : ( ( hvd1 * 2 > 9 * hvd0 ) ? 2 : 0 )
avgVar[ x ][ y ]는 아래와 같이 유도될 수 있다. 이때, x 및 y는 0부터 CtbSizeY - 1까지의 값을 가질 수 있다.
varTab[ ] = { 0, 1, 2, 2, 2, 2, 2, 3, 3, 3, 3, 3, 3, 3, 3, 4 }
avgVar[ x ][ y ] = varTab[ Clip3( 0, 15, ( sumOfHV[ x >> 2 ][ y >> 2 ] * ac ) >> ( 3 + BitDepthY ) ) ]
분류 필터 색인 배열 filtIdx[ x ][ y ]과 전치 색인 배열 transposeIdx[ x ][ y ]은 아래와 같이 유도될 수 있다. 이때, x 및 y는 0부터 CtbSizeY - 1까지의 값을 가질 수 있다.
transposeTable[ ] = { 0, 1, 0, 2, 2, 3, 1, 3 }
transposeIdx[ x ][ y ] = transposeTable[ dir1[ x ][ y ] * 2 + ( dir2[ x ][ y ] >> 1 ) ]
filtIdx[ x ][ y ] = avgVar[ x ][ y ]
dirS[ x ][ y ]가 제1 값(예: 0)이 아닌 경우, filtIdx[ x ][ y ]는 아래와 같이 변경될 수 있다.
filtIdx[ x ][ y ] += ( ( ( dir1[ x ][ y ] & 0x1 ) << 1 ) + dirS[ x ][ y ] ) * 5
이하, 색차 성분에 대한 부호화 트리 블록 필터링 과정의 일 실시 예가 설명된다.
복원 픽처인 recPicture과 적응적 루프내 필터링된 픽처인 alfPicture이 입력될 수 있다. 그리고 현재 픽처의 좌상단 샘플을 기준으로 한 현재 색차 성분 부호화 트리 블록의 좌상단 샘플의 위치 ( xCtbC, yCtbC )가 입력될 수 있다. 그리고 적응적 루프내 필터링된 픽처인 alfPicture가 출력될 수 있다.
현재 색차 성분 부호화 트리 블록의 가로 크기 ctbWidthC와 세로 크기 ctbHeightC는 아래와 같이 유도될 수 있다.
ctbWidthC = CtbSizeY / SubWidthC
ctbHeightC = CtbSizeY / SubHeightC
alfPicture[ x ][ y ]을 유도하기 위해, recPicture[ x ][ y ] 내 현재 색차 성분 부호화 트리 블록 내 각 복원된 색차 성분 샘플은 아래와 같이 필터링될 수 있다. 이때, x는 0부터 ctbWidthC - 1까지의 값을 가질 수 있다. 또한, y는 0부터 ctbHeightC - 1까지의 값을 가질 수 있다.
각 대응하는 색차 성분 샘플 ( x, y )에 대한 recPicture 내 위치 ( hx + i, vy + j )는 아래와 같이 유도될 수 있다. 이때, i 및 j는 -N에서 N까지의 값을 가질 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 2일 수 있다. 또한, (N*2)+1은 색차 성분 필터의 가로 크기 또는 세로 크기를 의미할 수 있다.
hx + i = Clip3( 0, pic_width_in_luma_samples / SubWidthC - 1, xCtbC + x + i )
vy + j = Clip3( 0, pic_height_in_luma_samples / SubHeightC - 1, yCtbC + y + j )
가상 경계를 적용할지 여부에 대한 변수 applyVirtualBoundary는 아래와 같이 유도될 수 있다.
아래의 조건 중 적어도 하나가 참(true)일 경우, applyVirtualBoundary는 0으로 설정될 수 있다.
현재 부호화 트리 블록의 하단 경계가 픽처의 하단 경계일 경우, applyVirtualBoundary는 0으로 설정될 수 있다.
현재 부호화 트리 블록의 하단 경계가 브릭의 하단 경계이며, loop_filter_across_bricks_enabled_flag가 제1 값(예: 0)인 경우, applyVirtualBoundary는 0으로 설정될 수 있다.
여기서, loop_filter_across_bricks_enabled_flag는 루프내 필터링 방법들 중 적어도 하나가 브릭 경계를 넘어서 필터링될 수 있는지 여부를 의미할 수 있다. 즉, 브릭 경계에 루프내 필터링 방법들 중 적어도 하나를 사용하여 필터링할 수 있는지 여부를 의미할 수 있다.
현재 부호화 트리 블록의 하단 경계가 슬라이스의 하단 경계이며, loop_filter_across_slices_enabled_flag가 제1 값(예: 0)인 경우, applyVirtualBoundary는 0으로 설정될 수 있다.
여기서, loop_filter_across_slices_enabled_flag는 루프내 필터링 방법들 중 적어도 하나가 슬라이스 경계를 넘어서 필터링될 수 있는지 여부를 의미할 수 있다. 즉, 슬라이스 경계에 루프내 필터링 방법들 중 적어도 하나를 사용하여 필터링할 수 있는지 여부를 의미할 수 있다.
현재 부호화 트리 블록의 하단 경계가 타일의 하단 경계이며, loop_filter_across_tiles_enabled_flag가 제1 값(예: 0)인 경우, applyVirtualBoundary는 0으로 설정될 수 있다.
또는, 현재 부호화 트리 블록의 하단 경계가 타일의 하단 경계이며, loop_filter_across_tiles_enabled_flag가 제1 값(예: 0)인 경우, 적응적 루프내 필터가 적용되는 영역(타일)의 하단 경계의 y 좌표의 위치가 현재 부호화 트리 블록의 하단 경계의 y 좌표의 위치에 따라 결정될 수 있다.
여기서, loop_filter_across_tiles_enabled_flag는 루프내 필터링 방법들 중 적어도 하나가 타일 경계를 넘어서 필터링될 수 있는지 여부를 의미할 수 있다. 즉, 타일 경계에 루프내 필터링 방법들 중 적어도 하나를 사용하여 필터링할 수 있는지 여부를 의미할 수 있다.
일 실시 예에 따르면, 현재 부호화 트리 블록의 하단 경계가 슬라이스의 하단 경계인 경우에도, applyVirtualBoundary는 1로 설정될 수 있다.
또한 현재 부호화 트리 블록의 하단 경계가 타일의 하단 경계인 경우에도, applyVirtualBoundary는 1로 설정될 수 있다. 또한 현재 부호화 트리 블록의 하단 경계가 서브 픽처의 하단 경계인 경우에도, applyVirtualBoundary는 1로 설정될 수 있다.
현재 부호화 트리 블록의 하단 경계가 서브 픽처의 하단 경계이며, loop_filter_across_subpictures_enabled_flag가 제1 값(예: 0)인 경우, applyVirtualBoundary는 0으로 설정될 수 있다.
또는, 현재 부호화 트리 블록의 하단 경계가 서브 픽처의 하단 경계이며, loop_filter_across_subpictures_enabled_flag가 제1 값(예: 0)인 경우, 적응적 루프내 필터가 적용되는 영역(서브 픽처)의 하단 경계의 y 좌표의 위치가 현재 부호화 트리 블록의 하단 경계의 y 좌표의 위치에 따라 결정될 수 있다.
여기서, loop_filter_across_subpictures_enabled_flag는 루프내 필터링 방법들 중 적어도 하나가 서브 픽처 경계를 넘어서 필터링될 수 있는지 여부를 의미할 수 있다. 즉, 서브 픽처 경계에 루프내 필터링 방법들 중 적어도 하나를 사용하여 필터링할 수 있는지 여부를 의미할 수 있다.
현재 부호화 트리 블록의 하단 경계가 픽처의 하단 가상 경계이며, pps_loop_filter_across_virtual_boundaries_disabled_flag가 제2 값(예: 1)인 경우, applyVirtualBoundary는 0으로 설정될 수 있다.
그렇지 않은 경우(상기 조건이 참(true)이 아닌 경우), applyVirtualBoundary는 1로 설정될 수 있다.
복원된 샘플 오프셋 r1 및 r2은 세로 방향 색차 성분 샘플 위치 y와 applyVirtualBoundary에 따라 표 4와 같이 결정될 수 있다.
[표 4]
Figure PCTKR2020007856-appb-I000046
현재 샘플 위치에 대한 샘플 값 curr는 아래와 같이 유도될 수 있다.
curr = recPicture[ hx, vy ]
색차 성분 필터 계수 배열 f[ j ]과 색차 성분 절삭 값 배열 c[ j ]은 아래와 같이 유도될 수 있다. 여기서, j는 0에서 N까지의 값을 가질 수 있고, 예를 들어 N은 양의 정수이고, 예를 들어 5일 수 있다.
f[ j ] = AlfCoeffC[ slice_alf_aps_id_chroma ][ j ]
c[ j ] = AlfClipC[ slice_alf_aps_id_chroma ][ j ]
여기서, f[ j ]는 색차 ALF를 의미할 수 있고, c[ j ]는 색차 절삭 값을 의미할 수 있다.
현재 샘플에 대해 필터링이 수행된 값 sum은 수학식 43과 같이 유도될 수 있다.
Figure PCTKR2020007856-appb-M000043
alfPicture[ xCtbC + x ][ yCtbC + y ]는 아래와 같이 유도될 수 있다.
pcm_loop_filter_disabled_flag가 제2 값(예: 1)이며 pcm_flag[ ( xCtbC + x ) * SubWidthC ][ ( yCtbC + y ) * SubHeightC ]가 제2 값(예: 1)인 경우, 아래와 같이 수행될 수 있다.
alfPicture[ xCtbC + x ][ yCtbC + y ] = recPictureL[ hx, vy ]
그렇지 않은 경우(pcm_loop_filter_disabled_flag가 제1 값(예: 0)이며 pcm_flag[ ( xCtbC + x ) * SubWidthC ][ ( yCtbC + y ) * SubHeightC ]가 제1 값(예: 0)인 경우), 아래와 같이 수행될 수 있다.
alfPicture[ xCtbC + x ][ yCtbC + y ] = Clip3( 0, ( 1 << BitDepthC ) - 1, sum )
도 64, 및 도 65의 예와 같이, alf_luma_clip_idx[ sfIdx ][ j ]와 alf_chroma_clip_idx[ j ]를 엔트로피 부호화/복호화하는데 u(2) 엔트로피 부호화/복호화 방식을 사용할 수 있다. 이때, u(2)의 최대값은 N일 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 3일 수 있다. 또한, 상기 u(2)는 f(2)와 동일한 의미를 가질 수 있다. 상기 u(n)와 f(n) 방식 중 적어도 하나는 구문 요소를 n비트 고정 길이 부호(fixed-length code)로 부호화/복호화하는 것을 의미할 수 있다. 여기서, n은 양의 정수일 수 있다.
도 66, 및 도 67의 예와 같이, alf_luma_clip_idx[ sfIdx ][ j ]와 alf_chroma_clip_idx[ j ]를 엔트로피 부호화/복호화하는데 tu(v) 엔트로피 부호화/복호화 방식을 사용할 수 있다. 이때, tu(v)의 최대값(maxVal)은 N일 수 있다. 여기서, N은 양의 정수일 수 있고, 예를 들어 3일 수 있다. 또한, 상기 tu(v)의 최대값이 3일 경우에 tu(3)과 동일한 의미를 가질 수 있다.
상기 도 64 내지 도 67의 예의 방법들을 사용할 경우, 구문 요소(syntax element)들인 alf_luma_clip_min_eg_order_minus1, alf_luma_clip_eg_order_increase_flag[ i ], alf_chroma_clip_min_eg_order_minus1, alf_chroma_clip_eg_order_increase_flag[ i ]와 구문 요소들인 alf_luma_clip_min_eg_order_minus1, alf_luma_clip_eg_order_increase_flag[ i ], alf_chroma_clip_min_eg_order_minus1, alf_chroma_clip_eg_order_increase_flag[ i ]에 관한 구문 요소 의미(semantics)를 사용하지 않고, alf_luma_clip_idx[ sfIdx ][ j ]와 alf_chroma_clip_idx[ j ]를 엔트로피 부호화/복호화를 할 수 있으므로, alf_luma_clip_idx[ sfIdx ][ j ]와 alf_chroma_clip_idx[ j ]를 엔트로피 부호화/복호화하는데 필요한 부호화기/복호화기의 구현 복잡도가 감소할 수 있다.
또한, 지수-골롬 부호의 차수 kClipY[ i ], 지수-골롬 부호의 차수 kClipC[ i ], 지수-골롬 부호(이진화) uek(v)의 차수 k를 유도하는데 필요한 부호화/복호화 과정도 수행되지 않을 수 있으므로, alf_luma_clip_idx[ sfIdx ][ j ]와 alf_chroma_clip_idx[ j ]를 엔트로피 부호화/복호화하는데 필요한 부호화기/복호화기의 구현 복잡도가 감소할 수 있다.
또한, 상기 도 64 내지 도 67의 예의 방법들을 사용할 경우, 지수-골롬 부호를 이용하여 alf_luma_clip_idx[ sfIdx ][ j ]와 alf_chroma_clip_idx[ j ]를 엔트로피 부호화/복호화할 때보다 더 적은 비트로 alf_luma_clip_idx[ sfIdx ][ j ]와 alf_chroma_clip_idx[ j ]를 엔트로피 부호화/복호화할 수 있기 때문에, 영상 부호화기/복호화기의 부호화 효율이 향상될 수 있다.
상기 tu(v)에 대한 엔트로피 복호화는 아래와 같이 수행되어, 구문 요소의 값을 의미하는 codeNum는 아래와 같이 계산될 수 있다. 여기서, 엔트로피 복호화는 파싱(parsing)을 의미할 수 있다. tu(v)에 대한 값의 범위는 0부터 최대값(maxVal)로 결정될 수 있다. 이때, 최대값은 양의 정수일 수 있고, 예를 들어 1보다 크거나 같을 수 있다.
codeNum = 0
keepGoing = 1
for(i = 0; i < maxVal && keepGoing; i++){
keepGoing = read_bits( 1 )
if( keepGoing )
codeNum ++ }
도 68 내지 도 91은 본 발명의 일 실시예에 따른 적응적 루프내 필터링 방법, 장치 및 비트스트림을 저장한 기록 매체를 부호화기/복호화기에서 구현하기 위해 필요한 구문 요소(syntax element) 정보, 구문 요소 정보의 의미(semantics), 부호화/복호화 과정의 예를 나타낸다.
도 92는 일 실시 예에 따른 적응적 루프내 필터를 이용한 비디오 복호화 방법을 도시한다.
단계 9202에서 복수의 적응적 루프내 필터(ALF, Adaptive Loop Filter)들로 구성된 ALF 세트를 포함하는 적응 파라미터 세트들 중 적어도 하나가 부호화/복호화/획득될 수 있다.
일 실시 예에 따르면, 적응 파라미터 세트는 색차 ALF 개수 정보를 포함하고, 상기 ALF 세트는 상기 색차 ALF 개수 정보가 나타내는 개수의 색차 ALF를 포함하는 것을 특징으로 하는 비디오 복호화 방법이 제공된다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 휘도 성분에 대해 비선형 적응적 루프내 필터링이 수행되는지 여부를 나타내는 휘도 절삭 플래그, 및 색차 성분에 대해 비선형 적응적 루프내 필터링이 수행되는지 여부를 나타내는 색차 절삭 플래그를 포함할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 상기 휘도 절삭 플래그가 휘도 성분에 대해 비선형 적응적 루프내 필터링이 수행됨을 나타낼 때, 비선형 적응적 루프내 필터링을 위한 절삭 값을 나타내는 휘도 절삭 색인을 포함하고, 상기 색차 절삭 플래그가 색차 성분에 대해 비선형 적응적 루프내 필터링이 수행됨을 나타낼 때, 비선형 적응적 루프내 필터링을 위한 절삭 값을 나타내는 색차 절삭 색인을 포함할 수 있다.
일 실시 예에 따르면, 상기 휘도 절삭 색인 및 상기 색차 절삭 색인은 2비트의 고정 길이로 부호화될 수 있다.
일 실시 예에 따르면, 휘도 절삭 색인이 나타내는 값과 현재 시퀀스의 비트 뎁스에 따라, 휘도 성분에 대한 비선형 적응적 루프내 필터링을 위한 휘도 절삭 값이 결정되고, 상기 색차 절삭 색인이 나타내는 값과 상기 현재 시퀀스의 비트 뎁스에 따라, 색차 성분에 대한 비선형 적응적 루프내 필터링을 위한 색차 절삭 값이 결정되고, 상기 휘도 절삭 색인이 나타내는 값과 상기 색차 절삭 색인이 나타내는 값이 동일할 때, 상기 휘도 절삭 값과 상기 색차 절삭 값이 동일할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 상기 적응 파라미터 세트에 부여된 식별번호를 나타내는 적응 파라미터 세트 식별자 및 상기 적응 파라미터 세트에 포함된 부호화 정보의 타입을 나타내는 적응 파라미터 세트 타입 정보를 포함할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트 타입 정보가 ALF 타입을 나타낼 때, ALF 세트를 포함하는 적응 파라미터 세트가 결정될 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 상기 적응 파라미터 세트가 휘도 성분에 대한 ALF를 포함하는지 여부를 나타내는 휘도 ALF 시그널링 플래그 및 상기 적응 파라미터 세트가 색차 성분에 대한 ALF를 포함하는지 여부를 나타내는 색차 ALF 시그널링 플래그를 포함할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 휘도 시그널링 ALF의 개수를 나타내는 휘도 시그널링 ALF 개수 정보를 포함하고, 상기 휘도 시그널링 ALF 개수 정보가 상기 휘도 시그널링 ALF가 1개보다 많음을 나타낼 때, 휘도 ALF 세트의 소정 개수의 휘도 ALF가 참조하는 휘도 시그널링 ALF의 색인을 나타내는 휘도 ALF 델타 색인을 포함할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 하나 이상의 휘도 시그널링 ALF를 포함하고, 상기 휘도 ALF 델타 색인에 따라, 상기 하나 이상의 휘도 시그널링 ALF로부터 상기 소정 개수의 휘도 ALF가 결정될 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 색차 ALF의 개수를 나타내는 색차 ALF 개수 정보를 포함하고, 색차 ALF 개수 정보가 나타내는 개수만큼, 색차 ALF를 포함할 수 있다.
단계 9204에서 적응 파라미터 세트들 중에서, 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트들 중 적어도 하나가 결정될 수 있다.
일 실시 예에 따르면, 상기 현재 픽처 또는 슬라이스의 휘도 ALF 세트 개수 정보가 부호화/복호화/획득될 수 있다. 그리고 상기 휘도 ALF 세트 개수 정보가 나타내는 개수의 휘도 ALF 세트 식별자가 부호화/복호화/획득될 수 있다.
단계 9206에서 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트로부터, 상기 현재 픽처 또는 슬라이스에 포함된 현재 부호화 트리 블록(CTB, Coding Tree Block)에 적용되는 ALF 세트를 포함하는, 상기 현재 CTB에 적용되는 적응 파라미터 세트가 결정될 수 있다.
일 실시 예에 따르면, 상기 현재 픽처 또는 슬라이스의 색차 ALF 적용 정보가 부호화/복호화/획득될 수 있다. 그리고 상기 색차 ALF 적용 정보가 Cb 성분 및 Cr 성분 중 적어도 하나에 ALF가 적용됨을 나타낼 때, 색차 ALF 세트 식별자가 부호화/복호화/획득될 수 있다.
일 실시 예에 따르면, 상기 현재 부호화 트리 블록의 휘도 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제1 ALF 부호화 트리 블록 플래그가 부호화/복호화/획득되고, 상기 제1 ALF 부호화 트리 블록 플래그에 따라, 상기 현재 부호화 트리 블록의 휘도 샘플에 적응적 루프내 필터링이 적용되는지 여부를 결정될 수 있다. 그리고 상기 현재 부호화 트리 블록의 Cb 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제2 ALF 부호화 트리 블록 플래그가 부호화/복호화/획득되고, 상기 제2 ALF 부호화 트리 블록 플래그에 따라, 상기 현재 부호화 트리 블록의 Cb 샘플에 적응적 루프내 필터링이 적용되는지 여부를 결정될 수 있다. 그리고 상기 현재 부호화 트리 블록의 Cr 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제3 ALF 부호화 트리 블록 플래그가 부호화/복호화/획득되고, 상기 제3 ALF 부호화 트리 블록 플래그에 따라, 상기 현재 부호화 트리 블록의 Cr 샘플에 적응적 루프내 필터링이 적용되는지 여부가 결정될 수 있다.
일 실시 예에 따르면, 상기 현재 부호화 트리 블록의 휘도 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용되는 여부를 나타내는 적응 파라미터 세트 적용 플래그가 부호화/복호화/획득될 수 있다. 그리고 상기 적응 파라미터 세트 적용 플래그가 상기 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용됨을 나타낼 때, 상기 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는 한 개 이상의 적응 파라미터 세트로부터, 상기 현재 부호화 트리 블록에 적용되는 휘도 ALF 세트가 결정될 수 있다. 반대로, 상기 적응 파라미터 세트 적용 플래그가 상기 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용되지 않음을 나타낼 때, 휘도 샘플에 대한 고정 ALF 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 고정된 필터가 결정될 수 있다.
일 실시 예에 따르면, 상기 현재 부호화 트리 블록의 Cb 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는 한 개 이상의 적응 파라미터 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 Cb ALF 세트를 포함하는 적응 파라미터 세트를 나타내는 제2 ALF 부호화 트리 블록 식별자가 부호화/복호화/획득될 수 있다. 그리고 상기 제2 ALF 부호화 트리 블록 식별자에 따라, 상기 현재 부호화 트리 블록에 적용되는 Cb ALF 세트를 포함하는 적응 파라미터 세트가 결정될 수 있다.
또한 상기 현재 부호화 트리 블록의 Cr 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는 한 개 이상의 적응 파라미터 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 Cr ALF 세트를 포함하는 적응 파라미터 세트를 나타내는 제3 ALF 부호화 트리 블록 식별자가 부호화/복호화/획득될 수 있다. 그리고 상기 제3 ALF 부호화 트리 블록 식별자에 따라, 상기 현재 부호화 트리 블록에 적용되는 Cr ALF 세트를 포함하는 적응 파라미터 세트가 결정될 수 있다.
단계 9208에서, 상기 결정된 현재 CTB에 적용되는 적응 파라미터 세트의 ALF 세트에 기초하여, 상기 현재 부호화 트리 블록이 필터링될 수 있다.
일 실시 예에 따르면, 상기 현재 부호화 트리 블록의 기본 필터링 단위 블록에 대하여, 블록 분류 색인이 할당될 수 있다. 상기 블록 분류 색인은 방향성 정보와 활동성 정보를 이용하여 결정될 수 있다.
일 실시 예에 따르면, 상기 방향성 정보 및 활동성 정보 중 적어도 하나는 세로, 가로, 제1 대각, 제2 대각 방향 중 적어도 하나에 대한 기울기(gradient) 값에 기반하여 결정될 수 있다.
도 93은 일 실시 예에 따른 적응적 루프내 필터를 이용한 비디오 부호화 방법을 도시한다.
단계 9302에서 복수의 ALF들로 구성된 ALF 세트를 포함하는 적응 파라미터 세트들 중 적어도 하나가 결정될 수 있다.
일 실시 예에 따르면, 적응 파라미터 세트는 색차 ALF 개수 정보를 포함하고, 상기 ALF 세트는 상기 색차 ALF 개수 정보가 나타내는 개수의 색차 ALF를 포함할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 휘도 성분에 대해 비선형 적응적 루프내 필터링이 수행되는지 여부를 나타내는 휘도 절삭 플래그, 및 색차 성분에 대해 비선형 적응적 루프내 필터링이 수행되는지 여부를 나타내는 색차 절삭 플래그를 포함할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 상기 휘도 절삭 플래그가 휘도 성분에 대해 비선형 적응적 루프내 필터링이 수행됨을 나타낼 때, 비선형 적응적 루프내 필터링을 위한 절삭 값을 나타내는 휘도 절삭 색인을 포함하고, 상기 색차 절삭 플래그가 색차 성분에 대해 비선형 적응적 루프내 필터링이 수행됨을 나타낼 때, 비선형 적응적 루프내 필터링을 위한 절삭 값을 나타내는 색차 절삭 색인을 포함할 수 있다.
일 실시 예에 따르면, 상기 휘도 절삭 색인 및 상기 색차 절삭 색인은 2비트의 고정 길이로 부호화될 수 있다.
일 실시 예에 따르면, 휘도 절삭 색인이 나타내는 값과 현재 시퀀스의 비트 뎁스에 따라, 휘도 성분에 대한 비선형 적응적 루프내 필터링을 위한 휘도 절삭 값이 결정되고, 상기 색차 절삭 색인이 나타내는 값과 상기 현재 시퀀스의 비트 뎁스에 따라, 색차 성분에 대한 비선형 적응적 루프내 필터링을 위한 색차 절삭 값이 결정되고, 상기 휘도 절삭 색인이 나타내는 값과 상기 색차 절삭 색인이 나타내는 값이 동일할 때, 상기 휘도 절삭 값과 상기 색차 절삭 값이 동일할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 상기 적응 파라미터 세트에 부여된 식별번호를 나타내는 적응 파라미터 세트 식별자 및 상기 적응 파라미터 세트에 포함된 부호화 정보의 타입을 나타내는 적응 파라미터 세트 타입 정보를 포함할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트 타입 정보가 ALF 타입을 나타낼 때, ALF 세트를 포함하는 적응 파라미터 세트가 결정될 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 상기 적응 파라미터 세트가 휘도 성분에 대한 ALF를 포함하는지 여부를 나타내는 휘도 ALF 시그널링 플래그 및 상기 적응 파라미터 세트가 색차 성분에 대한 ALF를 포함하는지 여부를 나타내는 색차 ALF 시그널링 플래그를 포함할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 휘도 시그널링 ALF의 개수를 나타내는 휘도 시그널링 ALF 개수 정보를 포함하고, 상기 휘도 시그널링 ALF 개수 정보가 상기 휘도 시그널링 ALF가 1개보다 많음을 나타낼 때, 휘도 ALF 세트의 소정 개수의 휘도 ALF가 참조하는 휘도 시그널링 ALF의 색인을 나타내는 휘도 ALF 델타 색인을 포함할 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 하나 이상의 휘도 시그널링 ALF를 포함하고, 상기 휘도 ALF 델타 색인에 따라, 상기 하나 이상의 휘도 시그널링 ALF로부터 상기 소정 개수의 휘도 ALF가 결정될 수 있다.
일 실시 예에 따르면, 상기 적응 파라미터 세트는, 색차 ALF의 개수를 나타내는 색차 ALF 개수 정보를 포함하고, 색차 ALF 개수 정보가 나타내는 개수만큼, 색차 ALF를 포함할 수 있다.
단계 9304에서 적응 파라미터 세트들 중에서, 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트들 중 적어도 하나가 결정될 수 있다.
일 실시 예에 따르면, 상기 현재 픽처 또는 슬라이스의 휘도 ALF 세트 개수가 결정될 수 있다. 그리고 상기 휘도 ALF 세트 개수 정보가 나타내는 개수의 휘도 ALF 세트 식별자가 결정될 수 있다.
일 실시 예에 따르면, 상기 현재 픽처 또는 슬라이스의 색차 ALF 적용 정보가 결정될 수 있다. 상기 색차 ALF 적용 정보가 Cb 성분 및 Cr 성분 중 적어도 하나에 ALF가 적용됨을 나타낼 때, 색차 ALF 세트 식별자가 결정될 수 있다.
단계 9306에서 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트로부터, 상기 현재 픽처 또는 슬라이스에 포함된 현재 CTB에 적용되는 ALF 세트를 포함하는, 상기 현재 CTB에 적용되는 적응 파라미터 세트가 결정될 수 있다.
일 실시 예에 따르면, 상기 현재 부호화 트리 블록의 휘도 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제1 ALF 부호화 트리 블록 플래그가 결정될 수 있다. 그리고, 상기 현재 부호화 트리 블록의 Cb 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제2 ALF 부호화 트리 블록 플래그가 결정될 수 있다. 그리고, 상기 현재 부호화 트리 블록의 Cr 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 상기 제3 ALF 부호화 트리 블록 플래그가 결정될 수 있다.
일 실시 예에 따르면, 상기 현재 부호화 트리 블록의 휘도 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용되는 여부를 나타내는 적응 파라미터 세트 적용 플래그가 결정될 수 있다. 상기 적응 파라미터 세트 적용 플래그가 상기 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용됨을 나타낼 때, 상기 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는 한 개 이상의 적응 파라미터 세트로부터, 상기 현재 부호화 트리 블록에 적용되는 휘도 ALF 세트가 결정될 수 있다. 그리고 상기 적응 파라미터 세트 적용 플래그가 상기 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용되지 않음을 나타낼 때, 휘도 샘플에 대한 고정 ALF 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 고정된 필터가 결정될 수 있다.
일 실시 예에 따르면, 상기 현재 부호화 트리 블록의 Cb 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는 한 개 이상의 적응 파라미터 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 Cb ALF 세트를 포함하는 적응 파라미터 세트를 나타내는 제2 ALF 부호화 트리 블록 식별자가 결정될 수 있다. 상기 제2 ALF 부호화 트리 블록 식별자에 따라, 상기 현재 부호화 트리 블록에 적용되는 Cb ALF 세트를 포함하는 적응 파라미터 세트가 결정될 수 있다.
상기 현재 부호화 트리 블록의 Cr 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는 한 개 이상의 적응 파라미터 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 Cr ALF 세트를 포함하는 적응 파라미터 세트를 나타내는 제3 ALF 부호화 트리 블록 식별자가 결정될 수 있다. 상기 제3 ALF 부호화 트리 블록 식별자에 따라, 상기 현재 부호화 트리 블록에 적용되는 Cr ALF 세트를 포함하는 적응 파라미터 세트가 결정될 수 있다.
단계 9308에서 상기 결정된 현재 CTB에 적용되는 적응 파라미터 세트의 ALF 세트에 기초하여, 상기 현재 부호화 트리 블록이 필터링될 수 있다.
일 실시 예에 따르면, 상기 현재 부호화 트리 블록의 기본 필터링 단위 블록에 대하여, 블록 분류 색인이 할당될 수 있다. 상기 블록 분류 색인은 방향성 정보와 활동성 정보를 이용하여 결정될 수 있다.
일 실시 예에 따르면, 상기 방향성 정보 및 활동성 정보 중 적어도 하나는 세로, 가로, 제1 대각, 제2 대각 방향 중 적어도 하나에 대한 기울기(gradient) 값에 기반하여 결정될 수 있다.
도 92 및 93의 실시 예는 예시에 불과하며, 도 92 및 93의 각 단계는 통상의 기술자에게 용이하게 변형 실시 가능하다. 또한, 도 92 및 93의 각 구성은 생략되거나 다른 구성으로 대체될 수 있다. 도 92 의 비디오 복호화 방법은 도 2의 복호화기에서 수행될 수 있다. 그리고 도 93 의 비디오 부호화 방법은 도 1의 부호화기에서 수행될 수 있다. 또한 하나 이상의 프로세서는 도 92 및 93의 각 단계를 구현한 명령들을 수행할 수 있다. 그리고 도 92 및 93의 각 단계를 구현한 명령들을 포함하는 프로그램 제품은 메모리 디바이스에 저장되거나, 온라인 상으로 유통될 수 있다.
상기 적응적 루프내 필터는 하나 이상의 적응적 루프내 필터 계수를 포함할 수 있다.
상기 휘도 시그널링 ALF의 개수는 적응적 루프내 필터 클래스(종류)를 의미할 수 있다. 상기 적응적 루프내 필터 클래스(종류)는 하나 이상의 적응적 루프내 필터 계수를 포함하며 필터링에 사용되는 필터 하나를 의미할 수 있다. 즉, 적응적 루프내 필터 클래스(종류) 별로 적응적 루프내 필터는 서로 상이할 수 있다.
상기 플래그, 인덱스(색인) 등의 구문 요소가 파라미터 세트, 헤더, CTU, CU, PU, TU, 블록 등 적어도 하나의 비트스트림 구조에 포함되어 있다는 것은 해당 플래그, 인덱스(색인) 등의 구문 요소가 엔트로피 부호화/복호화되는 것을 의미할 수 있다.
또한, 상기 플래그, 인덱스(색인) 등의 구문 요소가 시그널링 단위는 해당 파라미터 세트, 헤더, CTU, CU, PU, TU, 블록 단위로 한정되는 것은 아니며, 다른 파라미터 세트, 헤더 CTU, CU, PU, TU, 블록 단위에서 시그널링될 수 있다.
한편, 휘도 블록과 색차 블록에 대해 개별적으로 루프내 필터링을 수행할 수 있다. 색차 블록의 개별적 적응적 루프내 필터링 지원 여부에 대해 픽처/슬라이스/타일 그룹/타일CTU/CTB 레벨에서 제어 플래그를 시그널링할 수 있다. 휘도 블록과 색차 블록에 통합적으로 적응적 루프내 필터링을 수행하는 모드 또는 휘도 블록과 색차 블록에 대해 개별적으로 적응적 루프내 필터링 모드를 지원하는 플래그를 시그널링할 수 있다.
상기 적응적 루프내 필터링에 대한 구문 요소 중 휘도 성분에 대한 구문 요소는 휘도 ALF 및 휘도 ALF 세트를 부호화/복호화/획득하기 위해 사용될 수 있다. 또한, 상기 적응적 루프내 필터링에 대한 구문 요소 중 색차 성분에 대한 구문 요소는 색차 ALF 및 색차 ALF 세트를 부호화/복호화/획득하기 위해 사용될 수 있다.
상기 특정 단위에서 시그널링되는 적응적 루프내 필터링에 대한 구문 요소는 해당 단위에서 시그널링되는 적응적 루프내 필터링에 대한 구문 요소의 예이며, 이에 한정되지 않고, 시퀀스 파라미터 세트, 적응 파라미터 세트, 픽처 파라미터 세트, 픽처 헤더, 슬라이스 헤더 등의 중 적어도 하나의 단위에서 상기 적응적 루프내 필터링에 대한 구문 요소가 시그널링될 수 있으며, 시그널링되는 적응적 루프내 필터링에 대한 구문 요소의 이름은 변경되어 사용될 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 적응적 루프내 필터링에 대한 구문 요소 또는 상기 필터 정보 중 적어도 하나 이상을 엔트로피 부호화/복호화할 때, 아래의 이진화(binarization), 역이진화(debinarization), 엔트로피 부호화/복호화 방법 중 적어도 하나 이상을 이용할 수 있다.
부호를 가지는 0차수 지수-골롬(0-th order Exp_Golomb) 이진화/역이진화 방법 (se(v))
부호를 가지는 k차수 지수-골롬(k-th order Exp_Golomb) 이진화/역이진화 방법 (sek(v))
부호를 가지지 않는 양의 정수에 대한 0차수 지수-골롬(0-th order Exp_Golomb) 이진화/역이진화 방법 (ue(v))
부호를 가지지 않는 양의 정수에 대한 k차수 지수-골롬(k-th order Exp_Golomb) 이진화/역이진화 방법 (uek(v))
고정 길이(Fixed-length) 이진화/역이진화 방법 (f(n))
절삭된 라이스(Truncated Rice) 이진화/역이진화 방법 또는 절삭된 단항(Truncated Unary) 이진화/역이진화 방법 (tu(v))
절삭된 이진(Truncated Binary) 이진화/역이진화 방법 (tb(v))
문맥 적응적 산술 부호화/복호화 방법 (ae(v))
바이트 단위 비트 스트링 (b(8))
부호를 가지는 정수 이진화/역이진화 방법 (i(n))
부호를 가지지 않는 양의 정수 이진화/역이진화 방법 (u(n))
이때, u(n)는 고정 길이(Fixed-length) 이진화/역이진화 방법을 의미할 수도 있다.
단항(Unary) 이진화/역이진화 방법
일 예로, 휘도 필터와 색차 필터에 대한 필터 계수 값은 휘도 필터와 색차 필터에서 서로 다른 이진화 방법을 사용하여 엔트로피 부호화/복호화될 수 있다.
다른 예로, 휘도 필터에 대한 필터 계수 값은 휘도 필터 내 계수들끼리 서로 다른 이진화 방법을 사용하여 엔트로피 부호화/복호화될 수 있다. 또한, 휘도 필터에 대한 필터 계수 값은 휘도 필터 내 계수들끼리 서로 동일한 이진화 방법을 사용하여 엔트로피 부호화/복호화될 수 있다.
또 다른 예로, 색차 필터에 대한 필터 계수 값은 색차 필터 내 계수들끼리 서로 다른 이진화 방법을 사용하여 엔트로피 부호화/복호화될 수 있다. 또한, 색차 필터에 대한 필터 계수 값은 색차 필터 내 계수들끼리 서로 동일한 이진화 방법을 사용하여 엔트로피 부호화/복호화될 수 있다.
또한, 상기 필터 정보 중 적어도 하나 이상을 엔트로피 부호화/복호화할 때, 주변 블록의 필터 정보 중 적어도 하나 또는 이전에 부호화/복호화된 필터 정보 중 적어도 하나 이상 또는 이전 영상에서 부호화/복호화된 필터 정보를 이용하여 문맥 모델(context model)을 결정할 수 있다.
또한, 상기 필터 정보 중 적어도 하나 이상을 엔트로피 부호화/복호화할 때, 서로 다른 성분의 필터 정보 중 적어도 하나를 이용하여 문맥 모델(context model)을 결정할 수 있다.
또한, 상기 필터 계수를 엔트로피 부호화/복호화할 때, 필터 내 다른 필터 계수들 중 적어도 하나를 이용하여 문맥 모델(context model)을 결정할 수 있다.
또한, 상기 필터 정보 중 적어도 하나 이상을 엔트로피 부호화/복호화할 때, 주변 블록의 필터 정보 중 적어도 하나 또는 이전에 부호화/복호화된 필터 정보 중 적어도 하나 이상 또는 이전 영상에서 부호화/복호화된 필터 정보를 필터 정보에 대한 예측 값으로 사용하여 엔트로피 부호화/복호화할 수 있다.
또한, 상기 필터 정보 중 적어도 하나 이상을 엔트로피 부호화/복호화할 때, 서로 다른 성분의 필터 정보 중 적어도 하나를 필터 정보에 대한 예측 값으로 사용하여 엔트로피 부호화/복호화할 수 있다.
또한, 상기 필터 계수를 엔트로피 부호화/복호화할 때, 필터 내 다른 필터 계수들 중 적어도 하나를 예측 값으로 사용하여 엔트로피 부호화/복호화할 수 있다.
또한, 상기 필터 정보 엔트로피 부호화/복호화 방법 중 적어도 하나 이상의 조합을 이용해서 필터 정보를 엔트로피 부호화/복호화할 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 적응적 루프내 필터링은 블록, CU, PU, TU, CB, PB, TB, CTU, CTB, 슬라이스, 타일, 타일 그룹, 픽처 단위 중 적어도 하나의 단위에서 수행될 수 있다. 상기 단위로 수행되는 경우, 블록 분류 단계, 필터링 수행 단계, 필터 정보 부호화/복호화 단계가 상기 블록, CU, PU, TU, CB, PB, TB, CTU, CTB, 슬라이스, 타일, 타일 그룹, 픽처 단위 중 적어도 하나의 단위로 수행되는 것을 의미할 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 적응적 루프내 필터링은 디블록킹 필터, 샘플 적응적 오프셋, 양방향 필터링 중 적어도 하나의 수행 여부에 따라 수행 여부가 결정될 수 있다.
일 예로, 현재 영상 내 복원/복호 샘플 중 디블록킹 필터, 샘플 적응적 오프셋, 양방향 필터링 중 적어도 하나가 적용된 샘플에 대해서는 적응적 루프내 필터링을 수행할 수 있다.
다른 예로, 현재 영상 내 복원/복호 샘플 중 디블록킹 필터, 샘플 적응적 오프셋, 양방향 필터링 중 적어도 하나가 적용된 샘플에 대해서는 적응적 루프내 필터링을 수행하지 않을 수 있다.
또 다른 예로, 현재 영상 내 복원/복호 샘플 중 디블록킹 필터, 샘플 적응적 오프셋, 양방향 필터링 중 적어도 하나가 적용된 샘플의 경우, 블록 분류의 수행 없이 L개의 필터를 이용해서 현재 영상 내 복원/복호 샘플에 대해서 적응적 루프내 필터링을 수행할 수 있다. 여기서, L은 양의 정수이다.
본 발명의 일 실시 예에 따를 때, 상기 적응적 루프내 필터링은 현재 영상의 슬라이스 타입(slice type) 또는 타일 그룹 타입에 따라 수행 여부가 결정될 수 있다.
일 예로, 현재 영상의 슬라이스 또는 타일 그룹 타입이 I-슬라이스 또는 I-타일 그룹인 경우에만 상기 적응적 루프내 필터링이 수행될 수 있다.
다른 예로, 현재 영상의 슬라이스 또는 타일 그룹 타입이 I-슬라이스, B-슬라이스, P-슬라이스, I- 타일 그룹, B- 타일 그룹, P- 타일 그룹 중 적어도 하나인 경우에 상기 적응적 루프내 필터링이 수행될 수 있다.
또 다른 예로, 현재 영상의 슬라이스 또는 타일 그룹 타입이 I-슬라이스, B-슬라이스, P-슬라이스, I- 타일 그룹, B- 타일 그룹, P- 타일 그룹 중 적어도 하나인 경우, 현재 영상에 대해 적응적 루프내 필터링 시, 블록 분류의 수행 없이 L개의 필터를 이용해서 현재 영상 내 복원/복호 샘플에 대해서 적응적 루프내 필터링을 수행할 수 있다. 여기서, L은 양의 정수이다.
또 다른 예로, 현재 영상의 슬라이스 또는 타일 그룹 타입이 I-슬라이스, B-슬라이스, P-슬라이스, I- 타일 그룹, B- 타일 그룹, P- 타일 그룹 중 적어도 하나인 경우, 하나의 필터 형태를 이용해서 적응적 루프내 필터링을 수행할 수 있다.
또 다른 예로, 현재 영상의 슬라이스 또는 타일 그룹 타입이 I-슬라이스, B-슬라이스, P-슬라이스, I- 타일 그룹, B- 타일 그룹, P- 타일 그룹 중 적어도 하나인 경우, 하나의 필터 탭 수를 이용해서 적응적 루프내 필터링을 수행할 수 있다.
또 다른 예로, 현재 영상의 슬라이스 또는 타일 그룹 타입이 I-슬라이스, B-슬라이스, P-슬라이스, I- 타일 그룹, B- 타일 그룹, P- 타일 그룹 중 적어도 하나인 경우, NxM 블록 크기 단위로 블록 분류 및 필터링 중 적어도 하나를 수행할 수 있다. 이때, N과 M은 양의 정수이고, 4일 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 적응적 루프내 필터링은 현재 영상이 참조 영상으로 사용되는지 여부에 따라 수행 여부가 결정될 수 있다.
일 예로, 현재 영상이 차후 부호화/복호화되는 영상의 참조 영상으로 사용될 경우, 현재 영상에 대해 상기 적응적 루프내 필터링이 수행될 수 있다.
다른 예로, 현재 영상이 차후 부호화/복호화되는 영상의 참조 영상으로 사용되지 않을 경우, 현재 영상에 대해 상기 적응적 루프내 필터링이 수행되지 않을 수 있다.
또 다른 예로, 현재 영상이 차후 부호화/복호화되는 영상의 참조 영상으로 사용되지 않을 경우, 현재 영상에 대해 적응적 루프내 필터링 시, 블록 분류의 수행 없이 L개의 필터를 이용해서 현재 영상 내 복원/복호 샘플에 대해서 적응적 루프내 필터링을 수행할 수 있다. 여기서, L은 양의 정수이다.
또 다른 예로, 현재 영상이 차후 부호화/복호화되는 영상의 참조 영상으로 사용되지 않을 경우, 하나의 필터 형태를 이용해서 적응적 루프내 필터링을 수행할 수 있다.
또 다른 예로, 현재 영상이 차후 부호화/복호화되는 영상의 참조 영상으로 사용되지 않을 경우, 하나의 필터 탭 수를 이용해서 적응적 루프내 필터링을 수행할 수 있다.
또 다른 예로, 현재 영상이 차후 부호화/복호화되는 영상의 참조 영상으로 사용되지 않을 경우, NxM 블록 크기 단위로 블록 분류 및 필터링 중 적어도 하나를 수행할 수 있다. 이때, N과 M은 양의 정수이고, 4일 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 적응적 루프내 필터링은 시간적 계층 식별자에 따라 수행 여부가 결정될 수 있다.
일 예로, 현재 영상의 시간적 계층 식별자가 최하위 계층인 0을 지시할 경우, 현재 영상에 대해 상기 적응적 루프내 필터링이 수행될 수 있다.
다른 예로, 현재 영상의 시간적 계층 식별자가 최상위 계층을 지시할 경우(예를 들어 4), 현재 영상에 대해 상기 적응적 루프내 필터링이 수행될 수 있다.
또 다른 예로, 현재 영상의 시간적 계층 식별자가 최상위 계층을 지시할 경우(예를 들어 4), 현재 영상에 대해 적응적 루프내 필터링 시, 블록 분류의 수행 없이 L개의 필터를 이용해서 현재 영상 내 복원/복호 샘플에 대해서 적응적 루프내 필터링을 수행할 수 있다. 여기서, L은 양의 정수이다.
또 다른 예로, 현재 영상의 시간적 계층 식별자가 최상위 계층을 지시할 경우(예를 들어 4), 하나의 필터 형태를 이용해서 적응적 루프내 필터링을 수행할 수 있다.
또 다른 예로, 현재 영상의 시간적 계층 식별자가 최상위 계층을 지시할 경우(예를 들어 4), 하나의 필터 탭 수를 이용해서 적응적 루프내 필터링을 수행할 수 있다.
또 다른 예로, 현재 영상의 시간적 계층 식별자가 최상위 계층을 지시할 경우(예를 들어 4), NxM 블록 크기 단위로 블록 분류 및 필터링 중 적어도 하나를 수행할 수 있다. 이때, N과 M은 양의 정수이고, 4일 수 있다.
본 발명의 일 실시 예에 따를 때, 상기 블록 분류 방법들 중 적어도 하나는 시간적 계층 식별자(temporal layer identifier)에 따라 수행 여부가 결정될 수 있다.
일 예로, 현재 영상의 시간적 계층 식별자가 최하위 계층인 0을 지시할 경우, 현재 영상에 대해 상기 블록 분류 방법들 중 적어도 하나가 수행될 수 있다.
다른 예로, 현재 영상의 시간적 계층 식별자가 최상위 계층을 지시할 경우(예를 들어 4), 현재 영상에 대해 상기 블록 분류 방법들 중 적어도 하나가 수행될 수 있다.
또 다른 예로, 시간적 계층 식별자의 값에 따라 상기 블록 분류 방법들 중 서로 다른 블록 분류 방법이 수행될 수 있다.
또 다른 예로, 현재 영상의 시간적 계층 식별자가 최상위 계층을 지시할 경우(예를 들어 4), 현재 영상에 대해 적응적 루프내 필터링 시, 블록 분류의 수행 없이 L개의 필터를 이용해서 현재 영상 내 복원/복호 샘플에 대해서 적응적 루프내 필터링을 수행할 수 있다. 여기서, L은 양의 정수이다.
또 다른 예로, 현재 영상의 시간적 계층 식별자가 최상위 계층을 지시할 경우(예를 들어 4), 하나의 필터 형태를 이용해서 적응적 루프내 필터링을 수행할 수 있다.
또 다른 예로, 현재 영상의 시간적 계층 식별자가 최상위 계층을 지시할 경우(예를 들어 4), 하나의 필터 탭 수를 이용해서 적응적 루프내 필터링을 수행할 수 있다.
또 다른 예로, 현재 영상의 시간적 계층 식별자가 최상위 계층을 지시할 경우(예를 들어 4), NxM 블록 크기 단위로 블록 분류 및 필터링 중 적어도 하나를 수행할 수 있다. 이때, N과 M은 양의 정수이고, 4일 수 있다.
한편, 현재 영상에 대해 적응적 루프내 필터링 시, 블록 분류의 수행 없이 L개의 필터를 이용해서 현재 영상 내 복원/복호 샘플에 대해서 적응적 루프내 필터링을 수행할 수 있다. 여기서, L은 양의 정수이다. 이때, 상기 시간적 계층 식별자에 관계없이, 블록 분류를 수행하지 않고 L개의 필터를 이용해서 현재 영상 내 복원/복호 샘플에 대해 적응적 루프내 필터링을 수행할 수 있다.
한편, 현재 영상에 대해 적응적 루프내 필터링 시, 블록 분류의 수행 여부에 관계없이 L개의 필터를 이용해서 현재 영상 내 복원/복호 샘플에 대해서 적응적 루프내 필터링을 수행할 수 있다. 여기서, L은 양의 정수이다. 이때, 상기 시간적 계층 식별자 및 블록 분류의 수행 여부에 관계없이 L개의 필터를 이용해서 현재 영상 내 복원/복호 샘플에 대해 적응적 루프내 필터링을 수행할 수 있다.
한편, 하나의 필터 형태를 이용해서 적응적 루프내 필터링을 수행할 수 있다. 이때, 블록 분류를 수행하지 않고, 하나의 필터 형태를 이용해서 현재 영상 내 복원/복호 샘플에 대해 적응적 루프내 필터링을 수행할 수 있다. 또는, 블록 분류의 수행 여부에 관계없이 하나의 필터 형태를 이용해서 현재 영상 내 복원/복호 샘플에 대해 적응적 루프내 필터링을 수행할 수 있다.
한편, 하나의 필터 탭 수를 이용해서 적응적 루프내 필터링을 수행할 수 있다. 이때, 블록 분류를 수행하지 않고, 하나의 필터 탭 수를 이용해서 현재 영상 내 복원/복호 샘플에 대해 적응적 루프내 필터링을 수행할 수 있다. 또는, 블록 분류의 수행 여부에 관계없이 하나의 필터 탭 수를 이용해서 현재 영상 내 복원/복호 샘플에 대해 적응적 루프내 필터링을 수행할 수 있다.
한편, 상기 적응적 루프내 필터링은 특정 단위 별로 수행될 수 있다. 예를 들어, 상기 특정 단위는 픽처, 슬라이스, 타일, 타일 그룹, CTU, CTB, CU, PU, TU, CB, PB, TB, MxN 크기의 블록 중 적어도 하나의 단위일 수 있다. 여기서, M과 N은 양의 정수일 수 있고, 서로 같은 값을 가지거나 서로 다른 값을 가질 수 있다. 또한, M과 N 중 적어도 하나는 부호화기/복호화기에서 기정의된 값일 수 있고, 부호화기에서 복호화기로 시그널링되는 값일 수 있다.
상기의 실시예들은 부호화기 및 복호화기에서 같은 방법으로 수행될 수 있다.
상기 실시예들 중 적어도 하나 혹은 적어도 하나의 조합을 이용해서 영상을 부호화/복호화할 수 있다.
상기 실시예를 적용하는 순서는 부호화기와 복호화기에서 상이할 수 있고, 상기 실시예를 적용하는 순서는 부호화기와 복호화기에서 동일할 수 있다.
휘도 및 색차 신호 각각에 대하여 상기 실시예를 수행할 수 있고, 휘도 및 색차 신호에 대한 상기 실시예를 동일하게 수행할 수 있다.
본 발명의 상기 실시예들이 적용되는 블록의 형태는 정방형(square) 형태 혹은 비정방형(non-square) 형태를 가질 수 있다.
상기 부호화기에서 엔트로피 부호화되고 복호화기에서 엔트로피 복호화되는 구문 요소(플래그, 인덱스 등) 중 적어도 하나는 아래의 이진화(binarization), 역이진화(debinarization), 엔트로피 부호화/복호화 방법 중 적어도 하나 이상을 이용할 수 있다.
- 부호를 가지는 0차수 지수-골롬(0-th order Exp_Golomb) 이진화/역이진화 방법 (se(v))
- 부호를 가지는 k차수 지수-골롬(k-th order Exp_Golomb) 이진화/역이진화 방법 (sek(v))
- 부호를 가지지 않는 양의 정수에 대한 0차수 지수-골롬(0-th order Exp_Golomb) 이진화/역이진화 방법 (ue(v))
- 부호를 가지지 않는 양의 정수에 대한 k차수 지수-골롬(k-th order Exp_Golomb) 이진화/역이진화 방법 (uek(v))
- 고정 길이(Fixed-length) 이진화/역이진화 방법 (f(n))
- 절삭된 라이스(Truncated Rice) 이진화/역이진화 방법 혹은 절삭된 단항(Truncated Unary) 이진화/역이진화 방법 (tu(v))
- 절삭된 이진(Truncated Binary) 이진화/역이진화 방법 (tb(v))
- 문맥 적응적 산술 부호화/복호화 방법 (ae(v))
- 바이트 단위 비트 스트링 (b(8))
- 부호를 가지는 정수 이진화/역이진화 방법 (i(n))
- 부호를 가지지 않는 양의 정수 이진화/역이진화 방법 (u(n))
- 단항(Unary) 이진화/역이진화 방법
본 발명의 상기 실시예들은 부호화 블록, 예측 블록, 변환 블록, 블록, 현재 블록, 부호화 유닛, 예측 유닛, 변환 유닛, 유닛, 현재 유닛 중 적어도 하나의 크기에 따라 적용될 수 있다. 여기서의 크기는 상기 실시예들이 적용되기 위해 최소 크기 및/또는 최대 크기로 정의될 수도 있고, 상기 실시예가 적용되는 고정 크기로 정의될 수도 있다. 또한, 상기 실시예들은 제1 크기에서는 제1의 실시예가 적용될 수도 있고, 제2 크기에서는 제2의 실시예가 적용될 수도 있다. 즉, 상시 실시예들은 크기에 따라 복합적으로 적용될 수 있다. 또한, 본 발명의 상기 실시예들은 최소 크기 이상 및 최대 크기 이하일 경우에만 적용될 수도 있다. 즉, 상기 실시예들을 블록 크기가 일정한 범위 내에 포함될 경우에만 적용될 수도 있다.
예를 들어, 현재 블록의 크기가 8x8 이상일 경우에만 상기 실시예들이 적용될 수 있다. 예를 들어, 현재 블록의 크기가 4x4일 경우에만 상기 실시예들이 적용될 수 있다. 예를 들어, 현재 블록의 크기가 16x16 이하일 경우에만 상기 실시예들이 적용될 수 있다. 예를 들어, 현재 블록의 크기가 16x16 이상이고 64x64 이하일 경우에만 상기 실시예들이 적용될 수 있다.
본 발명의 상기 실시예들은 시간적 계층(temporal layer)에 따라 적용될 수 있다. 상기 실시예들이 적용 가능한 시간적 계층을 식별하기 위해 별도의 식별자(identifier)가 시그널링되고, 해당 식별자에 의해 특정된 시간적 계층에 대해서 상기 실시예들이 적용될 수 있다. 여기서의 식별자는 상기 실시예가 적용 가능한 최하위 계층 및/또는 최상위 계층으로 정의될 수도 있고, 상기 실시예가 적용되는 특정 계층을 지시하는 것으로 정의될 수도 있다. 또한, 상기 실시예가 적용되는 고정된 시간적 계층이 정의될 수도 있다.
예를 들어, 현재 영상의 시간적 계층이 최하위 계층일 경우에만 상기 실시예들이 적용될 수 있다. 예를 들어, 현재 영상의 시간적 계층 식별자가 1 이상인 경우에만 상기 실시예들이 적용될 수 있다. 예를 들어, 현재 영상의 시간적 계층이 최상위 계층일 경우에만 상기 실시예들이 적용될 수 있다.
본 발명의 상기 실시예들이 적용되는 슬라이스 종류(slice type) 혹은 타일 그룹 종류가 정의되고, 해당 슬라이스 종류 혹은 타일 그룹 종류에 따라 본 발명의 상기 실시예들이 적용될 수 있다.
상술한 실시예들에서, 방법들은 일련의 단계 또는 유닛으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (20)

  1. 복수의 적응적 루프내 필터(ALF, Adaptive Loop Filter)들로 구성된 ALF 세트를 포함하는 적응 파라미터 세트를 획득하는 단계;
    상기 적응 파라미터 세트들 중에서, 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트를 결정하는 단계;
    상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트로부터, 상기 현재 픽처 또는 슬라이스에 포함된 현재 부호화 트리 블록(CTB, Coding Tree Block)에 적용되는 ALF 세트를 포함하는, 상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계; 및
    상기 결정된 현재 CTB에 적용되는 적응 파라미터 세트의 ALF 세트에 기초하여, 상기 현재 부호화 트리 블록을 필터링하는 단계를 포함하고,
    상기 획득된 적응 파라미터 세트는 색차 ALF 개수 정보를 포함하고,
    상기 ALF 세트는 상기 색차 ALF 개수 정보가 나타내는 개수의 색차 ALF를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  2. 제1항에 있어서,
    상기 적응 파라미터 세트는,
    휘도 성분에 대해 비선형 적응적 루프내 필터링이 수행되는지 여부를 나타내는 휘도 절삭 플래그, 및 색차 성분에 대해 비선형 적응적 루프내 필터링이 수행되는지 여부를 나타내는 색차 절삭 플래그를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  3. 제2항에 있어서,
    상기 적응 파라미터 세트는,
    상기 휘도 절삭 플래그가 휘도 성분에 대해 비선형 적응적 루프내 필터링이 수행됨을 나타낼 때, 비선형 적응적 루프내 필터링을 위한 절삭 값을 나타내는 휘도 절삭 색인을 포함하고,
    상기 색차 절삭 플래그가 색차 성분에 대해 비선형 적응적 루프내 필터링이 수행됨을 나타낼 때, 비선형 적응적 루프내 필터링을 위한 절삭 값을 나타내는 색차 절삭 색인을 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  4. 제3항에 있어서,
    상기 휘도 절삭 색인 및 상기 색차 절삭 색인은 2비트의 고정 길이로 부호화된 것을 특징으로 하는 비디오 복호화 방법.
  5. 제3항에 있어서,
    상기 휘도 절삭 색인이 나타내는 값과 현재 시퀀스의 비트 뎁스에 따라, 휘도 성분에 대한 비선형 적응적 루프내 필터링을 위한 휘도 절삭 값이 결정되고,
    상기 색차 절삭 색인이 나타내는 값과 상기 현재 시퀀스의 비트 뎁스에 따라, 색차 성분에 대한 비선형 적응적 루프내 필터링을 위한 색차 절삭 값이 결정되고,
    상기 휘도 절삭 색인이 나타내는 값과 상기 색차 절삭 색인이 나타내는 값이 동일할 때, 상기 휘도 절삭 값과 상기 색차 절삭 값이 동일한 것을 특징으로 하는 비디오 복호화 방법.
  6. 제1항에 있어서,
    상기 적응 파라미터 세트는,
    상기 적응 파라미터 세트에 부여된 식별번호를 나타내는 적응 파라미터 세트 식별자 및 상기 적응 파라미터 세트에 포함된 부호화 정보의 타입을 나타내는 적응 파라미터 세트 타입 정보를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  7. 제6항에 있어서,
    상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트를 결정하는 단계는,
    상기 현재 픽처 또는 슬라이스의 휘도 ALF 세트 개수 정보를 획득하는 단계; 및
    상기 휘도 ALF 세트 개수 정보가 나타내는 개수의 휘도 ALF 세트 식별자를 획득하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  8. 제6항에 있어서,
    상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트를 결정하는 단계는,
    상기 현재 픽처 또는 슬라이스의 색차 ALF 적용 정보를 획득하는 단계; 및
    상기 색차 ALF 적용 정보가 Cb 성분 및 Cr 성분 중 적어도 하나에 ALF가 적용됨을 나타낼 때, 색차 ALF 세트 식별자를 획득하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  9. 제6항에 있어서,
    상기 ALF 세트를 포함하는 적응 파라미터 세트를 획득하는 단계는,
    상기 적응 파라미터 세트 타입 정보가 ALF 타입을 나타낼 때, ALF 세트를 포함하는 적응 파라미터 세트를 결정하는 것을 특징으로 하는 비디오 복호화 방법.
  10. 제1항에 있어서,
    상기 적응 파라미터 세트는,
    상기 적응 파라미터 세트가 휘도 성분에 대한 ALF를 포함하는지 여부를 나타내는 휘도 ALF 시그널링 플래그 및 상기 적응 파라미터 세트가 색차 성분에 대한 ALF를 포함하는지 여부를 나타내는 색차 ALF 시그널링 플래그를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  11. 제1항에 있어서,
    상기 적응 파라미터 세트는,
    휘도 시그널링 ALF의 개수를 나타내는 휘도 시그널링 ALF 개수 정보를 포함하고,
    상기 휘도 시그널링 ALF 개수 정보가 상기 휘도 시그널링 ALF가 1개보다 많음을 나타낼 때, 휘도 ALF 세트의 소정 개수의 휘도 ALF가 참조하는 휘도 시그널링 ALF의 색인을 나타내는 휘도 ALF 델타 색인을 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  12. 제11항에 있어서,
    상기 적응 파라미터 세트는,
    하나 이상의 휘도 시그널링 ALF를 포함하고,
    상기 휘도 ALF 델타 색인에 따라, 상기 하나 이상의 휘도 시그널링 ALF로부터 상기 소정 개수의 휘도 ALF가 결정되는 것을 특징으로 하는 비디오 복호화 방법.
  13. 제1항에 있어서,
    상기 적응 파라미터 세트는,
    색차 ALF의 개수를 나타내는 색차 ALF 개수 정보를 포함하고,
    색차 ALF 개수 정보가 나타내는 개수만큼, 색차 ALF를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  14. 제1항에 있어서,
    상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계는,
    상기 현재 부호화 트리 블록의 휘도 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제1 ALF 부호화 트리 블록 플래그를 획득하고, 상기 제1 ALF 부호화 트리 블록 플래그에 따라, 상기 현재 부호화 트리 블록의 휘도 샘플에 적응적 루프내 필터링이 적용되는지 여부를 결정하는 단계;
    상기 현재 부호화 트리 블록의 Cb 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제2 ALF 부호화 트리 블록 플래그를 획득하고, 상기 제2 ALF 부호화 트리 블록 플래그에 따라, 상기 현재 부호화 트리 블록의 Cb 샘플에 적응적 루프내 필터링이 적용되는지 여부를 결정하는 단계; 및
    상기 현재 부호화 트리 블록의 Cr 샘플에 적응적 루프내 필터링이 적용되는지 여부를 나타내는 제3 ALF 부호화 트리 블록 플래그를 획득하고, 상기 제3 ALF 부호화 트리 블록 플래그에 따라, 상기 현재 부호화 트리 블록의 Cr 샘플에 적응적 루프내 필터링이 적용되는지 여부를 결정하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  15. 제14항에 있어서,
    상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계는,
    상기 현재 부호화 트리 블록의 휘도 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용되는 여부를 나타내는 적응 파라미터 세트 적용 플래그를 획득하는 단계;
    상기 적응 파라미터 세트 적용 플래그가 상기 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용됨을 나타낼 때, 상기 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는 한 개 이상의 적응 파라미터 세트로부터, 상기 현재 부호화 트리 블록에 적용되는 휘도 ALF 세트를 결정하는 단계; 및
    상기 적응 파라미터 세트 적용 플래그가 상기 현재 부호화 트리 블록에 적응 파라미터 세트의 ALF 세트가 적용되지 않음을 나타낼 때, 휘도 샘플에 대한 고정 ALF 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 고정된 필터를 결정하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  16. 제14항에 있어서,
    상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계는,
    상기 현재 부호화 트리 블록의 Cb 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는 한 개 이상의 적응 파라미터 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 Cb ALF 세트를 포함하는 적응 파라미터 세트를 나타내는 제2 ALF 부호화 트리 블록 식별자를 획득하는 단계;
    상기 제2 ALF 부호화 트리 블록 식별자에 따라, 상기 현재 부호화 트리 블록에 적용되는 Cb ALF 세트를 포함하는 적응 파라미터 세트를 결정하는 단계;
    상기 현재 부호화 트리 블록의 Cr 샘플에 적응적 루프내 필터링이 적용될 때, 상기 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는 한 개 이상의 적응 파라미터 세트들 중, 상기 현재 부호화 트리 블록에 적용되는 Cr ALF 세트를 포함하는 적응 파라미터 세트를 나타내는 제3 ALF 부호화 트리 블록 식별자를 획득하는 단계; 및
    상기 제3 ALF 부호화 트리 블록 식별자에 따라, 상기 현재 부호화 트리 블록에 적용되는 Cr ALF 세트를 포함하는 적응 파라미터 세트를 결정하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  17. 제1항에 있어서,
    상기 현재 부호화 트리 블록을 필터링하는 단계는,
    상기 현재 부호화 트리 블록의 기본 필터링 단위 블록에 대하여, 블록 분류 색인을 할당하는 단계를 더 포함하고,
    상기 블록 분류 색인은 방향성 정보와 활동성 정보를 이용하여 결정되는 비디오 복호화 방법.
  18. 제17항에 있어서,
    상기 방향성 정보 및 활동성 정보 중 적어도 하나는 세로, 가로, 제1 대각, 제2 대각 방향 중 적어도 하나에 대한 기울기(gradient) 값에 기반하여 결정되는 비디오 복호화 방법.
  19. 복수의 ALF들로 구성된 ALF 세트를 포함하는 적응 파라미터 세트를 결정하는 단계;
    상기 적응 파라미터 세트들 중에서, 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트를 결정하는 단계;
    상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트로부터, 상기 현재 픽처 또는 슬라이스에 포함된 현재 CTB에 적용되는 ALF 세트를 포함하는, 상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계; 및
    상기 결정된 현재 CTB에 적용되는 적응 파라미터 세트의 ALF 세트에 기초하여, 상기 현재 부호화 트리 블록을 필터링하는 단계를 포함하고,
    상기 결정된 적응 파라미터 세트는 색차 ALF 개수 정보를 포함하고,
    상기 ALF 세트는 상기 색차 ALF 개수 정보가 나타내는 개수의 색차 ALF를 포함하는 것을 특징으로 하는 비디오 부호화 방법.
  20. 비디오 부호화 방법에 의하여 비디오를 부호화함으로써 생성된 비트스트림이 저장된 컴퓨터로 판독가능한 기록매체에 있어서,
    상기 비디오 부호화 방법은,
    복수의 ALF들로 구성된 ALF 세트를 포함하는 적응 파라미터 세트를 결정하는 단계;
    상기 적응 파라미터 세트들 중에서, 현재 픽처 또는 슬라이스에 적용되는 ALF 세트를 포함하는, 상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트를 결정하는 단계;
    상기 현재 픽처 또는 슬라이스에 적용되는 적응 파라미터 세트로부터, 상기 현재 픽처 또는 슬라이스에 포함된 현재 CTB에 적용되는 ALF 세트를 포함하는, 상기 현재 CTB에 적용되는 적응 파라미터 세트를 결정하는 단계; 및
    상기 결정된 현재 CTB에 적용되는 적응 파라미터 세트의 ALF 세트에 기초하여, 상기 현재 부호화 트리 블록을 필터링하는 단계를 포함하고,
    상기 결정된 적응 파라미터 세트는 색차 ALF 개수 정보를 포함하고,
    상기 ALF 세트는 상기 색차 ALF 개수 정보가 나타내는 개수의 색차 ALF를 포함하는 것을 특징으로 하는 컴퓨터로 판독가능한 기록매체.
PCT/KR2020/007856 2019-06-17 2020-06-17 적응적 루프내 필터링 방법 및 장치 WO2020256413A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
MX2021014754A MX2021014754A (es) 2019-06-17 2020-06-17 Metodo y aparato de filtrado en bucle adaptativo.
US17/616,602 US20220248006A1 (en) 2019-06-17 2020-06-17 Adaptive in-loop filtering method and apparatus
CN202080040649.XA CN113940085B (zh) 2019-06-17 2020-06-17 自适应环内滤波方法和设备

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR10-2019-0071707 2019-06-17
KR20190071707 2019-06-17
KR20190071941 2019-06-18
KR10-2019-0071941 2019-06-18
KR20190082429 2019-07-09
KR10-2019-0082429 2019-07-09

Publications (1)

Publication Number Publication Date
WO2020256413A1 true WO2020256413A1 (ko) 2020-12-24

Family

ID=74040225

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/007856 WO2020256413A1 (ko) 2019-06-17 2020-06-17 적응적 루프내 필터링 방법 및 장치

Country Status (5)

Country Link
US (1) US20220248006A1 (ko)
KR (1) KR20200144075A (ko)
CN (1) CN113940085B (ko)
MX (1) MX2021014754A (ko)
WO (1) WO2020256413A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021133236A1 (en) * 2019-12-24 2021-07-01 Telefonaktiebolaget Lm Ericsson (Publ) Virtual boundary processing for adaptive loop filtering
WO2022197326A1 (en) * 2021-03-18 2022-09-22 Tencent America LLC Method and apparatus for video coding
US12034978B2 (en) 2023-03-16 2024-07-09 Tencent America LLC Lower-complexity sample offset filter

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113766247B (zh) * 2019-06-25 2023-07-25 北京大学 环路滤波的方法与装置
BR112022008487A2 (pt) * 2019-11-04 2022-09-20 Beijing Bytedance Network Tech Co Ltd Método de processamento de dados de vídeo, aparelho para processar dados de vídeo, meio de armazenamento não transitório legível por computador e meio de gravação não transitório legível por computador
JP7001668B2 (ja) * 2019-12-26 2022-01-19 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
US20230050232A1 (en) * 2020-01-15 2023-02-16 Lg Electronics Inc. In-loop filtering-based image coding apparatus and method
US20230010869A1 (en) * 2021-06-30 2023-01-12 Qualcomm Incorporated Signaled adaptive loop filter with multiple classifiers in video coding
US11838557B2 (en) * 2021-11-17 2023-12-05 Mediatek Inc. Methods and apparatuses of ALF derivation in video encoding system
CN114726926B (zh) * 2022-03-30 2023-03-31 电子科技大学 一种用于拉普拉斯信源的自适应变长编码方法
CN115131784B (zh) * 2022-04-26 2023-04-18 东莞博奥木华基因科技有限公司 一种图像处理方法、装置、电子设备及存储介质
WO2024016982A1 (en) * 2022-07-20 2024-01-25 Mediatek Inc. Adaptive loop filter with adaptive filter strength
WO2024039088A1 (ko) * 2022-08-18 2024-02-22 현대자동차주식회사 비선형 교차 성분 관계에 기반하는 cc-alf를 이용하는 비디오 코딩을 위한 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019107994A1 (ko) * 2017-11-29 2019-06-06 한국전자통신연구원 루프내 필터링을 이용한 영상 부호화/복호화 방법 및 장치

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3220641B1 (en) * 2011-04-21 2019-01-02 HFI Innovation Inc. Method and apparatus for improved in-loop filtering
US10778974B2 (en) * 2017-07-05 2020-09-15 Qualcomm Incorporated Adaptive loop filter with enhanced classification methods
EP3935860A1 (en) * 2019-03-08 2022-01-12 Canon Kabushiki Kaisha An adaptive loop filter
KR20210135337A (ko) * 2019-05-14 2021-11-12 엘지전자 주식회사 적응적 루프 필터 기반 비디오 또는 영상 코딩

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019107994A1 (ko) * 2017-11-29 2019-06-06 한국전자통신연구원 루프내 필터링을 이용한 영상 부호화/복호화 방법 및 장치

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS; CHEN JIANLE; LIU SHAN: "Versatile Video Coding (Draft 6)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11. JVET-02001-VD (VERSION 11). 15TH MEETING, no. JVET-02001-vD, 23 July 2019 (2019-07-23), Gothenburg, SE, pages 1 - 408, XP055747660 *
BROSS B; CHEN J; LIU S: "Versatile Video Coding (Draft 5", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11. JVET-N1001-V7. 14TH MEETING, no. JVET-N1001-v7, 29 May 2019 (2019-05-29), Geneva, CH, pages 1 - 371, XP030205196 *
HU (QUALCOMM) N; SEREGIN V; EGILMEZ H E; KARCZEWICZ (QUALCOMM) M: "CE5: Coding tree block based adaptive loop filter (CE5-4", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11. JVET-N0415-V2. 14TH MEETING, no. JVET-N0415-v2, 19 March 2019 (2019-03-19), Geneva, CH, pages 1 - 15, XP030203721 *
JIANLE CHEN; YAN YE; SEUNG HWAN KIM: "Algorithm description for Versatile Video Coding and Test Model 5 (VTM 5)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11. JVET-N1002-V2. 14TH MEETING, no. JVET-N1002-v2, 11 June 2019 (2019-06-11), Geneva, CH, pages 1 - 76, XP030205562 *
SEREGIN (QUALCOMM) V; C-Y CHEN (MEDIATEK): "CE5: Summary Report on Adaptive Loop Filter", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11. JVET-N0025. 14TH MEETING, no. JVET-N0025, 19 March 2019 (2019-03-19), pages 1 - 13, XP030203579 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021133236A1 (en) * 2019-12-24 2021-07-01 Telefonaktiebolaget Lm Ericsson (Publ) Virtual boundary processing for adaptive loop filtering
US11317095B2 (en) 2019-12-24 2022-04-26 Telefonaktiebolaget Lm Ericsson (Publ) Virtual boundary processing for adaptive loop filtering
US11689725B2 (en) 2019-12-24 2023-06-27 Telefonaktieblaget Lm Ericsson (Publ) Virtual boundary processing for adaptive loop filtering
WO2022197326A1 (en) * 2021-03-18 2022-09-22 Tencent America LLC Method and apparatus for video coding
US11706461B2 (en) 2021-03-18 2023-07-18 Tencent America LLC Method and apparatus for video coding
JP7467676B2 (ja) 2021-03-18 2024-04-15 テンセント・アメリカ・エルエルシー ビデオコーディングのための方法および装置
US12034978B2 (en) 2023-03-16 2024-07-09 Tencent America LLC Lower-complexity sample offset filter

Also Published As

Publication number Publication date
US20220248006A1 (en) 2022-08-04
KR20200144075A (ko) 2020-12-28
CN113940085A (zh) 2022-01-14
CN113940085B (zh) 2024-06-14
MX2021014754A (es) 2022-01-18

Similar Documents

Publication Publication Date Title
WO2020256413A1 (ko) 적응적 루프내 필터링 방법 및 장치
WO2019107994A1 (ko) 루프내 필터링을 이용한 영상 부호화/복호화 방법 및 장치
WO2020009514A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2021101345A1 (ko) 적응적 루프내 필터링 방법 및 장치
WO2019182385A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020005035A1 (ko) 처리율 향상을 위한 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2019078629A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020060184A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020060244A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020060242A1 (ko) 화면 내 예측 모드 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020060243A1 (ko) 경계 처리를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2021015581A1 (ko) 기하학적 분할을 사용하는 영상 부호화/복호화를 위한 방법, 장치 및 기록 매체
WO2020256466A1 (ko) 화면 내 예측 모드 및 엔트로피 부호화/복호화 방법 및 장치
WO2021054805A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020050600A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020256528A1 (ko) 비디오 부호화/복호화 방법, 장치 및 비트스트림 저장 매체
WO2020013532A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020017910A1 (ko) 지역 조명 보상을 통한 효과적인 비디오 부호화/복호화 방법 및 장치
WO2020060177A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020060317A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020141816A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020226359A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2021112652A1 (ko) 영역 차등적 영상 부호화/복호화를 위한 방법, 장치 및 기록 매체
WO2020171658A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020130607A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20826173

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20826173

Country of ref document: EP

Kind code of ref document: A1