WO2013048151A1 - 제한된 오프셋 보상 및 루프 필터를 기반으로 하는 영상 부호화 및 복호화 방법 및 그 장치 - Google Patents

제한된 오프셋 보상 및 루프 필터를 기반으로 하는 영상 부호화 및 복호화 방법 및 그 장치 Download PDF

Info

Publication number
WO2013048151A1
WO2013048151A1 PCT/KR2012/007833 KR2012007833W WO2013048151A1 WO 2013048151 A1 WO2013048151 A1 WO 2013048151A1 KR 2012007833 W KR2012007833 W KR 2012007833W WO 2013048151 A1 WO2013048151 A1 WO 2013048151A1
Authority
WO
WIPO (PCT)
Prior art keywords
alf
parameter
filter
block
indicator
Prior art date
Application number
PCT/KR2012/007833
Other languages
English (en)
French (fr)
Inventor
이진호
김휘용
임성창
최진수
김진웅
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=48436669&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2013048151(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority to CN201280058538.7A priority Critical patent/CN103959794B/zh
Priority to BR112014007434-8A priority patent/BR112014007434B1/pt
Priority to EP12835079.0A priority patent/EP2763411A4/en
Priority to BR122014023991-2A priority patent/BR122014023991B1/pt
Priority to EP21204985.2A priority patent/EP3965427A1/en
Priority to US14/347,709 priority patent/US9270990B2/en
Priority to JP2014533205A priority patent/JP2014531851A/ja
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to BR122020015284-2A priority patent/BR122020015284B1/pt
Priority to BR122020015282-6A priority patent/BR122020015282B1/pt
Priority to BR122020015286-9A priority patent/BR122020015286B1/pt
Priority to IN3108CHN2014 priority patent/IN2014CN03108A/en
Publication of WO2013048151A1 publication Critical patent/WO2013048151A1/ko
Priority to US14/251,113 priority patent/US9148663B2/en
Priority to US14/820,880 priority patent/US9204148B1/en
Priority to US14/820,842 priority patent/US9204171B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Definitions

  • the present invention relates to a digital image, and more particularly, to a method and apparatus for image encoding and decoding based on limited offset compensation and loop filters.
  • Image compression techniques include an inter prediction technique that predicts pixel values included in a current picture from a previous and / or subsequent picture in time, and an intra predictor of pixel values included in a current picture using pixel information in the current picture.
  • (intra) prediction technique weight prediction technique to prevent deterioration of image quality due to lighting changes, entropy encoding technique for assigning short codes to symbols with high appearance frequency and long codes to symbols with low appearance frequency, etc.
  • entropy encoding technique for assigning short codes to symbols with high appearance frequency and long codes to symbols with low appearance frequency, etc.
  • an offset compensation or loop filter may be applied to minimize the difference between the original image and the reconstructed image.
  • an offset may be obtained by calculating an error of a pixel value between an original image and a reconstructed image, and applied to the reconstructed image to minimize distortion with the original image.
  • a filter coefficient based on a Wiener filter for minimizing an error between an original image and a reconstructed image may be derived and then applied to the reconstructed image to minimize distortion with the original image.
  • the compressed video bit stream may be transmitted through an error prone network channel.
  • the conventional offset compensation or loop filter since the conventional offset compensation or loop filter has no countermeasure when an error occurs in the compressed video bit stream, the error may be propagated temporally or spatially by the offset compensation or loop filter. Therefore, the conventional offset compensation or loop filter may greatly degrade the quality of the reconstructed image, and may not be able to decode the compressed image bit stream.
  • An object of the present invention is to provide a method and apparatus for encoding and decoding an image based on limited offset compensation and filtering.
  • the present invention provides a method for restricting the application of offset compensation or loop filters in image encoding and decoding by using encoding parameters of at least one of a pixel adaptive offset compensation or loop filter target block and a neighboring block.
  • an image decoding method includes a sequence, a picture, a frame, a slice, a coding unit (CU), a prediction unit (PU), and a transform unit (TU).
  • a limited offset compensation indicator indicating from the encoder whether at least one of the at least one supports limited offset compensation
  • the SAO compensation indicator indicating whether to perform sample adaptive offset (SAO) compensation.
  • receiving from an encoder receiving an SAO parameter from the encoder, and performing pixel adaptive offset compensation on a pixel of a reconstructed image based on the SAO compensation indicator and the SAO parameter.
  • an image decoding method includes a sequence, a picture, a frame, a slice, a coding unit (CU), a prediction unit (PU), and a transform unit (TU). Transmitting a limited offset compensation indicator indicating to the decoder whether at least one of the at least one supports limited offset compensation, wherein the SAO compensation indicator indicating whether to perform sample adaptive offset (SAO) compensation. Transmitting to the decoder, transmitting SAO parameters to the decoder, and performing pixel adaptive offset compensation on the pixels of the reconstructed image based on the SAO compensation indicator and the SAO parameters.
  • SAO sample adaptive offset
  • a video encoding method includes a sequence, a picture, a frame, a slice, a coding unit (CU), a prediction unit (PU), and a transform unit (TU). Transmitting a limited loop filter indicator indicating to the decoder whether at least one of the at least one supports the application of the restricted loop filter, and an ALF application indicator indicating whether to apply an adaptive loop filter (ALF). Transmitting to the decoder, transmitting an ALF parameter to the decoder, and applying the ALF to the pixel of the reconstructed image based on the ALF application indicator and the ALF parameter.
  • ALF adaptive loop filter
  • An offset compensation or loop filter may be applied to be robust to errors in image encoding and decoding.
  • FIG. 1 is a block diagram illustrating a configuration of an image encoding apparatus according to an embodiment.
  • FIG. 2 is a block diagram illustrating a configuration of an image decoding apparatus according to an embodiment.
  • FIG. 3 shows an embodiment of a proposed image encoding method.
  • FIG. 5 illustrates a case in which an offset type is determined in an edge offset type by using encoding parameters in the proposed image encoding method.
  • FIG. 6 shows an embodiment of a proposed image decoding method.
  • FIG. 7 shows another embodiment of a proposed video encoding method.
  • FIG. 8 shows an example of a filter shape determined by an encoder in the proposed image encoding method.
  • FIG. 9 illustrates a case of classifying a filter based on a BA method by using an encoding parameter in the proposed image encoding method.
  • FIG. 10 illustrates an example of applying ALF using an encoding parameter in the proposed image encoding method.
  • FIG. 11 shows an embodiment of a proposed image decoding method.
  • FIG. 12 shows an example of a filter shape used in the proposed image decoding method.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • each component shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is made of separate hardware or one software component unit.
  • each component is included in each component for convenience of description, and at least two of the components may be combined into one component, or one component may be divided into a plurality of components to perform a function.
  • Integrated and separate embodiments of the components are also included within the scope of the present invention without departing from the spirit of the invention.
  • the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance.
  • the present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included in the scope of the present invention.
  • FIG. 1 is a block diagram illustrating an image encoding apparatus according to an embodiment of the present invention.
  • the image encoding apparatus 100 may include a motion predictor 110, a motion compensator 115, an intra predictor 120, a subtractor 125, a transformer 130, and a quantizer 135. ), An entropy encoder 140, an inverse quantizer 145, an inverse transformer 150, an adder 155, a filter 160, and a reference image buffer 165.
  • the image encoding apparatus 100 may encode the input image in an intra mode or an inter mode and output a bit stream.
  • the prediction may be performed by the intra predictor 120
  • the prediction may be performed by the motion predictor 110, the motion compensator 115, and the like.
  • the image encoding apparatus 100 may generate a prediction block for an input block of an input image and then encode a difference between the input block and the prediction block.
  • the intra predictor 120 may generate a predictive block by performing spatial prediction using pixel values of blocks that are already encoded around the current block.
  • the motion predictor 110 may obtain a motion vector by searching for a region that best matches an input block in the reference image stored in the reference image buffer 170 during the motion prediction process.
  • the motion compensator 115 may generate a prediction block by performing motion compensation using the motion vector and the reference image stored in the reference image buffer 165.
  • the subtractor 125 may generate a residual block by the difference between the input block and the generated prediction block.
  • the transform unit 130 may output a transform coefficient by performing a transform on the residual block.
  • the residual signal may mean a difference between the original signal and the prediction signal, and may also mean a signal in which the difference between the original signal and the prediction signal is converted or a signal in which the difference between the original signal and the prediction signal is converted and quantized. It may be.
  • the residual signal may be referred to as a residual block in block units.
  • the quantization unit 135 may output a quantized coefficient obtained by quantizing the transform coefficients according to the quantization parameter.
  • the entropy encoder 140 may entropy-encode the symbols corresponding to the values calculated by the quantizer 135 or the encoding parameter values calculated in the encoding process according to a probability distribution and output a bit stream.
  • the compression performance of image encoding may be improved by assigning a small number of bits to a symbol having a high occurrence probability and a large number of bits to a symbol having a low occurrence probability.
  • Encoding methods such as context-adaptive variable length coding (CAVLC) and context-adaptive binary arithmetic coding (CABAC) may be used for entropy encoding.
  • CAVLC context-adaptive variable length coding
  • CABAC context-adaptive binary arithmetic coding
  • the entropy encoder 140 may perform entropy encoding using a variable length coding (VLC) table.
  • VLC variable length coding
  • the entropy encoder 145 derives the binarization method of the target symbol and the probability model of the target symbol / bin, and then performs entropy encoding using the derived binarization method or the probability model. It may be.
  • the quantized coefficient may be inversely quantized by the inverse quantizer 145 and inversely transformed by the inverse transformer 150.
  • the adder 155 may generate a reconstruction block by using the prediction block and the inverse transformed quantization coefficient.
  • the filter unit 160 may apply at least one or more of a deblocking filter, a sample adaptive offset (SAO), and an adaptive loop filter (ALF) to the reconstructed block or the reconstructed picture.
  • the reconstruction block that has passed through the filter unit 160 may be stored in the reference image buffer 165.
  • FIG. 2 is a block diagram illustrating an image decoding apparatus according to an embodiment of the present invention.
  • the image decoding apparatus 200 may include an entropy decoder 210, an inverse quantizer 220, an inverse transformer 230, an intra predictor 240, a motion compensator 250, and a filter. 260, a reference image buffer 270, and an adder 280.
  • the image decoding apparatus 200 may receive a bit stream output from the encoder and perform decoding in an intra mode or an inter mode, and output a reconstructed image, that is, a reconstructed image.
  • the prediction may be performed by the intra predictor 240
  • the prediction may be performed by the motion compensator 250.
  • the image decoding apparatus 200 may generate a reconstructed block, that is, a reconstructed block by obtaining a residual block reconstructed from the received bit stream, generating a prediction block, and adding the reconstructed residual block and the prediction block.
  • the entropy decoder 210 may entropy decode the input bit stream according to a probability distribution to generate symbols in the form of quantized coefficients.
  • the entropy decoding method may be performed corresponding to the entropy encoding method described above.
  • the quantized coefficients are inversely quantized by the inverse quantizer 220 and inversely transformed by the inverse transformer 230, and a residual block may be generated as a result of inverse quantization / inverse transformation of the quantized coefficients.
  • the intra predictor 240 may generate a predictive block by performing spatial prediction using pixel values of blocks that are already encoded around the current block.
  • the motion compensator 250 may generate a prediction block by performing motion compensation using the motion vector and the reference image stored in the reference image buffer 270.
  • the adder 280 may generate a reconstruction block based on the residual block and the prediction block.
  • the filter unit 260 may apply at least one or more of the deblocking filter, SAO, and ALF to the reconstruction block.
  • the filter unit 260 outputs the reconstructed image, that is, the reconstructed image.
  • the reconstructed picture may be stored in the reference picture buffer 270 to be used for inter prediction.
  • Constrained intra prediction is a technique for making it robust to errors in image encoding or image decoding.
  • the CIP technique does not use the reconstructed pixel region of the periphery prediction block.
  • reference pixels are generated by interpolation or extrapolation using the reconstructed neighboring pixels. Intra prediction may be performed based on the generated reference pixels. Therefore, even if a picture referenced by neighboring inter-coded blocks is lost, the prediction target block may not be affected.
  • the deblocking filtering process since filtering is always performed on the reconstructed image regardless of whether the limited intra prediction is applied or the encoding parameter, the deblocking filtering process may be propagated to an area in which no error occurs in the reconstructed image. For example, an error occurring in an inter coded block may be propagated to an intra coded block. Therefore, the conventional deblocking filtering process has a problem that can significantly reduce the subjective quality of the reconstructed image.
  • a method of transmitting a flag indicating whether to apply a limited sample adaptive offset (SAO) compensation or an adaptive loop filter (ALF) may be proposed.
  • the pixel adaptive offset compensation or the adaptive loop filter may be limitedly applied according to the encoding parameters of the current block and the neighboring block. . Accordingly, even when the inter coded block cannot be normally restored, the intra coded block can be normally decoded. That is, the error of the inter coded block can be prevented from being propagated to the intra coded block, and the reconstruction result of the intra coded block can be kept the same in the encoder and the decoder.
  • Pixel adaptive offset compensation may be included in in-loop filtering, and in-loop filtering may include a deblocking filter in addition to pixel adaptive offset compensation.
  • FIG. 3 shows an embodiment of a proposed image encoding method.
  • step S100 the encoder transmits the limited offset compensation indicator to the decoder.
  • step S110 the encoder transmits a SAO compensation indicator indicating whether to perform sample adaptive offset (SAO) compensation to the decoder.
  • step S120 the encoder transmits the SAO parameter to the decoder.
  • operation S130 the encoder performs pixel adaptive offset compensation on the reconstructed image based on the SAO compensation indicator and the SAO parameter.
  • the decoder uses a limited offset compensation indicator transmitted from the encoder to encode a sequence, a picture, a frame, a field, a slice, a coding unit (CU), and a prediction unit. It may be determined whether at least one or more of a prediction unit (PU) or a transform unit (TU) supports limited offset compensation.
  • PU prediction unit
  • TU transform unit
  • the encoder can insert a limited offset compensation indicator into the bit stream and send it to the decoder.
  • the limited offset compensation indicator may be inserted into the bit stream through an entropy coding process such as arithmetic coding or variable length coding (VLC).
  • the limited offset compensation indicator may use a sequence parameter set (SPS), a picture parameter set (PPS), an adaptation parameter set (APS), or a slice header in a bit stream. Can be sent.
  • the decoder may obtain a limited offset compensation indicator that is transmitted by parsing the bit stream by entropy decoding.
  • Table 1 shows an example of the limited offset compensation indicator inserted into the bit stream.
  • the offset compensation indicator is inserted into the sequence parameter set.
  • seq_parameter_set_rbsp () ⁇ Descriptor ... seq_parameter_set_id ue (v) pic_width_in_luma_samples u (16) pic_height_in_luma_samples u (16) constrained_intra_pred_flag u (1) constrained_offset_flag u (1) ... ⁇
  • constrained_offset_flag represents a limited offset compensation indicator. If the value of constrained_offset_flag is 0, it may indicate that limited offset compensation is not supported. If the value of constrained_offset_flag is 1, it may indicate that limited offset compensation is supported. Alternatively, when the value of constrained_intra_pred_flag, which is a parameter for error-proof intra prediction, is 1, it may indicate that limited offset compensation is supported without inserting a separate offset compensation indicator.
  • Table 2 shows another example of the limited offset compensation indicator inserted into the bit stream.
  • the limited offset compensation indicator is inserted into the picture parameter set.
  • pic_parameter_set_rbsp () ⁇ Descriptor ... pic_parameter_set_id ue (v) seq_parameter_set_id ue (v) constrained_offset_flag u (1) ... ⁇
  • constrained_offset_flag represents a limited offset compensation indicator. If the value of constrained_offset_flag is 0, it may indicate that limited offset compensation is not supported. If the value of constrained_offset_flag is 1, it may indicate that limited offset compensation is supported.
  • Table 3 shows another example of the limited offset compensation indicator inserted into the bit stream.
  • the limited offset compensation indicator is inserted into the picture parameter set.
  • pic_parameter_set_rbsp () ⁇ Descriptor ... pic_parameter_set_id ue (v) seq_parameter_set_id ue (v) loop_filter_across_tiles_enabled_flag u (1) loop_filter_across_slices_enabled_flag u (1) ... ⁇
  • loop_filter_across_tiles_enabled_flag or loop_filter_across_slices_enabled_flag are limited offset compensation indicators. If the value of the loop_filter_across_tiles_enabled_flag is 0, it may indicate that limited offset compensation is supported. Alternatively, if the value of loop_filter_across_slices_enabled_flag is 0, it may indicate that limited offset compensation is supported.
  • the encoder and the decoder may always support limited offset compensation without inserting a separate offset compensation indicator.
  • the encoder may use an encoding parameter.
  • the coding parameter includes a coding mode indicating whether intra coding or inter coding, intra prediction mode, inter prediction mode, and coding block flag ( Coded block flag (CBF), quantization parameter, motion vector, motion vector predictor, reference picture index, slice / tile boundary Whether at least one or more.
  • CBF Coded block flag
  • the encoding parameter may include a boundary of the tile, and when the value of the limited offset compensation indicator is 0, the offset compensation may be limited so as not to be performed beyond the tile boundary.
  • the limited offset compensation indicator may be loop_filter_across_tiles_enabled_flag of Table 3. The boundary of a tile may be determined based on an identifier (ID) of the tile.
  • the encoding parameter may include a boundary of the slice, and when the value of the limited offset compensation indicator is 0, the offset compensation may not be performed beyond the slice boundary.
  • the limited offset compensation indicator may be loop_filter_across_slices_enabled_flag of Table 3. The boundary of the slice may be determined based on the identifier of the slice.
  • the target block or neighboring blocks to which the limited offset compensation is applied are encoded in the picture or the inter-picture code using the encoding parameter.
  • the block may be encoded in an intra mode. If a block is encoded in the picture, the block may be encoded in an inter mode.
  • PCM pulse coded modulation
  • the degree of reliability may be determined according to the encoding parameter, and the determined degree of reliability may be applied when performing the limited offset compensation. For example, as shown in Table 4, the degree of reliability may be determined according to each coding parameter, and the degree of reliability may be determined according to a combination of one or more coding parameters.
  • a block encoded into a picture may be determined to have a high reliability since prediction is performed in a current slice, and a block encoded between pictures may be determined to have a low reliability since prediction is performed through a previous slice. have.
  • a block within the slice / tile boundary may be determined to have high reliability, and a block outside the boundary may be determined to have low reliability.
  • the value of the limited offset compensation indicator loop_filter_across_tiles_enabled_flag or loop_filter_across_slices_enabled_flag in Table 3 is 0, out of bounds of reliability may not be allowed.
  • pixel adaptive offset compensation can be performed.
  • the encoder can improve the performance by calculating an offset by calculating a pixel value error between the original image and the reconstructed image, and applying it to the reconstructed image to minimize distortion with the original image.
  • the SAO compensation indicator transmitted in step S110 may be transmitted by being included in a sequence parameter set, a picture parameter set, an adaptation parameter set, or a slice header.
  • the SAO compensation indicator may be sample_adaptive_offset_enabled_flag.
  • whether or not to perform pixel adaptive offset compensation on the luminance component and the chrominance component may be signaled by being included in each bit stream.
  • the SAO parameter may include at least one of an offset compensation block structure, a quadtree depth, an offset type, an offset category, and an offset value.
  • the SAO parameter may include an offset compensation block structure in the bit stream.
  • the offset compensation block structure in the SAO parameter may be sao_split_flag.
  • one slice may be divided into quadtrees to signal information about an offset compensation block structure.
  • information about a depth divided into quadtrees may also be included in the bit stream, and the minimum unit of the divided region may be a large coding unit (LCU).
  • LCU large coding unit
  • the SAO parameter may include an offset type, an offset type, an offset sign, and an offset value.
  • Table 5 shows the offset types and the number of offset types according to the pixel adaptive offset compensation.
  • Offset type index Offset type Offset Type Count 0 Do not perform offset 0 One Edge offset 1-Dimensional 0 Degree Format Edge Offset 4 2 One-dimensional 90 degree format edge offset 4 3 One-dimensional 135 degree format edge offset 4 4 One-dimensional 45 degree format edge offset 4 5 band offset Center band offset 16 6 Side band offset 16
  • the number of offset types may be a total of seven. However, the offset types in Table 5 are merely examples, and the number of offset types may vary. Each offset type may have a different number and different offset values.
  • Edge offsets may be classified into four offset types according to angles. In the edge offset, each offset type may have four offset types according to a condition. The offset type and the offset code in the edge offset may be determined by comparing the offset compensation target pixel and the neighboring pixels. That is, in the case of the edge offset, the offset type and the offset code may be determined by the decoder without additional signaling.
  • a band offset (BO) may be classified into two offset types according to the position of the band, and may have 16 offset types.
  • the offset type in the band offset may be determined according to which of the divided sections is divided after dividing the range of pixel values that the offset compensation target pixel may have into 16 sections.
  • the offset type index may be encoded and signaled to the decoder according to the determined offset type, and the offset type and offset code may be classified according to conditions in the encoder and the decoder without signaling.
  • the determined offset type and offset sign may correspond to parsed offset values, respectively.
  • the offset type is determined as an edge offset, four offset values may be signaled to the decoder, and when determined as a band offset, 16 offset values may be signaled to the decoder.
  • the SAO parameter may be determined based on encoding parameters of at least one block among a target block of pixel adaptive offset compensation or a neighboring block of the target block.
  • encoding parameters of at least one or more blocks of a target block and neighboring blocks of pixel adaptive offset compensation may be used.
  • the encoding parameter may include a boundary of the tile, and the boundary of the tile may be determined based on the identifier of the tile.
  • the encoding parameter may include a boundary of the slice, and the boundary of the slice may be determined based on the identifier of the slice.
  • Edge offsets can be classified into four offset types according to the angle.
  • C denotes a target pixel of pixel adaptive offset compensation
  • N denotes a peripheral pixel.
  • FIG. 5 illustrates a case in which an offset type and an offset code are determined in an edge offset type by using encoding parameters in the proposed image encoding method.
  • a target block and a left block of pixel adaptive offset compensation are encoded into a screen, and a target block and a higher block are encoded between screens. That is, in FIG. 5, C and N 1 become block pixels within the screen, and N 2 becomes block pixels between the screens.
  • Table 6 shows the conditions under which the offset type is determined, and N may be N 1 or N 2 . When the offset type is determined as 1 or 2, the offset sign may be positive, and when the offset type is determined as 3 or 4, the offset sign may be negative.
  • Offset type Condition One C is less than two N's 2 C is less than one N and equal to the other N 3 C is greater than one N and equal to the other N 4 C is greater than two N 0 Does not meet the above conditions
  • the offset type may be determined using only the pixels encoded into the screen in the target block without using pixels of the block encoded between the screens among the neighboring blocks. This is to prevent an error from propagating to the pixels of the block encoded into the screen.
  • an offset type may be determined by replacing pixels of a block encoded between screens with pixels of a block encoded into the screen without using pixels of a block encoded between screens among neighboring blocks. have. For example, the offset type may be determined by replacing the pixel value of N 2 with the pixel value of D in FIG. 5. Alternatively, the offset type may not be determined.
  • the encoder may reconstruct the offset compensated pixel value by adding the offset value calculated based on the SAO compensation indicator and the SAO parameter to the pixel value. After decoding each offset value, the decoder may perform pixel adaptive offset compensation by using an offset value corresponding to an offset type classified by a condition for each pixel in each block.
  • the pixel adaptive offset compensation may be performed based on encoding parameters of at least one or more blocks of the target block or the neighboring blocks of the target block of the pixel adaptive offset compensation.
  • the encoding parameter includes a tile boundary, and pixel adaptive offset compensation may be performed based on the tile boundary. For example, pixel adaptive offset compensation may not be performed beyond the boundary of the tile.
  • the encoding parameter may include a boundary of the slice, and pixel adaptive offset compensation may be performed based on the boundary of the slice. Pixel adaptive offset compensation may not be performed beyond the boundaries of the slice.
  • the pixels of the block among the neighboring blocks encoded between the screens are Without using the pixel adaptive offset compensation may be performed using only the pixels encoded into the screen in the target block. This is to prevent an error from propagating to the pixels of the block encoded into the screen.
  • the pixel adaptive offset compensation may be performed by replacing the pixels of the block encoded between the screens among the neighboring blocks with the pixels of the block encoded into the screen.
  • pixel adaptive offset compensation may not be performed.
  • the encoder divides a slice into sizes of various blocks of a quadtree structure, and performs an optimal type of rate-distortion optimization (RDO) among edge offsets or band offsets for each block. Can be used and determined, and the offset type and offset value can be determined for the determined optimal type.
  • RDO rate-distortion optimization
  • SAO parameters may be entropy encoded and transmitted to the decoder.
  • the image encoding method based on the limited offset compensation described above may be applied to the image decoding method as it is. That is, the decoder receives and parses the limited offset compensation indicator, the SAO compensation indicator, the SAO parameter, etc. transmitted from the encoder, and performs pixel adaptive offset compensation based on this.
  • FIG. 6 shows an embodiment of a proposed image decoding method.
  • step S200 the decoder receives the limited offset compensation indicator from the encoder.
  • Table 7 shows an example of the limited offset compensation indicator inserted in the picture parameter set.
  • pic_parameter_set_rbsp () ⁇ Descriptor pic_parameter_set_id ue (v) seq_parameter_set_id ue (v) ... . constrained_intra_pred_flag u (1) if (constrained_intra_pred_flag) constrained_in_loop_filter_flag u (1) ... .
  • the decoder may parse constrained_in_loop_filter_flag to determine whether to apply the restricted in-loop filter. If the value of constrained_in_loop_filter_flag is 1, it may indicate to apply a restricted in-loop filter, and if the value of constrained_in_loop_filter_flag is 0, it may indicate not to apply a restricted in-loop filter.
  • the application target of the limited in-loop filter may be at least one of a deblocking filter, an offset compensation, and an ALF.
  • the decoder receives a SAO compensation indicator indicating whether to perform the SAO compensation from the encoder.
  • the decoder may determine whether to perform SAO compensation by parsing the SAO compensation indicator sample_adaptive_offset_enabled_flag transmitted in a sequence parameter set, a picture parameter set, an adaptation parameter set, or a slice header in the bit stream.
  • the decoder may parse information from the bit stream to determine whether to perform SAO compensation on each of the luminance component and the chrominance component.
  • the decoder receives the SAO parameters from the encoder.
  • the decoder may parse SAO parameters transmitted from the encoder. For example, when the SAO parameter includes sao_split_flag, which is information on the offset compensation block structure, in the bit stream, the decoder may parse it to determine the structure of the block to perform pixel adaptive offset compensation. In addition, the decoder may also parse information about the depth divided into quadtrees included in the bit stream.
  • the offset type and the offset type thereof may follow Table 5 described above.
  • the number of offset types may be seven in total.
  • Each offset type may have a different number and different offset values.
  • the decoder may parse four offset values from the bit stream when the offset type is determined to be an edge offset, and may parse 16 offset values from the bit stream when it is determined as a band offset.
  • the offset type according to each offset type may correspond to the parsed offset value, respectively.
  • the offset type and the offset code in the edge offset may be determined by comparing the offset compensation pixel and the surrounding pixels, and the offset type in the band offset may be a range of pixel values that the offset compensation pixel may have in 16 sections. After dividing, it may be determined according to one of the divided sections.
  • the offset type for the target pixel may not be determined. That is, the offset type may be set to 0 so as not to perform offset compensation.
  • the value of constrained_in_loop_filter_flag in the offset compensation indicator is 1, and the pixel at (x, y) belongs to the block encoded into the screen and is located at (x + hPos [k], y + vPos [k]).
  • the value of the offset type may be set to zero.
  • the offset type when the offset type is 2, the value of constrained_in_loop_filter_flag in the offset compensation indicator is 1, and the pixel located at (x, y) belongs to the block encoded into the screen and (x, y + 1). ) Or one or more pixels located at (x, y-1) belong to a block encoded between screens, the offset type may be set to '0'.
  • the value of the limited offset compensation indicator is 1 and one pixel located at (x, y) and one or more pixels located at (x + hPos [k], y + vPos [k]) belong to different slices / tiles. That is, when one or more pixels located at (x + hPos [k], y + vPos [k]) are located outside the slice / tile to which the pixel located at (x, y) belongs, the value of the offset type may be set to 0. Can be. In addition, when the slice / tile boundary is the boundary of the picture, the outside of the slice / tile boundary may be outside the picture without pixels.
  • the SAO parameter may be determined based on encoding parameters of at least one block among a target block of pixel adaptive offset compensation or a neighboring block of the target block.
  • the decoder performs pixel adaptive offset compensation based on the SAO compensation indicator and the SAO parameter.
  • the decoder may restore the offset compensated pixel value by adding the offset value calculated based on the SAO compensation indicator and the SAO parameter to the pixel value.
  • RecSaoPicture [x, y] represents a pixel value after performing pixel adaptive offset compensation on the pixel located at (x, y), and RecPicture [x, y] is a reconstructed pixel before performing pixel adaptive offset compensation. Indicates a value.
  • FIG. 7 shows another embodiment of a proposed video encoding method.
  • step S300 the encoder transmits the restricted loop filter indicator to the decoder.
  • step S310 the encoder transmits an ALF application indicator indicating whether to apply ALF to the decoder.
  • step S320 the encoder transmits the ALF parameter to the decoder.
  • step S330 the encoder applies ALF to the reconstructed image based on the ALF application indicator and the ALF parameter.
  • the limited loop filter indicator transmitted in step S300 will be described.
  • the decoder may determine whether at least one or more of an encoding target sequence, a picture, a frame, a field, a slice, a CU, a PU, or a TU applies a restricted loop filter by a limited loop filter indicator transmitted from an encoder.
  • the encoder can insert a restricted loop filter indicator into the bit stream and send it to the decoder.
  • the restricted loop filter indicator may be inserted into the bit stream through arithmetic coding or entropy coding such as VLC.
  • the limited offset compensation indicator may be transmitted using an SPS, PPS, APS or slice header in the bit stream.
  • the decoder can obtain a limited offset compensation indicator which is transmitted by parsing the bit stream by entropy decoding.
  • Table 9 shows an example of a restricted loop filter indicator inserted into a bit stream.
  • the loop filter indicator is inserted into the sequence parameter set.
  • seq_parameter_set_rbsp () ⁇ Descriptor ... seq_parameter_set_id ue (v) pic_width_in_luma_samples u (16) pic_height_in_luma_samples u (16) constrained_intra_pred_flag u (1) constrained_filter_flag u (1) ... ⁇
  • the constrained_filter_flag is a restricted loop filter indicator. If the value of constrained_filter_flag is 0, the restricted loop filter is not applied. If the value of constrained_filter_flag is 1, it may indicate that the limited loop filter is supported. Alternatively, if the value of constrained_intra_pred_flag, which is a parameter for error-proof intra prediction, is 1, it may be indicated to apply a restricted loop filter without inserting a separate loop filter indicator.
  • Table 10 shows another example of the restricted loop filter indicator inserted into the bit stream.
  • the restricted loop filter indicator is inserted into the picture parameter set.
  • pic_parameter_set_rbsp () ⁇ Descriptor ... pic_parameter_set_id ue (v) seq_parameter_set_id ue (v) constrained_fitler_flag u (1) ... ⁇
  • the constrained_filter_flag is restricted loop filter indicator. If the value of the constrained_filter_flag is 0, the restricted loop filter may not be applied. If the value of the constrained_filter_flag is 1, it may be indicated to apply the restricted loop filter.
  • loop_filter_across_tiles_enabled_flag or loop_filter_across_slices_enabled_flag may indicate a limited loop filter indicator. If the value of loop_filter_across_tiles_enabled_flag is 0, it may indicate to apply a restricted loop filter. Alternatively, if the value of loop_filter_across_slices_enabled_flag is 0, it may indicate to apply a restricted loop filter.
  • the limited loop filter may be always applied to the encoder and the decoder without inserting a separate loop filter indicator.
  • the encoder may use an encoding parameter.
  • the encoding parameter may include at least one of an encoding mode indicating an intra picture or an inter picture encoding, an intra picture prediction mode, an inter picture prediction mode, a CBF, a quantization parameter, a motion vector, a motion vector predictor, a reference picture index, and a slice / tile boundary. It includes one or more.
  • the encoding parameter may include a tile boundary, and if the value of the limited loop filter indicator is 0, the loop filter may be limited so that the loop filter is not applied beyond the tile boundary.
  • the restricted loop filter indicator may be loop_filter_across_tiles_enabled_flag of Table 3. The boundary of a tile may be determined based on an identifier (ID) of the tile.
  • the encoding parameter may include a boundary of the slice, and when the value of the limited loop filter indicator is 0, the loop filter may be limited so that the loop filter is not applied beyond the slice boundary.
  • the restricted loop filter indicator may be loop_filter_across_slices_enabled_flag of Table 3. The boundary of the slice may be determined based on the identifier of the slice.
  • an application target block or neighboring blocks of the restricted loop filter are intra coded or inter coded by using an encoding parameter.
  • the block may be referred to as being encoded in the picture mode.
  • the block may be referred to as being coded in the picture mode.
  • the block may be determined that the block is encoded in the picture.
  • the degree of reliability may be determined according to the encoding parameter, and the determined degree of reliability may be applied when performing the limited offset compensation. For example, as shown in Table 4, the degree of reliability may be determined according to each coding parameter, and the degree of reliability may be determined according to a combination of one or more coding parameters. In Table 3, when the value of the limited loop filter indicator loop_filter_across_tiles_enabled_flag or loop_filter_across_slices_enabled_flag is 0, out of bounds of reliability may not be allowed.
  • ALF a limited loop filter
  • the coder derives filter coefficients based on a Wiener filter that minimizes the error between the original image and the reconstructed image, and then applies them to the reconstructed image to minimize distortion with the original image.
  • the ALF application indicator transmitted in step S310 may be included in a sequence parameter set, a picture parameter set, an adaptation parameter set, or a slice header and transmitted.
  • the ALF application indicator may be adaptive_loop_filter_flag.
  • whether or not ALF is applied to the luminance component and the chrominance component may be included in each bit stream for signaling.
  • whether to apply ALF may be determined in a CU unit or an image unit.
  • the ALF parameter may include at least one of a filter shape, a filter coefficient, a filter classification method, a filter index, a filter prediction method, and a maximum filter depth.
  • the encoder may determine an optimal filter shape among a plurality of filter shapes.
  • the encoder may determine the filter coefficient used to apply the ALF.
  • the filter coefficient may be one or more, and may be encoded by an exponential Golomb code having a different order.
  • prediction coding may be performed between the filter coefficients by a method such as differential pulse code modulation (DPCM), and one filter coefficient may be predictively encoded from the sum of the other filter coefficients.
  • DPCM differential pulse code modulation
  • the filter may be selected using one of a region-based adaptation (RA) and a block-based adaptation (BA) as a filter classification method.
  • RA region-based adaptation
  • BA block-based adaptation
  • the filter classification method is determined by the RA method
  • the value of alf_region_adaptation_flag is set to 1
  • the value of alf_region_adaptation_flag is set to 0.
  • the RA method any one of a plurality of filters may be selected per divided image region.
  • the BA method one of the plurality of filters may be selected in consideration of the amount of change and the direction of the pixels. Can be.
  • the filter index in the ALF parameter may be used to indicate which filter is selected.
  • the ALF can be applied only up to a CU of a specific depth.
  • FIG. 8 shows an example of a filter shape determined by an encoder in the proposed image encoding method.
  • the number in each filter represents the filter coefficient index.
  • the encoder includes information on the filter shape and the filter classification method in the ALF parameter and transmits the information to the decoder, and the filter is selected according to the determined filter classification method.
  • the filtering may be performed based on the sum of the product of each filter coefficient and the pixel value corresponding to each position in filtering the pixel value located at the center of the filter shape.
  • the encoding parameter may include a boundary of the tile, and the boundary of the tile may be determined based on the identifier of the tile.
  • the encoding parameter may include a boundary of the slice, and the boundary of the slice may be determined based on the identifier of the slice.
  • FIG. 9 illustrates a case of classifying a filter based on a BA method by using an encoding parameter in the proposed image encoding method.
  • a target block of ALF application is encoded into a screen and neighboring blocks are encoded between screens
  • a horizontal or vertical directionality is determined in 4 ⁇ 4 block units
  • the pixels in the screen may be pixels of a block in the screen, and the shaded pixels may be pixels of an inter screen block.
  • "R" represents a restored pixel
  • VA is vertical
  • HA is horizontal.
  • the filter may be classified using only the pixels encoded into the screen in the target block without using pixels of the blocks encoded between the screens among the neighboring blocks. This is to prevent an error from propagating to the pixels of the block encoded into the screen.
  • the filter may be classified by replacing the pixels of the block encoded between the screens among the neighboring blocks with the pixels of the block encoded into the screen. For example, in the case of determining the horizontal or vertical directionality at the position 'R (0,0) ' in FIG. 9, 'R (-1,0) ' or 'R (0,- ) included in the inter-screen block. 1) The direction can be determined after replacing the 'value with the value of the block in the screen. Alternatively, the filter may not be classified.
  • FIG. 10 illustrates an example of applying ALF using an encoding parameter in the proposed image encoding method.
  • the ALF may be determined based on encoding parameters of at least one or more blocks of a target block of the ALF application or a neighboring block of the target block.
  • the encoding parameter may include a boundary of the tile, and the ALF may be applied based on the boundary of the tile. For example, ALF may not be applied beyond the boundary of the tile.
  • the encoding parameter may include a boundary of the slice, and the ALF may be applied based on the boundary of the slice. ALF may not be applied beyond the boundaries of the slice.
  • the pixels of the block encoded between the screens among the neighboring blocks are not used.
  • the ALF may be applied using only pixels encoded in the screen among the target block or the neighboring block. This is to prevent an error from propagating to the pixels of the block encoded into the screen.
  • the filter is applied only when the filter coefficient is included in the block encoded into the screen as shown in FIG. 10- (b). That is, the filter can be applied only to the pixel values i, j, k, l, m, n, o, and p.
  • the ALF may be applied by replacing the pixels of the block encoded between the screens among the neighboring blocks with the pixels of the block encoded into the screen. Alternatively, ALF may not be applied.
  • the encoder may apply ALF based on the ALF application indicator and the ALF parameter.
  • the ALF may be applied based on encoding parameters of at least one or more blocks of a target block of the ALF application or neighboring blocks of the target block.
  • the encoder synchronizes one slice to a coding tree block structure, and whether a filter is performed in units of CUs, a maximum depth of a filter, a filter prediction method, a filter classification method, a filter shape, and a filter coefficient. Etc. using RDO and determining, and applying the ALF using the determined optimal ALF parameters.
  • Such ALF parameter may be entropy encoded and transmitted to the decoder.
  • the image encoding method based on the limited loop filter described so far may be applied to the image decoding method as it is. That is, the decoder receives and parses the restricted loop filter indicator, the ALF application indicator, the ALF parameter, etc. transmitted from the encoder, and applies the ALF based on this.
  • FIG. 11 shows an embodiment of a proposed image decoding method.
  • step S400 the decoder receives the restricted loop filter indicator from the encoder.
  • Table 11 shows an example of a restricted loop filter indicator inserted in the picture parameter set.
  • pic_parameter_set_rbsp () ⁇ Descriptor pic_parameter_set_id ue (v) seq_parameter_set_id ue (v) ... . constrained_intra_pred_flag u (1) if (constrained_intra_pred_flag) constrained_in_loop_filter_flag u (1) ... .
  • the decoder may parse constrained_in_loop_filter_flag to determine whether to apply the restricted in-loop filter. If the value of constrained_in_loop_filter_flag is 1, it may indicate to apply a restricted in-loop filter, and if the value of constrained_in_loop_filter_flag is 0, it may indicate not to apply a restricted in-loop filter.
  • the application target of the limited in-loop filter may be at least one of a deblocking filter, an offset compensation, and an ALF.
  • the decoder receives an ALF application indicator indicating whether to apply ALF from the encoder.
  • the decoder may determine whether to apply ALF by parsing an ALF application indicator adaptive_loop_filter_enabled_flag transmitted in a sequence parameter set, a picture parameter set, an adaptive parameter set, or a slice header in a bit stream.
  • the decoder may parse information, for example, whether to apply ALF to each of a luminance component and a chrominance component, or information about whether to apply ALF in a CU unit from a bit stream.
  • step S420 the decoder receives an ALF parameter from the encoder.
  • the decoder may parse the ALF parameter transmitted from the encoder.
  • the ALF parameter may include at least one of a filter shape, a filter coefficient, a filter classification method, a filter index, a filter prediction method, and a maximum filter depth.
  • the decoder may parse the bit stream to determine the filter shape and / or filter coefficients.
  • the number of filter coefficients may be one or more, and may be decoded by an exponential Golomb code of another order.
  • the filter coefficients may be predictively decoded by a method such as DPCM, and one filter coefficient may be predictively decoded from the sum of the other filter coefficients.
  • the filter may be differently selected using one of the RA method and the BA as the filter classification means. For example, by parsing the alf_region_adaptation_flag transmitted by the encoder, the filter may be classified by the RA method if '1', and the BA method if the filter is '0'.
  • the RA method any one of a plurality of filters may be selected per divided image region.
  • the BA method one of the plurality of filters may be selected in consideration of the amount of change and the direction of the pixels. Can be.
  • the filter index in the ALF parameter may be used to indicate which filter is selected.
  • the decoder may determine and apply the directionality only at the R (2,2) position in which all of the ALF-applied pixels and neighboring pixels are included in the screen.
  • the filter can be determined.
  • the ALF parameter may be determined based on encoding parameters of at least one or more blocks of a target block of ALF application or neighboring blocks of the target block.
  • the decoder applies ALF based on the ALF application indicator and the ALF parameter.
  • the decoder may apply ALF based on the ALF application indicator and the ALF parameter.
  • the ALF may be applied based on encoding parameters of at least one or more blocks of a target block of the ALF application or neighboring blocks of the target block.
  • the ALF may not be applied to the application target pixel of the ALF.
  • FIG. 12 shows an example of a filter shape used in the proposed image decoding method.
  • the ALF may not be applied to the target pixel. .
  • the invention can be implemented in hardware, software or a combination thereof.
  • an application specific integrated circuit ASIC
  • DSP digital signal processing
  • PLD programmable logic device
  • FPGA field programmable gate array
  • the module may be implemented as a module that performs the above-described function.
  • the software may be stored in a memory unit and executed by a processor.
  • the memory unit or processor may employ various means well known to those skilled in the art.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

제한된 오프셋 보상 및 루프 필터를 기반으로 하는 영상 부호화 및 복호화 방법 및 장치가 제공된다. 영상 복호화 장치는 시퀀스(sequence), 픽쳐(picture), 프레임(frame), 슬라이스(slice), 부호화 유닛(CU; coding unit), 예측 유닛(PU; prediction unit) 및 변환 유닛(TU; transform unit) 중 적어도 하나 이상이 제한된 오프셋 보상을 지원하는지 여부를 지시하는 제1 지시자를 부호화기로부터 수신하고, 제한된(constrained) 화소 적응적 오프셋(SAO; sample adaptive offset) 보상 또는 적응적 루프 필터(ALF; adaptive loop filter)의 적용 여부를 지시하는 제2 지시자를 상기 부호화기로부터 수신하고, 파라미터를 상기 부호화기로부터 수신하고, 상기 제2 지시자 및 상기 파라미터를 기반으로 복원된 영상의 화소에 SAO 보상 또는 ALF를 적용한다.

Description

제한된 오프셋 보상 및 루프 필터를 기반으로 하는 영상 부호화 및 복호화 방법 및 그 장치
본 발명은 디지털 영상에 관한 것으로, 보다 상세하게는 제한된 오프셋 보상 및 루프 필터를 기반으로 하는 영상 부호화 및 복호화 방법 및 그 장치에 관한 것이다.
최근 HD(High Definition) 해상도를 가지는 방송 서비스가 국내뿐만 아니라 세계적으로 확대되면서, 많은 사용자들이 고해상도, 고화질의 영상에 익숙해지고 있으며 이에 따라 많은 기관들이 차세대 영상기기에 대한 개발에 박차를 가하고 있다. 또한 HDTV와 더불어 HDTV의 4배 이상의 해상도를 갖는 UHD(Ultra High Definition)에 대한 관심이 증대되면서 보다 높은 해상도, 고화질의 영상에 대한 압축기술이 요구되고 있다.
영상 압축 기술에는 시간적으로 이전 및/또는 이후의 픽쳐로부터 현재 픽쳐에 포함된 화소값을 예측하는 인터(inter) 예측 기술, 현재 픽쳐 내의 화소 정보를 이용하여 현재 픽쳐에 포함된 화소값을 예측하는 인트라(intra) 예측 기술, 조명 변화 등에 의한 화질의 열화를 방지하기 위한 가중치 예측 기술, 출현 빈도가 높은 심볼(symbol)에 짧은 부호를 할당하고 출현 빈도가 낮은 심볼에 긴 부호를 할당하는 엔트로피 부호화 기술 등이 있다. 특히, 생략 모드(skip mode)에서 현재 블록에 대한 예측이 수행되는 경우, 이전 부호화된 영역으로부터 예측된 값만을 이용하여 예측 블록이 생성되고 별도의 움직임 정보(motion information)나 레지듀얼(residual) 신호가 부호화기로부터 복호화기로 전송되지 않는다. 이러한 영상 압축 기술들에 의해 영상 데이터가 효율적으로 압축될 수 있다.
영상 부호화 및 복호화 시에 원본 영상과 복원 영상 간의 차이를 최소화하기 위하여 보상(offset compensation) 또는 루프 필터(loop filter)가 적용될 수 있다. 오프셋 보상의 경우, 원본 영상과 복원 영상 간의 화소값의 오차를 계산하여 오프셋을 구하고, 이를 복원 영상에 적용하여 원본 영상과의 왜곡을 최소화할 수 있다. 루프 필터의 경우, 원본 영상과 복원 영상 간의 오차를 최소화하는 위너 필터(Wiener filter)에 기반한 필터 계수를 유도한 후 이를 복원 영상에 적용하여 원본 영상과의 왜곡을 최소화할 수 있다.
한편, 압축된 영상 비트 스트림(bit stream)이 에러가 발생하기 쉬운 네트워크 채널을 통해 전송될 수 있다. 그런데 종래의 오프셋 보상 또는 루프 필터는 압축된 영상 비트 스트림 내에서 에러가 발생하는 경우에 이에 대한 대응 방안이 없으므로 오프셋 보상 또는 루프 필터에 의해 에러가 시간적 또는 공간적으로 전파될 수 있다. 따라서 종래의 오프셋 보상 또는 루프 필터는 복원된 영상의 화질을 크게 저하시킬 수 있으며, 압축된 영상 비트 스트림의 복호화가 불가능할 수도 있다.
따라서, 에러에 강인한 오프셋 보상 또는 루프 필터의 적용이 요구된다.
본 발명의 기술적 과제는 제한된 오프셋 보상 및 필터링을 기반으로 하는 영상 부호화 및 복호화 방법 및 그 장치를 제공하는 데에 있다. 본 발명은 화소 적응적 오프셋 보상 또는 루프 필터 대상 블록과 주변 블록 중 적어도 하나 이상의 블록의 부호화 파라미터를 이용하여 영상 부호화 및 복호화 시에 오프셋 보상 또는 루프 필터의 적용을 제한하는 방법을 제공한다.
일 양태에 있어서, 영상 복호화 방법이 제공된다. 상기 영상 복호화 방법은 시퀀스(sequence), 픽쳐(picture), 프레임(frame), 슬라이스(slice), 부호화 유닛(CU; coding unit), 예측 유닛(PU; prediction unit) 및 변환 유닛(TU; transform unit) 중 적어도 하나 이상이 제한된 오프셋 보상을 지원하는지 여부를 지시하는 제한된 오프셋 보상 지시자를 부호화기로부터 수신하는 단계, 화소 적응적 오프셋(SAO; sample adaptive offset) 보상의 수행 여부를 지시하는 SAO 보상 지시자를 상기 부호화기로부터 수신하는 단계, SAO 파라미터를 상기 부호화기로부터 수신하는 단계, 및 상기 SAO 보상 지시자 및 상기 SAO 파라미터를 기반으로 복원된 영상의 화소에 화소 적응적 오프셋 보상을 수행하는 단계를 포함한다.
다른 양태에 있어서, 영상 복호화 방법이 제공된다. 상기 영상 복호화 방법은 시퀀스(sequence), 픽쳐(picture), 프레임(frame), 슬라이스(slice), 부호화 유닛(CU; coding unit), 예측 유닛(PU; prediction unit) 및 변환 유닛(TU; transform unit) 중 적어도 하나 이상이 제한된 오프셋 보상을 지원하는지 여부를 지시하는 제한된 오프셋 보상 지시자를 복호화기로 전송하는 단계, 화소 적응적 오프셋(SAO; sample adaptive offset) 보상의 수행 여부를 지시하는 SAO 보상 지시자를 상기 복호화기로 전송하는 단계, SAO 파라미터를 상기 복호화기로 전송하는 단계, 및 상기 SAO 보상 지시자 및 상기 SAO 파라미터를 기반으로 복원된 영상의 화소에 화소 적응적 오프셋 보상을 수행하는 단계를 포함한다.
또 다른 양태에 있어서, 영상 부호화 방법이 제공된다. 상기 영상 부호화 방법은 시퀀스(sequence), 픽쳐(picture), 프레임(frame), 슬라이스(slice), 부호화 유닛(CU; coding unit), 예측 유닛(PU; prediction unit) 및 변환 유닛(TU; transform unit) 중 적어도 하나 이상이 제한된 루프 필터의 적용을 지원하는지 여부를 지시하는 제한된 루프 필터 지시자를 복호화기로 전송하는 단계, 적응적 루프 필터(ALF; adaptive loop filter)의 적용 여부를 지시하는 ALF 적용 지시자를 상기 복호화기로 전송하는 단계, ALF 파라미터를 상기 복호화기로 전송하는 단계, 및 상기 ALF 적용 지시자 및 상기 ALF 파라미터를 기반으로 복원된 영상의 화소에 ALF를 적용하는 단계를 포함한다.
영상 부호화 및 복호화 시에 에러에 강인하도록 오프셋 보상 또는 루프 필터를 적용할 수 있다.
도 1은 영상 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 2는 영상 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 3은 제안된 영상 부호화 방법의 일 실시예를 나타낸다.
도 4는 각도에 따라 결정되는 에지 오프셋의 타입을 나타낸다.
도 5는 제안된 영상 부호화 방법에서 부호화 파라미터를 이용하여 에지 오프셋 타입에서 오프셋 종류가 결정되는 경우를 나타낸다.
도 6은 제안된 영상 복호화 방법의 일 실시예를 나타낸다.
도 7은 제안된 영상 부호화 방법의 또 다른 실시예를 나타낸다.
도 8은 제안된 영상 부호화 방법에서 부호화기가 결정하는 필터 모양의 일 예를 나타낸다.
도 9는 제안된 영상 부호화 방법에서 부호화 파라미터를 이용하여 BA 방법을 기반으로 필터를 분류하는 경우를 나타낸다.
도 10은 제안된 영상 부호화 방법에서 부호화 파라미터를 이용하여 ALF를 적용하는 경우의 일 예를 나타낸다.
도 11은 제안된 영상 복호화 방법의 일 실시예를 나타낸다.
도 12는 제안된 영상 복호화 방법에서 사용되는 필터 모양의 일 예를 나타낸다.
이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
어떤 구성 요소가 다른 구성 요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 아울러, 본 발명에서 특정 구성을 “포함”한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
또한 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.
도 1은 본 발명의 일 실시예에 따른 영상 부호화 장치를 나타내는 블록도이다.
도 1을 참조하면, 상기 영상 부호화 장치(100)는 움직임 예측부(110), 움직임 보상부(115), 인트라 예측부(120), 감산기(125), 변환부(130), 양자화부(135), 엔트로피 부호화부(140), 역양자화부(145), 역변환부(150), 가산기(155), 필터부(160 및 참조영상 버퍼(165)를 포함한다.
영상 부호화 장치(100)는 입력 영상에 대해 인트라(intra) 모드 또는 인터(inter) 모드로 부호화를 수행하고 비트 스트림(bit stream)을 출력할 수 있다. 인트라 모드인 경우에는 인트라 예측부(120)에서 예측이 수행되고, 인터 모드의 경우에는 움직임 예측부(110), 움직임 보상부(115) 등을 통해서 예측이 수행될 수 있다. 영상 부호화 장치(100)는 입력 영상의 입력 블록에 대한 예측 블록을 생성한 후, 입력 블록과 예측 블록의 차분을 부호화할 수 있다.
인트라 모드인 경우, 인트라 예측부(120)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성할 수 있다.
인터 모드인 경우, 움직임 예측부(110)는, 움직임 예측 과정에서 참조 영상 버퍼(170)에 저장되어 있는 참조 영상에서 입력 블록과 가장 매치가 잘 되는 영역을 찾아 움직임 벡터를 구할 수 있다. 움직임 보상부(115)는 움직임 벡터와 참조 영상 버퍼(165)에 저장되어 있는 참조 영상을 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다.
감산기(125)는 입력 블록과 생성된 예측 블록의 차분에 의해 레지듀얼 블록(residual block)을 생성할 수 있다. 변환부(130)는 레지듀얼 블록에 대해 변환을 수행하여 변환 계수(transform coefficient)를 출력할 수 있다. 레지듀얼 신호는 원신호와 예측 신호의 차이를 의미할 수 있고, 또한 원신호와 예측 신호의 차이가 변환된 형태의 신호 또는 원신호와 예측 신호의 차이가 변환되고 양자화된 형태의 신호를 의미할 수도 있다. 레지듀얼 신호를 블록 단위에서는 레지듀얼 블록이라 할 수 있다.
양자화부(135)는 변환 계수를 양자화 파라미터에 따라 양자화한 양자화 계수(quantized coefficient)를 출력할 수 있다.
엔트로피 부호화부(140)는, 양자화부(135)에서 산출된 값들 또는 부호화 과정에서 산출된 부호화 파라미터 값 등에 대응하는 심벌을 확률 분포에 따라 엔트로피 부호화하여 비트 스트림을 출력할 수 있다.
엔트로피 부호화가 적용되는 경우, 높은 발생 확률을 갖는 심볼에 적은 수의 비트가 할당되고 낮은 발생 확률을 갖는 심볼에 많은 수의 비트가 할당되도록 함으로써 영상 부호화의 압축 성능을 높일 수 있다.
엔트로피 부호화를 위해 CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding) 등과 같은 부호화 방법이 사용될 수 있다. 예를 들어, 엔트로피 부호화부(140)에는 가변 길이 부호화(VLC; Variable Lenghth Coding/Code) 테이블을 사용하여 엔트로피 부호화를 수행할 수 있다. 엔트로피 부호화부(145)는 대상 심볼의 이진화(binarization) 방법 및 대상 심볼/빈(bin)의 확률 모델(probability model)을 도출한 후, 도출된 이진화 방법 또는 확률 모델을 사용하여 엔트로피 부호화를 수행할 수도 있다.
양자화된 계수는 역양자화부(145)에서 역양자화되고 역변환부(150)에서 역변환될 수 있다. 가산기(155)는 예측 블록과 역변환된 양자화 계수를 이용하여 복원 블록을 생성할 수 있다.
필터부(160)는 디블록킹 필터(deblocking filter), SAO(Sample Adaptive Offset), ALF(Adaptive Loop Filter) 중 적어도 하나 이상을 복원 블록 또는 복원 픽쳐에 적용할 수 있다. 필터부(160)를 거친 복원 블록은 참조 영상 버퍼(165)에 저장될 수 있다.
도 2는 본 발명의 일 실시예에 따른 영상 복호화 장치를 나타내는 블록도이다.
도 2를 참조하면, 상기 영상 복호화 장치(200)는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 필터부(260), 참조 영상 버퍼(270) 및 가산기(280)를 포함한다.
영상 복호화 장치(200)는 부호화기에서 출력된 비트 스트림을 입력 받아 인트라 모드 또는 인터 모드로 복호화를 수행하고 재구성된 영상, 즉 복원 영상을 출력할 수 있다. 인트라 모드인 경우에는 인트라 예측부(240)에서 예측이 수행되고, 인터 모드인 경우에는 움직임 보상부(250)를 통해서 예측이 수행될 수 있다. 영상 복호화 장치(200)는 입력 받은 비트 스트림으로부터 복원된 레지듀얼 블록을 얻고 예측 블록을 생성한 후 복원된 레지듀얼 블록과 예측 블록을 더하여 재구성된 블록, 즉 복원 블록을 생성할 수 있다.
엔트로피 복호화부(210)는, 입력된 비트 스트림을 확률 분포에 따라 엔트로피 복호화하여 양자화된 계수(quantized coefficient) 형태의 심볼들을 생성할 수 있다. 엔트로피 복호화 방법은 상술한 엔트로피 부호화 방법에 대응하여 수행될 수 있다.
양자화된 계수는 역양자화부(220)에서 역양자화되고 역변환부(230)에서 역변환되며, 양자화된 계수가 역양자화/역변환 된 결과 레지듀얼 블록이 생성될 수 있다.
인트라 모드인 경우, 인트라 예측부(240)는 현재 블록 주변의 이미 부호화된 블록의 화소값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성할 수 있다. 인터 모드인 경우, 움직임 보상부(250)는 움직임 벡터 및 참조 영상 버퍼(270)에 저장되어 있는 참조 영상을 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다.
가산기(280)는 레지듀얼 블록과 예측 블록을 기반으로 복원 블록을 생성할 수 있다. 필터부(260)는 디블록킹 필터, SAO, ALF 중 적어도 하나 이상을 복원 블록에 적용할 수 있다. 필터부(260)는 재구성된 영상, 즉 복원 영상을 출력한다. 복원 영상은 참조 영상 버퍼(270)에 저장되어 화면 간 예측에 사용될 수 있다.
제한된 인트라 예측(CIP; constrained intra prediction)은 영상 부호화 또는 영상 복호화 시에 에러에 강인(robust)하게 하기 위한 기술이다. CIP 기술은 인트라 예측 시에 사용되는 예측 대상 블록의 주변의 복원된 화소 영역이 화면 간 부호화된 경우에는 상기 주변의 복원된 화소 영역을 이용하지 않고, 상기 예측 대상 블록의 주변의 복원된 화소 영역이 인트라 부호화된 경우에는 복원된 주변의 화소들을 이용하여 보간법(interpolation) 또는 외삽법(extrapolation)에 의하여 참조 화소를 생성한다. 생성된 참조 화소들을 기반으로 인트라 예측이 수행될 수 있다. 따라서, 주변의 인터 부호화된 블록이 참조하는 픽쳐(picture)가 손실되어도 예측 대상 블록에는 영향을 주지 않을 수 있다. 그러나 종래의 디블록킹 필터링 과정에서는 상기 제한된 인트라 예측의 적용 여부 또는 부호화 파라미터에 관계 없이 복원된 영상에 항상 필터링을 수행하므로, 복원된 영상 내의 에러가 발생하지 않은 영역으로 전파될 수 있다. 예를 들어, 인터 부호화된 블록에서 발생한 에러가 인트라 부호화된 블록으로 전파될 수 있다. 따라서, 종래의 디블록킹 필터링 과정은 복원된 영상의 주관적 화질을 크게 저하시킬 수 있는 문제점을 가지고 있다.
위와 같은 문제점을 해결하기 위하여, 제한된 화소 적응적 오프셋(SAO; sample adaptive offset) 보상 또는 적응적 루프 필터(ALF; adaptive loop filter)의 적용 여부를 지시하는 플래그를 전송하는 방법이 제안될 수 있다. 전송된 플래그에 따라 화소 적응적 오프셋 보상 또는 적응적 루프 필터를 제한적으로 적용하는 것으로 결정된 경우, 현재 블록과 주변 블록의 부호화 파라미터에 따라 화소 적응적 오프셋 보상 또는 적응적 루프 필터가 제한적으로 적용될 수 있다. 이에 따라 인터 부호화 된 블록을 정상적으로 복원할 수 없는 경우에도 인트라 부호화된 블록은 정상적으로 복호화 할 수 있다. 즉, 인터 부호화된 블록의 에러가 인트라 부호화된 블록으로 전파되는 것을 방지할 수 있으며, 인트라 부호화 된 블록의 복원 결과가 부호화기와 복호화기에서 동일하게 유지될 수 있다.
이하, 실시예를 통해 제안되는 영상 부호화 및 복호화 방법을 설명하도록 한다. 먼저, 제한된 화소 적응적 오프셋 보상을 기반으로 하는 영상 부호화 및 복호화 방법을 설명하도록 한다. 화소 적응적 오프셋 보상은 인루프 필터링(in-loop filtering)에 포함될 수 있으며, 인루프 필터링은 화소 적응적 오프셋 보상 외에 디블록킹 필터(deblocking filter)를 포함할 수 있다.
도 3은 제안된 영상 부호화 방법의 일 실시예를 나타낸다.
단계 S100에서 부호화기는 제한된 오프셋 보상 지시자(indicator)를 복호화기로 전송한다. 단계 S110에서 부호화기는 화소 적응적 오프셋(SAO; sample adaptive offset) 보상의 수행 여부를 지시하는 SAO 보상 지시자를 복호화기로 전송한다. 단계 S120에서 부호화기는 SAO 파라미터를 복호화기로 전송한다. 단계 S130에서 부호화기는 SAO 보상 지시자 및 SAO 파라미터를 기반으로 복원된 영상에 대하여 화소 적응적 오프셋 보상을 수행한다.
단계 S100에서 전송되는 제한된 오프셋 보상 지시자에 대해서 설명한다.
복호화기는 부호화기로부터 전송되는 제한된 오프셋 보상 지시자에 의하여 부호화 대상 시퀀스(sequence), 픽쳐(picture), 프레임(frame), 필드(field), 슬라이스(slice), 부호화 유닛(CU; coding unit), 예측 유닛(PU; prediction unit) 또는 변환 유닛(TU; transform unit) 중 적어도 하나 이상이 제한된 오프셋 보상을 지원하는지 여부를 판단할 수 있다.
부호화기는 제한된 오프셋 보상 지시자를 비트 스트림에 삽입하여 복호화기로 전송할 수 있다. 제한된 오프셋 보상 지시자는 산술 부호화(arithmetic coding) 또는 가변 길이 부호화(VLC; variable length coding) 등의 엔트로피 부호화(entropy coding) 과정을 통해 비트 스트림에 삽입될 수 있다. 제한된 오프셋 보상 지시자는 비트 스트림 내의 시퀀스 파라미터 세트(SPS; sequence parameter set), 픽쳐 파라미터 세트(PPS; picture parameter set), 적응 파라미터 세트(APS; adaptation parameter set) 또는 슬라이스 헤더(slice header) 등을 이용하여 전송될 수 있다. 복호화기는 엔트로피 복호화(entropy decoding) 과정에 의하여 비트 스트림을 파싱(parsing)하여 전송되는 제한된 오프셋 보상 지시자를 얻을 수 있다.
표 1은 비트 스트림에 삽입되는 제한된 오프셋 보상 지시자의 일 예를 나타낸다. 표 1에서 오프셋 보상 지시자는 시퀀스 파라미터 세트에 삽입된다.
seq_parameter_set_rbsp() { Descriptor
...
seq_parameter_set_id ue(v)
pic_width_in_luma_samples u(16)
pic_height_in_luma_samples u(16)
constrained_intra_pred_flag u(1)
constrained_offset_flag u(1)
...
}
표 1에서 constrained_offset_flag가 제한된 오프셋 보상 지시자를 나타낸다. constrained_offset_flag의 값이 0이면 제한된 오프셋 보상을 지원하지 않고, constrained_offset_flag의 값이 1이면 제한된 오프셋 보상을 지원하는 것을 지시할 수 있다. 또는, 에러에 강인한 화면 내 예측을 위한 파라미터인 constrained_intra_pred_flag의 값이 1이면 별도의 오프셋 보상 지시자의 삽입 없이 제한된 오프셋 보상을 지원하는 것을 지시할 수 있다.
표 2는 비트 스트림에 삽입되는 제한된 오프셋 보상 지시자의 또 다른 예를 나타낸다. 표 2에서 제한된 오프셋 보상 지시자는 픽쳐 파라미터 세트에 삽입된다.
pic_parameter_set_rbsp() { Descriptor
...
pic_parameter_set_id ue(v)
seq_parameter_set_id ue(v)
constrained_offset_flag u(1)
...
}
표 2에서 constrained_offset_flag가 제한된 오프셋 보상 지시자를 나타낸다. constrained_offset_flag의 값이 0이면 제한된 오프셋 보상을 지원하지 않고, constrained_offset_flag의 값이 1이면 제한된 오프셋 보상을 지원하는 것을 지시할 수 있다.
표 3은 비트 스트림에 삽입되는 제한된 오프셋 보상 지시자의 또 다른 예를 나타낸다. 표 3에서 제한된 오프셋 보상 지시자는 픽쳐 파라미터 세트에 삽입된다.
pic_parameter_set_rbsp() { Descriptor
...
pic_parameter_set_id ue(v)
seq_parameter_set_id ue(v)
loop_filter_across_tiles_enabled_flag u(1)
loop_filter_across_slices_enabled_flag u(1)
...
}
표 3에서 loop_filter_across_tiles_enabled_flag 또는 loop_filter_across_slices_enabled_flag가 제한된 오프셋 보상 지시자를 나타낸다. loop_filter_across_tiles_enabled_flag의 값이 0이면 제한된 오프셋 보상을 지원하는 것을 지시할 수 있다. 또는, loop_filter_across_slices_enabled_flag의 값이 0이면 제한된 오프셋 보상을 지원하는 것을 지시할 수 있다.
또는, 별도의 오프셋 보상 지시자의 삽입 없이 부호화기와 복호화기에서 항상 제한된 오프셋 보상을 지원하도록 할 수 있다.
한편, 제한된 오프셋 보상 지시자가 1로 설정되어 부호화기가 제한된 오프셋 보상을 수행하게 되는 경우, 부호화기는 부호화 파라미터를 이용할 수 있다. 부호화 파라미터는 화면 내(intra) 부호화되었는지 화면 간(inter) 부호화 되었는지를 나타내는 부호화 모드(coding mode), 화면 내 예측 모드(intra prediction mode), 화면 간 예측 모드(inter prediction mode), 부호화 블록 플래그(CBF; coded block flag), 양자화 매개 변수(quantization parameter), 움직임 벡터(motion vector), 움직임 벡터 예측기(motion vector predictor), 참조 영상 색인(reference picture index), 슬라이스/타일 경계(slice/tile boundary) 여부 중 적어도 하나 이상을 포함한다.
예를 들어, 부호화 파라미터는 타일의 경계를 포함하고, 제한된 오프셋 보상 지시자의 값이 0이면 오프셋 보상이 타일 경계를 넘어서 수행되지 않도록 제한될 수 있다. 이때 제한된 오프셋 보상 지시자는 가 표 3의 loop_filter_across_tiles_enabled_flag일 수 있다. 타일의 경계는 타일의 식별자(ID; identifier)를 기반으로 결정될 수 있다. 또는, 부호화 파라미터는 슬라이스의 경계를 포함하고, 제한된 오프셋 보상 지시자의 값이 0이면 오프셋 보상이 슬라이스 경계를 넘어서 수행되지 않도록 제한될 수 있다. 이때 제한된 오프셋 보상 지시자는 표 3의 loop_filter_across_slices_enabled_flag일 수 있다. 슬라이스의 경계는 슬라이스의 식별자를 기반으로 결정될 수 있다.
예를 들어 부호화 파라미터를 이용하여 제한된 오프셋 보상의 적용 대상 블록 또는 주변 블록들이 화면 내 부호화 되었는지 또는 화면 간 부호화 되었는지가 판단될 수 있다. 이때 어느 블록이 화면 내 부호화 되었다면 해당 블록을 화면 내 모드(intra mode)로 부호화 되었다고 할 수 있고, 어느 블록이 화면 간 부호화 되었다면 해당 블록을 화면 간 모드(inter mode)로 부호화 되었다고 할 수 있다. 또한 예를 들어 블록이 PCM(pulse coded modulation) 모드로 부호화 되었다면, 해당 블록은 화면 내 부호화 되었다고 판단될 수 있다.
부호화기가 부호화 파라미터를 이용하여 제한된 오프셋 보상을 수행하는 경우, 부호화 파라미터에 따라 신뢰성 정도를 결정하고, 결정된 신뢰성 정도를 제한된 오프셋 보상 수행 시에 적용할 수 있다. 예를 들어 표 4와 같이 각 부호화 파라미터에 따라 신뢰성 정도를 판단할 수 있으며, 하나 이상의 부호화 파라미터의 조합에 따라 신뢰성 정도를 판단할 수도 있다.
부호화 파라미터 신뢰성 강함 신뢰성 약함
부호화 모드 화면 내 화면 간
부호화 블록 플래그 CBF≠0 CBF=0
양자화 매개변수 QP<특정 QP QP>특정 QP
화면간 모드 스킵(skip) 모드가 아님 스킵 모드임
슬라이스/타일 경계 경계 내 경계 밖
표 4를 참조하면, 화면 내로 부호화된 블록은 현재 슬라이스 내에서 예측이 수행되므로 신뢰성이 강하다고 판단할 수 있고, 화면 간으로 부호화된 블록은 이전 슬라이스를 통해서 예측이 수행되므로 신뢰성이 약하다고 판단할 수 있다. 또한, CBF=0이거나 화면 간 모드가 스킵 모드인 경우 잔여 신호(residual signal)가 존재하지 않으므로, 다른 블록과 비교했을 때 상대적으로 왜곡이 크며 신뢰성이 약하다고 판단할 수 있다. 또한, 슬라이스/타일 경계 내에 있는 블록은 신뢰성이 강하다고 판단할 수 있고, 경계 밖에 있는 블록은 신뢰성이 약하다고 판단할 수 있다. 표 3에서 제한된 오프셋 보상 지시자인 loop_filter_across_tiles_enabled_flag 또는 loop_filter_across_slices_enabled_flag의 값이 0인 경우, 신뢰성 약한 경계 밖은 허용되지 않을 수 있다.
제한된 오프셋 보상이 수행되는 경우, 특히 화소 적응적 오프셋 보상이 수행될 수 있다. 부호화기는 원본 영상과 복원 영상 간의 화소 값 오차를 계산하여 오프셋을 구하고 이를 복원 영상에 적용하여 원본 영상과의 왜곡을 최소화 함으로써 성능을 향상시킬 수 있다.
단계 S110에서 전송되는 SAO 보상 지시자는 시퀀스 파라미터 세트, 픽쳐 파라미터 세트, 적응 파라미터 세트 또는 슬라이스 헤더 등에 포함되어 전송될 수 있다. SAO 보상 지시자는 sample_adaptive_offset_enabled_flag일 수 있다. 또한, 휘도 성분과 색차 성분에 대하여 화소 적응적 오프셋 보상을 수행할지 여부를 각각의 비트 스트림에 포함하여 시그널링 할 수 있다.
단계 S120에서 전송되는 SAO 파라미터에 대해서 설명한다.
SAO 파라미터는 오프셋 보상 블록 구조, 쿼드트리 깊이, 오프셋 타입(type), 오프셋 종류(category) 및 오프셋 값 중 적어도 하나 이상을 포함할 수 있다. SAO 파라미터는 비트 스트림 내에 오프셋 보상 블록 구조를 포함할 수 있다. SAO 파라미터 내에 오프셋 보상 블록 구조는 sao_split_flag일 수 있다. 이때 하나의 슬라이스를 쿼드트리(quadtree)로 분할하여 오프셋 보상 블록 구조에 대한 정보를 시그널링 할 수 있다. 또한, 쿼드트리로 분할하는 깊이(depth)에 대한 정보도 비트 스트림에 포함될 수 있으며, 분할되는 영역의 최소 단위는 LCU(largest coding unit)일 수 있다.
또는, SAO 파라미터는 오프셋 타입, 오프셋 종류, 오프셋 부호(sign) 및 오프셋 값을 포함할 수 있다. 표 5는 화소 적응적 오프셋 보상에서 오프셋 타입 및 이에 따른 오프셋 종류의 개수를 나타낸다.
오프셋 타입 인덱스 오프셋 타입 오프셋 종류 개수
0 오프셋 수행 안 함 0
1 에지
오프셋
1차원 0도 형식 에지 오프셋 4
2 1차원 90도 형식 에지 오프셋 4
3 1차원 135도 형식 에지 오프셋 4
4 1차원 45도 형식 에지 오프셋 4
5 밴드
오프셋
중앙 밴드 오프셋 16
6 측면 밴드 오프셋 16
표 5를 참조하면, 오프셋 타입의 개수는 총 7개일 수 있다. 그러나 표 5의 오프셋 타입은 예시에 불과하며, 오프셋 타입의 개수는 달라질 수 있다. 각 오프셋 타입은 서로 다른 개수와 서로 다른 오프셋 값을 가질 수 있다. 에지 오프셋(EO; edge offset)은 각도에 따라 4개의 오프셋 타입으로 분류될 수 있다. 에지 오프셋에서 각 오프셋 타입은 조건(condition)에 의하여 4개의 오프셋 종류를 가질 수 있다. 에지 오프셋에서 오프셋 종류 및 오프셋 부호는 오프셋 보상 대상 화소와 주변 화소들을 비교하여 결정될 수 있다. 즉, 에지 오프셋의 경우 오프셋 종류 및 오프셋 부호는 추가적인 시그널링 없이 복호화기가 판별할 수 있다. 밴드 오프셋(BO; band offset)은 밴드의 위치에 따라 2개의 오프셋 타입으로 분류될 수 있으며, 각각 16개의 오프셋 종류를 가질 수 있다. 밴드 오프셋에서 오프셋 종류는 오프셋 보상 대상 화소가 가질 수 있는 화소 값의 범위를 16개 구간으로 나눈 뒤 나눠진 구간 중 어디에 해당하는지에 따라 결정될 수 있다. 결정된 오프셋 타입에 따라 오프셋 타입 인덱스가 부호화되어 복호화기로 시그널링 될 수 있고, 오프셋 종류 및 오프셋 부호는 시그널링 없이 부호화기와 복호화기에서 각각 조건에 의하여 분류될 수 있다. 결정된 오프셋 종류 및 오프셋 부호는 각각 파싱된 오프셋 값에 대응될 수 있다. 오프셋 타입이 에지 오프셋으로 결정된 경우 4개의 오프셋 값이 복호화기로 시그널링 될 수 있고, 밴드 오프셋으로 결정된 경우 16개의 오프셋 값이 복호화기로 시그널링 될 수 있다.
한편, SAO 파라미터는 화소 적응적 오프셋 보상의 대상 블록 또는 대상 블록의 주변 블록 중 적어도 하나 이상의 블록의 부호화 파라미터를 기반으로 결정될 수 있다. 예를 들어 에지 오프셋 타입에서 오프셋 종류를 결정함에 있어서, 화소 적응적 오프셋 보상의 대상 블록과 주변 블록 중 적어도 하나 이상의 블록의 부호화 파라미터를 이용할 수 있다. 예를 들어, 부호화 파라미터는 타일의 경계를 포함하고, 타일의 경계는 타일의 식별자를 기반으로 결정될 수 있다. 또는, 부호화 파라미터는 슬라이스의 경계를 포함하고, 슬라이스의 경계는 슬라이스의 식별자를 기반으로 결정될 수 있다.
도 4는 각도에 따라 결정되는 에지 오프셋의 타입을 나타낸다. 에지 오프셋은 각도에 따라 4개의 오프셋 타입으로 분류될 수 있다. 도 4에서 C는 화소 적응적 오프셋 보상의 대상 화소를 나타내며, N은 주변 화소를 나타낸다.
도 5는 제안된 영상 부호화 방법에서 부호화 파라미터를 이용하여 에지 오프셋 타입에서 오프셋 종류 및 오프셋 부호가 결정되는 경우를 나타낸다.
도 5를 참조하면, 화소 적응적 오프셋 보상의 대상 블록과 좌측 블록이 화면 내로 부호화 되며, 대상 블록과 상위 블록은 화면 간 부호화 된다. 즉, 도 5에서 C와 N1은 화면 내 블록 화소가 되고, N2는 화면 간 블록 화소가 된다. 표 6은 오프셋 종류가 결정되는 조건을 나타내며, N은 N1 또는 N2가 될 수 있다. 상기 오프셋 종류가 1 또는 2로 결정된 경우 오프셋 부호는 양수가 될 수 있고, 상기 오프셋 종류가 3 또는 4로 결정된 경우 오프셋 부호는 음수가 될 수 있다.
오프셋 종류 조건
1 C가 2개의 N보다 작다
2 C가 하나의 N보다 작고, 다른 하나의 N과 같다
3 C가 하나의 N보다 크고, 다른 하나의 N과 같다
4 C가 2개의 N보다 크다
0 위의 조건에 해당되지 않는다
화소 적응적 오프셋 보상의 대상 화소가 화면 내로 부호화된 블록에 포함되고 화면 간으로 부호화된 주변 블록의 화소에 에러가 발생한 경우를 가정한다. 이때 오프셋 종류를 결정함에 있어서, 주변 블록들 중 화면 간으로 부호화된 블록의 화소들은 사용하지 않고, 대상 블록 내의 화면 내로 부호화된 화소들만을 이용하여 오프셋 종류를 결정할 수 있다. 이는 화면 내로 부호화된 블록의 화소로 에러가 전파되는 것을 방지하기 위함이다. 또는, 오프셋 종류를 결정함에 있어서 주변 블록들 중 화면 간으로 부호화된 블록의 화소들은 사용하지 않고, 화면 간으로 부호화된 블록의 화소들을 화면 내로 부호화된 블록의 화소들로 대체하여 오프셋 종류를 결정할 수 있다. 예를 들어, 도 5에서 N2의 화소값을 D의 화소값으로 대체하여 오프셋 종류를 결정할 수 있다. 또는, 오프셋 종류를 결정하지 않을 수도 있다.
부호화기는 SAO 보상 지시자 및 SAO 파라미터를 기반으로 계산된 오프셋 값을 화소 값에 더하여 오프셋 보상된 화소 값을 복원할 수 있다. 복호화기는 각 오프셋 값을 복호화한 후, 각 블록 내의 화소마다 조건에 의해 분류되는 오프셋 종류에 대응되는 오프셋 값을 이용하여 화소 적응적 오프셋 보상을 수행할 수 있다.
화소 적응적 오프셋 보상은 화소 적응적 오프셋 보상의 대상 블록 또는 대상 블록의 주변 블록 중 적어도 하나 이상의 블록의 부호화 파라미터를 기반으로 수행될 수 있다. 부호화 파라미터는 타일의 경계를 포함하고, 화소 적응적 오프셋 보상은 타일의 경계를 기반으로 수행될 수 있다. 예를 들어, 화소 적응적 오프셋 보상이 타일의 경계를 넘어서 수행되지 않을 수 있다. 또는, 부호화 파라미터는 슬라이스의 경계를 포함하고, 화소 적응적 오프셋 보상은 슬라이스의 경계를 기반으로 수행될 수 있다. 화소 적응적 오프셋 보상이 슬라이스의 경계를 넘어서 수행되지 않을 수 있다.
또는, 화소 적응적 오프셋 보상의 대상 화소가 화면 내로 부호화된 블록에 포함되고 화면 간으로 부호화된 주변 블록의 화소에 에러가 발생한 경우를 가정하면, 주변 블록들 중 화면 간으로 부호화된 블록의 화소들은 사용하지 않고, 대상 블록 내의 화면 내로 부호화된 화소들만을 이용하여 화소 적응적 오프셋 보상을 수행할 수 있다. 이는 화면 내로 부호화된 블록의 화소로 에러가 전파되는 것을 방지하기 위함이다. 또는, 주변 블록들 중 화면 간으로 부호화된 블록의 화소들은 사용하지 않고, 화면 간으로 부호화된 블록의 화소들을 화면 내로 부호화된 블록의 화소들로 대체하여 화소 적응적 오프셋 보상을 수행할 수 있다. 또는, 화소 적응적 오프셋 보상을 수행하지 않을 수도 있다.
이상의 과정을 종합하면, 부호화기는 하나의 슬라이스를 쿼드트리 구조의 다양한 블록의 크기로 분할하고, 각 블록마다 에지 오프셋 또는 밴드 오프셋 중에서 최적의 타입을 율-왜곡 최적화(RDO; rate-distortion optimization)을 이용하고 결정하고, 결정된 최적의 타입에 대해서 오프셋 종류 및 오프셋 값을 결정할 수 있다. 이와 같은 SAO 파라미터는 엔트로피 부호화 되어 복호화기로 전송될 수 있다.
지금까지 설명한 제한된 오프셋 보상을 기반으로 하는 영상 부호화 방법은 영상 복호화 방법에도 그대로 적용될 수 있다. 즉, 복호화기는 부호화기로부터 전송되는 제한된 오프셋 보상 지시자, SAO 보상 지시자, SAO 파라미터 등을 수신하여 파싱하고, 이를 기반으로 화소 적응적 오프셋 보상을 수행한다.
도 6은 제안된 영상 복호화 방법의 일 실시예를 나타낸다.
단계 S200에서 복호화기는 제한된 오프셋 보상 지시자를 부호화기로부터 수신한다. 표 7은 픽쳐 파라미터 세트에 삽입된 제한된 오프셋 보상 지시자의 일 예를 나타낸다.
pic_parameter_set_rbsp() { Descriptor
pic_parameter_set_id ue(v)
seq_parameter_set_id ue(v)
….
constrained_intra_pred_flag u(1)
if (constrained_intra_pred_flag )
constrained_in_loop_filter_flag u(1)
….
표 7에서 constrained_intra_pred_flag의 값이 1인 경우, 즉 제한된 인트라 예측이 수행되는 경우, 복호화기는 constrained_in_loop_filter_flag를 파싱하여 제한된 인루프 필터의 적용 여부를 결정할 수 있다. constrained_in_loop_filter_flag의 값이 1이면 제한된 인루프 필터를 적용하는 것을 지시할 수 있고, constrained_in_loop_filter_flag의 값이 0이면 제한된 인루프 필터를 적용하지 않는 것을 지시할 수 있다. 제한된 인루프 필터의 적용 대상은 디블록킹 필터, 오프셋 보상, ALF 중 적어도 하나 이상일 수 있다.
단계 S210에서 복호화기는 SAO 보상의 수행 여부를 지시하는 SAO 보상 지시자를 부호화기로부터 수신한다. 복호화기는 비트 스트림 내의 시퀀스 파라미터 세트, 픽쳐 파라미터 세트, 적응 파라미터 세트 또는 슬라이스 헤더 등에 포함되어 전송되는 SAO 보상 지시자 sample_adaptive_offset_enabled_flag를 파싱하여 SAO 보상의 수행 여부를 결정할 수 있다. 또한, 복호화기는 휘도 성분과 색차 성분 각각에 SAO 보상의 수행 여부를 결정하는 정보를 비트 스트림으로부터 파싱할 수 있다.
단계 S220에서 복호화기는 SAO 파라미터를 부호화기로부터 수신한다. 복호화기는 부호화기로부터 전송되는 SAO 파라미터를 파싱할 수 있다. 예를 들어, SAO 파라미터가 비트 스트림 내에 오프셋 보상 블록 구조에 대한 정보인 sao_split_flag를 포함하는 경우, 복호화기는 이를 파싱하여 화소 적응적 오프셋 보상을 수행할 블록의 구조를 결정할 수 있다. 또한, 복호화기는 비트 스트림에 포함된 쿼드트리로 분할하는 깊이에 대한 정보도 파싱할 수 있다.
SAO 파라미터가 오프셋 타입과 오프셋 종류를 포함하는 경우, 오프셋 타입 및 그에 따른 오프셋 종류는 앞에서 설명한 표 5를 따를 수 있다. 오프셋 타입의 개수는 총 7개일 수 있다. 각 오프셋 타입은 서로 다른 개수와 서로 다른 오프셋 값을 가질 수 있다. 오프셋 타입이 에지 오프셋으로 결정된 경우 복호화기는 4개의 오프셋 값을 비트 스트림으로부터 파싱할 수 있고, 밴드 오프셋으로 결정된 경우 16개의 오프셋 값을 비트 스트림으로부터 파싱할 수 있다. 또한, 각 오프셋 타입에 따른 오프셋 종류는 각각 파싱된 오프셋 값에 대응될 수 있다. 예를 들어, 에지 오프셋에서 오프셋 종류 및 오프셋 부호는 오프셋 보상 대상 화소와 주변 화소들을 비교하여 결정될 수 있고, 밴드 오프셋에서 오프셋 종류는 오프셋 보상 대상 화소가 가질 수 있는 화소 값의 범위를 16개 구간으로 나눈 뒤 나눠진 구간 중 어디에 해당하는지에 따라 결정될 수 있다.
한편, 오프셋 타입에 따른 오프셋 종류를 결정할 때, 대상 화소가 화면 내로 부호화된 블록에 속하고 주변 화소가 화면 간으로 부호화된 블록에 속하는 경우, 대상 화소에 대한 오프셋 종류를 결정하지 않을 수 있다. 즉, 오프셋 보상을 수행하지 않도록 오프셋 종류의 값을 0으로 설정할 수 있다. 예를 들어, 오프셋 보상 지시자 내의 constrained_in_loop_filter_flag의 값이 1이고, (x,y)에 위치한 화소가 화면 내로 부호화된 블록에 속하고 (x+hPos[k],y+vPos[k])에 위치한 하나 이상의 화소가 화면 간으로 부호화된 블록에 속하는 경우, 오프셋 종류의 값이 0으로 설정될 수 있다. 이때 hPos[k] 및 vPos[k]는 오프셋 타입에 따른 주변 화소의 위치를 나타내는 값으로, 표 8에 의해서 결정될 수 있다. k=0 또는 1일 수 있다.
타입1 타입2 타입3 타입4
hPos[0] -1 0 -1 1
hPos[1] 1 0 1 -1
vPos[0] 0 -1 -1 -1
vPos[1] 0 1 1 1
표 8을 참조하면, 예를 들어 오프셋 타입이 2인 경우, 오프셋 보상 지시자 내의 constrained_in_loop_filter_flag의 값이 1이고, (x,y)에 위치한 화소가 화면 내로 부호화된 블록에 속하고 (x,y+1) 또는 (x,y-1)에 위치한 하나 이상의 화소가 화면 간으로 부호화된 블록에 속하는 경우, 오프셋 종류의 값이 ‘0’으로 설정될 수 있다.
한편, 제한된 오프셋 보상 지시자의 값이 1이고, (x,y)에 위치한 화소와 (x+hPos[k],y+vPos[k])에 위치한 하나 이상의 화소가 서로 다른 슬라이스/타일에 속한 경우, 즉, (x+hPos[k],y+vPos[k])에 위치한 하나 이상의 화소가 (x,y)에 위치한 화소가 속한 슬라이스/타일 밖에 위치한 경우, 오프셋 종류의 값이 0으로 설정될 수 있다. 또한, 슬라이스/타일의 경계가 픽쳐의 경계인 경우, 슬라이스/타일의 경계 밖은 화소가 없는 픽쳐의 밖일 수 있다.
한편, SAO 파라미터는 화소 적응적 오프셋 보상의 대상 블록 또는 대상 블록의 주변 블록 중 적어도 하나 이상의 블록의 부호화 파라미터를 기반으로 결정될 수 있다.
단계 S230에서 복호화기는 SAO 보상 지시자 및 SAO 파라미터를 기반으로 화소 적응적 오프셋 보상을 수행한다. 복호화기는 SAO 보상 지시자 및 SAO 파라미터를 기반으로 계산된 오프셋 값을 화소 값에 더하여 오프셋 보상된 화소 값을 복원할 수 있다. 화소 적응적 오프셋 보상은 화소 적응적 오프셋 보상의 대상 블록 또는 대상 블록의 주변 블록 중 적어도 하나 이상의 블록의 부호화 파라미터를 기반으로 수행될 수 있다. 오프셋 종류의 값이 0으로 설정된 경우, 대상 화소에 화소 적응적 오프셋 보상을 수행하지 않을 수 있다. 즉, RecSaoPicture[x,y]=RecPicture[x,y]일 수 있다. RecSaoPicture[x,y]는 (x,y)에 위치한 화소에 대해 화소 적응적 오프셋 보상을 수행한 후의 화소값을 나타내며, RecPicture[x,y]는 화소 적응적 오프셋 보상을 수행하기 전의 복원된 화소값을 나타낸다.
이하, ALF를 기반으로 하는 영상 부호화 및 복호화 방법을 설명하도록 한다.
도 7은 제안된 영상 부호화 방법의 또 다른 실시예를 나타낸다.
단계 S300에서 부호화기는 제한된 루프 필터 지시자를 복호화기로 전송한다. 단계 S310에서 부호화기는 ALF의 적용 여부를 지시하는 ALF 적용 지시자를 복호화기로 전송한다. 단계 S320에서 부호화기는 ALF 파라미터를 복호화기로 전송한다. 단계 S330에서 부호화기는 ALF 적용 지시자 및 ALF 파라미터를 기반으로 복원된 영상에 대하여 ALF를 적용한다.
단계 S300에서 전송되는 제한된 루프 필터 지시자에 대해서 설명한다.
복호화기는 부호화기로부터 전송되는 제한된 루프 필터 지시자에 의하여 부호화 대상 시퀀스, 픽쳐, 프레임, 필드, 슬라이스, CU, PU 또는 TU 중 적어도 하나 이상이 제한된 루프 필터를 적용하는지 여부를 판단할 수 있다.
부호화기는 제한된 루프 필터 지시자를 비트 스트림에 삽입하여 복호화기로 전송할 수 있다. 제한된 루프 필터 지시자는 산술 부호화 또는 VLC 등의 엔트로피 부호화 과정을 통해 비트 스트림에 삽입될 수 있다. 제한된 오프셋 보상 지시자는 비트 스트림 내의 SPS, PPS, APS 또는 슬라이스 헤더 등을 이용하여 전송될 수 있다. 복호화기는 엔트로피 복호화 과정에 의하여 비트 스트림을 파싱하여 전송되는 제한된 오프셋 보상 지시자를 얻을 수 있다.
표 9는 비트 스트림에 삽입되는 제한된 루프 필터 지시자의 일 예를 나타낸다. 표 9에서 루프 필터 지시자는 시퀀스 파라미터 세트에 삽입된다.
seq_parameter_set_rbsp() { Descriptor
...
seq_parameter_set_id ue(v)
pic_width_in_luma_samples u(16)
pic_height_in_luma_samples u(16)
constrained_intra_pred_flag u(1)
constrained_filter_flag u(1)
...
}
표 9에서 constrained_filter_flag가 제한된 루프 필터 지시자를 나타낸다. constrained_filter_flag의 값이 0이면 제한된 루프 필터를 적용하지 않고, constrained_filter_flag의 값이 1이면 제한된 루프 필터를 지원하는 것을 지시할 수 있다. 또는, 에러에 강인한 화면 내 예측을 위한 파라미터인 constrained_intra_pred_flag의 값이 1이면 별도의 루프 필터 지시자의 삽입 없이 제한된 루프 필터를 적용하는 것을 지시할 수 있다.
표 10은 비트 스트림에 삽입되는 제한된 루프 필터 지시자의 또 다른 예를 나타낸다. 표 10에서 제한된 루프 필터 지시자는 픽쳐 파라미터 세트에 삽입된다.
pic_parameter_set_rbsp() { Descriptor
...
pic_parameter_set_id ue(v)
seq_parameter_set_id ue(v)
constrained_fitler_flag u(1)
...
}
표 10에서 constrained_filter_flag가 제한된 루프 필터 지시자를 나타낸다. constrained_filter_flag의 값이 0이면 제한된 루프 필터를 적용하지 않고, constrained_filter_flag의 값이 1이면 제한된 루프 필터를 적용하는 것을 지시할 수 있다.
또는, 표 3과 같이 loop_filter_across_tiles_enabled_flag 또는 loop_filter_across_slices_enabled_flag가 제한된 루프 필터 지시자를 나타낼 수 있다. loop_filter_across_tiles_enabled_flag의 값이 0이면 제한된 루프 필터를 적용하는 것을 지시할 수 있다. 또는, loop_filter_across_slices_enabled_flag의 값이 0이면 제한된 루프 필터를 적용하는 것을 지시할 수 있다.
또는, 별도의 루프 필터 지시자의 삽입 없이 부호화기와 복호화기에서 항상 제한된 루프 필터를 적용하도록 할 수 있다.
한편, 제한된 루프 필터 지시자가 1로 설정되어 부호화기가 제한된 루프 필터를 적용하게 되는 경우, 부호화기는 부호화 파라미터를 이용할 수 있다. 부호화 파라미터는 화면 내 부호화되었는지 화면 간 부호화 되었는지를 나타내는 부호화 모드, 화면 내 예측 모드, 화면 간 예측 모드, CBF, 양자화 매개 변수, 움직임 벡터, 움직임 벡터 예측기, 참조 영상 색인, 슬라이스/타일 경계 여부 중 적어도 하나 이상을 포함한다.
예를 들어, 부호화 파라미터는 타일의 경계를 포함하고, 제한된 루프 필터 지시자의 값이 0이면 루프 필터가 타일 경계를 넘어서 적용되지 않도록 제한될 수 있다. 이때 제한된 루프 필터 지시자는 표 3의 loop_filter_across_tiles_enabled_flag일 수 있다. 타일의 경계는 타일의 식별자(ID; identifier)를 기반으로 결정될 수 있다. 또는, 부호화 파라미터는 슬라이스의 경계를 포함하고, 제한된 루프 필터 지시자의 값이 0이면 루프 필터가 슬라이스 경계를 넘어서 적용되지 않도록 제한될 수 있다. 이때 제한된 루프 필터 지시자는 표 3의 loop_filter_across_slices_enabled_flag일 수 있다. 슬라이스의 경계는 슬라이스의 식별자를 기반으로 결정될 수 있다.
예를 들어 부호화 파라미터를 이용하여 제한된 루프 필터의 적용 대상 블록 또는 주변 블록들이 화면 내 부호화 되었는지 또는 화면 간 부호화 되었는지가 판단될 수 있다. 이때 어느 블록이 화면 내 부호화 되었다면 해당 블록을 화면 내 모드로 부호화 되었다고 할 수 있고, 어느 블록이 화면 간 부호화 되었다면 해당 블록을 화면 간 모드로 부호화 되었다고 할 수 있다. 또한 예를 들어 블록이 PCM 모드로 부호화 되었다면, 해당 블록은 화면 내 부호화 되었다고 판단될 수 있다.
부호화기가 부호화 파라미터를 이용하여 제한된 오프셋 보상을 수행하는 경우, 부호화 파라미터에 따라 신뢰성 정도를 결정하고, 결정된 신뢰성 정도를 제한된 오프셋 보상 수행 시에 적용할 수 있다. 예를 들어 표 4와 같이 각 부호화 파라미터에 따라 신뢰성 정도를 판단할 수 있으며, 하나 이상의 부호화 파라미터의 조합에 따라 신뢰성 정도를 판단할 수도 있다. 표 3에서 제한된 루프 필터 지시자인 loop_filter_across_tiles_enabled_flag 또는 loop_filter_across_slices_enabled_flag의 값이 0인 경우, 신뢰성 약한 경계 밖은 허용되지 않을 수 있다.
제한된 루프 필터가 적용되는 경우, 특히 ALF가 적용될 수 있다. 부호화기는 원본 영상과 복원 영상 간의 오차를 최소화하는 위너 필터(Wiener filter)에 기반한 필터 계수를 유도한 후, 이를 복원 영상에 적용하여 원본 영상과의 왜곡을 최소화할 수 있다.
단계 S310에서 전송되는 ALF 적용 지시자는 시퀀스 파라미터 세트, 픽쳐 파라미터 세트, 적응 파라미터 세트 또는 슬라이스 헤더 등에 포함되어 전송될 수 있다. ALF 적용 지시자는 adaptive_loop_filter_flag일 수 있다. 또한, 휘도 성분과 색차 성분에 대한 ALF 적용 여부를 각각의 비트 스트림에 포함하여 시그널링 할 수 있다. 또한, ALF 적용 여부는 CU 단위 또는 영상 단위로 결정될 수 있다.
단계 S320에서 전송되는 ALF 파라미터에 대해서 설명한다.
ALF 파라미터는 필터 모양(shape), 필터 계수(coefficient), 필터 분류(classification) 방법, 필터 인덱스, 필터 예측 방법 및 필터 수행 최대 깊이 중 적어도 하나 이상을 포함할 수 있다.
부호화기는 다수의 필터 모양들 중에서 최적의 필터 모양을 결정할 수 있다. 또한, 부호화기는 ALF를 적용하기 위해 사용하는 필터 계수를 결정할 수 있다. 이때 필터 계수는 하나 이상일 수 있으며, 다른 차수(order)의 지수 골롬(exponential Golomb) 코드로 부호화될 수 있다. 필터 계수를 효율적으로 부호화하기 위해서 필터 계수 간에 DPCM(differential pulse code modulation) 등과 같은 방법으로 예측 부호화가 수행될 수 있으며, 어느 하나의 필터 계수는 다른 필터 계수의 합으로부터 예측 부호화 될 수도 있다. 또한, ALF를 적용하기로 결정된 경우 필터 분류 방법으로 영역 기반 적응(RA; region-based adaptation)과 블록 기반 적응(BA; block-based adaptation) 중 하나의 방법을 이용하여 필터를 선택할 수 있다. 예를 들어, 필터 분류 방법이 RA 방법으로 결정된 경우 alf_region_adaptation_flag의 값을 1로 설정하고, 필터 분류 방법이 BA 방법으로 결정된 경우 alf_region_adaptation_flag의 값을 0으로 설정한다. RA 방법이 사용되는 경우 분할된 영상 영역당 다수의 필터 중 어느 하나의 필터가 선택될 수 있으며, BA 방법이 사용되는 경우 화소들의 변화량 및 방향성을 고려하여 다수의 필터 중 어느 하나의 필터가 선택될 수 있다. 이때 어떤 필터가 선택되었는지를 지시하기 위하여 ALF 파라미터 내의 필터 인덱스를 이용할 수 있다. 또한, ALF가 적용되는 최대 깊이에 대한 정보를 비트 스트림에 삽입하여 특정 깊이의 CU까지만 ALF가 적용되게 할 수 있다.
도 8은 제안된 영상 부호화 방법에서 부호화기가 결정하는 필터 모양의 일 예를 나타낸다. 도 8을 참조하면 각 필터 내의 숫자는 필터 계수 인덱스를 나타낸다. 부호화기는 필터 모양과 필터 분류 방법에 대한 정보를 ALF 파라미터 내에 포함하여 복호화기로 전송하고, 결정된 필터 분류 방법에 따라 필터가 선택된다. 필터는 최대 16개까지 존재할 수 있다. 선택된 필터를 기반으로 필터링이 수행되는 경우, 필터 모양의 중앙에 위치한 화소값을 필터링함에 있어 각 필터 계수와 각 위치에 해당하는 화소값의 곱의 합으로 필터링을 수행할 수 있다.
한편, BA 방법을 기반으로 필터를 분류할 때 ALF 적용의 대상 블록과 주변 블록 중 적어도 하나 이상의 블록의 부호화 파라미터를 이용할 수 있다. 예를 들어, 부호화 파라미터는 타일의 경계를 포함하고, 타일의 경계는 타일의 식별자를 기반으로 결정될 수 있다. 또는, 부호화 파라미터는 슬라이스의 경계를 포함하고, 슬라이스의 경계는 슬라이스의 식별자를 기반으로 결정될 수 있다.
도 9는 제안된 영상 부호화 방법에서 부호화 파라미터를 이용하여 BA 방법을 기반으로 필터를 분류하는 경우를 나타낸다. 예를 들어 ALF 적용의 대상 블록이 화면 내로 부호화 되었고 주변 블록이 화면 간으로 부호화된 경우 4×4 블록 단위에서 수평 혹은 수직의 방향성을 판단하는 경우, 도 9에서 음영이 칠해지지 않은 4×4 블록 내의 화소들은 화면 내 블록의 화소가 되고, 음영이 칠해진 화소들은 화면 간 블록의 화소가 될 수 있다. 또한, ‘R’은 복원된 화소, VA는 수직, HA는 수평의 방향성을 나타낸다.
예를 들어 BA 방법을 기반으로 ALF 적용의 대상 화소가 화면 내로 부호화된 블록에 포함되고 화면 간으로 부호화된 주변 블록의 화소에 에러가 발생한 경우를 가정한다. 이때 주변 블록들 중 화면 간으로 부호화된 블록의 화소들은 사용하지 않고, 대상 블록 내의 화면 내로 부호화된 화소들만을 이용하여 필터를 분류할 수 있다. 이는 화면 내로 부호화된 블록의 화소로 에러가 전파되는 것을 방지하기 위함이다. 또는, 주변 블록들 중 화면 간으로 부호화된 블록의 화소들은 사용하지 않고, 화면 간으로 부호화된 블록의 화소들을 화면 내로 부호화된 블록의 화소들로 대체하여 필터를 분류할 수 있다. 예를 들어, 도 9에서 ‘R(0,0)’ 위치에서 수평 또는 수직의 방향성을 판단하는 경우, 화면 간 블록에 포함되어 있는 ‘R(-1,0)’ 또는 ‘R(0,-1)’ 값을 화면 내 블록의 값으로 대체한 후 방향성을 판단할 수 있다. 또는, 필터를 분류하지 않을 수도 있다.
도 10은 제안된 영상 부호화 방법에서 부호화 파라미터를 이용하여 ALF를 적용하는 경우의 일 예를 나타낸다.
ALF가 적용될 때에도 ALF 적용의 대상 블록 또는 대상 블록의 주변 블록 중 적어도 하나 이상의 블록의 부호화 파라미터를 기반으로 결정될 수 있다. 부호화 파라미터는 타일의 경계를 포함하고, ALF는 타일의 경계를 기반으로 적용될 수 있다. 예를 들어, ALF가 타일의 경계를 넘어서 적용되지 않을 수 있다. 또는, 부호화 파라미터는 슬라이스의 경계를 포함하고, ALF는 슬라이스의 경계를 기반으로 적용될 수 있다. ALF는 슬라이스의 경계를 넘어서 적용되지 않을 수 있다.
또는, ALF 적용의 대상 화소가 화면 내로 부호화된 블록에 포함되고 화면 간으로 부호화된 주변 블록의 화소에 에러가 발생한 경우를 가정하면, 주변 블록들 중 화면 간으로 부호화된 블록의 화소들은 사용하지 않고, 대상 블록 내 또는 주변 블록 중 화면 내로 부호화된 화소들만을 이용하여 ALF를 적용할 수 있다. 이는 화면 내로 부호화된 블록의 화소로 에러가 전파되는 것을 방지하기 위함이다. 도 10-(a)의 4×4 블록의 각 화소값에 도 8-(a)의 필터 모양을 적용하는 경우, 필터링 대상 화소의 위치는 가운데에 있는 ‘9’번이 되고, 주변의 화소값과 해당하는 위치의 필터 계수를 이용하여 필터를 적용한다. 이때 도 10-(b)와 같이 필터 계수가 화면 내로 부호화된 블록에 포함된 경우에만 필터가 적용된다. 즉, 화소값 i, j, k, l, m, n, o, p에 대해서만 필터를 적용할 수 있다. 또는, 주변 블록들 중 화면 간으로 부호화된 블록의 화소들은 사용하지 않고, 화면 간으로 부호화된 블록의 화소들을 화면 내로 부호화된 블록의 화소들로 대체하여 ALF를 적용할 수 있다. 또는, ALF를 적용하지 않을 수도 있다.
부호화기는 ALF 적용 지시자 및 ALF 파라미터를 기반으로 ALF를 적용할 수 있다. ALF는 ALF 적용의 대상 블록 또는 대상 블록의 주변 블록 중 적어도 하나 이상의 블록의 부호화 파라미터를 기반으로 적용될 수 있다.
이상의 과정을 종합하면, 부호화기는 하나의 슬라이스를 부호화 트리 블록(coding tree block) 구조에 동기화하고, CU 단위로 필터 수행 여부, 필터 수행 최대 깊이, 필터 예측 방법, 필터 분류 방법, 필터 모양, 필터 계수 등을 RDO를 이용하고 결정하고, 결정된 최적의 ALF 파라미터를 이용하여 ALF를 적용할 수 있다. 이와 같은 ALF 파라미터는 엔트로피 부호화 되어 복호화기로 전송될 수 있다.
지금까지 설명한 제한된 루프 필터를 기반으로 하는 영상 부호화 방법은 영상 복호화 방법에도 그대로 적용될 수 있다. 즉, 복호화기는 부호화기로부터 전송되는 제한된 루프 필터 지시자, ALF 적용 지시자, ALF 파라미터 등을 수신하여 파싱하고, 이를 기반으로 ALF를 적용한다.
도 11은 제안된 영상 복호화 방법의 일 실시예를 나타낸다.
단계 S400에서 복호화기는 제한된 루프 필터 지시자를 부호화기로부터 수신한다. 표 11은 픽쳐 파라미터 세트에 삽입된 제한된 루프 필터 지시자의 일 예를 나타낸다.
pic_parameter_set_rbsp() { Descriptor
pic_parameter_set_id ue(v)
seq_parameter_set_id ue(v)
….
constrained_intra_pred_flag u(1)
if (constrained_intra_pred_flag )
constrained_in_loop_filter_flag u(1)
….
표 11에서 constrained_intra_pred_flag의 값이 1인 경우, 즉 제한된 인트라 예측이 수행되는 경우, 복호화기는 constrained_in_loop_filter_flag를 파싱하여 제한된 인루프 필터의 적용 여부를 결정할 수 있다. constrained_in_loop_filter_flag의 값이 1이면 제한된 인루프 필터를 적용하는 것을 지시할 수 있고, constrained_in_loop_filter_flag의 값이 0이면 제한된 인루프 필터를 적용하지 않는 것을 지시할 수 있다. 제한된 인루프 필터의 적용 대상은 디블록킹 필터, 오프셋 보상, ALF 중 적어도 하나 이상일 수 있다.
단계 S410에서 복호화기는 ALF 적용 여부를 지시하는 ALF 적용 지시자를 부호화기로부터 수신한다. 복호화기는 비트 스트림 내의 시퀀스 파라미터 세트, 픽쳐 파라미터 세트, 적응 파라미터 세트 또는 슬라이스 헤더 등에 포함되어 전송되는 ALF 적용 지시자 adaptive_loop_filter_enabled_flag를 파싱하여 ALF 적용 여부를 결정할 수 있다. 또한, 복호화기는 휘도 성분과 색차 성분 각각에 ALF 적용 여부를 결정하는 정보 또는 CU 단위의 ALF 적용 여부에 대한 정보 등을 비트 스트림으로부터 파싱할 수 있다.
단계 S420에서 복호화기는 ALF 파라미터를 부호화기로부터 수신한다.
복호화기는 부호화기로부터 전송되는 ALF 파라미터를 파싱할 수 있다. ALF 파라미터는 필터 모양, 필터 계수, 필터 분류 방법, 필터 인덱스, 필터 예측 방법 및 필터 수행 최대 깊이 중 적어도 하나 이상을 포함할 수 있다. 예를 들어 복호화기는 비트 스트림을 파싱하여 필터 모양 및/또는 필터 계수를 결정할 수 있다. 이때 필터 계수의 개수는 하나 이상일 수 있으며, 다른 차수의 지수 골롬 코드로 복호화될 수 있다. 또한, 필터 계수를 효율적으로 복호화하기 위하여 필터 계수 간은 DPCM 등과 같은 방법으로 예측 복호화될 수 있으며, 어느 하나의 필터 계수는 다른 필터 계수의 합으로부터 예측 복호화될 수 있다. 또한, 필터 분류 수단으로 RA 방법과 BA 중 하나의 방법을 이용하여 필터를 달리 선택할 수 있다. 예를 들어 부호화기가 전송한 alf_region_adaptation_flag를 파싱하여 ‘1’이면 RA 방법으로 필터를 분류하고, ‘0’이면 BA 방법으로 필터를 분류할 수 있다. RA 방법이 사용되는 경우 분할된 영상 영역당 다수의 필터 중 어느 하나의 필터가 선택될 수 있으며, BA 방법이 사용되는 경우 화소들의 변화량 및 방향성을 고려하여 다수의 필터 중 어느 하나의 필터가 선택될 수 있다. 이때 어떤 필터가 선택되었는지를 지시하기 위하여 ALF 파라미터 내의 필터 인덱스를 이용할 수 있다.
ALF의 적용 대상 화소가 속한 블록이 화면 내로 부호화되고 주변 화소들이 속한 블록이 화면 간으로 부호화된 경우, 블록 단위의 수평 또는 수직의 방향성을 판단할 때 화면 내 블록의 화소들만을 이용하여 판단하고 이에 대응되는 필터를 결정할 수 있다. 예를 들어, 도 9에서 방향성 판단을 위하여 R(0,0)과 R(0,2), R(2,0)과 R(2,2) 위치에서 도 9의 수식을 적용할 수 있는데, 도 9에서 음영이 적용된 부분이 화면 간으로, 흰색 부분이 화면 내로 부호화된 경우, 복호화기는 ALF의 적용 대상 화소 및 주변 화소들이 모두 화면 내에 속하는 R(2,2) 위치에서만 방향성을 판단하고 적용할 필터를 결정할 수 있다.
한편, ALF 파라미터는 ALF 적용의 대상 블록 또는 대상 블록의 주변 블록 중 적어도 하나 이상의 블록의 부호화 파라미터를 기반으로 결정될 수 있다.
단계 S430에서 복호화기는 ALF 적용 지시자 및 ALF 파라미터를 기반으로 ALF를 적용한다. 복호화기는 ALF 적용 지시자 및 ALF 파라미터를 기반으로 ALF를 적용할 수 있다. ALF는 ALF 적용의 대상 블록 또는 대상 블록의 주변 블록 중 적어도 하나 이상의 블록의 부호화 파라미터를 기반으로 적용될 수 있다. ALF의 적용 대상 화소가 속한 블록이 화면 내로 부호화되고 주변 화소들이 화면 간으로 부호화된 블록에 속하는 경우, ALF의 적용 대상 화소에 대해 ALF를 적용하지 않을 수 있다.
도 12는 제안된 영상 복호화 방법에서 사용되는 필터 모양의 일 예를 나타낸다. 도 12와 같은 필터 모양에서 ‘9’의 위치의 화소에 ALF를 적용하는 경우, 적용 대상 화소 주변의 하나 이상의 화소가 화면 간으로 부호화된 블록에 속하는 경우, 대상 화소에 ALF를 적용하지 않을 수 있다.
본 발명은 하드웨어, 소프트웨어 또는 이들의 조합으로 구현될 수 있다. 하드웨어 구현에 있어, 상술한 기능을 수행하기 위해 디자인된 ASIC(application specific integrated circuit), DSP(digital signal processing), PLD(programmable logic device), FPGA(field programmable gate array), 프로세서, 제어기, 마이크로 프로세서, 다른 전자 유닛 또는 이들의 조합으로 구현될 수 있다. 소프트웨어 구현에 있어, 상술한 기능을 수행하는 모듈로 구현될 수 있다. 소프트웨어는 메모리 유닛에 저장될 수 있고, 프로세서에 의해 실행된다. 메모리 유닛이나 프로세서는 당업자에게 잘 알려진 다양한 수단을 채용할 수 있다.
상술한 예시적인 시스템에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당업자라면 순서도에 나타낸 단계들이 배타적이지 않고, 다른 단계가 포함되거나 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.

Claims (18)

  1. 시퀀스(sequence), 픽쳐(picture), 프레임(frame), 슬라이스(slice), 부호화 유닛(CU; coding unit), 예측 유닛(PU; prediction unit) 및 변환 유닛(TU; transform unit) 중 적어도 하나 이상이 제한된 오프셋 보상을 지원하는지 여부를 지시하는 제한된 오프셋 보상 지시자를 부호화기로부터 수신하는 단계;
    화소 적응적 오프셋(SAO; sample adaptive offset) 보상의 수행 여부를 지시하는 SAO 보상 지시자를 상기 부호화기로부터 수신하는 단계;
    SAO 파라미터를 상기 부호화기로부터 수신하는 단계; 및
    상기 SAO 보상 지시자 및 상기 SAO 파라미터를 기반으로 복원된 영상의 화소에 화소 적응적 오프셋 보상을 수행하는 단계를 포함하는 영상 복호화 방법.
  2. 제 1 항에 있어서,
    상기 제한된 오프셋 보상 지시자는 비트 스트림(bit stream) 내의 시퀀스 파라미터 세트(SPS; sequence parameter set), 픽쳐 파라미터 세트(PPS; picture parameter set), 적응 파라미터 세트(APS; adaptation parameter set) 또는 슬라이스 헤더(slice header) 중 어느 하나에 포함되어 수신되는 것을 특징으로 하는 영상 복호화 방법.
  3. 제 1 항에 있어서,
    상기 SAO 보상 지시자는 비트 스트림 내의 SPS, PPS, APS 또는 슬라이스 헤더 중 어느 하나에 포함되어 수신되는 것을 특징으로 하는 영상 복호화 방법.
  4. 제 1 항에 있어서,
    상기 SAO 파라미터는 화소 적응적 오프셋 보상의 대상 블록과 상기 대상 블록의 주변 블록 중 적어도 하나 이상의 블록의 부호화 파라미터를 기반으로 결정되는 것을 특징으로 하는 영상 복호화 방법.
  5. 제 4 항에 있어서,
    상기 부호화 파라미터는 화면 내 또는 화면 간 부호화 파라미터인 것을 특징으로 하는 영상 복호화 방법.
  6. 제 4 항에 있어서,
    상기 부호화 파라미터는 슬라이스(slice) 또는 타일(tile)의 경계 또는 식별자(ID; identifier)인 것을 특징으로 하는 영상 복호화 방법.
  7. 제 1 항에 있어서,
    상기 화소 적응적 오프셋 보상은 화소 적응적 오프셋 보상의 대상 블록과 상기 대상 블록의 주변 블록 중 적어도 하나 이상의 블록의 부호화 파라미터를 기반으로 수행되는 것을 특징으로 하는 영상 복호화 방법.
  8. 제 7 항에 있어서,
    상기 부호화 파라미터는 화면 내 또는 화면 간 부호화 파라미터인 것을 특징으로 하는 영상 복호화 방법.
  9. 제 7 항에 있어서,
    상기 부호화 파라미터는 슬라이스 또는 타일의 경계 또는 식별자인 것을 특징으로 하는 영상 복호화 방법.
  10. 시퀀스(sequence), 픽쳐(picture), 프레임(frame), 슬라이스(slice), 부호화 유닛(CU; coding unit), 예측 유닛(PU; prediction unit) 및 변환 유닛(TU; transform unit) 중 적어도 하나 이상이 제한된 오프셋 보상을 지원하는지 여부를 지시하는 제한된 오프셋 보상 지시자를 복호화기로 전송하는 단계;
    화소 적응적 오프셋(SAO; sample adaptive offset) 보상의 수행 여부를 지시하는 SAO 보상 지시자를 상기 복호화기로 전송하는 단계;
    SAO 파라미터를 상기 복호화기로 전송하는 단계; 및
    상기 SAO 보상 지시자 및 상기 SAO 파라미터를 기반으로 복원된 영상의 화소에 화소 적응적 오프셋 보상을 수행하는 단계를 포함하는 영상 부호화 방법.
  11. 시퀀스(sequence), 픽쳐(picture), 프레임(frame), 슬라이스(slice), 부호화 유닛(CU; coding unit), 예측 유닛(PU; prediction unit) 및 변환 유닛(TU; transform unit) 중 적어도 하나 이상이 제한된 루프 필터의 적용을 지원하는지 여부를 지시하는 제한된 루프 필터 지시자를 부호화기로부터 수신하는 단계;
    적응적 루프 필터(ALF; adaptive loop filteret) 적용 여부를 지시하는 ALF 보상 지시자를 상기 부호화기로부터 수신하는 단계;
    ALF 파라미터를 상기 부호화기로부터 수신하는 단계; 및
    상기 ALF 보상 지시자 및 상기 ALF 파라미터를 기반으로 복원된 영상의 화소에 ALF를 적용하는 단계를 포함하는 영상 복호화 방법.
  12. 제 11 항에 있어서,
    상기 제한된 루프 필터 지시자는 비트 스트림(bit stream) 내의 시퀀스 파라미터 세트(SPS; sequence parameter set), 픽쳐 파라미터 세트(PPS; picture parameter set), 적응 파라미터 세트(APS; adaptation parameter set) 또는 슬라이스 헤더(slice header) 중 어느 하나에 포함되어 수신되는 것을 특징으로 하는 영상 복호화 방법.
  13. 제 11 항에 있어서,
    상기 ALF 적용 지시자는 비트 스트림 내의 SPS, PPS, APS 또는 슬라이스 헤더 중 어느 하나에 포함되어 수신되는 것을 특징으로 하는 영상 복호화 방법.
  14. 제 11 항에 있어서,
    상기 ALF 파라미터는 필터 모양(shape), 필터 계수(coefficient), 필터 분류(classification) 방법, 필터 인덱스, 필터 예측 방법 및 필터 수행 최대 깊이 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 영상 복호화 방법.
  15. 제 14 항에 있어서,
    상기 필터 분류 방법은 영역 기반 적응(RA; region-based adaptation) 방법과 블록 기반 적응(BA; block-based adaptation) 방법을 포함하는 것을 특징으로 하는 영상 복호화 방법.
  16. 제 11 항에 있어서,
    상기 ALF 파라미터는 ALF 적용의 대상 블록과 상기 대상 블록의 주변 블록 중 적어도 하나 이상의 블록의 부호화 파라미터를 기반으로 결정되는 것을 특징으로 하는 영상 복호화 방법.
  17. 제 11 항에 있어서,
    상기 ALF 적용은 ALF 적용의 대상 블록과 상기 대상 블록의 주변 블록 중 적어도 하나 이상의 블록의 부호화 파라미터를 기반으로 적용되는 것을 특징으로 하는 영상 복호화 방법.
  18. 시퀀스(sequence), 픽쳐(picture), 프레임(frame), 슬라이스(slice), 부호화 유닛(CU; coding unit), 예측 유닛(PU; prediction unit) 및 변환 유닛(TU; transform unit) 중 적어도 하나 이상이 제한된 루프 필터의 적용을 지원하는지 여부를 지시하는 제한된 루프 필터 지시자를 복호화기로 전송하는 단계;
    적응적 루프 필터(ALF; adaptive loop filter)의 적용 여부를 지시하는 ALF 적용 지시자를 상기 복호화기로 전송하는 단계;
    ALF 파라미터를 상기 복호화기로 전송하는 단계; 및
    상기 ALF 적용 지시자 및 상기 ALF 파라미터를 기반으로 복원된 영상의 화소에 ALF를 적용하는 단계를 포함하는 영상 부호화 방법.
PCT/KR2012/007833 2011-09-28 2012-09-27 제한된 오프셋 보상 및 루프 필터를 기반으로 하는 영상 부호화 및 복호화 방법 및 그 장치 WO2013048151A1 (ko)

Priority Applications (14)

Application Number Priority Date Filing Date Title
IN3108CHN2014 IN2014CN03108A (ko) 2011-09-28 2012-09-27
JP2014533205A JP2014531851A (ja) 2011-09-28 2012-09-27 制限されたオフセット補償及びループフィルタに基づく映像符号化及び復号化方法、並びにその装置
EP12835079.0A EP2763411A4 (en) 2011-09-28 2012-09-27 METHOD AND APPARATUS FOR ENCODING AND DECODING IMAGES BASED ON CONSTANT SHIFT CORRECTION AND LOOP FILTER
BR122014023991-2A BR122014023991B1 (pt) 2011-09-28 2012-09-27 Aparelho para codificação de um vídeo
BR122020015284-2A BR122020015284B1 (pt) 2011-09-28 2012-09-27 Aparelho para decodificação de um vídeo
US14/347,709 US9270990B2 (en) 2011-09-28 2012-09-27 Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor
BR112014007434-8A BR112014007434B1 (pt) 2011-09-28 2012-09-27 Aparelho para decodificação de um vídeo
CN201280058538.7A CN103959794B (zh) 2011-09-28 2012-09-27 基于约束偏移补偿和环路滤波来编码和解码图像的方法、及其设备
EP21204985.2A EP3965427A1 (en) 2011-09-28 2012-09-27 Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor
BR122020015282-6A BR122020015282B1 (pt) 2011-09-28 2012-09-27 Aparelho para decodificação de um vídeo
BR122020015286-9A BR122020015286B1 (pt) 2011-09-28 2012-09-27 Aparelho para decodificação de um vídeo
US14/251,113 US9148663B2 (en) 2011-09-28 2014-04-11 Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor
US14/820,880 US9204148B1 (en) 2011-09-28 2015-08-07 Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor
US14/820,842 US9204171B1 (en) 2011-09-28 2015-08-07 Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
KR20110098601 2011-09-28
KR10-2011-0098601 2011-09-28
KR10-2012-0019999 2012-02-28
KR1020120019999A KR20130034566A (ko) 2011-09-28 2012-02-28 제한된 오프셋 보상 및 루프 필터를 기반으로 하는 영상 부호화 및 복호화 방법 및 그 장치
KR10-2012-0039412 2012-04-16
KR1020120039412A KR20130034570A (ko) 2011-09-28 2012-04-16 제한된 오프셋 보상 및 루프 필터를 이용한 영상 부호화/복호화 방법 및 그 장치
KR1020120107639A KR101356450B1 (ko) 2011-09-28 2012-09-27 제한된 오프셋 보상 및 루프 필터를 기반으로 하는 영상 부호화 및 복호화 방법 및 그 장치
KR10-2012-0107639 2012-09-27

Related Child Applications (4)

Application Number Title Priority Date Filing Date
US14/347,709 A-371-Of-International US9270990B2 (en) 2011-09-28 2012-09-27 Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor
US14/251,113 Continuation US9148663B2 (en) 2011-09-28 2014-04-11 Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor
US14/820,880 Continuation US9204148B1 (en) 2011-09-28 2015-08-07 Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor
US14/820,842 Continuation US9204171B1 (en) 2011-09-28 2015-08-07 Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor

Publications (1)

Publication Number Publication Date
WO2013048151A1 true WO2013048151A1 (ko) 2013-04-04

Family

ID=48436669

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/007833 WO2013048151A1 (ko) 2011-09-28 2012-09-27 제한된 오프셋 보상 및 루프 필터를 기반으로 하는 영상 부호화 및 복호화 방법 및 그 장치

Country Status (8)

Country Link
US (1) US9270990B2 (ko)
EP (5) EP2887674A3 (ko)
JP (7) JP2014531851A (ko)
KR (20) KR20130034566A (ko)
CN (5) CN104902284B (ko)
BR (5) BR122014023991B1 (ko)
IN (1) IN2014CN03108A (ko)
WO (1) WO2013048151A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015124108A1 (en) * 2014-02-20 2015-08-27 Mediatek Inc. Method for controlling sample adaptive offset filtering applied to different partial regions in one frame based on different weighting parameters and related sample adaptive offset filter
US9204171B1 (en) 2011-09-28 2015-12-01 Electronics And Telecommunications Research Institute Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor
US9204148B1 (en) 2011-09-28 2015-12-01 Electronics And Telecommunications Research Institute Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201119206D0 (en) * 2011-11-07 2011-12-21 Canon Kk Method and device for providing compensation offsets for a set of reconstructed samples of an image
US9253482B2 (en) * 2011-11-08 2016-02-02 Texas Insturments Incorporated Method and apparatus for sample adaptive offset without sign coding
US9277194B2 (en) 2011-11-08 2016-03-01 Texas Instruments Incorporated Method and apparatus for image and video coding using hierarchical sample adaptive band offset
US9749645B2 (en) * 2012-06-22 2017-08-29 Microsoft Technology Licensing, Llc Coded-block-flag coding and derivation
KR101459935B1 (ko) 2013-08-12 2014-11-07 현대자동차주식회사 자동화 수동변속기
JP6253406B2 (ja) * 2013-12-27 2017-12-27 キヤノン株式会社 画像符号化装置、撮像装置、画像符号化方法、及びプログラム
KR101677242B1 (ko) * 2014-02-18 2016-11-17 한국전자통신연구원 컨볼루션 기법 기반의 고속 적응적 샘플 오프셋 필터링 장치 및 방법
US10382754B2 (en) 2014-04-29 2019-08-13 Microsoft Technology Licensing, Llc Encoder-side decisions for sample adaptive offset filtering
KR102276854B1 (ko) * 2014-07-31 2021-07-13 삼성전자주식회사 인루프 필터 파라미터 예측을 사용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
CN105635732B (zh) * 2014-10-30 2018-12-14 联想(北京)有限公司 自适应样点补偿编码、对视频码流进行解码的方法及装置
EP3203738A4 (en) * 2014-10-31 2017-10-04 Samsung Electronics Co., Ltd. Video encoding method applying multi-offset scheme and apparatus therefor, and video decoding method and apparatus therefor
US9872026B2 (en) * 2015-06-12 2018-01-16 Intel Corporation Sample adaptive offset coding
CN105306940B (zh) * 2015-10-27 2019-10-18 中星技术股份有限公司 一种视频编解码样值偏移补偿中边界补偿模式处理方法
WO2017086740A1 (ko) 2015-11-18 2017-05-26 한국전자통신연구원 인루프 필터를 이용한 비디오 복호화 방법 및 이를 위한 장치
EP3220643A1 (en) * 2016-03-14 2017-09-20 Thomson Licensing Method and device for encoding at least one image unit, and method and device for decoding a stream representative of at least one image unit
US10623738B2 (en) * 2017-04-06 2020-04-14 Futurewei Technologies, Inc. Noise suppression filter
KR20230079466A (ko) * 2017-04-11 2023-06-07 브이아이디 스케일, 인크. 면 연속성을 사용하는 360 도 비디오 코딩
EP3632267A4 (en) 2017-05-31 2020-11-11 Kurabe Industrial Co., Ltd. VENTILATION MAT
WO2019060443A1 (en) * 2017-09-20 2019-03-28 Vid Scale, Inc. HANDLING FACIAL DISCONTINUITIES IN 360-DEGREE VIDEO CODING
KR20190056888A (ko) 2017-11-17 2019-05-27 삼성전자주식회사 비디오 부호화 장치 및 방법
US10878547B2 (en) 2018-03-20 2020-12-29 Electronics And Telecommunications Research Institute Electronic device for correcting dark images in real time
CN112020859A (zh) * 2018-03-29 2020-12-01 日本放送协会 图像编码装置、图像解码装置以及程序
TWI803648B (zh) 2018-06-12 2023-06-01 南韓商Lg化學股份有限公司 含無機塗層的電化學裝置用之隔板及彼之製造方法
KR102354261B1 (ko) 2018-06-12 2022-01-20 주식회사 엘지화학 패턴화 전극접착층이 구비된 전기화학소자용 분리막 및 상기 분리막의 제조방법
WO2020180143A1 (ko) * 2019-03-07 2020-09-10 엘지전자 주식회사 루마 맵핑 및 크로마 스케일링 기반 비디오 또는 영상 코딩
KR102491959B1 (ko) * 2019-03-11 2023-01-27 엘지전자 주식회사 루마 맵핑 및 크로마 스케일링 기반 비디오 또는 영상 코딩
US11159791B2 (en) * 2019-03-16 2021-10-26 Mediatek Inc. Method and apparatus for signaling adaptive loop filter parameters in video coding
US20220217405A1 (en) * 2019-04-03 2022-07-07 Lg Electronics Inc. Video or image coding for modifying reconstructed picture
CN113785571A (zh) * 2019-04-03 2021-12-10 Lg 电子株式会社 基于自适应环路滤波器的视频或图像编译
WO2020204414A1 (ko) * 2019-04-03 2020-10-08 엘지전자 주식회사 적응적 루프 필터를 사용하는 비디오 또는 영상 코딩
CN110113603A (zh) * 2019-04-22 2019-08-09 屠晓 高清视频处理终端
WO2020231140A1 (ko) 2019-05-14 2020-11-19 엘지전자 주식회사 적응적 루프 필터 기반 비디오 또는 영상 코딩
WO2020256470A1 (ko) * 2019-06-19 2020-12-24 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020262915A1 (ko) * 2019-06-24 2020-12-30 엘지전자 주식회사 Alf 또는 lmcs를 사용하는 비디오 또는 영상 코딩
KR20220019243A (ko) * 2019-07-08 2022-02-16 엘지전자 주식회사 인루프 필터링 기반 비디오 또는 영상 코딩
WO2021006651A1 (ko) 2019-07-09 2021-01-14 엘지전자 주식회사 디블록킹 필터링에 기반한 영상 코딩 방법 및 그 장치
CN114097227A (zh) * 2019-07-11 2022-02-25 三星电子株式会社 视频解码方法和设备以及视频编码方法和设备
AU2020332558A1 (en) * 2019-08-19 2022-03-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Usage of access unit delimiters and adaptation parameter sets
AU2020351524A1 (en) 2019-09-18 2022-05-12 B1 Institute Of Image Technology, Inc. In-loop filter-based image encoding/decoding method and apparatus
WO2021054677A1 (ko) * 2019-09-18 2021-03-25 주식회사 비원 영상기술연구소 인-루프 필터 기반의 영상 부호화/복호화 방법 및 장치
US11758133B2 (en) * 2019-10-31 2023-09-12 Apple Inc Flexible block partitioning structures for image/video compression and processing
KR20220088795A (ko) * 2019-12-12 2022-06-28 엘지전자 주식회사 픽처 레벨 또는 슬라이스 레벨에서 적용되는 영상 정보를 시그널링하는 방법 및 장치
KR20220088501A (ko) * 2019-12-12 2022-06-27 엘지전자 주식회사 적응적 루프 필터를 적용하는 비디오 또는 영상 코딩
WO2021118266A1 (ko) * 2019-12-12 2021-06-17 엘지전자 주식회사 디블록킹 필터링을 사용하는 영상 디코딩 방법 및 장치
WO2021118261A1 (ko) * 2019-12-12 2021-06-17 엘지전자 주식회사 영상 정보를 시그널링하는 방법 및 장치
WO2021118263A1 (ko) * 2019-12-12 2021-06-17 엘지전자 주식회사 영상 정보를 시그널링하는 방법 및 장치
JP2023513788A (ja) * 2020-02-14 2023-04-03 エルジー エレクトロニクス インコーポレイティド フィルタ利用可能情報を選択的にシグナリングする画像符号化/復号化方法及び装置、並びにビットストリームを伝送する方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050099256A (ko) * 2004-04-09 2005-10-13 삼성전자주식회사 디블록킹을 이용한 영상처리 장치와 영상처리 방법
KR100896291B1 (ko) * 2006-11-17 2009-05-07 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
KR20100135638A (ko) * 2009-06-17 2010-12-27 한국전자통신연구원 복수의 보간 필터링 방법 및 이를 적용한 부호화 장치
KR20110068897A (ko) * 2009-12-16 2011-06-22 한국전자통신연구원 적응적 영상 부호화 장치 및 방법

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2810834A1 (fr) 2000-06-27 2001-12-28 Thomson Multimedia Sa Methode d'affichage de sequences d'emissions audiovisuelles a themes
CN1288622C (zh) * 2001-11-02 2006-12-06 松下电器产业株式会社 编码设备和解码设备
US7599438B2 (en) * 2003-09-07 2009-10-06 Microsoft Corporation Motion vector block pattern coding and decoding
EP1574995A1 (en) * 2004-03-12 2005-09-14 Thomson Licensing S.A. Method for encoding interlaced digital video data
CN100551072C (zh) * 2006-06-05 2009-10-14 华为技术有限公司 一种编码中量化矩阵选择方法、装置及编解码方法及系统
CN101491103B (zh) 2006-07-20 2011-07-27 高通股份有限公司 用于编码器辅助式预处理的方法和设备
US9001899B2 (en) * 2006-09-15 2015-04-07 Freescale Semiconductor, Inc. Video information processing system with selective chroma deblock filtering
CN101395921B (zh) * 2006-11-17 2012-08-22 Lg电子株式会社 用于解码/编码视频信号的方法及装置
JP5026092B2 (ja) * 2007-01-12 2012-09-12 三菱電機株式会社 動画像復号装置および動画像復号方法
KR20080114482A (ko) * 2007-06-26 2008-12-31 삼성전자주식회사 다시점 비디오 코딩에서 휘도 보상 방법 및 장치
US20090154567A1 (en) * 2007-12-13 2009-06-18 Shaw-Min Lei In-loop fidelity enhancement for video compression
US8195001B2 (en) * 2008-04-09 2012-06-05 Intel Corporation In-loop adaptive wiener filter for video coding and decoding
US8804831B2 (en) * 2008-04-10 2014-08-12 Qualcomm Incorporated Offsets at sub-pixel resolution
US20120294353A1 (en) * 2011-05-16 2012-11-22 Mediatek Inc. Apparatus and Method of Sample Adaptive Offset for Luma and Chroma Components
US20130003829A1 (en) * 2011-07-01 2013-01-03 Kiran Misra System for initializing an arithmetic coder
US10070152B2 (en) * 2011-08-24 2018-09-04 Texas Instruments Incorporated Sample adaptive offset (SAO) parameter signaling
US9584819B2 (en) * 2011-10-24 2017-02-28 Qualcomm Incorporated Grouping of tiles for video coding
US10097839B2 (en) * 2014-12-19 2018-10-09 Qualcomm Incorporated Palette mode for subsampling format

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050099256A (ko) * 2004-04-09 2005-10-13 삼성전자주식회사 디블록킹을 이용한 영상처리 장치와 영상처리 방법
KR100896291B1 (ko) * 2006-11-17 2009-05-07 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
KR20100135638A (ko) * 2009-06-17 2010-12-27 한국전자통신연구원 복수의 보간 필터링 방법 및 이를 적용한 부호화 장치
KR20110068897A (ko) * 2009-12-16 2011-06-22 한국전자통신연구원 적응적 영상 부호화 장치 및 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9204171B1 (en) 2011-09-28 2015-12-01 Electronics And Telecommunications Research Institute Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor
US9204148B1 (en) 2011-09-28 2015-12-01 Electronics And Telecommunications Research Institute Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor
WO2015124108A1 (en) * 2014-02-20 2015-08-27 Mediatek Inc. Method for controlling sample adaptive offset filtering applied to different partial regions in one frame based on different weighting parameters and related sample adaptive offset filter

Also Published As

Publication number Publication date
EP3145196A2 (en) 2017-03-22
EP3154267A2 (en) 2017-04-12
KR20130034570A (ko) 2013-04-05
BR122014023991B1 (pt) 2023-03-14
KR20130034566A (ko) 2013-04-05
CN105007497A (zh) 2015-10-28
BR122020015282B1 (pt) 2023-05-16
EP3154267A3 (en) 2017-08-23
KR20130095241A (ko) 2013-08-27
KR20170059950A (ko) 2017-05-31
BR122020015286B1 (pt) 2023-11-14
BR122020015284B1 (pt) 2023-05-16
CN105007497B (zh) 2019-04-09
KR20140060478A (ko) 2014-05-20
KR102194038B1 (ko) 2020-12-22
BR112014007434A2 (pt) 2017-04-04
EP3965427A1 (en) 2022-03-09
KR20140066677A (ko) 2014-06-02
EP2763411A4 (en) 2015-10-07
US20140286396A1 (en) 2014-09-25
KR20230033014A (ko) 2023-03-07
CN103959794A (zh) 2014-07-30
CN104902284B (zh) 2018-10-09
KR101977739B1 (ko) 2019-05-15
KR101868121B1 (ko) 2018-06-18
KR20180067485A (ko) 2018-06-20
KR101977738B1 (ko) 2019-05-15
KR101366650B1 (ko) 2014-02-26
KR102337652B1 (ko) 2021-12-09
US9270990B2 (en) 2016-02-23
KR102030425B1 (ko) 2019-10-10
KR20190113737A (ko) 2019-10-08
KR20180067486A (ko) 2018-06-20
KR20180067487A (ko) 2018-06-20
IN2014CN03108A (ko) 2015-07-03
JP2022043032A (ja) 2022-03-15
KR20200143333A (ko) 2020-12-23
JP2014531851A (ja) 2014-11-27
JP2023145724A (ja) 2023-10-11
JP2017108424A (ja) 2017-06-15
KR20130034614A (ko) 2013-04-05
KR20130095240A (ko) 2013-08-27
KR102140328B1 (ko) 2020-07-31
EP2763411A1 (en) 2014-08-06
KR101744024B1 (ko) 2017-06-07
KR20200092300A (ko) 2020-08-03
EP3145196A3 (en) 2017-08-23
JP2015181270A (ja) 2015-10-15
CN104902284A (zh) 2015-09-09
KR101977741B1 (ko) 2019-05-15
KR20240018540A (ko) 2024-02-13
KR101356450B1 (ko) 2014-02-05
CN103959794B (zh) 2016-09-14
CN104902286B (zh) 2019-01-18
CN104902286A (zh) 2015-09-09
KR20210153572A (ko) 2021-12-17
BR122014023991A2 (pt) 2019-08-20
KR102631239B1 (ko) 2024-01-31
EP2887674A3 (en) 2015-10-07
KR20190050958A (ko) 2019-05-14
KR20180067488A (ko) 2018-06-20
BR112014007434B1 (pt) 2023-03-21
CN104202610A (zh) 2014-12-10
EP2887674A2 (en) 2015-06-24
KR20130095242A (ko) 2013-08-27
JP2020017986A (ja) 2020-01-30
JP2014171227A (ja) 2014-09-18
KR101977740B1 (ko) 2019-05-15

Similar Documents

Publication Publication Date Title
KR102030425B1 (ko) 제한된 오프셋 보상 및 루프 필터를 기반으로 하는 영상 부호화 및 복호화 방법 및 그 장치
US9148663B2 (en) Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor
US9204171B1 (en) Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor
US20150350645A1 (en) Method for encoding and decoding images based on constrained offset compensation and loop filter, and apparatus therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12835079

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2014533205

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14347709

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2012835079

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012835079

Country of ref document: EP

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112014007434

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112014007434

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20140327