WO2018074626A1 - 적응적 보간 필터를 사용하는 비디오 코딩 방법 및 장치 - Google Patents

적응적 보간 필터를 사용하는 비디오 코딩 방법 및 장치 Download PDF

Info

Publication number
WO2018074626A1
WO2018074626A1 PCT/KR2016/011777 KR2016011777W WO2018074626A1 WO 2018074626 A1 WO2018074626 A1 WO 2018074626A1 KR 2016011777 W KR2016011777 W KR 2016011777W WO 2018074626 A1 WO2018074626 A1 WO 2018074626A1
Authority
WO
WIPO (PCT)
Prior art keywords
interpolation filter
adaptive interpolation
prediction
parameter set
perform
Prior art date
Application number
PCT/KR2016/011777
Other languages
English (en)
French (fr)
Inventor
류호찬
안용조
Original Assignee
디지털인사이트주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 디지털인사이트주식회사 filed Critical 디지털인사이트주식회사
Priority to CN201680090262.9A priority Critical patent/CN109845265A/zh
Priority to US16/343,582 priority patent/US20190253707A1/en
Publication of WO2018074626A1 publication Critical patent/WO2018074626A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/635Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by filter definition or implementation details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Definitions

  • the present invention relates to an image processing technique, and more particularly, to a method and apparatus for performing interpolation by selecting a specific filter among a plurality of interpolation filters in a video compression technique.
  • pixel interpolation technology is used to generate real-precision pixels between two integer-precision pixels and is used in intra prediction and inter prediction.
  • H.264 / AVC the existing video coding standard, 6-tap interpolation filter is adopted.
  • the number of taps of an interpolation filter is an element technology that greatly affects encoding and decoding complexity as well as encoding efficiency through precise reference pixel generation in generating real precision pixels.
  • interpolation filters having a higher number of taps have been proposed according to an increase in image resolution and an improvement in computing power, and various reference pixel generation techniques having high precision have been studied.
  • the spatial similarity between pixels increases, which also affects the encoding efficiency due to the interpolation filter.
  • the effect of the interpolation filter is limited to increase the coding efficiency compared to the low resolution image.
  • An object of the present invention is to provide a method and apparatus for adaptively selecting an inter-pixel interpolation filter used in intra prediction and inter prediction in consideration of image resolution, encoding and decoding environment, encoding efficiency, and the like. do.
  • a video coding method and apparatus include an acquirer for obtaining spatially and temporally adjacent reference samples, a determiner for determining whether to perform an adaptive interpolation filter obtained from a bitstream, If it is true that the adaptive interpolation filter is true, the processor may perform interpolation on the reference sample using information on the obtained reference sample and the interpolation filter.
  • a video coding method and apparatus perform an adaptive interpolation filter through high level syntax of one of a sequence parameter set (SPS), a picture parameter set (PPS), and a slice header. It includes an acquisition unit for acquiring whether or not.
  • SPS sequence parameter set
  • PPS picture parameter set
  • slice header a slice header
  • a video coding method and apparatus are adapted for intra prediction by using high level syntax of one of a sequence parameter set (SPS), a picture parameter set (PPS), and a slice header.
  • SPS sequence parameter set
  • PPS picture parameter set
  • slice header that acquires whether to perform an interpolation filter.
  • An acquisition unit for obtaining, an acquisition unit for acquiring tap information of an adaptive interpolation filter for intra prediction, and an adaptive interpolation for inter prediction If it is true that the filter is true, an acquisition unit for acquiring tap information of the adaptive interpolation filter for inter prediction.
  • An object of the present invention is to provide a method and apparatus for adaptively selecting an inter-pixel interpolation filter used in intra prediction and inter prediction in consideration of image resolution, encoding and decoding environment, encoding efficiency, and the like. do.
  • the present invention is a video coding method and apparatus for improving coding efficiency by selecting and adaptively using an inter-pixel interpolation filter used in intra prediction and inter prediction in consideration of image resolution, encoding and decoding environment, encoding efficiency, and the like. To provide that purpose.
  • the encoding performance and the complexity are selectively selected by transmitting the type information of the interpolation filter in the sequence unit.
  • encoding performance may be improved by grouping and encoding information of one or more coding blocks into one or more groups.
  • FIG. 1 is a block diagram illustrating a configuration of a video encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a configuration of a video decoding apparatus according to an embodiment of the present invention.
  • FIG. 3 is a flowchart of motion compensation including an interpolation filter performing unit according to an embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating generation of an intra prediction pixel including an interpolation filter performing unit according to an exemplary embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating an interpolation filter performing unit performing an adaptive interpolation filter according to an embodiment of the present invention.
  • FIG 6 illustrates an example of syntax for an adaptive interpolation filter according to an embodiment of the present invention.
  • FIG 7 shows an example of syntax for an adaptive interpolation filter of intra picture prediction and inter picture prediction according to an embodiment of the present invention.
  • ⁇ to '' or ⁇ of '' does not mean a step for.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • each component shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is composed of separate hardware or one software unit. That is, each component is described by listing each component for convenience of description, and at least two of the components may be combined to form one component, or one component may be divided into a plurality of components to perform a function. The integrated and separated embodiments of each of these components are also included within the scope of the present invention without departing from the spirit of the invention.
  • an interpolation filter may be referred to generically including generating a pixel located between two adjacent pixels by using one or more pixels.
  • the application range of the interpolation filter is not limited to the inter prediction, and may be referred to comprehensively including an interpolation filter for spatially adjacent pixels in the intra prediction.
  • FIG. 4 is a flowchart illustrating generation of an intra prediction pixel including an interpolation filter performing unit according to an exemplary embodiment of the present invention.
  • the intra prediction pixel generator includes an intra prediction pixel interpolation filter performing determiner 420, an interpolation filter performer 430, and a reference pixel generator 440 according to a mode.
  • the intra prediction pixel interpolation filter performance determiner 420 determines whether to perform the interpolation filter for the current intra prediction mode, and performs the interpolation filter when the interpolation filter is required. Otherwise, the reference pixel according to the mode Perform the generation.
  • the interpolation filter performing unit 430 determines the interpolation position according to the intra prediction mode of the current block and performs the interpolation filter.
  • the reference pixel generator 440 according to the mode generates final prediction pixels by using pixels adjacent to the intra prediction mode information and reference pixels on which an interpolation filter is performed.
  • ⁇ to '' or ⁇ of '' does not mean a step for.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • each component shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is composed of separate hardware or one software unit. That is, each component is described by listing each component for convenience of description, and at least two of the components may be combined to form one component, or one component may be divided into a plurality of components to perform a function. The integrated and separated embodiments of each of these components are also included within the scope of the present invention without departing from the spirit of the invention.
  • an interpolation filter may be referred to generically including generating a pixel located between two adjacent pixels by using one or more pixels.
  • the application range of the interpolation filter is not limited to the inter prediction, and may be referred to comprehensively including an interpolation filter for spatially adjacent pixels in the intra prediction.
  • FIG. 1 is a block diagram illustrating a configuration of a video encoding method and apparatus according to an embodiment of the present invention.
  • the video encoding method and apparatus may include an inter prediction unit 120, an intra prediction unit 125, a subtraction unit 130, a transform unit 140, a quantization unit 150, and an entropy encoding unit 160. ), An inverse transform unit 145, an inverse quantization unit 155, an adder 135, an in-loop filter unit 180, and a reconstructed picture buffer 190.
  • the inter prediction unit 120 generates a prediction signal by performing motion prediction using the reconstructed image stored in the input image 110 and the reconstructed picture buffer 190.
  • the intra prediction unit 125 generates a prediction signal by performing spatial prediction using pixel values of pre-restored neighboring blocks adjacent to the current block to be encoded.
  • the subtractor 130 generates a residual signal using the prediction signal generated by the input image and the inter-prediction unit 120 or the intra prediction unit 125.
  • the transformer 140 and the quantizer 150 generate quantized coefficients by performing transform and quantization on the residual signal generated by the subtractor 130.
  • the entropy encoder 160 outputs a bitstream by performing entropy encoding on encoding information such as syntax elements and quantized coefficients defined in the video encoder.
  • the inverse transformer 145 and the inverse quantizer 155 receive the quantization coefficients, perform inverse quantization and inverse transformation in order, and generate a reconstructed residual signal.
  • the adder 135 generates a reconstruction signal by using the prediction signal generated by the inter prediction unit 120 or the intra prediction unit 125 and the reconstructed residual signal.
  • the reconstruction signal is transmitted to the in-loop filter unit 180.
  • the reconstructed picture to which the filtering is applied is stored in the reconstructed picture buffer 190 and may be used as a reference picture in the inter prediction unit 120.
  • FIG. 2 is a block diagram showing the configuration of a video decoding apparatus and method according to an embodiment of the present invention.
  • the video decoding apparatus and method may include an entropy decoder 210, an inverse quantizer 220, an inverse transformer 230, an intra prediction unit 240, an inter prediction unit 250, and an adder ( 260, an in-loop filter unit 270, and a reconstructed picture buffer 280.
  • the entropy decoder 210 decodes the input bitstream 200 and outputs decoding information such as syntax elements and quantized coefficients.
  • the inverse quantization unit 220 and the inverse transform unit 230 receive the quantization coefficients, perform inverse quantization and inverse transformation in order, and output a residual signal.
  • the intra prediction unit 240 generates a prediction signal by performing spatial prediction using pixel values of the pre-decoded neighboring block adjacent to the current block to be decoded.
  • the inter prediction unit 250 generates a prediction signal by performing motion compensation using the motion vector extracted from the bitstream and the reconstructed image stored in the reconstructed picture buffer 280.
  • the prediction signals output from the intra prediction unit 240 and the intra prediction unit 250 are combined with the residual signal through the adder 260, and thus the reconstruction signal generated in units of blocks includes a reconstructed image. .
  • the reconstructed image is transmitted to the in-loop filter unit 270.
  • the reconstructed picture to which the filtering is applied is stored in the reconstructed picture buffer 280 and may be used as a reference picture in the inter prediction unit 250.
  • FIG. 3 is a flowchart of motion compensation including an interpolation filter performing unit according to an embodiment of the present invention.
  • the motion compensation performer includes a motion information acquirer 320, a reference block acquirer 330, and an interpolation filter performer 340.
  • the motion information acquisition unit 320 shown in FIG. 3 includes generating motion information of a current block from motion information obtained from a bitstream in spatial and temporally adjacent blocks.
  • the reference block obtaining unit 330 may include generating a prediction block by obtaining a reference block from a reference picture based on the generated motion information of the current block. In this case, when the motion information performs bidirectional prediction, the method may include generating one prediction block by obtaining two reference blocks.
  • the interpolation filter performer 340 may perform inter-pixel interpolation in the prediction block by using the generated prediction block and the motion information.
  • the final prediction block generated by the interpolation filter performer is output by the motion compensation performer.
  • FIG. 5 is a flowchart illustrating an interpolation filter performing unit performing an adaptive interpolation filter according to an embodiment of the present invention.
  • An interpolation filter performing unit for performing an adaptive interpolation filter may include a reference sample generator 520, an adaptive interpolation filter performing determiner 530, an interpolation filter selector 540, and a reference sample interpolation performer 550.
  • the reference sample generator includes acquiring reference samples generated using motion information in inter prediction and acquiring spatially adjacent reference samples in intra prediction.
  • the adaptive interpolation filter performance determiner 530 may include performing an adaptive interpolation filter among high level syntaxes such as a sequence parameter set (SPS), a picture parameter set (PPS), and a slice header.
  • the interpolation filter selector 540 includes selecting one of the interpolation filters predefined in the standard or the transmitted filters using interpolation filter information transmitted in the high level syntax.
  • the reference sample interpolation unit 550 includes interpolating reference samples using an interpolation filter selected by the interpolation filter selector 540 or an interpolation filter defined by a standard.
  • FIG 6 illustrates an example of syntax for an adaptive interpolation filter according to an embodiment of the present invention.
  • the syntax for the adaptive interpolation filter transmits whether to use the adaptive interpolation filter 610 using high level syntax such as a sequence parameter set (SPS), a picture parameter set (PPS), and a slice header. It involves doing. In addition, only the information on whether the adaptive interpolation filter is used 610 may be transmitted alone, and when the use of the adaptive interpolation filter 620 and the use of the adaptive interpolation filter 620 mean additionally interpolation. Filter tap information 630 is transmitted.
  • the syntax table illustrated in FIG. 6 shows an example of transmitting information on the adaptive interpolation filter using a sequence parameter set (SPS).
  • the interpolation filter tap information 630 may include the number of filter taps being directly transmitted or an index form indicating one of a plurality of filter tap types previously defined in a standard. In this case, when the number of filter taps is directly transmitted, a difference value obtained by subtracting a specific value from the number of filter taps is transmitted.
  • the syntax table illustrated in FIG. 6 shows an example of transmitting information on the adaptive interpolation filter using a sequence parameter set (SPS).
  • SPS sequence parameter set
  • FIG 7 shows an example of syntax for an adaptive interpolation filter of intra picture prediction and inter picture prediction according to an embodiment of the present invention.
  • the syntax for the adaptive interpolation filter of intra picture prediction and inter picture prediction may be used in intra prediction using high level syntax such as sequence parameter set (SPS), picture parameter set (PPS), and slice header. Whether or not to use the adaptive interpolation filter 710 and whether to use the adaptive interpolation filter 720 in the inter prediction. In addition, only information on whether to use the adaptive interpolation filter in the intra prediction (710) and the use of the adaptive interpolation filter (720) in the inter prediction may be transmitted alone, and the adaptive interpolation filter of the intra prediction When the use of 730, 740 and the use of the adaptive interpolation filter 730, 740 means the use of the interpolation filter tap information 750, 7600 is additionally transmitted.
  • the syntax table illustrated in FIG. 7 illustrates an example of transmitting information on the adaptive interpolation filter using a sequence parameter set (SPS).
  • the interpolation filter tap information 750 of the intra prediction and the interpolation filter tap information 760 of the inter prediction may be directly transmitted, or one of a plurality of filter tap types previously defined in the standard may be transmitted. It is transmitted in the form of a meaning index. In this case, when the number of filter taps is directly transmitted, a difference value obtained by subtracting a specific value from the number of filter taps is transmitted.
  • the syntax table illustrated in FIG. 7 illustrates an example of transmitting information on the adaptive interpolation filter using a sequence parameter set (SPS).

Abstract

본 발명은 비디오 코딩 기술 중 보간 필터와 이를 선택적으로 사용하여 부호화 및 복호화하는 방법 및 장치에 관한 것이다. 방법은 공간적, 시간적으로 인접한 참조 샘플을 획득하는 단계; 비트스트림으로부터 획득한 적응적 보간 필터의 수행 여부를 판단하는 단계; 및 상기 적응적 보간 필터의 수행 여부가 참을 의미하는 경우 상기 획득한 참조 샘플과 보간 필터에 대한 정보를 이용하여 참조 샘플에 대한 보간을 수행하는 단계를 포함한다.

Description

적응적 보간 필터를 사용하는 비디오 코딩 방법 및 장치
본 발명은 영상 처리기술에 관한 것으로써, 보다 상세하게는 비디오 압축 기술에서 다수의 보간 필터 중 특정 필터를 선택하여 보간을 수행하는 방법 및 장치에 관한 것이다.
고해상도, 고화질 비디오에 대한 요구가 증가함에 따라 차세대 비디오 서비스를 위한 고효율 비디오 압축 기술에 대한 필요성이 대두되었다. 이러한 필요성에 기반하여 H.264/AVC 비디오 압축 표준의 표준을 공동으로 표준화 MPEG과 VCEG은 JCT-VC (Joint Collaborative Team on Video Coding)을 결성하여 2013년 1월 최신 국제 비디오 압축 표준인 HEVC에 대한 표준화를 완료하였다.
비디오 압축 기술에서 화소 보간 기술은 정수 정밀도의 두 화소 사이에 실수 정밀도의 화소를 생성하는 기술로써 화면 내 예측, 화면 간 예측에서 사용된다. 기존 비디오 코딩 표준인 H.264/AVC에서는 6-tap 보간 필터를 채택하였으며, HEVC에서는 8-tap, 7-tap 보간 필터를 채택하였다. 보간 필터의 탭수는 실수 정밀도의 화소를 생성함에 있어 정밀한 참조 화소 생성을 통한 부호화 효율뿐 아니라 부호화 및 복호화 복잡도에도 큰 영향을 미치는 요소 기술이다.
최근 영상의 해상도 증가와 컴퓨팅 파워의 향상에 따라 보다 높은 탭수를 갖는 보간 필터들이 제안되고 있으며, 높은 정밀도를 갖는 참조 화소 생성 기술들이 다양하게 연구되고 있다. 하지만, 영상의 해상도가 증가함에 따라 화소간의 공간적 유사성이 높아지며, 이는 보간 필터로 인한 부호화 효율 향상에도 영향을 미친다. 높은 해상도의 영상에서는 화소간의 공간적 유사성이 높아짐에 따라 보간 필터의 영향이 낮은 해상도의 영상 대비 부호화 효율 증가 폭이 제한됨을 나타낸다.
본 발명은 영상의 해상도, 부호화 및 복호화 환경, 부호화 효율 등을 고려하여 화면 내 예측 및 화면 간 예측에서 사용하는 화소간 보간 필터를 선택하여 적응적으로 사용하는 방법 및 장치를 제공하는 것을 그 목적으로 한다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 코딩 방법 및 장치는 공간적, 시간적으로 인접한 참조 샘플을 획득하는 획득부, 비트스트림으로부터 획득한 적응적 보간 필터의 수행 여부를 판단하는 판단부, 상기 적응적 보간 필터의 수행 여부가 참을 의미하는 경우 상기 획득한 참조 샘플과 보간 필터에 대한 정보를 이용하여 참조 샘플에 대하여 보간을 수행하는 수행부를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 코딩 방법 및 장치는 시퀀스 파라메터 셋(SPS), 픽쳐 파라메터 셋(PPS), 및 슬라이스 헤더 중 하나의 하이레벨 신택스를 통해 적응적 보간 필터의 수행 여부를 획득하는 획득부를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 코딩 방법 및 장치는 시퀀스 파라메터 셋(SPS), 픽쳐 파라메터 셋(PPS), 및 슬라이스 헤더 중 하나의 하이레벨 신택스를 통해 화면 내 예측을 위한 적응적 보간 필터의 수행 여부를 획득하는 획득부, 시퀀스 파라메터 셋(SPS), 픽쳐 파라메터 셋(PPS), 및 슬라이스 헤더 중 하나의 하이레벨 신택스를 통해 화면 간 예측을 위한 적응적 보간 필터의 수행 여부를 획득하는 획득부, 상기 화면 내 예측을 위한 적응적 보간 필터의 수행 여부가 참을 의미하는 경우 화면 내 예측을 위한 적응적 보간 필터의 탭 정보를 획득하는 획득부, 상기 화면 간 예측을 위한 적응적 보간 필터의 수행 여부가 참을 의미하는 경우 화면 간 예측을 위한 적응적 보간 필터의 탭 정보를 획득하는 획득부를 포함한다.
본 발명은 영상의 해상도, 부호화 및 복호화 환경, 부호화 효율 등을 고려하여 화면 내 예측 및 화면 간 예측에서 사용하는 화소간 보간 필터를 선택하여 적응적으로 사용하는 방법 및 장치를 제공하는 것을 그 목적으로 한다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
본 발명은 영상의 해상도, 부호화 및 복호화 환경, 부호화 효율 등을 고려하여 화면 내 예측 및 화면 간 예측에서 사용하는 화소간 보간 필터를 선택하여 적응적으로 사용하므로써 부호화 효율을 향상시키는 비디오 코딩 방법 및 장치를 제공하는 것을 그 목적으로 한다.
본 발명의 일 실시 예에 따르면, 시퀀스 단위의 보간 필터의 종류 정보를 전송하므로써 부호화 성능 및 복잡도를 선택적으로
본 발명의 일 시시 예에 따르면, 하나 이상의 부호화 블록의 정보를 하나 이상의 그룹으로 묶어서 부호화하므로써 부호화 성능을 향상 시킬 수 있다.
도 1은 본 발명의 일 실시예에 따른 비디오 부호화 장치의 구성을 나타내는 블록도를 도시한다.
도 2는 본 발명의 일 실시예에 따른 비디오 복호화 장치의 구성을 나타내는 블록도를 도시한다.
도 3은 본 발명의 일 실시예에 따른 보간 필터 수행부가 포함된 움직임 보상의 흐름도를 도시한다.
도 4는 본 발명의 일 실시예에 따른 보간 필터 수행부가 포함된 화면 내 예측 화소 생성의 흐름도를 도시한다.
도 5는 본 발명의 일 실시예에 따른 적응적 보간 필터를 수행하는 보간 필터 수행부의 흐름도를 도시한다.
도 6은 본 발명의 일 실시예에 따른 적응적 보간 필터에 대한 신택스의 일 예를 도시한다.
도 7은 본 발명의 일 실시예에 따른 화면 내 예측 및 화면 간 예측의 적응적 보간 필터에 대한 신택스의 일 예를 도시한다.
하기는 본 명세서에 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 전기적으로 연결되어 있는 경우도 포함한다.
또한, 본 명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
본 명세서 전체에서 사용되는 정도의 용어 ~(하는) 단계 또는 ~의 단계는 ~를 위한 단계를 의미하지 않는다.
또한, 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
덧붙여, 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 기술되고, 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있다. 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리 범위에 포함된다.
이하 본 명세서에 기재된 본 발명의 다양한 실시예들에서 보간 필터는 하나 이상의 화소를 이용하여 인접한 두 화소 사이에 위치하는 화소를 생성하는 것을 포함하여 포괄적으로 지칭할 수 있다. 상기 보간 필터의 적용 범위는 화면 간 예측에만 국한되지 않으며, 화면 내 예측에서 공간적으로 인접한 화소에 대한 보간 필터도 포함하여 포괄적으로 지칭할 수 있다.
이하 본 발명의 일 실시예에 따라 제안하는 적응적 보간 필터를 사용하는 비디오 코딩 방법 및 장치에 대하여 도 6을 참조하여 구체적으로 설명하기로 한다.
도 4는 본 발명의 일 실시예에 따른 보간 필터 수행부가 포함된 화면 내 예측 화소 생성의 흐름도를 도시한다.
일 실시예에 따른 화면 내 예측 화소 생성부는 화면 내 예측 화소 보간 필터 수행 판단부(420), 보간 필터 수행부(430), 모드에 따른 참조 화소 생성부(440)을 포함한다. 상기 화면 내 예측 화소 보간 필터 수행 판단부(420)에서는 현재 화면 내 예측 모드에 대한 보간 필터의 수행 여부를 판단하여 보간 필터의 수행이 필요한 경우 보간 필터를 수행하고 그렇지 않은 경우에는 모드에 따른 참조 화소 생성을 수행한다. 상기 보간 필터 수행부(430)는 현재 블록의 화면 내 예측 모드에 따른 보간 위치를 판단하고 보간 필터를 수행한다. 상기 모드에 따른 참조 화소 생성부(440)에서는 화면 내 예측 모드 정보와 공간적으로 인접한 화소들, 보간 필터가 수행된 참조 화소들을 이용하여 최종 예측 화소들을 생성한다.
하기는 본 명세서에 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 전기적으로 연결되어 있는 경우도 포함한다.
또한, 본 명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
본 명세서 전체에서 사용되는 정도의 용어 ~(하는) 단계 또는 ~의 단계는 ~를 위한 단계를 의미하지 않는다.
또한, 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
덧붙여, 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 기술되고, 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있다. 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리 범위에 포함된다.
이하 본 명세서에 기재된 본 발명의 다양한 실시예들에서 보간 필터는 하나 이상의 화소를 이용하여 인접한 두 화소 사이에 위치하는 화소를 생성하는 것을 포함하여 포괄적으로 지칭할 수 있다. 상기 보간 필터의 적용 범위는 화면 간 예측에만 국한되지 않으며, 화면 내 예측에서 공간적으로 인접한 화소에 대한 보간 필터도 포함하여 포괄적으로 지칭할 수 있다.
이하 본 발명의 일 실시예에 따라 제안하는 적응적 보간 필터를 사용하는 비디오 코딩 방법 및 장치에 대하여 도 6을 참조하여 구체적으로 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 비디오 부호화 방법 및 장치의 구성을 나타내는 블록도를 도시한다.
일 실시예에 따른 비디오 부호화 방법 및 장치는 화면 간 예측부(120), 화면 내 예측부(125), 감산부(130), 변환부(140), 양자화부(150), 엔트로피 부호화부(160), 역변환부(145), 역양자화부(155), 가산부(135), 인루프 필터부(180), 복원 픽쳐 버퍼(190)를 포함할 수 있다.
화면 간 예측부(120)는 입력 영상(110)과 복원 픽쳐 버퍼(190)에 저장되어 있는 복원 영상을 이용하여 움직임 예측을 수행하여 예측 신호를 생성한다.
화면 내 예측부(125)는 부호화되는 현재 블록과 인접하는 기-복원된 주변 블록의 화소 값을 이용하여 공간적 예측을 수행하여 예측 신호를 생성한다.
감산부(130)는 입력 영상과 화면 간 예측부(120) 혹은 화면 내 예측부(125)를 통해 생성된 예측 신호를 이용하여 잔차 신호(residual signal)를 생성한다.
변환부(140) 및 양자화부(150)는 감산부(130)을 통해 생성된 잔차 신호에 대하여 변환 및 양자화를 수행하여 양자화된 계수(quantized coefficient)를 생성한다.
엔트로피 부호화부(160)는 비디오 부호화기에 정의된 신택스 요소(syntax elements) 및 양자화된 계수 등과 같은 부호화 정보에 대하여 엔트로피 부호화를 수행하여 비트스트림을 출력한다.
역변환부(145) 및 역양자화부(155)는 양자화 계수를 수신하여 역양자화 및 역변환을 차례대로 수행하고, 복원된 잔차 신호를 생성한다.
가산부(135)는 화면 간 예측부(120) 혹은 화면 내 예측부(125)를 통해 생성된 예측 신호와 복원된 잔차 신호를 이용하여 복원 신호를 생성한다.
복원 신호는 인루프 필터부(180)로 전달된다. 필터링이 적용된 복원 픽쳐는 복원 픽쳐 버퍼(190)에 저장되며, 화면 간 예측부(120)에서 참조 픽쳐로 사용될 수 있다.
도 2는 본 발명의 일 실시예에 따른 비디오 복호화 장치 및 방법의 구성을 나타내는 블록도를 도시한다.
일 실시예에 따른 비디오 복호화 장치 및 방법은 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 화면 내 예측부(240), 화면 간 예측부(250), 가산부(260), 인루프 필터부(270), 복원 픽쳐 버퍼(280)를 포함할 수 있다.
엔트로피 복호화부(210)는 입력된 비트스트림(200)을 복호화하여 신택스 요소(syntax elements) 및 양자화된 계수 등과 같은 복호화 정보를 출력한다.
역양자화부(220) 및 역변환부 (230)는 양자화 계수를 수신하여 역양자화 및 역변환을 차례대로 수행하고, 잔차 신호(residual signal)를 출력한다.
화면 내 예측부(240)는 복호화되는 현재 블록과 인접하는 기-복호화된 주변 블록의 화소 값을 이용하여 공간적 예측을 수행하여 예측 신호를 생성한다.
화면 간 예측부(250)는 비트스트림으로부터 추출된 움직임 벡터와 복원 픽쳐 버퍼(280)에 저장되어 있는 복원 영상을 이용하여 움직임 보상을 수행하여 예측 신호를 생성한다.
화면 내 예측부(240)와 화면 내 예측부(250)로부터 출력된 예측 신호는 가산부(260)를 통해 잔차 신호와 합해지고, 그에 따라 블록 단위로 생성된 복원 신호는 복원된 영상을 포함한다.
복원된 영상은 인루프 필터부(270)로 전달된다. 필터링이 적용된 복원 픽쳐는 복원 픽쳐 버퍼(280)에 저장되며, 화면 간 예측부(250)에서 참조 픽쳐로 사용될 수 있다.
도 3은 본 발명의 일 실시예에 따른 보간 필터 수행부가 포함된 움직임 보상의 흐름도를 도시한다.
일 실시예에 따른 움직임 보상 수행부는 움직임 정보 획득부(320), 참조 블록 획득부(330), 보간 필터 수행부(340)을 포함한다. 도 3에 도시된 움직임 정보 획득부(320)은 비트스트림으로부터 획득한 움직임 정보를 공간적, 시간적으로 인접한 블록들의 움직임 정보들로부터 현재 블록의 움직임 정보를 생성하는 것을 포함한다. 참조 블록 획득부(330)은 상기 생성된 현재 블록의 움직임 정보를 기반으로 참조 픽쳐에서 참조 블록을 획득하여 예측 블록을 생성하는 것을 포함한다. 이때, 상기 움직임 정보가 양방향 예측을 수행하는 경우 두 개의 참조 블록을 획득하여 하나의 예측 블록을 생성하는 것을 포함한다. 보간 필터 수행부(340)은 상기 생성된 예측 블록과 상기 움직임 정보를 이용하여 예측 블록 내의 화소간 보간을 수행하는 것을 포함한다. 상기 보간 필터 수행부에서 생성된 최종 예측 블록은 움직임 보상 수행부에서 출력된다.
도 5는 본 발명의 일 실시예에 따른 적응적 보간 필터를 수행하는 보간 필터 수행부의 흐름도를 도시한다.
일 실시예에 따른 적응적 보간 필터를 수행하는 보간 필터 수행부는 참조 샘플 생성부(520), 적응적 보간 필터 수행 판단부(530), 보간 필터 선택부(540), 참조 샘플 보간 수행부(550)을 포함한다. 상기 참조 샘플 생성부는 화면 간 예측에서는 움직임 정보를 이용하여 생성된 참조 샘플들 획득하는 것을 포함하고 화면 내 예측에서는 공간적으로 인접한 참조 샘플들을 획득하는 것을 포함한다. 상기 적응적 보간 필터 수행 판단부(530)은 시퀀스 파라메터 셋 (SPS), 픽쳐 파라메터 셋 (PPS), 및 슬라이스 헤더와 같은 하이 레벨 신택스 중 적응적 보간 필터의 수행을 결정하는 것을 포함한다. 상기 보간 필터 선택부(540)는 상기 하이 레벨 신택스에서 전송된 보간 필터 정보를 이용하여 표준에서 미리 정의된 보간 필터 혹은 전송된 필터 중 하나의 보간 필터를 선택하는 것을 포함한다. 일 예로 4탭 보간 필터, 6탭 보간 필터, 및 8탭 보간 필터 중 하나의 보간 필터를 선택할 수 있으며, 보간 필터의 선택은 전송된 부호화 정보를 이용하거나 미리 정의된 선택 방법에 따르는 것을 포함한다. 상기 참조 샘플 보간 수행부(550)는 상기 보간 필터 선택부(540)에서 선택된 보간 필터 혹은 표준에서 정의하는 보간 필터를 이용하여 참조 샘플의 보간을 수행하는 것을 포함한다.
도 6은 본 발명의 일 실시예에 따른 적응적 보간 필터에 대한 신택스의 일 예를 도시한다.
일 실시예에 따른 적응적 보간 필터에 대한 신택스는 시퀀스 파라메터 셋 (SPS), 픽쳐 파라메터 셋 (PPS), 및 슬라이스 헤더 등의 하이 레벨 신택스를 이용하여 적응적 보간 필터의 사용 여부(610)를 전송하는 것을 포함한다. 또한, 상기 적응적 보간 필터 사용 여부(610) 정보만 단독으로 전송 될 수 있으며, 적응적 보간 필터의 사용 여부(620)와 상기 적응적 보간 필터 사용 여부(620)가 사용을 의미하는 경우 추가적으로 보간 필터 탭 정보(630)가 전송되는 것을 포함한다. 도 6에 도시된 신택스 테이블은 시퀀스 파라메터 셋 (SPS)를 이용하여 상기 적응적 보간 필터에 대한 정보를 전송하는 일 예를 도시한다.
일 실시예에 따른 상기 보간 필터 탭 정보(630)는 필터 탭 수가 직접 전송 되거나, 미리 표준에서 정의된 다수의 필터 탭 종류 중 하나를 의미하는 인덱스 형태로 전송되는 것을 포함한다. 이때, 상기 필터 탭 수가 직접 전송되는 경우 필터 탭 수에서 특정 값을 뺀 차분 값이 전송되는 것을 포함한다. 도 6에 도시된 신택스 테이블은 시퀀스 파라메터 셋 (SPS)를 이용하여 상기 적응적 보간 필터에 대한 정보를 전송하는 일 예를 도시한다.
도 7은 본 발명의 일 실시예에 따른 화면 내 예측 및 화면 간 예측의 적응적 보간 필터에 대한 신택스의 일 예를 도시한다.
일 실시예에 따른 화면 내 예측 및 화면 간 예측의 적응적 보간 필터에 대한 신택스는 시퀀스 파라메터 셋 (SPS), 픽쳐 파라메터 셋 (PPS), 및 슬라이스 헤더 등의 하이 레벨 신택스를 이용하여 화면 내 예측에서의 적응적 보간 필터의 사용 여부(710), 화면 간 예측에서의 적응적 보간 필터의 사용 여부(720)를 전송하는 것을 포함한다. 또한, 상기 화면 내 예측에서의 적응적 보간 필터 사용 여부(710), 화면 간 예측에서의 적응적 보간 필터 사용 여부(720) 정보만 단독으로 전송 될 수 있으며, 상기 화면 내 예측의 적응적 보간 필터의 사용 여부(730), (740)와 상기 적응적 보간 필터 사용 여부(730), (740)가 사용을 의미하는 경우 추가적으로 보간 필터 탭 정보(750), (7600)가 전송되는 것을 포함한다. 도 7에 도시된 신택스 테이블은 시퀀스 파라메터 셋 (SPS)를 이용하여 상기 적응적 보간 필터에 대한 정보를 전송하는 일 예를 도시한다.
일 실시예에 따른 상기 화면 내 예측의 보간 필터 탭 정보(750)와 화면 간 예측의 보간 필터 탭 정보(760)는 필터 탭 수가 직접 전송 되거나, 미리 표준에서 정의된 다수의 필터 탭 종류 중 하나를 의미하는 인덱스 형태로 전송되는 것을 포함한다. 이때, 상기 필터 탭 수가 직접 전송되는 경우 필터 탭 수에서 특정 값을 뺀 차분 값이 전송되는 것을 포함한다. 도 7에 도시된 신택스 테이블은 시퀀스 파라메터 셋 (SPS)를 이용하여 상기 적응적 보간 필터에 대한 정보를 전송하는 일 예를 도시한다.
비디오 부/복호화 관련산업으로 방송장비 제조, 단말제조 등 제조업체나 원천기술 관련 산업에서 이용가능.
해당 없음.

Claims (8)

  1. 비디오 부호화 및 복호화 방법에 있어서,
    공간적, 시간적으로 인접한 참조 샘플을 획득하는 단계;
    비트스트림으로부터 획득한 적응적 보간 필터의 수행 여부를 판단하는 단계; 및
    상기 적응적 보간 필터의 수행 여부가 참을 의미하는 경우 상기 획득한 참조 샘플과 보간 필터에 대한 정보를 이용하여 참조 샘플에 대하여 보간을 수행하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 및 복호화 방법.
  2. 제 1항에 있어서,
    적응적 보간 필터의 수행 여부를 판단하는 단계는
    시퀀스 파라메터 셋(SPS), 픽쳐 파라메터 셋(PPS), 및 슬라이스 헤더 중 하나의 하이레벨 신택스를 통해 적응적 보간 필터의 수행 여부를 획득하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 및 복호화 방법.
  3. 제 1항에 있어서,
    적응적 보간 필터의 수행 여부를 판단하는 단계는
    시퀀스 파라메터 셋(SPS), 픽쳐 파라메터 셋(PPS), 및 슬라이스 헤더 중 하나의 하이레벨 신택스를 통해 화면 내 예측을 위한 적응적 보간 필터의 수행 여부를 획득하는 단계;
    시퀀스 파라메터 셋(SPS), 픽쳐 파라메터 셋(PPS), 및 슬라이스 헤더 중 하나의 하이레벨 신택스를 통해 화면 간 예측을 위한 적응적 보간 필터의 수행 여부를 획득하는 단계;
    상기 화면 내 예측을 위한 적응적 보간 필터의 수행 여부가 참을 의미하는 경우 화면 내 예측을 위한 적응적 보간 필터의 탭 정보를 획득하는 단계; 및
    상기 화면 간 예측을 위한 적응적 보간 필터의 수행 여부가 참을 의미하는 경우 화면 간 예측을 위한 적응적 보간 필터의 탭 정보를 획득하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 및 복호화 방법.
  4. 제 1항에 있어서,
    적응적 보간 필터의 수행 여부를 판단하는 단계는
    시퀀스 파라메터 셋(SPS), 픽쳐 파라메터 셋(PPS), 및 슬라이스 헤더 중 하나의 하이레벨 신택스를 통해 화면 내 예측을 위한 적응적 보간 필터의 수행 여부를 획득하는 단계;
    시퀀스 파라메터 셋(SPS), 픽쳐 파라메터 셋(PPS), 및 슬라이스 헤더 중 하나의 하이레벨 신택스를 통해 화면 간 예측을 위한 적응적 보간 필터의 수행 여부를 획득하는 단계;
    상기 화면 내 예측을 위한 적응적 보간 필터의 수행 여부가 참을 의미하는 경우 화면 내 예측을 위한 적응적 보간 필터의 탭 정보를 획득하는 단계;
    상기 획득한 화면 내 예측을 위한 적응적 보간 필터의 탭 정보가 인덱스 정보인 경우 상기 인덱스를 이용하여 대응되는 화면 내 예측을 위한 보간 필터 탭 수를 획득하는 단계;
    상기 화면 간 예측을 위한 적응적 보간 필터의 수행 여부가 참을 의미하는 경우 화면 간 예측을 위한 적응적 보간 필터의 탭 정보를 획득하는 단계; 및
    상기 획득한 화면 간 예측을 위한 적응적 보간 필터의 탭 정보가 인덱스 정보인 경우 상기 인덱스를 이용하여 대응되는 화면 간 예측을 위한 보간 필터 탭 수를 획득하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 및 복호화 방법.
  5. 비디오 부호화 및 복호화 장치에 있어서,
    공간적, 시간적으로 인접한 참조 샘플을 획득하는 단계;
    비트스트림으로부터 획득한 적응적 보간 필터의 수행 여부를 판단하는 단계; 및
    상기 적응적 보간 필터의 수행 여부가 참을 의미하는 경우 상기 획득한 참조 샘플과 보간 필터에 대한 정보를 이용하여 참조 샘플에 대하여 보간을 수행하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 및 복호화 장치.
  6. 제 5항에 있어서,
    적응적 보간 필터의 수행 여부를 판단하는 단계는
    시퀀스 파라메터 셋(SPS), 픽쳐 파라메터 셋(PPS), 및 슬라이스 헤더 중 하나의 하이레벨 신택스를 통해 적응적 보간 필터의 수행 여부를 획득하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 및 복호화 장치.
  7. 제 5항에 있어서,
    적응적 보간 필터의 수행 여부를 판단하는 단계는
    시퀀스 파라메터 셋(SPS), 픽쳐 파라메터 셋(PPS), 및 슬라이스 헤더 중 하나의 하이레벨 신택스를 통해 화면 내 예측을 위한 적응적 보간 필터의 수행 여부를 획득하는 단계;
    시퀀스 파라메터 셋(SPS), 픽쳐 파라메터 셋(PPS), 및 슬라이스 헤더 중 하나의 하이레벨 신택스를 통해 화면 간 예측을 위한 적응적 보간 필터의 수행 여부를 획득하는 단계;
    상기 화면 내 예측을 위한 적응적 보간 필터의 수행 여부가 참을 의미하는 경우 화면 내 예측을 위한 적응적 보간 필터의 탭 정보를 획득하는 단계; 및
    상기 화면 간 예측을 위한 적응적 보간 필터의 수행 여부가 참을 의미하는 경우 화면 간 예측을 위한 적응적 보간 필터의 탭 정보를 획득하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 및 복호화 장치.
  8. 제 5항에 있어서,
    적응적 보간 필터의 수행 여부를 판단하는 단계는
    시퀀스 파라메터 셋(SPS), 픽쳐 파라메터 셋(PPS), 및 슬라이스 헤더 중 하나의 하이레벨 신택스를 통해 화면 내 예측을 위한 적응적 보간 필터의 수행 여부를 획득하는 단계;
    시퀀스 파라메터 셋(SPS), 픽쳐 파라메터 셋(PPS), 및 슬라이스 헤더 중 하나의 하이레벨 신택스를 통해 화면 간 예측을 위한 적응적 보간 필터의 수행 여부를 획득하는 단계;
    상기 화면 내 예측을 위한 적응적 보간 필터의 수행 여부가 참을 의미하는 경우 화면 내 예측을 위한 적응적 보간 필터의 탭 정보를 획득하는 단계;
    상기 획득한 화면 내 예측을 위한 적응적 보간 필터의 탭 정보가 인덱스 정보인 경우 상기 인덱스를 이용하여 대응되는 화면 내 예측을 위한 보간 필터 탭 수를 획득하는 단계;
    상기 화면 간 예측을 위한 적응적 보간 필터의 수행 여부가 참을 의미하는 경우 화면 간 예측을 위한 적응적 보간 필터의 탭 정보를 획득하는 단계; 및
    상기 획득한 화면 간 예측을 위한 적응적 보간 필터의 탭 정보가 인덱스 정보인 경우 상기 인덱스를 이용하여 대응되는 화면 간 예측을 위한 보간 필터 탭 수를 획득하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 및 복호화 장치.
PCT/KR2016/011777 2016-10-19 2016-10-20 적응적 보간 필터를 사용하는 비디오 코딩 방법 및 장치 WO2018074626A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201680090262.9A CN109845265A (zh) 2016-10-19 2016-10-20 使用自适应插值滤波器的视频编码方法及装置
US16/343,582 US20190253707A1 (en) 2016-10-19 2016-10-20 Video coding method and apparatus utilizing adaptive interpolation filter

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0135432 2016-10-19
KR1020160135432A KR20180042899A (ko) 2016-10-19 2016-10-19 적응적 보간 필터를 사용하는 비디오 코딩 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2018074626A1 true WO2018074626A1 (ko) 2018-04-26

Family

ID=62019468

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/011777 WO2018074626A1 (ko) 2016-10-19 2016-10-20 적응적 보간 필터를 사용하는 비디오 코딩 방법 및 장치

Country Status (4)

Country Link
US (1) US20190253707A1 (ko)
KR (1) KR20180042899A (ko)
CN (1) CN109845265A (ko)
WO (1) WO2018074626A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020168508A1 (zh) * 2019-02-21 2020-08-27 富士通株式会社 参考像素的自适应滤波方法及装置、电子设备

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020256324A1 (ko) * 2019-06-18 2020-12-24 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN111656782A (zh) * 2019-06-19 2020-09-11 北京大学 视频处理方法和设备
WO2021025451A1 (ko) * 2019-08-05 2021-02-11 엘지전자 주식회사 움직임 정보 후보를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
US20220060734A1 (en) * 2020-08-21 2022-02-24 Alibaba Group Holding Limited Intra prediction methods in video coding

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100098345A1 (en) * 2007-01-09 2010-04-22 Kenneth Andersson Adaptive filter representation
KR20100087600A (ko) * 2009-01-28 2010-08-05 삼성전자주식회사 보간 필터를 적응적으로 사용하여 영상을 부호화 및 복호화하는 방법 및 장치
KR20110070823A (ko) * 2009-12-18 2011-06-24 한국전자통신연구원 비디오 부호화/복호화 방법 및 장치
KR20110106406A (ko) * 2008-12-22 2011-09-28 퀄컴 인코포레이티드 비디오 코딩에서 보간 필터링, 인-루프 필터링 및 포스트-필터링을 위한 결합된 방식
KR20160034923A (ko) * 2013-07-19 2016-03-30 퀄컴 인코포레이티드 인트라 예측 필터링 불능화

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4288777B2 (ja) * 1999-08-11 2009-07-01 ソニー株式会社 マルチキャリア信号送信装置及びマルチキャリア信号受信装置
CN100566413C (zh) * 2006-06-05 2009-12-02 华为技术有限公司 一种自适应插值处理方法及编解码模块
EP3484154A1 (en) * 2006-10-25 2019-05-15 GE Video Compression, LLC Quality scalable coding
WO2011121716A1 (ja) * 2010-03-30 2011-10-06 株式会社 東芝 動画像符号化方法、復号化方法、符号化装置および復号化装置
US9219921B2 (en) * 2010-04-12 2015-12-22 Qualcomm Incorporated Mixed tap filters
HUE035494T2 (en) * 2010-09-30 2018-05-02 Samsung Electronics Co Ltd A method for interplaying images using a smooth interpolation filter
EP2502604B1 (de) * 2011-03-21 2013-09-25 Jossi Holding AG Gelenkpfannenimplantat
CA2976108C (en) * 2011-06-28 2020-06-30 Samsung Electronics Co., Ltd. Method for image interpolation using asymmetric interpolation filter and apparatus therefor
US9357211B2 (en) * 2012-12-28 2016-05-31 Qualcomm Incorporated Device and method for scalable and multiview/3D coding of video information
US10462480B2 (en) * 2014-12-31 2019-10-29 Microsoft Technology Licensing, Llc Computationally efficient motion estimation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100098345A1 (en) * 2007-01-09 2010-04-22 Kenneth Andersson Adaptive filter representation
KR20110106406A (ko) * 2008-12-22 2011-09-28 퀄컴 인코포레이티드 비디오 코딩에서 보간 필터링, 인-루프 필터링 및 포스트-필터링을 위한 결합된 방식
KR20100087600A (ko) * 2009-01-28 2010-08-05 삼성전자주식회사 보간 필터를 적응적으로 사용하여 영상을 부호화 및 복호화하는 방법 및 장치
KR20110070823A (ko) * 2009-12-18 2011-06-24 한국전자통신연구원 비디오 부호화/복호화 방법 및 장치
KR20160034923A (ko) * 2013-07-19 2016-03-30 퀄컴 인코포레이티드 인트라 예측 필터링 불능화

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020168508A1 (zh) * 2019-02-21 2020-08-27 富士通株式会社 参考像素的自适应滤波方法及装置、电子设备

Also Published As

Publication number Publication date
KR20180042899A (ko) 2018-04-27
US20190253707A1 (en) 2019-08-15
CN109845265A (zh) 2019-06-04

Similar Documents

Publication Publication Date Title
WO2013070006A1 (ko) 스킵모드를 이용한 동영상 부호화 및 복호화 방법 및 장치
WO2018074626A1 (ko) 적응적 보간 필터를 사용하는 비디오 코딩 방법 및 장치
WO2012057528A2 (ko) 적응적 화면내 예측 부호화 및 복호화 방법
WO2013062191A1 (ko) 인트라 예측 모드에서의 영상 부호화 방법 및 장치
CN113632464B (zh) 分量间预测的方法和设备
WO2013002549A2 (ko) 영상 부호화/복호화 방법 및 장치
WO2013062196A1 (ko) 영상 복호화 장치
WO2011139121A2 (ko) 생략 부호화를 이용한 영상 부호화 및 복호화 장치 및 그 방법
US11706454B2 (en) One-level transform split
WO2010087620A2 (ko) 보간 필터를 적응적으로 사용하여 영상을 부호화 및 복호화하는 방법 및 장치
US11212545B2 (en) Method and apparatus for improved implicit transform selection
WO2013069932A1 (ko) 영상의 부호화 방법 및 장치, 및 복호화 방법 및 장치
WO2013141671A1 (ko) 인터 레이어 인트라 예측 방법 및 장치
WO2012033344A2 (ko) 효과적인 화면내 예측모드 집합 선택을 이용한 영상 부호화/복호화 방법 및 장치
WO2013002550A2 (ko) 고속 코딩 단위(Coding Unit) 모드 결정을 통한 부호화/복호화 방법 및 장치
WO2010044569A2 (ko) 참조 프레임 생성 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2016114539A1 (ko) 영상의 부호화 및 복호화 방법 및 장치
WO2018079873A1 (ko) 임의의 블록 분할을 사용하는 비디오 코딩 방법 및 장치
WO2015047039A1 (ko) 영상 부호화 및 복호화 방법, 장치 및 시스템
WO2018070555A1 (ko) 다양한 블록 분할 구조를 결합하여 사용하는 비디오 코딩 방법 및 장치
WO2018070556A1 (ko) 정방형 또는 직방형 블록의 화면 내 예측모드 정보 추출 방법 및 장치
WO2011052990A2 (ko) 적응적인 해상도 기반의 영상 부호화/복호화 방법 및 장치
WO2014073877A1 (ko) 다시점 비디오 신호의 처리 방법 및 이에 대한 장치
WO2019135628A1 (ko) 영상을 부호화 또는 복호화하는 방법 및 장치
WO2021137445A1 (ko) 비디오 신호 처리를 위한 변환 커널 결정 방법 및 이를 위한 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16919312

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16919312

Country of ref document: EP

Kind code of ref document: A1