WO2018070568A1 - 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는 비디오 코딩 방법 및 장치 - Google Patents

복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는 비디오 코딩 방법 및 장치 Download PDF

Info

Publication number
WO2018070568A1
WO2018070568A1 PCT/KR2016/011525 KR2016011525W WO2018070568A1 WO 2018070568 A1 WO2018070568 A1 WO 2018070568A1 KR 2016011525 W KR2016011525 W KR 2016011525W WO 2018070568 A1 WO2018070568 A1 WO 2018070568A1
Authority
WO
WIPO (PCT)
Prior art keywords
intra prediction
template
prediction mode
decoder
determining
Prior art date
Application number
PCT/KR2016/011525
Other languages
English (en)
French (fr)
Inventor
류호찬
안용조
Original Assignee
디지털인사이트주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 디지털인사이트주식회사 filed Critical 디지털인사이트주식회사
Publication of WO2018070568A1 publication Critical patent/WO2018070568A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder

Definitions

  • the present invention relates to an image processing technique, and more particularly, to a method and apparatus for extracting an intra prediction mode based on a decoder in a video compression technique.
  • MPEG and VCEG which jointly standardized the H.264 / AVC video compression standard, formed JCT-VC (Joint Collaborative Team on Video Coding) to standardize on the latest international video compression standard, HEVC, in January 2013. Completed.
  • intra prediction is a method of predicting a current block by referring to samples that are already reconstructed around a block to be generated.
  • the encoder needs to transmit information for intra prediction to the decoder, and the decoder reconstructs through intra prediction using information received from the encoder.
  • the information for intra prediction that is transmitted from the encoder to the decoder includes an intra prediction mode.
  • An object of the present invention is to provide a method and apparatus for improving encoding / decoding efficiency compared to a conventional video compression technique by using a decoder-based intra picture prediction mode extraction technique.
  • the video coding method and the apparatus obtain information indicating whether to use a decoder-based intra prediction mode extraction technique from the bitstream, If the information indicating whether to use the intra prediction mode extraction technique implies the use of the intra prediction mode extraction technique, the method may not include obtaining additional intra prediction mode information.
  • a video coding method and apparatus intends to generate by intra prediction when information obtained from a bitstream means using a decoder-based intra prediction mode extraction technique. Determining the shape and size of the template using the shape and size of the block.
  • the video coding method and apparatus determine whether a peripheral reference sample of a template is available for determining an intra prediction mode of the template, so that a sample that is not available for the peripheral reference sample is determined. If present, generating a reference sample using the available reference samples.
  • a video coding method and apparatus include finding an optimal prediction mode of a template by using the generated template surrounding reference samples and reconstructed samples of a template region which are already reconstructed. do.
  • a video coding method and apparatus include performing intra prediction using an intra prediction mode of a block to generate an optimal intra prediction mode of a determined template.
  • An object of the present invention is to provide a decoder-based intra prediction mode extraction method and apparatus among video coding techniques to improve encoding / decoding efficiency.
  • video compression performance may be improved by improving the efficiency of an encoder / decoder using a decoder-based intra prediction mode extraction technique.
  • FIG. 1 is a block diagram illustrating a configuration of a video encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a configuration of a video decoding apparatus according to an embodiment of the present invention.
  • FIG. 3 is a conceptual diagram of a decoder-based intra prediction mode extraction technique according to an embodiment of the present invention.
  • FIG. 4 illustrates a form of a template that is variable according to a shape of a block to perform prediction when using a decoder-based intra prediction mode extraction technique according to an embodiment of the present invention.
  • FIG. 5 illustrates a size of a template that is variable according to a shape of a block to perform prediction when using a decoder-based intra prediction mode extraction technique according to an embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a procedure of a decoder-based intra prediction mode extraction technique according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating a procedure of intra picture prediction including a decoder-based intra picture prediction mode extraction technique according to an embodiment of the present invention.
  • FIG. 8 illustrates a method for signaling intra prediction information by coding unit syntax among syntaxes for a decoder-based intra prediction mode extraction technique according to an embodiment of the present invention.
  • ⁇ to '' or ⁇ of '' does not mean a step for.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • each component shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is composed of separate hardware or one software unit. That is, each component is described by listing each component for convenience of description, and at least two of the components may be combined to form one component, or one component may be divided into a plurality of components to perform a function. The integrated and separated embodiments of each of these components are also included within the scope of the present invention without departing from the spirit of the invention.
  • FIG. 3 is a conceptual diagram of a decoder-based intra prediction mode extraction technique according to an embodiment of the present invention.
  • a decoder includes a method and apparatus for extracting an intra prediction mode from a decoder without information about an intra prediction mode transmitted from an encoder.
  • the block 310 having the MxN size to be generated through the intra prediction may use the prediction mode of the template generated using the surrounding reference samples.
  • the prediction mode of the template 320 may be determined as an optimal mode by comparing the prediction samples obtained by performing prediction using the samples of the region already reconstructed with the surrounding reference samples 330.
  • One means for determining the optimal mode of template 320 may use a sum of absolute difference (SAD) to calculate the similarity between reconstructed samples and predicted samples.
  • SAD sum of absolute difference
  • the size of the template 320 may vary depending on the size and shape of the block 310 on which prediction is to be performed.
  • the size of the template means the height of the template located at the top of the block 310 and the width of the template located at the left of the block 310.
  • the peripheral reference samples 330 used to determine the prediction mode of the template 320 may not be partially usable because the reconstruction is not completed when the prediction for the block 310 in which the prediction is to be performed is performed. In this case, it may be generated using the available reference samples.
  • ⁇ to '' or ⁇ of '' does not mean a step for.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • each component shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is composed of separate hardware or one software unit. That is, each component is described by listing each component for convenience of description, and at least two of the components may be combined to form one component, or one component may be divided into a plurality of components to perform a function. The integrated and separated embodiments of each of these components are also included within the scope of the present invention without departing from the spirit of the invention.
  • FIG. 1 is a block diagram illustrating a configuration of a video encoding method and apparatus according to an embodiment of the present invention.
  • the video encoding method and apparatus may include an inter prediction unit 120, an intra prediction unit 125, a subtraction unit 130, a transform unit 140, a quantization unit 150, and an entropy encoding unit 160. ), An inverse transform unit 145, an inverse quantization unit 155, an adder 135, an in-loop filter unit 180, and a reconstructed picture buffer 190.
  • the inter prediction unit 120 generates a prediction signal by performing motion prediction using the reconstructed image stored in the input image 110 and the reconstructed picture buffer 190.
  • the intra prediction unit 125 generates a prediction signal by performing spatial prediction using pixel values of pre-restored neighboring blocks adjacent to the current block to be encoded.
  • the subtractor 130 generates a residual signal using the prediction signal generated by the input image and the inter-prediction unit 120 or the intra prediction unit 125.
  • the transformer 140 and the quantizer 150 generate quantized coefficients by performing transform and quantization on the residual signal generated by the subtractor 130.
  • the entropy encoder 160 outputs a bitstream by performing entropy encoding on encoding information such as syntax elements and quantized coefficients defined in the video encoder.
  • the information output in the bitstream may include information for a decoder-based intra prediction picture extraction technique.
  • the inverse transformer 145 and the inverse quantizer 155 receive the quantization coefficients, perform inverse quantization and inverse transformation in order, and generate a reconstructed residual signal.
  • the adder 135 generates a reconstruction signal by using the prediction signal generated by the inter prediction unit 120 or the intra prediction unit 125 and the reconstructed residual signal.
  • the reconstruction signal is transmitted to the in-loop filter unit 180.
  • the reconstructed picture to which the filtering is applied is stored in the reconstructed picture buffer 190 and may be used as a reference picture in the inter prediction unit 120.
  • FIG. 2 is a block diagram showing the configuration of a video decoding apparatus and method according to an embodiment of the present invention.
  • the video decoding apparatus and method may include an entropy decoder 210, an inverse quantizer 220, an inverse transformer 230, an intra prediction unit 240, an inter prediction unit 250, and an adder ( 260, an in-loop filter unit 270, and a reconstructed picture buffer 280.
  • the entropy decoder 210 decodes the input bitstream 200 and outputs decoding information such as syntax elements and quantized coefficients.
  • Information output from the bitstream may include information for a decoder-based intra prediction mode extraction technique.
  • the inverse quantization unit 220 and the inverse transform unit 230 receive the quantization coefficients, perform inverse quantization and inverse transformation in order, and output a residual signal.
  • the intra prediction unit 240 generates a prediction signal by performing spatial prediction using pixel values of the pre-decoded neighboring block adjacent to the current block to be decoded.
  • the inter prediction unit 250 generates a prediction signal by performing motion compensation using the motion vector extracted from the bitstream and the reconstructed image stored in the reconstructed picture buffer 280.
  • the prediction signals output from the intra prediction unit 240 and the intra prediction unit 250 are combined with the residual signal through the adder 260, and thus the reconstruction signal generated in units of blocks includes a reconstructed image. .
  • the reconstructed image is transmitted to the in-loop filter unit 270.
  • the reconstructed picture to which the filtering is applied is stored in the reconstructed picture buffer 280 and may be used as a reference picture in the inter prediction unit 250.
  • FIG. 4 illustrates a form of a template that is variable according to a shape of a block to perform prediction when using a decoder-based intra prediction mode extraction technique according to an embodiment of the present invention.
  • a decoder includes a method and an apparatus using a template having a variable shape according to a shape of a block to perform prediction in extracting an intra prediction mode.
  • the template used by the horizontally long MxN size block 410 to be generated through the intra prediction may be a horizontally long shape 420.
  • the template used by the vertically long MxN-sized block 430 to be generated through the intra prediction may be a vertically long form 440.
  • FIG. 5 illustrates a size of a template that is variable according to a shape of a block to perform prediction when using a decoder-based intra prediction mode extraction technique according to an embodiment of the present invention.
  • a decoder includes a method and an apparatus using a template having a variable size according to a shape of a block to perform prediction in extracting an intra prediction mode.
  • the size of the template may vary depending on the size of the block to be created by the intra prediction.
  • the size of the template refers to the height of the template located on the top of the block to be generated by the intra prediction and the width of the template located on the left.
  • the size of the template used by the square NxN size block 510 to be generated through intra prediction may be NL at the top of the block 510 and NL at the left of the block 510. Where NL is variable depending on the size of block 510. In one embodiment, if the block size is 16x16 or more, the NL is 4, and if the block size is smaller than 16x16, the NL is 2.
  • the size of the template used by the horizontally long rectangular MxN size block 520 to be generated through intra prediction may be NL at the top of block 520 and ML at the left side of block 520. Where M is greater than N and ML may be greater than or equal to NL.
  • the size of the template used by the vertically long rectangular MxN size block 530 to be generated through intra prediction may be NL at the top of block 530 and ML at the left side of block 530. Where M is less than N and ML may be less than or equal to NL.
  • FIG. 6 is a flowchart illustrating a procedure of a decoder-based intra prediction mode extraction technique according to an embodiment of the present invention.
  • the technique of extracting the intra prediction mode in the decoder is as follows. First, the shape and size of a block to be generated through intra prediction are determined (610). The shape and size of the template are determined according to the shape and size of the block to be generated through the intra prediction, and a reference sample around the template is generated (630) according to the shape and size of the template. In operation 640, the intra prediction mode of the optimal template is determined using the surrounding reference samples of the generated template. Finally, the prediction block is generated using the intra prediction mode of the determined template (650).
  • FIG. 7 is a flowchart illustrating a procedure of intra picture prediction including a decoder-based intra picture prediction mode extraction technique according to an embodiment of the present invention.
  • the order of intra picture prediction techniques including a decoder-based intra picture prediction mode extraction technique is as follows. First, information for extracting an intra prediction mode based on a decoder from a bitstream is obtained (710). In operation 720, it is determined whether to use a decoder-based intra prediction mode extraction technique using the obtained decoder-based intra prediction mode extraction information. If the decoder-based intra prediction mode extraction technique is used, the intra prediction mode of the template may be determined (730). A prediction block is generated 740 using the intra prediction mode of the determined template. If the decoder-based intra prediction mode extraction technique is not used, information indicating whether to use the MPM is obtained from the bitstream to determine whether to use the MPM (750).
  • the intra prediction mode is determined (770) using the MPM index obtained from the bitstream.
  • the intra prediction block is generated using the determined intra prediction mode.
  • an intra prediction mode is obtained from the bitstream (790) to generate an intra prediction block (780).
  • FIG. 8 illustrates a method for signaling intra prediction information by coding unit syntax among syntaxes for a decoder-based intra prediction mode extraction technique according to an embodiment of the present invention.
  • the proposed decoder-based intra picture prediction mode extraction method may include information for extracting the intra picture prediction mode from the decoder in a coding unit syntax 810 among NALs in the compressed bitstream. have.
  • 'pred_mode_flag' means whether the current block uses intra prediction.
  • the current block may include 'decoder_side_intra_mode_derivation_flag' indicating whether the current block uses a decoder-based intra prediction mode extraction method. If the current block uses a decoder-based intra prediction mode extraction method, information for the intra prediction mode may not be included anymore. If the current block does not use the decoder-based intra prediction mode extraction method, it may include 'prev_intra_pred_flag' indicating whether the current block uses the MPM. When the current block uses the MPM, it may include 'mpm_idx' which indicates an index indicating a mode in the MPM list used by the encoder. When the current block does not use the MPM, it may include 'rem_intra_pred_mode', which means an intra prediction mode used by the encoder.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 비디오 코딩 기술 중 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하여 부호화/복호화 효율을 향상시키는 방법 및 장치에 관한 것이다. 비디오 복호화 방법은 비트스트림으로부터 복호화기 기반의 화면 내 예측 모드 추출을 위한 정보를 획득하는 단계; 상기 획득한 정보를 이용하여 화면 내 예측 블록 생성을 위한 템플릿의 형태 및 크기를 결정하는 단계; 상기 결정한 템플릿의 화면 내 예측 모드 결정을 위한 템플릿의 주변 참조 샘플을 생성하는 단계; 상기 생성한 템플릿의 주변 참조 샘플을 이용하여 템플릿의 화면 내 예측 모드를 결정하는 단계; 및 상기 결정된 템플릿의 화면 내 예측 모드를 이용하여 화면 내 예측 블록을 생성하는 단계를 포함한다.

Description

복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는 비디오 코딩 방법 및 장치
본 발명은 영상 처리기술에 관한 것으로써, 보다 상세하게는 비디오 압축 기술에서 복호화기 기반의 화면 내 예측 모드 추출 방법 및 장치에 관한 것이다.
최근 고해상도, 고화질 비디오에 대한 요구가 증가함에 따라 차세대 비디오 서비스를 위한 고효율 비디오 압축 기술에 대한 필요성이 대두되었다. 이러한 필요성에 기반하여 H.264/AVC 비디오 압축 표준을 공동으로 표준화 했던 MPEG과 VCEG은 JCT-VC (Joint Collaborative Team on Video Coding)을 결성하여 2013년 1월 최신 국제 비디오 압축 표준인 HEVC에 대한 표준화를 완료하였다.
비디오 압축 기술에서 화면 내 예측은 현재 생성하려는 블록의 주변에 이미 재구성 되어있는 샘플들을 참조하여 현재 블록을 예측하는 방법이다. 화면 내 예측 수행을 위해 부호화기에서는 화면 내 예측을 위한 정보를 복호화기로 전달해야 하며, 복호화기는 부호화기로부터 받은 정보를 이용하여 화면 내 예측을 통해 복원을 수행한다. 부호화기에서 복호화기로 전달되는 화면 내 예측을 위한 정보에는 화면 내 예측 모드가 있다.
본 발명은 복호화기기반의 화면 내 예측 모드 추출 기술을 사용하므로써 기존의 비디오 압축 기술 대비 부호화/복호화 효율을 향상시키는 방법 및 장치를 제공하는 것을 그 목적으로 한다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 코딩 방법 및 장치는 비트스트림으로부터 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는지를 의미하는 정보를 획득하는 단계, 상기 획득한 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는지를 의미하는 정보가 화면 내 예측 모드 추출 기술 사용을 의미하는 경우, 추가적인 화면 내 예측 모드 정보를 획득하지 않아도 되는 단계를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 코딩 방법 및 장치는 비트스트림으로부터 획득한 정보가 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용함을 의미하는 경우, 화면 내 예측을 통해 생성하려는 블록의 형태 및 크기를 이용하여 템플릿의 형태 및 크기를 결정하는 단계를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 코딩 방법 및 장치는 템플릿의 화면 내 예측 모드 결정을 위해 템플릿의 주변 참조 샘플이 이용 가능한지를 확인하여, 주변 참조 샘플에 이용 가능하지 않은 샘플이 존재할 경우, 이용 가능한 참조 샘플을 사용하여 참조 샘플을 생성하는 단계를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 코딩 방법 및 장치는 상기 생성한 템플릿 주변 참조 샘플과 이미 복원되어 있는 템플릿 영역의 복원 샘플들을 이용하여 템플릿의 최적의 예측 모드를 찾는 단계를 포함한다.
상기 과제를 해결하기 위하여 본 발명의 실시예에 따른 비디오 코딩 방법 및 장치는 결정된 템플릿의 최적의 화면 내 예측 모드를 생성하려는 블록의 화면 내 예측 모드로 사용하여 화면 내 예측을 수행하는 단계를 포함한다.
본 발명은 부호화/복호화 효율 향상을 위하여 비디오 코딩 기술 중 복호화기기반의 화면 내 예측 모드 추출 방법 및 장치를 제공하는 것을 그 목적으로 한다.
본 발명의 일 시시 예에 따르면, 복호화기기반의 화면 내 예측 모드 추출 기술을 이용하여 부호화기/복호화기의 효율을 향상시켜 비디오의 압축 성능을 향상 시킬 수 있다.
도 1은 본 발명의 일 실시예에 따른 비디오 부호화 장치의 구성을 나타내는 블록도를 도시한다.
도 2는 본 발명의 일 실시예에 따른 비디오 복호화 장치의 구성을 나타내는 블록도를 도시한다.
도 3은 본 발명의 일 실시예에 따른 복호화기 기반의 화면 내 예측 모드 추출 기술의 개념도를 도시한다.
도 4는 본 발명의 일 실시예에 따른 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용할 때, 예측을 수행하려는 블록의 형태에 따라 가변적인 템플릿의 형태를 도시한다.
도 5는 본 발명의 일 실시예에 따른 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용할 때, 예측을 수행하려는 블록의 형태에 따라 가변적인 템플릿의 크기를 도시한다.
도 6은 본 발명의 일 실시예에 따른 복호화기 기반의 화면 내 예측 모드 추출 기술의 순서를 나타낸 순서도이다.
도 7은 본 발명의 일 실시예에 따른 복호화기 기반의 화면 내 예측 모드 추출 기술을 포함하는 화면 내 예측의 순서를 나타낸 순서도이다.
도 8은 본 발명의 일 실시예에 따른 복호화기 기반의 화면 내 예측 모드 추출 기술을 위한 신택스 (syntax) 중 코딩 유닛 신택스에 의하여 화면 내 예측 정보를 시그널링하는 방법을 도시한다.
하기는 본 명세서에 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 전기적으로 연결되어 있는 경우도 포함한다.
또한, 본 명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
본 명세서 전체에서 사용되는 정도의 용어 ~(하는) 단계 또는 ~의 단계는 ~를 위한 단계를 의미하지 않는다.
또한, 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
덧붙여, 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 기술되고, 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있다. 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리 범위에 포함된다.
이하 본 발명의 일 실시예에 따라 제안하는 부호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는 비디오 코딩 방법 및 장치에 대하여 도 3을 참조하여 구체적으로 설명하기로 한다.
도 3은 본 발명의 일 실시예에 따른 복호화기 기반의 화면 내 예측 모드 추출 기술의 개념도를 도시한다.
일 실시예에 따른 복호화기는 부호화기로부터 전송되는 화면 내 예측 모드에 대한 정보없이 복호화기에서 화면 내 예측 모드를 추출하는 방법 및 장치를 포함한다.
화면 내 예측을 통해 생성하려는 MxN 크기의 블록(310)은 주변 참조 샘플들을 이용해 생성된 템플릿(template)의 예측 모드를 사용할 수 있다.
템플릿(320)의 예측 모드는 이미 복원된 영역의 샘플들과 주변 참조 샘플들(330)을 이용해 예측을 수행하여 얻은 예측 샘플들을 비교하여 최적의 모드로 결정될 수 있다.
템플릿(320)의 최적의 모드를 결정하기위한 하나의 수단으로 복원 샘플들과 예측 샘플들간의 유사한 정도를 계산하기 위해 SAD (sum of absolute difference) 를 사용할 수 있다.
템플릿(320)의 크기는 예측을 수행하려는 블록(310)의 크기와 형태에 따라 가변적일 수 있다. 여기서 템플릿의 크기는 블록(310)의 상단에 위치한 템플릿의 높이 및 블록(310)의 좌측에 위치한 템플릿의 너비를 의미한다.
템플릿(320)의 예측 모드 결정에 사용되는 주변 참조 샘플들(330)은 예측을 수행하려는 블록(310)에 대한 예측을 수행할 때, 복원이 완료되어 있지 않아 부분적으로 사용할 수 있는 상태가 아닐 수 있으며, 이러할 경우 사용 가능한 참조 샘플들을 이용하여 생성될 수 있다.
하기는 본 명세서에 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 전기적으로 연결되어 있는 경우도 포함한다.
또한, 본 명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
본 명세서 전체에서 사용되는 정도의 용어 ~(하는) 단계 또는 ~의 단계는 ~를 위한 단계를 의미하지 않는다.
또한, 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
덧붙여, 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 기술되고, 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있다. 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리 범위에 포함된다.
이하 본 발명의 일 실시예에 따라 제안하는 부호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는 비디오 코딩 방법 및 장치에 대하여 도 3을 참조하여 구체적으로 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 비디오 부호화 방법 및 장치의 구성을 나타내는 블록도를 도시한다.
일 실시예에 따른 비디오 부호화 방법 및 장치는 화면 간 예측부(120), 화면 내 예측부(125), 감산부(130), 변환부(140), 양자화부(150), 엔트로피 부호화부(160), 역변환부(145), 역양자화부(155), 가산부(135), 인루프 필터부(180), 복원 픽쳐 버퍼(190)를 포함할 수 있다.
화면 간 예측부(120)는 입력 영상(110)과 복원 픽쳐 버퍼(190)에 저장되어 있는 복원 영상을 이용하여 움직임 예측을 수행하여 예측 신호를 생성한다.
화면 내 예측부(125)는 부호화되는 현재 블록과 인접하는 기-복원된 주변 블록의 화소 값을 이용하여 공간적 예측을 수행하여 예측 신호를 생성한다.
감산부(130)는 입력 영상과 화면 간 예측부(120) 혹은 화면 내 예측부(125)를 통해 생성된 예측 신호를 이용하여 잔차 신호(residual signal)를 생성한다.
변환부(140) 및 양자화부(150)는 감산부(130)을 통해 생성된 잔차 신호에 대하여 변환 및 양자화를 수행하여 양자화된 계수(quantized coefficient)를 생성한다.
엔트로피 부호화부(160)는 비디오 부호화기에 정의된 신택스 요소(syntax elements) 및 양자화된 계수 등과 같은 부호화 정보에 대하여 엔트로피 부호화를 수행하여 비트스트림을 출력한다. 비트스트림으로 출력되는 정보에는 복호화기 기반의 화면 내 예측 모드 추출 기술을 위한 정보가 포함될 수 있다.
역변환부(145) 및 역양자화부(155)는 양자화 계수를 수신하여 역양자화 및 역변환을 차례대로 수행하고, 복원된 잔차 신호를 생성한다.
가산부(135)는 화면 간 예측부(120) 혹은 화면 내 예측부(125)를 통해 생성된 예측 신호와 복원된 잔차 신호를 이용하여 복원 신호를 생성한다.
복원 신호는 인루프 필터부(180)로 전달된다. 필터링이 적용된 복원 픽쳐는 복원 픽쳐 버퍼(190)에 저장되며, 화면 간 예측부(120)에서 참조 픽쳐로 사용될 수 있다.
도 2는 본 발명의 일 실시예에 따른 비디오 복호화 장치 및 방법의 구성을 나타내는 블록도를 도시한다.
일 실시예에 따른 비디오 복호화 장치 및 방법은 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 화면 내 예측부(240), 화면 간 예측부(250), 가산부(260), 인루프 필터부(270), 복원 픽쳐 버퍼(280)를 포함할 수 있다.
엔트로피 복호화부(210)는 입력된 비트스트림(200)을 복호화하여 신택스 요소(syntax elements) 및 양자화된 계수 등과 같은 복호화 정보를 출력한다. 비트스트림으로부터 출력되는 정보에는 복호화기 기반의 화면 내 예측 모드 추출 기술을 위한 정보가 포함될 수 있다.
역양자화부(220) 및 역변환부 (230)는 양자화 계수를 수신하여 역양자화 및 역변환을 차례대로 수행하고, 잔차 신호(residual signal)를 출력한다.
화면 내 예측부(240)는 복호화되는 현재 블록과 인접하는 기-복호화된 주변 블록의 화소 값을 이용하여 공간적 예측을 수행하여 예측 신호를 생성한다.
화면 간 예측부(250)는 비트스트림으로부터 추출된 움직임 벡터와 복원 픽쳐 버퍼(280)에 저장되어 있는 복원 영상을 이용하여 움직임 보상을 수행하여 예측 신호를 생성한다.
화면 내 예측부(240)와 화면 내 예측부(250)로부터 출력된 예측 신호는 가산부(260)를 통해 잔차 신호와 합해지고, 그에 따라 블록 단위로 생성된 복원 신호는 복원된 영상을 포함한다.
복원된 영상은 인루프 필터부(270)로 전달된다. 필터링이 적용된 복원 픽쳐는 복원 픽쳐 버퍼(280)에 저장되며, 화면 간 예측부(250)에서 참조 픽쳐로 사용될 수 있다.
도 4는 본 발명의 일 실시예에 따른 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용할 때, 예측을 수행하려는 블록의 형태에 따라 가변적인 템플릿의 형태를 도시한다.
일 실시예에 따른 복호화기는 화면 내 예측 모드를 추출하는 과정에서 예측을 수행하려는 블록의 형태에 따라 가변적인 형태의 템플릿을 사용하는 방법 및 장치를 포함한다.
화면 내 예측을 통해 생성하려는 가로로 긴 형태의 MxN 크기의 블록(410)이 사용하는 템플릿의 형태는 가로로 긴 형태(420)가 될 수 있다.
화면 내 예측을 통해 생성하려는 세로로 긴 형태의 MxN 크기의 블록(430)이 사용하는 템플릿의 형태는 세로로 긴 형태(440)가 될 수 있다.
도 5는 본 발명의 일 실시예에 따른 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용할 때, 예측을 수행하려는 블록의 형태에 따라 가변적인 템플릿의 크기를 도시한다.
일 실시예에 따른 복호화기는 화면 내 예측 모드를 추출하는 과정에서 예측을 수행하려는 블록의 형태에 따라 가변적인 크기의 템플릿을 사용하는 방법 및 장치를 포함한다.
화면 내 예측을 통해 생성하려는 블록의 크기에 따라 템플릿의 크기가 달라 질 수 있다. 여기서 템플릿의 크기는 화면 내 예측을 통해 생성하려는 블록의 상단에 위치한 템플릿의 높이 및 좌측에 위치한 템플릿의 너비를 의미한다.
화면 내 예측을 통해 생성하려는 정방형 NxN 크기의 블록(510)이 사용하는 템플릿의 크기는 블록(510) 상단은 NL, 블록(510) 좌측은 NL이 될 수 있다. 여기서 NL은 블록(510)의 크기에 따라 가변적이다. 일 실시예로 블록의 크기가 16x16 이상이라면 NL은 4가 되며, 블록의 크기가 16x16보다 작다면 2가 된다.
화면 내 예측을 통해 생성하려는 가로로 긴 직방형 MxN 크기의 블록(520)이 사용하는 템플릿의 크기는 블록(520) 상단은 NL, 블록(520) 좌측은 ML이 될 수 있다. 여기서 M은 N보다 크며, ML은 NL보다 크거나 같을 수 있다.
화면 내 예측을 통해 생성하려는 세로로 긴 직방형 MxN 크기의 블록(530)이 사용하는 템플릿의 크기는 블록(530) 상단은 NL, 블록(530) 좌측은 ML이 될 수 있다. 여기서 M은 N보다 작으며, ML은 NL보다 작거나 같을 수 있다.
도 6은 본 발명의 일 실시예에 따른 복호화기 기반의 화면 내 예측 모드 추출 기술의 순서를 나타낸 순서도이다.
복호화기에서 화면 내 예측 모드를 추출하는 기술의 순서는 다음과 같다. 먼저 화면 내 예측을 통해 생성하려는 블록의 형태 및 크기를 판단(610)한다. 화면 내 예측을 통해 생성하려는 블록의 형태와 크기에 따라 템플릿의 형태 및 크기가 결정(620)되며, 템플릿의 형태 및 크기에 따라 템플릿 주변 참조 샘플을 생성(630)한다. 그리고 생성된 템플릿의 주변 참조 샘플들을 이용하여 최적의 템플릿의 화면 내 예측 모드를 결정(640)한다. 최종적으로 결정된 템플릿의 화면 내 예측 모드를 이용하여 예측 블록을 생성(650)한다.
도 7은 본 발명의 일 실시예에 따른 복호화기 기반의 화면 내 예측 모드 추출 기술을 포함하는 화면 내 예측의 순서를 나타낸 순서도이다.
복호화기 기반의 화면 내 예측 모드 추출 기술을 포함하는 화면 내 예측 기술의 순서는 다음과 같다. 먼저 비트스트림으로부터 복호화기 기반의 화면 내 예측 모드 추출을 위한 정보를 획득(710)한다. 획득한 복호화기 기반 화면 내 예측 모드 추출 정보를 이용해 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는지 판단(720)한다. 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용한다면, 템플릿의 화면 내 예측 모드를 결정(730)한다. 결정된 템플릿의 화면 내 예측 모드를 이용하여 예측 블록을 생성(740)한다. 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하지 않는다면, MPM을 사용하는지를 의미하는 정보를 비트스트림으로부터 획득하여, MPM을 사용하는지 판단(750)한다. MPM을 사용하는 경우, MPM 리스트를 구성(760)한 후, 비트스트림으로부터 획득한 MPM 인덱스를 이용하여 화면 내 예측 모드를 결정(770)한다. 그리고 결정된 화면 내 예측 모드를 이용하여 화면 내 예측 블록을 생성(780)한다. MPM을 사용하지 않는 경우, 비트스트림으로부터 화면 내 예측 모드를 획득(790)하여 화면 내 예측 블록을 생성(780)한다.
도 8은 본 발명의 일 실시예에 따른 복호화기 기반의 화면 내 예측 모드 추출 기술을 위한 신택스 (syntax) 중 코딩 유닛 신택스에 의하여 화면 내 예측 정보를 시그널링하는 방법을 도시한다.
제안하는 복호화기 기반의 화면 내 예측 모드 추출 방법은 압축된 비트스트림 내에 존재하는 NAL (Network Abstract Layer) 중 코딩 유닛 신택스(810) 내에 복화화기에서 화면 내 예측 모드를 추출하기 위한 정보를 포함할 수 있다.
'pred_mode_flag'는 현재 블록이 화면 내 예측을 사용하는지를 의미한다. 현재 블록이 화면 내 예측을 사용하는 경우, 현재 블록이 복호화기 기반의 화면 내 예측 모드 추출 방법을 사용하는지를 의미하는 'decoder_side_intra_mode_derivation_flag'를 포함할 수 있다. 현재 블록이 복호화기 기반의 화면 내 예측 모드 추출 방법을 사용한다면, 더 이상 화면 내 예측 모드를 위한 정보가 포함되지 않을 수 있다. 현재 블록이 복호화기 기반의 화면 내 예측 모드 추출 방법을 사용하지 않는다면, 현재 블록이 MPM을 사용하는지를 의미하는'prev_intra_pred_flag'를 포함할 수 있다. 현재 블록이 MPM을 사용하는 경우, 부호화기에서 사용한 MPM 리스트 내의 모드를 가리키는 인덱스를 의미하는 'mpm_idx'를 포함할 수 있다. 현재 블록이 MPM을 사용하지 않을 경우, 부호화기에서 사용한 화면 내 예측 모드를 의미하는 'rem_intra_pred_mode'를 포함할 수 있다.
비디오 부/복호화 관련산업으로 방송장비 제조, 단말제조 등 제조업체나 원천기술 관련 산업에서 이용가능.
해당 없음.

Claims (12)

  1. 비디오 복호화 방법에 있어서,
    비트스트림으로부터 복호화기 기반의 화면 내 예측 모드 추출을 위한 정보를 획득하는 단계;
    상기 획득한 정보를 이용하여 화면 내 예측 블록 생성을 위한 템플릿의 형태 및 크기를 결정하는 단계;
    상기 결정한 템플릿의 화면 내 예측 모드 결정을 위한 템플릿의 주변 참조 샘플을 생성하는 단계;
    상기 생성한 템플릿의 주변 참조 샘플을 이용하여 템플릿의 화면 내 예측 모드를 결정하는 단계; 및
    상기 결정된 템플릿의 화면 내 예측 모드를 이용하여 화면 내 예측 블록을 생성하는 단계를 포함하는 비디오 부호화 및 복호화 방법.
  2. 제 1항에 있어서,
    비트스트림으로부터 복호화기 기반의 화면 내 예측 모드 추출을 위한 정보를 획득하는 단계는
    비트스트림으로부터 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는지를 의미하는 정보를 획득하는 단계;
    상기 획득한 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는지를 의미하는 정보가 화면 내 예측 모드 추출 기술 사용을 의미하는 경우, 추가적인 화면 내 예측 모드 정보를 획득하지 않아도 되는 단계를 포함하는 것을 특징으로하는 비디오 부호화 및 복호화 방법.
  3. 제 1항에 있어서,
    상기 획득한 정보를 이용하여 화면 내 예측 블록 생성을 위한 템플릿의 형태 및 크기를 결정하는 단계는
    비트스트림으로부터 획득한 정보가 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용함을 의미하는 경우, 화면 내 예측을 통해 생성하려는 블록의 형태 및 크기를 이용하여 템플릿의 형태 및 크기를 결정하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 빛 복호화 방법.
  4. 제 1항에 있어서,
    상기 결정한 템플릿의 화면 내 예측 모드 결정을 위한 템플릿의 주변 참조 샘플을 생성하는 단계는
    템플릿의 화면 내 예측 모드 결정을 위해 템플릿의 주변 참조 샘플이 이용 가능한지를 확인하여, 주변 참조 샘플에 이용 가능하지 않은 샘플이 존재할 경우, 이용 가능한 참조 샘플을 사용하여 참조 샘플을 생성하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 및 복호화 방법.
  5. 제 1항에 있어서,
    상기 생성한 템플릿의 주변 참조 샘플을 이용하여 템플릿의 화면 내 예측 모드를 결정하는 단계는
    상기 생성한 템플릿 주변 참조 샘플과 이미 복원되어 있는 템플릿 영역의 복원 샘플들을 이용하여 템플릿의 최적의 예측 모드를 찾는 단계를 포함하는 것을 특징으로하는 비디오 부호화 및 복호화 방법.
  6. 제 1항에 있어서,
    상기 결정된 템플릿의 화면 내 예측 모드를 이용하여 화면 내 예측 블록을 생성하는 단계는
    결정된 템플릿의 최적의 화면 내 예측 모드를 생성하려는 블록의 화면 내 예측 모드로 사용하여 화면 내 예측을 수행하는 단계를 포함하는 것을 특징으로 하는 비디오 부호화 및 복호화 방법.
  7. 비디오 복호화 장치에 있어서,
    비트스트림으로부터 복호화기 기반의 화면 내 예측 모드 추출을 위한 정보를 획득하는 단계;
    상기 획득한 정보를 이용하여 화면 내 예측 블록 생성을 위한 템플릿의 형태 및 크기를 결정하는 단계;
    상기 결정한 템플릿의 화면 내 예측 모드 결정을 위한 템플릿의 주변 참조 샘플을 생성하는 단계;
    상기 생성한 템플릿의 주변 참조 샘플을 이용하여 템플릿의 화면 내 예측 모드를 결정하는 단계; 및
    상기 결정된 템플릿의 화면 내 예측 모드를 이용하여 화면 내 예측 블록을 생성하는 단계를 포함하는 비디오 부호화 및 복호화 장치.
  8. 제 7항에 있어서,
    비트스트림으로부터 복호화기 기반의 화면 내 예측 모드 추출을 위한 정보를 획득하는 단계는
    비트스트림으로부터 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는지를 의미하는 정보를 획득하는 단계;
    상기 획득한 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는지를 의미하는 정보가 화면 내 예측 모드 추출 기술 사용을 의미하는 경우, 추가적인 화면 내 예측 모드 정보를 획득하지 않아도 되는 단계를 포함하는 것을 특징으로하는 비디오 부호화 및 복호화 장치.
  9. 제 7항에 있어서,
    상기 획득한 정보를 이용하여 화면 내 예측 블록 생성을 위한 템플릿의 형태 및 크기를 결정하는 단계는
    비트스트림으로부터 획득한 정보가 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용함을 의미하는 경우, 화면 내 예측을 통해 생성하려는 블록의 형태 및 크기를 이용하여 템플릿의 형태 및 크기를 결정하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 빛 복호화 장치.
  10. 제 7항에 있어서,
    상기 결정한 템플릿의 화면 내 예측 모드 결정을 위한 템플릿의 주변 참조 샘플을 생성하는 단계는
    템플릿의 화면 내 예측 모드 결정을 위해 템플릿의 주변 참조 샘플이 이용 가능한지를 확인하여, 주변 참조 샘플에 이용 가능하지 않은 샘플이 존재할 경우, 이용 가능한 참조 샘플을 사용하여 참조 샘플을 생성하는 단계를 포함하는 것을 특징으로하는 비디오 부호화 및 복호화 장치.
  11. 제 7항에 있어서,
    상기 생성한 템플릿의 주변 참조 샘플을 이용하여 템플릿의 화면 내 예측 모드를 결정하는 단계는
    상기 생성한 템플릿 주변 참조 샘플과 이미 복원되어 있는 템플릿 영역의 복원 샘플들을 이용하여 템플릿의 최적의 예측 모드를 찾는 단계를 포함하는 것을 특징으로하는 비디오 부호화 및 복호화 장치.
  12. 제 7항에 있어서,
    상기 결정된 템플릿의 화면 내 예측 모드를 이용하여 화면 내 예측 블록을 생성하는 단계는
    결정된 템플릿의 최적의 화면 내 예측 모드를 생성하려는 블록의 화면 내 예측 모드로 사용하여 화면 내 예측을 수행하는 단계를 포함하는 것을 특징으로 하는 비디오 부호화 및 복호화 장치.
PCT/KR2016/011525 2016-10-13 2016-10-14 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는 비디오 코딩 방법 및 장치 WO2018070568A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160132592A KR20180040824A (ko) 2016-10-13 2016-10-13 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는 비디오 코딩 방법 및 장치
KR10-2016-0132592 2016-10-13

Publications (1)

Publication Number Publication Date
WO2018070568A1 true WO2018070568A1 (ko) 2018-04-19

Family

ID=61905570

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/011525 WO2018070568A1 (ko) 2016-10-13 2016-10-14 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는 비디오 코딩 방법 및 장치

Country Status (2)

Country Link
KR (1) KR20180040824A (ko)
WO (1) WO2018070568A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114097233A (zh) * 2019-06-24 2022-02-25 现代自动车株式会社 用于视频数据的帧内预测编码的方法和装置
US20220150470A1 (en) * 2019-03-20 2022-05-12 Hyundai Motor Company Method and apparatus for intra predictionbased on deriving prediction mode

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020005002A1 (ko) * 2018-06-28 2020-01-02 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측에 따른 템플릿 영역 도출 방법 및 장치
WO2023128649A1 (ko) * 2021-12-29 2023-07-06 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090096659A (ko) * 2008-03-09 2009-09-14 엘지전자 주식회사 비디오 신호의 인코딩 또는 디코딩에 관한 방법과 장치
KR20120118457A (ko) * 2010-01-19 2012-10-26 톰슨 라이센싱 비디오 인코딩 및 디코딩을 위한 템플릿 매칭 예측의 복잡도를 감소시키는 방법 및 장치
KR101215152B1 (ko) * 2011-04-21 2012-12-24 한양대학교 산학협력단 인루프 필터링을 적용한 예측 방법을 이용한 영상 부호화/복호화 방법 및 장치
KR20130105114A (ko) * 2012-03-16 2013-09-25 주식회사 아이벡스피티홀딩스 인트라 예측 모드에서의 영상 복호화 방법
KR20150113522A (ko) * 2014-03-31 2015-10-08 인텔렉추얼디스커버리 주식회사 템플릿 매칭 기반의 화면 내 픽쳐 부호화 및 복호화 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090096659A (ko) * 2008-03-09 2009-09-14 엘지전자 주식회사 비디오 신호의 인코딩 또는 디코딩에 관한 방법과 장치
KR20120118457A (ko) * 2010-01-19 2012-10-26 톰슨 라이센싱 비디오 인코딩 및 디코딩을 위한 템플릿 매칭 예측의 복잡도를 감소시키는 방법 및 장치
KR101215152B1 (ko) * 2011-04-21 2012-12-24 한양대학교 산학협력단 인루프 필터링을 적용한 예측 방법을 이용한 영상 부호화/복호화 방법 및 장치
KR20130105114A (ko) * 2012-03-16 2013-09-25 주식회사 아이벡스피티홀딩스 인트라 예측 모드에서의 영상 복호화 방법
KR20150113522A (ko) * 2014-03-31 2015-10-08 인텔렉추얼디스커버리 주식회사 템플릿 매칭 기반의 화면 내 픽쳐 부호화 및 복호화 방법 및 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220150470A1 (en) * 2019-03-20 2022-05-12 Hyundai Motor Company Method and apparatus for intra predictionbased on deriving prediction mode
CN114097233A (zh) * 2019-06-24 2022-02-25 现代自动车株式会社 用于视频数据的帧内预测编码的方法和装置

Also Published As

Publication number Publication date
KR20180040824A (ko) 2018-04-23

Similar Documents

Publication Publication Date Title
WO2012057528A2 (ko) 적응적 화면내 예측 부호화 및 복호화 방법
WO2013062191A1 (ko) 인트라 예측 모드에서의 영상 부호화 방법 및 장치
WO2013062192A1 (ko) 인트라 예측 정보 부호화 방법 및 장치
WO2011133002A2 (ko) 영상 부호화 장치 및 방법
WO2011139099A2 (ko) 비디오 신호의 처리 방법 및 장치
WO2010095915A2 (ko) 비디오 부호화에서의 분할 블록 부호화 방법, 비디오 복호화에서의 분할 블록 복호화 방법 및 이를 구현하는 기록매체
WO2013070006A1 (ko) 스킵모드를 이용한 동영상 부호화 및 복호화 방법 및 장치
WO2015083929A1 (ko) 영상 부호화 및 복호화 방법, 장치 및 시스템
WO2012018198A2 (ko) 예측 블록 생성 장치
WO2013069932A1 (ko) 영상의 부호화 방법 및 장치, 및 복호화 방법 및 장치
WO2010087589A2 (ko) 경계 인트라 코딩을 이용한 비디오 신호 처리 방법 및 장치
WO2018079873A1 (ko) 임의의 블록 분할을 사용하는 비디오 코딩 방법 및 장치
WO2018070568A1 (ko) 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는 비디오 코딩 방법 및 장치
WO2018070555A1 (ko) 다양한 블록 분할 구조를 결합하여 사용하는 비디오 코딩 방법 및 장치
WO2019194500A1 (ko) 인트라 예측에 기반한 영상 코딩 방법 및 그 장치
WO2018074626A1 (ko) 적응적 보간 필터를 사용하는 비디오 코딩 방법 및 장치
WO2018056602A1 (ko) 영상 코딩 시스템에서 인터 예측 방법 및 장치
WO2019112071A1 (ko) 영상 코딩 시스템에서 크로마 성분의 효율적 변환에 기반한 영상 디코딩 방법 및 장치
WO2019132567A1 (ko) 서브-블록 단위 화면 내 예측을 사용하는 비디오 코딩 방법 및 장치
WO2018070556A1 (ko) 정방형 또는 직방형 블록의 화면 내 예측모드 정보 추출 방법 및 장치
WO2019135628A1 (ko) 영상을 부호화 또는 복호화하는 방법 및 장치
WO2015047039A1 (ko) 영상 부호화 및 복호화 방법, 장치 및 시스템
WO2018062699A1 (ko) 영상 코딩 시스템에서 영상 디코딩 방법 및 장치
WO2012033343A2 (ko) 참조 화소들의 특성을 이용하여 예측모드 정보의 전송을 생략할 수 있는 화면 내 예측 부호화/복호화 장치 및 그 방법
WO2014073877A1 (ko) 다시점 비디오 신호의 처리 방법 및 이에 대한 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16918966

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16918966

Country of ref document: EP

Kind code of ref document: A1