KR102447872B1 - Method and apparatus of image encoding/decoding using adaptive deblocking filtering - Google Patents

Method and apparatus of image encoding/decoding using adaptive deblocking filtering Download PDF

Info

Publication number
KR102447872B1
KR102447872B1 KR1020210177545A KR20210177545A KR102447872B1 KR 102447872 B1 KR102447872 B1 KR 102447872B1 KR 1020210177545 A KR1020210177545 A KR 1020210177545A KR 20210177545 A KR20210177545 A KR 20210177545A KR 102447872 B1 KR102447872 B1 KR 102447872B1
Authority
KR
South Korea
Prior art keywords
block
picture
prediction
current
division
Prior art date
Application number
KR1020210177545A
Other languages
Korean (ko)
Other versions
KR20210156810A (en
Inventor
정제창
김기백
Original Assignee
돌비 레버러토리즈 라이쎈싱 코오포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 돌비 레버러토리즈 라이쎈싱 코오포레이션 filed Critical 돌비 레버러토리즈 라이쎈싱 코오포레이션
Publication of KR20210156810A publication Critical patent/KR20210156810A/en
Priority to KR1020220119949A priority Critical patent/KR102558270B1/en
Application granted granted Critical
Publication of KR102447872B1 publication Critical patent/KR102447872B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

적응적인 디블록킹 필터링에 관한 부호화/복호화 방법 및 장치를 개시한다. 현재 픽쳐를 참조 픽쳐로 한 화면 간 예측 및 적응적 필터링을 수행하는 영상 부호화 방법은, 부호화 대상 현재 블록에 대한 화면 간 예측을 수행하여 참조 블록을 탐색하는 단계, 탐색된 참조 블록이 현재 블록이 위치한 현재 픽쳐 내에 있는지 여부를 지시하는 플래그를 생성하는 단계, 탐색된 참조 블록을 이용하여 현재 블록을 부호화하고 복원하는 단계, 플래그를 참조하여, 복원된 현재 블록에 대하여 인루프 필터를 적응적으로 적용하는 단계 및 인루프 필터가 적용되거나 적용되지 않은 현재 블록을 복원된 픽쳐 버퍼(Decoded Picture Buffer, DPB)에 저장하는 단계를 포함한다.An encoding/decoding method and apparatus for adaptive deblocking filtering are disclosed. An image encoding method for performing inter prediction and adaptive filtering using a current picture as a reference picture includes the steps of performing inter prediction on a current block to be encoded to search for a reference block; generating a flag indicating whether it is in the current picture, encoding and reconstructing the current block using the found reference block, and adaptively applying an in-loop filter to the reconstructed current block with reference to the flag and storing the current block to which the in-loop filter is applied or not applied in a decoded picture buffer (DPB).

Figure R1020210177545
Figure R1020210177545

Description

적응적인 디블록킹 필터링에 관한 부호화/복호화 방법 및 장치{METHOD AND APPARATUS OF IMAGE ENCODING/DECODING USING ADAPTIVE DEBLOCKING FILTERING}Encoding/decoding method and apparatus for adaptive deblocking filtering

본 발명은 영상 부호화 및 복호화 기술에 관한 것으로, 더욱 상세하게는, 적응적인 디블록킹 필터링에 관한 부호화/복호화 방법 및 장치에 관한 것이다.The present invention relates to video encoding and decoding technology, and more particularly, to an encoding/decoding method and apparatus for adaptive deblocking filtering.

인터넷과 휴대 단말의 보급과 정보 통신 기술의 발전에 따라 멀티미디어 데이터에 대한 이용이 급증하고 있다. 따라서, 각종 시스템에서 영상 예측을 통해 다양한 서비스나 작업을 수행하기 위하여 영상 처리 시스템의 성능 및 효율 개선에 대한 필요성이 상당히 증가하고 있으나, 이러한 분위기에 호응할 수 있는 연구 개발 결과가 미흡한 실정이다.With the spread of the Internet and mobile terminals and the development of information and communication technologies, the use of multimedia data is rapidly increasing. Accordingly, the need for improving the performance and efficiency of an image processing system in order to perform various services or tasks through image prediction in various systems is significantly increasing, but research and development results that can respond to such an atmosphere are insufficient.

또한, 영상 부호화는 예측, 변환, 양자화, 엔트로피 코딩 과정으로 구분되고, 양자화 과정에서는 양자화 에러로 인하여 복원된 픽쳐에 블록킹 열화(blocking artifact)와 링잉(ringing) 현상이 발생하며, 그로 인하여 복원된 영상의 주관적 화질이 저하되는 문제가 있다.In addition, image encoding is divided into prediction, transformation, quantization, and entropy coding processes. In the quantization process, blocking artifacts and ringing occur in the reconstructed picture due to a quantization error. As a result, the reconstructed image There is a problem in that the subjective image quality of

따라서 양자화를 사용하는 종래 기술의 영상 부호화 및 복호화 기술에서는 복원된 픽쳐에 필터링을 수행하여 주관적 화질을 개선하고 있다. 이러한 복원된 픽쳐의 필터링과 관련된 종래 기술은 화면 간 예측 모드에서 필터링된 픽쳐를 참조 픽쳐로 사용하는지에 따라 크게 후처리 필터 방식과 인-루프(In-loop) 필터 방식으로 나눠진다.Therefore, in the prior art image encoding and decoding technology using quantization, the subjective image quality is improved by performing filtering on the reconstructed picture. The prior art related to the filtering of the reconstructed picture is largely divided into a post-processing filter method and an in-loop filter method depending on whether the filtered picture is used as a reference picture in the inter prediction mode.

후처리 필터 방식은 영상 디코더 외부에서 복원 영상의 디스플레이 출력 직전에 필터링을 수행하며, 인-루프 필터 방식은 복원된 픽쳐에 필터링을 적용한 후 복호화 픽쳐 버퍼(decoded picture buffer, DPB)에 삽입하여 화면 간 예측 모드에서 참조 픽쳐로 사용하는 방식이다.The post-processing filter method performs filtering immediately before the display output of the reconstructed image from outside the image decoder, and the in-loop filter method applies filtering to the reconstructed picture and inserts it into a decoded picture buffer (DPB) between screens. This method is used as a reference picture in the prediction mode.

한편, 인-루프 필터 방식 즉, 디블록킹 필터 방식은 필터링을 수행할 때 메모리에 저장되어 있는 복원된 픽셀들을 로드한 후 필터링을 수행하고, 필터링이 수행된 픽셀을 다시 메모리에 저장하므로 잦은 메모리 접근을 야기한다. 또한, 디블록킹 필터는 필터링 연산 과정 자체도 복잡하며 이러한 연산 복잡도 및 메모리 접근에 대한 오버헤드로 인해 디코더에서 20~30%의 상당히 큰 복잡도를 차지하는 단점이 있다. 이와 같이 영상 부호화 및 복호화 기술에서는 복원된 픽쳐에 대한 효과적인 필터링 방안이 요구되고 있는 실정이다.On the other hand, the in-loop filter method, that is, the deblocking filter method, performs filtering after loading restored pixels stored in memory when filtering is performed, and stores the filtered pixels in memory again, so frequent memory accesses causes In addition, the deblocking filter also has a complex filtering operation process itself, and has a disadvantage in that it occupies a fairly large complexity of 20-30% in the decoder due to the computational complexity and overhead for memory access. As such, in the image encoding and decoding technology, an effective filtering method for the reconstructed picture is required.

상기와 같은 과제를 해결하기 위한 본 발명의 목적은, 디블록킹 필터링을 개선하여 영상을 부호화/복호화하는 방법을 제공하는데 있다.An object of the present invention for solving the above problems is to provide a method for encoding/decoding an image by improving deblocking filtering.

본 발명의 다른 목적은, 디블록킹 필터링을 개선하여 영상을 부호화/복호화하는 장치를 제공하는데 있다.Another object of the present invention is to provide an apparatus for encoding/decoding an image by improving deblocking filtering.

상기 목적을 달성하기 위한 본 발명의 일 측면에 따른 화면 간 예측에서 적응적 필터링을 수행하는 영상 부호화 방법은, 부호화 대상 현재 블록에 대한 화면 간 예측을 수행하여 참조 블록을 탐색하는 단계, 탐색된 참조 블록이 현재 블록이 위치한 현재 픽쳐 내에 있는지 여부를 지시하는 플래그를 생성하는 단계, 탐색된 참조 블록을 이용하여 현재 블록을 부호화하고 복원하는 단계, 플래그를 참조하여, 복원된 현재 블록에 대하여 인루프 필터를 적응적으로 적용하는 단계 및 인루프 필터가 적용되거나 되지 않은 현재 블록을 복원된 픽쳐 버퍼(Decoded Picture Buffer, DPB)에 저장하는 단계를 포함한다.In order to achieve the above object, an image encoding method for performing adaptive filtering in inter prediction according to an aspect of the present invention includes the steps of performing inter prediction on a current block to be encoded to search for a reference block; Generating a flag indicating whether a block is within a current picture in which the current block is located, encoding and reconstructing the current block using the found reference block, referring to the flag, and an in-loop filter for the reconstructed current block adaptively applying and storing the current block to which the in-loop filter is not applied or not in a reconstructed picture buffer (Decoded Picture Buffer, DPB).

여기서, 인루프 필터는 디블로킹 필터, 적응적 샘플 오프셋(SAO) 중 적어도 하나를 포함할 수 있다.Here, the in-loop filter may include at least one of a deblocking filter and an adaptive sample offset (SAO).

여기서, 인루프 필터를 적응적으로 적용하는 단계는, 플래그가 현재 픽쳐 내에 참조 블록이 있음을 지시하면, 복원된 현재 블록에 대하여 인루프 필터를 적용하지 않을 수 있다.Here, the step of adaptively applying the in-loop filter may not apply the in-loop filter to the reconstructed current block when the flag indicates that the reference block exists in the current picture.

여기서, 인루프 필터를 적응적으로 적용하는 단계는, 플래그가 현재 픽쳐 내에 참조 블록이 없음을 지시하면, 복원된 현재 블록에 대하여 인루프 필터를 적용할 수 있다.Here, in the step of adaptively applying the in-loop filter, if the flag indicates that there is no reference block in the current picture, the in-loop filter may be applied to the reconstructed current block.

상기 목적을 달성하기 위한 본 발명의 다른 측면에 따른 화면 간 예측을 수행하는 영상 부호화 방법은, 현재 블록과 동일한 픽쳐 내에 위치하여, 현재 블록의 화면 간 예측시 블록 매칭되는 참조 블록을 포함하는 영상 신호가 부호화 후 복원되는 단계, 복원된 영상 신호가 복원된 픽쳐 버퍼(Decoded Picture Buffer, DPB)와 별도의 임시 메모리에 저장되는 단계 및 복원된 영상 신호에 포함된 참조 블록을 이용하여 현재 블록에 대하여 블록 매칭을 통한 화면 간 예측을 수행하는 단계를 포함한다.An image encoding method for performing inter prediction according to another aspect of the present invention for achieving the above object is an image signal including a reference block located in the same picture as a current block and matching blocks during inter prediction of the current block A step of reconstructing after encoding, storing the reconstructed image signal in a temporary memory separate from the reconstructed picture buffer (DPB), and using a reference block included in the reconstructed image signal to block the current block and performing inter-screen prediction through matching.

여기서, 임시 메모리에 저장되는 단계는, 복원된 영상 신호가 인루프 필터(In-loop filter)와 별도의 필터를 거쳐 별도의 임시 메모리에 저장될 수 있다.Here, in the step of storing in the temporary memory, the restored image signal may be stored in a separate temporary memory through an in-loop filter and a separate filter.

여기서, 별도의 필터는, 복원된 영상 신호에 포함된 참조 블록의 왼쪽과 위쪽 경계에 대하여 필터링을 수행할 수 있다.Here, a separate filter may perform filtering on the left and upper boundaries of the reference block included in the reconstructed image signal.

여기서, 별도의 필터는, 복원된 영상 신호의 변환 블록 경계, 예측 블록 경계, 변환 블록과 예측 블록의 공통된 블록 경계 중 적어도 하나 이상에서 필터링을 수행할 수 있다.Here, the separate filter may perform filtering on at least one of a transform block boundary of the reconstructed image signal, a prediction block boundary, and a common block boundary between the transform block and the prediction block.

상기 목적을 달성하기 위한 본 발명의 다른 측면에 따른 화면 간 예측에서 적응적 필터링을 수행하는 영상 복호화 방법은, 비트 스트림으로부터, 복호화할 현재 블록의 화면 간 예측시 블록 매칭되는 참조 블록을 포함하는 영상 신호를 복원하는 단계, 비트 스트림으로부터 참조 블록이 현재 블록이 위치한 현재 픽쳐 내에 있는지 여부를 지시하는 플래그를 획득하는 단계, 참조 블록을 이용하여 현재 블록을 복원하는 단계, 획득한 플래그에 기초하여 복원된 현재 블록에 대하여 인루프 필터를 적응적으로 적용하는 단계 및 인루프 필터가 적용되거나 적용되지 않은 현재 블록을 복원된 픽쳐 버퍼(Decoded Picture Buffer, DPB)에 저장하는 단계를 포함한다.An image decoding method for performing adaptive filtering in inter prediction according to another aspect of the present invention for achieving the above object is an image including, from a bit stream, a reference block that is block-matched during inter prediction of a current block to be decoded reconstructing a signal, obtaining a flag indicating whether a reference block is in a current picture in which the current block is located, reconstructing the current block using the reference block, reconstructed based on the obtained flag and adaptively applying the in-loop filter to the current block, and storing the current block to which the in-loop filter is applied or not applied in a decoded picture buffer (DPB).

여기서, 인루프 필터는 디블로킹 필터, 적응적 샘플 오프셋(SAO) 중 적어도 하나를 포함할 수 있다.Here, the in-loop filter may include at least one of a deblocking filter and an adaptive sample offset (SAO).

여기서, 인루프 필터를 적응적으로 적용하는 단계는, 플래그가 현재 픽쳐 내에 참조 블록이 있음을 지시하면, 복원된 현재 블록에 대하여 인루프 필터를 적용하지 않을 수 있다.Here, the step of adaptively applying the in-loop filter may not apply the in-loop filter to the reconstructed current block when the flag indicates that the reference block exists in the current picture.

여기서, 인루프 필터를 적응적으로 적용하는 단계는, 플래그가 현재 픽쳐 내에 참조 블록이 없음을 지시하면, 복원된 현재 블록에 대하여 인루프 필터를 적용할 수 있다.Here, in the step of adaptively applying the in-loop filter, if the flag indicates that there is no reference block in the current picture, the in-loop filter may be applied to the reconstructed current block.

상기 목적을 달성하기 위한 본 발명의 다른 측면에 따른 화면 간 예측을 수행하는 영상 복호화 방법은, 비트스트림으로부터 현재 블록과 동일한 픽쳐 내에 위치하여, 현재 블록의 화면 간 예측시 블록 매칭되는 참조 블록을 포함하는 영상 신호를 복원하는 단계, 복원된 영상 신호가 복원된 픽쳐 버퍼(Decoded Picture Buffer, DPB)와 별도의 임시 메모리에 저장되는 단계 및 복원된 영상 신호를 이용하여 현재 블록에 대하여 블록 매칭을 통한 화면 간 예측을 수행하는 단계를 포함한다.In order to achieve the above object, an image decoding method for performing inter prediction according to another aspect of the present invention includes a reference block located in the same picture as a current block from a bitstream and matching blocks during inter prediction of the current block screen through block matching with respect to the current block using the restored image signal and the restored image signal is stored in a temporary memory separate from the restored picture buffer (Decoded Picture Buffer, DPB) performing inter-prediction.

여기서, 임시 메모리에 저장되는 단계는, 복원된 영상 신호가, 인루프 필터(In-loop filter)와 별도의 필터를 거쳐 임시 메모리에 저장될 수 있다.Here, in the storing in the temporary memory, the restored image signal may be stored in the temporary memory through an in-loop filter and a separate filter.

여기서, 별도의 필터는, 복원된 영상 신호에 포함된 참조 블록의 왼쪽과 위쪽 경계에 대하여 필터링을 수행할 수 있다.Here, a separate filter may perform filtering on the left and upper boundaries of the reference block included in the reconstructed image signal.

여기서, 별도의 필터는, 복원된 영상 신호의 변환 블록 경계, 예측 블록 경계, 변환 블록과 예측 블록의 공통된 블록 경계 중 적어도 하나 이상에서 필터링을 수행할 수 있다.Here, the separate filter may perform filtering on at least one of a transform block boundary of the reconstructed image signal, a prediction block boundary, and a common block boundary between the transform block and the prediction block.

상기 목적을 달성하기 위한 본 발명의 다른 측면에 따른 화면 간 예측에서 적응적 필터링을 수행하고, 하나 이상의 프로세서들을 포함하는 영상 복호화 장치에서, 하나 이상의 프로세서들은, 비트 스트림으로부터, 복호화할 현재 블록의 화면 간 예측시 블록 매칭되는 참조 블록을 포함하는 영상 신호를 복원하는 단계, 비트 스트림으로부터 참조 블록이 현재 블록이 위치한 현재 픽쳐 내에 있는지 여부를 지시하는 플래그를 획득하는 단계, 참조 블록을 이용하여 현재 블록을 복원하는 단계, 획득한 플래그에 기초하여 복원된 현재 블록에 대하여 인루프 필터를 적응적으로 적용하는 단계 및 인루프 필터가 적용되거나 적용되지 않은 현재 블록을 복원된 픽쳐 버퍼(Decoded Picture Buffer, DPB)에 저장하는 단계를 수행한다.In an image decoding apparatus including one or more processors that perform adaptive filtering in inter prediction according to another aspect of the present invention for achieving the above object, the one or more processors are configured to: Reconstructing an image signal including a block-matched reference block during inter-prediction, obtaining a flag indicating whether the reference block is in a current picture in which the current block is located, from a bit stream, using the reference block to select the current block Reconstructing, adaptively applying an in-loop filter to the reconstructed current block based on the obtained flag, and reconstructing a current block to which the in-loop filter is applied or not applied to a decoded picture buffer (DPB) Steps to save to

여기서, 인루프 필터는 디블로킹 필터, 적응적 샘플 오프셋(SAO) 중 적어도 하나를 포함할 수 있다.Here, the in-loop filter may include at least one of a deblocking filter and an adaptive sample offset (SAO).

여기서, 인루프 필터를 적응적으로 적용하는 단계는, 플래그가 현재 픽쳐 내에 참조 블록이 있음을 지시하면, 복원된 현재 블록에 대하여 인루프 필터를 적용하지 않을 수 있다.Here, the step of adaptively applying the in-loop filter may not apply the in-loop filter to the reconstructed current block when the flag indicates that the reference block exists in the current picture.

여기서, 인루프 필터를 적응적으로 적용하는 단계는, 플래그가 현재 픽쳐 내에 참조 블록이 없음을 지시하면, 복원된 현재 블록에 대하여 인루프 필터를 적용할 수 있다.Here, in the step of adaptively applying the in-loop filter, if the flag indicates that there is no reference block in the current picture, the in-loop filter may be applied to the reconstructed current block.

상술한 바와 같은 본 발명의 실시예에 따른 적응적인 디블록킹 필터링를 수행하는 부호화 방법, 복호화 방법 및 복호화 장치를 이용할 경우에는, 디블록킹 필터링의 성능을 개선함으로써 부호화 및 복호화 효율을 향상시킬 수 있다.When using the encoding method, the decoding method, and the decoding apparatus for performing adaptive deblocking filtering according to the embodiment of the present invention as described above, it is possible to improve the encoding and decoding efficiency by improving the performance of the deblocking filtering.

또한 적응적인 인루프 필터를 적용함으로써, 추가적인 메모리 소모를 방지할 수 있다.In addition, by applying an adaptive in-loop filter, additional memory consumption can be prevented.

또한, 인루프 필터와 별도로 구분되는 필터를 적용함으로써 예측 효율을 향상시킬 수 있다.In addition, prediction efficiency can be improved by applying a filter that is separately distinguished from the in-loop filter.

도 1은 본 발명의 실시예에 따른 영상 부호화 및 복호화 시스템에 대한 개념도이다.
도 2는 본 발명의 실시예에 따른, 영상 부호화 장치에 대한 구성도이다.
도 3은 본 발명의 실시예에 따른, 영상 복호화 장치에 대한 구성도이다.
도 4는 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 P 슬라이스의 화면 간 예측을 나타낸 예시도이다.
도 5는 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 B 슬라이스의 화면 간 예측을 나타낸 예시도이다.
도 6은 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 단방향으로 예측 블록을 생성하는 경우를 설명하기 위한 예시도이다.
도 7은 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 참조 픽쳐 리스트로부터 구성하는 예시도이다.
도 8은 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 참조 픽쳐 리스트로부터 화면 간 예측을 수행하는 경우의 다른 예를 나타낸 예시도이다.
도 9는 본 발명의 일실시예에 따른 영상 부호화 방법에서 화면 내 예측을 설명하기 위한 예시도이다.
도 10은 본 발명의 일실시예에 따른 영상 부호화 방법에서 P 슬라이스나 B 슬라이스에서의 예측 원리를 설명하기 위한 예시도이다.
도 11은 예측 블록을 획득하는 과정을 설명하기 위한 예시도이다.
도 12는 본 발명의 일실시예에 따른 영상 부호화 방법의 주요 과정을 코딩 단위(coding unit)에서의 신택스로 설명하기 위한 예시도이다.
도 13은 현재 픽쳐에서 블록매칭을 통해 예측 블록을 생성할 경우, 화면 간 예측에서와 같이 대칭형(symmetric type) 분할 또는 비대칭형(asymmetric type) 분할을 지원하는 예를 설명하기 위한 예시도이다.
도 14는 화면 간 예측(Inter)에서 2N×2N, N×N을 지원할 수 있음을 설명하기 위한 예시도이다.
도 15는 현재 픽쳐 내의 참조 블록을 이용한 블록 매칭을 통해 예측 블록을 생성하는 예시도이다.
도 16은 현재 픽쳐 내에서 블록 매칭시 사용된 이미 부호화된 영역의 참조 블록을 설명하는 예시도이다.
도 17는, 필터링 스킵 확인부가 추가된 영상 부호화 장치에 대한 구성도이다.
도 18은, 필터링 스킵 확인부가 추가된 영상 복호화 장치에 대한 구성도이다.
도 19 내지 도 22는 본 발명의 실시예에 따른 영상 부호화 방법에 있어서 다양한 크기의 블록 단위로의 플래그 전송을 설명하는 예시도이다.
도 23은, 참조 블록 활용 여부를 지시하는 플래그를 전송하는 방법을 설명하기 위한 예시도이다.
1 is a conceptual diagram of an image encoding and decoding system according to an embodiment of the present invention.
2 is a block diagram of an image encoding apparatus according to an embodiment of the present invention.
3 is a block diagram of an image decoding apparatus according to an embodiment of the present invention.
4 is an exemplary diagram illustrating inter prediction of a P slice in an image encoding and decoding method according to an embodiment of the present invention.
5 is an exemplary diagram illustrating inter prediction of a B slice in a video encoding and decoding method according to an embodiment of the present invention.
6 is an exemplary diagram for explaining a case in which a prediction block is generated unidirectionally in an image encoding and decoding method according to an embodiment of the present invention.
7 is an exemplary diagram configured from a reference picture list in a video encoding and decoding method according to an embodiment of the present invention.
8 is an exemplary diagram illustrating another example of performing inter prediction from a reference picture list in an image encoding and decoding method according to an embodiment of the present invention.
9 is an exemplary diagram for explaining intra prediction in an image encoding method according to an embodiment of the present invention.
10 is an exemplary diagram for explaining a prediction principle in a P slice or a B slice in an image encoding method according to an embodiment of the present invention.
11 is an exemplary diagram for explaining a process of obtaining a prediction block.
12 is an exemplary diagram for explaining a main process of an image encoding method according to an embodiment of the present invention with syntax in a coding unit.
13 is an exemplary diagram for explaining an example of supporting symmetric type division or asymmetric type division as in inter prediction when a prediction block is generated through block matching in the current picture.
14 is an exemplary diagram for explaining that 2N×2N and N×N can be supported in inter prediction (Inter).
15 is an exemplary diagram of generating a prediction block through block matching using a reference block in a current picture.
16 is an exemplary diagram illustrating a reference block of an already encoded region used for block matching in a current picture.
17 is a block diagram of a video encoding apparatus to which a filtering skip check unit is added.
18 is a block diagram of an image decoding apparatus to which a filtering skip check unit is added.
19 to 22 are exemplary diagrams for explaining flag transmission in blocks of various sizes in an image encoding method according to an embodiment of the present invention.
23 is an exemplary diagram for explaining a method of transmitting a flag indicating whether a reference block is used.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

통상적으로 동영상은 일련의 픽쳐(Picture)로 구성될 수 있으며, 각 픽쳐들은 블록(Block)과 같은 소정의 영역으로 분할될 수 있다. 또한, 분할된 영역은 블록(Block)뿐 아니라, CTU(Coding Tree Unit), CU(Coding Unit), PU(Prediction Unit), TU(Transform Unit)과 같이 다양한 크기 또는 용어로 지칭할 수 있다. 각 유닛(Unit)은 하나의 휘도 블록과 두 개의 색차 블록으로 구성될 수 있으며, 이는 컬러 포맷에 따라 달리 구성될 수 있다. 또한, 컬러 포맷에 따라 휘도 블록과 색차 블록의 크기가 결정될 수 있다. 예를 들어, 4:2:0인 경우 색차 블록의 크기는 휘도 블록의 가로, 세로가 1/2인 길이를 가질 수 있다. 이 단위에 대해서는 기존의 HEVC 또는 H.264/AVC 등의 용어를 참조할 수 있다. 본 발명에서는 블록과 상기 용어들을 혼용하여 사용하였으나, 표준 기술에 따라 달리 이해될 수 있고, 그러한 표준 기술에 따른 부호화 및 복호화 과정에 따라 상응하는 용어 또는 단위로 이해되어야 한다.In general, a moving picture may be composed of a series of pictures, and each picture may be divided into a predetermined area such as a block. In addition, the divided region may be referred to by various sizes or terms such as a coding tree unit (CTU), a coding unit (CU), a prediction unit (PU), and a transform unit (TU) as well as a block. Each unit may include one luminance block and two color difference blocks, which may be configured differently according to a color format. Also, sizes of the luminance block and the chrominance block may be determined according to the color format. For example, in the case of 4:2:0, the size of the chrominance block may have a length equal to 1/2 of the width and length of the luminance block. For this unit, conventional terms such as HEVC or H.264/AVC may be referred to. Although block and the above terms are used interchangeably in the present invention, it may be understood differently according to standard technology, and it should be understood as a corresponding term or unit according to the encoding and decoding process according to such standard technology.

또한, 현재 블록 또는 현재 화소를 부호화하거나 복호화하는데 참조되는 픽쳐, 블록 또는 화소를 참조 픽쳐(Reference Picture), 참조 블록(Reference Block) 또는 참조 화소(Reference Pixel)라고 한다. 또한, 이하에 기재된 "픽쳐(picture)"이라는 용어는 영상(image), 프레임(frame) 등과 같은 동등한 의미를 갖는 다른 용어로 대치되어 사용될 수 있음을 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다In addition, a picture, block, or pixel referenced for encoding or decoding the current block or the current pixel is referred to as a reference picture, a reference block, or a reference pixel. In addition, it is common knowledge in the technical field to which this embodiment belongs that the term "picture" described below may be used instead of other terms having the same meaning, such as an image and a frame. Grow up to understand

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

도 1은 본 발명의 실시예에 따른 영상 부호화 및 복호화 시스템에 대한 개념도이다.1 is a conceptual diagram of an image encoding and decoding system according to an embodiment of the present invention.

도 1을 참조하면, 영상 부호화 장치(12) 및 복호화 장치(11)는 개인용 컴퓨터(PC:Personal Computer), 노트북 컴퓨터, 개인 휴대 단말기(PDA: Personal Digital Assistant), 휴대형 멀티미디어 플레이어(PMP: Portable Multimedia Player), 플레이스테이션 포터블(PSP: PlayStation Portable), 무선 통신 단말기(Wireless Communication Terminal), 스마트폰(Smart Phone), TV 등과 같은 사용자 단말기이거나 응용 서버와 서비스 서버 등 서버 단말기일 수 있으며, 각종 기기 또는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, 영상을 부호화하거나 복호화하거나 부호화 또는 복호화를 위해 인터 또는 인트라 예측하기 위한 각종 프로그램과 데이터를 저장하기 위한 메모리(memory, 18), 프로그램을 실행하여 연산 및 제어하기 위한 프로세서(processor, 14) 등을 구비하는 다양한 장치를 포함할 수 있다. 또한, 영상 부호화 장치(12)에 의해 비트스트림으로 부호화된 영상은 실시간 또는 비실시간으로 인터넷, 근거리 무선 통신망, 무선랜망, 와이브로망, 이동통신망 등의 유무선 통신망(Network) 등을 통하거나 케이블, 범용 직렬 버스(USB: Universal Serial Bus) 등과 같은 다양한 통신 인터페이스를 통해 영상 복호화 장치로 전송되어 영상 복호화 장치에서 복호화되어 영상으로 복원되고 재생될 수 있다.Referring to FIG. 1 , an image encoding apparatus 12 and a decoding apparatus 11 include a personal computer (PC), a notebook computer, a personal digital assistant (PDA), and a portable multimedia player (PMP). Player), PlayStation Portable (PSP: PlayStation Portable), wireless communication terminal, smart phone, TV, etc., or server terminals such as application servers and service servers, and various devices or A communication device such as a communication modem for performing communication with a wired or wireless communication network, a memory (memory, 18) for storing various programs and data for encoding or decoding an image or inter or intra prediction for encoding or decoding, and executing a program and may include various devices including a processor 14 for calculating and controlling the operation. In addition, the video encoded as a bitstream by the video encoding device 12 is transmitted in real time or in non-real time through a wired/wireless network such as the Internet, a local area network, a wireless LAN network, a WiBro network, a mobile communication network, etc., or through a cable, general purpose It may be transmitted to an image decoding apparatus through various communication interfaces such as a serial bus (USB: Universal Serial Bus), decoded in the image decoding apparatus, restored as an image, and reproduced.

또한, 영상 부호화 장치에 의해 비트스트림으로 부호화된 영상은 컴퓨터 판독 가능한 기록 매체를 통하여 부호화 장치에서 복호화 장치로 전달될 수도 있다.Also, an image encoded as a bitstream by the image encoding apparatus may be transmitted from the encoding apparatus to the decoding apparatus through a computer-readable recording medium.

도 2는 본 발명의 일실시예에 따른 영상 부호화 장치에 대한 블록도이다. 도 3은 본 발명의 일실시예에 따른 영상 복호화 장치에 대한 블록도이다.2 is a block diagram of an image encoding apparatus according to an embodiment of the present invention. 3 is a block diagram of an image decoding apparatus according to an embodiment of the present invention.

본 실시예에 따른 영상 부호화 장치(20)는, 도 2에 나타낸 바와 같이, 예측부(200), 감산부(205), 변환부(210), 양자화부(215), 역양자화부(220), 역변환부(225), 가산부(230), 필터부(235), 복호화 픽쳐 버퍼(240) 및 엔트로피 부호화부(245)를 포함할 수 있다.As shown in FIG. 2 , the image encoding apparatus 20 according to the present embodiment includes a prediction unit 200 , a subtraction unit 205 , a transform unit 210 , a quantization unit 215 , and an inverse quantization unit 220 . , an inverse transform unit 225 , an adder 230 , a filter unit 235 , a decoded picture buffer 240 , and an entropy encoder 245 .

또한, 본 실시예에 따른 영상 복호화 장치(30)는, 도 3에 나타낸 바와 같이, 엔트로피 복호화부(305), 예측부(310), 역양자화부(315), 역변환부(320), 가산부(325), 필터부(330) 및 복호화 픽쳐 버퍼(335)를 포함할 수 있다.In addition, as shown in FIG. 3 , the image decoding apparatus 30 according to the present embodiment includes an entropy decoding unit 305 , a prediction unit 310 , an inverse quantization unit 315 , an inverse transform unit 320 , and an adder unit. 325 , a filter unit 330 , and a decoded picture buffer 335 may be included.

전술한 영상 부호화 장치(20)와 영상 복호화 장치(30)는 각각 별도의 장치들일 수 있으나, 구현에 따라서 하나의 영상 부호화 및 복호화 장치로 만들어질 수 있다. 그 경우, 영상 부호화 장치(20)의 예측부(200), 역양자화부(220), 역변환부(225), 가산부(230), 필터부(235) 및 메모리(240)는 기재된 순서대로 영상 복호화 장치(30)의 예측부(310), 역양자화부(315), 역변환부(320), 가산부(325), 필터부(330) 및 메모리(335)와 실질적으로 동일한 기술요소로서 적어도 동일한 구조를 포함하거나 적어도 동일한 기능을 수행하도록 구현될 수 있다. 또한, 엔트로부 부호화부(245)는 그 기능을 역으로 수행할 때, 엔트로피 복호화부(305)에 대응될 수 있다. 따라서 이하의 기술요소들과 이들의 작동 원리 등에 대한 상세 설명에서는 대응 기술요소들의 중복되는 설명을 생략하기로 한다.The above-described image encoding apparatus 20 and image decoding apparatus 30 may be separate apparatuses, respectively, but may be made into one image encoding and decoding apparatus according to implementation. In this case, the prediction unit 200 , the inverse quantization unit 220 , the inverse transform unit 225 , the adder 230 , the filter unit 235 , and the memory 240 of the image encoding apparatus 20 operate the image in the order described. The prediction unit 310 , the inverse quantization unit 315 , the inverse transform unit 320 , the addition unit 325 , the filter unit 330 , and the memory 335 of the decoding apparatus 30 have substantially the same technical elements as at least the same technical elements. It may be implemented to include a structure or to perform at least the same function. Also, when the entropy encoder 245 performs its function in reverse, it may correspond to the entropy decoder 305 . Therefore, in the detailed description of the following technical elements and their operating principles, overlapping descriptions of corresponding technical elements will be omitted.

그리고 영상 복호화 장치(30)는 영상 부호화 장치(20)에서 수행되는 영상 부호화 방법을 복호화에 적용하는 컴퓨팅 장치에 대응하므로, 이하의 설명에서는 영상 부호화 장치(20)를 중심으로 설명하기로 한다.And since the image decoding apparatus 30 corresponds to a computing device that applies the image encoding method performed by the image encoding apparatus 20 to decoding, the image encoding apparatus 20 will be mainly described in the following description.

컴퓨팅 장치는 영상 부호화 방법 및/또는 영상 복호화 방법을 구현하는 프로그램이나 소프트웨어 모듈을 저장하는 메모리와 메모리에 연결되어 프로그램을 수행하는 프로세서를 포함할 수 있다. 그리고 영상 부호화 장치는 부호화기로, 영상 복호화 장치는 복호화기로 각각 지칭될 수 있다.The computing device may include a memory that stores a program or software module implementing the image encoding method and/or the image decoding method, and a processor connected to the memory to execute the program. In addition, the image encoding apparatus may be referred to as an encoder, and the image decoding apparatus may be referred to as a decoder, respectively.

본 실시예의 영상 부호화 장치의 각 구성요소를 좀더 구체적으로 설명하면 다음과 같다.Each component of the video encoding apparatus of the present embodiment will be described in more detail as follows.

여기서, 영상 부호화 장치(20)는, 분할부를 더 포함할 수 있다. 분할부는 입력 영상을 정해진 크기의 블록(M×N)으로 분할한다. 여기서, M 또는 N은 1 이상의 임의의 자연수이다. 상세하게는, 분할부은 픽쳐 분할부와 블록 분할부로 구성될 수 있다. 블록은 영상의 특성 및 해상도 등에 따라 크기 또는 형태가 결정될 수 있고, 픽쳐 분할부를 통해 지원되는 블록의 크기 또는 형태는 가로 및 세로의 길이가 2의 지수승으로 표현되는 M×N 정사각 형태(256×256, 128×128, 64×64, 32×32, 16×16, 8×8, 4×4 등)이거나, M×N 직사각 형태일 수 있다. 예를 들어, 해상도가 높은 8k UHD급 영상의 경우 256×256, 1080p HD급 영상의 경우 128×128, WVGA급 영상의 경우 16×16 등 크기로 입력 영상을 분할할 수 있다.Here, the image encoding apparatus 20 may further include a division unit. The division unit divides the input image into blocks (M×N) of a predetermined size. Here, M or N is any natural number greater than or equal to 1. In detail, the dividing unit may include a picture dividing unit and a block dividing unit. The size or shape of the block may be determined according to the characteristics and resolution of the image, and the size or shape of the block supported through the picture divider is an M×N square shape (256) in which the horizontal and vertical lengths are expressed by the power of two. ×256, 128×128, 64×64, 32×32, 16×16, 8×8, 4×4, etc.) or M×N rectangular shape. For example, the input image can be divided into sizes such as 256×256 for a high-resolution 8k UHD video, 128×128 for a 1080p HD video, and 16×16 for a WVGA video.

이러한 블록의 크기 또는 형태에 대한 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위에서 설정이 가능하며, 관련 정보를 복호화기에 전송할 수 있다. 즉, 시퀀스 파라미터 셋, 픽쳐 파라미터 셋, 슬라이스 헤더 또는 이들의 조합 단위에서 설정될 수 있다.Information on the size or shape of such a block can be set in units such as sequence, picture, slice, and the like, and related information can be transmitted to the decoder. That is, it may be set in a sequence parameter set, a picture parameter set, a slice header, or a combination unit thereof.

여기서, 시퀀스(sequence)는 몇 개의 관련 장면을 모아서 구성되는 구성단위를 가리킨다. 그리고 픽쳐(picture)는 하나의 장면 또는 픽쳐에서 일련의 휘도(Y) 성분 혹은 휘도 + 색차(Y, Cb, Cr) 성분 전체를 일컫는 용어로서, 한 픽쳐의 범위는 경우에 따라서 한 프레임 혹은 한 필드가 될 수 있다.Here, a sequence refers to a structural unit configured by collecting several related scenes. In addition, a picture is a term that refers to a series of luminance (Y) components or all luminance + chrominance (Y, Cb, Cr) components in one scene or picture, and the range of one picture is one frame or one field in some cases can be

슬라이스(slice)는 동일 액세스 유닛(access unit) 안에 존재하는 하나의 독립 슬라이스 세그먼트와 다수의 종속 슬라이스 세그먼트를 말할 수 있다. 액세스 유닛은 한 장의 코딩된 픽쳐와 관련된 NAL(network abstraction layer) 유닛의 집합(set)을 의미한다. NAL 유닛은 H.264/AVC와 HEVC 표준에서 비디오 압축 비트스트림을 네트워크 친화적인 형식으로 구성한 구문 구조(syntax structure)이다. 한 슬라이스 단위를 하나의 NAL 유닛으로 구성하는 것이 일반적이며, 시스템 표준에서는 일반적으로 한 프레임을 구성하는 NAL 혹은 NAL 집합을 하나의 액세스 유닛으로 간주한다.A slice may refer to one independent slice segment and a plurality of dependent slice segments existing in the same access unit. The access unit refers to a set of network abstraction layer (NAL) units related to one coded picture. The NAL unit is a syntax structure that composes a video compression bitstream in a network-friendly format in the H.264/AVC and HEVC standards. It is common to configure one slice unit as one NAL unit, and the system standard generally regards the NAL or NAL set constituting one frame as one access unit.

다시 픽쳐 분할부의 설명으로 되돌아가서, 블록 크기 또는 형태(M×N)에 대한 정보는 명시적 플래그로 이루어질 수 있는데, 구체적으로 블록 형태 정보, 블록이 정사각형인 경우에 하나의 길이 정보, 직사각형일 경우에는 각각의 길이 정보, 또는 가로와 세로 길이의 차이값 정보 등을 포함할 수 있다. 예를 들어, M과 N이 k의 지수승(k를 2라 가정)으로 구성되어 있을 경우(M=2m, N=2n), m과 n에 대한 정보를 단항 이진화, 절삭형 단항 이진화 등의 다양한 방법으로 부호화하여 관련 정보를 복호화장치에 전달할 수 있다. 또는, 픽쳐 분할부에서 지원하는 분할 허용 최소 크기(Minblksize)가 I×J(설명의 편의상 I=J라고 가정. I=2i,J=2j 일 경우), m-i 또는 n-j에 대한 정보를 전달할 수 있다. 다른 예로, M과 N이 다를 경우, m과 n의 차이값(|m-n|)을 전달할 수 있다. 또는, 픽쳐 분할부에서 지원하는 분할 허용 최대 크기(Maxblksize)가 I×J(설명의 편의상 I=J라고 가정. I=2i,J=2j 일 경우), i-m 또는 n-j에 대한 정보를 전달할 수 있다.Returning to the description of the picture division unit, information on the block size or shape (M×N) may consist of an explicit flag, specifically block shape information, one length information when the block is square, and rectangular. In this case, it may include information on each length, or information on a difference value between horizontal and vertical lengths. For example, when M and N are composed of k to the power of k (assuming k is 2) (M=2 m , N=2 n ), information about m and n is converted into unary binarization and truncation unary binarization. The related information may be transmitted to the decoding device by encoding in various methods such as Alternatively, the minimum allowable division size (Minblksize) supported by the picture division unit is I×J (for convenience of explanation, it is assumed that I=J. In the case of I=2 i ,J=2 j ), information about mi or nj is transmitted. can As another example, when M and N are different, the difference value (|mn|) between m and n may be transmitted. Alternatively, the maximum allowable division size (Maxblksize) supported by the picture division unit is I×J (for convenience of explanation, it is assumed that I=J. If I=2 i ,J=2 j ), information about im or nj is transmitted. can

묵시적인 상황일 경우 예컨대, 관련 정보에 대한 신택스는 존재하나 부호화기 또는 복호화기에서 확인할 수 없는 경우에는, 부호화기나 복호화기는 미리 준비된 기본 설정을 따를 수 있다. 예를 들어, 블록 형태 정보를 확인하는 단계에서 관련 신택스를 확인할 수 없는 경우 블록 형태는 기본 설정인 정사각 형태로 둘 수 있다. 또는, 블록 크기 정보를 확인하는 단계, 상세하게는 상기 예와 같이 분할 허용 최소 크기(Minblksize)로부터의 차이값을 통해 블록 크기 정보를 확인하는 단계에서 차이값 관련 신택스는 확인할 수 있으나 분할 허용 최소 크기(Minblksize) 관련 신택스는 확인할 수 없는 경우 미리 준비된 분할 허용 최소 크기(Minblksize) 관련 기본 설정값으로부터 얻을 수 있다. In an implicit situation, for example, when a syntax for related information exists but cannot be confirmed by an encoder or a decoder, the encoder or decoder may follow a pre-prepared default setting. For example, when the related syntax cannot be checked in the step of checking the block shape information, the block shape may be set to a default square shape. Alternatively, in the step of checking the block size information, specifically, in the step of checking the block size information through the difference value from the minimum allowable partition size (Minblksize) as in the above example, the syntax related to the difference value can be checked, but the minimum partition allowable size If the syntax related to (Minblksize) cannot be confirmed, it can be obtained from a preset value related to the minimum allowable partition size (Minblksize).

이와 같이, 픽쳐 분할부에서 블록의 크기 또는 형태는 부호화기 또는 복호화기에서 관련 정보를 명시적으로 전송하거나 또는 영상의 특성 및 해상도 등에 따라 묵시적으로 결정될 수 있다.In this way, the size or shape of a block in the picture divider may be implicitly determined according to characteristics and resolution of an image, or the like by explicitly transmitting related information from an encoder or a decoder.

상기와 같이 픽쳐 분할부를 통해 분할 및 결정된 블록은 기본 부호화 단위로 사용될 수 있다. 또한, 픽쳐 분할부를 통해 분할 및 결정된 블록은 픽쳐, 슬라이스, 타일(tile) 등의 상위 레벨 단위를 구성하는 최소 단위일 수 있고, 부호화(Coding Block), 예측(Prediction Block), 변환(Transform Block), 양자화(Quantization Block), 엔트로피(Entropy Block), 인루프 필터(Inloopfiltering Block) 등의 블록의 최대 단위일 수 있으나, 일부 블록은 이에 한정되지 않고 예외도 가능하다.As described above, the block divided and determined through the picture divider may be used as a basic coding unit. In addition, a block divided and determined through the picture divider may be a minimum unit constituting a higher-level unit such as a picture, a slice, and a tile, and may include a coding block, a prediction block, and a transform block. ), quantization block, entropy block, and inloopfiltering block may be the maximum unit of a block, but some blocks are not limited thereto, and exceptions are possible.

예컨대, 인루프 필터링 블록과 같이 일부는 위에서 설명한 블록 크기보다 더 큰 단위로 적용될 수 있다.For example, some such as in-loop filtering blocks may be applied in units larger than the block size described above.

블록 분할부는 부호화, 예측, 변환, 양자화, 엔트로피, 인루프 필터 등의 블록에 대한 분할을 수행한다. 분할부는 각 구성에 포함되어 기능을 수행하기도 한다. 예컨대, 변환부(210)에 변환블록 분할부, 양자화부(215)에 양자화블록 분할부를 포함할 수 있다. 블록 분할부의 초기 블록의 크기 또는 형태는 이전 단계 또는 상위 레벨 블록의 분할 결과에 의해 결정될 수 있다. 예를 들어, 부호화 블록의 경우 이전 단계인 픽쳐 분할부를 통해 획득된 블록을 초기 블록으로 설정할 수 있다. 또는, 예측 블록의 경우 예측 블록의 상위 레벨인 부호화 블록의 분할 과정을 통해 획득된 블록을 초기 블록으로 설정할 수 있다. 또는, 변환 블록의 경우 변환 블록의 상위 레벨인 부호화 블록의 분할 과정을 통해 획득된 블록을 초기 블록으로 설정할 수 있다. 상기 초기 블록의 크기 또는 형태를 결정하는 조건은 항상 고정적이지 않으며 일부가 변경되거나 예외인 경우가 존재할 수 있다. 또한, 이전 단계 또는 상위 레벨 블록의 분할 상태(예를 들어, 부호화 블록의 크기, 부호화 블록의 형태 등)와 현재 레벨의 설정 조건(예를 들어, 지원되는 변환 블록의 크기, 변환 블록의 형태 등) 각각 최소 하나 이상의 요인의 조합에 따라 현재 레벨의 분할 동작(분할 가능 여부, 분할 가능한 블록 형태 등)에 영향을 줄 수도 있다. The block divider divides blocks such as encoding, prediction, transformation, quantization, entropy, and in-loop filter. The division part is included in each component to perform a function. For example, the transform unit 210 may include a transform block division unit and the quantization unit 215 may include a quantization block division unit. The size or shape of the initial block of the block division unit may be determined by the division result of a previous stage or higher-level block. For example, in the case of a coding block, a block obtained through a picture dividing unit, which is a previous step, may be set as an initial block. Alternatively, in the case of a prediction block, a block obtained through a process of dividing a coding block that is a higher level of the prediction block may be set as an initial block. Alternatively, in the case of a transform block, a block obtained through a process of dividing a coding block that is a higher level of the transform block may be set as an initial block. Conditions for determining the size or shape of the initial block are not always fixed, and some may be changed or there may be exceptions. In addition, the partition state of the previous stage or higher level block (eg, the size of the coding block, the type of the coding block, etc.) and the setting condition of the current level (eg, the size of the supported transform block, the type of the transform block, etc.) ) each may affect the current level division operation (whether division is possible, the type of block that can be divided, etc.) according to a combination of at least one or more factors.

블록 분할부는 쿼드트리(Quad tree) 기반의 분할 방식을 지원할 수 있다. 즉, 분할 전 블록에서 가로 및 세로가 1/2씩의 길이를 갖는 4개의 블록으로 분할할 수 있다. 이는 최초 블록 기준(dep_0)으로 분할 허용 깊이 한계(dep_k, k는 분할 허용 횟수를 의미하고, 분할 허용 깊이 한계(dep_k)일 때의 블록 크기는 (M >> k, N >> k)임)까지 분할을 반복적으로 할 수 있다.The block divider may support a quad tree-based division method. That is, it can be divided into four blocks having a length of 1/2 each in width and length from the block before division. This is based on the initial block (dep_0) and the allowable division depth limit (dep_k, k means the number of allowed divisions, and the block size when the division allowable depth limit (dep_k) is (M >> k, N >> k)) The division can be repeated until

또한, 바이너리 트리 기반의 분할 방식을 지원할 수 있다. 이는 가로 또는 세로 중 하나의 길이가 분할 전 블록과 비교하여 1/2의 길이를 갖는 2개의 블록으로 분할할 수 있음을 나타낸다. 상기 쿼드 트리 분할과 바이너리 트리의 분할의 경우 대칭 분할(Symmetric Partition)이나 비대칭 분할(Asymmetric Partition)일 수 있으며, 이는 부호화기 또는 복호화기의 설정에 따라 어느 분할 방식을 따를지 정할 수 있다. 본 발명의 영상 부호화 방법에서 대칭 분할 방식 위주로 설명을 할 것이다.In addition, a binary tree-based partitioning method may be supported. This indicates that it can be divided into two blocks having a length of one-half compared to the block before division, either horizontally or vertically. In the case of the quad tree partitioning and binary tree partitioning, symmetric partitioning or asymmetric partitioning may be used, and it is possible to determine which partitioning method to follow according to the setting of an encoder or a decoder. In the video encoding method of the present invention, the description will be focused on the symmetric segmentation method.

분할 플래그(div_flag)를 통해 각 블록의 분할 여부를 나타낼 수 있으며, 해당 값이 1이면 분할을 수행하고, 값이 0이면 분할을 수행하지 않는다. 또는, 해당 값이 1이면 분할을 수행하고 추가 분할이 가능하며, 값이 0이면 분할을 수행하지 않고 더 이상의 분할을 허용하지 않을 수 있다. 분할 허용 최소 크기, 분할 허용 깊이 한계 등의 조건에 의해 상기 플래그는 분할 여부에 대해서만 고려하고 추가 분할 여부에 대해서는 고려하지 않을 수 있다.Whether or not each block is divided can be indicated through the division flag (div_flag). If the corresponding value is 1, division is performed, and if the value is 0, division is not performed. Alternatively, if the corresponding value is 1, partitioning is performed and further partitioning is possible. If the value is 0, partitioning is not performed and further partitioning may not be allowed. According to conditions such as the minimum allowable division size and the limit of the allowable division depth, the flag may only consider whether to divide and not consider whether to further divide.

분할 플래그는 쿼드트리 분할에서 사용 가능하고, 바이너리 트리 분할에서도 사용 가능하다. 바이너리 트리 분할에서는 분할 방향이 블록의 분할 깊이, 부호화 모드, 예측 모드, 크기, 형태, 종류(부호화, 예측, 변환, 양자화, 엔트로피, 인루프 필터 등 중 하나일 수 있음. 또는, 휘도, 색차 중 하나일 수 있음) 그리고 슬라이스 타입, 분할 허용 깊이 한계, 분할 허용 최소 및 최대 크기 등의 요인 중 최소 하나 이상의 요인 또는 이들의 조합에 따라 결정될 수 있다. The split flag can be used for quad-tree splits and can also be used for binary tree splits. In binary tree partitioning, the partitioning direction may be one of the partition depth, encoding mode, prediction mode, size, shape, type (encoding, prediction, transformation, quantization, entropy, in-loop filter, etc.) may be one), and may be determined according to at least one or a combination of factors such as a slice type, a partition allowable depth limit, and a partition allowable minimum and maximum size.

그 경우 분할 플래그에 따라 해당 분할 방향에 따라 즉, 블록의 가로만 1/2로 분할되거나 또는 세로만 1/2로 분할될 수 있다. 예를 들어, 블록이 M×N(M>N)으로 M이 N보다 클 때 가로 분할을 지원하며, 현재 분할 깊이(dep_curr)는 분할 허용 깊이 한계보다 작아서 추가 분할이 가능하다고 가정하면, 위의 분할 플래그는 1비트로 할당되어 해당 값이 1이면 가로 분할을 수행하고, 0이면 더 이상 분할하지 않을 수 있다. 분할 깊이는 쿼드 트리와 바이너리 트리 분할에 하나의 분할 깊이를 둘 수도 있고, 쿼드 트리와 바이너리 트리 분할에 각각의 분할 깊이를 둘 수도 있다. 또한, 분할 허용 깊이 한계는 쿼드 트리와 바이너리 트리 분할에 하나의 분할 허용 깊이 한계를 둘 수도 있고, 쿼드 트리와 바이너리 트리 분할에 각각의 분할 허용 깊이 한계를 둘 수도 있다. In that case, according to the division flag, only the width of the block may be divided into 1/2 or only the length of the block may be divided according to a corresponding division direction. For example, if a block is M×N (M>N), which supports horizontal division when M is greater than N, and the current division depth (dep_curr) is smaller than the division allowable depth limit, further division is possible. The division flag is allocated as 1 bit, and if the corresponding value is 1, horizontal division is performed, and if it is 0, no further division may be performed. As for the split depth, one split depth may be placed in the quad tree and binary tree split, and each split depth may be set in the quad tree and binary tree split. In addition, the partition allowable depth limit may set one partition allowable depth limit for quad tree and binary tree partitioning, and may set each partition allowable depth limit for quad tree and binary tree partitioning.

다른 예로, 블록이 M×N (M>N)이고 N이 미리 설정된 분할 허용 최소 크기와 같아서 가로 분할을 지원하지 않는다면, 위의 분할 플래그는 1비트로 할당되어 해당 값이 1이면 세로 분할을 수행하고, 0이면 분할을 수행하지 않는다. As another example, if the block is M×N (M>N) and N is equal to the preset minimum allowable partition size, so horizontal partitioning is not supported, the above partitioning flag is assigned as 1 bit and if the corresponding value is 1, vertical partitioning is performed, , if it is 0, no partitioning is performed.

또한, 가로 분할 또는 세로 분할을 위한 플래그(div_h_flag, div_v_flag)를 각각 지원할 수 있으며, 상기 플래그에 따라 바이너리 분할을 지원할 수 있다. 가로 분할 플래그(div_h_flag) 또는 세로 분할 플래그(div_v_flag)를 통해 각 블록의 가로 또는 세로 분할 여부를 나타낼 수 있으며, 가로 분할 플래그(div_h_flag) 또는 세로 분할 플래그(div_v_flag)가 1이면 가로 또는 세로 분할을 수행하며, 0이면 가로 또는 세로 분할을 수행하지 않는다. 또는, 각 플래그가 1이면 가로 또는 세로 분할을 수행하며 가로 또는 세로의 추가 분할이 가능하고, 값이 0이면 가로 또는 세로 분할을 수행하지 않으며 더 이상의 가로 또는 세로의 추가 분할은 허용하지 않을 수 있다. 분할 허용 최소 크기, 분할 허용 깊이 한계 등의 조건에 의해 상기 플래그는 분할 여부에 대해서 고려하고 추가 분할 여부에 대해서는 고려하지 않을 수 있다. 또는, 가로 분할 또는 세로 분할을 위한 플래그(div_flag/h_v_flag)를 지원할 수 있으며, 상기 플래그에 따라 바이너리 분할을 지원할 수 있다. 분할 플래그(div_flag)는 가로 또는 세로 분할 여부를 나타낼 수 있으며 분할 방향 플래그(h_v_flag)는 가로 또는 세로의 분할 방향을 나타낼 수 있다. 분할 플래그(div_flag)가 1이면 분할을 수행하며 분할 방향 플래그(h_v_flag)에 따라 가로 또는 세로 분할을 수행하며, 0이면 가로 또는 세로 분할을 수행하지 않는다. 또는, 해당 값이 1이면 분할 방향 플래그(h_v_flag)에 따라 가로 또는 세로 분할을 수행하며 가로 또는 세로의 추가 분할이 가능하고, 값이 0이면 가로 또는 세로 분할을 수행하지 않으며 더 이상의 가로 또는 세로 분할을 허용하지 않는 것으로 간주할 수 있다. 분할 허용 최소 크기, 분할 허용 깊이 한계 등의 조건에 의해 상기 플래그는 분할 여부에 대해서 고려하고 추가 분할 여부에 대해서는 고려하지 않을 수 있다.In addition, flags div_h_flag and div_v_flag for horizontal division or vertical division may be supported, respectively, and binary division may be supported according to the flags. Horizontal or vertical division of each block can be indicated through the horizontal division flag (div_h_flag) or vertical division flag (div_v_flag). If the horizontal division flag (div_h_flag) or vertical division flag (div_v_flag) is 1, horizontal or vertical division is performed. If it is 0, horizontal or vertical division is not performed. Alternatively, if each flag is 1, horizontal or vertical division is performed and additional horizontal or vertical division is possible. If the value is 0, horizontal or vertical division is not performed and further horizontal or vertical division is not allowed. . According to conditions such as the minimum allowable partition size and the limit of the allowable partitioning depth, whether the flag is divided may be considered and whether or not to be further divided may not be considered. Alternatively, a flag (div_flag/h_v_flag) for horizontal division or vertical division may be supported, and binary division may be supported according to the flag. The division flag div_flag may indicate horizontal or vertical division, and the division direction flag h_v_flag may indicate a horizontal or vertical division direction. When the division flag div_flag is 1, division is performed, horizontal or vertical division is performed according to the division direction flag h_v_flag, and when 0, horizontal or vertical division is not performed. Alternatively, if the value is 1, horizontal or vertical division is performed according to the division direction flag (h_v_flag) and additional horizontal or vertical division is possible. If the value is 0, horizontal or vertical division is not performed and no further horizontal or vertical division is performed. may be considered not to be allowed. According to conditions such as the minimum allowable partition size and the limit of the allowable partitioning depth, whether the flag is divided may be considered and whether or not to be further divided may not be considered.

이러한 분할 플래그 또한 가로, 세로 분할을 위해 각각 지원할 수 있으며, 상기 플래그에 따라 바이너리 트리 분할을 지원할 수 있다. 또한, 분할 방향이 미리 결정되어 있는 경우, 상기 예와 같이 둘 중의 하나의 분할 플래그만 사용되거나, 두 분할 플래그 모두가 사용될 수 있다.These split flags may also be supported for horizontal and vertical splitting, and binary tree splitting may be supported according to the flag. In addition, when the division direction is predetermined, as in the above example, only one of the two division flags may be used, or both division flags may be used.

예를 들어, 상기의 플래그가 다 허용되면 가능한 블록의 형태는 M×N, M/2×N, M×N/2, M/2×N/2 중 어느 하나로 분할이 될 수 있다. 이 경우, 플래그는 (div_h_flag/div_v_flag순으로) 00, 01, 10, 11로 부호화될 수 있다. 위의 경우 상기 분할 플래그가 중첩되어 사용될 수 있는 설정에서의 예시이고, 상기 분할 플래그가 중첩되어 사용될 수 없는 설정 또한 가능하다. 예를 들어, 분할 블록 형태가 M×N, M/2×N, M×N/2로 분할 될 수 있으며, 이 경우 위의 플래그는 (div_h_flag/div_v_flag순으로) 00, 01, 10로 부호화되거나, (div_flag/h_v_flag순으로. h_v_flag는 분할 방향이 가로 또는 세로를 나타내는 플래그) 0, 10, 11로 부호화될 수 있다. 여기에서 중첩의 의미는 가로 분할과 세로 분할을 동시에 수행하는 것을 의미할 수 있다. 전술한 쿼드트리 분할 및 바이너리 트리 분할은 부호화기 또는 복호화기의 설정에 따라 어느 하나가 단독으로 사용되거나 혼용되어 사용될 수 있다. 예컨대, 블록 크기 또는 형태에 따라서 쿼드트리 또는 바이너리 트리 분할이 결정될 수 있다. 즉, 블록 형태가 M×N이고, M이 N보다 큰 경우에는 가로 분할, 블록 형태가 M×N이고, N이 M보다 큰 경우에는 세로 분할에 따라 바이너리 트리 분할이 지원될 수 있고, 블록 형태가 M×N이고, N과 M인 동일한 경우에는 쿼드트리 분할이 지원될 수 있다.For example, if all of the above flags are allowed, the possible block shape may be divided into any one of M×N, M/2×N, M×N/2, and M/2×N/2. In this case, the flags may be coded as 00, 01, 10, and 11 (in the order of div_h_flag/div_v_flag). The above is an example of a setting in which the division flags can be overlapped and used, and a setting in which the division flags cannot be overlapped and used is also possible. For example, the divided block shape may be divided into M×N, M/2×N, and M×N/2. In this case, the flags above are encoded as 00, 01, 10 (in the order of div_h_flag/div_v_flag) or , (in the order of div_flag/h_v_flag. h_v_flag is a flag indicating a horizontal or vertical division direction) 0, 10, and 11 may be encoded. Here, the meaning of overlap may mean performing horizontal division and vertical division at the same time. Any one of the above-described quad tree splitting and binary tree splitting may be used alone or in combination according to the setting of an encoder or a decoder. For example, a quadtree or binary tree division may be determined according to a block size or shape. That is, when the block shape is M×N and M is greater than N, horizontal division, the block shape is M×N, and when N is greater than M, binary tree division may be supported according to vertical division, and the block type In the case where is M×N and N and M are the same, quadtree splitting may be supported.

다른 예로, 블록(M×M)의 크기가 블록 분할 경계값(Thrblksize)보다 크거나 같은 경우는 바이너리 트리 분할이 지원될 수 있고, 그보다 작은 경우에는 쿼드트리 분할이 지원될 수 있다.As another example, binary tree splitting may be supported when the size of the block (M×M) is greater than or equal to the block splitting boundary value Thrblksize, and quadtree splitting may be supported if it is smaller than that.

*다른 예로, 블록(M×N)의 M 또는 N이 제 1 분할 허용 최대 크기 (Maxblksize1)보다 작거나 같고 제 1 분할 허용 최소 크기(Minblksize1)보다 크거나 같을 경우에는 쿼드 트리 분할을 지원하고, 블록(M×N)의 M 또는 N이 제 2 분할 허용 최대 크기(Maxblksize2)보다 작거나 같고 제 2 분할 허용 최소 크기(Minblksize2)보다 크거나 같을 경우에는 바이너리 트리 분할이 지원될 수도 있다. 만약 상기 분할 허용 최대 크기와 분할 허용 최소 크기로 정의할 수 있는 제 1 분할 지원 범위와 제 2 분할 지원 범위가 중복되는 경우에는, 부 또는 복호화기의 설정에 따라 제 1 또는 제 2 분할 방법 중의 우선순위가 주어질 수 있다. 본 예에서는 제 1의 분할 방법은 쿼드트리 분할, 제 2 분할 방법은 바이너리 트리 분할로 예를 들 수 있다. 예를 들어, 제 1 분할 허용 최소 크기(Minblksize1)이 16이고 제 2 분할 허용 최대 크기(Maxblksize2)가 64이며 분할 전 블록이 64×64 일 경우, 제 1 분할 지원 범위와 제 2 분할 지원 범위에 모두 속하므로 쿼드 트리 분할과 바이너리 트리 분할이 가능하다. 기설정에 따라 제 1 분할 방법(본 예에서는 쿼드 트리 분할)으로 우선 순위가 주어진다면, 분할 플래그 (div_flag)가 1일 경우에는 쿼드 트리 분할을 수행하며 추가 쿼드 트리 분할이 가능하고, 0일 경우에는 쿼드 트리 분할을 수행하지 않으며 더 이상 쿼드 트리 분할을 수행하지 않는 것으로 간주할 수 있다. 또는, 분할 플래그(div_flag)가 1일 경우에는 쿼드 트리 분할을 수행하며 추가 쿼드 트리 또는 바이너리 트리 분할이 가능하고, 0일 경우에는 쿼트 트리 분할을 수행하지 않으며 더 이상 쿼드 트리 분할을 수행하지 않지만 바이너리 트리 분할 가능한 것으로 간주할 수 있다.* As another example, when M or N of a block (M×N) is less than or equal to the first allowable maximum size for partitioning (Maxblksize1) and greater than or equal to the first minimum allowable size for partitioning (Minblksize1), quad-tree partitioning is supported, When M or N of a block (M×N) is less than or equal to the second maximum allowable size for partitioning (Maxblksize2) and greater than or equal to the second minimum allowable size for partitioning (Minblksize2), binary tree partitioning may be supported. If the first division support range and the second division support range that can be defined by the maximum allowable division size and the minimum division allowable size overlap, the first or the second division method takes precedence according to the setting of the encoder or decoder. A ranking may be given. In this example, the first partitioning method may be quad-tree partitioning, and the second partitioning method may be binary tree partitioning. For example, if the first partition allowable minimum size (Minblksize1) is 16, the second partition allowable maximum size (Maxblksize2) is 64, and the block before division is 64×64, the first partition support range and the second partition support range are Since they belong to all of them, quad tree splitting and binary tree splitting are possible. If priority is given to the first division method (quad-tree division in this example) according to a preset, when the division flag (div_flag) is 1, quad-tree division is performed and additional quad-tree division is possible. does not perform quad-tree splitting, and it can be considered that no more quad-tree splits are performed. Alternatively, if the split flag (div_flag) is 1, quad tree split is performed and additional quad tree or binary tree split is possible. If it is 0, quad tree split is not performed and no quad tree split is performed, but binary The tree can be considered as splittable.

분할 허용 최소 크기, 분할 허용 깊이 한계 등의 조건에 의해 상기 플래그는 분할 여부에 대해서만 고려하고 추가 분할 여부에 대해서는 고려하지 않을 수 있다. 만약, 상기 분할 플래그(div_flag)가 1일 경우에는 32×32의 크기를 갖는 4개의 블록으로 분할이 되어 제 1 분할 허용 최소 크기(Minblksize1) 보다 크기 때문에 쿼드 트리 분할을 계속 수행할 수 있다. 만약, 0일 경우에는 추가적인 쿼드 트리 분할을 수행하지 않으며, 현재 블록 크기(64×64)가 상기 제 2 분할 지원 범위에 속하게 되므로 바이너리 트리 분할을 수행할 수 있다. 분할 플래그(div_flag/h_v_flag순으로)가 0일 경우에는 더 이상 분할을 수행하지 않으며, 10 또는 11인 경우에는 가로 분할 또는 세로 분할을 수행할 수 있다. 만약 분할 전 블록이 32×32이며 분할 플래그(div_flag)가 0이라 더 이상 쿼드 트리 분할을 하지 않고 제 2 분할 허용 최대 크기(Maxblksize2)가 16일 경우, 현재 블록의 크기(32×32)가 제 2 분할 지원 범위에 속하지 않으므로 더 이상의 분할을 지원하지 않을 수 있다. 위 설명에서 분할 방법의 우선순위는 슬라이스 타입, 부호화 모드, 휘도 및 색차 성분 등 중에서 최소 하나 이상의 요인 또는 이들의 조합에 따라 결정될 수 있다. According to conditions such as the minimum allowable division size and the limit of the allowable division depth, the flag may only consider whether to divide and not consider whether to further divide. If the division flag div_flag is 1, since the division is divided into four blocks having a size of 32×32 and is larger than the first allowable minimum size for division (Minblksize1), quad tree division can be continued. If it is 0, additional quad tree splitting is not performed, and since the current block size (64×64) falls within the second split support range, binary tree splitting can be performed. When the division flag (in the order of div_flag/h_v_flag) is 0, no further division is performed, and when it is 10 or 11, horizontal division or vertical division can be performed. If the block before division is 32x32 and the division flag (div_flag) is 0 so that no more quad tree division is performed and the maximum size of the second division (Maxblksize2) is 16, the size of the current block (32x32) is Since it does not belong to the 2 division support range, it may not support further division. In the above description, the priority of the partitioning method may be determined according to at least one factor among a slice type, an encoding mode, a luminance and a chrominance component, or a combination thereof.

다른 예로, 휘도 및 색차 성분에 따라 다양한 설정을 지원할 수 있다. 예를 들어, 휘도 성분에서 결정된 쿼드 트리 또는 바이너리 트리 분할 구조를 색차 성분에서는 추가적인 정보 부 또는 복호화없이 그대로 사용할 수 있다. 또는, 휘도 성분과 색차 성분의 독립적인 분할을 지원할 경우, 휘도 성분에는 쿼드 트리 + 바이너리 트리, 색차 성분에는 쿼드 트리 분할을 지원할 수도 있다. 또는, 휘도와 색차 성분에서 쿼드 트리 + 바이너리 트리 분할을 지원하되, 상기 분할 지원 범위가 휘도와 색차 성분에도 동일 또는 비례할 수도 있고, 그렇지 않을 수도 있다. 예를 들어, 컬러 포맷이 4:2:0인 경우일 경우, 색차 성분의 분할 지원 범위가 휘도 성분의 분할 지원 범위의 N/2일 수 있다.As another example, various settings may be supported according to luminance and chrominance components. For example, a quad-tree or binary-tree split structure determined in the luminance component may be used as it is in the chrominance component without additional information unit or decoding. Alternatively, when independent division of the luminance component and the chrominance component is supported, quad tree + binary tree division for the luminance component and quad tree division for the chrominance component may be supported. Alternatively, quad tree + binary tree division is supported in the luminance and chrominance components, but the division support range may or may not be the same or proportional to the luminance and chrominance components. For example, when the color format is 4:2:0, the division support range of the chrominance component may be N/2 of the division support range of the luminance component.

다른 예로, 슬라이스 타입에 따라 다른 설정을 둘 수 있다. 예를 들어, I 슬라이스에서는 쿼드 트리 분할을 지원할 수 있고, P 슬라이스에서는 바이너리 트리 분할을 지원할 수 있고, B 슬라이스에서는 쿼드 트리 + 바이너리 트리 분할을 지원할 수 있다.As another example, different settings may be set according to the slice type. For example, an I slice may support quad tree partitioning, a P slice may support binary tree partitioning, and a B slice may support quad tree + binary tree partitioning.

상기 예와 같이 쿼드 트리 분할 및 바이너리 트리 분할이 다양한 조건에 따라 설정 및 지원될 수 있다. 상기 예들은 전술한 경우에만 특정하는 것은 아니며 서로의 조건이 뒤바뀌는 경우도 포함할 수 있고, 상기 예에서 언급된 하나 이상의 요인 또는 이들의 조합되는 경우도 포함할 수 있고, 다른 경우의 예로 변형 또한 가능하다. 위의 분할 허용 깊이 한계는 분할 방식(쿼드트리, 바이너리 트리), 슬라이스 타입, 휘도 및 색차 성분, 부호화 모드 등에서 최소 하나 이상의 요인 또는 이들의 조합에 따라 결정될 수 있다. 또한, 상기 분할 지원 범위는 분할 방식(쿼드트리, 바이너리 트리), 슬라이스 타입, 휘도 및 색차 성분, 부호화 모드 등에서 최소 하나 이상의 요인에 또는 이들의 조합에 따라 결정될 수 있으며, 관련 정보는 분할 지원 범위의 최대값, 최소값으로 표현할 수 있다. 이에 대한 정보를 명시적 플래그로 구성할 경우, 최대값 및 최소값 각각의 길이 정보, 또는 최소값과 최대값의 차이값 정보 등을 표현할 수 있다. 예를 들어, 최대값과 최소값이 k의 지수승(k를 2라 가정)으로 구성되어 있을 경우, 최대값과 최소값의 지수 정보를 다양한 이진화를 통해 부호화하여 복호화 장치에 전달할 수 있다. 또는, 최대값과 최소값의 지수의 차이값을 전달할 수 있다. 이 때 전송되는 정보는 최소값의 지수 정보와 지수의 차이값 정보일 수 있다As in the above example, quad tree splitting and binary tree splitting may be set and supported according to various conditions. The above examples are not specific only to the above cases, and may include cases in which each other's conditions are reversed, and may include one or more factors mentioned in the above examples or a combination thereof. do. The above partition allowable depth limit may be determined according to at least one factor or a combination thereof, such as a partitioning method (quad tree, binary tree), slice type, luminance and chrominance components, encoding mode, and the like. In addition, the division support range may be determined according to at least one factor or a combination thereof, such as a division method (quad tree, binary tree), slice type, luminance and chrominance components, encoding mode, etc. It can be expressed as a maximum value and a minimum value. When this information is configured as an explicit flag, length information of each of the maximum value and the minimum value or information on the difference value between the minimum value and the maximum value may be expressed. For example, when the maximum value and the minimum value are configured to the power of k (assuming that k is 2), exponent information of the maximum value and the minimum value may be encoded through various binarizations and transmitted to the decoding apparatus. Alternatively, a difference value between the exponents of the maximum value and the minimum value may be transmitted. In this case, the transmitted information may be index information of the minimum value and information on the difference value of the index.

전술한 설명에 따라 플래그와 관련한 정보들은 시퀀스, 픽쳐, 슬라이스, 타일, 블록 등의 단위에서 생성되고 전송될 수 있다.According to the above description, flag-related information may be generated and transmitted in units of a sequence, a picture, a slice, a tile, a block, and the like.

상기 예시로 제시된 분할 플래그들로 쿼드 트리 또는 바이너리 트리 또는 두 트리 방식의 혼합을 통해 블록 분할 정보를 나타낼 수 있으며, 분할 플래그는 단항 이진화, 절삭형 단항 이진화 등의 다양한 방법으로 부호화하여 관련 정보를 복호화 장치에 전달할 수 있다. 상기 블록의 분할 정보를 표현하기 위한 분할 플래그의 비트스트림 구조는 1개 이상의 스캔 방법 중 선택할 수 있다. 예를 들어, 분할 깊이 순서(dep0에서 dep_k순서로) 기준으로 분할 플래그들의 비트스트림을 구성할 수 있고, 분할 여부 기준으로 분할 플래그들의 비트스트림을 구성할 수도 있다. 분할 깊이 순서 기준 방법에서는 최초 블록 기준으로 현 수준의 깊이에서의 분할 정보를 획득한 후 다음 수준의 깊이에서의 분할 정보를 획득하는 방법이며, 분할 여부 기준 방법에서는 최초 블록 기준으로 분할된 블록에서의 추가 분할 정보를 우선적으로 획득하는 방법을 의미하며, 이 외에도 위의 예에서 제시되지 않은 다른 스캔 방법이 포함되어 선택될 수 있다.The split flags presented as examples above can indicate block split information through a quad tree or binary tree or a mixture of two tree methods. can be passed to the device. A bitstream structure of a partition flag for expressing partition information of the block may be selected from one or more scan methods. For example, a bitstream of the division flags may be configured based on the division depth order (in dep0 to dep_k order), and a bitstream of division flags may be configured based on whether division is performed. In the division depth order reference method, the division information at the current level is obtained based on the first block and then division information at the next level is obtained. It refers to a method of preferentially acquiring additional segmentation information, and in addition to this, other scan methods not presented in the above example may be included and selected.

또한, 구현에 따라서, 블록 분할부는 전술한 분할 플래그가 아닌 미리 정의된 소정 형태의 블록 후보군에 대한 인덱스 정보를 생성하여 이를 표현할 수 있다. 블록 후보군의 형태는, 예를 들어, 분할 전 블록에서 가질 수 있는 분할 블록의 형태로서 M×N, M/2×N, M×N/2, M/4×N, 3M/4×N, M×N/4, M×3N/4, M/2×N/2 등을 포함할 수 있다. 위와 같이 분할 블록의 후보군이 결정되면 상기 분할 블록 형태에 대한 인덱스 정보를 고정 길이 이진화, 단삭 절단형 이진화, 절단형 이진화 등과 같은 다양한 방법을 통해 부호화할 수 있다. 위에서 설명한 분할 플래그와 같이 블록의 분할 깊이, 부호화 모드, 예측 모드, 크기, 형태, 종류 그리고 슬라이스 타입, 분할 허용 깊이 한계, 분할 허용 최소 및 최대 크기 등의 요인 중 최소 하나 이상의 요인 또는 이들의 조합에 따라 분할 블록 후보군이 결정될 수 있다. 다음 설명을 위해서 (M×N, M/2×N/2)를 후보 list1, (M×N, M/2×N, M×N/2, M/2×N/2)를 후보 list2, (M×N, M/2×N, M×N/2)를 후보 list3, (M×N, M/2×N, M×N/2, M/4×N, 3M/4×N, M×N/4, M×3N/4, M/2×N/2)를 후보 list4라 가정한다. 예를 들어, M×N을 기준으로 설명할 때, (M=N)일 경우에는 후보 list2의 분할 블록 후보를, (M≠N)일 경우에는 후보 list3의 분할 블록 후보를 지원할 수 있다.Also, according to implementation, the block partitioning unit may generate and express index information on a predefined type of block candidate group instead of the aforementioned partitioning flag. The shape of the block candidate group is, for example, the shape of a divided block that can be in the block before division, such as M×N, M/2×N, M×N/2, M/4×N, 3M/4×N, It may include M×N/4, M×3N/4, M/2×N/2, and the like. When the candidate group of the divided block is determined as described above, the index information for the divided block type can be encoded through various methods such as fixed-length binarization, short-cut binarization, and truncated binarization. Like the partition flag described above, at least one or a combination of factors such as the partition depth, encoding mode, prediction mode, size, shape, type and slice type, partition allowable depth limit, and minimum and maximum partition size of the block. Accordingly, a partition block candidate group may be determined. For the following explanation, (M×N, M/2×N/2) is candidate list1, (M×N, M/2×N, M×N/2, M/2×N/2) is candidate list2, (M×N, M/2×N, M×N/2) candidate list3, (M×N, M/2×N, M×N/2, M/4×N, 3M/4×N, It is assumed that M×N/4, M×3N/4, M/2×N/2) are candidate list4. For example, when explaining based on M×N, when (M=N), the partition block candidate of candidate list2 can be supported, and when (M≠N), the partition block candidate of candidate list3 can be supported.

다른 예로, M×N의 M 또는 N이 경계값(blk_th)보다 크거나 같을 경우에는 후보 list2의 분할 블록 후보를, 그보다 작을 경우에는 후보 list4의 분할 블록 후보를 지원할 수 있다. 또는, M또는 N이 제 1 경계값(blk_th_1)보다 크거나 같을 경우에는 후보 list1의 분할 블록 후보를, 제 1 경계값(blk_th_1)보다는 작지만 제 2 경계값(blk_th_2)보다는 크거나 같을 경우에는 후보 list2의 분할 블록 후보를, 제 2 경계값(blk_th_2)보다 작을 경우에는 후보 list4의 분할 블록 후보를 지원할 수 있다.As another example, when M or N of M×N is greater than or equal to the boundary value blk_th, the partition block candidate of candidate list2 may be supported, and when smaller than that, the partition block candidate of candidate list4 may be supported. Alternatively, when M or N is greater than or equal to the first boundary value (blk_th_1), the partition block candidate of the candidate list1 is selected as a candidate when smaller than the first boundary value (blk_th_1) but greater than or equal to the second boundary value (blk_th_2). When the divided block candidate of list2 is smaller than the second boundary value blk_th_2, the divided block candidate of candidate list4 may be supported.

다른 예로, 부호화 모드가 화면 내 예측인 경우 후보 list2의 분할 블록 후보를, 화면 간 예측인 경우 후보 list4의 분할 블록 후보를 지원할 수 있다.As another example, when the encoding mode is intra prediction, the split block candidate of candidate list2 may be supported, and when the encoding mode is inter prediction, the split block candidate of candidate list4 may be supported.

상기와 같은 분할 블록 후보가 지원된다 하더라도 각각의 블록에서 이진화에 따른 비트 구성은 같을 수도, 다를 수도 있다. 예를 들어, 위의 분할 플래그에서의 적용과 같이 블록 크기 또는 형태에 따라 지원되는 분할 블록 후보가 제한된다면 해당 블록 후보의 이진화에 따른 비트 구성이 달라질 수 있다. 예컨대, (M>N)일 경우에는 가로 분할에 따른 블록 형태 즉, M×N, M×N/2, M/2×N/2를 지원할 수 있고, 분할 블록 후보군(M×N, M/2×N, M×N/2, M/2×N/2)에서의 M×N/2과 현재 조건의 M×N/2에 따른 인덱스의 이진 비트가 서로 다를 수 있다. 블록의 종류 예컨대 부호화, 예측, 변환, 양자화, 엔트로피, 인루프필터링 등에 사용되는 블록의 종류에 따라 분할 플래그 또는 분할 인덱스 방식 중 하나를 사용하여 블록의 분할 및 형태에 대한 정보를 표현할 수 있다. 또한, 각 블록 종류에 따라 분할 및 블록의 형태 지원에 대한 블록 크기 제한 및 분할 허용 깊이 한계 등이 다를 수 있다.Even if the split block candidates as described above are supported, the bit configuration according to binarization in each block may be the same or different. For example, if the supported partition block candidates are limited according to the block size or shape as applied to the partition flag above, the bit configuration according to the binarization of the corresponding block candidate may vary. For example, in the case of (M>N), block types according to horizontal division, that is, M×N, M×N/2, M/2×N/2 can be supported, and a group of divided block candidates (M×N, M/ In 2×N, M×N/2, M/2×N/2), binary bits of an index according to M×N/2 and M×N/2 of the current condition may be different from each other. According to the type of block, for example, the type of block used for encoding, prediction, transformation, quantization, entropy, in-loop filtering, etc., information on the division and shape of the block may be expressed using either a division flag or a division index method. In addition, depending on the type of each block, a block size limit for partitioning and block shape support, a partition allowable depth limit, etc. may be different.

블록 단위의 부호화 또는 복호화 과정은 우선 부호화 블록이 결정된 후, 예측 블록 결정, 변환 블록 결정, 양자화 블록 결정, 엔트로피 블록 결정, 인루프 필터 결정 등의 과정에 따라 부호화 또는 복호화를 진행할 수 있다. 상기의 부호화 또는 복호화 과정에 대한 순서는 항상 고정적이지 않으며, 일부 순서가 변경되거나 제외될 수 있다. 상기 블록의 크기 및 형태의 후보별 부호화 비용에 따라 각 블록의 크기 및 형태가 결정되고, 결정된 각 블록의 영상 데이터 및 결정된 각 블록의 크기 및 형태 등의 분할 관련 정보들을 부호화할 수 있다.In the block-by-block encoding or decoding process, after a coding block is first determined, encoding or decoding may be performed according to processes such as prediction block determination, transform block determination, quantization block determination, entropy block determination, and in-loop filter determination. The order of the encoding or decoding process is not always fixed, and some orders may be changed or excluded. The size and shape of each block may be determined according to the encoding cost of each candidate for the size and shape of the block, and segmentation related information such as determined image data of each block and the determined size and shape of each block may be encoded.

예측부(200)는 소프트웨어 모듈인 예측 모듈(prediction module)을 이용하여 구현될 수 있고, 부호화할 블록에 대하여 화면 내 예측 방식이나 화면 간 예측 방식으로 예측 블록을 생성할 수 있다. 여기서, 예측 블록은 화소 차이의 관점에서, 부호화할 블록과 가깝게 일치하는 것으로 이해되는 블록이며, SAD(Sum of Absolute Difference), SSD(Sum of Square Difference)를 포함하는 다양한 방법으로 결정될 수 있다. 또한, 이때 영상 블록들을 복호화시에 사용될 수 있는 각종 구문(Syntax)들을 생성할 수도 있다. 예측 블록은 부호화 모드에 따라 화면 내 블록과 화면 간 블록으로 분류될 수 있다.The prediction unit 200 may be implemented using a prediction module, which is a software module, and may generate a prediction block with respect to a block to be encoded using an intra prediction method or an inter prediction method. Here, the prediction block is a block that is understood to closely match the block to be encoded in terms of pixel difference, and may be determined by various methods including sum of absolute difference (SAD) and sum of square difference (SSD). Also, in this case, various syntaxes that can be used when decoding image blocks may be generated. The prediction block may be classified into an intra-picture block and an inter-picture block according to an encoding mode.

화면 내 예측(intra prediction)은 공간적인 상관성을 이용하는 예측 기술로, 현재 픽쳐 내에서 이전에 부호화되고 복호화되어 복원된 블록들의 참조 화소들을 이용하여 현재 블록을 예측하는 방법을 말한다. 즉, 화면 내 예측은 예측과 복원으로 재구성된 밝기 값을 부호화기 및 복호화기에서 참조 화소로 사용할 수 있다. 화면 내 예측은 연속성을 갖는 평탄한 영역 및 일정한 방향성을 가진 영역에 대해 효과적일 수 있으며, 공간적인 상관성을 이용하기 때문에 임의 접근(random access)을 보장하고, 오류 확산을 방지하는 목적으로 사용될 수 있다.Intra prediction is a prediction technique using spatial correlation, and refers to a method of predicting a current block using reference pixels of previously encoded, decoded, and reconstructed blocks in the current picture. That is, in the intra prediction, the brightness value reconstructed by prediction and restoration may be used as a reference pixel in the encoder and the decoder. The intra prediction may be effective for a flat area with continuity and an area with a constant direction, and may be used for the purpose of ensuring random access and preventing error propagation because spatial correlation is used.

화면 간 예측(inter prediction)은 하나 이상의 과거 또는 미래 픽쳐에서 부호화된 영상을 참조하여 시간적인 상관성을 이용하여 데이터의 중복을 제거하는 압축 기법을 이용한다. 즉, 화면 간 예측은 하나 이상의 과거 또는 미래 픽쳐를 참조함으로써 높은 유사성을 갖는 예측 신호를 생성할 수 있다. 화면 간 예측을 이용하는 부호화기에서는 참조 픽쳐에서 현재 부호화하려는 블록과 상관도가 높은 블록을 탐색하고, 선택된 블록의 위치 정보와 잔차(residue) 신호를 복호화기로 전송할 수 있고, 복호화기는 전송된 영상의 선택 정보를 이용하여 부호화기와 동일한 예측 블록을 생성하고 전송된 잔차 신호를 보상하여 복원 영상을 구성할 수 있다.Inter prediction uses a compression technique that removes data duplication by using temporal correlation with reference to an image encoded in one or more past or future pictures. That is, the inter prediction may generate a prediction signal with high similarity by referring to one or more past or future pictures. An encoder using inter prediction may search a reference picture for a block having a high correlation with a block to be currently encoded in a reference picture, and transmit location information and residual signal of the selected block to a decoder, and the decoder may transmit selection information of the transmitted image can be used to generate the same prediction block as the encoder and compensate for the transmitted residual signal to compose a reconstructed image.

도 4는 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 P 슬라이스의 화면 간 예측을 나타낸 예시도이다. 도 5는 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 B 슬라이스의 화면 간 예측을 나타낸 예시도이다.4 is an exemplary diagram illustrating inter prediction of a P slice in an image encoding and decoding method according to an embodiment of the present invention. 5 is an exemplary diagram illustrating inter prediction of a B slice in a video encoding and decoding method according to an embodiment of the present invention.

본 실시예의 영상 부호화 방법에서, 화면 간 예측은 시간적으로 높은 상관성이 있는 이전에 부호화된 픽쳐로부터 예측 블록을 생성하기 때문에 부호화 효율을 높일 수 있다. Current(t)는 부호화할 현재 픽쳐를 의미할 수 있고, 영상 픽쳐의 시간적인 흐름 혹은 픽쳐 오더 카운트(Picture Order Count, POC)기준으로 할 때 현재 픽쳐의 POC보다 이전의 제1 시간적인 거리(t-1)를 가지는 제1 참조픽쳐(t-1)와 제1 시간적인 거리보다 이전의 제2 시간적인 거리(t-2)를 가지는 제2 참조픽쳐(t-2)를 포함할 수 있다. In the video encoding method of the present embodiment, since inter prediction generates a prediction block from a previously encoded picture having high temporal correlation, encoding efficiency may be increased. Current(t) may mean a current picture to be encoded, and a first temporal distance (t) before the POC of the current picture based on a temporal flow of video pictures or a picture order count (POC). It may include a first reference picture t-1 having -1) and a second reference picture t-2 having a second temporal distance t-2 that is earlier than the first temporal distance.

즉, 도 4에 도시한 바와 같이, 본 실시예의 영상 부호화 방법에 채용할 수 있는 화면 간 예측은 현재 픽쳐(current(t))의 현재 블록과 참조 픽쳐들(t-1, t-2)의 참조 블록들의 블록 매칭을 통해 상관성이 높은 블록을 이전에 부호화가 완료된 참조 픽쳐들(t-1, t-2)로부터 최적의 예측 블록을 찾는 움직임 추정을 수행할 수 있다. 정밀한 추정을 위해 필요에 따라 인접한 두 화소들 사이에 적어도 하나 이상의 부화소가 배열된 구조에 기반하는 보간(interpolation) 과정을 수행한 후, 최적의 예측 블록을 찾은 후에 움직임 보상을 하여 최종적인 예측 블록을 찾을 수 있다.That is, as shown in FIG. 4 , the inter prediction that can be employed in the video encoding method of the present embodiment is performed between the current block of the current picture current(t) and the reference pictures t-1 and t-2. Through block matching of reference blocks, motion estimation may be performed to find an optimal prediction block from reference pictures t-1 and t-2 in which blocks with high correlation have been previously encoded. For precise estimation, an interpolation process is performed based on a structure in which at least one or more sub-pixels are arranged between two adjacent pixels as needed, and then an optimal prediction block is found and motion compensation is performed to make a final prediction block can be found

또한, 도 5에 도시한 바와 같이, 본 실시예의 영상 부호화 방법에 채용할 수 있는 화면 간 예측은 현재 픽쳐(current(t))을 기준으로 시간적으로 양방향에 존재하는 이미 부호화가 완료된 참조 픽쳐들(t-1, t+1)로부터 예측 블록을 생성할 수 있다. 또한, 1개 이상의 참조 픽쳐에서 2개의 예측 블록을 생성할 수 있다.In addition, as shown in FIG. 5 , the inter prediction that can be employed in the video encoding method of the present embodiment includes reference pictures ( A prediction block may be generated from t-1, t+1). Also, two prediction blocks may be generated from one or more reference pictures.

화면 간 예측을 통해 영상의 부호화를 수행할 경우, 최적의 예측 블록에 대한 움직임 벡터 정보와 참조 픽쳐에 대한 정보를 부호화한다. 본 실시예에서는 단방향 또는 양방향으로 예측 블록을 생성할 경우 참조 픽쳐 리스트를 달리 구성하여 해당 참조 픽쳐 리스트로부터 예측 블록을 생성할 수 있다. 기본적으로 시간적으로 현재 픽쳐 이전에 존재하는 참조 픽쳐는 리스트 0에 할당되고 현재 픽쳐 이후에 존재하는 참조 픽쳐는 리스트 1에 할당되어 관리될 수 있다. 참조 픽쳐 리스트 0를 구성할 때, 참조 픽쳐 리스트 0의 참조 픽쳐 허용 개수까지 채우지 못할 경우 현재 픽쳐 이후에 존재하는 참조 픽쳐를 할당할 수 있다. 이와 비슷하게 참조 픽쳐 리스트 1을 구성할 때, 참조 픽쳐 리스트 1의 참조 픽쳐 허용 개수까지 채우지 못할 경우 현재 픽쳐 이전에 존재하는 참조 픽쳐를 할당할 수 있다.When an image is encoded through inter prediction, motion vector information on an optimal prediction block and information on a reference picture are encoded. In the present embodiment, when the prediction block is generated unidirectionally or bidirectionally, the prediction block may be generated from the reference picture list by configuring the reference picture list differently. Basically, a reference picture existing temporally before the current picture may be allocated to list 0, and a reference picture existing after the current picture may be allocated to and managed from list 1. When composing the reference picture list 0, if the reference picture list 0 does not fill up to the allowable number of reference pictures, reference pictures existing after the current picture may be allocated. Similarly, when composing the reference picture list 1, if the reference picture list 1 does not fill up to the allowable number of reference pictures, a reference picture existing before the current picture may be allocated.

도 6은 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 단방향으로 예측 블록을 생성하는 경우를 설명하기 위한 예시도이다.6 is an exemplary diagram for explaining a case in which a prediction block is generated unidirectionally in an image encoding and decoding method according to an embodiment of the present invention.

도 6을 참조하면, 본 실시예에 따른 영상 부호화 및 복호화 방법에서는 기존과 같이 이전에 부호화된 참조 픽쳐(t-1, t-2)로부터 예측 블록을 찾을 수 있고, 이에 더하여 현재 픽쳐(current(t))에 이미 부호화가 완료된 영역으로부터 예측 블록을 찾을 수 있다.Referring to FIG. 6 , in the image encoding and decoding method according to the present embodiment, a prediction block can be found from previously encoded reference pictures t-1 and t-2, and in addition to the current picture (current( t)), the prediction block can be found from the region that has already been coded.

즉, 본 실시예에 따른 영상 부호화 및 복호화 방법에서는, 시간적으로 높은 상관성이 있는 이전에 부호화된 픽쳐(t-1, t-2)로부터 예측 블록을 생성한 것뿐만 아니라 공간적으로 상관성이 높은 예측 블록을 함께 찾도록 구현될 수 있다. 그러한 공간적으로 상관성이 높은 예측 블록을 찾는 것은 화면 내 예측의 방식으로 예측 블록을 찾는 것에 대응할 수 있다. 현재 픽쳐에서 부호화가 완료된 영역으로부터 블록 매칭을 수행하기 위해, 본 실시예의 영상 부호화 방법은 화면 내 예측 모드와 혼합하여 예측 후보와 관련된 정보에 대한 신택스(syntax)를 구성할 수 있다.That is, in the video encoding and decoding method according to the present embodiment, not only the prediction block is generated from the previously coded pictures t-1 and t-2 having high temporal correlation, but also the prediction block with high spatial correlation can be implemented to find together. Finding such a spatially highly correlated prediction block may correspond to finding the prediction block in the manner of intra prediction. In order to perform block matching from an encoded region in the current picture, the image encoding method of the present embodiment may be mixed with an intra prediction mode to construct a syntax for information related to a prediction candidate.

예를 들어, n(n은 임의의 자연수) 가지의 화면 내 예측 모드를 지원하는 경우, 한 가지 모드를 화면 내 예측 후보군에 추가하여 n+1가지 모드를 지원하며 2M-1≤n+1<2M 를 만족시키는 M개의 고정 비트를 사용하여 예측 모드를 부호화할 수 있다. 또한, HEVC(high efficiency video coding)의 MPM(most probable mode)와 같이 가능성 높은 예측 모드의 후보군 중에서 선택하도록 구현될 수 있다. 또한, 예측 모드 부호화의 상위 단계에서 우선적으로 부호화할 수도 있다.For example, if n (n is an arbitrary natural number) intra-prediction modes are supported, one mode is added to the intra-prediction candidate group to support n+1 modes, and 2 M-1 ≤ n+1 A prediction mode may be coded using M fixed bits satisfying <2 M. In addition, it may be implemented to select from a candidate group of a highly probable prediction mode, such as a most probable mode (MPM) of high efficiency video coding (HEVC). In addition, encoding may be preferentially performed in a higher stage of prediction mode encoding.

현재 픽쳐에서 블록 매칭을 통해 예측 블록을 생성할 경우, 본 실시예의 영상 부호화 방법은 화면 간 예측 모드와 혼합하여 관련된 정보에 대한 신택스를 구성할 수도 있다. 추가적인 관련 예측 모드 정보로는 움직임 또는 이동(motion or displacement) 관련 정보가 이용될 수 있다. 움직임 또는 이동 관련 정보는 여러 벡터 후보 중 최적의 후보 정보, 최적의 후보 벡터와 실제 벡터와의 차분치, 참조 방향, 참조 픽쳐 정보 등을 포함할 수 있다.When a prediction block is generated through block matching in the current picture, the image encoding method of the present embodiment may be mixed with an inter prediction mode to configure a syntax for related information. As additional related prediction mode information, motion or displacement related information may be used. The motion or movement-related information may include optimal candidate information among multiple vector candidates, a difference between an optimal candidate vector and an actual vector, a reference direction, reference picture information, and the like.

도 7은 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 참조 픽쳐 리스트로부터 구성하는 예시도이다. 도 8은 본 발명의 일실시예에 따른 영상 부호화 및 복호화 방법에서 참조 픽쳐 리스트로부터 화면 간 예측을 수행하는 경우의 다른 예를 나타낸 예시도이다.7 is an exemplary diagram configured from a reference picture list in a video encoding and decoding method according to an embodiment of the present invention. 8 is an exemplary diagram illustrating another example of performing inter prediction from a reference picture list in an image encoding and decoding method according to an embodiment of the present invention.

도 7을 참조하면, 본 실시예에 따른 영상 부호화 방법은, 현재 픽쳐(current(t))의 현재 블록에 대하여 각기 참조 픽쳐 리스트(reference list 0, reference list 1)로부터 화면 간 예측을 수행할 수 있다.Referring to FIG. 7 , in the image encoding method according to the present embodiment, inter prediction can be performed from reference picture lists (reference list 0, reference list 1) with respect to a current block of a current picture (current(t)). have.

도 7 및 도 8을 참조하면, 참조 픽쳐 리스트 0은 현재 픽쳐(t) 이전의 참조 픽쳐로 구성할 수 있는데, t-1, t-2는 각각 현재 픽쳐(t)의 픽쳐 오더 카운트(Picture Order Count, POC)보다 이전의 제1 시간적인 거리(t-1), 제2 시간적인 거리(t-2)를 가지는 참조 픽쳐들을 지시한다. 또한, 참조 픽쳐 리스트 1은 현재 픽쳐(t) 이후의 참조 픽쳐로 구성할 수 있는데, t+1, t+2는 각각 현재 픽쳐(t)의 POC보다 이후의 제1 시간적인 거리(t+1), 제2 시간적인 거리(t+2)를 가지는 참조 픽쳐들을 지시한다.Referring to FIGS. 7 and 8 , the reference picture list 0 may consist of a reference picture before the current picture t, where t-1 and t-2 are picture order counts of the current picture t, respectively. Count, POC) indicates reference pictures having a first temporal distance (t-1) and a second temporal distance (t-2) before. In addition, the reference picture list 1 may consist of reference pictures after the current picture (t), where t+1 and t+2 are respectively a first temporal distance (t+1) after the POC of the current picture (t). ), indicating reference pictures having a second temporal distance (t+2).

참조 픽쳐 리스트 구성에 관한 전술한 예들은 시간적인 거리(본 예에서는 POC 기준)의 차이가 1인 참조 픽쳐들로 참조 픽쳐 리스트를 구성하는 예를 나타내고 있으나, 참조 픽쳐간의 시간적인 거리 차이를 다르게 구성할 수도 있다. 즉, 참조 픽쳐들의 인덱스 차이와 참조 픽쳐들의 시간적인 거리 차이가 비례하지 않을 수 있다는 것을 의미한다. 또한, 리스트 구성 순서를 시간적인 거리 기준으로 구성되지 않을 수도 있다. 이에 대한 내용은 후술할 참조 픽쳐 리스트 구성 예에서 확인할 수 있다.The above-described examples of the reference picture list configuration show an example of configuring the reference picture list with reference pictures having a difference in temporal distance (the POC standard in this example) of 1, but the difference in temporal distance between the reference pictures is configured differently You may. That is, it means that the index difference of the reference pictures and the temporal distance difference of the reference pictures may not be proportional. In addition, the list construction order may not be configured based on a temporal distance. This can be confirmed in the reference picture list configuration example to be described later.

슬라이스 타입(I, P 또는 B)에 따라 리스트에 있는 참조 픽쳐로부터 예측을 수행할 수 있다. 그리고 현재 픽쳐(current(t))에서 블록 매칭을 통해 예측 블록을 생성할 경우, 참조 픽쳐 리스트(reference list 0, reference list 1)에 현재 픽쳐를 추가하여 화면 간 예측 방식으로 부호화를 수행할 수 있다. Prediction may be performed from the reference picture in the list according to the slice type (I, P, or B). And when a prediction block is generated through block matching in the current picture (current(t)), the current picture is added to the reference picture lists (reference list 0, reference list 1) to perform encoding in an inter prediction method. .

도 8에 도시한 바와 같이 참조 픽쳐 리스트 0(reference list 0)에 현재 픽쳐(t)를 추가하거나 또는 참조 픽쳐 리스트 1(reference list 1)에 현재 픽쳐(t)를 추가할 수 있다. 즉, 참조 픽쳐 리스트 0은 현재 픽쳐(t) 이전의 참조 픽쳐에 시간적인 거리(t)인 참조 픽쳐를 추가하여 구성할 수 있고, 참조 픽쳐 리스트 1은 현재 픽쳐(t) 이후의 참조 픽쳐에 시간적인 거리(t)인 참조 픽쳐를 추가하여 구성할 수도 있다. As shown in FIG. 8 , a current picture t may be added to a reference picture list 0 or a current picture t may be added to a reference picture list 1 . That is, the reference picture list 0 can be configured by adding a reference picture having a temporal distance (t) to the reference picture before the current picture (t), and the reference picture list 1 is the reference picture after the current picture (t) in time It can also be configured by adding a reference picture that is a specific distance t.

예를 들어, 참조 픽쳐 리스트 0를 구성할 때 현재 픽쳐 이전의 참조 픽쳐를 참조 픽쳐 리스트 0에 할당하고 이어 현재 픽쳐(t)를 할당할 수 있고, 참조 픽쳐 리스트 1을 구성할 때 현재 픽쳐 이후의 참조 픽쳐를 참조 픽쳐 리스트 1에 할당하고 이어 현재 픽쳐(t)를 할당할 수 있다. 또는, 참조 픽쳐 리스트 0를 구성할 때 현재 픽쳐(t)를 할당하고 이어 현재 픽쳐 이전의 참조 픽쳐를 할당할 수 있고, 참조 픽쳐 리스트 1을 구성할 때 현재 픽쳐(t)를 할당하고 이어 현재 픽쳐 이후의 참조 픽쳐를 할당할 수 있다. 또는, 참조 픽쳐 리스트 0을 구성할 때 현재 픽쳐 이전의 참조 픽쳐를 할당하고 이어 현재 픽쳐 이후의 참조 픽쳐를 할당하고 현재 픽쳐(t)를 할당할 수 있다. 이와 비슷하게 참조 픽쳐 리스트 1을 구성할 때 현재 픽쳐 이후의 참조 픽쳐를 할당하고 이어 현재 픽쳐 이전의 참조 픽쳐를 할당하고 현재 픽쳐(t)를 할당할 수 있다. 위의 예들은 전술한 경우에만 특정하는 것은 아니며 서로의 조건이 뒤바뀌는 경우도 포함할 수 있고, 다른 경우의 예로 변형 또한 가능하다. For example, when constructing reference picture list 0, a reference picture before the current picture may be assigned to reference picture list 0 and then the current picture (t) may be assigned, and when constructing reference picture list 1, a reference picture after the current picture The reference picture may be allocated to the reference picture list 1 and then the current picture (t) may be allocated. Alternatively, the current picture (t) may be allocated when composing the reference picture list 0, and then the reference picture before the current picture may be allocated. Subsequent reference pictures may be allocated. Alternatively, when constructing the reference picture list 0, a reference picture before the current picture may be allocated, then a reference picture after the current picture may be allocated, and the current picture t may be allocated. Similarly, when configuring the reference picture list 1, a reference picture after the current picture may be allocated, then a reference picture before the current picture may be allocated, and the current picture t may be allocated. The above examples are not specific only to the above-described case, and may include a case in which each other's conditions are reversed, and variations in other cases are also possible.

각 참조 픽쳐 리스트에 현재 픽쳐를 포함할 지 여부(예를 들어, 어떤 리스트에도 추가하지 않음 또는 리스트 0에만 추가 또는 리스트 1에만 추가 또는 리스트 0와 1에 같이 추가)는 부호화기 또는 복호화기에 동일한 설정이 가능하고, 이에 대한 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송이 가능하다. 이에 대한 정보는 고정 길이 이진화, 단삭 절단형 이진화, 절단형 이진화 등의 방법을 통해 부호화될 수 있다.Whether or not to include the current picture in each reference picture list (e.g., do not add to any list or add to list 0 only or add to list 1 only or add to lists 0 and 1 together) has the same setting in the encoder or decoder. possible, and information on this can be transmitted in units of sequences, pictures, slices, and the like. This information may be encoded through a method such as fixed-length binarization, short cut-type binarization, or cut-type binarization.

본 실시예의 영상 부호화 및 복호화 방법은, 도 7의 방법과 달리, 현재 픽쳐(t)에서 블록 매칭을 수행하여 예측 블록을 선택하고, 이러한 예측 블록에 대한 관련 정보를 포함하는 참조 픽쳐 리스트를 구성하며, 이러한 참조 픽쳐 리스트를 영상 부호화 및 복호화에 이용하는데 차이가 있다. Unlike the method of FIG. 7, the image encoding and decoding method of this embodiment selects a prediction block by performing block matching on the current picture t, and constructs a reference picture list including information related to the prediction block, , there is a difference in using this reference picture list for video encoding and decoding.

참조 픽쳐 리스트 구성에 있어서 각 리스트 구성 순서 및 규칙, 각 리스트의 참조 픽쳐 허용 개수에 대한 설정을 달리할 수 있는데, 이는 현재 픽쳐의 리스트 포함여부(현재 픽쳐를 화면 간 예측에서의 참조 픽쳐로 포함할지 여부), 슬라이스 타입, 리스트 재구성 파라미터(리스트 0, 1에 각각 적용될 수도 있고, 리스트 0, 1에 같이 적용될 수도 있음), 픽쳐 집합(Group of Picture, GOP) 내의 위치, 시간적 계층 정보(temporal id) 등의 여러 요인 중 최소 하나 이상의 요인 또는 이들의 조합에 따라 결정될 수도 있고, 명시적으로 관련 정보를 시퀀스, 픽쳐 등의 단위로 전송할 수 있다. 예를 들어, P 슬라이스인 경우 현재 픽쳐를 리스트에 포함하는 것과 관계없이 참조 픽쳐 리스트 0은 리스트 구성 규칙 A에 따를 수 있고, B 슬라이스인 경우 현재 픽쳐를 리스트에 포함하는 참조 픽쳐 리스트 0에는 리스트 구성 규칙 B, 참조 픽쳐 리스트 1에는 리스트 구성 규칙 C를 따를 수 있고, 현재 픽쳐를 포함하지 않는 참조 픽쳐 리스트 0에는 리스트 구성 규칙 D, 참조 픽쳐 리스트 1에는 리스트 구성 규칙 E에 따를 수 있으며, 리스트 구성 규칙 중 B와 D, C와 E는 같을 수도 있다. 리스트 구성 규칙은 상기 참조 픽쳐 리스트 구성 예에서 설명된 것과 같거나 변형된 방식으로 구성될 수 있다. 다른 예로, 현재 픽쳐를 리스트에 포함하는 경우에는 제 1 참조 픽쳐 허용 개수, 포함하지 않는 경우에는 제 2 참조 픽쳐 허용 개수를 설정할 수 있다. 제 1 참조 픽쳐 허용 개수와 제 2 참조 픽쳐 허용 개수는 같을 수도 있고 다를 수도 있으며, 제 1 참조 픽쳐 허용 개수와 제 2 참조 픽쳐 허용 개수의 차이가 1인 것을 기본 설정으로 둘 수도 있다. 다른 예로, 현재 픽쳐를 리스트에 포함하며 리스트 재구성 파라미터가 적용될 경우, 슬라이스 A에서는 모든 참조 픽쳐가 리스트 재구성 후보군이 될 수 있고, 슬라이스 B에서는 리스트 재구성 후보군에 일부 참조 픽쳐만 포함될 수 있다. 이 때, 슬라이스 A 또는 B는 현재 픽쳐의 리스트 포함여부, 시간적 계층 정보, 슬라이스 타입, 픽쳐 집합(Group of Picture, GOP) 내의 위치 등에 구분될 수 있고, 후보군에 포함 여부를 나누는 요인으로 참조 픽쳐의 픽쳐 오더 카운트(Picture Order Count, POC) 또는 참조 픽쳐 인덱스, 참조 예측 방향(현재 픽쳐 전후), 현재 픽쳐 여부 등에 의해 결정될 수 있다. In the reference picture list configuration, the settings for each list configuration order and rule, and the allowable number of reference pictures in each list can be changed, which is whether the current picture is included in the list (whether the current picture is included as a reference picture in inter prediction) Whether or not), slice type, list reconstruction parameter (which may be applied to lists 0 and 1, respectively, or may be applied to lists 0 and 1, respectively), location in a picture set (Group of Picture, GOP), temporal hierarchical information (temporal id) It may be determined according to at least one factor or a combination thereof among various factors, such as, and the related information may be explicitly transmitted in units of sequences, pictures, and the like. For example, in the case of a P slice, the reference picture list 0 may follow the list construction rule A regardless of whether the current picture is included in the list, and in the case of a B slice, the reference picture list 0 including the current picture in the list consists of a list Rule B, the list construction rule C may be followed for the reference picture list 1, the list construction rule D for the reference picture list 0 that does not contain the current picture, and the list construction rule E for the reference picture list 1 may be followed, and the list construction rule Among them, B and D and C and E may be the same. The list construction rule may be configured in the same or modified manner as described in the reference picture list construction example. As another example, when the current picture is included in the list, the allowed number of first reference pictures may be set, and when the current picture is not included, the allowed number of second reference pictures may be set. The allowable number of first reference pictures and the allowable number of second reference pictures may be the same or different, and a difference between the allowable number of first reference pictures and the allowable second reference pictures may be set as a default setting. As another example, when the current picture is included in the list and the list reconstruction parameter is applied, in slice A, all reference pictures may become a list reconstruction candidate group, and in slice B, only some reference pictures may be included in the list reconstruction candidate group. At this time, slice A or B may be classified according to whether the list of current pictures is included, temporal hierarchical information, slice type, position in a group of pictures (GOP), etc. It may be determined by a picture order count (POC) or a reference picture index, a reference prediction direction (before and after the current picture), whether a current picture is present, or the like.

전술한 구성에 의하면, 현재 픽쳐에서 화면 간 예측으로 부호화된 참조 블록을 이용할 수 있으므로, I 슬라이스의 움직인 예측에서도 화면 간 예측을 허용 또는 이용할 수 있게 된다.According to the configuration described above, since the reference block encoded by inter prediction in the current picture can be used, inter prediction can be allowed or used even in I-slice motion prediction.

또한, 참조 픽쳐 리스트를 구성할 때, 슬라이스 타입에 따라 인덱스 할당 또는 리스트 구성 순서를 달리할 수 있다. I 슬라이스의 경우, 현재 픽쳐(current(t))에서 상기 참조 픽쳐 리스트 구성 예와 같이 우선순위를 높게 하여 더 적은 인덱스(예를 들어, idx=0, 1, 2와 같이)를 사용하고, 해당 참조 픽쳐 리스트의 참조 픽쳐 허용 개수(C)를 최대값으로 하는 이진화(고정 길이 이진화, 단삭 절단형 이진화, 절단형 이진화 등) 통해 영상 부호화에서의 비트량을 줄일 수 있다. 또한, P 또는 B 슬라이스의 경우, 현재 픽쳐에서 블록 매칭을 수행하여 현재 블록의 참조 픽쳐를 예측 후보로 선택할 확률이 다른 참조 픽쳐를 통해 예측 후보를 선택하는 확률보다 낮다고 판단되는 상황이라 하면, 현재 픽쳐의 블록 매칭에 대한 우선순위를 뒤로 설정하여 더 높은 인덱스(예를 들어, idx= C, C-1와 같이)를 사용하여 해당 참조 픽쳐 리스트의 참조 픽쳐 허용 개수를 최대값으로 하는 다양한 방법의 이진화를 통해 영상 부호화에서의 비트량을 줄일 수 있다. 위의 예에서 현재 픽쳐의 우선순위 설정은 상기 참조 픽쳐 리스트 구성 예에서 설명된 것과 같거나 변형된 방식으로 구성될 수 있다. 또한, 슬라이스 타입에 따라(예를 들어, I 슬라이스) 참조 픽쳐 리스트를 구성하지 않음으로써 참조 픽쳐에 대한 정보를 생략하는 것이 가능하다. 예컨대, 기존의 화면 간 예측을 통해 예측 블록을 생성하되 화면 간 예측 모드에서의 움직임 정보에서 참조 픽쳐 정보를 제외한 나머지로 화면간 예측 정보를 표현할 수 있다. In addition, when constructing the reference picture list, index assignment or list construction order may be different depending on the slice type. In the case of I slice, the current picture (current(t)) uses fewer indexes (eg, idx=0, 1, 2) by increasing the priority as in the reference picture list configuration example above, and the corresponding The amount of bits in video encoding can be reduced through binarization (fixed-length binarization, truncated binarization, truncated binarization, etc.) in which the allowable number of reference pictures (C) of the reference picture list is the maximum value. In addition, in the case of a P or B slice, if it is determined that the probability of selecting the reference picture of the current block as a prediction candidate by performing block matching on the current picture is lower than the probability of selecting a prediction candidate through other reference pictures, the current picture Binarization of various methods to set the priority for block matching of Through this, it is possible to reduce the amount of bits in video encoding. In the above example, the priority setting of the current picture may be configured in the same or modified manner as described in the reference picture list configuration example. Also, it is possible to omit information on the reference picture by not configuring the reference picture list according to the slice type (eg, I slice). For example, the prediction block may be generated through the existing inter prediction, but the inter prediction information may be expressed by excluding the reference picture information from the motion information in the inter prediction mode.

현재 픽쳐에서 블록 매칭을 수행하는 방식은 슬라이스 타입에 따라 지원 여부를 결정할 수 있다. 예를 들어, 현재 블록에서의 블록 매칭을 I 슬라이스에서는 지원하지만 P 슬라이스나 B 슬라이스에서는 지원하지 않도록 설정할 수도 있고, 다른 예로의 변형 또한 가능하다. 또한, 현재 픽쳐에서 블록 매칭을 지원하는 방식은 픽쳐, 슬라이스, 타일 등 단위로 지원 여부를 결정할 수도 있고, 픽쳐 집합(Group of Picture, GOP) 내의 위치, 시간적 계층 정보(temporal ID) 등에 따라 결정할 수도 있다. 이러한 설정 정보는 영상 부호화 과정이나 부호화기에서 복호화기로 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송될 수 있다. 또한, 상위 레벨 단위에서 위와 관련된 설정 정보 또는 신택스가 존재하며 설정 관련 동작이 온(on)되는 상황이라도 하위 레벨 단위에서 위와 동일한 설정 정보 또는 신택스가 존재할 때, 하위 레벨 단위에서의 설정 정보가 상위 레벨 단위에서의 설정 정보를 우선할 수 있다. 예를 들어, 동일 또는 유사한 설정 정보를 시퀀스, 픽쳐, 슬라이스에서 처리한다면, 시퀀스 단위보다는 픽쳐 단위가, 픽쳐 단위보다는 슬라이스 단위가 우선순위를 가질 수 있다. . 예를 들어, 시퀀스 파라미터에서 현재 픽쳐에서 블록 매칭을 지원하는 플래그는 sps_curr_pic_BM_enabled_flag일 수 있으며, 픽쳐 파라미터에서 현재 픽쳐에서 블록 매칭을 지원하는 플래그는 pps_curr_pic_BM_enabled_flag일 수 있다. 만약 sps_curr_pic_BM_enabled_flag가 온(on), pps_curr_pic_BM_enabled_flag가 오프(off)일 경우에는, 현재 픽쳐에서 블록 매칭을 지원하지 않을 수 있다. 상기 플래그에 따라 참조 픽쳐 리스트 0 구성에 현재 픽쳐의 포함여부를 결정할 수 있고, 참조 픽쳐 리스트 1 구성에 현재 픽쳐의 포함여부를 결정할 수도 있다.A method of performing block matching in the current picture may determine whether to support it according to a slice type. For example, block matching in the current block may be set to be supported in I slice but not supported in P slice or B slice, and a modification to another example is also possible. In addition, the method of supporting block matching in the current picture may be determined in units of pictures, slices, tiles, etc., or may be determined according to a location in a group of pictures (GOP), temporal hierarchical information (temporal ID), etc. have. Such setting information may be transmitted in units of sequences, pictures, slices, etc., during an image encoding process or from an encoder to a decoder. In addition, even if the above-related setting information or syntax exists in the upper level unit and the setting-related operation is on, when the same setting information or syntax as above exists in the lower level unit, the setting information in the lower level unit is displayed at the upper level The setting information in the unit may be given priority. For example, if the same or similar configuration information is processed in a sequence, a picture, or a slice, a picture unit rather than a sequence unit and a slice unit rather than a picture unit may have priority. . For example, the flag supporting block matching in the current picture in the sequence parameter may be sps_curr_pic_BM_enabled_flag, and the flag supporting block matching in the current picture in the picture parameter may be pps_curr_pic_BM_enabled_flag. If sps_curr_pic_BM_enabled_flag is on and pps_curr_pic_BM_enabled_flag is off, block matching may not be supported in the current picture. Whether the current picture is included in the reference picture list 0 configuration may be determined according to the flag, and whether the current picture is included in the reference picture list 1 configuration may be determined.

*도 9는 본 발명의 일실시예에 따른 영상 부호화 방법에서 화면 내 예측을 설명하기 위한 예시도이다.* FIG. 9 is an exemplary diagram for explaining intra prediction in an image encoding method according to an embodiment of the present invention.

도 9를 참조하면, 본 실시예에 따른 화면 내 예측 방법은, 참조 화소 채움(reference sample padding), 참조 화소 필터링(reference sample filtering), 화면 내 예측(intra prediciton) 및 경계 필터링(boundary filtering)의 일련의 단계들을 포함할 수 있다.Referring to FIG. 9 , the intra prediction method according to the present embodiment includes reference sample padding, reference sample filtering, intra prediction, and boundary filtering. It may include a series of steps.

참조 화소 채움 단계는 참조 화소 구성 단계의 예시일 수 있고, 참조 화소 필터링 단계는 참조 화소 필터부로 지칭될 수 있고, 화면 내 예측은 예측 블록 생성 단계와 예측 모드 부호화 단계를 포함할 수 있으며, 경계 필터링은 후처리 필터 단계의 일실시예에 대한 예시일 수 있다.The reference pixel filling step may be an example of the reference pixel construction step, the reference pixel filtering step may be referred to as a reference pixel filter unit, and intra prediction may include a prediction block generation step and a prediction mode encoding step, and boundary filtering may be an example of an embodiment of a post-processing filter step.

즉, 본 실시예의 영상 부호화 장치에서 실행되는 화면 내 예측은 참조 화소 구성 단계, 참조 화소 필터링 단계, 예측 블록 생성 단계, 예측 모드 부호화 단계 및 후처리 필터링 단계를 포함할 수 있다. 여러 가지 환경 요인 예컨대, 블록 크기, 블록의 형태, 블록 위치, 예측 모드, 예측 방법, 양자화 파라미터 등에 따라서 전술한 과정들 중 하나 또는 일부는 생략될 수 있고, 다른 과정이 추가될 수도 있으며, 위에 기재된 순서가 아닌 다른 순서로 변경될 수 있다.That is, the intra prediction executed in the image encoding apparatus of the present embodiment may include a reference pixel construction step, a reference pixel filtering step, a prediction block generation step, a prediction mode encoding step, and a post-processing filtering step. Depending on various environmental factors, such as block size, block shape, block position, prediction mode, prediction method, quantization parameter, etc., one or some of the above-described processes may be omitted, and another process may be added, and the It may be changed in an order other than the order.

전술한 참조 화소 구성 단계, 참조 화소 필터링 단계, 예측 블록 생성 단계, 예측 모드 부호화 단계 및 후처리 필터링 단계는 메모리에 저장되는 소프트웨어 모듈들을 메모리에 연결되는 프로세서가 실행하는 형태로 구현될 수 있다. 따라서 이하의 설명에서는 설명의 편의상 각 단계를 구현하는 소프트웨어 모듈과 이를 실행하는 프로세서의 조합에 의해 생성되는 기능부 또는 이러한 기능부의 기능을 수행하는 구성부로서 각각 참조 화소 구성부, 참조 화소 필터부, 예측 블록 생성부, 예측 모드 부호화부 및 후처리 필터부를 각 단계의 실행 주체로서 지칭하기로 한다.The above-described reference pixel construction step, reference pixel filtering step, prediction block generation step, prediction mode encoding step, and post-processing filtering step may be implemented in a form in which a processor connected to the memory executes software modules stored in the memory. Therefore, in the following description, for convenience of explanation, a reference pixel component, a reference pixel filter unit, A prediction block generator, a prediction mode encoder, and a post-processing filter will be referred to as execution subjects of each step.

각 구성요소를 좀더 구체적으로 설명하면, 참조 화소 구성부는 참조 화소 채움을 통해 현재 블록의 예측에 사용될 참조 화소를 구성한다. 참조 화소가 존재하지 않거나 이용 불가한 경우, 참조 화소 채움은 이용가능한 가까운 화소로부터 값을 복사 등의 방법을 하여 참조 화소에 사용할 수 있다. 값의 복사에는 복원된 픽쳐 버퍼(decoded picture buffer, DPB)가 이용될 수 있다.When each component is described in more detail, the reference pixel component configures a reference pixel to be used for prediction of the current block by filling the reference pixel. If the reference pixel does not exist or is unavailable, the reference pixel fill can be used for the reference pixel, such as by copying a value from an available nearby pixel. A decoded picture buffer (DPB) may be used for copying the value.

즉, 화면 내 예측은 현재 픽쳐의 이전에 부호화가 완료된 블록들의 참조 화소를 사용하여 예측을 수행한다. 이를 위해, 참조 화소 구성 단계에서는 현재 블록의 이웃 블록 즉, 왼쪽, 왼쪽 위, 왼쪽 아래, 위쪽, 오른쪽 위 블록들 등과 같은 인접한 화소들을 주로 참조 화소로 사용한다. 상기 참조 화소를 위한 이웃 블록의 후보군은 블록의 부호화 순서를 래스터 스캔(raster scan) 또는 제트 스캔(z-scan)를 따를 경우의 예시일 뿐, 역 제트 스캔(inverse z-scan) 등과 같은 스캔이 부호화 순서 스캔 방식으로 사용될 경우에는 위의 블록들에 추가로 오른쪽, 오른쪽 아래, 아래 블록 등과 같은 인접 화소들도 참조 화소로 사용할 수 있다.That is, the intra prediction is performed using reference pixels of previously encoded blocks of the current picture. To this end, in the reference pixel construction step, neighboring blocks of the current block, ie, adjacent pixels such as left, upper-left, lower-left, upper, and upper-right blocks, are mainly used as reference pixels. The candidate group of the neighboring blocks for the reference pixel is only an example of a case in which the encoding order of the blocks follows a raster scan or a z-scan, and a scan such as an inverse z-scan is used. In the case of using the coding order scan method, adjacent pixels such as the right, lower right, and lower blocks in addition to the above blocks may be used as reference pixels.

또한, 구현에 따라서 화면 내 예측의 단계별 구성에 따라 바로 인접한 화소 외의 추가적인 화소들이 대체 또는 기존 참조 화소와 혼합되어 사용될 수 있다.In addition, depending on implementation, additional pixels other than immediately adjacent pixels may be used in combination with replacement or existing reference pixels according to the stepwise configuration of intra prediction.

또한, 화면 내 예측의 모드 중 방향성을 갖는 모드로 예측이 되는 경우, 정수 단위의 참조 화소를 선형 보간을 통해 소수 단위의 참조 화소를 생성할 수 있다. 정수 단위 위치에 존재하는 참조 화소를 통해 예측을 수행하는 모드는 수직, 수평, 45도, 135도를 갖는 일부 모드를 포함하며, 위 예측 모드들에 대해서는 소수 단위의 참조 화소를 생성하는 과정은 필요하지 않을 수 있다. 상기 예측 모드를 제외한 다른 방향성을 가진 예측 모드들은 보간되는 참조 화소는 1/2, 1/4, 1/8, 1/16, 1/32, 1/64 와 같이 1/2의 지수승의 보간 정밀도를 가질 수도 있고, 1/2의 배수의 정밀도를 가질 수도 있다. 이는 지원되는 예측 모드의 개수 또는 예측 모드의 예측 방향 등에 따라 보간 정밀도가 결정될 수 있기 때문이다. 픽쳐, 슬라이스, 타일, 블록 등에서 항상 고정적인 보간 정밀도를 지원할 수도 있고, 블록의 크기, 블록의 형태, 지원되는 모드의 예측 방향 등에 따라 적응적인 보간 정밀도가 지원될 수도 있다. 이 때, 모드의 예측 방향은 특정 선 기준(예를 들어, 좌표평면 상의 양<+>의 x축)으로 상기 모드가 가리키는 방향의 기울기 정보 또는 각도 정보로 표현될 수 있다.In addition, when prediction is performed in a directional mode among intra-prediction modes, a decimal unit reference pixel may be generated through linear interpolation of an integer unit reference pixel. Modes for performing prediction through reference pixels existing in integer unit positions include some modes having vertical, horizontal, 45 degrees, and 135 degrees, and for the above prediction modes, the process of generating a fractional reference pixel is necessary may not In the prediction modes having a direction other than the prediction mode, the interpolated reference pixel is 1/2, 1/4, 1/8, 1/16, 1/32, 1/64, such as 1/2, 1/4, 1/8, 1/16, 1/32, 1/64. It may have precision, or it may have a precision of multiples of 1/2. This is because interpolation precision may be determined according to the number of supported prediction modes or prediction directions of prediction modes. A picture, a slice, a tile, a block, etc. may always support a fixed interpolation precision, or an adaptive interpolation precision may be supported according to a size of a block, a shape of a block, a prediction direction of a supported mode, and the like. In this case, the prediction direction of the mode may be expressed as inclination information or angle information of the direction indicated by the mode with respect to a specific line reference (eg, positive <+> x-axis on the coordinate plane).

보간 방법으로는 바로 인접한 정수 화소를 통해 선형 보간을 수행하기도 하지만 그 외의 보간 방법을 지원할 수 있다. 보간을 위해 1개 이상의 필터 종류 및 탭의 개수 예를 들어, 6-tap 위너 필터, 8-tap 칼만 필터 등을 지원할 수 있으며, 블록의 크기, 예측 방향 등에 따라 어떤 보간을 수행할 것인지를 결정할 수 있다. 또한, 관련 정보는 시퀀스, 픽쳐, 슬라이스, 블록 등의 단위로 전송될 수 있다. As the interpolation method, linear interpolation is sometimes performed through immediately adjacent integer pixels, but other interpolation methods may be supported. One or more types of filters and the number of taps for interpolation For example, a 6-tap Wiener filter, an 8-tap Kalman filter, etc. can be supported, and it is possible to determine which interpolation to perform according to the size of the block, the prediction direction, etc. have. In addition, related information may be transmitted in units of sequences, pictures, slices, blocks, and the like.

참조 화소 필터부는 참조 화소를 구성한 후 부호화 과정에서 남아있는 열화를 줄여줌으로써 예측 효율을 높여줄 목적으로 참조 화소에 필터링을 수행할 수 있다. 참조 화소 필터부는, 블록의 크기, 형태 및 예측 모드에 따라 필터의 종류 및 필터링의 적용 유무를 묵시적 또는 명시적으로 결정할 수 있다. 즉, 같은 탭(tap)의 필터라도 필터 종류에 따라 필터 계수를 다르게 결정할 수 있다. 예를 들어, [1,2,1]/4, [1,6,1]/8과 같은 3 탭 필터를 사용할 수 있다.The reference pixel filter unit may perform filtering on the reference pixel in order to increase prediction efficiency by reducing deterioration remaining in the encoding process after configuring the reference pixel. The reference pixel filter unit may implicitly or explicitly determine the type of filter and whether to apply the filtering according to the size, shape, and prediction mode of the block. That is, even filters having the same tap may determine different filter coefficients depending on the filter type. For example, a 3-tap filter such as [1,2,1]/4 or [1,6,1]/8 can be used.

또한, 참조 화소 필터부는, 추가적으로 비트를 보낼지 안 보낼지를 결정하여 필터링 적용 여부를 결정할 수 있다. 예를 들어, 묵시적인 경우, 참조 화소 필터부는 주변 참조 블록에서의 화소들의 특성(분산, 표준편차 등)에 따라 필터링 적용 여부를 판단할 수 있다.In addition, the reference pixel filter unit may determine whether to apply filtering by determining whether to additionally transmit a bit or not. For example, in the implicit case, the reference pixel filter unit may determine whether to apply filtering according to characteristics (variance, standard deviation, etc.) of pixels in the neighboring reference block.

또한, 참조 화소 필터부는, 관련 플래그가 잔차 계수, 화면 내 예측 모드 등에 기설정된 숨김(hiding) 조건을 만족하는 경우, 필터링 적용 여부를 판단할 수 있다. 필터의 탭수는, 예를 들어, 작은 블록(blk)에서는 [1,2,1]/4와 같은 3-tap, 큰 블록(blk)에서는 [2,3,6,3,2]/16과 같은 5-tap으로 설정될 수 있고, 적용 횟수는 필터링을 수행하지 않을 것인지, 1번 필터링할 것인지, 2번 필터링할 것인지 등으로 결정될 수 있다.Also, the reference pixel filter unit may determine whether filtering is applied when the related flag satisfies a hiding condition preset for a residual coefficient, an intra prediction mode, or the like. The number of taps of the filter is, for example, 3-tap such as [1,2,1]/4 for a small block (blk), and [2,3,6,3,2]/16 and [2,3,6,3,2]/16 for a large block (blk). It may be set to the same 5-tap, and the number of times of application may be determined by not performing filtering, filtering once, filtering twice, and the like.

또한, 참조 화소 필터부는 현재 블록의 가장 인접한 참조 화소에 대해 기본적으로 필터링을 적용할 수 있다. 가장 인접한 참조 화소 외에 추가적인 참조 화소들 또한 필터링 과정에 고려될 수 있다. 예를 들어, 가장 인접한 참조 화소를 대체하여 추가적인 참조 화소들에 필터링을 적용할 수도 있고, 가장 인접한 참조 화소에 추가적인 참조 화소들을 혼용하여 필터링을 적용할 수도 있다.Also, the reference pixel filter unit may basically apply filtering to the nearest reference pixel of the current block. In addition to the nearest reference pixel, additional reference pixels may also be considered in the filtering process. For example, filtering may be applied to additional reference pixels by replacing the closest reference pixel, or filtering may be applied by mixing additional reference pixels to the closest reference pixel.

상기 필터링은 고정적 또는 적응적으로 적용될 수 있는데, 이는 현재 블록의 크기 또는 이웃 블록의 크기, 현재 블록 또는 이웃 블록의 부호화 모드, 현재 블록과 이웃 블록의 블록 경계 특성(예를 들어, 부호화 단위의 경계인지 변환 단위의 경계인지 등), 현재 블록 또는 이웃 블록의 예측 모드 또는 방향, 현재 블록 또는 이웃 블록의 예측 방식, 양자화 파라미터 등의 요인 중에서 최소 하나 이상의 요인 또는 이들의 조합에 따라 결정이 될 수 있다. 이에 대한 결정은 부호화기 또는 복호화기에 동일한 설정을 가질 수 있고(묵시적), 부호화 비용 등을 고려하여 결정될 수도 있다(명시적). 기본적으로 적용되는 필터는 저역통과 필터(low pass filter)이며, 위에 명시된 여러 요인에 따라 필터 탭수, 필터 계수, 필터 플래그 부호화 여부, 필터 적용 횟수 등이 결정될 수 있으며, 이에 대한 정보는 시퀀스, 픽쳐, 슬라이스, 블록 등의 단위에서 설정이 가능하며, 관련 정보를 복호화기에 전송할 수 있다.The filtering may be applied statically or adaptively, which includes the size of the current block or the size of the neighboring block, the encoding mode of the current block or the neighboring block, and block boundary characteristics of the current block and the neighboring block (eg, the boundary of the coding unit). It may be determined according to at least one or a combination of factors such as the boundary of the cognitive transformation unit, etc.), the prediction mode or direction of the current block or the neighboring block, the prediction method of the current block or the neighboring block, and a quantization parameter. . Determination for this may have the same setting in the encoder or decoder (implicit), or may be determined in consideration of encoding cost and the like (explicit). The basically applied filter is a low pass filter, and the number of filter taps, filter coefficients, filter flag encoding, the number of times the filter is applied, etc. can be determined according to various factors specified above. It can be set in units such as slices and blocks, and related information can be transmitted to the decoder.

예측 블록 생성부는 화면 내 예측에 있어서 참조 화소를 통해 외삽 또는 보외(extrapolation) 방식이나, 참조 화소의 평균값(DC) 또는 평면(planar) 모드와 같은 내삽(interpolation) 방식이나, 참조 화소의 복사(copy) 방식으로 예측 블록을 생성할 수 있다. 참조 화소의 복사의 경우 하나의 참조 화소를 복사하여 하나의 이상의 예측 화소를 생성할 수도 있고, 하나 이상의 참조 화소를 복사하여 하나 이상의 예측 화소를 생성할 수 있으며, 복사한 참조 화소의 개수는 복사된 예측 화소의 개수와 동일하거나 적을 수 있다. The prediction block generator performs an extrapolation or extrapolation method through a reference pixel in intra prediction, an interpolation method such as an average value (DC) of reference pixels or a planar mode, or a copy of the reference pixel. ) to generate a prediction block. In the case of copying of reference pixels, one reference pixel may be copied to generate one or more prediction pixels, and one or more reference pixels may be copied to generate one or more prediction pixels, and the number of copied reference pixels is It may be equal to or less than the number of prediction pixels.

또한, 상기 예측 방식에 따라 방향성 예측 방식과 비방향성 예측 방식으로 분류가 가능하며, 상세하게는 방향성 예측 방식은 직선 방향성 방식과 곡선 방향성 방식으로 분류가 가능하다. 직선 방향성 방식은 외삽 또는 보외 방식을 차용하나 예측 블록의 화소는 예측 방향 선상에 놓인 참조 화소를 통해 생성하며, 곡선 방향성 방식은 외삽 또는 보외 방식을 차용하나 예측 블록의 화소는 예측 방향 선상에 놓인 참조 화소를 통해 생성하되 블록의 세부 방향성(예를 들어, 에지<Edge>)를 고려하여 화소 단위의 부분적인 예측 방향의 변경이 허용되는 방식을 의미한다. 본 발명의 영상 부호화 및 복호화 방법에서 방향성 예측 모드의 경우 직선 방향성 방식 위주로 설명을 할 것이다. 또한, 상기 방향성 예측 방식의 경우 인접한 예측 모드 간의 간격은 균등하거나 비균등일 수 있으며, 이는 블록의 크기 또는 형태에 따라 결정될 수 있다. 예를 들어, 블록 분할부를 통해 현재 블록이 M×N의 크기와 형태를 갖는 블록을 획득했을 때, M과 N이 같을 경우에는 예측 모드 간의 간격은 균등일 수 있으며, M과 N이 다를 경우에는 예측 모드 간의 간격은 비균등일 수 있다. 다른 예로, M이 N보다 큰 경우에는 수직 방향성을 갖는 모드들은 수직 모드(90도)에 가까운 예측 모드 사이에는 더 세밀한 간격을 할당하고, 수직 모드에 먼 예측 모드에는 넓은 간격을 할당할 수 있다. N이 M보다 큰 경우에는 수평 방향성을 갖는 모드들은 수평 모드(180도)에 가까운 예측 모드 사이에는 더 세밀한 간격을 할당하고, 수평 모드에 먼 예측 모드에는 넓은 간격을 할당할 수 있다. 위의 예들은 전술한 경우에만 특정하는 것은 아니며 서로의 조건이 뒤바뀌는 경우도 포함할 수 있고, 다른 경우의 예로 변형 또한 가능하다. 이 때, 예측 모드 간의 간격은 각 모드의 방향성을 나타내는 수치 기반으로 계산될 수 있으며, 예측 모드의 방향성은 방향의 기울기 정보 또는 각도 정보로 수치화될 수 있다.Also, it is possible to classify the directional prediction method and the non-directional prediction method according to the prediction method, and in detail, the directional prediction method can be classified into a linear direction method and a curve direction method. The linear directional scheme borrows extrapolation or extrapolation scheme, but the pixels of the prediction block are generated by reference pixels lying on the prediction direction line, and the curved directional scheme borrows the extrapolation or extrapolation scheme, but the pixels of the prediction block are reference lying on the prediction direction line. This refers to a method in which a partial prediction direction change in units of pixels is allowed in consideration of the detailed directionality (eg, edge<Edge>) of a block while being generated through pixels. In the case of the directional prediction mode in the image encoding and decoding method of the present invention, the description will be focused on the linear directional method. In addition, in the case of the directional prediction method, intervals between adjacent prediction modes may be uniform or non-uniform, which may be determined according to a size or shape of a block. For example, when a block having a size and shape of M×N is obtained through the block divider, when M and N are the same, the interval between prediction modes may be uniform, and when M and N are different Intervals between prediction modes may be non-uniform. As another example, when M is greater than N, a finer interval may be allocated between prediction modes close to the vertical mode (90 degrees) for modes having vertical directionality, and a wide interval may be allocated to a prediction mode far from the vertical mode. When N is greater than M, a finer interval may be allocated between prediction modes close to the horizontal mode (180 degrees) for modes having horizontal directivity, and a wide interval may be allocated to a prediction mode far from the horizontal mode. The above examples are not specific only to the above-described case, and may include a case in which each other's conditions are reversed, and variations in other cases are also possible. In this case, the interval between the prediction modes may be calculated based on a numerical value indicating the directionality of each mode, and the directionality of the prediction mode may be quantified as gradient information or angle information of the direction.

또한, 위의 방법 외에 공간적인 상관성을 이용하는 다른 방법 등을 포함하여 예측 블록을 생성할 수 있다. 예를 들어, 현재 픽쳐를 참조 픽쳐 삼아 움직임 탐색 및 보상과 같은 화면 간 예측 방식을 이용한 참조 블록을 예측 블록으로 생성할 수 있다. 예측 블록 생성 단계는 상기 예측 방식에 따라 참조 화소를 사용하여 예측 블록을 생성할 수 있다. 즉, 상기 예측 방식에 따라 기존의 화면 내 예측 방식의 외삽, 내삽, 복사, 평균 등의 방향성 예측 또는 비방향성 예측 방식을 통해 예측 블록을 생성할 수 있고, 화면 간 예측 방식을 사용하여 예측 블록을 생성할 수 있으며, 그 외의 추가적인 방법도 사용될 수 있다.In addition, in addition to the above method, it is possible to generate the prediction block by including other methods using spatial correlation. For example, by using the current picture as a reference picture, a reference block using an inter prediction method such as motion search and compensation may be generated as a prediction block. The generating of the prediction block may generate the prediction block by using the reference pixel according to the prediction method. That is, according to the prediction method, a prediction block can be generated through a directional prediction method such as extrapolation, interpolation, copying, averaging, etc. or a non-directional prediction method of the existing intra prediction method according to the prediction method, and the prediction block can be generated using the inter prediction method can be created, and other additional methods may also be used.

상기 화면 내 예측 방식은 부호화기 또는 복호화기의 동일한 설정 하에 지원될 수 있으며, 슬라이스 타입, 블록의 크기, 블록의 형태 등에 따라 결정될 수 있다. 화면 내 예측 방식은 상기 언급된 예측 방식 중 최소 하나 이상의 방식 또는 이들의 조합에 따라 지원될 수 있다. 화면 내 예측 모드는 상기 지원되는 예측 방식에 따라 구성될 수 있다. 지원되는 화면 내 예측 모드의 개수는 상기 예측 방식, 슬라이스 타입, 블록의 크기, 블록의 형태 등에 따라 결정될 수 있다. 상기 관련 정보들은 시퀀스, 픽쳐, 슬라이스, 블록 등의 단위에서 설정 및 전송이 가능하다.The intra prediction method may be supported under the same setting of an encoder or a decoder, and may be determined according to a slice type, a size of a block, a block shape, and the like. The intra prediction method may be supported according to at least one of the above-mentioned prediction methods or a combination thereof. The intra prediction mode may be configured according to the supported prediction method. The number of supported intra prediction modes may be determined according to the prediction method, slice type, block size, block type, and the like. The related information can be set and transmitted in units such as sequence, picture, slice, and block.

예측 모드 부호화에 의해 실행되는 예측 모드 부호화 단계는 부호화 비용 측면에서 각 예측 모드에 따른 부호화 비용이 최적인 모드를 현재 블록의 예측 모드로 결정할 수 있다.In the prediction mode encoding step performed by the prediction mode encoding, a mode having an optimal encoding cost according to each prediction mode in terms of encoding cost may be determined as the prediction mode of the current block.

일례로, 예측 모드 부호화부는 예측 모드 비트를 줄이기 위한 목적으로 하나 이상의 이웃 블록의 모드를 현재 블록 모드 예측에 이용할 수 있다. 현재 블록의 모드와 동일할 확률이 높은 모드(most_probable_mode, MPM) 후보군으로 포함할 수 있는데, 이웃 블록의 모드들은 위의 후보군에 포함될 수 있다. 예를 들어, 현재 블록의 왼쪽, 왼쪽 위, 왼쪽 아래, 위쪽, 오른쪽 위 등의 블록의 예측 모드를 위의 후보군에 포함할 수 있다.For example, the prediction mode encoder may use the modes of one or more neighboring blocks for the current block mode prediction for the purpose of reducing the prediction mode bits. A mode (most_probable_mode, MPM) having a high probability of being the same as the mode of the current block may be included as a candidate group, and modes of a neighboring block may be included in the above candidate group. For example, prediction modes of blocks such as the left, upper left, lower left, upper, and upper right of the current block may be included in the above candidate group.

예측 모드의 후보군은 이웃 블록의 위치, 이웃 블록의 우선순위, 분할 블록에서의 우선순위, 이웃 블록의 크기 또는 형태, 기설정된 특정 모드, (색차 블록인 경우) 휘도 블록의 예측 모드 등의 요인 중 최소 하나 이상의 요인 또는 그들의 조합에 따라 구성될 수 있으며, 관련 정보는 시퀀스, 픽쳐, 슬라이스, 블록 등의 단위로 전송할 수 있다.The candidate group of the prediction mode is selected from among factors such as the position of the neighboring block, the priority of the neighboring block, the priority in the divided block, the size or shape of the neighboring block, a predetermined specific mode, and the prediction mode of the luminance block (in case of a chrominance block). It may be configured according to at least one factor or a combination thereof, and related information may be transmitted in units of sequences, pictures, slices, blocks, and the like.

예를 들어, 현재 블록과 이웃한 블록이 2개 이상의 블록으로 분할되어 있을 경우, 분할된 블록 중 어느 블록의 모드를 현재 블록의 모드 예측 후보로 포함할 지는 부호화기 또는 복호화기의 동일한 설정하에 결정할 수 있다. 예를 들어, 현재 블록(M×M)의 이웃 블록 중 왼쪽 블록은 블록 분할부에서 쿼드 트리 분할을 수행하여 분할 블록이 3개로 구성되어 있으며 위에서 아래 방향으로 M/2×M/2, M/4×M/4, M/4×M/4의 블록을 포함할 경우, 블록 크기 기준으로 M/2×M/2 블록의 예측 모드를 현재 블록의 모드 예측 후보로 포함할 수 있다. 다른 예로, 현재 블록(N×N)의 이웃 블록 중 위쪽 블록은 블록 분할부에서 바이너리 트리 분할을 수행하여 분할 블록이 3개로 구성되어 있으며 왼쪽에서 오른쪽 방향으로 N/4×N, N/4×N, N/2×N의 블록을 포함할 경우, 기설정된 순서(왼쪽에서 오른쪽으로 우선순위가 할당됨)에 따라 왼쪽에서 첫번째 N/4×N 블록의 예측 모드를 현재 블록의 모드 예측 후보로 포함할 수 있다. For example, when the current block and the neighboring block are divided into two or more blocks, it is possible to determine which mode of the divided blocks to be included as a mode prediction candidate of the current block under the same setting of the encoder or the decoder. have. For example, the left block among neighboring blocks of the current block (M×M) consists of three divided blocks by performing quad tree division in the block division unit, and M/2×M/2, M/ When 4×M/4 and M/4×M/4 blocks are included, the prediction mode of the M/2×M/2 block may be included as a mode prediction candidate of the current block based on the block size. As another example, the upper block among the neighboring blocks of the current block (N×N) consists of three divided blocks by performing binary tree division in the block division unit, and N/4×N, N/4× from left to right. When blocks of N and N/2×N are included, the prediction mode of the first N/4×N block from the left is used as the mode prediction candidate of the current block according to a preset order (priorities are allocated from left to right). may include

다른 예로, 현재 블록과 이웃한 블록의 예측 모드가 방향성 예측 모드일 경우, 해당 모드의 예측 방향과 인접한 예측 모드(상기 모드의 방향의 기울기 정보 또는 각도 정보 측면)를 현재 블록의 모드 예측 후보군에 포함할 수 있다. 또한, 기설정된 모드(planar, DC, 수직, 수평 등)은 이웃 블록의 예측 모드 구성 또는 조합에 따라 우선적으로 포함될 수 있다. 또한, 이웃 블록의 예측 모드 중 발생 빈도가 높은 예측 모드를 우선적으로 포함할 수 있다. 상기 우선순위는 현재 블록의 모드 예측 후보군에 포함될 가능성뿐만 아니라 상기 후보군 구성에서도 더 높은 우선 순위 또는 인덱스(즉, 이진화 과정에서 적은 비트를 할당 받을 확률이 높음을 의미)를 할당 받을 가능성을 의미할 수 있다.As another example, when the prediction mode of the block adjacent to the current block is the directional prediction mode, the prediction mode adjacent to the prediction direction of the corresponding mode (the slope information or angle information side of the direction of the mode) is included in the mode prediction candidate group of the current block can do. Also, preset modes (planar, DC, vertical, horizontal, etc.) may be preferentially included according to the configuration or combination of prediction modes of neighboring blocks. Also, a prediction mode having a high frequency of occurrence among prediction modes of a neighboring block may be preferentially included. The priority means not only the possibility of being included in the mode prediction candidate group of the current block, but also the possibility of being assigned a higher priority or index (that is, the probability of receiving fewer bits in the binarization process) in the candidate group configuration. have.

다른 예로, 현재 블록의 모드 예측 후보군의 최대치가 k개이고, 왼쪽 블록은 현재 블록의 세로 길이보다 길이가 작은 m개의 블록으로 구성되며, 위쪽 블록은 현재 블록의 가로 길이보다 길이가 작은 n개의 블록으로 구성되면, 이웃 블록들의 분할 블록 합(m+n)이 k보다 클 때 기설정된 순서(왼쪽에서 오른쪽, 위쪽에서 아래쪽)에 따라 후보군을 채울 수 있고, 이웃 블록 분할들의 분할 블록 합(m+n)이 후보군의 최대치(k)보다 클 경우, 상기 이웃 블록(왼쪽 블록, 위쪽 블록)의 예측 모드에 상기 이웃 블록 위치 외 다른 이웃 블록(예를 들어, 왼쪽 아래, 왼쪽 위, 오른쪽 위 등)과 같은 블록의 예측 모드도 현재 블록의 모드 예측 후보군에 포함될 수 있다. 위의 예들은 전술한 경우에만 특정하는 것은 아니며 서로의 조건이 뒤바뀌는 경우도 포함할 수 있고, 다른 경우의 예로 변형 또한 가능하다.As another example, the maximum number of mode prediction candidates of the current block is k, the left block is composed of m blocks having a length smaller than the vertical length of the current block, and the upper block is composed of n blocks having a length smaller than the horizontal length of the current block. If configured, the candidate group can be filled according to a preset order (left to right, top to bottom) when the sum (m+n) of the divided blocks of the neighboring blocks is greater than k, and the sum of the divided blocks of the neighboring blocks (m+n) ) is greater than the maximum value (k) of the candidate group, in the prediction mode of the neighboring block (left block, upper block), other neighboring blocks (eg, lower left, upper left, upper right, etc.) The prediction mode of the same block may also be included in the mode prediction candidate group of the current block. The above examples are not specific only to the above-described case, and may include a case in which each other's conditions are reversed, and variations in other cases are also possible.

이와 같이, 현재 블록의 모드의 예측을 위한 후보 블록은 특정 블록 위치에만 한정하지 않으며 왼쪽, 왼쪽 위, 왼쪽 아래, 위쪽, 오른쪽 위에 위치하는 블록 중 최소 하나 이상의 블록으로부터 예측 모드 정보를 활용할 수 있으며, 상기 예에서와 같이 여러 요인들을 고려하여 현재 블록의 예측 모드 후보군을 구성할 수 있다. As such, the candidate block for mode prediction of the current block is not limited to a specific block position, and prediction mode information can be utilized from at least one block among blocks located on the left, upper left, lower left, upper, and upper right, As in the above example, the prediction mode candidate group of the current block may be configured in consideration of various factors.

예측 모드 부호화부 현재 블록의 모드와 동일할 확률이 높은 모드(MPM) 후보군(본 예에서 후보군 1로 지칭함)과 그렇지 않은 모드 후보군(본 예에서 후보군 2로 지칭함)으로 분류할 수 있으며, 현재 블록의 예측 모드가 상기 후보군들 중 어느 후보군에 속하는지에 따라 예측 모드 부호화 과정이 달라질 수 있다. 전체 예측 모드는 후보군 1의 예측 모드와 후보군 2의 예측 모드의 합으로 구성될 수 있으며, 후보군 1의 예측 모드 개수와 후보군 2의 예측 모드 개수는 전체 예측 모드의 개수, 슬라이스 타입, 블록의 크기, 블록의 형태 등의 요인 중 하나 이상의 요인 또는 이들의 조합에 따라 결정될 수 있다. 상기 후보군에 따라 동일한 이진화를 적용하거나 다른 이진화를 적용할 수 있다. 예를 들어, 후보군 1에는 고정 길이 이진화를, 후보군 2에는 단삭 절단형 이진화를 적용할 수도 있다. 위의 설명에서 후보군의 개수를 2개로 예를 들었지만, 현재 블록의 모드와 동일할 확률이 높은 모드 제 1 후보군, 현재 블록의 모드와 동일할 확률이 높은 모드 제 2 후보군, 그렇지 않은 모드 후보군 등과 같이 확장이 가능하며, 이의 변형 또한 가능하다.The prediction mode encoder can classify a mode (MPM) candidate group (referred to as candidate group 1 in this example) and a mode candidate group (referred to as candidate group 2 in this example) that are highly probable to be the same as the mode of the current block, and the current block A prediction mode encoding process may vary according to which candidate group among the candidate groups belongs to. The total prediction mode may be composed of the sum of the prediction modes of the candidate group 1 and the prediction modes of the candidate group 2. It may be determined according to one or more factors, such as the shape of the block, or a combination thereof. Depending on the candidate group, the same binarization may be applied or a different binarization may be applied. For example, fixed-length binarization may be applied to candidate group 1 and short cut-type binarization may be applied to candidate group 2. In the above description, the number of candidate groups is two as an example, but the mode 1 candidate group having a high probability of being the same as the mode of the current block, the mode 2 candidate group having a high probability of being the same as the mode of the current block, and the mode candidate group not having a high probability of being the same as the mode of the current block It is extensible, and its modifications are also possible.

후처리 필터부에 의해 실행되는 후처리 필터링 단계는, 현재 블록과 이웃 블록의 경계에 인접한 참조 화소와 인접한 현재 블록 내의 화소 간에 상관성이 높은 특성을 고려하여 이전 과정에서 생성한 예측 블록 중 일부 예측 화소는 경계에 인접한 하나 이상의 참조 화소와 하나 이상의 상기 예측 화소를 필터링하여 생성된 값으로 대체할 수 있고, 상기 블록의 경계에 인접한 참조 화소들간의 특성을 수치화한 값(예를 들어, 화소값의 차이, 기울기 정보 등)을 필터링 과정에 적용하여 생성된 값으로 상기 예측 화소를 대체할 수 있고, 위의 방법 외에 비슷한 목적(참조 화소를 통해 예측 블록의 일부 예측 화소를 보정)을 갖는 다른 방법 등이 추가될 수 있다. 후처리 필터부에 있어서, 필터의 종류 및 필터링 적용 유무는 묵시적 또는 명시적으로 결정될 수 있으며, 후처리 필터부에 사용되는 참조 화소와 현재 화소의 위치 및 개수, 그리고 적용되는 예측 모드의 종류 등은 부호화기 또는 복호화기에서 설정 가능하고, 관련 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송 가능하다.In the post-processing filtering step performed by the post-processing filter unit, some prediction pixels among the prediction blocks generated in the previous process in consideration of the characteristic of high correlation between the reference pixel adjacent to the boundary between the current block and the neighboring block and the pixel in the adjacent current block. may be replaced with a value generated by filtering one or more reference pixels and one or more prediction pixels adjacent to the boundary, and a value obtained by quantifying characteristics between reference pixels adjacent to the boundary of the block (eg, a difference in pixel values) , gradient information, etc.) can be replaced with a value generated by applying the filtering process, and other methods having a similar purpose (correcting some prediction pixels of a prediction block through reference pixels) are available in addition to the above method. can be added. In the post-processing filter unit, the type of filter and whether or not to apply the filtering may be determined implicitly or explicitly, and the positions and number of reference pixels and current pixels used in the post-processing filter unit, and the type of prediction mode to be applied, etc. It can be set in the encoder or decoder, and related information can be transmitted in units of sequences, pictures, slices, and the like.

또한, 후처리 필터링 단계에서는 상기 블록 경계 필터링(boundary filtering)과 같이 예측 블록 생성 후 추가적인 후처리 과정을 진행할 수 있다. 또한, 잔차 신호 획득 후 변환, 양자화 과정 및 그 역과정을 거쳐서 얻게된 잔차 신호와 예측 신호를 합하여 복원된 현재 블록을 위의 경계 필터링과 비슷하게 인접한 참조 블록의 화소의 특성을 고려하여 후처리 필터링을 수행할 수도 있다.In addition, in the post-processing filtering step, an additional post-processing process may be performed after the prediction block is generated like the block boundary filtering. In addition, post-processing filtering is performed in consideration of the characteristics of pixels of adjacent reference blocks, similar to the boundary filtering above, for the current block restored by adding the residual signal and the prediction signal obtained through the transformation, quantization process and the reverse process after obtaining the residual signal. can also be done

최종적으로 전술한 과정을 통해 예측 블록을 선택 또는 획득하게 되며, 이 과정에서 나오는 정보는 예측 모드 관련 정보를 포함할 수 있고, 예측 블록의 획득 후 잔차 신호의 부호화를 위해 변환부(210)에 전달할 수 있다.Finally, a prediction block is selected or acquired through the above-described process, and the information from this process may include prediction mode related information, and is transmitted to the transform unit 210 for encoding the residual signal after the prediction block is obtained. can

도 10은 본 발명의 일실시예에 따른 영상 부호화 방법에서 P 슬라이스나 B 슬라이스에서의 예측 원리를 설명하기 위한 예시도이다.10 is an exemplary diagram for explaining a prediction principle in a P slice or a B slice in an image encoding method according to an embodiment of the present invention.

도 10을 참조하면, 본 실시예에 따른 영상 부호화 방법은, 모션 예측(motion estimation module) 및 보간(interpolation) 단계들을 포함할 수 있다. 모션 예측 단계에서 생성되는 모션 벡터, 참조 픽쳐 인덱스, 참조 방향에 대한 정보는 보간 단계로 전달될 수 있다. 모션 예측 단계와 보간 단계에서는 복원된 픽쳐 버퍼(decoded picture buffer, DPB)에 저장되는 값을 이용할 수 있다.Referring to FIG. 10 , the image encoding method according to the present embodiment may include motion estimation module and interpolation steps. Information on the motion vector, reference picture index, and reference direction generated in the motion prediction step may be transferred to the interpolation step. In the motion prediction step and the interpolation step, a value stored in a reconstructed picture buffer (DPB) may be used.

즉, 영상 부호화 장치는, 이전의 부호화된 픽쳐들에서 현재 블록과 유사한 블록을 찾기 위해 모션 예측(motion estimation)을 실행할 수 있다. 또한, 영상 부호화 장치는 소수 단위의 정밀도보다 정밀한 예측을 위해 참조 픽쳐의 내삽(interpolation)을 실행할 수 있다. 최종적으로 영상 부호화 장치는 예측 변수(predictor)를 통해 예측 블록을 획득하게 되며, 이 과정에서 나오는 정보는 움직임 벡터(motion vector), 참조 픽쳐 인덱스(reference picture index 또는 reference index), 참조 방향(reference direction) 등이 있으며, 이후 잔차 신호 부호화를 진행할 수 있다.That is, the image encoding apparatus may perform motion estimation to find a block similar to the current block in previously encoded pictures. Also, the image encoding apparatus may perform interpolation of the reference picture for more precise prediction than the precision of a fractional unit. Finally, the image encoding apparatus obtains a prediction block through a predictor, and information from this process includes a motion vector, a reference picture index or a reference index, and a reference direction. ), and thereafter, residual signal encoding may be performed.

본 실시예에서는 P 슬라이스나 B 슬라이스에서도 화면 내 예측을 수행하기 때문에 화면 간 예측과 화면 내 예측을 지원하는 도 9와 같은 조합 방식의 구현이 가능하다.In the present embodiment, since intra prediction is also performed in P slice or B slice, a combination method as shown in FIG. 9 supporting inter prediction and intra prediction is possible.

도 11은 예측 블록을 획득하는 과정을 설명하기 위한 예시도이다.11 is an exemplary diagram for explaining a process of obtaining a prediction block.

도 11을 참조하면, 본 실시예에 따른 영상 부호화 방법은, 참조 화소 채움(reference sample padding), 참조 화소 필터링(reference sample filtering), 화면 내 예측(intra prediction), 경계 필터링(boundary filtering), 모션 예측(motion estimation), 및 보간(interpolation)의 단계들을 포함할 수 있다.Referring to FIG. 11 , the image encoding method according to the present embodiment includes reference sample padding, reference sample filtering, intra prediction, boundary filtering, and motion. It may include steps of motion estimation, and interpolation.

영상 부호화 장치는, 현재 픽쳐에서 블록 매칭을 지원하는 경우, I 슬라이스에서의 예측 방식은 도 9에 도시한 구성이 아닌 도 11에 도시한 구성으로 구현 가능하다. 즉, 영상 부호화 장치는 I 슬라이스에서 예측 모드뿐만 아니라 P 슬라이스나 B 슬라이스에서만 발생하는 움직임 벡터, 참조 픽쳐 인덱스, 참조 방향 등의 정보를 예측 블록 생성에 이용할 수 있다. 다만, 참조 픽쳐가 현재라는 특성으로 인해 부분 생략 가능한 정보가 존재할 수 있다. 일례로, 참조 픽쳐가 현재 픽쳐인 경우 참조 픽쳐 인덱스, 참조 방향은 생략 가능하다.When the video encoding apparatus supports block matching in the current picture, the prediction method in the I slice may be implemented with the configuration shown in FIG. 11 instead of the configuration shown in FIG. 9 . That is, the image encoding apparatus may use information such as a motion vector, a reference picture index, and a reference direction that occur only in a P slice or a B slice as well as a prediction mode in the I slice to generate the prediction block. However, information that can be partially omitted may exist due to the characteristic that the reference picture is current. For example, when the reference picture is the current picture, the reference picture index and the reference direction may be omitted.

또한, 영상 부호화 장치는, 내삽(interpolation)을 적용하는 경우, 영상의 특성상 예컨대 컴퓨터 그래픽 등의 인공적인 영상의 특성상 소수 단위까지의 블록 매칭이 필요하지 않을 수 있기 때문에 이에 대한 수행 여부도 부호화기에서 설정할 수 있고, 이에 대해서 시퀀스, 픽쳐, 슬라이스 등의 단위 설정도 가능하다.In addition, when the image encoding apparatus applies interpolation, since block matching up to decimal units may not be required due to the characteristics of the image, for example, due to the characteristics of an artificial image such as computer graphics, whether to perform this is also set in the encoder. In this regard, it is also possible to set units such as sequences, pictures, and slices.

예를 들어, 영상 부호화 장치는, 부호화기의 설정에 따라 화면 간 예측에 사용되는 참조 픽쳐들의 내삽을 수행하지 않을 수 있고, 현재 픽쳐에서 블록 매칭을 하는 경우에만 내삽을 수행하지 않는 등의 다양한 설정을 할 수 있다. 즉, 본 실시예의 영상 부호화 장치는 참조 픽쳐들의 내삽 수행 여부에 대해 설정할 수 있다. 이 때, 참조 픽쳐 리스트를 구성하는 모든 참조 픽쳐 또는 일부 참조 픽쳐들에 내삽 수행 여부를 결정할 수 있다. 일례로, 영상 부호화 장치는, 어떤 현재 블록에서는 참조 블록이 존재하는 영상의 특성이 인공적인 영상이라 소수 단위로 블록 매칭을 할 필요가 없을 때에는 내삽을 수행하지 않고, 자연 영상이라 소수 단위로 블록 매칭을 할 필요가 있을 때는 내삽을 수행하도록 동작할 수 있다.For example, the image encoding apparatus may not perform interpolation of reference pictures used for inter prediction according to the setting of the encoder, and perform various settings such as not performing interpolation only when block matching is performed in the current picture. can do. That is, the image encoding apparatus of the present embodiment may set whether to perform interpolation of reference pictures. In this case, it may be determined whether interpolation is performed on all reference pictures or some reference pictures constituting the reference picture list. For example, the image encoding apparatus does not perform interpolation when it is not necessary to perform block matching in decimal units because the characteristic of an image in which a reference block exists in a certain current block is an artificial image, and blocks matching in decimal units because it is a natural image. It can be operated to perform interpolation when it is necessary to do

또한, 영상 부호화 장치는, 블록 단위로 내삽을 수행한 참조 픽쳐에서 블록 매칭 적용 여부에 대한 설정이 가능하다. 예를 들어, 자연 영상과 인공 영상이 혼합되어 있을 경우 참조 픽쳐에 내삽을 수행하되 인공적인 영상의 부분을 탐색하여 최적의 움직임 벡터를 얻을 수 있는 경우에는 일정 단위(여기에서 정수 단위라고 가정)로 움직임 벡터를 표현할 수 있으며, 또한 선택적으로 자연 영상의 부분을 탐색하여 최적의 움직임 벡터를 얻을 수 있는 경우에는 다른 일정 단위(여기에서는 1/4 단위라고 가정)로 움직임 벡터를 표현할 수 있다.Also, the image encoding apparatus may set whether block matching is applied to a reference picture that has been interpolated in units of blocks. For example, when a natural image and an artificial image are mixed, interpolation is performed on the reference picture, but when the optimal motion vector can be obtained by searching for a part of the artificial image, the A motion vector can be expressed, and when an optimal motion vector can be obtained by selectively searching a part of a natural image, the motion vector can be expressed in another predetermined unit (assuming that it is a quarter unit).

도 12는 본 발명의 일실시예에 따른 영상 부호화 방법의 주요 과정을 코딩 단위(coding unit)에서의 신택스로 설명하기 위한 예시도이다.12 is an exemplary diagram for explaining a main process of an image encoding method according to an embodiment of the present invention with syntax in a coding unit.

도 12를 참조하면, curr_pic_BM_enabled_flag는 현재 픽쳐에서 블록 매칭을 허용하는 플래그를 의미하고 시퀀스, 픽쳐 단위에서 정의 및 전송될 수 있으며, 이 때 현재 픽쳐에서 블록 매칭을 수행하여 예측 블록 생성하는 과정은 화면 간 예측을 통해 동작하는 경우를 의미할 수 있다. 그리고 잔차 신호를 부호화하지 않는 화면 간 기술인 cu_skip_flag는, I 슬라이스를 제외한 P 슬라이스나 B 슬라이스에서만 지원되는 플래그라고 가정할 수 있다. 그 경우, curr_pic_BM_enabled_flag가 온(on)이 되는 경우에 I 슬라이스에서도 블록 매칭(block maching, BM)을 화면 간 예측 모드에서 지원할 수가 있다.12, curr_pic_BM_enabled_flag means a flag that allows block matching in the current picture, and can be defined and transmitted in sequence and picture units. In this case, the process of generating a prediction block by performing block matching in the current picture is inter-picture. It may mean a case of operating through prediction. In addition, it may be assumed that cu_skip_flag, which is an inter-picture technique that does not encode a residual signal, is a flag supported only in P slices or B slices except for I slices. In that case, when curr_pic_BM_enabled_flag is turned on, block matching (BM) can be supported in the inter prediction mode even in I slices.

즉, 본 실시예의 영상 부호화 장치는 현재 픽쳐에 블록 매칭을 통해 예측 블록을 생성하는 경우에 스킵(skip)을 지원할 수 있으며, 블록 매칭 외의 화면 내 기술의 경우에도 스킵을 지원할 수 있다. 그리고 조건에 따라 I 슬라이스에서 스킵을 지원하지 않을 수도 있다. 이러한 스킵 여부는 부호화기 설정에 따라 결정될 수 있다.That is, the image encoding apparatus of the present embodiment may support skip when generating a prediction block through block matching in the current picture, and may support skip in the case of intra-picture techniques other than block matching. And depending on conditions, skip may not be supported in the I slice. Whether to skip this may be determined according to an encoder setting.

일례로, I 슬라이스에서 스킵을 지원할 경우, 특정 플래그인 if(cu_skip_flag)를 통해 예측 단위인 prediction_unit()으로 연결하여 잔차신호를 부호화하지 않고 블록 매칭을 통해 예측 블록을 복원 블록으로 바로 복원할 수 있다. 또한, 영상 부호화 장치는 현재 픽쳐에서 블록 매칭을 통해 예측 블록을 사용하는 방법을 화면 간 예측 기술로 분류하고, 그러한 구분을 특정 플래그인 pred_mode_flag를 통해 처리할 수 있다.As an example, when skip is supported in I slice, the prediction block can be directly restored as a reconstructed block through block matching without encoding the residual signal by connecting to prediction_unit(), which is the prediction unit through a specific flag if(cu_skip_flag). . Also, the apparatus for encoding an image may classify a method of using a prediction block through block matching in the current picture as an inter prediction technique, and may process such classification through a specific flag, pred_mode_flag.

즉, 영상 부호화 장치는, pred_mode_flag가 0이면 예측 모드를 화면 간 예측 모드(MODE_INTER)로 설정하고, 1이면 화면 내 예측 모드(MODE_INTRA)로 설정할 수 있다. 이것은 기존과 유사한 화면 내 기술이지만 기존의 구조와의 구분을 위해 I 슬라이스에서 화면 간 기술 또는 화면 내 기술로 분류될 수 있다. 즉, 본 실시예의 영상 부호화 장치는, I 슬라이스에서 시간적인 상관성을 이용하지 않지만 시간적인 상관성의 구조를 사용할 수 있다. part_mode는 부호화 단위에서 분할되는 블록의 크기 및 형태에 대한 정보를 의미한다. . 예를 들어, 시퀀스 파라미터에서 현재 픽쳐에서 블록 매칭을 지원하는 플래그는 sps_curr_pic_BM_enabled_flag일 수 있으며, 픽쳐 파라미터에서 현재 픽쳐에서 블록 매칭을 지원하는 플래그는 pps_curr_pic_BM_enabled_flag일 수 있다. 만약 sps_curr_pic_BM_enabled_flag가 온(on), pps_curr_pic_BM_enabled_flag가 오프(off)일 경우에는, 현재 픽쳐에서 블록 매칭을 지원하지 않을 수 있다. 상기 플래그에 따라 참조 픽쳐 리스트 0 구성에 현재 픽쳐의 포함여부를 결정할 수 있고, 참조 픽쳐 리스트 1 구성에 현재 픽쳐의 포함여부를 결정할 수도 있다.That is, the video encoding apparatus may set the prediction mode to the inter prediction mode (MODE_INTER) if pred_mode_flag is 0, and may set the prediction mode to the intra prediction mode (MODE_INTRA) if 1 is 1. This is an intra-picture technique similar to the existing one, but it can be classified as an inter-picture technique or an intra-picture technique in the I slice to distinguish it from the existing structure. That is, the video encoding apparatus of the present embodiment does not use temporal correlation in the I slice, but may use a temporal correlation structure. part_mode means information on the size and shape of a block divided in a coding unit. . For example, the flag supporting block matching in the current picture in the sequence parameter may be sps_curr_pic_BM_enabled_flag, and the flag supporting block matching in the current picture in the picture parameter may be pps_curr_pic_BM_enabled_flag. If sps_curr_pic_BM_enabled_flag is on and pps_curr_pic_BM_enabled_flag is off, block matching may not be supported in the current picture. Whether the current picture is included in the reference picture list 0 configuration may be determined according to the flag, and whether the current picture is included in the reference picture list 1 configuration may be determined.

도 13은 현재 픽쳐에서 블록매칭을 통해 예측 블록을 생성할 경우, 화면 간 예측에서와 같이 대칭형(symmetric type) 분할 또는 비대칭형(asymmetric type) 분할을 지원하는 예를 설명하기 위한 예시도이다.13 is an exemplary diagram for explaining an example of supporting symmetric type division or asymmetric type division as in inter prediction when a prediction block is generated through block matching in the current picture.

도 13을 참조하면, 본 실시예에 따른 영상 부호화 방법은, 현재 픽쳐에서 블록 매칭을 통해 예측 블록을 생성하는 경우, 화면 간 예측에서와 같이 2N×2N, 2N×N, N×2N와 같은 대칭형(symmetric) 분할을 지원하거나, nL×2N, nR×2N, 2N×nU, 2N×nD와 같은 비대칭형(asymmetric) 분할을 지원할 수 있다. 이는 블록 분할부의 분할 방식에 따라 다양한 블록 크기 및 형태가 결정될 수 있다.Referring to FIG. 13 , in the video encoding method according to the present embodiment, when a prediction block is generated through block matching in a current picture, symmetric types such as 2N×2N, 2N×N, and N×2N as in inter prediction. (symmetric) partitioning may be supported, or asymmetric partitioning such as nL×2N, nR×2N, 2N×nU, or 2N×nD may be supported. Various block sizes and shapes may be determined according to the division method of the block division unit.

도 14는 화면 간 예측(Inter)에서 2N×2N, N×N을 지원할 수 있음을 설명하기 위한 예시도이다.14 is an exemplary diagram for explaining that 2N×2N and N×N can be supported in inter prediction (Inter).

도 14를 참조하면, 본 실시예에 따른 영상 부호화 방법은, 기존의 화면 내 예측에 사용하는 예측 블록 형태와 같이 2N×2N 및 N×N을 지원할 수 있다. 이는 블록 분할부에서 쿼드트리 분할 방식 또는 미리 정의된 소정의 블록 후보군에 따른 분할 방식 등을 통해 정사각 형태를 지원한 예이며, 화면 내 예측에서도 바이너리 트리 분할 방식 또는 미리 정의돈 소정의 블록 후보군에 직사각 형태를 추가하여 다른 블록 형태 또한 지원할 수 있으며, 이에 대한 설정은 부호화기에서 설정이 가능하다. 또한, 화면 내 예측 중 현재 픽쳐에 블록 매칭을 할 경우에만 스킵(skip)을 적용할 것인지, 기존의 화면 내 예측에도 스킵을 적용할 것인지, 그 외의 새로운 화면 내 예측에 스킵을 적용할 것인지를 부호화기에서 설정 가능하다. 이에 대한 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송될 수 있다.Referring to FIG. 14 , the video encoding method according to the present embodiment may support 2N×2N and N×N like the form of a prediction block used for conventional intra prediction. This is an example in which the block division unit supports a square shape through a quadtree division method or a division method according to a predefined block candidate group, and even in intra prediction, a binary tree division method or a rectangular shape in a predefined block candidate group. Other block types can also be supported by adding a shape, and the setting for this can be set in the encoder. In addition, the encoder determines whether skip is applied only when block matching is performed on the current picture during intra prediction, whether to apply skip to existing intra prediction, or whether to apply skip to other new intra predictions. can be set in Information on this may be transmitted in units of sequences, pictures, slices, and the like.

감산부(205, 도 2 참조)는 부호화할 현재 블록의 화소값으로부터 예측부(200)로부터 생성되는 예측 블록의 화소값들을 감산하여 화소 차이값을 도출함으로써, 잔차 블록을 생성할 수 있다.The subtraction unit 205 (refer to FIG. 2 ) may generate a residual block by subtracting pixel values of the prediction block generated by the prediction unit 200 from the pixel values of the current block to be encoded to derive a pixel difference value.

변환부(210, 도 2 참조)는 감산부(205)에서 현재 블록과 화면 내 예측 또는 화면 간 예측을 통해 생성된 예측 블록과의 차분치인 잔차 블록을 전달받아 주파수 영역으로 변환한다. 변환 과정을 통해 잔차 블록의 각 화소는 변환 블록의 변환 계수에 대응된다. 변환 블록의 크기 및 형태는 부호화 단위와 같거나 작은 크기를 가질 수 있다. 또한, 변환 블록의 크기 및 형태는 예측 단위와 같을 수도 있고 작을 수도 있다. 영상 부호화 장치는 여러 예측 단위를 묶어서 변환 처리를 수행할 수 있다.The transform unit 210 (refer to FIG. 2 ) receives the residual block that is the difference between the current block and the prediction block generated through intra prediction or inter prediction from the subtraction unit 205 and transforms it into the frequency domain. Through the transform process, each pixel of the residual block corresponds to a transform coefficient of the transform block. The size and shape of the transform block may be the same as or smaller than the coding unit. Also, the size and shape of the transform block may be the same as or smaller than the prediction unit. The image encoding apparatus may perform transformation processing by bundling several prediction units.

변환 블록의 크기 또는 형태는 블록 분할부를 통해 결정될 수 있으며, 블록 분할에 따라 정사각 형태 또는 직사각 형태의 변환을 지원할 수 있다. 부호화기 또는 복호화기에서 지원되는 변환 관련 설정 (지원되는 변환 블록의 크기, 형태 등)에 따라 상기 블록 분할 동작에 영향을 줄 수 있다. The size or shape of the transform block may be determined through the block dividing unit, and a square shape or rectangular shape transform may be supported according to the block division. The block division operation may be affected according to the transform related settings supported by the encoder or the decoder (size, shape, etc. of a transform block supported).

상기 변환 블록의 크기 및 형태의 후보별 부호화 비용에 따라 각 변환 블록의 크기 및 형태가 결정되고, 결정된 각 변환 블록의 영상 데이터 및 결정된 각 변환 블록의 크기 및 형태 등의 분할 정보들을 부호화할 수 있다.The size and shape of each transform block is determined according to the encoding cost for each candidate of the size and shape of the transform block, and segmentation information such as image data of each determined transform block and the determined size and shape of each transform block can be encoded. .

변환은 1차원 변환 매트릭스에 의해 변환될 수 있다. (DCT, DST 등) 수평, 수직 단위로 각 변환 매트릭스가 적응적으로 사용될 수 있다. 적응적 사용의 예로는 블록의 크기, 블록의 형태, 블록의 종류(휘도 및 색차), 부호화 모드, 예측 모드 정보, 양자화 파라미터, 이웃 블록의 부호화 정보 등의 여러 요인으로 결정될 수 있다.The transform may be transformed by a one-dimensional transform matrix. (DCT, DST, etc.) Each transform matrix can be adaptively used in horizontal and vertical units. Examples of adaptive use may be determined by several factors, such as a size of a block, a block shape, a block type (luminance and color difference), an encoding mode, prediction mode information, a quantization parameter, and encoding information of a neighboring block.

예를 들어, 화면내 예측의 경우, 예측 모드가 수평일 경우에는 수직 방향으로는 DCT 기반의 변환 매트릭스가, 수평 방향으로는 DST 기반의 변환 매트릭스가 사용될 수도 있다. 수직일 경우에는 수평 방향으로는 DCT 기반의 변환 매트릭스가, 수직 방향으로는 DST 기반의 변환 매트릭스가 사용될 수 있다. 변환 매트릭스는 위의 설명에서 나온 것에 한정되지 않는다. 이에 대한 정보는 묵시적 또는 명시적인 방법을 사용하여 결정될 수 있으며, 블록의 크기, 블록의 형태, 부호화 모드, 예측 모드, 양자화 파라미터, 이웃 블록의 부호화 정보 등에 요인 중 하나 이상의 요인 또는 이들의 조합에 따라 결정될 수 있으며, 상기 관련 정보는 시퀀스, 픽쳐, 슬라이스, 블록 등의 단위로 전송할 수 있다.For example, in the case of intra prediction, when the prediction mode is horizontal, a DCT-based transform matrix may be used in a vertical direction and a DST-based transform matrix may be used in a horizontal direction. In the vertical case, a DCT-based transform matrix may be used in a horizontal direction and a DST-based transform matrix may be used in a vertical direction. The transformation matrix is not limited to that from the description above. Information on this may be determined using an implicit or explicit method, depending on one or more factors or a combination of factors such as block size, block shape, encoding mode, prediction mode, quantization parameter, encoding information of a neighboring block, etc. may be determined, and the related information may be transmitted in units of sequences, pictures, slices, blocks, and the like.

여기서, 명시적인 방법을 사용을 할 경우를 고려하면, 수평 및 수직 방향에 대한 2개 이상의 변환 매트릭스를 후보군으로 두고 있을 경우, 각 방향마다 어떤 변환 매트릭스를 사용했는지에 대한 정보를 각각 보낼 수도 있고, 또는 수평, 수직 방향에 대해 각각 어떤 변환 매트릭스를 사용했는지에 대한 각 하나의 쌍으로 묶어 2개 이상의 쌍을 후보군으로 두어 어떤 변환 매트릭스를 수평, 수직 방향에서 사용했는지에 대한 정보를 전송할 수도 있다.Here, considering the case of using an explicit method, when two or more transformation matrices for horizontal and vertical directions are in a candidate group, information on which transformation matrix is used in each direction may be sent, respectively, Alternatively, information on which transformation matrix is used in the horizontal and vertical directions may be transmitted by grouping two or more pairs as a candidate group for each transformation matrix used in the horizontal and vertical directions.

또한, 영상의 특성을 고려하여 부분적인 변환 또는 전체적인 변환을 생략할 수 있다. 예를 들면, 수평 또는 수직 성분 둘 중 하나 또는 둘다 생략할 수 있다. 화면내 예측 또는 화면간 예측이 잘 이뤄지지 않아 현재 블록과 예측 블록의 차이가 크게 발생할 경우(즉, 잔차 성분이 클 때)에 이를 변환할 시 그에 따른 부호화 손실이 커질 수 있기 때문이다. 이는 부호화 모드, 예측 모드 정보, 블록의 크기, 블록의 형태, 블록의 종류(휘도 및 색차), 양자화 파라미터, 이웃 블록의 부호화 정보 등의 요인 중 최소 하나 이상의 요인 또는 이들의 조합에 따라 결정될 수 있다. 위의 조건에 따라 묵시적 또는 명시적인 방법을 사용하여 이를 표현할 수 있고, 이에 대한 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송이 가능하다.In addition, partial transformation or total transformation may be omitted in consideration of the characteristics of the image. For example, one or both of the horizontal or vertical components may be omitted. This is because, when the difference between the current block and the prediction block is large (that is, when the residual component is large) because intra prediction or inter prediction is not performed well, the resulting encoding loss may increase when transforming it. This may be determined according to at least one or a combination of factors such as encoding mode, prediction mode information, block size, block shape, block type (luminance and chrominance), quantization parameters, and encoding information of neighboring blocks. . According to the above conditions, it can be expressed using an implicit or explicit method, and information on this can be transmitted in units of sequences, pictures, slices, and the like.

양자화부(215, 도 2 참조)는 변환부(210)에서 변환된 잔차 성분의 양자화를 수행한다. 양자화 파라미터는 블록 단위로 결정이 되며, 양자화 파라미터는 시퀀스, 픽쳐, 슬라이스, 블록 등의 단위로 설정될 수 있다.The quantization unit 215 (refer to FIG. 2 ) quantizes the residual component transformed by the transform unit 210 . The quantization parameter is determined in units of blocks, and the quantization parameters may be set in units of sequences, pictures, slices, blocks, and the like.

일례로, 양자화부(215)는 현재 블록의 왼쪽, 왼쪽 위, 위쪽, 오른쪽 위, 왼쪽 아래 등의 이웃 블록으로부터 유도된 1개 또는 2개 이상의 양자화 파라미터를 사용하여 현재 양자화 파라미터를 예측할 수 있다.For example, the quantization unit 215 may predict the current quantization parameter using one or more quantization parameters derived from neighboring blocks such as the left, upper left, upper, right upper, lower left, etc. of the current block.

또한, 양자화부(215)는 이웃 블록으로부터 예측한 양자화 파라미터가 존재하지 않는 경우 즉, 블록이 픽쳐, 슬라이스 등의 경계에 있는 경우, 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송된 기본 파라미터와의 차분치를 출력 혹은 전송할 수 있다. 이웃 블록으로부터 예측한 양자화 파라미터가 존재하는 경우, 해당 블록의 양자화 파라미터를 사용하여 차분치를 전송할 수도 있다.In addition, the quantization unit 215 determines the difference from the basic parameters transmitted in units of sequences, pictures, slices, etc. when there is no quantization parameter predicted from a neighboring block, that is, when a block is at a boundary between pictures, slices, etc. values can be printed or transmitted. When a quantization parameter predicted from a neighboring block exists, a difference value may be transmitted using the quantization parameter of the corresponding block.

양자화 파라미터를 유도할 블록의 우선순위는 미리 설정할 수도 있고, 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송할 수 있다. 잔차 블록을 데드존 균일 경계 양자화(DZUTQ: Dead Zone Uniform Threshold Quantization), 양자화 가중치 매트릭스(Quantization weighted matrix) 또는 이를 개량한 기법을 통해 양자화할 수 있다. 이는 1개 이상의 양자화 기법을 후보로 둘 수 있으며 부호화 모드, 예측 모드 정보 등에 의해 결정될 수 있다.The priority of the block from which the quantization parameter is to be derived may be set in advance, or may be transmitted in units of sequences, pictures, slices, and the like. The residual block may be quantized through Dead Zone Uniform Threshold Quantization (DZUTQ), a quantization weighted matrix, or an improved technique thereof. This may include one or more quantization techniques as candidates, and may be determined by encoding mode, prediction mode information, and the like.

예를 들어, 양자화부(215)는 양자화 가중치 매트릭스를 화면 간 부호화, 화면 내 부호화 단위 등에 적용하기 위해 설정해 둘 수 있고, 또한 화면 내 예측 모드에 따라 다른 가중치 매트릭스를 둘 수도 있다. 양자화 가중치 매트릭스는 M×N의 크기로 블록의 크기가 양자화 블록 크기와 같다고 가정할 때, 각 주파수 성분의 위치마다 양자화 계수를 달리하여 구성할 수 있다. 그리고 양자화부(215)는 기존의 여러 양자화 방법 중 택일할 수도 있고, 부호화기 또는 복호화기의 동일한 설정하에 사용될 수도 있다. 이에 대한 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송 가능하다.For example, the quantization unit 215 may set the quantization weight matrix to be applied to inter-picture coding, intra-picture coding units, etc., and may also provide a different weight matrix according to the intra prediction mode. The quantization weight matrix has a size of M×N, and assuming that the size of the block is the same as the size of the quantization block, the quantization coefficient can be configured by different quantization coefficients for each position of each frequency component. In addition, the quantization unit 215 may select one of several existing quantization methods, or may be used under the same setting of an encoder or a decoder. Information on this can be transmitted in units of sequences, pictures, slices, and the like.

한편, 도 2, 3에 도시한 역양자화부(220,315) 및 역변환부(225,320)는 위의 변환부(210) 및 양자화부(215)에서의 과정을 역으로 수행하여 구현될 수 있다. 즉, 역양자화부(220)는 양자화부(215)에서 생성된 양자화된 변환 계수를 역양자화할 수 있고, 역변환부(225)는 역양자화된 변환 계수를 역변환하여 복원된 잔차 블록을 생성할 수 있다. Meanwhile, the inverse quantization units 220 and 315 and the inverse transform units 225 and 320 illustrated in FIGS. 2 and 3 may be implemented by performing the above processes in the transform unit 210 and the quantization unit 215 inversely. That is, the inverse quantization unit 220 may inverse quantize the quantized transform coefficient generated by the quantizer 215, and the inverse transform unit 225 may inversely transform the inverse quantized transform coefficient to generate a reconstructed residual block. have.

도 2, 3에 도시한 가산부(230, 324)는 상기 복원된 잔차 블록의 화소값에 예측부로부터 생성되는 예측 블록의 화소값을 가산하여 복원 블록이 생성될 수 있다. 복원 블록은 부호화 및 복호화 픽쳐 버퍼(240, 335)에 저장되어 예측부 및 필터부에 제공될 수 있다.The adders 230 and 324 shown in FIGS. 2 and 3 may generate a reconstructed block by adding the pixel value of the prediction block generated from the prediction unit to the pixel value of the reconstructed residual block. The reconstructed block may be stored in the encoding and decoding picture buffers 240 and 335 and provided to the prediction unit and the filter unit.

필터부는 복원 블록에 디블록킹 필터(Deblocking Filter), 적응적 샘플 오프셋(Sample Adaptive Offset, SAO), 적응적 루프 필터(Adaptive Loop Filter, ALF) 등과 같은 인루프 필터를 적용할 수 있다. 디블록킹 필터는 부호화 및 복호화 과정에서 발생하는 블록 경계 사이의 왜곡을 제거하기 위해, 복원 블록을 필터링할 수 있다. SAO는 잔차 블록에 대하여, 화소 단위로 원본 영상과 복원 영상과의 차이를 오프셋으로 복원해주는 필터 과정이다. ALF는 예측 블록과 복원 블록 사이의 차이를 최소화하기 위해 필터링을 수행할 수 있다. ALF는 디블록킹 필터를 통해 복원된 블록과 현재 블록의 비교값을 기초로 필터링을 수행할 수 있다.The filter unit may apply an in-loop filter such as a deblocking filter, a sample adaptive offset (SAO), or an adaptive loop filter (ALF) to the reconstructed block. The deblocking filter may filter the reconstructed block to remove distortion between block boundaries generated during encoding and decoding. SAO is a filter process that restores the difference between the original image and the reconstructed image as an offset for the residual block in units of pixels. The ALF may perform filtering to minimize the difference between the prediction block and the reconstruction block. The ALF may perform filtering based on a comparison value between the block restored through the deblocking filter and the current block.

엔트로피 부호화부(245, 도 2 참조)는 양자화부(215)를 통해 양자화된 변환 계수들을 엔트로피 부호화할 수 있다. 예를 들어, 컨텐스트 적응 가변 길이 코딩(CAVLC), 컨텍스트 적응 2진 산술 코딩(CABAC), 구문 기반 컨텍스트 적응 2진 산술 코딩(SBAC), 확률 간격 파티셔닝 엔트로피(PIPE) 코딩 등의 기법을 수행할 수 있다.The entropy encoder 245 (refer to FIG. 2 ) may entropy-encode the transform coefficients quantized through the quantizer 215 . For example, to perform techniques such as context adaptive variable length coding (CAVLC), context adaptive binary arithmetic coding (CABAC), syntax-based context adaptive binary arithmetic coding (SBAC), probability interval partitioning entropy (PIPE) coding, etc. can

엔트로피 부호화부(245)는 양자화 계수를 부호화한 비트열과 부호화된 비트열을 복호화하는데 필요한 다양한 정보들을 부호화 데이터에 포함할 수 있다. 부호화 데이터는 부호화된 블록 형태, 양자화 계수 및 양자화 블록이 부호화된 비트열 및 예측에 필요한 정보 등을 포함할 수 있다. 양자화 계수의 경우 2차원의 양자화 계수를 1차원으로 스캐닝할 수 있다. 양자화 계수는 영상의 특성에 따라 분포도가 달라질 수 있다. 특히, 화면 내 예측의 경우 계수의 분포가 예측 모드에 따라 특정한 분포를 가질 수 있기 때문에 스캔 방법을 달리 설정할 수 있다.The entropy encoding unit 245 may include, in the encoded data, a bit string obtained by encoding a quantization coefficient and various information necessary for decoding the encoded bit string. The coded data may include an coded block type, a quantization coefficient, and a bit stream in which the quantized block is coded, and information required for prediction. In the case of a quantization coefficient, a two-dimensional quantization coefficient may be scanned in one dimension. The distribution of the quantization coefficients may vary depending on the characteristics of the image. In particular, in the case of intra prediction, since the distribution of coefficients may have a specific distribution depending on the prediction mode, a different scanning method may be set.

또한, 엔트로피 부호화부(245)는 부호화하는 블록의 크기에 따라 달리 설정될 수 있다. 스캔 패턴은 지그재그, 대각선, 래스터(raster) 등 다양한 패턴들 중 적어도 어느 하나 이상으로 미리 설정하거나 후보로 설정할 수 있으며, 부호화 모드, 예측 모드 정보 등에 의해 결정될 수 있고, 부호화기와 복호화기의 동일한 설정하에 사용될 수 있다. 이에 대한 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송 가능하다.Also, the entropy encoder 245 may be set differently according to the size of a block to be encoded. The scan pattern may be preset or set as a candidate at least one or more of various patterns such as zigzag, diagonal, raster, etc., and may be determined by encoding mode and prediction mode information, etc. can be used Information on this can be transmitted in units of sequences, pictures, slices, and the like.

엔트로피 부호화부(245)에 입력되는 양자화된 블록(이하, 양자화 블록)의 크기는 변환 블록의 크기와 같거나 작을 수 있다. 또한, 양자화 블록은 2개 이상의 서브 블록으로 분할될 수 있으며, 분할된 경우에 분할 블록에서 스캔 패턴은 기존의 양자화 블록과 동일하게 설정할 수도 있고, 다르게 설정할 수도 있다.The size of the quantized block (hereinafter, quantized block) input to the entropy encoder 245 may be equal to or smaller than the size of the transform block. In addition, the quantization block may be divided into two or more sub-blocks, and when divided, the scan pattern in the divided block may be set to be the same as that of the existing quantization block or may be set differently.

예를 들어, 기존의 양자화 블록의 스캔 패턴을 지그재그라고 할 경우, 서브 블록 모두에 지그재그를 적용할 수도 있고, 또는 DC 성분을 포함하는 블록의 좌측 상단에 위치하는 서브블록에 지그재그 패턴을 적용하고, 그 이외의 블록에는 대각선 패턴을 적용할 수 있다. 이 역시 부호화 모드, 예측 모드 정보 등에 따라 결정될 수 있다.For example, if the scan pattern of the existing quantization block is called zigzag, the zigzag may be applied to all subblocks, or the zigzag pattern is applied to the subblock located at the upper left of the block including the DC component, A diagonal pattern can be applied to other blocks. This may also be determined according to encoding mode, prediction mode information, and the like.

또한, 엔트로피 부호화부(245)에서 스캔 패턴의 시작 위치는 기본적으로 좌측 상단으로부터 시작을 하나, 영상의 특성에 따라 우측 상단, 우측 하단 또는 좌측 하단에서 시작할 수 있으며, 2개 이상의 후보군 중 어느 것을 선택했는지에 대한 정보를 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송할 수 있다. 부호화 기술로서는 엔트로피 부호화 기술이 사용될 수 있으나 이에 한정되지 않는다.In addition, the start position of the scan pattern in the entropy encoder 245 basically starts from the upper left, but may start from the upper right, lower right, or lower left depending on the characteristics of the image, and any one of two or more candidate groups is selected. Information on whether or not it has been performed may be transmitted in units of a sequence, a picture, a slice, or the like. As the encoding technology, an entropy encoding technology may be used, but is not limited thereto.

한편, 도 2 및 도 3에 도시한 역양자화부(220)의 역양자화 및 역변환부(225)의 역변환은 위의 양자화부(215)의 양장화 및 변환부(210)의 변환 구조를 반대로 구성하고 기본적인 필터부(235, 330)를 조합하는 것으로 구현 가능하다.On the other hand, the inverse quantization of the inverse quantization unit 220 and the inverse transformation of the inverse transform unit 225 shown in FIGS. 2 and 3 reverse the quantization of the quantization unit 215 and the transformation structure of the transform unit 210 . And it can be implemented by combining the basic filter units (235, 330).

한편, 영상 데이터의 부호화 또는 복호화 방법에 있어서, 데이터-레벨 병렬화는 병렬화하는 프로그램에서 처리할 데이터를 여러 단위로 분할한 후 각각 분할된 데이터를 서로 다른 코어 또는 스레드에 할당하여 동일한 작업을 병렬적으로 수행하는 방식이다. 이론적으로 병렬화는 코어 또는 스레드의 성능 한계 내에서 병렬화할수록 영상 처리 속도가 빨라지기 때문에 성능에 중요한 요소 중 하나이다.On the other hand, in the encoding or decoding method of image data, data-level parallelization divides data to be processed in a parallelized program into several units and then allocates the divided data to different cores or threads to perform the same task in parallel way to do it. Theoretically, parallelism is one of the important factors for performance because image processing speed increases as parallelization increases within the performance limit of a core or thread.

이러한 병렬 처리의 데이터 단위는 프레임, 슬라이스, 블록 단위의 병렬화가 자주 사용되고 있다. 화면 간 예측을 이와 같은 병렬 처리로 수행한다고 할 경우를 전제로 하여 이하 설명한다.For data units of such parallel processing, parallelization in units of frames, slices, and blocks is frequently used. Hereinafter, it will be described on the premise that the prediction between screens is performed by such parallel processing.

도 15는 현재 픽쳐 내의 참조 블록을 이용한 블록 매칭을 통해 예측 블록을 생성하는 예시도이다. 15 is an exemplary diagram of generating a prediction block through block matching using a reference block in a current picture.

도 15를 참조하면, 가운데 네 개의 블록을 부호화할 현재 블록들이라고 할 수 있고, 화살표는 참조 블록을 지시하는데, 그에 따른 참조 블록들이 현재 픽쳐 내에 존재하는 경우를 지시한다. 본 실시예는 현재 픽쳐에서 블록 매칭을 수행할 때 이를 화면 간 부호화 구조를 통해 부호화하는 경우에 적용될 수 있다.Referring to FIG. 15 , the middle four blocks may be referred to as current blocks to be encoded, and an arrow indicates a reference block, indicating a case in which the reference blocks are present in the current picture. The present embodiment may be applied to a case where block matching is performed on the current picture and is encoded through an inter-picture encoding structure.

도 16은 현재 픽쳐 내에서 블록 매칭시 사용된 이미 부호화된 영역의 참조 블록을 설명하는 예시도이다.16 is an exemplary diagram illustrating a reference block of an already encoded region used for block matching in a current picture.

도 16을 참조하면, 빗금친 블록이 부호화된 영역의 참조 블록을 지시한다. 이와 같은 참조 블록은, 앞에서 설명한 것처럼, 인루프 필터가 적용되지 않아 블로킹 열화가 생길 수 있다.Referring to FIG. 16 , a shaded block indicates a reference block of an coded region. As described above, in such a reference block, blocking deterioration may occur because the in-loop filter is not applied.

이처럼 현재 블록에 앞서 이미 부호화된 영역의 경우, 아직 디블록킹 필터와 적응적 샘플 오프셋(Sample Adaptive Offset, SAO) 등의 인루프 필터가 적용되기 전이기 때문에 현재 픽쳐에서 블록 매칭을 수행하는 경우, 병렬처리 관점에서 볼 때 문제가 발생할 수 있다. 그로 인해, 블록 매칭을 위하여, 필터링이 적용되기 전에 추가적인 메모리가 필요할 수 있다.As such, in the case of a region that has already been encoded prior to the current block, since the deblocking filter and in-loop filter such as Sample Adaptive Offset (SAO) are not applied yet, when block matching is performed in the current picture, parallel From a processing point of view, problems can arise. As such, for block matching, additional memory may be required before filtering is applied.

또한, 이미 부호화된 영역의 경우, 인루프 필터가 적용되기 전이기 때문에 블록 간의 열화로 인해 최적의 예측 블록을 생성하는데 어려움이 있을 수 있다.In addition, in the case of an already-encoded region, since the in-loop filter is not applied, it may be difficult to generate an optimal prediction block due to deterioration between blocks.

본 실시예에 의하면, 복호화 픽쳐 버퍼(DPB)에서 현재 픽쳐를 위한 메모리와 현재 픽쳐 내의 다른 블록을 참조하는 경우에는 추가적인 메모리가 필요할 수 있다. 이 때, 추가적인 메모리는 기존의 현재 픽쳐를 위한 메모리 외에 현재 픽쳐를 위한 다른 메모리일 수 있으며, 현재 픽쳐의 부호화 또는 복호화 과정에서 사용될 수 있는 임시 메모리일 수 있다. 또한, 병렬 처리시에는 추가적인 메모리의 크기가 매우 큰 용량이 필요할 수도 있다.According to the present embodiment, when the memory for the current picture and another block in the current picture are referred to in the decoded picture buffer (DPB), an additional memory may be required. In this case, the additional memory may be another memory for the current picture in addition to the existing memory for the current picture, or a temporary memory that may be used in the encoding or decoding process of the current picture. In addition, in parallel processing, a very large capacity of an additional memory may be required.

또한, 디블록킹 필터 및 적응적 샘플 오프셋(Sample Adaptive Offset, SAO) 등의 인루프 필터가 적용된 경우에는 현재 픽쳐를 위한 메모리일 수 있으며, 상기 인루프 필터가 적용되지 않은 경우에는 추가적인 메모리일 수 있다. 또한, 시퀀스 파라미터 셋, 픽쳐 파라미터 셋, 슬라이스 헤더 등의 단위에서 상기 인루프 필터 동작 설정에 따라 상기 추가적인 메모리는 필요하지 않을 수 있다. 예를 들어, 디블록킹 필터는 오프(off), SAO는 오프(off), ALF는 오프(off)와 같은 인루프 필터 동작 설정에는 상기 추가적인 메모리가 필요하지 않을 수 있으며, 위의 인루프 필터는 위의 구성 중 일부 또는 다른 구성이 포함되어 구성될 수 있다.In addition, when an in-loop filter such as a deblocking filter and an adaptive sample offset (SAO) is applied, it may be a memory for the current picture, and when the in-loop filter is not applied, it may be an additional memory. . In addition, the additional memory may not be required according to the in-loop filter operation setting in units of a sequence parameter set, a picture parameter set, a slice header, and the like. For example, the additional memory may not be required to set the in-loop filter operation such as deblocking filter off, SAO off, and ALF off. Some or other components of the above components may be included.

위의 설명과 같이 현재 픽쳐 내의 다른 블록에 참조되는 참조 블록은 추가적인 메모리에 저장될 수 있다. 이것은 추가적인 메모리의 손실을 가져오고 이를 방지할 필요성이 있다. 이하에서 적응적 필터링을 통한 추가적 메모리 방지를 설명한다.As described above, a reference block referenced to another block in the current picture may be stored in an additional memory. This results in the loss of additional memory and there is a need to prevent this. Additional memory protection through adaptive filtering will be described below.

도 17는, 필터링 스킵 확인부가 추가된 영상 부호화 장치에 대한 구성도이다.17 is a block diagram of a video encoding apparatus to which a filtering skip check unit is added.

도 17을 참조하면, 예측부(200), 가산부(205), 변환부(transform unit, 210), 양자화부(quantiztion, 215), 역양자화부(inverse quantization, 220), 역변환부(inverse transform, 225), 감산부(230), 복호화 픽쳐 버퍼(DPB, 240), 엔트로피 부호화부(entropy encoder, 245), 필터링 스킵 확인부(250), 스킵 선택 회로(260), 및 필터부(290)를 포함할 수 있다.Referring to FIG. 17 , a prediction unit 200 , an adder 205 , a transform unit 210 , a quantization unit 215 , an inverse quantization unit 220 , and an inverse transform unit , 225 ), a subtraction unit 230 , a decoded picture buffer (DPB) 240 , an entropy encoder 245 , a filtering skip check unit 250 , a skip selection circuit 260 , and a filter unit 290 ). may include

여기서, 예측부(200)는 인트라 예측(intra prediction)을 위한 제1 예측수단(201)과 인터 예측(inter prediction)을 위한 제2 예측수단(202)을 포함할 수 있다. 제1 예측수단은 인트라 예측부로 지칭되고, 제2 예측수단은 인터 예측부로 지칭될 수 있다. 또한, 가산부(205)와 감산부(230)는 제1 가감산부와 제2 가감산부로 각각 지칭될 수 있다.Here, the prediction unit 200 may include a first prediction means 201 for intra prediction and a second prediction means 202 for inter prediction. The first prediction unit may be referred to as an intra prediction unit, and the second prediction unit may be referred to as an inter prediction unit. Also, the addition unit 205 and the subtraction unit 230 may be referred to as a first addition/subtraction unit and a second addition/subtraction unit, respectively.

또한, 필터링 스킵 확인부(250)는 제2 가감산부(230)와 필터부(290) 사이에 위치하고, 스킵 선택 회로(260)는 필터링 스킵 확인부(250)와 필터부(290)와의 사이 및 필터링 스킵 확인부(250)와 복호화 픽쳐 버퍼(240)와의 사이에 위치한다. 필터링 스킵 확인부(250)는 필터링 스킵 플래그에 의한 선택 정보에 기반하여 스킵 선택 회로(260)를 제어함으로써 디블록킹 필터링을 적응적으로 수행할 수 있다.In addition, the filtering skip check unit 250 is located between the second addition/subtract unit 230 and the filter unit 290 , and the skip selection circuit 260 is located between the filtering skip check unit 250 and the filter unit 290 , and It is located between the filtering skip check unit 250 and the decoded picture buffer 240 . The filtering skip check unit 250 may adaptively perform deblocking filtering by controlling the skip selection circuit 260 based on selection information based on the filtering skip flag.

또한, 필터부(290)는 인루프 필터부로 지칭될 수 있으며, 디블록킹 필터(deblocking filter, 270) 및 샘플 적응적 오프셋(sample adaptive offset, SAO, 280) 중 적어도 어느 하나 이상을 포함할 수 있다. 필터부(290)는 복원된 영상에 대한 필터링을 수행할 수 있다.In addition, the filter unit 290 may be referred to as an in-loop filter unit, and may include at least any one or more of a deblocking filter 270 and a sample adaptive offset (SAO, 280). . The filter unit 290 may perform filtering on the reconstructed image.

디블록킹 필터(270)를 좀더 구체적으로 설명하면 다음과 같다. 즉, 앞서 예측, 변환, 양자화, 엔트로피 부호화 과정을 거치는 동안 양자화 단계에서는 양자화 에러가 발생할 수 있다. 이는 양자화 파라미터 값에 의해 조정되는데 양자화 파라미터 값이 작으면 변환계수에 대해 촘촘한 양자화가 수행되어 양자화 에러가 상대적으로 작고, 양자화 파라미터 값이 크면 양자화 에러가 상대적으로 크게 발생할 수 있다. 이러한 문제를 개선하기 위해 복원된 픽쳐에 대해 필터링을 수행함으로써 화질 열화를 줄여줄 수 있다.The deblocking filter 270 will be described in more detail as follows. That is, a quantization error may occur in the quantization step during the previous prediction, transformation, quantization, and entropy encoding processes. This is adjusted by the quantization parameter value. If the quantization parameter value is small, the transform coefficient is densely quantized, so that the quantization error is relatively small. If the quantization parameter value is large, the quantization error may occur relatively large. In order to improve this problem, it is possible to reduce image quality deterioration by performing filtering on the reconstructed picture.

도 17에서 확인하는 것과 같이, 필터링 스킵 확인부(250)를 추가로 구성하여, 필터링 스킵 확인부(250)는 참조 블록으로 활용되었는지 여부에 따른 플래그에 기초하여 필터부(290)의 적용과 스킵이 선택되도록 스킵 선택 회로(26)를 제어할 수 있다. 이에 따라, 추가적인 메모리의 사용 없이 하나의 DPB(240)를 이용하여 병렬 처리를 수행할 수 있게 된다.As confirmed in FIG. 17 , by additionally configuring the filtering skip check unit 250 , the filtering skip check unit 250 applies and skips the filter unit 290 based on a flag according to whether or not it is used as a reference block. The skip selection circuit 26 may be controlled to select . Accordingly, parallel processing can be performed using one DPB 240 without using additional memory.

이를 위한 설정 정보는 부호화기와 복호화기가 동일하게 가질 수 있고, 부호화기와 복호화기 사이에서 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송될 수 있다.For this purpose, the encoder and the decoder may have the same configuration information, and may be transmitted between the encoder and the decoder in units of sequences, pictures, slices, and the like.

도 18은, 필터링 스킵 확인부가 추가된 영상 복호화 장치에 대한 구성도이다.18 is a block diagram of an image decoding apparatus to which a filtering skip check unit is added.

도 18을 참조하면, 본 실시예에 따른 영상 복호화 장치는, 엔트로피 복호화부(entropy encoder), 역양자화부(inverse quantization), 역변환부(inverse transform), 화면 내 예측부(intra prediction), 화면 간 예측부(inter prediction), 디블로킹 필터(Deblocking filter), 적응적 샘플 오프셋(Sample adaptive offset, SAO), 복원된 픽쳐 버퍼(DPB), 필터링 스킵 확인부를 포함할 수 있다.Referring to FIG. 18 , the image decoding apparatus according to the present embodiment includes an entropy encoder, an inverse quantization unit, an inverse transform unit, an intra prediction unit, and an inter prediction unit. It may include an inter prediction, a deblocking filter, a sample adaptive offset (SAO), a reconstructed picture buffer (DPB), and a filtering skip checker.

여기서, 기존의 구성에 대해서는, 앞서 설명한 도 3을 참조할 수 있으므로 중복된 설명은 생략하고, 도 18을 참조하면, 기존의 영상 복호화 장치에 필터링 스킵 확인부가 추가된 것을 확인할 수 있다.Here, for the existing configuration, since reference may be made to FIG. 3 described above, a duplicate description is omitted. Referring to FIG. 18 , it can be confirmed that a filtering skip checker is added to the existing image decoding apparatus.

즉, 영상 복호화 장치는 영상 부호화 장치로부터 전송된 플래그를 바탕으로 필터링 스킵 여부에 대한 스위칭 동작을 지시할 수 있다. 만약 필터링이 스킵되는 경우 해당 데이터는 바로 복원된 픽쳐 버퍼(DPB)에 저장되며, 그렇지 않은 경우 해당 데이터는 필터링이 적용된 후 복원된 픽쳐 버퍼(DPB)에 저장될 수 있다. That is, the image decoding apparatus may instruct a switching operation as to whether to skip filtering based on the flag transmitted from the image encoding apparatus. If filtering is skipped, the corresponding data is immediately stored in the reconstructed picture buffer DPB. Otherwise, the corresponding data may be stored in the reconstructed picture buffer DPB after filtering is applied.

도 19 내지 도 22는 본 발명의 실시예에 따른 영상 부호화 방법에 있어서 다양한 크기의 블록 단위로의 플래그 전송을 설명하는 예시도이다.19 to 22 are exemplary diagrams for explaining flag transmission in blocks of various sizes in an image encoding method according to an embodiment of the present invention.

즉, 도 19 내지 도 22는, 인루프 필터의 적응적 적용 여부를 지시하거나 또는 현재 픽쳐 내에서 다른 픽쳐의 참조 블록으로 활용되었는지 여부를 지시하는 플래그가 다양한 블록 단위로 전송될 수 있는 예들을 설명할 수 있다.That is, FIGS. 19 to 22 describe examples in which a flag indicating whether the in-loop filter is adaptively applied or whether it is used as a reference block of another picture in the current picture may be transmitted in units of various blocks. can do.

먼저 도 19를 참조하면, 최대 부호화 단위가 64×64인 경우, 최대 부호화 단위로 전송할 수 있다. 최대 부호화 단위는 코딩 트리 유닛(coding tree unit, CTU)에 대응될 수 있다.First, referring to FIG. 19 , when the maximum coding unit is 64×64, it can be transmitted in the maximum coding unit. The maximum coding unit may correspond to a coding tree unit (CTU).

도 20을 참조하면, 최대 부호화 단위를 분할된 부호화 단위로 하여 전송할 수 있다. 분할된 단위로 플래그를 생성할 때는 트리 기반의 분할이 가능하다. 본 실시예에서는 최대 부호화 단위를 4개로 분할하거나, 4개로 분할된 부호화 단위 중 적어도 하나를 다시 4개로 분할할 수 있음을 보여주고 있다.Referring to FIG. 20 , the maximum coding unit may be transmitted as a divided coding unit. When generating flags in divided units, tree-based division is possible. The present embodiment shows that the largest coding unit can be split into four or at least one of the four coding units can be split into four again.

도 21을 참조하면, 1개 이상의 최대 부호화 단위를 묶음 단위로 전송할 수 있다. 본 실시예에서 4개의 최대 부호화 단위들이 하나의 묶음 단위로 전송될 수 있음을 보여주고 있다.Referring to FIG. 21 , one or more maximum coding units may be transmitted in a bundle unit. This embodiment shows that four maximum coding units can be transmitted as one bundle unit.

도 22를 참조하면, 1개 이상의 최대 부호화 단위를 묶음 단위로 전송하는 것과 최대 부호화 단위를 복수개로 분할한 분할된 부호화 단위로 전송하는 것을 조합하는 것이 가능하다.Referring to FIG. 22 , it is possible to combine transmission of one or more largest coding units in a bundle unit and transmission of one or more largest coding units in split coding units obtained by splitting the largest coding units into a plurality of units.

전술한 도 19 내지 도 22는 그 분할 방식으로 쿼드 트리 분할을 예로 들었으나, 상기 분할부(도 2 참조)에서의 분할 방식에 따라 다양한 블록 크기 및 형태로 분할될 수 있다.The above-described FIGS. 19 to 22 exemplify quad tree division as the division method, but may be divided into various block sizes and shapes according to the division method in the division unit (see FIG. 2 ).

전술한 최대 블록의 크기부터 최소 블록의 크기에 대한 정보는 부호화기와 복호화기에 동일하게 설정 가능하고, 이와 관련된 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송할 수 있다.Information on the above-described maximum block size to minimum block size can be set equally to the encoder and the decoder, and related information can be transmitted in units of sequences, pictures, slices, and the like.

도 23은, 참조 블록 활용 여부를 지시하는 플래그를 전송하는 방법을 설명하기 위한 예시도이다.23 is an exemplary diagram for explaining a method of transmitting a flag indicating whether a reference block is used.

도 23을 참조하면, 동그라미는 분할 플래그, 네모는 필터링적용 플래그, 빗금은 분할되었거나 필터링이 적용된 것을 의미하고, 무색은 분할되지 않았거나 필터링이 적용되지 않았음을 의미할 수 있다.Referring to FIG. 23 , a circle denotes a split flag, a square denotes a filtering applied flag, a slash denotes split or filtering is applied, and a colorless denotes that no split or filtering is applied.

여기서, 최소 하나의 분할 블록이 참조되었다면 해당 블록은 분할하고, 더 이상 분할되지 않을 경우에는 인루프 필터의 온,오프 (on, off) 플래그를 전송할 수 있다. 블록의 분할에 대한 심도(depth)는 최대 블록의 크기, 픽쳐 타입 등에 의해 정해질 수 있고 다만 지원되는 심도가 0이면 분할되지 않을 수 있다. 이에 대한 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송될 수 있다. 또한, 여기서, 최대 블록의 크기는 64×64이고, 지원되는 심도는 3(여기서는 8×8까지)까지 지원된다고 할 경우를 나타낸다.Here, if at least one split block is referenced, the corresponding block is split, and when it is no longer split, the on/off (on, off) flag of the in-loop filter may be transmitted. A depth for the division of a block may be determined by the size of a maximum block, a picture type, etc. However, if the supported depth is 0, the division may not be performed. Information on this may be transmitted in units of sequences, pictures, slices, and the like. In addition, here, the maximum block size is 64x64 and the supported depth is 3 (here, up to 8x8).

이때, 블록의 크기가 유동적이므로 분할 여부를 먼저 전송해야 하는데 1이면, 블록을 분할, 0이면 블록이 더 이상 분할되지 않는다는 것을 전송하고, 한 블록 내를 기준으로 좌상단 블록, 우상단 블록, 좌하단 블록, 좌하단 블록 순서(또는 제트 스캔 방향)로 정보를 전송할 수 있다.At this time, since the size of the block is flexible, it is necessary to first transmit whether or not to split the block. If it is 1, the block is split. If it is 0, it is transmitted that the block is no longer divided. , information can be transmitted in the lower-left block order (or jet scan direction).

먼저, CTU_64 로 표시된 64×64 블록(트리 구조의 최상단)에 대하여 분할을 의미하는 1(64×64분할)을 전송하고, 이어서 좌상단 블록(32×32)에 대하여 1(32×32 분할)을 전송하여 분할함을 전송하며 그 내부의 네 블록(16×16)에 대하여 0(16×16 결정) 0(16×16 결정) 0(16×16 결정) 0(16×16 결정)을 전송할 수 있다. 이어서 우상단 블록에 대하여 0(32×32 결정)을 전송하여 더 이상 분할되지 않음을 전송하고, 좌하단 블록에 대해서도 0(32×32 결정)을 전송할 수 있다. 우하단 블록(32×32)에 대하여 1(32×32 분할)을 전송하여 분할됨을 전송하며, 다시 그 내부의 좌상단 블록(16×16)에 대하여 1(16×16 분할)을 전송하여 분할됨을 나타낸다. 상기 좌상단 블록(16×16)의 경우 분할됨에 따라 분할된 블록의 크기(8×8)가 지원되는 심도 깊이(8×8)과 동일하므로 분할된 블록(8×8)에는 분할 플래그를 전송하지 않는다. 그 후 남은 블록(16×16)에 대해 0(16×16 결정), 0(16×16 결정), 0(16×16 결정)을 전송할 수 있다. 즉, 분할 여부를 알리는 지시 데이터로서, 1100000011000을 전송할 수 있다.First, 1 (64 × 64 division) indicating division is transmitted to the 64 × 64 block (top of the tree structure) indicated by CTU_64, and then 1 (32 × 32 division) is transmitted to the upper left block (32 × 32). It transmits a split box by sending, and 0 (16×16 crystals) 0 (16×16 crystals) 0 (16×16 crystals) 0 (16×16 crystals) can be transmitted for the four blocks (16×16) inside it. have. Subsequently, 0 (32×32 crystal) may be transmitted to the upper right block to indicate that no more division is to be made, and 0 (32×32 crystal) may be transmitted to the lower left block. The division is transmitted by transmitting 1 (32 × 32 division) to the lower right block (32 × 32), and 1 (16 × 16 division) is transmitted to the upper left block (16 × 16) inside it to indicate that it is divided. indicates. In the case of the upper-left block (16×16), the size (8×8) of the divided block is the same as the supported depth (8×8) as it is divided, so the division flag is not transmitted to the divided block (8×8). does not After that, 0 (16×16 crystal), 0 (16×16 crystal), and 0 (16×16 crystal) can be transmitted for the remaining blocks (16×16). That is, 1100000011000 may be transmitted as indication data indicating whether to divide.

상기 과정을 통해 분할 여부를 알리는 정보를 생성하고, 이 후에는 필터링 적용여부에 대한 정보를 생성할 수 있다. 상기 과정을 통해 13개의 블록에 대해 필터링 적용여부에 대한 플래그를 제트 스캔 방향으로 0, 0, 1, 1, 0, 1, 1, 0, 1, 0, 0, 1, 0를 전송할 수 있다.Through the above process, information indicating whether to divide or not may be generated, and thereafter, information on whether to apply filtering may be generated. Through the above process, 0, 0, 1, 1, 0, 1, 1, 0, 1, 0, 0, 1, 0 may be transmitted in the jet scan direction for flags indicating whether filtering is applied to the 13 blocks.

상기 블록의 분할 정보에 대한 플래그를 표현하기 위한 분할 플래그의 비트스트림 구조는 1개 이상의 스캔 방법 중 선택할 수 있다. 상기 예와 같이 제트 스캔 기반에 최초 블록 기준으로 분할된 블록에서의 추가 분할 정보를 우선적으로 획득할 수 있다. 또는 제트 스캔 기반의 심도 깊이 순서 기준 방법으로, 최초 블록 기준으로 현 수준의 심도 깊이에서의 분할 정보를 획득한 후 다음 수준의 심도 깊이에서의 분할 정보를 획득하는 방법이다. 위의 방법을 사용할 경우 1(64×64 분할), 1(32×32 분할), 0(32×32 결정), 0(32×32 결정), 1(32×32 분할), 0(16×16 결정), 0(16×16 결정), 0(16×16 결정), 0(16×16 결정), 1(16×16 분할), 0(16×16 결정), 0(16×16 결정), 0(16×16 결정)을 전송할 수 있다. 즉, 분할 여부를 알리는 지시 데이터로서, 1100100001000을 전송할 수 있다. 이 외에도 위의 예에서 제시되지 않은 다른 스캔 방법이 포함되어 선택될 수 있다.A bitstream structure of a partition flag for expressing a flag for partition information of the block may be selected from one or more scan methods. As in the above example, it is possible to preferentially obtain additional partitioning information in a block divided based on the initial block based on the jet scan. Alternatively, as a jet scan-based depth-depth order reference method, it is a method of acquiring partition information at a depth depth of a current level on the basis of an initial block and then acquiring partition information at a depth depth of a next level. When using the above method, 1 (64 × 64 division), 1 (32 × 32 division), 0 (32 × 32 division), 0 (32 × 32 division), 1 (32 × 32 division), 0 (16 × 16 crystals), 0 (16×16 crystals), 0 (16×16 crystals), 0 (16×16 crystals), 1 (16×16 divisions), 0 (16×16 crystals), 0 (16×16 crystals) ), 0 (16×16 crystals) can be transmitted. That is, 1100100001000 may be transmitted as indication data indicating whether to divide. In addition to this, other scanning methods not presented in the above example may be included and selected.

본 실시예에 있어서, 이미 부호화된 현재 픽쳐에 있는 데이터는 아직 인루프 필터가 적용되지 않아서 블록 간의 열화가 존재한다. 이러한 데이터를 담고 있는 메모리는 현재 픽쳐의 부호화 또는 복호화 과정 동안만 저장되는 임시 메모리일 수 있다. 블록 매칭을 통해 열화가 존재하는 데이터를 참조할 경우 블록 간의 열화로 인해 예측의 정확도가 떨어지는 단점이 존재할 수 있다. 그 경우에는 블록의 부호화가 완료되고 다음 블록으로 진행되기 전에 현재 블록의 왼쪽과 위쪽 경계에 블록 열화를 줄여주는 필터링을 적용함으로써 블록 열화를 줄여줄 수 있다.In the present embodiment, since the in-loop filter has not yet been applied to data in the current picture that has already been encoded, there is deterioration between blocks. The memory containing such data may be a temporary memory stored only during the encoding or decoding process of the current picture. When referring to data with deterioration through block matching, there may be a disadvantage in that prediction accuracy is lowered due to deterioration between blocks. In this case, block deterioration can be reduced by applying filtering that reduces block deterioration to the left and upper boundaries of the current block after the encoding of the block is completed and before proceeding to the next block.

또한, 오른쪽과 아래쪽 경계는 다음에 부호화될 블록에서 처리될 수 있다. 어떤 블록 경계에서 필터링이 적용할 것인지는 기설정된 조건 예컨대, 블록 경계의 타입, 최소 블록 크기 등에 의해 필터링 적용을 결정할 수 있다. 변환 블록 경계에서 필터링을 수행할 수도 있고, 예측 블록 경계에서 필터링을 수행할 수도 있으며, 변환 블록과 예측 블록의 공통된 블록 경계에서 수행할 수도 있다. 필터링이 수행되는 최소 블록의 크기 또한 설정 가능하며, 이와 관련된 정보는 시퀀스, 픽쳐, 슬라이스 등의 단위로 생성 또는 전송될 수 있다.Also, the right and bottom boundaries can be processed in the block to be coded next. In which block boundary the filtering is to be applied, the filtering application may be determined according to a predetermined condition, for example, a type of a block boundary, a minimum block size, and the like. Filtering may be performed at the transform block boundary, filtering may be performed at the prediction block boundary, or may be performed at a common block boundary between the transform block and the prediction block. The size of a minimum block on which filtering is performed can also be set, and related information may be generated or transmitted in units of sequences, pictures, slices, and the like.

또한, 블록 경계에 놓인 블록의 특성 예컨대 부호화 모드, 블록 경계 특성, 예측 정보, 부호화 계수 등을 분석하여 필터링 적용 유무, 필터링 적용 화소, 필터 종류 등을 설정할 수 있다. 이와 관련된 설정 정보는 부호화기와 복호화기에 동일하게 설정될 수 있고, 시퀀스, 픽쳐, 슬라이스 등의 단위로 전송될 수 있다. 전술한 본 실시예에 채용되는 필터링은 기존의 디블록킹 필터와 동일한 구성을 이용할 수 있고, 또한 다른 구성을 이용할 수도 있다.Also, it is possible to set whether or not filtering is applied, a pixel to which filtering is applied, a filter type, and the like, by analyzing characteristics of blocks placed on the block boundary, for example, coding mode, block boundary characteristics, prediction information, coding coefficients, and the like. The related configuration information may be set identically to the encoder and the decoder, and may be transmitted in units of sequences, pictures, slices, and the like. The filtering employed in the present embodiment described above may use the same configuration as the existing deblocking filter, or may use a different configuration.

전술한 실시예에 의하면, 화면 내 예측 기술이 사용되고 있는 MPEG-2, MPEG-4, H.264 등의 국제 코덱 또는 기타 다른 코덱과 이 코덱들을 사용하는 매체, 그리고 영상 산업에 전반적으로 이용가능한 고성능 고효율의 영상 부호화 복호화 기술을 제공할 수 있다.According to the above-described embodiment, international codecs such as MPEG-2, MPEG-4, H.264, etc. or other codecs using in-picture prediction technology, media using these codecs, and high performance generally available to the video industry It is possible to provide a high-efficiency image encoding/decoding technology.

또한, 향후에는 현재의 고효율 영상 부호화 기술(HEVC) 및 H.264/AVC와 같은 표준 코덱과 화면 내 예측을 사용하는 영상 처리 분야에 적용이 예상된다.In addition, in the future, it is expected to be applied to the image processing field using the current high-efficiency video encoding technology (HEVC) and standard codecs such as H.264/AVC and intra prediction.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that it can be done.

Claims (4)

화면 간 예측을 수행하는 영상 부호화 방법에 있어서,
현재 블록에 대한 화면 간 예측을 수행하여 참조 블록을 탐색하는 단계;
상기 탐색된 참조 블록에 따라, 상기 현재 블록을 포함하는 현재 픽쳐를 참조 픽쳐 리스트에 포함할 것인지 여부를 지시하는 플래그를 픽쳐 파라미터 세트 단위로 부호화하는 단계;
상기 탐색된 참조 블록을 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 단계;
상기 예측 블록을 기초로, 상기 현재 블록에 대한 잔차 블록을 생성하는 단계;
상기 예측 블록 및 상기 잔차 블록을 기초로, 상기 현재 블록을 복원하는 단계; 및
상기 현재 픽쳐를 복원된 픽쳐 버퍼(Decoded Picture Buffer, DPB)에 저장하는 단계를 포함하되,
상기 복원된 픽쳐 버퍼는, 상기 현재 픽쳐가 상기 참조 픽쳐 리스트에 포함되는지 여부 및 상기 현재 픽쳐에 인루프 필터가 적용되는지 여부에 따라, 상기 인루프 필터가 적용된 현재 픽쳐의 저장을 위해 할당되는 제1 메모리 및 상기 인루프 필터가 적용되지 않은 현재 픽쳐의 저장을 위해 할당되는 제2 메모리를 포함하도록 구성되고,
상기 현재 픽쳐에 상기 인루프 필터가 적용되는지 여부를 지시하는 필터링 스킵 플래그가 비트스트림 내에 부호화되며,
상기 참조 픽쳐 리스트는 상기 현재 픽쳐가 상기 참조 픽쳐 리스트에 포함되는지 여부 및 슬라이스 타입에 기초하여 구성되는, 영상 부호화 방법.
In the video encoding method for performing inter prediction,
searching for a reference block by performing inter prediction on the current block;
encoding a flag indicating whether to include a current picture including the current block in a reference picture list in units of picture parameter sets according to the searched reference block;
generating a prediction block for the current block by using the searched reference block;
generating a residual block for the current block based on the prediction block;
reconstructing the current block based on the prediction block and the residual block; and
Storing the current picture in a restored picture buffer (Decoded Picture Buffer, DPB),
The reconstructed picture buffer is a first allocated for storage of a current picture to which the in-loop filter is applied, according to whether the current picture is included in the reference picture list and whether an in-loop filter is applied to the current picture. and a second memory allocated for storage of a memory and a current picture to which the in-loop filter is not applied,
A filtering skip flag indicating whether the in-loop filter is applied to the current picture is encoded in the bitstream,
The reference picture list is configured based on whether the current picture is included in the reference picture list and a slice type.
화면 간 예측을 수행하는 영상 복호화 방법에 있어서,
현재 블록을 포함하는 현재 픽쳐가 참조 픽쳐 리스트에 포함되는지 여부를 지시하는 플래그를 픽쳐 파라미터 세트로부터 복호화하는 단계;
상기 현재 블록에 대한 참조 픽쳐 리스트를 생성하는 단계;
상기 참조 픽쳐 리스트를 이용하여, 상기 현재 블록에 대한 예측 블록을 생성하는 단계;
상기 예측 블록 및 잔차 블록을 기초로, 상기 현재 블록을 복원하는 단계; 및
복원된 현재 픽쳐를 복원된 픽쳐 버퍼(Decoded Picture Buffer, DPB)에 저장하는 단계를 포함하되,
상기 복원된 픽쳐 버퍼는, 상기 현재 픽쳐가 상기 참조 픽쳐 리스트에 포함되는지 여부 및 상기 현재 픽쳐에 인루프 필터가 적용되는지 여부에 따라, 상기 인루프 필터가 적용된 현재 픽쳐의 저장을 위해 할당되는 제1 메모리 및 상기 인루프 필터가 적용되지 않은 현재 픽쳐의 저장을 위해 할당되는 제2 메모리를 포함하도록 구성되고,
상기 현재 픽쳐에 상기 인루프 필터가 적용되는지 여부는 비트스트림으로부터 획득되는 필터링 스킵 플래그에 기반하여 결정되며,
상기 참조 픽쳐 리스트는 상기 현재 픽쳐가 상기 참조 픽쳐 리스트에 포함되는지 여부 및 슬라이스 타입에 기초하여 구성되는, 영상 복호화 방법.
In the image decoding method for performing inter prediction,
decoding a flag indicating whether a current picture including a current block is included in a reference picture list from a picture parameter set;
generating a reference picture list for the current block;
generating a prediction block for the current block by using the reference picture list;
reconstructing the current block based on the prediction block and the residual block; and
Comprising the step of storing the restored current picture in a restored picture buffer (Decoded Picture Buffer, DPB),
The reconstructed picture buffer is a first allocated for storage of a current picture to which the in-loop filter is applied, according to whether the current picture is included in the reference picture list and whether an in-loop filter is applied to the current picture. and a second memory allocated for storage of a memory and a current picture to which the in-loop filter is not applied,
Whether the in-loop filter is applied to the current picture is determined based on a filtering skip flag obtained from a bitstream,
The reference picture list is configured based on whether the current picture is included in the reference picture list and a slice type.
영상 부호화 장치가 수행하는 영상 부호화 방법에 의해 생성된 비트스트림을 저장하는 컴퓨터 판독가능한 매체에 있어서,
상기 방법은,
현재 블록에 대한 화면 간 예측을 수행하여 참조 블록을 탐색하는 단계;
상기 탐색된 참조 블록에 따라, 상기 현재 블록을 포함하는 현재 픽쳐를 참조 픽쳐 리스트에 포함할 것인지 여부를 지시하는 플래그를 픽쳐 파라미터 세트 단위로 부호화하는 단계;
상기 탐색된 참조 블록을 이용하여 상기 현재 블록에 대한 예측 블록을 생성하는 단계;
상기 예측 블록을 기초로, 상기 현재 블록에 대한 잔차 블록을 생성하는 단계;
상기 예측 블록 및 상기 잔차 블록을 기초로, 상기 현재 블록을 복원하는 단계; 및
상기 현재 픽쳐를 복원된 픽쳐 버퍼(Decoded Picture Buffer, DPB)에 저장하는 단계를 포함하되,
상기 복원된 픽쳐 버퍼는, 상기 현재 픽쳐가 상기 참조 픽쳐 리스트에 포함되는지 여부 및 상기 현재 픽쳐에 인루프 필터가 적용되는지 여부에 따라, 상기 인루프 필터가 적용된 현재 픽쳐의 저장을 위해 할당되는 제1 메모리 및 상기 인루프 필터가 적용되지 않은 현재 픽쳐의 저장을 위해 할당되는 제2 메모리를 포함하도록 구성되고,
상기 현재 픽쳐에 상기 인루프 필터가 적용되는지 여부를 지시하는 필터링 스킵 플래그가 비트스트림 내에 부호화되며,
상기 참조 픽쳐 리스트는 상기 현재 픽쳐가 상기 참조 픽쳐 리스트에 포함되는지 여부 및 슬라이스 타입에 기초하여 구성되는, 컴퓨터 판독가능한 매체.
A computer-readable medium for storing a bitstream generated by an image encoding method performed by an image encoding apparatus, comprising:
The method is
searching for a reference block by performing inter prediction on the current block;
encoding a flag indicating whether to include a current picture including the current block in a reference picture list in units of picture parameter sets according to the searched reference block;
generating a prediction block for the current block by using the searched reference block;
generating a residual block for the current block based on the prediction block;
reconstructing the current block based on the prediction block and the residual block; and
Storing the current picture in a restored picture buffer (Decoded Picture Buffer, DPB),
The reconstructed picture buffer is a first allocated for storage of a current picture to which the in-loop filter is applied, according to whether the current picture is included in the reference picture list and whether an in-loop filter is applied to the current picture. and a second memory allocated for storage of a memory and a current picture to which the in-loop filter is not applied,
A filtering skip flag indicating whether the in-loop filter is applied to the current picture is encoded in the bitstream,
The reference picture list is configured based on whether the current picture is included in the reference picture list and a slice type.
삭제delete
KR1020210177545A 2015-06-11 2021-12-13 Method and apparatus of image encoding/decoding using adaptive deblocking filtering KR102447872B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220119949A KR102558270B1 (en) 2015-06-11 2022-09-22 Method and apparatus of image encoding/decoding using adaptive deblocking filtering

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20150082702 2015-06-11
KR1020150082702 2015-06-11
KR1020170169371A KR102340133B1 (en) 2015-06-11 2017-12-11 Method and apparatus of image encoding/decoding using adaptive deblocking filtering

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170169371A Division KR102340133B1 (en) 2015-06-11 2017-12-11 Method and apparatus of image encoding/decoding using adaptive deblocking filtering

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220119949A Division KR102558270B1 (en) 2015-06-11 2022-09-22 Method and apparatus of image encoding/decoding using adaptive deblocking filtering

Publications (2)

Publication Number Publication Date
KR20210156810A KR20210156810A (en) 2021-12-27
KR102447872B1 true KR102447872B1 (en) 2022-09-27

Family

ID=57735014

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020160073191A KR101809630B1 (en) 2015-06-11 2016-06-13 Method and apparatus of image encoding/decoding using adaptive deblocking filtering
KR1020170169371A KR102340133B1 (en) 2015-06-11 2017-12-11 Method and apparatus of image encoding/decoding using adaptive deblocking filtering
KR1020210177545A KR102447872B1 (en) 2015-06-11 2021-12-13 Method and apparatus of image encoding/decoding using adaptive deblocking filtering
KR1020220119949A KR102558270B1 (en) 2015-06-11 2022-09-22 Method and apparatus of image encoding/decoding using adaptive deblocking filtering

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020160073191A KR101809630B1 (en) 2015-06-11 2016-06-13 Method and apparatus of image encoding/decoding using adaptive deblocking filtering
KR1020170169371A KR102340133B1 (en) 2015-06-11 2017-12-11 Method and apparatus of image encoding/decoding using adaptive deblocking filtering

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220119949A KR102558270B1 (en) 2015-06-11 2022-09-22 Method and apparatus of image encoding/decoding using adaptive deblocking filtering

Country Status (1)

Country Link
KR (4) KR101809630B1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020207492A1 (en) 2019-04-12 2020-10-15 Beijing Bytedance Network Technology Co., Ltd. Interaction between matrix-based intra prediction and other coding tools
JP2022535726A (en) 2019-05-31 2022-08-10 北京字節跳動網絡技術有限公司 Constrained Upsampling Process in Matrix-Based Intra Prediction
CN113950836B (en) 2019-06-05 2024-01-12 北京字节跳动网络技术有限公司 Matrix-based intra-prediction context determination
WO2021101201A1 (en) * 2019-11-18 2021-05-27 엘지전자 주식회사 Image coding device and method, for controlling loop filtering
CN115088265A (en) 2019-12-12 2022-09-20 Lg电子株式会社 Image encoding apparatus and method for controlling loop filtering
WO2021118297A1 (en) * 2019-12-12 2021-06-17 엘지전자 주식회사 Apparatus and method for coding image on basis of signaling of information for filtering
WO2021118261A1 (en) * 2019-12-12 2021-06-17 엘지전자 주식회사 Method and device for signaling image information
KR20220088795A (en) * 2019-12-12 2022-06-28 엘지전자 주식회사 Method and apparatus for signaling image information applied at picture level or slice level
CN117939160A (en) * 2022-10-14 2024-04-26 中兴通讯股份有限公司 Video decoding method, video processing device, medium and product

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Bin Li, "Non-SCCE1: Unification of intra BC and inter modes", JCTVC 18th Meeting: Sapporo, JP, JCTVC-R0100, 30 June 2014.*
C. Rosewarne, "On deblocking for intra block copy", JCTVC 18th Meeting: Sapporo, JP, JCTVC─R0126, 30 June 2014.*

Also Published As

Publication number Publication date
KR20210156810A (en) 2021-12-27
KR20160146591A (en) 2016-12-21
KR102558270B1 (en) 2023-07-24
KR20170141168A (en) 2017-12-22
KR20220132516A (en) 2022-09-30
KR102340133B1 (en) 2021-12-16
KR101809630B1 (en) 2017-12-15

Similar Documents

Publication Publication Date Title
US11368675B2 (en) Method and device for encoding and decoding intra-frame prediction
KR102447872B1 (en) Method and apparatus of image encoding/decoding using adaptive deblocking filtering
KR101988888B1 (en) Method and apparartus for encoding/decoding for intra prediction mode
KR102462012B1 (en) Image encoding/decoding method and image decoding apparatus using motion vector precision
KR102447871B1 (en) Image encoding method and image decoding method and apparatus using adaptive deblocking filtering
KR101966195B1 (en) Method and apparatus of image encoding/decoding using reference pixel composition in intra prediction
KR20220101595A (en) Image encoding/decoding method and image decoding apparatus using motion vector precision
KR102476230B1 (en) Image encoding/decoding method and image decoding apparatus using motion vector precision

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant