KR20230157287A - Method and apparatus for video coding/decoding using intra prediction - Google Patents

Method and apparatus for video coding/decoding using intra prediction Download PDF

Info

Publication number
KR20230157287A
KR20230157287A KR1020230155557A KR20230155557A KR20230157287A KR 20230157287 A KR20230157287 A KR 20230157287A KR 1020230155557 A KR1020230155557 A KR 1020230155557A KR 20230155557 A KR20230155557 A KR 20230155557A KR 20230157287 A KR20230157287 A KR 20230157287A
Authority
KR
South Korea
Prior art keywords
pixel
current
current block
area
predicted value
Prior art date
Application number
KR1020230155557A
Other languages
Korean (ko)
Inventor
김기백
김재훈
유종상
이상구
이경준
정제창
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020230155557A priority Critical patent/KR20230157287A/en
Publication of KR20230157287A publication Critical patent/KR20230157287A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

인트라 예측의 정확도를 향상시켜 부호화/복호화 효율을 향상시키는 방법 및 장치가 개시된다. 비디오 복호화 방법은, 수신한 비트스트림을 복호화하여 현재 화소에 대한 잔차값과 인트라 예측 정보를 포함하는 복원 정보를 생성하는 단계와, 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 우측 상단의 화소(T)와 제1 참조 화소를 이용하여 제1 예측값을 생성하는 단계와, 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 좌측 하단의 화소(L)와 제2 참조 화소를 이용하여 제2 예측값을 생성하는 단계와, 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성하는 단계를 포함한다. Planar 모드를 적용함에 있어, 보다 상관 관계가 높은 참조 화소를 이용하거나 현재 블록의 방향성에 기반한 가중치를 적용함으로써 인트라 예측의 정확도를 향상시킬 수 있다.A method and device for improving encoding/decoding efficiency by improving intra prediction accuracy are disclosed. The video decoding method includes the steps of decoding a received bitstream to generate restoration information including a residual value and intra prediction information for the current pixel, and based on the intra prediction information, the upper right corner of the current block including the current pixel. Generating a first prediction value using a pixel (T) and a first reference pixel, and using a pixel (L) at the bottom left of the current block including the current pixel and a second reference pixel based on intra prediction information. It includes generating a second predicted value and generating a final predicted value for the current pixel using the first predicted value and the second predicted value. When applying planar mode, the accuracy of intra prediction can be improved by using reference pixels with a higher correlation or by applying weights based on the direction of the current block.

Description

인트라 예측을 이용한 비디오 부호화/복호화 방법 및 장치{METHOD AND APPARATUS FOR VIDEO CODING/DECODING USING INTRA PREDICTION}Video encoding/decoding method and device using intra prediction {METHOD AND APPARATUS FOR VIDEO CODING/DECODING USING INTRA PREDICTION}

본 발명은 비디오의 부호화 및 복호화에 관한 것으로, 더욱 상세하게는 인트라 예측의 정확도를 향상시켜 부호화/복호화 효율을 향상시키는 방법 및 장치에 관한 것이다.The present invention relates to video encoding and decoding, and more specifically, to a method and device for improving encoding/decoding efficiency by improving the accuracy of intra prediction.

최근에는 스마트폰과 스마트TV의 등장으로 인하여 유·무선 통신 네트워크를 통한 동영상 데이터의 이용이 폭발적으로 증가하고 있는 추세이다. 동영상 데이터는 일반 텍스트 데이터에 비하여 정보 전달 능력이 뛰어난 반면에 용량이 매우 크기 때문에 제한된 대역폭을 가진 네트워크 채널에서 데이터를 전송하거나 재생 및 저장하는데 어려움이 존재한다. 또한, 어플리케이션의 요구에 따라서 방대한 동영상 정보가 적절히 처리되어야 하므로, 동영상을 처리하기 위한 시스템 또한 높은 사양이 요구된다. Recently, with the advent of smartphones and smart TVs, the use of video data through wired and wireless communication networks has been explosively increasing. While video data has a superior ability to transmit information compared to plain text data, its capacity is very large, so there are difficulties in transmitting, playing, and storing the data in a network channel with limited bandwidth. In addition, since a large amount of video information must be appropriately processed according to the needs of the application, a system for processing video also requires high specifications.

비디오의 부호화에는 손실 부호화(Loss Coding)와 무손실 부호화(Lossless Coding)가 있다. H.264/AVC는 손실 부호화뿐만 아니라 무손실 부호화도 지원하며, 특히 무손실 부호화는 H.264/AVC FRExt(Fidelity Range Extension) 표준화에서 좀 더 효율적인 무손실 부호화 기술이 채택되었다. FRExt에서 채택된 무손실 부호화 기술은 데이터의 손실을 피하기 위하여 단순히 변환과 양자화를 수행하지 않는 방법으로 이루어졌다. 즉, 인트라 예측(Intra Prediction)과 인터 예측(Inter Prediction)을 통하여 구해진 잔차(residual) 신호들을 변환, 양자화하지 않고 바로 엔트로피 부호화(Entropy) 부호화함으로써 무손실 압축을 수행할 수 있다.Video coding includes loss coding and lossless coding. H.264/AVC supports lossless coding as well as lossy coding, and in particular, a more efficient lossless coding technology was adopted in the H.264/AVC FRExt (Fidelity Range Extension) standardization. The lossless coding technology adopted in FRExt is achieved by simply not performing conversion and quantization to avoid data loss. That is, lossless compression can be performed by entropy coding the residual signals obtained through intra prediction and inter prediction without converting or quantizing them.

또한, 종래의 H.264/AVC와 비교하여 약 2 배 이상의 압축 효율을 갖는 것으로 알려져 있는 차세대 비디오 압축 표준 기술로 HEVC(High Efficiency Video Coding)에 대한 표준화가 최근에 완료되었다. In addition, standardization for HEVC (High Efficiency Video Coding) was recently completed as a next-generation video compression standard technology known to have a compression efficiency of about twice that of the conventional H.264/AVC.

HEVC는 쿼드트리(quadtree) 구조를 가진 코딩 유닛(CU: Coding Unit), 예측 유닛(PU: Prediction Unit), 변환 유닛(TU: Transform Unit)을 정의하고 있으며, 샘플 적응적 오프셋(SAO: Sample Adaptive Offset), 디블록킹 필터(Deblocking filter)와 같은 추가적인 인루프 필터를 적용하고 있다. 또한, 기존의 인트라 예측(intra prediction) 및 인터 예측(inter prediction)을 개선하여 압축 부호화 효율을 향상시키고 있다. HEVC defines a Coding Unit (CU), Prediction Unit (PU), and Transform Unit (TU) with a quadtree structure, and Sample Adaptive Offset (SAO). Additional in-loop filters such as Offset and Deblocking filters are applied. In addition, compression coding efficiency is being improved by improving existing intra prediction and inter prediction.

인트라 예측에서는 현재 부호화하고자 하는 화소 주위의 화소를 직접 또는 여러 화소를 사용하여 필터링 등을 거쳐 생성된 값을 현재 화소에 대한 예측값으로 사용하여 부호화를 수행한다. 또한, 예측을 통해 생성된 값과 현재 화소값과의 차이값을 그 이외의 추가 정보(인트라 예측 모드에 대한 정보, 예컨대, DC 모드, 수직 방향 모드 또는 수평 방향 모드 등)를 같이 전송하여 부호화를 진행한다. In intra prediction, encoding is performed using the value generated through filtering, etc., directly or using multiple pixels around the pixel to be currently encoded, as a prediction value for the current pixel. In addition, the difference between the value generated through prediction and the current pixel value is transmitted along with additional information (information about intra prediction mode, such as DC mode, vertical mode, or horizontal mode, etc.) to enable encoding. Proceed.

그러나, HEVC에 따른 Planar 모드의 경우, 현재 화소가 현재 블록의 내부로 갈수록 참조 화소와의 거리가 멀어져 예측의 정확도가 떨어지는 문제점이 있다.However, in the case of planar mode according to HEVC, there is a problem in that the closer the current pixel is to the inside of the current block, the farther the distance from the reference pixel becomes, resulting in lower prediction accuracy.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 인트라 예측의 정확도를 높여 부호화 효율을 향상시키는 인트라 예측 방법을 제공하는데 있다.The purpose of the present invention to solve the above problems is to provide an intra prediction method that improves coding efficiency by increasing the accuracy of intra prediction.

상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은, 인트라 예측의 정확도를 높여 부호화된 비디오를 복호화하는 방법을 제공하는데 있다.Another purpose of the present invention to solve the above problems is to provide a method for decoding encoded video by increasing the accuracy of intra prediction.

상기와 같은 문제점을 해결하기 위한 본 발명의 또 다른 목적은, 인트라 예측의 정확도를 높여 부호화된 비디오를 복호화하는 장치를 제공하는데 있다.Another purpose of the present invention to solve the above problems is to provide an apparatus for decoding encoded video by increasing the accuracy of intra prediction.

상기 목적을 달성하기 위한 본 발명의 실시예에 따른 인트라 예측 방법은, 현재 화소를 포함하는 현재 블록에 대한 인트라 예측에 있어서, 현재 블록의 우측 상단의 화소(T)와 제1 참조 화소를 이용하여 제1 예측값을 생성하는 단계와, 현재 블록의 좌측 하단의 화소(L)와 제2 참조 화소를 이용하여 제2 예측값을 생성하는 단계와, 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성하는 단계를 포함한다.The intra prediction method according to an embodiment of the present invention to achieve the above object uses the pixel (T) at the upper right of the current block and the first reference pixel in intra prediction for the current block including the current pixel. Generating a first predicted value, generating a second predicted value using the lower left pixel (L) of the current block and a second reference pixel, and using the first predicted value and the second predicted value to determine the current pixel. It includes generating a final predicted value.

여기에서, 상기 현재 블록의 우측 상단의 화소(T)는 현재 블록의 우측 상단의 화소(TR), 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들 중 선택된 화소 및 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소 중 어느 하나이고, 상기 현재 블록의 좌측 하단의 화소(L)는 현재 블록의 좌측 하단의 화소(LB), 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들 중 선택된 화소 및 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소 중 어느 하나일 수 있다. Here, the pixel (T) in the upper right corner of the current block is the pixel (TR) in the upper right corner of the current block, the pixel selected among the pixels located on the same horizontal line as the pixel (TR) in the upper right corner of the current block, and the current block. is one of the pixels created by filtering pixels located on the same horizontal line as the upper right pixel (TR), and the lower left pixel (L) of the current block is the lower left pixel (LB) of the current block. ), a pixel selected among pixels located on the same vertical line as the lower left pixel (LB) of the current block, and a pixel created by filtering pixels located on the same vertical line as the lower left pixel (LB) of the current block. It can be any one of them.

여기에서, 상기 제1 참조 화소는 현재 화소와 동일한 수평 라인에 속하고 현재 화소에 인접한 화소이고, 상기 제2 참조 화소는 현재 화소와 동일한 수직 라인에 속하고 현재 화소에 인접한 화소일 수 있다. Here, the first reference pixel may be a pixel belonging to the same horizontal line as the current pixel and adjacent to the current pixel, and the second reference pixel may be a pixel belonging to the same vertical line as the current pixel and adjacent to the current pixel.

여기에서, 상기 인트라 예측 방법은, 현재 블록을 적어도 두 개의 영역으로 구획하고, 구획된 영역 별로 순차적인 인트라 예측을 수행할 수 있다. Here, the intra prediction method can partition the current block into at least two regions and perform sequential intra prediction for each partitioned region.

여기에서, 상기 제1 예측값을 생성하는 단계는 현재 블록의 우측 상단의 화소(TR)와 현재 화소와 동일한 수평 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제1 예측값을 생성하고, 제2 예측값을 생성하는 단계는 현재 블록의 좌측 하단의 화소(LB)와 현재 화소와 동일한 수직 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제2 예측값을 생성할 수 있다. Here, the step of generating the first predicted value generates the first predicted value by applying weights to the pixel (TR) in the upper right corner of the current block and the pixels that belong to the same horizontal line as the current pixel and are adjacent to the current block, respectively, In the step of generating the second prediction value, the second prediction value may be generated by applying weight to the lower left pixel (LB) of the current block and the pixels that belong to the same vertical line as the current pixel and are adjacent to the current block.

여기에서, 가중치는 현재 블록의 방향성에 기반하여 결정될 수 있다. Here, the weight may be determined based on the direction of the current block.

여기에서, 현재 블록의 방향성은, 수평의 방향성 및 수직의 방향성으로 구분될 수 있다. Here, the direction of the current block can be divided into horizontal direction and vertical direction.

여기에서, 상기 최종 예측값을 생성하는 단계는, 제1 예측값과 제2 예측값을 평균하여 최종 예측값을 생성할 수 있다. Here, in the step of generating the final predicted value, the final predicted value may be generated by averaging the first predicted value and the second predicted value.

상기 다른 목적을 달성하기 위한 본 발명의 실시예에 따른 비디오 복호화 방법은, 수신한 비트스트림을 복호화하여 현재 화소에 대한 잔차값과 인트라 예측 정보를 포함하는 복원 정보를 생성하는 단계와, 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 우측 상단의 화소(T)와 제1 참조 화소를 이용하여 제1 예측값을 생성하는 단계와, 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 좌측 하단의 화소(L)와 제2 참조 화소를 이용하여 제2 예측값을 생성하는 단계와, 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성하는 단계를 포함한다. A video decoding method according to an embodiment of the present invention for achieving the above other object includes the steps of decoding a received bitstream and generating restoration information including a residual value for the current pixel and intra prediction information, and intra prediction information. A step of generating a first prediction value using a pixel (T) at the upper right of the current block including the current pixel and a first reference pixel based on, and the left side of the current block including the current pixel based on intra prediction information It includes generating a second predicted value using the lower pixel (L) and a second reference pixel, and generating a final predicted value for the current pixel using the first predicted value and the second predicted value.

여기에서, 상기 비디오 복호화 방법은, 최종 예측값에 현재 화소에 대한 잔차값을 가산하여 복원 영상을 생성하는 단계를 더 포함할 수 있다. Here, the video decoding method may further include generating a restored image by adding the residual value for the current pixel to the final prediction value.

상기 또 다른 목적을 달성하기 위한 본 발명의 실시예에 따른 비디오 복호화 장치는, 수신한 비트스트림을 복호화하여 현재 화소에 대한 잔차값과 인트라 예측 정보를 포함하는 복원 정보를 생성하는 엔트로피 복호화부와, 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 우측 상단의 화소(T)와 제1 참조 화소를 이용하여 제1 예측값을 생성하고, 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 좌측 하단의 화소(L)와 제2 참조 화소를 이용하여 제2 예측값을 생성하며, 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성하는 인트라 예측부를 포함한다.A video decoding device according to an embodiment of the present invention for achieving the above other object includes an entropy decoding unit that decodes a received bitstream and generates reconstruction information including a residual value and intra prediction information for the current pixel; Based on the intra prediction information, a first prediction value is generated using the upper right pixel (T) of the current block including the current pixel and the first reference pixel, and the first prediction value is generated using the first reference pixel of the current block including the current pixel based on the intra prediction information. It includes an intra prediction unit that generates a second predicted value using the lower left pixel (L) and a second reference pixel, and generates a final predicted value for the current pixel using the first and second predicted values.

상기와 같은 본 발명에 따른 인트라 예측을 이용한 비디오 부호화/복호화 방법 및 장치는 보다 상관 관계가 높은 참조 화소를 이용한 인트라 예측을 수행함으로써 인트라 예측의 정확도를 향상시킬 수 있다.The video encoding/decoding method and device using intra prediction according to the present invention as described above can improve the accuracy of intra prediction by performing intra prediction using reference pixels with a higher correlation.

또한, Planar 모드를 적용함에 있어, 현재 블록의 방향성에 기반한 가중치를 적용함으로써 인트라 예측의 정확도를 향상시킬 수 있다.Additionally, when applying Planar mode, the accuracy of intra prediction can be improved by applying weights based on the direction of the current block.

도 1은 HEVC 표준에 따른 인트라 예측 모드를 설명하기 위한 개념도이다.
도 2는 HEVC 표준에 따른 Planar 모드를 설명하기 위한 개념도이다.
도 3은 본 발명의 일 실시예에 따른 인트라 예측을 설명하기 위한 개념도이다.
도 4는 본 발명의 다른 실시예에 따른 인트라 예측을 설명하기 위한 개념도이다.
도 5는 본 발명의 또 다른 실시예에 따른 인트라 예측을 설명하기 위한 개념도이다.
도 6은 본 발명의 또 다른 실시예에 따른 인트라 예측을 설명하기 위한 개념도이다.
도 7은 본 발명의 실시예에 따른 인트라 예측 방법을 수행하는 비디오 부호화 장치를 설명하기 위한 블록도이다.
도 8은 본 발명의 실시예에 따른 인트라 예측 방법을 수행하는 비디오 복호화 장치를 설명하기 위한 블록도이다.
Figure 1 is a conceptual diagram for explaining the intra prediction mode according to the HEVC standard.
Figure 2 is a conceptual diagram to explain Planar mode according to the HEVC standard.
Figure 3 is a conceptual diagram for explaining intra prediction according to an embodiment of the present invention.
Figure 4 is a conceptual diagram for explaining intra prediction according to another embodiment of the present invention.
Figure 5 is a conceptual diagram for explaining intra prediction according to another embodiment of the present invention.
Figure 6 is a conceptual diagram for explaining intra prediction according to another embodiment of the present invention.
Figure 7 is a block diagram illustrating a video encoding device that performs an intra prediction method according to an embodiment of the present invention.
Figure 8 is a block diagram for explaining a video decoding device that performs an intra prediction method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention. While describing each drawing, similar reference numerals are used for similar components.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

이하에서 후술할 영상 부호화 장치(Video Encoding Apparatus), 영상 복호화 장치(Video Decoding Apparatus)는 개인용 컴퓨터(PC: Personal Computer), 노트북 컴퓨터, 개인 휴대 단말기(PDA: Personal Digital Assistant), 휴대형 멀티미디어 플레이어(PMP: Portable Multimedia Player), 플레이스테이션 포터블(PSP: PlayStation Portable), 무선 통신 단말기(Wireless Communication Terminal), 스마트폰(Smart Phone), TV 응용 서버와 서비스 서버 등 서버 단말기일 수 있으며, 각종 기기 또 등과 같은 사용자 단말기이거나 는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, 영상을 부호화하거나 복호화하거나 부호화 또는 복호화를 위해 화면간 또는 화면내 예측하기 위한 각종 프로그램과 데이터를 저장하기 위한 메모리, 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하는 다양한 장치를 의미할 수 있다.The video encoding apparatus (Video Encoding Apparatus) and video decoding apparatus (Video Decoding Apparatus), which will be described later, are used in personal computers (PCs), laptop computers, personal digital assistants (PDAs), and portable multimedia players (PMPs). : It can be a server terminal such as Portable Multimedia Player, PlayStation Portable (PSP), Wireless Communication Terminal, Smart Phone, TV application server and service server, and various devices such as It is a user terminal or a communication device such as a communication modem for communicating with a wired or wireless communication network, memory and programs for storing various programs and data for encoding or decoding images or predicting between screens or within screens for encoding or decoding. It can refer to various devices equipped with a microprocessor for execution, calculation, and control.

또한, 영상 부호화 장치에 의해 비트스트림으로 부호화된 영상은 실시간 또는 비실시간으로 인터넷, 근거리 무선 통신망, 무선랜망, 와이브로망, 이동통신망 등의 유무선 통신망 등을 통하거나 케이블, 범용 직렬 버스(USB: Universal Serial Bus) 등과 같은 다양한 통신 인터페이스를 통해 영상 복호화 장치로 전송되어 영상 복호화 장치에서 복호화되어 영상으로 복원되고 재생될 수 있다.In addition, the video encoded into a bitstream by the video encoding device is transmitted in real time or non-real time through wired and wireless communication networks such as the Internet, wireless short-range communication network, wireless LAN network, WiBro network, and mobile communication network, or through cable or universal serial bus (USB: Universal It can be transmitted to a video decoding device through various communication interfaces such as Serial Bus, decoded by the video decoding device, restored to video, and played back.

통상적으로 동영상은 일련의 픽처(Picture)로 구성될 수 있으며, 각 픽처들은 프레임 또는 블록(Block)과 같은 소정의 영역으로 분할될 수 있다.Typically, a video may be composed of a series of pictures, and each picture may be divided into predetermined areas such as frames or blocks.

또한, HEVC(High Efficiency Video Coding) 표준은 부호화 단위(CU: Coding Unit), 예측 단위(PU: Prediction Unit), 변환 단위(TU: Transform Unit)의 개념을 정의하고 있다. 부화화 단위는 기존의 매크로블록(Macroblock)과 유사하나 가변적으로 부호화 단위의 크기를 조절하면서 부호화를 수행할 수 있도록 한다. 예측 단위는 더 이상 분할되지 않는 부호화 단위에서 결정되며 예측 종류(Prediction Type)와 예측 단위 분할(PU splitting) 과정을 통하여 결정될 수 있다. 변환 단위는 변환과 양자화를 위한 변환 단위로 예측 단위의 크기보다 클 수 있지만 부호화 단위보다는 클 수 없다. 따라서, 본 발명에 있어 블록은 유닛과 동등한 의미로 이해될 수 있다. Additionally, the High Efficiency Video Coding (HEVC) standard defines the concepts of coding unit (CU), prediction unit (PU), and transform unit (TU). The encoding unit is similar to the existing macroblock, but allows encoding to be performed while variably adjusting the size of the encoding unit. The prediction unit is determined from a coding unit that is no longer split and can be determined through a prediction type and prediction unit splitting (PU splitting) process. The transformation unit is a transformation unit for transformation and quantization and can be larger than the size of the prediction unit, but cannot be larger than the coding unit. Therefore, in the present invention, a block can be understood to have the same meaning as a unit.

또한, 현재 블록 또는 현재 화소를 부호화하거나 복호화하는데 참조되는 블록 또는 화소를 참조 블록(Reference Block) 또는 참조 화소(Reference Pixel)라고 한다. 또한, 이하에 기재된 "픽처(picture)"이라는 용어는 영상(image), 프레임(frame) 등과 같은 동등한 의미를 갖는 다른 용어로 대치되어 사용될 수 있음을 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다.Additionally, a block or pixel that is referenced for encoding or decoding the current block or current pixel is called a reference block or reference pixel. In addition, those with ordinary knowledge in the technical field to which this embodiment belongs will understand that the term "picture" described below can be used in place of other terms with equivalent meaning, such as image, frame, etc. When you grow up, you will understand.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings.

도 1은 HEVC 표준에 따른 인트라 예측 모드를 설명하는 개념도이고, 도 2는 HEVC 표준에 따른 Planar 모드를 설명하기 위한 개념도이다. Figure 1 is a conceptual diagram explaining the intra prediction mode according to the HEVC standard, and Figure 2 is a conceptual diagram explaining the Planar mode according to the HEVC standard.

도 1을 참조하면, HEVC 표준은 35개의 인트라 예측 모드를 제공한다. 예측 모드의 개수가 증가함에 따라 모드 정보를 전송하기 위한 오버헤드 비트가 늘어나지만, 다양한 예측 모드를 사용함으로써 더욱 정확한 예측을 수행하여 예측 오류를 줄일 수 있다. Referring to Figure 1, the HEVC standard provides 35 intra prediction modes. As the number of prediction modes increases, the overhead bits for transmitting mode information increase, but by using various prediction modes, more accurate prediction can be performed and prediction error can be reduced.

0번 모드는 Planar 모드, 1번 모드는 DC 모드, 2번 내지 34번 모드는 방향성 모드(angular mode)를 나타낸다. 각각의 인트라 예측 모드를 간략히 설명하면 다음과 같다. Mode 0 represents planar mode, mode 1 represents DC mode, and modes 2 to 34 represent angular mode. Each intra prediction mode is briefly described as follows.

Planar 모드는 시각적으로 부드러운 영상을 효율적으로 부호화하도록 설계된 방법으로 화소값이 점진적으로 변화하는 영역을 예측하는데 효율적이고, DC 모드는 현재 예측 블록의 주변 화소들의 평균값을 예측값으로 사용한다. Planar mode is a method designed to efficiently encode visually smooth images and is efficient for predicting areas where pixel values gradually change, while DC mode uses the average value of surrounding pixels of the current prediction block as the predicted value.

또한, Angular mode는 수직, 수평 방향을 포함해 총 33개의 방향성에 기반하여 예측을 수행한다. 수직 모드(Vertical mode) 또는 수평 모드(Horizontal mode)는 수직 또는 수평 방향으로 주변 화소값을 복사하여 예측값으로 사용한다. 한편, 수직 및 수평 모드 이외의 방향성 예측 모드는 45도를 32개로 구획한 방향으로 인트라 예측을 수행하며, 원심(10)을 기준으로 동일한 각도로 나뉘기 때문에 각 예측 방향에 따른 화소는 등간격이 아니므로 선형 보간을 통하여 예측값을 생성한다.Additionally, Angular mode performs predictions based on a total of 33 directions, including vertical and horizontal directions. Vertical mode or horizontal mode copies surrounding pixel values in the vertical or horizontal direction and uses them as predicted values. Meanwhile, directional prediction modes other than vertical and horizontal modes perform intra prediction in directions divided by 45 degrees into 32 directions, and since they are divided into equal angles based on the centroid (10), pixels according to each prediction direction are equally spaced. Therefore, the predicted value is generated through linear interpolation.

도 2를 참조한 Planar 모드에 따르면, 먼저, 현재 블록의 우측 상단에 위치하는 화소(TR)와 현재 화소와 동일한 수평 라인에 속하고 현재 블록에 인접한 화소를 이용하여 제1 예측값을 얻을 수 있다. 또한, 현재 블록의 좌측 하단의 화소(LB)와 현재 화소와 동일한 수직 라인에 속하고 현재 블록에 인접한 화소를 이용하여 제2 예측값을 얻을 수 있다. 그리고, 제1 예측값과 제2 예측값의 평균값을 현재 화소의 예측값으로 결정할 수 있다. According to the Planar mode referring to FIG. 2, first, a first prediction value can be obtained using a pixel (TR) located in the upper right corner of the current block and a pixel that belongs to the same horizontal line as the current pixel and is adjacent to the current block. Additionally, a second prediction value can be obtained using the pixel (LB) at the bottom left of the current block and a pixel that belongs to the same vertical line as the current pixel and is adjacent to the current block. And, the average value of the first and second predicted values can be determined as the predicted value of the current pixel.

도 2에서, 어두운 영역에 해당하는 화소는 현재 블록에 인접한 화소를 의미할 수 있다. 즉, 현재 블록은 밝은 영역의 8×8 사이즈 블록으로 나타낼 수 있다. 다만, 현재 블록의 사이즈는 8×8 에 한정되는 것은 아니다. 따라서, 현재 화소는 현재 블록에 포함되고, 부호화/복호화의 대상이 되는 화소를 의미할 수 있다. In FIG. 2, the pixel corresponding to the dark area may mean a pixel adjacent to the current block. In other words, the current block can be represented as an 8×8 block in a bright area. However, the current block size is not limited to 8×8. Accordingly, the current pixel may refer to a pixel included in the current block and subject to encoding/decoding.

그러나, Planar 모드는 현재 블록의 우측 상단에 위치하는 화소(TR)와 현재 화소와 동일한 수평 라인에 속하고 현재 블록에 인접한 화소로부터 거리가 멀고, 현재 블록의 좌측 하단의 화소(LB)와 현재 화소와 동일한 수직 라인에 속하고 현재 블록에 인접한 화소로부터 거리가 먼 현재 화소의 경우 예측의 정확도가 떨어질 수 있다. However, in Planar mode, the pixel (TR) located in the upper right corner of the current block belongs to the same horizontal line as the current pixel and is far away from the pixel adjacent to the current block, and the pixel (LB) located in the lower left corner of the current block and the current pixel If the current pixel belongs to the same vertical line and is distant from the pixel adjacent to the current block, prediction accuracy may decrease.

도 3은 본 발명의 일 실시예에 따른 인트라 예측을 설명하기 위한 개념도이다. Figure 3 is a conceptual diagram for explaining intra prediction according to an embodiment of the present invention.

HEVC에 따른 Planar 모드는 도 2에 표시된 현재 블록의 우측 상단의 화소(TR)와 현재 블록의 좌측 하단의 화소(LB)를 참조 화소로 사용한다. Planar mode according to HEVC uses the upper right pixel (TR) and the lower left pixel (LB) of the current block shown in FIG. 2 as reference pixels.

이와 비교하여, 도 3을 참조하면 본 발명의 실시예에 따라 변형된 Planar 모드는 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들 중 선택된 화소를 참조 화소로 사용할 수 있다. 또한, 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소를 참조 화소로 사용할 수 있다. 예를 들어, 도 3에서 T1 내지 Tn에 위치한 화소들 중에 하나를 참조 화소로 결정하거나, T1 내지 Tn에 필터링을 적용하여 생성된 화소를 참조 화소로 결정할 수 있다. In comparison, referring to FIG. 3, the Planar mode modified according to an embodiment of the present invention can use a selected pixel among pixels located on the same horizontal line as the pixel (TR) at the top right of the current block as a reference pixel. Additionally, a pixel generated by performing filtering on pixels located on the same horizontal line as the upper-right pixel (TR) of the current block can be used as a reference pixel. For example, in FIG. 3, one of the pixels located at T 1 to T n may be determined as the reference pixel, or a pixel generated by applying filtering to T 1 to T n may be determined as the reference pixel.

여기서, 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들 중 선택된 화소 또는 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소를 현재 블록의 우측 상단의 화소(T)로 정의할 수 있다. 더 나아가, 현재 블록의 우측 상단의 화소(T)는 현재 블록의 우측 상단의 화소(TR)를 포함하는 개념일 수 있다. Here, a pixel selected from among pixels located on the same horizontal line as the upper-right pixel (TR) of the current block, or a pixel created by filtering pixels located on the same horizontal line as the upper-right pixel (TR) of the current block. can be defined as the pixel (T) in the upper right corner of the current block. Furthermore, the pixel (T) at the top right of the current block may be a concept that includes the pixel (TR) at the top right of the current block.

한편, 본 발명의 실시예에 따라 변형된 Planar 모드는 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들 중 선택된 화소를 참조 화소로 사용할 수 있다. 또한, 현재 블록의 좌측 하단의 화소(TR)와 동일한 수직 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소를 참조 화소로 사용할 수 있다. 예를 들어, 도 3에서 L1 내지 Ln에 위치한 화소들 중에 하나를 참조 화소로 결정하거나, L1 내지 Ln에 필터링을 적용하여 생성된 화소를 참조 화소로 결정할 수 있다.Meanwhile, the Planar mode modified according to an embodiment of the present invention can use a selected pixel among pixels located on the same vertical line as the lower left pixel (LB) of the current block as a reference pixel. Additionally, a pixel generated by filtering pixels located on the same vertical line as the lower left pixel (TR) of the current block can be used as a reference pixel. For example, in FIG. 3, one of the pixels located at L 1 to L n may be determined as the reference pixel, or a pixel generated by applying filtering to L 1 to L n may be determined as the reference pixel.

여기서, 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들 중 선택된 화소 또는 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소를 현재 블록의 우측 상단의 화소(T)로 정의할 수 있다. 더 나아가, 현재 블록의 좌측 하단의 화소(L)는 현재 블록의 좌측 하단의 화소(L)를 포함하는 개념일 수 있다.Here, a pixel selected from among pixels located on the same vertical line as the lower left pixel (LB) of the current block or a pixel created by filtering pixels located on the same vertical line as the lower left pixel (LB) of the current block. can be defined as the pixel (T) in the upper right corner of the current block. Furthermore, the pixel (L) at the bottom left of the current block may be a concept that includes the pixel (L) at the bottom left of the current block.

따라서, 현재 블록의 우측 상단의 화소(T)와 현재 블록의 좌측 하단의 화소(L)의 개념을 사용하여 후술하는 실시예들을 설명한다.Accordingly, embodiments described later will be described using the concepts of the pixel (T) at the upper right of the current block and the pixel (L) at the lower left of the current block.

도 4는 본 발명의 다른 실시예에 따른 인트라 예측을 설명하기 위한 개념도이고, 도 5는 본 발명의 또 다른 실시예에 따른 인트라 예측을 설명하기 위한 개념도이다. 도 4 및 도 5에서 현재 블록은 밝은 영역의 8×8 사이즈 블록으로 나타날 수 있다. 다만, 현재 블록의 사이즈는 8×8 에 한정되는 것은 아니다.FIG. 4 is a conceptual diagram for explaining intra prediction according to another embodiment of the present invention, and FIG. 5 is a conceptual diagram for explaining intra prediction according to another embodiment of the present invention. In FIGS. 4 and 5, the current block may appear as an 8×8 block in a bright area. However, the current block size is not limited to 8×8.

도 4 및 도 5를 참조하여 본 발명의 실시예에 따라 변형된 Planar 모드에 따른 인트라 예측을 설명한다. 현재 블록의 우측 상단의 화소(T)와 현재 화소와 동일한 수평 라인에 속하고 현재 화소에 인접한 화소인 제1 참조 화소를 이용하여 제1 예측값을 생성할 수 있다. 또한, 현재 블록의 좌측 하단의 화소(L)와 현재 화소와 동일한 수직 라인에 속하고 현재 화소에 인접한 화소인 제2 참조 화소를 이용하여 생성할 수 있다. 예컨대, 우측 상단의 화소(T)와 제1 참조 화소를 이용한 보간을 수행하여 제1 예측값을 생성하고, 좌측 하단의 화소(L)와 제2 참조 화소를 이용한 보간을 수행하여 제2 예측값을 생성할 수 있다. With reference to FIGS. 4 and 5 , intra prediction according to a modified Planar mode according to an embodiment of the present invention will be described. The first predicted value can be generated using the pixel (T) at the top right of the current block and the first reference pixel, which is a pixel adjacent to the current pixel and belonging to the same horizontal line as the current pixel. Additionally, it can be generated using the pixel (L) at the bottom left of the current block and a second reference pixel, which is a pixel adjacent to the current pixel and belonging to the same vertical line as the current pixel. For example, the first predicted value is generated by performing interpolation using the upper right pixel (T) and the first reference pixel, and the second predicted value is generated by performing interpolation using the lower left pixel (L) and the second reference pixel. can do.

한편, 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성할 수 있다. 예컨대, 제1 예측값과 제2 예측값을 평균하여 최종 예측값을 생성할 수 있다. Meanwhile, the final predicted value for the current pixel can be generated using the first and second predicted values. For example, the final predicted value may be generated by averaging the first and second predicted values.

먼저, 도 4a를 보면, 현재 블록에서 좌측 상단에 위치한 현재 화소에 대해서 인트라 예측을 수행할 수 있다. 즉, 현재 블록에서 좌측 상단에 위치한 현재 화소부터 인트라 예측을 시작할 수 있다.First, looking at FIG. 4A, intra prediction can be performed on the current pixel located in the upper left corner of the current block. In other words, intra prediction can start from the current pixel located in the upper left corner of the current block.

여기서, 현재 블록에 포함되고 인트라 예측의 시작점이 되는 현재 화소는 기존의 Planar 모드와 동일한 방법에 의해 인트라 예측이 수행될 수 있다. 즉, 제1 참조 화소와 제2 참조 화소는 현재 블록에 인접한 블록에 포함되는 화소일 수 있다. Here, intra prediction can be performed on the current pixel that is included in the current block and is the starting point for intra prediction using the same method as the existing Planar mode. That is, the first reference pixel and the second reference pixel may be pixels included in a block adjacent to the current block.

도 4b 및 도 4c를 보면, 인트라 예측의 방향은 수평 방향으로 순차적으로 수행될 수 있다. 예를 들어, 현재 블록의 최 상측에 위치한 열(row)에 포함되는 현재 화소에 대한 인트라 예측이 완료된 후에 다음(아래쪽 방향) 열(row)에 대한 인트라 예측이 수행될 수 있다. 즉, 래스터 스캔 방향(raster scan order)으로 인트라 예측이 수행될 수 있다. Referring to FIGS. 4B and 4C, the direction of intra prediction may be performed sequentially in the horizontal direction. For example, after intra prediction for the current pixel included in the row located at the top of the current block is completed, intra prediction for the next (downward) row may be performed. That is, intra prediction can be performed in the raster scan order.

다음으로, 도 5a를 보면, 현재 블록에서 좌측 상단에 위치한 현재 화소에 대해서 인트라 예측을 수행할 수 있다. 즉, 현재 블록에서 좌측 상단에 위치한 현재 화소부터 인트라 예측을 시작할 수 있다.Next, looking at FIG. 5A, intra prediction can be performed on the current pixel located in the upper left corner of the current block. In other words, intra prediction can start from the current pixel located in the upper left corner of the current block.

여기서, 현재 블록에 포함되고 인트라 예측의 시작점이 되는 현재 화소는 기존의 Planar 모드와 동일한 방법에 의해 인트라 예측이 수행될 수 있다. 즉, 제1 참조 화소와 제2 참조 화소는 현재 블록에 인접한 블록에 포함되는 화소일 수 있다. Here, intra prediction can be performed on the current pixel that is included in the current block and is the starting point for intra prediction using the same method as the existing Planar mode. That is, the first reference pixel and the second reference pixel may be pixels included in a block adjacent to the current block.

도 5b 및 도 5c를 보면, 인트라 예측의 방향은 수직 방향으로 순차적으로 수행될 수 있다. 예를 들어, 현재 블록의 최 좌측에 위치하는 행(column)에 포함되는 현재 화소에 대한 인트라 예측이 완료된 후에 다음(오른쪽 방향) 행(column)에 대한 인트라 예측이 수행될 수 있다. Referring to FIGS. 5B and 5C, the direction of intra prediction may be performed sequentially in the vertical direction. For example, after intra prediction for the current pixel included in the leftmost column of the current block is completed, intra prediction for the next (rightward) column may be performed.

도 4 및 도 5의 실시예에 따르면, 현재 블록에서 좌측 상단에 위치하는 현재 화소로부터 인트라 예측이 시작되는 것으로 설명하였으나, 현재 블록에서 다른 위치에 있는 현재 화소로부터 인트라 예측이 시작될 수 있음은 물론이다. 또한, 수평 방향 또는 수직 방향으로 순차적인 인트라 예측이 수행되는 실시예를 기재하였으나, 대각 방향으로 순차적인 인트라 예측이 수행될 수 있음은 물론이다. 여기서, 대각 방향은 업-라이트 대각(Up-right digonal) 방향을 의미할 수 있다. According to the embodiments of FIGS. 4 and 5, intra prediction is described as starting from the current pixel located in the upper left corner of the current block. However, of course, intra prediction can start from the current pixel located in a different position in the current block. . In addition, although an embodiment in which sequential intra prediction is performed in the horizontal or vertical direction has been described, it goes without saying that sequential intra prediction can be performed in the diagonal direction. Here, the diagonal direction may mean an up-right diagonal direction.

본 발명의 실시예에 따르면, 현재 화소와 동일한 수평 라인에 속하고 현재 화소에 인접한 화소 및 현재 화소와 동일한 수직 라인에 속하고 현재 화소에 인접한 화소를 참조 화소로 활용함으로써 인트라 예측의 정확도를 향상시킬 수 있다. According to an embodiment of the present invention, the accuracy of intra prediction can be improved by using a pixel that belongs to the same horizontal line as the current pixel and is adjacent to the current pixel and a pixel that belongs to the same vertical line as the current pixel and is adjacent to the current pixel as reference pixels. You can.

도 6은 본 발명의 또 다른 실시예에 따른 인트라 예측을 설명하기 위한 개념도이다. Figure 6 is a conceptual diagram for explaining intra prediction according to another embodiment of the present invention.

도 6을 참조하면, 현재 블록을 적어도 두 개의 영역으로 구획하여 Planar 모드를 수행할 수 있다. 즉, 제1 영역(10)에 대한 인트라 예측을 수행한 후, 제2 영역(20)에 대한 인트라 예측을 수행할 수 있다. 인트라 예측이 완료된 제1 영역에 위치한 화소를 참조 화소로 이용할 수 있으므로, 인트라 예측의 정확도를 보다 향상시킬 수 있다. Referring to FIG. 6, Planar mode can be performed by dividing the current block into at least two areas. That is, after performing intra prediction on the first area 10, intra prediction on the second area 20 may be performed. Since the pixel located in the first area where intra prediction has been completed can be used as a reference pixel, the accuracy of intra prediction can be further improved.

예를 들어, 현재 블록의 최 하측에 위치한 열(row)와 현재 블록의 최 우측에 위치하는 행(column)에 대해 인트라 예측을 먼저 수행하고, 나머지 영역(20)에 대한 인트라 예측이 수행될 수 있다. For example, intra prediction may be performed first on the row located at the bottom of the current block and the row located at the rightmost side of the current block, and then intra prediction may be performed on the remaining area 20. there is.

이러한 경우, 현재 블록에서 좌측 상단에 위치한 현재 화소가 아닌 다른 위치에 있는 현재 화소부터 인트라 예측이 시작될 수 있다. 예컨대, 현재 블록에서 우측 하단에 위치한 현재 화소로부터 인트라 예측이 수행될 수 있다. In this case, intra prediction may start from the current pixel located in a position other than the current pixel located in the upper left corner of the current block. For example, intra prediction may be performed from the current pixel located in the lower right corner of the current block.

따라서, 본 발명의 실시예는 도 6과 같이 현재 블록을 구획하여 순차적으로 인트라 예측을 수행함으로써 인트라 예측의 정확도를 향상시킬 수 있다. 다만, 본 발명은 현재 블록을 다양한 영역으로 구획하여 인트라 예측을 순차적으로 수행할 수 있으며, 도 6에 따른 구획에 한정되는 것은 아니다. Accordingly, the embodiment of the present invention can improve the accuracy of intra prediction by partitioning the current block and sequentially performing intra prediction as shown in FIG. 6. However, the present invention can sequentially perform intra prediction by partitioning the current block into various areas, and is not limited to the partition according to FIG. 6.

도 2에 따른 Planar 모드에 따른 인트라 예측은 다음의 수학식 1과 같이 나타낼 수 있다.Intra prediction according to Planar mode according to FIG. 2 can be expressed as Equation 1 below.

수학식 1에서 x, y는 화소의 좌표값을 나타내고, nTbS은 블록의 크기를 나타낼 수 있다. 또한, p[x][y]는 x,y 좌표에 위치한 화소의 화소값을 나타낼 수 있으며, predSamples[x][y]는 예측된 화소값을 나타낼 수 있다.In Equation 1, x and y represent the coordinate values of the pixel, and nTbS may represent the size of the block. Additionally, p[x][y] may represent the pixel value of a pixel located at x,y coordinates, and predSamples[x][y] may represent the predicted pixel value.

본 발명의 실시예에 따르면, 현재 블록의 우측 상단의 화소(TR)와 현재 화소와 동일한 수평 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제1 예측값을 생성할 수 있다. 또한, 현재 블록의 좌측 하단의 화소(LB)와 현재 화소와 동일한 수직 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제2 예측값을 생성할 수 있다. According to an embodiment of the present invention, the first prediction value can be generated by applying weights to the pixel (TR) in the upper right corner of the current block and the pixels that belong to the same horizontal line as the current pixel and are adjacent to the current block. Additionally, a second prediction value can be generated by applying weights to the pixel (LB) at the bottom left of the current block and the pixels that belong to the same vertical line as the current pixel and are adjacent to the current block.

한편, 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성할 수 있다. 예컨대, 제1 예측값과 제2 예측값을 평균하여 최종 예측값을 생성할 수 있다. Meanwhile, the final predicted value for the current pixel can be generated using the first and second predicted values. For example, the final predicted value may be generated by averaging the first and second predicted values.

즉, 본 발명의 실시예에 따르면, 현재 블록의 우측 상단의 화소(TR), 현재 화소와 동일한 수평 라인에 속하고 현재 블록에 인접한 화소, 현재 블록의 좌측 하단의 화소(LB) 및 현재 화소와 동일한 수직 라인에 속하고 현재 블록에 인접한 화소 각각에 대하여 가중치가 적용될 수 있다. 여기서, 각각에 적용되는 가중치는 서로 같거나 다를 수 있다. That is, according to an embodiment of the present invention, the pixel (TR) at the upper right of the current block, the pixel belonging to the same horizontal line as the current pixel and adjacent to the current block, the pixel (LB) at the lower left of the current block, and the current pixel A weight may be applied to each pixel that belongs to the same vertical line and is adjacent to the current block. Here, the weights applied to each may be the same or different.

또한, 각각의 가중치는 현재 블록의 방향성에 기반하여 결정될 수 있으며, 현재 블록의 방향성은 수평의 방향성 및 수직의 방향성으로 구분될 수 있다. Additionally, each weight may be determined based on the directionality of the current block, and the directionality of the current block may be divided into horizontal direction and vertical direction.

예를 들어, 현재 블록에 대한 인트라 예측의 최적 모드를 구하기 위해 예측을 진행할 때 현재 블록의 방향성을 확인할 수 있다. 이 때, Planar mode를 사용하여 예측을 할 경우 이전에 구한 현재 블록의 방향 패턴에 따라 적절한 가중치를 부여하여 예측값을 생성할 수 있다. For example, when performing prediction to find the optimal mode of intra prediction for the current block, the directionality of the current block can be checked. At this time, when predicting using planar mode, the predicted value can be generated by assigning appropriate weights according to the previously obtained direction pattern of the current block.

다만, 현재 블록의 방향성은 수평의 방향성 및 수직의 방향성에 제한되는 것은 아니다. However, the directionality of the current block is not limited to horizontal direction and vertical direction.

본 발명의 실시예에 따라 참조 화소에 가중치가 적용되어 변형된 Planar 모드는 다음의 수학식 2와 같이 나타낼 수 있다.The Planar mode modified by applying weights to reference pixels according to an embodiment of the present invention can be expressed as Equation 2 below.

수학식 2에서 ωA, ωB, ωC, ωD는 가중치를 나타낼 수 있다. 따라서, ωA, ωB, ωC, ωD는 현재 블록의 방향성에 기반하여 결정될 수 있다. 예를 들어, 현재 블록의 방향성이 수직의 방향성을 갖는 경우, ωA, ωB가 ωC, ωD보다 클 수 있다. 또한, 현재 블록의 방향성이 수평의 방향성을 갖는 경우, ωA, ωB가 ωC, ωD보다 작을 수 있다. In Equation 2, ω A , ω B , ω C , and ω D may represent weights. Therefore, ω A , ω B , ω C , and ω D can be determined based on the direction of the current block. For example, if the current block has a vertical direction, ω A and ω B may be greater than ω C and ω D. Additionally, if the current block has a horizontal direction, ω A and ω B may be smaller than ω C and ω D.

한편, 가중치는 부호화 장치에서 설정하는 것이 가능하며, 다양한 단위에서 설정할 수 있다. 즉, 가중치는 블록 단위로 다르게 둘 수도, 픽쳐 단위로 같게 두는 등의 다양한 경우가 가능하다. 가중치에 대한 정보는 부호화 장치와 복호화 장치가 서로 약속 하에 설정할 수도 있다. 또한, 부호화 장치에서 시퀀스, 픽쳐, 블록 등의 단위로 가중치에 대한 정보를 복호화 장치로 보낼 수도 있다. Meanwhile, the weight can be set in the encoding device and can be set in various units. In other words, various cases are possible, such as the weights being set differently on a block-by-block basis or the weights being the same on a picture-by-picture basis. Information about the weight may be set by the encoding device and the decoding device under mutual agreement. Additionally, the encoding device may send information about the weight in units such as sequence, picture, or block to the decoding device.

도 7은 본 발명의 실시예에 따른 인트라 예측 방법을 수행하는 비디오 부호화 장치를 설명하기 위한 블록도이다. Figure 7 is a block diagram illustrating a video encoding device that performs an intra prediction method according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 실시예에 따른 인트라 예측 방법을 수행하는 비디오 부호화 장치는 감산기(110), 엔트로피 부호화부(120), 가산기(130), 인터 예측부(140), 인트라 예측부(150)를 포함한다. Referring to FIG. 7, a video encoding device that performs an intra prediction method according to an embodiment of the present invention includes a subtractor 110, an entropy encoder 120, an adder 130, an inter prediction unit 140, and an intra prediction unit. Includes (150).

손실 부호화 장치의 경우 변환과 양자화를 거쳐 엔트로피 부호화가 수행되나, 무손실 부호화의 경우 바로 엔트로피 부호화가 수행될 수 있다. 입력 영상이 들어오면 인트라 예측 또는 인터 예측을 통해 얻어진 잔차값을 엔트로피 부호화부로 전송할 수 있다. 다만, 본 발명의 실시예에 따른 부호화 장치(100)는 무손실 부호화 장치에 한정되는 것은 아니다. In the case of a lossy coding device, entropy coding is performed through transformation and quantization, but in the case of lossless coding, entropy coding can be performed immediately. When an input image comes in, the residual value obtained through intra-prediction or inter-prediction can be transmitted to the entropy encoder. However, the encoding device 100 according to an embodiment of the present invention is not limited to a lossless encoding device.

본 발명의 실시예에 따른 인트라 예측부(150)는, 현재 블록의 우측 상단의 화소(T)와 제1 참조 화소를 이용하여 제1 예측값을 생성할 수 있다. 또한, 인트라 예측부(150)는 현재 블록의 좌측 하단의 화소(L)와 제2 참조 화소를 이용하여 제2 예측값을 생성할 수 있다. 여기서, 제1 참조 화소는 현재 화소와 동일한 수평 라인에 속하고 현재 화소에 인접한 화소이고, 제2 참조 화소는 현재 화소와 동일한 수직 라인에 속하고 상기 현재 화소에 인접한 화소일 수 있다. The intra prediction unit 150 according to an embodiment of the present invention may generate a first prediction value using the upper right pixel (T) of the current block and the first reference pixel. Additionally, the intra prediction unit 150 may generate a second prediction value using the lower left pixel (L) of the current block and the second reference pixel. Here, the first reference pixel may be a pixel belonging to the same horizontal line as the current pixel and adjacent to the current pixel, and the second reference pixel may be a pixel belonging to the same vertical line as the current pixel and adjacent to the current pixel.

여기서, 현재 블록의 우측 상단의 화소(T)는 현재 블록의 우측 상단의 화소(TR), 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들 중 선택된 화소 및 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소 중 어느 하나일 수 있다. Here, the pixel at the top right of the current block (T) is the pixel at the top right of the current block (TR), the pixel selected among the pixels located on the same horizontal line as the pixel at the top right of the current block (TR), and the pixel on the right side of the current block. It may be one of the pixels created by filtering pixels located on the same horizontal line as the top pixel TR.

또한, 현재 블록의 좌측 하단의 화소(L)는 현재 블록의 좌측 하단의 화소(LB), 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들 중 선택된 화소 및 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소 중 어느 하나일 수 있다. In addition, the pixel at the bottom left of the current block (L) is the pixel at the bottom left of the current block (LB), the pixel selected among the pixels located on the same vertical line as the pixel at the bottom left of the current block (LB), and the pixel at the bottom left of the current block. It may be one of the pixels created by filtering pixels located on the same vertical line as the lower pixel LB.

인트라 예측부(150)는 현재 블록을 적어도 두 개의 영역으로 구획하고, 구획된 영역 별로 순차적인 인트라 예측을 수행할 수 있다. The intra prediction unit 150 may partition the current block into at least two regions and perform sequential intra prediction for each partitioned region.

더 나아가, 인트라 예측부(150)는 현재 블록의 우측 상단의 화소(TR)와 현재 화소와 동일한 수평 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제1 예측값을 생성할 수 있다. 또한, 인트라 예측부(150)는 현재 블록의 좌측 하단의 화소(LB)와 현재 화소와 동일한 수직 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제2 예측값을 생성할 수 있다. Furthermore, the intra prediction unit 150 may generate a first prediction value by applying weights to the upper right pixel (TR) of the current block and pixels that belong to the same horizontal line as the current pixel and are adjacent to the current block. Additionally, the intra prediction unit 150 may generate a second prediction value by applying weights to the lower left pixel LB of the current block and pixels that belong to the same vertical line as the current pixel and are adjacent to the current block.

여기서, 가중치는 현재 블록의 방향성에 기반하여 결정될 수 있으며, 현재 블록의 방향성은 수평의 방향성 및 수직의 방향성으로 구분될 수 있다. Here, the weight may be determined based on the direction of the current block, and the direction of the current block may be divided into horizontal direction and vertical direction.

결과적으로, 인트라 예측부(150)는 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성할 수 있다. 예컨대, 제1 예측값과 제2 예측값을 평균하여 최종 예측값을 생성할 수 있다. As a result, the intra prediction unit 150 can generate a final prediction value for the current pixel using the first prediction value and the second prediction value. For example, the final predicted value may be generated by averaging the first and second predicted values.

감산기(110)는 최종 예측값과 현재 화소의 화소값의 차이값을 잔차값으로 생성할 수 있다. The subtractor 110 may generate the difference between the final predicted value and the pixel value of the current pixel as a residual value.

또한, 부호화 장치(100)는 시퀀스, 픽처, 블록 등의 단위로 가중치에 대한 정보를 복호화 장치로 보낼 수 있다.Additionally, the encoding device 100 may send information about weights in units such as sequences, pictures, and blocks to the decoding device.

이외에 무손실 부호화 장치는 손실 부호화 장치와 유사하므로 간단히 설명한다. 엔트로피 부호화부(120)는 잔차 영상에 대해 엔트로피 부호화를 수행하고, 가산기(130)는 잔차 영상과 예측 영상을 더하여 복원 영상을 생성하며, 인터 예측부(140)는 움직임 추정을 통한 화면간 예측을 수행할 수 있다. In addition, since the lossless coding device is similar to the lossy coding device, it will be briefly described. The entropy encoding unit 120 performs entropy encoding on the residual image, the adder 130 generates a restored image by adding the residual image and the prediction image, and the inter prediction unit 140 performs inter-screen prediction through motion estimation. It can be done.

도 8은 본 발명의 실시예에 따른 인트라 예측 방법을 수행하는 비디오 복호화 장치를 설명하기 위한 블록도이다. Figure 8 is a block diagram for explaining a video decoding device that performs an intra prediction method according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 실시예에 따른 복호화 장치는 엔트로피 복호화부(210), 가산기(220), 인트라 예측부(230) 및 인터 예측부(240)를 포함한다.Referring to FIG. 8, the decoding device according to an embodiment of the present invention includes an entropy decoding unit 210, an adder 220, an intra prediction unit 230, and an inter prediction unit 240.

손실 복호화 장치의 경우 엔트로피 복호화를 수행한 후 역양자화와 역변환이 수행되나, 무손실 복호화의 경우 역양자화와 역변환이 수행되지 않을 수 있다. 즉, 비트스트림을 복호화하여 현재 화소에 대한 잔차값을 얻고, 현재 화소에 대한 잔차값에 최종 예측값을 가산함으로써 복원 영상을 생성할 수 있다. 다만, 본 발명의 실시예에 따른 복호화 장치는 무손실 복호화 장치에 한정되는 것은 아니다. In the case of a lossy decoding device, inverse quantization and inverse transformation are performed after performing entropy decoding, but in the case of lossless decoding, inverse quantization and inverse transformation may not be performed. That is, a reconstructed image can be generated by decoding the bitstream to obtain the residual value for the current pixel and adding the final predicted value to the residual value for the current pixel. However, the decoding device according to an embodiment of the present invention is not limited to a lossless decoding device.

엔트로피 복호화부(210)는 수신한 비트스트림을 복호화하여 현재 화소에 대한 잔차값 및 인트라 예측 정보를 포함하는 복원 정보를 생성할 수 있다. 여기서, 인트라 예측 정보는 본 발명의 실시예에 따라 변형된 Planar 모드에 대한 정보를 포함할 수 있다. The entropy decoder 210 may decode the received bitstream and generate restoration information including a residual value and intra prediction information for the current pixel. Here, the intra prediction information may include information about the Planar mode modified according to an embodiment of the present invention.

인트라 예측부(230)는 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 우측 상단의 화소(T)와 제1 참조 화소를 이용하여 제1 예측값을 생성할 수 있다. 또한, 인트라 예측부(230)는 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 좌측 하단의 화소(L)와 제2 참조 화소를 이용하여 제2 예측값을 생성할 수 있다. The intra prediction unit 230 may generate a first prediction value based on the intra prediction information using the upper right pixel (T) of the current block including the current pixel and the first reference pixel. Additionally, the intra prediction unit 230 may generate a second prediction value using the lower left pixel (L) of the current block including the current pixel and the second reference pixel based on the intra prediction information.

여기서, 현재 블록의 우측 상단의 화소(T)는 현재 블록의 우측 상단의 화소(TR), 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들 중 선택된 화소 및 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소 중 어느 하나일 수 있다. Here, the pixel at the top right of the current block (T) is the pixel at the top right of the current block (TR), the pixel selected among the pixels located on the same horizontal line as the pixel at the top right of the current block (TR), and the pixel on the right side of the current block. It may be one of the pixels created by filtering pixels located on the same horizontal line as the top pixel TR.

또한, 현재 블록의 좌측 하단의 화소(L)는 현재 블록의 좌측 하단의 화소(LB), 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들 중 선택된 화소 및 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소 중 어느 하나일 수 있다. In addition, the pixel at the bottom left of the current block (L) is the pixel at the bottom left of the current block (LB), the pixel selected among the pixels located on the same vertical line as the pixel at the bottom left of the current block (LB), and the pixel at the bottom left of the current block. It may be one of the pixels created by filtering pixels located on the same vertical line as the lower pixel LB.

인트라 예측부(230)는 현재 블록을 적어도 두 개의 영역으로 구획하고, 구획된 영역 별로 순차적인 인트라 예측을 수행할 수 있다. The intra prediction unit 230 may partition the current block into at least two regions and perform sequential intra prediction for each partitioned region.

여기서, 제1 참조 화소는 현재 화소와 동일한 수평 라인에 속하고 현재 화소에 인접한 화소이고, 제2 참조 화소는 현재 화소와 동일한 수직 라인에 속하고 현재 화소에 인접한 화소일 수 있다.Here, the first reference pixel may be a pixel belonging to the same horizontal line as the current pixel and adjacent to the current pixel, and the second reference pixel may be a pixel belonging to the same vertical line as the current pixel and adjacent to the current pixel.

더 나아가, 인트라 예측부(230)는 현재 블록의 우측 상단의 화소(TR)와 현재 화소와 동일한 수평 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제1 예측값을 생성할 수 있다. 또한, 인트라 예측부(230)는 현재 블록의 좌측 하단의 화소(LB)와 현재 화소와 동일한 수직 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제2 예측값을 생성할 수 있다. Furthermore, the intra prediction unit 230 may generate a first prediction value by applying weights to the upper right pixel (TR) of the current block and the pixels that belong to the same horizontal line as the current pixel and are adjacent to the current block. Additionally, the intra prediction unit 230 may generate a second prediction value by applying weights to the lower left pixel LB of the current block and the pixels that belong to the same vertical line as the current pixel and are adjacent to the current block.

여기서, 가중치는 현재 블록의 방향성에 기반하여 결정될 수 있으며, 현재 블록의 방향성은 수평의 방향성 및 수직의 방향성으로 구분될 수 있다. Here, the weight may be determined based on the direction of the current block, and the direction of the current block may be divided into horizontal direction and vertical direction.

결과적으로, 인트라 예측부(230)는 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성할 수 있다. 예컨대, 제1 예측값과 제2 예측값을 평균하여 최종 예측값을 생성할 수 있다. As a result, the intra prediction unit 230 can generate a final prediction value for the current pixel using the first prediction value and the second prediction value. For example, the final predicted value may be generated by averaging the first and second predicted values.

또한, 가산기(220)는 잔차 영상과 예측 영상을 더하여 복원 영상을 생성할 수 있다. 즉, 가산기(220)는 최종 예측값에 현재 화소에 대한 잔차값을 가산하여 복원 영상을 생성할 수 있다. Additionally, the adder 220 may generate a restored image by adding the residual image and the predicted image. That is, the adder 220 can generate a restored image by adding the residual value for the current pixel to the final predicted value.

한편, 인터 예측부(240)는 움직임 추정을 통한 화면간 예측을 수행할 수 있다. Meanwhile, the inter prediction unit 240 can perform inter-screen prediction through motion estimation.

이외에 무손실 복호화 장치는 무손실 부호화 장치와 유사하므로 상세한 설명을 생략한다.In addition, since the lossless decoding device is similar to the lossless encoding device, detailed description is omitted.

상술한 본 발명의 실시예에 따른 부호화 장치 및 복호화 장치는 도 3 및 도 4에 대한 설명에 따른 인트라 예측을 수행할 수 있다. The encoding device and decoding device according to the embodiment of the present invention described above can perform intra prediction according to the description of FIGS. 3 and 4.

상술한 본 발명의 실시예에 따른 인트라 예측을 이용한 비디오 부호화/복호화 방법 및 장치는 보다 상관 관계가 높은 참조 화소를 이용한 인트라 예측을 수행함으로써 인트라 예측의 정확도를 향상시킬 수 있다. The video encoding/decoding method and device using intra prediction according to the above-described embodiment of the present invention can improve the accuracy of intra prediction by performing intra prediction using reference pixels with a higher correlation.

또한, Planar 모드를 적용함에 있어, 현재 블록의 방향성에 기반한 가중치를 적용함으로써 인트라 예측의 정확도를 향상시킬 수 있다.Additionally, when applying Planar mode, the accuracy of intra prediction can be improved by applying weights based on the direction of the current block.

따라서, 인트라 예측의 정확도를 향상시킴으로써 부화화/복호화 효율을 높일 수 있다. Therefore, by improving the accuracy of intra prediction, encoding/decoding efficiency can be increased.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described above with reference to preferred embodiments, those skilled in the art may make various modifications and changes to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that you can do it.

100: 부호화 장치 110: 감산기
120: 엔트로피 부호화부 130, 220: 가산기
140, 240: 인터 예측부 150, 230: 인트라 예측부
200: 복호화 장치
100: encoding device 110: subtractor
120: entropy encoding unit 130, 220: adder
140, 240: Inter prediction unit 150, 230: Intra prediction unit
200: Decryption device

Claims (15)

영상 복호화 방법에 있어서,
현재 블록을 2개의 영역으로 구획하는 단계;
상기 현재 블록의 제1 영역에 대한 화면내 예측을 수행하는 단계; 및
상기 화면내 예측이 완료된 제1 영역을 이용하여, 상기 현재 블록의 제2 영역에 대한 화면내 예측을 수행하는 단계를 포함하되,
상기 제1 영역에 대한 화면내 예측을 수행하는 단계는,
상기 제1 영역에 속한 현재 화소와 동일한 수평 라인에 속하는 상기 제1 영역의 주변 화소를 제1 참조 화소로 획득하는 단계;
상기 현재 화소와 동일한 수직 라인에 속하는 상기 제1 영역의 주변 화소를 제2 참조 화소로 획득하는 단계;
상기 제1 참조 화소와 상기 제2 참조 화소에 가중치를 적용하는 단계; 및
상기 가중치가 적용된 제1 참조 화소와 제2 참조 화소를 이용하여, 상기 현재 화소에 대한 예측값을 획득하는 단계를 포함하고,
상기 현재 블록은, 비트스트림을 엔트로피 복호화하여 획득한 상기 현재 화소의 잔차값 및 상기 예측값을 기초로 복원되는, 영상 복호화 방법.
In the video decoding method,
Dividing the current block into two areas;
performing intra-screen prediction on a first area of the current block; and
Comprising the step of performing intra-screen prediction on a second area of the current block using the first area for which intra-prediction has been completed,
The step of performing intra-screen prediction for the first area is:
Obtaining a peripheral pixel of the first area belonging to the same horizontal line as the current pixel belonging to the first area as a first reference pixel;
Obtaining a peripheral pixel of the first area belonging to the same vertical line as the current pixel as a second reference pixel;
applying weights to the first reference pixel and the second reference pixel; and
Obtaining a predicted value for the current pixel using the weighted first and second reference pixels,
The current block is reconstructed based on the residual value and the predicted value of the current pixel obtained by entropy decoding a bitstream.
제1항에 있어서,
상기 가중치는, 상기 제1 참조 화소에 적용되는 제1 가중치와 상기 제2 참조 화소에 적용되는 제2 가중치를 포함하는, 영상 복호화 방법.
According to paragraph 1,
The weight includes a first weight applied to the first reference pixel and a second weight applied to the second reference pixel.
제1항에 있어서,
상기 현재 화소에 대한 예측값을 획득하는 단계는,
상기 제1 참조 화소 및 상기 제1 영역의 우측 상단으로 인접한 화소를 이용하여 제1 예측값을 획득하는 단계를 포함하는, 영상 복호화 방법.
According to paragraph 1,
The step of obtaining a predicted value for the current pixel is:
An image decoding method comprising obtaining a first prediction value using the first reference pixel and a pixel adjacent to the upper right of the first area.
제3항에 있어서,
상기 현재 화소에 대한 예측값을 획득하는 단계는,
상기 제2 참조 화소 및 상기 제1 영역의 좌측 하단으로 인접한 화소를 이용하여 제2 예측값을 획득하는 단계를 더 포함하는, 영상 복호화 방법.
According to paragraph 3,
The step of obtaining a predicted value for the current pixel is:
An image decoding method further comprising obtaining a second predicted value using the second reference pixel and a pixel adjacent to the bottom left of the first area.
제4항에 있어서,
상기 현재 화소에 대한 예측값은, 상기 제1 예측값과 상기 제2 예측값을 이용하여 획득되는, 영상 복호화 방법.
According to paragraph 4,
An image decoding method wherein the predicted value for the current pixel is obtained using the first predicted value and the second predicted value.
제2항에 있어서,
상기 가중치는, 상기 현재 블록의 방향성 또는 상기 현재 화소의 위치 중 적어도 하나를 고려하여 결정되는, 영상 복호화 방법.
According to paragraph 2,
The weight is determined by considering at least one of the direction of the current block or the position of the current pixel.
제6항에 있어서,
상기 현재 블록의 방향성이 수평 방향성을 갖는 경우, 상기 제1 참조 화소에 적용되는 제1 가중치는 상기 제2 참조 화소에 적용되는 제2 가중치보다 작은, 영상 복호화 방법.
According to clause 6,
When the directionality of the current block is horizontal, the first weight applied to the first reference pixel is smaller than the second weight applied to the second reference pixel.
영상 부호화 방법에 있어서,
현재 블록을 2개의 영역으로 구획하는 단계;
상기 현재 블록의 제1 영역에 대한 화면내 예측을 수행하는 단계; 및
상기 화면내 예측이 완료된 제1 영역을 이용하여, 상기 현재 블록의 제2 영역에 대한 화면내 예측을 수행하는 단계를 포함하되,
상기 제1 영역에 대한 화면내 예측을 수행하는 단계는,
상기 제1 영역에 속한 현재 화소와 동일한 수평 라인에 속하는 상기 제1 영역의 주변 화소를 제1 참조 화소로 획득하는 단계;
상기 현재 화소와 동일한 수직 라인에 속하는 상기 제1 영역의 주변 화소를 제2 참조 화소로 획득하는 단계;
상기 제1 참조 화소와 상기 제2 참조 화소에 가중치를 적용하는 단계; 및
상기 가중치가 적용된 제1 참조 화소와 제2 참조 화소를 이용하여, 상기 현재 화소에 대한 예측값을 획득하는 단계를 포함하고,
상기 예측값과 상기 현재 화소의 화소 값을 기초로 획득한 잔차값에 대해 엔트로피 부호화를 수행하여 비트스트림이 생성되는, 영상 부호화 방법.
In the video encoding method,
Dividing the current block into two areas;
performing intra-screen prediction on a first area of the current block; and
Comprising the step of performing intra-screen prediction on a second area of the current block using the first area for which intra-prediction has been completed,
The step of performing intra-screen prediction for the first area is:
Obtaining a peripheral pixel of the first area belonging to the same horizontal line as the current pixel belonging to the first area as a first reference pixel;
Obtaining a peripheral pixel of the first area belonging to the same vertical line as the current pixel as a second reference pixel;
applying weights to the first reference pixel and the second reference pixel; and
Obtaining a predicted value for the current pixel using the weighted first and second reference pixels,
An image encoding method in which a bitstream is generated by performing entropy encoding on a residual value obtained based on the predicted value and the pixel value of the current pixel.
제8항에 있어서,
상기 가중치는, 상기 제1 참조 화소에 적용되는 제1 가중치와 상기 제2 참조 화소에 적용되는 제2 가중치를 포함하는, 영상 부호화 방법.
According to clause 8,
The weight includes a first weight applied to the first reference pixel and a second weight applied to the second reference pixel.
제8항에 있어서,
상기 현재 화소에 대한 예측값을 획득하는 단계는,
상기 제1 참조 화소 및 상기 제1 영역의 우측 상단으로 인접한 화소를 이용하여 제1 예측값을 획득하는 단계를 포함하는, 영상 부호화 방법.
According to clause 8,
The step of obtaining a predicted value for the current pixel is,
An image encoding method comprising obtaining a first prediction value using the first reference pixel and a pixel adjacent to the upper right of the first area.
제10항에 있어서,
상기 현재 화소에 대한 예측값을 획득하는 단계는,
상기 제2 참조 화소 및 상기 제1 영역의 좌측 하단으로 인접한 화소를 이용하여 제2 예측값을 획득하는 단계를 더 포함하는, 영상 부호화 방법.
According to clause 10,
The step of obtaining a predicted value for the current pixel is,
An image encoding method further comprising obtaining a second prediction value using the second reference pixel and a pixel adjacent to the bottom left of the first area.
제11항에 있어서,
상기 현재 화소에 대한 예측값은, 상기 제1 예측값과 상기 제2 예측값을 이용하여 획득되는, 영상 부호화 방법.
According to clause 11,
An image encoding method wherein the predicted value for the current pixel is obtained using the first predicted value and the second predicted value.
제9항에 있어서,
상기 가중치는, 상기 현재 블록의 방향성 또는 상기 현재 화소의 위치 중 적어도 하나를 고려하여 결정되는, 영상 부호화 방법.
According to clause 9,
The weight is determined by considering at least one of the direction of the current block or the position of the current pixel.
제13항에 있어서,
상기 현재 블록의 방향성이 수평 방향성을 갖는 경우, 상기 제1 참조 화소에 적용되는 제1 가중치는 상기 제2 참조 화소에 적용되는 제2 가중치보다 작은, 영상 부호화 방법.
According to clause 13,
When the directionality of the current block is horizontal, the first weight applied to the first reference pixel is smaller than the second weight applied to the second reference pixel.
영상 부호화 방법에 의해 생성된 비트스트림을 저장하는 컴퓨터 판독가능한 기록 매체에 있어서,
상기 영상 부호화 방법은, 현재 블록을 2개의 영역으로 구획하는 단계;
상기 현재 블록의 제1 영역에 대한 화면내 예측을 수행하는 단계; 및
상기 화면내 예측이 완료된 제1 영역을 이용하여, 상기 현재 블록의 제2 영역에 대한 화면내 예측을 수행하는 단계를 포함하되,
상기 제1 영역에 대한 화면내 예측을 수행하는 단계는,
상기 제1 영역에 속한 현재 화소와 동일한 수평 라인에 속하는 상기 제1 영역의 주변 화소를 제1 참조 화소로 획득하는 단계;
상기 현재 화소와 동일한 수직 라인에 속하는 상기 제1 영역의 주변 화소를 제2 참조 화소로 획득하는 단계;
상기 제1 참조 화소와 상기 제2 참조 화소에 가중치를 적용하는 단계; 및
상기 가중치가 적용된 제1 참조 화소와 제2 참조 화소를 이용하여, 상기 현재 화소에 대한 예측값을 획득하는 단계를 포함하고,
상기 예측값과 상기 현재 화소의 화소 값을 기초로 획득한 잔차값에 대해 엔트로피 부호화를 수행하여 상기 비트스트림이 생성되는, 컴퓨터 판독가능한 기록 매체.
A computer-readable recording medium storing a bitstream generated by an image encoding method,
The video encoding method includes dividing the current block into two regions;
performing intra-screen prediction on a first area of the current block; and
Comprising the step of performing intra-screen prediction on a second area of the current block using the first area for which intra-prediction has been completed,
The step of performing intra-screen prediction for the first area is:
Obtaining a peripheral pixel of the first area belonging to the same horizontal line as the current pixel belonging to the first area as a first reference pixel;
Obtaining a peripheral pixel of the first area belonging to the same vertical line as the current pixel as a second reference pixel;
applying weights to the first reference pixel and the second reference pixel; and
Obtaining a predicted value for the current pixel using the weighted first and second reference pixels,
A computer-readable recording medium in which the bitstream is generated by performing entropy encoding on a residual value obtained based on the predicted value and the pixel value of the current pixel.
KR1020230155557A 2021-01-28 2023-11-10 Method and apparatus for video coding/decoding using intra prediction KR20230157287A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230155557A KR20230157287A (en) 2021-01-28 2023-11-10 Method and apparatus for video coding/decoding using intra prediction

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020210012380A KR102327318B1 (en) 2020-07-06 2021-01-28 Method and apparatus for video coding/decoding using intra prediction
KR1020230007926A KR102602702B1 (en) 2021-01-28 2023-01-19 Method and apparatus for video coding/decoding using intra prediction
KR1020230155557A KR20230157287A (en) 2021-01-28 2023-11-10 Method and apparatus for video coding/decoding using intra prediction

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020230007926A Division KR102602702B1 (en) 2021-01-28 2023-01-19 Method and apparatus for video coding/decoding using intra prediction

Publications (1)

Publication Number Publication Date
KR20230157287A true KR20230157287A (en) 2023-11-16

Family

ID=74572473

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020210012380A KR102327318B1 (en) 2020-07-06 2021-01-28 Method and apparatus for video coding/decoding using intra prediction
KR1020210154407A KR102492073B1 (en) 2021-01-28 2021-11-11 Method and apparatus for video coding/decoding using intra prediction
KR1020230007926A KR102602702B1 (en) 2021-01-28 2023-01-19 Method and apparatus for video coding/decoding using intra prediction
KR1020230155557A KR20230157287A (en) 2021-01-28 2023-11-10 Method and apparatus for video coding/decoding using intra prediction

Family Applications Before (3)

Application Number Title Priority Date Filing Date
KR1020210012380A KR102327318B1 (en) 2020-07-06 2021-01-28 Method and apparatus for video coding/decoding using intra prediction
KR1020210154407A KR102492073B1 (en) 2021-01-28 2021-11-11 Method and apparatus for video coding/decoding using intra prediction
KR1020230007926A KR102602702B1 (en) 2021-01-28 2023-01-19 Method and apparatus for video coding/decoding using intra prediction

Country Status (1)

Country Link
KR (4) KR102327318B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024058645A1 (en) * 2022-09-16 2024-03-21 이현창 Apparatus and method for detecting overhead power line disconnection failure

Also Published As

Publication number Publication date
KR20230014101A (en) 2023-01-27
KR102327318B1 (en) 2021-11-16
KR102492073B1 (en) 2023-01-27
KR20210013279A (en) 2021-02-03
KR20210137420A (en) 2021-11-17
KR102602702B1 (en) 2023-11-14

Similar Documents

Publication Publication Date Title
US11051028B2 (en) Video encoding and decoding method
KR102418957B1 (en) Video encoding/decoding method and apparatus using prediction based on in-loop filtering
US11825099B2 (en) Image encoding/decoding method and apparatus using intra-screen prediction
KR101587927B1 (en) Method and apparatus for video coding/decoding using intra prediction
CN112385231B (en) Image encoding/decoding method and apparatus
KR20230157287A (en) Method and apparatus for video coding/decoding using intra prediction
KR102028016B1 (en) Method and apparatus for video coding/decoding using intra prediction
KR20230145002A (en) Image decoding method and apparatus using inter picture prediction
KR102225881B1 (en) Method and apparatus for video coding/decoding using intra prediction
KR102225880B1 (en) Method and apparatus for video coding/decoding using intra prediction
KR102225879B1 (en) Method and apparatus for video coding/decoding using intra prediction
KR101540510B1 (en) Method of intra prediction using additional prediction candidate and apparatus thereof
KR102101491B1 (en) Method and apparatus for video coding/decoding using intra prediction
KR20180080114A (en) Intra prediction method considering redundancy of prediction blocks and video decoding apparatus performing intra prediction
KR20180080115A (en) Intraprediction method and apparatus for performing adaptive filtering on reference pixels
KR102586198B1 (en) Image decoding method and apparatus using inter picture prediction
KR20240037907A (en) Method and apparatus of video decoder with extended intra block copy
KR20200050111A (en) Method and apparatus for encoding/decoding image using transformation of axis of color coordinate

Legal Events

Date Code Title Description
A107 Divisional application of patent