KR102327318B1 - Method and apparatus for video coding/decoding using intra prediction - Google Patents

Method and apparatus for video coding/decoding using intra prediction Download PDF

Info

Publication number
KR102327318B1
KR102327318B1 KR1020210012380A KR20210012380A KR102327318B1 KR 102327318 B1 KR102327318 B1 KR 102327318B1 KR 1020210012380 A KR1020210012380 A KR 1020210012380A KR 20210012380 A KR20210012380 A KR 20210012380A KR 102327318 B1 KR102327318 B1 KR 102327318B1
Authority
KR
South Korea
Prior art keywords
pixel
current block
prediction
intra prediction
current
Prior art date
Application number
KR1020210012380A
Other languages
Korean (ko)
Other versions
KR20210013279A (en
Inventor
정제창
김기백
이경준
김재훈
유종상
이상구
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200082864A external-priority patent/KR102225881B1/en
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020210012380A priority Critical patent/KR102327318B1/en
Publication of KR20210013279A publication Critical patent/KR20210013279A/en
Priority to KR1020210154407A priority patent/KR102492073B1/en
Application granted granted Critical
Publication of KR102327318B1 publication Critical patent/KR102327318B1/en
Priority to KR1020230007926A priority patent/KR102602702B1/en
Priority to KR1020230155557A priority patent/KR20230157287A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

인트라 예측의 정확도를 향상시켜 부호화/복호화 효율을 향상시키는 방법 및 장치가 개시된다. 비디오 복호화 방법은, 수신한 비트스트림을 복호화하여 현재 화소에 대한 잔차값과 인트라 예측 정보를 포함하는 복원 정보를 생성하는 단계와, 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 우측 상단의 화소(T)와 제1 참조 화소를 이용하여 제1 예측값을 생성하는 단계와, 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 좌측 하단의 화소(L)와 제2 참조 화소를 이용하여 제2 예측값을 생성하는 단계와, 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성하는 단계를 포함한다. Planar 모드를 적용함에 있어, 보다 상관 관계가 높은 참조 화소를 이용하거나 현재 블록의 방향성에 기반한 가중치를 적용함으로써 인트라 예측의 정확도를 향상시킬 수 있다.Disclosed are a method and an apparatus for improving encoding/decoding efficiency by improving intra prediction accuracy. The video decoding method comprises the steps of: decoding a received bitstream to generate restoration information including a residual value for a current pixel and intra prediction information; generating a first prediction value using the pixel (T) and the first reference pixel; and using the pixel (L) at the lower left of the current block including the current pixel and the second reference pixel based on the intra prediction information generating a second prediction value; and generating a final prediction value for the current pixel by using the first prediction value and the second prediction value. In applying the planar mode, the accuracy of intra prediction can be improved by using a reference pixel having a higher correlation or by applying a weight based on the directionality of the current block.

Description

인트라 예측을 이용한 비디오 부호화/복호화 방법 및 장치{METHOD AND APPARATUS FOR VIDEO CODING/DECODING USING INTRA PREDICTION}Video encoding/decoding method and apparatus using intra prediction

본 발명은 비디오의 부호화 및 복호화에 관한 것으로, 더욱 상세하게는 인트라 예측의 정확도를 향상시켜 부호화/복호화 효율을 향상시키는 방법 및 장치에 관한 것이다.The present invention relates to video encoding and decoding, and more particularly, to a method and apparatus for improving encoding/decoding efficiency by improving intra prediction accuracy.

최근에는 스마트폰과 스마트TV의 등장으로 인하여 유·무선 통신 네트워크를 통한 동영상 데이터의 이용이 폭발적으로 증가하고 있는 추세이다. 동영상 데이터는 일반 텍스트 데이터에 비하여 정보 전달 능력이 뛰어난 반면에 용량이 매우 크기 때문에 제한된 대역폭을 가진 네트워크 채널에서 데이터를 전송하거나 재생 및 저장하는데 어려움이 존재한다. 또한, 어플리케이션의 요구에 따라서 방대한 동영상 정보가 적절히 처리되어야 하므로, 동영상을 처리하기 위한 시스템 또한 높은 사양이 요구된다. Recently, due to the advent of smartphones and smart TVs, the use of video data through wired/wireless communication networks is explosively increasing. While video data has superior information delivery ability compared to plain text data, it has a very large capacity, so it is difficult to transmit, reproduce, and store data in a network channel with limited bandwidth. In addition, since vast amounts of video information must be appropriately processed according to application requirements, a system for processing video also requires high specifications.

비디오의 부호화에는 손실 부호화(Loss Coding)와 무손실 부호화(Lossless Coding)가 있다. H.264/AVC는 손실 부호화뿐만 아니라 무손실 부호화도 지원하며, 특히 무손실 부호화는 H.264/AVC FRExt(Fidelity Range Extension) 표준화에서 좀 더 효율적인 무손실 부호화 기술이 채택되었다. FRExt에서 채택된 무손실 부호화 기술은 데이터의 손실을 피하기 위하여 단순히 변환과 양자화를 수행하지 않는 방법으로 이루어졌다. 즉, 인트라 예측(Intra Prediction)과 인터 예측(Inter Prediction)을 통하여 구해진 잔차(residual) 신호들을 변환, 양자화하지 않고 바로 엔트로피 부호화(Entropy) 부호화함으로써 무손실 압축을 수행할 수 있다.Video coding includes loss coding and lossless coding. H.264/AVC supports not only lossy coding but also lossless coding. In particular, lossless coding is a more efficient lossless coding technique in H.264/AVC FRExt (Fidelity Range Extension) standardization. The lossless encoding technique adopted in FRExt was achieved by simply not performing transformation and quantization in order to avoid data loss. That is, lossless compression can be performed by directly entropy-encoding, without transforming and quantizing residual signals obtained through intra prediction and inter prediction.

또한, 종래의 H.264/AVC와 비교하여 약 2 배 이상의 압축 효율을 갖는 것으로 알려져 있는 차세대 비디오 압축 표준 기술로 HEVC(High Efficiency Video Coding)에 대한 표준화가 최근에 완료되었다. In addition, the standardization of HEVC (High Efficiency Video Coding) as a next-generation video compression standard technology known to have about two times or more compression efficiency compared to the conventional H.264/AVC has recently been completed.

HEVC는 쿼드트리(quadtree) 구조를 가진 코딩 유닛(CU: Coding Unit), 예측 유닛(PU: Prediction Unit), 변환 유닛(TU: Transform Unit)을 정의하고 있으며, 샘플 적응적 오프셋(SAO: Sample Adaptive Offset), 디블록킹 필터(Deblocking filter)와 같은 추가적인 인루프 필터를 적용하고 있다. 또한, 기존의 인트라 예측(intra prediction) 및 인터 예측(inter prediction)을 개선하여 압축 부호화 효율을 향상시키고 있다. HEVC defines a coding unit (CU), a prediction unit (PU), and a transform unit (TU) having a quadtree structure, and a sample adaptive offset (SAO: Sample Adaptive) Offset) and additional in-loop filters such as deblocking filters are applied. In addition, compression encoding efficiency is improved by improving existing intra prediction and inter prediction.

인트라 예측에서는 현재 부호화하고자 하는 화소 주위의 화소를 직접 또는 여러 화소를 사용하여 필터링 등을 거쳐 생성된 값을 현재 화소에 대한 예측값으로 사용하여 부호화를 수행한다. 또한, 예측을 통해 생성된 값과 현재 화소값과의 차이값을 그 이외의 추가 정보(인트라 예측 모드에 대한 정보, 예컨대, DC 모드, 수직 방향 모드 또는 수평 방향 모드 등)를 같이 전송하여 부호화를 진행한다. In intra prediction, encoding is performed using a value generated by filtering, etc. a pixel around a pixel to be encoded directly or using several pixels as a predicted value for the current pixel. Also, the difference between the value generated through prediction and the current pixel value is transmitted together with additional information (information on the intra prediction mode, for example, DC mode, vertical mode, or horizontal mode) to perform encoding. proceed

그러나, HEVC에 따른 Planar 모드의 경우, 현재 화소가 현재 블록의 내부로 갈수록 참조 화소와의 거리가 멀어져 예측의 정확도가 떨어지는 문제점이 있다.However, in the case of the planar mode according to HEVC, as the current pixel moves toward the inside of the current block, the distance from the reference pixel increases, resulting in poor prediction accuracy.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 인트라 예측의 정확도를 높여 부호화 효율을 향상시키는 인트라 예측 방법을 제공하는데 있다.SUMMARY OF THE INVENTION An object of the present invention to solve the above problems is to provide an intra prediction method for improving encoding efficiency by increasing intra prediction accuracy.

상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은, 인트라 예측의 정확도를 높여 부호화된 비디오를 복호화하는 방법을 제공하는데 있다.Another object of the present invention to solve the above problems is to provide a method of decoding an encoded video by increasing the accuracy of intra prediction.

상기와 같은 문제점을 해결하기 위한 본 발명의 또 다른 목적은, 인트라 예측의 정확도를 높여 부호화된 비디오를 복호화하는 장치를 제공하는데 있다.Another object of the present invention to solve the above problems is to provide an apparatus for decoding an encoded video by increasing the accuracy of intra prediction.

상기 목적을 달성하기 위한 본 발명의 실시예에 따른 인트라 예측 방법은, 현재 화소를 포함하는 현재 블록에 대한 인트라 예측에 있어서, 현재 블록의 우측 상단의 화소(T)와 제1 참조 화소를 이용하여 제1 예측값을 생성하는 단계와, 현재 블록의 좌측 하단의 화소(L)와 제2 참조 화소를 이용하여 제2 예측값을 생성하는 단계와, 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성하는 단계를 포함한다.In the intra prediction method according to an embodiment of the present invention for achieving the above object, in intra prediction for a current block including the current pixel, the pixel T at the upper right of the current block and the first reference pixel are used. generating a first prediction value; generating a second prediction value using the pixel (L) at the lower left of the current block and a second reference pixel; and using the first prediction value and the second prediction value for the current pixel generating a final predicted value.

여기에서, 상기 현재 블록의 우측 상단의 화소(T)는 현재 블록의 우측 상단의 화소(TR), 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들 중 선택된 화소 및 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소 중 어느 하나이고, 상기 현재 블록의 좌측 하단의 화소(L)는 현재 블록의 좌측 하단의 화소(LB), 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들 중 선택된 화소 및 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소 중 어느 하나일 수 있다. Here, the pixel T at the upper right of the current block is the pixel TR at the upper right of the current block, a selected pixel from among pixels located on the same horizontal line as the pixel TR at the upper right of the current block, and the current block is any one of the pixels generated by filtering pixels located on the same horizontal line as the upper right pixel TR of the current block, and the lower left pixel L of the current block is the lower left pixel LB ), a pixel generated by performing filtering on a selected pixel among pixels located on the same vertical line as the lower left pixel LB of the current block and pixels located on the same vertical line as the lower left pixel LB of the current block may be any one of

여기에서, 상기 제1 참조 화소는 현재 화소와 동일한 수평 라인에 속하고 현재 화소에 인접한 화소이고, 상기 제2 참조 화소는 현재 화소와 동일한 수직 라인에 속하고 현재 화소에 인접한 화소일 수 있다. Here, the first reference pixel may be a pixel belonging to the same horizontal line as the current pixel and adjacent to the current pixel, and the second reference pixel may be a pixel belonging to the same vertical line as the current pixel and adjacent to the current pixel.

여기에서, 상기 인트라 예측 방법은, 현재 블록을 적어도 두 개의 영역으로 구획하고, 구획된 영역 별로 순차적인 인트라 예측을 수행할 수 있다. Here, the intra prediction method may partition the current block into at least two regions, and sequentially perform intra prediction for each partitioned region.

여기에서, 상기 제1 예측값을 생성하는 단계는 현재 블록의 우측 상단의 화소(TR)와 현재 화소와 동일한 수평 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제1 예측값을 생성하고, 제2 예측값을 생성하는 단계는 현재 블록의 좌측 하단의 화소(LB)와 현재 화소와 동일한 수직 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제2 예측값을 생성할 수 있다. Here, the generating of the first predicted value includes applying a weight to the pixel (TR) at the upper right of the current block and the pixel belonging to the same horizontal line as the current pixel and adjacent to the current block to generate the first predicted value, The generating of the second predicted value may include applying a weight to the pixel LB at the lower left of the current block and the pixel belonging to the same vertical line as the current pixel and adjacent to the current block to generate the second predicted value.

여기에서, 가중치는 현재 블록의 방향성에 기반하여 결정될 수 있다. Here, the weight may be determined based on the directionality of the current block.

여기에서, 현재 블록의 방향성은, 수평의 방향성 및 수직의 방향성으로 구분될 수 있다. Here, the directionality of the current block may be divided into a horizontal directionality and a vertical directionality.

여기에서, 상기 최종 예측값을 생성하는 단계는, 제1 예측값과 제2 예측값을 평균하여 최종 예측값을 생성할 수 있다. Here, in the generating of the final predicted value, the final predicted value may be generated by averaging the first predicted value and the second predicted value.

상기 다른 목적을 달성하기 위한 본 발명의 실시예에 따른 비디오 복호화 방법은, 수신한 비트스트림을 복호화하여 현재 화소에 대한 잔차값과 인트라 예측 정보를 포함하는 복원 정보를 생성하는 단계와, 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 우측 상단의 화소(T)와 제1 참조 화소를 이용하여 제1 예측값을 생성하는 단계와, 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 좌측 하단의 화소(L)와 제2 참조 화소를 이용하여 제2 예측값을 생성하는 단계와, 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성하는 단계를 포함한다. A video decoding method according to an embodiment of the present invention for achieving the above another object comprises the steps of: decoding a received bitstream to generate restoration information including a residual value of a current pixel and intra prediction information; generating a first prediction value using the first reference pixel and the upper right pixel T of the current block including the current pixel based on the intra prediction information, and the left side of the current block including the current pixel based on intra prediction information generating a second predicted value using the lower pixel L and a second reference pixel; and generating a final predicted value for the current pixel by using the first predicted value and the second predicted value.

여기에서, 상기 비디오 복호화 방법은, 최종 예측값에 현재 화소에 대한 잔차값을 가산하여 복원 영상을 생성하는 단계를 더 포함할 수 있다. Here, the video decoding method may further include generating a reconstructed image by adding a residual value of the current pixel to the final prediction value.

상기 또 다른 목적을 달성하기 위한 본 발명의 실시예에 따른 비디오 복호화 장치는, 수신한 비트스트림을 복호화하여 현재 화소에 대한 잔차값과 인트라 예측 정보를 포함하는 복원 정보를 생성하는 엔트로피 복호화부와, 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 우측 상단의 화소(T)와 제1 참조 화소를 이용하여 제1 예측값을 생성하고, 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 좌측 하단의 화소(L)와 제2 참조 화소를 이용하여 제2 예측값을 생성하며, 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성하는 인트라 예측부를 포함한다.A video decoding apparatus according to an embodiment of the present invention for achieving the above another object includes an entropy decoding unit that decodes a received bitstream and generates restoration information including a residual value of a current pixel and intra prediction information; Based on the intra prediction information, a first prediction value is generated using the upper right pixel (T) and the first reference pixel of the current block including the current pixel, and based on the intra prediction information of the current block including the current pixel and an intra prediction unit that generates a second prediction value using the lower left pixel L and the second reference pixel, and generates a final prediction value for the current pixel by using the first prediction value and the second prediction value.

상기와 같은 본 발명에 따른 인트라 예측을 이용한 비디오 부호화/복호화 방법 및 장치는 보다 상관 관계가 높은 참조 화소를 이용한 인트라 예측을 수행함으로써 인트라 예측의 정확도를 향상시킬 수 있다.As described above, the video encoding/decoding method and apparatus using intra prediction according to the present invention can improve the accuracy of intra prediction by performing intra prediction using reference pixels with higher correlation.

또한, Planar 모드를 적용함에 있어, 현재 블록의 방향성에 기반한 가중치를 적용함으로써 인트라 예측의 정확도를 향상시킬 수 있다.In addition, when applying the planar mode, the accuracy of intra prediction can be improved by applying a weight based on the directionality of the current block.

도 1은 HEVC 표준에 따른 인트라 예측 모드를 설명하기 위한 개념도이다.
도 2는 HEVC 표준에 따른 Planar 모드를 설명하기 위한 개념도이다.
도 3은 본 발명의 일 실시예에 따른 인트라 예측을 설명하기 위한 개념도이다.
도 4는 본 발명의 다른 실시예에 따른 인트라 예측을 설명하기 위한 개념도이다.
도 5는 본 발명의 또 다른 실시예에 따른 인트라 예측을 설명하기 위한 개념도이다.
도 6은 본 발명의 또 다른 실시예에 따른 인트라 예측을 설명하기 위한 개념도이다.
도 7은 본 발명의 실시예에 따른 인트라 예측 방법을 수행하는 비디오 부호화 장치를 설명하기 위한 블록도이다.
도 8은 본 발명의 실시예에 따른 인트라 예측 방법을 수행하는 비디오 복호화 장치를 설명하기 위한 블록도이다.
1 is a conceptual diagram for explaining an intra prediction mode according to the HEVC standard.
2 is a conceptual diagram for explaining a planar mode according to the HEVC standard.
3 is a conceptual diagram for explaining intra prediction according to an embodiment of the present invention.
4 is a conceptual diagram for explaining intra prediction according to another embodiment of the present invention.
5 is a conceptual diagram for explaining intra prediction according to another embodiment of the present invention.
6 is a conceptual diagram for explaining intra prediction according to another embodiment of the present invention.
7 is a block diagram illustrating a video encoding apparatus performing an intra prediction method according to an embodiment of the present invention.
8 is a block diagram illustrating a video decoding apparatus performing an intra prediction method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that no other element is present in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하에서 후술할 영상 부호화 장치(Video Encoding Apparatus), 영상 복호화 장치(Video Decoding Apparatus)는 개인용 컴퓨터(PC: Personal Computer), 노트북 컴퓨터, 개인 휴대 단말기(PDA: Personal Digital Assistant), 휴대형 멀티미디어 플레이어(PMP: Portable Multimedia Player), 플레이스테이션 포터블(PSP: PlayStation Portable), 무선 통신 단말기(Wireless Communication Terminal), 스마트폰(Smart Phone), TV 응용 서버와 서비스 서버 등 서버 단말기일 수 있으며, 각종 기기 또 등과 같은 사용자 단말기이거나 는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, 영상을 부호화하거나 복호화하거나 부호화 또는 복호화를 위해 화면간 또는 화면내 예측하기 위한 각종 프로그램과 데이터를 저장하기 위한 메모리, 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하는 다양한 장치를 의미할 수 있다.A video encoding apparatus (Video Encoding Apparatus) and a video decoding apparatus (Video Decoding Apparatus), which will be described later, are a personal computer (PC), a notebook computer, a personal digital assistant (PDA), and a portable multimedia player (PMP). : Portable Multimedia Player), PlayStation Portable (PSP: PlayStation Portable), Wireless Communication Terminal, Smart Phone, TV application server and service server, etc. A user terminal or a communication device such as a communication modem for performing communication with a wired/wireless communication network; a memory for storing various programs and data for encoding or decoding an image, or inter- or intra-screen prediction for encoding or decoding; It may refer to various devices having a microprocessor for executing, calculating, and controlling the operation.

또한, 영상 부호화 장치에 의해 비트스트림으로 부호화된 영상은 실시간 또는 비실시간으로 인터넷, 근거리 무선 통신망, 무선랜망, 와이브로망, 이동통신망 등의 유무선 통신망 등을 통하거나 케이블, 범용 직렬 버스(USB: Universal Serial Bus) 등과 같은 다양한 통신 인터페이스를 통해 영상 복호화 장치로 전송되어 영상 복호화 장치에서 복호화되어 영상으로 복원되고 재생될 수 있다.In addition, the video encoded in the bitstream by the video encoding device is transmitted in real time or in non-real time through a wired/wireless communication network such as the Internet, a local area network, a wireless LAN network, a WiBro network, or a mobile communication network, or through a cable, a universal serial bus (USB: Universal Serial Bus), etc., may be transmitted to the image decoding apparatus through various communication interfaces, decoded in the image decoding apparatus, and restored as an image and reproduced.

통상적으로 동영상은 일련의 픽처(Picture)로 구성될 수 있으며, 각 픽처들은 프레임 또는 블록(Block)과 같은 소정의 영역으로 분할될 수 있다.In general, a moving picture may be composed of a series of pictures, and each picture may be divided into a predetermined area such as a frame or a block.

또한, HEVC(High Efficiency Video Coding) 표준은 부호화 단위(CU: Coding Unit), 예측 단위(PU: Prediction Unit), 변환 단위(TU: Transform Unit)의 개념을 정의하고 있다. 부화화 단위는 기존의 매크로블록(Macroblock)과 유사하나 가변적으로 부호화 단위의 크기를 조절하면서 부호화를 수행할 수 있도록 한다. 예측 단위는 더 이상 분할되지 않는 부호화 단위에서 결정되며 예측 종류(Prediction Type)와 예측 단위 분할(PU splitting) 과정을 통하여 결정될 수 있다. 변환 단위는 변환과 양자화를 위한 변환 단위로 예측 단위의 크기보다 클 수 있지만 부호화 단위보다는 클 수 없다. 따라서, 본 발명에 있어 블록은 유닛과 동등한 의미로 이해될 수 있다. In addition, the HEVC (High Efficiency Video Coding) standard defines the concepts of a coding unit (CU), a prediction unit (PU), and a transform unit (TU). The encoding unit is similar to an existing macroblock, but enables encoding to be performed while variably adjusting the size of the coding unit. A prediction unit is determined from a coding unit that is no longer split, and may be determined through a prediction type and a PU splitting process. A transformation unit is a transformation unit for transformation and quantization, and may be larger than a size of a prediction unit, but may not be larger than a coding unit. Accordingly, in the present invention, a block may be understood as equivalent to a unit.

또한, 현재 블록 또는 현재 화소를 부호화하거나 복호화하는데 참조되는 블록 또는 화소를 참조 블록(Reference Block) 또는 참조 화소(Reference Pixel)라고 한다. 또한, 이하에 기재된 "픽처(picture)"이라는 용어는 영상(image), 프레임(frame) 등과 같은 동등한 의미를 갖는 다른 용어로 대치되어 사용될 수 있음을 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다.In addition, a block or pixel referenced for encoding or decoding the current block or current pixel is referred to as a reference block or reference pixel. In addition, it is common knowledge in the art that the term “picture” described below may be used instead of other terms having the same meaning, such as an image, a frame, and the like. You can understand it when you grow up.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 HEVC 표준에 따른 인트라 예측 모드를 설명하는 개념도이고, 도 2는 HEVC 표준에 따른 Planar 모드를 설명하기 위한 개념도이다. 1 is a conceptual diagram illustrating an intra prediction mode according to the HEVC standard, and FIG. 2 is a conceptual diagram illustrating a planar mode according to the HEVC standard.

*도 1을 참조하면, HEVC 표준은 35개의 인트라 예측 모드를 제공한다. 예측 모드의 개수가 증가함에 따라 모드 정보를 전송하기 위한 오버헤드 비트가 늘어나지만, 다양한 예측 모드를 사용함으로써 더욱 정확한 예측을 수행하여 예측 오류를 줄일 수 있다. * Referring to FIG. 1, the HEVC standard provides 35 intra prediction modes. As the number of prediction modes increases, overhead bits for transmitting mode information increase. However, more accurate prediction can be performed by using various prediction modes to reduce prediction errors.

0번 모드는 Planar 모드, 1번 모드는 DC 모드, 2번 내지 34번 모드는 방향성 모드(angular mode)를 나타낸다. 각각의 인트라 예측 모드를 간략히 설명하면 다음과 같다. Mode 0 indicates a planar mode, mode 1 indicates a DC mode, and modes 2 to 34 indicate a directional mode (angular mode). A brief description of each intra prediction mode is as follows.

Planar 모드는 시각적으로 부드러운 영상을 효율적으로 부호화하도록 설계된 방법으로 화소값이 점진적으로 변화하는 영역을 예측하는데 효율적이고, DC 모드는 현재 예측 블록의 주변 화소들의 평균값을 예측값으로 사용한다. The planar mode is a method designed to efficiently encode a visually smooth image and is effective in predicting a region in which pixel values change gradually. In the DC mode, the average value of neighboring pixels of the current prediction block is used as a prediction value.

또한, Angular mode는 수직, 수평 방향을 포함해 총 33개의 방향성에 기반하여 예측을 수행한다. 수직 모드(Vertical mode) 또는 수평 모드(Horizontal mode)는 수직 또는 수평 방향으로 주변 화소값을 복사하여 예측값으로 사용한다. 한편, 수직 및 수평 모드 이외의 방향성 예측 모드는 45도를 32개로 구획한 방향으로 인트라 예측을 수행하며, 원심(10)을 기준으로 동일한 각도로 나뉘기 때문에 각 예측 방향에 따른 화소는 등간격이 아니므로 선형 보간을 통하여 예측값을 생성한다.In addition, Angular mode performs prediction based on a total of 33 directions including vertical and horizontal directions. In a vertical mode or a horizontal mode, a neighboring pixel value is copied in a vertical or horizontal direction and used as a prediction value. On the other hand, in directional prediction modes other than vertical and horizontal modes, intra prediction is performed in a direction in which 45 degrees are divided into 32, and since they are divided at the same angle based on the centrifugal 10, pixels according to each prediction direction are equally spaced. Therefore, predictive values are generated through linear interpolation.

도 2를 참조한 Planar 모드에 따르면, 먼저, 현재 블록의 우측 상단에 위치하는 화소(TR)와 현재 화소와 동일한 수평 라인에 속하고 현재 블록에 인접한 화소를 이용하여 제1 예측값을 얻을 수 있다. 또한, 현재 블록의 좌측 하단의 화소(LB)와 현재 화소와 동일한 수직 라인에 속하고 현재 블록에 인접한 화소를 이용하여 제2 예측값을 얻을 수 있다. 그리고, 제1 예측값과 제2 예측값의 평균값을 현재 화소의 예측값으로 결정할 수 있다. According to the planar mode with reference to FIG. 2 , first, a first prediction value may be obtained using a pixel TR located at the upper right of the current block and a pixel belonging to the same horizontal line as the current pixel and adjacent to the current block. In addition, the second predicted value may be obtained by using the pixel LB at the lower left of the current block and the pixel belonging to the same vertical line as the current pixel and adjacent to the current block. In addition, an average value of the first predicted value and the second predicted value may be determined as the predicted value of the current pixel.

도 2에서, 어두운 영역에 해당하는 화소는 현재 블록에 인접한 화소를 의미할 수 있다. 즉, 현재 블록은 밝은 영역의 8×8 사이즈 블록으로 나타낼 수 있다. 다만, 현재 블록의 사이즈는 8×8 에 한정되는 것은 아니다. 따라서, 현재 화소는 현재 블록에 포함되고, 부호화/복호화의 대상이 되는 화소를 의미할 수 있다. In FIG. 2 , a pixel corresponding to a dark area may mean a pixel adjacent to the current block. That is, the current block may be represented as an 8×8 size block in a bright area. However, the size of the current block is not limited to 8×8. Accordingly, the current pixel may mean a pixel included in the current block and subjected to encoding/decoding.

그러나, Planar 모드는 현재 블록의 우측 상단에 위치하는 화소(TR)와 현재 화소와 동일한 수평 라인에 속하고 현재 블록에 인접한 화소로부터 거리가 멀고, 현재 블록의 좌측 하단의 화소(LB)와 현재 화소와 동일한 수직 라인에 속하고 현재 블록에 인접한 화소로부터 거리가 먼 현재 화소의 경우 예측의 정확도가 떨어질 수 있다. However, in the planar mode, the pixel TR located at the upper right of the current block belongs to the same horizontal line as the current pixel, the distance is far from the pixel adjacent to the current block, and the pixel LB and the current pixel located at the lower left of the current block In the case of a current pixel belonging to the same vertical line as and far from a pixel adjacent to the current block, prediction accuracy may be reduced.

도 3은 본 발명의 일 실시예에 따른 인트라 예측을 설명하기 위한 개념도이다. 3 is a conceptual diagram for explaining intra prediction according to an embodiment of the present invention.

HEVC에 따른 Planar 모드는 도 2에 표시된 현재 블록의 우측 상단의 화소(TR)와 현재 블록의 좌측 하단의 화소(LB)를 참조 화소로 사용한다. The planar mode according to HEVC uses the pixel TR at the upper right of the current block and the pixel LB at the lower left of the current block shown in FIG. 2 as reference pixels.

이와 비교하여, 도 3을 참조하면 본 발명의 실시예에 따라 변형된 Planar 모드는 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들 중 선택된 화소를 참조 화소로 사용할 수 있다. 또한, 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소를 참조 화소로 사용할 수 있다. 예를 들어, 도 3에서 T1 내지 Tn에 위치한 화소들 중에 하나를 참조 화소로 결정하거나, T1 내지 Tn에 필터링을 적용하여 생성된 화소를 참조 화소로 결정할 수 있다. In comparison, referring to FIG. 3 , in the planar mode modified according to the embodiment of the present invention, a selected pixel among pixels located on the same horizontal line as the pixel TR at the upper right of the current block may be used as a reference pixel. Also, a pixel generated by performing filtering on pixels positioned on the same horizontal line as the upper right pixel TR of the current block may be used as a reference pixel. For example, one of the pixels located at T 1 to T n in FIG. 3 may be determined as the reference pixel, or a pixel generated by applying filtering to T 1 to T n may be determined as the reference pixel.

여기서, 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들 중 선택된 화소 또는 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소를 현재 블록의 우측 상단의 화소(T)로 정의할 수 있다. 더 나아가, 현재 블록의 우측 상단의 화소(T)는 현재 블록의 우측 상단의 화소(TR)를 포함하는 개념일 수 있다. Here, a pixel generated by filtering a selected pixel from among pixels located on the same horizontal line as the upper right pixel TR of the current block or pixels located on the same horizontal line as the upper right pixel TR of the current block may be defined as the pixel (T) at the upper right of the current block. Furthermore, the pixel T at the upper right of the current block may be a concept including the pixel TR at the upper right of the current block.

한편, 본 발명의 실시예에 따라 변형된 Planar 모드는 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들 중 선택된 화소를 참조 화소로 사용할 수 있다. 또한, 현재 블록의 좌측 하단의 화소(TR)와 동일한 수직 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소를 참조 화소로 사용할 수 있다. 예를 들어, 도 3에서 L1 내지 Ln에 위치한 화소들 중에 하나를 참조 화소로 결정하거나, L1 내지 Ln에 필터링을 적용하여 생성된 화소를 참조 화소로 결정할 수 있다.Meanwhile, in the planar mode modified according to the embodiment of the present invention, a selected pixel among pixels located on the same vertical line as the pixel LB at the lower left of the current block may be used as a reference pixel. Also, a pixel generated by performing filtering on pixels located on the same vertical line as the pixel TR at the lower left of the current block may be used as a reference pixel. For example, one of the pixels located in L 1 to L n in FIG. 3 may be determined as the reference pixel, or a pixel generated by applying filtering to L 1 to L n may be determined as the reference pixel.

여기서, 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들 중 선택된 화소 또는 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소를 현재 블록의 우측 상단의 화소(T)로 정의할 수 있다. 더 나아가, 현재 블록의 좌측 하단의 화소(L)는 현재 블록의 좌측 하단의 화소(L)를 포함하는 개념일 수 있다.Here, a pixel generated by filtering a selected pixel from among pixels located on the same vertical line as the lower left pixel LB of the current block or pixels located on the same vertical line as the lower left pixel LB of the current block may be defined as the pixel (T) at the upper right of the current block. Furthermore, the pixel L at the lower left of the current block may be a concept including the pixel L at the lower left of the current block.

따라서, 현재 블록의 우측 상단의 화소(T)와 현재 블록의 좌측 하단의 화소(L)의 개념을 사용하여 후술하는 실시예들을 설명한다.Accordingly, embodiments to be described later will be described using the concept of a pixel T at the upper right of the current block and a pixel L at the lower left of the current block.

도 4는 본 발명의 다른 실시예에 따른 인트라 예측을 설명하기 위한 개념도이고, 도 5는 본 발명의 또 다른 실시예에 따른 인트라 예측을 설명하기 위한 개념도이다. 도 4 및 도 5에서 현재 블록은 밝은 영역의 8×8 사이즈 블록으로 나타날 수 있다. 다만, 현재 블록의 사이즈는 8×8 에 한정되는 것은 아니다.4 is a conceptual diagram for explaining intra prediction according to another embodiment of the present invention, and FIG. 5 is a conceptual diagram for explaining intra prediction according to another embodiment of the present invention. 4 and 5 , the current block may be displayed as an 8×8 size block in a bright area. However, the size of the current block is not limited to 8×8.

*도 4 및 도 5를 참조하여 본 발명의 실시예에 따라 변형된 Planar 모드에 따른 인트라 예측을 설명한다. 현재 블록의 우측 상단의 화소(T)와 현재 화소와 동일한 수평 라인에 속하고 현재 화소에 인접한 화소인 제1 참조 화소를 이용하여 제1 예측값을 생성할 수 있다. 또한, 현재 블록의 좌측 하단의 화소(L)와 현재 화소와 동일한 수직 라인에 속하고 현재 화소에 인접한 화소인 제2 참조 화소를 이용하여 생성할 수 있다. 예컨대, 우측 상단의 화소(T)와 제1 참조 화소를 이용한 보간을 수행하여 제1 예측값을 생성하고, 좌측 하단의 화소(L)와 제2 참조 화소를 이용한 보간을 수행하여 제2 예측값을 생성할 수 있다. * Intra prediction according to the planar mode modified according to an embodiment of the present invention will be described with reference to FIGS. 4 and 5 . The first predicted value may be generated using the pixel T at the upper right of the current block and the first reference pixel that is adjacent to the current pixel and belongs to the same horizontal line as the current pixel. Also, it may be generated using the pixel L at the lower left of the current block and the second reference pixel, which is a pixel belonging to the same vertical line as the current pixel and adjacent to the current pixel. For example, the first predicted value is generated by performing interpolation using the upper right pixel T and the first reference pixel, and the second predicted value is generated by performing interpolation using the lower left pixel L and the second reference pixel can do.

한편, 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성할 수 있다. 예컨대, 제1 예측값과 제2 예측값을 평균하여 최종 예측값을 생성할 수 있다. Meanwhile, a final predicted value for the current pixel may be generated using the first predicted value and the second predicted value. For example, the final predicted value may be generated by averaging the first predicted value and the second predicted value.

먼저, 도 4a를 보면, 현재 블록에서 좌측 상단에 위치한 현재 화소에 대해서 인트라 예측을 수행할 수 있다. 즉, 현재 블록에서 좌측 상단에 위치한 현재 화소부터 인트라 예측을 시작할 수 있다.First, referring to FIG. 4A , intra prediction may be performed on the current pixel located at the upper left in the current block. That is, intra prediction may start from the current pixel located at the upper left of the current block.

여기서, 현재 블록에 포함되고 인트라 예측의 시작점이 되는 현재 화소는 기존의 Planar 모드와 동일한 방법에 의해 인트라 예측이 수행될 수 있다. 즉, 제1 참조 화소와 제2 참조 화소는 현재 블록에 인접한 블록에 포함되는 화소일 수 있다. Here, the current pixel included in the current block and serving as the starting point of the intra prediction may be intra-predicted by the same method as in the existing planar mode. That is, the first reference pixel and the second reference pixel may be pixels included in a block adjacent to the current block.

도 4b 및 도 4c를 보면, 인트라 예측의 방향은 수평 방향으로 순차적으로 수행될 수 있다. 예를 들어, 현재 블록의 최 상측에 위치한 열(row)에 포함되는 현재 화소에 대한 인트라 예측이 완료된 후에 다음(아래쪽 방향) 열(row)에 대한 인트라 예측이 수행될 수 있다. 즉, 래스터 스캔 방향(raster scan order)으로 인트라 예측이 수행될 수 있다. 4B and 4C , the direction of intra prediction may be sequentially performed in a horizontal direction. For example, after intra prediction for a current pixel included in a row located at the top of the current block is completed, intra prediction for a next (downward) row may be performed. That is, intra prediction may be performed in a raster scan order.

다음으로, 도 5a를 보면, 현재 블록에서 좌측 상단에 위치한 현재 화소에 대해서 인트라 예측을 수행할 수 있다. 즉, 현재 블록에서 좌측 상단에 위치한 현재 화소부터 인트라 예측을 시작할 수 있다.Next, referring to FIG. 5A , intra prediction may be performed on the current pixel located at the upper left of the current block. That is, intra prediction may start from the current pixel located at the upper left of the current block.

여기서, 현재 블록에 포함되고 인트라 예측의 시작점이 되는 현재 화소는 기존의 Planar 모드와 동일한 방법에 의해 인트라 예측이 수행될 수 있다. 즉, 제1 참조 화소와 제2 참조 화소는 현재 블록에 인접한 블록에 포함되는 화소일 수 있다. Here, the current pixel included in the current block and serving as the starting point of the intra prediction may be intra-predicted by the same method as in the existing planar mode. That is, the first reference pixel and the second reference pixel may be pixels included in a block adjacent to the current block.

도 5b 및 도 5c를 보면, 인트라 예측의 방향은 수직 방향으로 순차적으로 수행될 수 있다. 예를 들어, 현재 블록의 최 좌측에 위치하는 행(column)에 포함되는 현재 화소에 대한 인트라 예측이 완료된 후에 다음(오른쪽 방향) 행(column)에 대한 인트라 예측이 수행될 수 있다. 5B and 5C , the direction of intra prediction may be sequentially performed in a vertical direction. For example, after intra prediction of a current pixel included in a leftmost column of the current block is completed, intra prediction of a next (right direction) column may be performed.

도 4 및 도 5의 실시예에 따르면, 현재 블록에서 좌측 상단에 위치하는 현재 화소로부터 인트라 예측이 시작되는 것으로 설명하였으나, 현재 블록에서 다른 위치에 있는 현재 화소로부터 인트라 예측이 시작될 수 있음은 물론이다. 또한, 수평 방향 또는 수직 방향으로 순차적인 인트라 예측이 수행되는 실시예를 기재하였으나, 대각 방향으로 순차적인 인트라 예측이 수행될 수 있음은 물론이다. 여기서, 대각 방향은 업-라이트 대각(Up-right digonal) 방향을 의미할 수 있다. 4 and 5 , although it has been described that intra prediction starts from a current pixel located at the upper left of the current block, it goes without saying that intra prediction may start from a current pixel located at another position in the current block. . In addition, although an embodiment in which intra prediction is sequentially performed in a horizontal direction or a vertical direction has been described, it goes without saying that sequential intra prediction may be performed in a diagonal direction. Here, the diagonal direction may mean an up-right diagonal direction.

본 발명의 실시예에 따르면, 현재 화소와 동일한 수평 라인에 속하고 현재 화소에 인접한 화소 및 현재 화소와 동일한 수직 라인에 속하고 현재 화소에 인접한 화소를 참조 화소로 활용함으로써 인트라 예측의 정확도를 향상시킬 수 있다. According to an embodiment of the present invention, the accuracy of intra prediction can be improved by using a pixel belonging to the same horizontal line as the current pixel and adjacent to the current pixel and a pixel belonging to the same vertical line as the current pixel and adjacent to the current pixel as a reference pixel. can

도 6은 본 발명의 또 다른 실시예에 따른 인트라 예측을 설명하기 위한 개념도이다. 6 is a conceptual diagram for explaining intra prediction according to another embodiment of the present invention.

도 6을 참조하면, 현재 블록을 적어도 두 개의 영역으로 구획하여 Planar 모드를 수행할 수 있다. 즉, 제1 영역(10)에 대한 인트라 예측을 수행한 후, 제2 영역(20)에 대한 인트라 예측을 수행할 수 있다. 인트라 예측이 완료된 제1 영역에 위치한 화소를 참조 화소로 이용할 수 있으므로, 인트라 예측의 정확도를 보다 향상시킬 수 있다. Referring to FIG. 6 , the planar mode may be performed by partitioning the current block into at least two regions. That is, after performing intra prediction on the first region 10 , intra prediction on the second region 20 may be performed. Since the pixel located in the first area where the intra prediction has been completed can be used as a reference pixel, the accuracy of the intra prediction can be further improved.

예를 들어, 현재 블록의 최 하측에 위치한 열(row)와 현재 블록의 최 우측에 위치하는 행(column)에 대해 인트라 예측을 먼저 수행하고, 나머지 영역(20)에 대한 인트라 예측이 수행될 수 있다. For example, intra prediction may be first performed on a row located at the bottom of the current block and a column located at the rightmost side of the current block, and then intra prediction may be performed on the remaining area 20 . have.

이러한 경우, 현재 블록에서 좌측 상단에 위치한 현재 화소가 아닌 다른 위치에 있는 현재 화소부터 인트라 예측이 시작될 수 있다. 예컨대, 현재 블록에서 우측 하단에 위치한 현재 화소로부터 인트라 예측이 수행될 수 있다. In this case, intra prediction may be started from a current pixel located at a position other than the current pixel located at the upper left in the current block. For example, intra prediction may be performed from a current pixel located at the lower right of the current block.

따라서, 본 발명의 실시예는 도 6과 같이 현재 블록을 구획하여 순차적으로 인트라 예측을 수행함으로써 인트라 예측의 정확도를 향상시킬 수 있다. 다만, 본 발명은 현재 블록을 다양한 영역으로 구획하여 인트라 예측을 순차적으로 수행할 수 있으며, 도 6에 따른 구획에 한정되는 것은 아니다. Accordingly, according to an embodiment of the present invention, the accuracy of intra prediction can be improved by sequentially performing intra prediction by partitioning the current block as shown in FIG. 6 . However, the present invention can sequentially perform intra prediction by partitioning the current block into various regions, and is not limited to the partitioning illustrated in FIG. 6 .

도 2에 따른 Planar 모드에 따른 인트라 예측은 다음의 수학식 1과 같이 나타낼 수 있다.Intra prediction according to the planar mode according to FIG. 2 can be expressed as Equation 1 below.

Figure 112021011560257-pat00001
Figure 112021011560257-pat00001

수학식 1에서 x, y는 화소의 좌표값을 나타내고, nTbS은 블록의 크기를 나타낼 수 있다. 또한, p[x][y]는 x,y 좌표에 위치한 화소의 화소값을 나타낼 수 있으며, predSamples[x][y]는 예측된 화소값을 나타낼 수 있다.In Equation 1, x and y may represent coordinate values of a pixel, and nTbS may represent the size of a block. Also, p[x][y] may represent a pixel value of a pixel located at x,y coordinates, and predSamples[x][y] may represent a predicted pixel value.

본 발명의 실시예에 따르면, 현재 블록의 우측 상단의 화소(TR)와 현재 화소와 동일한 수평 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제1 예측값을 생성할 수 있다. 또한, 현재 블록의 좌측 하단의 화소(LB)와 현재 화소와 동일한 수직 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제2 예측값을 생성할 수 있다. According to an embodiment of the present invention, the first predicted value may be generated by applying a weight to the pixel TR of the upper right of the current block and the pixel belonging to the same horizontal line as the current pixel and adjacent to the current block, respectively. In addition, the second predicted value may be generated by applying a weight to the pixel LB at the lower left of the current block and the pixel belonging to the same vertical line as the current pixel and adjacent to the current block, respectively.

한편, 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성할 수 있다. 예컨대, 제1 예측값과 제2 예측값을 평균하여 최종 예측값을 생성할 수 있다. Meanwhile, a final predicted value for the current pixel may be generated using the first predicted value and the second predicted value. For example, the final predicted value may be generated by averaging the first predicted value and the second predicted value.

즉, 본 발명의 실시예에 따르면, 현재 블록의 우측 상단의 화소(TR), 현재 화소와 동일한 수평 라인에 속하고 현재 블록에 인접한 화소, 현재 블록의 좌측 하단의 화소(LB) 및 현재 화소와 동일한 수직 라인에 속하고 현재 블록에 인접한 화소 각각에 대하여 가중치가 적용될 수 있다. 여기서, 각각에 적용되는 가중치는 서로 같거나 다를 수 있다. That is, according to the embodiment of the present invention, the pixel TR at the upper right of the current block, the pixel belonging to the same horizontal line as the current pixel and adjacent to the current block, the pixel LB at the lower left of the current block, and the current pixel A weight may be applied to each pixel belonging to the same vertical line and adjacent to the current block. Here, the weights applied to each may be the same as or different from each other.

또한, 각각의 가중치는 현재 블록의 방향성에 기반하여 결정될 수 있으며, 현재 블록의 방향성은 수평의 방향성 및 수직의 방향성으로 구분될 수 있다. In addition, each weight may be determined based on the directionality of the current block, and the directionality of the current block may be divided into a horizontal directionality and a vertical directionality.

예를 들어, 현재 블록에 대한 인트라 예측의 최적 모드를 구하기 위해 예측을 진행할 때 현재 블록의 방향성을 확인할 수 있다. 이 때, Planar mode를 사용하여 예측을 할 경우 이전에 구한 현재 블록의 방향 패턴에 따라 적절한 가중치를 부여하여 예측값을 생성할 수 있다. For example, when prediction is performed to obtain an optimal mode of intra prediction for the current block, the directionality of the current block may be checked. In this case, when prediction is performed using the planar mode, a prediction value can be generated by assigning an appropriate weight according to the previously obtained direction pattern of the current block.

다만, 현재 블록의 방향성은 수평의 방향성 및 수직의 방향성에 제한되는 것은 아니다. However, the directionality of the current block is not limited to the horizontal directionality and the vertical directionality.

본 발명의 실시예에 따라 참조 화소에 가중치가 적용되어 변형된 Planar 모드는 다음의 수학식 2와 같이 나타낼 수 있다.According to an embodiment of the present invention, a planar mode modified by applying a weight to a reference pixel can be expressed as Equation 2 below.

Figure 112021011560257-pat00002
Figure 112021011560257-pat00002

수학식 2에서 ωA, ωB, ωC, ωD는 가중치를 나타낼 수 있다. 따라서, ωA, ωB, ωC, ωD는 현재 블록의 방향성에 기반하여 결정될 수 있다. 예를 들어, 현재 블록의 방향성이 수평의 방향성을 갖는 경우, ωA, ωB가 ωC, ωD보다 클 수 있다. 또한, 현재 블록의 방향성이 수평의 방향성을 갖는 경우, ωA, ωB가 ωC, ωD보다 작을 수 있다. In Equation 2, ω A , ω B , ω C , and ω D may represent weights. Accordingly, ω A , ω B , ω C , ω D may be determined based on the directionality of the current block. For example, when the directionality of the current block has a horizontal directionality, ω A and ω B may be greater than ω C and ω D . Also, when the directionality of the current block has a horizontal directionality, ω A and ω B may be smaller than ω C and ω D .

한편, 가중치는 부호화 장치에서 설정하는 것이 가능하며, 다양한 단위에서 설정할 수 있다. 즉, 가중치는 블록 단위로 다르게 둘 수도, 픽쳐 단위로 같게 두는 등의 다양한 경우가 가능하다. 가중치에 대한 정보는 부호화 장치와 복호화 장치가 서로 약속 하에 설정할 수도 있다. 또한, 부호화 장치에서 시퀀스, 픽쳐, 블록 등의 단위로 가중치에 대한 정보를 복호화 장치로 보낼 수도 있다. Meanwhile, the weight can be set in the encoding apparatus and can be set in various units. That is, various cases are possible, such as different weights for each block or the same for each picture. The weight information may be set by the encoding apparatus and the decoding apparatus under mutual agreement. Also, the encoding apparatus may transmit information on weights in units of sequences, pictures, blocks, etc. to the decoding apparatus.

도 7은 본 발명의 실시예에 따른 인트라 예측 방법을 수행하는 비디오 부호화 장치를 설명하기 위한 블록도이다. 7 is a block diagram illustrating a video encoding apparatus performing an intra prediction method according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 실시예에 따른 인트라 예측 방법을 수행하는 비디오 부호화 장치는 감산기(110), 엔트로피 부호화부(120), 가산기(130), 인터 예측부(140), 인트라 예측부(150)를 포함한다. Referring to FIG. 7 , a video encoding apparatus performing an intra prediction method according to an embodiment of the present invention includes a subtractor 110 , an entropy encoding unit 120 , an adder 130 , an inter prediction unit 140 , and an intra prediction unit. (150).

*손실 부호화 장치의 경우 변환과 양자화를 거쳐 엔트로피 부호화가 수행되나, 무손실 부호화의 경우 바로 엔트로피 부호화가 수행될 수 있다. 입력 영상이 들어오면 인트라 예측 또는 인터 예측을 통해 얻어진 잔차값을 엔트로피 부호화부로 전송할 수 있다. 다만, 본 발명의 실시예에 따른 부호화 장치(100)는 무손실 부호화 장치에 한정되는 것은 아니다. *In the case of a lossy encoding apparatus, entropy encoding is performed through transformation and quantization, but in the case of lossless encoding, entropy encoding may be directly performed. When an input image is received, a residual value obtained through intra prediction or inter prediction may be transmitted to the entropy encoder. However, the encoding apparatus 100 according to an embodiment of the present invention is not limited to a lossless encoding apparatus.

본 발명의 실시예에 따른 인트라 예측부(150)는, 현재 블록의 우측 상단의 화소(T)와 제1 참조 화소를 이용하여 제1 예측값을 생성할 수 있다. 또한, 인트라 예측부(150)는 현재 블록의 좌측 하단의 화소(L)와 제2 참조 화소를 이용하여 제2 예측값을 생성할 수 있다. 여기서, 제1 참조 화소는 현재 화소와 동일한 수평 라인에 속하고 현재 화소에 인접한 화소이고, 제2 참조 화소는 현재 화소와 동일한 수직 라인에 속하고 상기 현재 화소에 인접한 화소일 수 있다. The intra prediction unit 150 according to an embodiment of the present invention may generate a first prediction value using the pixel T at the upper right of the current block and the first reference pixel. Also, the intra prediction unit 150 may generate a second prediction value using the lower left pixel L of the current block and the second reference pixel. Here, the first reference pixel may be a pixel belonging to the same horizontal line as the current pixel and adjacent to the current pixel, and the second reference pixel may be a pixel belonging to the same vertical line as the current pixel and adjacent to the current pixel.

여기서, 현재 블록의 우측 상단의 화소(T)는 현재 블록의 우측 상단의 화소(TR), 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들 중 선택된 화소 및 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소 중 어느 하나일 수 있다. Here, the pixel T at the upper right of the current block is the pixel TR at the upper right of the current block, a selected pixel among pixels located on the same horizontal line as the pixel TR at the upper right of the current block, and the right side of the current block. It may be any one of pixels generated by performing filtering on pixels positioned on the same horizontal line as the upper pixel TR.

또한, 현재 블록의 좌측 하단의 화소(L)는 현재 블록의 좌측 하단의 화소(LB), 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들 중 선택된 화소 및 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소 중 어느 하나일 수 있다. In addition, the pixel L at the lower left of the current block includes the pixel LB at the lower left of the current block, a selected pixel among pixels located on the same vertical line as the pixel LB at the lower left of the current block, and the left side of the current block. It may be any one of pixels generated by performing filtering on pixels located on the same vertical line as the lower pixel LB.

인트라 예측부(150)는 현재 블록을 적어도 두 개의 영역으로 구획하고, 구획된 영역 별로 순차적인 인트라 예측을 수행할 수 있다. The intra prediction unit 150 may partition the current block into at least two regions, and sequentially perform intra prediction for each partitioned region.

더 나아가, 인트라 예측부(150)는 현재 블록의 우측 상단의 화소(TR)와 현재 화소와 동일한 수평 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제1 예측값을 생성할 수 있다. 또한, 인트라 예측부(150)는 현재 블록의 좌측 하단의 화소(LB)와 현재 화소와 동일한 수직 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제2 예측값을 생성할 수 있다. Furthermore, the intra prediction unit 150 may generate the first prediction value by applying a weight to the pixel TR at the upper right of the current block and the pixel belonging to the same horizontal line as the current pixel and adjacent to the current block, respectively. Also, the intra prediction unit 150 may generate the second prediction value by applying a weight to the pixel LB at the lower left of the current block and the pixel belonging to the same vertical line as the current pixel and adjacent to the current block, respectively.

여기서, 가중치는 현재 블록의 방향성에 기반하여 결정될 수 있으며, 현재 블록의 방향성은 수평의 방향성 및 수직의 방향성으로 구분될 수 있다. Here, the weight may be determined based on the directionality of the current block, and the directionality of the current block may be divided into a horizontal directionality and a vertical directionality.

결과적으로, 인트라 예측부(150)는 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성할 수 있다. 예컨대, 제1 예측값과 제2 예측값을 평균하여 최종 예측값을 생성할 수 있다. As a result, the intra prediction unit 150 may generate a final prediction value for the current pixel by using the first prediction value and the second prediction value. For example, the final predicted value may be generated by averaging the first predicted value and the second predicted value.

감산기(110)는 최종 예측값과 현재 화소의 화소값의 차이값을 잔차값으로 생성할 수 있다. The subtractor 110 may generate a difference value between the final predicted value and the pixel value of the current pixel as a residual value.

또한, 부호화 장치(100)는 시퀀스, 픽처, 블록 등의 단위로 가중치에 대한 정보를 복호화 장치로 보낼 수 있다.Also, the encoding apparatus 100 may transmit information on weights to the decoding apparatus in units of sequences, pictures, blocks, and the like.

이외에 무손실 부호화 장치는 손실 부호화 장치와 유사하므로 간단히 설명한다. 엔트로피 부호화부(120)는 잔차 영상에 대해 엔트로피 부호화를 수행하고, 가산기(130)는 잔차 영상과 예측 영상을 더하여 복원 영상을 생성하며, 인터 예측부(140)는 움직임 추정을 통한 화면간 예측을 수행할 수 있다. In addition, since the lossless encoding apparatus is similar to the lossy encoding apparatus, it will be briefly described. The entropy encoding unit 120 performs entropy encoding on the residual image, the adder 130 generates a reconstructed image by adding the residual image and the predicted image, and the inter prediction unit 140 performs inter prediction through motion estimation. can be done

도 8은 본 발명의 실시예에 따른 인트라 예측 방법을 수행하는 비디오 복호화 장치를 설명하기 위한 블록도이다. 8 is a block diagram illustrating a video decoding apparatus performing an intra prediction method according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 실시예에 따른 복호화 장치는 엔트로피 복호화부(210), 가산기(220), 인트라 예측부(230) 및 인터 예측부(240)를 포함한다.Referring to FIG. 8 , the decoding apparatus according to an embodiment of the present invention includes an entropy decoding unit 210 , an adder 220 , an intra prediction unit 230 , and an inter prediction unit 240 .

손실 복호화 장치의 경우 엔트로피 복호화를 수행한 후 역양자화와 역변환이 수행되나, 무손실 복호화의 경우 역양자화와 역변환이 수행되지 않을 수 있다. 즉, 비트스트림을 복호화하여 현재 화소에 대한 잔차값을 얻고, 현재 화소에 대한 잔차값에 최종 예측값을 가산함으로써 복원 영상을 생성할 수 있다. 다만, 본 발명의 실시예에 따른 복호화 장치는 무손실 복호화 장치에 한정되는 것은 아니다. In the case of the lossy decoding apparatus, inverse quantization and inverse transformation are performed after entropy decoding, but in the case of lossless decoding, inverse quantization and inverse transformation may not be performed. That is, a reconstructed image may be generated by decoding the bitstream to obtain a residual value of the current pixel and adding a final predicted value to the residual value of the current pixel. However, the decoding apparatus according to the embodiment of the present invention is not limited to the lossless decoding apparatus.

엔트로피 복호화부(210)는 수신한 비트스트림을 복호화하여 현재 화소에 대한 잔차값 및 인트라 예측 정보를 포함하는 복원 정보를 생성할 수 있다. 여기서, 인트라 예측 정보는 본 발명의 실시예에 따라 변형된 Planar 모드에 대한 정보를 포함할 수 있다. The entropy decoding unit 210 may decode the received bitstream to generate restoration information including a residual value of the current pixel and intra prediction information. Here, the intra prediction information may include information on the planar mode modified according to an embodiment of the present invention.

인트라 예측부(230)는 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 우측 상단의 화소(T)와 제1 참조 화소를 이용하여 제1 예측값을 생성할 수 있다. 또한, 인트라 예측부(230)는 인트라 예측 정보에 기반하여 현재 화소를 포함하는 현재 블록의 좌측 하단의 화소(L)와 제2 참조 화소를 이용하여 제2 예측값을 생성할 수 있다. The intra prediction unit 230 may generate a first prediction value based on the intra prediction information by using the upper right pixel T of the current block including the current pixel and the first reference pixel. Also, the intra prediction unit 230 may generate a second prediction value by using the lower left pixel L of the current block including the current pixel and the second reference pixel based on the intra prediction information.

여기서, 현재 블록의 우측 상단의 화소(T)는 현재 블록의 우측 상단의 화소(TR), 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들 중 선택된 화소 및 현재 블록의 우측 상단의 화소(TR)와 동일한 수평 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소 중 어느 하나일 수 있다. Here, the pixel T at the upper right of the current block is the pixel TR at the upper right of the current block, a selected pixel among pixels located on the same horizontal line as the pixel TR at the upper right of the current block, and the right side of the current block. It may be any one of pixels generated by performing filtering on pixels positioned on the same horizontal line as the upper pixel TR.

또한, 현재 블록의 좌측 하단의 화소(L)는 현재 블록의 좌측 하단의 화소(LB), 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들 중 선택된 화소 및 현재 블록의 좌측 하단의 화소(LB)와 동일한 수직 라인에 위치한 화소들에 필터링을 수행하여 생성된 화소 중 어느 하나일 수 있다. In addition, the pixel L at the lower left of the current block includes the pixel LB at the lower left of the current block, a selected pixel among pixels located on the same vertical line as the pixel LB at the lower left of the current block, and the left side of the current block. It may be any one of pixels generated by performing filtering on pixels located on the same vertical line as the lower pixel LB.

인트라 예측부(230)는 현재 블록을 적어도 두 개의 영역으로 구획하고, 구획된 영역 별로 순차적인 인트라 예측을 수행할 수 있다. The intra prediction unit 230 may partition the current block into at least two regions, and sequentially perform intra prediction for each partitioned region.

여기서, 제1 참조 화소는 현재 화소와 동일한 수평 라인에 속하고 현재 화소에 인접한 화소이고, 제2 참조 화소는 현재 화소와 동일한 수직 라인에 속하고 현재 화소에 인접한 화소일 수 있다.Here, the first reference pixel may be a pixel belonging to the same horizontal line as the current pixel and adjacent to the current pixel, and the second reference pixel may be a pixel belonging to the same vertical line as the current pixel and adjacent to the current pixel.

더 나아가, 인트라 예측부(230)는 현재 블록의 우측 상단의 화소(TR)와 현재 화소와 동일한 수평 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제1 예측값을 생성할 수 있다. 또한, 인트라 예측부(230)는 현재 블록의 좌측 하단의 화소(LB)와 현재 화소와 동일한 수직 라인에 속하고 현재 블록에 인접한 화소에 가중치를 각각 적용하여 제2 예측값을 생성할 수 있다. Furthermore, the intra prediction unit 230 may generate a first prediction value by applying a weight to the pixel TR at the upper right of the current block and the pixel belonging to the same horizontal line as the current pixel and adjacent to the current block, respectively. Also, the intra prediction unit 230 may generate a second prediction value by applying a weight to the pixel LB at the lower left of the current block and the pixel belonging to the same vertical line as the current pixel and adjacent to the current block, respectively.

여기서, 가중치는 현재 블록의 방향성에 기반하여 결정될 수 있으며, 현재 블록의 방향성은 수평의 방향성 및 수직의 방향성으로 구분될 수 있다. Here, the weight may be determined based on the directionality of the current block, and the directionality of the current block may be divided into a horizontal directionality and a vertical directionality.

결과적으로, 인트라 예측부(230)는 제1 예측값과 제2 예측값을 이용하여 현재 화소에 대한 최종 예측값을 생성할 수 있다. 예컨대, 제1 예측값과 제2 예측값을 평균하여 최종 예측값을 생성할 수 있다. As a result, the intra prediction unit 230 may generate a final prediction value for the current pixel by using the first prediction value and the second prediction value. For example, the final predicted value may be generated by averaging the first predicted value and the second predicted value.

또한, 가산기(220)는 잔차 영상과 예측 영상을 더하여 복원 영상을 생성할 수 있다. 즉, 가산기(220)는 최종 예측값에 현재 화소에 대한 잔차값을 가산하여 복원 영상을 생성할 수 있다. Also, the adder 220 may generate a reconstructed image by adding the residual image and the predicted image. That is, the adder 220 may generate a reconstructed image by adding the residual value of the current pixel to the final predicted value.

한편, 인터 예측부(240)는 움직임 추정을 통한 화면간 예측을 수행할 수 있다. Meanwhile, the inter prediction unit 240 may perform inter prediction through motion estimation.

이외에 무손실 복호화 장치는 무손실 부호화 장치와 유사하므로 상세한 설명을 생략한다.In addition, since the lossless decoding apparatus is similar to the lossless encoding apparatus, a detailed description thereof will be omitted.

상술한 본 발명의 실시예에 따른 부호화 장치 및 복호화 장치는 도 3 및 도 4에 대한 설명에 따른 인트라 예측을 수행할 수 있다. The above-described encoding apparatus and decoding apparatus according to an embodiment of the present invention may perform intra prediction according to the description of FIGS. 3 and 4 .

상술한 본 발명의 실시예에 따른 인트라 예측을 이용한 비디오 부호화/복호화 방법 및 장치는 보다 상관 관계가 높은 참조 화소를 이용한 인트라 예측을 수행함으로써 인트라 예측의 정확도를 향상시킬 수 있다. The above-described video encoding/decoding method and apparatus using intra prediction according to an embodiment of the present invention can improve the accuracy of intra prediction by performing intra prediction using a reference pixel having a higher correlation.

또한, Planar 모드를 적용함에 있어, 현재 블록의 방향성에 기반한 가중치를 적용함으로써 인트라 예측의 정확도를 향상시킬 수 있다.In addition, when applying the planar mode, the accuracy of intra prediction can be improved by applying a weight based on the directionality of the current block.

따라서, 인트라 예측의 정확도를 향상시킴으로써 부화화/복호화 효율을 높일 수 있다. Accordingly, by improving the accuracy of intra prediction, it is possible to increase the encoding/decoding efficiency.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that it can be done.

100: 부호화 장치 110: 감산기
120: 엔트로피 부호화부 130, 220: 가산기
140, 240: 인터 예측부 150, 230: 인트라 예측부
200: 복호화 장치
100: encoding device 110: subtractor
120: entropy encoder 130, 220: adder
140, 240: inter prediction unit 150, 230: intra prediction unit
200: decryption device

Claims (8)

인트라 예측에 기반한 영상 복호화 방법에 있어서,
현재 블록에 인접한 주변 화소를 참조 화소로 이용하여, 상기 현재 블록 내 제1 영역의 제1 예측 화소를 획득하는 단계;
상기 제1 영역의 제1 예측 화소를 참조 화소로 이용하여, 상기 현재 블록 내 제2 영역의 제2 예측 화소를 획득하는 단계; 및
상기 제1 예측 화소와 상기 제2 예측 화소를 기반으로, 상기 현재 블록을 복호화하는 단계를 포함하되,
상기 제1 영역은 상기 현재 블록 내 우측 하단에 위치한 화소를 포함하고,
상기 현재 블록 내 우측 하단에 위치한 화소는 상기 현재 블록에 인접한 주변 화소를 참조 화소로 이용하여 예측되고,
상기 제1 예측 화소는, 상기 제1 예측 화소 이전에 획득된 상기 제1 영역 내 다른 예측 화소를 참조 화소로 이용하지 않고 획득되는, 영상 복호화 방법.
In the video decoding method based on intra prediction,
obtaining a first prediction pixel of a first area in the current block by using a neighboring pixel adjacent to the current block as a reference pixel;
obtaining a second prediction pixel of a second area in the current block by using the first prediction pixel of the first area as a reference pixel; and
Decoding the current block based on the first prediction pixel and the second prediction pixel,
The first area includes a pixel located at the lower right of the current block,
A pixel located at the lower right corner in the current block is predicted using a neighboring pixel adjacent to the current block as a reference pixel,
The first prediction pixel is obtained without using another prediction pixel in the first area obtained before the first prediction pixel as a reference pixel.
제1항에 있어서,
상기 현재 블록 내 제1 영역은, 상기 현재 블록의 최 하측에 위치한 열(row) 또는 상기 현재 블록의 최 우측에 위치하는 행(column) 중 적어도 하나에 속한 화소를 포함하고,
상기 현재 블록 내 제2 영역은, 상기 현재 블록에서 상기 제1 영역을 제외한 나머지 영역인, 영상 복호화 방법.
According to claim 1,
The first area in the current block includes pixels belonging to at least one of a row located at the lowermost side of the current block or a column located at the rightmost side of the current block,
The second area in the current block is a remaining area in the current block except for the first area.
제2항에 있어서,
상기 현재 블록 내 제2 영역의 제2 예측 화소는, 상기 현재 블록의 상단에 인접한 주변 화소 중 상기 제2 예측 화소와 동일한 수직 라인에 위치한 화소를 더 이용하여 획득되는, 영상 복호화 방법.
3. The method of claim 2,
The second prediction pixel of the second area in the current block is obtained by further using a pixel located on the same vertical line as the second prediction pixel among neighboring pixels adjacent to an upper end of the current block.
제2항에 있어서,
상기 현재 블록의 좌측 상단에 위치한 화소가 아닌 다른 위치에 있는 화소부터 상기 인트라 예측이 수행되는, 영상 복호화 방법.
3. The method of claim 2,
The image decoding method, wherein the intra prediction is performed from a pixel located at a position other than the pixel located at the upper left of the current block.
제4항에 있어서,
상기 현재 블록의 우측 하단에 위치한 화소가 상기 현재 블록의 좌측 상단에 위치한 화소보다 먼저 예측되는, 영상 복호화 방법.
5. The method of claim 4,
and a pixel located at the lower right of the current block is predicted before a pixel located at the upper left of the current block.
제4항에 있어서,
상기 현재 블록 내 제1 영역에 대한 인트라 예측이 완료된 이후에 상기 현재 블록 내 제2 영역에 대한 인트라 예측이 수행되는, 영상 복호화 방법.
5. The method of claim 4,
The method of claim 1, wherein intra prediction is performed on a second region in the current block after intra prediction of the first region in the current block is completed.
인트라 예측에 기반한 영상 부호화 방법에 있어서,
현재 블록에 인접한 주변 화소를 참조 화소로 이용하여, 상기 현재 블록 내 제1 영역의 제1 예측 화소를 획득하는 단계;
상기 제1 영역의 제1 예측 화소를 참조 화소로 이용하여, 상기 현재 블록 내 제2 영역의 제2 예측 화소를 획득하는 단계; 및
상기 제1 예측 화소와 상기 제2 예측 화소를 기반으로, 상기 현재 블록을 부호화하는 단계를 포함하되,
상기 제1 영역은 상기 현재 블록 내 우측 하단에 위치한 화소를 포함하고,
상기 현재 블록 내 우측 하단에 위치한 화소는 상기 현재 블록에 인접한 주변 화소를 참조 화소로 이용하여 예측되고,
상기 제1 예측 화소는, 상기 제1 예측 화소 이전에 획득된 상기 제1 영역 내 다른 예측 화소를 참조 화소로 이용하지 않고 획득되는, 영상 부호화 방법.
In the video encoding method based on intra prediction,
obtaining a first prediction pixel of a first area in the current block by using a neighboring pixel adjacent to the current block as a reference pixel;
obtaining a second prediction pixel of a second area in the current block by using the first prediction pixel of the first area as a reference pixel; and
encoding the current block based on the first prediction pixel and the second prediction pixel;
The first area includes a pixel located at the lower right of the current block,
A pixel located at the lower right corner in the current block is predicted using a neighboring pixel adjacent to the current block as a reference pixel,
The first prediction pixel is obtained without using another prediction pixel in the first area obtained before the first prediction pixel as a reference pixel.
삭제delete
KR1020210012380A 2020-07-06 2021-01-28 Method and apparatus for video coding/decoding using intra prediction KR102327318B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020210012380A KR102327318B1 (en) 2020-07-06 2021-01-28 Method and apparatus for video coding/decoding using intra prediction
KR1020210154407A KR102492073B1 (en) 2021-01-28 2021-11-11 Method and apparatus for video coding/decoding using intra prediction
KR1020230007926A KR102602702B1 (en) 2021-01-28 2023-01-19 Method and apparatus for video coding/decoding using intra prediction
KR1020230155557A KR20230157287A (en) 2021-01-28 2023-11-10 Method and apparatus for video coding/decoding using intra prediction

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200082864A KR102225881B1 (en) 2020-07-06 2020-07-06 Method and apparatus for video coding/decoding using intra prediction
KR1020210012380A KR102327318B1 (en) 2020-07-06 2021-01-28 Method and apparatus for video coding/decoding using intra prediction

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200082864A Division KR102225881B1 (en) 2020-07-06 2020-07-06 Method and apparatus for video coding/decoding using intra prediction

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210154407A Division KR102492073B1 (en) 2021-01-28 2021-11-11 Method and apparatus for video coding/decoding using intra prediction

Publications (2)

Publication Number Publication Date
KR20210013279A KR20210013279A (en) 2021-02-03
KR102327318B1 true KR102327318B1 (en) 2021-11-16

Family

ID=74572473

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020210012380A KR102327318B1 (en) 2020-07-06 2021-01-28 Method and apparatus for video coding/decoding using intra prediction
KR1020210154407A KR102492073B1 (en) 2021-01-28 2021-11-11 Method and apparatus for video coding/decoding using intra prediction
KR1020230007926A KR102602702B1 (en) 2021-01-28 2023-01-19 Method and apparatus for video coding/decoding using intra prediction
KR1020230155557A KR20230157287A (en) 2021-01-28 2023-11-10 Method and apparatus for video coding/decoding using intra prediction

Family Applications After (3)

Application Number Title Priority Date Filing Date
KR1020210154407A KR102492073B1 (en) 2021-01-28 2021-11-11 Method and apparatus for video coding/decoding using intra prediction
KR1020230007926A KR102602702B1 (en) 2021-01-28 2023-01-19 Method and apparatus for video coding/decoding using intra prediction
KR1020230155557A KR20230157287A (en) 2021-01-28 2023-11-10 Method and apparatus for video coding/decoding using intra prediction

Country Status (1)

Country Link
KR (4) KR102327318B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024058645A1 (en) * 2022-09-16 2024-03-21 이현창 Apparatus and method for detecting overhead power line disconnection failure

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
High Efficiency Video Coding (HEVC) text specification draft 10 (JCTVC-L1003_v34), Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 (2013.03.19.)*
Kemal Ugur, "Description of video coding technology proposal by Tandberg, Nokia, Ericsson", JCTVC-A119, 2010.4.15.*

Also Published As

Publication number Publication date
KR20210137420A (en) 2021-11-17
KR102492073B1 (en) 2023-01-27
KR20210013279A (en) 2021-02-03
KR102602702B1 (en) 2023-11-14
KR20230014101A (en) 2023-01-27
KR20230157287A (en) 2023-11-16

Similar Documents

Publication Publication Date Title
US11051028B2 (en) Video encoding and decoding method
US11825099B2 (en) Image encoding/decoding method and apparatus using intra-screen prediction
KR101587927B1 (en) Method and apparatus for video coding/decoding using intra prediction
KR20230157287A (en) Method and apparatus for video coding/decoding using intra prediction
KR102028016B1 (en) Method and apparatus for video coding/decoding using intra prediction
KR20170125154A (en) Method and apparatus of video decoder using curve intra prediction
KR102225881B1 (en) Method and apparatus for video coding/decoding using intra prediction
KR102225880B1 (en) Method and apparatus for video coding/decoding using intra prediction
US11818386B2 (en) Method and apparatus for decoding image using interpicture prediction
US20210289202A1 (en) Intra prediction method and apparatus for performing adaptive filtering on reference pixel
KR102225879B1 (en) Method and apparatus for video coding/decoding using intra prediction
KR102101491B1 (en) Method and apparatus for video coding/decoding using intra prediction
KR101540510B1 (en) Method of intra prediction using additional prediction candidate and apparatus thereof
KR20180080114A (en) Intra prediction method considering redundancy of prediction blocks and video decoding apparatus performing intra prediction
US20230254483A1 (en) Intra prediction method and apparatus for performing adaptive filtering on reference pixel
KR20230144426A (en) Image encoding/decoding method and apparatus
KR20200050111A (en) Method and apparatus for encoding/decoding image using transformation of axis of color coordinate

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant