KR101913264B1 - 신규한 평면 예측 모드 - Google Patents

신규한 평면 예측 모드 Download PDF

Info

Publication number
KR101913264B1
KR101913264B1 KR1020177026367A KR20177026367A KR101913264B1 KR 101913264 B1 KR101913264 B1 KR 101913264B1 KR 1020177026367 A KR1020177026367 A KR 1020177026367A KR 20177026367 A KR20177026367 A KR 20177026367A KR 101913264 B1 KR101913264 B1 KR 101913264B1
Authority
KR
South Korea
Prior art keywords
sample
block
samples
current
reference sample
Prior art date
Application number
KR1020177026367A
Other languages
English (en)
Other versions
KR20170110162A (ko
Inventor
임재현
전병문
박승욱
성재원
김정선
전용준
박준영
최영희
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20170110162A publication Critical patent/KR20170110162A/ko
Application granted granted Critical
Publication of KR101913264B1 publication Critical patent/KR101913264B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

디지털 비디오 데이터를 예측하기 위한 새로운 인트라 평면 모드가 개시된다. 새로운 인트라 평면 모드의 일부로서 예측 유닛 내의 제 1 샘플을 예측하기 위한 다양한 방법이 제공되는데, 제 1 샘플은 새로운 인트라 평면 모드를 처리할 때에 참조하기 위해 필요하다. 일단 제 1 샘플이 성공적으로 예측되면, 새로운 인트라 평면 모드는 4개의 이전에 복원복원복원 이중 선형 보간을 처리함으로써 예측 유닛 내의 비디오 데이터의 샘플을 예측할 수 있다.

Description

신규한 평면 예측 모드{NEW PLANAR PREDICTION MODE}
본 발명은 인트라 평면 모드 타입 예측을 사용하여 인코딩된 디지털 비디오 데이터에 대해 인트라 평면 모드 타입 예측 디코딩을 수행하는 방법 및 장치에 관한 것이다.
디지털 비디오 신호는 원본 RGB 비디오 신호의 표현인 디지털 비디오 프레임의 시퀀스로 구성된다. 아날로그 대 디지털 신호 변환의 일부로서, 원본 RGB 비디오 신호의 각 프레임은 디지털 비디오 신호를 포함하는 데이터의 디지털 비디오 프레임으로 인코딩된다. 인코딩 프로세스의 목적은, 원본 RGB 비디오 신호의 디지털 예측을 최대한 정확하게 하면서 원본 RGB 비디오 신호의 디지털 표현인 이진 데이터의 압축을 최대화하려는 것이다. 비디오 신호를 인코딩하는 두 가지 방법, 즉, 인터 예측 방법 및 인트라 예측 방법이 존재하지만, 본 발명은 공간 예측 방법으로도 불리는 인트라 예측 방법에만 관련된다.
인코딩 프로세스를 달성하기 위해, 인코딩 유닛은 원본 비디오 프레임의일부에 대해 예측을 처리하여 이를 디지털 비디오 데이터로 인코딩할 것이다. 최종 인코딩된 디지털 비디오 데이터는 예측 유닛으로서 지칭된다. 복수의 예측 유닛은 통상적으로 비디오 데이터의 트리 블록을 포함할 것이며, 복수의 트리 블록은 통상적으로 비디오 데이터 슬라이스를 포함할 것이며, 복수의 슬라이스는 통상적으로 디지털 비디오 데이터 프레임을 포함할 것이지만, 다른 구성도 가능하다. 특히 공간 예측에 의존하는 인트라 예측 방법과 관련하여, 처리되는 현재 예측 유닛은 공간적으로 현재 예측 유닛에 인접하는 이전에 예측된 샘플을 참조하여 예측될 것이다. 일단 디지털 데이터 비디오 프레임 모두가 예측되고 인코딩되면, 디지털 비디오 프로그램은 완전히 압축되고 디지털 비디오 데이터 또는 신호로서 저장 또는 전송될 준비를 갖추었다고 한다. 실제 디지털 비디오 데이터와 함께, 인코딩 유닛은 비디오 데이터의 각 예측 유닛에 어떤 예측 모드가 적용되었는지를 표시하는 식별 정보도 포함할 것이다.
그 후, 디코딩 유닛은 디지털 비디오 데이터/신호의 디코딩 또는 압축 해제를 수행한다. 디코딩은 인코딩 유닛에 의해 적용된 것과 동일한 예측 모드 처리를 각 예측 유닛에 대해 적용함으로써 처리된다. 이는, 식별 정보를 분석하고 비디오 데이터의 각 예측 유닛을 예측하기 위해 식별되는 적합한 예측 모드를 결정함으로써 달성된다. 비디오 데이터의 예측 유닛 각각에 적합한 예측을 적용함으로써, 디코딩 유닛은 원본 비디오를 성공적으로 복원할 수 있다. 디코딩 유닛에는, 디지털 비디오 신호를 원본 비디오 신호의 표시 가능한 표현으로 복원하는 작업이 할당된다. 예측 유닛을 디코딩하기 위한 인트라 예측 모드에 따르면, 이전에 복원된 예측 유닛으로부터의 이전에 복원된 샘플은 디코딩 유닛에 의해 현재 처리되고 있는 현재 예측 유닛의 샘플을 복원하기 위해 참조될 것이다.
디지털 비디오 데이터의 예측 유닛을 예측하는 많은 이용 가능한 인트라 예측 모드 중에서, 본 발명은 인트라 평면 예측 모드에 관련된다. 일반적으로, 인트라 평면 모드 예측은, 이전에 복원된 인접 블록을 참조하여 현재 예측 유닛 내의 하나의 샘플을 먼저 예측하는 것으로 알려져 있다. 그 후, 현재 예측 유닛 내의 제 1 샘플을 예측한 후, 현재 예측 유닛 내의 예측된 제 1 샘플 및 현재 예측 유닛에 인접하는 블록으로부터의 복원된 샘플을 참조하여 현재 예측 유닛의 나머지 샘플이 예측된다.
인트라 평면 예측 모드에 따른 인트라 예측을 처리하는 새로운 방법은 보다 우수한 효율을 달성하기 위해 필요하다. 또한, 비디오 신호의 전체 데이터 크기를 감소시키기 위해 비디오 신호로 인코딩되는 정보 비트의 총 수를 감소시킬 필요가 있다.
본 발명의 하나의 목적은 현재 예측 유닛 내의 제 1 샘플의 예측을 얻기 위한 다양한 새로운 방법을 제공하는 것인데, 현재 예측 유닛은 본 발명의 새로운 인트라 평면 모드에 따라 예측된다. 또한, 본 발명의 하나의 목적은, 현재 예측 유닛 내의 제 1 샘플이 일단 예측되고 복원되면 현재 예측 유닛 내의 나머지 샘플을 예측하기 위한 다양한 방법을 제공하는 것이다. 본 발명에 따르면, 이들 방법은, 현재 예측 유닛에 인접하는 블록으로부터의 이전에 복원된 샘플뿐만 아니라 제 1 샘플을 참조하여 현재 예측 유닛 내의 나머지 샘플을 예측할 것이다.
본 발명에 따른 인트라 평면 예측 모드를 처리하는 새로운 방법은 이전 버전에 비해 더욱 우수한 효율을 달성한다. 또한, 본 발명은 비디오 신호에 대한 전체 데이터 크기를 감소시킬 수 있다.
본 발명의 전술한 전반적인 설명 및 후술하는 상세한 설명은 모두 예시적인 것이며 청구되는 본 발명의 추가적인 설명을 제공하는 것으로 의도된다는 것을 이해해야 한다.
도 1은 본 발명에 따른 예측 유닛의 제 1 샘플을 획득하는 제 1 실시형태를 도시하고 있다.
도 2는 본 발명에 따른 예측 유닛의 제 1 샘플을 획득하는 제 2 실시형태를 도시하고 있다.
도 3은 본 발명에 따른 예측 유닛의 제 1 샘플을 획득하는 제 3 실시형태를 도시하고 있다.
도 4는 본 발명에 따른 예측 유닛의 제 1 샘플을 획득하는 제 4 실시형태를 도시하고 있다.
도 5는 본 발명에 따라 제 1 샘플이 예측된 후에 나머지 샘플을 예측하는 제 1 실시형태를 도시하고 있다.
도 6은 본 발명에 따라 제 1 샘플이 예측된 후에 나머지 샘플을 예측하는 제 2 실시형태를 도시하고 있다.
도 7은 도 6으로부터 취한 일부의 확대도를 도시하고 있다.
도 8은, 제 1 샘플이 본 발명에 따라 예측된 후에 나머지 샘플을 예측하는 제 3 실시형태를 도시하고 있다.
도 9는 도 8로부터 취한 일부의 확대도를 도시하고 있다.
도 10은 본 발명에 따라 제 1 샘플이 예측된 후에 나머지 샘플을 예측하는 제 4 실시형태를 도시하고 있다.
도 11은 본 발명에 따라 제 1 샘플이 예측된 후에 나머지 샘플을 예측하는 제 5 실시형태를 도시하고 있다.
도 12는 본 발명에 따라 제 1 샘플이 예측된 후에 나머지 샘플을 예측하는 제 6 실시형태를 도시하고 있다.
도 13은 본 발명에 따른, 중요하다고 결정된 소정 참조 샘플을 필터링하는 방법을 도시하고 있다.
도 14는 본 발명에 따른 예측 유닛의 제 1 샘플을 처리하는 예를 도시하고 있다.
도 15는 본 발명에 따른 예측 유닛의 제 1 샘플에 대한 위치를 결정하는 예를 도시하고 있다.
도 16은 본 발명에 따른 예측 유닛의 제 1 샘플에 대한 위치를 결정하기 위한 다른 예를 도시하고 있다.
도 17은 본 발명에 따른 예측 유닛의 제 1 샘플에 대한 위치를 결정하는 예를 도시하고 있다.
도 18은 본 발명에 따른 예측 유닛의 제 1 샘플을 수신한 후에 예측 유닛을 처리하는 방법을 도시하고 있다.
도 19는 본 발명에 따른, 예측 유닛과 예측 유닛에 인접하는 비디오 데이터 블록 사이의 관계를 도시하고 있다.
도 20은 본 발명에 따른 디코딩 유닛을 도시하고 있다.
도 21은 도 20에 도시된 디코딩 유닛의 일부인 예측 유닛의 클로즈 업 도면을 도시하고 있다.
본 발명의 바람직한 실시형태를 참조할 것이며 그 예는 첨부된 도면에 도시되어 있다. 본 명세서 및 청구범위에서 사용되는 용어 및 단어는 일반적 의미 또는 사전적 의미로 한정되는 것으로 해석되지 않으며, 발명자가 자신의 발명을 의도한 방식대로 기술하기 위해 발명자가 용어의 개념을 적합하게 정의할 수 있는 원리에 기초하여 본 발명의 기술적 사상과 일치하는 의미 및 개념으로 해석되어야 한다. 본 명세서에 개시된 실시형태 및 첨부 도면에 도시된 구성은 예시적인 성질의 것이며 포함적인 성질로 의도되지 않는다. 바람직한 실시형태는 본 발명의 모든 가능한 기술적 변형을 대표하지 않는다. 그러므로, 본 발명은 그 수정 및 변형이 본 출원의 출원 시점에서 첨부된 청구범위 및 그 균등물 내에 해당하는 한 이들 수정 및 변형을 포함하는 것으로 이해해야 한다.
이하의 상세한 설명을 위해 인접 블록이라는 모든 언급은 현재 예측 유닛에 인접하는 블록을 지칭하는 것으로 이해해야 한다는 것을 유의하자. 현재 예측 유닛은 본 발명의 새로운 인트라 평면 예측 모드에 따라 처리되는 예측인 현재 예측 샘플을 포함하는 것으로 이해해야 한다. 거리 H는 현재 예측 유닛의 샘플의 높이를 지칭하며, W는 현재 예측 유닛의 샘플의 너비를 지칭한다. 또한, 회색 영역은 이전에 복원된 샘플을 나타낸다. 복원된 샘플은 예측되어 비디오 신호에 포함되는 잔여 값과 조합되며, 이러한 복원된 샘플은 본 발명에 따른 샘플을 예측하기 위해 참조될 수 있다. 예측된 샘플은 복원될 잔여 값과 아직 조합되지 않았으며 예측 처리되었고, 또한 본 발명에 따른 샘플을 예측하기 위해 참조될 수 있다. "샘플"이라는 용어는 공통적으로 알려진 "픽셀"이라는 용어와 상호 교환 가능하다는 것을 이해해야 한다.
도 1은 본 발명에 따른 새로운 인트라 평면 모드 예측 방법에서 참조를 위한 현재 예측 유닛(101) 내로부터 제 1 현재 예측 샘플 RB를 예측하는 실시형태를 도시하고 있다. 현재 예측 유닛(101)은 현재 예측 유닛(101)의 좌측에 인접하여 위치되는 인접 좌측 블록(102)을 갖는 것으로 도시되어 있다. 또한, 현재 예측 유닛(101)은 현재 예측 유닛(101)의 상부에 인접하여 위치되는 인접 상부 블록(103)을 갖는 것으로 도시되어 있다. 인접 좌측 블록(102) 및 인접 상부 블록(103)은 이들이 이전에 복원된 샘플로 구성된다는 것을 표시하기 위해 회색 영역으로 도시되어 있다. 제 1 현재 예측 샘플(RB)만이 도시되어 있으나, 현재 예측 유닛(101)은 예측되고 최종적으로 복원되어야 하는 복수의 현재 예측 샘플을 추가로 갖는다. 또한, 제 1 현재 예측 샘플(RB)은 현재 예측 유닛(101)의 우측 하부에 위치될 것이다.
현재 예측 유닛(101) 내로부터 제 1 현재 예측 샘플(RB)을 예측하기 위한 제 1 실시형태에 따르면, 제 1 현재 예측 샘플(RB)은 인트라 DC 모드 예측에 기초하여 예측될 것이다. 인트라 DC 모드 예측은 샘플(T)에 대한 샘플 값 및 샘플(L)에 대한 샘플 값을 참조하고 이들 두 샘플 값의 평균치를 결정할 것이다. 참조 샘플(T)는 인접 상부 블록(103)으로부터 참조되고, 참조 샘플(L)은 인접 좌측 블록(102)으로부터 참조된다. 그 후, 인트라 DC 모드 예측에 따라, 참조 샘플(T 및 L)에 대한 평균 샘플 값이 제 1 현재 예측 샘플(RB)에 대한 예측 값이 될 것이다. 이 인트라 DC 모드 예측 값을 사용하여, RB에 대한 예측 값이 현재 예측 유닛(101)의 나머지 샘플을 예측하기 위해 참조될 수 있다. 도 1에서는 참조 샘플(L 및 T)에 대한 위치를 구체적으로 지정하였으나, 참조 샘플(L)이 인접 좌측 블록(102)으로부터의 샘플 중 임의의 샘플로부터 참조되는 것도 본 발명의 범위에 포함되며, 참조 샘플(T)이 인접 상부 블록(103)으로부터의 샘플 중 임의의 샘플로부터 참조되는 것도 본 발명의 범위에 포함된다.
도 2는, 본 발명에 따른 새로운 인트라 평면 모드 예측 방법에서 참조를 위해 현재 예측 유닛(201) 내로부터 제 1 현재 예측 샘플(RB)를 예측하기 위한 제 2 실시형태를 도시하고 있다. 제 2 실시형태에 따르면, 제 1 현재 예측 샘플(RB)는 이전에 복원된 참조 샘플(2H) 및 이전에 복원된 참조 샘플(2W)의 평균에 기초하여 예측될 것이다. 참조 샘플(2H)은, 현재 예측 유닛(201)의 좌측에 대한 인접 블록의 크기에 따라, 인접 좌측 블록 또는 인접 좌측 하부 블록으로부터 얻어질 수 있다. 참조 샘플(2W)은, 현재 예측 유닛(201)의 상부에 대한 인접 블록의 크기에 따라, 인접 상부 블록 또는 인접 우측 상부 블록으로부터 얻어질 수 있다. 참조 샘플(2H 및 2W)에 대한 이 평균 샘플 값은, 제 2 실시형태에 따른 제 1 현재 예측 샘플(RB)에 대한 예측 값으로 사용될 것이다. 제 1 현재 예측 샘플(RB)에 대한 이 예측을 참조하여, 현재 예측 유닛(201)의 나머지 샘플이 예측될 수 있다. 참조 샘플(2H)이 이용 가능하지 않은 경우, 인접 좌측 블록 내의 거리(H)에 위치되는 참조 샘플이 제 2 실시형태의 목적을 위해 참조 샘플(2H) 대신에 참조될 수 있다. 참조 샘플(2W)이 이용 가능하지 않은 경우, 인접 좌측 블록 내의 거리(W)에 위치되는 참조 샘플이 제 2 실시형태의 목적을 위해 참조 샘플(2W) 대신에 참조될 수 있다.
도 3은 본 발명에 따른 새로운 인트라 평면 모드 예측 방법에서 참조를 위한 현재 예측 유닛(301) 내로부터 제 1 현재 예측 샘플(RB)을 예측하기 위한 제 3 실시형태를 도시하고 있다. 제 3 실시형태에 따르면, 인접 블록으로부터의 4개의 이전에 복원된 참조 샘플의 평균이 제 1 현재 예측 샘플(RB)을 예측하기 위해 참조될 것이다. 구체적으로, 참조 샘플(T) 및 참조 샘플(2T)은 T'의 평균 샘플 값을 얻기 위해 참조될 것이다. 참조 샘플(T)이 인접 상부 블록으로부터 참조되지만, 참조 샘플(2T)은 인접 상부 블록의 크기에 따라 동일한 인접 상부 블록 또는 별도의 인접 우측 상부 블록으로부터 참조될 수 있다. 유사하게, 참조 샘플(L 및 2L)이 L'의 평균 샘플 값을 얻기 위해 참조될 수 있다. 참조 샘플(L)이 인접 좌측 블록으로부터 얻어지지만, 참조 샘플(2L)은 인접 좌측 블록의 크기에 따라 동일한 인접 좌측 블록 또는 별도의 좌측 하부 인접 블록으로부터 참조될 수 있다. 그 후, 제 1 현재 예측 샘플(RB)에 대한 예측이 제 3 실시형태에 따라 T' 및 L'의 평균일 것이다. 제 1 현재 예측 샘플(RB)에 대한 이 예측을 참조하여, 현재 예측 유닛(301)의 나머지 샘플이 예측될 수 있다.
도 3에서, 2개의 참조 샘플의 평균을 결정하기 위한 기능이 시프트 기능의 관점으로 표기되어 있다. 예를 들어, 참조 샘플(L 및 2L)의 평균은 다음과 같이 표시된다.
L' = (L + 2L + 1) >> 1
위의 시프트 기능에 따르면, 잠재적 반올림 오차를 파악하기 위해 참조 샘플(L 및 2L)의 합에 값 1이 추가되었으나, 1을 더하지 않는 것도 본 발명의 범위에 속한다. 또한, 이중 화살표 시프트 기능 >>는 합을 2로 나누어 합의 평균을 구하는 것을 나타낸다. 시프트 기능을 사용하는 도 3에 도시된 RB 및 T'에 대한 평균 샘플 값에 대한 나머지 계산은 유사한 방식으로 수행된다는 것이 이해될 것이다.
도 4는 본 발명에 따른 새로운 인트라 평면 모드 예측 방법에서 참조하기 위한 현재 예측 유닛(401) 내로부터 제 1 현재 예측 샘플(RB)을 예측하기 위한 제 4 실시형태를 도시하고 있다. 제 4 실시형태에 따르면, 제 1 현재 예측 샘플(RB)에 대한 예측 값이 인접 블록으로부터의 2개의 참조 샘플을 참조하여 얻어진다. 구체적으로, 제 1 참조 샘플(T')는 인접 상부 블록의 크기에 따라 인접 상부 블록 및 인접 우측 상부 블록일 수 있는 인접 블록으로부터 참조된다. 제 1 참조 샘플(T')의 구분되는 특징은, 이전에 복원된 샘플들(T 및 2T) 사이에서 참조된다는 것이다. 제 2 참조 샘플(L')은 인접 좌측 블록의 크기에 따라 인접 좌측 블록 또는 인접 좌측 하부 블록일 수 있는 인접 블록으로부터 참조된다. 제 2 참조 샘플(L')의 구분되는 특징은 이전에 복원된 샘플들(L 및 2L) 사이의 위치로부터 참조된다는 것이다. 제 1 현재 예측 샘플(RB)에 대한 예측 값은 참조 샘플(T' 및 L')의 평균으로부터 얻어진다. 이는 도 4의 시프트 기능에 의해 다음과 같이 표시된다.
RB = (T' + L' + 1) >> 1
위의 시프트 기능에 따르면, 잠재적 반올림 오차를 파악하기 위해 값 1이 참조 샘플(T' 및 L')의 합에 추가되었으나, 1을 더하지 않는 것도 본 발명의 범위에 속한다. 또한, 이중 화살표 시프트 기능 >>는 합을 2로 나누어 합의 평균을 구하는 것을 나타낸다.
참조 샘플(T' 및 L')에 대한 평균값을 구하여 제 1 현재 예측 샘플(RB)에 대한 예측 값을 얻은 후, 제 1 현재 예측 샘플(RB)은 본 발명의 새로운 인트라 평면 모드 예측에 따라 현재 예측 유닛(401) 내의 나머지 샘플을 예측하기 위해 참조될 수 있다.
도 5는, 제 1 현재 예측 샘플(RB)의 예측을 먼저 획득한 후에 현재 예측 유닛(501) 내의 나머지 샘플을 예측하기 위한 실시형태를 도시하고 있다. 일단 제 1 현재 예측 샘플(RB)이 본 발명을 위해 설명되는 방법 중 하나에 따라 예측되었으면, 좌측 블록(502)으로부터의 샘플(L) 및 현재 예측 유닛(501) 내로부터의 샘플(RB)이 선형 보간을 수행하기 위해 참조될 것이다. 참조 샘플(L) 및 참조 샘플(RB)의 선형 보간으로부터의 결과가 도 5의 LI1으로 지칭된다. 참조 샘플(L 및 RB)의 선형 보간으로부터의 최종 예측 값 (LI1)은, 현재 예측 유닛(501)의 하부 행을 따라 지나가는 모든 현재 예측 샘플에 대한 예측 값으로서 수평적으로 채워질 것이다. 현재 예측 유닛(501)의 하부 행을 따라 지나가는 이들 샘플은 현재 예측 유닛(501) 내의 나머지 샘플을 예측하기 위해 참조될 것이다.
유사하게, 인접 상부 블록(503)으로부터의 샘플(T) 및 현재 예측 유닛(501) 내로부터의 샘플(RB)는 선형 보간을 수행하기 위해 참조될 것이다. 참조 샘플(T) 및 참조 샘플(RB)의 선형 보간으로부터의 최종 예측 값은 도 5에 LI2로서 표현된다. 참조 샘플(T 및 RB)의 선형 보간으로부터의 최종 예측 값(LI2)은, 현재 예측 유닛(501)의 가장 우측의 열을 따라 수직으로 지나가는 모든 현재 예측 샘플에 대한 예측 값으로 채워질 것이다. 현재 예측 유닛(501)의 가장 우측의 열을 따라 수직으로 지나가는 이들 샘플은 현재 예측 유닛(501) 내의 나머지 샘플을 예측하기 위해 참조될 수 있다.
도 5를 계속 참조하면, 아직 예측되지 않은 현재 예측 유닛(501) 내의 나머지 샘플은, 좌측 인접 블록(502), 상부 인접 블록(503) 및 현재 예측 유닛(501) 내로부터의 이전에 복원된 샘플 중에서 취해진 4개의 참조 샘플의 이중 선형 보간에 의해 예측된다. 예시를 위해, 도 5에는 현재 예측 샘플(C)에 대한 예측 처리가 도시되어 있다. 따라서, 제 1 실시형태에 따르면, 현재 예측 샘플(C)에 대한 예측은 참조 샘플(Ly, LI2, Tx 및 LI1)의 이중 선형 보간일 것이다. 참조 샘플(Ly)는 현재 예측 유닛(501)에 인접한 인접 좌측 블록(502)으로부터의 이전에 복원된 샘플이며 현재 예측 샘플(C)과 동일한 Y좌표를 공유한다는 것을 볼 수 있다. 참조 샘플(LI2)는 참조 샘플(L 및 RB)의 선형 보간에 의해 예측된 현재 예측 유닛(501) 내로부터 예측된 샘플이다. 참조 샘플(Tx)은 현재 예측 유닛(501)에 인접하는 인접 상부 블록(503)으로부터의 이전에 복원된 샘플이며 현재 예측 샘풀(C)과 동일한 X 좌표를 공유한다는 것도 볼 수 있다. 참조 샘플(LI1)은 참조 샘플(L 및 RB)의 선형 보간에 의해 예측된 현재 예측 유닛(501) 내로부터의 예측된 샘플이다. 현재 예측 샘플(C)에 대한 예측 값을 얻기 위해, Ly, LI2, Tx 및 LI1의 이중 선형 보간이 동시에 처리될 것이다. 현재 예측 유닛(501) 내의 나머지 현재 예측 샘플은 현재 예측 샘플(C)과 유사한 방식으로 제 1 실시형태에 따라 예측될 것이다.
다른 방안으로서, 현재 예측 샘플(C)의 이중 선형 보간은 2개의 별도의 선형 보간의 평균을 구하여 처리될 수도 있다. 이에 따르면, 참조 샘플(Ly 및 LI2)의 선형 보간은 참조 샘플(Tx 및 LI1)의 선형 보간과는 별개로 처리될 것이며, 현재 예측 샘플(C)에 대한 예측은 이들 2개의 선형 보간의 평균에 기초할 것이다. 나머지 현재 예측 샘플은 현재 예측 샘플(C)과 유사한 방식으로 제 1 실시형태의 다른 예에 따라 예측될 것이다.
도 6은 제 1 현재 예측 샘플(RB)의 예측을 먼저 얻은 후에 현재 예측 유닛(601) 내의 나머지 샘플을 예측하기 위한 제 2 실시형태를 도시하고 있다. 도 6에서, 제 1 현재 예측 샘플(RB)은 참조 샘플(2L) 및 참조 샘플(2T)의 평균을 구하여 예측된다는 것을 볼 수 있다. 제 1 현재 예측 샘플(RB)을 예측한 후, 현재 예측 유닛(601)의 하부 행을 따른 나머지 현재 예측 샘플은 도 6에 도시된 바와 같이 인접 블록으로부터 카피된다. 현재 예측 유닛(601)의 하부 행을 카피하기 위해 참조되는 참조 샘플은 현재 예측 유닛에 대해 인접 좌측 블록의 크기에 따라 인접 좌측 블록으로부터 또는 인접 좌측 하부 블록으로부터 올 수 있다. 유사하게, 현재 예측 유닛(601)의 가장 우측의 수직 열을 따른 나머지 현재 예측 샘플은 도 6에 도시된 바와 같은 인접 블록으로부터 카피된다. 현재 예측 유닛(601)의 가장 우측의 수직 열을 카피하기 위해 참조되는 참조 샘플은 인접 상부 블록의 크기에 따라서 인접 상부 블록 또는 인접 우측 상부 블록으로부터 올 수 있다.
도 7은 도 6에 도시된 현재 예측 유닛(601)의 클로즈 업 도면이다. 도 6에 도시된 바와 같이 인접 블록으로부터 샘플을 카피함으로써 현재 예측 유닛(601)의 하부 행 및 가장 우측의 수직 열을 따라 샘플을 예측한 후, 현재 예측 유닛(601) 내의 나머지 샘플은 이중 선형 보간을 따라 예측된다. 이중 선형 보간은 좌측 인접 블록(602), 상부 인접 블록(603) 및 현재 예측 유닛(601) 내로부터의 4개의 샘플을 참조하여 처리된다. 예시를 위해, 도 7은 현재 예측 샘플(C)에 대한 예측 처리를 도시하고 있다. 따라서, 제 2 실시형태에 따르면, 현재 예측 샘플(C)에 대한 예측은 Ly, RC, Tx 및 BC의 이중 선형 보간일 것이다. 참조 샘플(Ly)은 현재 예측 유닛(601)에 인접한 인접 좌측 블록(602)으로부터의 샘플이며 현재 예측 샘플(C)과 동일한 x 좌표 선상에 존재한다. 현재 예측 샘플(RC)은 도 6을 참조하여 설명된 인접 블록으로부터의 참조 샘플을 카피하여 예측된 현재 예측 샘플(601) 내로부터의 샘플이며, 역시 현재 예측 샘플(C)과 동일한 y 좌표 선상에 존재한다. 참조 샘플(Tx)은 현재 예측 유닛(601)에 인접하는 인접 상부 블록(603)으로부터의 샘플이며 현재 예측 샘플(C)과 동일한 x 좌표 선상에 존재한다. 참조 샘플(BC)은 도 6을 참조하여 설명한 바와 같이 인접 블록으로부터의 참조 샘플을 카피하여 예측된 현재 예측 샘플(501) 내의 샘플이며, 현재 예측 샘플(C)과 동일한 x 좌표 선상에 존재한다. Ly, Rc, Tx 및 Bc의 이중 선형 보간은 현재 예측 샘플(C)에 대한 예측 값을 얻기 위해 동시에 처리될 것이다. 나머지 현재 예측 샘플은 현재 예측 샘플(C)과 유사한 방식으로 제 2 실시형태에 따라 예측될 것이다.
다른 방안으로서, 현재 예측 샘플(C)의 이중 선형 보간은 2개의 별도의 선형 보간의 평균을 구하여 처리될 수도 있다. 이에 따르면, 참조 샘플(Ly 및 Rc)의 선형 보간은 참조 샘플(Tx 및 Bc)의 선형 보간과는 별도로 처리될 것이며, 현재 예측 샘플(C)에 대한 예측은 2개의 선형 보간의 평균에 기초할 것이다. 나머지 현재 예측 샘플과 유사한 방식으로 제 2 실시형태의 다른 방안에 따라 예측될 것이다.
도 8은 제 1 현재 예측 샘플(RB)의 예측을 먼저 얻은 후에 현재 예측 유닛(801) 내의 나머지 샘플을 예측하기 위한 제 3 실시형태를 도시하고 있다. 전술한 실시형태 중 하나에 따른 제 1 현재 예측 샘플(RB)을 예측한 후, 현재 예측 유닛(801)의 하부 행에 속하는 나머지 현재 예측 샘플은 2개의 인접 블록으로부터 참조되는 2개의 참조 샘플의 선형 보간을 사용하여 채워진다. 예시를 위해, 현재 예측 샘플(B5)을 예측하기 위한 예는 현재 예측 유닛(801)의 하부 행을 따라 샘플을 예측하는 예로서 설명될 것이다. 현재 예측 샘플(B5)을 예측하기 위해 참조되는 2개의 참조 샘플은 공통 각도 라인을 따라 놓이며 2개의 별개의 인접 블록으로부터 온다. 화살표(α)로 표시되는 제 1 참조 샘플은 인접 좌측 블록의 크기에 따라 인접 좌측 블록 또는 인접 좌측 하부 블록으로부터 참조된다. 화살표(1-α)로 표시되는 제 2 참조 샘플은 인접 상부 블록의 크기에 따라 인접 상부 블록 또는 인접 우측 상부 블록으로부터 참조된다. 따라서, 제 1 참조 샘플 및 제 2 참조 샘플은 현재 예측 샘플(B5)에 대한 예측 값을 얻기 위해 선형적으로 보간될 것이다. 현재 예측 유닛(801)의 하부 행을 따른 나머지 현재 예측 샘플은 대응 각도 라인을 따라 놓이는 2개의 별도의 참조 샘플을 참조하여 유사한 방식으로 예측될 것이다. 예측된 현재 예측 샘플은 현재 예측 유닛(801) 내의 나머지 샘플을 예측할 때에 참조될 수 있다.
또한, 도 8에는 제 3 실시형태에 따른 현재 예측 유닛(801) 내의 샘플의 가장 우측의 수직 열에 대한 예측 방법이 도시되어 있다. 예시를 위해, 현재 예측 유닛(801)의 가장 우측의 수직 열을 따른 샘플을 예측하는 예로서 현재 예측 샘플(R2)을 예측하는 예가 설명될 것이다. 도 8에 도시된 바와 같이, 현재 예측 샘플(R2)을 예측하기 위해 참조되는 2개의 샘플은 공통 각도 라인을 따라 놓이며 2개의 별도의 인접 블록으로부터 온다. 화살표(α)로 표시된 제 1 참조 샘플은 좌측 블록의 크기에 따라 인접 좌측 블록 또는 인접 좌측 하부 블록으로부터 참조된다. 화살표(1-α)로 표시된 제 2 참조샘플은 상부 블록의 크기에 따라 인접 상부 블록 또는 인접 우측 상부 블록으로부터 참조된다. 따라서, 제 1 참조 샘플 및 제 2 참조 샘플은 현재 예측 샘플(R2)에 대한 예측 값을 얻기 위해 선형적으로 보간될 것이다. 현재 예측 유닛(801)의 가장 우측의 수직 열을 따른 나머지 샘플은 대응 각도 라인을 따라 놓이는 2개의 개별 참조 샘플을 참조하여 유사한 방식으로 예측될 것이다. 예측된 현재 예측 샘플은 현재 예측 유닛(801) 내의 나머지 샘플을 예측할 때에 참조될 수 있다.
도 9는 도 8에 도시된 현재 예측 유닛(801)의 클로즈 업 도면인데, 하부 행을 따른 샘플 및 가장 우측의 수직 열을 따른 샘플이 예측되었다. 아직 예측되지 않은 현재 예측 유닛(801) 내의 나머지 샘플은 좌측 인접 블록(802), 상부 인접 블록(803) 및 현재 예측 유닛(801) 내로부터의 이전에 복원된 샘플로부터 취해진 4개의 참조 샘플의 이중 선형 보간에 의해 예측된다. 예시를 위해, 도 9에는 현재 예측 샘플(C)의 예측 처리를 위한 예가 도시되어 있다. 제 3 실시형태에 따르면, 현재 예측 샘플(C)에 대한 예측은 참조 샘플(Ly, RC, Tx 및 BC)의 이중 선형 보간일 것이다. 참조 샘플(Ly)은 현재 예측 유닛(801)에 인접한 인접 좌측 블록(802)으로부터의 샘플이며 현재 예측 샘플(C)과 동일한 y 좌표 선상에 존재한다. 참조 샘플(RC)은 도 8을 참조하여 설명되는 공통 각도 라인을 따라 놓이는 인접 블록으로부터의 2개의 샘플의 선형 보간에 기초하여 예측된 현재 예측 샘플(801) 내로부터의 샘플이며, 현재 예측 샘플(C)과 동일한 y 좌표 선상에 존재한다. 참조 샘플(Tx)은 현재 예측 유닛(801)에 인접하는 인접 상부 블록(803)으로부터의 샘플이며 현재 예측 샘플(C)과 동일한 x 좌표 선상에 존재한다. 참조 샘플(BC)는 도 8을 참조하여 설명되는 공통 각도 라인을 따라 놓이는 인접 블록으로부터의 2개의 샘플의 선형 보간에 의해 예측된 현재 예측 샘플(801) 내로부터의 샘플이며, 현재 예측 샘플(C)과 동일한 x 좌표 선상에 존재한다. Ly, Rc, Tx 및 Bc의 이중 선형 보간은 현재 예측 샘플(C)에 대한 예측 값을 얻기 위해 동시에 처리될 것이다. 나머지 현재 예측 샘플은 현재 예측 샘플(C)과 유사한 방식으로 제 3 실시형태에 따라 예측될 것이다.
다른 방안으로서, 현재 예측 샘플(C)의 이중 선형 보간은 참조 샘플(Ly 및 RC)의 선형 보간 및 참조 샘플(Tx 및 BC)의 선형 보간을 별도로 구하고, 이들 2개의 선형 보간의 평균을 구함으로써 처리될 수도 있다. 나머지 현재 예측 샘플은 유사한 방식으로 제 3 실시형태에 대한 이 다른 예에 따라 처리될 것이다.
도 10은 제 1 현재 예측 샘플(RB)의 예측을 먼저 구한 후에 현재 예측 유닛(1001) 내의 나머지 샘플을 예측하기 위한 제 4 실시형태를 도시하고 있다. 전술한 실시형태 중 하나에 따라 제 1 현재 예측 샘플(RB)을 예측한 후에, 현재 예측 유닛(1001)에 속하는 모든 나머지 현재 예측 샘플이 인접 블록으로부터 참조되는 4개의 참조 샘플의 이중 선형 보간을 사용하여 채워진다/예측된다. 그러므로, 현재 예측 유닛(1001)의 하부 행을 따라 놓이는 현재 예측 샘플 및 현재 예측 유닛(1001)의 가장 우측의 수직 열을 따라 놓이는 현재 예측 샘플에 대한 예측을 별도로 계산할 필요가 없다. 예시를 위해, 도 10에는 제 4 실시형태에 따른 현재 예측 샘플(C)에 대한 예측 처리가 도시되어 있다.
현재 예측 샘플(C)에 대한 예측을 처리하기 위해, 4개의 참조 샘플, Ly, 2T, Tx 및 2L의 이중 선형 보간이 이루어질 것이다. 참조 샘플(Ly)은 현재 예측 유닛(1001)에 인접하는 인접 좌측 블록으로부터의 샘플이며, 현재 예측 샘플(C)과 동일한 y 좌표 선상에 존재한다. 참조 샘플(2T)은 단순히 인접 상부 블록 또는 인접 우측 상부 블록으로부터 취해진 이전에 복원된 참조 샘플(2T)의 카피이다. 참조 샘플(Tx)은 현재 예측 유닛(1001)에 인접하는 인접 상부 블록으로부터의 샘플이며, 현재 예측 샘플(C)과 동일한 x 좌표 선상에 존재한다. 참조 샘플(2L)은 단순히 인접 좌측 블록 또는 인접 좌측 하부 블록으로부터 취해진 이전에 복원된 참조 샘플(2L)의 카피이다. 현재 예측 샘플(C)에 대한 예측 값을 얻기 위해 Ly, 2T, Tx 및 2L의 이중 선형 보간이 동시에 처리될 것이다. 나머지 현재 예측 샘플은 현재 예측 샘플(C)과 유사한 방식으로 제 4 실시형태에 따라 예측될 것이다.
제 4 실시형태에 따르면, 참조 샘플(2L 및 2T)은 현재 예측 유닛(1001) 내의 현재 예측 샘플을 예측하기 위해 이루어진 각 이중 선형 보간을 위해 일정하게 유지될 것이다. 그러나, 참조 샘플(Ly 및 Tx)은 예측되는 현재 예측 샘플의 x 및 y 좌표에 대응하도록 변경될 것이다.
제 4 실시형태의 제 1 다른 방안으로서, 이중 선형 보간은 2개의 별도의 선형 보간의 평균으로서 처리될 수도 있다. 제 1 다른 방안에 따르면, 샘플(Ly 및 2T)를 참조하여 제 1 선형 보간이 얻어진다. 또한, 샘플(Tx 및 2L)을 참조하여 제 2 선형 보간이 얻어진다. 그 후, 현재 예측 샘플(C)에 대한 예측은 샘플(Ly 및 2T)의 제 1 선형 보간 및 샘플(Tx 및 2L)의 제 2 선형 보간으로부터의 최종 평균일 것이다. 나머지 현재 예측 샘플은 유사한 방식으로 제 4 실시형태의 이 다른 방안에 따라 예측될 수 있다.
제 4 실시형태에 대한 제 2 다른 방안에서, 제 1 현재 예측 샘플(RB)을 예측하고 나서 현재 예측 샘플(C)을 예측하기 전에, 현재 예측 유닛(1001)의 하부 행에 존재하는 현재 예측 샘플은 2L의 카피로 패딩될 수 있다. 유사하게, 현재 예측 유닛(1001)의 가장 우측의 열에 존재하는 현재 예측 샘플은 2T의 카피로 패딩될 수 있다.
도 11은 현재 예측 샘플(RB)의 예측을 먼저 획득한 후에 현재 예측 유닛(1101) 내의 나머지 샘플을 예측하기 위한 제 5 실시형태를 도시하고 있다. 본 발명의 방법 중 하나에 따라 제 1 현재 예측 샘플(RB)을 예측한 후, 인접 블록으로부터의 2개의 이전에 복원된 참조 샘플의 제 1 선형 보간 및 2개의 이전에 복원된 참조 샘플의 제 2 선형 보간의 평균을 구하여 현재 예측 유닛(1101) 내의 모든 나머지 현재 예측 샘플이 예측된다.
도 11에서, 제 1 선형 보간은 현재 예측 샘플(C)과 동일한 y 좌표에 존재하는 인접 블록 좌측 블록으로부터 참조되는 이전에 복원된 참조 샘플(Ly) 및 현재 예측 유닛(1101)으로부터의 우측 상부 샘플에 인접하는 인접 상부 블록으로부터의 이전에 복원된 샘플(T)의 카피인 참조 샘플(T)에 의해 이루어진다. 제 2 선형 보간은 현재 예측 샘플(C)과 동일한 x 좌표에 존재하는 인접 상부 블록으로부터의 이전에 복원된 샘플(Tx) 및 현재 예측 유닛(1101)의 좌측 하부 샘플에 인접하는 인접 좌측 블록으로부터의 이전에 복원된 샘플(L)의 카피인 참조 샘플(L)에 의해 이루어진다.
제 1 선형 보간은 제 2 선형 보간에 추가된 후 현재 예측 샘플(C)에 대한 예측을 얻기 위해 평균이 구해진다. 평균 기능은 도 11에서 우측 시프트 기능으로 시각적으로 표현된다. 현재 예측 샘플(C)에 대한 예측은 제 1 선형 보간 및 제 2 선형 보간의 평균이다. 나머지 샘플은 유사한 방식으로 예측될 것이다. 제 1 선형 보간은 인접 상부 블록으로부터 카피된 샘플(T)을 항상 참조할 것이며, 현재 예측 샘플(C)과 동일한 y 좌표를 갖는 인접 좌측 블록으로부터 이전에 복원된 샘플(Ly)를 가변적으로 참조할 것이다. 그 후, 제 2 선형 보간은 인접 좌측 블록으로부터의 카피된 샘플(L)을 항상 참조할 것이며, 현재 예측 샘플(C)과 동일한 X 좌표를 갖는 인접 상부 블록으로부터의 이전에 복원된 샘플(TX)을 가변적으로 참조할 것이다.
제 5 실시형태의 다른 방안에서, 제 1 현재 예측 샘플(RB)을 예측한 후에 현재 예측 샘플(C)을 예측하기 이전에, 현재 예측 유닛(1101)의 하부 행에 놓이는 현재 예측 샘플은 참조 샘플(L)의 카피로 패딩될 수 있다. 유사하게, 현재 예측 유닛(1101)의 가장 우측의 열에 놓이는 현재 예측 샘플은 참조 샘플(T)의 카피로 패딩될 수 있다.
도 12는 제 1 현재 예측 샘플(RB)의 예측을 먼저 획득한 후에 현재 예측 유닛(1201) 내의 나머지 샘플을 예측하기 위한 제 6 실시형태를 도시하고 있다. 본 발명의 방법 중 하나에 따른 제 1 현재 예측 샘플(RB)을 예측한 후, 현재 예측 유닛(1201) 내의 모든 나머지 현재 예측 샘플은 2개의 가중된 선형 보간의 조합에 기초하여 예측될 것이다.
도 12에서, 제 1 선형 보간은 현재 예측 샘플(C)과 동일한 y 좌표에 존재하는 인접 좌측 블록으로부터 참조되는 이전에 복원된 참조 샘플(Ly)을 참조하고, 현재 예측 유닛(1201)의 우측 상부 샘플에 인접하는 인접 상부 블록으로부터의 이전에 복원된 샘플(T)의 카피인 참조 샘플(T)을 참조하여 처리된다. 제 2 선형 보간은 현재 예측 샘플(C)과 동일한 x 좌표에 존재하는 인접 상부 블록으로부터의 이전에 복원된 샘플(Tx) 및 현재 예측 유닛(201)의 좌측 하부 샘플에 인접하는 인접 좌측 블록으로부터의 이전에 복원된 샘플(L)의 키피인 참조 샘플(L)을 참조하여 처리된다.
제 1 선형 보간 및 제 2 선형 보간의 각각은 그 가중치가 할당될 것이다. 도 12는 제 1 선형 보간이 제 1 가중치(WH)에 의해 가중되고, 제 2 선형 보간이 제 2 가중치(WV)에 의해 가중되는 것을 도시하고 있다. 현재 예측 샘플(C)에 대한 예측(Pc)은 다음과 같이 합해질 것이다.
Pc = WH × (제 1 선형 보간) + WV × (제 2 선형 보간)
현재 예측 샘플(C)이 현재 예측 유닛(1201) 내의 좌표(x, y)를 갖는다고 가정하면, 현재 예측 샘플(C)에 대한 예측, 즉, PC(x,y)는 다음 식과 같다.
PC(x,y) = (y+1)/(x+y+2)(제 1 선형 보간) + (x+1)/(x+y+2)(제 2 선형 보간)
위에 기재된 식에 따르면, 제 1 선형 보간에 적용될 WH에 대한 값은 (y+1)/(x+y+2)이다.
또한, 제 2 선형 보간에 적용될 WV에 대한 값은 (x+1)/(x+y+2)이다.
제 6 실시형태의 다른 방안에서, 현재 예측 샘플(RB)을 예측한 후에 현재 예측 샘플(C)을 예측하기 이전에, 현재 예측 유닛(1201)의 하부 행에 놓이는 현재 예측 샘플은 참조 샘플(L)의 카피로 패딩될 수 있다. 유사하게, 현재 예측 유닛(1201)의 가장 우측의 열에 놓이는 나머지 현재 예측 샘플은 참조 샘플(T)의 카피로 패딩될 수 있다.
도 13은 현재 예측 유닛에 인접하는 소정 샘플을 필터링하는 새로운 방법을 도시하고 있는데, 필터링을 위해 선택된 샘플은 본 발명에 따른 새로운 인트라 평면 모드 예측을 처리할 때에 참조될 수 있다. 통상적으로, 현재 예측 유닛(1301)의 우측 상부 샘플에 인접하는 인접 샘플(T)는 새로운 인트라 평면 모드 예측 동안에 우세하게(dominatly) 참조될 샘플 중 하나 일 것이다. 또한, 통상적으로 현재 예측 유닛(1301)의 우측 하부에 인접하는 인접 샘플(L)은 새로운 인트라 평면 모드 예측 동안에 우세하게 참조될 다른 참조 샘플일 것이다. 그러므로, 2개의 참조 샘플(T 및 L)의 우선 순위를 정하고자 한다. 따라서, 참조 샘플(T 및 L)의 우선 순위를 정하는 방법으로서, 본 발명은 필터링 프로세스를 통해 참조 샘플(T 및 L)을 처리하는 해결책을 제공하여 현재 예측 유닛(1301) 내의 최종 예측된 샘플의 매끄러움(smoothness)을 증가시킬 뿐만 아니라 전체 비디오 신호 압축의 효율을 증가시킨다.
따라서, 도 13은 1:2:1 필터링 프로세스를 통해 참조 샘플(T 및 L)을 처리하는 도면이다. 본 발명에 따른 필터링 프로세스를 달성하기 위해, 참조 샘플(T 및 L)에 인접하는 이전에 복원된 샘플도 이용될 것이다. 예를 들어, 참조 샘플(T)의 좌측에 인접하는 샘플(T-1) 및 참조 샘플(T)의 우측에 인접하는 샘풀(T+1)이 도 13에서 강조된다. 또한, 참조 샘플(L)의 상부에 인접하는 샘플(L-1) 및 참조 샘플(L)의 하부에 인접하는 샘플(L+1)이 도 13에서 강조된다. 참조 샘플(T 및 L)의 필터링 프로세스로부터 얻어지는 참조 샘플은 T' 및 L'으로서 각각 참조될 것이다. 본 발명의 새로운 인트라 평면 모드에 따라 현재 예측 유닛(1301) 내의 샘플을 예측할 때에 실제로 참조될 것은 이들 필터링된 샘플(T' 및 L')이다.
참조 샘플(T)에 적용되는 1:2:1 필터링 프로세스는 다음 식에 따라 처리된다.
Figure 112017090995778-pat00001
디지털 데이터의 대부분의 기본 레벨에서 실제 샘플 값은 이진수 비트 스트링으로 표현되기 때문에, 위의 식은 참조 샘플(T)에 대한 값을 나타내는 이진수 비트로 시프트 기능의 관점으로 기록될 수 있다. 시프트 기능의 관점으로 기록되는 이 식은 다음과 같이 기록될 수 있다.
Figure 112017090995778-pat00002
시프트 기능의 관점으로 기록된 위의 식을 참조하면, (<<1) 좌측 시프트는 좌측으로의 하나의 시프트를 나타내며, 이는 수학적으로 2배 또는 2를 곱하는 것과 동등한 것으로 이해된다. (>>2) 우측 시프트는 우측으로의 2 시프트를 나타내며, 이는 수학적으로 4로 나누는 것과 동등한 것으로 이해된다.
유사하게, 참조 샘플(L)에 적용되는 1:2:1 필터링 프로세스는 다음 식에 따라 처리된다.
Figure 112017090995778-pat00003
이 식은 시프트 기능의 관점으로 다음과 같이 표현될 수도 있다.
Figure 112017090995778-pat00004
참조 샘플(L 및 T)에 대한 필터링을 처리한 후, 새로운 필터링된 값(L' 및 T')는 본래 참조 샘플(L 및 T)를 대체할 것이다. 이렇게 함으로써, 새로운 필터링된 참조 샘플(L' 및 T')는 현재 예측 유닛(1301)에 대한 새로운 인트라 평면 모드 예측을 처리할 때 참조될 수 있다.
그러나, 참조 샘플(T 및 L)에 인접하는 샘플 중 하나가 이용 가능하지 않은 경우, 참조 샘플에 대한 값은 더 큰 정도로 가중될 필요가 있을 것이다. 예를 들어, 참조 샘플(T)의 우측에 인접하는 샘플(T+1)이 이용 가능하지 않은 경우, 참조 샘플(T)는 다음 식에 따라 처리될 수 있는 1:3 필터링 프로세스를 받을 수 있다.
Figure 112017090995778-pat00005
수정된 필터링 식으로부터 명백한 바와 같이, 샘플(T)에 대한 값은 이용 가능하지 않은 샘플(T+1)을 보상하기 위해 본래 2배와 반대로 3배 가중된다. 이 새로운 필터링 프로세스는 시프트 기능의 관점으로 다음과 같이 기록될 수 있다.
Figure 112017090995778-pat00006
유사하게, 참조 샘플(T)의 좌측에 인접하는 샘플(T-1)이 이용 가능하지 않은 경우, 참조 샘플(T)은 다음 식에 따라 처리될 수 있는 3:1 필터링 처리를 받을 수 있다.
Figure 112017090995778-pat00007
이 새로운 필터링 프로세스는 시프트 기능의 관점으로 다음과 같이 기록될 수 있다.
Figure 112017090995778-pat00008
인접 샘플(L+1 또는 L-1) 중 하나가 이용 가능하지 않은 경우에, 동일한 유형의 보상 필터링 프로세싱이 참조 샘플(L)을 필터링하기 위해 적용될 수 있다.
새로운 필터링된 참조 샘플(L' 및 T')을 참조함으로써 현재 예측 유닛(1301) 내의 샘플에 대한 보다 매끄러운 예측을 얻을 뿐만 아니라 디지털 비디오 신호에 대한 보상 효율을 증가시킬 것이다.
전술한 모든 실시형태에서는, 현재 예측 유닛 내의 우측 하부 샘플이 디코딩 유닛에 의해 수신된 후에 예측될 제 1 예측 샘플이었다. 그러나, 본 발명의 다른 양태에 따르면, 원본 비디오 신호를 비디오 데이터의 예측 유닛으로 최초로 인코딩하는 인코딩 유닛이 본 발명의 새로운 인트라 평면 모드에 따라 예측되는 예측 유닛 내의 샘플 중 하나를 복원된 상태로 유지할 수 있다. 제 1 예측 샘플을 복원된 상태로 전송함으로써, 디코딩 유닛이 새로운 인트라 평면 모드 예측 둥안에 참조하기 위한 제 1 예측 샘플을 획득하기 위한 예측을 수행하는 작업을 하지 않게 한다. 이 제 1 예측 샘플은 본 발명에 따른 새로운 인트라 평면 모드 예측을 위해 요구되는 보간 프로세싱을 위해 필요한 것으로 설명되었다.
또한, 본 발명의 다른 양태는 복원된 샘플로서 전송되는 제 1 예측 값이 예측 유닛 내의 임의의 위치에 위치될 수 있게 한다. 이전 예에서는 예측 유닛 내의 제 1 예측 샘플이 예측 유닛의 우측 하부 에지(edge)에 위치되는 것으로 항상 가정하였으나, 본 발명의 다른 양태는 제 1 예측 샘플이 임의의 위치에 위치되게 한다.
예시를 위해, 도 14는 제 1 현재 예측 샘플(C)이 복원된 상태로 디코딩 유닛에 의해 수신되었음을 나타내기 위해 회색 음영으로 표시되어 있다. 또한, 인접 좌측 블록(1402) 및 인접 상부 블록으로부터의 샘플은 디코딩 유닛에 의해 이전에 복원되었음을 나타내기 위해 회색 음영으로 표시되어 있다. 복원된 상태로 전송되는 제 1 현재 예측 샘플(C)은 현재 예측 유닛(1401) 내의 제 1 현재 예측 샘플(C)의 위치를 표시하는 좌표 정보가 수반될 수도 있다. 복원된 상태로 전송되는 제 1 현재 예측 샘플(C)의 좌표가 식별 정보의 일부로서 비디오 신호에 포함되지 않는 경우, 디코딩 유닛은 좌표를 결정하기 위한 다양한 선택사양을 갖는다.
통상적으로, 원본 비디오 신호가 예측 유닛으로 인코딩되는 인코딩 유닛 측에서, 복원된 상태로 전송될 제 1 예측 샘플의 위치를 식별하는 정보가 전송되는 비디오 신호에 포함되지 않으면, 인코딩 유닛은 인접 블록의 에지를 따라 지나가는 제 1 예측 샘플의 위치와 일치할 것이다. 이는, 이 에지를 검출하기 위해 예측 유닛을 수신하는 디코딩 유닛에 대한 다양한 방법이 존재하므로, 실시하기에 바람직하다. 도 15에 실시된 형태가 도시되어 있는데, 이 도면에서 인코딩 유닛은 에지(1504 및 1505)와 일치하도록 제 1 예측 샘플(C)에 대한 위치를 선택할 것이다. 에지는 반드시 예측 유닛(1501)에 인접하는 인접 블록의 에지가어야 한다. 따라서, 에지(1504)는 인접 좌측 블록(1502)의 에지가고 에지(1505)는 인접 상부 블록(1503)으로부터의 에지가다. 이 에지는 인접 블록을 예측 유닛(1501)보다 작은 크기로 분할하여 형성된다. 따라서, 인코딩 유닛이 비디오 신호 내에 복원된 상태로 전송되는 예측 샘플(C)에 대한 위치를 식별하는 정보를 명시적으로 전송하지 않는 경우, 인코딩 유닛은 디코딩 유닛에 의해 용이하게 식별 가능한 예측 유닛 내의 위치를 선택해야 한다. 인접 블록의 에지는 디코딩 유닛의 수신에 의해 용이하게 식별 가능한 표시 지점을 제공한다. 따라서, 인코딩 유닛은 제 1 예측 샘플의 좌표에 기초하여 이들 인접 에지에 대응할 것인데, 이는 예측 유닛(1501)을 포함하는 비디오 신호를 수신하는 디코딩 유닛에 의해 하나의 블록이 끝나고 다음 블록이 시작하는 각 에지 지점이 용이하게 검출될 수 있기 때문이다.
도 16은 디코딩 유닛이 에지를 검출하는 방식에 관한 방법을 도시하고 있다. 도 16에 도시된 방법은, 2개의 인접하는 이전에 복원된 샘플이 샘플 값에 가장 큰 차이를 갖는 위치를 발견함으로써 각 에지 위치를 발견할 수 있다. 각 복원된 샘플은 고유의 대응하는 샘플 값을 가질 것이다. 그 후, 각 인접 블록이 고유하게 예측되고 복원된 것으로 가정될 수 있기 때문에, 동일한 블록 내의 복원된 샘플이 유사한 샘플 값을 공유할 것인 반면, 별도의 블록에 속하는 샘플은 유사한 값을 공유하지 않을 것이라는 것이 가정될 수 있다. 그러므로, 한 블록의 끝부분이 다음 인접 블록의 시작 부분이 되는 에지 지점에서, 제 1 블록에 속하는 한 샘플과 제 2 블록에 속하는 제 2 샘플인 2개의 샘플을 비교하면 가장 큰 샘플 값의 차이를 얻을 것이라는 것을 추론할 수 있다. 따라서, 도 16에서, 디코딩 유닛은 현재 예측 유닛(1601)의 상부에 바로 인접하는 샘플의 행을 구성하는 모든 인접 샘플에 대한 차이를 계산할 수 있다. 그 후, 디코딩 유닛이 2개의 인접 샘플들 사이의 동일한 값의 가장 큰 차이를 발견하면, 2개의 인접 블록들 사이에 에지가 존재하는 지점이 고려될 수 있다. 따라서, 이는, 디코딩 유닛이 복원된 상태로 수신된 제 1 예측 샘플(C)에 대한 x 좌표인 것으로 고려할 수 있는 지점이다. 유사하게, 디코딩 유닛은 현재 예측 유닛(1601)의 좌측에 바로 인접하는 샘플 열을 구성하는 모든 인접 샘플에 대한 차를 계산할 것이다. 디코딩 유닛이 2개의 인접 샘플 사이의 샘플 값의 가장 큰 차를 발견하는 지점은, 2개의 인접 블록 사이의 에지가 존재하는 지점으로 고려될 수 있다. 따라서, 디코딩 유닛은 이 지점이 복원된 상태로 수신되는 제 1 예측 샘플(C)에 대한 y 좌표인 것으로 고려할 수 있다.
복원된 상태로 전송되는 제 1 예측 샘플의 좌표를 결정하기 위한 다른 방법은, 예측 유닛을 수신하는 디코딩 유닛이 인접 블록에 대한 분할 정보를 분석하는 것이다. 통상적으로, 인코딩 유닛에 의해 인코딩되는 비디오 신호는 비디오 데이터 및 식별 정보로 구성될 수 있다. 예측 유닛은 비디오 데이터의 일부로 고려될 수 있으며, 분할 정보는 식별 정보의 일부로 고려될 수 있다. 이 분할 정보는 비디오 데이터의 각 블록이 비디오 데이터의 작은 블록으로 분할되는 방식을 식별한다. 예를 들어, 데이터의 트리 블록이 복수의 코딩 블록으로 분할될 수 있고, 각 코딩 블록은 복수의 예측 블록/유닛으로 분할될 수 있으며, 각 예측 블록/유닛은 복수의 변형 블록/유닛 등으로 분할될 수 있다. 비디오 데이터를 정사각형이 아닌 샘플 데이터 영역으로 분할하는 것도 본 발명의 범위에 포함되는데, 이 경우에 기하학적 블록 분할 정보가 식별 정보의 일부로서 포함될 수도 있다.
어떠한 경우에도, 이러한 분할 정보는 비디오 신호에서 비디오 데이터를 포함하는 예측 유닛과 함께 식별 정보의 일부로서 전송된다. 따라서, 예측 유닛 및 분할 정보를 포함하는 비디오 신호를 수신하면, 디코딩 유닛은 현재 예측 유닛에 인접하는 각 예측 유닛의 분할 크기를 결정하기 위해 분할 정보를 분석할 수 있을 것이다. 이는 도 17에 도시되어 있다.
도 17에서, 디코딩 유닛이 현재 예측 유닛(1701)을 수신하고 본 발명의 새로운 인트라 평면 모드에 따라 현재 예측 유닛(1701)에 대해 예측을 처리하는 경우, 디코딩 유닛(1701)은 현재 예측 유닛(1701)에 인접하는 블록에 관한 분할 정보도 수신하고 분석할 것이다. 따라서, 분할 정보는 현재 예측 유닛(1701)의 상부에 인접하는 비디오 데이터의 각 분할된 블록의 크기를 식별할 것이다. 이 분할 정보로부터, 디코딩 유닛은 인접 상부 블록(NB1 및 NB2) 사이의 분할이 발생하는 지점을 식별할 수 있다. 또한, 이 판단으로부터, 디코딩 유닛은 제 1 현재 예측 샘플(C)에 대한 x 좌표를 결정하기 위해 최종 에지 라인을 따를 수 있다. 유사하게, 분할 정보는 현재 예측 유닛(1701)의 좌측에 인접하는 비디오 데이터의 각 분할된 블록의 크기를 식별할 것이다. 이 분할 정보로부터, 디코딩 유닛은 인접 좌측 블록(NB3 및 NB4) 사이의 분할이 발생하는 지점을 식별할 수 있다. 그 후, 인접 좌측 블록(NB3 및 NB4) 사이의 분할이 발생하는 것을 알게 됨으로써, 디코딩 유닛은 제 1 현재 예측 샘플(C)에 대한 y 좌표를 결정하기 위해 최종 에지 라인을 따를 수 있다.
따라서, 복원된 상태로 전송되는 제 1 예측 유닛의 위치가 인접 블록의 분할로부터 얻어지는 에지 라인가 일치하도록 선택되면, 디코딩 유닛은 복원된 상태로 전송되는 제 1 예측 유닛에 대한 위치를 결정하기 위해 이들 에지 라인을 성공적으로 식별할 수 있다.
이제, 복원된 상태인 제 1 예측 샘플을 포함하는 예측 유닛을 수신하고 제 1 예측 샘플의 위치를 결정한 후, 본 발명의 새로운 인트라 평면 예측 모드에 따른 예측 유닛 내의 나머지 샘플에 대한 예측이 처리될 수 있다. 따라서, 도 18에서, 제 1 현재 예측 샘플(C)은 복원된 상태로 수신된 것으로 도시되어 있으며, 제 1 현재 예측 샘플(C)의 위치는 대응하는 x 좌표 및 y 좌표를 갖는 것으로 결정되었다. 현재 예측 유닛(1801) 내에 존재하며 자신의 우측 하부 샘플로서 제 1 현재 예측 샘플(C)을 가짐으로써 정의되는, 1로 표시된 블록은 본 발명의 새로운 인트라 평면 모드에 대한 임의의 실시형태에 의해 예측된다. 블록(1)의 샘플을 예측한 후, 현재 예측 유닛(1801) 내에 존재하는 나머지 현재 예측 샘플은 블록(2, 3, 4)으로 표시된다. 이들 나머지 샘플은 본 발명의 새로운 인트라 평면 모드의 실시형태 중 하나에 의해 예측될 수 있다. 이는, 각 블록(2, 3, 4) 내의 우측 하부 샘플을 먼저 복원한 후에 각 블록(2, 3, 4)을 개별적으로 예측하기 위해 이 우측 하부 샘플을 참조함으로써 달성될 수 있다. 이와 달리, 블록(2, 3, 4) 내의 나머지 샘플이 전체로서 예측될 수 있다. 어떠한 경우에도, 블록(2, 3, 4)의 나머지 샘플은 본 발명에 따른 새로운 인트라 평면 모드의 실시형태 중 임의의 하나에 따라 예측될 수 있다.
다른 방안으로서, 블록(2, 3, 4) 내의 나머지 샘플은 이전에 복원된 인접 블록 중 하나, 가령, 블록(1) 내에서 복원된 샘플을 카피하여 예측될 수 있다.
또 다른 방안으로서, 나머지 블록은 우세한(dominant) 블록으로 결정된 인접 블록으로부터의 샘플을 참조하여 예측될 수 있다. 우세한 블록은 예측 처리되는 현재 블록과 가장 유사한 샘플 특징을 가질 것이다. 이는 도 19에 도시되어 있는데, 이 도면에서 현재 예측 블록(1901)이 현재 예측되고 있다. 예시를 위해, 각 인접 블록을 다양한 회색 음영을 갖는데, 음영이 어두울수록 더 우세한 것을 나타낸다. 인접 좌측 상부 블록이 가장 우세한 것으로 도시되어 있으므로, 인접 좌측 상부 블록은 현재 예측 블록(1901)을 예측하기 위해 참조될 것이다. 인접 좌측 상부 블록을 참조함으로써, 현재 예측 블록은 인접 좌측 상부 블록으로부터의 샘플을 단순히 카피하거나, 인접 좌측 상부 블록 내의 샘플을 참조함으로써 예측되어, 이용 가능한 인트라 예측 모드 중 하나에 따라 예측 처리를 수행할 수 있다.
현재 예측 블록(1901)에 대한 가장 유세한 인접 블록을 식별하기 위해, 인코딩 유닛에 의해 비디오 신호로서 전송되는 식별 정보의 일부로서 우세한 블록 정보가 포함될 것이다. 그 후, 디코딩 유닛이 우세한 블록 정보 및 현재 예측 정보(1901)를 포함하는 비디오 신호를 수신하면, 디코딩 유닛은 우세한 블록 정보를 분석하여 어느 인접 블록이 현재 예측 블록(1901)을 예측하기 위해 참조될 것인지를 결정할 수 있을 것이다.
도 20은 본 발명에 따른 새로운 인트라 평면 모드 예측을 수행하기 위해 사용될 수 있는 비디오 신호 디코딩 유닛의 개략적인 블록도이다.
도 20을 참조하면, 본 발명에 따른 디코딩 유닛은 엔트로피 디코딩 유닛(2010), 역 양자화 유닛(2020), 역변환 유닛(2025), 디블록킹 필터링 유닛(2030), 디코딩/복원된 화면 저장 유닛(2040), 인터 예측 유닛(2050) 및 인트라 예측 유닛(2060)을 포함한다.
엔트로피 디코딩 유닛(2010)은, 인코딩 유닛(도시 생략)에 의해 인코딩되는 비디오 신호 비트스트림에 대해 엔트로피 디코딩을 수행함으로써 비디오 데이터, 모션 벡터, 기준 화면 인덱스 등의 각 블록의 변환 계수를 추출한다. 역 양자화 유닛(2020)은 엔트로피 디코딩된 변환 계수를 역으로 양자화하고, 역변환 유닛(2025)은 역으로 양자화된 변환 계수를 사용하여 원본 샘플 값을 복원한다. 디블록킹 필터링 유닛(2030)은 블록 왜곡을 감소시키도록 비디오 데이터의 각 코딩된 블록에 적용된다. 필터링을 통한 화면은 디코딩된 화면 저장 유닛(2040)에 저장되어 출력되거나 기준 화면으로서 사용된다. 인터 예측 유닛(2050)은 디코딩된 화면 저장 유닛(2040)에 저장된 기준 화면 및 엔트로피 디코딩 유닛(2010)으로부터 전달된 인터 예측 정보(가령, 기준 화면 인덱스, 모션 벡터 등)을 사용하여 현재 화면을 예측한다. 특히, 현재 블록에 인접하는 블록(즉, 인접 블록)의 모션 벡터가 비디오 신호로부터 추출된다. 현재 블록의 예측된 모션 벡터는 인접 블록으로부터 얻어질 수 있다. 인접 블록은 현재 블록의 좌측, 상부 또는 우측 상부에 위치되는 블록을 포함할 수 있다. 예를 들어, 현재 블록의 예측된 모션 벡터는 인접 블록의 수평 및 수직 성분의 중간값을 사용하여 얻어질 수 있다. 이와 달리, 현재 블록의 좌측 블록이 인터 모드에서 코딩된 적어도 하나의 예측 블록인 경우, 현재 블록의 예측된 모션 벡터는 현재 블록의 상부측에 위치되는 예측 블록의 모션 벡터를 사용하여 얻어질 수 있다. 현재 블록의 상부 블록이 인터 모드에서 코딩된 적어도 하나의 예측 블록을 갖는 경우, 현재 블록의 예측된 모션 벡터는 가장 좌측에 위치되는 예측 블록의 모션 벡터를 사용하여 얻어질 수 있다. 인접 블록 중에서 현재 블록의 상부 및 우측에 위치되는 블록이 화면 또는 슬라이스 경계의 외부에 위치되는 경우, 현재 블록의 예측된 모션 벡터는 좌측 블록의 모션 벡터로 설정될 수 있다. 인접 블록 중에서 현재 블록의 동일한 기준 화면 인덱스를 갖는 하나의 블록이 존재하는 경우, 그 블록의 모션 벡터는 모션 예측을 위해 사용될 수 있다.
인트라 예측 유닛(2060)은 현재 화면 내에서 이전에 복원된 샘플을 참조함으로써 인트라 예측을 수행한다. 현재 화면 내의 복원된 샘플은 디블록킹 필터링이 적용되지 않은 샘플을 포함한다. 원본 화면은, 예측된 현재 화면 및 역변환 유닛(2025)으로부터 출력된 나머지를 함께 추가함으로써 복원된다. 비디오 데이터의 각 예측에 대해, 현재 예측 유닛의 각 현재 예측 샘플은 인트라 예측 유닛(2060)에 의해 본 발명의 새로운 인트라 평면 모드 예측에 따라 처리될 것이다. 그 후, 예측된 현재 예측 샘플은 역변환 유닛(2025)으로부터 출력된 나머지와 예측된 샘플을 조합하여 복원될 것이다.
도 21은 도 20에 도시된 디코딩 유닛의 다른 관점의 블록도이다. 도 21은 블록 타입 결정 유닛(2100) 및 복원 유닛(2170)을 추가로 포함한다. 블록 타입 결정 유닛(2100)은 현재 예측 유닛은 인터 예측 타입 유닛인지 인트라 예측 타입 유닛인지를 판단한다. 블록 타입 결정 유닛이 현재 예측 유닛이 인터 예측 타입 유닛이라고 판단하면, 현재 예측 유닛은 인터 예측 유닛(2150)으로 송신될 것이다. 또한, 블록 타입 결정 유닛이 현재 예측 유닛이 인트라 예측 타입 유닛이라고 판단하면, 현재 예측 유닛은 인트라 예측 유닛(2060)으로 송신될 것이다.
또한, 도 21은 인트라 예측 유닛(2160)이 예측 크기 결정 유닛(2161) 및 예측 모드 획득 유닛(2162)으로 구성되는 것을 도시하고 있다. 예측 크기 결정 유닛(2161)은, 인코딩 유닛에 의해 비디오 신호로 인코딩되고 디코딩 유닛에 의해 수신되는 식별 정보를 분석함으로써 또는 현재 예측 유닛을 직접적으로 처리하여 그 크기를 결정함으로써, 인트라 예측 유닛(2160)에 의해 예측되는 현재 예측 유닛의 크기를 결정할 수 있다. 따라서, 첫 번째 방법에 따르면, 비디오 신호 및 동반되는 식별 정보를 인코딩하는 인코딩 유닛은 비디오 신호로 인코딩되는 비디오 데이터의 각각의 예측 유닛에 대한 크기 정보를 포함할 것이다. 그 후, 디코딩 유닛은 각각의 예측 유닛에 대한 크기를 결정하기 위해 자신이 수신하는 비디오 신호로부터의 식별 정보만을 분석하면 된다. 두 번째 방법에 따르면, 인코딩 유닛은 비디오 데이터의 각각의 예측 유닛에 대한 크기 정보를 비디오 신호로 명시적으로 포함시키지 않는다. 대신, 디코딩 유닛의 예측 크기 결정 유닛(2161)은 각각의 예측 유닛의 크기를 결정하기 위해 각각의 예측 유닛의 처리를 수행한다. 첫 번째 방법에 따르면, 도 20에 도시된 바와 같이, 각각의 예측 유닛의 크기를 결정하는 식별 정보의 실제 분석은 예측 크기 결정 유닛(2161)에 의해 또는 엔트로피 디코딩 유닛(2010)에 의해 처리될 수 있다.
예측 모드 획득 유닛(2162)은, 인트라 예측 유닛(2160)에 의해 예측되는 각 현재 예측 유닛에 적용하는 적합한 인트라 예측 모드를 결정하기 위해 비디오 신호에 포함되는 식별 정보를 분석하는 작업을 수행한다. 본 발명에 따르면, 예측 모드 획득 유닛(2162)은 비디오 신호에 포함되는 식별 정보로부터의 시그날링 정보를 처리하고, 시그날링 정보로부터 예측을 위한 새로운 인트라 평면 모드가 현재 예측 유닛에 적용되어야 하는지를 판단한다.
또한, 일단 예측 모드 결정 유닛(2162)에 의해 식별되는 적합한 인트라 예측 모드에 따라 인트라 예측 유닛(2160)에 의해 현재 예측 유닛이 적합하게 예측되면, 현재 예측 유닛의 예측된 샘플은 복원 유닛(2170)에 의해 복원될 것이다. 복원 유닛(2170)은 예측된 샘플을 역변환 유닛(2125)으로부터 얻어진 나머지 값과 조합함으로써 예측된 샘플을 복원할 수 있다.
바람직한 실시형태를 참조하여 본 발명을 설명하였으나, 본 발명의 사상 및 범위를 벗어나지 않고 다양한 수정 및 변형이 이루어질 수 있음은 당업자에게 자명하다. 따라서, 본 발명은 첨부된 청구범위 및 그 균등물 내에 속하는 본 발명의 수정 및 변형을 포함하는 것으로 의도된다.
바람직한 실시형태를 참조하여 본 발명을 설명하였으나, 본 발명의 사상 및 범위를 벗어나지 않고 다양한 수정 및 변형이 이루어질 수 있음은 당업자에게 자명하다. 따라서, 본 발명은 첨부된 청구범위 및 그 균등물 내에 속하는 본 발명의 수정 및 변형을 포함하는 것으로 의도된다. 본 발명은 디지털 비디오 데이터를 인코딩, 전송, 디코딩 및 프로세싱하는 경우에 적용될 수 있다.

Claims (16)

  1. 비디오 신호를 디코딩하기 위한 방법에 있어서,
    현재 블록을 위한 제1 참조 샘플과 제2 참조 샘플을 획득하는 단계, 상기 제1 참조 샘플은 상기 현재 블록의 상단 이웃 블록과 우측 상단 이웃 블록에서 수평으로 연속인 적어도 3개의 샘플에 필터링을 적용하여 획득되고, 상기 제2 참조 샘플은 상기 현재 블록의 좌측 이웃 블록과 좌측 하단 이웃 블록에서 수직으로 연속인 적어도 3개의 샘플에 필터링을 적용하여 획득되며;
    상기 제1 참조 샘플, 상기 제2 참조 샘플, 제3 참조 샘플, 제4 참조 샘플을 이용한 이중 선형 보간(bi-linear interpolation)에 의해 상기 현재 블록의 샘플에 대한 예측값을 획득하는 단계, 상기 제3 참조 샘플은 상기 좌측 이웃 블록에서 상기 현재 블록의 샘플과 동일한 Y 좌표를 가지고 상기 현재 블록에 인접한 샘플이고, 상기 제4 참조 샘플은 상기 상단 이웃 블록에서 상기 현재 블록의 샘플과 동일한 X 좌표를 가지고 상기 현재 블록에 인접한 샘플이며; 및
    상기 예측값에 기반하여 상기 현재 블록을 복원하는 단계를 포함하되,
    상기 현재 블록은 인트라 평면 예측 모드(intra planar prediction mode)로 코딩되어 있는, 방법.
  2. 제1항에 있어서,
    상기 제1 참조 샘플은 상기 이중 선형 보간을 위해 상기 현재 블록의 샘플과 동일한 Y 좌표에 위치하는, 방법.
  3. 제1항에 있어서,
    상기 제2 참조 샘플은 상기 이중 선형 보간을 위해 상기 현재 블록의 샘플과 동일한 X 좌표에 위치하는, 방법.
  4. 제1항에 있어서,
    상기 수평으로 연속인 적어도 3개의 샘플은 상기 상단 이웃 블록과 상기 우측 상단 이웃 블록의 경계에 걸쳐있는, 방법.
  5. 제1항에 있어서,
    상기 수직으로 연속인 적어도 3개의 샘플은 상기 좌측 이웃 블록과 상기 좌측 하단 이웃 블록의 경계에 걸쳐있는, 방법.
  6. 제1항에 있어서,
    상기 제1 참조 샘플은
    Figure 112017090995778-pat00009
    에 의해 획득되며,
    T’는 상기 제1 참조 샘플을 나타내고, T-1, T, T+1은 상기 수평으로 연속인 적어도 3개의 샘플을 나타내고, <<는 좌측 시프트 연산을 나타내고, >>는 우측 시프트 연산을 나타내는, 방법.
  7. 제1항에 있어서,
    상기 2 참조 샘플은
    Figure 112017090995778-pat00010
    에 의해 획득되며,
    L’는 상기 제1 참조 샘플을 나타내고, L-1, L, L+1은 상기 수직으로 연속인 적어도 3개의 샘플을 나타내고, <<는 좌측 시프트 연산을 나타내고, >>는 우측 시프트 연산을 나타내는, 방법.
  8. 삭제
  9. 비디오 신호를 디코딩하기 위한 장치에 있어서, 상기 장치는
    인트라 예측 유닛을 포함하며, 상기 인트라 예측 유닛은
    현재 블록을 위한 제1 참조 샘플과 제2 참조 샘플을 획득하고, 상기 제1 참조 샘플은 상기 현재 블록의 상단 이웃 블록과 우측 상단 이웃 블록에서 수평으로 연속인 적어도 3개의 샘플에 필터링을 적용하여 획득되고, 상기 제2 참조 샘플은 상기 현재 블록의 좌측 이웃 블록과 좌측 하단 이웃 블록에서 수직으로 연속인 적어도 3개의 샘플에 필터링을 적용하여 획득되며,
    상기 제1 참조 샘플, 상기 제2 참조 샘플, 제3 참조 샘플, 제4 참조 샘플을 이용한 이중 선형 보간(bi-linear interpolation)에 의해 상기 현재 블록의 샘플에 대한 예측값을 획득하고, 상기 제3 참조 샘플은 상기 좌측 이웃 블록에서 상기 현재 블록의 샘플과 동일한 Y 좌표를 가지고 상기 현재 블록에 인접한 샘플이고, 상기 제4 참조 샘플은 상기 상단 이웃 블록에서 상기 현재 블록의 샘플과 동일한 X 좌표를 가지고 상기 현재 블록에 인접한 샘플이며,
    상기 예측값에 기반하여 상기 현재 블록을 복원하도록 구성되며,
    상기 현재 블록은 인트라 평면 예측 모드(intra planar prediction mode)로 코딩되어 있는, 장치.
  10. 제9항에 있어서,
    상기 제1 참조 샘플은 상기 이중 선형 보간을 위해 상기 현재 블록의 샘플과 동일한 Y 좌표에 위치하는, 장치.
  11. 제9항에 있어서,
    상기 제2 참조 샘플은 상기 이중 선형 보간을 위해 상기 현재 블록의 샘플과 동일한 X 좌표에 위치하는, 장치.
  12. 제9항에 있어서,
    상기 수평으로 연속인 적어도 3개의 샘플은 상기 상단 이웃 블록과 상기 우측 상단 이웃 블록의 경계에 걸쳐있는, 장치.
  13. 제9항에 있어서,
    상기 수직으로 연속인 적어도 3개의 샘플은 상기 좌측 이웃 블록과 상기 좌측 하단 이웃 블록의 경계에 걸쳐있는, 장치.
  14. 제9항에 있어서,
    상기 제1 참조 샘플은
    Figure 112017090995778-pat00011
    에 의해 획득되며,
    T’는 상기 제1 참조 샘플을 나타내고, T-1, T, T+1은 상기 수평으로 연속인 적어도 3개의 샘플을 나타내고, <<는 좌측 시프트 연산을 나타내고, >>는 우측 시프트 연산을 나타내는, 장치.
  15. 제9항에 있어서,
    상기 2 참조 샘플은
    Figure 112017090995778-pat00012
    에 의해 획득되며,
    L’는 상기 제1 참조 샘플을 나타내고, L-1, L, L+1은 상기 수직으로 연속인 적어도 3개의 샘플을 나타내고, <<는 좌측 시프트 연산을 나타내고, >>는 우측 시프트 연산을 나타내는, 장치.
  16. 삭제
KR1020177026367A 2010-05-25 2011-05-25 신규한 평면 예측 모드 KR101913264B1 (ko)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US34782110P 2010-05-25 2010-05-25
US61/347,821 2010-05-25
US201161445538P 2011-02-23 2011-02-23
US61/445,538 2011-02-23
US201161451121P 2011-03-10 2011-03-10
US61/451,121 2011-03-10
US201161471185P 2011-04-03 2011-04-03
US61/471,185 2011-04-03
PCT/KR2011/003828 WO2011149265A2 (en) 2010-05-25 2011-05-25 New planar prediction mode

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020127033165A Division KR101781874B1 (ko) 2010-05-25 2011-05-25 신규한 평면 예측 모드

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020187030646A Division KR102043218B1 (ko) 2010-05-25 2011-05-25 신규한 평면 예측 모드

Publications (2)

Publication Number Publication Date
KR20170110162A KR20170110162A (ko) 2017-10-10
KR101913264B1 true KR101913264B1 (ko) 2018-10-30

Family

ID=44318150

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020127033165A KR101781874B1 (ko) 2010-05-25 2011-05-25 신규한 평면 예측 모드
KR1020187030646A KR102043218B1 (ko) 2010-05-25 2011-05-25 신규한 평면 예측 모드
KR1020177026367A KR101913264B1 (ko) 2010-05-25 2011-05-25 신규한 평면 예측 모드
KR1020197032721A KR102148660B1 (ko) 2010-05-25 2011-05-25 신규한 평면 예측 모드

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020127033165A KR101781874B1 (ko) 2010-05-25 2011-05-25 신규한 평면 예측 모드
KR1020187030646A KR102043218B1 (ko) 2010-05-25 2011-05-25 신규한 평면 예측 모드

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020197032721A KR102148660B1 (ko) 2010-05-25 2011-05-25 신규한 평면 예측 모드

Country Status (13)

Country Link
US (8) US8798146B2 (ko)
EP (5) EP3745721B1 (ko)
KR (4) KR101781874B1 (ko)
CN (1) CN102934441B (ko)
DK (2) DK2391129T3 (ko)
ES (4) ES2901793T3 (ko)
FI (1) FI3962081T3 (ko)
HR (1) HRP20240379T1 (ko)
HU (3) HUE056926T2 (ko)
PL (4) PL3745721T3 (ko)
PT (2) PT3457689T (ko)
SI (2) SI3745721T1 (ko)
WO (1) WO2011149265A2 (ko)

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011223303A (ja) * 2010-04-09 2011-11-04 Sony Corp 画像符号化装置と画像符号化方法および画像復号化装置と画像復号化方法
CN103039073B (zh) * 2010-06-07 2016-09-14 数码士有限公司 编码/解码高分辨率图像的方法和执行该方法的装置
US9532059B2 (en) 2010-10-05 2016-12-27 Google Technology Holdings LLC Method and apparatus for spatial scalability for video coding
EP2635030A4 (en) * 2010-10-26 2016-07-13 Humax Co Ltd CODING AND DECODING METHOD WITH ADAPTIVE INTRAPREDICTION
US9258573B2 (en) 2010-12-07 2016-02-09 Panasonic Intellectual Property Corporation Of America Pixel adaptive intra smoothing
WO2012081895A1 (ko) 2010-12-13 2012-06-21 한국전자통신연구원 인트라 예측 방법 및 그 장치
KR102086145B1 (ko) * 2010-12-13 2020-03-09 한국전자통신연구원 인트라 예측 방법 및 그 장치
ES2934221T3 (es) * 2010-12-22 2023-02-20 Lg Electronics Inc Método de intrapredicción y aparato que utiliza el método
US9930366B2 (en) 2011-01-28 2018-03-27 Qualcomm Incorporated Pixel level adaptive intra-smoothing
KR20120090740A (ko) * 2011-02-07 2012-08-17 (주)휴맥스 정밀한 단위의 필터 선택을 적용한 영상 부호화/복호화 장치 및 방법
MX368350B (es) 2011-06-28 2019-09-30 Samsung Electronics Co Ltd Metodo y aparato para codificar y decodificar imagenes utilizando intra-prediccion.
US9736489B2 (en) 2011-09-17 2017-08-15 Qualcomm Incorporated Motion vector determination for video coding
US20130083844A1 (en) * 2011-09-30 2013-04-04 In Suk Chong Coefficient coding for sample adaptive offset and adaptive loop filter
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
US8811760B2 (en) * 2011-10-25 2014-08-19 Mitsubishi Electric Research Laboratories, Inc. Coding images using intra prediction modes
EP2774360B1 (en) * 2011-11-04 2017-08-02 Huawei Technologies Co., Ltd. Differential pulse code modulation intra prediction for high efficiency video coding
US9094681B1 (en) 2012-02-28 2015-07-28 Google Inc. Adaptive segmentation
KR101628797B1 (ko) * 2012-04-20 2016-06-09 후아웨이 테크놀러지 컴퍼니 리미티드 Hevc에서 무손실 코딩의 개선된 인트라 예측
US9185429B1 (en) 2012-04-30 2015-11-10 Google Inc. Video encoding and decoding using un-equal error protection
US9113164B1 (en) 2012-05-15 2015-08-18 Google Inc. Constant bit rate control using implicit quantization values
US9781447B1 (en) 2012-06-21 2017-10-03 Google Inc. Correlation based inter-plane prediction encoding and decoding
US9167268B1 (en) 2012-08-09 2015-10-20 Google Inc. Second-order orthogonal spatial intra prediction
US9510019B2 (en) 2012-08-09 2016-11-29 Google Inc. Two-step quantization and coding method and apparatus
US9332276B1 (en) 2012-08-09 2016-05-03 Google Inc. Variable-sized super block based direct prediction mode
US9344742B2 (en) 2012-08-10 2016-05-17 Google Inc. Transform-domain intra prediction
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US9491461B2 (en) * 2012-09-27 2016-11-08 Qualcomm Incorporated Scalable extensions to HEVC and temporal motion vector prediction
US9826229B2 (en) 2012-09-29 2017-11-21 Google Technology Holdings LLC Scan pattern determination from base layer pixel information for scalable extension
CN102883163B (zh) 2012-10-08 2014-05-28 华为技术有限公司 用于运动矢量预测的运动矢量列表建立的方法、装置
US9369732B2 (en) 2012-10-08 2016-06-14 Google Inc. Lossless intra-prediction video coding
US9407915B2 (en) 2012-10-08 2016-08-02 Google Inc. Lossless video coding with sub-frame level optimal quantization values
US9350988B1 (en) 2012-11-20 2016-05-24 Google Inc. Prediction mode-based block ordering in video coding
KR101737595B1 (ko) * 2012-12-27 2017-05-18 니폰 덴신 덴와 가부시끼가이샤 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 화상 부호화 프로그램 및 화상 복호 프로그램
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
US9681128B1 (en) 2013-01-31 2017-06-13 Google Inc. Adaptive pre-transform scanning patterns for video and image compression
US9609336B2 (en) * 2013-04-16 2017-03-28 Fastvdo Llc Adaptive coding, transmission and efficient display of multimedia (acted)
US9247251B1 (en) 2013-07-26 2016-01-26 Google Inc. Right-edge extension for quad-tree intra-prediction
WO2015053673A1 (en) 2013-10-11 2015-04-16 Telefonaktiebolaget L M Ericsson (Publ) Method and arrangement for video transcoding using mode or motion or in-loop filter information
CN106688238B (zh) * 2013-10-17 2019-12-17 华为技术有限公司 改进后的深度图帧内编码的参考像素点选择和滤波
WO2015057947A1 (en) * 2013-10-17 2015-04-23 Huawei Technologies Co., Ltd. Improved reference pixel selection and filtering for intra coding of depth map
US20150189333A1 (en) * 2013-12-27 2015-07-02 Industrial Technology Research Institute Method and system for image processing, decoding method, encoder, and decoder
CN103841422B (zh) * 2014-03-21 2017-05-31 华为技术有限公司 深度图像的帧内预测方法和装置
CN105392008B (zh) * 2014-08-22 2018-09-25 中兴通讯股份有限公司 一种预测编、解码方法和相应的编、解码器和电子设备
WO2016026283A1 (zh) * 2014-08-22 2016-02-25 中兴通讯股份有限公司 一种预测编、解码方法和相应的编、解码器和电子设备
CN105430417B (zh) * 2014-09-22 2020-02-07 中兴通讯股份有限公司 编码方法、解码方法、装置及电子设备
KR20170082528A (ko) * 2014-11-05 2017-07-14 삼성전자주식회사 블록과 관련하여 결정된 적어도 하나의 샘플값 및 적어도 하나의 패턴에 기초한 인트라 예측을 수행하는 영상 부호화 방법 및 장치또는 영상 복호화 방법 및 장치
CN105812823B (zh) * 2014-12-31 2019-04-05 扬智科技股份有限公司 Hevc中帧内预测的参考像素替换方法与装置
CN107534767A (zh) * 2015-04-27 2018-01-02 Lg电子株式会社 用于处理视频信号的方法及其装置
KR20170026276A (ko) 2015-08-28 2017-03-08 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2017065422A1 (ko) * 2015-10-12 2017-04-20 엘지전자(주) 영상 처리 방법 및 이를 위한 장치
US10750167B2 (en) 2015-10-22 2020-08-18 Lg Electronics, Inc. Intra-prediction method and apparatus in video coding system
US10841574B2 (en) * 2016-04-25 2020-11-17 Lg Electronics Inc. Image decoding method and device using intra prediction in image coding system
KR102424420B1 (ko) * 2016-08-31 2022-07-22 주식회사 케이티 비디오 신호 처리 방법 및 장치
CN116389728A (zh) * 2016-09-20 2023-07-04 株式会社Kt 对视频进行解码和编码的方法以及传输方法
EP3300362A1 (en) * 2016-09-27 2018-03-28 Thomson Licensing Method for improved intra prediction when reference samples are missing
RU2732820C2 (ru) 2016-10-11 2020-09-22 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство декодирования изображения на основе интра-предсказания в системе кодирования изображения
CN109845252B (zh) 2016-10-14 2021-08-03 华为技术有限公司 帧内预测方法、装置、编解码装置和计算机可读存储介质
WO2018070896A1 (en) 2016-10-14 2018-04-19 Huawei Technologies Co., Ltd. Distance weighted bi-directional intra prediction
KR20180061042A (ko) * 2016-11-29 2018-06-07 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN110199523B (zh) * 2017-01-13 2023-06-13 Vid拓展公司 用于帧内平面编码的预测方法
CN110583021B (zh) 2017-01-31 2023-06-02 夏普株式会社 用于执行平面帧内预测视频编码的系统和方法
US11064205B2 (en) 2017-03-21 2021-07-13 Lg Electronics Inc. Image decoding method and device according to intra prediction in image coding system
CN116828205A (zh) 2017-05-17 2023-09-29 株式会社Kt 用于解码视频的方法和用于编码视频的方法
JP2020120141A (ja) * 2017-05-26 2020-08-06 シャープ株式会社 動画像符号化装置及び動画像復号装置、フィルタ装置
EP3410708A1 (en) 2017-05-31 2018-12-05 Thomson Licensing Method and apparatus for intra prediction with interpolation
WO2019009751A1 (en) 2017-07-05 2019-01-10 Huawei Technologies Co., Ltd DEVICES AND METHODS FOR VIDEO CODING
KR20190043482A (ko) 2017-10-18 2019-04-26 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
US10484695B2 (en) 2017-10-23 2019-11-19 Google Llc Refined entropy coding for level maps
WO2019091292A1 (en) 2017-11-13 2019-05-16 Mediatek Singapore Pte. Ltd. Method and apparatus for intra prediction fusion in image and video coding
US11909961B2 (en) * 2017-11-22 2024-02-20 Intellectual Discovery Co., Ltd. Image encoding/decoding method and apparatus, and recording medium for storing bitstream that involves performing intra prediction using constructed reference sample
CN109996066A (zh) * 2017-12-29 2019-07-09 富士通株式会社 图像编码装置,图像解码装置和电子设备
WO2019182292A1 (ko) * 2018-03-19 2019-09-26 주식회사 케이티 비디오 신호 처리 방법 및 장치
WO2019198984A1 (ko) * 2018-04-11 2019-10-17 엘지전자 주식회사 선형 보간 인트라 예측에 기반한 영상 코딩 방법 및 그 장치
US10841575B2 (en) 2018-04-15 2020-11-17 Arris Enterprises Llc Unequal weight planar motion vector derivation
US10645381B2 (en) * 2018-04-30 2020-05-05 Google Llc Intra-prediction for smooth blocks in image/video
WO2020007187A1 (zh) * 2018-07-02 2020-01-09 华为技术有限公司 图像块解码方法及装置
JP7410149B2 (ja) * 2018-08-24 2024-01-09 中興通訊股▲ふん▼有限公司 視覚メディアエンコードおよびデコードのための平面予測モード
CN112823515B (zh) * 2018-10-07 2024-03-19 三星电子株式会社 使用用于多参考线的mpm配置方法处理视频信号的方法和设备
BR112021009666A2 (pt) 2018-11-22 2021-08-17 Beijing Bytedance Network Technology Co., Ltd. método para processar vídeo, aparelho em um sistema de vídeo, e, produto de programa de computador
US11438583B2 (en) * 2018-11-27 2022-09-06 Tencent America LLC Reference sample filter selection in intra prediction
CA3113787C (en) * 2018-12-25 2024-02-13 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Decoding prediction method, apparatus and computer storage medium which use reference samples adjacent to at least one side of decoding block
US11172195B2 (en) 2019-01-26 2021-11-09 Qualcomm Incorporated Excluding intra coded reference samples from local illumination compensation parameter derivation
EP3713235B1 (en) * 2019-03-19 2023-08-02 Axis AB Methods and devices for encoding a video stream using a first and a second encoder
US11388419B2 (en) 2020-02-05 2022-07-12 Apple Inc. Smoothed directional and DC intra prediction
WO2023091780A1 (en) * 2021-11-22 2023-05-25 Beijing Dajia Internet Information Technology Co., Ltd. Planar mode improvement for intra prediction

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6980596B2 (en) * 2001-11-27 2005-12-27 General Instrument Corporation Macroblock level adaptive frame/field coding for digital video content
US7236524B2 (en) * 2002-05-28 2007-06-26 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode communication
US20060072676A1 (en) * 2003-01-10 2006-04-06 Cristina Gomila Defining interpolation filters for error concealment in a coded image
US7369707B2 (en) * 2003-10-28 2008-05-06 Matsushita Electric Industrial Co., Ltd. Intra-picture prediction coding method
KR20050112445A (ko) * 2004-05-25 2005-11-30 경희대학교 산학협력단 예측 부호화/복호화 장치, 예측 부호화/복호화 방법 및 그방법을 수행하는 프로그램이 기록된 컴퓨터 판독가능한기록매체
US7953152B1 (en) * 2004-06-28 2011-05-31 Google Inc. Video compression and encoding method
US7565020B2 (en) * 2004-07-03 2009-07-21 Microsoft Corp. System and method for image coding employing a hybrid directional prediction and wavelet lifting
KR100703200B1 (ko) * 2005-06-29 2007-04-06 한국산업기술대학교산학협력단 인트라 부호화 장치 및 방법
KR100750128B1 (ko) 2005-09-06 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
US8446954B2 (en) * 2005-09-27 2013-05-21 Qualcomm Incorporated Mode selection techniques for multimedia coding
CA2659351A1 (en) * 2006-07-28 2008-01-31 Kabushiki Kaisha Toshiba Method and apparatus for encoding and decoding image
JP4690966B2 (ja) * 2006-08-11 2011-06-01 株式会社東芝 動画像符号化装置
KR101380843B1 (ko) * 2006-12-28 2014-04-07 삼성전자주식회사 인트라 예측을 통해 부호화된 블럭들을 포함하는압축영상에 대한 축소영상 생성방법 및 이를 적용한영상기기
JP5188875B2 (ja) * 2007-06-04 2013-04-24 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、及び画像予測復号プログラム
EP3190791B1 (en) * 2007-06-29 2018-11-28 Velos Media International Limited Image encoding device and image decoding device
JP2009094828A (ja) * 2007-10-10 2009-04-30 Hitachi Ltd 画像符号化装置及び画像符号化方法、画像復号化装置及び画像復号化方法
EP2081386A1 (en) * 2008-01-18 2009-07-22 Panasonic Corporation High precision edge prediction for intracoding
JP2009218742A (ja) * 2008-03-07 2009-09-24 Canon Inc 画像符号化装置
US8831086B2 (en) * 2008-04-10 2014-09-09 Qualcomm Incorporated Prediction techniques for interpolation in video coding
KR101596829B1 (ko) * 2008-05-07 2016-02-23 엘지전자 주식회사 비디오 신호의 디코딩 방법 및 장치
JP4945513B2 (ja) * 2008-06-04 2012-06-06 ルネサスエレクトロニクス株式会社 可変長復号装置およびそれを用いた動画復号装置
KR101361005B1 (ko) 2008-06-24 2014-02-13 에스케이 텔레콤주식회사 인트라 예측 방법 및 장치와 그를 이용한 영상부호화/복호화 방법 및 장치
KR101517768B1 (ko) * 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
TWI359617B (en) * 2008-07-03 2012-03-01 Univ Nat Taiwan Low-complexity and high-quality error concealment
EP2141927A1 (en) * 2008-07-03 2010-01-06 Panasonic Corporation Filters for video coding
US8634457B2 (en) * 2008-09-26 2014-01-21 Qualcomm Incorporated Determining availability of video data units
US8660176B2 (en) * 2008-09-26 2014-02-25 Qualcomm Incorporated Resolving geometric relationships among video data units
US20100226437A1 (en) * 2009-03-06 2010-09-09 Sony Corporation, A Japanese Corporation Reduced-resolution decoding of avc bit streams for transcoding or display at lower resolution
TWI442777B (zh) * 2009-06-23 2014-06-21 Acer Inc 空間性錯誤隱藏方法
WO2011068360A2 (ko) * 2009-12-01 2011-06-09 (주)휴맥스 고해상도 영상의 부호화/복호화 방법 및 이를 수행하는 장치
KR101700358B1 (ko) * 2009-12-09 2017-01-26 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
TWI533667B (zh) * 2010-01-08 2016-05-11 諾基亞科技公司 用於視訊編碼之裝置、方法及電腦程式
US9082278B2 (en) * 2010-03-19 2015-07-14 University-Industry Cooperation Group Of Kyung Hee University Surveillance system
US8644375B2 (en) * 2010-04-09 2014-02-04 Sharp Laboratories Of America, Inc. Methods and systems for intra prediction
US8619857B2 (en) * 2010-04-09 2013-12-31 Sharp Laboratories Of America, Inc. Methods and systems for intra prediction
KR101752418B1 (ko) * 2010-04-09 2017-06-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
MY173125A (en) * 2010-05-14 2019-12-30 Interdigital Vc Holdings Inc Methods and apparatus for intra coding a block having pixels assigned to groups
WO2011145862A2 (en) * 2010-05-17 2011-11-24 Lg Electronics Inc. New intra prediction modes
ES2767966T3 (es) * 2010-12-21 2020-06-19 Ntt Docomo Inc Codificación de intra-predicción bajo representaciones planas

Also Published As

Publication number Publication date
KR20180118254A (ko) 2018-10-30
US20210241018A1 (en) 2021-08-05
DK2391129T3 (en) 2019-01-28
US20190385002A1 (en) 2019-12-19
EP3745721A1 (en) 2020-12-02
KR20190127991A (ko) 2019-11-13
EP4336826A3 (en) 2024-04-17
US10402674B2 (en) 2019-09-03
US11818393B2 (en) 2023-11-14
PL2391129T3 (pl) 2019-04-30
PL3745721T3 (pl) 2022-02-21
EP3962081B1 (en) 2024-02-21
HRP20240379T1 (hr) 2024-06-07
SI3745721T1 (sl) 2022-04-29
ES2975036T3 (es) 2024-07-02
US11532142B2 (en) 2022-12-20
PT2391129T (pt) 2019-01-17
EP2391129B1 (en) 2018-11-28
EP4336826A2 (en) 2024-03-13
CN102934441A (zh) 2013-02-13
KR102043218B1 (ko) 2019-11-11
US9762866B2 (en) 2017-09-12
US20230362407A1 (en) 2023-11-09
KR20130118219A (ko) 2013-10-29
US20230091433A1 (en) 2023-03-23
KR101781874B1 (ko) 2017-09-26
KR102148660B1 (ko) 2020-08-28
EP3745721B1 (en) 2021-11-17
HUE041324T2 (hu) 2019-05-28
US8798146B2 (en) 2014-08-05
PL3457689T3 (pl) 2020-12-28
WO2011149265A3 (en) 2012-04-19
DK3457689T3 (da) 2020-10-12
CN102934441B (zh) 2015-09-23
PT3457689T (pt) 2020-10-15
HUE066104T2 (hu) 2024-07-28
US20140321542A1 (en) 2014-10-30
ES2826798T3 (es) 2021-05-19
ES2704296T3 (es) 2019-03-15
FI3962081T3 (fi) 2024-03-25
PL3962081T3 (pl) 2024-06-10
EP3962081A1 (en) 2022-03-02
KR20170110162A (ko) 2017-10-10
HUE056926T2 (hu) 2022-03-28
US20240333971A1 (en) 2024-10-03
US20170316276A1 (en) 2017-11-02
US12041269B2 (en) 2024-07-16
EP2391129A1 (en) 2011-11-30
EP3457689B1 (en) 2020-09-09
EP3457689A1 (en) 2019-03-20
WO2011149265A2 (en) 2011-12-01
SI3962081T1 (sl) 2024-05-31
US20110293001A1 (en) 2011-12-01
ES2901793T3 (es) 2022-03-23
US11010628B2 (en) 2021-05-18

Similar Documents

Publication Publication Date Title
KR101913264B1 (ko) 신규한 평면 예측 모드
US9800892B2 (en) Method and apparatus for processing video signal
KR101772459B1 (ko) 신규한 인트라 예측 모드
KR20190083956A (ko) YCbCr간의 상관 관계를 이용한 영상 부호화/복호화 방법 및 장치
US11202082B2 (en) Image processing apparatus and method
CN105245902B (zh) 新的平面预测模式
KR20200004348A (ko) 타겟 영역 수정을 통해 비디오 신호를 처리하는 방법 및 장치
KR20230175110A (ko) 메타 정보를 이용하는 비디오 코딩방법 및 장치
KR20220137552A (ko) 전처리 및 후처리를 이용하는 비디오 코딩방법 및 장치
KR20220125171A (ko) 인트라 예측의 예측 신호를 개선하는 비디오 코딩방법 및 장치
KR20240013045A (ko) 다양한 잡음 및 특성에 적응적인 비디오 인루프 필터
KR20230160171A (ko) 혼합 성분간 예측을 사용하는 비디오 코딩방법 및 장치

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant