KR20170071594A - 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법 - Google Patents

비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법 Download PDF

Info

Publication number
KR20170071594A
KR20170071594A KR1020177013692A KR20177013692A KR20170071594A KR 20170071594 A KR20170071594 A KR 20170071594A KR 1020177013692 A KR1020177013692 A KR 1020177013692A KR 20177013692 A KR20177013692 A KR 20177013692A KR 20170071594 A KR20170071594 A KR 20170071594A
Authority
KR
South Korea
Prior art keywords
component
prediction
residual
cross
parameter
Prior art date
Application number
KR1020177013692A
Other languages
English (en)
Inventor
한 후앙
카이 장
시앙구오 장
Original Assignee
미디어텍 싱가폴 피티이. 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/CN2014/089716 external-priority patent/WO2016065538A1/en
Priority claimed from PCT/CN2015/071440 external-priority patent/WO2016115733A1/en
Application filed by 미디어텍 싱가폴 피티이. 엘티디. filed Critical 미디어텍 싱가폴 피티이. 엘티디.
Publication of KR20170071594A publication Critical patent/KR20170071594A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

2개 이상의 컴포넌트를 포함하는 비디오 데이터에 대한 크로스-컴포넌트 잔차 예측 방법이 개시된다. 현재 블록의 제1 컴포넌트 및 제2 컴포넌트에 대한 제1 예측 데이터 및 제2 예측 데이터를 각각 수신한다. 크로스-컴포넌트 함수의 하나 이상의 파라미터는 제1 예측 데이터 및 제2 예측 데이터에 기초하여 유도된다. 크로스-컴포넌트 함수는 제1 컴포넌트를 크로스-컴포넌트 함수의 입력으로 하고 제2 컴포넌트를 크로스-컴포넌트 함수의 출력으로 하여 제1 컴포넌트 및 제2 컴포넌트에 관련된다. 제1 컴포넌트의 제1 재구성된 잔차를 크로스-컴포넌트 함수의 입력으로 하여 크로스-컴포넌트 함수를 사용하여 제2 컴포넌트의 제2 잔차에 대한 잔차 예측자를 유도한다. 제2 컴포넌트의 제2 잔차들과 잔차 예측자 간의 예측된 차이를 인코딩 또는 디코딩한다.

Description

비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법 {METHOD OF GUIDED CROSS-COMPONENT PREDICTION FOR VIDEO CODING}
본 발명은 2014년 10월 28일자 출원된 PCT 특허 출원 일련 번호 PCT/CN2014/089716호 및 2015년 1월 23일자 출원된 PCT 특허 출원 일련 번호 PCT/CN2015/071440호에 대한 우선권을 주장한다. 상기 PCT 특허 출원들은 본원에 참고로 그 전체가 병합된다.
본 발명은 비디오 코딩에 관한 것이다. 특히, 본 발명은 코딩 효율을 향상시키기 위해 크로스-컴포넌트 잔차 예측과 관련된 코딩 기술에 관한 것이다.
모션 보상 인터-프레임 코딩은 MPEG-1/2/4 및 H.261/H.263/H.264/AVC와 같은 다양한 코딩 표준에서 널리 채택되고 있다. 모션-보상 인터-프레임 코딩은 압축된 비디오를 위해 비트레이트를 효과적으로 줄일 수 있지만, 높은 모션 또는 장면 변경이 있는 영역을 압축하기 위해 인트라 코딩이 필요하다. 또한, 인트라 코딩은 초기 화상을 프로세싱하거나, 또는 랜덤 액세스 또는 에러 전파의 완화를 위해 주기적으로 I- 화상 또는 I- 블록을 삽입하는데 사용된다. 인트라 예측은 화상 내 또는 화상 영역 내의 공간 상관 관계를 활용한다. 실제로, 화상 또는 화상 영역을 블록으로 분할하여, 블록 단위로 인트라 예측을 행한다. 현재 블록에 대한 인트라 예측은 프로세싱된 이웃 블록의 픽셀에 의존할 수 있다. 예를 들어, 화상 또는 화상 영역 내의 블록들이 먼저 좌측으로부터 우측으로 그리고 나서 상단에서 바닥으로 행별로 프로세싱되면, 현재 블록의 상단의 이웃하는 블록 및 좌측의 이웃하는 블록은 현재 블록의 픽셀에 대한 인트라 예측을 형성하는데 사용될 수 있다. 프로세싱된 이웃하는 블록 내의 임의의 픽셀은 현재 블록의 픽셀의 인트라 예측자(predictor)로 사용될 수 있지만, 매우 자주 상단 및 좌측의 현재 블록 경계에 인접한 이웃하는 블록들의 픽셀만이 사용된다.
인트라 예측자는 일반적으로 스무스한 영역(smooth area)(DC 모드), 수직 라인 또는 에지, 수평 라인 또는 에지 및 대각선 라인 또는 에지와 같은 화상의 공간적 특징을 활용하도록 설계된다. 또한, 휘도(루마)와 색차(크로마) 컴포넌트 간에 크로스-컴포넌트 상관 관계가 종종 존재한다. 따라서, 크로스-컴포넌트 예측은 식 (1)에 도시된 바와 같이, 루마 샘플들의 선형 조합에 의해 크로마 샘플들을 추정한다,
PC=α·PL+β. (1)
여기서 PC 및 PL은 각각 크로마 샘플 및 루마 샘플을 나타내고, α 및 β는 2개의 파라미터이다.
고효율 비디오 코딩(HEVC)의 개발 중에, 동일 위치에 있는 재구성된 루마 블록에 기초한 크로마 인트라 예측 방법이 개시되었다(Chen 등, "재구성된 루마 샘플에 의한 크로마 인트라 예측", ITU-T SG16 WP3 및 ISO/IEC JTC1/SC29/WG1 비디오 코딩 공동 협력팀(JCT-VC) 3차 회의: 광저우, CN, 2010년 10월 7일-15일, 문서: JCTVC-C206). 크로마 인트라 예측의 타입은 LM 예측으로 지칭된다. 주요 개념은 재구성된 루마 픽셀을 사용하여 해당 크로마 픽셀의 예측자를 생성하는 것이다. 도 1a 및 도 1b는 예측 절차를 설명한다. 먼저, 도 1a의 동일 위치에 있는 루마 블록의 이웃하는 재구성된 픽셀 및 도 1b의 크로마 블록의 이웃하는 재구성된 픽셀은 블록들 간의 상관 파라미터를 유도하는데 사용된다. 그런 다음, 식 (2)에 나타난 바와 같이, 크로마 블록의 예측된 픽셀들(즉, PredC[x, y])은 루마 블록의 파라미터들 및 재구성된 픽셀들(즉, RecL[x, y])을 사용하여 생성된다,
PredC[x, y] =α·RecL[x, y] + β. (2)
파라미터 유도에서, 현재의 루마 블록의 제1 위의 재구성된 픽셀 행 및 제2 좌측의 재구성된 픽셀 열이 사용된다. 루마 블록의 특정 행과 열은 크로마 컴포넌트의 4:2:0 샘플링 포맷을 매칭시키기 위해 사용된다.
고효율 비디오 코딩(HEVC) 표준 개발과 함께, HEVC의 확장 개발이 시작되었다. HEVC 확장에는 4:2:2 및 4:4:4와 같이 비-4:2:0 컬러 포맷을 대상으로 하는 범위 확장(RExt)과, 샘플당 12, 14 및 16 비트와 같은 더 높은 비트-심도 비디오가 포함된다. RExt를 위해 개발된 코딩 도구는 특히 높은 비트-심도의 여러 컬러 컴포넌트의 코딩 효율을 향상시키는 인터-컴포넌트 예측이다. 인터-컴포넌트 예측은 여러 컬러 컴포넌트 간의 중복성(redundancy)을 활용하여 그에 따라 코딩 효율을 향상시킬 수 있다. RExt를 위해 개발되고 있는 인터-컴포넌트 예측의 한 형태는 JCTVC-N0266에서 Pu 등에 의해 개시된 인터-컴포넌트 잔차 예측(IRP)이다("비-RCE1: 인터 컬러 컴포넌트 잔차 예측", ITU-T SG 16 WP 3 및 ISO/IEC JTC 1/SC 29/WG 11의 비디오 코딩 공동 협력팀(JCT-VC), 14차 회의: 비엔나, AT, 2013년 7월 25일-8월 2일 문서: JCTVC-N0266).
인터-컴포넌트 잔차 예측에서, 크로마 잔차는 인코더 측에서 다음과 같이 예측된다.
rC'(x, y) = rC(x, y) - (α×rL(x, y)). (3)
식 (3)에서, rC(x, y)는 위치(x, y)에서의 최종 크로마 재구성된 잔차 샘플을 나타내고, rC'(x, y)는 위치(x, y)에서의 비트-스트림으로부터의 재구성된 크로마 잔차 샘플을 나타내고, rL(x, y)는 위치(x, y)에서 루마 컴포넌트의 재구성된 잔차 샘플을 나타내고, α는 스케일링 파라미터(알파 파라미터 또는 스케일링 인자라고도 함)이다. 스케일링 파라미터(α)는 인코더 측에서 계산되어 시그널링된다. 디코더 측에서, 파라미터는 비트 스트림으로부터 복구되고, 최종 크로마 재구성된 잔차 샘플은 식 (4)에 따라 유도된다:
rC(x, y) =rC'(x, y) + (α×rL(x, y)). (4)
YUV 포맷이 인터-컴포넌트 잔차 예측 유도를 설명하는 예로서 사용되었지만, 임의의 다른 컬러 포맷도 사용될 수 있다. 예를 들어, RGB 포맷을 사용할 수 있다. R 컴포넌트가 먼저 인코딩되면, R 컴포넌트는 상기 예에서 루마 컴포넌트와 동일한 방식으로 처리된다. 유사하게, G 컴포넌트가 먼저 인코딩되면, G 컴포넌트는 루마 컴포넌트와 동일한 방식으로 처리된다.
현재 HEVC-RExt에서의 IRP에 대한 예시적인 디코딩 프로세스가 도 2에 현재 유닛(CU)의 변환 유닛(TU들)에 대해 도시된다. 현재 CU의 모든 TU들의 디코딩된 계수는 여러 컴포넌트에 대해 제공된다. 제1 컴포넌트(예를 들어, Y 컴포넌트)에 대해, 디코딩된 변환 계수는 역변환되어(블록(210)), 제1 컬러 컴포넌트의 인트라/인터 코딩된 잔차를 복구한다. 그 다음, 인터/인트라 코딩된 제1 컬러 컴포넌트는 제1 컴포넌트 인터/인트라 보상(220)에 의해 프로세싱되어 최종 재구성된 제1 컴포넌트를 생성한다. 제1 컴포넌트 인터/인트라 보상(220)을 위해 필요한 인터/인트라 참조 샘플은 버퍼 또는 메모리로부터 제공된다. 도 2에서, 이는 인터/인트라 보상이 재구성된 잔차로부터 제1 컴포넌트를 재구성하는데 사용되도록 제1 컬러 컴포넌트가 인터/인트라 코딩된다는 것을 의미한다. 제2 컬러 컴포넌트에 대해, 디코딩된 변환 계수는 인터-컴포넌트 코딩된 제2 컴포넌트를 복구하기 위해 제2 컴포넌트 디코딩 프로세스(블록(212))를 사용하여 디코딩된다. 제2 컴포넌트는 제1 컴포넌트 잔차에 기초하여 예측된 인터-컴포넌트 잔차이므로, 제2 컴포넌트에 대한 인터-컴포넌트 예측(블록(222))은 블록(210) 및 블록(212)으로부터의 출력에 기초하여 제2 컴포넌트 잔차를 재구성하는데 사용된다. 전술한 바와 같이, 인터-컴포넌트 잔차 예측은 스케일링 파라미터를 코딩할 필요가 있다. 따라서, 제1 컬러 컴포넌트와 제2 컬러 컴포넌트 사이의 디코딩된 알파 파라미터가 블록(222)에 제공된다. 블록(222)으로부터의 출력은 제2 컴포넌트의 인터/인트라 예측 잔차에 대응한다. 따라서, 제2 컴포넌트 인터/인트라 보상(블록(232))은 최종 제2 컴포넌트를 재구성하는데 사용된다. 제3 컴포넌트에 대해, 유사한 프로세싱이 최종 제3 컴포넌트를 재구성하기 위해 사용될 수 있다(즉, 블록(214, 224 및 234)). 디코딩 프로세스에 따르면, 인코딩 프로세스를 용이하게 유도할 수 있다.
인터-컴포넌트 잔차 예측과 관련된 코딩 효율을 더 향상시키는 기술을 개발하는 것이 바람직하다.
2개 이상의 컴포넌트를 포함하는 비디오 데이터에 대한 크로스-컴포넌트 잔차 예측 방법이 개시된다. 본 발명에 따르면, 현재 블록의 제1 컴포넌트 및 제2 컴포넌트에 대한 제1 예측 데이터 및 제2 예측 데이터를 각각 수신한다. 크로스-컴포넌트 함수의 하나 이상의 파라미터는 제1 예측 데이터 및 제2 예측 데이터에 기초하여 유도된다. 크로스-컴포넌트 함수는 제1 컴포넌트를 크로스-컴포넌트 함수의 입력으로 하고 제2 컴포넌트를 크로스-컴포넌트 함수의 출력으로 하여 제1 컴포넌트 및 제2 컴포넌트에 관련된다. 제1 컴포넌트의 제1 재구성된 잔차를 크로스-컴포넌트 함수의 입력으로 하여 크로스-컴포넌트 함수를 사용하여 제2 컴포넌트의 제2 잔차에 대한 잔차 예측자를 유도하고, 제2 컴포넌트의 제2 잔차는 원래의 제2 컴포넌트와 제2 예측 데이터 간의 제2 차이에 대응한다. 제2 컴포넌트의 제2 잔차들과 잔차 예측자 간의 예측된 차이를 인코딩 또는 디코딩한다.
제1 예측 데이터 및 제2 예측 데이터는 제1 컴포넌트 및 제2 컴포넌트 각각에 대한 현재 블록의 모션 보상 예측 블록, 재구성된 이웃 샘플, 또는 재구성된 이웃 잔차에 대응할 수 있다. 제1 컴포넌트 및 제2 컴포넌트에 대한 현재 블록의 모션 보상 예측 블록은 제1 컴포넌트 및 제2 컴포넌트 각각에 대한 현재 블록의 인터, 인터-뷰 또는 인트라 블록 카피 예측자에 대응한다. 비디오 데이터는 YUV, YCrCb 또는 RGB에 대응하는 3개의 컴포넌트를 가질 수 있고, 제1 컴포넌트 및 제2 컴포넌트는 3개의 컴포넌트로부터 선택된다. 예를 들어, 3개의 컴포넌트가 YUV 또는 YCrCb에 대응하는 경우, 제1 컴포넌트는 Y에 대응할 수 있고, 제2 컴포넌트는 UV 또는 CrCb로부터 선택된 하나의 크로마 컴포넌트에 대응할 수 있다. 다른 예에서, 제1 컴포넌트는 UV 또는 CrCb로부터 선택된 제1 크로마 컴포넌트에 대응할 수 있고, 제2 컴포넌트는 각각 UV 또는 CrCb로부터 선택된 제2 크로마 컴포넌트에 대응한다.
크로스-컴포넌트 함수는 알파 파라미터 또는 알파 파라미터 및 베타 파라미터 모두를 포함하는 선형 함수에 대응할 수 있고, 알파 파라미터는 제1 컴포넌트와 곱하는 스케일링 항에 대응하고 베타 파라미터는 오프셋 항에 대응한다. 파라미터는 제1 예측 데이터를 크로스-컴포넌트 함수의 입력으로 하고 제2 예측 데이터를 크로스-컴포넌트 함수의 출력으로 하여 크로스-컴포넌트 함수에 기초한 최소 자승 절차(least square procedure)를 사용하여 결정될 수 있다. 제1 예측 데이터 및 제2 예측 데이터는 제1 컴포넌트 및 제2 컴포넌트 각각에 대한 현재 블록의 모션 보상 예측 블록, 재구성된 이웃 샘플, 또는 재구성된 이웃 잔차에 대응할 수 있다.
본 발명의 일 태양은 제1 컴포넌트와 제2 컴포넌트 간의 상이한 공간 해상도의 문제를 다룬다. 제1 컴포넌트가 제2 컴포넌트보다 더 미세한 공간 해상도를 갖는다면, 제1 예측 데이터는 제2 컴포넌트의 동일한 공간 해상도로 서브샘플링될 수 있다. 예를 들어, 제1 컴포넌트는 N개의 제1 샘플들을 갖고, 제2 컴포넌트는 N>M인 M개의 제2 샘플들을 갖는다. 제1 예측 데이터 및 제2 예측 데이터가 제1 컴포넌트 및 제2 컴포넌트 각각에 대한 현재 블록의 재구성된 이웃 샘플 또는 재구성된 이웃 잔차에 대응하면, M이 N/2와 동일하다면 제1 컴포넌트에 대한 현재 블록의 2개의 재구성된 이웃 샘플들 또는 재구성된 이웃 잔차들마다의 평균값은 알파 파라미터, 베타 파라미터 또는 알파 파라미터 및 베타 파라미터 모두를 유도하는데 사용될 수 있다. 제1 예측 데이터 및 제2 예측 데이터가 제1 컴포넌트 및 제2 컴포넌트 각각에 대한 현재 블록의 모션 보상 예측 블록의 예측된 샘플들에 대응하면, M이 N/2와 동일하다면 제1 컴포넌트에 대한 현재 블록의 모션 보상 예측 블록의 2개의 수직-이웃 예측된 샘플들마다의 평균값은 파라미터를 유도하는데 사용될 수 있다. 제1 예측 데이터 및 제2 예측 데이터가 제1 컴포넌트 및 제2 컴포넌트 각각에 대한 현재 블록의 모션 보상 예측 블록의 예측된 샘플들에 대응하면, M이 N/4와 동일하다면 제1 컴포넌트에 대한 현재 블록의 모션 보상 예측 블록의 4-샘플 클러스터마다의 레프트-업 및 레프트-다운 샘플들의 평균값은 파라미터를 유도하는데 사용될 수 있다.
파라미터 유도를 위해, 제1 예측 데이터 및 제2 예측 데이터는 각각 제1 컴포넌트 및 제2 컴포넌트에 대한 현재 블록의 서브샘플링되거나 또는 필터링된 모션 보상 예측 블록에 대응할 수 있다. 파라미터들은 각각의 PU(예측 유닛) 또는 CU(코딩 유닛)에 대해 결정되고 전송될 수 있다. 파라미터들은 각각의 인트라 코딩된 CU의 각 TU(변환 유닛), 및 각각의 인터 또는 인트라 블록 카피 코딩된 CU의 각 PU 또는 CU에 대해 결정되고 전송될 수 있다. 크로스-컴포넌트 잔차 예측은 각각의 인트라 코딩된 CU의 각각의 TU에 적용되고, 각각의 인터, 인터-뷰 또는 인트라 블록 카피 코딩된 CU의 각각의 PU 또는 CU에 적용될 수 있다. 크로스-컴포넌트 잔차 예측을 적용할지 여부를 표시하기 위한 모드 플래그가 각각의 인트라 코딩된 CU마다 TU 레벨에서, 그리고 각각의 인터, 인터-뷰 또는 인트라 블록 카피 코딩된 CU마다 PU 또는 CU 레벨에서 시그널링될 수 있다.
제1 컴포넌트가 제2 컴포넌트보다 높은 공간 해상도를 갖는 경우, 파라미터 유도를 위해 언급된 서브샘플링 기술은 또한 제2 컴포넌트의 제2 잔차에 대한 잔차 예측자를 유도하는데 적용될 수도 있다. 예를 들어, 제1 컴포넌트의 제1 재구성된 잔차는 N개의 제1 샘플로 이루어지고, 제2 컴포넌트의 제2 잔차는 N/4와 동일한 M개의 제2 샘플로 이루어질 때, 제1 컴포넌트의 제1 재구성된 잔차의 4-샘플 클러스터마다의 레프트-업 및 레프트-다운 샘플들의 평균값이 잔차 예측자로 사용될 수 있다. 4-샘플 클러스터마다의 평균값, 제1 컴포넌트의 제1 재구성된 잔차의 4-샘플 클러스터마다의 2개의 수평 이웃 샘플 또는 4-샘플 클러스터마다의 코너 샘플의 평균값이 잔차 예측자로 사용될 수도 있다.
도 1a는 고효율 비디오 코딩(HEVC) 범위 확장(RExt)에 따라 재구성된 루마 픽셀에 기초한 크로마 인트라 예측의 유도의 예를 도시한다.
도 1b는 고효율 비디오 코딩(HEVC) 범위 확장(RExt)에 따라 예측될 대응하는 크로마 블록과 관련된 이웃하는 크로마 픽셀 및 크로마 픽셀의 예를 도시한다.
도 2는 현재 유닛(CU)의 변환 유닛(TU들)에 대한 고효율 비디오 코딩(HEVC) 범위 확장(RExt)에서의 IRP(인터-컴포넌트 잔차 예측)에 대한 디코딩 프로세스의 예를 도시한다.
도 3은 본 발명에 따른 가이드된 크로스-컴포넌트 잔차 예측의 예시적인 시스템 구조를 도시한다.
도 4는 본 발명의 실시예에 따라 재구성된 이웃하는 샘플들에 기초한 파라미터 유도를 위한 예시적인 시스템 구조를 도시한다.
도 5는 본 발명의 일 실시예에 따른 재구성된 예측 샘플들의 4-샘플 클러스터마다의 레프트-업 및 레프트-다운 샘플들의 평균값에 기초한 파라미터 유도를 위한 예시적인 시스템 구조를 도시한다.
도 6a는 본 발명의 일 실시예에 따른 재구성된 예측 샘플들의 4-샘플 클러스터마다의 코너 샘플에 기초한 파라미터 유도를 위한 예시적인 시스템 구조를 도시한다.
도 6b는 본 발명의 일 실시예에 따른 재구성된 예측 샘플들의 4-샘플 클러스터마다의 2개의 수평 샘플들의 평균값에 기초한 파라미터 유도를 위한 예시적인 시스템 구조를 도시한다.
도 6c는 본 발명의 일 실시예에 따른 재구성된 예측 샘플들의 4-샘플 클러스터마다의 평균값에 기초한 파라미터 유도를 위한 예시적인 시스템 구조를 도시한다.
도 7은 본 발명의 일 실시예를 포함하는 가이드된 크로스-컴포넌트 잔차 예측에 대한 예시적인 흐름도를 도시한다.
다음의 설명은 본 발명을 실행하는 최선의 방법에 관한 것이다. 이 설명은 본 발명의 일반적인 원리를 설명하기 위한 것이며, 제한적인 의미로 해석되어서는 안 된다. 본 발명의 범위는 첨부된 청구범위를 참조함으로써 가장 잘 결정된다.
전술한 바와 같이, JCTVC-C206에 개시된 바와 같은 인터-컴포넌트 예측은 인트라 크로마 코딩으로 제한된다. 또한, 파라미터 유도는 루마 및 크로마 블록의 재구성된 이웃 샘플에 기초한다. 한편, JCTVC-N0266은 인트라 및 인터 코딩된 블록들에 대한 인터-컴포넌트 잔차 예측을 개시하고, 알파 파라미터는 항상 인코더 측에서 유도되어 비디오 스트림으로 전송된다. HEVC 표준에 따르면, 알파 파라미터가 전송되고, 디코더 측에서 파라미터를 유도할 필요가 없다. 또한 HEVC 표준은 4:4:4 포맷의 비디오 데이터에 대해 IRP를 채택한다. 그러나, IRP는 또한 4:2:0 포맷과 같은 다른 포맷의 비디오 데이터에 대해 코딩 효율을 향상시킬 수 있다. IRP가 4:2:0 포맷으로 확장되면, 루마와 현재 크로마 샘플 간의 대응관계를 결정하는 방법, 파라미터 유도 및 예측자 생성과 관련된 문제는 아직 해결되어야 한다. 따라서, 본 출원에는 IRP 코딩 효율을 향상시키는 다양한 기술이 개시된다.
종래의 IRP 프로세스는 TU(즉, 변환 유닛) 레벨에서 파라미터 유도 및 예측자 생성을 포함하지만, IRP는 CU(즉, 코딩 유닛) 또는 PU(즉, 예측 유닛)에도 적용될 수 있고, IRP는 이 모드 및 파라미터 전송을 시그널링하기 위해 생성된 오버 헤드가 작기 때문에 더 효과적이다. 또한, HEVC에 의해 채택된 IRP는 재구성된 루마 잔차만을 이용하여 현재의 크로마 잔차를 예측한다. 그러나, 재구성된 비-제1 크로마 잔차를 이용하여 현재의 크로마 잔차를 예측하는 것도 가능하다. 전술한 바와 같이, 기존의 LM 모드는 유연하지 않으며, 상기 방법은 크로마 픽셀이 4:2:0 샘플링 포맷에 대응하지 않을 때 효율적이지 않으며, LM 모드는 동일 위치에 있는 재구성된 루마 블록을 예측자로 사용하는 인트라 크롬 예측을 지칭한다.
따라서, 본 발명에 기초한 실시예들은 상이한 크로마 샘플링 포맷들을 적응적으로 지원하는 유연한 LM-기반 크로마 인트라 예측을 제공한다. 도 3은 본 발명에 따른 인터-컴포넌트 잔차 예측의 기본 구조를 도시한다. 예측 데이터(310)는 파라미터 추정기(320)에서 파라미터 세트를 유도하는데 사용된다. 그 후 파라미터는 현재 블록의 크로스 컴포넌트 예측자(330)에 사용된다. 본 개시에서, 용어 인터-컴포넌트 및 크로스-컴포넌트는 상호 교환적으로 사용된다. 도 3의 코딩 구조에 따르면, 예측 데이터는 현재 블록의 코딩을 위한 가이드로서 사용되며, 예측 데이터는 종래 예측 코딩에 의해 사용되는 예측 블록에 대응할 수 있다. 예를 들어, 예측 데이터는 인터 코딩의 참조 블록(즉, 모션 보상 예측 블록)에 대응할 수 있다. 그러나, 다른 예측 데이터가 또한 사용될 수 있다. 본 발명에 따른 시스템은 가이드된 인터-컴포넌트 예측으로 지칭된다.
선형 함수가 두 컴포넌트(PX 및 PZ) 사이의 관계를 모델링하는데 사용될 수 있다고 상정하는데, 즉 관계식은 식 (5)로 표현될 수 있다,
PX = α·PZ + β. (5)
예측 신호(PredX 및 PredZ) 및 재구성된 신호(RecoX 및 RecoZ) 둘 모두에 대한 것이다. 즉, 다음과 같은 관계가 유지된다:
PredX = α·PredZ + β, (6) 및
RecoX = α·RecoZ + β. (7)
따라서, 컴포넌트(X)에 대한 재구성된 신호와 예측 신호 간의 차이는 식 (6) 및 (7)의 예측 및 재구성된 신호를 대체함으로써 식 (8)에 따라 결정될 수 있다:
RecoX-PredX = α·(RecoX-PredX), 즉, ResiX = α·ResiZ, (8)
여기서, ResiX는 컴포넌트(X)에 대한 잔차 신호이고, ResiZ는 컴포넌트(Z)에 대한 잔차 신호이다. 따라서, 컴포넌트(Z)에 대한 잔차 신호의 함수(즉, f(ResiZ))를 사용하여 컴포넌트(X)에 대한 잔차를 예측하면, 함수는 f(ResiZ) = α·ResiZ 로 표현될 수 있다.
일 실시예에서, 코딩될 컴포넌트(X)의 잔차는 다음과 같이 계산될 수 있다:
ResiX' = ResiX - f(ResiZ), (9)
여기서 컴포넌트(X)에 대한 잔차 신호(즉, ResiX)는 원 신호(즉, OrigX)와 예측 신호(즉, PredX) 간의 차이에 대응하고, ResiZ는 컴포넌트(Z)에 대한 재구성된 잔차 신호이다. ResiX는 식 (10)에 도시된 바와 같이 유도된다:
ResiX = OrigX - PredX. (10)
디코더 측에서, 컴포넌트(X)에 대한 재구성된 신호는 PredX + ResiX' + f(ResiZ)에 따라 계산된다. 컴포넌트(Z)는 인코더 측 또는 디코더 측에서 각각 컴포넌트(X)보다 먼저 코딩 또는 디코딩된다. 함수(f)는 PredX 및 PredZ를 분석함으로써 유도될 수 있고, 여기서 PredX 및 PredZ는 컴포넌트(X) 및 컴포넌트(Z) 각각에 대한 예측 신호이다.
다른 실시예에서, 최소 자승 절차는 PredX = α·PredZ + β에 따라 평균 제곱 오차를 최소화함으로써 파라미터를 추정하는데 사용될 수 있다.
서브샘플링된 예측 블록은 파라미터 추정에 사용될 수 있다. 예를 들어, 예측 데이터는 YUV 4:2:0 포맷의 루마 컴포넌트에 대응할 수 있고, 현재 컴포넌트는 크로마 컴포넌트에 대응할 수 있다. 이 경우, 서브샘플링은 루마 예측 신호에 적용될 수 있다. 그러나 서브샘플링은 2개의 컴포넌트가 동일한 공간 해상도를 갖는 경우에도 적용될 수 있다. 이러한 경우, 서브샘플은 파라미터를 추정하기 위해 필요한 계산을 줄일 수 있다.
파라미터 추정은 또한 필터링된 모션 보상 예측 블록에 대응하는 예측 신호에 기초할 수도 있다. 필터는 스무스 필터일 수 있다.
일 실시예에서, 컴포넌트(Z)가 컴포넌트(X)보다 높은 해상도를 가질 때, 서브샘플링된 컴포넌트(Z)가 파라미터 추정에 사용될 수 있다.
다른 실시예에서, 플래그가 인터-컴포넌트 잔차 예측이 적용되는지 여부를 나타내기 위해 코딩될 수 있다. 예를 들어, 플래그는 CTU(코딩 트리 유닛), LCU(최대 코딩 유닛), CU(코딩 유닛) 레벨, PU(예측 유닛) 레벨, sub-PU 또는 TU(변환 유닛) 레벨에서 시그널링된다. 플래그는 각각의 예측된 인터-컴포넌트마다 개별적으로 코딩될 수 있거나 또는 하나의 플래그만이 모든 예측된 인터-컴포넌트간에 코딩될 수 있다. 또 다른 실시예에서, 플래그는 컴포넌트(Z)의 잔차 신호가 유효할 때, 즉 컴포넌트(Z)의 적어도 하나의 0이 아닌 잔차인 경우에만 코딩된다. 또 다른 실시예에서, 플래그는 병합 모드(merge mode)로부터 상속된다(inherited). 현재 블록이 병합 모드로 코딩될 때, 플래그는 플래그가 명시적으로 코딩되지 않도록 병합 후보를 기초로 하여 유도된다.
인터-컴포넌트 잔차 예측을 적용할지 여부를 나타내는 플래그는 모션 벡터(MV), 변이 벡터(DV) 또는 인트라 블록 카피(IntraBC) 변위 벡터(BV)에 의해 참조되는 참조 블록으로부터 상속될 수도 있다. 현재 블록의 탑-레프트 샘플의 위치를 (x, y)로 하고, 현재 블록의 폭 및 높이를 W 및 H로 하고, 모션 벡터 또는 변위 벡터를 (u, v)로 하면, 참조 블록은 (x+u, y+v) 또는 (x+W/2+u, y+H/2+v)에 위치된다.
크로마 컴포넌트에 대한 양자화 파라미터(QP)는 크로마 인터-컴포넌트 잔차 예측이 적용될 때 N만큼 증가될 수 있다. N은 0, 1, 2, 3 또는 임의의 다른 사전 정의된 정수일 수 있다. N은 또한 SPS(시퀀스 파라미터 세트), PPS(화상 파라미터 세트), VPS(비디오 파라미터 세트), APS(애플리케이션 파라미터 세트) 또는 슬라이스 헤더 등에서 코딩될 수 있다.
상술된 가이드된 크로스-컴포넌트 잔차 예측은 CTU(코딩 트리 유닛), LCU(최대 코딩 유닛), CU(코딩 유닛) 레벨, PU(예측 유닛) 레벨 또는 TU(변환 유닛) 레벨에 적용될 수 있다.
가이드된 인터-컴포넌트 잔차 예측을 적용할지 여부를 나타내는 플래그는 이에 따라 CTU, LCU, CU, PU, sub-PU 또는 TU 레벨에서 시그널링될 수 있다. 또한, 가이드된 인터-컴포넌트 잔차 예측을 적용할지 여부를 나타내는 플래그는 CU 레벨에서 시그널링될 수 있다. 그러나, 가이드된 인터-컴포넌트 잔차 예측은 또한 PU, TU 또는 sub-PU 레벨에서 적용될 수도 있다.
컴포넌트(X) 및 컴포넌트(Z)는 모든 컬러 공간에서 선택될 수 있다. 컬러 공간은 (Y, U, V), (Y, Cb, Cr), (R, G, B) 또는 다른 컬러 공간에 대응할 수 있다. 예를 들어, X는 Cb에 대응할 수 있고, Z는 Y에 대응할 수 있다. 다른 예에서, X는 Cr에 대응할 수 있고, Z는 Y에 대응할 수 있다. 또 다른 예에서, X는 Y에 대응할 수 있고, Z는 Cb에 대응할 수 있다. 또 다른 예에서, X는 Y에 대응할 수 있고, Z는 Cr에 대응할 수 있다. 또 다른 예에서, X는 Y에 대응할 수 있고, Z는 Cb 및 Cr에 대응할 수 있다.
가이드된 인터-컴포넌트 잔차 예측 방법은 YUV444, YUV420, YUV422, RGB, BGR 등과 같은 상이한 비디오 포맷에 적용될 수 있다.
식 (1)에 도시된 바와 같은 특정 선형 모델이 예시되어 있지만, 다른 선형 모델이 또한 적용될 수도 있다. 동일 위치에 있는 블록의 재구성된 이웃 샘플 외에, 재구성된 예측 블록은 또한 파라미터 추정에 사용될 수도 있다. 예를 들어, 재구성된 예측 블록은 인터 코딩, 인터-뷰 코딩 또는 IntraBC 코딩의 참조 블록에 대응할 수 있고, 여기서 재구성된 예측 블록은 인터 코딩에서 대응하는 모션 벡터, 인터-뷰 코딩에서 변위 벡터 또는 IntraBC 코딩에서 블록 벡터에 따라 위치된 모션 보상 블록을 나타낸다.
파라미터를 추정하기 위한 예로서 최소 자승 기반 방법이 사용되었지만, 다른 파라미터 추정 방법을 대신 사용할 수도 있다.
일 실시예에서, rC(x, y) = rC'(x, y) + (α·r(x, y) + β)에 따라 인터-컴포넌트 잔차 예측자를 유도하기 위해 알파 파라미터뿐만 아니라 베타(또한 즉 오프셋 또는 β) 파라미터도 사용되고, 여기서 r(x, y)는 재구성된 잔차 루마 컴포넌트, rL(x, y) 또는 다른 크로마 컴포넌트의 재구성된 잔차 블록에 대응할 수 있다.
파라미터(β)는 인터-컴포넌트 잔차 예측이 이용될 때 비트스트림으로 전송될 수 있다. 파라미터(β)는 인터-컴포넌트 잔차 예측이 이용될 때 하나 이상의 추가 플래그를 사용하여 비트스트림으로 전송될 수 있다.
다른 실시예에서, 요구된 파라미터는 재구성된 이웃 샘플, 이웃 샘플의 재구성된 잔차 또는 현재 블록의 예측된 샘플로부터 유도될 수 있다.
예를 들어, 파라미터들은 (α, β) = f(RNL, RNCb), (α, β) = f(RNL, RNCr), 또는 (α, β) = f(RNCb, RNCr)에 따라 재구성된 이웃 샘플들 또는 현재 블록의 이웃 샘플들의 재구성된 잔차들을 사용하여 디코더 측에서 유도될 수 있고, 여기서 RNL은 재구성된 루마 이웃 샘플들 또는 루마 이웃 샘플들의 재구성된 잔차들일 수 있고, RNCb는 이웃하는 재구성된 제1 크로마-컴포넌트 샘플들 또는 제1 크로마-컴포넌트 샘플들의 이웃하는 재구성된 잔차들일 수 있고, RNCr은 이웃하는 재구성된 제2 크로마-컴포넌트 샘플들 또는 제2 크로마-컴포넌트 샘플들의 이웃하는 재구성된 잔차들일 수 있다. 도 4는 본 발명의 일 실시예에 따른 파라미터 유도의 일 예를 도시하며, (α, β)는 블록(440)에서 Y 컴포넌트(410) 및 Cr 컴포넌트(430)의 잔차에 기초하여 유도되고, (α, β)는 블록(450)에서 Y 컴포넌트(410) 및 Cb 컴포넌트(420)의 잔차에 기초하여 유도된다.
다른 예에서, 파라미터들은 (α, β) = f(RPL, RPCb), (α, β) = f(RPL, RPCr), 또는 (α, β) = f(RPCb, RPCr)에 따라 현재 블록의 예측된 픽셀에 의해 디코더에서 유도될 수 있고, 여기서 RPL은 예측된 루마 블록의 샘플에 대응하고, RPCb는 예측된 Cb 블록의 샘플에 대응하고, RPCr은 예측된 Cr 블록의 샘플에 대응한다. 도 5는 본 발명의 일 실시예에 따른 파라미터 유도(530)의 예를 도시하며, 여기서 (α, β)는 블록(510)의 예측된 Y 컴포넌트 및 블록(520)의 예측된 C(Cr 또는 Cb) 컴포넌트에 기초하여 유도된다.
다른 예에서, 가이드된 인터-컴포넌트 잔차 예측은 비-4:4:4 비디오 신호에 적용된다. 루마 컴포넌트는 파라미터 유도 및 예측자 생성을 위한 크로마 컴포넌트와 동일한 해상도를 갖도록 다운 샘플링된다.
예를 들어, M(M<N)개의 대응하는 크로마 샘플을 갖는 N개의 루마 샘플이 있는 경우, 파라미터 유도를 위한 M개의 루마 샘플을 선택하거나 또는 생성하기 위해 하나의 다운 샘플링 동작이 수행된다.
파라미터 유도 프로세스의 다른 예에서, N개의 루마 샘플은 동일 위치에 있는 루마 블록의 N개의 재구성된 이웃하는 루마 샘플에 대응하고, M(M<N)개의 크로마 샘플은 현재의 크로마 블록의 M개의 재구성된 이웃하는 크로마 샘플에 대응한다. 하나의 다운 샘플링 동작은 파라미터 유도를 위해 M개의 루마 샘플을 선택하거나 또는 생성하는데 사용될 수 있다.
파라미터 유도 프로세스의 또 다른 예에서, N개의 루마 이웃 샘플들을 다운 샘플링하여 N/2와 동일한 M개의 샘플들을 생성하는 동안, 2개의 루마 이웃 샘플들마다의 평균값들이 선택된다. 도 4의 예는 N개의 루마 이웃 샘플들을 다운 샘플링하여 N/2와 동일한 M개의 샘플들을 생성하는 경우에 해당한다.
파라미터 유도 프로세스의 또 다른 예에서, N/2와 동일한 M개의 샘플을 생성하기 위해 N개의 예측된 루마 샘플을 다운 샘플링하는 동안, 2개의 수직 이웃 루마 샘플들마다의 평균값들이 선택된다.
파라미터 유도 프로세스의 또 다른 예에서, N/4와 동일한 M개의 샘플을 생성하기 위해 N개의 예측된 루마 샘플을 다운 샘플링하는 동안, 모든 4-샘플 클러스터(540)의 레프트-업 및 레프트-다운 샘플의 평균값들이 선택된다. 도 5의 예는 4-샘플 클러스터의 레프트-업 및 레프트-다운 샘플의 평균을 사용함으로써 N/4와 동일한 M개의 샘플을 생성하기 위해 N개의 예측된 루마 샘플을 다운 샘플링하는 경우에 해당한다.
다른 예에서, 현재 크로마 블록에 대해 M(M<N)개의 생성될 예측 샘플들만이 있고 참조 블록에 대해 총 N개의 루마 샘플들이 존재할 때, 예측자 생성을 위해 M개의 루마 샘플을 선택하거나 또는 생성하기 위해 하나의 다운 샘플링 동작이 수행될 수 있다.
본 발명의 또 다른 실시예에서, 파라미터 유도 프로세스 또는 예측자 생성 프로세스에 대해, M개의 샘플을 생성하기 위해 N개의 루마 샘플을 다운 샘플링하는 것은 4-포인트-평균, 코너-포인트 선택, 또는 수평 평균에 기초할 수 있다. 도 6a 내지 도 6c는 이 실시예에 따른 예를 도시한다. 도 6a에 도시된 바와 같이, 다운 샘플링 프로세스는 루마 블록(610)의 모든 4-샘플 클러스터의 레프트-업 코너 샘플을 선택하여 크로마 블록(620)으로서 원하는 해상도를 생성한다. 도 6b는 크로마 블록(640)으로서 원하는 해상도를 생성하기 위해 선택된 샘플로서 루마 블록(630)의 모든 4-샘플 클러스터의 2개의 상부 수평 샘플의 평균을 사용하는 예를 도시한다. 도 6c는 선택된 샘플로서 루마 블록(650)의 모든 4-샘플 클러스터의 4-포인트 평균을 사용하여 크로마 블록(660)으로서 원하는 해상도를 생성하는 예를 도시한다.
파라미터 유도 프로세스 및 예측자 생성 프로세스는 동일한 다운 샘플링 프로세스를 사용할 수 있다.
또 다른 실시예에서, 파라미터 추정 및 인터-컴포넌트 잔차 예측은 PU(예측 유닛) 또는 CU(코딩 유닛) 레벨에서 현재 크로마 블록에 적용된다. 예를 들어, 인터, 인터-뷰 또는 인트라 블록 카피 코딩된 CU의 각 PU 또는 각 CU가 있다.
예를 들어, 인터-컴포넌트 잔차 예측 모드 플래그는 PU 또는 CU 레벨로 전송된다. 다른 예에서, 이용된 파라미터는 PU 또는 CU 레벨로 전송된다. 식 rC(x, y) = rC'(x, y) + (α × r(x, y) + β)에 대한 잔차 보상 프로세스는 PU 또는 CU의 모든 (x, y) 위치에 대해 수행될 수 있다.
다른 예에서, 인트라 CU에 대한 잔차 예측은 여전히 TU 레벨에서 수행될 수 있다. 그러나, 잔차 예측은 인터 CU 또는 인트라 블록 카피 CU에 대해 CU 또는 PU 레벨에서 수행된다.
또 다른 예에서, 인트라 CU에 대한 모드 플래그 시그널링은 여전히 TU 레벨에서 수행된다. 그러나, 모드 플래그 시그널링은 인터 또는 인트라 블록 카피 CU에 대해 CU 또는 PU 레벨에서 수행된다.
크로스-컴포넌트 잔차 예측이 인에이블링되는지 여부를 나타내기 위해 VPS(비디오 파라미터 세트), SPS(시퀀스 파라미터 세트), PPS(화상 파라미터 세트), APS(애플리케이션 파라미터 세트) 또는 슬라이스 헤더에 하나 이상의 구문 요소가 사용될 수 있다.
도 7은 본 발명의 일 실시예를 포함하는 가이드된 크로스-컴포넌트 잔차 예측에 대한 예시적인 흐름도를 도시한다. 시스템은 단계(710)에서 현재 블록의 제1 컴포넌트 및 제2 컴포넌트에 대한 제1 예측 데이터 및 제2 예측 데이터를 각각 수신한다. 제1 예측 데이터 및 제2 예측 데이터는 버퍼의 컴퓨터 메모리(RAM 또는 DRAM)와 같은 저장 장치로부터 검색될 수 있다. 제1 컴포넌트의 재구성된 잔차는 또한 프로세싱 유닛 또는 디지털 신호와 같은 프로세서로부터 수신될 수 있다. 제1 예측 데이터 및 제2 예측 데이터에 기초하여, 단계(720)에서 크로스-컴포넌트 함수의 하나 이상의 파라미터가 결정된다. 크로스-컴포넌트 함수는 제1 컴포넌트를 크로스-컴포넌트 함수의 입력으로 하고 제2 컴포넌트를 크로스-컴포넌트 함수의 출력으로 하여 제1 컴포넌트 및 제2 컴포넌트와 관련된다. 잔차 예측자는 단계(730)에서 제1 컴포넌트의 제1 재구성된 잔차를 크로스-컴포넌트 함수의 입력으로 하여 크로스-컴포넌트 함수를 사용하여 제2 컴포넌트의 제2 잔차에 대해 유도된다. 제2 컴포넌트의 제2 잔차는 원래의 제2 컴포넌트와 제2 예측 데이터 간의 제2 차이에 대응한다. 그 다음, 단계(740)에서, 제2 컴포넌트의 제2 잔차와 잔차 예측자 간의 예측된 차이가 인코딩 또는 디코딩된다.
위에서 도시된 흐름도는 본 발명의 실시예를 포함하는 비디오 인코더 및 디코더에 대한 가이드된 인터-컴포넌트 잔차 예측의 예를 설명하기 위한 것이다. 당업자는 본 발명의 사상을 벗어나지 않는다면 각 단계를 변경하고, 단계를 재배열하고, 단계를 분할하고, 또는 단계를 조합하여 본 발명을 실시할 수 있다.
상기 설명은 당업자가 특정 애플리케이션 및 그 요구 사항의 맥락에서 제공된 바와 같이 본 발명을 실시할 수 있도록 제시된다. 설명된 실시예들에 대한 다양한 수정들이 당업자에게 명백할 것이며, 본 명세서에서 정의된 일반적인 원리들은 다른 실시예들에 적용될 수 있다. 따라서, 본 발명은 도시되고 설명된 특정 실시예들에 한정되도록 의도되지 않고, 본 명세서에서 개시된 원리들 및 신규한 특징들과 일치하는 가장 넓은 범위에 따른다. 상기 상세한 설명에서, 본 발명의 완전한 이해를 제공하기 위해 다양한 특정 세부 사항이 도시된다. 그럼에도 불구하고, 당업자는 본 발명이 실시될 수 있음을 이해할 것이다.
전술한 바와 같은 본 발명의 실시예는 다양한 하드웨어, 소프트웨어 코드, 또는 이들의 조합으로 구현될 수 있다. 예를 들어, 본 발명의 실시예는 본 명세서에서 설명된 프로세싱을 수행하기 위해 비디오 압축 소프트웨어에 통합된 비디오 압축 칩 또는 프로그램 코드에 통합된 회로일 수 있다. 본 발명의 일 실시예는 본 명세서에서 설명된 프로세싱을 수행하기 위해 디지털 신호 프로세서(DSP) 상에서 실행되는 프로그램 코드일 수도 있다. 본 발명은 또한 컴퓨터 프로세서, 디지털 신호 프로세서, 마이크로 프로세서, 또는 필드 프로그래머블 게이트 어레이(FPGA)에 의해 수행되는 다수의 기능을 포함할 수도 있다. 이러한 프로세서는 본 발명에 의해 구체화된 특정 방법을 정의하는 기계 판독 가능 소프트웨어 코드 또는 펌웨어 코드를 실행함으로써, 본 발명에 따른 특정 작업을 수행하도록 구성될 수 있다. 소프트웨어 코드 또는 펌웨어 코드는 상이한 프로그래밍 언어 및 상이한 포맷 또는 스타일로 개발될 수 있다. 소프트웨어 코드는 다른 타겟 플랫폼을 위해 컴파일될 수도 있다. 그러나, 본 발명에 따른 작업을 수행하기 위한 소프트웨어 코드의 다른 코드 포맷, 스타일 및 언어 및 다른 코드 구성 수단이 본 발명의 사상 및 범위를 벗어나지 않을 것이다.
본 발명은 그 사상 또는 본질적인 특성을 벗어나지 않는다면 다른 특정 형태로 구현될 수 있다. 설명된 예들은 모든 면에서 단지 예시적인 것으로서 제한적이지 않은 것으로 고려되어야 한다. 따라서, 본 발명의 범위는 전술한 설명보다는 첨부된 청구 범위에 의해 지시된다. 청구범위와 균등한 의미 및 범위 내에 있는 모든 변경은 그 범위 내에 포함되어야 한다.
310: 예측 데이터
320: 파라미터 추정기
330: 크로스 컴포넌트 예측자

Claims (22)

  1. 2개 이상의 컴포넌트들을 포함하는 비디오 데이터에 대한 크로스-컴포넌트 잔차 예측 방법에 있어서,
    현재 블록의 제1 컴포넌트 및 제2 컴포넌트에 대한 제1 예측 데이터 및 제2 예측 데이터를 각각 수신하는 단계;
    상기 제1 예측 데이터 및 상기 제2 예측 데이터에 기초하여, 상기 제1 컴포넌트를 크로스-컴포넌트 함수의 입력으로 하고 상기 제2 컴포넌트를 크로스-컴포넌트 함수의 출력으로 하여, 상기 제1 컴포넌트 및 상기 제2 컴포넌트에 관련된 상기 크로스-컴포넌트 함수의 하나 이상의 파라미터들을 결정하는 단계;
    상기 제1 컴포넌트의 제1 재구성된 잔차를 상기 크로스-컴포넌트 함수의 입력으로 하여, 상기 크로스-컴포넌트 함수를 사용하여 상기 제2 컴포넌트의 제2 잔차에 대한 잔차 예측자를 유도하는 단계 - 상기 제2 컴포넌트의 제2 잔차는 원래의 제2 컴포넌트 및 상기 제2 예측 데이터 간의 제2 차이에 대응함 - ; 및
    상기 제2 컴포넌트의 제2 잔차와 상기 잔차 예측자 간의 예측된 차이를 인코딩 또는 디코딩하는 단계
    를 포함하는 크로스-컴포넌트 잔차 예측 방법.
  2. 제1항에 있어서, 상기 제1 예측 데이터 및 상기 제2 예측 데이터는, 상기 제1 컴포넌트 및 상기 제2 컴포넌트 각각에 대한 상기 현재 블록의 모션 보상 예측 블록, 재구성된 이웃 샘플, 또는 재구성된 이웃 잔차에 대응하는 것인 크로스-컴포넌트 잔차 예측 방법.
  3. 제2항에 있어서, 상기 제1 컴포넌트 및 상기 제2 컴포넌트에 대한 상기 현재 블록의 상기 모션 보상 예측 블록은, 상기 제1 컴포넌트 및 상기 제2 컴포넌트 각각에 대한 상기 현재 블록의 인터(Inter), 인터-뷰(Inter-view) 또는 인트라 블록 카피(Intra Block Copy) 예측자들에 대응하는 것인 크로스-컴포넌트 잔차 예측 방법.
  4. 제1항에 있어서, 상기 비디오 데이터는 YUV, YCrCb 또는 RGB에 대응하는 3개의 컴포넌트들을 가지며, 상기 제1 컴포넌트 및 상기 제2 컴포넌트는 상기 3개의 컴포넌트들로부터 선택되는 것인 크로스-컴포넌트 잔차 예측 방법.
  5. 제4항에 있어서, 상기 3개의 컴포넌트들이 YUV 또는 YCrCb에 대응하는 경우, 상기 제1 컴포넌트는 Y에 대응하고, 상기 제2 컴포넌트는 UV 또는 CrCb로부터 선택된 하나의 크로마 컴포넌트에 대응하거나, 또는 상기 제1 컴포넌트는 UV 또는 CrCb로부터 선택된 제1 크로마 컴포넌트에 대응하고, 상기 제2 컴포넌트는 UV 또는 CrCb로부터 선택된 제2 크로마 컴포넌트에 각각 대응하는 것인 크로스-컴포넌트 잔차 예측 방법.
  6. 제1항에 있어서, 상기 크로스-컴포넌트 함수는 알파 파라미터, 또는 알파 파라미터 및 베타 파라미터 모두를 포함하는 선형 함수이고, 상기 알파 파라미터는 상기 제1 컴포넌트와 곱해지는 스케일링 항에 대응하고, 상기 베타 파라미터는 오프셋 항에 대응하는 것인 크로스-컴포넌트 잔차 예측 방법.
  7. 제6항에 있어서, 상기 알파 파라미터, 상기 베타 파라미터, 또는 상기 알파 파라미터 및 상기 베타 파라미터 모두는, 상기 제1 예측 데이터를 상기 크로스-컴포넌트 함수의 입력으로 하고 상기 제2 예측 데이터를 크로스-컴퍼넌트 함수의 출력으로 하여, 상기 크로스-컴포넌트 함수에 기초한 최소 자승 절차(least square procedure)를 사용하여 결정되는 것인 크로스-컴포넌트 잔차 예측 방법.
  8. 제6항에 있어서, 상기 제1 예측 데이터 및 상기 제2 예측 데이터는, 상기 제1 컴포넌트 및 상기 제2 컴포넌트 각각에 대한 상기 현재 블록의 모션 보상 예측 블록, 재구성된 이웃 샘플, 또는 재구성된 이웃 잔차에 대응하는 것인 크로스-컴포넌트 잔차 예측 방법.
  9. 제8항에 있어서, 상기 제1 컴포넌트가 상기 제2 컴포넌트보다 높은 공간 해상도를 갖는 경우, 상기 제1 예측 데이터는 상기 제2 컴포넌트의 동일한 공간 해상도로 서브샘플링되는 것인 크로스-컴포넌트 잔차 예측 방법.
  10. 제8항에 있어서, 상기 제1 예측 데이터 및 상기 제2 예측 데이터는 상기 제1 컴포넌트 및 상기 제2 컴포넌트 각각에 대한 상기 현재 블록의 상기 재구성된 이웃 샘플 또는 상기 재구성된 이웃 잔차에 대응하고, 상기 제1 예측 데이터는 N개의 제1 샘플들로 이루어지고, 상기 제2 예측 데이터는 N/2와 동일한 M개의 제2 샘플들로 이루어지고, 상기 제1 컴포넌트에 대한 상기 현재 블록의 2개의 재구성된 이웃 샘플들 또는 재구성된 이웃 잔차들마다의 평균값은, 상기 알파 파라미터, 상기 베타 파라미터, 또는 상기 알파 파라미터 및 상기 베타 파라미터 모두를 유도하는데 사용되는 것인 크로스-컴포넌트 잔차 예측 방법.
  11. 제8항에 있어서, 상기 제1 예측 데이터 및 상기 제2 예측 데이터는 상기 제1 컴포넌트 및 상기 제2 컴포넌트 각각에 대한 상기 현재 블록의 상기 모션 보상 예측 블록의 예측된 샘플들에 대응하고, 상기 제1 예측 데이터는 N개의 제1 샘플들로 이루어지고, 상기 제2 예측 데이터는 N/2와 동일한 M개의 제2 샘플들로 이루어지고, 상기 제1 컴포넌트에 대한 상기 현재 블록의 상기 모션 보상 예측 블록의 2개의 수직-이웃 예측된 샘플들마다의 평균값은, 상기 알파 파라미터, 상기 베타 파라미터, 또는 상기 알파 파라미터 및 상기 베타 파라미터 모두를 유도하는데 사용되는 것인 크로스-컴포넌트 잔차 예측 방법.
  12. 제8항에 있어서, 상기 제1 예측 데이터 및 상기 제2 예측 데이터는, 상기 제1 컴포넌트 및 상기 제2 컴포넌트 각각에 대한 상기 현재 블록의 상기 모션 보상 예측 블록의 예측된 샘플들에 대응하고, 상기 제1 예측 데이터는 N개의 제1 샘플들로 이루어지고, 상기 제2 예측 데이터는 N/4와 동일한 M개의 제2 샘플들로 이루어지고, 상기 제1 컴포넌트에 대한 상기 현재 블록의 상기 모션 보상 예측 블록의 4-샘플 클러스터마다의 레프트-업(left-up) 및 레프트-다운(left-down) 샘플들의 평균값은, 상기 알파 파라미터, 상기 베타 파라미터, 또는 상기 알파 파라미터 및 상기 베타 파라미터 모두를 유도하는데 사용되는 것인 크로스-컴포넌트 잔차 예측 방법.
  13. 제6항에 있어서, 상기 제1 예측 데이터 및 상기 제2 예측 데이터는, 상기 제1 컴포넌트 및 상기 제2 컴포넌트 각각에 대한 상기 현재 블록의 서브샘플링되거나 또는 필터링된 모션 보상 예측 블록에 대응하는 것인 크로스-컴포넌트 잔차 예측 방법.
  14. 제6항에 있어서, 상기 알파 파라미터, 상기 베타 파라미터, 또는 상기 알파 파라미터 및 상기 베타 파라미터 모두는 각각의 TU(transform unit; 변환 유닛), 각각의 PU(prediction unit; 예측 유닛) 또는 CU(coding unit; 코딩 유닛)마다 결정되는 것인 크로스-컴포넌트 잔차 예측 방법.
  15. 제6항에 있어서, 상기 크로스-컴포넌트 잔차 예측은, 각각의 인트라 코딩된 CU(코딩 유닛)의 각각의 TU(변환 유닛)에 적용되고, 각각의 인터, 인터-뷰 또는 인트라 블록 카피 코딩된 CU에서 각각의 PU(예측 유닛) 또는 각각의 CU에 적용되는 것인 크로스-컴포넌트 잔차 예측 방법.
  16. 제6항에 있어서, 상기 크로스-컴포넌트 잔차 예측을 적용할지 여부를 표시하기 위한 모드 플래그는, 각각의 인트라 코딩된 CU(코딩 유닛)마다 TU(변환 유닛) 레벨에서, 그리고 각각의 인터, 인터-뷰 또는 인트라 블록 카피 코딩된 CU마다 PU(예측 유닛) 또는 CU 레벨에서 시그널링되는 것인 크로스-컴포넌트 잔차 예측 방법.
  17. 제1항에 있어서, 상기 제1 컴포넌트가 상기 제2 컴포넌트보다 높은 공간 해상도를 갖는 경우, 상기 제1 컴포넌트의 제1 재구성된 잔차는, 상기 제2 컴포넌트의 제2 잔차에 대한 상기 잔차 예측자를 유도하기 위해, 상기 제2 컴포넌트의 공간 해상도를 매칭시키도록 상기 크로스-컴포넌트 함수를 적용하기 전에 서브샘플링되는 것인 크로스-컴포넌트 잔차 예측 방법.
  18. 제17항에 있어서, 상기 제1 컴포넌트의 제1 재구성된 잔차는 N개의 제1 샘플로 이루어지고, 상기 제2 컴포넌트의 제2 잔차는 N/4와 동일한 M개의 제2 샘플로 이루어지고, 4-샘플 클러스터마다의 레프트-업 및 레프트-다운 샘플들의 평균값, 4-샘플 클러스터마다의 평균값, 상기 제1 컴포넌트의 제1 재구성된 잔차의 4-샘플 클러스터마다의 2개의 수평 이웃 샘플 또는 4-샘플 클러스터마다의 코너 샘플의 평균값이 상기 잔차 예측자에 대하여 사용되는 것인 크로스-컴포넌트 잔차 예측 방법.
  19. 제1항에 있어서, 상기 크로스-컴포넌트 잔차 예측은 CTU(coding tree unit; 코딩 트리 유닛), LCU(largest coding unit; 최대 코딩 유닛), CU(코딩 유닛) 레벨, PU(예측 유닛) 레벨, 또는 TU(변환 유닛) 레벨에서 적용되는 것인 크로스-컴포넌트 잔차 예측 방법.
  20. 제1항에 있어서, 상기 크로스-컴포넌트 잔차 예측이 적용되는지 여부를 나타내기 위해 플래그가 사용되고, 상기 플래그는, CTU(코딩 트리 유닛), LCU(최대 코딩 유닛), CU(코딩 유닛) 레벨, PU(예측 유닛) 레벨, sub-PU 또는 TU(변환 유닛) 레벨에서 시그널링되는 것인 크로스-컴포넌트 잔차 예측 방법.
  21. 제1항에 있어서, 상기 크로스-컴포넌트 잔차 예측이 적용되는지 여부에 따라 상기 제2 컴포넌트의 제2 잔차를 코딩하도록 QP(quantization parameter; 양자화 파라미터)가 선택되는 것인 크로스-컴포넌트 잔차 예측 방법.
  22. 제1항에 있어서, 상기 크로스-컴포넌트 잔차 예측이 인에이블링되는지 여부를 나타내기 위해 VPS(video parameter set; 비디오 파라미터 세트), SPS(sequence parameter set; 시퀀스 파라미터 세트), PPS(picture parameter set; 화상 파라미터 세트), APS(application parameter set; 애플리케이션 파라미터 세트) 또는 슬라이스 헤더에 하나 이상의 구문 요소가 사용되는 것인 크로스-컴포넌트 잔차 예측 방법.
KR1020177013692A 2014-10-28 2015-10-19 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법 KR20170071594A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CNPCT/CN2014/089716 2014-10-28
PCT/CN2014/089716 WO2016065538A1 (en) 2014-10-28 2014-10-28 Guided cross-component prediction
CNPCT/CN2015/071440 2015-01-23
PCT/CN2015/071440 WO2016115733A1 (en) 2015-01-23 2015-01-23 Improvements for inter-component residual prediction
PCT/CN2015/092168 WO2016066028A1 (en) 2014-10-28 2015-10-19 Method of guided cross-component prediction for video coding

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020207012648A Division KR20200051831A (ko) 2014-10-28 2015-10-19 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법

Publications (1)

Publication Number Publication Date
KR20170071594A true KR20170071594A (ko) 2017-06-23

Family

ID=55856586

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020177013692A KR20170071594A (ko) 2014-10-28 2015-10-19 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법
KR1020207012648A KR20200051831A (ko) 2014-10-28 2015-10-19 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020207012648A KR20200051831A (ko) 2014-10-28 2015-10-19 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법

Country Status (7)

Country Link
US (1) US20170244975A1 (ko)
EP (1) EP3198874A4 (ko)
KR (2) KR20170071594A (ko)
CN (1) CN107079166A (ko)
CA (1) CA2964324C (ko)
SG (1) SG11201703014RA (ko)
WO (1) WO2016066028A1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019135636A1 (ko) * 2018-01-05 2019-07-11 에스케이텔레콤 주식회사 Ycbcr간의 상관 관계를 이용한 영상 부호화/복호화 방법 및 장치
WO2019194511A1 (ko) * 2018-04-01 2019-10-10 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019221465A1 (ko) * 2018-05-14 2019-11-21 인텔렉추얼디스커버리 주식회사 영상 복호화 방법/장치, 영상 부호화 방법/장치 및 비트스트림을 저장한 기록 매체
WO2020076142A1 (ko) * 2018-10-12 2020-04-16 주식회사 윌러스표준기술연구소 교차성분 선형 모델을 이용한 비디오 신호 처리 방법 및 장치
WO2020149616A1 (ko) * 2019-01-14 2020-07-23 엘지전자 주식회사 영상 코딩 시스템에서 cclm 예측 기반 영상 디코딩 방법 및 그 장치
US11470306B2 (en) 2018-10-07 2022-10-11 Wilus Institute Of Standards And Technology Inc. Method and device for processing video signal using MPM configuration method for multiple reference lines

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10419757B2 (en) * 2016-08-31 2019-09-17 Qualcomm Incorporated Cross-component filter
EP3386198A1 (en) * 2017-04-07 2018-10-10 Thomson Licensing Method and device for predictive picture encoding and decoding
GB2567249A (en) * 2017-10-09 2019-04-10 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
WO2020053805A1 (en) 2018-09-12 2020-03-19 Beijing Bytedance Network Technology Co., Ltd. Single-line cross component linear model prediction mode
KR20190083956A (ko) * 2018-01-05 2019-07-15 에스케이텔레콤 주식회사 YCbCr간의 상관 관계를 이용한 영상 부호화/복호화 방법 및 장치
GB2571313B (en) 2018-02-23 2022-09-21 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
GB2571312B (en) * 2018-02-23 2020-05-27 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
US11438577B2 (en) * 2018-03-25 2022-09-06 B1 Institute Of Image Technology, Inc. Image encoding/decoding method and device
US10448025B1 (en) * 2018-05-11 2019-10-15 Tencent America LLC Method and apparatus for video coding
WO2020016734A1 (en) 2018-07-15 2020-01-23 Beijing Bytedance Network Technology Co., Ltd. Cross-component coding order derivation
WO2020035837A1 (en) * 2018-08-17 2020-02-20 Beijing Bytedance Network Technology Co., Ltd. Simplified cross component prediction
WO2020041306A1 (en) * 2018-08-21 2020-02-27 Futurewei Technologies, Inc. Intra prediction method and device
CN110858903B (zh) * 2018-08-22 2022-07-12 华为技术有限公司 色度块预测方法及装置
WO2020056767A1 (zh) * 2018-09-21 2020-03-26 Oppo广东移动通信有限公司 视频图像分量的预测方法、装置及计算机存储介质
WO2020073864A1 (en) * 2018-10-08 2020-04-16 Huawei Technologies Co., Ltd. Intra prediction method and device
WO2020073920A1 (en) * 2018-10-10 2020-04-16 Mediatek Inc. Methods and apparatuses of combining multiple predictors for block prediction in video coding systems
EP3861728A4 (en) 2018-11-06 2022-04-06 Beijing Bytedance Network Technology Co., Ltd. COMPLEXITY REDUCTION IN A DERIVATION OF PARAMETERS FOR AN INTRA PREDICTION
US20210392321A1 (en) * 2018-11-23 2021-12-16 Intellectual Discovery Co., Ltd. Inter-image component prediction method, and image encoding and decoding method and device using same
WO2020108591A1 (en) 2018-12-01 2020-06-04 Beijing Bytedance Network Technology Co., Ltd. Parameter derivation for intra prediction
CN117336503A (zh) 2018-12-07 2024-01-02 北京字节跳动网络技术有限公司 基于上下文的帧内预测
WO2020125796A1 (en) 2018-12-22 2020-06-25 Beijing Bytedance Network Technology Co., Ltd. Two step cross-component prediction mode based on multiple parameter
BR112021014853A2 (pt) 2019-02-22 2021-10-05 Beijing Bytedance Network Technology Co., Ltd. Método e aparelho para processar e codificar dados de vídeo, e, mídias de armazenamento e registro legíveis por computador não transitórias
AU2020226566A1 (en) 2019-02-24 2021-08-19 Beijing Bytedance Network Technology Co., Ltd. Parameter derivation for intra prediction
US11516512B2 (en) 2019-03-04 2022-11-29 Alibaba Group Holding Limited Method and system for processing video content
KR102639936B1 (ko) 2019-03-08 2024-02-22 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 처리에서 모델-기반 변형에 대한 제약들
WO2020192642A1 (en) 2019-03-24 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Conditions in parameter derivation for intra prediction
EP3944621A4 (en) * 2019-03-25 2022-05-18 Guangdong Oppo Mobile Telecommunications Corp., Ltd. FRAME PREDICTION METHOD, ENCODER, DECODER, AND STORAGE MEDIA
EP4391537A2 (en) * 2019-03-25 2024-06-26 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image prediction method, encoder, decoder and storage medium
CN116506609B (zh) * 2019-04-09 2024-03-15 北京达佳互联信息技术有限公司 用于在视频编码中用信号发送合并模式的方法和装置
CN117528068A (zh) 2019-04-18 2024-02-06 北京字节跳动网络技术有限公司 视频编解码中的跨分量模式中的选择性使用
JP7317991B2 (ja) * 2019-04-23 2023-07-31 北京字節跳動網絡技術有限公司 クロスコンポーネント依存性を低減するための方法
BR112021021661A2 (pt) 2019-05-08 2021-12-21 Beijing Bytedance Network Tech Co Ltd Método e aparelho para processar dados de vídeo, e, meios de armazenamento e de gravação legíveis por computador não transitórios
WO2020228764A1 (en) * 2019-05-14 2020-11-19 Beijing Bytedance Network Technology Co., Ltd. Methods on scaling in video coding
EP3973707A4 (en) 2019-06-22 2022-08-31 Beijing Bytedance Network Technology Co., Ltd. CHROMA REST SCALE SYNTAX ELEMENT
JP7460748B2 (ja) 2019-07-07 2024-04-02 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのシグナリング
US11399199B2 (en) * 2019-08-05 2022-07-26 Qualcomm Incorporated Chroma intra prediction units for video coding
EP3994886A4 (en) * 2019-08-06 2022-12-28 Beijing Bytedance Network Technology Co., Ltd. VIDEO ZONE PARTITION ACCORDING TO COLOR FORMAT
MX2022002247A (es) 2019-09-02 2022-03-22 Beijing Bytedance Network Tech Co Ltd Particion de region de video basada en formato de color.
US11451834B2 (en) 2019-09-16 2022-09-20 Tencent America LLC Method and apparatus for cross-component filtering
CA3159585A1 (en) 2019-10-28 2021-05-06 Lg Electronics Inc. Image encoding/decoding method and device using adaptive color transform, and method for transmitting bitstream
KR20220084060A (ko) 2019-10-29 2022-06-21 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 크로스 컴포넌트 적응적 루프 필터의 시그널링
EP4070544A4 (en) 2019-12-11 2023-03-01 Beijing Bytedance Network Technology Co., Ltd. SAMPLE FILLING FOR ADAPTIVE LOOP FILTERING BETWEEN COMPONENTS
WO2021136508A1 (en) * 2019-12-31 2021-07-08 Beijing Bytedance Network Technology Co., Ltd. Inter-prediction with multiple-parameter model
US11516469B2 (en) 2020-03-02 2022-11-29 Tencent America LLC Loop filter block flexible partitioning
CN112514401A (zh) * 2020-04-09 2021-03-16 北京大学 环路滤波的方法与装置
EP4173290A4 (en) 2020-06-30 2024-01-10 Beijing Bytedance Network Technology Co., Ltd. BOUNDARY LOCATION FOR ADAPTIVE LOOP FILTERING
EP4238311A4 (en) * 2020-10-28 2024-05-29 Beijing Dajia Internet Information Technology Co., Ltd. ENHANCEMENT OF CHROMINANCE CODING IN ADAPTIVE INTER-COMPONENT SAMPLE SHIFT WITH VIRTUAL BOUNDARY
WO2024007825A1 (en) * 2022-07-07 2024-01-11 Mediatek Inc. Method and apparatus of explicit mode blending in video coding systems
WO2024109618A1 (en) * 2022-11-21 2024-05-30 Mediatek Inc. Method and apparatus of inheriting cross-component models with cross-component information propagation in video coding system
WO2024120478A1 (en) * 2022-12-07 2024-06-13 Mediatek Inc. Method and apparatus of inheriting cross-component models in video coding system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100657919B1 (ko) * 2004-12-13 2006-12-14 삼성전자주식회사 화상 데이터의 공간상 예측 장치 및 방법과 그를 이용한부호화 장치 및 방법, 화상 데이터의 공간상 예측 보상장치 및 방법과 그를 이용한 복호화 장치 및 방법
KR100772873B1 (ko) * 2006-01-12 2007-11-02 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
KR101362757B1 (ko) * 2007-06-11 2014-02-14 삼성전자주식회사 인터 컬러 보상을 이용한 영상의 부호화 방법 및 장치,복호화 방법 및 장치
US9948938B2 (en) * 2011-07-21 2018-04-17 Texas Instruments Incorporated Methods and systems for chroma residual data prediction
CN103096051B (zh) * 2011-11-04 2017-04-12 华为技术有限公司 一种图像块信号分量采样点的帧内解码方法和装置
CN103918269B (zh) * 2012-01-04 2017-08-01 联发科技(新加坡)私人有限公司 色度帧内预测方法及装置
CN103957410B (zh) * 2013-12-30 2017-04-19 南京邮电大学 一种基于残差频域复杂度的i帧码率控制方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019135636A1 (ko) * 2018-01-05 2019-07-11 에스케이텔레콤 주식회사 Ycbcr간의 상관 관계를 이용한 영상 부호화/복호화 방법 및 장치
WO2019194511A1 (ko) * 2018-04-01 2019-10-10 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019221465A1 (ko) * 2018-05-14 2019-11-21 인텔렉추얼디스커버리 주식회사 영상 복호화 방법/장치, 영상 부호화 방법/장치 및 비트스트림을 저장한 기록 매체
US11758159B2 (en) 2018-05-14 2023-09-12 Intellectual Discovery Co., Ltd. Image decoding method/device, image encoding method/device, and recording medium in which bitstream is stored
US11470306B2 (en) 2018-10-07 2022-10-11 Wilus Institute Of Standards And Technology Inc. Method and device for processing video signal using MPM configuration method for multiple reference lines
WO2020076142A1 (ko) * 2018-10-12 2020-04-16 주식회사 윌러스표준기술연구소 교차성분 선형 모델을 이용한 비디오 신호 처리 방법 및 장치
US11438596B2 (en) 2018-10-12 2022-09-06 Wilus Institute Of Standards And Technology Inc. Method and device for processing video signal by using cross-component linear model
US11870995B2 (en) 2018-10-12 2024-01-09 Samsung Electronics Co., Ltd. Method and device for processing video signal by using cross-component linear model
WO2020149616A1 (ko) * 2019-01-14 2020-07-23 엘지전자 주식회사 영상 코딩 시스템에서 cclm 예측 기반 영상 디코딩 방법 및 그 장치

Also Published As

Publication number Publication date
US20170244975A1 (en) 2017-08-24
WO2016066028A1 (en) 2016-05-06
CA2964324C (en) 2020-01-21
CN107079166A (zh) 2017-08-18
KR20200051831A (ko) 2020-05-13
CA2964324A1 (en) 2016-05-06
EP3198874A4 (en) 2018-04-04
SG11201703014RA (en) 2017-05-30
EP3198874A1 (en) 2017-08-02

Similar Documents

Publication Publication Date Title
KR20170071594A (ko) 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법
US9467713B2 (en) Apparatus for decoding a moving picture
US9609354B2 (en) Apparatus for decoding a moving picture
JP6701270B2 (ja) 符号化装置、復号方法、符号化方法、復号方法、及びプログラム
KR101708985B1 (ko) 루마 기반 크로마 인트라 예측의 방법 및 장치
EP2859726B1 (en) Methods for intra transform skip mode
US8532175B2 (en) Methods and apparatus for reducing coding artifacts for illumination compensation and/or color compensation in multi-view coded video
US20180332292A1 (en) Method and apparatus for intra prediction mode using intra prediction filter in video and image compression
Kamp et al. Multihypothesis prediction using decoder side-motion vector derivation in inter-frame video coding
CN113228638B (zh) 在区块分割中条件式编码或解码视频区块的方法和装置
US20200145671A1 (en) Devices and methods for video coding
WO2020228566A1 (en) Method and apparatus of chroma direct mode generation for video coding
US20220353516A1 (en) Method for adaptively setting resolution, and image decoding apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
E601 Decision to refuse application
E801 Decision on dismissal of amendment