KR20230075498A - 2차 변환 계수들의 스캔 순서 - Google Patents

2차 변환 계수들의 스캔 순서 Download PDF

Info

Publication number
KR20230075498A
KR20230075498A KR1020237014287A KR20237014287A KR20230075498A KR 20230075498 A KR20230075498 A KR 20230075498A KR 1020237014287 A KR1020237014287 A KR 1020237014287A KR 20237014287 A KR20237014287 A KR 20237014287A KR 20230075498 A KR20230075498 A KR 20230075498A
Authority
KR
South Korea
Prior art keywords
transform
data
video
block
scan order
Prior art date
Application number
KR1020237014287A
Other languages
English (en)
Inventor
마두 페린가세리 크리쉬난
신 자오
산 류
Original Assignee
텐센트 아메리카 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 아메리카 엘엘씨 filed Critical 텐센트 아메리카 엘엘씨
Publication of KR20230075498A publication Critical patent/KR20230075498A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/619Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding the transform being operated outside the prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

비디오 데이터를 프로세싱하기 위한 방법들, 장치, 및 컴퓨터 판독가능 저장 매체. 방법은 비디오 데이터로부터 데이터 블록을 추출하는 단계; 제1 데이터 시퀀스를 생성하기 위해 제1 스캔 순서를 따라 데이터 블록의 제1 수의 데이터 아이템을 스캔하는 단계; 제1 데이터 시퀀스에 대해 비-분리 변환을 수행하여 제2 수의 데이터 아이템을 갖는 제2 데이터 시퀀스를 획득하는 단계; 및 데이터 블록의 제1 수의 데이터 아이템의 적어도 일부를 제2 스캔 순서를 따라 제2 데이터 시퀀스의 일부 또는 전부로 대체하는 단계를 포함한다.

Description

2차 변환 계수들의 스캔 순서
참조에 의한 포함
본 출원은 2021년 8월 30일에 출원된 미국 가출원 번호 제63/238,646호 및 2022년 1월 28일에 출원된 미국 정식 출원 번호 제17/587,164호에 기초하고 이들에 대한 우선권의 이익을 주장하며, 이들은 본 명세서에서 전체적으로 참조로 포함된다.
기술분야
본 개시내용은 고급 비디오 코딩(advanced video coding) 기술들의 세트를 설명한다. 보다 구체적으로, 개시된 기술은 비디오 인코딩 및 디코딩에서 데이터 블록들의 비-분리 변환(non-separable transform)의 구현을 포함한다.
본 명세서에서 제공되는 이 배경 설명은 본 개시내용의 컨텍스트를 일반적으로 제시할 목적을 위한 것이다. 현재 명명된 발명자들의 작업은, 이 배경 섹션에서 작업이 설명되는 정도뿐만 아니라, 본 출원의 출원시에 종래기술로서 달리 자격이 없을 수 있는 설명의 양태들까지, 본 개시내용에 대한 종래기술로서 명시적으로도 암시적으로도 인정되지 않는다.
비디오 코딩 및 디코딩은 모션 보상과 함께 인터-픽처 예측(inter-picture prediction)을 사용하여 수행될 수 있다. 압축되지 않은 디지털 비디오는 일련의 픽처들을 포함할 수 있으며, 각각의 픽처는, 예를 들어, 1920 x 1080 휘도(luminance) 샘플들 및 연관된 전체 또는 서브샘플링된 색차(chrominance) 샘플들의 공간 차원을 갖는다. 일련의 픽처들은, 예를 들어, 초당 60 픽처 또는 초당 60 프레임의 고정 또는 가변 픽처 레이트(대안적으로, 프레임 레이트로서 지칭됨)를 가질 수 있다. 압축되지 않은 비디오는 스트리밍 또는 데이터 프로세싱을 위한 특정 비트레이트 요구 사항들을 갖는다. 예를 들어, 1920 x 1080의 픽셀 해상도, 60 프레임/초의 프레임 레이트, 및 컬러 채널당 픽셀당 8비트에서 4:2:0의 크로마 서브샘플링을 사용하는 비디오는 1.5Gbit/s에 가까운 대역폭을 요구한다. 이러한 비디오 1시간에는 600 기가바이트보다 큰 저장 공간이 요구된다.
비디오 코딩 및 디코딩의 한 가지 목적은, 압축을 통해, 압축되지 않은 입력 비디오 신호의 리던던시(redundancy)를 감소시키는 것일 수 있다. 압축은, 일부 경우들에서, 위에서 언급된 대역폭 및/또는 저장 공간 요구 사항들을 100배(two orders of magnitude) 이상 감소시키는 데 도움이 될 수 있다. 무손실 압축(lossless compression) 및 손실 압축(lossy compression)뿐만 아니라, 이들의 조합이 모두 채택될 수 있다. 무손실 압축은 디코딩 프로세스를 통해 압축된 원본 신호로부터 원본 신호의 정확한 사본이 재구성될 수 있는 기술들을 지칭한다. 손실 압축은 원본 비디오 정보가 코딩 동안 완전히 유지되지는 않고 디코딩 동안 완전히 복구가능하지는 않은 코딩/디코딩 프로세스를 지칭한다. 손실 압축을 사용할 때, 재구성된 신호는 원본 신호와 동일하지 않을 수 있지만, 원본 신호와 재구성된 신호 사이의 왜곡은 일부 정보 손실에도 불구하고 의도된 애플리케이션에 유용하도록 재구성된 신호를 렌더링할 만큼 충분히 작게 만들어진다. 비디오의 경우, 많은 애플리케이션들에서 손실 압축이 널리 채택된다. 허용가능한 왜곡의 양은 애플리케이션에 의존한다. 예를 들어, 특정 소비자 비디오 스트리밍 애플리케이션들의 사용자들은 영화 또는 텔레비전 방송 애플리케이션들의 사용자들보다 더 높은 왜곡을 허용할 수 있다. 특정 코딩 알고리즘에 의해 달성가능한 압축 비율은 다양한 왜곡 허용 오차(tolerance)를 반영하도록 선택되거나 또는 조정될 수 있고; 더 높은 허용가능한 왜곡은 일반적으로 더 높은 손실들 및 더 높은 압축 비율들을 산출하는 코딩 알고리즘들을 허용한다.
비디오 인코더 및 디코더는, 예를 들어, 모션 보상, 푸리에 변환(Fourier transform), 양자화, 및 엔트로피 코딩을 포함하는 몇몇 광범위한 카테고리들 및 단계들로부터의 기술들을 활용할 수 있다.
비디오 코덱 기술들은 인트라 코딩으로서 알려진 기술들을 포함할 수 있다. 인트라 코딩에서, 샘플 값들은 샘플들 또는 이전에 재구성된 참조 픽처(reference picture)들로부터의 다른 데이터에 대한 참조 없이 표현된다. 일부 비디오 코덱들에서, 픽처는 공간적으로 샘플들의 블록들로 세분화된다. 샘플들의 모든 블록들이 인트라 모드에서 코딩될 때, 해당 픽처는 인트라 픽처로서 지칭될 수 있다. 인트라 픽처들 및 독립 디코더 리프레시 픽처(independent decoder refresh picture)들과 같은 그들의 파생물들은 디코더 상태를 재설정하는 데 사용될 수 있고, 따라서, 코딩된 비디오 비트스트림 및 비디오 세션의 제1 픽처로서 또는 정지 이미지(still image)로서 사용될 수 있다. 그런 다음, 인트라 예측 후의 블록의 샘플들은 주파수 도메인으로의 변환의 대상이 될 수 있고, 그렇게 생성된 변환 계수들은 엔트로피 코딩 전에 양자화될 수 있다. 인트라 예측은 사전-변환 도메인(pre-transform domain)에서 샘플 값들을 최소화하는 기술을 표현한다. 일부 경우들에서, 변환 후의 DC 값이 더 작고 AC 계수들이 더 작을수록, 엔트로피 코딩 후의 블록을 표현하기 위해 주어진 양자화 스텝 사이즈에서 요구되는 비트들이 더 적다.
예를 들어, MPEG-2 생성 코딩 기술들로부터 알려진 것과 같은 전통적인 인트라 코딩은 인트라 예측을 사용하지 않는다. 그러나, 일부 더 새로운 비디오 압축 기술들은, 예를 들어, 공간적으로 이웃의 인코딩 및/또는 디코딩 동안 획득되고 디코딩 순서에서 인트라 코딩 또는 디코딩되고 있는 데이터의 블록들에 선행하는 주변 샘플 데이터 및/또는 메타데이터에 기초하여 블록들의 코딩/디코딩을 시도하는 기술들을 포함한다. 이러한 기술들은 이하 "인트라 예측(intra prediction)" 기술들이라고 불린다. 적어도 일부 경우들에서, 인트라 예측은 재구성 중인 현재 픽처로부터의 참조 데이터만 사용하고 다른 참조 픽처들로부터의 참조 데이터는 사용하지 않는다는 점에 유의하도록 한다.
많은 상이한 형태들의 인트라 예측이 있을 수 있다. 이러한 기술들 중 둘 이상이 주어진 비디오 코딩 기술에서 이용가능할 때, 사용 중인 기술은 인트라 예측 모드로서 지칭될 수 있다. 특정 코덱에는 하나 이상의 인트라 예측 모드가 제공될 수 있다. 특정 경우들에서, 모드들은 서브모드들을 가질 수 있고/있거나 다양한 파라미터들과 연관될 수 있고, 비디오의 블록들에 대한 모드/서브모드 정보 및 인트라 코딩 파라미터들은 개별적으로 또는 집합적으로 코딩되고 모드 코드워드들에 포함될 수 있다. 주어진 모드, 서브모드, 및/또는 파라미터 조합에 사용할 코드워드는 인트라 예측을 통해 코딩 효율성 이득에 영향을 미칠 수 있으며, 코드워드들을 비트스트림으로 전환(translate)하는 데 사용되는 엔트로피 코딩 기술도 마찬가지일 수 있다.
특정 모드의 인트라 예측은 H.264와 함께 도입되었고, H.265에서 개선되었으며, 조인트 탐색 모델(joint exploration model)(JEM), 다용도 비디오 코딩(versatile video coding)(VVC), 및 벤치마크 세트(benchmark set)(BMS)와 같은 더 새로운 코딩 기술들에서 추가로 개선되었다. 일반적으로, 인트라 예측의 경우, 이용가능하게 된 이웃 샘플 값들을 사용하여 예측기 블록(predictor block)이 형성될 수 있다. 예를 들어, 특정 방향 및/또는 라인들을 따라 특정 이웃 샘플 세트의 이용가능한 값들이 예측기 블록에 복사될 수 있다. 사용 중인 방향에 대한 참조는 비트스트림에 코딩될 수도 있고 또는 자체적으로 예측될 수도 있다.
도 1a를 참조하면, (H.265에서 지정된 35개 인트라 모드의 33개 각도 모드(angular mode)에 대응하는) H.265의 33가지 가능한 인트라 예측기 방향에서 지정된 9개의 예측기 방향의 서브세트가 우측 하단에 도시되어 있다. 화살표들이 수렴하는 포인트(101)는 예측되고 있는 샘플을 표현한다. 화살표들은 101에서 샘플을 예측하는 데 사용되는 이웃 샘플들로부터의 방향을 표현한다. 예를 들어, 화살표(102)는 샘플(101)이 수평 방향으로부터 45도 각도로 이웃 샘플 또는 샘플들로부터 우측 상단으로 예측됨을 표시한다. 유사하게, 화살표(103)는 샘플(101)이 수평 방향으로부터 22.5도 각도로 이웃 샘플 또는 샘플들로부터 샘플(101)의 좌측 하단으로 예측됨을 표시한다.
여전히 도 1a를 참조하면, (굵은 파선에 의해 표시된) 4 x 4 샘플들의 정사각형 블록(104)이 좌측 상단에 도시되어 있다. 정사각형 블록(104)은 16개의 샘플을 포함하며, 이들 각각은 "S", Y 차원에서의 그것의 포지션(예를 들어, 행 인덱스) 및 X 차원에서의 그것의 포지션(예를 들어, 열 인덱스)으로 레이블링된다. 예를 들어, 샘플 S21은 (상단으로부터의) Y 차원에서의 제2 샘플 및 X 차원에서의 (좌측으로부터의) 제1 샘플이다. 유사하게, 샘플 S44는 Y 및 X 차원들 모두에서 블록(104)의 제4 샘플이다. 블록 사이즈가 4 x 4 샘플들이므로, S44는 우측 하단에 있다. 유사한 넘버링 방식을 따르는 예시적인 참조 샘플들이 추가로 도시되어 있다. 참조 샘플은 R, 블록(104)에 대한 그것의 Y 포지션(예를 들어, 행 인덱스) 및 X 포지션(열 인덱스)으로 레이블링된다. H.264 및 H.265 모두에서, 재구성 중인 블록에 인접하게 이웃하는 예측 샘플들이 사용된다.
블록(104)의 인트라 픽처 예측은 시그널링된 예측 방향에 따라 이웃 샘플들로부터 참조 샘플 값들을 복사함으로써 시작될 수 있다. 예를 들어, 코딩된 비디오 비트스트림은, 이 블록(104)에 대해, 화살표(102)의 예측 방향을 표시하는 시그널링을 포함하는 것으로, 즉, 샘플들이 수평 방향으로부터 45도 각도로 예측 샘플 또는 샘플들로부터 우측 상단으로 예측되는 것으로 가정한다. 이러한 경우, 샘플들 S41, S32, S23, 및 S14는 동일한 참조 샘플 R05로부터 예측된다. 그런 다음, 샘플 S44는 참조 샘플 R08로부터 예측된다.
특정 경우들에서는, 참조 샘플을 계산하기 위해, 특히, 방향들이 45도로 균등하게 분할가능하지 않을 때, 예를 들어, 보간법(interpolation)을 통해 다수의 참조 샘플들의 값들이 조합될 수 있다.
비디오 코딩 기술이 계속 발전함에 따라, 가능한 방향들의 수가 증가되고 있다. 예를 들어, H.264(2003년)에서는, 인트라 예측을 위해 9개의 상이한 방향이 이용가능하다. 이것은 H.265(2013년)에서 33개로 증가했으며, 본 개시내용 당시에는, JEM/VVC/BMS가 최대 65개 방향을 지원할 수 있다. 가장 적절한 인트라 예측 방향들을 식별하는 데 도움이 되는 실험적 연구들이 수행되어 왔으며, 엔트로피 코딩의 특정 기술들이 사용되어 방향들에 대한 특정 비트 페널티를 수용하면서 해당 가장 적절한 방향들을 적은 수의 비트들로 인코딩할 수 있다. 또한, 디코딩된 이웃 블록들의 인트라 예측에 사용된 이웃 방향들로부터 때때로 방향들 자체가 예측될 수 있다.
도 1b는 시간이 지남에 따라 개발된 다양한 인코딩 기술들에서 예측 방향들의 증가하는 수를 예시하기 위해 JEM에 따른 65개의 인트라 예측 방향을 도시하는 개략도(180)를 도시한다.
인트라 예측 방향들을 표현하는 비트들을 코딩된 비디오 비트스트림의 예측 방향들에 매핑하기 위한 방식은 비디오 코딩 기술에 따라 다를 수 있으며, 예를 들어, 예측 방향의 단순한 직접 매핑들부터 인트라 예측 모드, 코드워드들, 가장 가능성 있는 모드(most probable mode)들을 포함하는 복잡한 적응 방식들, 및 유사한 기술들에 이르기까지 다양할 수 있다. 그러나, 모든 경우들에서, 비디오 콘텐츠에서 통계적으로 다른 특정 방향들보다 발생할 가능성이 더 적은 인트로 예측에 대한 특정 방향들이 있을 수 있다. 비디오 압축의 목표는 리던던시의 감소이므로, 잘 설계된 비디오 코딩 기술에서는 해당 가능성이 더 적은 방향들이 가능성이 더 높은 방향들보다 더 많은 비트 수에 의해 표현될 수 있을 것이다.
인터 픽처 예측, 또는 인터 예측은 모션 보상에 기초할 수 있다. 모션 보상에서, 이전에 재구성된 픽처 또는 그 부분(참조 픽처)으로부터의 샘플 데이터는, 모션 벡터(motion vector)(이하 MV)에 의해 표시되는 방향으로 공간적으로 시프트된 후에, 새로이 재구성되는 픽처 또는 픽처 부분(예를 들어, 블록)의 예측을 위해 사용될 수 있다. 일부 경우들에서, 참조 픽처는 현재 재구성 중인 픽처와 동일할 수 있다. MV들은 2차원 X 및 Y, 또는 3차원을 가질 수 있으며, 제3 차원은 (시간 차원과 유사한) 사용 중인 참조 픽처의 표시이다.
일부 비디오 압축 기술들에서, 샘플 데이터의 특정 영역에 적용가능한 현재 MV는 다른 MV들로부터, 예를 들어, 재구성 중인 영역에 공간적으로 인접하고 디코딩 순서에서 현재 MV에 선행하는 샘플 데이터의 다른 영역들과 관련되는 해당 다른 MV들로부터 예측될 수 있다. 그렇게 하면 상관된 MV들의 리던던시 제거에 의존함으로써 MV들을 코딩하는 데 요구되는 전체 데이터 양을 상당히 감소시킬 수 있고, 이에 의해, 압축 효율성을 증가시킬 수 있다. MV 예측은, 예를 들어, (미가공 비디오(natural video)로서 알려진) 카메라로부터 파생된 입력 비디오 신호를 코딩할 때, 단일 MV가 적용가능한 영역보다 더 큰 영역들이 비디오 시퀀스에서 유사한 방향으로 이동할 통계적 가능도(likelihood)가 있기 때문에, 효과적으로 작동할 수 있고, 따라서, 일부 경우들에서는, 이웃 영역의 MV들로부터 파생된 유사한 모션 벡터를 사용하여 예측될 수 있다. 그 결과, 주어진 영역에 대한 실제 MV가 주변 MV들로부터 예측된 MV와 유사하거나 또는 동일하게 된다. 이러한 MV는 차례로, 엔트로피 코딩 후에, MV가 이웃 MV(들)로부터 예측되는 대신 직접 코딩되는 경우에 사용되는 것보다 더 적은 비트 수로 표현될 수 있다. 일부 경우들에서, MV 예측은 원본 신호(즉, 샘플 스트림)로부터 파생된 신호(즉, MV들)의 무손실 압축의 예가 될 수 있다. 다른 경우들에서, MV 예측 자체는, 예를 들어, 여러 주변 MV들로부터 예측기를 계산할 때의 반올림 오차(rounding error)들로 인해 손실일 수 있다.
다양한 MV 예측 메커니즘들이 H.265/HEVC(ITU-T Rec. H.265, "High Efficiency Video Coding", 2016년 12월)에 설명되어 있다. H.265가 지정하는 많은 MV 예측 메커니즘들 중 이하 "공간 병합(spatial merge)"으로서 지칭되는 기술이 아래에 설명되어 있다.
구체적으로, 도 2를 참조하면, 현재 블록(201)은 공간적으로 시프트된 동일한 사이즈의 이전 블록으로부터 예측가능하도록 모션 검색 프로세스 동안 인코더에 의해 발견된 샘플들을 포함한다. 해당 MV를 직접 코딩하는 대신에, MV는 A0, A1, 및 B0, B1, B2(각각, 202 내지 206)로 표시된 5개의 주변 샘플 중 어느 하나와 연관된 MV를 사용하여, 하나 이상의 참조 픽처와 연관된 메타데이터로부터, 예를 들어, (디코딩 순서에서) 가장 최근의 참조 픽처로부터 파생될 수 있다. H.265에서, MV 예측은 이웃 블록들이 사용하는 동일한 참조 픽처로부터의 예측기들을 사용할 수 있다.
본 개시내용의 양태들은 비디오 인코딩 및 디코딩을 위한 방법들 및 장치들을 제공한다.
본 개시내용의 양태들은 또한, 비디오 디코딩 및/또는 인코딩을 위해 컴퓨터에 의해 실행될 때, 컴퓨터로 하여금, 비디오 디코딩 및/또는 인코딩을 위한 방법들을 수행하게 하는 명령어들을 저장한 비-일시적 컴퓨터 판독가능 매체들을 제공한다.
일 양태에 따르면, 본 개시내용의 실시예는 비디오 데이터를 프로세싱하기 위한 방법을 제공한다. 방법은 비디오 데이터로부터 데이터 블록을 추출하는 단계; 제1 데이터 시퀀스를 생성하기 위해 제1 스캔 순서를 따라 데이터 블록의 제1 수의 데이터 아이템을 스캔하는 단계; 제1 데이터 시퀀스에 대해 비-분리 변환(non-separable transform)을 수행하여 제2 수의 데이터 아이템을 갖는 제2 데이터 시퀀스를 획득하는 단계; 및 데이터 블록의 제1 수의 데이터 아이템의 적어도 일부를 제2 스캔 순서를 따라 제2 데이터 시퀀스의 일부 또는 전부로 대체하는 단계를 포함한다.
다른 양태에 따르면, 본 개시내용의 실시예는 비디오 데이터와 연관된 변환 계수들을 엔트로피 인코딩하기 위한 방법을 제공한다. 방법은, 변환 계수들과 연관된 변환이 비-분리형(non-separable)이라는 것에 응답하여, 수평 스캔 순서; 또는 수직 스캔 순서 중 하나인 제1 스캐닝 순서를 사용하여 변환 계수들의 엔트로피 인코딩을 수행할 때 변환 계수를 스캔하는 단계: 및 변환 계수들과 연관된 변환이 분리형(separable)이라는 것에 응답하여, 변환 계수들의 엔트로피 인코딩을 수행할 때 제1 스캐닝 순서와 상이한 제2 스캐닝 순서로 변환 계수를 스캔하는 단계를 포함한다.
다른 양태에 따르면, 본 개시내용의 실시예는 비디오 데이터를 프로세싱하기 위한 방법을 제공한다. 방법은 비디오 데이터를 수신하는 단계; 비디오 데이터에 대한 2차 변환으로서 비-분리 변환이 적용되는지 여부를 결정하는 단계; 비디오 데이터에 대한 2차 변환으로서 비-분리 변환이 적용되는 것에 응답하여: 제1 수의 1차 변환 계수를 스캔하는 단계 - 1차 변환 계수들은 제1 스캐닝 순서를 따름 -; 입력으로서 제1 수의 1차 변환 계수를 사용하여 비-분리 변환을 수행하여 출력으로서 제2 수의 2차 변환 계수를 획득하는 단계 - 2차 변환 계수들은 제2 스캐닝 순서를 따름 -; 적어도 제2 수의 1차 변환 계수를 제2 스캐닝 순서를 따라 2차 변환 계수들로 대체하는 단계; 입력으로서 제2 수의 2차 변환 계수를 사용하여 비-분리 변환에 대응하는 역방향 2차 변환(inverse secondary transform)을 수행하여 출력으로서 제1 수의 1차 변환 계수를 획득하는 단계; 및 적어도 제1 수의 2차 변환 계수를 제1 스캐닝 순서를 따라 1차 변환 계수들로 대체하는 단계를 포함한다.
다른 양태에 따르면, 본 개시내용의 실시예는 비디오 인코딩 및/또는 디코딩을 위한 장치를 제공한다. 장치는 명령어들을 저장한 메모리; 및 메모리와 통신하는 프로세서를 포함한다. 프로세서가 명령어들을 실행할 때, 프로세서는, 장치로 하여금, 비디오 디코딩 및/또는 인코딩을 위한 상기 방법들을 수행하게 하도록 구성된다.
또 다른 양태에 따르면, 본 개시내용의 실시예는, 비디오 디코딩 및/또는 인코딩을 위해 컴퓨터에 의해 실행될 때, 컴퓨터로 하여금, 비디오 디코딩 및/또는 인코딩을 위한 상기 방법들을 수행하게 하는 명령어들을 저장한 비-일시적 컴퓨터 판독가능 매체들을 제공한다.
상기 및 다른 양태들 및 이들의 구현들은 도면들, 상세한 설명들, 및 청구범위에서 더 상세하게 설명된다.
개시된 대상의 추가 특징들, 특성, 및 다양한 이점들은 다음의 상세한 설명 및 첨부 도면들로부터 더욱 명백해질 것이다.
도 1a는 인트라 예측 방향성 모드(directional mode)들의 예시적인 서브세트의 개략도를 도시한다.
도 1b는 예시적인 인트라 예측 방향들의 예시를 도시한다.
도 2는 일 예에서 현재 블록 및 모션 벡터 예측을 위한 그것의 주변 공간 병합 후보들의 개략도를 도시한다.
도 3은 예시적인 실시예에 따른 통신 시스템(300)의 단순화된 블록도의 개략도를 도시한다.
도 4는 예시적인 실시예에 따른 통신 시스템(400)의 단순화된 블록도의 개략도를 도시한다.
도 5는 예시적인 실시예에 따른 비디오 디코더의 단순화된 블록도의 개략도를 도시한다.
도 6은 예시적인 실시예에 따른 비디오 인코더의 단순화된 블록도의 개략도를 도시한다.
도 7은 다른 예시적인 실시예에 따른 비디오 인코더의 블록도를 도시한다.
도 8은 다른 예시적인 실시예에 따른 비디오 디코더의 블록도를 도시한다.
도 9는 본 개시내용의 예시적인 실시예들에 따른 방향성 인트라 예측 모드(directional intra prediction mode)들을 도시한다.
도 10은 본 개시내용의 예시적인 실시예들에 따른 비-방향성 인트라 예측 모드(non-directional intra prediction mode)들을 도시한다.
도 11은 본 개시내용의 예시적인 실시예들에 따른 재귀적 인트라 예측 모드(recursive intra prediction mode)들을 도시한다.
도 12는 본 개시내용의 예시적인 실시예들에 따른 변환 블록 파티셔닝 및 인트라 예측 블록의 스캔을 도시한다.
도 13은 본 개시내용의 예시적인 실시예들에 따른 변환 블록 파티셔닝 및 인터 예측 블록의 스캔을 도시한다.
도 14는 본 개시내용의 예시적인 실시예들에 따른 저주파 비-분리 변환 프로세스(low frequency non-separable transform process)를 도시한다.
도 15는 본 개시내용의 예시적인 실시예들에 따른 비-분리 변환을 수행하기 위한 데이터 흐름을 도시한다.
도 16은 본 개시내용의 예시적인 실시예들에 따른 흐름도를 도시한다.
도 17은 본 개시내용의 예시적인 실시예들에 따른 컴퓨터 시스템의 개략도를 도시한다.
도 3은 본 개시내용의 실시예에 따른 통신 시스템(300)의 단순화된 블록도를 예시한다. 통신 시스템(300)은, 예를 들어, 네트워크(350)를 통해 서로 통신할 수 있는 복수의 단말 디바이스들을 포함한다. 예를 들어, 통신 시스템(300)은 네트워크(350)를 통해 상호 연결된 제1 쌍의 단말 디바이스들(310) 및 (320)을 포함한다. 도 3의 예에서, 제1 쌍의 단말 디바이스들(310) 및 (320)은 데이터의 단방향 송신을 수행할 수 있다. 예를 들어, 단말 디바이스(310)는 네트워크(350)를 통해 다른 단말 디바이스(320)에 송신하기 위해 (예를 들어, 단말 디바이스(310)에 의해 캡처되는 비디오 픽처들의 스트림의) 비디오 데이터를 코딩할 수 있다. 인코딩된 비디오 데이터는 하나 이상의 코딩된 비디오 비트스트림의 형태로 송신될 수 있다. 단말 디바이스(320)는 네트워크(350)로부터 코딩된 비디오 데이터를 수신하고, 코딩된 비디오 데이터를 디코딩하여 비디오 픽처들을 복구하고, 복구된 비디오 데이터에 따라 비디오 픽처들을 디스플레이할 수 있다. 단방향 데이터 송신은 미디어 서빙 애플리케이션들 등에서 구현될 수 있다.
다른 예에서, 통신 시스템(300)은, 예를 들어, 비디오 컨퍼런싱(videoconferencing) 애플리케이션 동안 구현될 수 있는 코딩된 비디오 데이터의 양방향 송신을 수행하는 제2 쌍의 단말 디바이스들(330) 및 (340)을 포함한다. 데이터의 양방향 송신을 위해, 예에서, 단말 디바이스들(330) 및 (340)의 각각의 단말 디바이스는 네트워크(350)를 통해 단말 디바이스들(330) 및 (340)의 다른 단말 디바이스로의 송신을 위해 (예를 들어, 단말 디바이스에 의해 캡처되는 비디오 픽처들의 스트림의) 비디오 데이터를 코딩할 수 있다. 단말 디바이스들(330) 및 (340)의 각각의 단말 디바이스는 또한 단말 디바이스들(330) 및 (340)의 다른 단말 디바이스에 의해 송신된 코딩된 비디오 데이터를 수신할 수 있고, 코딩된 비디오 데이터를 디코딩하여 비디오 픽처들을 복구할 수 있고, 복구된 비디오 데이터에 따라 액세스가능한 디스플레이 디바이스에서 비디오 픽처들을 디스플레이할 수 있다.
도 3의 예에서, 단말 디바이스들(310), (320), (330) 및 (340)은 서버들, 개인용 컴퓨터들 및 스마트폰들로서 구현될 수 있지만, 본 개시내용의 기본 원리들의 적용가능성은 그렇게 제한되지 않을 수 있다. 본 개시내용의 실시예들은 데스크탑 컴퓨터들, 랩탑 컴퓨터들, 태블릿 컴퓨터들, 미디어 플레이어들, 웨어러블 컴퓨터들, 전용 비디오 컨퍼런싱 장비 등에서 구현될 수 있다. 네트워크(350)는, 예를 들어, 유선(wireline)(유선형(wired)) 및/또는 무선 통신 네트워크들을 포함하여 단말 디바이스들(310), (320), (330) 및 (340) 사이에서 코딩된 비디오 데이터를 전달하는 임의의 수 또는 유형들의 네트워크들을 표현한다. 통신 네트워크(350)9는 회선-교환(circuit-switched), 패킷-교환(packet-switched), 및/또는 다른 유형들의 채널들에서 데이터를 교환할 수 있다. 대표적인 네트워크들은 통신 네트워크들, 근거리 네트워크(local area network)들, 광역 네트워크(wide area network)들 및/또는 인터넷을 포함한다. 본 논의의 목적들을 위해, 네트워크(350)의 아키텍처 및 토폴로지는 본 명세서에서 명시적으로 설명되지 않는 한 본 개시내용의 동작에 중요하지 않을 수 있다.
도 4는, 개시되는 대상에 대한 애플리케이션에 대한 예로서, 비디오 스트리밍 환경에서 비디오 인코더 및 비디오 디코더의 배치를 예시한다. 개시되는 대상은, 예를 들어, 비디오 컨퍼런싱, 디지털 TV 방송, 게임, 가상 현실, CD, DVD, 메모리 스틱 등을 포함하는 디지털 미디어에 대한 압축된 비디오의 스토리지 등을 포함하여 다른 비디오 애플리케이션들에 동일하게 적용가능할 수 있다.
비디오 스트리밍 시스템은 압축되지 않은 비디오 픽처들 또는 이미지들의 스트림(402)을 생성하기 위한 비디오 소스(401), 예를 들어, 디지털 카메라를 포함할 수 있는 비디오 캡처 서브시스템(413)을 포함할 수 있다. 예에서, 비디오 픽처들의 스트림(402)은 비디오 소스(401)의 디지털 카메라에 의해 레코딩되는 샘플들을 포함한다. 인코딩된 비디오 데이터(404)(또는 코딩된 비디오 비트스트림들)와 비교할 때, 높은 데이터 볼륨을 강조하기 위해 굵은 라인으로 도시된 비디오 픽처들의 스트림(402)은, 비디오 소스(401)에 커플링되는 비디오 인코더(403)를 포함하는 전자 디바이스(420)에 의해 프로세싱될 수 있다. 비디오 인코더(403)는 아래에서 더 상세하게 설명되는 바와 같이 개시되는 대상의 양태들을 가능하게 하거나 또는 구현하기 위해 하드웨어, 소프트웨어, 또는 이들의 조합을 포함할 수 있다. 압축되지 않은 비디오 픽처들의 스트림(402)과 비교할 때, 더 낮은 데이터 볼륨을 강조하기 위해 얇은 라인으로 도시된 인코딩된 비디오 데이터(404)(또는 인코딩된 비디오 비트스트림(404))는 미래의 사용을 위해 스트리밍 서버(405) 상에 또는 다운스트림 비디오 디바이스들(도시되지 않음)에 대해 직접 저장될 수 있다. 도 4의 클라이언트 서브시스템들(406) 및 (408)과 같은 하나 이상의 스트리밍 클라이언트 서브시스템이 인코딩된 비디오 데이터(404)의 사본들(407) 및 (409)을 리트리브하기 위해 스트리밍 서버(405)에 액세스할 수 있다. 클라이언트 서브시스템(406)은, 예를 들어, 전자 디바이스(430)에 비디오 디코더(410)를 포함할 수 있다. 비디오 디코더(410)는 인코딩된 비디오 데이터의 들어오는 사본(407)을 디코딩하고, 압축되지 않고 디스플레이(412)(예를 들어, 디스플레이 스크린) 또는 다른 렌더링 디바이스들(도시되지 않음) 상에 렌더링될 수 있는 비디오 픽처들의 나가는 스트림(411)을 생성한다. 비디오 디코더(410)는 본 개시내용에서 설명되는 다양한 기능들 중 일부 또는 전부를 수행하도록 구성될 수 있다. 일부 스트리밍 시스템들에서, 인코딩된 비디오 데이터(404), (407) 및 (409)(예를 들어, 비디오 비트스트림들)는 특정 비디오 코딩/압축 표준들에 따라 인코딩될 수 있다. 해당 표준들의 예들은 ITU-T Recommendation H.265를 포함한다. 예에서, 개발 중인 비디오 코딩 표준은 비공식적으로 다용도 비디오 코딩(VVC)으로서 알려져 있다. 개시된 대상은 VVC, 및 다른 비디오 코딩 표준들의 컨텍스트에서 사용될 수 있다.
전자 디바이스들(420) 및 (430)은 다른 컴포넌트들(도시되지 않음)을 포함할 수 있음에 유의한다. 예를 들어, 전자 디바이스(420)는 비디오 디코더(도시되지 않음)를 포함할 수 있고, 전자 디바이스(430)는 비디오 인코더(도시되지 않음)도 포함할 수 있다.
도 5는 아래의 본 개시내용의 임의의 실시예에 따른 비디오 디코더(510)의 블록도를 도시한다. 비디오 디코더(510)는 전자 디바이스(530)에 포함될 수 있다. 전자 디바이스(530)는 수신기(531)(예를 들어, 수신 회로망(receiving circuitry))를 포함할 수 있다. 비디오 디코더(510)는 도 4의 예의 비디오 디코더(410) 대신에 사용될 수 있다.
수신기(531)는 비디오 디코더(510)에 의해 디코딩될 하나 이상의 코딩된 비디오 시퀀스를 수신할 수 있다. 동일한 또는 다른 실시예에서, 하나의 코딩된 비디오 시퀀스는 한 번에 디코딩될 수 있으며, 여기서, 각각의 코딩된 비디오 시퀀스의 디코딩은 다른 코딩된 비디오 시퀀스들과 독립적이다. 각각의 비디오 시퀀스는 다수의 비디오 프레임들 또는 이미지들과 연관될 수 있다. 코딩된 비디오 시퀀스는 인코딩된 비디오 데이터를 저장한 저장 디바이스 또는 인코딩된 비디오 데이터를 송신하는 스트리밍 소스에 대한 하드웨어/소프트웨어 링크일 수 있는 채널(501)로부터 수신될 수 있다. 수신기(531)는 코딩된 오디오 데이터 및/또는 보조 데이터 스트림들과 같은 다른 데이터와 함께 인코딩된 비디오 데이터를 수신할 수 있으며, 이들은 그들 개개의 프로세싱 회로망(processing circuitry)(도시되지 않음)으로 포워딩될 수 있다. 수신기(531)는 코딩된 비디오 시퀀스를 다른 데이터로부터 분리할 수 있다. 네트워크 지터(network jitter)를 방지하기 위해, 버퍼 메모리(515)가 수신기(531)와 엔트로피 디코더/파서(parser)(520)(이하 "파서(520)") 사이에 배치될 수 있다. 특정 애플리케이션들에서, 버퍼 메모리(515)는 비디오 디코더(510)의 부분으로서 구현될 수 있다. 다른 애플리케이션들에서, 이것은 비디오 디코더(510) 외부에 있고, 이로부터 분리될 수 있다(도시되지 않음). 또 다른 애플리케이션들에서, 예를 들어, 네트워크 지터를 방지하기 위한 목적으로 비디오 디코더(510) 외부에 버퍼 메모리(도시되지 않음)가 있을 수 있고, 예를 들어, 재생 타이밍을 핸들링하기 위해 비디오 디코더(510) 내부에 또 다른 추가 버퍼 메모리(515)가 있을 수 있다. 수신기(531)가 충분한 대역폭 및 제어가능성의 저장/포워딩 디바이스로부터, 또는 등동기 네트워크(isosynchronous network)로부터 데이터를 수신하고 있을 때, 버퍼 메모리(515)는 필요하지 않을 수도 있고 또는 작을 수도 있다. 인터넷과 같은 최선형 패킷 네트워크(best-effort packet network)들에서 사용하기 위해서는, 충분한 사이즈의 버퍼 메모리(515)가 요구될 수 있고, 그것의 사이즈는 비교적 클 수 있다. 이러한 버퍼 메모리는 적응형 사이즈로 구현될 수 있고, 비디오 디코더(510) 외부의 운영 체제 또는 유사한 요소들(도시되지 않음)에서 적어도 부분적으로 구현될 수 있다.
비디오 디코더(510)는 코딩된 비디오 시퀀스로부터 심볼들(521)을 재구성하기 위해 파서(520)를 포함할 수 있다. 해당 심볼들의 카테고리들은 비디오 디코더(510)의 동작을 관리하는 데 사용되는 정보, 및 잠재적으로 전자 디바이스(530)의 필수 부분일 수도 있고 또는 아닐 수도 있지만, 도 5에 도시된 바와 같이, 전자 디바이스(530)에 커플링될 수 있는 디스플레이(512)(예를 들어, 디스플레이 스크린)와 같은 렌더링 디바이스를 제어하기 위한 정보를 포함한다. 렌더링 디바이스(들)에 대한 제어 정보는 보충 향상 정보(Supplemental Enhancement Information)(SEI 메시지들) 또는 비디오 사용성 정보(Video Usability Information)(VUI) 파라미터 세트 프래그먼트들(도시되지 않음)의 형태일 수 있다. 파서(520)는 파서(520)에 의해 수신되는 코딩된 비디오 시퀀스를 파싱/엔트로피-디코딩할 수 있다. 코딩된 비디오 시퀀스의 엔트로피 코딩은 비디오 코딩 기술 또는 표준에 따를 수 있고, 가변 길이 코딩(variable length coding), 허프만 코딩(Huffman coding), 컨텍스트 감도(context sensitivity)가 있거나 없는 산술 코딩(arithmetic coding) 등을 포함하는 다양한 원리들을 따를 수 있다. 파서(520)는 비디오 디코더에서 픽셀들의 서브그룹들 중 적어도 하나에 대한 서브그룹 파라미터들의 세트를, 코딩된 비디오 시퀀스로부터, 서브그룹들에 대응하는 적어도 하나의 파라미터에 기초하여 추출할 수 있다. 서브그룹들은 픽처들의 그룹들(Groups of Pictures)(GOP들), 픽처들, 타일들, 슬라이스들, 매크로블록들, 코딩 유닛들(Coding Units)(CU들), 블록들, 변환 유닛들(Transform Units)(TU들), 예측 유닛들(Prediction Units)(PU들) 등을 포함할 수 있다. 파서(520)는 또한 코딩된 비디오 시퀀스로부터 변환 계수들(예를 들어, 푸리에 변환 계수들), 양자화기 파라미터 값들, 모션 벡터들 등과 같은 정보를 추출할 수도 있다.
파서(520)는 버퍼 메모리(515)로부터 수신된 비디오 시퀀스에 대해 엔트로피 디코딩/파싱 동작을 수행하여, 심볼들(521)을 생성할 수 있다.
심볼들(521)의 재구성은 코딩된 비디오 픽처 또는 그 부분들의 유형(예를 들어, 인터 및 인트라 픽처, 인터 및 인트라 블록), 및 다른 팩터들에 따라 다수의 상이한 프로세싱 또는 기능 유닛들을 수반할 수 있다. 관련되는 유닛들 및 이들이 관련되는 방법은 파서(520)에 의해 코딩된 비디오 시퀀스로부터 파싱된 서브그룹 제어 정보에 의해 제어될 수 있다. 파서(520)와 아래의 다수의 프로세싱 또는 기능 유닛들 사이의 이러한 서브그룹 제어 정보의 흐름은 단순화를 위해 도시되지 않는다.
이미 언급된 기능 블록들을 넘어, 비디오 디코더(510)는 개념적으로 아래에서 설명되는 바와 같이 다수의 기능 유닛들로 세분화될 수 있다. 상업적 제약들 하에서 작동하는 실제 구현에서, 이러한 기능 유닛들 중 많은 부분이 서로 밀접하게 상호작용하고, 적어도 부분적으로 서로 통합될 수 있다. 그러나, 개시되는 대상의 다양한 기능들을 명확하게 설명하기 위한 목적을 위해, 기능 유닛들로의 개념적 세분화가 아래의 개시내용에서 채택된다.
제1 유닛은 스케일러(scaler)/역변환 유닛(551)을 포함할 수 있다. 스케일러/역변환 유닛(551)은 파서(520)로부터의 심볼(들)(521)로서 양자화된 변환 계수뿐만 아니라, 사용할 역변환의 유형, 블록 사이즈, 양자화 팩터/파라미터들, 양자화 스케일링 행렬들 등을 표시하는 정보를 포함한 제어 정보를 수신할 수 있다. 스케일러/역변환 유닛(551)은 애그리게이터(aggregator)(555)에 입력될 수 있는 샘플 값들을 포함하는 블록들을 출력할 수 있다.
일부 경우들에서, 스케일러/역변환(551)의 출력 샘플들은 인트라 코딩된 블록, 즉, 이전에 재구성된 픽처로들부터의 예측 정보를 사용하지 않고 현재 픽처의 이전에 재구성된 부분들로부터의 예측 정보를 사용할 수 있는 블록에 속할 수 있다. 이러한 예측 정보는 인트라 픽처 예측 유닛(552)에 의해 제공될 수 있다. 일부 경우들에서, 인트라 픽처 예측 유닛(552)은 이미 재구성되어 현재 픽처 버퍼(558)에 저장된 주변 블록 정보를 사용하여 재구성 중인 블록의 동일한 사이즈 및 형상의 블록을 생성할 수 있다. 현재 픽처 버퍼(558)는, 예를 들어, 부분적으로 재구성된 현재 픽처 및/또는 완전히 재구성된 현재 픽처를 버퍼링한다. 일부 구현들에서, 어그리게이터(555)는, 샘플 기저(sample basis)당, 인트라 예측 유닛(552)이 생성한 예측 정보를 스케일러/역변환 유닛(551)에 의해 제공되는 바와 같은 출력 샘플 정보에 추가할 수 있다.
다른 경우들에서, 스케일러/역변환 유닛(551)의 출력 샘플들은 인터 코딩되고 잠재적으로 모션 보상된 블록에 속할 수 있다. 이러한 경우에, 모션 보상 예측 유닛(553)은 참조 픽처 메모리(557)에 액세스하여 인터-픽처 예측에 사용되는 샘플들을 페치(fetch)할 수 있다. 블록에 속하는 심볼들(521)에 따라 페치된 샘플들을 모션 보상한 후에, 이러한 샘플들은 어그리게이터(555)에 의해 스케일러/역변환 유닛(551)의 출력(유닛(551)의 출력은 잔차 샘플(residual sample)들 또는 잔차 신호(residual signal)로서 지칭될 수 있음)에 추가되어, 출력 샘플 정보를 생성할 수 있다. 모션 보상 예측 유닛(553)이 예측 샘플들을 페치하는 참조 픽처 메모리(557) 내의 어드레스들은, 예를 들어, X, Y 컴포넌트들(시프트), 및 참조 픽처 컴포넌트들(시간)을 가질 수 있는 심볼들(521)의 형태로 모션 보상 예측 유닛(553)이 이용가능한 모션 벡터들에 의해 제어될 수 있다. 모션 보상은 또한, 서브-샘플의 정확한 모션 벡터들이 사용 중일 때, 참조 픽처 메모리(557)로부터 페치된 바와 같은 샘플 값들의 보간법을 포함할 수 있고, 또한 모션 벡터 예측 메커니즘들 등과 연관될 수 있다.
어그리게이터(555)의 출력 샘플들은 루프 필터 유닛(556)에서 다양한 루프 필터링 기술들의 대상이 될 수 있다. 비디오 압축 기술들은 코딩된 비디오 시퀀스(코딩된 비디오 비트스트림으로도 지칭됨)에 포함되고 파서(520)로부터의 심볼들(521)로서 루프 필터 유닛(556)이 이용가능한 파라미터들에 의해 제어되는 인-루프 필터 기술(in-loop filter)들을 포함할 수 있으며, 또한 코딩된 픽처 또는 코딩된 비디오 시퀀스의 (디코딩 순서에서) 이전 부분들의 디코딩 동안 획득된 메타-정보에 응답할 수 있을 뿐만 아니라, 이전에 재구성되고 루프-필터링된 샘플 값들에 응답할 수 있다. 아래에서 더 상세하게 설명되는 바와 같이, 여러 유형의 루프 필터들이 다양한 순서들로 루프 필터 유닛(556)의 부분으로서 포함될 수 있다.
루프 필터 유닛(556)의 출력은, 렌더링 디바이스(512)에 출력될 뿐만 아니라, 미래의 인터-픽처 예측에 사용하기 위해 참조 픽처 메모리(557)에 저장될 수 있는 샘플 스트림일 수 있다.
특정 코딩된 픽처들은, 완전히 재구성되면, 미래의 인터-픽처 예측을 위한 참조 픽처들로서 사용될 수 있다. 예를 들어, 현재 픽처에 대응하는 코딩된 픽처가 완전히 재구성되고 코딩된 픽처가 (예를 들어, 파서(520)에 의해) 참조 픽처로서 식별되었으면, 현재 픽처 버퍼(558)는 참조 픽처 메모리(557)의 부분이 될 수 있고, 신규한(fresh) 현재 픽처 버퍼가 다음의 코딩된 픽처의 재구성을 시작하기 전에 재할당될 수 있다.
비디오 디코더(510)는 ITU-T Rec. H.265와 같은 표준에서 채택된 사전 결정된 비디오 압축 기술에 따라 디코딩 동작들을 수행할 수 있다. 코딩된 비디오 시퀀스는, 코딩된 비디오 시퀀스가 비디오 압축 기술 또는 표준의 신택스 및 비디오 압축 기술 또는 표준에서 문서화된 프로파일들 둘 모두를 준수한다는 점에서, 사용되는 있는 비디오 압축 기술 또는 표준에 의해 지정된 신택스를 따를 수 있다. 구체적으로는, 프로파일이 해당 프로파일 하에서 사용하기 위해 이용가능한 유일한 도구들로서 비디오 압축 기술 또는 표준에서 이용가능한 모든 도구들로부터 특정 도구들을 선택할 수 있다. 표준-컴플라이언트(standard-compliant)를 위해, 코딩된 비디오 시퀀스의 복잡도는 비디오 압축 기술 또는 표준의 레벨에 의해 정의된 바와 같은 경계(bound)들 내에 있을 수 있다. 일부 경우들에서, 레벨들은 최대 픽처 사이즈, 최대 프레임 레이트, 최대 재구성 샘플 레이트(예를 들어, 초당 메가샘플(megasamples per second)로 측정됨), 최대 참조 픽처 사이즈 등을 제한한다. 레벨들에 의해 설정된 한계(limit)들은, 일부 경우들에서, 코딩된 비디오 시퀀스에서 시그널링된 가상 참조 디코더(Hypothetical Reference Decoder)(HRD) 사양들 및 HRD 버퍼 관리를 위한 메타데이터를 통해 추가로 제한될 수 있다.
일부 예시적인 실시예들에서, 수신기(531)는 인코딩된 비디오와 함께 추가(리던던트(redundant)) 데이터를 수신할 수 있다. 추가 데이터는 코딩된 비디오 시퀀스(들)의 부분으로서 포함될 수 있다. 추가 데이터는 데이터를 적절하게 디코딩하고/하거나 원본 비디오 데이터를 보다 정확하게 재구성하기 위해 비디오 디코더(510)에 의해 사용될 수 있다. 추가 데이터는, 예를 들어, 시간, 공간, 또는 신호 잡음비(signal noise ratio)(SNR) 향상 계층들, 리던던트 슬라이스들, 리던던트 픽처들, 순방향 오류 정정 코드들 등의 형태일 수 있다.
도 6은 본 개시내용의 예시적인 실시예에 따른 비디오 인코더(603)의 블록도를 도시한다. 비디오 인코더(603)는 전자 디바이스(620)에 포함될 수 있다. 전자 디바이스(620)는 송신기(640)(예를 들어, 송신 회로망(transmitting circuitry))를 추가로 포함할 수 있다. 비디오 인코더(603)는 도 4의 예의 비디오 인코더(403) 대신에 사용될 수 있다.
비디오 인코더(603)는 비디오 인코더(603)에 의해 코딩될 비디오 이미지(들)를 캡처할 수 있는 비디오 소스(601)(도 6의 예에서는 전자 디바이스(620)의 부분이 아님)로부터 비디오 샘플들을 수신할 수 있다. 다른 예에서, 비디오 소스(601)는 전자 디바이스(620)의 일부로서 구현될 수 있다.
비디오 소스(601)는 임의의 적절한 비트 깊이(예를 들어, 8비트, 10비트, 12비트, ...), 임의의 컬러 공간(예를 들어, BT.601 YCrCb, RGB, XYZ...), 및 임의의 적절한 샘플링 구조(예를 들어, YCrCb 4:2:0, YCrCb 4:4:4)일 수 있는 디지털 비디오 샘플 스트림의 형태로 비디오 인코더(603)에 의해 코딩될 소스 비디오 시퀀스를 제공할 수 있다. 미디어 서빙 시스템에서, 비디오 소스(601)는 이전에 준비된 비디오를 저장할 수 있는 저장 디바이스일 수 있다. 비디오 컨퍼런싱 시스템에서, 비디오 소스(601)는 로컬 이미지 정보를 비디오 시퀀스로서 캡처하는 카메라일 수 있다. 비디오 데이터는, 시퀀스에서로 볼 때, 모션을 부여하는 복수의 개별 픽처들 또는 이미지들로서 제공될 수 있다. 픽처들 자체는 픽셀들의 공간 어레이로서 구성될 수 있으며, 여기서, 각각의 픽셀은 사용 중인 샘플링 구조, 컬러 공간 등에 따라 하나 이상의 샘플을 포함할 수 있다. 본 기술분야의 통상의 기술자는 픽셀들과 샘플들 사이의 관계를 쉽게 이해할 수 있다. 아래의 설명은 샘플들에 중점을 둔다.
일부 예시적인 실시예들에 따르면, 비디오 인코더(603)는 실시간으로 또는 애플리케이션에 의해 요구되는 바와 같은 임의의 다른 시간 제약들 하에서 소스 비디오 시퀀스의 픽처들을 코딩된 비디오 시퀀스(643)로 코딩 및 압축할 수 있다. 적절한 코딩 속도를 시행하는 것은 제어기(650)의 한 기능을 구성한다. 일부 실시예들에서, 제어기(650)는 아래에서 설명되는 바와 같은 다른 기능 유닛들에 기능적으로 커플링되어 이를 제어할 수 있다. 커플링은 단순화를 위해 도시되지 않는다. 제어기(650)에 의해 설정되는 파라미터들은 레이트 제어 관련 파라미터들(픽처 스킵, 양자화기, 레이트-왜곡 최적화 기술들의 람다 값, ...), 픽처 사이즈, 픽처들의 그룹(GOP) 레이아웃, 최대 모션 벡터 검색 범위 등을 포함할 수 있다. 제어기(650)는 특정 시스템 설계에 최적화된 비디오 인코더(603)에 속하는 다른 적절한 기능들을 갖도록 구성될 수 있다.
일부 예시적인 실시예들에서, 비디오 인코더(603)는 코딩 루프에서 동작하도록 구성될 수 있다. 과도하게 단순화된 설명으로서, 예에서, 코딩 루프는 소스 코더(630)(예를 들어, 코딩될 입력 픽처, 및 참조 픽처(들)에 기초하여, 심볼 스트림과 같은 심볼들을 생성하는 것을 담당), 및 비디오 인코더(603)에 임베딩된 (로컬) 디코더(633)를 포함할 수 있다. 디코더(633)는 (개시되는 대상에서 고려되는 비디오 압축 기술들에서 심볼들과 엔트로피 코딩에서 코딩된 비디오 비트스트림 사이의 임의의 압축이 무손실일 수 있기 때문에) 임베디드 디코더(633)가 엔트로피 코딩 없이 소스 코더(630)에 의해 코딩된 비디오 스트림을 프로세싱하더라도 (원격) 디코더가 생성하는 것과 유사한 방식으로 샘플 데이터를 생성하도록 심볼들을 재구성한다. 재구성된 샘플 스트림(샘플 데이터)은 참조 픽처 메모리(634)에 입력된다. 심볼 스트림의 디코딩은 디코더 위치(로컬 또는 원격)에 관계 없이 비트가-정확한 결과(bit-exact result)들로 이어지기 때문에, 참조 픽처 메모리(634)의 콘텐츠도 로컬 인코더와 원격 인코더 사이에서 비트가 정확하다. 다시 말해서, 인코더의 예측 부분이, 디코딩 동안 예측을 사용할 때, 디코더가 "보는(see)" 것과 정확하게 동일한 샘플 값들을 참조 픽처 샘플들로서 "보는" 것이다. 참조 픽처 공시성(reference picture synchronicity)(및, 예를 들어, 채널 오류들로 인해 공시성이 유지될 수 없는 경우, 결과적인 드리프트)의 이러한 기본 원리는 코딩 품질을 개선하는 데 사용된다.
"로컬" 디코더(633)의 동작은 도 5와 관련하여 위에서 이미 상세하게 설명된 비디오 디코더(510)와 같은 "원격" 디코더의 동작과 동일할 수 있다. 그러나, 도 5 또한 간략하게 참조하면, 심볼들이 이용가능하고 엔트로피 코더(645) 및 파서(520)에 의한 심볼들의 코딩된 비디오 시퀀스로의 인코딩/디코딩은 무손실일 수 있기 때문에, 버퍼 메모리(515) 및 파서(520)를 포함하는 비디오 디코더(510)의 엔트로피 디코딩 부분들이 인코더의 로컬 디코더(633)에서 완전히 구현되지는 않을 수 있다.
이 포인트에서 이루어질 수 있는 관찰은 디코더에만 존재할 수 있는 파싱/엔트로피 디코딩을 제외한 임의의 디코더 기술이 또한 대응하는 인코더에 실질적으로 동일한 기능 형태로 반드시 존재할 필요가 있을 수도 있다는 것이다. 이러한 이유 때문에, 개시되는 대상은 때때로 인코더의 디코딩 부분과 연합하는 디코더 동작에 중점을 둘 수 있다. 따라서, 인코더 기술들에 대한 설명은 포괄적으로 설명된 디코더 기술들의 반대이기 때문에 축약될 수 있다. 특정 영역들 또는 양태들에서만 인코더에 대한 더 자세한 설명이 아래에 제공된다.
일부 예시적인 구현들에서의 동작 동안, 소스 코더(630)는 "참조 픽처(reference picture)들"로서 지정된 비디오 시퀀스로부터의 하나 이상의 이전에 코딩된 픽처를 참조하여 예측적으로 입력 픽처를 코딩하는 모션 보상된 예측 코딩을 수행할 수 있다. 이러한 방식으로, 코딩 엔진(632)은 입력 픽처의 픽셀 블록들과 입력 픽처에 대한 예측 참조(들)로서 선택될 수 있는 참조 픽처(들)의 픽셀 블록들 사이의 컬러 채널들의 차이들(또는 잔차(residue))을 코딩한다. "잔차"라는 용어와 그 형용사 형태 "잔차의(residual)"는 상호교환 가능하게 사용될 수 있다.
로컬 비디오 디코더(633)는, 소스 코더(630)에 의해 생성된 심볼들에 기초하여, 참조 픽처들로서 지정될 수 있는 픽처들의 코딩된 비디오 데이터를 디코딩할 수 있다. 코딩 엔진(632)의 동작들은 유리하게는 손실 프로세스들일 수 있다. 코딩된 비디오 데이터가 비디오 디코더(도 6에 도시되지 않음)에서 디코딩될 수 있을 때, 재구성된 비디오 시퀀스는 전형적으로 일부 오류들이 있는 소스 비디오 시퀀스의 복제본(replica)일 수 있다. 로컬 비디오 디코더(633)는 참조 픽처들에 대해 비디오 디코더에 의해 수행될 수 있는 디코딩 프로세스들을 복제하고, 재구성된 참조 픽처들로 하여금, 참조 픽처 캐시(634)에 저장되게 할 수 있다. 이러한 방식으로, 비디오 인코더(603)는 원단(far-end)(원격) 비디오 디코더(송신 오류들 없음)에 의해 획득될 재구성된 참조 픽처들로서 공통 콘텐츠를 갖는 재구성된 참조 픽처들의 사본들을 국부적으로 저장할 수 있다.
예측기(635)는 코딩 엔진(632)에 대한 예측 검색들을 수행할 수 있다. 즉, 코딩될 새로운 픽처에 대해, 예측기(635)는 새로운 픽처들에 대한 적절한 예측 참조로서 역할을 할 수 있는 (후보 참조 픽셀 블록들로서의) 샘플 데이터 또는 참조 픽처 모션 벡터들, 블록 형상들 등과 같은 특정 메타데이터에 대해 참조 픽처 메모리(634)를 검색할 수 있다. 예측기(635)는 적절한 예측 참조들을 찾기 위해 샘플 블록-바이-픽셀 블록(sample block-by-pixel block) 기저로 동작할 수 있다. 일부 경우들에서는, 예측기(635)에 의해 획득된 검색 결과들에 의해 결정되는 바와 같이, 입력 픽처가 참조 픽처 메모리(634)에 저장된 다수의 참조 픽처들로부터 인출된 예측 참조들을 가질 수 있다.
제어기(650)는, 예를 들어, 비디오 데이터를 인코딩하는 데 사용되는 파라미터들 및 서브그룹 파라미터들의 설정을 포함하여 소스 코더(630)의 코딩 동작들을 관리할 수 있다.
모든 위에서 언급된 기능 유닛들의 출력은 엔트로피 코더(645)에서 엔트로피 코딩의 대상이 될 수 있다. 엔트로피 코더(645)는 허프만 코딩, 가변 길이 코딩, 산술 코딩 등과 같은 기술들에 따른 심볼들의 무손실 압축에 의해, 다양한 기능 유닛들에 의해 생성된 심볼들을 코딩된 비디오 시퀀스로 전환한다.
송신기(640)는 인코딩된 비디오 데이터를 저장한 저장 디바이스에 대한 하드웨어/소프트웨어 링크일 수 있는 통신 채널(660)을 통한 송신을 준비하기 위해 엔트로피 코더(645)에 의해 생성된 바와 같은 코딩된 비디오 시퀀스(들)를 버퍼링할 수 있다. 송신기(640)는 비디오 코더(603)로부터의 코딩된 비디오 데이터를, 송신될 다른 데이터, 예를 들어, 코딩된 오디오 데이터 및/또는 보조 데이터 스트림들(소스들은 도시되지 않음)과 병합할 수 있다.
제어기(650)는 비디오 인코더(603)의 동작을 관리할 수 있다. 코딩 동안, 제어기(650)는 개개의 픽처에 적용될 수 있는 코딩 기술들에 영향을 미칠 수 있는 특정 코딩된 픽처 유형을 각각의 코딩된 픽처에 할당할 수 있다. 예를 들어, 픽처들은 종종 다음 픽처 유형들 중 하나로서 할당될 수 있다:
인트라 픽처(Intra Picture)(I 픽처)는 예측 소스로서 시퀀스의 임의의 다른 픽처를 사용하지 않고 코딩 및 디코딩될 수 있는 것일 수 있다. 일부 비디오 코덱들은, 예를 들어, 독립 디코더 리프레시(Independent Decoder Refresh)("IDR") 픽처들을 포함하여 상이한 유형들의 인트라 픽처들을 허용한다. 본 기술 분야의 통상의 기술자는 I 픽처들의 해당 변형들 및 그들 개개의 애플리케이션들 및 특징들을 알고 있다.
예측 픽처(predictive picture)(P 픽처)는 각각의 블록의 샘플 값들을 예측하기 위해 최대 하나의 모션 벡터 및 참조 인덱스를 사용하는 인트라 예측 또는 인터 예측을 사용하여 코딩 및 디코딩될 수 있는 것일 수 있다.
양방향 예측 픽처(bi-directionally predictive picture)(B 픽처)는 각각의 블록의 샘플 값들을 예측하기 위해 최대 2개의 모션 벡터들 및 참조 인덱스들을 사용하는 인트라 예측 또는 인터 예측을 사용하여 코딩 및 디코딩될 수 있는 것일 수 있다. 유사하게, 다중-예측 픽처(multiple-predictive picture)들은 단일 블록의 재구성을 위해 3개 이상의 참조 픽처들 및 연관된 메타데이터를 사용할 수 있다.
소스 픽처들은 일반적으로 복수의 샘플 코딩 블록들(예를 들어, 각각 4 x 4, 8 x 8, 4 x 8, 또는 16 x 16 샘플들의 블록들)로 공간적으로 세분되고, 블록-바이-블록(block-by-block) 기저로 코딩될 수 있다. 블록들은 블록들의 개개의 픽처들에 적용된 코딩 할당에 의해 결정된 바와 같은 다른 (이미 코딩된) 블록들을 참조하여 예측적으로 코딩될 수 있다. 예를 들어, I 픽처들의 블록들은 비-예측적으로 코딩될 수도 있고, 또는 이들은 동일한 픽처의 이미 코딩된 블록들을 참조하여 예측적으로 코딩될 수도 있다(공간 예측 또는 인트라 예측). P 픽처들의 픽셀 블록들은 하나의 이전에 코딩된 참조 픽처를 참조하여 공간 예측을 통해 또는 시간 예측(temporal prediction)을 통해 예측적으로 코딩될 수 있다. B 픽처들의 블록들은 하나 또는 2개의 이전에 코딩된 참조 픽처를 참조하여 공간 예측을 통해 또는 시간 예측을 통해 예측적으로 코딩될 수 있다. 소스 픽처들 또는 중간 프로세싱된 픽처들은 다른 목적들을 위해 다른 유형들의 블록들로 세분화될 수 있다. 코딩 블록들 및 다른 유형들의 블록들의 분할은, 아래에서 더 상세하게 설명되는 바와 동일한 방식을 따를 수도 있고 또는 따르지 않을 수도 있다.
비디오 인코더(603)는 ITU-T Rec. H.265와 같은 사전 결정된 비디오 코딩 기술 또는 표준에 따라 코딩 동작들을 수행할 수 있다. 그 동작에서, 비디오 인코더(603)는 입력 비디오 시퀀스에서 시간 및 공간 리던던시들을 이용하는 예측 코딩 동작들을 포함하여 다양한 압축 동작들을 수행할 수 있다. 코딩된 비디오 데이터는 그에 따라 사용 중인 비디오 코딩 기술 또는 표준에 의해 지정된 신택스를 따를 수 있다.
일부 예시적인 실시예들에서, 송신기(640)는 인코딩된 비디오와 함께 추가 데이터를 송신할 수 있다. 소스 코더(630)는 코딩된 비디오 시퀀스의 부분으로서 이러한 데이터를 포함할 수 있다. 추가 데이터는 시간/공간/SNR 향상 계층들, 리던던트 픽처들 및 슬라이스들과 같은 다른 형태들의 리던던트 데이터, SEI 메시지들, VUI 파라미터 세트 프래그먼트들 등을 포함할 수 있다.
비디오는 시간 시퀀스에서 복수의 소스 픽처들(비디오 픽처들)로서 캡처될 수 있다. 인트라-픽처 예측(종종 인트라 예측으로 약칭됨)은 주어진 픽처의 공간 상관(correlation)을 활용하고, 인터-픽처 예측은 픽처들 사이의 시간 또는 다른 상관을 활용한다. 예를 들어, 현재 픽처로서 지칭되는 인코딩/디코딩 중인 특정 픽처는 블록들로 파티셔닝될 수 있다. 현재 픽처의 블록은, 비디오에서 이전에 코딩되고 여전히 버퍼링되는 참조 픽처의 참조 블록과 유사할 때, 모션 벡터로서 지칭되는 벡터에 의해 코딩될 수 있다. 모션 벡터는 참조 픽처의 참조 블록을 가리키며, 다수의 참조 픽처들이 사용 중인 경우에, 참조 픽처를 식별하는 제3 차원을 가질 수 있다.
일부 예시적인 실시예들에서, 인터-픽처 예측을 위해 양방향-예측 기술(bi-prediction technique)이 사용될 수 있다. 이러한 양방향-예측 기술에 따르면, 디코딩 순서에서 모두 비디오의 현재 픽처를 진행하는 제1 참조 픽처 및 제2 참조 픽처(그러나, 디스플레이 순서에서는 각각 과거 또는 미래일 수 있음)와 같은 2개의 참조 픽처가 사용된다. 현재 픽처의 블록은 제1 참조 픽처의 제1 참조 블록을 가리키는 제1 모션 벡터, 및 제2 참조 픽처의 제2 참조 블록을 가리키는 제2 모션 벡터에 의해 코딩될 수 있다. 블록은 제1 참조 블록과 제2 참조 블록의 조합에 의해 공동으로 예측될 수 있다.
또한, 코딩 효율성을 개선하기 위해 인터-픽처 예측에 병합 모드 기술이 사용될 수 있다.
본 개시내용의 일부 예시적인 실시예들에 따르면, 인터-픽처 예측들 및 인트라-픽처 예측들과 같은 예측들은 블록들의 유닛으로 수행된다. 예를 들어, 비디오 픽처들의 시퀀스의 픽처는 압축을 위해 코딩 트리 유닛들(coding tree units)(CTU)로 파티셔닝되고, 픽처의 CTU들은 64 x 64 픽셀들, 32 x 32 픽셀들, 또는 16 x 16 픽셀들과 같은 동일한 사이즈를 가질 수 있다. 일반적으로, CTU는 3개의 병렬 코딩 트리 블록(parallel coding tree block)(CTB): 하나의 루마 CTB 및 2개의 크로마 CTB를 포함할 수 있다. 각각의 CTU는 재귀적으로 하나 또는 다수의 코딩 유닛(coding unit)(CU)으로 스플릿(split)된 쿼드트리(quadtree)일 수 있다. 예를 들어, 64 x 64 픽셀들의 CTU는 64 x 64 픽셀들의 하나의 CU, 또는 32 x 32 픽셀들의 4개의 CU로 스플릿될 수 있다. 32 x 32 블록 중 하나 이상의 것 각각은 16 x 16 픽셀들의 4개의 CU로 추가로 스플릿될 수 있다. 일부 예시적인 실시예들에서, 각각의 CU는 인터 예측 유형 또는 인트라 예측 유형과 같은 다양한 예측 유형들 중에서 CU에 대한 예측 유형을 결정하기 위해 인코딩 동안 분석될 수 있다. CU는 시간 및/또는 공간 예측가능성에 따라 하나 이상의 예측 유닛(prediction unit)(PU)으로 스플릿될 수 있다. 일반적으로, 각각의 PU는 루마 예측 블록(prediction block)(PB), 및 2개의 크로마 PB를 포함한다. 실시예에서, 코딩(인코딩/디코딩)에서의 예측 동작은 예측 블록의 유닛으로 수행된다. CU를 PU(또는 상이한 컬러 채널들의 PB들)로 스플릿하는 것은 다양한 공간 패턴으로 수행될 수 있다. 예를 들어, 루마 또는 크로마 PB는 8 x 8 픽셀들, 16 x 16 픽셀들, 8 x 16 픽셀들, 16 x 8 샘플들 등과 같은 샘플들에 대한 값들(예를 들어, 루마 값들)의 행렬을 포함할 수 있다.
도 7은 본 개시내용의 다른 예시적인 실시예에 따른 비디오 인코더(703)의 다이어그램을 도시한다. 비디오 인코더(703)는 비디오 픽처들의 시퀀스에서 현재 비디오 픽처 내의 샘플 값들의 프로세싱 블록(예를 들어, 예측 블록)을 수신하고, 프로세싱 블록을 코딩된 비디오 시퀀스의 부분인 코딩된 픽처로 인코딩하도록 구성된다. 예시적인 비디오 인코더(703)는 도 4의 예의 비디오 인코더(403) 대신에 사용될 수 있다.
예를 들어, 비디오 인코더(703)는 8 x 8 샘플들의 예측 블록 등과 같은 프로세싱 블록에 대한 샘플 값들의 행렬을 수신한다. 그런 다음, 비디오 인코더(703)는 프로세싱 블록이, 예를 들어, 레이트-왜곡 최적화(rate-distortion optimization)(RDO)를 사용하여 인트라 모드, 인터 모드, 또는, 양방향 예측 모드를 사용하여 최상으로 코딩되는지 여부를 결정한다. 프로세싱 블록이 인트라 모드에서 코딩되는 것으로 결정될 때, 비디오 인코더(703)는 프로세싱 블록을 코딩된 픽처로 인코딩하기 위해 인트라 예측 기술을 사용할 수 있고; 프로세싱 블록이 인터 모드 또는 양방향 예측 모드에서 코딩되는 것으로 결정될 때, 비디오 인코더(703)는 프로세싱 블록을 코딩된 픽처로 인코딩하기 위해 인터 예측 또는 양방향-예측 기술을 각각 사용할 수 있다. 일부 예시적인 실시예들에서, 병합 모드는 인터 픽처 예측의 서브모드로서 사용될 수 있으며, 여기서 모션 벡터는 하나 이상의 모션 벡터 예측기로부터 예측기들 외부의 코딩된 모션 벡터 컴포넌트의 이점 없이 파생된다. 일부 다른 예시적인 실시예들에서는, 대상 블록에 적용가능한 모션 벡터 컴포넌트가 존재할 수 있다. 따라서, 비디오 인코더(703)는 프로세싱 블록들의 예측 모드(perdition mode)를 결정하기 위해 모드 결정 모듈과 같은 도 7에 명시적으로 도시되지 않은 컴포넌트들을 포함할 수 있다.
도 7의 예에서, 비디오 인코더(703)는 도 7의 예시적인 배열에 도시된 바와 같이 함께 커플링되는 인터 인코더(730), 인트라 인코더(722), 잔차 계산기(723), 스위치(726), 잔차 인코더(724), 일반 제어기(721), 및 엔트로피 인코더(725)를 포함한다.
인터 인코더(730)는 현재 블록(예를 들어, 프로세싱 블록)의 샘플들을 수신하고, 블록을 참조 픽처들의 하나 이상의 참조 블록(예를 들어, 디스플레이 순서에서 이전 픽처들 및 나중 픽처들의 블록들)과 비교하고, 인터 예측 정보(예를 들어, 병합 모드 정보, 모션 벡터들, 인터 인코딩 기술에 따른 리던던트 정보의 설명)를 생성하고, 임의의 적절한 기술을 사용하여 인터 예측 정보에 기초하여 인터 예측 결과들(예를 들어, 예측된 블록)을 계산하도록 구성된다. 일부 예들에서, 참조 픽처들은 (아래에서 추가로 상세하게 설명되는 바와 같이, 도 7의 잔차 디코더(728)로서 도시된) 도 6의 예시적인 인코더(620)에 임베딩된 디코딩 유닛(633)을 사용하여 인코딩된 비디오 정보에 기초하여 디코딩되는 디코딩된 참조 픽처들이다.
인트라 인코더(722)는 현재 블록(예를 들어, 프로세싱 블록)의 샘플들을 수신하고, 블록을 동일한 픽처에서 이미 코딩된 블록들과 비교하고, 변환 후에 양자화된 계수들을 생성하고, 일부 경우들에서는 또한 인트라 예측 정보(예를 들어, 하나 이상의 인트라 인코딩 기술에 따른 인트라 예측 방향 정보)를 생성하도록 구성된다. 인트라 인코더(722)는 인트라 예측 정보 및 동일한 픽처의 참조 블록들에 기초하여 인트라 예측 결과들(예를 들어, 예측된 블록)을 계산할 수 있다.
일반 제어기(721)는 일반 제어 데이터를 결정하고, 일반 제어 데이터에 기초하여 비디오 인코더(703)의 다른 컴포넌트들을 제어하도록 구성될 수 있다. 예에서, 일반 제어기(721)는 블록의 예측 모드를 결정하고, 예측 모드에 기초하여 스위치(726)에 제어 신호를 제공한다. 예를 들어, 예측 모드가 인트라 모드일 때, 일반 제어기(721)는 스위치(726)를 제어하여 잔차 계산기(723)에 의해 사용할 인트라 모드 결과를 선택하고, 엔트로피 인코더(725)를 제어하여 인트라 예측 정보를 선택하고 인트라 예측 정보를 비트스트림에 포함하고; 블록에 대한 예측 모드가 인터 모드일 때, 일반 제어기(721)는 스위치(726)를 제어하여 잔차 계산기(723)에 의해 사용할 인터 예측 결과를 선택하고, 엔트로피 인코더(725)를 제어하여 인터 예측 정보를 선택하고 인터 예측 정보를 비트스트림에 포함한다.
잔차 계산기(723)는 수신된 블록과 인트라 인코더(722) 또는 인터 인코더(730)로부터 선택된 블록에 대한 예측 결과들 사이의 차이(잔차 데이터)를 계산하도록 구성될 수 있다. 잔차 인코더(724)는 잔차 데이터를 인코딩하여 변환 계수들을 생성하도록 구성될 수 있다. 예를 들어, 잔차 인코더(724)는 잔차 데이터를 공간 도메인으로부터 주파수 도메인으로 컨버팅하여 변환 계수들을 생성하도록 구성될 수 있다. 그런 다음, 변환 계수들은 양자화 프로세싱의 대상이 되어 양자화된 변환 계수들을 획득한다. 다양한 예시적인 실시예들에서, 비디오 인코더(703)는 또한 잔차 디코더(728)를 포함한다. 잔차 디코더(728)는 역-변환을 수행하고, 디코딩된 잔차 데이터를 생성하도록 구성된다. 디코딩된 잔차 데이터는 인트라 인코더(722) 및 인터 인코더(730)에 의해 적절하게 사용될 수 있다. 예를 들어, 인터 인코더(730)는 디코딩된 잔차 데이터 및 인터 예측 정보에 기초하여 디코딩된 블록들을 생성할 수 있고, 인트라 인코더(722)는 디코딩된 잔차 데이터 및 인트라 예측 정보에 기초하여 디코딩된 블록들을 생성할 수 있다. 디코딩된 블록들은 디코딩된 픽처들을 생성하도록 적절하게 프로세싱되고, 디코딩된 픽처들은 메모리 회로(도시되지 않음)에서 버퍼링되어 참조 픽처들로서 사용될 수 있다.
엔트로피 인코더(725)는 인코딩된 블록을 포함하도록 비트스트림을 포맷하고 엔트로피 코딩을 수행하도록 구성될 수 있다. 엔트로피 인코더(725)는 비트스트림에 다양한 정보를 포함하도록 구성된다. 예를 들어, 엔트로피 인코더(725)는 비트스트림에 일반 제어 데이터, 선택된 예측 정보(예를 들어, 인트라 예측 정보 또는 인터 예측 정보), 잔차 정보, 및 다른 적절한 정보를 포함하도록 구성될 수 있다. 인터 모드 또는 양방향-예측 모드 중 어느 하나의 것의 병합 서브모드에서 블록을 코딩할 때에는, 잔차 정보가 없을 수 있다.
도 8은 본 개시내용의 다른 실시예에 따른 예시적인 비디오 디코더(810)의 다이어그램을 도시한다. 비디오 디코더(810)는 코딩된 비디오 시퀀스의 부분인 코딩된 픽처들을 수신하고, 코딩된 픽처들을 디코딩하여 재구성된 픽처들을 생성하도록 구성된다. 예에서, 비디오 디코더(810)는 도 4의 예의 비디오 디코더(410) 대신에 사용될 수 있다.
도 8의 예에서, 비디오 디코더(810)는 도 8의 예시적인 배열에 도시된 바와 같이 함께 커플링되는 엔트로피 디코더(871), 인터 디코더(880), 잔차 디코더(873), 재구성 모듈(874), 및 인트라 디코더(872)를 포함한다.
엔트로피 디코더(871)는, 코딩된 픽처로부터, 코딩된 픽처가 구성되는 신택스 요소들을 표현하는 특정 심볼들을 재구성하도록 구성될 수 있다. 이러한 심볼들은, 예를 들어, 블록이 코딩되는 모드(예를 들어, 인트라 모드, 인터 모드, 양방향-예측 모드, 병합 서브모드 또는 다른 서브모드), 인트라 디코더(872) 또는 인터 디코더(880)에 의한 예측에 사용되는 특정 샘플 또는 메타데이터를 식별할 수 있는 예측 정보(예를 들어, 인트라 예측 정보 또는 인터 예측 정보), 예를 들어, 양자화된 변환 계수들의 형태의 잔차 정보 등을 포함할 수 있다. 예에서, 예측 모드가 인터 또는 양방향-예측 모드일 때, 인터 예측 정보는 인터 디코더(880)에 제공되고; 예측 유형이 인트라 예측 유형일 때, 인트라 예측 정보는 인트라 디코더(872)에 제공된다. 잔차 정보는 역양자화(inverse quantization)의 대상이 될 수 있고, 잔차 디코더(873)에 제공된다.
인터 디코더(880)는 인터 예측 정보를 수신하고, 인터 예측 정보에 기초하여 인터 예측 결과들을 생성하도록 구성될 수 있다.
인트라 디코더(872)는 인트라 예측 정보를 수신하고, 인트라 예측 정보에 기초하여 예측 결과들을 생성하도록 구성될 수 있다.
잔차 디코더(873)는 역양자화를 수행하여 역-양자화된(de-quantized) 변환 계수들을 추출하고, 역-양자화된 변환 계수들을 프로세싱하여 잔차를 주파수 도메인으로부터 공간 도메인으로 컨버팅하도록 구성될 수 있다. 잔차 디코더(873)는 또한 엔트로피 디코더(871)에 의해 제공될 수 있는 (양자화기 파라미터(Quantizer Parameter)(QP)를 포함하는) 특정 제어 정보를 활용할 수 있다(데이터 경로는 이것이 낮은 데이터 볼륨 제어 정보 전용일 수 있으므로 도시되지 않는다).
재구성 모듈(874)은, 공간 도메인에서, 재구성된 비디오의 부분으로서 재구성된 픽처의 부분을 형성하는 재구성된 블록을 형성하기 위해 잔차 디코더(873)에 의해 출력된 바와 같은 잔차와 (경우에 따라 인터 또는 인트라 예측 모듈들에 의해 출력된 바와 같은) 예측 결과들을 조합하도록 구성될 수 있다. 디블로킹(deblocking) 동작 등과 같은 다른 적절한 동작들도 시각적 품질을 개선하기 위해 수행될 수 있음에 유의한다.
비디오 인코더들(403), (603), 및 (703), 및 비디오 디코더들(410), (510), 및 (810)은 임의의 적절한 기술을 사용하여 구현될 수 있음에 유의한다. 일부 예시적인 실시예들에서, 비디오 인코더들(403), (603), 및 (703), 및 비디오 디코더들(410), (510), 및 (810)은 하나 이상의 집적 회로를 사용하여 구현될 수 있다. 다른 실시예에서, 비디오 인코더들(403), (603), 및 (603), 및 비디오 디코더들(410), (510), 및 (810)은 소프트웨어 명령어들을 실행하는 하나 이상의 프로세서를 사용하여 구현될 수 있다.
인트라 예측 프로세스로 돌아가면, 예측 블록을 생성하기 위해 블록(예를 들어, 루마 또는 크로마 예측 블록, 또는 예측 블록들로 추가로 스플릿되지 않는 경우에는, 코딩 블록)의 샘플들이 이웃, 다음 이웃, 또는 다른 라인 또는 라인들, 또는 그 조합의 샘플들에 의해 예측된다. 그런 다음, 코딩되고 있는 실제 블록과 예측 블록 사이의 잔차는 변환을 통해 프로세싱되고, 양자화가 뒤따를 수 있다. 다양한 인트라 예측 모드들이 이용가능하게 될 수 있고, 인트라 모드 선택과 관련된 파라미터들 및 다른 파라미터들이 비트스트림에서 시그널링될 수 있다. 예를 들어, 다양한 인트라 예측 모드들은 샘플들을 예측하기 위한 라인 포지션 또는 포지션들, 예측하는 라인 또는 라인들로부터 예측 샘플들이 선택되는 방향들, 및 다른 특별한 인트라 예측 모드들과 관련될 수 있다.
예를 들어, ("인트라 모드들"로서 상호교환 가능하게 지칭되는) 인트라 예측 모드들의 세트는 사전 정의된 수의 방향성 인트라 예측 모드들을 포함할 수 있다. 도 1의 예시적인 구현과 관련하여 위에서 설명된 바와 같이, 이들 인트라 예측 모드들은 특정 블록에서 선택되고 있는 샘플들에 대한 예측으로서 블록-외 샘플(out-of-block sample)들이 선택되는 사전 정의된 수의 방향들에 대응할 수 있다. 다른 특정 예시적인 구현에서는, 수평 축에 대해 45도 내지 207도의 각도들에 대응하는 여덟 개(8개)의 주요 방향성 모드가 지원되고 사전 정의될 수 있다.
인트라 예측의 일부 다른 구현들에서, 방향성 텍스처(directional texture)들에서 더욱 다양한 공간 리던던시를 추가로 활용하기 위해, 방향성 인트라 모드들이 더 미세한 입도(granularity)로 설정된 각도로 추가로 확장될 수 있다. 예를 들어, 위의 8-각도 구현은, 도 9에 예시된 바와 같이, V_PRED, H_PRED, D45_PRED, D135_PRED, D113_PRED, D157_PRED, D203_PRED, 및 D67_PRED로서 지칭되는 8개의 공칭 각도(nominal angle)를 제공하도록 구성될 수 있고, 각각의 공칭 각도에 대해, 사전 정의된 수(예를 들어, 7개)의 더 미세한 각도가 추가될 수 있다. 이러한 확장에 의하면, 더 큰 총 수(예를 들어, 이 예에서는 56개)의 방향성 각도들이 동일한 수의 사전 정의된 방향성 인트라 모드들에 대응하여 인트라 예측에 이용가능할 수 있다. 예측 각도는 공칭 인트라 각도 플러스 각도 델타에 의해 표현될 수 있다. 각각의 공칭 각도에 대해 7개의 더 미세한 각도 방향이 있는 위의 특정 예의 경우, 각도 델타는 3도의 스텝 사이즈에 -3 ~ 3을 곱한 것일 수 있다.
일부 구현들에서, 위의 방향 인트라 모드들의 대안으로서 또는 이에 추가하여, 사전 정의된 수의 비-방향성 인트라 예측 모드(non-directional intra prediction mode)들도 사전 정의되어 이용가능하게 될 수 있다. 예를 들어, 스무드 인트라 예측 모드(smooth intra prediction mode)들로서 지칭되는 5개의 비-방향 인트라 모드가 지정될 수 있다. 이러한 비-방향성 인트라 모드 예측 모드들은 구체적으로 DC, PAETH, SMOOTH, SMOOTH_V, 및 SMOOTH_H 인트라 모드들로서 지칭될 수 있다. 이러한 예시적인 비-방향성 모드들 하에서의 특정 블록의 샘플들의 예측이 도 10에 예시되어 있다. 예로서, 도 10은 상단 이웃 라인 및/또는 좌측 이웃 라인으로부터의 샘플들에 의해 예측되고 있는 4 x 4 블록(1002)을 도시한다. 블록(1002)의 특정 샘플(1010)은 블록(1002)의 상단 이웃 라인에 있는 샘플(1010)의 바로 상단 샘플(1004), 상단 및 좌측 이웃 라인들의 교차점으로서의 샘플(1010)의 좌측-상단 샘플(1006), 및 블록(1002)의 좌측 이웃 라인에 있는 샘플(1010)의 바로 좌측 샘플(1008)에 대응할 수 있다. 예시적인 DC 인트라 예측 모드의 경우, 좌측 및 위의 이웃 샘플들(1008 및 1004)의 평균이 샘플(1010)의 예측기로서 사용될 수 있다. 예시적인 PAETH 인트라 예측 모드의 경우, 상단, 좌측, 및 좌측-상단 참조 샘플들(1004, 1008, 및 1006)이 페치될 수 있으며, 그 후 어느 것이든 이러한 3개의 참조 샘플 중 (상단 + 좌측 - 좌측 상단(top + left - topleft))에 가장 가까운 값이 샘플(1010)에 대한 예측기로서 설정될 수 있다. 예시적인 SMOOTH_V 인트라 예측 모드의 경우, 샘플(1010)은 좌측-상단 이웃 샘플(1006) 및 좌측 이웃 샘플(1008)의 수직 방향으로의 2차 보간법(quadratic interpolation)에 의해 예측될 수 있다. 예시적인 SMOOTH_H 인트라 예측 모드의 경우, 샘플(1010)은 좌측-상단 이웃 샘플(1006) 및 상단 이웃 샘플(1004)의 수평 방향으로의 2차 보간법에 의해 예측될 수 있다. 예시적인 SMOOTH 인트라 예측 모드의 경우, 샘플(1010)은 수직 및 수평 방향들로의 2차 보간법들의 평균에 의해 예측될 수 있다. 위의 비-방향성 인트라 모드 구현들은 단지 비-제한적인 예로서 예시된다. 다른 이웃 라인들, 및 샘플들의 다른 비-방향성 선택, 및 예측 블록에서 특정 샘플을 예측하기 위해 예측 샘플들을 결합하는 방식들 또한 고려된다.
다양한 코딩 레벨들(픽처, 슬라이스, 블록, 유닛 등)에서 위의 방향성 또는 비-방향성 모드들로부터의 인코더에 의한 특정 인트라 예측 모드의 선택은 비트스트림에서 시그널링될 수 있다. 일부 예시적인 구현들에서는, 5개의 비-각도 스무드 모드(non-angular smooth mode)와 함께 예시적인 8개의 공칭 방향성 모드(총 13개의 옵션)가 먼저 시그널링될 수 있다. 그런 다음, 시그널링된 모드가 8개의 공칭 각도 인트라 모드 중 하나인 경우, 대응하는 시그널링된 공칭 각도에 대한 선택된 각도 델타를 표시하기 위해 인덱스가 추가로 시그널링된다. 일부 다른 예시적인 구현들에서는, 모든 인트라 예측 모드들이 시그널링을 위해 모두 함께 인덱싱될 수 있다(예를 들어, 61개의 인트라 예측 모드를 산출하기 위한 56개의 방향성 모드 플러스 5개의 비-방향성 모드).
일부 예시적인 구현들에서, 예시적인 56개 또는 다른 수의 방향성 인트라 예측 모드는 블록의 각각의 샘플을 참조 서브-샘플 위치로 투영하고 참조 샘플을 2-탭 이중 선형 필터(bilinear filter)에 의해 보간하는 통합 방향성 예측기(unified directional predictor)로 구현될 수 있다.
일부 구현들에서, 에지들 상의 참조들과의 감쇠하는(decaying) 공간 상관을 캡처하기 위해, FILTER INTRA 모드들로서 지칭되는 추가 필터 모드들이 설계될 수 있다. 이러한 모드들의 경우, 블록-외 샘플들에 더하여 블록 내의 예측된 샘플들이 블록 내의 일부 패치들에 대한 인트라 예측 참조 샘플들로서 사용될 수 있다. 예를 들어, 이러한 모드들은 사전 정의되어 적어도 루마 블록들에 대한(또는 루마 블록들에 대해서만) 인트라 예측에 이용가능하게 될 수 있다. 사전 정의된 수(예를 들어, 5개)의 필터 인트라 모드가 사전 설계될 수 있으며, 이들 각각은, 예를 들어, 4 x 2 패치의 샘플들과 그것에 인접한 n개의 이웃들 사이의 상관을 반영하는 n-탭 필터들(예를 들어, 7-탭 필터들)의 세트에 의해 표현된다. 다시 말해서, n-탭 필터에 대한 가중 팩터들은 포지션 의존적일 수 있다. 8 x 8 블록, 4 x 2 패치, 및 7-탭 필터링을 예로서 취하면, 도 11에 도시된 바와 같이, 8 x 8 블록(1102)은 8개의 4 x 2 패치로 스플릿될 수 있다. 이들 패치들은 도 11에서 B0, B1, B1, B3, B4, B5, B6, 및 B7에 의해 표시된다. 각각의 패치에 대해, 도 11에서 R0 ~ R7에 의해 표시된 그것의 7개의 이웃이 현재 패치에서 샘플들을 예측하는 데 사용될 수 있다. 패치 B0의 경우, 모든 이웃들이 이미 재구성되었을 수 있다. 그러나, 다른 패치들의 경우, 이웃들 중 일부가 현재 블록에 있고, 따라서, 재구성되지 않았을 수 있으며, 그런 다음 바로 이웃들의 예측된 값들이 참조로서 사용된다. 예를 들어, 도 11에 표시된 바와 같은 패치 B7의 모든 이웃들은 재구성되지 않으므로, 이웃들의 예측 샘플들이 대신 사용된다.
인트라 예측의 일부 구현에서, 하나의 컬러 컴포넌트는 하나 이상의 다른 컬러 컴포넌트를 사용하여 예측될 수 있다. 컬러 컴포넌트는 YCrCb, RGB, XYZ 컬러 공간 등의 컴포넌트들 중 임의의 하나일 수 있다. 예를 들어, Chroma from Luma 또는 CfL로서 지칭되는, 루마 컴포넌트(예를 들어, 루마 참조 샘플들)로부터의 크로마 컴포넌트(예를 들어, 크로마 블록)의 예측이 구현될 수 있다. 일부 예시적인 구현들에서는, 크로스-컬러 예측 대다수가 루마로부터 크로마로만 허용될 수 있다. 예를 들어, 크로마 블록의 크로마 샘플은 일치하는 재구성된 루마 샘플들의 선형 함수로서 모델링될 수 있다. CfL 예측은 다음과 같이 구현될 수 있다:
Figure pct00001
여기서, L AC 는 루마 컴포넌트의 AC 기여도(contribution)를 나타내고, α는 선형 모델의 파라미터를 나타내고, DC는 크로마 컴포넌트의 DC 기여도를 나타낸다. 예를 들어, AC 컴포넌트들은 블록의 각각의 샘플들에 대해 획득되는 반면, DC 컴포넌트는 전체 블록에 대해 획득된다. 구체적으로, 재구성된 루마 샘플들은 크로마 해상도로 서브샘플링될 수 있고, 그런 다음, 루마에서 AC 기여도를 형성하기 위해 각각의 루마 값으로부터 평균 루마 값(루마의 DC)이 감산될 수 있다. 그런 다음, Luma의 AC 기여도가 방정식 (1)의 선형 모드에서 사용되어 크로마 컴포넌트의 AC 값들을 예측할 수 있다. 루마 AC 기여도로부터 크로마 AC 컴포넌트를 근사화하거나 또는 예측하기 위해, 디코더가 스케일링 파라미터들을 계산하도록 요구하는 대신에, 예시적인 CfL 구현이 원래 크로마 샘플들에 기초하여 파라미터 α를 결정하고, 이들을 비트스트림에서 시그널링할 수 있다. 이것은 디코더 복잡도를 감소시키고, 더 정확한 예측들을 산출한다. 크로마 컴포넌트의 DC 기여도에 대해서는, 일부 예시적인 구현들에서 크로마 컴포넌트 내의 인트라 DC 모드를 사용하여 계산될 수 있다.
그런 다음, 인트라 예측 블록 또는 인터 예측 블록 중 어느 하나의 잔차의 변환이 구현될 수 있고 변환 계수의 양자화가 뒤따를 수 있다. 변환을 수행할 목적을 위해, 인트라 및 인터 코딩된 블록들은 모두 변환 전에 다수의 변환 블록들로 추가로 파티셔닝될 수 있다("유닛"이라는 용어가 일반적으로 3-컬러 채널들의 집합(congregation)을 표현하는 데 사용되더라도, 때때로 "변환 유닛들"로서 상호교환 가능하게 사용되며, 예를 들어, "코딩 유닛"은 루마 코딩 블록, 및 크로마 코딩 블록들을 포함할 것이다). 일부 구현들에서, 코딩된 블록들(또는 예측 블록들)의 최대 파티셔닝 깊이가 지정될 수 있다("코딩된 블록들(coded blocks)"이라는 용어는 "코딩 블록들(coding blocks)"과 상호교환 가능하게 사용될 수 있다). 예를 들어, 이러한 파티셔닝은 2개의 레벨을 넘지 않을 수 있다. 예측 블록을 변환 블록들로 분할하는 것은 인트라 예측 블록들과 인터 예측 블록들 사이에서 상이하게 핸들링될 수 있다. 그러나, 일부 구현들에서, 이러한 분할은 인트라 예측 블록들과 인터 예측 블록들 사이에서 유사할 수 있다.
일부 예시적인 구현들에서, 그리고 인트라 코딩된 블록들에 대해, 모든 변환 블록들이 동일한 사이즈를 갖고 변환 블록들이 래스터 스캔 순서로 코딩되는 방식으로 변환 파티션이 수행될 수 있다. 인트라 코딩된 블록의 이러한 변환 블록 파티셔닝의 예가 도 12에 도시되어 있다. 구체적으로, 도 12는 코딩된 블록(1202)이 중간 레벨 쿼드트리 스플릿(intermediate level quadtree splitting)(1204)을 통해, 1206에 의해 도시된 바와 같이, 동일한 블록 사이즈의 16개의 변환 블록으로 파티셔닝되는 것을 예시한다. 코딩을 위한 예시적인 래스터 스캔 순서는 도 12에서 정렬된 화살표들에 의해 예시된다.
일부 예시적인 구현들에서, 그리고 인터 코딩된 블록들에 대해, 변환 유닛 파티셔닝은 최대 사전 정의된 수의 레벨(예를 들어, 2개의 레벨)의 파티셔닝 깊이를 갖는 재귀적 방식으로 수행될 수 있다. 스플릿은, 도 13에 도시된 바와 같이, 임의의 서브 파티션에 대해 그리고 임의의 레벨에서 재귀적으로 중단 또는 계속될 수 있다. 특히, 도 13은 블록(1302)이 4개의 쿼드트리 서브 블록(1304)으로 스플릿되고, 서브블록들 중 하나는 4개의 제2 레벨 변환 블록으로 추가로 스플릿되는 반면, 다른 서브블록들의 분할은 제1 레벨 후에 중단되어, 2개의 상이한 사이즈의 총 7개의 변환 블록을 산출하는 예를 도시한다. 코딩을 위한 예시적인 래스터 스캔 순서는 도 13에 정렬된 화살표들에 의해 추가로 예시된다. 도 13은 최대 2개의 레벨의 정사각형 변환 블록들의 쿼드트리 스플릿의 예시적인 구현을 도시하지만, 일부 생성 구현들에서, 변환 파티셔닝은 1:1(정사각형), 1:2/2:1, 및 1:4/4:1 변환 블록 형상들 및 4 × 4 내지 64 × 64의 범위의 사이즈들을 지원할 수 있다. 일부 예시적인 구현들에서, 코딩 블록이 64 × 64 이하인 경우, 변환 블록 파티셔닝은 루마 컴포넌트에만 적용될 수 있다(다시 말해서, 크로마 변환 블록은 해당 조건 하에서 코딩 블록과 동일할 것이다). 다르게는, 코딩 블록 폭 또는 높이가 64보다 큰 경우, 루마 및 크로마 코딩 블록들은 모두 각각 min(W, 64) x min(H, 64) 및 min(W, 32) x min(H, 32) 변환 블록들의 배수(multiple)들로 암시적으로 스플릿될 수 있다.
그런 다음, 위의 변환 블록들 각각은 1차 변환(primary transform)의 대상이 될 수 있다. 1차 변환은 본질적으로 변환 블록의 잔차를 공간 도메인으로부터 주파수 도메인으로 이동시킨다. 실제 1차 변환의 일부 구현에서, 위의 예시적인 확장된 코딩 블록 파티션들을 지원하기 위해, 다수의 변환 사이즈들(2차원의 각각의 차원에 대해 4-포인트 내지 64-포인트 범위) 및 변환 형상들(정사각형; 폭/높이 비율이 2:1/1:2 및 4:1/1:4인 직사각형)이 허용될 수 있다.
실제 1차 변환으로 돌아가면, 일부 예시적인 구현들에서, 2-D 변환 프로세스는 하이브리드 변환 커널(kernel)들의 사용을 수반할 수 있다(이는, 예를 들어, 코딩된 잔차 변환 블록의 각각의 차원에 대한 상이한 1-D 변환들로 구성될 수 있다). 예시적인 1-D 변환 커널들은 a) 4-포인트, 8-포인트, 16-포인트, 32-포인트, 64-포인트 DCT-2; b) 4-포인트, 8-포인트, 16-포인트 비대칭(asymmetric) DST들(DST-4, DST-7) 및 그들의 플립(flip)된 버전들; c) 4-포인트, 8-포인트, 16-포인트, 32-포인트 항등 변환(identity transform)들을 포함할 수 있지만, 이에 제한되지 않는다. 각각의 차원에 사용될 변환 커널들의 선택은 비율-왜곡(rate-distortion)(RD) 기준에 기초할 수 있다. 예를 들어, 구현될 수 있는 DCT-2 및 비대칭 DST들에 대한 기저 함수(basis function)들이 표 1에 나열되어 있다.
Figure pct00002
일부 예시적인 구현들에서, 특정 1차 변환 구현을 위한 하이브리드 변환 커널들의 이용가능성은 변환 블록 사이즈 및 예측 모드에 기초할 수 있다. 예시적인 종속성(dependency)이 표 2에 나열되어 있다. 크로마 컴포넌트의 경우, 변환 유형 선택은 암시적 방식으로 수행될 수 있다. 예를 들어, 인트라 예측 잔차들의 경우, 변환 유형은, 표 3에 명시된 바와 같이, 인트라 예측 모드에 따라 선택될 수 있다. 인터 예측 잔차들의 경우, 크로마 블록들에 대한 변환 유형은 코-로케이팅된(co-located) 루마 블록들의 변환 유형 선택에 따라 선택될 수 있다. 따라서, 크로마 컴포넌트의 경우, 비트스트림에 변환 유형 시그널링이 없다.
Figure pct00003
Figure pct00004
일부 구현에서, 1차 변환 계수들에 대한 2차 변환이 수행될 수 있다. 예를 들어, 1차 변환 계수들을 추가로 역상관(decorrelate)시키기 위해, 도 14에 도시된 바와 같이, 축소된(reduced) 2차 변환으로서 알려진 LFNST(low-frequency non-separable transform)가 (인코더에서의) 순방향 1차 변환(forward primary transform)과 양자화 사이 및 (디코더 측에서의) 역-양자화와 역방향 1차 변환(inverse primary transform) 사이에 적용될 수 있다. 본질적으로, LFNST는 1차 변환 계수의 일부, 예를 들어, 저주파 부분(따라서, 변환 블록의 1차 변환 계수들의 전체 세트로부터 "축소됨(reduced)")을 취하여 2차 변환으로 진행할 수 있다. 예시적인 LFNST에서, 변환 블록 사이즈에 따라 4 x 4 비-분리 변환(non-separable transform) 또는 8 x 8 비-분리 변환이 적용될 수 있다. 예를 들어, 4 x 4 LFNST는 작은 변환 블록들(예를 들어, min(width, height) < 8)에 적용될 수 있는 반면, 8 x 8 LFNST는 더 큰 변환 블록들(예를 들어, min(width, height) > 8)에 적용될 수 있다. 예를 들어, 8 x 8 변환 블록이 4 x 4 LFNST의 대상이 되는 경우, 8 x 8 1차 변환 계수들의 저주파 4 x 4 부분만 추가로 2차 변환을 거친다.
구체적으로 도 14에 도시된 바와 같이, 변환 블록은 8 x 8(또는 16 x 16)일 수 있다. 따라서, 변환 블록의 순방향 1차 변환(1402)은 8 x 8(또는 16 x 16) 1차 변환 계수 행렬(1404)을 산출하며, 여기서, 각각의 정사각형 유닛(square unit)은 2 x 2(또는 4 x 4) 부분을 표현한다. 예를 들어, 순방향 LFNST에 대한 입력은 전체 8 x 8(또는 16 x 16) 1차 변환 계수들이 아닐 수 있다. 예를 들어, 4 x 4(또는 8 x 8) LFNST가 2차 변환에 사용될 수 있다. 이와 같이, 음영 부분(좌측 상단)(1406)에 표시된 바와 같이, 1차 변환 계수 행렬(1404)의 4 x 4(또는 8 x 8) 저주파 1차 변환 계수들만이 LFNST에 대한 입력으로서 사용될 수 있다. 1차 변환 계수 행렬의 나머지 부분들은 2차 변환의 대상이 아닐 수 있다. 이와 같이, 2차 변환 후에, LFNST의 대상이 되는 1차 변환 계수들의 부분은 2차 변환 계수들이 되는 반면, LFNST의 대상이 되지 않는 나머지 부분들(예를 들어, 행렬(1404)의 음영 처리되지 않은 부분들)은 대응하는 1차 변환 계수들을 유지한다. 일부 예시적인 구현들에서, 2차 변환의 대상이 아닌 나머지 부분은 모두 0의 계수로 설정될 수 있다.
LFNST에서 사용되는 비-분리 변환의 적용을 위한 예가 아래에 설명된다. 예시적인 4 x 4 LFNST를 적용하기 위해, 4 x 4 입력 블록 X(예를 들어, 도 14의 1차 변환 행렬(1404)의 음영 부분(1406)과 같은 1차 변환 계수 블록의 4 x 4 저주파 부분을 표현함)가 다음과 같이 표시될 수 있다:
Figure pct00005
이 2-D 입력 행렬은 예시적인 순서로 벡터
Figure pct00006
로 먼저 선형화되거나 스캔될 수 있다:
Figure pct00007
그런 다음, 4 x 4 LFNST에 대한 비-분리 변환은
Figure pct00008
로서 계산될 수 있으며, 여기서,
Figure pct00009
는 출력 변환 계수 벡터를 표시하고, T는 16 x 16 변환 행렬이다. 결과적인 16 x 1 계수 벡터
Figure pct00010
는 해당 블록에 대한 스캐닝 순서(예를 들어, 수평, 수직 또는 대각선)를 사용하여 4 x 4 블록으로서 후속적으로 리버스 스캔(reverse scan)된다. 더 작은 인덱스를 갖는 계수들은 4 x 4 계수 블록에서 더 작은 스캐닝 인덱스와 함께 배치될 수 있다. 이러한 방식으로, 1차 변환 계수들 X의 리던던시가 제2 변환 T를 통해 추가로 이용될 수 있고, 이에 의해, 추가적인 압축 향상을 제공할 수 있다.
위의 예시적인 LFNST는 다수의 반복들 없이 단일 패스(pass)로 구현되도록 비-분리 변환을 적용하기 위해 직접 행렬 곱셈(direct matrix multiplication) 접근 방식에 기초한다. 일부 추가적인 예시적인 구현들에서, 예시적인 4 x 4 LFNST에 대한 비-분리 변환 행렬(T)의 차원은 계산 복잡도 및 변환 계수들을 저장하기 위한 메모리 공간 요구 사항을 최소화하기 위해 추가로 축소될 수 있다. 이러한 구현들은 축소된 비-분리 변환(reduced non-separate transform)(RST)으로서 지칭될 수 있다. 보다 구체적으로, RST의 주요 아이디어는 N(위의 예에서 N은 4 x 4 =16이지만, 8 x 8 블록들의 경우 64와 같을 수 있음) 차원 벡터를 상이한 공간의 R 차원 벡터에 매핑하는 것이며, 여기서, N/R(R < N)은 차원 축소 팩터(dimension reduction factor)를 표현한다. 따라서, N x N 변환 행렬 대신에, RST 행렬은 다음과 같이 R × N 행렬이 된다:
Figure pct00011
여기서, 변환 행렬의 R개의 행은 N 차원 공간의 축소된 R의 기저이다. 따라서, 변환은 입력 벡터 또는 N 차원을 축소된 R 차원의 출력 벡터로 컨버팅한다. 이와 같이, 그리고 도 14에 도시된 바와 같이, 1차 계수들(1406)로부터 변환된 2차 변환 계수들(1408)은 차원이 팩터 또는 N/R만큼 축소된다. 도 14의 1408 주위에 있는 3개의 정사각형은 제로-패딩(zero-pad)될 수 있다.
RTS에 대한 역변환 행렬은 그것의 순방향 변환의 전치(transpose)일 수 있다. 예시적인 8 x 8 LFNST(본 명세서에서의 보다 다양한 설명을 위해, 위의 4 x 4 LFNST와 대조됨)에 대해, 4의 예시적인 축소 팩터가 적용될 수 있고, 따라서, 64 x 64 직접 비-분리 변환 행렬이 이에 따라 16 x 64 직접 행렬로 축소된다. 또한, 일부 구현들에서, 입력 1차 계수들의 전체가 아닌 일부가 LFNST에 대한 입력 벡터로 선형화될 수 있다. 예를 들어, 예시적인 8 x 8 입력 1차 변환 계수들의 일부만이 위의 X 벡터로 선형화될 수 있다. 특정 예를 들자면, 8 x 8 1차 변환 계수 행렬의 4개의 4 x 4 사분면 중에서, 우측 하단(고주파 계수들)은 생략될 수 있고, 다른 3개의 사분면만 64 x 1 벡터가 아니라 사전 정의된 스캔 순서를 사용하여 48 x 1 벡터로 선형화된다. 이러한 구현들에서, 비-분리 변환 행렬은 16 x 64로부터 16 x 48로 추가로 축소될 수 있다.
따라서, 예시적인 축소된 48 x 16 역 RST 행렬이 8 x 8 코어(1차) 변환 계수들의 좌측-상단, 우측-상단, 및 좌측-하단 4 x 4 사분면들을 생성하기 위해 디코더 측에서 사용될 수 있다. 구체적으로는, 동일한 변환 세트 구성을 사용하여 16 x 64 RST 대신에 추가로 축소된 16 x 48 RST 행렬들이 적용될 때, 비-분리 2차 변환은 우측-하단 4 x 4 블록을 제외한 8 x 8 1차 계수 블록의 3개의 4 x 4 사분면 블록으로부터 벡터화된 48개의 행렬 요소를 입력으로서 취할 것이다. 이러한 구현들에서, 생략된 우측-하단 4 x 4 1차 변환 계수는 2차 변환에서 무시될 것이다. 이 추가 축소된 변환은 48 x 1의 벡터를 16 x 1의 출력 벡터로 컨버팅할 것이고, 이는 도 14의 1408을 채우기 위해 4 x 4 행렬로 리버스 스캔된다. 1408 주변의 2차 변환 계수들의 3개의 정사각형은 제로 패딩될 수 있다.
RST에서의 이러한 차원 축소들의 도움으로, 모든 LFNST 행렬들을 저장하기 위한 메모리 사용량이 감소된다. 위의 예에서, 메모리 사용량은, 예를 들어, 차원 축소가 없는 구현과 비교하여 상당히 유의하지 않은(insignificant) 성능 저하를 갖고 10KB로부터 8KB로 감소될 수 있다.
일부 구현들에서, 복잡도를 감소시키기 위해, LFNST는 LFNST의 대상이 되는 1차 변환 계수 부분 외부(예를 들어, 도 14의 1404의 1406 부분 외부)의 모든 계수들이 유의하지-않은(non-significant) 경우에만 적용가능하도록 추가로 제한될 수 있다. 따라서, 모든 1차-전용 변환 계수들(예를 들어, 도 4의 1차 계수 행렬(1404)의 음영 처리되지 않은 부분)은, LFNST가 적용될 때, 0에 가까울 수 있다. 이러한 제한은 마지막-유의한(last-significant) 포지션에 대한 LFNST 인덱스 시그널링의 컨디셔닝을 허용하고, 따라서, 이 제한이 적용되지 않을 때에 특정 포지션들에서 유의 계수(significant coefficient)들에 대해 체크할 필요가 있을 수 있는 일부 여분의 계수 스캐닝을 피한다. 일부 구현들에서, (픽셀당 곱셈들의 측면에서) LFNST의 최악의 경우의 핸들링은 4 x 4 및 8 x 8 블록들에 대한 비-분리 변환들을 각각 8 x 16 및 8 x 48 변환들로 제한할 수 있다. 해당 경우들에서, 16보다 작은 다른 사이즈들에 대해, LFNST가 적용될 때, 마지막-유의한 스캔 포지션은 8보다 작아야 한다. 4 x N 및 N x 4 및 N > 8의 형상을 갖는 블록들에 대해, 위의 제한은 LFNST가 이제 좌측-상단 4 x 4 영역에만 단 한 번 적용됨을 의미한다. LFNST가 적용될 때 모든 1차-전용 계수들은 0이므로, 이러한 경우들에 1차 변환들에 필요한 연산들의 수는 감소된다. 인코더 관점에서, 계수들의 양자화는, LFNST 변환들이 테스트될 때, 단순화될 수 있다. 레이트-왜곡 최적화 양자화(rate-distortion optimized quantization)(RDO)가 (스캔 순서에서) 처음 16개의 계수에 대해 최대로 수행되어야 하며, 나머지 계수들은 0이 되도록 강제될 수 있다.
일부 예시적인 구현들에서, 이용가능한 RST 커널들은 다수의 변환 세트들로서 지정될 수 있으며, 각각의 변환 세트들은 다수의 비-분리 변환 행렬들을 포함한다. 예를 들어, LFNST에서 사용되는 변환 세트당 총 4개의 변환 세트 및 2개의 비-분리 변환 행렬(커널)이 있을 수 있다. 이 커널들은 오프라인으로 사전-훈련될 수 있고, 따라서, 이들은 데이터 구동된다. 오프라인 훈련된 변환 커널들은 메모리에 저장되거나 또는 인코딩/디코딩 프로세스 동안 사용하기 위해 인코딩 또는 디코딩 디바이스에 하드 코딩될 수 있다. 인코딩 또는 디코딩 프로세스 동안 변환 세트의 선택은 인트라 예측 모드에 의해 결정될 수 있다. 인트라 예측 모드들로부터 변환 세트들로의 매핑은 사전 정의될 수 있다. 이러한 사전 정의된 매핑의 예가 표 4에 나타내어져 있다. 예를 들어, 표 4에 나타낸 바와 같이, 현재 블록(즉, 81 <= predModeIntra <= 83)에 대해 3개의 CCLM(Cross-Component Linear Model) 모드(INTRA_LT_CCLM, INTRA_T_CCLM 또는 INTRA_L_CCLM) 중 하나가 사용되는 경우, 현재 크로마 블록에 대해 변환 세트 0이 선택될 수 있다. 각각의 변환 세트에 대해, 선택된 비-분리 2차 변환 후보가 명시적으로 시그널링된 LFNST 인덱스에 의해 추가로 지정될 수 있다. 예를 들어, 인덱스는, 변환 계수들 후에, 인트라 CU당 한 번 비트-스트림에서 시그널링될 수 있다.
Figure pct00012
LFNST는 위의 예시적인 구현들에서 제1 계수 서브-그룹 또는 일부의 외부의 모든 계수들이 유의하지 않은 경우에만 적용가능하도록 제한되기 때문에, LFNST 인덱스 코딩은 마지막 유의 계수의 포지션에 의존한다. 또한, LFNST 인덱스는 컨텍스트 코딩될 수 있지만, 인트라 예측 모드에 의존하지 않으며, 제1 빈(bin)만이 컨텍스트 코딩될 수 있다. 또한, LFNST는 인트라 및 인터 슬라이스들 모두에서 인트라 CU에 대해, 그리고 루마 및 크로마 모두에 대해 적용될 수 있다. 듀얼 트리(dual tree)가 인에이블되는 경우, Luma 및 Chroma에 대한 LFNST 인덱스들이 별도로 시그널링될 수 있다. 인터 슬라이스(듀얼 트리가 디스에이블됨)의 경우, 단일 LFNST 인덱스가 시그널링되어 Luma 및 Chroma 모두에 사용될 수 있다.
일부 예시적인 구현들에서, 인트라 서브-파티셔닝(Intra Sub-Partitioning)(ISP) 모드가 선택될 때, 모든 실행 가능한 파티션 블록에 RST가 적용되더라도 성능 향상이 미미할 가능성이 있기 때문에, LFNST가 디스에이블되고 RST 인덱스가 시그널링되지 않을 수 있다. 또한, ISP-예측된 잔차에 대해 RST를 디스에이블하면 인코딩 복잡도를 감소시킬 수 있다. 일부 추가 구현들에서, 다중 선형 회귀 인트라 예측(Multiple linear regression Intra Prediction)(MIP) 모드가 선택될 때, LFNST는 또한 디스에이블될 수 있고 RST 인덱스는 시그널링되지 않을 수 있다.
64 x 64보다 더 큰 대형 CU(또는 최대 변환 블록 사이즈를 표현하는 임의의 다른 사전 정의된 사이즈들)는 기존의 최대 변환 사이즈 제한(예를 들어, 64 x 64)으로 인해 암시적으로 스플릿된다는 점을 고려하면(예를 들어, TU 타일링), LFNST 인덱스 검색은 특정 수의 디코딩 파이프라인 스테이지들에 대해 데이터 버퍼링을 4배 증가시킬 수 있다. 따라서, 일부 구현들에서, LFNST가 허용되는 최대 사이즈는, 예를 들어, 64 x 64로 제한될 수 있다. 일부 구현들에서, LFNST는 DCT2와 함께 1차 변환으로서만 인에이블될 수 있다.
일부 다른 구현들에서, 예를 들어, 각각의 세트에 3개의 커널을 갖는, 예를 들어, 12개의 2차 변환 세트를 정의함으로써, 루마 컴포넌트에 대해 인트라 2차 변환(intra secondary transform)(IST)이 제공된다. 변환 세트 선택을 위해 인트라 모드 종속 인덱스(intra mode dependent index)가 사용될 수 있다. 세트 내의 커널 선택은 시그널링된 신택스 요소에 기초할 수 있다. IST는, DCT2 또는 ADST 중 어느 하나가 수평 및 수직 1차 변환 모두로서 사용될 때, 인에이블될 수 있다. 일부 구현들에서, 블록 사이즈에 따라, 4 x 4 비-분리 변환 또는 8 x 8 비-분리 변환이 선택될 수 있다. min(tx_width, tx_height) < 8인 경우, 4 x 4 IST가 선택될 수 있다. 더 큰 블록들의 경우, 8 x 8 IST가 사용될 수 있다. 여기서, tx_width 및 tx_height는 각각 변환 블록 폭 및 높이에 대응한다. IST에 대한 입력은 지그재그 스캔 순서의 저주파 1차 변환 계수들일 수 있다.
비디오 코딩 또는 디코딩 프로세스들의 다양한 변환들, 예를 들어, 잔차 블록들의 샘플들의 1차 변환들 또는 1차 변환 계수들의 블록들의 2차 변환들 프로세스들 중 어느 하나는, 분리 변환(separable transform) 방식들만 사용할 때, 45도 방향(예를 들어, 수평 또는 수직 방향들로부터 실질적으로 멀어지는 방향들)인 에지들과 같은 방향성 텍스처 패턴들을 캡처하는 데 모두 효율적인 것은 아닐 수 있다. 위에서 설명된 바와 같이, 일부 예시적인 구현들에서는, 1차 변환 계수의 2차 변환을 위해 하나 이상의 비-분리 변환 설계가 사용될 수 있다. 아래에서 추가로 설명되는 바와 같이, 이러한 비-분리 변환 방식들은 또한 1차 변환 계수들을 생성하기 위해 잔차 샘플 블록들의 1차 변환에 채택될 수 있다. 일부 예시적인 구현들에서, 분리 또는 비-분리 변환들 중 어느 것을 통해 생성된 1차 변환 계수들은 직접 양자화에 이어 엔트로피 코딩의 대상이 될 수 있거나 또는 대안적으로 양자화 및 엔트로피 코딩 전에 분리 또는 비-분리 2차 변환들 중 어느 것의 대상이 될 수 있다. 비-분리 변환들을 통해 획득된 1차 변환 계수들이 추가로 비-분리 2차 변환의 대상이 되는 구현들에서는, 2개의 비-분리 변환들이 캐스케이딩(cascading) 방식으로 활용될 것이다.
아래의 개시내용은 1차 및 2차 변환들 모두에 적용되는 비-분리 변환 방식들의 일부 예시적인 구현들을 추가로 설명한다. 아래에 설명된 이들 비-분리 변환 설계들은 특히 방향성 이미지 패턴(directional image pattern)들에 대한 코딩 효율성 개선을 목표로 한다. 특히, 인트라 모드 종속 비-분리 1차 및/또는 2차 변환 방식들이 개시된다. 이들 예시적인 실시예들은 순방향 또는 역방향 변환 프로세스들 중 어느 것 동안 코딩/디코딩되는 블록들의 데이터 스캐닝 순서들에 초점을 맞춘다. 프로세싱되고 있는 블록은 일반적으로 데이터 블록으로서 지칭될 수 있으며, 이는, 순방향 변환들의 경우, 잔차 변환/코딩/예측 블록의 샘플들 또는 1차 변환 계수들을 포함할 수 있고, 리버스 변환들의 경우, 1차 변환 계수들로 역변환되는 2차 변환 계수들 또는 잔차 샘플들로 역변환되는 1차 변환 계수들을 포함할 수 있다.
비-분리 1차 또는 2차 변환에 의해 달성되는 에너지 압축(energy compaction)을 최적화하고 1차 또는 2차 변환 계수들을 효과적으로 양자화하기 위해(고주파 계수들을 폐기하기 위해), 비-분리 1차 또는 2차 변환의 입력 및 출력 스캐닝 프로세스들은, 아래에서 더 상세하게 설명되는 바와 같이, 인트라 예측 모드, 블록 사이즈 및/또는 1차 변환 유형을 고려하여 수행될 수 있다.
일부 예시적인 구현들에서, 변환 세트는 코딩 프로세스 동안 인코더가 데이터 블록에 대해 선택하기 위한 후보들 또는 옵션들로서의 하나 이상의 변환 커널의 그룹을 지칭할 수 있다.
일부 구현들에서, 1차 변환은 비-분리 변환을 사용하여 수행되거나, 또는 일련의 1-D 변환들을 수행하여 달성될 수 있다. 예를 들어, DCT_DCT 조합에서는, DCT가 블록에 수평 및 수직으로 적용된다. 또 다른 예로, ADST_ADST 조합에서는, 1-D ADST가 블록에 수평 및 수직으로 적용된다. 일부 구현들에서는, 상이한 변환 유형들이 수평 및 수직으로 사용될 수 있다. 이러한 변환들은 하이브리드 1차 변환들로서 지칭될 수 있다.
도 15는 순방향 및 역방향 비-분리 변환을 위한 예시적인 데이터 흐름(1500)을 도시한다. 도 15에서 다양한 데이터 스캐닝 프로세스들은 S1 및 S2로서 식별되고 순방향 및 역방향 비-분리 변환들은 1502 및 1504로서 식별된다. 예시적인 데이터 흐름(1500)의 동작은 1차 및 2차 비-분리 변환 프로세스들 모두에 적용되며, 아래에서 더 상세하게 설명된다.
비-분리 2차 변환에서의 데이터 스캐닝
이 예시적인 실시예에서, 순방향 및 역방향 2차 변환들은, 도 15의 1502 및 1504에 의해 도시된 바와 같이, 비-분리 변환들일 수 있다. 인코딩 측으로부터, 순방향 2차 변환(1502)의 입력은 스캐닝 프로세스(1512)에서 제1 스캐닝 순서 S1을 따라 데이터 시퀀스(1510)로 스캔된 1차 계수 데이터 블록(1508)의 N개의 1차 변환 계수(1506)일 수 있고, 순방향 2차 변환(1502)의 출력은 제2 스캐닝 순서 S2를 사용하여 데이터 스캔(1518)을 따라 수정된 1차 변환 계수 데이터 블록(1507)을 생성하기 위해 1차 변환 계수들의 K개의 입력 1차 변환 계수(1516)를 대체하는 K개의 데이터 아이템의 2차 변환 계수 시퀀스(1514)일 수 있다. N 및 K는 양의 정수들이다.
디코딩 측으로부터, 역방향 2차 변환(1504)의 입력은 스캐닝 프로세스(1522)에서 역방향 S2 스캐닝 순서로 수정된 1차 계수 데이터 블록(1509)의 K개의 입력 계수(1517)를 리버스로 스캔한 후에 획득되는 K개의 데이터 아이템의 2차 변환 계수 시퀀스(1520)이고, 역방향 2차 변환(1504)의 출력은 역방향 S1 스캐닝 순서를 따라 역방향 스캐닝 프로세스(1530)를 사용하여 1차 계수 데이터 블록(1528)을 생성하기 위해 1509의 N개의 1차 변환 계수(1526)를 대체하는 N개의 계수의 1차 변환 계수 시퀀스(1524)일 수 있다.
일부 예시적인 구현들에서, N은 K보다 클 수 있다. 다시 말해서, 비-분리 2차 변환(1502)은 축소된 비-분리 2차 변환일 수 있다. 일부 예시적인 실시예에서, N개의 1차 변환 계수(1506)는 1차 계수 데이터 블록의 처음 N개의 계수(1506), 예를 들어, 1차 변환 계수 데이터 블록의 상부 좌측 코너(또는 저주파 부분)(1506)일 수 있다.
하나의 예시적인 구현에서, 스캐닝 순서 S1은: 입력 데이터 블록(1508)과 연관된 인트라 예측 모드, 데이터 블록과 연관된 1차 변환 유형, 또는 데이터 블록의 블록 사이즈 중 적어도 하나에 의존할 수 있다.
하나의 예시적인 구현에서, 스캐닝 순서 S2는: 입력 데이터 블록(1508)과 연관된 인트라 예측 모드, 데이터 블록과 연관된 1차 변환 유형, 또는 데이터 블록의 블록 사이즈 중 적어도 하나에 의존할 수 있다.
하나의 예시적인 구현에서, S1 및 S2 스캐닝 순서는: 지그재그 스캐닝 순서, 대각선 스캐닝 순서, 또는 행 및 열 스캐닝 순서 중 적어도 하나를 포함할 수 있다.
일 구현에서, 다수의 인트라 예측 모드들에 대한 2차 변환 후보들로서 동일한 2차 변환 세트(하나 이상의 제2 변환 커널을 가짐)가 사용될 때, S1 및 S2 스캐닝 순서는 데이터 블록과 연관된 인트라 예측 모드에 의존할 수 있다.
일부 예시적인 구현들에서, S1 및 S2 스캐닝 순서들은 상이할 수 있다.
일부 예시적인 구현들에서, N 및 K는 0 내지 127(경계 포함)의 임의의 정수를 포함하지만, 이에 제한되지 않는다.
일부 예시적인 구현들에서, 데이터 블록이 정사각형 블록일 때, S1 및/또는 S2 스캐닝 순서는 지그재그 순서를 포함할 수 있다. 블록이 비-정사각형 블록일 때, S1 및/또는 S2 스캐닝 순서는 대각선 스캔 순서를 포함할 수 있다.
도 15는 양자화 및 엔트로피 인코딩(1540) 및 대응하는 엔트로피 디코딩 및 역양자화(1550)를 더 도시한다.
1차 변환으로서의 비-분리 1차 변환에서의 데이터 스캐닝
이 예시적인 실시예에서, 비-분리 변환 프로세스(1502 및 1504)는 1차 변환에 대해 수행될 수 있다. 따라서, 1500의 데이터 흐름에 대한 입력(1508)은, 예를 들어, 1차 변환 계수가 아닌 잔차 샘플 데이터 블록일 것이고, 출력(1507)은 비-분리 변환 프로세스(1502)로부터의 K개의 1차 변환 계수(1516)를 포함하는 수정된 잔차 샘플 데이터 블록일 것이다. 구체적으로, 인코더 측으로부터, 순방향 1차 변환의 입력은 제1 스캐닝 순서 S1을 따른 처음 N개의 잔차 샘플일 수 있고, 순방향 1차 변환의 출력은 제2 스캐닝 순서 S2로 K개의 입력 잔차 샘플을 대체하는 K개의 비-분리 변환 계수이다. N 및 K는 양의 정수이다. 디코더 측으로부터, 역방향 비-분리 변환의 입력은 S2 스캐닝 순서를 따른 K개의 비-분리 변환 계수이고, 역방향 비-분리 변환의 출력은 S1 스캐닝 순서를 따라 N개의 비-분리 변환 계수를 대체하는 N개의 잔차 샘플이며, 여기서, N은 정수이다.
하나의 예시적인 구현에서, 스캐닝 순서 S1은: 데이터 블록과 연관된 인트라 예측 모드, 데이터 블록과 연관된 1차 변환 유형, 또는 데이터 블록의 블록 사이즈 중 적어도 하나에 의존할 수 있다.
하나의 예시적인 구현에서, 스캐닝 순서 S2는: 데이터 블록과 연관된 인트라 예측 모드, 데이터 블록과 연관된 1차 변환 유형, 또는 데이터 블록의 블록 사이즈 중 적어도 하나에 의존할 수 있다.
하나의 예시적인 구현에서, S1 및 S2 스캐닝 순서는: 지그재그 스캐닝 순서, 대각선 스캐닝 순서 또는 행 및 열 스캐닝 순서 중 적어도 하나를 포함할 수 있다.
하나의 예시적인 구현에서, 다수의 인트라 예측 모드들에 대한 2차 변환 후보들로서 동일한 변환 세트(하나 이상의 제2 변환 커널을 가짐)가 사용될 때, S1 및 S2 스캐닝 순서는 데이터 블록과 연관된 인트라 예측 모드에 의존할 수 있다.
일부 예시적인 구현들에서, S1 및 S2 스캐닝 순서들은 상이할 수 있다.
하나의 예시적인 구현에서, N 및 K는 0 내지 127(경계 포함)의 임의의 정수를 포함하지만, 이에 제한되지 않는다.
하나의 예시적인 구현에서, 데이터 블록이 정사각형 블록일 때, S1 및/또는 S2 스캐닝 순서는 지그재그 스캐닝 순서를 포함할 수 있다. 블록이 비-정사각형 블록일 때, S1 및/또는 S2 스캐닝 순서는 대각선 스캐닝 순서를 포함할 수 있다. 다시 말해서, 정사각형 또는 비-정사각형 데이터 블록들 중 어느 것에 대해 대각선 스캔 순서가 강제될 수 있다.
하나의 예시적인 구현에서, S1 스캐닝 순서는: 수평(행) 스캐닝 순서, 또는 수직(열) 스캐닝 순서를 포함할 수 있다.
이들 구현들에 대해, 양자화/엔트로피 프로세스(1540) 및 엔트로피 디코딩/역양자화 프로세스(1550)가 추가 2차 변환 없이 1507 또는 1509에 대해 직접 수행될 수 있다. 일부 다른 대안적인 구현들에서, 추가 2차 변환은 인코딩 측에서 프로세스(1540) 이전에 그리고 디코딩 측에서 프로세스(1550) 후에 수행될 수 있다. 추가 2차 변환은 분리형일 수 있거나, 또는, 예를 들어, 비-분리 2차 변환에 대해 위에서 설명된 구현들에 따라, 비-분리형일 수 있다.
1차 변환으로서의 비-분리 1차 변환에서의 데이터 스캐닝
일부 실시예들에서, 변환 유형(즉, 분리형 또는 비-분리형)은 변환 계수 코딩(예를 들어, 변환 계수의 엔트로피 인코딩)을 수행할 때 스캐닝 순서에 영향을 미칠 수 있다. 일 구현에서, 비-분리 변환이 (1차 변환 및/또는 2차 변환에) 적용될 때, 변환 계수 코딩을 위해 수평(행) 또는 수직(열) 스캐닝 순서가 사용될 수 있다.
도 16은 비디오 데이터를 프로세싱하기 위한 예시적인 방법(1600)을 도시한다. 방법(1600)은 다음 단계의 일부 또는 전부를 포함할 수 있다: 비디오 데이터로부터 데이터 블록을 추출하는 단계(1610); 제1 데이터 시퀀스를 생성하기 위해 제1 스캔 순서를 따라 데이터 블록의 제1 수의 데이터 아이템을 스캔하는 단계(1620); 제1 데이터 시퀀스에 대해 비-분리 변환을 수행하여 제2 수의 데이터 아이템을 갖는 제2 데이터 시퀀스를 획득하는 단계(1630); 및 데이터 블록의 제1 수의 데이터 아이템의 적어도 일부를 제2 스캔 순서를 따라 제2 데이터 시퀀스의 일부 또는 전부로 대체하는 단계(1640).
본 개시내용의 실시예에서, 임의의 단계들 및/또는 동작들은 원하는 대로 임의의 양 또는 순서로 조합 또는 배열될 수 있다. 단계들 및/또는 동작들 중 2개 이상은 병렬로 수행될 수 있다.
본 개시내용의 실시예들은 개별적으로 사용될 수도 있고 또는 임의의 순서로 조합될 수도 있다. 또한, 방법들(또는 실시예들), 인코더, 및 디코더 각각은 프로세싱 회로망(예를 들어, 하나 이상의 프로세서 또는 하나 이상의 집적 회로)에 의해 구현될 수 있다. 일 예에서, 하나 이상의 프로세서는 비-일시적 컴퓨터 판독가능 매체에 저장된 프로그램을 실행한다. 본 개시내용의 실시예들은 루마 블록 또는 크로마 블록에 적용될 수 있다.
위에서 설명된 기술들은 컴퓨터 판독가능 명령어들을 사용하여 컴퓨터 소프트웨어로서 구현될 수 있고, 하나 이상의 컴퓨터 판독가능 매체에 물리적으로 저장될 수 있다. 예를 들어, 도 17은 개시된 대상의 특정 실시예들을 구현하기에 적절한 컴퓨터 시스템(1700)을 도시한다.
컴퓨터 소프트웨어는 하나 이상의 컴퓨터 중앙 프로세싱 유닛(central processing unit)(CPU), 그래픽 프로세싱 유닛(Graphics Processing Unit)(GPU) 등에 의해, 직접적으로, 또는 해석, 마이크로-코드 실행 등을 통해 실행될 수 있는 명령어들을 포함하는 코드를 생성하기 위해 어셈블리, 컴파일, 링크 또는 유사한 메커니즘들의 대상이 될 수 있는 임의의 적절한 머신 코드 또는 컴퓨터 언어를 사용하여 코딩될 수 있다.
명령어들은, 예를 들어, 개인용 컴퓨터들, 태블릿 컴퓨터들, 서버들, 스마트폰들, 게임 디바이스들, 사물 인터넷(internet of things) 디바이스들 등을 포함하여 다양한 유형들의 컴퓨터들 또는 그 컴포넌트들에서 실행될 수 있다.
컴퓨터 시스템(1700)에 대해 도 17에 도시된 컴포넌트들은 본질적으로 예시적인 것이며, 본 개시내용의 실시예들을 구현하는 컴퓨터 소프트웨어의 사용 또는 기능성의 범위에 대한 임의의 제한을 제시하도록 의도되지 않는다. 컴포넌트들의 구성이 컴퓨터 시스템(1700)의 예시적인 실시예에 예시된 컴포넌트들 중 임의의 하나 또는 조합과 관련된 임의의 종속성 또는 요구사항을 갖는 것으로 해석되어서도 안된다.
컴퓨터 시스템(1700)은 특정 휴먼 인터페이스 입력 디바이스들을 포함할 수 있다. 이러한 휴먼 인터페이스 입력 디바이스들은, 예를 들어, 촉각적 입력(예를 들어, 키스트로크(keystroke)들, 스와이프(swipe)들, 데이터 글로브 이동(data glove movement)들), 오디오 입력(예를 들어, 음성(voice), 박수(clapping)), 시각적 입력(예를 들어, 제스처들), 후각적 입력(도시되지 않음)을 통해 하나 이상의 인간 사용자에 의한 입력에 응답할 수 있다. 휴먼 인터페이스 디바이스들은 또한 오디오(예를 들어, 스피치, 음악, 주변 사운드), 이미지들(예를 들어, 스캔된 이미지들, 스틸 이미지 카메라로부터 획득된 사진 이미지들), 비디오(예를 들어, 2차원 비디오, 스테레오스코픽 비디오(stereoscopic video)를 포함하는 3차원 비디오)와 같이 인간에 의한 의식적 입력과 반드시 직접적으로 관련되지는 않는 특정 미디어를 캡처하는 데 사용될 수도 있다.
입력 휴먼 인터페이스 디바이스들은 키보드(1701), 마우스(1702), 트랙패드(1703), 터치 스크린(1710), 데이터-글러브(도시되지 않음), 조이스틱(1705), 마이크로폰(1706), 스캐너(1707), 카메라(1708) 중 하나 이상(각각 하나만 도시됨)을 포함할 수 있다.
컴퓨터 시스템(1700)은 또한 특정 휴먼 인터페이스 출력 디바이스들을 포함할 수 있다. 이러한 휴먼 인터페이스 출력 디바이스들은, 예를 들어, 촉각적 출력, 사운드, 빛, 및 냄새/맛을 통해 하나 이상의 인간 사용자의 감각들을 자극할 수 있다. 이러한 휴먼 인터페이스 출력 디바이스들은 촉각적 출력 디바이스들(예를 들어, 터치 스크린(1710), 데이터-글러브(도시되지 않음), 또는 조이스틱(1705)에 의한 촉각적 피드백, 그러나, 입력 디바이스들로서 서빙하지 않는 촉각적 피드백 디바이스들 또한 있을 수 있음), 오디오 출력 디바이스들(예를 들어, 스피커들(1709), 헤드폰들(도시되지 않음)), 시각적 출력 디바이스들(예를 들어, 각각이 터치 스크린 입력 능력이 있거나 없고, 각각이 촉각적 피드백 능력이 있거나 없는 CRT 스크린들, LCD 스크린들, 플라즈마 스크린들, OLED 스크린들을 포함하는 스크린들(1710) - 이들 중 일부는 스테레오그래픽 출력; 가상-현실 안경(도시되지 않음), 홀로그래픽 디스플레이들 및 스모크 탱크(smoke tank)들(도시되지 않음)과 같은 수단을 통해 2차원 시각적 출력 또는 4차원 이상 출력을 출력할 수 있음), 및 프린터들(도시되지 않음)을 포함할 수 있다.
컴퓨터 시스템(1700)은 또한 CD/DVD 또는 이와 유사한 매체(1721)를 갖는 CD/DVD ROM/RW(1720)를 포함하는 광학 매체들, 썸-드라이브(thumb-drive)(1722), 이동식 하드 드라이브 또는 솔리드 스테이트 드라이브(solid state drive)(1723), 테이프 및 플로피 디스크(도시되지 않음)와 같은 레거시 자기 매체들, 보안 동글(도시되지 않음)들과 같은 특수 ROM/ASIC/PLD 기반 디바이스들 등과 같은 휴먼 액세스가능 저장 디바이스들 및 그들의 연관된 매체들을 포함할 수 있다.
본 기술분야의 통상의 기술자들은 또한 현재 개시되는 대상과 관련하여 사용되는 용어 "컴퓨터 판독가능 매체들"이 송신 매체들, 반송파들, 또는 다른 일시적 신호들을 포함하지 않는다는 것을 이해해야 한다.
컴퓨터 시스템(1700)은 또한 하나 이상의 통신 네트워크(1755)에 대한 인터페이스(1754)를 포함할 수 있다. 네트워크들은, 예를 들어, 무선, 유선, 광학일 수 있다. 네트워크들은 추가로 로컬, 광역, 대도시, 차량 및 산업용(vehicular and industrial), 실시간, 지연-허용형(delay-tolerant) 등일 수 있다. 네트워크들의 예들은 근거리 네트워크들, 예를 들어, 이더넷, 무선 LAN들, GSM, 3G, 4G, 5G, LTE 등을 포함하는 셀룰러 네트워크들, 케이블 TV, 위성 TV, 및 지상파 방송 TV를 포함하는 TV 유선 또는 무선 광역 디지털 네트워크들, CAN 버스를 포함하는 차량 및 산업용 등을 포함한다. 특정 네트워크들은 일반적으로 특정 범용 데이터 포트들 또는 주변 버스들(1749)(예를 들어, 컴퓨터 시스템(1700)의 USB 포트들 등)에 부착된 외부 네트워크 인터페이스 어댑터들을 요구하고; 다른 것들은 일반적으로 아래에서 설명되는 바와 같이 시스템 버스에 대한 부착에 의해 컴퓨터 시스템(1700)의 코어에 통합된다(예를 들어, PC 컴퓨터 시스템에 대한 이더넷 인터페이스 또는 스마트폰 컴퓨터 시스템에 대한 셀룰러 네트워크 인터페이스). 이 네트워크들 중 임의의 것을 사용하여, 컴퓨터 시스템(1700)은 다른 엔티티들과 통신할 수 있다. 이러한 통신은 근거리 또는 광역 디지털 네트워크들을 사용하여, 예를 들어, 다른 컴퓨터 시스템들에 대해 단방향, 수신 전용(예를 들어, 방송 TV), 단방향 전송-전용(예를 들어, CANbus에서 특정 CANbus 디바이스들로), 또는 양방향일 수 있다. 특정 프로토콜들 및 프로토콜 스택들이 위에서 설명된 바와 같이 해당 네트워크들 및 네트워크 인터페이스들 각각에서 사용될 수 있다.
컴퓨터 시스템(1700)의 코어(1740)에는 이전에 언급된 휴먼 인터페이스 디바이스들, 휴먼 액세스가능 저장 디바이스들, 및 네트워크 인터페이스들이 부착될 수 있다.
코어(1740)는 하나 이상의 중앙 프로세싱 유닛(Central Processing Unit)(CPU)(1741), 그래픽 프로세싱 유닛(Graphics Processing Unit)(GPU)(1742), 필드 프로그래밍가능 게이트 영역들(Field Programmable Gate Areas)(FPGA)(1743) 형태의 특수 프로그래밍 가능 프로세싱 유닛들, 특정 태스크들을 위한 하드웨어 가속기들(1744), 그래픽 어댑터들(1750) 등을 포함할 수 있다. 이들 디바이스들은, 판독 전용 메모리(ROM)(1745), 랜덤 액세스 메모리(1746), 내부 대용량 스토리지, 예를 들어, 내부의 비-사용자 액세스가능 하드 드라이브들, SSD들 등(1747)과 함께, 시스템 버스(1748)를 통해 연결될 수 있다. 일부 컴퓨터 시스템들에서, 시스템 버스(1748)는 추가 CPU들, GPU 등에 의한 확장들을 가능하게 하기 위해 하나 이상의 물리적 플러그의 형태로 액세스가능할 수 있다. 주변 디바이스들은 코어의 시스템 버스(1748)에 직접, 또는 주변 버스(1749)를 통해 부착될 수 있다. 예에서, 스크린(1710)은 그래픽 어댑터(1750)에 연결될 수 있다. 주변 버스를 위한 아키텍처들은 PCI, USB 등을 포함한다.
CPU들(1741), GPU들(1742), FPGA들(1743), 및 가속기들(1744)은, 조합하여, 위에서 언급된 컴퓨터 코드를 구성할 수 있는 특정 명령어들을 실행할 수 있다. 해당 컴퓨터 코드는 ROM(1745) 또는 RAM(1746)에 저장될 수 있다. 과도 데이터(transitional data) 또한 RAM(1746)에 저장될 수 있는 반면, 영구 데이터는, 예를 들어, 내부 대용량 스토리지(1747)에 저장될 수 있다. 하나 이상의 CPU(1741), GPU(1742), 대용량 스토리지(1747), ROM(1745), RAM(1746) 등과 밀접하게 연관될 수 있는 캐시 메모리의 사용을 통해 메모리 디바이스들 중 임의의 것에 대한 고속 저장 및 리트리브가 인에이블될 수 있다.
컴퓨터 판독가능 매체들은 다양한 컴퓨터 구현 동작들을 수행하기 위한 컴퓨터 코드를 가질 수 있다. 매체들 및 컴퓨터 코드는 본 개시내용의 목적들을 위해 특별히 설계되고 구성된 것들일 수도 있고, 또는 이들은 컴퓨터 소프트웨어 분야들의 통상의 기술을 가진 자들에게 잘 알려져 있고 이들이 이용가능한 종류일 수도 있다.
비-제한적인 예로서, 아키텍처(1700), 구체적으로는, 코어(1740)를 갖는 컴퓨터 시스템은 프로세서(들)(CPU들, GPU들, FPGA, 가속기들 등을 포함함)가 하나 이상의 유형의(tangible) 컴퓨터 판독가능 매체에서 구현되는 소프트웨어를 실행한 결과로서 기능성을 제공할 수 있다. 이러한 컴퓨터 판독가능 매체들은 위에서 소개된 사용자-액세스가능 대용량 스토리지뿐만 아니라, 코어-내부 대용량 스토리지(1747) 또는 ROM(1745)과 같은 비-일시적 특성을 갖는 코어(1740)의 특정 스토리지와 연관된 매체들일 수 있다. 본 개시내용의 다양한 실시예들을 구현하는 소프트웨어는 이러한 디바이스들에 저장되고 코어(1740)에 의해 실행될 수 있다. 컴퓨터 판독가능 매체는 특정 요구들에 따라 하나 이상의 메모리 디바이스 또는 칩을 포함할 수 있다. 소프트웨어는, 코어(1740) 및 구체적으로는, 내부의 프로세서들(CPU, GPU, FPGA 등을 포함함)로 하여금, RAM(1746)에 저장된 데이터 구조들을 정의하는 것 및 소프트웨어에 의해 정의된 프로세스들에 따라 이러한 데이터 구조들을 수정하는 것을 포함하여 본 명세서에서 설명되는 특정 프로세스들 또는 특정 프로세스들의 특정 부분들을 실행하게 할 수 있다. 추가적으로 또는 대안으로서, 컴퓨터 시스템은 회로(예를 들어, 가속기(1744))에 하드와이어드되거나 또는 다른 방식으로 구체화된 로직의 결과로서 기능성을 제공할 수 있으며, 이는 본 명세서에서 설명되는 특정 프로세스들 또는 특정 프로세스들의 특정 부분들을 실행하기 위해 소프트웨어 대신에 또는 이와 함께 동작할 수 있다. 소프트웨어에 대한 참조는 로직을 포함할 수 있으며, 적절한 경우, 그 반대의 경우도 마찬가지이다. 컴퓨터 판독가능 매체들에 대한 참조는 실행을 위한 소프트웨어, 실행을 위한 로직을 구현하는 회로, 또는 적절한 경우, 모두를 저장한 회로(예를 들어, 집적 회로(integrated circuit)(IC))를 포함할 수 있다. 본 개시내용은 하드웨어 및 소프트웨어의 임의의 적절한 조합을 포함한다.
본 개시내용은 몇몇 예시적인 실시예들을 설명하였지만, 본 개시내용의 범위 내에 속하는 변경들, 치환들, 및 다양한 대체 등가물들이 있다. 따라서, 본 기술분야의 통상의 기술자들은, 본 명세서에 명시적으로 도시되거나 설명되지는 않았지만, 본 개시내용의 원리들을 구현하고, 따라서, 그 사상 및 범위 내에 있는 수 많은 시스템들 및 방법들을 고안할 수 있을 것임이 이해될 것이다.
부록 A: 두문자어들
JEM: 조인트 탐색 모델(joint exploration model)
VVC: 다용도 비디오 코딩(versatile video coding)
BMS: 벤치마크 세트(benchmark set)
MV: 모션 벡터(Motion Vector)
HEVC: 고효율 비디오 코딩(High Efficiency Video Coding)
SEI: 보충 강화 정보(Supplementary Enhancement Information)
VUI: 비디오 사용성 정보(Video Usability Information)
GOP들: 픽처들의 그룹들(Groups of Pictures)
TU들: 변환 유닛들(Transform Unit)들,
PU들: 예측 유닛들(Prediction Unit)들
CTU들: 코딩 트리 유닛(Coding Tree Unit)들
CTB들: 코딩 트리 블록(Coding Tree Block)들
PB들: 예측 블록(Prediction Block)들
HRD: 가상 참조 디코더(Hypothetical Reference Decoder)
SNR: 신호 잡음비(Signal Noise Ratio)
CPU들: 중앙 프로세싱 유닛(Central Processing Unit)들
GPU들: 그래픽 프로세싱 유닛(Graphics Processing Unit)들
CRT: 음극선관(Cathode Ray Tube)
LCD: 액정 디스플레이(Liquid-Crystal Display)
OLED: 유기 발광 다이오드(Organic Light-Emitting Diode)
CD: 컴팩트 디스크(Compact Disc)
DVD: 디지털 비디오 디스크(Digital Video Disc)
ROM: 판독 전용 메모리(Read-Only Memory)
RAM: 랜덤 액세스 메모리(Random Access Memory)
ASIC: 애플리케이션-특정 집적 회로(Application-Specific Integrated Circuit)
PLD: 프로그래밍가능 로직 디바이스(Programmable Logic Device)
LAN: 근거리 네트워크(Local Area Network)
GSM: 모바일 통신 글로벌 시스템(Global System for Mobile communications)
LTE: 롱-텀 에볼루션(Long-Term Evolution)
CANBus: 제어기 영역 네트워크 버스(Controller Area Network Bus)
USB: 범용 직렬 버스(Universal Serial Bus)
PCI: 주변 컴포넌트 인터커넥트(Peripheral Component Interconnect)
FPGA: 필드 프로그래밍가능 게이트 영역들(Field Programmable Gate Areas)
SSD: 솔리드-스테이트 드라이브(solid-state drive)
IC: 집적 회로(Integrated Circuit)
HDR: 높은 동적 범위(high dynamic range)
SDR: 표준 동적 범위(standard dynamic range)
JVET: 조인트 비디오 탐색 팀(Joint Video Exploration Team)
MPM: 가장 가능성 있는 모드(most probable mode)
WAIP: 광각 인트라 예측(Wide-Angle Intra Prediction)
CU: 코딩 유닛(Coding Unit)
PU: 예측 유닛(Prediction Unit)
TU: 변환 유닛(Transform Unit)
CTU: 코딩 트리 유닛(Coding Tree Unit)
PDPC: 포지션 종속 예측 조합(Position Dependent Prediction Combination)
ISP: 인트라 서브-파티션들(Intra Sub-Partitions)
SPS: 시퀀스 파라미터 설정(Sequence Parameter Setting)
PPS: 픽처 파라미터 세트(Picture Parameter Set)
APS: 적응 파라미터 세트(Adaptation Parameter Set)
VPS: 비디오 파라미터 세트(Video Parameter Set)
DPS: 디코딩 파라미터 세트(Decoding Parameter Set)
ALF: 적응 루프 필터(Adaptive Loop Filter)
SAO: 샘플 적응 오프셋(Sample Adaptive Offset)
CC-ALF: 크로스-컴포넌트 적응 루프 필터(Cross-Component Adaptive Loop Filter)
CDEF: 제약된 방향성 향상 필터(Constrained Directional Enhancement Filter)
CCSO: 크로스-컴포넌트 샘플 오프셋(Cross-Component Sample Offset)
LSO: 로컬 샘플 오프셋(Local Sample Offset)
LR: 루프 복원 필터(Loop Restoration Filter)
AV1: AOMedia 비디오 1(AOMedia Video 1)
AV2: AOMedia 비디오 2(AOMedia Video 2)

Claims (21)

  1. 비디오 데이터를 프로세싱하기 위한 방법으로서,
    비디오 데이터로부터 데이터 블록을 추출하는 단계;
    제1 데이터 시퀀스를 생성하기 위해 제1 스캔 순서를 따라 상기 데이터 블록의 제1 수의 데이터 아이템을 스캔하는 단계;
    상기 제1 데이터 시퀀스에 대해 비-분리 변환(non-separable transform)을 수행하여 제2 수의 데이터 아이템을 갖는 제2 데이터 시퀀스를 획득하는 단계; 및
    상기 데이터 블록의 제1 수의 데이터 아이템의 적어도 일부를 제2 스캔 순서를 따라 상기 제2 데이터 시퀀스의 일부 또는 전부로 대체하는 단계
    를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 데이터 블록은 1차 변환 계수(primary transform coefficient)를 포함하고;
    상기 비-분리 변환은 순방향 비-분리 2차 변환(forward non-separable secondary transform)을 포함하고;
    상기 데이터 블록의 제1 수의 데이터 아이템의 적어도 일부를 대체하는 단계는 상기 데이터 블록의 제1 수의 데이터 아이템 내의 제2 수의 데이터 아이템을 상기 제2 스캔 순서를 따라 상기 제2 시퀀스로 대체하는 단계를 포함하는, 방법.
  3. 제2항에 있어서, 상기 제1 스캔 순서는:
    상기 데이터 블록과 연관된 인트라 예측 모드;
    상기 순방향 비-분리 2차 변환의 유형; 또는
    상기 데이터 블록의 사이즈
    중 적어도 하나에 기초하여 결정되는, 방법.
  4. 제2항에 있어서, 상기 제2 스캔 순서는:
    상기 데이터 블록과 연관된 인트라 예측 모드;
    상기 순방향 비-분리 2차 변환의 유형; 또는
    상기 데이터 블록의 사이즈
    중 적어도 하나에 기초하여 결정되는, 방법.
  5. 제2항에 있어서, 상기 제1 스캔 순서 또는 상기 제2 스캔 순서는:
    지그재그 스캔 순서;
    대각선 스캔 순서; 또는
    행 및 열 스캔 순서
    중 하나를 포함하는, 방법.
  6. 제2항에 있어서,
    상기 제1 스캔 순서 또는 제2 스캔 순서는 상기 비디오 데이터에 대해 다수의 인트라 예측 모드들에 의해 동일한 세트의 변환 커널(transform kernel)들이 공유될 때 상기 데이터 블록과 연관된 인트라 예측 모드에 기초하여 결정되는, 방법.
  7. 제2항에 있어서, 상기 제1 수 및 상기 제2 수는 0 내지 127(경계 포함)의 정수들인, 방법.
  8. 제2항에 있어서, 상기 제1 스캔 순서 및 상기 제2 스캔 순서는:
    상기 데이터 블록이 정사각형 블록일 때에는 지그재그 스캔 순서이거나; 또는
    상기 데이터 블록이 비-정사각형 블록일 때에는 대각선 스캔 순서인, 방법.
  9. 제1항에 있어서,
    상기 데이터 블록은 잔차 샘플(residual sample)들을 포함하고;
    상기 비-분리 변환은 순방향 비-분리 1차 변환(forward non-separable primary transform)을 포함하고;
    상기 데이터 블록의 제1 수의 데이터 아이템의 적어도 일부를 대체하는 단계는 상기 데이터 블록의 제1 수의 데이터 아이템 내의 제2 수의 데이터 아이템을 상기 제2 스캔 순서를 따라 상기 제2 시퀀스로 대체하는 단계를 포함하는, 방법.
  10. 제9항에 있어서, 상기 제1 스캔 순서는:
    상기 데이터 블록과 연관된 인트라 예측 모드;
    상기 순방향 비-분리 2차 변환의 유형; 또는
    상기 데이터 블록의 사이즈
    중 적어도 하나에 기초하여 결정되는, 방법.
  11. 제9항에 있어서, 상기 제2 스캔 순서는:
    상기 데이터 블록과 연관된 인트라 예측 모드;
    상기 순방향 비-분리 2차 변환의 유형; 또는
    상기 데이터 블록의 사이즈
    중 적어도 하나에 기초하여 결정되는, 방법.
  12. 제9항에 있어서, 상기 제1 스캔 순서 또는 상기 제2 스캔 순서는:
    지그재그 스캔 순서;
    대각선 스캔 순서; 또는
    행 및 열 스캔 순서
    중 하나를 포함하는, 방법.
  13. 제9항에 있어서,
    상기 제1 스캔 순서 또는 제2 스캔 순서는 상기 비디오 데이터에 대해 다수의 인트라 예측 모드들에 의해 동일한 세트의 변환 커널들이 공유될 때 상기 데이터 블록과 연관된 인트라 예측 모드에 기초하여 결정되는, 방법.
  14. 제9항에 있어서, 상기 제1 수 및 상기 제2 수는 0 내지 127(경계 포함)의 정수들인, 방법.
  15. 제9항에 있어서, 상기 제1 스캔 순서 및 상기 제2 스캔 순서는:
    상기 데이터 블록이 정사각형 블록일 때에는 지그재그 스캔 순서이거나; 또는
    상기 데이터 블록이 비-정사각형 블록일 때에는 대각선 스캔 순서인, 방법.
  16. 제9항에 있어서, 상기 제1 스캔 순서는 수평 또는 수직 스캔 순서인, 방법.
  17. 비디오 데이터와 연관된 변환 계수들을 엔트로피 인코딩하기 위한 방법으로서,
    상기 변환 계수들과 연관된 변환이 비-분리형(non-separable)이라는 것에 응답하여,
    수평 스캔 순서; 또는
    수직 스캔 순서
    중 하나인 제1 스캐닝 순서를 사용하여 상기 변환 계수들의 엔트로피 인코딩을 수행할 때 상기 변환 계수를 스캔하는 단계: 및
    상기 변환 계수들과 연관된 변환이 분리형(separable)이라는 것에 응답하여, 상기 변환 계수들의 엔트로피 인코딩을 수행할 때 상기 제1 스캐닝 순서와 상이한 제2 스캐닝 순서로 상기 변환 계수를 스캔하는 단계
    를 포함하는, 방법.
  18. 제17항에 있어서, 상기 변환은:
    1차 변환; 또는
    2차 변환
    중 하나를 포함하는, 방법.
  19. 비디오 데이터를 프로세싱하기 위한 방법으로서,
    상기 비디오 데이터를 수신하는 단계;
    상기 비디오 데이터에 대한 2차 변환으로서 비-분리 변환이 적용되는지 여부를 결정하는 단계;
    상기 비디오 데이터에 대한 2차 변환으로서 상기 비-분리 변환이 적용되는 것에 응답하여:
    제1 수의 1차 변환 계수를 스캔하는 단계 - 상기 1차 변환 계수들은 제1 스캐닝 순서를 따름 -;
    입력으로서 상기 제1 수의 1차 변환 계수를 사용하여 비-분리 변환을 수행하여 출력으로서 제2 수의 2차 변환 계수를 획득하는 단계 - 상기 2차 변환 계수들은 제2 스캐닝 순서를 따름 -;
    적어도 상기 제2 수의 1차 변환 계수를 상기 제2 스캐닝 순서를 따라 상기 2차 변환 계수들로 대체하는 단계;
    입력으로서 상기 제2 수의 2차 변환 계수를 사용하여 상기 비-분리 변환에 대응하는 역방향 2차 변환(inverse secondary transform)을 수행하여 출력으로서 상기 제1 수의 1차 변환 계수를 획득하는 단계; 및
    적어도 상기 제1 수의 2차 변환 계수를 상기 제1 스캐닝 순서를 따라 상기 1차 변환 계수들로 대체하는 단계
    를 포함하는, 방법.
  20. 디바이스로서,
    제1항 내지 제19항 중 어느 한 항의 방법을 구현하도록 구성되는 회로망(circuitry)을 포함하는, 디바이스.
  21. 컴퓨터 코드가 저장된 비-일시적 컴퓨터 판독가능 프로그램 매체를 포함하는 컴퓨터 프로그램 제품으로서,
    상기 컴퓨터 코드는, 하나 이상의 프로세서에 의해 실행될 때, 상기 하나 이상의 프로세서로 하여금, 제1항 내지 제19항 중 어느 한 항의 방법을 구현하게 하는, 컴퓨터 프로그램 제품.
KR1020237014287A 2021-08-30 2022-02-04 2차 변환 계수들의 스캔 순서 KR20230075498A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202163238646P 2021-08-30 2021-08-30
US63/238,646 2021-08-30
US17/587,164 2022-01-28
US17/587,164 US20230078100A1 (en) 2021-08-30 2022-01-28 Scan order of secondary transform coefficients
PCT/US2022/015242 WO2023033865A1 (en) 2021-08-30 2022-02-04 Scan order of secondary transform coefficients

Publications (1)

Publication Number Publication Date
KR20230075498A true KR20230075498A (ko) 2023-05-31

Family

ID=85410749

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237014287A KR20230075498A (ko) 2021-08-30 2022-02-04 2차 변환 계수들의 스캔 순서

Country Status (5)

Country Link
US (1) US20230078100A1 (ko)
EP (1) EP4397035A1 (ko)
JP (1) JP2023552148A (ko)
KR (1) KR20230075498A (ko)
WO (1) WO2023033865A1 (ko)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102045560B (zh) * 2009-10-23 2013-08-07 华为技术有限公司 一种视频编解码方法及设备
US9288496B2 (en) * 2010-12-03 2016-03-15 Qualcomm Incorporated Video coding using function-based scan order for transform coefficients
US9392301B2 (en) * 2011-07-01 2016-07-12 Qualcomm Incorporated Context adaptive entropy coding for non-square blocks in video coding
EP3222044A1 (en) * 2014-11-21 2017-09-27 VID SCALE, Inc. One-dimensional transform modes and coefficient scan order
US10491922B2 (en) * 2015-09-29 2019-11-26 Qualcomm Incorporated Non-separable secondary transform for video coding
US11375220B2 (en) * 2019-11-27 2022-06-28 Tencent America LLC Method and apparatus for video decoding using a nominal directional mode and an angular offset

Also Published As

Publication number Publication date
EP4397035A1 (en) 2024-07-10
WO2023033865A1 (en) 2023-03-09
JP2023552148A (ja) 2023-12-14
US20230078100A1 (en) 2023-03-16

Similar Documents

Publication Publication Date Title
US11800126B2 (en) Video encoding using a directional mode and a non-separable transform
US20220150518A1 (en) Method and apparatus for video coding
US20240007673A1 (en) Orthogonal Transform Generation with Subspace Constraint
US11930186B2 (en) Method and apparatus for video coding
US20220337854A1 (en) Interaction between transform partitioning and primary/secondary transform type selection
KR20230106688A (ko) 적응적 다중 변환 세트 선택
US20220201334A1 (en) Method and apparatus for video coding
US20230078100A1 (en) Scan order of secondary transform coefficients
US20240314320A1 (en) Method and apparatus for secondary transform with adaptive kernel options
US20230103505A1 (en) Secondary transforms for compound inter-intra prediction modes
KR20230170759A (ko) 1차원 변환 스킵을 위한 eob의 시그널링
KR20230130090A (ko) 복합 인터-인트라 예측 모드들에 대한 적응적 변환들
EP4136844A1 (en) Skip transform flag coding