KR20150122772A - 3d 비디오 코딩에서의 유도된 디스패리티 벡터 - Google Patents

3d 비디오 코딩에서의 유도된 디스패리티 벡터 Download PDF

Info

Publication number
KR20150122772A
KR20150122772A KR1020157027073A KR20157027073A KR20150122772A KR 20150122772 A KR20150122772 A KR 20150122772A KR 1020157027073 A KR1020157027073 A KR 1020157027073A KR 20157027073 A KR20157027073 A KR 20157027073A KR 20150122772 A KR20150122772 A KR 20150122772A
Authority
KR
South Korea
Prior art keywords
block
slice
ddv
disparity
video
Prior art date
Application number
KR1020157027073A
Other languages
English (en)
Other versions
KR101780434B1 (ko
Inventor
잉 천
리 장
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20150122772A publication Critical patent/KR20150122772A/ko
Application granted granted Critical
Publication of KR101780434B1 publication Critical patent/KR101780434B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/0007
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

비디오 코더는 비디오 데이터의 현재의 화상의 슬라이스에 대해 단지 하나의 유도된 디스패리티 벡터 (DDV) 를 저장한다. 비디오 코더는 특정의 블록에 대한 디스패리티 벡터를 결정하기 위해 이웃하는 블록 기반의 디스패리티 벡터 (NBDV) 유도 프로세스에서 슬라이스에 대한 DDV 를 이용한다. 더욱이, 비디오 코더는 슬라이스에 대한 DDV 로서, 특정의 블록에 대한 디스패리티 벡터를 저장한다.

Description

3D 비디오 코딩에서의 유도된 디스패리티 벡터{DERIVED DISPARITY VECTOR IN 3D VIDEO CODING}
본 출원은 2013년 3월 6일자에 출원된 미국 가특허 출원번호 제 61/773,680호, 및 2013년 4월 5일자에 출원된 미국 가특허 출원번호 제 61/809,174호의 이익을 주장하며, 이의 각각의 전체 내용이 참조로 포함된다.
기술 분야
본 개시물은 비디오 코딩을 위한 기법들에 관한 것으로, 보다 구체적으로는 3차원 (3D) 비디오 코딩을 위한 기법들에 관한 것이다.
디지털 비디오 능력들은 디지털 텔레비전들, 디지털 직접 브로드캐스트 시스템들, 무선 브로드캐스트 시스템들, 개인 휴대정보 단말기들 (PDAs), 랩탑 또는 데스크탑 컴퓨터들, 디지털 카메라들, 디지털 리코딩 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 디바이스들, 비디오 게임 콘솔들, 셀룰러 또는 위성 무선 전화기들, 원격 화상회의 디바이스들 등을 포함한, 광범위한 디바이스들에 포함될 수 있다. 디지털 비디오 디바이스들은 디지털 비디오 정보를 송수신하고 저장하기 위해, MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, 파트 10, AVC (Advanced Video Coding), HEVC (High Efficiency Video Coding) 표준에 의해 정의된 표준들, 및 이런 표준들의 확장판들에 설명된 것들과 같은 비디오 압축 기법들을 구현한다. 비디오 디바이스들은 이런 비디오 압축 기법들을 구현함으로써, 디지털 비디오 정보를 좀더 효율적으로 송신, 수신, 인코딩, 디코딩, 및/또는 저장할 수도 있다.
비디오 압축 기법들은 비디오 시퀀스들에 고유한 리던던시를 감소시키거나 또는 제거하기 위해 공간 (인트라-화상) 예측 및/또는 시간 (인터-화상) 예측을 수행한다. 블록-기반 비디오 코딩에 있어, 비디오 슬라이스 (즉, 비디오 프레임 또는 비디오 프레임의 일부) 는 비디오 블록들로 파티셔닝될 수도 있다. 화상의 인트라-코딩된 (I) 슬라이스에서 비디오 블록들은 동일한 화상에서 이웃하는 블록들에서의 참조 샘플들에 대한 공간 예측을 사용하여 인코딩된다. 화상의 인터-코딩된 (P 또는 B) 슬라이스에서 비디오 블록들은 동일한 화상에서 이웃하는 블록들에서의 참조 샘플들에 대한 공간 예측, 또는 다른 참조 화상들에서의 참조 샘플들에 대한 시간 예측을 이용할 수도 있다. 화상들은 프레임들로 지칭될 수 있으며, 참조 화상들은 참조 프레임들로서 지칭될 수도 있다.
공간 또는 시간 예측은 코딩되는 블록에 대한 예측 블록을 초래한다. 잔여 데이터는 코딩되는 원래 블록과 예측 블록 사이의 픽셀 차이들을 나타낸다. 인터-코딩된 블록은 예측 블록을 형성하는 참조 샘플들의 블록을 가리키는 모션 벡터에 따라서 인코딩되며, 잔여 데이터는 코딩된 블록과 예측 블록 사이의 차이를 나타낸다. 인트라-코딩된 블록은 인트라-코딩 모드 및 잔여 데이터에 따라서 인코딩된다. 추가적인 압축을 위해, 잔여 데이터는 픽셀 도메인으로부터 변환 도메인으로 변환될 수도 있으며, 그 결과 잔여 계수들이 되고, 그후 양자화될 수도 있다. 2차원 어레이로 처음에 배열된 양자화된 계수들은 계수들의 1차원 벡터를 발생시키기 위해 스캐닝될 수도 있으며, 더욱 더 많은 압축을 달성하기 위해 엔트로피 코딩이 적용될 수도 있다.
H.264/AVC 를 포함한, 전술한 표준들 중 일부의 확장판들은 스테레오 또는 3차원 ("3D") 비디오를 발생시키기 위해 멀티-뷰 비디오 코딩을 위한 기법들을 제공한다. 특히, (H.264/AVC 에 대한 멀티-뷰 확장판이 된) 멀티-뷰 비디오 코딩 (MVC) 표준을 포함한, 멀티-뷰 코딩을 위한 기법들이 AVC 에서의 사용을 위해 제안되었다. 스케일러블 비디오 코딩 (SVC) 표준은 또한 H.264/AVC 에 대한 확장판으로서 개발되었다.
일반적으로, 스테레오 비디오는 2개의 뷰들, 예컨대, 좌측 뷰 및 우측 뷰를 사용하여 획득된다. 좌측 뷰의 화상은 3차원의 비디오 효과를 달성하기 위해 우측 뷰의 화상과 실질적으로 동시에 디스플레이될 수 있다. 예를 들어, 사용자는 우측 뷰로부터 좌측 뷰를 필터링하는 편광된, 수동 안경을 착용할 수도 있다. 다른 예들에서, 2개의 뷰들의 화상들은 빨리 연달아 보여질 수도 있으며, 사용자는 좌측 및 우측 눈들을 동일한 주파수에서, 그러나 위상에서 90 도 시프트로 빨리 셔터를 여닫는 능동 안경을 착용할 수도 있다.
일반적으로, 본 개시물은 3D 비디오 코딩을 위한 기법들을 기술한다. 특히, 본 개시물은 디스패리티 벡터 유도에 관련된다. 본 개시물의 일부 기법들에 따르면, 비디오 코더는 현재의 화상의 슬라이스에 대한 유도된 디스패리티 벡터 (DDV) 를 저장할 수도 있다. 비디오 코더는 슬라이스에 대한 DDV 에 적어도 부분적으로 기초하여, 슬라이스의 제 1 블록에 대한 이웃하는 블록 기반의 디스패리티 벡터 (NBDV) 를 유도할 수도 있다. 비디오 코더는 제 1 블록에 대한 NBDV 에 적어도 부분적으로 기초하여 제 1 블록을 코딩할 수도 있다. 게다가, 비디오 코더는 제 1 블록에 대한 NBDV 를 슬라이스에 대한 DDV 로서 저장할 수도 있다. 제 1 블록에 대한 NBDV 를 슬라이스에 대한 DDV 로서 저장한 후, 비디오 코더는 슬라이스에 대한 DDV 에 적어도 부분적으로 기초하여, 슬라이스의 제 2 블록에 대한 NBDV 를 유도할 수도 있다. 게다가, 비디오 코더는 제 2 블록에 대한 NBDV 에 적어도 부분적으로 기초하여 제 2 블록을 코딩할 수도 있다. 일부의 경우, 비디오 코더는 제 2 블록에 대한 NBDV 를 슬라이스에 대한 DDV 로서 저장할 수도 있다. 비디오 코더는 슬라이스의 추가적인 블록들에 대해 이 프로세스를 계속할 수도 있다.
일 예에서, 본 개시물은 비디오 데이터를 디코딩하는 방법을 기술하며, 본 방법은 비디오 데이터의 현재의 화상의 슬라이스에 대해 단지 하나의 DDV 를 저장하는 단계로서, 상기 슬라이스는 다수의 블록들을 포함하는, 상기 저장하는 단계; 특정의 블록에 대한 디스패리티 벡터를 결정하기 위해 NBDV 유도 프로세스에서 슬라이스에 대한 DDV 를 사용하는 단계로서, 상기 특정의 블록은 슬라이스의 블록들 중 하나인, 상기 사용하는 단계; 및 슬라이스에 대한 DDV 로서, 특정의 블록에 대한 디스패리티 벡터를 저장하는 단계를 포함한다.
또 다른 예에서, 본 개시물은 비디오 데이터를 인코딩하는 방법을 기술하며, 본 방법은 비디오 데이터의 현재의 화상의 슬라이스에 대해 단지 하나의 DDV 를 저장하는 단계로서, 상기 슬라이스는 다수의 블록들을 포함하는, 상기 저장하는 단계; 특정의 블록에 대한 디스패리티 벡터를 결정하기 위해 NBDV 유도 프로세스에서 슬라이스에 대한 DDV 를 사용하는 단계로서, 상기 특정의 블록은 슬라이스의 블록들 중 하나인, 상기 사용하는 단계; 및 슬라이스에 대한 DDV 로서, 특정의 블록에 대한 디스패리티 벡터를 저장하는 단계를 포함한다.
또 다른 예에서, 본 개시물은 비디오 데이터를 저장하는 메모리; 및 하나 이상의 프로세서들을 포함하는 비디오 코딩 디바이스를 기술하며, 상기 하나 이상의 프로세서들은, 비디오 데이터의 현재의 화상의 슬라이스에 대해 단지 하나의 DDV 를 저장하고; 특정의 블록에 대한 디스패리티 벡터를 결정하기 위해 NBDV 유도 프로세스에서 슬라이스에 대한 DDV 를 사용하고; 그리고, 슬라이스에 대한 DDV 로서, 특정의 블록에 대한 디스패리티 벡터를 저장하도록 구성되며, 상기 슬라이스는 다수의 블록들을 포함하며, 상기 특정의 블록은 슬라이스의 블록들 중 하나이다.
또 다른 예에서, 본 개시물은 비디오 데이터를 코딩하도록 구성된 비디오 코딩 디바이스를 기술하며, 상기 비디오 코딩 디바이스는, 비디오 데이터의 현재의 화상의 슬라이스에 대해 단지 하나의 DDV 를 저장하는 수단으로서, 상기 슬라이스는 다수의 블록들을 포함하는, 상기 저장하는 수단; 특정의 블록에 대한 디스패리티 벡터를 결정하기 위해 NBDV 유도 프로세스에서 슬라이스에 대한 DDV 를 사용하는 수단으로서, 특정의 블록은 슬라이스의 블록들 중 하나인, 상기 저장하는 수단; 및 슬라이스에 대한 DDV 로서, 특정의 블록에 대한 디스패리티 벡터를 저장하는 수단을 포함한다.
또 다른 예에서, 본 개시물은 명령들을 안에 저장하고 있는 비일시적 컴퓨터 판독가능 매체를 기술하며, 상기 명령들은, 실행될 때, 비디오 코딩 디바이스의 하나 이상의 프로세서들로 하여금, 비디오 데이터의 현재의 화상의 슬라이스에 대해 단지 하나의 DDV 를 저장하게 하고; 특정의 블록에 대한 디스패리티 벡터를 결정하기 위해 NBDV 유도 프로세스에서 슬라이스에 대한 DDV 를 사용하게 하고; 그리고, 슬라이스에 대한 DDV 로서, 특정의 블록에 대한 디스패리티 벡터를 저장하게 하며, 상기 슬라이스는 다수의 블록들을 포함하며, 상기 특정의 블록은 슬라이스의 블록들 중 하나이다.
하나 이상의 예들의 세부 사항들이 첨부도면 및 아래의 상세한 설명에서 개시된다. 다른 특성들, 목적들, 및 이점들은 설명, 도면들, 및 청구범위로부터 명백히 알 수 있을 것이다.
도 1 은 본 개시물에서 설명하는 기법들을 이용할 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템을 예시하는 블록도이다.
도 2 는 멀티-뷰 코딩을 위한 예시적인 예측 구조를 예시하는 개념도이다.
도 3 은 예시적인 멀티-뷰 디코딩 순서를 예시하는 개념도이다.
도 4 는 역방향 와핑 (warping) 에 기초한 블록-기반 뷰 합성 예측 VSP (B-VSP) 의 예시적인 개념적 시각화이다.
도 5 는 이웃하는 블록-기반 디스패리티 벡터 (NBDV) 유도 프로세스를 위한 예시적인 공간 이웃하는 블록들을 예시하는 개념도이다.
도 6 은 NBDV 유도 프로세스를 위한 예시적인 시간 이웃하는 블록들을 예시하는 개념도이다.
도 7 은 본 개시물의 하나 이상의 기법들을 구현할 수도 있는 예시적인 비디오 인코더를 예시하는 블록도이다.
도 8 은 본 개시물의 하나 이상의 기법들을 구현할 수도 있는 예시적인 비디오 디코더를 예시하는 블록도이다.
도 9a 는 본 개시물의 일 예에 따른, 비디오 인코더의 예시적인 동작을 예시하는 플로우차트이다.
도 9b 는 본 개시물의 일 예에 따른, 비디오 디코더의 예시적인 동작을 예시하는 플로우차트이다.
도 10 은 본 개시물의 일 예에 따른, 예시적인 디스패리티 벡터 유도 동작을 예시하는 플로우차트이다.
일반적으로, 본 개시물은 (예컨대, H.264 AVC 의 멀티-뷰 비디오 코딩 (MVC) 확장판에서) H.264/AVC (Advanced Video Coding) 코덱에 의한 2개의 이상의 뷰들의 코딩을 포함한, 진보된 코덱들에 기초한 멀티-뷰 비디오 코딩을 위한 기법들을 설명한다. 본 개시물은 디스패리티 벡터 유도에 관련된 기법들을 제안한다. 3D AVC-기반 비디오 코딩 (즉, 3D-AVC) 은 3차원 (3D) 비디오 코딩을 위한 H.264/AVC 의 AVC-호환가능한 비디오-플러스-심도 확장판이다. H.264/AVC 의 MVC 플러스 심도 (MVC+D) 확장판과 유사하게, 3D-AVC 는 텍스쳐 및 심도 맵 성분들의 코딩을 지원한다. 그러나, 본 개시물의 기법들은 HEVC (High Efficiency Video Coding) 표준의 멀티-뷰 확장판들을 포함한, 임의의 멀티-뷰 비디오 코딩 기법들에 포괄적으로 적용가능할 수도 있다.
멀티-뷰 비디오 코딩에서, 상이한 뷰들의 비디오 콘텐츠는 상이한 관점들을 나타낼 수도 있다. 예를 들어, 제 1 뷰 내 화상에서의 비디오 블록은 제 2 뷰 내 화상에서의 비디오 블록과 유사한 비디오 콘텐츠를 포함할 수도 있다. 이 예에서, 제 1 뷰 내 화상에서의 비디오 블록의 로케이션 및 제 2 뷰 내 화상에서의 비디오 블록의 로케이션은 상이할 수도 있다. 예를 들어, 상이한 뷰들에서의 비디오 블록들의 로케이션들 사이에 일부 변위 (즉, 디스패리티) 가 있을 수도 있다. 멀티-뷰 비디오 코딩에서, 상이한 뷰들로부터의 재구성된 뷰 성분들에 기초한 인터-뷰 예측이 이용가능하게 될 수도 있다. 인터-뷰 예측은 비디오의 동일한 시간 인스턴스를 나타내는 각각의 뷰의 화상들이 유사한 비디오 콘텐츠를 포함할 수도 있다는 사실을 이용함으로써 코딩 이득들을 달성할 수도 있다.
현재의 화상에서의 비디오 블록이 인터-뷰 예측을 사용하여 코딩될 때, 블록은 인터-뷰 참조 화상에서의 로케이션을 나타내는 모션 벡터를 가질 수도 있다. 인터-뷰 참조 화상은 현재의 화상과 동일한 시간 인스턴스에 있지만 (즉, 그와 연관되지만) 현재의 화상과는 상이한 뷰에 있는 (즉, 연관되는) 참조 화상일 수도 있다. 블록의 모션 벡터가 인터-뷰 참조 화상에서의 로케이션을 나타내면, 모션 벡터는 디스패리티 모션 벡터로서 지칭될 수도 있다. 비디오 코더 (예컨대, 비디오 인코더 또는 비디오 디코더) 는 현재의 블록의 디스패리티 모션 벡터를 사용하여 현재의 블록에 대한 예측 블록을 결정할 수도 있다. 비디오 코더가 비디오 인코더이면, 비디오 코더는 현재의 블록에 대한 예측 블록을 사용하여 현재의 블록에 대한 잔여 데이터를 발생시킬 수도 있다. 비디오 코더가 비디오 디코더이면, 비디오 코더는 현재의 블록에 대한 예측 블록 및 현재의 블록에 대한 잔여 데이터를 사용하여, 현재의 비디오 블록에 대한 샘플 값들을 재구성할 수도 있다.
더욱이, 특정의 화상에서의 블록들은 인터-뷰 참조 화상에서 대응하는 블록의 모션 정보 또는 잔여 데이터와 유사한 모션 정보 또는 잔여 데이터를 가질 수도 있다. 따라서, 비디오 코더는 인터-뷰 참조 화상에서의 대응하는 블록의 모션 정보 또는 잔여 데이터에 기초하여, 현재의 화상에서의 현재의 블록의 모션 정보 또는 잔여 데이터를 예측할 수도 있다. 비디오 코더는 인터-뷰 참조 화상에 기초하여 대응하는 블록의 로케이션을 결정하기 위해 현재의 블록에 대한 디스패리티 벡터를 결정할 수도 있다. 비디오 코더는 현재의 블록이 디스패리티 모션 벡터를 갖는지 여부에 관계없이, 인터-뷰 참조 화상에서의 대응하는 블록의 모션 정보 또는 잔여 데이터에 기초하여, 현재의 블록의 모션 정보 또는 잔여 데이터를 예측할 수도 있다. 따라서, 현재의 블록의 모션 정보 또는 잔여 데이터가 인터-뷰 참조 화상에서의 대응하는 블록의 모션 정보 또는 잔여 데이터에 기초하여 예측되면, 현재의 블록은 디스패리티 벡터를 갖는다고 한다. 디스패리티 벡터는 디스패리티 벡터가 이후 코딩되는 블록들의 디스패리티 벡터 유도 프로세스에 이용될 때 암시적인 디스패리티 벡터 (IDV) 로서 지칭될 수도 있다. 현재의 블록에 대한 디스패리티 벡터는 이전 블록들 중 하나에 대한 디스패리티 벡터와 동일할 수도 있다.
비디오 코더는 이웃하는 블록-기반 디스패리티 벡터 (NBDV) 유도 프로세스를 사용하여, 현재의 블록에 대한 디스패리티 벡터를 유도할 수도 있다. NBDV 유도 프로세스에서, 비디오 코더는 현재의 블록에 이웃하는 블록들을 체킹할 수도 있다. 이웃하는 블록들은 공간 이웃하는 블록들 및 시간 이웃하는 블록들을 포함할 수도 있다. 공간 이웃하는 블록들은 현재의 블록과 동일한 화상 (즉, 현재의 화상) 에 있다. 시간 이웃하는 블록들은 현재의 화상과는 다른 하나 이상의 화상들에 있다. 비디오 코더가 이웃하는 블록을 체크할 때, 비디오 코더는 이웃하는 블록이 디스패리티 모션 벡터를 갖는지 여부를 결정할 수도 있다. 이웃하는 블록들 중 하나가 디스패리티 모션 벡터를 가진다고 비디오 코더가 결정하면, 비디오 코더는 이웃하는 블록들을 체킹하는 것을 중지할 수도 있으며, 이웃하는 블록의 디스패리티 모션 벡터를 현재의 블록에 대한 디스패리티 벡터로 변환할 수도 있다. 더욱이, 어떤 이웃하는 블록들도 디스패리티 모션 벡터를 갖지 않으면, 비디오 코더는 공간 이웃하는 블록들 중 임의의 블록이 IDV 를 갖는지 여부를 결정할 수도 있다. 공간 이웃하는 블록들 중 하나가 IDV 를 가진다고 비디오 코더가 결정하면, 비디오 코더는 이웃하는 블록들을 체킹하는 것을 중지할 수도 있으며 이웃하는 블록의 IDV 를 현재의 블록에 대한 디스패리티 벡터로 변환할 수도 있다.
기존 NBDV 유도 프로세스들과 관련하여 여러 문제들이 존재한다. 예를 들어, NBDV 유도 프로세스에서의 IDVs 의 사용은 스토리지 요구사항들 및 메모리 액세스들의 개수에서의 상당한 증가를 필요로 할 수도 있다. 본 개시물의 기법들은 NBDV 유도 프로세스들에 관한 이러한 문제들을 해결할 수도 있다. 예를 들어, 비디오 코더는 본 개시물의 기법에 따라서, 비디오 데이터의 현재의 화상의 슬라이스에 대한 유도된 디스패리티 벡터 (DDV) 에 적어도 부분적으로 기초하여, 슬라이스의 제 1 블록에 대한 NBDV 를 유도할 수도 있다. 슬라이스는 비디오 데이터의 하나 이상의 블록들을 포함할 수도 있다. 비디오 코더는 제 1 블록에 대한 NBDV 에 적어도 부분적으로 기초하여 제 1 블록을 코딩할 수도 있다. 게다가, 비디오 코더는 제 1 블록에 대한 NBDV 를 슬라이스에 대한 업데이트된 DDV 로서 저장할 수도 있다. 제 1 블록에 대한 NBDV 를 업데이트된 DDV 로서 저장한 후, 비디오 코더는 업데이트된 DDV 에 적어도 부분적으로 기초하여, 슬라이스의 제 2 블록에 대한 NBDV 를 유도할 수도 있다. 게다가, 비디오 코더는 제 2 블록에 대한 NBDV 에 적어도 부분적으로 기초하여 제 2 블록을 코딩할 수도 있다. 이 프로세스는 슬라이스에서의 각각의 블록에 대해 계속할 수도 있다. 특히, 슬라이스에 대한 DDV 는 이전 코딩된 블록의 NBDV 에 기초하여 업데이트될 수도 있으며, 그후 업데이트된 DDV 가 다음 블록에 대한 NBDV 를 유도하는데 이용된다. 이와 같이 DDV 를 이용함으로써, 비디오 코더는 슬라이스의 블록들에 대한 더 정확한 디스패리티 벡터들을 결정가능하게 할 수도 있다. 디스패리티 벡터들의 정확도를 증가시키는 것은 비트스트림 사이즈를 감소시킬 수도 있다.
도 1 은 본 개시물에서 설명하는 기법들을 활용할 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템 (10) 을 예시하는 블록도이다. 본원에서 사용될 때, 용어 "비디오 코더" 는 비디오 인코더들 및 비디오 디코더들 양쪽을 포괄적으로 지칭한다. 본 개시물에서, 용어들 "비디오 코딩" 또는 "코딩" 은 비디오 인코딩 또는 비디오 디코딩을 포괄적으로 지칭할 수도 있다.
도 1 에 나타낸 바와 같이, 시스템 (10) 은 목적지 디바이스 (14) 에 의해 추후 디코딩될 인코딩된 비디오 데이터를 발생시키는 소스 디바이스 (12) 를 포함한다. 따라서, 소스 디바이스 (12) 는 비디오 인코딩 디바이스 또는 비디오 인코딩 장치로서 지칭될 수도 있다. 목적지 디바이스 (14) 는 소스 디바이스 (12) 에 의해 발생된 인코딩된 비디오 데이터를 디코딩할 수도 있다. 따라서, 목적지 디바이스 (14) 는 비디오 디코딩 디바이스 또는 비디오 디코딩 장치로서 지칭될 수도 있다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 비디오 코딩 디바이스들 또는 비디오 코딩 장치들의 예들일 수도 있다.
소스 디바이스 (12) 및 목적지 디바이스 (14) 는 데스크탑 컴퓨터들, 노트북 (즉, 랩탑) 컴퓨터들, 태블릿 컴퓨터들, 셋-탑 박스들, 소위 "스마트" 폰들과 같은 전화기 핸드셋들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스들, 또는 기타 등등을 포함한, 광범위한 디바이스들 중 임의의 디바이스를 포함할 수도 있다. 일부의 경우, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 무선 통신용으로 탑재될 수도 있다.
도 1 의 예에서, 소스 디바이스 (12) 는 비디오 소스 (18), 비디오 인코더 (20), 및 출력 인터페이스 (22) 를 포함한다. 일부 예들에서, 출력 인터페이스 (22) 는 변조기/복조기 (모뎀) 및/또는 송신기를 포함한다. 비디오 소스 (18) 는 비디오 캡쳐 디바이스 (예컨대, 비디오 카메라), 이전에-캡쳐된 비디오를 포함하는 비디오 아카이브, 비디오 콘텐츠 제공자로부터 비디오를 수신하는 비디오 공급 인터페이스, 및/또는 컴퓨터 그래픽스 데이터를 소스 비디오로서 발생하는 컴퓨터 그래픽스 시스템, 또는 이러한 소스들의 조합과 같은, 소스를 포함할 수도 있다. 일 예로서, 비디오 소스 (18) 가 비디오 카메라이면, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 소위 카메라 폰들 또는 비디오 폰들을 형성할 수도 있다. 그러나, 본 개시물에서 설명하는 기법들은 비디오 코딩에 일반적으로 적용가능할 수도 있으며, 무선 및/또는 유선 애플리케이션들에 적용될 수도 있다.
캡쳐되거나, 사전-캡쳐되거나, 또는 컴퓨터-발생된 비디오는 비디오 인코더 (20) 에 의해 인코딩될 수도 있다. 소스 디바이스 (12) 의 출력 인터페이스 (22) 는 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로 직접 송신할 수도 있다. 저장 디바이스 (34) 는 목적지 디바이스 (14) 또는 디코딩 및/또는 플레이백을 위한 다른 디바이스들에 의한 추후 액세스를 위해 그 인코딩된 비디오 데이터를 저장할 수도 있다.
목적지 디바이스 (14) 는 입력 인터페이스 (28), 비디오 디코더 (30), 및 디스플레이 디바이스 (32) 를 포함한다. 일부의 경우, 입력 인터페이스 (28) 는 수신기 및/또는 모뎀을 포함할 수도 있다. 목적지 디바이스 (14) 의 입력 인터페이스 (28) 는 링크 (16) 를 통해서 인코딩된 비디오 데이터를 수신할 수도 있다. 링크 (16) 를 통해서 통신되거나, 또는 저장 디바이스 (34) 상에 저장되는, 인코딩된 비디오 데이터는 비디오 데이터를 디코딩할 때에, 비디오 디코더 (30) 와 같은 비디오 디코더에 의한 사용을 위해, 비디오 인코더 (20) 에 의해 발생되는 다양한 구문 엘리먼트들을 포함할 수도 있다. 이런 구문 엘리먼트들은 통신 매체 상으로 송신되거나, 저장 매체 상에 저장되거나, 또는 파일 서버에 저장된 인코딩된 비디오 데이터와 함께 포함될 수도 있다.
디스플레이 디바이스 (32) 는 목적지 디바이스 (14) 와 통합되거나 또는 그 외부에 있을 수도 있다. 일부 예들에서, 목적지 디바이스 (14) 는 통합된 디스플레이 디바이스를 포함하며, 또한 외부 디스플레이 디바이스와 인터페이스하도록 구성될 수도 있다. 다른 예들에서, 목적지 디바이스 (14) 는 디스플레이 디바이스일 수도 있다. 일반적으로, 디스플레이 디바이스 (32) 는 그 디코딩된 비디오 데이터를 사용자에게 디스플레이하며, 액정 디스플레이 (LCD), 플라즈마 디스플레이, 유기 발광 다이오드 (OLED) 디스플레이, 또는 또 다른 유형의 디스플레이 디바이스와 같은 다양한 디스플레이 디바이스들 중 임의의 디바이스를 포함할 수도 있다.
위에서 나타낸 바와 같이, 목적지 디바이스 (14) 는 링크 (16) 를 통해서, 디코딩될 인코딩된 비디오 데이터를 수신할 수도 있다. 링크 (16) 는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로 이동시킬 수 있는 매체 또는 디바이스의 유형을 포함할 수도 있다. 일 예에서, 링크 (16) 는 소스 디바이스 (12) 로 하여금 인코딩된 비디오 데이터를 직접 목적지 디바이스 (14) 로 실시간으로 송신할 수 있게 하는 통신 매체를 포함할 수도 있다. 인코딩된 비디오 데이터는 무선 통신 프로토콜과 같은 통신 표준에 따라서 변조되어 목적지 디바이스 (14) 로 송신될 수도 있다. 통신 매체는 무선 주파수 (RF) 스펙트럼 또는 하나 이상의 물리적인 송신 라인들과 같은, 임의의 무선 또는 유선 통신 매체를 포함할 수도 있다. 통신 매체는 근거리 네트워크, 광역 네트워크, 또는 글로벌 네트워크, 예컨대 인터넷과 같은 패킷-기반 네트워크의 일부를 형성할 수도 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다.
대안적으로, 인코딩된 데이터는 출력 인터페이스 (22) 로부터 저장 디바이스 (34) 로 출력될 수도 있다. 이와 유사하게, 인코딩된 데이터는 입력 인터페이스 (28) 에 의해 저장 디바이스 (34) 로부터 액세스될 수도 있다. 저장 디바이스 (34) 는 하드 드라이브, Blu-ray 디스크들, DVDs, CD-ROMs, 플래시 메모리, 휘발성 또는 비-휘발성 메모리, 또는 인코딩된 비디오 데이터를 저장하기 위한 임의의 다른 적합한 디지털 저장 매체들과 같은 다양한 분산된 또는 로컬 액세스되는 데이터 저장 매체들 중 임의의 데이터 저장 매체를 포함할 수도 있다. 추가 예에서, 저장 디바이스 (34) 는 소스 디바이스 (12) 에 의해 발생된 인코딩된 비디오를 유지할 수도 있는 파일 서버 또는 또 다른 중간 저장 디바이스에 대응할 수도 있다. 목적지 디바이스 (14) 는 저장된 비디오 데이터에 저장 디바이스 (34) 로부터 스트리밍 또는 다운로드를 통해서 액세스할 수도 있다. 파일 서버는 인코딩된 비디오 데이터를 저장하고 송신하는 그 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로 송신하는 것이 가능한 임의 종류의 서버일 수도 있다. 예시적인 파일 서버들은 (예컨대, 웹사이트들용) 웹 서버들, 파일 전송 프로토콜 (FTP) 서버들, NAS (network attached storage) 디바이스들, 로컬 디스크 드라이브들, 또는 데이터를 다른 컴퓨팅 디바이스들에 제공하는 다른 유형들의 디바이스들 또는 시스템들을 포함한다. 목적지 디바이스 (14) 는 인터넷 접속을 포함한, 임의의 표준 데이터 접속을 통해서, 인코딩된 비디오 데이터에 액세스할 수도 있다. 이것은 파일 서버 상에 저장된 인코딩된 비디오 데이터에 액세스하는데 적합한, 무선 채널 (예컨대, Wi-Fi 접속), 유선 접속 (예컨대, DSL, 케이블 모뎀 등), 또는 양자의 조합을 포함할 수도 있다. 저장 디바이스 (34) 로부터의 인코딩된 비디오 데이터의 송신은 스트리밍 송신, 다운로드 송신, 또는 이 양쪽의 조합일 수도 있다.
본 개시물의 기법들은 반드시 무선 애플리케이션들 또는 설정들에 한정되지는 않는다. 이 기법들은 오버-디-에어 텔레비전 브로드캐스트들, 케이블 텔레비전 송신들, 위성 텔레비전 송신들, 예컨대, 인터넷을 통한 스트리밍 비디오 송신들, 데이터 저장 매체 상에의 저장을 위한 디지털 비디오의 인코딩, 데이터 저장 매체 상에 저장된 디지털 비디오의 디코딩, 또는 다른 애플리케이션들과 같은, 다양한 멀티미디어 애플리케이션들 중 임의의 애플리케이션의 지원 하에 비디오 코딩에 적용될 수도 있다. 일부 예들에서, 시스템 (10) 은 비디오 스트리밍, 비디오 플레이백, 비디오 브로드캐스팅, 및/또는 비디오 전화 통신과 같은, 지원 애플리케이션들로의 1-방향 또는 2-방향 비디오 송신을 지원하도록 구성될 수도 있다.
도 1 에 나타내지는 않지만, 일부 양태들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 오디오 인코더 및 디코더와 각각 통합될 수도 있으며, 오디오 및 비디오 양쪽의 인코딩을 공통 데이터 스트림 또는 별개의 데이터 스트림들로 처리하기에 적합한 MUX-DEMUX 유닛들, 또는 다른 하드웨어 및 소프트웨어를 포함할 수도 있다. 적용가능한 경우, 일부 예들에서, MUX-DEMUX 유닛들은 ITU H.223 멀티플렉서 프로토콜, 또는 다른 프로토콜들, 예컨대, 사용자 데이터그램 프로토콜 (UDP) 을 따를 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSPs), 주문형 집적회로들 (ASICs), 필드 프로그래밍가능 게이트 어레이들 (FPGAs), 이산 로직, 소프트웨어, 하드웨어, 펌웨어 또는 임의의 이들의 조합들과 같은, 다양한 적합한 인코더 회로 중 임의의 회로로 구현될 수도 있다. 이 기법들이 소프트웨어로 부분적으로 구현되는 경우, 디바이스는 본 개시물의 기법들을 수행하기 위해서, 소프트웨어용 명령들을 적합한 비일시적 컴퓨터 판독가능 매체에 저장할 수도 있으며 하드웨어에서 하나 이상의 프로세서들을 사용하여 그 명령들을 실행할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 인코더들 또는 디코더들에 포함될 수도 있으며, 이들 중 어느 쪽이든 각각 디바이스에서 결합된 인코더/디코더 (CODEC) 의 부분으로서 통합될 수도 있다.
본 개시물은 일반적으로 어떤 정보를 비디오 디코더 (30) 와 같은 또 다른 디바이스로 "시그널링하는" 비디오 인코더 (20) 를 언급할 수도 있다. 용어 "시그널링" 은 일반적으로, 압축된 비디오 데이터를 디코딩하는데 사용되는 구문 엘리먼트들 및/또는 다른 데이터의 통신을 지칭할 수도 있다. 이런 통신은 실시간 또는 거의-실시간으로 일어날 수도 있다. 대안적으로, 이런 통신은 어떤 기간에 걸쳐서 일어날 수도 있으며, 예컨대 인코딩 시에 구문 엘리먼트들을 컴퓨터 판독가능 저장 매체에 인코딩된 비트스트림으로 저장할 때에 발생할지도 모르며, 이 구문 엘리먼트들은 그후 이 매체에 저장되어진 후 언제라도 디코딩 디바이스에 의해 취출될 수도 있다. 따라서, 시그널링은 일반적으로, 인코딩된 비트스트림을 프로세싱 및/또는 디코딩할 때에 사용하기 위해 인코딩된 비트스트림으로 정보를 제공하는 것을 지칭할 수도 있다.
일부 예들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 ISO/IEC MPEG-4 Visual 및 ITU-T H.264 (또한, ISO/IEC MPEG-4 AVC 로서 알려짐) 와 같은, 그의 스케일러블 비디오 코딩 (SVC) 확장판, 멀티-뷰 비디오 코딩 (MVC) 확장판, 및 MVC-기반의 3DV 확장판을 포함한, 비디오 압축 표준에 따라서 동작한다. 더욱이, H.264/AVC 에 대한 3차원 비디오 (3DV) 코딩 확장판, 즉 AVC-기반 3DV 또는 "3D-AVC" 를 생성하려는 노력이 진행 중에 있다. H.264 의 MVC 확장판의 합동 초안은 2010 년 3월, ITU-T 권고안 H.264, "Advanced Video Coding for generic audiovisual services" (이하, H.264/AVC 사양") 에 설명되어 있다. 다른 예들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 ITU-T H.261, ISO/IEC MPEG-1 Visual, ITU-T H.262 또는 ISO/IEC MPEG-2 Visual, 및 ITU-T H.263, ISO/IEC-4 Visual 에 따라서 동작할 수도 있다. 본 개시물의 기법들은, 그러나, 임의의 특정의 코딩 표준에 한정되지 않는다.
위에서 나타낸 바와 같이, VCEG 및 MPEG 의 3D 비디오 코딩에 관한 합동 연구팀 (JCT-3V) 이 H.264/AVC 에 기초한 3DV 표준, 즉, 3D-AVC 를 현재 개발하고 있다. 3D-AVC 에 있어, MVC 에서의 인터-뷰 예측에 더해서 새로운 코딩 툴들이 포함되어 지원되고 있다. 2014년 3월 3일 현재, 3D-AVC (즉, 3D-ATM) 를 위한 소프트웨어는 다음 링크로부터 다운로드될 수 있다: [3D-ATM 버전 6.2]: http://mpeg3dv.research.nokia.com/svn/mpeg3dv/tags/3DV-ATMv6.2/. 3D-AVC 의 초안 버전은 공연히 입수가능하며: 2013 년 1월, 스위스, 제네바, Hannuksela 등, "3D-AVC draft text 5", JCT3V-C1002 (이하, "3D-AVC draft text 5"), 이의 전체 내용이 본원에 참고로 포함된다. 2014년 3월 3일 현재, 3D-AVC draft text 5 는 다음 링크로부터 입수가능하다: http://phenix.it-sudparis.eu/jct2/doc_end_user/documents/3_Geneva/wg11/JCT3V-C1002-v3.zip.
다른 예들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 ITU-T 비디오 코딩 전문가 그룹 (VCEG) 과 ISO/IEC 동화상 전문가 그룹 (MPEG) 의 비디오 코딩에 관한 합동 작업팀 (JCT-VC) 에 의해 개발된 HEVC (High Efficiency Video Coding) 표준 또는 HEVC 의 확장판에 따라서 동작할 수도 있다. 11차 회의: 2012년 10월 10-19일, 중국, 상하이, Bross 등, "High Efficiency Video Coding (HEVC) text specification draft 9", 문서 JCTVC-K1003 는 "HEVC 작업 초안 9 (HEVC Working Draft 9)" 로서 지칭되는, HEVC 표준의 작업 초안을 제공한다. 2014년 3월 3일 현재, HEVC 작업 초안 9 는 http://phenix.int-evry.fr/jct/doc_end_user/documents/11_Shanghai/wg11/JCTVC-K1003-v12.zip 에서 다운로드로 가능하다.
더욱이, HEVC 에 대한 멀티-뷰 코딩 및 3DV 확장판들을 생성하려는 노력들이 진행 중에 있다. 다시 말해서, VCEG 및 MPEG 의 3D 비디오 코딩에 관한 합동 연구팀 (JCT-3V) 이 HEVC 에 기초한 3DV 표준을 개발하고 있으며, 표준화 노력들의 부분은 HEVC 에 기초한 멀티-뷰 비디오 코덱 (MV-HEVC) 의 표준화 및 HEVC 에 기초한 3D 비디오 코딩 (3D-HEVC) 을 위한 또 다른 부분을 포함한다. 비디오 인코더 (20) 및 비디오 디코더 (30) 는 HEVC 표준에 대한 이러한 확장판들에 따라서 동작할 수도 있다. HEVC 의 멀티-뷰 코딩 확장판은 MV-HEVC 로서 지칭될 수도 있다. Tech 등, "MV-HEVC Working Draft 1", JCT3V-A1004, ITU-T SG 16 WP 3 와 ISO/IEC JTC 1/SC 29/WG 11 의 3D 비디오 코딩 확장판 개발에 관한 합동 협업팀, 1차 회의: 2012년 7월 16-20일, 스웨덴, 스톡홀름, (이하, "JCT3V-A1004" 또는 "MV-HEVC 작업 초안 1 (MV-HEVC Working Draft 1)") 은, MV-HEVC 에 대한 작업 초안을 제공한다. Tech 등, "MV-HEVC Working Draft 2", JCT3V-B1004, ITU-T SG 16 WP 3 와 ISO/IEC JTC 1/SC 29/WG 11 의 3D 비디오 코딩 확장판 개발에 관한 합동 협업팀, 2차 회의: 2012년 10월 13-19일, 중국, 상하이 (이하, "MV-HEVC 작업 초안 2 (MV-HEVC Working Draft 2)") 은, MV-HEVC 에 대한 또 다른 작업 초안을 제공한다.
HEVC 의 3DV 확장판은 3D-HEVC 로서 지칭될 수도 있다. Tech 등, "Draft of 3D-HEVC Test Model Description Draft", JCT3V-B1005, ITU-T SG 16 WP 3 와 ISO/IEC JTC 1/SC 29/WG 11 의 3D 비디오 코딩 확장판 개발에 관한 합동 협업팀, 1차 회의: 2012년 7월 16-20일, 스웨덴, 스톡홀름 (이하, "3D-HEVC 테스트 모델 1") 은 3D-HEVC 의 작업 초안 뿐만 아니라 참조 소프트웨어를 기술한다. Tech 등, "3D-HEVC Test Model Description draft 2", JCT3V-B1005, ITU-T SG 16 WP 3 와 ISO/IEC JTC 1/SC 29/WG 11 의 3D 비디오 코딩 확장판 개발에 관한 합동 협업팀, 2차 회의: 2012 년 10월, 중국, 상하이 (이하, "3D-HEVC 테스트 모델 2") 은 3D-HEVC 의 또 다른 작업 초안 뿐만 아니라, 참조 소프트웨어 설명을 포함한다.
비디오 시퀀스는 일반적으로 비디오 프레임들의 시리즈를 포함한다. 비디오 인코더 (20) 는 일반적으로 비디오 데이터를 인코딩하기 위해 개개의 비디오 프레임들 내 비디오 블록들에 대해 동작할 수도 있다. 본 개시물은 샘플들의 하나 이상의 블록들의 샘플들 (즉, "샘플 블록들") 을 코딩하는데 사용되는 하나 이상의 샘플 블록들 및 구문 구조들을 지칭하기 위해, 용어 "비디오 블록" 또는 "블록" 을 사용할 수도 있다. 블록들의 예시적인 유형들은 매크로블록들, 매크로블록 파티션들, 서브-매크로블록들, 코딩 유닛들, 예측 유닛들, 코딩 트리 블록들 등을 포함할 수도 있다.
비디오 블록들의 샘플 블록들은 고정 또는 가변 사이즈들을 가질 수도 있으며, 규정된 코딩 표준에 따라서 사이즈가 상이할 수도 있다. 샘플 (즉, "샘플 값") 은 픽셀의 칼라 성분 (예컨대, 루마 또는 크로마 성분) 을 나타낼 수도 있다. 일부의 경우, 샘플은 심도 값을 나타낼 수도 있다.
H.264/AVC 에서, 화상들의 그룹 (GOP) 은 일반적으로 하나 이상의 비디오 프레임들의 시리즈를 포함한다. GOP 는 GOP 의 헤더, GOP 의 하나 이상의 프레임들의 헤더, 또는 다른 곳에, GOP 에 포함된 다수의 프레임들을 기술하는 구문 데이터를 포함할 수도 있다. 각각의 프레임은 각각의 프레임에 대한 인코딩 모드를 기술하는 프레임 구문 데이터를 포함할 수도 있다.
더욱이, H.264/AVC 에서, 비디오 블록은 매크로블록 (MB) 또는 매크로블록의 파티션 (즉, 매크로블록 파티션) 에 대응할 수도 있다. MB 는 루마 샘플들의 16x16 블록 및 3개의 샘플 어레이들을 가지는 화상의 크로마 샘플들의 2개의 대응하는 블록들, 또는 단색 화상 또는 3개의 별개의 칼라 평면들을 사용하여 코딩되는 화상의 샘플들의 16x16 블록이다. MB 파티션은 루마 샘플들의 블록 및 3개의 샘플 어레이들을 가지는 화상에 대한 인터 예측을 위한 매크로블록의 파티셔닝으로부터 기인하는 크로마 샘플들의 2개의 대응하는 블록들, 또는 단색 화상 또는 3개의 별개의 칼라 평면들을 사용하여 코딩되는 화상의 인터 예측을 위한 매크로블록의 파티셔닝에 기인하는 루마 샘플들의 블록이다. H.264/AVC 에서, 각각의 인터-예측된 매크로블록은 다음 4개의 상이한 방법들로 파티셔닝될 수도 있다: 하나의 16x16 매크로블록 파티션, 2개의 16x8 매크로블록 파티션들, 2개의 8x16 매크로블록 파티션들, 및 4개의 8x8 매크로블록 파티션들. 하나의 MB 에서의 상이한 MB 파티션들은 각각의 예측 방향에 대해 상이한 참조 인덱스 값들 (즉, RefPicList0 또는 RefPicList1) 을 가질 수도 있다.
H.264/AVC 에서의 매크로블록의 컨셉은 HEVC 에 존재하지 않는다. 대신, 매크로블록들은 일반적인 쿼드트리 방식에 기초하여 매우 유연한 계층적 구조로 대체된다. 이 방식에 의하면, 블록들의 3개의 유형들, 즉, 코딩 유닛들 (CUs), 예측 유닛들 (PUs), 및 변환 유닛들 (TUs) 이 정의된다. CU 는 영역 분할의 기본적인 단위이다. CU 의 컨셉은 매크로블록의 컨셉과 유사하며, 그러나 CU 는 최대 사이즈에 제한되지 않으며 CU 는 콘텐츠 적응성을 향상시키기 위해 4개의 동일-사이즈로된 CUs 로의 회귀적인 분할을 허용한다. PU 는 인터/인트라 예측의 기본적인 유닛이다. 일부 예들에서, PU 는 불규칙적인 이미지 패턴들을 효과적으로 코딩하기 위해 단일 PU 에 다수의 임의-형상의 파티션들을 포함할 수도 있다. TU 는 변환의 기본적인 단위이다. CU 의 TUs 는 CU 의 PUs 과는 따로 정의될 수 있다. 그러나, TU 의 사이즈는 TU 가 속하는 CU 에 제한된다. 3개의 상이한 컨셉들로의 블록 구조의 이 분리는 각각이 그의 역할에 따라서 최적화될 수 있게 할 수도 있으며, 이것은 향상된 코딩 효율을 초래할 수도 있다.
HEVC 에서 화상의 인코딩된 표현을 발생시키기 위해, 비디오 인코더 (20) 는 코딩 트리 유닛들 (CTUs) 의 세트를 발생시킬 수도 있다. CTU 는 또한 "트리 블록" 또는 "최대 코딩 유닛" (LCU) 으로서 지칭될 수도 있다. CTUs 의 각각은 루마 샘플들의 코딩 트리 블록, 크로마 샘플들의 2개의 대응하는 코딩 트리 블록들, 및 코딩 트리 블록들의 샘플들을 코딩하는데 사용되는 구문 구조들을 포함할 수도 있다. 단색 화상들 또는 3개의 별개의 칼라 평면들을 가지는 화상들에서, CTU 는 단일 코딩 트리 블록 및 그 코딩 트리 블록의 샘플들을 코딩하는데 사용되는 구문 구조들을 포함할 수도 있다. 코딩 트리 블록은 샘플들의 NxN 블록일 수도 있다. 따라서, HEVC 의 테스트 모델은 비디오 프레임 또는 화상이 루마 샘플 및 크로마 샘플 양쪽을 포함하는 트리블록들 또는 LCUs 의 시퀀스로 분할될 수도 있다고 기술한다. HEVC 의 CTUs 는 H.264/AVC 와 같은, 다른 표준들의 매크로블록들과 대략 유사할 수도 있다. 그러나, CTU 는 특정의 사이즈에 반드시 제한되지 않으며, 하나 이상의 CUs 를 포함할 수도 있다.
HEVC 에서 코딩된 CTU 를 발생시키기 위해, 비디오 인코더 (20) 는 CTU 의 코딩 트리 블록들에 관해 쿼드-트리 파티셔닝을 회귀적으로 수행하여, 코딩 트리 블록들을 코딩 블록들, 따라서 이름 "코딩 트리 유닛들" 로 분할할 수도 있다. 다시 말해서, 각각의 코딩 트리 블록은 쿼드트리에 따라서 CUs 로 분할될 수도 있다. 예를 들어, 코딩 트리 블록은, 쿼드트리의 루트 노드로서, 4개의 아이 노드들로 분할될 수도 있으며, 각각의 자식 노드는 결국 부모 노드일 수도 있으며 또 다른 4개의 자식 노드들로 분할될 수도 있다. 쿼드트리의 리프 노드와 같은, 최종, 미분할된 자식 노드는 코딩 노드, 즉, 코딩된 비디오 블록을 포함한다. 코딩된 비트스트림과 연관되는 구문 데이터는 최대 횟수를 정의할 수도 있으며 트리블록이 분할될 수도 있으며, 또한 코딩 노드들의 최소 사이즈를 정의할 수도 있다.
코딩 블록은 샘플들의 NxN 블록이다. CU 는 루마 샘플들의 코딩 블록 및 루마 샘플 어레이, Cb 샘플 어레이, 및 Cr 샘플 어레이를 가지는 화상의 크로마 샘플들의 2개의 대응하는 코딩 블록들, 및 코딩 블록들의 샘플들을 코딩하는데 사용되는 구문 구조들을 포함할 수도 있다. 단색 화상들 또는 3개의 별개의 칼라 평면들을 가지는 화상들에서, CU 는 단일 코딩 블록 및 코딩 블록의 샘플들을 코딩하는데 사용되는 구문 구조들을 포함할 수도 있다. CU 의 사이즈는 일반적으로 CU 의 코딩 블록의 사이즈에 대응하며, 일반적으로 형태가 정사각형이다. CU 의 사이즈는 8x8 픽셀들로부터, 64x64 픽셀들 이상의 최대 사이즈를 가진 CTU 의 사이즈까지의 범위일 수도 있다.
비디오 인코더 (20) 는 CU 의 코딩 블록을 하나 이상의 예측 블록들로 파티셔닝할 수도 있다. 일반적으로, PU 는 예측 프로세스에 관련되는 데이터를 포함한다. CU 의 PU 는 루마 샘플들의 예측 블록, 크로마 샘플들의 2개의 대응하는 예측 블록들, 및 예측 블록들을 예측하는데 사용되는 구문 구조들을 포함할 수도 있다. 단색 화상들 또는 3개의 별개의 칼라 평면들을 가지는 화상들에서, PU 는 단일 예측 블록 및 예측 블록을 예측하는데 사용되는 구문 구조들을 포함할 수도 있다. 예측 블록은 동일한 예측이 적용되는 샘플들의 직사각형 (예컨대, MxN 일 수도 있으며, 여기서 M 은 N 과 동일하거나 또는 동일하지 않을 수도 있다) 블록일 수도 있다. 따라서, PUs 는 비-정사각형의 형태로 파티셔닝될 수도 있다. HEVC 및 다른 비디오 코딩 표준들의 상황에서, 용어들 "비디오 블록" 또는 "블록" 은 LCU, CU, 또는 PU 에 적용될 수도 있다.
일 예로서, HEVC 에 대한 테스트 모델들은 여러 PU 사이즈들에서의 예측을 지원한다. 특정의 CU 의 사이즈가 2Nx2N 이라고 가정하면, HEVC 에 대한 테스트 모델들은 2Nx2N 또는 NxN 의 PU 사이즈들에서의 인트라-예측, 및 2Nx2N, 2NxN, Nx2N, 또는 NxN 의 대칭적 PU 사이즈들에서의 인터-예측을 지원한다. HEVC 에 대한 테스트 모델들은 또한 2NxnU, 2NxnD, nLx2N, 및 nRx2N 의 PU 사이즈들에서의 인터-예측에 비대칭적 파티셔닝을 지원한다. 비대칭적인 파티셔닝에서, CU 의 하나의 방향은 파티셔닝되지 않지만, 다른 방향은 25% 및 75% 로 파티셔닝된다. 25% 파티션에 대응하는 CU 의 부분은 "상부 (Up)", "하부 (Down)", "좌측 (Left)", 또는 "우측 (Right)" 의 표시가 뒤따르는 "n" 으로 표시된다. 따라서, 예를 들어, "2NxnU" 는 최상부에서 2Nx0.5N PU 로 그리고 최하부에서 2Nx1.5N PU 로 수평으로 파티셔닝된 2Nx2N CU 를 지칭한다.
본 개시물에서, "NxN" 및 "N 곱하기 N" 은 수직 및 수평 치수들의 관점에서 비디오 블록의 픽셀 치수들, 예컨대, 16x16 픽셀들 또는 16 곱하기 16 픽셀들을 지칭하기 위해 상호교환가능하게 사용될 수도 있다. 일반적으로, 16x16 블록은 수직 방향에서 16 개의 픽셀들 (y = 16) 및 수평 방향에서 16 개의 픽셀들 (x = 16) 을 갖는다. 이와 유사하게, NxN 블록은 일반적으로 수직 방향으로 N 개의 픽셀들 및 수평 방향으로 N 개의 픽셀들을 가지며, 여기서 N 은 음이 아닌 정수 값을 나타낸다. 블록에서 픽셀들은 로우들 및 칼럼들로 배열될 수도 있다. 더욱이, 블록들은 수직 방향에서와 같이 수평 방향에서 동일한 픽셀들의 개수를 반드시 가질 필요는 없다. 예를 들어, 블록들은 NxM 픽셀들을 포함할 수도 있으며, 여기서 M 은 반드시 N 과 같을 필요는 없다.
비디오 인코더 (20) 는 CU 의 각각의 PU 의 예측 블록들 (예컨대, 루마, Cb, 및 Cr 예측 블록들) 에 대해 예측 블록들 (예컨대, 루마, Cb, 및 Cr 블록들) 을 발생시킬 수도 있다. 그러므로, 본 개시물에서, CU 는 하나 이상의 PUs 로 파티셔닝되는 것으로 말할 수도 있다. 설명의 용이성을 위해, 본 개시물은 PU 의 예측 블록의 사이즈를 간단히 PU 의 사이즈로서 지칭할 수도 있다. CU 와 연관되는 구문 데이터는 예를 들어, 하나 이상의 PUs 로의 CU 의 파티셔닝을 기술할 수도 있다. 파티셔닝 모드들은 CU 가 스킵되는지 또는 직접 모드 인코딩될지, 인트라-예측 모드 인코딩될지, 또는 인터-예측 모드 인코딩될지 여부의 사이에 상이할 수도 있다.
일부 예들에서, MB, MB 파티션, CU, PU, 등과 같은, 비디오 블록이 스킵 모드에서 코딩될 때, 어떤 잔여 데이터도 비디오 블록에 대해 시그널링되지 않는다. 예를 들어, H.264/AVC 에서, 스킵된 MB 는 MB 가 "스킵됨 (skipped)" 으로 디코딩되어야 한다는 표시 이외에는 어떤 데이터도 코딩되지 않는 MB 이다. 일부 예들에서, 비디오 블록이 직접 모드를 사용하여 코딩될 때, 어떤 모션 벡터도 비디오 블록에 대해 코딩되지 않는다. 예를 들어, H.264/AVC 에서, 직접 예측은 어떤 모션 벡터도 디코딩되지 않는 블록 (즉, 샘플들의 MxN 어레이) 에 대한 인터 예측이다.
비디오 프레임 또는 화상은 하나 이상의 슬라이스들로 파티셔닝될 수도 있다. 슬라이스는 래스터 스캐닝 순서와 같은, 코딩 순서로 연속적으로 순서화된 정수의 비디오 블록들을 포함할 수도 있다. H.264/AVC 에서, 슬라이스는 코딩 순서로 연속적으로 순서화된 정수의 매크로블록들을 포함할 수도 있다. HEVC 에서, 슬라이스는 코딩 순서로 연속적으로 순서화된 정수의 CTUs 를 포함할 수도 있다. 화상의 각각의 슬라이스는 각각의 슬라이스에 대한 인코딩 모드를 기술하는 슬라이스 구문 데이터를 포함할 수도 있다. 코딩된 슬라이스는 슬라이스 헤더 및 슬라이스 데이터를 포함할 수도 있다. 슬라이스의 슬라이스 헤더는 슬라이스에 관한 정보를 제공하는 구문 엘리먼트들을 포함하는 구문 구조일 수도 있다. 슬라이스 데이터는 슬라이스의 코딩된 비디오 블록들을 포함할 수도 있다. 비디오 인코더 (20) 는 일반적으로 비디오 데이터를 인코딩하기 위해 개개의 슬라이스들 (즉, "비디오 슬라이스들") 내 비디오 블록들에 대해 동작할 수도 있다.
비디오 코딩 표준들은 여러 유형들의 슬라이스들을 정의한다. 예를 들어, H.264/AVC 및 HEVC 는 I 슬라이스들, P 슬라이스들, 및 B 슬라이스들을 정의한다. 일반적으로, I 슬라이스는 단지 인트라 예측을 사용하여 디코딩되는 슬라이스이다. 일반적으로, P 슬라이스는 각각의 블록의 샘플 값들을 예측하기 위해, 많아 봐야 하나의 모션 벡터 및 하나의 참조 인덱스를 이용한 인트라 예측 또는 인터 예측을 사용하여 디코딩될 수도 있는 슬라이스이다. 일반적으로, B 슬라이스 (즉, b-예측 슬라이스) 는 각각의 블록의 샘플 값들을 예측하기 위해, 많아 봐야 2개의 모션 벡터들 및 참조 인덱스들을 이용한 인트라 예측 또는 인터 예측을 사용하여 디코딩될 수도 있는 슬라이스이다. 더욱이, H.264/AVC 는 SI 슬라이스들 및 SP 슬라이스들과 같은, 추가적인 슬라이스 유형들을 정의한다. SI 슬라이스는 단지 인트라 예측을 사용하여 그리고 예측 샘플들의 양자화를 사용하여 코딩되는 슬라이스이다. 따라서, H.264/AVC 에서, I 슬라이스는 단지 인트라 예측만 사용하여 디코딩되는 SI 슬라이스가 아닌 슬라이스이다. SP 슬라이스는 각각의 블록의 샘플 값들을 예측하기 위해 많아 봐야 하나의 모션 벡터 및 참조 인덱스를 사용하여 예측 샘플들의 양자화와 함께 인트라 예측 또는 인터 예측을 사용하여 코딩될 수도 있는 슬라이스이다. 따라서, H.264/AVC 에서, P 슬라이스는 각각의 블록의 샘플 값들을 예측하기 위해, 많아 봐야 하나의 모션 벡터 및 하나의 참조 인덱스를 이용한 인트라 예측 또는 인터 예측을 사용하여 디코딩될 수도 있는 SP 슬라이스가 아닌 슬라이스이다.
비디오 인코더 (20) 가 현재의 비디오 블록을 인코딩할 때, 비디오 인코더 (20) 는 현재의 비디오 블록에 대응하는 예측 블록들을 발생할 수도 있다. 비디오 인코더 (20) 는 인트라 예측 또는 인터 예측을 수행하여 예측 블록들을 발생시킬 수도 있다. 예를 들어, 비디오 인코더 (20) 는 인터 예측 또는 인트라 예측을 사용하여 매크로블록들을 인코딩할 수도 있다. 비디오 인코더 (20) 가 현재의 비디오 블록에 대한 인트라 예측을 수행할 때, 비디오 인코더 (20) 는 현재의 비디오 블록과 동일한 화상 내 샘플들에 기초하여, 현재의 비디오 블록에 대한 예측 블록들을 발생시킬 수도 있다. 예를 들어, 비디오 인코더 (20) 가 인트라 예측을 사용하여 매크로블록을 인코딩할 때, 비디오 인코더 (20) 는 현재의 화상에서의 샘플들에 기초하여 매크로블록에 대한 하나 이상의 예측 블록들을 발생시킬 수도 있다. 인트라 예측을 사용하여 인코딩되는 매크로블록은 인트라 매크로블록으로서 지칭될 수도 있다. H.264 가 9개의 인트라-예측 인코딩 모드들을 제공하는 반면, HEVC 는 33개 만큼이나 많은 인트라-예측 인코딩 모드들을 제공할 수도 있다. PU 가 인트라-모드 인코딩될 때, PU 는 PU 에 대한 인트라-예측 모드를 기술하는 데이터를 포함할 수도 있다.
비디오 인코더 (20) 가 현재의 비디오 블록에 대한 예측 블록들을 발생시키기 위해 인터 예측을 수행할 때, 비디오 인코더 (20) 는 하나 이상의 참조 화상들 내 샘플들에 기초하여 예측 블록들을 발생시킬 수도 있다. 참조 화상들은 현재의 비디오 블록을 포함하는 화상 이외의 화상들일 수도 있다.
H.264/AVC 의 상황에서, 비디오 인코더 (20) 가 인터 예측을 사용하여 매크로블록을 인코딩할 때, 비디오 인코더 (20) 는 현재의 화상 이외의 하나 이상의 화상들 (즉, 매크로블록을 포함하는 화상) 의 샘플들에 기초하여 매크로블록에 대한 하나 이상의 예측 블록들을 발생시킨다. 인터 예측을 사용하여 인코딩되는 매크로블록은 인터 매크로블록으로서 지칭될 수도 있다.
HEVC 의 상황에서, PU 가 인터-모드 인코딩될 때, PU 는 그 PU 에 대한 모션 벡터를 정의하는 데이터를 포함할 수도 있다. PU 에 대한 모션 벡터를 정의하는 데이터는 예를 들어, 모션 벡터의 수평 성분, 모션 벡터의 수직 성분, 모션 벡터에 대한 해상도 (예컨대, 1/4 픽셀 정밀도 또는 1/8 픽셀 정밀도), 모션 벡터가 가리키는 참조 화상, 및/또는 예측 방향을 나타낼 수도 있는, 모션 벡터에 대한 참조 화상 리스트 (예컨대, 리스트 0, 리스트 1, 또는 리스트 C) 를 기술할 수도 있다.
비디오 인코더 (20) 가 현재의 비디오 블록에 대한 예측 블록들을 발생시킨 후, 비디오 인코더 (20) 는 현재의 비디오 블록에 대한 잔여 블록들을 발생시킬 수도 있다. 잔여 블록에서 각각의 샘플은 현재의 비디오 블록 및 현재의 비디오 블록에 대한 예측 블록의 루마 또는 크로마 블록에서의 대응하는 샘플들 사이의 차이에 기초할 수도 있다. 예를 들어, HEVC 의 상황에서, 잔여 데이터는 미인코딩된 화상의 픽셀들과 CUs 에 대응하는 예측 값들 사이의 픽셀 차이들에 대응할 수도 있다. 비디오 인코더 (20) 는 변환을 잔여 블록의 샘플들에 적용하여, 변환 계수 블록을 발생시킬 수도 있다. 비디오 인코더 (20) 는 여러 변환들을 잔여 블록에 적용할 수도 있다. 예를 들어, HEVC 의 상황에서, CU 의 PUs 를 이용한 인트라-예측 또는 인터-예측 코딩에 뒤이어서, 비디오 인코더 (20) 는 CU 의 TUs 에 의해 규정된 변환들이 적용되는 잔여 데이터를 계산할 수도 있다. 다시 말해서, 비디오 인코더 (20) 는 CU 에 대한 잔여 데이터를 형성하고, 그후 그 잔여 데이터를 변환하여, 변환 계수들을 발생시킬 수도 있다. 일부 예들에서, 비디오 인코더 (20) 는 이산 코사인 변환 (DCT), 정수 변환, 웨이블릿 변환, 또는 개념적으로-유사한 변환과 같은 변환을 잔여 블록에 적용할 수도 있다.
비디오 인코더 (20) 는 변환 계수 블록들을 양자화하여, 현재의 비디오 블록을 표현하는데 사용되는 비트수를 추가로 감소시킬 수도 있다. 변환 계수들을 발생시키는 임의의 변환들 이후, 비디오 인코더 (20) 는 변환 계수들의 양자화를 수행할 수도 있다. 양자화는 일반적으로 계수들을 나타내는데 사용되는 데이터의 양을 가능한 한 감축하기 위해 변환 계수들이 양자화되는 프로세스를 지칭하며, 추가적인 압축을 제공한다. 양자화 프로세스는 그 계수들의 일부 또는 모두와 연관되는 비트 심도를 감소시킬 수도 있다. 예를 들어, n-비트 값은 양자화 동안 m-비트 값까지 절사될 수도 있으며, 여기서, n 은 m 보다 더 크다.
일부 예들에서, 비디오 인코더 (20) 는 변환 계수 블록을 양자화한 후, 양자화된 변환 계수들을 스캐닝하여, 양자화된 변환 성분들의 1-차원 벡터 (즉, 직렬화된 벡터) 를 형성할 수도 있다. 일부 예들에서, 비디오 인코더 (20) 는 직렬화된 벡터를 발생시키기 위해, 미리 정의된 스캐닝 순서를 사용하여, 양자화된 변환 계수들을 스캐닝할 수도 있다. 다른 예들에서, 비디오 인코더 (20) 는 적응적 스캐닝을 수행할 수도 있다. 양자화된 변환 계수들을 나타내는 구문 엘리먼트들은 엔트로피 인코딩될 수도 있다. 다시 말해서, 양자화된 변환 계수들을 스캐닝하여 1차원 벡터를 형성한 후, 비디오 인코더 (20) 는 1차원 벡터를 엔트로피 인코딩할 수도 있다.
HEVC 표준은 TUs 에 따라서 변환들을 허용하며, 이 TUs 는 상이한 CUs 에 대해 상이할 수도 있다. 일반적으로, TU 는 변환 및 양자화 프로세스들에 사용된다. 하나 이상의 PUs 을 갖는 주어진 CU 는 또한 하나 이상의 TUs 을 포함할 수도 있다. 예측 이후, 비디오 인코더 (20) 는 PU 에 따라서 코딩 노드에 의해 식별되는 비디오 블록으로부터 잔여 값들을 계산할 수도 있다. 코딩 노드는 그후 원래 비디오 블록 대신, 잔여 값들을 참조하기 위해 업데이트된다. 잔여 값들은 엔트로피 코딩을 위한 직렬화된 변환 계수들을 발생시키기 위해 변환 계수들로 변환되고, 양자화되고, 그리고 TUs 에 규정된 변환 및 다른 변환 정보를 사용하여 스캐닝될 수도 있는 픽셀 차이 값들을 포함한다. 코딩 노드는 또 다시 이들 직렬화된 변환 계수들을 참조하기 위해 업데이트될 수도 있다.
비디오 인코더 (20) 는 변환 계수 블록에서의 변환 계수들을 나타내는 구문 엘리먼트들, 및 현재의 비디오 블록과 연관되는 다른 구문 엘리먼트들을 엔트로피 인코딩할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 컨텍스트-적응 2진 산술 코딩 (CABAC), 컨텍스트-적응 가변 길이 코딩 (CAVLC), 지수-Golomb 코딩, 구문-기반 컨텍스트-적응 2진 산술 코딩 (SBAC), 확률 간격 파티셔닝 엔트로피 (PIPE), 또는 또다른 유형의 엔트로피 인코딩을 구문 엘리먼트들에 관해 수행할 수도 있다. 비디오 인코더 (20) 는 엔트로피-인코딩된 구문 엘리먼트들, 및 현재의 비디오 블록과 연관되는 다른 구문 엘리먼트들을 포함하는 비트스트림을 출력할 수도 있다.
HEVC 에서, 비디오 인코더 (20) 는 쿼드-트리 파티셔닝을 사용하여, CU 의 하나 이상의 잔여 블록들 (예컨대, CU 의 루마, Cb, 및 Cr 잔여 블록들) 을 하나 이상의 변환 블록들 (예컨대, 루마, Cb, 및 Cr 변환 블록들) 로 분해할 수도 있다. 변환 블록은 동일한 변환이 적용되는 샘플들의 직사각형 (예컨대, 정사각형 또는 비-정사각형) 블록이다. CU 의 TU 는 루마 샘플들의 변환 블록, 크로마 샘플들의 2개의 대응하는 변환 블록들, 및 변환 블록 샘플들을 변환하는데 사용되는 구문 구조들을 포함할 수도 있다. 따라서, CU 의 각각의 TU 는 루마 변환 블록, Cb 변환 블록, 및 Cr 변환 블록과 연관될 수도 있다. TU 와 연관되는 루마 변환 블록은 CU 의 루마 잔여 블록의 서브-블록일 수도 있다. Cb 변환 블록은 CU 의 Cb 잔여 블록의 서브-블록일 수도 있다. Cr 변환 블록은 CU 의 Cr 잔여 블록의 서브-블록일 수도 있다. 단색 화상들 또는 3개의 별개의 칼라 평면들을 가지는 화상들에서, TU 는 단일 변환 블록 및 변환 블록의 샘플들을 변환하는데 사용되는 구문 구조들을 포함할 수도 있다. 이런 방법으로, CU 에 대응하는 잔여 샘플들은 "잔여 쿼드 트리" (RQT) 로서 알려진 쿼드트리 구조를 사용하여 더 작은 유닛들로 세분될 수도 있다. RQT 의 리프 노드들은 TUs 로서 지칭될 수도 있다. CU 와 연관되는 구문 데이터는 또한 예를 들어, 쿼드트리에 따른 하나 이상의 TUs 로의 CU 의 파티셔닝을 기술할 수도 있다.
일부 예들에서, 파티셔닝된 LCU 에 대해 정의된 CU 의 TUs 는 CU 의 PUs 의 사이즈에 기초하여 크기가 부여되지만, 이것이 항상 사실이 아닐 수도 있다. 일부 예들에서, TUs 는 PUs 보다 작거나 동일한 사이즈이다.
더욱이, HEVC 에서, 비디오 인코더 (20) 는 하나 이상의 변환들을 TU 의 변환 블록에 적용하여, TU 에 대한 계수 블록을 발생시킬 수도 있다. 계수 블록은 변환 계수들의 2차원 어레이일 수도 있다. 예를 들어, 비디오 인코더 (20) 는 하나 이상의 변환들을 TU 의 루마 변환 블록에 적용하여, TU 에 대한 루마 계수 블록을 발생시킬 수도 있다. 변환 계수는 스칼라 양일 수도 있다. 비디오 인코더 (20) 는 하나 이상의 변환들을 TU 의 Cb 변환 블록에 적용하여, TU 에 대한 Cb 계수 블록을 발생시킬 수도 있다. 비디오 인코더 (20) 는 하나 이상의 변환들을 TU 의 Cr 변환 블록에 적용하여, TU 에 대한 Cr 계수 블록을 발생시킬 수도 있다. 이런 방법으로, TUs 과 연관되는 픽셀 차이 값들은 변환 계수들을 발생시키기 위해 변환될 수도 있으며, 그 변환 계수들은 양자화될 수도 있다.
비트스트림은 코딩된 화상들 및 연관되는 데이터의 표현을 형성하는 비트들의 시퀀스를 포함할 수도 있다. 비트스트림은 네트워크 추상화 계층 (NAL) 유닛들의 시퀀스를 포함할 수도 있다. NAL 유닛들의 각각은 NAL 유닛 헤더를 포함하며, 미가공 바이트 시퀀스 페이로드 (RBSP; raw byte sequence payload) 를 캡슐화한다. NAL 유닛 헤더는 NAL 유닛 유형 코드를 나타내는 구문 엘리먼트를 포함할 수도 있다. NAL 유닛의 NAL 유닛 헤더에 의해 규정된 NAL 유닛 유형 코드는 NAL 유닛의 유형을 나타낸다. RBSP 는 NAL 유닛 내에 캡슐화된 정수의 바이트들을 포함하는 구문 구조일 수도 있다. 일부의 경우, RBSP 는 제로 비트들을 포함한다.
상이한 유형들의 NAL 유닛들이 상이한 유형들의 RBSP들을 캡슐화할 수도 있다. 예를 들어, NAL 유닛의 제 1 유형은 화상 파라미터 세트 (PPS) 에 대한 RBSP 를 캡슐화할 수도 있으며, NAL 유닛의 제 2 유형은 코딩된 슬라이스에 대한 RBSP 를 캡슐화할 수도 있으며, NAL 유닛의 제 3 유형은 보충 강화 정보 (SEI) 에 대한 RBSP 를 캡슐화할 수도 있으며, 기타 등등을 캡슐화할 수도 있다. (파라미터 세트들 및 SEI 메시지들에 대한 RBSP들과는 반대로) 비디오 코딩 데이터에 대한 RBSP들을 캡슐화하는 NAL 유닛들은 비디오 코딩 계층 (VCL) NAL 유닛들로서 지칭될 수도 있다. 코딩된 슬라이스를 캡슐화하는 NAL 유닛은 코딩된 슬라이스 NAL 유닛으로서 지칭될 수도 있다.
비디오 디코더 (30) 는 비디오 데이터의 인코딩된 표현을 포함하는 비트스트림을 수신할 수도 있다. 비디오 디코더 (30) 는 비트스트림을 파싱하여, 비트스트림으로부터 구문 엘리먼트들을 추출할 수도 있다. 비트스트림으로부터 구문 엘리먼트들을 추출하는 것의 일부로서, 비디오 디코더 (30) 는 비트스트림의 일부들을 엔트로피 디코딩할 수도 있다. 비디오 디코더 (30) 는 현재의 비디오 블록 (예컨대, MB 또는 MB 파티션, 등) 과 연관되는 구문 엘리먼트들에 적어도 부분적으로 기초하여, 인터 또는 인트라 예측을 수행하여, 예측 블록들을 발생시킬 수도 있다. 게다가, 비디오 디코더 (30) 는 변환 계수 블록들의 변환 계수들을 역양자화할 수도 있으며, 하나 이상의 역변환들을 변환 계수 블록들에 적용하여 잔여 블록들을 발생시킬 수도 있다. 비디오 디코더 (30) 는 그후 잔여 블록들 및 예측 블록들에 적어도 부분적으로 기초하여 현재의 비디오 블록의 루마 및 크로마 블록들을 재구성할 수도 있다. 이러한 방법으로, 화상의 각각의 비디오 블록의 루마 및 크로마 블록들을 재구성함으로써, 비디오 디코더 (30) 는 화상을 재구성할 수도 있다.
위에서 언급한 바와 같이, 비디오 인코더 (20) 는 인터 예측을 수행하여 특정의 비디오 블록에 대한 예측 블록들을 발생시킬 수도 있다. 좀더 구체적으로, 비디오 인코더 (20) 는 단방향 인터 예측 또는 양방향 인터 예측을 수행하여, 예측 블록들을 발생시킬 수도 있다.
비디오 인코더 (20) 가 현재의 비디오 블록 (예컨대, MB, MB 파티션, PU, 등) 에 대해 단방향 인터 예측을 수행할 때, 비디오 인코더 (20) 는 단일 참조 화상 리스트 (예컨대, "리스트 0" 또는 "RefPicList0") 에서 참조 화상들 내 참조 블록에 대해 탐색할 수도 있다. 참조 블록은 현재의 비디오 블록의 루마 및 크로마 블록들에 유사한 루마 샘플들의 블록 및 크로마 샘플들의 대응하는 블록들일 수도 있다. 더욱이, 비디오 인코더 (20) 가 단방향 인터 예측을 수행할 때, 비디오 인코더 (20) 는 특정의 비디오 블록에 대한 모션 정보를 발생시킬 수도 있다. 특정의 비디오 블록에 대한 모션 정보는 모션 벡터 및 참조 인덱스를 포함할 수도 있다. 모션 벡터는 현재의 비디오 블록의 샘플 블록들의 현재의 화상 내 위치와, 참조 블록의 참조 화상 내 위치 사이의 공간 변위를 나타낼 수도 있다. 참조 인덱스는 참조 블록을 포함하는 참조 화상의 참조 화상 리스트 내 위치를 나타낸다. 현재의 비디오 블록에 대한 예측 블록들에서의 샘플들은 참조 블록에서의 대응하는 샘플들과 동일할 수도 있다.
비디오 인코더 (20) 가 현재의 비디오 블록 (예컨대, MB, MB 파티션, PU, 등) 에 대해 양방향 인터 예측을 수행할 때, 비디오 인코더 (20) 는 제 1 참조 화상 리스트 ("리스트 0" 또는 "RefPicList0") 에서 참조 화상들 내 제 1 참조 블록에 대해 탐색할 수도 있으며, 제 2 참조 화상 리스트 ("리스트 1" 또는 "RefPicList1") 에서 참조 화상들 내 제 2 참조 블록에 대해 탐색할 수도 있다. 비디오 인코더 (20) 는 제 1 및 제 2 참조 블록들에 적어도 부분적으로 기초하여, 현재의 비디오 블록에 대한 예측 블록들을 발생시킬 수도 있다. 게다가, 비디오 인코더 (20) 는 현재의 비디오 블록의 샘플 블록과 제 1 참조 블록 사이의 공간 변위를 나타내는 제 1 모션 벡터를 발생시킬 수도 있다. 비디오 인코더 (20) 는 또한 제 1 참조 블록을 포함하는 참조 화상의 제 1 참조 화상 리스트 내 로케이션을 식별하는 제 1 참조 인덱스를 발생시킬 수도 있다. 더욱이, 비디오 인코더 (20) 는 현재의 비디오 블록의 블록들과 제 2 참조 블록 사이의 공간 변위를 나타내는 제 2 모션 벡터를 발생시킬 수도 있다. 비디오 인코더 (20) 는 또한 제 2 참조 블록을 포함하는 참조 화상의 제 2 참조 화상 리스트 내 로케이션을 식별하는 제 2 참조 인덱스를 발생시킬 수도 있다.
비디오 인코더 (20) 가 현재의 비디오 블록 (예컨대, MB, MB 파티션, PU, 등) 에 대해 단방향 인터 예측을 수행할 때, 비디오 디코더 (30) 는 현재의 비디오 블록의 모션 정보를 사용하여, 현재의 비디오 블록의 참조 블록을 식별할 수도 있다. 비디오 디코더 (30) 는 그후 현재의 비디오 블록의 참조 블록에 기초하여 현재의 비디오 블록에 대한 예측 블록들을 발생시킬 수도 있다. 비디오 인코더 (20) 가 현재의 비디오 블록에 대한 양방향 인터 예측을 수행할 때, 비디오 디코더 (30) 는 현재의 비디오 블록에 대한 모션 정보를 사용하여, 현재의 비디오 블록의 2개의 참조 블록들을 식별할 수도 있다. 비디오 디코더 (30) 는 현재의 비디오 블록의 2개의 참조 블록들에 기초하여 현재의 비디오 블록의 예측 블록들을 발생시킬 수도 있다.
H.264/AVC 에서, MB 가 4개의 8x8 MB 파티션들로 파티셔닝되지 않을 때, MB 는 각각의 예측 방향 (즉, RefPicList0 또는 RefPicList1) 에서 전체 MB 파티션에 대해 단지 하나의 모션 벡터만을 가질 수도 있다. MB 가 4개의 8x8 MB 파티션들로 파티셔닝될 때, 각각의 8x8 MB 파티션은 서브-블록들로 추가로 파티셔닝될 수 있다. 8x8 MB 파티션으로부터 서브-블록들을 파티셔닝하는데 다음 4가지 상이한 방법들이 존재한다: 하나의 8x8 서브-블록, 2개의 8x4 서브-블록들, 2개의 4x8 서브-블록들, 또는 4개의 4x4 서브-블록들. 각각의 서브-블록은 각각의 예측 방향에서 상이한 모션 벡터를 가질 수 있다. 8x8 MB 파티션이 서브-블록들로 파티셔닝되는 방법은 서브-블록 파티션으로 지칭될 수도 있다.
멀티-뷰 비디오 코딩 (MVC) 은 H.264/AVC 의 확장판이다. 멀티-뷰 코딩에서, 상이한 관찰 지점들로부터의 동일한 장면의 다수의 뷰들이 존재할 수도 있다. 멀티-뷰 코딩의 상황에서, 용어 "액세스 유닛" 은 동일한 시간 인스턴스에 대응하는 화상들의 세트를 지칭할 수도 있다. 따라서, 비디오 데이터는 시간 경과에 따라 발생하는 액세스 유닛들의 시리즈로서 개념화될 수도 있다.
멀티-뷰 코딩에서, 비트스트림은 복수의 계층들을 가질 수도 있다. 계층들 각각은 상이한 뷰에 대응할 수도 있다. 멀티-뷰 코딩에서, 뷰는 비디오 디코더 (예컨대, 비디오 디코더 (30)) 가 임의의 다른 뷰에서의 화상들에 대한 참조 없이 뷰에서의 화상들을 디코딩할 수 있으면, "베이스 뷰" 로서 지칭될 수도 있다. 뷰는 뷰의 디코딩이 하나 이상의 다른 뷰들에서의 화상들의 디코딩에 의존하면, 비-베이스 뷰로서 지칭될 수도 있다.
도 2 는 멀티-뷰 코딩을 위한 예시적인 예측 구조를 예시하는 개념도이다. 멀티-뷰 비디오 코딩을 위한 (각각의 뷰 내 인터-화상 예측 및 인터-뷰 예측 양쪽을 포함한) 전형적인 MVC 예측 구조가 도 2 에 도시되며, 여기서, 예측들은 화살표들로 표시되며, 지시도달 오브젝트는 예측 참조에 위해 지시출발 오브젝트를 이용한다.
도 2 의 멀티-뷰 예측 구조는 시간 및 인터-뷰 예측을 포함한다. 도 2 의 예에서, 각각의 정사각형은 뷰 성분에 대응한다. 도 2 의 예에서, 액세스 유닛들은 T0…T11 로 라벨링되며, 뷰들은 S0…S7 로 라벨링된다. "I" 로 라벨링된 정사각형들은 인트라 예측된 뷰 성분들이다. "P" 로 라벨링된 정사각형들은 단방향 인터 예측된 뷰 성분들이다. "B" 및 "b" 로 라벨링된 정사각형들은 양방향으로 인터 예측된 뷰 성분들이다. "b" 로 라벨링된 정사각형들은 "B" 로 라벨링된 정사각형들을 참조 화상들로서 이용할 수도 있다. 제 1 정사각형으로부터 제 2 정사각형까지 가리키는 화살표는 제 1 정사각형이 제 2 정사각형에 대한 참조 화상으로서 인터 예측에서 이용가능하다는 것을 나타낸다. 도 2 에서 수직 화살표들로 표시된 바와 같이, 동일한 액세스 유닛의 상이한 뷰들에서의 뷰 성분들은 참조 화상들로서 이용가능할 수도 있다. 동일한 액세스 유닛의 또 다른 뷰 성분에 대한 참조 화상으로서의 액세스 유닛의 하나의 뷰 성분의 사용은 인터-뷰 예측으로서 지칭될 수도 있다.
MVC 에서, 인터-뷰 예측은 뷰들 사이의 상관을 제거하기 위해서 동일한 액세스 유닛의 (즉, 동일한 시간 인스턴스 내) 상이한 뷰들에서 캡쳐되는 화상들 사이에 수행된다. 인터-뷰 예측으로 코딩되는 화상은 다른 비-베이스 뷰들의 인터-뷰 예측을 위해 참조 화상 리스트에 추가될 수도 있다. 인터-뷰 예측 참조 화상은 마치 임의의 인터 예측 참조 화상과 동일한 방법으로, 참조 화상 리스트의 임의의 위치에 삽입될 수 있다.
멀티-뷰 비디오 코딩의 상황에서, 2종류의 모션 벡터들이 존재한다. 모션 벡터의 일종은 시간 참조 화상 (즉, 현재의 화상과는 상이한 시간 인스턴스에서의 화상) 을 가리키는 법선 모션 벡터 (normal motion vector) 이다. 법선, 시간 모션 벡터에 대응하는 인터 예측의 유형은 "모션-보상된 예측" 또는 "MCP" 으로서 지칭될 수도 있다. 인터-뷰 예측 참조 화상이 모션 보상을 위해 사용될 때, 대응하는 모션 벡터는 "디스패리티 모션 벡터" 로서 지칭될 수도 있다. 다시 말해서, 디스패리티 모션 벡터는 상이한 뷰에서의 화상 (즉, 디스패리티 참조 화상 또는 인터-뷰 참조 화상) 을 가리킨다. 디스패리티 모션 벡터에 대응하는 인터 예측의 유형은 "디스패리티-보상된 예측" 또는 "DCP" 로서 지칭될 수도 있다.
도 3 은 예시적인 멀티-뷰 디코딩 순서를 예시하는 개념도이다. 다시 말해서, 전형적인 MVC 디코딩 순서 (즉, 비트스트림 순서) 가 도 3 에 도시된다 디코딩 순서 배열은 시간-우선 코딩 (time-first coding) 으로서 지칭된다. 액세스 유닛들의 디코딩 순서가 출력 또는 디스플레이 순서와 동일하지 않을 수도 있다는 점에 유의한다. 도 3 에서, S0-S7 는 각각 멀티-뷰 비디오의 상이한 뷰들을 지칭한다. T1-T9 는 각각 하나의 출력 시간 인스턴스를 나타낸다. 액세스 유닛은 하나의 출력 시간 인스턴스에 대한 모든 뷰들의 코딩된 화상들을 포함할 수도 있다. 예를 들어, 제 1 액세스 유닛은 시간 인스턴스 T1 에 대한 뷰들 S0-S7 의 모두를 포함할 수도 있으며, 제 2 액세스 유닛은 시간 인스턴스 T2 에 대한 뷰들 S0-S7 의 모두를 포함할 수도 있으며, 기타 등등으로 포함할 수도 있다.
다음 섹션은 멀티-뷰 및 3D 비디오 코딩을 전반적으로 설명한다. 멀티-뷰 및 3D 비디오 코딩의 상황에서, "뷰 성분" 은 단일 액세스 유닛에서의 뷰의 코딩된 표현일 수도 있다. 뷰가 코딩된 텍스쳐 및 심도 표현들 양쪽을 포함할 때, 뷰 성분은 텍스쳐 뷰 성분 및 심도 뷰 성분을 포함할 수도 있다 (예컨대, 이들로 이루어질 수도 있다). 따라서, 각각의 텍스쳐 뷰 성분은 대응하는 심도 뷰 성분을 가질 수도 있다. 일반적으로, 텍스쳐 뷰 성분들은 비디오 콘텐츠 (예컨대, 픽셀 값들의 루마 및 크로마 성분들) 을 포함하며, 심도 뷰 성분들은 텍스쳐 뷰 성분들 내 픽셀들의 상대적인 심도들을 나타낼 수도 있다. 따라서, 각각의 뷰에 대한 복수의 비디오 화상들은 텍스쳐 뷰 성분들로서 지칭될 수도 있다. 본 개시물에서, "뷰" 는 동일한 뷰 식별자와 연관되는 뷰 성분들의 시퀀스를 지칭할 수도 있다.
좀더 구체적으로, 텍스쳐 뷰 성분 (즉, 텍스쳐 화상) 은 단일 액세스 유닛에서 뷰의 텍스쳐의 코딩된 표현일 수도 있다. 텍스쳐 뷰 성분은 디스플레이되는 실제 이미지 콘텐츠를 포함한다. 예를 들어, 텍스쳐 뷰 성분은 루마 (Y) 및 크로마 (Cb 및 Cr) 성분들을 포함할 수도 있다. 텍스쳐 뷰는 뷰 순서 인덱스의 동일한 값과 연관되는 텍스쳐 뷰 성분들의 시퀀스일 수도 있다. 뷰의 뷰 순서 인덱스는 다른 뷰들에 상대적인 뷰의 카메라 위치를 나타낼 수도 있다.
본 개시물의 기법들은 텍스쳐 및 심도 데이터를 코딩함으로써 3D 비디오 데이터를 코딩하는 것에 관한 것이다. 일반적으로, 용어 "텍스쳐" 는 이미지의 휘도 (즉, 휘도 또는 "루마") 값들 및 이미지의 색차 (즉, 칼라 또는 "크로마") 값들을 기술하는데 이용된다. 일부 예들에서, 텍스쳐 이미지는 청색 색조들 (Cb) 및 적색 색조들 (Cr) 에 대해 2개의 색차 데이터의 세트들 및 하나의 휘도 데이터의 세트를 포함할 수도 있다. 4:2:2 또는 4:2:0 과 같은, 어떤 크로마 샘플링 포맷들에서, 크로마 데이터는 루마 데이터에 대해 다운샘플링된다. 즉, 색차 픽셀들의 공간 해상도는 대응하는 휘도 픽셀들의 공간 해상도, 예컨대, 휘도 해상도의 1/2 또는 1/4 보다 낮을 수도 있다.
"심도 뷰 성분 (즉, 심도 화상)" 은 단일 액세스 유닛에서의 뷰의 심도의 코딩된 표현일 수도 있다. 심도 뷰는 뷰 순서 인덱스의 동일한 값과 연관되는 심도 뷰 성분들의 시퀀스일 수도 있다. 심도 뷰 성분은 그의 대응하는 텍스쳐 뷰 성분에서의 픽셀들의 상대적인 심도들을 나타낼 수도 있다. 일 예로서, 심도 뷰 성분은 단지 루마 값들을 포함하는 그레이 스케일 이미지이다. 즉, 심도 뷰 성분은 임의의 이미지 콘텐츠를 전달하기 보다는, 오히려 텍스쳐 뷰 성분에서의 픽셀들의 상대적인 심도들의 측정치를 제공할 수도 있다.
일부 예들에서, 심도 뷰 성분에서의 순수 백색 픽셀은 대응하는 텍스쳐 뷰 성분에서의 그의 대응하는 픽셀 또는 픽셀들이 뷰어의 관점으로부터 더 가깝다는 것을 나타내며, 심도 뷰 성분에서의 순수 블랙 픽셀은 대응하는 텍스쳐 뷰 성분에서의 그의 대응하는 픽셀 또는 픽셀들이 뷰어의 관점으로부터 더 멀리 있다는 것을 나타낸다. 블랙과 백색 사이에서의 그레이의 여러 음영들은 상이한 심도 레벨들을 나타낸다. 예를 들어, 심도 뷰 성분에서의 짙은 (dark) 그레이 픽셀은 텍스쳐 뷰 성분에서의 그의 대응하는 픽셀이 심도 뷰 성분에서의 약한 (slightly) 그레이 픽셀보다 더 멀리 있다는 것을 나타낸다. 단지 그레이 스케일이 픽셀들의 심도를 식별하는데 요구되기 때문에, 심도 뷰 성분은, 심도 뷰 성분에 대한 칼라 값들이 임의의 목적에 적합하지 않을 수도 있어, 크로마 성분들을 포함할 필요가 없다. 심도를 식별하는데 단지 루마 값들 (예컨대, 강도 값들) 을 사용하는 심도 뷰 성분은 예시 목적들을 위해 제공되며, 한정하는 것으로 간주되어서는 안된다. 다른 예들에서, 임의의 기법이 텍스쳐 뷰 성분에서의 픽셀들의 상대적인 심도들을 나타내는데 이용될 수도 있다.
심도 데이터는 일반적으로 대응하는 텍스쳐 데이터에 대한 심도 값들을 기술한다. 예를 들어, 심도 이미지는 대응하는 텍스쳐 데이터에 대한 심도를 각각 기술하는 심도 픽셀들의 세트를 포함할 수도 있다. 심도 데이터는 대응하는 텍스쳐 데이터에 대한 수평 디스패리티를 결정하는데 사용될 수도 있다. 따라서, 텍스쳐 및 심도 데이터를 수신하는 디바이스는 하나의 뷰 (예컨대, 좌측 눈 뷰) 에 대한 제 1 텍스쳐 이미지를 디스플레이할 수도 있으며, 심도 데이터를 사용하여, 심도 값들에 기초하여 결정되는 수평 디스패리티 값들 만큼 제 1 이미지의 픽셀 값들을 오프셋시킴으로써, 제 1 텍스쳐 이미지를 수정하여 다른 뷰 (예컨대, 우측 눈 뷰) 에 대한 제 2 텍스쳐 이미지를 발생시킬 수도 있다. 일반적으로, 수평 디스패리티 (또는, 간단히 "디스패리티") 는 제 2 뷰에서의 대응하는 픽셀에 대한, 제 1 뷰에서의 픽셀의 수평 공간 오프셋을 기술하며, 여기서, 2개의 픽셀들은 2개의 뷰들에 표현되는 오브젝트와 동일한 오브젝트의 동일한 부분에 대응한다.
또한 다른 예들에서, 심도 데이터는 주어진 픽셀과 연관되는 심도가 이미지에 대해 정의된 제로 디스패리티 평면 (zero disparity plane) 에 대해 정의되도록, 이미지 평면에 수직한 z-차원에서의 픽셀들에 대해 정의될 수도 있다. 이런 심도는 픽셀이 제로 디스패리티 평면에 대한 픽셀의 z-차원 심도 값에 따라서, 좌측 및 우측 눈들에 대해 상이하게 디스플레이되도록, 픽셀을 디스플레이하기 위해 수평 디스패리티를 생성하는데 사용될 수도 있다. 제로 디스패리티 평면은 비디오 시퀀스의 상이한 부분들에 대해 변할 수도 있으며, 제로-디스패리티 평면에 대한 심도의 양은 또한 변할 수도 있다. 제로 디스패리티 평면 상에 로케이트된 픽셀들은 좌측 및 우측 눈들에 대해 유사하게 정의될 수도 있다. 제로 디스패리티 평면의 전면 상에 로케이트된 픽셀들은, 픽셀이 이미지 평면에 수직한 z-방향으로 이미지로부터 나와서 나타나는 지각 (perception) 을 생성하기 위해, 좌측 및 우측 눈에 대해 상이한 로케이션들에서 (예컨대, 수평 디스패리티로) 디스플레이될 수도 있다. 제로 디스패리티 평면 뒤에 로케이트되는 픽셀들은 약간의 심도의 지각을 제공하기 위해 약간 흐릿한 형체로 디스플레이될 수도 있거나, 또는 좌측 및 우측 눈에 대해 상이한 로케이션들에 (예컨대, 제로 디스패리티 평면의 전면에 로케이트되는 픽셀들의 수평 디스패리티와는 반대인 수평 디스패리티로) 디스플레이될 수도 있다. 많은 다른 기법들이 또한 이미지에 대한 심도 데이터를 전달하거나 또는 정의하는데 사용될 수도 있다.
심도 뷰 성분에서의 각각의 픽셀에 대해, 텍스쳐 뷰 성분에서 하나 이상의 대응하는 픽셀들이 존재할 수도 있다. 예를 들어, 심도 뷰 성분 및 텍스쳐 뷰 성분의 공간 해상도들이 동일하면, 심도 뷰 성분에서의 각각의 픽셀은 텍스쳐 뷰 성분에서의 하나의 픽셀에 대응한다. 심도 뷰 성분의 공간 해상도가 텍스쳐 뷰 성분의 공간 해상도 미만이면, 심도 뷰 성분에서의 각각의 픽셀은 텍스쳐 뷰 성분에서의 다수의 픽셀들에 대응한다. 심도 뷰 성분에서의 픽셀의 값은 텍스쳐 뷰에서의 대응하는 하나 이상의 픽셀들의 상대적인 심도를 나타낼 수도 있다.
일부 예들에서, 비디오 인코더는 뷰들 각각에 대해 텍스쳐 뷰 성분들 및 대응하는 심도 뷰 성분들에 대한 비디오 데이터를 시그널링한다. 비디오 디코더 (30) 는 텍스쳐 뷰 성분들 및 심도 뷰 성분들 양쪽의 비디오 데이터를 사용하여, 디스플레이를 위한 뷰들의 비디오 콘텐츠를 디코딩할 수도 있다. 디스플레이는 그후 멀티-뷰 비디오를 디스플레이하여, 3D 비디오를 발생시킨다.
도 3 을 다시 참조하면, 뷰들 각각은 화상들의 세트들을 포함한다. 예를 들어, 뷰 S0 는 화상들 0, 8, 16, 24, 32, 40, 48, 56, 및 64 의 세트를 포함하며, 뷰 S1 은 화상들 1, 9, 17, 25, 33, 41, 49, 57, 및 65 등의 세트를 포함한다. 각각의 세트는 2개의 화상들을 포함한다: 하나의 화상은 텍스쳐 뷰 성분으로서 지칭되며, 다른 화상은 심도 뷰 성분으로서 지칭된다. 뷰의 화상들의 세트 내 텍스쳐 뷰 성분 및 심도 뷰 성분은 서로에 대응하는 것으로 간주될 수도 있다. 예를 들어, 뷰의 화상들의 세트 내 텍스쳐 뷰 성분은 뷰의 화상들의 세트 내 심도 뷰 성분에 대응하는 것으로 간주되며, 반대로도 마찬가지이다 (즉, 심도 뷰 성분은 그 세트에서의 그의 텍스쳐 뷰 성분에 대응하며, 반대로도 마찬가지이다). 본 개시물에서 사용될 때, 심도 뷰 성분에 대응하는 텍스쳐 뷰 성분은 단일 액세스 유닛의 동일한 뷰의 부분인, 텍스쳐 뷰 성분 및 심도 뷰 성분으로서 간주될 수도 있다.
본 개시물의 다음 섹션은 AVC-기반의 3D 비디오 코딩 표준 (즉, 3D-AVC) 을 설명한다. 3D-AVC 에서의 뷰 성분들의 코딩 순서가 아래에 설명된다. 3D-AVC 는 베이스 뷰의 텍스쳐 부분이 H.264/AVC 디코더에 있어 전적으로 디코딩가능한 방법으로, H.264/AVC 에 호환가능하다. 3D-AVC 에서의 향상된 뷰 성분들에 있어, 심도는 텍스쳐 이전에 코딩될 수도 있으며, 텍스쳐 뷰 성분은 심도 뷰 성분으로부터의 정보에 기초하여 코딩될 수도 있으며, 이것은 또한 심도-제 1 코딩으로 알려져 있다. 이에 반해, 각각의 텍스쳐 뷰 성분은 텍스쳐-제 1 코딩 순서들에서 각각의 심도 뷰 성분들 이전에 코딩된다. 예를 들어, 3D-AVC 에서 텍스쳐 및 심도 뷰 성분들의 코딩 순서들은 다음과 같이 예를 들 수도 있다; 여기서 T0 및 D0 는, 각각, 베이스 뷰의 텍스쳐 및 심도 뷰 성분들을 지칭하며, Ti 및 Di 는 각각, i-번째 의존적인 뷰의 텍스쳐 및 심도 뷰 성분들을 지칭한다. 다음 예들에서, 다음 3개의 뷰들이 존재한다:
- T0 D0 D1 D2 T1 T2: 베이스 뷰들 (T0 및 D0) 은 텍스쳐-제 1 코딩 순서로 코딩되지만 의존적인 뷰는 심도-제 1 코딩 순서로 코딩된다. 하이브리드 코딩 순서가 다음 3D-AVC 의 공통 테스트 조건들에 현재 사용된다.
- T0 D0 T1 D1 T2 D2: 모든 뷰 성분들은 텍스쳐-제 1 코딩 순서로 코딩된다.
인터-뷰 예측이 Ti 에 대해 이용가능하게 될 때, 참조 텍스쳐 뷰는 인터-뷰 참조 화상을 포함하는 뷰로서 정의되며, 대응하는 심도 뷰는 참조 텍스쳐 뷰의 뷰 순서 인덱스와 동일한 뷰 순서 인덱스를 가지는 참조 심도 뷰로서 정의된다.
비디오 코더는 디스패리티 벡터 (DV) 를 2개의 뷰들 사이의 디스패리티의 추정자로서 이용할 수도 있다. 이웃하는 블록들이 비디오 코딩에서 거의 동일한 모션/디스패리티 정보를 공유하기 때문에, 현재의 블록은 이웃하는 블록들에서의 모션 벡터 정보를 우수한 예측자로서 이용할 수 있다. 심도 맵을 통한 3D-AVC 디스패리티 벡터 유도가 이하 설명된다. 디스패리티 벡터를 유도하는 기법들은 각각의 저-레벨 코딩 툴에 따라 변할 수도 있으며, 그러나, 일반적으로, 의존적인 뷰들의 심도 데이터가 심도-제 1 코딩 순서 때문에 텍스쳐 뷰 성분 코딩에 채용된다.
3D-AVC 에서 인-루프 블록-기반 뷰 합성 인터-뷰 예측 (BVSP) 및 심도-기반 모션 벡터 예측 (D-MVP) 은 의존적인 프레임에서의 심도 맵의 심도 값들로부터 변환된 디스패리티 벡터를 주로 사용하는 저-레벨 코딩 툴들이다. 일반적으로, 3D-AVC 소프트웨어에서, 실제 심도 맵 값으로부터 특정의 뷰에 대한 디스패리티로의 변환 프로세스의 결과들은 카메라 파라미터들과 함께 룩업 테이블들에 저장된다.
BVSP 는 3D-AVC 에서 이용가능하게 될 수도 있다. BVSP 는 Su 등, "3DV-CE1.a: Block-based View Synthesis Prediction for 3DV-ATM", ITU-T SG 16 WP 3 와 ISO/IEC JTC 1/SC 29/WG 11 의 3D 비디오 코딩 확장판 개발에 관한 합동 협업팀, 1차 회의, 2012년 7월 16-20일, 스웨덴, 스톡홀름, 문서 JCT3V-A0107 (이하, "JCT3V-A0107") 에서 최초에 제안되었으며, 이것은, 2014년 3월 3일 현재, 다음 링크: http://phenix.it-sudparis.eu/jct2/doc_end_user/documents/1_Stockholm/wg11/JCT3V-A0107-v1.zip로부터 다운로드될 수 있다.
도 4 는 역방향 와핑에 기초한 BVSP 의 예시적인 개념적인 시각화이다. 도 4 를 참조하면, 다음 코딩 순서가 이용된다고 가정한다: (T0, D0, D1, T1). 텍스쳐 성분 T0 는 베이스 뷰이고, T1 은 VSP 로 코딩되는 의존적인 뷰이다. 심도 맵 성분들 D0 및 D1 은 T0 및 T1 와 연관되는 각각의 심도 맵들이다.
의존적인 뷰 T1 에서, 현재의 블록 Cb 의 샘플 값들은 베이스 뷰 T0 의 샘플 값들로 이루어지는 참조 영역 R(Cb) 로부터 예측된다. 코딩된 샘플과 참조 샘플 사이의 변위 벡터는 현재 코딩된 텍스쳐 샘플과 연관되는 심도 맵 값으로부터의 T1 과 T0 사이의 유도된 디스패리티 벡터로서 표시된다.
일부 예들에서, 비디오 코더는 다음 방정식들을 사용하여, 심도 값으로부터 디스패리티 벡터로의 변환의 프로세스를 수행할 수도 있다:
Figure pct00001
Figure pct00002
여기서, j 및 i 는 Cb 내 로컬 공간 좌표들이고,
Figure pct00003
는 뷰 #1 의 심도 맵 이미지에서의 심도 맵 값이고, Z 는
Figure pct00004
의 실제 심도 값이고, D 는 특정의 뷰 #0 에 대한 유도된 디스패리티 벡터의 수평 성분이다. 파라미터들 f, b, Znear 및 Zfar 는 카메라 셋업을 규정하는 파라미터들이고, 즉, 사용된 초점 길이 (f), 뷰 #1 과 뷰 #0 사이의 카메라 분리 (b), 및 심도 범위 (Znear, Zfar) 는 심도 맵 변환의 파라미터들을 나타낸다.
일부 예들에서, 유도된 디스패리티 벡터의 수직 성분은 0 과 동일하게 항상 설정된다. 3D-AVC 의 현재의 구현예 (즉, 3DV-ATM 구현예) 에서, 방정식들 (1) 및 (2) 는 모든 심도 맵 값 (0…255) 에 대해 이미 사전-계산되어 룩업 테이블로서 저장되어 있다. 따라서, 비디오 코더는 위에서 제공되는 방정식들 (1) 및 (2) 을 계산하지 않고 룩업 테이블을 사용하여 심도 값들을 디스패리티 벡터들로 변환할 수도 있다.
BVSP 에 관련된 일 구현예 이슈는 BVSP 블록들의 표시를 수반한다. 일부 예들에서, BVSP 블록들은 다음과 같이 표시된다. MB 레벨에서 하나의 플래그는 현재의 MB 가 종래의 스킵/직접 모드로 코딩되는지 여부 또는 현재의 MB 가 스킵/직접 모드로 코딩되지만 종합 (synthetic) 참조 성분으로부터 예측되는지 여부를 시그널링한다. (16x16 로부터 8x8 로) 각각의 MB 파티션에 대해, 참조 화상 리스트에 대응하는 참조 인덱스는 참조 화상 리스트에서의 참조 화상을 시그널링한다. 비디오 인코더가 BVSP 모드를 사용하여 MB 파티션을 인코딩할 때, 비디오 인코더는 BVSP 코딩된 블록들에 대해 어떤 모션 벡터들도 존재하지 않기 때문에, MB 파티션에 대한 모션 벡터 차이들 (MVDs) 을 시그널링하지 않는다. MB 파티션이 종합 참조 성분을 사용하여 코딩된다는 것을 플래그 또는 참조 인덱스가 나타낼 때, 비디오 코더는 아래에서 설명되는 바와 같이 하나의 파티션의 예측을 호출할 수도 있다.
BVSP 에 관련된 또 다른 구현예 이슈는 예측 유도 프로세스를 수반한다. NxM 은 MB 파티션의 사이즈를 표시할 수도 있으며, 여기서, N 또는 M 은 8 또는 16 과 동일하다. MB 파티션이 BVSP 모드로 코딩될 때, MB 파티션이 KxK 와 동일한 사이즈를 가진 여러 서브-영역들로 추가로 파티셔닝되며, 여기서, K 는 4x4, 2x2 또는 1x1 일 수도 있다. MB 파티션의 각각의 서브-영역에 있어, 비디오 코더는 별개의 유도된 디스패리티 벡터를 유도한다. 더욱이, MB 파티션의 각각의 각각의 서브-영역에 있어, 비디오 코더는 유도된 디스패리티 벡터를 사용하여, 인터-뷰 참조 화상, 즉, 도 4 에서 R(cb) 에 대응하는 블록을 로케이트시킨다. 비디오 코더는 각각의 서브-영역에 대한 대응하는 블록으로부터 각각의 서브-영역을 예측할 수도 있다. BVSP 의 일 예는 4x4 (K 가 4 와 동일하다는 것을 의미함) 의 사이즈를 가진 블록들에 대한 역방향 와핑에 기초한다. 유도된 디스패리티 벡터들은 이러한 벡터들을 사용하는 어떤 코딩 툴들도 존재하지 않기 때문에, BVSP 코딩된 블록들에 대해 저장되지 않는다.
또 다른 구현예 이슈는 디스패리티 벡터 유도 프로세스를 수반한다. 심도 제 1 코딩 순서가 적용될 때, 비디오 코더는 도 4 에 나타낸 바와 같이, 대응하는 비-베이스 심도 뷰에서의 대응하는 심도 블록의 심도 값을 변환함으로써, 유도된 디스패리티 벡터를 획득할 수도 있다. 여러 기법들이 하나의 심도 블록의 심도 값, 예컨대, 심도 블록의 중심 위치의 심도 값, 하나의 심도 블록 내 모든 심도 값들의 최대 값, 하나의 심도 블록 내 4개의 모서리 픽셀들의 최대 값, 및 심도 블록/심도 MB 의 우하측 픽셀의 심도 값을 선택하기 위해 적용될 수도 있다. 텍스쳐 제 1 코딩 순서가 적용될 때, 비디오 코더는 비-베이스 텍스쳐 뷰를 디코딩할 때 대응하는 비-베이스 심도 뷰가 이용불가능하기 때문에 BVSP 모드들을 이용불능시킬 수도 있다.
정상 인터 모드들 (normal inter modes) 에 대한 3D-AVC 에서 심도-기반 모션 벡터 예측 (D-MVP) 이 이하 설명된다. D-MVP 는 심도-제 1 코딩 순서 때문에 이용가능한, 현재의 뷰에서의 연관된 심도 맵 데이터를 통합하는 모션 벡터 예측 방법이다. 비디오 코더는 의존적인 (즉, 비-베이스) 뷰들에서의 텍스쳐 뷰 성분들에 D-MVP 를 적용할 수도 있다.
3D-AVC 에서, D-MVP 방법은 H.264/AVC 에서의 종래의 중앙값 함수-기반 모션 벡터 예측에 통합된다. 구체적으로 설명하면, 예측될 모션 벡터의 유형 (즉, 시간 모션 벡터든 또는 디스패리티 모션 벡터든) 는 이웃하는 블록들에서 모션 벡터들의 참조 인덱스들이 모션 예측의 유형을 파악하기 위해 체킹되는 방법으로 먼저 식별된다.
이웃하는 블록들은 순서대로, 현재의 블록에 대한, 좌측 블록, 상부 블록, 상부-우측 블록, 및 상부-좌측 블록을 포함한다. 일부 예들에서, 비디오 코더는 다른 3개의 이웃하는 블록들 (즉, 좌측 블록, 상부 블록, 및 상부-우측 블록) 중 하나가 모션 벡터를 포함하지 않고 따라서 이용불가능한 것으로 간주될 때 단지 상부-좌측 블록에서의 모션 벡터를 이용할 수도 있다.
그 뒤에, 3개의 이웃하는 블록들이 이용가능하면, 비디오 코더는 현재의 블록에 대한 모션 벡터들의 모션 벡터 예측을 위해 3개의 이웃하는 블록들에서의 모션 벡터들을 채용할 수도 있다. 시간 예측에서, 3개의 이웃하는 블록들의 모션 벡터들 모두가 동일한 유형을 가지고 모두 동일한 참조 인덱스들을 가지면, 비디오 코더는 H.264/AVC 에서 설명된 바와 같이 중간값 필터를 직접 이용할 수도 있다. 그렇지 않으면 (3개의 이웃하는 블록들의 모션 벡터들이 상이한 유형들에 속하고 3개의 이웃하는 블록들이 상이한 참조 인덱스들을 가지면), 비디오 코더는 현재의 블록에 대한 모션 벡터를 추가로 유도할 수도 있다. 현재의 참조 화상이 인터-뷰 참조 화상일 때, 비디오 코더는 이웃하는 블록 위치들에서의 모션 벡터 유형들 및 그들의 참조 인덱스들을 체킹할 수도 있다. 모션 벡터들이 모두 동일한 유형 및 동일한 참조 인덱스들을 가지면, 비디오 코더는 중간값 필터를 적용할 수도 있다. 양쪽의 경우들에서, 3개 미만의 이웃하는 블록들이 이용가능하면, 비디오 코더는 3개의 이웃하는 블록들이 이용가능하게 되도록, 이용불가능한 블록들에 대한 모션 벡터들을 추가로 유도할 수도 있다.
이웃하는 블록에 대해 유도된 모션 벡터는 유도된 모션 벡터로서 지칭될 수도 있다. 현재의 블록의 모션 벡터를 유도하기 위해, 비디오 코더는 현재의 모션 벡터 (즉, 이웃하는 블록의 모션 벡터) 가 디스패리티 모션 벡터인지 여부, 이웃하는 블록의 모션 벡터가 현재의 모션 벡터의 유형과는 상이한 유형을 갖는지 여부, 또는 이웃하는 블록의 모션 벡터가 이용불가능한지 여부를 결정할 수도 있다. 이들 조건들 중 임의의 조건이 적용되면, 비디오 코더는 현재의 블록의 유도된 모션 벡터를, 비디오 코더가 대응하는 심도 뷰 성분으로부터 변환할 수도 있는 디스패리티 모션 벡터인 것으로 설정할 수도 있다. 비디오 코더는 동일한 뷰의 심도 뷰 성분의 대응하는 블록의 4개의 모서리들의 심도 값들의 최대 값을 디스패리티 값으로 변환할 수도 있다. 비디오 코더는 디스패리티 값을 유도된 모션 벡터의 수평 성분으로 설정할 수도 있다. 비디오 코더는 유도된 모션 벡터의 수직 성분을 제로로 설정할 수도 있다.
현재의 모션 벡터가 시간 모션 벡터이면, 비디오 코더는 (위에서 언급된 것과 유사하게 유도된) 디스패리티 값을 사용하여, 참조 (베이스) 뷰에서의 참조 블록의 시간 모션 벡터를 결정할 수도 있다. 비디오 코더는 유도된 모션 벡터를 시간 모션 벡터인 것으로 설정할 수도 있다. 시간 모션 벡터가 이용불가능한 것으로 간주되면 (예컨대, 시간 이웃하는 블록이 인트라 블록 또는 시간 이웃하는 블록의 모션 벡터가 현재의 참조 화상과 정렬되는 참조 뷰에서의 참조 화상을 가리키지 않으면), 비디오 코더는 유도된 모션 벡터를 제로로 설정할 수도 있다.
스킵 및 직접 모드들에 대해 3D-AVC 에서의 인터-뷰 모션 예측이 이하 설명된다. H.264/AVC 사양의 섹션들 7.3.5 및 7.4.5 에서 설명된 바와 같이, 매크로블록에 대한 macroblock_layer 구문 구조는 매크로블록에 대한 매크로블록 유형을 규정하는 mb_type 구문 엘리먼트를 포함할 수도 있다. mb_type 구문 엘리먼트의 의미들은 매크로블록을 포함하는 슬라이스의 슬라이스 유형에 의존한다. 슬라이스가 P 슬라이스이면, 매크로블록 유형들은 P_Skip 유형을 포함한다. 매크로블록의 매크로블록 유형이 P_Skip 일 때, 어떤 추가적인 데이터도 비트스트림에서의 매크로블록에 대해 존재하지 않는다. 슬라이스가 B 슬라이스이면, 매크로블록 유형들은 B_Skip 모드 및 B_Direct_16x16 모드 (즉, B-16x16 직접 모드) 를 포함한다. 매크로블록의 매크로블록 유형이 B_Skip 일 때, 어떤 추가적인 데이터도 그 비트스트림에서의 매크로블록에 대해 존재하지 않는다. 매크로블록의 매크로블록 유형이 B_Direct_16x16 일 때, 어떤 모션 벡터 차이들 또는 참조 인덱스들도 그 비트스트림에서의 매크로블록에 대해 존재하지 않는다. 더욱이, 매크로블록의 매크로블록 유형이 B_Direct_16x16 일 때, 함수들 MbPartWidth( B_Direct_16x16 ), 및 MbPartHeight( B_Direct_16x16 ) 가 직접 모드 예측을 위한 H.264/AVC 사양의 하위 조항 8.4.1 에서 모션 벡터들 및 참조 프레임 인덱스들에 대한 유도 프로세스에 사용된다.
더욱이, macroblock_layer 구문 구조는 하나 이상의 sub_mb_pred 구문 구조들을 포함할 수도 있다. sub_mb_pred 구문 구조는 서브-매크로블록 유형들을 규정하는 4개의 sub_mb_type 구문 엘리먼트들을 포함할 수도 있다. 서브-매크로블록 유형들은 B_Direct_8x8 모드 (즉, B-8x8 직접 모드) 를 포함한다. 서브-매크로블록의 서브-매크로블록 유형이 B_Direct_8x8 일 때, 어떤 모션 벡터 차이들 또는 참조 인덱스들도 비트스트림에서의 서브-매크로블록에 대해 존재하지 않는다. 함수들 SubMbPartWidth( B_Direct_8x8 ) 및 SubMbPartHeight(B_Direct_8x8) 가 직접 모드 예측을 위한 H.264/AVC 사양의 하위 조항 8.4.1 에서 모션 벡터들 및 참조 프레임 인덱스들에 대한 유도 프로세스에 사용된다.
비디오 코더는 3D-AVC 에서의 인터-뷰 모션 예측을 P-스킵, B-스킵, B-16x16 직접 모드, 및 B-8x8 직접 모드에서 수행할 수도 있다. 인터-뷰 모션 예측을 수행하기 위해, 비디오 코더는 이웃하는 블록들로부터의 현재의 블록에 대한 디스패리티 벡터 뿐만 아니라, 동일한 뷰의 심도 뷰 성분의 심도 값들로부터 유도된 디스패리티 벡터를 먼저 유도할 수도 있다. 하나의 이용가능한 공간 이웃하는 블록이 디스패리티 모션 벡터를 포함하면, 비디오 코더는 이 디스패리티 모션 벡터가 현재의 블록에 대한 디스패리티 벡터라고 결정할 수도 있다. 그렇지 않으면, 이웃하는 블록들 중 어느 것도 디스패리티 모션 벡터를 가지지 않을 때, 비디오 코더는 (D-MVP 에서의 변환과 유사하게) 심도 값들로부터 블록의 디스패리티 모션 벡터를 변환할 수도 있다. 그 뒤에, 비디오 코더는 중간값 필터를 3개의 이웃하는 블록들에 적용하여, 현재의 블록에 대한 디스패리티 벡터를 결정할 수도 있다.
비디오 코더는 현재의 블록에 대한 디스패리티 벡터를 사용하여, 참조 (예컨대, 베이스) 뷰에서 참조 블록의 시간 모션 벡터를 결정할 수도 있다. 시간 모션 벡터가 이용불가능하면, 비디오 코더는 참조 인덱스를 먼저 유도할 수도 있으며, 비디오 코더는 위에서 설명한 바와 같이, D-MVP 를 적용하여, 모션 벡터 예측자를 발생시킬 수도 있다.
3D-AVC 및 멀티-뷰 HEVC 의 확장판들은 이웃하는 블록-기반 디스패리티 벡터 (NBDV) 유도 프로세스들을 사용하여, 블록들에 대한 디스패리티 벡터들을 유도할 수도 있다. 일반적으로, NBDV 유도 프로세스는 현재의 블록에 대한 디스패리티 벡터를 추정하기 위해 이웃하는 디스패리티 정보를 이용한다. 여러 공간 및 시간 이웃하는 후보 블록들이 먼저 정의된다. 비디오 코더는 이웃하는 블록들의 각각을 사전-정의된 순서로 체킹할 수도 있다. 사전-정의된 순서는 현재의 블록과 이웃하는 블록들 사이의 상관의 우선순위에 의해 결정될 수도 있다. 일단 이웃하는 블록이 디스패리티 모션 벡터를 가진다고 (즉, 이웃하는 블록의 모션 벡터가 인터-뷰 참조 화상을 가리킨다고) 비디오 코더가 결정하면, 비디오 코더는 디스패리티 모션 벡터를 현재의 블록에 대한 디스패리티 벡터로 변환할 수도 있다.
일반적으로, 비디오 코더는 NBDV 유도 프로세스를 수행할 때 이웃하는 블록들의 2개의 세트들을 이용할 수도 있다. 이웃하는 블록들의 하나의 세트는 공간 이웃하는 블록들로부터 유래하며 이웃하는 블록들의 다른 세트는 시간 이웃하는 블록들로부터 유래한다. 일부 예들에서, 용어 NBDV 는 NBDV 유도 프로세스가 블록의 디스패리티 벡터를 유도하는데 사용되었으면, 블록의 디스패리티 벡터를 지칭하기 위해 사용된다.
비디오 코더는 NBDV 유도 프로세스를, 모든 뷰들에 대한 텍스쳐-제 1 코딩 순서를 사용하는 3D-HEVC 에서의 디스패리티 벡터 유도 방법으로서 이용할 수도 있다. 현재의 3D-HEVC 설계에서, 비디오 코더는 또한 NBDV 유도 프로세스를 사용하여 참조 뷰의 심도 맵으로부터 심도 데이터를 취출할 수도 있다. 3D-HEVC 는 Zhang 등, "Disparity vector generation results", ITU-T SG 16 WP 3 와 ISO/IEC JTC 1/SC 29/WG 11 의 3D 비디오 코딩 확장판 개발에 관한 합동 협업팀, 1차 회의: 2012년 7월 16-20일, 스웨덴, 스톡홀름, 문서 JCT3V-A0097 (이하, JCT3V-A0097) 에서 제안된 NBDV 방법을 먼저 채택하였다. 암시적인 디스패리티 벡터들이 JCT3V-A0126: Sung 등, "3D-CE5.h: Simplification of disparity vector derivation for HEVC-based 3D video coding", ITU-T SG 16 WP 3 와 ISO/IEC JTC 1/SC 29/WG 11 의 3D 비디오 코딩 확장판 개발에 관한 합동 협업팀, 1차 회의: 2012년 7월 16-20일, 스웨덴, 스톡홀름, 문서. JCT3V-A0126 (이하, JCT3V-A0126) 에서의 단순화된 NBDV 와 함께 포함된다. 게다가, Kang 등, "3D-CE5.h related: Improvements for disparity vector derivation", ITU-T SG 16 WP 3 와 ISO/IEC JTC 1/SC 29/WG 11 의 3D 비디오 코딩 확장판 개발에 관한 합동 협업팀, 2차 회의: 2012년 10월 13-19일, 중국, 상하이, 문서 JCT3V-B0047 (이하, JCT3V-B0047) 에서, NBDV 유도 프로세스는 디코딩 화상 버퍼에 저장되는 암시적인 디스패리티 벡터들을 제거함으로써 추가로 단순화되며, 동시에, 무작위 액세스 화상 (RAP) 선택에 의한 향상된 코딩 이득을 달성한다.
일부 NBDV 유도 프로세스들에서, 비디오 코더는 디스패리티 벡터 유도를 위해 5개의 공간 이웃하는 블록들을 이용한다. 5개의 공간 이웃하는 블록들은 A0, A1, B0, B1 및 B2 로 표기되는, 현재의 PU 의 좌하측, 좌측, 우상측, 상측 및 좌상측 블록들이다. 제안된 NBDV 유도 프로세스에서 사용되는 5개의 공간 이웃하는 블록들은 HEVC 에서의 병합 모드들에서 사용되는 동일한 5개의 공간 이웃하는 블록들일 수도 있다. 따라서, 일부 예들에서, 어떤 추가적인 메모리 액세스도 5개의 공간 이웃하는 블록들에 액세스하는데 요구되지 않는다.
시간 이웃하는 블록들을 체킹하기 위해, 비디오 코더는 후보 화상 리스트의 구성 프로세스를 먼저 수행할 수도 있다. 비디오 코더는 현재의 뷰로부터의 모든 참조 화상들을 후보 화상들로서 취급할 수도 있다. 비디오 코더는 소위, 동일 장소에 배치된 참조 화상을 후보 화상 리스트에 먼저 삽입하고, 뒤이어서, 후보 화상들 (즉, 현재의 뷰에서의 참조 화상들) 의 나머지를 참조 인덱스의 오름 차순으로 삽입할 수도 있다. 즉, 비디오 코더는 나머지 후보 화상들이 현재의 화상의 참조 화상 리스트들 (예컨대, RefPicList0 및 RefPicList1) 에서 발생하는 순서에 따라서, 나머지 후보 화상들을 후보 화상 리스트에 삽입할 수도 있다. 현재의 블록을 포함하는 슬라이스의 슬라이스 헤더에서의 하나 이상의 구문 엘리먼트들은 동일 장소에 배치된 화상을 나타낼 수도 있다. 일부 예들에서, 참조 화상 리스트들 양쪽 (예컨대, RefPicList0 및 RefPicList1) 에서 동일한 참조 인덱스를 가진 참조 화상들이 NBDV 유도 프로세스에 사용을 위해 이용가능할 때, 동일 장소에 배치된 화상과 동일한 참조 화상 리스트에서의 참조 화상이 후보 화상 리스트에서, 다른 참조 화상보다 선행한다.
비디오 코더가 블록을 인터-뷰 모션 예측으로 코딩할 때, 비디오 코더는 상이한 뷰에서 대응하는 블록을 선택하기 위해 디스패리티 벡터를 유도할 수도 있다. 용어 "암시적인 디스패리티 벡터" 또는 "IDV" (또는, 일부 상황들에서, "유도된 디스패리티 벡터") 는 인터-뷰 모션 예측에서 유도된 디스패리티 벡터를 지칭할 수도 있다. 예를 들어, 설령 비디오 코더가 블록을 모션 예측 (즉, 시간 모션 예측) 으로 코딩할 수도 있지만, 비디오 코더는 유도된 디스패리티 벡터를 폐기하지 않는다. 대신, 비디오 코더는 다음 블록을 코딩하는 목적을 위해 디스패리티 벡터를 이용할 수도 있다. 구체적으로 설명하면, 비디오 코더는 디스패리티 벡터를 암시적인 디스패리티 벡터로 취급할 수도 있으며, NBDV 유도 프로세스에서 암시적인 디스패리티 벡터를 사용하여, 하나 이상의 다른 블록들에 대한 디스패리티 벡터를 결정할 수도 있다.
일반적으로, 비디오 코더가 NBDV 유도 프로세스를 수행할 때, 비디오 코더는 시간 이웃하는 블록들에서 디스패리티 모션 벡터들을, 공간 이웃하는 블록들에서 디스패리티 모션 벡터들을, 그후 암시적인 디스패리티 벡터를 순서대로 체킹한다. 일단 비디오 코더가 디스패리티 벡터를 발견하면, 비디오 코더는 NBDV 유도 프로세스를 종료할 수도 있다.
역방향 VSP 가 3D-HEVC 에서 이용가능하게 될 수도 있다. 3D-HEVC 에서, 비디오 코더가 텍스쳐-제 1 코딩 순서를 적용할 때, 비디오 코더는 각각의 PU 에 대해, 참조 심도 뷰에서의 심도 값들을 고려하여, 또는 고려 없이 NBDV 유도 프로세스로부터 디스패리티 벡터를 유도할 수도 있다. 비디오 코더가 디스패리티 벡터를 획득한 후, 비디오 코더는 PU 의 4x4 서브-영역이 BVSP 모드로 코딩되면, 하나의 PU 각각의 4x4 서브-영역에 대한 디스패리티 벡터를 추가로 개선할 수도 있다.
개선 프로세스는 2개의 단계들을 포함할 수도 있다. 제 1 단계에서, 비디오 코더는 참조 심도 뷰에서의 4x4 심도 블록으로부터 하나의 최대 심도 값을 선택할 수도 있다. 비디오 코더는 유도된 디스패리티 벡터를 사용하여, 4x4 심도 블록을 로케이트할 수도 있다. 제 2 단계에서, 비디오 코더는 심도 값을 개선된 디스패리티 벡터의 수평 성분으로 변환하는 한편, 개선된 디스패리티 벡터의 수직 성분을 0 으로 유지할 수도 있다. 디스패리티 벡터가 하나의 PU 의 하나의 4x4 서브-영역에 대해 개선된 후, 비디오 코더는 개선된 디스패리티 벡터를 사용하여, 모션 보상을 위해 참조 텍스쳐 뷰에 하나의 블록을 로케이트할 수도 있다.
위에서 나타낸 바와 같이, 3D-HEVC 는 NBDV 유도 프로세스를 사용하여, 디스패리티 벡터들을 유도할 수도 있다. 본원에서 참조로 포함되는, 2013년 2월 26일자에 출원된 미국 가특허 출원번호 제 61/769,716호, 즉, 이하 '716 출원은, 3D-AVC 에 대한 NBDV 유도 프로세스를 기술한다. '716 출원에서 설명된 바와 같이, 비디오 코더는 MB-레벨 NBDV 유도 프로세스를 사용하여, 현재의 MB 에 대한 디스패리티 벡터를 유도할 수도 있다. 비디오 코더는 모션 벡터 예측을 위해 현재의 MB 에 대한 디스패리티 벡터를 추가로 이용할 수도 있다. '716 출원에서 설명된 바와 같이, 일단 비디오 코더가 디스패리티 모션 벡터를 식별하면 (즉, 비디오 코더가 인터-뷰 참조 화상을 사용하는 시간 또는 공간 이웃하는 블록을 식별하면), 비디오 코더는 디스패리티 모션 벡터를 현재의 MB 에 대한 디스패리티 벡터로서 반환할 수도 있다.
도 5 는 NBDV 유도 프로세스에 있어 예시적인 공간 이웃하는 블록들을 예시하는 개념도이다. '716 출원에서, 비디오 코더가 NBDV 유도 프로세스에서 공간 이웃하는 블록들을 체킹할 때, 비디오 코더는 비디오 코더가 AVC 모션 예측 프로세스에서 체킹하는 공간 이웃하는 블록들을 체킹할 수도 있다. 비디오 코더가 '716 출원에서 제안된 NBDV 유도 프로세스에서 공간 이웃하는 블록들을 체킹할 때, 비디오 코더는 도 5 의 예에 나타낸 바와 같이, A (좌측), B (상측), C (우상측) 및 D (좌상측) 의 순서로, 공간 이웃하는 블록들을 체킹할 수도 있다. 다시 말해서, AVC 모션 예측 프로세스에서 체킹될 공간 이웃하는 블록들은 제안된 NBDV 프로세스에서는 A (좌측), B (상측), C (우상측) 및 D (좌상측) 의 순서로 체킹된다.
더욱이, '716 출원에서 제안된 NBDV 유도 프로세스에서, 비디오 코더는 시간 이웃하는 블록들을 체킹할 수도 있다. 도 6 은 NBDV 유도 프로세스를 위한 예시적인 시간 이웃하는 블록들을 예시하는 개념도이다. 비디오 코더는 현재의 화상과 동일한 동일한 뷰에서 최고 2개의 참조 화상들로부터 블록들을 체킹할 수도 있다: (B 슬라이스들에 대해 RefPicList1[ 0 ] 및 RefPicList0[ 0 ], 및 P 슬라이스들에 대해 RefPicList0[ 0 ]). 현재, 비디오 코더는 3개의 시간 블록들을 화상 단위로 체킹할 수도 있다. 각각의 화상에 대해, 비디오 코더는 도 6 의 예에 나타낸 바와 같이, BR (우하측), CT3 (중심 3) 및 CO2 (모서리 2) 의 순서로 아래에서 나타내는 바와 같이, 동일 장소에 배치된 MB 에 대해, 동일 장소에 배치된 블록들을 체킹할 수도 있다.
더욱이, '716 출원에서, NBDV 유도 프로세스의 종료는 다음과 같이 설명된다. 비디오 코더는 위에서 언급된 이웃하는 블록들을 순서대로 체킹할 수도 있다. 3D-HEVC 와 유사하게, 비디오 코더는 시간 이웃하는 블록들을 먼저 체킹할 수도 있으며, 공간 이웃하는 블록들을 그후에 체킹할 수도 있다. 일단 블록이 가용 디스패리티 모션 벡터를 포함한다고 비디오 코더가 결정하면, 비디오 코더는 유도 프로세스를 종료할 수도 있다.
MVC+D 와 비교될 때, '716 출원에서 제안된 방법의 코딩 이득이, 다음 테이블에 나타내어진다.
Figure pct00005
'716 출원의 제안된 방법은 3D-AVC 에서 효율적으로 지원되지 않는 텍스쳐-단독 코딩을 가능하게 한다. 동일한 텍스쳐-단독 구성을 가능하게 할 때, 현재의 3D-AVC 로부터의 코딩 이득은 겨우 1% 이다.
일부 예들에서, 참조 뷰의 심도 뷰 성분에 액세스하는 NBDV 유도 프로세스가 3D-AVC 에서 사용된다. 전체 내용이 참조로 포함되는, 2013년 2월 27일자에 출원된, 미국 가특허출원 제 61/770,268호 ('268 출원) 에서 설명된 바와 같이, NBDV 유도 프로세스는 베이스/참조 뷰의 심도 뷰 성분에 액세스함으로써 추가로 향상될 수 있다. '268 출원에서 설명된 바와 같이, 비디오 코더는 이웃하는 블록들로부터 유도된 디스패리티 벡터를 사용하여, 심도 뷰 성분에 심도 픽셀들을 로케이트할 수도 있으며, 그 결과, 비디오 코더가 디스패리티 벡터를 추가로 개선할 수 있다. 다음 테이블은 MVC+D 와 비교될 때 '268 출원의 제안된 방법의 코딩 이득을 나타낸다.
Figure pct00006
위에 나타낸 바와 같이, '268 출원의 제안된 방법은 5% 더 많은 코딩 이득을 제공하지만, 심도 뷰 성분에 액세스하는 것이 여전히 요구된다.
3D-AVC 용으로 개발된 NBDV 유도 방법들은 다음 문제들을 가질 수도 있다. 첫째, '716 출원에서 제안된 NBDV 유도 방법을 이용할 때, D-MVP 및 BVSP 를 포함하는 코딩 툴들은 주로 디스패리티 벡터들이 충분히 정확하지 않다는 이유 때문에, 덜 효율적이 될 수도 있다. 둘째, '268 출원에서 제안된 NBDV 유도 방법을 이용할 때, 심도 뷰 성분에 액세스하는 것이 항상 요구된다. 심지어 이 경우, 이웃하는 블록들로부터 획득된 초기 디스패리티 벡터는 또한 비디오 코더가 심도 뷰 성분에서 더 정확한 영역을 식별하는 것을 방해할지도 모른다. 셋째, 디스패리티 벡터가 3D-HEVC 에서 처럼 IDVs 에 액세스함으로써 향상될지도 모른다. 그러나, 이러한 IDVs 의 사용은 공간 이웃하는 블록들 및 시간 이웃하는 블록들 양쪽에 대해 추가적인 스토리지를 필요로 할 수도 있다. 공간 및 시간 이웃하는 블록들에 대한 IDVs 의 스토리지는 모션 필드의 사이즈와 유사한 레벨에서 현저하게 더 많은 스토리지 및 더 많은 메모리 액세스들을 필요로 할 수도 있다.
본 개시물은 향상된 NBDV 프로세스를 제안한다. 구체적으로 설명하면, 본 개시물의 기법들은 전체 슬라이스에 대한 하나 이상의 유도된 디스패리티 벡터들 (DDVs) 을 저장함으로써 NBDV 발생 (즉, NBDV 유도 프로세스) 을 향상시키기 위해 솔루션들을 제공할 수도 있다. 본 개시물의 기법들은 '716 출원 및 '268 출원에서 설명된 바와 같은 NBDV 방법들에 대해 주로 설계될 수도 있다.
본 개시물의 하나 이상의 기법들에 따르면, 비디오 코더 (예컨대, 비디오 인코더 (20) 또는 비디오 디코더 (30)) 는 하나 이상의 DDVs 를 저장할 수도 있다. 비디오 코더는 후속 코딩되는 비디오 블록들의 디스패리티 벡터들을 예측하기 위해 DDVs 를 이용할 수도 있다. 다시 말해서, 이전 블록들로부터의 하나 이상의 DDVs 는 미래 블록들의 디스패리티 벡터의 더 나은 예측을 위해 저장된다.
일부 예들에서, 비디오 코더는 현재의 블록이 심도 뷰 성분이고 비디오 코더가 DDV 를 유도한 블록이 텍스쳐 뷰 성분이면 현재의 블록의 디스패리티 벡터를 예측하는데 DDV 를 사용하지 않는다. 더욱이, 비디오 코더는 현재의 블록이 텍스쳐 뷰 성분이고 비디오 코더가 DDV 를 유도한 블록이 심도 뷰 성분이면 현재의 블록의 디스패리티 벡터를 예측하는데 DDV 를 사용하지 않는다. 예를 들어, DDV 는 현재의 MB 를 포함하지 않는 뷰 성분과는 상이한 임의의 뷰 성분의 임의의 블록의 디스패리티 벡터를 예측하는데 이용되지 않는다. 다시 말해서, DDV 가 현재의 MB 를 포함하지 않는 임의의 뷰 성분의 임의의 블록의 디스패리티 벡터를 예측하는데 이용되지 않는다.
더욱이, 일부 예들에서, 비디오 코더는, 현재의 블록 및 비디오 코더가 DDV 를 유도한 블록이 상이한 슬라이스들에 있으면, 현재의 블록의 디스패리티 벡터를 예측하는데 DDV 를 사용하지 않는다. 예를 들어, DDV 가 현재의 MB 를 포함하지 않는 슬라이스와는 상이한 임의의 슬라이스의 임의의 블록의 디스패리티 벡터를 예측하는데 이용되지 않는다.
위에서 나타낸 바와 같이, 비디오 코더는 슬라이스에 대해 하나 이상의 DDVs 를 유지할 수도 있다. 일부 예들에서, 비디오 코더에 의해 슬라이스에 대해 유지된 DDVs 의 개수는 현재의 화상의 폭, 현재의 화상의 높이, 또는 현재의 슬라이스에서의 블록들의 개수에 비례하지 않는다. 다시 말해서, 유지될 DDVs 의 개수는 화상 폭, 화상 높이 또는 슬라이스가 가지는 블록들의 개수에 비례하지 않는다. 대신, 일부 예들에서, 비디오 코더에 의해 유지되는 DDVs 의 개수는 하나의 MB, 하나의 CU, 또는 하나의 LCU 에서 블록들의 개수에 비례한다.
본 개시물의 일부 예들에서, 비디오 코더는 단지 하나의 DDV 를 저장한다. 예를 들어, 일단 비디오 코더가 슬라이스의 (코딩 순서에서) 제 1 MB 를 코딩하면, 비디오 코더는 MB 의 디스패리티 벡터를 DDV 에 저장할 수도 있다. 현재의 MB 를 코딩할 때, 비디오 코더는 NBDV 유도 프로세스에서 그 저장된 DDV 를 사용하여, 후속 MB 에 대한 디스패리티 벡터를 유도할 수도 있다. 다시 말해서, 현재의 MB 를 코딩할 때, (통상적으로 좌측 MB 인) 이전 MB 를 코딩할 때 발생되는, 이전에 저장된 DDV 가 NBDV 에 이용된다.
이러한 방법으로, 비디오 코더는 일부 예들에서, 비디오 데이터의 현재의 화상의 슬라이스에 대한 DDV 를 저장할 수도 있다. 더욱이, 비디오 코더는 비디오 데이터의 현재의 화상의 슬라이스에 대한 DDV 에 적어도 부분적으로 기초하여, 슬라이스의 제 1 블록에 대한 NBDV 를 유도할 수도 있다. 비디오 코더는 제 1 블록에 대한 NBDV 에 적어도 부분적으로 기초하여 제 1 블록을 코딩할 수도 있다. 더욱이, 비디오 코더는 제 1 블록에 대한 NBDV 를 DDV 로서 저장할 수도 있다. 예를 들어, 일단 비디오 코더가 슬라이스의 제 1 MB 를 코딩하면 (즉, 코딩한 후), 비디오 코더는 MB 의 디스패리티 벡터를 DDV 로서 저장할 수도 있다. 따라서, 일부 예들에서, 비디오 코더는 비디오 데이터의 현재의 화상의 슬라이스에 대해 단지 하나의 DDV 를 저장할 수도 있으며, 여기서, 슬라이스는 다수의 블록들을 포함한다. 더욱이, 이러한 예들에서, 비디오 코더는 특정의 블록에 대한 디스패리티 벡터를 결정하기 위해 NBDV 유도 프로세스에서 슬라이스에 대한 DDV 를 이용할 수도 있으며, 여기서, 특정의 블록은 슬라이스의 블록들 중 하나이다. 이러한 예들에서, 비디오 코더는 슬라이스에 대한 DDV 로서, 특정의 블록에 대한 디스패리티 벡터를 저장할 수도 있다.
제 1 블록에 대한 NBDV 를 DDV 로서 저장한 후, 비디오 코더는 DDV 에 적어도 부분적으로 기초하여, 슬라이스의 제 2 블록에 대한 NBDV 를 유도할 수도 있다. 일부 예들에서, 제 1 블록은 바로 제 2 블록의 좌측에 있다. 더욱이, 비디오 코더는 제 2 블록에 대한 NBDV 에 적어도 부분적으로 기초하여 제 2 블록을 코딩할 수도 있다. 이러한 예들에서, 제 1 블록은 매크로블록일 수도 있으며, 제 2 블록은 또한 매크로블록일 수도 있다. 다른 경우, 제 1 블록 및 제 2 블록은 CUs 일 수도 있거나, 제 1 블록 및 제 2 블록은 PUs 일 수도 있거나, 또는 제 1 블록 및 제 2 블록은 LCUs 일 수도 있다.
일부 예들에서, 비디오 코더는 현재의 MB 의 디스패리티 벡터를 규정하기 위해 DDV 를 업데이트할 수도 있다. 예를 들어, 비디오 코더는 단지 비디오 코더가 인터-뷰 모션 예측을 사용하여 현재의 MB 를 코딩할 때에만 DDV 를 업데이트하여 현재의 MB 의 디스패리티 벡터를 규정할 수도 있다. 다시 말해서, DDV 는 현재의 MB 가 NBDV 결과를 사용하여, 예컨대, 인터-뷰 모션 예측을 사용하여 코딩될 때 단지 업데이트된다. 또 다른 예에서, 비디오 코더는 현재의 MB 가 인터 코딩될 때 단지 DDV 를 업데이트하여 현재의 MB 의 디스패리티 벡터를 규정한다. 다시 말해서, DDV 는 현재의 MB 가 인터 코딩될 때에 단지 업데이트된다. 또 다른 예에서, 비디오 코더는 현재의 MB 가 인터 코딩된 슬라이스 (예컨대, P 슬라이스 또는 B 슬라이스) 에 있을 때 단지 DDV 를 업데이트하여 현재의 MB 의 디스패리티 벡터를 규정한다. 따라서, 이 예에서, DDV 는 현재의 슬라이스가 인터 코딩될 때 단지 업데이트된다. 또 다른 예에서, 비디오 코더는 현재의 MB 가 스킵 모드 또는 직접 모드로 코딩될 때 단지 DDV 를 업데이트하여 현재의 MB 의 디스패리티 벡터를 규정한다. 다시 말해서, DDV 는 현재의 MB 가 스킵 모드 또는 직접 모드로 코딩될 때 단지 업데이트된다.
더욱이, 일부 예들에서, 비디오 코더는 블록에 대한 디스패리티 벡터의 크기가 DDV 의 크기보다 더 크다고 결정하는 것에 응답하여 블록에 대한 디스패리티 벡터를 DDV 로서 저장할 수도 있다. 예를 들어, 비디오 코더는 현재의 MB 의 디스패리티 벡터의 수평 성분이 DDV 의 수평 성분보다 더 커야만 DDV 를 업데이트하여 현재의 MB 의 디스패리티 벡터를 규정할 수도 있다. 다시 말해서, DDV 는 현재의 MB 의 유도된 디스패리티 벡터가 이전에 저장된 DDV 보다 더 크면 단지 추가로 저장되거나 업데이트된다. 여기서, 디스패리티 벡터의 수평 성분의 절대값이 비교된다.
일부 예들에서, 비디오 코더는 단지 DDV 가 제로이어야만 DDV 를 업데이트하여 현재의 블록의 디스패리티 벡터를 규정한다. 일부 예들에서, 비디오 코더는 DDV 의 양쪽의 성분들이 제로와 동일할 때 DDV 를 제로인 것으로 식별할 수도 있다. 다른 예들에서, 비디오 코더는 DDV 의 수평 성분이 제로와 동일할 때 DDV 를 제로인 것으로 식별할 수도 있다. 그러므로, 이러한 예들에서, DDV 는 DDV 가 제로이면 (성분들 양쪽이 제로로 또는 단지 수평 성분이 제로로 식별되면) 단지 추가로 저장되거나 또는 업데이트된다.
일부 예들에서, 비디오 코더는 단지 저장된 DDV 가 현재의 블록의 좌측에 있는 블록에 대한 디스패리티 벡터를 규정할 때에만 저장된 DDV 로부터 현재의 블록에 대한 디스패리티 벡터를 유도할 수도 있다. 예를 들어, 비디오 코더가 DDV 를 유도한 MB 가 현재의 MB 의 좌측면에 인접하지 않으면, 비디오 코더는 현재의 MB 에 대한 디스패리티 벡터를 유도하는데 DDV 를 사용하지 않는다. 다시 말해서, DDV 를 발생시키는데 사용되는 이전 MB 가 현재의 MB 의 좌측면에 로케이트된 MB 가 아니면, DDV 는 현재의 MB 의 NBDV 를 유도하는데 이용되지 않는다.
따라서, 본 개시물에서 위에서 그리고 다른 어딘가에 제공되는 본 개시물의 여러 예들에서, 비디오 코더는 다음 조건이 만족되는 것에 응답하여 DDV 를 업데이트하여 블록에 대한 NBDV 를 규정할 수도 있으며, 그 조건은 제 1 블록이 인터-뷰 모션 예측을 사용하여 코딩되는 것, 제 1 블록이 인터 코딩되는 것, 슬라이스가 인터 코딩되는 것, 제 1 블록이 스킵 모드 또는 직접 모드로 코딩되는 것, 제 1 블록에 대한 NBDV 의 크기가 DDV 의 크기보다 더 큰 것, 그리고 DDV 가 넌-제로인 것 중 하나이다.
비디오 코더는 저장된 DDV, 시간 이웃하는 블록들 (TDVs) 에 대한 디스패리티 모션 벡터들 및 공간 이웃하는 블록들 (SDVs) 에 대한 디스패리티 모션 벡터들에 적어도 부분적으로 기초하여, 현재의 블록에 대한 NBDV 를 유도할 수도 있다. 즉, DDV 는 (TDVs 로서 표기되는) 시간 이웃하는 블록들로부터의 가능한 디스패리티 모션 벡터들 및 (SDVs 로서 표기되는) 공간 이웃하는 블록들로부터의 디스패리티 모션 벡터들과 함께 여러 방법들로 이용될 수 있다. 그러므로, 제 1 블록에 대한 NBDV 를 유도하는 것은 블록에 대한 NBDV 를 유도하기 위해, DDV, 시간 이웃하는 블록에 대한 디스패리티 모션 벡터, 및 공간 이웃하는 블록에 대한 디스패리티 모션 벡터를 사용하는 것을 포함할 수도 있다.
예를 들어, 비디오 코더는 비디오 코더가 임의의 TDVs 또는 SDVs 를 식별하는데 이용불가능할 때 현재의 블록의 디스패리티 벡터를 DDV 로서 설정할 수도 있다. 다시 말해서, 어떤 가용 TDVs 또는 SDVs 도 식별되지 않은 후, 디스패리티 벡터는 DDV 로 설정된다. 따라서, TDVs 또는 SDVs 중 어느 것도 현재의 블록에 대한 NBDV 를 결정할 때에 이용불가능하다고 결정하는 것에 응답하여, 비디오 코더는 현재의 블록에 대한 NBDV 가 저장된 DDV 와 동일하다고 결정할 수도 있다.
일부 예들에서, 비디오 코더는 어떤 가용 TDVs 또는 SDVs 도 존재하지 않고 DDV 가 넌-제로이면, 단지 현재의 블록에 대한 디스패리티 벡터를 DDV 로서 설정한다. 비디오 코더는 DDV 의 성분들 중 어느 하나가 넌-제로일 때 DDV 가 넌-제로라고 결정할 수도 있다. 이의 대안으로, 비디오 코더는 DDV 의 수평 성분이 넌-제로일 때 DDV 가 넌-제로라고 결정할 수도 있다. 이 예에서, 비디오 코더는 DDV 가 제로이면 현재의 블록에 대한 디스패리티 벡터를 제로로 설정할 수도 있다. 다시 말해서, 시간 및 공간 이웃들이 가용 디스패리티 모션 벡터를 제공하지 않을 때, DDV 가 넌-제로이면 (성분들 양쪽이 제로로 또는 단지 수평 성분이 제로로 식별되면), 넌-제로 DDV 는 NBDV 로서 반환되고; 그렇지 않으면, 제로 디스패리티 벡터가 반환된다.
더욱이, 비디오 코더가 DDV 를 체킹하는 것에 더해서 TDVs 및 SDVs 를 체킹하는 NBDV 유도 프로세스를 수행하는 일부 예들에서, 비디오 코더는 TDVs, SDVs, 및 DDV 를 여러 순서들로 체킹할 수도 있다. 다시 말해서, 디스패리티 벡터들이 주어진 사전-정의된 순서로 체킹된다. 일단 이용가능하고 넌-제로인 디스패리티 모션 벡터를 비디오 코더가 식별하면 (양쪽의 성분들 양쪽이 넌-제로로 또는 단지 수평 성분이 넌-제로로 식별되면), 비디오 코더는 식별된 디스패리티 모션 벡터로부터 현재의 블록의 디스패리티 벡터를 유도할 수도 있다. 예를 들어, 비디오 코더가 저장된 DDV, TDVs 및 SDVs 를 미리 정의된 순서로 체킹하면서, 저장된 DDV, TDVs, 및 SDVs 중에서 가용 넌-제로 디스패리티 모션 벡터를 식별할 때, 비디오 코더는 현재의 블록에 대한 디스패리티 벡터가 가용 넌-제로 디스패리티 벡터와 동일하다고 결정할 수도 있다. 가능한 사전-정의된 체킹 순서들은 다음을 포함할 수도 있다:
- TDVs, SDVs 및 DDV;
- SDVs, TDVs 및 DDV;
- DDV, SDVs, 및 TDVs;
- DDV, TDVs, 및 SDVs;
- TDVs, DDV, 및 SDVs; 및
- SDVs, DDV, 및 TDVs.
예를 들어, 비디오 코더가 TDVs, SDVs 및 DDV 또는 SDVs, TDVs, 및 DDV 의 순서를 사용하면, 블록에 대한 NBDV 를 유도하는 것은, 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖지 않는다고 결정한 후, 그리고, 공간 이웃하는 블록이 디스패리티 모션 벡터를 갖지 않는다고 결정한 후, 블록에 대한 NBDV 를 DDV 로서 설정하는 것을 포함할 수도 있다.
좀더 구체적으로, 비디오 코더가 TDVs, SDVs 및 DDV 의 순서를 사용하면, 비디오 코더는 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖는지 여부를 결정할 수도 있다. 더욱이, 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖는다고 결정하는 것에 응답하여, 비디오 코더는 시간 이웃하는 블록의 디스패리티 모션 벡터에 기초하여 블록에 대한 NBDV 를 유도할 수도 있다. 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖지 않는다고 결정하는 것에 응답하여, 비디오 코더는 복수의 공간 이웃하는 블록들에서의 임의의 공간 이웃하는 블록이 디스패리티 모션 벡터를 갖는지 여부를 결정할 수도 있다. 복수의 공간 이웃하는 블록들에서의 특정의 공간 이웃하는 블록이 디스패리티 모션 벡터를 갖는다고 결정하는 것에 응답하여, 비디오 코더는 특정의 공간 이웃하는 블록의 디스패리티 모션 벡터에 기초하여 블록에 대한 NBDV 를 유도할 수도 있다. 어떤 복수의 공간 이웃하는 블록들에서 공간 이웃하는 블록도 디스패리티 모션 벡터를 갖지 않는다고 결정하는 것에 응답하여, 비디오 코더는 블록에 대한 NBDV 를 DDV 로서 유도할 수도 있다.
일부 예들에서, 비디오 코더는 2개 이상의 DDVs 를 유도한다. 이러한 예들에서, 비디오 코더는 DDVs 를 정해진 순서로 형성할 수도 있다. 이러한 일부 예들에서, 비디오 코더는 단지 하나의 DDV 를 다수의 DDVs 로 재현함으로써, 비디오 코더가 DDV 를 체킹하는 것에 더해서 TDVs 및 SDVs 를 체킹하는 NBDV 유도 프로세스를 수행하는 상기 예들에서 설명된 바와 같은 동일한 사전-정의된 순서로, TDVs 및 SDVs 와 함께 DDVs 를 공동으로 고려할 수도 있다. 예를 들어, TDVs, SDVs, 및 2개 이상의 저장된 DDVs 를 미리 정의된 체킹 순서로 체킹하면서 가용 넌-제로 디스패리티 벡터가 TDVs, SDVs, 및 2개 이상의 저장된 DDVs 중에서 식별될 때, 비디오 코더는 현재의 블록에 대한 디스패리티 벡터가 가용 넌-제로 디스패리티 벡터와 동일하다고 결정할 수도 있으며, 여기서, 미리 정의된 체킹 순서에서 2개 이상의 저장된 DDVs 는 특정의 순서에 따라서 체킹된다.
비디오 코더가 2개 이상의 DDVs 를 유도하는 일부 예들에서, DDV 가 현재의 블록의 이웃하는 MB 로부터 발생되지 않으면, DDV 는 현재의 MB 의 디스패리티 벡터를 예측하는데 이용되는 DDVs 로부터 제외된다.
더욱이, 일부 예들에서, 비디오 코더는 2개의 DDVs: DDV 1 및 DDV 2 를 유도한다. DDV 1 및 DDV 2 는 먼저 동일하게 설정될 수도 있다. 그러나, DDV 1 은 일단 현재의 MB 의 우측 이웃하는 MB 인 현재의 MB 가 코딩되면 업데이트되며, DDV 2 는 일단 현재의 MB 의 상부 이웃하는 MB 인 현재의 MB 가 코딩되면 업데이트된다. 즉, 일단 현재의 MB 가 이전에 연속적으로 코딩된 MB 의 우측 이웃하는 MB 로서 코딩되면 DDV 1 이 업데이트되며, 일단 현재의 MB 가 이전에 연속적으로 코딩된 MB 의 하부 이웃하는 MB 로서 코딩되면 DDV 2 가 업데이트된다. 비디오 코더가 현재의 MB 를 코딩할 때, 비디오 코더는 DDV 1 및 DDV 2 양쪽을 코딩할 수도 있으며, 여기서, DDV 1 이 DDV 2 보다 더 높은 우선순위를 갖는다. 다시 말해서, 비디오 코더는 DDV 2 보다 일찍 DDV 1 을 체킹한다. 또 다른 예에서, 비디오 코더는 DDV 1 이 현재의 블록의 좌측에 있는 블록으로부터 유도되면 단지 DDV 1 을 사용하여 현재의 블록의 디스패리티 벡터를 유도한다. 예를 들어, 단지 DDV 1 이 좌측 이웃하는 MB 로부터 유도되면, DDV 1 이 디스패리티 벡터를 유도하는데 이용된다. 게다가, 비디오 코더는 DDV 2 가 현재의 블록 위에 있는 블록으로부터 유도되면 DDV 2 를 사용하여 현재의 블록에 대한 디스패리티 벡터를 유도할 수도 있다. 예를 들어, DDV 2 가 상부 이웃하는 MB 로부터 유도되면, DDV 2 가 디스패리티 벡터를 유도하는데 이용된다.
일부 예들에서, 베이스/참조 뷰 심도 뷰 성분에 액세스하는 것이 허용될 때, 2개 이상의 대안 접근법들이 DDV 를 사용하는 관점에서 가능하다. 하나의 접근법에서, 비디오 코더는 심도 뷰 성분에 액세스하는 것이 불허될 때 단지 DDV 를 이용한다. 예를 들어, 심도 뷰 성분에 액세스하는 것이 허용되지 않는다고 결정하는 것에 응답하여, 비디오 코더는 하나 이상의 저장된 DDVs 에 기초하여, 현재의 블록에 대한 디스패리티 벡터를 유도할 수도 있다.
베이스/참조 뷰 심도 뷰 성분에 액세스하는 것이 허용되는 또 다른 예에서, 비디오 코더는 DDV 를 사용하여, 위에서 설명된 초기 디스패리티 벡터를 결정한다. 그 뒤에, 비디오 코더는 디스패리티 모션 벡터를 개선하기 위해, 초기 디스패리티 벡터를 추가로 사용하여, 잠재적으로 더 정확한 심도 블록을 식별한다. 예를 들어, 베이스/참조 뷰 심도 뷰 성분에 액세스하는 것이 허용될 때, 비디오 코더는 하나 이상의 저장된 DDVs 에 기초하여, 현재의 블록에 대한 초기 NBDV 를 결정할 수도 있으며, 현재의 블록에 대한 초기 디스패리티 벡터를 사용하여, 잠재적으로 더 정확한 심도 블록을 식별함으로써 현재의 블록에 대한 초기 디스패리티 벡터를 개선할 수도 있다.
더욱이, 베이스/참조 뷰 심도 뷰 성분에 액세스하는 것이 허용되는 일부 예들에서, 비디오 코더는 '268 출원에서 설명된 바와 같은 개선된 디스패리티 벡터를 사용하여 DDV 를 향상시킬 수도 있다. 예를 들어, 베이스/참조 뷰 심도 뷰 성분에 액세스하는 것이 허용될 때, 비디오 코더는 하나 이상의 저장된 DDVs 를 개선할 수도 있다. 일부 예들에서, 비디오 코더는 MB 레벨에서 개선된 디스패리티 벡터를 DDV 로서 저장한다. 또 다른 예에서, 비디오 코더는 MB 레벨보다 더 작은 블록 레벨에서 개선된 디스패리티 벡터를 DDV 로서 저장한다. 예를 들어, 비디오 코더는 MB 내 우하측 모서리의 개선된 디스패리티 벡터를 DDV 로서 저장할 수도 있다. 이러한 방법으로, 비디오 코더는 심도 뷰 성분에서의 심도 픽셀들에 기초하여, 블록에 대한 NBDV 를 개선할 수도 있으며, 비디오 코더가 블록에 대한 NBDV 를 DDV 로서 저장할 때, 비디오 코더는 DDV 를 업데이트하여 블록에 대한 개선된 NBDV 를 규정할 수도 있다.
다음은 3D-HEVC 에 대한 본 개시물의 제안된 기법들 (예컨대, 방법들) 의 일반화이다. 3D-HEVC 에 대한 제안된 기법들의 일반화의 첫번째 요점 (point) 으로, 본 개시물의 상기 설명된 기법들은 또한 MBs 가 PUs, CUs, 또는 LCUs 로 대체된 상태로, 3D-HEVC 에 적용될 수도 있다. 3D-HEVC 에 대한 본 개시물의 제안된 기법들의 일반화의 두번째 요점으로, 본 개시물의 제안된 기법들이 3D-HEVC 에서 사용될 때, 비디오 코더들은 IDVs 를 저장할 필요가 없을 수도 있다. 다시 말해서, 3D-AVC, 3D-HEVC, 및 잠재적으로 다른 비디오 코딩 표준들 및 사양들에서, 비디오 코더는 본 개시물의 일부 예들에 따라서, 슬라이스의 임의의 블록에 대한 IDVs 를 저장하지 않을 수도 있다.
3D-HEVC 에 대한 제안된 기법들의 일반화의 세번째 요점으로, 각각의 LCU 또는 CU 에 대해, 비디오 코더는 가장 작은 코딩 유닛 (예컨대, 4x4 또는 8x8) 보다 크거나 또는 동일한 단위에서 우측-가장 큰 블록들의 DDVs 를 저장할 수도 있다. 현재의 PU 를 코딩할 때, 비디오 코더는 비디오 코더가 좌측 LCU 의 현재의 PU 의 좌측 블록들로부터 유도한 DDVs 를 사용하여, 현재의 PU 의 디스패리티 벡터를 예측할 수도 있다. 예를 들어, LCU 가 64x64 이고 가장 작은 코딩 유닛이 4x4 일 때, 비디오 코더는 최고 16 개의 DDVs 를 저장할 수도 있다. 저장된 DDVs 가 동일한 PU 의 블록들에 속하기 때문에, 저장된 DDVs 중 일부가 동일할지도 모른다.
더욱이, LCU 또는 CU 에 대해, 비디오 코더는 단지 LCU 또는 CU 내 PUs 중 하나로부터 유도된 하나의 DDV 를 저장할 수도 있다. 현재의 PU 를 코딩할 때, 비디오 코더는 현재의 PU 의 좌측 LCU/CU 의 DDV 를 사용하여, 현재의 PU 의 디스패리티 벡터를 예측할 수도 있다. 일 예에서, 비디오 코더는 LCU 또는 CU 내 PUs 의 모든 가용 DDVs 의 기능을 통해서, 저장될 하나의 LCU 또는 CU 의 DDV 를 선택할 수도 있다.
이러한 방법으로, 비디오 인코더 (20) 는 슬라이스의 하나 이상의 이전에-코딩된 블록들로부터의 하나 이상의 DDVs 를 저장할 수도 있다. 더욱이, 비디오 인코더 (20) 는 하나 이상의 저장된 DDVs 에 기초하여, 슬라이스의 현재의 블록에 대한 NBDV 를 유도할 수도 있다. 비디오 인코더 (20) 는 현재의 블록에 대한 NBDV 에 적어도 부분적으로 기초하여, 현재의 블록을 인코딩할 수도 있다. 이와 유사하게, 비디오 디코더 (20) 는 슬라이스의 하나 이상의 이전에-코딩된 블록들로부터의 하나 이상의 DDVs 를 저장할 수도 있다. 더욱이, 비디오 디코더 (20) 는 하나 이상의 저장된 DDVs 에 적어도 부분적으로 기초하여, 슬라이스의 현재의 블록에 대한 NBDV 를 유도할 수도 있다. 비디오 디코더 (30) 는 현재의 블록에 대한 NBDV 에 적어도 부분적으로 기초하여, 현재의 블록을 디코딩할 수도 있다.
3D-HEVC 에 대한 본 개시물의 제안된 기법들의 일반화의 또 다른 요점으로, 비디오 코더는 단지 각각의 슬라이스에 대해 하나의 DDV 를 유지할 수도 있다. 비디오 코더는 일단 CU 가 코딩되면 DDV 를 업데이트할 수도 있다. 상이한 예들에서, 비디오 코더는 DDV 를 상이한 방법들로 업데이트할 수도 있다.
예를 들어, 슬라이스가 인트라 코딩되지 않을 때, 비디오 코더는 CU 가 NBDV 유도 프로세스로부터 기인하는 디스패리티 벡터를 이용할지 여부에 관계없이, 각각의 CU 에 대한 NBDV 유도 프로세스를 호출할 수도 있다. 다시 말해서, 일단 슬라이스가 인트라 코딩되지 않으면, NBDV 는 CU 가 NBDV 결과를 이용할지 여부에 관계 없이, 각각의 CU 에 대해 호출된다. 비디오 코더가 NBDV 결과를 사용하여 DDV 를 업데이트할 수도 있으므로, 비디오 코더가 DDV 를 NBDV 유도 프로세스에 의해 유도된 디스패리티 벡터와 동일하게 설정할 수도 있다는 것을 의미한다.
본 개시물의 기법들이 3D-HEVC 에 대해 일반화될 때 비디오 코더가 DDV 를 업데이트할 수 있는 방법의 또 다른 예에서, 비디오 코더가 인터 예측을 사용하여 CU 를 코딩한 후 비디오 코더가 NBDV 유도 프로세스를 호출할 수도 있다. 다시 말해서, CU 가 인터 코딩되면, NBDV 가 CU 에 대해 호출된다. 비디오 코더는 NBDV 결과 (즉, NBDV 유도 프로세스에 의해 유도된 디스패리티 벡터) 를 사용하여, DDV 를 업데이트할 수도 있다. 그렇지 않고, 비디오 코더가 CU 를 코딩하는데 인터 예측을 사용하지 않으면, 비디오 코더는 DDV 를 업데이트하지 않는다.
본 개시물의 기법들이 3D-HEVC 에 대해 일반화될 때 비디오 코더가 DDV 를 업데이트할 수 있는 방법의 또 다른 예에서, 비디오 코더는 비디오 코더가 CU 내 PU 를 NBDV 결과를 사용하여 코딩할 때, NBDV 결과 (즉, NBDV 유도 프로세스에 의해 유도된 디스패리티 벡터) 를 사용하여 DDV 를 업데이트할 수도 있다. 이 예에서, 비디오 코더는 비디오 코더가 NBDV 결과를 사용하지 않고 PU 를 코딩할 때 DDV 를 업데이트하지 않는다. 다시 말해서, 일단 CU 내 PU 가 NBDV 결과를 사용하여 코딩되면, NBDV 결과가 DDV 를 업데이트하는데 이용되며, 그렇지 않으면, DDV 가 업데이트되지 않는다.
본 개시물의 기법들이 3D-HEVC 에 대해 일반화될 때 비디오 코더가 DDV 를 업데이트할 수 있는 방법의 또 다른 예에서, 비디오 코더는 비디오 코더가 CU 의 적어도 하나의 PU 를 스킵 모드로 코딩할 때, DDV 를 업데이트하여, NBDV 결과 (즉, NBDV 유도 프로세스에 의해 유도된 디스패리티 벡터) 를 규정할 수도 있다. 다시 말해서, 이 예에서, 일단 CU 내 적어도 하나의 PU 가 스킵 모드로 코딩될 때, NBDV 결과가 DDV 를 업데이트하는데 이용된다.
3D-HEVC 에 대한 본 개시물의 제안된 기법들의 일반화의 또 다른 예시적인 요점으로, 비디오 코더는 일부 예들에서, 각각의 슬라이스에 대해 하나의 DDV 를 단지 유지할 수도 있으며, 비디오 코더는 일단 PU 가 코딩되면 단지 DDV 를 업데이트할 수도 있다. 따라서, 본 개시물의 여러 예들에서, 단지 하나의 DDV 가 슬라이스에 대해 유지되며, DDV 가 슬라이스의 슬라이스의 제 1 블록이 코딩된 후에 코딩되는 슬라이스의 각각의 블록 (매크로블록, CU, PU, 등) 에 대해 한번 업데이트된다. 일부 예들에서, 비디오 코더는 DDV 를 여러 방법들로 업데이트할 수도 있다. 예를 들어, 비디오 코더는 슬라이스가 인트라 코딩되지 않을 때, 비디오 코더가 각각의 PU 를 코딩하는데 NBDV 결과를 사용하는지 여부에 관계없이, 슬라이스의 각각의 각각의 PU 에 대한 NBDV 유도 프로세스를 호출할 수도 있다. 이 예에서, 비디오 코더는 NBDV 결과를 사용하여, DDV 를 업데이트할 수도 있다. 다시 말해서, 일단 슬라이스가 인트라 코딩되지 않으면, NBDV 는 PU 가 NBDV 결과를 사용하는지 여부에 관계없이, 각각의 PU 에 대해 호출된다.
비디오 코더가 각각의 슬라이스에 대해 단지 하나의 DDV 를 유지할 때 비디오 코더가 DDV 를 업데이트할 수 있는 방법의 또 다른 예에서, 비디오 코더는 비디오 코더가 PU 를 코딩하는데 인터 예측을 사용하였으면 NBDV 유도 프로세스를 호출할 수도 있다. 이 예에서, 비디오 코더는 NBDV 결과를 사용하여, DDV 를 업데이트할 수도 있다. 그렇지 않고, 비디오 코더가 PU 를 코딩하는데 인터 예측을 사용하지 않았으면, 비디오 코더는 NBDV 결과를 사용하여 DDV 를 업데이트하지 않는다. 다시 말해서, 일단 PU 가 인터 코딩되면, NBDV 가 PU 에 대해 호출된다. NBDV 결과가 DDV 를 업데이트하는데 이용되며, 그렇지 않으면, DDV 가 업데이트되지 않는다.
비디오 코더가 각각의 슬라이스에 대해 단지 하나의 DDV 를 유지할 때 비디오 코더가 DDV 를 업데이트할 수 있는 방법의 또 다른 예에서, 비디오 코더는 비디오 코더가 NBDV 결과를 사용하여 PU 를 코딩할 때 NBDV 결과를 사용하여 DDV 를 업데이트할 수도 있다. 이 예에서, 비디오 코더는 비디오 코더가 PU 를 NBDV 결과를 사용하여 코딩하지 않을 때 NBDV 결과를 사용하여 DDV 를 업데이트하지 않는다. 다시 말해서, 일단 PU 가 NBDV 결과를 사용하여 코딩되면, NBDV 결과가 DDV 를 업데이트하는데 이용되며, 그렇지 않으면, DDV 가 업데이트되지 않는다.
비디오 코더가 각각의 슬라이스에 대해 단지 하나의 DDV 를 유지할 때 비디오 코더가 DDV 를 업데이트할 수 있는 방법의 또 다른 예에서, 비디오 코더는 비디오 코더가 PU 를 코딩하는데 스킵 모드를 이용할 때 NBDV 결과를 사용하여, DDV 를 업데이트할 수도 있다. 다시 말해서, 일단 PU 가 스킵 모드로 코딩되면, NBDV 결과가 DDV 를 업데이트하는데 이용된다.
본 개시물의 기법들이 3D-HEVC 에 대해 일반화되는 일부 예들에서, 비디오 코더는 각각의 슬라이스에 대해 하나의 DDV 를 유지하며, 비디오 코더는 일단 비디오 코더가 CU 를 코딩하면 또는 일단 비디오 코더가 PU 를 코딩하면 DDV 를 업데이트하며, 비디오 코더는 블록의 공간 및 시간 이웃하는 블록들이 디스패리티 모션 벡터들을 가지지 않을 때 DDV 를 사용하여 블록의 디스패리티 벡터 (즉, NBDV) 를 유도할 수도 있다. 다시 말해서, 공간 및 시간 이웃하는 블록들이 디스패리티 모션 벡터를 포함하지 않을 때 NBDV 를 유도하는데 DDV 가 이용된다. 이 경우, 비디오 코더는 NBDV 를 DDV 와 동일하게 설정할 수도 있다. 그 뒤에, 비디오 코더는 참조 뷰의 심도에 액세스함으로써, DDV 로서 설정되는 NBDV 를 추가로 개선할 수도 있다. 일부 예들에서, 비디오 코더는 DDV 를, 원래 NBDV (즉, 블록의 미개선된 디스패리티 벡터) 를 사용하여 참조 뷰의 심도 뷰 성분에 액세스하는 것으로부터 기인하는 개선된 디스패리티 벡터와 동일하게 설정할 수도 있다.
더욱이, 본 개시물의 기법들이 3D-AVC 또는 3D-HEVC 에 적용되는 일부 예들에서, 비디오 코더는 단지 DDVs 의 수평 성분을 저장하고 업데이트할 수도 있으며 동시에 비디오 코더는 DDVs 의 수직 성분을 0 으로 항상 설정할 수도 있다.
본 개시물의 하나 이상의 예시적인 기법들은 임의의 비디오 코덱에 대해 일반화될 수도 있다. 예를 들어, 각각의 블록에 대해 변수가 유도될 수도 있다. 현재의 블록을 디코딩하는데 변수가 이용되며 필요하다. 변수는 각각의 블록이 디코딩된 후에 업데이트될 수도 있다. 변수는, 이전 블록에 의해 업데이트될 수 있을 때, 현재의 블록을 예측하기 위해 전달된다. 변수는 단지 이웃하는 블록들로부터 예측되며, 직접적으로 또는 간접적으로 (예컨대, 차분 코딩을 사용하여) 시그널링되지 않는다.
도 7 은 본 개시물의 하나 이상의 기법들을 구현할 수도 있는 예시적인 비디오 인코더 (20) 를 예시하는 블록도이다. 도 7 의 예에서, 비디오 인코더 (20) 는 예측 프로세싱 유닛 (48), 합산기 (50), 변환 프로세싱 유닛 (52), 양자화 유닛 (54), 엔트로피 인코딩 유닛 (56), 역양자화 유닛 (58), 역변환 프로세싱 유닛 (60), 합산기 (62), 필터 유닛 (64), 및 참조 화상 메모리 (66) 를 포함한다. 예측 프로세싱 유닛 (48) 은 모션 추정 유닛 (68) (즉, 모션 및 디스패리티 보상 유닛), 모션 보상 유닛 (70) (즉, 모션 및 디스패리티 보상 유닛), 및 인트라 예측 프로세싱 유닛 (72) 을 포함한다.
도 7 에 나타낸 바와 같이, 비디오 인코더 (20) 는 비디오 데이터를 수신하고, 그 데이터를 비디오 블록들로 파티셔닝한다. 이 파티셔닝은 또한 화상들을 슬라이스들, 타일들, 또는 다른 더 큰 유닛들로 파티셔닝하는 것 뿐만 아니라, 예컨대, LCUs 및 CUs 의 쿼드트리 구조에 따른, 또는 HEVC 의 경우에 매크로블록들을 파티셔닝하는 것에 의한 비디오 블록 파티셔닝을 포함할 수도 있다. 비디오 인코더 (20) 는 일반적으로, 인코딩될 슬라이스 내 비디오 블록들을 인코딩하는 구성요소들을 예시한다. 슬라이스는 다수의 비디오 블록들로 (그리고, 아마도, 타일들로서 지칭되는 비디오 블록들의 세트들로) 분할될 수도 있다.
예측 프로세싱 유닛 (48) 은 에러 결과들 (예컨대, 코딩 레이트 및 왜곡의 레벨) 에 기초하여, 현재의 비디오 블록에 대해, 복수의 인트라 코딩 모드들 중 하나, 또는 복수의 인터 코딩 모드들 또는 인터-뷰 코딩 모드들 중 하나와 같은, 복수의 가능한 코딩 모드들 중 하나를 선택할 수도 있다. 예측 프로세싱 유닛 (48) 은 슬라이스들 내 비디오 블록들의 인트라-코딩 및 인터-코딩을 수행할 수도 있다. 인터-코딩 (즉, 시간 인터 예측) 은 비디오 시퀀스의 인접 프레임들 또는 화상들 내 비디오에서 시간 리던던시를 감소시키거나 또는 제거하기 위해 시간 예측에 의존할 수도 있다. 인트라-코딩 (즉, "인트라-모드" 또는 "I 모드") 은 여러 공간 기반 압축 모드들 중 임의의 압축 모드를 지칭할 수도 있다. 단방향 예측 (즉, "양방향-예측" 또는 "P 모드") 또는 양방향 예측 (즉, "양방향-예측" 또는 "B 모드") 과 같은, 인터-모드들은, 여러 시간-기반 압축 모드들 중 임의의 압축 모드를 지칭할 수도 있다. 게다가, 예측 프로세싱 유닛 (48) 은 위에서 설명한 바와 같이 상이한 뷰들에서의 화상들 사이에 인터-뷰 예측을 수행할 수도 있다. 예측 프로세싱 유닛 (48) 은 최종 인트라- 또는 인터-코딩된 블록을 합산기 (50) 에 제공하여 잔여 블록 데이터를 발생시키고, 그리고, 합산기 (62) 에 제공하여 참조 화상으로의 사용을 위해 원래 블록을 재구성할 수도 있다.
예측 프로세싱 유닛 (48) 내 인트라 예측 프로세싱 유닛 (72) 은 코딩될 현재의 블록과 동일한 프레임 또는 슬라이스에서의 하나 이상의 이웃하는 블록들에 대해 현재의 비디오 블록의 인트라-예측 코딩 (즉, 인트라 코딩) 을 수행하여, 공간 압축을 제공할 수도 있다. 다시 말해서, 인트라 코딩은 주어진 비디오 프레임 또는 화상 내 비디오에서 공간 리던던시를 감소시키거나 또는 제거하기 위해 공간 예측에 의존한다. 예측 프로세싱 유닛 (48) 내 모션 추정 유닛 (68) 및 모션 보상 유닛 (70) 은 하나 이상의 참조 화상들 및/또는 참조 뷰들에서의 하나 이상의 예측 블록들에 대해, 현재의 비디오 블록의 인터-예측 코딩 및/또는 인터-뷰 코딩을 수행하여, 시간 및 인터-뷰 압축을 제공한다.
예측 프로세싱 유닛 (48) 은 비디오 시퀀스에 대한 미리 결정된 패턴에 따라서 슬라이스에 대한 인터-예측 모드 및/또는 인터-뷰 예측 모드를 결정할 수도 있다. 미리 결정된 패턴은 시퀀스에서의 슬라이스들을 P 슬라이스들 또는 B 슬라이스들로서 지정할 수도 있다. 모션 추정 유닛 (68) 및 모션 보상 유닛 (70) 은 고도로 통합될 수도 있지만, 개념적인 목적들을 위해 별개로 예시된다. 모션 추정 유닛 (68) 은 모션 추정 및/또는 디스패리티 추정을 수행할 수도 있다. 모션 추정은 비디오 블록들에 대한 모션을 추정하는 모션 벡터들을 발생시키는 프로세스를 포함한다. 모션 벡터는, 예를 들어, 참조 화상 내 예측 블록에 대한, 현재의 비디오 프레임 또는 화상 내 현재의 블록 (예컨대, PU, MB, MB 파티션, 등) 의 변위를 나타낼 수도 있다. 디스패리티 추정은 상이한 뷰에서의 블록으로부터 현재 코딩되는 블록을 예측하는데 이용될 수도 있는 디스패리티 벡터들을 발생시키는 프로세스이다.
예측 블록은 절대 차이의 총합 (SAD), 정사각형 차이의 총합 (SSD), 또는 다른 차이 메트릭들에 의해 결정될 수도 있는 픽셀 차이의 관점에서, 코딩될 현재의 블록 (예컨대, PU, MB, MB 파티션, 등) 에 가장 가깝게 매칭하는 것으로 발견되는 블록일 수도 있다. 일부 예들에서, 비디오 인코더 (20) 는 참조 화상 메모리 (66) 에 저장된 참조 화상들의 서브-정수 픽셀 위치들에 대한 값들을 계산할 수도 있다. 참조 화상 메모리 (66) 는 또한 디코딩 화상 버퍼로서 지칭될 수도 있다. 예를 들어, 비디오 인코더 (20) 는 참조 화상의 1/4 픽셀 위치들, 1/8 픽셀 위치들, 또는 다른 분수 픽셀 위치들의 값들을 내삽할 수도 있다. 따라서, 모션 추정 유닛 (68) 은 풀 픽셀 위치들 및 분수 픽셀 위치들에 대해, 모션 탐색을 수행하고, 분수 픽셀 정밀도를 가진 모션 벡터를 출력할 수도 있다.
예측 프로세싱 유닛 (48) 은 블록의 위치를 참조 화상의 예측 블록의 위치와 비교함으로써, 인터-코딩된 또는 인터-뷰 예측된 슬라이스에서의 블록 (예컨대, PU, MB, MB 파티션, 등) 에 대해 (모션 보상된 예측을 위한) 모션 벡터 및/또는 (디스패리티 보상된 예측을 위한) 디스패리티 벡터를 계산할 수도 있다. 참조 화상은 제 1 참조 화상 리스트 (리스트 0) 또는 제 2 참조 화상 리스트 (리스트 1) 로부터 선택될 수도 있으며, 이 리스트 각각은 하나 이상의 참조 화상 메모리 (66) 에 저장된 참조 화상들을 식별한다. 인터-뷰 예측에 있어, 참조 화상은 상이한 뷰에 있다. 모션 추정 유닛 (68) 은 계산된 모션 벡터 및/또는 디스패리티 벡터를 엔트로피 인코딩 유닛 (56) 및 모션 보상 유닛 (70) 로 전송할 수도 있다.
모션 보상 유닛 (70) 은 모션 보상 및/또는 디스패리티 보상을 수행할 수도 있다. 모션 보상 및/또는 디스패리티 보상은 모션 추정 및/또는 디스패리티 추정에 의해 결정된 모션 벡터에 기초하여 예측 블록을 페치하거나 또는 발생시켜, 어쩌면, 내삽들을 서브-픽셀 정밀도까지 수행하는 것을 수반할 수도 있다. 블록 (예컨대, PU, MB, MB 파티션, 등) 에 대한 모션 벡터 및/또는 디스패리티를 수신하자 마자, 모션 보상 유닛 (70) 은 참조 화상 리스트들 중 하나에 모션 벡터 및/또는 디스패리티 벡터가 가리키는 예측 블록을 로케이트할 수도 있다. 예측 프로세싱 유닛 (48) 은 또한 슬라이스의 비디오 블록들을 디코딩할 때에 비디오 디코더 (30) 에 의한 사용을 위해 비디오 블록들 및 슬라이스와 연관되는 구문 엘리먼트들을 발생시킬 수도 있다.
합산기 (50) 는 코딩중인 현재의 비디오 블록의 대응하는 픽셀 값들로부터 예측 블록의 픽셀 값들을 감산하여 잔여 비디오 블록을 형성함으로써, 픽셀 차이 값들을 형성할 수도 있다. 픽셀 차이 값들은 현재의 비디오 블록에 대한 잔여 데이터를 형성한다. 픽셀 차이 값들은 루마 차이 값들 및 크로마 차이 값들 양쪽을 포함할 수도 있다. 합산기 (50) 는 이 감산 동작을 수행하는 구성요소 또는 구성요소들을 나타낼 수도 있다.
인트라-예측 프로세싱 유닛 (72) 은 위에서 설명한 바와 같은, 모션 추정 유닛 (68) 및 모션 보상 유닛 (70) 에 의해 수행되는 인터-예측에 대한 대안으로서, 현재의 비디오 블록에 대한 하나 이상의 예측 블록들을 발생시키기 위해 인트라-예측을 수행할 수도 있다. 예를 들어, 인트라-예측 프로세싱 유닛 (72) 은 현재의 비디오 블록에 대한 하나 이상의 예측 블록들을 발생시키는데 이용할 인트라-예측 모드를 결정할 수도 있다. 현재의 비디오 블록에 대한 인트라-예측 모드를 결정한 (선택한) 후, 인트라-예측 프로세싱 유닛 (72) 은 현재의 비디오 블록에 대한 선택된 인트라-예측 모드를 나타내는 정보 (예컨대, 구문 엘리먼트) 를 엔트로피 인코딩 유닛 (56) 에 제공할 수도 있다. 엔트로피 인코딩 유닛 (56) 은 그 선택된 인트라-예측 모드를 나타내는 정보를 인코딩할 수도 있다.
일부 예들에서, 인트라-예측 프로세싱 유닛 (72) 은 여러 인트라-예측 모드들을 사용하여, 현재의 비디오 블록을 인코딩할 수도 있다 (즉, 인트라-예측 프로세싱 유닛 (72) 은 현재의 비디오 블록에 대한 하나 이상의 예측 블록들을 발생시킬 수도 있다). 예를 들어, 인트라-예측 프로세싱 유닛 (72) 은 별개의 인코딩 과정들 동안 현재의 비디오 블록에 대한 예측 블록들을 발생시킬 수도 있다. 인트라-예측 프로세싱 유닛 (72) 은 테스트된 모드들로부터 사용할 적합한 인트라-예측 모드를 선택할 수도 있다. 예를 들어, 인트라-예측 프로세싱 유닛 (72) 은 여러 테스트된 인트라-예측 모드들에 대해 레이트-왜곡 분석을 사용하여 레이트-왜곡 값들을 계산하고, 인트라-예측 모드들 중에서 최상의 레이트-왜곡 특성들을 가지는 인트라-예측 모드를 선택할 수도 있다. 일반적으로, 레이트-왜곡 분석은 인코딩된 블록과 그 인코딩된 블록을 발생시키기 위해 인코딩되었던 원래의 미인코딩된 블록 사이의 왜곡의 양 (또는, 에러) 뿐만 아니라, 그 인코딩된 블록을 발생시키는데 사용되는 비트 레이트 (즉, 비트들의 수) 를 결정한다. 인트라-예측 프로세싱 유닛 (72) 은 여러 인코딩된 블록들에 대한 왜곡들 및 레이트들로부터 비들 (ratios) 을 계산하여, 어느 인트라-예측 모드가 예측 블록에 대해 최상의 레이트-왜곡 값을 나타내는지를 결정할 수도 있다.
일부 예들에서, 모션 추정 유닛 (68) 은 현재의 비디오 블록에 대한 디스패리티 벡터를 결정할 수도 있다. 모션 추정 유닛 (68) 은 현재의 블록에 대한 디스패리티 벡터를 사용하여, 현재의 비디오 블록에 대한 모션 벡터 예측을 수행할 수도 있다. 예를 들어, 모션 추정 유닛 (68) 은 현재의 블록에 대한 디스패리티 벡터를 사용하여, 인터-뷰 참조 화상에서 대응하는 블록을 결정할 수도 있다. 게다가, 모션 추정 유닛 (68) 은 현재의 비디오 블록에 대해 모션 벡터 후보 리스트 (예컨대, 병합 후보 리스트 또는 AMVP 후보 리스트) 를 발생시킬 수도 있다. 모션 벡터 후보 리스트는 대응하는 인터-뷰 참조 블록의 하나 이상의 모션 벡터들을 규정하는 하나 이상의 후보들을 포함할 수도 있다. 모션 보상 유닛 (70) 은 후보들에 기초하여 예측 블록들을 결정할 수도 있으며, 예측 블록들 및 다른 데이터의 레이트 왜곡 분석에 기초하여 후보들 중 하나를 선택할 수도 있다. 모션 보상 유닛 (70) 은 선택된 후보를 나타내는 하나 이상의 구문 엘리먼트들을 발생시킬 수도 있다. 더욱이, 일부 예들에서, 모션 보상 유닛 (70) 은 현재의 비디오 블록에 대한 디스패리티 벡터를 사용하여, 현재의 비디오 블록에 대한 잔여 예측 (예컨대, 진보된 잔여 예측) 을 수행할 수도 있다. 따라서, 이러한 예들에서, 모션 보상 유닛 (70) 에 의해 궁극적으로 발생되는 예측 블록은 현재의 비디오 블록에 대한 예측 블록과 현재의 비디오 블록에 대한 잔여 예측자 사이의 차이에 기초할 수도 있다.
모션 추정 유닛 (68) 은 NBDV 유도 프로세스를 사용하여, 현재의 비디오 블록에 대한 디스패리티 벡터를 결정할 수도 있다. 본 개시물의 하나 이상의 기법들에 따르면, 모션 추정 유닛 (68) 은 현재의 슬라이스에 대한 하나 이상의 DDVs 를 초기화할 수도 있다. 모션 추정 유닛 (68) 은 NBDV 유도 프로세스에서 현재의 슬라이스에 대한 하나 이상의 DDVs 를 사용하여, 현재의 비디오 블록에 대한 디스패리티 벡터를 결정할 수도 있다. 일부 예들에서, 모션 추정 유닛 (68) 은 현재의 슬라이스에 대한 단일 DDV 를 초기화하고, 현재의 슬라이스의 제 1 비디오 블록 이후 현재의 슬라이스의 각각의 각각의 비디오 블록에 있어, 현재의 슬라이스에 대한 DDV 가 코딩 순서에서 각각의 비디오 블록 직전에 발생하는 비디오 블록에 대한 디스패리티 벡터를 규정하도록, DDV 를 업데이트한다.
이러한 방법으로, 모션 추정 유닛 (68) 은 현재의 화상의 현재의 슬라이스에 대한 DDV 를 저장할 수도 있다. 더욱이, 모션 추정 유닛 (68) 은 DDV 에 적어도 부분적으로 기초하여, 현재의 슬라이스의 제 1 비디오 블록에 대한 NBDV 를 유도할 수도 있다. 비디오 인코더 (20) 의 모션 보상 유닛 (70) 및 다른 유닛들은 제 1 비디오 블록에 대한 NBDV 에 적어도 부분적으로 기초하여, 제 1 비디오 블록을 인코딩할 수도 있다. 더욱이, 모션 추정 유닛 (68) 은 제 1 비디오 블록에 대한 NBDV 를 DDV 로서 저장함으로써, DDV 를 업데이트할 수도 있다. 제 1 비디오 블록에 대한 NBDV 를 DDV 로서 저장한 후, 모션 추정 유닛 (68) 은 업데이트된 DDV 에 적어도 부분적으로 기초하여, 현재의 슬라이스의 제 2 비디오 블록에 대한 NBDV 를 유도할 수도 있다. 비디오 인코더 (20) 의 모션 보상 유닛 (70) 및 다른 유닛들은 제 2 비디오 블록에 대한 NBDV 에 적어도 부분적으로 기초하여 제 2 비디오 블록을 인코딩할 수도 있다. 비디오 인코더 (20) 의 모션 추정 유닛 (68), 모션 보상 유닛 (70), 및 다른 유닛들은 현재의 슬라이스의 추가적인 비디오 블록들에 대해 이들 액션들을 계속해서 수행할 수도 있다.
예측 프로세싱 유닛 (48) 이 현재의 비디오 블록에 대한 예측 블록을 인터-예측 또는 인트라-예측을 통해서 발생시킨 후, 합산기 (50) 는 현재의 비디오 블록의 대응하는 샘플 값들로부터 예측 블록의 샘플 값들을 감산함으로써, 잔여 블록을 형성할 수도 있다. 잔여 블록에서의 잔여 비디오 데이터가 하나 이상의 TUs 에 포함될 수도 있다. 변환 프로세싱 유닛 (52) 은 변환을 사용하여, 잔여 비디오 데이터를 잔여 변환 계수들로 변환할 수도 있다. 예를 들어, 변환 프로세싱 유닛 (52) 은 이산 코사인 변환 (DCT) 또는 개념적으로 유사한 변환을 사용하여, 잔여 비디오 데이터를 변환할 수도 있다. 일부 예들에서, 변환 프로세싱 유닛 (52) 은 잔여 비디오 데이터를 픽셀 도메인으로부터 주파수 도메인과 같은 변환 도메인으로 변환할 수도 있다.
변환 프로세싱 유닛 (52) 은 최종 변환 계수들을 양자화 유닛 (54) 으로 전송할 수도 있다. 양자화 유닛 (54) 은 변환 프로세싱 유닛 (52) 에 의해 발생되는 변환 계수들을 양자화하여 비트 레이트를 추가로 감소시킬 수도 있다. 양자화 프로세스는 그 계수들의 일부 또는 모두와 연관되는 비트 심도를 감소시킬 수도 있다. 양자화의 정도는 양자화 파라미터를 조정함으로써 변경될 수도 있다. 일부 예들에서, 양자화 유닛 (54) 은 양자화된 변환 계수들을 포함하는 매트릭스의 스캐닝을 수행할 수도 있다. 이의 대안으로, 엔트로피 인코딩 유닛 (56) 은 그 스캐닝을 수행할 수도 있다.
양자화 이후, 엔트로피 인코딩 유닛 (56) 은 양자화된 변환 계수들을 엔트로피 인코딩할 수도 있다. 다시 말해서, 엔트로피 인코딩 유닛 (56) 은 양자화된 변환 계수들을 나타내는 구문 엘리먼트들을 엔트로피 인코딩할 수도 있다. 예를 들어, 엔트로피 인코딩 유닛 (56) 은 컨텍스트 적응 가변 길이 코딩 (CAVLC), 컨텍스트 적응 2진 산술 코딩 (CABAC), 구문-기반 컨텍스트-적응 2진 산술 코딩 (SBAC), 확률 간격 파티셔닝 엔트로피 (PIPE) 코딩 또는 또 다른 엔트로피 인코딩 방법론 또는 기법을 수행함으로써 양자화된 변환 계수들을 엔트로피 인코딩할 수도 있다. 엔트로피 인코딩 유닛 (56) 은 또한 코딩중인 현재의 슬라이스에 대한 다른 구문 엘리먼트들을 엔트로피 인코딩할 수도 있다.
비디오 인코더 (20) 는 비디오 데이터의 인코딩된 표현을 포함하는 인코딩된 비트스트림을 출력할 수도 있다. 비트스트림은 엔트로피 인코딩 유닛 (56) 에 의해 발생되는 엔트로피-인코딩된 구문 엘리먼트들 및 다른 엔트로피 코딩된 또는 비-엔트로피 코딩된 구문 엘리먼트들을 포함할 수도 있다. 인코딩된 비트스트림은 비디오 디코더 (30) 로 송신되거나, 또는 비디오 디코더 (30) 에 의한 추후 송신 또는 취출을 위해 아카이브될 수도 있다.
역양자화 유닛 (58) 및 역변환 프로세싱 유닛 (60) 은 역양자화 및 역변환을 각각 적용하여, 참조 화상의 참조 블록으로 추후 사용을 위해 픽셀 도메인에서 잔여 블록을 재구성할 수도 있다. 합산기 (62) 는 역변환 프로세싱 유닛 (60) 에 의해 발생되는 잔여 블록들에서의 샘플들을 예측 프로세싱 유닛 (48) 에 의해 발생되는 하나 이상의 예측 블록들의 대응하는 샘플들에 가산함으로써, 샘플 블록들을 재구성할 수도 있다. 일부 예들에서, 합산기 (62) 는 재구성된 잔여 블록을 예측 블록 (예컨대, 모션 보상 유닛 (44) 에 의해 발생된 모션 보상된 예측 블록) 에 가산하여, 참조 화상 메모리 (66) 에의 저장을 위한 참조 블록을 발생시킨다. 따라서, 참조 화상 메모리 (66) 는 비디오 데이터를 저장하는 메모리일 수도 있다. 모션 추정 유닛 (68) 및 모션 보상 유닛 (70) 은 참조 블록을 참조 블록으로서 사용하여, 후속 비디오 프레임 또는 화상에서의 블록을 인터-예측할 수도 있다. 모션 보상 유닛 (70) 은 잔여 블록을 참조 화상 리스트들 중 하나 내 참조 화상들 중 하나의 예측 블록에 가산함으로써 참조 블록을 계산할 수도 있다. 모션 보상 유닛 (70) 은 또한 하나 이상의 내삽 필터들을 그 재구성된 잔여 블록에 적용하여, 모션 추정에 사용하기 위한 서브-정수 픽셀 값들을 계산할 수도 있다.
도 7 의 예에서, 필터 유닛 (64) 은 하나 이상의 필터들을 합산기 (62) 에 의해 발생되는 샘플 블록에 적용할 수도 있다. 예를 들어, 필터 유닛 (64) 은 디블록킹 필터를 필터 블록 경계들에 적용하여, 재구성된 비디오로부터 블록킹 현상 아티팩트들을 제거할 수도 있다. 일부 예들에서, 필터 유닛 (64) 은 디블록킹 필터에 더해서 추가적인 루프 필터들 (인 루프 또는 사후 루프) 를 이용한다.
도 8 은 본 개시물의 하나 이상의 기법들을 구현할 수도 있는 예시적인 비디오 디코더를 예시하는 블록도이다. 도 8 의 예에서, 비디오 디코더 (30) 는 엔트로피 디코딩 유닛 (80), 예측 프로세싱 유닛 (82), 역양자화 유닛 (84), 역변환 프로세싱 유닛 (86), 합산기 (88), 및 참조 화상 메모리 (90) 를 포함한다. 예측 프로세싱 유닛 (82) 은 모션 보상 유닛 (92) (즉, 모션 및 디스패리티 보상 유닛) 및 인트라 예측 프로세싱 유닛 (94) 을 포함한다. 일부 예들에서, 비디오 디코더 (30) 는 도 7 로부터 비디오 인코더 (20) 에 대해 설명된 인코딩 과정과는 일반적으로 반대인 디코딩 과정을 수행할 수도 있다.
비디오 디코더 (30) 는 인코딩된 슬라이스의 비디오 블록들 및 연관되는 구문 엘리먼트들을 나타내는 인코딩된 비디오 비트스트림을 비디오 인코더 (20) 로부터 수신한다. 비디오 디코더 (30) 의 엔트로피 디코딩 유닛 (80) 은 비트스트림을 엔트로피 디코딩하여, 양자화된 계수들, 모션 벡터들, 디스패리티 벡터들, 및 다른 구문 엘리먼트들을 발생시킬 수도 있다. 좀더 구체적으로, 엔트로피 디코딩 유닛 (80) 은 파싱 프로세스를 수행하여, 비디오 비트스트림으로부터 구문 엘리먼트들을 획득할 수도 있다. 파싱 프로세스를 수행하는 것의 일부로서, 엔트로피 디코딩 유닛 (80) 은 비디오 비트스트림으로 시그널링되는 엔트로피 인코딩된 구문 엘리먼트들을 엔트로피 디코딩할 수도 있다. 엔트로피 디코딩 유닛 (80) 은 모션 벡터들, 디스패리티 벡터들, 및 다른 정보를 예측 프로세싱 유닛 (82) 으로 포워딩할 수도 있다. 비디오 디코더 (30) 는 구문 엘리먼트들을 슬라이스 레벨 및/또는 비디오 블록 레벨에서 수신할 수도 있다.
현재의 슬라이스가 인트라-코딩된 슬라이스 (예컨대, I 슬라이스, SI 슬라이스 등) 로서 코딩될 때, 예측 프로세싱 유닛 (82) 의 인트라 예측 프로세싱 유닛 (94) 은 시그널링된 인트라 예측 모드 및 현재의 프레임 또는 화상의 이전에 디코딩된 블록들로부터의 데이터에 기초하여, 현재의 슬라이스의 비디오 블록에 대한 예측 데이터를 발생시킬 수도 있다. 현재의 슬라이스가 인터-코딩된 슬라이스 (예컨대, P 슬라이스, B 슬라이스, SP 슬라이스, 등) 일 때, 예측 프로세싱 유닛 (82) 의 모션 보상 유닛 (92) 은 엔트로피 디코딩 유닛 (80) 으로부터 수신된 모션 벡터들, 디스패리티 벡터들, 및 구문 엘리먼트들에 기초하여, 현재의 슬라이스의 비디오 블록에 대한 예측 블록들을 생성할 수도 있다 (즉, 발생시킬 수도 있다).
비디오 디코더 (30) 의 예측 프로세싱 유닛 (82) 은 (디코딩 화상 버퍼 (DPB) 로서 또한 지칭되는) 참조 화상 메모리 (90) 에 저장된 참조 화상들에 기초하여, (예컨대, 디폴트) 구성 기법들을 사용하여, 참조 프레임 리스트들, 즉, 리스트 0 및 리스트 1 을 구성할 수도 있다. 모션 보상 유닛 (92) 은 참조 화상 리스트들 중 하나 이상 내 하나 이상의 참조 화상들로부터 예측 블록들을 발생시킬 수도 있다.
모션 보상 유닛 (92) 은 모션 벡터들 및 다른 구문 엘리먼트들을 파싱하여 현재의 슬라이스의 비디오 블록에 대한 예측 정보를 결정할 수도 있으며, 그리고, 그 예측 정보를 사용하여, 디코딩중인 현재의 비디오 블록에 대한 예측 블록들을 발생시킬 수도 있다. 예를 들어, 모션 보상 유닛 (92) 은 슬라이스의 비디오 블록들을 코딩하는데 이용할 예측 모드 (예컨대, 인트라- 또는 인터-예측) 를 결정하는 그 수신된 구문 엘리먼트들, 인터-예측 또는 인터-뷰 예측 슬라이스 유형 (예컨대, B 슬라이스, P 슬라이스, 또는 GPB 슬라이스) 을 결정하는 구문 엘리먼트들, 슬라이스에 대한 참조 화상 리스트들 중 하나 이상에 대한 구성 정보를 결정하는 구문 엘리먼트들, 슬라이스의 각각의 인터-인코딩된 비디오 블록에 대한 모션 벡터들 및/또는 디스패리티 벡터들을 결정하는 구문 엘리먼트들, 슬라이스의 각각의 인터-코딩된 비디오 블록에 대한 인터-예측 상태를 결정하는 구문 엘리먼트들, 및 다른 정보를 결정하는 구문 엘리먼트들 중 일부를 사용하여, 현재의 슬라이스에서의 비디오 블록들을 디코딩할 수도 있다.
모션 보상 유닛 (92) 은 또한 내삽 필터들에 기초하여 내삽을 수행할 수도 있다. 모션 보상 유닛 (92) 은 비디오 블록들의 인코딩 동안 비디오 인코더 (20) 에 의해 사용되는 것과 같은 내삽 필터들을 사용하여, 참조 블록들의 서브-정수 픽셀들에 대해 내삽된 값들을 계산할 수도 있다. 일부 예들에서, 모션 보상 유닛 (92) 은 수신된 구문 엘리먼트들로부터 비디오 인코더 (20) 에 의해 사용되는 내삽 필터들을 결정할 수도 있으며, 그 내삽 필터들을 사용하여 예측 블록들을 발생시킬 수도 있다.
일부 예들에서, 모션 보상 유닛 (92) 은 현재의 비디오 블록에 대한 디스패리티 벡터를 결정할 수도 있다. 모션 보상 유닛 (92) 은 현재의 블록에 대한 디스패리티 벡터를 사용하여, 현재의 비디오 블록에 대한 모션 벡터 예측을 수행할 수도 있다. 예를 들어, 모션 보상 유닛 (92) 은 현재의 블록에 대한 디스패리티 벡터를 사용하여, 인터-뷰 참조 화상에서 대응하는 블록을 결정할 수도 있다. 게다가, 모션 보상 유닛 (92) 은 현재의 비디오 블록에 대해 모션 벡터 후보 리스트 (예컨대, 병합 후보 리스트 또는 AMVP 후보 리스트) 를 발생시킬 수도 있다. 모션 벡터 후보 리스트는 대응하는 인터-뷰 참조 블록의 하나 이상의 모션 벡터들을 규정하는 하나 이상의 후보들을 포함할 수도 있다. 모션 보상 유닛 (92) 은 비트스트림으로부터 획득되는 하나 이상의 구문 엘리먼트들에 기초하여, 후보 리스트에서 그 선택된 후보를 결정할 수도 있다. 모션 보상 유닛 (92) 은 그후 선택된 후보에 의해 규정되는 하나 이상의 모션 벡터들에 기초하여, 현재의 비디오 블록에 대한 하나 이상의 모션 벡터들을 결정할 수도 있다. 예를 들어, 후보 리스트가 병합 후보 리스트이면, 모션 보상 유닛 (92) 은 현재의 비디오 블록의 모션 벡터가 선택된 후보에 의해 규정되는 모션 벡터와 매칭한다고 결정할 수도 있다. 후보 리스트가 AMVP 후보 리스트이면, 모션 보상 유닛 (92) 은 현재의 비디오 블록의 모션 벡터가 비트스트림으로 시그널링되는 모션 벡터 차이 (MVD) 와 선택된 후보에 의해 규정되는 모션 벡터의 합과 동일하다고 결정할 수도 있다.
일부 예들에서, 모션 보상 유닛 (70) 은 현재의 비디오 블록에 대한 디스패리티 벡터를 사용하여, 현재의 비디오 블록에 대한 잔여 예측 (예컨대, 진보된 잔여 예측) 을 수행할 수도 있다. 이러한 예들에서, 모션 보상 유닛 (92) 은 디스패리티 벡터를 사용하여, 현재의 블록에 대한 잔여 예측자를 결정할 수도 있다. 모션 보상 유닛 (92) 에 의해 궁극적으로 발생되는 예측 블록은 현재의 비디오 블록에 대한 예측 블록과 현재의 비디오 블록에 대한 잔여 예측자 사이의 차이에 기초할 수도 있다.
모션 보상 유닛 (92) 은 NBDV 유도 프로세스를 사용하여, 현재의 비디오 블록에 대한 디스패리티 벡터를 결정할 수도 있다. 본 개시물의 하나 이상의 기법들에 따르면, 모션 보상 유닛 (92) 은 현재의 슬라이스에 대한 하나 이상의 DDVs 를 초기화할 수도 있다. 모션 보상 유닛 (92) 은 NBDV 유도 프로세스에서 현재의 슬라이스에 대한 하나 이상의 DDVs 를 사용하여, 현재의 비디오 블록에 대한 디스패리티 벡터를 결정할 수도 있다. 일부 예들에서, 모션 보상 유닛 (92) 은 현재의 슬라이스에 대한 단일 DDV 를 초기화하고, 현재의 슬라이스의 제 1 비디오 블록 이후 현재의 슬라이스의 각각의 각각의 비디오 블록에 있어, 현재의 슬라이스에 대한 DDV 가 코딩 순서에서 각각의 비디오 블록 직전에 발생하는 비디오 블록에 대한 디스패리티 벡터를 규정하도록, DDV 를 업데이트한다.
이러한 방법으로, 모션 보상 유닛 (92) 은 현재의 화상의 현재의 슬라이스에 대한 DDV 를 저장할 수도 있다. 더욱이, 모션 보상 유닛 (92) 은 DDV 에 적어도 부분적으로 기초하여, 현재의 슬라이스의 제 1 비디오 블록에 대한 NBDV 를 유도할 수도 있다. 비디오 디코더 (30) 의 모션 보상 유닛 (92) 및 다른 유닛들은 제 1 비디오 블록에 대한 NBDV 에 적어도 부분적으로 기초하여 제 1 비디오 블록을 디코딩할 수도 있다. 더욱이, 모션 보상 유닛 (92) 은 제 1 비디오 블록에 대한 NBDV 를 DDV 로서 저장함으로써, DDV 를 업데이트할 수도 있다. 제 1 비디오 블록에 대한 NBDV 를 DDV 로서 저장한 후, 모션 보상 유닛 (92) 은 업데이트된 DDV 에 적어도 부분적으로 기초하여, 현재의 슬라이스의 제 2 비디오 블록에 대한 NBDV 를 유도할 수도 있다. 비디오 디코더 (30) 의 모션 보상 유닛 (92) 및 다른 유닛들은 제 2 비디오 블록에 대한 NBDV 에 적어도 부분적으로 기초하여 제 2 비디오 블록을 디코딩할 수도 있다. 비디오 디코더 (30) 의 모션 보상 유닛 (92) 및 다른 유닛들은 현재의 슬라이스의 추가적인 비디오 블록들에 대해 이들 액션들을 계속해서 수행할 수도 있다.
역양자화 유닛 (84) 은 역양자화 프로세스를 수행하여, 비트스트림으로 시그널링되는 양자화된 변환 계수들을 역양자화, 즉 양자화 해제할 수도 있다. 역양자화 프로세스는 양자화의 정도를 결정하기 위해, 그리고, 이와 유사하게, 적용되어야 하는 역양자화의 정도를 결정하기 위해, 현재의 슬라이스에서의 각각의 비디오 블록에 대해 비디오 인코더 (20) 에 의해 계산되는 양자화 파라미터의 사용을 포함할 수도 있다. 역변환 프로세싱 유닛 (86) 은 픽셀 도메인에서 잔여 블록들을 발생시키기 위해 역변환을 변환 계수들에 적용할 수도 있다. 예를 들어, 역변환 프로세싱 유닛 (86) 은 변환 계수들을 변환하기 위해 역 DCT, 역 정수 변환, 또는 개념적으로 유사한 역변환 프로세스를 적용할 수도 있다.
모션 보상 유닛 (92) 이 현재의 비디오 블록에 대한 예측 블록을 발생시킨 후, 비디오 디코더 (30) 는 역변환 프로세싱 유닛 (86) 에 의해 발생되는 잔여 블록들의 샘플들 값들을, 모션 보상 유닛 (92) 에 의해 발생되는 예측 블록들의 대응하는 샘플 값들과 합산함으로써, 디코딩된 비디오 블록을 형성할 수도 있다. 합산기 (88) 는 이 합산 동작을 수행하는 구성요소 또는 구성요소들을 나타낸다.
원할 경우, 블록킹 현상 아티팩트들 (blockiness artifacts) 을 제거하기 위해 디블록킹 필터가 또한 그 디코딩된 블록들을 필터링하는데 적용될 수도 있다. (코딩 루프 중에 또는 코딩 루프 후에) 다른 루프 필터들이 또한 픽셀 전환들 (pixel transitions) 을 평활화하거나 또는 아니면 비디오 품질을 향상시키기 위해 사용될 수도 있다. 주어진 프레임 또는 화상에서 디코딩된 비디오 블록들은 후속 모션 보상을 위해 사용되는 참조 화상들을 저장하는 참조 화상 메모리 (90) (종종, 디코딩 화상 버퍼로서 지칭됨) 에 저장된다. 참조 화상 메모리 (90) 는 또한 도 1 의 디스플레이 디바이스 (32) 와 같은 디스플레이 디바이스 상에의 프리젠테이션을 위해, 디코딩된 비디오 데이터를 저장한다. 따라서, 참조 화상 메모리 (90) 는 비디오 데이터를 저장하는 메모리일 수도 있다.
도 9a 는 본 개시물의 일 예에 따른, 비디오 인코더 (20) 의 예시적인 동작을 예시하는 플로우차트이다. 다른 예들에서, 비디오 인코더 (20) 는 도 9a 의 동작과 유사하지만 더 많거나, 더 적거나, 또는 상이한 액션들을 포함하는 동작들을 수행할 수도 있다. 예를 들어, 다른 예들에서, 도 9a 의 하나 이상의 액션들은 생략되거나, 재배열되거나, 또는 반복될 수도 있다. 도 9a 는 도 7 을 참조하여 설명된다. 그러나, 도 9a 의 예는 이에 한정되지 않는다.
도 9a 의 예에서, 예측 프로세싱 유닛 (48) 은 비디오 데이터의 현재의 화상의 슬라이스에 대해 단지 하나의 DDV 를 저장할 수도 있다 (152). 슬라이스는 다수의 블록들을 포함한다. 더욱이, 예측 프로세싱 유닛 (48) 은 특정의 블록에 대한 디스패리티 벡터를 결정하기 위해 NBDV 유도 프로세스에서 슬라이스에 대한 DDV 를 이용할 수도 있다 (154). 특정의 블록은 슬라이스의 블록들 중 하나이다. 더욱이, 예측 프로세싱 유닛 (48) 은 슬라이스에 대한 DDV 로서, 특정의 블록에 대한 디스패리티 벡터 (즉, NBDV) 를 저장할 수도 있다 (156).
더욱이, 도 9a 의 예에서, 비디오 인코더 (20) 는 특정의 블록에 대한 디스패리티 벡터에 적어도 부분적으로 기초하여 특정의 블록을 인코딩할 수도 있다 (158). 예를 들어, 비디오 인코더 (20) 는 특정의 블록에 대한 NBDV 를 사용하여, 인터-뷰 모션 예측 및/또는 인터-뷰 잔여 예측을 수행함으로써 특정의 블록의 인코딩된 표현을 발생시킬 수도 있다. 일부 예들에서, 비디오 인코더 (20) 는 슬라이스의 추가적인 블록들에 대해 도 9a 의 동작을 속행한다. 더욱이, 일부 예에서, 특정의 블록 (즉, 제 1 블록) 에 대한 디스패리티 벡터를 슬라이스에 대한 DDV 로서 저장한 후, 예측 프로세싱 유닛 (48) 은 NBDV 유도 프로세스에서 슬라이스에 대한 DDV 를 사용하여, 슬라이스의 제 2 블록에 대한 디스패리티 벡터를 결정할 수도 있다. 비디오 인코더 (20) 는 제 2 블록에 대한 디스패리티 벡터에 적어도 부분적으로 기초하여 제 2 블록을 인코딩할 수도 있다. 일부 예들에서, 제 1 블록 및 제 2 블록은 매크로블록들이다. 다른 예들에서, 제 1 블록 및 제 2 블록은 CUs 이거나, 제 1 블록 및 제 2 블록은 PUs 이거나, 또는 제 1 블록 및 제 2 블록은 LCUs 이다.
도 9b 는 본 개시물의 일 예에 따른, 비디오 디코더 (30) 의 예시적인 동작을 예시하는 플로우차트이다. 다른 예들에서, 비디오 디코더 (30) 는 도 9b 의 동작과 유사하지만 더 많거나, 더 적거나, 또는 상이한 액션들을 포함하는 동작들을 수행할 수도 있다. 예를 들어, 다른 예들에서, 도 9a 의 하나 이상의 액션들은 생략되거나, 재배열되거나, 또는 반복될 수도 있다. 도 9b 는 도 8 을 참조하여 설명된다. 그러나, 도 9b 의 예는 이에 한정되지 않는다.
도 9b 의 예에서, 예측 프로세싱 유닛 (82) 은 비디오 데이터의 현재의 화상의 슬라이스에 대해 단지 하나의 DDV 를 저장할 수도 있다 (172). 슬라이스는 다수의 블록들을 포함한다. 더욱이, 예측 프로세싱 유닛 (82) 은 특정의 블록에 대한 디스패리티 벡터를 결정하기 위해 NBDV 유도 프로세스에서 슬라이스에 대한 DDV 를 이용할 수도 있다 (174). 특정의 블록은 슬라이스의 블록들 중 하나이다. 더욱이, 예측 프로세싱 유닛 (82) 은 슬라이스에 대한 DDV 로서, 특정의 블록에 대한 디스패리티 벡터 (즉, NBDV) 를 저장할 수도 있다 (176).
더욱이, 도 9b 의 예에서, 비디오 디코더 (30) 는 특정의 블록에 대한 디스패리티 벡터 (즉, NBDV) 에 적어도 부분적으로 기초하여 특정의 블록을 디코딩할 수도 있다 (178). 예를 들어, 비디오 디코더 (30) 는 특정의 블록에 대한 디스패리티 벡터를 사용하여, 특정의 블록에 대한 샘플들의 블록을 재구성하는 프로세스의 일부로서 인터-뷰 모션 예측 및/또는 인터-뷰 잔여 예측을 수행할 수도 있다. 일부 예들에서, 특정의 블록 (즉, 제 1 블록) 에 대한 디스패리티 벡터를 슬라이스에 대한 DDV 로서 저장한 후, 예측 프로세싱 유닛 (82) 은 NBDV 유도 프로세스에서 슬라이스에 대한 DDV 를 사용하여, 슬라이스의 제 2 블록에 대한 디스패리티 벡터를 결정할 수도 있다. 비디오 디코더 (30) 는 제 2 블록에 대한 디스패리티 벡터에 적어도 부분적으로 기초하여 제 2 블록을 디코딩할 수도 있다. 예를 들어, 비디오 디코더 (30) 는 제 2 블록에 대한 디스패리티 벡터 (즉, NBDV) 를 사용하여, 제 2 블록에 대한 샘플들의 블록을 재구성하는 프로세스의 일부로서 인터-뷰 모션 예측 및/또는 인터-뷰 잔여 예측을 수행할 수도 있다. 일부 예들에서, 특정의 블록 (즉, 제 1 블록) 및 제 2 블록은 매크로블록들이다. 다른 예들에서, 제 1 블록 및 제 2 블록은 CUs 이거나, 제 1 블록 및 제 2 블록은 PUs 이거나, 또는 제 1 블록 및 제 2 블록은 LCUs 이다. 일부 예들에서, 비디오 디코더 (30) 는 슬라이스의 추가적인 블록들에 대해 도 9b 의 동작을 속행할 수도 있다.
도 10 은 본 개시물의 일 예에 따른, 예시적인 디스패리티 벡터 유도 동작을 예시하는 플로우차트이다. 다른 예들에서, 비디오 코더는 도 10 의 동작과 유사하지만 더 많거나, 더 적거나, 또는 상이한 액션들을 포함하는 동작들을 수행할 수도 있다. 예를 들어, 다른 예들에서, 도 10 의 하나 이상의 액션들은 생략되거나, 재배열되거나, 또는 반복될 수도 있다. 비디오 인코더 (20) 또는 비디오 디코더 (30) 와 같은, 비디오 코더는 도 10 의 예시적인 디스패리티 벡터 유도 동작을 수행할 수도 있다. 비디오 코더는 도 10 의 동작을 수행하여, 현재의 화상의 현재의 슬라이스의 현재의 블록에 대한 디스패리티 벡터를 결정할 수도 있다. 상이한 예들에서, 현재의 블록은 매크로블록, CU, PU, LCU, 또는 또다른 유형의 블록 또는 비디오 블록일 수도 있다.
도 10 의 예에서, 비디오 코더는 현재의 블록에 대한 시간 이웃하는 블록을 결정할 수도 있다 (200). 시간 이웃하는 블록은 현재의 화상과는 상이한 액세스 유닛에서의 참조 화상의 블록일 수도 있다. 더욱이, 비디오 코더는 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖는지 여부를 결정할 수도 있다 (202). 시간 이웃하는 블록이 디스패리티 모션 벡터를 가진다고 결정하는 것에 응답하여 (202 의 "예"), 비디오 코더는 시간 이웃하는 블록의 디스패리티 모션 벡터에 기초하여, 현재의 블록에 대한 디스패리티 벡터를 설정할 수도 있다 (204). 예를 들어, 비디오 코더는 현재의 블록에 대한 디스패리티 벡터의 수평 성분을 시간 이웃하는 블록의 디스패리티 모션 벡터의 수평 성분으로 설정할 수도 있으며, 현재의 블록에 대한 디스패리티 벡터의 수직 성분을 0 과 동일하게 설정할 수도 있다. 다른 예들에서, 비디오 코더는 현재의 블록에 대한 디스패리티 벡터를, 시간 이웃하는 블록에 대한 디스패리티 모션 벡터로 설정할 수도 있다.
한편, 시간 이웃하는 블록이 디스패리티 모션 벡터를 가지지 않는다고 결정하는 것에 응답하여 (202 의 "아니오"), 비디오 코더는 공간 이웃하는 블록이 디스패리티 모션 벡터를 갖는지 여부를 결정할 수도 있다 (206). 공간 이웃하는 블록은 도 5 에서 로케이션들 A, B, C, 또는 D 중 하나 이상을 포괄하는 블록일 수도 있다. 공간 이웃하는 블록이 디스패리티 모션 벡터를 가진다고 결정하는 것에 응답하여 (206 의 "예"), 비디오 코더는 시간 이웃하는 블록의 디스패리티 모션 벡터에 기초하여, 현재의 블록에 대한 디스패리티 벡터를 설정할 수도 있다 (208). 예를 들어, 비디오 코더는 현재의 블록에 대한 디스패리티 벡터의 수평 성분을 공간 이웃하는 블록의 디스패리티 모션 벡터의 수평 성분으로 설정할 수도 있으며, 현재의 블록에 대한 디스패리티 벡터의 수직 성분을 0 과 동일하게 설정할 수도 있다. 다른 예들에서, 비디오 코더는 현재의 블록에 대한 디스패리티 벡터를 공간 이웃하는 블록에 대한 디스패리티 모션 벡터와 동일하게 설정할 수도 있다.
공간 이웃하는 블록이 디스패리티 모션 벡터를 가지지 않는다고 결정하는 것에 응답하여 (206 의 "아니오"), 비디오 코더는 체크할 임의의 나머지 공간 이웃하는 블록들이 존재하는지 여부를 결정할 수도 있다 (210). 하나 이상의 나머지 공간 이웃하는 블록들이 존재한다고 결정하는 것에 응답하여 (210 의 "예"), 비디오 코더는 또 다른 공간 이웃하는 블록에 대해 액션 (206) 을, 필요한 경우, 액션 (208) 을 반복할 수도 있다. 이러한 방법으로, 비디오 코더는 공간 이웃하는 블록들 중 하나가 디스패리티 모션 벡터를 가지고 있거나 또는 어떤 체크할 공간 이웃하는 블록들도 남아있지 않다고 비디오 디코더가 결정할 때까지, 공간 이웃하는 블록들의 각각을 체킹할 수도 있다. 어떤 체크할 공간 이웃하는 블록들도 남아있지 않다고 결정하는 것에 응답하여 (210 의 "아니오"), 비디오 코더는 DDV 에 기초하여 현재의 블록에 대한 디스패리티 벡터를 설정할 수도 있다 (212). 예를 들어, 비디오 코더는 현재의 블록에 대한 디스패리티 벡터를 DDV 와 동일하게 설정할 수도 있다.
(204), (208), 또는 (212) 에서 디스패리티 벡터를 설정한 후, 비디오 코더는 DDV 를 현재의 블록에 대한 디스패리티 벡터로 설정할 수도 있다 (214). 이러한 방법으로, 비디오 코더는 현재의 슬라이스에서의 후속 블록에 의한 사용을 위해 DDV 를 업데이트한다.
다음은 본 개시물의 하나 이상의 기법들에 따른 추가적인 예들이다.
예 1. 본원에서 개시된 실시형태들 중 임의의 실시형태에 따른 비디오 데이터를 인코딩하는 방법.
예 2. 본원에서 개시된 실시형태들 중 임의의 실시형태에 따른 비디오 데이터를 디코딩하는 방법.
예 3. 실행될 때, 방법들 중 예들 1 내지 2 중 임의의 예를 수행하는 명령들을 안에 저장하고 있는 컴퓨터 판독가능 매체.
예 4. 프로세서를 포함하는 장치로서, 상기 프로세서는 예들 1 내지 2 의 방법들 중 임의의 방법을 수행하도록 구성되는, 장치.
예 5. 비디오 데이터를 인코딩하는 방법으로서, 상기 방법은 슬라이스의 하나 이상의 이전에-코딩된 블록들로부터의 하나 이상의 유도된 디스패리티 벡터들 (DDVs) 을 저장하는 단계; 하나 이상의 저장된 DDVs 에 적어도 부분적으로 기초하여, 슬라이스의 현재의 블록에 대한 이웃하는 블록-기반 디스패리티 벡터 (NBDV) 를 유도하는 단계; 및 현재의 블록에 대한 NBDV 에 적어도 부분적으로 기초하여 현재의 블록을 인코딩하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
예 6. 예 5 의 방법에 있어서, 상기 저장된 DDVs 는 현재의 블록의 좌측에 있는 블록에 대한 저장된 DDV 를 포함하며, 현재의 블록에 대한 NBDV 를 유도하는 단계는 현재의 블록의 좌측에 있는 블록에 대한 저장된 DDV 에 적어도 부분적으로 기초하여, 현재의 블록에 대한 NBDV 를 유도하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
예 7. 예 5 의 방법에 있어서, 상기 방법은 하나 이상의 저장된 DDVs 가 현재의 블록의 좌측에 있는 블록에 대한 저장된 DDV 를 포함하는지 여부를 결정하는 단계를 더 포함하며; 현재의 블록에 대한 NBDV 를 유도하는 단계는 하나 이상의 저장된 DDVs 가 현재의 블록의 좌측에 있는 블록에 대한 저장된 DDV 를 포함한다고 결정하는 것에 응답하여, 현재의 블록의 좌측에 있는 블록에 대한 저장된 DDV 에 적어도 부분적으로 기초하여, 현재의 블록에 대한 NBDV 를 결정하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
예 8. 예 5 의 방법에 있어서, 상기 하나 이상의 DDVs 를 저장하는 단계는 블록의 DDV 의 크기가 이전에-저장된 DDV 의 크기보다 크다고 결정하는 것에 응답하여, 블록에 대한 DDV 를 저장하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
예 9. 예 5 의 방법에 있어서, 상기 현재의 블록에 대한 NBDV 를 유도하는 단계는 저장된 DDV, 시간 이웃하는 블록들 (TDVs) 에 대한 디스패리티 모션 벡터들 및 공간 이웃하는 블록들 (SDVs) 에 대한 디스패리티 모션 벡터들에 적어도 부분적으로 기초하여, 현재의 블록에 대한 NBDV 를 유도하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
예 10. 예 9 의 방법에 있어서, 상기 현재의 블록에 대한 NBDV 를 유도하는 단계는 TDVs 또는 SDVs 중 어느 것도 현재의 블록에 대한 NBDV 를 결정할 때에 이용불가능하다고 결정하는 것에 응답하여, 현재의 블록에 대한 NBDV 가 저장된 DDV 과 동일하다고 결정하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
예 11. 예 9 의 방법에 있어서, 상기 현재의 블록에 대한 NBDV 를 유도하는 단계는 저장된 DDV, TDVs 및 SDVs 를 미리 정의된 순서로 체킹하면서 가용 넌-제로 디스패리티 벡터가 저장된 DDV, TDVs, 및 SDVs 중에서 식별될 때, 현재의 블록에 대한 NBDV 가 가용 넌-제로 디스패리티 벡터와 동일하다고 결정하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
예 12. 예 5 의 방법에 있어서, 상기 하나 이상의 DDVs 를 저장하는 단계는 슬라이스의 2개 이상의 이전에-코딩된 블록들로부터의 2개 이상의 DDVs 를 저장하는 단계로서, 2개 이상의 저장된 DDVs 는 특정의 순서를 갖는, 상기 저장하는 단계를 포함하며, 상기 현재의 블록에 대한 NBDV 를 유도하는 단계는 TDVs, SDVs, 및 2개 이상의 저장된 DDVs 를 미리 정의된 체킹 순서로 체킹하면서 가용 넌-제로 디스패리티 벡터가 TDVs, SDVs, 및 2개 이상의 저장된 DDVs 중에서 식별될 때, 현재의 블록에 대한 NBDV 가 가용 넌-제로 디스패리티 벡터와 동일하다고 결정하는 단계를 포함하며, 미리 정의된 체킹 순서에서 2개 이상의 저장된 DDVs 가 특정의 순서에 따라서 체킹되는, 비디오 데이터를 인코딩하는 방법.
예 13. 예 5 의 방법에 있어서, 상기 현재의 블록에 대한 NBDV 를 유도하는 단계는 심도 뷰 성분에 액세스하는 것이 불허된다고 결정하는 것에 응답하여, 하나 이상의 저장된 DDVs 에 적어도 부분적으로 기초하여, 현재의 블록에 대한 NBDV 를 유도하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
예 14. 예 5 의 방법에 있어서, 상기 현재의 블록에 대한 NBDV 를 유도하는 단계는 베이스/참조 뷰 심도 뷰 성분에 액세스하는 것이 허용될 때, 하나 이상의 저장된 DDVs 에 적어도 부분적으로 기초하여, 현재의 블록에 대한 초기 NBDV 를 결정하는 단계; 및 잠재적으로 더 정확한 심도 블록을 식별하여 현재의 블록에 대한 초기 NBDV 를 개선하기 위해 현재의 블록에 대한 초기 NBDV 를 사용하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
예 15. 예 5 의 방법에 있어서, 베이스/참조 뷰 심도 뷰 성분에 액세스하는 것이 허용될 때, 하나 이상의 저장된 DDVs 를 개선하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
예 16. 예 5 의 방법에 있어서, 상기 현재의 블록은 매크로블록, 예측 유닛 (PU), 코딩 유닛 (CU), 또는 최대 코딩 유닛 (LCU) 인, 비디오 데이터를 인코딩하는 방법.
예 17. 예 5 의 방법에 있어서, 상기 저장된 DDVs 의 개수는 하나의 매크로블록, 코딩 유닛, 또는 최대 코딩 유닛 (LCU) 에서의 블록들의 개수에 비례하는, 비디오 데이터를 인코딩하는 방법.
예 18. 예 5 의 방법에 있어서, 상기 저장된 DDVs 의 개수는 슬라이스에서 현재의 블록 또는 다수의 블록들과 연관되는 화상의 폭 또는 높이에 비례하는, 비디오 데이터를 인코딩하는 방법.
예 19. 예 5 의 방법에 있어서, 상기 방법은 단지 현재의 블록이 NBDV 결과를 사용하여 코딩될 때에만, 저장된 DDV 를 업데이트하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
예 20. 예 5 의 방법에 있어서, 단지 현재의 블록이 인터 코딩될 때에만 저장된 DDV 를 업데이트하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
예 21. 예 5 의 방법에 있어서, 단지 슬라이스가 인터 코딩될 때에만 저장된 DDV 를 업데이트하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
예 22. 예 5 의 방법에 있어서, 현재의 블록이 스킵/직접 모드로 코딩될 때, 저장된 DDV 를 업데이트하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
예 23. 예 5 의 방법에 있어서, 단지 하나의 DDV 가 슬라이스에 대해 유지되며, DDV 는 코딩 유닛 (CU) 이 코딩되면 업데이트되는, 비디오 데이터를 인코딩하는 방법.
예 24. 예 23 의 방법에 있어서, 슬라이스가 인트라 코딩되지 않을 때, 각각의 CU 가 NBDV 를 사용하는지 여부에 관계없이, 슬라이스의 각각의 각각의 CU 에 대한 NBDV 를 호출하는 단계 및 DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
예 25. 예 23 의 방법에 있어서, CU 가 인터 코딩될 때, NBDV 결과를 결정하기 위해 CU 에 대한 NBDV 를 호출하는 단계 및 DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계; CU 가 인터 코딩되지 않을 때, DDV 를 업데이트하는 것을 억제하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
예 26. 예 23 의 방법에 있어서, CU 내 예측 유닛 (PU) 이 NBDV 결과를 사용하여 코딩될 때, DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계; 및 PU 가 NBDV 결과를 사용하여 코딩되지 않을 때, DDV 를 업데이트하는 것을 억제하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
예 27. 예 23 의 방법에 있어서, CU 내 적어도 하나의 PU 가 스킵 모드로 코딩될 때, DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
예 28. 예 5 의 방법에 있어서, 단지 하나의 DDV 가 슬라이스에 대해 유지되며 DDV 는 일단 PU 가 코딩되면 업데이트되는, 비디오 데이터를 인코딩하는 방법.
예 29. 예 28 의 방법에 있어서, 슬라이스가 인트라 코딩되지 않을 때, 각각의 PU 가 NBDV 를 사용하는지 여부에 관계없이, 슬라이스의 각각의 각각의 PU 에 대한 NBDV 를 호출하는 단계 및 DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
예 30. 예 28 의 방법에 있어서, PU 가 인터 코딩될 때, NBDV 결과를 결정하기 위해 PU 에 대한 NBDV 를 호출하는 단계 및 DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계; PU 가 인터 코딩되지 않을 때, DDV 를 업데이트하는 것을 억제하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
예 31. 예 28 의 방법에 있어서, PU 가 NBDV 결과를 사용하여 코딩될 때, DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계; 및 PU 가 NBDV 결과를 사용하여 코딩되지 않을 때, DDV 를 업데이트하는 것을 억제하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
예 32. 예 28 의 방법에 있어서, PU 가 스킵 모드로 코딩될 때, DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
예 33. 예들 23 또는 28 의 방법에 있어서, 공간 및 시간 이웃하는 블록들이 디스패리티 모션 벡터를 포함하지 않을 때, NBDV 를 유도하기 위해 DDV 를 사용하는 단계를 더 포함하며, 상기 NBDV 는 DDV 와 동일하게 설정되는, 비디오 데이터를 인코딩하는 방법.
예 34. 예 33 의 방법에 있어서, 참조 뷰의 심도에 액세스함으로써 NBDV 를 개선하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
예 35. 예 33 의 방법에 있어서, NBDV 를 사용하여 참조 뷰의 심도에 액세스함으로써, 개선된 디스패리티 벡터를 발생시키는 단계; 및 DDV 를 개선된 디스패리티 벡터와 동일하게 설정하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
예 36. 예 5 의 방법에 있어서, 상기 하나 이상의 DDVs 를 저장하는 단계는 단지 하나 이상의 DDVs 의 수평 성분들을 저장하는 단계 및 하나 이상의 DDVs 의 수직 성분들을 0 과 동일하게 설정하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
예 37. 예들 5-36 의 임의의 조합을 포함하는 방법.
예 38. 비디오 데이터를 디코딩하는 방법으로서, 상기 방법은 슬라이스의 하나 이상의 이전에-코딩된 블록들로부터의 하나 이상의 유도된 디스패리티 벡터들 (DDVs) 을 저장하는 단계; 하나 이상의 저장된 DDVs 에 적어도 부분적으로 기초하여, 슬라이스의 현재의 블록에 대한 이웃하는 블록-기반 디스패리티 벡터 (NBDV) 를 유도하는 단계; 및 현재의 블록에 대한 NBDV 에 적어도 부분적으로 기초하여, 현재의 블록을 디코딩하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
예 39. 예 38 의 방법에 있어서, 상기 저장된 DDVs 는 현재의 블록의 좌측에 있는 블록에 대한 저장된 DDV 를 포함하며, 현재의 블록에 대한 NBDV 를 유도하는 단계는 현재의 블록의 좌측에 있는 블록에 대한 저장된 DDV 에 적어도 부분적으로 기초하여, 현재의 블록에 대한 NBDV 를 유도하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
예 40. 예 38 의 방법에 있어서, 상기 방법은 하나 이상의 저장된 DDVs 가 현재의 블록의 좌측에 있는 블록에 대한 저장된 DDV 를 포함하는지 여부를 결정하는 단계를 더 포함하며; 상기 현재의 블록에 대한 NBDV 를 유도하는 단계는 하나 이상의 저장된 DDVs 가 현재의 블록의 좌측에 있는 블록에 대한 저장된 DDV 를 포함한다고 결정하는 것에 응답하여, 현재의 블록의 좌측에 있는 블록에 대한 저장된 DDV 에 적어도 부분적으로 기초하여, 현재의 블록에 대한 NBDV 를 결정하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
예 41. 예 38 의 방법에 있어서, 상기 하나 이상의 DDVs 를 저장하는 단계는 블록의 DDV 의 크기가 이전에-저장된 DDV 의 크기보다 크다고 결정하는 것에 응답하여, 블록에 대한 DDV 를 저장하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
예 42. 예 38 의 방법에 있어서, 상기 현재의 블록에 대한 NBDV 를 유도하는 단계는 저장된 DDV, 시간 이웃하는 블록들 (TDVs) 에 대한 디스패리티 모션 벡터들 및 공간 이웃하는 블록들 (SDVs) 에 대한 디스패리티 모션 벡터들에 적어도 부분적으로 기초하여, 현재의 블록에 대한 NBDV 를 유도하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
예 43. 예 42 의 방법에 있어서, 상기 현재의 블록에 대한 NBDV 를 유도하는 단계는 TDVs 또는 SDVs 중 어느 것도 현재의 블록에 대한 NBDV 를 결정할 때에 이용불가능하다고 결정하는 것에 응답하여, 현재의 블록에 대한 NBDV 가 저장된 DDV 과 동일하다고 결정하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
예 44. 예 42 의 방법에 있어서, 상기 현재의 블록에 대한 NBDV 를 유도하는 단계는 저장된 DDV, TDVs 및 SDVs 를 미리 정의된 순서로 체킹하면서 가용 넌-제로 디스패리티 벡터가 저장된 DDV, TDVs, 및 SDVs 중에서 식별될 때, 현재의 블록에 대한 NBDV 가 가용 넌-제로 디스패리티 벡터와 동일하다고 결정하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
예 45. 예 38 의 방법에 있어서, 상기 하나 이상의 DDVs 를 저장하는 단계는 슬라이스의 2개 이상의 이전에-코딩된 블록들로부터의 2개 이상의 DDVs 를 저장하는 단계를 포함하며, 상기 2개 이상의 저장된 DDVs 는 특정의 순서를 가지며, 상기 현재의 블록에 대한 NBDV 를 유도하는 단계는 TDVs, SDVs, 및 2개 이상의 저장된 DDVs 를 미리 정의된 체킹 순서로 체킹하면서 가용 넌-제로 디스패리티 벡터가 TDVs, SDVs, 및 2개 이상의 저장된 DDVs 중에서 식별될 때, 현재의 블록에 대한 NBDV 가 가용 넌-제로 디스패리티 벡터와 동일하다고 결정하는 단계를 포함하며, 미리 정의된 체킹 순서에서 2개 이상의 저장된 DDVs 가 특정의 순서에 따라서 체킹되는, 비디오 데이터를 디코딩하는 방법.
예 46. 예 38 의 방법에 있어서, 상기 현재의 블록에 대한 NBDV 를 유도하는 단계는 심도 뷰 성분에 액세스하는 것이 불허된다고 결정하는 것에 응답하여, 하나 이상의 저장된 DDVs 에 적어도 부분적으로 기초하여, 현재의 블록에 대한 NBDV 를 유도하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
예 47. 예 38 의 방법에 있어서, 상기 현재의 블록에 대한 NBDV 를 유도하는 단계는 베이스/참조 뷰 심도 뷰 성분에 액세스하는 것이 허용될 때, 하나 이상의 저장된 DDVs 에 적어도 부분적으로 기초하여, 현재의 블록에 대한 초기 NBDV 를 결정하는 단계; 및 잠재적으로 더 정확한 심도 블록을 식별하여 현재의 블록에 대한 초기 NBDV 를 개선하기 위해 현재의 블록에 대한 초기 NBDV 를 사용하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
예 48. 예 38 의 방법에 있어서, 베이스/참조 뷰 심도 뷰 성분에 액세스하는 것이 허용될 때, 하나 이상의 저장된 DDVs 를 개선하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
예 49. 예 38 의 방법에 있어서, 상기 현재의 블록은 매크로블록, 예측 유닛 (PU), 코딩 유닛 (CU), 또는 최대 코딩 유닛 (LCU) 인, 비디오 데이터를 디코딩하는 방법.
예 50. 예 38 의 방법에 있어서, 상기 저장된 DDVs 의 개수는 하나의 매크로블록, 코딩 유닛, 또는 최대 코딩 유닛 (LCU) 에서의 블록들의 개수에 비례하는, 비디오 데이터를 디코딩하는 방법.
예 51. 예 38 의 방법에 있어서, 상기 저장된 DDVs 의 개수는 슬라이스에서 현재의 블록 또는 다수의 블록들과 연관되는 화상의 폭 또는 높이에 비례하는, 비디오 데이터를 디코딩하는 방법.
예 52. 예 38 의 방법에 있어서, 단지 하나의 DDV 가 슬라이스에 대해 유지되며 DDV 는 일단 코딩 유닛 (CU) 이 코딩되면 업데이트되는, 비디오 데이터를 디코딩하는 방법.
예 53. 예 52 의 방법에 있어서, 슬라이스가 인트라 코딩되지 않을 때, 각각의 CU 가 NBDV 를 사용하는지 여부에 관계없이, 슬라이스의 각각의 각각의 CU 에 대한 NBDV 를 호출하는 단계 및 DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
예 54. 예 52 의 방법에 있어서, CU 가 인터 코딩될 때, NBDV 결과를 결정하기 위해 CU 에 대한 NBDV 를 호출하는 단계 및 DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계; CU 가 인터 코딩되지 않을 때, DDV 를 업데이트하는 것을 억제하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
예 55. 예 52 의 방법에 있어서, CU 내 예측 유닛 (PU) 이 NBDV 결과를 사용하여 코딩될 때, DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계; 및 PU 가 NBDV 결과를 사용하여 코딩되지 않을 때, DDV 를 업데이트하는 것을 억제하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
예 56. 예 52 의 방법에 있어서, CU 내 적어도 하나의 PU 가 스킵 모드로 코딩될 때, DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
예 57. 예 38 의 방법에 있어서, 단지 하나의 DDV 가 슬라이스에 대해 유지되며 DDV 는 일단 PU 가 코딩되면 업데이트되는, 비디오 데이터를 디코딩하는 방법.
예 58. 예 57 의 방법에 있어서, 슬라이스가 인트라 코딩되지 않을 때, 각각의 PU 가 NBDV 를 사용하는지 여부에 관계없이, 슬라이스의 각각의 각각의 PU 에 대한 NBDV 를 호출하는 단계 및 DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
예 59. 예 57 의 방법에 있어서, PU 가 인터 코딩될 때, NBDV 결과를 결정하기 위해 PU 에 대한 NBDV 를 호출하는 단계 및 DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계; PU 가 인터 코딩되지 않을 때, DDV 를 업데이트하는 것을 억제하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
예 60. 예 57 의 방법에 있어서, PU 가 NBDV 결과를 사용하여 코딩될 때, DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계; 및 PU 가 NBDV 결과를 사용하여 코딩되지 않을 때, DDV 를 업데이트하는 것을 억제하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
예 61. 예 57 의 방법에 있어서, PU 가 스킵 모드로 코딩될 때, DDV 를 업데이트하기 위해 NBDV 결과를 사용하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
예 62. 예들 52 또는 57 의 방법에 있어서, 공간 및 시간 이웃하는 블록들이 디스패리티 모션 벡터를 포함하지 않을 때, NBDV 를 유도하기 위해 DDV 를 사용하는 단계를 더 포함하며, 상기 NBDV 는 DDV 와 동일하게 설정되는, 비디오 데이터를 디코딩하는 방법.
예 63. 예 62 의 방법에 있어서, 참조 뷰의 심도에 액세스함으로써 NBDV 를 개선하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
예 64. 예 62 의 방법에 있어서, NBDV 를 사용하여 참조 뷰의 심도에 액세스함으로써, 개선된 디스패리티 벡터를 발생시키는 단계; 및 DDV 를 개선된 디스패리티 벡터와 동일하게 설정하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
예 65. 예 38 의 방법에 있어서, 상기 하나 이상의 DDVs 를 저장하는 단계는 단지 하나 이상의 DDVs 의 수평 성분들을 저장하는 단계 및 하나 이상의 DDVs 의 수직 성분들을 0 과 동일하게 설정하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
예 66. 예들 38-65 의 조합 중 임의의 조합을 포함하는 방법.
예 67. 비디오 데이터를 인코딩하도록 구성된 장치로서, 상기 장치는 슬라이스의 하나 이상의 이전에-코딩된 블록들로부터의 하나 이상의 유도된 디스패리티 벡터들 (DDVs) 을 저장하는 수단; 하나 이상의 저장된 DDVs 에 적어도 부분적으로 기초하여, 슬라이스의 현재의 블록에 대한 이웃하는 블록-기반 디스패리티 벡터 (NBDV) 를 유도하는 수단; 및 현재의 블록에 대한 NBDV 에 적어도 부분적으로 기초하여 현재의 블록을 인코딩하는 수단을 포함하는, 비디오 데이터를 인코딩하도록 구성된 장치.
예 68. 예 67 의 장치에 있어서, 예들 6-36 의 방법들 중 임의의 방법을 수행하는 수단을 더 포함하는, 비디오 데이터를 인코딩하도록 구성된 장치.
예 69. 비디오 데이터를 디코딩하도록 구성된 장치로서, 상기 장치는 슬라이스의 하나 이상의 이전에-코딩된 블록들로부터의 하나 이상의 유도된 디스패리티 벡터들 (DDVs) 을 저장하는 수단; 하나 이상의 저장된 DDVs 에 적어도 부분적으로 기초하여, 슬라이스의 현재의 블록에 대한 이웃하는 블록-기반 디스패리티 벡터 (NBDV) 를 유도하는 수단; 및 현재의 블록에 대한 NBDV 에 적어도 부분적으로 기초하여, 현재의 블록을 디코딩하는 수단을 포함하는, 비디오 데이터를 디코딩하도록 구성된 장치.
예 70. 예 69 의 장치에 있어서, 예들 38-65 의 방법들 중 임의의 방법을 수행하는 수단을 더 포함하는, 비디오 데이터를 디코딩하도록 구성된 장치.
예 71. 예들 1-36 중 임의의 예의 방법을 구현하도록 구성된 하나 이상의 프로세서들을 포함하는 비디오 인코딩 디바이스.
예 72. 예들 38-65 중 임의의 것의 방법을 구현하도록 구성된 하나 이상의 프로세서들을 포함하는 비디오 디코딩 디바이스.
예 73. 비디오 인코딩 장치에 의해 실행될 때, 예들 1-36 중 임의의 예의 방법을 수행하도록 비디오 인코딩 장치를 구성하는 명령들을 안에 저장하고 있는 컴퓨터 판독가능 저장 매체.
예 74. 비디오 디코딩 장치에 의해 실행될 때, 예들 38-65 중 임의의 예의 방법을 수행하도록 비디오 인코딩 장치를 구성하는 명령들을 안에 저장하고 있는 컴퓨터 판독가능 저장 매체.
예 75. 비디오 데이터를 디코딩하는 방법으로서, 상기 방법은 하나 이상의 이웃하는 블록들에 기초하여, 화상의 현재의 블록에 대한 변수를 유도하는 단계로서, 상기 변수는 비트스트림으로 직접적으로 또는 간접적으로 시그널링되지 않는, 상기 유도하는 단계; 현재의 블록을 디코딩하기 위해 변수를 사용하는 단계; 및 현재의 블록이 디코딩된 후 변수를 업데이트하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
예 76. 하나 이상의 이웃하는 블록들에 기초하여, 화상의 현재의 블록에 대한 변수를 유도하고; 현재의 블록을 디코딩하기 위해 변수를 사용하고; 그리고 현재의 블록이 디코딩된 후 변수를 업데이트하도록 구성된 비디오 디코더를 포함하며, 상기 변수는 비트스트림으로 직접적으로 또는 간접적으로 시그널링되지 않는, 디바이스.
예 77. 하나 이상의 이웃하는 블록들에 기초하여, 화상의 현재의 블록에 대한 변수를 유도하는 수단으로서, 상기 변수는 비트스트림으로 직접적으로 또는 간접적으로 시그널링되지 않는, 상기 유도하는 수단; 현재의 블록을 디코딩하기 위해 변수를 사용하는 수단; 및 현재의 블록이 디코딩된 후 변수를 업데이트하는 수단을 포함하는, 디바이스.
예 78. 명령들을 안에 저장하고 있는 컴퓨터 판독가능 저장 매체로서, 상기 명령들은, 실행될 때, 하나 이상의 이웃하는 블록들에 기초하여, 화상의 현재의 블록에 대한 변수를 유도하도록; 현재의 블록을 디코딩하기 위해 변수를 사용하도록; 그리고 현재의 블록이 디코딩된 후 변수를 업데이트하도록 비디오 디코딩 디바이스를 구성하며, 상기 변수는 비트스트림으로 직접적으로 또는 간접적으로 시그널링되지 않는, 컴퓨터 판독가능 저장 매체.
하나 이상의 예들에서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현되는 경우, 그 기능들은 하나 이상의 명령들 또는 코드로서, 컴퓨터 판독가능 매체 상에 저장되거나 또는 컴퓨터 판독가능 매체를 통해서 송신될 수도 있으며, 하드웨어-기반의 프로세싱 유닛에 의해 실행될 수도 있다. 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체들을 포함할 수도 있으며, 이 컴퓨터 판독가능 저장 매체들은 데이터 저장 매체들과 같은 유형의 매체, 또는 예컨대, 통신 프로토콜에 따라서 한 장소로부터 다른 장소로의 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함한 통신 매체들에 대응한다. 이런 방법으로, 컴퓨터 판독가능 매체들은 일반적으로 (1) 비일시적 유형의 컴퓨터 판독가능 저장 매체, 또는 (2) 신호 또는 캐리어 파와 같은 통신 매체에 대응할 수도 있다. 데이터 저장 매체는 본 개시물에서 설명하는 기법들의 구현을 위한 명령들, 코드 및/또는 데이터 구조들을 취출하기 위해 하나 이상의 컴퓨터들 또는 하나 이상의 프로세서들에 의해 액세스될 수 있는 임의의 가용 매체들일 수도 있다. 컴퓨터 프로그램 제품은 컴퓨터 판독가능 매체를 포함할 수도 있다.
일 예로서, 이에 한정하지 않고, 이런 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광디스크 스토리지, 자기디스크 스토리지, 또는 다른 자기 저장 디바이스들, 플래시 메모리, 또는 원하는 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 저장하는데 사용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 접속이 컴퓨터 판독가능 매체로 적절히 지칭된다. 예를 들어, 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 회선 (DSL), 또는 무선 기술들, 예컨대 적외선, 라디오, 및 마이크로파를 사용하여 명령들이 웹사이트, 서버, 또는 다른 원격 소스로부터 송신되는 경우, 동축 케이블, 광섬유 케이블, 연선, DSL, 또는 무선 기술들 예컨대 적외선, 라디오, 및 마이크로파가 그 매체의 정의에 포함된다. 그러나, 컴퓨터 판독가능 저장 매체 및 데이터 저장 매체는 접속부들, 반송파들, 신호들, 또는 다른 일시성 매체를 포함하지 않고, 그 대신, 비-일시성 유형의 저장 매체로 송신되는 것으로 해석되어야 한다. 디스크 (disk) 및 디스크 (disc) 는, 본원에서 사용할 때, 컴팩트 디스크 (CD), 레이저 디스크, 광 디스크, 디지털 다기능 디스크 (DVD), 플로피 디스크 및 Blu-ray 디스크를 포함하며, 디스크들 (disks) 은 데이터를 자기적으로 보통 재생하지만, 디스크들 (discs) 은 레이저로 데이터를 광학적으로 재생한다. 앞에서 언급한 것들의 결합들이 또한 컴퓨터 판독가능 매체들의 범위 내에 포함되어야 한다.
명령들은 하나 이상의 디지털 신호 프로세서들 (DSPs), 범용 마이크로프로세서들, 주문형 집적회로들 (ASICs), 필드 프로그래밍가능 로직 어레이들 (FPGAs), 또는 다른 등가의 집적 또는 이산 로직 회로와 같은, 하나 이상의 프로세서들에 의해 실행될 수도 있다. 따라서, 용어 "프로세서" 는, 본원에서 사용될 때 전술한 구조 중 임의의 구조 또는 본원에서 설명하는 기법들의 구현에 적합한 임의의 다른 구조를 지칭할 수도 있다. 게다가, 일부 양태들에서, 본원에서 설명하는 기능은 전용 하드웨어 및/또는 인코딩 및 디코딩을 위해 구성되는 소프트웨어 모듈들 내에 제공되거나, 또는 결합된 코덱에 포함될 수도 있다. 또한, 이 기법들은 하나 이상의 회로들 또는 로직 엘리먼트들로 전적으로 구현될 수 있다.
본 개시물의 기법들은 무선 핸드셋, 집적 회로 (IC) 또는 IC들의 세트 (예컨대, 칩 세트) 를 포함한, 매우 다양한 디바이스들 또는 장치들로 구현될 수도 있다. 개시한 기법들을 수행하도록 구성되는 디바이스들의 기능적 양태들을 강조하기 위해서 여러 구성요소들, 모듈들, 또는 유닛들이 본 개시물에서 설명되지만, 상이한 하드웨어 유닛들에 의한 실현을 반드시 필요로 하지는 않는다. 대신, 위에서 설명한 바와 같이, 여러 유닛들이 코덱 하드웨어 유닛에 결합되거나 또는 적합한 소프트웨어 및/또는 펌웨어와 함께, 위에서 설명한 바와 같은 하나 이상의 프로세서들을 포함한, 상호작용하는 하드웨어 유닛들의 컬렉션으로 제공될 수도 있다.
여러 예들이 설명되었다. 이들 및 다른 예들은 다음 청구항들의 범위 이내이다.

Claims (42)

  1. 비디오 데이터를 디코딩하는 방법으로서,
    비디오 데이터의 현재의 화상의 슬라이스에 대해 단지 하나의 유도된 디스패리티 벡터 (DDV) 를 저장하는 단계로서, 상기 슬라이스는 다수의 블록들을 포함하는, 상기 저장하는 단계;
    특정의 블록에 대한 디스패리티 벡터를 결정하기 위해 이웃하는 블록 기반의 디스패리티 벡터 (NBDV) 유도 프로세스에서 상기 슬라이스에 대한 DDV 를 사용하는 단계로서, 상기 특정의 블록은 상기 슬라이스의 블록들 중 하나인, 상기 사용하는 단계; 및
    상기 슬라이스에 대한 DDV 로서, 상기 특정의 블록에 대한 디스패리티 벡터를 저장하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  2. 제 1 항에 있어서,
    상기 특정의 블록에 대한 디스패리티 벡터에 적어도 부분적으로 기초하여 상기 특정의 블록을 디코딩하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
  3. 제 1 항에 있어서,
    상기 특정의 블록은 제 1 블록이며,
    상기 방법은,
    상기 슬라이스에 대한 DDV 로서, 상기 제 1 블록에 대한 디스패리티 벡터를 저장한 후에,
    제 2 블록에 대한 디스패리티 벡터를 결정하기 위해 NBDV 유도 프로세스에서 상기 슬라이스에 대한 DDV 를 사용하는 단계로서, 상기 제 2 블록은 상기 슬라이스의 블록들 중 하나인, 상기 사용하는 단계; 및
    상기 제 2 블록에 대한 디스패리티 벡터에 적어도 부분적으로 기초하여 상기 제 2 블록을 디코딩하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
  4. 제 3 항에 있어서,
    상기 제 1 블록은 상기 제 2 블록의 바로 좌측에 있는, 비디오 데이터를 디코딩하는 방법.
  5. 제 3 항에 있어서,
    상기 제 1 블록은 매크로블록이고 상기 제 2 블록은 매크로블록인, 비디오 데이터를 디코딩하는 방법.
  6. 제 3 항에 있어서,
    상기 제 1 블록 및 상기 제 2 블록은 코딩 유닛 (CU) 들이거나, 상기 제 1 블록 및 상기 제 2 블록은 예측 유닛 (PU) 들이거나, 또는 상기 제 1 블록 및 상기 제 2 블록은 최대 코딩 유닛 (LCU) 들인, 비디오 데이터를 디코딩하는 방법.
  7. 제 1 항에 있어서,
    상기 NBDV 유도 프로세스에서 상기 슬라이스에 대한 DDV 를 사용하는 단계는,
    상기 특정의 블록에 대한 디스패리티 벡터를 유도하기 위해, 상기 슬라이스에 대한 DDV, 시간 이웃하는 블록에 대한 디스패리티 모션 벡터, 및 공간 이웃하는 블록에 대한 디스패리티 모션 벡터를 사용하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  8. 제 7 항에 있어서,
    상기 NBDV 유도 프로세스에서 상기 슬라이스에 대한 DDV 를 사용하는 단계는,
    상기 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖지 않는다고 결정한 후, 그리고, 상기 공간 이웃하는 블록이 디스패리티 모션 벡터를 갖지 않는다고 결정한 후, 상기 특정의 블록에 대한 디스패리티 벡터를 상기 슬라이스에 대한 DDV 와 동일하게 설정하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  9. 제 8 항에 있어서,
    상기 NBDV 유도 프로세스에서 상기 슬라이스에 대한 DDV 를 사용하는 단계는,
    상기 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖는지 여부를 결정하는 단계;
    상기 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖는다고 결정하는 것에 응답하여, 상기 시간 이웃하는 블록의 상기 디스패리티 모션 벡터에 기초하여 상기 특정의 블록에 대한 디스패리티 벡터를 유도하는 단계;
    상기 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖지 않는다고 결정하는 것에 응답하여, 복수의 공간 이웃하는 블록들에서의 임의의 공간 이웃하는 블록이 디스패리티 모션 벡터를 갖는지 여부를 결정하는 단계;
    상기 복수의 공간 이웃하는 블록들에서의 특정의 공간 이웃하는 블록이 디스패리티 모션 벡터를 갖는다고 결정하는 것에 응답하여, 상기 특정의 공간 이웃하는 블록의 상기 디스패리티 모션 벡터에 기초하여 상기 특정의 블록에 대한 디스패리티 벡터를 유도하는 단계; 및
    상기 복수의 공간 이웃하는 블록들에서 어떤 공간 이웃하는 블록도 디스패리티 모션 벡터를 갖지 않는다고 결정하는 것에 응답하여, 상기 특정의 블록에 대한 디스패리티 벡터를 상기 슬라이스에 대한 DDV 로서 유도하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  10. 제 1 항에 있어서,
    상기 특정의 블록 후에 코딩되는 상기 슬라이스의 각각의 블록에 대해 상기 슬라이스에 대한 DDV 를 한번 업데이트하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
  11. 제 1 항에 있어서,
    상기 슬라이스에 대한 DDV 로서, 상기 특정의 블록에 대한 디스패리티 벡터를 저장하는 단계는, 다음 조건이 만족되는 것에 응답하여, 상기 특정의 블록에 대한 디스패리티 벡터를 규정하기 위해 상기 슬라이스에 대한 DDV 를 업데이트하는 단계를 포함하며,
    상기 조건은,
    상기 특정의 블록이 인터-뷰 모션 예측을 사용하여 코딩되는 것;
    상기 특정의 블록이 인터 코딩되는 것;
    상기 슬라이스가 인터 코딩되는 것;
    상기 특정의 블록이 스킵 모드 또는 직접 모드로 코딩되는 것;
    상기 특정의 블록에 대한 디스패리티 벡터의 크기가 상기 슬라이스에 대한 DDV 의 크기보다 더 큰 것; 및
    상기 슬라이스에 대한 DDV 가 넌-제로인 것 중 하나인, 비디오 데이터를 디코딩하는 방법.
  12. 제 1 항에 있어서,
    심도 뷰 성분에서의 심도 픽셀들에 기초하여 상기 특정의 블록에 대한 디스패리티 벡터를 개선하는 단계를 더 포함하며,
    상기 슬라이스에 대한 DDV 로서, 상기 특정의 블록에 대한 디스패리티 벡터를 저장하는 단계는 상기 특정의 블록에 대한 리파이닝된 상기 디스패리티 벡터를 규정하기 위해 상기 슬라이스에 대한 DDV 를 업데이트하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  13. 제 1 항에 있어서,
    상기 방법은 상기 슬라이스의 블록들 중 임의의 블록에 대한 암시적인 디스패리티 벡터들을 저장하지 않는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
  14. 비디오 데이터를 인코딩하는 방법으로서,
    비디오 데이터의 현재의 화상의 슬라이스에 대해 단지 하나의 유도된 디스패리티 벡터 (DDV) 를 저장하는 단계로서, 상기 슬라이스는 다수의 블록들을 포함하는, 상기 저장하는 단계;
    특정의 블록에 대한 디스패리티 벡터를 결정하기 위해 이웃하는 블록 기반의 디스패리티 벡터 (NBDV) 유도 프로세스에서 상기 슬라이스에 대한 DDV 를 사용하는 단계로서, 상기 특정의 블록은 상기 슬라이스의 블록들 중 하나인, 상기 사용하는 단계; 및
    상기 슬라이스에 대한 DDV 로서, 상기 특정의 블록에 대한 디스패리티 벡터를 저장하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  15. 제 14 항에 있어서,
    상기 특정의 블록에 대한 디스패리티 벡터에 적어도 부분적으로 기초하여 상기 특정의 블록을 인코딩하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
  16. 제 14 항에 있어서,
    상기 특정의 블록은 제 1 블록이며,
    상기 방법은,
    상기 슬라이스에 대한 DDV 로서, 상기 제 1 블록에 대한 디스패리티 벡터를 저장한 후에,
    제 2 블록에 대한 디스패리티 벡터를 결정하기 위해 NBDV 유도 프로세스에서 상기 슬라이스에 대한 DDV 를 사용하는 단계로서, 상기 제 2 블록은 상기 슬라이스의 블록들 중 하나인, 상기 사용하는 단계; 및
    상기 제 2 블록에 대한 디스패리티 벡터에 적어도 부분적으로 기초하여 상기 제 2 블록을 인코딩하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
  17. 제 16 항에 있어서,
    상기 제 1 블록은 상기 제 2 블록의 바로 좌측에 있는, 비디오 데이터를 인코딩하는 방법.
  18. 제 16 항에 있어서,
    상기 제 1 블록은 매크로블록이고 상기 제 2 블록은 매크로블록인, 비디오 데이터를 인코딩하는 방법.
  19. 제 16 항에 있어서,
    상기 제 1 블록 및 상기 제 2 블록은 코딩 유닛 (CU) 들이거나, 상기 제 1 블록 및 상기 제 2 블록은 예측 유닛 (PU) 들이거나, 또는 상기 제 1 블록 및 상기 제 2 블록은 최대 코딩 유닛 (LCU) 들인, 비디오 데이터를 인코딩하는 방법.
  20. 제 14 항에 있어서,
    상기 특정의 블록에 대한 상기 NBDV 유도 프로세스에서 상기 슬라이스에 대한 DDV 를 사용하는 단계는,
    상기 특정의 블록에 대한 디스패리티 벡터를 유도하기 위해, 상기 슬라이스에 대한 DDV, 시간 이웃하는 블록에 대한 디스패리티 모션 벡터, 및 공간 이웃하는 블록에 대한 디스패리티 모션 벡터를 사용하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  21. 제 20 항에 있어서,
    상기 NBDV 유도 프로세스에서 상기 슬라이스에 대한 DDV 를 사용하는 단계는,
    상기 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖지 않는다고 결정한 후, 그리고, 상기 공간 이웃하는 블록이 디스패리티 모션 벡터를 갖지 않는다고 결정한 후, 상기 특정의 블록에 대한 디스패리티 벡터를 상기 슬라이스에 대한 DDV 와 동일하게 설정하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  22. 제 21 항에 있어서,
    상기 NBDV 유도 프로세스에서 상기 슬라이스에 대한 DDV 를 사용하는 단계는,
    상기 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖는지 여부를 결정하는 단계;
    상기 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖는다고 결정하는 것에 응답하여, 상기 시간 이웃하는 블록의 상기 디스패리티 모션 벡터에 기초하여 상기 특정의 블록에 대한 디스패리티 벡터를 유도하는 단계;
    상기 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖지 않는다고 결정하는 것에 응답하여, 복수의 공간 이웃하는 블록들에서의 임의의 공간 이웃하는 블록이 디스패리티 모션 벡터를 갖는지 여부를 결정하는 단계;
    상기 복수의 공간 이웃하는 블록들에서의 특정의 공간 이웃하는 블록이 디스패리티 모션 벡터를 갖는다고 결정하는 것에 응답하여, 상기 특정의 공간 이웃하는 블록의 상기 디스패리티 모션 벡터에 기초하여 상기 특정의 블록에 대한 디스패리티 벡터를 유도하는 단계; 및
    상기 복수의 공간 이웃하는 블록들에서 어떤 공간 이웃하는 블록도 디스패리티 모션 벡터를 갖지 않는다고 결정하는 것에 응답하여, 상기 특정의 블록에 대한 디스패리티 벡터를 상기 슬라이스에 대한 DDV 로서 유도하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  23. 제 14 항에 있어서,
    상기 특정의 블록 후에 코딩되는 상기 슬라이스의 각각의 블록에 대해 상기 슬라이스에 대한 DDV 를 한번 업데이트하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
  24. 제 14 항에 있어서,
    상기 슬라이스에 대한 DDV 로서, 상기 특정의 블록에 대한 디스패리티 벡터를 저장하는 단계는, 다음 조건이 만족되는 것에 응답하여, 상기 특정의 블록에 대한 디스패리티 벡터를 규정하기 위해 상기 슬라이스에 대한 DDV 를 업데이트하는 단계를 포함하며,
    상기 조건은,
    상기 특정의 블록이 인터-뷰 모션 예측을 사용하여 코딩되는 것;
    상기 특정의 블록이 인터 코딩되는 것;
    상기 슬라이스가 인터 코딩되는 것;
    상기 특정의 블록이 스킵 모드 또는 직접 모드로 코딩되는 것;
    상기 특정의 블록에 대한 디스패리티 벡터의 크기가 상기 슬라이스에 대한 DDV 의 크기보다 더 큰 것; 및
    상기 슬라이스에 대한 DDV 가 넌-제로인 것 중 하나인, 비디오 데이터를 인코딩하는 방법.
  25. 제 14 항에 있어서,
    심도 뷰 성분에서의 심도 픽셀들에 기초하여 상기 특정의 블록에 대한 디스패리티 벡터를 개선하는 단계를 더 포함하며,
    상기 슬라이스에 대한 DDV 로서, 상기 특정의 블록에 대한 디스패리티 벡터를 저장하는 단계는 상기 특정의 블록에 대한 리파이닝된 상기 디스패리티 벡터를 규정하기 위해 상기 슬라이스에 대한 DDV 를 업데이트하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  26. 제 14 항에 있어서,
    상기 방법은 상기 슬라이스의 블록들 중 임의의 블록에 대한 암시적인 디스패리티 벡터들을 저장하지 않는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
  27. 비디오 코딩 디바이스로서,
    비디오 데이터를 저장하는 메모리; 및
    하나 이상의 프로세서들을 포함하며,
    상기 하나 이상의 프로세서들은,
    비디오 데이터의 현재의 화상의 슬라이스에 대해 단지 하나의 유도된 디스패리티 벡터 (DDV) 를 저장하고;
    특정의 블록에 대한 디스패리티 벡터를 결정하기 위해 이웃하는 블록 기반의 디스패리티 벡터 (NBDV) 유도 프로세스에서 상기 슬라이스에 대한 DDV 를 사용하며;
    상기 슬라이스에 대한 DDV 로서, 상기 특정의 블록에 대한 디스패리티 벡터를 저장하도록 구성되며,
    상기 슬라이스는 다수의 블록들을 포함하며,
    상기 특정의 블록은 상기 슬라이스의 블록들 중 하나인, 비디오 코딩 디바이스.
  28. 제 27 항에 있어서,
    상기 하나 이상의 프로세서들은 상기 특정의 블록에 대한 디스패리티 벡터에 적어도 부분적으로 기초하여 상기 특정의 블록을 인코딩하도록 구성되는, 비디오 코딩 디바이스.
  29. 제 27 항에 있어서,
    상기 하나 이상의 프로세서들은 상기 특정의 블록에 대한 디스패리티 벡터에 적어도 부분적으로 기초하여 상기 특정의 블록을 디코딩하도록 구성되는, 비디오 코딩 디바이스.
  30. 제 27 항에 있어서,
    상기 특정의 블록은 제 1 블록이며,
    상기 하나 이상의 프로세서들은,
    상기 슬라이스에 대한 DDV, 상기 제 1 블록에 대한 디스패리티 벡터를 저장한 후에, 상기 하나 이상의 프로세서들이,
    제 2 블록에 대한 디스패리티 벡터를 결정하기 위해 NBDV 유도 프로세스에서 상기 슬라이스에 대한 DDV 를 사용하며;
    상기 제 2 블록에 대한 디스패리티 벡터에 적어도 부분적으로 기초하여 상기 제 2 블록을 코딩하도록 추가로 구성되며,
    상기 제 2 블록은 상기 슬라이스의 블록들 중 하나인, 비디오 코딩 디바이스.
  31. 제 27 항에 있어서,
    상기 제 1 블록은 상기 제 2 블록의 바로 좌측에 있는, 비디오 코딩 디바이스.
  32. 제 27 항에 있어서,
    상기 제 1 블록은 매크로블록이고, 상기 제 2 블록은 매크로블록인, 비디오 코딩 디바이스.
  33. 제 27 항에 있어서,
    상기 제 1 블록 및 상기 제 2 블록은 코딩 유닛 (CU) 들이거나, 상기 제 1 블록 및 상기 제 2 블록은 예측 유닛 (PU) 들이거나, 또는 상기 제 1 블록 및 상기 제 2 블록은 최대 코딩 유닛 (LCU) 들인, 비디오 코딩 디바이스.
  34. 제 27 항에 있어서,
    상기 하나 이상의 프로세서들은 상기 특정의 블록에 대한 디스패리티 벡터를 유도하기 위해 상기 슬라이스에 대한 DDV, 시간 이웃하는 블록에 대한 디스패리티 모션 벡터, 및 공간 이웃하는 블록에 대한 디스패리티 모션 벡터를 사용하도록 구성되는, 비디오 코딩 디바이스.
  35. 제 34 항에 있어서,
    상기 하나 이상의 프로세서들은, 상기 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖지 않는다고 결정한 후, 그리고, 상기 공간 이웃하는 블록이 디스패리티 모션 벡터를 갖지 않는다고 결정한 후, 상기 특정의 블록에 대한 디스패리티 벡터를 상기 슬라이스에 대한 DDV 와 동일하게 설정하도록 구성되는, 비디오 코딩 디바이스.
  36. 제 35 항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 시간 이웃하는 블록이 디스패리티 모션 벡터를 가지는 여부를 결정하고;
    상기 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖는다고 결정하는 것에 응답하여, 상기 시간 이웃하는 블록의 상기 디스패리티 모션 벡터에 기초하여 상기 특정의 블록에 대한 디스패리티 벡터를 유도하고;
    상기 시간 이웃하는 블록이 디스패리티 모션 벡터를 갖지 않는다고 결정하는 것에 응답하여, 복수의 공간 이웃하는 블록들에서의 임의의 공간 이웃하는 블록이 디스패리티 모션 벡터를 갖는지 여부를 결정하고;
    상기 복수의 공간 이웃하는 블록들에서의 특정의 공간 이웃하는 블록이 디스패리티 모션 벡터를 갖는다고 결정하는 것에 응답하여, 상기 특정의 공간 이웃하는 블록의 상기 디스패리티 모션 벡터에 기초하여 상기 특정의 블록에 대한 디스패리티 벡터를 유도하며;
    상기 복수의 공간 이웃하는 블록들에서 어떤 공간 이웃하는 블록도 디스패리티 모션 벡터를 갖지 않는다고 결정하는 것에 응답하여, 상기 특정의 블록에 대한 디스패리티 벡터를 상기 슬라이스에 대한 DDV 로서 유도하도록 구성되는, 비디오 코딩 디바이스.
  37. 제 27 항에 있어서,
    상기 하나 이상의 프로세서들은, 상기 제 1 블록 후에 코딩되는 상기 슬라이스의 각각의 블록에 대해 상기 DDV 를 한번 업데이트하도록 구성되는, 비디오 코딩 디바이스.
  38. 제 27 항에 있어서,
    상기 하나 이상의 프로세서들은 다음 조건이 만족되는 것에 응답하여, 상기 특정의 블록에 대한 디스패리티 벡터를 규정하기 위해 상기 슬라이스에 대한 DDV 를 업데이트하도록 구성되며,
    상기 조건은,
    상기 특정의 블록이 인터-뷰 모션 예측을 사용하여 코딩되는 것;
    상기 특정의 블록이 인터 코딩되는 것;
    상기 슬라이스가 인터 코딩되는 것;
    상기 특정의 블록이 스킵 모드 또는 직접 모드로 코딩되는 것;
    상기 특정의 블록에 대한 디스패리티 벡터의 크기가 상기 슬라이스에 대한 DDV 의 크기보다 더 큰 것; 및
    상기 슬라이스에 대한 DDV 가 넌-제로인 것 중 하나인, 비디오 코딩 디바이스.
  39. 제 27 항에 있어서,
    상기 하나 이상의 프로세서들은,
    심도 뷰 성분에서의 심도 픽셀들에 기초하여 상기 특정의 블록에 대한 디스패리티 벡터를 개선하도록 구성되며;
    상기 하나 이상의 프로세서들은 상기 특정의 블록에 대한 리파이닝된 상기 디스패리티 벡터를 규정하기 위해 상기 슬라이스에 대한 DDV 를 업데이트하도록 구성되는, 비디오 코딩 디바이스.
  40. 제 27 항에 있어서,
    상기 하나 이상의 프로세서들은 상기 슬라이스의 임의의 블록에 대한 암시적인 디스패리티 벡터들을 저장하지 않도록 구성되는, 비디오 코딩 디바이스.
  41. 비디오 데이터를 코딩하도록 구성된 비디오 코딩 디바이스로서,
    비디오 데이터의 현재의 화상의 슬라이스에 대해 단지 하나의 유도된 디스패리티 벡터 (DDV) 를 저장하는 수단으로서, 상기 슬라이스는 다수의 블록들을 포함하는, 상기 저장하는 수단;
    특정의 블록에 대한 디스패리티 벡터를 결정하기 위해 이웃하는 블록 기반의 디스패리티 벡터 (NBDV) 유도 프로세스에서 상기 슬라이스에 대한 DDV 를 사용하는 수단으로서, 상기 특정의 블록은 상기 슬라이스의 블록들 중 하나인, 상기 사용하는 수단; 및
    상기 슬라이스에 대한 DDV 로서, 상기 특정의 블록에 대한 디스패리티 벡터를 저장하는 수단을 포함하는, 비디오 코딩 디바이스.
  42. 명령들을 안에 저장하고 있는 비일시적 컴퓨터 판독가능 매체로서,
    상기 명령들은, 실행될 때, 비디오 코딩 디바이스의 하나 이상의 프로세서들로 하여금,
    비디오 데이터의 현재의 화상의 슬라이스에 대해 단지 하나의 유도된 디스패리티 벡터 (DDV) 를 저장하게 하고;
    특정의 블록에 대한 디스패리티 벡터를 결정하기 위해 이웃하는 블록 기반의 디스패리티 벡터 (NBDV) 유도 프로세스에서 상기 슬라이스에 대한 DDV 를 사용하게 하고; 그리고
    상기 슬라이스에 대한 DDV 로서, 상기 특정의 블록에 대한 디스패리티 벡터를 저장하게 하며,
    상기 슬라이스는 다수의 블록들을 포함하며,
    상기 특정의 블록은 상기 슬라이스의 블록들 중 하나인, 비일시적 컴퓨터 판독가능 매체.
KR1020157027073A 2013-03-06 2014-03-06 3d 비디오 코딩에서의 유도된 디스패리티 벡터 KR101780434B1 (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361773680P 2013-03-06 2013-03-06
US61/773,680 2013-03-06
US201361809174P 2013-04-05 2013-04-05
US61/809,174 2013-04-05
US14/198,442 US9521389B2 (en) 2013-03-06 2014-03-05 Derived disparity vector in 3D video coding
US14/198,442 2014-03-05
PCT/US2014/021343 WO2014138450A1 (en) 2013-03-06 2014-03-06 Derived disparity vector in 3d video coding

Publications (2)

Publication Number Publication Date
KR20150122772A true KR20150122772A (ko) 2015-11-02
KR101780434B1 KR101780434B1 (ko) 2017-09-21

Family

ID=51487789

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157027073A KR101780434B1 (ko) 2013-03-06 2014-03-06 3d 비디오 코딩에서의 유도된 디스패리티 벡터

Country Status (9)

Country Link
US (1) US9521389B2 (ko)
EP (1) EP2965522B1 (ko)
JP (1) JP6227678B2 (ko)
KR (1) KR101780434B1 (ko)
CN (1) CN105027571B (ko)
ES (1) ES2636967T3 (ko)
HU (1) HUE032800T2 (ko)
TW (1) TWI539791B (ko)
WO (1) WO2014138450A1 (ko)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014166063A1 (en) * 2013-04-09 2014-10-16 Mediatek Inc. Default vector for disparity vector derivation for 3d video coding
US9667990B2 (en) 2013-05-31 2017-05-30 Qualcomm Incorporated Parallel derived disparity vector for 3D video coding with neighbor-based disparity vector derivation
CN105532004B (zh) * 2013-07-12 2019-01-25 三星电子株式会社 层间视频解码方法及设备
US10075690B2 (en) * 2013-10-17 2018-09-11 Mediatek Inc. Method of motion information prediction and inheritance in multi-view and three-dimensional video coding
WO2015057037A1 (ko) * 2013-10-18 2015-04-23 엘지전자 주식회사 멀티-뷰 비디오를 디코딩하는 비디오 디코딩 장치 및 방법
CN111193930B (zh) * 2013-12-16 2021-11-30 浙江大学 一种前向双假设编码图像块的编解码方法和装置
US10560718B2 (en) 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
CA3025477C (en) * 2016-05-25 2023-10-03 Arris Enterprises Llc Jvet coding block structure with asymmetrical partitioning
JP2019535202A (ja) * 2016-10-06 2019-12-05 エルジー エレクトロニクス インコーポレイティド インター予測モードベースの画像処理方法及びそのための装置
US11891309B2 (en) 2017-09-19 2024-02-06 Ecolab Usa Inc. Cooling water monitoring and control system
US10368071B2 (en) * 2017-11-03 2019-07-30 Arm Limited Encoding data arrays
BR112020005049B1 (pt) * 2017-11-10 2023-05-16 Ecolab Usa Inc Método
US10587885B2 (en) * 2018-06-04 2020-03-10 Tencent America LLC Method and apparatus for merge mode with additional middle candidates in video coding
US10679668B2 (en) * 2018-08-31 2020-06-09 Gopro, Inc. Systems and methods for editing videos
US11665365B2 (en) * 2018-09-14 2023-05-30 Google Llc Motion prediction coding with coframe motion vectors
CA3134527C (en) * 2019-04-22 2023-12-12 Leia Inc. Time-multiplexed backlight, multiview display, and method
CN111103829B (zh) * 2019-12-11 2024-05-17 旋智电子科技(上海)有限公司 一种电机控制装置和方法
US11496151B1 (en) 2020-04-24 2022-11-08 Tencent America LLC Neural network model compression with block partitioning

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3693407B2 (ja) * 1996-04-04 2005-09-07 シャープ株式会社 多視点画像符号化装置および復号装置
US20040260827A1 (en) 2003-06-19 2004-12-23 Nokia Corporation Stream switching based on gradual decoder refresh
EP2030450B1 (en) * 2006-06-19 2015-01-07 LG Electronics Inc. Method and apparatus for processing a video signal
KR20080066522A (ko) * 2007-01-11 2008-07-16 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
KR20090113281A (ko) * 2007-01-24 2009-10-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
WO2008108566A1 (en) * 2007-03-02 2008-09-12 Lg Electronics Inc. A method and an apparatus for decoding/encoding a video signal
US10298952B2 (en) * 2007-08-06 2019-05-21 Interdigital Madison Patent Holdings Methods and apparatus for motion skip move with multiple inter-view reference pictures
CN103428504B (zh) * 2007-08-15 2017-04-12 汤姆森许可贸易公司 在多视图编码的视频中进行错误隐藏的方法和装置
US8964844B2 (en) * 2007-08-15 2015-02-24 Thomson Licensing Methods and apparatus for motion skip mode in multi-view coded video using regional disparity vectors
CN102342127A (zh) 2009-01-28 2012-02-01 诺基亚公司 用于视频编码和解码的方法和装置
TW201210325A (en) 2010-07-21 2012-03-01 Nokia Corp Method and apparatus for indicating switching points in a streaming session
US20140078254A1 (en) * 2011-06-15 2014-03-20 Mediatek Inc. Method and Apparatus of Motion and Disparity Vector Prediction and Compensation for 3D Video Coding
SG10201609891QA (en) * 2011-06-30 2016-12-29 Sony Corp Image processing device and image processing method
RU2583040C2 (ru) 2011-08-30 2016-05-10 Нокиа Текнолоджиз Ой Устройство, способ и компьютерная программа для кодирования и декодирования видеосигналов
EP2878125A4 (en) * 2012-07-27 2016-10-12 Hfi Innovation Inc CONSTRAINED DISPARITY VECTOR DERIVATION METHOD IN 3D VIDEO CODING
US9544612B2 (en) * 2012-10-04 2017-01-10 Intel Corporation Prediction parameter inheritance for 3D video coding
US9635357B2 (en) 2013-02-26 2017-04-25 Qualcomm Incorporated Neighboring block disparity vector derivation in 3D video coding
US9237345B2 (en) 2013-02-26 2016-01-12 Qualcomm Incorporated Neighbor block-based disparity vector derivation in 3D-AVC
US9667990B2 (en) 2013-05-31 2017-05-30 Qualcomm Incorporated Parallel derived disparity vector for 3D video coding with neighbor-based disparity vector derivation

Also Published As

Publication number Publication date
CN105027571A (zh) 2015-11-04
JP6227678B2 (ja) 2017-11-08
KR101780434B1 (ko) 2017-09-21
EP2965522A1 (en) 2016-01-13
US20140254682A1 (en) 2014-09-11
ES2636967T3 (es) 2017-10-10
WO2014138450A1 (en) 2014-09-12
CN105027571B (zh) 2018-08-28
US9521389B2 (en) 2016-12-13
TW201448566A (zh) 2014-12-16
JP2016513919A (ja) 2016-05-16
EP2965522B1 (en) 2017-05-10
HUE032800T2 (en) 2017-11-28
TWI539791B (zh) 2016-06-21

Similar Documents

Publication Publication Date Title
KR101780434B1 (ko) 3d 비디오 코딩에서의 유도된 디스패리티 벡터
KR101773693B1 (ko) 스킵 및 직접 모드들에 대한 3d 비디오 코딩에서의 디스패리티 벡터 유도
KR102520295B1 (ko) 선형 모델 예측 모드를 위한 다운샘플링 프로세스
KR102202162B1 (ko) 3차원 비디오 코딩을 위한 뷰 합성 모드
KR101967967B1 (ko) Hevc 에서의 서브-예측 유닛 (pu) 기반 시간적 모션 벡터 예측 및 3d-hevc 에서의 서브-pu 설계
US9667990B2 (en) Parallel derived disparity vector for 3D video coding with neighbor-based disparity vector derivation
KR101722890B1 (ko) 텍스처 코딩을 위한 더욱 정확한 어드밴스드 잔차 예측 (arp)
US20170006309A1 (en) Constrained depth intra mode coding for 3d video coding
KR101958055B1 (ko) 비디오 코딩에서의 디스패리티 벡터 리파인먼트
KR102294260B1 (ko) 3차원 (3d) hevc 또는 다른 3d 코딩에서 서브 예측 유닛 (서브 pu) 모션 파라미터 상속 (mpi) 제어
KR20160055229A (ko) 비대칭 모션 파티셔닝을 이용한 비디오 코딩 기법들
KR101861906B1 (ko) 고 효율 비디오 코딩에 기초한 비디오 정보의 스케일러블 코딩을 위한 디바이스 및 방법
KR20160106604A (ko) 3d 비디오 코딩을 위한 블록-기반 진보된 잔차 예측
KR20160058823A (ko) Hevc 에서의 서브-예측 유닛 (pu) 기반 시간적 모션 벡터 예측 및 3d-hevc 에서의 서브-pu 설계
KR20150131222A (ko) 3d 비디오 코딩에서 디스패리티 벡터 도출 및 모션 벡터 예측에 대한 단순화
KR20150139953A (ko) 백워드 뷰 합성 예측
KR20140120900A (ko) 심도를 갖는 3d 비디오 코딩에서의 멀티-가설 디스패리티 벡터 구성
WO2015131388A1 (en) Simplification of depth intra mode coding in 3d video coding

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right