KR20160132862A - 3d-hevc 를 위한 단순화된 진보된 잔차 예측 - Google Patents

3d-hevc 를 위한 단순화된 진보된 잔차 예측 Download PDF

Info

Publication number
KR20160132862A
KR20160132862A KR1020167025873A KR20167025873A KR20160132862A KR 20160132862 A KR20160132862 A KR 20160132862A KR 1020167025873 A KR1020167025873 A KR 1020167025873A KR 20167025873 A KR20167025873 A KR 20167025873A KR 20160132862 A KR20160132862 A KR 20160132862A
Authority
KR
South Korea
Prior art keywords
block
arp
view
current block
prediction
Prior art date
Application number
KR1020167025873A
Other languages
English (en)
Inventor
홍빈 리우
잉 천
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20160132862A publication Critical patent/KR20160132862A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • H04N13/0048
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 개시물은 3D 비디오 코딩을 위한 기법들을 설명한다. 특히, 본 개시물은 3D-HEVC 에서 진보된 잔차 예측 (ARP) 을 위한 기법들에 관한 것이다. 본 개시물의 하나의 기법들에 따르면, 양방향성으로 예측된 블록에 대한 인터-뷰 ARP 를 수행할 때, 비디오 코더는 제 1 예측 방향에 대해 ARP 를 수행하는 부분으로서 제 1 대응 블록에 대한 모션 벡터를 결정하고, 제 2 예측 방향에 대해 ARP 를 수행할 때 그 결정된 모션 벡터를 재이용할 수도 있다. 다른 기법에 따르면, 양방향성으로 예측된 블록에 대해, 비디오 코더는 블록의 크로마 컴포넌트에 대해 단 하나의 방향에서만 ARP 를 적용하지만 블록의 루마 컴포넌트에 대해 2 개의 방향들에서 ARP 를 적용할 수도 있다. 다른 기법에 따르면, 비디오 코더는 블록 사이즈에 기초하여 ARP 를 크로마 컴포넌트들에 선택적으로 적용할 수도 있다. 이들 단순화들 뿐만 아니라, 본 개시물에 포함된 다른 기법들은 전체 코딩 복잡도를 감소시킬 수도 있다.

Description

3D-HEVC 를 위한 단순화된 진보된 잔차 예측{SIMPLIFIED ADVANCED RESIDUAL PREDICTION FOR 3D-HEVC}
본 개시물은 비디오 인코딩 및 디코딩에 관한 것이다.
디지털 비디오 능력들은 디지털 텔레비전들, 디지털 다이렉트 브로드캐스트 시스템들, 무선 브로드캐스트 시스템들, 개인 휴대 정보 단말기 (personal digital assistant; PDA) 들, 랩톱 또는 데스크톱 컴퓨터들, 디지털 카메라들, 디지털 레코딩 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 디바이스들, 비디오 게임 콘솔들, 셀룰러 또는 위성 무선 전화기들, 원격 화상회의 디바이스들 등을 포함하는, 광범위한 디바이스들에 포함될 수 있다. 디지털 비디오 디바이스들은 MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, Part 10, 진보된 비디오 코딩 (Advanced Video Coding; AVC) 에 의해 정의된 표준들, 현재 개발 중인 고효율 비디오 코딩 (High Efficiency Video Coding; HEVC) 표준, 및 이러한 표준들의 확장들에서 설명되는 것들과 같은 비디오 압축 기법들을 구현하여, 디지털 비디오 정보를 더 효율적으로 송신, 수신 및 저장한다.
H.264/AVC 를 포함하는 전술한 표준들 중 일부 표준의 확장들은, 스테레오 또는 3 차원 ("3D") 비디오를 생성하기 위해 멀티뷰 비디오 코딩을 위한 기법들을 제공할 수도 있다. 특히, 멀티뷰 코딩을 위한 기법들은, 스케일러블 비디오 코딩 (scalable video coding; SVC) 표준 (H.264/AVC 에 대한 스케일러블 확장임), 및 멀티뷰 비디오 코딩 (multi-view video coding; MVC) 표준 (H.264/AVC 에 대한 멀티뷰 확장으로 됨) 과 함께, AVC 에서의 이용을 위해 제안되었다.
통상적으로, 스테레오 비디오는 2 개의 뷰들, 예를 들어, 좌측 뷰 및 우측 뷰를 이용하여 달성된다. 좌측 뷰의 픽처는 우측 뷰의 픽처와 실질적으로 동시에 디스플레이되어 3 차원 비디오 효과를 달성할 수 있다. 예를 들어, 사용자는 우측 뷰로부터 좌측 뷰를 필터링하는 편광된, 패시브 글래스 (passive glass) 들을 착용할 수도 있다. 대안적으로, 2 개의 뷰들의 픽처들은 연속적으로 보여질 수도 있고, 사용자는 동일한 주파수에서, 그러나 위상이 90 도 시프트되어 좌측 눈과 우측 눈의 셔터를 급속히 닫는 액티브 글래스들을 착용할 수도 있다.
일반적으로, 본 개시물은 3D 비디오 코딩을 위한 기법들을 설명한다. 특히, 본 개시물은 3D-HEVC 에서 진보된 잔차 예측 (advanced residual prediction; ARP) 을 위한 기법들에 관한 것이다.
하나의 예에서, 비디오 데이터를 코딩하는 방법은, 제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하는 단계로서, 여기서 현재 블록은 양방향성으로 예측되는, 그 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것을 결정하는 단계; 현재 블록에 대한 제 1 디스패리티 모션 벡터 및 제 2 디스패리티 모션 벡터를 결정하는 단계; 제 1 디스패리티 모션 벡터로, 제 2 뷰에서 현재 블록에 대한 제 1 대응 블록을 로케이팅 (locating) 하는 단계; 제 2 디스패리티 모션 벡터로, 제 2 뷰에서 현재 블록의 제 2 대응 블록을 로케이팅하는 단계; 현재 블록의 제 1 대응 블록 및 현재 블록의 제 2 대응 블록 중 적어도 하나의 대응 블록의 모션 정보로부터 모션 벡터를 결정하는 단계; 모션 벡터를 이용하여, 제 1 뷰에서의 현재 블록의 참조 블록, 제 2 뷰에서의 제 1 대응 블록의 참조 블록, 및 제 2 뷰에서의 제 2 대응 블록의 참조 블록을 식별하는 단계; 제 1 대응 블록, 현재 블록의 참조 블록, 및 제 1 대응 블록의 참조 블록에 기초하여 제 1 예측 블록을 생성하는 단계; 및, 제 2 대응 블록, 현재 블록의 참조 블록, 및 제 2 대응 블록의 참조 블록에 기초하여 제 2 예측 블록을 생성하는 단계를 포함한다.
다른 예에서, 비디오 데이터를 코딩하는 방법은, 제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하는 단계로서, 여기서 현재 블록은 양방향성으로 예측되는, 그 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것을 결정하는 단계; 현재 블록의 루마 블록에 대해, 루마 블록의 제 1 예측 블록을 결정하기 위해 제 1 예측 방향에 대해 ARP 를 수행하는 단계; 현재 블록의 루마 블록에 대해, 루마 블록의 제 2 예측 블록을 결정하기 위해 제 2 예측 방향에 대해 ARP 를 수행하는 단계; 및 현재 블록의 크로마 블록에 대해, 크로마 블록의 제 1 예측 블록을 결정하기 위해 제 1 예측 방향 또는 제 2 예측 방향 중 하나의 예측 방향에 대해서만 ARP 를 수행하는 단계를 포함한다.
다른 예에서, 비디오 데이터를 코딩하는 방법은, 제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하는 단계; 현재 블록의 루마 블록에 대해, 루마 블록의 예측 블록을 결정하기 위해 ARP 를 수행하는 단계; 현재 블록의 크로마 블록에 대해, 크로마 블록의 사이즈에 기초하여 크로마 블록에 대해 ARP 를 수행할지 여부를 결정하는 단계를 포함한다.
다른 예에서, 컴퓨터 판독가능 저장 매체는, 실행될 때 하나 이상의 프로세서들로 하여금 위에서의 방법들 또는 방법들의 조합을 수행하게 하는 명령들을 저장한다.
다른 예에서, 비디오를 코딩하기 위한 디바이스는, 제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하는 것으로서, 여기서 현재 블록은 양방향성으로 예측되는, 그 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것을 결정하고; 현재 블록에 대한 제 1 디스패리티 모션 벡터 및 제 2 디스패리티 모션 벡터를 결정하고; 제 1 디스패리티 모션 벡터로, 제 2 뷰에서 현재 블록에 대한 제 1 대응 블록을 로케이팅하고; 제 2 디스패리티 모션 벡터로, 제 2 뷰에서 현재 블록의 제 2 대응 블록을 로케이팅하고; 현재 블록의 제 1 대응 블록 및 현재 블록의 제 2 대응 블록 중 적어도 하나의 대응 블록의 모션 정보로부터 모션 벡터를 결정하고; 모션 벡터를 이용하여, 제 1 뷰에서의 현재 블록의 참조 블록, 제 2 뷰에서의 제 1 대응 블록의 참조 블록, 및 제 2 뷰에서의 제 2 대응 블록의 참조 블록을 식별하고; 제 1 대응 블록, 현재 블록의 참조 블록, 및 제 1 대응 블록의 참조 블록에 기초하여 제 1 예측 블록을 생성하고; 제 2 대응 블록, 현재 블록의 참조 블록, 및 제 2 대응 블록의 참조 블록에 기초하여 제 2 예측 블록을 생성하도록 구성된 비디오 코더를 포함한다.
다른 예에서, 비디오를 코딩하기 위한 디바이스는, 제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하는 것으로서, 여기서 현재 블록은 양방향성으로 예측되는, 그 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것을 결정하고; 현재 블록의 루마 블록에 대해, 루마 블록의 제 1 예측 블록을 결정하기 위해 제 1 예측 방향에 대해 ARP 를 수행하고; 현재 블록의 루마 블록에 대해, 루마 블록의 제 2 예측 블록을 결정하기 위해 제 2 예측 방향에 대해 ARP 를 수행하며; 현재 블록의 크로마 블록에 대해, 크로마 블록의 제 1 예측 블록을 결정하기 위해 제 1 예측 방향 또는 제 2 예측 방향 중 하나의 예측 방향에 대해서만 ARP 를 수행하도록 구성된 비디오 코더를 포함한다.
다른 예에서, 비디오를 코딩하기 위한 디바이스는, 제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하고; 현재 블록의 루마 블록에 대해, 루마 블록의 예측 블록을 결정하기 위해 ARP 를 수행하며; 현재 블록의 크로마 블록에 대해, 크로마 블록의 사이즈에 기초하여 크로마 블록에 대해 ARP 를 수행할지 여부를 결정하도록 구성된 비디오 코더를 포함한다.
다른 예에서, 비디오 데이터를 코딩하기 위한 장치는, 제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하는 수단으로서, 여기서 현재 블록은 양방향성으로 예측되는, 그 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것을 결정하는 수단; 현재 블록에 대한 제 1 디스패리티 모션 벡터 및 제 2 디스패리티 모션 벡터를 결정하는 수단; 제 1 디스패리티 모션 벡터로, 제 2 뷰에서 현재 블록에 대한 제 1 대응 블록을 로케이팅하는 수단; 제 2 디스패리티 모션 벡터로, 제 2 뷰에서 현재 블록의 제 2 대응 블록을 로케이팅하는 수단; 현재 블록의 제 1 대응 블록 및 현재 블록의 제 2 대응 블록 중 적어도 하나의 대응 블록의 모션 정보로부터 모션 벡터를 결정하는 수단; 모션 벡터를 이용하여, 제 1 뷰에서의 현재 블록의 참조 블록, 제 2 뷰에서의 제 1 대응 블록의 참조 블록, 및 제 2 뷰에서의 제 2 대응 블록의 참조 블록을 식별하는 수단; 제 1 대응 블록, 현재 블록의 참조 블록, 및 제 1 대응 블록의 참조 블록에 기초하여 제 1 예측 블록을 생성하는 수단; 및, 제 2 대응 블록, 현재 블록의 참조 블록, 및 제 2 대응 블록의 참조 블록에 기초하여 제 2 예측 블록을 생성하는 수단을 포함한다.
다른 예에서, 비디오 데이터를 코딩하기 위한 장치는, 제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하는 수단으로서, 여기서 현재 블록은 양방향성으로 예측되는, 그 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것을 결정하는 수단; 현재 블록의 루마 블록에 대해, 루마 블록의 제 1 예측 블록을 결정하기 위해 제 1 예측 방향에 대해 ARP 를 수행하는 수단; 현재 블록의 루마 블록에 대해, 루마 블록의 제 2 예측 블록을 결정하기 위해 제 2 예측 방향에 대해 ARP 를 수행하는 수단; 및, 현재 블록의 크로마 블록에 대해, 크로마 블록의 제 1 예측 블록을 결정하기 위해 제 1 예측 방향 또는 제 2 예측 방향 중 하나의 예측 방향에 대해서만 ARP 를 수행하는 수단을 포함한다.
다른 예에서, 비디오 데이터를 코딩하기 위한 장치는, 제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하는 수단; 현재 블록의 루마 블록에 대해, 루마 블록의 예측 블록을 결정하기 위해 ARP 를 수행하는 수단; 현재 블록의 크로마 블록에 대해, 크로마 블록의 사이즈에 기초하여 크로마 블록에 대해 ARP 를 수행할지 여부를 결정하는 수단을 포함한다.
하나 이상의 예들의 상세들은 아래의 설명 및 첨부 도면들에 제시된다. 다른 피처들, 목적들, 및 이점들은 이 설명 및 도면들, 그리고 청구항들로부터 명백해질 것이다.
도 1 은 본 개시물에서 설명되는 기법들을 활용할 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템을 예시하는 블록도이다.
도 2 는 예시적인 멀티뷰 디코딩 순서를 예시하는 개념도이다.
도 3 은 멀티뷰 코딩을 위한 예시적인 예측 구조를 예시하는 개념도이다.
도 4 는 코딩 유닛에 대한 공간적 이웃 블록들의 예를 도시한다.
도 5 는 3D-HEVC 에서 진보된 잔차 예측 (ARP) 을 위한 예시적인 예측 구조를 도시한다.
도 6 은 멀티뷰 비디오 코딩에서 현재 블록, 참조 블록, 및 모션 보상된 블록 사이의 예시적인 관계를 도시한다.
도 7 은 인터-뷰 (inter-view) 잔차 데이터에 대한 ARP 의 예를 도시한다.
도 8a 는 블록-레벨 시간적 (temporal) ARP 의 예시적인 예측 구조를 도시한다.
도 8b 는 블록-레벨 인터-뷰 ARP 의 예시적인 예측 구조를 도시한다.
도 9 는 서브-PU 레벨 인터-뷰 모션 예측을 위한 예시적인 예측 구조를 도시한다.
도 10a 는 서브-PU-레벨 시간적 ARP 의 예시적인 예측 구조를 도시한다.
도 10b 는 서브-PU-레벨 인터-뷰 ARP 의 예시적인 예측 구조를 도시한다.
도 11 은 3D-HEVC 에서 양방향성 인터-뷰 ARP 를 위한 참조 블록 액세스의 예를 도시한다.
도 12 는 3D-HEVC 에서 시간적 ARP 및 인터-뷰 ARP 를 위한 예시적인 참조 블록 액세스를 도시한다.
도 13 은 양방향성 인터-뷰 ARP 에 이용되는 단일 시간적 모션 벡터의 예를 도시한다.
도 14 는 본 개시물에서 설명되는 기법들을 구현하도록 구성된 비디오 인코더의 예를 도시한다.
도 15 는 본 개시물에서 설명되는 기법들을 구현하도록 구성된 비디오 디코더의 예를 도시한다.
도 16 은 본 개시물의 기법들에 따른 비디오 블록을 예측하는 예시적인 방법을 도시한다.
도 17 은 본 개시물의 기법들에 따른 비디오 블록을 예측하는 예시적인 방법을 도시한다.
도 18 은 본 개시물의 기법들에 따른 비디오 블록을 예측하는 예시적인 방법을 도시한다.
본 개시물은 3D-HEVC 를 위한 진보된 잔차 예측 (advanced residual prediction; ARP) 에 관련된 기법들을 도입한다. 본 개시물의 기법들은 비디오 인코더 또는 비디오 디코더와 같은 비디오 코더에 의해 수행될 수도 있다. ARP 에서, 비디오 코더는 이미 코딩된 이미지들 사이의 차이에 기초하여 잔차 예측자 (residual predictor) 를 생성한다. 비디오 코더는 그 후에 이 잔차 예측자를 오리지널 예측 블록에 가산하여 최종 예측 블록을 생성한다. 잔차 예측자를 포함하는 최종 예측 블록은 잠재적으로 오리지널 예측자보다 더 양호한 예측자이다, 즉, 예측될 블록과 더 가깝게 유사하다.
시간적 (temporal) ARP 및 인터-뷰 (inter-view) ARP 라고 본 개시물에서 지칭되는 ARP 의 2 개의 타입들이 일반적으로 존재한다. 시간적 ARP 에서, 제 1 뷰에서의 현재 블록에 대해, 비디오 코더는 현재 블록에 대한 디스패리티 벡터를 이용하여 제 2 뷰에서 대응 블록을 로케이팅한다 (locate). 본 개시물에서, 제 2 뷰에서의 이 대응 블록은 기본 블록이라고 지칭될 것이다. 현재 블록의 시간적 모션 벡터를 이용하여, 비디오 코더는 제 1 뷰의 상이한 픽처에서 현재 블록의 참조 블록을 로케이팅한다. 본 개시물에서, 이 블록은 현재 참조 블록이라고 지칭된다. 현재 참조 블록을 식별하는데 이용되는 동일한 시간적 모션 벡터를 이용하여, 비디오 코더는 제 2 뷰의 픽처에서 기본 블록의 참조 블록을 로케이팅한다. 본 개시물에서, 이 블록은 참조 기본 블록이라고 지칭될 것이다. 기본 블록과 기본 참조 블록 사이의 차이는 잔차 예측자로서 계산될 수 있다. 비디오 코더는 그 후에 잔차 예측자를, 가능하다면 가중 팩터 (weighting factor) 로, 현재 참조 블록에 가산하여 최종 예측자를 결정한다.
인터-뷰 ARP 에서, 제 1 뷰에서의 현재 블록에 대해, 비디오 코더는 현재 블록에 대한 디스패리티 모션 벡터를 이용하여 제 2 뷰에서 대응 블록을 로케이팅한다. 기본 블록의 시간적 모션 벡터를 이용하여, 비디오 코더는 제 2 뷰의 상이한 픽처에서 기본 블록의 참조 기본 블록을 로케이팅한다. 기본 참조 블록을 식별하는데 이용되는 동일한 시간적 모션 벡터를 이용하여, 비디오 코더는 제 1 뷰의 픽처에서의 현재 블록의 현재 참조 블록을 식별한다. 비디오 코더는 현재 참조 블록과 기본 참조 블록 사이의 차이를 계산하고 계산된 차이를 잔차 예측자로서 이용하였다. 비디오 코더는 그 후에 이 잔차 예측자를, 가능하다면 가중 팩터로, 기본 블록에 가산하여 최종 예측자를 결정한다.
비디오 코더가 ARP 를 이용하여 양방향성으로 예측된 블록을 코딩할 때, 비디오 코더는 2 개의 예측 방향들에 대한 부가적인 참조 블록들을 평가해야 해서, 전체 복잡도를 증가시킨다. 비디오 코더가 ARP 를 이용하여 블록을 코딩할 때, ARP 는 블록의 크로마 컴포넌트들과 블록의 루마 컴포넌트들 양쪽을 코딩하는데 이용되어, 전체 복잡도를 더욱 증가시킬 수도 있다. 본 개시물은 알려진 ARP 기법들에 대한 몇몇 잠재적인 단순화들을 도입한다. 하나의 예에서, 본 개시물의 기법들에 따르면, 양방향성으로 예측된 블록에 대한 인터-뷰 ARP 를 수행할 때, 비디오 코더는 제 1 예측 방향에 대해 ARP 를 수행하는 부분으로서 제 1 대응 블록에 대한 모션 벡터를 결정하고, 제 2 예측 방향에 대해 ARP 를 수행할 때 그 결정된 모션 벡터를 재이용할 수도 있다. 다른 예에 따르면, 양방향성으로 예측된 블록에 대해, 비디오 코더는 블록의 크로마 컴포넌트에 대해 단 하나의 방향에서만 ARP 를 적용하지만 블록의 루마 컴포넌트에 대해 2 개의 방향들에서 ARP 를 적용할 수도 있다. 다른 예에 따르면, 비디오 코더는 블록 사이즈에 기초하여 ARP 를 크로마 컴포넌트들에 선택적으로 적용할 수도 있다. 이들 단순화들 뿐만 아니라, 본 개시물에 포함된 다른 기법들은 전체 코딩 복잡도를 감소시킬 수도 있다.
도 1 은 본 개시물에서 설명되는 ARP 기법들을 수행하도록 구성될 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템 (10) 을 예시하는 블록도이다. 도 1 에 도시된 바와 같이, 시스템 (10) 은 목적지 디바이스 (14) 에 의해 추후에 디코딩될 인코딩된 비디오 데이터를 생성하는 소스 디바이스 (12) 를 포함한다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는, 데스크톱 컴퓨터들, 노트북 (즉, 랩톱) 컴퓨터들, 태블릿 컴퓨터들, 셋톱 박스들, 소위 "스마트" 폰들과 같은 전화 핸드셋들, 소위 "스마트" 패드들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스들 등을 포함하는, 광범위한 디바이스들 중 임의의 것을 포함할 수도 있다. 일부 경우들에서, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 무선 통신을 위해 구비될 수도 있다.
시스템 (10) 은 상이한 비디오 코딩 표준들, 독점적 표준, 또는 멀티뷰 코딩의 임의의 다른 방법에 따라 동작할 수도 있다. 다음은 비디오 코딩 표준들의 몇몇 예들을 설명하고, 제한하는 것으로 간주되어서는 안된다. 비디오 코딩 표준들은 ITU-T H.261, ISO/IEC MPEG-1 비주얼, ITU-T H.262 또는 ISO/IEC MPEG-2 비주얼, ITU-T H.263, ISO/IEC MPEG-4 비주얼 및 ITU-T H.264 (또한 ISO/IEC MPEG-4 AVC 라고도 알려짐) 를, 그의 스케일러블 비디오 코딩 (SVC) 및 멀티뷰 비디오 코딩 (MVC) 확장들을 포함하여, 포함한다. MVC 의 최근 공동 초안은 『"Advanced video coding for generic audiovisual services", ITU-T 권고 H.264, 2010년 3월』에 설명되어 있고, 그 전체 내용은 본 명세서에 참조로 포함된다. MVC 의 다른 공동 초안은 『"Advanced video coding for generic audiovisual services", ITU-T 권고 H.264, 2011년 6월』에 설명되어 있고, 그 전체 내용은 본 명세서에 참조로 포함된다. 일부의 부가적인 비디오 코딩 표준들은 AVC 에 기초한 MVC+D 및 3D-AVC 를 포함한다. 또한, 새로운 비디오 코딩 표준, 즉, 고효율 비디오 코딩 (HEVC) 은 ITU-T 비디오 코딩 전문가 그룹 (Video Coding Experts Group; VCEG) 과 ISO/IEC 동화상 전문가 그룹 (Motion Picture Experts Group; MPEG) 의 비디오 코딩에 관한 합동 협력 팀 (Joint Collaboration Team on Video Coding; JCT-VC) 에 의해 개발되었다.
예시의 목적들만을 위해, 본 개시물에서 설명되는 기법들은 3D-AVC 와 같은 H.264 표준에 따른 예들로 설명된다. 그러나, 본 개시물에서 설명되는 기법들은 이들 예시적인 표준들로 제한되는 것으로 간주되어서는 안되고, 멀티뷰 코딩 또는 3D 비디오 코딩 (예를 들어, 3D-HEVC) 을 위한 다른 비디오 코딩 표준들로, 또는 반드시 특정 비디오 코딩 표준에 기초할 필요는 없는 멀티뷰 코딩 또는 3D 비디오 코딩에 관련된 기법들로 확장가능할 수도 있다. 예를 들어, 본 개시물에서 설명되는 기법들은 멀티뷰 코딩을 위해 비디오 인코더들/디코더들 (코덱들) 에 의해 구현되고, 여기서 멀티뷰 코딩은 2 개 이상의 뷰들의 코딩을 포함한다.
목적지 디바이스 (14) 는 링크 (16) 를 통해 디코딩될 인코딩된 비디오 데이터를 수신할 수도 있다. 링크 (16) 는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로 이동시키는 것이 가능한 임의의 타입의 매체 또는 디바이스를 포함할 수도 있다. 하나의 예에서, 링크 (16) 는 소스 디바이스 (12) 로 하여금 인코딩된 비디오 데이터를 직접 목적지 디바이스 (14) 에 실시간적으로 송신할 수 있게 하는 통신 매체를 포함할 수도 있다. 인코딩된 비디오 데이터는 무선 통신 프로토콜과 같은 통신 표준에 따라 변조되고, 목적지 디바이스 (14) 에 송신될 수도 있다. 통신 매체는 임의의 무선 또는 유선 통신 매체, 예컨대, 무선 주파수 (RF) 스펙트럼 또는 하나 이상의 물리적 송신 라인들을 포함할 수도 있다. 통신 매체는 패킷 기반 네트워크, 예컨대, 로컬 영역 네트워크, 광역 네트워크, 또는 인터넷과 같은 글로벌 네트워크의 부분을 형성할 수도 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로의 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다.
대안적으로, 인코딩된 데이터는 출력 인터페이스 (22) 로부터 저장 디바이스 (34) 로 출력될 수도 있다. 이와 유사하게, 인코딩된 데이터는 입력 인터페이스에 의해 저장 디바이스 (34) 로부터 액세스될 수도 있다. 저장 디바이스 (34) 는 하드 드라이브, 블루레이 디스크들, DVD들, CD-ROM들, 플래시 메모리, 휘발성 또는 비휘발성 메모리, 또는 인코딩된 비디오 데이터를 저장하기 위한 임의의 다른 적합한 디지털 저장 매체들과 같은 다양한 분산된 또는 로컬로 액세스되는 데이터 저장 매체들 중 임의의 것을 포함할 수도 있다. 추가 예에서, 저장 디바이스 (34) 는 소스 디바이스 (12) 에 의해 생성된 인코딩된 비디오를 유지할 수도 있는 파일 서버 또는 다른 중간 저장 디바이스에 대응할 수도 있다. 목적지 디바이스 (14) 는 스트리밍 또는 다운로드를 통해 저장 디바이스 (34) 로부터의 저장된 비디오 데이터에 액세스할 수도 있다. 파일 서버는 인코딩된 비디오 데이터를 저장하고 그 인코딩된 비디오 데이터를 목적지 디바이스 (14) 에 송신하는 것이 가능한 임의의 타입의 서버일 수도 있다. 예시적인 파일 서버들은 웹 서버 (예를 들어, 웹사이트용), FTP 서버, NAS (network attached storage) 디바이스들, 또는 로컬 디스크 드라이브를 포함한다. 목적지 디바이스 (14) 는 인터넷 연결을 포함한 임의의 표준 데이터 연결을 통해, 인코딩된 비디오 데이터에 액세스할 수도 있다. 이것은 파일 서버 상에 저장된 인코딩된 비디오 데이터에 액세스하는데 적합한, 무선 채널 (예를 들어, Wi-Fi 연결), 유선 연결 (예를 들어, DSL, 케이블 모뎀 등), 또는 이들 양쪽의 조합을 포함할 수도 있다. 저장 디바이스 (34) 로부터의 인코딩된 비디오 데이터의 송신은 스트리밍 송신, 다운로드 송신, 또는 이들 양쪽의 조합일 수도 있다.
ARP 를 위한 본 개시물의 기법들은 반드시 무선 애플리케이션들 또는 설정들로 제한되지는 않는다. 이 기법들은 다양한 멀티미디어 애플리케이션들, 예컨대 공중경유 텔레비전 브로드캐스트들, 케이블 텔레비전 송신들, 위성 텔레비전 송신들, 예를 들어, 인터넷을 통한 스트리밍 비디오 송신들, 데이터 저장 매체 상의 저장을 위한 디지털 비디오의 인코딩, 데이터 저장 매체 상에 저장된 디지털 비디오의 디코딩, 또는 다른 애플리케이션들 중 임의의 것의 지원 하에서 비디오 코딩에 적용될 수도 있다. 일부 예들에서, 시스템 (10) 은 비디오 스트리밍, 비디오 플레이백, 비디오 브로드캐스팅, 및/또는 비디오 전화통신과 같은 애플리케이션들을 지원하기 위한 1-방향 또는 2-방향 비디오 송신을 지원하도록 구성될 수도 있다.
도 1 의 예에서, 소스 디바이스 (12) 는 비디오 소스 (18), 비디오 인코더 (20) 및 출력 인터페이스 (22) 를 포함한다. 아래에 더 상세히 설명되는 바와 같이, 비디오 인코더 (20) 는 본 개시물에서 설명되는 ARP 기법들을 수행하도록 구성될 수도 있다. 일부 경우들에서, 출력 인터페이스 (22) 는 변조기/복조기 (모뎀) 및/또는 송신기를 포함할 수도 있다. 소스 디바이스 (12) 에서, 비디오 소스 (18) 는 소스 예컨대 비디오 캡처 디바이스, 예를 들어, 비디오 카메라, 이전에 캡처된 비디오를 포함하는 비디오 아카이브, 비디오를 비디오 콘텐츠 제공자로부터 수신하기 위한 비디오 피드 인터페이스, 및/또는 소스 비디오로서 컴퓨터 그래픽 데이터를 생성하기 위한 컴퓨터 그래픽 시스템, 또는 이러한 소스들의 조합을 포함할 수도 있다. 하나의 예로서, 비디오 소스 (18) 가 비디오 카메라인 경우, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 소위 카메라 폰들 또는 비디오 폰들을 형성할 수도 있다. 그러나, 본 개시물에서 설명되는 기법들은 일반적으로 비디오 코딩에 적용가능할 수도 있고, 무선 및/또는 유선 애플리케이션들에 적용될 수도 있다.
캡처된, 미리 캡처된, 또는 컴퓨터 생성된 비디오는 비디오 인코더 (20) 에 의해 인코딩될 수도 있다. 인코딩된 비디오 데이터는 소스 디바이스 (12) 의 출력 인터페이스 (22) 를 통해 목적지 디바이스 (14) 에 직접 송신될 수도 있다. 인코딩된 비디오 데이터는 또한 (또는 대안적으로) 디코딩 및/또는 플레이백을 위해 목적지 디바이스 (14) 또는 다른 디바이스들에 의한 추후 액세스를 위해 저장 디바이스 (34) 상에 저장될 수도 있다.
목적지 디바이스 (14) 는 입력 인터페이스 (28), 비디오 디코더 (30), 및 디스플레이 디바이스 (32) 를 포함한다. 아래에 더 상세히 설명되는 바와 같이, 비디오 디코더 (30) 는 본 개시물에서 설명되는 ARP 기법들을 수행하도록 구성될 수도 있다. 일부 경우들에서, 입력 인터페이스 (28) 는 수신기 및/또는 모뎀을 포함할 수도 있다. 목적지 디바이스 (14) 의 입력 인터페이스 (28) 는 인코딩된 비디오 데이터를 링크 (16) 를 통해 수신한다. 링크 (16) 를 통해 통신된, 또는 저장 디바이스 (34) 상에 제공된, 인코딩된 비디오 데이터는, 비디오 데이터를 디코딩함에 있어서, 비디오 디코더 (30) 와 같은 비디오 디코더에 의한 이용을 위해 비디오 인코더 (20) 에 의해 생성된 다양한 신택스 엘리먼트들을 포함할 수도 있다. 이러한 신택스 엘리먼트들은, 통신 매체 상에 송신되거나, 저장 매체 상에 저장되거나, 또는 파일 서버 상에 저장되는 인코딩된 비디오 데이터에 포함될 수도 있다.
디스플레이 디바이스 (32) 는 목적지 디바이스 (14) 와 통합될 수도 있거나, 또는 그 외부에 있을 수도 있다. 일부 예들에서, 목적지 디바이스 (14) 는 통합된 디스플레이 디바이스를 포함할 수도 있고 또한 외부 디스플레이 디바이스와 인터페이싱하도록 구성될 수도 있다. 다른 예들에서, 목적지 디바이스 (14) 는 디스플레이 디바이스일 수도 있다. 일반적으로, 디스플레이 디바이스 (32) 는 디코딩된 비디오 데이터를 사용자에게 디스플레이하고, 다양한 디스플레이 디바이스들, 예컨대, 액정 디스플레이 (LCD), 플라즈마 디스플레이, 유기 발광 다이오드 (OLED) 디스플레이, 또는 다른 타입의 디스플레이 디바이스 중 임의의 것을 포함할 수도 있다.
도 1 에 도시되지 않았지만, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 오디오 인코더 및 디코더와 각각 통합될 수도 있으며, 공통 데이터 스트림 또는 별개의 데이터 스트림들에서 오디오와 비디오 양쪽의 인코딩을 핸들링하기에 적절한 MUX-DEMUX 유닛들, 또는 다른 하드웨어 및 소프트웨어를 포함할 수도 있다. 적용가능하다면, 일부 예들에서, MUX-DEMUX 유닛들은 ITU H.223 멀티플렉서 프로토콜, 또는 다른 프로토콜들, 예컨대, 사용자 데이터그램 프로토콜 (UDP) 을 준수할 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 각각은, 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서 (DSP) 들, 주문형 집적 회로 (ASIC) 들, 필드 프로그램가능 게이트 어레이 (FPGA) 들, 이산 로직, 소프트웨어, 하드웨어, 펌웨어 또는 이들의 임의의 조합과 같은 다양한 적합한 인코더 회로부 중 임의의 것으로서 구현될 수도 있다. 예를 들어, 본 개시물에서 설명되는 기법들은 장치 또는 디바이스의 관점에서 설명될 수도 있다. 하나의 예로서, 장치 또는 디바이스는 비디오 디코더 (30) (예를 들어, 무선 통신 디바이스의 부분으로서 목적지 디바이스 (14)) 를 포함할 수도 있고, 비디오 디코더 (30) 는 본 개시물에서 설명되는 기법들을 구현하도록 (예를 들어, 본 개시물에서 설명되는 기법들에 따라 비디오 데이터를 디코딩하도록) 구성된 하나 이상의 프로세서들을 포함할 수도 있다. 다른 예로서, 장치 또는 디바이스는 비디오 디코더 (30) 를 포함하는 집적 회로 (IC) 또는 마이크로프로세서를 포함할 수도 있고, 마이크로프로세서 및 IC 는 목적지 디바이스 (14) 또는 다른 타입의 디바이스의 부분일 수도 있다. 비디오 인코더 (20) 에 대해 동일하게 적용될 수도 있다 (즉, 마이크로제어기 또는 IC 및/또는 소스 디바이스 (12) 와 같은 디바이스 또는 장치는 비디오 인코더 (20) 를 포함하고, 여기서 비디오 인코더 (20) 는 본 개시물에서 설명되는 기법들에 따라 비디오 데이터를 인코딩하도록 구성된다).
이 기법들이 부분적으로 소프트웨어로 구현되면, 디바이스는 그 소프트웨어에 대한 명령들을 적합한 비일시적 컴퓨터 판독가능 매체에 저장할 수도 있고 그 명령들을 하드웨어로 하나 이상의 프로세서들을 이용하여 실행함으로써 본 개시물의 기법들을 수행할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 인코더들 또는 디코더들에 포함될 수도 있고, 이들 중 어느 하나는 조합된 인코더/디코더 (코덱 (CODEC)) 의 부분으로서 각각의 디바이스에 통합될 수도 있다.
비디오 시퀀스는 통상적으로 뷰로부터의 비디오 픽처들의 시리즈를 포함한다. 픽처들의 그룹 (group of pictures; GOP) 은 일반적으로 하나 이상의 비디오 픽처들의 시리즈를 포함한다. GOP 는 GOP 의 헤더, GOP 의 하나 이상의 픽처들의 헤더, 또는 다른 곳에 신택스 데이터를 포함할 수도 있고, 이 신택스 데이터는 GOP 에 포함된 다수의 픽처들을 설명한다. 각각의 픽처는 각각의 픽처에 대한 인코딩 모드를 설명하는 픽처 신택스 데이터를 포함할 수도 있다. 비디오 인코더 (20) 는 통상적으로 비디오 데이터를 인코딩하기 위해 개개의 비디오 픽처들 내의 비디오 블록들에 대해 동작한다. 비디오 블록은, H.264 표준에 정의된 바와 같은, 매크로블록, 매크로블록의 파티션, 그리고 가능하다면 파티션의 서브-블록에 대응할 수도 있다. 비디오 블록들은 고정된 또는 변동되는 사이즈들을 가질 수도 있고, 특정된 코딩 표준에 따라 사이즈가 상이할 수도 있다. 각각의 비디오 픽처는 복수의 슬라이스들을 포함할 수도 있다. 각각의 슬라이스는 복수의 블록들을 포함할 수도 있다.
일 예로서, ITU-T H.264 표준은 다양한 블록 사이즈들에서, 예컨대 루마 컴포넌트들에 대해서는 16×16, 8×8, 또는 4×4, 그리고 크로마 컴포넌트들에 대해서는 8x8 에서 인트라-예측을 지원할 뿐만 아니라, 다양한 블록 사이즈들에서, 예컨대 루마 컴포넌트들에 대해서는 16x16, 16x8, 8x16, 8x8, 8x4, 4x8 및 4x4, 그리고 크로마 컴포넌트들에 대해서는 대응하는 스케일링된 사이즈들에서 인터-예측을 지원한다. 본 개시물에서, "NxN" 및 "N×N" 은 수직 및 수평 치수들의 관점에서 블록의 픽셀 치수들 (예를 들어, 16x16 픽셀들 또는 16×16 픽셀들) 을 지칭하기 위해 상호교환가능하게 사용될 수도 있다. 일반적으로, 16x16 블록은 수직 방향에서의 16 개의 픽셀들 (y = 16) 및 수평 방향에서의 16 개의 픽셀들 (x = 16) 을 가질 것이다. 이와 마찬가지로, NxN 블록은 일반적으로 수직 방향에서의 N 개의 픽셀들 및 수평 방향에서의 N 개의 픽셀들을 가지며, 여기서 N 은 음이 아닌 정수 값을 표현한다. 블록 내의 픽셀들은 로우 (row) 들 및 컬럼 (column) 들로 배열될 수도 있다. 더욱이, 블록들은 수직 방향에서와 동일한 수의 픽셀들을 수평 방향에서 반드시 가질 필요는 없다. 예를 들어, 블록들은 NxM 픽셀들을 포함할 수도 있고, 여기서 M 은 반드시 N 과 동일하지는 않다.
블록이 인트라-모드 인코딩될 (예를 들어, 인트라-예측될) 때, 블록은 블록에 대한 인트라-예측 모드를 설명하는 데이터를 포함할 수도 있다. 다른 예로서, 블록이 인터-모드 인코딩될 (예를 들어, 인터-예측될) 때, 블록은 블록에 대한 모션 벡터를 정의하는 정보를 포함할 수도 있다. 이 모션 벡터는 동일한 뷰에서의 참조 픽처 (예를 들어, 시간적 모션 벡터) 를 지칭하고, 또는 다른 뷰에서의 참조 픽처 (예를 들어, 디스패리티 모션 벡터) 를 지칭한다. 블록에 대한 모션 벡터를 정의하는 데이터는, 예를 들어, 모션 벡터의 수평 컴포넌트, 모션 벡터의 수직 컴포넌트, 모션 벡터에 대한 해상도 (예를 들어, 1/4 픽셀 정밀도 또는 1/8 픽셀 정밀도) 를 설명한다. 또한, 인터-예측될 때, 블록은 참조 인덱스 정보, 예컨대, 모션 벡터가 가리키는 참조 픽처, 및/또는 모션 벡터에 대한 참조 픽처 리스트 (예를 들어, RefPicList0 또는 RefPicList1) 를 포함할 수도 있다.
H.264 표준에서, 인트라-예측 또는 인터-예측 코딩에 후속하여, 비디오 인코더 (20) 는 매크로블록들에 대한 잔차 데이터를 계산한다. 잔차 데이터는 H.264 에서 매크로블록에 대한 예측 값들과 인코딩되지 않은 픽처의 픽셀들 사이의 픽셀 차이들에 대응할 수도 있다.
변환 계수들을 생성하기 위한 임의의 변환들에 후속하여, 비디오 인코더 (20) 는, 일부 예들에서, 변환 계수들의 양자화를 수행한다. 양자화는 일반적으로, 계수들을 표현하는데 이용된 데이터의 양을 가능하다면 감소시키기 위해 변환 계수들이 양자화되어 추가의 압축을 제공하는 프로세스를 지칭한다. 양자화 프로세스는 계수들의 일부 또는 전부와 연관된 비트 심도를 감소시킨다. 예를 들어, n-비트 값은 양자화 동안에 m-비트 값으로 버림 (round down) 되고, 여기서 nm 보다 더 크다.
일부 예들에서, 비디오 인코더 (20) 는 엔트로피 인코딩될 수 있는 직렬화된 벡터를 생성하기 위해 양자화된 변환 계수들을 스캐닝하기 위한 미리 정의된 스캔 순서를 활용한다. 다른 예들에서, 비디오 인코더 (20) 는 적응 스캔 (adaptive scan) 을 수행한다. 1 차원 벡터를 형성하기 위해 양자화된 변환 계수들을 스캐닝한 후에, 일부 예들에서, 비디오 인코더 (20) 는, 몇몇 예들로서, 콘텍스트 적응 가변 길이 코딩 (context adaptive variable length coding; CAVLC), 콘텍스트 적응 이진 산술 코딩 (context adaptive binary arithmetic coding; CABAC), 신택스-기반 콘텍스트-적응 이진 산술 코딩 (syntax-based context-adaptive binary arithmetic coding; SBAC), 확률 간격 파티셔닝 엔트로피 (Probability Interval Partitioning Entropy; PIPE) 코딩 또는 다른 엔트로피 인코딩 방법론에 따라 1 차원 벡터를 엔트로피 인코딩한다. 비디오 인코더 (20) 는 또한 비디오 데이터를 디코딩함에 있어서 비디오 디코더 (30) 에 의한 이용을 위해 인코딩된 비디오 데이터와 연관된 신택스 엘리먼트들을 엔트로피 인코딩한다.
CABAC 를 수행하기 위해, 비디오 인코더 (20) 는 콘텍스트 모델 내의 콘텍스트를 송신될 심볼에 할당할 수도 있다. 콘텍스트는, 예를 들어, 심볼의 이웃하는 값들이 논-제로 (non-zero) 인지 아닌지의 여부에 관련될 수도 있다. CAVLC 를 수행하기 위해, 비디오 인코더 (20) 는 송신될 심볼에 대한 가변 길이 코드를 선택할 수도 있다. VLC 에서의 코드워드 (codeword) 들은, 상대적으로 더 짧은 코드들이 더 가능성있는 심볼들에 대응하는 한편, 더 긴 코드들이 덜 가능성있는 심볼들에 대응하도록 구성될 수도 있다. 이러한 방법으로, VLC 의 이용은, 예를 들어, 송신될 각각의 심볼에 대한 동일-길이 코드워드들을 이용하는 것에 비해 비트 절감을 달성할 수도 있다. 확률 결정은 심볼에 할당된 콘텍스트에 기초할 수도 있다.
비디오 디코더 (30) 는 비디오 인코더 (20) 의 기법들의 역을 구현한다. 예를 들어, 비디오 디코더 (30) 는 인코딩된 비디오 비트스트림을 디코딩하고, 역 양자화 및 역 변환에 의해 잔차 블록들을 결정한다. 비디오 디코더 (30) 는 잔차 블록들을 이전에 디코딩된 픽처들의 블록들과 합산하여 픽처 내의 블록들에 대한 픽셀 값들을 결정한다.
본 개시물에서 설명되는 소정의 기법들은 비디오 인코더 (20) 및 비디오 디코더 (30) 양쪽에 의해 수행될 수도 있다. 하나의 예로서, 비디오 인코더 (20) 는 비디오 데이터의 블록을 어떻게 인코딩할지를 결정하는 부분으로서 ARP 를 수행할 수도 있거나 및/또는 비디오 인코더에서 디코딩 루프의 부분으로서 ARP 를 수행할 수도 있다. 비디오 디코더 (30) 는 비디오 블록을 디코딩하는 부분으로서 비디오 인코더 (20) 에 의해 수행되는 동일한 ARP 기법들을 수행할 수도 있다. 본 개시물은 때때로 비디오 디코더 (30) 가 본 개시물에서 설명되는 소정의 ARP 기법들을 수행하는 것을 언급할 수도 있다. 그러나, 달리 진술되지 않는 한, 이러한 기법들은 또한 비디오 인코더 (20) 에 의해 수행될 수도 있다는 것이 이해되어야 한다.
상술된 바와 같이, 본 개시물에서 설명되는 기법들은 3d 비디오 코딩에 관련된다. 이 기법들을 더 잘 이해하기 위해, 다음은 일부 H.264/AV 코딩 기법들, H.264/MVC 확장 및 고효율 비디오 코딩 (HEVC) 표준의 관점에서의 멀티뷰 비디오 코딩, 및 3D-AVC 기법들을 설명한다.
H.264/진보 비디오 코딩 (AVC) 에 대해, 비디오 인코딩 또는 디코딩 (예를 들어, 코딩) 은 매크로블록들에 대해 구현되고, 여기서 매크로블록은 인터-예측되거나 또는 인트라-예측되는 (즉, 인터-예측 인코딩되거나 또는 디코딩되는 또는 인트라-예측 인코딩되거나 또는 디코딩되는) 프레임의 일 부분을 표현한다. 예를 들어, H.264/AVC 에서, 각각의 인터 매크로블록 (MB) (예를 들어, 인터-예측된 매크로블록) 은 4 개의 상이한 방법들로 파티셔닝될 수도 있다: 하나의 16x16 MB 파티션, 2 개의 16x8 MB 파티션들, 2 개의 8x16 MB 파티션들, 또는 4 개의 8x8 MB 파티션들. 하나의 MB 에서의 상이한 MB 파티션들은 각각의 방향에 대한 상이한 참조 인덱스 값들 (즉, RefPicList0 또는 RefPicList1) 을 가질 수도 있다. MB 가 다수의 (1 개보다 더 많은) MB 파티션들로 파티셔닝되지 않을 때, 그 MB 는 각각의 방향에서 전체 MB 파티션에 대한 단 하나의 모션 벡터만을 갖는다.
비디오 코딩 (인코딩 또는 디코딩) 의 부분으로서, 비디오 코더 (20/30) 는, RefPicList0 및 RefPicList1 이라고 지칭되는, 하나 또는 2 개의 참조 픽처 리스트들을 구성하도록 구성될 수도 있다. 참조 픽처 리스트(들) 는 프레임 또는 슬라이스의 매크로블록들을 인터-예측하는데 이용될 수 있는 참조 픽처들을 식별한다. 예를 들어, 비디오 인코더 (20) 는 참조 인덱스 및 참조 픽처 리스트 식별자를 시그널링할 수도 있다. 비디오 디코더 (30) 는 참조 인덱스 및 참조 픽처 리스트 식별자를 수신하고 그 참조 인덱스 및 참조 픽처 리스트 식별자로부터 현재 매크로블록을 인터-예측 디코딩하기 위해 이용되어야 하는 참조 픽처를 결정할 수도 있다.
MB 가 4 개의 8x8 MB 파티션들로 파티셔닝될 때, 각각의 8x8 MB 파티션은 서브-블록들로 더욱 파티셔닝될 수 있다. 8x8 MB 파티션으로부터 서브-블록들을 얻기 위한 4 개의 상이한 방법들이 존재한다: 하나의 8x8 서브-블록, 2 개의 8x4 서브-블록들, 2 개의 4x8 서브-블록들, 또는 4 개의 4x4 서브-블록들. 각각의 서브-블록은 각각의 방향에서 상이한 모션 벡터를 가질 수 있지만, 각각의 방향에 대해 동일한 참조 픽처 인덱스를 공유한다. 8x8 MB 파티션이 서브-블록들로 파티셔닝되는 방식은 서브-블록 파티션이라고 명명된다.
본 개시물은 비디오 데이터의 임의의 블록을 지칭하기 위해 블록이라는 용어를 일반적으로 사용할 것이다. 예를 들어, H.264 코딩 및 그의 확장들의 맥락에서, 블록은 매크로블록들, 매크로블록 파티션들, 서브-블록들, 또는 임의의 다른 타입들의 블록들 중 임의의 것을 지칭할 수도 있다. HEVC 및 그의 확장들의 맥락에서, 블록은 PU들, TU들, CU들, 또는 임의의 다른 타입들의 블록들 중 임의의 것을 지칭할 수도 있다. 본 개시물에서 사용되는 바와 같은 서브-블록은 일반적으로 보다 큰 블록의 임의의 부분을 지칭한다. 서브-블록은 또한 그 자체가 블록이라고 단순히 지칭될 수도 있다.
멀티뷰 비디오 코딩에 대해 다수의 상이한 비디오 코딩 표준들이 존재한다. 혼동을 피하게 하기 위해, 본 개시물이 멀티뷰 비디오 코딩을 일반적으로 설명할 때, 본 개시물은 어구 "멀티뷰 비디오 코딩" 을 사용한다. 일반적으로, 멀티뷰 비디오 코딩에서는, 기본 뷰 또는 하나 이상의 비-기본 또는 의존성 뷰들이 존재한다. 기본 뷰는 의존성 뷰들 중 임의의 것에 대한 참조 없이도 완전히 디코딩가능하다 (즉, 기본 뷰는 시간적 모션 벡터들로만 단지 인터-예측된다). 이것은 멀티뷰 비디오 코딩을 위해 구성되지 않는 코덱이 완전히 디코딩가능한 적어도 하나의 뷰를 여전히 수신하는 것을 가능하게 한다 (즉, 기본 뷰는 추출될 수 있고 나머지 뷰들은 폐기되어서, 멀티뷰 비디오 코딩을 위해 구성되지 않은 디코더가 3D 경험이 없더라도 비디오 콘텐츠를 여전히 디코딩하는 것을 가능하게 한다). 하나 이상의 의존성 뷰들은 기본 뷰에 대해 또는 다른 의존성 뷰에 대해 인터-예측될 (즉, 디스패리티 보상 예측될) 수도 있거나, 또는 동일한 뷰에서의 다른 픽처들에 대해 인터-예측될 (즉, 모션 보상 예측될) 수도 있다.
"멀티뷰 비디오 코딩" 이 일반적으로 사용되는 반면, 두문자어 MVC 는 H.264/AVC 의 확장과 연관된다. 이에 따라, 본 개시물이 두문자어 MVC 를 사용할 때, 본 개시물은 구체적으로 H.264/AVC 비디오 코딩 표준에 대한 확장을 지칭하고 있다. H.264/AVC 의 MVC 확장은 시간적 모션 벡터들에 부가적으로 다른 타입의 모션 벡터로서의 디스패리티 모션 벡터들에 의존한다. MVC 플러스 심도 (MVC+D) 라고 지칭되는 다른 비디오 코딩 표준이 JCT-3V 및 MPEG 에 의해 또한 개발되었다. MVC+D 는 MVC 의 것들과 동일한 저레벨 코딩 툴들을 텍스처 및 심도 양쪽에 적용하는데, 심도의 디코딩은 텍스처의 디코딩에 독립적이고 그 역의 경우도 마찬가지이다. 예를 들면, MVC 에서, 프레임은 텍스처 뷰 컴포넌트, 또는 단순히 텍스처라고 지칭되는 하나의 뷰 컴포넌트에 의해서만 표현된다. MVC+D 에서는, 2 개의 뷰 컴포넌트들이 존재한다: 텍스처 뷰 컴포넌트 및 심도 뷰 컴포넌트, 또는 단순히 텍스처 및 심도. 예를 들어, MVC+D 에서, 각각의 뷰는 텍스처 뷰 및 심도 뷰를 포함하는데, 여기서 뷰는 복수의 뷰 컴포넌트들을 포함하고, 텍스처 뷰는 복수의 텍스처 뷰 컴포넌트들을 포함하며, 심도 뷰는 복수의 심도 뷰 컴포넌트들을 포함한다.
각각의 텍스처 뷰 컴포넌트는 심도 뷰 컴포넌트와 연관되어 뷰의 뷰 컴포넌트를 형성한다. 심도 뷰 컴포넌트는 텍스처 뷰 컴포넌트에서의 오브젝트들의 상대 심도를 나타낸다. MVC+D 에서, 심도 뷰 컴포넌트 및 텍스처 뷰 컴포넌트는 개별적으로 디코딩가능하다. 예를 들어, 비디오 디코더 (30) 는 MVC 코덱의 2 개의 인스턴스들을 구현할 수도 있는데, 여기서 제 1 코덱은 텍스처 뷰 컴포넌트들을 디코딩하고 제 2 코덱은 심도 뷰 컴포넌트들을 디코딩한다. 이들 2 개의 코덱들은 서로 독립적으로 실행할 수 있는데, 이는 텍스처 뷰 컴포넌트들 및 심도 뷰 컴포넌트들이 개별적으로 인코딩되기 때문이다.
MVC+D 에서, 심도 뷰 컴포넌트는 항상, 연관된 (예를 들어, 대응하는) 텍스처 뷰 컴포넌트를 바로 뒤따르고 있다. 이러한 방식으로, MVC+D 는 텍스처-우선 코딩 (texture-first coding) 을 지원하고, 여기서 텍스처 뷰 컴포넌트는 심도 뷰 컴포넌트에 앞서 디코딩된다.
텍스처 뷰 컴포넌트 및 그의 연관된 (예를 들어, 대응하는) 심도 뷰 컴포넌트는 동일한 픽처 순서 카운트 (picture order count; POC) 값 및 view_id 를 포함할 수도 있다 (즉, 텍스처 뷰 컴포넌트 및 그의 연관된 심도 뷰 컴포넌트의 POC 값 및 view_id 는 동일하다). POC 값은 텍스처 뷰 컴포넌트의 디스플레이 순서를 나타내고 view_id 는 텍스처 뷰 컴포넌트 및 심도 뷰 컴포넌트가 속하는 뷰를 나타낸다.
도 2 는 통상적인 MVC 디코딩 순서 (즉, 비트스트림 순서) 를 도시한다. 디코딩 순서 배열은 "시간-우선 코딩 (time-first coding)" 이라고 지칭된다. 액세스 유닛들의 디코딩 순서는 출력 또는 디스플레이 순서와 동일하지 않을 수도 있다는 것에 주목한다. 도 2 에서, S0 내지 S7 각각은 멀티뷰 비디오의 상이한 뷰들을 지칭한다. T0 내지 T8 각각은 하나의 출력 시간 인스턴스를 표현한다. 액세스 유닛은 하나의 출력 시간 인스턴스에 대한 모든 뷰들의 코딩된 픽처들을 포함할 수도 있다. 예를 들어, 제 1 액세스 유닛은 시간 인스턴스 T0 에 대한 뷰들 (S0 내지 S7) 모두를 포함할 수도 있고, 제 2 액세스 유닛은 시간 인스턴스 T1 에 대한 뷰들 (S0 내지 S7) 모두를 포함할 수도 있다는 것 등이다.
간결함을 목적으로, 본 개시물은 다음의 정의들을 사용할 수도 있다:
뷰 컴포넌트: 단일 액세스 유닛에서의 코딩된 표현. 뷰가 코딩된 텍스처 및 심도 표현들 양쪽을 포함할 때, 뷰 컴포넌트는 텍스처 뷰 컴포넌트 및 심도 뷰 컴포넌트를 포함할 수도 있다.
텍스처 뷰 컴포넌트: 단일 액세스 유닛에서의 뷰의 텍스처의 코딩된 표현.
심도 뷰 컴포넌트: 단일 액세스 유닛에서의 뷰의 심도의 코딩된 표현.
위에서 논의된 바와 같이, 본 개시물의 맥락에서, 뷰 컴포넌트, 텍스처 뷰 컴포넌트, 및 심도 뷰 컴포넌트는 계층이라고 일반적으로 지칭될 수도 있다. 도 2 에서, 뷰들 각각은 픽처들의 세트들을 포함한다. 예를 들어, 뷰 S0 은 픽처들 (0, 8, 16, 24, 32, 40, 48, 56, 및 64) 의 세트를 포함하고, 뷰 S1 은 픽처들 (1, 9, 17, 25, 33, 41, 49, 57, 및 65) 의 세트를 포함한다는 것 등이다. 각각의 세트는 2 개의 픽처들을 포함한다: 하나의 픽처는 텍스처 뷰 컴포넌트라고 지칭되고, 다른 픽처는 심도 뷰 컴포넌트라고 지칭된다. 뷰의 픽처들의 세트 내의 텍스처 뷰 컴포넌트 및 심도 뷰 컴포넌트는 서로 대응하는 것으로 간주될 수도 있다. 예를 들어, 뷰의 픽처들의 세트 내의 텍스처 뷰 컴포넌트는 그 뷰의 픽처들의 세트 내의 심도 뷰 컴포넌트에 대응하는 것으로 간주되고, 그 역으로도 대응하는 것으로 간주된다 (즉, 심도 뷰 컴포넌트는 세트에서의 그의 텍스처 뷰 컴포넌트에 대응하고, 그 역으로도 대응한다). 본 개시물에서 사용되는 바와 같이, 심도 뷰 컴포넌트에 대응하는 텍스처 뷰 컴포넌트는, 텍스처 뷰 컴포넌트 및 심도 뷰 컴포넌트가 단일 액세스 유닛의 동일한 뷰의 부분인 것으로서 간주될 수도 있다.
텍스처 뷰 컴포넌트는 디스플레이되는 실제 이미지 콘텐츠를 포함한다. 예를 들어, 텍스처 뷰 컴포넌트는 루마 (Y) 및 크로마 (Cb 및 Cr) 컴포넌트들을 포함할 수도 있다. 심도 뷰 컴포넌트는 그의 대응하는 텍스처 뷰 컴포넌트에서의 픽셀들의 상대 심도들을 나타낼 수도 있다. 하나의 예시적인 유사점으로서, 심도 뷰 컴포넌트는 루마 값들만을 포함하는 그레이 스케일 이미지와 유사하다. 다시 말해, 심도 뷰 컴포넌트는 어떠한 이미지 콘텐츠도 전달하지 않지만, 오히려 텍스처 뷰 컴포넌트에서의 픽셀들의 상대 심도들의 측정치를 제공할 수도 있다.
예를 들어, 심도 뷰 컴포넌트에서의 순수 화이트 픽셀은 대응하는 텍스처 뷰 컴포넌트에서의 그의 대응하는 픽셀 또는 픽셀들이 뷰어의 관점에서 더 가깝다는 것을 나타내고, 심도 뷰 컴포넌트에서의 순수 블랙 픽셀은 대응하는 텍스처 뷰 컴포넌트에서의 그의 대응하는 픽셀 또는 픽셀들이 뷰어의 관점에서 더 멀리 있다는 것을 나타낸다. 블랙과 화이트 사이에서의 그레이의 다양한 음영들은 상이한 심도 레벨들을 나타낸다. 예를 들어, 심도 뷰 컴포넌트에서의 매우 그레이의 픽셀은 텍스처 뷰 컴포넌트에서의 그의 대응하는 픽셀이 심도 뷰 컴포넌트에서의 약간 그레이의 픽셀보다 더 멀리 있다는 것을 나타낸다. 그레이 스케일만이 픽셀들의 심도를 식별하기 위해 필요하기 때문에, 심도 뷰 컴포넌트는 크로마 컴포넌트들을 포함할 필요가 없는데, 이는 심도 뷰 컴포넌트에 대한 컬러 값들이 어떠한 목적으로도 기능하지 않을 수도 있어서이다. 위의 설명은 심도 이미지들을 텍스처 이미지들에 관련시키는 목적들에 대해 유사성이 있는 것으로 의도된다. 심도 이미지에서의 심도 값들은 그레이의 음영들을 사실상 표현하지 않고, 사실상, 8-비트, 또는 다른 비트 사이즈, 심도 값들을 표현한다.
심도를 식별하기 위해 루마 값들 (예를 들어, 세기 값들) 만을 이용하는 심도 뷰 컴포넌트는 예시 목적들을 위해 제공되고 제한하는 것으로 간주되어서는 안된다. 다른 예들에서, 텍스처 뷰 컴포넌트에서 픽셀들의 상대 심도들을 나타내기 위해 임의의 기법이 활용될 수도 있다.
도 3 은 멀티뷰 비디오 코딩을 위한 통상적인 MVC 예측 구조 (각각의 뷰 내의 인터-픽처 예측 및 뷰들 사이의 인터-뷰 예측 양쪽을 포함함) 를 도시한다. 예측 방향들은 화살표들로 나타내는데, 가리켜진 오브젝트 (pointed-to object) 는 예측 참조로서 가리키는 오브젝트 (pointed-from object) 를 이용한다. MVC 에서, 인터-뷰 예측은 디스패리티 모션 보상에 의해 지원되는데, 이 디스패리티 모션 보상은 H.264/AVC 모션 보상의 신택스를 이용하지만, 상이한 뷰에서의 픽처가 참조 픽처로서 이용되는 것을 허용한다.
도 3 의 예에서, 8 개의 뷰들 (뷰 ID들 "S0" 내지 "S7" 을 가짐) 이 예시되고, 12 개의 시간적 로케이션들 ("T0" 내지 "T11") 이 각각의 뷰에 대해 예시된다. 즉, 도 3 의 각각의 로우는 뷰에 대응하는 한편, 각각의 컬럼은 시간적 로케이션을 나타낸다.
MVC 가 H.264/AVC 디코더들에 의해 디코딩가능한 소위 기본 뷰를 가지며, 스테레오 뷰 쌍들이 또한 MVC 에 의해 지원될 수도 있지만, MVC 의 이점은 그것이 2 개보다 더 많은 뷰들을 3D 비디오 입력으로서 이용하고 다수의 뷰들에 의해 표현되는 이 3D 비디오를 디코딩하는 예를 지원할 수 있다는 것이다. MVC 디코더를 갖는 클라이언트의 렌더러 (renderer) 는 다수의 뷰들을 갖는 3D 비디오 콘텐츠를 예상할 수도 있다.
도 3 의 픽처들은 각각의 로우 및 각각의 컬럼의 교차부에 나타낸다. H.264/AVC 표준은 비디오의 일 부분을 표현하기 위해 프레임이라는 용어를 사용할 수도 있다. 본 개시물은 픽처 및 프레임이라는 용어를 상호교환가능하게 사용할 수도 있다.
도 3 에서의 픽처들은 대응하는 픽처가 인트라-코딩되는지 (즉, I-픽처), 또는 하나의 방향으로 인터-코딩되는지 (즉, P-픽처) 또는 다수의 방향들로 인터-코딩되는지 (즉, B-픽처) 여부를 지정하는 글자를 포함하는 블록을 이용하여 예시된다. 일반적으로, 예측들은 화살표들로 나타내고, 여기서 가리켜진 픽처들은 예측 참조를 위해 가리키는 픽처를 이용한다. 예를 들어, 시간적 로케이션 T0 에서의 뷰 S2 의 P-픽처는 시간적 로케이션 T0 에서의 뷰 S0 의 I-픽처로부터 예측된다.
단일 뷰 비디오 인코딩에서처럼, 멀티뷰 비디오 코딩 비디오 시퀀스의 픽처들은 상이한 시간적 로케이션들에서 픽처들에 대해 예측적으로 인코딩될 수도 있다. 예를 들어, 시간적 로케이션 T1 에서의 뷰 S0 의 b-픽처는 시간적 로케이션 T0 에서 뷰 S0 의 I-픽처로부터 자신을 가리키는 화살표를 가져서, b-픽처가 I-픽처로부터 예측됨을 나타낸다. 그러나, 부가적으로, 멀티뷰 비디오 인코딩의 맥락에서, 픽처들은 인터-뷰 예측될 수도 있다. 즉, 뷰 컴포넌트는 참조를 위해 다른 뷰들에서의 뷰 컴포넌트들을 이용할 수 있다. MVC 에서, 예를 들어, 인터-뷰 예측은 다른 뷰에서의 뷰 컴포넌트가 인터-예측 참조인 것처럼 실현된다. 잠재적 인터-뷰 참조들은 시퀀스 파라미터 세트 (Sequence Parameter Set; SPS) MVC 확장에서 시그널링되고 참조 픽처 리스트 구성 프로세스에 의해 변경될 수 있는데, 이 참조 픽처 리스트 구성 프로세스는 인터-예측 또는 인터-뷰 예측 참조들의 유연한 순서화를 가능하게 한다. 인터-뷰 예측은 또한 3D-HEVC (멀티뷰 플러스 심도) 를 포함하는 HEVC 의 제안된 멀티뷰 확장의 특징이다.
도 3 은 인터-뷰 예측의 다양한 예들을 제공한다. 뷰 S1 의 픽처들은, 도 3 의 예에서, 뷰 S1 의 상이한 시간적 로케이션들에서의 픽처들로부터 예측된 것으로서 뿐만 아니라, 동일한 시간적 로케이션들에서의 뷰들 S0 및 S2 의 픽처들로부터 인터-뷰 예측된 것으로서 예시된다. 예를 들어, 시간적 로케이션 T1 에 있는 뷰 S1 의 b-픽처는 시간적 로케이션들 T0 및 T2 에서의 뷰 S1 의 B-픽처들 각각 뿐만 아니라, 시간적 로케이션 T1 에서의 뷰들 S0 및 S2 의 b-픽처들로부터 예측된다.
일부 예들에서, 도 3 은 텍스처 뷰 컴포넌트들을 예시한 것으로서 보여질 수도 있다. 예를 들어, 도 2 에 예시된 I-, P-, B-, 및 b-픽처들은 뷰들 각각에 대한 텍스처 뷰 컴포넌트들로서 간주될 수도 있다. 본 개시물에서 설명되는 기법들에 따라, 도 3 에 예시된 텍스처 뷰 컴포넌트들 각각에 대해, 대응하는 심도 뷰 컴포넌트가 존재한다. 일부 예들에서, 심도 뷰 컴포넌트들은 대응하는 텍스처 뷰 컴포넌트들에 대해 도 3 에 예시된 것과 유사한 방식으로 예측될 수도 있다.
2 개의 뷰들의 코딩은 MVC 에 의해 또한 지원될 수도 있다. MVC 의 이점들 중 하나는, MVC 인코더가 2 개보다 더 많은 뷰들을 3D 비디오 입력으로서 취급할 수도 있고 MVC 디코더가 이러한 멀티뷰 표현을 디코딩할 수도 있다는 것이다. 이와 같이, MVC 디코더를 갖는 임의의 렌더러는 2 개보다 더 많은 뷰들을 갖는 3D 비디오 콘텐츠를 디코딩할 수도 있다.
위에서 논의된 바와 같이, MVC 에서, 인터-뷰 예측은 (일부 경우들에서, 동일한 시간 인스턴스를 가짐을 의미하는) 동일한 액세스 유닛에서의 픽처들 중에서 허용된다. 비-기본 뷰들 중 하나에서 픽처를 코딩할 때, 픽처가 상이한 뷰에 있지만 동일한 시간 인스턴스 내에 있는 경우, 그 픽처는 참조 픽처 리스트에 부가될 수도 있다. 인터-뷰 예측 참조 픽처는, 임의의 인터-예측 참조 픽처처럼, 참조 픽처 리스트의 임의의 포지션에 놓일 수도 있다. 도 3 에 도시된 바와 같이, 뷰 컴포넌트는 참조를 위해 다른 뷰들에서의 뷰 컴포넌트들을 이용할 수 있다. MVC 에서, 인터-뷰 예측은 다른 뷰에서의 뷰 컴포넌트가 인터-예측 참조였던 것처럼 실현된다.
MVC 에서, 인터-뷰 예측은 동일한 액세스 유닛에서의 (즉, 동일한 시간 인스턴스를 갖는) 픽처들 중에서 허용된다. 비-기본 뷰들 중 하나에서 픽처를 코딩할 때, 픽처가 상이한 뷰에 있지만 동일한 시간 인스턴스를 갖는 경우, 그 픽처는 참조 픽처 리스트에 부가될 수도 있다. 인터-뷰 예측 참조 픽처는, 임의의 인터 예측 참조 픽처처럼, 참조 픽처 리스트의 임의의 포지션에 놓일 수 있다.
도 3 에 도시된 바와 같이, 뷰 컴포넌트는 참조를 위해 다른 뷰들에서의 뷰 컴포넌트들을 이용할 수 있다. 이것은 인터-뷰 예측이라고 지칭된다. MVC 에서, 인터-뷰 예측은 다른 뷰에서의 뷰 컴포넌트가 인터 예측 참조였던 것처럼 실현된다.
멀티뷰 비디오 코딩의 맥락에서, 두 종류의 모션 벡터들이 존재하는데, 하나는 시간적 참조 픽처들을 가리키는 정상 모션 벡터이다. 대응하는 시간적 인터 예측은 모션-보상된 예측 (motion-compensated prediction; MCP) 이다. 다른 타입의 모션 벡터는 상이한 뷰에서의 픽처들 (즉, 인터-뷰 참조 픽처들) 을 가리키는 디스패리티 모션 벡터이다. 대응하는 시간적 인터 예측은 디스패리티-보상된 예측 (disparity-compensated prediction; DCP) 이다.
비디오 디코더 (30) 는 다수의 HEVC 인터 코딩 모드들을 이용하여 비디오를 디코딩할 수도 있다. HEVC 표준에서는, 예측 유닛 (PU) 에 대해 병합 (병합의 특수 경우로서 스킵이 고려됨) 및 진보된 모션 벡터 예측 (advanced motion vector prediction; AMVP) 모드들이라고 각각 명명된 2 개의 인터 예측 모드들이 존재한다. AMVP 또는 병합 모드 중 어느 하나에서, 비디오 디코더 (30) 는 다수의 모션 벡터 예측자들에 대한 모션 벡터 (motion vector; MV) 후보 리스트를 유지한다. 현재 PU 의, 병합 모드에서의 참조 인덱스들 뿐만 아니라, 모션 벡터(들) 는 MV 후보 리스트로부터 하나의 후보를 취득하는 것에 의해 생성될 수도 있다.
MV 후보 리스트는, 예를 들어, 병합 모드에 대해서는 5 개까지의 후보들을 그리고 AMVP 모드에 대해서는 단지 2 개만의 후보들을 포함한다. 병합 후보는 모션 정보의 세트, 예를 들어, 참조 인덱스들 및 참조 픽처 리스트들 (리스트 0 및 리스트 1) 양쪽에 대응하는 모션 벡터들을 포함할 수도 있다. 병합 후보가 병합 인덱스에 의해 식별되는 경우, 참조 픽처들이 현재 블록들의 예측을 위해 이용될 뿐만 아니라, 연관된 모션 벡터들이 결정된다. 그러나, AMVP 모드 하에서 리스트 0 또는 리스트 1 중 어느 하나로부터의 각각의 잠재적 예측 방향에 대해, 참조 인덱스는, MV 후보 리스트에 대한 MV 예측자 인덱스와 함께, 명시적으로 시그널링될 필요가 있는데, 이는 AMVP 후보가 모션 벡터만을 포함해서이다. AMVP 모드에서, MVP 인덱스에 대응하는 모션 벡터 예측자와 선택된 모션 벡터 사이의 모션 벡터 차이가 추가로 시그널링된다. 위에서 확인될 수 있는 바와 같이, 병합 후보는 모션 정보의 전체 세트에 대응하는 한편, AMVP 후보는 특정 예측 방향 및 참조 인덱스에 대한 단 하나의 모션 벡터를 포함한다.
위에서 도입된 바와 같이, 비디오 디코더 (30) 는 HEVC-기반 3D 비디오 코딩 표준에 따라 코딩한 비디오를 디코딩할 수도 있다. 현재, VCEG 와 MPEG 의 3D 비디오 코딩에 관한 합동 협력 팀 (JCT-3C) 은 HEVC 에 기초한 3DV 표준을 개발하고 있고, 이에 대해 표준화 노력들의 부분은 HEVC 에 기초한 멀티뷰 비디오 코덱 (MV-HEVC) 의 표준화 및 HEVC 에 기초한 3D 비디오 코딩 (3D-HEVC) 에 대한 다른 부분을 포함한다. 3D-HEVC 의 경우, 텍스처 및 심도 뷰들 양쪽에 대해, 코딩 유닛/예측 유닛 레벨에서의 것들을 포함하는 새로운 코딩 툴들이 포함 및 지원될 수도 있다. 3D-HEVC 에 대한 최근 소프트웨어 3D-HTM 은 다음 링크로부터 다운로드될 수 있다: [3D-HTM 버전 9.0r1]: https://hevc.hhi.fraunhofer.de/svn/svn_3DVCSoftware/tags/HTM-9.0r1/
최근 참조 소프트웨어 설명은 다음과 같이 입수가능할 것이다: Li Zhang, Gerhard Tech, Krzysztof Wegner, Sehoon Yea, "Test Model 6 of 3D-HEVC and MV-HEVC", JCT3V-F1005, ITU-T SG 16 WP 3 과 ISO/IEC JTC 1/SC 29/WG 11 의 3D 비디오 코딩 확장 개발에 관한 합동 협력 팀, 6 차 회의: 스위스 제네바, 2013년 11월. 그것은 다음 링크로부터 다운로드될 수 있다: http://phenix.it-sudparis.eu/jct2/doc_end_user/current_document.php?id=1636
3D-HEVC 의 최근 작업 초안은 다음과 같이 입수가능하다: Gerhard Tech, Krzysztof Wegner, Ying Chen, Sehoon Yea, "3D-HEVC Draft Text 2", JCT3V-F1001, ITU-T SG 16 WP 3 과 ISO/IEC JTC 1/SC 29/WG 11 의 3D 비디오 코딩 확장 개발에 관한 합동 협력 팀, 6 차 회의: 스위스 제네바, 2013년 11월. 그것은 다음 링크로부터 다운로드될 수 있다: http://phenix.it-sudparis.eu/jct2/doc_end_user/documents/6_Geneva/wg11/JCT3V-F1001-v4.zip
HEVC 표준에 따라 비디오를 디코딩하는 부분으로서, 비디오 디코더 (30) 는 이웃 블록 기반 디스패리티 벡터 도출 (Neighboring Block Based Disparity Vector Derivation; NBDV) 을 수행하도록 구성될 수도 있다. NBDV 는 뷰들 모두에 대해 텍스처-우선 코딩 순서를 이용하는 3D-HEVC 에서의 디스패리티 벡터 도출 방법이다. 현재 3D-HEVC 설계에서, NBDV 로부터 도출된 디스패리티 벡터는 참조 뷰의 심도 맵으로부터 심도 데이터를 취출하는 것에 의해 더욱 정교화될 수도 있다.
비디오 디코더 (30) 는 2 개의 뷰들 사이의 변위의 추정자 (estimator) 로서 디스패리티 벡터 (disparity vector; DV) 를 이용할 수도 있다. 이웃 블록들이 비디오 코딩에서 거의 동일한 모션/디스패리티 정보를 공유하기 때문에, 현재 블록은 양호한 예측자로서 이웃 블록들에서의 모션 벡터 정보를 사용할 수 있다. 이 아이디어를 추종하여, NBDV 는 상이한 뷰들에서 디스패리티 벡터를 추정하기 위해 이웃 디스패리티 정보를 이용한다.
NBDV 를 수행하는 부분으로서, 몇몇 공간적 및 시간적 이웃 블록들이 우선 정의된다. 비디오 디코더 (30) 는 그 후예 현재 블록과 후보 블록 사이의 상관의 우선순위에 의해 결정된 미리 정의된 순서로 이들 각각을 체크할 수도 있다. 일단 디스패리티 모션 벡터 (즉, 인터-뷰 참조 픽처를 가리키는 모션 벡터) 가 후보들에서 발견된다면, 디스패리티 모션 벡터가 디스패리티 벡터로 컨버팅되고, 연관된 뷰 순서 인덱스가 또한 리턴된다. 이웃 블록들의 2 개의 세트들이 활용된다. 하나의 세트는 공간적 이웃 블록들로부터의 것이고 다른 세트는 시간적 이웃 블록들로부터의 것이다.
3D-HEVC 는 JCT3V-A0097 에서 제안된 NBDV 방법을 우선 채택하였다. 암시적 디스패리티 벡터들은 JCTVC-A0126 에서 단순화된 NBDV 에 포함되었다. 부가적으로, JCT3V-B0047 에서, NBDV 는 디코딩된 픽처 버퍼에 저장된 암시적 디스패리티 벡터들을 제거함으로써 더욱 단순화되지만, RAP 픽처 선택으로 코딩 이득이 또한 개선된다. 다음 문헌들은 3D-HEVC 및 NDBV 의 양태들을 설명한다.
Figure pct00001
JCT3V-A0097: 3D-CE5.h: Disparity vector generation results, L. Zhang, Y. Chen, M. Karczewicz (퀄컴)
Figure pct00002
JCT3V-A0126: 3D-CE5.h: Simplification of disparity vector derivation for HEVC-based 3D video coding, J. Sung, M. Koo, S. Yea (LG)
Figure pct00003
JCT3V-B0047: 3D-CE5.h related: Improvements for disparity vector derivation, J. Kang, Y. Chen, L. Zhang, M. Karczewicz (퀄컴)
Figure pct00004
JCT3V-D0181: CE2: CU-based Disparity Vector Derivation in 3D-HEVC, J. Kang, Y. Chen, L. Zhang, M. Karczewicz (퀄컴)
도 4 는 하나의 코딩 유닛에 대한 공간적 모션 벡터 이웃들의 예를 도시한다. NBDV 의 일부 구현들에서, 5 개의 공간적 이웃 블록들이 디스패리티 벡터 도출을 위해 이용된다. 이들은, 도 4 에 도시된 바와 같은 A0, A1, B0, B1 또는 B2 에 의해 표시된 바와 같이, 현재 예측 유닛 (PU) 을 커버하는 코딩 유닛 (CU) 의 하부좌측, 좌측, 상부우측, 상측 및 상부좌측 블록들이 존재한다: 하나의 코딩 유닛에 대한 공간적 모션 벡터 이웃들. 이들은 HEVC 에서의 병합/AMVP 모드들에서 이용된 것들과 동일하다는 것에 주목해야 한다. 그에 따라, 어떠한 부가적인 메모리 액세스도 요구되지 않는다.
시간적 이웃 블록들을 체크하기 위해, 비디오 디코더 (30) 는 후보 픽처 리스트의 구성 프로세스를 수행한다. 현재 뷰로부터의 2 개까지의 참조 픽처들이 후보 픽처들로서 취급될 수도 있다. 병치된 참조 픽처가 후보 픽처 리스트에 우선 삽입되고, 그에 후속하여 나머지 후보 픽처들이 참조 인덱스의 오름차순으로 삽입된다. 참조 픽처 리스트들 양쪽에서 동일한 참조 인덱스를 갖는 참조 픽처들이 이용가능할 때, 병치된 픽처의 동일한 참조 픽처 리스트에서의 하나 참조 픽처는 다른 하나의 참조 픽처에 선행한다. 후보 픽처 리스트에서의 각각의 후보 픽처에 대해, 3 개의 후보 구역들은 시간적 이웃 블록들을 도출하기 위해 결정된다.
블록이 인터-뷰 모션 예측으로 코딩될 때, 비디오 디코더 (30) 는 상이한 뷰에서 대응 블록을 선택하기 위해 디스패리티 벡터를 도출한다. 암시적 디스패리티 벡터 (IDV 또는 도출된 디스패리티 벡터라고도 알려짐) 는 인터-뷰 모션 예측에서 도출되는 디스패리티 벡터를 지칭한다. 블록이 모션 예측으로 코딩되더라도, 도출된 디스패리티 벡터는 다음 블록을 코딩할 목적으로 폐기되지 않는다.
3D-HTM 7.0 의 현재 설계 및 3D-HTM 의 추후 버전들에서, NBDV 프로세스는, 시간적 이웃 블록들에서의 디스패리티 모션 벡터들, 공간적 이웃 블록들에서의 디스패리티 모션 벡터들, 그리고 그 후에 IDV들을 순서대로 체크한다. 일단, 디스패리티 모션 벡터 또는 IDV 가 발견된다면, 프로세스는 종료된다. 또한, NBDV 프로세스에서 체크된 공간적 이웃 블록들의 개수는 2 로 더욱 감소된다.
비디오 디코더 (30) 는 또한 심도 정보에 액세스하여 NBDV 의 정교화 (NBDV-R) 를 수행할 수도 있다. 하나의 디스패리티 벡터가 NBDV 프로세스로부터 도출될 때, 그 디스패리티 벡터는 참조 뷰의 심도 맵으로부터 심도 데이터를 취출하는 것에 의해 더욱 정교화된다. 정교화 프로세스는 2 개의 단계들을 포함한다. 우선, 비디오 디코더 (30) 는 이전에 코딩된 참조 심도 뷰, 예컨대 기본 뷰에서 도출된 디스패리티 벡터에 의해 대응 심도 블록을 로케이팅한다. 대응 심도 블록의 사이즈는 현재 PU 의 사이즈와 동일할 수도 있다. 비디오 디코더 (30) 는 그 후에 하나의 심도 값을 대응 심도 블록의 4 개의 코너 픽셀들로부터 선택하고 그것을 정교화된 디스패리티 벡터의 수평 컴포넌트로 컨버팅한다. 디스패리티 벡터의 수직 컴포넌트는 변화되지 않는다.
일부 구현들에서, 정교화된 디스패리티 벡터는, 예를 들어, 인터-뷰 모션 예측을 위해 이용할 수도 있는 한편, 비정교화된 디스패리티 벡터는 인터-뷰 잔차 예측을 위해 이용될 수도 있다. 또한, 정교화된 디스패리티 벡터가 백워드 뷰 합성 예측 모드로 코딩되는 경우 그 정교화된 디스패리티 벡터는 하나의 PU 의 모션 벡터로서 저장될 수도 있다. 일부 구현들에서, 기본 뷰의 심도 뷰 컴포넌트는 NBDV 프로세스로부터 도출된 뷰 순서 인덱스의 값에 상관없이 항상 액세스될 것이다.
비디오 디코더 (30) 는 또한 ARP 를 수행하도록 구성될 수도 있고, 이 ARP 는 뷰들 사이의 잔차 상관을 이용하는 코딩 툴이다. ARP 에서, 잔차 예측자는 참조 뷰에서 모션 보상을 위해 현재 뷰에서 모션 정보를 정렬하는 것에 의해 생성된다. 또한, 가중 팩터들은 뷰들 사이의 품질 차이들을 보상하기 위해 도입된다. ARP 가 하나의 블록에 대해 인에이블될 때, 현재 잔차와 잔차 예측자 사이의 차이가 시그널링된다. 현재, ARP 는 단지 Part_2Nx2N 과 동일한 파티션 모드로 인터-코딩된 CU들에 적용될 수 있다. ARP 는 루마 (Y) 컴포넌트 및 크로마 (Cb 및 Cr) 컴포넌트 양쪽에 대해 적용된다. 다음 설명에서, 하나의 블록 (또는 픽셀) 에 대한 동작 (예컨대 합산, 감산) 은 블록 (또는 픽셀) 에서의 각각의 픽셀의 각각의 컴포넌트 (Y, Cb 및 Cr) 에 대한 동작을 의미한다. 루마 및 크로마 컴포넌트들에 대한 프로세스를 구별할 필요가 있을 때, 루마 컴포넌트에 대한 프로세스는 루마 ARP (서브-PU ARP) 라고 지칭되고 크로마 컴포넌트들에 대한 프로세스는 크로마 ARP (서브-PU ARP) 라고 지칭된다.
도 5 는, JCT3V-D0177 에서 제안된 바와 같이, 4 차 JCT3V 회의에서 채택된, 3D-HEVC 에서의 시간적 ARP 에 대한 예시적인 예측 구조를 도시한다. 도 5 는 멀티뷰 비디오 코딩에서 시간적 잔차 (즉, 하나의 참조 픽처 리스트에서의 현재 참조 픽처는 시간적 참조 픽처이다) 에 대한 ARP 의 예측 구조를 예시한다.
도 5 에 도시된 바와 같이, 비디오 디코더 (30) 는 코딩될 현재 블록의 예측에 있어서 후속 블록들을 식별한다. 현재 블록은 도 5 에서 Curr (150) 로서 도시된다. Base (151) 는 디스패리티 벡터 (DV (152A)) 에 의해 도출된 참조/기본 뷰에서의 참조 블록을 표현한다. CurrTRef (153) 는 현재 블록의 시간적 모션 벡터 (TMV (154A)) 에 의해 도출된 블록 Curr (150) 와 동일한 뷰에서의 블록을 표현한다. BaseTRef (155) 는 현재 블록 (TMV (154B)) 의 시간적 모션 벡터에 의해 도출된 블록 Base (151) 와 동일한 뷰에서의 블록을 표현한다. 따라서, TMV (154A) 및 TMV (154B) 는 동일한 모션 벡터에 대응하고, 이는 이들이 x-축 및 y-축을 따라 동일한 양의 변위를 식별한다는 것을 의미한다. BaseTRef (155) 와 Curr (150) 사이의 상대 로케이션에서의 차이는 TMV+DV 의 벡터로 표현될 수 있다. CurrTRef (153) 와 BaseTRef (155) 사이의 상대 로케이션에서의 차이는 디스패리티 벡터 DV (152B) 에 의해 표현될 수 있다. TMV+DV 및 DV (152B) 는 도 5 에 제공되어 다양한 블록들 사이의 관계를 도시하고, 비디오 디코더 (30) 에 의해 도출 또는 이용되는 벡터들에 반드시 대응하지는 않는다.
시간적 ARP 를 수행할 때, 비디오 디코더 (30) 는 BaseTRef-Base 로서 잔차 예측자를 계산할 수도 있고, 여기서 감산 동작은 표시된 픽셀 어레이들의 각각의 픽셀에 적용된다. 비디오 디코더 (30) 는 잔차 예측자를 가중 팩터 (w) 로 곱할 수도 있다. 그에 따라, 비디오 디코더 (30) 에 의해 결정된 현재 블록의 최종 예측자는 CurrTRef+ w*(Base-BaseTRef) 로서 표시된다.
도 5 의 예는 단방향성 예측의 경우를 도시한다. 양방향성 예측의 경우로 확장할 때, 비디오 디코더 (30) 는 각각의 참조 픽처 리스트에 대해 위에서의 단계들을 적용할 수도 있다. 따라서, 양방향성 예측을 위해, 비디오 디코더 (30) 는 2 개의 상이한 예측 블록들에 대한 2 개의 잔차 예측자들을 결정할 수도 있다.
도 6 은 현재 블록 (160), 대응 블록 (161), 및 모션 보상된 블록 (162) 사이의 예시적인 관계를 도시한다. 비디오 디코더 (30) 는 타깃 참조 뷰 (V0) 를 가리키는 디스패리티 벡터 (DV (163)) 를 우선 획득하는 것에 의해 ARP 를 수행할 수도 있다. 비디오 디코더 (30) 는, 예를 들어, 현재 3D-HEVC 에 특정된 기법들 중 임의의 것을 이용하여 DV (163) 를 획득할 수도 있다. 동일한 액세스 유닛 내의 참조 뷰 (V0) 의 픽처에서, 비디오 디코더 (30) 는 DV (163) 를 이용하여 대응 블록 (161) 을 로케이팅할 수도 있다. 비디오 디코더 (30) 는 참조 블록 (161) 에 대한 모션 정보를 도출하기 위해 현재 블록 (160) 의 모션 정보를 재이용할 수도 있다. 예를 들어, 모션 벡터 (164A) 가 현재 블록 (160) 을 예측하는데 이용된 것을 비디오 디코더 (30) 가 이용했다면, 비디오 디코더 (30) 는 모션 벡터 (164B) 를 이용하여 대응 블록 (161) 을 예측할 수도 있다. 모션 벡터 (164A) 및 모션 벡터 (164B) 는 동일한 모션 벡터의 2 개의 상이한 인스턴스들을 표현하도록 의도된다.
비디오 디코더 (30) 는 참조 블록에 대한 참조 뷰에서 도출된 참조 픽처 및 현재 블록 (160) 을 코딩하는데 이용된 동일한 모션 벡터에 기초하여 대응 블록 (161) 에 대해 모션 보상을 적용하여, 잔차 블록을 도출할 수도 있다. 비디오 디코더 (30) 는 대응 블록의 참조 픽처로서 현재 뷰 (Vm) 의 참조 픽처와 동일한 POC (픽처 순서 카운트) 값을 갖는 참조 뷰 (V0) 에서의 참조 픽처를 선택한다. 비디오 디코더 (30) 는 가중 팩터를 잔차 블록에 적용하여 가중된 잔차 블록을 얻고 가중된 잔차 블록의 값들을 예측된 샘플들에 가산한다.
비디오 디코더 (30) 는 또한 인터-뷰 ARP 를 수행하도록 구성될 수도 있다. 시간적 ARP 와 유사하게, 현재 예측 유닛이 인터-뷰 참조 픽처를 이용할 때, 인터-뷰 잔차의 예측이 인에이블된다. 우선, 상이한 액세스 유닛 내의 인터-뷰 잔차가 계산된 후에, 계산된 잔차 정보가 현재 블록의 인터-뷰 잔차를 예측하는데 이용될 수도 있다. 이 기법은 CT3V-F0123 에 제안되었고 3D-HEVC 에 채택되었다.
도 7 은 인터-뷰 ARP 를 위한 예시적인 예측 구조를 도시한다. 도 7 에 도시된 바와 같이, 인터-뷰 ARP 의 경우, 비디오 디코더 (30) 는 현재 블록 (170) 에 대한 3 개의 관련된 블록들을 식별한다. Base (171) 는 현재 블록 (170) 의 디스패리티 모션 벡터 (DMV (172A)) 에 의해 로케이팅된 참조 뷰에서의 참조 블록을 표현한다. BaseRef (173) 는, 이용가능한 경우, Base (171) 에 의해 포함되는 참조 인덱스 및 시간적 모션 벡터 mvLX (174A) 에 의해 로케이팅된 참조 뷰에서의 Base (171) 의 참조 블록을 표현한다. CurrRef (175) 는 Base (171) 로부터의 시간적 모션 정보를 재이용함으로써 식별되는 현재 뷰에서의 참조 블록을 표현한다. 따라서, 비디오 디코더 (30) 는 mvLX (174B) 를 이용하여 CurrRef (175) 를 로케이팅할 수도 있고, 여기서 mvLX (174A) 및 mvLX (174B) 는 동일한 모션 벡터의 2 개의 인스턴스들을 표현한다. DMV (172B) 는 Curr (170) 와 Base (171) 사이의 디스패리티가 CurrRef (175) 와 BaseRef (173) 사이의 디스패리티와 동일하다는 것을 예시하기 위해 도 7 에 포함된 DMV (172A) 와 동일하다. DMV (172B) 는 비디오 디코더 (30) 에 의해 이용 또는 생성된 디스패리티 모션 벡터에 실제로 대응하지 않을 수도 있다.
식별된 3 개의 블록들에 의해, 비디오 디코더 (30) 는 CurrRef 와 BaseRef 사이의 차이로서 현재 PU (즉, Curr (170)) 에 대한 잔차 신호의 잔차 예측자를 계산할 수도 있다. 더욱이, 인터-뷰 예측자는 가중 팩터 (w) 로 곱해질 수도 있다. 그에 따라, 비디오 디코더 (30) 에 의해 결정된 현재 블록 (Curr (170)) 의 최종 예측자는 Base+ w*(CurrRef-BaseRef) 로서 표시된다.
비디오 디코더 (30) 는 시간적 잔차 예측을 위한 ARP 의 일부 알려진 설계들에서와 같이 3 개의 관련 블록들을 생성하기 위해 바이-리니어 필터링 (bi-linear filtering) 을 이용할 수도 있다. 더욱이, Base (171) 에 의해 포함된 시간적 모션 벡터가 현재 PU 의 제 1 이용가능 시간적 참조 픽처의 상이한 액세스 유닛에 있는 참조 픽처를 가리킬 때, 비디오 디코더 (30) 는 제 1 이용가능 시간적 참조 픽처에 대한 시간적 모션 벡터를 스케일링할 수도 있고, 그 스케일링된 모션 벡터는 상이한 액세스 유닛에서 2 개의 블록들을 로케이팅하기 위해 이용될 수도 있다.
ARP 가 인터-뷰 잔차에 대해 적용될 때, 현재 PU 는 인터-뷰 ARP 를 이용하고 있고, ARP 가 시간적 잔차에 대해 적용될 때, 현재 PU 는 시간적 ARP 를 이용하고 있다.
다음 설명에서, 하나의 참조 픽처 리스트에 대한 대응하는 참조가 시간적 참조 픽처이고 ARP 가 적용되는 경우, 그것은 시간적 ARP 로서 표시된다. 그렇지 않다면, 하나의 참조 픽처 리스트에 대한 대응하는 참조가 인터-뷰 참조 픽처이고 ARP 가 적용되는 경우, 그것은 인터-뷰 ARP 로서 표시된다.
위에서 도입된 바와 같이, 비디오 디코더 (30) 는 잔차 예측자를 가중 팩터로 곱할 수도 있다. ARP 에서 3 개의 가중 팩터들이 통상적으로 이용되지만 (즉, 0, 0.5, 및 1) 더 많거나 더 적은 가중 팩터들 뿐만 아니라 상이한 가중 팩터들이 또한 이용될 수도 있다. 비디오 인코더 (20) 는, 예를 들어, 최종 가중 팩터로서 현재 CU 에 대한 최소 레이트-왜곡 비용에 이르게 하는 가중 팩터를 선택하고, 대응하는 가중 팩터 인덱스 (가중 팩터 0, 1, 및 0.5 에 각각 대응하는 0, 1 및 2) 를 CU 레벨에서 비트스트림으로 시그널링할 수도 있다. 하나의 CU 에서의 모든 PU 예측들은 동일한 가중 팩터를 공유할 수도 있다. 가중 팩터가 0 과 동일할 때, ARP 는 현재 CU 에 대해 이용되지 않는다.
비디오 디코더 (30) 는 모션 벡터 스케일링을 통해 참조 픽처 선택을 수행하도록 구성될 수도 있다. JCT3V-C0049 에서, 논-제로 가중 팩터들로 코딩된 예측 유닛들의 참조 픽처들은 블록 간에서 상이할 수도 있다. 그에 따라, 참조 뷰로부터의 상이한 픽처들은 대응 블록의 모션-보상된 블록 (즉, 도 5 의 BaseTRef) 을 생성하기 위해 액세스될 필요가 있을 수도 있다. 가중 팩터가 0 과 동일하지 않을 때, 시간적 잔차의 경우, 현재 PU 의 모션 벡터들은 잔차 및 잔차 예측자 생성 프로세스들 양쪽에 대해 모션 보상을 수행하기 전에 픽싱된 픽처를 향해 스케일링된다. ARP 가 인터-뷰 잔차에 적용될 때, 참조 블록 (즉, 도 7 의 Base) 의 시간적 모션 벡터들은 잔차 및 잔차 예측자 생성 프로세스들 양쪽에 대해 모션 보상을 수행하기 전에 픽싱된 픽처를 향해 스케일링된다.
양쪽의 경우들 (즉, 시간적 잔차 또는 인터-뷰 잔차) 에 대해, 픽싱된 픽처는 각각의 참조 픽처 리스트의 제 1 이용가능 시간적 참조 픽처로서 정의된다. 디코딩된 모션 벡터가 픽싱된 픽처를 가리키지 않을 때, 그것은 우선 스케일링된 후에 CurrTRefBaseTRef 를 식별하도록 이용된다.
ARP 를 위해 이용되는 이러한 참조 픽처는 타깃 ARP 참조 픽처라고 지칭된다. 현재 슬라이스가 B 슬라이스일 때, 타깃 ARP 참조 픽처는 참조 픽처 리스트와 연관된다는 것에 주목한다. 그에 따라, 2 개의 타깃 ARP 참조 픽처들이 활용될 수도 있다.
비디오 디코더 (30) 는 타깃 ARP 참조 픽처들의 가용성 체크를 수행할 수도 있다. 하나의 참조 픽처 리스트 X (여기서 X 는 0 또는 1 임) 와 연관된 타깃 ARP 참조 픽처는 RpRefPicLX 로 표시될 수도 있고, NBDV 프로세스로부터 도출된 것과 동일한 뷰 순서 인덱스를 갖는 그리고 RpRefPicLX 의 동일한 POC 값을 갖는 뷰에서의 픽처는 RefPicInRefViewLX 로 표시될 수도 있다. 다음 조건들 중 하나가 거짓일 때, 비디오 디코더 (30) 는 참조 픽처 리스트 X 에 대해 디스에이블된 ARP 를 디스에이블시킬 수도 있다: (1) RpRefPicLX 가 이용불가능할 때, (2) RefPicInRefViewLX 가 디코딩된 픽처 버퍼에 저장되지 않을 때, (3) RefPicInRefViewLX 가 현재 블록과 연관된 DMV 또는 NBDV 프로세스로부터의 DV 에 의해 로케이팅된 대응 블록 (즉, 도 5 및 도 7 의 Base) 의 참조 픽처 리스트들 중 임의의 것에 포함되지 않을 때, ARP 는 이 참조 픽처 리스트에 대해 디스에이블될 수도 있다.
ARP 가 적용될 때, 비디오 디코더 (30) 는 잔차 및 잔차 예측자를 생성할 때 바이-리니어 필터를 이용할 수도 있다. 즉, ARP 프로세스에 수반된 현재 블록을 배제한 3 개의 블록들은 바이-리니어 필터를 이용하여 생성될 수도 있다.
비디오 디코더 (30) 는 또한 블록-레벨 ARP 를 수행할 수도 있다. 때때로 PU-레벨 ARP 라고 지칭되는, 하나의 PU 내의 모든 블록들이 동일한 모션 정보를 공유하는 위에서의 설명과는 대조적으로, 블록-레벨 ARP 에서, 비디오 디코더 (30) 는 하나의 PU 를 몇몇 8x8 블록들로 분할하고, 각각의 8x8 블록은 그 자신의 모션 정보를 가져서 ARP 를 수행한다. 블록-레벨 ARP 가, 시간적이든 또는 인터-뷰이든, 인에이블될 때, 각각의 PU 는 우선 몇몇 블록들로 분할되고, 각각의 블록은 현재 PU 와 동일한 모션 정보를 공유한다. 그러나, 도출된 모션 벡터 (즉, 시간적 ARP 에서의 디스패리티 벡터 또는 인터-뷰 ARP 에서의 시간적 모션 벡터) 는 각각의 8x8 블록에 대해 업데이트될 수도 있다.
도 8a 는 블록-레벨 시간적 ARP 의 예시적인 예측 구조를 도시한다. 도 8a 의 예에서, Curr (180) 는 도 8a 에서 A 내지 D 로 라벨링된 4 개의 8x8 블록들로 분할되는 PU 를 표현한다. Base (181) 는 Curr (180) 의 디스패리티 벡터들에 의해 도출된 참조/기본 뷰에서 (A' 내지 D' 로 라벨링된) 4 개의 참조 블록들을 표현한다. Base (181) 의 블록 A' 는 (도 8a 에서 DV[0] 으로서 도시된) 블록 A 의 디스패리티 벡터를 이용하여 식별되고, 블록 B' 는 (도 8a 에서 DV[1] 로서 도시된) 디스패리티 벡터를 이용하여 식별된다. 도 8a 에 명시적으로 도시되지 않았지만, 블록들 C' 및 D' 는 이와 마찬가지로 블록 C 및 D 의 디스패리티 벡터들을 이용하여 식별될 수도 있다.
도출된 모션 벡터 (즉, 시간적 ARP 에서의 디스패리티 벡터) 는 각각의 8x8 블록에 대해 업데이트될 수도 있다. 시간적 ARP 의 경우, (도 8a 에서 i 번째 8x8 블록에 대해 DV[i] 로 표시된) 디폴트 derivedMv 는 우선 NBDV 프로세스로부터 DV 이도록 설정된다. CurrRef 내의 i 번째 8x8 블록의 중심 포지션을 커버하는 블록이 디스패리티 모션 벡터를 포함할 때, DV[i] 는 그 디스패리티 모션 벡터이도록 업데이트된다. 따라서, 도 8a 에 도시된 바와 같이, 블록들 A' 내지 D' 는 블록들 A 내지 D 가 서로에 관련된 것과는 상이하게 서로에 대해 포지셔닝될 수도 있다. CurrRef (183) 는 Curr (180) 의 (도 8a 에서 mvLX (184A) 로서 도시된) 시간적 모션 벡터에 의해 도출된 Curr (180) 와 동일한 뷰에서의 4 개의 블록들 (AP 내지 DP) 을 표현한다. BaseRef (185) 는 현재 블록 (mvLX (184B)) 의 시간적 모션 벡터에 의해 도출된 Base (181) 와 동일한 뷰에서의 4 개의 블록들 (AR 내지 DR) 을 표현한다. 도 8a 의 예에서, mvLX (184A) 및 mvLX (184B) 는 동일한 모션 벡터의 2 개의 상이한 적용들을 표현하도록 의도된다. 즉, mvLX (184A) 및 mvLX (184B) 는 동일한 x-컴포넌트 및 y-컴포넌트를 갖는다.
도 8a 의 예에서, 잔차 예측자는 BaseRef-Base 로서 표시되고, 여기서 감산 동작은 표시된 픽셀 어레이들의 각 픽셀에 대해 적용된다. 가중 팩터 (w) 가 잔차 예측자에 추가로 곱해진다. 따라서, 비디오 디코더 (30) 에 의해 결정된 블록들 (A 내지 D) 에 대한 최종 예측자는 CurrRef[NP]+ w*( Base[N']-BaseRef[NR]) 로서 표시되고, 여기서 N 은 A 내지 D 에 대응한다.
도 8b 는 블록-레벨 인터-뷰 ARP 의 예시적인 예측 구조를 도시한다. 도 8b 의 예에서, 비디오 디코더 (30) 는 현재 블록 (182) 의 3 개의 관련된 블록들을 식별한다. Base (186) 는 현재 블록 (182) 의 디스패리티 모션 벡터 (DMV (188A)) 에 의해 로케이팅된 참조 뷰에서의 4 개의 참조 블록들 (A 내지 D) 을 표현한다. BaseRef (187) 는, 이용가능한 경우, Base (186) 에 의해 포함되는 참조 인덱스 및 시간적 모션 벡터 mvLX[N] 에 의해 로케이팅된 참조 뷰에서의 Base (186) 의 4 개의 참조 블록들 (A' 내지 D') 을 표현하고, 여기서 N 은 블록들 (A 내지 D) 에 대응한다. 인터-뷰 ARP 의 경우, (도 8b 에서 i 번째 8x8 블록에 대해 mvLX[i] 로 표시된) 디폴트 derivedMv 는 현재 ARP 에서와 같이 Base 의 중심 포지션을 커버하는 블록과 연관된 시간적 모션 벡터로 설정될 수도 있다. Base 내의 i 번째 8x8 블록의 중심 포지션을 커버하는 블록이 시간적 모션 벡터를 포함할 때, mvLX[i] 는 그 시간적 모션 벡터이도록 업데이트된다. 따라서, 도 8a 에 도시된 바와 같이, 블록들 A' 내지 D' 는 블록들 A 내지 D 가 서로에 관련된 것과는 상이하게 서로에 대해 포지셔닝될 수도 있다.
CurrRef (189) 는 Base (186) 로부터의 시간적 모션 정보를 재이용함으로써 식별되는 현재 뷰에서의 4 개의 참조 블록들 (AR 내지 DR) 을 표현한다. 따라서, 예를 들어, 비디오 디코더 (30) 는 mvLX[A] 를 이용하여 AR 을 로케이팅하고, mvLX[B] 를 이용하여 BR 을 로케이팅한다는 것 등이다. 3 개의 식별된 블록들에 의해, 비디오 디코더 (30) 는 CurrRef - BaseRef 사이의 차이로서 현재 PU 의 잔차 신호의 잔차 예측자를 계산할 수도 있다. 그것은 상이한 액세스 유닛들에 있을 수도 있다. 더욱이, 인터-뷰 예측자는 가중 팩터 (w) 로 곱해질 수도 있다. 그에 따라, 비디오 디코더 (30) 에 의해 결정된 현재 블록의 최종 예측자는 Base[N]+ w*(CurrRef[NR]-BaseRef[N']) 로서 표시된다.
위에 예시된 바와 같이, 블록-기반 시간적 ARP 및 블록-기반 인터-뷰 ARP 양쪽의 경우, 현재 PU 의 모션 벡터에 의해 로케이팅된 참조 블록의 블록 레벨 (예를 들어, 8x8) 모션 정보만이 액세스되어 최종 잔차 예측자를 생성한다.
비디오 디코더 (30) 는 또한 서브-PU 레벨 인터-뷰 모션 예측을 수행할 수도 있다. JCT3V-F0110 에서, 서브-PU 레벨 인터-뷰 모션 예측 방법은 새로운 병합 후보를 생성하기 위해 제안된다. 새로운 후보는 병합 후보 리스트에 부가된다. 새로운 후보, 즉, 서브-PU 병합 후보는, 다음 방법을 이용하여 비디오 디코더 (30) 에 의해 도출될 수도 있다. 다음 설명에서, 현재 PU 의 사이즈는 nPSW x nPSH 로 표시되고, 시그널링된 서브-PU 사이즈는 NxN 으로 표시되며, 최종 서브-PU 사이즈는 subWxsubH 로 표시된다. 비디오 디코더 (30) 는 우선, PU 사이즈 및 시그널링된 서브-PU 사이즈에 의존하여 현재 PU 를 하나 또는 다수의 서브-PU들로 분할한다.
Figure pct00005
비디오 디코더 (30) 는 두 번째로, 각각의 참조 픽처 리스트에 대해 디폴트 모션 벡터 tmvLX 를 (0, 0) 으로 그리고 참조 인덱스 refLX 를 -1 로 설정한다 (여기서 X 는 0 및 1 임). 각각의 서브-PU 에 대해 래스터 스캔 순서에서, 비디오 디코더 (30) 는 다음을 행한다:
Figure pct00006
DoNBDV 또는 NBDV 프로세스로부터의 DV 를 현재 서브-PU 의 중간 포지션에 부가하여 참조 샘플 로케이션 (xRefSub, yRefSub) 을 다음에 의해 획득한다:
Figure pct00007
Figure pct00008
(xRefSub, yRefSub) 를 커버하는 참조 뷰에서의 블록은 현재 서브-PU 에 대한 참조 블록으로서 이용될 수도 있다.
Figure pct00009
식별된 참조 블록에 대해,
- 그 식별된 참조 블록이 시간적 모션 벡터들을 이용하여 코딩되는 경우, 다음이 적용된다:
Figure pct00010
연관된 모션 파라미터들은 현재 서브-PU 에 대한 후보 모션 파라미터들로서 이용될 수 있다.
Figure pct00011
tmvLX 및 refLX 는 현재 서브-PU 의 모션 정보로 업데이트된다.
Figure pct00012
현재 서브-PU 가 래스터 스캔 순서에서 첫 번째 것이 아닌 경우, 모션 정보 (tmvLX 및 refLX) 는 이전 서브-PU들 모두에 의해 상속된다.
- 그렇지 않다면 (참조 블록이 인트라 코딩된다), 현재 서브-PU 의 모션 정보는 tmvLX 및 refLX 로 설정될 수도 있다.
비디오 디코더 (30) 는 또한 서브-PU 레벨 ARP 를 수행하도록 구성될 수도 있다. 서브-PU 레벨 인터-뷰 모션 예측이 적용될 때, PU 는 다수의 서브-PU들을 포함할 수도 있고 각각의 서브-PU 는 그 자신의 모션 정보를 가지며, ARP 는 각각의 서브-PU 에 대해 수행될 수도 있다. 상이한 서브-PU 블록 사이즈들, 예를 들어, 4x4, 8x8, 및 16x16 이 적용될 수도 있다. 서브-PU 블록의 사이즈는 뷰 파라미터 세트에 존재한다.
도 9 는 서브-PU 레벨 인터-뷰 모션 예측의 예를 도시한다. 도 9 는 V1 이라고 지칭되는 현재 뷰, 및 V0 이라고 지칭되는 참조 뷰를 도시한다. 현재 PU (190) 는 4 개의 서브-PU들 (A 내지 D) 을 포함한다. 비디오 디코더 (30) 는 4 개의 서브-PU들 (A 내지 D) 각각의 디스패리티 벡터들을 이용하여 참조 블록들 (191) 을 로케이팅할 수도 있고, 이 참조 블록들은 4 개의 참조 블록들 (AR 내지 DR) 을 포함한다. 서브-PU들 (A 내지 D) 의 디스패리티 벡터들은 도 9 에서 MV[i] 로 도시되고, 여기서 i 는 A 내지 D 에 대응한다. 4 개의 서브-PU들 각각이 고유한 디스패리티 벡터를 가짐에 따라, 서브-PU들 (A 내지 D) 의 서로에 대한 로케이션은 참조 블록들 (AR 내지 DR) 의 서로에 대한 로케이션과는 상이할 수도 있다. 서브-PU 레벨 인터뷰 모션 예측에서, 비디오 디코더 (30) 는 참조 블록의 모션 벡터를 이용하여 서브-PU 를 예측할 수도 있다. 참조 블록들 (AR 내지 DR) 의 모션 벡터들은 도 9 에서 MV[i] 로서 도시되고, 여기서 i 는 A 내지 D 에 대응한다. 따라서, 하나의 예로서, 서브-PU (A) 에 대해, 비디오 디코더 (30) 는 DV[A] 를 이용하여 참조 블록 (AR) 을 로케이팅하고, 참조 블록 (AR) 이 MV[A] 를 이용하여 코딩되었다는 것을 결정하며, MV[A] 를 이용하여 서브-PU (A) 에 대한 예측 블록을 로케이팅할 수도 있다.
도 10a 는 서브-PU-레벨 시간적 ARP 에 대한 예시적인 예측 구조를 도시한다. 도 10a 의 예에서, PU (Curr (200)) 는 (도 10a 에서 A 내지 D 로 라벨링된) 4 개의 서브-PU들로 분할된다. 서브-PU-레벨 시간적 ARP 의 경우, 비디오 디코더 (30) 는 참조 뷰에서 참조 블록 (Base (201)) 을 식별하기 위해 Curr (200) 의 서브-PU들 모두에 대해 동일한 디스패리티 벡터 (DV (202)) 를 이용할 수도 있고, 이는 일반적으로 PU-레벨 ARP 와 동일하다. Base (201) 는 서브-PU들 (A 내지 D) 에 대응하는 서브-참조 블록들 (도 10a 의 A' 내지 D') 로 서브-분할될 수도 있다. 비디오 디코더 (30) 는, 예를 들어, NBDV 기법을 이용하여 DV (202) 를 도출할 수도 있다. 비디오 디코더 (30) 는 서브-PU들 (A 내지 D) 각각의 모션 정보를 이용하여 시간적 참조 블록들 (도 10a 의 AP 내지 DP) 을 식별한다. 서브-PU들 (A 내지 D) 의 모션 정보는 도 10a 에서 i 번째 서브-PU 에 대한 TMV[i] 로서 도시되고, 여기서 i 는 A 내지 D 에 대응한다. TMV[A] 는, 예를 들어, 서브-PU (A) 의 시간적 모션 벡터를 표현하고, TMV[C] 는, 예를 들어, 서브-PU (C) 의 모션 벡터를 표현한다. 도 10a 에 명시적으로 도시되지 않았지만, 서브-PU (B) 및 서브-PU (D) 는 이와 유사하게, 연관된 모션 벡터들 TMV[B] 및 TMV[D] 를 각각 가질 것이다.
비디오 디코더 (30) 는, 도 10a 에서 BaseRef (205) 로서 도시된, Base (201) 의 참조 블록들을 로케이팅하기 위해 서브-PU들 (A 내지 D) 의 모션 정보 (즉, TMV[i], 여기서 i = A 내지 D 임) 를 재이용할 수도 있다. BaseRef (205) 는 4 개의 서브-블록들 (도 10a 의 AR 내지 DR) 을 포함한다. 도 10a 의 예에서, 잔차 예측자는 BaseRef-Base 로서 표시될 수도 있고, 여기서 감산 동작은 표시된 픽셀 어레이들의 각 픽셀에 대해 적용된다. 가중 팩터 (w) 가 잔차 예측자에 추가로 곱해진다. 따라서, 비디오 디코더 (30) 에 의해 결정된 블록들 (A 내지 D) 에 대한 최종 예측자는 CurrRef[NP]+ w*( Base[N']-BaseRef[NR]) 로서 표시될 수도 있고, 여기서 N 은 A 내지 D 에 대응한다.
도 10b 는 서브-PU-레벨 인터-뷰 ARP 의 예시적인 예측 구조를 도시한다. 도 10b 의 예에서, PU (Curr (200)) 는 (도 10b 에서 A 내지 D 로 라벨링된) 4 개의 서브-PU들로 분할된다. 인터-뷰 ARP 의 경우, 비디오 디코더 (30) 는 참조 뷰에서 참조 블록 (Base (206)) 을 식별하기 위해 서브-PU들 (A 내지 D) 각각의 디스패리티 모션 벡터를 이용한다. Base (206) 는 도 10b 에서 AP 내지 DP 로 라벨링된 4 개의 서브-참조 블록들을 포함한다. 서브-PU들 (A 내지 D) 의 디스패리티 모션 벡터는 도 10b 에서 i 번째 서브-PU 에 대한 DMV[i] 로서 도시되고, 여기서 i 는 A 내지 D 에 대응한다. DMV[A] 는, 예를 들어, 서브-PU (A) 의 디스패리티 모션 벡터를 표현하고, DMV[B] 는 서브-PU (B) 의 디스패리티 모션 벡터를 표현한다. 도 10b 에 명시적으로 도시되지 않았지만, 서브-PU (C) 및 서브-PU (D) 는 이와 유사하게, 연관된 모션 벡터들 DMV[C] 및 DMV[D] 를 각각 가질 것이다.
참조 블록 (즉, Base (206)) 이 시간적 모션 벡터 (도 10b 에서 mvLX[i] 로 표시됨, 여기서 i 는 A 내지 D 에 대응함) 를 포함할 때, 비디오 디코더 (30) 는 현재 서브-PU 및 참조 뷰에서의 그의 참조 블록 양쪽에 대한 시간적 참조 블록을 식별하기 위해 시간적 모션 벡터를 이용한다. 예를 들어, 비디오 디코더 (30) 는 mvLX[A] 를 이용하여, 도 10b 에서 AR 인, AP 에 대한 참조 블록을 로케이팅할 뿐만 아니라, 도 10b 에서 A' 인, A 의 참조 블록을 로케이팅한다. 비디오 디코더 (30) 는 이와 유사하게 mvLX[C] 를 이용하여, 도 10b 에서 CR 인, CP 에 대한 참조 블록을 로케이팅할 뿐만 아니라, 도 10b 에서 C' 인, C 의 참조 블록을 로케이팅한다. 도 10b 에 명시적으로 도시되지 않았지만, 비디오 디코더 (30) 는 이와 유사하게 C, CP, D, 및 DP 에 대한 참조 블록들을 로케이팅할 수도 있다.
식별된 블록들에 의해, 비디오 디코더 (30) 는 CurrRef[N'] - BaseRef[NR] 사이의 차이로서 현재 PU 의 잔차 예측자를 계산할 수도 있고, 여기서 N 은 A 내지 D 에 대응한다. 더욱이, 인터-뷰 예측자는 가중 팩터 (w) 로 곱해질 수도 있다. 그에 따라, 비디오 디코더 (30) 에 의해 결정된 현재 블록의 최종 예측자는 Base[NP]+ w*(CurrRef[N']-BaseRef[NR]) 로서 표시될 수도 있다.
ARP 의 일부 구현들은 몇몇 잠재적 문제들을 갖는다. 일 예로서, 블록이 양예측되는 일부 코딩 시나리오들에서, 4 개의 부가적인 참조 블록들은 블록 (또는 PU, 서브-PU) 에 대해 평가될 필요가 있을 수도 있다. 도 11 에 예시된 제 1 예에서, 하나의 블록이 양방향성으로 예측되고, 예측 방향들 양쪽이 인터-뷰 참조 픽처들에 대응할 때, 인터-뷰 ARP 는 2 회 호출되고 2 개의 부가적인 참조 블록들은 각각의 ARP 를 위해 액세스된다.
도 11 은 3D-HEVC 에서 양방향성 인터-뷰 ARP 를 위해 비디오 디코더 (30) 에 의해 액세스되는 참조 블록들의 예를 도시한다. 도 11 의 예에서, 예측 방향 X 의 디스패리티 모션 벡터는 DMVX 로 표시되고, 여기서 X = 0 또는 1 이다. 예측 방향 X 에 대해, 현재 뷰에서의 참조 블록 (도 11 의 CurrRefX) 은 참조 뷰에서의 참조 블록 (도 11 의 BaseX) 과 연관된 모션 정보 (도 11 의 mvBaseX) 에 의해 식별되고, DMVX + mvBaseX 에 의해 식별된 참조 뷰에서의 BaseX 의 참조 블록 (도 11 의 BaseXRef) 이 평가된다.
도 12 는 3D-HEVC 에서 시간적 ARP 및 인터-뷰 ARP 를 위해 비디오 디코더 (30) 에 의해 액세스되는 참조 블록들의 예를 도시한다. 도 12 에 의해 예시된 제 2 예에서, 하나의 블록이 양방향성으로 예측되고, 하나의 예측 방향이 시간적 참조 픽처에 대응하고 (그리고 시간적 모션 벡터가 TMV 임) 다른 예측 방향이 인터-뷰 참조 픽처에 대응할 때 (그리고 디스패리티 모션 벡터가 DMV 임), 시간적 ARP 와 인터-뷰 ARP 양쪽이 호출되고 2 개의 부가적인 참조 블록들이 도 12 에 도시된 바와 같이 각각의 ARP 를 위해 액세스된다.
시간적 ARP 에서, NBDV 프로세스를 이용하여 도출된 DV 에 의해 식별되는 참조 뷰에서의 참조 블록 (도 12 의 Base1), 및 DV + TMV 에 의해 식별되는 참조 뷰에서의 Base1 의 참조 블록 (도 12 의 Base1TRef) 이 평가된다. 인터-뷰 ARP 에서, 참조 뷰에서의 참조 블록 (도 12 의 Base2) 과 연관된 모션 정보 (도 12 의 mvBase) 에 의해 식별되는 현재 뷰에서의 참조 블록 (도 12 의 CurrRef), 및 DMV + mvBase 에 의해 식별되는 참조 뷰에서의 Base2 의 참조 블록 (도 12 의 Base2Ref) 이 평가된다.
일부 알려진 기법들에 따르면, 도 12 의 프로세스가 단순화되어 부가적으로 평가된 참조 블록들을 감소시킨다. 예를 들어, DMV 는 시간적 ARP 를 위해 참조 뷰에서의 참조 블록 (즉, 도 12 의 Base1) 을 식별하기 위해 NBDV 프로세스를 이용하여 도출된 DV 대신에 이용될 수도 있다. 이러한 방법으로, 블록 (Base1) 은 도 12 의 블록 (Base2) 과 동일하고 Base1 의 어떠한 부가적인 평가들도 요구되지 않는다. 그에 따라, 제 1 예에서 부가적으로 평가된 참조 블록들은 4 개로부터 3 개로 감소된다.
그러나, 위에서의 문제의 제 1 예에서, 평가할 4 개의 부가적인 참조 블록들이 여전히 존재한다. 이것은 ARP 예측된 블록에 대해 액세스하기 위해 필요한 블록들의 개수가 3 개로부터 4 개로 증가된다는 최악의 경우를 만든다.
본 개시물은 ARP 에서의 위에서 언급된 문제들의 일부에 대한 솔루션들을 잠재적으로 제공하여 부가적으로 평가된 참조 블록들을 감소시킨다. 하나의 예로서, 제 1 블록이 ARP (서브-PU 레벨 ARP 를 포함함) 로 코딩되고 양방향성으로 예측되며 예측 방향들 양쪽이 인터-뷰 참조 픽처들인 참조 픽처들을 가질 때, 비디오 디코더 (30) 는 예측 방향들 양쪽 (의 인터-뷰 ARP) 에 대한 현재 뷰에서의 현재 블록의 참조 블록을 식별하기 위해 하나의 단일 시간적 모션 벡터를 이용할 수도 있다는 것이 제안된다. 다시 말해, 양쪽의 시간적 모션 벡터들 (예를 들어, 도 11 에 도시된 바와 같은 mvBase0 및 mvBase1) 이 mvBase 이도록 설정된다. 부가적으로, 도 12 의 CurrRef0 및 CurrRef1 양쪽과는 대조적으로, 현재 블록의 단 하나의 참조 블록만이 결정된다. 이 경우, 도 13 에 도시된 바와 같이, 2 개의 참조 블록들 대신에, 현재 뷰에서 단 하나의 참조 블록 (도 13 에서 CurrRef 로 표시됨) 만이 평가된다.
도 13 은 하나의 단일 시간적 모션 벡터가 어떻게 양방향성 인터-뷰 ARP 에 이용될 수도 있는지의 예를 도시한다. 하나의 예에서, 단일 시간적 모션 벡터 (mvBase) 는 예측 방향 0 에 대한 참조 뷰에서의 참조 블록과 연관된 시간적 모션 벡터 (예를 들어, mvBase0) 이도록 설정될 수도 있다. 또한, mvBase0 이 이용불가능할 때, ARP 는 제 1 블록에 대해 디스에이블될 수도 있다. 대안적으로, mvBase0 이 이용불가능할 때, 단일 모션 벡터 (mvBase) 는 제로 모션 벡터이도록 설정될 수도 있다.
도 13 의 예에서, 비디오 디코더 (30) 는 2 개의 예측 방향들에 대한 인터-뷰 ARP 를 수행할 수도 있다. 예측 방향 0 에 대해, 비디오 디코더 (30) 는 Curr 에 대한 제 1 디스패리티 모션 벡터 (DMV0) 및 Curr 에 대한 제 2 디스패리티 모션 벡터 (DMV1) 를 결정한다. 비디오 디코더 (30) 는 DMV0 을 이용하여 제 1 대응 블록 (Base0) 을 로케이팅하고 DMV1 을 이용하여 제 2 대응 블록 (Base1) 을 로케이팅한다. Base0 및 Base1 의 모션 벡터들로부터, 비디오 디코더 (30) 는 ARP 를 위해 이용하기 위한 모션 벡터 (mvBase) 를 결정한다. 비디오 디코더 (30) 가 mvBase 를 결정하는데 이용할 수도 있는 다양한 프로세스들은 아래에 더 상세히 설명될 것이다. mvBase 를 이용하여, 비디오 디코더 (30) 는 Curr 와 동일한 뷰에서의 상이한 픽처에서 현재 블록의 참조 블록 (CurrRef) 을 결정한다. mvBase 를 이용하여, 비디오 디코더 (30) 는 또한 Base 0 에 대한 참조 블록 (Base0Ref) 및 Base1 에 대한 참조 블록 (Base1Ref) 을 결정한다. 식별된 블록들을 이용하여, 비디오 디코더 (30) 는 2 개의 예측자들을 생성한다. 제 1 예측자는 Base0+ w*(CurrRef-Base0Ref) 이고, 제 2 예측자는 Base1+ w*(CurrRef-Base1Ref) 이다.
비디오 디코더 (30) 는 Base0 에 대한 모션 벡터가 이용가능한 경우 Base0 과 연관된 시간적 모션 벡터인 것으로 mvBase 를 결정할 수도 있고, 또는 Base1 에 대한 모션 벡터가 이용가능한 경우 Base1 과 연관된 시간적 모션 벡터인 것으로 mvBase 를 결정할 수도 있다. 비디오 디코더 (30) 가 mvBase 로서 Base0 의 모션 벡터를 이용하도록 구성된다면, ARP 는 Base0 에 대한 모션 벡터가 이용불가능할 때 제 1 블록에 대해 디스에이블될 수도 있다. 대안적으로, 비디오 디코더 (30) 가 mvBase 로서 Base0 의 모션 벡터를 이용하도록 구성된다면, mvBase 는 Base0 에 대한 모션 벡터가 이용불가능할 때 제로 모션 벡터이도록 설정될 수도 있다. 이와 유사하게, 비디오 디코더 (30) 가 mvBase 로서 Base1 의 모션 벡터를 이용하도록 구성된다면, ARP 는 Base1 에 대한 모션 벡터가 이용불가능할 때 제 1 블록에 대해 디스에이블될 수도 있다. 대안적으로, 비디오 디코더 (30) 가 mvBase 로서 Base1 의 모션 벡터를 이용하도록 구성된다면, mvBase 는 Base1 에 대한 모션 벡터가 이용불가능할 때 제로 모션 벡터이도록 설정될 수도 있다.
다른 예에서, 비디오 디코더 (30) 는 Base0 에 대한 모션 벡터가 이용불가능한 경우 Base1 의 시간적 모션 벡터이도록 mvBase 를 설정할 수도 있고, 또는 Base1 에 대한 모션 벡터가 이용불가능한 경우 Base0 의 시간적 모션 벡터이도록 mvBase 를 설정할 수도 있다. 비디오 디코더는 Base1 에 대한 모션 벡터가 이용불가능한 경우 그리고 Base0 에 대한 모션 벡터가 이용불가능한 경우 제로 모션 벡터이도록 mvBase 를 설정할 수도 있다. 비디오 디코더는 Base1 에 대한 모션 벡터가 이용불가능한 경우 그리고 Base0 에 대한 모션 벡터가 이용불가능한 경우 ARP 를 디스에이블시킬 수도 있다. 다른 예에서, 비디오 디코더 (30) 는, 참조 뷰에서의 참조 블록과 연관된 시간적 모션 벡터가 예측 방향 X 에 대해 이용가능하지 않을 때, 예측 방향 X 에 대한 인터-뷰 ARP 를 디스에이블시킬 수도 있다.
본 개시물의 다른 기법에 따르면, 하나의 블록이 ARP (서브-PU 레벨 ARP 를 포함함) 로 코딩되고 양방향성으로 예측될 때, 비디오 디코더 (30) 는 하나의 예측 방향 (예측 방향 X) 에 대해서만 크로마 ARP 를 적용하고 다른 예측 방향 (예측 방향 1 - X) 에 대해서는 ARP 를 디스에이블시키는 것이 제안되는데, 여기서 X 는 0 또는 1 중 어느 하나일 수도 있다. 루마 ARP (서브-PU 레벨 ARP 를 포함함) 는 변화되지 않은 채로 유지될 수도 있다. 하나의 예에서, X 는 0 과 동일하다. 비디오 디코더 (30) 는 이 기법들을 또는 상술된 단일 모션 벡터 기법과 공동으로 또는 독립적으로 이용할 수도 있다.
본 개시물의 다른 기법에 따르면, 하나의 블록이 ARP 로 코딩될 때, 또한 크로마 컴포넌트들에 대한 ARP 가 블록 사이즈가 소정 범위에 있을 때 (이는 현재 블록의 폭 및 높이가 소정 범위에 있다는 것을 의미함) 에만 적용된다는 것이 제안된다. 하나의 예에서, 블록 사이즈가 8x8 과 동일한 경우, 크로마 컴포넌트들에 대한 ARP 가 디스에이블될 수도 있다. 다른 예에서, 블록 사이즈가 32x32 보다 더 작은 경우, 크로마 컴포넌트들에 대한 ARP 가 디스에이블될 수도 있다. 다른 예에서, 크로마에 대한 서브-PU 레벨 ARP 는, NxN 과 동일한 사이즈를 갖는 임의의 서브-PU 에 대해 디스에이블될 수도 있지만, 크로마에 대한 ARP 는 NxN 과 동일한 사이즈를 갖는 PU 에 대해 인에이블된다. 여기서, N 은 8, 16, 32, 또는 64 일 수 있다. 다른 예에서, 크로마에 대한 서브-PU 레벨 ARP 는, NxN 과 동일한 사이즈를 갖는 임의의 서브-PU 에 대해 디스에이블될 수도 있지만, 크로마에 대한 ARP 는 MxM 과 동일한 사이즈를 갖는 PU 에 대해 인에이블된다. 여기서, M 은 N 보다 더 작을 수 있고 이들 양쪽은 M 이 N 보다 더 작은 한 8, 16, 32, 또는 64 일 수 있다.
본 개시물에서 설명되는 다양한 기법들은 독립적으로 또는 공동으로 구현될 수도 있는 것으로 고려된다. 예를 들어, 상술된 단일 모션 벡터 기법들은 상술된 크로마 ARP 기법들과 함께 구현될 수도 있다. 이와 유사하게, 상술된 블록-사이즈 기반 크로마 ARP 기법들은 상술된 단일 모션 벡터 기법들과 함께 구현될 수도 있는 것으로 또한 고려된다. 또한, 본 개시물에서 설명되는 다양한 기법들은 PU-레벨 ARP, 서브-PU 레벨 ARP, 및 블록-레벨 ARP 중 임의의 것에 적용될 수도 있는 것으로 고려된다.
도 15 는 본 개시물에서 설명되는 ARP 기법들을 구현할 수도 있는 비디오 인코더의 예를 예시하는 블록도이다. 예를 들어, 도 15 는 3D-AVC 준수 비디오 인코더 또는 3D-HEVC 준수 비디오 인코더 중 어느 하나를 표현할 수도 있는 비디오 인코더 (20) 를 예시한다. 비디오 인코더 (20) 는 PU들, TU들, 및 CU들과 같은 소정의 HEVC 기술용어를 사용하여 설명될 것이지만, 비디오 인코더 (20) 를 참조하여 설명되는 기법들은 H.264 표준에 따라 코딩된 비디오로 또한 수행될 수도 있다는 것이 이해되어야 한다.
비디오 인코더 (20) 는 비디오 슬라이스들 내의 비디오 블록들의 인트라-코딩 및 인터-코딩을 수행할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 인터-예측 인코딩 또는 인트라-예측 인코딩을 수행할 수도 있다. 인트라-코딩은 주어진 비디오 프레임 또는 픽처 내의 비디오에서 공간적 리던던시를 감소시키거나 또는 제거하기 위해 공간적 예측에 의존한다. 인터-코딩은 시간적 예측 또는 인터-뷰 예측에 의존하여, 비디오 시퀀스의 인접한 프레임들 또는 픽처들 내의 시간적 리던던시 또는 상이한 뷰들에서의 픽처들 사이의 리던던시를 감소시키거나 또는 제거한다. 인트라-모드 (I 모드) 는 몇몇 공간적 기반 압축 모드들 중 임의의 공간적 기반 압축 모드를 지칭할 수도 있다. 단방향성 예측 (P 모드) 또는 양방향 예측 (B 모드) 과 같은 인터-모드들은 몇몇 시간적 기반 압축 모드들 중 임의의 시간적 기반 압축 모드를 지칭할 수도 있다.
도 15 의 예에서, 비디오 인코더 (20) 는 비디오 데이터 메모리 (40), 예측 프로세싱 유닛 (42), 참조 픽처 메모리 (64), 합산기 (50), 변환 프로세싱 유닛 (52), 양자화 프로세싱 유닛 (54), 및 엔트로피 인코딩 유닛 (56) 을 포함한다. 예측 프로세싱 유닛 (42) 은 모션 및 디스패리티 추정 유닛 (44), 모션 및 디스패리티 보상 유닛 (46), 및 인트라 예측 유닛 (48) 을 포함한다. 비디오 블록 재구성을 위해, 비디오 인코더 (20) 는 또한 역 양자화 프로세싱 유닛 (58), 역 변환 프로세싱 유닛 (60), 및 합산기 (62) 를 포함한다. 디블록킹 (deblocking) 필터 (도 15 에 미도시) 가 또한 블록 경계들을 필터링하여 재구성된 비디오로부터 블록키니스 아티팩트 (blockiness artifact) 들을 제거하기 위해 포함될 수도 있다. 원한다면, 디블록킹 필터는 통상적으로 합산기 (62) 의 출력을 필터링할 것이다. 부가적인 루프 필터들 (인 루프 또는 포스트 루프) 이 또한 디블록킹 필터에 부가적으로 이용될 수도 있다.
비디오 데이터 메모리 (40) 는 비디오 인코더 (20) 의 컴포넌트들에 의해 인코딩될 비디오 데이터를 저장할 수도 있다. 비디오 데이터 메모리 (40) 에 저장된 비디오 데이터는, 예를 들어, 비디오 소스 (18) 로부터 획득될 수도 있다. 참조 픽처 메모리 (64) 는 (예를 들어, 인트라- 또는 인터-예측 코딩 모드들이라고 또한 지칭되는 인트라- 또는 인터-코딩 모드들에서) 비디오 인코더 (20) 에 의해 비디오 데이터를 인코딩함에 있어서의 이용을 위해 참조 비디오 데이터를 저장하는 디코딩 픽처 버퍼 (DPB) 의 하나의 예이다. 비디오 데이터 메모리 (40) 및 참조 픽처 메모리 (64) 는 동기 DRAM (SDRAM), 자기저항 RAM (MRAM), 저항 RAM (RRAM), 또는 다른 타입들의 메모리 디바이스들을 포함하는, 동적 랜덤 액세스 메모리 (DRAM) 와 같은, 다양한 메모리 디바이스들 중 임의의 것에 의해 형성될 수도 있다. 비디오 데이터 메모리 (40) 및 참조 픽처 메모리 (64) 는 동일한 메모리 디바이스 또는 별개의 메모리 디바이스들에 의해 제공될 수도 있다. 다양한 예들에서, 비디오 데이터 메모리 (40) 는 비디오 인코더 (20) 의 다른 컴포넌트들과 온-칩 (on-chip) 일 수도 있고, 또는 이들 컴포넌트들에 대해 오프-칩 (off-chip) 일 수도 있다.
비디오 인코더 (20) 는 비디오 데이터를 수신하고, 파티셔닝 유닛 (미도시) 은 데이터를 비디오 블록들로 파티셔닝한다. 이 파티셔닝은 슬라이스들, 타일들, 또는 다른 보다 큰 유닛들로의 파티셔닝 뿐만 아니라, 비디오 블록 파티셔닝 (예를 들어, 매크로블록 파티션들 및 파티션들의 서브-블록들) 을 또한 포함할 수도 있다. 비디오 인코더 (20) 는 인코딩될 비디오 슬라이스 내의 비디오 블록들을 인코딩하는 컴포넌트들을 일반적으로 예시한다. 슬라이스는 다수의 비디오 블록들로 (그리고 가능하다면 타일들이라고 지칭되는 비디오 블록들의 세트들로) 분할될 수도 있다. 예측 프로세싱 유닛 (42) 은 에러 결과들 (예를 들어, 코딩 레이트 및 왜곡의 레벨) 에 기초하여 현재 비디오 블록에 대해, 복수의 가능한 코딩 모드들 중 하나, 예컨대 복수의 인트라 코딩 모드들 (인트라-예측 코딩 모드들) 중 하나 또는 복수의 인터 코딩 모드들 (인터-예측 코딩 모드들) 중 하나를 선택할 수도 있다. 예측 프로세싱 유닛 (42) 은 결과적인 인트라-코딩된 또는 인터-코딩된 블록을 합산기 (50) 에 제공하여 잔차 블록 데이터를 생성하고, 합산기 (62) 에 제공하여 참조 픽처로서의 이용을 위해 인코딩된 블록을 재구성할 수도 있다.
예측 프로세싱 유닛 (42) 내의 인트라 예측 유닛 (48) 은 공간적 압축을 제공하기 위해 코딩될 현재 블록과 동일한 프레임 또는 슬라이스에서의 하나 이상의 이웃하는 블록들에 관련된 현재 비디오 블록의 인트라-예측 코딩을 수행할 수도 있다. 예측 프로세싱 유닛 (42) 내의 모션 및 디스패리티 추정 유닛 (44) 및 모션 및 디스패리티 보상 유닛 (46) 은 시간적 압축을 제공하기 위해 하나 이상의 참조 픽처들에서의 하나 이상의 예측 블록들에 관련된 현재 비디오 블록의 인터-예측 코딩을 수행한다.
모션 및 디스패리티 추정 유닛 (44) 은 비디오 시퀀스에 대한 미리 결정된 패턴에 따라 비디오 슬라이스에 대한 인터-예측 모드를 결정하도록 구성될 수도 있다. 미리 결정된 패턴은 시퀀스에서의 비디오 슬라이스들을 P 슬라이스들 또는 B 슬라이스들로서 지정할 수도 있다. 모션 및 디스패리티 추정 유닛 (44) 및 모션 및 디스패리티 보상 유닛 (46) 은 고도로 통합될 수도 있지만, 개념적인 목적들을 위해 개별적으로 예시된다. 모션 및 디스패리티 추정 유닛 (44) 에 의해 수행된 모션 추정은 비디오 블록들에 대한 모션을 추정하는 모션 벡터들을 생성하는 프로세스이다. 예를 들어, 모션 벡터는 참조 픽처 내의 예측 블록에 관련된 현재 비디오 프레임 또는 픽처 내의 비디오 블록의 변위를 나타낼 수도 있다.
예측 블록은, 절대차의 합 (sum of absolute difference; SAD), 제곱차의 합 (sum of square difference; SSD), 또는 다른 차이 메트릭들에 의해 결정될 수도 있는 픽셀 차이의 관점에서 코딩될 비디오 블록과 가깝게 매칭시키기 위해 구해지는 블록이다. 일부 예들에서, 비디오 인코더 (20) 는 참조 픽처 메모리 (64) 에 저장된 참조 픽처들의 서브-정수 픽셀 포지션들에 대한 값들을 계산할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 참조 픽처의 1/4 픽셀 포지션들, 1/8 픽셀 포지션들, 또는 다른 분수 픽셀 포지션들의 값들을 보간할 수도 있다. 따라서, 모션 및 디스패리티 추정 유닛 (44) 은 전체 픽셀 포지션들 및 분수 픽셀 포지션들에 관련된 모션 검색을 수행할 수도 있고, 분수 픽셀 정밀도를 갖는 모션 벡터를 출력할 수도 있다.
모션 및 디스패리티 추정 유닛 (44) 은 비디오 블록의 포지션을 참조 픽처의 예측 블록의 포지션과 비교함으로써 인터-코딩된 (인터-예측 코딩된) 슬라이스에서의 비디오 블록에 대한 모션 벡터를 계산한다. 참조 픽처는 제 1 참조 픽처 리스트 (RefPicList0) 또는 제 2 참조 픽처 리스트 (RefPicList1) 로부터 선택될 수도 있고, 이들 각각은 참조 픽처 메모리 (64) 에 저장된 하나 이상의 참조 픽처들을 식별한다. 모션 및 디스패리티 추정 유닛 (44) 은 계산된 모션 벡터를 엔트로피 인코딩 유닛 (56) 및 모션 및 디스패리티 보상 유닛 (46) 에 전송한다.
모션 및 디스패리티 보상 유닛 (46) 에 의해 수행된 모션 보상은 모션 추정에 의해 결정된 모션 벡터에 기초하여 예측 블록을 페칭 (fetching) 하거나 생성하여, 가능하다면 서브-픽셀 정밀도로 보간들을 수행하는 것을 수반할 수도 있다. 현재 비디오 블록에 대한 모션 벡터의 수신시, 모션 및 디스패리티 보상 유닛 (44) 은 참조 픽처 리스트들 중 하나에서 모션 벡터가 가리키는 예측 블록을 로케이팅할 수도 있다. 비디오 인코더 (20) 는 코딩되고 있는 현재 비디오 블록의 픽셀 값들로부터 예측 블록의 픽셀 값들을 감산하여 픽셀 차이 값들을 형성함으로써 잔차 비디오 블록을 형성한다. 픽셀 차이 값들은 블록에 대한 잔차 데이터를 형성하고, 루마 및 크로마 차이 컴포넌트들 양쪽을 포함할 수도 있다. 합산기 (50) 는 이 감산 동작을 수행하는 컴포넌트 또는 컴포넌트들을 표현한다. 모션 및 디스패리티 보상 유닛 (46) 은 또한, 비디오 슬라이스의 비디오 블록들을 디코딩함에 있어서 비디오 디코더 (30) 에 의한 이용을 위해 비디오 슬라이스 및 비디오 블록들과 연관된 신택스 엘리먼트들을 생성할 수도 있다.
인트라 예측 유닛 (48) 은, 상술된 바와 같이, 모션 및 디스패리티 추정 유닛 (44) 및 모션 및 디스패리티 보상 유닛 (46) 에 의해 수행된 인터-예측에 대한 대안으로서, 현재 블록을 인트라-예측할 수도 있다. 특히, 인트라 예측 유닛 (48) 은 현재 블록을 인코딩하는데 이용하기 위한 인트라-예측 모드를 결정할 수도 있다. 일부 예들에서, 인트라 예측 유닛 (48) 은, 예를 들어, 별개의 인코딩 패스 (encoding pass) 들 동안, 다양한 인트라-예측 모드들을 이용하여 현재 블록을 인코딩할 수도 있고, 인트라 예측 유닛 (48) (또는 일부 예들에서는, 모드 선택 유닛) 은 테스팅된 모드들로부터 이용하기에 적절한 인트라-예측 모드를 선택할 수도 있다. 예를 들어, 인트라 예측 유닛 (48) 은 다양한 테스팅된 인트라-예측 모드들에 대한 레이트-왜곡 분석을 이용하여 레이트-왜곡 값들을 계산할 수도 있고, 테스팅된 모드들 중에서 최상의 레이트-왜곡 특성들을 갖는 인트라-예측 모드를 선택할 수도 있다. 레이트-왜곡 분석은 일반적으로, 인코딩된 블록을 생성하기 위해 이용된 비트 레이트 (즉, 비트들의 수) 뿐만 아니라, 인코딩된 블록과, 인코딩된 블록을 생성하기 위해 인코딩되었던 오리지널의 인코딩되지 않은 블록과의 사이의 왜곡 (또는 에러) 의 양을 결정한다. 인트라 예측 유닛 (48) 은 어떠한 인트라-예측 모드가 블록에 대한 최상의 레이트-왜곡 값을 나타내는지를 결정하기 위해 다양한 인코딩된 블록들에 대한 왜곡들 및 레이트들로부터 비율들을 계산할 수도 있다.
어떤 경우에도, 블록에 대한 인트라-예측 모드를 선택한 후에, 인트라 예측 유닛 (48) 은 블록에 대한 선택된 인트라-예측 모드를 나타내는 정보를 엔트로피 인코딩 유닛 (56) 에 제공할 수도 있다. 엔트로피 인코딩 유닛 (56) 은 본 개시물의 기법들에 따라 선택된 인트라-예측 모드를 나타내는 정보를 인코딩할 수도 있다. 비디오 인코더 (20) 는, 복수의 인트라-예측 모드 인덱스 테이블들 및 복수의 변경된 인트라-예측 모드 인덱스 테이블들 (또한 코드워드 맵핑 테이블들이라고도 지칭됨) 을 포함할 수도 있는 송신된 비트스트림 구성 데이터에, 다양한 블록들에 대한 인코딩 콘텍스트들의 정의들과, 콘텍스트들의 각각에 대해 이용하기 위한 가장 가능성있는 인트라-예측 모드, 인트라-예측 모드 인덱스 테이블, 및 변경된 인트라-예측 모드 인덱스 테이블의 표시들을 포함할 수도 있다.
예측 프로세싱 유닛 (42) 이 인터-예측 또는 인트라-예측 중 어느 하나를 통해 현재 비디오 블록에 대한 예측 블록을 생성한 후에, 비디오 인코더 (20) 는 현재 비디오 블록으로부터 예측 블록을 감산함으로써 잔차 비디오 블록을 형성한다. 잔차 블록에서의 잔차 비디오 데이터는 변환 프로세싱 유닛 (52) 에 적용될 수도 있다. 변환 프로세싱 유닛 (52) 은 이산 코사인 변환 (discrete cosine transform; DCT) 또는 개념적으로 유사한 변환과 같은 변환을 이용하여 잔차 비디오 데이터를 잔차 변환 계수들로 변환한다. 변환 프로세싱 유닛 (52) 은 잔차 비디오 데이터를 픽셀 도메인으로부터, 주파수 도메인과 같은 변환 도메인으로 컨버팅할 수도 있다.
변환 프로세싱 유닛 (52) 은 결과적인 변환 계수들을 양자화 프로세싱 유닛 (54) 에 전송할 수도 있다. 양자화 프로세싱 유닛 (54) 은 비트 레이트를 더욱 감소시키기 위해 변환 계수들을 양자화한다. 양자화 프로세스는 계수들의 일부 또는 전부와 연관된 비트 심도를 감소시킬 수도 있다. 양자화의 정도는 양자화 파라미터를 조정함으로써 변경될 수도 있다. 일부 예들에서, 양자화 프로세싱 유닛 (54) 은 그 후에 양자화된 변환 계수들을 포함하는 매트릭스의 스캔을 수행할 수도 있다. 대안적으로, 엔트로피 인코딩 유닛 (56) 이 스캔을 수행할 수도 있다.
양자화에 후속하여, 엔트로피 인코딩 유닛 (56) 은 양자화된 변환 계수들을 엔트로피 인코딩한다. 예를 들어, 엔트로피 인코딩 유닛 (56) 은 콘텍스트 적응 가변 길이 코딩 (CAVLC), 콘텍스트 적응 이진 산술 코딩 (CABAC), 신택스-기반 콘텍스트-적응 이진 산술 코딩 (SBAC), 확률 간격 파티셔닝 엔트로피 (PIPE) 코딩 또는 다른 엔트로피 인코딩 방법론 또는 기법을 수행할 수도 있다. 엔트로피 인코딩 유닛 (56) 에 의한 엔트로피 인코딩에 후속하여, 인코딩된 비트스트림은 비디오 디코더 (30) 로 송신될 수도 있거나, 또는 비디오 디코더 (30) 에 의한 추후 송신 또는 취출을 위해 아카이브될 수도 있다. 엔트로피 인코딩 유닛 (56) 은 또한, 코딩 중인 현재 비디오 슬라이스에 대한 모션 벡터들 및 다른 신택스 엘리먼트들을 엔트로피 인코딩할 수도 있다.
역 양자화 프로세싱 유닛 (58) 및 역 변환 프로세싱 유닛 (60) 은 참조 픽처의 참조 블록으로서의 추후 이용을 위해 픽셀 도메인에서 잔차 블록을 재구성하기 위해 역 양자화 및 역 변환을 각각 적용한다. 모션 및 디스패리티 보상 유닛 (46) 은 잔차 블록을 참조 픽처 리스트들 중 하나 내에서의 참조 픽처들 중 하나의 참조 픽처의 예측 블록에 가산함으로써 참조 블록을 계산할 수도 있다. 모션 및 디스패리티 보상 유닛 (46) 은 또한 하나 이상의 보간 필터들을 그 재구성된 잔차 블록에 적용하여 모션 추정에의 이용을 위한 서브-정수 픽셀 값들을 계산할 수도 있다. 합산기 (62) 는 재구성된 잔차 블록을 모션 및 디스패리티 보상 유닛 (46) 에 의해 생성되는 모션 보상된 예측 블록에 가산하여, 참조 픽처 메모리 (64) 에의 저장을 위한 참조 블록을 생성한다. 참조 블록은 후속 비디오 프레임 또는 픽처에서의 블록을 인터-예측하기 위한 참조 블록으로서 모션 및 디스패리티 추정 유닛 (44) 및 모션 및 디스패리티 보상 유닛 (46) 에 의해 이용될 수도 있다.
이러한 방식으로, 비디오 인코더 (20) 는 본 개시물에서 설명되는 하나 이상의 예시적인 기법들을 구현하도록 구성될 수도 있는 비디오 인코더의 예이다. 예를 들어, 비디오 데이터 메모리 (40) 는 비디오 데이터를 저장한다. 비디오 데이터는 의존성 뷰의 텍스처 비디오 컴포넌트와 그 텍스처 뷰 컴포넌트에 대응하는 심도 뷰 컴포넌트를 포함할 수도 있고, 이 컴포넌트들 각각은 비디오 인코더 (20) 가 3D-AVC 준수 또는 3D-HEVC 준수 비디오 코딩 프로세스에서 인코딩하기 위한 것이다.
본 개시물에서 설명되는 기법들에서, 비디오 인코더 (20) 는, 3D-AVC 준수 또는 3D-HEVC 준수 비디오 코딩 프로세스에서, 비디오 데이터의 의존성 뷰의 텍스처 뷰 컴포넌트를 인코딩하도록 구성되는 하나 이상의 프로세서들을 포함할 수도 있다. 상술된 바와 같이, 3D-AVC 에서의 각각의 뷰는 텍스처 뷰 컴포넌트 및 심도 뷰 컴포넌트를 포함한다. 3D-AVC 에서는 하나의 기본 뷰 및 하나 이상의 향상 또는 의존성 뷰들이 존재하는데, 여기서 하나 이상의 향상 또는 의존성 뷰들의 텍스처 뷰 컴포넌트들은 인터-뷰 예측될 수도 있다.
텍스처 뷰 컴포넌트를 인코딩하기 위해, 비디오 인코더 (20) 는 텍스처 뷰 컴포넌트에서 현재 블록의 하나 이상의 이웃 블록들의 모션 정보를 평가하여, 적어도 하나의 이웃 블록이 의존성 뷰 이외의 뷰에서의 인터-뷰 참조 픽처를 참조하는 디스패리티 모션 벡터로 인터-뷰 예측되는지 여부를 결정하도록 구성될 수도 있다. 비디오 인코더 (20) 는 이웃 블록들 중 하나의 이웃 블록에 대한 디스패리티 모션 벡터에 기초하여 현재 블록에 대한 디스패리티 벡터를 도출할 수도 있다. 텍스처-우선 코딩의 경우, 비디오 인코더 (20) 는 텍스처 뷰 컴포넌트에 대응하는 비디오 데이터의 심도 뷰 컴포넌트를, 텍스처 뷰 컴포넌트의 인코딩에 후속하여, 인코딩할 수도 있다.
일부 예들에서, 비디오 인코더 (20) 의 예측 프로세싱 유닛 (42) 은 본 개시물에서 설명되는 예들을 구현하도록 구성된 프로세서의 하나의 예일 수도 있다. 일부 예들에서, 예측 프로세싱 유닛 (42) 이외의 유닛 (예를 들어, 하나 이상의 프로세서들) 은 상술된 예들을 구현할 수도 있다. 일부 예들에서, 예측 프로세싱 유닛 (42) 은 비디오 인코더 (20) 의 하나 이상의 다른 유닛들과 함께 상술된 예들을 구현할 수도 있다. 일부 예들에서, 비디오 인코더 (20) 의 프로세서 (도 15 에 미도시) 는, 단독으로 또는 비디오 인코더 (20) 의 다른 프로세서들과 함께, 상술된 예들을 구현할 수도 있다.
도 16 은 본 개시물에서 설명되는 ARP 기법들을 구현할 수도 있는 비디오 디코더의 예를 예시하는 블록도이다. 도 16 은 본 개시물에서 설명되는 기법들을 구현할 수도 있는 비디오 디코더의 예를 예시하는 블록도이다. 예를 들어, 도 16 은 3D-AVC 준수 비디오 디코더 또는 3D-HEVC 준수 비디오 디코더 중 어느 하나를 표현할 수도 있는 비디오 디코더 (30) 를 예시한다. 비디오 디코더 (30) 는 PU들, TU들, 및 CU들과 같은 소정의 HEVC 기술용어를 사용하여 설명될 것이지만, 비디오 디코더 (30) 를 참조하여 설명되는 기법들은 H.264 표준에 따라 코딩된 비디오로 또한 수행될 수도 있다는 것이 이해되어야 한다.
비디오 디코더 (30) 는 인터-예측 디코딩 또는 인트라-예측 디코딩을 수행할 수도 있다. 도 16 은 비디오 디코더 (30) 를 예시한다. 도 16 의 예에서, 비디오 디코더 (30) 는 비디오 데이터 메모리 (69), 엔트로피 디코딩 유닛 (70), 예측 프로세싱 유닛 (71), 역 양자화 프로세싱 유닛 (76), 역 변환 프로세싱 유닛 (78), 합산기 (80), 및 참조 픽처 메모리 (82) 를 포함한다. 예측 프로세싱 유닛 (71) 은 모션 및 디스패리티 보상 유닛 (72) 및 인트라 예측 유닛 (74) 을 포함한다. 비디오 디코더 (30) 는, 일부 예들에서, 도 15 로부터의 비디오 인코더 (20) 에 대해 설명된 인코딩 패스와는 일반적으로 상반되는 디코딩 패스를 수행할 수도 있다.
비디오 데이터 메모리 (69) 는 비디오 디코더 (30) 의 컴포넌트들에 의해 디코딩될, 인코딩된 비디오 비트스트림과 같은 비디오 데이터를 저장할 수도 있다. 비디오 데이터 메모리 (69) 에 저장된 비디오 데이터는, 예를 들어, 저장 디바이스 (34) 로부터, 예를 들어, 카메라와 같은 로컬 비디오 소스로부터, 비디오 데이터의 유선 또는 무선 네트워크 통신을 통해, 또는 물리적 데이터 저장 매체들을 액세스함으로써 획득될 수도 있다. 비디오 데이터 메모리 (69) 는 인코딩된 비디오 비트스트림으로부터의 인코딩된 비디오 데이터를 저장하는 코딩된 픽처 버퍼 (CPB) 를 형성할 수도 있다.
참조 픽처 메모리 (82) 는 (예를 들어, 인트라- 또는 인터-코딩 모드들에서) 비디오 디코더 (30) 에 의해 비디오 데이터를 디코딩함에 있어서의 이용을 위해 참조 비디오 데이터를 저장하는 디코딩된 픽처 버퍼 (DPB) 의 하나의 예이다. 비디오 데이터 메모리 (69) 및 참조 픽처 메모리 (82) 는 동기 DRAM (SDRAM), 자기저항 RAM (MRAM), 저항 RAM (RRAM), 또는 다른 타입들의 메모리 디바이스들을 포함하는, 동적 랜덤 액세스 메모리 (DRAM) 와 같은, 다양한 메모리 디바이스들 중 임의의 것에 의해 형성될 수도 있다. 비디오 데이터 메모리 (69) 및 참조 픽처 메모리 (82) 는 동일한 메모리 디바이스 또는 별개의 메모리 디바이스들에 의해 제공될 수도 있다. 다양한 예들에서, 비디오 데이터 메모리 (69) 는 비디오 디코더 (30) 의 다른 컴포넌트들과 온-칩일 수도 있고, 또는 이들 컴포넌트들에 대해 오프-칩일 수도 있다.
디코딩 프로세스 동안, 비디오 디코더 (30) 는 인코딩된 비디오 슬라이스의 비디오 블록들 및 연관된 신택스 엘리먼트들을 표현하는 인코딩된 비디오 비트스트림을 비디오 인코더 (20) 로부터 수신한다. 비디오 디코더 (30) 의 엔트로피 디코딩 유닛 (70) 은 비트스트림을 엔트로피 디코딩하여, 양자화된 계수들, 모션 벡터들, 및 다른 신택스 엘리먼트들을 생성한다. 엔트로피 디코딩 유닛 (70) 은 모션 벡터들 및 다른 신택스 엘리먼트들을 예측 프로세싱 유닛 (71) 으로 포워딩한다. 비디오 디코더 (30) 는 신택스 엘리먼트들을 비디오 슬라이스 레벨 및/또는 비디오 블록 레벨에서 수신할 수도 있다.
비디오 슬라이스가 인트라-코딩된 (I) 슬라이스로서 코딩될 때, 예측 프로세싱 유닛 (71) 의 인트라 예측 유닛 (74) 은 시그널링된 인트라-예측 모드 및 현재 프레임 또는 픽처의 이전에 디코딩된 블록들로부터의 데이터에 기초하여, 현재 비디오 슬라이스의 비디오 블록에 대한 예측 데이터를 생성할 수도 있다. 비디오 프레임이 인터-코딩된 (즉, B 또는 P) 슬라이스로서 코딩될 때, 예측 프로세싱 유닛 (71) 의 모션 및 디스패리티 보상 유닛 (72) 은 엔트로피 디코딩 유닛 (70) 으로부터 수신된 모션 벡터들 및 다른 신택스 엘리먼트들에 기초하여 현재 비디오 슬라이스의 비디오 블록에 대한 예측 블록들을 생성한다. 예측 블록들은 참조 픽처 리스트들 중 하나 내의 참조 픽처들 중 하나로부터 생성될 수도 있다. 비디오 디코더 (30) 는 참조 픽처 메모리 (82) 에 저장된 참조 픽처들에 기초하여 디폴트 구성 기법들을 이용하여 참조 픽처 리스트들 (RefPicList0 및 RefPicList1) 을 구성할 수도 있다.
모션 및 디스패리티 보상 유닛 (72) 은 모션 벡터들 및 다른 신택스 엘리먼트들을 파싱하여 현재 비디오 슬라이스의 비디오 블록에 대한 예측 정보를 결정하고, 그 예측 정보를 이용하여 디코딩 중인 현재 비디오 블록에 대한 예측 블록들을 생성한다. 예를 들어, 모션 및 디스패리티 보상 유닛 (72) 은, 그 수신된 신택스 엘리먼트들 중 일부를 이용하여 비디오 슬라이스의 비디오 블록들을 코딩하기 위해 이용되는 예측 모드 (예를 들어, 인트라- 또는 인터-예측), 인터-예측 슬라이스 타입 (예를 들어, B 슬라이스 또는 P 슬라이스), 슬라이스에 대한 참조 픽처 리스트들 중 하나 이상에 대한 구성 정보, 슬라이스의 각각의 인터-인코딩된 비디오 블록에 대한 모션 벡터들, 슬라이스의 각각의 인터-코딩된 비디오 블록에 대한 인터-예측 상태, 및 현재 비디오 슬라이스에서의 비디오 블록들을 디코딩하기 위한 다른 정보를 결정한다.
모션 및 디스패리티 보상 유닛 (72) 은 본 개시물에서 설명되는 ARP 기법들을 수행하도록 구성될 수도 있다. 하나의 예로서, ARP 를 이용하여 코딩되는 양방향으로 예측된 현재 블록에 대해, 모션 및 디스패리티 보상 유닛 (72) 은 현재 블록에 대한 제 1 디스패리티 모션 벡터를 결정하고, 그 제 1 디스패리티 모션 벡터를 이용하여, 제 2 뷰에서 현재 블록의 제 1 대응 블록을 로케이팅할 수도 있다. 모션 및 디스패리티 보상 유닛 (72) 은 또한 현재 블록에 대한 제 2 디스패리티 모션 벡터를 결정하고, 그 제 2 디스패리티 모션 벡터를 이용하여, 제 3 뷰에서 현재 블록의 제 2 대응 블록을 로케이팅할 수도 있다. 제 1 대응 블록 및 제 2 대응 블록의 모션 정보에 대해, 모션 및 디스패리티 보상 유닛 (72) 은 단일 모션 벡터를 결정할 수도 있다. 모션 및 디스패리티 보상 유닛 (72) 은 이 단일 모션 벡터를 이용하여 현재 블록의 참조 블록, 제 1 대응 블록의 참조 블록, 및 제 2 대응 블록의 참조 블록을 결정할 수도 있다. 모션 및 디스패리티 보상 유닛 (72) 은 제 1 대응 블록, 현재 블록의 참조 블록, 및 제 1 대응 블록의 참조 블록에 기초하여 제 1 예측 블록을 생성하고, 제 2 대응 블록, 현재 블록의 참조 블록, 및 제 2 대응 블록의 참조 블록에 기초하여 제 2 예측 블록을 생성할 수도 있다.
모션 및 디스패리티 보상 유닛 (72) 은 또한, 예를 들어, 모션 및 디스패리티 보상 유닛 (72) 이 제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것 그리고 현재 블록이 양방향성으로 예측되는 것을 결정할 수도 있도록 구성될 수도 있다. 현재 블록의 루마 블록에 대해, 모션 및 디스패리티 보상 유닛 (72) 은 루마 블록의 제 1 예측 블록을 결정하기 위해 제 1 예측 방향에 대해 ARP 를 수행하고, 루마 블록의 제 2 예측 블록을 결정하기 위해 제 2 예측 방향에 대해 ARP 를 수행할 수도 있다. 현재 블록의 크로마 블록에 대해, 모션 및 디스패리티 보상 유닛 (72) 은 크로마 블록의 제 1 예측 블록을 결정하기 위해 제 1 예측 방향 또는 제 2 예측 방향 중 하나의 예측 방향에 대해서만 ARP 를 수행할 수도 있다.
모션 및 디스패리티 보상 유닛 (72) 은 또한, 예를 들어, 모션 및 디스패리티 보상 유닛 (72) 이 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것을 결정할 수도 있도록 구성될 수도 있다. 현재 블록의 루마 블록에 대해, 모션 및 디스패리티 보상 유닛 (72) 은 루마 블록의 예측 블록을 결정하기 위해 ARP 를 수행할 수도 있다. 현재 블록의 크로마 블록에 대해, 모션 및 디스패리티 보상 유닛 (72) 은 크로마 블록의 사이즈에 기초하여 크로마 블록에 대해 ARP 를 수행할지 여부를 결정할 수도 있다. 하나의 예로서, 모션 및 디스패리티 보상 유닛 (72) 은 크로마 블록의 사이즈가 8x8 인 것에 응답하여 ARP 를 디스에이블시킬 수도 있다. 다른 예로서, 모션 및 디스패리티 보상 유닛 (72) 은 크로마 블록의 사이즈가 32x32 보다 더 작은 것에 응답하여 ARP 를 디스에이블시킬 수도 있다. 다른 예로서, 모션 및 디스패리티 보상 유닛 (72) 은 크로마 블록의 사이즈가 NxN 과 동일하고 현재 블록이 서브-PU 를 포함하는 것에 응답하여 ARP 를 디스에이블시킬 수도 있고, 여기서 N 은 8, 16, 32, 또는 64 중 하나와 동일하다. 다른 예로서, 모션 및 디스패리티 보상 유닛 (72) 은 크로마 블록킹의 사이즈가 NxN 이고 현재 블록이 PU 를 포함하는 것에 응답하여 ARP 를 수행할 수도 있다. 다른 예로서, 모션 및 디스패리티 보상 유닛 (72) 은 크로마 블록의 사이즈가 NxN 이고 현재 블록이 서브-PU 를 포함하는 것에 응답하여 ARP 를 디스에이블시킬 수도 있고, 크로마 블록킹의 사이즈가 MxM 이고 현재 블록이 PU 를 포함하는 것에 응답하여 ARP 를 수행할 수도 있고, 여기서 N 및 M 은 8, 16, 32, 및 64 중 하나와 동일하고, 여기서 M 은 N 보다 더 작다.
모션 및 디스패리티 보상 유닛 (72) 은 또한 보간 필터들에 기초하여 보간을 수행할 수도 있다. 모션 및 디스패리티 보상 유닛 (72) 은 비디오 블록들의 인코딩 동안 비디오 인코더 (20) 에 의해 이용되는 것과 같은 보간 필터들을 이용하여 참조 블록들의 서브-정수 픽셀들에 대해 보간된 값들을 계산할 수도 있다. 이 경우, 모션 및 디스패리티 보상 유닛 (72) 은 수신된 신택스 엘리먼트들로부터 비디오 인코더 (20) 에 의해 이용되는 보간 필터들을 결정할 수도 있고 그 보간 필터들을 이용하여 예측 블록들을 생성할 수도 있다.
역 양자화 유닛 (76) 은 비트스트림에서 제공되며 엔트로피 디코딩 유닛 (70) 에 의해 디코딩된 양자화된 변환 계수들을 역 양자화 (즉, 양자화해제) 한다. 역 양자화 프로세스는 양자화의 정도, 그리고, 이와 마찬가지로, 적용되어야 하는 역 양자화의 정도를 결정하기 위해, 비디오 슬라이스에서의 각각의 비디오 블록에 대해 비디오 인코더 (20) 에 의해 계산된 양자화 파라미터의 이용을 포함할 수도 있다. 역 변환 프로세싱 유닛 (78) 은, 역 변환 (예를 들어, 역 DCT, 역 정수 변환, 또는 개념적으로 유사한 역 변환 프로세스) 을 변환 계수들에 적용하여 픽셀 도메인에서 잔차 블록들을 생성한다.
모션 및 디스패리티 보상 유닛 (72) 이 모션 벡터들 및 다른 신택스 엘리먼트들에 기초하여 현재 비디오 블록에 대한 예측 블록을 생성한 후에, 비디오 디코더 (30) 는 역 변환 프로세싱 유닛 (78) 으로부터의 잔차 블록들을 모션 및 디스패리티 보상 유닛 (72) 에 의해 생성된 대응하는 예측 블록들과 합산함으로써, 디코딩된 비디오 블록을 형성한다. 합산기 (80) 는 이 합산 동작을 수행하는 컴포넌트 또는 컴포넌트들을 표현한다. 원한다면, 디블록킹 필터는 또한 디코딩된 블록들을 필터링하기 위해 적용되어 블록킹 아티팩트들을 제거할 수도 있다. (코딩 루프 중에 또는 코딩 루프 후에) 다른 루프 필터들이 또한 픽셀 천이들을 평활화하거나, 또는 이와 다르게는 비디오 품질을 개선시키기 위해 이용될 수도 있다. 주어진 픽처에서 디코딩된 비디오 블록들은 그 후에 후속 모션 보상을 위해 이용되는 참조 픽처들을 저장하는 참조 픽처 메모리 (82) 에 저장된다. 참조 픽처 메모리 (82) 는 또한 도 1 의 디스플레이 디바이스 (32) 와 같은 디스플레이 디바이스 상의 추후 프레젠테이션을 위해 디코딩된 비디오를 저장한다.
이러한 방식으로, 비디오 디코더 (30) 는 본 개시물에서 설명되는 하나 이상의 예시적인 기법들을 구현하도록 구성될 수도 있는 비디오 디코더의 예이다. 예를 들어, 비디오 데이터 메모리 (69) 는 비디오 데이터를 저장한다. 비디오 데이터는 비디오 디코더 (30) 가 의존성 뷰의 텍스처 비디오 컴포넌트와 그 텍스처 뷰 컴포넌트에 대응하는 심도 뷰 컴포넌트를 디코딩할 수 있는 정보를 포함할 수도 있고, 이 컴포넌트들 각각은 비디오 인코더 (20) 가 3D-AVC 준수 또는 3D-HEVC 준수 비디오 코딩 프로세스에서 인코딩한다.
본 개시물에서 설명되는 기법들에서, 비디오 디코더 (30) 는, 3D-AVC 준수 또는 3D-HEVC 준수 비디오 코딩 프로세스에서, 비디오 데이터의 의존성 뷰의 텍스처 뷰 컴포넌트를 디코딩하도록 구성되는 하나 이상의 프로세서들을 포함할 수도 있다. 텍스처 뷰 컴포넌트를 디코딩하기 위해, 비디오 디코더 (30) 는 텍스처 뷰 컴포넌트에서 현재 블록의 하나 이상의 이웃 블록들의 모션 정보를 평가하여, 적어도 하나의 이웃 블록이 의존성 뷰 이외의 뷰에서의 인터-뷰 참조 픽처를 참조하는 디스패리티 모션 벡터로 인터-뷰 예측되는지 여부를 결정하도록 구성될 수도 있다. 비디오 디코더 (30) 는 이웃 블록들 중 하나의 이웃 블록에 대한 디스패리티 모션 벡터에 기초하여 현재 블록에 대한 디스패리티 벡터를 도출할 수도 있다. 텍스처-우선 코딩의 경우, 비디오 디코더 (30) 는 텍스처 뷰 컴포넌트에 대응하는 비디오 데이터의 심도 뷰 컴포넌트를, 텍스처 뷰 컴포넌트의 디코딩에 후속하여, 디코딩할 수도 있다.
일부 예들에서, 비디오 디코더 (30) 의 예측 프로세싱 유닛 (71) 은 본 개시물에서 설명되는 예들을 구현하도록 구성된 프로세서의 하나의 예일 수도 있다. 일부 예들에서, 예측 프로세싱 유닛 (71) 이외의 유닛 (예를 들어, 하나 이상의 프로세서들) 은 상술된 예들을 구현할 수도 있다. 일부 예들에서, 예측 프로세싱 유닛 (71) 은 비디오 디코더 (30) 의 하나 이상의 다른 유닛들과 함께 상술된 예들을 구현할 수도 있다. 일부의 또 다른 예들에서, 비디오 디코더 (30) 의 프로세서 (도 16 에 미도시) 는, 단독으로 또는 비디오 디코더 (30) 의 다른 프로세서들과 함께, 상술된 예들을 구현할 수도 있다.
도 16 은 본 개시물의 기법들에 따른 비디오 블록을 예측하는 예시적인 방법을 도시한다. 도 16 의 기법들은, 예를 들어, 비디오 디코더 (30) 의 모션 및 디스패리티 보상 유닛 (72) 에 의해 또는 비디오 인코더 (20) 의 모션 및 디스패리티 추정 유닛 (44) 또는 모션 및 디스패리티 보상 유닛 (46) 에 의해 수행될 수도 있다. 도 16 의 기법들에 따르면, 비디오 코더는 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것 그리고 현재 블록이 양방향성으로 예측되는 것을 결정할 수도 있다 (250). 비디오 코더는 현재 블록에 대한 제 1 디스패리티 모션 벡터 및 제 2 디스패리티 모션 벡터를 결정할 수도 있다 (252). 비디오 코더는, 제 1 디스패리티 모션 벡터로, 제 2 뷰에서 현재 블록의 제 1 대응 블록을 로케이팅할 수도 있다 (254). 비디오 코더는 또한, 제 2 디스패리티 모션 벡터로, 제 3 뷰에서 현재 블록의 제 2 대응 블록을 로케이팅할 수도 있다 (256). 비디오 코더는 현재 블록의 제 1 대응 블록 및 현재 블록의 제 2 대응 블록 중 적어도 하나의 대응 블록의 모션 정보로부터 모션 벡터를 결정할 수도 있다 (258). 모션 벡터를 이용하여, 비디오 코더는 제 1 뷰에서의 현재 블록의 참조 블록, 제 2 뷰에서의 제 1 대응 블록의 참조 블록, 및 제 3 뷰에서의 제 2 대응 블록의 참조 블록을 식별할 수도 있다 (260). 도 17 의 예에서, 제 2 뷰 및 제 3 뷰는 동일한 뷰 또는 상이한 뷰들일 수도 있지만 통상적으로 제 1 뷰와는 상이할 것이다.
비디오 코더는 제 1 대응 블록, 현재 블록의 참조 블록, 및 제 1 대응 블록의 참조 블록에 기초하여 제 1 예측 블록을 생성할 수도 있다 (262). 비디오 코더는 제 2 대응 블록, 현재 블록의 참조 블록, 및 제 2 대응 블록의 참조 블록에 기초하여 제 2 예측 블록을 생성할 수도 있다 (264). 비디오 코더는, 예를 들어, 현재 블록의 참조 블록과 제 2 대응 블록의 참조 블록 사이의 차이에 대응하는 잔차 예측자를 결정하는 것에 의해 제 2 예측 블록을 생성할 수도 있다. 비디오 코더는 잔차 예측자를 제 2 대응 블록에 가산하여 예측 블록을 생성할 수도 있고, 잔차 예측자를 제 2 대응 블록에 가산하기 전에 가중 팩터를 잔차 예측자에 적용할 수도 있다.
비디오 코더는, 예를 들어, 제 1 대응 블록에 대한 모션 벡터가 이용불가능한 것에 응답하여, 모션 벡터에 대해 제로 모션 벡터를 이용하는 것에 의해, 현재 블록의 제 1 대응 블록 및 현재 블록의 제 2 대응 블록 중 적어도 하나의 대응 블록의 모션 정보로부터 모션 벡터를 결정할 수도 있다. 다른 예에서, 비디오 코더는, 현재 블록의 제 1 대응 블록에 대한 모션 벡터가 이용불가능한 것에 응답하여, 모션 벡터로서 현재 블록의 제 2 대응 블록에 대한 모션 벡터를 이용하는 것에 의해, 현재 블록의 제 1 대응 블록 및 현재 블록의 제 2 대응 블록 중 적어도 하나의 대응 블록의 모션 정보로부터 모션 벡터를 결정할 수도 있다. 다른 예에서, 비디오 코더는, 현재 블록의 제 1 대응 블록에 대한 모션 벡터가 이용불가능하고 현재 블록의 제 2 대응 블록에 대한 모션 벡터가 이용불가능한 것에 응답하여, 모션 벡터에 대해 제로 모션 벡터를 이용하는 것에 의해, 현재 블록의 제 1 대응 블록 및 현재 블록의 제 2 대응 블록 중 적어도 하나의 대응 블록의 모션 정보로부터 모션 벡터를 결정할 수도 있다.
일부 코딩 시나리오들 하에서, 비디오 코더는 ARP 를 디스에이블시킬 수도 있다. 예를 들어, 제 2 현재 블록의 제 1 대응 블록에 대한 모션 벡터에 응답한 비디오가 이용불가능하면, 비디오 코더는 ARP 를 디스에이블시킬 수도 있다. 다른 예에서, 제 2 현재 블록의 제 1 대응 블록에 대한 모션 벡터가 이용불가능하고 제 2 현재 블록의 제 2 대응 블록에 대한 모션 벡터가 이용불가능한 것에 응답하여, 비디오 코더는 제 2 현재 블록에 대한 ARP 를 디스에이블시킬 수도 있다.
도 17 은 본 개시물의 기법들에 따른 비디오 블록을 예측하는 예시적인 방법을 도시한다. 도 17 의 기법들은, 예를 들어, 비디오 디코더 (30) 의 모션 및 디스패리티 보상 유닛 (72) 에 의해 또는 비디오 인코더 (20) 의 모션 및 디스패리티 추정 유닛 (44) 또는 모션 및 디스패리티 보상 유닛 (46) 에 의해 수행될 수도 있다. 도 17 의 기법들에 따르면, 비디오 코더는 비디오 코더는 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것 그리고 현재 블록이 양방향성으로 예측되는 것을 결정할 수도 있다 (270). 현재 블록의 루마 블록에 대해, 비디오 코더는 루마 블록의 제 1 예측 블록을 결정하기 위해 제 1 예측 방향에 대해 ARP 를 수행할 수도 있다 (272). 현재 블록의 루마 블록에 대해, 비디오 코더는 루마 블록의 제 2 예측 블록을 결정하기 위해 제 2 예측 방향에 대해 ARP 를 수행할 수도 있다 (274). 현재 블록의 크로마 블록에 대해, 비디오 코더는 크로마 블록의 제 1 예측 블록을 결정하기 위해 제 1 예측 방향 또는 제 2 예측 방향 중 하나의 예측 방향에 대해서만 ARP 를 수행할 수도 있다 (276).
도 18 은 본 개시물의 기법들에 따른 비디오 블록을 예측하는 예시적인 방법을 도시한다. 도 18 의 기법들은, 예를 들어, 비디오 디코더 (30) 의 모션 및 디스패리티 보상 유닛 (72) 에 의해 또는 비디오 인코더 (20) 의 모션 및 디스패리티 추정 유닛 (44) 또는 모션 및 디스패리티 보상 유닛 (46) 에 의해 수행될 수도 있다. 도 18 의 기법들에 따르면, 비디오 코더는 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것을 결정할 수도 있다 (280). 현재 블록의 루마 블록에 대해, 비디오 코더는 루마 블록의 예측 블록을 결정하기 위해 ARP 를 수행할 수도 있다 (282). 현재 블록의 크로마 블록에 대해, 비디오 코더는 크로마 블록의 사이즈에 기초하여 크로마 블록에 대해 ARP 를 수행할지 여부를 결정할 수도 있다.
하나의 예에서, 비디오 코더는 크로마 블록의 사이즈가 8x8 인 것에 응답하여 ARP 를 디스에이블시키는 것에 의해 크로마 블록의 사이즈에 기초하여 크로마 블록에 대해 ARP 를 수행할지 여부를 결정할 수도 있다. 다른 예에서, 비디오 코더는 크로마 블록의 사이즈가 32x32 보다 더 작은 것에 응답하여 ARP 를 디스에이블시키는 것에 의해 크로마 블록의 사이즈에 기초하여 크로마 블록에 대해 ARP 를 수행할지 여부를 결정할 수도 있다. 다른 예에서, 비디오 코더는 크로마 블록의 사이즈가 NxN 과 동일하고 현재 블록이 서브-PU 를 포함하는 것에 응답하여 ARP 를 디스에이블시키는 것에 의해 크로마 블록의 사이즈에 기초하여 크로마 블록에 대해 ARP 를 수행할지 여부를 결정하고, 크로마 블록킹의 사이즈가 NxN 이고 현재 블록이 PU 를 포함하는 것에 응답하여 ARP 를 수행할 수도 있다. N 은, 예를 들어, 8, 16, 32, 또는 64 중 하나와 동일할 수도 있다. 다른 예에서, 비디오 코더는 크로마 블록의 사이즈가 NxN 과 동일하고 현재 블록이 서브-PU 를 포함하는 것에 응답하여 ARP 를 디스에이블시키는 것 그리고 크로마 블록킹의 사이즈가 MxM 이고 현재 블록이 PU 를 포함하는 것에 응답하여 ARP 를 수행하는 것에 의해 크로마 블록의 사이즈에 기초하여 크로마 블록에 대해 ARP 를 수행할지 여부를 결정할 수도 있다. N 및 M 은, 예를 들어, 8, 16, 32, 및 64 중 하나와 동일할 수도 있고, M 은 N 보다 더 작을 수도 있다.
하나 이상의 예들에서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현된 경우, 그 기능들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독가능 매체 상에 저장되거나 그 컴퓨터 판독가능 매체를 통해 송신될 수도 있고 하드웨어 기반 프로세싱 유닛에 의해 실행될 수도 있다. 컴퓨터 판독가능 매체들은, 예를 들어, 통신 프로토콜에 따라, 하나의 장소로부터 다른 장소로의 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하는 통신 매체들 또는 데이터 저장 매체들과 같은 유형의 매체에 대응하는 컴퓨터 판독가능 저장 매체들을 포함할 수도 있다. 이러한 방식으로, 컴퓨터 판독가능 매체들은 일반적으로 (1) 비일시적인 유형의 컴퓨터 판독가능 저장 매체들 또는 (2) 신호 또는 캐리어 파와 같은 통신 매체에 대응할 수도 있다. 데이터 저장 매체들은, 본 개시물에서 설명되는 기법들의 구현을 위해 명령들, 코드 및/또는 데이터 구조들을 취출하기 위해 하나 이상의 컴퓨터들 또는 하나 이상의 프로세서들에 의해 액세스될 수 있는 임의의 가용 매체들일 수도 있다. 컴퓨터 프로그램 제품은 컴퓨터 판독가능 매체를 포함할 수도 있다.
제한이 아닌 예로서, 이러한 컴퓨터 판독가능 저장 매체들은 RAM, ROM, EEPROM, CD-ROM 또는 다른 광 디스크 스토리지, 자기 디스크 스토리지 또는 다른 자기 스토리지 디바이스들, 플래시 메모리, 또는 명령들 또는 데이터 구조들의 형태로 원하는 프로그램 코드를 저장하는데 이용될 수 있으며 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체들을 포함할 수 있다. 또한, 임의의 맥락이 컴퓨터 판독가능 매체로 적절히 지칭된다. 예를 들어, 명령들이 동축 케이블, 광섬유 케이블, 연선 (twisted pair), 디지털 가입자 회선 (DSL), 또는 무선 기술들, 예컨대, 적외선, 무선, 및 마이크로파를 이용하여, 웹사이트, 서버 또는 다른 원격 소스로부터 송신된다면, 동축 케이블, 광섬유 케이블, 연선, DSL, 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들은 그 매체의 정의에 포함된다. 그러나, 컴퓨터 판독가능 저장 매체들 및 데이터 저장 매체들은 연결들, 캐리어 파들, 신호들, 또는 다른 순시적 매체들을 포함하는 것이 아니라, 그 대신에 비-순시적인, 유형의 저장 매체들에 관한 것이라는 것을 이해해야 한다. 디스크 (disk) 및 디스크 (disc) 는, 본 명세서에서 사용되는 바와 같이, 콤팩트 디스크 (CD), 레이저 디스크, 광 디스크, 디지털 다기능 디스크 (DVD), 플로피 디스크 및 블루레이 디스크를 포함하며, 여기서 디스크 (disk) 들은 데이터를 자기적으로 보통 재생하지만, 디스크 (disc) 들은 레이저로 데이터를 광학적으로 재생한다. 또한, 상기의 조합들도 컴퓨터 판독가능 매체들의 범위 내에 포함되어야 한다.
명령들은 하나 이상의 디지털 신호 프로세서 (DSP) 들, 범용 마이크로프로세서들, 주문형 집적 회로 (ASIC) 들, 필드 프로그램가능 로직 어레이 (FPGA) 들, 또는 다른 등가의 집적 또는 이산 로직 회로부와 같은 하나 이상의 프로세서들에 의해 실행될 수도 있다. 이에 따라, 본 명세서에서 사용되는 바와 같은 용어 "프로세서" 는 전술한 구조, 또는 본 명세서에서 설명되는 기법들의 구현에 적합한 임의의 다른 구조 중 임의의 것을 지칭할 수도 있다. 부가적으로, 일부 양태들에서는, 본 명세서에서 설명되는 기능성이 인코딩 및 디코딩을 위해 구성되거나 조합된 코덱 내에 포함되는 전용 하드웨어 및/또는 소프트웨어 모듈들 내에 제공될 수도 있다. 또한, 기법들은 하나 이상의 회로들 또는 로직 엘리먼트들에서 완전히 구현될 수 있다.
본 개시물의 기법들은 무선 핸드셋, 집적 회로 (IC) 또는 IC들의 세트 (예를 들어, 칩셋) 를 포함하는 광범위한 디바이스들 또는 장치들에서 구현될 수도 있다. 다양한 컴포넌트들, 모듈들, 또는 유닛들은 개시된 기법들을 수행하도록 구성된 디바이스들의 기능적 양태들을 강조하기 위해 본 개시물에서 설명되지만, 상이한 하드웨어 유닛들에 의한 실현을 반드시 요구하지는 않는다. 오히려, 상술된 바와 같이, 다양한 유닛들은 코덱 하드웨어 유닛에 조합될 수도 있거나, 또는 적합한 소프트웨어 및/또는 펌웨어와 함께, 상술된 하나 이상의 프로세서들을 포함하는 상호동작하는 하드웨어 유닛들의 콜렉션에 의해 제공될 수도 있다.
다양한 예들이 설명되었다. 이러한 그리고 다른 예들은 다음의 청구항들의 범위 내에 있다.

Claims (26)

  1. 비디오 데이터를 코딩하는 방법으로서,
    제 1 뷰의 현재 블록이 진보된 잔차 예측 (advanced residual prediction; ARP) 모드를 이용하여 코딩되는 것을 결정하는 단계로서, 상기 현재 블록은 양방향성으로 예측되는, 상기 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것을 결정하는 단계;
    상기 현재 블록에 대한 제 1 디스패리티 모션 벡터 및 제 2 디스패리티 모션 벡터를 결정하는 단계;
    상기 제 1 디스패리티 모션 벡터로, 제 2 뷰에서 상기 현재 블록에 대한 제 1 대응 블록을 로케이팅 (locating) 하는 단계;
    상기 제 2 디스패리티 모션 벡터로, 제 3 뷰에서 상기 현재 블록의 제 2 대응 블록을 로케이팅하는 단계;
    상기 현재 블록의 상기 제 1 대응 블록 및 상기 현재 블록의 상기 제 2 대응 블록 중 적어도 하나의 대응 블록의 모션 정보로부터 모션 벡터를 결정하는 단계;
    상기 모션 벡터를 이용하여, 상기 제 1 뷰에서의 상기 현재 블록의 참조 블록, 상기 제 2 뷰에서의 상기 제 1 대응 블록의 참조 블록, 및 상기 제 3 뷰에서의 상기 제 2 대응 블록의 참조 블록을 식별하는 단계;
    상기 제 1 대응 블록, 상기 현재 블록의 참조 블록, 및 상기 제 1 대응 블록의 참조 블록에 기초하여 제 1 예측 블록을 생성하는 단계;
    상기 제 2 대응 블록, 상기 현재 블록의 참조 블록, 및 상기 제 2 대응 블록의 참조 블록에 기초하여 제 2 예측 블록을 생성하는 단계
    를 포함하는, 비디오 데이터를 코딩하는 방법.
  2. 제 1 항에 있어서,
    상기 제 2 예측 블록을 생성하는 단계는, 잔차 예측자 (residual predictor) 를 결정하는 단계를 포함하고,
    상기 잔차 예측자는 상기 현재 블록의 참조 블록과 상기 제 2 대응 블록의 참조 블록 사이의 차이에 대응하는, 비디오 데이터를 코딩하는 방법.
  3. 제 2 항에 있어서,
    상기 제 2 예측 블록을 생성하는 단계는, 상기 잔차 예측자를 상기 제 2 대응 블록에 가산하는 단계를 더 포함하는, 비디오 데이터를 코딩하는 방법.
  4. 제 3 항에 있어서,
    상기 제 2 예측 블록을 생성하는 단계는, 가중 팩터 (weighting factor) 를 상기 잔차 예측자에 적용하는 단계를 더 포함하는, 비디오 데이터를 코딩하는 방법.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 현재 블록의 상기 제 1 대응 블록 및 상기 현재 블록의 상기 제 2 대응 블록 중 적어도 하나의 대응 블록의 모션 정보로부터 모션 벡터를 결정하는 단계는,
    상기 제 1 대응 블록에 대한 모션 벡터가 이용불가능한 것에 응답하여, 상기 모션 벡터에 대해 제로 모션 벡터를 이용하는 단계를 포함하는, 비디오 데이터를 코딩하는 방법.
  6. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 현재 블록의 상기 제 1 대응 블록 및 상기 현재 블록의 상기 제 2 대응 블록 중 적어도 하나의 대응 블록의 모션 정보로부터 모션 벡터를 결정하는 단계는,
    상기 현재 블록의 상기 제 1 대응 블록에 대한 모션 벡터가 이용불가능한 것에 응답하여, 상기 모션 벡터로서 상기 현재 블록의 상기 제 2 대응 블록에 대한 모션 벡터를 이용하는 단계를 포함하는, 비디오 데이터를 코딩하는 방법.
  7. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 현재 블록의 상기 제 1 대응 블록 및 상기 현재 블록의 상기 제 2 대응 블록 중 적어도 하나의 대응 블록의 모션 정보로부터 모션 벡터를 결정하는 단계는,
    상기 현재 블록의 상기 제 1 대응 블록에 대한 모션 벡터가 이용불가능하고 상기 현재 블록의 상기 제 2 대응 블록에 대한 모션 벡터가 이용불가능한 것에 응답하여, 상기 모션 벡터에 대해 제로 모션 벡터를 이용하는 단계를 포함하는, 비디오 데이터를 코딩하는 방법.
  8. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 제 1 뷰의 제 2 현재 블록이 상기 ARP 모드를 이용하여 코딩되는 것을 결정하는 단계로서, 상기 제 2 현재 블록은 양방향성으로 예측되는, 상기 제 1 뷰의 제 2 현재 블록이 상기 ARP 모드를 이용하여 코딩되는 것을 결정하는 단계;
    상기 제 2 현재 블록에 대한 제 1 디스패리티 모션 벡터를 결정하는 단계;
    상기 제 2 현재 블록에 대한 제 1 디스패리티 모션 벡터로, 상기 제 2 뷰에서 상기 제 2 현재 블록의 제 1 대응 블록을 로케이팅하는 단계;
    상기 제 2 현재 블록의 상기 제 1 대응 블록에 대한 모션 벡터가 이용불가능한 것에 응답하여, ARP 를 디스에이블시키는 단계
    를 더 포함하는, 비디오 데이터를 코딩하는 방법.
  9. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 제 1 뷰의 제 2 현재 블록이 상기 ARP 모드를 이용하여 코딩되는 것을 결정하는 단계로서, 상기 제 2 현재 블록은 양방향성으로 예측되는, 상기 제 1 뷰의 제 2 현재 블록이 상기 ARP 모드를 이용하여 코딩되는 것을 결정하는 단계;
    상기 제 2 현재 블록에 대한 제 1 디스패리티 모션 벡터를 결정하는 단계;
    상기 제 2 현재 블록에 대한 제 1 디스패리티 모션 벡터로, 상기 제 2 뷰에서 상기 제 2 현재 블록의 제 1 대응 블록을 로케이팅하는 단계;
    상기 제 2 현재 블록에 대한 제 2 디스패리티 모션 벡터를 결정하는 단계;
    상기 제 2 현재 블록에 대한 제 2 디스패리티 모션 벡터로, 상기 제 3 뷰에서 상기 제 2 현재 블록의 제 2 대응 블록을 로케이팅하는 단계;
    상기 제 2 현재 블록의 상기 제 1 대응 블록에 대한 모션 벡터가 이용불가능하고 상기 제 2 현재 블록의 상기 제 2 대응 블록에 대한 모션 벡터가 이용불가능한 것에 응답하여, 상기 제 2 현재 블록에 대한 ARP 를 디스에이블시키는 단계
    를 더 포함하는, 비디오 데이터를 코딩하는 방법.
  10. 비디오 데이터를 코딩하는 방법으로서,
    제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하는 단계로서, 상기 현재 블록은 양방향성으로 예측되는, 상기 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것을 결정하는 단계;
    상기 현재 블록의 루마 블록에 대해, 상기 루마 블록의 제 1 예측 블록을 결정하기 위해 제 1 예측 방향에 대해 ARP 를 수행하는 단계;
    상기 현재 블록의 루마 블록에 대해, 상기 루마 블록의 제 2 예측 블록을 결정하기 위해 제 2 예측 방향에 대해 ARP 를 수행하는 단계;
    상기 현재 블록의 크로마 블록에 대해, 상기 크로마 블록의 제 1 예측 블록을 결정하기 위해 상기 제 1 예측 방향 또는 상기 제 2 예측 방향 중 하나의 예측 방향에 대해서만 ARP 를 수행하는 단계
    를 포함하는, 비디오 데이터를 코딩하는 방법.
  11. 비디오 데이터를 코딩하는 방법으로서,
    제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하는 단계;
    상기 현재 블록의 루마 블록에 대해, 상기 루마 블록의 예측 블록을 결정하기 위해 ARP 를 수행하는 단계;
    상기 현재 블록의 크로마 블록에 대해, 상기 크로마 블록의 사이즈에 기초하여 상기 크로마 블록에 대해 ARP 를 수행할지 여부를 결정하는 단계
    를 포함하는, 비디오 데이터를 코딩하는 방법.
  12. 제 11 항에 있어서,
    상기 크로마 블록의 사이즈에 기초하여 상기 크로마 블록에 대해 ARP 를 수행할지 여부를 결정하는 단계는, 상기 크로마 블록의 사이즈가 8x8 인 것에 응답하여 ARP 를 디스에이블시키는 단계를 포함하는, 비디오 데이터를 코딩하는 방법.
  13. 제 11 항에 있어서,
    상기 크로마 블록의 사이즈에 기초하여 상기 크로마 블록에 대해 ARP 를 수행할지 여부를 결정하는 단계는, 상기 크로마 블록의 사이즈가 32x32 보다 더 작은 것에 응답하여 ARP 를 디스에이블시키는 단계를 포함하는, 비디오 데이터를 코딩하는 방법.
  14. 제 11 항에 있어서,
    상기 크로마 블록의 사이즈에 기초하여 상기 크로마 블록에 대해 ARP 를 수행할지 여부를 결정하는 단계는,
    상기 크로마 블록의 사이즈가 NxN 과 동일하고 상기 현재 블록이 서브-PU 를 포함하는 것에 응답하여 ARP 를 디스에이블시키는 단계로서, 상기 N 은 8, 16, 32, 또는 64 중 하나와 동일한, 상기 ARP 를 디스에이블시키는 단계;
    크로마 블록킹의 사이즈가 NxN 이고 상기 현재 블록이 PU 를 포함하는 것에 응답하여 ARP 를 수행하는 단계
    를 포함하는, 비디오 데이터를 코딩하는 방법.
  15. 제 11 항에 있어서,
    상기 크로마 블록의 사이즈에 기초하여 상기 크로마 블록에 대해 ARP 를 수행할지 여부를 결정하는 단계는,
    상기 크로마 블록의 사이즈가 NxN 과 동일하고 상기 현재 블록이 서브-PU 를 포함하는 것에 응답하여 ARP 를 디스에이블시키는 단계로서, 상기 N 은 8, 16, 32, 또는 64 중 하나와 동일한, 상기 ARP 를 디스에이블시키는 단계;
    상기 크로마 블록킹의 사이즈가 MxM 이고 상기 현재 블록이 PU 를 포함하는 것에 응답하여 ARP 를 수행하는 단계
    를 포함하고,
    상기 M 은 8, 16, 32, 및 64 중 하나와 동일하고,
    상기 M 은 N 보다 더 작은, 비디오 데이터를 코딩하는 방법.
  16. 제 1 항 내지 제 15 항 중 어느 한 항에 있어서,
    상기 방법은 비디오 디코더에 의해 수행되는, 비디오 데이터를 코딩하는 방법.
  17. 제 1 항 내지 제 15 항 중 어느 한 항에 있어서,
    상기 방법은 비디오 인코더에 의해 수행되는, 비디오 데이터를 코딩하는 방법.
  18. 제 10 항 및 제 1 항 내지 제 9 항 중 어느 한 항의 조합,
    제 1 항 내지 제 9 항 중 어느 한 항 및 제 11 항 내지 제 15 항 중 어느 한 항의 조합, 또는
    제 10 항 및 제 11 항 내지 제 15 항 중 어느 한 항의 조합
    중 임의의 것을 포함하는, 방법.
  19. 실행될 때 하나 이상의 프로세서들로 하여금 제 1 항 내지 제 18 항 중 어느 한 항의 방법을 수행하게 하는 명령들을 저장한, 컴퓨터 판독가능 저장 매체.
  20. 비디오를 코딩하기 위한 디바이스로서,
    상기 디바이스는,
    제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하는 것으로서, 상기 현재 블록은 양방향성으로 예측되는, 상기 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것을 결정하고; 상기 현재 블록에 대한 제 1 디스패리티 모션 벡터 및 제 2 디스패리티 모션 벡터를 결정하고; 상기 제 1 디스패리티 모션 벡터로, 제 2 뷰에서 상기 현재 블록에 대한 제 1 대응 블록을 로케이팅하고; 상기 제 2 디스패리티 모션 벡터로, 제 3 뷰에서 상기 현재 블록의 제 2 대응 블록을 로케이팅하고; 상기 현재 블록의 상기 제 1 대응 블록 및 상기 현재 블록의 상기 제 2 대응 블록 중 적어도 하나의 대응 블록의 모션 정보로부터 모션 벡터를 결정하고; 상기 모션 벡터를 이용하여, 상기 제 1 뷰에서의 상기 현재 블록의 참조 블록, 상기 제 2 뷰에서의 상기 제 1 대응 블록의 참조 블록, 및 상기 제 3 뷰에서의 상기 제 2 대응 블록의 참조 블록을 식별하고; 상기 제 1 대응 블록, 상기 현재 블록의 참조 블록, 및 상기 제 1 대응 블록의 참조 블록에 기초하여 제 1 예측 블록을 생성하고; 상기 제 2 대응 블록, 상기 현재 블록의 참조 블록, 및 상기 제 2 대응 블록의 참조 블록에 기초하여 제 2 예측 블록을 생성하도록 구성된 비디오 코더
    를 포함하는, 비디오를 코딩하기 위한 디바이스.
  21. 비디오를 코딩하기 위한 디바이스로서,
    상기 디바이스는,
    제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하는 것으로서, 상기 현재 블록은 양방향성으로 예측되는, 상기 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것을 결정하고; 상기 현재 블록의 루마 블록에 대해, 상기 루마 블록의 제 1 예측 블록을 결정하기 위해 제 1 예측 방향에 대해 ARP 를 수행하고; 상기 현재 블록의 루마 블록에 대해, 상기 루마 블록의 제 2 예측 블록을 결정하기 위해 제 2 예측 방향에 대해 ARP 를 수행하며; 상기 현재 블록의 크로마 블록에 대해, 상기 크로마 블록의 제 1 예측 블록을 결정하기 위해 상기 제 1 예측 방향 또는 상기 제 2 예측 방향 중 하나의 예측 방향에 대해서만 ARP 를 수행하도록 구성된 비디오 코더
    를 포함하는, 비디오를 코딩하기 위한 디바이스.
  22. 비디오를 코딩하기 위한 디바이스로서,
    상기 디바이스는,
    제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하고; 상기 현재 블록의 루마 블록에 대해, 상기 루마 블록의 예측 블록을 결정하기 위해 ARP 를 수행하며; 상기 현재 블록의 크로마 블록에 대해, 상기 크로마 블록의 사이즈에 기초하여 상기 크로마 블록에 대해 ARP 를 수행할지 여부를 결정하도록 구성된 비디오 코더
    를 포함하는, 비디오를 코딩하기 위한 디바이스.
  23. 제 20 항 내지 제 22 항 중 어느 한 항에 있어서,
    상기 디바이스는,
    집적 회로;
    마이크로프로세서; 및,
    상기 비디오 코더를 포함하는 무선 통신 디바이스
    중 적어도 하나를 포함하는, 비디오를 코딩하기 위한 디바이스.
  24. 비디오 데이터를 코딩하기 위한 장치로서,
    제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하는 수단으로서, 상기 현재 블록은 양방향성으로 예측되는, 상기 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것을 결정하는 수단;
    상기 현재 블록에 대한 제 1 디스패리티 모션 벡터 및 제 2 디스패리티 모션 벡터를 결정하는 수단;
    상기 제 1 디스패리티 모션 벡터로, 제 2 뷰에서 상기 현재 블록에 대한 제 1 대응 블록을 로케이팅하는 수단;
    상기 제 2 디스패리티 모션 벡터로, 제 3 뷰에서 상기 현재 블록의 제 2 대응 블록을 로케이팅하는 수단;
    상기 현재 블록의 상기 제 1 대응 블록 및 상기 현재 블록의 상기 제 2 대응 블록 중 적어도 하나의 대응 블록의 모션 정보로부터 모션 벡터를 결정하는 수단;
    상기 모션 벡터를 이용하여, 상기 제 1 뷰에서의 상기 현재 블록의 참조 블록, 상기 제 2 뷰에서의 상기 제 1 대응 블록의 참조 블록, 및 상기 제 3 뷰에서의 상기 제 2 대응 블록의 참조 블록을 식별하는 수단;
    상기 제 1 대응 블록, 상기 현재 블록의 참조 블록, 및 상기 제 1 대응 블록의 참조 블록에 기초하여 제 1 예측 블록을 생성하는 수단;
    상기 제 2 대응 블록, 상기 현재 블록의 참조 블록, 및 상기 제 2 대응 블록의 참조 블록에 기초하여 제 2 예측 블록을 생성하는 수단
    을 포함하는, 비디오 데이터를 코딩하기 위한 장치.
  25. 비디오 데이터를 코딩하기 위한 장치로서,
    제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하는 수단으로서, 상기 현재 블록은 양방향성으로 예측되는, 상기 제 1 뷰의 현재 블록이 ARP 모드를 이용하여 코딩되는 것을 결정하는 수단;
    상기 현재 블록의 루마 블록에 대해, 상기 루마 블록의 제 1 예측 블록을 결정하기 위해 제 1 예측 방향에 대해 ARP 를 수행하는 수단;
    상기 현재 블록의 루마 블록에 대해, 상기 루마 블록의 제 2 예측 블록을 결정하기 위해 제 2 예측 방향에 대해 ARP 를 수행하는 수단;
    상기 현재 블록의 크로마 블록에 대해, 상기 크로마 블록의 제 1 예측 블록을 결정하기 위해 상기 제 1 예측 방향 또는 상기 제 2 예측 방향 중 하나의 예측 방향에 대해서만 ARP 를 수행하는 수단
    을 포함하는, 비디오 데이터를 코딩하기 위한 장치.
  26. 비디오 데이터를 코딩하기 위한 장치로서,
    제 1 뷰의 현재 블록이 진보된 잔차 예측 (ARP) 모드를 이용하여 코딩되는 것을 결정하는 수단;
    상기 현재 블록의 루마 블록에 대해, 상기 루마 블록의 예측 블록을 결정하기 위해 ARP 를 수행하는 수단;
    상기 현재 블록의 크로마 블록에 대해, 상기 크로마 블록의 사이즈에 기초하여 상기 크로마 블록에 대해 ARP 를 수행할지 여부를 결정하는 수단
    을 포함하는, 비디오 데이터를 코딩하기 위한 장치.
KR1020167025873A 2014-03-13 2014-03-13 3d-hevc 를 위한 단순화된 진보된 잔차 예측 KR20160132862A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/073353 WO2015135172A1 (en) 2014-03-13 2014-03-13 Simplified advanced residual prediction for 3d-hevc

Publications (1)

Publication Number Publication Date
KR20160132862A true KR20160132862A (ko) 2016-11-21

Family

ID=54070804

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167025873A KR20160132862A (ko) 2014-03-13 2014-03-13 3d-hevc 를 위한 단순화된 진보된 잔차 예측

Country Status (9)

Country Link
US (1) US10574965B2 (ko)
EP (1) EP3117606B1 (ko)
JP (1) JP6359681B2 (ko)
KR (1) KR20160132862A (ko)
CN (2) CN109547800B (ko)
CA (1) CA2939009A1 (ko)
ES (1) ES2716676T3 (ko)
HU (1) HUE043182T2 (ko)
WO (1) WO2015135172A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3002716A1 (fr) * 2013-02-26 2014-08-29 France Telecom Derivation de vecteur de mouvement de disparite, codage et decodage video 3d utilisant une telle derivation
US10200666B2 (en) * 2015-03-04 2019-02-05 Dolby Laboratories Licensing Corporation Coherent motion estimation for stereoscopic video
US10462459B2 (en) * 2016-04-14 2019-10-29 Mediatek Inc. Non-local adaptive loop filter
CN116708782A (zh) * 2016-07-12 2023-09-05 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
WO2020069652A1 (en) * 2018-10-06 2020-04-09 Huawei Technologies Co., Ltd. Candidate mv construction method for hmvp mode
CN112243131B (zh) * 2020-10-31 2022-11-11 西安邮电大学 基于可重构阵列处理器的先进残差预测方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5619256A (en) * 1995-05-26 1997-04-08 Lucent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
KR101276720B1 (ko) * 2005-09-29 2013-06-19 삼성전자주식회사 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체
KR101596963B1 (ko) * 2009-09-29 2016-02-23 엘지디스플레이 주식회사 입체영상표시장치
US9225961B2 (en) * 2010-05-13 2015-12-29 Qualcomm Incorporated Frame packing for asymmetric stereo video
US9357229B2 (en) 2010-07-28 2016-05-31 Qualcomm Incorporated Coding motion vectors in video coding
CN101917619B (zh) * 2010-08-20 2012-05-09 浙江大学 一种多视点视频编码快速运动估计方法
KR20120080122A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
US9288501B2 (en) 2011-03-08 2016-03-15 Qualcomm Incorporated Motion vector predictors (MVPs) for bi-predictive inter mode in video coding
US20120236934A1 (en) * 2011-03-18 2012-09-20 Qualcomm Incorporated Signaling of multiview video plus depth content with a block-level 4-component structure
US20140146891A1 (en) * 2011-06-10 2014-05-29 Mediatek Inc. Method and Apparatus of Scalable Video Coding
WO2013021023A1 (en) * 2011-08-11 2013-02-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. View synthesis compliant signal codec
US9525861B2 (en) * 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US9503720B2 (en) * 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US20130258052A1 (en) * 2012-03-28 2013-10-03 Qualcomm Incorporated Inter-view residual prediction in 3d video coding
US20130271565A1 (en) * 2012-04-16 2013-10-17 Qualcomm Incorporated View synthesis based on asymmetric texture and depth resolutions
CN111031302A (zh) * 2012-04-25 2020-04-17 浙江大学 三维视频序列辅助信息的解码方法、编码方法及装置
US9900619B2 (en) * 2012-07-02 2018-02-20 Qualcomm Incorporated Intra-coding of depth maps for 3D video coding
US9357212B2 (en) * 2012-12-07 2016-05-31 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US9615090B2 (en) * 2012-12-28 2017-04-04 Qualcomm Incorporated Parsing syntax elements in three-dimensional video coding
US10244223B2 (en) * 2014-01-10 2019-03-26 Ostendo Technologies, Inc. Methods for full parallax compressed light field 3D imaging systems
US9967592B2 (en) * 2014-01-11 2018-05-08 Qualcomm Incorporated Block-based advanced residual prediction for 3D video coding
US10326981B2 (en) * 2015-05-15 2019-06-18 Semyon Nisenzon Generating 3D images using multi-resolution camera set

Also Published As

Publication number Publication date
EP3117606B1 (en) 2018-12-26
JP2017512033A (ja) 2017-04-27
HUE043182T2 (hu) 2019-08-28
ES2716676T3 (es) 2019-06-14
EP3117606A4 (en) 2017-11-29
CN106105190A (zh) 2016-11-09
CN109547800B (zh) 2023-04-07
JP6359681B2 (ja) 2018-07-18
CN106105190B (zh) 2018-11-13
WO2015135172A1 (en) 2015-09-17
US20170013275A1 (en) 2017-01-12
CA2939009A1 (en) 2015-09-17
EP3117606A1 (en) 2017-01-18
US10574965B2 (en) 2020-02-25
CN109547800A (zh) 2019-03-29

Similar Documents

Publication Publication Date Title
JP6866340B2 (ja) 3dビデオコーディングにおける視差ベクトル導出および動きベクトル予測の簡略化
JP6185143B2 (ja) スキップおよびダイレクトモード用の3dビデオコーディングにおける視差ベクトル導出
EP3155812B1 (en) Simplified shifting merge candidate and merge list derivation in 3d-hevc
EP2962466B1 (en) Neighboring block disparity vector derivation in 3d video coding
EP3117606B1 (en) Simplified advanced residual prediction for 3d-hevc
WO2015168838A1 (en) Aligning disparity vector for advanced residual prediction and inter-view motion prediction in3d-hevc
JP2018174558A (ja) 3d−hevcのための簡略化された高度残差予測

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid