KR101658694B1 - 비디오 코딩에서의 모션 벡터 예측 - Google Patents

비디오 코딩에서의 모션 벡터 예측 Download PDF

Info

Publication number
KR101658694B1
KR101658694B1 KR1020137030717A KR20137030717A KR101658694B1 KR 101658694 B1 KR101658694 B1 KR 101658694B1 KR 1020137030717 A KR1020137030717 A KR 1020137030717A KR 20137030717 A KR20137030717 A KR 20137030717A KR 101658694 B1 KR101658694 B1 KR 101658694B1
Authority
KR
South Korea
Prior art keywords
motion vector
candidate list
block
vector predictor
type
Prior art date
Application number
KR1020137030717A
Other languages
English (en)
Other versions
KR20140018967A (ko
Inventor
잉 천
페이송 천
마르타 카르체비츠
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20140018967A publication Critical patent/KR20140018967A/ko
Application granted granted Critical
Publication of KR101658694B1 publication Critical patent/KR101658694B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 개시물의 양태들은 일 예에서, 제 1 뷰로부터 제 1 시간 로케이션에서 비디오 데이터의 제 1 블록을 식별하는 단계를 포함하는 방법에 관한 것으로, 상기 제 1 블록은 제 1 디스패리티 모션 벡터와 연관된다. 본 방법은 또한 비디오 데이터의 제 2 블록과 연관되는 제 2 모션 벡터에 대한 모션 벡터 예측자를 결정하는 단계를 포함하며, 상기 모션 벡터 예측자는 제 1 디스패리티 모션 벡터에 기초한다. 제 2 모션 벡터가 디스패리티 모션 벡터를 포함할 때, 본 방법은 제 1 디스패리티 모션 벡터를 스케일링하여 스케일링된 모션 벡터 예측자를 발생시키는 단계를 포함하는 모션 벡터 예측자를 결정하는 단계를 포함하며, 상기 제 1 디스패리티 모션 벡터를 스케일링하는 단계는 제 1 모션 벡터의 뷰 거리로 나누어진 제 2 디스패리티 모션 벡터의 뷰 거리를 포함하는 스케일링 인자를 제 1 디스패리티 모션 벡터에 적용하는 단계를 포함한다.

Description

비디오 코딩에서의 모션 벡터 예측{MOTION VECTOR PREDICTION IN VIDEO CODING}
본 개시물은 2011년 4월 20일자에 출원된 미국 가특허출원 번호 제 61/477,561호, 및 2011년 7월 28일자에 출원된 미국 가특허출원 번호 제 61/512,765호에 대해 우선권을 주장하며, 이 양자의 내용들이 그들 전체로 참고로 포함된다.
본 개시물은 비디오 코딩에 관한 것이다.
디지털 비디오 능력들은 디지털 텔레비전, 디지털 직접 브로드캐스트 시스템들, 무선 브로드캐스트 시스템들, 개인 휴대정보 단말기들 (PDAs), 랩탑 또는 데스크탑 컴퓨터들, 태블릿 컴퓨터들, e-책 리더들, 디지털 카메라들, 디지털 리코딩 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 디바이스들, 비디오 게임 콘솔들, 셀룰러 또는 위성 무선 전화기들, 소위 "스마트폰들", 원격 화상회의 디바이스들, 비디오 스트리밍 디바이스들 등을 포함한, 광범위한 디바이스들에 포함될 수 있다. 디지털 비디오 디바이스들은 MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, 파트 10, AVC (Advanced Video Coding), 현재 개발중인 HEVC (High Efficiency Video Coding) 표준, 및 이런 표준들의 확장판들에 의해 정의된 표준들에 설명된 것들과 같은 비디오 압축 기법들을 구현한다. 비디오 디바이스들은 이런 비디오 압축 기법들을 구현함으로써, 디지털 비디오 정보를 좀더 효율적으로 송신, 수신, 인코딩, 디코딩, 및/또는 저장할 수도 있다.
비디오 압축 기법들은 비디오 시퀀스들에 고유한 리던던시를 감소시키거나 또는 제거하기 위해 공간 (인트라-화상) 예측 및/또는 시간 (인터-화상) 예측을 수행한다. 블록-기반의 비디오 코딩에 있어, 비디오 슬라이스 (즉, 화상 또는 화상의 일부) 는 비디오 블록들로 파티셔닝될 수도 있으며, 이 비디오 블록들은 또한 트리블록들, 코딩 유닛들 (CUs) 및/또는 코딩 노드들로서 지칭될 수도 있다. 화상의 인트라-코딩된 (I) 슬라이스에서 비디오 블록들은 동일한 화상에서의 이웃하는 블록들에서 참조 샘플들에 대해 공간 예측을 이용하여 인코딩된다. 화상의 인터-코딩된 (P 또는 B) 슬라이스에서 비디오 블록들은 동일한 화상에서 이웃하는 블록들에서의 참조 샘플들에 대한 공간 예측 또는 다른 참조 화상들에서의 참조 샘플들에 대한 시간 예측을 이용할 수도 있다.
공간 또는 시간 예측은 코딩되는 블록에 대한 예측 블록을 초래한다. 잔여 데이터는 코딩되는 원래 블록과 예측 블록 사이의 픽셀 차이들을 나타낸다. 인터-코딩된 블록은 예측 블록을 형성하는 참조 샘플들의 블록을 가리키는 모션 벡터, 및 코딩된 블록과 예측 블록 사이의 차이를 나타내는 잔여 데이터에 따라서 인코딩된다. 인트라-코딩된 블록은 인트라-코딩 모드 및 잔여 데이터에 따라서 인코딩된다. 추가적인 압축을 위해, 잔여 데이터는 픽셀 도메인으로부터 변환 도메인으로 변환되어, 잔여 변환 계수들을 초래할 수도 있으며, 이 잔여 변환 계수들은 그후 양자화될 수도 있다. 처음에 2차원 어레이로 배열된, 양자화된 변환 계수들은 변환 계수들의 1차원 벡터를 발생시키기 위해 스캐닝될 수도 있으며, 엔트로피 코딩이 더 많은 압축을 달성하기 위해 적용될 수도 있다.
일반적으로, 본 개시물은 비디오 데이터를 코딩하는 기법들을 설명한다. 본 개시물은 멀티뷰 비디오 코딩 (MVC) 에서 인터-모드 코딩할 때 (즉, 다른 화상들의 블록들에 대해 현재의 블록을 코딩할 때) 모션 벡터 예측, 모션 추정 및 모션 보상을 수행하는 기법들을 설명한다. 일반적으로, MVC 는 비디오 데이터의 다수의 뷰들을 캡슐화하는 비디오 코딩 표준이다. 각각의 뷰는 공통 장면의 대응하는 비디오 데이터가 캡쳐된, 상이한 관점, 또는 각도에 대응할 수도 있다. 본 개시물의 기법들은 일반적으로 멀티뷰 비디오 코딩의 상황에서 모션 예측 데이터를 예측하는 것을 포함한다. 즉, 예를 들어, 본 개시물의 기법들에 따르면, 현재 코딩되는 블록과 동일한 또는 상이한 뷰에서의 블록으로부터의 디스패리티 (disparity) 모션 벡터가 현재의 블록의 모션 벡터를 예측하는데 사용될 수도 있다. 또 다른 예에서, 본 개시물의 기법들에 따르면, 현재 코딩되는 블록과 동일한 또는 상이한 뷰에서의 블록으로부터의 시간 모션 벡터가 현재의 블록의 모션 벡터를 예측하는데 사용될 수도 있다.
일 예에서, 본 개시물의 양태들은 비디오 데이터를 코딩하는 방법에 관한 것으로, 상기 방법은 제 1 뷰로부터 제 1 시간 로케이션에서 비디오 데이터의 제 1 블록을 식별하는 단계로서, 상기 제 1 블록은 제 1 디스패리티 모션 벡터와 연관되는, 상기 비디오 데이터의 제 1 블록을 식별하는 단계; 비디오 데이터의 제 2 블록과 연관되는 제 2 모션 벡터에 대한 모션 벡터 예측자를 결정하는 단계로서, 상기 모션 벡터 예측자는 제 1 디스패리티 모션 벡터에 기초하는, 상기 모션 벡터 예측자를 결정하는 단계; 및 스케일링된 모션 벡터 예측자를 이용하여 제 2 블록에 대한 예측 데이터를 코딩하는 단계를 포함하며, 상기 제 2 모션 벡터가 디스패리티 모션 벡터를 포함할 때, 모션 벡터 예측자를 결정하는 단계는 제 1 디스패리티 모션 벡터를 스케일링하여 스케일링된 모션 벡터 예측자를 발생시키는 단계를 포함하고, 제 1 디스패리티 모션 벡터를 스케일링하는 단계는 제 1 모션 벡터의 뷰 거리로 나누어진 제 2 디스패리티 모션 벡터의 뷰 거리를 포함하는 스케일링 인자를 제 1 디스패리티 모션 벡터에 적용하는 단계를 포함한다.
또 다른 예에서, 본 개시물의 양태들은 하나 이상의 프로세서들을 포함하는 비디오 데이터를 코딩하는 장치에 관한 것으로, 상기 하나 이상의 프로세서들은 제 1 뷰로부터 제 1 시간 로케이션에서 비디오 데이터의 제 1 블록을 식별하고; 비디오 데이터의 제 2 블록과 연관되는 제 2 모션 벡터에 대한 모션 벡터 예측자를 결정하고; 그리고, 스케일링된 모션 벡터 예측자에 기초하여 제 2 블록에 대한 예측 데이터를 코딩하도록 구성되며, 상기 제 1 블록은 제 1 디스패리티 모션 벡터와 연관되며, 상기 모션 벡터 예측자는 제 1 디스패리티 모션 벡터에 기초하며, 상기 제 2 모션 벡터가 디스패리티 모션 벡터를 포함할 때, 상기 하나 이상의 프로세서들은 제 1 디스패리티 모션 벡터를 스케일링하여 스케일링된 모션 벡터 예측자를 발생시킴으로써 모션 벡터 예측자를 결정하도록 구성되며, 상기 제 1 디스패리티 모션 벡터를 스케일링하는 것은 제 1 모션 벡터의 뷰 거리로 나누어진 제 2 디스패리티 모션 벡터의 뷰 거리를 포함하는 스케일링 인자를 제 1 디스패리티 모션 벡터에 적용하는 것을 포함한다.
또 다른 예에서, 본 개시물의 양태들은 제 1 뷰로부터 제 1 시간 로케이션에서 비디오 데이터의 제 1 블록을 식별하는 수단으로서, 상기 제 1 블록은 제 1 디스패리티 모션 벡터와 연관되는, 상기 비디오 데이터의 제 1 블록을 식별하는 수단; 비디오 데이터의 제 2 블록과 연관되는 제 2 모션 벡터에 대한 모션 벡터 예측자를 결정하는 수단으로서, 상기 모션 벡터 예측자는 제 1 디스패리티 모션 벡터에 기초하는, 상기 제 2 모션 벡터에 대한 모션 벡터 예측자를 결정하는 수단; 및 스케일링된 모션 벡터 예측자에 기초하여 제 2 블록에 대한 예측 데이터를 코딩하는 수단을 포함하며, 상기 제 2 모션 벡터가 디스패리티 모션 벡터를 포함할 때, 상기 모션 벡터 예측자를 결정하는 수단은 제 1 디스패리티 모션 벡터를 스케일링하여 스케일링된 모션 벡터 예측자를 발생시킴으로써 모션 벡터 예측자를 결정하도록 구성되며, 상기 제 1 디스패리티 모션 벡터를 스케일링하는 것은 제 1 모션 벡터의 뷰 거리로 나누어진 제 2 디스패리티 모션 벡터의 뷰 거리를 포함하는 스케일링 인자를 제 1 디스패리티 모션 벡터에 적용하는 것을 포함하는, 비디오 데이터를 코딩하는 장치에 관한 것이다.
또 다른 예에서, 본 개시물의 양태들은 실행 시, 하나 이상의 프로세서들로 하여금, 제 1 뷰로부터 제 1 시간 로케이션에서 비디오 데이터의 제 1 블록을 식별하고; 비디오 데이터의 제 2 블록과 연관되는 제 2 모션 벡터에 대한 모션 벡터 예측자를 결정하고; 그리고, 스케일링된 모션 벡터 예측자에 기초하여 제 2 블록에 대한 예측 데이터를 코딩하도록 하는 명령들을 안에 저장하고 있으며, 상기 제 1 블록은 제 1 디스패리티 모션 벡터와 연관되며, 상기 모션 벡터 예측자는 제 1 디스패리티 모션 벡터에 기초하며, 상기 제 2 모션 벡터가 디스패리티 모션 벡터를 포함할 때, 상기 명령들은 하나 이상의 프로세서들로 하여금, 제 1 디스패리티 모션 벡터를 스케일링하여 스케일링된 모션 벡터 예측자를 발생시킴으로써 모션 벡터 예측자를 결정하도록 하며, 상기 제 1 디스패리티 모션 벡터를 스케일링하는 것은 제 1 모션 벡터의 뷰 거리로 나누어진 제 2 디스패리티 모션 벡터의 뷰 거리를 포함하는 스케일링 인자를 제 1 디스패리티 모션 벡터에 적용하는 것을 포함하는, 컴퓨터-판독가능 저장 매체에 관한 것이다.
또 다른 예에서, 본 개시물의 양태들은 비디오 데이터를 코딩하는 방법에 관한 것으로, 상기 방법은 제 1 뷰로부터 제 1 시간 로케이션에서 비디오 데이터의 제 1 블록을 식별하는 단계로서, 상기 비디오 데이터의 제 1 블록은 제 1 시간 모션 벡터와 연관되는, 상기 비디오 데이터의 제 1 블록을 식별하는 단계; 비디오 데이터의 제 2 블록과 연관되는 제 2 모션 벡터가 시간 모션 벡터를 포함하고 제 2 블록이 제 2 뷰로부터 기인할 때, 제 1 시간 모션 벡터에 기초하여 제 2 모션 벡터에 대한 모션 벡터 예측자를 결정하는 단계; 및 모션 벡터 예측자를 이용하여 제 2 블록에 대한 예측 데이터를 코딩하는 단계를 포함한다.
또 다른 예에서, 본 개시물의 양태들은 제 1 뷰로부터 제 1 시간 로케이션에서 비디오 데이터의 제 1 블록을 식별하고; 비디오 데이터의 제 2 블록과 연관되는 제 2 모션 벡터가 시간 모션 벡터를 포함하고 제 2 블록이 제 2 뷰로부터 기인할 때, 제 1 시간 모션 벡터에 기초하여 제 2 모션 벡터에 대한 모션 벡터 예측자를 결정하고; 그리고, 모션 벡터 예측자를 이용하여 제 2 블록에 대한 예측 데이터를 코딩하도록 구성된 하나 이상의 프로세서들을 포함하며, 상기 비디오 데이터의 제 1 블록은 제 1 시간 모션 벡터와 연관되는, 비디오 데이터를 코딩하는 장치에 관한 것이다.
또 다른 예에서, 본 개시물의 양태들은 제 1 뷰로부터 제 1 시간 로케이션에서 비디오 데이터의 제 1 블록을 식별하는 수단으로서, 상기 비디오 데이터의 제 1 블록은 제 1 시간 모션 벡터와 연관되는, 상기 비디오 데이터의 제 1 블록을 식별하는 수단; 비디오 데이터의 제 2 블록과 연관되는 제 2 모션 벡터가 시간 모션 벡터를 포함하고 제 2 블록이 제 2 뷰로부터 기인할 때, 제 1 시간 모션 벡터에 기초하여 제 2 모션 벡터에 대한 모션 벡터 예측자를 결정하는 수단; 및 모션 벡터 예측자를 이용하여 제 2 블록에 대한 예측 데이터를 코딩하는 수단을 포함하는 비디오 데이터를 코딩하는 장치에 관한 것이다.
일 예에서, 본 개시물의 양태들은 실행 시, 하나 이상의 프로세서들로 하여금, 제 1 뷰로부터 제 1 시간 로케이션에서 비디오 데이터의 제 1 블록을 식별하고; 비디오 데이터의 제 2 블록과 연관되는 제 2 모션 벡터가 시간 모션 벡터를 포함하고 제 2 블록이 제 2 뷰로부터 기인할 때, 제 1 시간 모션 벡터에 기초하여 제 2 모션 벡터에 대한 모션 벡터 예측자를 결정하고; 그리고, 모션 벡터 예측자를 이용하여 제 2 블록에 대한 예측 데이터를 코딩하도록 하는 명령들을 안에 저장하고 있으며, 상기 비디오 데이터의 제 1 블록은 제 1 시간 모션 벡터와 연관되는, 컴퓨터-판독가능 저장 매체에 관한 것이다.
하나 이상의 본 개시물의 양태들의 세부 사항들이 첨부도면 및 아래의 상세한 설명에서 개시된다. 본 개시물에서 설명하는 본 기법들의 다른 특징들, 목적들, 및 이점들은 설명 및 도면들로부터, 그리고 청구항들로부터 명백히 알 수 있을 것이다.
도 1 은 본 개시물에서 설명하는 기법들을 이용할 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템을 예시하는 블록도이다.
도 2 는 본 개시물에서 설명하는 기법들을 구현할 수도 있는 예시적인 비디오 인코더를 예시하는 블록도이다.
도 3 은 본 개시물에서 설명하는 기법들을 구현할 수도 있는 예시적인 비디오 디코더를 예시하는 블록도이다.
도 4 는 예시적인 멀티뷰 비디오 코딩 (MVC) 예측 패턴을 예시하는 개념도이다.
도 5 는 모션 벡터 예측자 후보들에 대한 예시적인 로케이션들을 예시하는 블록도이다.
도 6 은 본 개시물의 양태들에 따른, 모션 벡터 예측자를 발생시키고 스케일링하는 것을 예시하는 개념도이다.
도 7 은 본 개시물의 양태들에 따른, 모션 벡터 예측자를 발생시키고 스케일링하는 것을 예시하는 또 다른 개념도이다.
도 8 은 본 개시물의 양태들에 따른, 모션 벡터 예측자를 발생시키고 스케일링하는 것을 예시하는 또 다른 개념도이다.
도 9 는 비디오 데이터의 블록에 대한 예측 정보를 코딩하는 예시적인 방법을 예시하는 흐름도이다.
도 10 은 현재의 블록과는 상이한 뷰에서의 블록으로부터 모션 벡터 예측자를 발생시키는 것을 예시하는 개념도이다.
도 11 은 현재의 블록과는 상이한 뷰에서의 블록으로부터 모션 벡터 예측자를 발생시키는 예시적인 방법을 예시하는 흐름도이다.
어떤 비디오 코딩 시스템들에 따르면, 데이터 압축을 달성하기 위해, 모션 추정 및 모션 보상이 비디오 시퀀스에서 시간 리던던시를 감소시키는데 사용될 수도 있다. 이 경우, 비디오 데이터의 예측 블록, 예컨대, 또 다른 비디오 화상 또는 슬라이스로부터의 블록을 식별하는 모션 벡터가 발생될 수 있으며, 이 모션 벡터는 코딩되는 현재의 비디오 블록의 값들을 예측하는데 사용될 수 있다. 잔여 데이터의 블록을 생성하기 위해 예측 비디오 블록의 값들이 현재의 비디오 블록의 값들로부터 감산된다. 모션 정보 (예컨대, 모션 벡터, 모션 벡터 인덱스들, 예측 방향들, 또는 다른 정보) 는 비디오 인코더로부터 비디오 디코더로, 잔여 데이터와 함께, 통신된다. 디코더는 동일한 예측 블록을 (모션 벡터에 기초하여) 로케이트하고, 잔여 데이터를 예측 블록의 데이터와 결합함으로써 인코딩된 비디오 블록을 재구성할 수 있다.
일부의 경우, 모션 벡터들의 예측 코딩이 또한 모션 벡터를 통신하는데 요구되는 데이터의 양을 추가로 감소시키기 위해 적용된다. 모션 벡터가 확립될 때는, 목표 화상으로부터 참조 화상으로이다. 모션 벡터는 공간적으로 또는 시간적으로 예측될 수 있다. 공간적으로 예측된 모션 벡터는 가용 공간 블록들 (동일한 시간 인스턴스의 블록) 과 연관된다. 시간적으로 예측된 모션 벡터는 가용 시간 블록들 (상이한 시간 인스턴스의 블록) 과 연관된다. 모션 벡터 예측의 경우, 모션 벡터 자체를 인코딩하고 통신하는 대신, 인코더는 기지의 (또는, 인식가능한) 모션 벡터에 대한 모션 벡터 차이 (motion vector difference; MVD) 를 인코딩하고 통신한다. H.264/AVC 에서, 기지의 모션 벡터는, 현재의 모션 벡터를 정의하는데 MVD 와 함께 사용될 수도 있는데, 소위 모션 벡터 예측자 (motion vector predictor; MVP) 에 의해 정의될 수 있다. 유효한 MVP 가 되게 위해서는, 모션 벡터는 MVP 및 MVD 에 의해 현재 코딩되는 모션 벡터와는 동일한 화상을 가리켜야 한다.
비디오 코더는 MVP 에 대한 후보들로서 공간 및 시간 방향들에서 여러 이웃하는 블록들을 포함하는 모션 벡터 예측자 후보 리스트를 형성할 수도 있다. 이 경우, 비디오 인코더는 인코딩 레이트 및 왜곡의 분석에 기초하여 (예컨대, 레이트-왜곡 비용 분석 또는 다른 코딩 효율 분석을 이용하여) 후보 세트로부터 가장 정확한 예측자를 선택할 수도 있다. 모션 벡터 예측자 인덱스 (mvp_idx) 가 MVP 를 로케이트할 장소를 디코더에게 통지하기 위해, 비디오 디코더로 송신될 수 있다. MVD 가 또한 통신된다. 디코더는 그 MVD 를 (모션 벡터 예측자 인덱스에 의해 정의된) MVP 와 결합하여, 모션 벡터를 재구성할 수 있다.
소위 "병합 모드" 가 또한 이용가능할 수도 있으며, 여기서, 이웃하는 비디오 블록의 (모션 벡터들, 참조 화상 인덱스들, 예측 방향들, 또는 다른 정보와 같은) 모션 정보가 코딩되는 현재의 비디오 블록에 상속된다. 인덱스 값은 현재의 비디오 블록이 그의 모션 정보를 상속받는 이웃을 식별하는데 사용될 수도 있다.
멀티뷰 비디오 코딩 (Multiview Video Coding; MVC) 은 비디오 데이터의 다수의 뷰들을 캡슐화하는 비디오 코딩 표준이다. 일반적으로, 각각의 뷰는 공통 장면의 대응하는 비디오 데이터가 캡쳐된, 상이한 관점, 또는 각도에 대응한다. MVC 는 메타데이터의 세트, 즉, 뷰들에 대한 서술적 데이터를 집합적으로 그리고 개별적으로 제공한다.
코딩된 뷰들은 비디오 데이터의 3차원의 (3D) 디스플레이를 위해 사용될 수 있다. 예를 들어, 2개의 뷰들 (예컨대, 인간 뷰어의 좌측 및 우측 눈 뷰들) 이 상이한 광의 편광들을 이용하여 동시에 또는 거의 동시에 디스플레이될 수 있으며, 뷰어는 뷰어의 눈들 각각이 뷰들의 각각의 하나의 뷰를 수신하도록 수동 편광 안경을 착용할 수도 있다. 이의 대안으로, 뷰어는 각각의 눈을 독립적으로 셔터링하는 능동 안경을 착용할 수도 있으며, 디스플레이는 안경과 동기화하여 각각의 눈의 이미지들 사이에 빠르게 교번할 수도 있다.
MVC 에서는, 특정의 뷰의 특정의 화상이 뷰 성분으로서 지칭된다. 즉, 뷰의 뷰 성분은 그 뷰의 특정의 시간 인스턴스에 대응한다. 일반적으로, 2개의 뷰들의 동일한 또는 대응하는 오브젝트들은 동일 장소에 로케이트되지 않는다. 용어 "디스패리티 벡터" 는 상이한 뷰에서의 대응하는 오브젝트에 대한, 뷰의 화상에서의 오브젝트의 변위를 나타내는 벡터를 지칭하기 위해 사용될 수도 있다. 이런 벡터는 또한 "변위 벡터" 로서 지칭될 수도 있다. 디스패리티 벡터는 또한 화상의 비디오 데이터의 픽셀 또는 블록에 적용가능할 수도 있다. 예를 들어, 제 1 뷰의 화상에서의 픽셀은 제 2 뷰의 화상에서의 대응하는 픽셀에 대해서, 제 1 뷰 및 제 2 뷰가 캡쳐되는 카메라 로케이션들을 상이하게 하는 것과 관련된 특정의 디스패리티 만큼 변위될 수도 있다. 일부 예들에서, 디스패리티는 하나의 뷰로부터 또 다른 뷰까지의 모션 벡터를 예측하는데 사용될 수 있다.
MVC 의 상황에서는, 하나의 뷰의 화상들이 또 다른 뷰의 화상들로부터 예측될 수도 있다. 예를 들어, 비디오 데이터의 블록은 동일한 시간 인스턴스이지만 상이한 뷰의 참조 화상에서의 비디오 데이터의 블록에 대해서 예측될 수도 있다. 일 예에서, 현재 코딩되는 블록은 "현재의 블록" 으로서 지칭될 수도 있다. 상이한 뷰이지만 동일한 시간 인스턴스에서의 블록으로부터 현재의 블록을 예측하는 모션 벡터는 "디스패리티 모션 벡터" 로 지칭된다. 디스패리티 모션 벡터는 멀티뷰 비디오 코딩의 상황에서 일반적으로 적용가능하며, 여기서 하나 보다 많은 뷰가 이용될 수도 있다. 본 개시물에 따르면, 디스패리티 모션 벡터에 대한 "뷰 거리" 는 참조 화상의 뷰와 목표 화상의 뷰 사이의 변환 차이를 지칭할 수도 있다. 즉, 뷰 거리는 참조 화상의 뷰 식별자와 목표 화상의 뷰 식별자 사이의 뷰 식별자 차이로서 표현될 수도 있다.
모션 벡터의 또 다른 유형은 "시간 모션 벡터" 이다. 멀티뷰 비디오 코딩의 상황에서, 시간 모션 벡터는 상이한 시간 인스턴스이지만 동일한 뷰 내인 블록으로부터 현재의 블록을 예측하는 모션 벡터를 지칭한다. 본 개시물에 따르면, 시간 모션 벡터의 "시간 거리" 는 참조 화상으로부터 목표 화상까지의 POC (picture order count) 거리를 지칭할 수도 있다.
어떤 본 개시물의 기법들은 현재 코딩되는 블록의 모션 정보를 예측하는데, 멀티뷰 설정에서 비디오 데이터의 블록과 연관되는 모션 정보 (예컨대, 모션 벡터, 모션 벡터 인덱스들, 예측 방향들, 또는 다른 정보) 를 이용하는 것에 관련된다. 예를 들어, 본 개시물의 양태들에 따르면, 상이한 뷰로부터 예측된 모션 벡터가 현재의 블록의 모션 벡터 예측에 사용되는 하나 이상의 모션 벡터 리스트들에 대한 후보로서 추가될 수 있다. 일부 예들에서, 비디오 코더는 현재 코딩되는 블록과는 상이한 뷰에서의 블록과 연관되는 디스패리티 모션 벡터를 이용하여, 현재의 블록에 대한 모션 벡터를 예측할 수도 있으며, 그 예측된 디스패리티 모션 벡터를 후보 모션 벡터 리스트에 추가할 수도 있다. 다른 예들에서, 비디오 코더는 현재 코딩되는 블록과는 상이한 뷰에서의 블록과 연관되는 시간 모션 벡터를 이용하여, 현재의 블록에 대한 모션 벡터를 예측할 수도 있으며, 그 예측된 시간 모션 벡터를 후보 모션 벡터 리스트에 추가할 수도 있다.
본 개시물의 양태들에 따르면, 디스패리티 모션 벡터는 현재 코딩되는 블록에 대한 모션 벡터 예측자로서 사용되기 전에 스케일링될 수도 있다. 예를 들어, 디스패리티 모션 벡터가 예측되는 현재의 모션 벡터와 동일한 뷰 식별자를 갖는 참조 화상을 식별하고, 디스패리티 모션 벡터가 예측되는 현재의 모션 벡터와 동일한 뷰 식별자를 갖는 목표 화상을 가지면, 디스패리티 모션 벡터는 현재의 블록에 대한 모션 벡터를 예측하는데 사용되기 전에 스케일링되지 않을 수도 있다. 다른 경우, 디스패리티 모션 벡터는 현재의 블록에 대한 모션 벡터를 예측하는데 사용되기 전에 스케일링될 수도 있다.
또 다른 예에서, 디스패리티 모션 벡터는 공간적으로 이웃하는 블록과 연관되는 디스패리티 모션 벡터로부터 예측될 수도 있다. 이 예에서, 디스패리티 모션 벡터의 참조 화상의 뷰 식별자가 예측되는 모션 벡터 (예컨대, 현재 예측되는 블록과 연관되는 모션 벡터) 의 참조 화상의 뷰 식별자와 동일하면, 어떤 스케일링도 요구되지 않을 수도 있다. 그렇지 않고, 디스패리티 모션 벡터는 비디오 데이터를 캡쳐하는데 사용되는 카메라의 카메라 로케이션에 기초하여 스케일링될 수도 있다. 즉, 예를 들어, 예측에 사용되는 디스패리티 모션 벡터는 디스패리티 모션 벡터의 참조 화상의 뷰 식별자와 모션 벡터의 목표 화상의 뷰 식별자 사이의 차이에 따라서 스케일링될 수도 있다. 일부 예들에서, 디스패리티 모션 벡터 스케일링은 뷰들의 변환들에 기초하여 스케일링될 수도 있다.
또 다른 예에서, 디스패리티 모션 벡터는 시간적으로 이웃하는 블록과 연관되는 디스패리티 모션 벡터로부터 예측될 수도 있다. 이 예에서, 디스패리티 모션 벡터의 참조 화상의 뷰 식별자가 예측되는 모션 벡터의 참조 화상의 뷰 식별자와 동일하고, 그리고, 디스패리티 모션 벡터의 목표 화상의 뷰 식별자가 예측되는 모션 벡터의 참조 화상의 뷰 식별자와 동일하면, 어떤 스케일링도 요구되지 않을 수도 있다. 그렇지 않고, 이전 예에 대해 설명한 바와 같이, 디스패리티 모션 벡터는 뷰 식별자에서의 차이에 기초하여 스케일링될 수도 있다.
시간 모션 벡터 예측에 대해, 본 개시물의 양태들에 따르면, 제 1 뷰에서 목표 화상을 갖는 시간 모션 벡터가 상이한 제 2 뷰에서 목표 화상을 갖는 시간 모션 벡터를 예측하는데 사용될 수도 있다. 일부 예들에서, 예측에 사용되는 시간 모션 벡터의 목표 화상 내 블록은 상이한 뷰에서의 현재 예측되는 블록과 동일 장소에 로케이트될 수도 있다. 다른 예들에서, 예측에 사용되는 시간 모션 벡터의 목표 화상 내 블록은 2개의 뷰들 사이의 디스패리티로 인해, 현재의 블록으로부터 오프셋될 수도 있다.
일부 예들에서, 상이한 뷰로부터 예측되는 모션 벡터가 시간 모션 벡터일 때, 모션 벡터는 POC (picture order count) 거리들에서의 차이에 기초하여 스케일링될 것이다. 예를 들어, 본 개시물의 양태들에 따르면, 예측에 사용되는 시간 모션 벡터의 참조 화상이 예측되는 현재의 모션 벡터의 참조 화상과 동일한 POC 값을 갖고 예측에 사용되는 시간 모션 벡터의 목표 화상이 예측되는 현재의 모션 벡터의 참조 화상과 동일한 POC 값을 가지면, 예측에 사용되는 모션 벡터는 스케일링되지 않을 수도 있다. 그렇지 않고, 그러나, 예측에 사용되는 모션 벡터는 예측에 사용되는 모션 벡터의 참조 화상과 현재 예측되는 모션 벡터의 참조 화상 사이의 POC 값에서의 차이에 기초하여 스케일링될 수도 있다.
본 개시물의 일부 양태들에 따르면, 상이한 뷰들로부터의 시간 및/또는 디스패리티 모션 벡터들이 MVP 후보들로서 사용될 수도 있다. 예를 들어, 시간 및/또는 디스패리티 모션 벡터들이 현재의 블록에 대한 MVD 를 계산하는데 사용될 수도 있다. 본 개시물의 다른 양태들에 따르면, 상이한 뷰들로부터의 시간 및/또는 디스패리티 모션 벡터들이 병합 후보들로서 사용될 수도 있다. 예를 들어, 시간 및/또는 디스패리티 모션 벡터들이 현재의 블록에 상속될 수도 있다. 이런 예들에서, 인덱스 값은 현재의 비디오 블록이 그의 모션 정보를 상속받는 이웃을 식별하는데 사용될 수도 있다. 어쨌든, MVP 또는 병합 후보로서 사용되는 상이한 뷰로부터의 디스패리티 및/또는 시간 모션 벡터는 MVP 또는 병합 후보로서 사용되기 전에 스케일링될 수도 있다.
도 1 은 멀티뷰 코딩에서의 모션 벡터 예측을 위한 기법들을 이용할 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템 (10) 을 예시하는 블록도이다. 도 1 에 나타낸 바와 같이, 시스템 (10) 은 목적지 디바이스 (14) 에 의해 추후에 디코딩되는 인코딩된 비디오 데이터를 제공하는 소스 디바이스 (12) 를 포함한다. 특히, 소스 디바이스 (12) 는 비디오 데이터를 목적지 디바이스 (14) 에 컴퓨터-판독가능 매체 (16) 를 통해서 제공한다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 데스크탑 컴퓨터들, 노트북 (즉, 랩탑) 컴퓨터들, 태블릿 컴퓨터들, 셋-탑 박스들, 소위 "스마트" 폰들과 같은 전화기 핸드셋들, 소위 "스마트" 패드들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스 등을 포함한, 광범위한 디바이스들 중 임의의 디바이스를 포함할 수도 있다. 일부의 경우, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 무선 통신용으로 탑재될 수도 있다.
목적지 디바이스 (14) 는 디코딩될 인코딩된 비디오 데이터를 컴퓨터-판독가능 매체 (16) 를 통해서 수신할 수도 있다. 컴퓨터-판독가능 매체 (16) 는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로 이동시킬 수 있는 임의 종류의 매체 또는 디바이스를 포함할 수도 있다. 일 예에서, 컴퓨터-판독가능 매체 (16) 는 소스 디바이스 (12) 로 하여금 인코딩된 비디오 데이터를 직접 목적지 디바이스 (14) 로 실시간으로 송신할 수 있게 하는 통신 매체를 포함할 수도 있다.
인코딩된 비디오 데이터는 무선 통신 프로토콜과 같은 통신 표준에 따라서 변조되어 목적지 디바이스 (14) 로 송신될 수도 있다. 통신 매체는 무선 주파수 (RF) 스펙트럼 또는 하나 이상의 물리적인 송신 라인들과 같은, 임의의 무선 또는 유선 통신 매체를 포함할 수도 있다. 통신 매체는 근거리 네트워크, 광역 네트워크, 또는 글로벌 네트워크, 예컨대 인터넷과 같은 패킷-기반 네트워크의 부분을 형성할 수도 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다.
일부 예들에서, 인코딩된 데이터는 출력 인터페이스 (22) 로부터 저장 디바이스로 출력될 수도 있다. 이와 유사하게, 인코딩된 데이터는 입력 인터페이스에 의해 저장 디바이스로부터 액세스될 수도 있다. 저장 디바이스는 하드 드라이브, 블루-레이 디스크들, DVD 들, CD-ROM 들, 플래시 메모리, 휘발성 또는 비-휘발성 메모리, 또는 인코딩된 비디오 데이터를 저장하기 위한 임의의 다른 적합한 디지털 저장 매체들과 같은 다양한 분산된 또는 로컬로 액세스되는 데이터 저장 매체들 중 임의의 데이터 저장 매체를 포함할 수도 있다. 추가 예에서, 저장 디바이스는 소스 디바이스 (12) 에 의해 발생된 인코딩된 비디오를 저장할 수도 있는 파일 서버 또는 또 다른 중간 저장 디바이스에 대응할 수도 있다.
목적지 디바이스 (14) 는 저장된 비디오 데이터에 저장 디바이스로부터 스트리밍 또는 다운로드를 통해서 액세스할 수도 있다. 파일 서버는 인코딩된 비디오 데이터를 저장하고 그 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로 송신하는 것이 가능한 임의 종류의 서버일 수도 있다. 예시적인 파일 서버들은 웹 서버 (예컨대, 웹사이트용), FTP 서버, NAS (network attached storage) 디바이스들, 또는 로컬 디스크 드라이브를 포함한다. 목적지 디바이스 (14) 는 인터넷 접속을 포함한, 임의의 표준 데이터 접속을 통해서, 인코딩된 비디오 데이터에 액세스할 수도 있다. 이것은 파일 서버 상에 저장된 인코딩된 비디오 데이터에 액세스하는데 적합한, 무선 채널 (예컨대, Wi-Fi 접속), 유선 접속 (예컨대, DSL, 케이블 모뎀 등), 또는 양자의 조합을 포함할 수도 있다. 저장 디바이스로부터의 인코딩된 비디오 데이터의 송신은 스트리밍 송신, 다운로드 송신, 또는 이들의 조합일 수도 있다.
본 개시물의 기법들은 그러나, 반드시 무선 애플리케이션들 또는 설정들에 한정되지는 않는다. 이 기법들은 오버-디-에어 (over-the-air) 텔레비전 브로드캐스트들, 케이블 텔레비전 송신들, 위성 텔레비전 송신들, 인터넷 스트리밍 비디오 송신들, 예컨대 HTTP (DASH) 를 통한 동적 적응 스트리밍, 데이터 저장 매체 상에 인코딩된 디지털 비디오, 데이터 저장 매체 상에 저장된 디지털 비디오의 디코딩, 또는 다른 애플리케이션들과 같은, 다양한 멀티미디어 애플리케이션들 중 임의의 애플리케이션의 지원 하에서, 비디오 코딩에 적용될 수도 있다. 일부 예들에서, 시스템 (10) 은 비디오 스트리밍, 비디오 재생, 비디오 브로드캐스팅, 및/또는 비디오 전화 통신과 같은, 지원 애플리케이션들로의 1-방향 또는 2-방향 비디오 송신을 지원하도록 구성될 수도 있다.
도 1 의 예에서, 소스 디바이스 (12) 는 비디오 소스 (18), 비디오 인코더 (20), 및 출력 인터페이스 (22) 를 포함한다. 목적지 디바이스 (14) 는 입력 인터페이스 (28), 비디오 디코더 (30), 및 디스플레이 디바이스 (32) 를 포함한다. 본 개시물에 따르면, 소스 디바이스 (12) 의 비디오 인코더 (20) 는 멀티뷰 코딩에서의 모션 벡터 예측을 위한 기법들을 적용하도록 구성될 수도 있다. 다른 예들에서, 소스 디바이스 및 목적지 디바이스는 다른 구성요소들 또는 배열들을 포함할 수도 있다. 예를 들어, 소스 디바이스 (12) 는 비디오 데이터를 외부 카메라와 같은 외부 비디오 소스 (18) 로부터 수신할 수도 있다. 이와 유사하게, 목적지 디바이스 (14) 는 통합된 디스플레이 디바이스를 포함하는 대신, 외부 디스플레이 디바이스와 인터페이스할 수도 있다.
도 1 의 예시된 시스템 (10) 은 단지 일 예이다. 멀티뷰 코딩에서의 모션 벡터 예측을 위한 기법들은 임의의 디지털 비디오 인코딩 및/또는 디코딩 디바이스에 의해 수행될 수도 있다. 일반적으로 본 개시물의 기법들이 비디오 인코딩 디바이스에 의해 수행되지만, 이 기법들은 또한 "코덱" 으로서 일반적으로 지칭되는, 비디오 인코더/디코더에 의해 수행될 수도 있다. 더욱이, 본 개시물의 기법들은 또한 비디오 프리프로세서에 의해 수행될 수도 있다. 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 단지 코딩 디바이스들의 예들이며, 여기서, 소스 디바이스 (12) 는 목적지 디바이스 (14) 로의 송신을 위해 코딩된 비디오 데이터를 발생시킨다. 일부 예들에서, 디바이스들 (12, 14) 은 디바이스들 (12, 14) 의 각각이 비디오 인코딩 및 디코딩 구성요소들을 포함하도록, 실질적으로 대칭적 방법으로 동작할 수도 있다. 그러므로, 시스템 (10) 은 예컨대, 비디오 스트리밍, 비디오 재생, 비디오 브로드캐스팅, 또는 비디오 전화 통신을 위해, 비디오 디바이스들 (12, 14) 사이에 1-방향 또는 2-방향 비디오 송신을 지원할 수도 있다.
소스 디바이스 (12) 의 비디오 소스 (18) 는 비디오 카메라와 같은 비디오 캡쳐 디바이스, 이전에 캡쳐된 비디오를 포함하는 비디오 아카이브 (archive), 및/또는 비디오 콘텐츠 제공자로부터 비디오를 수신하는 비디오 공급 인터페이스를 포함할 수도 있다. 추가 대안적인 예로서, 비디오 소스 (18) 는 컴퓨터 그래픽스-기반의 데이터를 소스 비디오, 또는 라이브 비디오, 아카이브된 비디오, 및 컴퓨터 발생된 비디오의 조합으로서 발생시킬 수도 있다. 일부의 경우, 비디오 소스 (18) 가 비디오 카메라이면, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 소위 카메라 폰들 또는 비디오 폰들을 형성할 수도 있다. 위에서 언급한 바와 같이, 그러나, 본 개시물에서 설명하는 기법들은 비디오 코딩에 일반적으로 적용가능할 수도 있으며, 무선 및/또는 유선 애플리케이션들에 적용될 수도 있다. 각 경우에, 캡쳐되거나, 사전-캡쳐되거나, 또는 컴퓨터-발생된 비디오는 비디오 인코더 (20) 에 의해 인코딩될 수도 있다. 인코딩된 비디오 정보는 그후 출력 인터페이스 (22) 에 의해 컴퓨터-판독가능 매체 (16) 상으로 출력될 수도 있다.
컴퓨터-판독가능 매체 (16) 는 무선 브로드캐스트 또는 유선 네트워크 송신과 같은 일시성 매체, 또는 하드 디스크, 플래시 드라이브, 컴팩트 디스크, 디지털 비디오 디스크, 블루-레이 디스크, 또는 다른 컴퓨터-판독가능 매체들과 같은 저장 매체들 (즉, 비일시성 저장 매체들) 을 포함할 수도 있다. 일부 예들에서, 네트워크 서버 (미도시) 는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 수신하고 그 인코딩된 비디오 데이터를 목적지 디바이스 (14) 로, 예컨대, 네트워크 송신을 통해서 제공할 수도 있다. 이와 유사하게, 디스크 스탬핑 설비와 같은 매체 생산 설비의 컴퓨팅 디바이스는 인코딩된 비디오 데이터를 소스 디바이스 (12) 로부터 수신하고 그 인코딩된 비디오 데이터를 포함하는 디스크를 제조할 수도 있다. 따라서, 컴퓨터-판독가능 매체 (16) 는 여러 예들에서, 여러 형태들의 하나 이상의 컴퓨터-판독가능 매체들을 포함하는 것으로 이해될 수도 있다.
목적지 디바이스 (14) 의 입력 인터페이스 (28) 는 컴퓨터-판독가능 매체 (16) 로부터 정보를 수신한다. 컴퓨터-판독가능 매체 (16) 의 정보는 블록들 및 다른 코딩된 유닛들, 예컨대, GOP 들 (group of pictures) 의 특성들 및/또는 프로세싱을 기술하는 구문 엘리먼트들을 포함하는, 비디오 인코더 (20) 에 의해 정의되고 또한 비디오 디코더 (30) 에 의해 사용되는, 구문 정보를 포함할 수도 있다. 디스플레이 디바이스 (32) 는 그 디코딩된 비디오 데이터를 사용자에게 디스플레이하고, 음극선관 (CRT), 액정 디스플레이 (LCD), 플라즈마 디스플레이, 유기 발광 다이오드 (OLED) 디스플레이, 또는 또 다른 유형의 디스플레이 디바이스와 같은, 다양한 디스플레이 디바이스들 중 임의의 디바이스를 포함할 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 는 현재 개발중인 HEVC (High Efficiency Video Coding) 표준과 같은 비디오 코딩 표준에 따라서 동작할 수도 있으며, HEVC 테스트 모델 (HM) 에 따를 수도 있다. 이의 대안으로, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 다르게는 MPEG 4, 파트 10, AVC (Advanced Video Coding) 로 지칭되는 ITU-T H.264 표준, 또는 이런 표준들의 확장판들과 같은 다른 사설 (proprietary) 또는 산업 표준들에 따라서 동작할 수도 있다. 본 개시물의 기법들은, 그러나, 임의의 특정의 코딩 표준에 한정되지 않는다. 비디오 코딩 표준들의 다른 예들은 MPEG-2 및 ITU-T H.263 을 포함한다. 도 1 에 나타내지는 않지만, 일부 양태들에서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 오디오 인코더 및 디코더와 각각 통합될 수도 있으며, 오디오 및 비디오 양자의 인코딩을 공통 데이터 스트림 또는 별개의 데이터 스트림들로 처리하기 위해 적합한 MUX-DEMUX 유닛들, 또는 다른 하드웨어 및 소프트웨어를 포함할 수도 있다. 적용가능한 경우, MUX-DEMUX 유닛들은 ITU H.223 멀티플렉서 프로토콜, 또는 다른 프로토콜들, 예컨대, 사용자 데이터그램 프로토콜 (UDP) 에 따를 수도 있다.
ITU-T H.264/MPEG-4 (AVC) 표준은 ISO/IEC 동화상 전문가 그룹 (MPEG) 과 함께, ITU-T 비디오 코딩 전문가 그룹 (VCEG) 에 의해 조인트 비디오 팀 (JVT) 으로서 알려진 공동 파트너쉽의 성과로서, 정식화되었다. 일부 양태들에서, 본 개시물에서 설명하는 기법들은 일반적으로 H.264 표준에 따르는 디바이스들에 적용될 수도 있다. H.264 표준은 2005년 3월, ITU-T 스터디 그룹에 의한, ITU-T 권고안 H.264, Advanced Video Coding for generic audiovisual services 에 설명되어 있으며, 본원에서 H.264 표준 또는 H.264 사양, 또는 H.264/AVC 표준 또는 사양으로서 지칭될 수도 있다. 조인트 비디오 팀 (JVT) 은 H.264/MPEG-4 AVC 에 대한 확장판들에 대해 계속 노력을 들이고 있다.
JCT-VC 는 HEVC 표준의 개발에 노력을 들이고 있다. HEVC 표준화 노력들은 HEVC 테스트 모델 (HM) 로서 지칭되는 비디오 코딩 디바이스의 진화 모델에 기초한다. HM 은 예컨대, ITU-T H.264/AVC 에 따른 기존 디바이스들에 관련된 비디오 코딩 디바이스들의 여러 추가적인 능력들을 가정한다. 예를 들어, H.264 는 9개의 인트라-예측 인코딩 모드들을 제공하는 반면, HM 은 33개 만큼이나 많은 인트라-예측 인코딩 모드들을 제공할 수도 있다.
일반적으로, HM 의 작업 모델은 비디오 화상 (또는, "프레임") 이 루마 샘플 및 크로마 샘플 양자를 포함하는 트리블록들 또는 최대 코딩 유닛들 (LCU) 의 시퀀스로 분할될 수도 있다고 기술한다. 비트스트림 내 구문 데이터는 LCU 에 대한 사이즈를 정의할 수도 있으며, 이 최대 코딩 유닛은 픽셀들의 개수의 관점에서 최대 코딩 유닛이다. 슬라이스는 코딩 순서에서 다수의 연속되는 트리블록들을 포함한다. 화상은 하나 이상의 슬라이스들로 파티셔닝될 수도 있다. 각각의 트리블록은 쿼드트리에 따라 코딩 유닛들 (CUs) 로 분할될 수도 있다. 일반적으로, 쿼드트리 데이터 구조는 CU 당 하나의 노드를 포함하며, 동시에, 루트 노드는 트리블록에 대응한다. CU 가 4개의 서브-CU 들로 분할되면, CU 에 대응하는 노드는 4개의 리프 (leaf) 노드들을 포함하며, 각각의 리프 노드는 서브-CU 들 중 하나의 서브-CU 에 대응한다.
쿼드트리 데이터 구조의 각각의 노드는 대응하는 CU 에 대해 구문 데이터를 제공할 수도 있다. 예를 들어, 쿼드트리에서 노드는 그 노드에 대응하는 CU 가 서브-CU 들로 분할될지 여부를 나타내는 분할 플래그를 포함할 수도 있다. CU 에 대한 구문 엘리먼트들은 회귀적으로 정의될 수도 있으며, CU 가 서브-CU 들로 분할되는지 여부에 의존할 수도 있다. CU 가 추가로 분할되지 않으면, 리프-CU 로서 지칭된다. 본 개시물에서, 리프-CU 의 4개의 서브-CU 들은 또한 원래 리프-CU 의 명시적인 분할이 없더라도 리프-CU 들로 지칭될 것이다. 예를 들어, 16 × 16 사이즈에서 CU 가 추가로 분할되지 않으면, 4개의 8 × 8 서브-CU 들이 또한 16 × 16 CU 가 전혀 분할되지 않았더라도 리프-CU 들로서 지칭될 것이다.
CU 는 CU 가 사이즈 구별을 갖지 않는다는 점을 제외하고는, H.264 표준의 매크로블록과 유사한 목적을 갖는다. 예를 들어, 트리블록은 4개의 자식 노드들 (또한, 서브-CU 들로서 지칭됨) 로 분할될 수도 있으며, 각각의 자식 노드는 결국 부모 노드일 수도 있으며 또 다른 4개의 자식 노드들로 분할될 수도 있다. 쿼드트리의 리프 노드로서 지칭되는, 최종, 미분할된 자식 노드는 또한 리프-CU 으로서 지칭되는, 코딩 노드를 포함한다. 코딩된 비트스트림과 연관되는 구문 데이터는 최대 CU 심도로서 지칭되는, 트리블록이 분할될 수도 있는 최대 횟수를 정의할 수도 있으며, 또한 코딩 노드들의 최소 사이즈를 정의할 수도 있다. 따라서, 비트스트림은 또한 최소 코딩 유닛 (SCU) 을 정의할 수도 있다. 본 개시물은 HEVC 의 상황에서, CU, PU, 또는 TU 중 임의의 것, 또는 다른 표준들의 상황에서 유사한 데이터 구조들 (예컨대, H.264/AVC 에서의 매크로블록들 및 그의 서브-블록들) 을 지칭하는데 용어 "블록" 을 사용한다.
CU 는 코딩 노드, 및 이 코딩 노드와 연관되는 변환 유닛들 (TUs) 및 예측 유닛들 (PUs) 을 포함한다. CU 의 사이즈는 코딩 노드의 사이즈에 대응하며 형태가 정사각형이어야 한다. CU 의 사이즈는 8 × 8 픽셀들로부터 64 × 64 픽셀들 이상의 최대치를 갖는 트리블록의 사이즈까지 이를 수도 있다. 각각의 CU 는 하나 이상의 PU 들 및 하나 이상의 TU 들을 포함할 수도 있다. CU 와 연관되는 구문 데이터는 예를 들어, 하나 이상의 PU 들로의 CU 의 파티셔닝을 기술할 수도 있다. 파티셔닝 모드들은 CU 가 건너 뛸지 또는 직접 모드 인코딩될지, 인트라-예측 모드 인코딩될지, 또는 인터-예측 모드 인코딩될지 여부의 사이에서 상이할 수도 있다. PU 들은 비-정사각형의 형태로 파티셔닝될 수도 있다. CU 와 연관되는 구문 데이터는 또한 예를 들어, 쿼드트리에 따른 하나 이상의 TU 들로의 CU 의 파티셔닝을 기술할 수도 있다. TU 는 정사각형 또는 비-정사각형 (예컨대, 직사각형) 의 형태일 수 있다.
HEVC 표준은 TU 들에 따라서 변환들을 허용하며, 이 TU 들은 상이한 CU 들에 대해 상이할 수도 있다. TU 들은 일반적으로 파티셔닝된 LCU 에 대해 정의된 주어진 CU 내 PU 들의 사이즈에 기초하여 사이징되지만, 이것은 항상 사실은 아니다. TU 들은 일반적으로 PU 들과 동일한 사이즈이거나 또는 더 작다. 일부 예들에서, CU 에 대응하는 잔여 샘플들은 "잔여 쿼드 트리 (residual quad tree)" (RQT) 로서 알려진 쿼드트리 구조를 이용하여 더 작은 유닛들로 세분될 수도 있다. RQT 의 리프 노드들은 변환 유닛들 (TUs) 로서 지칭될 수도 있다. TU 들과 연관되는 픽셀 차이 값들은 변환 계수들을 생성하기 위해 변환될 수도 있으며, 그 변환 계수들은 양자화될 수도 있다.
리프-CU 는 하나 이상의 예측 유닛들 (PUs) 을 포함할 수도 있다. 일반적으로, PU 는 대응하는 CU 의 모두 또는 부분에 대응하는 공간 영역을 나타내며, PU 에 대한 참조 샘플을 취출하기 위한 데이터를 포함할 수도 있다. 더욱이, PU 는 예측에 관련된 데이터를 포함한다. 예를 들어, PU 가 인트라-모드 인코딩될 때, PU 에 대한 데이터는 잔여 쿼드트리 (RQT) 에 포함될 수도 있으며, PU 에 대응하는 TU 에 대한 인트라-예측 모드를 기술하는 데이터를 포함할 수도 있다. 또 다른 예로서, PU 가 인터-모드 인코딩될 때, PU 는 PU 에 대한 하나 이상의 모션 벡터들을 정의하는 데이터를 포함할 수도 있다. PU 에 대한 모션 벡터를 정의하는 데이터는 예를 들어, 모션 벡터의 수평 성분, 모션 벡터의 수직 성분, 모션 벡터에 대한 해상도 (예컨대, 1/4 픽셀 정밀도 또는 1/8 픽셀 정밀도), 모션 벡터가 가리키는 참조 화상, 및/또는 모션 벡터에 대한 참조 화상 리스트 (예컨대, 리스트 0, 리스트 1, 또는 리스트 C) 를 기술할 수도 있다.
하나 이상의 PU 들을 갖는 리프-CU 는 또한 하나 이상의 변환 유닛들 (TUs) 을 포함할 수도 있다. 변환 유닛들은 위에서 설명한 바와 같이, RQT (또한, TU 쿼드트리 구조로서 지칭됨) 를 이용하여 규정될 수도 있다. 예를 들어, 분할 플래그는 리프-CU 가 4개의 변환 유닛들로 분할될 지를 나타낼 수도 있다. 그 후, 각각의 변환 유닛은 추가적인 서브-TU 들로 추가로 분할될 수도 있다. TU 가 추가로 분할되지 않을 때, 리프-TU 로서 지칭될 수도 있다. 일반적으로, 인트라 코딩에 있어, 리프-CU 에 속하는 모든 리프-TU 들은 동일한 인트라 예측 모드를 공유한다. 즉, 동일한 인트라-예측 모드가 일반적으로 리프-CU 의 모든 TU 들에 대해 예측된 값들을 계산하기 위해 적용된다. 인트라 코딩에 있어, 비디오 인코더 (20) 는 각각의 리프-TU 에 대한 잔여 값을 인트라 예측 모드를 이용하여, TU 에 대응하는 CU 의 부분과 원래 블록 사이의 차이로서 계산할 수도 있다. TU 는 PU 의 사이즈에 반드시 제한될 필요는 없다. 따라서, TU 들은 PU 보다 더 크거나 또는 더 작을 수도 있다. 인트라 코딩에 있어, PU 는 동일한 CU 에 대한 대응하는 리프-TU 와 연어를 이룰 수도 있다 (collocated). 일부 예들에서, 리프-TU 의 최대 사이즈는 대응하는 리프-CU 의 사이즈에 대응할 수도 있다.
더욱이, 리프-CU 들의 TU 들은 또한 잔여 쿼드트리들 (RQTs) 로서 지칭되는, 각각의 쿼드트리 데이터 구조들과 연관될 수도 있다. 즉, 리프-CU 는 리프-CU 가 어떻게 TU 들로 파티셔닝되는 지를 나타내는 쿼드트리를 포함할 수도 있다. TU 쿼드트리의 루트 노드는 일반적으로 리프-CU 에 대응하는 반면, CU 쿼드트리의 루트 노드는 일반적으로 트리블록 (또는, LCU) 에 대응한다. 분할되지 않은 RQT 의 TU 들은 리프-TU 들로서 지칭된다. 일반적으로, 본 개시물은 달리 언급하지 않는 한, 리프-CU 및 리프-TU 를 지칭하기 위해, 각각 용어들 CU 및 TU 를 사용한다.
비디오 시퀀스는 일반적으로 일련의 화상들을 포함한다. 본원에서 설명하는 바와 같이, "화상" 및 "프레임" 은 교환가능하게 사용될 수도 있다. 즉, 비디오 데이터를 포함하는 화상은 비디오 프레임, 또는 간단히 "프레임" 으로서 지칭될 수도 있다. 화상들의 그룹 (GOP) 은 일반적으로 비디오 화상들의 하나 이상의 시리즈를 포함한다. GOP 는 GOP 의 헤더, 화상들의 하나 이상의 헤더, 또는 다른 곳에, GOP 에 포함된 다수의 화상들을 기술하는 구문 데이터를 포함할 수도 있다. 화상의 각각의 슬라이스는 각각의 슬라이스에 대한 인코딩 모드를 기술하는 슬라이스 구문 데이터를 포함할 수도 있다. 비디오 인코더 (20) 는 일반적으로 비디오 데이터를 인코딩하기 위해 개개의 비디오 슬라이스들 내 비디오 블록들에 대해 동작한다. 비디오 블록은 CU 내 코딩 노드에 대응할 수도 있다. 비디오 블록들은 고정 또는 가변 사이즈들을 가질 수도 있으며, 규정된 코딩 표준에 따라서 사이즈가 상이할 수도 있다.
일 예로서, HM 은 여러 PU 사이즈들에서 예측을 지원한다. 특정의 CU 의 사이즈가 2N × 2N 이라고 가정하면, HM 은 2N × 2N 또는 N × N 의 PU 사이즈들에서 인트라-예측을, 그리고 2N × 2N, 2N × N, N × 2N, 또는 N × N 의 대칭적인 PU 사이즈들에서 인터-예측을 지원한다. HM 은 또한 2N × nU, 2N × nD, nL × 2N, 및 nR × 2N 의 PU 사이즈들에서의 인터-예측에 대해 비대칭적인 파티셔닝을 지원한다. 비대칭적인 파티셔닝에서, CU 의 하나의 방향은 파티셔닝되지 않지만, 다른 방향은 25% 및 75% 로 파티셔닝된다. 25% 파티션에 대응하는 CU 의 부분은 "상부 (Up)", "하부 (Down)", "좌측 (좌측)", 또는 "우측 (우측)" 의 표시가 뒤따르는 "n" 으로 표시된다. 따라서, 예를 들어, "2N × nU" 는 최상부 (top) 에서 2N × 0.5N PU 으로 그리고 바닥부 (bottom) 에서 2N × 1.5N PU 으로 수평으로 파티셔닝된 2N × 2N CU 를 지칭한다.
본 개시물에서, "N × N" 및 "N 곱하기 N" 은 수직 및 수평 치수들의 관점에서 비디오 블록의 픽셀 치수들, 예컨대, 16 × 16 픽셀들 또는 16 곱하기 16 픽셀들을 지칭하기 위해 상호교환가능하게 사용될 수도 있다. 일반적으로, 16 × 16 블록은 수직 방향으로 16 개의 픽셀들 (y = 16) 및 수평 방향으로 16 개의 픽셀들 (x = 16) 을 가질 것이다. 이와 유사하게, N × N 블록은 일반적으로 수직 방향으로 N 개의 픽셀들 및 수평 방향으로 N 개의 픽셀들을 가지며, 여기서 N 은 음이 아닌 정수 값을 나타낸다. 블록에서 픽셀들은 로우들 및 칼럼들로 배열될 수도 있다. 더욱이, 블록들은 수직 방향에서와 같이 수평 방향에서 동일한 픽셀들의 개수를 반드시 가질 필요는 없다. 예를 들어, 블록들은 N × M 픽셀들을 포함할 수도 있으며, 여기서 M 은 반드시 N 과 같을 필요는 없다.
CU 의 PU 들을 이용한 인트라-예측 또는 인터-예측 코딩 이후, 비디오 인코더 (20) 는 CU 의 TU 들에 대한 잔여 데이터를 계산할 수도 있다. PU 들은 공간 도메인 (또한, 픽셀 도메인으로 지칭됨) 에서 예측 픽셀 데이터를 발생시키는 방법 또는 모드를 기술하는 구문 데이터를 포함할 수도 있으며, TU 들은 이산 코사인 변환 (DCT), 정수 변환, 웨이블릿 변환, 또는 잔여 비디오 데이터에 개념적으로 유사한 변환과 같은 변환의 적용 이후 변환 도메인에서 계수들을 포함할 수도 있다. 잔여 데이터는 미인코딩된 화상의 픽셀들과 PU 들에 대응하는 예측 값들 사이의 픽셀 차이들에 대응할 수도 있다. 비디오 인코더 (20) 는 CU 에 대한 잔여 데이터를 포함하는 TU 들을 형성하고, 그후 그 TU 들을 변환하여, 그 CU 에 대한 변환 계수들을 생성할 수도 있다.
변환 계수들을 생성하기 위한 임의의 변환들 이후, 비디오 인코더 (20) 는 변환 계수들의 양자화를 수행할 수도 있다. 양자화는 일반적으로 변환 계수들이 계수들을 나타내는데 사용되는 데이터의 양을 가능한 한 감축하기 위해 양자화되는 프로세스를 지칭하며, 추가적인 압축을 제공한다. 양자화 프로세스는 그 계수들의 일부 또는 모두와 연관되는 비트 심도를 감소시킬 수도 있다. 예를 들어, n-비트 값은 양자화 동안 m-비트 값까지 절사될 수도 있으며, 여기서, n 은 m 보다 더 크다.
양자화 이후, 비디오 인코더는 변환 계수들을 스캐닝하여, 양자화된 변환 계수들을 포함하는 2차원 매트릭스로부터 1차원 벡터를 생성할 수도 있다. 스캐닝은 어레이의 전면에서 더 높은 에너지 (따라서, 더 낮은 주파수) 계수들을 배치하고, 그리고 어레이의 후면에서 더 낮은 에너지 (따라서, 더 높은 주파수) 계수들을 배치하도록 설계될 수도 있다. 일부 예들에서, 비디오 인코더 (20) 는 엔트로피 인코딩될 수 있는 직렬화된 벡터를 생성하기 위해, 미리 정의된 스캐닝 순서를 이용하여, 양자화된 변환 계수들을 스캐닝할 수도 있다. 다른 예들에서, 비디오 인코더 (20) 는 적응적 스캐닝을 수행할 수도 있다. 양자화된 변환 계수들을 스캐닝하여 1차원 벡터를 형성한 후, 비디오 인코더 (20) 는 1차원 벡터를 예컨대, 컨텍스트-적응 가변 길이 코딩 (CAVLC), 컨텍스트-적응 2진 산술 코딩 (CABAC), 구문-기반의 컨텍스트-적응 2진 산술 코딩 (SBAC), 확률 간격 파티셔닝 엔트로피 (PIPE) 코딩 또는 또 다른 엔트로피 인코딩 방법론에 따라서, 엔트로피 인코딩할 수도 있다. 비디오 인코더 (20) 는 또한 비디오 데이터를 디코딩할 때에 비디오 디코더 (30) 에 의해 사용하기 위한 인코딩된 비디오 데이터와 연관되는 구문 엘리먼트들을 엔트로피 인코딩할 수도 있다.
CABAC 을 수행하기 위해, 비디오 인코더 (20) 는 컨텍스트 모델 내 컨텍스트를 송신될 심볼에 할당할 수도 있다. 컨텍스트는 예를 들어, 심볼의 이웃하는 값들이 논-제로인지 여부에 관련될 수도 있다. CAVLC 을 수행하기 위해, 비디오 인코더 (20) 는 송신될 심볼에 대해 가변 길이 코드를 선택할 수도 있다. VLC 에서의 코드워드들은 상대적으로 더 짧은 코드들이 더 가능성 있는 심볼들에 대응하는 한편, 더 긴 코드들이 덜 가능성 있는 심볼들에 대응하도록, 구성될 수도 있다. 이러한 방법으로, VLC 의 사용은 예를 들어, 송신될 각각의 심볼에 대해 동일-길이 코드워드들을 사용하는 것에 비해 비트 절감을 달성할 수도 있다. 확률 결정은 그 심볼에 할당된 컨텍스트에 기초할 수도 있다.
비디오 인코더 (20) 는 블록-기반의 구문 데이터, 화상-기반의 구문 데이터, 및 GOP-기반의 구문 데이터와 같은 구문 데이터를, 비디오 디코더 (30) 로, 예컨대, 화상 헤더, 블록 헤더, 슬라이스 헤더, 또는 GOP 헤더로 추가로 전송할 수도 있다. GOP 구문 데이터는 각각의 GOP 에서의 다수의 화상들을 기술할 수도 있으며, 화상 구문 데이터는 대응하는 화상을 인코딩하는데 사용되는 인코딩/예측 모드를 나타낼 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 적용가능한 경우, 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSPs), 주문형 집적회로들 (ASICs), 필드 프로그래밍가능 게이트 어레이들 (FPGAs), 이산 로직 회로, 소프트웨어, 하드웨어, 펌웨어 또는 임의의 이들의 조합들과 같은, 다양한 적합한 인코더 또는 디코더 회로 중 임의의 회로로서 구현될 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 인코더들 또는 디코더들에 포함될 수도 있으며, 이들 중 어느 쪽이든 결합된 비디오 인코더/디코더 (코덱) 의 부분으로서 통합될 수도 있다. 비디오 인코더 (20) 및/또는 비디오 디코더 (30) 를 포함하는 디바이스는 집적 회로, 마이크로프로세서, 및/또는 무선 통신 디바이스, 예컨대 셀룰러 전화기를 포함할 수도 있다.
도 2 는 멀티뷰 코딩에서 모션 벡터들을 예측하기 위한 본 개시물에서 설명하는 기법들을 구현할 수도 있는 예시적인 비디오 인코더 (20) 를 예시하는 블록도이다. 비디오 인코더 (20) 는 비디오 슬라이스들 내 비디오 블록들의 인트라-코딩 및 인터-코딩을 수행할 수도 있다. 인트라 코딩은 주어진 화상 내 비디오에서 공간 리던던시를 감소시키거나 또는 제거하기 위해 공간 예측에 의존한다. 인터-코딩은 비디오 시퀀스의 화상들 또는 인접한 화상들 내 비디오에서 시간 리던던시를 감소시키거나 또는 제거하기 위해 시간 예측에 의존한다. 인트라-모드 (I 모드) 는 여러 공간 기반의 압축 모드들 중 임의의 압축 모드를 지칭할 수도 있다. 단방향 예측 (P 모드) 또는 양방향-예측 (B 모드) 과 같은 인터-모드들은 여러 시간-기반의 압축 모드들 중 임의의 모드를 지칭할 수도 있다.
도 2 에 나타낸 바와 같이, 비디오 인코더 (20) 는 인코딩될 비디오 데이터를 수신한다. 도 2 의 예에서, 비디오 인코더 (20) 는 모드 선택 유닛 (40), 합산기 (50), 변환 유닛 (52), 양자화 유닛 (54), 엔트로피 인코딩 유닛 (56), 및 참조 화상 메모리 (64) 를 포함한다. 모드 선택 유닛 (40) 은, 차례로, 모션 추정 유닛 (42), 모션 보상 유닛 (44), 인트라 예측 유닛 (46), 및 파티션 유닛 (48) 을 포함한다. 비디오 블록 재구성을 위해, 비디오 인코더 (20) 는 또한 역양자화 유닛 (58), 역변환 유닛 (60), 및 합산기 (62) 를 포함한다. 디블로킹 필터 (도 2 에 미도시) 가 또한 블록 경계들을 필터링하여 재구성된 비디오로부터 블록킹 현상 아티팩트들을 제거하기 위해 포함될 수도 있다. 원할 경우, 디블로킹 필터는 일반적으로 합산기 (62) 의 출력을 필터링할 것이다. 추가적인 루프 필터들 (인 루프 또는 사후 루프) 이 또한 디블로킹 필터에 추가하여 사용될 수도 있다. 이런 필터들은 간결성을 위해 도시되지 않지만, 그러나 원할 경우, 합산기 (50) 의 출력을 (인-루프 필터로서) 필터링할 수도 있다.
인코딩 프로세스 동안, 비디오 인코더 (20) 는 코딩될 화상 또는 슬라이스를 수신한다. 이 화상 또는 슬라이스는 다수의 비디오 블록들로 분할될 수도 있다. 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 은 시간 압축을 제공하기 위해, 하나 이상의 참조 화상들에서의 하나 이상의 블록들에 대해 수신된 비디오 블록의 인터-예측 코딩을 수행한다. 인트라-예측 유닛 (46) 은 대안적으로, 공간 압축을 제공하기 위해, 코딩될 블록과 동일한 화상 또는 슬라이스에서의 하나 이상의 이웃하는 블록들에 대해 수신된 비디오 블록의 인트라-예측 코딩을 수행할 수도 있다. 비디오 인코더 (20) 는 예컨대, 비디오 데이터의 각각의 블록에 대해 적합한 코딩 모드를 선택하기 위해, 다수의 코딩 패스들 (passes) 을 수행할 수도 있다.
더욱이, 파티션 유닛 (48) 은 이전 코딩 패스들에서의 이전 파티셔닝 방식들의 평가에 기초하여, 비디오 데이터의 블록들을 서브-블록들로 파티셔닝할 수도 있다. 예를 들어, 파티션 유닛 (48) 은 처음에 화상 또는 슬라이스를 LCU 들로 파티셔닝하고, 레이트-왜곡 분석 (예컨대, 레이트-왜곡 최적화) 에 기초하여 LCU 들의 각각을 서브-CU 들로 파티셔닝할 수도 있다. 모드 선택 유닛 (40) 은 서브-CU 들로의 LCU 의 파티셔닝을 나타내는 쿼드트리 데이터 구조를 추가로 생성할 수도 있다. 쿼드트리의 리프-노드 CU 들은 하나 이상의 PU 들 및 하나 이상의 TU 들을 포함할 수도 있다.
모드 선택 유닛 (40) 은 예를 들어, 에러 결과들에 기초하여 코딩 모드들, 즉 인트라 또는 인터 중 하나를 선택할 수도 있으며, 최종 인트라- 또는 인터-코딩된 블록을 합산기 (50) 에 제공하여, 잔여 블록 데이터를 발생시키고, 그리고 합산기 (62) 에 제공하여, 참조 화상으로의 사용을 위해 인코딩된 블록을 재구성할 수도 있다. 모드 선택 유닛 (40) 은 또한 모션 벡터들, 인트라-모드 표시자들, 파티션 정보, 및 다른 이런 구문 정보와 같은 구문 엘리먼트들을 엔트로피 코딩 유닛 (56) 에 제공한다.
모션 추정 유닛 (42), 모션 벡터 예측 유닛 (43), 및 모션 보상 유닛 (44) 은 고도로 통합될 수도 있지만, 개념적인 목적들을 위해 별개로 예시된다. 모션 추정 유닛 (42) 에 의해 수행되는 모션 추정은 모션 벡터들을 발생시키는 프로세스이며, 이 프로세스는 비디오 블록들에 대한 모션을 추정한다. 모션 벡터는, 예를 들어, 현재의 화상 (또는, 다른 코딩된 유닛) 내 코딩되는 현재의 블록에 대한 참조 화상 (또는, 다른 코딩된 유닛) 내 예측 블록에 대한, 현재의 화상 내 비디오 블록의 PU 의 변위를 나타낼 수도 있다.
예측 블록은 픽셀 차이의 관점에서, 코딩될 블록과 가깝게 일치하는 것으로 발견되는 블록이며, SAD (sum of absolute difference), SSD (sum of square difference), 또는 다른 차이 메트릭들에 의해 결정될 수도 있다. 일부 예들에서, 비디오 인코더 (20) 는 참조 화상 메모리 (64) 에 저장된 참조 화상들의 서브-정수 픽셀 위치들에 대한 값들을 계산할 수도 있으며, 이 참조 화상 메모리는 또한 참조 화상 버퍼로서 지칭될 수도 있다. 예를 들어, 비디오 인코더 (20) 는 참조 화상의 1/4 픽셀 위치들, 1/8 픽셀 위치들, 또는 다른 분수 픽셀 위치들의 값들을 내삽할 수도 있다. 따라서, 모션 추정 유닛 (42) 은 풀 픽셀 위치들 및 분수 픽셀 위치들에 대해 모션 탐색을 수행하고, 분수 픽셀 정밀도를 가진 모션 벡터를 출력할 수도 있다.
모션 추정 유닛 (42) 은 PU 의 위치를 참조 화상의 예측 블록의 위치와 비교함으로써 인터-코딩된 슬라이스에서의 비디오 블록의 PU 에 대한 모션 벡터를 계산한다. 따라서, 일반적으로, 모션 벡터에 대한 데이터는 참조 화상 리스트, 참조 화상 리스트 (ref_idx) 에 대한 인덱스, 수평 성분, 및 수직 성분을 포함할 수도 있다. 참조 화상은 제 1 참조 화상 리스트 (리스트 0), 제 2 참조 화상 리스트 (리스트 1), 또는 결합된 참조 화상 리스트 (리스트 c) 로부터 선택될 수도 있으며, 이 리스트 각각은 참조 화상 메모리 (64) 에 저장된 하나 이상의 참조 화상들을 식별한다.
모션 추정 유닛 (42) 은 참조 화상의 예측 블록을 식별하는 모션 벡터를 발생시켜 엔트로피 인코딩 유닛 (56) 및 모션 보상 유닛 (44) 으로 전송할 수도 있다. 즉, 모션 추정 유닛 (42) 은 그 식별되는 화상 내에 예측 블록을 로케이트하기 위해, 그 예측 블록을 포함하는 참조 화상 리스트, 그 예측 블록의 화상을 식별하는 참조 화상 리스트에 대한 인덱스, 및 수평 및 수직 성분을 식별하는 모션 벡터 데이터를 발생시켜 전송할 수도 있다.
일부 예들에서, 현재의 PU 에 대한 실제 모션 벡터를 전송하는 대신, 모션 벡터 예측 유닛 (43) 은 모션 벡터를 예측하여, 모션 벡터를 통신하는데 요구되는 데이터의 양을 추가로 감소시킬 수도 있다. 이 경우, 모션 벡터 자체를 인코딩하여 통신하는 대신, 모션 벡터 예측 유닛 (43) 은 기지의 (또는, 인식가능한) 모션 벡터에 대한 모션 벡터 차이 (MVD) 를 발생시킬 수도 있다. 이 기지의 모션 벡터는, 현재의 모션 벡터를 정의하기 위해 MVD 와 함께 사용될 수도 있는데, 소위 모션 벡터 예측자 (MVP) 에 의해 정의될 수 있다. 일반적으로, 유효한 MVP 가 되도록 하기 위해, 예측에 사용되는 모션 벡터는 현재 코딩되는 모션 벡터와 동일한 참조 화상을 가리켜야 한다.
일부 예들에서, 아래에서 도 5 에 대해 더 자세히 설명하는 바와 같이, 모션 벡터 예측 유닛 (43) 은 MVP 에 대한 후보들로서 공간 및/또는 시간 방향들에서의 여러 이웃하는 블록들을 포함하는 모션 벡터 예측자 후보 리스트를 형성할 수도 있다. 본 개시물의 양태들에 따르면, 아래에서 더 자세히 설명하는 바와 같이, 모션 벡터 예측자 후보들은 또한 (예컨대, 멀티뷰 코딩에서) 상이한 뷰들의 화상들에서 식별될 수도 있다. 다수의 모션 벡터 예측자 후보들이 (다수의 후보 블록들로부터) 이용가능할 때, 모션 벡터 예측 유닛 (43) 은 미리 결정된 선택 기준들에 따라서 현재의 블록에 대한 모션 벡터 예측자를 결정할 수도 있다. 예를 들어, 모션 벡터 예측 유닛 (43) 은 인코딩 레이트 및 왜곡의 분석에 기초하여 (예컨대, 레이트-왜곡 비용 분석 또는 다른 코딩 효율 분석을 이용하여) 후보 세트로부터 가장 정확한 예측자를 선택할 수도 있다. 다른 예들에서, 모션 벡터 예측 유닛 (43) 은 모션 벡터 예측자 후보들의 평균을 발생시킬 수도 있다. 모션 벡터 예측자를 선택하는 다른 방법들이 또한 가능하다.
모션 벡터 예측자를 선택하자 마자, 모션 벡터 예측 유닛 (43) 은 모션 벡터 예측자 인덱스 (mvp_flag) 를 결정할 수도 있으며, 이 인덱스는 MVP 후보 블록들을 포함하는 참조 화상 리스트에서 MVP 를 로케이트할 장소를 (예컨대, 비디오 디코더 (30) 와 같은) 비디오 디코더에게 통지하기 위해 사용될 수도 있다. 모션 벡터 예측 유닛 (43) 은 또한 현재의 블록과 선택된 MVP 사이에서 MVD 를 결정할 수도 있다. MVP 인덱스 및 MVD 는 모션 벡터를 재구성하는데 사용될 수도 있다.
일부 예들에서, 모션 벡터 예측 유닛 (43) 은 소위 "병합 모드" 를 대신 구현할 수도 있으며, 여기서, 모션 벡터 예측 유닛 (43) 은 예측 비디오 블록의 (모션 벡터들, 참조 화상 인덱스들, 예측 방향들, 또는 다른 정보와 같은) 모션 정보를 현재의 비디오 블록과 "병합할" 수도 있다. 따라서, 병합 모드에 대해, 현재의 비디오 블록은 또 다른 기지의 (또는, 인식가능한) 비디오 블록으로부터 모션 정보를 상속받는다. 모션 벡터 예측 유닛 (43) 은 병합 모드에 대한 후보들로서 공간 및/또는 시간 방향들에서 여러 이웃하는 블록들을 포함하는 병합 모드 후보 리스트를 형성할 수도 있다. 모션 벡터 예측 유닛 (43) 은 인덱스 값 (예컨대, merge_idx) 를 결정할 수도 있으며, 이 인덱스 값은 병합 후보 블록들을 포함하는 참조 화상 리스트에서 병합 비디오 블록을 로케이트할 장소를 (예컨대, 비디오 디코더 (30) 와 같은) 비디오 디코더에게 통지하는데 사용될 수도 있다.
본 개시물의 양태들에 따르면, 모션 벡터 예측 유닛 (43) 은 멀티뷰 코딩에서, 예컨대, MVD 를 발생시키거나 또는 병합하기 위해, 모션 벡터 예측자를 식별할 수도 있다. 예를 들어, 모션 벡터 예측 유닛 (43) 은 현재의 블록에 대한 모션 벡터를 예측하기 위해, 현재의 블록과는 상이한 뷰 성분에서의 블록으로부터 디스패리티 모션 벡터를 식별할 수도 있다. 다른 예들에서, 모션 벡터 예측 유닛 (43) 은 현재의 블록에 대한 모션 벡터를 예측하기 위해, 현재의 블록과는 상이한 뷰 성분에서의 블록으로부터 시간 모션 벡터를 식별할 수도 있다.
디스패리티 모션 벡터 예측에 대해, 모션 벡터 예측 유닛 (43) 은 현재 코딩되는 비디오 블록 ("현재의 블록" 으로 지칭됨) 에 대한 모션 벡터를 예측하기 위해, 후보 블록으로부터 디스패리티 모션 벡터 후보를 식별할 수도 있다. 현재의 블록은 후보 블록과 동일한 (예컨대, 후보 블록에 공간적으로 이웃하는) 화상에 로케이트될 수도 있거나, 또는 후보 블록과 동일한 뷰 내의 또 다른 화상에 로케이트될 수도 있다. 일부 예들에서, 모션 벡터 예측 유닛 (43) 은 현재의 블록에 대한 모션 벡터와는 상이한 뷰에서의 참조 화상을 지시하는 모션 벡터 예측자를 식별할 수도 있다. 이런 경우들에서, 본 개시물의 기법들에 따르면, 모션 벡터 예측 유닛 (43) 은 2개의 뷰들 (예컨대, 모션 벡터 예측자에 의해 지시되는 뷰와 현재의 모션 벡터에 의해 지시되는 뷰) 사이의 카메라 로케이션들에서의 차이에 기초하여 모션 벡터 예측자를 스케일링할 수도 있다. 예를 들어, 모션 벡터 예측 유닛 (43) 은 2개의 뷰들 사이의 차이에 따라서 디스패리티 모션 벡터 예측자를 스케일링할 수도 있다. 일부 예들에서, 2개의 뷰들 사이의 차이는 그 뷰들과 연관되는 뷰 식별자들 (view_id) 사이의 차이로 표현될 수도 있다.
시간 모션 벡터 예측에 대해, 모션 벡터 예측 유닛 (43) 은 현재의 블록에 대한 모션 벡터를 예측하기 위해 현재의 블록과는 상이한 뷰에서 후보 블록으로부터의 시간 모션 벡터 후보를 식별할 수도 있다. 예를 들어, 모션 벡터 예측 유닛 (43) 은 제 1 뷰의 또 다른 시간 로케이션에서 화상에서의 블록을 지시하는 제 1 뷰에서의 시간 모션 벡터 예측자 후보를 식별할 수도 있다. 본 개시물의 양태들에 따르면, 모션 벡터 예측 유닛 (43) 은 그 식별된 시간 모션 벡터 예측자 후보를 이용하여, 상이한 제 2 뷰에서 현재의 블록과 연관되는 모션 벡터를 예측할 수도 있다. (모션 벡터 예측자 후보를 포함하는) 후보 블록 및 현재의 블록은 동일 장소에 로케이트될 수도 있다. 그러나, 후보 블록의 상대적인 로케이션은 2개의 뷰들 사이의 디스패리티로 인해, 현재의 블록으로부터 오프셋될 수도 있다.
본 개시물의 양태들에 따르면, 모션 벡터 예측 유닛 (43) 은 MVP 인덱스 (mvp_flag) 및 MVD 를 발생시킬 수도 있거나, 또는 병합 인덱스 (merge_idx) 를 발생시킬 수도 있다. 예를 들어, 모션 벡터 예측 유닛 (43) 은 MVP 또는 병합 후보들의 리스트를 발생시킬 수도 있다. 본 개시물의 양태들에 따르면, MVP 및/또는 병합 후보들은 현재 디코딩되는 비디오 블록과는 상이한 뷰에 로케이트된 하나 이상의 비디오 블록들을 포함한다.
모션 보상 유닛 (44) 에 의해 수행되는 모션 보상은 모션 추정 유닛 (42) 에 의해 결정된 모션 벡터 및/또는 모션 벡터 예측 유닛 (43) 으로부터의 정보에 기초하여 예측 블록을 페치하거나 (fetch) 또는 발생시키는 것을 수반할 수도 있다. 또, 모션 추정 유닛 (42), 모션 벡터 예측 유닛 (43), 및 모션 보상 유닛 (44) 은 일부 예들에서, 기능적으로 통합될 수도 있다. 현재의 비디오 블록의 PU 에 대한 모션 벡터를 수신하자 마자, 모션 보상 유닛 (44) 은 모션 벡터가 참조 화상 리스트들 중 하나에서 가리키는 예측 블록을 로케이트할 수도 있다.
합산기 (50) 는 이하에서 설명하는 바와 같이, 코딩되는 현재의 비디오 블록의 픽셀 값들로부터 예측 블록의 픽셀 값들을 감산하여 픽셀 차이 값들을 형성함으로써, 잔여 비디오 블록을 형성한다. 일반적으로, 모션 추정 유닛 (42) 은 루마 성분들에 대해 모션 추정을 수행하고, 모션 보상 유닛 (44) 은 크로마 성분들 및 루마 성분들 양자에 대해 루마 성분들에 기초하여 계산된 모션 벡터들을 이용한다. 모드 선택 유닛 (40) 은 또한 비디오 슬라이스의 비디오 블록들을 디코딩할 때에 비디오 디코더 (30) 에 의한 사용을 위해 비디오 블록들 및 비디오 슬라이스와 연관되는 구문 엘리먼트들을 발생시킬 수도 있다.
인트라-예측 유닛 (46) 은 위에서 설명한 바와 같이, 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 에 의해 수행되는 인터-예측에 대한 대안으로서, 현재의 블록을 인트라-예측할 수도 있다. 특히, 인트라-예측 유닛 (46) 은 현재의 블록을 인코딩하는데 사용할 인트라-예측 모드를 결정할 수도 있다. 일부 예들에서, 인트라-예측 유닛 (46) 은 예컨대, 별개의 인코딩 과정들 동안 여러 인트라-예측 모드들을 이용하여 현재의 블록을 인코딩할 수도 있으며, 인트라-예측 유닛 (46) (또는, 일부 예들에서는, 모드 선택 유닛 (40)) 은 테스트된 모드들로부터 사용할 적합한 인트라-예측 모드를 선택할 수도 있다.
예를 들어, 인트라-예측 유닛 (46) 은 여러 테스트된 인트라-예측 모드들에 대한 레이트-왜곡 분석을 이용하여 레이트-왜곡 값들을 계산하고, 그 테스트된 모드들 중에서 최상의 레이트-왜곡 특성들을 갖는 인트라-예측 모드를 선택할 수도 있다. 레이트-왜곡 분석은 일반적으로 인코딩된 블록과 그 인코딩된 블록을 생성하기 위해 인코딩된 원래의 미인코딩된 블록 사이의 왜곡의 양 (또는, 에러) 뿐만 아니라, 그 인코딩된 블록을 발생시키는데 사용된 비트레이트 (즉, 다수의 비트들) 를 결정한다. 인트라-예측 유닛 (46) 은 여러 인코딩된 블록들에 대한 왜곡들 및 레이트들로부터 비율들을 계산하여, 어느 인트라-예측 모드가 그 블록에 대해 최상의 레이트-왜곡 값을 나타내는 지를 결정할 수도 있다.
블록에 대한 인트라-예측 모드를 선택한 후, 인트라-예측 유닛 (46) 은 그 블록에 대한 선택된 인트라-예측 모드를 나타내는 정보를 엔트로피 코딩 유닛 (56) 에 제공할 수도 있다. 엔트로피 코딩 유닛 (56) 은 그 선택된 인트라-예측 모드를 나타내는 정보를 인코딩할 수도 있다. 비디오 인코더 (20) 는 복수의 인트라-예측 모드 인덱스 테이블들 및 복수의 수정된 인트라-예측 모드 인덱스 테이블들 (또한, 코드워드 맵핑 테이블들로서 지칭됨) 을 포함할 수도 있는 그 송신된 비트스트림 구성 데이터에, 여러 블록들에 대한 인코딩 컨텍스트들의 정의들, 및 가장 가능성있는 인트라-예측 모드, 인트라-예측 모드 인덱스 테이블 및 컨텍스트들의 각각에 사용할 수정된 인트라-예측 모드 인덱스 테이블의 표시들을 포함할 수도 있다.
비디오 인코더 (20) 는 코딩되는 원래 비디오 블록으로부터, 모드 선택 유닛 (40) 으로부터의 예측 데이터를 감산함으로써 잔여 비디오 블록을 형성한다. 합산기 (50) 는 이 감산 동작을 수행하는 구성요소 또는 구성요소들을 나타낸다. 변환 프로세싱 유닛 (52) 은 이산 코사인 변환 (DCT) 또는 개념적으로 유사한 변환과 같은 변환을 잔여 블록에 적용하여, 잔여 변환 계수 값들을 포함하는 비디오 블록을 생성한다. 변환 프로세싱 유닛 (52) 은 DCT 와 개념적으로 유사한 다른 변환들을 수행할 수도 있다. 웨이블릿 변환들, 정수 변환들, 서브밴드 변환들 또는 다른 유형들의 변환들이 또한 이용될 수 있다. 어쨌든, 변환 프로세싱 유닛 (52) 은 그 변환을 잔여 블록에 적용하여, 잔여 변환 계수들의 블록을 생성한다. 이 변환은 잔여 정보를 픽셀 값 도메인으로부터 변환 도메인, 예컨대 주파수 도메인으로 변환시킬 수도 있다.
변환 프로세싱 유닛 (52) 은 최종 변환 계수들을 양자화 유닛 (54) 으로 전송할 수도 있다. 양자화 유닛 (54) 은 비트 레이트를 추가로 감소시키기 위해 변환 계수들을 양자화한다. 양자화 프로세스는 그 계수들의 일부 또는 모두와 연관되는 비트 심도를 감소시킬 수도 있다. 양자화의 정도는 양자화 파라미터를 조정함으로써 변경될 수도 있다. 일부 예들에서, 양자화 유닛 (54) 은 그후 양자화된 변환 계수들을 포함하는 매트릭스의 스캐닝을 수행할 수도 있다. 이의 대안으로, 엔트로피 인코딩 유닛 (56) 은 그 스캐닝을 수행할 수도 있다.
양자화 이후, 엔트로피 코딩 유닛 (56) 은 양자화된 변환 계수들을 엔트로피 코딩한다. 예를 들어, 엔트로피 코딩 유닛 (56) 은 컨텍스트 적응 가변 길이 코딩 (CAVLC), 컨텍스트 적응 2진 산술 코딩 (CABAC), 구문-기반의 컨텍스트-적응 2진 산술 코딩 (SBAC), 확률 간격 파티셔닝 엔트로피 (PIPE) 코딩 또는 또 다른 엔트로피 코딩 기법을 수행할 수도 있다. 컨텍스트-기반의 엔트로피 코딩의 경우, 컨텍스트는 이웃하는 블록들에 기초할 수도 있다. 엔트로피 코딩 유닛 (56) 에 의한 엔트로피 코딩 이후, 인코딩된 비트스트림은 또 다른 디바이스 (예컨대, 비디오 디코더 (30)) 로 송신되거나 또는 추후 송신 또는 취출을 위해 아카이브될 수도 있다.
역양자화 유닛 (58) 및 역변환 유닛 (60) 은 역양자화 및 역변환을 각각 적용하여, 예컨대, 참조 블록으로 추후 사용을 위해, 픽셀 도메인에서 잔여 블록을 재구성한다. 모션 보상 유닛 (44) 은 잔여 블록을 참조 화상 메모리 (64) 의 화상들 중 하나의 예측 블록에 가산함으로써 참조 블록을 계산할 수도 있다. 모션 보상 유닛 (44) 은 또한 하나 이상의 내삽 필터들을 그 재구성된 잔여 블록에 적용하여, 모션 추정에 사용하기 위한 서브-정수 픽셀 값들을 계산할 수도 있다. 합산기 (62) 는 재구성된 잔여 블록을 모션 보상 유닛 (44) 에 의해 생성된 모션 보상된 예측 블록에 가산하여, 참조 화상 메모리 (64) 에의 저장을 위해 재구성된 비디오 블록을 생성한다. 재구성된 비디오 블록은 후속 화상에서 블록을 인터-코딩하기 위해 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 에 의해 참조 블록으로서 사용될 수도 있다.
도 3 은 멀티뷰 코딩에서 모션 벡터들을 예측하기 위한 본 개시물에서 설명하는 기법들을 구현할 수도 있는 예시적인 비디오 디코더 (30) 를 예시하는 블록도이다. 도 3 의 예에서, 비디오 디코더 (30) 는 엔트로피 디코딩 유닛 (80), 예측 유닛 (81), 역양자화 유닛 (86), 역변환 유닛 (88), 합산기 (90), 및 참조 화상 메모리 (92) 를 포함한다. 예측 유닛 (81) 은 모션 보상 유닛 (82) 및 인트라 예측 유닛 (84) 을 포함한다.
디코딩 프로세스 동안, 비디오 디코더 (30) 는 인코딩된 비디오 슬라이스의 비디오 블록들 및 연관되는 구문 엘리먼트들을 나타내는 인코딩된 비디오 비트스트림을 비디오 인코더 (20) 로부터 수신한다. 비디오 디코더 (30) 의 엔트로피 디코딩 유닛 (80) 은 양자화된 계수들, 모션 벡터들, 및 다른 구문 엘리먼트들을 발생시키기 위해 비트스트림을 엔트로피 디코딩한다. 엔트로피 디코딩 유닛 (80) 은 모션 벡터들 및 다른 구문 엘리먼트들을 예측 유닛 (81) 으로 포워딩한다. 비디오 디코더 (30) 는 구문 엘리먼트들을 비디오 슬라이스 레벨 및/또는 비디오 블록 레벨에서 수신할 수도 있다.
예를 들어, 백그라운드를 통해, 비디오 디코더 (30) 는 네트워크를 통한 소위 "네트워크 추상화 층 유닛들" 또는 NAL 유닛들로의 송신을 위해 압축되어 있는 압축된 비디오 데이터를 수신할 수도 있다. 각각의 NAL 유닛은 NAL 유닛에 저장된 데이터의 종류를 식별하는 헤더를 포함할 수도 있다. NAL 유닛들에 일반적으로 저장되는 2개의 유형의 데이터가 존재한다. NAL 유닛에 저장된 제 1 유형의 데이터는 비디오 코딩 층 (VCL) 데이터이며, 이 비디오 코딩 층 데이터는 압축된 비디오 데이터를 포함한다. NAL 유닛에 저장된 제 2 유형의 데이터는 비-VCL 데이터로서 지칭되며, 이 데이터는 다수의 NAL 유닛들에 공통적인 헤더 데이터를 정의하는 파라미터 세트들과 같은 추가 정보 및 보충 강화 정보 (supplemental enhancement information; SEI) 를 포함한다.
예를 들어, 파라미터 세트들은 (예컨대, 시퀀스 파라미터 세트들 (sequence parameter sets; SPS) 에) 시퀀스-레벨 헤더 정보를, 그리고 (예컨대, 화상 파라미터 세트들 (picture parameter sets; PPS) 에) 드물게 변하는 화상-레벨 헤더 정보를 포함할 수도 있다. 파라미터 세트들에 포함된 드물게 변하는 정보는 각각의 시퀀스 또는 화상에 대해 반복될 필요가 없으므로, 코딩 효율을 향상시킨다. 게다가, 파라미터 세트들의 사용은 헤더 정보의 대역외 송신을 가능하게 하여, 에러 복원을 위한 여분의 송신들의 요구를 회피가능하게 한다.
비디오 슬라이스가 인트라-코딩된 (I) 슬라이스로서 코딩될 때, 예측 유닛 (81) 의 인트라 예측 유닛 (84) 은 시그널링된 인트라 예측 모드 및 현재의 화상의 이전에 디코딩된 블록들로부터의 데이터에 기초하여 현재의 비디오 슬라이스의 비디오 블록에 대한 예측 데이터를 발생시킬 수도 있다. 그 화상이 인터-코딩된 (즉, B, P 또는 GPB) 슬라이스로서 코딩될 때, 예측 유닛 (81) 의 모션 보상 유닛 (82) 은 엔트로피 디코딩 유닛 (80) 으로부터 수신된 모션 벡터들 및 다른 구문 엘리먼트들에 기초하여 현재의 비디오 슬라이스의 비디오 블록에 대한 예측 블록들을 생성한다. 예측 블록들은 참조 화상 리스트들 중 하나 내 참조 화상들 중 하나로부터 생성될 수도 있다. 비디오 디코더 (30) 는 참조 화상 메모리 (92) 에 저장된 참조 화상들에 기초하여, 디폴트 구성 기법들을 이용하여, 참조 화상 리스트들, 즉, 리스트 0 및 리스트 1 을 구성할 수도 있다.
모션 보상 유닛 (82) 은 모션 벡터들 및 다른 구문 엘리먼트들을 파싱하여 현재의 비디오 슬라이스의 비디오 블록에 대한 예측 정보를 결정하고, 그리고, 그 예측 정보를 이용하여, 디코딩되는 현재의 비디오 블록에 대한 예측 블록들을 생성한다. 예를 들어, 모션 보상 유닛 (82) 은 그 수신된 구문 엘리먼트들 중 일부를 이용하여, 비디오 슬라이스의 비디오 블록들을 코딩하는데 사용되는 예측 모드 (예컨대, 인트라- 또는 인터-예측), 인터-예측 슬라이스 유형 (예컨대, B 슬라이스, P 슬라이스, 또는 GPB 슬라이스), 그 슬라이스에 대한 참조 화상 리스트들 중 하나 이상에 대한 구성 정보, 슬라이스의 각각의 인터-인코딩된 비디오 블록에 대한 모션 벡터들, 슬라이스의 각각의 인터-코딩된 비디오 블록에 대한 인터-예측 상태, 및 현재의 비디오 슬라이스에서 비디오 블록들을 디코딩하기 위한 다른 정보를 결정한다. 일부 예들에서, 모션 보상 유닛 (82) 은 모션 벡터 예측 유닛 (83) 으로부터 어떤 모션 정보를 수신할 수도 있다.
본 개시물의 양태들에 따르면, 모션 벡터 예측 유닛 (83) 은 현재의 블록에 대한 모션 정보를 취출할 장소를 나타내는 예측 데이터를 수신할 수도 있다. 예를 들어, 모션 벡터 예측 유닛 (83) 은 MVP 인덱스 (mvp_flag), MVD, 병합 플래그 (merge_flag), 및/또는 병합 인덱스 (merge_idx) 와 같은 모션 벡터 예측 정보를 수신하고, 이런 정보를 이용하여, 현재의 블록을 예측하는데 사용되는 모션 정보를 식별할 수도 있다. 즉, 비디오 인코더 (20) 에 대해 위에서 언급한 바와 같이, 본 개시물의 양태들에 따르면, 모션 벡터 예측 유닛 (83) 은 MVP 인덱스 (mvp_flag) 및 MVD 를 수신하고, 이런 정보를 이용하여, 현재의 블록을 예측하는데 사용되는 모션 벡터를 결정할 수도 있다. 모션 벡터 예측 유닛 (83) 은 MVP 또는 병합 후보들의 리스트를 발생시킬 수도 있다. 본 개시물의 양태들에 따르면, MVP 및/또는 병합 후보들은 현재 디코딩되는 비디오 블록과는 상이한 뷰에 로케이트된 하나 이상의 비디오 블록들을 포함할 수도 있다.
모션 벡터 예측 유닛 (83) 은 MVP 또는 병합 인덱스를 이용하여, 현재의 블록의 모션 벡터를 예측하는데 사용되는 모션 정보를 식별할 수도 있다. 즉, 예를 들어, 모션 벡터 예측 유닛 (83) 은 MVP 인덱스 (mvp_flag) 를 이용하여 참조 화상의 리스트로부터 MVP 를 식별할 수도 있다. 모션 벡터 예측 유닛 (83) 은 그 식별된 MVP 와 수신된 MVD 를 조합하여, 현재의 블록에 대한 모션 벡터를 결정할 수도 있다. 다른 예들에서, 모션 벡터 예측 유닛 (83) 은 병합 인덱스 (merge_idx) 를 이용하여 참조 화상들의 리스트로부터 병합 후보를 식별하여, 현재의 블록에 대한 모션 정보를 결정할 수도 있다. 어쨌든, 현재의 블록에 대한 모션 정보를 결정한 후, 모션 벡터 예측 유닛 (83) 은 현재의 블록에 대한 예측 블록을 발생시킬 수도 있다.
본 개시물의 양태들에 따르면, 모션 벡터 예측 유닛 (83) 은 멀티뷰 코딩에서 모션 벡터 예측자를 결정할 수도 있다. 예를 들어, 모션 벡터 예측 유닛 (83) 은 현재의 블록에 대한 모션 벡터를 예측하는데 사용되는 현재의 블록과는 상이한 뷰 성분에서의 블록으로부터 디스패리티 모션 벡터를 규정하는 정보를 수신할 수도 있다. 다른 예들에서, 모션 벡터 예측 유닛 (83) 은 현재의 블록에 대한 모션 벡터를 예측하는데 사용되는 현재의 블록과는 상이한 뷰 성분에서의 블록으로부터 시간 모션 벡터를 규정하는 정보를 수신할 수도 있다.
디스패리티 모션 벡터 예측에 대해, 모션 벡터 예측 유닛 (83) 은 후보 블록으로부터 현재의 블록에 대한 디스패리티 모션 벡터를 예측할 수도 있다. 후보 블록은 (예컨대, 후보 블록에 공간적으로 이웃하는) 현재의 블록과 동일한 화상에 로케이트될 수도 있거나, 또는 현재의 블록과 동일한 뷰 내 또 다른 화상에 로케이트될 수도 있다. 후보 블록은 또한 현재의 블록과는 상이한 뷰의 화상에, 그러나, 동일한 시간 인스턴스에 로케이트될 수도 있다.
예를 들어, MVP 또는 병합 모드에 대해, 예측될 현재의 블록의 디스패리티 모션 벡터 "A" 에 대한 목표 화상 및 참조 화상은 알려져 있다 (이전에 결정되어 있다). 설명의 목적들을 위해, 후보 블록으로부터의 모션 벡터가 "B" 라고 가정한다. 본 개시물의 양태들에 따르면, 모션 벡터 B 가 디스패리티 모션 벡터가 아니면, 모션 벡터 예측 유닛 (83) 은 후보 블록을 이용불가능한 것으로 (예컨대, 모션 벡터 A 를 예측하는데 이용할 수 없는 것으로) 간주할 수도 있다. 즉, 모션 벡터 예측 유닛 (83) 은 모션 벡터 예측의 목적들을 위해 후보 블록을 사용하는 능력을 디스에이블할 (disable) 수도 있다.
모션 벡터 B 가 디스패리티 모션 벡터이고 모션 벡터 B 의 참조 화상이 디스패리티 모션 벡터 A 의 참조 화상의 뷰와 동일한 뷰에 속하고, 모션 벡터 B 의 목표 화상이 디스패리티 모션 벡터 A 의 목표 화상의 뷰와 동일한 뷰에 속하면, 모션 벡터 예측 유닛 (83) 은 모션 벡터 B 를 모션 벡터 A 의 후보 예측자로서 바로 사용할 수도 있다. 그렇지 않고, 모션 벡터 예측 유닛 (83) 은 모션 벡터 A 의 후보 예측자로서 사용되기 전에 디스패리티 모션 벡터 B 를 스케일링할 수도 있다. 이런 경우들에서, 본 개시물의 기법들에 따르면, 모션 벡터 예측 유닛 (83) 은 모션 벡터 A 의 뷰 거리 및 모션 벡터 B 의 뷰 거리에 기초하여 디스패리티 모션 벡터를 스케일링할 수도 있다. 예를 들어, 모션 벡터 예측 유닛 (83) 은 모션 벡터 B 의 뷰 거리로 나누어진 모션 벡터 A 의 뷰 거리와 동일한 스케일링 인자 만큼 디스패리티 모션 벡터 B 를 스케일링할 수도 있다. 일부 예들에서, 모션 벡터 예측 유닛 (83) 은 참조 화상들 및 목표 화상들의 뷰 식별자들을 이용하여 이런 스케일링을 수행할 수도 있다.
시간 모션 벡터 예측에 대해, 모션 벡터 예측 유닛 (83) 은 현재의 블록의 뷰와는 상이한 뷰에서의 후보 블록으로부터 현재의 블록에 대한 시간 모션 벡터를 예측할 수도 있다. 예를 들어, 모션 벡터 예측 유닛 (83) 은 제 1 뷰에서 목표 화상을 갖는 시간 모션 벡터 예측자 후보를 식별하고 제 1 뷰의 또 다른 시간 로케이션에서 참조 화상에서의 블록을 지시할 수도 있다. 본 개시물의 양태들에 따르면, 모션 벡터 예측 유닛 (83) 은 식별되는 시간 모션 벡터 예측자 후보를 이용하여, 상이한 제 2 뷰에서 현재의 블록과 연관되는 모션 벡터를 예측할 수도 있다.
예를 들어, MVP 또는 병합 모드에 대해, 예측될 현재의 블록의 시간 모션 벡터 "A" 에 대한 목표 화상 및 참조 화상은 알려져 있다 (이전에 결정되어 있다). 설명의 목적들을 위해, 후보 블록으로부터의 모션 벡터가 "B" 라고 가정한다. 본 개시물의 양태들에 따르면, 후보 블록으로부터의 모션 벡터 B 가 시간 모션 벡터가 아니면, 모션 벡터 예측 유닛 (83) 은 후보 블록을 이용불가능한 것으로 (예컨대, 모션 벡터 A 를 예측하는데 이용할 수 없는 것으로) 간주할 수도 있다. 즉, 일부 예들에서, 모션 벡터 예측 유닛 (83) 은 모션 벡터 예측의 목적들을 위해 후보 블록을 사용하는 능력을 디스에이블할 수도 있다.
모션 벡터 B 가 시간 모션 벡터이고 모션 벡터 B 의 참조 화상의 POC 가 모션 벡터 A 의 참조 화상과 동일하고 그리고 모션 벡터 B 의 목표 화상의 POC 가 모션 벡터 B 의 목표 화상과 동일하면, 모션 벡터 예측 유닛 (83) 은 모션 벡터 B 를 모션 벡터 A 의 후보 예측자로서 바로 사용할 수도 있다. 그렇지 않고, 모션 벡터 예측 유닛 (83) 은 시간 거리에 기초하여 시간 모션 벡터 B 를 스케일링할 수도 있다. (모션 벡터 예측자 후보를 포함하는) 후보 블록 및 현재의 블록은 상이한 뷰에서 동일 장소에 로케이트될 수도 있다. 그러나, 후보 블록의 상대적인 로케이션은 2개의 뷰들 사이의 디스패리티로 인해, 현재의 블록으로부터 오프셋될 수도 있다.
역양자화 유닛 (86) 은 비트스트림으로 제공되어 엔트로피 디코딩 유닛 (80) 에 의해 디코딩된 양자화된 변환 계수들을 역양자화한다, 즉 양자화 해제한다. 역양자화 프로세스는 양자화의 정도를 결정하기 위해, 그리고, 이와 유사하게, 적용되어야 하는 역양자화의 정도를 결정하기 위해, 비디오 슬라이스에서의 각각의 비디오 블록에 대해 비디오 인코더 (20) 에 의해 계산된 양자화 파라미터의 사용을 포함할 수도 있다.
역변환 유닛 (88) 은 역 DCT, 역 정수 변환, 또는 개념적으로 유사한 역변환 프로세스와 같은 역변환을 변환 계수들에 적용하여, 픽셀 도메인에서 잔여 블록들을 생성한다. 본 개시물의 양태들에 따르면, 역변환 유닛 (88) 은 잔여 데이터에 변환들이 적용된 방법을 결정할 수도 있다. 즉, 예를 들어, 역변환 유닛 (88) 은 변환들 (예컨대, DCT, 정수 변환, 웨이블릿 변환, 또는 하나 이상의 다른 변환들) 이 수신된 비디오 데이터의 블록과 연관되는 잔여 루마 샘플들 및 잔여 크로마 샘플들에 적용된 방법을 나타내는 RQT 를 결정할 수도 있다.
모션 보상 유닛 (82) 이 모션 벡터들 및 다른 구문 엘리먼트들에 기초하여 현재의 비디오 블록에 대한 예측 블록을 발생시킨 후, 비디오 디코더 (30) 는 역변환 유닛 (88) 으로부터의 잔여 블록들을 모션 보상 유닛 (82) 에 의해 발생된 대응하는 예측 블록들과 합산함으로써 디코딩된 비디오 블록을 형성한다. 합산기 (90) 는 이 합산 동작을 수행하는 구성요소 또는 구성요소들을 나타낸다. 원할 경우, 블록킹 현상 아티팩트들을 제거하기 위해 디블로킹 필터가 또한 그 디코딩된 블록들을 필터링하는데 적용될 수도 있다. (코딩 루프 중에 또는 코딩 루프 이후에) 다른 루프 필터들이 또한 픽셀 전이들을 평활화하거나 또는 아니면 비디오 품질을 향상시키기 위해 사용될 수도 있다. 주어진 화상에서의 그 디코딩된 비디오 블록들은 그후 참조 화상 메모리 (92) 에 저장되며, 이 메모리는 후속 모션 보상을 위해 사용되는 참조 화상들을 저장한다. 참조 화상 메모리 (92) 는 또한 도 1 의 디스플레이 디바이스 (32) 와 같은 디스플레이 디바이스 상에의 추후 프리젠테이션을 위해, 디코딩된 비디오를 저장한다.
도 4 는 예시적인 MVC 예측 패턴을 예시하는 개념도이다. 도 4 의 예에서, 8개의 뷰들이 예시되며, 각각의 뷰에 대해 12개의 시간 로케이션들이 예시된다. 일반적으로, 도 4 에서 각각의 로우는 뷰에 대응하지만, 각각의 칼럼은 시간 로케이션을 나타낸다. 뷰들 각각은 뷰 식별자 ("view_id") 를 이용하여 식별될 수도 있으며, 이 식별자는 다른 뷰들에 대해 상대적인 카메라 로케이션을 나타내는데 사용될 수도 있다. 도 4 에 나타낸 예에서, 뷰 IDs 가 "S0" 내지 "S7" 로서 표시되지만, 숫자 뷰 IDs 가 또한 사용될 수도 있다. 게다가, 시간 로케이션들 각각은 화상들의 디스플레이 순서를 나타내는 POC (picture order count) 값을 이용하여 식별될 수도 있다. 도 4 에 나타낸 예에서, POC 값들은 "T0" 내지 "T11" 로서 표시된다.
MVC 가 H.264/AVC 디코더들에 의해 디코딩가능한 소위 베이스 뷰를 갖고 MVC 에 의해 스테레오 뷰 쌍이 지원될 수 있더라도, MVC 는 2개보다 많은 뷰들을 3D 비디오 입력으로서 지원할 수도 있다. 따라서, MVC 디코더를 갖는 클라이언트의 렌더러는 다수의 뷰들로 3D 비디오 콘텐츠를 예상할 수도 있다.
도 4 에서의 화상들은 대응하는 화상이 인트라-코딩되는지 (즉, I-프레임), 또는 하나의 방향으로 (즉, P-프레임으로서) 또는 다수의 방향들로 (즉, B-프레임으로서) 인터-코딩되는지를 나타내는, 문자를 포함하는 음영친 블록을 이용하여 표시된다. 일반적으로, 예측들은 화살표들로 표시되며, 여기서 지시도달 (pointed-to) 화상은 예측 참조를 위해 지시출발 (point-from) 오브젝트를 이용한다. 예를 들어, 시간 로케이션 T0 에서 뷰 S2 의 P-프레임은 시간 로케이션 T0 에서 뷰 S0 의 I-프레임으로부터 예측된다.
단일 뷰 비디오 인코딩에서와 같이, 멀티뷰 비디오 시퀀스의 화상들은 상이한 시간 로케이션들에서의 화상들에 대해 예측 인코딩될 수도 있다. 예를 들어, 시간 로케이션 T1 에서 뷰 S0 의 b-프레임은 시간 로케이션 T0 에서의 뷰 S0 의 I-프레임으로부터 자신에게 지시되는 화살표를 가지며, 이 화살표는 b-프레임이 I-프레임으로부터 예측된다는 것을 나타낸다. 게다가, 그러나, 멀티뷰 비디오 인코딩의 상황에서, 화상들은 인터-뷰 예측될 수도 있다. 즉, 뷰 성분은 참조를 위해 다른 뷰들에서의 뷰 성분들을 이용할 수도 있다. MVC 에서, 예를 들어, 인터-뷰 예측은 마치 또 다른 뷰에서의 뷰 성분이 인터-예측 참조인 것처럼 실현된다. 잠재적인 인터-뷰 참조들은 시퀀스 파라미터 세트 (SPS) MVC 확장판으로 시그널링될 수도 있으며 인터-예측 또는 인터-뷰 예측 참조들의 유연한 순서정렬을 가능하게 하는 참조 화상 리스트 구성 프로세스에 의해 수정될 수도 있다.
도 4 는 인터-뷰 예측의 여러 예들을 제공한다. 도 4 의 예에서, 뷰 S1 의 화상들은 뷰 S1 의 상이한 시간 로케이션들에서의 화상들로부터 예측될 뿐만 아니라, 동일한 시간 로케이션들에서의 뷰들 S0 및 S2 의 화상들로부터 인터-뷰 예측되는 것으로 예시된다. 예를 들어, 시간 로케이션 T1 에서 뷰 S1 의 b-프레임은 시간 로케이션들 T0 및 T2 에서의 뷰 S1 의 B-프레임들의 각각 뿐만 아니라, 시간 로케이션 T1 에서의 뷰들 S0 및 S2 의 b-프레임들로부터 예측된다.
도 4 의 예에서, 대문자 "B" 및 소문자 "b" 는 상이한 인코딩 방법론들 보다는, 화상들 사이의 상이한 계층적 관계들을 나타내려고 의도된다. 일반적으로, 대문자 "B" 프레임들은 소문자 "b" 프레임들보다 예측 계층에서 상대적으로 더 높다. 도 4 는 또한 상이한 레벨들의 음영을 이용한 예측 계층에서의 변형예들을 예시하며, 여기서, 더 많은 양의 음영 (즉, 상대적으로 더 어두운) 화상들이 더 적은 음영을 갖는 (즉, 상대적으로 더 밝은) 화상들보다 예측 계층이 더 높다. 예를 들어, 도 4 에서의 모든 I-프레임들은 풀 음영으로 예시되며, 반면 P-프레임들은 다소 밝은 음영을 가지며, B-프레임들 (및 소문자 b-프레임들) 은 서로에 대해 여러 레벨들의 음영을 가지나 P-프레임들 및 I-프레임들의 음영보다는 항상 더 밝다.
일반적으로, 예측 계층은 계층이 상대적으로 더 높은 화상들이 계층이 상대적으로 더 낮은 화상들의 디코딩 동안 참조 화상들로서 사용될 수 있도록, 예측 계층이 상대적으로 더 높은 화상들이 그 계층이 상대적으로 더 낮은 화상들을 디코딩하기 이전에 디코딩되어야 한다는 점에서, 뷰 순서 인덱스들에 관련된다. 뷰 순서 인덱스는 액세스 유닛에서의 뷰 성분들의 디코딩 순서를 나타내는 인덱스이다. 뷰 순서 인덱스들은 SPS 와 같은 파라미터 세트에 암시될 수도 있다.
이 방법으로, 참조 화상들로서 사용되는 화상들은 그 참조 화상들과 관련하여 인코딩되는 화상들을 디코딩하기 전에 디코딩될 수도 있다. 뷰 순서 인덱스는 액세스 유닛에서의 뷰 성분들의 디코딩 순서를 나타내는 인덱스이다. 각각의 뷰 순서 인덱스 i 에 대해, 대응하는 view_id 가 시그널링된다. 뷰 성분들의 디코딩은 뷰 순서 인덱스들의 오름차순을 따른다. 모든 뷰들이 제시되면, 뷰 순서 인덱스들의 세트는 0 으로부터 뷰들의 전체 개수보다 하나 작은 개수까지의 연속 순서정렬된 세트를 포함한다.
MVC 에서는, MVC 에 여전히 부합하는 서브-비트스트림을 형성하기 위해 전체 비트스트림의 서브세트가 추출될 수 있다. 예를 들어, 서버에 의해 제공되는 서비스, 하나 이상의 클라이언트들의 디코더들의 용량, 지원 및 능력들, 및/또는 하나 이상의 클라이언트들의 선호사항에 기초하여, 특정의 애플리케이션들이 필요로 할 수도 있는 많은 가능한 서브-비트스트림들이 존재한다. 예를 들어, 클라이언트는 오직 3개의 뷰들을 필요로 할 것이며, 2개의 시나리오들이 있을 것이다. 일 예에서, 하나의 클라이언트는 매끄러운 뷰잉 경험을 필요로 할 수도 있으며 view_id 값들 S0, S1, 및 S2 를 가진 뷰들을 선호할 지도 모르는 반면, 또 다른 다른 클라이언트는 뷰 스케일러빌리티 (scalability) 를 필요로 하고 view_id 값들 S0, S2, 및 S4 를 가진 뷰들을 선호할 수도 있다. 이들 서브-비트스트림들 양자가 독립적인 MVC 비트스트림들로서 디코딩될 수 있고 동시에 지원될 수 있다는 점에 유의한다.
도 5 는 (병합 모드를 포함한) 모션 벡터 예측을 수행할 때 잠재적인 모션 벡터 예측자 후보들을 예시하는 블록도이다. 즉, 현재 코딩되는 블록 (100) 에 대해, 이웃하는 블록들 A0, A1, B0, B1, 및 B2 로부터의 모션 정보 (예컨대, 수평 성분 및 수직 성분을 포함하는 모션 벡터, 모션 벡터 인덱스들, 예측 방향들, 또는 다른 정보) 가 블록 (100) 에 대한 모션 정보를 예측하는데 사용될 수도 있다. 게다가, 동일 장소에 로케이트된 블록 COL 과 연관되는 모션 정보가 또한 블록 (100) 에 대한 모션 정보를 예측하는데 사용될 수도 있다. 이웃하는 블록들 A0, A1, B0, B1, 및 B2 및 동일 장소에 로케이트된 블록 COL 은, 모션 벡터 예측의 상황에서, 일반적으로 모션 벡터 예측자 후보들로서 아래에서 지칭될 수도 있다.
일부 예들에서, 도 5 에 나타낸 모션 벡터 예측자 후보들은 (예컨대, MVD 를 발생시키든 또는 병합 모드를 수행하든) 모션 벡터 예측을 수행할 때 식별될 수도 있다. 다른 예들에서, 상이한 후보들이 병합 모드 및 모션 벡터 예측을 수행할 때에 식별될 수도 있다. 즉, 비디오 코더는 모션 벡터 예측을 수행하는 것보다는 병합 모드를 수행하는 모션 벡터 예측자 후보들의 상이한 세트를 식별할 수도 있다.
병합 모드를 수행하기 위해, 일 예에서, (비디오 인코더 (20) 와 같은) 비디오 인코더는 처음에 어느 모션 벡터 예측자 후보들로부터의 모션 벡터들이 블록 (100) 과 병합하는데 이용가능한지를 결정할 수도 있다. 즉, 일부 경우, 모션 벡터 예측자 후보들 중 하나 이상으로부터의 모션 정보는 예를 들어, 모션 벡터 예측자 후보가 인트라-코딩되거나, 아직 코딩되지 않거나, 또는 존재하지 않기 (예컨대, 모션 벡터 예측자 후보들 중 하나 이상이 또 다른 화상 또는 슬라이스에 로케이트되기) 때문에, 이용할 수 없을 수도 있다. 비디오 인코더 (20) 는 가용 모션 벡터 예측자 후보 블록들 각각을 포함하는 모션 벡터 예측자 후보 리스트를 구성할 수도 있다.
후보 리스트를 구성한 후, 비디오 인코더 (20) 는 현재의 블록 (100) 에 대한 모션 벡터로서 사용되도록 후보 리스트로부터 모션 벡터를 선택할 수도 있다. 일부 예들에서, 비디오 인코더 (20) 는 블록 (100) 에 대한 모션 벡터에 최상으로 매칭하는 후보 리스트로부터 모션 벡터를 선택할 수도 있다. 즉, 비디오 인코더 (20) 는 레이트 왜곡 분석에 따라서 후보 리스트로부터 모션 벡터를 선택할 수도 있다.
비디오 인코더 (20) 는 블록 (100) 이 병합 모드를 이용하여 인코딩된다는 표시를 제공할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 블록 (100) 에 대한 모션 벡터가 병합 모드를 이용하여 예측된다는 것을 나타내는 플래그 또는 다른 구문 엘리먼트를 설정할 수도 있다. 일 예에서, 비디오 인코더 (20) 는 merge_flag [x0][y0] 를 설정함으로써 블록 (100) 에 대한 인터 예측 파라미터들이 모션 벡터 예측자 후보로부터 추론된다는 것을 나타낼 수도 있다. 이 예에서, 어레이 인덱스들 x0, y0 는 화상 (또는, 슬라이스) 의 최상부-좌측 루마 샘플에 대한 예측 블록의 최상부-좌측 루마 샘플의 로케이션 (x0, y0) 을 규정할 수도 있다.
게다가, 일부 예들에서, 비디오 인코더 (20) 는 블록 (100) 이 그의 모션 벡터를 상속받는 병합 후보를 식별하는 인덱스를 제공할 수도 있다. 예를 들어, merge_idx [x0][y0] 는 병합 후보 리스트에서 화상을 식별하는 병합 후보 인덱스를 규정할 수도 있으며, 여기서, x0, y0 는 화상 (또는, 슬라이스) 의 최상부-좌측 루마 샘플에 대한 예측 블록의 최상부-좌측 루마 샘플의 로케이션 (x0, y0) 을 규정한다.
(비디오 디코더 (30) 와 같은) 비디오 디코더는 유사한 단계들을 수행하여, 블록 (100) 을 디코딩할 때 적합한 병합 후보를 식별할 수도 있다. 예를 들어, 비디오 디코더 (30) 는 블록 (100) 이 병합 모드를 이용하여 예측된다는 표시를 수신할 수도 있다. 일 예에서, 비디오 디코더 (30) 는 merge_flag [x0][y0] 을 수신할 수도 있으며, 여기서 (x0, y0) 는 화상 (또는, 슬라이스) 의 최상부-좌측 루마 샘플에 대한 예측 블록의 최상부-좌측 루마 샘플의 로케이션을 규정한다.
게다가, 비디오 디코더 (30) 는 병합 후보 리스트를 구성할 수도 있다. 예를 들어, 비디오 디코더 (30) 는 모션 벡터 예측에 이용가능한 비디오 블록들을 나타내는 하나 이상의 구문 엘리먼트들 (예컨대, 플래그들) 을 수신할 수도 있다. 비디오 디코더 (30) 는 그 수신된 플래그들에 기초하여 병합 후보 리스트를 구성할 수도 있다. 일부 예들에 따르면, 비디오 디코더 (30) 는 다음 시퀀스에 따라서 병합 후보 리스트 (예컨대, mergeCandList) 를 구성할 수도 있다:
1. A1, 이용가능한 FlagA1가 1 과 같으면
2. B1, 이용가능한 FlagB1가 1 과 같으면
3. B0, 이용가능한 FlagB0가 1 과 같으면
4. A0, 이용가능한 FlagA0가 1 과 같으면
5. B2, 이용가능한 FlagB2가 1 과 같으면
6. Col, 이용가능한 FlagCol가 1 과 같으면
여러 병합 후보들이 동일한 모션 벡터들 및 동일한 참조 인덱스들을 가지면, 병합 후보들은 리스트로부터 제거될 수도 있다.
비디오 디코더 (30) 는 수신된 인덱스에 따라서 적합한 병합 후보를 식별할 수도 있다. 예를 들어, 비디오 디코더 (30) 는 블록 (100) 이 그의 모션 벡터를 상속받는 병합 후보를 식별하는 인덱스를 수신할 수도 있다. 일 예에서, merge_idx [x0][y0] 는 병합 후보 리스트에서 화상을 식별하는 병합 후보 인덱스를 규정할 수도 있으며, 여기서, x0, y0 는 화상 (또는, 슬라이스) 의 최상부-좌측 루마 샘플에 대한 예측 블록의 최상부-좌측 루마 샘플의 로케이션 (x0, y0) 을 규정한다.
일부 예들에서, 비디오 디코더 (30) 는 후보 블록의 모션 정보를 블록 (100) 과 병합하기 전에 모션 벡터 예측자를 스케일링할 수도 있다. 예를 들어, 시간 모션 벡터 예측자에 대해, 모션 벡터 예측자가 블록 (100) 에 의해 지시되는 예측 블록 (예컨대, 블록 (100) 에 대한 실제 모션 벡터) 과는 상이한 시간 로케이션에 로케이트된 참조 화상에서의 예측 블록을 지시하면, 비디오 디코더 (30) 는 모션 벡터 예측자를 스케일링할 수도 있다. 예를 들어, 비디오 디코더 (30) 는 블록 (100) 에 대한 참조 화상과 동일한 참조 화상을 지시하도록 모션 벡터 예측자를 스케일링할 수도 있다. 일부 예들에서, 비디오 디코더 (30) 는 POC (picture order count) 값들에서의 차이에 따라서 모션 벡터 예측자를 스케일링할 수도 있다. 즉, 비디오 디코더 (30) 는 후보 블록과 모션 벡터 예측자에 의해 지시되는 예측 블록 사이의 POC 거리와, 블록 (100) 과 (예컨대, 블록 (100) 에 대한 실제 모션 벡터에 의해 지시되는) 현재의 참조 화상 사이의 POC 거리 사이의 차이에 기초하여, 모션 벡터 예측자를 스케일링할 수도 있다. 적합한 모션 벡터 예측자를 선택한 후, 비디오 디코더 (30) 는 모션 벡터 예측자와 연관되는 모션 정보를 블록 (100) 에 대한 모션 정보와 병합할 수도 있다.
유사한 프로세스가 비디오 데이터의 현재의 블록에 대한 모션 벡터 예측을 수행하기 위해 비디오 인코더 (20) 및 비디오 디코더 (30) 에 의해 구현될 수도 있다. 예를 들어, 비디오 인코더 (20) 는 처음에 어느 모션 벡터 예측자 후보들로부터의 모션 벡터들이 MVP 들로서 이용될 수 있는지를 결정할 수도 있다. 모션 벡터 예측자 후보들 중 하나 이상으로부터의 모션 정보는 예를 들어, 모션 벡터 예측자 후보가 인트라-코딩되거나, 아직 코딩되지 않거나, 또는 존재하지 않기 때문에, 이용할 수 없을 수도 있다.
어느 모션 벡터 예측자 후보들이 이용가능한 지를 결정하기 위해, 비디오 인코더 (20) 는 결국 미리 결정된 우선순위 기반의 방식에 따라서 모션 벡터 예측자 후보들의 각각을 분석할 수도 있다. 예를 들어, 각각의 모션 벡터 예측자 후보에 대해, 비디오 인코더 (20) 는 모션 벡터 예측자가 블록 (100) 에 대한 실제 모션 벡터와 동일한 참조 화상을 지시하는 지를 결정할 수도 있다. 모션 벡터 예측자가 동일한 참조 화상을 지시하면, 비디오 인코더 (20) 는 모션 벡터 예측자 후보를 MVP 후보 리스트에 추가할 수도 있다. 모션 벡터 예측자가 동일한 참조 화상을 지시하지 않으면, 모션 벡터 예측자는 MVP 후보 리스트에 추가되기 전에 스케일링될 수도 있다 (예컨대, 위에서 설명한 바와 같이, POC 거리들에 기초하여 스케일링될 수도 있다).
동일 장소에 로케이트된 블록 COL 에 대해, 동일 장소에 로케이트된 블록이 하나 보다 많은 모션 벡터 예측자를 포함하면 (예컨대, COL 이 B-프레임으로서 예측되면), 비디오 인코더 (20) 는 (블록 (100) 에 대한) 현재의 리스트 및 현재의 참조 화상에 따라서 시간 모션 벡터 예측자들 중 하나를 선택할 수도 있다. 비디오 인코더 (20) 는 그후 그 선택된 시간 모션 벡터 예측자를 모션 벡터 예측자 후보 리스트에 추가할 수도 있다.
비디오 인코더 (20) 는 enable_temporal_mvp_flag 를 설정함으로써 하나 이상의 모션 벡터 예측자들이 이용될 수도 있다고 시그널링할 수도 있다. 후보 리스트를 만든 후, 비디오 인코더 (20) 는 블록 (100) 에 대한 모션 벡터 예측자로서 사용되도록 그 후보들로부터 모션 벡터를 선택할 수도 있다. 일부 예들에서, 비디오 인코더 (20) 는 레이트 왜곡 분석에 따라서 후보 모션 벡터를 선택할 수도 있다.
비디오 인코더 (20) 는 후보 리스트에서 MVP 를 식별하는 MVP 인덱스 (mvp_flag) 를 이용하여 그 선택된 모션 벡터 예측자를 시그널링할 수도 있다. 예를 들어, 비디오 인코더 (20) 는 리스트 0 의 모션 벡터 예측자 인덱스를 규정하기 위해 mvp_l0_flag[ x0 ][ y0 ] 를 설정할 수도 있으며, 여기서, x0, y0 는 화상의 최상부-좌측 루마 샘플에 대한 후보 블록의 최상부-좌측 루마 샘플의 로케이션 (x0, y0) 을 규정한다. 또 다른 예에서, 비디오 인코더 (20) 는 리스트 1 의 모션 벡터 예측자 인덱스를 규정하기 위해 mvp_l1_flag[ x0 ][ y0 ] 를 설정할 수도 있으며, 여기서, x0, y0 는 화상의 최상부-좌측 루마 샘플에 대한 후보 블록의 최상부-좌측 루마 샘플의 로케이션 (x0, y0) 을 규정한다. 또한 또 다른 예에서, 비디오 인코더 (20) 는 리스트 c 의 모션 벡터 예측자 인덱스를 규정하기 위해 mvp_lc_flag[ x0 ][ y0 ] 를 설정할 수도 있으며, 여기서, x0, y0 는 화상의 최상부-좌측 루마 샘플에 대한 후보 블록의 최상부-좌측 루마 샘플의 로케이션 (x0, y0) 을 규정한다.
비디오 인코더 (20) 는 또한 모션 벡터 차이 값 (MVD) 을 발생시킬 수도 있다. MVD 는 그 선택된 모션 벡터 예측자와 블록 (100) 에 대한 실제 모션 벡터 사이의 차이를 구성할 수도 있다. 비디오 인코더 (20) 는 MVP 인덱스를 가진 MVD 를 시그널링할 수도 있다.
비디오 디코더 (30) 는 모션 벡터 예측자를 이용하여 현재의 블록에 대한 모션 벡터를 결정하기 위해 유사한 동작들을 수행할 수도 있다. 예를 들어, 비디오 디코더 (30) 는 모션 벡터 예측이 하나 이상의 화상들에 대해 인에이블된다는 (enable) 것을 나타내는 표시를 파라미터 세트 (예컨대, 화상 파라미터 세트 (PPS)) 로 수신할 수도 있다. 즉, 일 예에서, 비디오 디코더 (30) 는 PPS 로 enable_temporal_mvp_flag 를 수신할 수도 있다. 특정의 화상이 0 과 동일한 enable_temporal_mvp_flag 를 갖는 PPS 를 참조할 때, 참조 화상 메모리에서의 참조 화상들은 "시간 모션 벡터 예측용으로 미사용됨 (unused for temporal motion vector prediction)" 으로 마크될 수도 있다.
모션 벡터 예측이 구현되면, 블록 (100) 을 수신하자 마자, 비디오 디코더 (30) 는 MVP 후보 리스트를 구성할 수도 있다. 비디오 디코더 (30) 는 비디오 인코더 (20) 에 대해 위에서 설명한 방식과 동일한 방식을 이용하여, MVP 후보 리스트를 구성할 수도 있다. 일부의 경우, 비디오 디코더 (30) 는 비디오 인코더 (20) 에 대해 위에서 설명한 것과 유사한 모션 벡터 스케일링을 수행할 수도 있다. 예를 들어, 모션 벡터 예측자가 블록 (100) 과 동일한 참조 화상을 지시하지 않으면, 모션 벡터 예측자는 MVP 후보 리스트에 추가되기 전에 스케일링될 수도 있다 (예컨대, 위에서 설명한 바와 같이, POC 거리들에 기초하여 스케일링될 수도 있다). 비디오 디코더 (30) 는 후보 리스트에서 MVP 를 식별하는 수신된 MVP 인덱스 (mvp_flag) 를 이용하여 블록 (100) 에 대한 적합한 모션 벡터 예측자를 식별할 수도 있다. 비디오 디코더 (30) 는 그후 MVP 및 수신된 MVD 를 이용하여 블록 (100) 에 대한 모션 벡터를 발생시킬 수도 있다.
도 5 는 일반적으로 단일 뷰에서 병합 모드 및 모션 벡터 예측을 예시한다. 도 5 에 나타낸 모션 벡터 예측자 후보 블록들은 단지 예의 목적들을 위해 제공되며, 더 많거나, 더 적거나, 또는 상이한 블록들이 모션 정보를 예측하는 목적들에 사용될 수도 있는 것으로 이해되어야 한다. 본 개시물의 양태들에 따르면, 이하에서 설명하는 바와 같이, 병합 모드 및 모션 벡터 예측은 또한 하나 보다 많은 뷰가 (MVC 에서와 같이) 코딩될 때에 적용될 수 있다. 이런 경우들에서, 모션 벡터 예측자들 및 예측 블록들은 블록 (100) 과는 상이한 뷰들에 로케이트될 수도 있다.
도 6 은 멀티뷰 코딩에서 모션 벡터 예측자를 발생시키고 스케일링하는 것을 예시하는 개념도이다. 예를 들어, 본 개시물의 양태들에 따르면, (비디오 인코더 (20) 또는 비디오 디코더 (30) 와 같은) 비디오 코더는 디스패리티 모션 벡터 예측자 후보 블록 (122) ("후보 블록") 으로부터의 디스패리티 모션 벡터 (120) (mv) 를 스케일링하여, 현재의 블록 (126) 에 대한 모션 벡터 예측자 (124) (mv') 를 발생시킬 수도 있다. 도 6 은 비디오 디코더 (30) 에 대해 설명되지만, 본 개시물의 기법들은 다른 프로세서들, 프로세싱 유닛들, 인코더/디코더들 (코덱들) 과 같은 하드웨어-기반의 코딩 유닛들 등을 포함한, 다양한 다른 비디오 코더들에 의해 수행될 수도 있는 것으로 이해되어야 한다.
도 6 의 예에서, 후보 블록 (122) 은 뷰 성분 2 (view_id 2) 에서 현재의 블록 (126) 에 공간적으로 이웃한다. 후보 블록 (122) 은 인터 예측되며, 뷰 성분 0 (view_id 0) 에서 예측 블록을 지시하는 (또는, "가리키는") 모션 벡터 (120) 를 포함한다. 예를 들어, 모션 벡터 (120) 는 뷰 2 (view_id 2) 에서의 목표 화상 및 뷰 0 (view_id 0) 에서의 참조 화상을 갖는다. 현재의 블록 (126) 은 또한 인터 예측되며, 뷰 성분 1 (view_id 1) 에서의 예측 블록을 지시하는 실제 모션 벡터 (미도시) 를 포함한다. 즉, 예를 들어, 현재의 블록 (126) 에 대한 실제 모션 벡터는 뷰 2 (view_id 2) 에서의 목표 화상 및 뷰 1 (view_id 1) 에서의 참조 블록을 갖는다.
본 개시물의 양태들에 따르면, 비디오 디코더 (30) 는 모션 벡터 (120) 의 스케일링된 버전을 이용하여 현재의 블록 (126) 에 대한 모션 벡터 예측자 (124) 를 발생시킬 수도 있다. 예를 들어, 비디오 디코더 (30) 는 모션 벡터 (120) 와 현재의 블록 (126) 에 대한 실제 모션 벡터 사이의 뷰 거리들에서의 차이에 기초하여, 모션 벡터 (120) 를 스케일링할 수도 있다. 즉, 비디오 디코더 (30) 는 후보 블록 (122) 에 대한 (참조 화상에서의) 예측 블록과 현재의 블록 (126) 에 대한 (참조 화상에서의) 예측 블록을 캡쳐하는데 사용되는 카메라의 카메라 로케이션의 차이에 기초하여, 모션 벡터 (120) 를 스케일링할 수도 있다. 따라서, 비디오 디코더 (30) 는 후보 블록 (122) 에 대한 모션 벡터 (120) 에 의해 지시되는 뷰 성분과 현재의 블록 (126) 에 대한 실제 모션 벡터에 의해 지시되는 뷰 성분 사이의 차이에 따라서, 디스패리티 모션 벡터 (120) (예컨대, 예측에 사용되는 모션 벡터) 를 스케일링할 수도 있다.
일 예에서, 비디오 디코더 (30) 는 아래에 나타낸 수식 (1) 에 따라서 현재의 블록에 대한 스케일링된 모션 벡터 예측자를 발생시킬 수도 있다:
Figure 112013105355715-pct00001
(1)
여기서, ViewDistance(mv) 는 모션 벡터 (120) 의 참조 화상의 뷰 ID (예컨대, ViewId(RefPic(mv)) 와 모션 벡터 (120) 의 목표 화상의 뷰 ID (예컨대, ViewId(TargetPic(mv)) 사이의 차이와 동일하며, ViewDistance(mv') 는 모션 벡터 예측자 (124) 의 참조 화상의 뷰 ID (예컨대, ViewId(RefPic(mv')) 와 모션 벡터 예측자 (124) 의 목표 화상의 뷰 ID (예컨대, ViewId(TargetPic(mv')) 사이의 차이와 동일하다. 따라서, 이 예에서, 모션 벡터 예측자 (124) 의 참조 화상, RefPic(mv') 은 새로운 목표 뷰에 속하며, 모션 벡터 예측자 (124) 의 목표 화상, TargetPic(mv') 은 현재의 뷰에 속한다. 이와 유사하게, 모션 벡터 (120) 의 참조 화상, RefPic(mv) 은 후보 모션 벡터가 가리키는 뷰에 속하며, 모션 벡터 (120) 의 목표 화상, TargetPic(mv) 은 현재의 뷰에 속한다. 따라서, 비디오 디코더 (30) 는 하기 수식 (2) 에 따라서 스케일링된 모션 벡터 예측자를 발생시킬 수도 있다:
Figure 112013105355715-pct00002
(2)
여기서, mv' 는 현재의 블록에 대한 스케일링된 모션 벡터 예측자를 나타내며, mv 는 후보 블록에 대한 모션 벡터를 나타내며, ViewID(NewTarget) 는 현재의 블록에 대한 실제 모션 벡터에 의해 지시되는 뷰 성분이며, ViewID(Current) 는 현재의 블록의 뷰 성분이며, 그리고, ViewID(Candidate) 는 후보 블록의 뷰 성분이다.
도 6 의 예에 수식 (2) 을 적용하며, mv' 는 현재의 블록 (126) 에 대한 스케일링된 모션 벡터 예측자를 나타내며, mv 는 모션 벡터 (120) 를 나타내며, ViewID(NewTarget) 는 모션 벡터 (124) 에 의해 지시되는 뷰 성분이며, ViewID(Current) 는 현재의 블록 (126) 의 뷰 성분이며, 그리고, ViewID(Candidate) 는 후보 블록 (122) 의 뷰 성분이다. 따라서, 도 4 에 나타낸 예에서, 모션 벡터 예측자 (124) 는 1/2 의 인자 만큼 스케일링된 모션 벡터 (120) 이다 (예컨대,
Figure 112013105355715-pct00003
). 즉, 비디오 디코더 (30) 는 모션 벡터 (120) 의 수평 변위 성분 및 수직 변위 성분 양자를 1/2 의 인자 만큼 스케일링하여, 현재의 블록 (126) 에 대한 모션 벡터 예측자 (124) 를 생성할 수도 있다.
도 6 에 관하여 설명된 모션 벡터 스케일링은 병합 및 모션 벡터 예측 양자를 위해 수행될 수도 있다. 즉, 예를 들어, 비디오 디코더 (30) 는 모션 벡터 (120) 를 현재의 블록 (126) 에 대한 모션 정보와 병합하기 전에 모션 벡터 (120) 를 스케일링할 수도 있다. 또 다른 예에서, 비디오 디코더 (30) 는 모션 벡터 예측자 (124) 와 현재의 블록 (126) 에 대한 실제 모션 벡터 사이의 차이에 따라서 모션 벡터 차이 값 (MVD) 을 계산하기 전에 모션 벡터 (120) 를 스케일링할 수도 있다.
도 6 의 예에 나타낸 바와 같이, 후보 블록 (122) 및 현재의 블록 (126) 은 동일한 뷰 성분에 로케이트될 수도 있다. 그러나, 다른 예들에서, 도 7 및 도 8 에 대해 더 자세히 설명하는 바와 같이, 후보 블록은 현재의 블록과는 상이한 뷰 성분에 로케이트될 수도 있다.
도 7 은 모션 벡터 예측자를 발생시키고 스케일링하는 것을 예시하는 또 다른 개념도이다. 예를 들어, 본 개시물의 양태들에 따르면, (비디오 인코더 (20) 또는 비디오 디코더 (30) 와 같은) 비디오 코더는 디스패리티 모션 벡터 예측자 후보 블록 (132) (x', y') 으로부터의 디스패리티 모션 벡터 (130) (mv) 를 스케일링하여 현재의 블록 (136) (x, y) 에 대한 모션 벡터 예측자 (134) (mv') 를 발생시킬 수도 있으며, 여기서, 후보 블록 (132) 은 현재의 블록 (136) 과는 상이한 뷰 성분에 속한다. 따라서, 도 7 에 대해 도시 및 설명되는 프로세스는 일반적으로 인터-뷰 디스패리티 모션 벡터 예측으로서 지칭될 수도 있다. 도 7 은 비디오 디코더 (30) 에 대해 설명되지만, 본 개시물의 기법들은 다른 프로세서들, 프로세싱 유닛들, 인코더/디코더들 (코덱들) 과 같은 하드웨어-기반의 코딩 유닛들 등을 포함한, 다양한 다른 비디오 코더들에 의해 수행될 수도 있는 것으로 이해되어야 한다.
도 7 에 나타낸 예에서, 후보 블록 (132) 은 뷰 성분 1 (view_id 1) 에 로케이트된다. 후보 블록 (132) 은 인터 예측되며, 뷰 성분 0 (view_id 0) 에서의 예측 블록을 지시하는 모션 벡터 (130) (mv) 를 포함한다. 예를 들어, 모션 벡터 (130) 는 뷰 1 (view_id 1) 에서 목표 화상을 그리고 뷰 0 (view_id 0) 에서 참조 화상을 갖는다. 현재의 블록 (136) 은 후보 블록 (132) 과 동일 장소에 로케이트되며, 뷰 성분 2 (view_id 2) 에 로케이트된다. 아래에서 좀더 자세히 설명하는 바와 같이, 일부 예들에서, 현재의 블록 (136) 은 제 1 참조 뷰 (view_id 1) 에서의 블록을 식별하는 실제 모션 벡터 (미도시) 를 포함할 수도 있다. 즉, 예를 들어, 현재의 블록 (136) 에 대한 실제 모션 벡터는 뷰 2 (view_id 2) 에서 목표 화상을 가지며, 뷰 1 (view_id 1) 에서 참조 블록을 가질 수도 있다. 다른 예들에서, 현재의 블록은 제 2 참조 뷰 (view_id 0) 에서의 블록을 식별하는 실제 모션 벡터를 포함할 수도 있다. 즉, 예를 들어, 현재의 블록 (136) 에 대한 실제 모션 벡터는 뷰 2 (view_id 2) 에서 목표 화상을 가지며, 뷰 0 (view_id 0) 에서 참조 블록을 가질 수도 있다. 따라서, 모션 벡터 예측자 (134) (mv') 는 제 1 참조 뷰 (view_id 1) 에서의 블록을 지시할 수도 있다. 또 다른 예에서, 제 2 모션 벡터 예측자 (138) (mv'') 는 제 2 참조 뷰 (view_id 0) 에서의 블록을 지시할 수도 있다.
일부 예들에서, 제 2 모션 벡터 예측자 (138) 는 모션 벡터 예측의 목적들에 이용불가능할 수도 있다. 예를 들어, 제 2 모션 벡터 예측자 (138) 는 제 2 참조 뷰에서의 예측 블록이 직접 인터-뷰 예측에 이용될 수 있으면 오직 발생될 수도 있다. 제 2 참조 뷰에서의 예측 블록의 이용가능성은 예를 들어, 현재의 블록 (136) 과 연관된 (시퀀스 파라미터 세트 (SPS) 또는 화상 파라미터 세트 (PPS) 와 같은) 파라미터 세트 또는 슬라이스 헤더에, 규정될 수도 있다.
본 개시물의 양태들에 따르면, 비디오 디코더는 병합 모드를 이용하여 또는 모션 벡터 예측을 이용하여 인터-뷰 디스패리티 모션 벡터 예측을 수행할 수도 있다. 병합 모드에 대해, 비디오 디코더 (30) 는 처음에 현재의 블록 (136) 에 대한 "목표 뷰" 를 선택할 수도 있다. 일반적으로, 목표 뷰는 현재의 블록 (136) 에 대한 예측 블록을 포함한다. 일부 예들에서, 목표 뷰는 제 1 참조 뷰 (도 7 에 view_id 1 로서 도시됨) 일 수도 있다. 다른 예들에서, 목표 뷰는 제 2 참조 뷰 (도 7 에 view_id 0 로서 도시됨) 일 수도 있다. 위에서 언급한 바와 같이, 그러나, 일부 예들에서, 제 2 참조 뷰는 제 2 참조 뷰에서의 예측 블록이 인터-뷰 예측의 목적들에 사용되는데 이용될 수 있으면 목표 뷰로서 오직 사용될 수도 있다.
일부 예들에서, 비디오 디코더 (30) 는 제 1 참조 뷰를 목표 뷰로서 선택할 수도 있다. 다른 예들에서, 비디오 디코더 (30) 는 이용가능한 경우, 제 2 참조 뷰를 목표 뷰로서 선택할 수도 있다. 목표 뷰의 선택은 예를 들어, 예측 블록의 이용가능성 및/또는 미리 결정된 선택 알고리즘에 기초하여 결정될 수도 있다. 현재의 블록 (136) 의 참조 인덱스 (ref_idx) 는 목표 뷰의 예측 블록을 포함하는 화상의 인덱스에 대응하며, 현재의 블록 (136) 의 참조 화상 리스트에 추가된다.
목표 뷰를 선택한 후, 비디오 디코더 (30) 는 후보 블록 (132) 을 로케이트할 수도 있다. 예시의 목적을 위한 예에서, 현재의 블록 (136) 의 상부-좌측 루마 샘플이 화상 (또는, 슬라이스) 에서 좌표들 (x, y) 에 로케이트된다고 가정한다. 비디오 디코더 (30) 는 후보 블록 (132) 에 대한 뷰 성분 1 에서 동일 장소에 로케이트된 좌표들을 결정할 수도 있다. 게다가, 일부 예들에서, 비디오 디코더 (30) 는 현재의 블록 (136) 의 뷰 성분 (뷰 성분 2) 과 후보 블록 (뷰 성분 1) (132) 의 뷰 성분 사이의 디스패리티에 기초하여 좌표들을 조정할 수도 있다. 따라서, 비디오 디코더 (30) 는 후보 블록 (132) 에 대한 좌표들을 (x', y') 로서 결정할 수도 있으며, 여기서, (x', y',) = (x, y) + 디스패리티. 일부 예들에서, 디스패리티는 SPS, PPS, 슬라이스 헤더, CU 구문, 및/또는 PU 구문에 포함되거나 및/또는 SPS, PPS, 슬라이스 헤더, CU 구문, 및/또는 PU 구문에서 계산될 수도 있다.
후보 블록 (132) 을 로케이트한 후, 비디오 디코더 (30) 는 모션 벡터 (130) 와 현재의 블록 (136) 에 대한 실제 모션 벡터 사이의 뷰 거리들에서의 차이에 기초하여 후보 블록 (132) 에 대한 모션 벡터 (130) 을 스케일링할 수도 있다. 즉, 비디오 디코더 (30) 는 후보 블록 (132) 에 대한 예측 블록과 현재의 블록 (136) 에 대한 예측 블록 (예컨대, 목표 뷰에서의 예측 블록) 을 캡쳐하는데 사용되는 카메라의 카메라 로케이션에서의 차이에 기초하여, 모션 벡터 (130) 를 스케일링할 수도 있다. 즉, 비디오 디코더 (30) 는 후보 블록 (132) 에 대한 모션 벡터 (130) 에 의해 지시되는 뷰 성분과 목표 뷰의 뷰 성분 사이의 차이에 따라서 디스패리티 모션 벡터 (130) (예컨대, 예측에 사용되는 모션 벡터) 를 스케일링할 수도 있다.
일 예에서, 비디오 디코더 (30) 는 아래에 나타낸 수식 (3) 에 따라서 현재의 블록에 대한 스케일링된 모션 벡터 예측자를 발생시킬 수도 있다:
Figure 112013105355715-pct00004
(3)
여기서, mv' 는 현재의 블록에 대한 스케일링된 모션 벡터 예측자를 나타내며, mv 는 후보 블록에 대한 모션 벡터를 나타내며, ViewID(Target) 는 선택된 목표 뷰의 뷰 성분이며, ViewID(Current) 는 현재의 블록의 뷰 성분이며, 그리고, ViewID(SecondReference) 는 제 2 참조 뷰의 뷰 성분이며 (이용가능한 경우), 그리고, ViewID(Reference) 는 제 1 참조 뷰의 뷰 성분이다. 일부 예들에서, ViewID(Target) 마이너스 (minus) ViewID(Current) 는 모션 벡터 예측자 (134) 의 뷰 거리로서 지칭될 수도 있으며, 반면, ViewID(SecondReference) 마이너스 ViewID(Reference) 는 모션 벡터 (130) 의 뷰 거리로서 지칭될 수도 있다. 즉, 모션 벡터 예측자 (134) 의 뷰 거리는 목표 화상 (view_id 1) 과 모션 벡터 예측자 (134) 의 참조 화상 (view_id 2) 사이의 차이이며, 반면, 모션 벡터 (130) 의 뷰 거리는 목표 화상 (view_id 0) 과 모션 벡터 (130) 의 참조 화상 (view_id 1) 사이의 차이이다.
도 7 의 예에 수식 (3) 을 적용하면, mv' 는 어느 뷰 성분이 목표 뷰에 대해 선택되는지에 따라서, 스케일링된 모션 벡터 예측자 (134) 또는 스케일링된 모션 벡터 예측자 (138) 를 나타낸다. 예를 들어, 제 1 참조 뷰 (view_id 1) 가 목표 뷰로서 선택되면, mv' 는 스케일링된 모션 벡터 예측자 (134) 를 나타내며, mv 는 모션 벡터 (130) 를 나타내며, ViewID(Target) 는 모션 벡터 예측자 (134) 에 의해 지시되는 뷰 성분이며, ViewID(Current) 는 현재의 블록 (136) 의 뷰 성분이며, ViewID(SecondReference) 는 제 2 참조 뷰 (view_id 0) 의 뷰 성분이며, 그리고 ViewID(Reference) 는 제 1 참조 뷰 (view_id 1) 의 뷰 성분이다. 따라서, 도 7 에 나타낸 예에서, 모션 벡터 예측자 (134) 는 1 의 인자 만큼 스케일링된 모션 벡터 (130) 이다 (예컨대,
Figure 112013105355715-pct00005
). 즉, 모션 벡터 (130) 의 수평 변위 성분 및 수직 변위 성분은 모션 벡터 예측자 (134) 의 수평 변위 성분 및 수직 변위 성분과 동일할 수도 있다.
이의 대안으로, 제 2 참조 뷰 (view_id 0) 가 목표 뷰용으로 선택되면, mv' 는 스케일링된 모션 벡터 예측자 (138) 를 나타내며, mv 는 모션 벡터 (130) 를 나타내며, ViewID(Target) 는 모션 벡터 예측자 (138) 에 의해 지시되는 뷰 성분이며, ViewID(Current) 는 현재의 블록 (136) 의 뷰 성분이며, ViewID(SecondReference) 는 제 2 참조 뷰 (view_id 0) 의 뷰 성분이며, 그리고, ViewID(Reference) 는 제 1 참조 뷰 (view_id 1) 의 뷰 성분이다. 따라서, 도 7 에 나타낸 예에서, 모션 벡터 예측자 (138) 는 2 의 인자 만큼 스케일링된 모션 벡터 (130) 이다 (예컨대,
Figure 112013105355715-pct00006
). 즉, 비디오 디코더 (30) 는 모션 벡터 (130) 의 수평 변위 성분 및 수직 변위 성분 양자를 2 의 인자 만큼 스케일링하여, 현재의 블록 (136) 에 대한 모션 벡터 예측자 (138) 를 생성할 수도 있다.
본 개시물의 양태들에 따르면, 비디오 디코더 (30) 는 모션 벡터 예측을 수행할 (예컨대, MVP 를 발생시킬) 때 유사한 단계들을 수행할 수도 있다. 예를 들어, 비디오 디코더 (30) 는 목표 뷰를 선택할 수도 있으며, 이 목표 뷰는 제 1 참조 뷰 (view_id 1) 또는 제 2 참조 뷰 (view_id 0) 일 수도 있다. 그러나, 현재의 블록에 대한 예측 블록을 포함하는 뷰 성분의 참조 화상이 인터-뷰 예측의 목적들에 이용불가능하면, 대응하는 예측자가 사용되지 않을 수도 있다. 따라서, 목표 뷰의 선택은 예를 들어, 예측 블록의 이용가능성 및/또는 미리 결정된 선택 알고리즘에 기초하여, 결정될 수도 있다.
현재의 블록 (136) 에 대한 예측 블록이 제 1 참조 뷰 (view_id 1) 또는 제 2 참조 뷰 (view_id 0) 에서 직접 인터-뷰 예측에 사용되도록 이용가능하지 않으면, 비디오 디코더 (30) 는 모션 벡터 예측을 수행하지 않을 수도 있다. 적어도 하나의 예측 블록이 이용가능하면, 비디오 디코더 (30) 는 현재의 블록 (136) 에 대한 실제 모션 벡터와 연관되는 예측 블록을 포함하는 참조 뷰를 선택할 수도 있다.
목표 뷰를 선택한 후, 비디오 디코더 (30) 는 그후 병합 모드와 관하여 위에서 설명한 단계들을 반복할 수도 있다. 예를 들어, 비디오 디코더 (30) 는 후보 블록 (132) 을 로케이트할 수도 있다. 즉, 비디오 디코더 (30) 는 후보 블록 (132) 에 대한 뷰 성분 1 에서 동일 장소에 로케이트된 좌표들을 결정할 수도 있다. 게다가, 일부 예들에서, 비디오 디코더 (30) 는 현재의 블록 (136) 의 뷰 성분 (뷰 성분 2) 과 후보 블록 (뷰 성분 1) (132) 의 뷰 성분 사이의 디스패리티에 기초하여, 좌표들을 조정할 수도 있다.
게다가, 후보 블록 (132) 을 로케이트한 후, 비디오 디코더 (30) 는 후보 블록 (132) 에 대한 예측 블록 및 현재의 블록 (136) 에 대한 예측 블록 (예컨대, 목표 뷰에서의 예측 블록) 을 캡쳐하는데 사용되는 카메라의 카메라 로케이션에서의 차이에 기초하여, 후보 블록 (132) 에 대한 모션 벡터 (130) 를 스케일링할 수도 있다. 즉, 비디오 디코더 (30) 는 후보 블록 (132) 에 대한 모션 벡터 (130) 에 의해 지시되는 뷰 성분과 목표 뷰의 뷰 성분 사이의 차이에 따라서 디스패리티 모션 벡터 (130) (예컨대, 예측에 사용되는 모션 벡터) 를 스케일링할 수도 있다. 일부 예들에서, 비디오 디코더 (30) 는 상기 수식 (2) 를 이용하여 모션 벡터 예측자 스케일링을 수행할 수도 있다. 다른 예들에서, 아래에서 도 8 에 관하여 설명한 바와 같이, 모션 벡터 예측자 스케일링은 다른 뷰들로 확장될 수도 있다.
비디오 디코더 (30) 는 (예를 들어, 위에서 도 5 에 관해 설명한) 병합 모드 및/또는 모션 벡터 예측을 수행할 때 후보 블록 (132) 을 후보 리스트에 추가할 수도 있다. 본 개시물의 양태들에 따르면, 후보 블록은 모션 벡터 예측자 후보 리스트를 (예컨대, 병합 모드 또는 MVP 에 의한 모션 벡터 예측을 위해) 다양한 방법들로 추가될 수도 있다. 예를 들어, 비디오 디코더 (30) 는 다음 방식에 따라서 병합 모드 후보들을 로케이트함으로써 후보 리스트를 구성할 수도 있다:
1. A1, 이용가능한 FlagA1가 1 과 같으면
2. V, 이용가능한 FlagV가 1 과 같으면
3. B1, 이용가능한 FlagB1가 1 과 같으면
4. B0, 이용가능한 FlagB0가 1 과 같으면
5. A0, 이용가능한 FlagA0가 1 과 같으면
6. B2, 이용가능한 FlagB2가 1 과 같으면
7. Col, 이용가능한 FlagCol가 1 과 같으면
여기서, V 는 후보 블록 (132) 을 나타낸다. 다른 예들에서, 후보 블록 (132) 은 후보 리스트에 후보 리스트의 임의의 다른 위치에 로케이트되고 추가될 수도 있다.
도 8 은 본 개시물의 양태들에 따른, 모션 벡터 예측자를 발생시키고 스케일링하는 것을 예시하는 또 다른 개념도이다. 예를 들어, 본 개시물의 양태들에 따르면, (비디오 인코더 (20) 또는 비디오 디코더 (30) 와 같은) 비디오 코더는 디스패리티 모션 벡터 예측자 후보 블록 (142) 으로부터의 디스패리티 모션 벡터 (140) (mv) 를 스케일링하여, 현재의 블록 (146) 에 대한 모션 벡터 예측자 (144) (mv') 를 발생시킬 수도 있으며, 여기서, 후보 블록 (142) 은 현재의 블록 (146) 과는 상이한 뷰 성분에 속한다. 도 8 은 비디오 디코더 (30) 에 관하여 설명되지만, 본 개시물의 기법들은 다른 프로세서들, 프로세싱 유닛들, 인코더/디코더들 (코덱들) 과 같은 하드웨어-기반의 코딩 유닛들 등을 포함한, 다양한 다른 비디오 코더들에 의해 수행될 수도 있는 것으로 이해되어야 한다.
도 8 에 나타낸 예는 도 7 에 관하여 도시 및 설명된 모션 벡터 예측을 3개보다 많은 뷰들을 포함하는 환경으로 확장한다. 예를 들어, 도 8 에 나타낸 바와 같이, 후보 블록 (142) 은 뷰 성분 2 (view_id 2) 에 로케이트된다. 후보 블록 (142) 은 인터 예측되며, 뷰 성분 1 (view_id 1) 에서의 예측 블록을 지시하는 모션 벡터 (140) (mv) 를 포함한다. 예를 들어, 모션 벡터 (140) 는 뷰 2 (view_id 2) 에서 목표 화상을, 그리고 뷰 1 (view_id 1) 에서 참조 화상을 갖는다. 현재의 블록 (146) 은 후보 블록 (142) 과 동일 장소에 로케이트되며, 뷰 성분 3 (view_id 3) 에 로케이트된다.
본 개시물의 양태들에 따르면, 비디오 디코더 (30) 는 현재의 블록 (146) 에 대한 목표 뷰를 뷰 성분 0 (view_id 0) 으로서 선택할 수도 있다. 예를 들어, 목표 뷰는 일반적으로 현재의 블록에 대한 예측 블록을 포함한다. 예측 블록을 포함하는 화상이 인터-뷰 참조 화상이고 현재의 블록 (146) 에 대한 예측 블록이 제 3 참조 뷰 (view_id 0) 에 로케이트되면, 비디오 디코더 (30) 는 제 3 참조 뷰를 목표 뷰로서 선택할 수도 있다.
목표 뷰를 선택한 후, 비디오 디코더 (30) 는 후보 블록 (142) 을 로케이트할 수도 있다. 예를 들어, 현재의 블록 (146) 의 상부-좌측 루마 샘플이 화상 (또는, 슬라이스) 에 뷰 성분 3 에서의 좌표들 (x,y) 에서 로케이트된다고 가정하면, 비디오 디코더 (30) 는 후보 블록 (142) 에 대한 뷰 성분 2 에서 동일 장소에 로케이트된 좌표들을 결정할 수도 있다. 게다가, 위에서 언급한 바와 같이, 비디오 디코더 (30) 는 현재의 블록 (146) 의 뷰 성분 (뷰 성분 3) 과 후보 블록 (뷰 성분 2) (142) 의 뷰 성분 사이의 디스패리티에 기초하여 좌표들을 조정할 수도 있다.
후보 블록 (142) 을 로케이트한 후, 비디오 디코더 (30) 는 모션 벡터 (140) 와 현재의 블록 (146) 에 대한 실제 모션 벡터 사이의 뷰 거리들에서의 차이에 기초하여 후보 블록 (142) 에 대한 모션 벡터 (140) 를 스케일링할 수도 있다. 즉, 비디오 디코더 (30) 는 후보 블록 (142) 에 대한 예측 블록 및 현재의 블록 (146) 에 대한 예측 블록 (예컨대, 목표 뷰에서의 예측 블록) 을 캡쳐하는데 사용되는 카메라의 카메라 로케이션에서의 차이에 기초하여, 모션 벡터 (130) 를 스케일링할 수도 있다. 즉, 비디오 디코더 (30) 는 후보 블록 (142) 에 대한 모션 벡터 (140) 에 의해 지시되는 뷰 성분과 목표 뷰 (view_id 0) 의 뷰 성분 사이의 차이에 따라서 디스패리티 모션 벡터 (140) (예컨대, 예측에 사용되는 모션 벡터) 를 스케일링할 수도 있다.
일 예에서, 비디오 디코더 (30) 는 아래에 나타낸 수식 (4) 에 따라서 현재의 블록에 대한 스케일링된 모션 벡터 예측자를 발생시킬 수도 있다:
Figure 112013105355715-pct00007
(4)
여기서, mv' 는 현재의 블록에 대한 스케일링된 모션 벡터 예측자를 나타내며, mv 는 후보 블록에 대한 모션 벡터를 나타내며, ViewID(Third) 는 제 3 참조 뷰의 뷰 성분이며, ViewID(Current) 는 현재의 블록의 뷰 성분이며, ViewID(SecondReference) 는 제 2 참조 뷰의 뷰 성분이며 (이용가능한 경우), 그리고, ViewID(Reference) 는 제 1 참조 뷰의 뷰 성분이다. 일부 예들에서, ViewID(Third) 마이너스 ViewID(Current) 는 모션 벡터 예측자 (144) 의 뷰 거리로서 지칭될 수도 있으며, 반면, ViewID(SecondReference) 마이너스 ViewID(Reference) 는 모션 벡터 (140) 의 뷰 거리로서 지칭될 수도 있다. 즉, 모션 벡터 예측자 (144) 의 뷰 거리는 목표 화상 (view_id 0) 과 모션 벡터 예측자 (144) 의 참조 화상 (view_id 3) 사이의 차이이며, 반면, 모션 벡터 (140) 의 뷰 거리는 목표 화상 (view_id 1) 과 모션 벡터 (140) 의 참조 화상 (view_id 2) 사이의 차이이다.
도 8 의 예에 수식 (3) 을 적용하면, mv' 는 스케일링된 모션 벡터 예측자 (144) 를 나타낸다. 예를 들어, ViewID(Third) 는 제 3 참조 뷰 (view_id 0) 이며, mv' 는 스케일링된 모션 벡터 예측자 (144) 를 나타내며, mv 는 모션 벡터 (140) 를 나타내며, ViewID(Current) 는 현재의 블록 (146) 의 뷰 성분이며, ViewID(SecondReference) 는 제 2 참조 뷰 (view_id 1) 의 뷰 성분이고, 그리고 ViewID(Reference) 는 제 1 참조 뷰 (view_id 2) 의 뷰 성분이다. 따라서, 도 8 에 나타낸 예에서, 모션 벡터 예측자 (144) 는 3 의 인자 만큼 스케일링된 모션 벡터 (140) 이다 (예컨대,
Figure 112013105355715-pct00008
). 즉, 비디오 디코더 (30) 는 모션 벡터 (140) 의 수평 변위 성분 및 수직 변위 성분을 3 만큼 스케일링하여, 모션 벡터 예측자 (144) 를 형성할 수도 있다.
도 7 내지 도 8 은 인터-뷰 디스패리티 모션 벡터 예측에 대한 예들을 제공하지만, 이런 예들은 단지 예시의 목적을 위해 제공되는 것으로 이해되어야 한다. 즉, 디스패리티 모션 벡터 예측에 대한 기법들은 나타낸 기법들보다 더 많거나 또는 더 적은 뷰들에 적용될 수도 있다. 이에 추가적으로 또는 대안적으로, 디스패리티 모션 벡터 예측에 대한 기법들은 뷰들이 상이한 뷰 식별자들을 갖는 상황들에 적용될 수도 있다.
도 9 는 비디오 데이터의 블록에 대한 예측 정보를 코딩하는 예시적인 방법을 예시하는 흐름도이다. 도 9 에 나타낸 예는 비디오 코더에 의해 수행되는 것으로 일반적으로 설명된다. 일부 예들에서, 도 9 의 방법은 위에서 설명한, 비디오 인코더 (20) (도 1 및 도 2) 또는 비디오 디코더 (30) (도 1 및 도 3) 에 의해 실행될 수도 있는 것으로 이해되어야 한다. 다른 예들에서, 도 9 의 방법은 다양한 다른 프로세서들, 프로세싱 유닛들, 하드웨어-기반의 코딩 유닛들, 예컨대 인코더/디코더들 (코덱들) 등에 의해 수행될 수도 있다.
도 9 에 나타낸 예시적인 방법에 따르면, 비디오 코더는 제 1 뷰에서 비디오 데이터의 제 1 블록을 식별할 수도 있으며, 여기서, 비디오 데이터의 제 1 블록은 제 1 디스패리티 모션 벡터와 연관된다 (160). 예를 들어, 비디오 데이터의 제 1 블록에 대한 모션 벡터는 또 다른 뷰 성분에서 참조 블록을 식별하는 디스패리티 모션 벡터일 수도 있다. 비디오 코더는 그후 비디오 데이터의 제 2 블록과 연관되는 제 2 모션 벡터가 디스패리티 모션 벡터인지를 결정할 수도 있다 (162).
제 2 모션 벡터가 디스패리티 모션 벡터가 아니면 (단계 (162) 의 아니오 분기), 비디오 코더는 상이한 모션 벡터 예측자 후보를 식별할 수도 있다 (164). 즉, 본 개시물의 일부 양태들에 따르면, 디스패리티 모션 벡터 (예컨대, 제 1 모션 벡터) 를 이용하여 시간 모션 벡터 (예컨대, 제 2 모션 벡터가 시간 모션 벡터일 때, 제 2 모션 벡터) 를 예측하는 능력이 디스에이블될 수도 있다. 이런 경우들에서, 비디오 코더는 제 1 모션 벡터를, 모션 벡터 예측의 목적들을 위해 사용되는데 이용불가능한 것으로서 식별할 수도 있다.
제 2 모션 벡터가 디스패리티 모션 벡터이면 (단계 (162) 의 예 분기), 비디오 코더는 제 1 모션 벡터를 스케일링하여, 제 2 모션 벡터에 대한 모션 벡터 예측자를 발생시킬 수도 있다 (166). 예를 들어, 본 개시물의 양태들에 따르면, 비디오 코더는 제 1 모션 벡터를 스케일링하여, 제 1 디스패리티 모션 벡터 및 제 2 모션 벡터와 연관된 뷰 거리들에서의 차이들에 기초하여, 디스패리티 모션 벡터 예측자를 발생시킬 수도 있다. 즉, 일부 예들에서, 비디오 코더는 카메라 로케이션들에 기초하여 제 2 블록에 대한 모션 벡터 예측자를 스케일링할 수도 있다. 예를 들어, 비디오 코더는 도 6 내지 도 8 에 관하여 도시 및 설명한 바와 같은 뷰 식별자들에서의 차이에 따라서 제 2 모션 벡터를 스케일링할 수도 있다.
비디오 코더는 그후 그 스케일링된 모션 벡터 예측자를 이용하여 제 2 블록에 대한 예측 데이터를 코딩할 수도 있다 (168). 예를 들어, 비디오 코더는 병합 모드를 이용하여 또는 모션 벡터 예측을 이용하여 제 2 블록에 대한 예측 데이터를 코딩할 수도 있다. 병합 모드에 있어, 비디오 코더는 스케일링된 제 2 모션 벡터 예측자를 이용하여 제 2 블록에 대한 예측 데이터를 직접 코딩할 수도 있다. 모션 벡터 예측에 있어, 비디오 코더는 MVD 를 발생시킴으로써 제 2 블록에 대한 예측 데이터를 코딩할 수도 있다. MVD 는 제 1 모션 벡터와 스케일링된 제 2 모션 벡터 사이의 차이를 포함할 수도 있다.
또한, 도 9 에 관하여 도시 및 설명한 단계들은 단지 일 예로서 제공되는 것으로 이해되어야 한다. 즉, 도 9 의 방법의 단계들은 반드시 도 9 에 나타낸 순서로 수행될 필요는 없으며, 더 적거나, 추가적이거나, 또는 대안적인 단계들이 수행될 수도 있다.
도 10 은 현재의 블록과는 상이한 뷰에서의 블록으로부터 모션 벡터 예측자를 발생시키는 것을 예시하는 개념도이다. 예를 들어, 본 개시물의 양태들에 따르면, (비디오 인코더 (20) 또는 비디오 디코더 (30) 와 같은) 비디오 코더는 시간 모션 벡터 예측자 후보 블록 (182) 으로부터의 시간 모션 벡터 (180) (mv) 를 이용하여, 현재의 블록 (186) 에 대한 모션 벡터 예측자 (184) (mv') 를 발생시킬 수도 있으며, 여기서, 후보 블록 (182) 은 현재의 블록 (186) 과는 상이한 뷰 성분에 속한다. 도 10 은 비디오 디코더 (30) 에 관하여 설명되지만, 본 개시물의 기법들은 다른 프로세서들, 프로세싱 유닛들, 인코더/디코더들 (코덱들) 과 같은 하드웨어-기반의 코딩 유닛들 등을 포함한, 다양한 다른 비디오 코더들에 의해 수행될 수도 있는 것으로 이해되어야 한다.
도 10 에 나타낸 바와 같이, 현재의 블록 (186) 은 뷰 성분 1 (view_id 1) 에 로케이트된다. 후보 블록 (182) 은 뷰 성분 0 (view_id 0) 에 로케이트된다. 후보 블록 (182) 은 시간적으로 예측되며, 동일한 뷰 성분 내 상이한 시간 로케이션에서 예측 블록을 지시하는 모션 벡터 (180) (mv) 를 포함한다. 즉, 도 10 에 나타낸 예에서, 모션 벡터 (180) 는 변수 i (ref_idx = i) 와 동일한 참조 인덱스를 갖는 화상에서 예측 블록을 식별한다.
현재의 블록 (186) 의 상부-좌측 루마 샘플이 화상 (또는, 슬라이스) 에 좌표들 (x,y) 에 로케이트된다고 가정한다. 비디오 디코더 (30) 는 후보 블록 (182) 에 대한 뷰 성분 0 에서 동일 장소에 로케이트된 좌표들을 결정함으로써 후보 블록 (182) 을 로케이트할 수도 있다. 일부 예들에서, 비디오 디코더 (30) 는 현재의 블록 (186) (view_id 1) 의 뷰 성분과 후보 블록 (182) (view_id 0) 의 뷰 성분 사이의 디스패리티에 기초하여, 후보 블록 (182) 의 좌표들을 조정할 수도 있다. 따라서, 비디오 디코더 (30) 는 후보 블록 (182) 에 대한 좌표들을 (x', y') 로서 결정할 수도 있으며, 여기서, (x', y',) = (x, y) + 디스패리티. 일부 예들에서, 디스패리티는 SPS, PPS, 슬라이스 헤더, CU 구문, 및/또는 PU 구문에 포함되거나 및/또는 SPS, PPS, 슬라이스 헤더, CU 구문, 및/또는 PU 구문에서 계산될 수도 있다.
본 개시물의 양태들에 따르면, 비디오 디코더 (30) 는 그후 예측의 목적들을 위해 사용되는 모션 벡터 (180) 의 참조 인덱스를 재-맵핑할 수도 있다. 일반적으로, 위에서 언급한 바와 같이, 모션 벡터에 대한 데이터는 참조 화상 리스트, 참조 화상 리스트에 대한 인덱스 (ref_idx 로서 지칭됨), 수평 성분, 및 수직 성분을 포함한다. HEVC 에서는, 2개의 정상 참조 화상 리스트들, (예컨대, 리스트 0 및 리스트 1) 및 결합된 참조 화상 리스트 (예컨대, 리스트 c) 가 존재할 수도 있다. 보편성의 상실 없이, 현재의 참조 화상 리스트가 (리스트 0, 리스트 1, 또는 리스트 c 중 임의의 것에 대응할 수도 있는) 리스트 t 라고 가정한다. 도 10 에 나타낸 예에 따르면, 후보 블록 (182) 에 대한 모션 벡터 (180) 는 2 의 POC 값 및 i 와 동일한 ref_idx 를 갖는 뷰 성분 0 (view_id 0) 에 로케이트된 화상에서 예측 블록을 식별할 수도 있다. 본 개시물의 양태들에 따르면, 비디오 디코더 (30) 는 현재의 블록 (186) 과 동일한 시간 인스턴스에서 현재의 블록 (186) 에 대한 동일 장소에 로케이트된 예측 블록을 식별할 수도 있다. 즉, 후보 블록 (182) 에 대한 예측 블록 및 현재의 블록 (186) 에 대한 예측 블록은 동일한 시간 로케이션을 갖지만, 2개의 상이한 뷰들의 화상들에 로케이트된다.
일 예에서, 현재의 블록 (186) 에 대한 식별되는 예측 블록이 현재의 화상에 대한 참조 화상 리스트 t 에서 j-번째 참조 화상에 대응하면, 비디오 디코더 (30) 는 현재의 블록 (186) 에 대한 참조 인덱스 (ref_idx) 를 j 로서 예측할 수도 있으며, 비디오 디코더 (30) 는 모션 벡터 예측자 (184) 를 모션 벡터 (180) 와 동일한 값으로 설정할 수도 있다. 따라서, 비디오 디코더 (30) 는 효과적으로 현재의 블록 (186) 에 대한 참조 인덱스를 ref_idx i 로부터 ref_idx j 까지 재맵핑한다. 즉, 비디오 디코더 (30) 는 현재의 블록 (186) 에 대한 모션 벡터 예측자 (184) 가 후보 블록 (182) 과 동일한 참조 화상 리스트, 수평 성분, 및 수직 성분을 갖는다고 결정하며, 그러나, 모션 벡터 예측자 (184) 는 참조 화상 리스트에서의 i-번째 참조 화상 대신, 참조 화상 리스트에서의 j-번째 참조 화상을 지시한다.
본 개시물의 양태들에 따르면, 일부 예들에서, 비디오 디코더는 또한 모션 벡터 예측자 (184) 를 스케일링할 수도 있다. 예를 들어, 현재의 블록 (186) 에 대한 그 식별되는 예측 블록을 포함하는 화상이 참조 화상 리스트 t 에 포함되어 있지 않으면, 비디오 디코더 (30) 는 참조 화상 리스트 t 에 가장 가까운 제 2 화상을 식별할 수도 있다. 일부 예들에서, 2개의 화상들이 현재의 블록 (186) 에 대한 그 식별되는 예측 블록을 포함하는 화상까지 동일한 거리들을 가지면, 비디오 디코더 (30) 는 현재의 블록 (186) 을 포함하는 화상에 보다 가까운 화상을 제 2 화상으로서 선택할 수도 있다. 설명의 목적들을 위해, 그 식별되는 화상이 k 의 참조 인덱스를 갖는다고 가정한다. 이 예에서, 비디오 디코더 (30) 는 그후 모션 벡터 예측자 (184) 의 참조 인덱스를 k 로서 예측할 수도 있으며, 비디오 디코더 (30) 는 POC (picture order count) 에서의 차이에 기초하여 모션 벡터 예측자 (184) 를 스케일링할 수도 있다. 즉, 비디오 디코더 (30) 는 현재의 블록 (186) 과 참조 인덱스 j 에서의 화상 사이의 거리와, 현재의 블록 (186) 과 참조 인덱스 k 에서의 화상 사이의 거리 사이의 차이에 기초하여, 모션 벡터 예측자 (184) 를 스케일링할 수도 있다.
일부 예들에 따르면, 비디오 디코더 (30) 는 모션 벡터 예측을 수행할 때 동일한 프로세스를 수행할 수도 있다. 그러나, 모션 벡터 예측자 (184) 를 결정한 후, 비디오 디코더 (30) 는 MVD 를 이용하여 현재의 블록 (186) 에 대한 모션 벡터를 발생시킬 수도 있다. 모션 벡터 예측은 동일한 프로세스를 이용할 수도 있다. 또 다른 예에서, 모션 벡터 예측에 대해, 현재의 블록 (186) 에 대한 예측 블록이 로케이트될 수 (상기 참조 인덱스 j 에 로케이트되는 것으로 식별될 수) 없으면, 비디오 디코더 (30) 는 현재의 블록 (186) 에 대한 병합 모드 또는 모션 벡터 예측을 수행하지 않을 수도 있다. 즉, 모션 벡터 예측자 (184) 를 스케일링하는 대신, 비디오 디코더 (30) 는 모션 벡터 예측자 (184) 를 이용불가능한 것으로 간주할 수도 있다.
비디오 디코더 (30) 는 후보 블록 (182) 을 (예를 들어, 위에서 도 5 에 대해 설명한) 병합 모드 및/또는 모션 벡터 예측을 수행하기 위한 후보 리스트에 추가할 수도 있다. 본 개시물의 양태들에 따르면, 후보 블록 (182) 은 모션 벡터 예측자 후보 리스트를 (예컨대, 병합 모드 또는 MVP 에 의한 모션 벡터 예측을 위해) 다양한 방법들로 추가될 수도 있다. 예를 들어, 비디오 디코더 (30) 는 다음 방식에 따라서 후보들을 로케이트함으로써 후보 리스트를 구성할 수도 있다:
1. A1, 이용가능한 Flag A1가 1 과 같으면
2. V, 이용가능한 FlagV가 1 과 같으면
3. B1, 이용가능한 FlagB1가 1 과 같으면
4. B0, 이용가능한 FlagB0가 1 과 같으면
5. A0, 이용가능한 FlagA0가 1 과 같으면
6. B2, 이용가능한 FlagB2가 1 과 같으면
7. Col, 이용가능한 FlagCol가 1 과 같으면
여기서, V 는 후보 블록 (182) 을 나타낸다. 다른 예들에서, 후보 블록 (132) 은 후보 리스트에 후보 리스트의 임의의 다른 위치에 로케이트되고 추가될 수도 있다.
도 11 은 모션 벡터 예측자를 발생시키는 예시적인 방법을 예시하는 흐름도이다. 도 11 에 나타낸 예는 비디오 코더에 의해 수행되는 것으로 일반적으로 설명된다. 일부 예들에서, 도 11 의 방법은 위에서 설명한 비디오 인코더 (20) (도 1 및 도 2) 또는 비디오 디코더 (30) (도 1 및 도 3) 에 의해 실행될 수도 있는 것으로 이해되어야 한다. 다른 예들에서, 도 11 의 방법은 다양한 다른 프로세서들, 프로세싱 유닛들, 하드웨어-기반의 코딩 유닛들, 예컨대 인코더/디코더들 (코덱들) 등에 의해 수행될 수도 있다.
도 11 에 나타낸 예에 따르면, 비디오 코더는 제 1 뷰의 제 1 시간 로케이션에서 비디오 데이터의 제 1 블록을 식별할 수도 있으며, 여기서, 제 1 블록은 제 1 시간 모션 벡터와 연관된다 (202). 본 개시물의 양태들에 따르면, 비디오 데이터의 제 2 블록과 연관되는 제 2 모션 벡터가 시간 모션 벡터이고 제 2 블록이 제 1 블록과는 상이한 제 2 뷰로부터 기인할 때 (단계 (204) 의 예 분기), 비디오 코더는 제 1 모션 벡터에 기초하여 모션 벡터 예측자를 결정할 수도 있다 (206). 즉, 예를 들어, 비디오 코더는 제 1 모션 벡터로부터 제 2 모션 벡터를 예측하기 위한 모션 벡터 예측자를 결정할 수도 있다. 비디오 코더는 또한 모션 벡터 예측자를 이용하여 제 2 블록에 대한 예측 데이터를 코딩할 수도 있다 (208). 예를 들어, 비디오 코더는 병합 모드에서의 모션 벡터 예측자를 이용하여 MVD 값을 발생시킬 수도 있다.
제 2 모션 벡터가 시간 모션 벡터가 아니거나 및/또는 비디오 데이터의 제 2 블록이 비디오 데이터의 제 1 블록과는 상이한 뷰에 기인하지 않으면 (단계 (204) 의 아니오 분기), 비디오 코더는 제 2 모션 벡터가 디스패리티 모션 벡터인지를 결정할 수도 있다 (210). 본 개시물의 양태들에 따르면, 제 2 모션 벡터가 디스패리티 모션 벡터가 아니면 (단계 (210) 의 아니오 분기), 비디오 코더는 상이한 모션 벡터 예측자 후보를 식별할 수도 있다 (212). 즉, 비디오 코더는 일부 예들에서, 제 2 모션 벡터를 예측하기 위해 제 1 모션 벡터를 이용하지 않을 수도 있다.
제 2 모션 벡터가 디스패리티 모션 벡터이면 (단계 (210) 의 예 분기), 비디오 코더는 디스패리티 모션 벡터 예측이 디스에이블되는 지를 결정할 수도 있다 (214). 즉, 본 개시물의 일부 양태들에 따르면, 시간 모션 벡터 (예컨대, 제 1 모션 벡터) 를 이용하여 디스패리티 모션 벡터 (예컨대, 제 2 모션 벡터가 디스패리티 모션 벡터일 때, 제 2 모션 벡터) 를 예측하는 능력이 디스에이블될 수도 있다. 이런 경우들에서, 비디오 코더는 상이한 모션 벡터 예측자 후보를 식별할 수도 있다 (212) (단계 (214) 의 아니오 분기).
디스패리티 모션 벡터 예측이 인에이블된다고 (예컨대, 또는 이런 기능을 인에이블/디스에이블하는 능력이 존재하지 않는다고) 비디오 코더가 결정하면, 비디오 코더는 제 1 모션 벡터에 기초하여 제 2 모션 벡터에 대한 모션 벡터 예측자를 결정할 수도 있다 (206) (단계 (214) 의 예 분기). 게다가, 비디오 코더는 또한 모션 벡터 예측자에 기초하여 제 2 블록에 대한 예측 데이터를 코딩할 수도 있다 (208). 예를 들어, 비디오 코더는 병합 모드에서의 모션 벡터 예측자를 이용하여, MVD 값을 발생시킬 수도 있다.
또한, 도 11 에 관하여 도시 및 설명한 단계들은 단지 일 예로서 제공되는 것으로 이해되어야 한다. 즉, 도 11 의 방법의 단계들은 반드시 도 11 에 나타낸 순서로 수행될 필요는 없으며, 더 적거나, 추가적이거나, 또는 대안적인 단계들이 수행될 수도 있다.
예에 따라서, 본원에서 설명하는 방법들 중 임의의 방법의 어떤 행위들 또는 이벤트들은 상이한 시퀀스로 수행될 수 있으며, 모두 함께 추가하거나, 병합하거나, 또는 삭제할 수도 있는 (예컨대, 모든 설명된 행위들 또는 이벤트들이 방법의 실시에 필요하지는 않는) 것으로 이해되어야 한다. 더욱이, 어떤 예들에서, 행위들 또는 이벤트들은 순차적으로 보다는, 동시에, 예컨대, 멀티-쓰레드된 프로세싱, 인터럽트 프로세싱, 또는 다수의 프로세서들을 통해서 수행될 수도 있다. 게다가, 본 개시물의 어떤 양태들이 명료성의 목적들을 위해 단일 모듈 또는 유닛에 의해 수행되는 것으로 설명되지만, 본 개시물의 기법들은 비디오 코더와 연관되는 유닛들 또는 모듈들의 조합에 의해 수행될 수도 있는 것으로 이해되어야 한다.
하나 이상의 예들에서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현되는 경우, 그 기능들은 하나 이상의 명령들 또는 코드들로서 컴퓨터-판독가능 매체 상에 저장되거나 송신되어, 하드웨어-기반의 프로세싱 유닛에 의해 실행될 수도 있다. 컴퓨터-판독가능 매체들은 컴퓨터-판독가능 저장 매체들을 포함할 수도 있으며, 이 컴퓨터-판독가능 저장 매체들은 데이터 저장 매체들과 같은 유형의 매체, 또는 예컨대, 통신 프로토콜에 따라서 한 장소로부터 다른 장소로의 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함한 통신 매체들에 대응한다.
이 방법으로, 컴퓨터-판독가능 매체들은 일반적으로 (1) 비일시성 유형의 컴퓨터-판독가능 저장 매체 또는 (2) 신호 또는 캐리어 파와 같은 통신 매체에 대응할 수도 있다. 데이터 저장 매체들은 본 개시물에서 설명하는 기법들의 구현을 위한 명령들, 코드 및/또는 데이터 구조들을 취출하기 위해 하나 이상의 컴퓨터들 또는 하나 이상의 프로세서들에 의해 액세스될 수 있는 임의의 가용 매체들일 수도 있다. 컴퓨터 프로그램 제품은 컴퓨터-판독가능 매체를 포함할 수도 있다.
일 예로서, 이에 한정하지 않고, 이런 컴퓨터-판독가능 저장 매체들은 RAM, ROM, EEPROM, CD-ROM 또는 다른 광디스크 저장, 자기디스크 저장, 또는 다른 자기 저장 디바이스들, 플래시 메모리, 또는 원하는 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 저장하는데 사용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 접속이 컴퓨터-판독가능 매체로 적절히 지칭된다. 예를 들어, 동축 케이블, 광섬유 케이블, 이중 권선, 디지털 가입자 회선 (DSL), 또는 무선 기술들 예컨대 적외선, 무선, 및 마이크로파를 이용하여 명령들이 웹사이트, 서버, 또는 다른 원격 소스로부터 송신되는 경우, 동축 케이블, 광섬유 케이블, 이중 권선, DSL, 또는 무선 기술들 예컨대 적외선, 무선, 및 마이크로파가 그 매체의 정의에 포함된다.
그러나, 컴퓨터-판독가능 저장 매체들 및 데이터 저장 매체들은 접속부들, 캐리어 파들, 신호들, 또는 다른 일시적 매체들을 포함하지 않고, 그 대신, 비-일시적인 유형의 저장 매체에 송신되는 것으로 해석되어야 한다. 디스크 (disk) 및 디스크 (disc) 는, 본원에서 사용할 때, 컴팩트 디스크 (CD), 레이저 디스크, 광 디스크, 디지털 다기능 디스크 (DVD), 플로피 디스크 및 블루-레이 디스크를 포함하며, 본원에서, 디스크들 (disks) 은 데이터를 자기적으로 보통 재생하지만, 디스크들 (discs) 은 레이저로 데이터를 광학적으로 재생한다. 앞에서 언급한 것들의 조합들이 또한 컴퓨터-판독가능 매체들의 범위 내에 포함되어야 한다.
명령들은 하나 이상의 디지털 신호 프로세서들 (DSPs), 범용 마이크로프로세서들, 주문형 집적회로들 (ASICs), 필드 프로그래밍가능 로직 어레이들 (FPGAs), 또는 다른 등가의 통합 또는 이산 로직 회로와 같은, 하나 이상의 프로세서들에 의해 실행될 수도 있다. 따라서, 용어 “프로세서" 는, 본원에서 사용될 때 전술한 구조 중 임의의 구조 또는 본원에서 설명하는 기법들의 구현에 적합한 임의의 다른 구조를 지칭할 수도 있다. 게다가, 일부 양태들에서, 본원에서 설명하는 기능은 전용 하드웨어 및/또는 인코딩 및 디코딩을 위해 구성되는 소프트웨어 모듈들 내에 제공되거나, 또는 결합된 코덱에 포함될 수도 있다. 또한, 이 기법들은 하나 이상의 회로들 또는 로직 엘리먼트들로 완전히 구현될 수 있다.
본 개시물의 기법들은 무선 핸드셋, 집적 회로 (IC) 또는 IC 들의 세트 (예컨대, 칩 세트) 를 포함한, 매우 다양한 디바이스들 또는 장치들로 구현될 수도 있다. 개시한 기법들을 수행하도록 구성되는 디바이스들의 기능적 양태들을 강조하기 위해서 여러 구성요소들, 모듈들, 또는 유닛들이 본 개시물에서 설명되지만, 상이한 하드웨어 유닛들에 의한 실현을 반드시 필요로 하지는 않는다. 더 정확히 말하면, 위에서 설명한 바와 같이, 여러 유닛들이 코덱 하드웨어 유닛에 결합되거나 또는 적합한 소프트웨어 및/또는 펌웨어와 함께, 위에서 설명한 바와 같은 하나 이상의 프로세서들을 포함한, 상호작용하는 하드웨어 유닛들의 컬렉션으로 제공될 수도 있다.
여러 본 개시물의 양태들이 설명되었다. 이들 및 다른 양태들은 다음 청구항들의 범위 내이다.

Claims (116)

  1. 비디오 데이터를 코딩하는 방법으로서,
    제 1 뷰로부터 제 1 시간 로케이션에서 비디오 데이터의 제 1 블록을 식별하는 단계로서, 상기 제 1 블록은 제 1 디스패리티 모션 벡터와 연관되는, 상기 비디오 데이터의 제 1 블록을 식별하는 단계;
    제 2 뷰에서 비디오 데이터의 제 2 블록에 대한 제 2 모션 벡터를 식별하는 단계로서, 상기 제 2 뷰는 상기 제 1 뷰와는 상이한, 상기 제 2 모션 벡터를 식별하는 단계;
    상기 제 2 모션 벡터가 디스패리티 모션 벡터인 것에 기초하여, 상기 제 2 모션 벡터에 대한 모션 벡터 예측자를 결정하고 상기 제 2 모션 벡터를 예측하기 위한 모션 벡터 예측자 후보 리스트에 결정된 상기 모션 벡터 예측자를 추가하는 단계로서, 상기 모션 벡터 예측자는 상기 제 1 디스패리티 모션 벡터에 기초하는, 상기 모션 벡터 예측자를 추가하는 단계;
    상기 제 2 모션 벡터가 디스패리티 모션 벡터가 아닌 것에 기초하여, 상기 제 1 디스패리티 모션 벡터로부터 상기 모션 벡터 예측자를 결정하는 능력을 디스에이블하여 상기 디스패리티 모션 벡터가 상기 후보 리스트에 추가되지 않도록 하는 단계; 및
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자를 이용하여 상기 제 2 블록에 대한 예측 데이터를 코딩하는 단계를 포함하는, 비디오 데이터를 코딩하는 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트는 상기 모션 벡터 예측자, 및 하나 이상의 시간 모션 벡터 예측자들을 포함하는 하나 이상의 모션 벡터 예측자들을 포함하는, 비디오 데이터를 코딩하는 방법.
  4. 제 1 항에 있어서,
    상기 비디오 데이터의 제 2 블록은 상기 비디오 데이터의 제 1 블록에 시간적으로 이웃하는, 비디오 데이터를 코딩하는 방법.
  5. 제 1 항에 있어서,
    상기 비디오 데이터의 제 2 블록은 상기 제 1 시간 로케이션에 로케이트되는, 비디오 데이터를 코딩하는 방법.
  6. 제 5 항에 있어서,
    상기 제 2 뷰의 상기 제 2 블록과 상기 제 1 뷰의 상기 제 1 블록 사이의 디스패리티 값을 이용하여 상기 제 1 블록을 식별하는 단계를 더 포함하는, 비디오 데이터를 코딩하는 방법.
  7. 제 1 항에 있어서,
    상기 비디오 데이터의 제 2 블록은 상기 제 1 시간 로케이션과는 상이한 제 2 시간 로케이션에 로케이트되는, 비디오 데이터를 코딩하는 방법.
  8. 제 1 항에 있어서,
    상기 제 2 모션 벡터가 디스패리티 모션 벡터를 포함할 때, 상기 모션 벡터 예측자를 결정하는 단계는 스케일링된 모션 벡터 예측자를 발생시키기 위해 상기 제 1 디스패리티 모션 벡터를 스케일링하는 단계를 포함하며,
    상기 제 1 디스패리티 모션 벡터를 스케일링하는 단계는 상기 제 1 모션 벡터의 뷰 거리로 나누어진 상기 제 2 디스패리티 모션 벡터의 뷰 거리를 포함하는 스케일링 인자를 상기 제 1 디스패리티 모션 벡터에 적용하는 단계를 포함하고,
    상기 후보 리스트에 상기 모션 벡터 예측자를 추가하는 단계는 상기 후보 리스트에 상기 스케일링된 모션 벡터 예측자를 추가하는 단계를 포함하는, 비디오 데이터를 코딩하는 방법.
  9. 제 8 항에 있어서,
    상기 디스패리티 모션 벡터의 뷰 거리는 참조 화상의 뷰 식별자와 상기 디스패리티 모션 벡터와 연관되는 목표 화상의 뷰 식별자 사이의 차이를 포함하는, 비디오 데이터를 코딩하는 방법.
  10. 제 8 항에 있어서,
    상기 디스패리티 모션 벡터의 뷰 거리는 참조 화상을 포함하는 뷰의 카메라 로케이션 및 상기 디스패리티 모션 벡터와 연관되는 목표 화상을 포함하는 뷰의 카메라 로케이션 사이의 기하학적 거리를 포함하는, 비디오 데이터를 코딩하는 방법.
  11. 제 1 항에 있어서,
    상기 비디오 데이터의 제 2 블록에 대한 상기 예측 데이터를 코딩하는 단계는 상기 예측 데이터를 인코딩하는 단계를 포함하는, 비디오 데이터를 코딩하는 방법.
  12. 제 1 항에 있어서,
    상기 비디오 데이터의 제 2 블록에 대한 상기 예측 데이터를 코딩하는 단계는 상기 예측 데이터를 디코딩하는 단계를 포함하는, 비디오 데이터를 코딩하는 방법.
  13. 제 12 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트는 하나 이상의 다른 모션 벡터 예측자들을 포함하고,
    모션 벡터 예측자 인덱스 값에 기초하여 상기 후보 리스트로부터 상기 모션 벡터 예측자를 선택하는 단계를 더 포함하는, 비디오 데이터를 코딩하는 방법.
  14. 제 1 항에 있어서,
    상기 비디오 데이터의 제 2 블록에 대한 상기 예측 데이터를 이용하여 상기 비디오 데이터의 제 2 블록을 코딩하는 단계를 더 포함하는, 비디오 데이터를 코딩하는 방법.
  15. 하나 이상의 프로세서들을 포함하는 비디오 데이터를 코딩하는 장치로서,
    상기 하나 이상의 프로세서들은,
    제 1 뷰로부터 제 1 시간 로케이션에서 비디오 데이터의 제 1 블록을 식별하고;
    상기 제 1 뷰와는 상이한 제 2 뷰에서 비디오 데이터의 제 2 블록에 대한 제 2 모션 벡터를 식별하고,
    상기 제 2 모션 벡터가 디스패리티 모션 벡터인 것에 기초하여, 상기 제 2 모션 벡터에 대한 모션 벡터 예측자를 결정하고 상기 제 2 모션 벡터를 예측하기 위한 모션 벡터 예측자 후보 리스트에 결정된 상기 모션 벡터 예측자를 추가하되, 상기 모션 벡터 예측자는 상기 제 1 디스패리티 모션 벡터에 기초하고,
    상기 제 2 모션 벡터가 디스패리티 모션 벡터가 아닌 것에 기초하여, 상기 제 1 디스패리티 모션 벡터로부터 상기 모션 벡터 예측자를 결정하는 능력을 디스에이블하여 상기 디스패리티 모션 벡터가 상기 후보 리스트에 추가되지 않도록 하고,
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자를 이용하여 상기 제 2 블록에 대한 예측 데이터를 코딩하도록 구성되고,
    상기 제 1 블록은 제 1 디스패리티 모션 벡터와 연관되며,
    상기 모션 벡터 예측자는 상기 제 1 디스패리티 모션 벡터에 기초하는, 비디오 데이터를 코딩하는 장치.
  16. 삭제
  17. 제 15 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트는 상기 모션 벡터 예측자, 및 하나 이상의 시간 모션 벡터 예측자들을 포함하는 하나 이상의 모션 벡터 예측자들을 포함하는, 비디오 데이터를 코딩하는 장치.
  18. 제 15 항에 있어서,
    상기 비디오 데이터의 제 2 블록은 상기 비디오 데이터의 제 1 블록에 시간적으로 이웃하는, 비디오 데이터를 코딩하는 장치.
  19. 제 15 항에 있어서,
    상기 비디오 데이터의 제 2 블록은 상기 제 1 시간 로케이션에 로케이트되는, 비디오 데이터를 코딩하는 장치.
  20. 제 19 항에 있어서,
    상기 하나 이상의 프로세서들은 상기 제 2 뷰의 상기 제 2 블록과 상기 제 1 뷰의 상기 제 1 블록 사이의 디스패리티 값을 이용하여 상기 제 1 블록을 식별하도록 더 구성되는, 비디오 데이터를 코딩하는 장치.
  21. 제 15 항에 있어서,
    상기 비디오 데이터의 제 2 블록은 상기 제 1 시간 로케이션과는 상이한 제 2 시간 로케이션에 로케이트되는, 비디오 데이터를 코딩하는 장치.
  22. 제 15 항에 있어서,
    상기 제 2 모션 벡터가 디스패리티 모션 벡터를 포함할 때, 상기 모션 벡터 예측자를 결정하기 위해, 상기 하나 이상의 프로세서들은 스케일링된 모션 벡터 예측자를 발생시키기 위해 상기 제 1 디스패리티 모션 벡터를 스케일링하도록 구성되고,
    상기 제 1 디스패리티 모션 벡터를 스케일링하기 위해, 상기 하나 이상의 프로세서들은 상기 제 1 모션 벡터의 뷰 거리로 나누어진 상기 제 2 디스패리티 모션 벡터의 뷰 거리를 포함하는 스케일링 인자를 상기 제 1 디스패리티 모션 벡터에 적용하도록 구성되며,
    상기 후보 리스트에 상기 모션 벡터 예측자를 추가하기 위해, 상기 하나 이상의 프로세서들은 상기 후보 리스트에 상기 스케일링된 모션 벡터 예측자를 추가하도록 구성되는, 비디오 데이터를 코딩하는 장치.
  23. 제 22 항에 있어서,
    상기 디스패리티 모션 벡터의 뷰 거리는 참조 화상의 뷰 식별자와 상기 디스패리티 모션 벡터와 연관되는 목표 화상의 뷰 식별자 사이의 차이를 포함하는, 비디오 데이터를 코딩하는 장치.
  24. 제 22 항에 있어서,
    상기 디스패리티 모션 벡터의 뷰 거리는 참조 화상을 포함하는 뷰의 카메라 로케이션 및 상기 디스패리티 모션 벡터와 연관되는 목표 화상을 포함하는 뷰의 카메라 로케이션 사이의 기하학적 거리를 포함하는, 비디오 데이터를 코딩하는 장치.
  25. 제 15 항에 있어서,
    상기 비디오 데이터의 제 2 블록에 대한 상기 예측 데이터를 코딩하기 위해, 상기 하나 이상의 프로세서들은 상기 예측 데이터를 인코딩하도록 구성되는, 비디오 데이터를 코딩하는 장치.
  26. 제 15 항에 있어서,
    상기 비디오 데이터의 제 2 블록에 대한 상기 예측 데이터를 코딩하기 위해, 상기 하나 이상의 프로세서들은 상기 예측 데이터를 디코딩하도록 구성되는, 비디오 데이터를 코딩하는 장치.
  27. 제 26 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트는 하나 이상의 다른 모션 벡터 예측자들을 포함하고, 상기 하나 이상의 프로세서들은 모션 벡터 예측자 인덱스 값에 기초하여 상기 후보 리스트로부터 상기 모션 벡터 예측자를 선택하도록 더 구성되는, 비디오 데이터를 코딩하는 장치.
  28. 제 15 항에 있어서,
    상기 하나 이상의 프로세서들은 상기 비디오 데이터의 제 2 블록에 대한 상기 예측 데이터를 이용하여 상기 비디오 데이터의 제 2 블록을 코딩하도록 더 구성되는, 비디오 데이터를 코딩하는 장치.
  29. 비디오 데이터를 코딩하는 장치로서,
    제 1 뷰로부터 제 1 시간 로케이션에서 비디오 데이터의 제 1 블록을 식별하는 수단으로서, 상기 제 1 블록은 제 1 디스패리티 모션 벡터와 연관되는, 상기 비디오 데이터의 제 1 블록을 식별하는 수단;
    제 2 뷰에서 비디오 데이터의 제 2 블록에 대한 제 2 모션 벡터를 식별하는 수단으로서, 상기 제 2 뷰는 상기 제 1 뷰와는 상이한, 상기 제 2 모션 벡터를 식별하는 수단;
    상기 제 2 모션 벡터가 디스패리티 모션 벡터인 것에 기초하여, 상기 제 2 모션 벡터에 대한 모션 벡터 예측자를 결정하고 상기 제 2 모션 벡터를 예측하기 위한 모션 벡터 예측자 후보 리스트에 결정된 상기 모션 벡터 예측자를 추가하는 수단으로서, 상기 모션 벡터 예측자는 상기 제 1 디스패리티 모션 벡터에 기초하는, 상기 모션 벡터 예측자를 추가하는 수단;
    상기 제 2 모션 벡터가 디스패리티 모션 벡터가 아닌 것에 기초하여, 상기 제 1 디스패리티 모션 벡터로부터 상기 모션 벡터 예측자를 결정하는 능력을 디스에이블하여 상기 디스패리티 모션 벡터가 상기 후보 리스트에 추가되지 않도록 하는 수단; 및
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자를 이용하여 상기 제 2 블록에 대한 예측 데이터를 코딩하는 수단을 포함하는, 비디오 데이터를 코딩하는 장치.
  30. 삭제
  31. 제 29 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트는 상기 모션 벡터 예측자, 및 하나 이상의 시간 모션 벡터 예측자들을 포함하는 하나 이상의 모션 벡터 예측자들을 포함하는, 비디오 데이터를 코딩하는 장치.
  32. 제 29 항에 있어서,
    상기 비디오 데이터의 제 2 블록은 상기 비디오 데이터의 제 1 블록에 시간적으로 이웃하는, 비디오 데이터를 코딩하는 장치.
  33. 제 29 항에 있어서,
    상기 비디오 데이터의 제 2 블록은 상기 제 1 시간 로케이션에 로케이트되는, 비디오 데이터를 코딩하는 장치.
  34. 제 33 항에 있어서,
    상기 제 2 뷰의 상기 제 2 블록과 상기 제 1 뷰의 상기 제 1 블록 사이의 디스패리티 값을 이용하여 상기 제 1 블록을 식별하는 수단을 더 포함하는, 비디오 데이터를 코딩하는 장치.
  35. 제 29 항에 있어서,
    상기 비디오 데이터의 제 2 블록은 상기 제 1 시간 로케이션과는 상이한 제 2 시간 로케이션에 로케이트되는, 비디오 데이터를 코딩하는 장치.
  36. 제 29 항에 있어서,
    상기 제 2 모션 벡터가 디스패리티 모션 벡터를 포함할 때, 상기 모션 벡터 예측자를 결정하는 수단은 스케일링된 모션 벡터 예측자를 발생시키기 위해 상기 제 1 디스패리티 모션 벡터를 스케일링하는 수단을 포함하며,
    상기 제 1 디스패리티 모션 벡터를 스케일링하는 수단은 상기 제 1 모션 벡터의 뷰 거리로 나누어진 상기 제 2 디스패리티 모션 벡터의 뷰 거리를 포함하는 스케일링 인자를 상기 제 1 디스패리티 모션 벡터에 적용하는 수단을 포함하고,
    상기 후보 리스트에 상기 모션 벡터 예측자를 추가하는 수단은 상기 후보 리스트에 상기 스케일링된 모션 벡터 예측자를 추가하는 수단을 포함하는, 비디오 데이터를 코딩하는 장치.
  37. 제 36 항에 있어서,
    상기 디스패리티 모션 벡터의 뷰 거리는 참조 화상의 뷰 식별자와 상기 디스패리티 모션 벡터와 연관되는 목표 화상의 뷰 식별자 사이의 차이를 포함하는, 비디오 데이터를 코딩하는 장치.
  38. 제 36 항에 있어서,
    상기 디스패리티 모션 벡터의 뷰 거리는 참조 화상을 포함하는 뷰의 카메라 로케이션 및 상기 디스패리티 모션 벡터와 연관되는 목표 화상을 포함하는 뷰의 카메라 로케이션 사이의 기하학적 거리를 포함하는, 비디오 데이터를 코딩하는 장치.
  39. 제 29 항에 있어서,
    상기 비디오 데이터의 제 2 블록에 대한 예측 데이터를 코딩하는 수단은 상기 예측 데이터를 인코딩하는 수단을 포함하는, 비디오 데이터를 코딩하는 장치.
  40. 제 29 항에 있어서,
    상기 비디오 데이터의 제 2 블록에 대한 예측 데이터를 코딩하는 수단은 상기 예측 데이터를 디코딩하는 수단을 포함하는, 비디오 데이터를 코딩하는 장치.
  41. 제 40 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트는 하나 이상의 다른 모션 벡터 예측자들을 포함하고,
    모션 벡터 예측자 인덱스 값에 기초하여 상기 후보 리스트로부터 상기 모션 벡터 예측자를 선택하는 수단을 더 포함하는, 비디오 데이터를 코딩하는 장치.
  42. 제 29 항에 있어서,
    상기 비디오 데이터의 제 2 블록에 대한 상기 예측 데이터를 이용하여 상기 비디오 데이터의 제 2 블록을 코딩하는 수단을 더 포함하는, 비디오 데이터를 코딩하는 장치.
  43. 명령들이 저장된 컴퓨터-판독가능 저장 매체로서,
    상기 명령들은, 실행 시, 하나 이상의 프로세서들로 하여금,
    제 1 뷰로부터 제 1 시간 로케이션에서 비디오 데이터의 제 1 블록을 식별하고;
    상기 제 1 뷰와는 상이한 제 2 뷰에서 비디오 데이터의 제 2 블록에 대한 제 2 모션 벡터를 식별하고;
    상기 제 2 모션 벡터가 디스패리티 모션 벡터인 것에 기초하여, 상기 제 2 모션 벡터에 대한 모션 벡터 예측자를 결정하고 상기 제 2 모션 벡터를 예측하기 위한 모션 벡터 예측자 후보 리스트에 결정된 상기 모션 벡터 예측자를 추가하되, 상기 모션 벡터 예측자는 상기 제 1 디스패리티 모션 벡터에 기초하고;
    상기 제 2 모션 벡터가 디스패리티 모션 벡터가 아닌 것에 기초하여, 상기 제 1 디스패리티 모션 벡터로부터 상기 모션 벡터 예측자를 결정하는 능력을 디스에이블하여 상기 디스패리티 모션 벡터가 상기 후보 리스트에 추가되지 않도록 하고;
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자를 이용하여 상기 제 2 블록에 대한 예측 데이터를 코딩하도록 하고,
    상기 제 1 블록은 제 1 디스패리티 모션 벡터와 연관되며,
    상기 모션 벡터 예측자는 상기 제 1 디스패리티 모션 벡터에 기초하는, 컴퓨터-판독가능 저장 매체.
  44. 삭제
  45. 제 43 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트는 상기 모션 벡터 예측자, 및 하나 이상의 시간 모션 벡터 예측자들을 포함하는 하나 이상의 모션 벡터 예측자들을 포함하는, 컴퓨터-판독가능 저장 매체.
  46. 제 43 항에 있어서,
    상기 비디오 데이터의 제 2 블록은 상기 비디오 데이터의 제 1 블록에 시간적으로 이웃하는, 컴퓨터-판독가능 저장 매체.
  47. 제 43 항에 있어서,
    상기 비디오 데이터의 제 2 블록은 상기 제 1 시간 로케이션에 로케이트되는, 컴퓨터-판독가능 저장 매체.
  48. 제 47 항에 있어서,
    상기 하나 이상의 프로세서들로 하여금 상기 제 2 뷰의 상기 제 2 블록과 상기 제 1 뷰의 상기 제 1 블록 사이의 디스패리티 값을 이용하여 상기 제 1 블록을 식별하도록 하는 명령들을 더 포함하는, 컴퓨터-판독가능 저장 매체.
  49. 제 43 항에 있어서,
    상기 비디오 데이터의 제 2 블록은 상기 제 1 시간 로케이션과는 상이한 제 2 시간 로케이션에 로케이트되는, 컴퓨터-판독가능 저장 매체.
  50. 제 43 항에 있어서,
    상기 제 2 모션 벡터가 디스패리티 모션 벡터를 포함할 때, 상기 모션 벡터 예측자를 결정하기 위해, 상기 명령들은 상기 하나 이상의 프로세서들로 하여금 스케일링된 모션 벡터 예측자를 발생시키기 위해 상기 제 1 디스패리티 모션 벡터를 스케일링하도록 하고,
    상기 제 1 디스패리티 모션 벡터를 스케일링하기 위해, 상기 명령들은 상기 하나 이상의 프로세서들로 하여금 상기 제 1 모션 벡터의 뷰 거리로 나누어진 상기 제 2 디스패리티 모션 벡터의 뷰 거리를 포함하는 스케일링 인자를 상기 제 1 디스패리티 모션 벡터에 적용하도록 하며,
    상기 후보 리스트에 상기 모션 벡터 예측자를 추가하기 위해, 상기 명령들은 상기 하나 이상의 프로세서들로 하여금 상기 후보 리스트에 상기 스케일링된 모션 벡터 예측자를 추가하도록 하는, 컴퓨터-판독가능 저장 매체.
  51. 제 50 항에 있어서,
    상기 디스패리티 모션 벡터의 뷰 거리는 참조 화상의 뷰 식별자와 상기 디스패리티 모션 벡터와 연관되는 목표 화상의 뷰 식별자 사이의 차이를 포함하는, 컴퓨터-판독가능 저장 매체.
  52. 제 50 항에 있어서,
    상기 디스패리티 모션 벡터의 뷰 거리는 참조 화상을 포함하는 뷰의 카메라 로케이션 및 상기 디스패리티 모션 벡터와 연관되는 목표 화상을 포함하는 뷰의 카메라 로케이션 사이의 기하학적 거리를 포함하는, 컴퓨터-판독가능 저장 매체.
  53. 제 43 항에 있어서,
    상기 하나 이상의 프로세서들로 하여금 상기 비디오 데이터의 제 2 블록에 대한 예측 데이터를 코딩하도록 하는 상기 명령들은 상기 하나 이상의 프로세서들로 하여금 상기 예측 데이터를 인코딩하도록 하는 명령들을 포함하는, 컴퓨터-판독가능 저장 매체.
  54. 제 43 항에 있어서,
    상기 하나 이상의 프로세서들로 하여금 상기 비디오 데이터의 제 2 블록에 대한 예측 데이터를 코딩하도록 하는 상기 명령들은 상기 하나 이상의 프로세서들로 하여금 상기 예측 데이터를 디코딩하도록 하는 명령들을 포함하는, 컴퓨터-판독가능 저장 매체.
  55. 제 54 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트는 하나 이상의 다른 모션 벡터 예측자들을 포함하고,
    상기 하나 이상의 프로세서들로 하여금 모션 벡터 예측자 인덱스 값에 기초하여 상기 후보 리스트로부터 상기 모션 벡터 예측자를 선택하도록 하는 명령들을 더 포함하는, 컴퓨터-판독가능 저장 매체.
  56. 제 43 항에 있어서,
    상기 하나 이상의 프로세서들로 하여금 상기 비디오 데이터의 제 2 블록에 대한 상기 예측 데이터를 이용하여 상기 비디오 데이터의 제 2 블록을 코딩하도록 하는 명령들을 더 포함하는, 컴퓨터-판독가능 저장 매체.
  57. 비디오 데이터를 디코딩하는 방법으로서,
    현재 코딩되는 비디오 데이터의 블록의 제 1 모션 벡터를 예측하기 위해 하나 이상의 후보 모션 벡터 예측자들을 포함하는 모션 벡터 예측자 후보 리스트를 구성하는 단계; 및
    상기 모션 벡터 예측자 후보 리스트로부터의 모션 벡터 예측자에 대한, 상기 현재 코딩되는 비디오 데이터의 블록의 상기 제 1 모션 벡터를 디코딩하는 단계를 포함하며,
    상기 모션 벡터 예측자 후보 리스트를 구성하는 단계는,
    상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 하나 이상의 모션 벡터들의 모션 벡터 유형을 결정하는 단계; 및
    상기 제 1 모션 벡터의 모션 벡터 유형과는 상이한 모션 벡터 유형을 갖는 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하지 않고, 상기 제 1 모션 벡터의 상기 모션 벡터 유형과 동일한 모션 벡터 유형을 갖는 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하는 단계를 포함하며,
    상기 모션 벡터 유형을 결정하는 단계는 상기 하나 이상의 모션 벡터들의 대응하는 모션 벡터와 연관되는 참조 인덱스에 의해 식별되는 참조 화상의 유형을 결정하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  58. 제 57 항에 있어서,
    상기 하나 이상의 모션 벡터들이 상기 제 1 블록과 동일한 모션 벡터 유형을 가질 때, 상기 하나 이상의 모션 벡터들을 스케일링함이 없이, 상기 하나 이상의 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
  59. 제 57 항에 있어서,
    제 1 모션 벡터 유형은, 상기 참조 화상의 유형을 결정하는 단계가 상기 비디오 데이터의 블록과는 상이한 뷰에서 참조 화상을 식별하는 단계를 포함하도록 디스패리티 모션 벡터 유형을 포함하며,
    제 2 모션 벡터 유형은, 상기 참조 화상의 유형을 결정하는 단계가 상기 비디오 데이터의 블록과 동일한 뷰에서 참조 화상을 식별하는 단계를 포함하도록 시간 모션 벡터 유형을 포함하는, 비디오 데이터를 디코딩하는 방법.
  60. 제 59 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 상기 하나 이상의 모션 벡터들의 상기 모션 벡터 유형을 결정하는 단계는, 상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 상기 제 1 모션 벡터의 이웃하는 블록의 상기 모션 벡터 유형을 결정하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  61. 제 59 항에 있어서,
    상기 하나 이상의 모션 벡터들이 상기 제 1 블록과 동일한 모션 벡터 유형을 갖고 상기 유형이 상기 디스패리티 모션 벡터 유형일 때, 상기 하나 이상의 모션 벡터들을 스케일링함이 없이, 상기 하나 이상의 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
  62. 제 59 항에 있어서,
    상기 제 1 모션 벡터에 대한 상기 모션 벡터 유형이 시간 모션 벡터를 포함하고 상기 하나 이상의 모션 벡터들 중 적어도 하나의 모션 벡터에 대한 모션 벡터 유형이 디스패리티 모션 벡터를 포함할 때, 상기 적어도 하나의 모션 벡터가 상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 이용불가능하다고 결정하는 단계를 더 포함하는, 비디오 데이터를 디코딩하는 방법.
  63. 제 57 항에 있어서,
    상기 모션 벡터 후보 리스트는 병합 모드 모션 벡터 후보 리스트를 포함하는, 비디오 데이터를 디코딩하는 방법.
  64. 제 57 항에 있어서,
    상기 모션 벡터 후보 리스트는 모션 벡터 예측자 후보 리스트를 포함하는, 비디오 데이터를 디코딩하는 방법.
  65. 제 57 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자에 대한, 상기 제 1 모션 벡터를 디코딩하는 단계는,
    인코딩된 비트스트림으로부터, 상기 제 1 모션 벡터와 상기 모션 벡터 예측자 사이의 차이를 포함하는 모션 벡터 차이 값, 및 상기 모션 벡터 예측자 후보 리스트에 대한 인덱스를 취출하는 단계;
    취출된 상기 인덱스에 기초하여 상기 모션 벡터 예측자 후보 리스트로부터 상기 모션 벡터 예측자를 식별하는 단계; 및
    상기 제 1 모션 벡터를 발생시키기 위해 식별된 상기 모션 벡터 예측자와 상기 모션 벡터 차이 값을 결합하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  66. 제 57 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자에 대한, 상기 제 1 모션 벡터를 디코딩하는 단계는,
    인코딩된 비트스트림으로부터, 상기 모션 벡터 예측자 후보 리스트에 대한 인덱스를 취출하는 단계;
    취출된 상기 인덱스에 기초하여 상기 모션 벡터 예측자 후보 리스트로부터 상기 모션 벡터 예측자를 식별하는 단계; 및
    상기 제 1 모션 벡터가 상기 모션 벡터 예측자로부터 모션 정보를 상속받도록, 상기 모션 벡터 예측자와 상기 제 1 모션 벡터를 병합하는 단계를 포함하는, 비디오 데이터를 디코딩하는 방법.
  67. 비디오 데이터를 디코딩하는 장치로서,
    현재 코딩되는 비디오 데이터의 블록의 제 1 모션 벡터를 예측하기 위해 하나 이상의 후보 모션 벡터 예측자들을 포함하는 모션 벡터 예측자 후보 리스트를 구성하고;
    상기 모션 벡터 예측자 후보 리스트로부터의 모션 벡터 예측자에 대한, 상기 현재 코딩되는 비디오 데이터의 블록의 상기 제 1 모션 벡터를 디코딩하도록 구성되는 하나 이상의 프로세서들을 포함하며,
    상기 모션 벡터 예측자 후보 리스트를 구성하기 위해, 상기 하나 이상의 프로세서들은,
    상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 하나 이상의 모션 벡터들의 모션 벡터 유형을 결정하고;
    상기 제 1 모션 벡터의 상기 모션 벡터 유형과는 상이한 모션 벡터 유형을 갖는 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하지 않고, 상기 제 1 모션 벡터의 상기 모션 벡터 유형과 동일한 모션 벡터 유형을 갖는 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하도록 구성되며,
    상기 모션 벡터 유형을 결정하는 것은 상기 하나 이상의 모션 벡터들의 대응하는 모션 벡터와 연관되는 참조 인덱스에 의해 식별되는 참조 화상의 유형을 결정하는 것을 포함하는, 비디오 데이터를 디코딩하는 장치.
  68. 제 67 항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 하나 이상의 모션 벡터들이 상기 제 1 블록과 동일한 모션 벡터 유형을 가질 때, 상기 하나 이상의 모션 벡터들을 스케일링함이 없이, 상기 하나 이상의 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하도록 더 구성되는, 비디오 데이터를 디코딩하는 장치.
  69. 제 67 항에 있어서,
    제 1 모션 벡터 유형은, 상기 참조 화상의 유형을 결정하기 위해, 상기 하나 이상의 프로세서들이 상기 비디오 데이터의 블록과는 상이한 뷰에서 참조 화상을 식별하도록 구성되게 디스패리티 모션 벡터 유형을 포함하며,
    제 2 모션 벡터 유형은, 상기 참조 화상의 유형을 결정하기 위해, 상기 하나 이상의 프로세서들이 상기 비디오 데이터의 블록과 동일한 뷰에서 참조 화상을 식별하도록 구성되게 시간 모션 벡터 유형을 포함하는, 비디오 데이터를 디코딩하는 장치.
  70. 제 69 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 상기 하나 이상의 모션 벡터들의 상기 모션 벡터 유형을 결정하기 위해, 상기 하나 이상의 프로세서들은, 상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 상기 제 1 모션 벡터의 이웃하는 블록의 상기 모션 벡터 유형을 결정하도록 구성되는, 비디오 데이터를 디코딩하는 장치.
  71. 제 69 항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 하나 이상의 모션 벡터들이 상기 제 1 블록과 동일한 모션 벡터 유형을 갖고 상기 유형이 상기 디스패리티 모션 벡터 유형일 때, 상기 하나 이상의 모션 벡터들을 스케일링함이 없이, 상기 하나 이상의 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하도록 더 구성되는, 비디오 데이터를 디코딩하는 장치.
  72. 제 69 항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 제 1 모션 벡터에 대한 상기 모션 벡터 유형이 시간 모션 벡터를 포함하고 상기 하나 이상의 모션 벡터들 중 적어도 하나의 모션 벡터에 대한 모션 벡터 유형이 디스패리티 모션 벡터를 포함할 때, 상기 적어도 하나의 모션 벡터가 상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 이용불가능하다고 결정하도록 더 구성되는, 비디오 데이터를 디코딩하는 장치.
  73. 제 67 항에 있어서,
    상기 모션 벡터 후보 리스트는 병합 모드 모션 벡터 후보 리스트를 포함하는, 비디오 데이터를 디코딩하는 장치.
  74. 제 67 항에 있어서,
    상기 모션 벡터 후보 리스트는 모션 벡터 예측자 후보 리스트를 포함하는, 비디오 데이터를 디코딩하는 장치.
  75. 제 67 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자에 대한, 상기 제 1 모션 벡터를 디코딩하기 위해, 상기 하나 이상의 프로세서들은,
    인코딩된 비트스트림으로부터, 상기 제 1 모션 벡터와 상기 모션 벡터 예측자 사이의 차이를 포함하는 모션 벡터 차이 값, 및 상기 모션 벡터 예측자 후보 리스트에 대한 인덱스를 취출하고;
    취출된 상기 인덱스에 기초하여 상기 모션 벡터 예측자 후보 리스트로부터 상기 모션 벡터 예측자를 식별하고;
    상기 제 1 모션 벡터를 발생시키기 위해 식별된 상기 모션 벡터 예측자와 상기 모션 벡터 차이 값을 결합하도록 구성되는, 비디오 데이터를 디코딩하는 장치.
  76. 제 67 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자에 대한, 상기 제 1 모션 벡터를 디코딩하기 위해, 상기 하나 이상의 프로세서들은,
    인코딩된 비트스트림으로부터, 상기 모션 벡터 예측자 후보 리스트에 대한 인덱스를 취출하고;
    취출된 상기 인덱스에 기초하여 상기 모션 벡터 예측자 후보 리스트로부터 상기 모션 벡터 예측자를 식별하고;
    상기 제 1 모션 벡터가 상기 모션 벡터 예측자로부터 모션 정보를 상속받도록, 상기 모션 벡터 예측자와 상기 제 1 모션 벡터를 병합하도록 구성되는, 비디오 데이터를 디코딩하는 장치.
  77. 명령들을 저장한 비일시성 컴퓨터-판독가능 매체로서,
    상기 명령들은 실행될 때, 하나 이상의 프로세서들로 하여금,
    현재 코딩되는 비디오 데이터의 블록의 제 1 모션 벡터를 예측하기 위해 하나 이상의 후보 모션 벡터 예측자들을 포함하는 모션 벡터 예측자 후보 리스트를 구성하고,
    상기 모션 벡터 예측자 후보 리스트로부터의 모션 벡터 예측자에 대한, 상기 현재 코딩되는 비디오 데이터의 블록의 상기 제 1 모션 벡터를 디코딩하도록 하고,
    상기 모션 벡터 예측자 후보 리스트를 구성하기 위해, 상기 하나 이상의 프로세서들은,
    상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 하나 이상의 모션 벡터들의 모션 벡터 유형을 결정하고;
    상기 제 1 모션 벡터의 상기 모션 벡터 유형과는 상이한 모션 벡터 유형을 갖는 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하지 않고, 상기 제 1 모션 벡터의 상기 모션 벡터 유형과 동일한 모션 벡터 유형을 갖는 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하도록 구성되며,
    상기 모션 벡터 유형을 결정하는 것은 상기 하나 이상의 모션 벡터들의 대응하는 모션 벡터와 연관되는 참조 인덱스에 의해 식별되는 참조 화상의 유형을 결정하는 것을 포함하는, 비일시성 컴퓨터-판독가능 매체.
  78. 제 77 항에 있어서,
    상기 하나 이상의 프로세서들로 하여금 상기 하나 이상의 모션 벡터들이 상기 제 1 블록과 동일한 모션 벡터 유형을 가질 때, 상기 하나 이상의 모션 벡터들을 스케일링함이 없이, 상기 하나 이상의 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하도록 하는 명령들을 더 포함하는, 비일시성 컴퓨터-판독가능 매체.
  79. 제 77 항에 있어서,
    제 1 모션 벡터 유형은, 상기 참조 화상의 유형을 결정하기 위해, 상기 명령들이 상기 하나 이상의 프로세서들로 하여금 상기 비디오 데이터의 블록과는 상이한 뷰에서 참조 화상을 식별하게 하도록 디스패리티 모션 벡터 유형을 포함하며,
    제 2 모션 벡터 유형은, 상기 참조 화상의 유형을 결정하기 위해, 상기 명령들이 상기 하나 이상의 프로세서들로 하여금 상기 비디오 데이터의 블록과 동일한 뷰에서 참조 화상을 식별하게 하도록 시간 모션 벡터 유형을 포함하는, 비일시성 컴퓨터-판독가능 매체.
  80. 제 79 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 상기 하나 이상의 모션 벡터들의 상기 모션 벡터 유형을 결정하기 위해, 상기 명령들은 상기 하나 이상의 프로세서들로 하여금, 상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 상기 제 1 모션 벡터의 이웃하는 블록의 상기 모션 벡터 유형을 결정하도록 하는, 비일시성 컴퓨터-판독가능 매체.
  81. 제 79 항에 있어서,
    상기 하나 이상의 프로세서들로 하여금 상기 하나 이상의 모션 벡터들이 상기 제 1 블록과 동일한 모션 벡터 유형을 갖고 상기 유형이 상기 디스패리티 모션 벡터 유형일 때, 상기 하나 이상의 모션 벡터들을 스케일링함이 없이, 상기 하나 이상의 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하도록 하는 명령들을 더 포함하는, 비일시성 컴퓨터-판독가능 매체.
  82. 제 79 항에 있어서,
    상기 하나 이상의 프로세서들로 하여금 상기 제 1 모션 벡터에 대한 상기 모션 벡터 유형이 시간 모션 벡터를 포함하고 상기 하나 이상의 모션 벡터들 중 적어도 하나의 모션 벡터에 대한 모션 벡터 유형이 디스패리티 모션 벡터를 포함할 때, 상기 적어도 하나의 모션 벡터가 상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 이용불가능하다고 결정하도록 하는 명령들을 더 포함하는, 비일시성 컴퓨터-판독가능 매체.
  83. 제 77 항에 있어서,
    상기 모션 벡터 후보 리스트는 병합 모드 모션 벡터 후보 리스트를 포함하는, 비일시성 컴퓨터-판독가능 매체.
  84. 제 77 항에 있어서,
    상기 모션 벡터 후보 리스트는 모션 벡터 예측자 후보 리스트를 포함하는, 비일시성 컴퓨터-판독가능 매체.
  85. 제 77 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자에 대한, 상기 제 1 모션 벡터를 디코딩하기 위해, 상기 명령들은 상기 하나 이상의 프로세서들로 하여금,
    인코딩된 비트스트림으로부터, 상기 제 1 모션 벡터와 상기 모션 벡터 예측자 사이의 차이를 포함하는 모션 벡터 차이 값, 및 상기 모션 벡터 예측자 후보 리스트에 대한 인덱스를 취출하고;
    취출된 상기 인덱스에 기초하여 상기 모션 벡터 예측자 후보 리스트로부터 상기 모션 벡터 예측자를 식별하고;
    상기 제 1 모션 벡터를 발생시키기 위해 식별된 상기 모션 벡터 예측자와 상기 모션 벡터 차이 값을 결합하도록 하는, 비일시성 컴퓨터-판독가능 매체.
  86. 제 77 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자에 대한, 상기 제 1 모션 벡터를 디코딩하기 위해, 상기 명령들은 상기 하나 이상의 프로세서들로 하여금,
    인코딩된 비트스트림으로부터, 상기 모션 벡터 예측자 후보 리스트에 대한 인덱스를 취출하고;
    취출된 상기 인덱스에 기초하여 상기 모션 벡터 예측자 후보 리스트로부터 상기 모션 벡터 예측자를 식별하고;
    상기 제 1 모션 벡터가 상기 모션 벡터 예측자로부터 모션 정보를 상속받도록, 상기 모션 벡터 예측자와 상기 제 1 모션 벡터를 병합하도록 하는, 비일시성 컴퓨터-판독가능 매체.
  87. 비디오 데이터를 인코딩하는 방법으로서,
    현재 코딩되는 비디오 데이터의 블록의 제 1 모션 벡터를 예측하기 위해 하나 이상의 후보 모션 벡터 예측자들을 포함하는 모션 벡터 예측자 후보 리스트를 구성하는 단계; 및
    상기 모션 벡터 예측자 후보 리스트로부터의 모션 벡터 예측자에 대한, 상기 현재 코딩되는 비디오 데이터의 블록의 상기 제 1 모션 벡터를 인코딩하는 단계를 포함하며,
    상기 모션 벡터 예측자 후보 리스트를 구성하는 단계는,
    상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 하나 이상의 모션 벡터들의 모션 벡터 유형을 결정하는 단계; 및
    상기 제 1 모션 벡터의 상기 모션 벡터 유형과는 상이한 모션 벡터 유형을 갖는 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하지 않고, 상기 제 1 모션 벡터의 상기 모션 벡터 유형과 동일한 모션 벡터 유형을 갖는 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하는 단계를 포함하며,
    상기 모션 벡터 유형을 결정하는 단계는 상기 하나 이상의 모션 벡터들의 대응하는 모션 벡터와 연관되는 참조 인덱스에 의해 식별되는 참조 화상의 유형을 결정하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  88. 제 87 항에 있어서,
    상기 하나 이상의 모션 벡터들이 상기 제 1 블록과 동일한 모션 벡터 유형을 가질 때, 상기 하나 이상의 모션 벡터들을 스케일링함이 없이, 상기 하나 이상의 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
  89. 제 87 항에 있어서,
    제 1 모션 벡터 유형은, 상기 참조 화상의 유형을 결정하는 단계가 상기 비디오 데이터의 블록과는 상이한 뷰에서 참조 화상을 식별하는 단계를 포함하도록 디스패리티 모션 벡터 유형을 포함하며,
    제 2 모션 벡터 유형은, 상기 참조 화상의 유형을 결정하는 단계가 상기 비디오 데이터의 블록과 동일한 뷰에서 참조 화상을 식별하는 단계를 포함하도록 시간 모션 벡터 유형을 포함하는, 비디오 데이터를 인코딩하는 방법.
  90. 제 89 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 상기 하나 이상의 모션 벡터들의 상기 모션 벡터 유형을 결정하는 단계는, 상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 상기 제 1 모션 벡터의 이웃하는 블록의 상기 모션 벡터 유형을 결정하는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  91. 제 89 항에 있어서,
    상기 하나 이상의 모션 벡터들이 상기 제 1 블록과 동일한 모션 벡터 유형을 갖고 상기 유형이 상기 디스패리티 모션 벡터 유형일 때, 상기 하나 이상의 모션 벡터들을 스케일링함이 없이, 상기 하나 이상의 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
  92. 제 89 항에 있어서,
    상기 제 1 모션 벡터에 대한 상기 모션 벡터 유형이 시간 모션 벡터를 포함하고 상기 하나 이상의 모션 벡터들 중 적어도 하나의 모션 벡터에 대한 모션 벡터 유형이 디스패리티 모션 벡터를 포함할 때, 상기 적어도 하나의 모션 벡터가 상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 이용불가능하다고 결정하는 단계를 더 포함하는, 비디오 데이터를 인코딩하는 방법.
  93. 제 87 항에 있어서,
    상기 모션 벡터 후보 리스트는 병합 모드 모션 벡터 후보 리스트를 포함하는, 비디오 데이터를 인코딩하는 방법.
  94. 제 87 항에 있어서,
    상기 모션 벡터 후보 리스트는 모션 벡터 예측자 후보 리스트를 포함하는, 비디오 데이터를 인코딩하는 방법.
  95. 제 87 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자에 대한, 상기 제 1 모션 벡터를 인코딩하는 단계는,
    상기 제 1 모션 벡터와 상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자 사이의 차이를 포함하는 모션 벡터 차이 값을 결정하는 단계;
    상기 모션 벡터 예측자 후보 리스트로부터 상기 모션 벡터 예측자를 식별하는 상기 모션 벡터 예측자 후보 리스트에 대한 인덱스를 결정하는 단계; 및
    상기 모션 벡터 차이 값 및 상기 모션 벡터 예측자 후보 리스트에 대한 상기 인덱스를 나타내는 데이터를 포함하도록 비트스트림을 발생시키는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  96. 제 87 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자에 대한, 상기 제 1 모션 벡터를 인코딩하는 단계는,
    상기 제 1 모션 벡터와 병합하기 위해 상기 모션 벡터 예측자 후보 리스트로부터 상기 모션 벡터 예측자를 식별하는 상기 모션 벡터 예측자 후보 리스트에 대한 인덱스를 결정하는 단계; 및
    상기 모션 벡터 예측자 후보 리스트에 대한 상기 인덱스를 나타내는 데이터를 포함하도록 비트스트림을 발생시키는 단계를 포함하는, 비디오 데이터를 인코딩하는 방법.
  97. 비디오 데이터를 인코딩하는 장치로서,
    현재 코딩되는 비디오 데이터의 블록의 제 1 모션 벡터를 예측하기 위해 하나 이상의 후보 모션 벡터 예측자들을 포함하는 모션 벡터 예측자 후보 리스트를 구성하고,
    상기 모션 벡터 예측자 후보 리스트로부터의 모션 벡터 예측자에 대한, 상기 현재 코딩되는 비디오 데이터의 블록의 상기 제 1 모션 벡터를 인코딩하도록 구성된 하나 이상의 프로세서들을 포함하며,
    상기 모션 벡터 예측자 후보 리스트를 구성하기 위해, 상기 하나 이상의 프로세서들은,
    상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 하나 이상의 모션 벡터들의 모션 벡터 유형을 결정하고;
    상기 제 1 모션 벡터의 상기 모션 벡터 유형과는 상이한 모션 벡터 유형을 갖는 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하지 않고, 상기 제 1 모션 벡터의 상기 모션 벡터 유형과 동일한 모션 벡터 유형을 갖는 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하도록 구성되며,
    상기 모션 벡터 유형을 결정하는 것은 상기 하나 이상의 모션 벡터들의 대응하는 모션 벡터와 연관되는 참조 인덱스에 의해 식별되는 참조 화상의 유형을 결정하는 것을 포함하는, 비디오 데이터를 인코딩하는 장치.
  98. 제 97 항에 있어서,
    상기 하나 이상의 프로세서들은, 상기 하나 이상의 모션 벡터들이 상기 제 1 블록과 동일한 모션 벡터 유형을 가질 때, 상기 하나 이상의 모션 벡터들을 스케일링함이 없이, 상기 하나 이상의 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하도록 더 구성되는, 비디오 데이터를 인코딩하는 장치.
  99. 제 97 항에 있어서,
    제 1 모션 벡터 유형은, 상기 참조 화상의 유형을 결정하기 위해, 상기 하나 이상의 프로세서들이 상기 비디오 데이터의 블록과는 상이한 뷰에서 참조 화상을 식별하도록 구성되게 디스패리티 모션 벡터 유형을 포함하며,
    제 2 모션 벡터 유형은, 상기 참조 화상의 유형을 결정하기 위해, 상기 하나 이상의 프로세서들이 상기 비디오 데이터의 블록과 동일한 뷰에서 참조 화상을 식별하도록 구성되게 시간 모션 벡터 유형을 포함하는, 비디오 데이터를 인코딩하는 장치.
  100. 제 99 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 상기 하나 이상의 모션 벡터들의 상기 모션 벡터 유형을 결정하기 위해, 상기 하나 이상의 프로세서들은 상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 상기 제 1 모션 벡터의 이웃하는 블록의 상기 모션 벡터 유형을 결정하도록 구성되는, 비디오 데이터를 인코딩하는 장치.
  101. 제 99 항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 하나 이상의 모션 벡터들이 상기 제 1 블록과 동일한 모션 벡터 유형을 갖고 상기 유형이 상기 디스패리티 모션 벡터 유형일 때, 상기 하나 이상의 모션 벡터들을 스케일링함이 없이, 상기 하나 이상의 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하도록 더 구성되는, 비디오 데이터를 인코딩하는 장치.
  102. 제 99 항에 있어서,
    상기 하나 이상의 프로세서들은,
    상기 제 1 모션 벡터에 대한 상기 모션 벡터 유형이 시간 모션 벡터를 포함하고 상기 하나 이상의 모션 벡터들 중 적어도 하나의 모션 벡터에 대한 모션 벡터 유형이 디스패리티 모션 벡터를 포함할 때, 상기 적어도 하나의 모션 벡터가 상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 이용불가능하다고 결정하도록 더 구성되는, 비디오 데이터를 인코딩하는 장치.
  103. 제 97 항에 있어서,
    상기 모션 벡터 후보 리스트는 병합 모드 모션 벡터 후보 리스트를 포함하는, 비디오 데이터를 인코딩하는 장치.
  104. 제 97 항에 있어서,
    상기 모션 벡터 후보 리스트는 모션 벡터 예측자 후보 리스트를 포함하는, 비디오 데이터를 인코딩하는 장치.
  105. 제 97 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자에 대한, 상기 제 1 모션 벡터를 인코딩하기 위해, 상기 하나 이상의 프로세서들은,
    상기 제 1 모션 벡터와 상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자 사이의 차이를 포함하는 모션 벡터 차이 값을 결정하고;
    상기 모션 벡터 예측자 후보 리스트로부터 상기 모션 벡터 예측자를 식별하는 상기 모션 벡터 예측자 후보 리스트에 대한 인덱스를 결정하고;
    상기 모션 벡터 차이 값 및 상기 모션 벡터 예측자 후보 리스트에 대한 상기 인덱스를 나타내는 데이터를 포함하도록 비트스트림을 발생시키도록 구성되는, 비디오 데이터를 인코딩하는 장치.
  106. 제 97 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자에 대한, 상기 제 1 모션 벡터를 인코딩하기 위해, 상기 하나 이상의 프로세서들은,
    상기 제 1 모션 벡터와 병합하기 위해 상기 모션 벡터 예측자 후보 리스트로부터 상기 모션 벡터 예측자를 식별하는 상기 모션 벡터 예측자 후보 리스트에 대한 인덱스를 결정하고;
    상기 모션 벡터 예측자 후보 리스트에 대한 상기 인덱스를 나타내는 데이터를 포함하도록 비트스트림을 발생시키도록 구성되는, 비디오 데이터를 인코딩하는 장치.
  107. 비디오 데이터를 인코딩하는 장치로서,
    현재 코딩되는 비디오 데이터의 블록의 제 1 모션 벡터를 예측하기 위해 하나 이상의 후보 모션 벡터 예측자들을 포함하는 모션 벡터 예측자 후보 리스트를 구성하는 수단; 및
    상기 모션 벡터 예측자 후보 리스트로부터의 모션 벡터 예측자에 대한, 상기 현재 코딩되는 비디오 데이터의 블록의 상기 제 1 모션 벡터를 인코딩하는 수단을 포함하고,
    상기 모션 벡터 예측자 후보 리스트를 구성하는 수단은,
    상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 하나 이상의 모션 벡터들의 모션 벡터 유형을 결정하는 수단으로서, 상기 모션 벡터 유형을 결정하는 것은 상기 하나 이상의 모션 벡터들의 대응하는 모션 벡터와 연관되는 참조 인덱스에 의해 식별되는 참조 화상의 유형을 결정하는 것을 포함하는, 상기 하나 이상의 모션 벡터들의 모션 벡터 유형을 결정하는 수단; 및
    상기 제 1 모션 벡터의 상기 모션 벡터 유형과는 상이한 모션 벡터 유형을 갖는 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하지 않고, 상기 제 1 모션 벡터의 상기 모션 벡터 유형과 동일한 모션 벡터 유형을 갖는 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하는 수단을 포함하는, 비디오 데이터를 인코딩하는 장치.
  108. 제 107 항에 있어서,
    상기 하나 이상의 모션 벡터들이 상기 제 1 블록과 동일한 모션 벡터 유형을 가질 때, 상기 하나 이상의 모션 벡터들을 스케일링함이 없이, 상기 하나 이상의 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하는 수단을 더 포함하는, 비디오 데이터를 인코딩하는 장치.
  109. 제 107 항에 있어서,
    제 1 모션 벡터 유형은, 상기 참조 화상의 유형을 결정하는 수단이 상기 비디오 데이터의 블록과는 상이한 뷰에서 참조 화상을 식별하는 수단을 포함하도록 디스패리티 모션 벡터 유형을 포함하며,
    제 2 모션 벡터 유형은, 상기 참조 화상의 유형을 결정하는 수단이 상기 비디오 데이터의 블록과 동일한 뷰에서 참조 화상을 식별하는 수단을 포함하도록 시간 모션 벡터 유형을 포함하는, 비디오 데이터를 인코딩하는 장치.
  110. 제 109 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 상기 하나 이상의 모션 벡터들의 상기 모션 벡터 유형을 결정하는 수단은 상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 상기 제 1 모션 벡터의 이웃하는 블록의 상기 모션 벡터 유형을 결정하는 수단을 포함하는, 비디오 데이터를 인코딩하는 장치.
  111. 제 109 항에 있어서,
    상기 하나 이상의 모션 벡터들이 상기 제 1 블록과 동일한 모션 벡터 유형을 갖고 상기 유형이 상기 디스패리티 모션 벡터 유형일 때, 상기 하나 이상의 모션 벡터들을 스케일링함이 없이, 상기 하나 이상의 모션 벡터들을 상기 모션 벡터 예측자 후보 리스트에 추가하는 수단을 더 포함하는, 비디오 데이터를 인코딩하는 장치.
  112. 제 109 항에 있어서,
    상기 제 1 모션 벡터에 대한 상기 모션 벡터 유형이 시간 모션 벡터를 포함하고 상기 하나 이상의 모션 벡터들 중 적어도 하나의 모션 벡터에 대한 모션 벡터 유형이 디스패리티 모션 벡터를 포함할 때, 상기 적어도 하나의 모션 벡터가 상기 모션 벡터 예측자 후보 리스트에의 포함을 위해 이용불가능하다고 결정하는 수단을 더 포함하는, 비디오 데이터를 인코딩하는 장치.
  113. 제 107 항에 있어서,
    상기 모션 벡터 후보 리스트는 병합 모드 모션 벡터 후보 리스트를 포함하는, 비디오 데이터를 인코딩하는 장치.
  114. 제 107 항에 있어서,
    상기 모션 벡터 후보 리스트는 모션 벡터 예측자 후보 리스트를 포함하는, 비디오 데이터를 인코딩하는 장치.
  115. 제 107 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자에 대한, 상기 제 1 모션 벡터를 인코딩하는 수단은,
    상기 제 1 모션 벡터와 상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자 사이의 차이를 포함하는 모션 벡터 차이 값을 결정하는 수단;
    상기 모션 벡터 예측자 후보 리스트로부터 상기 모션 벡터 예측자를 식별하는 상기 모션 벡터 예측자 후보 리스트에 대한 인덱스를 결정하는 수단; 및
    상기 모션 벡터 차이 값 및 상기 모션 벡터 예측자 후보 리스트에 대한 상기 인덱스를 나타내는 데이터를 포함하도록 비트스트림을 발생시키는 수단을 포함하는, 비디오 데이터를 인코딩하는 장치.
  116. 제 107 항에 있어서,
    상기 모션 벡터 예측자 후보 리스트로부터의 상기 모션 벡터 예측자에 대한, 상기 제 1 모션 벡터를 인코딩하는 수단은,
    상기 제 1 모션 벡터와 병합하기 위해 상기 모션 벡터 예측자 후보 리스트로부터 상기 모션 벡터 예측자를 식별하는 상기 모션 벡터 예측자 후보 리스트에 대한 인덱스를 결정하는 수단; 및
    상기 모션 벡터 예측자 후보 리스트에 대한 상기 인덱스를 나타내는 데이터를 포함하도록 비트스트림을 발생시키는 수단을 포함하는, 비디오 데이터를 인코딩하는 장치.
KR1020137030717A 2011-04-20 2012-04-20 비디오 코딩에서의 모션 벡터 예측 KR101658694B1 (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201161477561P 2011-04-20 2011-04-20
US61/477,561 2011-04-20
US201161512765P 2011-07-28 2011-07-28
US61/512,765 2011-07-28
US13/451,161 2012-04-19
US13/451,161 US9485517B2 (en) 2011-04-20 2012-04-19 Motion vector prediction with motion vectors from multiple views in multi-view video coding
PCT/US2012/034508 WO2012145663A1 (en) 2011-04-20 2012-04-20 Motion vector prediction in video coding

Publications (2)

Publication Number Publication Date
KR20140018967A KR20140018967A (ko) 2014-02-13
KR101658694B1 true KR101658694B1 (ko) 2016-09-21

Family

ID=47021330

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020137030718A KR101600154B1 (ko) 2011-04-20 2012-04-20 비디오 코딩에서의 모션 벡터 예측
KR1020137030717A KR101658694B1 (ko) 2011-04-20 2012-04-20 비디오 코딩에서의 모션 벡터 예측

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020137030718A KR101600154B1 (ko) 2011-04-20 2012-04-20 비디오 코딩에서의 모션 벡터 예측

Country Status (15)

Country Link
US (3) US9247249B2 (ko)
EP (2) EP2700228B1 (ko)
JP (3) JP5805849B2 (ko)
KR (2) KR101600154B1 (ko)
CN (2) CN103650505B (ko)
AU (1) AU2012245299B2 (ko)
BR (1) BR112013026961A2 (ko)
CA (1) CA2833302C (ko)
ES (1) ES2633150T3 (ko)
HU (1) HUE034333T2 (ko)
IL (1) IL228804A (ko)
MY (1) MY185037A (ko)
SG (2) SG194058A1 (ko)
TW (2) TWI543591B (ko)
WO (2) WO2012145670A1 (ko)

Families Citing this family (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8107535B2 (en) * 2003-06-10 2012-01-31 Rensselaer Polytechnic Institute (Rpi) Method and apparatus for scalable motion vector coding
KR101532665B1 (ko) * 2011-03-14 2015-07-09 미디어텍 인크. 시간적 움직임 백터 예측을 도출하기 위한 방법 및 장치
JP5664762B2 (ja) * 2011-03-17 2015-02-04 富士通株式会社 動画像復号方法、動画像符号化方法、動画像復号装置及び動画像復号プログラム
US9247249B2 (en) 2011-04-20 2016-01-26 Qualcomm Incorporated Motion vector prediction in video coding
WO2012167711A1 (en) * 2011-06-10 2012-12-13 Mediatek Inc. Method and apparatus of scalable video coding
WO2012177052A2 (ko) 2011-06-21 2012-12-27 한국전자통신연구원 인터 예측 방법 및 그 장치
KR20120140592A (ko) 2011-06-21 2012-12-31 한국전자통신연구원 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치
ES2715613T3 (es) * 2011-06-28 2019-06-05 Lg Electronics Inc Método para fijar una lista de vectores de movimiento
WO2013001749A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
WO2013009104A2 (ko) 2011-07-12 2013-01-17 한국전자통신연구원 인터 예측 방법 및 그 장치
EP2705668A1 (en) * 2011-07-12 2014-03-12 Huawei Technologies Co., Ltd Pixel-based intra prediction for coding in hevc
US11245912B2 (en) * 2011-07-12 2022-02-08 Texas Instruments Incorporated Fast motion estimation for hierarchical coding structures
CN104883576B (zh) * 2011-08-29 2017-11-14 苗太平洋控股有限公司 以amvp模式产生预测区块的方法
CN103765902B (zh) * 2011-08-30 2017-09-29 英特尔公司 多视角视频编码方案
KR20130030181A (ko) * 2011-09-16 2013-03-26 한국전자통신연구원 움직임 벡터 예측기를 이용한 움직임 벡터 부호화/복호화 방법 및 장치
WO2013055148A2 (ko) * 2011-10-12 2013-04-18 엘지전자 주식회사 영상 인코딩 방법 및 디코딩 방법
JP5768662B2 (ja) * 2011-10-31 2015-08-26 富士通株式会社 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
US9571833B2 (en) 2011-11-04 2017-02-14 Nokia Technologies Oy Method for coding and an apparatus
EP2777273B1 (en) 2011-11-11 2019-09-04 GE Video Compression, LLC Efficient multi-view coding using depth-map estimate for a dependent view
BR112014011425B1 (pt) 2011-11-11 2022-08-23 GE Video Compression, LLC. Codificação de multi-visualização eficiente utilizando estimativa e atualização de mapa por profundidade
EP2781091B1 (en) * 2011-11-18 2020-04-08 GE Video Compression, LLC Multi-view coding with efficient residual handling
MX340433B (es) 2011-12-16 2016-07-08 Panasonic Ip Corp America Metodo de codificacion de imagenes de video, dispositivo de codificacion de imagenes de video, metodo de decodificacion de imagenes de video, dispositivo de decodificacion de imagenes de video y dispositivo de codificacion/decodificacion de imagenes de video.
ES2832573T3 (es) * 2012-01-19 2021-06-10 Electronics & Telecommunications Res Inst Método para codificación/decodificación de imágenes
US9729873B2 (en) 2012-01-24 2017-08-08 Qualcomm Incorporated Video coding using parallel motion estimation
US9525861B2 (en) 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US9445076B2 (en) 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US9549180B2 (en) 2012-04-20 2017-01-17 Qualcomm Incorporated Disparity vector generation for inter-view prediction for video coding
JP6361847B2 (ja) * 2012-05-02 2018-07-25 サン パテント トラスト 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
US9860555B2 (en) * 2012-05-22 2018-01-02 Lg Electronics Inc. Method and apparatus for processing video signal
WO2014000664A1 (en) * 2012-06-28 2014-01-03 Mediatek Inc. Method and apparatus of disparity vector derivation in 3d video coding
US9325990B2 (en) 2012-07-09 2016-04-26 Qualcomm Incorporated Temporal motion vector prediction in video coding extensions
PL400344A1 (pl) * 2012-08-13 2014-02-17 Politechnika Poznanska Sposób wyznaczania predyktora wektora ruchu
US20140071235A1 (en) * 2012-09-13 2014-03-13 Qualcomm Incorporated Inter-view motion prediction for 3d video
KR102238567B1 (ko) 2012-09-19 2021-04-08 퀄컴 인코포레이티드 디스패리티 벡터 유도를 위한 화상들의 선택
BR112015006317A2 (pt) * 2012-09-28 2017-07-04 Sony Corp dispositivo e método de processamento de imagem
US9264691B2 (en) * 2012-09-28 2016-02-16 Mitsubishi Electric Research Laboratories, Inc. Method and system for backward 3D-view synthesis prediction using neighboring blocks
US9253486B2 (en) * 2012-09-28 2016-02-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for motion field backward warping using neighboring blocks in videos
US10075728B2 (en) * 2012-10-01 2018-09-11 Inria Institut National De Recherche En Informatique Et En Automatique Method and device for motion information prediction refinement
EP2904803A1 (en) 2012-10-01 2015-08-12 GE Video Compression, LLC Scalable video coding using derivation of subblock subdivision for prediction from base layer
US9854268B2 (en) * 2012-10-03 2017-12-26 Hfi Innovation Inc. Method and apparatus of motion data buffer reduction for three-dimensional video coding
CN102883163B (zh) * 2012-10-08 2014-05-28 华为技术有限公司 用于运动矢量预测的运动矢量列表建立的方法、装置
WO2014056423A1 (en) * 2012-10-09 2014-04-17 Mediatek Inc. Method and apparatus for motion information prediction and inheritance in video coding
WO2014073173A1 (ja) * 2012-11-06 2014-05-15 日本電気株式会社 映像符号化方法、映像符号化装置および映像符号化プログラム
WO2014078068A1 (en) * 2012-11-13 2014-05-22 Intel Corporation Content adaptive transform coding for next generation video
US9357212B2 (en) 2012-12-07 2016-05-31 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US9350970B2 (en) * 2012-12-14 2016-05-24 Qualcomm Incorporated Disparity vector derivation
US9674542B2 (en) 2013-01-02 2017-06-06 Qualcomm Incorporated Motion vector prediction for video coding
CN104885467B (zh) 2013-01-30 2018-08-17 英特尔公司 用于下一代视频编码的内容自适应参数变换
US10616607B2 (en) * 2013-02-25 2020-04-07 Lg Electronics Inc. Method for encoding video of multi-layer structure supporting scalability and method for decoding same and apparatus therefor
US9800857B2 (en) * 2013-03-08 2017-10-24 Qualcomm Incorporated Inter-view residual prediction in multi-view or 3-dimensional video coding
US9609347B2 (en) * 2013-04-04 2017-03-28 Qualcomm Incorporated Advanced merge mode for three-dimensional (3D) video coding
US9930363B2 (en) 2013-04-12 2018-03-27 Nokia Technologies Oy Harmonized inter-view and view synthesis prediction for 3D video coding
US9716899B2 (en) * 2013-06-27 2017-07-25 Qualcomm Incorporated Depth oriented inter-view motion vector prediction
WO2015006922A1 (en) * 2013-07-16 2015-01-22 Mediatek Singapore Pte. Ltd. Methods for residual prediction
CN105432086B (zh) * 2013-07-18 2019-04-12 Lg 电子株式会社 处理视频信号的方法和装置
US9426465B2 (en) * 2013-08-20 2016-08-23 Qualcomm Incorporated Sub-PU level advanced residual prediction
US9832479B2 (en) * 2013-10-04 2017-11-28 Ati Technologies Ulc Motion estimation apparatus and method for multiview video
WO2015085449A1 (en) * 2013-12-13 2015-06-18 Qualcomm Incorporated Signaling of simplified depth coding (sdc) for depth intra-and inter – prediction modes in 3d video coding
US9967592B2 (en) * 2014-01-11 2018-05-08 Qualcomm Incorporated Block-based advanced residual prediction for 3D video coding
CN106068649A (zh) * 2014-03-20 2016-11-02 Lg电子株式会社 3d视频编码/解码方法和设备
US9894370B2 (en) 2014-03-24 2018-02-13 Qualcomm Incorporated Generic use of HEVC SEI messages for multi-layer codecs
CN105208396B (zh) * 2014-06-20 2019-01-15 联想(北京)有限公司 一种视频帧的编码及解码方法和装置
JP6308449B2 (ja) * 2014-06-26 2018-04-11 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 高効率ビデオ符号化における演算負荷を低減するための方法および装置
US9924191B2 (en) * 2014-06-26 2018-03-20 Qualcomm Incorporated Filters for advanced residual prediction in video coding
EP3198872A1 (en) * 2014-09-26 2017-08-02 VID SCALE, Inc. Intra block copy coding with temporal block vector prediction
EP3189660B1 (en) * 2014-09-30 2023-07-12 HFI Innovation Inc. Method of adaptive motion vector resolution for video coding
US9992512B2 (en) * 2014-10-06 2018-06-05 Mediatek Inc. Method and apparatus for motion vector predictor derivation
CN111741311B (zh) * 2014-10-31 2024-04-02 三星电子株式会社 用于对运动矢量进行编码/解码的方法和装置
US10602176B2 (en) * 2016-04-15 2020-03-24 Google Llc Coding interpolation filter type
CN116708782A (zh) * 2016-07-12 2023-09-05 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
US11496747B2 (en) * 2017-03-22 2022-11-08 Qualcomm Incorporated Intra-prediction mode propagation
CN109089119B (zh) 2017-06-13 2021-08-13 浙江大学 一种运动矢量预测的方法及设备
US10687077B2 (en) * 2017-06-26 2020-06-16 Qualcomm Incorporated Motion information propagation in video coding
WO2019009498A1 (ko) * 2017-07-03 2019-01-10 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
KR102408258B1 (ko) 2017-09-12 2022-06-13 삼성전자주식회사 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
US11212547B2 (en) * 2017-09-19 2021-12-28 Samsung Electronics Co., Ltd. Method for encoding and decoding motion information, and apparatus for encoding and decoding motion information
US10856003B2 (en) * 2017-10-03 2020-12-01 Qualcomm Incorporated Coding affine prediction motion information for video coding
JP7088606B2 (ja) * 2018-04-02 2022-06-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス
WO2019195829A1 (en) * 2018-04-06 2019-10-10 Arris Enterprises Llc Reducing motion vector information transmission in bi-directional temporal prediction
US10587885B2 (en) * 2018-06-04 2020-03-10 Tencent America LLC Method and apparatus for merge mode with additional middle candidates in video coding
US10638145B2 (en) * 2018-06-19 2020-04-28 Novatek Microelectronics Corp. Video encoding apparatus and operating method thereof
CN111107354A (zh) 2018-10-29 2020-05-05 华为技术有限公司 一种视频图像预测方法及装置
CN113196771B (zh) * 2018-12-21 2023-12-22 北京字节跳动网络技术有限公司 基于运动矢量精度的运动矢量范围
CN113905239A (zh) 2018-12-29 2022-01-07 深圳市大疆创新科技有限公司 视频处理方法和设备
KR20220046683A (ko) * 2019-10-03 2022-04-14 후아웨이 테크놀러지 컴퍼니 리미티드 기하학적 파티션 모드를 위한 코딩 프로세스
CN115996296A (zh) * 2020-01-14 2023-04-21 华为技术有限公司 指示融合模式候选数量的方法和装置
WO2021203039A1 (en) * 2020-04-03 2021-10-07 Beijing Dajia Internet Information Technology Co., Ltd. Methods and devices for high-level syntax in video coding

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4344924A1 (de) 1993-12-30 1995-08-10 Thomson Brandt Gmbh Verfahren und Vorrichtung zur Bewegungsschätzung
JP2004023458A (ja) 2002-06-17 2004-01-22 Toshiba Corp 動画像符号化/復号化方法及び装置
KR100584603B1 (ko) 2004-08-03 2006-05-30 학교법인 대양학원 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치
US20070014346A1 (en) 2005-07-13 2007-01-18 Nokia Corporation Coding dependency indication in scalable video coding
WO2007011147A1 (en) * 2005-07-18 2007-01-25 Electronics And Telecommunications Research Institute Apparatus of predictive coding/decoding using view-temporal reference picture buffers and method using the same
US8644386B2 (en) * 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
WO2007037645A1 (en) 2005-09-29 2007-04-05 Samsung Electronics Co., Ltd. Method of estimating disparity vector using camera parameters, apparatus for encoding and decoding multi-view picture using the disparity vectors estimation method, and computer-redadable recording medium storing a program for executing the method
KR101276720B1 (ko) 2005-09-29 2013-06-19 삼성전자주식회사 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
CN101895744B (zh) 2006-01-12 2013-03-20 Lg电子株式会社 处理多视图视频
EP1982517A4 (en) 2006-01-12 2010-06-16 Lg Electronics Inc MULTIVATE VIDEO PROCESSING
KR100966567B1 (ko) 2006-03-30 2010-06-29 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
MX339121B (es) 2006-07-06 2016-05-12 Thomson Licensing Metodo y aparato para desacoplar el numero de cuadro y/o la cuenta del orden de imagen (poc) para la codificación y decodificación de video de múltiples vistas.
KR101370919B1 (ko) 2006-07-12 2014-03-11 엘지전자 주식회사 신호처리방법 및 장치
US8179969B2 (en) * 2006-08-18 2012-05-15 Gwangju Institute Of Science And Technology Method and apparatus for encoding or decoding frames of different views in multiview video using global disparity
KR101031624B1 (ko) 2006-09-20 2011-04-27 니폰덴신뎅와 가부시키가이샤 화상 부호화 방법 및 복호 방법, 그 장치 및 그 프로그램을 기록한 기억매체
CN102780883B (zh) 2006-10-13 2015-03-04 汤姆逊许可公司 用于包含多视点视频编码的参考图像管理的方法
ES2492923T3 (es) 2006-10-16 2014-09-10 Nokia Corporation Sistema y procedimiento para implementar una administración eficiente de memoria intermedia decodificada en codificación de video de vistas múltiples
KR20090085581A (ko) 2006-10-24 2009-08-07 톰슨 라이센싱 다중-뷰 비디오 코딩을 위한 화상 관리
BRPI0717639A2 (pt) 2006-10-30 2013-11-12 Nippon Telegraph & Telephone Método de geração de informações de referência preditas, métodos de codificação de decodificação de vídeo, aparelhos destinados aos mesmos, programas destinados aos mesmos, e mídias de armazenamento que armazenam os programas
EP2512139B1 (en) 2006-10-30 2013-09-11 Nippon Telegraph And Telephone Corporation Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media which store the programs
JP5023739B2 (ja) 2007-02-28 2012-09-12 ソニー株式会社 画像情報符号化装置及び符号化方法
JP2010520697A (ja) 2007-03-02 2010-06-10 エルジー エレクトロニクス インコーポレイティド ビデオ信号のデコーディング/エンコーディング方法及び装置
JP5303556B2 (ja) * 2007-08-06 2013-10-02 トムソン ライセンシング 複数のインタービュー参照ピクチャを用いたモーションスキップモードのための方法及び装置
US8964844B2 (en) * 2007-08-15 2015-02-24 Thomson Licensing Methods and apparatus for motion skip mode in multi-view coded video using regional disparity vectors
KR101946376B1 (ko) 2007-10-16 2019-02-11 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR101385884B1 (ko) 2008-01-30 2014-04-16 고려대학교 산학협력단 다시점 동영상의 부호화 및 복호화 방법 및 장치
ES2812473T3 (es) 2008-03-19 2021-03-17 Nokia Technologies Oy Vector de movimiento combinado y predicción de índice de referencia para la codificación de vídeo
BRPI0911672A2 (pt) * 2008-04-25 2018-03-13 Thomson Licensing modos de pulo intervisualizações com profundidade
US20100086063A1 (en) 2008-10-02 2010-04-08 Apple Inc. Quality metrics for coded video using just noticeable difference models
EP2338281A4 (en) 2008-10-17 2012-08-15 Nokia Corp SHARING THE MOTION VECTOR IN 3D VIDEO CODING
WO2010086500A1 (en) 2009-01-28 2010-08-05 Nokia Corporation Method and apparatus for video coding and decoding
US20100246683A1 (en) 2009-03-27 2010-09-30 Jennifer Lois Harmon Webb Error Resilience in Video Decoding
JP5429034B2 (ja) * 2009-06-29 2014-02-26 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US9060176B2 (en) 2009-10-01 2015-06-16 Ntt Docomo, Inc. Motion vector prediction in video coding
KR101768207B1 (ko) 2010-01-19 2017-08-16 삼성전자주식회사 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치
JP6004271B2 (ja) 2011-01-12 2016-10-05 サン パテント トラスト 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
US20120189060A1 (en) * 2011-01-20 2012-07-26 Industry-Academic Cooperation Foundation, Yonsei University Apparatus and method for encoding and decoding motion information and disparity information
US9749657B2 (en) 2011-01-21 2017-08-29 Sharp Kabushiki Kaisha Buffer compression for motion vector competition
KR20120095610A (ko) 2011-02-21 2012-08-29 삼성전자주식회사 다시점 비디오의 부호화 방법 및 장치, 그 복호화 방법 및 장치
JP5664762B2 (ja) 2011-03-17 2015-02-04 富士通株式会社 動画像復号方法、動画像符号化方法、動画像復号装置及び動画像復号プログラム
KR20120118780A (ko) 2011-04-19 2012-10-29 삼성전자주식회사 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9247249B2 (en) 2011-04-20 2016-01-26 Qualcomm Incorporated Motion vector prediction in video coding
US10567786B2 (en) 2011-08-19 2020-02-18 Telefonaktiebolaget Lm Ericsson (Publ) Motion vector processing
US20130229485A1 (en) 2011-08-30 2013-09-05 Nokia Corporation Apparatus, a Method and a Computer Program for Video Coding and Decoding
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Description of Core Experiment 9: MV Coding and Skip/Merge operations (JCTVC-D609), Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 (2011.01.28.)*
RD Optimized Coding for Motion Vector Predictor Selection, IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, VOL. 18, NO. 9, SEPTEMBER 2008 (2008.09.30.)*

Also Published As

Publication number Publication date
US9584823B2 (en) 2017-02-28
US9247249B2 (en) 2016-01-26
MY185037A (en) 2021-04-30
US20120269270A1 (en) 2012-10-25
CN103503460B (zh) 2017-08-25
TWI526055B (zh) 2016-03-11
EP2700228B1 (en) 2017-04-12
AU2012245299B2 (en) 2015-12-24
US20120269271A1 (en) 2012-10-25
KR20140018967A (ko) 2014-02-13
JP2014514861A (ja) 2014-06-19
JP6552923B2 (ja) 2019-07-31
BR112013026961A2 (pt) 2017-01-10
JP5805850B2 (ja) 2015-11-10
US9485517B2 (en) 2016-11-01
JP5805849B2 (ja) 2015-11-10
CN103650505A (zh) 2014-03-19
TWI543591B (zh) 2016-07-21
EP2700228A1 (en) 2014-02-26
CA2833302A1 (en) 2012-10-26
WO2012145670A1 (en) 2012-10-26
KR20140018968A (ko) 2014-02-13
JP2016026435A (ja) 2016-02-12
HUE034333T2 (en) 2018-02-28
EP2700227A1 (en) 2014-02-26
ES2633150T3 (es) 2017-09-19
CA2833302C (en) 2018-07-03
CN103650505B (zh) 2018-01-23
US20130272408A1 (en) 2013-10-17
KR101600154B1 (ko) 2016-03-14
AU2012245299A1 (en) 2013-10-24
CN103503460A (zh) 2014-01-08
TW201249215A (en) 2012-12-01
IL228804A (en) 2016-11-30
SG194058A1 (en) 2013-11-29
TW201249214A (en) 2012-12-01
JP2014514862A (ja) 2014-06-19
SG10201602588RA (en) 2016-05-30
WO2012145663A1 (en) 2012-10-26
RU2013151612A (ru) 2015-05-27
IL228804A0 (en) 2013-12-31

Similar Documents

Publication Publication Date Title
KR101658694B1 (ko) 비디오 코딩에서의 모션 벡터 예측
JP6640102B2 (ja) ビデオコーディングの参照として現在のピクチャを使用すること
KR102185025B1 (ko) 3d 비디오 코딩에서 디스패리티 벡터 도출 및 모션 벡터 예측에 대한 단순화
JP6337104B2 (ja) テクスチャコーディングのためのより正確な高度残差予測(arp)
KR102187729B1 (ko) 3d 비디오에 대한 인터-뷰 예측된 모션 벡터
TWI520573B (zh) 用於寫碼視訊資料之方法、器件及電腦可讀儲存媒體
US20130258052A1 (en) Inter-view residual prediction in 3d video coding
KR20150015462A (ko) 비디오 코딩에 있어 인터-뷰 예측을 위한 디스패리티 벡터 생성
KR20150139953A (ko) 백워드 뷰 합성 예측
KR101747058B1 (ko) 서브 pu 레벨 진보된 레지듀얼 예측
WO2014100610A1 (en) Constraints on neighboring block based disparity vector (nbdv) techniques for 3d video
AU2015272007B2 (en) Motion vector prediction in video coding

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190624

Year of fee payment: 4