KR20150032695A - 3d 비디오 코딩에서 변이 벡터 도출을 제한하는 방법 - Google Patents

3d 비디오 코딩에서 변이 벡터 도출을 제한하는 방법 Download PDF

Info

Publication number
KR20150032695A
KR20150032695A KR1020157000592A KR20157000592A KR20150032695A KR 20150032695 A KR20150032695 A KR 20150032695A KR 1020157000592 A KR1020157000592 A KR 1020157000592A KR 20157000592 A KR20157000592 A KR 20157000592A KR 20150032695 A KR20150032695 A KR 20150032695A
Authority
KR
South Korea
Prior art keywords
view
inter
vector
block
derived
Prior art date
Application number
KR1020157000592A
Other languages
English (en)
Other versions
KR101638752B1 (ko
Inventor
이웬 첸
지안리앙 린
지청 안
유웬 황
쇼민 레이
Original Assignee
미디어텍 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 미디어텍 인크. filed Critical 미디어텍 인크.
Publication of KR20150032695A publication Critical patent/KR20150032695A/ko
Application granted granted Critical
Publication of KR101638752B1 publication Critical patent/KR101638752B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

3차원 비디오 인코딩 또는 디코딩에 대한 방법이 개시된다. 하나의 실시예에서, 방법은, 제한된 변이 벡터(DV; disparity vector)를 생성하도록 변이 벡터(DV)를 제한하며, 제한된 DV의 수평 성분, 수직 성분, 또는 둘 다의 성분은 0으로 또는 DV 정밀도의 M 내지 N(M과 N은 정수임) 단위들의 범위 내로 제한된다. 다른 실시예에서, DV 기반의 모션 보상 예측에 대해 도출된 DV가 현재 블록의 제한된 이웃 블록 세트로부터 결정된다. 또다른 실시예에서, 현재 블록의 인터-뷰 병합 후보가 이용 가능하지 않거나 유효하지 않은 경우 인터-뷰 병합 후보를 교체하도록 도출된 변이 벡터가 도출된다. 또 다른 실시예에서, 현재 블록에 대한 DV 차이(DVD) 또는 모션 벡터 차이(MVD)가 DV에 따라 결정되고, DVD/MVD는 0으로 또는 범위 내로 제한된다.

Description

3D 비디오 코딩에서 변이 벡터 도출을 제한하는 방법{METHOD OF CONSTRAIN DISPARITY VECTOR DERIVATION IN 3D VIDEO CODING}
본 발명은, 2012년 7월 27일 출원되고 발명의 명칭이 "Disparity vector derivation for video coding"인 미국 가특허 출원 번호 제61/676,686호에 대한 우선권을 주장한다. 미국 가특허 출원은 그 전체가 참조에 의해 여기에 포함된다.
기술분야
본 발명은 3차원 비디오 코딩에 관한 것이다. 보다 상세하게는, 본 발명은 3D 비디오 코딩에 대한 변이 벡터 도출(disparity vector derivation)에 관한 것이다.
최근에는 시청자에게 선풍적인 시청 경험을 가져다주려 의도한 3D(three-dimensional) 텔레비전이 기술 동향이 되었다. 3D 시청을 가능하게 하도록 다양한 기술들이 개발되었다. 그중에, 멀티뷰(multi-view) 비디오는 무엇보다도 3DTV 애플리케이션에 대한 핵심 기술이다. 종래의 비디오는 시청자들에게 카메라 관점으로부터 장면의 단일 뷰(view)만 제공하는 2차원(2D) 매체이다. 그러나, 멀티뷰 비디오는 동적 장면들의 임의의 뷰포인트들을 제공할 수 있고, 시청자에게 사실적인 감각을 제공한다.
멀티뷰 비디오는 통상적으로 복수의 카메라들을 동시에 사용하여 장면을 캡쳐함으로써 만들어지며, 여기에서 복수의 카메라들은 각각의 카메라가 하나의 뷰포인트로부터 장면을 캡쳐하도록 적절하게 위치된다. 따라서, 복수의 카메라들은 복수의 뷰에 대응하는 복수의 비디오 시퀀스를 캡쳐할 것이다. 더 많은 뷰를 제공하기 위하여, 뷰와 연관된 다수의 비디오 시퀀스를 갖는 멀티뷰 비디오를 생성하도록 더 많은 카메라가 사용되었다. 따라서, 멀티뷰 비디오는 저장할 큰 저장 공간 및/또는 전송할 높은 대역폭을 필요로 할 것이다. 그러므로, 요구되는 저장 공간 또는 전송 대역폭을 감소시키기 위해 당해 기술 분야에서는 멀티뷰 비디오 코딩 기술이 개발되었다.
간단한 접근법은, 각각의 단일 뷰 비디오 시퀀스에 독립적으로 종래의 비디오 코딩 기술을 단순히 적용하고 상이한 뷰들 간의 어떠한 상관도 무시하는 것일 수 있다. 이러한 코딩 시스템은 매우 비효율적일 것이다. 멀티뷰 비디오 코딩의 효율성을 개선하기 위하여, 통상의 멀티뷰 비디오 코딩은 인터-뷰 리던던시(inter-view redundancy)를 이용한다. 따라서, 대부분의 3D 비디오 코딩(3DVC; 3D Video Coding) 시스템은 복수의 뷰들과 연관된 비디오 데이터의 상관 및 깊이 맵을 고려한다. 표준 개발 단체, Joint Video Team of the ITU-T Video Coding Experts Group(VCEG) 및 ISO/IEC Moving Picture Exports Group(MPEG)는 스테레오 및 멀티뷰 비디오에 대한 멀티뷰 비디오 코딩(MVC; multi-view video coding)에 extended H.264/MPEG-4 AVC를 고려한다.
MVC는 압축 효율을 개선하도록 시간(temporal) 및 공간(spatial) 예측 둘 다 채택한다. MVC의 개발 동안, 조명 보상, 적응형 기준 필터링, 모션 스킵 모드, 및 뷰 합성 예측을 비롯하여 일부 매크로 블록 레벨 코딩 툴이 제안되어 있다. 이들 코딩 툴은 복수의 뷰들 사이의 리던던시를 이용하도록 제안된다. 조명 보상은 상이한 뷰들 간의 조명 변동을 보상하고자 하는 것이다. 적응형 기준 필터링은 카메라들 사이의 포커스 미스매치로 인한 변동을 감소시키고자 하는 것이다. 모션 스킵 모드는 현재 뷰의 모션 벡터가 다른 뷰로부터 추론될 수 있게 해준다. 뷰 합성 예측은 다른 뷰로부터 현재 뷰의 픽처를 예측하도록 적용된다.
그러나, MVC에서, 깊이 맵 및 카메라 파라미터는 코딩되지 않는다. 새로운 세대의 3D 비디오 코딩(3DVC)의 최근 표준화 개발에서는, 텍스처 데이터, 깊이 데이터, 및 카메라 파라미터 모두 코딩된다. 예를 들어, 도 1은 표준에 따른 비디오 코더가 베이스-뷰(base-view) 비디오에 사용되는 경우 3D 비디오 코딩에 대한 일반 예측 구조를 예시한다. 들어오는 3D 비디오 데이터는 복수의 뷰들에 대응하는 이미지(110-0, 110-1, 110-2, ...)로 구성된다. 각각의 뷰에 대하여 수집된 이미지들은 대응하는 뷰에 대한 이미지 시퀀스를 형성한다. 보통, 베이스 뷰(독립 뷰로도 불림)에 대응하는 이미지 시퀀스(110-0)는 H.264/AVC 또는 HEVC(High Efficiency Video Coding)와 같은 비디오 코딩 표준에 따른 비디오 코더(130-0)에 의해 독립적으로 코딩된다. 종속(dependent) 뷰(즉, 뷰 1, 2, ...)와 연관된 이미지 시퀀스에 대한 비디오 코더(130-1, 130-2, ...)는 시간 예측에 더하여 인터-뷰(inter-view) 예측을 더 이용한다. 인터-뷰 예측은 도 1에서 짧은 점선으로 나타나 있다.
상호작용 애플리케이션을 지원하기 위하여, 각자의 뷰에서의 장면과 연관된 깊이 맵(120-0, 120-1, 120-2, ...)이 또한 비디오 비트 스트림에 포함된다. 깊이 맵과 연관된 데이터를 감소시키기 위하여, 깊이 맵은 깊이 맵 코더(140-0, 140-1, 140-2, ...)를 사용하여 압축되고, 압축된 깊이 맵 데이터는 도 1에 도시된 바와 같이 비트 스트림에 포함된다. 이미지 코더 및 깊이 맵 코더로부터 압축된 데이터를 결합하기 위해 멀티플렉서(150)가 사용된다. 깊이 정보는 선택된 중간 뷰포인트에서의 가상 뷰들을 합성하는데 사용될 수 있다. 선택된 뷰에 대응하는 이미지는 또다른 뷰에 대응하는 이미지에 기초한 인터-뷰 예측을 사용하여 코딩될 수 있다. 이 경우에, 선택된 뷰에 대한 이미지는 종속 뷰라 지칭된다.
HEVC 기반의 3D 비디오 코딩 버전 3.1(HTM3.1)에 대한 기준 소프트웨어에서, 인접 뷰들의 미리 코딩된 모션 정보를 재사용하기 위하여 인터-뷰 후보가 인터(Inter), 병합(Merge) 및 스킵(Skip) 모드에 대한 모션 벡터(MV; motion vector) 또는 변이 벡터(DV; disparity vector) 후보로서 추가된다. HTM3.1에서, 코딩 유닛(CU; coding unit)이라 불리는, 압축을 위한 기본 단위는 2Nx2N 사각 블록이다. 각각의 CU는 미리 정의된 최소 크기에 도달할 때까지 4개의 더 작은 CU로 반복적으로 분할될 수 있다. 각각의 CU는 하나 이상의 예측 단위(PU; prediction unit)를 포함한다. 본 명세서의 나머지 부분에서, 용어 "현재 블록"은 명시적으로 지정되지 않는 한 PU를 지칭한다.
인접 뷰들의 미리 코딩된 텍스처 정보를 공유하도록, 모션 보상 예측(MCP; motion compensated prediction)에 대한 대안으로서 변이 보상 예측(DCP; disparity-compensated prediction)으로 알려져 있는 기술이 HTM3.1에 포함되었다. MCP는 동일한 뷰의 미리 코딩된 픽처들을 사용하는 픽처간 예측을 지칭하는 반면에, DCP는 동일한 액세스 유닛에서 다른 뷰의 미리 코딩된 픽처들을 사용하는 픽처간 예측을 지칭한다. 도 2는 MCP와 DCP를 통합한 3D 비디오 코딩 시스템의 예를 예시한다. DCP에 사용된 벡터(210)는 변이 벡터(DV)라 불리며, 이는 MCP에서 사용되는 모션 벡터와 유사하다. 도 2는 MCP와 연관된 3개의 MV(220, 230 및 240)를 예시한다. 더욱이, DCP 블록의 DV는 또한, 인터-뷰 기준 픽처도 사용하는 시간 병치된(temporal collocated) 블록 또는 이웃 블록으로부터 도출된 변이 벡터 예측자(DVP; disparity vector predictor) 후보에 의해 예측될 수 있다. HTM3.1에서, 병합/스킵 모드에 대해 인터-뷰 병합 후보를 도출할 때, 대응하는 블록의 모션 정보가 이용 가능하지 않거나 유효하지 않은 경우, 인터-뷰 병합 후보는 DV로 교체된다.
인접 뷰들의 미리 코딩된 잔여 정보를 공유하도록, 현재 블록(PU)의 잔여 신호는 도 3에 도시된 바와 같이 인터-뷰 픽처 내의 대응하는 블록의 잔여 신호에 의해 예측될 수 있다. 대응하는 블록은 각자의 DV에 의해 위치를 찾을 수 있다 특정 카메라 위치에 대응하는 비디오 픽처 및 깊이 맵은 뷰 식별자(즉, 도 3의 V0, V1 및 V2)에 의해 나타난다. 동일 카메라 위치에 속하는 모든 비디오 픽처 및 깊이 맵은 동일한 뷰 Id(즉, 뷰 식별자)와 연관된다. 뷰 식별자는 액세스 유닛 내의 코딩 순서를 지정하고 오류나기 쉬운 환경에서 놓친 뷰를 검출하는데 사용된다. 액세스 유닛은 동일한 시간 순간에 대응하는 모든 비디오 픽처 및 깊이 맵을 포함한다. 액세스 유닛 내에, 0인 뷰 Id를 갖는 비디오 픽처 및 연관된 깊이 맵(존재할 때)이 먼저 코딩되고, 그 다음 1인 뷰 Id를 갖는 비디오 픽처 및 깊이 맵이 코딩되며, 등등 이어진다. 0인 뷰 Id(즉, 도 3의 V0)를 갖는 뷰는 또한 베이스 뷰 또는 독립 뷰로 지칭된다. 베이스 뷰 비디오 픽처는 다른 뷰에 대한 의존도 없이 종래의 HEVC 비디오 코더를 사용하여 코딩될 수 있다.
도 3에서 볼 수 있듯이, 현재 블록에 대하여, 모션 벡터 예측자(MVP)/변이 벡터 예측자(DVP)는 인터-뷰 픽처 내의 인터-뷰 블록으로부터 도출될 수 있다. 다음에서, 인터-뷰 픽처 내의 인터-뷰 블록은 인터-뷰 블록으로 축약될 수 있다. 도출된 후보는 인터-뷰 후보(inter-view candidates)로 불리며, 이는 인터-뷰 MVP 또는 DVP일 수 있다. 또한, 이웃 뷰에서의 대응하는 블록은 인터-뷰 블록으로 불리고, 인터-뷰 블록은 현재 픽처 내의 현재 블록의 깊이 정보로부터 도출된 변이 벡터를 사용하여 위치가 찾아진다.
도 3에 도시된 예는 V0(즉, 베이스 뷰), V1, 및 V2로부터의 뷰 코딩 순서에 대응한다. 코딩될 현재 픽처 내의 현재 블록은 V2에 있다. HTM3.1에 따라, 미리 코딩된 뷰에서의 기준 블록의 모든 MV는, 인터-뷰 픽처가 현재 픽처의 기준 픽처 리스트에 없다 해도 인터-뷰 후보로서 간주될 수 있다. 도 3에서, 프레임(310, 320, 및 330)은 각각 시간 t1에서 뷰 V0, V1 및 V2로부터의 비디오 픽처 또는 깊이 맵에 대응한다. 블록 332는 현재 뷰에서의 현재 블록이고, 블록 312 및 322는 각각 V0 및 V1에서의 현재 블록이다. V0에서의 현재 블록(312)에 대하여, 인터-뷰 병치된 블록(314)의 위치를 찾는데 변이 벡터(316)가 사용된다. 마찬가지로, V1에서의 현재 블록(322)에 대하여, 인터-뷰 병치된 블록(324)의 위치를 찾는데 변이 벡터(326)가 사용된다. HTM3.1에 따라, 임의의 코딩된 뷰로부터의 인터-뷰 병치된 블록과 연관된 모션 벡터 또는 변이 벡터가 인터-뷰 후보에 포함될 수 있다. 따라서, 인터-뷰 후보의 수가 오히려 클 수 있으며, 이는 더 많은 프로세싱 시간 및 큰 저장 공간을 필요로 할 것이다. BD 레이트 또는 기타 성능 측정에 관련한 시스템 성능에 뚜렷한 영향을 야기하지 않고서 프로세싱 시간 및/또는 저장 요건을 감소시킬 방법을 개발하는 것이 바람직할 것이다.
3DV-HTM에서, 변이 벡터는 병합/스킵 모드에 대한 병합 후보로서 또는 인터 모드에 대한 DVP 후보로서 사용될 수 있다. 도출된 변이 벡터는 또한 인터-뷰 모션 예측 및 인터-뷰 잔여 예측에 대한 오프셋(offset) 벡터로서 사용될 수 있다. 오프셋 벡터로서 사용될 때, DV는 도 4a 및 도 4b에 도시된 바와 같이 공간(spatial) 또는 시간(temporal) 이웃 블록(neighboring block)으로부터 도출된다. 복수의 공간 및 시간 이웃 블록이 결정되고, 미리 결정된 순서에 따라 공간 및 시간 이웃 블록의 DV 이용가능성(availability)이 체크된다. 도 4a에 도시된 바와 같이, 공간 이웃 블록 세트는, 현재 블록의 하단-좌측 코너로부터 대각으로 가로지른 위치(즉, A0), 현재 블록의 좌측-하부 변 옆의 위치(즉, A1), 현재 블록의 상단-좌측 코너로부터 대각으로 가로지른 위치(즉, B2), 현재 블록의 상단-우측 코너로부터 대각으로 가로지른 위치(즉, B0), 및 현재 블록 상부-우측변 옆의 위치(즉, B1)를 포함한다. 도 4b에 도시된 바와 같이, 시간 이웃 블록 세트는 현재 블록의 중심의 위치(즉, BCTR) 및 시간 기준 픽처(temporal reference picture)에서 현재 블록의 하단 우측 코너로부터 대각으로 가로지른 위치(즉, RB)를 포함한다. 중심 위치 대신에, 시간 기준 픽처에서 현재 블록 내의 다른 위치(예를 들어, 하단-우측 블록)가 또한 사용될 수 있다. 다르게 말하자면, 현재 블록과 병치된 임의의 블록이 시간 블록 세트에 포함될 수 있다. 블록이 DV를 갖는 것으로서 식별되면, 체크 프로세스가 종료될 것이다. 도 4a에서 공간 이웃 블록에 대한 예시적인 탐색 순서는 (A1, B1, B0, A0, B2)이다. 도 4B에서 시간 이웃 블록에 대한 예시적인 탐색 순서는 (BR, BCTR)이다. 공간 및 시간 이웃 블록은 HEVC에서 AMVP 및 Merge 모드의 공간 및 시간 이웃 블록과 동일하다.
이웃 블록 세트(즉, 도 4a 및 도 4b에 도시된 바와 같은 공간 및 시간 이웃 블록)에서 DCP 코딩된 블록이 발견되지 않는다면, DV-MCP 블록으로부터 얻은 변이 정보가 사용된다. 도 5는 DV-MCP 블록의 예를 예시하며, 여기에서 DV-MCP 블록(510)의 모션 정보는 인터-뷰 기준 픽처 내의 대응하는 블록(520)으로부터 예측된다. 대응하는 블록(520)의 위치는 변이 벡터(530)에 의해 지정된다. DV-MCP 블록에 사용되는 변이 벡터는 현재 및 인터-뷰 기준 픽처 사이의 모션 대응을 나타낸다. 대응하는 블록(520)의 모션 정보(522)는 현재 뷰에서의 현재 블록(510)의 모션 정보(512)를 예측하는데 사용된다.
MCP 블록이 DV-MCP 코딩되어 있는지 여부를 나타내고 인터-뷰 모션 파라미터 예측에 대한 변이 벡터를 저장하기 위하여, 각각의 블록에 대해 모션 벡터 정보를 나타내는데 2가지 변수가 사용된다:
- dvMcpFlag, 및
- dvMcpDisparity.
dvMcpFlag가 1일 때, dvMcpDisparity는 변이 벡터가 인터-뷰 모션 파라미터 예측에 사용됨을 나타내도록 설정된다. AMVP 및 Merge 후보 리스트에 대한 구성 프로세스에서, 후보의 dvMcpFlag는 후보가 인터-뷰 모션 파라미터 예측에 의해 생성되는 경우 1로 설정되고, 그렇지 않은 경우에는 0으로 설정된다. DV-MCP 블록으로부터의 변이 벡터는 다음 순서로 사용된다: A0, A1, B0, B1, B2, Col(즉, 병치된 블록, BCTR 또는 RB).
상기 설명에 예시된 바와 같이, DV 도출 프로세스는 다양한 공간 및 시간 이웃 블록을 수반한다. 시스템 성능에 뚜렷한 영향을 미치지 않고서 DV 도출의 복잡도를 감소시키는 것이 바람직하다.
3차원 비디오 인코딩 또는 디코딩 방법이 개시된다. 하나의 실시예에서, 방법은, 제한된(constrained) 변이 벡터를 생성하도록 변이 벡터를 제한하며, 제한된 변이 벡터의 수평 성분, 수직 성분, 또는 수평 성분과 수직 성분 둘 다 0으로 또는 1/4 픽셀과 같은 DV 정밀도(precision)의 M 내지 N 단위들의 범위 내로 제한되고, M과 N은 정수이다. 그 다음, 제한된 변이 벡터에 기초하여 현재 프레임의 현재 블록에 인터-뷰 예측 인코딩 또는 디코딩이 적용된다. 인터-뷰 예측 인코딩 또는 디코딩은, 제한된 변이 벡터에 기초하여 변이 보상 예측(DCP), 인터-뷰 모션 예측, 또는 인터-뷰 잔여 예측에 대해 인터-뷰 픽처 내의 대응하는 블록의 위치를 찾는 것을 포함할 수 잇다. 인터-뷰 예측 인코딩 또는 디코딩은 제한된 변이 벡터에 기초하여 DCP 블록의 제2 변이 벡터를 예측하는 것을 포함할 수 있다. 또한, 인터-뷰 예측 인코딩 또는 디코딩은, 인터-뷰 픽처 내의 대응하는 블록의 모션 정보가 인터-뷰 병합 후보 도출에 이용 가능하지 않거나 유효하지 않은 경우 제한된 변이 벡터에 기초하여 이용 불가능한 인터-뷰 모션 벡터를 교체하는 것을 포함할 수 있다. 3차원 비디오 인코딩 또는 디코딩 시스템의 복수의 카메라들의 광학 축들이 수평/수직 평면에서 평행하도록 구성되고, 어떠한 수직/수평 변이도 존재하지 않도록 복수의 카메라들과 연관된 뷰들이 정류되는(rectified) 경우, 변이 벡터의 수직/수평 성분은 0으로 또는 DV 정밀도의 M 내지 N 단위들의 범위 내로 제한될 수 있다. 제1 변이 벡터를 제한하는 것이 턴온되는지 아니면 턴오프되는지 나타내도록 하나의 구문 요소(syntax element)가 시퀀스 레벨, 뷰 레벨, 픽처 레벨, 슬라이스 레벨, LCU 레벨, CU 레벨, 또는 PU 레벨로 시그널링될 수 있다.
다른 실시예에서, 현재 프레임의 현재 블록의 변이 벡터 기반의 모션 보상 예측(DV-MCP)에 대해 도출된 변이 벡터가 현재 블록의 제한된 이웃 블록 세트로부터 결정된다. 그 다음, 도출된 변이 벡터에 기초하여 인터-뷰 예측 인코딩 또는 디코딩이 현재 블록에 적용된다. 제한된 이웃 블록 세트는 현재 블록의 좌측 상의 공간 이웃 블록, 현재 블록의 병치된 블록, 또는 둘 다에 대응할 수 있다. 제한된 이웃 블록 세트로부터 도출된 변이 벡터를 결정하기 위한 탐색 순서는 (A0, A1,Col), (A0, Col) 또는 (A1, Col)에 대응할 수 있는데, 여기에서 A1은 현재 블록의 하부-좌측변 옆의 위치에 대응하고, A0은 현재 블록의 하단-좌측 코너로부터 대각으로 가로지른 위치에 대응하고, Col은 현재 블록과 병치된 위치에 대응한다. 다른 실시예에서, 도출된 변이 벡터는 최대 코딩 단위(LCU; Largest Coding Unit)의 현재 블록의 이웃 블록에 기초하여 도출되며, 도출된 변이 벡터는 현재 블록의 제한된 이웃 블록 세트로부터 도출되고, 제한된 이웃 블록 세트는 병치된 LCU의 하부 경계 아래에 위치된 임의의 시간 이웃 블록을 제외하며, 병치된 LCU는 현재 블록을 포함하는 LCU와 시간적으로 병치된다. 실시예에서, 병치된 LCU의 하부 우측 코너로부터 대각으로 가로지른 우측-하부(RB; Right-Bottom) 위치에 대응하는 시간 이웃 블록은, 현재 블록이 LCU의 하부 행에 위치되는 경우, 제외된다.
또 다른 실시예에서, 현재 프레임의 현재 블록에 대한 변이 벡터 차이(DVD; disparity vector difference) 또는 모션 벡터 차이(MVD; motion vector difference)가, 변이 보상 예측(DCP)을 사용하여 3차원 비디오 인코딩 또는 디코딩 시스템에 대해 도출된 제1 변이 벡터(DV)에 따라, 또는 인터 모드 또는 진보된 모션 벡터 예측(AMVP; advanced motion vector prediction)을 사용하여 3차원 비디오 인코딩 또는 디코딩 시스템에 대한 제2 DV에 따라 결정되고, 제2 DV는 인터 또는 AMVP 후보로서 선택된다. DVD 또는 MVD는 제한된 DVD 또는 MVD를 생성하도록 제한되며, 제한된 DVD 또는 MVD의 수평 성분, 수직 성분, 또는 수평 성분과 수직 성분 둘 다 0으로 제한될 수 있고, DVD 또는 MVD의 전송 또는 파싱이 스킵될 수 있다. 제한된 DVD 또는 MVD에 기초하여 인터-뷰 예측 인코딩 또는 디코딩이 현재 블록에 적용된다.
또 다른 실시예에서, 도출된 변이 벡터는, 현재 블록의 인터-뷰 병합 후보가 이용 가능하지 않거나 유효하지 않은 경우 인터-뷰 병합 후보를 교체하도록 탐색 순서에 따라 현재 블록의 이웃 블록 세트의 모션 벡터에 기초하여 도출된다. 인터-뷰 병합 후보로서 도출된 변이 벡터에 기초하여 인터-뷰 예측 인코딩 또는 디코딩이 현재 블록에 적용된다. 이웃 블록 세트는 A0, A1, B0, B1, B2, 및 Col로 구성될 수 있으며, A0, A1, B0, B1, 및 B2는 각각, 현재 블록의 하단-좌측 코너로부터 대각으로 가로지른 위치, 하부-좌측변 옆의 위치, 상단-우측 코너로부터 대각으로 가로지른 위치, 상부-우측변 옆의 위치, 및 상단-좌측 코너로부터 대각으로 가로지른 위치에 대응하고, Col은 현재 블록과 병치된 위치에 대응한다. 도출된 변이 벡터는 탐색 순서에 따라 현재 블록의 이웃 블록 세트의 제1 또는 제2 이용가능한 모션 벡터에 대응할 수 있다. 오프셋 변이 벡터가 인터-뷰 병합 후보로서 사용될 수 있으며, 오프셋 값은 오프셋 변이 벡터를 생성하도록 도출된 변이 벡터의 수직 또는 수평 성분에 가산된다.
도 1은 3차원 비디오 코딩 시스템에 대한 예측 구조의 예를 예시한다.
도 2는 모션 보상 예측(MCP)에 대한 대안으로서 변이 보상 예측(DCP)을 통합한 3차원 코딩의 예를 예시한다.
도 3은 인접 뷰의 미리 코딩된 정보 또는 잔여 정보를 이용하는 3차원 코딩의 예를 예시한다.
도 4a 및 도 4b는 현재 블록에 대해 변이 벡터를 도출하기 위한 현재 블록의 각자의 공간 이웃 블록 및 시간 이웃 블록을 예시한다.
도 5는 변이 벡터 기반의 모션 보상 예측(DV-MCP) 블록의 예를 예시하며, 여기에서 대응하는 블록의 위치는 변이 벡터에 의해 지정된다.
도 6은 본 발명의 실시예에 따라 제한된 변이 벡터를 통합한 인터-뷰 예측 코딩 시스템의 예시적인 흐름도를 예시한다.
도 7은 본 발명의 실시예에 따라 변이 벡터를 도출하기 위해 제한된 이웃 블록 세트를 통합한 인터-뷰 예측 코딩 시스템의 예시적인 흐름도를 예시하며, 여기에서 현재 블록의 임의의 상위 DV-MCP 블록이 변이 벡터 도출로부터 제외된다.
도 8은 본 발명의 실시예에 따라 변이 벡터를 도출하기 위해 제한된 이웃 블록 세트를 통합한 인터-뷰 예측 코딩 시스템의 예시적인 흐름도를 예시하며, 여기에서 제한된 이웃 블록 세트는 병치된 최대 코딩 단위(LCU)의 하부 경계 아래에 위치된 임의의 시간 이웃 블록을 제외한다.
도 9는 본 발명의 실시예에 따라 제한된 변이 벡터 차이(DVD) 또는 모션 벡터 차이(MVD)를 통합한 인터-뷰 예측 코딩 시스템의 예시적인 흐름도를 예시한다.
도 10은 본 발명의 실시예에 따라 현재 블록의 인터-뷰 병합 후보가 이용가능하지 않거나 유효하지 않은 경우 인터-뷰 병합 후보를 교체하도록 도출된 변이 벡터를 통합한 인터-뷰 예측 코딩 시스템의 예시적인 흐름도를 예시한다.
앞서 언급한 바와 같이, HTM3.1에 사용된 인터-뷰 후보 도출은 특히 다수의 뷰를 갖는 시스템에 대하여 다수의 MV/DV 후보를 포함한다. 본 발명의 실시예는 도출된 변이 벡터의 데이터 범위, 또는 도출된 변이 벡터에 기초한 변이 벡터 차이 또는 모션 벡터 차이의 데이터 범위를 제한한다. 현재 블록에 대한 변이 벡터가 변이 보상 예측(DCP)에 사용되었지만, 본 발명의 실시예는 도출된 변이 벡터를 사용하는 다른 응용에도 확장된다. 예를 들어, 변이 벡터는 제한된 변이 벡터에 기초하여 변이 보상 예측(DCP) 인터-뷰 모션 예측, 또는 인터-뷰 잔여 예측에 대해 인터-뷰 픽처 내의 대응하는 블록의 위치를 찾는데 사용될 수 있다. 도출된 변이 벡터는 DCP 블록의 변이 벡터를 예측하는데 사용될 수 있다. 도출된 변이 벡터는 또한 인터-뷰 병합 후보가 이용 가능하지 않거나 유효하지 않은 경우 인터-뷰 병합 후보를 교체하는데 사용될 수 있다.
본 발명에 따른 실시예는 도출된 DV의 수평 성분, 수직 성분, 또는 수평 성분과 수직 성분 둘 다를 제한한다. 예를 들어, 도출된 DV의 수직 성분은 0으로 또는 1/4 픽셀, 1/2 픽셀, 또는 1/8 픽셀과 같이 DV 정밀도 단위의 M 내지 N의 범위 내로 한정될 수 있으며, 여기에서 M과 N은 정수이다. DV 정밀도는 통상적으로 MV 정밀도를 따르며, 현재 HEVC 표준에서 사용되는 MV 정밀도의 단위는 1/4 픽셀이다. 마찬가지로, 도출된 DV의 수평 성분은 0으로 또는 DV 정밀도 단위의 M 내지 N 범위 내로 강행될 수 있으며, 여기에서 M과 N은 정수이다. 3차원 비디오 시스템에서 복수의 카메라들의 광학 축들이 수평 평면에서 평행하도록 구성되고, 어떠한 수직 변이도 존재하지 않도록 뷰들이 정류되는 경우, DV의 수직 성분은 0으로 또는 범위 내로 강행된다. 복수의 카메라들의 광학 축들이 수직 평면에서 평행하도록 구성되고, 어떠한 수평 변이도 존재하지 않도록 뷰들이 정류되는 경우, DV의 수평 성분은 0으로 또는 범위 내로 강행된다. 도출된 DV에 대한 제한이 턴온되는지 아니면 턴오프되는지 나타내도록 하나의 구문 요소가 시퀀스 레벨, 뷰 레벨, 픽처 레벨, 슬라이스 레벨, LCU 레벨, CU 레벨, PU 레벨, 또는 기타 레벨로 시그널링될 수 있다.
본 발명의 하나의 양상은 이웃 DV-MCP 블록의 선택에 대한 제한을 다룬다. 예를 들어, DV를 도출할 때, 현재 블록의 병치된 블록 또는 현재 뷰에서의 현재 블록의 좌측변에 이웃하는 DV-MCP 블록만 사용될 수 있다. 현재 블록의 상단 블록으로부터의 어떠한 이웃 DV-MCP 블록도 사용되지 않으므로, 상단 LCU/매크로 블록 행의 DV 정보를 저장할 라인 버퍼를 사용할 필요가 없다. 예로서, DV-MCP 블록으로부터의 변이 벡터가 다음 순서로 사용될 수 있다: (A0, A1, Col), (A0, Col), (A1, Col), (A0, A1, RB 및/또는 BCTR), (A0, RB 및/또는 BCTR) 또는 (A1, RB 및/또는 BCTR), 여기에서 Col은 현재 블록과 병치된 시간 기준 픽처 내의 블록에 대응한다. 이웃 DV-MCP 블록에 대한 제한이 턴온되는지 아니면 턴오프되는지 나타내도록 하나의 구문 요소가 시퀀스 레벨, 뷰 레벨, 픽처 레벨, 슬라이스 레벨, LCU 레벨, CU 레벨, PU 레벨, 또는 기타 레벨로 시그널링될 수 있다.
본 발명의 다른 실시예에서, 현재 LCU의 하부 경계에 위치된 블록의 하단-우측 코너로부터 대각으로 가로지른 위치(즉, 도 4b의 RB)에 대응하는 시간 이웃 블록은 DV 도출 동안 후보 리스트로부터 제외된다. 이 경우에, 중심 위치 BCTR와 같은 다른 위치에 대응하는 시간 이웃 블록의 변이 벡터만 체크된다. 본 발명의 실시예는 병치된 LCU의 하부 경계 아래에 위치된 임의의 시간 이웃 블록을 제외하며, 병치된 LCU와 현재 블록을 포함한 LCU는 시간적으로 병치된다. 상기 제한은 메모리 요건을 감소시키고 그리고/또는 LCU 행에 기초하여 병렬 처리를 가능하게 할 수 있다. 시간 이웃 블록에 대한 제한이 턴온되는지 아니면 턴오프되는지 나타내도록 하나의 구문 요소가 시퀀스 레벨, 뷰 레벨, 픽처 레벨 또는 슬라이스 레벨로 시그널링될 수 있다.
상기 언급한 도출된 DV에 대한 제한(즉, 도출된 DV의 수평 성분, 수직 성분, 또는 수평 성분과 수직 성분 둘 다에 대한 제한, 이웃 DV-MCP 블록의 선택에 대한 제한, 및 시간 이웃 블록의 선택에 대한 제한)은 3차원 비디오 코딩에서 다양한 응용에 사용될 수 있다. 예를 들어, DCP, 인터-뷰 모션 예측 또는 인터-뷰 잔여 예측에 대해 기준 픽처 내의 대응하는 블록의 위치를 찾는데 DV가 사용될 상황에 제한이 적용될 수 있다. 제한은 DCP 블록(PU)의 DV, 즉 DV 예측자가 예측되어야 할 상황에 적용될 수 있다. 제한은 인터-뷰 병합 후보를 도출하는 상황에 적용될 수 있으며, 여기에서 인터-뷰 병합 후보는 대응하는 블록의 모션 정보가 이용 가능하지 않거나 유효하지 않은 경우 DV로 교체된다. 또한, 제한은 코딩 시스템이 인터-뷰 픽처 내의 대응하는 블록을 표시해야 할 필요가 있는 임의의 상황에 적용될 수 있다.
본 발명의 다른 양상은 DV 도출 동안 DV/MV 차이(DVD/MVD)에 대한 제한을 다룬다. 예를 들어, 도출된 DV가 DCP 블록을 예측하는데 사용될 때, DV/MV 차이(DVD/MVD)의 수직 성분이 0으로 강행되고, DVD 또는 MVD의 수직 성분을 전송할 필요가 없다. 마찬가지로, DV가 DCP 블록을 예측하는데 사용될 때, DV/MV 차이의 수평 성분은 0으로 강행되고, DVD 또는 MVD의 수평 성분을 전송할 필요가 없다. 3차원 비디오 시스템에서 복수의 카메라들의 광학 축들이 수평 평면에서 평행하도록 구성되고, 수직 변이가 존재하지 않도록 뷰들이 정류되는 경우, DV/MV 차이(DVD 또는 MVD)의 수직 성분은 0으로 강행되고, DVD 또는 MVD의 수직 성분을 전송할 필요가 없다. 3차원 비디오 시스템에서 복수의 카메라들의 광학 축들이 수직 평면에서 평행하도록 구성되고, 수평 변이가 존재하지 않도록 뷰들이 정류되는 경우, DV/MV 차이(DVD 또는 MVD)의 수평 성분은 0으로 강행될 수 있고, DVD 또는 MVD의 수평 성분을 전송할 필요가 없다. 도출된 DV의 수직 성분이 0으로 강행될 때, DV/MV 차이(DVD 또는 MVD)의 수직 성분은 0으로 강행될 수 있고 DVD 또는 MVD를 전송할 필요가 없다. DV의 수평 성분이 0으로 강행될 때, DV/MV 차이(DVD 또는 MVD)의 수평 성분도 또한 0으로 강행될 수 있고 DVD 또는 MVD를 전송할 필요가 없다. 상기 언급한 DV/MV 차이에 대한 제한은 항상 DVD 또는 MVD를 0인 것으로 한정하고 있지만, DVD 또는 MVD의 수직 성분, 수평 성분, 또는 수직 성분과 수평 성분 둘 다가 1/4 픽셀, 1/2 픽셀, 또는 1/8 픽셀과 같은 DV 정밀도의 M 내지 N 단위들의 범위 내로 제한될 수도 있으며, 여기에서 M과 N은 정수이다. DV/MV 차이에 대한 제한이 턴온되는지 아니면 턴오프되는지 나타내도록 하나의 구문 요소가 시퀀스 레벨, 뷰 레벨, 픽처 레벨, 슬라이스 레벨, LCU 레벨, CU 레벨, PU 레벨, 또는 다른 레벨로 시그널링될 수 있다.
본 발명의 또 다른 양상은 인터 모드 또는 AMVP에 대한 DV 변이에 대한 제한을 다룬다. 예를 들어, 인터 모드 또는 AMVP에서, DV/MV 차이(DVD/MVD)의 수직 성분은 0으로 강행될 수 있고, 선택된 후보가 DV일 때 DVD 또는 MVD를 전송할 필요가 없다. 마찬가지로, DV/MV 차이(DVD/MVD)의 수평 성분이 0으로 강행되고, DVD 또는 MVD를 전송할 필요가 없다. 대안으로서, DVD/MVD의 수직 성분, 수평 성분 또는 수직 성분과 수평 성분 둘 다가 DV 정밀도의 M 내지 N 단위들의 범위 내로 한정될 수 있으며, 여기에서 M과 N은 정수이다.
인터-뷰 병합 후보를 도출할 때, 대응하는 블록의 모션 정보가 이용 가능하지 않거나 유효하지 않은 경우, 인터-뷰 병합 후보는 DV로 교체될 수 있다. 병합 후보를 교체하기 위한 DV는 다음과 같이 도출될 수 있다. DV는 후보 블록 중에 처음 이용 가능한 DV에 기초하여 도출될 수 있다. 후보 블록은 공간 이웃 블록 및 시간 이웃 블록, 또는 공간 DV-MCP 블록 및 시간 DV-MCP 블록에 대응할 수 있다. 하나의 실시예에서, DV-MCP 블록 또는 공간 및 시간 이웃 블록의 처음 이용 가능한 DV에 기초하여 도출된 DV의 수평 또는 수직 성분만 인터-뷰 병합 후보를 교체하기 위한 DV로서 사용된다. 병합 후보를 교체하기 위한 DV는 또한, 후보 블록 중에 처음 이용 가능한 DV에 기초하여 도출된 DV의 수평 또는 수직 성분에 오프셋 값을 가산함으로써 도출될 수 있다. 오프셋 값은 -1, 1, -2, 2, -4, 또는 4와 같은 임의의 정수일 수 있다. DV는 또한 후보 블록 중에 두 번째 이용 가능한 DV일 수도 있다.
도 6은 본 발명의 실시예에 따라 제한된 변이 벡터를 통합한 3차원 인코딩 또는 디코딩 시스템의 예시적인 흐름도를 예시한다. 시스템은 단계 610에 도시된 바와 같이 현재 뷰에 대응하는 현재 텍스처 프레임의 현재 텍스처 블록과 연관된 제1 데이터를 수신한다. 인코딩에 대해, 현재 텍스처 블록과 연관된 제1 데이터는 오리지널 픽셀 데이터, 깊이 데이터, 또는 코딩될 현재 블록과 연관된 기타 정보(예를 들어, 모션 벡터, 변이 벡터, 모션 벡터 차이, 또는 변이 벡터 차이)에 대응한다. 제1 데이터는 또한 인터-뷰 예측될 잔여 픽셀 데이터에 대응할 수 있다. 후자의 경우, 잔여 픽셀 데이터는 잔여 픽셀 데이터의 또다른 잔여 데이터를 생성하도록 인터-뷰 예측을 사용하여 더 예측된다. 디코딩에 대해, 제1 데이터는 잔여 데이터(잔여 픽셀 데이터 또는 깊이 데이터) 또는 픽셀 데이터나 깊이 데이터를 재구성하는데 사용될 또다른 잔여 데이터의 인터-뷰 잔여 데이터, 또는 현재 블록과 연관된 다른 압축 또는 코딩된 정보(예를 들어, 모션 벡터, 변이 벡터, 모션 벡터 차이, 또는 변이 벡터 차이)에 대응한다. 제1 데이터는 컴퓨터 메모리, 버퍼(RAM 또는 DRAM) 또는 기타 매체와 같은 저장장치로부터 검색될 수 있다. 제1 데이터는 또한 컨트롤러, 중앙 프로세싱 유닛, 디지털 신호 프로세서 또는 제1 데이터를 생성하는 전자 회로와 같은 프로세서로부터 수신될 수 있다. 단계 620에 도시된 바와 같이, 현재 블록에 대한 변이 벡터가 결정된다. 그 다음, 단계 630에 도시된 바와 같이, 변이 벡터는 제한된 변이 벡터를 생성하도록 제한되며, 제한된 변이 벡터의 수평 성분, 수직 성분, 또는 수평 성분과 수직 성분 둘 다가 0으로 또는 DV 정밀도의 M 내지 N 단위들의 범위 내로 제한되고, M과 N은 정수이다. 제한된 변이 벡터에 기초하여 인터-뷰 예측 인코딩 또는 디코딩이 제1 데이터에 적용된다.
도 7은 본 발명의 실시예에 따라 제한된 이웃 블록 세트를 통합한 3차원 인코딩 또는 디코딩 시스템의 예시적인 흐름도를 예시한다. 시스템은, 도 6의 단계 610과 유사한 단계 710에 도시된 바와 같이, 현재 뷰에 대응하는 현재 텍스처 프레임의 현재 텍스처 블록과 연관된 제1 데이터를 수신한다. 그 다음, 단계 720에서 현재 블록의 변이 벡터 기반의 모션 보상 예측(DV-MCP)에 대해 도출된 변이 벡터가 결정된다. 도출된 변이 벡터는 현재 블록의 제한된 이웃 블록 세트로부터 도출될 수 있다. 제한된 이웃 블록 세트는 현재 블록의 좌측변 상의 공간 이웃 블록, 현재 블록의 병치된 블록, 또는 둘 다에 대응한다. 도출된 변이 벡터가 얻어진 후에, 단계 730에 도시된 바와 같이, 도출된 변이 벡터에 기초하여 인터-뷰 예측 인코딩 또는 디코딩이 제1 데이터에 적용된다.
도 8은 본 발명의 실시예에 따라 제한된 이웃 블록 세트를 통합한 3차원 인코딩 또는 디코딩 시스템의 예시적인 흐름도를 예시한다. 시스템은, 도 6의 단계 610과 유사한 단계 810에 도시된 바와 같이, 현재 뷰에 대응하는 현재 텍스처 프레임 내의 LCU의 현재 텍스처 블록과 연관된 제1 데이터를 수신한다. 단계 820에 도시된 바와 같이, 도출된 변이 벡터는 현재 블록의 이웃 블록에 기초하여 도출된다. 도출된 변이 벡터는 현재 블록의 제한된 이웃 블록 세트로부터 도출되고, 제한된 이웃 블록 세트는 병치된 LCU의 하부 경계 아래에 위치된 임의의 시간 이웃 블록을 제외하며, 병치된 LCU 및 현재 블록을 포함한 LCU는 시간적으로 병치된다. 예를 들어, 병치된 LCU의 하부 우측 코너로부터 대각으로 가로지른 우측-하부(RB) 위치에 대응하는 시간 이웃 블록은, 현재 블록이 LCU의 하부 행에 위치되어 있는 경우, 제한된 이웃 블록 세트로부터 제외된다. 도출된 변이 벡터가 획득된 후에, 단계 830에 도시된 바와 같이, 도출된 변이 벡터에 기초하여 인터-뷰 예측 인코딩 또는 디코딩이 제1 데이터에 적용된다.
도 9는 본 발명의 실시예에 따라 제한된 변이 벡터 차이(DVD) 또는 모션 벡터 차이(MVD)를 통합한 3차원 인코딩 또는 디코딩 시스템의 예시적인 흐름도를 예시한다. 시스템은, 도 6의 단계 610과 유사한 단계 910에 도시된 바와 같이, 현재 뷰에 대응하는 현재 텍스처 프레임의 현재 텍스처 블록과 연관된 제1 데이터를 수신한다. 단계 920에서 현재 블록에 대한 변이 벡터 차이(DVD) 또는 모션 벡터 차이(MVD)가 결정된다. DVD 또는 MVD는 변이 보상 예측(DCP)을 사용하여 3차원 비디오 인코딩 또는 디코딩 시스템에 대해 도출되는 변이 벡터(DV)에 따라 결정될 수 있다. DVD 또는 MVD는 인터 모드 또는 AMVP를 사용하여 3차원 비디오 인코딩 또는 디코딩 시스템에 대한 DV에 따라 결정될 수 있고, DV는 인터 또는 AMVP 후보로서 선택된다. 그 다음, 단계 930에 도시된 바와 같이, 제한된 DVD 또는 MVD에 기초하여 인터-뷰 예측 인코딩 또는 디코딩이 제1 데이터에 적용된다.
도 10은 본 발명의 실시예에 따라 이용 불가능하거나 유효하지 않은 인터-뷰 병합 후보에 대해 변이 벡터를 교체하는 것을 통합한 3차원 인코딩 또는 디코딩 시스템의 예시적인 흐름도를 예시한다. 시스템은, 도 6의 단계 610과 유사한 단계 1010에 도시된 바와 같이, 현재 뷰에 대응하는 현재 텍스처 프레임의 현재 텍스처 블록과 연관된 제1 데이터를 수신한다. 현재 블록의 인터-뷰 병합 후보가 이용 가능하지 않거나 유효하지 않은 경우, 단계 1020에서, 인터-뷰 병합 후보를 교체하도록 탐색 순서에 따라 현재 블록의 이웃 블록 세트의 모션 벡터에 기초하여, 도출된 변이 벡터가 결정된다. 이웃 블록 세트는 A0, A1, B0, B1, B2, 및 Col로 구성되며, A0, A1, B0, B1, 및 B2는 각각, 현재 블록의 하단-좌측 코너로부터 대각으로 가로지른 위치, 하부-좌측변 옆의 위치, 상단-우측 코너로부터 대각으로 가로지른 위치, 상부-우측변 옆의 위치, 및 상단-좌측 코너로부터 대각으로 가로지른 위치에 대응하며, Col은 현재 블록과 병치된 위치에 대응한다. 단계 1030에 도시된 바와 같이, 인터-뷰 병합 후보로서 도출된 변이 벡터에 기초하여 인터-뷰 예측 인코딩 또는 디코딩이 제1 데이터에 적용된다.
상기에 나타낸 흐름도는 변이 벡터를 사용한 인터-뷰 예측의 예를 예시하고자 한 것이다. 당해 기술 분야에서의 숙련자라면, 본 발명의 사상에서 벗어나지 않고서 본 발명을 실시하도록 각각의 단계를 수정하거나 단계들을 재배열하거나 단계를 분할하거나 단계들을 결합할 수 있을 것이다.
상기 기재는 당해 기술 분야에서의 통상의 지식을 가진 자가 특정 응용 및 그의 요건에 대하여 제공된 대로 본 발명을 실시할 수 있게 하도록 제시된 것이다. 기재된 실시예에 대한 다양한 수정이 당해 기술 분야에서의 숙련자에게 명백할 것이며, 여기에 정의된 일반 원리는 다른 실시예에 적용될 수 있다. 따라서, 본 발명은 도시되고 기재된 특정 실시예에 한정되고자 하는 것이 아니며, 여기에 개시된 원리 및 신규의 특징에 따른 가장 넓은 범위가 부여되어야 할 것이다. 상기 상세한 설명에서, 다양한 구체적 세부사항은 본 발명의 완전한 이해를 제공하기 위해 예시된 것이다. 그러나, 본 발명이 실시될 수 있다는 것이 당해 기술 분야에서의 숙련자라면 이해할 것이다.
상기 기재된 본 발명의 실시예는 다양한 하드웨어, 소프트웨어 코드, 또는 이 둘의 조합으로 구현될 수 있다. 예를 들어, 본 발명의 실시예는 여기에 기재된 프로세싱을 수행하도록 비디오 압축 소프트웨어로 통합된 프로그램 코드 또는 비디오 압축 칩으로 통합된 회로일 수 있다. 본 발명의 실시예는 또한 여기에 기재된 프로세싱을 수행하도록 디지털 신호 프로세서(DSP; Digital Signal Processor) 상에 실행될 프로그램 코드일 수 있다. 본 발명은 또한 컴퓨터 프로세서, 디지털 신호 프로세서, 마이크로프로세서, 또는 FPGA(field programmable gate array)에 의해 수행될 다수의 기능을 수반할 수 있다. 이들 프로세서는 본 발명에 의해 구현되는 특정 방법을 정의하는 기계 판독가능한 소프트웨어 코드 또는 펌웨어 코드를 실행함으로써 본 발명에 따른 특정 태스크를 수행하도록 구성될 수 있다. 소프트웨어 코드 또는 펌웨어 코드는 상이한 프로그램 언어 및 상이한 포맷 또는 스타일로 개발될 수 있다. 소프트웨어 코드는 또한 상이한 타겟 플랫폼에 대하여 컴파일될 수 있다. 그러나, 본 발명에 따른 태스크를 수행하는 상이한 코드 포맷, 스타일 및 언어의 소프트웨어 코드 그리고 코드를 구성하는 다른 수단들이 본 발명의 사상 및 범위에서 벗어나지는 않을 것이다.
본 발명은 본 발명의 사상 또는 본질적 특징에서 벗어나지 않고서 다른 구체적 형태로 구현될 수 있다. 기재된 예는 모든 점에서 단지 예시적인 것으로 그리고 한정하는 것이 아닌 것으로 간주되어야 할 것이다. 따라서 본 발명은 전술한 설명이 아니라 첨부된 청구항에 의해 나타난다. 청구항의 등가물의 의미 및 범위 내에 속하는 모든 변경은 본 발명의 범위 내에 포함될 것이다.

Claims (19)

  1. 3차원 비디오 인코딩 또는 디코딩에 대한 방법에 있어서,
    현재 뷰(view)에 대응하는 현재 프레임의 현재 블록과 연관된 제1 데이터를 수신하는 단계;
    상기 현재 블록에 대한 제1 변이 벡터(disparity vector)를 결정하는 단계;
    제한된(constrained) 변이 벡터를 생성하도록 상기 제1 변이 벡터를 제한하는 단계 - 상기 제한된 변이 벡터의 수평 성분, 수직 성분, 또는 수평 성분과 수직 성분 둘 다가 0으로 또는 변이 벡터(DV; disparity vector) 정밀도(precision)의 M 내지 N(M과 N은 정수임) 단위들의 범위 내로 제한됨 - ; 및
    상기 제한된 변이 벡터에 기초하여 상기 제1 데이터에 인터-뷰(inter-view) 예측 인코딩 또는 디코딩을 적용하는 단계
    를 포함하는 3차원 비디오 인코딩 또는 디코딩 방법.
  2. 청구항 1에 있어서, 상기 인터-뷰 예측 인코딩 또는 디코딩은,
    상기 제한된 변이 벡터에 기초하여 변이 보상 예측(DCP; disparity compensated prediction), 인터-뷰 모션 예측, 또는 인터-뷰 잔여 예측에 대해 인터-뷰 픽처(picture) 내의 대응하는 블록의 위치를 찾거나;
    상기 제한된 변이 벡터에 기초하여 DCP 블록의 제2 변이 벡터를 예측하거나; 또는
    인터-뷰 픽처 내의 대응하는 블록의 모션 정보가 인터-뷰 병합(Merge) 후보 도출에 이용 가능하지 않거나 유효하지 않은 경우, 상기 제한된 변이 벡터에 기초하여 이용 불가능한 인터-뷰 모션 벡터를 교체하는 것
    을 포함하는 것인 3차원 비디오 인코딩 또는 디코딩 방법.
  3. 청구항 1에 있어서, 상기 3차원 비디오 인코딩 또는 디코딩 시스템의 복수의 카메라들의 광학 축들이 수평 평면에서 평행하도록 구성되고 어떠한 수직 변이도 존재하지 않도록 상기 복수의 카메라들과 연관된 뷰들이 정류되는(rectified) 경우, 상기 변이 벡터의 수직 성분은 0으로 또는 DV 정밀도의 M 내지 N 단위들의 범위 내로 제한되는 것인 3차원 비디오 인코딩 또는 디코딩 방법.
  4. 청구항 1에 있어서, 상기 3차원 비디오 인코딩 또는 디코딩 시스템의 복수의 카메라들의 광학 축들이 수직 평면에서 평행하도록 구성되고 어떠한 수평 변이도 존재하지 않도록 상기 복수의 카메라들과 연관된 뷰들이 정류되는 경우, 상기 변이 벡터의 수평 성분은 0으로 또는 DV 정밀도의 M 내지 N 단위들의 범위 내로 제한되는 것인 3차원 비디오 인코딩 또는 디코딩 방법.
  5. 청구항 1에 있어서, 상기 제1 변이 벡터를 제한하는 단계가 턴온되는지 아니면 턴오프되는지 나타내도록 하나의 구문 요소가 시퀀스 레벨, 뷰 레벨, 픽처 레벨, 슬라이스 레벨, LCU 레벨, CU 레벨, 또는 PU 레벨로 시그널링되는 것인 3차원 비디오 인코딩 또는 디코딩 방법.
  6. 3차원 비디오 인코딩 또는 디코딩에 대한 방법에 있어서,
    현재 뷰에 대응하는 현재 프레임의 현재 블록과 연관된 제1 데이터를 수신하는 단계;
    상기 현재 블록의 변이 벡터 기반의 모션 보상 예측(DV-MCP; disparity-vector based motion-compensated-prediction)에 대해 도출된 변이 벡터를 결정하는 단계 - 상기 도출된 변이 벡터는 상기 현재 블록의 제한된 이웃 블록 세트로부터 도출되며, 상기 제한된 이웃 블록 세트는 상기 현재 블록의 좌측 상의 하나 이상의 공간 이웃 블록, 상기 현재 블록의 하나 이상의 병치된(collocated) 블록, 또는 상기 현재 블록의 좌측 상의 하나 이상의 공간 이웃 블록과 상기 현재 블록의 하나 이상의 병치된 블록 둘 다에 대응함 - ; 및
    상기 도출된 변이 벡터에 기초하여 상기 제1 데이터에 인터-뷰 예측 인코딩 또는 디코딩을 적용하는 단계
    를 포함하는 3차원 비디오 인코딩 또는 디코딩 방법.
  7. 청구항 6에 있어서, 상기 제한된 이웃 블록 세트로부터 상기 도출된 변이 벡터를 결정하기 위한 탐색 순서(search order)는 (A0, A1, Col), (A0, Col) 또는 (A1, Col)에 대응하며, 여기에서 A0은 현재 블록의 하단-좌측 코너로부터 대각으로 가로지른 제1 위치에 대응하고, A1은 현재 블록의 하부-좌측변 옆의 제2 위치에 대응하고, Col은 현재 블록과 병치된 제3 위치에 대응하는 것인 3차원 비디오 인코딩 또는 디코딩 방법.
  8. 청구항 6에 있어서, 상기 인터-뷰 예측 인코딩 또는 디코딩은,
    상기 도출된 변이 벡터에 기초하여 변이 보상 예측(DCP), 인터-뷰 모션 예측, 또는 인터-뷰 잔여 예측에 대해 인터-뷰 픽처 내의 대응하는 블록의 위치를 찾거나;
    상기 도출된 변이 벡터에 기초하여 DCP 블록의 변이 벡터를 예측하거나; 또는
    인터-뷰 픽처 내의 대응하는 블록의 모션 정보가 인터-뷰 병합 후보 도출에 이용 가능하지 않거나 유효하지 않은 경우, 상기 도출된 변이 벡터에 기초하여 이용 불가능한 인터-뷰 모션 벡터를 교체하는 것
    을 포함하는 것인 3차원 비디오 인코딩 또는 디코딩 방법.
  9. 청구항 6에 있어서, 상기 제한된 이웃 블록 세트에 기초하여 상기 현재 블록의 DV-MCP에 대해 도출된 변이 벡터를 결정하는 단계가 턴온되는지 아니면 턴오프되는지 나타내도록 하나의 구문 요소가 시퀀스 레벨, 뷰 레벨, 픽처 레벨, 슬라이스 레벨, LCU 레벨, CU 레벨, 또는 PU 레벨로 시그널링되는 것인 3차원 비디오 인코딩 또는 디코딩 방법.
  10. 3차원 비디오 인코딩 또는 디코딩에 대한 방법에 있어서,
    현재 뷰에 대응하는 현재 프레임에서 최대 코딩 단위(LCU; Largest Coding Unit)의 현재 블록과 연관된 제1 데이터를 수신하는 단계;
    상기 현재 블록의 이웃 블록에 기초하여 도출된 변이 벡터를 결정하는 단계 - 상기 도출된 변이 벡터는 상기 현재 블록의 제한된 이웃 블록 세트로부터 도출되고, 상기 제한된 이웃 블록 세트는 병치된 LCU의 하부 경계 아래에 위치된 임의의 시간 이웃 블록을 제외하며, 상기 병치된 LCU 및 상기 현재 블록을 포함하는 LCU는 시간적으로 병치됨 - ; 및
    상기 도출된 변이 벡터에 기초하여 상기 제1 데이터에 인터-뷰 예측 인코딩 또는 디코딩을 적용하는 단계
    를 포함하는 3차원 비디오 인코딩 또는 디코딩 방법.
  11. 청구항 10에 있어서, 상기 인터-뷰 예측 인코딩 또는 디코딩은,
    상기 도출된 변이 벡터에 기초하여 변이 보상 예측(DCP), 인터-뷰 모션 예측, 또는 인터-뷰 잔여 예측에 대해 인터-뷰 픽처 내의 대응하는 블록의 위치를 찾거나;
    상기 도출된 변이 벡터에 기초하여 DCP 블록의 변이 벡터를 예측하거나; 또는
    인터-뷰 픽처 내의 대응하는 블록의 모션 정보가 인터-뷰 병합 후보 도출에 이용 가능하지 않거나 유효하지 않은 경우, 상기 도출된 변이 벡터에 기초하여 이용 불가능한 인터-뷰 모션 벡터를 교체하는 것
    을 포함하는 것인 3차원 비디오 인코딩 또는 디코딩 방법.
  12. 청구항 10에 있어서, 상기 제한된 이웃 블록 세트에 기초하여 현재 블록의 변이 벡터 기반의 모션 보상 예측(DV-MCP)에 대해 도출된 변이 벡터를 결정하는 단계가 턴온되는지 아니면 턴오프되는지 나타내도록 하나의 구문 요소가 시퀀스 레벨, 뷰 레벨, 픽처 레벨, 슬라이스 레벨, LCU 레벨, CU 레벨, 또는 PU 레벨로 시그널링되는 것인 3차원 비디오 인코딩 또는 디코딩 방법.
  13. 청구항 10에 있어서, 상기 제한된 이웃 블록 세트는, 상기 현재 블록이 상기 LCU의 하부 행에 위치된 경우, 상기 병치된 LCU의 하부 우측 코너로부터 대각으로 가로지른 우측-하부(RB; Right Bottom) 위치에 대응하는 시간 이웃 블록을 제외하는 것인 3차원 비디오 인코딩 또는 디코딩 방법.
  14. 3차원 비디오 인코딩 또는 디코딩에 대한 방법에 있어서,
    현재 뷰에 대응하는 현재 프레임의 현재 블록과 연관된 제1 데이터를 수신하는 단계;
    상기 현재 블록에 대한 변이 벡터 차이(DVD; disparity vector difference) 또는 모션 벡터 차이(MVD; motion vector difference)를 결정하는 단계 - 상기 DVD 또는 상기 MVD는 변이 보상 예측(DCP)을 사용하여 3차원 비디오 인코딩 또는 디코딩 시스템에 대해 도출된 제1 변이 벡터(DV)에 따라 결정되거나, 또는 상기 DVD 또는 상기 MVD는 인터(Inter) 모드 또는 진보된 모션 벡터 예측(AMVP; advanced motion vector prediction)을 사용하여 3차원 비디오 인코딩 또는 디코딩 시스템에 대한 제2 DV에 따라 결정되고, 상기 제2 DV는 인터 또는 AMVP 후보로서 선택됨 - ;
    제한된 DVD 또는 MVD를 생성하도록 상기 DVD 또는 상기 MVD를 제한하는 단계 - 상기 제한된 DVD 또는 MVD의 수평 성분, 수직 성분, 또는 수평 성분과 수직 성분 둘 다가 0으로 제한되거나 또는 상기 DVD 또는 MVD의 전송 또는 파싱이 스킵됨 - ; 및
    상기 제한된 DVD 또는 MVD에 기초하여 상기 제1 데이터에 인터-뷰 예측 인코딩 또는 디코딩을 적용하는 단계
    를 포함하는 3차원 비디오 인코딩 또는 디코딩 방법.
  15. 청구항 14에 있어서, 상기 DVD 또는 MVD를 제한하는 단계가 턴온되는지 아니면 턴오프되는지 나타내도록 하나의 구문 요소가 시퀀스 레벨, 뷰 레벨, 픽처 레벨, 슬라이스 레벨, LCU 레벨, CU 레벨, 또는 PU 레벨로 시그널링되는 것인 3차원 비디오 인코딩 또는 디코딩 방법.
  16. 3차원 비디오 인코딩 또는 디코딩에 대한 방법에 있어서,
    현재 뷰에 대응하는 현재 프레임의 현재 블록과 연관된 제1 데이터를 수신하는 단계;
    상기 현재 블록의 인터-뷰 병합 후보가 이용 가능하지 않거나 유효하지 않은 경우 상기 인터-뷰 병합 후보를 교체하도록 탐색 순서에 따라 상기 현재 블록의 이웃 블록 세트의 모션 벡터에 기초하여 도출되는 도출된 변이 벡터를 결정하는 단계 - 상기 이웃 블록 세트는 A0, A1, B0, B1, B2 및 Col로 구성되며, A0, A1, B0, B1, 및 B2는 각각, 현재 블록의 하단-좌측 코너로부터 대각으로 가로지른 제1 위치, 하부-좌측변 옆의 제2 위치, 상단-우측 코너로부터 대각으로 가로지른 제3 위치, 상부-우측변 옆의 제4 위치, 및 상단-좌측 코너로부터 대각으로 가로지른 제5 위치에 대응하며, Col은 현재 블록과 병치된 제6 위치에 대응함 - ; 및
    상기 인터-뷰 병합 후보로서 상기 도출된 변이 벡터를 사용하여 상기 제1 데이터에 인터-뷰 예측 인코딩 또는 디코딩을 적용하는 단계
    를 포함하는 3차원 비디오 인코딩 또는 디코딩 방법.
  17. 청구항 16에 있어서, 상기 도출된 변이 벡터는 상기 탐색 순서에 따라 상기 현재 블록의 이웃 블록 세트의 제1 또는 제2 이용 가능한 모션 벡터에 대응하는 것인 3차원 비디오 인코딩 또는 디코딩 방법.
  18. 청구항 16에 있어서, 상기 도출된 변이 벡터의 수직 또는 수평 성분만 상기 인터-뷰 병합 후보로서 사용되는 것인 3차원 비디오 인코딩 또는 디코딩 방법.
  19. 청구항 16에 있어서, 오프셋(offset) 변이 벡터가 상기 인터-뷰 병합 후보로서 사용되며, 상기 오프셋 변이 벡터를 생성하도록 상기 도출된 변이 벡터의 수직 또는 수평 성분에 오프셋 값이 가산되는 것인 3차원 비디오 인코딩 또는 디코딩 방법.
KR1020157000592A 2012-07-27 2013-07-25 3d 비디오 코딩에서 변이 벡터 도출을 제한하는 방법 KR101638752B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261676686P 2012-07-27 2012-07-27
US61/676,686 2012-07-27
PCT/CN2013/080074 WO2014015807A1 (en) 2012-07-27 2013-07-25 Method of constrain disparity vector derivation in 3d video coding

Publications (2)

Publication Number Publication Date
KR20150032695A true KR20150032695A (ko) 2015-03-27
KR101638752B1 KR101638752B1 (ko) 2016-07-11

Family

ID=49996601

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157000592A KR101638752B1 (ko) 2012-07-27 2013-07-25 3d 비디오 코딩에서 변이 벡터 도출을 제한하는 방법

Country Status (5)

Country Link
US (2) US20150201215A1 (ko)
EP (2) EP3247116A1 (ko)
KR (1) KR101638752B1 (ko)
CN (2) CN107454426A (ko)
WO (1) WO2014015807A1 (ko)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140071235A1 (en) * 2012-09-13 2014-03-13 Qualcomm Incorporated Inter-view motion prediction for 3d video
AU2013321333B2 (en) * 2012-09-28 2017-07-27 Sony Corporation Image processing device and method
CN102946535B (zh) * 2012-10-09 2015-05-13 华为技术有限公司 预测块的视差矢量预测值获取的方法和装置
US9936219B2 (en) * 2012-11-13 2018-04-03 Lg Electronics Inc. Method and apparatus for processing video signals
FR3002716A1 (fr) 2013-02-26 2014-08-29 France Telecom Derivation de vecteur de mouvement de disparite, codage et decodage video 3d utilisant une telle derivation
US9521389B2 (en) * 2013-03-06 2016-12-13 Qualcomm Incorporated Derived disparity vector in 3D video coding
US9762905B2 (en) * 2013-03-22 2017-09-12 Qualcomm Incorporated Disparity vector refinement in video coding
US9667990B2 (en) 2013-05-31 2017-05-30 Qualcomm Incorporated Parallel derived disparity vector for 3D video coding with neighbor-based disparity vector derivation
JP6545672B2 (ja) * 2013-10-18 2019-07-17 エルジー エレクトロニクス インコーポレイティド マルチビュービデオコーディングにおいて、ビュー合成予測方法及びこれを利用したマージ候補リスト構成方法
WO2016143972A1 (ko) * 2015-03-11 2016-09-15 엘지전자(주) 비디오 신호의 인코딩/디코딩 방법 및 장치
US10645417B2 (en) * 2017-10-09 2020-05-05 Google Llc Video coding using parameterized motion model
KR102362513B1 (ko) * 2017-12-04 2022-02-14 주식회사 케이티 타임 슬라이스 영상을 생성하는 서버, 방법 및 사용자 단말
US10728542B2 (en) * 2018-04-09 2020-07-28 Tencent America LLC Methods and apparatuses for sub-block motion vector prediction
ES2972074T3 (es) * 2018-11-08 2024-06-11 Guangdong Oppo Mobile Telecommunications Corp Ltd Método de codificación/descodificación de señal de imagen, y dispositivo para el mismo
CN113574867B (zh) * 2019-01-12 2022-09-13 北京字节跳动网络技术有限公司 Mv精度约束
EP3939287A4 (en) 2019-04-25 2022-05-11 Beijing Bytedance Network Technology Co., Ltd. RESTRICTIONS ON DIFFERENCE BETWEEN MOVEMENT VECTORS
JP7436527B2 (ja) 2019-06-25 2024-02-21 北京字節跳動網絡技術有限公司 動きベクトルの差に関する制限
US11146818B1 (en) 2020-09-21 2021-10-12 Tencent America LLC Methods of intra picture block prediction for multi-view video compression
US11418810B2 (en) * 2020-09-21 2022-08-16 Tencent America LLC Methods of inter picture motion prediction for multi-view video compression

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102291579A (zh) * 2011-07-06 2011-12-21 北京航空航天大学 一种快速的多目立体视频分形压缩与解压缩方法

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5619256A (en) * 1995-05-26 1997-04-08 Lucent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
JP3055438B2 (ja) * 1995-09-27 2000-06-26 日本電気株式会社 3次元画像符号化装置
KR100751422B1 (ko) * 2002-12-27 2007-08-23 한국전자통신연구원 스테레오스코픽 비디오 부호화 및 복호화 방법, 부호화 및복호화 장치
KR100720722B1 (ko) * 2005-06-21 2007-05-22 삼성전자주식회사 중간영상 생성방법 및 이 방법이 적용되는 입체영상디스플레이장치
KR101227601B1 (ko) * 2005-09-22 2013-01-29 삼성전자주식회사 시차 벡터 예측 방법, 그 방법을 이용하여 다시점 동영상을부호화 및 복호화하는 방법 및 장치
MX2008003375A (es) * 2005-09-22 2008-03-27 Samsung Electronics Co Ltd Metodo para calcular vector de disparidad y metodo y aparato para codificar y descodificar pelicula de vision multiple utilizando el metodo de calculo de vector de disparidad.
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
US7817865B2 (en) * 2006-01-12 2010-10-19 Lg Electronics Inc. Processing multiview video
BRPI0815108A2 (pt) * 2007-08-15 2015-01-27 Thomson Licensing Métodos e aparelho para modo de avanço de movimento em vídeo codificado de multi-visitas com o uso de vetores de disparidade regional
CN101415115B (zh) * 2007-10-15 2011-02-02 华为技术有限公司 基于运动跳跃模式的视频编解码方法及其编解码器
WO2009131688A2 (en) * 2008-04-25 2009-10-29 Thomson Licensing Inter-view skip modes with depth
CN101540926B (zh) * 2009-04-15 2010-10-27 南京大学 基于h.264的立体视频编解码方法
CN101600108B (zh) * 2009-06-26 2011-02-02 北京工业大学 一种多视点视频编码中的运动和视差联合估计方法
US8633968B2 (en) * 2009-12-11 2014-01-21 Dish Network L.L.C. Three-dimensional recording and display system using near- and distal-focused images
EP2529551B1 (en) * 2010-01-27 2022-03-16 Dolby Laboratories Licensing Corporation Methods and systems for reference processing in image and video codecs
GB2478157A (en) * 2010-02-26 2011-08-31 Sony Corp Method and apparatus for cutting between a first and second image sequence in a stereoscopic video
CN101895749B (zh) * 2010-06-29 2012-06-27 宁波大学 一种快速视差估计和运动估计方法
CN101917619B (zh) * 2010-08-20 2012-05-09 浙江大学 一种多视点视频编码快速运动估计方法
CN102006480B (zh) * 2010-11-29 2013-01-30 清华大学 基于视间预测的双目立体视频的编码及解码方法
JP5092011B2 (ja) * 2010-12-17 2012-12-05 株式会社東芝 動画像復号装置及び動画像復号方法
US10171813B2 (en) * 2011-02-24 2019-01-01 Qualcomm Incorporated Hierarchy of motion prediction video blocks
WO2012128242A1 (ja) * 2011-03-18 2012-09-27 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US9247266B2 (en) * 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
US9131239B2 (en) * 2011-06-20 2015-09-08 Qualcomm Incorporated Unified merge mode and adaptive motion vector prediction mode candidates selection
KR20170005464A (ko) * 2011-08-30 2017-01-13 노키아 테크놀로지스 오와이 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
US9288506B2 (en) * 2012-01-05 2016-03-15 Qualcomm Incorporated Signaling view synthesis prediction support in 3D video coding
US9525861B2 (en) * 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US10200709B2 (en) * 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
EP2839660B1 (en) * 2012-04-16 2020-10-07 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
US9549180B2 (en) * 2012-04-20 2017-01-17 Qualcomm Incorporated Disparity vector generation for inter-view prediction for video coding
JP6422011B2 (ja) * 2012-05-11 2018-11-14 サン パテント トラスト 動画像符号化方法、動画像復号化方法、動画像符号化装置および動画像復号化装置
US20130336405A1 (en) * 2012-06-15 2013-12-19 Qualcomm Incorporated Disparity vector selection in video coding
US9325990B2 (en) * 2012-07-09 2016-04-26 Qualcomm Incorporated Temporal motion vector prediction in video coding extensions
US9635356B2 (en) * 2012-08-07 2017-04-25 Qualcomm Incorporated Multi-hypothesis motion compensation for scalable video coding and 3D video coding
US20140071235A1 (en) * 2012-09-13 2014-03-13 Qualcomm Incorporated Inter-view motion prediction for 3d video
US20140098883A1 (en) * 2012-10-09 2014-04-10 Nokia Corporation Method and apparatus for video coding
US9998760B2 (en) * 2012-11-16 2018-06-12 Hfi Innovation Inc. Method and apparatus of constrained disparity vector derivation in 3D video coding
WO2014107853A1 (en) * 2013-01-09 2014-07-17 Mediatek Singapore Pte. Ltd. Methods for disparity vector derivation
US9609347B2 (en) * 2013-04-04 2017-03-28 Qualcomm Incorporated Advanced merge mode for three-dimensional (3D) video coding

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102291579A (zh) * 2011-07-06 2011-12-21 北京航空航天大学 一种快速的多目立体视频分形压缩与解压缩方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
implification of disparity vector derivation for HEVC-based 3D video coding, Joint Collaborative Team on 3D Video Coding Extension Development of ITU-T SG 16 WP 3, JCT2-A0126 (2012.07.20.)* *
Inter-view motion prediction for HEVC-based 3D video coding, Joint Collaborative Team on 3D Video Coding Extension Development of ITU-T SG 16 WP 3, JCT2-A0049 (2012.07.20.)* *
Simplification on disparity vector derivation for HEVC-based 3D video coding, Joint Collaborative Team on 3D Video Coding Extension Development of ITU-T SG 16 WP 3, JCT2-A0047 (2012.07.20.)* *

Also Published As

Publication number Publication date
US20160309186A1 (en) 2016-10-20
WO2014015807A1 (en) 2014-01-30
KR101638752B1 (ko) 2016-07-11
CN104521236B (zh) 2017-10-20
CN104521236A (zh) 2015-04-15
EP3247116A1 (en) 2017-11-22
CN107454426A (zh) 2017-12-08
EP2878125A1 (en) 2015-06-03
US20150201215A1 (en) 2015-07-16
EP2878125A4 (en) 2016-10-12

Similar Documents

Publication Publication Date Title
KR101638752B1 (ko) 3d 비디오 코딩에서 변이 벡터 도출을 제한하는 방법
US10021367B2 (en) Method and apparatus of inter-view candidate derivation for three-dimensional video coding
JP6042536B2 (ja) 3dビデオ符号化におけるビュー間候補導出の方法と装置
CA2896905C (en) Method and apparatus of view synthesis prediction in 3d video coding
AU2013284038B2 (en) Method and apparatus of disparity vector derivation in 3D video coding
CA2891723C (en) Method and apparatus of constrained disparity vector derivation in 3d video coding
US20150172714A1 (en) METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING
EP2904800A1 (en) Method and apparatus of motion vector derivation 3d video coding
US20150365649A1 (en) Method and Apparatus of Disparity Vector Derivation in 3D Video Coding
JP2015525997A5 (ko)
WO2014005467A1 (en) Method and apparatus of inter-view motion vector prediction and disparity vector prediction in 3d video coding
US20150358598A1 (en) Method and apparatus of depth to disparity vector conversion for three-dimensional video coding
US10075690B2 (en) Method of motion information prediction and inheritance in multi-view and three-dimensional video coding

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190703

Year of fee payment: 4