KR20160003070A - 3d 비디오 코딩에서의 카메라 파라미터 시그널링의 방법 및 장치 - Google Patents
3d 비디오 코딩에서의 카메라 파라미터 시그널링의 방법 및 장치 Download PDFInfo
- Publication number
- KR20160003070A KR20160003070A KR1020157033487A KR20157033487A KR20160003070A KR 20160003070 A KR20160003070 A KR 20160003070A KR 1020157033487 A KR1020157033487 A KR 1020157033487A KR 20157033487 A KR20157033487 A KR 20157033487A KR 20160003070 A KR20160003070 A KR 20160003070A
- Authority
- KR
- South Korea
- Prior art keywords
- view
- flag
- camera parameters
- layer
- depth
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/187—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Library & Information Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
제어 플래그에 따라 비디오 비트스트림에서 카메라 파라미터들을 적응적으로 통합시키는 3차원 비디오 인코딩 및 디코딩 방법이 개시되어 있다. 제어 플래그는 복수의 심도-지향된 코딩 툴들과 연관된 개별적인 제어 플래그들의 조합에 기초하여 유도된다. 또 다른 제어 플래그는 현재의 계층에 대한 카메라 파라미터들에 대한 필요성이 있는지 여부를 표시하기 위하여 비디오 비트스트림에서 통합될 수 있다. 또 다른 실시형태에서, 제 1 플래그 및 제 2 플래그는 비디오 비트스트림에서의 각각의 계층 또는 각각의 뷰에 대한 카메라 파라미터들의 존재 및 로케이션을 적응적으로 제어하기 위하여 이용된다. 제 1 플래그는 각각의 계층 또는 뷰에 대한 카메라 파라미터들이 비디오 비트스트림에 존재하는지 여부를 표시한다. 제 2 플래그는 비디오 비트스트림에서의 각각의 계층 또는 뷰에 대한 카메라 파라미터 로케이션을 표시한다.
Description
관련 출원들에 대한 교차 참조
본 발명은 "Camera Parameter Signaling for 3D video coding(3D 비디오 코딩을 위한 카메라 파라미터 시그널링)"이라는 명칭으로 2013년 7월 19일자로 출원된 미국 특허 가출원 제61/856,321호, "Adaptive Camera Parameter Signaling for 3D video coding(3D 비디오 코딩을 위한 적응적 카메라 파라미터 시그널링)"이라는 명칭으로 2013년 7월 30일자로 출원된 미국 특허 가출원 제61/859,797호, "Restriction for Camera Parameter Signaling of 3D Video Coding(3D 비디오 코딩의 카메라 파라미터 시그널링에 대한 한정)"이라는 명칭으로 2013년 7월 31일자로 출원된 미국 특허 가출원 제61/860,707호, "Constraints on Camera Parameter Signaling of 3D Video Coding(3D 비디오 코딩의 카메라 파라미터 시그널링에 대한 제약들)"이라는 명칭으로 2013년 10월 14일자로 출원된 미국 특허 가출원 제61/890,366호, "Camera Parameter Signaling for 3D Video Coding(3D 비디오 코딩을 위한 카메라 파라미터 시그널링)"이라는 명칭으로 2013년 10월 15일자로 출원된 미국 특허 가출원 제61/891,201호, 및 "View Order Index based Camera Parameter Signaling for 3D Video Coding(3D 비디오 코딩을 위한 뷰 순서 인덱스 기반 카메라 파라미터 시그널링)"이라는 명칭으로 2013년 10월 30일자로 출원된 미국 특허 가출원 제61/897,364호에 대한 우선권을 주장한다. 미국 특허 가출원들은 그 전체가 참조를 위해 본원에 통합된다.
발명의 분야
본 발명은 3차원 비디오 코딩에 관한 것이다. 특히, 본 발명은 3D 비디오 코딩에서의 3차원(3D) 코딩 툴(coding tool)들을 위한 카메라 파라미터 시그널링에 관한 것이다.
3차원(3D) 텔레비전은 시청자들에게 선풍적인 시청 경험을 가져오도록 의도하는 최근의 기술 트렌드이었다. 3D 시청을 가능하게 하기 위하여 다양한 기술들이 개발되었다. 이들 중에서, 멀티-뷰 비디오는 그 중에서도 3D TV 애플리케이션을 위한 핵심 기술이다. 전통적인 비디오는 카메라의 관점으로부터 장면의 단일 뷰를 시청자들에게 제공하기만 하는 2차원(2D) 매체이다. 그러나, 멀티-뷰 비디오는 동적 장면들의 임의적인 뷰포인트(viewpoint)들을 제공할 수 있고, 시청자들에게 현실감을 제공한다.
멀티-뷰 비디오는 전형적으로, 복수의 카메라들을 동시에 이용하여 장면을 캡처함으로써 만들어지고, 여기서, 복수의 카메라들은 각각의 카메라가 하나의 뷰포인트로부터 장면을 캡처하도록 적당하게 위치된다. 따라서, 복수의 카메라들은 복수의 뷰들에 대응하는 복수의 비디오 시퀀스들을 캡처할 것이다. 더 많은 뷰들을 제공하기 위하여, 더 많은 카메라들이 뷰들과 연관된 많은 수의 비디오 시퀀스들을 갖는 멀티-뷰 비디오를 생성하기 위해 이용되었다. 따라서, 멀티-뷰 비디오는 저장하기 위한 큰 저장 공간 및/또는 송신하기 위한 높은 대역폭을 요구할 것이다. 그러므로, 멀티-뷰 비디오 코딩 기법들은 요구된 저장 공간 또는 송신 대역폭을 감소시키기 위한 분야에서 개발되었다.
간단한 접근법은 기존의 비디오 코딩 기법들을 각각의 단일-뷰 비디오 시퀀스에 독립적으로 간단하게 적용하고 상이한 뷰들 사이의 임의의 상관을 무시하는 것일 수도 있다. 이러한 코딩 시스템은 매우 비효율적일 것이다. 멀티-뷰 비디오 코딩의 효율을 개선시키기 위하여, 멀티-뷰 비디오 코딩은 인터-뷰 중복성(inter-view redundancy)을 활용한다. 다양한 3D 코딩 툴들은 현존하는 비디오 코딩 표준을 확장함으로써 개발되었거나 개발되고 있다. 예를 들어, H.264/AVC(advanced video coding; 진보된 비디오 코딩) 및 HEVC(high efficiency video coding; 고효율 비디오 코딩)를 멀티-뷰 비디오 코딩 (multi-view video coding; MVC) 및 3D 코딩으로 확장하기 위한 표준 개발 활동들이 있다.
3D-HEVC 및 3D-AVC를 위해 개발되었거나 개발되고 있는 다양한 3D 코딩 툴들은 다음과 같이 검토된다.
인접한 뷰들의 이전에 코딩된 텍스처 정보(texture information)를 공유하기 위하여, 디스패리티-보상된 예측(Disparity-Compensated Prediction; DCP)으로서 알려진 기법이 모션-보상된 예측(motion-compensated prediction; MCP)에 대한 대안적인 코딩 툴로서 3D-HTM 내에 포함되었다. MCP는 동일한 뷰의 이전에 코딩된 픽처(picture)들을 이용하는 인터-픽처 예측(inter-picture prediction)을 지칭하는 반면, DCP는 동일한 액세스 유닛에서의 다른 뷰들의 이전에 코딩된 픽처들을 이용하는 인터-픽처 예측(inter-picture prediction)을 지칭한다. 도 1은 MCP 및 DCP를 통합하는 3D 비디오 코딩 시스템의 예를 예시한다. DCP를 위해 이용된 벡터(110)는 MCP에서 이용된 모션 벡터(motion vector; MV)와 유사한 디스패리티 벡터(disparity vector; DV)로서 칭해진다. 도 1은 MCP와 연관된 3 개의 MV들(120, 130 및 140)을 예시한다. 게다가, DCP 블록의 DV는 또한, 인터-뷰 참조 픽처들을 또한 이용하는 이웃하는 블록들 또는 시간적 공동위치된 블록(temporal collocated block)들로부터 유도된 디스패리티 벡터 예측자(disparity vector predictor; DVP) 후보에 의해 또한 예측될 수 있다. 현재의 3D-HTM에서는, 병합/스킵(Merge/Skip) 모드들에 대한 인터-뷰 병합 후보를 유도할 때, 대응하는 블록의 모션 정보가 이용가능하지 않거나 유효하지 않을 경우에, 인터-뷰 병합 후보는 DV에 의해 대체된다.
인터-뷰 잔차 예측(Inter-view residual prediction)은 3D-HTM에서 이용된 또 다른 코딩 툴이다. 인접한 뷰들의 이전에 코딩된 잔차 정보를 공유하기 위하여, 현재의 예측 블록(즉, PU)의 잔차 신호는 도 2에서 도시된 바와 같이, 인터-뷰 픽처들에서의 대응하는 블록들의 잔차 신호들에 의해 예측될 수 있다. 대응하는 블록들은 각각의 DV들에 의해 위치될 수 있다. 특별한 카메라 위치에 대응하는 비디오 픽처들 및 심도 맵(depth map)들은 뷰 식별자(view identifier)(즉, 도 2에서의 V0, V1 및 V2)에 의해 표시된다. 동일한 카메라 위치에 속하는 모든 비디오 픽처들 및 심도 맵들은 동일한 viewIdx(즉, 뷰 순서 인덱스)와 연관된다. 뷰 순서 인덱스들은 액세스 유닛들 내의 코딩 순서를 특정하고 에러-빈발(error-prone) 환경들에서 누락 뷰(missing view)들을 검출하기 위하여 이용된다. 액세스 유닛은 동일한 시간 순간(time instant)에 대응하는 모든 비디오 픽처들 및 심도 맵들을 포함한다. 액세스 유닛의 내부에서는, 0과 동일한 viewIdx를 가지는 비디오 픽처와, 존재할 경우, 연관된 심도 맵이 먼저 코딩되고, 그 다음으로, 1과 동일한 viewIdx를 가지는 비디오 픽처 및 심도 맵이 코딩되는 등등과 같다. 0 과 동일한 viewIdx(즉, 도 2에서의 V0)를 갖는 뷰는 또한, 기본 뷰(base view) 또는 독립 뷰(independent view)로서 지칭된다. 기본 뷰 비디오 픽처들은 다른 뷰들에 대한 종속성 없이 기존의 HEVC 비디오 코더를 이용하여 코딩될 수 있다.
도 2에서 알 수 있는 바와 같이, 현재의 블록에 대하여, 모션 벡터 예측자(motion vector predictor; MVP)/디스패리티 벡터 예측자(disparity vector predictor; DVP)는 인터-뷰 픽처들에서의 인터-뷰 블록들로부터 유도될 수 있다. 이하에서는, 인터-뷰 픽처에서의 인터-뷰 블록들이 인터-뷰 블록들로서 축약될 수도 있다. 유도된 후보는, 인터-뷰 MVP들 또는 DVP들일 수 있는 인터-뷰 후보들로서 칭해진다. 다른 뷰들에서의 이전에 코딩된 모션 정보에 기초하여 현재의 블록(예컨대, 현재의 예측 유닛, PU)의 모션 정보를 코딩하는 코딩 툴들은 인터-뷰 모션 파라미터 예측(inter-view motion parameter prediction)으로서 칭해진다. 또한, 이웃하는 뷰에서의 대응하는 블록은 인터-뷰 블록으로서 칭해지고, 인터-뷰 블록은 현재의 픽처 내의 현재의 블록의 심도 정보로부터 유도된 디스패리티 벡터를 이용하여 위치된다.
도 2에서 도시된 예는 V0(즉, 기본 뷰)로부터 V1, 그 다음으로, V2까지의 뷰 코딩 순서에 대응한다. 코딩되고 있는 현재의 픽처에서의 현재의 블록은 V2 내에 있다. HTM3.1에 따르면, 이전에 코딩된 뷰들에서의 참조 블록들의 모든 MV들은, 인터-뷰 픽처들이 현재의 픽처의 참조 픽처 리스트 내에 없더라도 인터-뷰 후보로서 간주될 수 있다. 도 2에서, 프레임들(210, 220 및 230)은 각각 시간 t1에서의 뷰들 V0, V1 및 V2로부터의 비디오 픽처 또는 심도 맵에 대응한다. 블록(232)은 현재의 뷰에서의 현재의 블록이고, 블록들(212 및 222)은 각각 V0 및 V1에서의 공동위치된 현재의 블록들이다. V0에서의 공동위치된 현재의 블록(212)에 대하여, 디스패리티 벡터(216)는 인터-뷰 공동위치된 블록(214)을 위치시키기 위해 이용된다. 유사하게, V1에서의 공동위치된 현재의 블록(222)에 대하여, 디스패리티 벡터(226)는 인터-뷰 공동위치된 블록(224)을 위치시키기 위해 이용된다.
3D 시스템에서는, 참조 뷰에서의 심도 맵이 종속 뷰들에서의 텍스처 픽처들 이전에 코딩될 수도 있다. 그러므로, 코딩된 심도 정보는 추후의 텍스처 및 심도 코딩을 위해 유용해진다. 예를 들어, 텍스처 및 심도 컴포넌트들에 대한 프로세싱 순서는 V0, V1 및 V2를 가지는 시스템에 대해 T0, D0, T1, T2, D1 및 D2일 수도 있으며, 여기서, "T"는 텍스처를 지칭하고 "D"는 심도를 지칭한다. 기본 뷰(즉, V0)에서의 텍스처 픽처가 먼저 코딩되고, 그 다음으로, V0에서의 심도 맵이 코딩된다. 종속 뷰들에 대해서는, 텍스처 픽처들이 먼저 코딩되고, 그 다음으로, 심도 맵들이 코딩된다. 그러므로, 뷰 0에서의 코딩된 심도 맵은 코딩되어야 할 뷰 1에서의 텍스처 프레임에 대한 DV를 유도하기 위해 이용될 수 있다. 도 3은 가상 심도(virtual depth)에 의해 이용된 바와 같이, 심도를 디스패리티로 변환하는 기법의 예를 예시한다. 예측된 디스패리티 벡터(340)는 현재의 블록(CB, 310)에 대해 결정된다. 참조 뷰에서의 인터-뷰 참조 텍스처 블록(350)은 예측된 디스패리티 벡터(340)를 이용함으로써 현재의 블록(CB, 310)의 공동위치된 로케이션(310')으로부터 위치된다. 인터-뷰 참조 텍스처 블록(350)과 공동위치된 코딩된 D0에서의 대응하는 심도 블록(330)은 현재의 블록(CB, 310)으로부터 취출(retrieve)된다. 다음으로, 취출된 블록(330)은 DV를 유도하기 위하여 현재의 블록에 대한 가상 심도 블록(330')으로서 이용된다. 다음으로, 가상 심도 블록(330')과 연관된 심도 값들이 이용되고 디스패리티로 변환된다. 예를 들어, 가상 심도 블록(330')에서의 최대 값은 다양한 인터-뷰 코딩 툴들을 위한 디스패리티 벡터로 변환하기 위하여 이용될 수 있다.
현재의 3D-HEVC에서는, 디스패리티 보상된 예측(DCP)을 위해 이용된 디스패리티 벡터(DV)들이 AMVP(advanced motion vector prediction; 진보된 모션 벡터 예측) 및 병합 동작들에 대한 모션 벡터(MV)들과 유사한 방법으로서 명시적으로 송신되거나 묵시적으로 유도된다. 현재에는, DCP를 위한 DV를 제외하고, 다른 코딩 툴들을 위해 이용된 DV들은 이하에서 설명된 바와 같은 이웃하는 블록 디스패리티 벡터(neighboring block disparity vector; NBDV) 프로세스 또는 심도 지향된 이웃하는 블록 디스패리티(depth oriented neighboring block disparity; DoNBDV) 프로세스의 어느 하나를 이용하여 유도된다.
현재의 3D-HEVC에서는, 디스패리티 벡터가 인터 모드에 대한 DVP로서, 또는 병합/스킵 모드에 대한 병합 후보로서 이용될 수 있다. 유도된 디스패리티 벡터는 또한, 인터-뷰 모션 예측 및 인터-뷰 잔차 예측을 위한 오프셋 벡터(offset vector)로서 이용될 수 있다. 오프셋 벡터로서 이용될 때, DV는 도 4에서 도시된 바와 같이 공간적 및 시간적으로 이웃하는 블록들로부터 유도된다. 복수의 공간적 및 시간적으로 이웃하는 블록들이 결정되고, 공간적 및 시간적으로 이웃하는 블록들의 DV 이용가능성은 미리 정해진 순서에 따라 검사된다. 이웃하는 (공간적 및 시간적) 블록들에 기초한 DV 유도를 위한 이 코딩 툴은 이웃하는 블록 DV(Neighboring Block DV; NBDV)로서 칭해진다. 도 4a에서 도시된 바와 같이, 공간적으로 이웃하는 블록 세트는 현재의 블록의 하부-좌측 코너로부터 대각선으로 가로지른 로케이션(즉, A0), 현재의 블록의 좌측-하부 측면 바로 다음의 로케이션(즉, A1), 현재의 블록의 상부-좌측 코너로부터 대각선으로 가로지른 로케이션(즉, B2), 현재의 블록의 상부-우측 코너로부터 대각선으로 가로지른 로케이션(즉, B0), 및 현재의 블록의 상부-우측 측면 바로 다음의 로케이션(즉, B1)을 포함한다. 도 4b에서 도시된 바와 같이, 시간적으로 이웃하는 블록 세트는 시간적 참조 픽처에서, 현재의 블록의 중심에서의 로케이션(즉, BCTR), 및 현재의 블록의 하부-우측 코너로부터 대각선으로 가로지른 로케이션(즉, RB)을 포함한다. 중심 로케이션 대신에, 시간적 참조 픽처에서의 현재의 블록 내의 다른 로케이션들(예컨대, 하부-우측 블록)이 또한 이용될 수도 있다. 다시 말해서, 현재의 블록과 공동위치된 임의의 블록은 시간적 블록 세트 내에 포함될 수 있다. 일단 블록이 DV를 가지는 것으로서 식별되면, 검사 프로세스가 종결될 것이다. 도 4a에서의 공간적으로 이웃하는 블록들에 대한 예시적인 검색 순서는 (A1, B1, B0, A0, B2)이다. 도 4b에서의 시간적으로 이웃하는 블록들에 대한 예시적인 검색 순서는 (BR, BCTR)이다. 현재의 실시에서는, 2 개의 공동위치된 픽처들이 검사될 것이다.
DCP 코딩된 블록이 이웃하는 블록 세트(즉, 도 4a 및 도 4b에서 도시된 바와 같은 공간적 및 시간적으로 이웃하는 블록들)에서 발견되지 않을 경우, 디스패리티 정보는 DV-MCP로 명명된 또 다른 코딩 툴로부터 얻어질 수도 있다. 이 경우, 공간적으로 이웃하는 블록이 MCP 코딩된 블록이고, 그 모션이 도 5에서 도시된 바와 같이, 인터-뷰 모션 예측에 의해 예측될 때, 인터-뷰 모션 예측을 위해 이용된 디스패리티 벡터는 현재 및 인터-뷰 참조 픽처 사이의 모션 대응관계를 나타낸다. 이 타입의 모션 벡터는 인터-뷰 예측된 모션 벡터로서 지칭되고, 블록들은 DV-MCP 블록들로서 지칭된다. 도 5는 DV-MCP 블록의 예를 예시하며, 여기서, DV-MCP 블록(510)의 모션 정보는 인터-뷰 참조 픽처에서의 대응하는 블록(520)으로부터 예측된다. 대응하는 블록(520)의 로케이션은 디스패리티 벡터(530)에 의해 특정된다. DV-MCP 블록에서 이용된 디스패리티 벡터는 현재 및 인터-뷰 참조 픽처 사이의 모션 대응관계를 나타낸다. 대응하는 블록(520)의 모션 정보(522)는 현재의 뷰에서 현재의 블록(510)의 모션 정보(512)를 예측하기 위하여 이용된다.
MCP 블록이 DV-MCP 코딩되는지 여부를 표시하기 위하여, 그리고 인터-뷰 모션 파라미터들 예측을 위한 디스패리티 벡터를 저장하기 위하여, 2 개의 변수들은 각각의 블록에 대한 모션 벡터 정보를 나타내기 위해 이용된다.
- dvMcpFlag, 및
- dvMcpDisparity.
dvMcpFlag가 1과 동일할 때, dvMcpDisparity는 디스패리티 벡터가 인터-뷰 모션 파라미터 예측을 위해 이용됨을 표시하도록 설정된다. AMVP 모드 및 병합 후보 리스트에 대한 구성 프로세스에서, 후보의 dvMcpFlag는 후보가 인터-뷰 모션 파라미터 예측에 의해 생성될 경우에 1로 설정되고, 이와 다를 경우에는 0으로 설정된다. DCP 코딩된 블록들 또는 DV-MCP 코딩된 블록들의 어느 것도 상기 언급된 공간적 및 시간적으로 이웃하는 블록들에서 발견되지 않을 경우, 제로 벡터가 디폴트 디스패리티 벡터로서 이용될 수 있다.
심도 맵으로부터 더욱 정확한 디스패리티 벡터(이 개시물에서 세분화된 DV로서 지칭됨)를 추출함으로써 NBDV를 강화하기 위한 방법이 현재의 3D-HEVC에서 사용된다. 동일한 액세스 유닛에서의 코딩된 심도 맵으로부터의 심도 블록이 먼저 취출되고 현재의 블록의 가상 심도로서 이용된다. 구체적으로 말하면, 세분화된 DV는 NBDV를 이용하여 유도된 DV에 의해 위치되는 가상 심도 블록에서의 픽셀 서브세트의 최대 디스패리티로부터 변환된다. DV 유도를 위한 이 코딩 툴은 심도-지향된 NBDV(Depth-oriented NBDV; DoNBDV)로서 칭해진다. 다시, 세분화된 DV가 DoNBDV에 의해 유도될 수 없을 경우, 제로 벡터가 디폴트 DV로서 이용될 수 있다. 추정된 디스패리티 벡터는 도 5에서 도시된 가상 심도로부터 추출될 수 있다. 전체적인 흐름은 다음과 같다.
1. 코딩된 텍스처 뷰에서 대응하는 블록을 위치시키기 위하여, 현재의 3D-HTM에서의 NBDV인 추정된 디스패리티 벡터를 이용한다.
2. 현재의 블록(코딩 유닛)에 대한 코딩된 뷰에서의 대응하는 심도를 가상 심도로서 이용한다.
3. 이전 단계에서 취출된 가상 심도에서의 최대 값으로부터 인터-뷰 모션 예측을 위한 디스패리티 벡터(즉, 세분화된 DV)를 추출한다.
뷰 합성 예측(View synthesis prediction;(VSP)은 상이한 뷰포인트들로부터 비디오 신호 중에서 인터-뷰 중복성들을 제거하기 위한 기법이며, 합성 신호는 현재의 픽처를 예측하기 위한 참조들로서 이용된다. 3D-HEVC 테스트 모델, HTM-7.0에서는, NBDV(Neighboring Block Disparity Vector; 이웃하는 블록 디스패리티 벡터)로서 알려진 디스패리티 벡터 예측자를 유도하기 위한 프로세스가 존재한다. 다음으로, 유도된 디스패리티 벡터는 참조 뷰의 심도 이미지에서 심도 블록을 페치(fetch)하기 위하여 이용된다. 도 3에서 도시된 바와 같이 가상 심도를 유도하기 위한 절차는 코딩된 뷰에서 대응하는 심도 블록을 위치시키기 위하여 VSP에 대해 적용될 수 있다. 페치된 심도 블록은 현재의 예측 유닛(prediction unit; PU)의 동일한 사이즈를 가질 수도 있고, 다음으로, 그것은 현재의 PU에 대한 역방향 워핑(backward warping)을 행하기 위하여 이용될 것이다. 추가적으로, 워핑 동작은 도 6에서 도시된 바와 같이, 2x2 또는 4x4 블록들과 같은 서브-PU 레벨 정밀도(precision)에서 수행될 수도 있다.
도 6에서는, 뷰 1에서의 현재의 텍스처 블록(610)이 프로세싱되어야 한다. 예측된 디스패리티 벡터(640)는 현재의 블록의 공동위치된 로케이션(610')으로부터 인터-뷰 참조 텍스처 블록(650)을 위치시키기 위하여 이용된다. 텍스처 블록(650)에 대응하는 코딩된 뷰에서의 공동위치된 심도 블록(630)이 식별될 수 있다. 다음으로, 코딩된 심도 블록(630)은 역방향 워핑을 수행하기 위하여 현재의 블록에 대한 가상 심도 블록(630')으로서 이용된다. 현재의 블록(610)은 4 개의 서브-블록들로 분할된다. 또한, 가상 심도 블록이 4 개의 서브-블록들로 분할된다. 최대 심도 값은 서브-블록에 대한 디스패리티 벡터로 변환하기 위하여 각각의 서브-PU 블록에 대해 선택될 수도 있다. 그러므로, 4 개의 변환된 디스패리티 벡터들은 도 6에서의 4 개의 화살표들로서 도시된 바와 같이 얻어진다. 4 개의 디스패리티 벡터들은 서브-PU 블록들에서의 모드 픽셀들을 역방향 워핑하기 위하여 이용된다. 다음으로, 합성된 서브-블록들은 현재의 블록의 예측을 위하여 이용된다. 현재, 수평 디스패리티 벡터는 선택된 심도 값으로부터 변환된다. 역방향 VSP(backward VSP; BVSP) 기법은 텍스처 컴포넌트 코딩에 적용된다.
현재의 구현예에서, BVSP는 BVSP 예측의 이용을 시그널링하기 위하여 새로운 병합 후보로서 추가된다. 이러한 방법으로, BVSP 블록은 임의의 잔차를 갖지 않는 스킵된 블록, 또는 코딩된 잔차 정보를 갖는 병합 블록일 수도 있다.
위에서 설명된 바와 같이, DoNBDV 및 VSP와 같은 코딩 툴들은 심도 값들을 예측을 위한 하나 이상의 디스패리티 벡터(DV)들로 변환한다. 이러한 심도-지향된 코딩 툴들은 심도 대 디스패리티 변환을 위한 카메라 파라미터들을 필요로 한다. 예를 들어, 디스패리티 값 D는 심도 값, d의 선형 함수를 이용하여 심도로부터 변환될 수 있다.
상기 변환은 카메라 파라미터들 Zfar, Znear, 초점 길이 f, 및 병진(translation) I, 및 심도 데이터에 대한 데이터 정밀도 BitDepth를 요구한다. 상기 변환은 하기와 같이 간략화될 수 있다:
D = ( d * DisparityScale + DisparityOffset << BitDepth ) +
( 1 << ( log2Div - 1 ) ) ) >> log2Div,
(2)
여기서, DisparityScale은 스케일링 인자(scaling factor)이고, DisparityOffset는 오프셋 값이고, BitDepth는 전형적인 심도 데이터에 대해 8과 동일하고, log2Div는 디스패리티 벡터들의 요구된 정확도에 종속되는 시프트 파라미터이다. 식 (2)에 따른 간략화된 변환은 나눗셈 연산 대신에 산술 시프트(arithmetic shift)들을 이용한다.
비디오 스케일러빌러티(video scalability)를 개선시키기 위한 강화 계층들을 갖는 기본 계층을 코딩하는 스케일러블 비디오 코딩의 용어에 후속하여, 3D 비디오 코딩 시스템들은 상이한 뷰들 내의 각각의 텍스처/심도 시퀀스를 각각의 상이한 "계층"으로 분리한다. 각각의 계층은 계층 식별자 "LayerId"를 가진다. HTM-7.0(3D-HEVC 기반 테스트 모델 버전 7.0)에서는, 카메라 파라미터들이 계층이 비-심도(non-depth) 계층일 때에만 코딩된다. 심도 계층들만이 코딩되거나 심도 계층들이 텍스처 계층들 이전에 코딩될 경우, 카메라 파라미터들은 심도 지향된 코딩 툴들에 대해 이용가능하지 않을 것이다. 또한, HTM-7.0에서는, 카메라 파라미터들이 상이한 계층들 사이의 관계를 알지 못하면서 단일 계층의 정보를 레코딩하기만 하는 시퀀스 파라미터 세트(sequence parameter set; SPS)에서 전송된다. 심도 계층들 및 비-심도 계층들을 구별하기 위한 정보는, 심도 플래그 VpsDepthhFlag가 VPS에서 이용가능하기만 한 dimension_id로부터 유도될 때에 VPS(video parameter set; 비디오 파라미터 세트)에서 저장된다. VpsDepthFlag[nuh_layer_id]는 계층 id를 갖는 계층의 심도 플래그를 nuh_layer_id로서 특정한다. 표 1은 HTM-7.0에 따라 SPS에서 시그널링된 카메라 파라미터들에 대한 신택스를 예시한다. 표 1에서 도시된 바와 같이, cp_in_slice_header_flag는 카메라 파라미터들이 SPS 확장 또는 슬라이스 세그먼트 헤더 내에 있을 것인지 여부를 제어한다. cp_in_slice_header_flag가 0일 경우, 카메라 파라미터들(즉, cp_scale[i], cp_off[i], cp_inv_scale_plus_scale[ i ] 및 cp_inv_off_plus_off[ i ])은 SPS 확장 내에 통합될 것이다. 이와 다를 경우, 카메라 파라미터들은 슬라이스 세그먼트 헤더 내에 통합될 것이다. HTM-7.0에서, 카메라 파라미터들에서의 중복성은 VPS(비디오 파라미터 세트) 및 슬라이스 세그먼트 헤더 사이에 존재한다. 표 2는 3D HEVC 테스트 모델 3에 따라 슬라이스 헤더에서 시그널링된 카메라 파라미터들에 대한 신택스를 예시한다. 또한, 카메라 파라미터들에서의 중복성은 동일한 뷰에서의 텍스처 및 심도 계층들 사이에 존재한다. 일부의 상황들에서 이용불가능한 카메라 파라미터 및 카메라 파라미터들에서의 중복성의 쟁점들을 해결하기 위한 기법들을 개발하는 것이 바람직하다.
제어 플래그에 따라 비디오 비트스트림에서 카메라 파라미터들을 적응적으로 통합시키는 3차원 비디오 인코딩 및 디코딩 방법이 개시되어 있다. 제어 플래그는 복수의 심도-지향된 코딩 툴들과 연관된 개별적인 제어 플래그들의 조합에 기초하여 유도될 수 있다. 이 경우, 제어 플래그는 OR 연산들, 배타적 OR 연산들, AND 연산들, 또는 다른 논리 연산들만을 이용하여 개별적인 제어 플래그들로부터 유도될 수 있다. 복수의 심도-지향된 코딩 툴들과 연관된 개별적인 제어 플래그들은 비디오 비트스트림의 시퀀스 레벨, 뷰 레벨, 픽처 레벨 또는 슬라이스 레벨에서 시그널링될 수 있다. 대안적으로, 제어 플래그는 또한 비디오 비트스트림에서 시그널링될 수도 있다.
또 다른 제어 플래그는 현재의 계층에 대한 카메라 파라미터들에 대한 필요성이 있는지 여부를 표시하기 위하여 비디오 비트스트림 내에 통합될 수 있고, 다른 제어 플래그가 현재의 계층에 대한 카메라 파라미터들에 대한 필요성을 표시할 경우, 제어 플래그에 대한 값은 또한, 카메라 파라미터들이 현재의 계층에 대하여 시그널링됨을 표시하도록 설정된다. 또 다른 실시형태에서, 제어 플래그는 또 다른 제어 플래그 및 개별적인 제어 플래그들의 조합에 기초하여 유도된다. 다른 제어 플래그는 현재의 계층에 대한 카메라 파라미터들을 시그널링하기 위한 필요성을 표시하기 위하여 이용되고, 개별적인 제어 플래그들은 복수의 심도-지향된 코딩 툴들과 연관된다. 이 경우, 다른 제어 플래그는 비디오 비트스트림의 시퀀스 레벨, 뷰 레벨, 픽처 레벨 또는 슬라이스 레벨에서 시그널링될 수 있다. 또 다른 실시형태에서, 제어 플래그는 심도-지향된 코딩 툴들에 의해 한정되고, 제어 플래그는 심도-지향된 코딩 툴들 중 임의의 것이 사용가능하게 될 경우에 카메라 파라미터들이 현재의 계층에 대하여 시그널링됨을 표시하도록 한정된다.
제어 플래그는 코딩 툴 그룹으로부터 선택된 심도-지향된 코딩 툴들에 기초하여 유도될 수 있고, 코딩 툴 그룹은 뷰 합성 예측(VSP) 및 심도-지향된 이웃하는 블록 디스패리티 벡터(DoNBDV)를 포함한다. 제어 플래그는 또한, 심도-지향된 코딩 툴들에 기초하여 유도될 수도 있고, 심도-지향된 코딩 툴들은 카메라 파라미터들을 이용하여 심도 값들을 디스패리티 값들로 변환한다. 비디오 비트스트림에서의 카메라 파라미터들은 비디오 비트스트림의 시퀀스 레벨, 뷰 레벨, 픽처 레벨 또는 슬라이스 레벨에서 통합될 수 있다.
비디오 비트스트림에서 각각의 계층 또는 각각의 뷰에 대한 카메라 파라미터들의 존재 및 로케이션을 적응적으로 제어하기 위하여 제 1 플래그 및 제 2 플래그를 이용하는 3차원 비디오 인코딩 및 디코딩 방법. 제 1 플래그는 각각의 계층 또는 뷰에 대한 카메라 파라미터들이 비디오 비트스트림에 존재하는지 여부를 표시한다. 제 2 플래그는 비디오 비트스트림에서의 각각의 계층 또는 뷰에 대한 카메라 파라미터 로케이션을 표시한다. 하나의 실시형태에서, 카메라 파라미터들은 슬라이스 세그먼트 헤더에서 위치되고, 비디오 비트스트림에서의 슬라이스 세그먼트 헤더와 같은 카메라 파라미터 로케이션은 제 1 플래그 및 제 2 플래그의 논리 조합으로부터 유도된다. 복수의 제 2 플래그들은 각각의 계층 또는 뷰에 대한 비디오 비트스트림에서의 복수의 카메라 파라미터 로케이션들을 표시하기 위하여 이용될 수도 있고, 복수의 제 2 플래그들은 각각의 뷰에 대한 복수의 제 1 플래그들로부터 유도될 수 있다. 카메라 파라미터들이 선택된 뷰에 대해 존재하지 않을 경우, 제 1 플래그들은 선택된 뷰에 대하여 0인 것으로 추론된다.
또 다른 실시형태에서, 모든 계층들에 대한 제 1 플래그들, 제 2 플래그들 및 카메라 파라미터들은 동일한 뷰 순서 인덱스에 대해 동일하다. 카메라 파라미터들이 현재의 계층과 동일한 뷰 순서 인덱스를 갖는 이전의 계층에 대해 시그널링되거나, 제 1 플래그가 카메라 파라미터들이 현재의 계층과 동일한 뷰 순서 인덱스를 갖는 이전의 계층에 대해 존재함을 표시할 경우, 현재의 계층에 대한 제 1 플래그는 카메라 파라미터들이 현재의 계층에 대하여 존재하지 않음을 표시하도록 설정된다. 이 경우, 현재의 계층에 대한 카메라 파라미터들은 동일한 뷰 순서 인덱스를 갖는 이전의 계층의 카메라 파라미터들로부터 승계된다.
도 1은 모션-보상된 예측(MCP)에 대한 대안으로서 디스패리티-보상된 예측(DCP)을 통합시키는 3차원 비디오 코딩의 예를 예시한다.
도 2는 인접한 뷰들로부터의 이전에 코딩된 정보 또는 잔차 정보를 사용하는 3차원 비디오 코딩의 예를 예시한다.
도 3은 가상 심도가 심도를 디스패리티로 변환하기 위해 이용되는 가상 심도 유도의 예를 예시한다.
도 4a 내지 도 4b는 HTM-3.1에서 현재의 블록에 대한 디스패리티 벡터를 유도하기 위하여 현재의 블록의 각각의 공간적으로 이웃하는 블록들 및 시간적으로 이웃하는 블록들을 예시한다.
도 5는 모션-보상된 예측(DV-MCP) 블록으로부터의 디스패리티 유도의 예를 예시하며, 여기서, 대응하는 블록들의 로케이션은 디스패리티 벡터에 의해 특정된다.
도 6은 서브-블록들에 대해 동작하는 역방향 뷰 합성 예측(backward view synthesis prediction; BVSP)의 유도 프로세스의 예를 예시한다.
도 7은 제어 플래그에 따라 비디오 비트스트림에서 카메라 파라미터들을 적응적으로 통합시키는 3차원 비디오 디코딩의 예시적인 플로우차트를 예시한다.
도 8은 비디오 비트스트림에서 각각의 계층 또는 각각의 뷰에 대한 카메라 파라미터들의 존재 및 로케이션을 적응적으로 제어하기 위하여 제 1 플래그 및 제 2 플래그를 이용하는 3차원 비디오 디코딩의 예시적인 플로우차트를 예시한다.
도 2는 인접한 뷰들로부터의 이전에 코딩된 정보 또는 잔차 정보를 사용하는 3차원 비디오 코딩의 예를 예시한다.
도 3은 가상 심도가 심도를 디스패리티로 변환하기 위해 이용되는 가상 심도 유도의 예를 예시한다.
도 4a 내지 도 4b는 HTM-3.1에서 현재의 블록에 대한 디스패리티 벡터를 유도하기 위하여 현재의 블록의 각각의 공간적으로 이웃하는 블록들 및 시간적으로 이웃하는 블록들을 예시한다.
도 5는 모션-보상된 예측(DV-MCP) 블록으로부터의 디스패리티 유도의 예를 예시하며, 여기서, 대응하는 블록들의 로케이션은 디스패리티 벡터에 의해 특정된다.
도 6은 서브-블록들에 대해 동작하는 역방향 뷰 합성 예측(backward view synthesis prediction; BVSP)의 유도 프로세스의 예를 예시한다.
도 7은 제어 플래그에 따라 비디오 비트스트림에서 카메라 파라미터들을 적응적으로 통합시키는 3차원 비디오 디코딩의 예시적인 플로우차트를 예시한다.
도 8은 비디오 비트스트림에서 각각의 계층 또는 각각의 뷰에 대한 카메라 파라미터들의 존재 및 로케이션을 적응적으로 제어하기 위하여 제 1 플래그 및 제 2 플래그를 이용하는 3차원 비디오 디코딩의 예시적인 플로우차트를 예시한다.
위에서 설명된 바와 같이, 디스패리티 벡터(DV)는 3D-HEVC 및 3D-AVC의 양자를 위한 3D 비디오 코딩에서 중요하다. 일부의 3D 코딩 툴들에 대하여, 디스패리티 벡터들은 심도 데이터로부터 유도된다. 그러나, 기존의 3D 코딩 표준들에 따르면, 심도 데이터는 위에서 언급된 바와 같이 필요할 때에 이용가능하지 않을 수도 있다. 예를 들어, HTM-7.0에서는, 카메라 파라미터들이 계층이 비-심도 계층일 때에만 코딩된다. 심도 계층들만이 코딩되거나 심도 계층들이 텍스처 계층들 이전에 코딩될 경우, 카메라 파라미터들은 심도 지향된 코딩 툴들에 대해 이용가능하지 않을 것이다.
이 문제를 해소하기 위하여, 본 발명의 하나의 실시형태는 비-심도 계층들에 대해서 뿐만 아니라, 심도 대 디스패리티 변환을 위하여 심도에 대해 종속적인 코딩 툴들을 사용하는 계층들에 대해서도 카메라 파라미터들을 시그널링한다. 이 실시형태에 따르면, HTM 7.0 에서의 depth_refinement_flag 또는 view_synthesis_flag와 같은 적어도 하나의 플래그가 심도 지향된 코딩 툴들의 이용을 표시하기 위하여 유도되거나 코딩될 필요가 있다. 표 3에서의 다음의 신택스 예에서는, "depth_oriented_tools_flag"가 이러한 플래그를 나타내기 위해 이용된다. 플래그는 (depth_refinement_flag || view_synthesis_flag || ...)로 설정될 수 있다. 카메라 파라미터들은 depth_oriented_tools_flag에 따라 코딩된다. depth_oriented_tools_flag가 온(on)일 경우, 카메라 파라미터들이 송신된다. 검사 마크 "V"는 기존의 설계로부터의 변화를 표시하기 위하여 행(row)의 종단부에 배치되고, 변화는 굵은 글씨체 및 이탤릭 폰트 스타일로 된 텍스트에 의해 강조표시된다.
본 발명의 또 다른 실시형태는 카메라 파라미터들이 계층에 대해 필요한지 여부를 표시하기 위하여 제 1 플래그를 이용한다. 제 1 플래그가 1과 동일할 경우, 그것은 표시된 계층에 대한 카메라 파라미터들을 전송하기 위한 필요성이 있음을 표시하였다. 다음으로, 제 2 플래그는 카메라 파라미터들이 계층에 대해 전송되거나 전송되지 않는지 여부를 표시하기 위하여 유도되거나 코딩된다. 예를 들어, 제 1 플래그는 transmit_cp_flag로서 지정되고, 제 2 플래그는 code_cp_flag로서 지정된다. 신택스 엘리먼트(syntax element) code_cp_flag는 transmit_cp_flag 및 몇몇 다른 플래그들의 조합일 수 있다. 예를 들어, 다음의 식은 code_cp_flag가 transmit_cp_flag와, 카메라 파라미터들을 필요로 하는 코딩 툴들이 가능하게 되는지 또는 가능하게 되지 않는지 여부를 제어하는 다른 플래그들에 종속되는 것을 보여준다.
code_cp_flag[ layerId ] =
( transmit_cp_flag[ layerId ] || depth_refinement_flag[ layerId ] || view_synthesis_pred_flag[ layerId ] || other_tool_flag[ layerId ] || ...).
(2)
이 실시형태에 따른 신택스 설계의 예는 표 4에서 도시되어 있으며, 여기서, 카메라 파라미터들은 비-심도 계층에 대해서 뿐만 아니라, 심도로부터 디스패리티를 변환하기 위한 코딩 툴들을 사용하는 계층들에 대해서도 시그널링된다. 검사 마크 "V"는 기존의 설계로부터의 변화들을 표시하기 위하여 행들의 종단부에 배치되고, 변화들은 굵은 글씨체 및 이탤릭 폰트 스타일로 된 텍스트에 의해 강조표시된다.
상기 신택스 표에서, 1과 동일한 transmit_cp_flag[ layerId ]는 카메라 파라미터들이 layerId와 동일한 nuh_layer_id를 갖는 계층에 대해 전송될 필요가 있는 것을 특정한다. 존재하지 않을 때, transmit_cp_flag[ layerId ]는 0과 동일한 것으로 추론된다.
또 다른 실시형태에서, 플래그는 계층에 대한 카메라 파라미터들의 송신을 특정하기 위하여 코딩된다. 플래그가 1과 동일할 경우, 카메라 파라미터들은 표시된 계층에 대해 전송된다. 그러나, 시스템이 적당하게 동작할 것이라는 것을 보장하기 위하여, 플래그에 대해 한정이 부과된다. 카메라 파라미터들을 요구하는 코딩 툴들이 턴온(turn on) 되거나 가능하게 될 때, 플래그는 카메라 파라미터들을 제공하기 위하여 마찬가지로 턴온되어야 한다.
이 실시형태에 따른 신택스 설계의 예는 표 5에서 도시되어 있으며, 여기서, 카메라 파라미터들은 비-심도 계층에 대해서 뿐만 아니라, 심도를 디스패리티로 변환할 필요가 있는 코딩 툴들을 사용하는 계층들에 대해서도 전송된다. 카메라 파라미터들을 요구하는 코딩 툴들이 가능하게 될 때, transmit_cp_flag[ layered ]는 1의 값으로 코딩되어야 한다. 존재하지 않을 때, transmit_cp_flag[ layerId ]는 0과 동일한 것으로 추론된다. 표에서의 예는 VPS에서 카메라 파라미터들을 송신할 것인지 여부를 제어하기 위하여 transmit_cp_flag[ layered ]의 이용을 예시한다. 유사하게, 플래그는 SPS(시퀀스 파라미터 세트) 또는 슬라이스 헤더에서의 카메라 파라미터들을 송신할 것인지 여부를 제어하기 위하여 이용될 수 있다. 검사 마크 "V"는 기존의 설계로부터의 변화들을 표시하기 위하여 행들의 종단부에 배치되고, 변화들은 굵은 글씨체 및 이탤릭 폰트 스타일로 된 텍스트에 의해 강조표시된다.
3D-HEVC 테스트 모델 버전 8.0(HTM-8.0)에 따른 신택스 설계에서는, 슬라이스 세그먼트 헤더에서의 카메라 파라미터들과의 중복성 쟁점이 있다. 카메라 파라미터가 플래그, 1과 동일한 cp_present_flag[ layerId ]를 제공할 경우, 카메라 파라미터들은 이러한 계층(즉, layerId)에 대해 코딩된다. 심도 계층들만이 코딩되거나 심도 계층들이 텍스처 계층들 이전에 코딩될 경우, 심도 지향된 코딩 툴들은, 심도 지향된 코딩 툴이 이용될 경우에 cp_present_flag가 1일 것이라는 제약으로 인해 정상적으로 기능할 수 있다. 그러나, HTM-8.0에서는, 슬라이스 세그먼트 헤더 확장에서의 카메라 파라미터들이 cp_in_slice_segment_header_flag에 따라 코딩된다. 이 경우, cp_present_flag[ layerId ]가 0과 동일하더라도, 카메라 파라미터들은 어떤 계층에 대한 슬라이스 헤더 확장에서 여전히 전송될 수도 있다.
이 중복성 쟁점을 해결하기 위하여, 본 발명의 하나의 실시형태는 cp_present_flag 및 cp_in_slice_segment_header_flag 사이의 충돌을 방지하기 위하여 슬라이스 헤더 확장에 대해 제약을 부과한다. 예시적인 신택스 설계는 표 6에서 도시되어 있으며, 여기서, cp_present_flag[nuh_layer_id]에 대한 조건 검사는 카메라 파라미터들의 코딩을 추가로 한정하기 위하여 추가된다. 검사 마크 "V"는 기존의 설계로부터의 변화를 표시하기 위하여 행의 종단부에 배치되고, 변화는 굵은 글씨체 및 이탤릭 폰트 스타일로 된 텍스트에 의해 강조표시된다.
또 다른 실시형태에서, cp_in_slice_segment_header_flag는 각각의 계층에 대응하는 플래그 어레이로 변화된다. cp_present_flag[layerId]가 턴온되거나 가능하게 될 경우, 대응하는 계층에 대한 cp_in_slice_segment_header_flag[layerId]가 코딩된다. 이와 다를 경우, cp_in_slice_segment_header_flag[layerId]는 0과 동일한 것으로 추론될 것이다. 이 실시형태에 따른 2 개의 예들은 VPS(비디오 파라미터 세트)에서 카메라 파라미터들을 제어하기 위하여 표 7 및 표 8에서 도시되어 있다. cp_in_slice_segment_header_flag[layerId]는 cp_present_flag 및 cp_in_slice_segment_header_flag 사이의 충돌을 해결하기 위하여 수정된다. 표 9는 슬라이스 세그먼트 헤더 확장에서의 카메라 파라미터들을 제어하기 위한 이 실시형태에 따른 또 다른 예를 예시한다. 이 표들에서, 검사 마크 "V"는 기존의 설계로부터의 변화들을 표시하기 위하여 행들의 종단부에 배치되고, 새로운 신택스 엘리먼트들은 굵은 글씨체 및 이탤릭 폰트 스타일로 된 텍스트에 의해 강조표시되고, 삭제된 신택스는 한 쌍의 "//*" 및 "*//"에 의해 둘러싸인다.
표 7 및 표 8에서, cp_in_slice_segment_header_flag[ layerId ]가 1과 동일할 때, 그것은 vps_cp_scale[ viewIdx ][ j ], vps_cp_off[ viewIdx ][ j ], vps_cp_inv_scale_plus_scale[ viewIdx ][ j ], 및 vps_cp_inv_off_plus_off[ viewIdx ][ j ]의 신택스 엘리먼트들이 비디오 파라미터 세트에 존재하지 않음을 표시한다. cp _in_slice_segment_header_flag가 0과 동일할 때, 그것은 vps _cp_scale[ viewIdx ][ j ], vps _cp_off[ viewIdx ][ j ], vps_cp_inv_scale_plus_scale[ viewIdx ][ j ], 및 vps_cp_inv_off_plus_off[ viewIdx ][ j ] 신택스 엘리먼트들이 슬라이스 세그먼트 헤더에 존재함을 표시한다. 존재하지 않을 때, cp_in_slice_segment_header_flag[ layerId ] 의 값은 0 과 동일한 것으로 추론된다.
3D-HEVC에서는, 카메라 파라미터들이 비디오 파라미터 세트(VPS), 슬라이스 세그먼트 헤더, 또는 슬라이스 세그먼트 헤더 확장에서 코딩될 수 있다. VPS에서의 카메라 파라미터들은 각각의 텍스처 및 심도 계층의 cp_present_flag에 따라 시그널링된다. 슬라이스 헤더에서의 카메라 파라미터들은 cp_in_slice_segment_header_flag에 따라 시그널링된다. 2 개의 계층들이 동일한 뷰 순서 인덱스를 가질 경우에는, 더 작은 계층 인덱스를 갖는 계층의 카메라 파라미터들이 더 큰 계층 인덱스를 갖는 계층의 카메라 파라미터들에 의해 겹쳐쓰기(overwrite)될 수 있다. 게다가, 슬라이스 세그먼트 헤더에서의 카메라 파라미터들이 시그널링되어야 할 경우에는, 이들이 기본 뷰에서의 계층들을 포함하는 매 계층에서 시그널링될 것이다. 이 경우들에 있어서, 카메라 파라미터들은 동일한 뷰에서의 각각의 계층에 대해 일관성이 있어야 하므로, VPS 및 슬라이스 헤더에서의 카메라 파라미터들의 시그널링은 동일한 뷰 슬라이스에서의 계층들에 대한 중복성 및 모호성을 야기시킬 수도 있다.
위에서 언급된 바와 같이 동일한 뷰의 계층들 사이의 카메라 파라미터 겹쳐쓰기의 문제를 해소하기 위하여, 본 발명의 실시형태는 뷰 순서 인덱스에 따라 VPS에서 cp_present_flag 및 카메라 파라미터들을 시그널링한다. 카메라 파라미터들은 상이한 뷰들과 관련되므로, 카메라 파라미터들이 뷰마다 시그널링되도록 하는 것이 더욱 합리적이다. 이 실시형태에 따른 예시적인 신택스 설계는 표 10에서 도시되어 있으며, 여기서, 모든 뷰 순서 인덱스들에 대해 반복하는 루프가 추가되고, cp_present_flag 및 카메라 파라미터들은 뷰 순서 인덱스 루프로 이동된다. 이 경우, 카메라 파라미터들은 계층들 사이에서 겹쳐쓰기되지 않을 것이고, 동일한 뷰에서의 카메라 파라미터들은 공유될 수 있다. 이 표에서, 검사 마크 "V"는 기존의 설계로부터의 변화들을 표시하기 위하여 행들의 종단부에 배치되고, 새로운 신택스 엘리먼트들은 굵은 글씨체 및 이탤릭 폰트 스타일로 된 텍스트에 의해 강조표시되고, 삭제된 신택스는 한 쌍의 "//*" 및 "*//"에 의해 둘러싸인다.
표 10에서, cp_present_flag[ viewIdx ]가 1과 동일할 때, 그것은 j가 VpsViewIdx[ layerId ]와 동일한, vps_cp_scale[ viewIdx ][ j ], vps_cp_off[ viewIdx ][ j ], vps_cp_inv_scale_plus_scale[ viewIdx ][ j ], 및 vps_cp_inv_off_plus_off[ viewIdx ][ j ]가 viewIdx와 동일한 ViewIdx를 갖는 계층에 대해 존재할 수도 있음을 표시한다. cp_present_flag[ viewIdx ]가 0과 동일할 때, 그것은 j가 VpsViewIdx[ layerId ]와 동일한, vps_cp_scale[ viewIdx ][ j ], vps_cp_off[ viewIdx ][ j ], vps_cp_inv_scale_plus_scale[ viewIdx ][ j ], 및 vps_cp_inv_off_plus_off[ viewIdx ][ j ]가 존재하지 않음을 표시한다. VpsDepthFlag[ layerId ]가 1과 동일하고 depth_refinement_flag[ layerId ] 또는 view_synthesis_pred_flag[ layerId ]가 1과 동일할 때, cp_present_flag[ VpsViewIdx[ layerId ] ]의 값은 1과 동일해야 한다. 존재하지 않을 때, cp_present_flag[ viewIdx ]는 0과 동일한 것으로 추론된다.
카메라 파라미터들을 사용하는 코딩 툴들이 코딩 계층에 대해 가능하게 될 때, 이 코딩 계층과 연관된 특정 뷰에 대한 카메라 파라미터들이 시그널링될 것이다. 다시 말해서, cp_present_flag는 1과 동일할 것이다. 예를 들어, 표 10에서는, DoNBDV(즉, depth_refinement_flag[ layerId ]) 또는 VSP(즉, view_synthesis_pred_flag[ layerId ])가 텍스처 계층(즉, VpsDepthFlag[ layerId ])에 대해 가능하게 될 때, 텍스처 계층이 속하는 뷰에 대한 카메라 파라미터들은 시그널링되어야 한다(즉, cp_present_flag[ VpsViewIdx[ layerId ] ] = 1). 카메라 파라미터들을 사용하는 코딩 툴들의 검사는 텍스처 계층들을 검사하는 것으로 제한되지 않는다. 또한, 카메라 파라미터들의 시그널링을 결정하기 위하여 심도 계층의 검사가 포함될 수 있다.
본 발명의 또 다른 실시형태는 중복성 없이 슬라이스 세그먼트 헤더에서 카메라 파라미터들을 시그널링하며, 여기서, 표 11의 예시적인 신택스에서 도시된 바와 같이, 계층의 뷰 순서 인덱스가 0과 동일하지 않은 조건에서만, 카메라 파라미터들이 슬라이스 세그먼트 헤더에서 시그널링된다. 이 경우, 슬라이스의 계층이 텍스처 계층인지 또는 심도 계층인지 여부에 관계없이, 기본 뷰에서의 카메라 파라미터들이 필요하지 않으므로, 카메라 파라미터들은 기본 뷰에서의 계층들에 대해 시그널링되지 않는다. 이 표에서, 검사 마크 "V"는 기존의 설계로부터의 변화들을 표시하기 위하여 행들의 종단부에 배치되고, 새로운 신택스 엘리먼트들은 굵은 글씨체 및 이탤릭 폰트 스타일로 된 텍스트에 의해 강조표시되고, 삭제된 신택스는 한 쌍의 "//*" 및 "*//"에 의해 둘러싸인다.
본 발명의 또 다른 실시형태에서는, cp_present_flag에 대해 제약이 부과되며, 여기서, cp_present_flag가 동일한 뷰 순서 인덱스를 갖는 이전의 계층에 대해 1과 동일할 경우, 현존하는 카메라 파라미터의 겹쳐쓰기를 방지하기 위하여, cp_present_flag[ layerId ]는 0으로 설정된다. 계층 인덱스 layerId를 갖는 계층에 대한 카메라 파라미터들은 동일한 뷰 순서 인덱스를 갖는 이전의 계층의 이전에 코딩된 카메라 파라미터들로부터 승계된다.
이 실시형태에 따른 예시적인 신택스 설계는 표 12에서 도시되어 있다. 동일한 뷰 순서 인덱스 viewIdx를 갖는 임의의 선행 계층에 대한 cp_present_flag가 1과 동일할 때, cp_present_flag[ layerId ]의 값은 0으로 설정된다. 표 13에서 도시된 슬라이스 세그먼트 헤더 확장에서는, 동일한 뷰 순서 인덱스를 갖는 카메라 파라미터들의 코딩을 추가로 제약하기 위하여, cp_present_flag[nuh_layer_id]에 대한 조건 검사가 추가된다. cp_in_slice_segment_header_flag가 슬라이스 헤더 확장에서 턴온될 경우, 계층 id nuh_layer_id를 갖는 현재의 계층에 대한 카메라 파라미터들은 동일한 뷰 순서 인덱스를 갖는 다른 계층들의 이전에 코딩된 카메라 파라미터로부터 승계된다. 표에서, 검사 마크 "V"는 기존의 설계로부터의 변화를 표시하기 위하여 행의 종단부에 배치되고, 새로운 신택스 엘리먼트들은 굵은 글씨체 및 이탤릭 폰트 스타일로 된 텍스트에 의해 강조표시된다.
표 12에서, cp_present_flag[ layerId ]가 1과 동일할 때, 그것은 j가 VpsViewIdx[ layerId ]와 동일한, vps_cp_scale[ viewIdx ][ j ], vps_cp_off[ viewIdx ][ j ], vps_cp_inv_scale_plus_scale[ viewIdx ][ j ], 및 vps_cp_inv_off_plus_off[ viewIdx ][ j ]와 같은 VPS-레벨 카메라 파라미터들이 layerId와 동일한 nuh_layer_id를 갖는 계층에 대해 존재할 수도 있음을 표시한다. cp_present_flag[ layerId ]가 0과 동일할 때, 그것은 j가 VpsViewIdx[ layerId ]와 동일한, vps_cp_scale[ viewIdx ][ j ], vps_cp_off[ viewIdx ][ j ], vps_cp_inv_scale_plus_scale[ viewIdx ][ j ], 및 vps_cp_inv_off_plus_off[ viewIdx ][ j ]가 존재하지 않음을 표시한다. VpsDepthFlag[ layerId ]가 1과 동일하고 depth_refinement_flag[ layerId ] 또는 view_synthesis_pred_flag[ layerId ]가 1과 동일할 때, cp_present_flag[ layerId ]는 1로 설정된다. 존재하지 않을 때, cp_present_flag[ layerId ]는 0인 것으로 추론된다. 동일한 뷰 순서 인덱스를 갖는 임의의 선행 계층에 대한 cp_present_flag가 1과 동일할 때, cp_present_flag[ layerId ]는 0으로 설정된다.
본 발명의 또 다른 실시형태에서는, cp_precision, cp_in_slice_segment_header_flag, vps_cp_scale[ viewIdx ][ j ], vps_cp_off[ viewIdx ][ j ], vps_cp_inv_scale_plus_scale[ viewIdx ][ j ], 및 vps_cp_inv_off_plus_off[ viewIdx ][ j ]와 같은 카메라 파라미터들과 연관된 신택스 엘리먼트들에 대해 제약이 부과된다. 예를 들어, 동일한 뷰 순서 인덱스를 갖는 계층들의 카메라 파라미터들과 연관된 모든 신택스 엘리먼트들은 동일할 것이다.
신택스 엘리먼트, cp_precision는 VPS에서의 vps_cp_scale[ viewIdx ][ j ], vps_cp_off [ viewIdx ][ j ], vps_cp_inv_scale_plus_scale [ viewIdx ][ j ], 및 vps_cp_inv_off_plus_off[ viewIdx ][ j ]와, 슬라이스 세그먼트 헤더에서의 cp_scale[ i], cp_off[ i], cp_inv_scale_plus_scale[ i], 및 cp_inv_off_plus_off[ i ]의 정밀도를 특정한다. cp_precision의 값은 0 내지 5까지의 범위로 설정될 수 있다.
cp_in_slice_segment_header_flag가 1과 동일할 때, 그것은 vps_cp_scale[ viewIdx ][ j ],vps_cp_off[ viewIdx ][ j ], vps_cp_inv_scale_plus_scale[ viewIdx ][ j ], 및 vps_cp_inv_off_plus_off[ viewIdx ][ j ]의 신택스 엘리먼트들이 비디오 파라미터 세트에 존재하지 않는 것을 특정한다. camera _parameter_in_slice_header_flag가 0과 동일할 때, 그것은 vps_cp_scale[ viewIdx ][ j ], vps_cp_off[ viewIdx ][ j ], vps_cp_inv_scale_plus_scale[ viewIdx ][ j ], 및 vps_cp_inv_off_plus_off[ viewIdx ][ j ] 신택스 엘리먼트들이 슬라이스 세그먼트 헤더에 존재하는 것을 특정한다.
신택스 엘리먼트들, vps_cp_scale[ viewIdx ][ j ], vps_cp_off[ viewIdx ][ j ], vps_cp_inv_scale_plus_scale[ viewIdx ][ j ], 및 vps_cp_inv_off_plus_off[ viewIdx ][ j ]는 심도 값을 디스패리티 값으로 변환하기 위한 변환 파라미터들을 특정한다.
존재할 때, VPS 신택스 엘리먼트들 cp_precision, cp_in_slice_segment_header_flag, vps_cp_scale[ viewIdx ][ j ], vps_cp_off[ viewIdx ][ j ], vps_cp_inv_scale_plus_scale[ viewIdx ][ j ], 및 vps_cp_inv_off_plus_off[ viewIdx ][ j ]의 값은 동일한 뷰 순서 인덱스의 모든 계층들에서 동일할 것이다.
슬라이스 세그먼트 헤더 확장에서는, 신택스 엘리먼트들 cp_precision, cp_in_slice_segment_header_flag, vps_cp_scale[ viewIdx ][ j ], vps_cp_off[ viewIdx ][ j ], vps_cp_inv_scale_plus_scale[ viewIdx ][ j ], 및 vps_cp_inv_off_plus_off[ viewIdx ][ j ]의 값이 동일한 뷰 순서 인덱스의 모든 계층들에서 동일할 것이다.
도 7은 제어 플래그에 따라 비디오 비트스트림에서 카메라 파라미터들을 적응적으로 통합시키는 3차원 비디오 디코딩의 예시적인 플로우차트를 예시한다. 시스템은 단계(710)에서 도시된 바와 같이, 압축된 3차원 비디오 데이터와 연관된 비디오 비트스트림을 수신한다. 비디오 비트스트림은 컴퓨터 메모리, 버퍼(RAM 또는 DRAM) 또는 다른 매체들과 같은 저장장치로부터 취출될 수도 있다. 비디오 비트스트림은 또한, 제어기, 중앙 프로세싱 유닛, 디지털 신호 프로세서, 또는 입력 데이터를 생성하는 전자 회로들과 같은 프로세서로부터 수신될 수도 있다. 제어 플래그는 단계(720)에서 결정되고, 단계(730)에서, 제어 플래그가 카메라 파라미터들이 현재의 계층에 대하여 시그널링됨을 표시할 경우, 카메라 파라미터들은 비디오 비트스트림으로부터 유도된다. 단계(740)에서, 제어 플래그가 카메라 파라미터들이 현재의 계층에 대해 시그널링됨을 표시할 경우, 현재의 계층에 대한 현재의 텍스처 데이터 또는 심도 데이터는 카메라 파라미터들을 사용하여 비디오 비트스트림으로부터 디코딩된다. 다음으로, 단계(750)에서 도시된 바와 같이, 현재의 계층에서의 디코딩된 현재의 텍스처 데이터 또는 심도 데이터는 시스템으로부터 출력된다.
도 8은 비디오 비트스트림에서 각각의 계층 또는 각각의 뷰에 대한 카메라 파라미터들의 존재 및 로케이션을 적응적으로 제어하기 위하여 제 1 플래그 및 제 2 플래그를 이용하는 3차원 비디오 인코딩 및 디코딩의 예시적인 플로우차트를 예시한다. 시스템은 단계(810)에서 도시된 바와 같이, 압축된 3차원 비디오 데이터와 연관된 비디오 비트스트림을 수신한다. 각각의 계층 또는 각각의 뷰에 대한 제 1 플래그는 단계(820)에서 결정되며, 여기서, 제 1 플래그는 상기 각각의 계층 또는 각각의 뷰에 대한 카메라 파라미터들이 비디오 비트스트림에 존재하는지 여부를 표시한다. 상기 각각의 계층 또는 각각의 뷰에 대한 제 2 플래그는 단계(830)에서 결정되며, 여기서, 제 2 플래그는 비디오 비트스트림에서 상기 각각의 계층 또는 각각의 뷰에 대한 카메라 파라미터 로케이션을 표시한다. 단계(840)에서, 제 1 플래그가 카메라 파라미터들이 상기 각각의 계층 또는 각각의 뷰에 대해 존재함을 표시할 경우, 비디오 비트스트림으로부터의 상기 각각의 계층 또는 각각의 뷰에 대한 카메라 파라미터들은 카메라 파라미터 로케이션으로부터 유도된다. 단계(850)에서, 상기 각각의 계층 또는 각각의 뷰에 대한 현재의 텍스처 데이터 또는 심도 데이터는 상기 각각의 계층 또는 각각의 뷰에 대한 카메라 파라미터들을 사용하여 비디오 비트스트림으로부터 디코딩된다. 다음으로, 단계(860)에서 도시된 바와 같이, 디코딩된 현재의 텍스처 데이터 또는 심도 데이터는 시스템으로부터 출력된다.
위에서 도시된 플로우차트들은 비트스트림에서 적응적 카메라 파라미터 시그널링의 예들을 예시하도록 의도된다. 당해 분야의 숙련자는 본 발명의 사상으로부터 이탈하지 않으면서 본 발명을 실시하기 위하여, 각각의 단계를 수정할 수도 있거나, 단계들을 재배치할 수도 있거나, 단계를 분할할 수도 있거나, 단계들을 조합할 수도 있다.
상기 설명은 당해 분야의 숙련자가 특별한 애플리케이션 및 그 요건의 문맥에서 제공된 바와 같이 본 발명을 실시하는 것을 가능하게 하도록 제시된다. 설명된 실시형태들에 대한 다양한 수정들은 당해 분야의 숙련자들에게 명백할 것이고, 본원에서 정의된 일반적인 원리들은 다른 실시형태들에 적용될 수도 있다. 그러므로, 본 발명은 도시되고 설명된 특별한 실시형태들로 제한되도록 의도된 것이 아니라, 본원에서 개시된 원리들 및 신규한 특징들과 부합하는 가장 넓은 범위를 따르도록 하기 위한 것이다. 상기 상세한 설명에서는, 본 발명의 철저한 이해를 제공하기 위하여 다양한 특정 세부사항들이 예시된다. 그럼에도 불구하고, 본 발명이 실시될 수도 있다는 것은 당해 분야의 숙련자들에 의해 이해될 것이다.
위에서 설명된 바와 같은 본 발명의 실시형태들은 다양한 하드웨어, 소프트웨어 코드들, 또는 양자의 조합으로 구현될 수도 있다. 예를 들어, 본 발명의 실시형태는 본원에서 설명된 프로세싱을 수행하기 위하여, 비디오 압축 칩 내로 통합된 회로, 또는 비디오 압축 소프트웨어 내로 통합된 프로그램 코드일 수 있다. 본 발명의 실시형태는 또한, 본원에서 설명된 프로세싱을 수행하기 위하여, 디지털 신호 프로세서(Digital Signal Processor; DSP) 상에서 실행되어야 할 프로그램 코드일 수도 있다. 발명은 또한, 컴퓨터 프로세서, 디지털 신호 프로세서, 마이크로프로세서, 또는 필드 프로그래밍가능 게이트 어레이(field programmable gate array; FPGA)에 의해 수행되어야 할 복수의 기능들을 포함할 수도 있다. 이 프로세서들은 발명에 의해 구체화된 특별한 방법들을 정의하는 머신-판독가능한(machine-readable) 소프트웨어 코드 또는 펌웨어 코드를 실행함으로써, 발명에 따라 특별한 작업들을 수행하도록 구성될 수 있다. 소프트웨어 코드 또는 펌웨어 코드는 상이한 프로그래밍 언어들 및 상이한 포맷들 또는 스타일들로 개발될 수도 있다. 소프트웨어 코드는 또한 상이한 타겟 플랫폼들에 대해 컴파일링될 수도 있다. 그러나, 발명에 따라 작업들을 수행하도록 코드를 구성하는 소프트웨어 코드들 및 다른 수단의 상이한 코드 포맷들, 스타일들 및 언어들은 발명의 사상 및 범위로부터 이탈하지 않을 것이다.
발명은 그 사상 또는 필수적인 특성들로부터 이탈하지 않으면서 다른 특정 형태들로 구체화될 수도 있다. 설명된 예들은 모든 점들에서 한정적인 것이 아니라 오직 예시적인 것으로서 간주되어야 한다. 그러므로, 발명의 범위는 상이한 설명에 의해서가 아니라, 첨부된 청구항들에 의해 표시된다. 청구항들의 등가성의 의미 및 범위 내에서 나오는 모든 변화들은 그 범위 내에 포괄되어야 한다.
Claims (31)
- 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법에 있어서,
압축된 3차원 비디오 데이터와 연관된 비디오 비트스트림을 수신하는 단계;
제어 플래그를 결정하는 단계;
상기 제어 플래그가 카메라 파라미터들이 현재의 계층에 대해 시그널링됨을 표시할 경우, 상기 비디오 비트스트림으로부터 카메라 파라미터들을 유도하는 단계;
상기 제어 플래그가 상기 카메라 파라미터들이 상기 현재의 계층에 대해 시그널링됨을 표시할 경우, 상기 카메라 파라미터들을 사용하여 상기 비디오 비트스트림으로부터 상기 현재의 계층에 대한 현재의 텍스처 데이터 또는 심도(depth) 데이터를 디코딩하는 단계; 및
상기 현재의 계층에서의 디코딩된 현재의 텍스처 데이터 또는 심도 데이터를 제공하는 단계를 포함하는 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 1 항에 있어서,
상기 제어 플래그는, 복수의 심도-지향된 코딩 툴들과 연관된 개별적인 제어 플래그들의 조합에 기초하여 유도되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 2 항에 있어서,
상기 제어 플래그는 하나 이상의 OR 연산들, 배타적 OR 연산들, AND 연산들, 또는 다른 논리 연산들을 이용하여 상기 개별적인 제어 플래그들로부터 유도되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 2 항에 있어서,
상기 복수의 심도-지향된 코딩 툴들과 연관된 상기 개별적인 제어 플래그들은, 상기 비디오 비트스트림의 시퀀스 레벨, 뷰 레벨, 픽처 레벨 또는 슬라이스 레벨에서 시그널링되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 1 항에 있어서,
상기 제어 플래그는 상기 비디오 비트스트림에서 시그널링되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 1 항에 있어서,
상기 현재의 계층에 대한 상기 카메라 파라미터들에 대한 필요성이 있는지 여부를 표시하는 또 다른 제어 플래그를 결정하는 단계를 더 포함하고, 상기 또 다른 제어 플래그가 상기 현재의 계층에 대한 상기 카메라 파라미터들을 시그널링하기 위한 필요성을 표시할 경우, 상기 제어 플래그는 상기 카메라 파라미터들이 상기 현재의 계층에 대하여 시그널링됨을 표시하도록 설정되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 1 항에 있어서,
상기 제어 플래그는 또 다른 제어 플래그 및 개별적인 제어 플래그들의 조합에 기초하여 유도되고, 상기 또 다른 제어 플래그는 상기 현재의 계층에 대한 카메라 파라미터들을 시그널링하기 위한 필요성을 표시하기 위하여 이용되고, 상기 개별적인 제어 플래그들은 복수의 심도-지향된 코딩 툴들과 연관되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 7 항에 있어서,
상기 또 다른 제어 플래그는 상기 비디오 비트스트림의 시퀀스 레벨, 뷰 레벨, 픽처 레벨 또는 슬라이스 레벨에서 시그널링되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 1 항에 있어서,
상기 제어 플래그는 하나 이상의 심도-지향된 코딩 툴들에 의해 한정되고, 상기 제어 플래그는 상기 하나 이상의 심도-지향된 코딩 툴들 중 임의의 것이 가능하게 될 경우에 상기 카메라 파라미터들이 상기 현재의 계층에 대하여 시그널링됨을 표시하도록 한정되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 9 항에 있어서,
한정 정보는 상기 제어 플래그가 상기 하나 이상의 심도-지향된 코딩 툴들에 의해 한정된다는 선택을 표시하기 위하여 이용되고, 상기 한정 정보는 묵시적으로(implicitly) 유도되거나, 상기 비디오 비트스트림의 시퀀스 레벨, 뷰 레벨, 픽처 레벨 또는 슬라이스 레벨에서 명시적으로 시그널링되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 9 항에 있어서,
한정 정보는 상기 제어 플래그가 상기 하나 이상의 심도-지향된 코딩 툴들에 의해 한정된다는 선택을 표시하기 위하여 이용되고, 상기 한정 정보는 상기 하나 이상의 심도-지향된 코딩 툴들 중 임의의 것이 사용가능하게 되는지 여부에 관하여 동일한 신택스 헤더 계층 또는 더 낮은 신택스 헤더 계층으로부터 묵시적으로 유도되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 1 항에 있어서,
상기 제어 플래그는 코딩 툴 그룹으로부터 선택된 하나 이상의 심도-지향된 코딩 툴들에 기초하여 유도되고, 상기 코딩 툴 그룹은 뷰 합성 예측 및 심도-지향된 이웃하는 블록 디스패리티 벡터를 포함하는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 1 항에 있어서,
상기 제어 플래그는 하나 이상의 심도-지향된 코딩 툴들에 기초하여 유도되고, 상기 하나 이상의 심도-지향된 코딩 툴들은 상기 카메라 파라미터들을 이용하여 심도 값들을 디스패리티 값들로 변환하는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 1 항에 있어서,
상기 비디오 비트스트림에서의 상기 카메라 파라미터들은, 상기 비디오 비트스트림의 시퀀스 레벨, 뷰 레벨, 픽처 레벨 또는 슬라이스 레벨에서 통합되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 비디오 인코더에 대한 3차원 비디오 데이터를 인코딩하는 방법에 있어서,
종속 뷰에서의 현재의 계층과 연관된 현재의 텍스처 데이터 또는 심도 데이터를 수신하는 단계;
카메라 파라미터들을 상기 현재의 계층에 대한 비디오 비트스트림 내로 통합할 것인지 여부에 관한 제어 플래그를 결정하는 단계;
상기 제어 플래그가 상기 카메라 파라미터들이 상기 현재의 계층에 대해 시그널링됨을 표시할 경우, 상기 비디오 비트스트림 내에 상기 카메라 파라미터들과 연관된 정보를 통합하는 단계;
상기 제어 플래그가 상기 카메라 파라미터들이 상기 현재의 계층에 대해 시그널링됨을 표시할 경우, 상기 비디오 비트스트림 내로 통합하기 위한 압축된 데이터를 생성하기 위하여 상기 카메라 파라미터들을 사용하여 상기 현재의 계층에서의 상기 현재의 텍스처 데이터 또는 심도 데이터를 인코딩하는 단계; 및
상기 비디오 비트스트림을 제공하는 단계를 포함하는 비디오 인코더에 대한 3차원 비디오 데이터를 인코딩하는 방법. - 제 15 항에 있어서,
상기 비디오 비트스트림에서의 상기 카메라 파라미터들은, 상기 비디오 비트스트림의 시퀀스 레벨, 뷰 레벨, 픽처 레벨 또는 슬라이스 레벨에서 통합되는 것인 비디오 인코더에 대한 3차원 비디오 데이터를 인코딩하는 방법. - 제 15 항에 있어서,
상기 비디오 비트스트림에서 상기 제어 플래그를 통합하는 단계를 더 포함하는 비디오 인코더에 대한 3차원 비디오 데이터를 인코딩하는 방법. - 제 15 항에 있어서,
상기 비디오 비트스트림의 시퀀스 레벨, 뷰 레벨, 픽처 레벨 또는 슬라이스 레벨에서 또 다른 제어 플래그를 통합하는 단계를 더 포함하고, 상기 제어 플래그는 상기 또 다른 제어 플래그 및 개별적인 제어 플래그들의 조합에 기초하여 유도되고, 상기 또 다른 제어 플래그는 상기 현재의 계층에 대한 상기 카메라 파라미터들을 시그널링하기 위한 필요성을 표시하기 위하여 이용되고, 상기 개별적인 제어 플래그들은 복수의 심도-지향된 코딩 툴들과 연관되는 것인 비디오 인코더에 대한 3차원 비디오 데이터를 인코딩하는 방법. - 제 15 항에 있어서,
상기 비디오 비트스트림의 시퀀스 레벨, 뷰 레벨, 픽처 레벨 또는 슬라이스 레벨에서 한정 정보를 통합하는 단계를 더 포함하고, 상기 한정 정보는 상기 제어 플래그가 하나 이상의 심도-지향 코딩 툴들에 의해 한정된다는 선택을 표시하기 위하여 이용되고, 상기 제어 플래그는 상기 하나 이상의 심도-지향된 코딩 툴들 중 임의의 것이 사용가능하게 될 경우에 상기 카메라 파라미터들이 상기 현재의 계층에 대해 시그널링됨을 표시하도록 한정되는 것인 비디오 인코더에 대한 3차원 비디오 데이터를 인코딩하는 방법. - 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법에 있어서,
압축된 3차원 비디오 데이터와 연관된 비디오 비트스트림을 수신하는 단계;
각각의 계층 또는 각각의 뷰에 대한 제 1 플래그를 결정하는 단계로서, 상기 제 1 플래그는 상기 각각의 계층 또는 각각의 뷰에 대한 카메라 파라미터들이 상기 비디오 비트스트림에 존재하는지 여부를 표시하는 것인 상기 제 1 플래그를 결정하는 단계;
상기 각각의 계층 또는 각각의 뷰에 대한 제 2 플래그를 결정하는 단계로서, 상기 제 2 플래그는 상기 비디오 비트스트림에서 상기 각각의 계층 또는 각각의 뷰에 대한 카메라 파라미터 로케이션을 표시하는 것인 상기 제 2 플래그를 결정하는 단계;
상기 제 1 플래그가 상기 카메라 파라미터들이 상기 각각의 계층 또는 각각의 뷰에 대해 존재함을 표시할 경우, 상기 카메라 파라미터 로케이션으로부터, 상기 비디오 비트스트림으로부터의 상기 각각의 계층 또는 각각의 뷰에 대한 상기 카메라 파라미터들을 유도하는 단계;
상기 각각의 계층 또는 각각의 뷰에 대한 상기 카메라 파라미터들을 사용하여, 상기 비디오 비트스트림으로부터 상기 각각의 계층 또는 각각의 뷰에 대한 현재의 텍스처 데이터 또는 심도 데이터를 디코딩하는 단계; 및
디코딩된 현재의 텍스처 데이터 또는 심도 데이터를 제공하는 단계를 포함하는 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 20 항에 있어서,
상기 비디오 비트스트림에서의 상기 카메라 파라미터들은 상기 비디오 비트스트림의 시퀀스 레벨, 뷰 레벨, 픽처 레벨 또는 슬라이스 레벨에서 통합되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 20 항에 있어서,
상기 카메라 파라미터들은 슬라이스 세그먼트 헤더에서 위치되고, 상기 비디오 비트스트림에서의 상기 슬라이스 세그먼트 헤더와 같은 상기 카메라 파라미터 로케이션은 상기 제 1 플래그 및 상기 제 2 플래그의 논리 조합으로부터 유도되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 20 항에 있어서,
복수의 제 2 플래그들은 상기 각각의 계층 또는 각각의 뷰에 대한 상기 비디오 비트스트림에서 복수의 카메라 파라미터 로케이션들을 표시하도록 이용되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 23 항에 있어서,
상기 복수의 제 2 플래그들은 상기 각각의 뷰에 대한 복수의 제 1 플래그들로부터 유도되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 24 항에 있어서,
상기 카메라 파라미터들이 선택된 뷰에 대해 존재하지 않을 경우, 상기 제 1 플래그들은 상기 선택된 뷰에 대하여 0인 것으로 추론되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 20 항에 있어서,
모든 계층들에 대한 상기 제 1 플래그들, 상기 제 2 플래그들 및 상기 카메라 파라미터들은 동일한 뷰 순서 인덱스에 대해 동일한 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 26 항에 있어서,
상기 카메라 파라미터들이 현재의 계층과 동일한 뷰 순서 인덱스를 갖는 이전의 계층에 대해 시그널링되거나, 상기 제 1 플래그가 상기 카메라 파라미터들이 상기 현재의 계층과 동일한 뷰 순서 인덱스를 갖는 상기 이전의 계층에 대해 존재함을 표시할 경우, 상기 현재의 계층에 대한 상기 제 1 플래그는 상기 카메라 파라미터들이 상기 현재의 계층에 대하여 존재하지 않음을 표시하도록 설정되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 27 항에 있어서,
상기 현재의 계층에 대한 상기 카메라 파라미터들은, 상기 동일한 뷰 순서 인덱스를 갖는 상기 이전의 계층의 상기 카메라 파라미터들로부터 승계되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 20 항에 있어서,
상기 카메라 파라미터들은 슬라이스 세그먼트 헤더에 위치되고, 상기 비디오 비트스트림에서의 상기 슬라이스 세그먼트 헤더와 같은 상기 카메라 파라미터 로케이션은 뷰 순서 인덱스, 또는 상기 뷰 순서 인덱스, 계층 인덱스, 상기 제 1 플래그, 및 상기 제 2 플래그의 논리 조합에 기초하여 유도되는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 제 29 항에 있어서,
상기 비디오 비트스트림에서의 상기 슬라이스 세그먼트 헤더와 같은 상기 카메라 파라미터 로케이션은, 상기 뷰 순서 인덱스가 0과 동일하지 않거나 상기 계층 인덱스가 0 또는 1과 동일하지 않다는 조건에 기초하는 것인 비디오 디코더에 대한 3차원 비디오 데이터를 디코딩하는 방법. - 비디오 인코더에 대한 3차원 비디오 데이터를 인코딩하는 방법에 있어서,
각각의 계층 또는 각각의 뷰와 연관된 현재의 텍스처 데이터 또는 심도 데이터를 수신하는 단계;
비디오 비트스트림에서 상기 각각의 계층 또는 각각의 뷰에 대한 제 1 플래그를 통합하는 단계로서, 상기 제 1 플래그는 카메라 파라미터들이 상기 비디오 비트스트림에서 상기 각각의 계층 또는 각각의 뷰에 대해 존재하는지 여부를 표시하는 것인 상기 제 1 플래그를 통합하는 단계;
상기 비디오 비트스트림에서 상기 각각의 계층 또는 각각의 뷰에 대한 제 2 플래그를 통합하는 단계로서, 상기 제 2 플래그는 상기 비디오 비트스트림에서 상기 각각의 계층 또는 각각의 뷰에 대한 카메라 파라미터 로케이션을 표시하는 것인 상기 제 2 플래그를 통합하는 단계;
상기 제 1 플래그 및 상기 제 2 플래그에 따라 상기 비디오 비트스트림에서 상기 각각의 계층 또는 각각의 뷰에 대한 상기 카메라 파라미터들과 연관된 정보를 통합하는 단계;
상기 비디오 비트스트림 내로 통합하기 위한 압축된 데이터를 생성하기 위하여, 상기 각각의 계층 또는 각각의 뷰에 대한 상기 카메라 파라미터들을 사용하여 상기 각각의 계층 또는 각각의 뷰에서의 상기 현재의 텍스처 데이터 또는 심도 데이터를 인코딩하는 단계; 및
상기 비디오 비트스트림을 제공하는 단계를 포함하는 비디오 인코더에 대한 3차원 비디오 데이터를 인코딩하는 방법.
Applications Claiming Priority (13)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361856321P | 2013-07-19 | 2013-07-19 | |
US61/856,321 | 2013-07-19 | ||
US201361859797P | 2013-07-30 | 2013-07-30 | |
US61/859,797 | 2013-07-30 | ||
US201361860707P | 2013-07-31 | 2013-07-31 | |
US61/860,707 | 2013-07-31 | ||
US201361890366P | 2013-10-14 | 2013-10-14 | |
US61/890,366 | 2013-10-14 | ||
US201361891201P | 2013-10-15 | 2013-10-15 | |
US61/891,201 | 2013-10-15 | ||
US201361897364P | 2013-10-30 | 2013-10-30 | |
US61/897,364 | 2013-10-30 | ||
PCT/CN2014/082550 WO2015007242A1 (en) | 2013-07-19 | 2014-07-18 | Method and apparatus of camera parameter signaling in 3d video coding |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020177013049A Division KR101861497B1 (ko) | 2013-07-19 | 2014-07-18 | 3d 비디오 코딩에서의 카메라 파라미터 시그널링의 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20160003070A true KR20160003070A (ko) | 2016-01-08 |
Family
ID=52345761
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020157033487A KR20160003070A (ko) | 2013-07-19 | 2014-07-18 | 3d 비디오 코딩에서의 카메라 파라미터 시그널링의 방법 및 장치 |
KR1020177013049A KR101861497B1 (ko) | 2013-07-19 | 2014-07-18 | 3d 비디오 코딩에서의 카메라 파라미터 시그널링의 방법 및 장치 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020177013049A KR101861497B1 (ko) | 2013-07-19 | 2014-07-18 | 3d 비디오 코딩에서의 카메라 파라미터 시그널링의 방법 및 장치 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10477183B2 (ko) |
KR (2) | KR20160003070A (ko) |
CN (2) | CN110062245B (ko) |
CA (1) | CA2904424C (ko) |
WO (1) | WO2015007242A1 (ko) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015007159A1 (en) * | 2013-07-15 | 2015-01-22 | Mediatek Singapore Pte. Ltd. | Method of disparity derived depth coding in 3d video coding |
US9906768B2 (en) * | 2013-07-26 | 2018-02-27 | Qualcomm Incorporated | Use of a depth condition in 3DV codec |
US9554150B2 (en) * | 2013-09-20 | 2017-01-24 | Qualcomm Incorporated | Combined bi-predictive merging candidates for 3D video coding |
KR20170069957A (ko) * | 2014-10-08 | 2017-06-21 | 엘지전자 주식회사 | 3d 비디오 코딩에서 카메라 파라미터 처리 방법 및 장치 |
CN104768019B (zh) * | 2015-04-01 | 2017-08-11 | 北京工业大学 | 一种面向多纹理多深度视频的相邻视差矢量获取方法 |
CN118573893A (zh) * | 2017-09-19 | 2024-08-30 | 三星电子株式会社 | 对运动信息进行编码和解码的方法以及设备 |
KR102493125B1 (ko) * | 2019-10-10 | 2023-01-30 | 삼성전자주식회사 | 툴 세트를 이용하는 영상 복호화 장치 및 이에 의한 영상 복호화 방법, 및 영상 부호화 장치 및 이에 의한 영상 부호화 방법 |
EP4044597A4 (en) * | 2019-10-10 | 2023-11-01 | Samsung Electronics Co., Ltd. | IMAGE DECODING APPARATUS WITH TOOL SET AND IMAGE DECODING METHOD THEREOF, AND IMAGE CODING APPARATUS AND IMAGE CODING METHOD THEREOF |
WO2023219278A1 (ko) * | 2022-05-09 | 2023-11-16 | 현대자동차주식회사 | Mpeg 몰입형 비디오를 위한 카메라 파라미터 그룹핑 및 업데이트를 위한 방법 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060023782A1 (en) | 2004-07-27 | 2006-02-02 | Microsoft Corporation | System and method for off-line multi-view video compression |
KR101199498B1 (ko) * | 2005-03-31 | 2012-11-09 | 삼성전자주식회사 | 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이기록된 기록 매체 |
MX2008011652A (es) * | 2006-03-29 | 2008-09-22 | Thomson Licensing | Metodos y aparatos para usarse en un sistema de codificacion de video de multiples vistas. |
CN101166282B (zh) * | 2006-10-16 | 2010-12-08 | 华为技术有限公司 | 摄像机参数编码传输的方法 |
EP3182708B1 (en) * | 2007-01-04 | 2019-03-06 | InterDigital Madison Patent Holdings | Methods and apparatus for multi-view information conveyed in high level syntax |
US8094964B2 (en) * | 2007-10-26 | 2012-01-10 | Adobe Systems Incorporated | Methods and systems for estimating illumination source characteristics from a single image |
CN100563339C (zh) * | 2008-07-07 | 2009-11-25 | 浙江大学 | 一种利用深度信息的多通道视频流编码方法 |
US8599242B2 (en) * | 2008-12-02 | 2013-12-03 | Lg Electronics Inc. | Method for displaying 3D caption and 3D display apparatus for implementing the same |
US8854428B2 (en) * | 2009-03-19 | 2014-10-07 | Lg Electronics, Inc. | Method for processing three dimensional (3D) video signal and digital broadcast receiver for performing the method |
CN101610411B (zh) | 2009-07-16 | 2010-12-08 | 中国科学技术大学 | 一种视频序列混合编解码的方法和系统 |
CN102055968B (zh) * | 2009-10-28 | 2012-08-29 | 中国移动通信集团公司 | 多视点视频中丢失的视频数据的恢复方法、系统及设备 |
JP2011142585A (ja) * | 2010-01-08 | 2011-07-21 | Sony Corp | 画像処理装置、情報記録媒体、および画像処理方法、並びにプログラム |
JP2011142586A (ja) * | 2010-01-08 | 2011-07-21 | Sony Corp | 画像処理装置、情報記録媒体、および画像処理方法、並びにプログラム |
JP2011228929A (ja) * | 2010-04-20 | 2011-11-10 | Panasonic Corp | 3d符号化装置、3d符号化方法およびプログラム |
US8711238B2 (en) * | 2011-02-01 | 2014-04-29 | Aptina Imaging Corporation | Systems and methods for synchronizing and controlling multiple image sensors |
WO2013039333A1 (ko) * | 2011-09-16 | 2013-03-21 | 엘지전자 주식회사 | 3d 비디오 부호화/복호화 방법 및 그 장치 |
US9686526B2 (en) * | 2011-10-04 | 2017-06-20 | Telefonaktiebolaget L M Ericsson (Publ) | Objective 3D video quality assessment model |
US20130127987A1 (en) | 2011-11-18 | 2013-05-23 | Qualcomm Incorporated | Signaling depth ranges for three-dimensional video coding |
CN103959768B (zh) * | 2011-12-04 | 2017-09-22 | Lg电子株式会社 | 能够显示立体图像的数字广播接收方法和装置 |
US9674499B2 (en) * | 2012-08-15 | 2017-06-06 | Qualcomm Incorporated | Compatible three-dimensional video communications |
US20140078249A1 (en) * | 2012-09-20 | 2014-03-20 | Qualcomm Incorporated | Indication of frame-packed stereoscopic 3d video data for video coding |
KR101313223B1 (ko) | 2012-10-22 | 2013-09-30 | 세종대학교산학협력단 | 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및 생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이 기록된 기록 매체 |
-
2014
- 2014-07-18 KR KR1020157033487A patent/KR20160003070A/ko active Search and Examination
- 2014-07-18 KR KR1020177013049A patent/KR101861497B1/ko active IP Right Grant
- 2014-07-18 CN CN201910097882.0A patent/CN110062245B/zh active Active
- 2014-07-18 WO PCT/CN2014/082550 patent/WO2015007242A1/en active Application Filing
- 2014-07-18 CN CN201480040252.5A patent/CN105474640B/zh active Active
- 2014-07-18 US US14/779,655 patent/US10477183B2/en active Active
- 2014-07-18 CA CA2904424A patent/CA2904424C/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN110062245A (zh) | 2019-07-26 |
CA2904424A1 (en) | 2015-01-22 |
KR101861497B1 (ko) | 2018-05-28 |
CA2904424C (en) | 2018-05-22 |
CN105474640A (zh) | 2016-04-06 |
WO2015007242A1 (en) | 2015-01-22 |
KR20170058443A (ko) | 2017-05-26 |
CN105474640B (zh) | 2019-03-15 |
US10477183B2 (en) | 2019-11-12 |
US20160057453A1 (en) | 2016-02-25 |
CN110062245B (zh) | 2023-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101861497B1 (ko) | 3d 비디오 코딩에서의 카메라 파라미터 시그널링의 방법 및 장치 | |
CA2920413C (en) | Method of deriving default disparity vector in 3d and multiview video coding | |
KR101753171B1 (ko) | 3d 비디오 코딩에서의 간략화된 뷰 합성 예측 방법 | |
CA2896905C (en) | Method and apparatus of view synthesis prediction in 3d video coding | |
US20160309186A1 (en) | Method of constrain disparity vector derivation in 3d video coding | |
JP6042556B2 (ja) | 3dビデオ符号化における制約される視差ベクトル導出の方法と装置 | |
US20150365649A1 (en) | Method and Apparatus of Disparity Vector Derivation in 3D Video Coding | |
US20150304681A1 (en) | Method and apparatus of inter-view motion vector prediction and disparity vector prediction in 3d video coding | |
KR101784579B1 (ko) | 호환 가능 깊이 독립 코딩 방법 및 장치 | |
CN105144714B (zh) | 三维或多视图视频编码或解码的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application | ||
AMND | Amendment |