KR101784579B1 - 호환 가능 깊이 독립 코딩 방법 및 장치 - Google Patents

호환 가능 깊이 독립 코딩 방법 및 장치 Download PDF

Info

Publication number
KR101784579B1
KR101784579B1 KR1020157024368A KR20157024368A KR101784579B1 KR 101784579 B1 KR101784579 B1 KR 101784579B1 KR 1020157024368 A KR1020157024368 A KR 1020157024368A KR 20157024368 A KR20157024368 A KR 20157024368A KR 101784579 B1 KR101784579 B1 KR 101784579B1
Authority
KR
South Korea
Prior art keywords
depth
syntax information
picture
parameter set
dependent coding
Prior art date
Application number
KR1020157024368A
Other languages
English (en)
Other versions
KR20150118988A (ko
Inventor
지안 리앙 린
카이 장
지쳉 안
Original Assignee
에이치에프아이 이노베이션 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이치에프아이 이노베이션 인크. filed Critical 에이치에프아이 이노베이션 인크.
Publication of KR20150118988A publication Critical patent/KR20150118988A/ko
Application granted granted Critical
Publication of KR101784579B1 publication Critical patent/KR101784579B1/ko

Links

Images

Classifications

    • H04N13/0048
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

3차원 비디오 인코딩 및 디코딩에서 호환 가능 깊이 의존 코딩 및 깊이 독립 코딩을 제공하기 위한 방법이 개시된다. 호환 가능 시스템은 깊이 의존 코딩이 의존 뷰의 텍스처 픽처에 대해 인에이블되는지의 여부를 나타내기 위해 깊이 의존성 지시를 이용한다. 깊이 의존성 지시가 어서트되면, 깊이 의존 코딩 툴과 연관된 제 2 구문 정보가 이용된다. 깊이 의존 코딩 툴이 어서트되면, 이전에 코딩된 또는 디코딩된 깊이 픽처로부터의 정보를 이용하여 현재 텍스처 픽처를 인코딩 또는 디코딩하기 위해 깊이 의존 코딩 툴이 적용된다. 깊이 의존성 지시에 관련된 구문 정보는 비디오 파라미터 세트(VPS), 시퀀스 파라미터 세트(SPS), 픽처 파라미터 세트(PPS) 또는 슬라이스 헤더에 있을 수 있다.

Description

호환 가능 깊이 독립 코딩 방법 및 장치{METHOD AND APPARATUS OF COMPATIBLE DEPTH DEPENDENT CODING}
관련 출원에 대한 상호 참조
본 발명은 제목이 "Stereo Compatibility High Level Syntax"인, 2013년 4월 12일자에 출원된 PCT 특허 출원 번호 제PCT/CN2013/074165호의 우선권을 주장한다. 상기 PCT 특허 출원은 참조에 의해 그 전체가 본 명세서에 통합된다.
기술분야
본 발명은 3차원 비디오 코딩에 관한 것이다. 구체적으로, 본 발명은 3D 비디오 코딩에서 깊이 의존 정보를 이용하는 시스템과 깊이 의존 정보에 의존하지 않는 시스템 간의 호환성에 관한 것이다.
3차원(3D) 텔레비전은 시청자에게 놀랄만 한 시청 경험을 제공하는 것을 목표로 하는 최근의 기술 동향이 있다. 멀티 뷰 비디오는 3D 비디오를 캡처 및 렌더링하기 위한 기술이다. 멀티 뷰 비디오는 통상적으로 다수의 카메라들을 동시에 이용하여 장면을 캡처함으로써 생성되고, 다수의 카메라들은 각각의 카메라가 하나의 관점에서 장면을 캡처하도록 적절히 위치된다. 뷰와 연관된 많은 수의 비디오 시퀀스를 갖는 멀티 뷰 비디오는 거대한 양의 데이터를 나타낸다. 따라서, 멀티 뷰 비디오는 저장을 위해 큰 저장 공간 및/또는 전송을 위해 높은 대역폭을 요구할 것이다. 그러므로, 멀티 뷰 비디오 코딩 기술은 요구되는 저장 공간 및 전송 대역폭을 감소시키기 위한 분야에서 개발되어왔다. 간단한 방식은 단순히 각각의 단일 뷰 비디오 시퀀스에 종래의 비디오 코딩 기술을 독립적으로 적용하고, 상이한 뷰들 간의 임의의 상관 관계를 무시할 수 있다. 이러한 간단한 기술은 열악한 코딩 성능을 야기할 것이다.
멀티 뷰 비디오 코딩 효율을 개선시키기 위해서, 멀티 뷰 비디오 코딩은 항상 인터 뷰 중복(inter-view redundancy)을 이용한다. 두 개의 뷰들 간의 변이는 두 개의 개개의 카메라들의 위치 및 각도에 의해 야기된다. 모든 카메라들이 상이한 관점으로 동일한 장면을 캡처하기 때문에, 멀티 뷰 비디오 데이터는 많은 양의 인터 뷰 중복을 포함한다. 인터 뷰 중복을 이용하기 위해서, 변이 벡터(disparity vector; DV)를 이용하는 코딩 툴이 3D-HEVC(High Efficiency Video Coding; 고효율 비디오 코딩) 및 3D-AVC(Advanced Video Coding; 고도 비디오 코딩)를 위해 개발되어왔다. 예를 들어, BVSP(Backward View Synthesis Prediction; 역방향 뷰 합성 예측) 및 DoNBDV(Depth-oriented Neighboring Block Disparity Vector; 깊이 지향 인접 블록 변이 벡터)가 3D 비디오 코딩에서 코딩 효율을 개선시키기 위해 이용되어왔다.
DoNBDV 프로세스는 변이 벡터(DV)를 도출하기 위해 NBDV(Neighboring Block Disparity Vector; 인접 블록 변이 벡터) 프로세스를 이용한다. NBDV 도출 프로세스는 다음과 같이 기재술다. DV 도출은 도 1a에 도시된 바와 같은 공간적 인접 블록들 및 도 1b에 도시된 바와 같은 시간적 인접 블록들을 포함하는, 현재 블록들의 인접 블록들에 기초한다. 공간적 인접 블록 세트는 현재 블록의 좌측 하단 코너의 대각선 맞은편 위치(즉, A0), 현재 블록의 좌측 바닥면 옆의 위치(즉, A1), 현재 블록의 좌측 상단 코너의 대각선 맞은편 위치(즉, B2), 현재 블록의 우측 상단 코너의 대각선 맞은편 위치(즉, B0), 및 현재 블록의 우측 상부면 옆의 위치(즉, B1)을 포함한다. 도 1b에 도시된 바와 같이, 시간적 인접 블록 세트는 시간적 기준 픽처에서 현재 블록의 센터에서의 위치(즉, BCTR) 및 현재 블록의 우측 하단 코너의 대각선 맞은편 위치(즉, RB)를 포함한다. 시간적 블록(BCTR)은 DV가 시간적 블록(RB)로부터 이용 가능하지 않은 경우에만 이용될 수 있다. 이러한 인접 블록 구성은, 공간적 및 시간적 인접 블록들이 NBDV를 도출하는데 이용될 수 있는 예를 나타낸다. 다른 공간적 및 시간적 인접 블록들이 또한 NBDV를 도출하는데 이용될 수 있다. 예를 들어, 시간적 인접 블록 세트의 경우, 시간적 기준 픽처에서 현재 블록 내의 다른 위치들(예컨대, 우측 하단 블록)이 또한 센터 위치 대신에 이용될 수 있다. 더욱이, 현재 블록과 나란히 배치된 임의의 블록이 시간적 블록 세트에 포함될 수 있다. 일단 DV를 갖는 블록이 식별되면, 체크 프로세스는 종료될 것이다. 도 1a의 공간적 인접 블록들을 위한 예시적인 검색 순서는 (A1, B1, B0, A0, B2)일 수 있다. 도 1b의 시간적 인접 블록들을 위한 예시적인 검색 순서는 (BR, BCTR)일 수 있다. 공간적 및 시간적 인접 블록 세트들은 상이한 모드 또는 상이한 코딩 표준에 대해 상이할 수 있다. 현재의 개시에서, NBDV는 NBDV 프로세스에 기초하여 도출된 DV를 나타낼 수 있다. 모호성이 존재하지 않는 경우, NBDV는 또한 NBDV 프로세스를 나타낼 수 있다.
DoNBDV 프로세스는 깊이 맵으로부터 더욱 정확한 변이 벡터(본 발명개시에서 개량된 DV로서 언급됨)를 추출함으로써 NBDV를 향상시킨다. 동일한 액세스 유닛의 코딩된 깊이 맵으로부터의 깊이 블록이 먼저 검색되어, 현재 블록에 대한 가상 깊이로서 이용된다. 예를 들어, 일반적인 테스트 조건으로 뷰 1의 텍스처(texture)를 코딩하는 동안, 뷰 0의 깊이 맵은 이미 코딩되어 이용 가능하다. 그러므로, 뷰 1의 텍스처의 코딩은 뷰 0의 깊이 맵으로부터 이익을 얻을 수 있다. 추정된 변이 벡터가 도 2에 도시된 가상 깊이로부터 추출될 수 있다. 전체적인 흐름은 다음과 같다.
1. 현재 블록(210)에 대한 NBDV에 기초하여 도출된, 도출된 DV(240)를 이용함. 도출된 DV는 현재 블록 위치(210')(뷰 0에서 점선 박스로서 도시됨)에 도출된 DV(240)를 가산함으로써 코딩된 텍스처 뷰에 대응 블록(230)을 위치시키는데 이용된다.
2. 현재 블록(코딩 유닛)에 대한 가상 깊이 블록(250)으로서 코딩된 뷰(즉, 종래의 3D-HEVC에 따른 기본 뷰)에 나란히 배치된 깊이 블록(230')을 이용함.
3. 이전 단계에서 검색된 가상 깊이 블록의 최대 값으로부터 인터 뷰 움직임 예측을 위한 변이 벡터(즉, 개량 DV)를 추출함
역방향 뷰 합성 예측(BVSP)은 상이한 관점들로부터의 비디오 신호 중에 인터 뷰 중복을 제거하기 위한 기술이고, 이 기술에서, 합성 신호가 의존 뷰(dependent view)의 현재 픽처를 예측하기 위해 참조로서 이용된다. 먼저, NBDV가 변이 벡터를 도출하기 위해 이용된다. 그런 다음, 도출된 변이 벡터는 기준 뷰의 깊이 맵의 깊이 블록을 꺼내기 위해 이용된다. 최대 깊이 값이 깊이 블록으로부터 결정되고, 최대 값은 DV로 변환된다. 그런 다음, 변환된 DV는 현재 PU에 역방향 워핑(backward warping)을 수행하기 위해 이용될 것이다. 게다가, 워핑 동작은 8x4 또는 4x8 블록과 같은, 서브 PU 레벨 정확도로 수행될 수 있다. 이 경우에, 최대 깊이 맵이 서브 PU 블록을 위해 선택되고, 서브 PU 블록의 모든 픽셀들을 워핑하는데 이용된다. BVSP 기술은 도 3에 도시된 바와 같은 텍스처 픽처 코딩에 적용된다. 의존 뷰(뷰 1)의 현재 텍스처 블록(310)에 대한 뷰 0의 코딩된 깊이 맵의 대응하는 깊이 블록(320)이 NBDV에 기초하여 결정된 DV(330) 및 현재 블록의 위치에 기초하여 결정된다. 대응하는 깊이 블록(320)은 가상 깊이 블록으로서 현재 텍스처 블록(310)에 의해 이용된다. 변이 벡터가 가상 블록으로부터 도출되어 현재 블록의 픽셀들을 기준 텍스처 픽처의 대응하는 픽셀들로 다시 워핑한다. 두 개의 픽셀들(T1의 A 및 B, T0의 A' 및 B')에 대한 관련성(340 및 350)이 도 3에 도시된다.
BVSP 및 DoNBDV 양자 모두는 의존 뷰의 텍스처 픽처를 코딩하기 위해 베이스 뷰로부터의 코딩된 깊이 픽처를 이용한다. 그래서, 이러한 깊이 의존 코딩(Depth-Dependent Coding; DDC) 방법은 깊이 독립 코딩(Depth-Independent Coding; DIC) 방식에 비해 코딩 효율을 개선시키기 위해 깊이 맵으로부터의 추가적인 정보를 이용할 수 있다. 그러므로, BVSP 및 DoNBDV 양자 모두는 의무적인 코딩 툴로서 고효율 비디오 코딩(HEVC) 기반 3D 테스트 모델(HTM) 소프트웨어에서 이용되어 왔다.
DDC가 DIC에 비해 코딩 효율을 개선시킬 수 있지만, DDC에 의해 요구되는 바와 같은 깊이 픽처와 텍스처 간의 의존성은 깊이 맵을 지원하지 않는 이전 시스템들과의 호환성 문제를 야기할 것이다. DDC 코딩 툴이 없는 시스템에서, 의존 뷰의 텍스처 피처는 깊이 픽처의 필요성 없이 인코딩 및 디코딩될 수 있고, 이는 스테레오 호환성이 DIC 방식에서 지원된다는 것을 의미한다. 그러나, 새로운 HTM 소프트웨어(예컨대, HTM 버전 6)에서, 의존 뷰의 텍스처 픽처는 베이스 뷰의 깊이 픽처 없이 인코딩 또는 디코딩될 수 없다. DDC 경우에, 깊이 맵은 코딩되어야 하고, 일부 이용 가능한 비트레이트를 차지할 것이다. 스테레오 시나리오(즉, 오직 두 개의 뷰만 이용)에서, 베이스 뷰의 깊이 맵은 상당한 오버헤드를 나타낼 수 있고, 코딩 효율의 이득은 베이스 뷰의 깊이 맵에 의해 요구되는 오버헤드만큼 상당히 오프셋될 수 있다. 그러므로, DDC 코딩 툴은 스테레오 경우에 또는 제한된 수의 뷰를 이용하는 경우에, 반드시 바람직한 것은 아닐 수 있다. 도 4는 두 개의 뷰를 갖는 스테레오 시스템에 대한 예를 도시한다. DIC 방식에서, 뷰 0 및 뷰 1의 텍스터 픽처와 연관된 비트스트림 V0 및 V1 만이 텍스처 픽처를 디코딩하기 위해 추출될 필요가 있다. 그러나, DDC 방식에서, 뷰 0의 깊이 픽처와 연관된 비트스트림 D0가 역시 추출되어야 한다. 그러므로, 베이스 뷰의 깊이 픽처는 항상 DDC 3D 코딩 시스템에서 코딩된다. 이것은 오직 두 개의 뷰 또는 오직 적은 수의 뷰만이 이용되는 경우에는 바람직하지 않을 수 있다.
3차원 비디오 인코딩 및 디코딩에서 호환 가능 깊이 의존 코딩 및 깊이 독립 코딩을 제공하기 위한 방법이 개시된다. 본 발명은 깊이 의존 코딩이 의존 뷰의 텍스처 픽처에 대해 인에이블되는지의 여부를 나타내기 위해 깊이 의존성 지시를 이용한다. 깊이 의존성 지시가 어서트(assert)되면, 깊이 의존 코딩 툴과 연관된 제 2 구문 정보가 이용된다. 깊이 의존 코딩 툴이 어서트되면, 이전에 코딩된 또는 디코딩된 깊이 픽처로부터의 정보를 이용하여 현재 텍스처 픽처를 인코딩 또는 디코딩하기 위해 깊이 의존 코딩 툴이 적용된다.
깊이 의존성 지시에 관련된 구문 정보는 비디오 파라미터 세트(Video Parameter Set; VPS), 시퀀스 파라미터 세트(Sequence Parameter Set; SPS), 픽처 파라미터 세트(Picture Parameter Set; PPS) 또는 슬라이스 헤더(Slice Header)에 있을 수 있다. 깊이 의존성 지시에 관련된 구문 정보가 픽처 파라미터 세트(PPS)에 있는 경우, 깊이 의존성 지시에 관련된 구문 정보는 동일한 시퀀스의 모든 픽처들에 대해 동일하다. 깊이 의존성 지시에 관련된 구문 정보가 슬라이스 헤더에 있는 경우, 깊이 의존성 지시에 관련된 구문 정보는 동일한 픽처의 모든 슬라이스들에 대해 동일하다.
깊이 의존 코딩 툴과 연관된 제 2 구문 정보는 비디오 파라미터 세트(VPS), 시퀀스 파라미터 세트(SPS), 픽처 파라미터 세트(PPS) 또는 슬라이스 헤더에 있을 수 있다. 제 2 구문 정보가 픽처 파라미터 세트(PPS)에 있으면, 픽처 파라미터 세트의 제 2 구문 정보는 동일한 시퀀스의 모든 픽처들에 대해 동일하다. 제 2 구문 정보가 슬라이스 헤더에 있으면, 슬라이스 헤더의 제 2 구문 정보는 동일한 픽처의 모든 슬라이스들에 대해 동일하다. 깊이 의존 코딩 툴은 역방향 뷰 합성 예측(Backward View Synthesis Prediction; BVSP), 깊이 지향 인접 블록 변이 벡터(Depth-oriented Neighboring Block Disparity Vector; DoNBDV), 또는 양자 모두에 대응할 수 있다. 깊이 의존 코딩 툴과 연관된 제 2 구문 정보가 비트스트림에 존재하지 않으면, 깊이 의존 코딩 툴은 어서트되지 않는다.
도 1a 및 도 1b는 인접 블록 변이 벡터(NBDV) 프로세스에 기초하여 변이 벡터를 도출하는데 이용되는 공간적 및 시간적 인접 블록들의 예를 나타낸다.
도 2는 깊이 지향 NBDV(DoNBDV) 프로세스의 예를 나타내고, 여기서 도출된 변이 벡터는 인접 블록 변이 벡터(NBDV) 프로세스에 따라 깊이 블록을 위치시키는데 이용되고, 개량된 변이 벡터는 깊이 블록의 깊이 값으로부터 결정된다.
도 3은 역방향 워핑을 수행하기 위해 베이스 뷰의 코딩된 깊이 맵을 이용하는 역방향 뷰 합성 예측(BVSP)의 예를 나타낸다.
도 4는 스테레오 뷰를 갖는 시스템을 위한 깊이 의존 코딩 및 깊이 독립 코딩의 깊이 의존성의 예를 나타낸다.
도 5는 본 발명의 실시예에 따라, 호환 가능 깊이 의존 코딩을 통합하는 인코딩 시스템에 대한 흐름도를 나타낸다.
도 6은 본 발명의 실시예에 따라, 호환 가능 깊이 의존 코딩을 통합하는 디코딩 시스템에 대한 흐름도를 나타낸다.
앞서 언급된 바와 같이, 깊이 의존 코딩(DDC) 방법은 깊이 독립 코딩(DIC) 방법에 비해 코딩 효율을 개선시킬 수 있지만, DDC에 의해 요구되는 바와 같은 깊이 픽처와 텍스처 간의 의존성은 깊이 맵을 지원하지 않는 이전 시스템과의 호환성 문제를 야기할 것이다. 따라서, 호환 가능 DDC 시스템이 개시된다. 호환 가능 DDC 시스템은 근본적 3D/멀티 뷰 코딩 시스템이 선택을 나타내기 위해 구문(syntax)을 시그널링함으로써 DDC 또는 DIC 중 어느 하나를 선택적으로 이용하도록 한다.
본 발명의 일 실시예에서, 호환 가능 DDC 시스템 기반 3D-HEVC를 위한 하이 레벨 구문 설계가 개시된다. 예를 들어, 호환 가능 DDC를 위한 구문 요소는 표 1에 도시된 바와 같은 비디오 파라미터 세트(Video Parameter Set; VPS)로 시그널링될 수 있다. BVSP 및 DoNBDV와 같은 DDC 툴이 대응하는 깊이 의존 코딩 툴에 연관된 구문 요소에 의해 나타난 바와 같이 선택적으로 적용된다. 인코더는 애플리케이션 시나리오에 따라 DDC 또는 DIC 이용 여부를 결정할 수 있다. 게다가, 추출기(또는 비트스트림 파서)는 이러한 구문 요소에 따라 비트스트림을 보내거나 추출하는 방법을 결정할 수 있다.
[표 1]
Figure 112015086746618-pct00001
상기 예제에 도시된 예시적인 구문 요소의 의미는 다음과 같이 기술된다. DepthLayerFlag[ layerId ]는 layerId와 같은 layer_id를 갖는 층이 깊이 층인지 텍스처 층인지의 여부를 나타낸다.
구문 요소, depth_dependent_flag[ layerId ]는 깊이 픽처가 layerId와 같은 layer_id을 갖는 층의 디코딩 프로세스에 이용되는지의 여부를 나타낸다. 구문 요소 depth_dependent_flag[ layerId ]가 0과 같은 경우, 이것은 깊이 픽처가 layerId와 같은 layer_id을 갖는 층에 이용되지 않다는 것을 나타낸다. 구문 요소 depth_dependent_flag[ layerId ]가 1과 같은 경우, 이것은 깊이 픽처가 layerId와 같은 layer_id을 갖는 층에 이용될 수 있다는 것을 나타낸다. 구문 요소 depth_dependent_flag[ layerId ]가 존재하지 않으면, 이 값은 0인 것으로 추정된다.
구문 요소, view_synthesis_pred_flag[ layerId ]는 뷰 합성 예측이 layerId와 같은 layer_id을 갖는 층의 디코딩 프로세스에 이용되는지의 여부를 나타낸다. 구문 요소 view_synthesis_pred_flag[ layerId ]가 0과 같은 경우, 이것은 후보를 병합한 뷰 합성 예측이 layerId와 같은 layer_id을 갖는 층에 이용되지 않다는 것을 나타낸다. 구문 요소 view_synthesis_pred_flag[ layerId ]가 1과 같은 경우, 이것은 후보를 병합한 뷰 합성 예측이 layerId와 같은 layer_id을 갖는 층에 이용된다는 것을 나타낸다. 구문 요소 view_synthesis_pred_flag[ layerId ]가 존재하지 않으면, 이 값은 0인 것으로 추정될 수 있다.
구문 요소 dv_refine_flag[ layerID ]의 일 실시예로서, 구문 요소 do_nbdv_flag[ layerId ]는, DoNBDV가 layerId와 같은 layer_id을 갖는 층의 디코딩 프로세스에 이용되는지의 여부를 나타낸다. 구문 요소 do_nbdv_flag[ layerId ]가 0과 같은 경우, 이것은 DoNBDV가 layerId와 같은 layer_id을 갖는 층에 이용되지 않다는 것을 나타낸다. 구문 요소 do_nbdv_flag[ layerId ]가 1과 같은 경우, 이것은 DoNBDV가 layerId와 같은 layer_id을 갖는 층에 이용된다는 것을 나타낸다. 구문 요소 do_nbdv_flag[ layerId ]가 존재하지 않으면, 이 값은 0인 것으로 추정될 수 있다.
표 1의 예시적인 구문 설계는 깊이 의존 코딩이 허용되는지의 여부를 나타내기 위해 depth_dependent_flag[ layerId ]를 이용한다. 깊이 의존 코딩의 표시가 어서트되면(즉, depth_dependent_flag[ layerId ] != 0), 두 개의 깊이 의존 코딩 툴 플래그들(즉, view_synthesis_pred_flag[ layerId ] 및 do_nbdv_flag[ layerId ])이 통합된다. 깊이 의존 코딩 툴 플래그는 대응하는 깊이 의존 코딩 툴이 이용되는지의 여부를 나타내기 위해 이용된다.
표 1에 도시된 예시적인 구물 설계는 비디오 파라미터 세트(VPS)에 호환 가능 깊이 의존 코딩 구문을 통합하였지만, 호환 가능 깊이 의존 코딩 구문은 또한 시퀀스 파라미터 세트(Sequence Parameter Set; SPS), 픽처 파라미터 세트(Picture Parameter Set; PPS) 또는 슬라이스 헤더에도 통합될 수 있다. 호환 가능 깊이 의존 코딩 구문이 PPS에 통합되는 경우, 픽처 파라미터 세트의 호환 가능 깊이 의존 코딩 구문은 동일한 시퀀스의 모든 픽처들에 대해 동일하다. 호환 가능 깊이 의존 코딩 구문이 슬라이스 헤더에 통합되는 경우, 슬라이스 헤더의 호환 가능 깊이 의존 코딩 구문은 동일한 픽처의 모든 슬라이스들에 대해 동일하다.
도 5는 본 발명의 실시예에 따라, 호환 가능 깊이 의존 코딩을 통합하는 3차원/멀티뷰 인코딩 시스템의 예시적인 흐름도를 나타낸다. 단계(510)에서 도시된 바와 같이, 시스템은 의존 뷰의 현재 텍스처 픽처를 수신한다. 현재 텍스처 픽처는 메모리[예컨대, 컴퓨터 메모리, 버퍼(RAM 또는 DRAM), 또는 다른 매체]로부터 검색되거나, 프로세서로부터 수신될 수 있다. 단계(520)에 도시된 바와 같이, 깊이 의존성 지시가 결정된다. 단계(530)에 도시된 바와 같이, 깊이 의존성 지시가 어서트되면, 적어도 하나의 깊이 의존 코딩 툴이 결정된다. 단계(540)에 도시된 바와 같이, 깊이 의존 코딩 툴이 어서트되면, 상기 적어도 하나의 깊이 의존 코딩 툴이 적용되어 이전에 코딩된 깊이 픽처로부터의 정보를 이용하여 현재 텍스처 픽처를 인코딩한다. 단계(550)에 도시된 바와 같이, 깊이 의존성 지시에 관련된 구문 정보는 현재 텍스처 픽처를 포함하는 시퀀스에 대한 비트스트림에 통합된다. 단계(560)에 도시된 바와 같이, 상기 적어도 하나의 깊이 의존 코딩 툴이 어서트되면, 상기 적어도 하나의 깊이 의존 코딩 툴에 관련된 제 2 구문 정보는 비트스트림에 포함된다.
도 6은 본 발명의 실시예에 따라, 호환 가능 깊이 의존 코딩 및 깊이 독립 코딩을 통합하는 3차원/멀티뷰 디코딩 시스템의 예시적인 흐름도를 나타낸다. 단계(610)에 도시된 바와 같이, 디코딩될 현재 텍스처 픽처에 대한 코딩된 데이터를 포함하는 코딩된 시퀀스에 대응하는 비트스트림이 수신되고, 현재 텍스처 픽처는 의존 뷰에 있다. 비트스트림은 메모리[예컨대, 컴퓨터 메모리, 버퍼(RAM 또는 DRAM), 또는 다른 매체]로부터 검색되거나, 프로세서로부터 수신될 수 있다. 단계(620)에 도시된 바와 같이, 깊이 의존성 지시에 관련된 구문 정보는 비트스트림으로부터 분석(parse)된다. 단계(630)에 도시된 바와 같이, 깊이 의존성 지시가 어서트되면, 적어도 하나의 깊이 의존 코딩 툴과 연관된 제 2 구문 정보가 분석된다. 단계(640)에 도시된 바와 같이, 상기 적어도 하나의 깊이 의존 코딩 툴이 어서트되면, 상기 적어도 하나의 깊이 의존 코딩 툴이 적용되어 이전에 디코딩된 깊이 픽처로부터의 정보를 이용하여 현재 텍스처 픽처를 디코딩한다.
앞서 도시된 흐름도는 본 발명의 실시예에 따라 호환 가능 깊이 의존 코딩의 예를 나타내도록 의도된다. 당업자는 본 발명의 사상을 벗어나지 않고 본 발명을 실행하기 위해서 각 단계를 수정하거나, 단계를 재배열하거나, 단계를 분할하거나, 단계를 결합할 수 있다.
위에 기술된 바와 같은 본 발명의 실시예들은 다양한 하드웨어, 소프트웨어 코드, 또는 이들의 조합으로 구현될 수 있다. 예를 들어, 본 발명의 실시예는 본 명세서에 기술된 프로세싱을 수행하기 위해서 비디오 압축 칩에 통합된 회로 또는 비디오 압축 소프트웨어에 통합된 프로그램 코드일 수 있다. 본 발명의 실시예는 또한 본 명세서에 기술된 프로세싱을 수행하기 위해서 디지털 신호 프로세서(Digital Signal Processor; DSP) 상에서 실행될 프로그램 코드일 수도 있다. 본 발명은 또한 컴퓨터 프로세서, 디지털 신호 프로세서, 마이크로프로세서, 필드 프로그램 가능 게이트 어레이(field programmable gate array; FPGA)에 의해 수행될 다수의 기능들을 포함할 수도 있다. 이러한 프로세서들은 본 발명에 의해 구현되는 특정한 방법들을 정의하는 기계 판독 가능 소프트웨어 코드 또는 펌웨어 코드를 실행함으로써, 본 발명에 따른 특정한 작업들을 수행하도록 구성될 수 있다. 소프트웨어 코드 또는 펌웨어 코드는 상이한 프로그래밍 언어 및 상이한 포맷 또는 방식으로 개발될 수 있다. 소프트웨어 코드는 또한 상이한 타겟 플랫폼으로 컴파일될 수도 있다. 그러나, 소프트웨어 코드의 상이한 코드 포맷, 방식 및 언어, 및 본 발명을 따르는 작업들을 수행하기 위한 코드를 구성하는 다른 수단들은 본 발명의 사상 및 범위로부터 벗어나지 않을 것이다.
본 발명은 본 발명의 사상 또는 본질적인 특징으로부터 벗어남 없이 기타의 특정한 형태로 구현될 수 있다. 기술된 예들은 모든 측면들에서 본 발명에 대한 제한이 아닌 단지 설명용으로서 고려되어야 한다. 그러므로, 본 발명의 범위는 전술한 설명에 의한 것보다는 첨부된 특허청구범위에 의해 나타난다. 특허청구범위의 등가적인 범위 및 의미에 속하는 모든 변경들은 본 발명의 범위 내에 포함되어야 한다.

Claims (19)

  1. 3차원 또는 멀티 뷰 비디오 디코딩을 위한 방법에 있어서,
    디코딩될 현재 텍스처 픽처에 대한 코딩된 데이터를 포함하는 코딩된 시퀀스에 대응하는 비트스트림을 수신하는 단계로서, 상기 현재 텍스처 픽처는 의존 뷰(dependent view)에 있는 것인, 비트스트림을 수신하는 단계;
    상기 비트스트림으로부터 깊이 의존성 지시에 관련된 구문(syntax) 정보를 분석(parsing)하는 단계;
    상기 깊이 의존성 지시가 어서트(assert)되면, 적어도 하나의 깊이 의존 코딩 툴과 연관된 제 2 구문 정보를 분석하는 단계; 및
    상기 적어도 하나의 깊이 의존 코딩 툴이 어서트되면, 이전에 디코딩된 깊이 픽처로부터의 정보를 이용하여 상기 현재 텍스처 픽처를 디코딩하기 위해 상기 적어도 하나의 깊이 의존 코딩 툴을 적용하는 단계
    를 포함하는 3차원 또는 멀티 뷰 비디오 디코딩을 위한 방법.
  2. 제 1 항에 있어서, 상기 깊이 의존성 지시에 관련된 구문 정보는, 비디오 파라미터 세트(Video Parameter Set; VPS) 또는 시퀀스 파라미터 세트(Sequence Parameter Set; SPS)에 있는 것인, 3차원 또는 멀티 뷰 비디오 디코딩을 위한 방법.
  3. 제 1 항에 있어서, 상기 깊이 의존성 지시에 관련된 구문 정보는 픽처 파라미터 세트(Picture Parameter Set; PPS)에 있는 것인, 3차원 또는 멀티 뷰 비디오 디코딩을 위한 방법.
  4. 제 3 항에 있어서, 상기 픽처 파라미터 세트에서의 상기 깊이 의존성 지시에 관련된 구문 정보는 동일한 시퀀스의 모든 픽처들에 대해 동일한 것인, 3차원 또는 멀티 뷰 비디오 디코딩을 위한 방법.
  5. 제 1 항에 있어서, 상기 깊이 의존성 지시에 관련된 구문 정보는 슬라이스 헤더(Slice Header)에 있는 것인, 3차원 또는 멀티 뷰 비디오 디코딩을 위한 방법.
  6. 제 5 항에 있어서, 상기 슬라이스 헤더에서의 상기 깊이 의존성 지시에 관련된 구문 정보는 동일한 픽처의 모든 슬라이스들에 대해 동일한 것인, 3차원 또는 멀티 뷰 비디오 디코딩을 위한 방법.
  7. 제 1 항에 있어서, 상기 적어도 하나의 깊이 의존 코딩 툴과 연관된 제 2 구문 정보는, 비디오 파라미터 세트(VPS), 시퀀스 파라미터 세트(SPS), 픽처 파라미터 세트(PPS), 또는 슬라이스 헤더에 있는 것인, 3차원 또는 멀티 뷰 비디오 디코딩을 위한 방법.
  8. 제 7 항에 있어서, 상기 제 2 구문 정보가 상기 픽처 파라미터 세트에 있으면, 상기 픽처 파라미터 세트에서의 제 2 구문 정보는 동일한 시퀀스의 모든 픽처들에 대해 동일한 것인, 3차원 또는 멀티 뷰 비디오 디코딩을 위한 방법.
  9. 제 7 항에 있어서, 상기 제 2 구문 정보가 상기 슬라이스 헤더에 있으면, 상기 슬라이스 헤더에서의 제 2 구문 정보는 동일한 픽처의 모든 슬라이스들에 대해 동일한 것인, 3차원 또는 멀티 뷰 비디오 디코딩을 위한 방법.
  10. 제 1 항에 있어서, 상기 적어도 하나의 깊이 의존 코딩 툴은, 역방향 뷰 합성 예측(Backward View Synthesis Prediction; BVSP) 및 깊이 지향 인접 블록 변이 벡터(Depth-oriented Neighboring Block Disparity Vector; DoNBDV)에 대응하는 것인, 3차원 또는 멀티 뷰 비디오 디코딩을 위한 방법.
  11. 제 10 항에 있어서, 상기 적어도 하나의 깊이 의존 코딩 툴과 연관된 제 2 구문 정보가 상기 비트스트림에 존재하지 않으면, 상기 적어도 하나의 깊이 의존 코딩 툴은 어서트되지 않는 것인, 3차원 또는 멀티 뷰 비디오 디코딩을 위한 방법.
  12. 3차원 또는 멀티 뷰 비디오 인코딩을 위한 방법에 있어서,
    의존 뷰의 현재 텍스처 픽처를 수신하는 단계;
    깊이 의존성 지시를 결정하는 단계;
    상기 깊이 의존성 지시가 어서트되면, 적어도 하나의 깊이 의존 코딩 툴을 결정하는 단계;
    상기 적어도 하나의 깊이 의존 코딩 툴이 어서트되면, 코딩된 깊이 픽처로부터의 정보를 이용하여 상기 현재 텍스처 픽처를 인코딩하기 위해 상기 적어도 하나의 깊이 의존 코딩 툴을 적용하는 단계;
    상기 깊이 의존성 지시에 관련된 구문 정보를, 상기 현재 텍스처 픽처를 포함하는 시퀀스에 대한 비트스트림에 통합시키는 단계; 및
    상기 적어도 하나의 깊이 의존 코딩 툴이 어서트되면, 상기 적어도 하나의 깊이 의존 코딩 툴에 관련된 제 2 구문 정보를 통합시키는 단계
    를 포함하는 3차원 또는 멀티 뷰 비디오 인코딩을 위한 방법.
  13. 제 12 항에 있어서, 상기 깊이 의존성 지시에 관련된 구문 정보는, 비디오 파라미터 세트(VPS) 또는 시퀀스 파라미터 세트(SPS)에 있는 것인, 3차원 또는 멀티 뷰 비디오 인코딩을 위한 방법.
  14. 제 12 항에 있어서, 상기 깊이 의존성 지시에 관련된 구문 정보는 픽처 파라미터 세트(PPS)에 있고, 상기 픽처 파라미터 세트에서의 상기 깊이 의존성 지시에 관련된 구문 정보는 동일한 시퀀스의 모든 픽처들에 대해 동일한 것인, 3차원 또는 멀티 뷰 비디오 인코딩을 위한 방법.
  15. 제 12 항에 있어서, 상기 깊이 의존성 지시에 관련된 구문 정보는 슬라이스 헤더에 있고, 상기 슬라이스 헤더에서의 상기 깊이 의존성 지시에 관련된 구문 정보는 동일한 픽처의 모든 슬라이스들에 대해 동일한 것인, 3차원 또는 멀티 뷰 비디오 인코딩을 위한 방법.
  16. 제 12 항에 있어서, 상기 적어도 하나의 깊이 의존 코딩 툴과 연관된 제 2 구문 정보는, 비디오 파라미터 세트(VPS), 시퀀스 파라미터 세트(SPS), 픽처 파라미터 세트(PPS), 또는 슬라이스 헤더에 통합되는 것인, 3차원 또는 멀티 뷰 비디오 인코딩을 위한 방법.
  17. 제 16 항에 있어서, 상기 제 2 구문 정보가 상기 픽처 파라미터 세트에 있으면, 상기 픽처 파라미터 세트에서의 제 2 구문 정보는 동일한 시퀀스의 모든 픽처들에 대해 동일한 것인, 3차원 또는 멀티 뷰 비디오 인코딩을 위한 방법.
  18. 제 16 항에 있어서, 상기 제 2 구문 정보가 상기 슬라이스 헤더에 있으면, 상기 슬라이스 헤더에서의 제 2 구문 정보는 동일한 픽처의 모든 슬라이스들에 대해 동일한 것인, 3차원 또는 멀티 뷰 비디오 인코딩을 위한 방법.
  19. 제 12 항에 있어서, 상기 적어도 하나의 깊이 의존 코딩 툴은, 역방향 뷰 합성 예측(BVSP) 및 깊이 지향 인접 블록 변이 벡터(DoNBDV)에 대응하는 것인, 3차원 또는 멀티 뷰 비디오 인코딩을 위한 방법.
KR1020157024368A 2013-04-12 2014-04-11 호환 가능 깊이 독립 코딩 방법 및 장치 KR101784579B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
PCT/CN2013/074165 WO2014166119A1 (en) 2013-04-12 2013-04-12 Stereo compatibility high level syntax
CNPCT/CN2013/074165 2013-04-12
PCT/CN2014/075195 WO2014166426A1 (en) 2013-04-12 2014-04-11 Method and apparatus of compatible depth dependent coding

Publications (2)

Publication Number Publication Date
KR20150118988A KR20150118988A (ko) 2015-10-23
KR101784579B1 true KR101784579B1 (ko) 2017-10-11

Family

ID=51688888

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157024368A KR101784579B1 (ko) 2013-04-12 2014-04-11 호환 가능 깊이 독립 코딩 방법 및 장치

Country Status (5)

Country Link
US (1) US20150358599A1 (ko)
EP (1) EP2984821A4 (ko)
KR (1) KR101784579B1 (ko)
CA (1) CA2896132C (ko)
WO (2) WO2014166119A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014166068A1 (en) * 2013-04-09 2014-10-16 Mediatek Inc. Refinement of view synthesis prediction for 3-d video coding
US10218957B2 (en) * 2014-06-20 2019-02-26 Hfi Innovation Inc. Method of sub-PU syntax signaling and illumination compensation for 3D and multi-view video coding
RU2721160C1 (ru) * 2016-10-11 2020-05-18 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство декодирования изображения на основе интрапредсказания в системе кодирования изображения
WO2020156538A1 (en) 2019-02-03 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Interaction between mv precisions and mv difference coding
CN113424533B (zh) 2019-02-14 2024-09-10 北京字节跳动网络技术有限公司 复杂度降低的解码器侧运动推导
KR102627834B1 (ko) 2019-05-11 2024-01-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 프로세싱에서의 코딩 툴들의 선택적 사용
EP3984227A4 (en) 2019-07-27 2022-08-17 Beijing Bytedance Network Technology Co., Ltd. TOOL USE RESTRICTIONS BASED ON TYPES OF REFERENCE IMAGES
WO2021068954A1 (en) 2019-10-12 2021-04-15 Beijing Bytedance Network Technology Co., Ltd. High level syntax for video coding tools

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7074551B2 (en) * 2003-08-04 2006-07-11 Eastman Kodak Company Imaging material with improved mechanical properties
EP2197217A1 (en) * 2008-12-15 2010-06-16 Koninklijke Philips Electronics N.V. Image based 3D video format
WO2010095410A1 (ja) * 2009-02-20 2010-08-26 パナソニック株式会社 記録媒体、再生装置、集積回路
US20110122225A1 (en) * 2009-11-23 2011-05-26 General Instrument Corporation Depth Coding as an Additional Channel to Video Sequence
WO2011091301A1 (en) * 2010-01-21 2011-07-28 General Instrument Corporation Full resolution stereoscopic video with 2d backward compatible signal
KR101584480B1 (ko) * 2010-04-13 2016-01-14 지이 비디오 컴프레션, 엘엘씨 평면 간 예측
CN101835056B (zh) * 2010-04-29 2011-12-07 西安电子科技大学 基于模型的纹理视频与深度图的最优码率分配方法
CN102790892B (zh) * 2012-07-05 2014-06-11 清华大学 深度图编码方法及装置
CN104813669B (zh) * 2012-09-21 2018-05-22 诺基亚技术有限公司 用于视频编码的方法和装置
US20140098883A1 (en) * 2012-10-09 2014-04-10 Nokia Corporation Method and apparatus for video coding
JP6042556B2 (ja) * 2012-11-16 2016-12-14 寰發股▲ふん▼有限公司HFI Innovation Inc. 3dビデオ符号化における制約される視差ベクトル導出の方法と装置
US9584792B2 (en) * 2013-01-04 2017-02-28 Qualcomm Incorporated Indication of current view dependency on reference view in multiview coding file format
US9762882B2 (en) * 2013-01-11 2017-09-12 Hfi Innovation Inc. Method and apparatus for efficient coding of depth lookup table
US9781416B2 (en) * 2013-02-26 2017-10-03 Qualcomm Incorporated Neighboring block disparity vector derivation in 3D video coding
US9237345B2 (en) * 2013-02-26 2016-01-12 Qualcomm Incorporated Neighbor block-based disparity vector derivation in 3D-AVC
US9596448B2 (en) * 2013-03-18 2017-03-14 Qualcomm Incorporated Simplifications on disparity vector derivation and motion vector prediction in 3D video coding
US9521425B2 (en) * 2013-03-19 2016-12-13 Qualcomm Incorporated Disparity vector derivation in 3D video coding for skip and direct modes
US9762905B2 (en) * 2013-03-22 2017-09-12 Qualcomm Incorporated Disparity vector refinement in video coding
US9516306B2 (en) * 2013-03-27 2016-12-06 Qualcomm Incorporated Depth coding modes signaling of depth data for 3D-HEVC
US9369708B2 (en) * 2013-03-27 2016-06-14 Qualcomm Incorporated Depth coding modes signaling of depth data for 3D-HEVC
US9609347B2 (en) * 2013-04-04 2017-03-28 Qualcomm Incorporated Advanced merge mode for three-dimensional (3D) video coding
WO2014166068A1 (en) * 2013-04-09 2014-10-16 Mediatek Inc. Refinement of view synthesis prediction for 3-d video coding
US10158876B2 (en) * 2013-04-10 2018-12-18 Qualcomm Incorporated Backward view synthesis prediction
CA2908115C (en) * 2013-07-08 2019-02-12 Mediatek Singapore Pte. Ltd. Method of simplified cabac coding in 3d video coding
US10218957B2 (en) * 2014-06-20 2019-02-26 Hfi Innovation Inc. Method of sub-PU syntax signaling and illumination compensation for 3D and multi-view video coding

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
G. Tech, et al. 3D-HEVC Test Model 3. JCT-3V of ITU-T and ISO/IEC. JCT3V-C1005 Ver.2, Mar. 24, 2013, pp.1-51
K. Zhang, et al. 3D-CE1.h related: A high level syntax suggestion for stereo compatibility in 3D-HEVC. JCT-3V of ITU-T and ISO/IEC. JCT3V-D0156 Ver.1, Apr. 13, 2013, pp.1-3
Y, Chang, et al. CE1.h: Depth-oriented Neighboring Block Disparity Vector (DoNBDV) with virtual depth retrieval. JCT-3V of ITU-T and ISO/IEC. JCT3V-C0131 Ver.3, Jan. 17, 2013, pp.1-5

Also Published As

Publication number Publication date
KR20150118988A (ko) 2015-10-23
WO2014166426A1 (en) 2014-10-16
WO2014166119A1 (en) 2014-10-16
CA2896132C (en) 2018-11-06
EP2984821A1 (en) 2016-02-17
EP2984821A4 (en) 2016-12-14
CA2896132A1 (en) 2014-10-16
US20150358599A1 (en) 2015-12-10

Similar Documents

Publication Publication Date Title
KR101784579B1 (ko) 호환 가능 깊이 독립 코딩 방법 및 장치
KR101706309B1 (ko) 3차원 비디오 코딩을 위한 뷰간 후보자 유도 방법 및 장치
CA2896905C (en) Method and apparatus of view synthesis prediction in 3d video coding
US20160073132A1 (en) Method of Simplified View Synthesis Prediction in 3D Video Coding
KR101861497B1 (ko) 3d 비디오 코딩에서의 카메라 파라미터 시그널링의 방법 및 장치
JP6042556B2 (ja) 3dビデオ符号化における制約される視差ベクトル導出の方法と装置
US10244259B2 (en) Method and apparatus of disparity vector derivation for three-dimensional video coding
EP2936815A1 (en) Method and apparatus of disparity vector derivation in 3d video coding
US20150358643A1 (en) Method of Depth Coding Compatible with Arbitrary Bit-Depth
US20150071362A1 (en) Image encoding device, image decoding device, image encoding method, image decoding method and program
CN105103543B (zh) 兼容的深度依赖编码方法
KR101313223B1 (ko) 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및 생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이 기록된 기록 매체
KR20130056258A (ko) 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및 생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이 기록된 기록 매체
CN105144714A (zh) 三维视频编码的视差向量推导的方法及装置
KR101343576B1 (ko) 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및 생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이 기록된 기록 매체
KR20120131138A (ko) 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및 생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이 기록된 기록 매체

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant