KR101846762B1 - 3d 비디오 코딩에서의 서브-pu 움직임 정보 상속 방법 - Google Patents

3d 비디오 코딩에서의 서브-pu 움직임 정보 상속 방법 Download PDF

Info

Publication number
KR101846762B1
KR101846762B1 KR1020167022748A KR20167022748A KR101846762B1 KR 101846762 B1 KR101846762 B1 KR 101846762B1 KR 1020167022748 A KR1020167022748 A KR 1020167022748A KR 20167022748 A KR20167022748 A KR 20167022748A KR 101846762 B1 KR101846762 B1 KR 101846762B1
Authority
KR
South Korea
Prior art keywords
block
depth
sub
motion parameters
depth sub
Prior art date
Application number
KR1020167022748A
Other languages
English (en)
Other versions
KR20160117489A (ko
Inventor
지청 안
카이 장
지안-리앙 린
Original Assignee
에이치에프아이 이노베이션 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이치에프아이 이노베이션 인크. filed Critical 에이치에프아이 이노베이션 인크.
Publication of KR20160117489A publication Critical patent/KR20160117489A/ko
Application granted granted Critical
Publication of KR101846762B1 publication Critical patent/KR101846762B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

3차원 비디오 코딩에서 깊이 블록을 코딩하는 방법 및 장치가 개시된다. 본 발명의 실시예들은, 깊이 블록을 깊이 서브-블록들로 분할하고, 디폴트 움직임 파라미터들을 결정한다. 각 깊이 서브-블록에 대하여, 깊이 서브-블록의 중심 샘플을 커버하는 코-로케이션된 텍스쳐 블록의 움직임 파라미터들이 결정된다. 움직임 파라미터들이 이용 가능하면, 움직임 파라미터들은 깊이 서브-블록에 대하여 상속된 움직임 파라미터들로서 할당된다. 움직임 파라미터들이 이용 가능하지 않으면, 디폴트 움직임 파라미터들은 깊이 서브-블록에 대하여 상속된 움직임 파라미터들로서 할당된다. 다음, 깊이 서브-블록은, 상속된 움직임 파라미터들 또는 상속된 움직임 파라미터들을 포함하는 움직임 후보 세트로부터 선택된 움직임 후보를 이용하여 인코딩 또는 디코딩된다. 깊이 블록은 깊이 예측 유닛(PU)에 대응할 수도 있고, 깊이 서브-블록은 깊이 서브-PU에 대응한다.

Description

3D 비디오 코딩에서의 서브-PU 움직임 정보 상속 방법{METHOD FOR SUB-PU MOTION INFORMATION INHERITANCE IN 3D VIDEO CODING}
관련 출원으로의 교차 참조
본 발명은, 발명의 명칭이 "Methods for Motion Parameter Hole Filling"인, 2014년 1월 27일 출원된 PCT 특허 출원 제PCT/CN2014/071576호에 대한 우선권을 주장한다. 이 PCT 특허 출원은 여기서 그 전체가 참조용으로 사용되었다.
본 발명은 3차원 비디오 코딩에 관한 것이다. 특히, 본 발명은, 3차원 비디오 코딩에서 텍스쳐 화상으로부터 상속된 움직임 정보를 이용하는 깊이 코딩에 관한 것이다.
3차원(3D) 텔레비젼은, 최근 몇해, 뷰어(viewer)에게 획기적인 뷰잉(viewing) 경험을 제공하고자 하는 기술 트렌드였다. 3D 뷰잉을 가능하게 하기 위하여 다양한 기술들이 개발되어 왔다. 다른 것들 중에서 3DTV 애플리케이션에 대하여 멀티-뷰 비디오가 핵심 기술이다. 종래의 비디오는, 뷰어에게 카메라의 시각으로부터의 장면의 단일 뷰를 제공만하는 2차원(2D) 매체이다. 그러나, 멀티-뷰 비디오는 다이나믹한 장면들의 임의의 시점들을 제공할 수 있어, 뷰어에게 리얼리즘의 돌풍을 제공한다. 3D 비디오 포맷은 또한, 대응하는 텍스쳐 화상과 연관된 깊이 맵을 포함할 수도 있다. 깊이 맵은 또한 3차원 뷰 또는 멀티-뷰를 렌더링하기 하기 위하여 코딩되어야 한다.
3D 비디오 코딩의 코딩 효율성을 향상시키기 위한 다양한 기술이 이 분야에서 개시되어 있다. 또한, 코딩 기술을 표준화하기 위한 개발 활동도 존재한다. 예컨대, ISO(International Organization for Standardization) 내의 연구 그룹, ISO/IEC JTC1/SC29/WG11은 HEVC(High Efficiency Video Coding) 기반 3D 비디오 코딩 표준(3D-HEVC라고 명명)을 개발하고 있다. 3D-HEVC에서, 깊이 맵이 텍스쳐 화상으로부터 움직임 정보를 상속하는 것을 허용하도록, 움직임 파라미터 상속(motion parameter inheritance, MPI)라고 불리는 기술이 개발되었다(예컨대, 게하드 테크(Gerhard Tech) 외, "3D- HEVC Draft Text 2", ITU-T SG 16 WP 3 및 ISO/IEC JTC 1/SC 29/WG 11의 3D 비디오 코딩 연장 개발(3D Video Coding Extension Development)의 공동 협력팀(Joint Collaborative Team), 6회차 미팅; 제네바, 스위스, 2013년 10월 25일 - 11월 1일, 문서: JCT3V-F1001). MPI 모드 배후의 기본 개념은, 비디오 신호의 움직임 특성과 그 연관된 깊이 맵이 유사해야 한다는 것이며, 이것은, 모두 동시 순간에 동일한 시점으로부터 동일한 장면의 투사에 대응하기 때문이다. 깊이 맵 데이터의 효율적인 인코딩을 가능하게 하기 위하여, 깊이 맵 데이터가, 대응하는 비디오 신호로부터 코딩 유닛(coding unit, CU) 및 예측 유닛(prediction unit, PU) 파티션 및 대응하는 움직임 파라미터를 상속하도록 허용하는 데 MPI 모드가 사용된다. HEVC에 따른 비디오 신호의 움직임 벡터는 쿼터-샘플(quarter-sample) 정확성을 사용한다. 반면, 깊이 맵의 움직임 벡터는 풀-샘플(full-sample) 정확성을 사용한다. 따라서, 상속 프로세스에서, 비디오 신호의 움직임 벡터는 가장 가까운 풀-샘플 위치로 양자화되고, 이것은 2 우측 시프트(right-shift-by-2) 동작에 의하여 실행될 수 있다. 비디오 신호로부터 움직임 정보를 상속하는지 또는 자신의 움직임 정보를 사용하는지에 관한 결정은, 깊이 맵의 각 블록에 대하여 적응적으로 행해질 수 있다.
MPI 모드는 깊이 맵의 계층적 코딩-트리 블록의 임의 레벨에서 사용될 수 있다. MPI 모드가 깊이 맵 코딩 트리의 상위 레벨에서 나타나면, 이 상위 레벨 유닛에서의 깊이 맵 데이터는, 비디오 신호로부터 대응하는 움직임 데이터는 물론, CU/PU 서브디비젼(subdivision)을 상속할 수 있다. 3D 비디오 코딩 연장의 공동 협력팀 내의 보다 최근의 개발에서, 서브-PU(sub-prediction unit) 레벨 MPI가 개시되었다(잉 첸(Ying Chen) 외, "CE2: Sub-PU based MPI", ITU-T SG 16 WP 3 및 ISO/IEC JTC 1/SC 29/WG 11의 3D 비디오 코딩 연장 개발의 공동 협력팀, 7회차 미팅; 산 호세, 미국, 2014년 1월 11일 - 17일, 문서: JCT3V-G0119). 서브-PU 레벨 MPI 합병(merge) 후보로, 현재 깊이 PU 내의 각 서브-PU에 대하여, 현재 서브-PU의 중간 위치를 커버하는 코-로케이션된(co-located) 텍스쳐 블록의 움직임 파라미터가 현재 서브-PU에 대하여 상속된다(움직임 벡터의 2 우측 시프트로).
상술된 바와 같이, 서브-PU MPI는, 동일한 액세스 유닛에서 코-로케이션된 텍스쳐 블록(참조 블록)의 움직임 파라미터로부터 각 서브-PU의 움직임 파라미터를 유도한다. 서브-PU MPI 프로세스 동안 한 세트의 일시적인(temporary) 움직임 파라미터가 저장되고 갱신된다. 각 서브-PU에 대하여, 현재 서브-PU에 대한 참조 블록의 움직임 파라미터가 이용 가능하면, 일시적인 움직임 파라미터는 참조 블록의 움직임 파라미터로 갱신된다. 그렇지 않고, 참조 블록이 이용 가능한 움직임 파라미터를 갖지 않으면, 일시적인 움직임 파라미터는 현재 서브-PU에 복사된다. 이 프로세스는 움직임 파라미터 홀 필링(hole filling) 프로세스라고 부른다.
현재 서브-PU 움직임 홀 필링 프로세스는, 대응하는 참조 블록이 이용 가능한 움직임 파라미터(움직임 홀)를 갖지 않을 때, 서브-PU에 대한 일시적인 움직임 파라미터를 사용한다. 도 1은, 현존 접근법에 따른 움직임 홀 필링의 예를 도시한다. 이 예에서, 현재 깊이 PU(110)는 16개의 서브-PU들로 구획된다. 각 서브-PU에 대하여, 코-로케이션된 텍스쳐 블록의 움직임 파라미터가 존재한다면, 각 서브-PU의 중간 부분을 커버하는 코-로케이션된 텍스쳐 블록(120)의 움직임 파라미터가 상속된다. 코-로케이션된 텍스쳐 블록의 움직임 파라미터가 이용 가능하지 않으면, 코-로케이션된 텍스쳐 블록은 움직임 홀을 갖는다. 코-로케이션된 블록에 2개의 움직임 홀들(채워진 패턴으로 하이라이트된 블록(2) 및 블록(12))이 있다. 도면 부호 130으로 도시된 바와 같이 서브-PU들이 래스터 주사 순으로 처리되면, 움직임 홀은 움직임 홀 전의 최종 이용 가능한 MPI에 의하여 채워질 수 있다. 따라서, 서브-PU(2)에 대한 움직임 파라미터들은 서브-PU(1)로부터의 움직임 파라미터들을 사용하여 채워질 수 있고, 서브-PU(12)에 대한 움직임 파라미터들은 서브-PU(11)로부터의 움직임 파라미터들을 사용하여 채워질 수 있다. 도 1에 도시된 바와 같이, 움직임 홀을 채우기 위하여, 서브-PU 움직임 홀 필링 프로세스는, 움직임 홀 전의 이용 가능한 움직임 파라미터를 갖는 최종 서브-PU 위치를 식별할 필요가 있다. 따라서, 움직임 홀을 채우는 데 사용되는 움직임 파라미터는, 서브-PU 처리 순서에 의존하며, 병렬 프로세싱에는 친화적이지 않다.
3차원 비디오 코딩에서의 깊이 블록을 코딩하는 방법 및 장치가 개시된다. 본 발명의 실시예들은 깊이 블록을 깊이 서브-블록들로 분할하고, 디폴트 움직임 파라미터들을 결정한다. 각 깊이 서브-블록에 대하여, 깊이 서브-블록의 중심 샘플을 커버하는 코-로케이션된 텍스쳐 블록의 움직임 파라미터가 결정된다. 움직임 파라미터들이 이용 가능하면, 움직임 파라미터들이 깊이 서브-블록에 대하여 상속된 움직임 파라미터들로서 할당된다. 움직임 파라미터들이 이용 가능하지 않으면, 디폴트 움직임 파라미터들은 깊이 서브-블록에 대하여 상속된 움직임 파라미터들로서 할당된다. 다음, 깊이 서브-블록은, 상속된 움직임 파라미터들 또는 상속된 움직임 파라미터들을 포함하는 움직임 후보 세트로부터 선택된 움직임 후보를 사용하여 인코딩 또는 디코딩된다. 깊이 블록은 깊이 예측 유닛(PU)에 대응할 수도 있고, 깊이 서브-블록은 깊이 서브-PU에 대응한다. 현재 깊이 서브-블록의 중심 샘플은, 현재 깊이 서브-블록의 우측 하부 사분면에서 현재 깊이 서브-블록의 중심점에 인접한 깊이 샘플에 대응할 수도 있다.
디폴트 움직임 파라미터는, 다수의 깊이 서브-블록들 중 선택된 깊이 서브-블록을 커버하는 코-로케이션된 텍스쳐 블록과 연관된 움직임 파라미터에 기초하여 결정될 수 있다. 예컨대, 다수의 깊이 서브-블록들 중 선택된 깊이 서브-블록은, 깊이 블록의 중심점의 우측 하부 위치에 위치된 다수의 깊이 서브-블록들의 중심 깊이 서브-블록에 대응할 수도 있다. 다수의 깊이 서브-블록들 중 선택된 깊이 서브-블록은 또한, 깊이 블록의 중심점의 좌측 하부, 좌측 상부, 또는 우측 상부 위치에 위치된 다수의 깊이 서브-블록들의 중심 깊이 서브-블록에 대응할 수도 있다. 현재 깊이 서브-블록의 중심 샘플을 커버하는 코-로케이션된 텍스쳐 블록의 움직임 파라미터와 디폴트 움직임 파라미터 모두가 사용 가능하지 않으면, 현재 깊이 서브-블록에 대한 상속된 움직임 파라미터는 이용 가능하지 않은 것으로 설정된다.
디폴트 움직임 파라미터는, 3D-HEVC에서의 다른 합병 후보로 프루닝(pruning)하기 위한 대표적인 움직임 파라미터로서 이용될 수 있다. 또한, 깊이 서브-블록 크기가 임계값보다 작으면, 움직임 후보 세트 프루닝은 디스에이블될 수 있다.
도 1은, 고효율 비디오 코딩에 기초한 현존하는 3차원 비디오 코딩(3D-HEVC)에 따른 움직임 홀 필링 프로세스의 예를 도시한다.
도 2a는, 본 발명의 실시예에 따라 디폴트 움직임 파라미터를 결정하기 위하여, PU의 중심점의 우측 하부 위치에서의 서브-PU에 대응하는 중심 서브-PU와 연관된 코-로케이션된 텍스쳐 블록의 움직임 파라미터들을 사용하는 움직임 홀 필링 프로세스의 예를 도시한다.
도 2b는, PU의 중심점의 우측 하부 위치에서의 서브-PU의 중심 샘플을 커버하는 코-로케이션된 텍스쳐 블록의 움직임 파라미터들에 기초한 디폴트 움직임 파라미터 도출의 예를 도시하며, 여기서 서브-PU의 중심 샘플의 위치는 서브-PU의 중심점의 우측 하부 샘플에 대응한다.
도 3은, 본 발명의 실시예에 따른 움직임 홀 필링 처리에 대한 디폴트 움직임 파라미터를 사용하는 3차원 코딩 시스템의 예시적인 흐름도를 도시한다.
종래의 3D-HEVC에서, 움직임 홀에 대한 움직임 파라미터 상속(Motion Parameter Inheritance, MPI) 홀 필링 프로세스는, 움직임 홀 전의 최종 이용 가능한 MPI에 의존한다. 따라서, 움직임 홀의 움직임 파라미터는 서브-PU 처리순에 의존하며, 병렬 프로세싱에 친화적이지 않다. 이 쟁점을 극복하기 위하여, 본 발명의 실시예들은 움직임 홀 필링에 대한 디폴트 움직임 파라미터를 사용하여, 각 서브-PU에 대한 움직임 예측은 병렬로 행해질 수 있다. 또한, 움직임 후보의 프루닝은, 상속된 움직임 파라미터들을 결정하기 위하여, 모든 서브-PU들을 대기할 필요가 없다. 따라서, 현재 PU 내의 각 서브-PU에 대하여, 그 대응 참조 블록이 이용 가능한 움직임 파라미터들을 포함하지 않으면, 서브-PU를 위하여 디폴트 움직임 파라미터들이 사용된다. PU 또는 서브-PU와 연관된 움직임 정보는, 움직임 벡터(들), 참조 화상 인덱스(들), 참조 화상 리스트(들) 등 중 하나 이상을 포함한다. 각 PU 또는 서브-PU와 연관된 움직임 정보는 본 개시에서 움직임 파라미터들로서 언급된다.
디폴트 움직임 파라미터는, 선택된 깊이 서브-PU와 연관된 코-로케이션된 텍스쳐 참조 블록의 움직임 파라미터들에 따라 결정될 수도 있다. 또한, 코-로케이션된 텍스쳐 참조 블록은, 선택된 깊이 서브-PU의 중심 샘플을 커버하는 참조 블록에 대응할 수도 있다. 선택된 깊이 서브-PU는 깊이 PU에서 임의의 서브-PU에 대응할 수도 있다. 그러나, PU의 중심에서 깊이 서브-PU를 선택하는 것이 바람직하다. 예컨대, 중심 서브-PU는, 도 2a에 도시된 바와 같이, PU(230)의 중심점(210)의 우측 하부 위치(220)에서 서브-PU에 대응할 수도 있다. 그럼에도, 다른 중심 서브-PU가 또한 선택될 수도 있다. 예컨대, PU의 중심 서브-PU는, 중심점(210)의 좌측 하부, 우측 상부, 또는 좌측 상부 위치에 위치된 서브-블록에 대응할 수도 있다. 다시 말하면, 중심 서브-PU는, 각 사분면에서 현재 PU의 중심점(210)에 인접한 서브-PU에 대응한다. 예측 유닛(PU)이 블록 구조의 예로서 사용되고, 코딩 유닛(CU) 또는 매크로블록(MB)과 같은 다른 블록 구조 또한 사용될 수도 있다.
디폴트 움직임 파라미터들을 결정하는 일예가 다음과 같이 개시된다. 깊이 PU의 중심을 커버하는 코-로케이션된 텍스쳐 블록이 이용 가능한 움직임 파라미터들을 갖는다면, 이용 가능한 움직임 파라미터들은 디폴트 움직임 파라미터들로서 사용된다. 예컨대, nPSW와 nPSH가 PU의 너비와 높이이고, nSubPsW와 nSubPsH가 서브-PU의 너비와 높이이면, 중심 화소(xc , yc)는 다음에 따라 결정될 수 있다.
Figure 112016080744082-pct00001
도 2b는, PU의 중심점의 우측 하부 위치에서 서브-PU의 중심 샘플을 커버하는 코-로케이션된 텍스쳐 블록의 움직임 파라미터에 기초한 디폴트 움직임 파라미터 도출의 예를 도시한다. PU의 중심점(210)의 우측 하부 위치(220)에서의 서브-PU의 중심 샘플(240)의 위치는, 식 (1) 및 (2)에 따라 결정된다. 도 2b의 예에서, nPSW/nSubPsW 및 nPSH/nSubPsH 모두는 4에 동일하다.
중심 픽셀을 커버하는 텍스쳐 블록이 이용 가능한 움직임 파라미터들을 갖지 않으면, 서브-PU MPI 프로세스가 종료된다.
다른 실시예에서, 움직임 홀 필링 프로세스는 PU 크기 또는 CU(coding unit) 크기에 좌우될 수 있다. 예컨대, 움직임 홀 필링 프로세스는, PU 또는 CU 크기가 임계값과 동일하거나 더 클 때만 수행될 것이다. PU 또는 CU 크기가 임계값보다 작으면, 움직임 홀 필링 프로세스가 종료된다.
상속된 움직임 파라미터들은 깊이 서브-PU들을 인코딩 또는 디코딩하는 데 사용될 수 있다. 상속된 움직임 파라미터들은, 서브-PU들에 대한 후보 세트에서의 다른 움직임 후보들과 함께 움직임 후보로서 또한 사용될 수도 있다. 일반적으로, 프루닝 프로세스는, 새로운 후보가 추가될 때 후보 세트에 적용될 것이다. 최종 움직임 후보가 선택될 수도 있다. 최종 후보는 깊이 서브-PU들의 인코딩 또는 디코딩을 위하여 사용될 수도 있다. 최종 후보는, 깊이 서브-PU들과 연관된 움직임 정보를 인코딩 또는 디코딩하기 위한 예측자(predictor)로서 또한 사용될 수도 있다. 예컨대, 최종 후보는, 깊이 서브-PU에 대한 움직임 벡터를 코딩하기 위하여 병합 후보(Merge candidate)로서 사용될 수도 있다.
본 발명의 실시예를 사용하는 움직임 파라미터 상속의 성능은, JCT3V-G0119에 대응하는 앵커 시스템의 성능과 비교된다. 성능 비교는, 테스트 데이터의 상이한 세트들에 기초하여 수행된다. 본 발명의 실시예는, BD-레이트의 관점에서 약간의 향상을 나타내며, 이 BD-레이트는 비디오 압축 분야에서 통상적으로 사용된 성능 대책이다.
도 3은, 본 발명의 실시예에 따른 움직임 정보 상속을 사용하는 3차원 코딩 시스템에서의 깊이 블록을 처리하는 예시적인 흐름도를 도시한다. 본 시스템은, 단계 310에 나타낸 바와 같이 깊이 맵의 현재 깊이 블록과 연관된 입력 데이터를 수신한다. 인코더 측에서, 입력 데이터는 코딩될 깊이 블록에 대응한다. 디코더 측에서, 입력 데이터는 디코딩될 코딩된 깊이 데이터에 대응한다. 입력 데이터는, 컴퓨터 메모리, 버퍼(RAM 또는 DRAM) 또는 다른 매체와 같은 기억 장치로부터 검색될 수도 있다. 입력 데이터는 또한, 제어기, 중앙 처리 장치(CPU), 디지털 신호 프로세서 또는 입력 데이터를 도출하는 전자 회로들과 같은 프로세서로부터 수신될 수도 있다. 현재 깊이 블록은 단계 320에 도시된 바와 같이 다수의 깊이 서브-블록들로 분할되고, 단계 330에서 디폴트 움직임 파라미터들이 결정된다. 인코더측에서, 인코더는, 블록을 서브-블록들로 분할하는 방법을 결정할 수도 있다. 블록 파티션과 연관된 정보는 비트스트림으로 포함되어야 하여서, 디코더가 블록을 올바르게 구획할 수도 있다. 또는, 블록 파티션은 암묵적으로(implicitly) 미리 정의되거나 결정될 수도 있어서, 비트스트림으로 파티션 정보를 송신할 필요가 없다. 단계 340에서 도시된 바와 같이, 현재 깊이 서브-블록의 중심 샘플을 커버하는 제1 코-로케이션된 텍스쳐 블록과 연관된 제1 움직임 파라미터들이 결정된다. 동일한 액세스 유닛에서의 텍스쳐 데이터가 깊이 데이터 전에 코딩되므로, 대응 텍스쳐 블록과 연관된 움직임 파라미터는 이미 처리되어야 한다. 단계 350에서, 제1 움직임 파라미터들이 이용 가능한지의 여부에 관한 결정이 행해진다. 결과가 "예"이면, 단계 360이 수행된다. 결과가 "아니오"이면, 단계 370이 행해진다. 단계 360에서, 현재 깊이 서브-블록에 대한 상속된 움직임 파라미터들로서 제1 움직임 파라미터들이 할당된다. 단계 370에서, 현재 깊이 서브-블록에 대한 상속된 움직임 파라미터들로서 디폴트 움직임 파라미터들이 할당된다. 다음, 단계 380에 도시된 바와 같이, 상속된 움직임 파라미터들 또는 상속된 움직임 파라미터들을 포함하는 움직임 후보로부터 선택된 움직임 후보를 사용하여 현재 깊이-서브 블록에 코딩 또는 디코딩이 적용된다. 단계 390에서, 모든 깊이 서브-블록들이 처리되었는지의 여부를 체크한다. 결과가 "예"이면, 깊이 블록에 대한 프로세스가 종료된다. 결과가 "아니오"이면, 프로세스는 단계 340으로 진행하여, 다른 깊이 서브-블록을 처리한다.
상기 도시된 흐름도는, 본 발명의 실시예에 따른 움직임 파라미터 상속의 예를 도시하고자 한다. 당업자는, 본 발명의 사상으로부터 벗어나지 않고 본 발명을 실행하기 위해 각 단계를 수정하고, 단계들을 재배열하고, 단계를 분할하거나 단계들을 병합할 수도 있다.
상기 설명은, 당업자가 특정 응용 및 그 요건의 문맥에서 제공된 바와 같은 본 발명을 실행하는 것을 가능하게 하기 위하여 제시되었다. 설명된 실시예에 대한 다양한 변형은 당업자들에게 명백할 것이고, 여기서 정의된 일반적인 원리들은 다른 실시예들에 적용될 수도 있다. 따라서, 본 발명은 도시되고 설명된 특정 실시예들에 제한되고자 함이 아니며, 여기서 개시된 원리 및 신규한 특징들과 일치하는 가장 광범위한 범위에 부합하고자 한다. 상기 상술된 설명에서, 본 발명의 완전한 이해를 제공하기 위하여 다양한 특정 상세들이 설명되었다. 그럼에도, 당업자들은 본 발명이 실행될 수도 있다는 것을 이해할 것이다.
상술된 바와 같이 본 발명의 실시예는 다양한 하드웨어, 소프트웨어 코드 또는 이 모두의 조합으로 실행될 수도 있다. 예컨대, 본 발명의 실시예는, 여기서 설명된 처리를 수행하기 위하여 비디오 압축 칩에 통합된 하나 이상의 전자 회로들, 또는 비디오 압축 소프트웨어에 통합된 프로그램 코드일 수 있다. 본 발명의 실시예는 또한, 여기서 설명된 처리를 수행하기 위하여, 디지털 신호 프로세서(Digital Signal Processor, DSP) 상에 실행되는 프로그램 코드일 수도 있다. 본 발명은, 컴퓨터 프로세서, 디지털 신호 프로세서, 마이크로프로세서, 또는 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA)에 의하여 수행되는 다수의 기능들을 포함할 수도 있다. 이들 프로세서들은, 본 발명에 의하여 구현된 특정 방법들을 정의하는 펌웨어 코드 또는 기계 판독 가능한(machine-readable) 소프트웨어 코드를 실행함으로써, 본 발명에 따른 특정 작업을 수행하도록 구성될 수 있다. 소프트웨어 코드 또는 펌웨어 코드는, 상이한 프로그래밍 언어 및 상이한 포맷 또는 스타일로 개발될 수도 있다. 소프트웨어 코드는 또한, 상이한 목표 플랫폼에 대하여 컴파일링될 수도 있다. 그러나, 본 발명에 따라 작업을 수행하기 위한 상이한 코드 포맷들, 스타일들 및 소프트웨어 코드들의 언어들, 및 코드를 구성하는 다른 수단들은, 본 발명의 사상 및 범위로부터 벗어나지 않을 것이다.
본 발명은 그 사상 또는 본질적인 특징으로부터 벗어나지 않고 다른 특정 형태들로 구현될 수도 있다. 설명된 예들은, 예시적으로만 그러나 제한적이지 않은 모든 관점에서 고려되어야 한다. 따라서, 본 발명의 범위는, 상기 설명에 의하기보다는, 첨부된 청구항에 의하여 나타내어진다. 청구항의 등가물의 범위 및 의미 내에 있는 모든 변형은 그 범위내에서 포용되어야 한다.

Claims (18)

  1. 3차원 비디오 코딩에서 깊이 블록을 코딩하는 방법으로서,
    깊이 맵의 현재 깊이 블록과 연관된 입력 데이터를 수신하는 단계;
    상기 현재 깊이 블록을 복수의 깊이 서브-블록들로 분할하는 단계;
    디폴트 움직임 파라미터들을 결정하는 단계;
    현재 깊이 서브-블록에 대하여:
    상기 현재 깊이 서브-블록의 중심 샘플을 커버하는 제1 코-로케이션된(co-located) 텍스쳐 블록과 연관된 제1 움직임 파라미터들을 결정하는 단계;
    상기 제1 움직임 파라미터들이 이용 가능하면, 상기 현재 깊이 서브-블록에 대하여 상속된 움직임 파라미터들로서 상기 제1 움직임 파라미터들을 할당하는 단계;
    상기 제1 움직임 파라미터들이 이용 가능하지 않으면, 상기 현재 깊이 서브-블록에 대하여 상속된 움직임 파라미터들로서 디폴트 움직임 파라미터들을 할당하는 단계; 및
    상기 상속된 움직임 파라미터들 또는 상기 상속된 움직임 파라미터들을 포함하는 움직임 후보 세트로부터 선택된 움직임 후보를 이용하여, 상기 현재 깊이 서브-블록에 코딩 또는 디코딩을 적용하는 단계
    를 포함하는 3차원 비디오 코딩에서 깊이 블록을 코딩하는 방법.
  2. 제 1 항에 있어서, 상기 현재 깊이 블록은 깊이 예측 유닛(prediction unit, PU)에 대응하고, 상기 현재 깊이 서브-블록은 깊이 서브-PU에 대응하는 것인 3차원 비디오 코딩에서 깊이 블록을 코딩하는 방법.
  3. 제 1 항에 있어서, 상기 디폴트 움직임 파라미터들을 결정하는 단계는, 상기 복수의 깊이 서브-블록들 중 선택된 깊이 서브-블록을 커버하는 코-로케이션된 텍스쳐 블록과 연관된 제2 움직임 파라미터들에 기초하여 상기 디폴트 움직임 파라미터들을 식별하는 단계에 대응하는 것인 3차원 비디오 코딩에서 깊이 블록을 코딩하는 방법.
  4. 제 3 항에 있어서, 상기 복수의 깊이 서브-블록들 중 선택된 깊이 서브-블록은, 상기 현재 깊이 블록의 우측 하부 사분면에 위치되며 상기 현재 깊이 블록의 중심점에 인접한 상기 복수의 깊이 서브-블록들의 중심 깊이 서브-블록에 대응하는 것인 3차원 비디오 코딩에서 깊이 블록을 코딩하는 방법.
  5. 제 3 항에 있어서, 상기 디폴트 움직임 파라미터들과 상기 제1 움직임 파라미터들 모두가 이용 가능하지 않으면, 상기 현재 깊이 서브-블록에 대한 상기 상속된 움직임 파라미터들은 이용 가능하지 않음으로 설정되는 것인 3차원 비디오 코딩에서 깊이 블록을 코딩하는 방법.
  6. 제 3 항에 있어서, 상기 복수의 깊이 서브-블록들 중 선택된 깊이 서브-블록은, 상기 현재 깊이 블록의 좌측 하부, 우측 상부 또는 좌측 상부 사분면에 위치되며 상기 현재 깊이 블록의 중심점에 인접한 상기 복수의 깊이 서브-블록들의 중심 깊이 서브-블록에 대응하는 것인 3차원 비디오 코딩에서 깊이 블록을 코딩하는 방법.
  7. 제 1 항에 있어서, 상기 현재 깊이 서브-블록에 코딩 또는 디코딩을 적용하는 단계는, 상기 상속된 움직임 파라미터들을 포함하는 상기 움직임 후보 세트를 프루닝(pruning)하는 단계를 포함하는 것인 3차원 비디오 코딩에서 깊이 블록을 코딩하는 방법.
  8. 제 7 항에 있어서, 상기 움직임 후보 세트를 프루닝하는 단계는, 현재 깊이 서브-블록 크기가 임계 크기보다 작을 때, 디스에이블되는 것인 3차원 비디오 코딩에서 깊이 블록을 코딩하는 방법.
  9. 제 1 항에 있어서, 상기 현재 깊이 서브-블록의 상기 중심 샘플은, 상기 현재 깊이 서브-블록의 우측 하부 사분면에서 상기 현재 깊이 서브-블록의 중심점에 인접한 깊이 샘플에 대응하는 것인 3차원 비디오 코딩에서 깊이 블록을 코딩하는 방법.
  10. 3차원 비디오 코딩 시스템에서 깊이 블록을 코딩하는 장치로서, 상기 장치는 하나 이상의 전자 회로들을 포함하고, 상기 하나 이상의 전자 회로들은,
    깊이 맵의 현재 깊이 블록과 연관된 입력 데이터를 수신하고,
    상기 현재 깊이 블록을 복수의 깊이 서브-블록들로 분할하고,
    디폴트 움직임 파라미터들을 결정하고,
    현재 깊이 서브-블록에 대하여:
    상기 현재 깊이 서브-블록의 중심 샘플을 커버하는 제1 코-로케이션된(co-located) 텍스쳐 블록과 연관된 제1 움직임 파라미터들을 결정하고,
    상기 제1 움직임 파라미터가 이용 가능하면, 상기 현재 깊이 서브-블록에 대하여 상속된 움직임 파라미터들로서 상기 제1 움직임 파라미터들을 할당하고,
    상기 제1 움직임 파라미터들이 이용 가능하지 않으면, 상기 현재 깊이 서브-블록에 대하여 상속된 움직임 파라미터들로서 디폴트 움직임 파라미터들을 할당하고,
    상기 상속된 움직임 파라미터들 또는 상기 상속된 움직임 파라미터들을 포함하는 움직임 후보 세트로부터 선택된 움직임 후보를 이용하여, 상기 현재 깊이 서브-블록에 코딩 또는 디코딩을 적용하도록
    구성된 것인 3차원 비디오 코딩 시스템에서 깊이 블록을 코딩하는 장치.
  11. 제 10 항에 있어서, 상기 현재 깊이 블록은 깊이 예측 유닛(PU)에 대응하고, 상기 현재 깊이 서브-블록은 깊이 서브-PU에 대응하는 것인 3차원 비디오 코딩 시스템에서 깊이 블록을 코딩하는 장치.
  12. 제 10 항에 있어서, 상기 디폴트 움직임 파라미터들을 결정하는 것은, 상기 복수의 깊이 서브-블록들 중 선택된 깊이 서브-블록을 커버하는 코-로케이션된 텍스쳐 블록과 연관된 제2 움직임 파라미터들에 기초하여 상기 디폴트 움직임 파라미터들을 식별하는 것에 대응하는 것인 3차원 비디오 코딩 시스템에서 깊이 블록을 코딩하는 장치.
  13. 제 12 항에 있어서, 상기 복수의 깊이 서브-블록들 중 선택된 깊이 서브-블록은, 상기 현재 깊이 블록의 우측 하부 사분면에 위치되며 상기 현재 깊이 블록의 중심점에 인접한 상기 복수의 깊이 서브-블록들의 중심 깊이 서브-블록에 대응하는 것인 3차원 비디오 코딩 시스템에서 깊이 블록을 코딩하는 장치.
  14. 제 12 항에 있어서, 상기 디폴트 움직임 파라미터들과 상기 제1 움직임 파라미터들 모두가 이용 가능하지 않으면, 상기 현재 깊이 서브-블록에 대한 상기 상속된 움직임 파라미터들은 이용 가능하지 않음으로 설정되는 것인 3차원 비디오 코딩시스템에서 깊이 블록을 코딩하는 장치.
  15. 제 12 항에 있어서, 상기 복수의 깊이 서브-블록들 중 선택된 깊이 서브-블록은, 상기 현재 깊이 블록의 좌측 하부, 우측 상부 또는 좌측 상부 사분면에 위치되며 상기 현재 깊이 블록의 중심점에 인접한 상기 복수의 깊이 서브-블록들의 중심 깊이 서브-블록에 대응하는 것인 3차원 비디오 코딩 시스템에서 깊이 블록을 코딩하는 장치.
  16. 제 10 항에 있어서, 상기 움직임 후보 세트는 프루닝되는 것인 3차원 비디오 코딩 시스템에서 깊이 블록을 코딩하는 장치.
  17. 제 16 항에 있어서, 상기 움직임 후보 세트를 프루닝하는 것은, 현재 깊이 서브-블록 크기가 임계 크기보다 작을 때, 디스에이블되는 것인 3차원 비디오 코딩 시스템에서 깊이 블록을 코딩하는 장치.
  18. 제 10 항에 있어서, 상기 현재 깊이 서브-블록의 상기 중심 샘플은, 상기 현재 깊이 서브-블록의 우측 하부 사분면에서 상기 현재 깊이 서브-블록의 중심점에 인접한 깊이 샘플에 대응하는 것인 3차원 비디오 코딩 시스템에서 깊이 블록을 코딩하는 장치.
KR1020167022748A 2014-01-27 2015-01-27 3d 비디오 코딩에서의 서브-pu 움직임 정보 상속 방법 KR101846762B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CNPCT/CN2014/071576 2014-01-27
PCT/CN2014/071576 WO2015109598A1 (en) 2014-01-27 2014-01-27 Methods for motion parameter hole filling
PCT/CN2015/071606 WO2015110084A1 (en) 2014-01-27 2015-01-27 Method for sub-pu motion information inheritance in 3d video coding

Publications (2)

Publication Number Publication Date
KR20160117489A KR20160117489A (ko) 2016-10-10
KR101846762B1 true KR101846762B1 (ko) 2018-04-06

Family

ID=53680698

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167022748A KR101846762B1 (ko) 2014-01-27 2015-01-27 3d 비디오 코딩에서의 서브-pu 움직임 정보 상속 방법

Country Status (5)

Country Link
US (2) US10257539B2 (ko)
EP (1) EP3085081A4 (ko)
KR (1) KR101846762B1 (ko)
CN (1) CN106031169B (ko)
WO (2) WO2015109598A1 (ko)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106068649A (zh) * 2014-03-20 2016-11-02 Lg电子株式会社 3d视频编码/解码方法和设备
US10958927B2 (en) 2015-03-27 2021-03-23 Qualcomm Incorporated Motion information derivation mode determination in video coding
US20180109814A1 (en) * 2016-10-14 2018-04-19 Mediatek Inc. Method And Apparatus Of Coding Unit Information Inheritance
EP3518543A1 (en) 2018-01-26 2019-07-31 Thomson Licensing Illumination compensation flag in frame rate up-conversion with template matching
JP7104186B2 (ja) 2018-06-05 2022-07-20 北京字節跳動網絡技術有限公司 Ibcとatmvpとの間でのインタラクション
CN110636298B (zh) 2018-06-21 2022-09-13 北京字节跳动网络技术有限公司 对于Merge仿射模式和非Merge仿射模式的统一约束
EP4307671A3 (en) 2018-06-21 2024-02-07 Beijing Bytedance Network Technology Co., Ltd. Sub-block mv inheritance between color components
WO2020065518A1 (en) 2018-09-24 2020-04-02 Beijing Bytedance Network Technology Co., Ltd. Bi-prediction with weights in video coding and decoding
CN111083489B (zh) 2018-10-22 2024-05-14 北京字节跳动网络技术有限公司 多次迭代运动矢量细化
CN111083484A (zh) 2018-10-22 2020-04-28 北京字节跳动网络技术有限公司 基于子块的预测
CN112997495B (zh) 2018-11-10 2024-02-20 北京字节跳动网络技术有限公司 当前图片参考中的取整
CN111436228A (zh) 2018-11-12 2020-07-21 北京字节跳动网络技术有限公司 组合帧间-帧内预测的简化
WO2020103872A1 (en) 2018-11-20 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Prediction refinement for combined inter intra prediction mode
WO2020103852A1 (en) 2018-11-20 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Difference calculation based on patial position
WO2020103944A1 (en) 2018-11-22 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Sub-block based motion candidate selection and signaling
CN113170150B (zh) 2018-12-03 2024-02-27 北京字节跳动网络技术有限公司 基于历史的运动矢量预测(hmvp)模式的部分修剪方法
WO2020135482A1 (en) * 2018-12-29 2020-07-02 Beijing Bytedance Network Technology Co., Ltd. Construction method for default motion candidate in sub-block based inter prediction
WO2020177755A1 (en) 2019-03-06 2020-09-10 Beijing Bytedance Network Technology Co., Ltd. Usage of converted uni-prediction candidate
WO2020200269A1 (en) 2019-04-02 2020-10-08 Beijing Bytedance Network Technology Co., Ltd. Decoder side motion vector derivation
KR102630798B1 (ko) * 2019-06-13 2024-01-29 엘지전자 주식회사 Sbtmvp 기반 영상 또는 비디오 코딩
CN114080812A (zh) 2019-06-13 2022-02-22 Lg 电子株式会社 使用sbtmvp的基于帧间预测的图像或视频编译
CN114208184A (zh) 2019-08-13 2022-03-18 北京字节跳动网络技术有限公司 基于子块的帧间预测中的运动精度
CN110446052B (zh) * 2019-09-03 2021-02-12 南华大学 一种3d-hevc帧内深度图快速cu深度选择方法
EP4011077A4 (en) 2019-09-13 2022-11-30 Beijing Bytedance Network Technology Co., Ltd. SAMPLE WEIGHTED BIDIRECTIONAL PREDICTION IN VIDEO CODING
CN114762330A (zh) 2019-09-22 2022-07-15 北京字节跳动网络技术有限公司 视频的子图片编码和解码
US20220086457A1 (en) 2020-09-17 2022-03-17 Lemon Inc. Subpicture track referencing and processing

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793985A (en) * 1996-06-17 1998-08-11 Hewlett-Packard Company Method and apparatus for block-based motion estimation
JP4130780B2 (ja) * 2002-04-15 2008-08-06 松下電器産業株式会社 画像符号化方法および画像復号化方法
US7483488B1 (en) * 2002-05-30 2009-01-27 Intervideo, Inc. Systems and methods for improving bit rate control of video encoding by correcting for the effects of scene changes and bit stuffing in a video buffer verifier (VBV) buffer model
JP3862620B2 (ja) * 2002-06-28 2006-12-27 キヤノン株式会社 画像処理装置、及び画像処理方法
JP4527720B2 (ja) * 2004-02-23 2010-08-18 ティーオーエー株式会社 画像圧縮法、画像圧縮装置、画像伝送システム、データ圧縮前処理装置及びコンピュータプログラム
US8107540B2 (en) * 2005-07-11 2012-01-31 Cheetah Technologies, L.P. Image complexity computation in packet based video broadcast systems
US8331663B2 (en) * 2007-06-28 2012-12-11 Qualcomm Incorporated Efficient image compression scheme to minimize storage and bus bandwidth requirements
EP2232875A2 (en) 2008-01-11 2010-09-29 Thomson Licensing Video and depth coding
US8666189B2 (en) * 2008-08-05 2014-03-04 Aptina Imaging Corporation Methods and apparatus for flat region image filtering
EP2338281A4 (en) * 2008-10-17 2012-08-15 Nokia Corp SHARING THE MOTION VECTOR IN 3D VIDEO CODING
CN102356637B (zh) 2009-01-30 2017-02-22 汤姆森特许公司 深度图的编码
KR101660312B1 (ko) 2009-09-22 2016-09-27 삼성전자주식회사 3차원 비디오의 움직임 탐색 장치 및 방법
US20120128244A1 (en) * 2010-11-19 2012-05-24 Raka Singh Divide-and-conquer filter for low-light noise reduction
CN102324102B (zh) * 2011-10-08 2014-04-16 北京航空航天大学 一种图像场景空洞区域结构和纹理信息自动填补方法
US20130177070A1 (en) * 2012-01-11 2013-07-11 Qualcomm Incorporated Significance map support for parallel transform coefficient processing in video coding
US10003810B2 (en) * 2012-03-22 2018-06-19 Mediatek Inc. Method and apparatus of scalable video coding

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Proposed text for JCT3V-G0119 based on 3D-HEVC Draft Text2",Joint Collaborative Team on 3D Video Coding Extensions of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, JCT3V-G0119_text (2014.1.03.)*
"Simplifications to sub-PU level inter-view motion prediction", Joint Collaborative Team on 3D Video Coding Extensions of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, JCT3V-G0120(v2) (2014.1.08.)*
CE2: Sub-PU based MPI",JOINT Collaborative Team on 3D Video Coding Extensions of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, JCT3V-G0119 (2014.1.03.)*

Also Published As

Publication number Publication date
CN106031169A (zh) 2016-10-12
CN106031169B (zh) 2018-02-23
EP3085081A4 (en) 2016-12-21
EP3085081A1 (en) 2016-10-26
WO2015110084A1 (en) 2015-07-30
WO2015109598A1 (en) 2015-07-30
US11089330B2 (en) 2021-08-10
US10257539B2 (en) 2019-04-09
US20190191180A1 (en) 2019-06-20
KR20160117489A (ko) 2016-10-10
US20160366441A1 (en) 2016-12-15

Similar Documents

Publication Publication Date Title
KR101846762B1 (ko) 3d 비디오 코딩에서의 서브-pu 움직임 정보 상속 방법
US11234002B2 (en) Method and apparatus for encoding and decoding a texture block using depth based block partitioning
JP6472877B2 (ja) 視点合成予測を含む3dまたは多視点映像符号化の方法
US9998755B2 (en) Method and apparatus for motion information inheritance in three-dimensional video coding
CN105247863B (zh) 三维或多视图视频编码或解码的方法
KR101709649B1 (ko) 3d 비디오 코딩에서의 인터 뷰 모션 벡터 예측과 변이 벡터 예측의 방법 및 장치
CN103621093A (zh) 在三维视频编码系统中的纹理图像压缩方法及装置
CN107005695B (zh) 用于视频编码的替代变换的方法及装置
US20160234510A1 (en) Method of Coding for Depth Based Block Partitioning Mode in Three-Dimensional or Multi-view Video Coding
US20150264356A1 (en) Method of Simplified Depth Based Block Partitioning
CA2896132C (en) Method and apparatus of compatible depth dependent coding
US9986257B2 (en) Method of lookup table size reduction for depth modelling mode in depth coding
US9716884B2 (en) Method of signaling for mode selection in 3D and multi-view video coding
US20150358643A1 (en) Method of Depth Coding Compatible with Arbitrary Bit-Depth
WO2014029086A1 (en) Methods to improve motion vector inheritance and inter-view motion prediction for depth map
CN105247858A (zh) 三维视频编码中子预测单元的视图间运动预测的方法
CN105359529A (zh) 三维视频编码中用于高级时间残差预测的方法及装置
EP3110156B1 (en) A system and a method for disoccluded region coding in a multiview video data stream

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant