KR20160022349A - 3차원 비디오 코딩에서 진보된 시간적 잔차 예측을 위한 방법 및 장치 - Google Patents

3차원 비디오 코딩에서 진보된 시간적 잔차 예측을 위한 방법 및 장치 Download PDF

Info

Publication number
KR20160022349A
KR20160022349A KR1020167001216A KR20167001216A KR20160022349A KR 20160022349 A KR20160022349 A KR 20160022349A KR 1020167001216 A KR1020167001216 A KR 1020167001216A KR 20167001216 A KR20167001216 A KR 20167001216A KR 20160022349 A KR20160022349 A KR 20160022349A
Authority
KR
South Korea
Prior art keywords
block
current
temporal
current block
view
Prior art date
Application number
KR1020167001216A
Other languages
English (en)
Other versions
KR101763083B1 (ko
Inventor
지쳉 안
카이 장
지안리앙 린
Original Assignee
미디어텍 싱가폴 피티이. 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/CN2013/079468 external-priority patent/WO2015006922A1/en
Priority claimed from PCT/CN2013/087117 external-priority patent/WO2014075615A1/en
Application filed by 미디어텍 싱가폴 피티이. 엘티디. filed Critical 미디어텍 싱가폴 피티이. 엘티디.
Publication of KR20160022349A publication Critical patent/KR20160022349A/ko
Application granted granted Critical
Publication of KR101763083B1 publication Critical patent/KR101763083B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • H04N13/0282
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

진보된 시간적 잔차 예측을 사용한 3차원 또는 다중 뷰 비디오 코딩을 위한 방법 및 장치가 개시된다. 이 방법은 현재 블록에 대한 현재 종속 뷰에서의 시간적 기준 화상 내의 대응하는 블록을 결정한다. 대응하는 블록에 대한 기준 잔차는 현재 모션 또는 디스패리티 파라미터들에 따라 결정된다. 예측성 인코딩 또는 디코딩이 그 후 기준 잔차에 기초하여 현재 블록에 적용된다. 현재 블록이 DCP(disparity compensated prediction)를 사용하여 코딩될 때, 기준 잔차는 현재 블록에 DCP를 적용함으로써 생성된 현재 잔차에 대한 예측자로서 사용된다. 현재 블록은 PU(prediction unit) 또는 CU(coding unit)에 대응할 수 있다.

Description

3차원 비디오 코딩에서 진보된 시간적 잔차 예측을 위한 방법 및 장치{METHOD AND APPARATUS FOR ADVANCED TEMPORAL RESIDUAL PREDICTION IN THREE-DIMENSIONAL VIDEO CODING}
관련 출원들에 대한 상호참조
본 발명은 2013년 7월 16일 출원되고 발명의 명칭이 "Methods for Residual Prediction"인 PCT 특허 출원 일련 번호 제PCT/CN2013/079468호 및 2013년 11월 14일 출원되고 발명의 명칭이 "Method and Apparatus for Residual Prediction in Three-Dimensional Video Coding"인 PCT 특허 출원 일련 번호 제PCT/CN2013/087117호를 우선권으로 주장한다. PCT 특허 출원들은 그 전체가 참조로서 본원에 포함된다.
본 발명은 3차원 및 다중 차원 비디오 코딩에 관한 것이다. 특히, 본 발명은 시간적 잔차 예측(temporal residual prediction)을 사용한 비디오 코딩에 관한 것이다.
3차원(3D) 텔레비전은 시청자에게 환상적인 시청 경험을 가져오도록 의도되는 최근의 기술 동향이었다. 다양한 기술들은 3D 시청을 가능케 하도록 개발되었다. 다중 뷰 비디오는 다른 것들 중에서도 3DTV 애플리케이션에 대한 핵심 기술이다. 종래의 비디오는 카메라의 관점에서 장면의 단일 뷰만을 시청자들에게 제공하는 2차원(2D) 매체이다. 그러나 다중 뷰 비디오는 동적인 장면들의 임의의 관점들을 제공할 수 있고, 리얼리즘의 감각(sensation of realism)을 시청자들에게 제공할 수 있다. 3D 비디오 포맷들은 또한 대응하는 텍스처 화상들과 연관되는 깊이 맵들을 포함한다. 깊이 맵들은 또한 3차원 비디오 또는 다중 뷰를 랜더링하도록 코딩되어야 한다.
3D 비디오 코딩의 코딩 효율을 개선하기 위한 다양한 기법들은 분야에 개시되어 있다. 코딩 기법들을 표준화하기 위한 활동들이 또한 있다. 예를 들어, ISO(International Organization for Standardization) 내의 실무 그룹(ISO/IEC JTC1/SC29/WG11)은 3D 비디오 코딩 표준에 기초한 HEVC(High Efficiency Video Coding)(이른바 3D HEVC)를 개발중이다. 인터-뷰 리던던시(inter-view redundancy)를 감소시키기 위해, 디스패리티 보상 예측(disparity-compensated prediction; DCP)이라 불리는 기법은 모션 보상 예측(motion-compensated prediction; MCP)에 대안적인 코딩 툴로서 부가되었다. MCP는 또한 상이한 액세스 유닛(AU)에서 동일한 뷰의 이전에 코딩된 화상들을 사용하는 인터 화상 예측(Inter picture prediction)으로서 지칭되는 반면에, DCP는 동일한 액세스 유닛 내의 다른 뷰들의 이미 코딩된 화상들을 사용하는 인터 화상 예측을 지칭한다.
3D HEVC에 대해, 진보된 잔차 예측(advanced residual prediction; ARP) 방법은 IVRP(inter-view residual prediction)의 효율을 개선하도록 개시되었으며, 여기서 현재 뷰의 모션은 기준 뷰의 대응하는 블록에 적용된다. 또한, 부가적인 가중(weighting) 팩터가 상이한 뷰들 간의 품질 차이를 보상하도록 도입된다. 도 1은 3D HEVC에서 개시된 바와 같이 진보된 잔차 예측(advanced residual prediction; ARP)의 예시적인 구조를 예시하며, 여기서 현재 블록(112)에 대한 시간[즉, 인터-시간(inter-time)] 잔차(190)는 새로운 잔차(180)를 형성하도록 기준 시간적 잔차(170)를 사용하여 예측된다. 잔차(190)는 동일한 뷰의 현재 블록(110)과 시간적 기준 블록(150) 간의 시간적 잔차 신호에 대응한다. 뷰 0는 기본 뷰를 나타내고 뷰 1은 종속 뷰를 나타낸다. 프로시저는 아래와 같이 설명된다.
1. 인터-뷰 기준을 지칭하는 현재 블록(110)에 대한 추정된 DV(120)가 유도된다. 대응하는 화상(CP)으로서 표시되는 이 인터-뷰 기준은 기본 뷰에 있고, 뷰 1의 현재 화상의 것과 동일한 POC를 갖는다. 현재 화상 내의 현재 블록(110)에 대한 대응하는 화상의 대응하는 영역(130)은 추정된 DV(120)에 따라 위치지정된다. 대응하는 영역(130)의 재구성된 픽셀은 S로서 표시된다.
2. 현재 블록(110)에 대한 기준 화상의 것과 동일한 POC를 갖는 기본 뷰의 기준 대응 화상(reference corresponding picture)이 발견된다. 현재 블록의 MV(160)는, 현재 블록에 대한 상대적 변위가 DV+MV인 기준 대응 화상에서 기준 대응 영역(140)을 위치지정하도록 대응하는 영역(130)에 대해 사용된다. 기준 대응 화상의 재구성된 이미지는 Q로서 주지된다.
3. 기준 잔차(170)는 RR=S-Q로서 계산된다. 동작은 샘플 와이즈(sample-wised)화되는데, 즉 RR[j,i]=S[j,i]-Q[j,i]이고, 여기서 RR[j,i]은 기준 잔차의 샘플이고, S[j,i]는 대응하는 영역(130)의 샘플이고, Q[j,i]는 기준 대응 영역(140)의 샘플이고, [j,i]는 영역의 상대적 포지션이다. 하기의 설명들에서, 영역 상의 동작들은 모두 샘플 와이즈 동작들이다.
4. 기준 잔차(170)는 최종 잔차(180)를 생성하기 위해 현재 블록에 대한 잔차 예측으로서 사용될 것이다. 또한, 가중 팩터는 예측을 위한 가중된 잔차를 획득하도록 기준 잔차에 적용될 수 있다. 예를 들어, 3개의 가중 팩터들, 즉 0, 0.5 및 1이 ARP에서 사용될 수 있으며, 여기서 0은 어떠한 ARP도 사용되지 않았음을 암시한다.
ARP 프로세스는 모션 보상 예측(motion compensated prediction; MCP)을 사용하는 블록에만 응용 가능하다. 디스패리티 보상 예측(disparity compensated prediction; DCP)을 사용하는 블록에 대해, ARP가 적용되지 않는다. DCP 코딩된 블록에 또한 응용 가능한 잔차 예측 기법을 개발하는 것이 바람직하다.
진보된 시간적 잔차 예측을 사용한 3차원 또는 다중 뷰 비디오 코딩을 위한 방법 및 장치가 개시된다. 이 방법은 현재 블록에 대한 현재 종속 뷰의 시간적 기준 화상의 대응하는 블록을 결정한다. 대응하는 블록에 대한 기준 잔차는 현재 모션 또는 디스패리티 파라미터들에 따라 결정된다. 예측성 인코딩 또는 디코딩이 그 후 기준 잔차에 기초하여 현재 블록에 적용된다. 현재 블록이 DCP(disparity compensated prediction)를 사용하여 코딩될 때, 기준 잔차는 현재 블록에 DCP를 적용함으로써 생성된 현재 잔차에 대한 예측자로서 사용된다. 현재 블록은 PU(prediction unit) 또는 CU(coding unit)에 대응할 수 있다.
시간적 기준 화상의 대응하는 블록은 DMV(derived motion vector)를 사용하여 현재 블록에 기초하여 위치지정될 수 있고 DMV는 기준 뷰에서 선택된 기준 블록의 선택된 MV(motion vector)에 대응한다. 선택된 기준 블록은 현재 블록의 MV, DV(disparity vector), 또는 DDV (derived DV)를 사용하여 현재 블록으로부터 위치지정될 수 있다. DDV는 또한 ADVD(adaptive disparity vector derivation)에 따라 유도될 수 있고 ADVD는 하나 이상의 시간적 이웃 블록들 및 2개의 공간적 이웃 블록들에 기초하여 유도된다. 2개의 공간적 이웃 블록들은 현재 블록의 우측 위(above-right)의 포지션 및 좌측 바닥(left-bottom)의 포지션에 위치지정된다. 시간적 이웃 블록들은 현재 블록의 하나의 정렬된 시간적 기준 블록 및 하나의 콜로케이팅된(collocated) 시간적 기준 블록에 대응할 수 있고, 정렬된 시간적 기준 블록은 스케일링된 MV를 사용하여 현재 블록으로부터 시간적 기준 화상에 위치지정된다. 디폴트 DV는 시간적 이웃 블록 또는 공간적 이웃 블록 중 어느 하나도 사용 가능하지 않은 경우 사용될 수 있다. ADVD 기법은 또한 현재 블록에 대한 기준 뷰의 인터-뷰 기준 화상에서 대응하는 블록을 결정하도록 종래의 ARP에 적용될 수 있다.
DMV는 기준 리스트 기준 인덱스 또는 기준 리스트의 선택된 기준 화상에 기초하여 제 1 시간적 기준 화상으로 스케일링된다. 제 1 시간적 기준 화상 또는 선택된 기준 화상은 그 후 현재 블록의 현재 종속 뷰의 시간적 기준 화상으로서 사용된다. DMV는 현재 블록의 공간적 이웃 블록 또는 시간적 이웃 블록의 모션 벡터로 세팅될 수 있다. DMV는 비트스트림으로 명시적으로 시그널링될 수 있다. DMV가 0일 때, 시간적 기준 화상의 대응하는 블록은 현재 블록의 콜로케이팅된 보크에 대응한다.
플래그는, 온, 오프 또는 기준 잔차에 기초하여 현재 블록의 예측성 인코딩 또는 디코딩에 관련된 가중 팩터를 제어하도록 플래그가 각각의 블록에 대해 시그널링될 수 있다. 플래그는 시퀀스 레벨, 뷰 레벨, 화상 레벨 또는 슬라이스 레벨로 명시적으로 시그널링될 수 있다. 플래그는 또한 머지(Merge) 모드에서 승계(inherit)될 수 있다. 가중 팩터는 1/2에 대응할 수 있다.
도 1은 진보된 잔차 예측의 예시적인 구조를 예시하며, 여기서 현재 인터-시간 잔차는 3D HEVC에 따라 기준 인터-시간 잔차를 사용하여 뷰 방향에서 예측된다.
도 2는 본 발명의 실시예에 따른 진보된 시간적 잔차 예측의 단순화된 도면을 예시하며, 여기서 현재 인터-뷰 잔차는 기준 인터-뷰 잔차를 사용하여 시간 방향에서 예측된다.
도 3은 본 발명의 실시예에 따른 진보된 시간적 잔차 예측의 예시적인 구조를 예시하며, 여기서 현재 인터-뷰 잔차는 기준 인터-뷰 잔차를 사용하여 시간 방향에서 예측된다.
도 4는 현재 블록의 시간적 기준 블록을 위치지정하도록 유도된 모션 벡터를 결정하기 위한 예시적인 프로세스를 예시한다.
도 5는 적응형 디스패리티 벡터 유도(adaptive disparity vector derivation; ADVD)에 대한 디스패리티 벡터 후보 또는 모션 벡터 후보를 유도하는데 사용되는 2개의 공간적 이웃 블록들을 예시한다.
도 6은 정렬된 시간적 DV(aligned temporal DV; ATDV)에 대한 정렬된 디스패리티 벡터 후보 또는 모션 벡터 후보를 예시한다.
도 7은 본 발명의 실시예에 따라 진보된 시간적 잔차 예측의 예시적인 흐름도를 예시한다.
도 8은 본 발명의 실시예에 따라 기준 뷰 내의 인터-뷰 기준 화상의 대응하는 블록을 결정하도록 ADVD(adaptive disparity vector derivation)를 사용하는 진보된 잔차 예측의 예시적인 흐름도를 예시한다.
본 명세서의 도면들에서 일반적으로 설명되고 예시되는 바와 같은 본 발명의 컴포넌트들은 매우 다양한 상이한 구성들로 배열되고 설계될 수 있다는 것이 쉽게 이해될 것이다. 따라서, 도면들에서 표현되는 바와 같이, 본 발명의 시스템들 및 방법들의 실시예들의 하기의 보다 상세한 설명은 청구된 바와 같이 본 발명의 범위를 제한하도록 의도되는 것이 아니라, 본 발명의 선택된 실시예들을 단지 대표한다.
본 명세서 전체에 걸쳐서 "일 실시예", "실시예" 또는 유사한 언어에 대한 참조는 실시예와 관련하여 설명되는 특정한 피처, 구조 또는 특징이 본 발명의 적어도 하나의 실시예에 포함될 수 있다는 것을 의미한다. 따라서, 본 명세서 전체에 걸쳐서 다양한 장소들에서 "일 실시예에서" 또는 "실시예에서"라는 구문들의 출현들은 반드시 모두 동일한 실시예를 지칭하는 것은 아니다.
또한, 설명된 피처들, 구조들 또는 특징들은 하나 이상의 실시예들에서 임의의 적합한 방식으로 결합될 수 있다. 그러나 당업자는, 본 발명이 특정한 세부사항들 중 하나 이상 없이 또는 다른 방법들, 컴포넌트들 등과 더불어 실시될 수 있다는 것을 인지할 것이다. 다른 인스턴스들에서, 잘 알려진 구조들 또는 동작들은 본 발명의 양상들을 모호하게 하는 것을 방지하도록 상세히 설명되거나 도시되지 않는다.
본 발명의 예시된 실시예들은 도면들을 참조하여 가장 잘 이해될 것이고, 유사한 부분들은 도면들 전체에 걸쳐서 유사한 번호들에 의해 지정된다. 하기의 설명은 단지 예로서 의도되며, 본 명세서에서 청구된 본 발명에 부합하는 장치 및 방법들의 특정한 선택된 실시예들을 단순히 예시한다.
3D 코딩 시스템의 성능을 개선하기 위해, 본 발명은 진보된 시간적 잔차 예측(advanced temporal residual prediction; ATRP) 기법을 개시한다. ATRP에서, 현재 블록(예를 들어, 예측 유닛(prediction unit; PU) 또는 코딩 유닛(coding unit; CU))의 모션 또는 디스패리티 파라미터들의 적어도 일부가 시간 방향에서 기준 잔차를 생성하도록 동일한 뷰 내의 시간적 기준 화상의 대응하는 블록에 적용된다. 시간적 기준 화상의 대응하는 블록은 유도된 모션 벡터(derived motion vector; DMV)에 의해 위치지정된다. 예를 들어, DMV는 기준 뷰에서 현재 DV에 의해 포인팅되는 기준 블록의 모션 벡터(motion vector; MV)일 수 있다. 단순화된 예시적인 ATRP 프로세스가 도 2에서 예시된다.
도 2에서, 현재 화상의 현재 블록(210)은 디스패리티 벡터(240)를 갖는 DCP(disparity compensated prediction) 코딩된 블록이다. 유도된 모션 벡터(DMV, 230)는 시간적 기준 화상의 시간적 기준 블록(220)을 위치지정하는데 사용되며, 여기서 현재 화상 및 시간적 기준 화상은 동일한 기준 뷰에 있다. 현재 블록의 디스패리티 벡터(240)는 시간적 기준 블록의 디스패리티 벡터(240')로서 사용된다. 디스패리티 벡터(240')를 사용함으로써, 시간적 기준 블록(220)의 인터-뷰 잔차가 유도될 수 있다. 현재 블록(210)의 인터-뷰 잔차는 인터-뷰 잔차에 의해 시간 방향으로부터 예측될 수 있다. 현재 블록(210)의 디스패리티 벡터(DV)가 시간적 기준 블록(220)에 대한 인터-뷰 잔차를 유도하도록 현재 블록의 시간적 기준 블록(220)에 의해 사용되지만, 다른 모션 정보(예를 들어, 모션 벡터(motion vector; MV) 또는 유도된 DV)가 또한 시간적 기준 블록(220)에 대한 인터-뷰 잔차를 유도하는데 사용될 수 있다.
도 3은 ATRP 구조의 예를 예시한다. 뷰 0은 기본 뷰와 같은 기준 뷰를 나타내고 뷰 1은 종속 뷰를 나타낸다. 뷰 1의 현재 화상(310) 내의 현재 블록(312)은 코딩된다. 프로시저는 다음과 같이 설명된다.
1. 인터-시간(즉, 시간적) 기준을 지칭하는 현재 블록(310)에 대한 추정된 MV(320)가 유도된다. 대응하는 화상으로서 표시되는 인터-시간 기준은 뷰 1에 있다. 대응하는 화상의 대응하는 영역(330)은 추정된 MV를 사용하여 현재 블록에 대해 위치지정된다. 대응하는 영역(330)의 재구성된 샘플들은 S로서 주지된다. 대응하는 영역은 현재 블록과 동일한 이미지 유닛 구조(예를 들어, 매크로블록(Macroblock; MB), 예측 유닛(Prediction Unit; PU), 코딩 유닛(Coding Unit; CU), 또는 변환 유닛(Transform Unit; TU))를 가질 수 있다. 그럼에도, 대응하는 영역은 또한 현재 블록과 상이한 이미지 유닛 구조를 가질 수 있다. 대응하는 영역은 또한 현재 블록보다 더 크거나 더 작을 수 있다. 예를 들어, 현재 블록은 CU에 대응하고 대응하는 블록은 PU에 대응한다.
2. 뷰 1의 대응하는 화상의 POC와 동일한 POC를 갖는, 대응하는 영역에 대한 기준 뷰의 인터-뷰 기준 화상이 발견된다. 현재 블록의 것과 동일한 DV(360')는 대응하는 블록(330)에 대한 기준 뷰의 인터-뷰 기준 화상에서 인터-뷰 기준 블록(340)(Q로서 표시됨)을 위치지정하도록 대응하는 영역(330) 상에서 사용되며, 기준 블록(340)과 현재 블록(310) 간의 상대적 변위는 MV + DV이다. 시간 방향의 기준 잔차는 (S-Q)로서 유도된다 .
3. 시간 방향의 기준 잔차는 최종 잔차를 형성하도록 현재 블록의 잔차의 인코딩 또는 디코딩을 위해 사용될 것이다. ARP와 유사하게, 가중 팩터는 ATRP에 대해 사용될 수 있다. 예를 들어, 가중 팩터는 0, 1/2 및 1에 대응할 수 있으며, 여기서 0/1은 ATRP가 오프/온임을 암시한다.
DMV의 유도의 예가 도 4에서 예시된다. 현재 MV/DV 또는 유도된 DV(430)는 현재 뷰의 현재 블록(410)에 대응하는 기준 뷰의 기준 블록(420)을 위치지정하는데 사용된다. 기준 블록(420)의 MV(440)는 현재 블록(410)에 대한 유도된 MV(440')로서 사용될 수 있다. DMV를 유도하기 위한 예시적인 프로시저는 다음과 같이 도시된다(DMV 유도 프로시저 1로서 지칭됨).
- 샘플 포지션을 획득하도록 현재 블록(예를 들어, PU 또는 CU)의 중간 포지션(또는 다른 포지션들)에 리스트 X(X=0 또는 1)의 현재 MV/DV 또는 DDV(derived DV)를 부가하고 기준 뷰에서 그 샘플 위치를 커버하는 기준 블록을 발견함.
- 기준 블록의 리스트 X의 기준 화상이 현재 기준 리스트 X의 하나의 기준 화상과 동일한 POC(picture order count)를 갖는 경우,
○ 기준 블록의 리스트 X의 MV로 DMV를 세팅하고;
- 그렇지 않으면,
○ 기준 블록의 리스트 1-X의 기준 화상이 현재 기준 리스트(X)의 하나의 기준 화상과 동일한 POC를 갖는 경우,
● 기준 블록의 리스트 1-X의 MV로 DMV를 세팅하고;
- 그렇지 않으면,
● 최소 기준 인덱스를 갖는 리스트 X의 시간적 기준 화상을 포인팅하는 (0, 0)과 같은 디폴트 값으로 DMV를 세팅함.
대안적으로, DMV는 또한 다음과 같이 유도될 수 있다(DMV 유도 프로시저 2로서 지칭됨).
- 샘플 포지션을 획득하도록 현재 PU의 중간 포지션에 리스트 X의 현재 MV/DV 또는 DDV를 부가하고 기준 뷰에서 그 샘플 위치를 커버하는 기준 블록을 발견함.
- 기준 블록의 리스트 X의 기준 화상이 현재 기준 리스트 X의 하나의 기준 화상과 동일한 POC를 갖는 경우,
○ 기준 블록의 리스트 X의 MV로 DMV를 세팅함;
- 그렇지 않으면,
○ 최소 기준 인덱스를 갖는 리스트 X의 시간적 기준 화상을 포인팅하는 (0, 0)과 같은 디폴트 값으로 DMV를 세팅함.
DMV 유도 프로시저의 위의 2개의 예들에서, DMV는, DMV가 다른 기준 화상을 포인팅하는 경우 기준 리스트의 (기준 인덱스 견지에서) 제 1 시간적 기준 화상으로 스케일링될 수 있다. 당 분야에 알려진 임의의 MV 스케일링 기법이 사용될 수 있다. 예를 들어, MV 스케일링은 POC(picture order count) 거리에 기초할 수 있다.
다른 실시예에서, 적응형 디스패리티 벡터 유도(adaptive disparity vector derivation; ADVD)는 ARP 코딩 효율을 개선하기 위해 개시된다. ADVD에서, 3개의 DV 후보들은 시간적/공간적 이웃 블록들로부터 유도된다. 현재 블록(510)의 단지 2개의 공간적 이웃들(520 및 530)이 도 5에서 도시된 바와 같이 검사된다. 새로운 DV 후보는, 그것이 이미 리스트에 있는 임의의 DV 후보와 동일하지 않은 경우에만 리스트에 삽입된다. DV 후보 리스트가 이웃 블록을 사용한 이후 완전히 파퓰레이트(populate)되지 않는 경우, 디폴트 DV들이 부가될 것이다. 인코더는 RDO 기준에 따라 ARP에서 사용되는 최상의 DV 후보를 결정하고 선택된 DV 후보의 인덱스를 디코더에 시그널링할 수 있다.
추가의 개선을 위해 정렬된 시간 DV(aligned temporal DV; ATDV)는 부가적인 DV 후보로서 개시된다. ATDV는 도 6에서 도시된 바와 같이 콜로케이팅된 화상에 대해 스케일링된 MV에 의해 위치지정되는 정렬된 블록으로부터 획득된다. 2개의 콜로케이팅된 화상들이 활용되며, 이들은 NBDV 유도에서 또한 사용될 수 있다. ATDV는 그것이 사용될 때 이웃 블록들로부터 DV 후보들에 앞서 검사된다.
ADVD 기법은 유도된 MV를 발견하도록 ATRP에 적용될 수 있다. 일 예에서, 3개의 MV 후보들은 ADVD에서 ARP에 대해 유도된 3개의 DV 후보들과 유사하게 ATRP에 대해 유도된다. DMV는 DMV가 존재하는 경우 MV 후보 리스트에 배치된다. 그 후, 공간적/시간적 이웃 블록들은 머징(merging) 후보를 발견하는 프로세스와 유사하게 더 많은 MV 후보들을 발견하도록 검사된다. 또한, 단지 2개의 공간적 이웃들이 도 5에서 도시된 바와 같이 검사된다. MV 후보 리스트가 이웃 블록들을 사용한 이후 완전히 파퓰레이트되지 않는 경우, 디폴트 MV들이 부가될 수 있다. 인코더는, ARTP에 대해 ADVD에서 행해진 것과 유사하게, RDO 기준에 따라 ATRP에서 사용되는 최상의 MV 후보를 발견하고 인덱스를 디코더에 시그널링할 수 있다.
본 발명의 실시예들에 따라 새로운 진보된 잔차 예측(advanced residual prediction; ARP)을 포함하는 시스템은 종래 ARP에 따른 종래의 시스템(3D-HEVC 테스트 모델 버전 8.0 (HTM 8.0))에 비교된다. 본 발명의 실시예들에 따른 시스템 구성은 표 1에서 요약된다. 종래의 시스템은 ADVD, ATDV 및 ATRP 모두가 오프(Off)로 세팅되게 한다. 테스트 1 내지 테스트 5에 대한 결과들은 각각 표 2 내지 표 6에서 나열된다.
Figure pct00001
성능 비교가 제 1 열에 나열된 상이한 테스트 데이터들의 세트에 기초한다. BD 레이트 차이가 뷰 1(비디오 1) 및 뷰 2(비디오 2)에서 텍스처 화상들에 대해 도시된다. BD 레이트의 음의 값은 본 발명이 더 나은 성능을 갖는다는 것을 암시한다. 표 2 내지 표 6에서 도시된 바와 같이, 본 발명의 실시예들을 포함하는 시스템은 뷰 1 및 뷰 2에 대해 0.6% 내지 2.0%의 현저한 BD 레이트 감소를 보여준다. 비디오 비트레이트에 관한 코딩된 비디오 PSNR, 총 비트레이트(텍스처 비트레이트 및 깊이 비트레이트)에 관한 코딩된 비디오 PSNR, 및 총 비트레이트에 관한 합성된 비디오 PSNR에 대한 BD 레이트 측정은 또한 현저한 BD 레이트 감소(0.2%-0.8%)를 보여준다. 코딩 시간, 디코딩 시간, 랜더링 시간은 종래 시스템보다 아주 약간만 더 높다. 그러나 테스트 1에 대한 인코딩 시간은 10.1%만큼 증가한다
Figure pct00002
Figure pct00003
Figure pct00004
Figure pct00005
Figure pct00006
도 7은 본 발명의 실시예에 따라 진보된 시간적 잔차 예측(advanced temporal residual prediction; ATRP)을 사용하는 3차원 또는 다중 뷰 비디오 코딩 시스템에 대한 예시적인 흐름도를 예시한다. 시스템은 단계(710)에서 도시된 바와 같이 현재 종속 뷰에서 현재 화상의 현재 블록과 연관된 입력 데이터를 수신하며, 여기서 현재 블록은 하나 이상의 현재 모션 또는 디스패리티 파라미터들과 연관된다. 입력 데이터는 코딩되지 않거나 코딩된 텍스처 데이터, 깊이 데이터 또는 연관된 모션 정보에 대응할 수 있다. 입력 데이터는 컴퓨터 메모리, 버퍼(RAM 또는 DRAM) 또는 다른 매체들과 같은 저장소로부터 리트리브(retrieve)될 수 있다. 입력 데이터는 또한 제어기, 중앙 처리 장치, 디지털 신호 프로세서 또는 입력 데이터를 유도하는 전자 회로들과 같은 프로세서로부터 수신될 수 있다. 현재 종속 뷰에서 시간적 기준 화상의 대응하는 블록은 단계(720)에서 도시된 바와 같이 현재 블록에 대해 결정된다. 대응하는 블록에 대한 기준 잔차는 단계(730)에서 도시된 바와 같이 상기 하나 이상의 현재 모션 또는 디스패리티 파라미터들에 따라 결정된다. 예측성 인코딩 또는 디코딩은 단계(740)에서 도시된 바와 같이 기준 잔차에 기초하여 현재 블록에 적용된다.
도 8은 본 발명의 실시예에 따라 진보된 잔차 예측(advanced residual prediction; ARP)에 대해 ADVD(adaptive disparity vector derivation)를 사용한 3차원 또는 다중 뷰 비디오 코딩 시스템에 대한 예시적인 흐름도를 예시한다. 시스템은 단계(810)에서 도시된 바와 같이, 현재 종속 뷰에서 현재 화상의 현재 블록과 연관된 입력 데이터를 수신한다. 현재 블록에 대해 기준 뷰의 인터-뷰 기준 화상의 대응하는 블록이 단계(820)에서 현재 블록의 DDV(derived DV)를 사용하여 결정된다. 현재 블록의 제 1 시간적 기준 블록은 단계(830)에서 현재 블록의 제 1 모션 벡터를 사용하여 결정된다. 대응하는 블록의 제 2 시간적 기준 블록은 단계(840)에서 제 1 모션 벡터를 사용하여 결정된다. 대응하는 블록에 대한 기준 잔차는 단계(850)에서 제 1 시간적 기준 블록 및 제 2 시간 블록으로부터 결정된다. 현재 잔차는 단계(860)에서 인터-뷰 기준 화상의 대응하는 블록 및 현재 블록으로부터 결정된다. 인코딩 또는 디코딩은 단계(870)에서 기준 잔차에 기초하여 현재 잔차에 적용되며, 여기서 DDV는 ADVD(adaptive disparity vector derivation)에 따라 유도되고, ADVD는 현재 블록의 2개의 공간적 이웃 블록들 및 하나 이상의 시간적 이웃 블록들에 기초하여 유도되고, 상기 2개의 공간적 이웃 블록들은 현재 블록의 우측 위의 포지션 및 좌측 바닥의 포지션에 위치지정된다.
위에서 도시된 흐름도들은 본 발명의 실시예들에 따라 진보된 시간적 잔차 예측 또는 진보된 잔차 예측을 사용하여 3차원 또는 다중 뷰 비디오 코딩 시스템들의 예들을 예시하도록 의도된다. 당업자들은 본 발명의 사상으로부터 벗어남 없이 본 발명을 실시하기 위해 각각의 단계를 변형하고, 단계들을 재배열하고, 단계를 분할하거나, 또는 단계들을 결합할 수 있다.
위의 설명은 당업자가, 특정한 애플리케이션 및 그의 요건의 맥락에서 제공되는 바와 같이 본 발명을 실시하는 것을 가능케 하도록 제시된다. 설명된 실시예들에 대한 다양한 변형들이 당업자들에게 자명하게 될 것이고, 본 명세서에서 정의된 일반 원리들은 다른 실시예들에 적용될 수 있다. 그러므로 본 발명은 도시되고 설명된 특정한 실시예들로 제한되도록 의도되는 것이 아니라, 본 명세서에서 개시된 원리들 및 독창적인 특징들에 부합하는 최광의의 범위로 허여될 것이다. 위의 상세한 설명에서, 다양한 특정한 세부사항들은 본 발명의 완전한 이해를 제공하기 위해 예시된다. 그럼에도, 본 발명은 실시될 수 있다는 것이 당업자에 의해 이해될 것이다.
위에서 설명된 의사 잔차 예측 및 DV 또는 MV 추정 방법들은 비디오 디코더는 물론 비디오 인코더에서 사용될 수 있다. 위에서 설명된 바와 같은 본 발명에 따른 의사 잔차 예측 방법들의 실시예들은 다양한 하드웨어, 소프트웨어 코드들 또는 이 둘의 결합으로 구현될 수 있다. 예를 들어, 본 발명의 실시예는 본 명세서에서 설명된 프로세싱을 수행하기 위해 비디오 압축 소프트웨어에 통합되는 프로그램 코드 또는 비디오 압축 칩에 통합되는 회로일 수 있다. 본 발명의 실시예는 또한 본 명세서에서 설명된 프로세싱을 수행하기 위해 디지털 신호 프로세서(Digital Signal Processor; DSP) 상에서 실행되는 프로그램 코드일 수 있다. 본 발명은 또한 컴퓨터 프로세서, 디지털 신호 프로세서, 마이크로프로세서, 또는 필드 프로그래밍 가능 게이트 어레이(field programmable gate array; FPGA)에 의해 수행되는 다수의 함수들을 포함할 수 있다. 이들 프로세서들은 본 발명에 의해 실현되는 특정한 방법들을 정의하는 머신 판독 가능한 소프트웨어 코드 또는 펌웨어 코드를 실행함으로써 본 발명에 따른 특정한 작업들을 수행하도록 구성될 수 있다. 소프트웨어 코드 또는 펌웨어 코드는 상이한 프로그래밍 언어들 및 상이한 포맷들 또는 스타일들로 개발될 수 있다. 소프트웨어 코드는 상이한 타겟 플랫폼들에 대해 또한 컴파일될 수 있다. 그러나 소프트웨어 코드들의 상이한 코드 포맷들, 스타일들 및 언어들 및 본 발명에 따른 작업들을 수행하도록 코드를 구성하는 다른 수단은 본 발명의 사상 및 범위로부터 벗어나지 않을 것이다.
본 발명은 본 발명의 사상 또는 본질적인 특성들로부터 벗어남 없이 다른 특정한 형태들로 실현될 수 있다. 설명된 예들은 모든 면에서 제한적이 아니라 단지 예시적인 것으로서 고려될 것이다. 본 발명의 범위는 이에 따라 위의 설명에 의해서 보단 첨부된 청구항들에 의해 표시된다. 청구항들의 등가물의 의미 및 범위 내에 있게 되는 모든 변화들은 본 발명의 범위 내에 포함될 것이다.

Claims (21)

  1. 3차원 또는 다중 뷰 비디오 코딩을 위한 방법에 있어서,
    현재 종속 뷰(current dependent view)에서의 현재 화상의 현재 블록과 연관된 입력 데이터를 수신하는 단계로서, 상기 현재 블록은 하나 이상의 현재 모션 또는 디스패리티(disparity) 파라미터들과 연관되는, 상기 수신하는 단계와,
    상기 현재 블록에 대한 상기 현재 종속 뷰에서의 시간적 기준 화상 내의 대응하는 블록을 결정하는 단계와,
    상기 하나 이상의 현재 모션 또는 디스패리티 파라미터들에 따라 상기 대응하는 블록에 대한 기준 잔차(reference residual)를 결정하는 단계와,
    상기 기준 잔차에 기초하여 상기 현재 블록에 예측성 인코딩 또는 디코딩을 적용하는 단계
    를 포함하는 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  2. 제 1 항에 있어서,
    상기 시간적 기준 화상 내의 대응하는 블록은 DMV(derived motion vector)를 사용하여 상기 현재 블록에 기초하여 위치지정되는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  3. 제 2 항에 있어서,
    상기 DMV는 기준 뷰 내의 선택된 기준 블록의 선택된 MV(motion vector)에 대응하는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  4. 제 3 항에 있어서,
    상기 선택된 기준 블록은 상기 현재 블록의 MV, DV(disparity vector), 또는 DDV(derived DV)를 사용하여 상기 현재 블록으로부터 위치지정되는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  5. 제 4 항에 있어서,
    상기 DDV는 ADVD(adaptive disparity vector derivation)에 따라 유도되고, 상기 ADVD는 하나 이상의 시간적 이웃 블록들 및 2개의 공간적 이웃 블록들에 기초하여 유도되고, 상기 2개의 공간적 이웃 블록들은 상기 현재 블록의 우측 위(above-right)의 포지션 및 좌측 바닥(left-bottom)의 포지션에 위치지정되는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  6. 제 5 항에 있어서,
    상기 하나 이상의 시간적 이웃 블록들은 상기 현재 블록의 하나의 정렬된 시간적 기준 블록 및 하나의 콜로케이팅된(collocated) 시간적 기준 블록에 대응하고, 상기 정렬된 시간적 기준 블록은 스케일링된 MV를 사용하여 상기 현재 블록으로부터 시간적 기준 화상 내에 위치지정되는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  7. 제 5 항에 있어서,
    상기 하나 이상의 시간적 이웃 블록들 및 상기 2개의 공간적 이웃 블록들의 어떠한 DV도 사용 가능하지 않으면, 디폴트 DV가 사용되는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  8. 제 3 항에 있어서,
    상기 기준 뷰 내의 선택된 기준 블록의 선택된 MV가 사용 가능하지 않을 때 디폴트 MV가 DMV로서 사용되고, 상기 디폴트 MV는 0과 동일한 기준 화상 인덱스를 갖는 제로(zero) MV인 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  9. 제 2 항에 있어서,
    상기 DMV는 기준 리스트의 기준 인덱스 또는 상기 기준 리스트의 선택된 기준 화상에 기초하여 제 1 시간적 기준 화상에 대해 스케일링되고, 상기 제 1 시간적 기준 화상 또는 선택된 기준 화상은 상기 현재 블록에 대한 현재 종속 뷰에서의 시간적 기준 화상으로서 사용되는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  10. 제 2 항에 있어서,
    상기 DMV는 상기 현재 블록의 공간적 이웃 블록 또는 시간적 이웃 블록의 하나의 모션 벡터로 세팅되는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  11. 제 2 항에 있어서,
    상기 DMV는 비트스트림으로 명시적으로(explicitly) 시그널링되는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  12. 제 1 항에 있어서,
    상기 시간적 기준 화상 내의 대응하는 블록은 DMV(derived motion vector)가 0과 동일한 콜로케이팅된 블록에 대응하는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  13. 제 1 항에 있어서,
    상기 현재 종속 뷰 내의 현재 화상의 현재 블록은 상기 현재 블록의 현재 잔차를 형성하도록 DCP(disparity compensated prediction)를 사용하여 코딩되는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  14. 제 13 항에 있어서,
    상기 현재 블록의 현재 잔차를 예측하는데 기준 잔차가 사용되는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  15. 제 1 항에 있어서,
    상기 기준 잔차에 기초하여 상기 현재 블록의 상기 예측성 인코딩 또는 디코딩에 관련된 온, 오프 또는 가중(weighting) 팩터를 제어하도록 플래그가 각각의 블록에 대해 시그널링되는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  16. 제 15 항에 있어서,
    상기 플래그는 시퀀스 레벨, 뷰 레벨, 화상 레벨 또는 슬라이스 레벨로 명시적으로 시그널링되는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  17. 제 15 항에 있어서,
    상기 플래그는 머지(Merge) 모드에서 승계(inherit)되는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  18. 제 15 항에 있어서,
    상기 가중 팩터는 1/2에 대응하는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  19. 제 1 항에 있어서,
    상기 현재 블록은 PU(prediction unit) 또는 CU(coding unit)에 대응하는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
  20. 3차원 또는 다중 뷰 비디오 코딩을 위한 장치에 있어서,
    하나 이상의 전자 회로들을 포함하고,
    상기 하나 이상의 전자 회로들은,
    현재 종속 뷰에서의 현재 화상의 현재 블록 - 상기 현재 블록은 하나 이상의 현재 모션 또는 디스패리티 파라미터들과 연관됨 - 과 연관된 입력 데이터를 수신하고,
    상기 현재 블록에 대한 현재 종속 뷰에서의 시간적 기준 화상 내의 대응하는 블록을 결정하고,
    상기 하나 이상의 현재 모션 또는 디스패리티 파라미터들에 따라 상기 대응하는 블록에 대한 기준 잔차(reference residual)를 결정하고,
    상기 기준 잔차에 기초하여 상기 현재 블록에 예측성 인코딩 또는 디코딩을 적용하도록 구성되는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 장치.
  21. 3차원 또는 다중 뷰 비디오 코딩을 위한 방법에 있어서,
    현재 종속 뷰에서의 현재 화상의 현재 블록과 연관된 입력 데이터를 수신하는 단계와,
    상기 현재 블록의 DDV(derived DV)를 사용하여 상기 현재 블록에 대한 기준 뷰에서의 인터-뷰 기준 화상(inter-view reference picture) 내의 대응하는 블록을 결정하는 단계와,
    상기 현재 블록의 제 1 모션 벡터를 사용하여 상기 현재 블록의 제 1 시간적 기준 블록을 결정하는 단계와,
    상기 제 1 모션 벡터를 사용하여 상기 대응하는 블록의 제 2 시간적 기준 블록을 결정하는 단계와,
    상기 제 1 시간적 기준 블록 및 상기 제 2 시간적 기준 블록으로부터 상기 대응하는 블록에 대한 기준 잔차를 결정하는 단계와,
    상기 현재 블록 및 상기 인터-뷰 기준 화상 내의 대응하는 블록으로부터 현재 잔차를 결정하는 단계와,
    상기 기준 잔차에 기초하여 상기 현재 잔차에 예측성 인코딩 또는 디코딩을 적용하는 단계를 포함하고,
    상기 DDV는 ADVD(adaptive disparity vector derivation)에 따라 유도되고, 상기 ADVD는 상기 현재 블록의 하나 이상의 시간적 이웃 블록들 및 2개의 공간적 이웃 블록들에 기초하여 유도되고, 상기 2개의 공간적 이웃 블록들은 상기 현재 블록의 우측 위의 포지션 및 좌측 바닥의 포지션에 위치지정되는 것인 3차원 또는 다중 뷰 비디오 코딩을 위한 방법.
KR1020167001216A 2013-07-16 2014-07-10 3차원 비디오 코딩에서 진보된 시간적 잔차 예측을 위한 방법 및 장치 KR101763083B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
PCT/CN2013/079468 WO2015006922A1 (en) 2013-07-16 2013-07-16 Methods for residual prediction
CNPCT/CN2013/079468 2013-07-16
CNPCT/CN2013/087117 2013-11-14
PCT/CN2013/087117 WO2014075615A1 (en) 2012-11-14 2013-11-14 Method and apparatus for residual prediction in three-dimensional video coding
PCT/CN2014/081951 WO2015007180A1 (en) 2013-07-16 2014-07-10 Method and apparatus for advanced temporal residual prediction in three-dimensional video coding

Publications (2)

Publication Number Publication Date
KR20160022349A true KR20160022349A (ko) 2016-02-29
KR101763083B1 KR101763083B1 (ko) 2017-07-28

Family

ID=57123512

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167001216A KR101763083B1 (ko) 2013-07-16 2014-07-10 3차원 비디오 코딩에서 진보된 시간적 잔차 예측을 위한 방법 및 장치

Country Status (1)

Country Link
KR (1) KR101763083B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200102507A (ko) * 2018-01-05 2020-08-31 코닌클리케 필립스 엔.브이. 이미지 데이터 비트스트림을 생성하기 위한 장치 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102946536B (zh) * 2012-10-09 2015-09-30 华为技术有限公司 候选矢量列表构建的方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200102507A (ko) * 2018-01-05 2020-08-31 코닌클리케 필립스 엔.브이. 이미지 데이터 비트스트림을 생성하기 위한 장치 및 방법

Also Published As

Publication number Publication date
KR101763083B1 (ko) 2017-07-28

Similar Documents

Publication Publication Date Title
US9819959B2 (en) Method and apparatus for residual prediction in three-dimensional video coding
JP5970609B2 (ja) 3dビデオ符号化における統一された視差ベクトル導出の方法と装置
US20180115764A1 (en) Method and apparatus of motion and disparity vector prediction and compensation for 3d video coding
CA2920413C (en) Method of deriving default disparity vector in 3d and multiview video coding
AU2013284038B2 (en) Method and apparatus of disparity vector derivation in 3D video coding
US20150172714A1 (en) METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING
CA2896905C (en) Method and apparatus of view synthesis prediction in 3d video coding
US20150201215A1 (en) Method of constrain disparity vector derivation in 3d video coding
JP6042556B2 (ja) 3dビデオ符号化における制約される視差ベクトル導出の方法と装置
US20150365649A1 (en) Method and Apparatus of Disparity Vector Derivation in 3D Video Coding
CA2909561C (en) Method and apparatus for advanced temporal residual prediction in three-dimensional video coding
JP2016506195A (ja) 3次元ビデオ符号化の深度から視差ベクトルを導出する方法および装置
US9883205B2 (en) Method of inter-view residual prediction with reduced complexity in three-dimensional video coding
KR101763083B1 (ko) 3차원 비디오 코딩에서 진보된 시간적 잔차 예측을 위한 방법 및 장치
CN105359529A (zh) 三维视频编码中用于高级时间残差预测的方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant