WO2014065547A1 - 3차원 영상의 뷰간(inter-view) 움직임 벡터 예측에서의 변이 벡터 유도 방법 - Google Patents

3차원 영상의 뷰간(inter-view) 움직임 벡터 예측에서의 변이 벡터 유도 방법 Download PDF

Info

Publication number
WO2014065547A1
WO2014065547A1 PCT/KR2013/009375 KR2013009375W WO2014065547A1 WO 2014065547 A1 WO2014065547 A1 WO 2014065547A1 KR 2013009375 W KR2013009375 W KR 2013009375W WO 2014065547 A1 WO2014065547 A1 WO 2014065547A1
Authority
WO
WIPO (PCT)
Prior art keywords
inter
size
motion vector
depth
block
Prior art date
Application number
PCT/KR2013/009375
Other languages
English (en)
French (fr)
Inventor
이충구
이용재
김휘
Original Assignee
(주)휴맥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)휴맥스 filed Critical (주)휴맥스
Priority to CN201380055266.XA priority Critical patent/CN104737536A/zh
Priority to US14/432,715 priority patent/US20150256809A1/en
Priority claimed from KR1020130125014A external-priority patent/KR20140051790A/ko
Publication of WO2014065547A1 publication Critical patent/WO2014065547A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components

Definitions

  • the present invention relates to a 3D image encoding method and apparatus, and more particularly, to a method and apparatus for deriving a disparity vector in inter-view motion vector prediction of a 3D image.
  • Multi-view 3D TV has the advantage of providing a more natural three-dimensional feeling by viewing the stereoscopic image according to the position of the observer, but it is practically impossible to have the image of all viewpoints, there is a disadvantage that requires a large cost in terms of transmission. Therefore, there is a need for an intermediate view image synthesis technique for generating an image for a view that does not exist using the transmitted image.
  • disparity estimation is performed by finding similarities between two images and expressing the disparity as a disparity vector (DV).
  • each pixel includes depth information as well as pixel information due to the characteristics of the image, and obtains depth information or a depth map from an encoder, and provides a multiview video image information and depth to a decoder. Information can be sent.
  • motion vector prediction is used.
  • a motion vector of a neighboring block of the current prediction unit is used.
  • a method of simply and efficiently deriving a variation vector using depth information or a depth map is needed.
  • An object of the present invention is to provide a method of deriving a disparity vector in inter-view motion vector prediction of a three-dimensional image for reducing complexity in deriving a disparity vector in inter-view motion vector prediction of a three-dimensional image. It is.
  • Another object of the present invention is to provide a disparity vector derivation apparatus in inter-view motion vector prediction of a 3D image using the above method.
  • a method for deriving a disparity vector when performing inter-view motion vector prediction in a three-dimensional image of the present invention performs inter-view motion vector prediction in a three-dimensional image. If the time target reference picture is an inter-view prediction picture and the inter-view motion vector of neighboring blocks of the current block is unavailable, the unusable inter-view is not available. Derive the disparity vector from a maximum depth value in the depth map associated with the current block to replace and use a motion vector, the predetermined number in the depth map associated with the current block for the current block The depth samples are searched to obtain the maximum depth value to derive the disparity vector.
  • depth samples of four corners of each 8x8 size block may be searched to obtain a maximum depth value to derive a maximum disparity vector.
  • depth samples of four corners of each 8x8 size block may be searched to obtain a maximum depth value to derive a maximum disparity vector.
  • a method for deriving a disparity vector when performing inter-view motion vector prediction in a three-dimensional image of the present invention performs inter-view motion vector prediction in a three-dimensional image. If the time target reference picture is an inter-view prediction picture and the inter-view motion vector of neighboring blocks of the current block is unavailable, the unusable inter-view is not available. Deriving the disparity vector from the maximum depth value in the depth map associated with the current block to replace the motion vector, and adaptively associated with the current block according to the size of the current block. The disparity vector is derived by searching the different number of depth samples in the depth map to obtain the maximum depth value.
  • K-K may be searched only for positive integer-depth samples to obtain a maximum depth value to derive the maximum disparity vector.
  • depth samples of four corners of each 8x8 size block may be searched to obtain a maximum depth value to derive a maximum disparity vector.
  • depth samples of four corners of each 8x8 size block may be searched to obtain a maximum depth value to derive a maximum disparity vector.
  • a method for deriving a disparity vector when performing inter-view motion vector prediction in a three-dimensional image of the present invention performs inter-view motion vector prediction in a three-dimensional image. If the time target reference picture is an inter-view prediction picture and the inter-view motion vector of neighboring blocks of the current block is unavailable, the unusable inter-view is not available. Deriving the disparity vector from the maximum depth value in the depth map associated with the current block to replace the motion vector, for a current block of a constant size regardless of the size of the current block The maximum depth by searching for a different number of depth samples in a depth map associated with the current block of constant size The obtained to derive the disparity vector.
  • a method and apparatus for deriving a disparity vector in inter-view motion vector prediction of a 3D image when a specific inter-view motion vector of adjacent blocks of the current block is unavailable, a predetermined number of times in the current block are required.
  • searching for depth samples to find the maximum depth value and deriving the disparity vector the maximum depth value for all N x N depth samples in the current block of size N x N ).
  • the complexity can be greatly improved compared to the method of deriving the disparity vector.
  • a particular inter-view motion vector of adjacent blocks of the current block is unavailable, it is adaptively dependent on the current block size—eg, the size of the prediction unit—and adaptively another number of depth samples in that block.
  • FIGS. 1A to 1B are conceptual views illustrating a method for deriving a disparity vector according to an embodiment of the present invention.
  • 2A to 2I are conceptual views illustrating a method for deriving a disparity vector according to another embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a method for deriving a disparity vector according to an embodiment of the present invention.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • a coding unit may have a square pixel size and have a variable size of 2N 2 N (unit: pixel).
  • a coding unit (CU) may have a recursive coding unit structure. Inter prediction, intra prediction, transform, quantization, deblocking filtering, and entropy encoding may be performed in units of coding units (CUs). have.
  • a prediction unit is a basic unit that performs inter prediction or intra prediction.
  • the target reference picture is a temporal predictive picture.
  • temporal motion vectors of adjacent blocks of the current block are used for motion vector prediction.
  • a zero vector is used.
  • the temporal motion vector prediction is derived by the median of motion vectors of neighboring blocks of the current block.
  • inter-view motion vector prediction when performing 3D video encoding based on a video coding scheme that is more efficient than H.264 / AVC or H.264 / AVC, when performing inter-view motion vector prediction, a target reference picture is used. If the picture is an inter-view prediction picture, inter-view motion vectors of neighboring blocks of the current block are used for inter-view prediction. In this case, when the particular inter-view motion vector of the adjacent blocks is unavailable, the maximum shift transformed (or derived) from the maximum depth value in the depth block (or depth map) associated with the current block. A disparity vector is used to replace the specific inter-view motion vector that is not available.
  • the inter-view motion vector prediction may be derived by the median of the inter-view motion vectors of the neighboring blocks of the current block, as in the conventional H.264 / AVC motion vector prediction.
  • K 4
  • a search may be performed on only four depth samples to obtain a maximum depth value to derive the maximum disparity vector.
  • the size of the prediction unit (PU) for example, 16 X 16, 64 X 64, 32 X 32 pixels
  • K for example, K is a positive integer such as 4, 16, 32, 60, 61, 74, 90, etc.
  • the maximum disparity vector can be derived by searching only depth samples of and obtaining a maximum depth value.
  • the 32 x 32, 64 x 64 all depth samples are used to find the maximum disparity vector (DV) using the maximum depth value in the depth block (or depth map). This is complicated by the need to search the depth samples.
  • the number of depth samples is adaptively searched according to the block size-e.g. the size of the prediction unit.
  • FIG. 1A to 1B illustrate a method for deriving a disparity vector by searching for only a different number of depth samples in a block according to a block size according to an embodiment of the present invention.
  • a depth value of four corners of each 8x8 size block that is, a total of 16 corner depth samples, is searched for a 16x16 block size composed of four blocks of 8x8 size.
  • the maximum depth value is searched by searching for depth samples of four corners of each 8x8 size block, that is, a total of 64 corner depth samples. Can be derived to derive the maximum disparity vector.
  • the size of the prediction unit (for example, Maximum depth by performing a search on only a different number of depth samples (K1, K2, K3,...) for a block of a constant size, regardless of 16 ⁇ 16, 64 ⁇ 64, 32 ⁇ 32 pixels Depth values can be obtained to derive the disparity vector.
  • 2A to 2I illustrate a method for deriving a disparity vector by searching only a different number of depth samples in a block for a block of a constant size regardless of a block size according to another embodiment of the present invention. This is a conceptual diagram for explaining.
  • a maximum depth vector may be derived by searching for a different number of depth samples in each block for a block having a constant size of 16 ⁇ 16.
  • the x position in the X-axis direction and the y position in the Y-axis direction are expressed as (x, y).
  • FIG. 3 is a flowchart illustrating a method for deriving a disparity vector according to an embodiment of the present invention.
  • the size of a block (eg, a prediction unit (PU)) ( For example, 16 X 16, 64 X 64, 32 X 32 pixels) may be determined (S310), and in consideration of the size of the block, K in the block may be adaptively applied, for example, K may be 4 or 16.
  • the maximum depth value is obtained by searching only for positive integers of 32, 60, 61, 64, 74, 90, etc. (S320).
  • a variation vector is derived based on the maximum depth value (S330).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

3차원 영상의 뷰간(inter-view) 움직임 벡터 예측에서의 변이 벡터 유도 방법은, 현재 블록 크기-예를 들어 예측 유닛의 크기-에 따라 적응적으로 해당 블록내 다른 개수의 깊이 샘플(depth samples)에 대해서 탐색하여 최대 깊이 값(depth value)를 구해 변이 벡터를 유도한다. 따라서, 고정된 블록 크기에 대해 깊이 샘플(depth samples)에 대해서 탐색하는 방식에 비하여 부호화/복호화 이득을 증가시킬 수 있다.

Description

3차원 영상의 뷰간(INTER-VIEW) 움직임 벡터 예측에서의 변이 벡터 유도 방법
본 발명은 3D 영상 부호화 방법 및 장치에 관한 것으로, 보다 상세하게는 3차원 영상의 뷰간(inter-view) 움직임 벡터 예측에서의 변이 벡터 유도 방법 및 장치에 관한 것이다.
다시점 3D TV는 관찰자의 위치에 따른 입체 영상을 볼 수 있어 보다 자연스런 입체감을 제공하는 장점이 있으나, 모든 시점의 영상을 갖는 것은 현실적으로 불가능하며, 전송 측면에서도 큰비용이 요구된다는 단점이 있다. 따라서 존재하지 않는 시점에 대한 영상을 전송된 영상을 이용해 만들어내는 중간 시점 영상 합성 기술이 필요하다.
이러한 중간 시점 영상 합성에 있어서 가장 핵심이 되는 것은 두 영상의 유사점을 찾아 그 변이를 변이 벡터(Disparity Vector; DV)로 표현하는 변이 추정(Disparity Estimation)이다.
한편, 3차원 영상의 경우, 영상의 특성상 각 픽셀이 화소 정보뿐만 아니라 깊이(depth) 정보를 포함하고 있으며, 인코더에서 깊이 정보 또는 깊이 맵(depth map)을 구해 디코더로 다시점 비디오 영상 정보 및 깊이 정보를 전송할 수 있다.
이때, 움직임 벡터 예측(Motion Vector Prediction)을 사용한다. 예측 움직임 벡터의 후보 블록으로 현재 예측 유닛의 주변 블록의 움직임 벡터를 사용하는데 깊이 정보를 갖는 3차원 영상의 경우 깊이 정보 또는 깊이 맵을 이용하여 변이 벡터를 단순하고 효율적으로 유도하는 방법이 필요하다.
본 발명의 목적은 3차원 영상의 뷰간(inter-view) 움직임 벡터 예측에서의 변이 벡터 유도시 복잡도를 감소시키기 위한 3차원 영상의 뷰간(inter-view) 움직임 벡터 예측에서의 변이 벡터 유도 방법을 제공하는 것이다.
본 발명의 다른 목적은 상기 방법을 이용하는 3차원 영상의 뷰간(inter-view) 움직임 벡터 예측에서의 변이 벡터 유도 장치를 제공하는 것이다.
상기한 목적을 달성하기 위한 본 발명의 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 변이 벡터를 유도하기 위한 방법은, 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 타겟 참조 픽춰(reference picture)가 뷰간 예측 픽춰(inter-view prediction picture)이고 현재 블록의 인접 블록들(neighboring blocks)의 뷰간 움직임 벡터가 사용가능하지 않을 경우(unavailable), 상기 사용가능하지 않은 뷰간 움직임 벡터를 대체하여 사용하기 위하여 상기 현재 블록과 관련된 깊이 맵내의 최대 깊이 값(depth value)으로부터 상기 변이 벡터(disparity vector)를 유도하되, 상기 현재 블록에 대하여 상기 현재 블록과 관련된 깊이 맵내의 소정 개수의 깊이 샘플들에 대해서 탐색(search)을 하여 상기 최대 깊이 값을 구해 상기 변이 벡터를 유도한다.
8x8 크기의 블록 4개로 구성된 16x16의 블록 크기에 대해서 각각의 8x8 크기 블록의 4개 코너의 깊이 샘플들을 탐색하여 최대 깊이 값(depth value)를 구해 최대 변이 벡터를 유도할 수 있다.
8x8 크기의 블록 16개로 구성된 32x32 블록 크기에 대해서 각각의 8x8 크기 블록의 4개 코너의 깊이 샘플들을 탐색하여 최대 깊이 값(depth value)를 구해 최대 변이 벡터를 유도할 수 있다.
상기한 목적을 달성하기 위한 본 발명의 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 변이 벡터를 유도하기 위한 방법은, 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 타겟 참조 픽춰(reference picture)가 뷰간 예측 픽춰(inter-view prediction picture)이고 현재 블록의 인접 블록들(neighboring blocks)의 뷰간 움직임 벡터가 사용가능하지 않을 경우(unavailable), 상기 사용가능하지 않은 뷰간 움직임 벡터를 대체하여 사용하기 위하여 상기 현재 블록과 관련된 깊이 맵내의 최대 깊이 값(depth value)으로부터 상기 변이 벡터(disparity vector)를 유도하되, 상기 현재 블록의 크기에 따라 적응적으로 상기 현재 블록과 관련된 깊이 맵내의 서로 다른 개수의 깊이 샘플들에 대해서 탐색(search)을 하여 상기 최대 깊이 값을 구해 상기 변이 벡터를 유도한다.
예측 유닛(PU)의 크기에 따라 적응적으로 K개-K는 양의 정수-의 깊이 샘플들에 대해서만 탐색(search)을 하여 최대 깊이 값(depth value)를 구해 최대 변이 벡터를 유도할 수 있다.
8x8 크기의 블록 4개로 구성된 16x16의 블록 크기에 대해서 각각의 8x8 크기 블록의 4개 코너의 깊이 샘플들을 탐색하여 최대 깊이 값(depth value)를 구해 최대 변이 벡터를 유도할 수 있다.
8x8 크기의 블록 16개로 구성된 32x32 블록 크기에 대해서 각각의 8x8 크기 블록의 4개 코너의 깊이 샘플들을 탐색하여 최대 깊이 값(depth value)를 구해 최대 변이 벡터를 유도할 수 있다.
상기한 목적을 달성하기 위한 본 발명의 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 변이 벡터를 유도하기 위한 방법은, 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 타겟 참조 픽춰(reference picture)가 뷰간 예측 픽춰(inter-view prediction picture)이고 현재 블록의 인접 블록들(neighboring blocks)의 뷰간 움직임 벡터가 사용가능하지 않을 경우(unavailable), 상기 사용가능하지 않은 뷰간 움직임 벡터를 대체하여 사용하기 위하여 상기 현재 블록과 관련된 깊이 맵내의 최대 깊이 값(depth value)으로부터 상기 변이 벡터(disparity vector)를 유도하되, 상기 현재 블록의 크기에 무관하게 일정한 크기의 현재 블록에 대하여 상기 일정한 크기의 현재 블록과 관련된 깊이 맵내의 서로 다른 개수의 깊이 샘플들에 대해서 탐색(search)을 하여 상기 최대 깊이 값을 구해 상기 변이 벡터를 유도한다.
3차원 영상의 뷰간(inter-view) 움직임 벡터 예측에서의 변이 벡터 유도 방법 및 장치에 따르면, 현재 블록의 인접 블록들의 특정 뷰간 움직임 벡터가 사용가능하지 않을 경우(unavailable), 현재 블록내 소정 개수의 깊이 샘플(depth samples)에 대해서 탐색하여 최대 깊이 값(depth value)를 구해 변이 벡터를 유도함으로써, N x N 크기의 현재 블록내 N x N 개 모두의 깊이 샘플들에 대해서 최대 깊이 값(depth value)를 구해 변이 벡터를 유도하는 방식에 비하여, 복잡도를 크게 개선할 수 있다.
또한, 현재 블록의 인접 블록들의 특정 뷰간 움직임 벡터가 사용가능하지 않을 경우(unavailable), 현재 블록 크기-예를 들어 예측 유닛의 크기-에 따라 적응적으로 해당 블록내 다른 개수의 깊이 샘플(depth samples)에 대해서 탐색하여 최대 깊이 값(depth value)를 구해 변이 벡터를 유도함으로써, 고정된 블록 크기에 대해 깊이 샘플(depth samples)에 대해서 탐색하는 방식에 비하여 부호화/복호화 이득을 증가시킬 수 있는 효과가 있다.
도 1a 내지 도 1b는 본 발명의 일 실시예에 따른 변이 벡터를 유도하기 위한 방법을 설명하기 위한 개념도이다.
도 2a 내지 도 2i는 본 발명의 다른 실시예에 따른 변이 벡터를 유도하기 위한 방법을 설명하기 위한 개념도이다.
도 3은 본 발명의 일 실시예에 따른 변이 벡터를 유도하기 위한 방법을 설명하기 위한 흐름도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
이하, 코딩 유닛(Coding Unit; CU)은 정방형의 픽셀 크기를 가지며, 2N2N(단위: 픽셀) 크기의 가변적인 크기를 가질 수 있다. 코딩 유닛(Coding Unit; CU)은 순환적(recursive) 코딩 유닛 구조를 가질 수 있다. 화면간 예측(inter prediction), 화면내 예측(intra prediction), 변환(Transform), 양자화(Quantization), 디블록킹 필터링(Deblocking filtering) 및 엔트로피 부호화(Entropy encoding)는 코딩 유닛(CU) 단위로 이루어질 수 있다.
예측 유닛(PU: Prediction Unit)이라 함은 화면간 예측(inter prediction) 또는 화면내 예측(intra prediction)을 수행하는 기본 단위이다.
H.264/AVC에 기반하여 3D 비디오 부호화를 수행할 때, 시간적(temporal) 움직임 벡터 예측 및 뷰간(inter-view) 움직임 벡터 예측을 수행할 경우, 타겟 참조 픽춰(target reference picture)가 시간적 예측 픽춰(temporal prediction picture)인 경우, 현재 블록의 인접 블록들(adjacent blocks)의 시간적 움직임 벡터들(temporal motion vectors)이 움직임 벡터 예측을 위해 사용된다. 이 경우, 상기 시간적 움직임 벡터가 사용가능하지 않을 경우(unavailable), 영 벡터(zero vector)가 사용된다. 상기 시간적 움직임 벡터 예측은 상기 현재 블록의 주변 블록들의 움직임 벡터들의 중앙값(median)에 의해 유도된다.
반면에, H.264/AVC 또는 H.264/AVC 보다 고효율의 비디오 부호화 방식에 기반하여 3D 비디오 부호화를 수행할 때, 뷰간(inter-view) 움직임 벡터 예측을 수행할 경우, 타겟 참조 픽춰(reference picture)가 뷰간 예측 픽춰(inter-view prediction picture)인 경우, 현재 블록의 인접 블록들(neighboring blocks)의 뷰간 움직임 벡터들이 뷰간 예측을 위해 사용된다. 이 경우, 상기 인접 블록들의 특정 뷰간 움직임 벡터가 사용가능하지 않을 경우(unavailable), 현재 블록과 관련된 깊이 블록(또는 깊이맵)내의 최대 깊이 값(depth value)으로부터 변환된(또는 유도된) 최대 변이 벡터(disparity vector)가 상기 사용가능하지 않은 특정 뷰간 움직임 벡터를 대체하여 사용된다. 그리고, 상기 뷰간 움직임 벡터 예측은 기존의 H.264/AVC의 움직임 벡터 예측과 마찬가지로 현재 블록의 상기 주변 블록들의 뷰간 움직임 벡터들의 중앙값에 의해 유도될 수 있다.
상기와 같이 H.264/AVC 또는 H.264/AVC 보다 고효율의 비디오 부호화 방식에 기반하여 3D 비디오 부호화를 수행할 경우, 전술한 바와 같이 현재 블록의 인접 블록들의 특정 뷰간 움직임 벡터가 사용가능하지 않을 경우(unavailable), 깊이 블록(또는 깊이맵)내의 최대 깊이 값(depth value)를 이용하여 상기 최대 변이 벡터(DV)를 찾아내기 위해서, 예를 들어, 예측 유닛(PU)이 16x16 매크로블록(macroblock)인 경우 256개의 모든 깊이 샘플들(depth samples)을 탐색(search)해야 하므로 255번의 비교 동작을 수행해야 하고 그 계산이 매우 복잡해진다. 따라서, 이런 경우 좀 더 간단한 변이 벡터 유도 방법으로서, 256개의 모든 깊이 샘플들(depth samples) 대신 K개의 깊이 샘플들(depth samples)-예를 들어 K=4로서, 16x16 매크로블록 코너(corner)의 4개 깊이 샘플들(depth samples)-에 대해서만 탐색(search)을 수행하여 최대 깊이 값(depth value)를 구해 상기 최대 변이 벡터를 유도할 수 있다. 이러한 단순화에 의해,액세스 되어야할 깊이 샘플들의 개수가 256개에서 4개로 대폭 감소하고, 요구되는 비교 횟수가 255회에서 3회로 크게 감소하게 된다.
본 발명의 일실시예에 따르면, H.264/AVC 또는 H.264/AVC 보다 고효율의 비디오 부호화 방식에 기반하여 3D 비디오 부호화를 수행할 경우, 예측 유닛(PU)의 크기(예를 들어, 16 X 16, 64 X 64,32 X 32 픽셀)에 따라 적응적으로 K개-예를 들어 K는 4개, 16개, 32개, 60개, 61개, 74개, 90개등의 양의정수-의 깊이 샘플들에 대해서만 탐색(search)을 하여 최대 깊이 값(depth value)를 구해 최대 변이 벡터를 유도할 수 있다.
특히, H.264/AVC의 16x16 매크로블록 보다 더 큰 32 x 32 픽셀, 64 x 64 픽셀의 블록 크기를 코딩 유닛 또는 예측 유닛으로 사용하는 경우를 고려할 경우, 현재 블록의 인접 블록들의 특정 뷰간 움직임 벡터가 사용가능하지 않을 경우(unavailable) 깊이 블록(또는 깊이맵)내의 최대 깊이 값(depth value)를 이용하여 상기 최대 변이 벡터(DV)를 찾아내기 위해서, 32 x 32, 64 x 64개의 모든 깊이 샘플(depth samples)을 탐색(search)해야 하므로 매우 복잡해지게된다. 따라서, 이 경우, 32 x 32, 64 x 64개 모두의 깊이 샘플(depth samples) 대신 블록 크기-예를 들어 예측 유닛의 크기-에 따라 적응적으로 다른 개수의 깊이 샘플(depth samples)에 대해서만 탐색하여 최대 깊이 값(depth value)를 구해 최대 변이 벡터를 유도함으로써 부호화/복호화 이득을 증가시킬 수 있는 효과가 있다.
도 1a 내지 도 1b는 본 발명의 일 실시예에 따른 블록 크기에 따라 적응적으로 해당 블록내의 서로 다른 개수의 깊이 샘플들에 대해서만 탐색(search)을 하여 변이 벡터를 유도하기 위한 방법을 설명하기 위한 개념도이다.
도 1a를 참조하면, 8x8 크기의 블록 4개로 구성된 16x16의 블록 크기에 대해서 각각의 8x8 크기 블록의 4개 코너의 깊이 샘플들, 즉 총 16개의 코너의 깊이 샘플들을 탐색하여 최대 깊이 값(depth value)를 구해 최대 변이 벡터를 유도할 수 있다.
도 1b를 참조하면, 8x8 크기의 블록 16개로 구성된 32x32 블록 크기에 대해서 각각의 8x8 크기 블록의 4개 코너의 깊이 샘플들, 즉 총 64개의 코너의 깊이 샘플들을 탐색하여 최대 깊이 값(depth value)를 구해 최대 변이 벡터를 유도할 수 있다.
한편, 본 발명의 다른 실시예에 따르면, H.264/AVC 또는 H.264/AVC 보다 고효율의 비디오 부호화 방식에 기반하여 3D 비디오 부호화를 수행할 경우, 예측 유닛(PU)의 크기(예를 들어, 16 X 16, 64 X 64,32 X 32 픽셀)에 무관하게 일정한 크기의 블록에 대하여 서로 다른 개수(K1, K2, K3, …)의 깊이 샘플들에 대해서만 탐색(search)을 수행하여 최대 깊이 값(depth value)를 구해 변이 벡터를 유도할 수 있다.
도 2a 내지 도 2i는 본 발명의 다른 실시예에 따른 블록 크기에 무관하게 일정한 크기의 블록에 대하여 해당 블록내의 서로 다른 개수의 깊이 샘플들에 대해서만 탐색(search)을 하여 변이 벡터를 유도하기 위한 방법을 설명하기 위한 개념도이다.
도 2a 내지 도 2i를 참조하면, 16x16으로 일정한 크기의 블록에 대해서 각각의 블록에 서로 다른 개수의 깊이 샘플들을 탐색하여 최대 깊이 값(depth value)를 구해 최대 변이 벡터를 유도할 수 있다.
이하, X축 방향으로 x 위치, Y축 방향으로 y 위치를 (x,y)로 표시한다.
도 2a를 참조하면, 16x16 블록에 대해서 4각 테두리 부분에 해당되는 깊이 샘플들을 탐색한다. 즉, x=1, y=1 내지 16에 해당되는 깊이 샘플들, x=16, y=1 내지 16에 해당되는 깊이 샘플들, x=1 내지 16, y=1 에 해당되는 깊이 샘플들, x=1 내지 16, y=16에 해당되는 깊이 샘플들, 총 60개의 깊이 샘플들에 대해서만 탐색하여 최대 깊이 값(depth value)를 구해 변이 벡터를 유도할 수 있다.
도 2b를 참조하면, 16x16 블록에 대해서, x=1, y=1 내지 16에 해당되는 깊이 샘플들, x=9, y=1 내지 16에 해당되는 깊이 샘플들, x=1 내지 16 에 해당되는 깊이 샘플들, y=1, x=1 내지 16, y=9에 해당되는 깊이 샘플들, 총 60개의 깊이 샘플들에 대해서만 탐색하여 최대 깊이 값(depth value)를 구해 변이 벡터를 유도할 수 있다.
도 2c를 참조하면, 16x16 블록에 대해서, x=1, y=1 내지 16에 해당되는 깊이 샘플들, x=9, y=1 내지 16에 해당되는 깊이 샘플들, 총 32개의 깊이 샘플들에 대해서만 탐색하여 최대 깊이 값(depth value)를 구해 변이 벡터를 유도할 수 있다.
도 2d를 참조하면, 16x16 블록에 대해서, x=1 내지 16, y=1, x=1 내지 16, y=9에 해당되는 깊이 샘플들, 총 32개의 깊이 샘플들에 대해서만 탐색하여 최대 깊이 값(depth value)를 구해 변이 벡터를 유도할 수 있다.
도 2e를 참조하면, 16x16 블록에 대해서 4각 테두리 부분 및 중앙 부분에 해당되는 깊이 샘플들을 탐색한다. 즉, x=1, y=1 내지 16에 해당되는 깊이 샘플들, x=9, y=1 내지 16에 해당되는 깊이 샘플들, x=16, y=1 내지 16에 해당되는 깊이 샘플들, 총 74개의 깊이 샘플들에 대해서만 탐색하여 최대 깊이 값(depth value)를 구해 변이 벡터를 유도할 수 있다.
도 2f를 참조하면, 16x16 블록에 대해서 4각 테두리 부분 및 중앙 부분에 해당되는 깊이 샘플들을 탐색한다. 즉, x=1, y=1 내지 16에 해당되는 깊이 샘플들, x=1 내지 16, y=9에 해당되는 깊이 샘플들, x=1 내지 16, y=1에 해당되는 깊이 샘플들, x=1 내지 16, y=16에 해당되는 깊이 샘플들, 총 74개의 깊이 샘플들에 대해서만 탐색하여 최대 깊이 값(depth value)를 구해 변이 벡터를 유도할 수 있다.
도 2g를 참조하면, 16x16 블록에 대해서, x=1, y=1 내지 16에 해당되는 깊이 샘플들, x=1 내지 16, y=9에 해당되는 깊이 샘플들, x=1 내지 16, y=16에 해당되는 깊이 샘플들, x=1 내지 16, y=9에 해당되는 깊이 샘플들, 총 61개의 깊이 샘플들에 대해서만 탐색하여 최대 깊이 값(depth value)를 구해 변이 벡터를 유도할 수 있다.
도 2h를 참조하면, 16x16 블록에 대해서, x=1, y=1 내지 16에 해당되는 깊이 샘플들, x=1 내지 16, y=9에 해당되는 깊이 샘플들, x=1 내지 16, y=16에 해당되는 깊이 샘플들, x=9, y=1내지 16에 해당되는 깊이 샘플들, 총 61개의 깊이 샘플들에 대해서만 탐색하여 최대 깊이 값(depth value)를 구해 변이 벡터를 유도할 수 있다.
도 2i를 참조하면, 16x16 블록에 대해서 4각 테두리 부분 및 중앙 부분에 해당되는 깊이 샘플들을 탐색한다. 즉, x=1, y=1 내지 16에 해당되는 깊이 샘플들, x=9, y=1 내지 16에 해당되는 깊이 샘플들, x=16, y=1 내지 16에 해당되는 깊이 샘플들, x=1 내지 16, y=1에 해당되는 깊이 샘플들, x=1 내지 16, y=9에 해당되는 깊이 샘플들, x=1 내지 16, y=16에 해당되는 깊이 샘플들, 총 90개의 깊이 샘플들에 대해서만 탐색하여 최대 깊이 값(depth value)를 구해 변이 벡터를 유도할 수 있다.
도 3은 본 발명의 일 실시예에 따른 변이 벡터를 유도하기 위한 방법을 설명하기 위한 흐름도이다.
도 3을 참조하면, H.264/AVC 또는 H.264/AVC 보다 고효율의 비디오 부호화 방식에 기반하여 3D 비디오 부호화를 수행할 경우, 먼저, 블록-예를 들어 예측 유닛(PU)-의 크기(예를 들어, 16 X 16, 64 X 64,32 X 32 픽셀)를 판단하고(S310), 상기 블록의 크기를 고려하여 적응적으로 상기 블록내의 K개-예를 들어 K는 4개, 16개, 32개, 60개, 61개, 64개, 74개, 90개등의 양의정수-의 깊이 샘플들에 대해서만 탐색(search)을 하여 최대 깊이 값(depth value)를 구하고(S320), 상기 구한 최대 깊이 값을 기초로 변이 벡터를 유도한다(S330).
이상 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (8)

  1. 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 타겟 참조 픽춰(reference picture)가 뷰간 예측 픽춰(inter-view prediction picture)이고 현재 블록의 인접 블록들(neighboring blocks)의 뷰간 움직임 벡터가 사용가능하지 않을 경우(unavailable), 상기 사용가능하지 않은 뷰간 움직임 벡터를 대체하여 사용하기 위하여 상기 현재 블록과 관련된 깊이 맵내의 최대 깊이 값(depth value)으로부터 상기 변이 벡터(disparity vector)를 유도하는 방법에 있어서,
    상기 현재 블록에 대하여 상기 현재 블록과 관련된 깊이 맵내의 소정 개수의 깊이 샘플들에 대해서 탐색(search)을 하여 상기 최대 깊이 값을 구해 상기 변이 벡터를 유도하는 것을 특징으로 하는 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 변이 벡터를 유도하기 위한 방법.
  2. 제1항에 있어서, 8x8 크기의 블록 4개로 구성된 16x16의 블록 크기에 대해서 각각의 8x8 크기 블록의 4개 코너의 깊이 샘플들을 탐색하여 최대 깊이 값(depth value)를 구해 최대 변이 벡터를 유도하는 것을 특징으로 하는 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 변이 벡터를 유도하기 위한 방법.
  3. 제1항에 있어서, 8x8 크기의 블록 16개로 구성된 32x32 블록 크기에 대해서 각각의 8x8 크기 블록의 4개 코너의 깊이 샘플들을 탐색하여 최대 깊이 값(depth value)를 구해 최대 변이 벡터를 유도하는 것을 특징으로 하는 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 변이 벡터를 유도하기 위한 방법.
  4. 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 타겟 참조 픽춰(reference picture)가 뷰간 예측 픽춰(inter-view prediction picture)이고 현재 블록의 인접 블록들(neighboring blocks)의 뷰간 움직임 벡터가 사용가능하지 않을 경우(unavailable), 상기 사용가능하지 않은 뷰간 움직임 벡터를 대체하여 사용하기 위하여 상기 현재 블록과 관련된 깊이 맵내의 최대 깊이 값(depth value)으로부터 상기 변이 벡터(disparity vector)를 유도하는 방법에 있어서,
    상기 현재 블록의 크기에 따라 적응적으로 상기 현재 블록과 관련된 깊이 맵내의 서로 다른 개수의 깊이 샘플들에 대해서 탐색(search)을 하여 상기 최대 깊이 값을 구해 상기 변이 벡터를 유도하는 것을 특징으로 하는 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 변이 벡터를 유도하기 위한 방법.
  5. 제4항에 있어서, 예측 유닛(PU)의 크기에 따라 적응적으로 K개-K는 양의 정수-의 깊이 샘플들에 대해서만 탐색(search)을 하여 최대 깊이 값(depth value)를 구해 최대 변이 벡터를 유도하는 것을 특징으로 하는 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 변이 벡터를 유도하기 위한 방법.
  6. 제4항에 있어서, 8x8 크기의 블록 4개로 구성된 16x16의 블록 크기에 대해서 각각의 8x8 크기 블록의 4개 코너의 깊이 샘플들을 탐색하여 최대 깊이 값(depth value)를 구해 최대 변이 벡터를 유도하는 것을 특징으로 하는 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 변이 벡터를 유도하기 위한 방법.
  7. 제4항에 있어서, 8x8 크기의 블록 16개로 구성된 32x32 블록 크기에 대해서 각각의 8x8 크기 블록의 4개 코너의 깊이 샘플들을 탐색하여 최대 깊이 값(depth value)를 구해 최대 변이 벡터를 유도하는 것을 특징으로 하는 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 변이 벡터를 유도하기 위한 방법.
  8. 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 타겟 참조 픽춰(reference picture)가 뷰간 예측 픽춰(inter-view prediction picture)이고 현재 블록의 인접 블록들(neighboring blocks)의 뷰간 움직임 벡터가 사용가능하지 않을 경우(unavailable), 상기 사용가능하지 않은 뷰간 움직임 벡터를 대체하여 사용하기 위하여 상기 현재 블록과 관련된 깊이 맵내의 최대 깊이 값(depth value)으로부터 상기 변이 벡터(disparity vector)를 유도하는 방법에 있어서,
    상기 현재 블록의 크기에 무관하게 일정한 크기의 현재 블록에 대하여 상기 일정한 크기의 현재 블록과 관련된 깊이 맵내의 서로 다른 개수의 깊이 샘플들에 대해서 탐색(search)을 하여 상기 최대 깊이 값을 구해 상기 변이 벡터를 유도하는 것을 특징으로 하는 3차원 영상에서 뷰간(inter-view) 움직임 벡터 예측을 수행시 변이 벡터를 유도하기 위한 방법.
PCT/KR2013/009375 2012-10-22 2013-10-21 3차원 영상의 뷰간(inter-view) 움직임 벡터 예측에서의 변이 벡터 유도 방법 WO2014065547A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201380055266.XA CN104737536A (zh) 2012-10-22 2013-10-21 用于在预测3维图像的视点间运动矢量时导出视差矢量的方法
US14/432,715 US20150256809A1 (en) 2012-10-22 2013-10-21 Method for inducing disparity vector in predicting inter-view motion vector in 3d picture

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2012-0117011 2012-10-22
KR20120117011 2012-10-22
KR1020130125014A KR20140051790A (ko) 2012-10-22 2013-10-21 3차원 영상의 뷰간(inter-view) 움직임 벡터 예측에서의 변이 벡터 유도 방법
KR10-2013-0125014 2013-10-21

Publications (1)

Publication Number Publication Date
WO2014065547A1 true WO2014065547A1 (ko) 2014-05-01

Family

ID=50544877

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/009375 WO2014065547A1 (ko) 2012-10-22 2013-10-21 3차원 영상의 뷰간(inter-view) 움직임 벡터 예측에서의 변이 벡터 유도 방법

Country Status (1)

Country Link
WO (1) WO2014065547A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2737841R1 (es) * 2016-02-25 2020-04-16 Kt Corp Método y aparato para procesar señales de vídeo

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334583A (ja) * 2006-06-14 2007-12-27 Kddi Corp 多視点画像を用いた自由視点画像生成方法、装置及びプログラム
KR20080007069A (ko) * 2006-07-14 2008-01-17 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
KR20110098290A (ko) * 2010-02-26 2011-09-01 삼성전자주식회사 영상 처리 장치 및 방법
KR20120084629A (ko) * 2011-01-20 2012-07-30 삼성전자주식회사 움직임 정보 및 변이 정보를 부호화/복호화하는 영상 처리 장치 및 방법
KR20120093751A (ko) * 2011-02-15 2012-08-23 한국전자통신연구원 정면시점 영상합성을 통한 시선 맞춤 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334583A (ja) * 2006-06-14 2007-12-27 Kddi Corp 多視点画像を用いた自由視点画像生成方法、装置及びプログラム
KR20080007069A (ko) * 2006-07-14 2008-01-17 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
KR20110098290A (ko) * 2010-02-26 2011-09-01 삼성전자주식회사 영상 처리 장치 및 방법
KR20120084629A (ko) * 2011-01-20 2012-07-30 삼성전자주식회사 움직임 정보 및 변이 정보를 부호화/복호화하는 영상 처리 장치 및 방법
KR20120093751A (ko) * 2011-02-15 2012-08-23 한국전자통신연구원 정면시점 영상합성을 통한 시선 맞춤 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2737841R1 (es) * 2016-02-25 2020-04-16 Kt Corp Método y aparato para procesar señales de vídeo

Similar Documents

Publication Publication Date Title
JP2023527920A (ja) 映像符号化および映像復号のための方法、装置およびコンピュータプログラム製品
CN104170389B (zh) 运动向量预测器的产生方法和装置及视点间运动向量预测器候选的产生方法
CN103975597B (zh) 纹理及深度视图分量当中的内部视图运动预测
CN103503460B (zh) 译码视频数据的方法和设备
WO2010068020A2 (ko) 다시점 영상 부호화, 복호화 방법 및 그 장치
WO2012144829A2 (en) Method and apparatus for encoding and decoding motion vector of multi-view video
CN109891890A (zh) 视频译码中基于子pu的双向运动补偿
WO2011010858A2 (en) Motion vector prediction method, and apparatus and method for encoding and decoding image using the same
WO2010087589A2 (ko) 경계 인트라 코딩을 이용한 비디오 신호 처리 방법 및 장치
WO2012115436A2 (en) Method and apparatus for encoding and decoding multi-view video
US20230396760A1 (en) Inter prediction encoding and decoding method using combination of prediction blocks, and computer-readable storage medium bitstream to be decoded thereby
CN104838658A (zh) 具有不对称空间分辨率的纹理和深度视图分量当中的内部视图运动预测
EP2700232A2 (en) Methods and apparatuses for encoding and decoding image using adaptive filtering
WO2014107083A1 (ko) 비디오 신호 처리 방법 및 장치
JP2021516502A (ja) インター予測モードに基づいた映像処理方法およびそのための装置
CN105191317A (zh) 视图内以及跨越视图的深度查找表的预测性译码
EP2672709A1 (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, and image decoding program
WO2016056822A1 (ko) 3d 비디오 코딩 방법 및 장치
KR20180009373A (ko) 비디오 신호 처리 방법 및 장치
WO2012081877A2 (ko) 다시점 비디오 부호화/복호화 장치 및 방법
KR20080114482A (ko) 다시점 비디오 코딩에서 휘도 보상 방법 및 장치
WO2013176485A1 (ko) 비디오 신호 처리 방법 및 장치
KR20140048784A (ko) 제한적 깊이정보값을 공유하여 움직임 정보를 유도하는 방법 및 장치
WO2013191436A1 (ko) 비디오 신호 처리 방법 및 장치
JP6571646B2 (ja) マルチビュービデオのデコード方法及び装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13848867

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14432715

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13848867

Country of ref document: EP

Kind code of ref document: A1