KR20140051789A - 3차원 비디오에서의 뷰간 움직임 예측 방법 및 뷰간 병합 후보 결정 방법 - Google Patents

3차원 비디오에서의 뷰간 움직임 예측 방법 및 뷰간 병합 후보 결정 방법 Download PDF

Info

Publication number
KR20140051789A
KR20140051789A KR1020130125013A KR20130125013A KR20140051789A KR 20140051789 A KR20140051789 A KR 20140051789A KR 1020130125013 A KR1020130125013 A KR 1020130125013A KR 20130125013 A KR20130125013 A KR 20130125013A KR 20140051789 A KR20140051789 A KR 20140051789A
Authority
KR
South Korea
Prior art keywords
view
inter
current
motion
picture
Prior art date
Application number
KR1020130125013A
Other languages
English (en)
Inventor
이충구
이용재
김휘
Original Assignee
(주)휴맥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)휴맥스 filed Critical (주)휴맥스
Priority to CN201380055303.7A priority Critical patent/CN104782123A/zh
Priority to PCT/KR2013/009373 priority patent/WO2014065546A1/ko
Priority to US14/432,961 priority patent/US20150256845A1/en
Publication of KR20140051789A publication Critical patent/KR20140051789A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측 방법은, 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측을 수행할 경우, 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하기 위해서, 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터를 이용하여 상기 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구한다. 따라서, 뷰간 움직임 예측을 단순화시켜 복잡도를 줄일 수 있다.

Description

3차원 비디오에서의 뷰간 움직임 예측 방법 및 뷰간 병합 후보 결정 방법{Methods for performing inter-view motion prediction in 3D Video and methods for determining inter-view merging candidate}
본 발명은 3D 영상 부호화 방법 및 장치에 관한 것으로, 보다 상세하게는 3차원 비디오에서의 뷰간 움직임 예측 방법 및 뷰간 병합 후보 결정 방법에 관한 것이다.
일반적으로 영상 압축 방법에서는 압축 효율을 높이기 위해 픽쳐들의 중복도를 제거하는 화면간 예측(inter prediction) 및 화면내 예측(intra prediction) 기술을 이용한다.
화면간 예측을 이용해 영상을 부호화하는 방법은 픽처들 사이의 시간적인 중복성(spatial redundancy)을 제거하여 영상을 압축하는 방법으로서 대표적으로 움직임 보상 예측 부호화 방법이 있다.
움직임 보상 예측 부호화는 현재 부호화되는 픽처의 앞 및/또는 뒤에 위치하는 적어도 하나의 참조 픽처에서 현재 부호화되는 블록과 유사한 영역을 검색하여 움직임 벡터(MV: Motion Vector)를 생성하고, 생성된 움직임 벡터를 이용하여 움직임 보상을 수행하여 얻어지는 예측 블록과 현재 예측 유닛의 잔여값(residue)을 DCT(Discrete Cosine Transform) 변환하고 양자화한 후 엔트로피 부호화하여 전송한다.
움직임 보상 화면간 예측의 경우, 하나의 픽처를 소정 크기를 가지는 복수의 블록(block)으로 구분하여 움직임 벡터(MV)를 생성하고, 생성된 움직임 벡터를 이용하여 움직임 보상을 수행한다. 움직임 보상을 수행하여 얻어지는 각각의 예측 블록에 대한 개별적인 움직임 파라미터는 디코더로 전송된다.
3차원 영상의 경우, 영상의 특성상 각 픽셀이 화소 정보뿐만 아니라 깊이(depth) 정보를 포함하고 있으며, 인코더에서 깊이 정보를 구해 디코더로 다시점 비디오 영상 정보 및 깊이 정보를 전송할 수 있다.
또한, 다시점 영상의 경우 여러대의 카메라로 촬영된 다수의 뷰 영상간에 뷰간 중복(inter-view redundancy)를 효과적으로 줄이는 것이 필요하다.
이와 같이, 3차원 다시점 영상의 뷰간 움직임 예측(inter-view motion prediction)의 경우, 현재 뷰(view) 픽춰에 대한 움직임 벡터 예측(Motion Vector Prediction)시, 이전에 부호화된 뷰간 픽춰(inter-view picture)의 움직임 파라미터를 이용하여 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 효율적으로 구하는 방법이 필요하다.
본 발명의 목적은 3차원 다시점 비디오의 뷰간 움직임 예측(inter-view motion prediction)시 복잡도를 감소시키기 위한 3차원 다시점 비디오의 뷰간 움직임 예측 방법을 제공하는 것이다.
본 발명의 다른 목적은 3차원 다시점 비디오의 뷰간 움직임 예측시, 현재 뷰(view) 픽춰의 뷰간 병합 후보(inter-view merging candidates)를 구하고자 할 경우 복잡도를 줄일 수 있는 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측시 뷰간 병합 후보(inter-view merging candidates) 결정 방법을 제공하는 것이다.
상기한 목적을 달성하기 위한 본 발명의 일측면에 따르면, 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측 방법은, 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측을 수행할 경우, 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하기 위해서, 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터를 이용하여 상기 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구한다.
상기 하나의 뷰간 픽춰(inter-view picture)는 현재 뷰(view)보다 이전 순서의 뷰 픽춰들 중의 어느 하나의 뷰 픽춰가 될 수 있다.
상기 하나의 뷰간 픽춰(inter-view picture)는 현재 뷰(view) 픽춰의 바로 직전 순서의 뷰 픽춰가 될 수 있다.
상기 현재 뷰(view) 픽춰의 바로 직전 순서의 뷰 픽춰는 상기 현재 뷰 보다 시간적(temporal)으로 이전에 부호화된 픽춰가 될 수 있으며 참조 픽춰 리스트 List 0에 포함될 수 있다.
상기 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하는 것은 상기 현재 뷰(view)보다 이전에 부호화된 모든 뷰간 픽춰들 중에서 상기 현재 뷰보다 바로 이전 순서의 뷰 픽춰의 대응되는 블록의 움직임 파라미터를 이용하여 상기 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구할 수 있다.
상기 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하는 것은 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터와 상기 현재 뷰 픽춰의 현재 블록의 주변 블록의 움직임 파라미터를 이용하여 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구할 수 있다.
상기 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하는 것은 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터와 상기 현재 뷰 픽춰의 현재 블록의 적어도 하나의 주변 블록의 움직임 파라미터를 이용하여 상기 현재 뷰 픽춰에 대한 예측 움직임 벡터를 구할 수 있다.
상기한 다른 목적을 달성하기 위한 본 발명의 일측면에 따르면, 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측시 뷰간 병합 후보(inter-view merging candidates) 결정 방법은 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측시 현재 뷰(view) 픽춰의 뷰간 병합 후보(inter-view merging candidates)를 구하고자 할 경우, 시간(temporal) 방향의 대응 블록의 움직임 파라미터와 동일한 움직임 파라미터를 뷰간 병합 후보들(Inter-view merging candidates)로 사용한다.
상기 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측을 수행할 경우, 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하기 위해서, 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 적어도 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터를 이용하여 상기 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구할 수 있다.
상기 하나의 뷰간 픽춰(inter-view picture)는 현재 뷰(view)보다 이전 순서의 뷰 픽춰들 중의 어느 하나의 뷰 픽춰가 될 수 있다.
상기 하나의 뷰간 픽춰(inter-view picture)는 현재 뷰(view) 픽춰의 바로 직전 순서의 뷰 픽춰가 될 수 있다.
상기 현재 뷰(view) 픽춰의 바로 직전 순서의 뷰 픽춰는 상기 현재 뷰 보다 시간적(temporal)으로 이전에 부호화된 픽춰이며 참조 픽춰 리스트 List 0에 포함될 수 있다.
상기 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측시 현재 뷰(view) 픽춰의 뷰간 병합 후보(inter-view merging candidates)를 구하고자 할 경우, 상기 시간(temporal) 방향의 대응 블록의 움직임 파라미터와 동일한 움직임 파라미터와 상기 현재 뷰의 현재 블록의 적어도 하나의 주변 블록의 움직임 파라미터를 이용하여 상기 현재 뷰 픽춰의 현재 블록의 뷰간 병합 후보로 사용할 수 있다.
3차원 다시점 비디오의 뷰간 움직임 예측(inter-view motion prediction)의 경우 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하기 위해서, 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터를 이용하여 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구함으로써, 뷰간 움직임 예측을 단순화시켜 복잡도를 줄일 수 있다.
또한, 3차원 다시점 비디오의 뷰간 움직임 예측(inter-view motion prediction)의 경우 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하기 위해서, 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터와 현재 블록의 주변 블록의 움직임 파라미터를 이용하여 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구함으로써, 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터를 이용하여 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하는 경우에 비하여 뷰간 움직임 예측의 정확도를 향상시킬 수 있다.
또한, 3차원 비디오의 뷰간 움직임 예측시, 현재 뷰(view) 픽춰의 뷰간 병합 후보(inter-view merging candidates)를 구하고자 할 경우, 시간(temporal) 방향의 대응 블록의 움직임 파라미터들(예측 방향, 참조 픽춰들, 움직임 벡터)과 동일한 움직임 파라미터들을 뷰간 병합 후보들(Inter-view merging candidates)로 사용함으로써 뷰간 움직임 예측을 단순화시켜 복잡도를 줄일 수 있다.
또한, 3차원 비디오의 뷰간 움직임 예측시, 현재 뷰(view) 픽춰의 뷰간 병합 후보(inter-view merging candidates)를 구하고자 할 경우, 시간(temporal) 방향의 대응 블록의 움직임 파라미터들(예측 방향, 참조 픽춰들, 움직임 벡터)과 동일한 움직임 파라미터들과 현재 뷰의 현재 블록의 주변 블록(들)의 움직임 파라미터를 이용하여 현재 뷰(view) 픽춰의 현재 블록의 뷰간 병합 후보(inter-view merging candidates)를 구함으로써, 시간(temporal) 방향의 대응 블록의 움직임 파라미터들(예측 방향, 참조 픽춰들, 움직임 벡터)과 동일한 움직임 파라미터들을 뷰간 병합 후보들(Inter-view merging candidates)로 사용하는 경우에 비하여 뷰간 움직임 예측의 정확도를 향상시킬 수 있다.
도 1은 3차원 다시점 비디오의 뷰간 움직임 예측(inter-view motion prediction)의 경우 복수개의 뷰간 픽춰(inter-view pictures)를 이용하여 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하는 과정을 설명하기 위한 개념도이다.
도 2a 및 도 2b는 현재 블록의 주변 블록을 나타낸 개념도이다.
도 3은 3차원 다시점 비디오의 뷰간 움직임 예측(inter-view motion prediction)의 경우 이전에 부호화된 하나의 뷰간 픽춰(inter-view picture)를 이용하여 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하는 과정을 설명하기 위한 개념도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
이하, 코딩 유닛(Coding Unit; CU)은 정방형의 픽셀 크기를 가지며, 2N2N(단위: 픽셀) 크기의 가변적인 크기를 가질 수 있다. 코딩 유닛(Coding Unit; CU)은 순환적(recursive) 코딩 유닛 구조를 가질 수 있다. 화면간 예측(inter prediction), 화면내 예측(intra prediction), 변환(Transform), 양자화(Quantization), 디블록킹 필터링(Deblocking filtering) 및 엔트로피 부호화(Entropy encoding)는 코딩 유닛(CU) 단위로 이루어질 수 있다.
예측 유닛(PU: Prediction Unit)이라 함은 화면간 예측(inter prediction) 또는 화면내 예측(intra prediction)을 수행하는 기본 단위이다.
이하, 블록(block)은 코딩 유닛(CU) 또는 예측 유닛(prediction unit; PU)을 포함할 수 있다.
3차원 다시점 비디오의 뷰간 움직임 예측(inter-view motion prediction)의 경우, 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures)의 움직임 파라미터(예를 들어, 예측 방향, 참조 픽춰들, 움직임 벡터들)를 이용하여 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구할 수 있다. 즉, 현재 블록에 대한 뷰간 움직임 예측시, 이전에 부호화된 모든 뷰간 픽처들내의 대응 블록들(corresponding blocks)의 움직임 데이터를 이용할 경우 움직임 예측시 복잡도가 증가한다.
도 1은 3차원 다시점 비디오의 뷰간 움직임 예측(inter-view motion prediction)의 경우 복수개의 뷰간 픽춰(inter-view pictures)를 이용하여 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하는 과정을 설명하기 위한 개념도이다. 도 1은 뷰 코딩 순서가 V0, V1, V2 순서로 이루어지는 경우 현재 V2 뷰 픽춰(112)가 코딩되는 경우이다.
도 1을 참조하면, 현재 V2 뷰(view) 픽춰(112)내의 현재 블록(110)에 대한 예측 움직임 벡터를 구하기 위해서는 이전에 부호화된 모든 뷰간 픽춰들의 대응되는 블록들, 즉 V0 뷰 픽춰(120)의 대응되는 블록(122) 및 V1 뷰 픽춰(130)의 대응되는 블록(132)의 움직임 데이터들이 저장되어 있어야 하며, 이러한 이전에 부호화된 모든 뷰간 픽춰들의 대응되는 블록들의 움직임 데이터를 이용할 경우 움직임 예측의 복잡도가 증가하게 된다.
특히, 도 1의 경우 이전에 부호화된 뷰들(V0, V1) 중에서 어느 하나-예를 들어 V1 뷰-의 뷰 픽춰가 현재 픽춰의 참조 픽춰 리스트에 포함되어 있지 않은 경우에도 해당 뷰-여기서는 V1- 픽춰의 해당 블록의 움직임 데이터가 저장되게 된다.
상기와 같이 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures)의 움직임 파라미터를 이용하여 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구할 경우 움직임 예측의 정확성은 높일 수 있으나 움직임 예측의 복잡도는 증가한다.
본 발명의 일실시예에서는 3차원 다시점 비디오의 뷰간 움직임 예측(inter-view motion prediction)의 경우 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하기 위해서, 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터를 이용하여 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구할 수 있다. 상기 하나의 뷰간 픽춰(inter-view picture)는 현재 뷰(view)보다 이전 순서의 뷰 픽춰들 중의 어느 하나의 뷰 픽춰가 될수 있다. 예를 들어, 현재 뷰(view) 픽춰의 바로 직전 순서의 뷰 픽춰가 될 수 있다.
도 3은 3차원 다시점 비디오의 뷰간 움직임 예측(inter-view motion prediction)의 경우 이전에 부호화된 하나의 뷰간 픽춰(inter-view picture)를 이용하여 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하는 과정을 설명하기 위한 개념도이다. 도 1은 코딩 순서가 V0, V1, V2(미도시), V3(미도시), … 순서로 이루어지는 경우 현재 V1 뷰 픽춰(310)가 코딩되는 경우이고, 현재 뷰 V1보다 시간적(temporal)으로 이전에 부호화된 픽춰(308)는 참조 픽춰 ref0으로서 참조 픽춰 리스트 List 0에 포함되어 있고, 현재 뷰 V1보다 시간적(temporal)으로 이후에 부호화된 픽춰(308)는 참조 픽춰 ref0 및 ref1으로서 참조 픽춰 리스트 List 1에 포함되어 있다.
도 3을 참조하면, 현재 V1 뷰(view) 픽춰(310)내의 현재 블록(312)에 대한 예측 움직임 벡터를 구하기 위해서 이전에 부호화된 모든 뷰간 픽춰들 중에서 현재 뷰보다 바로 이전 순서의 뷰인 V0 뷰 픽춰(350)의 대응되는 블록(352)의 움직임 파라미터를 이용한다.
본 발명의 다른 실시예에 따르면, 3차원 다시점 비디오의 뷰간 움직임 예측(inter-view motion prediction)의 경우 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하기 위해서, 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터와 현재 블록의 주변 블록의 움직임 파라미터를 이용하여 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구할 수 있다.
도 2a 및 도 2b는 현재 블록의 주변 블록을 나타낸 개념도이다.
도 2a를 참조하면, 현재 블록(210)의 주변 블록은 현재 블록(210)의 좌측에 위치하는 좌측 주변 블록(216), 현재 블록(210)의 상측에 위치하는 상측 주변 블록(212), 현재 블록(210)의 좌상측에 위치하는 좌상측 주변 블록(214)가 될 수 있다.
도 2b를 참조하면, 현재 블록(210)의 주변 블록은 현재 블록(210)의 좌측에 위치하는 좌측 주변 블록들 b1(226-1), …, bm(226-m), 현재 블록(210)의 상측에 위치하는 상측 주변 블록들 a1(222-1), …, an(222-n), 현재 블록(210)의 좌상측에 위치하는 좌상측 주변 블록(224-1), 현재 블록(210)의 좌하측에 위치하는 좌하측 주변 블록(224-3), 현재 블록(210)의 우상측에 위치하는 우상측 주변 블록(224-2)가 될 수 있다.
상기 주변 블록들의 움직임 벡터의 중간값 또는 평균값등을 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터와 함께 현재 뷰(view) 픽춰의 현재 블록에 대한 예측 움직임 벡터를 구하는데 사용할 수 있다. 또는, 상기 주변 블록들 중 일부 주변블록의 움직임 벡터를 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터와 함께 현재 뷰(view) 픽춰의 현재 블록에 대한 예측 움직임 벡터를 구하는데 사용할 수도 있다.
즉, 본 발명의 다른 실시예에서는 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터와 상기와 같은 현재 블록의 주변 블록(들)의 움직임 파라미터를 이용하여 현재 뷰(view) 픽춰의 현재 블록에 대한 예측 움직임 벡터를 구할 수 있다.
한편, 3차원 비디오의 뷰간 움직임 예측시, 현재 뷰(view) 픽춰의 뷰간 병합 후보(inter-view merging candidates)를 구하고자 할 경우, 시간(temporal) 방향의 대응 블록의 움직임 파라미터들(예측 방향, 참조 픽춰들, 움직임 벡터)과 동일한 움직임 파라미터들을 뷰간 병합 후보들(Inter-view merging candidates)로 사용할 수 있다.
3차원 비디오의 뷰간 움직임 예측시, 현재 뷰(view) 픽춰의 뷰간 병합 후보(inter-view merging candidates)를 구하고자 할 경우, 시간(temporal) 방향의 대응 블록의 움직임 파라미터들(예측 방향, 참조 픽춰들, 움직임 벡터)과 동일한 움직임 파라미터들과 현재 뷰의 현재 블록의 주변 블록(들)의 움직임 파라미터를 이용하여 현재 뷰(view) 픽춰의 현재 블록의 뷰간 병합 후보(inter-view merging candidates)를 구할 수 있다.
이상 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (13)

  1. 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측을 수행할 경우, 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하기 위해서, 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터를 이용하여 상기 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하는 것을 특징으로 하는 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측 방법.
  2. 제1항에 있어서, 상기 하나의 뷰간 픽춰(inter-view picture)는 현재 뷰(view)보다 이전 순서의 뷰 픽춰들 중의 어느 하나의 뷰 픽춰인 것을 특징으로 하는 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측 방법.
  3. 제2항에 있어서, 상기 하나의 뷰간 픽춰(inter-view picture)는 현재 뷰(view) 픽춰의 바로 직전 순서의 뷰 픽춰인 것을 특징으로 하는 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측 방법.
  4. 제3항에 있어서, 상기 현재 뷰(view) 픽춰의 바로 직전 순서의 뷰 픽춰는 상기 현재 뷰 보다 시간적(temporal)으로 이전에 부호화된 픽춰이며 참조 픽춰 리스트 List 0에 포함된 것을 특징으로 하는 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측 방법.
  5. 제1항에 있어서, 상기 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하는 것은 상기 현재 뷰(view)보다 이전에 부호화된 모든 뷰간 픽춰들 중에서 상기 현재 뷰보다 바로 이전 순서의 뷰 픽춰의 대응되는 블록의 움직임 파라미터를 이용하여 상기 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하는 것을 특징으로 하는 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측 방법.
  6. 제1항에 있어서, 상기 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하는 것은 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터와 상기 현재 뷰 픽춰의 현재 블록의 주변 블록의 움직임 파라미터를 이용하여 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하는 것을 특징으로 하는 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측 방법.
  7. 제1항에 있어서, 상기 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하는 것은 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터와 상기 현재 뷰 픽춰의 현재 블록의 적어도 하나의 주변 블록의 움직임 파라미터를 이용하여 상기 현재 뷰 픽춰에 대한 예측 움직임 벡터를 구하는 것을 특징으로 하는 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측 방법.
  8. 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측시 현재 뷰(view) 픽춰의 뷰간 병합 후보(inter-view merging candidates)를 구하고자 할 경우, 시간(temporal) 방향의 대응 블록의 움직임 파라미터와 동일한 움직임 파라미터를 뷰간 병합 후보들(Inter-view merging candidates)로 사용하는 것을 특징으로 하는 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측시 뷰간 병합 후보(inter-view merging candidates) 결정 방법.
  9. 제8항에 있어서, 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측을 수행할 경우, 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하기 위해서, 이전에 부호화된 복수개의 뷰간 픽춰(inter-view pictures) 중에서 적어도 하나의 뷰간 픽춰(inter-view picture)의 움직임 파라미터를 이용하여 상기 현재 뷰(view) 픽춰에 대한 예측 움직임 벡터를 구하는 것을 특징으로 하는 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측시 뷰간 병합 후보(inter-view merging candidates) 결정 방법.
  10. 제9항에 있어서, 상기 하나의 뷰간 픽춰(inter-view picture)는 현재 뷰(view)보다 이전 순서의 뷰 픽춰들 중의 어느 하나의 뷰 픽춰인 것을 특징으로 하는 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측시 뷰간 병합 후보(inter-view merging candidates) 결정 방법.
  11. 제10항에 있어서, 상기 하나의 뷰간 픽춰(inter-view picture)는 현재 뷰(view) 픽춰의 바로 직전 순서의 뷰 픽춰인 것을 특징으로 하는 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측시 뷰간 병합 후보(inter-view merging candidates) 결정 방법.
  12. 제11항에 있어서, 상기 현재 뷰(view) 픽춰의 바로 직전 순서의 뷰 픽춰는 상기 현재 뷰 보다 시간적(temporal)으로 이전에 부호화된 픽춰이며 참조 픽춰 리스트 List 0에 포함된 것을 특징으로 하는 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측시 뷰간 병합 후보(inter-view merging candidates) 결정 방법.
  13. 제8항에 있어서, 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측시 현재 뷰(view) 픽춰의 뷰간 병합 후보(inter-view merging candidates)를 구하고자 할 경우, 상기 시간(temporal) 방향의 대응 블록의 움직임 파라미터와 동일한 움직임 파라미터와 상기 현재 뷰의 현재 블록의 적어도 하나의 주변 블록의 움직임 파라미터를 이용하여 상기 현재 뷰 픽춰의 현재 블록의 뷰간 병합 후보로 사용하는 것을 특징으로 하는 3차원 다시점 비디오에서 뷰간(inter-view) 움직임 예측시 뷰간 병합 후보(inter-view merging candidates) 결정 방법.
KR1020130125013A 2012-10-22 2013-10-21 3차원 비디오에서의 뷰간 움직임 예측 방법 및 뷰간 병합 후보 결정 방법 KR20140051789A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201380055303.7A CN104782123A (zh) 2012-10-22 2013-10-21 用于预测视点间运动的方法以及用于确定3维视频中的视点间合并候选的方法
PCT/KR2013/009373 WO2014065546A1 (ko) 2012-10-22 2013-10-21 3차원 비디오에서의 뷰간 움직임 예측 방법 및 뷰간 병합 후보 결정 방법
US14/432,961 US20150256845A1 (en) 2012-10-22 2013-10-21 Method for predicting inter-view motion and method for determining interview merge candidates in 3d video

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20120117010 2012-10-22
KR1020120117010 2012-10-22

Publications (1)

Publication Number Publication Date
KR20140051789A true KR20140051789A (ko) 2014-05-02

Family

ID=50885361

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130125013A KR20140051789A (ko) 2012-10-22 2013-10-21 3차원 비디오에서의 뷰간 움직임 예측 방법 및 뷰간 병합 후보 결정 방법

Country Status (3)

Country Link
US (1) US20150256845A1 (ko)
KR (1) KR20140051789A (ko)
CN (1) CN104782123A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015106379A1 (de) 2014-04-29 2015-10-29 Assems Inc. Mit haftendem Stoff beschichtete Schuhzwischensohle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108293110B (zh) * 2015-11-23 2022-07-05 韩国电子通信研究院 多视点视频编码/解码方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7671894B2 (en) * 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
KR101039204B1 (ko) * 2006-06-08 2011-06-03 경희대학교 산학협력단 다시점 비디오 코딩에서의 움직임 벡터 예측 방법 및 이를이용한 다시점 영상의 부호화/복호화 방법 및 장치
CN101473655B (zh) * 2006-06-19 2011-06-08 Lg电子株式会社 用于处理多视点视频信号的方法和装置
JP4592656B2 (ja) * 2006-08-17 2010-12-01 富士通セミコンダクター株式会社 動き予測処理装置、画像符号化装置および画像復号化装置
CN101222639B (zh) * 2007-01-09 2010-04-21 华为技术有限公司 多视点视频技术中的视间预测方法、编码器和解码器
KR20080066522A (ko) * 2007-01-11 2008-07-16 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
US8320456B2 (en) * 2007-01-17 2012-11-27 Lg Electronics Inc. Method and apparatus for processing a video signal
CN101669367A (zh) * 2007-03-02 2010-03-10 Lg电子株式会社 用于解码/编码视频信号的方法及设备
US8953684B2 (en) * 2007-05-16 2015-02-10 Microsoft Corporation Multiview coding with geometry-based disparity prediction
CN101415115B (zh) * 2007-10-15 2011-02-02 华为技术有限公司 基于运动跳跃模式的视频编解码方法及其编解码器
CN101605256A (zh) * 2008-06-12 2009-12-16 华为技术有限公司 一种视频编解码的方法及装置
CN102257818B (zh) * 2008-10-17 2014-10-29 诺基亚公司 3d视频编码中运动向量的共享
KR20120000485A (ko) * 2010-06-25 2012-01-02 삼성전자주식회사 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법
EP2636218B1 (en) * 2010-11-04 2021-06-30 GE Video Compression, LLC Picture coding supporting block merging and skip mode
JP5092011B2 (ja) * 2010-12-17 2012-12-05 株式会社東芝 動画像復号装置及び動画像復号方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015106379A1 (de) 2014-04-29 2015-10-29 Assems Inc. Mit haftendem Stoff beschichtete Schuhzwischensohle

Also Published As

Publication number Publication date
CN104782123A (zh) 2015-07-15
US20150256845A1 (en) 2015-09-10

Similar Documents

Publication Publication Date Title
KR101276720B1 (ko) 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체
JP5021739B2 (ja) 信号処理方法及び装置
US8559515B2 (en) Apparatus and method for encoding and decoding multi-view video
KR101393824B1 (ko) 저 복잡성 움직임 벡터 도출을 위한 시스템 및 방법
EP1927249B1 (en) Apparatus and method for encoding and decoding multi-view video
EP2699001B1 (en) A method and a system for video signal encoding and decoding with motion estimation
US20120269269A1 (en) Method and apparatus for encoding and decoding motion vector of multi-view video
US20120213282A1 (en) Method and apparatus for encoding and decoding multi-view video
KR20130016172A (ko) 인터 예측 부호화된 동영상 복호화 방법
US20130088570A1 (en) Image processing device and image processing method
CN104412587A (zh) 三维视频编码中视图间候选获取的方法和设备
KR20080069069A (ko) 인트라/인터 예측 방법 및 장치
US20130271567A1 (en) Image processing method and apparatus for predicting motion vector and disparity vector
JP6571646B2 (ja) マルチビュービデオのデコード方法及び装置
JP2017069866A (ja) 動画像符号化装置、動画像符号化方法及び動画像符号化用コンピュータプログラム
KR20130067280A (ko) 인터 예측 부호화된 동영상 복호화 방법
EP1929783A1 (en) Method of estimating disparity vector using camera parameters, apparatus for encoding and decoding multi-view picture using the disparity vectors estimation method, and computer-redadable recording medium storing a program for executing the method
KR101363044B1 (ko) 비디오 영상의 부호화 모드 결정 방법 및 장치, 이를이용한 비디오 영상의 부호화/복호화 장치 및 방법 그리고상기 방법을 수행하는 프로그램이 기록된 기록 매체
KR20080006494A (ko) 비디오 신호의 디코딩 방법 및 장치
CN106464898B (zh) 用于导出视图间运动合并候选的方法和装置
KR20140051789A (ko) 3차원 비디오에서의 뷰간 움직임 예측 방법 및 뷰간 병합 후보 결정 방법
KR20160105203A (ko) 멀티미디어 코덱, 상기 멀티미디어 코덱을 포함하는 애플리케이션 프로세서, 및 상기 애플리케이션 프로세서의 동작 방법
KR101891192B1 (ko) 영상 부호화 방법 및 장치
KR101078525B1 (ko) 다중시점 영상의 부호화 방법
KR20160064845A (ko) 깊이 부호화를 위한 서브-예측 유닛 레벨 기반 화면간 움직임 예측 방법 및 장치

Legal Events

Date Code Title Description
N231 Notification of change of applicant
N231 Notification of change of applicant
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid