KR20160072120A - 3d 비디오 부호화/복호화 방법 및 장치 - Google Patents

3d 비디오 부호화/복호화 방법 및 장치 Download PDF

Info

Publication number
KR20160072120A
KR20160072120A KR1020167010026A KR20167010026A KR20160072120A KR 20160072120 A KR20160072120 A KR 20160072120A KR 1020167010026 A KR1020167010026 A KR 1020167010026A KR 20167010026 A KR20167010026 A KR 20167010026A KR 20160072120 A KR20160072120 A KR 20160072120A
Authority
KR
South Korea
Prior art keywords
current block
depth
value
sample
dlt
Prior art date
Application number
KR1020167010026A
Other languages
English (en)
Inventor
허진
예세훈
김태섭
남정학
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20160072120A publication Critical patent/KR20160072120A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 깊이 맵 영상(depth-map picture)을 포함하는 3D 비디오 부호화 및 복호화 방법을 제공한다. 본 발명의 실시예에 따른 3D 비디오 부호화 방법은 깊이 맵 영상 내 현재 블록의 인트라 예측 모드를 기반으로 유도된 상기 현재 블록의 제1 샘플의 예측된 깊이 값에 DLT(depth lookup table)을 매핑(mapping)하여, 상기 현재 블록의 제1 샘플에 대한 제1 인덱스 값을 유도하는 단계, 상기 현재 블록의 제1 샘플의 원(original) 깊이 값에 DLT를 매핑하여, 상기 현재 블록의 제1 샘플에 대한 제2 인덱스 값을 유도하는 단계, 상기 현재 블록의 제1 샘플에 대한 상기 제1 인덱스 값과 상기 제2 인덱스 값 사이의 차분 인덱스(residual index) 값을 유도하는 단계 및 상기 차분 인덱스 값을 변환, 양자화 및 엔트로피 부호화하는 단계를 포함한다.

Description

3D 비디오 부호화/복호화 방법 및 장치{METHOD AND APPARATUS FOR CODING/DECODING 3D VIDEO}
본 발명은 비디오 코딩에 관한 기술로서, 더 구체적으로는 3D 비디오 영상의 코딩에 관한 것이다.
최근 고해상도, 고품질의 영상에 대한 요구가 다양한 응용 분야에서 증가하고 있다. 하지만, 영상이 고해상도를 가지고 고품질이 될수록 해당 영상에 관한 정보량도 함께 증가한다.
따라서 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 정보를 전송하거나 기존의 저장 매체를 이용해 영상 정보를 저장하는 경우에는, 정보의 전송 비용과 저장 비용이 증가하게 된다. 고해상도, 고품질 영상의 정보를 효과적으로 전송하거나 저장하고, 재생하기 위해 고효율의 영상 압축 기술을 이용할 수 있다.
한편, 고해상/대용량의 영상을 처리할 수 있게 됨에 따라서, 3D 비디오를 이용한 디지털 방송 서비스가 차세대 방송 서비스의 하나로 주목 받고 있다. 3D 비디오는 복수의 시점(view) 채널을 이용하여 현장감과 몰입감을 제공할 수 있다.
3D 비디오는 FVV(free viewpoint video), FTV(free viewpoint TV), 3DTV, 사회 안전망(surveillance) 및 홈 엔터테인먼트와 같은 다양한 영역에 사용될 수 있다.
싱글 뷰 비디오(single view video)와 달리 멀티 뷰를 이용한 3D 비디오는 동일한 POC(picture order count)의 뷰들 사이에 높은 상관도(correlation)를 가진다. 멀티 뷰 영상은 인접한 여러 카메라 즉, 여러 시점(view)를 이용하여 똑같은 장면을 동시에 촬영하기 때문에, 시차와 약간의 조명 차이를 제외하면 거의 같은 정보를 담고 있으므로 서로 다른 뷰 간의 상관도가 높다.
따라서, 멀티 뷰 비디오의 인코딩/디코딩에서는 서로 다른 뷰 사이의 상관도를 고려하여, 현재 뷰의 인코딩 및/또는 디코딩에 필요한 정보를 획득할 수 있다. 예를 들어, 현재 뷰의 디코딩 대상 블록을 다른 뷰의 블록을 참조하여 예측하거나 디코딩할 수 있다.
본 발명은 깊이 맵 영상(depth-map picture)을 포함하는 3D 비디오 부호화/복호화 방법 및 장치를 제공한다.
본 발명은 DLT(depth lookup table)을 이용한 3D 비디오 부호화/복호화 방법 및 장치를 제공한다.
본 발명의 일 실시예에 따르면, 깊이 맵 영상(depth-map picture)을 포함하는 3D 비디오 부호화 방법이 제공된다. 상기 3D 비디오 부호화 방법은 깊이 맵 영상 내 현재 블록의 인트라 예측 모드를 기반으로 유도된 상기 현재 블록의 제1 샘플의 예측된 깊이 값에 DLT(depth lookup table)을 매핑(mapping)하여, 상기 현재 블록의 제1 샘플에 대한 제1 인덱스 값을 유도하는 단계, 상기 현재 블록의 제1 샘플의 원(original) 깊이 값에 DLT를 매핑하여, 상기 현재 블록의 제1 샘플에 대한 제2 인덱스 값을 유도하는 단계, 상기 현재 블록의 제1 샘플에 대한 상기 제1 인덱스 값과 상기 제2 인덱스 값 사이의 차분 인덱스(residual index) 값을 유도하는 단계 및 상기 차분 인덱스 값을 변환, 양자화 및 엔트로피 부호화하는 단계를 포함한다.
본 발명의 다른 실시예에 따르면, 깊이 맵 영상(depth-map picture)을 포함하는 3D 비디오 복호화 방법이 제공된다. 상기 3D 비디오 복호화 방법은 깊이 맵 영상 내 현재 블록에 대한 차분 인덱스 값을 엔트로피 복호화, 역양자화 및 역변환하여 획득하는 단계, 상기 현재 블록의 인트라 예측 모드를 기반으로 상기 현재 블록의 제1 샘플의 예측된 깊이 값을 유도하는 단계, 상기 현재 블록의 제1 샘플의 예측된 깊이 값에 DLT를 매핑하여, 상기 현재 블록의 제1 샘플에 대한 제1 인덱스 값을 유도하는 단계 및 상기 현재 블록의 제1 샘플에 대해서 상기 제1 인덱스 값과 상기 차분 인덱스 값을 더하여, 상기 현재 블록의 제1 샘플의 깊이 값을 획득하는 단계를 포함한다.
상기 현재 블록의 제1 샘플의 깊이 값은, 상기 제1 인덱스 값과 상기 차분 인덱스 값을 더하여 유도된 제2 인덱스 값을 상기 DLT에 매핑하여 획득된 값일 수 있다.
본 발명에 따르면, DLT(depth lookup table)을 이용하여 부호화 및 복호화를 수행함으로써 부호화기 및 복호화기의 복잡도를 낮출 수 있고 부호화/복호화 효율을 향상시킬 수 있다.
도 1은 3D 비디오의 인코딩 및 디코딩 과정을 개략적으로 설명하는 도면이다.
도 2는 비디오 인코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 3은 비디오 디코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 4는 깊이 모델링 모드(DMM)에서 깊이 맵의 인트라 예측 방법을 개략적으로 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 DLT를 이용한 인트라 예측을 적용하여 부호화하는 방법을 개략적으로 나타낸 순서도이다.
도 6은 본 발명의 실시예에 따른 최적의 인트라 예측 모드를 선택하는 방법을 개략적으로 나타낸 순서도이다.
도 7은 본 발명의 실시예에 따른 DLT를 이용한 인트라 예측을 적용하여 복호화하는 방법을 개략적으로 나타낸 순서도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니다. 본 명세서에서 사용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 기술적 사상을 한정하려는 의도로 사용되는 것은 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
한편, 본 발명에서 설명되는 도면상의 각 구성들은 서로 다른 특징적인 기능들에 관한 설명의 편의를 위해 독립적으로 도시된 것으로서, 각 구성들이 서로 별개의 하드웨어나 별개의 소프트웨어로 구현된다는 것을 의미하지는 않는다. 예컨대, 각 구성 중 두 개 이상의 구성이 합쳐져 하나의 구성을 이룰 수도 있고, 하나의 구성이 복수의 구성으로 나뉘어질 수도 있다. 각 구성이 통합 및/또는 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략한다.
본 명세서에서 픽셀(pixel) 또는 펠(pel)은 하나의 영상을 구성하는 최소의 단위를 의미할 수 있다. 또한, 특정한 픽셀의 값을 나타내는 용어로서 ‘샘플(sample)’이 사용될 수 있다. 샘플은 일반적으로 픽셀의 값을 나타내지만, 휘도(Luma) 성분의 픽셀 값만을 지시할 수도 있고, 색차(Chroma) 성분의 픽셀 값만을 지시할 수도 있다.
유닛(unit)은 영상 처리의 기본 단위 또는 영상의 특정 위치를 의미할 수 있다. 유닛은 경우에 따라서 블록(block) 또는 영역(area) 등의 용어와 서로 혼용하여 사용될 수 있다. 일반적인 경우, MxN 블록은 M개의 열과 N개의 행으로 이루어진 샘플들 또는 변환 계수(transform coefficient)들의 집합을 나타낼 수 있다.
도 1은 3D 비디오의 인코딩 및 디코딩 과정을 개략적으로 설명하는 도면이다.
도 1을 참조하면, 3D 비디오 인코더는 비디오 픽처 및 뎁스 맵(depth map)과 카메라 파라미터를 인코딩하여 비트스트림으로 출력할 수 있다.
뎁스 맵은 대응하는 비디오 픽처(텍스처 픽처)의 픽셀에 대하여 카메라와 피사체 간의 거리 정보(깊이 정보)로 구성될 수 있다. 예컨대, 뎁스 맵은 깊이 정보를 비트 뎁스(bit depth)에 따라 정규화한 영상일 수 있다. 이때, 뎁스 맵은 색차 표현없이 기록된 깊이 정보로 구성될 수 있다.
일반적으로 피사체와의 거리와 변위(디스패러티)는 서로 반비례하므로, 카메라 파라미터를 이용하여 뎁스 맵의 깊이 정보로부터 뷰 간의 상관도를 나타내는 디스패러티 정보를 유도할 수 있다.
일반적인 컬러 영상 즉, 비디오 픽처(텍스처 픽처)와 함께 뎁스 맵과 카메라 정보를 포함하는 비트스트림은 네트워크 또는 저장매체를 통해 디코더로 전송될 수 있다.
디코더 측에서는 비트스트림을 수신해서 비디오를 복원할 수 있다. 디코더 측에서 3D 비디오 디코더가 이용되는 경우에, 3D 비디오 디코더는 비트스트림으로부터 비디오 픽처와 뎁스 맵 및 카메라 파라미터를 디코딩할 수 있다. 디코딩된 비디오 픽처와 뎁스 맵 그리고 카메라 파라미터를 기반으로 멀티 뷰(multi view) 디스플레이에 필요한 뷰들을 합성할 수 있다. 이때, 사용되는 디스플레이가 스테레오(streo) 디스플레이인 경우라면, 복원된 멀티 뷰들 중에서 두 개의 픽처를 이용하여 3D 영상을 디스플레이 할 수 있다.
스테레오 비디오 디코더가 사용되는 경우에, 스테레오 비디오 디코더는 비트스트림으로부터 양 안에 각각 입사될 두 픽처를 복원할 수 있다. 스테레오 디스플레이에서는 왼쪽 눈에 입사되는 좌측 영상과 우측 눈에 입사되는 우측 영상의 시차(view difference) 혹은 변위(disparity)를 이용해서 입체 영상을 디스플레이 할 수 있다. 스테레오 비디오 디코더와 함께 멀티 뷰 디스플레이가 사용되는 경우에는, 복원된 두 픽처를 기반으로 다른 뷰들을 생성하여 멀티 뷰를 디스플레이할 수도 있다.
2D 디코더가 사용되는 경우에는 2차원 영상을 복원해서 2D 디스플레이로 영상을 출력할 수 있다. 2D 디스플레이를 사용하지만, 디코더는 3D 비디오 디코더를 사용하거나 스테레오 비디오 디코더를 사용하는 경우에는 복원된 영상들 중 하나를 2D 디스플레이로 출력할 수도 있다.
도 1의 구성에서, 뷰 합성은 디코더 측에서 수행될 수도 있고, 디스플레이 측에서 수행될 수도 있다. 또한, 디코더와 디스플레이는 하나의 장치일 수도 있고 별도의 장치일 수도 있다.
도 1에서는 설명의 편의를 위해 3D 비디오 디코더와 스테레오 비디오 디코더 그리고 2D 비디오 디코더가 별도의 디코더인 것으로 설명하였으나, 하나의 디코딩 장치가 3D 비디오 디코딩, 스테레오 비디오 디코딩 그리고 2D 비디오 디코딩을 모두 수행할 수도 있다. 또한, 3D 비디오 디코딩 장치가 3D 비디오 디코딩을 수행하고, 스테레오 비디오 디코딩 장치가 스테레오 비디오 디코딩을 수행하며, 2D 비디오 디코딩 장치가 2D 비디오 디코딩 장치를 수행할 수도 있다. 더 나아가, 멀티 뷰 디스플레이가 2D 비디오를 출력하거나 스테레오 비디오를 출력할 수도 있다.
도 2는 비디오 인코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 2를 참조하면, 비디오 인코딩 장치(200)는 픽처 분할부(205), 예측부(210), 감산부(215), 변환부(220), 양자화부(225), 재정렬부(230), 엔트로피 인코딩부(235), 역양자화부(240), 역변환부(245), 가산부(250), 필터부(255) 및 메모리(260)를 포함한다.
픽처 분할부(205)는 입력된 픽처를 적어도 하나의 처리 단위 블록으로 분할할 수 있다. 이때, 처리 단위 블록은 코딩 단위 블록, 예측 단위 블록 또는 변환 단위 블록일 수 있다. 코딩 단위 블록은 코딩의 단위 블록으로서 최대 코딩 단위 블록으로부터 쿼드 트리 구조를 따라서 분할될 수 있다. 예측 단위 블록은 코딩 단위 블록으로부터 파티셔닝되는 블록으로서, 샘플 예측의 단위 블록일 수 있다. 이때, 예측 단위 블록은 서브 블록으로 나뉠 수도 있다. 변환 단위 블록은 코딩 단위 블록으로부터 쿼드 트리 구조를 따라서 분할 될 수 있으며, 변환 계수를 유도하는 단위 블록 또는 변환 계수로부터 잔차 신호를 유도하는 단위 블록일 수 있다.
이하, 설명의 편의를 위해, 코딩 단위 블록은 코딩 블록 또는 코딩 유닛이라 하고, 예측 단위 블록은 예측 블록 또는 예측 유닛이라 하며, 변환 단위 블록은 변환 블록 또는 변환 유닛이라 한다.
예측 블록 또는 예측 유닛은 픽처 내에서 블록 형태의 특정 영역을 의미할 수도 있고, 예측 샘플의 어레이를 의미할 수도 있다. 또한, 변환 블록 또는 변환 유닛은 픽처 내에서 블록 형태의 특정 영역을 의미할 수도 있고, 변환 계수 또는 레지듀얼 샘플의 어레이를 의미할 수도 있다.
예측부(210)는 처리 대상 블록(이하, 현재 블록이라 함)에 대한 예측을 수행하고, 상기 현재 블록에 대한 예측 샘플들을 포함하는 예측 블록을 생성할 수 있다. 예측부(210)에서 수행되는 예측의 단위는 코딩 블록일 수도 있고, 변환 블록일 수도 있고, 예측 블록일 수도 있다.
예측부(210)는 현재 블록에 인트라 예측이 적용되는지 인터 예측이 적용되는지를 결정할 수 있다.
인트라 예측의 경우에, 예측부(210)는 현재 블록이 속하는 픽처(이하, 현재 픽처) 내의 주변 블록 화소를 기반으로 현재 블록에 대한 예측 샘플을 유도할 수 있다. 이때, 예측부(210)는 (i) 현재 블록의 주변 참조 샘플들의 평균 혹은 인터폴레이션을 기반으로 하는 예측 샘플을 유도할 수도 있고, (ii) 현재 블록의 주변 블록들 중 예측 대상 픽셀에 대하여 특정 방향에 존재하는 참조 샘플을 기반으로 예측 샘플을 유도할 수도 있다. 설명의 편의를 위해, (i)의 경우를 비방향성 모드, (ii)의 경우를 방향성 모드라고 한다. 예측부(210)는 주변 블록에 적용된 예측 모드를 이용하여, 현재 블록에 적용되는 예측 모드를 결정할 수도 있다.
인터 예측의 경우에, 예측부(210)는 참조 픽처 상에서 움직임 벡터에 의해 특정되는 샘플들을 기반으로 현재 블록에 대한 예측 샘플을 유도할 수 있다. 예측부(210)는 스킵(skip) 모드, 머지(merge) 모드, 및 MVP 모드 중 어느 하나를 적용하여 현재 블록에 대한 예측 샘플을 유도할 수 있다. 스킵 모드와 머지 모드의 경우에, 예측부(210)는 주변 블록의 움직임 정보를 현재 블록의 움직임 정보로 이용할 수 있다. 스킵 모드의 경우, 머지 모드와 달리 예측 샘플과 원본 샘플 사이의 차(레지듀얼)가 전송되지 않는다. MVP 모드의 경우, 주변 블록의 움직임 벡터를 움직임 벡터 예측자(motion vector predictor: MVP)로 이용하여 현재 블록의 움직임 벡터를 유도할 수 있다.
인터 예측의 경우에, 주변 블록은 현재 픽처 내에 존재하는 공간적 주변 블록과 참조 픽처(collocated picture)에 존재하는 시간적 주변 블록을 포함한다. 움직임 정보는 움직임 벡터와 참조 픽처를 포함한다. 스킵 모드와 머지 모드에서 시간적 주변 블록의 움직임 정보가 이용되는 경우에, 참조 픽처 리스트 상의 최상위 픽처가 참조 픽처로서 이용될 수도 있다.
종속 뷰(dependent view)에 대한 인코딩의 경우에, 예측부(210)는 인터 뷰 예측을 수행할 수도 있다.
예측부(210)는 다른 뷰의 픽처를 포함하여 참조 픽처 리스트를 구성할 수 있다. 인터 뷰 예측을 위해, 예측부(210)는 디스패리티(disparity) 벡터를 유도할 수 있다. 현재 뷰 내 다른 픽처에서 현재 블록에 대응하는 블록을 특정하는 움직임 벡터와 달리, 디스패리티 벡터는 현재 픽처와 동일한 AU(Access Unit)의 다른 뷰에서 현재 블록에 대응하는 블록을 특정할 수 있다.
예측부(210)는 디스패리티 벡터를 기반으로, 뎁스 뷰(depth view) 내의 뎁스 블록(depth block)을 특정할 수 있고, 머지 리스트의 구성, 인터 뷰 움직임 예측(inter view motion prediction), 레지듀얼 예측, IC(Illumination Compensation), 뷰 합성 등을 수행할 수 있다.
현재 블록에 대한 디스패리티 벡터는 카메라 파라미터를 이용하여 뎁스 값으로부터 유도되거나, 현재 또는 다른 뷰 내 주변 블록의 움직임 벡터 또는 디스패리티 벡터로부터 유도될 수 있다.
예컨대, 예측부(210)는 참조 뷰(reference view)의 시간적 움직임 정보에 대응하는 인터 뷰 머지 후보(inter-view merging candidate: IvMC), 디스패리티 벡터에 대응하는 인터 뷰 디스패리티 벡터 후보(inter-view disparity vector candidate: IvDC), 디스패리티 벡터의 쉬프트(shift)에 의해 유도되는 쉬프티드 인터뷰 머지 후보(shifted IvMC), 현재 블록이 뎁스 맵 상의 블록인 경우에 대응하는 텍스처로부터 유도되는 텍스처 머지 후보(texture merging candidate: T), 텍스처 머지 후보로부터 디스패리티를 이용하여 유도되는 디스패리티 유도 머지 후보(disparity derived merging candidate: D), 뷰 합성에 기반해서 유도되는 뷰 합성 예측 머지 후보(view synthesis prediction merge candidate: VSP) 등을 머지 후보 리스트에 추가할 수 있다.
이때, 종속 뷰에 적용되는 머지 후보 리스트에 포함되는 후보의 개수는 소정의 값으로 제한될 수 있다.
또한, 예측부(210)는 인터-뷰 움직임 벡터 예측을 적용하여, 디스패리터 벡터를 기반으로 현재 블록의 움직임 벡터를 예측할 수도 있다. 이때, 예측부(210)는 대응하는 깊이 블록 내 최대 깊이 값의 전환(conversion)에 기반하여 디스패리티 벡터를 유도할 수 있다. 참조 뷰 내 현재 블록의 샘플 위치에 디스패리티 벡터를 더하여 참조 뷰 내 참조 샘플의 위치가 특정되면, 참조 샘플을 포함하는 블록을 참조 블록으로 이용할 수 있다. 예측부(210)는 참조 블록의 움직임 벡터를 현재 블록의 후보 움직임 파라미터 혹은 움직임 벡터 예측자 후보로 이용할 수 있으며, 상기 디스패리티 벡터를 DCP를 위한 후보 디스패리티 벡터로 이용할 수 있다.
감산부(215)는 원본 샘플과 예측 샘플 간의 차이인 레지듀얼 샘플을 생성한다. 스킵 모드가 적용되는 경우에는, 상술한 바와 같이 레지듀얼 샘플을 생성하지 않을 수 있다.
변환부(220)는 변환 블록 단위로 레지듀얼 샘플을 변환하여 변환 계수(transform coefficient)를 생성한다. 양자화부(225)는 변환 계수들을 양자화하여, 양자화된 변환 계수를 생성할 수 있다.
재정렬부(230)는 양자화된 변환 계수를 재정렬한다. 재정렬부(230)는 계수들을 스캐닝(Scanning) 방법을 통해 블록 형태의 양자화된 변환 계수들을 1차원 벡터 형태로 재정렬할 수 있다.
엔트로피 인코딩부(235)는 양자화된 변환 계수들에 대한 엔트로피 인코딩을 수행할 수 있다. 엔트로피 인코딩에는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding) 등과 같은 인코딩 방법을 사용할 수 있다. 엔트로피 인코딩부(235)는 양자화된 변환 계수 외 비디오 복원에 필요한 정보들(예컨대, 신택스 엘리먼트(syntax element)의 값 등)을 함께 또는 별도로 인코딩할 수도 있다.
엔트로피 인코딩된 정보들은 비트스트림 형태로 NAL(Network Abstraction Layer) 유닛 단위로 전송 또는 저장될 수 있다.
역양자화(dequantization)부(240)는 양자화된 변환 계수를 역양자화하여 변환 계수를 생성한다. 역변환(inverse transform)부(245)는 변환 계수를 역변환하여 레지듀얼 샘플을 생성한다.
가산부(250)는 레지듀얼 샘플과 예측 샘플을 합쳐서 픽처를 복원한다. 레지듀얼 샘플과 예측 샘플은 블록 단위로 더해져서 복원 블록을 생성할 수도 있다. 여기서 가산부(250)는 별도의 구성으로 설명하였으나, 가산부(250)는 예측부(210)의 일부일 수도 있다.
복원된 픽처(reconstructed picture)에 대하여 필터부(255)는 디블록킹 필터 및/또는 오프셋을 적용할 수 있다. 디블록킹 필터링 밀/또는 오프셋을 통해, 복원 픽처 내 블록 경계의 아티팩트나 양자화 과정에서의 왜곡이 보정될 수 있다. 오프셋은 샘플 단위로 적용될 수도 있으며, 디블록킹 필터링의 과정이 완료된 후 적용될 수 있다.
메모리(260)는 복원 픽처 또는 인코딩/디코딩에 필요한 정보를 저장할 수 있다. 예컨대, 메모리(260)는 인터 예측/인터-뷰 예측에 사용되는 픽처들을 저장할 수 있다. 이때, 인터 예측/인터-뷰 예측에 사용되는 픽처들은 참조 픽처 세트 혹은 참조 픽처 리스트에 의해 지정될 수도 있다.
여기서는, 하나의 인코딩 장치가 독립 뷰 및 종속 뷰를 인코딩하는 것으로 설명하였으나, 이는 설명의 편의를 위한 것으로서, 각 뷰별로 별도의 인코딩 장치가 구성되거나 각 뷰별로 별도의 내부 모듈(예컨대, 각 뷰별 예측부)가 구성될 수도 있다.
도 3은 비디오 디코딩 장치의 구성을 개략적으로 설명하는 도면이다.
도 3을 참조하면, 비디오 디코딩 장치(300)는 엔트로피 디코딩부(310), 재정렬부(320), 역양자화부(330), 역변환부(340), 예측부(350), 가산부(360), 필터부(370), 메모리(380)를 포함한다.
비디오 정보를 포함하는 비트스트림이 입력되면, 비디오 디코딩 장치(300)는 비디오 인코딩 장치에서 비디오 정보가 처리된 프로세스에 대응하여 비디오를 복원할 수 있다.
예컨대, 비디오 디코딩 장치(300)는 비디오 인코딩 장치에서 적용된 처리 단위를 이용하여 비디오 디코딩을 수행할 수 있다. 따라서, 비디오 디코딩의 처리 단위 블록은 코딩 단위 블록, 예측 단위 블록 또는 변환 단위 블록일 수 있다. 코딩 단위 블록은 디코딩의 단위 블록으로서 최대 코딩 단위 블록으로부터 쿼드 트리 구조를 따라서 분할될 수 있다. 예측 단위 블록은 코딩 단위 블록으로부터 파티셔닝되는 블록으로서, 샘플 예측의 단위 블록일 수 있다. 이때, 예측 단위 블록은 서브 블록으로 나뉠 수도 있다. 변환 단위 블록은 코딩 단위 블록으로부터 쿼드 트리 구조를 따라서 분할 될 수 있으며, 변환 계수를 유도하는 단위 블록 또는 변환 계수로부터 잔차 신호를 유도하는 단위 블록일 수 있다.
엔트로피 디코딩부(310)는 비트스트림을 파싱하여 비디오 복원 또는 픽처 복원에 필요한 정보를 출력할 수 있다. 예컨대, 엔트로피 디코딩부(310)는 지수 골롬, CAVLC, CABAC 등에 기반해 비트스트림 내 정보를 디코딩하고, 비디오 복원에 필요한 신택스 엘리먼트의 값, 레지듀얼에 관한 변환 계수의 양자화된 값 등을 출력할 수 있다.
3D 비디오를 재생하기 위해 복수의 뷰(view)를 처리하는 경우, 비트스트림은 각 뷰 별로 입력될 수 있다. 혹은, 비트스트림 내에서 각 뷰에 대한 정보가 멀티플렉싱되어 있을 수도 있다. 이 경우, 엔트로피 디코딩부(310)는 비트스트림을 역다중화(de-multiplexing)하여 뷰 별로 파싱할 수도 있다.
재정렬부(320)는 양자화되어 있는 변환 계수들을 2차원의 블록 형태로 재정렬할 수 있다. 재정렬부(320)는 인코딩 장치에서 수행된 계수 스캐닝에 대응하여 재정렬을 수행할 수 있다.
역양자화부(330)는 양자화되어 있는 변환 계수들을 (역)양자화 파라미터를 기반으로 역양자화하여 변환 계수를 출력할 수 있다. 이때, 양자화 파라미터를 유도하기 위한 정보는 인코딩 장치로부터 시그널링될 수 있다.
역변환부(340)는 변환 계수들을 역변환하여 레지듀얼 샘플들을 유도할 수 있다.
예측부(350)는 현재 블록에 대한 예측을 수행하고, 상기 현재 블록에 대한 예측 샘플들을 포함하는 예측 블록을 생성할 수 있다. 예측부(350)에서 수행되는 예측의 단위는 코딩 블록일 수도 있고, 변환 블록일 수도 있고, 예측 블록일 수도 있다.
예측부(350)는 인트라 예측을 적용할 것인지 인터 예측을 적용할 것인지를 결정할 수 있다. 이때, 인트라 예측과 인터 예측 중 어느 것을 적용할 것인지를 결정하는 단위와 예측 샘플 생성하는 단위는 상이할 수 있다. 아울러, 인터 예측과 인트라 예측에 있어서 예측 샘플을 생성하는 단위 역시 상이할 수 있다.
인트라 예측의 경우에, 예측부(350)는 현재 픽처 내의 주변 블록 화소를 기반으로 현재 블록에 대한 예측 샘플을 유도할 수 있다. 예측부(350)는 현재 블록의 주변 참조 샘플들을 기반으로 방향성 모드 또는 비방향성 모드를 적용하여 현재 블록에 대한 예측 샘플을 유도할 수 있다. 이때, 주변 블록의 인트라 예측 모드를 이용하여 현재 블록에 적용할 예측 모드가 결정될 수도 있다.
인터 예측의 경우에, 예측부(350)는 참조 픽처 상에서 움직임 벡터에 의해 특정되는 샘플들을 기반으로 현재 블록에 대한 예측 샘플을 유도할 수 있다. 예측부(350)는 스킵(skip) 모드, 머지(merge) 모드 및 MVP 모드 중 어느 하나를 적용하여 현재 블록에 대한 예측 샘플을 유도할 수 있다.
스킵 모드와 머지 모드의 경우에, 주변 블록의 움직임 정보가 현재 블록의 움직임 정보로 이용될 수 있다. 이때, 주변 블록은 공간적 주변 블록과 시간적 주변 블록을 포함할 수 있다.
예측부(350)는 가용한(available) 주변 블록의 움직임 정보로 머지 후보 리스트를 구성하고, 머지 인덱스가 머지 후보 리스트 상에서 지시하는 정보를 현재 블록의 움직임 벡터로 사용할 수 있다. 머지 인덱스는 인코딩 장치로부터 시그널링될 수 있다. 움직임 정보는 움직임 벡터와 참조 픽처를 포함한다. 스킵 모드와 머지 모드에서 시간적 주변 블록의 움직임 정보가 이용되는 경우에, 참조 픽처 리스트 상의 최상위 픽처가 참조 픽처로서 이용될 수도 있다.
스킵 모드의 경우, 머지 모드와 달리 예측 샘플과 원본 샘플 사이의 차이(레지듀얼)가 전송되지 않는다.
MVP 모드의 경우, 주변 블록의 움직임 벡터를 움직임 벡터 예측자(MVP)로 이용하여 현재 블록의 움직임 벡터가 유도될 수 있다. 이때, 주변 블록은 공간적 주변 블록과 시간적 주변 블록을 포함할 수 있다.
종속 뷰(dependent view)에 대한 인코딩의 경우에, 예측부(350)는 인터 뷰 예측을 수행할 수도 있다. 이때, 예측부(350)는 다른 뷰의 픽처를 포함하여 참조 픽처 리스트를 구성할 수 있다.
인터 뷰 예측을 위해, 예측부(210)는 디스패리티(disparity) 벡터를 유도할 수 있다. 예측부(350)는 디스패리티 벡터를 기반으로, 뎁스 뷰(depth view) 내의 뎁스 블록(depth block)을 특정할 수 있고, 머지 리스트의 구성, 인터 뷰 움직임 예측(inter view motion prediction), 레지듀얼 예측, IC(Illumination Compensation), 뷰 합성 등을 수행할 수 있다.
현재 블록에 대한 디스패리티 벡터는 카메라 파라미터를 이용하여 뎁스 값으로부터 유도되거나, 현재 또는 다른 뷰 내 주변 블록의 움직임 벡터 또는 디스패리티 벡터로부터 유도될 수 있다. 카메라 파라미터는 인코딩 장치로부터 시그널링될 수 있다.
종속 뷰의 현재 블록에 머지 모드를 적용하는 경우에, 예측부(350)는 참조 뷰(reference view)의 시간적 움직임 정보에 대응하는 IvMC, 디스패리티 벡터에 대응하는 IvDC, 디스패리티 벡터의 쉬프트(shift)에 의해 유도되는 쉬프티드 IvMC, 현재 블록이 뎁스 맵 상의 블록인 경우에 대응하는 텍스처로부터 유도되는 텍스처 머지 후보(T), 텍스처 머지 후보로부터 디스패리티를 이용하여 유도되는 디스패리티 유도 머지 후보(D), 뷰 합성에 기반해서 유도되는 뷰 합성 예측 머지 후보(VSP) 등을 머지 후보 리스트에 추가할 수 있다.
이때, 종속 뷰에 적용되는 머지 후보 리스트에 포함되는 후보의 개수는 소정의 값으로 제한될 수 있다.
또한, 예측부(350)는 인터-뷰 움직임 벡터 예측을 적용하여, 디스패리터 벡터를 기반으로 현재 블록의 움직임 벡터를 예측할 수도 있다. 이때, 예측부(350)는 디스패리티 벡터에 의해서 특정되는 참조 뷰 내 블록을 참조 블록으로 이용할 수 있다. 예측부(350)는 참조 블록의 움직임 벡터를 현재 블록의 후보 움직임 파라미터 혹은 움직임 벡터 예측자 후보로 이용할 수 있으며, 상기 디스패리티 벡터를 DCP를 위한 후보 디스패러티 벡터로 이용할 수 있다.
가산부(360)는 레지듀얼 샘플과 예측 샘플을 더하여 현재 블록 혹은 현재 픽처를 복원할 수 있다. 가산부(360)는 레지듀얼 샘플과 예측 샘플을 블록 단위로 더하여 현재 픽처를 복원할 수도 있다. 스킵 모드가 적용된 경우에는 레지듀얼이 전송되지 않으므로, 예측 샘플이 복원 샘플이 될 수 있다. 여기서는 가산부(360)를 별도의 구성으로 설명하였으나, 가산부(360)는 예측부(350)의 일부일 수도 있다.
필터부(370)는 복원된 픽처에 디블록킹 필터링 및/또는 오프셋을 적용할 수 있다. 이때, 오프셋은 샘플 단위의 오프셋으로서 적응적으로 적용될 수도 있다.
메모리(380)는 복원 픽처 또는 디코딩에 필요한 정보를 저장할 수 있다. 예컨대, 메모리(380)는 인터 예측/인터-뷰 예측에 사용되는 픽처들을 저장할 수 있다. 이때, 인터 예측/인터-뷰 예측에 사용되는 픽처들은 참조 픽처 세트 혹은 참조 픽처 리스트에 의해 지정될 수도 있다. 복원된 픽처는 참조 픽처로서 이용될 수 있다.
또한, 메모리(380)는 복원된 픽처를 출력 순서에 따라서 출력할 수도 있다. 3D 영상을 재생하기 위해, 도시되지는 않았으나, 출력부는 복수의 서로 다른 뷰를 디스플레이할 수 있다.
도 3의 예에서는, 하나의 디코딩 장치에서 독립 뷰(independent view)와 종속 뷰(dependent view)가 디코딩되는 것으로 설명하였으나, 이는 설명의 편의를 위한 것으로서 본 발명은 이에 한정되지 않는다. 예컨대, 뷰 별로 각각의 디코딩 장치가 동작할 수도 있고, 하나의 디코딩 장치 내에 각 뷰에 대응하는 동작부(예컨대, 예측부)가 구비될 수도 있다.
한편, 3D 비디오는 일반적인 컬러 영상 정보를 가지는 텍스처(texture) 비디오와, 텍스처 비디오에 대한 깊이 정보를 가지는 깊이 맵(depth-map) 비디오를 포함한다.
깊이 맵 비디오는 영상의 각 픽셀이 가지는 거리를 그레이 스케일(gray scale)로 저장하고 있으며, 하나의 블록 내에서는 각 픽셀 간의 세밀한 깊이 차이가 심하지 않고 전경(foreground)과 배경(background)의 두 가지로 나누어 표현할 수 있는 경우가 많다. 또한, 깊이 맵 비디오는 물체의 경계에서는 날카로운 에지(sharp edge)를 가지며 경계가 아닌 위치에서는 거의 일정한 값(상수 값)을 갖는 특성을 보인다.
기존의 텍스처 비디오를 예측하는데 사용하는 인트라 예측은 일정한 값을 가지는 영역(constant region)에 적합한 예측 방법이기 때문에, 텍스처 비디오와 다른 특성을 가지는 깊이 맵 예측에는 효과적이지 않다.
따라서, 3D 비디오 코딩에서는 깊이 맵의 특성을 반영하는 새로운 인트라 예측 모드가 추가되었다. 이러한 깊이 맵을 위한 인트라 예측 모드에서는 깊이 맵 블록(혹은 깊이 블록)을 두 개의 사각형이 아닌(non-rectangular) 영역으로 분할하는 모델(model)로 표현하고, 분할된 각 영역은 상수 값으로 나타낸다.
이와 같이, 깊이 맵 블록을 하나의 모델로 표현하여 예측하는 인트라 예측 모드를 깊이 모델링 모드(DMM: Depth Modelling Mode)라고 한다. DMM에서는 깊이 맵 블록이 어떻게 분할되는지에 대한 파티션 정보와 각 파티션이 어떤 값으로 채워지는지에 대한 정보를 기반으로 깊이 맵을 예측할 수 있다.
도 4는 깊이 모델링 모드(DMM)에서 깊이 맵의 인트라 예측 방법을 개략적으로 설명하기 위한 도면이다.
도 4를 참조하면, 깊이 맵 픽처 내 인트라 예측 대상이 되는 깊이 블록(400)이 DMM으로 인트라 예측되는 경우, 깊이 블록(400)은 두 개의 사각형이 아닌 영역 P1과 P2로 분할될 수 있다. 분할된 P1과 P2 영역은 각각 상수 값으로 채워지게 된다.
이때, 분할된 각 영역을 채우기 위한 최적의 상수 값은 각 영역의 원 깊이 값들(original depth values)의 평균 값을 사용하는 것일 수 있다. 그러나 부호화기에서는 원 깊이 값들의 평균 값을 시그널링하는 것이 아니라, 각 영역에 인접하고 있는 주변 샘플들의 값을 평균하여 예측 값(Wpred)을 구하고, 이 예측 값(Wpred)과 원 깊이 값들의 평균 값(Worig) 간의 차이(△W)를 계산하여 이 차이 값(△W)을 시그널링한다. 복호화기는 시그널링된 각 영역의 차이 값(△W)과 각 영역의 예측 값(Wpred)을 기반으로 각 영역을 복원할 수 있다.
예를 들어, 부호화기에서는 P1 영역에 인접하고 있는 주변 샘플들의 값을 평균하여 P1 영역의 예측 값(WpredP1)을 구하고, P1 영역의 예측 값(WpredP1)과 P1 영역의 원 깊이 값들의 평균 값(WorigP1) 사이의 차이(△WP1)를 계산할 수 있다. 부호화기는 계산된 P1 영역의 차이(△WP1)를 복호화기로 전송할 수 있다.
복호화기에서는 P1 영역에 인접하고 있는 주변 샘플들의 값을 평균하여 P1 영역의 예측 값(WpredP1)을 구하고, P1 영역의 예측 값(WpredP1)에 부호화기로부터 전송된 P1 영역의 차이(△WP1)를 더함으로써 P1 영역을 복원할 수 있다.
P2 영역 역시 상술한 P1 영역과 동일한 방법으로 P2 영역에 인접하고 있는 주변 샘플들의 값을 이용하여 P2 영역의 예측 값(WpredP2)을 유도할 수 있고, P2 영역의 예측 값(WpredP2)과 P2 영역의 원 깊이 값들의 평균 값(WorigP2) 사이의 차이(△WP2)를 계산할 수 있다. 복호화기에서는 이 값들을 기반으로 P2 영역을 복원할 수 있다.
3D 비디오 코딩에서 깊이 맵 영상을 코딩할 때, 룩업 테이블(lookup table)을 이용하여 레지듀얼 블록을 코딩할 수 있다. 일반적으로 깊이 맵 영상의 샘플(픽셀) 값은 0부터 255까지 고르게 분포하지 않고 특정 영역에 집중적으로 분포하는 특징이 있다. 이러한 특성을 고려하여 룩업 테이블을 생성하고, 룩업 테이블을 사용하여 깊이 맵 영상의 깊이 값을 룩업 테이블의 인덱스 값으로 변환하여 부호화를 수행할 경우, 부호화할 비트 수를 줄일 수 있다. 또한, 룩업 테이블을 이용하여 생성된 레지듀얼 블록은 변환과 양자화 과정 없이 엔트로피 코딩될 수 있다. 따라서, 룩업 테이블을 이용한 깊이 맵 영상의 코딩 방법을 간략화된 깊이 맵 코딩(SDC: Simplified Depth Coding)이라고 한다.
SDC 방법은 기존의 인트라 예측과는 달리 앞에서 언급한 깊이 모델링 모드(DMM), 플래너(Planar) 모드를 사용하여 예측을 수행하고, 상기 예측된 데이터를 기반으로 생성된 레지듀얼 데이터를 변환과 양자화 과정 없이 미리 만들어 놓은 룩업 테이블을 사용하여 인덱스화하고, 인덱스 정보를 부호화한다.
이하, 룩업 테이블을 사용하여 레지듀얼 블록을 코딩하는 SDC 방법에 대해 보다 구체적으로 설명한다.
깊이 맵 영상 내 현재 코딩 대상이 되는 블록(이하, 현재 블록)은 DMM 혹은 플래너 모드를 사용하여 인트라 예측될 수 있다. 이때, DMM을 사용한 인트라 예측의 경우, 상술한 바와 같이, 현재 블록이 두 개의 영역으로 분할되고 분할된 각 영역에 대해 예측된 깊이 값의 평균을 구하여 예측 값으로 사용할 수 있다. 플래너 모드를 사용한 인트라 예측의 경우, 현재 블록이 분할되지 않은 한 개의 영역일 수 있으므로 현재 블록 내 한 개의 영역에 대해 예측된 깊이 값들의 평균을 구하여 예측 값으로 사용할 수 있다.
즉, 현재 블록 내 분할된 각 영역에 대해 (DMM의 경우는 두 개의 영역, 플래너의 경우는 한 개의 영역) 인트라 예측된 깊이 값의 평균과 원 깊이 값의 평균을 계산하고, 계산된 각각의 평균 값을 룩업 테이블에 매핑하여 각 인덱스 값을 찾을 수 있다. 그리고, 원 깊이 값과 예측된 깊이 값 간의 차분 값을 부호화하는 대신, 룩업 테이블로부터 매핑된 원 깊이 값의 평균에 대한 인덱스와 예측된 깊이 값의 평균에 대한 인덱스 간의 차이 값을 부호화할 수 있다.
아래 수학식 1은 SDC 방법으로 현재 블록에 대한 차분 인덱스 값을 생성하는 과정을 나타낸 것이다.
[수학식 1]
Res_indexi = DLT[ Orgi_DC ] - DLT[ Predi_DC ]
수학식 1에서, i는 현재 블록 내 분할된 영역을 의미하고, DLT(Depth Lookup Table)는 미리 생성한 깊이 값을 위한 룩업 테이블을 의미한다.
SDC 방법은 상술한 바와 같이 분할된 영역에 대해 예측 값의 평균을 이용하여 레지듀얼 신호를 생성하므로, 세그먼트-지향 DC 코딩(segment-wise DC coding)이라고 지칭되기도 한다.
상술한 SDC 방법에서는 SDC 모드(DMM, 플래너 모드)에서 깊이 값을 위한 룩업 테이블(이하, DLT라 함)을 이용하여 인트라 예측을 수행하고 레지듀얼 신호를 생성한다.
이하, 본 발명에서는 SDC 모드뿐만 아니라 텍스처 비디오를 예측하는데 사용하는 인트라 예측 모드에도 DLT을 이용하는 SDC 방법을 제안한다.
텍스처 비디오를 예측하는데 사용하는 인트라 예측 모드는 현재 블록의 샘플 값을 예측하는데 사용되는 참조 샘플들이 위치한 방향 및/또는 예측 방식에 따라 방향성 모드와 비방향성 모드를 포함할 수 있다. 예컨대, 33개의 방향성 예측 모드와 적어도 두 개의 비방향성 예측 모드를 포함할 수 있다.
비방향성 예측 모드는 DC 모드와 플래너(Planar) 모드를 포함할 수 있다. DC 모드는 고정된 하나의 값을 현재 블록 내 샘플들의 예측 값으로 이용할 수 있다. 일예로, DC 모드에서 고정된 하나의 값은 현재 블록의 주변에 위치한 샘플 값들의 평균에 의해 유도될 수 있다. 플래너 모드는 현재 블록에 수직으로 인접한 샘플과 수평으로 인접한 샘플을 이용하여 수직 방향 보간 및 수평 방향 보간을 수행하고, 이들의 평균값을 현재 블록 내 샘플들의 예측 값으로 이용할 수 있다.
방향성 예측 모드는 참조 샘플이 위치한 방향을 나타내는 모드로, 현재 블록내 예측 대상 샘플과 참조 샘플 간의 각도로 해당 방향을 나타낼 수 있다. 방향성 예측 모드는 Angular 모드로 불릴 수 있으며, 수직 모드, 수평 모드 등을 포함할 수 있다. 수직 모드는 현재 블록에 수직 방향으로 인접한 샘플 값을 현재 블록 내 샘플의 예측 값으로 이용할 수 있으며, 수평 모드는 현재 블록에 수평 방향으로 인접한 샘플 값을 현재 블록 내 샘플의 예측 값으로 이용할 수 있다. 그리고, 수직 모드와 수평 모드를 제외한 나머지 Angular 모드는 각각의 모드에 대해 미리 정해진 각도 및/또는 방향에 위치하는 참조 샘플을 이용하여 현재 블록 내 샘플의 예측 값을 도출할 수 있다.
기존의 인트라 예측 모드(텍스처 비디오를 예측하는데 사용하는 35개의 인트라 예측 모드)를 사용한 인트라 예측에서는 한 블록에 대해 픽셀(샘플) 단위로 레지듀얼 신호를 생성하고, 상기 레지듀얼 신호를 변환과 양자화 과정을 거친 후 엔트로피 부호화를 수행한다. 그러나, 본 발명에서 제안하는 DLT를 이용하는 인트라 예측 방법은 원 영상의 각 픽셀과 예측 영상의 각 픽셀에 대해 DLT를 적용한 후, DLT에 매핑(mapping)된 인덱스의 차분 값으로 레지듀얼 신호를 생성하고, 상기 레지듀얼 신호를 변환과 양자화 과정을 거친 후 엔트로피 부호화를 수행한다. 따라서, 기존의 인트라 예측을 기반으로 생성된 레지듀얼 신호의 영역은 값(value) 영역이지만, 본 발명에서 제안하는 DLT를 이용한 인트라 예측을 통해 생성된 레지듀얼 신호의 영역은 인덱스(index) 영역이다.
또한, 기존의 SDC 모드에서는 한 블록 내에서 분할된 영역 단위로 DLT를 적용하여 인덱스 차분 값을 유도하지만, 본 발명에서는 블록 내 픽셀 단위로 DLT 적용하여 인덱스 차분 값을 유도한다. 따라서, 본 발명에서 제안하는 방법을 사용할 경우, 보다 예측의 정확도를 높일 수 있고 원본 영상에 가까운 복원 영상을 생성할 수 있다.
도 5는 본 발명의 실시예에 따른 DLT를 이용한 인트라 예측을 적용하여 부호화하는 방법을 개략적으로 나타낸 순서도이다. 도 5의 방법은 상술한 도 2의 비디오 인코딩 장치에 의해 수행될 수 있다.
도 5를 참조하면, 인코딩 장치는 깊이 맵 영상(픽처) 내 현재 부호화 대상이 되는 블록(이하, 현재 블록)의 인트라 예측 모드를 기반으로 예측을 수행하여 현재 블록의 각 샘플의 예측된 깊이 값을 유도한다. 그리고, 인코딩 장치는 유도된 현재 블록의 각 샘플의 예측된 깊이 값에 대하여 DLT(depth lookup table)를 매핑(mapping)하여 각 DLT의 인덱스 값을 유도한다(S500).
여기서, 인트라 예측 모드는 상술한 기존의 인트라 예측 모드(텍스처 비디오를 예측하는데 사용하는 35개의 인트라 예측 모드)와 깊이 맵 인트라 예측 모드(DMM을 포함하는 SDC 모드) 중 어느 하나일 수 있다.
DLT는 깊이 맵 영상의 깊이 값을 저장하고 있는 룩업 테이블로, 각 깊이 값을 인덱스 값으로 매핑한 정보를 가지고 있다. 일반적으로 깊이 맵 영상의 샘플 값(깊이 값)은 0부터 255까지 고르게 분포하지 않고 특정 영역에 집중적으로 분포하는 특징이 있다. 이러한 특징을 고려하여 DLT의 인덱스를 생성하고, 깊이 맵 영상의 깊이 값을 인덱스 값으로 매핑(변환)할 수 있다.
예컨대, DLT는 DLT 내의 i번째 인덱스와 (i-1)번째 인덱스의 깊이 값 차이를 기반으로 i번째 인덱스의 깊이 값이 유도될 수 있다. 따라서, 인코딩 장치는 i번째 인덱스와 (i-1)번째 인덱스의 깊이 값 차이를 디코딩 장치로 시그널링할 수 있다. 디코딩 장치에서는 시그널링된 차이 값을 기반으로 DLT 내 깊이 값들을 유도할 수 있다.
인코딩 장치는 현재 블록의 각 샘플의 원(original) 깊이 값에 대하여 DLT를 매핑하여 각 DLT의 인덱스 값을 유도한다(S510).
인코딩 장치는 현재 블록의 각 샘플에 대해서 예측된 깊이 값의 인덱스와 원 깊이 값의 인덱스 사이의 차분 인덱스(residual index)를 유도한다(S520).
인코딩 장치는 현재 블록의 각 샘플에 대한 차분 인덱스 값을 레지듀얼 신호로 사용할 수 있다.
수학식 2는 본 발명의 실시예에 따른 레지듀얼 신호를 유도하는 과정을 나타낸 것이다.
[수학식2]
Res_index[x] = DLT[ Org[x] ] - DLT[ Pred[x] ]
수학식 2에서, x는 현재 블록 내 각 샘플을 나타낸다. Org[x]는 현재 블록 내 샘플 x의 원 깊이 값이고, Pred[x]는 현재 블록 내 샘플 x의 예측된 깊이 값을 나타낸다. DLT[ Org[x] ]는 현재 블록 내 샘플 x의 원 깊이 값을 DLT의 인덱스 값으로 변환하는 것을 말하고, DLT[ Pred[x] ]는 현재 블록 내 샘플 x의 예측된 깊이 값을 DLT의 인덱스 값으로 변환하는 것을 말한다. Res_index[x]는 현재 블록 내 샘플 x의 차분 인덱스 값을 나타낸다.
예를 들어, 인코딩 장치는 현재 블록의 인트라 예측 모드를 기반으로 유도된 현재 블록의 제1 샘플의 예측된 깊이 값(Pred[x1])에 DLT를 매핑하여, 현재 블록의 제1 샘플에 대한 제1 인덱스 값(DLT[ Pred[x1] ])을 유도할 수 있다. 인코딩 장치는 현재 블록의 제1 샘플의 원 깊이 값(Org[x1])에 DLT를 매핑하여, 현재 블록의 제1 샘플에 대한 제2 인덱스 값(DLT[ Org[x1] ])을 유도할 수 있다. 그리고, 인코딩 장치는 현재 블록의 제1 샘플에 대한 제1 인덱스 값(DLT[ Pred[x1] ])과 제2 인덱스 값(DLT[ Org[x1] ]) 간의 차분 인덱스 값(Res_index[x1])을 유도할 수 있다. 상기 유도된 차분 인덱스 값(Res_index[x1])을 현재 블록의 제1 샘플에 대한 레지듀얼 신호로 사용하여, 현재 블록에 대한 변환, 양자화 및 엔트로피 부호화를 수행할 수 있다.
인코딩 장치는 현재 블록의 각 샘플에 대한 차분 인덱스 값을 변환, 양자화, 및 엔트로피 부호화한다(S530).
상기와 같이 DLT를 이용하여 현재 블록의 레지듀얼 신호를 생성함으로써 부호화할 비트 수를 줄일 수 있으며, SDC 모드뿐만 아니라 기존의 인트라 예측 모드에도 DLT를 적용함으로써 부호화 효율을 높일 수 있다.
본 발명의 실시예에 따르면, DLT를 이용한 부호화 방법에서 복잡도를 줄이기 위해서, 상기 현재 블록이 2Nx2N 크기일 때만 DLT를 이용하여 부호화 할 수 있다. 인트라 예측은 2Nx2N 블록 크기에서뿐만 아니라 NxN 블록 크기에서도 수행된다. 하지만 대부분의 경우 인트라 예측은 2Nx2N 블록 크기에서 수행되므로, 본 발명에서는 복잡도를 낮추기 위해 현재 블록이 2Nx2N 크기인 경우에 DLT를 적용하여 상술한 단계 S500~S530를 수행할 수 있다.
또한, 본 발명에서는 DLT를 이용한 부호화 방법에서 복잡도를 줄이기 위해서, 특정 인트라 예측 모드일 경우에만 DLT를 이용하여 부호화 할 수 있다. 일반적으로 인트라 예측 모드들 중에서 DC 모드, 수평 모드, 수직 모드를 제외한 나머지 인트라 예측 모드들은 보간 필터(interpolation filter)를 적용하여 예측 블록 내 샘플들을 생성하므로 예측 블록 내 샘플들의 값은 모두 다르게 된다. 이와 같은 경우, 블록 내 모든 샘플들의 평균 값으로 DLT를 적용하는 것은 부호화 효율을 떨어뜨리게 된다. 따라서, 본 발명에서는 모든 인트라 예측 모드에 DLT를 적용하는 대신, 보간 필터를 적용하지 않고 예측 블록을 생성하는 DC 모드, 수평 모드, 수직 모드, 깊이 맵 인트라 예측 모드에만 DLT를 적용하여 상술한 단계 S500~S530를 수행할 수 있다. 이러한 경우, 인코딩 장치는 DLT를 적용하는지 유무를 나타내는 정보(예컨대, DLT 플래그)를 부호화할 필요가 없으며, 복잡도가 감소하는 이득이 있다.
한편, 인코딩 장치는 현재 블록에 대한 최적의 인트라 예측 모드를 선택하기 위해서 율-왜곡 최적화(RDO: rate distortion optimization) 관점에서, 값을 사용하여 생성한 레지듀얼 신호와 인덱스를 사용하여 생성한 레지듀얼 신호를 비교한다. 이러한 경우, 인코딩 장치는 모든 인트라 예측 모드에 대해서 RDO를 두 번씩 수행하게 되므로, 복잡도가 높아질 수 있다. 이하, 본 발명에서는 DLT를 이용한 부호화 방법에서 복잡도를 줄이기 위해서, 최적의 인트라 예측 모드를 선택하는 방법을 제공한다.
도 6은 본 발명의 실시예에 따른 최적의 인트라 예측 모드를 선택하는 방법을 개략적으로 나타낸 순서도이다.
인코딩 장치는 현재 예측이 수행되는 블록(현재 블록)의 인트라 예측 모드를 결정하기 위해서 다음과 같은 과정을 수행할 수 있다.
도 6을 참조하면, 인코딩 장치는 간략화된(simplified) RDO를 통해 기존의 35개의 인트라 예측 모드 중에서 비용이 낮은 8개의 후보 인트라 예측 모드를 생성하고, 다시 8개의 후보 인트라 예측 모드들 중에서 비용이 작은 4개의 후보 인트라 예측 모드를 선택한다(S600). 이때, 4개의 후보 인트라 예측 모드를 기반으로 후보 리스트를 생성할 수 있다.
여기서, 기존의 35개의 인트라 예측 모드들 중에서 최종적으로 4개의 후보 인트라 예측 모드를 선택하였으나, 이는 하나의 예시일 뿐이며 후보 모드의 수는 가변적으로 조절할 수 있다.
인코딩 장치는 4개의 후보 인트라 예측 모드로 구성된 후보 리스트에 깊이 맵 인트라 예측 모드(예를 들어, DMM, DC 모드, 플래너 모드)를 추가한다(S610). 이때, 깊이 맵 인트라 예측 모드 중 몇 개의 모드를 추가할지는 가변적으로 조절할 수 있다.
인코딩 장치는 4개의 후보 인트라 예측 모드와 깊이 맵 인트라 예측 모드로 구성된 후보 리스트에 대해 최종 RDO(full RDO)를 수행한다(S620).
인코딩 장치는 최종 RDO를 통해 구해진 4개의 후보 인트라 예측 모드와 깊이 맵 인트라 예측 모드(예를 들어, DMM, DC 모드, 플래너 모드)의 비용을 비교하고(S630), 비용이 낮은 최적의 인트라 예측 모드를 선택한다(S640).
인코딩 장치는 상기 선택된 최적의 인트라 예측 모드를 현재 블록의 인트라 예측 시 사용되는 인트라 예측 모드로 결정하고, 현재 블록의 인트라 예측 모드에 대한 정보를 디코딩 장치로 시그널링할 수 있다.
인코딩 장치는 최적의 인트라 예측 모드로 깊이 맵 인트라 예측 모드가 선택된 경우, 깊이 맵 인트라 예측 모드를 이용하여 인트라 예측을 수행한다는 정보를 디코딩 장치로 시그널링할 수 있다. 반면, 최적의 인트라 예측 모드로 기존의 인트라 예측 모드가 선택된 경우, 인코딩 장치는 깊이 맵 인트라 예측 모드를 이용하지 않는다는 정보를 디코딩 장치로 시그널링할 수 있다. 즉, 인코딩 장치는 깊이 맵 인트라 예측 모드를 사용할지 여부를 나타내는 플래그 정보를 시그널링할 수 있다.
또한, 인코딩 장치는 율-왜곡 비용을 고려하여, 상술한 단계 S600~640을 통해 DLT를 이용한 인트라 예측 부호화를 수행할지 여부를 결정할 수 있으며, 이러한 DLT 사용 유무에 대한 정보를 디코딩 장치로 시그널링할 수 있다.
도 7은 본 발명의 실시예에 따른 DLT를 이용한 인트라 예측을 적용하여 복호화하는 방법을 개략적으로 나타낸 순서도이다. 도 7의 방법은 상술한 도 3의 비디오 디코딩 장치에 의해 수행될 수 있다.
도 7을 참조하면, 디코딩 장치는 깊이 맵 영상(픽처) 내 현재 복호화 대상이 되는 블록(이하, 현재 블록)에 대한 차분 인덱스 값을 엔트로피 복호화, 역양자화 및 역변환하여 획득한다(S700).
디코딩 장치는 현재 블록의 인트라 예측 모드를 기반으로 예측을 수행하여 현재 블록의 각 샘플의 예측된 깊이 값을 유도한다. 그리고, 디코딩 장치는 유도된 현재 블록의 각 샘플의 예측된 깊이 값에 대하여 DLT(depth lookup table)를 매핑(mapping)하여 각 DLT의 인덱스 값을 유도한다(S710).
여기서, 인트라 예측 모드는 상술한 기존의 인트라 예측 모드(텍스처 비디오를 예측하는데 사용하는 35개의 인트라 예측 모드)와 깊이 맵 인트라 예측 모드(DMM을 포함하는 SDC 모드) 중 어느 하나일 수 있다.
또는, 인트라 예측 모드는 특정 인트라 예측 모드일 수 있으며, 예컨대 DC 모드, 수평 모드, 수직 모드, 깊이 맵 인트라 예측 모드 중 어느 하나일 수 있다.
DLT는 상술한 바와 같이, 깊이 맵 영상의 깊이 값을 저장하고 있는 룩업 테이블로, 각 깊이 값을 인덱스 값으로 매핑한 정보를 가지고 있다.
예컨대, DLT는 DLT 내의 i번째 인덱스와 (i-1)번째 인덱스의 깊이 값 차이를 기반으로 i번째 인덱스의 깊이 값이 유도될 수 있다. 디코딩 장치는 인코딩 장치로부터 시그널링되는 인덱스 간의 차이 값을 기반으로 DLT 내 깊이 값들을 유도할 수 있다.
디코딩 장치는 현재 블록의 각 샘플에 대해서 예측된 깊이 값의 인덱스와 차분 인덱스를 더하여, 현재 블록의 각 샘플의 깊이 값을 획득한다(S720).
예를 들어, 디코딩 장치는 현재 블록에 대한 차분 인덱스 값(Res_index[x])을 엔트로피 복호화, 역양자화 및 역변환하여 획득할 수 있다. 디코딩 장치는 현재 블록의 인트라 예측 모드를 기반으로 현재 블록의 제1 샘플의 예측된 깊이 값(Pred[x1])을 유도할 수 있다. 그리고, 디코딩 장치는 현재 블록의 제1 샘플의 예측된 깊이 값(Pred[x1])에 DLT를 매핑하여, 현재 블록의 제1 샘플에 대한 제1 인덱스 값(DLT[ Pred[x1] ])을 유도할 수 있다. 디코딩 장치는 현재 블록의 제1 샘플에 대한 제1 인덱스 값(DLT[ Pred[x1] ])과 차분 인덱스 값(Res_index[x1])을 더하여, 현재 블록의 제1 샘플의 깊이 값을 복원할 수 있다. 이때, 현재 블록의 제1 샘플의 깊이 값은, 상기 제1 인덱스 값과 차분 인덱스 값을 더하여 유도된 제2 인덱스 값(DLT[ Pred[x1] ] + Res_index[x1])을 DLT에 매핑하여 깊이 값으로 변환함으로써 획득된 값이다.
상술한 바와 같이, 본 발명에서는 복잡도를 줄이기 위해서, 상기 현재 블록이 2Nx2N 크기인 경우에 상술한 단계 S700~S720을 수행할 수 있다.
상술한 예시적인 시스템에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 상술한 실시예들은 다양한 양태의 예시들을 포함한다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.

Claims (10)

  1. 깊이 맵 영상(depth-map picture)을 포함하는 3D 비디오 부호화 방법에 있어서,
    깊이 맵 영상 내 현재 블록의 인트라 예측 모드를 기반으로 유도된 상기 현재 블록의 제1 샘플의 예측된 깊이 값에 DLT(depth lookup table)을 매핑(mapping)하여, 상기 현재 블록의 제1 샘플에 대한 제1 인덱스 값을 유도하는 단계;
    상기 현재 블록의 제1 샘플의 원(original) 깊이 값에 DLT를 매핑하여, 상기 현재 블록의 제1 샘플에 대한 제2 인덱스 값을 유도하는 단계;
    상기 현재 블록의 제1 샘플에 대한 상기 제1 인덱스 값과 상기 제2 인덱스 값 사이의 차분 인덱스(residual index) 값을 유도하는 단계; 및
    상기 차분 인덱스 값을 변환, 양자화 및 엔트로피 부호화하는 단계를 포함하는 것을 특징으로 하는 3D 비디오 부호화 방법.
  2. 제1항에 있어서,
    상기 현재 블록의 크기는 2Nx2N이며,
    상기 현재 블록은 2Nx2N 개의 샘플들을 포함하는 것을 특징으로 하는 3D 비디오 부호화 방법.
  3. 제1항에 있어서,
    상기 현재 블록의 인트라 예측 모드는 DC 모드, 수직 모드, 수평 모드 및 깊이 맵 인트라 예측 모드 중 어느 하나인 것을 특징으로 하는 3D 비디오 부호화 방법.
  4. 제1항에 있어서,
    상기 DLT는 상기 깊이 맵 영상의 깊이 값을 인덱스 값으로 매핑하여 생성된 룩업 테이블인 것을 특징으로 하는 3D 비디오 부호화 방법.
  5. 제4항에 있어서,
    상기 DLT는 상기 DLT 내의 i번째 인덱스와 (i-1)번째 인덱스의 깊이 값 차이를 기반으로 상기 i번째 인덱스의 깊이 값이 유도되는 것을 특징으로 하는 3D 비디오 부호화 방법.
  6. 깊이 맵 영상(depth-map picture)을 포함하는 3D 비디오 복호화 방법에 있어서,
    깊이 맵 영상 내 현재 블록에 대한 차분 인덱스 값을 엔트로피 복호화, 역양자화 및 역변환하여 획득하는 단계;
    상기 현재 블록의 인트라 예측 모드를 기반으로 상기 현재 블록의 제1 샘플의 예측된 깊이 값을 유도하는 단계;
    상기 현재 블록의 제1 샘플의 예측된 깊이 값에 DLT를 매핑하여, 상기 현재 블록의 제1 샘플에 대한 제1 인덱스 값을 유도하는 단계; 및
    상기 현재 블록의 제1 샘플에 대해서 상기 제1 인덱스 값과 상기 차분 인덱스 값을 더하여, 상기 현재 블록의 제1 샘플의 깊이 값을 획득하는 단계를 포함하며,
    상기 현재 블록의 제1 샘플의 깊이 값은,
    상기 제1 인덱스 값과 상기 차분 인덱스 값을 더하여 유도된 제2 인덱스 값을 상기 DLT에 매핑하여 획득된 값인 것을 특징으로 하는 3D 비디오 복호화 방법.
  7. 제6항에 있어서,
    상기 현재 블록의 크기는 2Nx2N이며,
    상기 현재 블록은 2Nx2N 개의 샘플들을 포함하는 것을 특징으로 하는 3D 비디오 복호화 방법.
  8. 제6항에 있어서,
    상기 현재 블록의 인트라 예측 모드는 DC 모드, 수직 모드, 수평 모드 및 깊이 맵 인트라 예측 모드 중 어느 하나인 것을 특징으로 하는 3D 비디오 복호화 방법.
  9. 제6항에 있어서,
    상기 DLT는 상기 깊이 맵 영상의 깊이 값을 인덱스 값으로 매핑하여 생성된 룩업 테이블인 것을 특징으로 하는 3D 비디오 복호화 방법.
  10. 제9항에 있어서,
    상기 DLT는 상기 DLT 내의 i번째 인덱스와 (i-1)번째 인덱스의 깊이 값 차이를 기반으로 상기 i번째 인덱스의 깊이 값이 유도되는 것을 특징으로 하는 3D 비디오 복호화 방법.
KR1020167010026A 2013-10-18 2014-10-20 3d 비디오 부호화/복호화 방법 및 장치 KR20160072120A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361892465P 2013-10-18 2013-10-18
US61/892,465 2013-10-18
PCT/KR2014/009855 WO2015057033A1 (ko) 2013-10-18 2014-10-20 3d 비디오 부호화/복호화 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20160072120A true KR20160072120A (ko) 2016-06-22

Family

ID=52828401

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167010026A KR20160072120A (ko) 2013-10-18 2014-10-20 3d 비디오 부호화/복호화 방법 및 장치

Country Status (3)

Country Link
US (1) US20160255371A1 (ko)
KR (1) KR20160072120A (ko)
WO (1) WO2015057033A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019194498A1 (ko) * 2018-04-01 2019-10-10 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US11030480B2 (en) 2018-08-31 2021-06-08 Samsung Electronics Co., Ltd. Electronic device for high-speed compression processing of feature map of CNN utilizing system and controlling method thereof

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104079941B (zh) * 2013-03-27 2017-08-25 中兴通讯股份有限公司 一种深度信息编解码方法、装置及视频处理播放设备
CA2939170A1 (en) * 2014-03-13 2015-09-17 Qualcomm Incorporated Constrained depth intra mode coding for 3d video coding
CN105915917A (zh) * 2015-07-24 2016-08-31 乐视云计算有限公司 深度信息编码方法、解码方法及装置
CN114189680A (zh) 2016-04-26 2022-03-15 英迪股份有限公司 图像解码方法、图像编码方法以及传输比特流的方法
US11284076B2 (en) 2017-03-22 2022-03-22 Electronics And Telecommunications Research Institute Block form-based prediction method and device
US11647214B2 (en) * 2018-03-30 2023-05-09 Qualcomm Incorporated Multiple transforms adjustment stages for video coding
EP3922034B1 (en) * 2019-04-17 2024-02-07 Huawei Technologies Co., Ltd. Harmonizing matrix-based intra prediction and secondary transform core selection

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120000485A (ko) * 2010-06-25 2012-01-02 삼성전자주식회사 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법
WO2012161445A2 (ko) * 2011-05-20 2012-11-29 주식회사 케이티 단거리 인트라 예측 단위 복호화 방법 및 복호화 장치
KR20130037843A (ko) * 2011-10-07 2013-04-17 삼성전자주식회사 예측 픽셀 생성 장치 및 그 동작 방법
KR101373670B1 (ko) * 2011-11-04 2014-03-14 연세대학교 산학협력단 인트라 예측 방법 및 장치
WO2013129822A1 (ko) * 2012-02-27 2013-09-06 세종대학교산학협력단 영상 부호화와 복호화 장치 및 영상을 부호화와 복호화하는 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019194498A1 (ko) * 2018-04-01 2019-10-10 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US11030480B2 (en) 2018-08-31 2021-06-08 Samsung Electronics Co., Ltd. Electronic device for high-speed compression processing of feature map of CNN utilizing system and controlling method thereof

Also Published As

Publication number Publication date
US20160255371A1 (en) 2016-09-01
WO2015057033A1 (ko) 2015-04-23

Similar Documents

Publication Publication Date Title
US10659758B2 (en) Image encoding method and image decoding method
KR102135997B1 (ko) 심도 인트라 예측 모드들에 대한 잔차 코딩
KR20160072120A (ko) 3d 비디오 부호화/복호화 방법 및 장치
KR102269506B1 (ko) 멀티-뷰 비디오를 디코딩하는 비디오 디코딩 방법 및 장치
KR101862498B1 (ko) 비디오 코딩에서 뎁스 픽처 코딩 방법 및 장치
US20160227251A1 (en) Method and apparatus for coding multi-view video, and method and apparatus for decoding multi-view video
US20170310993A1 (en) Movement information compression method and device for 3d video coding
US10419779B2 (en) Method and device for processing camera parameter in 3D video coding
US20170310994A1 (en) 3d video coding method and device
KR20160072105A (ko) 멀티-뷰 비디오를 디코딩하는 비디오 디코딩 장치 및 방법
KR102343817B1 (ko) 멀티-뷰 비디오의 디코딩 방법 및 장치
KR20170065502A (ko) 3d 비디오 부호화/복호화 방법 및 장치
EP4109902A1 (en) Image coding method based on transform, and device therefor
US20160255368A1 (en) Method and apparatus for coding/decoding video comprising multi-view
US10397611B2 (en) Method and device for encoding/decoding 3D video
WO2015141977A1 (ko) 3d 비디오 부호화/복호화 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application