KR20080006495A - 비디오 신호의 디코딩 방법 및 장치 - Google Patents

비디오 신호의 디코딩 방법 및 장치 Download PDF

Info

Publication number
KR20080006495A
KR20080006495A KR1020070070015A KR20070070015A KR20080006495A KR 20080006495 A KR20080006495 A KR 20080006495A KR 1020070070015 A KR1020070070015 A KR 1020070070015A KR 20070070015 A KR20070070015 A KR 20070070015A KR 20080006495 A KR20080006495 A KR 20080006495A
Authority
KR
South Korea
Prior art keywords
information
block
current block
prediction
coding
Prior art date
Application number
KR1020070070015A
Other languages
English (en)
Inventor
이상헌
양정휴
이상화
조남익
최승종
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20080006495A publication Critical patent/KR20080006495A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 비디오 신호를 효율적으로 디코딩하기 위한 방법 및 장치에 관한 것이다.
현재 블록에 대하여 시간적으로 전후에 위치한 픽쳐로부터 대응 블록을 탐색하는 단계와 상기 대응 블록의 코딩 정보를 획득하는 단계 및 상기 획득된 코딩 정보를 이용하여 현재 블록의 시점 방향에 대한 코딩 정보를 예측하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다. 본 발명을 통하여 다시점 영상 코딩을 하는 경우, 시점간 상관성을 이용하여 코딩 정보를 예측함으로써 보다 효율적으로 코딩을 수행할 수 있게 된다.
다시점 비디오, 시점간 예측

Description

비디오 신호의 디코딩 방법 및 장치{A method and apparatus for decoding a video signal}
본 발명은 비디오 신호의 디코딩 방법 및 장치에 관한 것이다.
압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하는 일련의 신호 처리 기술을 의미한다. 압축 부호화의 대상에는 음성, 영상, 문자 등의 대상이 존재하며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다. 비디오 영상의 일반적인 특징은 공간적 중복성, 시간적 중복성을 지니고 있는 점에 특징이 있다.
본 발명의 목적은 비디오 신호의 코딩 효율을 높이고자 함에 있다.
본 발명의 다른 목적은 움직임 벡터를 예측하는 방법을 제공함으로써 비디오 신호를 효율적으로 코딩하고자 함에 있다.
본 발명의 또 다른 목적은 시점 방향의 움직임 정보를 예측하는 방법을 제공함으로써 비디오 신호를 효율적으로 코딩하고자 함에 있다.
상기 목적을 달성하기 위하여 본 발명은 현재 블록에 대하여 시간적으로 전후에 위치한 픽쳐로부터 대응 블록을 탐색하는 단계와 상기 대응 블록의 코딩 정보를 획득하는 단계 및 상기 획득된 코딩 정보를 이용하여 현재 블록의 시점 방향에 대한 코딩 정보를 예측하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다.
본 발명은 비디오 신호를 코딩함에 있어서, 시간 방향으로 이전 또는 이후의 픽쳐에서 획득된 움직임 정보를 이용하여 현재 블록의 움직임 정보를 예측함으로써 효율적인 코딩을 수행할 수 있다. 예를 들어, 시간 방향으로 움직임이 크게 바뀌는 경우가 아니라면, 현재 픽쳐의 움직임 정보는 시간 방향으로 이전 또는 이후의 참조 픽쳐에서 획득된 시점 방향의 움직임 정보와 큰 상관성을 가질 수 있기 때문에 보다 정확한 예측이 가능할 수 있다. 또한, 각 경우에 따라 세분화된 파티션 모드 정보 또는 예측 방향 정보를 제공함으로써 보다 효율적인 코딩이 가능할 수 있다.
상술한 목적 및 구성의 특징은 첨부된 도면과 관련하여 다음의 상세한 설명을 통하여 보다 명확해질 것이다. 이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들를 상세히 설명한다.
아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우는 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재하였으므로, 단순한 용어의 명칭이 아닌 용어가 가지는 의미로서 본 발명을 파악하여야 함을 밝혀두고자 한다.
비디오 신호 데이터를 압축 부호화하는 기술은 공간적 중복성, 시간적 중복성, 스케일러블한 중복성, 시점간 존재하는 중복성을 고려하고 있다. 또한, 이러한 압축 부호화 과정에서 시점 간 존재하는 상호 중복성을 고려하여 압축 코딩을 할 수 있다. 시점간 중복성을 고려하는 압축 코딩에 대한 기술은 본 발명의 실시예일 뿐이며, 본 발명의 기술적 사상은 시간적 중복성, 스케일러블한 중복성 등에도 적용될 수 있다.
도 1은 본 발명이 적용되는 비디오 신호 디코딩 장치의 개략적인 블록도를 나타낸다.
상기 디코딩 장치는 크게 파싱부(100), 엔트로피 디코딩부(200), 역양자화/역변환부(300), 인트라 예측부(400), 디블록킹 필터부(500), 복호 픽쳐 버퍼 부(600), 인터 예측부(700) 등을 포함한다. 그리고, 인터 예측부(700)는 조명 차분 예측부(710), 조명 보상부(720), 움직임 보상부(730), 가중치 예측부(740) 등을 포함한다.
파싱부(100)에서는 수신된 비디오 영상을 복호하기 위하여 NAL 단위로 파싱을 수행한다. 일반적으로 하나 또는 그 이상의 시퀀스 파라미터 셋과 픽쳐 파라미터 셋이 슬라이스 헤더와 슬라이스 데이터가 디코딩되기 전에 디코더로 전송된다. 이 때 NAL 헤더 영역 또는 NAL 헤더의 확장 영역에는 여러 가지 속성 정보가 포함될 수 있다. MVC는 기존 AVC 기술에 대한 추가 기술이므로 무조건적으로 추가하기보다는 MVC 비트스트림인 경우에 한해 여러 가지 속성 정보들을 추가하는 것이 더 효율적일 수 있다. 예를 들어, 상기 NAL 헤더 영역 또는 NAL 헤더의 확장 영역에서 MVC 비트스트림인지 여부를 식별할 수 있는 플래그 정보를 추가할 수 있다. 상기 플래그 정보에 따라 입력된 비트스트림이 다시점 영상 코딩된 비트스트림일 경우에 한해 다시점 영상에 대한 속성 정보들을 추가할 수 있다. 예를 들어, 상기 속성 정보들은 시간적 레벨(temporal level) 정보, 시점 레벨(view level) 정보, 인터 뷰 픽쳐 그룹 식별 정보, 시점 식별(view identification) 정보 등을 포함할 수 있다.
파싱된 비트스트림은 엔트로피 디코딩부(200)를 통하여 엔트로피 디코딩되고, 각 매크로브록의 계수, 움직임 벡터 등이 추출된다. 역양자화/역변환부(300)에서는 수신된 양자화된 값에 일정한 상수를 곱하여 변환된 계수값을 획득하고, 상기 계수값을 역변환하여 화소값을 복원하게 된다. 상기 복원된 화소값을 이용하여 인트라 예측부(400)에서는 현재 픽쳐 내의 디코딩된 샘플로부터 화면내 예측을 수행 하게 된다. 한편, 디블록킹 필터부(500)에서는 블록 왜곡 현상을 감소시키기 위해 각각의 코딩된 매크로블록에 적용된다. 필터는 블록의 가장자리를 부드럽게 하여 디코딩된 픽쳐의 화질을 향상시킨다. 필터링 과정의 선택은 경계 세기(boundary strenth)와 경계 주위의 이미지 샘플의 변화(gradient)에 의해 좌우된다. 필터링을 거친 픽쳐들은 출력되거나 참조 픽쳐로 이용하기 위해 복호 픽쳐 버퍼부(600)에 저장된다.
복호 픽쳐 버퍼부(Decoded Picture Buffer unit)(600)에서는 화면간 예측을 수행하기 위해서 이전에 코딩된 픽쳐들을 저장하거나 개방하는 역할 등을 수행한다. 이 때 복호 픽쳐 버퍼부(600)에 저장하거나 개방하기 위해서 각 픽쳐의 frame_num 과 POC(Picture Order Count)를 이용하게 된다. 따라서, MVC에 있어서 상기 이전에 코딩된 픽쳐들 중에는 현재 픽쳐와 다른 시점에 있는 픽쳐들도 있으므로, 이러한 픽쳐들을 참조 픽쳐로서 활용하기 위해서는 상기 frame_num 과 POC 뿐만 아니라 픽쳐의 시점을 식별하는 시점 정보도 함께 이용할 수 있다. 상기와 같이 관리되는 참조 픽쳐들은 인터 예측부(700)에서 이용될 수 있다.
인터 예측부(700)에서는 복호 픽쳐 버퍼부(600)에 저장된 참조 픽쳐를 이용하여 화면간 예측을 수행한다. 인터 코딩된 매크로블록은 매크로블록 파티션으로 나누어질 수 있으며, 각 매크로블록 파티션은 하나 또는 두개의 참조 픽쳐로부터 예측될 수 있다. 상기 인터 예측부(700)는 조명 차분 예측부(710), 조명 보상부(720), 움직임 보상부(730) 및 가중치 예측부(740) 등을 포함한다.
입력된 비트스트림이 다시점 영상에 해당되는 경우, 각 시점 영상(view sequence)들은 각기 다른 카메라에서 취득된 영상들이기 때문에 카메라의 내외적 요인으로 인하여 조명(illumination) 차이가 발생하게 된다. 이를 방지하기 위해서 조명 보상부(720)에서는 조명 보상(illumination compensation)을 수행하게 된다. 조명 보상을 수행함에 있어서, 비디오 신호의 일정 계층에 대한 조명 보상 수행여부를 나타내는 플래그 정보를 이용할 수 있다. 예를 들어, 해당 슬라이스 또는 해당 매크로블록의 조명 보상 수행여부를 나타내는 플래그 정보를 이용하여 조명 보상을 수행할 수 있다. 또한, 상기 플래그 정보를 이용하여 조명 보상을 수행함에 있어서, 여러 가지 매크로블록의 타입(예를 들어, 인터16×16모드 또는 B-skip모드 또는 직접 모드 등)에 적용될 수 있다.
또한, 조명 보상을 수행함에 있어서, 현재 블록을 복원하기 위하여 주변 블록의 정보 또는 현재 블록과 다른 시점에 있는 블록의 정보를 이용할 수 있으며, 현재 블록의 조명 차분값을 이용할 수도 있다. 이 때 현재 블록이 다른 시점에 있는 블록들을 참조하게 되는 경우, 상기 복호 픽쳐 버퍼부(600)에 저장되어 있는 시점간 예측을 위한 참조 픽쳐 리스트에 대한 정보를 이용하여 조명 보상을 수행할 수 있다. 여기서 현재 블록의 조명 차분 값이란, 현재 블록의 평균 화소값과 그에 대응하는 참조 블록의 평균 화소값 사이의 차이를 말한다. 상기 조명 차분 값을 이용하는 일례로, 상기 현재 블록의 이웃 블록들을 이용하여 상기 현재 블록의 조명 차분 예측값을 획득하고, 상기 조명 차분 값과 상기 조명 차분 예측값와의 차이값인 조명 차분 레지듀얼(IC offset residual)을 이용할 수 있다. 따라서, 디코딩부에서는 상기 조명 차분 레지듀얼과 상기 조명 차분 예측값을 이용하여 상기 현재 블록의 조명 차분 값을 복원할 수 있다. 또한, 현재 블록의 조명 차분 예측값을 획득함에 있어서, 이웃 블록의 정보를 이용할 수 있다. 예를 들어, 이웃 블록의 조명 차분 값을 이용하여 현재 블록의 조명 차분 값을 예측할 수 있는데, 이에 앞서 상기 현재 블록의 참조 번호(reference index)와 상기 이웃 블록의 참조 번호가 동일한지 여부를 확인하고, 그 확인 결과에 따라 어떤 이웃 블록을 이용할지, 또는 어떤 값을 이용할지가 결정될 수 있다.
움직임 보상부(730)에서는 엔트로피 디코딩부(200)로부터 전송된 정보들을 이용하여 현재 블록의 움직임을 보상한다. 비디오 신호로부터 현재 블록에 이웃하는 블록들의 움직임 벡터를 추출하고, 상기 현재 블록의 움직임 벡터 예측값을 획득한다. 상기 획득된 움직임 벡터 예측값과 상기 비디오 신호로부터 추출되는 차분 벡터를 이용하여 현재 블록의 움직임을 보상한다. 또한, 이러한 움직임 보상은 하나의 참조 픽쳐를 이용하여 수행될 수도 있고, 복수의 픽쳐를 이용하여 수행될 수도 있다. 다시점 비디오 코딩에 있어서, 현재 픽쳐가 다른 시점에 있는 픽쳐들을 참조하게 되는 경우, 상기 복호 픽쳐 버퍼부(600)에 저장되어 있는 시점간 예측을 위한 참조 픽쳐 리스트에 대한 정보를 이용하여 움직임 보상을 수행할 수 있다. 또한, 그 픽쳐의 시점을 식별하는 시점 정보를 이용하여 움직임 보상을 수행할 수도 있다. 또한, 직접 예측 모드(direct mode)는 부호화가 끝난 블록의 움직임 정보로부터 현재 블록의 움직임 정보를 예측하는 부호화 모드이다. 이러한 방법은 움직임 정보를 부호화할 때 필요한 비트수가 절약되기 때문에 압축 효율이 향상된다. 예를 들어, 시간 직접 예측 모드(temporal direct mode)는 시간 방향의 움직임 정보 상 관도를 이용하여 현재 블록의 움직임 정보를 예측하게 된다.
이 방법과 유사하게 본 발명에서는 시점 방향의 코딩 정보 상관도를 이용하여 현재 블록의 코딩 정보를 예측할 수 있다. 예를 들어, 상기 코딩 정보에는 움직임 정보, 예측 방향 정보, 파티션 정보, 또는 조명 보상 정보 등을 포함할 수 있다. 그 구체적 예로, 다시점 비디오 코딩에서 GOP(Group of Picture) 내의 B 픽쳐들은 시간 방향의 픽쳐뿐 아니라 시점 방향의 픽쳐들을 참조 픽쳐으로 가질 수 있다. 각 픽쳐의 매크로블록들은 시간 방향과 시점 방향의 참조 매크로블록을 가질 수 있으므로 매크로블록의 움직임 벡터들 역시 시간 방향으로 구해질 수도 있고 시점 방향으로도 구해질 수도 있게 된다. 따라서 움직임 벡터 예측값을 획득할 때, 주위 매크로블록들의 움직임 벡터들이 시간 방향에서 구해졌는지 또는 시점 방향에서 구해졌는지에 따라 상기 움직임 벡터 예측값의 차이가 있을 수 있다. 또한, 시점 방향의 움직임 벡터들은 시간 방향으로 움직임이 매우 크거나 갑자기 장면이 바뀌는 경우를 제외하면, 시간 방향으로 이전 또는 이후의 참조 픽쳐에서 얻어진 시점 방향의 움직임 벡터들과 큰 상관성을 가지게 될 것이다. 이러한 특성들을 이용한다면 보다 정확한 예측이 가능할 수 있다. 이는 도 2 및 도 5에서 상세히 설명하도록 한다.
가중치 예측부(740)는 밝기가 시간적으로 변화하는 영상을 부호화할 때 영상의 화질이 크게 열화되는 현상을 보상하기 위해 이용된다. MVC에서는 시간적으로 밝기가 변화하는 영상뿐만 아니라 다른 시점에 있는 영상과의 밝기 차이를 보상하기 위해 가중치 예측이 수행될 수 있다. 예를 들어, 가중치 예측 방법에는 명시 적(explicit) 가중치 예측 방법과 암시적(implicit) 가중치 예측 방법이 있다. 상기 명시적 가중치 예측 방법에는 한 장의 참조 픽쳐를 이용하는 경우 또는 두 장의 참조 픽쳐를 이용하는 경우가 있다. 한 장의 참조 픽쳐를 이용하는 경우에는 움직임 보상에 해당하는 예측 신호에 가중치 계수를 곱해서 예측 신호를 생성하고, 두 장의 참조 픽쳐를 이용하는 경우에는 움직임 보상에 해당하는 예측 신호에 가중치 계수를 곱한 값에 오프셋 값을 더하여 예측 신호를 생성한다. 암시적 가중치 예측 방법은 참조 픽쳐로부터의 거리를 이용하여 가중치 예측을 수행한다. 상기 참조 픽쳐로부터의 거리를 구하는 방법으로는, 예를 들어, 픽쳐의 출력 순서를 나타내는 값인 POC(Picture Order Count)를 이용하는 경우가 있는데, 상기 POC는 각 픽쳐의 시점을 구분할 수 있도록 고려하여 만들어진 POC이다. 또는, 다른 시점에 있는 픽쳐에 대하여 가중치 계수를 획득할 때, 각 픽쳐의 시점 사이의 거리를 계산하기 위하여 픽쳐의 시점을 식별하는 시점 정보가 이용될 수 있다.
또한, 비디오 신호 코딩에 있어서, 특정 어플리케이션을 위해서 또는 다른 목적을 위해서 깊이 정보를 이용할 수 있다. 깊이 정보란, 시점 간의 변이 차이를 나타낼 수 있는 정보를 의미할 수 있다. 예를 들어, 시점 간의 예측을 통해서 변이 벡터를 획득할 수 있는데 상기 획득된 변이 벡터는 현재 블록의 변이 보상을 위해 디코딩 장치에 전송되어야 한다. 하지만, 깊이 맵을 구하여 이를 디코딩 장치에 전송하게 될 경우, 상기 변이 벡터를 디코딩 장치에 전송할 필요없이 상기 깊이 맵(depth map)(또는 변이 맵(disparity map))으로부터 상기 변이 벡터를 유추해낼 수 있다. 이러한 경우, 디코딩 장치에 전송되어져야 할 깊이 정보의 비트수를 감소 시킬 수 있는 장점이 있다. 따라서, 상기 깊이 맵으로부터 변이 벡터를 유추함으로써 새로운 변이 보상하는 방법이 제공될 수 있다. 위와 같이 상기 깊이 맵으로부터 변이 벡터를 유추하는 과정에서 다른 시점의 픽쳐를 이용할 경우, 픽쳐의 시점을 식별할 수 있는 시점 정보가 이용될 수 있다.
상기와 같은 과정을 통해 인터 예측된 픽쳐들과 인트라 예측된 픽쳐들은 예측 모드에 따라 선택되어 현재 픽쳐를 복원하게 된다. 이하에서는 비디오 신호의 효율적인 디코딩 방법을 제공하기 위한 다양한 실시예들을 설명하도록 한다.
도 2는 본 발명이 적용되는 실시예로서, 현재 블록의 코딩 정보를 예측하는 방법을 설명하기 위한 도면이다.
시점 방향의 코딩 정보 상관도를 이용하여 현재 블록의 코딩 정보를 예측할 경우 보다 정확하게 예측할 수 있다. 또한, 현재 픽쳐의 코딩 정보는 시간 방향으로 이전 또는 이후의 참조 픽쳐에서 얻어진 코딩 정보들과 큰 상관성을 가지게 될 것이다. 이러한 특성들을 이용한다면 보다 정확한 예측이 가능할 수 있다. 그 구체적인 실시예들을 상기 도 2를 통해 설명하도록 한다.
상기 도 2에서 가로축은 시간축(…,T1,T2,T3,…)을 나타내며, 편의상 현재 픽쳐를 기준으로 볼 때 이전 시간에 있는 픽쳐의 방향을 포워드 방향, 이후 시간에 있는 픽쳐의 방향을 백워드 방향이라고 한다. 마찬가지로 세로축은 시점축(…,V1,V2,V3,…)을 나타내며, 편의상 현재 픽쳐를 기준으로 볼 때 이전 시점(V1)에 있는 픽쳐의 방향을 포워드 방향, 이후 시점(V3)에 있는 픽쳐의 방향을 백워드 방향이 라고 한다.
본 발명의 일실시예로서, 시간 방향으로 현재 픽쳐의 이전 또는 이후의 픽쳐에서 얻어낸 움직임 정보들을 이용하여 상기 현재 픽쳐의 시점 방향 움직임 정보들을 예측할 수 있다. 이러한 방법은 모드 정보를 이용할 수도 있다. 예를 들어, 움직임 정보 예측 모드를 정의하여 상기 움직임 정보 예측 모드가 적용될지 여부를 알려줄 수 있다. 그리고, 현재 블록의 시점 방향 움직임 정보들을 예측할 때, 시간 방향으로 상기 현재 픽쳐의 이전 또는 이후 픽쳐에서 상기 현재 블록과 동일 위치에 있는 블록(co-located block)을 이용할 수 있다. 또는, 현재 블록의 이웃블록들로부터 시간 방향 움직임벡터를 예측하여, 이 움직임벡터가 가리키는 블록을 이용할 수 있다.
예를 들어, 상기 움직임 정보 예측 모드가 적용되는 경우, 시간 방향으로 상기 현재 픽쳐의 이전(R1) 또는 이후(R2) 픽쳐에서 상기 현재 블록과 동일 위치( 또는, 시간방향 움직임벡터가 가리키는 위치)에 있는 블록의 움직임 정보를 그대로 사용할 수 있다. 예를 들면, 예측 방향 정보와 파티션 정보, 움직임 벡터값을 그대로 사용할 수 있다. 이 경우에는 이 모드가 적용되는 것을 알려주는 플래그 정보와 블록 텍스쳐 차분값이 코딩될 수 있다. 다른 실시예로서, 예측 방향 정보와 파티션 정보를 그대로 사용할 수 있다. 그리고, 상기 동일 위치에 있는 블록의 움직임 벡터값(mv1,mv2,mv3,mv4)을 상기 현재 블록의 움직임 벡터 예측값(mvpL0,mvpL1))으로 사용할 수 있다. 따라서, 상기 움직임 정보 예측 모드가 적용되는 경우에는 이 모드가 적용되는 것을 알려주는 플래그 정보와 움직임 벡터 차분값, 그리고 블록 텍 스쳐 차분값이 코딩될 수 있다.
다른 실시예로서, 상기 예에서 상기 현재 블록의 예측 방향 정보와 파티션 정보는 상기 동일 위치( 또는, 시간방향 움직임벡터가 가리키는 위치)에 있는 블록의 예측 방향 정보와 파티션 정보를 그대로 사용하지 않을 수 있다. 예를 들어, 상기 동일 위치에 있는 블록의 움직임 벡터값만 상기 현재 블록의 움직임 벡터 예측값으로 이용하고, 상기 현재 블록의 예측 방향 정보와 파티션 정보는 상기 현재 블록에 이웃하는 블록들로부터 유도될 수 있다. 이 경우에는 상기 예측 방향 정보와 파티션 정보까지 모두 코딩될 수 있다.
또 다른 실시예로서, 현재 픽쳐가 시점 방향으로 하나의 참조 픽쳐만을 가질 수 있을 때 상기 현재 픽쳐의 코딩 정보를 예측하는 방법을 설명하도록 한다. 예를 들어, 현재 픽쳐가 시점 방향으로 포워드 예측만 가능할 때, 또는 참조 픽쳐는 복수개이나 시점 방향으로 포워드 예측만이 가능할 때 현재 픽쳐의 코딩 정보를 예측하는 방법을 말한다. 구체적인 예로, 현재 픽쳐를 기준으로 할 때, 시간 방향으로 포워드 방향과 백워드 방향의 참조 픽쳐(R1,R2)가 있다고 하자. 상기 참조 픽쳐들 중에서 상기 현재 블록과 대응 위치에 있는 블록의 코딩 정보를 살펴본다. 그리고 상기 참조 픽쳐의 대응 위치에 있는 블록들이 시점 방향의 참조 픽쳐를 가지고 있는지, 또는 시간 방향의 참조 픽쳐를 가지고 있는지를 살펴본다.
만약 상기 참조 픽쳐의 대응 위치에 있는 블록들이 모두 시간 방향의 참조 픽쳐만을 가지고 있다면, 상기 현재 블록은 상기 참조 픽쳐의 대응 위치에 있는 블록들의 코딩 정보를 이용하지 않을 수 있다. 그러나, 만약 상기 참조 픽쳐의 대응 위치에 있는 블록들 중 어느 하나만 시점 방향의 참조 픽쳐를 가지고 있다면, 그 블록의 코딩 정보를 이용하여 상기 현재 블록의 시점 방향 코딩 정보를 예측할 수 있다.
또한, 만약 시간 방향으로 포워드 방향과 백워드 방향의 참조 픽쳐(R1,R2)가 모두 시점 방향의 픽쳐를 참조하고 있다면, 현재 블록의 코딩 정보는 상기 두 참조 픽쳐 중 어느 하나만의 코딩 정보로부터 예측될 수 있다. 상기 두 참조 픽쳐 중 어느 하나만의 코딩 정보를 이용하는 것은 미리 정해진 약속에 따라 결정되어 질 수 있다. 예를 들어, 상기 코딩 정보 중 파티션 정보를 예측하게 될 경우, 상기 두 참조 픽쳐의 파티션 정보를 파악하고 그 중에서 보다 작은 크기의 파티션을 가지는 참조 픽쳐의 파티션 정보를 이용할 수 있다. 즉, 현재 블록의 파티션 정보는 상기 두 참조 픽쳐 중 보다 작은 크기의 파티션을 가지는 참조 픽쳐의 파티션 정보로부터 예측될 수 있다. 그 구체적 실시예는 도 3에서 상세히 설명하도록 한다.
도 3은 본 발명이 적용되는 실시예로서, 시간 방향으로 포워드 방향과 백워드 방향의 참조 블록이 모두 시점 방향의 블록을 참조하고 있는 경우, 현재 블록의 파티션 정보를 예측하기 위해 상기 두 참조 블록의 파티션 정보 중 어느 하나를 선택하기 위한 다양한 예들을 나타낸다.
현재 블록의 파티션 정보를 예측하기 위해 복수개의 참조 블록의 파티션 정보 중 어느 하나를 선택하게 될 경우, 상기 복수개의 참조 블록의 파티션 정보 중에서 보다 작은 파티션을 가지는 참조 블록의 파티션 정보를 이용할 수 있다. 또한, 시간 방향으로 포워드 방향과 백워드 방향의 참조 블록의 파티션 정보가 모두 동일한 파티션 정보를 가지고 있다면, 현재 블록의 파티션 정보도 동일한 정보로 예측할 수 있다. 그러나, 다른 정보를 가지고 있는 경우에는 선택을 할 수 있다. 예를 들어, 시간 방향으로 포워드 방향의 참조 블록의 파티션 정보가 직접 모드(direct mode)를 나타내고 백워드 방향의 참조 블록의 파티션 정보는 16X16, 16X8, 8X16 또는 8X8 인 경우에는 현재 블록의 파티션 정보를 각각 16X16, 16X8, 8X16 또는 8X8 으로 예측할 수 있다. 또는 시간 방향으로 포워드 방향의 참조 블록의 파티션 정보가 16X8을 나타내고 백워드 방향의 참조 블록의 파티션 정보는 8X8 인 경우, 보다 세분화된 파티션인 8X8을 현재 블록의 파티션 정보 예측값으로 이용할 수 있다. 또는 시간 방향으로 포워드 방향의 참조 블록의 파티션 정보가 8X16을 나타내고 백워드 방향의 참조 블록의 파티션 정보는 16X8 인 경우 보다 세분화된 파티션인 8X8을 현재 블록의 파티션 정보 예측값으로 이용할 수 있다.
상기 도 3에서의 파티션 정보에 대한 예들은 대응 위치에 있는 블록의 코딩 정보를 사용하고자 하지 않을 때는 적용되지 않을 수 있다. 이 때는 대응 블록의 시점 방향 코딩 정보만 이용하여 현재 블록의 시점 방향 코딩 정보를 예측할 수 있다. 예를 들면, 참조 블록의 파티션 정보와 현재 블록의 파티션 정보가 일치하는 경우에는 대응 블록의 시점 방향의 움직임 벡터를 그대로 사용할 수 있다. 이 때, 만약 포워드 방향과 백워드 방향으로 모두 참조 블록이 존재하는 경우에는 양 방향에서 해당하는 파티션의 시점 방향의 움직임 벡터들을 평균하거나 시간축 상의 거리의 비로 가중치를 적용하여 시점 방향의 움직임 벡터 예측값을 구할 수 있다. 또는 주어진 약속에 따라 어느 한 방향의 정보만 이용할 수도 있다.
또한, 참조 블록의 파티션 정보와 현재 블록의 파티션 정보가 일치하지 않는 경우에는 블록 내 각 움직임 벡터들을 평균해서 이용하게 된다. 예를 들어, 현재 블록의 파티션 정보가 16x16 블록인데 참조 블록이 16x8로 예측되어 있는 경우에는 상기 16x8 참조 블록 2개의 움직임 벡터의 평균을 상기 16x16 현재 블록의 움직임 벡터 예측값으로 사용할 수 있다. 또는 포워드 방향과 백워드 방향으로 모두 참조 블록이 존재하는 경우에는 앞서 말한 방법대로 각 방향마다 상기 참조 블록 내 파티션들의 각 움직임 벡터들을 평균해서 움직임 벡터 예측값을 구한 후, 양 방향에서 해당하는 시점 방향의 움직임 벡터를 평균하거나 시간축 상의 거리의 비로 가중치를 적용하여 최종 움직임 벡터 예측값을 구하게 된다. 또는 주어진 약속에 따라 어느 한 방향의 벡터만 이용할 수도 있다.
또한, 시간 방향으로 포워드 방향과 백워드 방향의 참조 픽쳐(R1,R2)가 모두 시점 방향의 픽쳐를 참조하고 있더라도, 상기 예에서와 같이 상기 두 참조 픽쳐(R1,R2) 중 하나만 이용할 수 있다. 예를 들어, 포워드 방향의 참조 픽쳐(R1)만을 이용하여 현재 블록의 코딩 정보를 예측하거나, 또는 백워드 방향의 참조 픽쳐(R2)만을 이용하여 현재 블록의 코딩 정보를 예측할 수 있다.
또는 상기 두 참조 픽쳐(R1,R2)를 모두 이용했는지, 아니면 포워드 또는 백워드 방향의 참조 픽쳐 하나만을 이용했는지를 나타내는 플래그 정보를 이용하여 알려줄 수도 있다.
또 다른 실시예로서, 현재 픽쳐가 시점 방향으로 복수개의 참조 픽쳐를 가질 수 있을 때 상기 현재 픽쳐의 코딩 정보를 예측하는 방법을 설명하도록 한다. 예를 들어, 시점 방향으로 포워드 예측, 백워드 예측 및 쌍 예측(bi-directional prediction)이 모두 가능할 때 현재 픽쳐의 코딩 정보를 예측하는 방법을 말한다. 이 경우에도 상기 실시예들에서 설명한 바와 마찬가지로 동일한 방식으로 적용될 수 있다.
다른 실시예로서, 만약 시간 방향으로 포워드 방향과 백워드 방향의 참조 픽쳐(R1,R2)가 모두 시점 방향의 픽쳐를 참조하고 있다면, 현재 블록의 코딩 정보는 상기 두 참조 픽쳐 중 어느 하나만의 코딩 정보로부터 예측될 수 있다. 상기 두 참조 픽쳐 중 어느 하나만의 코딩 정보를 이용하는 것은 미리 정해진 정보에 따라 결정되어 질 수 있다. 예를 들어, 상기 코딩 정보 중 예측 방향 정보를 예측하게 될 경우, 상기 두 참조 픽쳐의 예측 방향 정보를 파악하고 상기 모두를 포괄할 수 있는 참조 픽쳐의 예측 방향 정보를 이용할 수 있다. 그 구체적 실시예는 도 4에서 상세히 설명하도록 한다.
도 4는 본 발명이 적용되는 실시예로서, 시간 방향으로 포워드 방향과 백워드 방향의 참조 픽쳐가 모두 시점 방향의 픽쳐를 참조하고 있는 경우, 현재 블록의 예측 방향 정보를 예측하기 위해 상기 두 참조 픽쳐의 예측 방향 정보 중 어느 하나를 선택하기 위한 다양한 예들을 나타낸다.
현재 블록의 예측 방향 정보를 예측하기 위해 복수개의 참조 블록의 예측 방향 정보 중 어느 하나를 선택하게 될 경우, 상기 복수개의 참조 블록의 예측 방향 정보 중에서 상기 모두를 포괄할 수 있는 참조 픽쳐의 예측 방향 정보를 이용할 수 있다. 또한, 시간 방향으로 포워드 방향과 백워드 방향의 참조 블록의 예측 방향 정보가 모두 동일한 예측 방향 정보를 가지고 있다면, 현재 블록의 예측 방향 정보도 동일한 정보로 예측할 수 있다. 그러나, 다른 정보를 가지고 있는 경우에는 선택을 할 수 있다. 예를 들어, 시간 방향으로 포워드 방향의 참조 블록의 예측 방향 정보가 시점 방향으로 포워드 방향을 나타내고, 시간 방향으로 백워드 방향의 참조 블록의 예측 방향 정보는 시점 방향으로 백워드 방향인 경우에는 현재 블록의 예측 방향 정보는 쌍 방향(bi-directional)으로 예측할 수 있다. 또는 시간 방향으로 포워드 방향의 참조 블록의 예측 방향 정보가 시점 방향으로 쌍 방향을 나타내고, 시간 방향으로 백워드 방향의 참조 블록의 예측 방향 정보가 시점 방향으로 포워드 또는 백워드 방향인 경우 이를 모두 포괄할 수 있는 쌍 방향을 현재 블록의 예측 방향 정보로 예측할 수 있다.
도 5는 본 발명이 적용되는 실시예로서, 현재 블록의 시점 방향에 대한 코딩 정보를 예측하는 방법을 설명하기 위한 흐름도를 나타낸다.
먼저 비디오 신호로부터 시점간 코딩 정보 예측 모드 정보를 획득할 수 있다(S310). 그리고 상기 예측 모드 정보에 의해 시점간 코딩 정보 예측이 적용되는 경우, 현재 블록을 기준으로 시간 방향의 참조 블록이 시점 방향에 대한 코딩 정보를 가지고 있는지를 확인한다(S320). 여기서, 상기 참조 블록은 상기 현재 블록과 동일한 위치에 있는(co-located) 블록일 수 있다. 또는, 상기 현재블록의 이웃블록들로부터 유도된 움직임벡터가 가리키는 블록일 수 있다. 이 때 상기 참조 블록이 시점 방향에 대한 코딩 정보를 가지고 있지 않은 경우, 상기 현재 블록은 상기 현재 블록에 이웃하는 블록들의 코딩 정보를 이용하여 상기 현재 블록의 코딩 정보를 예측할 수 있다(S330). 그러나, 상기 참조 블록이 시점 방향에 대한 코딩 정보를 가지고 있는 경우에는 다양한 방법이 적용될 수 있다. 예를 들어, 상기 참조 블록들 중 시점 방향의 코딩 정보를 가지고 참조 블록이 몇 개인지를 확인한다(S340). 상기 참조 블록들 중 복수개의 참조 블록이 시점 방향의 코딩 정보를 가지고 있는 경우에는 상기 참조 블록의 코딩 정보를 이용하여 상기 현재 블록의 코딩 정보를 예측할 수 있다. 예를 들어, 상기 참조 블록의 파티션 정보 또는 예측 방향 정보 등을 미리 정해진 약속에 따라 상기 현재 블록의 파티션 정보 또는 예측 방향 정보의 예측값으로 이용할 수 있다(S350). 또한, 상기 참조 블록들 중 어느 하나의 참조 블록만이 시점 방향의 코딩 정보를 가지고 있는 경우에는 상기 참조 블록이 시간 방향의 코딩 정보도 가지고 있는지를 확인한다(S360). 확인한 결과, 상기 참조 블록이 시간 방향의 코딩 정보를 가지고 있지 않은 경우에는 상기 참조 블록의 시점 방향에 대한 코딩 정보를 상기 현재 블록의 코딩 정보의 예측값으로 이용할 수 있다(S370). 이러한 정보를 이용하지 못하는 경우에는 상기 현재 블록에 이웃하는 블록들의 코딩 정보를 이용하여 상기 현재 블록의 코딩 정보 예측값을 획득할 수 있다(S330).
도 1은 본 발명이 적용되는 비디오 신호 디코딩 장치의 개략적인 블록도를 나타낸다.
도 2는 본 발명이 적용되는 실시예로서, 현재 블록의 코딩 정보를 예측하는 방법을 설명하기 위한 도면이다.
도 3은 본 발명이 적용되는 실시예로서, 시간 방향으로 포워드 방향과 백워드 방향의 참조 픽쳐가 모두 시점 방향의 픽쳐를 참조하고 있는 경우, 현재 블록의 파티션 정보를 예측하기 상기 두 참조 픽쳐의 파티션 정보 중 어느 하나를 선택하기 위한 다양한 예들을 나타낸다.
도 4는 본 발명이 적용되는 실시예로서, 시간 방향으로 포워드 방향과 백워드 방향의 참조 픽쳐가 모두 시점 방향의 픽쳐를 참조하고 있는 경우, 현재 블록의 예측 방향 정보를 예측하기 상기 두 참조 픽쳐의 예측 방향 정보 중 어느 하나를 선택하기 위한 다양한 예들을 나타낸다.
도 5는 본 발명이 적용되는 실시예로서, 현재 블록의 시점 방향에 대한 코딩 정보를 예측하는 방법을 설명하기 위한 흐름도를 나타낸다.

Claims (10)

  1. 현재 블록에 대하여 시간적으로 전후에 위치한 픽쳐로부터 대응 블록을 탐색하는 단계;
    상기 대응 블록의 코딩 정보를 획득하는 단계; 및
    상기 획득된 코딩 정보를 이용하여 현재 블록의 시점 방향에 대한 코딩 정보를 예측하는 단계
    를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.
  2. 제 1항에 있어서,
    상기 대응 블록은 상기 현재 블록과 동일한 위치(co-located)에 있는 참조 블록인 것을 특징으로 하는 비디오 신호 디코딩 방법.
  3. 제 1항에 있어서,
    상기 대응 블록은 상기 현재 블록에 이웃하는 블록의 움직임 벡터가 가리키는 블록인 것을 특징으로 하는 비디오 신호 디코딩 방법.
  4. 제 1항 내지 제 3항 중 어느 한 항에 있어서,
    상기 코딩 정보는 예측 방향 정보, 파티션 정보 및/또는 움직임 벡터 정보를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.
  5. 제 1항에 있어서,
    상기 대응 블록이 다른 시점에 있는 블록을 이용하여 예측된 경우,
    상기 대응 블록의 시점간 코딩 정보를 이용하여 상기 현재 블록의 시점 방향에 대한 코딩 정보를 예측하는 것을 특징으로 하는 비디오 신호 디코딩 방법.
  6. 제 5항에 있어서,
    상기 대응 블록이 시간 방향으로 포워드 또는 백워드 중 어느 한 방향의 대응 블록이면서 다른 시점에 있는 블록을 이용하여 예측된 경우, 상기 대응 블록의 시점 방향 움직임 벡터를 이용하여 현재 블록의 시점 방향 움직임 벡터를 예측하는 것을 특징으로 하는 비디오 신호 디코딩 방법.
  7. 제 5항에 있어서, 상기 비디오 신호 디코딩 방법은,
    상기 대응 블록이 시간 방향으로 2 이상의 참조 블록들을 포함하고, 상기 2이상의 참조 블록들이 각각 다른 시점에 있는 블록을 이용하여 예측된 경우, 미리 정해진 정보에 따라 현재 블록의 파티션 정보를 생성하는 단계를 더 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.
  8. 제 5항에 있어서, 상기 비디오 신호 디코딩 방법은,
    상기 대응 블록이 시간 방향으로 2 이상의 참조 블록들을 포함하고, 상기 2 이상의 참조 블록이 각각 2 이상의 다른 시점에 있는 블록을 이용하여 예측된 경우, 미리 정해진 정보에 따라 현재 블록의 예측 방향 정보를 생성하는 단계를 더 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.
  9. 제 5항에 있어서,
    상기 대응 블록이 시간 방향 및 시점 방향의 픽쳐 모두를 참조하여 예측된 경우, 상기 현재 블록의 코딩 정보는 상기 대응 블록의 이웃 블록들의 코딩 정보를 이용하여 획득되는 것을 특징으로 하는 비디오 신호 디코딩 방법.
  10. 제 5항에 있어서, 상기 비디오 신호 디코딩 방법은,
    상기 비디오 신호로부터 시점간 움직임 벡터 예측 모드 정보를 획득하는 단계와;
    상기 시점간 움직임 벡터 예측 모드 정보에 따라, 상기 대응 블록의 미리 결정된 파티션 모드 정보 또는/및 예측 방향 정보를 획득하는 단계를 더 포함하고,
    상기 미리 결정된 파티션 모드 정보 또는/및 예측 방향 정보를 이용하여 상기 현재 블록의 파티션 모드 정보 또는/및 예측 방향 정보를 예측하는 것을 특징으로 하는 비디오 신호 디코딩 방법.
KR1020070070015A 2006-07-12 2007-07-12 비디오 신호의 디코딩 방법 및 장치 KR20080006495A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US83008706P 2006-07-12 2006-07-12
US60/830,087 2006-07-12

Publications (1)

Publication Number Publication Date
KR20080006495A true KR20080006495A (ko) 2008-01-16

Family

ID=39220258

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020070070014A KR20080006494A (ko) 2006-07-12 2007-07-12 비디오 신호의 디코딩 방법 및 장치
KR1020070070015A KR20080006495A (ko) 2006-07-12 2007-07-12 비디오 신호의 디코딩 방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020070070014A KR20080006494A (ko) 2006-07-12 2007-07-12 비디오 신호의 디코딩 방법 및 장치

Country Status (1)

Country Link
KR (2) KR20080006494A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100947447B1 (ko) * 2008-05-26 2010-03-11 한국전자통신연구원 다시점 동영상 부호화에서 고속 모드 결정 방법 및 장치
WO2011096770A2 (ko) * 2010-02-02 2011-08-11 (주)휴맥스 영상 부호화/복호화 장치 및 방법
KR101158491B1 (ko) * 2008-12-08 2012-06-20 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013051899A2 (ko) * 2011-10-05 2013-04-11 한국전자통신연구원 스케일러블 비디오 부호화 및 복호화 방법과 이를 이용한 장치
WO2018062892A1 (ko) * 2016-09-28 2018-04-05 엘지전자(주) 가중치 인덱스에 기초하여 최적의 예측을 수행하는 방법 및 장치

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100947447B1 (ko) * 2008-05-26 2010-03-11 한국전자통신연구원 다시점 동영상 부호화에서 고속 모드 결정 방법 및 장치
KR101158491B1 (ko) * 2008-12-08 2012-06-20 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.
KR101466849B1 (ko) * 2008-12-08 2014-12-03 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.
US9143796B2 (en) 2008-12-08 2015-09-22 Electronics And Telecommunications Research Institute Multi-view video coding/decoding method and apparatus
WO2011096770A2 (ko) * 2010-02-02 2011-08-11 (주)휴맥스 영상 부호화/복호화 장치 및 방법
WO2011096770A3 (ko) * 2010-02-02 2011-12-29 (주)휴맥스 영상 부호화/복호화 장치 및 방법

Also Published As

Publication number Publication date
KR20080006494A (ko) 2008-01-16

Similar Documents

Publication Publication Date Title
JP7248741B2 (ja) デプスマップの推定および更新を用いる効率的なマルチビュー符号化
US20220060736A1 (en) Method and an apparatus for processing a video signal
JP5021739B2 (ja) 信号処理方法及び装置
KR101276720B1 (ko) 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체
US11909960B2 (en) Method and apparatus for processing video signal
US8553073B2 (en) Processing multiview video
US20070177671A1 (en) Processing multiview video
KR20150109282A (ko) 다시점 비디오 신호 처리 방법 및 장치
JP2016536817A (ja) 3dビデオコーディング用の結合双予測マージング候補
JP2010525724A (ja) ビデオ信号をデコーディング/エンコーディングする方法および装置
KR20090113281A (ko) 비디오 신호 처리 방법 및 장치
KR101631183B1 (ko) 다시점 화상 부호화 방법, 다시점 화상 복호 방법, 다시점 화상 부호화 장치, 다시점 화상 복호 장치 및 그 프로그램
CN106664423B (zh) 视频编译中的深度图片编译方法
EP2207356A1 (en) Method and apparatus for video coding using large macroblocks
KR20140046385A (ko) 비디오 데이터 디코딩 방법 및 비디오 데이터 디코딩 장치
US20230291931A1 (en) Method and device for deriving inter-view motion merging candidate
KR20120095611A (ko) 다시점 비디오 부호화/복호화 방법 및 장치
EP3059968A1 (en) Method and apparatus for decoding multi-view video
KR20080006495A (ko) 비디오 신호의 디코딩 방법 및 장치
KR101366289B1 (ko) 비디오 신호의 디코딩/인코딩 방법 및 장치
KR20080029788A (ko) 비디오 신호의 디코딩 방법 및 장치
WO2015056647A1 (ja) 映像符号化装置及び方法、及び、映像復号装置及び方法
KR20080029944A (ko) 비디오 신호 처리 방법 및 장치
KR20080007177A (ko) 비디오 신호 처리 방법 및 장치

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination