KR20130099243A - 인터 예측 부호화 방법 - Google Patents

인터 예측 부호화 방법 Download PDF

Info

Publication number
KR20130099243A
KR20130099243A KR1020137020886A KR20137020886A KR20130099243A KR 20130099243 A KR20130099243 A KR 20130099243A KR 1020137020886 A KR1020137020886 A KR 1020137020886A KR 20137020886 A KR20137020886 A KR 20137020886A KR 20130099243 A KR20130099243 A KR 20130099243A
Authority
KR
South Korea
Prior art keywords
motion vector
prediction unit
candidate
unit
reference picture
Prior art date
Application number
KR1020137020886A
Other languages
English (en)
Other versions
KR101430049B1 (ko
Inventor
오수미
Original Assignee
엠앤케이홀딩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45839101&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR20130099243(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 엠앤케이홀딩스 주식회사 filed Critical 엠앤케이홀딩스 주식회사
Publication of KR20130099243A publication Critical patent/KR20130099243A/ko
Application granted granted Critical
Publication of KR101430049B1 publication Critical patent/KR101430049B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes

Abstract

본 발명에 따른 인터 예측 부호화 방법은 현재 예측 유닛의 움직임 벡터와 참조픽쳐 인덱스를 결정하고, 상기 현재 예측 유닛과 인접하는 미리 정해진 위치의 예측 유닛들의 유효한 움직임 벡터를 공간 움직임 벡터 후보자로 유도하고, 이전에 부호화된 참조 픽쳐 내의 현재 예측 유닛에 대응하는 위치 또는 그 주변에 존재하는 예측 유닛의 움직임 벡터를 상기 현재 예측 유닛의 유효한 시간 움직임 벡터 후보자를 유도하고, 상기 유효한 공간 움직임 벡터 후보자 및 시간 움직임 벡터 후보자 중 하나를 현재 예측 유닛의 움직임 벡터 예측자로 결정하고, 상기 현재 예측 유닛의 움직임 벡터와 상기 결정된 움직임 벡터 예측자와의 움직임 벡터 차이값을 구하고, 상기 차이값과 상기 참조픽쳐 인덱스를 부호화한다. 따라서, 기존의 영상들 뿐 아니라, 영상의 움직임이 거의 없거나 시간적으로 거의 일정하게 움직이는 영상 및 배경영상에 대한 움직임 벡터도 보다 효과적으로 예측할 수 있는 움직임 벡터 후보자를 이용함으로써 현재 예측 유닛의 움직임 정보의 부호화량을 줄이는 효과가 있다.

Description

인터 예측 부호화 방법{INTER PREDICTION ENCODING METHOD}
본 발명은 인터 예측 부호화 방법에 관한 것으로, 보다 상세하게는 현재 예측 유닛에 인접한 예측 유닛의 움직임 벡터 및 이전에 부호화된 참조 픽쳐내의 미리 정해진 위치의 움직임 벡터들 중 하나를 이용하여 현재 예측 유닛의 움직임 벡터를 예측 부호화하는 인터 예측 부호화 방법에 관한 것이다.
본 발명은 현재 에측 유닛의 움직이 벡터를 예측하여 부호화 및 보호화하는 장치 및 방법에 관한 것이다.
MPEG-1, MPEG-2, MPEG-4 H.264/MPEG-4 AVC(Advanced Video coding)와 같은 영상 압축 방식에서는 영상을 부호화하기 위해서 하나의 픽처를 매크로 블록으로 나눈다. 그리고, 인터 예측(inter prediction) 및 인트라 예측(intra prediction)을 이용해 각각의 매크로 블록을 부호화한다. 그런 다음, 부호화된 매크로 블록의 데이터 크기 및 원본 매크로 블록의 왜곡 정도를 고려하여 최적의 부호화 모드를 선택하고 매크로 블록을 부호화한다.
인터 예측을 이용해 영상을 부호화하는 방법은 픽처들 사이의 시간적인 중복성을 제거하여 영상을 압축하는 방법으로 움직임 추정 부호화 방법이 대표적인 예이다. 움직임 추정 부호화는 하나 이상의 참조 픽처를 이용하여 현재 픽처의 움직임을 블록 단위로 추정하고 보상하여 영상을 부호화하는 방법이다.
움직임 추정 부호화에서는 소정의 평가 함수를 이용하여 현재 블록과 가장 유사한 블록을 참조 픽처의 정해진 검색 범위에서 검색한다. 유사한 블록이 검색되면, 현재 블록과 참조 픽처 내의 유사한 블록 사이의 레지듀(residue)만 전송함으로써 데이터의 압축률을 높인다.
이 때, 움직임 추정 부호화된 현재 블록을 복호화하기 위해서는 현재 블록과 참조 픽처 내의 유사한 블록 사이의 위치 차이를 나타내는 움직임 벡터에 대한 정보가 필요하다. 따라서, 부호화시에 움직임 벡터에 대한 정보를 부호화하여 비트스트림에 삽입하게 되는데, 움직임 벡터에 대한 정보를 그대로 부호화하여 삽입하면, 오버헤드(overhead)가 증가하게 되어 영상 데이터의 압축률이 낮아진다.
따라서, 인터 예측 부호화 방법에서는 현재 블록의 움직임 벡터를 주변 블록들을 이용하여 예측하고, 예측의 결과로 생성된 예측 움직임 벡터와 원본 움직임 벡터와의 차분값만을 부호화하여 전송함으로써 움직임 벡터에 대한 정보도 압축한다.
H.264에서는 현재 블록의 움직임 벡터의 예측값인 예측 움직임 벡터는 예측 움직임 벡터=중앙값(mvA, mvB, mvC)에 의해 결정된다. 인접한 블록들은 유사성을 가지기 쉽기 때문에 현재 블록의 움직임 벡터를 주변 블록들의 움직임 벡터들의 중앙값으로 결정한다.
그러나, 인접 블록들의 움직임 벡터들 중 하나 이상이 현재 블록의 움직임 벡터와 상이한 경우, 상기 중앙값이 현재 블록의 움직임 벡터를 효과적으로 예측하지 못하는 점이 발생한다. 또한, 영상의 움직임이 거의 없거나 시간적으로 거의 일정하게 움직이는 영상 및 배경영상에 대해서는 기존의 움직임 예측 방식보다 효과적인 움직임 예측을 위한 후보자 선정 및 움직임 벡터를 부호화 복호화하는 방식이 요구된다.
본 발명이 이루고자 하는 목적은 현재 예측 유닛에 인접한 예측 유닛의 움직임 벡터 및 이전에 부호화된 참조 픽쳐내의 미리 정해진 위치의 움직임 벡터들 중 하나를 이용하여 현재 예측 유닛의 움직임 벡터를 예측 부호화하는 인터 예측 부호화하는 방법을 제공하는데 있다.
본 발명에 따른 인터 예측 부호화 방법은 현재 예측 유닛의 움직임 벡터와 참조픽쳐 인덱스를 결정하고, 상기 현재 예측 유닛과 인접하는 미리 정해진 위치의 예측 유닛들의 유효한 움직임 벡터를 공간 움직임 벡터 후보자로 유도하고, 상기 현재 예측 유닛의 유효한 시간 움직임 벡터 후보자를 유도하고, 상기 유효한 공간 움직임 벡터 후보자 및 시간 움직임 벡터 후보자 중 하나를 현재 예측 유닛의 움직임 벡터 예측자로 결정하고, 상기 현재 예측 유닛의 움직임 벡터와 상기 결정된 움직임 벡터 예측자와의 움직임 벡터 차이값을 구하고, 상기 차이값과 상기 참조픽쳐 인덱스를 부호화하고, 상기 시간 움직임 벡터 후보자는 이전에 부호화된 참조 픽쳐 내의 현재 예측 유닛에 대응하는 위치 또는 그 주변에 존재하는 예측 유닛의 움직임 벡터인 것을 특징으로 한다.
본 발명에 따른 인터 예측 부호화 방법은 움직임 정보를 효과적으로 부호화하기 위해, 현재 예측 유닛과 인접하는 미리 정해진 위치의 예측 유닛들의 유효한 움직임 벡터를 공간 움직임 벡터 후보자로 유도하고, 이전에 부호화된 참조 픽쳐 내의 현재 예측 유닛에 대응하는 위치 또는 그 주변에 존재하는 예측 유닛의 움직임 벡터를 상기 현재 예측 유닛의 유효한 시간 움직임 벡터 후보자를 유도한다. 그리고, 상기 유효한 공간 움직임 벡터 후보자 및 시간 움직임 벡터 후보자 중 하나를 현재 예측 유닛의 움직임 벡터 예측자로 결정하여 상기 현재 예측 유닛의 움직임 벡터와 상기 결정된 움직임 벡터 예측자와의 움직임 벡터 차이값을 구한다. 따라서, 공간 및 시간 움직임 벡터 후보자를 이용함으로써 현재 예측 유닛의 움직임 정보의 부호화량을 줄이는 효과가 있다.
도 1은 본 발명의 실시예에 따른 동영상 부호화 장치를 나타내는 블록도이다.
도 2은 본 발명의 실시예에 따른 동영상 복호화 장치를 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 스킵 부호화된 예측 유닛의 복원 블록을 생성하는 과정을 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 공간 스킵 후보자의 위치를 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 시간 스킵 후보자를 구하기 위해 사용되는 예측 유닛들의 위치를 나타내는 도면이다.
도 6은 본 발명의 실시예에 따른 시간 스킵 후보자 픽쳐 내의 현재 예측 유닛에 대응하는 대응 블록들을 나타내는 도면이다.
도 7은 본 발명의 실시예에 따른 움직임 벡터 예측 부호화된 예측 유닛의 복원 블록을 생성하는 과정을 나타내는 도면이다.
도 8은 본 발명의 실시예에 따른 공간 움직임 벡터 후보자를 위한 현재 예측 유닛에 인접한 예측 유닛들의 위치를 나타내는 도면이다.
이하, 본 발명의 여러가지 실시예들을 예시적인 도면을 통해 상세히 설명한다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
영상 부호화를 위해 픽쳐는 복수의 슬라이스로 구성되고, 슬라이스는 복수의 LCU(largest coding unit)으로 구성된다. LCU의 위치는 주소 지시자에 의해 정해진다. 상기 LCU는 그 자체가 코딩 유닛(CU: coding unit)이 될 수도 있고, 더 작은 단위의 CU들로 분할될 수 있다. LCU 단위마다 LCU 내의 CU 구성을 나타내는 정보를 포함한다. 상기 CU 구성을 나타내기 위해 분할플래그가 사용된다.
각각 결정된 CU는 하나 또는 복수개의 예측 유닛(PU: prediction unit)으로 구성된다. PU는 인트라 또는 인터 예측을 위해 사용되는 기본 단위를 의미한다.
변환 유닛(TU: transform unit)은 변환부호화의 기본 단위를 의미한다. 인트라 예측의 경우에는 PU가 복수개의 TU를 가질 수도 있다. 인터 예측의 경우에는 복수개의 PU가 하나의 TU를 구성할 수도 있다. PU의 최대크기는 SPS(sequence parameter set)에서 정의되며, 쿼드트리 형태로 분할될 수 있다. 인트라 예측과 인터 예측에 대한 최대크기의 PU는 상이할 수 있다. 따라서, 상기 정보는 SPS를 통해 복호기로 전송된다.
도 1은 본 발명에 따른 동영상 부호화 장치를 나타내는 블록도이다.
도 1을 참조하면, 본 발명에 따른 동영상 부호화 장치(100)는 픽쳐 분할부(110), 변환부(120), 양자화부(130), 스캐닝부(131), 엔트로피 부호화부(140), 인트라 예측부(150), 인터 예측부(160), 역양자화부(135), 역변환부(125), 후처리부(170), 픽쳐 저장부(180), 감산부(190) 및 가산부(195)를 포함한다.
픽쳐 분할부(110)는 입력되는 비디오 신호를 분석하여 픽쳐를 가장 큰 코딩 유닛마다 소정 크기의 코딩 유닛으로 분할하여 예측 모드를 결정하고, 상기 코딩 유닛별로 예측 유닛의 크기를 결정한다. 그리고, 픽쳐 분할부(110)는 부호화할 예측 유닛을 예측 모드에 따라 인트라 예측부(150) 또는 인터 예측부(160)로 보낸다. 또한, 픽쳐 분할부(110)는 부호화할 예측 유닛을 감산부(190)로 보낸다.
변환부(120)는 입력된 예측 유닛의 원본 블록과 인트라 예측부(150) 또는 인터 예측부(160)에서 생성된 예측 블록의 잔차신호인 잔차 블록을 변환한다. 상기 잔차 블록은 코딩 유닛으로 구성하는 것이 바람직하다. 코딩 유닛으로 구성된 잔차 블록은 최적의 변환 유닛으로 분할되어 변환된다. 예측 모드(intra or inter) 및 인트라 예측 모드에 따라 적응적으로 변환 매트릭스가 결정될 수 있다. 변환 유닛은 2개(수평, 수직)의 1차원 변환 매트릭스에 의해 변환될 수 있다. 예를 들어, 인터 예측의 경우에는 미리 결정된 1개의 변환 매트릭스가 결정된다.
인트라 예측의 경우, 인트라 예측 모드가 수평인 경우에는 잔차 블록이 수직방향으로의 방향성을 가질 확률이 높아지므로, 수직방향으로는 DCT 기반의 정수 매트릭스를 적용하고, 수평방향으로는 DST 기반 또는 KLT 기반의 정수 매트릭스를 적용할 수 있다. 인트라 예측 모드가 수직인 경우에는 수직방향으로는 DST 기반 또는 KLT 기반의 정수 매트릭스를, 수평 방향으로는 DCT 기반의 정수 매트릭스를 적용할 수 있다. DC 모드의 경우에는 양방향 모두 DCT 기반 정수 매트릭스를 적용한다. 상기 방식은 변환 유닛의 크기가 미리 정해진 크기보다 작거나 같은 경우에 적용할 수 있다. 상기 미리 정해진 크기는 4x4 또는 8x8일 수 있다. 따라서, 변환 유닛의 크기가 미리 정해진 크기보다 큰 경우에는 양방향 모두 DCT 기반 정수 매트릭스를 적용하거나, 2차원의 DCT 기반 정수 매트릭스를 적용할 수 있다. 즉, 인트라 예측의 경우, 변환 유닛의 크기 및 인트라 예측 모드에 따라 변환 매트릭스가 적응적으로 결정될 수도 있다.
양자화부(130)는 상기 변환 매트릭스에 의해 변환된 잔차 블록의 계수들을 양자화하기 위한 양자화 스텝 사이즈를 미리 정해진 크기 이상의 코딩 유닛별로 결정한다. 미리 정해진 크기보다 작은 코딩 유닛들에 대한 양자화 스텝 사이즈는 미리 정해진 크기 단위로 결정되는 양자화 스텝 사이즈의 값을 갖는다. 그리고, 결정된 양자화 스텝 사이즈 및 예측 모드에 따라 결정되는 양자화 매트릭스를 이용하여 상기 변환 블록의 계수들을 양자화한다. 양자화부(130)는 현재 코딩 유닛의 양자화 스텝 사이즈 예측자로서 현재 코딩 유닛에 인접한 코딩 유닛의 양자화 스텝 사이즈를 우선적으로 이용할 수 있다. 즉, 양자화부(130)는 현재 코딩 유닛의 좌측 코딩 유닛의 양자화 스텝 사이즈를 현재 코딩 유닛의 양자화 스텝 사이즈 예측자로 결정할 수 있다. 상기 좌측 코딩 유닛이 이용 가능하지 않는 경우에는 스캔 순서상 바로 이전의 코딩 유닛의 양자화 스텝 사이즈를 현재 코딩 유닛의 양자화 스텝 사이즈 예측자로 결정할 수 있다. 또는 좌측 코딩 유닛, 상측 코딩 유닛, 스캔 순서상 바로 이전의 코딩 유닛 순서로 검색하여 유효한 코딩 유닛의 양자화 스텝 사이즈를 현재 코딩 유닛의 양자화 스텝 사이즈 예측자로 결정할 수 있다.
상기 양자화된 변환 블록은 역양자화부(135)와 스캐닝부(131)로 제공된다.
스캐닝부(131)는 양자화된 변환 블록의 계수들을 스캐닝하여 1차원의 양자화 계수들로 변환한다. 계수 스캐닝 방식은 예측 모드 및 인트라 예측 모드에 따라 결정된다. 또한, 계수 스캐닝 방식은 변환 유닛의 크기에 따라 달리 결정될 수도 있다.
스캐닝부(131)는 현재 변환 유닛이 크기에 따라 양자화된 계수 블록을 복수개의 서브셋으로 분할할지 여부를 결정한다. 변환 유닛의 크기가 제1 기준 크기보다 큰 경우 상기 양자화된 계수 블록을 복수개의 서브셋으로 분할한다. 상기 제1 기준 크기는 4x4 또는 8x8인 것이 바람직하다.
스캐닝부(131)는 양자화된 계수 블록에 적용될 스캔 패턴을 결정한다. 인터 예측 모드의 경우에는 미리 정해진 스캔 패턴(예를 들어, 지그재그 스캔)만을 적용할 수 있다. 인트라 예측의 경우에는 인트라 예측 모드 및 변환 유닛의 크기에 따라 스캔패턴이 달라질 수 있다. 비방향성 모드들에 대해서는 상기 미리 정해진 스캔 패턴을 적용한다. 비방향성 모드는 DC 모드 또는 planar 모드일 수 있다.
인트라 예측 방향성 모드들은 인트라 예측 모드 및 변환 유닛의 크기에 따라 상기 스캔 패턴이 달라질 수 있다. 미리 정해진 크기 이상의 변환 유닛에 대해서는 상기 미리 정해진 스캔 패턴을 적용하고, 미리 정해진 크기보다 작은 변환 유닛에 대해서는 방향성 인트라 예측 모드에 따라 적응적으로 스캔 패턴이 결정될 수 있다. 상기 미리 정해진 크기는 16x16일 수 있다.
미리 정해진 크기보다 작은 변환 유닛에 대해서는 3종류의 스캔 패턴이 적용될 수 있다. 3종류의 스캔 패턴은 제1 스캔 패턴(상기 미리 정해진 스캔 패턴과 동일), 제2 스캔 패턴(수평 스캔 패턴), 제3 스캔 패턴(수직 스캔 패턴)이다. 수직 모드의 경우에는 수평 방향으로의 변환 계수가 존재할 가능성이 크기 때문에 제2 스캔 패턴을 적용한다. 마찬가지로 상기 수직 모드의 좌측 및 우측에 인접한 소정 개수의 방향성 인트라 예측 모드들에 대해서도 제2 스캔 패턴을 적용한다. 마찬가지로, 수평 모드의 경우에는 제3 스캔 패턴을 적용한다. 그리고, 상기 수평 모드의 상측 및 하측의 소정 개수의 방향성 인트라 예측 모드들에 대해서는 제3 스캔 패턴을 적용한다. 상기 소정 개수는 각 방향에 대해 3 또는 4인 것이 바람직하다.
양자화 계수들의 스캔순서는 역방향으로 스캔한다. 상기 양자화된 계수들이 복수개의 서브셋으로 분할된 경우에는 각각의 서브셋 내의 양자화 계수들에 동일한 스캔패턴을 적용한다. 상기 복수개의 서브셋은 하나의 메인 서브셋과 적어도 하나 이상의 잔여 서브셋으로 구성된다. 메인 서브셋은 DC 계수를 포함하는 좌상측에 위치하고, 상기 잔여 서브셋은 메인 서브셋 이외의 영역을 커버한다.
서브셋 간의 스캔패턴은 지그재그 스캔을 적용한다. 스캔 패턴은 메인 서브셋으로부터 순방향으로 잔여 서브셋들로 스캔하는 것이 바람직하나, 그 역방향도 가능하다. 또한, 서브셋 내의 양자화된 계수들의 스캔패턴과 동일하게 서브셋 간의 스캔패턴을 설정할수도 있다. 이 경우, 서브셋 간의 스캔패턴이 인트라 예측 모드에 따라 결정된다. 한편, 부호기는 상기 변환 유닛내의 0이 아닌 마지막 양자화 계수의 위치를 나타낼 수 있는 정보를 복호기로 전송한다. 각 서브셋 내의 0이 아닌 마지막 양자화 계수의 위치를 나타낼 수 있는 정보도 복호기로 전송한다. 상기 정보는 각각의 서브셋 내의 0이 아닌 마지막 양자화 계수의 위치를 나타내는 정보일 수 있다.
역양자화(135)는 상기 양자화된 양자화 계수를 역양자화한다. 역변환부(125)는 역양자화된 변환 계수를 공간 영역의 잔차 블록으로 복원한다. 가산기는 상기 역변환부에 의해 복원된 잔차블록과 인트라 예측부(150) 또는 인터 예측부(160)로부터의 예측 블록을 합쳐서 복원 블록을 생성한다.
후처리부(160)는 복원된 픽쳐에 발생하는 블록킹 효과의 제거하기 위한 디블록킹 필터링 과정, 픽셀 단위로 원본 영상과의 차이값을 보완하기 위한 적응적 오프셋 적용 과정 및 코딩 유닛으로 원본 영상과의 차이값을 보완하기 위한 적응적 루프 필터 과정을 수행한다.
디블록킹 필터링 과정은 미리 정해진 크기 이상의 크기를 갖는 예측 유닛 및 변환 유닛의 경계에 적용하는 것이 바람직하다. 상기 크기는 8x8일 수 있다. 상기 디블록킹 필터링 과정은 필터링할 경계(boundary)를 결정하는 단계, 상기 경계에 적용할 경계 필터링 강도(bounary filtering strength)를 결정하는 단계, 디블록킹 필터의 적용 여부를 결정하는 단계, 상기 디블록킹 필터를 적용할 것으로 결정된 경우, 상기 경계에 적용할 필터를 선택하는 단계를 포함한다.
상기 디블록킹 필터의 적용 여부는 i) 상기 경계 필터링 강도가 0보다 큰지 여부 및 ii) 상기 필터링할 경계에 인접한 2개의 블록(P 블록, Q블록) 경계 부분에서의 픽셀값들이 변화 정도를 나타내는 값이 양자화 파라미터에 의해 결정되는 제1 기준값보다 작은지 여부에 의해 결정된다.
상기 필터는 적어도 2개 이상인 것이 바람직하다. 블록 경계에 위치한 2개의 픽셀들간의 차이값의 절대값이 제2 기준값보다 크거나 같은 경우에는 상대적으로 약한 필터링을 수행하는 필터를 선택한다. 상기 제2 기준값은 상기 양자화 파라미터 및 상기 경계 필터링 강도에 의해 결정된다.
적응적 루프 필터 과정은 디블록킹 필터링 과정 또는 적응적 오프셋 적용 과정을 거친 복원된 영상과 원본 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. 적응적 루프 필터는 4x4 크기의 블록을 기반으로 하나의 라플라시안 활동값(Laplacian Activity value)을 통해 검출된다. 상기 결정된 ALF는 4x4 크기 또는 8x8 크기의 블록에 포함된 화소 전체에 적용될 수 있다. 적응적 루프 필터의 적용 여부는 코딩 유닛별로 결정될 수 있다. 각 코딩 유닛에 따라 적용될 루프 필터의 크기 및 계수는 달라질 수 있다. 코딩 유닛별로 상기 적응적 루프 필터의 적용 여부를 나타내는 정보, 필터 계수 정보, 필터 형태 정보 등은 각 슬라이스 헤더에 포함되어 복호기로 전송될 수 있다. 색차 신호의 경우에는, 픽쳐 단위로 적응적 루프 필터의 적용 여부를 결정할 수 있다. 루프 필터의 형태도 휘도와 달리 직사각형 형태를 가질 수 있다.
적응적 루프 필터링의 적용 여부는 시퀀스 또는 픽쳐 단위로 설정될 수 있다. 상기적응적 루프 필터 과정에 적용되는 적응적 루프 필터 파라미터 정보는 픽쳐 또는 슬라이스 헤더에 포함된다. 상기 적응적 루프 필터 파라미터 정보가 픽쳐 헤더에 포함되면, 슬라이스 헤더는 상기 정보를 포함하지 않는다. 반대로 상기 적응적 루프 필터 파라미터 정보가 픽쳐 헤더에 포함되지 않으면, 슬라이스 헤더는 상기 정보를 포함한다. 상기 적응적 루프 필터 파라미터 정보는 적응적 루프 필터 과정에서 사용되는 luma 성분의 수평 및/또는 수직 방향의 필터 길이를 나타내는 정보를 포함한다. 상기 정보는 사용되는 필터의 수를 나타내는 정보를 포함한다. 필터의 수가 2 이상이면 필터 계수들이 예측 방법을 사용하여 부호화되지는 여부를 나타내는 정보를 포함할 수 있으며, 예측 방법이 사용될 경우에는 예측된 필터계수들을 포함하고, 그렇지 않은 경우에는 예측되지 않은 필터계수들을 포함한다.
한편, 휘도 성분뿐만 아니라 색차 성분들로 적응적으로 필터링될 수 있다. 따라서, 상기 정보는 색차 성분 각각이 필터링되는지 여부를 나타내는 정보들을 포함할 수 있다. 이 경우, 비트수를 줄이기 위해 Cr와 Cb에 대한 필터링 여부를 함께 나타내기 정보는 조인트 부호화된다. 색차 성분 들 모두를 필터링하지 않는 경우가 가장 빈번하기 때문에 이에 대해 가장 작은 정보를 할당하는 엔트로피 부호화를 수행하는 것이 바람직하다. 또한, 색차 성분 중 적어도 하나 이상이 필터링되는 경우에는, 상기 정보는 색차 성분에 대한 필터 계수의 수평 및/또는 수직 방향의 필터 길이를 나타내는 정보 및 필터 정보를 포함한다.
또한, 적응적 루프 필터링 과정은 소정 크기 이상의 코딩 유닛마다 온오프될 수 있다. 따라서, 각 슬라이스 헤더는 슬라이스 내의 코딩 유닛단위로 적응적 루프 필터링 과정이 적용되는지 여부를 나타내는 정보를 포함한다.
픽쳐 저장부(180)는 후처리된 영상 데이터를 후처리부(160)로부터 입력 받아 픽쳐(picture) 단위로 영상을 복원하여 저장한다. 픽쳐는 프레임 단위의 영상이거나 필드 단위의 영상일 수 있다. 픽쳐 저장부(180)는 다수의 픽쳐를 저장할 수 있는 버퍼(도시되지 않음)를 구비한다.
인터 예측부(150)는 상기 픽쳐 저장부(180)에 저장된 적어도 하나 이상의 참조 픽쳐를 이용하여 움직임 추정을 수행하고, 참조 픽쳐를 나타내는 참조 픽쳐 인덱스 및 움직임 벡터를 결정한다. 그리고, 결정된 참조 픽쳐 인덱스 및 움직임 벡터에 따라, 픽쳐 저장부(150)에 저장된 다수의 참조 픽쳐들 중 움직임 추정에 이용된 참조 픽쳐로부터, 부호화하고자 하는 예측 유닛에 대응하는 예측 블록을 추출하여 출력한다.
인트라 예측부(140)는 현재 예측 유닛이 포함되는 픽처 내부의 재구성된 화소값을 이용하여 인트라 예측 부호화를 수행한다. 인트라 예측부(140)는 예측 부호화할 현재 예측 유닛을 입력 받아 현재 블록의 크기에 따라 미리 설정된 개수의 인트라 예측 모드 중에 하나를 선택하여 인트라 예측을 수행한다. 인트라 예측부는 인트라 예측 블록을 생성하기 위해 참조 픽셀을 적응적으로 필터링한다. 참조 픽셀이 유효하지 않은 경우에는 유효한 참조 픽셀들을 이용하여 상기 유효하지 않은 위치의 참조 픽셀들을 생성할 수 있다.
엔트로피 부호화부(130)는 양자화부(130)에 의해 양자화된 양자화 계수, 인트라 예측부(140)로부터 수신된 인트라 예측 정보, 인터 예측부(150)로부터 수신된 움직임 정보 등를 엔트로피 부호화한다.
한편, 본 발명에 따른 동영상 부호화 장치(100)는 움직임 벡터를 예측 부호화한다. 움직임 벡터의 예측 부호화 과정은 인터 예측부(150)와 엔트로피 부호화부(140)에 의해 수행될 수 있다. 상기 동영상 부호화 장치(100)에 따른 움직임 벡터 예측 부호화 과정(AMVP 부호화 과정)은 다음과 같다.
현재 예측 유닛의 움직임 벡터를 구한다.
그리고, 현재 예측 유닛과 인접하는 미리 정해진 위치의 예측 유닛들의 유효한(available) 움직임 벡터를 공간 움직임 벡터 후보자로 설정한다. 인접하는 예측 유닛의 움직임 벡터가 존재하지 않는 경우, 예측 유닛이 다른 slice에 포함되는 경우에는 움직임 벡터가 유효하지 않는 것으로 판단한다.
다음으로, 상기 공간 움직임 벡터 후보자를 적응적으로 스케일링한다. 현재 예측 유닛과 인접 예측 유닛이 서로 동일한 픽쳐를 참조하는 경우에는 스케일링하지 않고, 서로 다른 참조 픽쳐를 참조하는 경우 또는 참조 픽쳐와의 시간적 거리(temporal distance of the reference picture)가 다른 경우에는 상기 공간 움직임 벡터 후보자를 스케일링한다. 스케일링은 참조 픽쳐와의 시간적 거리를 이용해서 수행한다. 그러나, 움직이지 않는 영상(예를 들어, 배경 등)의 경우에는 스케일링 하지 않을 수도 있다. 이 경우, 스케일링 여부를 나타내는 정보(flag)를 복호기로 전송할 수도 있다. 또는 미리 정해진 개수의 공간 움직임 벡터만을 스케일링할 수도 있다.
상기 공간 움직임 벡터 후보자 및 상기 시간 움직임 벡터 후보자 중에서 현재 예측 유닛의 움직임 벡터 예측자를 선택한다.
현재 예측 유닛의 움직임 벡터와 상기 현재 예측 유닛의 움직임 벡터 예측자와의 움직임 벡터 차이값(MVD)을 구하고, 상기 MVD를 부호화한다. 그리고, 상기 움직임 벡터 예측자를 나타내는 정보도 부호화한다.
상기 시간 움직임 벡터 후보자는 이전에 부호화된 특정 참조 픽쳐 내의 현재 예측 유닛에 대응하는 위치 또는 그 주변에 존재하는 예측 유닛의 움직임 벡터이다. 상기 특정 참조 픽쳐 내의 현재 예측 유닛에 대응하는 위치 또는 그 주변에 존재하는 예측 유닛의 움직임 벡터가 복수개인 경우에는 미리 정해진 방식에 따라 어느 하나가 시간 움직임 벡터 후보자로 결정된다. 즉, 상기 특정 픽쳐 내의 현재 예측에 대응하는 제1 위치의 움직임 벡터가 유효한 경우에는 이를 시간 움직임 벡터 후보자로 설정하고, 상기 제1 위치의 움직임 벡터가 유효하지 않은 경우에는 제2 위치의 움직임 벡터를 시간 움직임 벡터 후보자로 설정한다.
슬라이스 타입이 B(양방향 예측)인 경우, 시간 움직임 벡터 후보자가 포함된 상기 특정 참조 픽쳐는 리스트 0 또는 리스트 1으로부터 결정된다. 따라서, 부호화부는 상기 리스트 정보를 부호화하여 전송하고, 복호화부는 상기 리스트 정보에 기초하여 특정 참조 픽쳐를 결정한다.
또한, 시간 움직임 벡터가 사용되었는지 여부를 나타내는 정보가 비트스트림에 포함되어 수신될 수 있다. 이 경우, 상기 정보에 따라 상기 움직임벡터 복호화 과정이 달라질 수 있다.
상기 공간 움직임 벡터 후보자들은 좌측 움직임 벡터 후보자 및 상측 움직임 벡터후보자를 포함한다. 현재 예측 유닛의 좌측 움직임 벡터 후보자는 현재 예측 유닛의 좌측 또는 좌하측에 인접하는 예측 유닛의 움직임 벡터이다. 미리 정해진 순서로 유효한 움직임 벡터가 얻어질 때가지 좌측 또는 좌하측 예측 유닛의 움직임 벡터 후보자를 검색(retrieve)하여 얻어진 움직임 벡터이다. 현재 예측 유닛의 상측 움직임 벡터 후보자는 현재 예측 유닛의 상측, 우상측, 좌상측의 예측 유닛들의 움직임 벡터들 중 미리 정해진 순서로 검색되어 최초로 유효한 움직임 벡터이다.
동일한 값의 움직임 벡터 후보자들이 존재할 경우, 순서상 뒤에 오는 움직임 벡터를 리스트에서 제거한다.
움직임 벡터 후보자가 1개이면 이를 움직임 벡터 예측자로 선택하고, 움직임 벡터 예측자를 나타내는 정보는 부호화되지 않는다.
도 2은 본 발명의 실시예에 따른 동영상 복호화 장치를 나타내는 블록도이다.
도 2를 참조하면, 본 발명에 따른 동영상 복호화 장치는, 엔트로피 복호부(210), 역스캐닝부(215), 역양자화부(220), 역변환부(225), 가산기(270), 후처리부(250), 픽쳐 저장부(260), 인트라 예측부(230), 인터 예측부(240) 및 인트라/인터전환 스위치(280)를 구비한다.
엔트로피 복호부(210)는, 동영상 부호화 장치로부터 전송되는 부호화 비트 스트림을 복호하여, 인트라 예측 모드 인덱스, 움직임 정보, 양자화 계수 시퀀스 등으로 분리한다. 엔트로피 복호부(210)는 복호된 움직임 정보를 인터 예측부(240)에 공급한다. 엔트로피 복호부(210)는 상기 인트라 예측 모드 정보를 상기 인트라 예측부(230), 역양자화/역변환부(220)로 공급한다. 또한, 상기 엔트로피 복호화(210)는 상기 역양자화 계수 시퀀스를 역양자화부(220), 역변환부(225)로 공급한다.
역스캐닝부(215)는 상기 양자화 계수 정보를 2차원 배열의 역양자화 블록으로 변환한다. 상기 변환을 위해 복수개의 역스캐닝 패턴 중에 하나를 선택한다. 계수 역스캐닝 패턴은 인트라 예측 모드에 따라 결정될 수 있다. 현재 변환 유닛의 크기가 미리 정해진 크기보다 큰 경우에는 미리 정해진 크기의 서브셋 단위로 역스캔하여 양자화된 변환 유닛을 구성한다. 그리고, 현재 변환 유닛의 크기가 미리 정해진 크기인 경우와 동일한 경우에는 변환 유닛 단위로 역스캔하여 양자화된 변환 유닛을 구성한다. 상기 양자화된 계수들이 복수개의 서브셋 단위로 역스캔될 경우에는 각각의 서브셋 내의 양자화 계수들에 동일한 역스캔패턴을 적용한다. 상기 복수개의 서브셋은 하나의 메인 서브셋과 적어도 하나 이상의 잔여 서브셋으로 구성된다. 메인 서브셋은 DC 계수를 포함하는 좌상측에 위치하고, 상기 잔여 서브셋은 메인 서브셋 이외의 영역을 커버한다.
서브셋 간의 역스캔패턴은 역지그재그 스캔을 적용한다. 스캔 패턴은 잔여 서브셋들로부터 메인 서브셋으로 역스캔하는 것이 바람직하나, 그 역방향도 가능하다. 서브셋 내의 양자화된 계수들의 역스캔패턴과 동일하게 서브셋 간의 역스캔패턴을 설정할 수도 있다. 역스캐닝부(220)는 현재 변환 유닛 내의 0이 아닌 마지막 양자화 계수의 위치를 나타내는 정보를 이용하여 역스캐닝을 수행한다.
인트라 예측 방향성 모드들에 대한 서브셋 내의 역스캔 패턴은 인트라 예측 모드 및 변환 유닛의 크기에 따라 달라질 수 있다. 즉, 미리 정해진 크기 이상의 변환 유닛에 대해서는 미리 정해진 스캔 패턴을 적용하고, 미리 정해진 크기보다 작은 변환 유닛에 대해서는 방향성 인트라 예측 모드에 따라 적응적으로 역스캔 패턴이 결정될 수 있다. 상기 미리 정해진 크기는 16x16일 수 있다. 미리 정해진 크기보다 작은 변환 유닛에 대해서는 3종류의 역스캔 패턴이 적용될 수 있다. 3종류의 스캔 패턴은 제1 스캔 패턴(상기 미리 정해진 스캔 패턴과 동일), 제2 스캔 패턴(수평 스캔 패턴), 제3 스캔 패턴(수직 스캔 패턴)이다. 수직 모드와 상기 수직 모드의 좌측 및 우측에 인접한 소정 개수의 방향성 인트라 예측 모드들에 대해서도 제2 스캔 패턴을 적용한다. 마찬가지로, 수평 모드와 상기 수평 모드의 상측 및 하측에 인접한 소정 개수의 방향성 인트라 예측 모드들에 대해서는 제3 스캔 패턴을 적용한다. 상기 소정 개수는 각 방향에 대해 3 또는 4인 것이 바람직하다.
역양자화부(220)는 상기 2차원 배열의 역양자화 계수를 역양자화하기 위해 양자화 스텝 사이즈를 복원한다. 양자화 스텝 사이즈는 미리 정해진 크기 이상의 코딩 유닛별로 결정한다. 미리 정해진 크기보다 작은 코딩 유닛들에 대한 양자화 스텝 사이즈는 미리 정해진 크기 단위로 결정되는 양자화 스텝 사이즈의 값을 갖는다. 역양자화부(220)는 현재 코딩 유닛의 양자화 스텝 사이즈 예측자로서 현재 코딩 유닛에 인접한 코딩 유닛의 양자화 스텝 사이즈를 우선적으로 이용할 수 있다. 즉, 현재 코딩 유닛의 좌측 코딩 유닛의 양자화 스텝 사이즈를 현재 코딩 유닛의 양자화 스텝 사이즈 예측자로 결정할 수 있다. 상기 좌측 코딩 유닛이 이용 가능하지 않는 경우에는 스캔 순서상 바로 이전의 코딩 유닛의 양자화 스텝 사이즈를 현재 코딩 유닛의 양자화 스텝 사이즈 예측자로 결정할 수 있다. 또는 좌측 코딩 유닛, 상측 코딩 유닛, 스캔 순서상 바로 이전의 코딩 유닛 순서로 검색하여 유효한 코딩 유닛의 양자화 스텝 사이즈를 현재 코딩 유닛의 양자화 스텝 사이즈 예측자로 결정할 수 있다.
상기 양자화 스텝 사이즈 예측자가 결정되면, 수신된 잔여 양자화 스텝 사이즈와 상기 결정된 양자화 스텝 사이즈 예측자를 더하여 양자화 스텝 사이즈를 얻는다. 그리고, 상기 양자화 스텝 사이즈 및 예측 모드에 따라 결정되는 역양자화 매트릭스를 이용하여 상기 역양자화 계수들을 역양자화한다.
역변환부(225)는 역양자화 블록을 역변환하여 잔차 블록을 복원한다. 상기 역양자화 블록에 적용할 역변환 매트릭스는 예측 모드(인트라 또는 인터) 및 인트라 예측 모드에 따라 적응적으로 결정될 수 있다. 도 1의 변환부(120)에 적용된 변환 매트릭스의 역변환 매트릭스가 적용된다.
가산기(270)는 역양자화/역변환부(220)에 의해 복원된 잔차 블록과 인트라 예측부(230) 또는 움직임 보상 예측부(240)에 의해 생성되는 예측 블록을 가산함으로써, 영상 블록을 복원한다.
디블록킹 필터(250)는 가산기(270)에 의해 생성된 복원 영상에 디블록킹 필터 처리를 실행한다. 이에 따라, 양자화 과정에 따른 영상 손실에 기인하는 디블록킹 아티펙트를 줄일 수 있다.
픽쳐 저장부(260)는 디블록킹 필터(250)에 의해 디블록킹 필터 처리가 실행된 로컬 복호 영상을 유지하는 프레임 메모리이다.
인트라 예측부(230)는 엔트로피 복호화부(210)로부터 수신된 인트라 예측 모드 인덱스에 기초하여 현재 블록의 인트라 예측 모드를 복원한다. 그리고, 복원된 인트라 예측 모드에 따라 예측 블록을 생성한다.
인터 예측부(240)는 수신된 움직임 정보에 기초하여 현재 예측 유닛의 움직임 벡터를 복원한다. 그리고, 상기 복원된 움직임 벡터 정보에 기초하여 픽쳐 저장부(240)에 저장된 픽쳐로부터 현재 블록에 대한 예측 블록을 생성한다. 소수 정밀도의 움직임 보상이 적용될 경우에는 선택된 보간 필터를 적용하여 예측 블록을 생성한다.
인터 예측부의 움직임 벡터 예측 복호화 과정(AMVP 복호화 과정)은 다음과 같다.
부호화된 움직임 벡터 차이값을 복호화하여 MVD를 생성한다.
현재 예측 유닛과 인접하는 미리 정해진 위치의 예측 유닛들의 유효한(available) 움직임 벡터를 공간 움직임 벡터 후보자로 설정한다. 그리고, 상기 공간 움직임 벡터 후보자를 적응적으로 스케일링한다. 현재 예측 유닛과 인접 예측 유닛이 서로 동일한 픽쳐를 참조하는 경우에는 스케일링하지 않고, 서로 다른 참조 픽쳐를 참조하는 경우에는 상기 공간 움직임 벡터 후보자를 스케일링한다. 스케일링은 참조 픽쳐의 시간적 거리(temporal distance of the reference picture)를 이용해서 수행한다.
움직임 벡터 예측자를 나타내는 움직임 정보에 기초하여, 공간 움직임 벡터 후보자 및 시간 움직임 벡터 후보자 중에서 현재 예측 유닛의 움직임 벡터 예측자를 선택한다. 그리고, 상기 선택된 움직임 벡터 예측자와 MVD를 더하여 현재 예측 유닛의 움직임 벡터를 복원한다.
상기 시간 움직임 벡터 후보자는 이전에 부호화된 특정 참조 픽쳐 내의 현재 예측 유닛에 대응하는 위치 또는 그 주변에 존재하는 예측 유닛의 움직임 벡터이다. 상기 특정 참조 픽쳐 내의 현재 예측 유닛에 대응하는 위치 또는 그 주변에 존재하는 예측 유닛의 움직임 벡터가 복수개인 경우에는 미리 정해진 방식에 따라 어느 하나가 시간 움직임 벡터 후보자로 결정된다. 즉, 상기 특정 픽쳐 내의 현재 예측에 대응하는 제1 위치의 움직임 벡터가 유효한 경우에는 이를 시간 움직임 벡터 후보자로 설정하고, 상기 제1 위치의 움직임 벡터가 유효하지 않은 경우에는 제2 위치의 움직임 벡터를 시간 움직임 벡터 후보자로 설정한다.
슬라이스 타입이 B인 경우, 시간 움직임 벡터 후보자가 포함된 상기 특정 참조 픽쳐는 리스트 0 또는 리스트 1으로부터 결정된다. 따라서, 복호화부는 상기 리스트 정보에 기초하여 특정 참조 픽쳐를 결정한다.
또한, 시간 움직임 벡터가 사용되었는지 여부를 나타내는 정보가 비트스트림에 포함되어 수신될 수 있다. 이 경우, 상기 정보에 따라 상기 움직임벡터 복호화 과정이 달라질 수 있다.
상기 공간 움직임 벡터 후보자들은 좌측 움직임 벡터 후보자 및 상측 움직임 벡터후보자를 포함한다. 현재 예측 유닛의 좌측 움직임 벡터 후보자는 현재 예측 유닛의 좌측 또는 좌하측에 인접하는 예측 유닛의 움직임 벡터이다. 미리 정해진 순서로 유효한 움직임 벡터가 얻어질 때가지 좌측 또는 좌하측 예측 유닛의 움직임 벡터 후보자를 검색(retrieve)하여 얻어진 움직임 벡터이다. 현재 예측 유닛의 상측 움직임 벡터 후보자는 현재 예측 유닛의 상측, 우상측, 좌상측의 에측 유닛들의 움직임 벡터들 중 미리 정해진 순서로 검색되어 최초로 유효한 움직임 벡터이다.
동일한 값의 움직임 벡터 후보자들이 존재할 경우, 순서상 뒤에 오는 움직임 벡터를 리스트에서 제거한다.
움직임 벡터 후보자가 1개이면 이를 움직임 벡터 예측자로 선택하고, 움직임 벡터 예측자를 나타내는 정보는 부호화되지 않는다.
인트라/인터 전환 스위치(280)는 부호화 모드에 기초하여 인트라 예측부(250)와 움직임 보상 예측부(260)의 어느 하나에서 생성된 예측 블록을 가산기(235)에 제공한다.
이하에서는 본 발명에 따른 인터 예측 복호화 과정을 설명한다. 인터 예측 복호화 과정은 현재 예측 유닛의 움직임 정보를 복호화는 과정, 현재 예측 유닛의 예측 블록을 생성하는 과정, 잔차 블록을 생성하는 과정 및 예측블록과 잔차 블록을 이용하여 재구성 블록(Reconstruction block)을 생성을 포함한다. 상기 움직임 정보는 움직임 벡터 및 참조 픽쳐 인덱스를 포함한다.
도 3은 본 발명에 따른 스킵 부호화된 예측 유닛의 복원 블록을 생성하는 과정을 나타내는 도면이다. 수신된 부호화 유닛 내의 skip_flag가 1일 경우의 예측 블록의 생성하는 과정이다.
먼저, 인접 예측 유닛으로부터 공간 스킵 후보자를 유도(derivation)한다(S210).
공간 스킵 후보자는, 도 4에 도시된 바와 같이, 현재 예측 유닛의 좌측 예측 유닛(블록A), 현재 예측 유닛의 상측 예측 유닛(블록 B), 현재 예측 유닛의 우상측 예측 유닛(블록 C) 및 현재 예측 유닛의 좌하측 예측 유닛(블록D)의 움직임 정보들이 될 수 있다. 현재 예측 유닛의 좌상측 예측 유닛(블록 E)의 움직임 정보도 공간 스킵 후보자가 될 수 있으나, 이는 특별한 경우로 한정하는 것이 바람직하다. 예를 들어, 예측 유닛 A, B, C, D 중 일부(예를 들어, 1개 이상)의 움직임 정보가 유효하지 않은 경우에 블록 E의 움직임 정보가 공간 스킵 후보자로 편입될 수 있다. 움직임 정보는 참조 픽쳐 인덱스와 움직임 벡터를 포함한다.
또한, 공간 스킵 후보자는 좌측 예측 유닛(A), 상측 예측 유닛(B) 및 코너 예측 유닛(C or D or E)의 움직임 정보 일 수도 있다. 여기서 코너 예측 유닛은 미리 정해진 순서(C, D, E 순서 또는 D, C, E 순서)로 스캔하여 유효한 첫번째 예측 유닛일 수 있다.
상기 각 인접 예측 유닛들의 유효성 검사(Availability check)를 진행한다. 예측 유닛이 존재하지 않거나, 예측 유닛의 예측모드가 인트라 모드인 경우에는 유효하지 않은 예측 유닛으로 처리한다.
한편, 현재 예측 유닛의 좌측에 복수개의 예측 유닛이 존재하는 경우에는 미리 정해진 순서(위에서 아래로 또는 아래에서 위로)로 예측 유닛의 유효성 검사를 진행하여 유효한 첫번째 예측 유닛을 좌측 예측 유닛으로 설정할 수 있다. 또는 미리 정해진 위치의 예측 유닛(예를 들어, 가장 위쪽 또는 가장 아래쪽 예측 유닛)을 좌측 예측 유닛으로 설정할 수도 있다. 마찬가지로 상측에 복수개의 예측 유닛이 존재할 경우에는 미리 정해진 순서(왼쪽에서 오른쪽으로 또는 오른쪽에서 왼쪽으로)로 예측 유닛의 유효성 검사를 진행하여 유효한 첫번째 예측 유닛을 상측 예측 유닛으로 설정할 수도 있다. 또는 미리 정해진 위치의 예측 유닛(가장 왼쪽 또는 가장 오른쪽 예측 유닛)을 상측 예측 유닛으로 설정할 수도 있다.
시간 스킵 후보자를 유도한다(S220). 시간 스킵 후보자를 유도하는 단계는 시간 스킵 후보자를 위한 참조 픽쳐 인덱스를 구하는 단계와 시간 스킵 후보자의 움직임 벡터를 구하는 단계로 구성된다.
시간 스킵 후보자를 위한 참조 픽쳐 인덱스를 구한다. 시간 스킵 후보자를 위한 참조 픽쳐 인덱스는 0으로 설정될 수 있다. 또는 시간 스킵 후보자를 위한 참조 픽쳐 인덱스는 현재 예측 유닛에 공간적으로 인접한 예측 유닛들의 참조 픽쳐 인덱스들을 이용하여 구할 수도 있다.
도 5는 시간 스킵 후보자를 위한 참조 픽쳐 인덱스를 구하기 위해 사용되는 현재 예측 유닛에 인접한 예측 유닛들의 위치를 나타낸다. 시간 스킵 후보자를 위한 참조 픽쳐 인덱스는 현재 예측 유닛에 인접한 예측 유닛들의 참조 픽쳐 인덱스 중 하나로 결정한다.
시간 스킵 후보자를 위한 참조 인덱스들을 구하기 위해 현재 예측 유닛의 좌측 예측 유닛(A), 상측 예측 유닛(B), 우상측 예측 유닛(C), 좌하측 예측 유닛(D) 및 좌상측 예측 유닛(E)들의 참조 픽쳐 인덱스가 사용될 수 있다.
상측 예측 유닛이 복수개 존재하는 경우에는 좌측에서 우측(또는 우측에서 좌측)으로 스캔하여 처음 유효한 예측 유닛의 참조 픽쳐 인덱스를 상측 예측 유닛의 참조 픽쳐 인덱스로 결정할 수도 있다. 마찬가지로, 좌측 예측 유닛이 복수개 존재하는 경우에는 상측에서 하측으로 스캔하여 처음 유효한 예측 유닛의 참조 픽쳐 인덱스를 좌측 예측 유닛의 참조 픽쳐 인덱스로 결정할 수도 있다.
우상측 예측 유닛(C), 좌하측 예측 유닛(D), 좌상측 예측 유닛(E) 블록순으로 스캔하여 유효한 첫번째 예측 유닛의 참조 픽쳐 인덱스를 코너 예측 유닛의 참조 픽쳐 인덱스로 결정한다..
현재 예측 유닛의 좌측 예측 유닛의 참조 픽쳐 인덱스(이하, 좌측 참조 픽쳐 인덱스), 현재 예측 유닛의 상측 예측 유닛의 참조 픽쳐 인덱스(이하, 상측 참조 픽쳐 인덱스) 및 현재 예측 유닛의 코너 예측 유닛의 참조 픽쳐 인덱스(이하, 코너 참조 픽쳐 인덱스)가 구해지면, 이들로부터 시간 스킵 후보자를 위한 참조 픽쳐 인덱스를 구한다. 여기에서는 코너의 예측 유닛들(C, D, E) 중 하나만을 후보자로 설정하였지만, 이에 한정되는 것은 아니며, 예측 유닛 C, D가 후보자로 설정되는 경우(후보자 4개), 예측 유닛 C, D, E가 모두 후보자로 설정되는 경우(후보자 5개)도 가능하다. 이하에서는 상측, 좌측 및 코너의 3가지 참조 픽쳐 인덱스를 이용하는 과정에 대해서만 예시적으로 설명한다.
유효한 참조 픽쳐 인덱스들 중 가장 많은 빈도를 갖는 참조 픽쳐 인덱스를 시간 스킵 후보자를 위한 참조 픽쳐 인덱스로 설정한다. 유효한 후보자들 중 가장 많은 빈도를 갖는 참조 픽쳐 인덱스가 복수개 존재할 경우에는 상기 복수개의 참조 픽쳐 인덱스 중 최소값을 갖는 참조 픽쳐 인덱스를 시간 스킵 후보자를 위한 참조 픽쳐 인덱스로 설정한다.
다음으로, 상기 시간 스킵 후보자의 움직임 벡터를 구하는 단계를 설명한다.
먼저, 상기 시간 스킵 후보자 블록이 속하는 픽쳐(이하, 시간 스킵 후보자 픽쳐)를 결정한다. 시간 스킵 후보자 픽쳐는 참조 픽쳐 인덱스가 0인 픽쳐로 설정될 수 있다. 이 경우, 슬라이스 타입이 P인 경우에는 리스트 0(list0)의 첫번째 픽쳐가 시간 스킵 후보자 픽쳐로 설정된다. 슬라이스 타입이 B인 경우에는 슬라이스 헤더내의 시간 스킵 후보자 픽쳐가 속하는 리스트를 나타내는 플래그를 이용하여 참조 픽쳐 리스트를 선택하고, 상기 참조 픽쳐 리스트 내의 참조 픽쳐 인덱스가 0인 픽쳐를 시간 스킵 후보자 픽쳐로 결정한다. 예를 들어, 상기 플래그가 1을 나타내면 list0로부터, 0을 나타내면 list1으로부터 시간 스킵 후보자 픽쳐를 설정할 수 있다.
한편, 상기 시간 스킵 후보자를 위한 참조 픽쳐 인덱스가 나타내는 참조 픽쳐를 시간 스킵 후보자 블록이 속하는 픽쳐로 설정할 수도 있다. 이 경우에도 슬라이스 타입이 P인 경우에는 리스트 0(list0)의 상기 시간 스킵 후보자의 참조 픽쳐 인덱스가 나타내는 참조 픽쳐가 시간 스킵 후보자 픽쳐로 설정된다. 그리고, 슬라이스 타입이 B인 경우에는 슬라이스 헤더내의 시간 스킵 후보자가 속하는 리스트를 나타내는 플래그를 이용하여 시간 스킵 후보자 픽쳐를 설정한다.
다음으로, 상기 시간 스킵 후보자 픽쳐 내의 시간 스킵 후보자 블록을 구한다. 상기 시간 스킵 후보자 블록으로서, 상기 시간 스킵 후보자 픽쳐 내의 현재 예측 유닛에 대응하는 복수개의 대응 블록 중 어느 하나가 선택될 수 있다. 이 경우, 복수개의 대응 블록들에 우선순위를 부여하고, 상기 우선순위에 기초하여 유효한 첫번째 대응 블록이 시간 스킵 후보자 블록으로 선택될 수 있다.
도 6은 상기 시간 스킵 후보자 픽쳐 내의 현재 예측 유닛에 대응하는 대응 블록들을 나타낸다.
*시간 스킵 후보자의 위치는 공간 스킵 후보자의 위치와 서로 다른 것이 바람직하다.
따라서, 상기 시간 스킵 후보자 픽쳐 내의 현재 예측 유닛에 대응하는 블록에 인접하는 좌하측 코너 블록(BR0) 또는 상기 시간 스킵 후보자 픽쳐 내의 현재 예측 유닛에 대응하는 블록내의 좌하측 블록(BR1)을 제1 후보자 블록으로 설정하고, 상기 시간 스킵 후보자 픽쳐 내의 현재 예측 유닛에 대응하는 블록의 중앙 위치의 좌상측 픽셀 또는 우하측 픽셀을 포함하는 블록(C)을 제 2 후보자 블록으로 설정될 수 있다.
상기 제1 후보자 블록이 유효하면 상기 제1 후보자 블록을 시간 스킵 후보자 블록으로 설정하고, 상기 제1 후보자 블록이 유효하지 않고 상기 제2 후보자 블록이 유효하면, 상기 제2 후보자 블록을 시간 스킵 후보자 블록으로 설정한다.
한편, 상기 좌하측 코너 블록(BR0), 상기 좌하측 블록(BR1), 상기 우하측 픽셀 또는 좌상측 픽셀을 포함하는 블록(C) 순으로 스캔할 수도 있다. 또한, 유효한 시간 스킵 후보자 블록이 복수개 존재할 경우, 가장 큰 면적을 갖는 대응블록 또는 이들의 중앙값(median)을 시간 스킵 후보자 움직임 벡터로 설정할 수도 있다.
상기 시간 후보자 예측 블록이 결정되면, 상기 시간 후보자 예측 블록의 움직임 벡터를 시간 스킵 후보자 움직임 벡터로 설정한다.
다음으로, 유효한 스킵 후보자 리스트를 구축한다(S230).
유효한 공간 스킵 후보자 및 시간 스킵 후보자를 이용하여 스킵 후보자 리스트를 구축한다. 스킵 후보자 리스트는 미리 정해진 순서로 구축하는 것이 바람직하다. 미리 정해진 순서는 공간 좌측 스킵 후보자(A), 공간 상측 스킵 후보자(B), 시간 스킵 후보자, 공간 우상측 스킵 후보자(C), 공간 좌하측 시킵 후보자(D) 순으로 설정될 수 있다. 또한, 시간 스킵 후보자, 공간 좌측 스킵 후보자(A), 공간 상측 스킵 후보자(B), 공간 우상측 스킵 후보자(C), 공간 좌하측 스킵 후보자(D) 순으로 설정될 수도 있다.
한편, 공간 좌측 스킵 후보자(A), 공간 상측 스킵 후보자(B), 공간 우상측 스킵 후보자(C), 공간 좌하측 스킵 후보자(D)들 중 어느 하나 이상이 유효하지 않은 경우에는 공간 좌상측 스킵 후보자(E)가 추가될 수 있다. 이 경우, 공간 좌상측 스킵 후보자(E)는 유효하지 않은 공간 스킵 후보자의 위치에 추가된다. 즉, 각 공간 스킵 후보자별 우선순위에 따라 유효성을 검사하여, 유효하지 않은 공간 스킵 후보자의 위치에 상기 공간 좌상측 스킵 후보자(E)를 추가한다. 상기 우선순위는 A, B, C, D 순이거나, A, D, B, C 순일 수 있다.
스킵 후보자 리스트가 구축시, 복수개의 스킵 후보자가 동일 움직임 벡터와 동일 참조 픽쳐 인덱스를 가지게 되면, 스킵 후보자 리스트 상에서 후순위를 갖는 스킵 후보자를 리스트 상에서 삭제한다.
다음으로, 현재 예측 유닛의 움직임 벡터 및 참조 픽쳐 인덱스를 구한다(S240).
수신된 예측 유닛 내에 스킵 인덱스가 존재하는 경우에는 스킵 후보자 리스트 상의 대응하는 인덱스의 스킵 후보자 예측 유닛의 움직임 벡터와 참조 픽쳐 인덱스를 현재 예측 유닛의 움직임 벡터 및 참조 픽쳐 인덱스로 결정한다.
그러나, 수신된 예측 유닛 내에 스킵 인덱스가 존재하지 않는 경우에는, 스킵 후보자가 존재하면 상기 스킵 후보자의 움직임 벡터와 참조 픽쳐 인덱스를 현재 예측 유닛의 움직임 벡터 및 참조 픽쳐 인덱스로 결정한다.
그리고, 수신된 예측 유닛 내에 스킵 인덱스가 존재하지 않고, 스킵 후보자도 존재하지 않으면, 현재 예측 유닛의 움직임 벡터를 0, 참조 픽쳐 인덱스를 0으로 결정한다.
한편, 스킵 후보자가 시간 스킵 후보자일 경우에는 시간 스킵 후보자의 움직임 벡터를 현재 예측 유닛의 움직임 벡터로 설정한다. 그리고, 0 또는 상기한 시간 스킵 후보자를 위한 참조 픽쳐 인덱스를 현재 예측 유닛의 참조 픽쳐 인덱스로 결정할 수 있다.
한편, 스킵 인덱스는 유효한 스킵 후보자 수에 따라 서로 다른 VLC테이블을 이용하여 부호화된 값일 수 있다. 이 경우, 유효한 스킵 후보자 수를 구한 후, 이에 대응하는 VLC 테이블을 이용하여 상기 스킵 인덱스를 복호하는 단계가 단계S230과 단계 S240 사이에 추가될 수 있다. 단계 240은 상기 복호된 스킵 인덱스를 이용하여 현재 예측 유닛의 움직임 정보를 결정한다. 또한, 스킵 후보자 수가 고정일 수 있다. 이 경우에는 유효한 스킵 후보자를 이용하여 유효하지 않은 스킵 후보자를 생성하여 스킵 후보자 리스트를 구축할 수 있다.
현재 예측 유닛의 움직임 벡터와 참조 픽쳐 인덱스가 구해지면, 참조 픽쳐 인덱스가 나타내는 픽쳐 내에서 움직임 벡터를 이용하여 예측 블록을 생성한다(S250). 상기 생성된 예측 블록은 복원 블록이 된다.
한편, 부호화 유닛 내의 skip_flag가 0이고, 수신된 예측 유닛 내의 merge_flag가 1일 경우의 복원 블록을 생성하는 과정은 상기한 스킵 모드에서의 복원블록을 생성하는 과정과 거의 동일하다. 구체적으로, 예측 블록을 생성하는 과정은 동일하다. 그러나, 스킵 모드에서는 잔차 블록이 0이기 때문에, 생성된 예측 블록이 복원블록이 되는 반면, 머지 모드에서는 잔차 블록이 0이 아니기 때문에, 잔차블록을 복원하는 단계 및 생성된 예측 블록과 복원된 잔차 블록을 더하여 복원 블록을 생성하는 단계가 추가된다.
인접 예측 유닛으로부터 공간 머지 후보자와 시간 머지 후보자를 유도한다. 공간 머지 후보자를 유도하는 과정은 공간 스킵 후보자를 구하는 과정과 동일하다. 또한, 시간 머지 후보자를 유도하는 과정도 시간 스킵 후보자를 구하는 과정과 동일하다.
다음으로, 유효한 머지 후보자 리스트를 구축한다. 유효한 공간 먼지 후보자 및 시간 머지 후보자들을 미리 정해진 순서로 정렬한다. 미리 정해진 순서는 공간 좌측 머지 후보자(A), 공간 상측 머지 후보자(B), 시간 머지 후보자, 공간 우상측 머지 후보자(C), 공간 좌하측 머지 후보자(D) 순으로 설정될 수 있다. 또한, 시간 머지 후보자, 공간 좌측 머지 후보자(A), 공간 상측 머지 후보자(B), 공간 우상측 머지 후보자(C), 공간 좌하측 머지 후보자(D) 순으로 설정될 수도 있다.
한편, 공간 좌측 머지 후보자(A), 공간 상측 머지 후보자(B), 공간 우상측 머지 후보자(C), 공간 좌하측 머지 후보자(D)들 중 어느 하나 이상이 유효하지 않은 경우에는 공간 좌상측 머지 후보자(E)가 추가될 수 있다. 이 경우, 공간 좌상측 머지 후보자(E)는 유효하지 않은 공간 머지 후보자의 위치에 추가된다. 즉, 각 공간 머지 후보자별 우선순위에 따라 유효성을 검사하여, 유효하지 않은 공간 머지 후보자의 위치에 상기 공간 좌상측 머지 후보자(E)를 추가한다. 상기 우선순위는 A, B, C, D 순이거나, A, D, B, C 순일 수 있다.
또한, 상기 미리 정해진 순서는 예측 유닛의 예측 모드에 따라 달리 설정될 수도 있고, 일부 머지 후보자를 후보자에서 배제시킬 수도 있다. 즉, 예측 유닛이 2NxN일 경우에는 상기 순서로 설정할 수 있으나, 공간 좌하측 머지 후보자(D)를 후보자에서 삭제할 수 있다. 또한, 예측 유닛이 Nx2N일 경우에는 공간 우상측 머지 후보자(C)보다 공간 좌하측 머지 후보자(블록 D)가 현재 예측 유닛과의 연관성(correlation)이 높기 때문에, 상기 2개 후보자의 순서를 변경하거나 공간 우상측 머지 후보자(블록 C)를 공간 머지 후보자에서 제외시킬 수도 있다.
다음으로, 현재 예측 유닛의 움직임 벡터 및 참조 픽쳐 인덱스를 구한다. 수신된 예측 유닛 내에 머지 인덱스가 존재하는 경우에는 머지 후보자 리스트 상의 대응하는 인덱스의 머지 후보자의 움직임 벡터와 참조 픽쳐 인덱스를 현재 예측 유닛의 움직임 벡터 및 참조 픽쳐 인덱스로 결정한다.
그러나, 수신된 예측 유닛 내에 머지 인덱스가 존재하지 않지만 머지 후보자가 존재하면, 상기 머지 후보자의 움직임 벡터와 참조 픽쳐 인덱스를 현재 예측 유닛의 움직임 벡터 및 참조 픽쳐 인덱스로 결정한다.
그리고, 수신된 예측 유닛 내에 머지 인덱스가 존재하지 않고 스킵 후보자도 존재하지 않으면, 현재 예측 유닛의 움직임 벡터를 0, 참조 픽쳐 인덱스를 0으로 결정한다.
한편, 머지 후보자가 시간 머지 후보자일 경우에는 시간 머지 후보자의 움직임 벡터를 현재 예측 유닛의 움직임 벡터로 설정한다. 그리고, 0 또는 시간 머지 후보자를 위한 참조 픽쳐 인덱스를 현재 예측 유닛의 참조 픽쳐 인덱스로 결정할 수 있다.
한편, 머지 인덱스는 유효한 머지 후보자 수에 따라 서로 다른 VLC테이블을 이용하여 부호화된 값일 수 있다. 이 경우, 유효한 머지 후보자 수를 구한 후, 이에 대응하는 VLC 테이블을 이용하여 상기 스킵 인덱스를 복호하는 단계가 추가될 수 있다.
현재 예측 유닛의 움직임 벡터와 참조 픽쳐 인덱스가 구해지면, 참조 픽쳐 인덱스가 나타내는 픽쳐 내에서 움직임 벡터를 이용하여 예측 블록을 생성한다.
또한, 변환 유닛 단위로 잔차 블록을 복원한다. 잔차 블록은 엔트로피 복호화, 역스캔, 역양자화 및 역변환 과정을 통해 복원된다. 상기 과정은 도 2의 동영상 복호화 장치의 엔트로피 복호화부(210), 역스캐닝부(215), 역양자화부(220), 역변환부(225)에 의해 수행된다.
마지막으로, 상기 생성된 예측 블록과 상기 복원된 잔차블록을 이용하여 복원블록을 생성한다. 복원블록은 부호화 유닛 단위로 복원할 수 있다. 따라서, 생성된 예측 블록 및 복원된 잔차 블록을 각각 부호화 유닛 단위로 만든 후에, 상기 부호화 단위의 예측 블록과 부호화 단위의 잔차 블록을 이용하여 복원블록을 생성할 수 있다.
도 7은 본 발명에 따른 움직임 벡터 예측 부호화된 예측 유닛의 복원 블록을 생성하는 과정을 나타내는 도면이다. 부호화 유닛 내의 skip_flag가 0이고, 수신된 예측 유닛 내의 merge_flag가 0인 경우에 적용된다.
먼저, 수신된 비트스트림의 예측 유닛 신택스로부터 현재 예측 유닛의 참조 픽쳐 인덱스와 차분 움직임 벡터를 구한다(S310).
슬라이스 타입이 B경우에는 인터 예측 정보를 확인한다. 인터 예측 정보가 참조 픽쳐 조합 리스트(Pred_LC)를 이용한 단방향 예측을 나타내면, 참조 픽쳐 인덱스를 이용하여 참조 픽쳐 조합 리스트(list_c) 내의 참조 픽쳐를 선택한다. 그리고, 차분 움직임 벡터를 복원한다. 인터 예측 정보가 참조 픽쳐 리스트 0을 이용한 단방향 예측을 나타내면, 참조 픽쳐 리스트 0의 참조 픽쳐 인덱스를 이용하여 참조 픽쳐를 구하고, 차분 움직임 벡터를 복원한다. 인터 예측 정보가 양방향 예측을 나타내면, 참조 픽쳐 리스트 0의 참조 픽쳐 인덱스와 참조 픽쳐 리스트 1의 참조 픽쳐 인덱스를 이용하여 각 참조 픽쳐를 구하고, 각 참조 픽쳐에 대한 차분 움직임 벡터를 복원한다.
다음으로, 공간 움직임 벡터 예측자를 구한다(S320). 도 8은 본 발명에 따른 공간 움직임 벡터 후보자를 구하기 위해 사용되는 현재 예측 유닛에 인접한 예측 유닛들의 위치를 나타낸다.
좌측 공간 움직임 벡터 후보자는 현재 예측 유닛의 좌측 예측 유닛들 중 하나(블록A, D중 하나)가 될 수 있다. 상측 공간 움직임 벡터 후보자는 현재 예측 유닛의 상측 예측 유닛들 중 하나(블록 B, C, E 중 하나)가 될 수 있다.
먼저, 좌측 공간 움직임 벡터 후보자를 구하는 과정을 설명한다.
현재 예측 유닛의 좌측 예측 유닛들을 A, D 순서 또는 D, A순서으로 검색하여 제1 조건을 만족하는 예측 유닛이 존재하는지를 검색한다. 제1 조건을 만족하는 예측 유닛은 ① 예측 유닛이 존재하고, ② 예측 유닛이 인터 예측 유닛이고, ③ 현재 예측 유닛의 참조 픽쳐와 동일한 참조 픽쳐를 가지고, ④ 참조 픽쳐 리스트가 동일한 예측 유닛을 말한다. 상기 제1 조건을 만족하는 예측 유닛이 존재하면 상기 예측 유닛의 움직임 벡터를 좌측 공간 움직임 벡터 후보자로 설정한다. 제1 조건을 만족하는 예측 유닛이 존재하지 않으면, 제2 조건을 만족하는 예측 유닛이 존재하는지를 검색한다. 제2 조건을 만족하는 예측 유닛은 ① 예측 유닛이 존재하고, ② 예측 유닛이 인터 예측 유닛이고, ③ 현재 예측 유닛의 참조 픽쳐와 동일한 참조 픽쳐를 가지되, ④ 참조 픽쳐 리스트가 상이한 예측 유닛을 말한다. 상기 제2 조건을 만족하는 예측 유닛이 존재하면 상기 예측 유닛의 움직임 벡터를 좌측 공간 움직임 벡터 후보자로 설정한다.
제2 조건을 만족하는 예측 유닛도 존재하지 않으면, 제3 조건을 만족하는 예측 유닛이 존재하는지를 검색한다. 제3 조건을 만족하는 예측 유닛은 ① 예측 유닛이 존재하고, ② 예측 유닛이 인터 예측 유닛이고, ③ 참조 픽쳐 리스트가 동일하되, ④ 현재 예측 유닛의 참조 픽쳐와 다른 참조 픽쳐를 갖는 예측 유닛을 말한다. 상기 제3 조건을 만족하는 예측 유닛이 존재하면 상기 예측 유닛의 움직임 벡터를 좌측 공간 움직임 벡터 후보자로 설정한다.
제3 조건을 만족하는 예측 유닛도 존재하지 않으면, 제4 조건을 만족하는 예측 유닛이 존재하는지를 검색한다. 제4 조건을 만족하는 예측 유닛은 ① 예측 유닛이 존재하고, ② 예측 유닛이 인터 예측 유닛이되, ③ 참조 픽쳐 리스트가 다르고, ④ 현재 예측 유닛의 참조 픽쳐와 다른 참조 픽쳐를 갖는 예측 유닛을 말한다. 상기 제4 조건을 만족하는 예측 유닛이 존재하면 상기 예측 유닛의 움직임 벡터를 좌측 공간 움직임 벡터 후보자로 설정한다.
제1 조건 또는 제2 조건을 만족하는 예측 유닛의 움직임 벡터는 그대로 움직임 벡터 후보자로 사용되나, 제3 조건 또는 제4 조건을 만족하는 예측 유닛의 움직임 벡터는 스케일링되어 움직임 벡터 후보자로 사용된다.
상기 모든 조건을 만족시키는 움직임 벡터가 존재하지 않으면, 좌측 공간 움직임 벡터 후보자는 유효하지 않은 것으로 설정한다.
다음으로, 상측 공간 움직임 벡터 후보자를 구하는 과정을 설명한다.
현재 예측 유닛의 상측 예측 유닛들을 B, C, E 순서 또는 C, B, E 순서로 검색하여 제1 조건을 만족하는 예측 유닛이 존재하는지를 검색한다. 상기 제1 조건을 만족하는 예측 유닛이 존재하면 상기 예측 유닛의 움직임 벡터를 상측 공간 움직임 벡터 후보자로 설정한다.
제1 조건을 만족하는 예측 유닛이 존재하지 않으면, 제2 조건을 만족하는 예측 유닛이 존재하는지를 검색한다. 상기 제2 조건을 만족하는 예측 유닛이 존재하면 상기 예측 유닛의 움직임 벡터를 상측 공간 움직임 벡터 후보자로 설정한다.
제2 조건을 만족하는 예측 유닛도 존재하지 않으면, 제3 조건을 만족하는 예측 유닛이 존재하는지를 검색한다. 상기 제3 조건을 만족하는 예측 유닛이 존재하면 상기 예측 유닛의 움직임 벡터를 상측 공간 움직임 벡터 후보자로 설정한다.
제3 조건을 만족하는 예측 유닛도 존재하지 않으면, 제4 조건을 만족하는 예측 유닛이 존재하는지를 검색한다. 상기 제4 조건을 만족하는 예측 유닛이 존재하면 상기 예측 유닛의 움직임 벡터를 상측 공간 움직임 벡터 후보자로 설정한다.
제1 조건 또는 제2 조건을 만족하는 예측 유닛의 움직임 벡터는 그대로 움직임 벡터 후보자로 사용되나, 제3 조건 또는 제4 조건을 만족하는 예측 유닛의 움직임 벡터는 스케일링되어 움직임 벡터 후보자로 사용된다.
상기 모든 조건을 만족시키는 움직임 벡터가 존재하지 않으면, 상측 공간 움직임 벡터 후보자는 유효하지 않은 것으로 설정한다.
좌측 공간 움직임 벡터 후보자를 구하는 과정에서의 제1~4조건과 상측 공간 움직임 벡터 후보자를 구하는 과정에서의 제1~4조건은 동일하다.
시간 움직임 벡터 후보자를 구한다(S330). 먼저, 상기 시간 움직임 벡터 후보자 블록이 속하는 픽쳐(이하, 시간 움직임 벡터 후보자 픽쳐)를 결정한다. 시간 움직임 벡터 후보자 픽쳐는 참조 픽쳐 인덱스가 0인 픽쳐로 결정될 수 있다. 이 경우, 슬라이스 타입이 P인 경우에는 리스트 0(list0)의 첫번째 픽쳐가 시간 움직임 벡터 후보자 픽쳐로 결정된다. 슬라이스 타입이 B인 경우에는 슬라이스 헤더내의 시간 움직임 벡터 후보자가 속하는 리스트를 나타내는 플래그를 이용하여 시간 움직임 벡터 후보자 픽쳐가 결정된다. 예를 들어, 상기 플래그가 1을 나타내면 list0로부터, 0을 나타내면 list1으로부터 시간 움직임 벡터 후보자 픽쳐를 결정할 수 있다. 또한, 수신된 예측 유닛으로부터 구한 현재 예측 유닛의 참조 픽쳐 인덱스에 대응하는 픽쳐를 시간 움직임 벡터 후보자 픽쳐로 결정할 수도 있다.
다음으로, 상기 시간 움직임 벡터 후보자 픽쳐 내의 시간 움직임 벡터 후보자 블록을 구한다. 상기 시간 움직임 벡터 후보자 블록은 시간 스킵 움직임 벡터 후보자와 동일하다. 상기 시간 움직임 벡터 후보자 블록이 결정되면, 상기 시간 움직임 벡터 후보자 블록의 움직임 벡터를 시간 움직임 벡터 후보자로 설정한다.
다음으로, 움직임 벡터 후보자 리스트를 생성한다(S340). 움직임 벡터 후보자 리스트는 유효한 움직임 벡터 후보자들만을 이용한다. 리스트는 미리 정해진 순서로 구축하는 것이 바람직하다. 미리 정해진 순서는 공간 좌측 움직임 벡터 후보자, 공간 상측 움직임 벡터 후보자, 시간 움직임 벡터 후보자 순으로 설정될 수 있다. 또한, 시간 움직임 벡터 후보자, 공간 상측 움직임 벡터 후보자 순, 공간 상측 움직임 벡터 후보자 순으로 설정될 수도 있다.
다만, 예측 유닛의 예측 모드에 따라 공간 움직임 벡터 후보자들의 순서가 달리 설정될 수도 있고, 일부 공간 움직임 벡터 후보자를 후보자에서 배제시킬 수도 있다. 즉, 부호화 유닛이 2개의 2NxN의 예측 유닛으로 분할될 경우의 아래쪽의 2NxN 예측 블록의 경우에는 공간 상측 움직임 벡터 후보자를 리스트에서 배제시킬 수 있다. 마찬가지로, 부호화 유닛이 2개의 Nx2N 의 예측 유닛으로 분할될 경우의 우측의 Nx2N 예측 블록의 경우에는 공간 상측 움직임 벡터 후보자와 공간 좌측 움직임 벡터 후보자 순서를 바꾸거나, 공간 좌측 움직임 벡터 후보자를 리스트에서 배제시킬 수 있다.
한편, 부호화 유닛이 2개의 2NxN 의 예측 유닛으로 분할될 경우의 상측의 2NxN 예측 블록은 머지가 될 수 있다. 그러나, 머지가 되지 않을 경우에는 공간 좌측 움직임 벡터 후보자를 구하는 과정에서 D를 제외시키거나, A, D의 순서로 검색할 수 있다. 마찬가지로, 부호화 유닛이 2개의 Nx2N 의 예측 유닛으로 분할될 경우의 좌측의 Nx2N 예측 블록은 머지가 될 수 있다. 그러나, 머지가 되지 않을 경우에는 공간 상측 움직임 벡터 후보자를 구하는 과정에서 C를 제외시키거나, B, C, E 순서로 검색할 수 있다.
다음으로, 움직임 벡터 후보자 리스트가 구축되면, 복수개의 움직임 벡터 후보자가 동일 움직임 벡터를 가지게 되면, 움직임 벡터 후보자 리스트 상에서 후순위를 갖는 움직임 벡터 후보자를 삭제할 수 있다.
다음으로, 현재 예측 유닛의 움직임 벡터 예측자를 구한다(S350).
움직임 벡터 인덱스가 예측 유닛 내에 존재하는 경우에는 상기 움직임 벡터 후보자 리스트 상의 대응하는 인덱스의 움직임 벡터 후보자를 현재 예측 유닛의 움직임 벡터 예측자로 결정한다. 움직임 벡터 인덱스가 예측 유닛 내에 존재하지 않지만 움직임 벡터 후보자가 존재하면 상기 움직임 벡터 후보자를 현재 예측 유닛의 움직임 벡터 예측자로 설정한다. 만약, 모든 후보자가 유효하지 않으면, 현재 예측 유닛의 움직임 벡터 예측자를 0으로 설정한다.
한편, 움직임 벡터 후보자 리스트를 설정하기 전에, 예측 유닛 내의 움직임 벡터 인덱스를 먼저 읽어 들일 수 있다. 이 경우에는 움직임 벡터 인덱스가 나타내는 수만큼만 미리 정해진 순서로 유효한 움직임 벡터 후보자를 검출한 후, 움직임 벡터 인덱스에 대응하는 움직임 벡터 후보자를 현재 예측 유닛의 움직임 벡터로 설정할 수 있다. 움직임 벡터 인덱스는 고정길이로 부호화된 정보일 수 있으나, 가변길이인 것이 바람직하다.
현재 예측 유닛의 움직임 벡터 예측자가 구해지면, 수신된 차분 움직임 벡터와 상기 움직임 벡터 예측자를 더하여 현재 예측 유닛의 움직임 벡터를 복원한다(S360).
다음으로, 상기 복원된 현재 예측 유닛의 움직임 벡터와 수신된 현재 예측 유닛의 참조 픽쳐 인덱스를 이용하여 예측 블록을 생성한다(S370).
또한, 변환 유닛 단위로 잔차 블록을 복원한다(S380). 잔차 블록은 엔트로피 복호화, 역스캔, 역양자화 및 역변환 과정을 통해 복원된다. 상기 과정은 도 2의 동영상 복호화 장치의 엔트로피 복호화부(210), 역스캐닝부(215), 역양자화부(220), 역변환부(225)에 의해 수행된다.
마지막으로, 상기 생성된 예측 블록과 상기 복원된 잔차블록을 이용하여 복원블록을 생성한다(S390). 복원블록은 부호화 유닛 단위로 복원할 수 있다. 따라서, 생성된 예측 블록 및 복원된 잔차 블록을 각각 부호화 유닛 단위로 만든 후에, 상기 부호화 단위의 예측 블록과 부호화 단위의 잔차 블록을 이용하여 복원블록을 생성할 수 있다.
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (10)

  1. 인터 예측 부호화 방법에 있어서,
    현재 예측 유닛의 움직임 벡터와 참조픽쳐 인덱스를 결정하는 단계;
    상기 현재 예측 유닛과 인접하는 미리 정해진 위치의 예측 유닛들의 유효한 움직임 벡터를 공간 움직임 벡터 후보자로 유도하는 단계;
    상기 현재 예측 유닛의 유효한 시간 움직임 벡터 후보자를 유도하는 단계;
    상기 유효한 공간 움직임 벡터 후보자 및 시간 움직임 벡터 후보자 중 하나를 현재 예측 유닛의 움직임 벡터 예측자로 결정하는 단계;
    상기 현재 예측 유닛의 움직임 벡터와 상기 결정된 움직임 벡터 예측자와의 움직임 벡터 차이값을 구하고, 상기 차이값과 상기 참조픽쳐 인덱스를 부호화하는 단계를 포함하고,
    상기 시간 움직임 벡터 후보자는 이전에 부호화된 참조 픽쳐 내의 현재 예측 유닛에 대응하는 위치 또는 그 주변에 존재하는 예측 유닛의 움직임 벡터인 것을 특징으로 하는 인터 예측 부호화 방법.
  2. 제1항에 있어서, 상기 시간 움직임 벡터 후보자는 상기 참조 픽쳐 내의 미리 정해진 제1 위치 및 제2 위치의 순으로 검색하여 유효한 움직임 벡터로 결정되는 것을 특징으로 하는 인터 예측 부호화 방법.
  3. 제2항에 있어서, 상기 참조 픽쳐 내의 미리 정해진 제1 위치 및 제2 위치의 움직임 벡터가 모두 유효하지 않은 경우, 상기 시간 움직임 벡터 후보자는 유효하지 않은 것으로 결정하는 것을 특징으로 하는 인터 예측 부호화 방법.
  4. 제1항에 있어서, 슬라이스 타입이 양방향 예측인 경우, 상기 시간 움직임 벡터 후보자가 속하는 참조 픽쳐를 리스트 0의 참조픽쳐 및 리스트 1의 참조 픽쳐 중 하나로 결정하고, 상기 리스트를 특정하는 정보를 부호화하는 것을 특징으로 하는 인터 예측 부호화 방법.
  5. 제1항에 있어서, 상기 시간 움직임 벡터 후보자가 사용되는지 여부를 판단하고, 상기 정보를 부호화하는 것을 특징으로 하는 인터 예측 부호화 방법.
  6. 제1항에 있어서, 상기 현재 예측 유닛의 유효한 좌측 움직임 벡터 및 상기 현재 예측 유닛의 유효한 상측 움직임 벡터가 상기 공간 움직임 벡터 후보자로 결정되는 것을 특징으로 하는 인터 예측 부호화 방법.
  7. 제6항에 있어서, 상기 좌측 움직임 벡터 후보자는 상기 현재 예측 유닛의 좌측 및 좌하측에 인접하는 예측 유닛의 움직임 벡터들을 미리 정해진 순서로 검색하여 얻어진 유효한 움직임 벡터인 것을 특징으로 하는 인터 예측 부호화 방법.
  8. 제6항에 있어서, 상기 상측 움직임 벡터 후보자는 현재 예측 유닛의 상측, 우상측 및 좌상측에 인접하는 예측 유닛들의 움직임 벡터들을 미리 정해진 순서로 검색하여 얻어진 유효한 움직임 벡터인 것을 특징으로 하는 인터 예측 부호화 방법.
  9. 제1항에 있어서, 상기 유효한 공간 움직임 벡터 후보자를 적응적으로 스케일링하는 것을 특징으로 하는 인터 예측 부호화 방법.
  10. 제1항에 있어서, 상기 현재 예측 유닛의 참조 픽쳐와 상기 공간 움직임 벡터 후보자의 참조 픽쳐의 시간적 거리에 따라 상기 유효한 공간 움직임 벡터 후보자를 스케일링하는 것을 특징으로 하는 인터 예측 부호화 방법.
KR1020137020886A 2010-08-17 2011-08-12 동영상 복호화 장치 KR101430049B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR1020100079530 2010-08-17
KR20100079530 2010-08-17
KR1020110064306A KR20120016991A (ko) 2010-08-17 2011-06-30 인터 프리딕션 방법
KR1020110064306 2011-06-30
PCT/KR2011/005942 WO2012023763A2 (ko) 2010-08-17 2011-08-12 인터 예측 부호화 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020127028866A Division KR101430048B1 (ko) 2010-08-17 2011-08-12 동영상 복호화 장치

Publications (2)

Publication Number Publication Date
KR20130099243A true KR20130099243A (ko) 2013-09-05
KR101430049B1 KR101430049B1 (ko) 2014-08-14

Family

ID=45839101

Family Applications (10)

Application Number Title Priority Date Filing Date
KR1020110064306A KR20120016991A (ko) 2010-08-17 2011-06-30 인터 프리딕션 방법
KR1020177037856A KR20180015686A (ko) 2010-08-17 2011-08-12 영상 부호화 장치
KR1020137020886A KR101430049B1 (ko) 2010-08-17 2011-08-12 동영상 복호화 장치
KR1020137020888A KR20130099244A (ko) 2010-08-17 2011-08-12 인터 예측 부호화 방법
KR1020127028866A KR101430048B1 (ko) 2010-08-17 2011-08-12 동영상 복호화 장치
KR1020147010361A KR20140057675A (ko) 2010-08-17 2011-08-12 인터 예측 부호화 방법
KR1020147010363A KR20140057397A (ko) 2010-08-17 2011-08-12 인터 예측 부호화 방법
KR1020177037857A KR20180018591A (ko) 2010-08-17 2011-08-12 영상 복호화 장치
KR1020197012409A KR20190049919A (ko) 2010-08-17 2011-08-12 영상 부호화 장치
KR1020147010362A KR20140057396A (ko) 2010-08-17 2011-08-12 인터 예측 부호화 방법

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020110064306A KR20120016991A (ko) 2010-08-17 2011-06-30 인터 프리딕션 방법
KR1020177037856A KR20180015686A (ko) 2010-08-17 2011-08-12 영상 부호화 장치

Family Applications After (7)

Application Number Title Priority Date Filing Date
KR1020137020888A KR20130099244A (ko) 2010-08-17 2011-08-12 인터 예측 부호화 방법
KR1020127028866A KR101430048B1 (ko) 2010-08-17 2011-08-12 동영상 복호화 장치
KR1020147010361A KR20140057675A (ko) 2010-08-17 2011-08-12 인터 예측 부호화 방법
KR1020147010363A KR20140057397A (ko) 2010-08-17 2011-08-12 인터 예측 부호화 방법
KR1020177037857A KR20180018591A (ko) 2010-08-17 2011-08-12 영상 복호화 장치
KR1020197012409A KR20190049919A (ko) 2010-08-17 2011-08-12 영상 부호화 장치
KR1020147010362A KR20140057396A (ko) 2010-08-17 2011-08-12 인터 예측 부호화 방법

Country Status (16)

Country Link
US (13) US9544611B2 (ko)
EP (7) EP3145188B1 (ko)
JP (11) JP6025726B2 (ko)
KR (10) KR20120016991A (ko)
CN (9) CN106878746B (ko)
DK (2) DK3958564T3 (ko)
ES (6) ES2952359T3 (ko)
FI (1) FI3145188T3 (ko)
HR (2) HRP20230005T1 (ko)
HU (2) HUE063254T2 (ko)
LT (1) LT3145188T (ko)
PL (6) PL3958563T3 (ko)
PT (6) PT3958559T (ko)
RS (2) RS63977B1 (ko)
SI (1) SI3145188T1 (ko)
WO (1) WO2012023763A2 (ko)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2210421A4 (en) * 2007-10-16 2013-12-04 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING A VIDEO SIGNAL
ES2618917T3 (es) * 2010-04-23 2017-06-22 M&K Holdings Inc. Aparato de codificación de imagen
US20120082228A1 (en) 2010-10-01 2012-04-05 Yeping Su Nested entropy encoding
US10104391B2 (en) 2010-10-01 2018-10-16 Dolby International Ab System for nested entropy encoding
CN107105282B (zh) * 2010-12-14 2019-11-12 M&K控股株式会社 用于解码运动画面的设备
CN105812821B (zh) * 2011-01-07 2017-10-27 株式会社Ntt都科摩 预测编码方法、装置以及预测解码方法、装置
US9635383B2 (en) * 2011-01-07 2017-04-25 Texas Instruments Incorporated Method, system and computer program product for computing a motion vector
ES2944310T3 (es) 2011-03-21 2023-06-20 Lg Electronics Inc Selección de un predictor de vector de movimiento
MX341355B (es) * 2011-08-29 2016-08-16 Ibex Pt Holdings Co Ltd Aparato para decodificar informacion de movimiento de modo de fusion.
BR112014004914B1 (pt) * 2011-08-29 2022-04-12 Ibex Pt Holdings Co., Ltd Método de codificação de uma imagem em um modo amvp
ES2950262T3 (es) 2011-10-18 2023-10-06 Lg Electronics Inc Método de intra predicción y medio de almacenamiento
KR102072124B1 (ko) * 2011-11-24 2020-02-04 에스케이텔레콤 주식회사 세밀한 예측 단위를 사용하는 효과적인 부호화/복호화 방법 및 장치
KR102083011B1 (ko) * 2012-02-29 2020-02-28 엘지전자 주식회사 인터 레이어 예측 방법 및 이를 이용하는 장치
US20130343459A1 (en) * 2012-06-22 2013-12-26 Nokia Corporation Method and apparatus for video coding
CN102883163B (zh) 2012-10-08 2014-05-28 华为技术有限公司 用于运动矢量预测的运动矢量列表建立的方法、装置
EP2919462A4 (en) 2012-11-06 2016-08-17 Nec Corp VIDEO CODING METHOD, VIDEO CODE DEVICE, VIDEO CODING PROGRAM
WO2014106435A1 (en) * 2013-01-07 2014-07-10 Mediatek Inc. Method and apparatus of spatial motion vector prediction derivation for direct and skip modes in three-dimensional video coding
CN103338372A (zh) * 2013-06-15 2013-10-02 浙江大学 一种视频处理方法及装置
WO2015009009A1 (ko) 2013-07-15 2015-01-22 주식회사 케이티 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치
WO2015009021A1 (ko) * 2013-07-15 2015-01-22 주식회사 케이티 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치
GB2534591A (en) * 2015-01-29 2016-08-03 Nokia Technologies Oy Video encoding and decoding
CN113473120A (zh) 2015-06-11 2021-10-01 英迪股份有限公司 使用自适应去块滤波编码和解码图像的方法及其装置
ES2917123B1 (es) * 2015-09-11 2023-04-21 Kt Corp Método para modificar una muestra de predicción basado en interpredicción
CN116489346A (zh) * 2015-11-20 2023-07-25 韩国电子通信研究院 对图像进行编/解码的方法和装置
US11064195B2 (en) 2016-02-15 2021-07-13 Qualcomm Incorporated Merging filters for multiple classes of blocks for video coding
CN112218073A (zh) * 2016-09-30 2021-01-12 华为技术有限公司 视频编码方法、解码方法及终端
US10506230B2 (en) * 2017-01-04 2019-12-10 Qualcomm Incorporated Modified adaptive loop filter temporal prediction for temporal scalability support
WO2019000443A1 (zh) * 2017-06-30 2019-01-03 华为技术有限公司 一种帧间预测的方法及装置
EP3451664A1 (en) * 2017-09-01 2019-03-06 Thomson Licensing Motion compensation at a finer precision than motion vector differential
WO2019183906A1 (zh) * 2018-03-29 2019-10-03 华为技术有限公司 帧间预测的方法和装置
WO2019192170A1 (zh) * 2018-04-02 2019-10-10 深圳市大疆创新科技有限公司 视频图像处理方法与装置
WO2019191890A1 (zh) 2018-04-02 2019-10-10 深圳市大疆创新科技有限公司 用于图像处理的方法和图像处理装置
TWI728390B (zh) 2018-06-29 2021-05-21 大陸商北京字節跳動網絡技術有限公司 查找表尺寸
EP3794825A1 (en) 2018-06-29 2021-03-24 Beijing Bytedance Network Technology Co. Ltd. Update of look up table: fifo, constrained fifo
TWI723444B (zh) 2018-06-29 2021-04-01 大陸商北京字節跳動網絡技術有限公司 使用一個或多個查找表來按順序存儲先前編碼的運動信息並使用它們來編碼後面的塊的概念
WO2020003283A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Conditions for updating luts
EP3788779A4 (en) * 2018-10-23 2022-03-02 Tencent America LLC VIDEO CODING METHOD AND APPARATUS
WO2020094078A1 (en) * 2018-11-06 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Position dependent storage of motion information
CN111385575A (zh) 2018-12-29 2020-07-07 华为技术有限公司 帧间预测方法、装置以及相应的编码器和解码器
US11032574B2 (en) 2018-12-31 2021-06-08 Tencent America LLC Method and apparatus for video coding
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147773A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Inserting order of motion candidates in lut
US11956427B2 (en) 2019-03-21 2024-04-09 Sk Telecom Co., Ltd. Method of restoration in subblock units, and video decoding apparatus
CN111866515B (zh) * 2019-04-30 2022-03-04 杭州海康威视数字技术股份有限公司 一种矢量差解码方法、装置及电子设备
CN117176965A (zh) * 2019-05-11 2023-12-05 北京字节跳动网络技术有限公司 用于视频处理的方法、设备和系统
CA3143556A1 (en) 2019-06-14 2020-12-17 Lg Electronics Inc. Method and device for image coding using motion vector differences
EP3952314A4 (en) 2019-09-24 2022-08-03 Guangdong Oppo Mobile Telecommunications Corp., Ltd. INTER-FRAME PREDICTION METHOD AND APPARATUS, DEVICE AND STORAGE MEDIA
CN113766227B (zh) * 2020-06-06 2023-07-11 华为技术有限公司 用于图像编码和解码的量化和反量化方法及装置
WO2024071680A1 (ko) * 2022-09-29 2024-04-04 현대자동차주식회사 분리 불가능한 1차 변환 기반 비디오 코딩을 위한 방법 및 장치

Family Cites Families (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04256298A (ja) * 1991-02-08 1992-09-10 Toshiba Corp 動画像符号化装置
US6005627A (en) * 1991-05-31 1999-12-21 Kabushiki Kaisha Toshiba Video coding apparatus
US5317397A (en) * 1991-05-31 1994-05-31 Kabushiki Kaisha Toshiba Predictive coding using spatial-temporal filtering and plural motion vectors
JP2531106B2 (ja) * 1993-08-17 1996-09-04 日本電気株式会社 動画像符号化制御方式
US5745183A (en) * 1995-08-25 1998-04-28 Thomson Consumer Electronics, Inc. Image motion estimation system which derives candidate block from interpolated motion vectors
US5832125A (en) * 1995-12-07 1998-11-03 Intel Corporation Bit rate control using short-term and long-term performance characterization
CN1183769C (zh) * 1996-05-28 2005-01-05 松下电器产业株式会社 图像预测编码/解码装置和方法以及记录媒体
EP1113672B1 (en) * 1997-02-08 2005-04-13 Matsushita Electric Industrial Co., Ltd. Quantization matrix for still and moving picture coding
US6195389B1 (en) * 1998-04-16 2001-02-27 Scientific-Atlanta, Inc. Motion estimation system and methods
US6825885B2 (en) * 2001-02-13 2004-11-30 Koninklijke Philips Electronics N.V. Motion information coding and decoding method
EP2819411B1 (en) * 2001-09-14 2018-08-29 NTT DoCoMo, Inc. Coding method and decoding method
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
CN102316320B (zh) * 2001-12-17 2014-07-09 微软公司 处理视频图像的方法
KR100454501B1 (ko) * 2001-12-26 2004-10-28 브이케이 주식회사 영상신호를 부호화 또는 복호화하기 위한 예측 장치 및 방법
JP4015934B2 (ja) 2002-04-18 2007-11-28 株式会社東芝 動画像符号化方法及び装置
US6690307B2 (en) * 2002-01-22 2004-02-10 Nokia Corporation Adaptive variable length coding of digital video
US7289672B2 (en) * 2002-05-28 2007-10-30 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode estimation
US7386048B2 (en) * 2002-05-28 2008-06-10 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode organization
US7236524B2 (en) * 2002-05-28 2007-06-26 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode communication
KR100506864B1 (ko) * 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
KR100534207B1 (ko) * 2002-12-09 2005-12-08 삼성전자주식회사 비디오 부호화기의 움직임 추정기 및 그 방법
KR100984517B1 (ko) * 2003-01-10 2010-10-01 톰슨 라이센싱 인터프레임 인코딩을 위한 빠른 모드 결정 방법
KR100750110B1 (ko) * 2003-04-22 2007-08-17 삼성전자주식회사 4×4인트라 휘도 예측 모드 결정방법 및 장치
CN1194544C (zh) * 2003-04-25 2005-03-23 北京工业大学 基于时空域相关性运动矢量预测的视频编码方法
CN1263309C (zh) * 2003-06-27 2006-07-05 中国科学院计算技术研究所 用于视频编码的运动矢量预测方法
US7738554B2 (en) * 2003-07-18 2010-06-15 Microsoft Corporation DC coefficient signaling at small quantization step sizes
US7567617B2 (en) * 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
US7620106B2 (en) * 2003-09-07 2009-11-17 Microsoft Corporation Joint coding and decoding of a reference field selection and differential motion vector information
US7369707B2 (en) * 2003-10-28 2008-05-06 Matsushita Electric Industrial Co., Ltd. Intra-picture prediction coding method
KR100596706B1 (ko) * 2003-12-01 2006-07-04 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
DE602004002455T2 (de) * 2004-04-30 2007-01-11 Matsushita Electric Industrial Co., Ltd., Kadoma Bewegungsvektorschätzung durch adaptive zeitliche Vorhersage
TWI266539B (en) * 2005-01-13 2006-11-11 Via Tech Inc Decoding device with multi-buffers
US7830960B2 (en) * 2005-01-13 2010-11-09 Qualcomm Incorporated Mode selection techniques for intra-prediction video encoding
WO2006078125A1 (en) * 2005-01-21 2006-07-27 Samsung Electronics Co., Ltd. Video coding method and apparatus for efficiently predicting unsynchronized frame
CN1658673A (zh) * 2005-03-23 2005-08-24 南京大学 视频压缩编解码方法
US20070098069A1 (en) * 2005-04-27 2007-05-03 Stephen Gordon Inverse scan, coefficient, inverse quantization and inverse transform system and method
US8761259B2 (en) * 2005-09-22 2014-06-24 Qualcomm Incorporated Multi-dimensional neighboring block prediction for video encoding
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
WO2007093629A1 (en) * 2006-02-17 2007-08-23 Thomson Licensing Process for coding images using intra prediction mode
JP4820191B2 (ja) * 2006-03-15 2011-11-24 富士通株式会社 動画像符号化装置及びプログラム
KR101311402B1 (ko) * 2006-03-23 2013-09-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
US8165202B1 (en) * 2006-03-31 2012-04-24 Texas Instruments Incorporated Video compression rate
US7974340B2 (en) * 2006-04-07 2011-07-05 Microsoft Corporation Adaptive B-picture quantization control
US7995649B2 (en) * 2006-04-07 2011-08-09 Microsoft Corporation Quantization adjustment based on texture level
CN101072356B (zh) * 2006-05-12 2011-02-09 中国科学院计算技术研究所 一种运动矢量预测方法
EP2079242A4 (en) 2006-10-30 2010-11-03 Nippon Telegraph & Telephone METHOD FOR GENERATING PREDICTIVE REFERENCE INFORMATION, DYNAMIC IMAGE ENCODING AND DECODING METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND STORAGE MEDIUM CONTAINING THE PROGRAM
US8243797B2 (en) * 2007-03-30 2012-08-14 Microsoft Corporation Regions of interest for quality adjustments
EP2153660A4 (en) * 2007-04-09 2013-01-23 Lg Electronics Inc METHOD AND DEVICE FOR PROCESSING A VIDEO SIGNAL
US8160150B2 (en) * 2007-04-10 2012-04-17 Texas Instruments Incorporated Method and system for rate distortion optimization
CN101321283B (zh) * 2007-06-10 2010-04-07 华为技术有限公司 兼容不同大小块变换的编解码方法及编解码器
US7991237B2 (en) * 2007-06-28 2011-08-02 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method and image decoding method
US8265144B2 (en) * 2007-06-30 2012-09-11 Microsoft Corporation Innovations in video decoder implementations
CN101340578A (zh) * 2007-07-03 2009-01-07 株式会社日立制作所 运动矢量估计装置、编码器及摄像机
TW200910971A (en) * 2007-08-22 2009-03-01 Univ Nat Cheng Kung Direction detection algorithms for H.264 intra prediction
BRPI0818444A2 (pt) * 2007-10-12 2016-10-11 Qualcomm Inc codificação adaptativa de informação de cabeçalho de bloco de vídeo
US8938009B2 (en) * 2007-10-12 2015-01-20 Qualcomm Incorporated Layered encoded bitstream structure
EP2210421A4 (en) * 2007-10-16 2013-12-04 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING A VIDEO SIGNAL
CN101198064A (zh) * 2007-12-10 2008-06-11 武汉大学 一种分辨率分层技术中的运动矢量预测方法
JP2009212900A (ja) 2008-03-05 2009-09-17 Nec Electronics Corp 画像復号化装置及び画像復号化方法
KR20090097013A (ko) * 2008-03-10 2009-09-15 삼성전자주식회사 영상 부호화장치 및 영상 복호화장치
KR101431545B1 (ko) * 2008-03-17 2014-08-20 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
EP2266318B1 (en) * 2008-03-19 2020-04-22 Nokia Technologies Oy Combined motion vector and reference index prediction for video coding
US20090274211A1 (en) * 2008-04-30 2009-11-05 Omnivision Technologies, Inc. Apparatus and method for high quality intra mode prediction in a video coder
US8897359B2 (en) * 2008-06-03 2014-11-25 Microsoft Corporation Adaptive quantization for enhancement layer video coding
JP5536064B2 (ja) * 2008-08-19 2014-07-02 トムソン ライセンシング 伝播マップ
US8724697B2 (en) * 2008-09-26 2014-05-13 Qualcomm Incorporated Locating motion vectors for video data units
US8660176B2 (en) * 2008-09-26 2014-02-25 Qualcomm Incorporated Resolving geometric relationships among video data units
US8805106B2 (en) * 2008-09-26 2014-08-12 Futurewei Technologies, Inc. System and method for compressing and decompressing images and video
US8634457B2 (en) * 2008-09-26 2014-01-21 Qualcomm Incorporated Determining availability of video data units
CN101686393B (zh) * 2008-09-28 2012-10-17 华为技术有限公司 应用于模板匹配的快速运动搜索方法及装置
US20100104022A1 (en) * 2008-10-24 2010-04-29 Chanchal Chatterjee Method and apparatus for video processing using macroblock mode refinement
US20100166073A1 (en) * 2008-12-31 2010-07-01 Advanced Micro Devices, Inc. Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors
CN101854540B (zh) * 2009-04-01 2014-07-02 辉达公司 用于应用h.264视频编码标准的帧内预测方法及装置
US20100296579A1 (en) * 2009-05-22 2010-11-25 Qualcomm Incorporated Adaptive picture type decision for video coding
US8477845B2 (en) * 2009-10-16 2013-07-02 Futurewei Technologies, Inc. Predictive adaptive scan ordering for video coding
US20110274162A1 (en) * 2010-05-04 2011-11-10 Minhua Zhou Coding Unit Quantization Parameters in Video Coding
US9036692B2 (en) * 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
US9100649B2 (en) * 2010-02-10 2015-08-04 Lg Electronics Inc. Method and apparatus for processing a video signal
US20110194613A1 (en) * 2010-02-11 2011-08-11 Qualcomm Incorporated Video coding with large macroblocks
US8588303B2 (en) * 2010-03-31 2013-11-19 Futurewei Technologies, Inc. Multiple predictor sets for intra-frame coding
US20110268180A1 (en) * 2010-04-29 2011-11-03 Naveen Srinivasamurthy Method and System for Low Complexity Adaptive Quantization
KR102108078B1 (ko) * 2010-05-26 2020-05-08 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
US9124898B2 (en) * 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
US8930562B2 (en) * 2010-07-20 2015-01-06 Qualcomm Incorporated Arranging sub-track fragments for streaming video data
KR101839466B1 (ko) * 2010-12-21 2018-03-16 가부시키가이샤 엔.티.티.도코모 평면 표현을 이용한 향상된 인트라-예측 부호화
BR112014004914B1 (pt) * 2011-08-29 2022-04-12 Ibex Pt Holdings Co., Ltd Método de codificação de uma imagem em um modo amvp
US20130251028A1 (en) * 2012-03-22 2013-09-26 The Hong Kong University Of Science And Technology Video encoding and decoding with channel prediction and error correction capability
US9538172B2 (en) * 2012-04-11 2017-01-03 Qualcomm Incorporated Grouping bypass coded syntax elements in video coding
JP6553925B2 (ja) * 2015-04-09 2019-07-31 東洋スチレン株式会社 スチレン系樹脂組成物及び成形体
JP6569278B2 (ja) * 2015-04-09 2019-09-04 東洋インキScホールディングス株式会社 顔料組成物およびその製造方法、並びにインクジェットインキ

Also Published As

Publication number Publication date
US20170085900A1 (en) 2017-03-23
ES2952358T3 (es) 2023-10-31
CN107087198B (zh) 2020-01-17
CN103190151B (zh) 2017-02-15
EP2608543A2 (en) 2013-06-26
US9794585B2 (en) 2017-10-17
CN104602023A (zh) 2015-05-06
JP2017041898A (ja) 2017-02-23
EP2608543A4 (en) 2014-08-06
US20170085901A1 (en) 2017-03-23
EP3958562A1 (en) 2022-02-23
US20170085902A1 (en) 2017-03-23
EP3958563B1 (en) 2023-06-07
ES2952359T3 (es) 2023-10-31
DK3145188T3 (da) 2023-03-20
US9894380B2 (en) 2018-02-13
HUE061766T2 (hu) 2023-08-28
KR20120016991A (ko) 2012-02-27
US10116958B2 (en) 2018-10-30
KR101430049B1 (ko) 2014-08-14
US20170085910A1 (en) 2017-03-23
US20190158872A1 (en) 2019-05-23
JP6242978B2 (ja) 2017-12-06
CN106878748B (zh) 2019-12-06
US10237572B2 (en) 2019-03-19
JP2017041900A (ja) 2017-02-23
CN107087197B (zh) 2020-01-17
EP3145188A2 (en) 2017-03-22
EP3958562B1 (en) 2023-06-07
CN107087198A (zh) 2017-08-22
US10602181B2 (en) 2020-03-24
JP6242983B2 (ja) 2017-12-06
US20130022122A1 (en) 2013-01-24
PL3958562T3 (pl) 2023-10-09
CN107087197A (zh) 2017-08-22
US20170085908A1 (en) 2017-03-23
HUE063254T2 (hu) 2024-01-28
PT3145188T (pt) 2023-01-23
PL3145188T3 (pl) 2023-04-17
US9877039B2 (en) 2018-01-23
RS63977B1 (sr) 2023-03-31
EP3958560A1 (en) 2022-02-23
CN103190151A (zh) 2013-07-03
LT3145188T (lt) 2023-01-25
EP3958563A1 (en) 2022-02-23
JP2017041899A (ja) 2017-02-23
HRP20230005T1 (hr) 2023-02-17
CN104602021B (zh) 2016-09-21
US20200195958A1 (en) 2020-06-18
EP3958564A1 (en) 2022-02-23
JP2017041902A (ja) 2017-02-23
SI3145188T1 (sl) 2023-02-28
JP6321749B2 (ja) 2018-05-09
JP2017034705A (ja) 2017-02-09
US9807414B2 (en) 2017-10-31
PL3958559T3 (pl) 2023-11-06
JP6242979B2 (ja) 2017-12-06
US9955180B2 (en) 2018-04-24
KR20130051444A (ko) 2013-05-20
PL3958564T3 (pl) 2023-10-02
CN106878747B (zh) 2019-08-30
ES2954979T3 (es) 2023-11-27
US20200195957A1 (en) 2020-06-18
PL3958563T3 (pl) 2023-10-09
CN104602022B (zh) 2016-06-01
KR20140057396A (ko) 2014-05-12
CN106878747A (zh) 2017-06-20
EP3958560B1 (en) 2023-06-07
JP6242980B2 (ja) 2017-12-06
WO2012023763A2 (ko) 2012-02-23
PT3958559T (pt) 2023-06-30
US9794586B2 (en) 2017-10-17
KR20180015686A (ko) 2018-02-13
KR20190049919A (ko) 2019-05-09
CN106878748A (zh) 2017-06-20
CN104602021A (zh) 2015-05-06
US9544611B2 (en) 2017-01-10
US20170085898A1 (en) 2017-03-23
KR20180018591A (ko) 2018-02-21
JP6242982B2 (ja) 2017-12-06
CN106878746B (zh) 2020-03-27
JP6025726B2 (ja) 2016-11-16
PT3958563T (pt) 2023-07-04
US20170085903A1 (en) 2017-03-23
ES2952357T3 (es) 2023-10-31
JP2017034706A (ja) 2017-02-09
DK3958564T3 (da) 2023-08-14
FI3145188T3 (fi) 2023-03-20
PT3958560T (pt) 2023-07-03
KR20140057397A (ko) 2014-05-12
US20170085909A1 (en) 2017-03-23
ES2939615T3 (es) 2023-04-25
EP3958564B1 (en) 2023-06-07
JP2013537772A (ja) 2013-10-03
KR20130099244A (ko) 2013-09-05
EP3145188B1 (en) 2022-12-21
CN104602023B (zh) 2018-01-23
CN106878746A (zh) 2017-06-20
KR20140057675A (ko) 2014-05-13
WO2012023763A3 (ko) 2012-05-10
CN104602022A (zh) 2015-05-06
US20170085899A1 (en) 2017-03-23
EP3145188A3 (en) 2017-08-16
EP3958559B1 (en) 2023-06-07
ES2954981T3 (es) 2023-11-27
JP2017005764A (ja) 2017-01-05
HRP20230575T1 (hr) 2023-09-01
JP2017041901A (ja) 2017-02-23
US10931966B2 (en) 2021-02-23
JP2017034707A (ja) 2017-02-09
US10979731B2 (en) 2021-04-13
PT3958562T (pt) 2023-06-30
JP6321750B2 (ja) 2018-05-09
US10015516B2 (en) 2018-07-03
JP6242984B2 (ja) 2017-12-06
JP6242985B2 (ja) 2017-12-06
PL3958560T3 (pl) 2023-10-02
KR101430048B1 (ko) 2014-08-18
JP2017005763A (ja) 2017-01-05
PT3958564T (pt) 2023-06-22
EP3958559A1 (en) 2022-02-23
JP6242981B2 (ja) 2017-12-06
RS64413B1 (sr) 2023-09-29

Similar Documents

Publication Publication Date Title
US11350121B2 (en) Method for generating prediction block in AMVP mode
KR101430048B1 (ko) 동영상 복호화 장치
KR101269116B1 (ko) 인터 예측 부호화된 동영상 복호화 방법
KR20130067280A (ko) 인터 예측 부호화된 동영상 복호화 방법

Legal Events

Date Code Title Description
A107 Divisional application of patent
N231 Notification of change of applicant
N231 Notification of change of applicant
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
J204 Request for invalidation trial [patent]
J301 Trial decision

Free format text: TRIAL DECISION FOR INVALIDATION REQUESTED 20150306

Effective date: 20160523

J2X1 Appeal (before the patent court)

Free format text: INVALIDATION

J302 Written judgement (patent court)

Free format text: TRIAL NUMBER: 2016200004726; JUDGMENT (PATENT COURT) FOR INVALIDATION REQUESTED 20160624

Effective date: 20161111

J303 Written judgement (supreme court)

Free format text: TRIAL NUMBER: 2016300002737; JUDGMENT (SUPREME COURT) FOR INVALIDATION REQUESTED 20161205

Effective date: 20170330