KR20150042164A - 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치 - Google Patents

축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치 Download PDF

Info

Publication number
KR20150042164A
KR20150042164A KR20150042368A KR20150042368A KR20150042164A KR 20150042164 A KR20150042164 A KR 20150042164A KR 20150042368 A KR20150042368 A KR 20150042368A KR 20150042368 A KR20150042368 A KR 20150042368A KR 20150042164 A KR20150042164 A KR 20150042164A
Authority
KR
South Korea
Prior art keywords
motion vector
predicted motion
current block
candidates
unit
Prior art date
Application number
KR20150042368A
Other languages
English (en)
Other versions
KR101768208B1 (ko
Inventor
이태미
한우진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20150042164A publication Critical patent/KR20150042164A/ko
Application granted granted Critical
Publication of KR101768208B1 publication Critical patent/KR101768208B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream

Abstract

예측 움직임 벡터의 전체 후보들 중에서 적어도 하나의 예측 움직임 벡터 후보를 제외하여 생성된 예측 움직임 벡터의 후보들에 기초해 현재 블록의 움직임 벡터를 부호화/복호화하는 방법 및 장치가 개시된다.

Description

축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치{Method and apparatus for encoding/decoding motion vector based on reduced motion vector predictor candidates}
본 발명은 움직임 벡터를 부호화, 복호화하는 방법 및 장치에 관한 것으로 보다 상세히는 현재 블록의 움직임 벡터를 예측 부호화, 예측 복호화하는 방법 및 장치에 관한 것이다.
MPEG-4 H.264/MPEG-4 AVC(Advanced Video Coding)와 같은 코덱에서는 현재 블록의 움직임 벡터를 예측하기 위해 현재 블록에 인접한 이전에 부호화된 블록들의 움직임 벡터를 이용한다. 현재 블록에 좌측, 상부 및 우측 상부에 인접한 이전에 부호화된 블록들의 움직임 벡터들의 중앙값(median)을 현재 블록의 예측 움직임 벡터(Motion vector Predictor)로 이용한다. 현재 블록의 움직임 벡터를 그대로 부호화하는 것이 아니라, 현재 블록의 움직임 벡터와 예측 움직임 벡터 사이의 움직임 벡터 차이만 부호화한다.
본 발명이 해결하고자 하는 기술적 과제는 움직임 벡터를 예측 부호화, 예측 복호화하는 방법 및 장치를 제공하는데 있고, 상기 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는데 있다.
상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 움직임 벡터를 부호화하는 방법은 현재 블록의 움직임 벡터를 추정하고, 상기 추정 결과에 기초해 예측 움직임 벡터의 전체 후보들 중 제1 예측 움직임 벡터 후보를 상기 현재 블록의 예측 움직임 벡터로 결정하여, 상기 현재 블록의 움직임 벡터와 상기 현재 블록의 예측 움직임 벡터에 기초해 움직임 벡터에 대한 정보를 생성하는 단계; 상기 전체 후보들 중 제2 예측 움직임 벡터 후보 및 상기 차이 벡터를 이용해 가상의 움직임 벡터를 생성하고, 상기 가상의 움직임 벡터와 상기 전체 후보들 각각과의 차이 벡터들을 생성하고, 상기 차이 벡터들과 상기 움직임 벡터에 대한 정보를 비교하여, 상기 제2 예측 움직임 벡터 후보를 상기 전체 후보들에서 선택적으로 제외하는 단계; 및 상기 움직임 벡터에 대한 정보 및 상기 현재 블록의 예측 움직임 벡터에 대한 정보를 부호화하는 단계를 포함한다.
상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 움직임 벡터를 복호화하는 방법은 현재 블록의 움직임 벡터에 대한 정보를 복호화하는 단계; 예측 움직임 벡터의 전체 후보들 중 소정의 예측 움직임 벡터 후보 및 상기 복호화된 움직임 벡터에 대한 정보를 이용해 가상의 움직임 벡터를 생성하고, 상기 가상의 움직임 벡터와 상기 전체 후보들 각각과의 차이 벡터들을 생성하고, 상기 생성된 차이벡터들을 상기 복호화된 움직임 벡터에 대한 정보와 비교하여, 상기 소정의 예측 움직임 벡터를 상기 전체 후보들에서 선택적으로 제외하는 단계; 및 제외되지 않은 예측 움직임 벡터의 후보들 중 하나를 상기 현재 블록의 예측 움직임 벡터로 결정하고, 상기 결정된 예측 움직임 벡터 및 상기 복호화된 움직임 벡터에 대한 정보에 기초해 상기 현재 블록의 움직임 벡터를 복원하는 단계를 포함한다.
상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 움직임 벡터를 부호화하는 장치는 현재 블록의 움직임 벡터를 추정하고, 상기 추정 결과에 기초해 예측 움직임 벡터의 전체 후보들 중 제1 예측 움직임 벡터 후보를 상기 현재 블록의 예측 움직임 벡터로 결정하여, 상기 현재 블록의 움직임 벡터와 상기 현재 블록의 예측 움직임 벡터에 기초해 움직임 벡터에 대한 정보를 생성하는 움직임벡터추정부; 상기 전체 후보들 중 제2 예측 움직임 벡터 후보 및 상기 차이 벡터를 이용해 가상의 움직임 벡터를 생성하고, 상기 가상의 움직임 벡터와 상기 전체 후보들 각각과의 차이 벡터들을 생성하고, 상기 차이 벡터들과 상기 움직임 벡터에 대한 정보를 비교하여, 상기 제2 예측 움직임 벡터 후보를 상기 전체 후보들에서 선택적으로 제외하는 후보결정부; 및 상기 움직임 벡터에 대한 정보 및 상기 현재 블록의 예측 움직임 벡터에 대한 정보를 부호화하는 움직임벡터부호화부를 포함한다.
상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 움직임 벡터를 복호화하는 장치는 현재 블록의 움직임 벡터에 대한 정보를 복호화하는 움직임벡터복호화부; 예측 움직임 벡터의 전체 후보들 중 소정의 예측 움직임 벡터 후보 및 상기 복호화된 움직임 벡터에 대한 정보를 이용해 가상의 움직임 벡터를 생성하고, 상기 가상의 움직임 벡터와 상기 전체 후보들 각각과의 차이 벡터들을 생성하고, 상기 생성된 차이벡터들을 상기 복호화된 움직임 벡터에 대한 정보와 비교하여, 상기 소정의 예측 움직임 벡터를 상기 전체 후보들에서 선택적으로 제외하는 단계 후보결정부; 및 제외되지 않은 예측 움직임 벡터의 후보들 중 하나를 상기 현재 블록의 예측 움직임 벡터로 결정하고, 상기 결정된 예측 움직임 벡터 및 상기 복호화된 움직임 벡터에 대한 정보에 기초해 상기 현재 블록의 움직임 벡터를 복원하는 움직임벡터복원부를 포함한다.
상기 기술적 과제를 해결하기 위해 본 발명은 상기된 움직임 벡터를 부호화하는 방법 및/또는 복호화하는 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.
본 발명에 따르면, 예측 움직임 벡터의 후보들을 이용하여 움직임 벡터를 예측 부호화, 예측 복호화하는 경우에도 예측 움직임 벡터의 후보들의 개수를 축소하여 움직임 벡터를 예측 부호화, 예측 복호화할 수 있다. 따라서, 예측 움직임 벡터의 후보들 중 현재 블록의 움직임 벡터를 예측에 이용된 예측 움직임 벡터 후보를 특정하기 필요한 정보를 최소한의 비트로 부호화할 수 있어, 움직임 벡터 부호화/복호화의 압축률이 향상되며, 이에 따라, 영상 부호화/복호화의 압축률도 향상될 수 있다.
도 1은 본 발명의 일 실시예에 따른 영상 부호화 장치를 도시한다.
도 2는 본 발명의 일 실시예에 따른 영상 복호화 장치를 도시한다.
도 3은 본 발명의 일 실시예에 따른 계층적 부호화 단위를 도시한다.
도 4는 본 발명의 일 실시예에 따른 부호화 단위에 기초한 영상 부호화부를 도시한다.
도 5는 본 발명의 일 실시예에 따른 부호화 단위에 기초한 영상 복호화부를 도시한다.
도 6은 본 발명의 일 실시예에 따른 최대 부호화 단위, 서브 부호화 단위 및 예측 단위를 도시한다.
도 7은 본 발명의 일 실시예에 따른, 부호화 단위 및 변환 단위를 도시한다.
도 8a 및 8b는 본 발명의 일 실시예에 따른, 부호화 단위, 예측 단위 및 주파수 변환 단위의 분할 형태를 도시한다.
도 9는 본 발명의 일 실시예에 따른 움직임 벡터를 부호화하는 장치를 도시한다.
도 10a 및 10b는 본 발명의 일 실시예에 따른 예측 움직임 벡터의 후보들을 도시한다.
도 10c 내지 10e는 본 발명의 일 실시예에 따른 현재 블록에 인접한 다양한 크기의 블록들을 도시한다.
도 11a 내지 11c는 본 발명의 또 다른 실시예에 따른 예측 움직임 벡터의 후보들을 도시한다.
도 12는 본 발명의 일 실시예에 따른 예측 움직임 벡터의 후보들을 축소하는 방법을 도시한다.
도 13a 내지 13d는 본 발명의 일 실시예에 따른 소정 크기의 부호화 단위에 포함된 현재 블록의 위치를 도시한다.
도 14는 본 발명의 일 실시예에 따른 움직임 벡터를 복호화하는 장치를 도시한다.
도 15는 본 발명의 일 실시예에 따른 움직임 벡터를 부호화하는 방법을 설명하기 위한 흐름도이다.
도 16은 본 발명의 일 실시예에 따른 움직임 벡터를 복호화하는 방법을 설명하기 위한 흐름도이다.
이하에서는 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다.
도 1 은 본 발명의 일 실시예에 따른 영상 부호화 장치를 도시한다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 영상 부호화 장치(100)는 최대 부호화 단위 분할부(110), 부호화 심도 결정부(120), 영상 데이터 부호화부(130) 및 부호화 정보 부호화부(140)를 포함한다.
최대 부호화 단위 분할부(110)는 최대 크기의 부호화 단위인 최대 부호화 단위에 기반하여 현재 프레임 또는 현재 슬라이스를 분할할 수 있다. 현재 프레임 또는 현재 슬라이스를 적어도 하나의 최대 부호화 단위로 분할할 수 있다.
본 발명의 일 실시예에 따르면, 최대 부호화 단위 및 심도를 이용해 부호화 단위가 표현될 수 있다. 전술한 바와 같이 최대 부호화 단위는 현재 프레임의 부호화 단위 중 크기가 가장 큰 부호화 단위를 나타내며, 심도는 부호화 단위가 계층적으로 축소된 정도를 나타낸다. 심도가 커지면서, 부호화 단위는 최대 부호화 단위로부터 최소 부호화 단위까지 축소될 수 있으며, 최대 부호화 단위의 심도는 최소 심도로 정의되고, 최소 부호화 단위의 심도는 최대 심도로 정의될 수 있다. 최대 부호화 단위는 심도가 커짐에 따라 심도별 부호화 단위의 크기는 감소하므로, k 심도의 서브 부호화 단위는 k보다 큰 심도의 복수 개의 서브 부호화 단위를 포함할 수 있다.
부호화되는 프레임의 크기가 커짐에 따라, 더 큰 단위로 영상을 부호화하면 더 높은 영상 압축률로 영상을 부호화할 수 있다. 그러나, 부호화 단위를 크게 하고, 그 크기를 고정시켜버리면, 계속해서 변하는 영상의 특성을 반영하여 효율적으로 영상을 부호화할 수 없다.
예를 들어, 바다 또는 하늘에 대한 평탄한 영역을 부호화할 때에는 부호화 단위를 크게 할수록 압축률이 향상될 수 있으나, 사람들 또는 빌딩에 대한 복잡한 영역을 부호화할 때에는 부호화 단위를 작게 할수록 압축률이 향상된다.
이를 위해 본 발명의 일 실시예는 프레임 또는 슬라이스마다 상이한 크기의 최대 영상 부호화 단위를 설정하고, 최대 심도를 설정한다. 최대 심도는 부호화 단위가 축소될 수 있는 최대 횟수를 의미하므로, 최대 심도에 따라 최대 영상 부호화 단위에 포함된 최소 부호화 단위 크기를 가변적으로 설정할 수 있게 된다.
부호화 심도 결정부(120)는 최대 심도를 결정한다. 최대 심도는 R-D 코스트(Rate-Distortion Cost) 계산에 기초해 결정될 수 있다. 최대 심도는 프레임 또는 슬라이스마다 상이하게 결정되거나, 각각의 최대 부호화 단위마다 상이하게 결정될 수도 있다. 결정된 최대 심도는 부호화 정보 부호화부(140)로 출력되고, 최대 부호화 단위별 영상 데이터는 영상 데이터 부호화부(130)로 출력된다.
최대 심도는 최대 부호화 단위에 포함될 수 있는 가장 작은 크기의 부호화 단위 즉, 최소 부호화 단위를 의미한다. 다시 말해, 최대 부호화 단위는 상이한 심도에 따라 상이한 크기의 서브 부호화 단위로 분할될 수 있다. 도 8a 및 8b를 참조하여 상세히 후술한다. 또한, 최대 부호화 단위에 포함된 상이한 크기의 서브 부호화 단위들은 상이한 크기의 처리 단위에 기초해 예측 또는 변환될 수 있다. 변환은 공간 도메인의 픽셀 값들을 주파수 도메인의 계수들로 변환으로서 이산 코사인 변환(discrete cosine transform) 또는 KLT(Karhunen Loever Transform)일 수 있다.
다시 말해, 영상 부호화 장치(100)는 영상 부호화를 위한 복수의 처리 단계들을 다양한 크기 및 다양한 형태의 처리 단위에 기초해 수행할 수 있다. 영상 데이터의 부호화를 위해서는 예측, 변환, 엔트로피 부호화 등의 처리 단계를 거치는데, 모든 단계에 걸쳐서 동일한 크기의 처리 단위가 이용될 수도 있으며, 단계별로 상이한 크기의 처리 단위를 이용할 수 있다.
예를 들어 영상 부호화 장치(100)는 소정의 부호화 단위를 예측하기 위해, 부호화 단위와 다른 처리 단위를 선택할 수 있다.
부호화 단위의 크기가 2Nx2N(단, N은 양의 정수)인 경우, 예측을 위한 처리 단위는 2Nx2N, 2NxN, Nx2N, NxN 등일 수 있다. 다시 말해, 부호화 단위의 높이 또는 너비 중 적어도 하나를 반분하는 형태의 처리 단위를 기반으로 움직임 예측이 수행될 수도 있다. 이하, 예측의 기초가 되는 처리 단위는 '예측 단위'라 한다.
예측 모드는 인트라 모드, 인터 모드 및 스킵 모드 중 적어도 하나일 수 있으며, 특정 예측 모드는 특정 크기 또는 형태의 예측 단위에 대해서만 수행될 수 있다. 예를 들어, 인트라 모드는 정방형인 2Nx2N, NxN 크기의 예측 단위에 대해서만 수행될 수 있다. 또한, 스킵 모드는 2Nx2N 크기의 예측 단위에 대해서만 수행될 수 있다. 부호화 단위 내부에 복수의 예측 단위가 있다면, 각각의 예측 단위에 대해 예측을 수행하여 부호화 오차가 가장 작은 예측 모드가 선택될 수 있다.
또한, 영상 부호화 장치(100)는 부호화 단위와 다른 크기의 처리 단위에 기초해 영상 데이터를 변환할 수 있다. 부호화 단위의 변환을 위해서 부호화 단위보다 작거나 같은 크기의 데이터 단위를 기반으로 변환이 수행될 수 있다. 이하, 변환의 기초가 되는 처리 단위를 '변환 단위'라 한다.
부호화 심도 결정부(120)는 라그랑지 곱(Lagrangian Multiplier) 기반의 율-왜곡 최적화 기법(Rate-Distortion Optimization)을 이용해 최대 부호화 단위에 포함된 서브 부호화 단위들을 결정할 수 있다. 다시 말해, 최대 부호화 단위가 어떠한 형태의 복수의 서브 부호화 단위로 분할되는지 결정할 수 있는데, 여기서 복수의 서브 부호화 단위는 심도에 따라 크기가 상이하다. 그런 다음, 영상 데이터 부호화부(130)는 부호화 심도 결정부(120)에서 결정된 분할 형태에 기초해 최대 부호화 단위를 부호화하여 비트스트림을 출력한다.
부호화 정보 부호화부(140)는 부호화 심도 결정부(120)에서 결정된 최대 부호화 단위의 부호화 모드에 대한 정보를 부호화한다. 최대 부호화 단위의 분할 형태에 대한 정보, 최대 심도에 대한 정보 및 심도별 서브 부호화 단위의 부호화 모드에 대한 정보를 부호화하여 비트스트림을 출력한다. 서브 부호화 단위의 부호화 모드에 대한 정보는 서브 부호화 단위의 예측 단위에 대한 정보, 예측 단위별 예측 모드 정보, 서브 부호화 단위의 변환 단위에 대한 정보 등을 포함할 수 있다.
최대 부호화 단위의 분할 형태에 대한 정보는 각각의 부호화 단위에 대해 분할 여부를 나타내는 정보일 수 있다. 예를 들어, 최대 부호화 단위를 분할하여 부호화하는 경우, 최대 부호화 단위에 대해 분할 여부를 나타내는 정보를 부호화하고, 최대 부호화 단위를 분할하여 생성된 서브 부호화 단위를 다시 분할하여 부호화하는 경우에도, 각각의 서브 부호화 단위에 대해서 분할 여부를 나타내는 정보를 부호화한다. 분할 여부를 나타내는 정보는 분할 여부를 나타내는 플래그 정보일 수 있다.
최대 부호화 단위마다 상이한 크기의 서브 부호화 단위가 존재하고, 각각의 서브 부호화 단위마다 부호화 모드에 관한 정보가 결정되어야 하므로, 하나의 최대 부호화 단위에 대해서는 적어도 하나의 부호화 모드에 관한 정보가 결정될 수 있다.
영상 부호화 장치(100)는 심도가 커짐에 따라 최대 부호화 단위를 높이 및 너비를 반분하여 서브 부호화 단위를 생성할 수 있다. 즉, k 심도의 부호화 단위의 크기가 2Nx2N이라면, k+1 심도의 부호화 단위의 크기는 NxN 이다.
따라서, 일 실시예에 따른 영상 부호화 장치(100)는 영상의 특성을 고려한 최대 부호화 단위의 크기 및 최대 심도를 기반으로, 각각의 최대 부호화 단위마다 최적의 분할 형태를 결정할 수 있다. 영상 특성을 고려하여 가변적으로 최대 부호화 단위의 크기를 조절하고, 상이한 심도의 서브 부호화 단위로 최대 부호화 단위를 분할하여 영상을 부호화함으로써, 다양한 해상도의 영상을 보다 효율적으로 부호화할 수 있다.
도 2 는 본 발명의 일 실시예에 따른 영상 복호화 장치를 도시한다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 영상 복호화 장치(200)는 영상 데이터 획득부(210), 부호화 정보 추출부(220) 및 영상 데이터 복호화부(230)를 포함한다.
영상 관련 데이터 획득부(210)는 영상 복호화 장치(200)가 수신한 비트스트림을 파싱하여, 최대 부호화 단위별로 영상 데이터를 획득하여 영상 데이터 복호화부(230)로 출력한다. 영상 데이터 획득부(210)는 현재 프레임 또는 슬라이스에 대한 헤더로부터 현재 프레임 또는 슬라이스의 최대 부호화 단위에 대한 정보를 추출할 수 있다. 다시 말해, 비트스트림을 최대 부호화 단위로 분할하여, 영상 데이터 복호화부(230)가 최대 부호화 단위마다 영상 데이터를 복호화하게 한다.
부호화 정보 추출부(220)는 영상 복호화 장치(200)가 수신한 비트열을 파싱하여, 현재 프레임에 대한 헤더로부터 최대 부호화 단위, 최대 심도, 최대 부호화 단위의 분할 형태, 서브 부호화 단위의 부호화 모드에 관한 정보를 추출한다. 분할 형태 및 부호화 모드에 관한 정보는 영상 데이터 복호화부(230)로 출력된다.
최대 부호화 단위의 분할 형태에 대한 정보는 최대 부호화 단위에 포함된 심도에 따라 상이한 크기의 서브 부호화 단위에 대한 정보를 포함할 수 있다. 전술한 바와 같이 분할 형태에 대한 정보는 각각의 부호화 단위에 대해 부호화된 분할 여부를 나타내는 정보(예를 들어, 플래그 정보)일 수 있다. 부호화 모드에 관한 정보는 서브 부호화 단위별 예측 단위에 대한 정보, 예측 모드에 대한 정보 및 변환 단위에 대한 정보 등을 포함할 수 있다.
영상 데이터 복호화부(230)는 부호화 정보 추출부에서 추출된 정보에 기초하여 각각의 최대 부호화 단위의 영상 데이터를 복호화하여 현재 프레임을 복원한다.
최대 부호화 단위의 분할 형태에 대한 정보에 기초하여, 영상 데이터 복호화부(230)는 최대 부호화 단위에 포함된 서브 부호화 단위를 복호화할 수 있다. 복호화 과정은 인트라 예측 및 움직임 보상을 포함하는 인터 예측 과정 및 역변환 과정을 포함할 수 있다.
영상 데이터 복호화부(230)는 서브 부호화 단위의 예측을 위해, 서브 부호화 단위별 예측 단위에 대한 정보 및 예측 모드에 대한 정보에 기초해 인트라 예측 또는 인터 예측을 수행할 수 있다. 또한, 영상 데이터 복호화부(230)는 서브 부호화 단위의 변환 단위에 대한 정보에 기초해 서브 부호화 단위마다 역변환을 수행할 수 있다.
도 3 은 본 발명의 일 실시예에 따른 계층적 부호화 단위를 도시한다.
도 3을 참조하면, 본 발명에 따른 계층적 부호화 단위는 너비x높이가 64x64인 부호화 단위부터, 32x32, 16x16, 8x8, 및 4x4를 포함할 수 있다. 정사각형 형태의 부호화 단위 이외에도, 너비x높이가 64x32, 32x64, 32x16, 16x32, 16x8, 8x16, 8x4, 4x8인 부호화 단위들이 존재할 수 있다.
도 3을 참조하면, 해상도가 1920x1080인 영상 데이터(310)에 대해서, 최대 부호화 단위의 크기는 64x64, 최대 심도가 2로 설정되어 있다.
또 다른 해상도가 1920x1080인 영상 데이터(320)에 대해서 최대 부호화 단위의 크기는 64x64, 최대 심도가 4로 설정되어 있다. 해상도가 352x288인 비디오 데이터(330)에 대해서 최대 부호화 단위의 크기는 16x16, 최대 심도가 2로 설정되어 있다.
해상도가 높거나 데이터량이 많은 경우 압축률 향상뿐만 아니라 영상 특성을 정확히 반영하기 위해 부호화 사이즈의 최대 크기가 상대적으로 큰 것이 바람직하다. 따라서, 영상 데이터(330)에 비해, 해상도가 높은 영상 데이터(310 및 320)는 최대 부호화 단위의 크기가 64x64로 선택될 수 있다.
최대 심도는 계층적 부호화 단위에서 총 계층수를 나타낸다. 영상 데이터(310)의 최대 심도는 2이므로, 영상 데이터(310)의 부호화 단위(315)는 장축 크기가 64인 최대 부호화 단위로부터, 심도가 증가함에 따라 장축 크기가 32, 16인 서브 부호화 단위들까지 포함할 수 있다.
반면, 영상 데이터(330)의 최대 심도는 2이므로, 영상 데이터(330)의 부호화 단위(335)는 장축 크기가 16인 최대 부호화 단위들로부터, 심도가 증가함에 따라 장축 크기가 8, 4인 부호화 단위들까지 포함할 수 있다.
영상 데이터(320)의 최대 심도는 4이므로, 비디오 데이터(320)의 부호화 단위(325)는 장축 크기가 64인 최대 부호화 단위로부터, 심도가 증가함에 따라 장축 크기가 32, 16, 8, 4인 서브 부호화 단위들까지 포함할 수 있다. 심도가 증가할수록 더 작은 서브 부호화 단위에 기초해 영상을 부호화하므로 보다 세밀한 장면을 포함하고 있는 영상을 부호화하는데 적합해진다.
도 4 는 본 발명의 일 실시예에 따른 부호화 단위에 기초한 영상 부호화부를 도시한다.
인트라 예측부(410)는 현재 프레임(405) 중 인트라 모드의 예측 단위에 대해 인트라 예측을 수행하고, 움직임 추정부(420) 및 움직임 보상부(425)는 인터 모드의 예측 단위에 대해 현재 프레임(405) 및 참조 프레임(495)을 이용해 인터 예측 및 움직임 보상을 수행한다.
인트라 예측부(410), 움직임 추정부(420) 및 움직임 보상부(425)로부터 출력된 예측 단위에 기초해 레지듀얼 값들이 생성되고, 생성된 레지듀얼 값들은 변환부(430) 및 양자화부(440)를 거쳐 양자화된 변환 계수로 출력된다.
양자화된 변환 계수는 역양자화부(460), 역변환부(470)를 통해 다시 레지듀얼 값으로 복원되고, 복원된 레지듀얼 값들은 디블로킹부(480) 및 루프 필터링부(490)를 거쳐 후처리되어 참조 프레임(495)으로 출력된다. 양자화된 변환 계수는 엔트로피 부호화부(450)를 거쳐 비트스트림(455)으로 출력될 수 있다.
본 발명의 일 실시예에 따른 영상 부호화 방법에 따라 부호화하기 위해, 영상 부호화부(400)의 구성 요소들인 인트라 예측부(410), 움직임 추정부(420), 움직임 보상부(425), 변환부(430), 양자화부(440), 엔트로피 부호화부(450), 역양자화부(460), 역변환부(470), 디블로킹부(480) 및 루프 필터링부(490)는 모두 최대 부호화 단위, 심도에 따른 서브 부호화 단위, 예측 단위 및 변환 단위에 기초해 영상 부호화 과정들을 처리한다.
도 5는 본 발명의 일 실시예에 따른 부호화 단위에 기초한 영상 복호화부를 도시한다.
비트스트림(505)이 파싱부(510)를 거쳐 복호화 대상인 부호화된 영상 데이터 및 복호화를 위해 필요한 부호화 정보가 파싱된다. 부호화된 영상 데이터는 엔트로피 복호화부(520) 및 역양자화부(530)를 거쳐 역양자화된 데이터로 출력되고, 역변환부(540)를 거쳐 레지듀얼 값들로 복원된다. 레지듀얼 값들은 인트라 예측부(550)의 인트라 예측의 결과 또는 움직임 보상부(560)의 움직임 보상 결과와 가산되어 부호화 단위 별로 복원된다. 복원된 부호화 단위는 디블로킹부(570) 및 루프 필터링부(580)를 거쳐 다음 부호화 단위 또는 다음 프레임의 예측에 이용된다.
본 발명의 일 실시예에 따른 영상 복호화 방법에 따라 복호화하기 위해 영상 복호화부(400)의 구성 요소들인 파싱부(510), 엔트로피 복호화부(520), 역양자화부(530), 역변환부(540), 인트라 예측부(550), 움직임 보상부(560), 디블로킹부(570) 및 루프 필터링부(580)가 모두 최대 부호화 단위, 심도에 따른 서브 부호화 단위, 예측 단위 및 변환 단위에 기초해 영상 복호화 과정들을 처리한다.
특히, 인트라 예측부(550), 움직임 보상부(560)는 최대 부호화 단위 및 심도를 고려하여 서브 부호화 단위 내의 예측 단위 및 예측 모드를 결정하며, 역변환부(540)는 변환 단위의 크기를 고려하여 역변환을 수행한다.
도 6은 본 발명의 일 실시예에 따른 최대 부호화 단위, 서브 부호화 단위 및 예측 단위를 도시한다.
본 발명의 일 실시예에 따른 영상 부호화 장치(100) 및 영상 복호화 장치(200)는 영상 특성을 고려하여 부호화, 복호화를 수행하기 위해 계층적인 부호화 단위를 이용한다. 최대 부호화 단위 및 최대 심도는 영상의 특성에 따라 적응적으로 설정되거나, 사용자의 요구에 따라 다양하게 설정될 수 있다.
본 발명의 일 실시예에 따른 부호화 단위의 계층 구조(600)는 최대 부호화 단위(610)의 높이 및 너비가 64이며, 최대 심도가 4인 경우를 도시한다. 부호화 단위의 계층 구조(600)의 세로축을 따라서 심도가 증가하고, 심도의 증가에 따라 서브 부호화 단위(620 내지 650)의 너비 및 높이가 축소된다. 또한, 부호화 단위의 계층 구조(600)의 가로축을 따라, 최대 부호화 단위(610) 및 서브 부호화 단위(620 내지 650)의 예측 단위가 도시되어 있다.
최대 부호화 단위(610)는 심도가 0이며, 부호화 단위의 크기, 즉 너비 및 높이가 64x64이다. 세로축을 따라 심도가 증가하며, 크기 32x32인 심도 1의 서브 부호화 단위(620), 크기 16x16인 심도 2의 서브 부호화 단위(630), 크기 8x8인 심도 3의 서브 부호화 단위(640), 크기 4x4인 심도 4의 서브 부호화 단위(650)가 존재한다. 크기 4x4인 심도 4의 서브 부호화 단위(650)는 최소 부호화 단위이다.
도 6을 참조하면, 각각의 심도별로 가로축을 따라 예측 단위의 예시들이 도시되어 있다. 즉, 심도 0의 최대 부호화 단위(610)의 예측 단위는, 크기 64x64의 부호화 단위(610)와 동일하거나 작은 크기인 크기 64x64의 예측 단위(610), 크기 64x32의 예측 단위(612), 크기 32x64의 예측 단위(614), 크기 32x32의 예측 단위(616)일 수 있다.
심도 1의 크기 32x32의 부호화 단위(620)의 예측 단위는, 크기 32x32의 부호화 단위(620)와 동일하거나 작은 크기인 크기 32x32의 예측 단위(620), 크기 32x16의 예측 단위(622), 크기 16x32의 예측 단위(624), 크기 16x16의 예측 단위(626)일 수 있다.
심도 2의 크기 16x16의 부호화 단위(630)의 예측 단위는, 크기 16x16의 부호화 단위(630)와 동일하거나 작은 크기인 크기 16x16의 예측 단위(630), 크기 16x8의 예측 단위(632), 크기 8x16의 예측 단위(634), 크기 8x8의 예측 단위(636)일 수 있다.
심도 3의 크기 8x8의 부호화 단위(640)의 예측 단위는, 크기 8x8의 부호화 단위(640)와 동일하거나 작은 크기인 크기 8x8의 예측 단위(640), 크기 8x4의 예측 단위(642), 크기 4x8의 예측 단위(644), 크기 4x4의 예측 단위(646)일 수 있다.
마지막으로, 심도 4의 크기 4x4의 부호화 단위(650)는 최대 심도의 부호화 단위이고, 예측 단위는 크기 4x4의 예측 단위(650)이다. 그러나, 최대 심도의 부호화 단위라고 하여 반드시 부호화 단위와 예측 단위의 크기가 동일할 필요는 없으며, 다른 부호화 단위(610 내지 650)와 마찬가지로 부호화 단위보다 작은 크기의 예측 단위로 분할하여 예측을 수행할 수도 있다.
도 7은 본 발명의 일 실시예에 따른, 부호화 단위 및 변환 단위를 도시한다.
본 발명의 일 실시예에 따른 영상 부호화 장치(100) 및 영상 복호화 장치(200)는, 최대 부호화 단위 그대로 부호화하거나, 최대 부호화 단위 보다 작거나 같은 서브 부호화 단위로 최대 부호화 단위를 분할하여 부호화한다. 부호화 과정 중 변환을 위한 변환 단위의 크기도 부호화 단위 및 예측 단위와 무관하게 가장 높은 압축률을 위한 크기로 선택될 수 있다. 예를 들어, 현재 부호화 단위(710)가 64x64 크기일 때, 32x32 크기의 변환 단위(720)를 이용하여 변환이 수행될 수 도 있다.
도 8a 및 8b는 본 발명의 일 실시예에 따른, 부호화 단위, 예측 단위 및 변환 단위의 분할 형태를 도시한다.
도 8a는 본 발명의 일 실시예에 따른 부호화 단위 및 예측 단위를 도시한다.
도 8a의 좌측은 최대 부호화 단위(810)를 부호화하기 위해 본 발명의 일 실시예에 따른 영상 부호화 장치(100)가 선택한 분할 형태를 도시한다. 영상 부호화 장치(100)는 다양한 형태로 최대 부호화 단위(810)를 분할하고, 부호화한 다음 다양한 분할 형태의 부호화 결과를 R-D 코스트에 기초해 비교하여 최적의 분할 형태를 선택한다. 최대 부호화 단위(810)를 그대로 부호화하는 것이 최적일 경우에는 도 8a 및 8b와 같이 최대 부호화 단위(810)를 분할하지 않고 최대 부호화 단위(800)를 부호화할 수도 있다.
도 8a의 좌측을 참조하면, 심도 0인 최대 부호화 단위(810)를 심도 1 이상의 서브 부호화 단위로 분할하여 부호화한다. 최대 부호화 단위(810)를 네 개의 심도 1의 서브 부호화 단위로 분할한 다음, 전부 또는 일부의 심도 1의 서브 부호화 단위를 다시 심도 2의 서브 부호화 단위로 분할한다.
심도 1의 서브 부호화 단위 중 우측 상부에 외치한 서브 부호화 단위 및 좌측 하부에 위치한 서브 부호화 단위가 심도 2 이상의 서브 부호화 단위로 분할되었다. 심도 2 이상의 서브 부호화 단위 중 일부는 다시 심도 3 이상의 서브 부호화 단위로 분할될 수 있다.
도 8b의 우측은 최대 부호화 단위(810)에 대한 예측 단위의 분할 형태를 도시한다.
도 8a의 우측을 참조하면, 최대 부호화 단위에 대한 예측 단위(860)는 최대 부호화 단위(810)와 상이하게 분할될 수 있다. 다시 말해, 서브 부호화 단위들 각각에 대한 예측 단위는 서브 부호화 단위보다 작을 수 있다.
예를 들어, 심도 1의 서브 부호화 단위 중 우측 하부에 외치한 서브 부호화 단위(854)에 대한 예측 단위는 서브 부호화 단위(854)보다 작을 수 있다. 심도 2의 서브 부호화 단위들(814, 816, 818, 828, 850, 852) 중 일부 서브 부호화 단위(815, 816, 850, 852)에 대한 예측 단위는 서브 부호화 단위보다 작을 수 있다.
또한, 심도 3의 서브 부호화 단위(822, 832, 848)에 대한 예측 단위는 서브 부호화 단위보다 작을 수 있다. 예측 단위는 각각의 서브 부호화 단위를 높이 또는 너비 방향으로 반분한 형태일 수도 있고, 높이 및 너비 방향으로 4분한 형태일 수도 있다.
도 8b는 본 발명의 일 실시예에 따른 예측 단위 및 변환 단위를 도시한다.
도 8b의 좌측은 도 8a의 우측에 도시된 최대 부호화 단위(810)에 대한 예측 단위의 분할 형태를 도시하고, 도 8b의 우측은 최대 부호화 단위(810)의 변환 단위의 분할 형태를 도시한다.
도 8b의 우측을 참조하면, 변환 단위(870)의 분할 형태는 예측 단위(860)와 상이하게 설정될 수 있다.
예를 들어, 심도 1의 부호화 단위(854)에 대한 예측 단위가 높이를 반분한 형태로 선택되더라도, 변환 단위는 심도 1의 부호화 단위(854)의 크기와 동일한 크기로 선택될 수 있다. 마찬가지로, 심도 2의 부호화 단위(814, 850)에 대한 예측 단위가 심도 2의 부호화 단위(814, 850)의 높이를 반분한 형태로 선택되더라도 변환 단위는 심도 2의 부호화 단위(814, 850)의 원래 크기와 동일한 크기로 선택될 수 있다.
예측 단위보다 더 작은 크기로 변환 단위가 선택될 수도 있다. 예를 들어, 심도 2의 부호화 단위(852)에 대한 예측 단위가 너비를 반분한 형태로 선택된 경우에 변환 단위는 예측 단위보다 더 작은 크기인 높이 및 너비를 반분한 형태로 선택될 수 있다.
도 9는 본 발명의 일 실시예에 따른 움직임 벡터를 부호화하는 장치를 도시한다.
도 1의 영상 부호화 장치(100) 또는 도 4의 영상 부호화부(400)에 포함되어 움직임 벡터를 부호화하는 장치가 도 9에 상세히 도시된다. 도 9를 참조하면, 본 발명의 일 실시예에 따른 움직임 벡터 부호화 장치(900)는 움직임벡터추정부(910), 후보결정부(920) 및 움직임벡터부호화부(930)를 포함한다.
인터 예측 즉, 시간적 예측을 이용해 부호화된 블록을 복호화하기 위해서는 현재 블록과 참조 픽처 내의 유사한 블록 사이의 상대적인 위치 차이를 나타내는 움직임 벡터에 대한 정보가 필요하다. 따라서, 영상 부호화시에 움직임 벡터에 대한 정보를 부호화하여 비트스트림에 삽입하게 되는데, 움직임 벡터에 대한 정보를 그대로 부호화하여 삽입하면, 움직임 벡터에 대한 정보를 부호화하기 위한 오버헤드(overhead)가 증가하게 되어 영상 데이터의 압축률이 낮아진다.
따라서, 영상 부호화에서는 현재 블록의 움직임 벡터를 예측하고, 예측의 결과로 생성된 예측 움직임 벡터(motion vector predictor)와 원본 움직임 벡터와의 움직임 벡터 차이(motion vector difference)만을 부호화하여 비트스트림에 삽입으로써 움직임 벡터에 대한 정보도 압축한다.
움직임 벡터의 예측 부호화에는 명시 모드(explicit mode) 및 암시 모드(implicit mode)가 있을 수 있다.
MPEG-4 H.264/MPEG-4 AVC(Advanced Video Coding)와 같은 코덱에서는 현재 블록의 움직임 벡터를 예측하기 위해 현재 블록에 인접한 이전에 부호화된 블록들의 움직임 벡터를 이용한다. 현재 블록에 좌측, 상부 및 우측 상부에 인접한 이전한 부호화된 블록들의 움직임 벡터들의 중앙값(median)을 현재 블록의 예측 움직임 벡터로 이용한다. 인터 예측을 이용해 부호화된 모든 블록의 움직임 벡터가 동일한 방법을 이용해 예측되기 때문에 현재 블록의 예측 움직임 벡터에 대해 정보는 별도로 부호화할 필요가 없다. 그러나, 본원 발명에 따른 영상 부호화 장치(100) 또는 영상 부호화부(400)는 움직임 벡터를 보다 정확하게 예측하기 위해 전술한 예측 움직임 벡터에 대한 정보를 별도로 부호화하지 않는 암시(implicit) 모드 및 예측 움직임 벡터에 대한 정보를 부호화하는 명시 모드를 모두 이용한다. 명시 모드는 복수의 예측 움직임 벡터 후보들 중에서 현재 블록의 예측 움직임 벡터로 이용된 예측 움직임 벡터에 대한 정보를 부호화하여 비트스트림에 시퀀스 파라미터, 슬라이스 파라미터 또는 블록 파라미터로서 삽입하는 모드를 의미한다.
도 9는 이러한 명시 모드에 따라 움직임 벡터를 부호화할 때, 예측 부호화를 수행하는 장치를 도시한다.
움직임벡터추정부(910)는 현재 블록의 움직임 벡터를 추정한다. 현재 블록과 유사 또는 동일한 블록을 적어도 하나의 참조 픽처에서 검색하고, 검색 결과에 기초해 현재 블록과 검색된 참조 블록 사이의 상대적인 위치 차이인 움직임 벡터를 추정한다. SAD(Sum of Absolute Difference)를 계산에 기초해 현재 블록과 유사 또는 동일한 블록을 검색하고, 검색 결과에 기초해 현재 블록의 움직임 벡터를 추정할 수 있다.
또한, 움직임벡터추정부(910)는 현재 블록에 인접한 이전에 부호화된 영역에 포함된 블록들의 움직임 벡터에 기초해 현재 블록의 움직임 벡터를 예측한다. 다시 말해, 현재 블록에 인접한 이전에 부호화된 영역에 포함된 블록들의 움직임 벡터들을 예측 움직임 벡터(motion vector predictor)의 후보들(candidates)로 설정하고, 예측 움직임 벡터의 후보들 중 추정된 현재 블록의 움직임 벡터와 가장 유사한 예측 움직임 벡터 후보를 결정한다.
MPEG-4 H.264/MPEG-4 AVC(Advanced Video Coding)와 같은 코덱에서는 현재 블록에 좌측, 상부 및 우측 상부에 인접한 이전에 부호화된 블록들의 움직임 벡터들의 중앙값(median)을 현재 블록의 예측 움직임 벡터로 이용한다. 부호화되는 모든 블록들이 이전에 부호화된 블록들의 움직임 벡터를 이용해 예측되고, 하나의 예측 움직임 벡터만 이용하기 때문에 예측 움직임 벡터에 대해 정보는 별도로 부호화할 필요가 없다. 다시 말해, 인터 예측을 이용해 부호화된 블록의 예측 움직임 벡터는 하나이다.
그러나, 현재 블록의 움직임 벡터가 보다 정확하게 예측되면, 움직임 벡터를 보다 높은 압축률로 부호화할 수 있는 바, 이를 위해 본 발명의 일 실시예는 복수의 예측 움직임 벡터의 후보들 중 하나를 선택하여 현재 블록의 예측 움직임 벡터로 이용함으로써, 보다 높은 압축률로 현재 블록의 움직임 벡터를 부호화한다. 이하에서는 복수의 예측 움직임 벡터의 후보들을 이용해 현재 블록의 움직임 벡터를 부호화하는 방법을 보다 상세히 설명한다.
도 10a 및 10b는 본 발명의 일 실시예에 따른 예측 움직임 벡터의 후보들을 도시한다.
도 10a를 참조하면, 본 발명의 일 실시예에 따른 움직임 벡터를 예측 방법은 현재 블록에 인접한 이전에 부호화된 블록들의 움직임 벡터 중 하나를 현재 블록의 예측 움직임 벡터로 이용할 수 있다. 현재 블록의 상부에 인접한 블록들 중 가장 좌측의 a0 블록, 좌측에 인접한 가장 상부의 b0 블록, 우측상부에 인접한 c 블록, 좌측상부에 인접한 d 블록 및 좌측하부에 인접한 e 블록의 움직임 벡터들을 모두 현재 블록의 예측 움직임 벡터의 후보들로 이용할 수 있다.
본 발명에 따른 영상 부호화 방법 및 복호화 방법은 심도에 의해 구분되는 다양한 크기의 부호화 단위를 기초로 영상 부호화 및 복호화를 수행하는 바, 좌측하부에 인접한 e 블록의 움직임 벡터도 예측 움직임 벡터 후보로 이용할 수 있다.
도 8a를 참조하여 설명하면, 현재 블록이 부호화 단위(820)이면, 현재 블록의 상부, 좌측상부, 우측상부, 좌측 및 좌측하부의 부호화 단위들(814, 816, 818 및 822)은 현재 블록 이전에 부호화된다. 따라서, 현재 블록의 좌측하부에 인접한 블록의 움직임 벡터도 예측 움직임 벡터 후보로 이용할 수 있다.
도 10b를 참조하면, 현재 블록의 인접한 모든 블록의 움직임 벡터들을 예측 움직임 벡터의 후보들로 이용할 수 있다. 다시 말해, 상부에 인접한 블록들 중 가장 좌측의 a0 블록뿐만 아니라 상부에 인접한 모든 블록들(a0 내지 aN)의 움직임 벡터를 예측 움직임 벡터 후보로 이용할 수 있으며, 좌측에 인접한 불록들 중 가장 상부의 b0 블록뿐만 아니라 좌측에 인접한 모든 블록들(b0 내지 bN)의 움직임 벡터를 예측 움직임 벡터 후보로 이용할 수 있다.
또한, 인접한 블록들의 움직임 벡터의 중앙값을 예측 움직임 벡터 후보로 이용할 수 있다. 다시 말해, median(mv_a0, mv_b0, mv_c)을 현재 블록의 예측 움직임 벡터 후보로 이용할 수 있다. 여기서, mv_a0은 a0 블록의 움직임 벡터이고, mv_b0는 b0 블록의 움직임 벡터이며, mv_c는 c 블록의 움직임 벡터이다.
다만, 현재 블록의 크기 및 인접한 블록들의 크기에 따라 현재 블록의 예측 움직임 벡터의 후보들을 제한할 수 있는 바, 도 10c 내지 10e를 참조하여 상세히 설명한다.
도 10c 내지 10e는 본 발명의 일 실시예에 따른 현재 블록에 인접한 다양한 크기의 블록들을 도시한다.
전술한 바와 같이 본 발명에 따른 영상 부호화 방법 및 복호화 방법은 심도에 따라 결정되는 다양한 크기의 부호화 단위 및 예측 단위를 이용해 영상을 부호화한다. 따라서, 현재 블록에 인접한 블록들의 크기도 다양할 수 있는 바, 현재 블록의 크기와 일부 인접한 블록들의 크기가 크게 상이하면, 크기가 다른 일부 인접한 블록들의 움직임 벡터는 예측 움직임 벡터 후보로 이용하지 않을 수 있다.
도 10c를 참조하면, 현재 블록(1010)의 상부에 인접한 블록들(1014 내지 1018)은 현재 블록(1010)의 크기보다 작은 블록들이다. 현재 블록(1010)과 크기가 동일한 크기의 인접한 블록(1012)의 움직임 벡터가 현재 블록(1010)의 움직임 벡터와 동일 또는 유사할 가능성이 높을 수 있으므로, 움직임벡터추정부(910)는 동일한 크기의 인접한 블록(1012)의 움직임 벡터만을 예측 움직임 벡터 후보로 이용할 수 있다.
크기가 동일하지 않더라도, 소정 크기 이상의 인접한 블록들의 움직임 벡터들만 예측 움직임 벡터 후보로 이용할 수 있다. 예를 들어, 현재 블록(1010)의 크기와 비교하여 1/4 크기 이상인 블록들(1012 및 1018)의 움직임 벡터들만을 예측 움직임 벡터 후보로 이용할 수 있다.
도 10d를 참조하면, 현재 블록(1020)의 좌측에 인접한 블록(1022)의 크기는 현재 블록의 16배로서, 현저한 크기의 차이가 존재한다. 현저한 크기의 차이로 인해 좌측에 인접한 블록(1022)의 움직임 벡터가 현재 블록(1020)의 움직임 벡터와 동일 또는 유사할 가능성이 낮을 수 있다. 따라서, 좌측에 인접한 블록(1022)의 움직임 벡터는 현재 블록(1020)의 예측 움직임 벡터 후보로 이용하지 않고, 상부에 인접한 블록(1024) 및 좌측상부에 인접한 블록(1026)의 움직임 벡터만 예측 움직임 벡터 후보로 이용할 수 있다.
도 10e를 참조하면, 현재 블록(1030)의 크기가 인접한 모든 블록들(1031 내지 1037)의 크기보다 크다. 이 때, 인접한 모든 블록들(1031 내지 1037)의 움직임 벡터를 모두 현재 블록(1030)의 예측 움직임 벡터 후보로 이용하면, 현재 블록(1030)의 예측 움직임 벡터의 후보들의 개수가 너무 많을 수 있다. 현재 블록(1030)과 인접한 블록들(1031 내지 1037) 사이의 크기 차이가 클수록 예측 움직임 벡터의 후보들의 개수는 더 많아진다. 따라서, 본 발명의 일 실시예에 따른 움직임벡터추정부(910)는 인접한 블록 중 일부 블록의 움직임 벡터는 현재 블록(1030)의 예측 움직임 벡터 후보로 이용하지 않는다.
예를 들어, 도 10e에 도시된 실시예에서, 좌측하부에 인접한 블록(1031) 및 우측상부에 인접한 블록(1037)의 움직임 벡터는 현재 블록(1030)의 예측 움직임 벡터 후보로 이용하지 않을 수 있다.
이를 보다 일반화하여, 현재 블록(1030)의 크기가 소정 크기 이상이면, 인접한 블록들 중 특정 방향으로 인접한 블록들의 움직임 벡터는 현재 블록(1030)의 예측 움직임 벡터 후보로 이용하지 않을 수 있다.
도 11a 내지 11c는 본 발명의 또 다른 실시예에 따른 예측 움직임 벡터의 후보들을 도시한다.
도 11a는 본 발명의 일 실시예에 따른 B 픽처(Bi-directional Predictive Picture)의 예측 움직임 벡터 후보를 결정하는 방법을 도시한다. 현재 블록을 포함하는 현재 픽처가 양방향 예측을 수행하는 B 픽처일 때, 시간적 거리(temporal distance)에 기초해 생성된 움직임 벡터가 예측 움직임 벡터 후보일 수 있다.
현재 픽처(1110)의 현재 블록(1100)의 예측 움직임 벡터 후보(mv_temporal)는 시간적으로 선행하는 픽처(1112)의 동일한 위치(colocated)의 블록(1120)의 움직임 벡터를 이용해 결정될 수 있다. 예를 들어, 현재 블록(1100)과 동일한 위치의 블록(1120)의 움직임 벡터 mv_colA가 현재 픽처(1110)의 시간적으로 후행하는 픽처(1114)의 검색된 블록(1122)에 대해 생성되면, 현재 블록(1100)의 예측 움직임 벡터의 후보들인 mv_L0A 및 mv_L1A 는 다음과 같이 결정될 수 있다.
mv_L1A = (t1/t2) * mv_colA
mv_L0A = mv_L1A - mv_colA
여기서, mv_L0A는 시간적으로 선행하는 픽처(1112)에 대한 현재 블록(1110)의 예측 움직임 벡터 후보를 의미하고, mv_L1A는 시간적으로 후행하는 픽처(1114)에 대한 현재 블록(1110)의 예측 움직임 벡터 후보를 의미한다.
도 11a에 도시된 실시예에서는 B 픽처인 현재 픽처(1110)가 시간적으로 선행하는 픽처(1112)와 시간적으로 후행하는 픽처(1114) 사이에 존재한다. 이 때, 동일한 위치의 블록(1120)의 움직임 벡터 mv_colA가 현재 픽처(1110)의 시간적으로 후행하는 픽처(1114)에 대해 생성되면, mv_L1A에 기초해 현재 블록(1100)의 움직임 벡터를 보다 정확하게 예측할 수 있다. 다시 말해, mv_colA가 도 11a에 도시된 방향과 반대 방향의 움직임 벡터인 경우 즉, 시간적으로 선행하는 픽처(1112) 이전의 다른 픽처에 대해 생성된 경우보다 mv_colA가 도 11a에 도시된 방향의 움직임 벡터인 경우에 현재 블록(1100)의 움직임 벡터를 보다 정확하게 예측할 수 있다.
따라서, 현재 블록(1110)으로부터 동일한 위치의 블록(1120)으로의 방향이 List0 방향이라면, 동일한 위치의 블록(1120)의 움직임 벡터 mv_colA는 List1 방향이어야, 도 11a에 도시된 바와 같이 현재 픽처(1110)가 선행하는 픽처(1112)와 후행하는 픽처(1114) 사이에 존재할 가능성이 높아져 mv_colA에 기초해 현재 블록(1100)의 움직임 벡터를 보다 정확하게 예측할 수 있다.
또한, 도 11a에 도시된 픽처들(1110 내지 1114)은 시간 순서에 따라 배열되어 있으므로, POC(Picture Order Count)에 기초해 현재 블록의 예측 움직임 벡터 후보(mv_temporal)를 생성할 수 있다. 현재 블록이 참조하는 픽처가 도 11a에 도시된 인접한 픽처들(1112 및 1114)이 아닌 다른 픽처일 수 있으므로, POC에 기초해 현재 블록의 예측 움직임 벡터 후보를 생성한다.
예를 들어, 현재 픽처의 POC를 CurrPOC이고, 현재 픽처가 참조하는 픽처의 POC를 CurrRefPOC이라면, 현재 블록의 예측 움직임 벡터 후보는 다음과 같이 생성될 수 있다.
Scale = (CurrPOC-CurrRefPOC)/(ColPOC-ColRefPOC)
mv_temporal = Scale*mv_colA
여기서 ColPOC는 동일한 위치의 블록(1120)이 포함되어 있는 시간적으로 선행하는 픽처(1112)의 POC이며, ColRefPOC는 동일한 위치의 블록(1120)이 참조하는 블록(1122)이 포함되어 있는 시간적으로 후행하는 픽처(1114)의 POC이다.
도 11b는 본 발명의 또 다른 실시예에 따른 B 픽처(Bi-directional Predictive Picture)의 예측 움직임 벡터 후보를 생성하는 방법을 도시한다. 도 11a에 도시된 방법과 비교해보면, 시간적으로 후행하는 픽처(1114)에 현재 블록(1100)과 동일한 위치의 블록이 존재한다는 점이 상이하다.
도 11b를 참조하면, 현재 픽처(1110)의 현재 블록(1100)의 예측 움직임 벡터 후보는 시간적으로 후행하는 픽처(1114)의 동일한 위치(colocated)의 블록(1130)의 움직임 벡터를 이용해 생성될 수 있다. 예를 들어, 현재 블록(1100)과 동일한 위치의 블록(1130)의 움직임 벡터 mv_colB가 현재 픽처(1110)의 시간적으로 선행하는 픽처(1112)의 검색된 블록(1132)에 대해 생성되면, 현재 블록(1100)의 예측 움직임 벡터의 후보들인 mv_L0B 및 mv_L1B 는 다음과 같이 생성될 수 있다.
mv_L0B = (t3/t4) * mv_colB
mv_L1B = mv_L0B - mv_colB
여기서, mv_L0B는 시간적으로 선행하는 픽처(1112)에 대한 현재 블록(1110)의 예측 움직임 벡터를 의미하고, mv_L1B는 시간적으로 후행하는 픽처(1114)에 대한 현재 블록(1100)의 예측 움직임 벡터 후보를 의미한다.
도 11a와 마찬가지로 도 11b에 도시된 실시예에서도 B 픽처인 현재 픽처(1110)가 시간적으로 선행하는 픽처(1112)와 시간적으로 후행하는 픽처(1114) 사이에 존재한다. 따라서, 동일한 위치의 블록(1130)의 움직임 벡터 mv_colB가 시간적으로 선행하는 픽처(1112)에 대해 생성되면, mv_L0B에 기초해 현재 블록(1100)의 움직임 벡터를 보다 정확하게 예측할 수 있다. 다시 말해, mv_colB가 도 11b에 도시된 방향과 반대 방향의 움직임 벡터인 경우 즉, 시간적으로 후행하는 픽처(1114) 이후의 다른 픽처에 대해 생성된 경우보다 mv_colB가 도 11b에 도시된 방향의 움직임 벡터인 경우 현재 블록(1100)의 움직임 벡터를 보다 정확하게 예측할 수 있다.
따라서, 현재 블록(1110)으로부터 동일한 위치의 블록(1130)으로의 방향이 List1 방향이라면, 동일한 위치의 블록(1130)의 움직임 벡터 mv_colB는 List0 방향이어야, 도 11b에 도시된 바와 같이 현재 픽처(1110)가 선행하는 픽처(1112)와 후행하는 픽처(1114) 사이에 존재할 가능성이 높아져 mv_colB에 기초해 현재 블록(1100)의 움직임 벡터를 보다 정확하게 예측할 수 있다.
또한, 현재 블록이 참조하는 픽처가 도 11b에 도시된 인접한 픽처들(1112 및 1114)이 아닌 다른 픽처일 수 있으므로, POC에 기초해 현재 블록의 예측 움직임 벡터 후보를 생성한다.
예를 들어, 현재 픽처의 POC를 CurrPOC이고, 현재 픽처가 참조하는 픽처의 POC를 CurrRefPOC이라면, 현재 블록이 예측 움직임 벡터 후보는 다음과 같이 생성될 수 있다.
Scale = (CurrPOC-CurrRefPOC)/(ColPOC-ColRefPOC)
mv_temporal = Scale*mv_colB
여기서 ColPOC는 동일한 위치의 블록(1130)이 포함되어 있는 시간적으로 후행하는 픽처(1114)의 POC이며, ColRefPOC는 동일한 위치의 블록(1130)이 참조하는 블록(1132)이 포함되어 있는 시간적으로 선행하는 픽처(1112)의 POC이다.
도 11c는 본 발명의 일 실시예에 따른 P 픽처(Predictive Picture)의 예측 움직임 벡터 후보를 도시한다.
도 11c를 참조하면, 현재 픽처(1110)의 현재 블록(1100)의 예측 움직임 벡터 후보는 시간적으로 선행하는 픽처(1112)의 동일한 위치(colocated)의 블록(1140)의 움직임 벡터를 이용해 결정될 수 있다. 예를 들어, 현재 블록(1100)과 동일한 위치의 블록(1140)의 움직임 벡터 mv_colC가 또 다른 시간적으로 선행하는 픽처(1116)의 검색된 블록(1142)에 대해 생성되면, 현재 블록(1100)의 예측 움직임 벡터 후보인 mv_L0C는 다음과 같이 결정될 수 있다.
mv_L0C = (t6/t5) * mv_colC
도 11a 및 11b와 관련하여 전술한 바와 같이 POC에 기초해 mv_L0C를 결정할 수도 있다. 현재 픽처(1110)의 POC, 현재 픽처(1110)가 참조하는 픽처의 POC, 시간적으로 선행하는 픽처(1112)의 POC 및 또 다른 시간적으로 선행하는 픽처(1116)의 POC에 기초해 mv_L0C를 결정할 수 있다.
현재 픽처(1110)가 P 픽처이므로, 현재 블록(1100)의 예측 움직임 벡터 후보는 도 11a 및 11b와 달리 하나만 결정된다.
또한, 도 11a 및 11b에서 시간적 거리에 기초해 생성된 예측 움직임 벡터 후보를 현재 블록의 움직임 벡터를 예측하는데 이용하기 위해서는 동일한 위치의 블록들(1120 및 1130) 중 어떤 블록을 이용해 예측 움직임 벡터 후보를 생성하는지 나타내는 정보가 함께 부호화되어야 하는 바, 이 정보는 슬라이스 파라미터 또는 시퀀스 파라미터로서 슬라이스 헤더 또는 시퀀스 헤더에 포함될 수 있다.
종합하면, 도 10a 및 10b, 도 11a 내지 11c에 따라 다음과 같이 예측 움직임 벡터의 후보들의 집합 C는 다음과 같을 수 있다.
C = {median(mv_a0, mv_b0, mv_c), mv_a0, mv_a1 ..., mv_aN, mv_b0, mv_b1, ... , mv_bN, mv_c, mv_d, mv_e, mv_temporal}
또는, 집합 C는 예측 움직임 벡터의 후보들의 개수를 줄인 집합일 수 있다.
C = {median(mv_a', mv_b', mv_c'), mv_a', mv_b', mv_c', mv_temporal}
여기서, mv_x는 x 블록의 움직임 벡터를 의미하고, median()은 중앙값을 의미하며, mv_temporal은 도 11a 내지 11c와 관련하여 전술한 시간적 거리를 이용해 생성된 예측 움직임 벡터 후보들을 의미한다. mv_a'은 mv_a0, mv_a1, ... , mv_aN 중 유효한 최초의 움직임 벡터를 의미한다. 예를 들어, a0 블록이 인트라 예측을 이용해 부호화되었거나, 현재 블록과 다른 픽처를 참조하면, a0의 움직임 벡터인 mv_a0은 유효하지 않으므로, mv_a'=mv_a1이 되며, a1 블록의 움직임 벡터도 유효하지 않은 경우에는 mv_a'=mv_a2이다. 마찬가지로, mv_b'은 mv_b0, mv_b1, ... , mv_bN 중 유효한 최초의 움직임 벡터를 의미하고, mv_c'은 mv_c, mv_d, mv_e 중 유효한 최초의 움직임 벡터를 의미한다.
현재 블록에 인접한 블록들의 움직임 벡터들 중 현재 블록과 다른 픽처를 참조하는 블록의 움직임 벡터는 현재 블록의 움직임 벡터를 효율적으로 예측할 수 없다. 따라서, 예측 움직임 벡터 후보들의 집합 C에서 현재 블록과 다른 픽처를 참조하는 블록의 움직임 벡터를 제외할 수 있다.
움직임 벡터 부호화 장치(900)가 명시 모드에 따라 움직임 벡터를 부호화할 때에는 C 집합 중 어떤 예측 움직임 벡터 후보를 현재 블록의 움직임 벡터를 예측하는데 이용했는지 지시하는(signalling) 정보도 함께 부호화한다. 다시 말해, 움직임 벡터 부호화 장치(900)가 움직임 벡터를 부호화할 때, C 집합의 원소 즉 예측 움직임 벡터의 후보들에 각각에 대응되는 이진수를 할당하고, 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보에 대응되는 이진수도 함께 부호화한다.
C 집합의 원소 중 하나를 특정하기 위해 각각의 예측 움직임 벡터 후보에 대응되는 이진수를 할당하고, 이진수를 출력하기 때문에 C 집합의 원소의 개수가 적을수록 더 적은 비트의 이진수로 C 집합의 원소를 특정할 수 있다.
따라서, C 집합에서 중복되는 예측 움직임 벡터 후보가 있으면, 중복되는 예측 움직임 벡터 후보는 C 집합에서 제외하고, 이진수를 할당할 수 있다. 예를 들어, C 집합이 전술한 바와 같이 C = {median(mv_a', mv_b', mv_c'), mv_a', mv_b', mv_c', mv_temporal} 일 때, mv_a', mv_b' 및 mv_c'가 모두 동일하다면, C 집합을 C = { mv_a', mv_temporal}와 같이 두 개의 원소로 결정하고, 이진수를 할당할 수 있다. 중복되는 예측 움직임 벡터 후보를 제외하기 전에 C 집합의 5개의 원소들을 3 비트를 이용해 특정할 수 있다면, 중복되는 예측 움직임 벡터 후보를 제외한 후에는 2개의 원소들을 1 비트를 이용해 특정할 수 있다.
중복되는 예측 움직임 벡터 후보를 제외하는 대신 중복되는 예측 움직임 벡터 후보가 현재 블록의 예측 움직임 벡터로 결정될 확률을 높이기 위해 소정의 가중치(weight)를 부가할 수도 있다. 전술한 예에서 mv_a', mv_b' 및 mv_c'가 모두 동일하여 mv_a'만 C 집합에 포함되어 있으므로, mv_a'에 소정의 가중치를 부가하여 mv_a'가 현재 블록의 움직임 벡터를 예측하는데 이용될 확률을 높일 수 있다.
또한, 예측 움직임 벡터 후보가 하나인 경우에는 예측 움직임 벡터의 후보들 중에서 하나를 특정하기 위한 이진수를 부호화하지 않을 수도 있다. 예를 들어, C 집합이 C = {median(mv_a0, mv_b0, mv_c), mv_a0, mv_a1 ..., mv_aN, mv_b0, mv_b1, ... , mv_bN, mv_c, mv_d, mv_e, mv_temporal} 인데, a0 내지 aN 블록, b0 내지 bN 블록, c 블록, d 블록, e 블록이 모두 인트라 예측된 블록들이면, C 집합은 C = {mv_temporal} 이므로, 실질적으로 하나의 원소 밖에 포함하지 않는다. 따라서, 이 경우에 움직임 벡터 부호화 장치(900)는 예측 움직임 벡터 후보 중 하나를 특정하기 위한 이진수를 부호화하지 않을 수도 있다.
전술한 모든 예측 움직임 벡터의 후보들 이외에 다른 움직임 벡터가 예측 움직임 벡터의 후보들로 이용될 수 있음은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 쉽게 이해할 수 있다.
또한, 본 발명의 또 다른 실시예에 따르면, 후보결정부(920)는 예측 움직임 벡터의 후보들의 개수를 줄일 수 있다.
전술한 바와 같이, 복수의 예측 움직임 벡터의 후보들 중에서 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위해서 별도의 정보가 부호화되어 비트스트림에 포함된다. 따라서, C 집합의 원소의 개수가 적을수록 C 집합에서 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위해 필요한 정보가 적은 비트로 부호화될 수 있다. 이를 위해 후보결정부(920)는 소정의 평가 함수를 이용해 예측 움직임 벡터의 전체 후보들 중 소정의 예측 움직임 벡터 후보를 선택적으로 제외할 수 있다. 도 12를 참조하여 상세히 설명한다.
도 12는 본 발명의 일 실시예에 따른 예측 움직임 벡터의 후보들을 줄이는 방법을 도시한다.
도 12에서는 C 집합의 원소의 개수가 세 개로서, MVP1, MVP2 및 MVP3이 C 집합의 원소들이고, 현재 블록의 움직임 벡터가 MV인 경우를 가정한다. 현재 블록의 움직임 벡터와 가장 유사한 예측 움직임 벡터 후보가 현재 블록의 움직임 벡터를 예측하는데 이용되므로, MV와 가장 유사한 MVP3이 현재 블록의 움직임 벡터를 예측하는데 이용된다.
따라서, 움직임 벡터 부호화 장치(900)에서 움직임 벡터에 대한 정보로서 부호화되는 현재 블록의 움직임 벡터와 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보 사이의 차이 벡터(이하 '실제 움직임 벡터 차이'(motion vector difference)라 한다.)는 (2,0)이다. MV가 (5,0)이고, MVP3이 (3,0)이므로, 실제 움직임 벡터 차이는 (2,0)이다.
후보 결정부(920)는 이러한 실제 움직임 벡터 차이 및 소정의 평가 함수를 이용해 예측 움직임 벡터의 전체 후보들 중 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외한다. 보다 상세히는, 실제 움직임 벡터 차이와 소정의 예측 움직임 벡터 후보를 이용해 가상의 움직임 벡터를 생성하고, 생성된 가상의 움직임 벡터와 전체 후보들 사이의 움직임 벡터 차이들(이하 '가상의 움직임 벡터 차이들')을 전체 후보들 대해 생성한다. 실제 움직임 벡터 차이와 소정의 예측 움직임 벡터 후보를 가산하여 가상의 움직임 벡터를 생성하고, 생성된 가상의 움직임 벡터와 전체 후보들 사이의 움직임 벡터 차이를 계산한다. 실제 움직임 벡터 차이와 전체 후보들 각각에 대해 계산된 가상의 움직임 벡터 차이를 비교함으로써, 소정의 예측 움직임 벡터 후보를 예측 움직임 벡터의 전체 후보들에서 선택적으로 제외할 수 있다.
도 12를 참조하여 상세히 설명하면, 먼저 후보 결정부(920)는 예측 움직임 벡터 후보 중 하나인 MVP1을 전체 후보들에서 제외할지 판단한다.
MVP1에 기초한 가상의 움직임 벡터와 다른 예측 움직임 벡터 후보를 감산하여 생성된 가상의 움직임 벡터 차이가 실제 움직임 벡터 차이보다 작다면, MVP1은 현재 블록의 움직임 벡터를 예측하는데 이용될 수 없다. 예를 들어, MVP1와 실제 움직임 벡터 차이를 가산하여 생성된 가상의 움직임 벡터에서 MVP3을 감산하여 생성된 가상의 움직임 벡터 차이가 실제 움직임 벡터 차이보다 작다면, MVP3이 MVP1보다 더 정확하게 가상의 움직임 벡터를 예측한 것이고, 이 경우 MVP1은 예측 움직임 벡터가 될 수 없는 것이 명백하기 때문이다.
도 12에서 MVP1과 실제 움직임 벡터 차이를 가산하면, MVP1에 기초한 가상의 움직임 벡터는 (2,0)이다. 따라서, MVP1에 기초해 가상의 움직임 벡터를 생성하였을 때, MVP2에 대한 가상의 움직임 벡터 차이는 (2,0)이고, MVP3에 대한 가상의 움직임 벡터 차이는 (-1,0)이다. 이 때, MVP3에 대한 가상의 움직임 벡터 차이인 (-1,0)의 크기는 실제 움직임 벡터 차이의 크기인 (2,0)보다 작으므로, MVP1은 현재 블록의 예측 움직임 벡터가 될 수 없다. 따라서, MVP1을 예측 움직임 벡터의 전체 후보에서 제외할 수 있다. 다시 말해, 전술한 C 집합에서 MVP1에 대응되는 예측 움직임 벡터 후보는 제외할 있다.
이때, MVP1 자신에 대해 계산된 가상의 움직임 벡터 차이는 (2,0)이고, 이는 실제 움직임 벡터 차이와 항상 동일하므로, 실제 움직임 벡터의 크기보다 작을 수 없다. 따라서, 예측 움직임 벡터의 전체 후보들 각각에 대해 가상의 움직임 벡터 차이를 계산할 때, MVP1 자신에 대한 가상의 움직임 벡터 차이는 계산하지 않을 수 있다.
MVP1을 제외 여부가 판단 완료되면, 후보결정부(920)는 MVP2를 예측 움직임 벡터의 전체 후보들에서 제외할지 판단한다. MVP2를 실제 움직임 벡터 차이와 가산하면, MVP2에 기초한 가상의 움직임 벡터는 (2,0)이다. 따라서, MVP1에 대한 가상의 움직임 벡터 차이는 (2,0)이고, MVP3에 대한 가상의 움직임 벡터 차이는 (-1,0)이다. MVP3에 대한 가상의 움직임 벡터 차이의 크기가 실제 움직임 벡터 차이의 크기보다 작으므로, MVP1과 마찬가지로 MVP2도 예측 움직임 벡터의 전체 후보들에서 제거할 수 있다. MVP2의 제외 여부를 판단할 때, MVP1에 대한 가상의 움직임 벡터 차이와 실제 움직임 벡터 차이의 비교는 선택적이다. MVP1은 이미 현재 블록의 예측 움직임 벡터가 아닌 것이 명백한 것으로 판단되었으므로, MVP1을 제외한 나머지 후보들 각각에 대한 가상의 움직임 벡터 차이를 실제 움직임 벡터 차이와 비교할 수 있다.
또한, 후보결정부(920)는 MVP3에 대해서도 제외 여부를 판단한다. MVP3에 기초한 가상의 움직임 벡터는 실제 움직임 벡터와 동일하고, 실제 움직임 벡터에서 다른 예측 움직임 벡터 후보(즉, MVP1 또는 MVP2)를 감산하더라도, 실제 움직임 벡터 차이의 크기보다 작은 가상의 움직임 벡터 차이가 발생할 수 없으므로, MVP3는 예측 움직임 벡터의 전체 후보에서 제외되지 않는다. 또한, 본 발명의 또 다른 실시예에 따르면, 현재 블록의 움직임 벡터를 예측하는데 이용되는 것으로 결정된 MVP3는 예측 움직임 벡터의 전체 후보들에서 제외되지 않는 것이 명백하므로, 후보결정부(920)는 현재 블록의 움직임 벡터를 예측하는데 이용되는 것으로 결정된 예측 움직임 벡터 후보에 대해서는 제외 여부를 스킵(skip)할 수 있다.
요컨대, 후보결정부(920)는 예측 움직임 벡터의 전체 후보들 중 하나인 제2 예측 움직임 벡터의 제외 여부를 결정하는 바, 제2 예측 움직임 벡터와 실제 움직임 벡터 차이를 가산하여 가상의 움직임 벡터를 생성하고, 가상의 움직임 벡터와 다른 예측 움직임 벡터의 차이 벡터를 전체 후보들 각각에 대해 계산하여, 복수의 가상의 움직임 벡터 차이를 생성한다. 복수의 가상의 움직임 벡터 차이 중 실제 움직임 벡터 차이보다 크기가 작은 가상의 움직임 벡터 차이가 적어도 하나 존재한다면, 제2 예측 움직임 벡터는 현재 블록의 예측 움직임 벡터가 아님이 명백하므로, 예측 움직임 벡터의 전체 후보들에서 제외한다.
또한, 후보결정부(920)는 이러한 제외 여부에 대한 판단을 예측 움직임 벡터의 전체 후보들 각각에 대해 반복함으로써, 예측 움직임 벡터의 후보들의 전체 개수, 즉, C 집합의 원소의 개수를 줄일 수 있다. C 집합의 전체 예측 움직임 벡터의 후보들의 정렬 순서에 따라 순서대로 제외 여부를 판단한다. 예를 들어, C = {median(mv_a', mv_b', mv_c'), mv_a', mv_b', mv_c', mv_temporal}일 때, median(mv_a’, mv_b’, mv_’)의 제외 여부를 판단하고, 판단이 끝나면, mv_a'의 제외 여부를 판단한다. 그런 다음, mv_b’의 제외 여부를 판단한다. C 집합의 정렬 순서에 따라 mv_temporal까지 제외 여부 판단을 반복한다.
반복하여 판단할 때, 이전 판단 과정에서 제외된 후보에 대해서는 가상의 움직임 벡터 차이와 실제 움직임 벡터 차이의 비교를 생략할 수 있음은 MVP2의 제외 여부 판단과 관련하여 전술하였다.
또한, C 집합은 도 13a 내지 13d와 관련하여 후술하는 바와 같이 소정의 기준에 따라 재정렬될 수 있는 바, C 집합이 재정렬된 경우에는 재정렬된 순서에 따라 제외 여부에 대한 판단을 반복한다.
도 12와 관련하여 전술한 가상의 움직임 벡터 차이와 실제 움직임 벡터 차이의 크기 비교는 1차원 움직임 벡터는 물론, 2차원 움직임 벡터에 대해서도 적용될 수 있다. 다시 말해, x 좌표 및 y 좌표로 정의되는 가상의 움직임 벡터 차이의 크기와 실제 움직임 벡터 차이의 크기를 비교하여 소정의 예측 움직임 벡터의 후보를 전체 후보들에서 선택적으로 제외할 수 있다.
그러나, 가상의 움직임 벡터 차이와 실제 움직임 벡터 차이의 비교의 기준(criterion)인 크기는 예시적인 것이며, 다양한 기준이 가상의 움직임 벡터 차이와 실제 움직임 벡터 차이의 비교에 이용될 수 있다. 소정 기준에 기초해 가상의 움직임 벡터 차이에 대한 값과 실제 움직임 벡터 차이에 대한 값을 생성하는 평가 함수를 'A'라고 할 때, 다음의 수학식 1에 따라 가상의 움직임 벡터 차이와 실제 움직임 벡터 차이를 비교할 수 있다.
Figure pat00001
후보결정부(920)는 예측 움직임 벡터의 전체 후보들 중 하나인 'mvx'를 예측 움직임 벡터의 전체 후보들에서 제외할지 여부를 판단하기 위해 수학식 1을 만족하는 'mvy'가 전체 후보들 중에 적어도 하나 존재하는지 판단한다. 수학식 1에서 'MVD'는 실제 움직임 벡터 차이를 의미한다. 'mvx'의 제외 여부를 판단하기 위해 'mvx'에 기초한 가상의 움직임 벡터인 'mvx+MVD'와 다른 예측 움직임 벡터 후보인 'mvy' 사이의 가상의 움직임 벡터 차이인 'mvx+MVD-mvy'를 소정의 평가 함수 'A'를 이용해 평가한 값인 'A(mvx+MVD-mvy)'를 계산하고, 계산 결과 생성된 값들을 실제 움직임 벡터 차이에 대한 값인 'A(MVD)'와 비교한다. 전체 후보들 중에서 'mvx'를 제외한 다른 예측 움직임 벡터 후보들을 'mvy'에 반복하여 대입하여, 수학식 1을 만족하는 'mvy'가 전체 후보들 중에 적어도 하나 존재하는지 판단한다.
전술한 바와 같이 'A'에 의해 평가되는 가상의 움직임 벡터 차이 및 실제 움직임 벡터 차이는 x 좌표 및 y 좌표로 정의될 수 있다. 이 경우, 평가 함수는 다음의 수학식 2와 같이 x 좌표를 평가한 값 및 y 좌표를 평가한 값의 합으로 정의될 수 있다.
Figure pat00002
가상의 움직임 벡터 차이 또는 실제 움직임 벡터 차이가 x 좌표 'p' 및 y 좌표 'q'로 정의될 때, 각각의 좌표 값을 소정의 함수 'f'를 대입하고, 대입한 결과의 합으로 평가 함수 'A'가 정의될 수 있다.
본 발명의 일 실시예에 따르면, 수학식 1 및 수학식 2의 평가 함수 'A'는 가상의 움직임 벡터 차이를 엔트로피 부호화한 결과와 실제 움직임 벡터 차이를 엔트로피 부호화한 결과를 추정하는 평가 함수일 수 있다. 후보결정부(920)는 가상의 움직임 벡터 차이 및 실제 움직임 벡터 차이를 엔트로피 부호화한 결과를 평가 함수 'A'에 기초해 추정하고, 추정 결과에 기초해 예측 움직임 벡터의 후보들의 개수를 줄일 수 있다. 수학식 3을 참조하여 상세히 설명한다.
Figure pat00003
Figure pat00004
x 좌표 값 또는 y 좌표 값에 대해 엔트로피 부호화 결과를 추정하는 함수 'f'는 수학식 3과 같이 정의될 수 있다. 가변장 부호화(variable length coding)(예를 들어, 유니버셜 가변장 부호화 : Universal Variable Length Coding) 결과를 예측하는 함수 'f'에 x 좌표 값 또는 y 좌표 값인 'val'이 입력되면 상기 수학식 3에 따라 'Length'가 계산된다.
수학식 3은 다음과 같이 나타낼 수도 있다.
Figure pat00005
x 좌표 값 또는 y 좌표 값은 가상의 움직임 벡터 차이 또는 실제 움직임 벡터 차이의 x 좌표 값 또는 y 좌표 값일 수 있다.
수학식 3에 따르면, 'val'이 음수 또는 '0'이면 'val'을 양수로 변환한 다음, 1 비트만큼 좌측으로 쉬프트하여 좌표 값에 '2'를 곱하고, '1'을 가산하여 'Temp'로 저장한다. 'val'이 양수이면 'val'을 1 비트만큼 좌측으로 쉬프트하여 좌표 값에 '2'를 곱하여 'Temp'로 저장한다. 그런 다음 'Temp'가 '1'이 될 때까지 'while' 루프를 반복하여, 'Length'를 계산한다.
예를 들어, 가상의 움직임 벡터 차이 또는 실제 움직임 벡터 차이가 (2,0)이라면, A(2,0) = f(2) + f(0)이다.
f(2)는 다음과 같이 계산된다. f(2)의 '2'가 양수이므로, 1 비트만큼 좌측으로 쉬프트하여 'Temp'를 '4'로 설정한다. 첫 번째 while 루프에서는 'Temp'가 '4'이고, '4'는 '1'이 아니므로, '4'를 우측으로 쉬프트하여 '1/2'를 곱함으로써 'Temp'를 '2'로 설정한다. 'Length'의 초기값은 '1'로 설정되어 있으므로, 첫 번째 while 루프에서 'Length'는 '3'이 된다.
두 번째 while 루프에서는 'Temp'가 '2'이고, '2'는 '1'이 아니므로, '2'를 우측으로 쉬프트하여 '1/2'를 곱함으로써 'Temp'를 '1'로 설정한다. 현재 'Length'는 '3'이므로, 두 번째 while 루프에서 'Length'는 '5'가 된다. 세 번째 while 루프는 'Temp'가 '1'이므로 수행되지 않으며, f(2)는 '5'가 된다.
f(0)는 다음과 같이 계산된다. f(0)의 입력 좌표 값이 '0'이므로, '0'을 좌측으로 1 비트 쉬프트하고, '1'을 가산하여 'Temp'는 '1'로 설정된다. 따라서, while 루프는 수행되지 않는다. 'Length'의 초기값에 따라 f(0)는 '1'이 된다.
수학식 3과 관련하여 전술한 소정의 평가 함수 'f'는 가변장 부호화를 이용한 엔트로피 부호화의 결과를 추정하기 위한 함수이다. 따라서, 후보결정부(920)는 'mvx'를 예측 움직임 벡터의 전체 후보들에서 제외할지 판단하기 위해, 평가 함수 'A'를 이용해 가상의 움직임 벡터 차이들을 가변장 길이 부호화한 결과를 추정한다. 추정 결과, 실제 움직임 벡터 차이보다 더 짧은 길이로 부호화되는 것으로 추정된 가상의 움직임 벡터 차이가 적어도 하나 존재하면, 'mvx'를 예측 움직임 벡터의 전체 후보들에서 제외한다.
그러나, 가변장 부호화 결과가 아닌 다른 방법에 의한 엔트로피 부호화 결과를 추정할 수 있음은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 쉽게 알 수 있다. 예를 들어, 또 다른 평가 함수 'h'를 이용해 가상의 움직임 벡터 차이의 엔트로피 부호화 결과 및 실제 움직임 벡터 차이의 엔트로피 부호화 결과를 추정하고, 비교할 수 있으며, 이 때, 'h'는 컨텍스트 적응 이진 산술 부호화(Context adaptive binary arithmetic coding)의 결과를 추정하는 함수일 수 있다.
또한, 본 발명의 또 다른 실시예에 따르면, 소정의 평가 함수에 기초한 평가 결과의 정확도를 높이기 위해 인덱스 정보를 평가한 결과도 함께 추정할 수 있다. 인덱스 정보는 예측 움직임 벡터의 전체 후보들 중에서 소정의 예측 움직임 벡터 후보를 특정하기 위한 정보이다. 수학식 4를 참조하여 상세히 설명한다.
Figure pat00006
후보결정부(920)는 예측 움직임 벡터의 전체 후보들 중 하나인 'mvx'를 예측 움직임 벡터의 전체 후보들에서 제외할지 여부를 판단하기 위해 수학식 4를 만족하는 'mvy'가 전체 후보들 중에 적어도 하나 존재하는지 판단한다. 수학식 4에서 'MVD'는 실제 움직임 벡터 차이를 의미하며, mvxIdx와 mvyIdx는 예측 움직임 벡터의 전체 후보들에서 각각 ‘mvx’와 'mvy'를 특정하기 위한 인덱스 정보를 의미한다. 'mvx'의 제외 여부를 판단하기 위해, 'mvx'에 기초한 가상의 움직임 벡터인 'mvx+MVD'와 다른 예측 움직임 벡터 후보인 'mvy' 사이의 가상의 움직임 벡터 차이인 'mvx+MVD-mvy' 및 ‘mvy’를 전체 후보들에서 특정하기 위한 인덱스 정보를 소정의 평가 함수 ‘A’를 이용해 평가하고, 실제 움직임 벡터 차이 및 ‘mvx’를 전체 후보들에서 특정하기 위한 인덱스 정보를 소정의 평가 함수 ‘A’를 이용해 평가한다. 평가 결과, 수학식 4을 만족하는 'mvy'가 전체 후보들 중에 적어도 하나 존재하는지 판단한다.
전술한 바와 같이 'A'에 의해 평가되는 가상의 움직임 벡터 차이 및 실제 움직임 벡터 차이는 x 좌표 및 y 좌표로 정의될 수 있으며, 수학식 5와 같이 정의될 수 있다.
Figure pat00007
수학식 2와 비교하면, 수학식 2의 좌변의 A(mvx+MVD-mvy)는 가상의 움직임 벡터 차이만 평가하였으나, 수학식 5의 A(mvx+MVD-mvy, mvyIdx)는 가상의 움직임 벡터 차이 및 예측 움직임 벡터의 전체 후보들에서 'mvy'를 특정하기 위한 정보도 함께 평가한다. 평가 함수 ‘A’는 전술한 바와 같이 엔트로피 부호화한 결과를 평가하기 위한 함수일 수 있으며, 이 때, 함수 'f'는 수학식 2와 관련하여 전술한 바와 같이 가상의 움직임 벡터 차이의 x 좌표 값 또는 y 좌표 값에 기초해 엔트로피 부호화 결과를 추정하기 위한 함수이고, 함수 'g'는 'mvxIdx'의 엔트로피 부호화 결과를 추정하기 위한 함수일 수 있다. 'mvx+MVD-mvy'의 x 좌표 값이 'p1'이고 y 좌표 값이 'q1'일 때, A(mvx+MVD-mvy, mvxIdx)는 수학식 5에 도시된 바와 같이 계산할 수 있다.
수학식 2의 우변의 A(MVD)도 실제 움직임 벡터 차이만 평가하였으나, 수학식 5의 A(MVD, mvxIdx)는 실제 움직임 벡터 차이 및 예측 움직임 벡터의 전체 후보들에서 'mvx'를 특정하기 위한 정보를 함께 평가한다. 함수 'f'는 수학식 2와 관련하여 전술한 바와 같이 실제 움직임 벡터 차이의 x 좌표 값 또는 y 좌표 값에 기초해 엔트로피 부호화 결과를 추정하기 위한 함수이고, 함수 'g'는 'mvxIdx'의 엔트로피 부호화 결과를 추정하기 위한 함수일 수 있다. 'MVD'의 x 좌표 값이 'p2'이고 y 좌표 값이 'q2'일 때, A(MVD, mvxIdx)는 수학식 5에 도시된 바와 같이 계산할 수 있다.
수학식 4 및 5에 따른 제외 여부 판단은 수학식 2에 따른 제외 여부 판단에 대해 보조적으로 이용될 수 있다. 다시 말해, 수학식 2에 따라 기초해 ‘mvx’를 전체 예측 움직임 벡터의 후보들에서 제외할지 먼저 판단하고, 보조적으로 수학식 4 및 5에 따라 다시 한번 제외 여부를 판단할 수 있다. 예를 들어, 수학식 2에 따라 판단한 결과 ‘A(mvx+MVD-mvy)’와 ‘A(MVD)’가 동일하거나 큰 경우만 존재하고, ‘A(mvx+MVD-mvy)’가 ‘A(MVD)’보다 작은 경우는 존재하지 않는다면, 수학식 2에 따르면, ‘mvx’가 예측 움직임 벡터의 전체 후보들에서 제외되지 않는다. 그러나, ‘A(mvx+MVD-mvy)’와 ‘A(MVD)’가 동일하여도, 수학식 4 및 5에 따른 판단 결과에 기초해 ‘mvx’를 예측 움직임 벡터의 전체 후보들에서 제외할 수 있다.
후보결정부(920)가 수학식 1 내지 5에 기초해 예측 움직임 벡터 후보에 대해 제외 여부를 판단할 때, C 집합의 정렬 순서에 따라 모든 예측 움직임 벡터의 후보들에 대해 반복함은 전술하였다. 본 발명의 또 다른 실시예에 따르면, 후보결정부(920)는 C 집합을 소정의 기준에 따라 재정렬하고, 재정렬 순서에 따라 제외 여부의 판단을 반복할 수 있다. 도 13a 내지 13d를 참조하여 상세히 설명한다.
도 13a 내지 13d는 본 발명의 일 실시예에 따른 소정 크기의 부호화 단위에 포함된 현재 블록의 위치를 도시한다.
전체 예측 움직임 벡터의 후보들이 C = {median(mv_a', mv_b', mv_c'), mv_a', mv_b', mv_c', mv_temporal}와 같을 때, C 집합의 예측 움직임 벡터 후보 각각에 이진수를 할당함으로써 예측 움직임 벡터의 후보들 중에서 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터를 특정할 수 있음을 전술하였다.
이 때, C 집합에 포함된 예측 움직임 벡터의 후보들의 정렬 순서에 따라 이진수가 할당되고, 이러한 이진수는 허프만 코드에 기초한 가변장 부호일 수 있다. 따라서, C 집합의 정렬 순서에서 앞에 위치한 예측 움직임 벡터 후보에 더 적은 개수의 비트를 할당할 수 있다. 예를 들어, C 집합에서 'median(mv_a', mv_b', mv_c')'에 '0' 비트를 할당하고, mv_a'에 '00' 비트를 할당하며, mv_b'에 '01' 비트를 할당할 수 있다. 따라서, 후보결정부(920)는 예측 움직임 벡터의 후보들 중 현재 블록의 움직임 벡터를 예측하는데 이용될 가능성이 높은 예측 움직임 벡터 후보가 C 집합의 앞쪽에 위치하도록, 예측 움직임 벡터의 후보들을 소정 순서에 따라 정렬한다.
현재 블록의 움직임 벡터를 예측하는데 이용될 가능성이 높은 예측 움직임 벡터는 부호화 단위에서 현재 블록의 위치에 따라 결정될 수 있다. 도 13a와 같이 현재 블록이 부호화 단위의 하단에 위치하면, 현재 블록의 움직임 벡터는 부호화 단위의 좌측에 인접한 블록의 움직임 벡터 또는 좌측하부에 인접한 블록의 움직임 벡터와 동일 또는 유사할 가능성이 높다. 따라서, 좌측에 인접한 블록의 움직임 벡터 또는 좌측 하부에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터의 후보가 C 집합의 앞쪽에 위치하도록 정렬 순서를 변경할 필요가 있다. 전술한 C 집합의 예측 움직임 벡터의 후보들 중 mv_b'가 좌측에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터의 후보이므로, C 집합은 mv_b'와 median(mv_a', mv_b', mv_c')의 순서를 바꾸어, C = {mv_b', mv_a', median(mv_a', mv_b', mv_c'), mv_c', mv_temporal}와 같이 재정렬될 수 있다.
마찬가지로, 도 13b와 같이 현재 블록이 부호화 단위의 좌측에 위치하면, 부호화 단위의 좌측에 인접한 블록의 움직임 벡터 및 상부에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터 후보가 현재 블록의 움직임 벡터를 예측하는데 이용될 가능성이 높다. 전술한 C 집합의 예측 움직임 벡터의 후보들 중 mv_b'가 좌측에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터 후보이므로, C 집합은 mv_b'와 median(mv_a', mv_b', mv_c')의 순서를 바꾸어, C = {mv_b', mv_a', median(mv_a', mv_b', mv_c'), mv_c', mv_temporal}와 같이 재정렬될 수 있다.
도 13c와 같이 현재 블록이 부호화 단위의 상부에 위치하면, 부호화 단위의 좌측에 인접한 블록의 움직임 벡터 및 상부에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터 후보가 현재 블록의 예측 움직임 벡터로 이용될 가능성이 높다. 전술한 C 집합의 예측 움직임 벡터의 후보들 중 mv_a'가 상부에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터 후보이므로, C 집합은 mv_a'와 median(mv_a', mv_b', mv_c')의 순서를 바꾸어, C = {mv_a', median(mv_a', mv_b', mv_c'), mv_b', mv_c', mv_temporal}와 같이 재정렬될 수 있다.
도 13d와 같이 현재 블록이 부호화 단위의 우측에 위치하면, 부호화 단위의 우측 상부에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터 후보가 현재 블록의 움직임 벡터를 예측하는데 이용될 가능성이 높다. 전술한 C 집합의 예측 움직임 벡터의 후보들 중 mv_c'가 우측상부에 인접한 블록의 움직임 벡터에 대응되는 예측 움직임 벡터 후보이므로, C 집합은 mv_c'와 median(mv_a', mv_b', mv_c')의 순서를 바꾸어 C = {mv_c', mv_a', mv_b', median(mv_a', mv_b', mv_c'), mv_temporal}와 같이 재정렬될 수 있다.
예측 움직임 벡터의 후보들을 재정렬하는 기준으로서 부호화 단위에서 현재 블록의 위치는 예시적인 것이다. 다시 말해, 다양한 기준이 예측 움직임 벡터의 후보들을 재정렬하는 기준으로 이용될 수 있다. 현재 블록의 움직임 벡터와 유사할 가능성이 높은 예측 움직임 벡터 후보가 C 집합의 앞부분으로 정렬될 수 있게 하는 다양한 기준이 예측 움직임 벡터의 후보들을 재정렬하는 기준으로 이용될 수 있다. 현재 블록 이전에 부호화된 다른 블록들과 관련된 소정의 정보에 기초해 현재 블록의 움직임 벡터와 유사할 가능성이 높은 예측 움직임 벡터 후보를 결정하고, 결정에 기초해 C 집합을 재정렬할 수 있다.
또한, 현재 블록의 움직임 벡터를 부호화하기 이전에 현재 블록에 대해 부호화되거나 복호화된 다른 정보에 기초해 현재 블록의 움직임 벡터와 유사할 가능성이 높은 예측 움직임 벡터 후보를 결정하고, 결정에 기초해 C 집합을 재정렬할 수 있다.
또한, C 집합의 재정렬 시에 중복된 예측 움직임 벡터 후보는 제외하고, 재정렬을 수행할 수 있다. 예측 움직임 벡터의 전체 후보들에 중복된 예측 움직임 벡터 후보가 있는 경우에는 이를 먼저 제외하고, 전술한 수학식 1 내지 5에 따라 각각의 예측 움직임 벡터 후보에 대해 제외 여부를 판단할 수 있다.
다시 도 9를 참조하면, 움직임벡터부호화부(930)는 움직임 벡터에 대한 정보 및 예측 움직임 벡터에 대한 정보를 부호화한다. 움직임 벡터에 대한 정보는 현재 블록의 실제 움직임 벡터와 실제 예측 움직임 벡터 사이의 차이 벡터이고, 예측 움직임 벡터에 대한 정보는 예측 움직임 벡터의 전체 후보들 중에서 적어도 하나의 예측 움직임 벡터가 제외된 후보들에서 현재 블록의 움직임 벡터 예측에 이용된 예측 움직임 벡터를 특정하기 위한 정보를 부호화한다. 다시 말해, 후보결정부(920)에서 제외되지 않은 예측 움직임 벡터의 후보들에서 현재 블록의 예측 움직임 벡터를 특정하기 위한 정보가 예측 움직임 벡터에 대한 정보로서 부호화된다.
실제 움직임 벡터 차이를 움직임벡터추정부(910)로부터 수신하여 소정의 엔트로피 부호화 방법에 따라 부호화하고, 후보결정부(920)에서 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외하여 결정된 예측 움직임 벡터의 후보들에서 움직임벡터추정부(910)에서 결정된 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위한 정보를 부호화한다.
후보결정부(920)가 예측 움직임 벡터의 전체 후보들에서 적어도 하나의 예측 움직임 벡터의 후보를 전술한 수학식 1 내지 5에 따라 제외하여 예측 움직임 벡터의 후보들을 결정하면, 결정된 예측 움직임 벡터의 후보들 중에서 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위한 정보를 부호화한다. 움직임벡터부호화부(930)는 후보결정부(920)에서 제외되지 않은 예측 움직임 벡터의 후보들 각각을 인덱싱(indexing)하고, 예측 움직임 벡터에 대한 정보로서 인덱스 정보를 엔트로피 부호화할 수 있다. 인덱싱이란 예측 움직임 벡터의 후보들 각각에 소정의 이진수를 할당하는 것을 의미하며, 예측 움직임 벡터에 대한 정보는 예측 움직임 벡터의 후보들 중에서 현재 블록의 움직임 벡터를 예측하는데 이용된 정보를 의미한다. 후보결정부(920)가 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외한 결과, 예측 움직임 벡터 후보가 하나만 남게 되면, 움직임벡터부호화부(930)에서 예측 움직임 벡터에 대한 정보를 별도로 부호화할 필요가 없다. 현재 블록의 움직임 벡터를 예측하는데 이용할 예측 움직임 벡터 후보가 암묵적(implicit)으로 결정되기 때문이다.
또한, 도 13a 내지 13d와 관련하여 전술한 바와 같이 후보결정부(920)가 전체 예측 움직임 벡터의 후보들을 소정의 기준에 따라 재정렬하고, 재정렬된 전체 예측 움직임 벡터의 후보들에서 적어도 하나의 예측 움직임 벡터를 선택적으로 제외하여 생성한 예측 움직임 벡터의 후보들 각각을 인덱싱하고, 인덱스 정보를 엔트로피 부호화할 수도 있다.
후보결정부(920)의 재정렬 결과, 현재 블록의 움직임 벡터를 예측하는데 이용될 가능성이 높은 예측 움직임 벡터 후보에 가장 적은 비트수의 이진수가 할당되므로, 예측 움직임 벡터에 대한 정보를 보다 높은 압축률로 부호화할 수 있다.
도 14는 본 발명의 일 실시예에 따른 움직임 벡터를 복호화하는 장치를 도시한다.
도 2의 영상 복호화 장치(200) 또는 도 5의 영상 부호화부(500)에 포함되어 움직임 벡터를 복호화하는 장치가 도 14에 상세히 도시된다. 도 14를 참조하면, 본 발명의 일 실시예에 따른 움직임 벡터 복호화 장치(1400)는 움직임벡터복호화부(1410), 후보결정부(1420) 및 움직임벡터복원부(1430)를 포함한다.
도 14의 움직임 벡터 복호화 장치(1400)는 현재 블록의 움직임 벡터가 전술한 명시 모드 및 암시 모드 중 명시 모드에 따라 부호화된 경우, 현재 블록의 움직임 벡터를 복호화하는 장치를 도시한다.
움직임벡터복호화부(1410)는 현재 블록의 움직임 벡터에 대한 비트스트림을 수신하고, 수신된 비트스트림을 복호화한다. 비트스트림에 포함된 움직임 벡터에 대한 정보를 복호화한다. 현재 블록의 실제 움직임 벡터 차이를 복호화한다. 실제 움직임 벡터 차이를 소정의 엔트로피 복호화 방법에 따라 복호화할 수 있다. 실제 움직임 벡터 차이는 현재 블록의 움직임 벡터와 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보 사이의 차이 벡터이다.
본 발명의 움직임 벡터를 부호화하는 방법에 따르면, 전술한 수학식 1 내지 5에 따라 예측 움직임 벡터의 전체 후보들 중 적어도 하나의 예측 움직임 벡터 후보를 제외하고, 예측 움직임 벡터의 후보들이 결정된다. 예측 움직임 벡터의 후보들은 고정되는 것이 아니며, 블록 단위로 복호화를 진행함에 따라 계속해서 변경될 수 있다. 따라서, 예측 움직임 벡터의 후보에 대한 정보가 동일하더라도, 예측 움직임 벡터의 후보들이 결정되지 않으면 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 정확하게 복원할 수 없다.
따라서, 예측 움직임 벡터 후보를 결정하기에 앞서 후보결정부(1420)는 예측 움직임 벡터의 후보들을 결정한다. 움직임 벡터의 전체 후보들 중 적어도 하나의 예측 움직임 벡터 후보를 수학식 1 내지 5에 따라 선택적으로 제외하여 예측 움직임 벡터의 후보들을 결정한다. 현재 블록에 인접한 이전에 복호화된 영역에 포함된 블록들의 움직임 벡터들에 기초해 결정된 전체 후보들 중 현재 블록의 움직임 벡터를 예측하는데 이용되지 않는 것이 명백한 예측 움직임 벡터 후보를 소정의 평가 함수에 기초해 제외한다.
예측 움직임 벡터의 전체 후보들 중 소정의 예측 움직임 벡터 후보 및 움직임 벡터 복호화부에서 복호화된 움직임 벡터에 대한 정보에 기초해 가상의 움직임 벡터를 생성하고, 생성된 가상의 움직임 벡터와 다른 예측 움직임 벡터 후보의 차이인 가상의 움직임 벡터 차이를 전체 후보들 각각에 대해 계산한다. 계산된 가상의 움직임 벡터 차이들을 움직임벡터복호화부(1410)에서 복호화된 움직임 벡터에 대한 정보 즉, 실제 움직임 벡터 차이와 비교하여 예측 움직임 벡터의 후보를 제외한다. 가상의 움직임 벡터 차이들의 엔트로피 부호화 결과를 실제 움직임 벡터 차이의 엔트로피 부호화 결과와 비교하여 소정의 예측 움직임 벡터의 후보를 제외할지 여부를 판단할 수 있다. 또한, 엔트로피 부호화 결과의 추정 정확도를 높이기 위해 인덱스 정보를 엔트로피 부호화한 결과도 함께 추정하여 제외 여부 판단에 이용할 수 있다. 예측 움직임 벡터의 후보를 제외하는 방법은 수학식 1 내지 5와 관련하여 전술하였다.
또한, 본 발명의 또 다른 실시예에 따르면, 후보결정부(1420)는 예측 움직임 벡터의 전체 후보들을 소정의 기준에 따라 재정렬하고, 재정렬된 전체 후보들에 대해 수학식 1 내지 5에 따른 제외 판단을 반복하여 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외할 수 있다. 재정렬된 전체 후보들에서 중복된 예측 움직임 벡터 후보를 제외하고, 수학식 1 내지 5에 따른 제외 판단을 반복할 수도 있다.
후보결정부(1420)가 예측 움직임 벡터의 전체 후보들 중에서 적어도 하나의 예측 움직임 벡터 후보를 제외한 결과, 예측 움직임 벡터의 전체 후보들 중 복수의 예측 움직임 벡터 후보가 남으면, 움직임벡터복호화부(1410)는 예측 움직임 벡터에 대한 정보를 복호화한다. 예측 움직임 벡터에 대한 정보를 소정의 엔트로피 복호화 방법에 따라 복호화한다. 예측 움직임 벡터에 대한 정보는 적어도 하나의 예측 움직임 벡터 후보가 제외된 예측 움직임 벡터의 후보들 중 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위한 정보이다. 후보결정부(1420)에서 제외되지 않은 예측 움직임 벡터의 후보들 중에서 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위한 정보가 복호화된다.
후보결정부(1420)가 예측 움직임 벡터의 전체 후보들 중에서 적어도 하나의 예측 움직임 벡터 후보를 제외한 결과, 하나의 예측 움직임 벡터 후보만 남으면, 남겨진 하나의 예측 움직임 벡터 후보가 현재 블록의 움직임 벡터를 예측하는데 이용되므로, 움직임벡터복호화부(1410)는 별도로 예측 움직임 벡터의 후보에 대한 정보를 복호화할 필요가 없다.
움직임벡터복원부(1430)는 움직임벡터복호화부(1410)에서 복호화된 움직임 벡터에 대한 정보에 기초해 현재 블록의 움직임 벡터를 복원한다. 움직임벡터복호화부(1410)에서 복호화된 실제 움직임 벡터 차이와 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 가산하여 현재 블록의 움직임 벡터를 복원한다. 후보결정부(1420)에서 결정된 예측 움직임 벡터의 후보들 중 현재 블록의 움직임 벡터를 예측하는데 이용할 예측 움직임 벡터 후보를 결정하고, 결정된 예측 움직임 벡터 후보를 실제 움직임 벡터 차이와 가산한다. 후보결정부(1420)에서의 제외 결과, 하나가 아닌 복수의 예측 움직임 벡터의 후보들을 남은 경우에는, 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보는 움직임벡터복호화부(1410)에서 복호화된 예측 움직임 벡터에 대한 정보에 기초해 결정될 수 있다.
후보결정부(1420)에 의해 예측 움직임 벡터의 후보들이 결정되므로, 복호화된 예측 움직임 벡터에 대한 정보가 동일하더라도, 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보는 상이한 위치에 인접한 블록의 움직임 벡터일 수 있다.
도 15는 본 발명의 일 실시예에 따른 움직임 벡터를 부호화하는 방법을 설명하기 위한 흐름도이다.
도 15를 참조하면, 단계 1510에서 움직임 벡터 부호화 장치는 현재 블록의 움직임 벡터를 추정하고, 현재 블록의 움직임 벡터를 예측하는데 이용되는 예측 움직임 벡터 후보를 예측 움직임 벡터의 전체 후보들 중에서 결정한다. 현재 블록과 동일 또는 유사한 움직임 벡터를 복수의 참조 픽처에서 검색하고, 검색 결과에 따라 현재 블록과 참조 블록의 상대적인 위치 차이인 움직임 벡터를 추정한다.
그런 다음 현재 블록에 인접한 이전에 부호화된 영역에 포함된 블록들의 움직임 벡터에 기초해 현재 블록의 움직임 벡터를 예측한다. 다시 말해, 현재 블록에 인접한 이전에 부호화된 영역에 포함된 블록들의 움직임 벡터들을 예측 움직임 벡터의 전체 후보들로 설정하고, 예측 움직임 벡터의 전체 후보들 중 추정된 현재 블록의 움직임 벡터와 가장 유사한 예측 움직임 벡터 후보를 결정한다. 현재 블록의 움직임 벡터와 결정된 예측 움직임 벡터 후보의 차이 벡터 즉, 실제 움직임 벡터 차이를 생성한다.
단계 1520에서 영상 부호화 장치는 예측 움직임 벡터의 전체 후보들에서 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외한다. 예측 움직임 벡터의 전체 후보들 중에서 현재 블록의 움직임 벡터를 예측하는데 이용되지 않는 것이 명백한 예측 움직임 벡터 후보를 제외한다.
영상 부호화 장치는 예측 움직임 벡터의 전체 후보들 중 소정의 예측 움직임 벡터 후보와 단계 1510에서 생성된 실제 움직임 벡터 차이를 이용해 가상의 움직임 벡터를 생성한다.생성된 가상의 움직임 벡터및 다른 예측 움직임 벡터 후보를 이용해 가상의 움직임 벡터 차이를 생성한다. 전체 후보들 각각에 대해 가상의 움직임 벡터 차이를 생성하고, 생성된 가상의 움직임 벡터 차이와 실제 움직임 벡터 차이를 비교하여 소정의 예측 움직임 벡터 후보를 선택적으로 제외할 수 있다.
단계 1520의 가상 움직임 벡터를 생성하는 과정 및 선택적으로 제외하는 과정을 전체 후보들 모두에 대해 반복하여 수행함으로써, 적어도 하나의 예측 움직임 벡터 후보를 전체 후보들에서 제외할 수 있다. 제외하는 과정을 반복하여 수행할 때에는 이미 제외된 예측 움직임 벡터 후보를 뺀 나머지 예측 움직임 벡터 후보들 각각에 대해 가상의 움직임 벡터 차이를 계산하고, 계산된 가상의 움직임 벡터 차이를 실제 움직임 벡터 차이와 비교할 수 있다.
소정의 평가 함수에 기초해 가상의 움직임 벡터 차이 및 실제 움직임 벡터 차이를 평가하여 비교할 수 있으며, 소정의 평가 함수는 엔트로피 부호화 결과를 예측하는 함수일 수 있다. 가상의 움직임 벡터 차이를 엔트로피 부호화한 결과와 실제 움직임 벡터 차이를 엔트로피 부호화한 결과를 추정하는 함수에 기초해 비교할 수 있다. 또한, 평가의 정확도를 높이기 위해 인덱스 정보를 엔트로피 부호화한 결과도 함께 추정하여 제외 여부 판단에 이용할 수 있다. 예측 움직임 벡터의 전체 후보들에서 적어도 하나의 예측 움직임 벡터 후보를 제외하는 방법은 수학식 1 내지 5와 관련하여 전술하였다.
또한, 움직임 벡터 부호화 장치는 도 13a 내지 13d와 관련하여 전술한 바와 같이 움직임 벡터의 전체 후보들을 소정의 기준에 따라 재정렬하고, 재정렬된 전체 후보들에서 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외할 수도 있다. 재정렬된 전체 후보들에서 중복된 예측 움직임 벡터 후보를 제외하고, 수학식 1 내지 5에 따른 제외 판단을 반복할 수도 있다.
단계 1530에서 움직임 벡터 부호화 장치는 움직임 벡터에 대한 정보 및 예측 움직임 벡터에 대한 정보를 부호화한다. 실제 움직임 벡터 차이 및 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위한 정보를 부호화한다. 예측 움직임 벡터에 대한 정보는 단계 1520 및 1530을 통해 제외되지 않은 예측 움직임 벡터의 후보들에서 현재 블록의 움직임 벡터를 예측하는데 이용된 예측 움직임 벡터 후보를 특정하기 위한 정보일 수 있다.
예측 움직임 벡터의 전체 후보들에서 적어도 하나의 예측 움직임 벡터 후보를 제외한 결과, 하나의 예측 움직임 벡터 후보만 남으면, 예측 움직임 벡터에 대한 정보를 부호화하지 않을 수 있다.
도 16은 본 발명의 일 실시예에 따른 움직임 벡터를 복호화하는 방법을 설명하기 위한 흐름도이다.
도 16을 참조하면, 단계 1610에서 움직임 벡터 복호화 장치는 수신된 비트스트림으로부터 현재 블록의 움직임 벡터에 대한 정보를 복호화한다. 움직임 벡터에 대한 정보는 현재 블록의 실제 움직임 벡터와 현재 블록의 예측 움직임 벡터 사이의 실제 움직임 벡터 차이일 수 있다.
단계 1620에서 움직임 벡터 복호화 장치는 단계 1610에서 복호화된 움직임 벡터에 대한 정보 및 예측 움직임 벡터의 전체 후보들 중 하나의 예측 움직임 벡터 후보에 기초해 가상의 움직임 벡터를 생성한다.
가상의 움직임 벡터가 생성되면, 움직임 벡터 복호화 장치는 예측 움직임 벡터의 전체 후보들에서 적어도 하나의 예측 움직임 벡터 후보를 제외한다. 현재 블록에 인접한 이전에 복호화된 영역의 블록들의 움직임 벡터에 기초해 예측 움직임 벡터의 전체 후보들이 결정된다. 움직임 벡터 복호화 장치는 이러한 예측 움직임 벡터의 전체 후보들에서 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외할 수 있다. 소정의 평가 함수에 기초해 가상의 움직임 벡터 차이와 단계 1610에서 복호화된 실제 움직임 벡터 차이를 평가하여 소정의 예측 움직임 벡터 후보를 선택적으로 제외한다. 예측 움직임 벡터 후보를 전체 후보들에서 제외하는 방법은 단계 1530과 동일하며, 수학식 1 내지 5를 참조하여 전술하였다.
단계 1620의 가상의 움직임 벡터를 생성하는 과정 및 선택적으로 제외하는 과정을 전체 후보들 모두에 대해 반복하여 수행함으로써, 적어도 하나의 예측 움직임 벡터 후보를 전체 후보들에서 제외할 수 있다.
또한, 움직임 벡터 부호화 장치는 도 13a 내지 13d와 관련하여 전술한 바와 같이 움직임 벡터의 전체 후보들을 소정의 기준에 따라 재정렬하고, 재정렬된 전체 후보들에서 적어도 하나의 예측 움직임 벡터 후보를 선택적으로 제외할 수도 있다. 재정렬된 전체 후보들에서 중복된 예측 움직임 벡터 후보를 제외하고, 수학식 1 내지 5에 따른 제외 판단을 반복할 수도 있다.
제외 결과, 복수의 예측 움직임 벡터의 후보들이 남으면, 예측 움직임 벡터에 대한 정보를 복호화하고, 하나의 예측 움직임 벡터 후보만 남으면 예측 움직임 벡터에 대한 정보를 복호화하지 않는다.
단계 1630에서 움직임 벡터 복호화 장치는 단계 1620에서 제외되지 않은 예측 움직임 벡터의 후보들 중 현재 블록의 움직임 벡터를 예측하는데 이용되는 예측 움직임 벡터 후보를 결정한다.
현재 블록의 예측 움직임 벡터에 대한 정보에 기초해 예측 움직임 벡터의 후보들 중 현재 블록의 움직임 벡터를 예측하는데 이용되는 예측 움직임 벡터 후보를 결정할 수 있다. 단계 1620의 제외 결과 하나의 예측 움직임 벡터 후보만 남은 경우에는 남은 하나의 예측 움직임 벡터 후보가 현재 블록의 움직임 벡터를 예측 하는데 이용되는 예측 움직임 벡터 후보로 결정된다.
예측 움직임 벡터 후보가 결정되면, 결정된 예측 움직임 벡터 후보와 단계 1610에서 복호화된 실제 움직임 벡터 차이를 가산하여 현재 블록의 움직임 벡터를 복원한다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명이 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이와 균등하거나 또는 등가적인 변형 모두는 본 발명 사상의 범주에 속한다 할 것이다. 또한, 본 발명에 따른 시스템은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다.
예를 들어, 본 발명의 예시적인 실시예에 따른 영상 부호화 장치, 영상 복호화 장치, 움직임 벡터 부호화 장치 및 움직임 벡터 복호화 장치는 도 1, 2, 4, 5, 9 및 14에 도시된 바와 같은 장치의 각각의 유닛들에 커플링된 버스, 상기 버스에 결합된 적어도 하나의 프로세서를 포함할 수 있다. 또한, 명령, 수신된 메시지 또는 생성된 메시지를 저장하기 위해 상기 버스에 결합되어, 전술한 바와 같은 명령들을 수행하기 위한 적어도 하나의 프로세서에 커플링된 메모리를 포함할 수 있다.
또한, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등을 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.

Claims (8)

  1. 영상을 복호화하는 방법에 있어서,
    현재 블록의 움직임 벡터 차이에 대한 정보 및 상기 현재 블록의 예측 움직임 벡터를 특정하기 위한 예측 움직임 벡터에 대한 정보를 비트스트림으로부터 복호화하는 단계;
    예측 움직임 벡터 후보 집합을 구성하는 단계;
    상기 예측 움직임 벡터 후보 집합 내 예측 움직임 벡터 후보들의 값 및 상기 예측 움직임 벡터 후보 집합 내 예측 움직임 벡터 후보들의 개수를 기반으로, 상기 예측 움직임 벡터 후보 집합을 조정하는 단계;
    상기 조정된 예측 움직임 벡터 후보 집합 및 상기 예측 움직임 벡터에 대한 정보를 기반으로 상기 현재 블록의 예측 움직임 벡터를 결정하는 단계; 및
    상기 현재 블록의 예측 움직임 벡터 및 상기 현재 블록의 움직임 벡터 차이에 대한 정보를 기반으로 상기 현재 블록의 움직임 벡터를 결정하는 단계를 포함하되,
    상기 조정된 예측 움직임 벡터 후보 집합은 상기 현재 블록에 인접한 블록들의 움직임 벡터들에 기반한 1차 예측 움직임 벡터 후보들과, 현재 블록과 동일한 위치의 참조 픽처상의 블록의 움직임 벡터에 기반한 2차 예측 움직임 벡터 후보 중 적어도 하나를 포함하고,
    상기 인접한 블록들은 상기 현재 블록의 좌측하부의 제1 블록, 및 상기 제1 블록의 상부의 제2 블록을 포함함을 특징으로 하는, 복호화 방법.
  2. 제 1항에 있어서,
    상기 예측 움직임 벡터 후보 집합을 조정하는 단계는 상기 예측 움직임 벡터 후보 집합 내 중복되는 값을 가지는 1차 예측 움직임 벡터 후보들이 존재하는 경우, 상기 중복되는 값을 가지는 1차 예측 움직임 벡터 후보들 중 하나를 상기 예측 움직임 벡터 후보 집합에서 제거하는 것을 포함함을 특징으로 하는, 복호화 방법.
  3. 제 1항에 있어서,
    상기 조정된 예측 움직임 벡터 후보 집합은 총 두개의 예측 움직임 벡터 후보를 포함하고,
    상기 예측 움직임 벡터 정보는 1비트 이진수 값을 통하여 상기 두개의 예측 움직임 벡터 후보 중 하나를 나타냄을 특징으로 하는, 복호화 방법.
  4. 제 1항에 있어서,
    상기 조정된 예측 움직임 벡터 후보 집합에 포함되는 상기 2차 예측 움직임 벡터 후보는 현재 픽처와 상기 참조 픽처간의 시간적 거리에 기반하여 스케일링된 것을 특징으로 하는, 복호화 방법.
  5. 현재 블록의 움직임 벡터 차이에 대한 정보 및 상기 현재 블록의 예측 움직임 벡터를 특정하기 위한 예측 움직임 벡터에 대한 정보를 비트스트림으로부터 복호화하는 복호화부;
    예측 움직임 벡터 후보 집합을 구성하고, 상기 예측 움직임 벡터 후보 집합 내 예측 움직임 벡터 후보들의 값 및 상기 예측 움직임 벡터 후보 집합 내 예측 움직임 벡터 후보들의 개수를 기반으로, 상기 예측 움직임 벡터 후보 집합을 조정하는 후보결정부; 및
    상기 조정된 예측 움직임 벡터 후보 집합 및 상기 예측 움직임 벡터에 대한 정보를 기반으로 상기 현재 블록의 예측 움직임 벡터를 결정하고, 상기 현재 블록의 예측 움직임 벡터 및 상기 현재 블록의 움직임 벡터 차이에 대한 정보를 기반으로 상기 현재 블록의 움직임 벡터를 결정하는 움직임벡터 복원부를 포함하되,
    상기 조정된 예측 움직임 벡터 후보 집합은 상기 현재 블록에 인접한 블록들의 움직임 벡터들에 기반한 1차 예측 움직임 벡터 후보들과, 현재 블록과 동일한 위치의 참조 픽처상의 블록의 움직임 벡터에 기반한 2차 예측 움직임 벡터 후보 중 적어도 하나를 포함하고,
    상기 인접한 블록들은 상기 현재 블록의 좌측하부의 제1 블록, 및 상기 제1 블록의 상부의 제2 블록을 포함함을 특징으로 하는, 복호화 장치.
  6. 제 5항에 있어서,
    상기 후보결정부는 상기 예측 움직임 벡터 후보 집합을 조정함에 있어, 상기 예측 움직임 벡터 후보 집합 내 중복되는 값을 가지는 1차 예측 움직임 벡터 후보들이 존재하는 경우, 상기 중복되는 값을 가지는 1차 예측 움직임 벡터 후보들 중 하나를 상기 예측 움직임 벡터 후보 집합에서 제거함을 특징으로 하는, 복호화 장치.
  7. 제 5항에 있어서,
    상기 후보결정부는 총 두개의 예측 움직임 벡터 후보를 포함하도록 상기 예측 움직임 벡터 후보 집합을 조정하고,
    상기 후보결정부는 1비트 이진수 값을 갖는 상기 예측 움직임 벡터 정보를 통하여 상기 두개의 예측 움직임 벡터 후보 중 하나를 결정함을 특징으로 하는, 복호화 장치.
  8. 제 5항에 있어서,
    상기 조정된 예측 움직임 벡터 후보 집합에 포함되는 상기 2차 예측 움직임 벡터 후보는 현재 픽처와 상기 참조 픽처간의 시간적 거리에 기반하여 스케일링된 것을 특징으로 하는, 복호화 장치.
KR1020150042368A 2010-01-19 2015-03-26 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치 KR101768208B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US29616310P 2010-01-19 2010-01-19
US61/296,163 2010-01-19
KR1020110004015A KR101768207B1 (ko) 2010-01-19 2011-01-14 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020110004015A Division KR101768207B1 (ko) 2010-01-19 2011-01-14 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20150042164A true KR20150042164A (ko) 2015-04-20
KR101768208B1 KR101768208B1 (ko) 2017-08-16

Family

ID=44277572

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020110004015A KR101768207B1 (ko) 2010-01-19 2011-01-14 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치
KR1020150042368A KR101768208B1 (ko) 2010-01-19 2015-03-26 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020110004015A KR101768207B1 (ko) 2010-01-19 2011-01-14 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치

Country Status (13)

Country Link
US (5) US9565447B2 (ko)
EP (2) EP2905965A3 (ko)
JP (3) JP2013517734A (ko)
KR (2) KR101768207B1 (ko)
CN (6) CN102714736B (ko)
AU (1) AU2011207924B2 (ko)
BR (2) BR122015013873A2 (ko)
MX (1) MX2012008320A (ko)
MY (2) MY163359A (ko)
PH (4) PH12015500692A1 (ko)
RU (3) RU2518718C2 (ko)
WO (1) WO2011090314A2 (ko)
ZA (2) ZA201206187B (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019112072A1 (ko) * 2017-12-04 2019-06-13 엘지전자 주식회사 영상 코딩 시스템에서 수정된 움직임 정보 후보 리스트에 기반한 영상 디코딩 방법 및 장치
US11412209B2 (en) 2015-11-20 2022-08-09 Electronics And Telecommunications Research Institute Method and device for encoding/decoding image using geometrically modified picture

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101459714B1 (ko) * 2009-10-28 2014-11-13 에스케이텔레콤 주식회사 공간 분할을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
JP6523494B2 (ja) * 2010-01-19 2019-06-05 サムスン エレクトロニクス カンパニー リミテッド 縮小された予測動きベクトルの候補に基づいて、動きベクトルを符号化/復号化する方法及び装置
KR101768207B1 (ko) 2010-01-19 2017-08-16 삼성전자주식회사 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치
JP5882984B2 (ja) * 2010-03-16 2016-03-09 トムソン ライセンシングThomson Licensing ビデオ符号化およびビデオ復号化のための暗示的適応型動きベクトル予測子選択の方法および装置
CN102823248B (zh) 2010-04-08 2015-06-24 株式会社东芝 图像编码方法以及图像编码装置
JP5649701B2 (ja) * 2010-04-08 2015-01-07 株式会社東芝 画像復号化方法、装置、及びプログラム
EP3285490B1 (en) * 2010-04-22 2021-03-10 HFI Innovation Inc. Motion prediction method
WO2011146451A1 (en) 2010-05-20 2011-11-24 Thomson Licensing Methods and apparatus for adaptive motion vector candidate ordering for video encoding and decoding
US8873617B2 (en) * 2010-07-15 2014-10-28 Sharp Laboratories Of America, Inc. Method of parallel video coding based on same sized blocks
US8855188B2 (en) * 2010-07-15 2014-10-07 Sharp Laboratories Of America, Inc. Method of parallel video coding based on mapping
US8848779B2 (en) * 2010-07-15 2014-09-30 Sharp Laboratories Of America, Inc. Method of parallel video coding based on block size
US9635382B2 (en) * 2011-01-07 2017-04-25 Texas Instruments Incorporated Method, system and computer program product for determining a motion vector
US9300963B2 (en) * 2011-01-19 2016-03-29 Mediatek Inc. Method and apparatus for parsing error robustness of temporal motion vector prediction
US9247249B2 (en) 2011-04-20 2016-01-26 Qualcomm Incorporated Motion vector prediction in video coding
US9313494B2 (en) 2011-06-20 2016-04-12 Qualcomm Incorporated Parallelization friendly merge candidates for video coding
ES2715613T3 (es) * 2011-06-28 2019-06-05 Lg Electronics Inc Método para fijar una lista de vectores de movimiento
US9699456B2 (en) 2011-07-20 2017-07-04 Qualcomm Incorporated Buffering prediction data in video coding
US9800870B2 (en) 2011-09-16 2017-10-24 Qualcomm Incorporated Line buffer reduction for short distance intra-prediction
KR101809880B1 (ko) 2011-09-28 2017-12-15 가부시키가이샤 제이브이씨 켄우드 동영상 디코딩 장치, 동영상 디코딩 방법 및 동영상 디코딩 프로그램을 저장한 기록매체
CN107959857B (zh) * 2011-10-18 2022-03-01 株式会社Kt 视频信号解码方法
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
US9571833B2 (en) 2011-11-04 2017-02-14 Nokia Technologies Oy Method for coding and an apparatus
KR20130050407A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 움직임 정보 생성 방법
KR20130050406A (ko) * 2011-11-07 2013-05-16 오수미 머지 모드에서의 움직임 정보 생성 방법
WO2013099244A1 (ja) * 2011-12-28 2013-07-04 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、並びに動画像復号装置、動画像復号方法及び動画像復号プログラム
KR101595419B1 (ko) 2012-01-19 2016-02-18 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
KR20130116216A (ko) * 2012-04-15 2013-10-23 삼성전자주식회사 인터 예측의 참조영상을 결정하는 방법과 그 장치
WO2014003367A1 (ko) * 2012-06-26 2014-01-03 엘지전자 주식회사 영상 복호화 방법 및 이를 이용하는 장치
EP2863631A4 (en) * 2012-07-02 2016-03-16 Samsung Electronics Co Ltd METHOD AND DEVICE FOR PREDICTING MOTION VECTORS FOR CODING OR DECODING VIDEO CONTENT
CN109982094A (zh) * 2013-04-02 2019-07-05 Vid拓展公司 针对可伸缩视频编码的增强型时间运动向量预测
CN105340273B (zh) * 2013-04-05 2018-09-11 三星电子株式会社 用于预测用于层间视频解码的视差矢量的方法以及编码方法和设备
JP5571229B2 (ja) * 2013-06-03 2014-08-13 株式会社東芝 画像符号化方法及び画像復号化方法
US20140372569A1 (en) * 2013-06-14 2014-12-18 Samsung Electronics Co., Ltd. Controlling dash client rate adaptation
US9774879B2 (en) * 2013-08-16 2017-09-26 Sony Corporation Intra-block copying enhancements for HEVC in-range-extension (RExt)
EP3069449B1 (en) * 2013-11-12 2020-01-08 Telefonaktiebolaget LM Ericsson (publ) Split gain shape vector coding
JP5571262B2 (ja) * 2014-01-23 2014-08-13 株式会社東芝 画像符号化方法及び画像復号化方法
JP2014131293A (ja) * 2014-01-23 2014-07-10 Toshiba Corp 画像符号化方法及び画像復号化方法
JP2014131295A (ja) * 2014-01-23 2014-07-10 Toshiba Corp 画像符号化方法及び画像復号化方法
JP5509398B1 (ja) * 2014-01-23 2014-06-04 株式会社東芝 画像符号化方法及び画像復号化方法
US9955187B2 (en) 2014-03-28 2018-04-24 University-Industry Cooperation Group Of Kyung Hee University Method and apparatus for encoding of video using depth information
KR101603413B1 (ko) * 2014-03-28 2016-03-28 경희대학교 산학협력단 깊이 정보를 이용한 비디오 부호화 방법 및 장치
US9769481B2 (en) * 2014-03-28 2017-09-19 University-Industry Cooperation Group Of Kyung Hee University Method and apparatus for encoding of video using depth information
JP5659314B1 (ja) * 2014-10-01 2015-01-28 株式会社東芝 画像符号化方法及び画像復号化方法
JP2015053729A (ja) * 2014-11-17 2015-03-19 株式会社東芝 画像符号化方法及び画像復号化方法
JP6196341B2 (ja) * 2016-02-17 2017-09-13 株式会社東芝 画像符号化方法及び画像復号化方法
CN106131548B (zh) * 2016-07-28 2018-12-25 同观科技(深圳)有限公司 一种帧内预测模式的选择方法及装置
JP6271694B2 (ja) * 2016-12-16 2018-01-31 株式会社東芝 画像符号化方法及び画像復号化方法
EP3632268B1 (en) 2017-05-31 2022-04-20 Kurabe Industrial Co., Ltd. Ventilation mat
JP6370977B2 (ja) * 2017-08-31 2018-08-08 株式会社東芝 画像符号化方法及び画像復号化方法
KR102366261B1 (ko) * 2017-11-09 2022-02-23 삼성전자주식회사 움직임 정보의 부호화 장치 및 방법, 및 복호화 장치 및 방법
JP6367452B2 (ja) * 2017-11-13 2018-08-01 株式会社東芝 画像符号化方法及び画像復号化方法
WO2019135648A1 (ko) * 2018-01-08 2019-07-11 삼성전자 주식회사 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
DE202018100577U1 (de) 2018-02-02 2018-02-08 Docuform Gmbh Vorrichtung zur Durchführung von Druckvorgängen in einem Netzwerk
EP3521996A1 (de) 2018-02-02 2019-08-07 Docuform GmbH Verfahren und vorrichtung zur durchführung von druckvorgängen in einem netzwerk
US10432962B1 (en) * 2018-03-13 2019-10-01 Pixelworks, Inc. Accuracy and local smoothness of motion vector fields using motion-model fitting
CN112106360A (zh) 2018-05-10 2020-12-18 三星电子株式会社 视频编码方法和设备以及视频解码方法和设备
EP3794829A1 (en) 2018-05-14 2021-03-24 InterDigital VC Holdings, Inc. Block shape adaptive intra prediction directions for quadtree-binary tree
CN110933414B (zh) * 2018-06-29 2022-07-29 杭州海康威视数字技术股份有限公司 运动信息候选者列表构建方法、装置及可读存储介质
JP6609004B2 (ja) * 2018-07-02 2019-11-20 株式会社東芝 画像符号化方法及び画像復号化方法
CN109064479B (zh) * 2018-07-19 2022-03-18 中国石油大学(华东) 一种基于邻近视频帧灰度动态特征的海天线检测方法
CN110933439B (zh) * 2018-09-20 2022-05-31 杭州海康威视数字技术股份有限公司 运动信息候选者列表构建方法、装置及可读存储介质
WO2020094010A1 (en) 2018-11-05 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Prediction precision improvements video coding
US10958900B2 (en) * 2018-12-06 2021-03-23 Qualcomm Incorporated Derivation of spatial-temporal motion vectors prediction in video coding
CN112954333B (zh) 2019-03-11 2022-07-01 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN116600139A (zh) * 2019-03-11 2023-08-15 华为技术有限公司 视频图像解码方法、编码方法及装置
JP6961781B2 (ja) * 2019-10-21 2021-11-05 株式会社東芝 画像符号化方法及び画像復号化方法
JP6980889B2 (ja) * 2019-10-21 2021-12-15 株式会社東芝 画像符号化方法及び画像復号化方法
JP7242811B2 (ja) * 2019-10-21 2023-03-20 株式会社東芝 画像符号化方法及び画像復号化方法
JP6795666B2 (ja) * 2019-10-21 2020-12-02 株式会社東芝 画像符号化方法及び画像復号化方法
CN113489997A (zh) * 2021-05-27 2021-10-08 杭州博雅鸿图视频技术有限公司 一种运动矢量预测方法、装置、存储介质及终端

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5737022A (en) * 1993-02-26 1998-04-07 Kabushiki Kaisha Toshiba Motion picture error concealment using simplified motion compensation
US5731840A (en) * 1995-03-10 1998-03-24 Kabushiki Kaisha Toshiba Video coding/decoding apparatus which transmits different accuracy prediction levels
KR0181027B1 (ko) * 1995-03-20 1999-05-01 배순훈 화소 단위 움직임 추정을 이용하는 영상처리 시스템
US5646618A (en) * 1995-11-13 1997-07-08 Intel Corporation Decoding one or more variable-length encoded signals using a single table lookup
US6212237B1 (en) * 1997-06-17 2001-04-03 Nippon Telegraph And Telephone Corporation Motion vector search methods, motion vector search apparatus, and storage media storing a motion vector search program
KR100249223B1 (ko) 1997-09-12 2000-03-15 구자홍 엠팩(mpeg)-4의움직임벡터코딩방법
KR100355831B1 (ko) * 2000-12-06 2002-10-19 엘지전자 주식회사 2차원 최소 비트 예측 기반의 움직임 벡터 부호화 방법
KR100642043B1 (ko) * 2001-09-14 2006-11-03 가부시키가이샤 엔티티 도코모 부호화 방법, 복호 방법, 부호화 장치, 복호 장치, 화상 처리 시스템, 및 저장 매체
US7421127B2 (en) 2001-10-26 2008-09-02 Koninklijke Philips Electronics N.V. Spatial scalable compression scheme using spatial sharpness enhancement techniques
EP1442601A1 (en) * 2001-10-26 2004-08-04 Koninklijke Philips Electronics N.V. Method and appartus for spatial scalable compression
JP4114859B2 (ja) * 2002-01-09 2008-07-09 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
CA2574127A1 (en) * 2002-01-18 2003-07-31 Kabushiki Kaisha Toshiba Video encoding method and apparatus and video decoding method and apparatus
CN1620816A (zh) * 2002-01-22 2005-05-25 诺基亚有限公司 图像/视频编码器和/或解码器中的编码变换系数
US6690307B2 (en) 2002-01-22 2004-02-10 Nokia Corporation Adaptive variable length coding of digital video
JP4724351B2 (ja) * 2002-07-15 2011-07-13 三菱電機株式会社 画像符号化装置、画像符号化方法、画像復号装置、画像復号方法、および通信装置
KR100865034B1 (ko) * 2002-07-18 2008-10-23 엘지전자 주식회사 모션 벡터 예측 방법
US7023921B2 (en) * 2002-08-06 2006-04-04 Motorola, Inc. Method and apparatus for determining block match quality
US7978769B2 (en) 2003-06-30 2011-07-12 Ntt Docomo, Inc. Method and apparatus for coding motion information
KR100597397B1 (ko) * 2003-11-06 2006-07-07 삼성전자주식회사 고속 움직임추정 알고리즘을 갖는 동영상 코딩방법 및 장치
US20060120612A1 (en) * 2004-12-08 2006-06-08 Sharath Manjunath Motion estimation techniques for video encoding
JP4543971B2 (ja) 2005-03-07 2010-09-15 ソニー株式会社 符号化方法、符号化装置、符号化処理のプログラム及び符号化処理のプログラムを記録した記録媒体
EP1993292B1 (en) * 2006-03-09 2013-05-15 NEC Corporation Dynamic image encoding method and device and program using the same
TWI344792B (en) * 2006-07-12 2011-07-01 Lg Electronics Inc A method and apparatus for processing a signal
JP2008109632A (ja) * 2006-09-28 2008-05-08 Toshiba Corp 動きベクトル検出装置及びその方法
KR101356734B1 (ko) * 2007-01-03 2014-02-05 삼성전자주식회사 움직임 벡터 트랙킹을 이용한 영상의 부호화, 복호화 방법및 장치
KR101356735B1 (ko) * 2007-01-03 2014-02-03 삼성전자주식회사 전역 움직임 벡터를 사용해서 움직임 벡터를 추정하기 위한방법, 장치, 인코더, 디코더 및 복호화 방법
KR101365574B1 (ko) * 2007-01-29 2014-02-20 삼성전자주식회사 영상 부호화 방법 및 장치, 복호화 방법 및 장치
JP5025286B2 (ja) 2007-02-28 2012-09-12 シャープ株式会社 符号化装置及び復号装置
US8488677B2 (en) * 2007-04-25 2013-07-16 Lg Electronics Inc. Method and an apparatus for decoding/encoding a video signal
JP4809296B2 (ja) 2007-06-15 2011-11-09 シャープ株式会社 動画像符号化装置及び動画像復号装置
JP4325708B2 (ja) * 2007-07-05 2009-09-02 ソニー株式会社 データ処理装置、データ処理方法およびデータ処理プログラム、符号化装置、符号化方法および符号化プログラム、ならびに、復号装置、復号方法および復号プログラム
JP2011501555A (ja) 2007-10-16 2011-01-06 エルジー エレクトロニクス インコーポレイティド ビデオ信号処理方法及び装置
CN101198064A (zh) * 2007-12-10 2008-06-11 武汉大学 一种分辨率分层技术中的运动矢量预测方法
US9426414B2 (en) * 2007-12-10 2016-08-23 Qualcomm Incorporated Reference selection for video interpolation or extrapolation
WO2009115901A2 (en) 2008-03-19 2009-09-24 Nokia Corporation Combined motion vector and reference index prediction for video coding
JP4977094B2 (ja) 2008-06-25 2012-07-18 株式会社東芝 画像符号化方法
KR101517768B1 (ko) 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
JP5422168B2 (ja) 2008-09-29 2014-02-19 株式会社日立製作所 動画像符号化方法および動画像復号化方法
KR101279573B1 (ko) 2008-10-31 2013-06-27 에스케이텔레콤 주식회사 움직임 벡터 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2011034148A1 (ja) * 2009-09-18 2011-03-24 シャープ株式会社 符号化装置、復号装置、動画像符号化装置、動画像復号装置、および符号化データ
CN102577392A (zh) 2009-10-20 2012-07-11 夏普株式会社 运动图像编码装置、运动图像解码装置以及数据结构
KR101768207B1 (ko) 2010-01-19 2017-08-16 삼성전자주식회사 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치
GB2487200A (en) 2011-01-12 2012-07-18 Canon Kk Video encoding and decoding with improved error resilience

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11412209B2 (en) 2015-11-20 2022-08-09 Electronics And Telecommunications Research Institute Method and device for encoding/decoding image using geometrically modified picture
US11425370B2 (en) 2015-11-20 2022-08-23 Electronics And Telecommunications Research Institute Method and device for encoding/decoding image using geometrically modified picture
US11758128B2 (en) 2015-11-20 2023-09-12 Electronics And Telecommunications Research Institute Method and device for encoding/decoding image using geometrically modified picture
WO2019112072A1 (ko) * 2017-12-04 2019-06-13 엘지전자 주식회사 영상 코딩 시스템에서 수정된 움직임 정보 후보 리스트에 기반한 영상 디코딩 방법 및 장치

Also Published As

Publication number Publication date
PH12015500692A1 (en) 2015-09-14
CN106713932A (zh) 2017-05-24
CN106803960A (zh) 2017-06-06
US10708616B2 (en) 2020-07-07
WO2011090314A2 (en) 2011-07-28
PH12016501227A1 (en) 2016-12-05
KR20110085896A (ko) 2011-07-27
PH12016501227B1 (en) 2016-12-05
PH12016501224A1 (en) 2016-11-21
AU2011207924A1 (en) 2012-08-09
BR112012017909A2 (pt) 2016-05-03
CN104754355A (zh) 2015-07-01
EP2905965A3 (en) 2015-08-19
RU2518718C2 (ru) 2014-06-10
CN104754355B (zh) 2018-11-23
CN106803960B (zh) 2020-01-21
RU2012135503A (ru) 2014-03-27
CN106713932B (zh) 2020-02-28
JP2016007065A (ja) 2016-01-14
KR101768207B1 (ko) 2017-08-16
EP2905965A2 (en) 2015-08-12
MY163359A (en) 2017-09-15
CN106803961B (zh) 2020-02-07
BR122015013873A2 (pt) 2016-05-10
US10484709B2 (en) 2019-11-19
KR101768208B1 (ko) 2017-08-16
AU2011207924B2 (en) 2015-05-07
MX2012008320A (es) 2012-08-08
JP6082069B2 (ja) 2017-02-15
PH12016501226B1 (en) 2016-12-12
RU2015114569A (ru) 2016-11-10
JP2017108423A (ja) 2017-06-15
CN102714736A (zh) 2012-10-03
RU2015114569A3 (ko) 2018-11-23
US20110176615A1 (en) 2011-07-21
US10057597B2 (en) 2018-08-21
CN106713933B (zh) 2020-02-28
CN102714736B (zh) 2017-04-12
EP2510700A4 (en) 2014-01-22
RU2659733C2 (ru) 2018-07-03
ZA201206187B (en) 2022-11-30
WO2011090314A3 (en) 2011-11-10
ZA201505340B (en) 2016-11-30
US20170111655A1 (en) 2017-04-20
MY193321A (en) 2022-10-04
US20200045335A1 (en) 2020-02-06
CN106713933A (zh) 2017-05-24
US20150215639A1 (en) 2015-07-30
RU2678510C2 (ru) 2019-01-29
US20180338155A1 (en) 2018-11-22
JP6275889B2 (ja) 2018-02-07
RU2014102716A (ru) 2015-09-10
JP2013517734A (ja) 2013-05-16
EP2510700A2 (en) 2012-10-17
PH12016501224B1 (en) 2016-11-21
US9571853B2 (en) 2017-02-14
CN106803961A (zh) 2017-06-06
PH12016501226A1 (en) 2016-12-12
US9565447B2 (en) 2017-02-07

Similar Documents

Publication Publication Date Title
KR101768208B1 (ko) 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치
KR101522850B1 (ko) 움직임 벡터를 부호화, 복호화하는 방법 및 장치
KR101859451B1 (ko) 이전 블록의 움직임 벡터를 현재 블록의 움직임 벡터로 이용하는 영상 부호화, 복호화 방법 및 장치
KR101974140B1 (ko) 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치
KR101676791B1 (ko) 영상 복호화 방법
KR101691553B1 (ko) 영상 복호화 방법 및 장치
KR101635111B1 (ko) 움직임 벡터를 부호화, 복호화하는 방법 및 장치
KR101882949B1 (ko) 영상 부호화 방법 및 장치, 및 컴퓨터로 판독가능한 기록매체
KR101783965B1 (ko) 영상 복호화 방법 및 장치
KR101635114B1 (ko) 영상 복호화 방법
KR101477546B1 (ko) 움직임 벡터를 복호화하는 장치
JP6935553B2 (ja) 縮小された予測動きベクトルの候補に基づいて、動きベクトルを符号化/復号化する方法及び装置
KR101477545B1 (ko) 움직임 벡터를 복호화하는 방법
KR101617334B1 (ko) 움직임 벡터를 부호화, 복호화하는 방법 및 장치
KR101424977B1 (ko) 움직임 벡터를 부호화, 복호화하는 방법 및 장치
KR101617796B1 (ko) 영상 복호화 방법 및 장치
KR101606812B1 (ko) 영상 복호화 방법
KR101454664B1 (ko) 움직임 벡터를 복호화하는 방법

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant