KR20050106490A - 움직임 벡터의 컴포넌트에 관한 부분을 고려하여 비디오이미지를 코딩하는 방법 - Google Patents

움직임 벡터의 컴포넌트에 관한 부분을 고려하여 비디오이미지를 코딩하는 방법 Download PDF

Info

Publication number
KR20050106490A
KR20050106490A KR1020057016486A KR20057016486A KR20050106490A KR 20050106490 A KR20050106490 A KR 20050106490A KR 1020057016486 A KR1020057016486 A KR 1020057016486A KR 20057016486 A KR20057016486 A KR 20057016486A KR 20050106490 A KR20050106490 A KR 20050106490A
Authority
KR
South Korea
Prior art keywords
coding
context
temporal
motion
temporal context
Prior art date
Application number
KR1020057016486A
Other languages
English (en)
Other versions
KR101010420B1 (ko
Inventor
갈리아므 보이슨
도미니끄 도리오
에도아르드 프랑코즈
Original Assignee
톰슨 라이센싱 에스.에이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 에스.에이. filed Critical 톰슨 라이센싱 에스.에이.
Publication of KR20050106490A publication Critical patent/KR20050106490A/ko
Application granted granted Critical
Publication of KR101010420B1 publication Critical patent/KR101010420B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • H03M7/4006Conversion to or from arithmetic code
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]

Abstract

본 발명에 따른 방법은, 모션 벡터(13)를 공급하기 위해 기준 이미지(12)에 대응하는 기준 시간 및 현재 이미지(11)에 대응하는 움직임을 예측하는 단계와, 움직임의 추정에 기초한 시간 컨텍스트(14, 17, 20)를 고려하여 현재 이미지에 관한 고 공간 주파수의 신호를 엔트로피 코딩(10, 25, 28)하는 단계를 수행하며, 시간 컨텍스트 계산용으로 이용되는 파라미터들중 하나는 모션 벡터의 컴포넌트의 패러티(21)이다.
본 발명은 시간 예측을 이용한 비디오 압축에 관한 것이다.

Description

움직임 벡터의 컴포넌트에 관한 부분을 고려하여 비디오 이미지를 코딩하는 방법{METHOD FOR CODING A VIDEO IMAGE TAKING INTO ACCOUNT THE PART RELATING TO A COMPONENT OF A MOVEMENT VECTOR}
본 발명은, 비디오 이미지의 공간 분석을 행하는 단계와 이미지들 간의 시간 예측에 의존하는 단계를 포함하는, 이미지들의 시퀀스 내의 그 비디오 이미지를 인코딩하는 방법에 관한 것이다. 보다 상세하게, 본 발명은 이미지의 시간 컨텍스트에 기초한 엔트로피 코딩에 관한 것으로서, 이 엔트로피 코딩은 모션 정보에 관한 특성을 이용한다.
예를 들어, MPEG-1, MPEG-2, MPEG-4, h264인 하이브리드 표준으로서 알려져 있는 코딩 표준에서, 예를 들어, MC-EZBC(Motion Compensation Embedded Zero Block Context)와 같은 대다수의 2D+t 서브밴드 코딩 기술에서, 코딩 시퀀스에서 제1 단계는 한 이미지 내의 공간 리던던시를 이용하기 전에 연속 이미지들 간의 시간 리던던시의 이점을 활용하는 것이다.
도 1은 종래 기술에 따른 비디오 코더 기술을 나타낸다.
비디오 신호는 시간 분석 회로(1)에 전송된다. 움직임 추정 회로(2)는 코더에 의해 수신된 2개의 이미지들 간의 움직임을 추정하기 위해 이 제1 회로에 접속된다. 움직임 정보는, 예를 들어, 움직임 벡터 필드의 형태로 시간 분석 회로(1) 및 코딩 회로(6)에 전송된다. 시간 분석 회로(1)의 출력은 텍스쳐로부터 이미지 주파수 계수들을 추출하는 공간 분석 회로(3)에 전송된다. 이들 계수는 후속하여 양자화되고 엔트로피 코딩에 의해 코딩된다. 이 코딩된 정보 및 움직임 정보는, 비디오 데이터 스트림을 형성하는 비디오 패킷 형태로 비디오 데이터를 전송하는 패킷 생성 회로 또는 패킷타이저(5)에 전송된다.
시간 분석 회로(1)는, 서브밴드 코딩 기술의 경우에 MCTF(Motion Compensated Temporal Filtering) 또는 하이브리드 기술의 경우에 움직임 보상 시간 예측을 수행한다. 시간 예측을 이용하는 코딩 알고리즘은, 코딩 프로세스에서 사용될 예측 이미지들을 생성하기 위해 움직임 보상을 적용하는 것을 포함한다. 이들 알고리즘은 동일한 원리에 기초한다. 코딩될 이미지들은, 기준 이미지들이라 칭하는 전에 코딩된 하나 이상의 이미지들로부터 시작하여 예측된다. 이것은, 예측된(P) 이미지들 및 양방향 또는 양예측(B; Bi-predicted) 이미지들을 갖는 비디오 MPEG 표준의 경우에 해당한다. 이 예측은 현재 이미지와 관련된 움직임 벡터 및 이들 기준 이미지를 이용하여 움직임 보상을 수행하는 것을 포함한다. 후속하여 코딩되는 것은 그 예측의 잉여이며, 다시 말하면, 현재 이미지와 시간 예측 이미지 간의 차이이다. 움직임은 일반적으로 블록에 의해 영향을 받는 움직임 보상 및 픽셀 블록으로 설명된다.
공간 분석 회로(3)는, 예를 들어, 웨이브렛으로의 분해(decomposition) 또는 이산 코사인 변환을 수행한다. 회로(4)의 엔트로피 코딩은 VLC(Variable Length Coding) 타입의 코딩 또는 산술 타입의 코딩일 수 있다.
패킷화 회로의 기능은, 움직임 필드를 위해 엔트로피 코딩 회로 및 코딩 회로로부터 각각 수신되는 텍스쳐 및 움직임 정보를, 이들의 공간 및 시간 주파수와 중요도, 예를 들어, 비트면 코딩 방안에서의 이들의 가중치에 따라 코히어런트 서브 어셈블리(coherent sub-assembly)로 분할하는 것이다. 따라서, 얻게 되는 바이너리 스트림은 해상도, 프레임 주파수, 및 충실도에서 독립적으로 계위가능하다(scalable).
추정된 움직임 필드는 소스의 해상도에 대응한다. 코더의 움직임 보상 단계, 및 디코더에서의 그 반전은, 필터링 또는 예측에 의해 행해질 때, 코히어런트되도록 풀(full) 해상도 이미지 상에서 수행되어야 한다.
공간 범위성(scalability) - 다양한 레벨의 해상도에서 이미지들, 예를 들어, SD(표준 해상력(definition)), CIF 또는 QCIF 포맷으로 이미지들을 전송 및 이에 따라 복원하는 가능성 - 은 현재 비디오 데이터 전송에 흔히 이용되고 있다. 웨이브렛 분해를 이용하는 상기한 바와 같은 기술인 종래의 시공간 분석에 의한 코딩 기술은 이러한 범위성에 적합하다. 그러나, 움직임 정보가 이 범위성에, 즉, 이미지의 다양한 해상도에 최적으로 적응될 수 없고, 따라서 데이터 압축이 최적화될 수 없다. 설명한 아키텍쳐를 따르는 비디오 코더는 텍스쳐에 대하여 공간적으로 계위가능하지만, 움직임에 대해서는 계위가능하지 않다. 그리고, 이 움직임 정보는 무시할 수 없다. 일예로, 이것은 저 율(low rate) 15Hz CIF 시퀀스가 인코딩될 때 이진 스트림의 전체중 약 30%를 나타낸다. 이에 따라, 일반적인 아키텍쳐는 움직임 정보의 과도한 해상력(over-definition)을 겪게 되며 이것은 저 해상도에서의 압축 성능에 상당한 영향을 끼치게 된다.
텍스쳐 및 움직임 모두의 범위성을 유지하는 해결책이 존재한다. 가장 간단한 해결책은 디코딩용으로 허용된 최저 공간 해상도에서 움직임의 범위성을 추정하는 것이다. 따라서, 공간 분해를 초기에 실행한다. 이후, 연속하는 공간 고 주파수들 간에 존재하는 시간 리던던시가 이용되는 상태로 유지된다. 이를 위해, 예측 또는 움직임 보상 필터링인 종래의 시간 비상관관계 툴(decorrelation tool)을 재 도입하는 여러 가지 해결책이 제안되어 왔다. 이제, 이러한 종래의 기술들은, 공간 변환의 시프트-편차(shift-variance)로 알려져 있는 현상을 발생하는 위상 문제 때문에 피셀 도메인에서보다 변환 도메인에서 덜 효율적이다. 실제로, 이산 웨이브렛 변환(DWT) 및 이산 코사인 변환(DCT)에서는, 동일한 픽셀 패턴에 대응하는 연속하는 이미지 계수들이 움직임의 방향 및 진폭, 및 공간 필터의 방향 및 길이에 따라 부호 및 절대값이라는 점에서 매우 상이할 수 있다. 공간 변환에 고유한 시프트 편차에는 움직임 추정을 위한 새로운 방식이 필요하며, 그 이유는 예측 또는 필터링에 의한 코딩에 시간 고 주파수가 부적절하게 되기 때문이다.
본 발명의 목적은 상기한 문제점들을 극복하는 것이다. 본 발명의 일 양태는 이미지들의 시퀀스 내에서 이미지를 코딩하는 방법으로서, 저 공간 주파수의 신호 및 고 공간 주파수의 신호들을 전달하기 위해 현재 이미지를 공간 분석하는 단계와, 움직임 벡터를 공급하기 위해 현재 이미지에 대응하는 현재 시간과 기준 이미지에 대응하는 기준 시간 간의 움직임 추정을 수행하는 단계를 포함하고, 움직임의 추정에 기초한 시간 컨텍스트를 고려함으로써 현재 이미지에 관한 고 공간 주파수의 신호들중 적어도 하나의 엔트로피 코딩을 수행하고, 시간 컨텍스트 계산용으로 이용되는 파라미터들중 하나는 움직임 벡터의 컴포넌트에 관한 패러티(parity)인 것을 특징으로 한다.
일실시예에서, 시간 컨텍스트 계산용으로 이용되는 파라미터들중 하나는 움직임 벡터의 컴포넌트에 관한 분수 부분이다.
일실시예에서, 고 공간 주파수의 신호용으로, 고려되는 컴포넌트는 고역 공간 필터링의 방향에 있는 것이다.
일실시예에서, 엔트로피 코딩은 산술 비트면 코딩이며, 시간 컨텍스트는 시간 기준 이미지에서 동일한 레벨의 비트면에 대응한다.
일실시예에서, 산술 코딩은 N-ary 코딩이며, 시간 컨텍스트는 시간 기준 이미지에서 동일 레벨의 N 비트면에 대응한다.
본 발명의 다른 양태는 상기한 코딩 방법에 따라 코딩된 이미지들의 시퀀스 내에서 이미지를 디코딩하는 방법으로서, 움직임 추정에 기초한 시간 컨텍스트를 고려함으로써 고 공간 주파수 신호들중 적어도 하나에 대한 엔트로피 디코딩을 수행하고, 시간 컨텍스트 계산용으로 이용되는 파라미터들중 하나는 움직임 벡터의 컴포넌트에 관한 패러티(parity)인 것을 특징으로 한다.
일실시예에서, 디코딩 방법은, 컨텍스트 계산용으로 이용되는 파라미터가 움직임 벡터의 컴포넌트에 관한 분수 부분이라는 것을 특징으로 한다.
본 발명의 또다른 양태는 선행하는 코딩 방법을 구현하는 비디오 코더로서, 비디오 신호를 수신하고 하나 이상의 보다 높은 해상도를 위해 고 공간 주파수의 최저 해상도에 대응하는 최저 공간 주파수의 신호를 전달하는 공간 분석 회로와, 움직임 벡터를 계산하는 움직임 추정 회로를 포함하며, 움직임의 추정에 기초하는 시간 컨텍스트를 고려함으로써 고 공간 주파수의 신호들중 적어도 하나의 엔트로피 코딩을 위한 회로를 포함하고, 시간 컨텍스트 계산용으로 이용되는 파라미터들중 하나는 움직임 벡터의 컴포넌트에 관한 패러티(parity)인 것을 특징으로 한다.
본 발명의 또다른 양태는 상기한 코딩 방법에 다란 코딩된 이미지들의 시퀀스 내의 이미지를 위한 비디오 디코더로서, 움직임 추정에 기초하여 시간 컨텍스트 계산용 알고리즘을 구현하는 엔트로피 디코딩 회로를 포함하고, 시간 컨텍스트 계산용으로 이용되는 파라미터들중 하나는 움직임 벡터의 컴포넌트에 관한 패러티(parity)인 것을 특징으로 한다.
본 발명의 방법에 의하면, 연속하는 이미지들, 특히, 고 주파수의 공간 변환의 시간 리던던시를 더 잘 이용할 수 있게 된다. 움직임의 멀티 해상도 설명으로 인해, 공간 범위성의 각 해상도에 대하여 레이트(rate) 품질 면에서의 압축 성능이 개선된다.
예를 들어, 움직임 추정이 블록들에서 실행되면 블록들의 영향인 아티팩트 노이즈의 소스인 필터링이나 예측없이 시간 리던던시를 이용함으로써 디코딩된 비디오의 비주얼 및 오브젝티브 품질도 개선된다.
본 발명의 다른 특징 및 이점은 제한되지 않는 예와 첨부 도면을 참조하여 다음에 따르는 상세한 설명으로부터 보다 명백해질 것이다.
도 1은 종래 기술에 다른 코딩 방식을 나타내는 도면.
도 2는 본 발명에 따른 코딩 회로의 간략화된 블록도.
도 3은 현재 이미지의 픽셀(x, y)을 위한 시간 이웃을 나타내는 도면.
도 4는 픽셀(x, y)을 위한 시간 및 공간 이웃을 나타내는 도면.
도 5는 픽셀(x, y)을 위한 2개의 시간 이웃을 나타내는 도면.
도 6은 픽셀(m, n)의 시간 및 공간 이웃을 나타내는 도면.
도 7은 움직임 벡터의 컴포넌트들의 패러티 및 분수 부분을 나타내는 도면.
도 8은 본 발명에 따른 코딩 회로의 블록도.
본 발명에 따른 코딩 방법을 구현하는 코딩 회로가 도 2에 도시되어 있다. 웨이브렛으로의 분해를 예로 들며, 이에 한정되지 않는다.
비디오 소스는 참조 번호 7인 2D 공간 분석 회로로 전송되며, 이 회로는 웨이브렛을 분해하는 회로이다. 이것은 다양한 공간 해상도의 서브 밴드 계수들을 공급하기 위해 공간 분해를 수행한다. 최저 해상도 계수들을 전달하는 제1 출력은 시간 분석 회로(8)에 접속된다. 보다 높은 해상도의 서브 밴드 계수들에 대응하는 다른 출력들은, 움직임 보상 시공간 컨텍스트 또는 MC-STAC(Motion Compensated Spatio-Temporal Arithmetic Coding; 움직임 보상 시공간 산술 코딩) 회로를 이용하는 산술 코딩 회로의 입력들에 접속된다. 시간 분석 회로(8)는 컨텍스트 기반 산술 인코딩, 즉, CAE 회로(9)에 접속된다. MC-STAC 회로의 출력들은 다양한 해상도에 대응한다.
비디오 이미지로부터 시작하여, 2D 공간 웨이브렛 분해 회로는, 디코딩에 의해 허용되는 최저 해상도에 도달할 때까지 웨이브렛 계수 이미지들 또는 서브 이미지들을 생성하며, 이들 이미지 각각은 소정의 공간 주파수 대역에 대응한다. 이미지는 공간 도메인에서 기저 대역 또는 저 대역 및 고 대역(LH, HL, HH)으로 분해된다.
기저 대역에 대응하는 이미지들만이 시간 분석 회로(8)에 의해 처리된다. 이에 따라, 공간 분석 회로(7)로로부터 출력되는 최저 공간 해상도 신호(LL)는 시간 분석 회로(8)로 전송된다. 이 회로는 움직임 추정을 수행하고, 이후 MCTF(Motion Compensated Temporal Filtering)라고도 칭하는 움직임 보상 시간 필터링을 수행한다. 시간 분석 회로는 시간 범위성을 얻기 위해 입력 주파수에서 수신한 이미지들로부터 중간 이미지들을 생성한다. 이러한 분석 회로는 예를 들어 후술하는 MC-리프트 타입이다. 시간 필터링은, 예를 들어, 움직임 보상 선행 이미지로부터 예측된 이미지에서 현재 이미지를 감산한다.
기저 대역에 대응하는 이미지들이 아닌 이미지들은 움직임 보상 시공간 컨텍스트 산출 코딩, 즉, MCSTAC 회로(10)에 의해 처리된다. 실제로, 연속하는 해상도를 원래의 해상도까지 복원하는데 필요한 이들 서브 밴드들은 종래의 필터링 또는 시간 예측 기술에 적절하지 않으며 이에 따라 산술적으로 즉시 코딩된다. 잔여 시간 리던던시를 이용하기 위해, 이것은 연속하는 공간 고 주파수들을 링크하고, 적응성 컨텍스트 산술 코딩 단계는 후술하는 바와 같이 움직임 정보를 이용한다.
공간 고 주파수의 웨이브렛 계수들의 분포는 다음과 같다. 이미지의 균등한 영역들에 대응하는 저 진폭 계수들의 또는 제로의 많은 접속된 영역들이 윤곽선(contour)에 의해 분리되며, 이것은 종래에 연속하는 곡선이며, 이를 따라 계수들의 진폭은 이들의 부호가 가변되듯이 급속히 가변된다.
따라서, 현존하는 기술에 널리 알려져 있는 공간 컨텍스트 데이터는 코딩되는 계수들의 부호를 보다 확실하게 할 수 있으며, 이에 따라 서브 밴드의 엔트로피를 감소시킬 수 있고 압축율을 증가시킬 수 있다. 공간 컨텍스트에 기초한 컨텍스트 산술 코딩을 위한 동작 알고리즘은, 예를 들어, 1981년 6월, IEEE Transactions on Communications, Vol. 29, no. 6, pp 858-867 "Compression of black-white images with arithmetic coding"이라는 명칭의 G. Langdon 및 J. Rissanen에 의한 문헌에 기재되어 있다. 이 산술 코딩은 컨텍스트형이며 그 이유는 확률 테이블의 추정 및 이용이 신호 전체에 대하여 글로벌인 대신에 컨텍스트에 의존하기 때문이며, 다시 말하면, 이웃의 가능한 구성들의 분류에 따라 국부적으로 적응되기 때문이다. 이러한 종류의 코딩은, 잔여 로컬 공간 상관관계의 이점을 활용하기 때문에, 공간 DCT 또는 DWT의 고 주파수 계수들을 코딩하는데 매우 적합하다. 다양한 컨텍스트는 일반적으로 바로 옆인 이웃들의 가능한 값들의 조합에 의해 결정된다. 산술 코딩은 적응적이며 그 이유는 초기화 값으로부터 시작하는 코딩 프로세스동안 통계 추정이 학습(learning) 프로세스에 의해 실행되기 때문이다.
알려져 있는 방법들에 따른 컨텍스트의 시간 차원의 구현은 그리 효율적인 프로세스가 아니다. 엄밀하게 말하자면 공간 컨텍스트보다 많은 정보에도 불구하고, 움직임 벡터에 의해 제어되는 계수들의 데이터는, 상기한 시프트 편차 현상으로 인해 통계 학습 위상용으로 오도될 수 있다. 공간 편차의 다이나믹에 의존하여, 공간 필터의 변위 및 길이, 픽셀 패턴의 및 그 변환의 웨이브렛 또는 DCT 계수들은 원칙적으로 상이한 진폭들 및 상이한 부호를 가질 것이다. 그 변위가 전체 픽셀들의 짝수배이면, 변환은 동상(in phase)일 것이다. 그 변위가 전체 픽셀들의 홀수배이면, 변환은 동상 반대(in phase opposition) 등일 것이다. 추정된 움직임의 서브 픽셀 정밀도가 무엇인지든 간에 이러한 추론을 얻을 수 있다. 연속하는 고 주파수의 통계 평가가 조건적 분포측으로 수렴하도록 혁신적으로 시공간 컨텍스트 부착을 제안하는 것은 판별 정보이다.
제안된 방식은 컨텍스트 엔트로피 코딩을 이용하며, 여기서 컨텍스트는 시간 컨텍스트를 포함한다.
엔트로피 코딩 및 산술 코딩은 1비트 미만의 코드 평균 길이가 높은 가능성 값 용으로 사용될 수 있게 한다. 엔트로피 코딩의 필수 포인트는 코딩될 신호의 통계를 특징짓는 확률 테이블의 결정이다.
먼저, 예를 들어, 공간 컨텍스트를 고려하는 적응성 확률 테이블의 작성을 간략히 설명한다. 비트면 코딩의 경우를 고려한다. 이 경우, 코딩 및 컨텍스트에서 고려되는 값들은 이진 값들이다. 즉, 0 또는 1이다.
처리된 상태에서 현재 픽셀을 둘러싸는 픽셀들, 예를 드렁, 3개의 가장 근접한 이웃들의 값을 고려한다. 이에 따라, 23 = 8 인 상이한 컨텍스트들의 리스트가 이용가능하다. 각 컨텍스트는 확률 테이블과 관련된다. 이들 확률 테이블은 적응적이며, 다시 말하면, 처리된 계수들의 값에 따라 코딩 프로세스 동안 갱신된다. 코딩 알고리즘은 소정의 순서로 이미지의 계수들을 통해 진행함으로써 동작한다. 이 프로세스의 각 단계에서, 컨텍스트는 문제시되는 순간까지의 출현 수 및 이들 출현에서의 횟수에 의해 특징지어지며, 여기서 값(1 또는 0)이 발생하였다. 따라서, 소정의 엘리먼트의 비트면에 관한 현재 비트의 코딩동안, 이 엘리먼트의 컨텍스트가 Cj이면, Cj에 관한 출현 수가 증분되고 비트 값이 1이면 값이 1이 발생하는 횟수가 증분된다. 컨텍스트(Cj)에서 0 또는 1을 얻는 확률은 다음과 같은 방식으로 계산된다. 즉, 제로(po)를 얻는 확률은 소정의 컨텍스트의 전체 출현 수에 의해 나누어지는 그 소정의 컨텍스트용으로 발생한 제로 수와 동등하다. 따라서, 컨텍스트(Cj)에서의 현재 비트(x)는 컨텍스트(Cj)에서의 그 비트의 확률(px)을 알고 있는 상태에서 코딩된다.
여기서, 확률 테이블 및 신호의 다양한 통계를 시공간 컨텍스트의 함수로서 이용함으로써 엔트로피 코딩을 수행하는 것을 제안한다.
선행 이미지는 Iprec로 표기하고 코딩하는 현재 이미지는 Icur로 표기한다. 이들 이미지는 반드시 휘도 이미지일 필요는 없으며, 웨이브렛 계수 이미지, 움직임 필드 이미지 등이어도 된다.
이들 이미지는 각각 도 3에서 부재 번호 12 및 11로 표기되며, 현재 이미지의 픽셀(x, y)의 시간 이웃을 나타낸다. 이 현재 이미지의 모든 픽셀(x, y)에서, 처리될 데이터 값은 시간 이웃의 함수로서 코딩될 것이다. 이 시간 이웃은, 14로 표기되어 배치된 픽셀(pdx, pdy)의 이웃에 위치하는, 다시 말하면, 도 3에서 13으로 표기된 픽셀(x, y)의 움직임 벡터에 의해 지시받는, 선행 이미지로부터의 데이터 값들에 대응한다.
C(pdx, pdy)로 표기되는 시간 컨텍스트는 시간 이웃의 데이터 함수이다. 표기를 쉽게 하도록, 다음의 설명에서 C(pdx, pdy)를 C로 표기한다. 시간 컨텍스트에서 고려되는 계수들의 수(k)에 따라, 2k 컨텍스트의 리스트가 이용가능하다. 각 컨텍스트에 대하여, 시간 컨텍스트의 경우에서 설명한 바와 동일한 방식으로 확률 테이블을 적응적으로 규정한다.
예를 들어, 제1 비트면에 대한 움직임, 제2 비트면에 대한 보다 상세한 버전, 등을 대략적으로 설명함으로써 상이한 비트면들에 대하여 상이한 움직임 필들들을 이용하는 것도 가능하다.
시간 컨텍스트를 이용하는 것은 공간 컨텍스트 이용과 조합할 수 있다. 시간 컨텍스트를 형성하는 계수들의 수가 j로 표기되고 공간 컨텍스트를 형성하는 계수들의 수가 k로 표기되면, 2j+k 컨텍스트들의 리스트가 이용가능하다.
도 4는 좌표(x, y)의 픽셀(x, y)과 관련되고 이 픽셀(x, y) 주위의 공간 이웃(15)과 결합된 움직임 벡터(13)를 이용하여 규정된 시간 이웃(14)을 나타낸다.
동일한 원리로, 양방향 이미지를 갖는 MPEG 표준에서 사용되는 것처럼 여러 개의 기준 이미지를 이용하는 예측과 유사한 방식으로 1개의 시간 컨텍스트보다 많은 시간 컨텍스트를 이용할 수 있다. 도 5는 선행 이미지 및 현재 이미지 주위의 후속 이미지를 나타낸다. (MPEG 표준에서와 같은) 포워드 움직임 벡터(13)에 의해 선행 이미지(Iprec)에 관한 시간 이웃(14)이 규정될 수 있고 백워드 움직임 벡터(16)에 의해 후속 이미지(Ifuture)에 관한 시간 이웃(17)이 규정될 수 있다.
본 발명의 가장 중요한 양태들중 하나는 시공간 컨텍스트를 규정하기 위해 사용되는 파라미터 타입에 관한 것이다. 상기한 시프트 편차 현상은 컨텍스트 산술 코덱을 혼란스럽게 만드는(disorientate) 경향이 있다. 확률 테이블들의 적응이 이 현상을 겪지 않도록, 시프트 편차의 결정 요소(determinant)인 파라미터들은 컨텍스트 데이터 값 내에 포함된다.
따라서, 고려되는 파라미터들은 다음에 따르는 파라미터들 모두 또는 일부이다. 즉,
- 계수들의 소정의 수의 공간 이웃
- 고려되는 공간 서브 밴드의 또다른 시간 샘플이며 이미 코딩된 계수들의 움직임 보상 시간 이웃
- 고려되는 공간 서브 밴드의 고역통과 필터링 방향에서의 변위의 컴포넌트들중 적어도 하나의 패러티
- 고려되는 공간 서브 밴드의 고역통과 필터링 방향에서의 변위의 컴포넌트들중 적어도 하나의 분수 부분
변위의 정수 부분의 패러티에 의해 시공간 이웃들이 동상 및 동상 반대로 구별되는 경우가 가능해지고, 이 변위의 분수 부분에 의해 그 변위에 의해 유도되는 위상 시프트에 대한 정보가 지시받을 수 있다. 마지막으로, 이들 파라미터에 대하여, 고역통과 필터링의 방향에서의 컴포넌트만을 고려하는 이점을 갖게 되며, 이것이 구별되는 컴포넌트이기 때문이다. 이것은 수평 상세(LH)의 서브 밴드용 수직 컴포넌트 및 수직 상세(HL)의 서브 밴드용 수평 컴포넌트일 것이다. 대각선 상세(HH)의 서브 밴드는, 각각 +45도 및 -45도로 배향된 2개의 필터링 방향을 처리하는 특정한 경우이다. 이 밴드를 위해, 2개의 컴포넌트를 동시에 고려할 수 있으며, 이것은 컨텍스트 수를 증가시키고, 다른 방법으로는, 이 수를 제한하기 위해, 이 2개 컴포넌트의 파라미터들의 함수들을 이용하여도 된다. 따라서, 예를 들어, 변위의 진폭을 고려할 수 있고, 보다 간단하게, 그 2개 컴포넌트의 합을 고려하거나, 가장 높은 진폭을 갖는 것만을 유지할 수도 있다. 변위 진폭을 위해, 패러티는 2개의 이웃하는 픽섹들 간의 대각선 거리에 관한 것이다.
도 6은 각 컨텍스트에 대하여 이웃 계수들의 제한된 수 및 하나의 픽셀의 1/4의 움직임 정밀도의 경우에서의 시공간 이웃의 일예를 나타낸다. 현재 이미지의 행(m) 및 열(n)에 위치하며 회색으로 표시된 현재 계수(m, n)의 공간 이웃(18)은, 3개의 전에 처리된 이웃 계수들(Lcur, Ucur, 및 Dcur)에 대응한다. 시간 이웃(20)은 기준 이미지를 가리키는 움직임 벡터(19)에 의해 지정되는 4개 계수(Xref, Bref, Rref, 및 Dref)에 대응한다. 계수들(Xref)은 행(m+k) 및 열(n+1)에 위치한다.
도 7은 변위 벡터의 컴포넌트들에 관한 파라미터들을 나타낸다. 직교정규(orthonormal) 좌표 시스템(21) 상의 축들의 경사는 2개 픽셀들 간의 거리의 1/4에 대응한다. 패러티는 움직임 벡터의 컴포넌트들에 관한 것이다. 움직임 벡터의 끝 주위의 오버 샘플링 그리드(grid)에 의해 대응하는 분수 부분을 결정할 수 있다. 즉, Fractdx = dl 및 Fractdy = dk인 도 6의 예에서 수평 방향에서의 2/4의 분수 및 수직 방향에서의 1/4의 분수를 결정할 수 있다.
dx = 1 + d1 은 벡터의 수평 컴포넌트이고, dy = k + dk 는 벡터의 수직 컴포넌트이다.
수평 및 수직 컴포넌트들의 패러티들은 각각 Parx = 1 mod2 및 Pary = k mod2 이다. 계수들은 패러티 존재 유무에 따라 동상 또는 동상 반대이다.
웨이브렛 계수들은 비트면에서 인코딩된다. 각 비트면에 대하여, 계수들(L, U, D)의 가중치는 계수들(X, B, R, D)의 가중치와 함께 결정된다. 이것은 계수 값이 처리되는 면에 관한 비트의 가중치에 대응하는 값보다 큰지 여부를 측정함으로써 달성된다. 분수 및 패러티 정보도 기록된다. 이에 따라, 다음에 따르는 이진 데이터 스트림으로 컨텍스트를 인덱싱할 수 있다.
Lcur Ucur Dcur Fracdx Fracdy Parx Pary Xref Bref Rref Dref
분수 부분들은 각각 2비트(한 픽셀의 0 내지 3/4)에 대하여 코딩되고, 나머지 파라미터들은 1비트에 대하여 코딩된다.
물론, 하나의 움직임 벡터보다 많은 벡터가 계수 또는 픽셀과 관련되어 있는 경우, 예를 들어, 여러 개의 기준 이미지들이 이용될 때, 여러 벡터들의 패러티 및 분수 파라미터들을 고려할 수 있다.
시간 분석 회로(8)의 움직임 추정은 이 회로의 입력에 전송되는 저 주파 대역에 걸친 종래의 방식으로 수행된다.
ME-MCSTAC 회로(10)에 의해 구현되는 움직임 추정 방법(ME)은 다양한 방식에 따라 실행될 수 있으며, 예를 들어,
- 연속하는 저 주파 대역에 걸친 움직임 추정
- 고 주파 대역에 걸친 직접적 움직임 추정
을 실행할 수 있다.
전자의 경우가 구현하기 가장 쉬운 경우이다. 공간 분해의 각 단계에서, 움직임 필드는 후자의 경우가 4개의 서브 밴드로 다시 슬라이싱되기 전에 저 주파에 걸쳐 추정된다. 소스가 픽셀 도메인에 관련될 수 있기 때문에, 이 추정은 예측 에러를 최소화함으로써 종래의 방식으로 실행될 수 있다.
이후, 움직임은 해상도에서 가간섭적이며 그 이유는 MC-STAC으로 코딩되는 3개의 고 주파 대역의 차원을 갖기 때문이고, 실제로 원하는 해상도에서의 변위 정보를 갖고 있다.
따라서, 예를 들어, CIF 해상도 상에서 추정되는 움직임을 이용하여 수평, 수직, 및 대각 상세의 3개 밴드를 CIF로부터 SD 해상도로 걸쳐 사용되는 MC-STAC으로 코딩한다. 유사한 방식으로,QCIF 해상도 상에서 추정되는 움직임은, QCIF 해상도에서의 시퀀스를 위한 종래의 MCTF용 지원으로서 기능하는 것에 더하여, QCIF 로부터 CIF 해상도로 걸쳐 사용되는 수평, 수직, 및 대각 상세의 3개 밴드가 MC-STAC으로 코딩될 수 있게 한다. 후술하는 바와 같이, 도 9는 이 해결책을 이용하는 코더를 나타낸다.
또한, MC-STAC 응용에 전용인 움직임 필드를 갖는 것이 바람직할 수 있다. 코딩되는 각 고 주파 대역 상에서의 움직임을 추정할 필요가 있으며, 이것이 두번째의 경우이다. 고 주파수는 저 주파수보다 적은 정보를 갖고 있기 때문에, 고 주파수에 걸쳐 추정되는 필드들이 저 주파수에 걸쳐 추정되는 필드들보다 비용이 덜 소모되는 것을 고려하는 것이 합리적이다. 그럼에도 불구하고, 상기한 시프트 편차 현상 때문에, 추정용으로 사용되는 기준은 더 이상 간단한 DFD 최소화로 구성될 수 없다. 선택되는 기준은 MCSTAC과 암시적으로 관련된 조건적 엔트로피의 최소화이다. 이러한 기준은 벡터의 소급적 선택에 대응하며, 리소스 및 복잡성의 관점에서 많은 비용이 소모될 수 있다. 그러나, 이것은 물론 최적의 기준이다. 또다른 기준은 절대값들의 차이의 최소화이다. 이것은 시프트 편차의 제1 장애를 극복할 수 있는 매우 간단한 기준이다.
또한, 이들 움직임 추정은 비트면에서 영향을 받을 수 있다.
시간 분석 회로(8)는, 원하는 시간 해상도를 갖는 이미지들을 얻기 위해, 예를 들어, 움직임 보상 리프팅, 즉, MC-Lift로 알려져 있는 기술에 의존한다. MC-Lift는 이미지들의 하나의 그룹에 대하여 시간 해상도의 다양한 레벨을 구축하는 것을 포함한다. 제1 시간 해상도를 제외한 각 시간 해상도에 대하여, 이미지들은 보다 낮은 시간 해상도의 이미지들로부터 시작되는 시간 예측에 의해 구축된다.
도 8은 본 발명에 따른 방법을 구현하는 장치를 보다 상세히 나타낸다.
코더의 비디오 입력은 자신의 입력에서 저 밴드(LL) 및 고 밴드(LH, HL, HH)를 전달하는 2D 웨이브렛 변환(2dWT) 회로(22)에 접속된다. 저 밴드(LL)는 제2 2D 웨이브렛 변환 회로(23) 및 움직임 추정 ME 회로(24)에 접속된다. 고 밴드(LH, HL, HH)는 MC-STAC 회로(25)에 접속된다. 제2 2D 웨이브렛 변환 회로(23)는 하나의 출력에서 저 대역(LLLL)을 전달하고 나머지 출력에서 고 대역(LLLH, LLHL, LLHH)을 전달한다. 저 대역(LLLL)은 MCTF 회로(26) 및 움직임 추정 ME 회로(27)에 접속된다. 고 대역은 제2 MC-STAC 회로(28)에 접속된다.
ME 회로(24)로로부터의 움직임 정보는 MC-STAC 회로(25)에 전송되고 ME 회로(27)로로부터의 움직임 정보는 MCTF 회로(26) 및 MC-STAC 회로(28)에 전송된다.
MC-STAC 회로(25, 28)의 출력은 SD 및 CIF 해상도에서 텍스쳐를 전달한다. ME 회로(24, 27)의 출력은, 회로(29)용으로 SD 움직임 정보를 전달하고 회로(30)용으로 QCIF 및 CIF 움직임 정보를 전달하는 움직임 필드(29, 30)에 각각 접속된다. MCTF 회로(26)의 출력은, 그 출력에서 QCIF 해상도의 코딩된 텍스쳐를 전달하기 위해 엔트로피 코딩을 수행하는 컨텍스트 기반 산술 CAE 회로(31)에 접속된다.
이에 따라, 비디오 입력 신호는 회로(22) 및 회로(23)에 의해 피라미드형 웨이브렛 분해를 겪게 된다. 상기한 바와 같이 움직임 추정은 저 대역에 걸쳐 수행된다. 소정의 공간 해상도의 저 대역에 걸쳐 계산되는 움직임 추정은, 이 저 대역에 대응하는 해상도의 고 대역을 코딩하는 움직임 보상 시공간 컨텍스트 산술 코딩 (MC-STAC) 회로에 의해 이용된다.
기저 대역(LLLL)은 움직임 보상 시간 필터링을 수행하는 MCTF 회로(26)에 의해 종래의 방식으로 처리된다.
본 발명을 구현하는 디코딩 방법 및 회로는 상기한 코딩 방법 및 회로에 대응한다.
따라서, 디코딩 방법은 상기한 코딩 방법에 따라 코딩되는 데이터 스트림 상의 정보에 의존함으로써 컨텍스트를 계산한다. 이 정보는, 현재 계수의 처리 동안 이미 디코딩되어 있으며, 이 계수의 계산을 위해, 코딩에서 선택된 다양한 파라미터들에 대하여 컨텍스트들의 리스트를 계산할 수 있게 하며 연속 갱신할 수 있게 한다.
엔트로피 디코딩 회로는 상기한 방법에 따라 컨텍스트 및 확률 테이블을 계산하는 알고리즘을 구현한다.
상기한 코딩은 비트면 코딩, 이에 따라, 이진 코딩이다. N-ary 코딩을 이용하는 것, 다시 말하면, N 비트면의 동시 코딩을 수행하는 것도 고려할 수 있다. 따라서, 비트면의 값인 이진 값이 아니라, 이용되는 컨텍스트들은 N비트를 포함하는 N-ary 값을 고려한다. 이로부터 발생하는 상이한 컨텍스트들의 리스트는 그 길이가 더 길며, 계산 수를 증가시키지만, 코딩 효율이 개선된다.
상세한 설명은 완전히 계위가능한(fully scalabe) 기술에 관한 것으로서, 다시 말하면, 충실도 및 공간적으로 시간적으로 계위가능한 기술에 관한 것으로서, 임의의 디코더가 코딩 스트림을 이용할 수 있게 한다. 예를 들어, 시간 범위성이 없는 또다른 종류의 기술도 본 발명의 범위 내에 포함된다.
시간 컨텍스트를 이용하는 엔트로피 코딩은 공간 고 주파수에 걸쳐서만 설명되어 있음, 그 이유는 저 주파수가 예측되는 이미지로부터 시작하는 시간 필터링에 적합하기 때문이다. 본 발명의 범위로부터 벗어나지 않고 신호의 모든 공간 주파수에 걸친 이러한 엔트로피 코딩의 응용도 고려할 수 있다.
유사하게, 기저 대역에 걸쳐 또는 소스 이미지 상에서 움직임 추정을 실행할 수 있다.
패러티는 컴포넌트의 정수 부분 상에서 계산된다. 이것은 가장 가까운 정수 값 상에서 계산될 수도 있다.
상기한 엔트로피 코딩은 산술 코딩이다. 본 발명에 따른 방법은 신호의 통계 특성들, 예를 들어, VLC 타입의 코딩을 이용하는 다른 타입의 엔트로피 코딩에 적용될 수도 있다.
본 발명의 응용은 시간 예측을 갖는 비디오 압축에 관련된다.

Claims (15)

  1. 이미지들의 시퀀스 내의 이미지를 코딩하는 방법으로서,
    저 공간 주파수의 신호 및 고 공간 주파수의 신호들을 전달하기 위해 현재 이미지를 공간 분석하고, 움직임 벡터(13)를 공급하기 위해 상기 현재 이미지(11)에 대응하는 현재 시간과 기준 이미지(12)에 대응하는 기준 시간 간의 움직임 추정을 수행하는 단계(7, 22, 23)를 포함하고,
    상기 움직임 추정에 기초하여 시간 컨텍스트(14, 17, 20)를 고려함으로써 상기 현재 이미지에 관한 상기 고 공간 주파수의 신호들중 적어도 하나를 엔트로피 코딩(10, 25, 28)하는 단계를 더 포함하며,
    상기 시간 컨텍스트의 계산용으로 이용되는 파라미터들중 하나는 상기 움직임 벡터의 컴포넌트에 관한 패러티(21)인 방법.
  2. 제1항에 있어서,
    상기 시간 컨텍스트의 계산용으로 이용되는 파라미터들중 하나는 상기 움직임 벡터의 컴포넌트에 관한 분수 부분(21)인 방법.
  3. 제1항에 있어서,
    상기 고 공간 주파수의 신호에 대하여 고려되는 상기 컴포넌트는 고역 통과 공간 필터링의 방향에 있는 컴포넌트인 방법.
  4. 제1항에 있어서,
    상기 시간 컨텍스트(14, 17, 20)는 공간 컨텍스트(15, 18)와 결합되는 방법.
  5. 제1항에 있어서,
    상기 시간 컨텍스트(14, 17, 20)는, 하나 초과의 기준 이미지(14, 17)를 이용하는 하나 초과의 움직임 추정(13, 16)에 기초하는 방법.
  6. 제1항에 있어서,
    상기 엔트로피 코딩은 산술 코딩인 방법.
  7. 제6항에 있어서,
    상기 산술 코딩은 비트 면에 의한 코딩이고, 상기 시간 컨텍스트는 시간 기준 이미지에서 동일 레벨의 비트면에 대응하는 방법.
  8. 제6항에 있어서,
    상기 산술 코딩은 N-ary 코딩이고, 상기 시간 컨텍스트는 시간 기준 이미지에서 동일 레벨의 N 비트면에 대응하는 방법.
  9. 제1항에 있어서,
    상기 움직임 추정(24, 27)은 스펙트럼 분석에 의해 전달되는 신호들중 하나를 이용하여 실행되는 방법.
  10. 제7항에 있어서,
    상기 움직임 추정(24, 27)은 비트면에 의해 수행되고, 상기 시간 컨텍스트는 하나의 비트면에 대하여 상기 비트면에 걸친 움직임 추정에 기초하는 방법.
  11. 제1항에 있어서,
    상기 공간 분석은 웨이브렛 변환인 방법.
  12. 제1항의 코딩 방법에 따라 코딩된 이미지들의 시퀀스 내의 이미지를 디코딩하는 방법으로서,
    움직임 보상에 기초하여 시간 컨텍스트(14, 17, 20)를 고려함으로써 고 공간 주파수 신호들중 적어도 하나에 관하여 엔트로피 디코딩하는 단계를 포함하고,
    상기 시간 컨텍스트의 계산용으로 이용되는 파라미터들중 하나는 움직임 벡터의 컴포넌트에 관한 패러티(21)인 방법.
  13. 제12항에 있어서,
    상기 시간 컨텍스트의 계산용으로 이용되는 파라미터들중 하나는 상기 움직임 벡터의 컴포넌트에 관한 분수 부분(21)인 방법.
  14. 제1항에 따른 코딩 방법을 구현하는 비디오 코더로서,
    비디오 신호를 수신하고, 하나 이상의 고 해상도에 대하여 고 공간 주파수의 신호들 및 최저 해상도에 대응하는 최저 공간 주파수의 신호를 전달하는 공간 분석 회로(7, 22, 23)와,
    움직임 벡터들을 계산하는 움직임 추정 회로
    를 포함하고,
    움직임 추정에 기초하여 시간 컨텍스트(14, 17, 20)를 고려함으로써 상기 고 공간 주파수의 신호들중 적어도 하나를 엔트로피 코딩하는 회로
    를 더 포함하고,
    상기 시간 컨텍스트의 계산용으로 이용되는 파라미터들중 하나는 상기 움직임 벡터의 컴포넌트에 관한 패러티(21)인 비디오 코더.
  15. 제1항의 방법에 따라 코딩된 이미지들의 시퀀스 내의 이미지를 위한 비디오 디코더로서,
    움직임 추정에 기초하여 시간 컨텍스트를 계산하는 알고리즘을 구현하는 엔트로피 디코딩 회로를 포함하고,
    상기 시간 컨텍스트의 계산용으로 이용되는 파라미터들중 하나는 움직임 벡터의 컴포넌트에 관한 패러티(21)인 비디오 디코더.
KR1020057016486A 2003-03-06 2004-02-26 움직임 벡터의 컴포넌트에 관한 부분을 고려하여 비디오이미지를 코딩하는 방법 KR101010420B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR03/02840 2003-03-06
FR0302840A FR2852179A1 (fr) 2003-03-06 2003-03-06 Procede de codage d'une image video

Publications (2)

Publication Number Publication Date
KR20050106490A true KR20050106490A (ko) 2005-11-09
KR101010420B1 KR101010420B1 (ko) 2011-01-21

Family

ID=32865329

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020057016486A KR101010420B1 (ko) 2003-03-06 2004-02-26 움직임 벡터의 컴포넌트에 관한 부분을 고려하여 비디오이미지를 코딩하는 방법

Country Status (8)

Country Link
US (1) US9628819B2 (ko)
EP (1) EP1600003B1 (ko)
JP (1) JP4438797B2 (ko)
KR (1) KR101010420B1 (ko)
CN (1) CN100534182C (ko)
FR (1) FR2852179A1 (ko)
MX (1) MXPA05009483A (ko)
WO (1) WO2004082293A1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100977646B1 (ko) * 2003-02-21 2010-08-24 닛본 덴끼 가부시끼가이샤 화상 데이터 분배 시스템, 장치, 및 방법
US20050201468A1 (en) * 2004-03-11 2005-09-15 National Chiao Tung University Method and apparatus for interframe wavelet video coding
WO2006098586A1 (en) * 2005-03-18 2006-09-21 Samsung Electronics Co., Ltd. Video encoding/decoding method and apparatus using motion prediction between temporal levels
WO2006104357A1 (en) * 2005-04-01 2006-10-05 Samsung Electronics Co., Ltd. Method for compressing/decompressing motion vectors of unsynchronized picture and apparatus using the same
KR100763179B1 (ko) 2005-04-01 2007-10-04 삼성전자주식회사 비동기 픽쳐의 모션 벡터를 압축/복원하는 방법 및 그방법을 이용한 장치
JP2007028393A (ja) * 2005-07-20 2007-02-01 Matsushita Electric Ind Co Ltd 双方向予測符号化ピクチャの直接モードブロックの動きベクトルを求める方法
JP4826546B2 (ja) 2007-06-18 2011-11-30 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
FR2954035B1 (fr) * 2009-12-11 2012-01-20 Thales Sa Procede d'estimation de la qualite video a une resolution quelconque
WO2013057359A1 (en) 2011-10-21 2013-04-25 Nokia Corporation Method for video coding and an apparatus
US9571833B2 (en) * 2011-11-04 2017-02-14 Nokia Technologies Oy Method for coding and an apparatus
US10554977B2 (en) * 2017-02-10 2020-02-04 Intel Corporation Method and system of high throughput arithmetic entropy coding for video coding

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0671368B2 (ja) 1988-07-19 1994-09-14 株式会社クボタ 田植機の泥圧検出装置
JP2631746B2 (ja) 1989-06-16 1997-07-16 新東工業株式会社 集塵袋詰め装置
US5748786A (en) 1994-09-21 1998-05-05 Ricoh Company, Ltd. Apparatus for compression using reversible embedded wavelets
US6195465B1 (en) 1994-09-21 2001-02-27 Ricoh Company, Ltd. Method and apparatus for compression using reversible wavelet transforms and an embedded codestream
US6049362A (en) * 1996-02-14 2000-04-11 International Business Machines Corporation Dual prime motion estimation system and method
EP0797348A3 (en) 1996-03-22 1999-01-20 Hewlett-Packard Company A one dimensional context model for entropy encoding digital halftone images with arithmetic coding
US6188795B1 (en) 1996-06-13 2001-02-13 Dublin City University Data compression
US5748116A (en) 1996-11-27 1998-05-05 Teralogic, Incorporated System and method for nested split coding of sparse data sets
US5959560A (en) 1997-02-07 1999-09-28 Said; Amir Data compression via alphabet partitioning and group partitioning
US7003168B1 (en) 1997-03-11 2006-02-21 Vianet Technologies, Inc. Image compression and decompression based on an integer wavelet transform using a lifting scheme and a correction method
JP3464767B2 (ja) 1998-12-29 2003-11-10 ソニー株式会社 ウェーブレット復号装置及び方法
US20020141499A1 (en) 1999-02-04 2002-10-03 Goertzen Kenbe D. Scalable programmable motion image system
JP2000295618A (ja) 1999-03-08 2000-10-20 Texas Instr Inc <Ti> 埋込み型ゼロトリーパターン及びビットプレーンを使用する画像符号化方法
CN1181690C (zh) 1999-07-20 2004-12-22 皇家菲利浦电子有限公司 用于压缩视频序列的编码方法
JP4545980B2 (ja) 2000-05-11 2010-09-15 キヤノン株式会社 符号化装置及び符号化方法並びに記憶媒体
AU2002228884A1 (en) 2000-11-03 2002-05-15 Compression Science Video data compression system
JP2002223446A (ja) 2001-01-26 2002-08-09 Ricoh Co Ltd 画像圧縮装置および画像撮像装置
US7558322B2 (en) 2001-03-13 2009-07-07 Vidunas Joseph P Method and apparatus for temporal wavelet compression
US6832005B2 (en) 2001-03-23 2004-12-14 Microsoft Corporation Adaptive encoding and decoding of bi-level images
KR100783396B1 (ko) * 2001-04-19 2007-12-10 엘지전자 주식회사 부호기의 서브밴드 분할을 이용한 시공간 스케일러빌러티방법
WO2003003745A1 (en) 2001-06-29 2003-01-09 Ntt Docomo, Inc. Image encoder, image decoder, image encoding method, and image decoding method
US6944225B2 (en) * 2001-07-24 2005-09-13 Sharp Laboratories Of America, Inc. Resolution-scalable video compression
WO2003063497A1 (en) 2002-01-22 2003-07-31 Koninklijke Philips Electronics N.V. Drift-free video encoding and decoding method, and corresponding devices
US7321625B2 (en) * 2002-12-13 2008-01-22 Ntt Docomo, Inc. Wavelet based multiresolution video representation with spatially scalable motion vectors
FR2886787A1 (fr) * 2005-06-06 2006-12-08 Thomson Licensing Sa Procede et dispositif de codage et de decodage d'une sequence d'images

Also Published As

Publication number Publication date
JP2006523396A (ja) 2006-10-12
US9628819B2 (en) 2017-04-18
JP4438797B2 (ja) 2010-03-24
CN1757238A (zh) 2006-04-05
EP1600003A1 (fr) 2005-11-30
US20070189389A1 (en) 2007-08-16
MXPA05009483A (es) 2006-05-25
CN100534182C (zh) 2009-08-26
FR2852179A1 (fr) 2004-09-10
KR101010420B1 (ko) 2011-01-21
EP1600003B1 (fr) 2017-12-06
WO2004082293A1 (fr) 2004-09-23

Similar Documents

Publication Publication Date Title
KR100308627B1 (ko) 중첩블럭이동보상및제로트리웨이브릿코딩을이용한저비트레이트비디오엔코더
US7675976B2 (en) Video coding using wavelet transform and sub-band transposition
US7627040B2 (en) Method for processing I-blocks used with motion compensated temporal filtering
US6920177B2 (en) Method and apparatus for accomplishing multiple description coding for video
EP1606950B1 (en) Scalable encoding and decoding of interlaced digital video data
US8175153B2 (en) Method of encoding and decoding an image sequence by means of hierarchical temporal analysis
US20060262856A1 (en) Multi-view video coding based on temporal and view decomposition
US7042946B2 (en) Wavelet based coding using motion compensated filtering based on both single and multiple reference frames
US20070217513A1 (en) Method for coding video data of a sequence of pictures
US20140037010A1 (en) Video encoding and decoding apparatus, method, and system
WO2005013201A1 (en) Video encoding and decoding methods and corresponding devices
KR101010420B1 (ko) 움직임 벡터의 컴포넌트에 관한 부분을 고려하여 비디오이미지를 코딩하는 방법
EP1158806A1 (en) Motion vector coding
US20130058403A1 (en) Moving picture encoding method, moving picture decoding method, moving picture encoding device, moving picture decoding device, and computer program
KR100901178B1 (ko) 동화상의 부호화 방법 및 장치, 그리고 동화상의 복호 방법및 장치
US6445823B1 (en) Image compression
Mayer et al. Bit plane quantization for scalable video coding
Kuo et al. Multiresolution video coding based on Kalman filtering motion estimation
Maugey et al. Analysis of error propagation due to frame losses in a distributed video coding system
Kim et al. Multiresolution motion compensation in the wavelet domain for scalable video coding
Yang et al. Kalman filtering based motion estimation for video coding
Rusert Interframe wavelet video coding with operating point adaptation
Redondo et al. Compression of volumetric data sets using motion-compensated temporal filtering
Ilgin DCT Video Compositing with Embedded Zerotree Coding for Multi-Point Video Conferencing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131219

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20141230

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20151218

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20161220

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee