KR20060070400A - 영상 신호의 인코딩 및 디코딩 방법 - Google Patents

영상 신호의 인코딩 및 디코딩 방법 Download PDF

Info

Publication number
KR20060070400A
KR20060070400A KR1020050060510A KR20050060510A KR20060070400A KR 20060070400 A KR20060070400 A KR 20060070400A KR 1020050060510 A KR1020050060510 A KR 1020050060510A KR 20050060510 A KR20050060510 A KR 20050060510A KR 20060070400 A KR20060070400 A KR 20060070400A
Authority
KR
South Korea
Prior art keywords
frame
weight
block
image
frame sequence
Prior art date
Application number
KR1020050060510A
Other languages
English (en)
Inventor
전병문
윤도현
박지호
박승욱
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US11/311,136 priority Critical patent/US20060159181A1/en
Publication of KR20060070400A publication Critical patent/KR20060070400A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]

Abstract

본 발명은 영상 신호를 인코딩 하고 디코딩 하는 방법에 관한 것이다. 예측 과정 또는 갱신 과정에서 기준 블록 또는 대상 블록을 매크로 블록 단위로 정의된 적응 가중치를 기초로 가중하여 영상 신호를 인코딩 하고, 이러한 방법으로 인코딩 된 영상 신호를 이에 상응하게 디코딩 한다. 매크로 블록 단위로 자신에 맞도록 적절하게 정의된 적응 가중치를 이용하여 예측 과정과 갱신 과정을 수행함으로써, 영상 신호에 대한 코딩 효율을 향상시킬 수 있다.
MCTF, 시간적 분해 레벨, 예측, 갱신, 가중치, 시간적 위치

Description

영상 신호의 인코딩 및 디코딩 방법 { Method for encoding and decoding video signal }
도 1은 일반적인 5/3 탭 구조의 MCTF에 의해 영상 신호를 인코딩 과정을 도시한 것이고
도 2는 일반적인 MCTF 인코딩 방식에서 가중치를 적용하여 'H' 픽쳐와 'L' 픽쳐를 생성하는 예측 과정과 갱신 과정을 도시한 것이고,
도 3은 본 발명에 따른 영상 신호의 스케일러블 코딩 방법이 적용되는 영상 신호 인코딩 장치의 구성을 도시한 것이고,
도 4는 어느 한 시간적 분해 레벨에서 영상 신호에 대해 시간적 분해를 하는 구성을 도시한 것이고,
도 5는 본 발명에 따른 인코딩 방식에서 적응 가중치를 적용하는 예측 과정과 갱신 과정을 도시한 것이고,
도 6은 도 3의 장치에 의해 인코딩 된 데이터 스트림을 디코딩 하는 장치의 구성을 도시한 것이고,
도 7은 시간적 분해 레벨 N의 'H' 프레임 시퀀스와 'L' 프레임 시퀀스를 분해 레벨 N-1의 'L' 프레임 시퀀스로 시간적 합성하는 구성을 도시한 것이고,
도 8과 도 9는 본 발명의 다른 실시예에 따라 예측 과정과 갱신 과정에 적응 가중치를 매크로 블록 단위로 정의하기 위한 신택스(Syntax)를 도시한 것이다.
<도면의 주요부분에 대한 부호의 설명>
100 : MCTF 인코더 101 : 추정/예측기
102 : 갱신기 110 : 텍스처 인코더
120 : 모션 코딩부 130 : 먹서
200 : 디먹서 210 : 텍스처 디코더
220 : 모션 디코딩부 230 : MCTF 디코더
231 : 역갱신기 232 : 역예측기
본 발명은, 영상 신호의 인코딩 및 디코딩 방법에 관한 것으로, 좀더 상세하게는 시간적 위치를 고려한 적응적 가중치를 적용하여 영상 신호를 인코딩 하고 디코딩 하는 방법에 관한 것이다.
현재 널리 사용되고 있는 휴대폰과 노트북, 그리고 앞으로 널리 사용하게 될 이동(mobile) TV와 핸드헬드 PC 등이 무선으로 송수신하는 디지털 영상 신호에 대해서는 TV 신호에서와 같은 넓은 대역을 할당하기가 여의치 않다. 따라서, 이와 같은 이동성 휴대 장치를 위한 영상 압축 방식에 사용될 표준은 좀 더 영상 신호의 압축 효율이 높아야만 한다.
더욱이, 상기와 같은 이동성 휴대 장치는 자신이 처리 또는 표현(presentation)할 수 있는 능력이 다양할 수 밖에 없다. 따라서, 압축된 영상이 그만큼 다양하게 사전 준비되어야만 하는 데, 이는 동일한 하나의 영상원(source)에 대해서 초당 전송 프레임 수, 해상도, 픽셀 당 비트 수 등 다양한 변수들로 각각 조합된 여러 품질의 영상 데이터를 구비하고 있어야 함을 의미하므로, 컨텐츠 제공자에게 많은 부담이 될 수 밖에 없다.
이러한 이유로, 컨텐츠 제공자는, 하나의 영상원에 대해 고속 비트레이트의 압축 영상 데이터를 구비해 두고, 상기와 같은 이동성 장치가 요청하면 압축 영상 을 디코딩 한 다음 요청한 장치의 영상 처리 능력(capability)에 맞는 영상 데이터로 다시 인코딩 하여 이를 제공한다. 하지만 이러한 방식에는 트랜스코딩(transcoding)(디코딩+스케일링+인코딩) 과정이 필히 수반되므로 이동성 장치가 요청한 영상을 제공함에 있어서 다소 시간 지연이 발생한다. 또한 트랜스코딩도 목표 인코딩이 다양함에 따라 복잡한 하드웨어의 디바이스와 알고리즘을 필요로 한다.
이와 같은 불리한 점들을 해소하기 위해 제안된 것이 스케일러블 영상 코덱(SVC : Scalable Video Codec)이다. 이 방식은 영상 신호를 인코딩함에 있어, 최고 화질로 인코딩 하되, 그 결과로 생성된 픽처 시퀀스의 부분 시퀀스(시퀀스 전체에서 간헐적으로 선택된 프레임의 시퀀스)를 디코딩 하여도 영상의 화질을 어느 정도 보장할 수 있도록 하는 방식이다.
MCTF(Motion Compensated Temporal Filter(or Filtering))는 상기와 같은 스케일러블 영상 코덱에 사용하기 위해 제안된 인코딩 방식이다. MCTF 방식은 대역폭이 제한된 이동 통신 등과 같은 전송 환경에 적용될 가능성이 높으므로 초당 전송되는 비트 수를 낮추기 위해 높은 압축 효율, 즉 높은 코딩 효율(coding efficiency)을 필요로 한다.
도 1은 영상 신호를 인코딩 하는 일반적인 MCTF 방식을 도식적으로 나타낸 것이다.
MCTF 방식에서, 영상 신호는 소정의 시간 간격으로 입력되는 픽처 시퀀스로 이루어지는데, 이 중 홀수(또는 짝수)의 픽쳐에 대해서, 기준 픽쳐를 좌우 인접하 는 짝수(또는 홀수)의 픽쳐로부터 선택하여 이미지 차인 에러 값(Residual)을 계산하는 예측 동작(Prediction operation)이 수행되어 'H' 픽처가 생성된다. 이 'H' 픽처에 있는 에러 값은 그 에러 값을 구할 때 사용되는 기준 픽처에 더해지는데, 이 과정을 갱신 동작(Update operation)이라 하며, 이 갱신 동작에 의해 생성된 픽처가 'L' 픽쳐이다.
이러한 예측 및 갱신 과정이 하나의 GOP(Group Of Pictures) 내의 픽처, 예를 들어 8개의 픽쳐에 대해 수행되어 4개의 'H' 픽쳐와 4개의 'L' 픽쳐가 얻어지고, 이중 4개의 'L' 픽처에 대해서 예측 및 갱신 동작이 다시 수행되어 2개의 'H' 픽쳐와 2개의 'L'픽쳐가 얻어지는데, 이와 같은 예측 및 갱신 동작은 1개의 'H' 픽쳐와 1개의 'L' 픽쳐가 생성될 때까지 반복적으로 수행된다. 이와 같은 과정을 시간적 분해(TD : Temporal Decomposition)라고 하며, 분해 과정의 각 단계를 'MCTF 레벨'(또는 '시간적 분해 레벨')이라고 한다. 이와 같은 과정에 의해, 하나의 GOP에 대해 예측 동작에서 얻어지는 모든 'H' 픽쳐와 마지막 단계에서 얻어지는 하나의 'L' 픽쳐가 전송된다.
MCTF 방식으로 인코딩 된 영상 프레임을 디코딩 하는 과정은 도 1의 인코딩 과정의 역순으로 진행된다. 앞서 언급한 바와 같이 MCTF와 같은 스케일러블 인코딩의 경우에는 전체에서 부분적인 시퀀스를 선택하여도 영상을 볼 수가 있다. 그러므로, 디코딩 할 때에는 전송 채널의 전송 속도, 즉 수신되는 영상 데이터의 정보량에 근거하여 디코딩의 정도를 조정할 수 있다. 통상 이 조정은 GOP 단위로 이루어지는데, 정보량이 충분치 못한 경우에는 시간적 분해의 역과정인 시간적 합성 (TC : Temporal Composition) 레벨을 낮게 하고, 정보량이 충분한 경우에는 시간적 합성 레벨을 높게 한다.
도 2는 일반적인 MCTF 인코딩 방식에서 가중치를 적용하여 'H' 픽쳐와 'L' 픽쳐를 생성하는 예측 과정과 갱신 과정을 도식적으로 나타낸 것이다.
공간 좌표 x=[x,y]T, 시간 좌표 t인 영상 신호 s[x,t]는 시간 분해능이 절반으로 줄어든 고주파 성분인 'H' 픽쳐 h[x,t]와 저주파 성분인 'L' 픽쳐 l[x,t]로 분해되는데, h[x,t]와 l[x,t]는 다음과 같은 식으로 표현된다.
h[x,t]=s[x,2t+1]-(w 0·s[x+ m P0(x),2t-2r P0(x)]+w 1·s[x+ m P1(x), 2t+2 r P1(x)+2])
l[x,t]=s[x,2t]+(w 0·h[x+ m U0(x),t+r U0(x)]+w 1·h[x+ m U1(x), t- r U1(x)-1])>>1
여기서, 기준 픽쳐에 대한 인덱스(Indices)인 r(>=0)은 예측 과정과 갱신 과정에서 움직임 보상에 사용되는 기준 픽쳐를 가리키고, m은 예측 과정과 갱신 과정에서의 모션 벡터를 가리킨다. r P0r P1은 예측 과정에서 사용되는 기준 픽쳐 0과 1을 가리키는 인덱스이고, r U0r U1은 갱신 과정에서 사용되는 기준 픽쳐 0과 1을 가리키는 인덱스이다.
5/3 탭 구조를 갖는 MCTF의 예측 과정과 갱신 과정에서 각 매크로 블록은 1개 이상의 기준 픽쳐를 참조할 수 있는데, 예를 들어 2개의 기준 픽쳐를 참조하는 경우, 예측 과정에서의 가중치 w 0w 1은 모두 1/2이 사용되고, 갱신 과정에서의 가 중치 w 0w 1은 연결되는 샘플의 수 및 4x4 블록에 대해 예측한 신호의 에너지와 같은 두 요소에 의해 결정될 수 있다.
예를 들어, 기준 픽쳐가 하나인 경우, 예측 과정에서의 가중치 w 0(또는 w 1)에는 1이 사용되고 다른 가중치 w 1(또는 w 0)에는 0이 사용되고, 갱신 과정에서의 가중치 w 0(또는 w 1)은 위와 같은 방법에 의해 결정되고 다른 가중치 w 1(또는 w 0)에는 0이 사용된다.
도 2에서, 블록 A는 예측 과정에서 하나의 기준 픽쳐만을 참조하므로, 가중치 w 1=1, w 0=0이 사용되고, 블록 B와 C는 예측 과정에서 두 개의 기준 픽쳐를 참조하므로, 가중치 w 0w 1에는 모두 1/2이 사용된다. 또한, 블록 D는 갱신 과정에서 두 개의 픽쳐를 참조하므로, 가중치 w 0w 1은 연결된 샘플의 수 및 블록 D에 대해 예측한 신호의 에너지에 의해 결정될 수 있다.
종래의 MCTF의 예측 과정에서, 도 2에 도시한 바와 같이, 기준 픽쳐의 시간적 위치에 상관 없이 두 기준 픽쳐를 동일한 값으로 가중하고 있다. 또한, 종래의 MCTF의 예측 과정과 갱신 과정에서 기준 픽쳐(블록)를 가중할 때 조정된 가중치를 사용할 수도 있는데, 이때 상기 가중치는 슬라이스 단위로 조정되어 동일 슬라이스 내의 매크로 블록에 대해서는 동일한 가중치가 적용된다. 하지만, 두 기준 픽쳐에 동일한 가중치를 적용하거나 슬라이스 단위로 가중치를 조정하는 것이 압축 효율, 즉 코딩 효율을 향상시키는데 도움이 되는지 의문시되고 있고, 기준 픽쳐를 효율적 으로 가중하기 위한 해결 방법이 아직 제시되고 있지 않다.
본 발명은 이러한 문제점을 해결하기 위해 창작된 것으로서, 본 발명의 목적은, 코딩 효율을 향상시킬 수 있도록, 예측 과정과 갱신 과정에서 기준 픽쳐를 효율적으로 가중하여 인코딩 하는 방법과 상기 인코딩 방법에 의해 인코딩 된 영상 신호를 이에 상응하게 디코딩 하는 방법을 제공하는데 있다.
상기한 목적을 달성하기 위해 본 발명에 따른 영상 신호를 인코딩 하는 방법은, 영상 신호의 인코딩 방법은, 제 1 프레임 시퀀스와 제 2 프레임 시퀀스로 이루어진 영상 신호를 인코딩할 때, 상기 제 1 프레임 시퀀스에 속하는 임의의 프레임 내의 제 1 영상 블록에 대해, 제 1 가중치로 조정된 상기 제 2 프레임 시퀀스 내의 기준 블록들을 기초로, 이미지 차를 구하고, 상기 제 2 프레임 시퀀스에 속하는 임의의 프레임 내의 제 2 영상 블록에 대해, 상기 제 1 프레임 시퀀스 내의 대상 블록들에 대한 이미지 차를 제 2 가중치로 조정하여 더하는 제 1 단계; 및 상기 제 2 가중치에 대한 정보를 상기 제 1 영상 블록의 헤더 영역에 기록하는 제 2 단계를 포함하여 이루어지는 것을 특징으로 한다.
상기 실시예에서, 상기 제 2 가중치에 대한 정보는 가중치를 어떠한 방식으로 획득할 것인지를 가리키는 정보인 것을 특징으로 한다. 또한, 상기 제 2 가중 치에 대한 정보는, 미리 정의된 소정의 방식을 이용해 유추해 낼 것인지 아니면 해당 영상 블록에 따라 별도로 정의된 적응 가중치를 사용할 것인지를 가리키는 정보인 것을 특징으로 한다. 상기 제 2 가중치는 영상 블록의 휘도 성분과 색채 성분에 대해 각각 구분되어 적용될 수 있다.
본 발명의 다른 실시예에 따른 인코딩 된 영상 신호의 디코딩 방법은, 이미지 차를 갖는 제 1 프레임 시퀀스와, 제 2 프레임 시퀀스로 인코딩 된 영상 신호를 디코딩 할 때, 상기 제 2 프레임 시퀀스에 속하는 임의의 프레임 내의 제 2 영상 블록에 대해, 제 1 프레임 시퀀스 내의 대상 블록들을 상기 대상 블록들의 헤더에 기록된 제 2 가중치에 대한 정보를 기초로 조정하여 감하는 제 1 단계; 및 상기 제 1 프레임 시퀀스에 속하는 임의의 프레임 내의 제 1 영상 블록에 대해, 상기 제 1 단계에서 조정된 상기 제 2 프레임 시퀀스 내의 기준 블록들을 제 1 가중치로 조정하여 더하는 제 2 단계를 포함하여 이루어지는 것을 특징으로 한다.
이하, 본 발명의 바람직한 실시예에 대해 첨부 도면을 참조하여 상세히 설명한다.
도 3은 본 발명에 따른 영상 신호의 스케일러블 코딩 방법이 적용되는 영상 신호 인코딩 장치의 구성을 도시한 것이다.
도 3의 영상 신호 인코딩 장치는, 입력되는 영상 신호를 소정의 방식, 예를 들어 MCTF 방식에 의해 매크로 블록(macro block) 단위로 인코딩 하고 적절한 관리 정보를 생성하는 MCTF 인코더(100), 상기 인코딩 된 각 매크로 블록의 데이터를 압 축된 비트 열로 변환하는 텍스처(Texture) 코딩부(110), 상기 MCTF 인코더(100)에 의해 얻어지는 영상 블록의 모션 벡터(motion vectors)를 지정된 방식에 의해 압축된 비트 열로 코딩 하는 모션 코딩부(120), 상기 텍스처 코딩부(110)의 출력 데이터와 상기 모션 코딩부(120)의 출력 벡터 데이터를 기 지정된 포맷으로 인캡슐(encapsulate)한 다음 기 지정된 전송 포맷으로 상호 먹싱하여 데이터 스트림으로 출력하는 먹서(130)를 포함하여 구성된다.
상기 MCTF 인코더(100)는, 임의 영상 프레임(또는 픽쳐) 내의 매크로 블록에 대하여 모션 추정(motion estimation)으로 구한 기준 블록을 감하는 예측 동작을 수행하며, 또한 상기 매크로 블록과 기준 블록의 이미지 차를 그 기준 블록에 더하는 갱신(update) 동작을 수행하는 데, 도 4는 이를 수행하기 위한 필터의 일부 구성을 도시한 것이다.
상기 MCTF 인코더(100)는, 입력되는 영상 프레임 시퀀스를 에러 값을 갖게 될 프레임과 상기 에러 값이 더해질 프레임, 예를 들어 홀수(odd) 프레임과 짝수(even) 프레임으로 분리하여, 예측 동작과 갱신 동작을 여러 레벨에 걸쳐 수행하는데, 도 4는 그 중 한 레벨에서의 예측 동작과 갱신 동작에 관련된 구성을 도시한 것이다.
도 4의 구성은, 모션 추정(motion estimation)을 통해 레지듀얼(residual) 데이터를 갖게 될 프레임, 예를 들어 홀수 프레임에 대해서, 그 프레임 내의 각 매크로 블록에 대한 기준 블록을 전 또는 후에 위치한 짝수 프레임에서 찾고 그 기준 블록과의 이미지 차(각 대응 화소의 차값) 및 모션 벡터를 산출하는 예측 동작을 수행하는 추정/예측기(101)와, 상기 매크로 블록에 대한 기준 블록을 포함하는 프레임, 예를 들어 짝수 프레임에 대해서, 상기 매크로 블록에 대해 산출한 이미지 차를 정규화(normalize)하여 해당 기준 블록에 더하는 갱신 동작을 수행하는 갱신기(102)를 포함하고 있다.
상기 추정/예측기(101)가 수행하는 동작을 'P' 동작이라 하며, 'P' 동작에 의해 생성되는 프레임은 'H' 프레임으로, 이 'H' 프레임에 있는 레지듀얼 데이터는 영상 신호의 고주파 성분을 반영한다. 또한, 상기 갱신기(102)가 수행하는 동작을 'U' 동작이라 하며, 'U' 동작에 의해 생성되는 프레임은 'L' 프레임으로, 'L' 프레임은 저역 서브밴드 픽쳐를 갖는다.
도 4의 추정/예측기(101)와 갱신기(102)는 프레임 단위가 아니고 하나의 프레임이 분할된 복수 개의 슬라이스(slice)에 대해 병렬적으로 동시에 수행할 수도 있다. 이하의 실시예에서 사용되는 '프레임'의 용어는 '슬라이스'로 대체하여도 기술의 등가성이 유지되는 경우에는 '슬라이스'의 의미를 당연히 포함하는 것으로 해석되어야 한다.
상기 추정/예측기(101)는, 입력되는 영상 프레임 또는 전 레벨에서 얻어진 'L' 프레임의 홀수 프레임 각각에 대해서, 기 정해진 크기의 매크로 블록(macro-block)으로 분할하고, 각 분할된 매크로 블록과 이미지가 가장 유사한 블록을 동일한 시간적 분해 레벨에 있는 짝수 프레임에서 찾아서 이에 근거한 매크로 블록의 예측 영상을 만들고 모션 벡터를 구하는 과정을 수행한다.
가장 높은 상관 관계를 갖는 블록이 대상 블록과 이미지 차가 가장 적은 블 록이다. 이미지 차의 크기는, 예를 들어 pixel-to-pixel의 차이값 총합 또는 그 평균값 등으로 정해지며, 그 크기가 소정 문턱값 이하가 되는 블록들 중에서 크기가 가장 작은 매크로 블록 또는 블록들을 기준(reference) 블록(들)이라 한다.
상기 추정/예측기(101)는 기준 블록이 찾아진 경우에는 현재 매크로 블록으로부터 상기 기준 블록으로의 모션 벡터 값을 구하여 상기 모션 코딩부(120)로 전송하고, 상기 기준 블록(한 프레임에만 있는 경우)의 각 화소값과 또는 현재 매크로 블록과 기준 블록들(복수의 프레임에 있는 경우)의 시간적 위치를 기초로 계산된 가중치로 조정한 기준 블록들의 각 화소값과 현재 매크로 블록 내의 각 화소값의 에러 값, 즉 차이값을 산출하여 해당 매크로 블록에 코딩한다. 그리고, 매크로 블록의 모드 타입, 기준 블록을 갖는 프레임을 식별할 수 있는 레퍼런스 인덱스, 이외에 디코딩 과정에서 사용될 수 있는 여러 정보를 해당 매크로 블록의 헤더 영역에 삽입한다.
상기 추정/예측기(101)는, 프레임 내의 모든 매크로 블록에 대해 상기의 과정을 수행하여, 해당 프레임에 대한 예측 영상인 'H' 프레임을 완성한다. 또한, 상기 추정/예측기(101)는, 입력되는 영상 프레임 또는 전 레벨에서 얻어진 'L' 프레임의 모든 홀수 프레임에 대해서, 각 프레임에 대한 예측 영상인 'H' 프레임을 완성한다.
한편, 상기 갱신기(102)는, 앞서 설명한 바와 같이, 상기 추정/예측기(101)에 의해 생성된 'H' 프레임 내의 각 매크로 블록 내의 이미지 차를 해당 기준 블록이 있는 'L' 프레임(입력되는 영상 프레임 또는 전 레벨에서 얻어진 'L' 프레임의 짝수 프레임)에 더하는 동작을 수행한다.
도 5는 본 발명에 따른 인코딩 방식에서 적응 가중치를 적용하는 예측 과정과 갱신 과정을 도식적으로 나타낸 것이다.
영상 신호가 시간적으로 분해되는 예측 과정과 갱신 과정에서 2개의 기준 프레임(블록)이 참조되는 경우, 본 발명에 따른 각 기준 블록에 대한 가중치는 현재의 프레임, 기준 블록 0이 포함된 프레임 및 기준 블록 1이 포함된 프레임 사이의 시간적 위치를 고려하여 정해진다.
두 프레임이 가까울수록 서로의 상관 관계가 높을 것으로 가정할 수 있으므로, 예측 과정에서, 시간적 위치를 근거로 하는 적응 가중치를 기준 블록(프레임)에 대해 적용하는 경우가 동일한 가중치를 적용하는 경우에 비해 좀 더 정확하게 신호를 예측할 수 있다.
갱신 과정에서는 원래의 저주파 성분의 프레임에 고주파 성분의 'H' 프레임의 예측된 신호(예측 과정에서 구해지는 레지듀얼 데이터)를 더하여 저주파 성분의 'L' 프레임을 얻는다. 이때 원래의 저주파 성분의 프레임을 기준 프레임으로 하는 고주파 성분의 'H' 프레임이 2개인 경우, 원래의 저주파 성분의 프레임은 시간적 위치가 먼 고주파 성분의 프레임에 비해 가까운 고주파 성분의 프레임에 더 많은 기여를 하기 때문에, 원래의 저주파 성분의 프레임에 대한 저주파 성분의 'L' 프레임을 생성할 때 더 가까운 고주파 성분의 프레임에 대해 시간적 위치를 기초로 하여 더 큰 값으로 계산되는 가중치를 적용한다.
POC(Picture Order Count) 값은 픽쳐(프레임)의 시간적 위치를 지정하는데, 두 프레임 사이의 시간적 거리를 계산하는데 사용될 수 있다.
예측 과정에서의 가중치는 다음과 같은 식에 의해 계산될 수 있다.
w 0 = d 1/(d 0+d 1), w 1 = d 0/(d 0+d 1), 여기서 d0 = |POC(r 0) - POC(current picture)|이고, d1 = |POC(r 1) - POC(current picture)|이다.
도 5를 참조로 본 발명에 따른 예측 과정에서의 적응 가중치를 구해보면 다음과 같다. 블록 A는 예측 과정에서 하나의 기준 프레임만을 참조하므로, 가중치는 w 1=1, w 0=0이 된다. 블록 B는 예측 과정에서 두 개의 기준 프레임(블록)을 참조하고, 블록 B를 포함하는 프레임(h[x,t] 또는 s[x,2t+1])과 블록 B에 대한 기준 블록을 포함하는 기준 프레임 0(s[x,2t-2])과 기준 프레임 1(s[x,2t+2])과의 시간적 거리 d0과 d1은 각각 3과 1이므로, 가중치는 w 0=1/4과 w 1=3/4이 된다. 블록 C도 예측 과정에서 두 개의 기준 프레임(블록)을 참조하고, 블록 C를 포함하는 프레임(h[x,t+1] 또는 s[x,2t+3])과 블록 C에 대한 기준 블록을 포함하는 기준 프레임 0(s[x,2t])과 기준 프레임 1(s[x,2t+2])과의 시간적 거리 d0과 d1은 각각 3과 1이므로, 가중치는 w 0=1/4과 w 1=3/4이 된다.
한편, 갱신 과정에서의 가중치는 다음과 같은 식에 의해 계산될 수 있다.
w 0 = w 0 ,old ·d 1/(d 0+d 1), w 1 = w 1 ,old ·d 0/(d 0+d 1), 여기서 d0 = |POC(r 0) - POC(current picture)|이고, d1 = |POC(r 1) - POC(current picture)|이고, w 0 , old w 1, old는 종래 갱신 과정에서 가중치를 결정하는 방법에 의해 계산될 수 있다.
도 5에서, 구하고자 하는 저주파 프레임 l[x,t]에 포함되는 블록 D에 대응되는, s[x,2t](상기 구하고자 하는 저주파 프레임 l[x,t]에 대응되는 원래 저주파 성분의 프레임) 내의 임의의 블록을 기준 블록으로 하는 블록은 블록 C와 블록 A 2개가 존재하고, 블록 D를 포함하는 프레임 l[x,t](또는 s[x,2t])과, 블록 C를 포함하는 프레임 h[x,t+1](또는 s[x,2t+3])과 블록 A를 포함하는 프레임 h[x,t-1](또는 s[x,2t-1])과의 시간적 거리 d0과 d1은 각각 3과 1이므로, 가중치는 w 0=1/4 x w 0,oldw 1=3/4 x w 1,old가 된다. 이때 가중치 w 0,oldw 1,old는 연결된 샘플의 수 및 블록 D에 대해 예측한 신호의 에너지에 의해 결정될 수 있다.
지금까지 설명한 방법에 의해 인코딩 된 데이터 스트림은 유선 또는 무선으로 디코딩 장치에 전송되거나 기록 매체를 매개로 하여 전달되며, 디코딩 장치는 이후 설명하는 방법에 따라 원래의 영상 신호를 복원하게 된다.
도 6은 도 3의 장치에 의해 인코딩 된 데이터 스트림을 디코딩 하는 장치의 블록도이다. 도 6의 디코딩 장치는, 수신되는 데이터 스트림에서 압축된 모션 벡터 스트림과 압축된 매크로 블록 정보 스트림을 분리하는 디먹서(200), 압축된 매크로 블록 정보 스트림을 원래의 비압축 상태로 복원하는 텍스처 디코딩부(210), 압축된 모션 벡터 스트림을 원래의 비압축 상태로 복원하는 모션 디코딩부(220), 압축 해제된 매크로 블록 정보 스트림과 모션 벡터 스트림을 예를 들어 MCTF 방식 에 따라 원래의 영상 신호로 역변환하는 MCTF 디코더(230)를 포함하여 구성된다.
상기 MCTF 디코더(230)는, 입력되는 스트림으로부터 원래의 프레임 시퀀스로 복원하는데, 도 7은 상기 MCTF 디코더(230)의 주요 구성을 상세히 도시한 것이다.
도 7은 시간적 분해 레벨 N의 'H' 프레임 시퀀스와 'L' 프레임 시퀀스를 시간적 분해 레벨 N-1의 'L' 프레임 시퀀스로 시간적 합성(Temporal Composition)하는 구성이다. 도 7에는, 입력되는 'H' 프레임의 각 화소의 차값을 입력되는 'L' 프레임에서 선택적으로 감하는 역갱신기(231), 'H' 프레임의 이미지 차가 감해진 'L' 프레임과 그 'H' 프레임을 사용하여 원래의 이미지를 갖는 'L' 프레임을 복원하는 역예측기(232), 입력되는 모션 벡터 스트림을 디코딩 하여 'H' 프레임 내의 각 블록의 모션 벡터 정보를 각 단(stage)의 역갱신기(231)와 역예측기(232)에 제공하는 모션 벡터 디코더(233) 및 상기 역예측기(232)에 의해 완성된 'L' 프레임을 상기 역갱신기(231)의 출력 'L' 프레임 사이에 삽입하여 정상적인 순서의 'L' 프레임 시퀀스로 만드는 배열기(234)를 포함한다.
상기 배열기(234)에 의해 출력되는 'L' 프레임은 레벨 N-1의 'L' 프레임 시퀀스(701)가 되고, 이는 입력되는 N-1 레벨의 'H' 프레임 시퀀스(702)와 함께 다음 단의 역갱신기와 역예측기에 의해 'L' 프레임 시퀀스로 다시 복원되며, 이 과정이 인코딩 할 때의 레벨만큼 수행되어 원래의 영상 프레임 시퀀스로 복원된다.
수신되는 레벨 N의 'H' 프레임과 레벨 N+1에서 생성된 레벨 N의 'L' 프레임이 레벨 N-1의 'L' 프레임으로 복원되는 레벨 N에서의 복원(시간적 합성) 과정을 보다 상세히 설명한다.
먼저 상기 역갱신기(231)는, 임의의 'L' 프레임(레벨 N)에 대해, 상기 모션 벡터 디코더(233)로부터 제공되는 모션 벡터를 참조하여, 인코딩 과정에서 상기 임의의 'L' 프레임(레벨 N)으로 갱신되는 원래의 'L' 프레임(레벨 N-1) 내의 블록을 기준 블록으로 하여 이미지 차를 구한 모든 'H' 프레임(레벨 N)을 파악한 다음, 상기 'H' 프레임 내의 매크로 블록의 에러 값에 소정의 가중치를 곱하여 상기 임의의 'L' 프레임 내의 해당 블록(상기 원래의 레벨 N-1의 'L' 프레임 내의 기준 블록에 대응되는 블록)의 화소값에서 감하는 동작을 수행하여, 원래의 'L' 프레임을 복원한다.
종래의 역갱신 과정에서는, 종래의 갱신 과정에서 가중치를 결정하는 방법에 의해 계산된 가중치, 즉 상기 'H' 프레임 내의 매크로 블록과 이에 대한 기준 블록 사이에 연결된 샘플의 수 및 상기 기준 블록에 대해 예측한 신호(상기 매크로 블록)의 에너지에 따라 결정된 가중치를 상기 'H' 프레임 내의 매크로 블록의 에러 값에 곱한 후, 이를 상기 임의의 'L' 프레임 내의 해당 블록의 화소값에서 감하게 된다.
하지만, 본 발명에 따른 역갱신 과정에서는, 상기 임의의 'L' 프레임과 상기 파악된 'H' 프레임과의 시간적 위치를 고려한 값으로 상기 종래의 방법에 의해 계산된 가중치를 조절한다. 상기 임의의 'L' 프레임 내의 블록(정확하게는 인코딩 과정에서 상기 임의의 'L' 프레임(레벨 N)으로 갱신되는 원래의 'L' 프레임(레벨 N-1) 내의 블록)을 기준 블록으로 하여 에러 값을 구한 'H' 프레임이 둘인 경우(다르게 표현하면, 상기 임의의 'L' 프레임 내의 상기 블록이 상기 2개의 'H' 내의 매 크로 블록에 의해 갱신되는 경우), 상기 임의의 'L' 프레임과 상기 2개의 'H' 프레임과의 시간적 위치를 근거로 상기 종래의 방법에 의해 구해진 가중치를 각각 조정하고 상기 조정된 가중치를 상기 2개의 'H' 프레임 내의 매크로 블록의 에러 값에 각각 곱하고(즉, 상기 2개의 'H' 프레임 내의 매크로 블록의 에러 값을 상기 임의의 'L' 프레임과의 시간적 거리에 따라 다르게 가중하여), 이를 상기 임의의 'L' 프레임 내의 상기 블록의 화소값에서 감한다.
현재 'L' 프레임(레벨 N) 내의 블록 중 인코딩 과정에서 'H' 프레임 내의 매크로 블록의 에러 값으로 갱신된 블록에 대해 상기와 같은 역갱신 동작을 수행하여 레벨 N-1의 'L' 프레임으로 복원한다.
다음, 상기 역예측기(232)는, 임의의 'H' 프레임 내의 매크로 블록에 대해, 상기 모션 벡터 디코더(233)로부터 제공되는 모션 벡터를 참조하여, 'L' 프레임(상기 역갱신기(231)에 의해 역갱신되어 출력되는 'L' 프레임)에 있는 기준 블록을 파악한 다음, 상기 매크로 블록의 화소의 차값(에러 값)에 기준 블록의 화소값을 더함으로써 원래의 이미지를 복원한다.
종래의 역예측 과정에서는, 'H' 프레임 내의 매크로 블록에 대한 기준 블록의 화소값을 동일한 값으로 가중하여 상기 매크로 블록의 화소의 차값에 더한다.
하지만, 본 발명에 따른 역예측 과정에서는, 'H' 프레임과 상기 'H' 프레임 내의 매크로 블록에 대한 기준 블록이 포함된 'L' 프레임과의 시간적 위치를 고려하여 상기 기준 블록의 화소값을 가중한다. 상기 'H' 프레임 내의 매크로 블록에 대한 기준 블록이 서로 다른 'L' 프레임에 존재하는 경우(다르게 표현하면, 상기 'H' 프레임 내의 매크로 블록이 서로 다른 'L' 프레임 내의 기준 블록에 의해 예측되는 경우), 상기 'H' 프레임과 상기 기준 블록을 포함하는 두 'L' 프레임과의 시간적 위치를 근거로 결정된 가중치를 상기 기준 블록의 화소값에 곱하여(즉, 상기 두 기준 블록의 화소값을 상기 'H' 프레임과의 시간적 거리에 따라 다르게 가중하여), 이를 상기 'H' 프레임 내의 매크로 블록의 화소의 차값에 더한다.
현재 'H' 프레임 내의 모든 매크로 블록에 대해 상기와 같은 동작이 수행되어 'L' 프레임으로 복원되면, 이 'L' 프레임은 상기 배열기(234)를 통해 상기 역갱신기(231)에서 복원된 'L' 프레임과 교대로 배열되어 다음 단으로 출력된다.
위의 설명은 기준 블록이 2개의 프레임에 존재하는 경우에 대해서만 예로 들었으나, 예를 들어 기준 블록이 3개의 프레임에 존재하는 경우에도 기준 블록이 포함된 프레임과 현재의 프레임의 시간적 거리에 반비례하도록 하는 가중치를 다음과 같이 표현할 수 있다.
w 0=d 1 d 2/(d 0 d 1+d 1 d 2+d 2 d 0), w 1=d 2 d 0/(d 0 d 1+d 1 d 2+d 2 d 0), w 2=d 0 d 1/(d 0 d 1+d 1 d 2+d 2 d 0), 여기서 d0 = |POC(r 0) - POC(current picture)|, d1 = |POC(r 1) - POC(current picture)|, d2 = |POC(r 2) - POC(current picture)|이다.
따라서, 기준 블록이 2 이상의 프레임에 존재하는 경우에 본 발명에 따른 예측 과정과 갱신 과정 및 역갱신 과정과 역예측 과정에 적응 가중치를 적용할 수 있다.
본 발명의 다른 실시예에서는, 도 8과 도 9에 도시한 바와 같이, 코딩 효율을 향상시키기 위하여, 소정의 방식, 예를 들어 MCTF 방식의 예측 과정과 갱신 과정 및 역갱신 과정과 역예측 과정에 사용될 가중치를 매크로 블록 단위로 정의할 수 있다.
이를 위해, 매크로 블록에 대한 예측 과정(또는 역예측 과정)에서 해당 매크로 블록을 포함하는 슬라이스 하부의 매크로 블록에 공통으로 적용되는 가중치를 사용할 것인지 아니면 해당 매크로 블록에 따라 별도로 정의된 적응 가중치를 사용할 것인지를 가리키는 'weighted_pred_MB_flag'와 같은 플래그 정보를 매크로 블록의 헤더 영역에 정의할 수 있다.
한편, 기존의 슬라이스 헤더에는 매크로 블록에 대한 갱신 과정(또는 역갱신 과정)에서 해당 슬라이스 하부의 매크로 블록에 공통적으로 적용되는 가중치를 정의하고 있지 않으므로, 매크로 블록에 대한 갱신 과정(또는 역갱신 과정)에서 해당 매크로 블록에 대한 가중치를 어떠한 방식으로 획득할 것인지를 가리키는 'weighted_update_MB_flag'와 같은 플래그 정보를 매크로 블록의 헤더 영역에 정의할 수 있다. 예를 들어, 미리 정의된 소정의 방식을 이용해 유추해 낼 것인지 아니면 해당 매크로 블록에 별도로 정의된 적응 가중치를 사용할 것인지를 상기 'weighted_update_MB_flag'와 같은 플래그 정보로 나타낼 수 있다.
나아가, 도 9에는 매크로 블록에 대한 갱신 과정(또는 역갱신 과정)에 사용될 적응 가중치를 정의하고 있다.
도 9에 도시한 바와 같이, 갱신 과정(또는 역갱신 과정)에서 적용될 적응 가 중치의 존재 여부를 가리키는 플래그 정보를, 휘도에 관련된 루마(Luma) 성분과 색채에 관련된 크로마(Chroma) 성분으로 구분하여, update_luma_weight_lX_flag와 update_chroma_weight_lX_flag와 같이 정의할 수 있다.
상기 휘도에 관련된 루마 성분과 색채에 관련된 크로마 성분에 대한 적응 가중치가 존재하는 경우, 갱신 과정(또는 역갱신 과정)에 사용되는 상기 적응 가중치도 루마 성분과 크로마 성분을 구분하여 매크로 블록 단위로 정의될 수 있다.
여기서, 상기 휘도에 관련된 루마 성분과 색채에 관련된 크로마 성분에 대한 적용 가중치의 존재 여부 및 각각에 대응되는 적응 가중치를 추출하는 일련의 과정은, 현재의 매크로 블록이 포함된 프레임의 이전 프레임들을 가리키는 레퍼런스 인덱스 리스트 0(ref_idx_l0)와 현재의 매크로 블록이 포함된 프레임의 이후 프레임들을 가리키는 레퍼런스 인덱스 리스트 1(rev_idx_l1)로 구분되어, 각각의 기준 프레임에 대해 수행될 수 있다.
전술한 방법에 따라, 인코딩 된 데이터 스트림이 완전한 영상 프레임 시퀀스로 복구된다. 특히, MCTF 방식을 예로 들어 설명한 인코딩 과정에서 예측 동작과 갱신 동작을 한 GOP에 대해서 N회 수행한 경우, 디코딩 과정에서 역갱신 동작과 역예측 동작을 N회 수행하면 원래 영상 신호의 화질을 얻을 수 있고, 그 보다 작은 횟수로 수행하면 화질이 다소 저하되지만 비트 레이트는 보다 낮은 영상 프레임 시퀀스를 얻을 수 있다. 따라서, 디코딩 장치는 자신의 성능에 맞는 정도로 상기 역갱신 동작과 역예측 동작을 수행하도록 설계된다.
전술한 디코딩 장치는 이동 통신 단말기 등에 실장되거나 또는 기록 매체를 재생하는 장치에 실장될 수 있다.
앞서 설명한 실시예에서는, MCTF 방식의 인코더와 MCTF 방식의 디코더를 예로 들어서 설명하고 있으나, 본 발명은, 예측 과정과 갱신 과정 또는 이와 유사하거나 균등한 과정을 통해 영상 신호를 인코딩/디코딩 하는 어떠한 방식에도 적용할 수 있다.
이상, 전술한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것으로, 당업자라면 이하 첨부된 특허청구범위에 개시된 본 발명의 기술적 사상과 그 기술적 범위 내에서 또 다른 다양한 실시예들을 개량, 변경, 대체 또는 부가 등이 가능할 것이다.
따라서, 영상 신호를 인코딩/디코딩 할 때, 매크로 블록 단위로 자신에 맞도록 적절하게 정의된 적응 가중치를 이용하여 예측/역예측 과정과 갱신/역갱신 과정을 수행함으로써 코딩 효율을 향상시킬 수 있게 된다.

Claims (8)

  1. 제 1 프레임 시퀀스와 제 2 프레임 시퀀스로 이루어진 영상 신호의 인코딩 방법에 있어서,
    상기 제 1 프레임 시퀀스에 속하는 임의의 프레임 내의 제 1 영상 블록에 대해, 제 1 가중치로 조정된 상기 제 2 프레임 시퀀스 내의 기준 블록들을 기초로, 이미지 차를 구하고, 상기 제 2 프레임 시퀀스에 속하는 임의의 프레임 내의 제 2 영상 블록에 대해, 상기 제 1 프레임 시퀀스 내의 대상 블록들에 대한 이미지 차를 제 2 가중치로 조정하여 더하는 제 1 단계; 및
    상기 제 2 가중치에 대한 정보를 상기 제 1 영상 블록의 헤더 영역에 기록하는 제 2 단계를 포함하여 이루어지는 영상 신호의 인코딩 방법.
  2. 제 1항에 있어서,
    상기 제 2 가중치에 대한 정보는 가중치를 어떠한 방식으로 획득할 것인지를 가리키는 정보인 것을 특징으로 하는 영상 신호의 인코딩 방법.
  3. 제 2항에 있어서,
    상기 제 2 가중치에 대한 정보는, 미리 정의된 소정의 방식을 이용해 유추해 낼 것인지 아니면 해당 영상 블록에 따라 별도로 정의된 적응 가중치를 사용할 것인지를 가리키는 정보인 것을 특징으로 하는 영상 신호의 인코딩 방법.
  4. 제 1항에 있어서,
    상기 제 2 가중치는 영상 블록의 휘도 성분과 색채 성분에 대해 각각 구분되어 적용되는 것을 특징으로 하는 영상 신호의 인코딩 방법.
  5. 이미지 차를 갖는 제 1 프레임 시퀀스와, 제 2 프레임 시퀀스로 인코딩 된 영상 신호의 디코딩 방법에 있어서,
    상기 제 2 프레임 시퀀스에 속하는 임의의 프레임 내의 제 2 영상 블록에 대해, 제 1 프레임 시퀀스 내의 대상 블록들을 상기 대상 블록들의 헤더에 기록된 제 2 가중치에 대한 정보를 기초로 조정하여 감하는 제 1 단계; 및
    상기 제 1 프레임 시퀀스에 속하는 임의의 프레임 내의 제 1 영상 블록에 대해, 상기 제 1 단계에서 조정된 상기 제 2 프레임 시퀀스 내의 기준 블록들을 제 1 가중치로 조정하여 더하는 제 2 단계를 포함하여 이루어지는 인코딩 된 영상 신호의 디코딩 방법.
  6. 제 5항에 있어서,
    상기 제 2 가중치에 대한 정보는 가중치를 어떠한 방식으로 획득할 것인지를 가리키는 정보인 것을 특징으로 하는 인코딩 된 영상 신호의 디코딩 방법.
  7. 제 5항에 있어서,
    상기 제 2 가중치에 대한 정보는, 미리 정의된 소정의 방식을 이용해 유추해 낼 것인지 아니면 해당 영상 블록에 따라 별도로 정의된 적응 가중치를 사용할 것인지를 가리키는 정보인 것을 특징으로 하는 인코딩 된 영상 신호의 디코딩 방법.
  8. 제 5항에 있어서,
    상기 제 2 가중치는 영상 블록의 휘도 성분과 색채 성분에 대해 각각 구분되어 적용되는 것을 특징으로 하는 인코딩 된 영상 신호의 디코딩 방법.
KR1020050060510A 2004-12-20 2005-07-06 영상 신호의 인코딩 및 디코딩 방법 KR20060070400A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/311,136 US20060159181A1 (en) 2004-12-20 2005-12-20 Method for encoding and decoding video signal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US63687304P 2004-12-20 2004-12-20
US60/636,873 2004-12-20

Publications (1)

Publication Number Publication Date
KR20060070400A true KR20060070400A (ko) 2006-06-23

Family

ID=37164151

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050060510A KR20060070400A (ko) 2004-12-20 2005-07-06 영상 신호의 인코딩 및 디코딩 방법

Country Status (2)

Country Link
US (1) US20060159181A1 (ko)
KR (1) KR20060070400A (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7423642B2 (en) * 2005-12-14 2008-09-09 Winbond Electronics Corporation Efficient video frame capturing
US8189683B2 (en) * 2006-11-28 2012-05-29 General Instrument Corporation Method and system for providing single cycle context weight update leveraging context address look ahead
US20080247459A1 (en) * 2007-04-04 2008-10-09 General Instrument Corporation Method and System for Providing Content Adaptive Binary Arithmetic Coder Output Bit Counting
US8213499B2 (en) * 2007-04-04 2012-07-03 General Instrument Corporation Method and apparatus for context address generation for motion vectors and coefficients
US20080273113A1 (en) * 2007-05-02 2008-11-06 Windbond Electronics Corporation Integrated graphics and KVM system
US8335256B2 (en) * 2008-11-14 2012-12-18 General Instrument Corporation Motion compensation in video coding
EP3230049B1 (en) * 2015-04-24 2021-07-28 Hewlett-Packard Development Company, L.P. Processing three-dimensional object data for storage
US20190253357A1 (en) * 2018-10-15 2019-08-15 Intel Corporation Load balancing based on packet processing loads

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6658157B1 (en) * 1999-06-29 2003-12-02 Sony Corporation Method and apparatus for converting image information
KR100508798B1 (ko) * 2002-04-09 2005-08-19 엘지전자 주식회사 쌍방향 예측 블록 예측 방법
CA2500301C (en) * 2002-10-01 2013-05-14 Thomson Licensing S.A. Implicit weighting of reference pictures in a video decoder
KR100612849B1 (ko) * 2003-07-18 2006-08-14 삼성전자주식회사 영상 부호화 및 복호화 장치 및 방법
KR20050022160A (ko) * 2003-08-26 2005-03-07 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 및 스케일러블비디오 엔코더 및 디코더
KR100597402B1 (ko) * 2003-12-01 2006-07-06 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
KR100596706B1 (ko) * 2003-12-01 2006-07-04 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
KR100564592B1 (ko) * 2003-12-11 2006-03-28 삼성전자주식회사 동영상 데이터 잡음제거방법
JP4050754B2 (ja) * 2005-03-23 2008-02-20 株式会社東芝 ビデオエンコーダ及び動画像信号の符号化方法
KR100703772B1 (ko) * 2005-04-13 2007-04-06 삼성전자주식회사 인코더-디코더 간 불일치를 감소시키는 mctf 기반의비디오 코딩 방법 및 장치
KR100695067B1 (ko) * 2005-06-15 2007-03-14 삼성전자주식회사 블록분류를 이용한 시공간 노이즈 제거 방법 및 이 방법이적용되는 디스플레이장치
BRPI0613657B1 (pt) * 2005-07-21 2019-05-07 Thomson Licensing Método e aparelho para o prognóstico ponderado para uma codificação de vídeo redimensionável
US20090268818A1 (en) * 2008-04-29 2009-10-29 International Business Machines Corporation Method and system for integrating noise filtering in predictive video coding

Also Published As

Publication number Publication date
US20060159181A1 (en) 2006-07-20

Similar Documents

Publication Publication Date Title
KR100888962B1 (ko) 영상 신호의 인코딩 및 디코딩 방법
KR101053628B1 (ko) 영상 신호의 스케일러블 인코딩 및 디코딩 방법
KR100888963B1 (ko) 영상 신호의 스케일러블 인코딩 및 디코딩 방법
KR20060088461A (ko) 영상신호의 엔코딩/디코딩시에 영상블록을 위한 모션벡터를베이스 레이어 픽처의 모션벡터로부터 유도하는 방법 및장치
US8948243B2 (en) Image encoding device, image decoding device, image encoding method, and image decoding method
KR20060109249A (ko) 영상신호의 엔코딩/디코딩시에 베이스 레이어 픽처의모션벡터를 사용하여 영상블록을 위한 모션벡터를 예측하는방법 및 장치
US20060062299A1 (en) Method and device for encoding/decoding video signals using temporal and spatial correlations between macroblocks
US20110235714A1 (en) Method and device for encoding/decoding video signals using base layer
KR20060105409A (ko) 영상 신호의 스케일러블 인코딩 및 디코딩 방법
KR20060063613A (ko) 영상 신호의 스케일러블 인코딩 및 디코딩 방법
KR20060043051A (ko) 영상 신호의 인코딩 및 디코딩 방법
KR20060070400A (ko) 영상 신호의 인코딩 및 디코딩 방법
US20170054977A1 (en) Video decoding method and apparatus using the same
KR20060043118A (ko) 영상 신호의 인코딩 및 디코딩 방법
KR20060059774A (ko) 시간적 분해레벨이 다른 픽처의 모션벡터를 이용하는영상신호의 엔코딩/디코딩 방법 및 장치
KR20060069227A (ko) 영상신호의 엔코딩/디코딩시에 영상블록을 위한 모션벡터를베이스 레이어 픽처의 모션벡터로부터 유도하는 방법 및장치
KR20060101847A (ko) 영상 신호의 스케일러블 인코딩 및 디코딩 방법
KR20060043050A (ko) 영상 신호의 인코딩 및 디코딩 방법
CN117616751A (zh) 动态图像组的视频编解码
KR20060063604A (ko) 영상 신호의 인코딩 및 디코딩 방법
KR102020953B1 (ko) 카메라 영상의 복호화 정보 기반 영상 재 부호화 방법 및 이를 이용한 영상 재부호화 시스템
KR20060059773A (ko) 베이스 레이어 픽처의 벡터를 이용하는 영상신호의엔코딩/디코딩 방법 및 장치
KR101102393B1 (ko) 에러 파급을 방지하는 영상신호의 엔코딩 및 디코딩 방법과장치
US20060133499A1 (en) Method and apparatus for encoding video signal using previous picture already converted into H picture as reference picture of current picture and method and apparatus for decoding such encoded video signal
KR20060043120A (ko) 영상 신호의 인코딩 및 디코딩 방법

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid