KR100678909B1 - 인코더-디코더 간 불일치를 감소시키는 mctf 기반의비디오 코딩 방법 및 장치 - Google Patents

인코더-디코더 간 불일치를 감소시키는 mctf 기반의비디오 코딩 방법 및 장치 Download PDF

Info

Publication number
KR100678909B1
KR100678909B1 KR1020050088921A KR20050088921A KR100678909B1 KR 100678909 B1 KR100678909 B1 KR 100678909B1 KR 1020050088921 A KR1020050088921 A KR 1020050088921A KR 20050088921 A KR20050088921 A KR 20050088921A KR 100678909 B1 KR100678909 B1 KR 100678909B1
Authority
KR
South Korea
Prior art keywords
frequency frame
frame
low frequency
high frequency
inverse
Prior art date
Application number
KR1020050088921A
Other languages
English (en)
Other versions
KR20070011034A (ko
Inventor
한우진
이배근
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2006/002806 priority Critical patent/WO2007027012A1/en
Priority to EP06823594A priority patent/EP1905238A4/en
Priority to US11/487,980 priority patent/US20070014356A1/en
Publication of KR20070011034A publication Critical patent/KR20070011034A/ko
Application granted granted Critical
Publication of KR100678909B1 publication Critical patent/KR100678909B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]

Abstract

모션 보상 시간적 필터링에 있어 인코더-디코더 간 불일치를 감소시키는 방법, 이를 이용한 비디오 코딩 방법 및 장치가 제공된다.
상기 비디오 코딩 방법은, 입력 프레임을 모션 보상 시간적 필터링(motion compensated temporal filtering)하여 하나의 최종 저주파 프레임과 적어도 하나 이상의 고주파 프레임으로 분해하는 단계와, (b) 상기 최종 저주파 프레임을 부호화한 후 복호화하는 단계와, 상기 복호화된 최종 저주파 프레임을 이용하여 상기 고주파 프레임을 재추정하는 단계와, 상기 재추정된 고주파 프레임을 부호화하는 단계를 포함한다.
스케일러블 비디오 코딩, MCTF, 업데이트 스텝, 예측 스텝, 불일치

Description

인코더-디코더 간 불일치를 감소시키는 MCTF 기반의 비디오 코딩 방법 및 장치{Video coding method and apparatus for reducing mismatch between encoder and decoder}
도 1은 종래의 MCTF 과정을 보여주는 도면.
도 2는 예측 스텝과 업데이트 스텝을 세부적으로 나타내는 도면.
도 3은 본 발명의 제1 실시예에 따른 MCTF 과정을 설명하는 도면.
도 4는 본 발명의 제1 실시예에 따른 재추정 과정을 설명하는 도면
도 5는 본 발명의 제1 실시예에 따른 역 MCTF 과정을 설명하는 도면.
도 6은 본 발명의 제2 실시예에 따른 재추정 과정을 설명하는 도면.
도 7은 본 발명의 제2 실시예에 따른 역 MCTF 과정을 설명하는 도면.
도 8은 본 발명의 제3 실시예에 따른 역 MCTF 과정을 설명하는 도면.
도 9는 본 발명의 일 실시예에 따른 비디오 인코더의 구성을 도시한 블록도
도 10은 본 발명의 일 실시예에 따른 비디오 디코더의 구성을 도시한 블록도
도 11은 도 9의 비디오 인코더 및 도 10의 비디오 디코더의 동작을 수행하기 위한 시스템의 구성도.
(도면의 주요부분에 대한 부호 설명)
100 : 비디오 인코더 110 : MCTF 모듈
120 : 변환부 130 : 양자화부
140 : 엔트로피 부호화부 150, 220 : 역 양자화부
160, 230 : 역 변환부 170, 250 : 역 예측부
180 : 프레임 재추정부 190, 240 : 역 업데이트부
199 : 재추정부 200 : 비디오 디코더
210 : 엔트로피 복호화부 245 : 역 MCTF 모듈
본 발명은 비디오 코딩 기술에 관한 것으로, 보다 상세하게는 모션 보상 시간적 필터링(motion compensated temporal filtering)에 있어 인코더-디코더 간 불일치(mismatch)를 감소시키는 방법, 이를 이용한 비디오 코딩 방법 및 장치에 관한 것이다.
인터넷을 포함한 정보통신 기술이 발달함에 따라 문자, 음성뿐만 아니라 화상통신이 증가하고 있다. 기존의 문자 위주의 통신 방식으로는 소비자의 다양한 욕구를 충족시키기에는 부족하며, 이에 따라 문자, 영상, 음악 등 다양한 형태의 정보를 수용할 수 있는 멀티미디어 서비스가 증가하고 있다. 멀티미디어 데이터는 그 양이 방대하여 대용량의 저장매체를 필요로 하며 전송시에 넓은 대역폭을 필요로 한다. 따라서 문자, 영상, 오디오를 포함한 멀티미디어 데이터를 전송하기 위해서는 압축코딩기법을 사용하는 것이 필수적이다.
데이터를 압축하는 기본적인 원리는 데이터의 중복(redundancy) 요소를 제거하는 과정이다. 이미지에서 동일한 색이나 객체가 반복되는 것과 같은 공간적 중복이나, 동영상 프레임에서 인접 프레임이 거의 변화가 없는 경우나 오디오에서 같은 음이 계속 반복되는 것과 같은 시간적 중복, 또는 인간의 시각 및 지각 능력이 높은 주파수에 둔감한 것을 고려하여 지각적 중복을 제거함으로써 데이터를 압축할 수 있다. 일반적인 비디오 코딩 방법에 있어서, 시간적 중복은 모션 보상에 근거한 시간적 필터링(temporal filtering)에 의해 제거하고, 공간적 중복은 공간적 변환(spatial transform)에 의해 제거한다.
데이터의 중복을 제거한 후 생성되는 멀티미디어를 전송하기 위해서는, 전송매체가 필요한데 그 성능은 전송매체 별로 차이가 있다. 현재 사용되는 전송매체는 초당 수십 메가 비트의 데이터를 전송할 수 있는 초고속통신망부터 초당 384 kbit의 전송속도를 갖는 이동통신망 등과 같이 다양한 전송속도를 갖는다. 이와 같은 환경에서, 다양한 속도의 전송매체를 지원하기 위하여 또는 전송환경에 따라 이에 적합한 전송률로 멀티미디어를 전송할 수 있도록 하는, 즉 스케일러블 비디오 코딩(scalable video coding) 방법이 멀티미디어 환경에 보다 적합하다 할 수 있다.
이러한 스케일러블 비디오 코딩이란, 이미 압축된 비트스트림(bit-stream)에 대하여 전송 비트율, 전송 에러율, 시스템 자원 등의 주변 조건에 따라 상기 비트스트림의 일부를 잘라내어 비디오의 해상도, 프레임율, 및 SNR(Signal-to-Noise Ratio) 등을 조절할 수 있게 해주는 부호화 방식을 의미한다.
MCTF 기술은 H.264 SE(scalable extension)등 시간적 스케일러빌리티를 지원 하는 스케일러블 비디오 코딩 방법에서 널리 사용되는 기술이다. 특히 좌우 인접 프레임을 모두 사용하는 5/3 MCTF는 압축 효율이 높을 뿐만 아니라 시간적 스케일러빌리티, SNR(Signal-to-Noise Ratio) 스케일러빌리티 등에 적합한 구조를 가지고 있어 현재 MPEG에서 표준화 중인 H.264 SE의 작업 초안에서도 채택되어 있다.
도 1은 하나의 GOP(group of pictures)에 대해, 예측 스텝(prediction step)과 업데이트 스텝(update step)을 순차적으로 수행하는 5/3 MCTF(Motion Compensated Temporal Filtering) 구조를 보여준다.
도 1에서 보는 바와 같이, MCTF 구조는 각 시간적 레벨 순서에 따라서 예측 스텝과 업데이트 스텝이 반복 수행된다. 예측 스텝에 의하여 생성되는 프레임을 고주파 프레임(H로 표시함)이라고 하고, 업데이트 스텝에 의하여 생성되는 프레임을 저주파 프레임(L로 표시함)이라고 한다. 상기 예측 스텝과 업데이트 스텝은 최종적으로 하나의 저주파 프레임(L)이 생성될 때까지 반복된다.
도 2는 예측 스텝과 업데이트 스텝을 세부적으로 나타내는 도면이다. 여기서, 아래 첨자, t 및 t+1은 각각 시간적 레벨 t 및 시간적 레벨 t+1을 나타내고, 위 첨자는 시간적 순서(temporal order)를 나타낸다. 그리고, a, b는 각각 예측 스텝 또는 업데이트 스텝에서 각 프레임의 가중 비율(weight ratio)을 나타낸다.
예측 스텝에서, 고주파 프레임 Ht + 1 0는 현재 프레임(Lt 0)과 좌우 인접 참조 프레임(Lt -1, Lt 1)으로부터 예측된 프레임과의 차분으로부터 구해진다. 업데이트 스텝 에서는, 예측 스텝에서 생성된 Ht + 1 0를 이용하여 이전 단계의 예측 스텝에서 사용된 좌우 인접 참조 프레임(Lt -1, Lt 1)이 변경된다. 이 과정은 고주파 성분, 즉 Ht + 1 0를 참조 프레임에서 제거하는 과정으로서, 일종의 저주파 필터링과 유사하다. 이렇게 변경된 프레임(Lt +1 -1, Lt +1 1)에는 고주파 성분이 제거되어 있으므로 코딩 성능이 향상될 수 있다.
상기 MCTF 기술에서는 GOP 내의 각 프레임들을 시간적 레벨 별로 배치하고, 각 시간적 레벨마다 예측 스텝을 수행하여 하나의 H 프레임(고주파 프레임)을 생성해 내고, 상기 예측 스텝에서 사용된 두 개의 참조 프레임들을 상기 H 프레임에 의해 변경시킨다(업데이트 스텝). 이 과정을 한 시간적 레벨 내의 N개 프레임에 대해 수행하면 N/2개의 H 프레임과 N/2개의 L(저주파) 프레임을 얻는다. 결국, 이 과정을 최후 한 개의 L 프레임(저주파 프레임을 의미함)이 남을 때까지 수행하면, 한 GOP 내의 프레임들의 수를 M이라고 할 때 M-1개의 H 프레임과 1개의 L 프레임이 남게 되는데, 이후 이들 프레임들을 양자화함으로써 MCTF 과정이 마무리된다.
좀더 구체적으로 보면, 예측 스텝에서는 도 2와 같이 좌우 인접 프레임에 대해 모션 추정을 수행하여 최적 블록을 구하고, 이 블록들에 의해 최적 예측 블록을 생성한다. 이 블록과, 오리지널 프레임의 블록간의 차이를 구하면 H 프레임에 포함되는 블록들을 얻을 수 있다. 도 2에서는 양방향 예측을 나타내고 있으므로, 상수 a는 -1/2이 되지만, 경우에 따라서는 왼쪽 참조 프레임, 혹은 오른쪽 참조 프레임 만 사용하는 단방향 예측이 이용될 수 있고 이 경우에는 a는 -1이 될 수도 있다.
업데이트 스텝은 예측 스텝에 의해 얻은 차분 영상 즉, H 프레임의 값을 이용하여, 좌우 참조 프레임의 고주파 성분을 제거하는 역할을 한다. 도 2와 같이, Lt -1과 Lt 1은 업데이트 스텝을 거치고 나면 고주파 성분이 제거된 Lt +1 -1과 Lt +1 1로 변경되게 된다.
이상과 같은 구조를 갖는 MCTF가 MPEG-4나 H.264 등 기존의 압축 방식과 가장 크게 다른 점 중의 하나는 개루프(open loop) 구조의 코덱 형태를 갖는다는 점과, 그에 따라 드리프트 에러(drift error)를 감소시키기 위하여 업데이트 스텝을 채용하고 있다는 점이다. 개루프 구조란 차분 영상(고주파 프레임)을 구함에 있어 사용하는 양자화되지 않은 상태의 좌우 참조 프레임을 이용하는 것을 의미한다. 기존의 비디오 코덱은 선행 참조 프레임을 미리 부호화(양자화 과정을 포함함)하고 복원한 후 그 결과를 사용하는 구조, 즉 폐루프(closed loop) 구조를 주로 사용하였다.
이러한 MCTF 기반의 개루프 코덱은 SNR 스케일러빌리티를 적용하는 상황, 즉 인코더 측에서 사용하는 참조 프레임과 디코더 측에서 사용하는 참조 프레임의 화질에 차이가 발생할 수 있는 상황에서는, 그 성능이 폐루프 구조에 비해서 우월한 것으로 알려져 있다. 그러나, 개루프 구조에서는 인코더 측에서 사용하는 참조 프레임과 디코더 측에서 사용하는 참조 프레임이 일치하지 않으므로 에러가 누적되는 현상, 즉 드리프트 에러(drift error)가 폐루프에 비해 심하게 발생하는 문제를 해 소하기 어렵다. 이를 보완하기 위해, MCTF는 업데이트 스텝을 사용하여 다음 시간적 레벨의 L 프레임으로부터 차분 영상이 갖는 고주파 성분을 제거함으로써 압축 효율을 높일 뿐만 아니라, 개루프 구조가 갖는 에러 누적 효과(즉, 드리프트)를 줄일 수 있는 구조로 되어 있다. 그러나, 업데이트 스텝을 사용하여 드리프트를 감소시킬 수 있다고는 하지만 폐루프에 비교할 때 인코더와 디코더간 불일치(mismatch)를 근본적으로 제거할 수는 없으므로 이로 인한 성능 저하는 다소 불가피한 측면이 있다.
MCTF 기반의 코덱은 인코더와 디코더간에서 크게 두 가지 형태의 불일치가 존재한다. 첫 번째는 예측 스텝에서의 불일치다. 도 2의 예측 스텝을 보면, H 프레임을 만들기 위해서 좌우 참조 프레임을 사용하는데, 이 좌우 참조 프레임이 아직 양자화되지 않은 상태이므로, 여기에서 만들어진H 프레임은 디코더 측면에서는 최적 신호라고 볼 수 없다. 그러나, 좌우 참조 프레임은 업데이트 스텝에 의해서 변경되며 이후 시간적 레벨에서 H 프레임으로 바뀌어야만 양자화 될 수 있으므로 MCTF 구조에서는 폐루프와 같이 참조 프레임을 미리 양자화해 둔다는 것은 생각하기 어렵다.
두 번째는 업데이트 스텝에서의 불일치다. 도 2의 업데이트 스텝을 보면 좌우 참조 프레임 Lt -1과 Lt 1을 변경시키기 위해서 고주파 프레임 Ht + 1 0를 사용하는데, 이 고주파 프레임은 아직 양자화되어 있지 않은 상태이므로 역시 이 경우에도 디코더와의 불일치가 발생하게 된다.
본 발명이 이루고자 하는 기술적 과제는, MCTF 기반의 비디오 코덱에 있어서 인코더-디코더 간의 드리프트 에러를 감소시킴으로써 전체적인 비디오 압축 효율을 향상시키는 방법 및 장치를 제공하고자 하는 것이다.
본 발명이 이루고자 하는 다른 기술적 과제는, MCTF 기반의 비디오 코덱에 있어서 고주파 프레임을 효율적으로 재추정하는 방법 및 장치를 제공하고자 하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른 비디오 인코딩 방법은, (a) 입력 프레임을 모션 보상 시간적 필터링(motion compensated temporal filtering)하여 하나의 최종 저주파 프레임과 적어도 하나 이상의 고주파 프레임으로 분해하는 단계; (b) 상기 최종 저주파 프레임을 부호화한 후 복호화하는 단계; (c) 상기 복호화된 최종 저주파 프레임을 이용하여 상기 고주파 프레임을 재추정하는 단계; 및 (d) 상기 재추정된 고주파 프레임을 부호화하는 단계를 포함한다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른 비디오 디코딩 방법은, (a) 입력 비트스트림에 포함되는 텍스쳐 데이터로부터 최종 저주파 프 레임 및 적어도 하나 이상의 고주파 프레임을 복원하는 단계와, (b) 상기 최종 저주파 프레임 및 상기 고주파 프레임으로부터 최하위 시간적 레벨의 저주파 프레임들을 복원하는 단계를 포함하며, 상기 (b) 단계는 (b1) 소정 시간적 레벨의 제1 저주파 프레임을 참조 프레임으로 하여 상기 고주파 프레임을 역 예측함으로써 상기 고주파 프레임에 대응되는 제2 저주파 프레임을 복원하는 단계; 및 (b2) 상기 복호화된 고주파 프레임에 의하여 상기 제1 저주파 프레임을 역 업데이트하는 단계를 포함한다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른 비디오 인코더는, 입력 프레임을 모션 보상 시간적 필터링(motion compensated temporal filtering)하여 하나의 최종 저주파 프레임과 적어도 하나 이상의 고주파 프레임으로 분해하는 수단; 상기 최종 저주파 프레임을 부호화한 후 복호화하는 수단; 상기 복호화된 최종 저주파 프레임을 이용하여 상기 고주파 프레임을 재추정하는 수단; 및 상기 재추정된 고주파 프레임을 부호화하는 수단을 포함한다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른 비디오 디코더는, 입력 비트스트림에 포함되는 텍스쳐 데이터로부터 최종 저주파 프레임 및 적어도 하나 이상의 고주파 프레임을 복원하는 제1 수단과, 상기 최종 저주파 프레임 및 상기 고주파 프레임으로부터 최하위 시간적 레벨의 저주파 프레임들을 복원하는 제2 수단을 포함하며, 상기 제2 수단은, 소정 시간적 레벨의 제1 저주파 프레임을 참조 프레임으로 하여 상기 고주파 프레임을 역 예측함으로써 상기 고주파 프레임에 대응되는 제2 저주파 프레임을 복원하는 수단; 및 상기 복호화된 고주파 프레임 에 의하여 상기 제1 저주파 프레임을 역 업데이트하는 수단을 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하 첨부된 도면들을 참조하여 본 발명의 일 실시예를 상세히 설명한다.
본 발명에서는 예측 스텝에서의 불일치를 해결하기 위해, MCTF가 끝난 후 부호화/복호화 과정을 포함하여H 프레임을 재계산하는 과정(이하, "프레임 재추정(frame re-estimation)" 이라고 함)을 제안하고자 한다. 이하, 본 발명은 크게3개의 실시예로 나누어 설명할 것인데, 각 실시예 별로 MCTF 과정, 재추정 과정, 및 역 MCTF 과정을 포함한다. 상기 MCTF 과정 및 재추정 과정은 비디오 인코더 단에서 수행되는 과정이고, 상기 역 MCTF 과정은 비디오 디코더 단에서 수행되는 과정이다.
제1 실시예
도 3은 본 발명의 제1 실시예에 따른 5/3 MCTF 과정을 설명하는 도면이다. 제1실시예에는 종래의 MCTF 기법을 그대로 이용할 수 있다. 일반적인 MCTF 과정은 리프팅 스킴(lifting scheme)에 따라서 수행되는데, 상기 리프팅 스킴은 예측 스텝과 업데이트 스텝으로 이루어진다. 리프팅 스킴은 입력 프레임을 저주파 필터링 될 프레임(이하 L 위치의 프레임이라고 함)과, 고주파 필터링 될 프레임(이하, H 위치의 프레임이라고 함)으로 분리한 후, 먼저 H 위치의 프레임에 대하여 주변 프레임을 참조하여 예측 스텝을 적용함으로써 H 프레임을 생성한다. 그리고, 생성된 H 위치의 프레임을 이용하여 L 위치의 프레임에 업데이트 스텝을 적용함으로써 L 프레임을 생성한다.
이하, 본 명세서에서, 아래 첨자는 시간적 레벨을 나타내고, 괄호 안의 숫자는 어떤 시간적 레벨에서H 프레임과 L 프레임에 각각 부여되는 인덱스를 나타내는 것으로 한다. 예를 들면, 도 3의 시간적 레벨 0에서는 네 개의 L 프레임 L0(1), L0(2), L0(3), L0(4)가 존재하고, 그 다음 시간적 레벨 1에서는 두 개의 H 프레임 H1(1) 및 H1(2)와, 두 개의 L 프레임 L1(1) 및 L1(2)가 존재한다. 프레임의 시간적 순서(temporal order)로 볼 때에는 L0(1), L0(2), L0(3), 및 L0(4)는 각각 H1(1), L1(1), H1(2), 및 L1(2)와 각각 대응된다.
다음의 수학식 1은 예측 스텝 및 업데이트 스텝을 수식으로 표현한 것이다.
Figure 112005053377105-pat00001
여기서, Lt()는 시간적 레벨 t에서 생성되는 L 프레임을 의미한다. 다만, t=0인 경우의 Lt(), 즉 L0()는 원래의 입력 프레임을 의미한다. 또한, Ht + 1()는 시간적 레벨 t+1에서 생성되는 H 프레임을, Lt + 1()는 시간적 레벨 t+1에서 생성되는 L 프레임을 각각 의미하며, 괄호 안의 상수는 인덱스를 의미한다. 만약, 상기 MCTF 과정에서 Haar 필터가 사용된다면, 상기 수학식 1에서의 P, U는 다음의 수학식 2와 같이 각각 표시될 수도 있다.
Figure 112005053377105-pat00002
한편, 상기 MCTF 과정에서 5/3 필터(양방향 참조 가능)가 사용된다면, 상기 수학식 1에서의 P, U는 다음의 수학식 3과 같이 각각 표시될 수 있다.
Figure 112005053377105-pat00003
이와 같은 예측 스텝 및 업데이트 스텝은 최종적으로 하나의 L 프레임이 남을 때까지 반복하여 수행되며, 도 3과 같은 경우라면 결국 하나의 L 프레임(L2(1))과 세 개의 H 프레임(H1(1), H1(2), H2(1))이 생성되게 된다.
도 4는 본 발명의 제1 실시예에 따른 재추정 과정을 설명하는 도면이다.
먼저, 최종 L 프레임(L2(1))을 부호화한 후 복호화한다. 상기 부호화에는 변환 과정 및 양자화 과정이 포함될 수 있으며, 상기 복호화에는 역 영자화 과정 및 역 변환 과정이 포함될 수 있다. 이하 본 명세서에서는 부호화 과정 및 복호화 과정을 포괄하여 "복원 과정"이라고 표현한다. 복원된 최종 L 프레임은 L2'(1)라고 표시되는데, 이하 본 명세서에서 프라임(') 표시는 모두 복원 과정을 거친 프레임임을 나타낸다. L2'(1)를 이용하여 H2(1)를 재추정하기 위해서는 전술한 MCTF 과정에서의 중간 산물인 프레임 L1(1)가 필요하다. 물론, L1(1) 대신에 오리지널 프레임인 L0(2)를 이용할 수도 있다.
그 다음, L1(1)에 대한 고주파 프레임(H2(1))을 L2'(1)를 참조 프레임으로 하여 재추정한다. 물론, 상기 참조 프레임은 도 4에서도 표시된 바와 같이 이전 GOP의 프레임도 더 포함할 수 있다. 이전 GOP의 기 복원된 프레임도 현재 GOP의 재추정에 사용될 수 있다. 어떤 H 프레임이나 L 프레임의 괄호 안의 인덱스가 마이너스 부호를 갖는다면 그것은 이전 GOP의 프레임임을 나타내는 것이다.
상기와 같이 재추정된 프레임은 R2(1)로 표시된다. 이와 같은 재추정 스텝은 본 과정에 이용되는 참조 프레임이 복원된 것인가 여부에 차이가 있을 뿐, 그 계산 과정은 기존의 MCTF 과정 중의 예측 스텝과 동일하다. 따라서, R2(1)을 포함한 일반화된 재추정 프레임 Rt + 1(k)는 다음의 수학식 4와 같이 표현될 수 있다. 여기서 P'는 5/3 필터의 경우
Figure 112005053377105-pat00004
이다.
Figure 112005053377105-pat00005
그 다음, 상기 재추정 프레임 R2(1)를 부호화한 후 복호화하여 R2'(1)를 생성한다. 그리고, 상기 R2'(1)를 이용하여 L2'(1)를 역 업데이트 한다. 상기 역 업데이트 결과 L'1(2)가 생성된다. 상기 역 업데이트 스텝은 MCTF 과정 중 업데이트 스텝의 역 과정으로 수행된다. 역 업데이트 과정을 수식으로 나타내면 수학식 1의 두 번째 식을 변형하여 수학식 5와 같이 표시될 수 있다. 여기서 U'는 5/3 필터의 경우
Figure 112005053377105-pat00006
이다.
Figure 112005053377105-pat00007
그 다음, 상기 R2'(1)는 L1'(2) 및 L1'(0)(이전 GOP의 프레임임, 미도시됨)를 참조 프레임으로 하여 역 예측됨으로써 L1'(1)이 생성된다. 이러한 역 예측 스텝은 다음의 수학식 6과 같이 표시될 수 있다. 여기서, P'는 5/3필터의 경우
Figure 112005053377105-pat00008
이다.
Figure 112005053377105-pat00009
이제, 상기 생성된 L1'(1) 및 L1'(2)를 이용하여 L0(3)에 대한 고주파 프레임을 재추정함으로써 R1(2)을 생성할 수 있고, 상기 생성된 L1'(1) 및 L1'(0)(이전 GOP의 프레임임, 미도시됨)를 이용하여 L0(1)에 대한 고주파 프레임을 재추정함으로써 R1(1)을 생성할 수 있다.
이상 도 4에서는 하나의 GOP의 크기가 4인 경우를 예로 든 것이지만, 하나의 GOP가 더 많은 수의 프레임들로 구성된다면 그 수에 따라서 상술한 스텝이 좀더 반복될 필요가 있다는 것은 당업자라면 충분히 이해할 수 있을 것이다.
비디오 인코더는 상기 재추정된 프레임들 R1(1), R1(2), R2(1) 및 최종 저주파 프레임 L2(1)을 양자화하여 비디오 디코더로 전달하면, 비디오 디코더는 상기 전달된 데이터를 역 양자화한 후 상기 역 MCTF 과정을 수행함으로써 시간적 레벨 0에서의 저주파 프레임들을 복원한다. 이하에서는 도 5를 참조하여 비디오 디코더 단에서 수행되는 상기 역 MCTF 과정의 일 예를 설명한다.
상기 역 MCTF 과정은 비디오 디코더 단에서 수행된다. 본 발명의 제1 실시예에 있어서 상기 역 MCTF 과정은 종래의 역 MCTF 과정에서 고주파 프레임 대신에 재추정된 프레임을 사용한다는 것을 제외하고는 동일하다.
먼저, 복원된 재추정 프레임(R2'(1))을 이용하여 최종 저주파 프레임(L2'(1))을 역 업데이트 한다(역 업데이트 스텝 1). 그 결과 L1'(2)가 생성된다. 그 다음, 역 업데이트 되어 생성되는 L1'(2) 및 L1'(0)(이전 GOP의 프레임임, 미도시됨)을 참조 프레임으로 하여 상기 재추정 프레임(R2'(1))을 역 예측하여 저주파 프레임(L1'(1))을 복원한다(역 예측 스텝 1).
이와 마찬가지로 역 업데이트 스텝 2 및 역 예측 스텝 2를 거치게 되면, 최종적으로 시간적 레벨 0에서의 4개의 저주파 프레임(L0'(1), L0'(2), L0'(3), L0'(4))이 복원된다.
이상의 제1 실시예에서, 예측 스텝 및 업데이트 스텝을 포함하는 MCTF 기술에 폐루프를 적용하기 위하여 프레임 재추정 기법을 사용하였다. 이와 같이, 기존의 개루프 형식의 MCTF를 폐루프 형식으로 개선함으로써 인코더 및 디코더 간의 불일치를 감소시킨다.
제1 실시예에 따른 인코더에서의 재추정 과정과 디코더에서의 역 MCTF 과정을 비교해 보면, 양자 모두 역 업데이트 스텝과 역 예측 스텝을 순차적으로 수행하는 것을 알 수 있다. 그런데, 문제는 원래 개루프 코덱을 대상으로 개발된 업데이 트 스텝이 폐루프 예측과 함께 쓰이면서 또 다른 불일치를 발생시킨다는 데 있다.
도 4의 재추정 과정을 살펴 보면, 재추정 프레임 R2(1)을 생성함에 있어서 참조 프레임으로 L2'(1)이 사용된다. 그러나 이후 R2'(1)로부터 L'1(1)을 역 예측하는 데 사용되는 참조 프레임은 L2'(1)이 아니라 그로부터 역 업데이트된 L'1(2)임을 알 수 있다. 이는 도 5의 역 MCTF 과정에서도 마찬가지이다. 도 5에서 보면, R2'(1)로부터 L1'(1)를 역 예측하는 데 역시 역 업데이트된 L1'(2)가 사용되고 있다. 결론적으로 볼 때, 저주파 프레임 L1(1)으로부터 R2(1)을 예측하는 데에는 참조 프레임으로 L2'(1)이 사용되고, R2'(1)로부터 L1'(1)을 복원하는 데에는 참조 프레임으로 L1'(2)가 사용되고 있다.
제1 실시예가 폐루프 형태를 가짐으로써 기존의 개루프 기반의 MCTF에 비하여 드리프트 에러를 감소시키는 데에는 유용하기는 하지만, 이와 같이 MCTF 과정에서는 예측 스텝 후 업데이트 스텝 순서를, 역 MCTF 과정에서는 역 업데이트 스텝 후 역 예측 스텝 순서를 유지함으로써 상기와 같은 또 다른 불일치가 발생될 수 있다.
제2 실시예
본 발명의 제2 실시예는 본 발명의 제1 실시예에서 발생되는 불일치의 문제를 제거하기 위하여 고안되었다.
먼저, 도 3과 같은 기존의 MCTF 과정을 수행하여 적어도 하나 이상의 고주파 프레임(H1(1), H1(2), H2(1)) 및 하나의 최종 저주파 프레임(L2(1))을 생성한다. 그리고, 상기 최종 저주파 프레임(L2(1))을 부호화한 후 복호화한다.
그 다음, 상기 복호화된 최종 저주파 프레임(L2'(1))을 이용하여 수행되는 재추정 과정은 도 6과 같이 도시될 수 있다.
먼저, L1(1)에 대한 고주파 프레임(H2(1))을 L2'(1)를 참조 프레임으로 하여 재추정한다. 물론, 상기 참조 프레임은 도 6에서도 표시된 바와 같이 이전 GOP의 프레임도 더 포함할 수 있다. 이전 GOP의 기 복원된 프레임도 현재 GOP의 재추정에 사용될 수 있다. 상기와 같이 재추정된 프레임은 R2(1)로 표시된다. 이러한 재추정 스텝은 상기 예시한 수학식 4에 따라서 이루어질 수 있다.
상기 재추정 프레임 R2(1)를 부호화한 후 복호화하여 R2'(1)를 생성한다. 그리고, 상기 L2'(1)을 참조 프레임으로 하여 상기 재추정 프레임 R2'(1)을 역 예측하여 저주파 프레임 L1'(1)을 생성한다. 상기 역 예측 스텝은 상기 예시한 수학식 6에 따라서 수행될 수 있다. 그 다음, 상기 R2'(1)에 의하여 상기 L2'(1)을 역 업데이트 하여 L1'(2)를 생성한다. 상기 역 업데이트 스텝은 상기 예시한 수학식 5에 따라서 수행될 수 있다.
그런데, 상기 L1'(1)을 생성하는 스텝과, 상기 L1'(2)를 생성하는 스텝을 살펴 보면, 양 스텝은 서로 독립적인 구조로 되어 있다. 즉, 한 스텝 수행 결과를 다 른 스텝에서 이용하는 것이 아니다. 따라서 상기 양 스텝은 반대로 수행되어도 좋다. 다만, 이를 위해서는 상기 역 업데이트 되기 전의 프레임 최종 저주파 프레임 L2'(1)이 버퍼에 저장이 되어 있어야 할 것이다.
어쨌든, 제1 실시예와 제2 실시예의 차이점은 재추정 프레임을 역 예측하여 저주파 프레임을 생성할 때, 사용되는 참조 프레임이 역 업데이트된 프레임이 아니고, 역 업데이트 되기 전의 프레임이라는 점이다.
이제, 상기 생성된 L1'(1) 및 L1'(2)를 이용하여 L0(3)에 대한 고주파 프레임을 재추정함으로써 R1(2)을 생성할 수 있고, 상기 생성된 L1'(1) 및 L1'(0)(이전 GOP의 프레임임, 미도시됨)를 이용하여 L0(1)에 대한 고주파 프레임을 재추정함으로써 R1(1)을 생성할 수 있다. 물론, 하나의 GOP가 더 많은 수의 프레임들로 구성된다면 그 수에 따라서 이와 같은 과정이 좀더 반복될 필요가 있을 것이다.
비디오 인코더 단에서 수행되는 상기 MCTF 과정 및 재추정 과정에 대응되는 역 MCTF 과정은 비디오 디코더 단에서 수행된다. 본 발명의 제2 실시예에 있어서 상기 역 MCTF 과정도 상기 재추정 과정에서와 마찬가지로, 재추정 프레임을 역 예측하여 저주파 프레임을 생성할 때, 역 업데이트 되기 전의 프레임을 참조 프레임으로 사용한다.
도 7을 참조하여 구체적으로 그 과정을 살펴 보면, 최종 저주파 프레임 L2'(2) 및 L2'(0)(이전 GOP의 프레임임, 미도시됨)를 참조 프레임으로 하여 상기 재 추정 프레임(R2'(1))을 역 예측함으로써 저주파 프레임 L1'(1)을 복원한다(역 예측 스텝 1). 그 다음, 상기 재추정 프레임(R2'(1))을 이용하여 상기 최종 저주파 프레임 L2'(2)을 역 업데이트 한다(역 업데이트 스텝 1). 그 결과 L1'(2)가 생성된다.
그런데, 상기 L1'(1)을 생성하는 스텝과, 상기 L1'(2)를 생성하는 스텝을 살펴 보면, 양 스텝은 서로 독립적인 구조로 되어 있다. 즉, 한 스텝 수행 결과를 다른 스텝에서 이용하는 것이 아니다. 따라서 상기 양 스텝은 반대로 수행되어도 좋다.
이와 마찬가지로 역 예측 스텝 2 및 역 업데이트 스텝 2를 거치게 되면, 시간적 레벨 0에서의 4개의 저주파 프레임(L0'(1), L0'(2), L0'(3), L0'(4))을 복원할 수 있다.
제3 실시예
업데이트 스텝은 시간적 스케일러빌리티(temporal scalability)를 지원하는 구조에서 성능 향상에 유용한 방법이기는 하지만, 추가적인 모션 보상(motion compensation) 과정이 필요하기 때문에 연산량이 크게 증가하는 단점이 있다. 종래의 MCTF와는 달리, 상기 제1 실시예 또는 제2 실시예에 있어서는, 폐루프 예측을 사용하기 때문에 역 업데이트 스텝의 유무에 관계없이 모든 고주파 프레임 내지 고주파 잔차(high-pass residual)가 불일치 없이 재계산된다. 따라서, 고주파 프레임이 존재하는 시간적 위치에 있는 프레임들에 대한 역 업데이트 스텝을 생략하더라 도 성능에 큰 영향을 주지 않는다.
따라서, 본 발명의 제3 실시예에서는, 인코더 단에서의 MCTF 과정은 종래와 동일하게 모든 저주파 프레임에 대하여 업데이트 스텝을 수행하되, 재추정 과정 및 디코더 단에서의 역 MCTF 과정에서는, 고주파 프레임이 존재하는 시간적 위치에 있는 저주파 프레임에 대한 업데이트 스텝을 생략함으로써 연산량을 크게 줄일 수 있다.
기존에는 하나의 시간적 레벨에서 고주파 프레임의 수만큼 역 업데이트 스텝을 거쳐야 했었지만, 제3 실시예에 따르면, 시간적 레벨 당 하나의 저주파 프레임만 역 업데이트 스텝을 거치면 된다. 주목할 것은 제2 실시예에 이와 같은 특징을 적용하면 역시 폐루프 예측에 의한 불일치가 발생되지 않는 다는 점이다.
예를 들어, GOP 크기가 N인 경우, 종래의 MCTF에 따를 경우 역 업데이트 스텝을 모든 고주파 프레임의 수, 즉 N-1회 수행해야 하지만, 제3 실시예에 따르면 전체적으로 log2N 회 만큼만 수행하면 된다. 즉, N차의 복잡도를 갖는 연산을 log2N 차의 복잡도를 갖도록 개선하는 효과가 있다는 것이다. 이와 같은 개선이 가능한 것도, 근본적으로는 본 발명에서 제시한 프레임 재추정 기법에 기인한 것이라고 볼 수 있다.
일반적으로, 제3 실시예에 따라서 감소되는 역 업데이트 연산 회수(C)는 다음의 수학식 7과 같이 나타낼 수 있다.
C = N-1-log2N
도 8은 본 발명의 제3 실시예에 따른 역 MCTF 과정을 나타내는 도면이다. 도 8을 도 7과 비교해 보면, 고주파 프레임(R1'(1), R2'(1), R1'(2))이 존재하지 않는 시간적 위치에 있는 저주파 프레임 L2'(1), L1'(2)는 역 업데이트 되지만, 그 이외의 시간적 위치에 있는 저주파 프레임은 역 업데이트되지 않는다. 따라서, L1'(1)은 역 업데이트 되지 않고, 그대로 시간적 레벨 0에서의 저주파 프레임 L0'(2)이 된다. 도 8에서는 N=4인 경우 이어서 역 업데이트 연산 감소 회수(C)가 1에 불과하지만, N=32인 경우 상기 연산 감소 회수(C)는 26회나 된다.
상기 역 MCTF에서 GOP 중 마지막 시간적 위치에 있는 프레임에만 역 업데이트를 적용하는 기법은 도 6과 같은 재추정 과정에서도 마찬가지로 적용될 수 있다.
도 9는 본 발명의 일 실시예에 따른 비디오 인코더(100)의 구성을 도시한 블록도이다.
비디오 인코더(100)는 MCTF 부(110)와, 재추정부(199)와, 변환부(120)와, 양자화부(130)와, 역 양자화부(150)와, 역 변환부(160)와, 엔트로피 부호화부(140)를 포함하여 구성될 수 있다.
먼저, MCTF 부(110)에서 수행되는 동작에 대하여 설명한다. 입력 프레임은 L 프레임 버퍼(117)로 입력된다. 입력 프레임도 L 프레임(저주파 프레임)에 속하는 것으로 볼 수 있기 때문이다. L 프레임 버퍼(117)에 저장된 L 프레임은 분리부 (111)에 제공된다.
분리부(111)는 입력된 저주파 프레임을 고주파 프레임 위치(H 위치)의 프레임과, 저주파 프레임 위치(L 위치)의 프레임으로 분리한다. 일반적으로 고주파 프레임은 홀수 위치(2i-1)에, 저주파 프레임은 짝수 위치(2i)에 위치하게 된다. 여기서, i는 프레임 번호를 나타내는 정수 인덱스이다. 상기 H 위치의 프레임들은 예측 스텝을 통하여 H 프레임으로 변환되고, 상기 L 위치의 프레임들은 업데이트 스텝을 통하여 다음 시간적 레벨에서의 저주파 프레임으로 변환된다.
H 위치의 프레임은 모션 추정부(115), 및 차분기(118)로 입력된다.
모션 추정부(113)는 H 위치에 있는 프레임(이하 현재 프레임)에 대하여 주변 프레임(시간적으로 다른 위치에 있는 동일 시간적 레벨의 프레임)을 참조하여 모션 추정을 수행함으로써 모션 벡터(MV)를 구한다. 이와 같이 참조되는 주변 프레임을 '참조 프레임'이라고 한다.
일반적으로 이러한 모션 추정을 위해서 블록 매칭(block matching) 알고리즘이 널리 사용되고 있다. 즉, 주어진 블록을 참조 프레임의 특정 탐색영역 내에서 픽셀 또는 서브 픽셀(1/4픽셀 등) 단위로 움직이면서 그 에러가 최저가 되는 경우의 변위를 움직임 벡터로 추정하는 것이다. 모션 추정을 위하여 고정된 블록을 이용할 수도 있지만, 계층적 가변 사이즈 블록 매칭법(Hierarchical Variable Size Block Matching; HVSBM)에 의한 계층적인 방법을 사용할 수도 있다.
모션 추정부(115)에서 구한 모션 벡터(MV)는 모션 부상부(112)에 제공된다. 모션 보상부(112)는 상기 구한 모션 벡터(MV)를 이용하여 상기 참조 프레임을 모션 보상함으로써 상기 현재 프레임에 대한 예측 프레임을 생성한다. 상기 예측 프레임은 수학식 1의 P로 표시될 수 있다.
그리고, 차분기(118)는 상기 현재 프레임에서 상기 예측 프레임을 차분함으로써, 고주파 프레임(H 프레임)을 생성한다. 상기 생성된 고주파 프레임들은 H 프레임 버퍼(117)에 일시 저장된다.
한편, 업데이트부(116)는 상기 생성된 고주파 프레임을 이용하여 L 위치의 프레임들을 업데이트 하여 저주파 프레임을 생성한다. 만약, 5/3 MCTF의 경우에는, 어떤 L 위치의 프레임은 시간적으로 인접한 두 개의 고주파 프레임을 이용하여 업데이트 될 것이다. 만약, 상기 고주파 프레임을 생성하는 과정에서 단방향 참조(예를 들어, Haar MCTF를 사용하는 경우)가 이용되었다면, 마찬가지로 업데이트 과정도 단방향으로 이루어질 수 있다. 상기 업데이트 과정은 수학식 1의 두 번째 식과 같이 표현될 수 있다. 업데이트부(116)에서 생성된 저주파 프레임들은 프레임 버퍼(117)에 일시 저장된다. 프레임 버퍼(117)는 상기 생성된 저주파 프레임들을 다음 시간적 레벨에서의 예측 스텝 및 업데이트 스텝을 수행하기 위하여 분리부(111)에 제공한다.
그런데, 상기 생성된 저주파 프레임이 하나의 최종 저주파 프레임(Lf)인 경우에는 다음 시간적 레벨은 존재하지 않으므로, 상기 최종 저주파 프레임(Lf)은 변환부(120)에 제공된다.
한편, 변환부(120)는 상기 제공된 최종 저주파 프레임(Lf)에 대하여, 공간적 변환을 수행하고 변환 계수를 생성한다. 이러한 공간적 변환 방법으로는, DCT(Discrete Cosine Transform), 웨이브렛 변환(wavelet transform) 등이 사용될 수 있다. DCT를 사용하는 경우 상기 변환 계수는 DCT 계수가 될 것이고, 웨이브렛 변환을 사용하는 경우 상기 변환 계수는 웨이브렛 계수가 될 것이다.
양자화부(130)는 상기 변환 계수를 양자화(quantization) 한다. 상기 양자화(quantization)는 임의의 실수 값으로 표현되는 상기 변환 계수를 불연속적인 값(discrete value)으로 나타내는 과정을 의미한다. 예를 들어, 양자화부(130)는 임의의 실수 값으로 표현되는 상기 변환 계수를 소정의 양자화 스텝(quantization step)으로 나누고, 그 결과를 정수 값으로 반올림하는 방법으로 양자화를 수행할 수 있다(스칼라 양자화가 사용되는 경우). 상기 양자화 스텝은 미리 약속된 양자화 테이블로부터 제공될 수 있다.
양자화부(130)에 의하여 양자화된 결과, 즉 Lf에 대한 양자화 계수는 엔트로피 부호화부(140) 및 역 양자화부(150)에 제공된다.
역 양자화부(150)는 상기 Lf에 대한 양자화 계수를 역 양자화한다. 이러한 역 양자화 과정은 양자화 과정에서 사용된 것과 동일한 양자화 테이블을 이용하여 양자화 과정에서 생성된 인덱스로부터 그에 매칭되는 값을 복원하는 과정이다.
역 변환부(160)는 상기 역 양자화된 결과를 입력 받아 역 변환을 수행한다. 이러한 역 변환은 변환부(120)의 변환 과정의 역 과정으로 수행되며, 구체적으로 역 DCT 변환, 역 웨이브렛 변환 등이 사용될 수 있다. 상기 역 변환된 결과, 즉 복 원된 최종 저주파 프레임(Lf' 라 함)은 역 업데이트부(170)에 제공된다.
다음으로, 재추정부(199)에서 수행되는 동작에 대하여 설명한다. 재추정부(199)는 상기 복원된 최종 저주파 프레임(Lf')을 이용하여 상기 고주파 프레임을 재추정한다. 상기 재추정 과정의 예들은 도 4 및 도 6에 도시되어 있다. 이를 위하여, 재추정부(199)은 역 업데이트부(170), 프레임 재추정부(180), 및 역 예측부(190)을 포함한다.
먼저, 본 발명의 제2 실시예에 따르면, 프레임 재추정부(180)는 상기 Lf'를 참조 프레임으로 하여, 상기 Lf'와 동일한 시간적 레벨의 고주파 프레임을 재추정한다. 상기 재추정 스텝은 전술한 수학식 4에 의하여 구할 수 있다.
상기 재추정된 고주파 프레임(R)은 변환부(120), 양자화부(130), 역 양자화부(150), 및 역 변환부(160)를 거쳐서 복호화될 수 있다.
역 예측부(170)는 상기 Lf'를 참조 프레임으로 하여 상기 복호화된 고주파 프레임을 역 예측함으로써 상기 복호화된 고주파 프레임에 대응되는 저주파 프레임을 복원한다. 상기 역 예측 스텝은 전술한 수학식 6에 의하여 구할 수 있다. 이와 같이 복원된 저주파 프레임은 프레임 재추정부(180)에 다시 제공될 수 있다. 마찬가지로, 역 예측부(170)는 다음 시간적 레벨(하위 시간적 레벨)에서도 소정의 참조 프레임을 이용하여 역 예측을 수행할 수 있다.
역 업데이트부(190)는 상기 복호화된 고주파 프레임에 의하여 상기 Lf'를 역 업데이트한다. 상기 역 업데이트 스텝은 전술한 수학식 5에 의하여 구할 수 있다. 이와 같이 역 업데이트된 저주파 프레임은 프레임 재추정부(180)에 다시 제공될 수 있다. 마찬가지로, 역 업데이트부(190)는 다음 시간적 레벨(하위 시간적 레벨)에서도 역 변환부(160)로부터 제공되는 복호화된 고주파 프레임을 이용하여 소정의 저주파 프레임을 역 업데이트할 수 있다.
프레임 재추정부(180)는 역 예측부(170) 및 역 업데이트부(190)로부터 제공된 저주파 프레임 및 L 프레임 버퍼에 저장된 소정의 저주파 프레임을 이용하여 그 다음 시간적 레벨에서의 재추정을 다시 수행할 수 있다.
상기 재추정 스텝, 역 예측 스텝, 및 역 업데이트 스텝에서는 모두 모션 추정부(115)에서 계산된 모션 벡터(MV)를 통한 모션 보상이 필요하다.
이상의 재추정부(199)에서 수행되는 동작은 모든 고주파 프레임에 대하여 재추정을 수행할 때까지 반복된다.
한편, 본 발명의 제1 실시예는 제2 실시예와 비교할 때, 역 예측 스텝에 있어서, 참조 프레임으로 역 업데이트 스텝을 거치기 전의 저주파 프레임을 이용하는 것이 아니라 역 업데이트 스텝을 거친 후의 저주파 프레임을 이용한다는 점에서만 차이가 있을 뿐이다.
본 발명의 제3 실시예에 따르면, 역 업데이트부(190)는 입력된 저주파 프레임이 고주파 프레임이 존재하는 위치에 있는지 여부를 판단하는 단계를 더 수행한다. 그 판단 결과, 그러하다면 해당 저주파 프레임에 대한 역 업데이트를 생략하고, 그러하지 아니하다면 해당 저주파 프레임을 역 업데이트한다.
프레임 재추정부(180)에서 재추정된 고주파 프레임들(R)은 변환부(120)의 변환 과정과 양자화부(130)의 양자화 과정을 거치게 된다. 물론, 도 4의 R2'(1)과 같이 이미 상기 과정들을 거친 재추정 프레임은 중복된 과정을 거칠 필요는 없을 것이다.
엔트로피 부호화부(140)는 양자화부(130)에 의하여 생성되는 최종 저주파 프레임(Lf)의 양자화 계수와, 재추정된 고주파 프레임들(R)의 양자화 계수를 입력 받고, 이들을 무손실 부호화하여 비트스트림을 생성한다. 이러한 무손실 부호화 방법으로는, 허프만 부호화(Huffman coding), 산술 부호화(arithmetic coding), 가변 길이 부호화(variable length coding), 기타 다양한 방법이 이용될 수 있다.
도 10은 본 발명의 일 실시예에 따른 비디오 디코더(200)의 구성을 도시한 블록도이다.
엔트로피 복호화부(210)는 무손실 복호화를 수행하여, 입력된 비트스트림으로부터 각 프레임에 대한 텍스쳐(texture) 데이터 및 모션 벡터 데이터를 추출한다. 상기 추출된 텍스쳐 데이터는 역 양자화부(220)에 제공되고 상기 추출된 모션 벡터 데이터는 역 업데이트부(240) 및 역 예측부(250)에 제공된다.
역 양자화부(220)는 엔트로피 복호화부(210)로부터 출력되는 텍스쳐 데이터를 역 양자화한다. 이러한 역 양자화 과정은 양자화 과정에서 사용된 것과 동일한 양자화 테이블을 이용하여 양자화 과정에서 생성된 인덱스로부터 그에 매칭되는 값을 복원하는 과정이다.
역 변환부(230)는 상기 역 양자화된 결과에 대하여 역 변환을 수행한다. 이러한 역 변환은 비디오 인코더(100) 단의 변환부(120)에 대응되는 방식으로서 수행되며, 구체적으로 역 DCT 변환, 역 웨이브렛 변환 등이 사용될 수 있다. 상기 역 변환 결과, 최종 저주파 프레임 및 재추정된 고주파 프레임이 복원된다.
상기 복원되는 최종 저주파 프레임(Lf')는 역 예측부(250)에 제공되고, 복원되는 재추정된 고주파 프레임(R')는 역 업데이트부(240) 및 역 예측부(250)에 제공된다. 역 MCTF 부(245)는 역 예측부(250)에 의한 역 예측 스텝과 역 업데이트부(240)에 의한 역 업데이트 스텝을 반복하여 수행함으로써, 최종적으로 복원된 프레임(L0')를 생성한다. 상기 역 업데이트 스텝 및 역 예측 스텝의 반복은 시간적 레벨 0의 프레임, 즉 인코더(100) 단에서의 입력 프레임이 복원될 때까지 반복된다.
이하, 먼저 제2 실시예에 따른 구성요소(240, 250)의 동작을 설명한다.
역 예측부(250)는 상기 Lf'를 참조 프레임으로 하여 상기 재추정 고주파 프레임(R')을 역 예측함으로써 상기 고주파 프레임(R')에 대응되는 저주파 프레임을 복원한다. 이를 위하여 역 예측부(250)는 엔트로피 복호화부(210)로부터 제공된 모션 벡터(MV)를 이용하여, 상기 주변 저주파 프레임을 모션 보상함으로써 상기 현재 저주파 프레임에 대한 예측 프레임을 생성하고, 상기 재추정 고주파 프레임(R')과 상기 예측 프레임을 가산한다. 이러한 역 예측 스텝은 상기 수학식 6에 따라 수행될 수 있다.
역 예측부(250)에 의하여 생성된 저주파 프레임은 역 업데이트부(240)에 제 공된다. 역 업데이트부(240)는 상기 제공된 저주파 프레임과 동일한 시간적 레벨에 있는 고주파 프레임(R')을 상기 제공된 저주파 프레임을 역 업데이트 한다. 이 때 엔트로피 복호화부(210)로부터 제공된 모션 벡터에 음의 부호를 붙인 모션 벡터를 이용하여, 상기 고주파 프레임(R')을 모션 보상한다. 역 업데이트부(240)는 역 예측부(250)에서 제공되는 저주파 프레임을 이용하여 마찬가지의 역 업데이트 과정을 반복하여 수행한다.
역 업데이트부(250)는 역 업데이트 수행 결과 시간적 레벨 0인 입력 프레임을 복원한 경우에는 상기 복원된 프레임(L0')를 출력한다.
한편, 제1 실시예는 상기 제2 실시예와는 역 업데이트 스텝과 역 예측 스텝이 반대로 될 수 있다. 즉, 먼저 역 업데이트 스텝이 수행되고 이어서 역 예측 스텝이 수행되는 것이다. 따라서, 제1 실시예에 따른 비디오 디코딩 과정은 입력되는 고주파 프레임에 관한 데이터가 재추정된 고주파 프레임에 관한 것이라는 것 외에는, 종래의 역 MCTF 과정과 동일하다.
본 발명의 제3 실시예에 따르면, 역 업데이트부(240)는 입력된 저주파 프레임이 고주파 프레임이 존재하는 위치에 있는지 여부를 판단하는 단계를 더 수행한다. 그 판단 결과, 그러하다면 해당 저주파 프레임에 대한 역 업데이트를 생략하고, 그러하지 아니하다면 해당 저주파 프레임을 역 업데이트한다.
도 11은 본 발명의 일 실시예에 따른 비디오 인코더(100), 또는 비디오 디코더(200)의 동작을 수행하기 위한 시스템의 구성도이다. 상기 시스템은 TV, 셋톱 박 스, 데스크 탑, 랩 탑 컴퓨터, 팜 탑(palmtop) 컴퓨터, PDA(personal digital assistant), 비디오 또는 이미지 저장 장치(예컨대, VCR(video cassette recorder), DVR(digital video recorder) 등)를 나타내는 것일 수 있다. 뿐만 아니라, 상기 시스템은 상기한 장치들을 조합한 것, 또는 상기 장치가 다른 장치의 일부분으로 포함된 것을 나타내는 것일 수도 있다. 상기 시스템은 적어도 하나 이상의 비디오 소스(video source; 910), 하나 이상의 입출력 장치(920), 프로세서(940), 메모리(950), 그리고 디스플레이 장치(930)를 포함하여 구성될 수 있다.
비디오 소스(910)는TV 리시버(TV receiver), VCR, 또는 다른 비디오 저장 장치를 나타내는 것일 수 있다. 또한, 상기 소스(910)는 인터넷, WAN(wide area network), LAN(local area network), 지상파 방송 시스템(terrestrial broadcast system), 케이블 네트워크, 위성 통신 네트워크, 무선 네트워크, 전화 네트워크 등을 이용하여 서버로부터 비디오를 수신하기 위한 하나 이상의 네트워크 연결을 나타내는 것일 수도 있다. 뿐만 아니라, 상기 소스는 상기한 네트워크들을 조합한 것, 또는 상기 네트워크가 다른 네트워크의 일부분으로 포함된 것을 나타내는 것일 수도 있다.
입출력 장치(920), 프로세서(940), 그리고 메모리(950)는 통신 매체(960)를 통하여 통신한다. 상기 통신 매체(960)에는 통신 버스, 통신 네트워크, 또는 하나 이상의 내부 연결 회로를 나타내는 것일 수 있다. 상기 소스(910)로부터 수신되는 입력 비디오 데이터는 메모리(950)에 저장된 하나 이상의 소프트웨어 프로그램에 따라 프로세서(940)에 의하여 처리될 수 있고, 디스플레이 장치(930)에 제공되는 출력 비디오를 생성하기 위하여 프로세서(940)에 의하여 실행될 수 있다.
특히, 메모리(950)에 저장된 소프트웨어 프로그램은 본 발명에 따른 방법을 수행하는 스케일러블 비디오 코덱을 포함할 수 있다. 상기 인코더 또는 상기 코덱은 메모리(950)에 저장되어 있을 수도 있고, CD-ROM이나 플로피 디스크와 같은 저장 매체에서 읽어 들이거나, 각종 네트워크를 통하여 소정의 서버로부터 다운로드 한 것일 수도 있다. 상기 소프트웨어에 의하여 하드웨어 회로에 의하여 대체되거나, 소프트웨어와 하드웨어 회로의 조합에 의하여 대체될 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
상술한 본 발명에 따르면, 기존의 MCTF의 예측 스텝 및 업데이트 스텝이 갖는 장점을 그대로 유지하면서도, 인코더-디코더 간 드리프트 에러의 발생을 감소시킬 수 있으며, 이로 인해 압축 효율을 향상시킬 수 있다.
특히 움직임이 빨라 잔차 에너지(residual energy)가 커서 기존 MCTF가 효율적으로 작동하지 못하는 동영상에서는 폐루프 예측 스텝에 의한 성능 향상을, 움직임이 느린 동영상에서는 불일치 없는 업데이트 스텝에 의한 성능 향상을 기대할 수 있다.

Claims (20)

  1. (a) 입력 프레임을 모션 보상 시간적 필터링(motion compensated temporal filtering)하여 하나의 최종 저주파 프레임과 적어도 하나 이상의 고주파 프레임으로 분해하는 단계;
    (b) 상기 최종 저주파 프레임을 부호화한 후 복호화하는 단계;
    (c) 상기 복호화된 최종 저주파 프레임을 이용하여 상기 고주파 프레임을 재추정하는 단계; 및
    (d) 상기 재추정된 고주파 프레임을 부호화하는 단계를 포함하는, 비디오 인코딩 방법.
  2. 제1항에 있어서, 상기 (c) 단계는
    (c1) 소정 시간적 레벨의 복원된 제1 저주파 프레임을 참조 프레임으로 하여, 상기 제1 저주파 프레임과 동일한 시간적 레벨의 고주파 프레임을 재추정하는 단계;
    (c2) 상기 재추정된 고주파 프레임을 부호화한 후 복호화하는 단계;
    (c3) 상기 제1 저주파 프레임을 참조 프레임으로 하여 상기 복호화된 고주파 프레임을 역 예측함으로써 상기 복호화된 고주파 프레임에 대응되는 제2 저주파 프레임을 복원하는 단계; 및
    (c4) 상기 복호화된 고주파 프레임에 의하여 상기 제1 저주파 프레임을 역 업데이트하는 단계를 포함하는, 비디오 인코딩 방법.
  3. 제1항에 있어서,
    (e) 상기 부호화된 최종 저주파 프레임 및 상기 부호화된 고주파 프레임으로부터 비트스트림을 생성하는 단계를 더 포함하는 비디오 인코딩 방법.
  4. 제1항에 있어서, 상기 (a) 단계는
    다른 시간적 위치에 있는 프레임을 참조하여 현재 프레임에 대한 고주파 프레임을 생성하는 예측 스텝; 및
    상기 생성된 고주파 프레임을 이용하여 상기 다른 위치에 있는 프레임을 업데이트하는 업데이트 스텝을 포함하는 비디오 인코딩 방법.
  5. 제1항에 있어서, 상기 (b) 단계는
    상기 저주파 프레임을 변환하여 변환 계수를 생성하는 단계;
    상기 변환 계수를 양자화하는 단계;
    상기 양자화된 결과를 역 양자화하는 단계; 및
    상기 역 양자화된 결과를 역 변환하는 단계를 포함하는 비디오 인코딩 방법.
  6. 제2항에 있어서, 상기 (c4) 단계는
    상기 제1 저주파 프레임이 상기 (a) 단계에서 생성되는 고주파 프레임이 존 재하지 않는 시간적 위치에 있는 경우에 한하여 수행되는, 비디오 인코딩 방법.
  7. (a) 입력 비트스트림에 포함되는 텍스쳐 데이터로부터 최종 저주파 프레임 및 적어도 하나 이상의 고주파 프레임을 복원하는 단계와, (b) 상기 최종 저주파 프레임 및 상기 고주파 프레임으로부터 최하위 시간적 레벨의 저주파 프레임들을 복원하는 단계를 포함하는 비디오 디코딩 방법에 있어서,
    상기 (b) 단계는,
    (b1) 소정 시간적 레벨의 제1 저주파 프레임을 참조 프레임으로 하여 상기 고주파 프레임을 역 예측함으로써 상기 고주파 프레임에 대응되는 제2 저주파 프레임을 복원하는 단계; 및
    (b2) 상기 복호화된 고주파 프레임에 의하여 상기 제1 저주파 프레임을 역 업데이트하는 단계를 포함하는, 비디오 디코딩 방법.
  8. 제7항에 있어서, 상기 (a) 단계는
    상기 입력 비트스트림을 무손실 복호화하는 단계;
    상기 무손실 복호화 결과 중 텍스쳐 데이터를 역 양자화하는 단계; 및
    상기 역 양자화된 결과를 역 변환하는 단계를 포함하는 비디오 디코딩 방법.
  9. 제7항에 있어서, 상기 (b2) 단계는
    상기 제1 저주파 프레임이 상기 고주파 프레임이 존재하지 않는 시간적 위치 에 있는 경우에 한하여 수행되는, 비디오 인코딩 방법.
  10. 입력 프레임을 모션 보상 시간적 필터링(motion compensated temporal filtering)하여 하나의 최종 저주파 프레임과 적어도 하나 이상의 고주파 프레임으로 분해하는 수단;
    상기 최종 저주파 프레임을 부호화한 후 복호화하는 수단;
    상기 복호화된 최종 저주파 프레임을 이용하여 상기 고주파 프레임을 재추정하는 수단; 및
    상기 재추정된 고주파 프레임을 부호화하는 수단을 포함하는, 비디오 인코더.
  11. 제10항에 있어서, 상기 재추정하는 수단은
    소정 시간적 레벨의 복원된 제1 저주파 프레임을 참조 프레임으로 하여, 상기 제1 저주파 프레임과 동일한 시간적 레벨의 고주파 프레임을 재추정하는 수단;
    상기 재추정된 고주파 프레임을 부호화한 후 복호화하는 수단;
    상기 제1 저주파 프레임을 참조 프레임으로 하여 상기 복호화된 고주파 프레임을 역 예측함으로써 상기 복호화된 고주파 프레임에 대응되는 제2 저주파 프레임을 복원하는 수단; 및
    상기 복호화된 고주파 프레임에 의하여 상기 제1 저주파 프레임을 역 업데이트하는 수단을 포함하는, 비디오 인코더.
  12. 제10항에 있어서,
    상기 부호화된 최종 저주파 프레임 및 상기 부호화된 고주파 프레임으로부터 비트스트림을 생성하는 수단을 더 포함하는 비디오 인코더.
  13. 제10항에 있어서, 상기 분해하는 수단은
    다른 시간적 위치에 있는 프레임을 참조하여 현재 프레임에 대한 고주파 프레임을 생성하는 예측 스텝; 및
    상기 생성된 고주파 프레임을 이용하여 상기 다른 위치에 있는 프레임을 업데이트하는 업데이트 스텝을 포함하는 비디오 인코더.
  14. 제10항에 있어서, 상기 복호화하는 수단은
    상기 저주파 프레임을 변환하여 변환 계수를 생성하는 수단;
    상기 변환 계수를 양자화하는 수단;
    상기 양자화된 결과를 역 양자화하는 수단; 및
    상기 역 양자화된 결과를 역 변환하는 수단을 포함하는 비디오 인코더.
  15. 제11항에 있어서, 상기 역 업데이트하는 수단은
    상기 제1 저주파 프레임이 고주파 프레임이 존재하지 않는 시간적 위치에 있는 경우에 한하여 상기 역 업데이트를 수행하는, 비디오 인코더.
  16. 입력 비트스트림에 포함되는 텍스쳐 데이터로부터 최종 저주파 프레임 및 적어도 하나 이상의 고주파 프레임을 복원하는 제1 수단과, 상기 최종 저주파 프레임 및 상기 고주파 프레임으로부터 최하위 시간적 레벨의 저주파 프레임들을 복원하는 제2 수단을 포함하는 비디오 디코더에 있어서,
    상기 제2 수단은,
    소정 시간적 레벨의 제1 저주파 프레임을 참조 프레임으로 하여 상기 고주파 프레임을 역 예측함으로써 상기 고주파 프레임에 대응되는 제2 저주파 프레임을 복원하는 수단; 및
    상기 복호화된 고주파 프레임에 의하여 상기 제1 저주파 프레임을 역 업데이트하는 수단을 포함하는, 비디오 디코더.
  17. 제16항에 있어서, 상기 제1 수단은
    상기 입력 비트스트림을 무손실 복호화하는 수단;
    상기 무손실 복호화 결과 중 텍스쳐 데이터를 역 양자화하는 수단; 및
    상기 역 양자화된 결과를 역 변환하는 수단을 포함하는 비디오 디코더.
  18. 제7항에 있어서, 상기 역 업데이트하는 수단은
    상기 제1 저주파 프레임이 상기 고주파 프레임이 존재하지 않는 시간적 위치에 있는 경우에 한하여 상기 역 업데이트를 수행하는, 비디오 인코더.
  19. 소정의 비디오 인코딩 방법을 실행하기 위한 컴퓨터 프로그램 코드를 기록한 컴퓨터로 읽을 수 있는 기록 매체에 있어서, 상기 방법은
    입력 프레임을 모션 보상 시간적 필터링(motion compensated temporal filtering)하여 하나의 최종 저주파 프레임과 적어도 하나 이상의 고주파 프레임으로 분해하는 단계;
    상기 최종 저주파 프레임을 부호화한 후 복호화하는 단계;
    상기 복호화된 최종 저주파 프레임을 이용하여 상기 고주파 프레임을 재추정하는 단계; 및
    상기 재추정된 고주파 프레임을 부호화하는 단계를 포함하는 기록 매체.
  20. 소정의 비디오 인코딩 방법을 실행하기 위한 컴퓨터 프로그램 코드를 기록한 컴퓨터로 읽을 수 있는 기록 매체에 있어서, 상기 방법은
    (a) 입력 비트스트림에 포함되는 텍스쳐 데이터로부터 최종 저주파 프레임 및 적어도 하나 이상의 고주파 프레임을 복원하는 단계와, (b) 상기 최종 저주파 프레임 및 상기 고주파 프레임으로부터 최하위 시간적 레벨의 저주파 프레임들을 복원하는 단계를 포함하며,
    상기 (b) 단계는,
    소정 시간적 레벨의 제1 저주파 프레임을 참조 프레임으로 하여 상기 고주파 프레임을 역 예측함으로써 상기 고주파 프레임에 대응되는 제2 저주파 프레임을 복 원하는 단계; 및
    상기 복호화된 고주파 프레임에 의하여 상기 제1 저주파 프레임을 역 업데이트하는 단계를 포함하는, 기록 매체.
KR1020050088921A 2005-07-18 2005-09-23 인코더-디코더 간 불일치를 감소시키는 mctf 기반의비디오 코딩 방법 및 장치 KR100678909B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/KR2006/002806 WO2007027012A1 (en) 2005-07-18 2006-07-18 Video coding method and apparatus for reducing mismatch between encoder and decoder
EP06823594A EP1905238A4 (en) 2005-07-18 2006-07-18 VIDEO CODING METHOD AND DEVICE FOR INCREASING CONFORMITY BETWEEN ENCODERS AND DECODERS
US11/487,980 US20070014356A1 (en) 2005-07-18 2006-07-18 Video coding method and apparatus for reducing mismatch between encoder and decoder

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US69985905P 2005-07-18 2005-07-18
US60/699,859 2005-07-18
US70033005P 2005-07-19 2005-07-19
US60/700,330 2005-07-19

Publications (2)

Publication Number Publication Date
KR20070011034A KR20070011034A (ko) 2007-01-24
KR100678909B1 true KR100678909B1 (ko) 2007-02-06

Family

ID=38012151

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050088921A KR100678909B1 (ko) 2005-07-18 2005-09-23 인코더-디코더 간 불일치를 감소시키는 mctf 기반의비디오 코딩 방법 및 장치

Country Status (2)

Country Link
US (1) US20070014356A1 (ko)
KR (1) KR100678909B1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8665967B2 (en) * 2006-02-15 2014-03-04 Samsung Electronics Co., Ltd. Method and system for bit reorganization and packetization of uncompressed video for transmission over wireless communication channels
US8358693B2 (en) * 2006-07-14 2013-01-22 Microsoft Corporation Encoding visual data with computation scheduling and allocation
US8311102B2 (en) * 2006-07-26 2012-11-13 Microsoft Corporation Bitstream switching in multiple bit-rate video streaming environments
US8340193B2 (en) * 2006-08-04 2012-12-25 Microsoft Corporation Wyner-Ziv and wavelet video coding
US7388521B2 (en) * 2006-10-02 2008-06-17 Microsoft Corporation Request bits estimation for a Wyner-Ziv codec
US8175041B2 (en) * 2006-12-14 2012-05-08 Samsung Electronics Co., Ltd. System and method for wireless communication of audiovisual data having data size adaptation
US8340192B2 (en) * 2007-05-25 2012-12-25 Microsoft Corporation Wyner-Ziv coding with multiple side information
US8176524B2 (en) * 2008-04-22 2012-05-08 Samsung Electronics Co., Ltd. System and method for wireless communication of video data having partial data compression
KR101021249B1 (ko) * 2008-08-05 2011-03-11 동국대학교 산학협력단 적응적 부호화 모드 선택 방법
US10957626B2 (en) * 2017-12-19 2021-03-23 Thermo Electron Scientific Instruments Llc Sensor device with carbon nanotube sensor positioned on first and second substrates

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR930006739B1 (ko) * 1990-08-30 1993-07-23 주식회사 금성사 서브밴드 코딩방법 및 엔코딩/디코딩장치
KR100359821B1 (ko) * 2000-01-20 2002-11-07 엘지전자 주식회사 움직임 보상 적응형 영상 압축과 복원방법 및 그 장치와디코더

Also Published As

Publication number Publication date
US20070014356A1 (en) 2007-01-18
KR20070011034A (ko) 2007-01-24

Similar Documents

Publication Publication Date Title
KR100678909B1 (ko) 인코더-디코더 간 불일치를 감소시키는 mctf 기반의비디오 코딩 방법 및 장치
KR100703788B1 (ko) 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
KR100703760B1 (ko) 시간적 레벨간 모션 벡터 예측을 이용한 비디오인코딩/디코딩 방법 및 장치
KR100703778B1 (ko) 고속 fgs를 지원하는 비디오 코딩 방법 및 장치
KR100703749B1 (ko) 잔차 재 추정을 이용한 다 계층 비디오 코딩 및 디코딩방법, 이를 위한 장치
KR100703774B1 (ko) 인트라 코딩을 선택적으로 적용하여 인트라 bl 예측모드의 비디오 신호를 인코딩 및 디코딩하는 방법 및 장치
JP5014989B2 (ja) 基礎階層を利用するフレーム圧縮方法、ビデオコーディング方法、フレーム復元方法、ビデオデコーディング方法、ビデオエンコーダ、ビデオデコーダ、および記録媒体
KR100763194B1 (ko) 단일 루프 디코딩 조건을 만족하는 인트라 베이스 예측방법, 상기 방법을 이용한 비디오 코딩 방법 및 장치
KR100703772B1 (ko) 인코더-디코더 간 불일치를 감소시키는 mctf 기반의비디오 코딩 방법 및 장치
KR100746011B1 (ko) 잔차 예측의 성능 개선 방법, 상기 방법을 이용한 비디오인코더 및 비디오 디코더
KR20070000022A (ko) 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
KR20060135992A (ko) 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
KR20050078399A (ko) 엔코더 단에서 스케일러빌리티를 제공하는 스케일러블비디오 코딩 장치 및 방법
JP2008539646A (ja) 高速fgsを提供するビデオコーディング方法及び装置
KR20050075578A (ko) 폐루프 최적화를 지원하는 스케일러블 비디오 엔코딩 방법및 장치
KR100679027B1 (ko) Dc 성분의 손실 없이 영상을 코딩하는 방법 및 장치
KR20060006341A (ko) 스무딩 필터를 이용하는 비디오 디코딩 방법 또는 비디오디코더
US20060088100A1 (en) Video coding method and apparatus supporting temporal scalability
EP1889487A1 (en) Multilayer-based video encoding method, decoding method, video encoder, and video decoder using smoothing prediction
KR101146138B1 (ko) 시간적 스케일러블 비디오 인코더
EP1905238A1 (en) Video coding method and apparatus for reducing mismatch between encoder and decoder
CN101223780A (zh) 减少编码器和解码器之间的不匹配的视频编码方法和设备
KR20090059707A (ko) 폐루프 필터링을 이용한 스케일러블 비디오 인코딩 장치 및그 방법
WO2006109989A1 (en) Video coding method and apparatus for reducing mismatch between encoder and decoder
WO2006098586A1 (en) Video encoding/decoding method and apparatus using motion prediction between temporal levels

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121228

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20131230

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20141223

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee