KR20060006328A - 기초 계층을 이용하는 스케일러블 비디오 코딩 방법 및 장치 - Google Patents

기초 계층을 이용하는 스케일러블 비디오 코딩 방법 및 장치 Download PDF

Info

Publication number
KR20060006328A
KR20060006328A KR20040055269A KR20040055269A KR20060006328A KR 20060006328 A KR20060006328 A KR 20060006328A KR 20040055269 A KR20040055269 A KR 20040055269A KR 20040055269 A KR20040055269 A KR 20040055269A KR 20060006328 A KR20060006328 A KR 20060006328A
Authority
KR
South Korea
Prior art keywords
frame
base layer
temporal
mode
module
Prior art date
Application number
KR20040055269A
Other languages
English (en)
Other versions
KR100679011B1 (ko
Inventor
한우진
하호진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR20040055269A priority Critical patent/KR100679011B1/ko
Priority to JP2007521391A priority patent/JP5014989B2/ja
Priority to PCT/KR2005/002110 priority patent/WO2006006778A1/en
Priority to EP05765871A priority patent/EP1766998A4/en
Priority to CA 2573843 priority patent/CA2573843A1/en
Priority to CN201010104384A priority patent/CN101820541A/zh
Priority to CN2005100831966A priority patent/CN1722838B/zh
Priority to US11/181,858 priority patent/US20060013313A1/en
Publication of KR20060006328A publication Critical patent/KR20060006328A/ko
Application granted granted Critical
Publication of KR100679011B1 publication Critical patent/KR100679011B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/547Motion estimation performed in a transform domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]

Abstract

본 발명은 비디오 압축에 관한 것으로서, 보다 상세하게는 스케일러블 비디오 코덱에서 기초 계층(base-layer)을 이용하여 보다 효율적으로 시간적 필터링을 수행하는 방법에 관한 것이다.
본 발명에 따른 스케일러블 비디오 인코더에서의 시간적 필터링 방법은, 입력된 원 비디오 시퀀스에 대하여 시간적 다운샘플링 및 공간적 다운샘플링을 수행하여, 지원되는 최저 프레임율 및 최저 해상도를 갖는 비디오 시퀀스를 생성하는 단계와, 기초 계층을 소정의 코덱으로 인코딩한 후 디코딩하는 단계와, 디코딩된 기초 계층을 지원되는 최고 해상도로 업샘플링하는 단계와, 원 비디오 시퀀스의 최상위 시간적 레벨에 존재하는 프레임을 상기 업샘플링된 기초 계층을 이용하여 필터링하는 단계로 이루어진다.
스케일러블 비디오 코딩, 시간적 필터링, 공간적 변환, 모션 추정, B-인트라 모드

Description

기초 계층을 이용하는 스케일러블 비디오 코딩 방법 및 장치{Scalable video coding method using base-layer and apparatus thereof}
도 1은 인코더 단에서 종래의 MCTF 필터링 과정을 나타내는 도면.
도 2는 디코더 단에서 종래의 MCTF 역 필터링 과정을 나타내는 도면.
도 3은 종래의 스케일러블 비디오 코딩 시스템의 전체적 구성을 나타내는 도면.
도 4는 본 발명의 일 실시예에 따른 스케일러블 비디오 인코더의 구성을 나타내는 도면.
도 5는 인코더 단에서 본 발명의 일 실시예에 따른 시간적 필터링 과정을 설명하는 도면.
도 6은 본 발명의 일 실시예에 따른 모드들을 도식화하여 나타낸 도면.
도 7은 최상위 시간적 레벨에 존재하는 고주파 프레임이 상기 비용 함수에 따라서 각 매크로 블록별로 다른 방식으로 부호화되는 예를 나타낸 도면.
도 8은 입력 이미지를 웨이블릿 변환에 의하여 서브밴드로 분해하는 과정의 예를 나타낸 도면.
도 9는 본 발명의 일 실시예에 따른 비트스트림의 개략적 구성을 나타내는 도면.
도 10은 이외 계층 비트스트림의 개략적 구성을 나타내는 도면.
도 11은 GOP 필드의 세부 구조를 나타내는 도면.
도 12는 본 발명의 일 실시예에 따른 인코더를 인밴드 방식으로 구현한 예를 나타내는 도면.
도 13은 본 발명의 일 실시예에 따른 스케일러블 비디오 디코더의 구성을 나타낸 도면.
도 14는 Mibile 시퀀스에서 비트율에 대한 PSNR을 나타내는 그래프.
(도면의 주요부분에 대한 부호 설명)
100 : 스케일러블 비디오 인코더 110 : 기초 계층 생성 모듈
120 : 시간적 필터링 모듈 130 : 모션 추정 모듈
140 : 모드 선택 모듈 150 : 공간적 변환 모듈
160 : 양자화 모듈 170 : 비트스트림 생성 모듈
200 : 스케일러블 비디오 디코더 210 : 비트스트림 해석 모듈
220 : 역 양자화 모듈 230 : 역 공간적 변환 모듈
240 : 역 시간적 필터링 모듈 250 : 기초 계층 디코더
260 : 공간적 업샘플링 모듈 300 : 비트스트림
본 발명은 비디오 압축에 관한 것으로서, 보다 상세하게는 스케일러블 비디오 코덱에서 기초 계층(base-layer)을 이용하여 보다 효율적으로 시간적 필터링을 수행하는 방법에 관한 것이다.
인터넷을 포함한 정보통신 기술이 발달함에 따라 문자, 음성뿐만 아니라 화상통신이 증가하고 있다. 기존의 문자 위주의 통신 방식으로는 소비자의 다양한 욕구를 충족시키기에는 부족하며, 이에 따라 문자, 영상, 음악 등 다양한 형태의 정보를 수용할 수 있는 멀티미디어 서비스가 증가하고 있다. 멀티미디어 데이터는 그 양이 방대하여 대용량의 저장매체를 필요로 하며 전송시에 넓은 대역폭을 필요로 한다. 예를 들면 640*480의 해상도를 갖는 24 bit 트루 컬러의 이미지는 한 프레임당 640*480*24 bit의 용량 다시 말해서 약 7.37Mbit의 데이터가 필요하다. 이를 초당 30 프레임으로 전송하는 경우에는 221Mbit/sec의 대역폭을 필요로 하며, 90분 동안 상영되는 영화를 저장하려면 약 1200G bit의 저장공간을 필요로 한다. 따라서 문자, 영상, 오디오를 포함한 멀티미디어 데이터를 전송하기 위해서는 압축코딩기법을 사용하는 것이 필수적이다.
데이터를 압축하는 기본적인 원리는 데이터의 중복(redundancy)을 없애는 과정이다. 이미지에서 동일한 색이나 객체가 반복되는 것과 같은 공간적 중복이나, 동영상 프레임에서 인접 프레임이 거의 변화가 없는 경우나 오디오에서 같은 음이 계속 반복되는 것과 같은 시간적 중복, 또는 인간의 시각 및 지각 능력이 높은 주파수에 둔감한 것을 고려한 심리시각 중복을 없앰으로서 데이터를 압축할 수 있다. 데이터 압축의 종류는 소스 데이터의 손실 여부와, 각각의 프레임에 대해 독립적으로 압축하는 지 여부와, 압축과 복원에 필요한 시간이 동일한 지 여부에 따라 각각 손실/무손실 압축, 프레임 내/프레임간 압축, 대칭/비대칭 압축으로 나눌 수 있다. 이 밖에도 압축 복원 지연 시간이 50ms를 넘지 않는 경우에는 실시간 압축으로 분류하 고, 프레임들의 해상도가 다양한 경우는 스케일러블 압축으로 분류한다. 문자 데이터나 의학용 데이터 등의 경우에는 무손실 압축이 이용되며, 멀티미디어 데이터의 경우에는 주로 손실 압축이 이용된다. 한편 공간적 중복을 제거하기 위해서는 프레임 내 압축이 이용되며 시간적 중복을 제거하기 위해서는 프레임간 압축이 이용된다.
멀티미디어를 전송하기 위한 전송매체는 매체 별로 그 성능이 다르다. 현재 사용되는 전송매체는 초당 수십 Mbit의 데이터를 전송할 수 있는 초고속통신망부터 초당 384 kbit의 전송속도를 갖는 이동통신망 등과 같이 다양한 전송속도를 갖는다. MPEG-1, MPEG-2, MPEG-4, H.263, 또는 H.264와 같은 종전의 비디오 코딩은 모션 보상 예측에 기초하여 시간적 중복은 모션 보상 및 시간적 필터링에 의해 제거하고 공간적 중복은 공간적 변환에 의해 제거한다. 이러한 방법들은 좋은 압축률을 갖고 있지만 주 알고리즘에서 재귀적 접근법을 사용하고 있어 진정한 스케일러블 비트스트림(true scalable bit-stream)을 위한 유연성을 갖지 못한다.
이에 따라 최근에는 웨이블릿 기반(wavelet-based)의 스케일러블 비디오 코딩에 대한 연구가 활발하다. 스케일러블 비디오 코딩은 공간적 영역, 즉 해상도면에서 스케일러빌리티를 갖는 비디오 코딩을 의미한다. 여기서 스케일러빌리티란 압축된 하나의 비트스트림으로부터 부분 디코딩, 즉, 다양한 해상도의 비디오를 재생할 수 있는 특성을 의미한다.
이러한 스케일러빌리티에는 비디오의 해상도를 조절할 수 있는 성질을 의미하는 공간적 스케일러빌리티와 비디오의 화질을 조절할 수 있는 성질을 의미하는 SNR(Signal-to-Noise Ratio) 스케일러빌리티와, 프레임율을 조절할 수 있는 시간적 스케일러빌리티와, 이들 각각을 조합한 것을 포함하는 개념이다.
상기와 같이 공간적 스케일러빌리티는 웨이블릿 변환에 의하여 구현될 수 있으며, SNR 스케일러빌리티는 양자화(quantization)에 의하여 구현될 수 있다. 한편, 시간적 스케일러빌리티를 구현하는 방법으로는 최근, MCTF(Motion Compensated Temporal Filtering), UMCTF(Unconstrained MCTF) 등의 방법이 사용되고 있다.
도 1 및 도 2는 종래의 MCTF 필터를 이용하여 시간적 스케일러빌리티를 구현하는 과정을 설명하는 도면이다. 이 중 도 1은 인코더에서의 시간적 필터링 과정을 나타낸 것이고, 도 2는 디코더에서의 역 시간적 필터링 동작을 나타낸 것이다.
도 2에서 L 프레임은 저주파 혹은 평균 프레임을 의미하고, H 프레임은 고주파 혹은 차이 프레임을 의미한다. 도시된 바와 같이 코딩은 낮은 시간적 레벨에 있는 프레임 쌍들을 먼저 시간적 필터링을 하여 낮은 레벨의 프레임들을 높은 레벨의 L 프레임들과 H 프레임들로 전환시키고 전환된 L 프레임 쌍들은 다시 시간적 필터링을 수행하여 더 높은 시간적 레벨의 프레임들로 전환된다. 여기서, H 프레임은 다른 위치의 L 프레임 또는 원 비디오 프레임을 참조 프레임으로 하여 모션 추정을 수행한 후 시간적 필터링을 수행하여 생성되는데, 도 1에서는 화살표를 통하여 H 프레임이 참조하는 참조 프레임을 표시하고 있다. 이와 같이 H 프레임은 양방향으로 참조할 수도 있지만, 역방향 또는 순방향으로 하나만 참조할 수도 있다.
결과적으로, 인코더는 가장 높은 레벨의 L 프레임 하나와 나머지 H 프레임들을 이용하여 공간적 변환을 거쳐 비트스트림을 생성한다. 도 2에서 진한색이 표시된 프 레임은 공간적 변환의 대상이 되는 프레임들을 의미한다.
디코더는 수신한 비트스트림(20 또는 25)에서 역 공간적 변환을 거친 후에 얻어진 진한색의 프레임들을 높은 레벨부터 낮은 레벨의 프레임들의 순서로 연산하여 프레임들을 복원한다. 즉, 시간적 레벨 3의 L 프레임과 H 프레임을 이용하여 시간적 레벨 2의 L프레임 2개를 복원하고, 시간적 레벨의 L 프레임 2개와 H 프레임 2개를 이용하여 시간적 레벨 1의 L 프레임 4개를 복원한다. 최종적으로 시간적 레벨 1의 L 프레임 4개와 H 프레임 4개를 이용하여 원 비디오 프레임 8개를 복원한다.
이와 같은 스케일러빌리티를 지원하는 비디오 코딩 시스템, 즉 스케일러블 비디오 코딩 시스템의 전체적 구성은 도 3에 도시하는 바와 같다. 먼저, 인코더(encoder; 40)는 시간적 필터링, 공간적 변환, 및 양자화 과정을 통해 입력 비디오(10)를 부호화하여 비트스트림(20)을 생성한다. 그리고, 프리디코더(pre-decoder; 50)는 디코더(decoder; 60)와의 통신 환경 또는 디코더(60) 단에서의 기기 성능 등을 고려한 조건, 예를 들어, 화질, 해상도 또는 프레임율을 추출 조건으로 하여, 인코더(40)로부터 수신한 비트스트림(20) 중 텍스쳐 데이터 일부를 추출함으로써 텍스쳐 데이터에 대한 스케일러빌리티를 구현할 수 있다.
디코더(60)는 상기 추출한 비트스트림(25)으로부터 인코더(40)에서 수행된 과정을 역으로 수행하여 출력 비디오(30)를 복원한다. 물론, 상기 추출 조건에 의한 비트스트림의 추출은 반드시 프리디코더(50)에서 수행되어야 하는 것은 아니고 디코더(60)에서 수행될 수도 있으며 또한, 프리디코더(50) 및 디코더(60) 모두에서 수행될 수도 있다.
이상에서 설명한, 스케일러블 비디오 코딩 기술은 현재 MPEG-21 scalable video coding의 중심 기술을 이루고 있다. 이 코딩 기술은, 시간적 스케일러빌리티를 지원하기 위해 MCTF, UMCTF 등과 같은 시간적 필터링(temporal filtering) 방법을 사용하고, 공간적 스케일러빌리티를 지원하기 위하여 웨이블릿 변환(wavelet transform)을 이용한 공간적 변환(spatial transform) 방법을 이용한다.
이러한 스케일러블 비디오 코딩을 이용하면, 화질(quality), 해상도(resolution), 프레임율(frame-rate)을 모두 프리디코더(50) 단계에서 변형할 수 있는 장점이 있으며, 높은 비트율에서는 압축률 또한 상당히 우수하다. 그러나, 비트율이 충분하지 않은 경우 MPEG-4, H.264 등 기존 코딩 방법에 비교하여 그 성능이 저하될 가능성이 있다.
이는 복합적인 원인에 의해 발생되는데, 먼저 낮은 해상도에서는 웨이블릿 변환이 DCT(Discrete Cosine Transform)에 비해서 그 성능이 떨어지는데 일차적인 원인이 있다. 그리고, 다양한 비트율을 지원해야 하는 스케일러블 비디오 코딩의 특성상, 그 중 한 가지 비트율에 최적화되도록 인코딩 과정이 수행되기 때문에 다른 비트율에서는 그 성능이 떨어지게 되는 것도 다른 원인이 될 수 있다.
본 발명은 상기한 문제점을 고려하여 창안된 것으로, 낮은 비트율과 높은 비트율에서 고른 성능을 보이는 스케일러블 비디오 코딩 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명은 지원해야 하는 비트율 중 가장 낮은 비트율에서는, 낮은 비트율에 서 높은 성능을 보이는 코딩 방법으로 압축을 수행하고, 다른 비트율에서는 이 결과를 이용하여 웨이블릿 기반의 스케일러블 비디오 코딩을 수행하는 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명은 상기 웨이블릿 기반의 스케일러블 비디오 코딩시 상기 가장 낮은 비트율에서 코딩한 결과를 이용하여 모션 추정을 수행하는 방법을 제공하는 것을 목적으로 한다.
상기한 목적을 달성하기 위하여, 본 발명에 따른 스케일러블 비디오 인코더에서의 시간적 필터링 방법은, (a) 입력된 원 비디오 시퀀스에 대하여 시간적 다운샘플링 및 공간적 다운샘플링을 수행하여, 지원되는 최저 프레임율 및 최저 해상도를 갖는 비디오 시퀀스를 생성하는 단계; (b) 상기 생성된 비디오 시퀀스를 소정의 코덱으로 인코딩한 후 디코딩 디코딩하는 단계; (c) 상기 디코딩된 기초 계층을, 지원되는 최고 해상도로 업샘플링하는 단계; (d) 상기 원 비디오 시퀀스의 최상위 시간적 레벨에 존재하는 프레임을 상기 업샘플링된 기초 계층을 이용하여 필터링하는 단계를 포함한다.
또한, 상기한 목적을 달성하기 위하여, 본 발명에 따른 스케일러블 비디오 인코딩 방법은, (a) 입력된 원 비디오 시퀀스로부터, 지원되는 최저 프레임율 및 최저 해상도를 갖는 기초 계층을 생성하는 단계; (b) 상기 기초 계층을, 지원되는 최고 해상도로 업샘플링하고 상기 업샘플링된 기초 계층을 이용하여 입력된 원 비디오 시퀀스에 대한 시간적 필터링을 수행하는 단계; (c) 상기 시간적 필터링에 의하여 생 성되는 프레임에 대하여 공간적 변환을 수행하는 단계; (d) 상기 공간적 변환에 의하여 생성되는 변환 계수를 양자화하는 단계; 및 (e) 상기 생성된 기초 계층 및 상기 양자화된 변환 계수를 포함하는 비트스트림을 생성하는 단계를 포함한다.
또한, 상기한 목적을 달성하기 위하여, 본 발명에 따른 스케일러블 비디오 디코더에서 시간적으로 필터링된 프레임을 복원하는 방법에 있어서, (a) 상기 필터링된 프레임이 최상위 시간적 레벨에 존재하는 프레임 중 저주파 프레임인 경우에는 상기 저주파 프레임과 대응되는 기초 계층과 합함으로써 원 프레임을 복원하는 단계; (b) 상기 필터링된 프레임이 상기 최상위 시간적 레벨에 존재하는 프레임 중 고주파 프레임인 경우에는 인코더 측으로부터 전송되는 모드 정보에 따라서 상기 고주파 프레임의 각 매크로 블록별로 원 프레임을 복원하는 단계; (c) 상기 필터링된 프레임이 상기 최상위 이외의 시간적 레벨에 존재하는 프레임인 경우에는 인코더 측으로부터 전송되는 모션 정보에 따라서 원 프레임을 복원하는 단계를 포함한다.
또한, 상기한 목적을 달성하기 위하여, 본 발명에 따른 스케일러블 비디오 디코딩 방법은, (a) 입력된 비트스트림을 해석하여 기초 계층의 정보와, 이외 계층의 정보를 분리하여 추출하는 단계; (b) 상기 기초 계층의 정보를 소정의 코덱으로 디코딩하는 단계; (c) 상기 디코딩된 기초 계층의 프레임을 지원되는 최고 해상도로 업샘플링하는 단계; (d) 상기 이외 계층의 정보 중 텍스쳐 정보를 역 양자화하여 변환 계수를 출력하는 단계; (e) 상기 변환계수를 공간적 영역에서의 변환계수로 역 변환하는 단계; 및 (f) 상기 업샘플링된 기초 계층을 이용하여 상기 공간적 영역에서의 변환계수로부터 비디오 시퀀스를 복원하는 단계를 포함한다.
또한, 상기한 목적을 달성하기 위하여, 본 발명에 따른 스케일러블 비디오 인코더는, 입력된 원 비디오 시퀀스로부터, 지원되는 최저 프레임율 및 최저 해상도를 갖는 기초 계층을 생성하고, 상기 기초 계층을, 지원되는 최고 해상도로 업샘플링하는 기초 계층 생성 모듈; 상기 업샘플링된 기초 계층을 이용하여 입력된 원 비디오 시퀀스에 대한 시간적 필터링을 수행하는 시간적 필터링 모듈; 상기 시간적 필터링에 의하여 생성되는 프레임에 대하여 공간적 변환을 수행하는 공간적 변환 모듈; 및 상기 공간적 변환에 의하여 생성되는 변환 계수를 양자화하는 양자화 모듈을 포함한다.
또한, 상기한 목적을 달성하기 위하여, 본 발명에 따른 스케일러블 비디오 디코더는, 입력된 비트스트림을 해석하여 기초 계층의 정보와, 이외 계층의 정보를 분리하여 추출하는 비트스트림 해석 모듈; 상기 기초 계층의 정보를 소정의 코덱으로 디코딩하는 기초 계층 디코더; 상기 디코딩된 기초 계층의 프레임을 지원되는 최고 해상도로 업샘플링하는 공간적 업샘플링 모듈; 상기 이외 계층의 정보 중 텍스쳐 정보를 역 양자화하여 변환 계수를 출력하는 역 양자화 모듈; 상기 변환계수를 공간적 영역에서의 변환계수로 역 변환하는 역 공간적 변환 모듈; 및 상기 업샘플링된 기초 계층을 이용하여 상기 공간적 영역에서의 변환계수로부터 비디오 시퀀스를 복원하는 역 시간적 필터링 모듈을 포함한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이 하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
본 발명은, 기초 계층(base-layer)에 대해서는 MPEG-4, H.264 등 낮은 비트율에서 높은 성능을 보이는 코딩 방법으로 압축을 수행한다. 그리고, 이 기초 계층을 이용하여 그보다 높은 비트율에 대한 스케일러빌리티를 가질 수 있도록 웨이블릿 기반의 스케일러블 비디오 코딩 방법을 적용함으로써, 웨이블릿 기반의 스케일러블 비디오 코딩의 장점을 살리면서도 낮은 비트율에서의 성능을 향상시키고자 한다.
여기서, 기초 계층이라 함은 스케일러블 비디오 인코더에서 실제로 생성되는 비트스트림이 갖는 최고 프레임율보다 낮은 프레임율을, 상기 비트스트림이 갖는 최고 해상도보다 낮은 해상도를 갖는 비디오 시퀀스를 의미한다. 이와 같이, 기초 계층은 상기 최고 프레임율 및 상기 최고 해상도보다 낮은 어떤 프레임율 및 해상도를 가지면 되고, 반드시 상기 비트스트림이 갖는 최저 프레임율 및 최저 해상도를 가질 필요는 없지만, 본 발명의 바람직한 실시예로서 기초 계층은 최저 프레임율 및 최저 해상도를 갖는 것으로 하여 설명할 것이다.
이하, 본 명세서에서, 이러한 최저 프레임율 및 최저 해상도, 또는 후술하는 최고 해상도는 모두 실제로 생성되는 비트스트림을 기준으로 결정하는 것으로, 스케일러블 비디오 인코더 자체가 지원할 수 있는 최저 프레임율이나 최저 해상도, 또는 최 고 해상도와는 구별된다.이러한 본 발명의 일 실시예에 따른 스케일러블 비디오 인코더(100)는 도 4에 도시하는 바와 같다. 스케일러블 비디오 인코더(100)는 기초 계층 생성 모듈(110), 시간적 필터링 모듈(120), 모션 추정 모듈(130), 모드 선택 모듈(140), 공간적 변환 모듈(150), 양자화 모듈(160), 비트스트림 생성 모듈(170), 및 공간적 업샘플링 모듈(180)을 포함하여 구성될 수 있다. 기초 계층 생성 모듈(110)은 다시, 시간적 다운샘플링 모듈(111), 공간적 다운샘플링 모듈(112), 기초 계층 인코더(113), 및 기초 계층 디코더(114)를 포함하여 구성될 수 있다. 시간적 다운샘플링 모듈(111)과 공간적 다운샘플링 모듈(112)은 하나의 다운샘플링 모듈(115)로 구현될 수도 있다.
입력된 비디오 시퀀스(video sequence)는 기초 계층 생성 모듈(110)과 시간적 필터링 모듈(120)로 입력된다. 기초 계층 생성 모듈(110)은 입력된 비디오 시퀀스, 즉 최고 해상도 및 최고 프레임율을 갖는 원 비디오 시퀀스를 시간적 필터링에서 지원되는 최저 프레임율 및, 공간적 변환에서 지원되는 최저 해상도를 갖는 비디오 시퀀스로 변경한다.
그 후, 이 시퀀스를 낮은 비트율에서 상대적으로 우수한 화질을 보이는 코덱으로 압축한 후, 다시 이를 복원한다. 이 복원된 영상을 기초 계층이라고 정의한다. 이 기초 계층을 업샘플링하여 다시 최고 해상도를 갖는 프레임을 생성하고, 이를 B-인트라(B-intra) 추정을 할 때 참조 프레임(reference frame)으로 사용할 수 있도록 시간적 필터링 모듈(120)에 제공한다.
기초 계층 생성 모듈(110)의 세부 모듈의 동작을 보다 자세히 살펴 본다.
시간적 다운샘플링 모듈(111)은 최고 프레임율을 갖는 원 비디오 시퀀스를 인코더(100)가 지원하는 최저 프레임율을 갖는 비디오 시퀀스로 다운샘플링 한다. 이러한 시간적 다운샘플링은 종래의 방법들에 의하여 수행될 수 있는데, 단순히 프레임을 스킵(skip)하는 방법, 스킵과 동시에 잔여 프레임에 스킵되는 프레임의 정보를 일부 반영하는 방법 등이 있을 수 있으며, MCTF와 같이 시간적 분해를 지원하는 스케일러블 필터링 방법을 이용할 수도 있다.
공간적 다운샘플링 모듈(112)은 최고 해상도를 갖는 원 비디오 시퀀스를 지원되는 최저 해상도를 갖는 비디오 시퀀스로 다운샘플링 한다. 이러한 공간적 다운샘플링도 종래의 방법들에 의하여 수행될 수 있다. 이는 다수의 픽셀을 하나의 픽셀로 감소시키는 과정이므로, 다수의 픽셀에 대하여 소정의 연산을 수행하여 하나의 픽셀을 만들어 낸다. 이러한 연산으로는 평균(mean) 연산, 메디안(median) 연산, DCT(Discrete Cosine Tranform) 다운샘플링 등 다양한 방법이 사용될 수 있다. 이외에도 웨이블릿 변환을 통하여 최저 해상도를 갖는 프레임을 추출할 수도 있는데, 본 발명에서는 바람직하게, 웨이블릿 변환을 통하여 비디오 시퀀스를 다운샘플링 하는 것으로 한다. 왜냐하면, 본 발명을 동작시키기 위해서는 공간적 영역에서의 다운샘플링뿐만이 아니라 공간적 영역에서의 업샘플링도 필요한데, 웨이블릿 변환은 이와 같이 다운-업 샘플링 과정에서, 다른 방법들에 비하여 상대적으로 균형을 잘 이루고 있어서 상대적으로 화질의 손상이 적기 때문이다.
한편, 기초 계층 인코더(113)은 시간적 및 공간적으로 최저 해상도의 비디오 시퀀스를 낮은 비트율에서 우수한 화질을 보이는 코덱에 의하여 인코딩한다. 여기서 ' 우수한 화질'이란 동일한 비트율로 압축한 후 복원하였을 때 원래의 영상과의 왜곡이 작은 것을 의미한다. 이러한 화질의 판단 기준으로는 주로 PSNR(Peek Signal-to-Noise Ratio)이 사용된다.
상기 코덱으로는 H.264, MPEG-4와 같이 비웨이블릿 계열의 코덱을 사용하는 것이 바람직하다. 기초 계층 인코더(113)에서 인코딩된 기초 계층은 비트스트림 생성 모듈(170)에 제공된다.
그리고, 기초 계층 디코더(114)는 인코딩된 기초 계층을 기초 계층 인코더(113)에 대응하는 코덱으로 디코딩하여 기초 계층을 복원한다. 이와 같이, 인코딩 과정 후 다시 디코딩 과정을 거치는 것은 스케일러블 비디오 디코더(도 13의 200) 단에서 참조 프레임으로부터 원 영상을 복원하는 과정과 동일하게 일치시킴으로써 보다 정확한 영상을 복원하기 위함이다. 그러나, 기초 계층 디코더(114)는 필수적인 요소는 아니며, 공간적 다운샘플링 모듈(113)에 의하여 생성된 기초 계층을 그대로 다음의 공간적 업샘플링 모듈(116)에 제공하여도 본 발명이 동작하는 데는 문제가 없다.
공간적 업샘플링 모듈(180)은 공간적 다운샘플링 모듈(112)에 대응하여 최저 해상도의 프레임을 지원되는 최고 해상도를 갖도록 업샘플링한다. 업샘플링 과정은 종래의 업샘플링 필터를 이용하여 수행될 수 있다. 다만, 공간적 다운샘플링 모듈(112)에서 바람직하게 웨이블릿 분해를 이용했으므로 이에 대응되도록 웨이블릿 기반의 업샘플링 필터를 사용하는 것이 바람직할 것이다.
한편, 시간적 필터링 모듈(120)은 시간축 방향으로 프레임을 시간축 방향으로 프레 임들을 저주파 프레임(low-pass frame)과 고주파 프레임(high-pass frame)으로 분해함으로써 시간적 중복성을 감소시킨다. 본 발명에서 시간적 필터링 모듈(120)은 시간적 방향으로 필터링을 수행할 뿐만 아니라, B-인트라 모드에 의한 차이 필터링(difference filtering)도 수행하는 것으로 한다. 따라서 본 발명에서의 시간적 필터링이란 시간적 방향의 필터링뿐만 아니라 B-인트라 모드에 의한 필터링도 포함하는 개념으로 이해될 수 있다.
이와 같은 저주파 프레임은 다른 프레임을 참조하지 않고 인코딩되는 프레임이고, 고주파 프레임은 다른 참조 프레임(reference frame)으로부터 모션 추정을 수행하고 그 결과 재구성된 예측 프레임(predicted frame)과의 차이로부터 생성되는 프레임이다. 참조 프레임을 정하는 방법으로는 다양한 방법이 존재하며, GOP(Group of Pictures) 내 또는 그 외의 프레임을 참조 프레임으로 할 수도 있지만, 참조 프레임이 늘어 날수록 모션 벡터에 대한 비트량이 늘어나므로 통상 전후 2개의 프레임 모두 또는 그 중 하나만을 참조 프레임으로 하는 경우가 많다. 본 발명에서도 최대 전후 2개 프레임을 참조할 수 있는 것으로 하여 설명할 것이지만 이에 한정될 필요는 없다.
참조 프레임을 기준으로 하여 모션 추정을 수행하는 과정은 모션 추정 모듈(130)에 의하여 수행되는데, 시간적 필터링 모듈(120)은 필요할 때마다 모션 추정 모듈(130)로 하여금 모션 추정을 수행하게 하고 그 결과를 리턴 받을 수 있다.
이러한 시간적 필터링 방법으로는, 예컨대 MCTF(motion compensated temporal filtering), UMCTF(unconstrained MCTF) 등을 사용할 수 있다. 도 5는 MCTF(5/3 필 터)를 이용한 본 발명의 동작을 설명하는 도면이다. 여기서, 하나의 GOP는 8개의 프레임으로 구성되는 것으로 하고, GOP 경계를 넘어서도 참조를 할 수 있는 것으로 한다. 먼저, 8개의 프레임은 시간적 레벨 1에서, 4개의 저주파 프레임(L)과 4개의 고주파 프레임(H)으로 분해된다. 여기서, 고주파 프레임은 자신의 좌우 프레임을 모두를 참조 프레임으로 하거나, 좌우 프레임 중 하나의 프레임을 참조 프레임으로 할 수 있다. 그 후, 저주파 프레임은 다시 좌우의 고주파 프레임을 이용하여 자신을 업데이트(update)할 수 있다. 이러한 업데이트 과정은 저주파 프레임을 원 프레임 그대로 사용하지 않고 고주파 프레임을 반영하여 업데이트함으로써, 고주파 프레임에 편중되는 에러를 분산시키는 역할을 한다. 그러나, 이러한 업데이트 과정은 본 발명을 동작하기 위하여 필수적인 내용은 아니므로 이하에서는 업데이트 과정은 생략하고 원 프레임이 그대로 저주파 프레임이 되는 것을 예로 하여 설명한다.
다음, 시간적 레벨 2에서, 시간적 레벨 1의 4개의 저주파 프레임은 다시 2개의 저주파 프레임과 2개의 고주파 프레임으로 분해된다. 그리고, 마지막으로 시간적 레벨 3에서, 시간적 레벨 2의 2개의 저주파 프레임은 1개의 저주파 프레임과 1개의 고주파 프레임으로 분해된다. 이후 최상위 시간적 레벨의 저주파 프레임 1개와 나머지 고주파 프레임 7개를 부호화하여 전송하게 된다.
그런데, 최상위 시간적 레벨, 최저 프레임율을 갖는 프레임에 대응하는 구간에 대해서는 종래의 시간적 필터링 방법과는 다른 방법으로 필터링을 수행한다. 따라서, 현재 GOP 내의 시간적 레벨 3에서, 저주파 프레임(60) 및 고주파 프레임(70)은 본 발명에서 제안하는 방법에 의하여 필터링된다.
기초 계층 생성 모듈(110)에 의하여 최고 해상도로 업샘플링된 기초 계층은 이미 지원되는 최저 프레임율로 만들어져 있으므로, 저주파 프레임(60)과 고주파 프레임(70)에 각각에 대응되는 개수로 제공된다.
저주파 프레임(60)은 시간적 방향으로는 참조할 프레임이 존재하지 않으므로, 저주파 프레임(60)과 업샘플링된 기초 계층(B1)과의 차이(difference)를 구하는 방식으로, 즉 B-인트라 모드로 코딩된다. 그리고, 고주파 프레임(70)은 좌우의 저주파 프레임을 시간적 방향으로 참조할 수 있으므로, 블록(block)별로, 모드 선택 모듈(140)에 의한 소정의 모드 선택 방법에 따라서, 시간적으로 관련된 프레임과 기초 계층 중 어느 것을 참조 프레임으로 할 것인가가 결정된다. 그리고, 시간적 필터링 모듈(120)에 의하여 상기 블록별로 결정된 방법에 따라 코딩된다. 이와 같이, 모드 선택 모듈(140)에서의 모드 선택 과정에 대하여는 도 6을 참조하여 후술할 것이다. 본 명세서에서의 블록은 매크로 블록(macro block)일수도 있고, 매크로 블록을 분할한 크기의 서브 블록일 수도 있다.
지금까지 도 5와 같이, 최상위 시간적 레벨이 3이고, GOP가 8인 경우를 예를 들어서 설명하였지만, 본 발명은 최상위 시간적 레벨과, GOP의 크기는 어떠한 경우라도 적용될 수 있다. 예를 들어, GOP가 그대로 8이지만 최상위 시간적 레벨은 2인 경우라면 시간적 레벨 2에 존재하는 4개의 프레임 중 2개의 L 프레임은 차이 코딩을 2개의 H 프레임은 모드 선택에 따른 코딩을 수행하게 될 것이다. 또한, 시간적 방향으로 참조 프레임을 정하는 것도 도 5에서는 인접한 전후의 프레임을 하나씩만 참조할 수 있는 것으로 하였지만, 인접하지 않은 전후의 프레임을 복수로 참조하는 경우라도 본 발명이 적용될 수 있음은, 비디오 코딩 분야의 당업자라면 쉽게 알 수 있을 것이다.
모드 선택 모듈(140)은 최상위 시간적 레벨의 고주파 프레임에 대하여, 소정의 비용 함수를 이용하여 시간적으로 관련된 프레임과 기초 계층 중 어느 것을 참조 프레임으로 할 것인지를 블록별로 선택(모드 선택)한다. 도 4에서는 모드 선택 모듈(140)은 시간적 필터링 모듈(120)과 별개의 구성요소로서 도시되어 있지만, 시간적 필터링 모듈(120)에 포함되어 구성될 수도 있다.
이 모드 선택 방법으로는 R-D 최적화(Rate-Distortion optimization) 방법을 사용할 수 있다. 좀더 구체적으로 도 6을 참조하여 설명한다.
도 6은 일 실시예로서 4가지 모드를 도식화하여 나타낸 것이다. 먼저 순방향 추정 모드(①)는 현 프레임에서 특정 블록이 이전 프레임(반드시 직전 프레임만을 나타내는 것은 아니다)의 어떠한 부분에 가장 잘 매칭되는가를 찾은 후, 양 위치간의 변위를 모션 벡터를 구하고, 그에 따라서 시간적 차분(temporal residual)을 구한다.
역방향 추정 모드(②)는 현 프레임에서 특정 블록이 이후 프레임(반드시 직후 프레임만을 나타내는 것은 아니다)의 어떠한 부분에 가장 잘 매칭되는가를 찾은 후, 양 위치간의 변위를 모션 벡터를 구하고, 그에 따라서 시간적 차분을 구한다.
그리고, 양방향 추정 모드(③)는 상기 순방향 추정 모드(①) 및 역방향 추정 모드(②)에서 찾은 두 개의 블록을 평균하거나, 가중치를 두어 평균하여 가상의 블록을 만들고 이 블록과 현 프레임의 특정 블록과의 차이를 계산하여 시간적 필터링을 하 는 방식이다. 따라서, 양방향 추정 모드(③)는 하나의 블록 당 두 개의 모션 벡터가 필요하게 된다. 이러한 순방향, 역방향, 양방향 추정은 모두 시간적 추정(temporal estimation) 중 하나에 해당한다. 실제로 모드 선택 모듈(140)이 이와 같은 모션 벡터를 구하기 위해서는 모션 추정 모듈(130)을 이용한다.
한편, B-인트라 모드(④)는 공간적 업샘플링 모듈(116)에 의하여 업샘플링된 기초 계층을 참조 프레임으로 하여 그 차이(difference)를 계산한다. 이 경우에 기초 계층은 현재 프레임과 시간적으로 동일한 프레임이므로 모션 추정 과정은 필요하지 않다. 본 발명에서는 시간적 방향으로 프레임 간의 차분(residual)과 구분되도록 B-인트라 모드에서는 차이(difference)라는 표현을 사용하였다.
도 6에서, 역방향(backward) 추정 모드를 선택할 경우의 에러(mean absolute difference; MAD)를 Eb로, 순방향(forward) 추정 모드를 선택할 경우의 에러를 Ef로, 양방향(bi-directional) 추정 모드를 사용할 경우의 에러를 Ebi로, 그리고, 기초 계층을 참조 프레임으로 사용하는 경우의 에러를 Ei라고 한다. 그리고, 각각에 소모되는 추가 비트량을 Bb, Bf, Bbi, Bi라고 하면 각각의 비용 함수(cost function)는 다음의 표 1과 같이 정의된다. 여기서, Bb, Bf, Bbi, Bi는 각 방향에 대하여 모션 벡터, 참조 프레임 등을 포함하는 모션 정보를 압축하는데 소요되는 비트량을 의미한다. 그런데, B-인트라 모드는 모션 벡터를 사용하지 않으므로 Bi는 매우 작으므로 Bi는 생략하여도 무방할 것이다.
역방향의 비용 : Cb = Eb + λ×Bb 순방향의 비용 : Cf = Ef + λ×Bf 양방향의 비용 : Cbi = Ebi + λ×Bbi = Ebi + λ×(Bb+Bf) B-인트라의 비용 : Ci = α(Ei + λ×Bi) ≒ α×Ei
여기서, λ는 라그랑지안(lagrangian) 계수로서, 압축률에 따라서 결정되는 상수값이다. 모드 선택 모듈(140)은 위의 4가지 비용 중 최저의 모드를 선택함으로써 최상위 시간적 레벨의 고주파 프레임에 대하여 가장 적합한 모드를 선택할 수 있게 된다.
주목할 것은, B-인트라의 비용에서는 다른 비용에서와 달리 α라는 또 다른 상수를 하나 덧붙여져 있다. 이는 B-인트라 모드의 반영 정도를 의미하는 상수로서, α가 1이면 다른 비용 함수와 동등하게 비교하여 선택되도록 하는 경우이며, α가 커질 수록 B-인트라 모드가 잘 선택되지 않게 된다. 그리고, α가 작아질 수록 B-인트라 모드가 더 많이 선택되게 된다. 극단적인 예로서, α가 0이면 B-인트라 모드만이 선택되게 되며, α가 매우 큰 값이면 B-인트라 모드가 하나도 선택되지 않게 된다. 사용자는 α를 조절함으로써 모드 선택 모듈(140)에서 B-인트라 모드가 선택되는 정도를 조절할 수 있게 된다.
도 7은 최상위 시간적 레벨에 존재하는 고주파 프레임이 상기 비용 함수에 따라서 각 블록별로 다른 방식으로 부호화되는 예를 나타낸 것이다. 여기서 하나의 프레임은 16개의 블록으로 이루어져 있으며 MB는 각 블록을 나타내는 것으로 한다. 그리고, F, B, Bi, 그리고 Bintra는 각각 순방향 추정 모드, 역방향 추정 모드, 양방향 추정 모드, 그리고 인트라 추정 모드로 필터링됨을 나타낸다.
도 7에서 블록 MB0는 Cb, Cf, Cbi, 및 Ci를 비교한 결과 Cf가 최소값이어서 순방향 추정 모드로 필터링되고, 블록 MB15는 Ci가 최소값이어서 B-인트라 모드로 필터링되는 경우를 나타내고 있다. 마지막으로, 모드 선택 모듈(140)은 최상위 시간적 레벨에 존재하는 고주파 프레임에 대하여 상기 과정을 통하여 선택된 모드에 관한 정보를 비트스트림 생성 모듈(170)에 제공한다.
다시 도 4를 참조한다. 모션 추정 모듈(130)은 시간적 필터링 모듈(120) 또는 모드 선택 모듈(140)의 호출을 받아, 시간적 필터링 모듈(120)에서 결정되는 참조 프레임을 기준으로 현재 프레임의 모션 추정을 수행하고 모션 벡터를 구한다. 이러한 움직임 추정을 위해 널리 사용되는 알고리즘은 블록 매칭(block matching) 알고리즘이다. 즉, 주어진 블록을 참조 프레임의 특정 탐색영역 내에서 픽셀단위로 움직이면서 그 에러가 최저가 되는 경우의 변위를 움직임 벡터로 추정하는 것이다. 모션 추정을 위하여 도 7의 예에서와 같이 고정된 블록을 이용할 수도 있지만, 계층적 가변 사이즈 블록 매칭법(Hierarchical Variable Size Block Matching; HVSBM)에 의한 계층적인 방법을 사용할 수도 있다. 모션 추정 모듈(130)은 모션 추정 결과 구해지는 모션 벡터와 참조 프레임 번호 등의 모션 정보를 비트스트림 생성 모듈(170)에 제공한다.
공간적 변환 모듈(150)은 시간적 필터링 모듈(120)에 의하여 시간적 중복성이 제거된 프레임에 대하여, 공간적 스케일러빌리티를 지원하는 공간적 변환법을 사용하여 공간적 중복성를 제거한다. 이러한 공간적 변환법으로는 웨이블릿 변환(wavelet transform)이 주로 사용되고 있다. 공간적 변환 결과 구해지는 계수들을 변환 계수 라고 한다.
웨이블릿 변환을 사용하는 예를 보다 자세히 보면, 공간적 변환 모듈(150)은 시간적 중복성이 제거된 프레임에 대하여, 웨이블릿 변환(wavelet transform)을 사용하여 하나의 프레임을 분해하여 저주파수수 서브밴드(sub-band)와 고주파수수 서브밴드로 구분하고, 각각에 대한 웨이블릿 계수(wavelet coefficient)를 구한다.
도 8은 입력 이미지 또는 프레임을 웨이블릿 변환에 의하여 서브밴드로 분해하는 과정의 예를 나타낸 것으로, 2단계 레벨로 분할한 것이다. 여기에는 세가지의 고주파수수 서브밴드, 즉 수평, 수직, 및 대각 위치의 서브밴드가 있다. 저주파수수 서브밴드, 즉 수평 및 수직 방향 모두에 대하여 저주파수수인 서브밴드는 'LL'이라고 표기한다. 상기 고주파수수 서브밴드는 'LH', 'HL', 'HH'로 표기하는데, 이는 각각 수평방향 고주파수수, 수직방향 고주파수수, 그리고 수평 및 수직방향 고주파수수 서브밴드를 의미한다. 그리고, 저주파수수 서브밴드는 반복적으로 더 분해될 수 있다. 괄호 안의 숫자는 웨이블릿 변환 레벨을 나타낸 것이다.
양자화 모듈(160)은 공간적 변환 모듈(150)에서 구한 변환 계수를 양자화한다. 양자화(quantization)란 임의의 실수값으로 표현되는 상기 변환 계수를 일정 구간으로 나누어 불연속적인 값(discrete value)으로 나타내고, 이를 소정의 인덱스로 매칭(matching)시키는 작업을 의미한다. 특히, 공간적 변환 방법으로 웨이블릿 변환을 이용하는 경우에는 양자화 방법으로서 엠베디드 양자화(embedded quantization) 방법을 이용하는 경우가 많다. 이러한 엠베디드 양자화 방법으로는 EZW(Embedded Zerotrees Wavelet Algorithm), SPIHT(Set Partitioning in Hierarchical Trees), EZBC(Embedded ZeroBlock Coding) 등이 있다.
비트스트림 생성 모듈(170)은 기초 계층 인코더(113)로부터 제공되는 인코딩된 기초 계층 데이터와, 양자화 모듈(150)에 의하여 양자화된 변환 계수와, 모드 선택 모듈(140)에 의하여 제공되는 모드 정보와, 모션 추정 모듈(130)에 의하여 제공되는 모션 정보를 무손실 부호화하고 출력 비트스트림을 생성한다. 이러한 무손실 부호화 방법으로는, 산술 부호화(arithmetic coding), 가변 길이 부호화(variable length coding) 등의 다양한 엔트로피 부호화(entropy coding)를 사용할 수 있다.
도 9는 본 발명의 일 실시예에 따른 비트스트림(300)의 개략적 구성을 나타낸 것이다. 비트스트림(300)은 인코딩된 기초 계층에 대하여 무손실 부호화한 비트스트림인 기초 계층 비트스트림(400)과, 시간적, 공간적으로 스케일러빌리티가 지원되며 양자화 모듈(160)으로부터 전달된 변환 계수를 무손실 부호화한 비트스트림, 즉 이외 계층 비트스트림(500)으로 구성될 수 있다.
도 10에서 도시하는 바와 같이, 이외 계층 비트스트림(500)은 시퀀스 헤더(sequence header) 필드(510) 와 데이터 필드(520)로 구성될 수 있고, 데이터 필드(520)는 하나 이상의 GOP 필드(530, 540, 550)로 구성될 수 있다. 시퀀스 헤더 필드(510)에는 프레임의 가로 크기(2바이트), 세로 크기(2바이트), GOP의 크기(1바이트), 프레임율(1바이트) 등 영상의 특징을 기록한다.
그리고, 데이터 필드(520)는 영상을 나타내는 데이터와, 기타 영상 복원을 위하여 필요한 정보들(모션 정보, 모드 정보 등)이 기록된다.
도 11은 각 GOP 필드(510, 520, 550)의 세부 구조를 나타낸 것이다. GOP 필드(510, 520, 550)는 GOP 헤더(551)와, 시간적으로 다른 프레임을 참조하지 않고 인코딩되는 프레임, 즉 B-인트라 모드에 따라 코딩된 프레임에 관한 정보를 기록하는 T(0) 필드(552)와, 모션 정보 및 모드 정보가 기록되는 MV 필드(553)와, 상기 다른 프레임을 참조하여 인코딩되는 프레임의 정보를 기록하는 'the other T' 필드(554)로 구성될 수 있다. 모션 정보에는 블록의 크기와, 각 블록 별 모션 벡터와, 모션 벡터를 구하기 위하여 참조하는 참조 프레임의 번호 등이 포함된다. 그리고, 모드 정보는 최상위 시간적 레벨에 존재하는 고주파 프레임에 대하여 순방향, 역방향, 양방향 추정 모드와 B-인트라 모드 중 어떠한 모드로 인코딩 되었는가를 나타내는 인덱스 형태로 기록된다. 본 실시예에서는 모드 정보가 모션 벡터와 함께 MV 필드(553)에 기록되는 것으로 하였지만, 이에 한할 필요 없이 별도의 모드 정보 필드에 기록할 수도 있을 것이다. MV 필드(553)에는 각각의 프레임 별로 세부적인, MV(1) 내지 MV(n-1) 필드가 포함된다. 한편, the other T 필드(554)는 각 프레임의 영상을 나타내는 데이터가 기록되는 세부적인, T(1) 내지 T(n-1) 필드가 포함된다. 여기서, n은 GOP의 크기를 의미한다.
지금까지는 인코더(100)에서 시간적 필터링 후에 공간적 변환을 수행하는 경우를 설명하였지만, 이와 달리 공간적 변환을 수행한 후에 시간적 필터링을 수행하는 방법, 즉 인밴드(in-band) 방식을 사용할 수도 있다. 도 12는 본 발명에 따른 인코더(190)를 인밴드 방식으로 구현한 예를 나타내는 도면이다. 인밴드 방식의 인코더(190)는 단지 시간적 필터링과 공간적 변환의 순서가 바뀌었을 뿐 본 발명의 구현에는 어려움이 없음을 당업자라면 알 수 있을 것이다. 이와 같이 인밴드 방식으로 인코딩된 비트스트림으로부터 원 비디오 영상을 복원하기 위해서는 디코더도 마찬가지로 인밴드 방식, 즉 역 시간적 필터링 후, 역 공간적 변환을 수행하는 방식이 되어야 할 것이다.
도 13은 본 발명의 일 실시예에 따른 스케일러블 비디오 디코더(200)의 구성을 나타낸 도면이다. 스케일러블 비디오 디코더(200)는 비트스트림 해석 모듈(210), 역 양자화 모듈(220), 역 공간적 변환 모듈(230), 역 시간적 필터링 모듈(240), 공간적 업샘플링 모듈(250), 및 기초 계층 디코더(260)을 포함하여 구성될 수 있다.
먼저, 비트스트림 해석 모듈(210)은 엔트로피 부호화 방식의 역으로서, 입력된 비트스트림(300)을 해석하여 기초 계층의 정보와, 이외 계층의 정보를 분리하여 추출한다. 여기서, 기초 계층의 정보는 기초 계층 디코더(260)에 제공한다. 그리고, 그 이외 계층의 정보 중 텍스쳐 정보는 역 양자화 모듈(220)에 제공하고, 모션 정보 및 모드 정보는 역 시간적 필터링 모듈(240)에 제공한다.
기초 계층 디코더(260)는 비트스트림 해석 모듈(210)로부터 제공된 기초 계층의 정보를 소정의 코덱으로 디코딩한다. 상기 소정의 코덱으로는 인코딩시 사용된 코덱에 대응하는 코덱을 사용한다. 즉, 기초 계층 디코더(260)는 스케일러블 비디오 인코더(100) 단에서의 기초 계층 디코더(114)와 동일한 모듈을 사용한다.
공간적 업샘플링 모듈(250)은 기초 계층 디코더(260)에서 디코딩된 기초 계층의 프레임을 최고 해상도로 업샘플링(upsampling)한다. 인코더(100) 단에서의 공간적 다운샘플링 모듈(112)에 대응하여 최저 해상도의 프레임을 최고 해상도를 갖도록 업샘플링한다. 만약, 공간적 다운샘플링 모듈(112)에서 웨이블릿 분해를 이용한 경우 라면 이에 대응되도록 웨이블릿 기반의 업샘플링 필터를 사용하는 바람직할 것이다.
한편, 역 양자화 모듈(220)은 비트스트림 해석 모듈(210)로부터 전달된 텍스쳐 정보를 역 양자화하여 변환 계수를 출력한다. 역 양자화 과정은 인코더(100) 단에서 소정의 인덱스로 표현하여 전달한 값으로부터 이와 매칭되는 양자화된 계수를 찾는 과정이다. 인덱스와 양자화 계수 간의 매칭(matching) 관계를 나타내는 테이블은 인코더(100) 단으로부터 전달될 수도 있고, 미리 인코더와 디코더 간에 약속된 것일 수도 있다.
역 공간적 변환 모듈(230)은 공간적 변환을 역으로 수행하여, 상기 변환계수들을 공간적 영역에서의 변환계수로 역 변환한다. 예를 들어, 웨이블릿 방식으로 공간적 변환된 경우에는 웨이블릿 영역에서의 변환 계수를 공간적 영역에서의 변환 계수로 역 변환하는 것이다.
역 시간적 필터링 모듈(240)은 상기 공간적 영역에서의 변환 계수, 즉 차분 이미지를 역 시간적 필터링하여 비디오 시퀀스를 구성하는 프레임들을 복원한다. 역 시간적 필터링을 위하여 역 시간적 필터링 모듈(240)는 비트스트림 해석 모듈(210)로부터 제공되는 모션 벡터와 모드 정보, 그리고 공간적 업샘플링 모듈(250)로부터 제공되는 업샘플링된 기초 계층을 이용한다.
디코더(200) 단에서 역 시간적 필터링은 인코더(100) 단에서의 시간적 필터링 과정의 역순으로 진행된다. 즉 도 5의 예에서 역 시간적 필터링 순서는 시간적 레벨의 역순으로 진행된다. 따라서, 먼저, 최상위 시간적 레벨의 저주파 프레임 및 고주파 프레임에 대하여 역 필터링 되어야 한다. 예를 들어, 도 5와 같은 경우에 저주파 프레임(60)은 B-인트라 모드에 의하여 코딩되므로, 역 시간적 필터링 모듈(240)은 상기 저주파 프레임(60)과 공간적 업샘플링 모듈(250)에 의하여 제공되는 업샘플링된 기초 계층을 합함으로써 원 프레임을 복원한다. 그리고, 역 시간적 필터링 모듈(240)은 고주파 프레임(70)에 대하여는, 블록 별로 상기 모드 정보가 지시하는 모드에 따라서 역 필터링한다. 만약, 어떤 블록의 모드 정보가 B-인트라 모드를 나타낸다면, 시간적 필터링 모듈(240)은 상기 블록과 대응되는 기초 계층의 프레임의 영역을 상기 블록과 합함으로써 원 프레임 중 해당 영역을 복원한다. 그리고, 어떤 블록의 모드 정보가 그 이외의 모드를 나타낸다면, 시간적 필터링 모듈(240)은 추정 방향에 따른 모션 정보(참조 프레임 번호, 및 모션 벡터 등)를 이용하여 원 프레임 중 해당 영역을 복원할 것이다.
역 시간적 필터링 모듈(240)에 의하여 각 블록에 해당하는 전체 영역이 복원되어 하나의 복원된 프레임을 형성하고, 이러한 프레임들이 모여 전체적으로 하나의 비디오 시퀀스를 이룬다. 다만, 이상에서는 디코더 단으로 전달되는 비트스트림이 기초 계층 및 그 이외의 계층의 정보를 함께 포함하는 것으로 하여 설명하였다. 그러나, 만약 인코더(100)로부터 비트스트림을 전달받은 프리디코더 단에서 기초 계층만을 잘라내어 디코더(200) 단으로 전송한 경우라면, 디코더 단에 입력되는 비트스트림에는 기초 계층의 정보만 존재할 것이다. 따라서, 비트스트림 해석 모듈(210), 기초 계층 디코더(260)를 거쳐서 복원된 기초 계층의 프레임이 비디오 시퀀스로서 출력될 것이다.
지금까지의 설명에서, "모듈(module)"이라는 용어는 소프트웨어 구성요소(software component) 또는 FPGA(field-programmable gate array) 또는 ASIC(application-specific integrated circuit)과 같은 하드웨어 구성요소(hardware component)를 의미하며, 모듈은 어떤 역할들을 수행한다.  그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다.  모듈은 어드레싱(addressing)할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다.  따라서, 일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스(class) 구성요소들 및 태스크(task) 구성요소들과 같은 구성요소들과, 프로세스들(processes), 함수들(functions), 속성들(properties), 프로시저들(procedures), 서브루틴들(sub-routines), 프로그램 코드(program code)의 세그먼트들(segments), 드라이버들(drivers), 펌웨어(firmwares), 마이크로코드(micro-codes), 회로(circuits), 데이터(data), 데이터베이스(databases), 데이터 구조들(data structures), 테이블들(tables), 어레이들(arrays), 및 변수들(variables)을 포함한다.  구성요소들과 모듈들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다.  뿐만 아니라, 구성요소들 및 모듈들은 통신 시스템 내의 하나 또는 그 이상의 컴퓨터들을 실행시키도록 구현될 수도 있다.
본 발명을 사용하면 최저 비트율, 최저 프레임율에서는 기초 계층을 인코딩하는데 사용한 코덱의 성능과 동일한 성능을 얻을 수 있다. 한편, 그 상위의 해상도 및 프레임율에서는 차분 영상이 스케일러블 비디오 코딩 방법에 의해서 효율적으로 코딩 되므로, 낮은 비트율에서는 기존 방법보다 우수한 화질을 보이며, 높은 비트율로 갈수록 기존의 스케일러블 비디오 코딩 방법과 비슷한 성능을 갖게 된다.
만약, 본 발명에서와 같이 시간적 차분과 기초 계층과의 차이 중 유리한 쪽을 선택하는 것이 아니라, 단순히 기초 계층과의 차이 코딩만을 이용한다면, 낮은 비트율에서는 우수한 화질을 가질 수 있으나 높은 비트율로 갈수록 기존의 스케일러블 비디오 코딩 방식에 비해서 훨씬 낮은 성능을 갖게 된다. 이는 낮은 해상도를 갖는 기초 계층을 단순히 업샘플링 하는 것만으로는 최고 해상도의 원 영상을 추정하기가 어렵다는 것을 말해준다.
따라서, 본 발명에서 제시한 바와 같이 최고 해상도의 시간적 인접 프레임으로부터 예측하는 것이 더 유리한지 기초 계층으로부터 예측하는 것이 유리한지를 최적으로 판단하는 방법이, 비트율에 상관없이 우수한 화질을 갖게 되는 것이다.
도 14는 Mibile 시퀀스에서 비트율에 대한 PSNR을 비교한 그래프이다. 본 발명에 따른 방법을 사용한 결과는 높은 비트율에서는 기존의 스케일러블 비디오 코딩(SVC) 방법을 사용한 결과와 유사하고, 낮은 비트율에서는 상당히 우수한 결과를 나타낸다. 이 중에서도 α=1인 경우(모드를 선택하는 경우)는 α=0인 경우(차이 코딩만 하는 경우)에 비하여, 높은 비트율에서는 다소 높은 성능을 보이고 낮은 비트율에서는 다소 낮은 성능을 보인다. 그러나, 양자는 최저 비트율(48kbps)에서는 서로 동일한 성능을 나타내고 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특 징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야 한다.
본 발명에 따르면, 스케일러블 비디오 코딩에 있어서, 낮은 비트율과 높은 비트율에서 고르게 높은 성능을 갖도록 하는 효과가 있다.
또한, 본 발명에 따르면, 스케일러블 비디오 코딩에 있어서, 보다 정확한 모션 추정을 수행할 수 있는 효과가 있다.

Claims (26)

  1. 기초 계층을 이용하는 비디오 인코더에서의 시간적 필터링 방법에 있어서,
    (a) 입력된 원 비디오 시퀀스로부터 기초 계층을 생성하는 단계;
    (b) 상기 기초 계층을 시간적 필터링을 수행할 프레임의 해상도로 업샘플링하는 단계; 및
    (c) 상기 프레임을 구성하는 블록별로, 시간적 예측 방법과 상기 업샘플링된 기초 계층을 이용한 예측 방법 중에서 하나의 방법을 선택하여 코딩하는 단계를 포함하는, 시간적 필터링 방법.
  2. 제1항에 있어서, 상기 (a) 단계는
    입력된 원 비디오 시퀀스에 대하여 시간적 다운샘플링 및 공간적 다운샘플링을 수행하는 단계를 포함하는, 시간적 필터링 방법.
  3. 제1항에 있어서, 상기 (a) 단계는
    상기 다운샘플링을 수행한 결과를 소정의 코덱으로 인코딩한 후 디코딩하는 단계를 포함하는, 시간적 필터링 방법.
  4. 제2항에 있어서,
    상기 공간적 다운샘플링은 웨이블릿 변환을 통하여 수행되는, 시간적 필터링 방법.
  5. 제1항에 있어서, 상기 소정의 코덱은 낮은 비트율에서, 웨이블릿 기반의 스케일러블 비디오 코덱에 비하여 상대적으로 우수한 화질을 나타내는 코덱을 의미하는, 시간적 필터링 방법.
  6. 제1항에 있어서, 상기 (c)단계는
    (c-1) 상기 프레임 중에서 저주파 프레임은 상기 업샘플링된 기초 계층과의 차이를 계산하여 코딩하는 단계;
    (c-2) 상기 프레임 중 고주파 프레임을 구성하는 블록별로, 상기 시간적 예측 방법과 상기 기초 계층을 이용한 예측 방법 중에서, 소정의 비용 함수가 최소가 되는 방법으로 코딩하는 단계를 포함하는, 시간적 필터링 방법.
  7. 제6항에 있어서, 상기 소정의 비용 함수는
    역방향 추정인 경우에는 Eb+λ×Bb에 의하여 계산되고, 순방향 추정인 경우에는 Ef+λ×Bf에 의하여 계산되고, 양방향 추정인 경우에는 Ebi+λ×Bbi에 의하여 계산되며, 기초 계층을 이용한 예측 방법인 경우에는 α×Ei로 계산되는데,
    상기 λ는 라그랑지안 계수이며, 상기 Eb, Ef, Ebi, 및 Bi는 각 모드의 에러(error)를 의미하고, 상기 Bb, Bf, 및 Bbi는 각 모드에 대한 모션 정보를 압축하는데 소요되는 비트량을 의미하며, 상기 α는 기초 계층을 이용한 예측 방법이 반영되는 정도를 나타내는 양의 상수를 의미하는, 시간적 필터링 방법.
  8. (a) 입력된 원 비디오 시퀀스로부터, 기초 계층을 생성하는 단계;
    (b) 상기 기초 계층을 시간적 필터링을 수행할 프레임의 해상도로 업샘플링하는 단계;
    (c) 상기 프레임을 구성하는 블록별로, 시간적 예측 방법과 상기 업샘플링된 기초 계층을 이용한 예측 방법 중에서 하나의 방법을 선택하여 시간적 필터링을 수행하는 단계;
    (d) 상기 시간적 필터링에 의하여 생성되는 프레임에 대하여 공간적 변환을 수행하는 단계; 및
    (e) 상기 공간적 변환에 의하여 생성되는 변환 계수를 양자화하는 단계를 포함하는, 비디오 인코딩 방법.
  9. 제8항에 있어서, 상기 (a) 단계는
    입력된 원 비디오 시퀀스에 대하여 시간적 다운샘플링 및 공간적 다운샘플링을 수행하는 단계;
    상기 다운샘플링을 수행한 결과를 소정의 코덱으로 인코딩한 후 디코딩하는 단계를 포함하는, 비디오 인코딩 방법.
  10. 제8항에 있어서, 상기 (c)단계는
    (c-1) 상기 프레임 중에서 저주파 프레임은 상기 업샘플링된 기초 계층과의 차이를 계산하여 코딩하는 단계;
    (c-2) 상기 프레임 중 고주파 프레임을 구성하는 블록별로, 상기 시간적 예측 방법과 상기 기초 계층을 이용한 예측 방법 중에서, 소정의 비용 함수가 최소가 되는 방법으로 코딩하는 단계를 포함하는, 비디오 인코딩 방법.
  11. 시간적 필터링된 프레임을 비디오 디코더에서 복원하는 방법에 있어서,
    (a) 상기 필터링된 프레임이 저주파 프레임인 경우에는 상기 저주파 프레임과 기초 계층의 합을 구하는 단계;
    (b) 상기 필터링된 프레임이 고주파 프레임인 경우에는 인코더 측으로부터 전송되는 모드 정보에 따라서 상기 고주파 프레임의 블록별로 복원하는 단계를 포함하는, 시간적으로 필터링된 프레임을 복원하는 방법.
  12. 제11항에 있어서,
    (c) 상기 필터링된 프레임이 상기 최상위 이외의 시간적 레벨에 존재하는 프레임인 경우에는 시간적 참조 프레임을 이용하여 복원하는 단계를 더 포함하는, 시간적으로 필터링된 프레임을 복원하는 방법.
  13. 제11항에 있어서,
    상기 모드 정보는 역방향 추정 모드, 순방향 추정 모드, 또는 양방향 추정 모드 중 적어도 하나 이상의 시간적 추정 모드와, B-인트라 모드를 포함하는, 시간적으로 필터링된 프레임을 복원하는 방법.
  14. 제13항에 있어서, 상기 (b)단계는
    상기 고주파 프레임의 블록에 대한 모드 정보가 B-인트라 모드인 경우에는 상기 블록과 상기 기초 계층의 해당 영역의 합을 구하는 단계; 및
    상기 고주파 프레임의 블록에 대한 모드 정보가 상기 시간적 추정 모드 중 하나인 경우에는 해당 추정 모드에 대한 모션 정보에 따라서 원 프레임을 복원하는 단계를 포함하는, 시간적으로 필터링된 프레임을 복원하는 방법.
  15. (a) 입력된 기초 계층을 소정의 코덱으로 디코딩하는 단계;
    (b) 상기 디코딩된 기초 계층의 해상도를 업샘플링하는 단계;
    (c) 상기 기초 계층 이외 계층의 텍스쳐 정보를 역 양자화하여 변환 계수를 출력하는 단계;
    (d) 상기 변환계수를 공간적 영역에서 역 변환하는 단계; 및
    (e) 상기 업샘플링된 기초 계층을 이용하여 상기 역 변환 결과 생성되는 프레임으로부터 원 프레임을 복원하는 단계를 포함하는, 비디오 디코딩 방법.
  16. 제15항에 있어서, 상기 (e) 단계는
    (e-1) 상기 역 변환 결과 생성되는 프레임이 저주파 프레임인 경우에는 상기 저주파 프레임과 기초 계층의 합을 구하는 단계; 및
    (e-2) 상기 역 변환 결과 생성되는 프레임이 고주파 프레임인 경우에는 인코더 측으로부터 전송되는 모드 정보에 따라서 상기 고주파 프레임의 블록별로 복원하는 단계를 포함하는, 비디오 디코딩 방법.
  17. 제16항에 있어서,
    상기 모드 정보는 역방향 추정 모드, 순방향 추정 모드, 또는 양방향 추정 모드 중 적어도 하나 이상의 시간적 추정 모드와, B-인트라 모드를 포함하는, 비디오 디코딩 방법.
  18. 제17항에 있어서, 상기 (e-2)단계는
    상기 고주파 프레임의 블록에 대한 모드 정보가 B-인트라 모드인 경우에는 상기 블록과 상기 기초 계층의 해당 영역의 합을 구하는 단계; 및
    상기 고주파 프레임의 블록에 대한 모드 정보가 상기 시간적 추정 모드 중 하나인 경우에는 해당 추정 모드에 대한 모션 정보에 따라서 원 프레임을 복원하는 단계를 포함하는, 비디오 디코딩 방법.
  19. (a) 입력된 원 비디오 시퀀스로부터, 기초 계층을 생성하는 기초 계층 생성 모듈;
    (b) 상기 기초 계층을 시간적 필터링을 수행할 프레임의 해상도로 업샘플링하는 공간적 업샘플링 모듈;
    (c) 상기 프레임을 구성하는 블록별로, 시간적 예측 방법과 상기 업샘플링된 기초 계층을 이용한 예측 방법 중에서 하나의 방법을 선택하여 시간적 필터링을 수행하는 시간적 필터링 모듈;
    (d) 상기 시간적 필터링에 의하여 생성되는 프레임에 대하여 공간적 변환을 수행하는 공간적 변환 모듈; 및
    (e) 상기 공간적 변환에 의하여 생성되는 변환 계수를 양자화하는 양자화 모듈을 포함하는, 비디오 인코더.
  20. 제19항에 있어서, 상기 기초 계층 생성 모듈은
    입력된 원 비디오 시퀀스에 대하여 시간적 다운샘플링 및 공간적 다운샘플링을 수행하는 다운샘플링 모듈;
    상기 다운샘플링을 수행한 결과를 소정의 코덱으로 인코딩하는 기초 계층 인코더;
    상기 인코딩된 결과를 상기 코덱과 동일한 코덱으로 디코딩하는 기초 계층 디코더을 포함하는, 비디오 인코더.
  21. 제19항에 있어서, 상기 시간적 필터링 모듈은
    상기 프레임 중에서 저주파 프레임은 상기 업샘플링된 기초 계층과의 차이를 계산하여 코딩하고,
    상기 프레임 중 고주파 프레임을 구성하는 블록별로 상기 시간적 예측 방법과 상기 기초 계층을 이용한 예측 방법 중에서, 소정의 비용 함수가 최소가 되는 방법으로 코딩하는, 비디오 인코더.
  22. (a) 입력된 기초 계층을 소정의 코덱으로 디코딩하는 기초 계층 디코더;
    (b) 상기 디코딩된 기초 계층의 해상도를 업샘플링하는 공간적 업샘플링 모듈;
    (c) 상기 기초 계층 이외 계층의 텍스쳐 정보를 역 양자화하여 변환 계수를 출력하는 역 양자화 모듈;
    (d) 상기 변환계수를 공간적 영역으로 역 변환하는 역 공간적 변환 모듈; 및
    (e) 상기 업샘플링된 기초 계층을 이용하여 상기 역 변환 결과 생성되는 프레임으로부터 원 프레임을 복원하는 역 시간적 필터링 모듈을 포함하는, 비디오 디코더.
  23. 제22항에 있어서, 상기 역 시간적 필터링 모듈은
    상기 역 변환 결과 생성되는 프레임이 저주파 프레임인 경우에는 상기 저주파 프레임과 기초 계층의 합을 구하고,
    상기 역 변환 결과 생성되는 프레임이 고주파 프레임인 경우에는 인코더 측으로부터 전송되는 모드 정보에 따라서 상기 고주파 프레임의 블록별로 복원하는, 비디오 디코더.
  24. 제23항에 있어서,
    상기 모드 정보는 역방향 추정 모드, 순방향 추정 모드, 또는 양방향 추정 모드 중 적어도 하나 이상의 시간적 추정 모드와, B-인트라 모드를 포함하는, 비디오 디코더.
  25. 제24항에 있어서, 상기 역 시간적 필터링 모듈은
    상기 고주파 프레임의 블록에 대한 모드 정보가 B-인트라 모드인 경우에는 상기 블록과 상기 기초 계층의 해당 영역의 합을 구하고, 상기 고주파 프레임의 블록에 대한 모드 정보가 상기 시간적 추정 모드 중 하나인 경우에는 해당 추정 모드에 대한 모션 정보에 따라서 원 프레임을 복원하는, 비디오 디코더.
  26. 제1항 내지 제25항에 기재된 방법을 컴퓨터로 판독 가능한 프로그램으로 기록한 기록매체.
KR20040055269A 2004-07-15 2004-07-15 기초 계층을 이용하는 스케일러블 비디오 코딩 방법 및 장치 KR100679011B1 (ko)

Priority Applications (8)

Application Number Priority Date Filing Date Title
KR20040055269A KR100679011B1 (ko) 2004-07-15 2004-07-15 기초 계층을 이용하는 스케일러블 비디오 코딩 방법 및 장치
JP2007521391A JP5014989B2 (ja) 2004-07-15 2005-07-04 基礎階層を利用するフレーム圧縮方法、ビデオコーディング方法、フレーム復元方法、ビデオデコーディング方法、ビデオエンコーダ、ビデオデコーダ、および記録媒体
PCT/KR2005/002110 WO2006006778A1 (en) 2004-07-15 2005-07-04 Scalable video coding method and apparatus using base-layer
EP05765871A EP1766998A4 (en) 2004-07-15 2005-07-04 SCALABLE VIDEO ENCODING METHOD AND APPARATUS USING BASE LAYER
CA 2573843 CA2573843A1 (en) 2004-07-15 2005-07-04 Scalable video coding method and apparatus using base-layer
CN201010104384A CN101820541A (zh) 2004-07-15 2005-07-13 使用基础层的可伸缩性视频编码方法和设备
CN2005100831966A CN1722838B (zh) 2004-07-15 2005-07-13 使用基础层的可伸缩性视频编码方法和设备
US11/181,858 US20060013313A1 (en) 2004-07-15 2005-07-15 Scalable video coding method and apparatus using base-layer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20040055269A KR100679011B1 (ko) 2004-07-15 2004-07-15 기초 계층을 이용하는 스케일러블 비디오 코딩 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20060006328A true KR20060006328A (ko) 2006-01-19
KR100679011B1 KR100679011B1 (ko) 2007-02-05

Family

ID=35599384

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20040055269A KR100679011B1 (ko) 2004-07-15 2004-07-15 기초 계층을 이용하는 스케일러블 비디오 코딩 방법 및 장치

Country Status (7)

Country Link
US (1) US20060013313A1 (ko)
EP (1) EP1766998A4 (ko)
JP (1) JP5014989B2 (ko)
KR (1) KR100679011B1 (ko)
CN (2) CN101820541A (ko)
CA (1) CA2573843A1 (ko)
WO (1) WO2006006778A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006080797A1 (en) * 2005-01-27 2006-08-03 Samsung Electronics Co., Ltd. Multilayer video encoding/decoding method using residual re-estimation and apparatus using the same
WO2013147497A1 (ko) * 2012-03-26 2013-10-03 엘지전자 주식회사 스케일러블 비디오 코딩에서 샘플 적응적 오프셋 적용 방법 및 이를 이용한 장치
KR101465813B1 (ko) * 2006-12-20 2014-11-27 톰슨 리서치 펀딩 코포레이션 Iptv 시스템에서 로우 비트 레이트 스트림을 이용하는 비디오 데이터 손실 복원

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8893207B2 (en) * 2002-12-10 2014-11-18 Ol2, Inc. System and method for compressing streaming interactive video
US7580461B2 (en) 2004-02-27 2009-08-25 Microsoft Corporation Barbell lifting for wavelet coding
US7627037B2 (en) 2004-02-27 2009-12-01 Microsoft Corporation Barbell lifting for multi-layer wavelet coding
KR20060027779A (ko) * 2004-09-23 2006-03-28 엘지전자 주식회사 영상 블록의 시간상 및 공간상 상관관계를 이용한영상신호의 엔코딩 및 디코딩 방법과 장치
US7956930B2 (en) 2006-01-06 2011-06-07 Microsoft Corporation Resampling and picture resizing operations for multi-resolution video coding and decoding
US9332274B2 (en) 2006-07-07 2016-05-03 Microsoft Technology Licensing, Llc Spatially scalable video coding
TWI364990B (en) * 2006-09-07 2012-05-21 Lg Electronics Inc Method and apparatus for decoding/encoding of a video signal
US7991236B2 (en) 2006-10-16 2011-08-02 Nokia Corporation Discardable lower layer adaptations in scalable video coding
CN101601305B (zh) * 2006-10-20 2013-01-23 诺基亚公司 用于可伸缩多媒体的自适应路径的通用指示
AU2007318376B2 (en) * 2006-11-09 2010-07-01 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
KR100896290B1 (ko) * 2006-11-17 2009-05-07 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
AU2007342468B2 (en) * 2007-01-05 2011-11-24 Interdigital Vc Holdings, Inc. Hypothetical reference decoder for scalable video coding
FR2917262A1 (fr) * 2007-06-05 2008-12-12 Thomson Licensing Sas Dispositif et procede de codage d'un contenu video sous la forme d'un flux scalable.
US8750390B2 (en) 2008-01-10 2014-06-10 Microsoft Corporation Filtering and dithering as pre-processing before encoding
US8953673B2 (en) 2008-02-29 2015-02-10 Microsoft Corporation Scalable video coding and decoding with sample bit depth and chroma high-pass residual layers
US8711948B2 (en) 2008-03-21 2014-04-29 Microsoft Corporation Motion-compensated prediction of inter-layer residuals
WO2010010942A1 (ja) * 2008-07-25 2010-01-28 ソニー株式会社 画像処理装置および方法
US9571856B2 (en) 2008-08-25 2017-02-14 Microsoft Technology Licensing, Llc Conversion operations in scalable video encoding and decoding
US20110002554A1 (en) * 2009-06-11 2011-01-06 Motorola, Inc. Digital image compression by residual decimation
US20110002391A1 (en) * 2009-06-11 2011-01-06 Motorola, Inc. Digital image compression by resolution-adaptive macroblock coding
KR101479141B1 (ko) * 2009-12-10 2015-01-07 에스케이텔레콤 주식회사 트리 구조를 이용한 부호화/복호화 방법 및 장치
CN102104784A (zh) * 2010-04-28 2011-06-22 梁威 一种大数据量的像素集窗宽窗位调节方法
AU2012267007B2 (en) * 2011-06-10 2016-03-17 Mediatek Inc. Method and apparatus of scalable video coding
US20130077673A1 (en) * 2011-09-23 2013-03-28 Cisco Technology, Inc. Multi-processor compression system
CN102438152B (zh) * 2011-12-29 2013-06-19 中国科学技术大学 可伸缩视频编码容错传输方法、编码器、装置和系统
US20130195180A1 (en) * 2012-02-01 2013-08-01 Motorola Mobility, Inc. Encoding an image using embedded zero block coding along with a discrete cosine transformation
US20150043639A1 (en) * 2012-03-20 2015-02-12 Samsung Electronics Co., Ltd. Method and device for coding scalable video on basis of coding unit of tree structure, and method and device for decoding scalable video on basis of coding unit of tree structure
KR20160063405A (ko) * 2012-04-24 2016-06-03 브이아이디 스케일, 인크. Mpeg/3gpp-dash에서의 원활한 스트림 스위칭을 위한 방법 및 장치
JP6160615B2 (ja) * 2012-07-19 2017-07-12 日本電気株式会社 ウェーブレット変換符号化/復号方法および装置
US9332276B1 (en) 2012-08-09 2016-05-03 Google Inc. Variable-sized super block based direct prediction mode
CN102833542B (zh) * 2012-08-09 2015-12-02 芯原微电子(北京)有限公司 一种提高可伸缩视频编码质量增强层编码速度装置和方法
US10448032B2 (en) 2012-09-04 2019-10-15 Qualcomm Incorporated Signaling of down-sampling location information in scalable video coding
US9979960B2 (en) 2012-10-01 2018-05-22 Microsoft Technology Licensing, Llc Frame packing and unpacking between frames of chroma sampling formats with different chroma resolutions
CN110996100B (zh) 2012-10-01 2022-11-25 Ge视频压缩有限责任公司 解码器、解码方法、编码器和编码方法
EP2731337B1 (en) 2012-10-17 2017-07-12 Dolby Laboratories Licensing Corporation Systems and methods for transmitting video frames
US9661340B2 (en) * 2012-10-22 2017-05-23 Microsoft Technology Licensing, Llc Band separation filtering / inverse filtering for frame packing / unpacking higher resolution chroma sampling formats
WO2014148070A1 (ja) * 2013-03-19 2014-09-25 ソニー株式会社 画像処理装置及び画像処理方法
CN104937941B (zh) * 2013-03-28 2019-04-26 华为技术有限公司 用于确定用于空间可缩放视频编解码器的预测块的方法
US9813723B2 (en) * 2013-05-03 2017-11-07 Qualcomm Incorporated Conditionally invoking a resampling process in SHVC
US10142647B2 (en) 2014-11-13 2018-11-27 Google Llc Alternating block constrained decision mode coding
US9955176B2 (en) * 2015-11-30 2018-04-24 Intel Corporation Efficient and scalable intra video/image coding using wavelets and AVC, modified AVC, VPx, modified VPx, or modified HEVC coding
US10602187B2 (en) * 2015-11-30 2020-03-24 Intel Corporation Efficient, compatible, and scalable intra video/image coding using wavelets and HEVC coding
US10368080B2 (en) 2016-10-21 2019-07-30 Microsoft Technology Licensing, Llc Selective upsampling or refresh of chroma sample values
CN114503573A (zh) 2019-03-20 2022-05-13 威诺瓦国际有限公司 低复杂性增强视频编码
KR102179547B1 (ko) * 2019-04-26 2020-11-17 재단법인 실감교류인체감응솔루션연구단 지연시간 기반의 동적 네트워크 서비스 운용 방법 및 장치
CN110545426B (zh) * 2019-08-29 2021-04-20 西安电子科技大学 基于编码损伤修复cnn的空域可分级视频编码方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0336978A (ja) * 1989-06-30 1991-02-18 Matsushita Electric Ind Co Ltd モータ速度制御装置
JPH07107488A (ja) * 1993-09-30 1995-04-21 Toshiba Corp 動画像符号化装置
JP4018335B2 (ja) * 2000-01-05 2007-12-05 キヤノン株式会社 画像復号装置及び画像復号方法
US6510177B1 (en) * 2000-03-24 2003-01-21 Microsoft Corporation System and method for layered video coding enhancement
US6504872B1 (en) * 2000-07-28 2003-01-07 Zenith Electronics Corporation Down-conversion decoder for interlaced video
FI120125B (fi) * 2000-08-21 2009-06-30 Nokia Corp Kuvankoodaus
US6961383B1 (en) * 2000-11-22 2005-11-01 At&T Corp. Scalable video encoder/decoder with drift control
US6873655B2 (en) 2001-01-09 2005-03-29 Thomson Licensing A.A. Codec system and method for spatially scalable video data
CN1253008C (zh) * 2001-10-26 2006-04-19 皇家飞利浦电子股份有限公司 空间可分级压缩的方法和设备
US7627037B2 (en) * 2004-02-27 2009-12-01 Microsoft Corporation Barbell lifting for multi-layer wavelet coding

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006080797A1 (en) * 2005-01-27 2006-08-03 Samsung Electronics Co., Ltd. Multilayer video encoding/decoding method using residual re-estimation and apparatus using the same
KR101465813B1 (ko) * 2006-12-20 2014-11-27 톰슨 리서치 펀딩 코포레이션 Iptv 시스템에서 로우 비트 레이트 스트림을 이용하는 비디오 데이터 손실 복원
WO2013147497A1 (ko) * 2012-03-26 2013-10-03 엘지전자 주식회사 스케일러블 비디오 코딩에서 샘플 적응적 오프셋 적용 방법 및 이를 이용한 장치

Also Published As

Publication number Publication date
JP5014989B2 (ja) 2012-08-29
CN1722838A (zh) 2006-01-18
CA2573843A1 (en) 2006-01-19
US20060013313A1 (en) 2006-01-19
KR100679011B1 (ko) 2007-02-05
EP1766998A1 (en) 2007-03-28
CN101820541A (zh) 2010-09-01
EP1766998A4 (en) 2010-04-21
WO2006006778A1 (en) 2006-01-19
JP2008506328A (ja) 2008-02-28
CN1722838B (zh) 2010-08-11

Similar Documents

Publication Publication Date Title
KR100679011B1 (ko) 기초 계층을 이용하는 스케일러블 비디오 코딩 방법 및 장치
KR100621581B1 (ko) 기초 계층을 포함하는 비트스트림을 프리디코딩,디코딩하는 방법, 및 장치
KR100631777B1 (ko) 다 계층의 모션 벡터를 효율적으로 압축하는 방법 및 장치
KR100703760B1 (ko) 시간적 레벨간 모션 벡터 예측을 이용한 비디오인코딩/디코딩 방법 및 장치
KR100703724B1 (ko) 다 계층 기반으로 코딩된 스케일러블 비트스트림의비트율을 조절하는 장치 및 방법
US7889793B2 (en) Method and apparatus for effectively compressing motion vectors in video coder based on multi-layer
KR100679031B1 (ko) 다 계층 기반의 비디오 인코딩 방법, 디코딩 방법 및 상기방법을 이용한 장치
KR100714696B1 (ko) 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
KR100597402B1 (ko) 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
US20050226334A1 (en) Method and apparatus for implementing motion scalability
KR20060135992A (ko) 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
US20060159359A1 (en) Fine granularity scalable video encoding and decoding method and apparatus capable of controlling deblocking
JP2005304035A (ja) モーションスケーラビリティーを支援するコーディング方法及び装置
KR20050078099A (ko) 적응적으로 키 프레임을 삽입하는 비디오 코딩 장치 및 방법
JP2007520149A (ja) エンコーダ部からスケーラビリティを提供するスケーラブルビデオコーディング装置および方法
US20060013311A1 (en) Video decoding method using smoothing filter and video decoder therefor
WO2006080662A1 (en) Method and apparatus for effectively compressing motion vectors in video coder based on multi-layer
WO2006098586A1 (en) Video encoding/decoding method and apparatus using motion prediction between temporal levels

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121228

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20131230

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20141223

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee