KR20060027778A - 베이스 레이어를 이용하는 영상신호의 엔코딩/디코딩 방법및 장치 - Google Patents

베이스 레이어를 이용하는 영상신호의 엔코딩/디코딩 방법및 장치 Download PDF

Info

Publication number
KR20060027778A
KR20060027778A KR1020040116898A KR20040116898A KR20060027778A KR 20060027778 A KR20060027778 A KR 20060027778A KR 1020040116898 A KR1020040116898 A KR 1020040116898A KR 20040116898 A KR20040116898 A KR 20040116898A KR 20060027778 A KR20060027778 A KR 20060027778A
Authority
KR
South Korea
Prior art keywords
frame
layer
bit stream
image
frames
Prior art date
Application number
KR1020040116898A
Other languages
English (en)
Other versions
KR100878809B1 (ko
Inventor
전병문
윤도현
박지호
박승욱
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US11/231,868 priority Critical patent/US20060062300A1/en
Publication of KR20060027778A publication Critical patent/KR20060027778A/ko
Application granted granted Critical
Publication of KR100878809B1 publication Critical patent/KR100878809B1/ko
Priority to US13/067,497 priority patent/US8885710B2/en
Priority to US14/510,496 priority patent/US9338453B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation

Abstract

본 발명은, 영상신호를 스케일러블한(scalable) MCTF 방식으로 엔코딩하여 제 1레이어의 비트 스트림을 출력함과 동시에 상기 영상신호를 지정된 다른 방식으로 엔코딩하여 제 2레이어의 비트 스트림을 출력하되, 상기 MCTF 방식으로 엔코딩할 때, 상기 영상신호의 프레임 시퀀스 중 임의의 프레임에 포함되어 있는 영상 블록에 대해, 상기 임의의 프레임과 시간상으로 전과 후에 인접된 프레임 및 상기 제 2레이어의 비트 스트림에 포함되어 있는 보조 프레임 시퀀스중, 상기 임의의 프레임과 시간적으로 전과 후, 그리고 동시간대의 보조 프레임을 포함하는 프레임의 집합에서 적어도 1개의 프레임내의 기준블록을 사용하여 상기 영상블록의 각 화소의 차값을 구한다. 제 2레이어의 프레임을 제 1레이어 프레임의 예측영상을 만드는 데 이용함으로써, 코딩율을 높일 수 있다.
MCTF, 엔코딩, , 베이스, 상호관계, 레이어, 소화면, correlation, enhanced, base, layer

Description

베이스 레이어를 이용하는 영상신호의 엔코딩/디코딩 방법 및 장치 {Method and apparatus for encoding/decoding video signal using base layer}
도 1은 본 발명에 따른 영상신호 압축방법이 적용되는 영상신호 엔코딩 장치의 구성블록을 도시한 것이고,
도 2는 도 1의 MCTF 엔코더내의 영상 추정/예측과 갱신동작을 수행하는 필터의 구성을 도시한 것이고,
도 3은 본 발명에 따라, 한 GOP내의 영상 구간에서 L프레임과 이미지 차를 갖는 H프레임이 만들어지는 과정을 도시한 것이고,
도 4는 본 발명에 따라, 베이스 레이어의 보조 프레임과 인핸스드 레이어의 주 프레임간의 시간적 관련성을 위해 삽입전송되는 타이밍 정보의 구조를 예시적으로 보여주는 것이고,
도 5a 및 5b는 본 발명에 따라, 하나의 예측영상의 H프레임을 만들 때, 그 기준으로 사용될 수 있는 인핸스드 레이어와 베이스 레이어의 프레임간의 관계를 각각 도시한 것이고,
도 6은 도 2의 필터에 의해 만들어지는 하나의 매크로 블록에 대한 다양한 기준블록 선택모드를 제한적으로 예시한 것이고,
도 7은 본 발명에 따라, 매크로 블록 헤더정보에 실리는 기준블록 선택모드의 정보 구조를 예시한 것이고,
도 8은 본 발명에 의한 베이스 레이어 사용에 따른 필요정보가 인핸스드 레이어 비트 스트림에 실려있는 구조를 예시한 것이고,
도 9는 본 발명에 따라, 베이스 레이어의 보조 프레임의 이미지가 차감되는 인핸스드 레이어의 엔코딩 레벨에 대한 정보의 구조를 예시한 것이고,
도 10은 도 1의 장치에 의해 엔코딩된 데이터 스트림을 디코딩하는 장치의 블록도이고,
도 11은 도 10의 MCTF 디코더내의 역추정/예측 그리고 역갱신동작을 수행하는 역필터의 구성을 도시한 것이다.
<도면의 주요부분에 대한 부호의 설명>
100: MCTF 엔코더 101: 분리기
102: 추정/예측기 103: 갱신기
105, 240: 베이스 레이어 디코더 105a, 240a: 스케일러
110: 텍스처 엔코더 120: 모션 코딩부
130: 먹서 200: 디먹서
210: 텍스처 디코더 220: 모션 디코딩부
230: MCTF 디코더 231: 역갱신기
232: 역추정/예측기 234: 배열기
235: 모션벡터 디코더
본 발명은, 영상신호의 스케일러블(scalable) 엔코딩 및 디코딩에 관한 것으로, 특히, MCTF (Motion Compensated Temporal Filter) 방식에 의한 스케일러블 코딩 시에, 영상신호의 베이스 레이어(base layer)를 추가로 사용하여 영상을 엔코딩하고 그에 따라 엔코딩된 영상데이터를 디코딩하는 방법 및 장치에 관한 것이다.
영상신호를 디지털화하는 여러가지 표준이 제안되어 있는 데, MPEG 이 그 중 대표적이다. 이 MPEG 표준은 현재 DVD와 같은 기록매체에 영화 컨텐츠 등을 수록하는 표준으로 채택되어 널리 사용되고 있다. 또한, 대표적인 표준으로서 H.264가 있는 데, 이는 앞으로 고품질의 TV 방송신호에 표준으로 사용될 것으로 예상되고 있다.
그런데, TV 방송신호는 광대역을 필요로 하는 데, 현재 널리 사용되고 있는 휴대폰과 노트북, 그리고 앞으로 널리 사용하게 될 이동(mobile) TV 와 핸드 PC 등이 무선으로 송수신하는 영상에 대해서는 TV신호를 위한 대역폭과 같은 넓은 대역을 할당하기가 여의치 않다. 따라서, 이와 같은 이동성 휴대장치를 위한 영상 압축방식에 사용될 표준은 좀 더 영상신호의 압축 효율이 높아야만 한다.
더욱이, 상기와 같은 이동성 휴대장치는 자신이 처리 또는 표현(presentation)할 수 있는 능력이 다양할 수 밖에 없다. 따라서, 압축된 영상이 그 만큼 다양하게 사전준비되어야만 하는 데, 이는 동일한 하나의 영상원(source)을, 초당 전송 프레임수, 해상도, 픽셀당 비트수 등 다양한 변수들의 조합된 값에 대해 구비하고 있어야 함을 의미하므로 컨텐츠 제공자에게 많은 부담이 될 수 밖에 없다.
이러한 이유로, 컨텐츠 제공자는 하나의 영상원에 대해 고속 비트레이트의 압축 영상 데이터를 구비해 두고, 상기와 같은 이동성 장치가 요청하면 원시 영상을 디코딩한 다음, 요청한 장치의 영상처리 능력(capability)에 맞는 영상 데이터로 적절히 엔코딩하는 과정을 수행하여 제공한다. 하지만 이와 같은 방식에는 트랜스코딩(transcoding)(디코딩+엔코딩) 과정이 필히 수반되므로 이동성 장치가 요청한 영상을 제공함에 있어서 다소 시간 지연이 발생한다. 또한 트랜스코딩도 목표 엔코딩이 다양함에 따라 복잡한 하드웨어의 디바이스와 알고리즘을 필요로 한다.
이와 같은 불리한 점들을 해소하기 위해 제안된 것이 스케일러블 영상 코덱(SVC:Scalable Video Codec)이다. 이 방식은 영상신호를 엔코딩함에 있어, 최고 화질로 엔코딩하되, 그 결과로 생성된 픽처 시퀀스의 부분 시퀀스( 시퀀스 전체에서 간헐적으로 선택된 프레임의 시퀀스 )를 제공해도 저화질의 영상 표현이 가능하도록 하는 방식이다.
MCTF (Motion Compensated Temporal Filter) 방식이 상기와 같은 스케일러블 영상코덱에 사용하기 위해 제안된 엔코딩 방식이다. 그런데, 이 MCTF 방식은 앞서 언급한 바와 같이 대역폭이 제한된 이동 통신에 적용될 가능성이 현저히 높으므로 초당 전송되는 비트 수를 낮추기 위해 높은 압축 효율, 즉 높은 코딩 율(coding rate)을 필요로 한다.
그런데, 앞서 언급한 바와 같이 스케일러블 방식인 MCTF로 엔코딩된 픽처 시퀀스는 그 부분 시퀀스만을 수신하여 처리함으로써도 저화질의 영상 표현이 가능하지만, 비트레이트(bitrate)가 낮아지는 경우 화질저하가 크게 나타나는 문제점이 있다.
본 발명은 상기의 문제점을 해소하기 위해 창작된 것으로서, 그 목적은 영상을 스케일러블 방식으로 엔코딩함에 있어서, 낮은 전송률을 위한 별도의 픽처 시퀀스인 베이스 레이어를 제공하는 영상신호 엔코딩 방법 및 장치를 제공함에 있다.
본 발명의 다른 목적은, 스케일러블 방식으로 영상신호를 엔코딩할 때 베이스 레이어의 픽처 시퀀스와의 상관관계를 이용하여 예측영상을 생성하는 방법 및 장치를 제공하는 것이다.
본 발명의 또 다른 목적은, 별도의 베이스 레이어의 픽처 시퀀스를 사용하기 위해 필요한 관리정보를 생성/기록하는 방법 및 장치를 제공하는 것이다.
본 발명은 또한, 베이스 레이어의 영상신호를 추가로 사용하여 엔코딩된 데이터 스트림을 디코딩하는 방법 및 장치를 제공함을 목적으로 한다.
상기한 목적을 달성하기 위해 본 발명은, 영상신호를 MCTF 방식으로 스케일 러블하게 엔코딩할 때, 상기 영상신호를 스케일러블한 MCTF방식으로 엔코딩하여 제 1레이어의 비트 스트림을 출력함과 동시에 상기 영상신호를 다른 지정된 방식으로 엔코딩하여 제 2레이어의 비트 스트림을 출력하되, MCTF 방식으로 엔코딩할 때, 상기 프레임 시퀀스 중 임의의 프레임에 포함되어 있는 영상 블록에 대해, 상기 임의의 프레임과 시간상으로 전과 후에 인접된 프레임 및 상기 제 2레이어의 비트 스트림에 포함되어 있는 보조 프레임 시퀀스중, 상기 임의의 프레임과 시간적으로 전과 후, 그리고 동시간대의 보조 프레임을 포함하는 프레임의 집합에서 적어도 1개의 프레임내의 기준블록을 사용하여 그 영상블록에 대한 각 화소의 차값을 구하는 것을 특징으로 한다.
본 발명에 따른 일 실시예에서는, 상기 영상블록을 예측(predictive) 영상으로 만들기 위해, 제 1레이어의 비트 스트림에 있는 전과 후 프레임, 그리고 제 2레이어의 비트 스트림에 있는 전과 후, 그리고 동시간대의 보조 프레임의 5개중에서 1개 또는 2개의 프레임에서 기준블록을 찾아서 사용하며, 선택된 프레임에 대한 정보는 상기 영상블록의 헤더 정보에 기록하여 엔코딩 후 전송된다.
또한, 본 발명에 따른 실시예에서는, 상기 제 2레이어의 보조 프레임은 상기 제 1레이어의 프레임의 화면크기보다 작은 소화면 프레임으로 엔코딩하여 전송하며, 상기 영상 블록을 예측영상으로 만들기 위해 상기 소화면 프레임을 선택 사용할 때는 그 크기를 확장하여 사용한다.
또한, 본 발명에 따른 실시예에서는, 상기 제 1레이어와 제 2레이어의 비트 스트림의 동시 전송에 의한 영상의 리던던시(redundancy)를 줄이기 위해, 상기 제 1레이어의 프레임에서 상기 제 2레이어의 동시간대의 프레임의 크기를 확장해서 그 화소값을 차감하여 전송한다.
이하, 본 발명의 바람직한 실시예에 대해 첨부도면을 참조하여 상세히 설명한다.
도 1은 본 발명에 따른 영상신호의 스케일러블(scalable) 압축방법이 적용되는 영상신호 엔코딩 장치의 구성블록을 도시한 것이다.
도 1의 영상신호 엔코딩 장치는, 본 발명이 적용되는, 입력 영상신호를 MCTF 방식에 의해 각 매크로 블록(macro block) 단위로 엔코딩하고 적절한 관리정보를 생성하는 MCTF 엔코더(100), 상기 엔코딩된 각 매크로 블록의 정보를 압축된 비트열로 변환하는 텍스처(Texture) 코딩부(110), 상기 MCTF 엔코더(100)에 의해 얻어지는 영상블럭들의 모션 벡터들(motion vectors)을 지정된 방식에 의해 압축된 비트열로 코딩하는 모션 코딩부(120), 입력 영상신호를 지정된 방식, 예를 들어 MPEG 1, 2, 또는4, 또는 H.261, H.263 또는 H.264방식으로 엔코딩하여 소화면, 예를 들어 원래 크기의 25%크기인 픽처들의 시퀀스를 생성하는 베이스레이어 엔코더(150), 상기 텍스처 코딩부(110)의 출력 데이터와 상기 베이스레이어 엔코더(150)의 소화면 시퀀스와 상기 모션 코딩부(120)의 출력 벡터 데이터를 기 지정된 포맷으로 인캡슐(encapsulate)한 다음 기 지정된 전송포맷으로 상호 먹싱하여 출력하는 먹서(130)를 포함하여 구성된다. 이후 설명에서, 상기 소화면 픽처 시퀀스를 베이스 레이어 시퀀스로 상기 MCTF 엔코더(100)의 출력 프레임 시퀀스를 인핸스드(enhanced) 레이어 시퀀스로 칭한다. 상기 베이스 레이어 시퀀스는 상기 인핸스드 레이어인 주 프레임 시퀀스의 저화질 디코딩을 할 수밖에 없는 장치들이 선택적으로 사용할 수 있도록 제공하는 보조적인 프레임 시퀀스이다.
상기 MCTF 엔코더(100)는, 임의 영상 프레임내의 매크로 블록에 대하여 모션 추정(motion estimation)과 예측(prediction) 동작을 수행하며, 또한 인접 프레임내의 매크로 블록과의 이미지 차에 대해서 그 매크로 블록에 더하는 갱신(update) 동작을 수행하는 데, 도 2는 이를 수행하기 위한 필터의 구성을 도시한 것이다.
도 2의 필터는, 입력 영상 프레임 시퀀스를 전후 프레임으로 분리하는 분리기(101), 상기 베이스레이어 엔코더(150)의 엔코딩된 소화면 시퀀스의 픽처를 디코딩하고 내부의 스케일러(105a)를 이용해 원래의 영상크기로 복원하는 디코더(105), 전 또는 후로 인접된 프레임 또는 상기 스케일러(105a)에 의해 크기 복원된 프레임에서, 예측(predictive) 프레임으로 만들 프레임내의 각 매크로 블록에 대한 기준블록을 찾고 실제 매크로블럭과의 이미지 차( 각 대응화소의 차값 ) 및 모션 벡터를 산출하거나 또는 상기 스케일러(105a)에 의해 크기 복원된 동 시간대의 프레임내의 대응 매크로블록과의 이미지 차를 구하는 예측 동작(prediction)을 수행하는 추정/예측기(102), 상기 모션 추정에 의해 그 기준 블록이 찾아진 경우의 매크로 블록에 대해서는 상기 구해진 이미지 차를 정규화(normalize)한 후, 해당 기준 블록에 더하는 갱신(update) 동작을 수행하는 갱신기(103)를 포함하고 있다. 상기 갱신기(103)가 수행하는 동작을 'U' 동작(opeation)이라 하고 'U'동작에 의해 생성된 프레임을 'L' 프레임이라 한다. 그리고, 상기 갱신기(103)는 갱신된 프레임에 대해 상기 스케일러(105a)로부터 확장된 동 시간대의 프레임을 차감하여 출력하는 동작도 선택적으로 수행한다.
도 2의 필터는 영상 프레임이 아니고 하나의 프레임이 분할된 복수 개의 슬라이스에 대해 병렬적으로 동시에 수행할 수도 있으며, 상기 추정기(102)에 의해 만들어지는 이미지 차를 갖는 프레임(또는 슬라이스)을 'H' 프레임(슬라이스)이라 한다. 이는 'H' 프레임(슬라이스)에 있는 차값의 데이터가 영상신호의 고주파 성분을 반영하기 때문이다. 이하의 실시예에서 사용되는 '프레임'의 용어는 슬라이스의 의미를 포함하는 것으로 사용된다.
상기 추정/예측기(102)는 입력되는 영상 프레임들의 각각에 대해서, 기 정해진 크기의 매크로블럭(macro-block)으로 분할하고 각 분할된 매크로 블록의 이미지와 가장 유사한 이미지의 블록을 인접된 전/후 프레임 및/또는 상기 스케일러(105a)에서 확대된 프레임에서 찾는다. 즉 시간상(temporal) 상호관계를 갖는 매크로 블록을 찾는다. 가장 유사한 이미지의 블록은 대상 이미지 블록과 이미지 차가 가장 적은 블록이다. 이미지 차의 크기는, 예를 들어 pixel-to-pixel의 차이값 총합 또는 그 평균값 등으로 정해지며 따라서, 그 크기가 소정 문턱값이하가 되는 블록들 중에서 그 크기가 가장 작은 블록이며, 즉 이미지 차가 가장 적은 블록이며, 이 매크로 블록을 기준(reference)블록이라 한다. 기준 블록은 시간적으로 앞선 프레임( 베이스 레이어 프레임 포함 )과 뒤진 프레임( 베이스 레이어 프레임 포함 )에 각각 하나씩 존재할 수 있다.
상기 추정/예측기(102)는 기준 블록이 찾아진 경우에는 현재 블록의 그 블록 으로의 모션 모션 벡터값을 구하고 그 기준블록( 전 또는 후의 한 프레임에만 있는 )의 각 화소값과, 또는 기준블록들( 인접 양 프레임 모두에 있는 )의 각 평균 화소값과 현재 블록내의 각 화소의 에러값, 즉 차이값을 산출하여 출력한다.
만약, 상기의 모션 추정동작에서 현재 매크로 블록과의 이미지 차에 대한 값이 소정 문턱값이하가 되는 블록이 인접 양 프레임( 베이스 레이어 프레임 포함 )에서 찾아지지 않으면 현재 프레임과 동시간대 또는 근접 시간대의 프레임이 상기 베이스 레이어 시퀀스에 있는 지를 학인하고, 있으면 대응되는 매크로 블록의 화소값을 이용하여 현재 블록의 차이값을 구하고 모션 벡터는 구하지 않는다. 상기 근접 시간은 동일 영상을 갖고 있는 프레임으로 간주될 수 있는 시간격을 의미하며, 이 시간격에 대한 정보는 엔코딩된 스트림에 실려서 전송된다. 이에 대해서는 후술한다.
현재 매크로 블록에 대해서 기준블록이 찾아진 경우에도, 베이스 레이어의 동시간대 또는 근접 시간대의 프레임의 대응 매크로블록을 또한 사용할 수도 있다. 즉, 찾차아진 기준블록과 대응 매크로블록의, 예를 들어 각 화소의 평균값을 사용하여 현재 매크로 블록의 화소 차이값을 구할 수 있다. 이 경우에는 기준블록이 찾아진 매크로 블록에 대한 모션 벡터가 구해지고 또한 베이스 레이어의 프레임이 사용되었음을 알리는 정보가 현재 매크로 블록의 헤더에 기록된다.
상기 추정/예측기(102)에 의해 수행되는 상기와 같은 동작을 'P' 동작(opeation)이라 한다.
상기 MCTF 엔코더(100)는, 소정의 영상 시퀀스 구간, 예를 들어 하나의 GOP(Group of Pictures)에 대해, 앞서 설명한 'P'동작과 'U'동작을 수행하여 H프레임과 L프레임을 생성하고, L 프레임 시퀀스에 대해서는, 직렬로 연결된 다음단의 추정/예측기와 갱신기( 미도시 )에 의해 다시 'P'동작과 'U'동작을 수행하여 H프레임과 L프레임을 생성한다. 이와 같은 동작은 적정한 차수로 수행되어 최종의 인핸스드(enhanced) 레이어 시퀀스가 만들어진다. 도 3은 이에 대한 예를 도시한 것으로, 하나의 GOP에 L프레임의 수가 2개가 될 때까지 'P'와 'U'가 3차 레벨까지 수행된 것이다. 도 3의 예시된 동작을 수행함에 있어서, 상기 MCTF 엔코더(100)내의 갱신기(103)는 1차 L프레임 시퀀스로부터 2차 L프레임 시퀀스를 만들 때, 상기 스케일러(105a)로부터 확장제공되는 동시간대의 프레임들을 1차 L프레임 시퀀스에서 차감하여 생성한다. 물론, 1차 L프레임이 아닌 다른 차수의 L프레임에 대해 차감하여 다음 차수의 L프레임을 생성할 수도 있다. 예를 들어, 상기 스케일러(105a)로부터 제공되는 베이스 레이어 픽처가 1차 L프레임들과 시간적으로 어긋나 있는 경우에는, 차감레벨을 더 높이면 실제 영상의 시간적 차이가 줄어들게 되므로, 차감레벨을 높여서 상기 L프레임과 베이스 레이어의 확장 픽처와 차감하게 된다.
상기와 같이, 베이스 레이어로 제공되는 소화면 시퀀스를 사용하여 적절한 차수의 L프레임들을 차감하여 인핸스드 레이어 시퀀스를 생성하게 되면, 인핸스드 레이어의 시퀀스에서 영상 리던던시(redundancy)가 제거되므로 코딩 데이터 양이 감소한다. 즉, 코딩이득(coding gain)이 높아진다.
또한, 상기 MCTF 엔코더(100)는, 상기와 같은 스케일러블 엔코딩시에, 인핸스드 레이어의 베이스 레이어와의 타이밍을 위한 도 4와 같은 구조의 정보를 인핸 스드 레이어의 비트 스트림에 싣는다. 도 4의 타이밍 정보을 위해서 필요한 내용은 상기 베이스 레이어 엔코더(150) 및/또는 외부 입력설정된 값으로부터 수신하며, 도 4의 타이밍 정보는 인핸스드 레이어의 비트 스트림의 전송 초기에 한번 전송되거나 또는 주기적으로 삽입되어 전송된다.
도 4의 타이밍 정보 구조에서, 'flag_BL_fixed_frame_rate'는 상기 베이스 레이어 엔코더(150)에서 베이스 레이어 비트 스트림이 고정된 프레임 레이트로 엔코딩되는 지를 가리키는 정보이며, 'BL_time_increment_resolution'는 'BL_time_increment'에 기록된 시간값의 분해능에 대한 정보로서, 예를 들어, 'BL_time_increment'에 1(초)이 기록되고, 'BL_time_increment_resolution'에 5가 기록되면, 베이스 레이어의 프레임은 1/5초마다 하나씩 전송되는 것을 뜻한다. 그리고, 'THR_temporally_coincidence'는 인핸스드 레이어의 프레임과 베이스 레이어의 프레임간에 서로 동일한 영상을 갖고 있는 것으로 간주하는 시간격을 나타낸다. 이 필드는, 예를 들어 msec 단위의 값을 가질 수 있다. 즉, 이 값이 10인 경우에는, 엔코딩시에 삽입된 인핸스드 레이어의 프레임의 시간정보와, 상기 프레임 율('BL_time_increment'/'BL_time_increment_resolution')로부터 계산되는 베이스 레이어의 임의 프레임의 시간정보( 수신 프레임 수*'BL_time_increment'/'BL_time_increment_resolution')간의 차가 0.01(초)보다 작으면, 디코더단에서는, 같은 영상을 가진, 즉 서로 시간이 일치(in coincidence)하는 프레임으로 간주하게 된다.
한편, 상기 추정/예측기(102)는 'P' 동작을 수행하여 H프레임을 만들 때, 현 재 프레임내의 임의 매크로 블록의 기준 블록을 찾아서 현재 블록을 예측(predictive) 이미지 블록으로 만들 때, 도 5a에 도시된 바와 같이, 인핸스드 레이어의 인접된 전후의 L 프레임외에, 상기 스케일러(105a)로부터 제공되는 베이스 레이어의 확장된 픽처를 선택하여 사용할 수 있다.
본 발명에 따른 바람직한 실시예에서는, H프레임을 만들 때 5개의 프레임을 사용하는 데 도 5b는 임의의 H프레임을 만들기 위해 사용될 수 있는 다섯개의 프레임을 보여주고 있다. 즉, 하나의 L프레임(400L)을 H프레임(400H)으로 만들기 위해, 상기 L프레임(400L)과 동일한 MCTF 레벨의 전과 후의 L프레임(401,402), 그리고, 베이스 레이어의 시간적으로 동일 시점의 프레임(405) 및 그 전과 후의 프레임(403,404)을 사용한다.
도 6은 본 발명에 따라 5개의 프레임을 사용할 때, 임의의 한 매크로블록을 이미지차의 데이터로 만드는 데 선택된 2개 이하의 프레임 예를 몇가지 보여주고 있다. 'Fwd_BL_mode'는 기준 블록이 베이스 레이어 시퀀스에서 시간적으로 전방의 픽처에 있는 경우이고, 'Bwd_BL_mode'는 기준 블록이 베이스 레이어 시퀀스에서 시간적으로 전방의 픽처에, 'Bid_BL_mode'는 기준 블록이 베이스 레이어 시퀀스에서 시간적으로 전방 및 후방의 양 픽처에, 'Fwd_BL_Bwd_EL_mode'는 기준 블록이 베이스 레이어의 전방 픽처와 인핸스드 레이어의 후방 픽처에, 'Fwd_EL_Bwd_BL_mode'는 기준 블록이 인핸스드 레이어의 전방 픽처와 베이스 레이어의 후방 픽처에 있는 경우를 가리킨다. 그리고, 'TC_pred_mode'는 베이스 레이어의 동 시간대의 픽처의 대응 블록의 화소값이 사용된 것이고, 'TC_pred_Bwd_BL_mode'는 베이스 레이어의 동 시간대의 픽처의 대응 블록과 베이스 레이어의 후방 픽처에 있는 기준블록이 사용된 것이고, 'TC_pred_Fwd_BL_mode'는 베이스 레이어의 동 시간대의 픽처의 대응블록과 베이스 레이어의 전방 픽처에 있는 기준블록이 사용된 것이고, 'TC_pred_Bwd_EL_mode'는 베이스 레이어의 동 시간대의 픽처의 대응블록과 인핸스드 레이어의 후방 픽처에 있는 기준블록이 사용된 것이고, 'TC_pred_Fwd_EL_mode'는 베이스 레이어의 동 시간대의 픽처의 대응 블록과 인핸스드 레이어의 전방 픽처에 있는 기준블록이 사용된 경우를 가리킨다.
도 6에 도시되지 않은 다른 다양한 모드가 더 있으며, 도 6에 도시한 모드와 그 외 도시되지 않은 다양한 모드중 하나임을 디코더 측에 알리기 위해 도 7과 같은 구조를 갖는 '기준블록 선택모드' 정보가 상기 MCTF엔코더(100)에 의해 도 8에 도시한 바와 같이 해당 매크로 블록에 대한 헤더영역의 정해진 위치의 필드(Ref_Sel_mode)에 삽입기록된 다음, 상기 텍스처 코딩부(110)로 전송된다. 상기 Ref_Sel_mode필드는 프레임 (또는 슬라이스) 의 헤더에 삽입해서, 동일한 프레임 (또는 슬라이스)에서는 동일한 2 장의 기준 픽처 를 사용하도록 할 수도 있다.
도 7의 기준블록 선택모드 정보 구조에서, 'flag_use_BL'은 베이스 레이어가 기준 블록으로 사용되고 있는 지의 여부를 가리키는 정보이며, 'reference_selection_code'는 상기 언급한 각 모드에 대한 값이 기록되는 필드로서 앞서 언급한 5개의 프레임에서 하나 또는 2개의 어떤 프레임이 매크로 블록의 이미지 차를 만드는데 사용되고 있는 지를 가리키는 정보이다.
한편, 상기 MCTF 엔코더(100)는, 베이스 레이어의 픽처 시퀀스를 차감하는 L 프레임 시퀀스의 레벨, 즉 MCTF 레벨에 대한 정보를 도 9와 같은 구조로, 도 8에 도시한 바와 같이 해당 GOP의 헤더 영역의 정해진 위치의 필드(BL_Subtraction)에 기록하여 전송한다. 도 9의 정보 구조에서, 'flag_use_BL'은 해당 GOP에서 베이스 레이어가 사용되었는 지를 가리키는 정보이고, 'BL_subtraction_level'은 어떤 레벨의 L프레임 시퀀스에 대해 베이스 레이어의 픽처 시퀀스가 차감되었는 지를 가리킨다.
지금까지 설명한 방법에 의해 엔코딩된 데이터 스트림은 유선 또는 무선으로 디코딩 장치에 전송되거나 기록매체를 매개로 하여 전달되며, 디코딩 장치는 이후 설명하는 방법에 따라 원래의 인핸스드 레이어 및/또는 베이스 레이어의 영상신호를 복원하게 된다.
도 10은 도 1의 장치에 의해 엔코딩된 데이터 스트림을 디코딩하는 장치의 블록도이다. 도 10의 디코딩 장치는, 수신되는 데이터 스트림에서 압축된 모션 벡터 스트림과 압축된 매크로 블록 정보 스트림 그리고 베이스 레이어의 스트림을 분리하는 디먹서(200), 압축된 매크로 블록 정보 스트림을 원래의 비압축 상태로 복원하는 텍스처 디코딩부(210), 압축된 모션 벡터 스트림을 원래의 비압축 상태로 복원하는 모션 디코딩부(220), 압축해제된 매크로 블록 정보 스트림과 모션 벡터 스트림을 MCTF 방식에 따라 원래의 영상신호로 역변환하는 MCTF 디코더(230), 상기 베이스 레이어 스트림을 정해진 방식, 예를 들어 MPEG4 또는 H.264방식에 의해 디코딩하는 베이스 레이어 디코더(240)를 포함하여 구성되며, 상기 베이스 레이어 디코더(240)내에는 베이스 레이어의 소화면 픽처 시퀀스를 인핸스드 레이어의 픽처 크기로 확대하는 스케일러(240a)가 포함되어 있다.
상기 MCTF 디코더(230)는, 입력되는 스트림으로부터 원래의 프레임 시퀀스로 복원하기 위해 도 11과 같은 구조의 역(inverse) 필터를 내부 엘리먼트로 포함한다.
도 11의 역필터는, 입력되는 인핸스드 레이어 스트림을 H프레임들과 L프레임들로 구분 구성하고, 또한 인핸스드 레이어 스트림내의 각 헤더 정보를 해석하는 전단 프로세서(236), 입력되는 H 프레임의 각 화소의 차값을 입력되는 L프레임에서 감하는 역갱신기(231), H프레임의 이미지 차가 감해진 L프레임 및/또는 상기 스케일러(240a)로부터 확장출력되는 픽처를 참조하여 H프레임을 원래의 이미지를 갖는 프레임으로 복원하는 역추정/예측기(232), 입력되는 모션 벡터 스트림을 디코딩하여 각 블록의 모션벡터 정보를 상기 역추정기(232)에 제공하는 모션 벡터 디코더(235), 그리고 상기 역추정/예측기(232)에 의해 완성된 프레임을 상기 역갱신기(231)의 출력 L프레임 사이에 간삽시켜 정상적인 영상 프레임 시퀀스로 만드는 배열기(234)를 포함한다.
상기 역갱신기(231)와 역추정/예측기(232)는, 앞서 설명한 MCTF의 엔코딩 레벨에 맞게 상기 배열기(234) 전단에 다단으로 구성된다. 그리고, 각 단(stage)의 역갱신기중 하나의 출력 L프레임은 상기 디코더(240)의 스케일러(240a)의 확장 픽처의 이미지값과 더해지는 데(239), 상기 MCTF 디코더(230)는, 인핸스드 레이어 스트림에 실려온 도 9에 도시된 BL_subtraction_level의 값에 근거하여 어느 단( 엔코딩 레벨 )의 L프레임 출력에서 상기 베이스 레이어의 프레임을 더할 지를 결정한 다.
상기 전단 프로세서(236)는 입력되는 인핸스드 레이어 스트림을 해석하여 L프레임 시퀀스와 H프레임 시퀀스로 구별출력하고 또한 그 스트림내의 각 헤더정보를 이용하여, H프레임내의 매크로 블록이 만들어질 때 사용된 프레임에 대한 정보를 상기 역추정/예측기(232)에 알려준다. 이는 수신된 도 7의 '기준블록 선택모드'(reference_selection_code)의 정보로부터 알 수 있다.
이로써, 상기 역추정/예측기(232)는, 하나의 H프레임내의 임의의 매크로 블록에 대해, 그 블록의 예측 이미지를 만들기 위해 사용된 인핸스드 레이어의 L프레임 및/또는 베이스 레이어의 확대 프레임을 특정하고, 상기 모션벡터 디코더(235)로부터 제공되는 모션 벡터를 이용하여 해당 프레임에 있는 기준블록을 파악한 다음 상기 임의 매크로 블록내의 각 화소의 차값에 기준블록의 각 화소값 또는 두 매크로 블록의 각 화소 평균값을 더함으로써 원래 이미지를 복원할 수 있다. 특히, 상기 역추정/예측기(232)가 베이스 레이어의 프레임을 이용할 때는, 상기 전단 프로세서(236)가 해석한 도 4의 타이밍 정보를 이용하여 현재 인핸스드 레이어의 픽처 시퀀스에서, 현재 H프레임의 전, 후 또는 동시간대의 베이스 레이어의 보조 프레임을 특정한다. 상기 베이스 레이어 디코더(240)의 출력 프레임을 카운트하면 도 4의 정보로부터 각 베이스 레이어 프레임의 시간을 알 수 있으므로 현재 H프레임과의 전 후를 알 수 있으며, 동 시간대인지의 여부는 두 프레임의 시간차와 'THR_temporally_coincidence'의 값에 근거하여 판단한다.
하나의 H프레임에 대해, 소정단위, 예를 들어 슬라이스(slice) 단위로 병렬 적으로 수행되어 그 프레임내의 모든 매크로 블록들이 원래의 이미지를 가지게 된 다음 이들이 모두 조합됨으로써 하나의 완전한 영상 프레임을 구성하게 된다.
전술한 방법에 따라, MCTF방식으로 엔코딩된 데이터 스트림이 완전한 영상 프레임 시퀀스로 복구된다. 특히, 전술한 MCTF 엔코딩에서의 추정/예측과 갱신동작이 한 GOP에 대해서 N회 이상 수행한 경우, 상기 역추정/예측 그리고 역갱신 동작을 N회 수행하여 영상프레임 시퀀스를 구하면 원래 영상신호의 화질을 얻을 수 있고, 그 보다 작은 횟수로 수행하면 화질이 다소 저하되지만 비트 레이트는 보다 낮은 영상 프레임 시퀀스를 얻을 수 있다. 그런데, MCTF방식에 의해 비트 레이트가 낮은 영상 프레임 시퀀스를 얻는 대신, 베이스 레이어의 프레임 시퀀스를 디코딩출력하면 그 보다는 나은 화질을 얻을 수 있다. 따라서, 디코딩 장치는 자신의 성능에 맞는 정도로 상기 역추정/예측 그리고 역갱신 동작을 수행하도록 설계되거나 또는 베이스 레이어의 스트림만을 디코딩하도록 설계된다.
전술한 디코딩 장치는, 이동통신 단말기 등에 실장되거나 또는 기록매체를 재생하는 장치에 실장될 수 있다.
본 발명은 전술한 전형적인 바람직한 실시예에만 한정되는 것이 아니라 본 발명의 요지를 벗어나지 않는 범위 내에서 여러 가지로 개량, 변경, 대체 또는 부가하여 실시할 수 있는 것임은 당해 기술분야에 통상의 지식을 가진 자라면 용이하게 이해할 수 있을 것이다. 이러한 개량, 변경, 대체 또는 부가에 의한 실시가 이하의 첨부된 특허청구범위의 범주에 속하는 것이라면 그 기술사상 역시 본 발명에 속하는 것으로 보아야 한다.
상술한 바와 같이, MCTF 엔코딩에 있어서, 인핸스드 레이어의 프레임외에 저성능 디코더를 위해 제공되는 베이스 레이어의 프레임을 이용하여 H프레임 과 L프레임을 만들게 되면 코딩된 전체 데이터 량이 줄어들므로 MCTF의 코딩율이 향상된다.

Claims (39)

  1. 프레임 시퀀스로 구성된 영상신호를 엔코딩하는 장치에 있어서,
    상기 영상신호를 스케일러블한 제 1방식으로 엔코딩하여 제 1레이어의 비트 스트림을 출력하는 제 1엔코더와,
    상기 영상신호를 지정된 제 2방식으로 엔코딩하여 제 2레이어의 비트 스트림을 출력하는 제 2엔코더를 포함하여 구성되되,
    상기 제 1엔코더는,
    상기 프레임 시퀀스 중 임의의 프레임에 포함되어 있는 영상 블록에 대해, 상기 임의의 프레임과 시간상으로 전과 후에 인접된 프레임 및 상기 제 2레이어의 비트 스트림에 포함되어 있는 보조 프레임 시퀀스중, 상기 임의의 프레임과 시간적으로 전과 후, 그리고 동시간대의 보조 프레임을 포함하는 프레임의 집합에서 적어도 1개의 프레임내의 기준블록을 사용하여 상기 영상블록의 각 화소의 차값을 구하는 1수단과,
    상기 1수단에 의해 사용된 기준블록이 상기 제 1레이어의 비트 스트림에 속하는 프레임이면, 상기 구해진 각 화소의 차값을 상기 기준 블록에 더하는 2수단을 포함하여 구성되는 장치.
  2. 제 1항에 있어서,
    상기 기준 블록은, 하나의 프레임 또는 그보다 작은 소정크기의 영역내에서, 상기 영상 블록과의 이미지 차에 대한 값이 기 지정된 문턱값 이하가 되는 블록중에서 그 값이 최소인 블록인 것을 특징으로 하는 장치.
  3. 제 1항에 있어서,
    상기 1수단은, 상기 영상블록의 각 화소의 차값이 어떤 프레임내의 블록을 기준으로 구해진 것인지를 나타내는 정보를 상기 영상블록의 헤더 정보에 기록하는 것을 특징으로 하는 장치.
  4. 제 1항에 있어서,
    상기 제 1엔코더는, 상기 전 및/또는 후 프레임의 각 화소값에서, 상기 제 2레이어의 비트 스트림에 포함되어 있는 보조 프레임 시퀀스에 속하는 보조 프레임의 각 화소값을 감하여 상기 전 및/또는 후 프레임의 이미지 차를 구하는 3수단을 더 포함하여 구성되는 것을 특징으로 하는 장치.
  5. 제 4항에 있어서,
    상기 제 1엔코더는, 병렬 및 직렬로 연결된 복수의 상기 1수단과 2수단을 사용하여, N개의 원 이미지의 프레임에서 이미지 차를 갖는 N/2개의 H프레임들과 그 이미지 차가 더해진 N/2개의 L프레임들로 이루어진 n 엔코딩 레벨의 프레임 시퀀스를 구하고, 상기 n엔코딩 레벨의 L프레임 시퀀스에 대해서 동일한 방법으로 N/4개의 H프레임들과 N/4개의 L프레임들로 이루어진 n+1 엔코딩 레벨의 프레임 시퀀스를 구하되,
    상기 3수단은, 엔코딩 레벨의 어느 한 레벨의 L프레임들에 대해서만, 상기 보조 프레임 시퀀스에 속하는 보조 프레임의 각 화소값을 감하여 그 L프레임들의 이미지 차를 구하는 것을 특징으로 하는 장치.
  6. 제 5항에 있어서,
    상기 제 1엔코더는, 상기 이미지 차가 구해진 L프레임 시퀀스의 엔코딩 레벨에 대한 정보를 상기 제 1레이어의 비트 스트림에 삽입 기록하는 것을 특징으로 하는 장치.
  7. 제 1항에 있어서,
    상기 제 1엔코더는, 상기 제 2레이어의 비트 스트림에 속하는 프레임과 상기 제 1레이어의 비트 스트림에 속하는 프레임과의 시간적 관련성을 나타내는 타이밍 정보를 상기 제 1레이어의 비트 스트림에 삽입 기록하는 것을 특징으로 하는 장치.
  8. 제 7항에 있어서,
    상기 타이밍 정보는, 상기 제 2레이어의 비트 스트림이 고정된 프레임 율( frame rate )을 갖는 지를 나타내는 플래그 정보와, 상기 제 1레이어의 비트 스트림에 속하는 프레임과 상기 제 2레이어의 비트 스트림에 속하는 프레임이 동일 이미지에 대한 것으로 간주할 기준시간격에 대한 정보를 포함하는 것을 특징으로 하 는 장치.
  9. 제 8항에 있어서,
    상기 플래그 정보가 상기 제 2레이어의 비트 스트림이 고정된 프레임 율( frame rate )을 갖는 지를 나타낼 때는, 상기 타이밍 정보는 상기 제 2레이어의 비트 스트림내의 프레임의 전송율에 대한 정보를 더 포함하는 것을 특징으로 하는 장치.
  10. 제 9항에 있어서,
    상기 프레임 율에 대한 정보는, 일정한 시간을 나타내는 제 1값과 상기 제 1값을 분해하는 수의 제 2값으로 구성되는 것을 특징으로 하는 장치.
  11. 제 1항에 있어서,
    상기 제 2엔코더는, 상기 영상신호를, 상기 제 1레이어의 비트 스트림에 속하는 프레임의 화면크기보다 작은 소화면의 프레임을 갖는 제 2레이어의 비트 스트림으로 엔코딩하는 것을 특징으로 하는 장치.
  12. 제 11항에 있어서,
    상기 제 1수단은, 상기 영상블록의 각 화소의 차값을 구하기 위해 상기 소화면 프레임의 크기를 확장해서 사용하는 것을 특징으로 하는 장치.
  13. 프레임 시퀀스로 구성된 영상신호를 엔코딩하는 방법에 있어서,
    상기 영상신호를 스케일러블한 제 1방식으로 엔코딩하여 제 1레이어의 비트 스트림을 출력하는 단계와,
    상기 영상신호를 지정된 제 2방식으로 엔코딩하여 제 2레이어의 비트 스트림을 출력하는 단계를 포함하여 구성되되,
    상기 제 1방식으로 엔코딩하는 단계는,
    상기 프레임 시퀀스 중 임의의 프레임에 포함되어 있는 영상 블록에 대해, 상기 프레임과 시간상으로 전과 후에 인접된 프레임 및 상기 제 2레이어의 비트 스트림에 포함되어 있는 보조 프레임 시퀀스중, 상기 임의의 프레임과 시간적으로 전과 후, 그리고 동시간대의 보조 프레임을 포함하는 프레임 집합에서 적어도 1개의 프레임내의 기준블록을 사용하여 상기 영상블록의 각 화소의 차값을 구하는 1과정과,
    상기 1단계에 의해 사용된 기준블록이 상기 제 1레이어의 비트 스트림에 속하는 프레임이면, 상기 구해진 각 화소의 차값을 상기 기준 블록에 더하는 2과정을 포함하여 이루어지는 방법.
  14. 제 13항에 있어서,
    상기 기준 블록은, 하나의 프레임 또는 그보다 작은 소정크기의 영역내에서, 상기 영상 블록과의 이미지 차에 대한 값이 기 지정된 문턱값 이하가 되는 블록중 에서 그 값이 최소인 블록인 것을 특징으로 하는 방법.
  15. 제 13항에 있어서,
    상기 1과정은, 상기 영상블록의 각 화소의 차값이 어떤 프레임내의 블록을 기준으로 구해진 것인지를 나타내는 정보를 상기 영상블록의 헤더 정보에 기록하는 것을 특징으로 하는 방법.
  16. 제 13항에 있어서,
    상기 제 1방식으로 엔코딩하는 단계는,
    상기 전 및/또는 후 프레임의 각 화소값에서, 상기 제 2레이어의 비트 스트림에 포함되어 있는 보조 프레임 시퀀스에 속하는 보조 프레임의 각 화소값을 감하여 상기 전 및/또는 후 프레임의 이미지 차를 구하는 3과정을 더 포함하여 이루어지는 것을 특징으로 하는 방법.
  17. 제 16항에 있어서,
    상기 제 1방식으로 엔코딩하는 단계는,
    상기 1과정과 2과정을 병렬적으로 그리고 직렬적으로 수행함으로써, N개의 원 이미지의 프레임에서 이미지 차를 갖는 N/2개의 H프레임들과 이미지 차가 더해진 N/2개의 L프레임들로 이루어진 n 엔코딩 레벨의 프레임 시퀀스를 구하고, 상기 n엔코딩 레벨의 L프레임 시퀀스에 대해서 동일한 방법으로 N/4의 H프레임들과 N/4 의 L프레임들로 이루어진 n+1 엔코딩 레벨의 프레임 시퀀스를 구하되,
    상기 3과정에서는, 엔코딩 레벨의 어느 한 레벨의 L프레임들에 대해서만, 상기 보조 프레임 시퀀스에 속하는 보조 프레임의 각 화소값을 감하여 그 L프레임들의 이미지 차를 구하는 것을 특징으로 하는 방법.
  18. 제 17항에 있어서,
    상기 제 1방식으로 엔코딩하는 단계는,
    상기 이미지 차가 구해진 L프레임 시퀀스의 엔코딩 레벨에 대한 정보를 상기 제 1레이어의 비트 스트림에 삽입 기록하는 것을 특징으로 하는 방법.
  19. 제 13항에 있어서,
    상기 제 1방식으로 엔코딩하는 단계는,
    상기 제 2레이어의 비트 스트림에 속하는 프레임과 상기 제 1레이어의 비트 스트림에 속하는 프레임과의 시간적 관련성을 나타내는 타이밍 정보를 상기 제 1레이어의 비트 스트림에 삽입 기록하는 것을 특징으로 하는 방법.
  20. 제 19항에 있어서,
    상기 타이밍 정보는, 상기 제 2레이어의 비트 스트림이 고정된 프레임 율( frame rate )을 갖는 지를 나타내는 플래그 정보와, 상기 제 1레이어의 비트 스트림에 속하는 프레임과 상기 제 2레이어의 비트 스트림에 속하는 프레임이 동일 이 미지에 대한 것으로 간주할 기준시각격에 대한 정보를 포함하는 것을 특징으로 하는 방법.
  21. 제 20항에 있어서,
    상기 플래그 정보가 상기 제 2레이어의 비트 스트림이 고정된 프레임 율( frame rate )을 갖는 지를 나타낼 때는, 상기 타이밍 정보는 상기 제 2레이어의 비트 스트림내의 프레임의 전송율에 대한 정보를 더 포함하는 것을 특징으로 하는 방법.
  22. 제 13항에 있어서,
    상기 제 2방식으로 엔코딩하는 단계는,
    상기 영상신호를, 상기 제 1레이어의 비트 스트림에 속하는 프레임의 화면크기보다 작은 소화면의 프레임을 갖는 제 2레이어의 비트 스트림으로 엔코딩하는 것을 특징으로 하는 방법.
  23. 제 22항에 있어서,
    상기 제 1과정은, 상기 영상블록의 각 화소의 차값을 구하기 위해 상기 소화면 프레임의 크기를 확장해서 사용하는 것을 특징으로 하는 방법.
  24. 차값의 화소를 가진 H프레임 시퀀스와 L프레임 시퀀스를 포함하는 제 1레이 어의 비트 스트림과 또 다른 제 2레이어의 비트 스트림을 수신하여 영상신호로 디코딩하는 장치에 있어서,
    상기 제 1레이어의 비트 스트림을 스케일러블한 제 1방식으로 디코딩하여 원래의 이미지를 갖는 영상 프레임들로 복원 출력하는 제 1디코더와,
    상기 제 2레이어의 비트 스트림을 지정된 제 2방식으로 디코딩하여 원래의 이미지를 갖는 보조 영상 프레임들로 복원 출력하는 제 2디코더를 포함하여 구성되되,
    상기 제 1디코더는,
    상기 H프레임 시퀀스내의 임의의 프레임에 포함되어 있는 대상 블록이 갖고 있는 각 화소의 차값이, 상기 임의의 프레임과 시간상으로 전과 후에 인접된 프레임 및 상기 보조 영상 프레임 시퀀스중, 상기 임의의 프레임과 시간적으로 전과 후, 그리고 동시간대의 보조 영상 프레임을 포함하는 프레임의 집합에서 어떤 하나 또는 그 이상의 프레임내에 있는 다른 블록을 기준으로 구해진 것인지를 확인하는 1수단과,
    상기 1수단의 확인결과, 상기 다른 블록이 상기 제 1레이어의 비트 스트림에 속하는 프레임내에 있으면 상기 대상 블록의 각 화소의 차값을 상기 다른 블록으로부터 차감하는 2수단과,
    상기 차값이 차감된 다른 블록 및/또는 상기 보조 영상 프레임내에 있는 다른 블록의 각 화소 값을 근거로 하여 상기 대상 블록내의 각 화소의 차값으로부터 상기 대상 블록의 원래의 이미지를 복원하는 3수단을 포함하여 구성되는 장치.
  25. 제 24항에 있어서,
    상기 1수단은, 상기 대상 블록의 헤더정보에 포함되어 있는 정보에 근거하여, 상기 대상블록이 갖고 있는 각 화소의 차값이 구해진 기준블록을 포함하고 있는 적어도 하나의 프레임을 특정하는 것을 특징으로 하는 장치.
  26. 제 24항에 있어서,
    상기 제 1디코더는, 상기 보조 영상 프레임의 각 화소값을 상기 전 및/또는 후 프레임의 각 화소값에 더하는 4수단을 더 포함하여 구성되는 것을 특징으로 하는 장치.
  27. 제 26항에 있어서,
    상기 제 1디코더는, 병렬 및 직렬로 연결된 복수의 상기 2수단과 3수단을 사용하여, 3N/4개의 이미지 차를 갖는 H프레임들과 N/4개의 L프레임들로 이루어진 n+1 엔코딩레벨의 프레임 시퀀스로부터부터, N/4개의 이미지 차를 갖는 H프레임들을 원 이미지를 갖는 L프레임으로 복원하여 N/2개의 이미지 차를 갖는 H프레임들과 N/2개의 L프레임들로 이루어진 n엔코딩 레벨의 프레임 시퀀스를 구성하고, 이 프레임 시퀀스의 N/2개의 이미지 차를 갖는 H프레임에 대해서 원 이미지를 복원하여 전체 N개의 L프레임들로 이루어진 영상 프레임 시퀀스를 구하되,
    상기 4수단은, 엔코딩 레벨의 어느 한 레벨의 L프레임들에 대해서만, 상기 보조 영상 프레임의 각 화소값을 더하는 것을 특징으로 하는 장치.
  28. 제 27항에 있어서,
    상기 제 1디코더는, 상기 제 1레이어의 비트 스트림에 삽입되어 있는 정보에 근거하여, 상기 보조 영상 프레임의 각 화소값을 더할 L프레임 시퀀스에 대한 엔코딩 레벨을 판단하는 것을 특징으로 하는 장치.
  29. 제 24항에 있어서,
    상기 제 1디코더는, 상기 제 1레이어의 비트 스트림에 삽입되어 있는 정보로부터, 상기 제 2레이어의 비트 스트림에 속하는 프레임과 상기 제 1레이어의 비트 스트림에 속하는 프레임과의 시간적 관련성을 나타내는 타이밍 정보를 획득하고, 상기 획득된 타이밍 정보에 근거하여, 상기 보조 영상 프레임 시퀀스에 있는 각 보조 영상 프레임과 상기 임의의 프레임과의 시간적 전, 후 및/또는 동시간대 여부를 판단하는 것을 특징으로 하는 장치.
  30. 제 29항에 있어서,
    상기 타이밍 정보는, 상기 제 2레이어의 비트 스트림의 프레임의 전송율에 대한 정보와, 상기 제 1레이어의 비트 스트림에 속하는 프레임과 상기 제 2레이어의 비트 스트림에 속하는 프레임이 동시간대의 이미지에 대한 것으로 간주할 기준시간격에 대한 정보를 포함하는 것을 특징으로 하는 장치.
  31. 제 24항에 있어서,
    상기 보조 영상 프레임은 상기 제 1레이어의 비트 스트림에 속하는 프레임의 화면크기와 동일한 크기를 갖되, 상기 제 2레이어의 비트 스트림을 디코딩하여 얻어지는 소화면 프레임을 확장하여 상기 보조 영상 프레임으로 구성하는 스케일러를 더 포함하여 구성되는 장치.
  32. 차값의 화소를 가진 H프레임 시퀀스와 L프레임 시퀀스를 포함하는 제 1레이어의 비트 스트림과 또 다른 제 2레이어의 비트 스트림을 수신하여 영상신호로 디코딩하는 방법에 있어서,
    상기 제 1레이어의 비트 스트림을 스케일러블한 제 1방식으로 디코딩하여 원래의 이미지를 갖는 영상 프레임들로 복원 출력하는 단계와,
    상기 제 2레이어의 비트 스트림을 지정된 제 2방식으로 디코딩하여 원래의 이미지를 갖는 보조 영상 프레임들로 복원 출력하는 단계를 포함하여 이루어지되,
    상기 제 1방식으로 디코딩하는 단계는,
    상기 H프레임 시퀀스내의 임의의 프레임에 포함되어 있는 대상 블록이 갖고 있는 각 화소의 차값이, 상기 임의의 프레임과 시간상으로 전과 후에 인접된 프레임 및 상기 보조 영상 프레임 시퀀스중, 상기 임의의 프레임과 시간적으로 전과 후, 그리고 동시간대의 보조 영상 프레임을 포함하는 프레임의 집합에서 어떤 하나 또는 그 이상의 프레임내에 있는 다른 블록을 기준으로 구해진 것인지를 확인하는 1과정과,
    상기 확인결과, 상기 다른 블록이 상기 제 1레이어의 비트 스트림에 속하는 프레임내에 있으면 상기 대상 블록의 각 화소의 차값을 상기 다른 블록으로부터 차감하는 2과정과,
    상기 차값이 차감된 다른 블록 및/또는 상기 보조 영상 프레임내에 있는 다른 블록의 각 화소 값을 근거로 하여 상기 대상 블록내의 각 화소의 차값으로부터 상기 대상 블록의 원래의 이미지를 복원하는 3과정을 포함하여 이루어지는 방법.
  33. 제 32항에 있어서,
    상기 1과정은 상기 대상 블록의 헤더정보에 포함되어 있는 정보에 근거하여, 상기 대상블록이 갖고 있는 각 화소의 차값이 구해진 기준블록을 포함하고 있는 적어도 하나의 프레임을 특정하는 것을 특징으로 하는 방법.
  34. 제 32항에 있어서,
    상기 제 1방식으로 디코딩하는 단계는,
    상기 보조 영상 프레임의 각 화소값을 상기 전 및/또는 후 프레임의 각 화소값에 더하는 4과정을 더 포함하여 이루어지는 것을 특징으로 하는 방법.
  35. 제 34항에 있어서,
    상기 제 1방식으로 디코딩하는 단계는,
    상기 2과정 및 3과정을 병렬 및 직렬로 수행함으로써, 3N/4개의 이미지 차를 갖는 H프레임들과 N/4개의 L프레임들로 이루어진 n+1 엔코딩레벨의 프레임 시퀀스로부터부터, N/4개의 이미지 차를 갖는 H프레임들을 원 이미지를 갖는 L프레임으로 복원하여 N/2개의 이미지 차를 갖는 H프레임들과 N/2개의 L프레임들로 이루어진 n엔코딩 레벨의 프레임 시퀀스를 구성하고, 이 프레임 시퀀스의 N/2개의 이미지 차를 갖는 H프레임에 대해서 원 이미지를 복원하여 전체 N개의 L프레임들로 이루어진 영상 프레임 시퀀스를 구하되,
    상기 4과정은, 엔코딩 레벨의 어느 한 레벨의 L프레임들에 대해서만, 상기 보조 영상 프레임의 각 화소값을 더하는 것을 특징으로 하는 방법.
  36. 제 35항에 있어서,
    상기 제 1방식으로 디코딩하는 단계는,
    상기 제 1레이어의 비트 스트림에 삽입되어 있는 정보에 근거하여, 상기 보조 영상 프레임의 각 화소값을 더할 L프레임 시퀀스에 대한 엔코딩 레벨을 판단하는 것을 특징으로 하는 방법.
  37. 제 32항에 있어서,
    상기 제 1방식으로 디코딩하는 단계는,
    상기 제 1레이어의 비트 스트림에 삽입되어 있는 정보로부터, 상기 제 2레이어의 비트 스트림에 속하는 프레임과 상기 제 1레이어의 비트 스트림에 속하는 프 레임과의 시간적 관련성을 나타내는 타이밍 정보를 획득하고, 상기 획득된 타이밍 정보에 근거하여, 상기 보조 영상 프레임 시퀀스에 있는 각 보조 영상 프레임과 상기 임의의 프레임과의 시간적 전, 후 및/또는 동시간대 여부를 판단하는 것을 특징으로 하는 방법.
  38. 제 37항에 있어서,
    상기 타이밍 정보는, 상기 제 2레이어의 비트 스트림의 프레임의 전송율에 대한 정보와, 상기 제 1레이어의 비트 스트림에 속하는 프레임과 상기 제 2레이어의 비트 스트림에 속하는 프레임이 동시간대의 이미지에 대한 것으로 간주할 기준시간격에 대한 정보를 포함하는 것을 특징으로 하는 방법.
  39. 제 32항에 있어서,
    상기 보조 영상 프레임은, 상기 제 2레이어의 비트 스트림을 디코딩한 후, 상기 제 1레이어의 비트 스트림에 속하는 프레임의 화면크기와 동일하도록 확장된 프레임인 것을 특징으로 하는 방법.
KR1020040116898A 2004-09-23 2004-12-30 비디오 신호의 디코딩 방법 및 이의 장치 KR100878809B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US11/231,868 US20060062300A1 (en) 2004-09-23 2005-09-22 Method and device for encoding/decoding video signals using base layer
US13/067,497 US8885710B2 (en) 2004-09-23 2011-06-06 Method and device for encoding/decoding video signals using base layer
US14/510,496 US9338453B2 (en) 2004-09-23 2014-10-09 Method and device for encoding/decoding video signals using base layer

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US61218004P 2004-09-23 2004-09-23
US60/612,180 2004-09-23

Publications (2)

Publication Number Publication Date
KR20060027778A true KR20060027778A (ko) 2006-03-28
KR100878809B1 KR100878809B1 (ko) 2009-01-14

Family

ID=37138731

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040116898A KR100878809B1 (ko) 2004-09-23 2004-12-30 비디오 신호의 디코딩 방법 및 이의 장치

Country Status (2)

Country Link
US (3) US20060062300A1 (ko)
KR (1) KR100878809B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101353655B1 (ko) * 2012-06-22 2014-01-21 한국방송공사 이종 코덱을 이용한 스케일러블 비디오 부호화 및 복호화 방법 및 그 장치
WO2014107074A1 (ko) * 2013-01-04 2014-07-10 삼성전자 주식회사 스케일러블 비디오의 부호화 및 복호화를 위한 움직임 보상 방법 및 장치
WO2014171768A1 (ko) * 2013-04-17 2014-10-23 주식회사 윌러스표준기술연구소 비디오 신호 처리 방법 및 장치

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1217841A2 (en) * 2000-11-27 2002-06-26 Media Glue Corporation Bitstream separating and merging system, apparatus, method and computer program product
KR20060027779A (ko) * 2004-09-23 2006-03-28 엘지전자 주식회사 영상 블록의 시간상 및 공간상 상관관계를 이용한영상신호의 엔코딩 및 디코딩 방법과 장치
US8594191B2 (en) * 2008-01-03 2013-11-26 Broadcom Corporation Video processing system and transcoder for use with layered video coding and methods for use therewith
US8045836B2 (en) * 2008-01-11 2011-10-25 Texas Instruments Incorporated System and method for recording high frame rate video, replaying slow-motion and replaying normal speed with audio-video synchronization
TWI376645B (en) * 2008-07-29 2012-11-11 Sonix Technology Co Ltd Image processing methof of noise reduction and apparatus thereof
JP5629783B2 (ja) * 2010-01-26 2014-11-26 ヴィディオ・インコーポレーテッド 低計算量の高フレームレートビデオエンコーダ
US20130188719A1 (en) * 2012-01-20 2013-07-25 Qualcomm Incorporated Motion prediction in svc using motion vector for intra-coded block
WO2013168952A1 (ko) * 2012-05-08 2013-11-14 엘지전자 주식회사 인터 레이어 예측 방법 및 이를 이용하는 장치
WO2013176495A1 (ko) * 2012-05-25 2013-11-28 엘지전자 주식회사 인터 레이어 예측 방법 및 이를 이용하는 장치
WO2014017809A1 (ko) * 2012-07-24 2014-01-30 한국전자통신연구원 영상의 복호화 방법 및 이를 이용하는 장치
US9426462B2 (en) 2012-09-21 2016-08-23 Qualcomm Incorporated Indication and activation of parameter sets for video coding
KR102550743B1 (ko) * 2012-12-04 2023-07-04 돌비 레버러토리즈 라이쎈싱 코오포레이션 비디오 부호화 및 복호화 방법, 그를 이용한 장치
US8798165B2 (en) 2013-01-04 2014-08-05 Vidyo, Inc. Techniques for prediction of unavailable samples in inter-layer predicted video coding
US9635371B2 (en) * 2013-05-31 2017-04-25 Qualcomm Incorporated Determining rounding offset using scaling factor in picture resampling
US10212437B2 (en) 2013-07-18 2019-02-19 Qualcomm Incorporated Device and method for scalable coding of video information
US9772405B2 (en) * 2014-10-06 2017-09-26 The Boeing Company Backfilling clouds of 3D coordinates
GB2539197B (en) * 2015-06-08 2019-10-30 Imagination Tech Ltd Complementary vectors

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6263022B1 (en) * 1999-07-06 2001-07-17 Philips Electronics North America Corp. System and method for fine granular scalable video with selective quality enhancement
US7929610B2 (en) * 2001-03-26 2011-04-19 Sharp Kabushiki Kaisha Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
KR20040054746A (ko) * 2001-10-26 2004-06-25 코닌클리케 필립스 일렉트로닉스 엔.브이. 공간 스케일가능 압축 방법 및 장치
KR100596705B1 (ko) * 2004-03-04 2006-07-04 삼성전자주식회사 비디오 스트리밍 서비스를 위한 비디오 코딩 방법과 비디오 인코딩 시스템, 및 비디오 디코딩 방법과 비디오 디코딩 시스템
US20050195896A1 (en) * 2004-03-08 2005-09-08 National Chiao Tung University Architecture for stack robust fine granularity scalability
KR100587561B1 (ko) * 2004-04-08 2006-06-08 삼성전자주식회사 모션 스케일러빌리티를 구현하는 방법 및 장치
WO2006001777A1 (en) * 2004-06-23 2006-01-05 Agency For Science, Technology And Research Scalable video coding with grid motion estimation and compensation
KR100913088B1 (ko) * 2005-01-21 2009-08-21 엘지전자 주식회사 베이스 레이어의 내부모드 블록의 예측정보를 이용하여영상신호를 엔코딩/디코딩하는 방법 및 장치
RU2387094C1 (ru) * 2006-11-09 2010-04-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство для кодирования/декодирования видеосигнала

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101353655B1 (ko) * 2012-06-22 2014-01-21 한국방송공사 이종 코덱을 이용한 스케일러블 비디오 부호화 및 복호화 방법 및 그 장치
WO2014107074A1 (ko) * 2013-01-04 2014-07-10 삼성전자 주식회사 스케일러블 비디오의 부호화 및 복호화를 위한 움직임 보상 방법 및 장치
WO2014171768A1 (ko) * 2013-04-17 2014-10-23 주식회사 윌러스표준기술연구소 비디오 신호 처리 방법 및 장치

Also Published As

Publication number Publication date
US8885710B2 (en) 2014-11-11
US20110235714A1 (en) 2011-09-29
US9338453B2 (en) 2016-05-10
KR100878809B1 (ko) 2009-01-14
US20150023428A1 (en) 2015-01-22
US20060062300A1 (en) 2006-03-23

Similar Documents

Publication Publication Date Title
US9338453B2 (en) Method and device for encoding/decoding video signals using base layer
KR100893868B1 (ko) 영상 신호의 인코딩 및 디코딩 방법
US7924917B2 (en) Method for encoding and decoding video signals
US8532187B2 (en) Method and apparatus for scalably encoding/decoding video signal
US20060062299A1 (en) Method and device for encoding/decoding video signals using temporal and spatial correlations between macroblocks
US20060133482A1 (en) Method for scalably encoding and decoding video signal
KR20060109247A (ko) 베이스 레이어 픽처를 이용하는 영상신호의 엔코딩/디코딩방법 및 장치
KR20060043051A (ko) 영상 신호의 인코딩 및 디코딩 방법
US20060120454A1 (en) Method and apparatus for encoding/decoding video signal using motion vectors of pictures in base layer
US20060159181A1 (en) Method for encoding and decoding video signal
US20060078053A1 (en) Method for encoding and decoding video signals
US20080008241A1 (en) Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer
KR100883591B1 (ko) 베이스 레이어의 내부모드 블록의 예측정보를 이용하여영상신호를 엔코딩/디코딩하는 방법 및 장치
US20070242747A1 (en) Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer
US20070223573A1 (en) Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer
US20070280354A1 (en) Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer
US20060159176A1 (en) Method and apparatus for deriving motion vectors of macroblocks from motion vectors of pictures of base layer when encoding/decoding video signal
KR20060059774A (ko) 시간적 분해레벨이 다른 픽처의 모션벡터를 이용하는영상신호의 엔코딩/디코딩 방법 및 장치
KR20070011351A (ko) 압축된 비트스트림으로부터 코딩 정보를 사용하는 비디오품질 강화 및/또는 아티팩트 저감
US20060067410A1 (en) Method for encoding and decoding video signals
KR101102393B1 (ko) 에러 파급을 방지하는 영상신호의 엔코딩 및 디코딩 방법과장치
KR20060059773A (ko) 베이스 레이어 픽처의 벡터를 이용하는 영상신호의엔코딩/디코딩 방법 및 장치
US20060133499A1 (en) Method and apparatus for encoding video signal using previous picture already converted into H picture as reference picture of current picture and method and apparatus for decoding such encoded video signal
KR20060043120A (ko) 영상 신호의 인코딩 및 디코딩 방법
WO2005062623A1 (ja) 動画像再生方法及び装置並びにプログラム

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121227

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20131224

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20141224

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151224

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20161214

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20171214

Year of fee payment: 10