KR20070074452A - 영상신호의 엔코딩/디코딩시의 레이어간 예측 방법 - Google Patents

영상신호의 엔코딩/디코딩시의 레이어간 예측 방법 Download PDF

Info

Publication number
KR20070074452A
KR20070074452A KR1020060111895A KR20060111895A KR20070074452A KR 20070074452 A KR20070074452 A KR 20070074452A KR 1020060111895 A KR1020060111895 A KR 1020060111895A KR 20060111895 A KR20060111895 A KR 20060111895A KR 20070074452 A KR20070074452 A KR 20070074452A
Authority
KR
South Korea
Prior art keywords
layer
field
frame
macro block
prediction
Prior art date
Application number
KR1020060111895A
Other languages
English (en)
Inventor
박승욱
전병문
박지호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020087017203A priority Critical patent/KR20080092372A/ko
Priority to US12/087,515 priority patent/US8345755B2/en
Priority to JP2008550231A priority patent/JP4991762B2/ja
Priority to CN2007800057614A priority patent/CN101385354B/zh
Priority to KR1020087017201A priority patent/KR100904442B1/ko
Priority to CN2007800057544A priority patent/CN101385353B/zh
Priority to EP07700919.9A priority patent/EP1977609A4/en
Priority to JP2008550227A priority patent/JP4991758B2/ja
Priority to KR1020097011954A priority patent/KR101055741B1/ko
Priority to JP2008550224A priority patent/JP5106419B2/ja
Priority to CN201210585882.3A priority patent/CN103096078B/zh
Priority to EP07700920.7A priority patent/EP1972155A4/en
Priority to CN2007800053238A priority patent/CN101385348B/zh
Priority to CN2007800056467A priority patent/CN101385351B/zh
Priority to PCT/KR2007/000143 priority patent/WO2007081135A1/en
Priority to EP07700914.0A priority patent/EP1972152A4/en
Priority to JP2008550228A priority patent/JP4991759B2/ja
Priority to JP2008550226A priority patent/JP4991757B2/ja
Priority to KR1020087017199A priority patent/KR20090016544A/ko
Priority to EP07700921.5A priority patent/EP1977610B1/en
Priority to EP07700913.2A priority patent/EP1980114A4/en
Priority to CN200780005672XA priority patent/CN101385352B/zh
Priority to US12/087,525 priority patent/US8687688B2/en
Priority to KR1020087017195A priority patent/KR100914712B1/ko
Priority to CN2007800056166A priority patent/CN101385350B/zh
Priority to CA2636571A priority patent/CA2636571C/en
Priority to JP2008550232A priority patent/JP4991763B2/ja
Priority to JP2008550229A priority patent/JP4991760B2/ja
Priority to JP2008550230A priority patent/JP4991761B2/ja
Priority to PCT/KR2007/000144 priority patent/WO2007081136A1/en
Priority to KR1020087017202A priority patent/KR100904443B1/ko
Priority to PCT/KR2007/000140 priority patent/WO2007081133A1/en
Priority to KR1020087017196A priority patent/KR100904441B1/ko
Priority to PCT/KR2007/000148 priority patent/WO2007081140A1/en
Priority to PCT/KR2007/000147 priority patent/WO2007081139A1/en
Priority to US12/087,464 priority patent/US8494042B2/en
Priority to KR1020087017197A priority patent/KR100914713B1/ko
Priority to EP07700915.7A priority patent/EP1977607A4/en
Priority to JP2008550225A priority patent/JP4991756B2/ja
Priority to AU2007205337A priority patent/AU2007205337B2/en
Priority to KR1020087017198A priority patent/KR100917829B1/ko
Priority to EP07700916.5A priority patent/EP1972153A4/en
Priority to US12/087,471 priority patent/US8401091B2/en
Priority to US12/087,523 priority patent/US8792554B2/en
Priority to US12/087,526 priority patent/US8457201B2/en
Priority to EP07700917.3A priority patent/EP1972154A4/en
Priority to US12/087,518 priority patent/US8451899B2/en
Priority to CN2007800057826A priority patent/CN101385355B/zh
Priority to PCT/KR2007/000145 priority patent/WO2007081137A1/en
Priority to US12/087,488 priority patent/US8494060B2/en
Priority to PCT/KR2007/000146 priority patent/WO2007081138A1/en
Priority to KR1020097021246A priority patent/KR101055742B1/ko
Priority to PCT/KR2007/000142 priority patent/WO2007100187A1/en
Priority to EP07700918.1A priority patent/EP1977608B1/en
Priority to KR1020087017204A priority patent/KR100917206B1/ko
Priority to US12/087,466 priority patent/US8264968B2/en
Priority to PCT/KR2007/000141 priority patent/WO2007081134A1/en
Publication of KR20070074452A publication Critical patent/KR20070074452A/ko
Priority to HK09106198.8A priority patent/HK1129013A1/xx
Priority to HK09106197.9A priority patent/HK1128843A1/xx
Priority to HK09106200.4A priority patent/HK1128571A1/xx
Priority to US12/659,389 priority patent/US8619872B2/en
Priority to US14/178,751 priority patent/US9497453B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/88Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving rearrangement of data among different coding units, e.g. shuffling, interleaving, scrambling or permutation of pixel data or permutation of transform coefficient data among different blocks

Abstract

본 발명은, 레이어간 예측방법에 관한 것으로서, 본 발명에 따른 예측방법중 하나는, 베이스 레이어의 수직으로 인접된 프레임(frame) 매크로 블록쌍으로부터 필드(field) 매크로 블록쌍을 구성하고, 그 구성된 필드 매크로 블록쌍의 각 텍스처 정보를, 현재 레이어의 필드 매크로 블록쌍의 각 텍스처 예측정보로 사용하거나, 또는 베이스 레이어의 하나의 필드 매크로 블록 또는 수직으로 인접된 필드(field) 매크로 블록쌍으로부터 프레임(frame) 매크로 블록쌍을 구성하고, 그 구성된 프레임 매크로 블록쌍의 각 텍스처 정보를, 현재 레이어의 프레임 매크로 블록쌍의 각 텍스처 예측정보로 사용한다. 특히, 필요한 경우에는 매크로 블록 또는 픽처를 수직으로 업샘플링하여 크기를 신장시킨 다음 텍스처 예측에 사용한다.
텍스처, 업샘플링, 예측, 픽처, 순차주사, 비월주사, 해상도

Description

영상신호의 엔코딩/디코딩시의 레이어간 예측 방법 {Inter-layer prediction method for video signal}
도 1a 및 1b는 단일 영상소스로부터 복수 레이어로 코딩하는 방식을 각각 예시한 것이고,
도 2a 및 2b는 본 발명에 따른 레이어간 예측방법이 적용되는 영상신호 엔코딩 장치의 구성을 간략히 도시한 것이고,
도 3a 및 3b는 비월주사방식의 영상신호를 엔코딩하는 픽처 시퀀스의 유형을 각기 도시한 것이고,
도 4a는, 본 발명의 일 실시예에 따라, 프레임(frame) 매크로 블록(MB)쌍의 텍스처 정보를 MBAFF 프레임내의 필드(field) MB쌍의 텍스처 예측에 사용하는 과정을 도식적으로 나타낸 것이고,
도 4b는 본 발명의 일 실시예에 따라 프레임 MB 쌍을 필드 MB쌍으로 변환하는 방법을 나타낸 것이고,
도 5는, 본 발명의 일 실시예에 따라, 프레임 MB쌍의 텍스처정보를 필드 픽처내의 필드 MB의 텍스처 예측에 사용하는 과정을 도식적으로 나타낸 것이고,
도 6a는, 본 발명의 일 실시예에 따라, MBAFF 프레임내의 필드 MB쌍의 텍스처 정보를 프레임 MB쌍의 텍스처 예측에 사용하는 과정을 도식적으로 나타낸 것이고,
도 6b는 본 발명의 일 실시예에 따라 필드 MB 쌍을 프레임 MB쌍으로 변환하는 방법을 나타낸 것이고,
도 6c 및 6d는, 본 발명의 일 실시예에 따라, MBAFF 프레임내의 필드 MB쌍에서 하나의 MB만이 인터모드인 경우에 프레임 매크로 블록쌍의 레이어간 예측에 사용하는 각 과정을 도식적으로 나타낸 것이고,
도 6e는 본 발명의 일 실시예에 따라, 레이어간 픽처 레이트가 다른 경우에, MBAFF 프레임내의 필드 MB쌍의 텍스처 정보를 복수의 프레임 MB쌍의 텍스처 예측에 사용하는 과정을 도식적으로 나타낸 것이고,
도 7은, 본 발명의 일 실시예에 따라, 필드 픽처내의 필드 MB의 텍스처 정보를 프레임 MB쌍의 텍스처 예측에 사용하는 과정을 도식적으로 나타낸 것이고,
도 8a는 본 발명의 일 실시예에 따라, 인핸스드 레이어가 순차주사방식의 프레임 시퀀스이면서 양 레이어간의 픽처 유형과 시간적 해상도가 상이할 때 레이어간 예측이 적용되는 과정을 예시적으로 나타낸 것이고,
도 8b는 본 발명의 일 실시예에 따라, 인핸스드 레이어가 순차주사방식의 프레임 시퀀스이면서 양 레이어간의 픽처 유형이 다르고 시간적 해상도가 동일할 때 레이어간 예측이 적용되는 과정을 예시적으로 나타낸 것이고,
도 9는 본 발명의 일 실시예에 따라, 베이스 레이어가 순차주사방식의 프레임 시퀀스이면서 양 레이어간의 픽처 유형과 시간적 해상도가 상이할 때 레이어간 예측이 적용되는 과정을 예시적으로 나타낸 것이고,
도 10은 본 발명의 일 실시예에 따라, 베이스 레이어가 순차주사방식의 프레임 시퀀스이면서 양 레이어간의 픽처 유형이 다르고 시간적 해상도가 동일할 때 레이어간 예측이 적용되는 과정을 예시적으로 나타낸 것이다.
<도면의 주요부분에 대한 부호의 설명>
20: EL 엔코더 21: BL 엔코더
본 발명은, 영상신호를 엔코딩/디코딩할 때의 레이어간의 예측 방법에 관한 것이다.
스케일러블 영상 코덱(SVC:Scalable Video Codec) 방식은 영상신호를 엔코딩함에 있어, 최고 화질로 엔코딩하되, 그 결과로 생성된 픽처 시퀀스의 부분 시퀀스( 시퀀스 전체에서 간헐적으로 선택된 프레임의 시퀀스 )를 디코딩해 사용해도 저화질의 영상 표현이 가능하도록 하는 방식이다.
그런데, 스케일러블 방식으로 엔코딩된 픽처 시퀀스는 그 부분 시퀀스만을 수신하여 처리함으로써도 저화질의 영상 표현이 가능하지만, 비트레이트(bitrate)가 낮아지는 경우 화질저하가 크게 나타난다. 이를 해소하기 위해서 낮은 전송률을 위 한 별도의 보조 픽처 시퀀스, 예를 들어 소화면 및/또는 초당 프레임수 등이 낮은 픽처 시퀀스를 적어도 하나 이상의 레이어로서 계층적 구조로 제공할 수도 있다.
2개의 시퀀스를 가정할 때, 보조 시퀀스( 하위 시퀀스 )를 베이스 레이어(base layer)로, 주 픽처 시퀀스( 상위 시퀀스 )를 인핸스드(enhanced)( 또는 인핸스먼트(enhancement) ) 레이어라고 부른다. 그런데, 베이스 레이어와 인핸스드 레이어는 동일한 영상신호원을 엔코딩하는 것이므로 양 레이어의 영상신호에는 잉여정보( 리던던시(redundancy) )가 존재한다. 따라서 인핸스드 레이어의 코딩율(coding rate)을 높이기 위해, 베이스 레이어의 코딩된 정보( 모션정보 또는 텍스처(texture) 정보 )를 이용하여 인핸스드 레이어의 영상신호를 코딩한다.
이 때, 도 1a에 도시된 바와 같이 하나의 영상 소스(1)로부터 각기 다른 전송율을 갖는 복수의 레이어로 코딩할 수도 있지만, 도 1b에서와 같이 동일한 컨텐츠(2a)에 대한 것이지만 서로 다른 주사(scanning)방식을 갖는 복수의 영상 소스(2b)를 각각의 레이어로 코딩할 수도 있다. 하지만, 이 때에도 양 소스(2b)는 동일 컨텐츠(2a)이므로 상위 레이어를 코딩하는 엔코더는 하위 레이어의 코딩된 정보를 이용하는 레이어간 예측을 수행하게 되면 코딩이득을 높일 수 있다.
따라서, 서로 다른 소스로부터 각각의 레이어로 코딩할 때 각 영상신호의 주사방식을 고려한 레이어간 예측방안이 필요하다. 또한, 비월주사(interlaced) 방식의 영상을 코딩할 때도 우수(even) 및 기수(odd) 필드들로 코딩할 수도 있고, 하나의 프레임에 기수 및 우수 매크로 블록의 쌍(pair)으로 코딩할 수도 있다. 따라서, 비월주사 방식의 영상신호를 코딩하는 픽처의 유형도 레이어간 예측에 함께 고려되 어야 한다.
본 발명은, 양 레이어중 적어도 한 레이어는 비월 주사 방식의 영상신호 성분을 갖는 조건하에 레이어간 예측을 수행하는 방법을 제공하는 데 그 목적이 있다.
본 발명의 다른 목적은, 양 레이어중 적어도 한 레이어는 비월 주사 방식의 영상신호 성분을 갖는 조건하에 레이어간 텍스처 예측을 수행하는 방법을 제공하는 것이다.
본 발명에 따른 레이어간 예측방법은, 베이스 레이어의 수직으로 인접된 프레임(frame) 매크로 블록쌍으로부터 필드(field) 매크로 블록쌍을 구성하고, 그 구성된 필드 매크로 블록쌍의 각 텍스처 정보를, 현재 레이어의 필드 매크로 블록쌍의 각 텍스처 예측정보로 사용한다.
본 발명에 따른 다른 레이어간 예측 방법은, 베이스 레이어의 수직으로 인접된 프레임(frame) 매크로 블록쌍으로부터 단일 필드(field) 매크로 블록을 구성하고, 그 구성된 단일 필드 매크로 블록의 텍스처 정보를, 현재 레이어의 필드 매크로 블록의 텍스처 예측정보로 사용한다.
본 발명에 따른 또 다른 레이어간 예측 방법은, 베이스 레이어의 하나의 필드 매크로 블록 또는 수직으로 인접된 필드 매크로 블록쌍으로부터 프레임 매크로 블 록쌍을 구성하고, 그 구성된 프레임 매크로 블록쌍의 각 텍스처 정보를, 현재 레이어의 프레임 매크로 블록쌍의 각 텍스처 예측정보로 사용한다.
본 발명에 따른 또 다른 레이어간 예측 방법은, 베이스 레이어의 수직으로 인접된 필드 매크로 블록쌍으로부터 프레임(frame) 매크로 블록 N쌍( N은 1보다 큰 정수 )을 구성하고, 그 구성된 프레임 매크로 블록 N쌍의 각 텍스처 정보를, 현재 레이어의 서로 다른 시간적 위치에 있는 프레임 매크로 블록 N쌍의 각 텍스처 예측정보로 사용한다.
본 발명에 따른 또 다른 레이어간 예측 방법은, 하위 레이어의 각 프레임을 복수의 필드 픽처로 분리하여 상기 하위 레이어가 상위 레이어와 동일한 시간적 해상도를 갖도록 하고, 상기 분리된 각 필드 픽처를 수직방향으로 업샘플링하여 수직방향으로 확장시킨 후, 상기 업샘플링된 각 필드 픽처를 상기 상위 레이어의 각 프레임의 레이어간 예측에 사용한다.
본 발명에 따른 또 다른 레이어간 예측 방법은, 하위 레이어의 각 필드 픽처를 수직방향으로 업샘플링하여 수직방향으로 확장시킨 후, 상기 업샘플링된 각 필드 픽처를 상위 레이어의 각 프레임의 레이어간 예측에 사용한다.
본 발명에 따른 또 다른 레이어간 예측 방법은, 상위 레이어의 각 프레임을 복수의 필드 픽처로 분리하고, 하위 레이어의 각 픽처를 수직방향으로 다운샘플링하여 수직방향으로 축소시킨 후, 상기 다운샘플링된 픽처들을 상기 상위 레이어의 분리된 필드 픽처들의 레이어간 예측에 사용한다.
본 발명에 따른 레이어간 예측을 사용하여 영상신호를 코딩하는 일 방법은, 베이스 레이어의 임의 픽처내의 2N 블록을 교번적으로 선택하여 취한 각 라인을 취한 순서대로 배치하여 구성한 2N 블록의 각 텍스처 정보를 레이어간 예측에 사용할 것인 지, 상기 베이스 레이어의 상기 2N 블록 중에서 선택된 하나의 블록을 업샘플링하여 구성한 2N 블록의 각 텍스처 정보를 레이어간 예측에 사용할 것인 지를 결정하고, 그 결정을 나타내는 정보를 코딩된 정보에 포함시킨다.
본 발명에 따른 레이어간 예측을 사용하여 영상신호를 디코딩하는 일 방법은, 수신되는 신호에 특정 지시정보가 포함되어 있는 지 확인하고, 그 확인 결과에 따라, 베이스 레이어의 임의 픽처내의 2N 블록을 교번적으로 선택하여 취한 라인을 취한 순서대로 배치하여 구성한 2N 블록의 각 텍스처 정보를 레이어간 예측에 사용할 것인 지, 상기 베이스 레이어의 상기 2N 블록 중에서 선택된 하나의 블록을 업샘플링하여 구성한 2N 블록의 각 텍스처 정보를 레이어간 예측에 사용할 것인 지를 결정한다.
본 발명에 따른 일 실시예에서는, 상위 또는 하위 레이어의 각 프레임을 2개의 필드 픽처로 분리한다.
본 발명에 따른 일 실시예에서는, 상기 수신되는 신호에 상기 특정 지시정보가 포함되어 있지 않으면, 그 지시정보가 0으로 지정되어 수신되는 경우와 동일한 것으로 간주하여 어떤 블록의 각 텍스처 정보를 레이어간 예측에 사용할 것인지를 결정한다.
이하, 본 발명의 실시예에 대해 첨부도면을 참조하여 상세히 설명한다.
도 2a는 본 발명에 따른 레이어간 예측방법이 적용되는 영상신호 엔코딩 장치의 구성블록을 간략히 도시한 것이다. 도 2a의 장치는 입력 영상신호를 2개의 레이어로 코딩하는 것이나 후술하는 본 발명의 원리는 3개 또는 그 이상의 레이어로 코딩하는 경우에도 각 레이어간에는 물론 적용될 수 있다.
본 발명에 따른 레이어간 예측방법은, 도 2a의 장치에서 인핸스드 레이어 엔코더(20)( 이하, 'EL 엔코더'로 약칭한다. )에서 수행되며, 베이스 레이어 엔코더(21)( 이하, 'BL 엔코더'로 약칭함. )에서 엔코딩된 정보( 모션정보와 텍스처 정보 )를 수신하고 그 수신된 정보( 필요한 경우에는 디코딩하고 그 디코딩된 정보 )에 근거하여 레어어간 텍스처 예측 또는 모션 예측을 수행한다. 물론, 본 발명은 도 2b에서와 같이 이미 코딩되어 있는 베이스 레이어의 영상 소스(3)를 사용하여, 입력되는 영상신호를 코딩할 수도 있으며 이 때에도 이하에서 설명하는 레이어간 예측방법이 동일하게 적용된다.
도 2a의 경우에 상기 BL 엔코더(21)가 비월주사방식의 영상신호를 엔코딩하는 방식( 또는 2b의 엔코딩되어 있는 영상소스(3)의 코딩된 방식 )은 두가지가 있을 수 있다. 즉, 도 3a에서 보는 바와 같이, 필드단위 그대로 엔코딩하여 필드 시퀀스로 엔코딩하는 경우와, 도 3b에서 보는 바와 같이, 우수 및 기수 양 필드의 각 매크로 블록을 쌍으로 하여 프레임이 구성된 프레임 시퀀스로 엔코딩하는 경우이다. 이와 같이 코딩되어 있는 프레임내에서, 한 쌍의 매크로 블록의 위에 있는 매크로 블록을 '상단(Top) 매크로 블록'으로 아래에 있는 매크로 블록을 '하단(Bottom) 매크로 블록'으로 칭한다. 상단 매크로 블록이 우수 필드( 또는 기수 필드 )의 영상 성분으로 되어 있으면 하단 매크로 블록은 기수 필드( 또는 우수 필드 )의 영상성분으로 이루어진다. 이와 같이 구성된 프레임을 MBAFF (MacroBlock Adaptive Frame Field) 프레임이라고 한다. 그러나, MBAFF 프레임은 기수 필드 및 우수 필드로 구성된 매크로 블록쌍이외에도 각 매크로 블록이 프레임 MB로 구성된 매크로 블록쌍도 또한 포함할 수 있다.
따라서, 픽처내의 매크로 블록이 비월주사 방식의 영상성분인 경우( 이하에서는, 이러한 매크로 블록을 '필드 MB'라고 칭한다. 이에 반해, 순차주사(progressive) 방식의 영상성분을 갖고 있는 매크로 블록을 '프레임 MB'라고 칭한다. ), 그 블록이 필드내의 것일 수도 있고 프레임내의 것일 수도 있다.
따라서, 상기 EL 엔코더(20)가 코딩할 매크로 블록의 유형과 그 매크로 블록의 텍스처 예측에 이용할 베이스 레이어의 매크로 블록의 유형이 각기 프레임 MB인지, 필드 MB인지 그리고 필드 MB인 경우에는 필드내의 필드 MB인지 MBAFF 프레임내의 필드 MB인지를 구분하여 텍스처 예측 방법을 결정하여야 한다.
이하에서는 각 경우에 대해서 구분하여 설명한다. 먼저 설명에 앞서 현재 레이어와 베이스 레이어의 해상도는 상호 동일하다고 가정한다. 그리고, 하기 설명 및 도면의 표현에 있어서, 우수( 또는 기수 )에 대해 '상단'(top)의 용어를, 기수( 또는 우수 )에 대해 '하단'의 용어도 병행하여 사용한다.
I. 프레임 MB -> MBAFF 프레임의 필드 MB의 경우
이 경우는, 현재 레이어(EL)에서 MB가 MBAFF 프레임내의 필드 MB로 코딩되고, 그 필드 MB에 대한 텍스처 예측에 이용할 베이스 레이어(BL)의 MB가 프레임 MB로 코딩되어 있는 경우로서, 베이스 레이어에서 상하 양 매크로 블록( 이를 '매크로 블록쌍'이라고 하며, 이하에서는, '쌍'이라는 표현은 수직으로 인접되어 있는 블록을 칭하기 위해 사용된다. )에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치(colacated)의 매크로 블록 쌍의 각각에 포함되어 있는 영상신호 성분과 각각 동일한 성분이 된다.
도 4a는, 이 경우에 대한 레이어간 텍스처 예측방법의 예를 나타낸 것이다. 상기 EL 엔코더(20)는, 먼저 대응되는 베이스 레이어의 프레임 매크로 블록쌍(410)의 각 블록모드를 확인한다. 둘다 인트라(intra) 모드이거나 인터(inter) 모드이면 다음에서 설명하는 방식대로, 대응되는 베이스 레이어의 매크로 블록쌍(410)을 임시의 필드 매크로 블록쌍(411)으로 변환하여 현재 필드 매크로 블록쌍(412)에 대해 인트라 베이스 예측을 수행하거나( 대응되는 매크로 블록쌍(410)이 모두 인트라 모드인 경우 ), 레지듀얼(residual) 예측을 수행한다( 대응되는 매크로 블록쌍(410)이 모두 인터 모드인 경우 ). 하지만, 둘중 하나만이 인터모드이면 레이어간 텍스처 예측을 수행하지 않는다.
한쌍의 프레임 MB로부터 레이어간 텍스처 예측에 사용할 한쌍의 필드 MB로 변환하는 방법은 도 4b에 도시하였다. 도시된 바와 같이, 한쌍의 프레임 매크로 블록(A,B)의 우수 라인들을 차례로 선택하여 상단 필드 MB(A')를 구성하고, 한쌍의 프레임 매크로 블록(A,B)의 기수 라인들을 차례로 선택하여 하단 필드 MB(B')를 구성한다. 그리고 하나의 필드 MB내의 라인들을 채울때는 상위에 있는 블록(A)의 우수( 또는 기수 )라인들을 먼저 채운후(A_even 또는 A_odd) 하위에 있는 블록(B)의 우수( 또는 기수 )라인들을 채운다(B_even 또는 B_odd).
II. 프레임 MB -> 필드 픽처의 필드 MB의 경우
이 경우는, 현재 레이어에서 MB가 필드 픽처내의 필드 MB로 코딩되고, 그 필드 MB에 대한 텍스처 예측에 이용할 베이스 레이어의 MB가 프레임 MB로 코딩되어 있는 경우로서, 베이스 레이어에서 매크로 블록쌍에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치의 우수 또는 기수 필드내의 매크로 블록에 포함되어 있는 영상신호 성분과 동일한 성분이 된다.
도 5는, 이 경우에 대한 레이어간 텍스처 예측방법의 예를 나타낸 것이다. 상기 EL 엔코더(20)는, 먼저 대응되는 베이스 레이어의 매크로 블록쌍(510)의 각 블록모드를 확인한다. 둘다 인트라 모드이거나 인터 모드이면, 상기 한쌍의 프레임 매크로 블록(510)으로부터 하나의 임시 필드 MB(511)를 구성한다. 이 때, 현재의 매크로 블록(512)이 우수 필드 픽처에 속하는 MB이면 상기 대응되는 매크로 블록쌍(510)의 우수 라인들로부터 상기 임시 필드 MB(511)를 구성하고, 기수 필드 픽처에 속하는 MB이면 상기 대응되는 매크로 블록쌍(510)의 기수 라인들로부터 상기 임시 필드 MB(511)를 구성한다. 구성하는 방법은, 도 4b에서 하나의 필드 MB(A' 또는 B')를 구성하는 방법과 동일하다.
임시 필드 MB(511)가 구성되면, 그 필드 MB(511)내의 텍스처 정보에 근거하여, 현재 필드 매크로 블록(512)에 대해 인트라 베이스 예측을 수행하거나( 대응되는 매크로 블록쌍(510)이 모두 인트라 모드인 경우 ), 레지듀얼 예측을 수행한다( 대응되는 매크로 블록쌍(510)이 모두 인터 모드인 경우 ).
만약, 상기 대응되는 프레임 매크로 블록쌍(510)중 하나만이 인터모드이면 레이어간 텍스처 예측을 수행하지 않는다.
III. MBAFF 프레임의 필드 MB -> 프레임 MB의 경우
이 경우는, 현재 레이어에서 MB가 프레임 MB로 코딩되고, 그 프레임 MB의 텍스처 예측에 이용할 베이스 레이어의 MB가 MBAFF 프레임내의 필드 MB로 코딩되어 있는 경우로서, 베이스 레이어의 한 필드 MB에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치의 매크로 블록 쌍에 포함되어 있는 영상신호 성분과 동일한 성분이 된다.
도 6a는, 이 경우에 대한 레이어간 텍스처 예측방법의 예를 나타낸 것이다. 상기 EL 엔코더(20)는, 먼저 대응되는 베이스 레이어의 필드 매크로 블록쌍(610)의 각 블록모드를 확인한다. 둘다 인트라 모드이거나 인터 모드이면 다음에서 설명하는 방식대로, 대응되는 베이스 레이어의 필드 매크로 블록쌍(610)을 임시의 프레임 매크로 블록쌍(611)으로 변환하여 현재 프레임 매크로 블록쌍(612)에 대해 인트라 베이스 예측을 수행하거나( 대응되는 매크로 블록쌍(610)이 모두 인트라 모드인 경우 ), 레지듀얼 예측을 수행한다( 대응되는 매크로 블록쌍(610)이 모두 인터 모드인 경우 ).
한쌍의 필드 MB로부터 한쌍의 프레임 MB로 변환하는 방법은 도 6b에 도시하였다. 도시된 바와 같이, 한쌍의 필드 매크로 블록(A,B)을 교번적으로 선택(A->B->A->B->A->,..)하면서 그 블록내의 라인들을 상단에서부터 순차적으로 취하고 취한 순서대로 상단에서 차례로 배치하여 한쌍의 프레임 MB(A',B')를 구성한다. 이와 같이 한쌍의 필드 MB의 라인들을 재배치함으로써, 상단의 프레임 MB(A')는 한쌍의 필드 매크로 블록(A,B)의 상위 절반의 라인들로 구성되고, 하단의 프레임 MB(B')는 하위 절반의 라인들로 구성된다.
한편, 베이스 레이어의 대응되는 필드 매크로 블록쌍(610)중 하나만이 인터모드인 경우에는, 현재의 프레임 매크로 블록쌍(612)의 블록모드에 따라 베이스 레이어의 필드 매크로 블록쌍(610)중 하나의 블록을 선택하여 레이어간 텍스처 예측에 이용한다. 또는, 현재의 프레임 매크로 블록쌍(612)의 블록모드의 결정전에 하기에서 설명하는 각 방식을 적용하여 레이어간 예측을 수행한 후 그 매크로 블록쌍(612)의 각 블록모드를 결정할 수도 있다.
도 6c와 6d는 하나의 블록을 선택하여 레이어간 예측을 수행하는 예를 나타낸 것이다. 현재의 프레임 매크로 블록쌍(612)이 인터모드로 코딩되는 경우에는( 또는 인터모드에 따른 예측을 수행하는 경우에는 ), 도 6c에서와 같이, 베이스 레이어의 필드 매크로 블록쌍(610)에서 인터 모드의 블록(610a)을 선택하여 그 블록을 수직방향으로 업샘플링하여 2개의 매크로 블록에 해당하는 크기(621)로 만든 후 그 2개의 매크로 블록을 현재 프레임 매크로 블록쌍(612)의 레지듀얼 예측에 사용한다. 현재의 프레임 매크로 블록쌍(612)이 인터모드로 코딩되지 않는 경우에는( 또는 인트라 모드에 따른 예측을 수행하는 경우에는 ), 도 6d에서와 같이, 베이스 레이어의 필드 매크로 블록쌍(610)에서 인트라 모드의 블록(610b)을 선택하여 그 블록을 수직방향으로 업샘플링하여 2개의 매크로 블록에 해당하는 크기(631)로 만든 후 그 2개의 매크로 블록을 현재 프레임 매크로 블록쌍(612)의 인트라 베이스 예측에 사 용한다.
도 6c와 6d에 예시된, 하나의 블록을 선택하여 업샘플링한 후 업샘플링된 MB쌍을 레이어간 텍스처 예측에 사용하는 방법은, 레이어간 픽처 레이트(rate)가 상이한 경우에도 적용할 수도 있다. 인핸스드 레이어의 픽처 레이트가 베이스 레이어의 픽처 레이트보다 높은 경우에는, 인핸스드 레이어의 픽처 시퀀스에는 시간적으로(temporally) 대응되는 베이스 레이어의 픽처가 존재하지 않는 픽처가 생기게 된다. 이와 같이 시간적으로 대응되는 픽처가 없는 인핸스드 레이어의 픽처에 속하는 프레임 매크로 블록쌍에 대해서, 그보다 시간적으로 앞선 베이스 레이어의 픽처내의 대응위치(spatially co-located)에 있는 필드 매크로 블록쌍중 하나를 이용하여 레이어간 텍스처 예측을 수행할 수 있다.
도 6e는 이에 대한 예를 도시한 것으로서, 인핸스드 레이어의 픽처 레이트가 베이스 레이어의 픽처 레이트의 2배인 경우를 예로 한 것이다.
예시된 바와 같이, 인핸스드 레이어의 픽처 레이트가 베이스 레이어의 2배이므로, POC( Picture Order Count )가 n2인 경우에서와 같이, 두 픽처에 한 픽처마다 POC가 매칭(matching)되는 베이스 레이어의 픽처를 갖지 못한다. 여기서 POC가 매칭된다는 것은 곧 시간적으로(temporally)으로 일치하는 것을 의미한다.
이와 같이, 시간적으로 매칭되는 픽처가 없는 경우에는( POC=n2인 경우 ), 앞선 픽처( 즉, POC가 1작은 픽처 )의 위치대응되는 필드 매크로 블록쌍내의 하단 필드 매크로 블록(602)을 수직으로 업샘플링하여(S62) 한쌍의 임시 매크로 블록쌍(612)을 만든 후, 그 임시 매크로 블록쌍(612)을 이용하여, 현재 프레임 매크로 블록쌍(622)에 대한 레이어간 텍스처 예측을 수행하는 데 사용한다. 시간적으로 매칭되는 픽처가 있는 경우에는( POC=n1인 경우 ), 동시간의 픽처의 위치대응되는 필드 매크로 블록쌍내의 상단 필드 매크로 블록(601)을 수직으로 업샘플링하여(S61) 한쌍의 임시 매크로 블록쌍(611)을 만들어서, 현재 프레임 매크로 블록쌍(621)에 대한 레이어간 텍스처 예측을 수행하는 데 사용한다.
본 발명에 따른 다른 실시예에서는, 동시간의 픽처가 베이스 레이어에 존재하는 경우( 도 6e의 예에서 POC=n1인 경우 )에 대해서, 도 6e에 예시된 방법대신, 도 6a에 예시된 실시예에 따라 한쌍의 필드 MB로부터 프레임 MB쌍을 만든 후 레이어간 텍스처 예측에 사용할 수도 있다. 그리고, 동시간의 픽처가 베이스 레이어에 존재하지 않는( 도 6e의 예에서 POC=n2인 경우 ) 픽처의 경우에는, 도 6e에서와 같이, 레이어간 텍스처 예측을 수행할 수도 있고 또는 그 픽처내의 매크로 블록들에 대해서는 레이어간 텍스처 예측을 수행하지 않을 수도 있다.
따라서, 본 발명에 따른 일 실시예에서는, 레이어간 텍스처 예측이 도 6a에 예시된 방법에 따라 행해진 것인지 도 6e에 예시된 방법에 따라 행해진 것인지를 나타내는 플래그 'field_base_flag'를 할당하여 코딩정보에 포함시킨다. 이 플래그에는 도 6a와 같은 방법으로 텍스처 예측이 된 경우에는 예를 들어 '0'의 값이, 도 6e와 같은 방법으로 텍스처 예측이 된 경우에는 예를 들어 '1'의 값이 세트된다. 그리고, 이 플래그는, 인핸스드 레이어의 시퀀스 파라미터 세트(sequence parameter set), 스케일러블 확장자(extension)내의 시퀀스 파라미커 세트(sequence parameter set in scalable extension), 픽처 파라미터 세트(picture parameter set), 스케일러블 확장자내의 픽처 파라미터 세트(picture parameter set in scalable extension), 슬라이스 헤더, 스케일러블 확장자내의 슬라이스 헤더, 매크로 블록 레이어, 또는 스케일러블 확장자내의 매크로 블록 레이어에서 정의되어 디코더에 전송된다.
IV. 필드 픽처의 필드 MB -> 프레임 MB의 경우
이 경우는, 현재 레이어(EL)에서 MB가 프레임 MB로 코딩되고, 그 프레임 MB의 텍스처 예측에 이용할 베이스 레이어(BL)의 MB가 필드 픽처내의 필드 MB로 코딩되어 있는 경우로서, 베이스 레이어의 한 필드 MB에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치의 매크로 블록 쌍에 포함되어 있는 영상신호 성분과 동일한 성분이 된다.
도 7은, 이 경우에 대한 레이어간 텍스처 예측방법의 예를 나타낸 것이다. 상기 EL 엔코더(20)는, 먼저 대응되는 베이스 레이어의 필드 매크로 블록(710)을 수직방향으로 업샘플링하여 임시의 2개의 매크로 블록(711)으로 만든다. 그리고, 대응되는 필드 매크로 블록(710)이 인트라 모드이면, 상기 만들어진 임시의 2개의 매크로 블록(711)을 기준으로 하여 현재 프레임 매크로 블록쌍(712)에 대해 인트라 베이스 예측을 수행하고, 상기 대응되는 필드 매크로 블록(710)이 인터 모드이면, 상기 만들어진 임시의 2개의 매크로 블록(711)을 기준으로 하여 현재 프레임 매크로 블록쌍(712)에 대해 레지듀얼 예측을 수행한다.
V. 필드 MB -> 필드 MB의 경우
이 경우는, 필드 MB가 필드 픽처에 속한 것인지 MBAFF 프레임에 속한 것인지 로 세분될 수 있으므로, 다음과 같이 2가지의 경우로 나뉘어진다.
i) 베이스 레이어와 인핸스드 레이어가 모두 필드 픽처 인 경우
이 경우에는 기 공지되어 있는 프레임 MB와 프레임 MB간의 레이어간 텍스처 예측방법을 적용한다.
ii) 베이스 레이어가 필드 픽처이고 인핸스드 레이어가 MBAFF 프레임인 경우, 또는 그 반대의 경우
이 경우에는, 동일 필드 속성( 우수 필드, 기수 필드 )을 갖는 인핸스드 레이어의 MB와 베이스 레이어의 MB간에, 인트라 베이스 예측( 베이스 레이어의 대응 블록이 인트라 모드인 경우 )을 적용하거나 레지듀얼 예측( 베이스 레이어의 대응 블록이 인터 모드인 경우 )을 적용한다.
지금까지는 베이스 레이어와 인핸스드 레이어가 공간적으로(spatially) 동일 해상도를 가지는 경우에 대해 설명하였으나, 양 레이어간에 서로 상이한 공간적 해상도를 가질 수 있다. 인핸스드 레이어가 베이스 레이어보다 해상도가 높은 경우( SpatialScalabilityType()가 0보다 큰 경우 )에는, 베이스 레이어의 픽처를 인핸스드 레이어의 픽처의 해상도와 동일해지도록 하는 비율로 업샘플링한다. 이 업샘플링과 함께 베이스 레이어 픽처의 각 매크로 블록의 정보( 블록모드, 모션정보 등 )에 근거하여 업샘플링된 픽처의 각 매크로 블록의 블록모드와 모션 정보 등을 구성하게 되는 데, 이 구성 방법에는 기 공지된 여러가지 방법 중 하나를 선택하여 사용할 수 있다. 이와 같이 동일 해상도의 베이스 레이어의 픽처가 만들어지면, 그 픽처내의 각 매크로 블록에 근거해서 앞서 설명했던 각 경우(I 내지 IV)에서 해당되는 경우의 레이어간 텍스처를 행하게 된다.
전술한 실시예들은 베이스 레이어와 인핸스드 레이어가 시간적으로(temporally) 동일 해상도를 가지는 경우에 대해 설명하였으나, 양 레이어간에 서로 상이한 해상도, 즉 서로 다른 픽처 레이트를 가질 수 있다. 또한 시간적 동일 해상도라 하더라도 레이어의 픽처 주사방식이 상이하면 동일 POC의 픽처( 시간적으로 대응되는 픽처 )라 하더라도 출력시점이 상이한 영상신호 성분을 포함하고 있을 수도 있다. 이하에서는 이러한 경우에 대한 레이어간 예측방법에 대해 설명한다. 이하의 설명에서 최초 양 레이어는 동일한 공간적 해상도를 갖도 있는 것으로 가정한다. 만약, 상이한 해상도인 경우에는, 앞서 설명한 바와 같이 베이스 레이어의 각 픽처를 업샘플링하여 동일 공간적 해상도로 만든 후에 하기 설명하는 방식을 적용하면 된다.
A). 인핸스드 레이어는 순차주사방식의 프레임이고 베이스 레이어는 MBAFF 프레임이며, 인핸스드 레이어의 시간적 해상도가 2배 높은 경우
도 8a는 이 경우에 대한 레이어간 예측방식을 도시한 것이다. 도시된 바와 같이, 베이스 레이어의 각 MBAFF 프레임은 출력시점을 달리하는 우수 및 기수 필드를 포함하고 있으므로, 상기 EL 엔코더(20)는 각 MBAFF 프레임을 우수와 기수 필드로 분리한다(S81). 각 MBAFF 프레임내의 우수 필드에 해당하는 성분, 예를 들어 우수 라인들은 우수 필드로, 기수 필드에 해당하는 성분, 예를 들어 기수 라인들은 기수 필드로 분리한다. 이와 같이 하나의 MBAFF 프레임을 두 필드로 분리한 후, 각 필드에 대해서는 수직방향으로 업샘플링하여 2배의 해상도를 갖도록 한다(S82). 이 업샘플링에는, 6-tap 필터링, 이진 선형(binary-linear) 필터링, 또는 단순 라인 패딩(simple line padding) 등의 공지된 방법 중 하나의 방법을 사용한다. 업샘플링 완료되면, 인핸스드 레이어의 각 프레임은 동시간의 베이스 레이어의 픽처를 갖게 되므로, 인핸스드 레이어의 각 프레임내의 매크로 블록들에 대해서 기 공지되어 있는 레이어간 텍스처 예측, 예를 들어 프레임 대 프레임(frame-to-frame) MB간의 예측을 수행한다(S83).
전술한 과정(S81 내지 S83)은 레이어간 모션 예측에도 또한 적용할 수 있다. 이 때는, MBAFF 프레임을 두 필드로 분리할 때, MBAFF 프레임내의 필드 MB쌍의 각 모션 정보를 동일 패러터(parity)의 필드 속성의 MB의 모션정보로서 복사하여 레이어간 모션예측에 사용한다. 이와 같은 방법을 사용하면, 베이스 레이어에 동시간의 픽처가 없는 경우에도( t1,t3,..의 경우 ) 전술한 방법에 따라 시간동기되는 픽처를 생성하여 레이어간 모션 예측을 수행할 수 있다.
전술한 방법은, 양 레이어간에 시간적 해상도가 2배차이를 갖는 도 8a를 예로 한 것이나 시간적 해상도가 N배 차이나는 경우에도 그대로 적용할 수 있다. 예를 들어, 3배 차이나는 경우에는 분리된 양 필드중 하나를 더 복사하여 3개의 필드를 구성하여 사용할 수 있고, 4배차이나는 경우에는 분리된 양 필드를 각각 복사하여 4개의 필드를 구성하여 사용할 수도 있다. 어떠한 시간적 해상도 차이의 경우에도 당업자는 창작적 사고없이 단순하게 본 발명의 원리를 적용하여 레이어간 예측을 수행할 수 있음은 분명하다. 따라서, 본 명세서에서 설명되지 않은 시간적 해상도 차이를 갖는 레이어간에 적용되는 예측방법은 당연히 본 발명의 범위에 속한다. 이는 이하에서 설명하는 다른 경우에도 마찬가지이다.
만약, 베이스 레이어가 MBAFF 프레임으로 코딩되어 있지 않고, PAFF( Picture Adaptive Field & Frame ) 방식으로 코딩되는 경우에는, 도 8b에서와 같이 양 레이어가 시간적 동일 해상도를 가질 수 있다. 따라서, 이 경우에는, 프레임에서 양 필드로 분리하는 과정없이, 바로 업샘플링을 수행하여 현재 레이어와 동일한 공간적 해상도를 갖는 픽처를 구성한 후에 레이어간 예측을 수행한다.
B). 인핸스드 레이어는 MBAFF 프레임이고 베이스 레이어는 순차주사방식의 프레임이며, 인핸스드 레이어의 시간적 해상도가 1/2인 경우
도 9는 이 경우에 대한 레이어간 예측방식을 도시한 것이다. 도시된 바와 같이, 인핸스드 레이어의 각 MBAFF 프레임은 출력시점을 달리하는 우수 및 기수 필드를 포함하고 있으므로, 상기 EL 엔코더(20)는 각 MBAFF 프레임을 우수와 기수 필드로 분리한다(S91). 각 MBAFF 프레임내의 우수 필드에 해당하는 성분, 예를 들어 우수 라인들은 우수 필드로, 기수 필드에 해당하는 성분, 예를 들어 기수 라인들은 기수 필드로 분리한다. 그리고, 베이스 레이어의 각 프레임에 대해서는, 수직방향으로 서브 샘플링을 수행하여 해상도가 1/2로 낮추어진 픽처를 구성한다(S92). 이 서브 샘플링에는, 라인 서브 샘플링이나 그 외의 다양한 알려진 다운-샘플링 방법 중 하나를 사용할 수 있다. 도 9의 예에서는, 픽처 인덱스가 우수인 픽처( t0,t2,t4,..의 픽처 )에 대해서는 우수 라인들만을 취하여 1/2로 축소된 픽처를 구 하고, 픽처 인덱스가 기수인 픽처( t1,t3,..의 픽처 )에 대해서는 기수 라인들만을 취하여 1/2로 축소된 픽처를 구한다. 상기 프레임 분리(S91)와 서브 샘플링(S92)의 순서는 바뀌어서 수행하여도 무방하다.
상기의 두 과정(S91,S92)이 완료되면, 인핸스드 레이어의 각 프레임으로부터 분리된 필드들(910)은 동시간의 그리고 동일 공간적 해상도의 베이스 레이어의 픽처를 갖게 되므로, 각 필드내의 매크로 블록들에 대해서 기 공지되어 있는 레이어간 텍스처 예측, 예를 들어 프레임 대 프레임(frame-to-frame) MB간의 예측을 수행한다(S93).
전술한 과정(S91 내지 S93)은 레이어간 모션 예측에도 또한 적용할 수 있다. 이 때는, 베이스 레이어의 각 프레임으로부터 서브 샘플링을 하여 크기 축소된 픽처를 구할 때(S92), 수직으로 인접된 매크로 블록쌍의 각 모션정보로부터 적절한 방법, 예를 들어 파티션(partition)이 덜된 블록의 모션정보를 취하는 방법에 의해 그에 대응되는 하나의 매크로 블록의 모션정보를 구하여 그 모션정보를 레이어간 모션예측에 사용할 수 있다.
본 경우에는, 레이어간 예측이 MBAFF 프레임으로부터 분리된 각 필드 픽처(910)에 대해서 수행되므로, 인핸스드 레이어의 픽처를 PAFF 방식으로 코딩하여 전송한다.
C). 인핸스드 레이어는 MBAFF 프레임이고 베이스 레이어는 순차주사방식의 프레임이며, 시간적 해상도가 동일한 경우
도 10은 이 경우에 대한 레이어간 예측방식을 도시한 것이다. 도시된 바와 같 이, 인핸스드 레이어의 각 MBAFF 프레임은 출력시점을 달리하는 우수 및 기수 필드를 포함하고 있으므로, 상기 EL 엔코더(20)는 각 MBAFF 프레임을 우수와 기수 필드로 분리한다(S101). 각 MBAFF 프레임내의 우수 필드에 해당하는 성분, 예를 들어 우수 라인들은 우수 필드로, 기수 필드에 해당하는 성분, 예를 들어 기수 라인들은 기수 필드로 분리한다. 그리고, 베이스 레이어의 각 프레임에 대해서는, 수직방향으로 서브 샘플링을 수행하여 해상도가 1/2로 낮추어진 픽처를 구성한다(S102). 이 서브 샘플링에는, 라인 서브 샘플링이나 그 외의 다양한 알려진 다운-샘플링 방법 중 하나를 사용할 수 있다. 상기 프레임 분리(S101)와 서브 샘플링(S102)의 순서는 바뀌어서 수행하여도 무방하다.
하나의 MBAFF 프레임으로부터 2개의 필드로 분리하는 대신, 하나의 필드, 예를 들어 우수 필드의 픽처만을 구성할 수도 있다. 양 레이어의 시간적 해상도가 동일하므로, 하나의 프레임에서 분리된 두 필드의 픽처가 모두, 레이어간 예측에 사용할 수 있는 대응되는 베이스 레이어의 프레임을 갖는 것이 아니고 하나만이 레이어간 예측에 사용할 수 있는 대응되는 프레임을 갖기 때문이다.
상기의 두 과정(S101,S102)이 완료되면, 인핸스드 레이어의 각 프레임으로부터 분리된 필드들중, 우수( 또는 기수 ) 필드에 대해서만, 대응되는 베이스 레이어의 서브 샘플링된 픽처에 기준해서, 기 공지되어 있는 레이어간 텍스처 예측, 예를 들어 프레임 대 프레임(frame-to-frame) MB간의 예측을 수행한다(S103).
본 경우에도, 레이어간 텍스처 예측을 수행하는 인핸스드 레이어의 분리된 필드에 대해서 B)의 경우에서 설명한 바와 같은 방식으로 레이어간 모션 예측도 수행 할 수 있다.
지금까지는 도 2a 또는 2b의 장치에서의 EL 엔코더(20)가 수행하는 레이어간 예측동작을 설명하였다. 하지만, 전술한 모든 레이어간 예측동작의 설명은 베이스 레이어로부터 디코딩된 정보를 수신하여 인핸스드 레이어의 스트림을 디코딩하는 인핸스드 레이어의 디코더에도 동일하게 적용될 수 있다. 엔코딩과 디코딩 과정에서는 전술한 레이어간 예측동작이 동일하게 수행되며, 다만 레이어간 예측이후의 동작이 상이할 뿐이다. 예를 들어 엔코더는, 텍스처 예측을 수행한 후 그 예측된 정보와의 차정보를 디코더로 전송하기 위해 코딩하지만, 디코더는 엔코더에서 수행된 것과 동일한 레이어간 텍스처 예측에 의해 얻은 정보와 실제 수신한 매크로 블록의 코딩정보를 이용하여 실제 텍스처 정보를 구하는 점이 상이할 뿐이다. 따라서, 엔코딩관점에서 전술한 본 발명의 내용과 그 원리는 수신되는 양 레이어의 데이터 스트림을 디코딩하는 디코더에도 그대로 적용된다. 다만, 도 9와 10에서 설명한 바와 같이, EL 엔코더가 MBAFF 프레임 방식의 인핸스드 레이어를 필드 시퀀스로 분리하여 레이어간 예측을 수행한 후 PAFF 방식으로 전송하는 경우에는, 디코더는, 현재 수신한 레이어에 대해서, 전술한 MBAFF 프레임을 필드 픽처로 분리하는 과정은 수행하지 않는다.
또한, 전술한 바와 같이 상기 EL 엔코더(20)가 MB간의 레이어간 예측을 도 6a와 같이 수행하였는 지 도 6e와 같이 수행하였는 지를 구분하는 상기 플래그 'field_base_flag'를 수신되는 신호에서 디코딩하고 그 디코딩된 플래그의 값에 따 라, MB간 예측이 도 6a 또는 도 6e와 같이 된 것으로 판단하여 그에 따라 예측정보를 획득한다. 만약, 상기 플래그 'field_base_flag'에 해당하는 정보가 수신되지 않으면, EL 디코더는 해당 플래그가 0의 값으로 수신된 것으로 간주한다. 즉, 도 6a와 같은 방식으로 MB간에 예측된 것으로 간주하여 현재 매크로 블록쌍에 대한 예측정보를 얻어서 현재 매크로 블록 또는 매크로 블록쌍을 복원(recon)한다.
본 발명은 전술한 전형적인 바람직한 실시예에만 한정되는 것이 아니라 본 발명의 요지를 벗어나지 않는 범위 내에서 여러 가지로 개량, 변경, 대체 또는 부가하여 실시할 수 있는 것임은 당해 기술분야에 통상의 지식을 가진 자라면 용이하게 이해할 수 있을 것이다. 이러한 개량, 변경, 대체 또는 부가에 의한 실시가 이하의 첨부된 특허청구범위의 범주에 속하는 것이라면 그 기술사상 역시 본 발명에 속하는 것으로 보아야 한다.
제한된 실시예로써 상술한 본 발명의 적어도 하나의 실시예는, 서로 다른 방식의 영상신호 소스를 사용하여서도 레이어간 예측을 수행할 수 있게 하므로, 복수 레이어의 코딩시에 영상신호의 픽처 유형( 비월주사방식 신호, 순차주사방식 신호, MBAFF 프레임방식의 픽처, 필드 픽처 등 )에 무관하게 데이터 코딩율을 높일 수가 있다.

Claims (26)

  1. 영상신호의 엔코딩/디코딩시에 레이어간 예측을 행하는 방법에 있어서,
    베이스 레이어의 수직으로 인접된 프레임(frame) 매크로 블록쌍으로부터 필드(field) 매크로 블록쌍을 구성하는 1단계와,
    상기 구성된 필드 매크로 블록쌍의 각 텍스처 정보를, 현재 레이어의 필드 매크로 블록쌍의 각 텍스처 예측정보로 사용하는 2단계를 포함하는 방법.
  2. 제 1항에 있어서,
    상기 1단계는, 상기 프레임 매크로 블록쌍의 상단 매크로 블록의 우수 라인들을 상부에 배치하고 하단 매크로 블록의 우수라인들을 하부에 배치함으로써 상기 필드 매크로 블록쌍의 상단 필드 매크로 블록을 구성하고, 상기 프레임 매크로 블록쌍의 상단 매크로 블록의 기수 라인들을 상부에 배치하고 하단 매크로 블록의 기수라인들을 하부에 배치함으로써 상기 필드 매크로 블록쌍의 하단 필드 매크로 블록을 구성하는 것인 방법.
  3. 제 1항에 있어서,
    상기 2단계는, 상기 프레임 매크로 블록쌍이 모두 인트라 모드이면 상기 구성된 필드 매크로 블록쌍의 각 텍스처 정보를 인트라 베이스 예측정보로 사용하고, 모두 인터 모드이면 상기 구성된 필드 매크로 블록쌍의 각 텍스처 정보를 레지듀얼 예측정보로 사용하는 것인 방법.
  4. 영상신호의 엔코딩/디코딩시에 레이어간 예측을 행하는 방법에 있어서,
    베이스 레이어의 수직으로 인접된 프레임(frame) 매크로 블록쌍으로부터 단일 필드(field) 매크로 블록을 구성하는 1단계와,
    상기 구성된 단일 필드 매크로 블록의 텍스처 정보를, 현재 레이어의 필드 매크로 블록의 텍스처 예측정보로 사용하는 2단계를 포함하는 방법.
  5. 제 4항에 있어서,
    상기 1단계는, 상기 현재 레이어의 필드 매크로 블록의 필드 속성이 우수이면, 상기 프레임 매크로 블록쌍의 상단 매크로 블록의 우수 라인들을 상부에 배치하고 하단 매크로 블록의 우수라인들을 하부에 배치함으로써 상기 단일 필드 매크로 블록을 구성하고, 필드 속성이 기수이면, 상기 프레임 매크로 블록쌍의 상단 매크로 블록의 기수 라인들을 상부에 배치하고 하단 매크로 블록의 기수라인들을 하부에 배치함으로써 상기 단일 필드 매크로 블록을 구성하는 것인 방법.
  6. 제 4항에 있어서,
    상기 2단계는, 상기 프레임 매크로 블록쌍이 모두 인트라 모드이면 상기 구성된 단일 필드 매크로 블록의 텍스처 정보를 인트라 베이스 예측정보로 사용하고, 모두 인터 모드이면 상기 구성된 단일 필드 매크로 블록의 텍스처 정보를 레지듀얼 예측정보로 사용하는 것인 방법.
  7. 영상신호의 엔코딩/디코딩시에 레이어간 예측을 행하는 방법에 있어서,
    베이스 레이어의 하나의 필드 매크로 블록 또는 수직으로 인접된 필드(field) 매크로 블록쌍으로부터 프레임(frame) 매크로 블록쌍을 구성하는 1단계와,
    상기 구성된 프레임 매크로 블록쌍의 각 텍스처 정보를, 현재 레이어의 프레임 매크로 블록쌍의 각 텍스처 예측정보로 사용하는 2단계를 포함하는 방법.
  8. 제 7항에 있어서,
    상기 1단계는, 상기 필드 매크로 블록쌍의 상단 매크로 블록과 하단 매크로 블록을 교번적으로 선택하면서 한 라인씩 순차적으로 취하여 취한 순서대로 배치함으로써 상기 프레임 매크로 블록쌍을 구성하는 것인 방법.
  9. 제 8항에 있어서,
    상기 2단계는, 상기 필드 매크로 블록쌍이 모두 인트라 모드이면 상기 구성된 프레임 매크로 블록쌍의 각 텍스처 정보를 인트라 베이스 예측정보로 사용하고, 모두 인터 모드이면 상기 구성된 프레임 매크로 블록쌍의 각 텍스처 정보를 레지듀얼 예측정보로 사용하는 것인 방법.
  10. 제 7항에 있어서,
    상기 1단계는, 상기 하나의 필드 매크로 블록을 수직방향으로 업샘플링하여 상기 프레임 매크로 블록쌍을 구성하는 것인 방법.
  11. 제 10항에 있어서,
    상기 2단계는, 상기 하나의 필드 매크로 블록이 인트라 모드이면 상기 구성된 프레임 매크로 블록쌍의 각 텍스처 정보를 인트라 베이스 예측정보로 사용하고, 인터 모드이면 상기 구성된 프레임 매크로 블록쌍의 각 텍스처 정보를 레지듀얼 예측정보로 사용하는 것인 방법.
  12. 제 7항에 있어서,
    상기 1단계는, 상기 필드 매크로 블록쌍이 각각 인트라 모드와 인터 모드이면, 그 중 하나를 선택하여 수직방향으로 업샘플링하여 상기 프레임 매크로 블록쌍을 구성하는 것인 방법.
  13. 제 12항에 있어서,
    상기 2단계는, 상기 1단계에서 인트라 모드의 필드 매크로 블록으로부터 상기 프레임 매크로 블록쌍이 구성된 경우에는, 그 구성된 프레임 매크로 블록쌍의 텍스처 정보를 인트라 베이스 예측정보로서 사용하고, 상기 1단계에서 인터 모드의 필드 매크로 블록으로부터 상기 프레임 매크로 블록쌍이 구성된 경우에는, 그 구성된 프레임 매크로 블록쌍의 텍스처 정보를 레지듀얼 예측정보로서 사용하는 것인 방 법.
  14. 영상신호의 엔코딩/디코딩시에 레이어간 예측을 행하는 방법에 있어서,
    베이스 레이어의 수직으로 인접된 필드(field) 매크로 블록쌍으로부터 프레임(frame) 매크로 블록 N쌍( N은 1보다 큰 정수 )을 구성하는 1단계와,
    상기 구성된 프레임 매크로 블록 N쌍의 각 텍스처 정보를, 현재 레이어의 서로 다른 시간적 위치에 있는 프레임 매크로 블록 N쌍의 각 텍스처 예측정보로 사용하는 2단계를 포함하는 방법.
  15. 제 14항에 있어서,
    상기 N은 2이고, 상기 1단계는, 상기 필드 매크로 블록쌍의 상단 매크로 블록을 수직으로 업샘플링하여 상기 프레임 매크로 블록 N쌍중 한 쌍을 구성하고, 상기 필드 매크로 블록쌍의 하단 매크로 블록을 수직으로 업샘플링하여 상기 프레임 매크로 블록 N쌍의 다른 한 쌍을 구성하는 것인 방법.
  16. 레이어간 예측을 사용하여 영상신호를 코딩하는 방법에 있어서,
    베이스 레이어의 임의 픽처내의 2N 블록을 교번적으로 선택하여 취한 라인을 취한 순서대로 배치하여 구성한 2N 블록의 각 텍스처 정보를 상기 레이어간 예측에 사용할 것인 지, 상기 베이스 레이어의 상기 2N 블록 중에서 선택된 하나의 블록을 업샘플링하여 구성한 2N 블록의 각 텍스처 정보를 상기 레이어간 예측에 사용할 것 인 지를 결정하는 1단계와,
    상기 결정을 나타내는 정보를 코딩된 정보에 포함시키는 2단계를 포함하여 이루어지는 방법.
  17. 제 16항에 있어서,
    상기 베이스 레이어는 필드 매크로 블록쌍을 포함하는 픽처들로 구성되고, 상기 베이스 레이어의 상위 레이어는 순차주사방식의 프레임들로 구성되는 것인 방법.
  18. 영상신호의 엔코딩/디코딩시에 레이어간 예측을 행하는 방법에 있어서,
    하위 레이어의 각 프레임을 복수의 필드 픽처로 분리하여 상기 하위 레이어가 상위 레이어와 동일한 시간적 해상도를 갖도록 하는 1단계와,
    상기 분리된 각 필드 픽처를 수직방향으로 업샘플링하여 수직방향으로 확장시키는 2단계와,
    상기 업샘플링된 각 필드 픽처를 상기 상위 레이어의 각 프레임의 레이어간 예측에 사용하는 3단계를 포함하여 이루어지는 방법.
  19. 제 18항에 있어서,
    상기 3단계의 레이어간 예측은, 텍스처 예측 및/또는 모션 예측인 것인 방법.
  20. 영상신호의 엔코딩/디코딩시에 레이어간 예측을 행하는 방법에 있어서,
    하위 레이어의 각 필드 픽처를 수직방향으로 업샘플링하여 수직방향으로 확장시키는 1단계와,
    상기 업샘플링된 각 필드 픽처를 상위 레이어의 각 프레임의 레이어간 예측에 사용하는 2단계를 포함하여 이루어지는 방법.
  21. 영상신호의 엔코딩/디코딩시에 레이어간 예측을 행하는 방법에 있어서,
    상위 레이어의 각 프레임을 복수의 필드 픽처로 분리하는 1단계와,
    하위 레이어의 각 픽처를 수직방향으로 다운샘플링하여 수직방향으로 축소시키는 2단계와,
    상기 다운샘플링된 픽처들을 상기 상위 레이어의 분리된 필드 픽처들의 레이어간 예측에 사용하는 3단계를 포함하여 이루어지는 방법.
  22. 제 21항에 있어서,
    상기 1단계는, 상기 하위 레이어가 상기 상위 레이어와 동일한 시간적 해상도를 갖도록 상기 상위 레이어의 각 프레임을 복수의 필드 픽처로 분리하는 것인 방법.
  23. 제 21항에 있어서,
    상기 3단계는, 상기 분리된 필드 픽처들에서, 상기 상위 레이어의 각 프레임 에서 우수 라인들만을 취하여 구성된 필드 픽처들만에 대해서 레이어간 예측을 적용하는 것인 방법.
  24. 레이어간 예측을 사용하여 영상신호를 디코딩하는 방법에 있어서,
    수신되는 신호에 특정 지시정보가 포함되어 있는 지 확인하는 1단계와,
    상기 확인 결과에 따라, 베이스 레이어의 임의 픽처내의 2N 블록을 교번적으로 선택하여 취한 라인을 취한 순서대로 배치하여 구성한 2N 블록의 각 텍스처 정보를 상기 레이어간 예측에 사용할 것인 지, 상기 베이스 레이어의 상기 2N 블록 중에서 선택된 하나의 블록을 업샘플링하여 구성한 2N 블록의 각 텍스처 정보를 상기 레이어간 예측에 사용할 것인 지를 결정하는 2단계를 포함하여 이루어지는 방법.
  25. 제 24항에 있어서,
    상기 2단계는, 상기 수신되는 신호에 상기 특정 지시정보가 포함되어 있지 않으면, 그 지시정보가 0으로 지정되어 수신되는 경우와 동일한 것으로 간주하여 어떤 블록의 각 텍스처 정보를 상기 레이어간 예측에 사용할 것인지를 결정하는 것인 방법.
  26. 제 24항에 있어서,
    상기 2단계는, 상기 특정 지시정보가 포함되어 있으면, 그 지시정보의 값에 따라 어떤 블록의 각 텍스처 정보를 상기 레이어간 예측에 사용할 것인지를 결정하는 것인 방법.
KR1020060111895A 2006-01-09 2006-11-13 영상신호의 엔코딩/디코딩시의 레이어간 예측 방법 KR20070074452A (ko)

Priority Applications (62)

Application Number Priority Date Filing Date Title
KR1020087017203A KR20080092372A (ko) 2006-01-09 2007-01-09 영상 신호의 레이어 간 예측 방법
US12/087,515 US8345755B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550231A JP4991762B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法及び装置
CN2007800057614A CN101385354B (zh) 2006-01-09 2007-01-09 用于视频信号的层间预测方法
KR1020087017201A KR100904442B1 (ko) 2006-01-09 2007-01-09 영상 신호의 레이어 간 예측 방법
CN2007800057544A CN101385353B (zh) 2006-01-09 2007-01-09 用于视频信号的层间预测方法
EP07700919.9A EP1977609A4 (en) 2006-01-09 2007-01-09 INTER-LAYER PREDICTION PROCEDURE FOR A VIDEO SIGNAL
JP2008550227A JP4991758B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法
KR1020097011954A KR101055741B1 (ko) 2006-01-09 2007-01-09 영상신호의 레이어간 예측 방법
JP2008550224A JP5106419B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法及び装置
CN201210585882.3A CN103096078B (zh) 2006-01-09 2007-01-09 用于视频信号的层间预测方法和装置
EP07700920.7A EP1972155A4 (en) 2006-01-09 2007-01-09 INTER-LAYER PREDICTION PROCEDURE FOR A VIDEO SIGNAL
CN2007800053238A CN101385348B (zh) 2006-01-09 2007-01-09 用于视频信号的层间预测方法
CN2007800056467A CN101385351B (zh) 2006-01-09 2007-01-09 用于视频信号的层间预测方法
PCT/KR2007/000143 WO2007081135A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700914.0A EP1972152A4 (en) 2006-01-09 2007-01-09 METHOD FOR PREDICTING INTER-LAYER OF VIDEO SIGNAL
JP2008550228A JP4991759B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法
JP2008550226A JP4991757B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法
KR1020087017199A KR20090016544A (ko) 2006-01-09 2007-01-09 영상 신호의 레이어 간 예측 방법
EP07700921.5A EP1977610B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700913.2A EP1980114A4 (en) 2006-01-09 2007-01-09 METHOD FOR PREDICTING INTER-LAYER OF VIDEO SIGNAL
CN200780005672XA CN101385352B (zh) 2006-01-09 2007-01-09 用于视频信号的层间预测方法
US12/087,525 US8687688B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017195A KR100914712B1 (ko) 2006-01-09 2007-01-09 영상신호의 레이어간 예측 방법
CN2007800056166A CN101385350B (zh) 2006-01-09 2007-01-09 用于视频信号的层间预测方法
CA2636571A CA2636571C (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550232A JP4991763B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法
JP2008550229A JP4991760B2 (ja) 2006-01-09 2007-01-09 映像信号の層間予測方法
JP2008550230A JP4991761B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法
PCT/KR2007/000144 WO2007081136A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017202A KR100904443B1 (ko) 2006-01-09 2007-01-09 영상 신호의 레이어 간 예측 방법
PCT/KR2007/000140 WO2007081133A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017196A KR100904441B1 (ko) 2006-01-09 2007-01-09 영상신호의 레이어간 예측 방법
PCT/KR2007/000148 WO2007081140A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000147 WO2007081139A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,464 US8494042B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017197A KR100914713B1 (ko) 2006-01-09 2007-01-09 영상 신호의 레이어 간 예측 방법
EP07700915.7A EP1977607A4 (en) 2006-01-09 2007-01-09 INTER-LAYER PREDICTION PROCEDURE FOR A VIDEO SIGNAL
JP2008550225A JP4991756B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法
AU2007205337A AU2007205337B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017198A KR100917829B1 (ko) 2006-01-09 2007-01-09 영상신호의 레이어간 예측 방법
EP07700916.5A EP1972153A4 (en) 2006-01-09 2007-01-09 INTER-LAYER PREDICTION PROCEDURE FOR A VIDEO SIGNAL
US12/087,471 US8401091B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,523 US8792554B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,526 US8457201B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700917.3A EP1972154A4 (en) 2006-01-09 2007-01-09 INTERLAYER PREDICTION METHOD FOR VIDEO SIGNAL
US12/087,518 US8451899B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800057826A CN101385355B (zh) 2006-01-09 2007-01-09 用于视频信号的层间预测方法
PCT/KR2007/000145 WO2007081137A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,488 US8494060B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000146 WO2007081138A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020097021246A KR101055742B1 (ko) 2006-01-09 2007-01-09 영상신호의 레이어간 예측 방법
PCT/KR2007/000142 WO2007100187A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700918.1A EP1977608B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017204A KR100917206B1 (ko) 2006-01-09 2007-01-09 영상 신호의 레이어 간 예측 방법
US12/087,466 US8264968B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000141 WO2007081134A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
HK09106198.8A HK1129013A1 (en) 2006-01-09 2009-07-10 Inter-layer prediction method for video signal
HK09106197.9A HK1128843A1 (en) 2006-01-09 2009-07-10 Inter-layer prediction method for video signal
HK09106200.4A HK1128571A1 (en) 2006-01-09 2009-07-10 Inter-layer prediction method for video signal
US12/659,389 US8619872B2 (en) 2006-01-09 2010-03-08 Inter-layer prediction method for video signal
US14/178,751 US9497453B2 (en) 2006-01-09 2014-02-12 Inter-layer prediction method for video signal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US75700906P 2006-01-09 2006-01-09
US60/757,009 2006-01-09

Publications (1)

Publication Number Publication Date
KR20070074452A true KR20070074452A (ko) 2007-07-12

Family

ID=38508610

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020060111897A KR20070074453A (ko) 2006-01-09 2006-11-13 영상 신호의 인코딩 및 디코딩 방법
KR1020060111894A KR20070074451A (ko) 2006-01-09 2006-11-13 베이스 레이어의 영상신호를 레이어간 예측에 사용하는방법
KR1020060111895A KR20070074452A (ko) 2006-01-09 2006-11-13 영상신호의 엔코딩/디코딩시의 레이어간 예측 방법

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020060111897A KR20070074453A (ko) 2006-01-09 2006-11-13 영상 신호의 인코딩 및 디코딩 방법
KR1020060111894A KR20070074451A (ko) 2006-01-09 2006-11-13 베이스 레이어의 영상신호를 레이어간 예측에 사용하는방법

Country Status (2)

Country Link
KR (3) KR20070074453A (ko)
CN (9) CN101385348B (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014163418A1 (ko) * 2013-04-04 2014-10-09 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
US9924180B2 (en) 2013-04-04 2018-03-20 Electronics And Telecommunications Research Institute Image encoding/decoding method and device

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100904442B1 (ko) 2006-01-09 2009-06-24 엘지전자 주식회사 영상 신호의 레이어 간 예측 방법
CN106231328B (zh) 2010-04-13 2020-06-12 Ge视频压缩有限责任公司 解码器、解码方法、编码器以及编码方法
CN105872562B (zh) * 2010-04-13 2019-05-17 Ge视频压缩有限责任公司 跨平面预测
LT3697089T (lt) 2010-04-13 2022-01-10 Ge Video Compression, Llc Paveldėjimas ėminių masyvo multimedžio poskaidinyje
CN102939750B (zh) 2010-04-13 2016-07-06 Ge视频压缩有限责任公司 跨平面预测
KR102480988B1 (ko) 2010-04-13 2022-12-26 지이 비디오 컴프레션, 엘엘씨 샘플 영역 병합
WO2012097749A1 (en) * 2011-01-19 2012-07-26 Mediatek Inc. Method and apparatus for parsing error robustness of temporal motion vector prediction
LT3793200T (lt) 2012-04-13 2023-02-27 Ge Video Compression, Llc Vaizdo kodavimas su maža delsa
CA3095638C (en) 2012-06-29 2023-11-14 Ge Video Compression, Llc Video data stream concept
US20150288976A1 (en) * 2012-09-09 2015-10-08 Lg Electronics Inc. Image decoding method and apparatus using same
KR101806101B1 (ko) * 2012-09-27 2017-12-07 돌비 레버러토리즈 라이쎈싱 코오포레이션 부호화 표준 확장성을 위한 계층 간 참조 화상 처리
US10375405B2 (en) 2012-10-05 2019-08-06 Qualcomm Incorporated Motion field upsampling for scalable coding based on high efficiency video coding
US9756335B2 (en) * 2013-07-02 2017-09-05 Qualcomm Incorporated Optimizations on inter-layer prediction signalling for multi-layer video coding
KR20150009424A (ko) 2013-07-15 2015-01-26 한국전자통신연구원 시간적 서브 레이어 정보에 기반한 계층간 예측을 이용한 영상 부, 복호화 방법 및 그 장치

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9022326D0 (en) * 1990-10-15 1990-11-28 British Telecomm Signal coding
AU5632394A (en) * 1993-03-05 1994-09-08 Sony Corporation Apparatus and method for reproducing a prediction-encoded video signal
DE69619002T2 (de) * 1995-03-10 2002-11-21 Toshiba Kawasaki Kk Bildkodierungs-/-dekodierungsvorrichtung
US6173013B1 (en) * 1996-11-08 2001-01-09 Sony Corporation Method and apparatus for encoding enhancement and base layer image signals using a predicted image signal
JP2001160971A (ja) * 1996-11-12 2001-06-12 Matsushita Electric Ind Co Ltd デジタル画像符号化方法及びデジタル画像符号化装置,デジタル画像復号化方法及びデジタル画像復号化装置,並びにデータ記憶媒体
JPH10271509A (ja) * 1997-03-26 1998-10-09 Sharp Corp 画像符号化装置及び画像復号装置
US6332002B1 (en) * 1997-11-01 2001-12-18 Lg Electronics Inc. Motion prediction apparatus and method
KR100281462B1 (ko) * 1998-03-30 2001-02-01 전주범 격행 부호화에서 이진 형상 신호의 움직임 벡터 부호화 방법
US20020118742A1 (en) * 2001-02-26 2002-08-29 Philips Electronics North America Corporation. Prediction structures for enhancement layer in fine granular scalability video coding
PT3525464T (pt) * 2002-04-19 2021-04-06 Panasonic Ip Corp America Método e sistema de codificação e descodificação de imagem
KR20040070490A (ko) * 2003-02-03 2004-08-11 삼성전자주식회사 비월 주사 방식의 동영상 부호화/복호화 방법 및 그 장치
CN1204753C (zh) * 2003-05-19 2005-06-01 北京工业大学 基于相邻像素预测的帧内预测方法
JP2005123732A (ja) * 2003-10-14 2005-05-12 Matsushita Electric Ind Co Ltd デブロックフィルタ処理装置およびデブロックフィルタ処理方法
EP1585061A1 (en) * 2004-04-07 2005-10-12 Deutsche Thomson-Brandt Gmbh Block adaptive predictive coding
CN1268136C (zh) * 2004-07-02 2006-08-02 上海广电(集团)有限公司中央研究院 基于图像切片结构的帧场自适应编码方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014163418A1 (ko) * 2013-04-04 2014-10-09 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
US9924180B2 (en) 2013-04-04 2018-03-20 Electronics And Telecommunications Research Institute Image encoding/decoding method and device
US10432950B2 (en) 2013-04-04 2019-10-01 Electronics And Telecommunications Research Institute Image encoding/decoding method and device
US10440371B2 (en) 2013-04-04 2019-10-08 Electronics And Telecommunications Research Institute Image encoding/decoding method and device
US10440372B2 (en) 2013-04-04 2019-10-08 Electronics And Telecommunications Research Institute Image encoding/decoding method and device
US10499067B2 (en) 2013-04-04 2019-12-03 Electronics And Telecommunications Research Institute Image encoding/decoding method and device
US11778206B2 (en) 2013-04-04 2023-10-03 Electronics And Telecommunications Research Institute Image encoding/decoding method and device

Also Published As

Publication number Publication date
CN101385352B (zh) 2013-02-13
CN101385354B (zh) 2010-12-08
CN101385355A (zh) 2009-03-11
CN101385350A (zh) 2009-03-11
CN101385353A (zh) 2009-03-11
CN101385354A (zh) 2009-03-11
CN101385353B (zh) 2010-12-22
KR20070074453A (ko) 2007-07-12
CN101385355B (zh) 2011-08-31
CN101385352A (zh) 2009-03-11
CN101385350B (zh) 2010-12-22
KR20070074451A (ko) 2007-07-12
CN101385349A (zh) 2009-03-11
CN101416522A (zh) 2009-04-22
CN101385351B (zh) 2011-10-05
CN101385349B (zh) 2013-07-10
CN101385348A (zh) 2009-03-11
CN101385351A (zh) 2009-03-11
CN101385348B (zh) 2011-01-12

Similar Documents

Publication Publication Date Title
KR20070074452A (ko) 영상신호의 엔코딩/디코딩시의 레이어간 예측 방법
KR101055742B1 (ko) 영상신호의 레이어간 예측 방법
US10491904B2 (en) Channel line buffer data packing scheme for video codecs
RU2384970C1 (ru) Способ межслойного предсказания для видеосигнала
KR20070095180A (ko) 영상신호의 엔코딩/디코딩시의 픽처유형에 따른 레이어간예측 방법
KR20070075257A (ko) 영상신호의 엔코딩/디코딩시의 레이어간 모션 예측 방법
KR20070092591A (ko) 영상신호의 엔코딩/디코딩시의 레이어간 예측 방법