KR20070075257A - Inter-layer motion prediction method for video signal - Google Patents

Inter-layer motion prediction method for video signal Download PDF

Info

Publication number
KR20070075257A
KR20070075257A KR1020060111893A KR20060111893A KR20070075257A KR 20070075257 A KR20070075257 A KR 20070075257A KR 1020060111893 A KR1020060111893 A KR 1020060111893A KR 20060111893 A KR20060111893 A KR 20060111893A KR 20070075257 A KR20070075257 A KR 20070075257A
Authority
KR
South Korea
Prior art keywords
macroblock
frame
field
block
pair
Prior art date
Application number
KR1020060111893A
Other languages
Korean (ko)
Inventor
박승욱
전병문
박지호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to CA2636571A priority Critical patent/CA2636571C/en
Priority to CN2007800057544A priority patent/CN101385353B/en
Priority to KR1020087017195A priority patent/KR100914712B1/en
Priority to PCT/KR2007/000146 priority patent/WO2007081138A1/en
Priority to US12/087,488 priority patent/US8494060B2/en
Priority to EP07700917.3A priority patent/EP1972154A4/en
Priority to CN201210585882.3A priority patent/CN103096078B/en
Priority to JP2008550228A priority patent/JP4991759B2/en
Priority to EP07700919.9A priority patent/EP1977609A4/en
Priority to EP07700921.5A priority patent/EP1977610B1/en
Priority to CN2007800056109A priority patent/CN101385349B/en
Priority to KR1020087017196A priority patent/KR100904441B1/en
Priority to US12/087,471 priority patent/US8401091B2/en
Priority to JP2008550227A priority patent/JP4991758B2/en
Priority to CN2007800053238A priority patent/CN101385348B/en
Priority to JP2008550226A priority patent/JP4991757B2/en
Priority to EP07700914.0A priority patent/EP1972152A4/en
Priority to PCT/KR2007/000148 priority patent/WO2007081140A1/en
Priority to KR1020087017198A priority patent/KR100917829B1/en
Priority to JP2008550225A priority patent/JP4991756B2/en
Priority to EP07700916.5A priority patent/EP1972153A4/en
Priority to JP2008550224A priority patent/JP5106419B2/en
Priority to PCT/KR2007/000144 priority patent/WO2007081136A1/en
Priority to EP07700913.2A priority patent/EP1980114A4/en
Priority to KR1020087017199A priority patent/KR20090016544A/en
Priority to EP07700920.7A priority patent/EP1972155A4/en
Priority to US12/087,518 priority patent/US8451899B2/en
Priority to KR1020087017202A priority patent/KR100904443B1/en
Priority to KR1020087017201A priority patent/KR100904442B1/en
Priority to PCT/KR2007/000142 priority patent/WO2007100187A1/en
Priority to KR1020087017197A priority patent/KR100914713B1/en
Priority to CN200780005672XA priority patent/CN101385352B/en
Priority to CN2007800057826A priority patent/CN101385355B/en
Priority to JP2008550231A priority patent/JP4991762B2/en
Priority to KR1020097021246A priority patent/KR101055742B1/en
Priority to CN2007800057614A priority patent/CN101385354B/en
Priority to US12/087,515 priority patent/US8345755B2/en
Priority to US12/087,523 priority patent/US8792554B2/en
Priority to JP2008550230A priority patent/JP4991761B2/en
Priority to US12/087,466 priority patent/US8264968B2/en
Priority to PCT/KR2007/000141 priority patent/WO2007081134A1/en
Priority to PCT/KR2007/000145 priority patent/WO2007081137A1/en
Priority to AU2007205337A priority patent/AU2007205337B2/en
Priority to US12/087,464 priority patent/US8494042B2/en
Priority to JP2008550229A priority patent/JP4991760B2/en
Priority to PCT/KR2007/000143 priority patent/WO2007081135A1/en
Priority to PCT/KR2007/000140 priority patent/WO2007081133A1/en
Priority to KR1020087017204A priority patent/KR100917206B1/en
Priority to CN2007800056467A priority patent/CN101385351B/en
Priority to US12/087,526 priority patent/US8457201B2/en
Priority to JP2008550232A priority patent/JP4991763B2/en
Priority to RU2008132819/09A priority patent/RU2384970C1/en
Priority to EP07700915.7A priority patent/EP1977607A4/en
Priority to EP07700918.1A priority patent/EP1977608B1/en
Priority to CN2007800056166A priority patent/CN101385350B/en
Priority to KR1020087017203A priority patent/KR20080092372A/en
Priority to US12/087,525 priority patent/US8687688B2/en
Priority to PCT/KR2007/000147 priority patent/WO2007081139A1/en
Priority to KR1020097011954A priority patent/KR101055741B1/en
Publication of KR20070075257A publication Critical patent/KR20070075257A/en
Priority to HK09106198.8A priority patent/HK1129013A1/en
Priority to HK09106197.9A priority patent/HK1128843A1/en
Priority to HK09106200.4A priority patent/HK1128571A1/en
Priority to US12/659,389 priority patent/US8619872B2/en
Priority to US14/178,751 priority patent/US9497453B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

A method for predicting an inter-layer motion when a video signal is encoded/decoded is provided to improve data coding rate irrespective of the picture type of a video signal by performing inter-layer motion prediction even though different video signal sources are used. An inter-layer motion prediction method induces motion information on a single macro-block from motion information on a pair of vertically neighboring frame macro-blocks(410) of a base layer and uses the induced motion information as prediction information of motion information of a single field macro-block or motion information of a field macro-block pair of a current layer.

Description

영상신호의 엔코딩/디코딩시의 레이어간 모션 예측 방법 {Inter-layer motion prediction method for video signal}Inter-layer motion prediction method for encoding / decoding video signal {Inter-layer motion prediction method for video signal}

도 1a 및 1b는 단일 영상소스로부터 복수 레이어로 코딩하는 방식을 각각 예시한 것이고,1A and 1B illustrate a method of coding a plurality of layers from a single image source, respectively.

도 2a 및 2b는 본 발명에 따른 레이어간 예측방법이 적용되는 영상신호 엔코딩 장치의 구성을 간략히 도시한 것이고,2A and 2B briefly illustrate a configuration of an image signal encoding apparatus to which the inter-layer prediction method according to the present invention is applied.

도 3a 및 3b는 비월주사방식의 영상신호를 엔코딩하는 픽처 시퀀스의 유형을 각기 도시한 것이고,3A and 3B illustrate types of picture sequences encoding video signals of an interlaced scan method, respectively.

도 4a 내지 4c는, 본 발명의 일 실시예에 따라, 프레임(frame) 매크로 블록(MB)의 모션정보를 이용하여 MBAFF 프레임내의 필드(field) MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,4A to 4C schematically illustrate a process of deriving motion information of a field MB in an MBAFF frame using motion information of a frame macroblock MB according to an embodiment of the present invention. ,

도 5a 내지 5b는, 도 4b 및 4c에 예시된 참조 인덱스와 모션정보의 유도과정을 보다 상세히 도시한 것이고,5A to 5B illustrate the derivation process of the reference index and the motion information illustrated in FIGS. 4B and 4C in more detail.

도 6a 내지 6c는, 본 발명의 일 실시예에 따라, 프레임 MB의 모션정보를 이용하여 필드 픽처내의 필드 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,6a to 6c schematically illustrate a process of deriving motion information of a field MB in a field picture using motion information of a frame MB according to an embodiment of the present invention.

도 7a 내지 7b는, 도 6b 및 6c에 예시된 참조 인덱스와 모션정보의 유도과정을 보다 상세히 도시한 것이고,7A to 7B illustrate the derivation process of the reference index and the motion information illustrated in FIGS. 6B and 6C in more detail.

도 8a 내지 8c는, 본 발명의 일 실시예에 따라, MBAFF 프레임내의 필드 MB의 모션정보를 이용하여 프레임 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,8A to 8C schematically illustrate a process of deriving motion information of a frame MB using motion information of a field MB in an MBAFF frame according to an embodiment of the present invention.

도 9는, 도 8b 및 8c에 예시된 참조 인덱스와 모션정보의 유도과정을 보다 상세히 도시한 것이고,9 illustrates a process of deriving the reference index and the motion information illustrated in FIGS. 8B and 8C in more detail.

도 10a 내지 10c는, 본 발명의 일 실시예에 따라, 필드 픽처내의 필드 MB의 모션정보를 이용하여 프레임 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,10A to 10C schematically illustrate a process of deriving motion information of a frame MB using motion information of a field MB in a field picture according to an embodiment of the present invention.

도 11은, 도 10b 및 10c에 예시된 참조 인덱스와 모션정보의 유도과정을 보다 상세히 도시한 것이고,FIG. 11 illustrates a process of deriving the reference index and the motion information illustrated in FIGS. 10B and 10C in more detail.

도 12a 및 12b는, 본 발명의 다른 일 실시예에 따라, 필드 픽처내의 필드 MB의 모션정보를 이용하여 프레임 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,12A and 12B schematically illustrate a process of deriving motion information of a frame MB using motion information of a field MB in a field picture according to another embodiment of the present invention;

도 13a 내지 13d는, 본 발명의 일 실시예에 따라, 필드 MB의 모션정보를 이용하여 필드 MB의 모션정보를 유도하는 과정을 픽처의 유형에 따라 각기 구분하여 도식적으로 나타낸 것이고,13A to 13D are diagrams schematically illustrating a process of deriving the motion information of the field MB by using the motion information of the field MB according to the type of picture according to one embodiment of the present invention.

도 14a 내지 14h는, 본 발명의 일 실시예에 따라, 레이어간 해상도가 상이한 경우에 레이어간 예측을 수행하는 방법을 픽처의 유형에 따라 각기 구분하여 도시 한 것이다.14A to 14H illustrate a method of performing inter-layer prediction when the resolution between layers is different according to one embodiment of the present invention, separately according to the type of picture.

<도면의 주요부분에 대한 부호의 설명> <Description of the symbols for the main parts of the drawings>

20: EL 엔코더 21: BL 엔코더20: EL encoder 21: BL encoder

본 발명은, 영상신호를 엔코딩/디코딩할 때 레이어간 모션 예측하는 방법에 관한 것이다. The present invention relates to a method for predicting inter-layer motion when encoding / decoding a video signal.

스케일러블 영상 코덱(SVC:Scalable Video Codec) 방식은 영상신호를 엔코딩함에 있어, 최고 화질로 엔코딩하되, 그 결과로 생성된 픽처 시퀀스의 부분 시퀀스( 시퀀스 전체에서 간헐적으로 선택된 프레임의 시퀀스 )를 디코딩해 사용해도 저화질의 영상 표현이 가능하도록 하는 방식이다. The scalable video codec (SVC) method encodes a video signal at the highest quality, but decodes a partial sequence of the resulting picture sequence (a sequence of intermittently selected frames throughout the sequence). Even if it is used, it is a way to enable a low-quality video representation.

그런데, 스케일러블 방식으로 엔코딩된 픽처 시퀀스는 그 부분 시퀀스만을 수신하여 처리함으로써도 저화질의 영상 표현이 가능하지만, 비트레이트(bitrate)가 낮아지는 경우 화질저하가 크게 나타난다. 이를 해소하기 위해서 낮은 전송률을 위한 별도의 보조 픽처 시퀀스, 예를 들어 소화면 및/또는 초당 프레임수 등이 낮은 픽처 시퀀스를 적어도 하나 이상의 레이어로서 계층적 구조로 제공할 수도 있다. By the way, a picture sequence encoded in a scalable manner can display a low quality image only by receiving and processing only a partial sequence. However, when the bit rate is lowered, the picture quality is greatly deteriorated. In order to solve this problem, a separate auxiliary picture sequence for a low data rate, for example, a small picture and / or a low picture sequence per frame may be provided in a hierarchical structure as at least one layer.

2개의 시퀀스를 가정할 때, 보조 시퀀스( 하위 시퀀스 )를 베이스 레이어(base layer)로, 주 픽처 시퀀스( 상위 시퀀스 )를 인핸스드(enhanced)( 또는 인핸스먼트(enhancement) ) 레이어라고 부른다. 그런데, 베이스 레이어와 인핸스드 레이어는 동일한 영상신호원을 엔코딩하는 것이므로 양 레이어의 영상신호에는 잉여정보( 리던던시(redundancy) )가 존재한다. 따라서 인핸스드 레이어의 코딩율(coding rate)을 높이기 위해, 베이스 레이어의 코딩된 정보( 모션정보 또는 텍스처(texture) 정보 )를 이용하여 인핸스드 레이어의 영상신호를 코딩한다.Assuming two sequences, the auxiliary sequence (lower sequence) is called a base layer, and the main picture sequence (higher sequence) is called an enhanced (or enhancement) layer. However, since the base layer and the enhanced layer encode the same video signal source, redundancy information exists in the video signals of both layers. Therefore, in order to increase the coding rate of the enhanced layer, the image signal of the enhanced layer is coded using the coded information (motion information or texture information) of the base layer.

이 때, 도 1a에 도시된 바와 같이 하나의 영상 소스(1)로부터 각기 다른 전송율을 갖는 복수의 레이어로 코딩할 수도 있지만, 도 1b에서와 같이 동일한 컨텐츠(2a)에 대한 것이지만 서로 다른 주사(scanning)방식을 갖는 복수의 영상 소스(2b)를 각각의 레이어로 코딩할 수도 있다. 하지만, 이 때에도 양 소스(2b)는 동일 컨텐츠(2a)이므로 상위 레이어를 코딩하는 엔코더는 하위 레이어의 코딩된 정보를 이용하는 레이어간 예측을 수행하게 되면 코딩이득을 높일 수 있다.In this case, as shown in FIG. 1A, although coding may be performed from one image source 1 to a plurality of layers having different data rates, different scanning may be performed on the same content 2a as in FIG. 1B. A plurality of image sources 2b having a) scheme may be coded into each layer. However, even at this time, since both sources 2b are the same content 2a, an encoder coding an upper layer may increase coding gain when inter-layer prediction using coded information of a lower layer is performed.

따라서, 서로 다른 소스로부터 각각의 레이어로 코딩할 때 각 영상신호의 주사방식을 고려한 레이어간 예측방안이 필요하다. 또한, 비월주사(interlaced) 방식의 영상을 코딩할 때도 우수(even) 및 기수(odd) 필드들로 코딩할 수도 있고, 하나의 프레임에 기수 및 우수 매크로 블록의 쌍(pair)으로 코딩할 수도 있다. 따라서, 비월주사 방식의 영상신호를 코딩하는 픽처의 유형도 레이어간 예측에 함께 고려되어야 한다.Therefore, when coding to different layers from different sources, an inter-layer prediction method considering the scanning method of each image signal is required. In addition, when coding an interlaced image, it may be coded into even and odd fields, or may be coded as a pair of odd and even macroblocks in one frame. . Therefore, the type of the picture coding the interlaced video signal should also be considered in inter-layer prediction.

본 발명은, 양 레이어중 적어도 한 레이어는 비월 주사 방식의 영상신호 성분을 갖는 조건하에 레이어간 모션 예측을 수행하는 방법을 제공하는 데 그 목적이 있다.An object of the present invention is to provide a method for performing inter-layer motion prediction under a condition in which at least one of the two layers has interlaced scanning image signal components.

본 발명에 따른 레이어간 모션 예측방법은, 베이스 레이어의 수직으로 인접된 프레임 매크로 블록쌍의 모션정보로부터 단일 매크로 블록에 대한 모션정보를 유도하고, 그 유도된 모션정보를, 현재 레이어의 하나의 필드 매크로 블록의 모션정보 또는 필드 매크로 블록쌍의 각 모션정보의 예측정보로 사용한다.In the inter-layer motion prediction method according to the present invention, motion information for a single macro block is derived from motion information of a vertically adjacent frame macro block pair of a base layer, and the derived motion information is stored in one field of the current layer. It is used as motion information of a macro block or prediction information of each motion information of a field macro block pair.

본 발명에 따른 다른 레이어간 모션 예측 방법은, 베이스 레이어의 단일 필드 매크로 블록의 모션정보 또는 수직으로 인접된 필드 매크로 블록쌍중 선택된 단일 필드 매크로 블록의 모션정보로부터 2개의 매크로 블록에 대한 각 모션정보를 유도하고, 그 유도된 각 모션정보를, 현재 레이어의 프레임 매크로 블록쌍의 각 모션정보의 예측정보로 사용한다.In another inter-layer motion prediction method according to the present invention, the motion information of a single field macroblock of a base layer or the motion information of a single field macroblock selected from a pair of vertically adjacent field macroblocks for each motion information for two macroblocks. The derived motion information is used as prediction information of each motion information of the frame macroblock pair of the current layer.

본 발명에 따른, 픽처의 해상도가 상이한 레이어간 모션 예측방법은, 하위 레이어의 픽처를, 그 유형에 따라 프레임 매크로 블록들로 변환하는 예측방식을 선택적으로 적용하여 동일 해상도의 프레임 픽처로 변환하고, 상기 프레임 픽처를 상위 레이어의 해상도와 동일해지도록 업샘플링한 후 그 업샘플링된 프레임 픽처내의 프레임 매크로 블록과 상위 레이어의 픽처내의 매크로 블록의 유형에 맞는 레이어간 예측방식을 적용한다.According to the present invention, an inter-layer motion prediction method having a different resolution of a picture includes converting a picture of a lower layer into a frame picture of the same resolution by selectively applying a prediction method of converting a picture of a lower layer into frame macroblocks according to its type The frame picture is upsampled to be the same as the resolution of the upper layer, and then an inter-layer prediction method suitable for the type of the frame macroblock in the upsampled frame picture and the macroblock in the picture of the upper layer is applied.

본 발명에 따른 일 실시예에서는, 레이어간 모션 예측에 있어서, 분할모드(partition mode), 참조 인덱스, 그리고 모션 벡터의 순으로 예측한다.In an embodiment according to the present invention, in inter-layer motion prediction, prediction is performed in order of a partition mode, a reference index, and a motion vector.

본 발명에 따른 다른 일 실시예에서는, 참조 인덱스, 모션벡터, 그리고 분할모드의 순으로 예측한다.In another embodiment according to the present invention, prediction is performed in order of a reference index, a motion vector, and a split mode.

본 발명에 따른 일 실시예에서는, 베이스 레이어의 프레임 매크로 블록 한쌍의 모션정보로부터 인핸스드 레이어의 필드 매크로 블록 한쌍의 모션정보를 유도한다.In one embodiment according to the present invention, motion information of a pair of field macro blocks of an enhanced layer is derived from motion information of a pair of frame macroblocks of a base layer.

본 발명에 따른 일 실시예에서는, 베이스 레이어의 프레임 매크로 블록 한쌍의 모션정보로부터 인핸스드 레이어의 우수 또는 기수 필드 픽처내의 하나의 필드 매크로 블록의 모션정보를 유도한다.In one embodiment according to the present invention, motion information of one field macro block in even or odd field pictures of an enhanced layer is derived from a pair of frame information of frame macro blocks of a base layer.

본 발명에 따른 일 실시예에서는, 베이스 레이어의 한쌍의 프레임 매크로 블록중 하나가 인트라 모드이면, 그 한쌍내의 인터 모드 매크로 블록의 모션정보를 인트라 모드의 매크로 블록의 모션정보로 복사한 후, 그 한쌍의 프레임 매크로 블록의 모션정보로부터 인핸스드 레이어의 필드 매크로 블록 또는 한쌍의 필드 매크로 블록의 모션정보를 유도한다.In one embodiment according to the present invention, if one of the pair of frame macroblocks of the base layer is intra mode, the motion information of the inter mode macroblock in the pair is copied to the motion information of the macroblock of the intra mode, and then the pair The motion information of the field macroblock of the enhanced layer or the pair of field macroblocks is derived from the motion information of the frame macroblock.

본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 한쌍의 프레임 매크로 블록중 하나가 인트라 모드이면, 그 블록에 대해서는 0 모션벡터와 0의 참조 인덱스를 갖는 인터 모드의 매크로 블록으로 간주한 후, 그 한쌍의 프레임 매크로 블록의 모션정보로부터 인핸스드 레이어의 필드 매크로 블록 또는 한쌍의 필드 매크 로 블록의 모션정보를 유도한다.In another embodiment according to the present invention, if one of the pair of frame macro blocks of the base layer is an intra mode, the block is regarded as an inter mode macro block having a zero motion vector and a reference index of zero, and then The motion information of a field macro block or a pair of field macro blocks of an enhanced layer is derived from the motion information of a pair of frame macro blocks.

본 발명에 따른 일 실시예에서는, 베이스 레이어의 한쌍의 필드 매크로 블록에서 하나의 매크로 블록을 선택하고, 그 선택된 매크로 블록의 모션정보로부터 인핸스드 레이어의 프레임 매크로 블록 한쌍의 모션정보를 유도한다.In one embodiment according to the present invention, one macroblock is selected from a pair of field macroblocks of a base layer, and motion information of a pair of frame macroblocks of an enhanced layer is derived from the motion information of the selected macroblock.

본 발명에 따른 일 실시예에서는, 베이스 레이어의 우수 또는 기수의 필드 픽처내의 하나의 필드 매크로 블록의 모션정보로부터 인핸스드 레이어의 프레임 매크로 블록 한쌍의 모션정보를 유도한다.In one embodiment according to the present invention, the motion information of a pair of frame macroblocks of an enhanced layer is derived from the motion information of one field macroblock in the even or odd field pictures of the base layer.

본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 우수 또는 기수의 필드 픽처내의 하나의 필드 매크로 블록의 정보를 복사하여 가상의 필드 매크로 블록을 추가로 구성하고, 그와 같이 구성된 한쌍의 필드 매크로 블록의 모션정보로부터 인핸스드 레이어의 프레임 매크로 블록 한쌍의 모션정보를 유도한다.In another embodiment according to the present invention, a virtual field macro block is further configured by copying information of one field macro block in even or odd field pictures of the base layer, and a pair of field macro blocks configured as described above. Motion information of a pair of frame macroblocks of the enhanced layer is derived from the motion information of.

본 발명에 따른 일 실시예에서는, 픽처의 해상도가 상이한 레이어간 모션 예측방법에서, 하위 레이어의 픽처를 동일 해상도의 프레임 픽처로 변환하는 데 적용하는 상기 예측방식은, 매크로 블록 정보의 복사, 프레임 매크로 블록쌍의 필드 매크로 블록쌍으로의 예측, 프레임 매크로 블록쌍의 단일 필드 매크로 블록으로의 예측, 필드 매크로 블록쌍의 프레임 매크로 블록쌍으로의 예측, 단일 필드 매크로 블록의 프레임 매크로 블록쌍으로의 예측중 하나이다.According to an embodiment of the present invention, in the inter-layer motion prediction method having different resolutions of a picture, the prediction method applied to converting a picture of a lower layer into a frame picture of the same resolution includes copying of macro block information and frame macro. Prediction of block macrofield pairs into field macroblock pairs, Prediction of frame macroblockpairs into single field macroblocks, Prediction of field macroblockpairs into frame macroblock pairs, Prediction of singlefield macroblocks into frame macroblock pairs One.

본 발명에 따른 일 실시예에서는, 픽처의 해상도가 상이한 레이어간 모션 예측방법에서, 상기 업샘플링된 프레임 픽처내의 프레임 매크로 블록을 기준으로 적용하는 상기 레이어간 예측방식은, 프레임 매크로 블록쌍의 필드 매크로 블록쌍으 로의 예측, 프레임 매크로 블록쌍의 단일 필드 매크로 블록으로의 예측, 필드 매크로 블록쌍의 프레임 매크로 블록쌍으로의 예측, 단일 필드 매크로 블록의 프레임 매크로 블록쌍으로의 예측, 필드 매크로 블록의 필드 매크로 블록으로의 예측, 그리고 프레임 매크로 블록의 프레임 매크로 블록으로의 예측중 적어도 하나이다.According to an embodiment of the present invention, in the inter-layer motion prediction method having a different resolution of a picture, the inter-layer prediction method applied based on a frame macro block in the upsampled frame picture is a field macro of a frame macro block pair. Prediction into block pairs, prediction of frame macro block pairs into single-field macro blocks, prediction of frame macro block pairs of field macro block pairs, prediction of frame macro block pairs of single-field macro blocks, field macros of field macro blocks At least one of a prediction to a block and a prediction to a frame macro block of the frame macro block.

이하, 본 발명의 실시예에 대해 첨부도면을 참조하여 상세히 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2a는 본 발명에 따른 레이어간 예측방법이 적용되는 영상신호 엔코딩 장치의 구성블록을 간략히 도시한 것이다. 도 2a의 장치는 입력 영상신호를 2개의 레이어로 코딩하는 것이나 후술하는 본 발명의 원리는 3개 또는 그 이상의 레이어로 코딩하는 경우에도 각 레이어간에는 물론 적용될 수 있다.2A is a block diagram of a configuration block of an image signal encoding apparatus to which an inter-layer prediction method according to the present invention is applied. The apparatus of FIG. 2A encodes an input video signal into two layers, but the principles of the present invention described later may be applied between layers even when coding into three or more layers.

본 발명에 따른 레이어간 예측방법은, 도 2a의 장치에서 인핸스드 레이어 엔코더(20)( 이하, 'EL 엔코더'로 약칭한다. )에서 수행되며, 베이스 레이어 엔코더(21)( 이하, 'BL 엔코더'로 약칭함. )에서 엔코딩된 정보( 모션정보와 텍스처 정보 )를 수신하고 그 수신된 정보에 근거하여 레어어간 모션 예측을 수행한다. 물론, 본 발명은 도 2b에서와 같이 이미 코딩되어 있는 베이스 레이어의 영상 소스(3)를 사용하여, 입력되는 영상신호를 코딩할 수도 있으며 이 때에도 이하에서 설명하는 레이어간 예측방법이 동일하게 적용된다.The inter-layer prediction method according to the present invention is performed in the enhanced layer encoder 20 (hereinafter, abbreviated as 'EL encoder') in the apparatus of FIG. 2A, and the base layer encoder 21 (hereinafter, referred to as 'BL encoder'). Receives encoded information (motion information and texture information) from (), and performs inter-layer motion prediction based on the received information. Of course, the present invention may code the input video signal using the image source 3 of the base layer already coded as shown in FIG. 2B, and the inter-layer prediction method described below is equally applied. .

도 2a의 경우에 상기 BL 엔코더(21)가 비월주사방식의 영상신호를 엔코딩하는 방식( 또는 2b의 엔코딩되어 있는 영상소스(3)의 코딩된 방식 )은 두가지가 있을 수 있다. 즉, 도 3a에서 보는 바와 같이, 필드단위 그대로 엔코딩하여 필드 시퀀스 로 엔코딩하는 경우와, 도 3b에서 보는 바와 같이, 우수 및 기수 양 필드의 각 매크로 블록을 쌍으로 하여 프레임이 구성된 프레임 시퀀스로 엔코딩하는 경우이다. 이와 같이 코딩되어 있는 프레임내에서, 한 쌍의 매크로 블록의 위에 있는 매크로 블록을 '상단(Top) 매크로 블록'으로 아래에 있는 매크로 블록을 '하단(Bottom) 매크로 블록'으로 칭한다. 상단 매크로 블록이 우수 필드( 또는 기수 필드 )의 영상성분으로 되어 있으면 하단 매크로 블록은 기수 필드( 또는 우수 필드 )의 영상성분으로 이루어진다. 이와 같이 구성된 프레임을 MBAFF (MacroBlock Adaptive Frame Field) 프레임이라고 한다. 그러나, MBAFF 프레임은 기수 필드 및 우수 필드로 구성된 매크로 블록쌍이외에도 각 매크로 블록이 프레임 MB로 구성된 매크로 블록쌍도 또한 포함할 수 있다.In the case of FIG. 2A, there may be two ways in which the BL encoder 21 encodes an interlaced video signal (or a coded method of the 2b encoded video source 3). That is, as shown in FIG. 3A, encoding is performed as a field unit and encoding a field sequence. As shown in FIG. 3B, each macroblock of both even and odd fields is encoded into a frame sequence composed of frames. If it is. In a frame coded as described above, a macro block above a pair of macro blocks is referred to as a 'top macro block' and a macro block below is referred to as a 'bottom macro block'. If the upper macro block is an image component of the even field (or even field), the lower macro block is an image component of the even field (or even field). The frame constructed as described above is called a MBAFF (MacroBlock Adaptive Frame Field) frame. However, the MBAFF frame may also include a macroblock pair in which each macroblock consists of a frame MB, in addition to the macroblock pair consisting of the odd field and the even field.

따라서, 픽처내의 매크로 블록이 비월주사 방식의 영상성분인 경우( 이하에서는, 이러한 매크로 블록을 '필드 MB'라고 칭한다. 이에 반해, 순차주사(progressive) 방식의 영상성분을 갖고 있는 매크로 블록을 '프레임 MB'라고 칭한다. ), 그 블록이 필드내의 것일 수도 있고 프레임내의 것일 수도 있다.Therefore, when a macroblock in a picture is an image component of an interlaced scanning method (hereinafter, such a macroblock is called a 'field MB'. In contrast, a macroblock having a progressive component of a video component is called a 'frame'. The block may be in a field or may be in a frame.

따라서, 상기 EL 엔코더(20)가 코딩할 매크로 블록의 유형과 그 매크로 블록의 모션 예측에 이용할 베이스 레이어의 매크로 블록의 유형이 각기 프레임 MB인지, 필드 MB인지 그리고 필드 MB인 경우에는 필드내의 필드 MB인지 MBAFF 프레임내의 필드 MB인지를 구분하여 모션 예측 방법을 결정하여야 한다.Accordingly, if the type of the macroblock to be coded by the EL encoder 20 and the type of the macroblock of the base layer to be used for motion prediction of the macroblock are frame MB, field MB, and field MB, respectively, the field MB in the field. The motion prediction method should be determined by distinguishing whether the field is MB in the MBAFF frame.

이하에서는 각 경우에 대해서 구분하여 설명한다. 먼저 설명에 앞서 현재 레이어와 베이스 레이어의 해상도는 상호 동일하다고 가정한다. 즉, SpatialScalabilityType()을 0으로 가정한다. 현재 레이어가 베이스 레이어의 해상도보다 높은 경우에 대해서는 다음에 설명한다. 그리고, 하기 설명 및 도면의 표현에 있어서, 우수( 또는 기수 )에 대해 '상단'(top)의 용어를, 기수( 또는 우수 )에 대해 '하단'의 용어도 병행하여 사용한다.Hereinafter, each case will be described separately. First, it is assumed that the resolutions of the current layer and the base layer are the same. That is, assume that SpatialScalabilityType () is 0. The case where the current layer is higher than the resolution of the base layer will be described later. In addition, in description of the following description and drawings, the term "top" is used for the even (or even), and the term "bottom" is used for the radix (or the good) in parallel.

I. 프레임 MB -> I. Frame MB-> MBAFFMBAFF 프레임의 필드 MB의 경우 For field MB of frames

이 경우는, 현재 레이어(EL)에서 MB가 MBAFF 프레임내의 필드 MB로 코딩되고, 그 필드 MB에 대한 모션 예측에 이용할 베이스 레이어(BL)의 MB가 프레임 MB로 코딩되어 있는 경우로서, 베이스 레이어에서 상하 양 매크로 블록( 이를 '매크로 블록쌍'이라고 하며, 이하에서는, '쌍'이라는 표현은 수직으로 인접되어 있는 블록을 칭하기 위해 사용된다 )에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치(colacated)의 매크로 블록 쌍의 각각에 포함되어 있는 영상신호 성분과 각각 동일한 성분이 된다.In this case, MB is coded as a field MB in an MBAFF frame in the current layer EL, and MB of the base layer BL to be used for motion prediction for the field MB is coded as a frame MB. The video signal components included in the upper and lower macro blocks (hereinafter referred to as 'macro block pairs', hereinafter referred to as 'pairs' to refer to blocks vertically adjacent to each other) may correspond to corresponding positions of the current layer ( It becomes the same component as the video signal component included in each of the colacated macroblock pairs.

따라서, 베이스 레이어의 매크로 블록쌍(410)을 하나의 매크로 블록으로 병합( 수직방향으로 1/2로 압축 )시켜서 얻은 매크로 블록 분할(partition)모드를 현재 매크로 블록의 분할 모드로 사용한다. 도 4a는 이를 구체적인 예로서 나타낸 것이다. 도시된 바와 같이, 베이스 레이어의 대응 매크로 블록쌍(410)을 먼저 하나의 매크로 블록으로 병합시키고(S41), 그 병합에 의해서 얻어진 분할모드를 다른 하나에 복사하여(S42) 매크로 블록쌍(411)을 구성한 후, 그 매크로 블록쌍(411)의 각 분할모드를 현재의 매크로 블록쌍(412)에 각기 적용한다(S43).Therefore, the macroblock partition mode obtained by merging (compressing by 1/2 in the vertical direction) the macroblock pair 410 of the base layer into one macroblock is used as the partition mode of the current macroblock. 4A shows this as a specific example. As shown, the corresponding macroblock pair 410 of the base layer is first merged into one macroblock (S41), and the split mode obtained by the merging is copied to the other (S42) to the macroblock pair 411. After the configuration, the split mode of the macroblock pair 411 is applied to the current macroblock pair 412, respectively (S43).

그런데, 대응되는 매크로 블록쌍(410)을 하나의 매크로 블록으로 병합시킬 때, 분할모드에서 허용되지 않는 분할영역이 생길 수 있으므로, 이를 방지하기 위해 상기 EL 엔코더(20)는 다음과 같은 규칙에 따라 분할형태를 결정한다. However, when merging the corresponding macro block pairs 410 into one macro block, a partition area not allowed in the split mode may be generated. In order to prevent this, the EL encoder 20 according to the following rule. Determine the partition type.

1). 베이스 레이어의 매크로 블록쌍내의 2개의 상하 8x8 블록들( 도 4a의 B8_0와 B8_2)은 하나의 8x8 블록으로 병합하는 데, 대응되는 8x8 블록들 각각이 서브 분할되어 있지 않으면 이들은 2개의 8x4 블록들로 병합하고, 하나라도 서브 분할되어 있으면 이들은 4개의 4x4 블록들로 병합한다( 도 4a의 401 ).One). The two upper and lower 8x8 blocks (B8_0 and B8_2 in FIG. 4A) in the macro block pair of the base layer merge into one 8x8 block. If each of the corresponding 8x8 blocks is not subdivided, they are divided into two 8x4 blocks. Merge, and if any are subdivided, they merge into four 4x4 blocks (401 in FIG. 4A).

2). 베이스 레이어의 8x16 블록은 8x8 블록으로, 16x8 블록은 수평으로 인접된 2개의 8x4 블록으로, 16x16 블록은 16x8 블록으로 축소한다.2). 8x16 blocks of the base layer are reduced to 8x8 blocks, 16x8 blocks to two horizontally adjacent 8x4 blocks, and 16x16 blocks to 16x8 blocks.

만약, 대응되는 매크로 블록쌍중 적어도 어느 하나가 인트라(intra) 모드로 코딩되어 있는 경우에는 상기 EL 엔코더(20)는 상기의 병합과정전에 다음의 과정을 먼저 수행한다.If at least one of the corresponding macro block pairs is coded in the intra mode, the EL encoder 20 performs the following process before the merging process.

만약, 둘 중 하나만이 인트라 모드인 경우에는 인터(inter) 모드의 매크로 블록의 모션정보( MB 분할모드, 참조(reference) 인덱스, 모션 벡터들 )를 인트라 모드의 매크로 블록에 복사하거나, 인트라 모드의 매크로 블록을 0의 모션벡터와 참조 인덱스가 0인 16x16 인터 모드의 매크로 블록으로 간주한 후, 전술한 병합과정을 수행하고, 이하에서 설명하는 참조 인덱스 및 모션 벡터 유도(derivation) 과정을 또한 수행한다. If only one of them is in the intra mode, the motion information (MB division mode, reference index, motion vectors) of the macro block of the inter mode is copied to the intra block of the intra mode, or After the macro block is regarded as a macro block of 16x16 inter mode with a motion vector of 0 and a reference index of 0, the aforementioned merging process is performed, and the reference index and motion vector derivation process described below are also performed. .

상기 EL 엔코더(20)는 현재 매크로 블록쌍(412)의 참조 인덱스를 대응되는 매크로 블록쌍(410)의 참조 인덱스로부터 유도하기 위해 다음의 과정을 수행한다.The EL encoder 20 performs the following process to derive the reference index of the current macro block pair 412 from the reference index of the corresponding macro block pair 410.

현재 8x8 블록에 대응되는 베이스 레이어의 8x8 블록쌍이 서로 동일 횟수로 서브 분할되어 있으면 그 쌍에서 어느 하나( 상단 또는 하단 )의 8x8 블록의 참조 인덱스를 현재 8x8 블록의 참조 인덱스로 결정하고, 그렇지 않으면 서브 분할횟수가 적은 블록의 참조 인덱스를 현재 8x8 블록의 참조 인덱스로 결정한다. If the 8x8 block pair of the base layer corresponding to the current 8x8 block is subdivided by the same number of times, the reference index of any 8x8 block in the pair (top or bottom) is determined as the reference index of the current 8x8 block, otherwise The reference index of the block having the smallest number of partitions is determined as the reference index of the current 8x8 block.

본 발명에 따른 다른 실시예에서는, 현재 8x8 블록에 대응되는 베이스 레이어의 8x8 블록쌍에 지정되어 있는 참조 인덱스중 작은 값의 참조 인덱스를 현재 8x8 블록의 참조 인덱스로 결정한다. 이 결정방법을 도 4b의 예에 대해 나타내 보면,In another embodiment according to the present invention, the reference index of the smallest value among the reference indices designated in the 8x8 block pair of the base layer corresponding to the current 8x8 block is determined as the reference index of the current 8x8 block. This determination method is shown for the example of FIG. 4B.

refidx of curr B8_0 = min( refidx of base top frame MB’s B8_0, refidx of base top frame MB’s B8_2 )refidx of curr B8_0 = min (refidx of base top frame MB's B8_0, refidx of base top frame MB's B8_2)

refidx of curr B8_1 = min( refidx of base top frame MB’s B8_1, refidx of base top frame MB’s of base B8_3 )refidx of curr B8_1 = min (refidx of base top frame MB's B8_1, refidx of base top frame MB's of base B8_3)

refidx of curr B8_2 = min( refidx of base bottom frame MB’s B8_0, refidx of base bottom frame MB’s B8_2 ), 그리고refidx of curr B8_2 = min (refidx of base bottom frame MB ’s B8_0, refidx of base bottom frame MB ’s B8_2), and

refidx of curr B8_3 = min( refidx of base bottom frame MB’s B8_1, refidx of base bottom frame MB’s B8_3 )refidx of curr B8_3 = min (refidx of base bottom frame MB ’s B8_1, refidx of base bottom frame MB ’s B8_3)

가 된다.Becomes

전술한 참조 인덱스 유도과정은, 상단 필드 MB 와 하단 필드 MB에 모두 적용할 수 있다. 그리고, 전술한 바와 같은 방식으로 결정된 각 8x8 블록의 참조 인덱스에 대해 2를 곱하여 최종 참조 인덱스 값으로 한다. 이는, 디코딩시에 필드 MB가 우수 및 기수 필드들로 구분된 픽처에 속하게 되므로 픽처수는 프레임 시퀀스에서 보다 2배로 많아지기 때문이다. 디코딩 알고리즘(algorithm)에 따라서는, 하단 필드 MB의 참조 인덱스는 2배후에 1을 더하여 최종 참조 인덱스 값으로 결정할 수도 있다.The above-described reference index derivation process can be applied to both the upper field MB and the lower field MB. Then, the reference index of each 8x8 block determined in the manner described above is multiplied by 2 to be the final reference index value. This is because, when decoding, the field MB belongs to a picture divided into even and odd fields, so the number of pictures is doubled in the frame sequence. Depending on the decoding algorithm, the reference index of the lower field MB may be determined as the final reference index value by adding 1 after 2 times.

상기 EL 엔코더(20)가 현재 매크로 블록쌍에 대한 모션벡터를 유도하는 과정은 다음과 같다.The process of the EL encoder 20 deriving a motion vector for the current macroblock pair is as follows.

모션벡터는 4x4 블록을 기본으로 하여 결정되므로, 도 4c에 예시된 바와 같이, 베이스 레이어의 대응되는 4x8 블록을 확인하고, 그 블록이 서브 분할되어 있으면 상단 또는 하단의 4x4 블록의 모션벡터를 현재 4x4 블록의 모션벡터로 결정하고, 그렇지 않으면 대응되는 4x8 블록의 모션벡터를 현재 4x4 블록의 모션벡터로 결정한다. 그리고 결정된 모션벡터에 대해서는 그 수직성분을 2로 나눈 벡터를 최종 모션벡터로 사용한다. 이는 2개의 프레임 MB에 실린 영상성분이 하나의 필드 MB의 영상성분에 상응하게 되므로 필드 영상에서는 크기가 수직축으로 1/2로 축소되기 때문이다.Since the motion vector is determined based on the 4x4 block, as shown in FIG. 4C, the corresponding 4x8 block of the base layer is identified, and if the block is subdivided, the motion vector of the upper or lower 4x4 block is currently 4x4. The motion vector of the block is determined. Otherwise, the motion vector of the corresponding 4x8 block is determined as the motion vector of the current 4x4 block. For the determined motion vector, a vector obtained by dividing the vertical component by 2 is used as the final motion vector. This is because the size of the image is reduced to 1/2 on the vertical axis in the field image because the image component carried in the two frame MBs corresponds to the image component of one field MB.

도 5a는 전술한 과정에 의해, 현재 매크로 블록쌍의 참조 인덱스와 모션 벡터가 유도되는 것을 도식적으로 나타낸 것이다. 앞서 언급한 바와 같이, 참조 인덱스는 8x8 블록 단위를 기본단위로 하여 지정되고, 모션 벡터는 4x4 블록 단위를 기본 단위로 하여 지정된다. 그런데, 도 5a에 예시된 바와 같이, 현재 매크로 블록쌍내의 8x8 블록내의 상단 4x4 블록(501)과 하단 4x4 블록(502)은 베이스 레이어의 서로 다른 8x8 블록(511,512)내의 4x4 블록의 모션벡터를 사용하는 데, 이 들은 서로 다른 기준 픽처를 사용한 모션벡터일 수 있다. 즉, 상기 서로 다른 8x8 블 록(511,512)은 서로 다른 참조 인덱스 값을 가질 수 있다. 따라서, 이 경우에는, 상기 EL 엔코더(20)는 도 5b에 예시된 바와 같이, 현재 하단 4x4 블록(502)의 모션벡터를 그 상단 4x4 블록(501)에 대해 선택된 대응되는 4x4 블록(503)의 모션벡터를 동일하게 사용하게 된다(521).5A schematically illustrates that the reference index and the motion vector of the current macroblock pair are derived by the above-described process. As mentioned above, the reference index is designated based on 8 × 8 block units and the motion vector is designated based on 4 × 4 block units. However, as illustrated in FIG. 5A, the upper 4x4 block 501 and the lower 4x4 block 502 in the 8x8 block in the current macroblock pair use motion vectors of 4x4 blocks in different 8x8 blocks 511 and 512 of the base layer. These may be motion vectors using different reference pictures. That is, the different 8x8 blocks 511 and 512 may have different reference index values. Thus, in this case, the EL encoder 20 selects the motion vector of the current lower 4x4 block 502 of the corresponding 4x4 block 503 selected for the upper 4x4 block 501, as illustrated in FIG. 5B. The same motion vector is used (521).

전술한 실시예에서는, 상기 EL 엔코더(20)가 현재 매크로 블록쌍에 대한 모션 정보를 예측함에 있어서, 베이스 레이어의 대응 매크로 블록쌍의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하였다.In the above embodiment, when the EL encoder 20 predicts motion information for the current macroblock pair, the EL encoder 20 derives the partition mode, the reference index, and the motion vector based on the motion information of the corresponding macroblock pair of the base layer. It was.

본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 대응 매크로 블록쌍의 모션정보에 근거해서, 현재 매크로 블록쌍에 대해 먼저 참조 인덱스와 모션 벡터를 유도한 뒤, 그 유도된 결과에 근거해서 마지막으로 현재 매크로 블록쌍의 분할모드를 결정한다. 마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록형태가, 허용되는 분할모드에 속하면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할형태로 지정한다.In another embodiment according to the present invention, based on the motion information of the corresponding macroblock pair of the base layer, the reference index and the motion vector are first derived for the current macroblock pair, and finally based on the derived result. Determines the split mode of the current macroblock pair. Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and reference index, and then designate the combined block type as the combined type if it belongs to the allowed split mode. Specified in partitioned form.

전술한 실시예들에서, 베이스 레이어의 대응되는 매크로 블록쌍(410)이 모두 인트라 모드이면 현재 매크로 블록쌍(412)에 대해 인트라 베이스 예측만이 수행되고( 이 때는 모션 예측은 수행되지 않는다. ), 만약 둘 중 하나만 인트라 모드이면 텍스처(texture) 예측( 인트라 베이스 예측과 레지듀얼 예측 )은 수행되지 않고 모션 예측은 이 경우에 대해 앞서 설명한 바와 같이 수행된다. 텍스처 예측을 수행할 때는, 베이스 레이어의 매크로 블록쌍의 우수라인들은 현재 매크로 블록쌍의 상단 필드 MB에 대한 예측에 사용하고, 기수라인들은 하단 필드 MB에 대한 예측에 사용한다.In the above embodiments, if the corresponding macro block pair 410 of the base layer is all intra mode, only intra base prediction is performed on the current macro block pair 412 (in this case, motion prediction is not performed). If only one of the two modes is intra mode, texture prediction (intra-base prediction and residual prediction) is not performed, and motion prediction is performed as described above for this case. When performing texture prediction, the even lines of the macro block pair of the base layer are used to predict the upper field MB of the current macro block pair, and the odd lines are used to predict the lower field MB.

II. 프레임 MB -> 필드 II. Frame MB-> Field 픽처의Picture 필드 MB의 경우 For field MB

이 경우는, 현재 레이어에서 MB가 필드 픽처내의 필드 MB로 코딩되고, 그 필드 MB에 대한 모션 예측에 이용할 베이스 레이어의 MB가 프레임 MB로 코딩되어 있는 경우로서, 베이스 레이어에서 매크로 블록쌍에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치의 우수 또는 기수 필드내의 매크로 블록에 포함되어 있는 영상신호 성분과 동일한 성분이 된다.In this case, the MB is coded as the field MB in the field picture in the current layer, and the MB of the base layer to be used for motion prediction for the field MB is coded as the frame MB, which is included in the macroblock pair in the base layer. The video signal component present is the same as the video signal component included in the macroblock in the even or odd field of the corresponding position of the current layer.

따라서, 베이스 레이어의 매크로 블록쌍을 하나의 매크로 블록으로 병합( 수직방향으로 1/2로 압축 )시켜서 얻은 매크로 블록 분할(partition)모드를 우수 또는 기수의 현재 매크로 블록의 분할 모드로 사용한다. 도 6a는 이를 구체적인 예로서 나타낸 것이다. 도시된 바와 같이, 베이스 레이어의 대응 매크로 블록쌍(610)을 먼저 하나의 매크로 블록(611)으로 병합시키고(S61), 그 병합에 의해서 얻어진 분할모드를 현재의 매크로 블록(612)에 적용한다(S62). 병합하는 규칙은 앞서의 경우 I에서와 동일하며, 대응되는 매크로 블록쌍(610)중 적어도 어느 하나가 인트라(intra) 모드로 코딩되어 있는 경우에 처리하는 방식도 앞서의 경우 I에서와 동일하다.Therefore, the macroblock partition mode obtained by merging the macroblock pairs of the base layer into one macroblock (compressed in half in the vertical direction) is used as the partition mode of the current macroblock of even or odd. 6A shows this as a specific example. As shown, the corresponding macro block pair 610 of the base layer is first merged into one macro block 611 (S61), and the division mode obtained by the merging is applied to the current macro block 612 ( S62). The merging rule is the same as in the above case I, and the processing in the case where at least one of the corresponding macro block pairs 610 is coded in the intra mode is the same as in the case of the above case I.

그리고, 참조 인덱스와 모션 벡터를 유도하는 과정도 또한 앞서의 경우 I에 대해서 설명한 바와 동일하게 이루어진다. 다만, I의 경우에는 매크로 블록이 우수 와 기수의 쌍으로 한 프레임내에 실리게 되므로 상단 MB 및 하단 MB에 동일한 유도과정을 적용하지만, 본 경우(II)에는 현재 코딩할 필드 픽처내에는 베이스 레이어의 매크로 블록쌍(610)에 대응되는 매크로 블록이 하나만 존재하므로 도 6b 및 6c에 예시된 바와 같이 하나의 필드 MB에 대해서만 유도과정을 적용하는 점만이 상이하다.In addition, the process of deriving the reference index and the motion vector is also performed in the same manner as described above for the case I. In the case of I, however, the macroblock is carried in a frame of even and odd numbers, so the same derivation process is applied to the upper and lower MBs. Since only one macro block corresponding to the macro block pair 610 exists, only the derivation process is applied to only one field MB, as illustrated in FIGS. 6B and 6C.

도 7a 및 7b는 전술한 과정에 의해 현재 필드 매크로 블록의 참조 인덱스와 모션 벡터가 유도되는 것을 도식적으로 나타낸 것이며, 이 경우도 상단 또는 하단의 한 매크로 블록에 대해 베이스 레이어의 매크로 블록쌍의 모션 정보를 사용하여 해당 모션 정보를 유도하는 것만 상이할 뿐 유도하는 데 적용되는 동작은 앞서 도 5a 및 5b를 참조하여 설명한 경우 I과 동일하다.7A and 7B schematically show that a reference index and a motion vector of a current field macroblock are derived by the above-described process, and in this case, motion information of a macroblock pair of a base layer for one macroblock at the top or bottom is also derived. Using only to derive the corresponding motion information using is different, the operation applied to derivation is the same as I described above with reference to FIGS. 5A and 5B.

전술한 실시예에서는, 상기 EL 엔코더(20)가 현재 매크로 블록에 대한 모션 정보를 예측함에 있어서, 베이스 레이어의 대응 매크로 블록쌍의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하였다.In the above embodiment, when the EL encoder 20 predicts the motion information for the current macroblock, the EL encoder 20 derives the partition mode, the reference index, and the motion vector based on the motion information of the corresponding macroblock pair of the base layer. .

본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 대응 매크로 블록쌍의 모션정보에 근거해서, 현재 매크로 블록에 대해 먼저 참조 인덱스와 모션 벡터를 유도한 뒤, 그 유도된 결과에 근거해서 마지막으로 현재 매크로 블록의 분할모드를 결정한다. 마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록이 허용되는 분할모드이면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할모드로 둔다.In another embodiment according to the present invention, based on the motion information of the corresponding macroblock pair of the base layer, a reference index and a motion vector are first derived for the current macroblock, and finally, based on the derived result. Determine the split mode of the macro block. Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and the same reference index, and then designate the combined type if the combined block is an allowed split mode, otherwise leave the split mode before combining. .

전술한 실시예들에서, 베이스 레이어의 대응되는 매크로 블록쌍이 모두 인트 라 모드이면 현재 매크로 블록에 대해 인트라 베이스 예측만이 수행되고( 이 때는 모션 예측은 수행되지 않는다. ), 만약 둘 중 하나만 인트라 모드이면 텍스처 예측( 인트라 베이스 예측과 레지듀얼 예측 )은 수행되지 않고 모션 예측은 이 경우에 대해 앞서 설명한 바와 같이 수행된다. 그리고, 텍스처 예측을 수행할 때는, 현재 매크로 블록이 우수 필드 MB인 경우에 베이스 레이어의 매크로 블록쌍의 우수라인들을 예측에 사용하고, 기수 필드 MB인 경우에는 베이스 레이어의 매크로 블록쌍의 기수라인들을 예측에 사용한다.In the above embodiments, if the corresponding macroblock pairs of the base layer are all in intra mode, only intra base prediction is performed on the current macro block (no motion prediction is performed at this time), and if only one of the two is in intra mode Backside texture prediction (intra base prediction and residual prediction) is not performed and motion prediction is performed as described above for this case. When performing the texture prediction, the even lines of the macro block pair of the base layer are used for prediction when the current macro block is the even field MB, and the odd lines of the macro block pair of the base layer are used when the odd field MB is used. Use for prediction.

III. III. MBAFFMBAFF 프레임의 필드 MB -> 프레임 MB의 경우 For field MB in frame-> Frame MB

이 경우는, 현재 레이어에서 MB가 프레임 MB로 코딩되고, 그 프레임 MB의 모션 예측에 이용할 베이스 레이어의 MB가 MBAFF 프레임내의 필드 MB로 코딩되어 있는 경우로서, 베이스 레이어의 한 필드 MB에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치의 매크로 블록 쌍에 포함되어 있는 영상신호 성분과 동일한 성분이 된다.In this case, MB is coded into a frame MB in the current layer, and the MB of the base layer to be used for motion prediction of the frame MB is coded into the field MB in the MBAFF frame, which is included in one field MB of the base layer. The video signal component becomes the same component as the video signal component included in the macroblock pair at the corresponding position of the current layer.

따라서, 베이스 레이어의 한 매크로 블록쌍내의 상단 또는 하단의 매크로 블록을 신장( 수직방향으로 2배로 신장 )시켜서 얻은 매크로 블록 분할(partition)모드를 현재 매크로 블록쌍의 분할 모드로 사용한다. 도 8a는 이를 구체적인 예로서 나타낸 것이다. 이하 설명 및 도면에서 상단 필드 MB가 선정된 것으로 하였으나, 하단 필드 MB가 선택된 경우에도 하기 설명하는 바를 동일하게 적용할 수 있음은 물론이다.Therefore, the macroblock partition mode obtained by stretching the macroblock at the top or the bottom of one macroblock pair of the base layer (two times in the vertical direction) is used as the partition mode of the current macroblock pair. 8A shows this as a specific example. In the following description and drawings, the upper field MB is selected, but the following description may also be applied to the case where the lower field MB is selected.

도 8a에 도시된 바와 같이, 베이스 레이어의 대응 매크로 블록쌍(810)내의 상단 필드 MB를 2배로 신장시켜 2개의 매크로 블록(811)을 구성하고(S81), 그 신장에 의해서 얻어진 분할형태를 현재의 매크로 블록쌍(812)에 적용한다(S82).As shown in Fig. 8A, the upper field MB in the corresponding macroblock pair 810 of the base layer is doubled to form two macroblocks 811 (S81), and the division form obtained by the stretching is present. It applies to the macroblock pair 812 of (S82).

그런데, 대응되는 하나의 필드 MB를 수직으로 2배 신장시킬 때, 매크로 블록의 분할모드에서 허용되지 않는 분할형태가 생길 수 있으므로, 이를 방지하기 위해 상기 EL 엔코더(20)는 다음과 같은 규칙에 따라 신장된 분할형태에 따른 분할모드를 결정한다. However, when the corresponding one field MB is vertically doubled, a partitioning form that is not allowed in the splitting mode of the macroblock may be generated. In order to prevent this, the EL encoder 20 uses the following rule. The split mode is determined according to the extended split form.

1). 베이스 레이어의 4x4, 8x4, 그리고 16x8의 블록은 수직으로 2배 커진 각각 4x8, 8x8, 그리고 16x16의 블록으로 결정한다.One). The 4x4, 8x4, and 16x8 blocks of the base layer are determined to be 4x8, 8x8, and 16x16 blocks that are vertically doubled.

2). 베이스 레이어의 4x8, 8x8, 8x16 그리고 16x16의 블록은 각기 2개의 동일크기의 상하 블록으로 결정한다. 도 8a에 예시된 바와 같이, 베이스 레이어의 8x8 B8_0 블록은 2개의 8x8 블록들로 결정된다(801). 하나의 8x16의 블록으로 지정하지 않는 이유는, 그 좌 또는 우에 인접된 신장된 블록이 8x16의 분할블록이 되지 않을 수 있으므로 이러한 경우에는 매크로 블록의 분할모드가 지원되지 않기 때문이다.2). The 4x8, 8x8, 8x16 and 16x16 blocks of the base layer are determined as two equally sized top and bottom blocks. As illustrated in FIG. 8A, the 8x8 B8_0 block of the base layer is determined to be two 8x8 blocks (801). The reason for not specifying one 8x16 block is that the split mode of the macroblock is not supported in this case because the extended block adjacent to the left or right side may not be the 8x16 divided block.

만약, 대응되는 매크로 블록쌍(810)중 어느 하나가 인트라 모드로 코딩되어 있는 경우에는 상기 EL 엔코더(20)는 인트라 모드가 아닌 인터 모드의 상단 또는 하단의 필드 MB를 선택하여 상기의 신장 과정을 수행하여 현재 매크로 블록쌍(812)의 분할모드를 결정한다.If one of the corresponding macroblock pairs 810 is coded in the intra mode, the EL encoder 20 selects the field MB at the top or the bottom of the inter mode rather than the intra mode to perform the above stretching process. In this case, the division mode of the current macroblock pair 812 is determined.

만약, 둘 다 인트라 모드인 경우에는 레이어간 텍스츠 예측만 수행하고, 전술한 신장과정을 통한 분할모드 결정과, 이하에서 설명하는 참조 인덱스 및 모션 벡 터 유도 과정을 수행하지 않는다. If both are in intra mode, only inter-layer text prediction is performed, and the split mode determination through the above-described stretching process and the reference index and motion vector derivation process described below are not performed.

상기 EL 엔코더(20)는 현재 매크로 블록쌍(812)의 참조 인덱스를 대응되는 하나의 필드 MB의 참조 인덱스로부터 유도하기 위해, 대응되는 베이스 레이어의 8x8 블록(B8_0)의 참조 인덱스를, 도 8b에 예시된 바와 같이 2개의 상하 8x8 블록들의 각 참조 인덱스로 결정하고, 결정된 각 8x8 블록의 참조 인덱스에 대해 2로 나누어 최종 참조 인덱스 값으로 한다. 이는, 필드 MB에 대해서 우수 및 기수 필드들로 구분된 픽처를 기준으로하여 기준 픽처의 번호를 지정하므로, 프레임 시퀀스에 적용하기 위해서는 픽처 번호를 절반으로 줄일 필요가 있기 때문이다.The EL encoder 20 derives the reference index of the 8x8 block B8_0 of the corresponding base layer in FIG. 8B to derive the reference index of the current macroblock pair 812 from the reference index of the corresponding one field MB. As illustrated, each reference index of two upper and lower 8x8 blocks is determined, and divided by 2 for the determined reference index of each 8x8 block to be a final reference index value. This is because the number of reference pictures is specified for the field MB on the basis of pictures divided into even and odd fields, so that the picture number needs to be cut in half to be applied to the frame sequence.

상기 EL 엔코더(20)가 현재 프레임 매크로 블록쌍(812)에 대한 모션벡터를 유도할 때는, 도 8c에 예시된 바와 같이, 대응되는 베이스 레이어의 4x4 블록의 모션벡터를 현재 매크로 블록쌍(812)내의 4x8 블록의 모션벡터로 결정하고, 그 결정된 모션벡터에 대해서 수직성분에 대해서 2를 곱한 벡터를 최종 모션벡터로 사용한다. 이는 1개의 필드 MB에 실린 영상성분이 2개의 프레임 MB의 영상성분에 상응하게 되므로 프레임 영상에서는 크기가 수직축으로 2배로 확대되기 때문이다.When the EL encoder 20 derives the motion vector for the current frame macro block pair 812, as shown in FIG. 8C, the motion vector of the 4x4 block of the corresponding base layer is converted to the current macro block pair 812. The motion vector of the 4x8 block is determined, and the vector obtained by multiplying 2 by the vertical component with respect to the determined motion vector is used as the final motion vector. This is because the image component carried in one field MB corresponds to the image component of two frame MBs, so the size of the frame image is doubled on the vertical axis.

도 9는 전술한 과정에 의해 현재 매크로 블록쌍의 참조 인덱스와 모션 벡터가 유도되는 것을 도식적으로 나타낸 것이다. 도시된 바와 같이, 현재 매크로 블록쌍에 대한 참조 인덱스와 모션 벡터를 유도하기 위해, 베이스 레이어(BL)의 대응되는 상단 필드 MB의 모션정보를 사용하거나(901), 하단 필드 MB의 정보를 사용하거나(902), 또는 상단 및 하단 필드 MB의 모션정보를 혼합하여 사용할 수도 있다(903). 도 9는 상단 및 하단 필드 MB의 모션정보를 혼합하여 사용하는 한가지 예 만을 나타낸 것이며, 도 9에 제시되지 않은 다른 대응형태가 되도록 양 필드 MB의 모션정보를 조합하여 사용할 수 있다.FIG. 9 schematically shows that a reference index and a motion vector of a current macroblock pair are derived by the above-described process. As shown, to derive the reference index and the motion vector for the current macro block pair, use motion information of the corresponding upper field MB of the base layer BL (901), or use information of the lower field MB, or (902) Alternatively, the motion information of the upper and lower field MBs may be mixed and used (903). FIG. 9 shows only one example in which the motion information of the upper and lower field MBs are mixed, and the motion information of both field MBs may be combined and used so as to correspond to other corresponding forms not shown in FIG. 9.

전술한 실시예에서는, 상기 EL 엔코더(20)가 현재 매크로 블록쌍에 대한 모션 정보를 예측함에 있어서, 베이스 레이어의 대응 필드 MB의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하였다.In the above embodiment, when the EL encoder 20 predicts the motion information for the current macroblock pair, the EL encoder 20 derives the partition mode, the reference index, and the motion vector based on the motion information of the corresponding field MB of the base layer. .

본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 대응 필드 MB의 모션정보에 근거해서, 현재 매크로 블록쌍에 대해, 도 8b 및 8c에서와 같이 먼저 참조 인덱스와 모션 벡터를 유도한 뒤, 그 유도된 결과에 근거해서 마지막으로 현재 매크로 블록쌍의 각 분할모드를 결정한다. 마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록이 허용되는 분할형태이면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할형태로 지정한다.In another embodiment according to the present invention, based on the motion information of the corresponding field MB of the base layer, the reference index and the motion vector are first derived for the current macroblock pair as shown in FIGS. 8B and 8C and then derived. Finally, based on the result, each partition mode of the current macroblock pair is determined. Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and the same reference index, and then designate the combined form if the combined block is an acceptable split form, otherwise specify the split form before combining. do.

전술한 실시예들에서, 베이스 레이어의 대응되는 필드 MB 쌍이 모두 인트라 모드이면 현재 매크로 블록에 대해 인트라 베이스 예측만이 수행된다( 이 때는 모션 예측은 수행되지 않는다. ). 인트라 베이스 예측의 기준 데이터는, 대응되는 필드 MB 쌍의 우수 및 기수 라인을 교번적으로 선택하여 인터리빙(interleaving)시킨 16x32의 블록이 된다. 만약 둘 중 하나만 인트라 모드이면 인트라 베이스 예측은 인트라 모드의 대응 필드 MB를 사용하여 수행하고, 레지듀얼 예측은 인터 모드의 대응 필드 MB를 사용하여 수행한다. 물론, 이 때는 예측에 사용할 필드 MB에 대해서는 수직축으로 업샘플링한 후 텍스처 예측에 사용한다.In the above-described embodiments, only intra base prediction is performed on the current macro block if the corresponding field MB pairs of the base layer are all intra modes (no motion prediction is performed at this time). The reference data of the intra base prediction is a 16x32 block in which the even and odd lines of the corresponding field MB pair are alternately selected and interleaved. If only one of them is intra mode, intra base prediction is performed using the corresponding field MB of the intra mode, and residual prediction is performed using the corresponding field MB of the inter mode. Of course, in this case, the field MB to be used for prediction is upsampled on the vertical axis and then used for texture prediction.

IV. 필드 IV. field 픽처의Picture 필드 MB -> 프레임 MB의 경우 For Field MB-> Frame MB

이 경우는, 현재 레이어(EL)에서 MB가 프레임 MB로 코딩되고, 그 프레임 MB의 모션 예측에 이용할 베이스 레이어(BL)의 MB가 필드 픽처내의 필드 MB로 코딩되어 있는 경우로서, 베이스 레이어의 한 필드 MB에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치의 매크로 블록 쌍에 포함되어 있는 영상신호 성분과 동일한 성분이 된다.In this case, MB is coded as a frame MB in the current layer EL, and MB of the base layer BL to be used for motion prediction of the frame MB is coded as a field MB in the field picture. The video signal component included in the field MB is the same as the video signal component included in the macroblock pair at the corresponding position of the current layer.

따라서, 베이스 레이어의 우수 또는 기수 필드내의 한 매크로 블록을 수직방향으로 2배로 신장시켜서 얻은 분할모드를 현재 매크로 블록의 분할 모드로 사용한다. 도 10a는 이를 구체적인 예로서 나타낸 것이다. 도 10a에 예시된 과정은, MBAFF 프레임내의 상단 또는 하단의 필드 MB가 선택되는 전술한 경우 III과 비교하여, 우수 또는 기수 필드내의 위치대응되는 하나의 필드 MB(1010)가 자연적으로 사용되는 것이 상이할 뿐, 대응되는 필드 MB(1010)를 신장하고, 그 신장에 의해서 얻어진 2개의 매크로 블록(1011)의 분할형태를 현재의 매크로 블록쌍(1012)에 적용하는 것은 동일하다. 그리고, 대응되는 하나의 필드 MB(1010)를 수직으로 2배 신장시킬 때, 매크로 블록의 분할모드에서 허용되지 않는 분할형태가 생길 수 있으므로, 이를 방지하기 위해 상기 EL 엔코더(20)가 신장된 분할형태에 따른 분할모드를 결정하는 규칙도 경우 III의 1)과 2)에 제시된 것과 동일하다. Therefore, the division mode obtained by doubling one macro block in the even or odd field of the base layer in the vertical direction is used as the division mode of the current macro block. 10A illustrates this as a specific example. The process illustrated in FIG. 10A differs from that in the case where the top or bottom field MB in the MBAFF frame is selected, in contrast to III above, one field MB 1010 corresponding to position in the even or odd field is naturally used. In addition, it is the same to extend the corresponding field MB 1010 and apply the divided form of the two macroblocks 1011 obtained by the expansion to the current macroblock pair 1012. In addition, when the corresponding field MB 1010 is vertically doubled, a partitioning form that is not allowed in the division mode of the macroblock may occur, so that the EL encoder 20 is extended to prevent this. The rules for determining the split mode according to the form are the same as those given in cases 1) and 2) of III.

만약, 대응되는 매크로 블록이 인트라 모드로 코딩되어 있는 경우에는 상기 EL 엔코더(20)는 전술한 신장과정을 통한 분할모드 결정과, 이하에서 설명하는 참 조 인덱스 및 모션 벡터 유도 과정을 수행하지 않는다. 즉, 레이어간 모션 예측은 수행되지 않는다.If the corresponding macroblock is coded in the intra mode, the EL encoder 20 does not perform the split mode determination through the above-described decompression process and the reference index and motion vector derivation process described below. In other words, inter-layer motion prediction is not performed.

그리고, 참조 인덱스와 모션 벡터를 유도하는 과정도 또한 앞서의 경우 III에 대해서 설명한 바와 동일하다. 다만, III의 경우에는 베이스 레이어의 대응되는 매크로 블록이 우수와 기수의 쌍으로 한 프레임내에 실리게 되므로 상단 MB 및 하단 MB 중 하나를 선택하여 유도과정을 적용하지만, 본 경우(IV)에는 현재 코딩할 매크로 블록에 대응되는 베이스 레이어의 대응되는 매크로 블록은 하나만 존재하므로 매크로 블록의 선택과정없이, 도 10b 및 10c에 예시된 바와 같이 그 대응되는 하나의 필드 MB의 모션 정보로부터 현재 매크로 블록에 대한 모션 정보를 유도하게 된다.In addition, the process of deriving the reference index and the motion vector is also the same as described for the case III above. However, in the case of III, since the corresponding macroblock of the base layer is loaded in a frame of even and odd numbers, the derivation process is selected by selecting one of the upper MB and the lower MB, but in this case (IV), the current coding is performed. Since there is only one corresponding macro block of the base layer corresponding to the macro block to be executed, the motion for the current macro block from the motion information of the corresponding one field MB, as illustrated in FIGS. 10B and 10C, without selecting a macro block. Will lead to information.

도 11은 전술한 과정에 의해 현재 매크로 블록쌍의 참조 인덱스와 모션 벡터가 유도되는 것을 도식적으로 나타낸 것이며, 이 경우도 베이스 레이어의 우수 또는 기수 필드의 한 매크로 블록의 모션 정보로부터 현재 매크로 블록쌍의 모션 정보를 유도하는 것만 상이할 뿐, 유도하는 데 적용되는 동작은 앞서 도 9를 참조하여 설명한 경우 III과 동일하다. 다만, 대응하는 베이스 레이어(BL)의 한 필드내에 상단 및 하단 매크로 블록쌍이 존재하지 않으므로, 도 9에 예시된 경우에서 매크로 블록쌍의 모션 정보를 혼합하여 사용하는 경우(903)는 본 경우(IV)에 적용되지 않는다.FIG. 11 is a diagram illustrating the derivation of a reference index and a motion vector of a current macroblock pair by the above-described process. In this case, the current macroblock pair may be derived from motion information of one macroblock of the even or odd field of the base layer. Only the derivation of the motion information is different, and the operation applied to the derivation is the same as in case III described above with reference to FIG. 9. However, since the upper and lower macroblock pairs do not exist in one field of the corresponding base layer BL, the case where the motion information of the macroblock pairs is mixed in the case illustrated in FIG. 9 (903) is the case (IV). Does not apply to).

전술한 실시예에서는, 상기 EL 엔코더(20)가 현재 매크로 블록쌍에 대한 모션 정보를 예측함에 있어서, 베이스 레이어의 대응 필드 MB의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하였다.In the above embodiment, when the EL encoder 20 predicts the motion information for the current macroblock pair, the EL encoder 20 derives the partition mode, the reference index, and the motion vector based on the motion information of the corresponding field MB of the base layer. .

본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 대응 필드 MB의 모션정보에 근거해서, 현재 매크로 블록쌍에 대해, 도 11에서와 같이 먼저 참조 인덱스와 모션 벡터를 유도한 뒤, 그 유도된 결과에 근거해서 마지막으로 현재 매크로 블록쌍의 분할모드를 결정한다. 마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록이 허용되는 분할형태이면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할형태로 지정한다.In another embodiment according to the present invention, based on the motion information of the corresponding field MB of the base layer, the reference index and the motion vector are first derived for the current macroblock pair, as shown in FIG. Finally, the partition mode of the current macroblock pair is determined. Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and the same reference index, and then designate the combined form if the combined block is an acceptable split form, otherwise specify the split form before combining. do.

전술한 실시예들에서, 베이스 레이어의 대응되는 필드 MB가 인트라 모드이면 현재 매크로 블록에 대해 인트라 베이스 예측만이 수행된다. 물론, 이 때는 예측에 사용할 필드 MB에 대해서는 수직축으로 업샘플링한 후 텍스처 예측에 사용한다.In the above embodiments, only intra base prediction is performed for the current macro block if the corresponding field MB of the base layer is intra mode. Of course, in this case, the field MB to be used for prediction is upsampled on the vertical axis and then used for texture prediction.

본 발명에 따른 다른 일 실시예에서는, 기수 또는 우수의 필드에 있는 필드 MB로부터 가상의(virtual) 매크로 블록을 생성하여 매크로 블록쌍을 구성한 뒤, 그 구성된 매크로 블록쌍으로부터 현재 매크로 블록쌍의 모션 정보를 유도한다. 도 12a 및 12b는 이에 대한 예를 도시한 것이다.In another embodiment according to the present invention, a virtual macroblock is generated from a field MB in the odd or even field to form a macroblock pair, and then motion information of the current macroblock pair from the configured macroblock pair. Induce. 12A and 12B show an example of this.

본 실시예에서는, 베이스 레이어의 대응되는 우수 (또는 기수) 필드 MB의 참조 인덱스와 모션벡터를 복사(1201,1202)하여 가상의 기수 (또는 우수) 필드 MB를 만들어 한쌍의 매크로 블록(1211)을 구성하고, 그 구성된 매크로 블록쌍(1211)의 모션 정보를 혼합하여 현재 매크로 블록쌍(1212)의 모션정보를 유도한다(1203,1204). 모션정보를 혼합하여 사용하는 한 예는, 도 12a 및 12b에 예시된 바와 같이, 참조 인덱스의 경우에, 대응되는 상단 매크로 블록의 상위 8x8 블록은 현재 매크로 블록쌍(1212)의 상단 매크로 블록의 상위 8x8 블록에, 하위 8x8 블록은 하단 매크로 블록의 상위 8x8 블록에, 대응되는 하단 매크로 블록의 상위 8x8 블록은 현재 매크로 블록쌍(1212)의 상단 매크로 블록의 하위 8x8 블록에, 하위 8x8 블록은 하단 매크로 블록의 하위 8x8 블록에 대응시켜 참조 인덱스를 적용한다(1203). 그리고, 모션 벡터의 경우에, 참조 인덱스에 따라 대응시켜 적용하며(1204), 이는 도 12a 및 12b에 의해 직관적으로 이해될 수 있으므로 그 설명은 생략한다.In this embodiment, the reference index of the corresponding even (or odd) field MB of the base layer and the motion vector are copied (1201, 1202) to create a virtual odd (or even) field MB to create a pair of macro blocks 1211. The motion information of the current macroblock pair 1212 is derived by mixing the motion information of the configured macroblock pair 1211 (1203 and 1204). An example of mixing motion information is, as illustrated in FIGS. 12A and 12B, in the case of a reference index, the upper 8x8 block of the corresponding upper macroblock is higher than the upper macroblock of the current macroblock pair 1212. In the 8x8 block, the lower 8x8 block is in the upper 8x8 block of the lower macroblock, the upper 8x8 block in the corresponding lower macroblock is in the lower 8x8 block of the upper macroblock of the current macroblock pair 1212, and the lower 8x8 block is the lower macro. A reference index is applied to the lower 8x8 block of the block (1203). And, in the case of a motion vector, correspondingly applied according to the reference index (1204), since this can be intuitively understood by Figs. 12A and 12B, description thereof is omitted.

도 12a 및 12b에 예시된 실시예의 경우에 현재 매크로 블록쌍(1212)의 분할모드는 유도된 참조 인덱스와 모션 벡터에 근거해서 결정하며, 그 방법은 전술한 바와 동일한다.In the case of the embodiment illustrated in Figs. 12A and 12B, the split mode of the current macro block pair 1212 is determined based on the derived reference index and the motion vector, and the method is the same as described above.

V. 필드 MB -> 필드 MB의 경우V. For Field MB-> Field MB

이 경우는, 필드 MB가 필드 픽처에 속한 것인지 MBAFF 프레임에 속한 것인지로 세분되므로, 다음과 같이 4가지의 경우로 나뉘어진다.In this case, since the field MB belongs to the field picture or the MBAFF frame, it is divided into four cases as follows.

i) 베이스 레이어와 인핸스드 레이어가 MBAFF 프레임인 경우i) When the base layer and the enhanced layer are MBAFF frames

이 경우는 도 13a에 나타내었으며, 도시된 바와 같이 대응되는 베이스 레이어(BL)의 매크로 블록쌍의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 현재 매크로 블록쌍의 모션정보로 그대로 복사하여 사용한다. 다만, 복사는 동일 패러티(parity)의 매크로 블록간에 이루어지게 한다. 즉, 모션정보가 복사될 때 우수 필드 MB는 우수 필드 MB로 기수 필드 MB는 기수 필드 MB로 복사된다.In this case, as shown in FIG. 13A, the motion information (dividing mode, reference index, and motion vector) of the macroblock pair of the corresponding base layer BL is copied as it is to the motion information of the current macroblock pair. do. However, copying is made between macro blocks of the same parity. That is, when motion information is copied, even field MB is copied to even field MB and odd field MB is copied to odd field MB.

ii) 베이스 레이어가 필드 픽처이고 인핸스드 레이어가 MBAFF 프레임인 경우ii) When the base layer is a field picture and the enhanced layer is an MBAFF frame

이 경우는 도 13b에 나타내었으며, 도시된 바와 같이 대응되는 베이스 레이어(BL)의 하나의 필드 매크로 블록의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 현재 매크로 블록쌍의 각 매크로 블록의 모션정보로 그대로 복사하여 사용한다. 이 때는, 단일 필드 MB의 모션정보를 상단 및 하단의 필드 MB에 모두 사용하게 되므로 동일 패터리간 복사 규칙은 적용되지 않는다.In this case, as shown in FIG. 13B, as shown in FIG. 13B, motion information (segmentation mode, reference index, and motion vector) of one field macroblock of the corresponding base layer BL may be set to the motion of each macroblock of the current macroblock pair. Copy the information as is. In this case, since the motion information of a single field MB is used for both the upper and lower field MBs, the same inter-pattern copying rule does not apply.

iii) 베이스 레이어가 MBAFF 프레임이고 인핸스드 레이어가 필드 픽처인 경우iii) the base layer is an MBAFF frame and the enhanced layer is a field picture.

이 경우는 도 13c에 나타내었으며, 도시된 바와 같이 현재 필드 MB에 대응되는 베이스 레이어(BL)의 매크로 블록쌍 중 동일 패러티의 필드 MB를 선택하여 그 필드 MB의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 현재 필드 매크로 블록의 모션정보로 그대로 복사하여 사용한다.In this case, as shown in FIG. 13C, as shown in FIG. 13C, the field MB of the same parity is selected among the macroblock pairs of the base layer BL corresponding to the current field MB, and motion information (partition mode, reference index, Motion vector) is used as it is as motion information of the current field macro block.

iv) 베이스 레이어와 인핸스드 레이어가 필드 픽처인 경우iv) When the base layer and the enhanced layer are field pictures

이 경우는 도 13d에 나타내었으며, 도시된 바와 같이 대응되는 베이스 레이어(BL)의 필드 매크로 블록의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 현재 필드 매크로 블록의 모션정보로 그대로 복사하여 사용한다. 이 때도, 복사는 동일 패러티(parity)의 매크로 블록간에 이루어지게 한다.In this case, as shown in FIG. 13D, the motion information (dividing mode, reference index, and motion vector) of the field macro block of the corresponding base layer BL is copied as the motion information of the current field macro block as shown. do. Even in this case, copying is made between macro blocks of the same parity.

지금까지는 베이스 레이어와 인핸스드 레이어가 동일 해상도를 가지는 경우에 대해 설명하였다. 이하에서는 인핸스드 레이어가 베이스 레이어보다 해상도가 높은 경우( SpatialScalabilityType()가 0보다 큰 경우 )에 대해서 픽처의 유형( 순차주 사방식의 프레임, MBAFF 프레임, 비월주사방식의 필드 )별로 구분하여 설명한다.Up to now, the case where the base layer and the enhanced layer have the same resolution has been described. In the following description, when an enhanced layer has a higher resolution than a base layer (when SpatialScalabilityType () is greater than 0), the picture is classified by picture type (sequential scanning frame, MBAFF frame, interlaced field). .

A). 베이스 레이어:순차주사방식의 프레임 -> 인핸스드 레이어:MBAFF 프레임A). Base Layer: Sequential Scanning Frame-> Enhanced Layer: MBAFF Frame

도 14a는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 베이스 레이어의 대응 프레임의 모든 매크로 블록의 텍스처 정보와 모션 정보를 복사하여 가상의 프레임을 만든 후, 그 가상 프레임에 대해서 업샘플링을 수행한다. 이 업샘플링은 베이스 레이어의 해상도( 픽처 크기 )가 현재 레이어의 해상도( 픽처 크기 )와 동일해지도록 하는 비율로 이루어진다. 이 업샘플링과 함께 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성하게 되는 데, 이 구성 방법에는 기 공지된 방법 중 하나를 사용한다. 이와 같이 구성된 잠정(interim) 베이스 레이어의 픽처는 현재의 인핸스드 레이어 픽처의 해상도와 동일한 해상도를 갖게된다. 따라서, 전술한 레이어간 모션 예측을 적용할 수 있게 된다.Fig. 14A shows the processing method for this case. As shown in the drawing, the texture information and motion information of all macroblocks of the corresponding frame of the base layer are copied to create a virtual frame, and then upsampling is performed on the virtual frame. This upsampling is done at a rate such that the resolution (picture size) of the base layer becomes equal to the resolution (picture size) of the current layer. With this upsampling, the motion information of each macroblock of the upsampled picture is configured based on the motion information of each macroblock of the virtual frame. One of the well-known methods is used for this configuration method. The picture of the interim base layer configured as described above has the same resolution as that of the current enhanced layer picture. Therefore, the above-described inter-layer motion prediction can be applied.

도 14a의 경우는, 베이스 레이어가 프레임이고, 현재 레이어가 MBAFF 프레임이므로, 해당 픽처내의 각 매크로 블록은 프레임 MB와 MBAFF 프레임내 필드 MB가 된다. 따라서, 전술한 경우 I을 적용하여 레이어간 모션 예측을 수행한다. 그런데, 앞서 언급한 바와 같이, MBAFF 프레임은 필드 MB쌍외에 프레임 MB쌍도 동일 프레임내에 포함하고 있을 수 있다. 따라서, 잠정 베이스 레이어의 픽처내의 매크로 블록쌍과 대응하는 현재 레이어의 매크로 블록쌍이 필드 MB가 아니고 프레임 MB인 경우에는, 기 공지된 프레임 MB간의 모션 예측방법을 적용한다.In the case of Fig. 14A, since the base layer is a frame and the current layer is an MBAFF frame, each macro block in the picture becomes a frame MB and a field MB in the MBAFF frame. Therefore, in the above-described case, I is applied to perform inter-layer motion prediction. However, as mentioned above, the MBAFF frame may include not only the field MB pair but also the frame MB pair in the same frame. Therefore, when the macroblock pair in the picture of the temporary base layer and the corresponding macroblock pair of the current layer are not the field MB but the frame MB, a motion prediction method between the known frame MBs is applied.

B). 베이스 레이어:순차주사방식의 프레임 -> 인핸스드 레이어:비월주사방식의 필드B). Base Layer: Sequential Scanning Frame-> Enhanced Layer: Interlaced Fields

도 14b는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 베이스 레이어의 대응 프레임의 모든 매크로 블록의 텍스처 정보와 모션 정보를 복사하여 가상의 프레임을 만든 후, 그 가상 프레임에 대해서 업샘플링을 수행한다. 이 업샘플링은 베이스 레이어의 해상도가 현재 레이어의 해상도와 동일해지도록 하는 비율로 이루어진다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 필드 픽처내의 필드 MB이므로, 전술한 경우 II를 적용하여 레이어간 모션 예측을 수행한다.Fig. 14B shows the processing method for this case. As shown in the drawing, the texture information and motion information of all macroblocks of the corresponding frame of the base layer are copied to create a virtual frame, and then upsampling is performed on the virtual frame. This upsampling is done at a rate such that the resolution of the base layer is equal to the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB, and each macro block of the current layer is a field MB in the field picture, inter-layer motion prediction is performed by applying II as described above.

C). 베이스 레이어:MBAFF 프레임 -> 인핸스드 레이어:순차주사방식의 프레임C). Base Layer: MBAFF Frame-> Enhanced Layer: Sequential Scan Frame

도 14c는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 대응 MBAFF 프레임을 순차주사방식의 프레임으로 변환한다. MBAFF 프레임을 순차주사방식의 프레임으로 변환하기 위해서는 전술한 경우 III의 방법을 적용한다. 물론, 이때의 III의 방법 적용은, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩 하는 동작을 수행하는 것은 아니다. Fig. 14C shows the processing method for this case. As shown, first, the corresponding MBAFF frame of the base layer is converted into a frame of a sequential scan method. In order to convert an MBAFF frame into a sequential scan type frame, the method of III is applied. Of course, the method of III is to generate the motion information of the virtual frame and each macroblock in the frame by using the data obtained by the inter-layer prediction. It does not perform the coding operation.

가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 업샘플링을 수행한다. 이 업샘플링은 베이스 레이어의 해상도가 현재 레이어의 해상도와 동일해지도록 하는 비율로 이루어진다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록도 프레임 MB이므로, 기 공지되어 있는 프레임 MB 대 프레임 MB의 레이어간 모션 예측을 수행한다.If a virtual frame is obtained, upsampling is performed on the virtual frame. This upsampling is done at a rate such that the resolution of the base layer is equal to the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is also a frame MB, inter-layer motion prediction of a known frame MB to frame MB is performed.

D). 베이스 레이어:비월주사방식의 필드 -> 인핸스드 레이어:순차주사방식의 프레임D). Base layer: Interlaced fields-> Enhanced layer: Sequential scan frame

도 14d는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 대응 필드를 순차주사방식의 프레임으로 변환한다. 비월주사방식의 필드를 순차주사방식의 프레임으로 변환하기 위해서는 업샘플링과 전술한 경우 IV의 방법을 적용한다. 물론, 이때의 IV의 방법 적용도, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. Fig. 14D shows the processing method for this case. As shown, first, the corresponding field of the base layer is converted into a frame of a sequential scan method. In order to convert an interlaced field into a sequential scan frame, upsampling and IV described above are applied. Of course, the method of IV is also used to generate motion information of a virtual frame and each macroblock within the frame using data obtained by inter-layer prediction. It does not perform the operation of coding.

가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 현재 레이어의 해상도와 동일해지도록 업샘플링을 수행한다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록도 프레임 MB이므로, 기 공지되어 있는 프레임 MB 대 프레임 MB의 레이어간 모션 예측을 수행한다.If a virtual frame is obtained, upsampling is performed on the virtual frame to be equal to the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is also a frame MB, inter-layer motion prediction of a known frame MB to frame MB is performed.

E). 베이스 레이어:MBAFF 프레임 -> 인핸스드 레이어:MBAFF 프레임E). Base Layer: MBAFF Frame-> Enhanced Layer: MBAFF Frame

도 14e는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 대응 MBAFF 프레임을 순차주사방식의 프레임으로 변환한다. MBAFF 프레임을 순차주사방식의 프레임으로 변환하기 위해서는 전술한 경우 III의 방법을 적용한다. 물론, 이때의 III의 방법 적용은, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. Fig. 14E shows the processing method for this case. As shown, first, the corresponding MBAFF frame of the base layer is converted into a frame of a sequential scan method. In order to convert an MBAFF frame into a sequential scan type frame, the method of III is applied. Of course, the method of III is to generate the motion information of the virtual frame and each macroblock in the frame by using the data obtained by the inter-layer prediction. It does not perform the operation of coding.

가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 현재 레이어의 해상도와 일치하도록 업샘플링을 수행한다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 MBAFF 프레임내의 필드 MB이므로, 전술한 I의 방법을 적용하여 레이어간 모션 예측을 수행한다. 그런데, 앞서 언급한 바와 같이, MBAFF 프레임은 필드 MB쌍외에 프레임 MB쌍도 동일 프레임내에 포함하고 있을 수 있다. 따라서, 잠정 베이스 레이어의 픽처내의 매크로 블록쌍과 대응하는 현재 레이어의 매크로 블록쌍이 필드 MB가 아니고 프레임 MB인 경우에는, 기 공지된 프레임 MB간의 모션 예측방법을 적용한다.Once the virtual frame is obtained, upsampling is performed on the virtual frame to match the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is a field MB in the MBAFF frame, inter-layer motion prediction is performed by applying the above-described method. However, as mentioned above, the MBAFF frame may include not only the field MB pair but also the frame MB pair in the same frame. Therefore, when the macroblock pair in the picture of the temporary base layer and the corresponding macroblock pair of the current layer are not the field MB but the frame MB, a motion prediction method between the known frame MBs is applied.

F). 베이스 레이어:MBAFF 프레임 -> 인핸스드 레이어:비월주사방식의 필드F). Base Layer: MBAFF Frame-> Enhanced Layer: Interlaced Fields

도 14f는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 대응 MBAFF 프레임을 순차주사방식의 프레임으로 변환한다. MBAFF 프레임을 순차주사방식의 프레임으로 변환하기 위해서는 전술한 경우 III의 방법을 적용한다. 물론, 이때의 III의 방법 적용도, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. Fig. 14F shows the processing method for this case. As shown, first, the corresponding MBAFF frame of the base layer is converted into a frame of a sequential scan method. In order to convert an MBAFF frame into a sequential scan type frame, the method of III is applied. Of course, the method of III is also used to generate motion information of a virtual frame and each macroblock within the frame using data obtained by inter-layer prediction. It does not perform the operation of coding.

가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 현재 레이어의 해상도와 일치하도록 업샘플링을 수행한다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 우수 또는 기수 필드내의 필드 MB이므로, 전술한 II의 방법을 적용하여 레이어간 모 션 예측을 수행한다.Once the virtual frame is obtained, upsampling is performed on the virtual frame to match the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is a field MB in even or odd field, inter-layer motion prediction is performed by applying the method of II described above.

G). 베이스 레이어:비월주사방식의 필드 -> 인핸스드 레이어:MBAFF 프레임도 14g는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 비월주사방식의 필드를 순차주사방식의 프레임으로 변환한다. 비월주사방식의 필드를 순차주사방식의 프레임으로 변환하기 위해서는 업샘플링과 전술한 경우 IV의 방법을 적용한다. 물론, 이때의 IV의 방법 적용도, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. G). Base layer: interlaced field-> enhanced layer: MBAFF frame Figure 14g shows the processing method for this case. As shown, first, the interlaced field of the base layer is converted into a progressive scan frame. In order to convert an interlaced field into a sequential scan frame, upsampling and IV described above are applied. Of course, the method of IV is also used to generate motion information of a virtual frame and each macroblock within the frame using data obtained by inter-layer prediction. It does not perform the operation of coding.

가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 현재 레이어의 해상도와 일치하도록 업샘플링을 수행한다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 MBAFF 프레임내의 필드 MB이므로, 전술한 I의 방법을 적용하여 레이어간 모션 예측을 수행한다. 그런데, MBAFF 프레임은 앞서 언급한 바와 같이, 필드 MB쌍외에 프레임 MB쌍도 동일 프레임내에 포함하고 있을 수 있으므로, 잠정 베이스 레이어의 픽처내의 매크로 블록쌍과 대응하는 현재 레이어의 매크로 블록쌍이 필드 MB가 아니고 프레임 MB인 경우에는, 전술한 I의 예측방법이 아닌 기 공지된 프레임 MB간의 모션 예측방법을 적용한다.Once the virtual frame is obtained, upsampling is performed on the virtual frame to match the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is a field MB in the MBAFF frame, inter-layer motion prediction is performed by applying the above-described method. As described above, the MBAFF frame may include frame MB pairs in addition to the field MB pairs in the same frame, so that the macro block pairs of the current layer corresponding to the macro block pairs in the picture of the temporary base layer are not field MBs. In the case of the frame MB, the previously known motion prediction method between the frame MBs is applied instead of the above-described method of I.

H). 베이스 레이어:비월주사방식의 필드 -> 인핸스드 레이어:비월주사방식의 필드H). Base Layer: Interlaced Fields-> Enhanced Layer: Interlaced Fields

도 14h는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 베이스 레이어의 대응 필드의 모든 매크로 블록의 텍스처 정보와 모션 정보를 복사하여 가상의 필드를 만든 후, 그 가상 필드에 대해서 업샘플링을 수행한다. 이 업샘플링은 베이스 레이어의 해상도가 현재 레이어의 해상도와 동일해지도록 하는 비율로 이루어진다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 필드의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 필드 픽처내의 필드 MB이고, 현재 레이어의 각 매크로 블록도 또한 필드 픽처내의 필드 MB이므로, 전술한 V의 iv)의 경우를 적용하여 레이어간 모션 예측을 수행한다.Fig. 14H shows the processing method for this case. As shown, a virtual field is created by copying texture information and motion information of all macroblocks of a corresponding field of a base layer, and then upsampling is performed on the virtual field. This upsampling is done at a rate such that the resolution of the base layer is equal to the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual field. Since each macro block in the picture of the provisional base layer configured as described above is a field MB in the field picture, and each macro block in the current layer is also a field MB in the field picture, inter-layer motion prediction is applied by applying the above-described case of V). Do this.

지금까지는 도 2a 또는 2b의 장치에서의 EL 엔코더(20)가 수행하는 레이어간 예측동작을 설명하였다. 하지만, 전술한 모든 레이어간 예측동작의 설명은 베이스 레이어로부터 디코딩된 정보를 수신하여 인핸스드 레이어의 스트림을 디코딩하는 인핸스드 레이어의 디코더에도 동일하게 적용될 수 있다. 엔코딩과 디코딩 과정에서는 전술한 레이어간 예측동작이 동일하게 수행되며, 다만 레이어간 예측이후의 동작이 상이할 뿐이다. 예를 들어 엔코더는, 모션 예측을 수행한 후 그 예측된 정보를 또는 예측된 정보와 실제 정보와의 차정보를 디코더로 전송하기 위해 코딩하지만, 디코더는 엔코더에서 수행된 것과 동일한 레이어간 모션 예측에 의해 얻은 정보를 그대로 현 매크로 블록에 적용하여, 또는 실제 수신한 매크로 블록의 모션정보를 추가로 이용하여 실제 모션정보를 구하는 점이 상이할 뿐이다. 따라서, 엔코딩관점에서 전술한 본 발명의 내용과 그 원리는 수신되는 양 레이어의 데이터 스트림을 디코딩하는 디코더에도 그대로 적용된다.The interlayer prediction operation performed by the EL encoder 20 in the apparatus of FIG. 2A or 2B has been described so far. However, the above description of all the inter-layer prediction operations may be equally applied to the decoder of the enhanced layer that receives the decoded information from the base layer and decodes the stream of the enhanced layer. In the encoding and decoding process, the above-described inter-layer prediction operation is performed in the same manner, except that the operations after the inter-layer prediction are different. For example, the encoder performs motion prediction and then codes the predicted information or the difference between the predicted information and the actual information to send to the decoder, but the decoder does not use the same inter-layer motion prediction as performed at the encoder. The only difference is that the actual motion information is obtained by applying the obtained information to the current macro block as it is or by additionally using the motion information of the actually received macro block. Thus, the teachings and principles of the invention described above in terms of encoding apply equally to decoders that decode the data streams of both layers received.

본 발명은 전술한 전형적인 바람직한 실시예에만 한정되는 것이 아니라 본 발명의 요지를 벗어나지 않는 범위 내에서 여러 가지로 개량, 변경, 대체 또는 부가하여 실시할 수 있는 것임은 당해 기술분야에 통상의 지식을 가진 자라면 용이하게 이해할 수 있을 것이다. 이러한 개량, 변경, 대체 또는 부가에 의한 실시가 이하의 첨부된 특허청구범위의 범주에 속하는 것이라면 그 기술사상 역시 본 발명에 속하는 것으로 보아야 한다. It is to be understood that the present invention is not limited to the above-described exemplary preferred embodiments, but may be embodied in various ways without departing from the spirit and scope of the present invention. If you grow up, you can easily understand. If the implementation by such improvement, change, replacement or addition falls within the scope of the appended claims, the technical idea should also be regarded as belonging to the present invention.

제한된 실시예로써 상술한 본 발명의 적어도 하나의 실시예는, 서로 다른 방식의 영상신호 소스를 사용하여서도 레이어간 예측을 수행할 수 있게 하므로, 복수 레이어의 코딩시에 영상신호의 픽처 유형( 비월주사방식 신호, 순차주사방식 신호, MBAFF 프레임방식의 픽처, 필드 픽처 등 )에 무관하게 데이터 코딩율을 높일 수가 있다.As a limited embodiment of the present invention, at least one embodiment of the present invention enables to perform inter-layer prediction even by using different types of video signal sources. The data coding rate can be increased irrespective of the scanning signal, the progressive scanning signal, the MBAFF frame picture, the field picture, etc.).

Claims (19)

영상신호의 엔코딩/디코딩시에 레이어간 모션 예측을 행하는 방법에 있어서,In the method for performing inter-layer motion prediction during encoding / decoding of a video signal, 베이스 레이어의 수직으로 인접된 프레임(frame) 매크로 블록쌍의 모션정보로부터 단일 매크로 블록에 대한 모션정보를 유도하는 1단계와,Deriving motion information for a single macroblock from motion information of a frame macroblock pair adjacent to each other vertically of the base layer; 상기 유도된 모션정보를, 현재 레이어의 하나의 필드(field) 매크로 블록의 모션정보 또는 필드 매크로 블록쌍의 각 모션정보의 예측정보로 사용하는 2단계를 포함하는 방법.And using the derived motion information as motion information of one field macroblock of a current layer or prediction information of each motion information of a field macroblock pair. 제 1항에 있어서,The method of claim 1, 상기 1단계는, The first step, 상기 프레임 매크로 블록쌍을 단일 매크로 블록으로 축소하고 그에 따라 축소된 분할모드에 근거하여 상기 단일 매크로 블록의 분할모드를 구하는 단계와,Reducing the frame macroblock pair into a single macroblock and obtaining a split mode of the single macroblock based on the reduced split mode; 상기 단일 매크로 블록의 상기 프레임 매크로 블록쌍에 확장 대응되는 관계에 따라 상기 단일 매크로 블록내의 8x8 블록에 대응되는 상기 프레임 매크로 블록쌍내의 8x16 영역이 갖는 적어도 하나의 참조 인덱스에 근거하여 상기 단일 매크로 블록의 참조 인덱스를 구하는 단계와,Based on the at least one reference index of the 8x16 region in the frame macroblock pair corresponding to the 8x8 block in the single macroblock according to the extended correspondence to the frame macroblock pair of the single macroblock. Obtaining a reference index, 상기 단일 매크로 블록의 상기 프레임 매크로 블록쌍에 확장 대응되는 관계에 따라 상기 단일 매크로 블록내의 4x4 블록에 대응되는 상기 프레임 매크로 블록쌍내의 4x8 영역이 갖는 적어도 하나의 모션 벡터에 근거하여 상기 단일 매크로 블록 의 모션벡터를 구하는 단계를 포함하는 것인 방법.Based on the at least one motion vector of the 4x8 region in the frame macroblock pair corresponding to the 4x4 block in the single macroblock according to the extended correspondence to the frame macroblock pair of the single macroblock. Obtaining a motion vector. 제 1항에 있어서,The method of claim 1, 상기 1단계는, The first step, 상기 단일 매크로 블록의 상기 프레임 매크로 블록쌍에 확장 대응되는 관계에 따라 상기 단일 매크로 블록내의 8x8 블록에 대응되는 상기 프레임 매크로 블록쌍내의 8x16 영역이 갖는 적어도 하나의 참조 인덱스에 근거하여 상기 단일 매크로 블록의 참조 인덱스를 구하는 단계와,Based on the at least one reference index of the 8x16 region in the frame macroblock pair corresponding to the 8x8 block in the single macroblock according to the extended correspondence to the frame macroblock pair of the single macroblock. Obtaining a reference index, 상기 단일 매크로 블록의 상기 프레임 매크로 블록쌍에 확장 대응되는 관계에 따라 상기 단일 매크로 블록내의 4x4 블록에 대응되는 상기 프레임 매크로 블록쌍내의 4x8 영역이 갖는 적어도 하나의 모션 벡터에 근거하여 상기 단일 매크로 블록의 모션벡터를 구하는 단계와,Based on the at least one motion vector of the 4x8 region in the frame macroblock pair corresponding to the 4x4 block in the single macroblock according to the extended correspondence to the frame macroblock pair of the single macroblock. Obtaining a motion vector, 상기 구해진 참조 인덱스와 모션벡터에 근거하여 상기 단일 매크로 블록의 분할모드를 구하는 단계를 포함하는 것인 방법.Obtaining a split mode of the single macroblock based on the obtained reference index and the motion vector. 제 2항 또는 제 3항에 있어서,The method of claim 2 or 3, 참조 인덱스를 구하는 상기 단계는, 상기 8x16 영역이 갖는 적어도 하나의 참조 인덱스에서 선택된 참조 인덱스의 값을 2배하는 과정을 포함하는 것인 방법.And obtaining a reference index comprises doubling the value of the selected reference index in at least one reference index of the 8x16 region. 제 2항 또는 제 3항에 있어서,The method of claim 2 or 3, 참조 인덱스를 구하는 상기 단계는, 상기 단일 매크로 블록의 참조 인덱스를 구하기 위해, 상기 8x16 영역내의 2개의 8x8 블록에서, 기 지정된 위치의 8x8 블록, 내부 분할이 덜 된 8x8블록, 또는 작은 값의 참조 인덱스를 갖는 8x8 블록을 선택하고 그 선택된 8x8블록의 참조 인덱스를 사용하는 것인 방법.The step of obtaining a reference index may include: in order to obtain a reference index of the single macroblock, in two 8x8 blocks in the 8x16 region, an 8x8 block at a predetermined position, an 8x8 block with less internal splitting, or a small value reference index. Selecting an 8x8 block with and using the reference index of the selected 8x8 block. 제 2항 또는 제 3항에 있어서,The method of claim 2 or 3, 모션벡터를 구하는 상기 단계는, 상기 4x8 영역이 갖는 적어도 하나의 모션 벡터에서 선택된 모션 벡터의 수직성분의 값을 1/2배하는 과정을 포함하는 것인 방법.And obtaining a motion vector comprises halving a value of a vertical component of a selected motion vector in at least one motion vector of the 4x8 region. 제 1항에 있어서,The method of claim 1, 상기 1단계는, 상기 프레임 매크로 블록쌍이 인트라 모드의 매크로 블록과 인터 모드의 매크로 블록으로 구성되어 있으면, 상기 인터 모드 매크로 블록의 모션정보를 상기 인트라 모드 매크로 블록의 모션 정보로 복사한 후, 상기 프레임 매크로 블록쌍의 모션정보로부터 상기 단일 매크로 블록에 대한 모션정보를 유도하는 것인 방법.In the first step, if the frame macroblock pair is composed of an intra mode macro block and an inter mode macro block, the frame information is copied to the motion information of the intra mode macro block after copying the motion information of the inter mode macro block. Deriving motion information for the single macro block from motion information of a macro block pair. 제 1항에 있어서,The method of claim 1, 상기 1단계는, 상기 프레임 매크로 블록쌍이 인트라 모드의 매크로 블록과 인터 모드의 매크로 블록으로 구성되어 있으면, 상기 인트라 모드 매크로 블록은 0의 모션벡터와 0의 참조 인덱스를 갖는 인터 모드 매크로 블록으로 간주한 후, 상기 프레임 매크로 블록쌍의 모션정보로부터 상기 단일 매크로 블록에 대한 모션정보를 유도하는 것인 방법.In step 1, when the frame macroblock pair is composed of an intra mode macro block and an inter mode macro block, the intra mode macro block is regarded as an inter mode macro block having a motion vector of 0 and a reference index of 0. And then deriving motion information for the single macro block from the motion information of the frame macro block pair. 영상신호의 엔코딩/디코딩시에 레이어간 모션 예측을 행하는 방법에 있어서,In the method for performing inter-layer motion prediction during encoding / decoding of a video signal, 베이스 레이어의 단일 필드 매크로 블록의 모션정보 또는 수직으로 인접된 필드 매크로 블록쌍중 선택된 단일 필드 매크로 블록의 모션정보로부터 2개의 매크로 블록에 대한 각 모션정보를 유도하는 1단계와,Deriving each motion information of two macroblocks from motion information of a single field macroblock of a base layer or motion information of a single field macroblock selected from a pair of vertically adjacent field macroblocks; 상기 유도된 각 모션정보를, 현재 레이어의 프레임 매크로 블록쌍의 각 모션정보의 예측정보로 사용하는 2단계를 포함하는 방법.And using the derived motion information as prediction information of each motion information of a frame macroblock pair of a current layer. 제 9항에 있어서,The method of claim 9, 상기 1단계는, The first step, 상기 단일 필드 매크로 블록을 2개의 매크로 블록으로 신장시키고 그에 따라 신장된 분할모드에 근거하여 상기 2개의 매크로 블록의 각 분할모드를 구하는 단계와,Expanding the single field macro block into two macro blocks and obtaining each split mode of the two macro blocks based on the split mode thus expanded; 상기 단일 필드 매크로 블록의 상기 2개의 매크로 블록에 확장 대응되는 관계에 따라 상기 단일 필드 매크로 블록내의 8x8 블록에 대응되는 상기 2개의 매크로 블록내의 2개의 8x8 블록의 각 참조 인덱스에 대해서는, 상기 단일 필드 매크로 블록내의 상기 8x8블록의 참조 인덱스를 각각 대응시켜 구하는 단계와,For each reference index of two 8x8 blocks in the two macroblocks corresponding to the 8x8 block in the single field macroblock according to the extended correspondence to the two macroblocks of the single field macroblock, the single field macro Obtaining corresponding reference indices of the 8x8 blocks in the block, respectively; 상기 단일 필드 매크로 블록의 상기 2개의 매크로 블록에 확장 대응되는 관계에 따라 상기 단일 필드 매크로 블록내의 4x4 블록에 대응되는 상기 2개의 매크로 블록내의 2개의 4x4 블록의 각 모션벡터에 대해서는, 상기 단일 필드 매크로 블록내의 상기 4x4블록의 모션 벡터를 각각 대응시켜 구하는 단계를 포함하는 것인 방법.For each motion vector of two 4x4 blocks in the two macroblocks corresponding to the 4x4 block in the single field macroblock according to the extended correspondence to the two macroblocks of the single field macroblock, the single field macro And correspondingly obtaining the motion vectors of the 4x4 blocks in the block, respectively. 제 10항에 있어서,The method of claim 10, 분할모드를 구하는 상기 단계는, 상기 단일 필드 매크로 블록내의 4x4, 8x4, 그리고 16x8 블록의 형태를 수직방향으로 2배로 신장시킨 블록형태로 지정하고, 그 외 블록 형태는 동일 크기의 2개의 블록 형태로 지정하는 방식에 의해 상기 2개의 매크로 블록의 각 블록모드를 구하는 것인 방법.In the step of obtaining the split mode, the 4x4, 8x4, and 16x8 blocks in the single-field macro block are designated as a block form in which the shape is doubled in the vertical direction, and the other block forms are formed in the form of two blocks of the same size. Obtaining each block mode of the two macroblocks by a designation method. 제 9항에 있어서,The method of claim 9, 상기 1단계는, The first step, 상기 단일 필드 매크로 블록의 상기 2개의 매크로 블록에 확장 대응되는 관계에 따라 상기 하나의 필드 매크로 블록내의 8x8 블록에 대응되는 상기 2개의 매크로 블록내의 2개의 8x8 블록의 각 참조 인덱스에 대해서는, 상기 단일 필드 매크로 블록내의 상기 8x8블록의 참조 인덱스를 각각 대응시켜 구하는 단계와,For each reference index of two 8x8 blocks in the two macroblocks corresponding to the 8x8 block in the one field macroblock according to the extended correspondence to the two macroblocks of the single field macroblock, the single field Obtaining corresponding reference indices of the 8x8 blocks in the macroblock, respectively; 상기 단일 필드 매크로 블록의 상기 2개의 매크로 블록에 확장 대응되는 관계에 따라 상기 단일 필드 매크로 블록내의 4x4 블록에 대응되는 상기 2개의 매크로 블록내의 2개의 4x4 블록의 각 모션벡터에 대해서는, 상기 단일 필드 매크로 블록내의 상기 4x4블록의 모션 벡터를 각각 대응시켜 구하는 단계와,For each motion vector of two 4x4 blocks in the two macroblocks corresponding to the 4x4 block in the single field macroblock according to the extended correspondence to the two macroblocks of the single field macroblock, the single field macro Obtaining corresponding motion vectors of the 4x4 blocks in the block, respectively; 상기 구해진 참조 인덱스와 모션벡터에 근거하여 상기 2개의 매크로 블록의 각 분할모드를 구하는 단계를 포함하는 것인 방법.Obtaining each split mode of the two macroblocks based on the obtained reference index and the motion vector. 제 10항 또는 제 12항에 있어서,The method of claim 10 or 12, 참조 인덱스를 구하는 상기 단계는, 상기 단일 필드 매크로 블록내의 상기 8x8 블록의 참조 인덱스를 2로 나누어서 상기 2개의 8x8 블록의 각 참조 인덱스에 대응시키는 것인 방법.And obtaining a reference index, dividing the reference index of the 8x8 block in the single field macroblock by two to correspond to each reference index of the two 8x8 blocks. 제 10항 또는 제 12항에 있어서,The method of claim 10 or 12, 모션 벡터를 구하는 상기 단계는, 상기 단일 필드 매크로 블록내의 상기 4x4 블록의 모션 벡터를, 그 수직성분에 대해서 2배한 후 상기 2개의 4x4 블록의 모션벡터에 대응시키는 것인 방법.Wherein the step of obtaining a motion vector corresponds to the motion vector of the 4x4 block in the single-field macro block corresponding to the motion vectors of the two 4x4 blocks after doubling the vertical component. 제 9항에 있어서,The method of claim 9, 상기 1단계는, 상기 필드 매크로 블록쌍이 인트라 모드의 매크로 블록과 인터 모드의 매크로 블록으로 구성되어 있으면, 상기 인터 모드 매크로 블록을 선택하여 그 모션정보를, 상기 2개의 매크로 블록에 대한 각 모션정보를 유도하기 위해 사용하는 것인 방법.In the first step, if the field macroblock pair is composed of an intra mode macro block and an inter mode macro block, the inter mode macro block is selected and its motion information is obtained, and each motion information for the two macro blocks is selected. The method used to derive. 제 1항에 있어서,The method of claim 1, 상기 1단계는, 상기 단일 필드 매크로 블록의 정보를 복사하여 1쌍의 필드 매크로 블록을 추가로 생성하고, 그에 의해 구성된 한쌍의 필드 매크로 블록의 각 모션정보로부터 상기 2개의 매크로 블록에 대한 각 모션정보를 유도하는 것인 방법.In the step 1, the information of the single field macroblock is copied to further generate a pair of field macroblocks, and each motion information of the two macroblocks from each motion information of the pair of field macroblocks formed thereby. To induce. 영상신호의 엔코딩/디코딩시에 서로 상이한 해상도를 갖는 레이어간 모션 예측을 행하는 방법에 있어서,In the method for performing inter-layer motion prediction having different resolutions when encoding / decoding video signals, 하위 레이어의 픽처를, 그 유형에 따라 프레임 매크로 블록들로 변환하는 예측방식을 선택적으로 적용하여 동일 해상도의 프레임 픽처로 변환하는 1단계와,Step 1 of converting a picture of a lower layer into a frame picture of the same resolution by selectively applying a prediction method of converting the picture of the lower layer into frame macroblocks according to the type; 상기 프레임 픽처를 상위 레이어의 해상도와 동일해지도록 업샘플링하는 2단계와,Upsampling the frame picture to be equal to a resolution of an upper layer; 상기 업샘플링된 프레임 픽처내의 프레임 매크로 블록과 상위 레이어의 픽처내의 매크로 블록의 유형에 맞는 레이어간 예측방식을 적용하는 3단계를 포함하여 이루어지는 방법.And applying an interlayer prediction method suitable for the type of the macroblock in the upsampled frame picture and the macroblock in the picture of the upper layer. 제 17항에 있어서,The method of claim 17, 상기 1단계에 적용되는 예측방식은, 매크로 블록 정보의 복사, 프레임 매크로 블록쌍의 필드 매크로 블록쌍으로의 예측, 프레임 매크로 블록쌍의 단일 필드 매크로 블록으로의 예측, 필드 매크로 블록쌍의 프레임 매크로 블록쌍으로의 예측, 단 일 필드 매크로 블록의 프레임 매크로 블록쌍으로의 예측중 하나인 것인 방법.The prediction method applied to the first step includes copying macroblock information, prediction of frame macroblock pairs into field macroblock pairs, prediction of frame macroblock pairs into single field macroblocks, and frame macroblock pairs of field macroblock pairs. A prediction in pairs, one field macroblock prediction in a frame macroblock pair. 제 17항에 있어서,The method of claim 17, 상기 3단계에 적용되는 예측방식은, 프레임 매크로 블록쌍의 필드 매크로 블록쌍으로의 예측, 프레임 매크로 블록쌍의 단일 필드 매크로 블록으로의 예측, 필드 매크로 블록쌍의 프레임 매크로 블록쌍으로의 예측, 단일 필드 매크로 블록의 프레임 매크로 블록쌍으로의 예측, 필드 매크로 블록의 필드 매크로 블록으로의 예측, 그리고 프레임 매크로 블록의 프레임 매크로 블록으로의 예측중 적어도 하나인 것인 방법.The prediction method applied to the above three steps includes prediction of a frame macroblock pair into a field macroblock pair, prediction of a frame macroblock pair into a single field macroblock, prediction of a field macroblock pair into a frame macroblock pair, and And at least one of prediction of the field macro block to the frame macro block pair, prediction of the field macro block to the field macro block, and prediction of the frame macro block to the frame macro block.
KR1020060111893A 2006-01-09 2006-11-13 Inter-layer motion prediction method for video signal KR20070075257A (en)

Priority Applications (64)

Application Number Priority Date Filing Date Title
CA2636571A CA2636571C (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800057544A CN101385353B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017195A KR100914712B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000146 WO2007081138A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,488 US8494060B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700917.3A EP1972154A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN201210585882.3A CN103096078B (en) 2006-01-09 2007-01-09 For inter-layer prediction method and the device of vision signal
JP2008550228A JP4991759B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
EP07700919.9A EP1977609A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700921.5A EP1977610B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800056109A CN101385349B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017196A KR100904441B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,471 US8401091B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550227A JP4991758B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
CN2007800053238A CN101385348B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550226A JP4991757B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
EP07700914.0A EP1972152A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000148 WO2007081140A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017198A KR100917829B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550225A JP4991756B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
EP07700916.5A EP1972153A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550224A JP5106419B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method and apparatus
PCT/KR2007/000144 WO2007081136A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700913.2A EP1980114A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017199A KR20090016544A (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700920.7A EP1972155A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,518 US8451899B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017202A KR100904443B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017201A KR100904442B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000142 WO2007100187A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017197A KR100914713B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN200780005672XA CN101385352B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800057826A CN101385355B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550231A JP4991762B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method and apparatus
KR1020097021246A KR101055742B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800057614A CN101385354B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,515 US8345755B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,523 US8792554B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550230A JP4991761B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
US12/087,466 US8264968B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000141 WO2007081134A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000145 WO2007081137A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
AU2007205337A AU2007205337B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,464 US8494042B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550229A JP4991760B2 (en) 2006-01-09 2007-01-09 Interlayer prediction method for video signals
PCT/KR2007/000143 WO2007081135A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000140 WO2007081133A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017204A KR100917206B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800056467A CN101385351B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,526 US8457201B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550232A JP4991763B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
RU2008132819/09A RU2384970C1 (en) 2006-01-09 2007-01-09 Interlayer forcasting method for video signal
EP07700915.7A EP1977607A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700918.1A EP1977608B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800056166A CN101385350B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017203A KR20080092372A (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,525 US8687688B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000147 WO2007081139A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020097011954A KR101055741B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
HK09106198.8A HK1129013A1 (en) 2006-01-09 2009-07-10 Inter-layer prediction method for video signal
HK09106197.9A HK1128843A1 (en) 2006-01-09 2009-07-10 Inter-layer prediction method for video signal
HK09106200.4A HK1128571A1 (en) 2006-01-09 2009-07-10 Inter-layer prediction method for video signal
US12/659,389 US8619872B2 (en) 2006-01-09 2010-03-08 Inter-layer prediction method for video signal
US14/178,751 US9497453B2 (en) 2006-01-09 2014-02-12 Inter-layer prediction method for video signal

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US75823506P 2006-01-12 2006-01-12
US60/758,235 2006-01-12
US77693506P 2006-02-28 2006-02-28
US60/776,935 2006-02-28
US78749606P 2006-03-31 2006-03-31
US60/787,496 2006-03-31

Publications (1)

Publication Number Publication Date
KR20070075257A true KR20070075257A (en) 2007-07-18

Family

ID=38500430

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060111893A KR20070075257A (en) 2006-01-09 2006-11-13 Inter-layer motion prediction method for video signal

Country Status (1)

Country Link
KR (1) KR20070075257A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013141671A1 (en) * 2012-03-23 2013-09-26 한국전자통신연구원 Method and apparatus for inter-layer intra prediction
KR101380460B1 (en) * 2010-03-30 2014-04-02 후지쯔 가부시끼가이샤 Image processing apparatus and image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101380460B1 (en) * 2010-03-30 2014-04-02 후지쯔 가부시끼가이샤 Image processing apparatus and image processing method
WO2013141671A1 (en) * 2012-03-23 2013-09-26 한국전자통신연구원 Method and apparatus for inter-layer intra prediction

Similar Documents

Publication Publication Date Title
KR100904441B1 (en) Inter-layer prediction method for video signal
JP5112332B2 (en) Inter-layer motion prediction method
KR100896279B1 (en) Method for scalably encoding and decoding video signal
KR20070074452A (en) Inter-layer prediction method for video signal
CN101491100B (en) Method and device for deriving motion data for high resolution pictures from motion data of low resolution pictures
KR20070075257A (en) Inter-layer motion prediction method for video signal
KR20070095180A (en) Inter-layer prediction method for video signal based on picture types
RU2384970C1 (en) Interlayer forcasting method for video signal
KR101370892B1 (en) Inter-layer motion prediction method for video blocks
KR20070075293A (en) Inter-layer motion prediction method for video signal
KR20070092591A (en) Inter-layer prediction method for video signal