KR20070075293A - Inter-layer motion prediction method for video signal - Google Patents

Inter-layer motion prediction method for video signal Download PDF

Info

Publication number
KR20070075293A
KR20070075293A KR1020070001587A KR20070001587A KR20070075293A KR 20070075293 A KR20070075293 A KR 20070075293A KR 1020070001587 A KR1020070001587 A KR 1020070001587A KR 20070001587 A KR20070001587 A KR 20070001587A KR 20070075293 A KR20070075293 A KR 20070075293A
Authority
KR
South Korea
Prior art keywords
motion
inter
frame
layer
information
Prior art date
Application number
KR1020070001587A
Other languages
Korean (ko)
Inventor
박승욱
전병문
박지호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to JP2008550229A priority Critical patent/JP4991760B2/en
Priority to CN2007800057826A priority patent/CN101385355B/en
Priority to PCT/KR2007/000148 priority patent/WO2007081140A1/en
Priority to KR1020087017201A priority patent/KR100904442B1/en
Priority to PCT/KR2007/000146 priority patent/WO2007081138A1/en
Priority to CA2636571A priority patent/CA2636571C/en
Priority to EP07700919.9A priority patent/EP1977609A4/en
Priority to JP2008550228A priority patent/JP4991759B2/en
Priority to CN2007800053238A priority patent/CN101385348B/en
Priority to PCT/KR2007/000145 priority patent/WO2007081137A1/en
Priority to EP07700917.3A priority patent/EP1972154A4/en
Priority to PCT/KR2007/000140 priority patent/WO2007081133A1/en
Priority to EP07700913.2A priority patent/EP1980114A4/en
Priority to US12/087,515 priority patent/US8345755B2/en
Priority to US12/087,488 priority patent/US8494060B2/en
Priority to US12/087,525 priority patent/US8687688B2/en
Priority to KR1020087017198A priority patent/KR100917829B1/en
Priority to US12/087,471 priority patent/US8401091B2/en
Priority to PCT/KR2007/000143 priority patent/WO2007081135A1/en
Priority to JP2008550225A priority patent/JP4991756B2/en
Priority to EP07700916.5A priority patent/EP1972153A4/en
Priority to JP2008550224A priority patent/JP5106419B2/en
Priority to KR1020087017204A priority patent/KR100917206B1/en
Priority to US12/087,466 priority patent/US8264968B2/en
Priority to EP07700914.0A priority patent/EP1972152A4/en
Priority to CN201210585882.3A priority patent/CN103096078B/en
Priority to US12/087,523 priority patent/US8792554B2/en
Priority to PCT/KR2007/000147 priority patent/WO2007081139A1/en
Priority to KR1020087017196A priority patent/KR100904441B1/en
Priority to KR1020087017203A priority patent/KR20080092372A/en
Priority to US12/087,526 priority patent/US8457201B2/en
Priority to KR1020097021246A priority patent/KR101055742B1/en
Priority to KR1020097011954A priority patent/KR101055741B1/en
Priority to JP2008550227A priority patent/JP4991758B2/en
Priority to KR1020087017202A priority patent/KR100904443B1/en
Priority to CN2007800057614A priority patent/CN101385354B/en
Priority to AU2007205337A priority patent/AU2007205337B2/en
Priority to CN2007800056467A priority patent/CN101385351B/en
Priority to KR1020087017197A priority patent/KR100914713B1/en
Priority to US12/087,464 priority patent/US8494042B2/en
Priority to KR1020087017199A priority patent/KR20090016544A/en
Priority to JP2008550231A priority patent/JP4991762B2/en
Priority to US12/087,518 priority patent/US8451899B2/en
Priority to JP2008550226A priority patent/JP4991757B2/en
Priority to JP2008550230A priority patent/JP4991761B2/en
Priority to PCT/KR2007/000142 priority patent/WO2007100187A1/en
Priority to PCT/KR2007/000144 priority patent/WO2007081136A1/en
Priority to EP07700921.5A priority patent/EP1977610B1/en
Priority to CN2007800056166A priority patent/CN101385350B/en
Priority to CN200780005672XA priority patent/CN101385352B/en
Priority to PCT/KR2007/000141 priority patent/WO2007081134A1/en
Priority to EP07700918.1A priority patent/EP1977608B1/en
Priority to EP07700920.7A priority patent/EP1972155A4/en
Priority to KR1020087017195A priority patent/KR100914712B1/en
Priority to CN2007800057544A priority patent/CN101385353B/en
Priority to EP07700915.7A priority patent/EP1977607A4/en
Priority to JP2008550232A priority patent/JP4991763B2/en
Publication of KR20070075293A publication Critical patent/KR20070075293A/en
Priority to HK09106197.9A priority patent/HK1128843A1/en
Priority to HK09106200.4A priority patent/HK1128571A1/en
Priority to HK09106198.8A priority patent/HK1129013A1/en
Priority to US12/659,389 priority patent/US8619872B2/en
Priority to US14/178,751 priority patent/US9497453B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

An inter-layer motion prediction method in encoding/decoding a video signal is provided to improve data coding rate irrespective of the picture type of a video signal when a plurality of layers is coded. For an inter-mode macroblock and an intra-mode macroblock of a base layer, which are vertically adjacent to each other, information on the motion of the inter-mode macroblock is set as information on the motion of the intra-mode macroblock, and then motion information on a pair of vertically neighboring macroblocks to be used for inter-layer motion prediction is obtained on the basis of the inter-mode macroblock and the intra-mode macroblock.

Description

영상신호의 엔코딩/디코딩시의 레이어간 모션 예측 방법 {Inter-layer motion prediction method for video signal}Inter-layer motion prediction method for encoding / decoding video signal {Inter-layer motion prediction method for video signal}

도 1a 및 1b는 단일 영상소스로부터 복수 레이어로 코딩하는 방식을 각각 예시한 것이고,1A and 1B illustrate a method of coding a plurality of layers from a single image source, respectively.

도 2a 및 2b는 본 발명에 따른 레이어간 예측방법이 적용되는 영상신호 엔코딩 장치의 구성을 간략히 도시한 것이고,2A and 2B briefly illustrate a configuration of an image signal encoding apparatus to which the inter-layer prediction method according to the present invention is applied.

도 3a 및 3b는 비월주사방식의 영상신호를 엔코딩하는 픽처 시퀀스의 유형을 각기 도시한 것이고,3A and 3B illustrate types of picture sequences encoding video signals of an interlaced scan method, respectively.

도 4a 내지 4f는, 본 발명의 일 실시예에 따라, 프레임(frame) 매크로 블록(MB)의 모션정보를 이용하여, MBAFF 프레임내의 필드(field) MB의 레이어간 모션예측에 사용될 가상 베이스 레이어의 필드 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,4A through 4F illustrate a virtual base layer to be used for inter-layer motion prediction of a field MB in an MBAFF frame using motion information of a frame macro block MB according to an embodiment of the present invention. It schematically shows a process of deriving the motion information of the field MB,

도 5a 내지 5b는, 본 발명의 다른 일 실시예에 따른, 참조 인덱스와 모션정보의 유도과정을 예시한 것이고,5A to 5B illustrate a derivation process of a reference index and motion information according to another embodiment of the present invention.

도 6a 내지 6c는, 본 발명의 일 실시예에 따라, 프레임 MB의 모션정보를 이용하여 가상 베이스 레이어의 필드 MB의 모션정보를 유도하는 과정을 도식적으로 나 타낸 것이고,6A to 6C schematically illustrate a process of deriving motion information of a field MB of a virtual base layer using motion information of a frame MB according to an embodiment of the present invention.

도 7a 내지 7b는, 본 발명의 다른 일 실시예에 따른, 참조 인덱스와 모션정보의 유도과정을 예시한 것이고,7A to 7B illustrate a derivation process of a reference index and motion information according to another embodiment of the present invention.

도 8a 내지 8c는, 본 발명의 일 실시예에 따라, MBAFF 프레임내의 필드 MB 의 모션정보를 이용하여, 레이어간 모션예측에 사용될 가상 베이스 레이어의 필드 MB프레임 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,8A to 8C schematically illustrate a process of deriving motion information of a field MB frame MB of a virtual base layer to be used for inter-layer motion prediction using motion information of field MB in an MBAFF frame according to an embodiment of the present invention. Represented by

도 9a 및 9b는, 본 발명의 다른 실시예들에 따른, 참조 인덱스와 모션정보의 유도과정을 각각 예시한 것이고,9A and 9B illustrate a derivation process of a reference index and motion information according to other embodiments of the present invention, respectively.

도 10a 내지 10c는, 본 발명의 일 실시예에 따라, 필드 픽처내의 필드 MB의 모션정보를 이용하여, 레이어간 모션예측에 사용될 가상 베이스 레이어의 프레임 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,10A to 10C schematically illustrate a process of deriving motion information of frame MB of a virtual base layer to be used for inter-layer motion prediction using motion information of field MB in a field picture according to an embodiment of the present invention. Will,

도 11은, 본 발명의 다른 일 실시예에 따른, 참조 인덱스와 모션정보의 유도과정을 예시한 것이고,11 illustrates a derivation process of a reference index and motion information according to another embodiment of the present invention.

도 12a 및 12b는, 본 발명의 다른 일 실시예에 따라, 필드 픽처내의 필드 MB의 모션정보를 이용하여, 레이어간 모션예측에 사용될 가상 베이스 레이어의 프레임 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,12A and 12B schematically illustrate a process of deriving motion information of a frame MB of a virtual base layer to be used for inter-layer motion prediction using motion information of a field MB in a field picture according to another embodiment of the present invention. Shown,

도 13a 내지 13d는, 본 발명의 일 실시예에 따라, 필드 MB의 모션정보를 이용하여, 레이어간 모션예측에 사용될 가상 베이스 레이어의 필드 MB의 모션정보를 유도하는 과정을 픽처의 유형에 따라 각기 구분하여 도식적으로 나타낸 것이고,13A to 13D illustrate a process of deriving motion information of field MB of a virtual base layer to be used for inter-layer motion prediction using motion information of field MB according to the type of picture, according to an embodiment of the present invention. Are shown diagrammatically,

도 14a 내지 14h는, 본 발명의 일 실시예에 따라, 레이어간 해상도가 상이한 경우에 레이어간 예측을 수행하는 방법을 픽처의 유형에 따라 각기 구분하여 도시한 것이다.14A to 14H illustrate a method of performing inter-layer prediction when the inter-layer resolution is different according to an embodiment of the present invention, separately according to the type of picture.

<도면의 주요부분에 대한 부호의 설명> <Description of the symbols for the main parts of the drawings>

20: EL 엔코더 21: BL 엔코더20: EL encoder 21: BL encoder

본 발명은, 영상신호를 엔코딩/디코딩할 때 레이어간 모션 예측하는 방법에 관한 것이다. The present invention relates to a method for predicting inter-layer motion when encoding / decoding a video signal.

스케일러블 영상 코덱(SVC:Scalable Video Codec) 방식은 영상신호를 엔코딩함에 있어, 최고 화질로 엔코딩하되, 그 결과로 생성된 픽처 시퀀스의 부분 시퀀스( 시퀀스 전체에서 간헐적으로 선택된 프레임의 시퀀스 )를 디코딩해 사용해도 저화질의 영상 표현이 가능하도록 하는 방식이다. The scalable video codec (SVC) method encodes a video signal at the highest quality, but decodes a partial sequence of the resulting picture sequence (a sequence of intermittently selected frames throughout the sequence). Even if it is used, it is a way to enable a low-quality video representation.

그런데, 스케일러블 방식으로 엔코딩된 픽처 시퀀스는 그 부분 시퀀스만을 수신하여 처리함으로써도 저화질의 영상 표현이 가능하지만, 비트레이트(bitrate)가 낮아지는 경우 화질저하가 크게 나타난다. 이를 해소하기 위해서 낮은 전송률을 위한 별도의 보조 픽처 시퀀스, 예를 들어 소화면 및/또는 초당 프레임수 등이 낮은 픽처 시퀀스를 적어도 하나 이상의 레이어로서 계층적 구조로 제공할 수도 있다. By the way, a picture sequence encoded in a scalable manner can display a low quality image only by receiving and processing only a partial sequence. However, when the bit rate is lowered, the picture quality is greatly deteriorated. In order to solve this problem, a separate auxiliary picture sequence for a low data rate, for example, a small picture and / or a low picture sequence per frame may be provided in a hierarchical structure as at least one layer.

2개의 시퀀스를 가정할 때, 보조 시퀀스( 하위 시퀀스 )를 베이스 레이어(base layer)로, 주 픽처 시퀀스( 상위 시퀀스 )를 인핸스드(enhanced)( 또는 인핸스먼트(enhancement) ) 레이어라고 부른다. 그런데, 베이스 레이어와 인핸스드 레이어는 동일한 영상신호원을 엔코딩하는 것이므로 양 레이어의 영상신호에는 잉여정보( 리던던시(redundancy) )가 존재한다. 따라서 인핸스드 레이어의 코딩율(coding rate)을 높이기 위해, 베이스 레이어의 코딩된 정보( 모션정보 또는 텍스처(texture) 정보 )를 이용하여 인핸스드 레이어의 영상신호를 코딩한다.Assuming two sequences, the auxiliary sequence (lower sequence) is called a base layer, and the main picture sequence (higher sequence) is called an enhanced (or enhancement) layer. However, since the base layer and the enhanced layer encode the same video signal source, redundancy information exists in the video signals of both layers. Therefore, in order to increase the coding rate of the enhanced layer, the image signal of the enhanced layer is coded using the coded information (motion information or texture information) of the base layer.

이 때, 도 1a에 도시된 바와 같이 하나의 영상 소스(1)로부터 각기 다른 전송율을 갖는 복수의 레이어로 코딩할 수도 있지만, 도 1b에서와 같이 동일한 컨텐츠(2a)에 대한 것이지만 서로 다른 주사(scanning)방식을 갖는 복수의 영상 소스(2b)를 각각의 레이어로 코딩할 수도 있다. 하지만, 이 때에도 양 소스(2b)는 동일 컨텐츠(2a)이므로 상위 레이어를 코딩하는 엔코더는 하위 레이어의 코딩된 정보를 이용하는 레이어간 예측을 수행하게 되면 코딩이득을 높일 수 있다.In this case, as shown in FIG. 1A, although coding may be performed from one image source 1 to a plurality of layers having different data rates, different scanning may be performed on the same content 2a as in FIG. 1B. A plurality of image sources 2b having a) scheme may be coded into each layer. However, even at this time, since both sources 2b are the same content 2a, an encoder coding an upper layer may increase coding gain when inter-layer prediction using coded information of a lower layer is performed.

따라서, 서로 다른 소스로부터 각각의 레이어로 코딩할 때 각 영상신호의 주사방식을 고려한 레이어간 예측방안이 필요하다. 또한, 비월주사(interlaced) 방식의 영상을 코딩할 때도 우수(even) 및 기수(odd) 필드들로 코딩할 수도 있고, 하나의 프레임에 기수 및 우수 매크로 블록의 쌍(pair)으로 코딩할 수도 있다. 따라서, 비월주사 방식의 영상신호를 코딩하는 픽처의 유형도 레이어간 예측에 함께 고려되어야 한다.Therefore, when coding to different layers from different sources, an inter-layer prediction method considering the scanning method of each image signal is required. In addition, when coding an interlaced image, it may be coded into even and odd fields, or may be coded as a pair of odd and even macroblocks in one frame. . Therefore, the type of the picture coding the interlaced video signal should also be considered in inter-layer prediction.

본 발명은, 양 레이어중 적어도 한 레이어는 비월 주사 방식의 영상신호 성분을 갖는 조건하에 레이어간 모션 예측을 수행하는 방법을 제공하는 데 그 목적이 있다.An object of the present invention is to provide a method for performing inter-layer motion prediction under a condition in which at least one of the two layers has interlaced scanning image signal components.

본 발명에 따른 레이어간 모션 예측방법의 하나는, 베이스 레이어의 수직으로 인접된 인터(inter) 모드와 인트라(intra) 모드의 양 매크로 블록에 대해, 상기 인터 모드의 매크로 블록의 모션에 대한 정보를 상기 인트라 모드의 매크로 블록의 모션에 대한 정보로 설정한 후, 상기 양 매크로 블록에 근거하여, 레이어간 모션예측에 사용될 수직으로 인접된 매크로 블록쌍에 대한 모션정보를 구한다.One of the inter-layer motion prediction methods according to the present invention includes information on the motion of the macro block of the inter mode with respect to both macro blocks of the vertically adjacent inter mode and the intra mode of the base layer. After setting the information on the motion of the macro block in the intra mode, motion information on a pair of vertically adjacent macro blocks to be used for inter-layer motion prediction is obtained based on the two macro blocks.

본 발명에 따른 레이어간 모션 예측방법의 다른 하나는, 베이스 레이어의 수직으로 인접된 인터(inter) 모드와 인트라(intra) 모드의 양 매크로 블록 중 인트라 모드의 매크로 블록에 대해 모션에 대한 정보가 0인 인터 모드의 블록으로 설정한 후, 상기 양 매크로 블록에 근거하여, 레이어간 모션예측에 사용될 수직으로 인접된 매크로 블록쌍에 대한 모션정보를 구한다.In another method of predicting inter-layer motion according to the present invention, information on motion is zero for an intra mode macro block among both macro blocks of vertically adjacent inter mode and intra mode of a base layer. After setting to the block of the inter mode, motion information for a pair of vertically adjacent macro blocks to be used for inter-layer motion prediction is obtained based on the above macro blocks.

본 발명에 따른 레이어간 모션 예측방법의 또 다른 하나는, 베이스 레이어의 수직으로 인접된 프레임 매크로 블록쌍의 모션정보로부터 단일 매크로 블록에 대한 모션정보를 유도하고, 그 유도된 모션정보를, 현재 레이어의 하나의 필드 매크로 블록의 모션정보 또는 필드 매크로 블록쌍의 각 모션정보의 예측정보로 사용한다.Another method of the inter-layer motion prediction method according to the present invention derives motion information for a single macroblock from motion information of a vertically adjacent frame macroblock pair of a base layer, and converts the derived motion information into a current layer. It is used as the motion information of one field macroblock of or as prediction information of each motion information of a field macroblock pair.

본 발명에 따른 레이어간 모션 예측 방법의 또 다른 하나는, 베이스 레이어의 단일 필드 매크로 블록의 모션정보 또는 수직으로 인접된 필드 매크로 블록쌍중 선택된 단일 필드 매크로 블록의 모션정보로부터 2개의 매크로 블록에 대한 각 모션정보를 유도하고, 그 유도된 각 모션정보를, 현재 레이어의 프레임 매크로 블록쌍의 각 모션정보의 예측정보로 사용한다.Another method of the inter-layer motion prediction method according to the present invention is to perform two macroblocks from motion information of a single field macroblock of a base layer or motion information of a single field macroblock selected from a pair of vertically adjacent field macroblocks. Each motion information is derived, and the derived motion information is used as prediction information of each motion information of the frame macroblock pair of the current layer.

본 발명에 따른, 픽처의 해상도가 상이한 레이어간 모션 예측방법은, 하위 레이어의 픽처를, 픽처의 유형과 픽처내의 매크로 블록의 유형에 따라 프레임 매크로 블록들로 변환하는 예측방식을 선택적으로 적용하여 동일 해상도의 프레임 픽처로 변환하고, 상기 프레임 픽처를 상위 레이어의 해상도와 동일해지도록 업샘플링한 후 그 업샘플링된 프레임 픽처내의 프레임 매크로 블록과 상위 레이어의 픽처내의 매크로 블록의 유형에 맞는 레이어간 예측방식을 적용한다.According to the present invention, an inter-layer motion prediction method having a different resolution of a picture may be performed by selectively applying a prediction method of converting a picture of a lower layer into frame macroblocks according to the type of the picture and the type of the macroblock in the picture. Inter-layer prediction method suitable for the type of frame macroblock in the upsampled frame picture and the macroblock in the picture of the higher layer after converting the frame picture to a resolution and upsampling the frame picture to be the same as the resolution of the upper layer. Apply.

본 발명에 따른 일 실시예에서는, 레이어간 모션 예측에 있어서, 분할모드(partition mode), 참조 인덱스, 그리고 모션 벡터의 순으로 예측한다.In an embodiment according to the present invention, in inter-layer motion prediction, prediction is performed in order of a partition mode, a reference index, and a motion vector.

본 발명에 따른 다른 일 실시예에서는, 참조 인덱스, 모션벡터, 그리고 분할모드의 순으로 예측한다.In another embodiment according to the present invention, prediction is performed in order of a reference index, a motion vector, and a split mode.

본 발명에 따른 일 실시예에서는, 베이스 레이어의 프레임 매크로 블록 한쌍의 모션정보로부터 레이어간 모션예측에 사용될 가상 베이스 레이어의 필드 매크로 블록 한쌍의 모션정보를 유도한다.In one embodiment according to the present invention, motion information of a pair of field macro blocks of a virtual base layer to be used for inter-layer motion prediction is derived from a pair of frame information of frame macro blocks of a base layer.

본 발명에 따른 일 실시예에서는, 베이스 레이어의 프레임 매크로 블록 한쌍 의 모션정보로부터 레이어간 모션예측에 사용될 가상 베이스 레이어의 우수 또는 기수 필드 픽처내의 하나의 필드 매크로 블록의 모션정보를 유도한다.In one embodiment according to the present invention, motion information of one field macro block in even or odd field pictures of a virtual base layer to be used for inter-layer motion prediction is derived from a pair of frame information of frame macro blocks of a base layer.

본 발명에 따른 일 실시예에서는, 베이스 레이어의 한쌍의 필드 매크로 블록에서 하나의 매크로 블록을 선택하고, 그 선택된 매크로 블록의 모션정보로부터 레이어간 모션예측에 사용될 가상 베이스 레이어의 프레임 매크로 블록 한쌍의 모션정보를 유도한다.In one embodiment according to the present invention, a single macroblock is selected from a pair of field macroblocks of a base layer, and motion of a pair of frame macroblocks of a virtual base layer to be used for inter-layer motion prediction from the motion information of the selected macroblock. Derive information.

본 발명에 따른 일 실시예에서는, 베이스 레이어의 우수 또는 기수의 필드 픽처내의 하나의 필드 매크로 블록의 모션정보로부터 레이어간 모션예측에 사용될 가상 베이스 레이어의 프레임 매크로 블록 한쌍의 모션정보를 유도한다.In one embodiment according to the present invention, motion information of a pair of frame macroblocks of a virtual base layer to be used for inter-layer motion prediction is derived from motion information of one field macroblock in an even or odd field picture of the base layer.

본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 우수 또는 기수의 필드 픽처내의 하나의 필드 매크로 블록의 정보를 복사하여 가상의 필드 매크로 블록을 추가로 구성하고, 그와 같이 구성된 한쌍의 필드 매크로 블록의 모션정보로부터 레이어간 모션예측에 사용될 가상 베이스 레이어의 프레임 매크로 블록 한쌍의 모션정보를 유도한다.In another embodiment according to the present invention, a virtual field macro block is further configured by copying information of one field macro block in even or odd field pictures of the base layer, and a pair of field macro blocks configured as described above. Motion information of a pair of frame macroblocks of a virtual base layer to be used for inter-layer motion prediction is derived from the motion information of.

본 발명에 따른 일 실시예에서는, 픽처의 해상도가 상이한 레이어간 모션 예측방법에서, 하위 레이어의 픽처를 동일 해상도의 프레임 픽처로 변환하는 데 적용하는 상기 예측방식은, 매크로 블록 정보의 복사, 프레임 매크로 블록쌍의 필드 매크로 블록쌍으로의 예측, 프레임 매크로 블록쌍의 단일 필드 매크로 블록으로의 예측, 필드 매크로 블록쌍의 프레임 매크로 블록쌍으로의 예측, 단일 필드 매크로 블록의 프레임 매크로 블록쌍으로의 예측중 하나이다.According to an embodiment of the present invention, in the inter-layer motion prediction method having different resolutions of a picture, the prediction method applied to converting a picture of a lower layer into a frame picture of the same resolution includes copying of macro block information and frame macro. Prediction of block macrofield pairs into field macroblock pairs, Prediction of frame macroblockpairs into single field macroblocks, Prediction of field macroblockpairs into frame macroblock pairs, Prediction of singlefield macroblocks into frame macroblock pairs One.

본 발명에 따른 일 실시예에서는, 픽처의 해상도가 상이한 레이어간 모션 예측방법에서, 상기 업샘플링된 프레임 픽처내의 프레임 매크로 블록을 기준으로 적용하는 상기 레이어간 예측방식은, 프레임 매크로 블록쌍의 필드 매크로 블록쌍으로의 예측, 프레임 매크로 블록쌍의 단일 필드 매크로 블록으로의 예측, 필드 매크로 블록쌍의 프레임 매크로 블록쌍으로의 예측, 단일 필드 매크로 블록의 프레임 매크로 블록쌍으로의 예측, 필드 매크로 블록의 필드 매크로 블록으로의 예측, 그리고 프레임 매크로 블록의 프레임 매크로 블록으로의 예측중 적어도 하나이다.According to an embodiment of the present invention, in the inter-layer motion prediction method having a different resolution of a picture, the inter-layer prediction method applied based on a frame macro block in the upsampled frame picture is a field macro of a frame macro block pair. Prediction into block pairs, Prediction of frame macro block pairs into single-field macro blocks, Prediction of field macro block pairs into frame macro block pairs, Prediction of single-field macro blocks into frame macro block pairs, Fields of field macro blocks At least one of prediction to a macroblock and prediction to a frame macroblock of the frame macroblock.

이하, 본 발명의 실시예에 대해 첨부도면을 참조하여 상세히 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2a는 본 발명에 따른 레이어간 예측방법이 적용되는 영상신호 엔코딩 장치의 구성블록을 간략히 도시한 것이다. 도 2a의 장치는 입력 영상신호를 2개의 레이어로 코딩하는 것이나 후술하는 본 발명의 원리는 3개 또는 그 이상의 레이어로 코딩하는 경우에도 각 레이어간에는 물론 적용될 수 있다.2A is a block diagram of a configuration block of an image signal encoding apparatus to which an inter-layer prediction method according to the present invention is applied. The apparatus of FIG. 2A encodes an input video signal into two layers, but the principles of the present invention described later may be applied between layers even when coding into three or more layers.

본 발명에 따른 레이어간 예측방법은, 도 2a의 장치에서 인핸스드 레이어 엔코더(20)( 이하, 'EL 엔코더'로 약칭한다. )에서 수행되며, 베이스 레이어 엔코더(21)( 이하, 'BL 엔코더'로 약칭함. )에서 엔코딩된 정보( 모션정보와 텍스처 정보 )를 수신하고 그 수신된 정보에 근거하여 레어어간 모션 예측을 수행한다. 물론, 본 발명은 도 2b에서와 같이 이미 코딩되어 있는 베이스 레이어의 영상 소스(3)를 사용하여, 입력되는 영상신호를 코딩할 수도 있으며 이 때에도 이하에서 설명하는 레이어간 예측방법이 동일하게 적용된다.The inter-layer prediction method according to the present invention is performed in the enhanced layer encoder 20 (hereinafter, abbreviated as 'EL encoder') in the apparatus of FIG. 2A, and the base layer encoder 21 (hereinafter, referred to as 'BL encoder'). Receives encoded information (motion information and texture information) from (), and performs inter-layer motion prediction based on the received information. Of course, the present invention may code the input video signal using the image source 3 of the base layer already coded as shown in FIG. 2B, and the inter-layer prediction method described below is equally applied. .

도 2a의 경우에 상기 BL 엔코더(21)가 비월주사방식의 영상신호를 엔코딩하는 방식( 또는 2b의 엔코딩되어 있는 영상소스(3)의 코딩된 방식 )은 두가지가 있을 수 있다. 즉, 도 3a에서 보는 바와 같이, 필드단위 그대로 엔코딩하여 필드 시퀀스로 엔코딩하는 경우와, 도 3b에서 보는 바와 같이, 우수 및 기수 양 필드의 각 매크로 블록을 쌍으로 하여 프레임이 구성된 프레임 시퀀스로 엔코딩하는 경우이다. 이와 같이 코딩되어 있는 프레임내에서, 한 쌍의 매크로 블록의 위에 있는 매크로 블록을 '상단(Top) 매크로 블록'으로 아래에 있는 매크로 블록을 '하단(Bottom) 매크로 블록'으로 칭한다. 상단 매크로 블록이 우수 필드( 또는 기수 필드 )의 영상성분으로 되어 있으면 하단 매크로 블록은 기수 필드( 또는 우수 필드 )의 영상성분으로 이루어진다. 이와 같이 구성된 프레임을 MBAFF (MacroBlock Adaptive Frame Field) 프레임이라고 한다. 그러나, MBAFF 프레임은 기수 필드 및 우수 필드로 구성된 매크로 블록쌍이외에도 각 매크로 블록이 프레임 MB로 구성된 매크로 블록쌍도 또한 포함할 수 있다.In the case of FIG. 2A, there may be two ways in which the BL encoder 21 encodes an interlaced video signal (or a coded method of the 2b encoded video source 3). That is, as shown in FIG. 3A, encoding is performed as a field unit and encoding a field sequence. As shown in FIG. 3B, each macroblock of both even and odd fields is paired and encoded into a frame sequence including a frame. If it is. In a frame coded as described above, a macro block above a pair of macro blocks is referred to as a 'top macro block' and a macro block below is referred to as a 'bottom macro block'. If the upper macro block is an image component of the even field (or even field), the lower macro block is an image component of the even field (or even field). The frame constructed as described above is called a MBAFF (MacroBlock Adaptive Frame Field) frame. However, the MBAFF frame may also include a macroblock pair in which each macroblock consists of a frame MB, in addition to the macroblock pair consisting of the odd field and the even field.

따라서, 픽처내의 매크로 블록이 비월주사 방식의 영상성분인 경우( 이하에서는, 이러한 매크로 블록을 '필드 MB'라고 칭한다. 이에 반해, 순차주사(progressive) 방식의 영상성분을 갖고 있는 매크로 블록을 '프레임 MB'라고 칭한다. ), 그 블록이 필드내의 것일 수도 있고 프레임내의 것일 수도 있다.Therefore, when a macroblock in a picture is an image component of an interlaced scanning method (hereinafter, such a macroblock is called a 'field MB'. In contrast, a macroblock having a progressive component of a video component is called a 'frame'. The block may be in a field or may be in a frame.

따라서, 상기 EL 엔코더(20)가 코딩할 매크로 블록의 유형과 그 매크로 블록의 모션 예측에 이용할 베이스 레이어의 매크로 블록의 유형이 각기 프레임 MB인지, 필드 MB인지 그리고 필드 MB인 경우에는 필드내의 필드 MB인지 MBAFF 프레임내 의 필드 MB인지를 구분하여 모션 예측 방법을 결정하여야 한다.Accordingly, if the type of the macroblock to be coded by the EL encoder 20 and the type of the macroblock of the base layer to be used for motion prediction of the macroblock are frame MB, field MB, and field MB, respectively, the field MB in the field. The motion prediction method should be determined by distinguishing whether it is a field MB in an MBAFF frame.

이하에서는 각 경우에 대해서 구분하여 설명한다. 먼저 설명에 앞서 현재 레이어와 베이스 레이어의 해상도는 상호 동일하다고 가정한다. 즉, SpatialScalabilityType()을 0으로 가정한다. 현재 레이어가 베이스 레이어의 해상도보다 높은 경우에 대해서는 다음에 설명한다. 그리고, 하기 설명 및 도면의 표현에 있어서, 우수( 또는 기수 )에 대해 '상단'(top)의 용어를, 기수( 또는 우수 )에 대해 '하단'의 용어도 병행하여 사용한다.Hereinafter, each case will be described separately. First, it is assumed that the resolutions of the current layer and the base layer are the same. That is, assume that SpatialScalabilityType () is 0. The case where the current layer is higher than the resolution of the base layer will be described later. In addition, in description of the following description and drawings, the term "top" is used for the even (or even), and the term "bottom" is used for the radix (or the good) in parallel.

I. 프레임 MB -> MBAFF 프레임의 필드 MB의 경우I. For Frame MB-> Field MB of MBAFF Frame

이 경우는, 현재 레이어(EL)에서 MB가 MBAFF 프레임내의 필드 MB로 코딩되고, 그 필드 MB에 대한 모션 예측에 이용할 베이스 레이어(BL)의 MB가 프레임 MB로 코딩되어 있는 경우로서, 베이스 레이어에서 상하 양 매크로 블록( 이를 '매크로 블록쌍'이라고 하며, 이하에서는, '쌍'이라는 표현은 수직으로 인접되어 있는 블록을 칭하기 위해 사용된다 )에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치(colocated)의 매크로 블록 쌍의 각각에 포함되어 있는 영상신호 성분과 각각 동일한 성분이 된다.In this case, MB is coded as a field MB in an MBAFF frame in the current layer EL, and MB of the base layer BL to be used for motion prediction for the field MB is coded as a frame MB. The video signal components included in the upper and lower macro blocks (hereinafter referred to as 'macro block pairs', hereinafter referred to as 'pairs' to refer to blocks vertically adjacent to each other) may correspond to corresponding positions of the current layer ( Each of the colocated macroblock pairs is the same as the video signal component included in each.

따라서, 베이스 레이어의 매크로 블록쌍(410)을 하나의 매크로 블록으로 병합( 수직방향으로 1/2로 압축 )시켜서 얻은 매크로 블록 분할(partition)모드를 현재 매크로 블록의 분할 모드로 사용한다. 도 4a는 이를 구체적인 예로서 나타낸 것이다. 도시된 바와 같이, 베이스 레이어의 대응 매크로 블록쌍(410)을 먼저 하나의 매크로 블록으로 병합시키고(S41), 그 병합에 의해서 얻어진 분할모드를 다른 하나에 복사하여(S42) 매크로 블록쌍(411)을 구성한 후, 그 매크로 블록쌍(411)의 각 분할모드를 가상 베이스 레이어의 매크로 블록쌍(412)에 각기 적용한다(S43).Therefore, the macroblock partition mode obtained by merging (compressing by 1/2 in the vertical direction) the macroblock pair 410 of the base layer into one macroblock is used as the partition mode of the current macroblock. 4A shows this as a specific example. As shown, the corresponding macroblock pair 410 of the base layer is first merged into one macroblock (S41), and the split mode obtained by the merging is copied to the other (S42) to the macroblock pair 411. After the configuration, the split mode of the macro block pair 411 is applied to the macro block pair 412 of the virtual base layer, respectively (S43).

그런데, 대응되는 매크로 블록쌍(410)을 하나의 매크로 블록으로 병합시킬 때, 분할모드에서 허용되지 않는 분할영역이 생길 수 있으므로, 이를 방지하기 위해 상기 EL 엔코더(20)는 다음과 같은 규칙에 따라 분할형태를 결정한다. However, when merging the corresponding macro block pairs 410 into one macro block, a partition area not allowed in the split mode may be generated. In order to prevent this, the EL encoder 20 according to the following rule. Determine the partition type.

1). 베이스 레이어의 매크로 블록쌍내의 2개의 상하 8x8 블록들( 도 4a의 B8_0와 B8_2)은 하나의 8x8 블록으로 병합하는 데, 대응되는 8x8 블록들 각각이 서브 분할되어 있지 않으면 이들은 2개의 8x4 블록들로 병합하고, 하나라도 서브 분할되어 있으면 이들은 4개의 4x4 블록들로 병합한다( 도 4a의 401 ).One). The two upper and lower 8x8 blocks (B8_0 and B8_2 in FIG. 4A) in the macro block pair of the base layer merge into one 8x8 block. If each of the corresponding 8x8 blocks is not subdivided, they are divided into two 8x4 blocks. Merge, and if any are subdivided, they merge into four 4x4 blocks (401 in FIG. 4A).

2). 베이스 레이어의 8x16 블록은 8x8 블록으로, 16x8 블록은 수평으로 인접된 2개의 8x4 블록으로, 16x16 블록은 16x8 블록으로 축소한다.2). 8x16 blocks of the base layer are reduced to 8x8 blocks, 16x8 blocks to two horizontally adjacent 8x4 blocks, and 16x16 blocks to 16x8 blocks.

만약, 대응되는 매크로 블록쌍중 적어도 어느 하나가 인트라(intra) 모드로 코딩되어 있는 경우에는 상기 EL 엔코더(20)는 상기의 병합과정전에 다음의 과정을 먼저 수행한다.If at least one of the corresponding macro block pairs is coded in the intra mode, the EL encoder 20 performs the following process before the merging process.

만약, 둘 중 하나만이 인트라 모드인 경우에는 도 4b에 예시된 바와 같이 인터(inter) 모드의 매크로 블록의 모션정보( MB 분할모드, 참조(reference) 인덱스, 모션 벡터들 )를 인트라 모드의 매크로 블록에 복사하거나, 도 4c에 예시된 바와 같이 인트라 모드의 매크로 블록을 0의 모션벡터와 참조 인덱스가 0인 16x16 인터 모드의 매크로 블록으로 간주하거나 도 4d에 예시된 바와 같이 인트라 모드 MB에 대해서, 인터모드 MB의 참조 인덱스는 복사하여 설정하고 모션벡터는 0 모션벡터를 갖도록 한 후에, 전술한 병합과정을 수행하고, 이하에서 설명하는 참조 인덱스 및 모션 벡터 유도(derivation) 과정을 또한 수행한다. If only one of them is in the intra mode, as shown in FIG. 4B, the motion information (MB division mode, reference index, and motion vectors) of the macro block in the inter mode is converted to the macro block in the intra mode. Or to a macroblock of intra mode as illustrated in FIG. 4C as a macroblock of 16x16 inter mode with a motion vector of zero and a reference index of zero, or for an intra mode MB as illustrated in FIG. 4D. After the reference index of the mode MB is set by copying and the motion vector has 0 motion vectors, the merge process described above is performed, and the reference index and motion vector derivation process described below are also performed.

상기 EL 엔코더(20)는 현재 매크로 블록쌍(412)의 참조 인덱스를 대응되는 매크로 블록쌍(410)의 참조 인덱스로부터 유도하기 위해 다음의 과정을 수행한다.The EL encoder 20 performs the following process to derive the reference index of the current macro block pair 412 from the reference index of the corresponding macro block pair 410.

현재 8x8 블록에 대응되는 베이스 레이어의 8x8 블록쌍이 서로 동일 횟수로 서브 분할되어 있으면 그 쌍에서 어느 하나( 상단 또는 하단 )의 8x8 블록의 참조 인덱스를 현재 8x8 블록의 참조 인덱스로 결정하고, 그렇지 않으면 서브 분할횟수가 적은 블록의 참조 인덱스를 현재 8x8 블록의 참조 인덱스로 결정한다. If the 8x8 block pair of the base layer corresponding to the current 8x8 block is subdivided by the same number of times, the reference index of any 8x8 block in the pair (top or bottom) is determined as the reference index of the current 8x8 block, otherwise The reference index of the block having the smallest number of partitions is determined as the reference index of the current 8x8 block.

본 발명에 따른 다른 실시예에서는, 현재 8x8 블록에 대응되는 베이스 레이어의 8x8 블록쌍에 지정되어 있는 참조 인덱스중 작은 값의 참조 인덱스를 현재 8x8 블록의 참조 인덱스로 결정한다. 이 결정방법을 도 4e의 예에 대해 나타내 보면,In another embodiment according to the present invention, the reference index of the smallest value among the reference indices designated in the 8x8 block pair of the base layer corresponding to the current 8x8 block is determined as the reference index of the current 8x8 block. This determination method is shown for the example of FIG. 4E.

refidx of curr B8_0 = min( refidx of base top frame MB’s B8_0, refidx of base top frame MB’s B8_2 )refidx of curr B8_0 = min (refidx of base top frame MB's B8_0, refidx of base top frame MB's B8_2)

refidx of curr B8_1 = min( refidx of base top frame MB’s B8_1, refidx of base top frame MB’s of base B8_3 )refidx of curr B8_1 = min (refidx of base top frame MB's B8_1, refidx of base top frame MB's of base B8_3)

refidx of curr B8_2 = min( refidx of base bottom frame MB’s B8_0, refidx of base bottom frame MB’s B8_2 ), 그리고refidx of curr B8_2 = min (refidx of base bottom frame MB ’s B8_0, refidx of base bottom frame MB ’s B8_2), and

refidx of curr B8_3 = min( refidx of base bottom frame MB’s B8_1, refidx of base bottom frame MB’s B8_3 )refidx of curr B8_3 = min (refidx of base bottom frame MB ’s B8_1, refidx of base bottom frame MB ’s B8_3)

가 된다.Becomes

전술한 참조 인덱스 유도과정은, 상단 필드 MB 와 하단 필드 MB에 모두 적용할 수 있다. 그리고, 전술한 바와 같은 방식으로 결정된 각 8x8 블록의 참조 인덱스에 대해 2를 곱하여 최종 참조 인덱스 값으로 한다. 이는, 디코딩시에 필드 MB가 우수 및 기수 필드들로 구분된 픽처에 속하게 되므로 픽처수는 프레임 시퀀스에서보다 2배로 많아지기 때문이다. 디코딩 알고리즘(algorithm)에 따라서는, 하단 필드 MB의 참조 인덱스는 2배후에 1을 더하여 최종 참조 인덱스 값으로 결정할 수도 있다.The above-described reference index derivation process can be applied to both the upper field MB and the lower field MB. Then, the reference index of each 8x8 block determined in the manner described above is multiplied by 2 to be the final reference index value. This is because, when decoding, the field MB belongs to a picture divided into even and odd fields, so the number of pictures is twice as large as in the frame sequence. Depending on the decoding algorithm, the reference index of the lower field MB may be determined as the final reference index value by adding 1 after 2 times.

상기 EL 엔코더(20)가 가상 베이스 레이어의 매크로 블록쌍에 대한 모션벡터를 유도하는 과정은 다음과 같다.The process of deriving the motion vector of the macroblock pair of the virtual base layer by the EL encoder 20 is as follows.

모션벡터는 4x4 블록을 기본으로 하여 결정되므로, 도 4f에 예시된 바와 같이, 베이스 레이어의 대응되는 4x8 블록을 확인하고, 그 블록이 서브 분할되어 있으면 상단 또는 하단의 4x4 블록의 모션벡터를 현재 4x4 블록의 모션벡터로 결정하고, 그렇지 않으면 대응되는 4x8 블록의 모션벡터를 현재 4x4 블록의 모션벡터로 결정한다. 그리고 결정된 모션벡터에 대해서는 그 수직성분을 2로 나눈 벡터를 최종 모션벡터로 사용한다. 이는 2개의 프레임 MB에 실린 영상성분이 하나의 필드 MB의 영상성분에 상응하게 되므로 필드 영상에서는 크기가 수직축으로 1/2로 축소되기 때문이다.Since the motion vector is determined based on the 4x4 block, as shown in FIG. 4F, the corresponding 4x8 block of the base layer is identified, and if the block is subdivided, the motion vector of the upper or lower 4x4 block is currently 4x4. The motion vector of the block is determined. Otherwise, the motion vector of the corresponding 4x8 block is determined as the motion vector of the current 4x4 block. For the determined motion vector, a vector obtained by dividing the vertical component by 2 is used as the final motion vector. This is because the size of the image is reduced to 1/2 on the vertical axis in the field image because the image component carried in the two frame MBs corresponds to the image component of one field MB.

상기와 같은 방식으로 가상 베이스 레이어의 필드 MB쌍(412)에 대한 모션정보가 구해지면 그 모션정보를, 현재 레이어, 즉 인핸스드 레이어의 대상 필드 MB 쌍(413)의 레이어간 모션예측을 위해 사용한다. 이하의 설명에서도 가상 베이스 레이어의 MB 또는 MB 쌍에 대한 모션정보가 구해지면 이 모션정보는 현재 레이어의 대응 MB 또는 MB 쌍에 대한 레이어간 모션 예측에 사용된다. 따라서, 이하의 설명에서, 가상 베이스 레이어의 MB 또는 MB 쌍의 모션정보를 현재 레이어의 대응 MB 또는 MB쌍의 레이어간 모션예측에 사용한다라는 언급이 없어도 이는 당연히 적용되는 과정이다.When the motion information of the field MB pair 412 of the virtual base layer is obtained in the above manner, the motion information is used to predict the inter-layer motion of the target layer MB pair 413 of the current layer, that is, the enhanced layer. do. In the following description, if motion information for an MB or MB pair of a virtual base layer is obtained, the motion information is used for inter-layer motion prediction for a corresponding MB or MB pair of the current layer. Therefore, in the following description, even if it is not mentioned that the motion information of the MB or MB pair of the virtual base layer is used for the inter-layer motion prediction of the corresponding MB or MB pair of the current layer, this is of course applied.

도 5a는 본 발명의 다른 실시예에 따른, 현재 매크로 블록쌍에 대응되는 베이스 레이어의 프레임 MB쌍의 모션정보로부터 레이어간 예측을 위해 사용할 가상 베이스 레이어(Virtual Base Layer)의 필드 MB쌍(500)의 모션정보를 유도하는 것을 도식적으로 나타낸 것이다. 본 실시예에서는, 도시된 바와 같이, 가상 BL의 필드 MB쌍(500)의 각 상단 8x8블록의 참조 인덱스는 BL의 프레임 MB쌍의 상단 MB의 상단 또는 하단 8x8 블록의 참조 인덱스를 사용하고, 각 하단 8x8 블록의 참조 인덱스는 BL의 하단 MB의 상단 또는 하단 8x8 블록의 참조 인덱스를 사용한다. 모션 벡터의 경우에는, 도시된 바와 같이, 가상 BL의 필드 MB쌍(500)의 각 최상단 4x4블록에 대해서는 BL의 프레임 MB쌍의 상단 MB의 최상단 4x4블록의 모션 벡터를 동일하게 사용하고, 각 두번째 4x4블록에 대해서는 BL의 프레임 MB쌍의 상단 MB의 세번째 4x4 블록의 모션벡터를 동일하게 사용하며, 각 세번째 4x4블록에 대해서는 BL의 프레임 MB쌍의 하단 MB의 최상단 4x4 블록의 모션벡터를 동일하게 사용하며, 각 네번째 4x4 블록에 대해서는 BL의 프레임 MB쌍의 하단 MB의 세번째 4x4 블록의 모션벡터를 동일하게 사용한다.5A illustrates a field MB pair 500 of a virtual base layer to be used for inter-layer prediction from motion information of a frame MB pair of a base layer corresponding to a current macroblock pair, according to another embodiment of the present invention. It is shown schematically to derive the motion information of. In this embodiment, as shown, the reference index of each upper 8x8 block of the field MB pair 500 of the virtual BL uses the reference index of the upper or lower 8x8 block of the upper MB of the frame MB pair of the BL, and each The reference index of the lower 8x8 block uses the reference index of the upper or lower 8x8 block of the lower MB of the BL. In the case of a motion vector, as shown, for each top 4x4 block of the field MB pair 500 of the virtual BL, the motion vector of the top 4x4 block of the top MB of the MB of the frame MB pair of the BL is equally used. For a 4x4 block, the motion vector of the third 4x4 block of the top MB of the frame MB pair of BL is the same, and for each third 4x4 block, the motion vector of the top 4x4 block of the bottom MB of the MB of the frame MB pair of the BL is equally used. For each fourth 4x4 block, the motion vector of the third 4x4 block of the lower MB of the frame MB pair of the BL is equally used.

그런데, 도 5a에 예시된 바와 같이, 레이어간 예측에 사용하기 위해 구성되는 필드 매크로 블록쌍(500)내의 8x8 블록내의 상단 4x4 블록(501)과 하단 4x4 블록(502)은 베이스 레이어의 서로 다른 8x8 블록(511,512)내의 4x4 블록의 모션벡터를 사용하는 데, 이 들 모션벡터는 서로 다른 기준 픽처를 사용한 모션벡터일 수 있다. 즉, 상기 서로 다른 8x8 블록(511,512)은 서로 다른 참조 인덱스 값을 가질 수 있다. 따라서, 이 경우에는, 상기 가상 BL의 필드 매크로 블록쌍(500)을 구성하기 위해, 상기 EL 엔코더(20)는 도 5b에 예시된 바와 같이, 가상 BL의 두번째 4x4 블록(502)의 모션벡터를 그 상단 4x4 블록(501)에 대해 선택된 대응되는 4x4 블록(503)의 모션벡터를 동일하게 사용하게 된다(521). However, as illustrated in FIG. 5A, the upper 4x4 block 501 and the lower 4x4 block 502 in the 8x8 block in the field macroblock pair 500 configured for use in inter-layer prediction are different from each other in the base layer. The motion vectors of the 4x4 blocks in the blocks 511 and 512 are used, which may be motion vectors using different reference pictures. That is, the different 8x8 blocks 511 and 512 may have different reference index values. Thus, in this case, to construct the field macroblock pair 500 of the virtual BL, the EL encoder 20 selects the motion vector of the second 4x4 block 502 of the virtual BL, as illustrated in FIG. 5B. The motion vector of the corresponding 4x4 block 503 selected for the upper 4x4 block 501 is equally used (521).

도 4a 내지 4f를 참조로 설명한 실시예는, 상기 EL 엔코더(20)가 현재 매크로 블록쌍에 대한 모션 정보를 예측하기 위해 가상 베이스 레이어의 모션정보를 구성함에 있어서, 베이스 레이어의 대응 매크로 블록쌍의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하는 것이었으나, 도 5a 및 5b를 참조로 설명한 실시예는, 베이스 레이어의 대응 매크로 블록쌍의 모션정보에 근거해서, 가상 베이스 레이어의 매크로 블록쌍에 대해 먼저 참조 인덱스와 모션 벡터를 유도한 뒤, 그 유도된 결과에 근거해서 마지막으로 가상 베이스 레이어의 매크로 블록쌍의 분할모드를 결정하는 것이다. 마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록형태가, 허용되는 분할모드에 속하면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할형태로 지정한다.In the embodiment described with reference to FIGS. 4A to 4F, the EL encoder 20 configures motion information of a virtual base layer to predict motion information for a current macroblock pair. In this case, the embodiment described with reference to FIGS. 5A and 5B is based on the motion information of the corresponding macroblock pair of the base layer. A reference index and a motion vector are first derived for the macroblock pair, and finally, the split mode of the macroblock pair of the virtual base layer is determined based on the derived result. Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and reference index, and then designate the combined block type as the combined type if it belongs to the allowed split mode. Specified in partitioned form.

도 5a 및 5b를 참조로 설명한 실시예에서, 베이스 레이어의 대응되는 매크로 블록쌍(410)이 모두 인트라 모드이면 현재 매크로 블록쌍(413)에 대해 인트라 베이스 예측만이 수행되고( 이 때는 모션 예측은 수행되지 않는다. 물론, 텍스처 예측의 경우에는 가상 베이스 레이어의 매크로 블록쌍이 구성되지도 않는다. ), 만약 둘 중 하나만 인트라 모드이면 텍스처(texture) 예측( 인트라 베이스 예측과 레지듀얼 예측 )은 수행되지 않고, 도 4b에서와 같이 인트라 모드의 MB에 인터 모드의 모션정보를 복사하거나 또는 도 4c에서와 같이 인트라 모드이 MB의 모션벡터와 참조 인덱스를 0으로 설정하거나 또는 도 4d에서와 같이 인트라 모드 MB에 대해서, 인터모드 MB의 참조 인덱스는 복사하여 설정하고 모션벡터는 0 모션벡터를 갖도록 한 후에, 전술한 바와 같이 레이어간 모션 예측이 수행된다. In the embodiment described with reference to FIGS. 5A and 5B, if the corresponding macro block pairs 410 of the base layer are all in intra mode, only intra base prediction is performed on the current macro block pair 413 (in this case, motion prediction is performed Of course, in the case of texture prediction, no macroblock pairs of the virtual base layer are constructed.) If only one is intra mode, texture prediction (intra base prediction and residual prediction) is not performed. 4B, the inter mode motion information is copied to the MB of the intra mode as shown in FIG. 4B, or the intra mode sets the motion vector and the reference index of the MB to 0 as shown in FIG. 4C, or the intra mode MB as shown in FIG. 4D. After setting the reference index of the intermode MB by copying and setting the motion vector to have a zero motion vector, as described above, Motion prediction is performed.

한편, 텍스처 예측을 수행할 때는, 베이스 레이어의 매크로 블록쌍의 우수라인들은 현재 매크로 블록쌍의 상단 필드 MB에 대한 예측에 사용하고, 기수라인들은 하단 필드 MB에 대한 예측에 사용한다.On the other hand, when performing texture prediction, the even lines of the macro block pair of the base layer are used to predict the upper field MB of the current macro block pair, and the odd lines are used to predict the lower field MB.

상기 EL 엔코더(20)는, 전술한 바와 같이 가상 BL의 MB쌍을 구성하고 나면 그 MB쌍의 모션정보를 이용하여 현재의 필드 매크로 블록쌍(413)의 모션정보를 예측하여 코딩한다.After the MB encoder of the virtual BL is configured as described above, the EL encoder 20 predicts and codes the motion information of the current field macro block pair 413 using the MB pair of motion information.

II. 프레임 MB -> 필드 픽처의 필드 MB의 경우II. For frame MB-> field MB for field picture

이 경우는, 현재 레이어에서 MB가 필드 픽처내의 필드 MB로 코딩되고, 그 필드 MB에 대한 모션 예측에 이용할 베이스 레이어의 MB가 프레임 MB로 코딩되어 있 는 경우로서, 베이스 레이어에서 매크로 블록쌍에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치의 우수 또는 기수 필드내의 매크로 블록에 포함되어 있는 영상신호 성분과 동일한 성분이 된다.In this case, the MB is coded as the field MB in the field picture in the current layer, and the MB of the base layer to be used for motion prediction for the field MB is coded as the frame MB, which is included in the macroblock pair in the base layer. The video signal component is the same as the video signal component included in the macroblock in the even or odd field of the corresponding position of the current layer.

따라서, 베이스 레이어의 매크로 블록쌍을 하나의 매크로 블록으로 병합( 수직방향으로 1/2로 압축 )시켜서 얻은 매크로 블록 분할(partition)모드를 우수 또는 기수의 가상 베이스 레이어의 매크로 블록의 분할 모드로 사용한다. 도 6a는 이를 구체적인 예로서 나타낸 것이다. 도시된 바와 같이, 베이스 레이어의 대응 매크로 블록쌍(610)을 먼저 하나의 매크로 블록(611)으로 병합시키고(S61), 그 병합에 의해서 얻어진 분할모드를, 현재의 매크로 블록(613)의 레이어간 모션 예측에 사용할 가상 베이스 레이어의 매크로 블록(612)에 적용한다(S62). 병합하는 규칙은 앞서의 경우 I에서와 동일하며, 대응되는 매크로 블록쌍(610)중 적어도 어느 하나가 인트라(intra) 모드로 코딩되어 있는 경우에 처리하는 방식도 앞서의 경우 I에서와 동일하다.Therefore, the macroblock partition mode obtained by merging the macroblock pairs of the base layer into one macroblock (compressed in half in the vertical direction) is used as the partition mode of the macroblock of the even or odd virtual base layer. do. 6A shows this as a specific example. As shown, the corresponding macroblock pair 610 of the base layer is first merged into one macroblock 611 (S61), and the division mode obtained by the merging is inter-layered in the current macroblock 613. It is applied to the macroblock 612 of the virtual base layer to be used for motion prediction (S62). The merging rule is the same as in the above case I, and the processing in the case where at least one of the corresponding macro block pairs 610 is coded in the intra mode is the same as in the case of the above case I.

그리고, 참조 인덱스와 모션 벡터를 유도하는 과정도 또한 앞서의 경우 I에 대해서 설명한 바와 동일하게 이루어진다. 다만, I의 경우에는 매크로 블록이 우수와 기수의 쌍으로 한 프레임내에 실리게 되므로 상단 MB 및 하단 MB에 동일한 유도과정을 적용하지만, 본 경우(II)에는 현재 코딩할 필드 픽처내에는 베이스 레이어의 매크로 블록쌍(610)에 대응되는 매크로 블록이 하나만 존재하므로 도 6b 및 6c에 예시된 바와 같이 하나의 필드 MB에 대해서만 유도과정을 적용하는 점만이 상이하다.In addition, the process of deriving the reference index and the motion vector is also performed in the same manner as described above for the case I. In the case of I, however, the macroblock is carried in a frame of even and odd numbers so that the same derivation process is applied to the upper MB and the lower MB. However, in the present case (II), the base layer is stored in the field picture to be coded. Since only one macro block corresponding to the macro block pair 610 exists, only the derivation process is applied to only one field MB, as illustrated in FIGS. 6B and 6C.

상기 실시예에서는, 상기 EL 엔코더(20)가 가상 베이스 레이어의 매크로 블록에 대한 모션 정보를 예측함에 있어서, 베이스 레이어의 대응 매크로 블록쌍의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하였다.In the above embodiment, when the EL encoder 20 predicts motion information for a macro block of a virtual base layer, the EL encoder 20 performs partition mode, reference index, and motion vector based on the motion information of a corresponding macro block pair of the base layer. Induced.

본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 대응 매크로 블록쌍의 모션정보에 근거해서, 가상 베이스 레이어의 매크로 블록에 대해 먼저 참조 인덱스와 모션 벡터를 유도한 뒤, 그 유도된 결과에 근거해서 마지막으로 가상 베이스 레이어의 매크로 블록의 분할모드를 결정한다. 도 7a 및 7b는 본 실시예에 따라, 가상 베이스 레이어의 필드 매크로 블록의 참조 인덱스와 모션 벡터가 유도되는 것을 도식적으로 나타낸 것이며, 이 경우는 상단 또는 하단의 한 매크로 블록에 대해 베이스 레이어의 매크로 블록쌍의 모션 정보를 사용하여 해당 모션 정보를 유도하는 것만 상이할 뿐 유도하는 데 적용되는 동작은 앞서 도 5a 및 5b를 참조하여 설명한 경우 I과 동일하다.In another embodiment according to the present invention, based on the motion information of the corresponding macroblock pair of the base layer, a reference index and a motion vector are first derived for the macroblock of the virtual base layer and then based on the derived result. Finally, the split mode of the macro block of the virtual base layer is determined. 7A and 7B diagrammatically show that a reference index and a motion vector of a field macroblock of a virtual base layer are derived according to the present embodiment, in which case the macroblock of the base layer for one macroblock at the top or bottom is derived. The operations applied to deriving only the derivation of the corresponding motion information by using the pair of motion information are the same as I described above with reference to FIGS. 5A and 5B.

마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록이 허용되는 분할모드이면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할모드로 둔다.Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and the same reference index, and then designate the combined type if the combined block is an allowed split mode, otherwise leave the split mode before combining. .

전술한 실시예들에서, 베이스 레이어의 대응되는 매크로 블록쌍이 모두 인트라 모드이면 현재 매크로 블록에 대해 인트라 베이스 예측만이 수행되고( 이 때는 모션 예측은 수행되지 않고 가상 베이스 레이어의 매크로 블록쌍의 모션정보를 구성하지도 않는다. ), 만약 둘 중 하나만 인트라 모드이면 텍스처 예측( 인트라 베이스 예측과 레지듀얼 예측 )은 수행되지 않고 모션 예측은 이 경우에 대해 앞서 설명한 바와 같이 수행된다. 그리고, 텍스처 예측을 수행할 때는, 현재 매크로 블록(613)이 우수 필드 MB인 경우에 베이스 레이어의 매크로 블록쌍의 우수라인들을 예측에 사용하고, 기수 필드 MB인 경우에는 베이스 레이어의 매크로 블록쌍의 기수라인들을 예측에 사용한다.In the above embodiments, if the corresponding macroblock pairs of the base layer are all intra modes, only intra base prediction is performed on the current macro block (in this case, motion prediction is not performed and motion information of the macro block pair of the virtual base layer is performed). If only one of them is intra mode, texture prediction (intra base prediction and residual prediction) is not performed and motion prediction is performed as described above for this case. When performing texture prediction, when the current macro block 613 is the even field MB, the even lines of the macro block pair of the base layer are used for prediction, and in the case of the odd field MB, the macro block pair of the base layer macro block is used. Use odd lines for prediction.

III. MBAFF 프레임의 필드 MB -> 프레임 MB의 경우III. Field MB for MBAFF frame-> Frame MB

이 경우는, 현재 레이어에서 MB가 프레임 MB로 코딩되고, 그 프레임 MB의 모션 예측에 이용할 베이스 레이어의 MB가 MBAFF 프레임내의 필드 MB로 코딩되어 있는 경우로서, 베이스 레이어의 한 필드 MB에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치의 매크로 블록 쌍에 포함되어 있는 영상신호 성분과 동일한 성분이 된다.In this case, MB is coded into a frame MB in the current layer, and the MB of the base layer to be used for motion prediction of the frame MB is coded into the field MB in the MBAFF frame, which is included in one field MB of the base layer. The video signal component becomes the same component as the video signal component included in the macroblock pair at the corresponding position of the current layer.

따라서, 베이스 레이어의 한 매크로 블록쌍내의 상단 또는 하단의 매크로 블록을 신장( 수직방향으로 2배로 신장 )시켜서 얻은 매크로 블록 분할(partition)모드를 가상 베이스 레이어의 매크로 블록쌍의 분할 모드로 사용한다. 도 8a는 이를 구체적인 예로서 나타낸 것이다. 이하 설명 및 도면에서 상단 필드 MB가 선정된 것으로 하였으나, 하단 필드 MB가 선택된 경우에도 하기 설명하는 바를 동일하게 적용할 수 있음은 물론이다.Therefore, the macroblock partition mode obtained by stretching the macroblock at the top or the bottom of one macroblock pair of the base layer (doubled in the vertical direction) is used as the partition mode of the macroblock pair of the virtual base layer. 8A shows this as a specific example. In the following description and drawings, the upper field MB is selected, but the following description may also be applied to the case where the lower field MB is selected.

도 8a에 도시된 바와 같이, 베이스 레이어의 대응 매크로 블록쌍(810)내의 상단 필드 MB를 2배로 신장시켜 2개의 매크로 블록(811)을 구성하고(S81), 그 신장에 의해서 얻어진 분할형태를 가상 베이스 레이어의 매크로 블록쌍(812)에 적용한 다(S82).As shown in Fig. 8A, the upper field MB in the corresponding macroblock pair 810 of the base layer is doubled to form two macroblocks 811 (S81), and the segmentation form obtained by the stretching is virtualized. The macroblock pair 812 of the base layer is applied (S82).

그런데, 대응되는 하나의 필드 MB를 수직으로 2배 신장시킬 때, 매크로 블록의 분할모드에서 허용되지 않는 분할형태가 생길 수 있으므로, 이를 방지하기 위해 상기 EL 엔코더(20)는 다음과 같은 규칙에 따라 신장된 분할형태에 따른 분할모드를 결정한다. However, when the corresponding one field MB is vertically doubled, a partitioning form that is not allowed in the splitting mode of the macroblock may be generated. In order to prevent this, the EL encoder 20 uses the following rule. The split mode is determined according to the extended split form.

1). 베이스 레이어의 4x4, 8x4, 그리고 16x8의 블록은 수직으로 2배 커진 각각 4x8, 8x8, 그리고 16x16의 블록으로 결정한다.One). The 4x4, 8x4, and 16x8 blocks of the base layer are determined to be 4x8, 8x8, and 16x16 blocks that are vertically doubled.

2). 베이스 레이어의 4x8, 8x8, 8x16 그리고 16x16의 블록은 각기 2개의 동일크기의 상하 블록으로 결정한다. 도 8a에 예시된 바와 같이, 베이스 레이어의 8x8 B8_0 블록은 2개의 8x8 블록들로 결정된다(801). 하나의 8x16의 블록으로 지정하지 않는 이유는, 그 좌 또는 우에 인접된 신장된 블록이 8x16의 분할블록이 되지 않을 수 있으므로 이러한 경우에는 매크로 블록의 분할모드가 지원되지 않기 때문이다.2). The 4x8, 8x8, 8x16 and 16x16 blocks of the base layer are determined as two equally sized top and bottom blocks. As illustrated in FIG. 8A, the 8x8 B8_0 block of the base layer is determined to be two 8x8 blocks (801). The reason for not specifying one 8x16 block is that the split mode of the macroblock is not supported in this case because the extended block adjacent to the left or right side may not be the 8x16 divided block.

만약, 대응되는 매크로 블록쌍(810)중 어느 하나가 인트라 모드로 코딩되어 있는 경우에는 상기 EL 엔코더(20)는 인트라 모드가 아닌 인터 모드의 상단 또는 하단의 필드 MB를 선택하여 상기의 신장 과정을 수행하여 가상 베이스 레이어의 매크로 블록쌍(812)의 분할모드를 결정한다.If one of the corresponding macroblock pairs 810 is coded in the intra mode, the EL encoder 20 selects the field MB at the top or the bottom of the inter mode rather than the intra mode to perform the above stretching process. The division mode of the macroblock pair 812 of the virtual base layer is determined.

만약, 둘 다 인트라 모드인 경우에는 레이어간 텍스처 예측만 수행하고, 전술한 신장과정을 통한 분할모드 결정과, 이하에서 설명하는 참조 인덱스 및 모션 벡터 유도 과정을 수행하지 않는다. If both are intra modes, only inter-layer texture prediction is performed, and the split mode determination through the above-described stretching process and the reference index and motion vector derivation process described below are not performed.

상기 EL 엔코더(20)는 가상 베이스 레이어의 매크로 블록쌍(812)의 참조 인덱 스를 대응되는 하나의 필드 MB의 참조 인덱스로부터 유도하기 위해, 대응되는 베이스 레이어의 8x8 블록(B8_0)의 참조 인덱스를, 도 8b에 예시된 바와 같이 2개의 상하 8x8 블록들의 각 참조 인덱스로 결정하고, 결정된 각 8x8 블록의 참조 인덱스에 대해 2로 나누어 최종 참조 인덱스 값으로 한다. 이는, 필드 MB에 대해서 우수 및 기수 필드들로 구분된 픽처를 기준으로하여 기준 픽처의 번호를 지정하므로, 프레임 시퀀스에 적용하기 위해서는 픽처 번호를 절반으로 줄일 필요가 있기 때문이다.The EL encoder 20 derives the reference index of the 8x8 block B8_0 of the corresponding base layer to derive the reference index of the macro block pair 812 of the virtual base layer from the reference index of the corresponding one field MB. As illustrated in FIG. 8B, each reference index of the two upper and lower 8x8 blocks is determined, and divided by 2 for the determined reference index of each 8x8 block to be a final reference index value. This is because the number of reference pictures is specified for the field MB on the basis of pictures divided into even and odd fields, so that the picture number needs to be cut in half to be applied to the frame sequence.

상기 EL 엔코더(20)가 가상 베이스 레이어의 프레임 매크로 블록쌍(812)에 대한 모션벡터를 유도할 때는, 도 8c에 예시된 바와 같이, 대응되는 베이스 레이어의 4x4 블록의 모션벡터를 가상 베이스 레이어의 매크로 블록쌍(812)내의 4x8 블록의 모션벡터로 결정하고, 그 결정된 모션벡터에 대해서 수직성분에 대해서 2를 곱한 벡터를 최종 모션벡터로 사용한다. 이는 1개의 필드 MB에 실린 영상성분이 2개의 프레임 MB의 영상성분에 상응하게 되므로 프레임 영상에서는 크기가 수직축으로 2배로 확대되기 때문이다.When the EL encoder 20 derives the motion vector for the frame macro block pair 812 of the virtual base layer, as shown in FIG. 8C, the motion vector of the corresponding 4x4 block of the base layer is converted into the virtual base layer. A motion vector of a 4x8 block in the macroblock pair 812 is determined, and a vector obtained by multiplying two by a vertical component with respect to the determined motion vector is used as the final motion vector. This is because the image component carried in one field MB corresponds to the image component of two frame MBs, so the size of the frame image is doubled on the vertical axis.

전술한 실시예에서는, 상기 EL 엔코더(20)가 가상 베이스 레이어의 매크로 블록쌍에 대한 모션 정보를 예측함에 있어서, 베이스 레이어의 대응 필드 MB의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하였다.In the above-described embodiment, when the EL encoder 20 predicts motion information for a macroblock pair of the virtual base layer, the partition mode, the reference index, and the motion vector are ordered based on the motion information of the corresponding field MB of the base layer. Induced.

본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 대응 필드 MB의 모션정보에 근거해서, 현재 매크로 블록쌍의 레이어간 예측에 사용할 가상 BL의 MB쌍의 모션정보를 도 9a에 예시된 바와 같이 참조 인덱스와 모션 벡터를 먼저 구한 뒤, 그 구해진 결과에 근거해서 마지막으로 가상 베이스 레이어의 매크로 블록쌍의 각 분할모드를 결정한다. 마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록이 허용되는 분할형태이면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할형태로 지정한다.In another embodiment according to the present invention, based on the motion information of the corresponding field MB of the base layer, refer to the motion information of the MB pair of the virtual BL to be used for inter-layer prediction of the current macroblock pair, as illustrated in FIG. 9A. The index and the motion vector are obtained first, and finally, based on the obtained result, each split mode of the macroblock pair of the virtual base layer is determined. Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and the same reference index, and then designate the combined form if the combined block is an acceptable split form, otherwise specify the split form before combining. do.

도 9a의 실시예에 대해 보다 상세히 설명하면, 도시된 바와 같이, 현재 매크로 블록쌍의 모션예측에 사용할 가상 BL의 프레임 MB쌍에 대한 참조 인덱스와 모션 벡터를 유도하기 위해, 베이스 레이어(BL)의 인터 모드의 필드 MB를 선택하여 그 MB의 모션벡터와 참조 인덱스를 사용한다. 만약, 양 매크로 블록이 모두 인터이면 상단 또는 하단 MB중 임의의 하나를 선택(901 또는 902)하여 그 MB의 모션벡터와 참조 인덱스 정보를 사용한다. 참조 인덱스에 대해서는, 도시된 바와 같이, 선택된 MB의 상단 8x8 블록의 해당 값을 가상 BL의 상단 MB의 상단과 하단 8x8 블록의 참조 인덱스로 복사하고, 선택된 MB의 하단 8x8 블록의 해당 값을 가상 BL의 하단 MB의 상단과 하단 8x8 블록의 참조 인덱스로 복사한다. 모션 벡터에 대해서는, 도시된 바와 같이 선택된 MB의 각 4x4 블록의 해당 값을, 가상 BL의 매크로 MB쌍의 상하 인접된 양 4x4 블록의 모션 벡터로 동일하게 사용한다. 본 발명에 따른 다른 실시예에서는, 도 9a에 예시된 것과는 달리, 가상 BL의 프레임 MB쌍의 모션벡터와 참조 인덱스를 유도하기 위해, 대응되는 BL의 MB쌍의 모션정보를 혼합하여 사용할 수도 있다. 도 9b는 본 실시예에 따른 모션벡터와 참조 인덱스의 유도과정을 예시한 것이다. 전술한 모션정보의 유도과정의 설명과 도 9b의 도면으로부터, 가상 BL의 MB쌍내의 각 서브블록들( 8x8 블록과 4x4 블록들 )의 참조 인덱스와 모션벡터의 대 응 복사관계는 직관적으로 이해할 수 있으므로 이에 대한 구체적인 설명은 생략한다.Referring to the embodiment of FIG. 9A in more detail, as shown, in order to derive a reference index and a motion vector for a frame MB pair of a virtual BL to be used for motion prediction of a current macroblock pair, The field MB of the inter mode is selected and the motion vector and reference index of the MB are used. If both macroblocks are inter, any one of the upper or lower MBs is selected (901 or 902) to use the motion vector and reference index information of the MB. For the reference index, as shown, copy the corresponding value of the upper 8x8 block of the selected MB to the reference index of the upper and lower 8x8 blocks of the upper MB of the virtual BL, and copy the corresponding value of the lower 8x8 block of the selected MB to the virtual BL. Copy to the reference index of the top and bottom 8x8 blocks of the bottom MB of. As for the motion vector, as shown, the corresponding value of each 4x4 block of the selected MB is equally used as the motion vector of both up and down adjacent 4x4 blocks of the macro MB pair of the virtual BL. In another embodiment according to the present invention, in order to derive the motion vector and the reference index of the frame MB pair of the virtual BL, the motion information of the MB pair of the corresponding BL may be mixed. 9B illustrates a process of deriving a motion vector and a reference index according to the present embodiment. From the above description of the derivation process of the motion information and the diagram of FIG. 9B, the reference radii of the respective subblocks (8x8 block and 4x4 blocks) in the MB pair of the virtual BL and the corresponding radiative relationship of the motion vector can be intuitively understood. Therefore, detailed description thereof will be omitted.

다만, 도 9b의 실시예에서는, 베이스 레이어의 필드 MB쌍의 모션정보가 모두 사용되므로, 양 필드 MB쌍중 어느 하나가 인트라 모드인 경우에 그 MB의 모션정보를 다른 인터 모드 MB의 모션정보를 이용하여 유도하게 된다. 즉, 도 4b에 예시된 바와 같이, 인터 모드 MB의 모션벡터와 참조 인덱스를 복사하여 인트라 모드 MB의 해당 정보로 구성하거나 또는 도 4c에 예시된 바와 같이, 인트라 모드 MB를 0의 모션벡터와 0의 참조 인덱스를 갖는 인터 모드 MB로 간주하거나 또는 도 4d에 예시된 바와 같이 인트라 모드 MB에 대해서, 인터모드 MB의 참조 인덱스는 복사하여 설정하고 모션벡터는 0의 모션벡터를 갖도록 한 후에, 도 9b에 예시된 바와 같이 가상 BL의 MB쌍의 모션벡터와 참조 인덱스 정보를 유도할 수 있다. 모션벡터와 참조 인덱스 정보가 유도되면 앞서 언급한 바와 같이 그 유도된 정보들에 근거하여 가상 BL의 MB쌍에 대한 블록모드가 결정된다.However, in the embodiment of FIG. 9B, since all the motion information of the field MB pair of the base layer is used, when either of the field MB pairs is intra mode, the motion information of the MB is used as the motion information of the other inter mode MB. To induce. That is, as illustrated in FIG. 4B, the motion vector and the reference index of the inter mode MB are copied to the corresponding information of the intra mode MB, or as illustrated in FIG. 4C, the intra mode MB is 0 and the motion vector of 0. Consider an inter mode MB having a reference index of or for an intra mode MB as illustrated in FIG. 4D, after setting the reference index of the inter mode MB to copy and setting the motion vector to have a motion vector of 0, FIG. 9B. As illustrated in FIG. 6, the motion vector and reference index information of the MB pair of the virtual BL may be derived. When the motion vector and the reference index information are derived, as described above, the block mode for the MB pair of the virtual BL is determined based on the derived information.

한편, 베이스 레이어의 대응되는 필드 MB 쌍이 모두 인트라 모드이면 현재 매크로 블록(813)에 대해 인트라 베이스 예측만이 수행된다( 이 때는 모션 예측은 수행되지 않는다. ). 인트라 베이스 예측의 기준 데이터는, 대응되는 필드 MB 쌍의 우수 및 기수 라인을 교번적으로 선택하여 인터리빙(interleaving)시킨 16x32의 블록이 된다. 만약 둘 중 하나만 인트라 모드이면 인트라 베이스 예측은 인트라 모드의 대응 필드 MB를 사용하여 수행하고, 레지듀얼 예측은 인터 모드의 대응 필드 MB 를 사용하여 수행한다. 물론, 이 때는 예측에 사용할 필드 MB에 대해서는 수직축으로 업샘플링한 후 텍스처 예측에 사용한다.On the other hand, if the corresponding field MB pairs of the base layer are all intra modes, only intra base prediction is performed on the current macro block 813 (in this case, motion prediction is not performed). The reference data of the intra base prediction is a 16x32 block in which the even and odd lines of the corresponding field MB pair are alternately selected and interleaved. If only one of them is intra mode, intra base prediction is performed using the corresponding field MB of the intra mode, and residual prediction is performed using the corresponding field MB of the inter mode. Of course, in this case, the field MB to be used for prediction is upsampled on the vertical axis and then used for texture prediction.

IV. 필드 픽처의 필드 MB -> 프레임 MB의 경우IV. For field MB-> frame MB of a field picture

이 경우는, 현재 레이어(EL)에서 MB가 프레임 MB로 코딩되고, 그 프레임 MB의 모션 예측에 이용할 베이스 레이어(BL)의 MB가 필드 픽처내의 필드 MB로 코딩되어 있는 경우로서, 베이스 레이어의 한 필드 MB에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치의 매크로 블록 쌍에 포함되어 있는 영상신호 성분과 동일한 성분이 된다.In this case, MB is coded as a frame MB in the current layer EL, and MB of the base layer BL to be used for motion prediction of the frame MB is coded as a field MB in the field picture. The video signal component included in the field MB is the same as the video signal component included in the macroblock pair at the corresponding position of the current layer.

따라서, 베이스 레이어의 우수 또는 기수 필드내의 한 매크로 블록을 수직방향으로 2배로 신장시켜서 얻은 분할모드를 가상 베이스 레이어의 매크로 블록의 분할 모드로 사용한다. 도 10a는 이를 구체적인 예로서 나타낸 것이다. 도 10a에 예시된 과정은, MBAFF 프레임내의 상단 또는 하단의 필드 MB가 선택되는 전술한 경우 III과 비교하여, 우수 또는 기수 필드내의 위치대응되는 하나의 필드 MB(1010)가 자연적으로 사용되는 것이 상이할 뿐, 대응되는 필드 MB(1010)를 신장하고, 그 신장에 의해서 얻어진 2개의 매크로 블록(1011)의 분할형태를 가상 베이스 레이어의 매크로 블록쌍(1012)에 적용하는 것은 동일하다. 그리고, 대응되는 하나의 필드 MB(1010)를 수직으로 2배 신장시킬 때, 매크로 블록의 분할모드에서 허용되지 않는 분할형태가 생길 수 있으므로, 이를 방지하기 위해 상기 EL 엔코더(20)가 신장된 분할형태에 따른 분할모드를 결정하는 규칙도 경우 III의 1)과 2)에 제시된 것과 동일하다. Therefore, the division mode obtained by doubling one macro block in the even or odd field of the base layer in the vertical direction is used as the division mode of the macro block of the virtual base layer. 10A illustrates this as a specific example. The process illustrated in FIG. 10A differs from that in the case where the top or bottom field MB in the MBAFF frame is selected, in contrast to III above, one field MB 1010 corresponding to position in the even or odd field is naturally used. In addition, it is the same to extend the corresponding field MB 1010 and apply the divided form of the two macroblocks 1011 obtained by the expansion to the macroblock pair 1012 of the virtual base layer. In addition, when the corresponding field MB 1010 is vertically doubled, a partitioning form that is not allowed in the division mode of the macroblock may occur, so that the EL encoder 20 is extended to prevent this. The rules for determining the split mode according to the form are the same as those given in cases 1) and 2) of III.

만약, 대응되는 매크로 블록이 인트라 모드로 코딩되어 있는 경우에는 상기 EL 엔코더(20)는 전술한 신장과정을 통한 분할모드 결정과, 이하에서 설명하는 참조 인덱스 및 모션 벡터 유도 과정을 수행하지 않는다. 즉, 레이어간 모션 예측은 수행되지 않는다.If the corresponding macroblock is coded in the intra mode, the EL encoder 20 does not perform the split mode determination through the above-described decompression process and the reference index and motion vector derivation process described below. In other words, inter-layer motion prediction is not performed.

그리고, 참조 인덱스와 모션 벡터를 유도하는 과정도 또한 앞서의 경우 III에 대해서 설명한 바와 동일하다. 다만, III의 경우에는 베이스 레이어의 대응되는 매크로 블록이 우수와 기수의 쌍으로 한 프레임내에 실리게 되므로 상단 MB 및 하단 MB 중 하나를 선택하여 유도과정을 적용하지만, 본 경우(IV)에는 현재 코딩할 매크로 블록에 대응되는 베이스 레이어의 대응되는 매크로 블록은 하나만 존재하므로 매크로 블록의 선택과정없이, 도 10b 및 10c에 예시된 바와 같이 그 대응되는 하나의 필드 MB의 모션 정보로부터 가상 베이스 레이어의 매크로 블록쌍(1012)에 대한 모션 정보를 유도한 뒤 이를 현재 매크로 블록쌍(1013)의 레이어간 모션 예측에 사용하게 된다.In addition, the process of deriving the reference index and the motion vector is also the same as described for the case III above. However, in the case of III, since the corresponding macroblock of the base layer is loaded in a frame of even and odd numbers, the derivation process is selected by selecting one of the upper MB and the lower MB, but in this case (IV), the current coding is performed. Since there is only one corresponding macro block of the base layer corresponding to the macro block to be executed, the macro block of the virtual base layer is extracted from the motion information of the corresponding one field MB, as illustrated in FIGS. 10B and 10C without selecting a macro block. The motion information for the pair 1012 is derived and then used for inter-layer motion prediction of the current macroblock pair 1013.

도 11은 본 발명의 다른 실시예에 따라 가상 베이스 레이어의 매크로 블록쌍의 참조 인덱스와 모션 벡터가 유도되는 것을 도식적으로 나타낸 것이며, 이 경우는 베이스 레이어의 우수 또는 기수 필드의 한 매크로 블록의 모션 정보로부터 가상 베이스 레이어의 매크로 블록쌍의 모션 정보를 유도하는 것만 상이할 뿐, 유도하는 데 적용되는 동작은 앞서 도 9a를 참조하여 설명한 경우와 동일하다. 다만, 대응하는 베이스 레이어(BL)의 한 필드내에 상단 및 하단 매크로 블록쌍이 존재하 지 않으므로, 도 9b에 예시된 경우에서 매크로 블록쌍의 모션 정보를 혼합하여 사용하는 경우는 본 경우(IV)에 적용되지 않는다.FIG. 11 is a diagram illustrating derivation of a reference index and a motion vector of a macroblock pair of a virtual base layer according to another embodiment of the present invention. In this case, motion information of one macroblock of an even or odd field of the base layer is derived. Only the derivation of the motion information of the macroblock pair of the virtual base layer is different from the above, and the operation applied to the derivation is the same as the case described with reference to FIG. 9A. However, since the upper and lower macro block pairs do not exist in one field of the corresponding base layer BL, the case where the motion information of the macro block pairs is mixed in the case illustrated in FIG. 9B is used in this case (IV). does not apply.

도 10a 내지 10c를 참조로 설명한 실시예에서는, 상기 EL 엔코더(20)가 가상 베이스 레이어의 매크로 블록쌍에 대한 모션 정보를 예측함에 있어서, 베이스 레이어의 대응 필드 MB의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하였으나, 도 11 에 따른 다른 일 실시예에서는, 베이스 레이어의 대응 필드 MB의 모션정보에 근거해서, 가상 베이스 레이어의 매크로 블록쌍에 대해, 먼저 참조 인덱스와 모션 벡터를 유도한 뒤, 그 유도된 결과에 근거해서 마지막으로 가상 베이스 레이어의 매크로 블록쌍의 분할모드를 결정한다. 마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록이 허용되는 분할형태이면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할형태로 지정한다.In the embodiment described with reference to Figs. 10A to 10C, when the EL encoder 20 predicts motion information for a macroblock pair of a virtual base layer, the split mode, based on the motion information of the corresponding field MB of the base layer, Reference indexes and motion vectors are derived in this order. However, in another embodiment according to FIG. 11, the reference index and the motion vector are first determined for the macroblock pair of the virtual base layer based on the motion information of the corresponding field MB of the base layer. After the derivation, the partition mode of the macroblock pair of the virtual base layer is finally determined based on the derived result. Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and the same reference index, and then designate the combined form if the combined block is an acceptable split form, otherwise specify the split form before combining. do.

전술한 실시예들에서, 베이스 레이어의 대응되는 필드 MB가 인트라 모드이면 현재 매크로 블록에 대해 인트라 베이스 예측만이 수행된다. 물론, 이 때는 예측에 사용할 필드 MB에 대해서는 수직축으로 업샘플링한 후 텍스처 예측에 사용한다.In the above embodiments, only intra base prediction is performed for the current macro block if the corresponding field MB of the base layer is intra mode. Of course, in this case, the field MB to be used for prediction is upsampled on the vertical axis and then used for texture prediction.

본 발명에 따른 다른 일 실시예에서는, 기수 또는 우수의 필드에 있는 필드 MB로부터 가상의(virtual) 매크로 블록을 생성하여 매크로 블록쌍을 구성한 뒤, 그 구성된 매크로 블록쌍으로부터 가상 베이스 레이어의 매크로 블록쌍의 모션 정보를 유도한다. 도 12a 및 12b는 이에 대한 예를 도시한 것이다.In another embodiment according to the present invention, a virtual macro block is generated from a field MB in the odd or even field to form a macro block pair, and then the macro block pair of the virtual base layer is formed from the configured macro block pair. To derive motion information. 12A and 12B show an example of this.

본 실시예에서는, 베이스 레이어의 대응되는 우수 (또는 기수) 필드 MB의 참 조 인덱스와 모션벡터를 복사(1201,1202)하여 가상의 기수 (또는 우수) 필드 MB를 만들어 한쌍의 매크로 블록(1211)을 구성하고, 그 구성된 매크로 블록쌍(1211)의 모션 정보를 혼합하여 가상 베이스 레이어의 매크로 블록쌍(1212)의 모션정보를 유도한다(1203,1204). 모션정보를 혼합하여 사용하는 한 예는, 도 12a 및 12b에 예시된 바와 같이, 참조 인덱스의 경우에, 대응되는 상단 매크로 블록의 상위 8x8 블록은 가상 베이스 레이어의 매크로 블록쌍(1212)의 상단 매크로 블록의 상위 8x8 블록에, 하위 8x8 블록은 하단 매크로 블록의 상위 8x8 블록에, 대응되는 하단 매크로 블록의 상위 8x8 블록은 가상 베이스 레이어의 매크로 블록쌍(1212)의 상단 매크로 블록의 하위 8x8 블록에, 하위 8x8 블록은 하단 매크로 블록의 하위 8x8 블록에 대응시켜 참조 인덱스를 적용한다(1203). 그리고, 모션 벡터의 경우에, 참조 인덱스에 따라 대응시켜 적용하며(1204), 이는 도 12a 및 12b에 의해 직관적으로 이해될 수 있으므로 그 설명은 생략한다.In this embodiment, the reference index of the corresponding even (or odd) field MB of the base layer and the motion vector are copied (1201,1202) to create a virtual odd (or even) field MB to create a pair of macroblocks 1211. Next, the motion information of the macroblock pair 1212 of the virtual base layer is derived by mixing the motion information of the configured macroblock pair 1211 (1203 and 1204). One example of mixing motion information is, as illustrated in FIGS. 12A and 12B, in the case of a reference index, the upper 8x8 block of the corresponding upper macroblock is the upper macro of the macroblock pair 1212 of the virtual base layer. In the upper 8x8 block of the block, the lower 8x8 block in the upper 8x8 block of the lower macro block, the upper 8x8 block in the corresponding lower macro block is in the lower 8x8 block of the upper macro block of the macro block pair 1212 of the virtual base layer, The lower 8x8 block applies a reference index to the lower 8x8 block of the lower macro block (1203). And, in the case of a motion vector, correspondingly applied according to the reference index (1204), since this can be intuitively understood by Figs. 12A and 12B, description thereof is omitted.

도 12a 및 12b에 예시된 실시예의 경우에 가상 베이스 레이어의 매크로 블록쌍(1212)의 분할모드는 유도된 참조 인덱스와 모션 벡터에 근거해서 결정하며, 그 방법은 전술한 바와 동일한다.In the case of the embodiment illustrated in FIGS. 12A and 12B, the split mode of the macro block pair 1212 of the virtual base layer is determined based on the derived reference index and the motion vector, and the method is the same as described above.

V. 필드 MB -> 필드 MB의 경우V. For Field MB-> Field MB

이 경우는, 필드 MB가 필드 픽처에 속한 것인지 MBAFF 프레임에 속한 것인지로 세분되므로, 다음과 같이 4가지의 경우로 나뉘어진다.In this case, since the field MB belongs to the field picture or the MBAFF frame, it is divided into four cases as follows.

i) 베이스 레이어와 인핸스드 레이어가 MBAFF 프레임인 경우i) When the base layer and the enhanced layer are MBAFF frames

이 경우는 도 13a에 나타내었으며, 도시된 바와 같이 대응되는 베이스 레이어(BL)의 매크로 블록쌍의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 가상 베이스 레이어의 매크로 블록쌍의 모션정보로 그대로 복사하여 사용한다. 다만, 복사는 동일 패러티(parity)의 매크로 블록간에 이루어지게 한다. 즉, 모션정보가 복사될 때 우수 필드 MB는 우수 필드 MB로 기수 필드 MB는 기수 필드 MB로 복사된다.In this case, as shown in FIG. 13A, as shown, the motion information (dividing mode, reference index, and motion vector) of the macroblock pair of the corresponding base layer BL is used as the motion information of the macroblock pair of the virtual base layer. Copy and use However, copying is made between macro blocks of the same parity. That is, when motion information is copied, even field MB is copied to even field MB and odd field MB is copied to odd field MB.

ii) 베이스 레이어가 필드 픽처이고 인핸스드 레이어가 MBAFF 프레임인 경우ii) When the base layer is a field picture and the enhanced layer is an MBAFF frame

이 경우는 도 13b에 나타내었으며, 도시된 바와 같이 대응되는 베이스 레이어(BL)의 하나의 필드 매크로 블록의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 가상 베이스 레이어의 매크로 블록쌍의 각 매크로 블록의 모션정보로 그대로 복사하여 사용한다. 이 때는, 단일 필드 MB의 모션정보를 상단 및 하단의 필드 MB에 모두 사용하게 되므로 동일 패터리간 복사 규칙은 적용되지 않는다.In this case, as shown in FIG. 13B, the motion information (segmentation mode, reference index, and motion vector) of one field macroblock of the corresponding base layer BL is shown as shown in FIG. 13B. Copy and use as motion information of a block. In this case, since the motion information of a single field MB is used for both the upper and lower field MBs, the same inter-pattern copying rule does not apply.

iii) 베이스 레이어가 MBAFF 프레임이고 인핸스드 레이어가 필드 픽처인 경우iii) the base layer is an MBAFF frame and the enhanced layer is a field picture.

이 경우는 도 13c에 나타내었으며, 도시된 바와 같이 현재 필드 MB에 대응되는 베이스 레이어(BL)의 매크로 블록쌍 중 동일 패러티의 필드 MB를 선택하여 그 필드 MB의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 가상 베이스 레이어의 필드 매크로 블록의 모션정보로 그대로 복사하여 사용한다.In this case, as shown in FIG. 13C, as shown in FIG. 13C, the field MB of the same parity is selected among the macroblock pairs of the base layer BL corresponding to the current field MB, and motion information (partition mode, reference index, The motion vector) is copied into the motion information of the field macro block of the virtual base layer as it is.

iv) 베이스 레이어와 인핸스드 레이어가 필드 픽처인 경우iv) When the base layer and the enhanced layer are field pictures

이 경우는 도 13d에 나타내었으며, 도시된 바와 같이 대응되는 베이스 레이어(BL)의 필드 매크로 블록의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 가상 베이스 레이어의 필드 매크로 블록의 모션정보로 그대로 복사하여 사용한다. 이 때도, 복사는 동일 패러티(parity)의 매크로 블록간에 이루어지게 한다.In this case, as shown in FIG. 13D, as shown, the motion information (dividing mode, reference index, and motion vector) of the field macroblock of the corresponding base layer BL is used as the motion information of the field macroblock of the virtual base layer. Copy and use Even in this case, copying is made between macro blocks of the same parity.

지금까지는 베이스 레이어와 인핸스드 레이어가 동일 해상도를 가지는 경우에 대해 설명하였다. 이하에서는 인핸스드 레이어가 베이스 레이어보다 해상도가 높은 경우( SpatialScalabilityType()가 0보다 큰 경우 )에 대해서 픽처의 유형( 순차주사방식의 프레임, MBAFF 프레임, 비월주사방식의 필드 )별로 구분하여 설명한다.Up to now, the case where the base layer and the enhanced layer have the same resolution has been described. Hereinafter, a case in which an enhanced layer has a higher resolution than a base layer (when SpatialScalabilityType () is greater than 0) will be described according to the picture type (sequential scan frame, MBAFF frame, interlaced field).

A). 베이스 레이어:순차주사방식의 프레임 -> 인핸스드 레이어:MBAFF 프레임A). Base Layer: Sequential Scanning Frame-> Enhanced Layer: MBAFF Frame

도 14a는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 베이스 레이어의 대응 프레임의 모든 매크로 블록의 텍스처 정보와 모션 정보를 복사하여 가상의 프레임을 만든 후, 그 가상 프레임에 대해서 업샘플링을 수행한다. 이 업샘플링은 베이스 레이어의 해상도( 픽처 크기 )가 현재 레이어의 해상도( 픽처 크기 )와 동일해지도록 하는 비율로 이루어진다. 이 업샘플링과 함께 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성하게 되는 데, 이 구성 방법에는 기 공지된 방법 중 하나를 사용한다. 이와 같이 구성된 잠정(interim) 베이스 레이어의 픽처는 현재의 인핸스드 레이어 픽처의 해상도와 동일한 해상도를 갖게된다. 따라서, 전술한 레이어간 모션 예측을 적용할 수 있게 된다.Fig. 14A shows the processing method for this case. As shown in the drawing, the texture information and motion information of all macroblocks of the corresponding frame of the base layer are copied to create a virtual frame, and then upsampling is performed on the virtual frame. This upsampling is done at a rate such that the resolution (picture size) of the base layer becomes equal to the resolution (picture size) of the current layer. With this upsampling, the motion information of each macroblock of the upsampled picture is configured based on the motion information of each macroblock of the virtual frame. One of the well-known methods is used for this configuration method. The picture of the interim base layer configured as described above has the same resolution as that of the current enhanced layer picture. Therefore, the above-described inter-layer motion prediction can be applied.

도 14a의 경우는, 베이스 레이어가 프레임이고, 현재 레이어가 MBAFF 프레임이므로, 해당 픽처내의 각 매크로 블록은 프레임 MB와 MBAFF 프레임내 필드 MB 가 된다. 따라서, 전술한 경우 I을 적용하여 레이어간 모션 예측을 수행한다. 그런데, 앞서 언급한 바와 같이, MBAFF 프레임은 필드 MB쌍외에 프레임 MB쌍도 동일 프레임내에 포함하고 있을 수 있다. 따라서, 잠정 베이스 레이어의 픽처내의 매크로 블록쌍과 대응하는 현재 레이어의 매크로 블록쌍이 필드 MB가 아니고 프레임 MB인 경우에는, 기 공지된 프레임 MB간의 모션 예측방법, 즉 frame_to_frame의 예측방식( 이는 정보의 단순한 모션정보의 복사이다. )을 적용한다.In the case of Fig. 14A, since the base layer is a frame and the current layer is an MBAFF frame, each macro block in the picture becomes a frame MB and a field MB in the MBAFF frame. Therefore, in the above-described case, I is applied to perform inter-layer motion prediction. However, as mentioned above, the MBAFF frame may include not only the field MB pair but also the frame MB pair in the same frame. Therefore, when the macroblock pair in the picture of the temporary base layer and the corresponding macroblock pair of the current layer are not the field MB but the frame MB, the motion prediction method between the known frame MBs, that is, the prediction method of the frame_to_frame ( It is a copy of motion information.)

B). 베이스 레이어:순차주사방식의 프레임 -> 인핸스드 레이어:비월주사방식의 필드B). Base Layer: Sequential Scanning Frame-> Enhanced Layer: Interlaced Fields

도 14b는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 베이스 레이어의 대응 프레임의 모든 매크로 블록의 텍스처 정보와 모션 정보를 복사하여 가상의 프레임을 만든 후, 그 가상 프레임에 대해서 업샘플링을 수행한다. 이 업샘플링은 베이스 레이어의 해상도가 현재 레이어의 해상도와 동일해지도록 하는 비율로 이루어진다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 필드 픽처내의 필드 MB이므로, 전술한 경우 II를 적용하여 레이어간 모션 예측을 수행한다.Fig. 14B shows the processing method for this case. As shown in the drawing, the texture information and motion information of all macroblocks of the corresponding frame of the base layer are copied to create a virtual frame, and then upsampling is performed on the virtual frame. This upsampling is done at a rate such that the resolution of the base layer is equal to the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB, and each macro block of the current layer is a field MB in the field picture, inter-layer motion prediction is performed by applying II as described above.

C). 베이스 레이어:MBAFF 프레임 -> 인핸스드 레이어:순차주사방식의 프레임C). Base Layer: MBAFF Frame-> Enhanced Layer: Sequential Scan Frame

도 14c는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼 저, 베이스 레이어의 대응 MBAFF 프레임을 순차주사방식의 프레임으로 변환한다. MBAFF 프레임의 필드 MB쌍에 대해서는 순차주사방식의 프레임으로 변환하기 위해서는 전술한 경우 III의 방법을 적용하고 프레임 MB쌍에 대해서는 공지된 frame_to_frame의 예측방식을 적용한다. 물론, 이때의 III의 방법 적용은, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. Fig. 14C shows the processing method for this case. As shown, first, the corresponding MBAFF frame of the base layer is converted into a frame of a sequential scan method. In order to convert the field MB pair of the MBAFF frame into a sequential scanning method, the above-described method III is applied, and a known frame_to_frame prediction method is applied to the MB pair of frames. Of course, the method of III is to generate the motion information of the virtual frame and each macroblock in the frame by using the data obtained by the inter-layer prediction. It does not perform the operation of coding.

가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 업샘플링을 수행한다. 이 업샘플링은 베이스 레이어의 해상도가 현재 레이어의 해상도와 동일해지도록 하는 비율로 이루어진다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록도 프레임 MB이므로, 기 공지되어 있는 프레임 MB 대 프레임 MB의 레이어간 모션 예측을 수행한다.If a virtual frame is obtained, upsampling is performed on the virtual frame. This upsampling is done at a rate such that the resolution of the base layer is equal to the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is also a frame MB, inter-layer motion prediction of a known frame MB to frame MB is performed.

D). 베이스 레이어:비월주사방식의 필드 -> 인핸스드 레이어:순차주사방식의 프레임D). Base layer: Interlaced fields-> Enhanced layer: Sequential scan frame

도 14d는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 대응 필드를 순차주사방식의 프레임으로 변환한다. 비월주사 방식의 필드를 순차주사방식의 프레임으로 변환하기 위해서는 업샘플링과 전술한 경우 IV의 방법을 적용한다. 물론, 이때의 IV의 방법 적용도, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. Fig. 14D shows the processing method for this case. As shown, first, the corresponding field of the base layer is converted into a frame of a sequential scan method. In order to convert an interlaced field into a sequential scan frame, upsampling and IV described above are applied. Of course, the method of IV is also used to generate motion information of a virtual frame and each macroblock within the frame using data obtained by inter-layer prediction. It does not perform the operation of coding.

가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 현재 레이어의 해상도와 동일해지도록 업샘플링을 수행한다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록도 프레임 MB이므로, 기 공지되어 있는 프레임 MB 대 프레임 MB의 레이어간 모션 예측을 수행한다.If a virtual frame is obtained, upsampling is performed on the virtual frame to be equal to the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is also a frame MB, inter-layer motion prediction of a known frame MB to frame MB is performed.

E). 베이스 레이어:MBAFF 프레임 -> 인핸스드 레이어:MBAFF 프레임E). Base Layer: MBAFF Frame-> Enhanced Layer: MBAFF Frame

도 14e는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 대응 MBAFF 프레임을 순차주사방식의 프레임으로 변환한다. MBAFF 프레임을 순차주사방식의 프레임으로 변환하기 위해서는, 필드 MB쌍에 대해서 전술한 경우 III의 방법을 적용하고 프레임 MB쌍에 대해서는 frame_to_frame의 예측방식을 적용한다. 물론, 이때의 III의 방법 적용은, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션 정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. Fig. 14E shows the processing method for this case. As shown, first, the corresponding MBAFF frame of the base layer is converted into a frame of a sequential scan method. In order to convert an MBAFF frame into a sequential scanning method, the method in case III described above is applied to the field MB pair, and the prediction method of frame_to_frame is applied to the frame MB pair. Of course, the application of the method of III at this time is to generate the motion information of the virtual frame and each macroblock in the frame using the data obtained by the inter-layer prediction. It does not perform the operation of coding.

가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 현재 레이어의 해상도와 일치하도록 업샘플링을 수행한다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 MBAFF 프레임내의 필드 MB이므로, 전술한 I의 방법을 적용하여 레이어간 모션 예측을 수행한다. 그런데, 앞서 언급한 바와 같이, MBAFF 프레임은 필드 MB쌍외에 프레임 MB쌍도 동일 프레임내에 포함하고 있을 수 있다. 따라서, 잠정 베이스 레이어의 픽처내의 매크로 블록쌍과 대응하는 현재 레이어의 매크로 블록쌍이 필드 MB가 아니고 프레임 MB인 경우에는, 기 공지된 프레임 MB간의 모션 예측방법, 즉 frame_to_frame의 예측방식( 모션정보의 복사 )을 적용한다.Once the virtual frame is obtained, upsampling is performed on the virtual frame to match the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is a field MB in the MBAFF frame, inter-layer motion prediction is performed by applying the above-described method. However, as mentioned above, the MBAFF frame may include not only the field MB pair but also the frame MB pair in the same frame. Therefore, when the macroblock pair of the current layer corresponding to the macroblock pair in the picture of the temporary base layer is not a field MB but a frame MB, a motion prediction method between previously known frame MBs, that is, a prediction method of frame_to_frame (copy of motion information). ).

F). 베이스 레이어:MBAFF 프레임 -> 인핸스드 레이어:비월주사방식의 필드F). Base Layer: MBAFF Frame-> Enhanced Layer: Interlaced Fields

도 14f는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 대응 MBAFF 프레임을 순차주사방식의 프레임으로 변환한다. MBAFF 프레임을 순차주사방식의 프레임으로 변환하기 위해서는, 필드 MB쌍에 대해서는 전술한 경우 III의 방법을 적용하고 프레임 MB쌍에 대해서는 frame_to_frame의 예측방식을 적용한다. 물론, 이때의 III의 방법 적용도, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. Fig. 14F shows the processing method for this case. As shown, first, the corresponding MBAFF frame of the base layer is converted into a frame of a sequential scan method. In order to convert an MBAFF frame into a sequential scanning method, the above-described method III is applied to the field MB pair, and the prediction method of frame_to_frame is applied to the frame MB pair. Of course, the method of III is also used to generate motion information of a virtual frame and each macroblock within the frame using data obtained by inter-layer prediction. It does not perform the operation of coding.

가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 현재 레이어의 해상도와 일치하도록 업샘플링을 수행한다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 우수 또는 기수 필드내의 필드 MB이므로, 전술한 II의 방법을 적용하여 레이어간 모션 예측을 수행한다.Once the virtual frame is obtained, upsampling is performed on the virtual frame to match the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macroblock in the picture of the provisional base layer configured as described above is a frame MB and each macroblock of the current layer is a field MB in even or odd fields, inter-layer motion prediction is performed by applying the method of II described above.

G). 베이스 레이어:비월주사방식의 필드 -> 인핸스드 레이어:MBAFF 프레임도 14g는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 비월주사방식의 필드를 순차주사방식의 프레임으로 변환한다. 비월주사방식의 필드를 순차주사방식의 프레임으로 변환하기 위해서는 업샘플링과 전술한 경우 IV의 방법을 적용한다. 물론, 이때의 IV의 방법 적용도, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. G). Base layer: interlaced field-> enhanced layer: MBAFF frame Figure 14g shows the processing method for this case. As shown, first, the interlaced field of the base layer is converted into a progressive scan frame. In order to convert an interlaced field into a sequential scan frame, upsampling and IV described above are applied. Of course, the method of IV is also used to generate motion information of a virtual frame and each macroblock within the frame using data obtained by inter-layer prediction. It does not perform the operation of coding.

가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 현재 레이어의 해상도와 일치하도록 업샘플링을 수행한다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 MBAFF 프레임내의 필드 MB이므로, 전술한 I의 방법을 적용하여 레이어간 모션 예측을 수행한다. 그런데, MBAFF 프레임은 앞서 언급한 바와 같이, 필드 MB쌍외에 프레임 MB쌍도 동일 프레임내에 포함하고 있을 수 있으므로, 잠정 베이스 레이어의 픽처내의 매크로 블록쌍과 대응하는 현재 레이어의 매크로 블록쌍이 필드 MB가 아니고 프레임 MB인 경우에는, 전술한 I의 예측방법이 아닌 기 공지된 프레임 MB간의 모션 예측방법, 즉 frame_to_frame의 예측방식을 적용한다.Once the virtual frame is obtained, upsampling is performed on the virtual frame to match the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is a field MB in the MBAFF frame, inter-layer motion prediction is performed by applying the above-described method. However, as mentioned above, the MBAFF frame may include frame MB pairs in addition to the field MB pairs in the same frame. In the case of the frame MB, the motion prediction method between frame MBs known in advance, that is, the frame_to_frame prediction method, is applied instead of the aforementioned I prediction method.

H). 베이스 레이어:비월주사방식의 필드 -> 인핸스드 레이어:비월주사방식의 필드H). Base Layer: Interlaced Fields-> Enhanced Layer: Interlaced Fields

도 14h는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 베이스 레이어의 대응 필드의 모든 매크로 블록의 텍스처 정보와 모션 정보를 복사하여 가상의 필드를 만든 후, 그 가상 필드에 대해서 업샘플링을 수행한다. 이 업샘플링은 베이스 레이어의 해상도가 현재 레이어의 해상도와 동일해지도록 하는 비율로 이루어진다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 필드의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크 로 블록은 필드 픽처내의 필드 MB이고, 현재 레이어의 각 매크로 블록도 또한 필드 픽처내의 필드 MB이므로, 전술한 V의 iv)의 경우를 적용하여 레이어간 모션 예측을 수행한다.Fig. 14H shows the processing method for this case. As shown, a virtual field is created by copying texture information and motion information of all macroblocks of a corresponding field of a base layer, and then upsampling is performed on the virtual field. This upsampling is done at a rate such that the resolution of the base layer is equal to the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual field. Since each macro block in the picture of the provisional base layer configured as described above is a field MB in the field picture, and each macro block of the current layer is also a field MB in the field picture, the inter-layer motion is applied by applying the above-described case of V). Make predictions.

지금까지는 도 2a 또는 2b의 장치에서의 EL 엔코더(20)가 수행하는 레이어간 예측동작을 설명하였다. 하지만, 전술한 모든 레이어간 예측동작의 설명은 베이스 레이어로부터 디코딩된 정보를 수신하여 인핸스드 레이어의 스트림을 디코딩하는 인핸스드 레이어의 디코더에도 동일하게 적용될 수 있다. 엔코딩과 디코딩 과정에서는 전술한 레이어간 예측동작이 동일하게 수행되며, 다만 레이어간 예측이후의 동작이 상이할 뿐이다. 예를 들어 엔코더는, 모션 예측을 수행한 후 그 예측된 정보를 또는 예측된 정보와 실제 정보와의 차정보를 디코더로 전송하기 위해 코딩하지만, 디코더는 엔코더에서 수행된 것과 동일한 레이어간 모션 예측에 의해 얻은 정보를 그대로 현 매크로 블록에 적용하여, 또는 실제 수신한 매크로 블록의 모션정보를 추가로 이용하여 실제 모션정보를 구하는 점이 상이할 뿐이다. 따라서, 엔코딩관점에서 전술한 본 발명의 내용과 그 원리는 수신되는 양 레이어의 데이터 스트림을 디코딩하는 디코더에도 그대로 적용된다.The interlayer prediction operation performed by the EL encoder 20 in the apparatus of FIG. 2A or 2B has been described so far. However, the above description of all the inter-layer prediction operations may be equally applied to the decoder of the enhanced layer that receives the decoded information from the base layer and decodes the stream of the enhanced layer. In the encoding and decoding process, the above-described inter-layer prediction operation is performed in the same manner, except that the operations after the inter-layer prediction are different. For example, the encoder performs motion prediction and then codes the predicted information or the difference between the predicted information and the actual information to send to the decoder, but the decoder does not use the same inter-layer motion prediction as performed at the encoder. The only difference is that the actual motion information is obtained by applying the obtained information to the current macro block as it is or by additionally using the motion information of the actually received macro block. Thus, the teachings and principles of the invention described above in terms of encoding apply equally to decoders that decode the data streams of both layers received.

본 발명은 전술한 전형적인 바람직한 실시예에만 한정되는 것이 아니라 본 발명의 요지를 벗어나지 않는 범위 내에서 여러 가지로 개량, 변경, 대체 또는 부가하여 실시할 수 있는 것임은 당해 기술분야에 통상의 지식을 가진 자라면 용이하게 이해할 수 있을 것이다. 이러한 개량, 변경, 대체 또는 부가에 의한 실시가 이하의 첨부된 특허청구범위의 범주에 속하는 것이라면 그 기술사상 역시 본 발명에 속하는 것으로 보아야 한다. It is to be understood that the present invention is not limited to the above-described exemplary preferred embodiments, but may be embodied in various ways without departing from the spirit and scope of the present invention. If you grow up, you can easily understand. If the implementation by such improvement, change, replacement or addition falls within the scope of the appended claims, the technical idea should also be regarded as belonging to the present invention.

제한된 실시예로써 상술한 본 발명의 적어도 하나의 실시예는, 서로 다른 방식의 영상신호 소스를 사용하여서도 레이어간 예측을 수행할 수 있게 하므로, 복수 레이어의 코딩시에 영상신호의 픽처 유형( 비월주사방식 신호, 순차주사방식 신호, MBAFF 프레임방식의 픽처, 필드 픽처 등 )에 무관하게 데이터 코딩율을 높일 수가 있다.As a limited embodiment of the present invention, at least one embodiment of the present invention enables to perform inter-layer prediction even by using different types of video signal sources. The data coding rate can be increased irrespective of the scanning signal, the progressive scanning signal, the MBAFF frame picture, the field picture, etc.).

Claims (18)

영상신호의 엔코딩/디코딩시에 레이어간 모션 예측을 행하는 방법에 있어서,In the method for performing inter-layer motion prediction during encoding / decoding of a video signal, 베이스 레이어의 수직으로 인접된 인터(inter) 모드와 인트라(intra) 모드의 양 매크로 블록에 대해, 상기 인터 모드의 매크로 블록의 모션에 대한 정보를 상기 인트라 모드의 매크로 블록의 모션에 대한 정보로 설정하는 단계와,For both vertically adjacent inter mode and intra mode macroblocks of the base layer, information about the motion of the macroblock of the inter mode is set as information about the motion of the macroblock of the intra mode. And the steps 상기 양 매크로 블록에 근거하여, 레이어간 모션 예측에 사용될 수직으로 인접된 매크로 블록쌍에 대한 모션정보를 유도하는 단계를 포함하는 방법.Based on the two macroblocks, deriving motion information for a pair of vertically adjacent macroblocks to be used for inter-layer motion prediction. 제 1항에 있어서,The method of claim 1, 상기 설정되는 모션에 대한 정보는, 모션벡터와 참조 인덱스에 대한 정보인 것인 방법.The information about the set motion is information about a motion vector and a reference index. 제 1항에 있어서,The method of claim 1, 상기 설정되는 모션에 대한 정보는 참조 인덱스에 대한 정보인 것인 방법.And the information about the set motion is information about a reference index. 제 3항에 있어서,The method of claim 3, wherein 상기 설정단계는, 또한 상기 인트라 모드의 매크로 블록이 0의 모션벡터를 갖는 것으로 설정하는 것인 방법.The setting step further includes setting the macro block of the intra mode to have a motion vector of zero. 제 1항에 있어서,The method of claim 1, 상기 설정단계와 모션정보를 유도하는 단계 간에, 상기 양 매크로 블록의 모션에 대한 정보를 이용하여 상기 양 매크로 블록의 분할모드를 결정하는 단계를 더 포함하는 것인 방법.And determining the division mode of both macroblocks using information on the motions of both macroblocks between the setting step and deriving the motion information. 제 1항에 있어서,The method of claim 1, 상기 양 매크로 블록은, 필드성분의 영상에 대한 매크로 블록들인 것인 방법.Wherein both macroblocks are macroblocks for an image of a field component. 제 6항에 있어서,The method of claim 6, 레이어간 모션예측에 사용될 상기 수직으로 인접된 매크로 블록쌍은, 프레임성분의 영상에 대한 매크로 블록쌍인 것인 방법.And said vertically adjacent macroblock pair to be used for inter-layer motion prediction is a macroblock pair for an image of a frame component. 제 1항에 있어서,The method of claim 1, 상기 양 매크로 블록은, 프레임성분의 영상에 대한 매크로 블록들인 것인 방법.Wherein both macroblocks are macroblocks for an image of a frame component. 제 8항에 있어서,The method of claim 8, 레이어간 모션예측에 사용될 상기 수직으로 인접된 매크로 블록쌍은, 필드성분의 영상에 대한 매크로 블록쌍인 것인 방법.And said vertically adjacent macroblock pair to be used for inter-layer motion prediction is a macroblock pair for a field component image. 제 1항에 있어서,The method of claim 1, 상기 모션정보를 유도하는 단계는, 상기 양 매크로블록의 모션에 대한 정보로부터 가상의 인터모드의 매크로 블록쌍의 모션정보를 유도하는 단계와,The deriving of the motion information may include deriving motion information of a pair of macroblocks of a virtual intermode from information about motions of both macroblocks; 상기 가상의 인터 모드의 매크로 블록쌍의 모션정보를 사용하여, 레이어간 모션예측에 사용될 상기 수직으로 인접된 매크로 블록쌍의 모션정보를 유도하는 단계를 포함하여 이루어지는 것인 방법.Deriving motion information of the vertically adjacent macroblock pair to be used for inter-layer motion prediction using the motion information of the macro block pair of the virtual inter mode. 영상신호의 엔코딩/디코딩시에 레이어간 모션 예측을 행하는 방법에 있어서,In the method for performing inter-layer motion prediction during encoding / decoding of a video signal, 베이스 레이어의 수직으로 인접된 인터(inter) 모드와 인트라(intra) 모드의 양 매크로 블록 중, 인트라 모드의 매크로 블록에 대해 모션에 대한 정보가 0인 인터 모드의 블록으로 설정하는 단계와,Setting the interlayer macro blocks in the intra mode and the intra mode to the inter mode in which the information on the motion is zero for the macro blocks in the intra mode; 상기 양 매크로 블록에 근거하여, 레이어간 모션예측에 사용될 수직으로 인접된 매크로 블록쌍에 대한 모션정보를 유도하는 단계를 포함하는 방법.Deriving motion information for a pair of vertically adjacent macro blocks to be used for inter-layer motion prediction based on the two macro blocks. 제 11항에 있어서,The method of claim 11, 상기 0으로 설정되는 모션에 대한 정보는, 모션벡터와 참조 인덱스에 대한 정보인 것인 방법.The information about the motion set to 0 is information about a motion vector and a reference index. 제 11항에 있어서,The method of claim 11, 상기 설정단계와 모션정보를 구하는 단계 간에, 상기 양 매크로 블록의 모션 에 대한 정보를 이용하여 상기 양 매크로 블록의 분할모드를 결정하는 단계를 더 포함하는 것인 방법.And determining the division mode of both macroblocks using information on the motions of both macroblocks between the setting step and obtaining motion information. 제 11항에 있어서,The method of claim 11, 상기 양 매크로 블록은, 필드성분의 영상에 대한 매크로 블록들인 것인 방법.Wherein both macroblocks are macroblocks for an image of a field component. 제 14항에 있어서,The method of claim 14, 레이어간 모션예측에 사용될 상기 수직으로 인접된 매크로 블록쌍은, 프레임성분의 영상에 대한 매크로 블록쌍인 것인 방법.And said vertically adjacent macroblock pair to be used for inter-layer motion prediction is a macroblock pair for an image of a frame component. 제 11항에 있어서,The method of claim 11, 상기 양 매크로 블록은, 프레임성분의 영상에 대한 매크로 블록들인 것인 방법.Wherein both macroblocks are macroblocks for an image of a frame component. 제 16항에 있어서,The method of claim 16, 레이어간 모션 예측에 사용될 상기 수직으로 인접된 매크로 블록쌍은, 필드성분의 영상에 대한 매크로 블록쌍인 것인 방법.And said vertically adjacent macroblock pair to be used for inter-layer motion prediction is a macroblock pair for a field component image. 제 11항에 있어서,The method of claim 11, 상기 모션정보를 유도하는 단계는, 상기 양 매크로블록의 모션에 대한 정보로 부터 가상의 인터모드의 매크로 블록쌍의 모션정보를 유도하는 단계와,The deriving of the motion information may include deriving motion information of a macroblock pair of a virtual inter mode from information on the motions of both macroblocks; 상기 가상의 인터 모드의 매크로 블록쌍의 모션정보를 사용하여, 레이어간 모션예측에 사용될 상기 수직으로 인접된 매크로 블록쌍의 모션정보를 유도하는 단계를 포함하여 이루어지는 것인 방법.Deriving motion information of the vertically adjacent macroblock pair to be used for inter-layer motion prediction using the motion information of the macro block pair of the virtual inter mode.
KR1020070001587A 2006-01-09 2007-01-05 Inter-layer motion prediction method for video signal KR20070075293A (en)

Priority Applications (62)

Application Number Priority Date Filing Date Title
JP2008550229A JP4991760B2 (en) 2006-01-09 2007-01-09 Interlayer prediction method for video signals
CN2007800057826A CN101385355B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000148 WO2007081140A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017201A KR100904442B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000146 WO2007081138A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CA2636571A CA2636571C (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700919.9A EP1977609A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550228A JP4991759B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
CN2007800053238A CN101385348B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000145 WO2007081137A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700917.3A EP1972154A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000140 WO2007081133A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700913.2A EP1980114A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,515 US8345755B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,488 US8494060B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,525 US8687688B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017198A KR100917829B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,471 US8401091B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000143 WO2007081135A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550225A JP4991756B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
EP07700916.5A EP1972153A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550224A JP5106419B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method and apparatus
KR1020087017204A KR100917206B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,466 US8264968B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700914.0A EP1972152A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN201210585882.3A CN103096078B (en) 2006-01-09 2007-01-09 For inter-layer prediction method and the device of vision signal
US12/087,523 US8792554B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000147 WO2007081139A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017196A KR100904441B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017203A KR20080092372A (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,526 US8457201B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020097021246A KR101055742B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020097011954A KR101055741B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550227A JP4991758B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
KR1020087017202A KR100904443B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800057614A CN101385354B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
AU2007205337A AU2007205337B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800056467A CN101385351B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017197A KR100914713B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,464 US8494042B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017199A KR20090016544A (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550231A JP4991762B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method and apparatus
US12/087,518 US8451899B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550226A JP4991757B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
JP2008550230A JP4991761B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
PCT/KR2007/000142 WO2007100187A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000144 WO2007081136A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700921.5A EP1977610B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800056166A CN101385350B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN200780005672XA CN101385352B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000141 WO2007081134A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700918.1A EP1977608B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700920.7A EP1972155A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017195A KR100914712B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800057544A CN101385353B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700915.7A EP1977607A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550232A JP4991763B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
HK09106197.9A HK1128843A1 (en) 2006-01-09 2009-07-10 Inter-layer prediction method for video signal
HK09106200.4A HK1128571A1 (en) 2006-01-09 2009-07-10 Inter-layer prediction method for video signal
HK09106198.8A HK1129013A1 (en) 2006-01-09 2009-07-10 Inter-layer prediction method for video signal
US12/659,389 US8619872B2 (en) 2006-01-09 2010-03-08 Inter-layer prediction method for video signal
US14/178,751 US9497453B2 (en) 2006-01-09 2014-02-12 Inter-layer prediction method for video signal

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US75823506P 2006-01-12 2006-01-12
US60/758,235 2006-01-12
US77693506P 2006-02-28 2006-02-28
US60/776,935 2006-02-28
US78749606P 2006-03-31 2006-03-31
US60/787,496 2006-03-31
US83060006P 2006-07-14 2006-07-14
US60/830,600 2006-07-14

Publications (1)

Publication Number Publication Date
KR20070075293A true KR20070075293A (en) 2007-07-18

Family

ID=38500441

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070001587A KR20070075293A (en) 2006-01-09 2007-01-05 Inter-layer motion prediction method for video signal

Country Status (1)

Country Link
KR (1) KR20070075293A (en)

Similar Documents

Publication Publication Date Title
KR100904441B1 (en) Inter-layer prediction method for video signal
KR100896279B1 (en) Method for scalably encoding and decoding video signal
KR101479141B1 (en) Coding Method and Apparatus by Using Tree Structure
KR100913104B1 (en) Method of encoding and decoding video signals
KR20070074452A (en) Inter-layer prediction method for video signal
KR20060109279A (en) Method for scalably encoding and decoding video signal
CN107534780A (en) The coding and decoding of inter picture in video
KR20070075257A (en) Inter-layer motion prediction method for video signal
KR20070095180A (en) Inter-layer prediction method for video signal based on picture types
CN101491100B (en) Method and device for deriving motion data for high resolution pictures from motion data of low resolution pictures
KR20070075293A (en) Inter-layer motion prediction method for video signal
KR101370892B1 (en) Inter-layer motion prediction method for video blocks
KR20070092591A (en) Inter-layer prediction method for video signal
KR20070120411A (en) Method for encoding and decoding video signal