KR20070095180A - Inter-layer prediction method for video signal based on picture types - Google Patents

Inter-layer prediction method for video signal based on picture types Download PDF

Info

Publication number
KR20070095180A
KR20070095180A KR1020070001582A KR20070001582A KR20070095180A KR 20070095180 A KR20070095180 A KR 20070095180A KR 1020070001582 A KR1020070001582 A KR 1020070001582A KR 20070001582 A KR20070001582 A KR 20070001582A KR 20070095180 A KR20070095180 A KR 20070095180A
Authority
KR
South Korea
Prior art keywords
picture
layer
frame
virtual
prediction
Prior art date
Application number
KR1020070001582A
Other languages
Korean (ko)
Inventor
박승욱
전병문
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to CN200780005672XA priority Critical patent/CN101385352B/en
Priority to US12/087,518 priority patent/US8451899B2/en
Priority to KR1020087017195A priority patent/KR100914712B1/en
Priority to CA2636571A priority patent/CA2636571C/en
Priority to US12/087,488 priority patent/US8494060B2/en
Priority to EP07700917.3A priority patent/EP1972154A4/en
Priority to CN2007800057544A priority patent/CN101385353B/en
Priority to JP2008550228A priority patent/JP4991759B2/en
Priority to EP07700919.9A priority patent/EP1977609A4/en
Priority to EP07700921.5A priority patent/EP1977610B1/en
Priority to KR1020087017196A priority patent/KR100904441B1/en
Priority to US12/087,471 priority patent/US8401091B2/en
Priority to JP2008550227A priority patent/JP4991758B2/en
Priority to JP2008550231A priority patent/JP4991762B2/en
Priority to JP2008550226A priority patent/JP4991757B2/en
Priority to EP07700914.0A priority patent/EP1972152A4/en
Priority to PCT/KR2007/000148 priority patent/WO2007081140A1/en
Priority to KR1020087017198A priority patent/KR100917829B1/en
Priority to JP2008550225A priority patent/JP4991756B2/en
Priority to EP07700916.5A priority patent/EP1972153A4/en
Priority to JP2008550224A priority patent/JP5106419B2/en
Priority to PCT/KR2007/000144 priority patent/WO2007081136A1/en
Priority to EP07700913.2A priority patent/EP1980114A4/en
Priority to KR1020087017199A priority patent/KR20090016544A/en
Priority to KR1020087017197A priority patent/KR100914713B1/en
Priority to KR1020087017201A priority patent/KR100904442B1/en
Priority to US12/087,525 priority patent/US8687688B2/en
Priority to PCT/KR2007/000146 priority patent/WO2007081138A1/en
Priority to CN201210585882.3A priority patent/CN103096078B/en
Priority to EP07700920.7A priority patent/EP1972155A4/en
Priority to CN2007800057826A priority patent/CN101385355B/en
Priority to PCT/KR2007/000142 priority patent/WO2007100187A1/en
Priority to CN2007800053238A priority patent/CN101385348B/en
Priority to KR1020097021246A priority patent/KR101055742B1/en
Priority to CN2007800057614A priority patent/CN101385354B/en
Priority to US12/087,515 priority patent/US8345755B2/en
Priority to US12/087,523 priority patent/US8792554B2/en
Priority to JP2008550230A priority patent/JP4991761B2/en
Priority to US12/087,466 priority patent/US8264968B2/en
Priority to PCT/KR2007/000141 priority patent/WO2007081134A1/en
Priority to PCT/KR2007/000145 priority patent/WO2007081137A1/en
Priority to AU2007205337A priority patent/AU2007205337B2/en
Priority to US12/087,464 priority patent/US8494042B2/en
Priority to JP2008550229A priority patent/JP4991760B2/en
Priority to PCT/KR2007/000143 priority patent/WO2007081135A1/en
Priority to PCT/KR2007/000140 priority patent/WO2007081133A1/en
Priority to KR1020087017204A priority patent/KR100917206B1/en
Priority to CN2007800056467A priority patent/CN101385351B/en
Priority to US12/087,526 priority patent/US8457201B2/en
Priority to JP2008550232A priority patent/JP4991763B2/en
Priority to RU2008132819/09A priority patent/RU2384970C1/en
Priority to EP07700915.7A priority patent/EP1977607A4/en
Priority to EP07700918.1A priority patent/EP1977608B1/en
Priority to CN2007800056166A priority patent/CN101385350B/en
Priority to KR1020087017203A priority patent/KR20080092372A/en
Priority to KR1020087017202A priority patent/KR100904443B1/en
Priority to PCT/KR2007/000147 priority patent/WO2007081139A1/en
Priority to KR1020097011954A priority patent/KR101055741B1/en
Publication of KR20070095180A publication Critical patent/KR20070095180A/en
Priority to HK09106198.8A priority patent/HK1129013A1/en
Priority to HK09106197.9A priority patent/HK1128843A1/en
Priority to HK09106200.4A priority patent/HK1128571A1/en
Priority to US12/659,389 priority patent/US8619872B2/en
Priority to US14/178,751 priority patent/US9497453B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/02Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles the seat or part thereof being movable, e.g. adjustable
    • B60N2/0224Non-manual adjustments, e.g. with electrical operation
    • B60N2/02246Electric motors therefor
    • B60N2/02253Electric motors therefor characterised by the transmission between the electric motor and the seat or seat parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N3/00Arrangements or adaptations of other passenger fittings, not otherwise provided for
    • B60N3/06Arrangements or adaptations of other passenger fittings, not otherwise provided for of footrests
    • B60N3/063Arrangements or adaptations of other passenger fittings, not otherwise provided for of footrests with adjustment systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/14Trucks; Load vehicles, Busses
    • B60Y2200/143Busses

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

An interlayer prediction method according to a picture type for encoding/decoding an image signal is provided to perform interlayer prediction even when different image signal sources are used to increase a data coding rate irrespective of the picture types of image signals when multiple layers are coded. An interlayer prediction method derives motion information on each of two macro-blocks from motion information of a single field macro-block of a base layer or motion information of a single field macro-block selected from a pair of vertically neighboring field macro-blocks, and uses the derived motion information as prediction information of motion information of a frame macro-block pair of a current layer.

Description

영상신호의 엔코딩/디코딩시의 픽처유형에 따른 레이어간 예측 방법 {Inter-layer prediction method for video signal based on picture types}Inter-layer prediction method for video signal based on picture types when encoding / decoding video signal

도 1a 및 1b는 단일 영상소스로부터 복수 레이어로 코딩하는 방식을 각각 예시한 것이고,1A and 1B illustrate a method of coding a plurality of layers from a single image source, respectively.

도 2a 및 2b는 본 발명에 따른 레이어간 예측방법이 적용되는 영상신호 엔코딩 장치의 구성을 간략히 도시한 것이고,2A and 2B briefly illustrate a configuration of an image signal encoding apparatus to which the inter-layer prediction method according to the present invention is applied.

도 3a 및 3b는 비월주사방식의 영상신호를 엔코딩하는 픽처 시퀀스의 유형을 각기 도시한 것이고,3A and 3B illustrate types of picture sequences encoding video signals of an interlaced scan method, respectively.

도 4a 내지 4f는, 본 발명의 일 실시예에 따라, 프레임(frame) 매크로 블록(MB)의 모션정보를 이용하여, MBAFF 프레임내의 필드(field) MB의 레이어간 모션예측에 사용될 가상 베이스 레이어의 필드 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,4A through 4F illustrate a virtual base layer to be used for inter-layer motion prediction of a field MB in an MBAFF frame using motion information of a frame macro block MB according to an embodiment of the present invention. It schematically shows a process of deriving the motion information of the field MB,

도 5a 내지 5b는, 본 발명의 다른 일 실시예에 따른, 참조 인덱스와 모션정보의 유도과정을 예시한 것이고,5A to 5B illustrate a derivation process of a reference index and motion information according to another embodiment of the present invention.

도 6a 내지 6c는, 본 발명의 일 실시예에 따라, 프레임 MB의 모션정보를 이용하여 가상 베이스 레이어의 필드 MB의 모션정보를 유도하는 과정을 도식적으로 나 타낸 것이고,6A to 6C schematically illustrate a process of deriving motion information of a field MB of a virtual base layer using motion information of a frame MB according to an embodiment of the present invention.

도 7a 내지 7b는, 본 발명의 다른 일 실시예에 따른, 참조 인덱스와 모션정보의 유도과정을 예시한 것이고,7A to 7B illustrate a derivation process of a reference index and motion information according to another embodiment of the present invention.

도 8a 내지 8c는, 본 발명의 일 실시예에 따라, MBAFF 프레임내의 필드 MB 의 모션정보를 이용하여, 레이어간 모션예측에 사용될 가상 베이스 레이어의 필드 MB프레임 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,8A to 8C schematically illustrate a process of deriving motion information of a field MB frame MB of a virtual base layer to be used for inter-layer motion prediction using motion information of field MB in an MBAFF frame according to an embodiment of the present invention. Represented by

도 9a 및 9b는, 본 발명의 다른 실시예들에 따른, 참조 인덱스와 모션정보의 유도과정을 각각 예시한 것이고,9A and 9B illustrate a derivation process of a reference index and motion information according to other embodiments of the present invention, respectively.

도 10a 내지 10c는, 본 발명의 일 실시예에 따라, 필드 픽처내의 필드 MB의 모션정보를 이용하여, 레이어간 모션예측에 사용될 가상 베이스 레이어의 프레임 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,10A to 10C schematically illustrate a process of deriving motion information of frame MB of a virtual base layer to be used for inter-layer motion prediction using motion information of field MB in a field picture according to an embodiment of the present invention. Will,

도 11은, 본 발명의 다른 일 실시예에 따른, 참조 인덱스와 모션정보의 유도과정을 예시한 것이고,11 illustrates a derivation process of a reference index and motion information according to another embodiment of the present invention.

도 12a 및 12b는, 본 발명의 다른 일 실시예에 따라, 필드 픽처내의 필드 MB의 모션정보를 이용하여, 레이어간 모션예측에 사용될 가상 베이스 레이어의 프레임 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,12A and 12B schematically illustrate a process of deriving motion information of a frame MB of a virtual base layer to be used for inter-layer motion prediction using motion information of a field MB in a field picture according to another embodiment of the present invention. Shown,

도 13a 내지 13d는, 본 발명의 일 실시예에 따라, 필드 MB의 모션정보를 이용하여, 레이어간 모션예측에 사용될 가상 베이스 레이어의 필드 MB의 모션정보를 유도하는 과정을 픽처의 유형에 따라 각기 구분하여 도식적으로 나타낸 것이고,13A to 13D illustrate a process of deriving motion information of field MB of a virtual base layer to be used for inter-layer motion prediction using motion information of field MB according to the type of picture, according to an embodiment of the present invention. Are shown diagrammatically,

도 14a 내지 14k는, 본 발명의 여러 실시예들에 따라, 레이어간 해상도가 상 이한 경우에 레이어간 예측을 수행하는 방법을 픽처의 유형에 따라 각기 구분하여 도시한 것이다.14A to 14K illustrate a method of performing inter-layer prediction when the inter-layer resolution is different according to various embodiments of the present disclosure, separately according to the type of picture.

<도면의 주요부분에 대한 부호의 설명> <Description of the symbols for the main parts of the drawings>

20: EL 엔코더 21: BL 엔코더20: EL encoder 21: BL encoder

본 발명은, 영상신호를 엔코딩/디코딩할 때 레이어간의 예측방법에 관한 것이다. The present invention relates to a prediction method between layers when encoding / decoding a video signal.

스케일러블 영상 코덱(SVC:Scalable Video Codec) 방식은 영상신호를 엔코딩함에 있어, 최고 화질로 엔코딩하되, 그 결과로 생성된 픽처 시퀀스의 부분 시퀀스( 시퀀스 전체에서 간헐적으로 선택된 프레임의 시퀀스 )를 디코딩해 사용해도 저화질의 영상 표현이 가능하도록 하는 방식이다. The scalable video codec (SVC) method encodes a video signal at the highest quality, but decodes a partial sequence of the resulting picture sequence (a sequence of intermittently selected frames throughout the sequence). Even if it is used, it is a way to enable a low-quality video representation.

그런데, 스케일러블 방식으로 엔코딩된 픽처 시퀀스는 그 부분 시퀀스만을 수신하여 처리함으로써도 저화질의 영상 표현이 가능하지만, 비트레이트(bitrate)가 낮아지는 경우 화질저하가 크게 나타난다. 이를 해소하기 위해서 낮은 전송률을 위한 별도의 보조 픽처 시퀀스, 예를 들어 소화면 및/또는 초당 프레임수 등이 낮은 픽처 시퀀스를 적어도 하나 이상의 레이어로서 계층적 구조로 제공할 수도 있다. By the way, a picture sequence encoded in a scalable manner can display a low quality image only by receiving and processing only a partial sequence. However, when the bit rate is lowered, the picture quality is greatly deteriorated. In order to solve this problem, a separate auxiliary picture sequence for a low data rate, for example, a small picture and / or a low picture sequence per frame may be provided in a hierarchical structure as at least one layer.

2개의 시퀀스를 가정할 때, 보조 시퀀스( 하위 시퀀스 )를 베이스 레이어(base layer)로, 주 픽처 시퀀스( 상위 시퀀스 )를 인핸스드(enhanced)( 또는 인핸스먼트(enhancement) ) 레이어라고 부른다. 그런데, 베이스 레이어와 인핸스드 레이어는 동일한 영상신호원을 엔코딩하는 것이므로 양 레이어의 영상신호에는 잉여정보( 리던던시(redundancy) )가 존재한다. 따라서 인핸스드 레이어의 코딩율(coding rate)을 높이기 위해, 베이스 레이어의 코딩된 정보( 모션정보 또는 텍스처(texture) 정보 )를 이용하여 인핸스드 레이어의 영상신호를 코딩한다.Assuming two sequences, the auxiliary sequence (lower sequence) is called a base layer, and the main picture sequence (higher sequence) is called an enhanced (or enhancement) layer. However, since the base layer and the enhanced layer encode the same video signal source, redundancy information exists in the video signals of both layers. Therefore, in order to increase the coding rate of the enhanced layer, the image signal of the enhanced layer is coded using the coded information (motion information or texture information) of the base layer.

이 때, 도 1a에 도시된 바와 같이 하나의 영상 소스(1)로부터 각기 다른 전송율을 갖는 복수의 레이어로 코딩할 수도 있지만, 도 1b에서와 같이 동일한 컨텐츠(2a)에 대한 것이지만 서로 다른 주사(scanning)방식을 갖는 복수의 영상 소스(2b)를 각각의 레이어로 코딩할 수도 있다. 하지만, 이 때에도 양 소스(2b)는 동일 컨텐츠(2a)이므로 상위 레이어를 코딩하는 엔코더는 하위 레이어의 코딩된 정보를 이용하는 레이어간 예측을 수행하게 되면 코딩이득을 높일 수 있다.In this case, as shown in FIG. 1A, although coding may be performed from one image source 1 to a plurality of layers having different data rates, different scanning may be performed on the same content 2a as in FIG. 1B. A plurality of image sources 2b having a) scheme may be coded into each layer. However, even at this time, since both sources 2b are the same content 2a, an encoder coding an upper layer may increase coding gain when inter-layer prediction using coded information of a lower layer is performed.

따라서, 서로 다른 소스로부터 각각의 레이어로 코딩할 때 각 영상신호의 주사방식을 고려한 레이어간 예측방안이 필요하다. 또한, 비월주사(interlaced) 방식의 영상을 코딩할 때도 우수(even) 및 기수(odd) 필드들로 코딩할 수도 있고, 하나의 프레임에 기수 및 우수 매크로 블록의 쌍(pair)으로 코딩할 수도 있다. 따라서, 비월주사 방식의 영상신호를 코딩하는 픽처의 유형도 레이어간 예측에 함께 고려되어야 한다.Therefore, when coding to different layers from different sources, an inter-layer prediction method considering the scanning method of each image signal is required. In addition, when coding an interlaced image, it may be coded into even and odd fields, or may be coded as a pair of odd and even macroblocks in one frame. . Therefore, the type of the picture coding the interlaced video signal should also be considered in inter-layer prediction.

본 발명의 일 목적은, 양 레이어중 적어도 한 레이어는 비월 주사 방식의 영상신호 성분을 갖는 조건하에 레이어간 예측을 수행하는 방법을 제공하는 것이다.An object of the present invention is to provide a method for performing inter-layer prediction under a condition in which at least one of both layers has an image signal component of interlaced scanning.

본 발명의 다른 목적은, 공간적 해상도(spatial scalability)가 상이한 픽처를 갖는 레이어간의 예측을 픽처 유형에 따라 수행하는 방법을 제공하는 것이다.Another object of the present invention is to provide a method for performing prediction between layers having pictures having different spatial scalability according to picture types.

본 발명에 따른 레이어간 예측방법의 하나는, 베이스 레이어의 수직으로 인접된 프레임 매크로 블록쌍의 모션정보로부터 단일 매크로 블록에 대한 모션정보를 유도하고, 그 유도된 모션정보를, 현재 레이어의 하나의 필드 매크로 블록의 모션정보 또는 필드 매크로 블록쌍의 각 모션정보의 예측정보로 사용한다.One of the inter-layer prediction methods according to the present invention derives motion information for a single macroblock from motion information of a vertically adjacent frame macroblock pair of a base layer, and converts the derived motion information into one of the current layers. It is used as motion information of a field macro block or prediction information of each motion information of a field macro block pair.

본 발명에 따른 레이어간 예측 방법의 다른 하나는, 베이스 레이어의 단일 필드 매크로 블록의 모션정보 또는 수직으로 인접된 필드 매크로 블록쌍중 선택된 단일 필드 매크로 블록의 모션정보로부터 2개의 매크로 블록에 대한 각 모션정보를 유도하고, 그 유도된 각 모션정보를, 현재 레이어의 프레임 매크로 블록쌍의 각 모션정보의 예측정보로 사용한다.The other method of the inter-layer prediction method according to the present invention is the motion information of a single field macroblock of a base layer or the motion information of a single field macroblock selected from a pair of vertically adjacent field macroblocks for each motion for two macroblocks. The information is derived, and the derived motion information is used as prediction information of each motion information of the frame macroblock pair of the current layer.

본 발명에 따른, 픽처의 해상도가 상이한 레이어간 예측방법의 하나는, 하위 레이어의 픽처를, 그 유형에 따라 프레임 매크로 블록들로 변환하는 예측방식을 선택적으로 적용하여 동일 해상도의 프레임 픽처로 변환하고, 상기 프레임 픽처를 상 위 레이어의 해상도와 동일해지도록 업샘플링한 후 그 업샘플링된 프레임 픽처내의 프레임 매크로 블록과 상위 레이어의 픽처내의 매크로 블록의 유형에 맞는 레이어간 모션예측방식을 적용한다.According to an embodiment of the present invention, one of the inter-layer prediction methods having different picture resolutions may include converting a picture of a lower layer into a frame picture of the same resolution by selectively applying a prediction method of converting a picture of a lower layer into frame macroblocks according to its type. The frame picture is upsampled to be the same as the resolution of the upper layer, and then the inter-layer motion prediction method suitable for the type of the frame macroblock in the upsampled frame picture and the macroblock in the picture of the upper layer is applied.

본 발명에 따른, 픽처의 해상도가 상이한 레이어간 예측방법의 다른 하나는, 하위 레이어의 픽처와 상위 레이어의 픽처의 유형 및/또는 그 픽처내의 매크로 블록의 유형을 확인하고, 그 확인 결과에 따라, 상기 하위 레이어의 픽처에 대해 단일 필드 매크로 블록의 프레임 매크로 블록쌍으로의 예측방식을 적용하여 상기 상위 레이어의 픽처와 수직/수평의 비율이 동일한 가상 픽처를 구성하고, 상기 가상 픽처를 업샘플링한 다음, 그 업샘플링된 가상 픽처를 사용하여 상기 상위 레이어의 픽처에 레이어간 모션예측을 적용한다.According to another aspect of the present invention, a method of predicting interlayers having different resolutions of pictures may include checking the type of a picture of a lower layer and a picture of a higher layer and / or the type of a macroblock within the picture, Applying a prediction method to a frame macroblock pair of a single field macroblock to a picture of the lower layer to form a virtual picture having the same vertical / horizontal ratio as the picture of the upper layer, and upsampling the virtual picture The inter-layer motion prediction is applied to the picture of the upper layer by using the upsampled virtual picture.

본 발명에 따른, 픽처의 해상도가 상이한 레이어간 예측방법의 또 다른 하나는, 하위 레이어의 픽처와 상위 레이어의 픽처의 유형 및/또는 그 픽처내의 매크로 블록의 유형을 확인하고, 그 확인 결과에 따라, 상기 하위 레이어의 픽처에 대해 단일 필드 매크로 블록의 프레임 매크로 블록쌍으로의 예측방식을 적용하여 상기 상위 레이어의 픽처와 수직/수평의 비율이 동일한 가상 픽처를 구성한 다음, 그 구성된 가상 픽처를 사용하여 상기 상위 레이어의 픽처에 레이어간 모션예측을 적용한다.According to another aspect of the present invention, a method of predicting interlayers having different resolutions of a picture may include identifying a type of a picture of a lower layer and a picture of a higher layer and / or a type of a macroblock in the picture, and depending on a result of the checking By applying a prediction method to a frame macroblock pair of a single field macroblock with respect to a picture of the lower layer, a virtual picture having the same vertical / horizontal ratio as the picture of the upper layer is formed, and then using the configured virtual picture. The inter-layer motion prediction is applied to the picture of the upper layer.

본 발명에 따른, 픽처의 해상도가 상이한 레이어간 예측방법의 또 다른 하나는, 하위 레이어의 픽처와 상위 레이어의 픽처의 유형을 확인하고, 상기 하위 레이어의 픽처의 유형이 필드이고 상기 상위 레이어의 픽처의 유형이 순차주사방식으로 확인되면, 상기 하위 레이어의 픽처내의 블록의 모션정보를 복사하여 가상 픽처를 구성하고, 그 구성된 가상 픽처를 업샘플링한 다음, 그 업샘플링된 가상 픽처와 상기 상위 레이어의 픽처간에 프레임 매크로 블록의 프레임 매크로 블록으로의 모션예측방식을 적용한다.According to another aspect of the present invention, a method of predicting interlayers having different resolutions of a picture includes checking a type of a picture of a lower layer and a picture of a higher layer, wherein the type of a picture of the lower layer is a field and the picture of the higher layer If the type of is determined by the sequential scanning method, the motion picture of the block in the picture of the lower layer is copied to form a virtual picture, up-sample the configured virtual picture, and then the upsampled virtual picture and the upper layer The motion prediction method of the frame macroblock to the frame macroblock is applied between pictures.

본 발명에 따른, 픽처의 해상도가 상이한 레이어간 예측방법의 또 다른 하나는, 하위 레이어의 픽처와 상위 레이어의 픽처의 유형을 확인하고, 상기 하위 레이어의 픽처의 유형이 필드이고 상기 상위 레이어의 픽처의 유형이 순차주사방식으로 확인되면, 상기 하위 레이어의 픽처내의 블록의 모션정보를 복사하여 가상 픽처를 구성한 다음, 그 가상 픽처를 사용하여 상기 상위 레이어의 픽처에 레이어간 모션예측을 적용한다.According to another aspect of the present invention, a method of predicting interlayers having different resolutions of a picture includes checking a type of a picture of a lower layer and a picture of a higher layer, wherein the type of a picture of the lower layer is a field and the picture of the higher layer If the type of is determined by the sequential scanning method, the motion picture of the block in the picture of the lower layer is copied to form a virtual picture, and then the inter-layer motion prediction is applied to the picture of the upper layer using the virtual picture.

본 발명에 따른 일 실시예에서는, 레이어간 모션 예측에 있어서, 분할모드(partition mode), 참조 인덱스, 그리고 모션 벡터의 순으로 예측한다.In an embodiment according to the present invention, in inter-layer motion prediction, prediction is performed in order of a partition mode, a reference index, and a motion vector.

본 발명에 따른 다른 일 실시예에서는, 참조 인덱스, 모션벡터, 그리고 분할모드의 순으로 예측한다.In another embodiment according to the present invention, prediction is performed in order of a reference index, a motion vector, and a split mode.

본 발명에 따른 일 실시예에서는, 베이스 레이어의 프레임 매크로 블록 한쌍의 모션정보로부터 인핸스드 레이어의 필드 매크로 블록 한쌍의 모션정보를 유도한다.In one embodiment according to the present invention, motion information of a pair of field macro blocks of an enhanced layer is derived from motion information of a pair of frame macroblocks of a base layer.

본 발명에 따른 일 실시예에서는, 베이스 레이어의 프레임 매크로 블록 한쌍의 모션정보로부터 인핸스드 레이어의 우수 또는 기수 필드 픽처내의 하나의 필드 매크로 블록의 모션정보를 유도한다.In one embodiment according to the present invention, motion information of one field macro block in even or odd field pictures of an enhanced layer is derived from a pair of frame information of frame macro blocks of a base layer.

본 발명에 따른 일 실시예에서는, 베이스 레이어의 한쌍의 프레임 매크로 블록중 하나가 인트라 모드이면, 그 한쌍내의 인터 모드 매크로 블록의 모션정보를 인트라 모드의 매크로 블록의 모션정보로 복사한 후, 그 한쌍의 프레임 매크로 블록의 모션정보로부터 인핸스드 레이어의 필드 매크로 블록 또는 한쌍의 필드 매크로 블록의 모션정보를 유도한다.In one embodiment according to the present invention, if one of the pair of frame macroblocks of the base layer is intra mode, the motion information of the inter mode macroblock in the pair is copied to the motion information of the macroblock of the intra mode, and then the pair The motion information of the field macroblock of the enhanced layer or the pair of field macroblocks is derived from the motion information of the frame macroblock.

본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 한쌍의 프레임 매크로 블록중 하나가 인트라 모드이면, 그 블록에 대해서는 0 모션벡터와 0의 참조 인덱스를 갖는 인터 모드의 매크로 블록으로 간주한 후, 그 한쌍의 프레임 매크로 블록의 모션정보로부터 인핸스드 레이어의 필드 매크로 블록 또는 한쌍의 필드 매크로 블록의 모션정보를 유도한다.In another embodiment according to the present invention, if one of the pair of frame macro blocks of the base layer is an intra mode, the block is regarded as an inter mode macro block having a zero motion vector and a reference index of zero, and then The motion information of the enhanced field macroblock or the pair of field macroblocks is derived from the motion information of the pair of frame macroblocks.

본 발명에 따른 일 실시예에서는, 베이스 레이어의 한쌍의 필드 매크로 블록에서 하나의 매크로 블록을 선택하고, 그 선택된 매크로 블록의 모션정보로부터 인핸스드 레이어의 프레임 매크로 블록 한쌍의 모션정보를 유도한다.In one embodiment according to the present invention, one macroblock is selected from a pair of field macroblocks of a base layer, and motion information of a pair of frame macroblocks of an enhanced layer is derived from the motion information of the selected macroblock.

본 발명에 따른 일 실시예에서는, 베이스 레이어의 우수 또는 기수의 필드 픽처내의 하나의 필드 매크로 블록의 모션정보로부터 인핸스드 레이어의 프레임 매크로 블록 한쌍의 모션정보를 유도한다.In one embodiment according to the present invention, the motion information of a pair of frame macroblocks of an enhanced layer is derived from the motion information of one field macroblock in the even or odd field pictures of the base layer.

본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 우수 또는 기수의 필드 픽처내의 하나의 필드 매크로 블록의 정보를 복사하여 가상의 필드 매크로 블록을 추가로 구성하고, 그와 같이 구성된 한쌍의 필드 매크로 블록의 모션정보로부터 인핸스드 레이어의 프레임 매크로 블록 한쌍의 모션정보를 유도한다.In another embodiment according to the present invention, a virtual field macro block is further configured by copying information of one field macro block in even or odd field pictures of the base layer, and a pair of field macro blocks configured as described above. Motion information of a pair of frame macroblocks of the enhanced layer is derived from the motion information of.

이하, 본 발명의 실시예에 대해 첨부도면을 참조하여 상세히 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2a는 본 발명에 따른 레이어간 예측방법이 적용되는 영상신호 엔코딩 장치의 구성블록을 간략히 도시한 것이다. 도 2a의 장치는 입력 영상신호를 2개의 레이어로 코딩하는 것이나 후술하는 본 발명의 원리는 3개 또는 그 이상의 레이어로 코딩하는 경우에도 각 레이어간에는 물론 적용될 수 있다.2A is a block diagram of a configuration block of an image signal encoding apparatus to which an inter-layer prediction method according to the present invention is applied. The apparatus of FIG. 2A encodes an input video signal into two layers, but the principles of the present invention described later may be applied between layers even when coding into three or more layers.

본 발명에 따른 레이어간 예측방법은, 도 2a의 장치에서 인핸스드 레이어 엔코더(20)( 이하, 'EL 엔코더'로 약칭한다. )에서 수행되며, 베이스 레이어 엔코더(21)( 이하, 'BL 엔코더'로 약칭함. )에서 엔코딩된 정보( 모션정보와 텍스처 정보 )를 수신하고 그 수신된 정보에 근거하여 레어어간 모션 예측을 수행한다. 물론, 본 발명은 도 2b에서와 같이 이미 코딩되어 있는 베이스 레이어의 영상 소스(3)를 사용하여, 입력되는 영상신호를 코딩할 수도 있으며 이 때에도 이하에서 설명하는 레이어간 예측방법이 동일하게 적용된다.The inter-layer prediction method according to the present invention is performed in the enhanced layer encoder 20 (hereinafter, abbreviated as 'EL encoder') in the apparatus of FIG. 2A, and the base layer encoder 21 (hereinafter, referred to as 'BL encoder'). Receives encoded information (motion information and texture information) from (), and performs inter-layer motion prediction based on the received information. Of course, the present invention may code the input video signal using the image source 3 of the base layer already coded as shown in FIG. 2B, and the inter-layer prediction method described below is equally applied. .

도 2a의 경우에 상기 BL 엔코더(21)가 비월주사방식의 영상신호를 엔코딩하는 방식( 또는 2b의 엔코딩되어 있는 영상소스(3)의 코딩된 방식 )은 두가지가 있을 수 있다. 즉, 도 3a에서 보는 바와 같이, 필드단위 그대로 엔코딩하여 필드 시퀀스로 엔코딩하는 경우와, 도 3b에서 보는 바와 같이, 우수 및 기수 양 필드의 각 매크로 블록을 쌍으로 하여 프레임이 구성된 프레임 시퀀스로 엔코딩하는 경우이다. 이와 같이 코딩되어 있는 프레임내에서, 한 쌍의 매크로 블록의 위에 있는 매크로 블록을 '상단(Top) 매크로 블록'으로 아래에 있는 매크로 블록을 '하단(Bottom) 매 크로 블록'으로 칭한다. 상단 매크로 블록이 우수 필드( 또는 기수 필드 )의 영상성분으로 되어 있으면 하단 매크로 블록은 기수 필드( 또는 우수 필드 )의 영상성분으로 이루어진다. 이와 같이 구성된 프레임을 MBAFF (MacroBlock Adaptive Frame Field) 프레임이라고 한다. 그러나, MBAFF 프레임은 기수 필드 및 우수 필드로 구성된 매크로 블록쌍이외에도 각 매크로 블록이 프레임 MB로 구성된 매크로 블록쌍도 또한 포함할 수 있다.In the case of FIG. 2A, there may be two ways in which the BL encoder 21 encodes an interlaced video signal (or a coded method of the 2b encoded video source 3). That is, as shown in FIG. 3A, encoding is performed as a field unit and encoding a field sequence. As shown in FIG. 3B, each macroblock of both even and odd fields is paired and encoded into a frame sequence including a frame. If it is. In a frame coded as described above, a macro block above a pair of macro blocks is referred to as a 'top macro block', and a macro block below is referred to as a 'bottom macro block'. If the upper macro block is an image component of the even field (or even field), the lower macro block is an image component of the even field (or even field). The frame constructed as described above is called a MBAFF (MacroBlock Adaptive Frame Field) frame. However, the MBAFF frame may also include a macroblock pair in which each macroblock consists of a frame MB, in addition to the macroblock pair consisting of the odd field and the even field.

따라서, 픽처내의 매크로 블록이 비월주사 방식의 영상성분인 경우( 이하에서는, 이러한 매크로 블록을 '필드 MB'라고 칭한다. 이에 반해, 순차주사(progressive) 방식의 영상성분을 갖고 있는 매크로 블록을 '프레임 MB'라고 칭한다. ), 그 블록이 필드내의 것일 수도 있고 프레임내의 것일 수도 있다.Therefore, when a macroblock in a picture is an image component of an interlaced scanning method (hereinafter, such a macroblock is called a 'field MB'. In contrast, a macroblock having a progressive component of a video component is called a 'frame'. The block may be in a field or may be in a frame.

따라서, 상기 EL 엔코더(20)가 코딩할 매크로 블록의 유형과 그 매크로 블록의 모션 예측에 이용할 베이스 레이어의 매크로 블록의 유형이 각기 프레임 MB인지, 필드 MB인지 그리고 필드 MB인 경우에는 필드내의 필드 MB인지 MBAFF 프레임내의 필드 MB인지를 구분하여 모션 예측 방법을 결정하여야 한다.Accordingly, if the type of the macroblock to be coded by the EL encoder 20 and the type of the macroblock of the base layer to be used for motion prediction of the macroblock are frame MB, field MB, and field MB, respectively, the field MB in the field. The motion prediction method should be determined by distinguishing whether the field is MB in the MBAFF frame.

이하에서는 각 경우에 대해서 구분하여 설명한다. 먼저 설명에 앞서 현재 레이어와 베이스 레이어의 해상도는 상호 동일하다고 가정한다. 즉, SpatialScalabilityType()을 0으로 가정한다. 현재 레이어가 베이스 레이어의 해상도보다 높은 경우에 대해서는 다음에 설명한다. 그리고, 하기 설명 및 도면의 표현에 있어서, 우수( 또는 기수 )에 대해 '상단'(top)의 용어를, 기수( 또는 우수 )에 대해 '하단'의 용어도 병행하여 사용한다.Hereinafter, each case will be described separately. First, it is assumed that the resolutions of the current layer and the base layer are the same. That is, assume that SpatialScalabilityType () is 0. The case where the current layer is higher than the resolution of the base layer will be described later. In addition, in description of the following description and drawings, the term "top" is used for the even (or even), and the term "bottom" is used for the radix (or the good) in parallel.

I. 프레임 MB -> MBAFF 프레임의 필드 MB의 경우I. For Frame MB-> Field MB of MBAFF Frame

이 경우는, 현재 레이어(EL)에서 MB가 MBAFF 프레임내의 필드 MB로 코딩되고, 그 필드 MB에 대한 모션 예측에 이용할 베이스 레이어(BL)의 MB가 프레임 MB로 코딩되어 있는 경우로서, 베이스 레이어에서 상하 양 매크로 블록( 이를 '매크로 블록쌍'이라고 하며, 이하에서는, '쌍'이라는 표현은 수직으로 인접되어 있는 블록을 칭하기 위해 사용된다 )에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치(colocated)의 매크로 블록 쌍의 각각에 포함되어 있는 영상신호 성분과 각각 동일한 성분이 된다.In this case, MB is coded as a field MB in an MBAFF frame in the current layer EL, and MB of the base layer BL to be used for motion prediction for the field MB is coded as a frame MB. The video signal components included in the upper and lower macro blocks (hereinafter referred to as 'macro block pairs', hereinafter referred to as 'pairs' to refer to blocks vertically adjacent to each other) may correspond to corresponding positions of the current layer ( Each of the colocated macroblock pairs is the same as the video signal component included in each.

따라서, 베이스 레이어의 매크로 블록쌍(410)을 하나의 매크로 블록으로 병합( 수직방향으로 1/2로 압축 )시켜서 얻은 매크로 블록 분할(partition)모드를 현재 매크로 블록의 분할 모드로 사용한다. 도 4a는 이를 구체적인 예로서 나타낸 것이다. 도시된 바와 같이, 베이스 레이어의 대응 매크로 블록쌍(410)을 먼저 하나의 매크로 블록으로 병합시키고(S41), 그 병합에 의해서 얻어진 분할모드를 다른 하나에 복사하여(S42) 매크로 블록쌍(411)을 구성한 후, 그 매크로 블록쌍(411)의 각 분할모드를 가상 베이스 레이어의 매크로 블록쌍(412)에 각기 적용한다(S43).Therefore, the macroblock partition mode obtained by merging (compressing by 1/2 in the vertical direction) the macroblock pair 410 of the base layer into one macroblock is used as the partition mode of the current macroblock. 4A shows this as a specific example. As shown, the corresponding macroblock pair 410 of the base layer is first merged into one macroblock (S41), and the split mode obtained by the merging is copied to the other (S42) to the macroblock pair 411. After the configuration, the split mode of the macro block pair 411 is applied to the macro block pair 412 of the virtual base layer, respectively (S43).

그런데, 대응되는 매크로 블록쌍(410)을 하나의 매크로 블록으로 병합시킬 때, 분할모드에서 허용되지 않는 분할영역이 생길 수 있으므로, 이를 방지하기 위해 상기 EL 엔코더(20)는 다음과 같은 규칙에 따라 분할형태를 결정한다. However, when merging the corresponding macro block pairs 410 into one macro block, a partition area not allowed in the split mode may be generated. In order to prevent this, the EL encoder 20 according to the following rule. Determine the partition type.

1). 베이스 레이어의 매크로 블록쌍내의 2개의 상하 8x8 블록들( 도 4a의 B8_0와 B8_2)은 하나의 8x8 블록으로 병합하는 데, 대응되는 8x8 블록들 각각이 서브 분할되어 있지 않으면 이들은 2개의 8x4 블록들로 병합하고, 하나라도 서브 분할되어 있으면 이들은 4개의 4x4 블록들로 병합한다( 도 4a의 401 ).One). The two upper and lower 8x8 blocks (B8_0 and B8_2 in FIG. 4A) in the macro block pair of the base layer merge into one 8x8 block. If each of the corresponding 8x8 blocks is not subdivided, they are divided into two 8x4 blocks. Merge, and if any are subdivided, they merge into four 4x4 blocks (401 in FIG. 4A).

2). 베이스 레이어의 8x16 블록은 8x8 블록으로, 16x8 블록은 수평으로 인접된 2개의 8x4 블록으로, 16x16 블록은 16x8 블록으로 축소한다.2). 8x16 blocks of the base layer are reduced to 8x8 blocks, 16x8 blocks to two horizontally adjacent 8x4 blocks, and 16x16 blocks to 16x8 blocks.

만약, 대응되는 매크로 블록쌍중 적어도 어느 하나가 인트라(intra) 모드로 코딩되어 있는 경우에는 상기 EL 엔코더(20)는 상기의 병합과정전에 다음의 과정을 먼저 수행한다.If at least one of the corresponding macro block pairs is coded in the intra mode, the EL encoder 20 performs the following process before the merging process.

만약, 둘 중 하나만이 인트라 모드인 경우에는 도 4b에 예시된 바와 같이 인터(inter) 모드의 매크로 블록의 모션정보( MB 분할모드, 참조(reference) 인덱스, 모션 벡터들 )를 인트라 모드의 매크로 블록에 복사하거나, 도 4c에 예시된 바와 같이 인트라 모드의 매크로 블록을 0의 모션벡터와 참조 인덱스가 0인 16x16 인터 모드의 매크로 블록으로 간주하거나 도 4d에 예시된 바와 같이 인트라 모드 MB에 대해서, 인터모드 MB의 참조 인덱스는 복사하여 설정하고 모션벡터는 0 모션벡터를 갖도록 한 후에, 전술한 병합과정을 수행하고, 이하에서 설명하는 참조 인덱스 및 모션 벡터 유도(derivation) 과정을 또한 수행한다. If only one of them is in the intra mode, as shown in FIG. 4B, the motion information (MB division mode, reference index, and motion vectors) of the macro block in the inter mode is converted to the macro block in the intra mode. Or to a macroblock of intra mode as illustrated in FIG. 4C as a macroblock of 16x16 inter mode with a motion vector of zero and a reference index of zero, or for an intra mode MB as illustrated in FIG. 4D. After the reference index of the mode MB is set by copying and the motion vector has 0 motion vectors, the merge process described above is performed, and the reference index and motion vector derivation process described below are also performed.

상기 EL 엔코더(20)는 현재 매크로 블록쌍(412)의 참조 인덱스를 대응되는 매크로 블록쌍(410)의 참조 인덱스로부터 유도하기 위해 다음의 과정을 수행한다.The EL encoder 20 performs the following process to derive the reference index of the current macro block pair 412 from the reference index of the corresponding macro block pair 410.

현재 8x8 블록에 대응되는 베이스 레이어의 8x8 블록쌍이 서로 동일 횟수로 서브 분할되어 있으면 그 쌍에서 어느 하나( 상단 또는 하단 )의 8x8 블록의 참조 인덱스를 현재 8x8 블록의 참조 인덱스로 결정하고, 그렇지 않으면 서브 분할횟수가 적은 블록의 참조 인덱스를 현재 8x8 블록의 참조 인덱스로 결정한다. If the 8x8 block pair of the base layer corresponding to the current 8x8 block is subdivided by the same number of times, the reference index of any 8x8 block in the pair (top or bottom) is determined as the reference index of the current 8x8 block, otherwise The reference index of the block having the smallest number of partitions is determined as the reference index of the current 8x8 block.

본 발명에 따른 다른 실시예에서는, 현재 8x8 블록에 대응되는 베이스 레이어의 8x8 블록쌍에 지정되어 있는 참조 인덱스중 작은 값의 참조 인덱스를 현재 8x8 블록의 참조 인덱스로 결정한다. 이 결정방법을 도 4e의 예에 대해 나타내 보면,In another embodiment according to the present invention, the reference index of the smallest value among the reference indices designated in the 8x8 block pair of the base layer corresponding to the current 8x8 block is determined as the reference index of the current 8x8 block. This determination method is shown for the example of FIG. 4E.

refidx of curr B8_0 = min( refidx of base top frame MB’s B8_0, refidx of base top frame MB’s B8_2 )refidx of curr B8_0 = min (refidx of base top frame MB's B8_0, refidx of base top frame MB's B8_2)

refidx of curr B8_1 = min( refidx of base top frame MB’s B8_1, refidx of base top frame MB’s of base B8_3 )refidx of curr B8_1 = min (refidx of base top frame MB's B8_1, refidx of base top frame MB's of base B8_3)

refidx of curr B8_2 = min( refidx of base bottom frame MB’s B8_0, refidx of base bottom frame MB’s B8_2 ), 그리고refidx of curr B8_2 = min (refidx of base bottom frame MB ’s B8_0, refidx of base bottom frame MB ’s B8_2), and

refidx of curr B8_3 = min( refidx of base bottom frame MB’s B8_1, refidx of base bottom frame MB’s B8_3 )refidx of curr B8_3 = min (refidx of base bottom frame MB ’s B8_1, refidx of base bottom frame MB ’s B8_3)

가 된다.Becomes

전술한 참조 인덱스 유도과정은, 상단 필드 MB 와 하단 필드 MB에 모두 적용할 수 있다. 그리고, 전술한 바와 같은 방식으로 결정된 각 8x8 블록의 참조 인덱스에 대해 2를 곱하여 최종 참조 인덱스 값으로 한다. 이는, 디코딩시에 필드 MB가 우수 및 기수 필드들로 구분된 픽처에 속하게 되므로 픽처수는 프레임 시퀀스에서보다 2배로 많아지기 때문이다. 디코딩 알고리즘(algorithm)에 따라서는, 하단 필드 MB의 참조 인덱스는 2배후에 1을 더하여 최종 참조 인덱스 값으로 결정할 수도 있다.The above-described reference index derivation process can be applied to both the upper field MB and the lower field MB. Then, the reference index of each 8x8 block determined in the manner described above is multiplied by 2 to be the final reference index value. This is because, when decoding, the field MB belongs to a picture divided into even and odd fields, so the number of pictures is twice as large as in the frame sequence. Depending on the decoding algorithm, the reference index of the lower field MB may be determined as the final reference index value by adding 1 after 2 times.

상기 EL 엔코더(20)가 가상 베이스 레이어의 매크로 블록쌍에 대한 모션벡터를 유도하는 과정은 다음과 같다.The process of deriving the motion vector of the macroblock pair of the virtual base layer by the EL encoder 20 is as follows.

모션벡터는 4x4 블록을 기본으로 하여 결정되므로, 도 4f에 예시된 바와 같이, 베이스 레이어의 대응되는 4x8 블록을 확인하고, 그 블록이 서브 분할되어 있으면 상단 또는 하단의 4x4 블록의 모션벡터를 현재 4x4 블록의 모션벡터로 결정하고, 그렇지 않으면 대응되는 4x8 블록의 모션벡터를 현재 4x4 블록의 모션벡터로 결정한다. 그리고 결정된 모션벡터에 대해서는 그 수직성분을 2로 나눈 벡터를 최종 모션벡터로 사용한다. 이는 2개의 프레임 MB에 실린 영상성분이 하나의 필드 MB의 영상성분에 상응하게 되므로 필드 영상에서는 크기가 수직축으로 1/2로 축소되기 때문이다.Since the motion vector is determined based on the 4x4 block, as shown in FIG. 4F, the corresponding 4x8 block of the base layer is identified, and if the block is subdivided, the motion vector of the upper or lower 4x4 block is currently 4x4. The motion vector of the block is determined. Otherwise, the motion vector of the corresponding 4x8 block is determined as the motion vector of the current 4x4 block. For the determined motion vector, a vector obtained by dividing the vertical component by 2 is used as the final motion vector. This is because the size of the image is reduced to 1/2 on the vertical axis in the field image because the image component carried in the two frame MBs corresponds to the image component of one field MB.

상기와 같은 방식으로 가상 베이스 레이어의 필드 MB쌍(412)에 대한 모션정보가 구해지면 그 모션정보를, 현재 레이어, 즉 인핸스드 레이어의 대상 필드 MB쌍(413)의 레이어간 모션예측을 위해 사용한다. 이하의 설명에서도 가상 베이스 레이어의 MB 또는 MB 쌍에 대한 모션정보가 구해지면 이 모션정보는 현재 레이어의 대응 MB 또는 MB 쌍에 대한 레이어간 모션 예측에 사용된다. 따라서, 이하의 설명에서, 가상 베이스 레이어의 MB 또는 MB 쌍의 모션정보를 현재 레이어의 대응 MB 또는 MB쌍의 레이어간 모션예측에 사용한다라는 언급이 없어도 이는 당연히 적용되는 과정이다.When the motion information of the field MB pair 412 of the virtual base layer is obtained as described above, the motion information is used to predict the inter-layer motion of the target layer MB pair 413 of the current layer, that is, the enhanced layer. do. In the following description, if motion information for an MB or MB pair of a virtual base layer is obtained, the motion information is used for inter-layer motion prediction for a corresponding MB or MB pair of the current layer. Therefore, in the following description, even if it is not mentioned that the motion information of the MB or MB pair of the virtual base layer is used for the inter-layer motion prediction of the corresponding MB or MB pair of the current layer, this is of course applied.

도 5a는 본 발명의 다른 실시예에 따른, 현재 매크로 블록쌍에 대응되는 베이 스 레이어의 프레임 MB쌍의 모션정보로부터 레이어간 예측을 위해 사용할 가상 베이스 레이어(Virtual Base Layer)의 필드 MB쌍(500)의 모션정보를 유도하는 것을 도식적으로 나타낸 것이다. 본 실시예에서는, 도시된 바와 같이, 가상 BL의 필드 MB쌍(500)의 각 상단 8x8블록의 참조 인덱스는 BL의 프레임 MB쌍의 상단 MB의 상단 또는 하단 8x8 블록의 참조 인덱스를 사용하고, 각 하단 8x8 블록의 참조 인덱스는 BL의 하단 MB의 상단 또는 하단 8x8 블록의 참조 인덱스를 사용한다. 모션 벡터의 경우에는, 도시된 바와 같이, 가상 BL의 필드 MB쌍(500)의 각 최상단 4x4블록에 대해서는 BL의 프레임 MB쌍의 상단 MB의 최상단 4x4블록의 모션 벡터를 동일하게 사용하고, 각 두번째 4x4블록에 대해서는 BL의 프레임 MB쌍의 상단 MB의 세번째 4x4 블록의 모션벡터를 동일하게 사용하며, 각 세번째 4x4블록에 대해서는 BL의 프레임 MB쌍의 하단 MB의 최상단 4x4 블록의 모션벡터를 동일하게 사용하며, 각 네번째 4x4 블록에 대해서는 BL의 프레임 MB쌍의 하단 MB의 세번째 4x4 블록의 모션벡터를 동일하게 사용한다.FIG. 5A illustrates a field MB pair 500 of a virtual base layer to be used for inter-layer prediction from motion information of a frame MB pair of a base layer corresponding to a current macroblock pair according to another embodiment of the present invention. Deriving the motion information of the diagram) is shown schematically. In this embodiment, as shown, the reference index of each upper 8x8 block of the field MB pair 500 of the virtual BL uses the reference index of the upper or lower 8x8 block of the upper MB of the frame MB pair of the BL, and each The reference index of the lower 8x8 block uses the reference index of the upper or lower 8x8 block of the lower MB of the BL. In the case of a motion vector, as shown, for each top 4x4 block of the field MB pair 500 of the virtual BL, the motion vector of the top 4x4 block of the top MB of the MB of the frame MB pair of the BL is equally used. For a 4x4 block, the motion vector of the third 4x4 block of the top MB of the frame MB pair of BL is the same, and for each third 4x4 block, the motion vector of the top 4x4 block of the bottom MB of the MB of the frame MB pair of the BL is equally used. For each fourth 4x4 block, the motion vector of the third 4x4 block of the lower MB of the frame MB pair of the BL is equally used.

그런데, 도 5a에 예시된 바와 같이, 레이어간 예측에 사용하기 위해 구성되는 필드 매크로 블록쌍(500)내의 8x8 블록내의 상단 4x4 블록(501)과 하단 4x4 블록(502)은 베이스 레이어의 서로 다른 8x8 블록(511,512)내의 4x4 블록의 모션벡터를 사용하는 데, 이 들 모션벡터는 서로 다른 기준 픽처를 사용한 모션벡터일 수 있다. 즉, 상기 서로 다른 8x8 블록(511,512)은 서로 다른 참조 인덱스 값을 가질 수 있다. 따라서, 이 경우에는, 상기 가상 BL의 필드 매크로 블록쌍(500)을 구성하기 위해, 상기 EL 엔코더(20)는 도 5b에 예시된 바와 같이, 가상 BL의 두번째 4x4 블록(502)의 모션벡터를 그 상단 4x4 블록(501)에 대해 선택된 대응되는 4x4 블록(503)의 모션벡터를 동일하게 사용하게 된다(521). However, as illustrated in FIG. 5A, the upper 4x4 block 501 and the lower 4x4 block 502 in the 8x8 block in the field macroblock pair 500 configured for use in inter-layer prediction are different from each other in the base layer. The motion vectors of the 4x4 blocks in the blocks 511 and 512 are used, which may be motion vectors using different reference pictures. That is, the different 8x8 blocks 511 and 512 may have different reference index values. Thus, in this case, to construct the field macroblock pair 500 of the virtual BL, the EL encoder 20 selects the motion vector of the second 4x4 block 502 of the virtual BL, as illustrated in FIG. 5B. The motion vector of the corresponding 4x4 block 503 selected for the upper 4x4 block 501 is equally used (521).

도 4a 내지 4f를 참조로 설명한 실시예는, 상기 EL 엔코더(20)가 현재 매크로 블록쌍에 대한 모션 정보를 예측하기 위해 가상 베이스 레이어의 모션정보를 구성함에 있어서, 베이스 레이어의 대응 매크로 블록쌍의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하는 것이었으나, 도 5a 및 5b를 참조로 설명한 실시예는, 베이스 레이어의 대응 매크로 블록쌍의 모션정보에 근거해서, 가상 베이스 레이어의 매크로 블록쌍에 대해 먼저 참조 인덱스와 모션 벡터를 유도한 뒤, 그 유도된 결과에 근거해서 마지막으로 가상 베이스 레이어의 매크로 블록쌍의 분할모드를 결정하는 것이다. 마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록형태가, 허용되는 분할모드에 속하면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할형태로 지정한다.In the embodiment described with reference to FIGS. 4A to 4F, the EL encoder 20 configures motion information of a virtual base layer to predict motion information for a current macroblock pair. In this case, the embodiment described with reference to FIGS. 5A and 5B is based on the motion information of the corresponding macroblock pair of the base layer. A reference index and a motion vector are first derived for the macroblock pair, and finally, the split mode of the macroblock pair of the virtual base layer is determined based on the derived result. Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and reference index, and then designate the combined block type as the combined type if it belongs to the allowed split mode. Specified in partitioned form.

도 5a 및 5b를 참조로 설명한 실시예에서, 베이스 레이어의 대응되는 매크로 블록쌍(410)이 모두 인트라 모드이면 현재 매크로 블록쌍(413)에 대해 인트라 베이스 예측만이 수행되고( 이 때는 모션 예측은 수행되지 않는다. 물론, 텍스처 예측의 경우에는 가상 베이스 레이어의 매크로 블록쌍이 구성되지도 않는다. ), 만약 둘 중 하나만 인트라 모드이면 텍스처(texture) 예측( 인트라 베이스 예측과 레지듀얼 예측 )은 수행되지 않고, 도 4b에서와 같이 인트라 모드의 MB에 인터 모드의 모션정보를 복사하거나 또는 도 4c에서와 같이 인트라 모드이 MB의 모션벡터와 참 조 인덱스를 0으로 설정하거나 또는 도 4d에서와 같이 인트라 모드 MB에 대해서, 인터모드 MB의 참조 인덱스는 복사하여 설정하고 모션벡터는 0 모션벡터를 갖도록 한 후에, 전술한 바와 같이 레이어간 모션 예측이 수행된다. In the embodiment described with reference to FIGS. 5A and 5B, if the corresponding macro block pairs 410 of the base layer are all in intra mode, only intra base prediction is performed on the current macro block pair 413 (in this case, motion prediction is performed Of course, in the case of texture prediction, no macroblock pairs of the virtual base layer are constructed.) If only one is intra mode, texture prediction (intra base prediction and residual prediction) is not performed. 4B, the inter mode motion information is copied to the MB of the intra mode as shown in FIG. 4B, or the intra mode sets the motion vector and the reference index of the MB to 0 as shown in FIG. 4C, or the intra mode MB as shown in FIG. 4D. In this case, the reference index of the intermode MB is copied and set, and the motion vector has 0 motion vectors. Motion prediction is performed.

한편, 텍스처 예측을 수행할 때는, 베이스 레이어의 매크로 블록쌍의 우수라인들은 현재 매크로 블록쌍의 상단 필드 MB에 대한 예측에 사용하고, 기수라인들은 하단 필드 MB에 대한 예측에 사용한다.On the other hand, when performing texture prediction, the even lines of the macro block pair of the base layer are used to predict the upper field MB of the current macro block pair, and the odd lines are used to predict the lower field MB.

상기 EL 엔코더(20)는, 전술한 바와 같이 가상 BL의 MB쌍을 구성하고 나면 그 MB쌍의 모션정보를 이용하여 현재의 필드 매크로 블록쌍(413)의 모션정보를 예측하여 코딩한다.After the MB encoder of the virtual BL is configured as described above, the EL encoder 20 predicts and codes the motion information of the current field macro block pair 413 using the MB pair of motion information.

II. 프레임 MB -> 필드 픽처의 필드 MB의 경우II. For frame MB-> field MB for field picture

이 경우는, 현재 레이어에서 MB가 필드 픽처내의 필드 MB로 코딩되고, 그 필드 MB에 대한 모션 예측에 이용할 베이스 레이어의 MB가 프레임 MB로 코딩되어 있는 경우로서, 베이스 레이어에서 매크로 블록쌍에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치의 우수 또는 기수 필드내의 매크로 블록에 포함되어 있는 영상신호 성분과 동일한 성분이 된다.In this case, the MB is coded as the field MB in the field picture in the current layer, and the MB of the base layer to be used for motion prediction for the field MB is coded as the frame MB, which is included in the macroblock pair in the base layer. The video signal component present is the same as the video signal component included in the macroblock in the even or odd field of the corresponding position of the current layer.

따라서, 베이스 레이어의 매크로 블록쌍을 하나의 매크로 블록으로 병합( 수직방향으로 1/2로 압축 )시켜서 얻은 매크로 블록 분할(partition)모드를 우수 또는 기수의 가상 베이스 레이어의 매크로 블록의 분할 모드로 사용한다. 도 6a는 이를 구체적인 예로서 나타낸 것이다. 도시된 바와 같이, 베이스 레이어의 대응 매크 로 블록쌍(610)을 먼저 하나의 매크로 블록(611)으로 병합시키고(S61), 그 병합에 의해서 얻어진 분할모드를, 현재의 매크로 블록(613)의 레이어간 모션 예측에 사용할 가상 베이스 레이어의 매크로 블록(612)에 적용한다(S62). 병합하는 규칙은 앞서의 경우 I에서와 동일하며, 대응되는 매크로 블록쌍(610)중 적어도 어느 하나가 인트라(intra) 모드로 코딩되어 있는 경우에 처리하는 방식도 앞서의 경우 I에서와 동일하다.Therefore, the macroblock partition mode obtained by merging the macroblock pairs of the base layer into one macroblock (compressed in half in the vertical direction) is used as the partition mode of the macroblock of the even or odd virtual base layer. do. 6A shows this as a specific example. As shown, the corresponding macro block pair 610 of the base layer is first merged into one macro block 611 (S61), and the split mode obtained by the merging is applied to the layer of the current macro block 613. It is applied to the macroblock 612 of the virtual base layer to be used for inter motion prediction (S62). The merging rule is the same as in the above case I, and the processing in the case where at least one of the corresponding macro block pairs 610 is coded in the intra mode is the same as in the case of the above case I.

그리고, 참조 인덱스와 모션 벡터를 유도하는 과정도 또한 앞서의 경우 I에 대해서 설명한 바와 동일하게 이루어진다. 다만, I의 경우에는 매크로 블록이 우수와 기수의 쌍으로 한 프레임내에 실리게 되므로 상단 MB 및 하단 MB에 동일한 유도과정을 적용하지만, 본 경우(II)에는 현재 코딩할 필드 픽처내에는 베이스 레이어의 매크로 블록쌍(610)에 대응되는 매크로 블록이 하나만 존재하므로 도 6b 및 6c에 예시된 바와 같이 하나의 필드 MB에 대해서만 유도과정을 적용하는 점만이 상이하다.In addition, the process of deriving the reference index and the motion vector is also performed in the same manner as described above for the case I. In the case of I, however, the macroblock is carried in a frame of even and odd numbers so that the same derivation process is applied to the upper MB and the lower MB. However, in the present case (II), the base layer is stored in the field picture to be coded. Since only one macro block corresponding to the macro block pair 610 exists, only the derivation process is applied to only one field MB, as illustrated in FIGS. 6B and 6C.

상기 실시예에서는, 상기 EL 엔코더(20)가 가상 베이스 레이어의 매크로 블록에 대한 모션 정보를 예측함에 있어서, 베이스 레이어의 대응 매크로 블록쌍의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하였다.In the above embodiment, when the EL encoder 20 predicts motion information for a macro block of a virtual base layer, the EL encoder 20 performs partition mode, reference index, and motion vector based on the motion information of a corresponding macro block pair of the base layer. Induced.

본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 대응 매크로 블록쌍의 모션정보에 근거해서, 가상 베이스 레이어의 매크로 블록에 대해 먼저 참조 인덱스와 모션 벡터를 유도한 뒤, 그 유도된 결과에 근거해서 마지막으로 가상 베이스 레이어의 매크로 블록의 분할모드를 결정한다. 도 7a 및 7b는 본 실시예에 따 라, 가상 베이스 레이어의 필드 매크로 블록의 참조 인덱스와 모션 벡터가 유도되는 것을 도식적으로 나타낸 것이며, 이 경우는 상단 또는 하단의 한 매크로 블록에 대해 베이스 레이어의 매크로 블록쌍의 모션 정보를 사용하여 해당 모션 정보를 유도하는 것만 상이할 뿐 유도하는 데 적용되는 동작은 앞서 도 5a 및 5b를 참조하여 설명한 경우 I과 동일하다.In another embodiment according to the present invention, based on the motion information of the corresponding macroblock pair of the base layer, a reference index and a motion vector are first derived for the macroblock of the virtual base layer and then based on the derived result. Finally, the split mode of the macro block of the virtual base layer is determined. 7A and 7B diagrammatically show that a reference index and a motion vector of a field macro block of a virtual base layer are derived according to this embodiment, in which case the macro of the base layer for one macro block at the top or bottom is derived. The operations applied to deriving only the derivation of the corresponding motion information using the motion information of the block pair are the same as the case I described above with reference to FIGS. 5A and 5B.

마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록이 허용되는 분할모드이면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할모드로 둔다.Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and the same reference index, and then designate the combined type if the combined block is an allowed split mode, otherwise leave the split mode before combining. .

전술한 실시예들에서, 베이스 레이어의 대응되는 매크로 블록쌍이 모두 인트라 모드이면 현재 매크로 블록에 대해 인트라 베이스 예측만이 수행되고( 이 때는 모션 예측은 수행되지 않고 가상 베이스 레이어의 매크로 블록쌍의 모션정보를 구성하지도 않는다. ), 만약 둘 중 하나만 인트라 모드이면 텍스처 예측( 인트라 베이스 예측과 레지듀얼 예측 )은 수행되지 않고 모션 예측은 이 경우에 대해 앞서 설명한 바와 같이 수행된다. 그리고, 텍스처 예측을 수행할 때는, 현재 매크로 블록(613)이 우수 필드 MB인 경우에 베이스 레이어의 매크로 블록쌍의 우수라인들을 예측에 사용하고, 기수 필드 MB인 경우에는 베이스 레이어의 매크로 블록쌍의 기수라인들을 예측에 사용한다.In the above embodiments, if the corresponding macroblock pairs of the base layer are all intra modes, only intra base prediction is performed on the current macro block (in this case, motion prediction is not performed and motion information of the macro block pair of the virtual base layer is performed). If only one of them is intra mode, texture prediction (intra base prediction and residual prediction) is not performed and motion prediction is performed as described above for this case. When performing texture prediction, when the current macro block 613 is the even field MB, the even lines of the macro block pair of the base layer are used for prediction, and in the case of the odd field MB, the macro block pair of the base layer macro block is used. Use odd lines for prediction.

III. MBAFF 프레임의 필드 MB -> 프레임 MB의 경우III. Field MB for MBAFF frame-> Frame MB

이 경우는, 현재 레이어에서 MB가 프레임 MB로 코딩되고, 그 프레임 MB의 모 션 예측에 이용할 베이스 레이어의 MB가 MBAFF 프레임내의 필드 MB로 코딩되어 있는 경우로서, 베이스 레이어의 한 필드 MB에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치의 매크로 블록 쌍에 포함되어 있는 영상신호 성분과 동일한 성분이 된다.In this case, MB is coded as a frame MB in the current layer, and the MB of the base layer to be used for motion prediction of the frame MB is coded as a field MB in the MBAFF frame, which is included in one field MB of the base layer. The video signal component present is the same as the video signal component included in the macroblock pair at the corresponding position of the current layer.

따라서, 베이스 레이어의 한 매크로 블록쌍내의 상단 또는 하단의 매크로 블록을 신장( 수직방향으로 2배로 신장 )시켜서 얻은 매크로 블록 분할(partition)모드를 가상 베이스 레이어의 매크로 블록쌍의 분할 모드로 사용한다. 도 8a는 이를 구체적인 예로서 나타낸 것이다. 이하 설명 및 도면에서 상단 필드 MB가 선정된 것으로 하였으나, 하단 필드 MB가 선택된 경우에도 하기 설명하는 바를 동일하게 적용할 수 있음은 물론이다.Therefore, the macroblock partition mode obtained by stretching the macroblock at the top or the bottom of one macroblock pair of the base layer (doubled in the vertical direction) is used as the partition mode of the macroblock pair of the virtual base layer. 8A shows this as a specific example. In the following description and drawings, the upper field MB is selected, but the following description may also be applied to the case where the lower field MB is selected.

도 8a에 도시된 바와 같이, 베이스 레이어의 대응 매크로 블록쌍(810)내의 상단 필드 MB를 2배로 신장시켜 2개의 매크로 블록(811)을 구성하고(S81), 그 신장에 의해서 얻어진 분할형태를 가상 베이스 레이어의 매크로 블록쌍(812)에 적용한다(S82).As shown in Fig. 8A, the upper field MB in the corresponding macroblock pair 810 of the base layer is doubled to form two macroblocks 811 (S81), and the segmentation form obtained by the stretching is virtualized. It is applied to the macroblock pair 812 of the base layer (S82).

그런데, 대응되는 하나의 필드 MB를 수직으로 2배 신장시킬 때, 매크로 블록의 분할모드에서 허용되지 않는 분할형태가 생길 수 있으므로, 이를 방지하기 위해 상기 EL 엔코더(20)는 다음과 같은 규칙에 따라 신장된 분할형태에 따른 분할모드를 결정한다. However, when the corresponding one field MB is vertically doubled, a partitioning form that is not allowed in the splitting mode of the macroblock may be generated. In order to prevent this, the EL encoder 20 uses the following rule. The split mode is determined according to the extended split form.

1). 베이스 레이어의 4x4, 8x4, 그리고 16x8의 블록은 수직으로 2배 커진 각각 4x8, 8x8, 그리고 16x16의 블록으로 결정한다.One). The 4x4, 8x4, and 16x8 blocks of the base layer are determined to be 4x8, 8x8, and 16x16 blocks that are vertically doubled.

2). 베이스 레이어의 4x8, 8x8, 8x16 그리고 16x16의 블록은 각기 2개의 동일크기의 상하 블록으로 결정한다. 도 8a에 예시된 바와 같이, 베이스 레이어의 8x8 B8_0 블록은 2개의 8x8 블록들로 결정된다(801). 하나의 8x16의 블록으로 지정하지 않는 이유는, 그 좌 또는 우에 인접된 신장된 블록이 8x16의 분할블록이 되지 않을 수 있으므로 이러한 경우에는 매크로 블록의 분할모드가 지원되지 않기 때문이다.2). The 4x8, 8x8, 8x16 and 16x16 blocks of the base layer are determined as two equally sized top and bottom blocks. As illustrated in FIG. 8A, the 8x8 B8_0 block of the base layer is determined to be two 8x8 blocks (801). The reason for not specifying one 8x16 block is that the split mode of the macroblock is not supported in this case because the extended block adjacent to the left or right side may not be the 8x16 divided block.

만약, 대응되는 매크로 블록쌍(810)중 어느 하나가 인트라 모드로 코딩되어 있는 경우에는 상기 EL 엔코더(20)는 인트라 모드가 아닌 인터 모드의 상단 또는 하단의 필드 MB를 선택하여 상기의 신장 과정을 수행하여 가상 베이스 레이어의 매크로 블록쌍(812)의 분할모드를 결정한다.If one of the corresponding macroblock pairs 810 is coded in the intra mode, the EL encoder 20 selects the field MB at the top or the bottom of the inter mode rather than the intra mode to perform the above stretching process. The division mode of the macroblock pair 812 of the virtual base layer is determined.

만약, 둘 다 인트라 모드인 경우에는 레이어간 텍스처 예측만 수행하고, 전술한 신장과정을 통한 분할모드 결정과, 이하에서 설명하는 참조 인덱스 및 모션 벡터 유도 과정을 수행하지 않는다. If both are intra modes, only inter-layer texture prediction is performed, and the split mode determination through the above-described stretching process and the reference index and motion vector derivation process described below are not performed.

상기 EL 엔코더(20)는 가상 베이스 레이어의 매크로 블록쌍(812)의 참조 인덱스를 대응되는 하나의 필드 MB의 참조 인덱스로부터 유도하기 위해, 대응되는 베이스 레이어의 8x8 블록(B8_0)의 참조 인덱스를, 도 8b에 예시된 바와 같이 2개의 상하 8x8 블록들의 각 참조 인덱스로 결정하고, 결정된 각 8x8 블록의 참조 인덱스에 대해 2로 나누어 최종 참조 인덱스 값으로 한다. 이는, 필드 MB에 대해서 우수 및 기수 필드들로 구분된 픽처를 기준으로하여 기준 픽처의 번호를 지정하므로, 프레임 시퀀스에 적용하기 위해서는 픽처 번호를 절반으로 줄일 필요가 있기 때문이다.The EL encoder 20 derives the reference index of the 8x8 block B8_0 of the corresponding base layer to derive the reference index of the macro block pair 812 of the virtual base layer from the reference index of the corresponding one field MB, As illustrated in FIG. 8B, each reference index of the two upper and lower 8x8 blocks is determined, and divided by 2 for the determined reference index of each 8x8 block to be a final reference index value. This is because the number of reference pictures is specified for the field MB on the basis of pictures divided into even and odd fields, so that the picture number needs to be cut in half to be applied to the frame sequence.

상기 EL 엔코더(20)가 가상 베이스 레이어의 프레임 매크로 블록쌍(812)에 대 한 모션벡터를 유도할 때는, 도 8c에 예시된 바와 같이, 대응되는 베이스 레이어의 4x4 블록의 모션벡터를 가상 베이스 레이어의 매크로 블록쌍(812)내의 4x8 블록의 모션벡터로 결정하고, 그 결정된 모션벡터에 대해서 수직성분에 대해서 2를 곱한 벡터를 최종 모션벡터로 사용한다. 이는 1개의 필드 MB에 실린 영상성분이 2개의 프레임 MB의 영상성분에 상응하게 되므로 프레임 영상에서는 크기가 수직축으로 2배로 확대되기 때문이다.When the EL encoder 20 derives the motion vector for the frame macro block pair 812 of the virtual base layer, as shown in FIG. 8C, the motion vector of the 4x4 block of the corresponding base layer is virtual base layer. It is determined as the motion vector of the 4x8 block in the macroblock pair 812, and the vector obtained by multiplying the vertical component by 2 with respect to the determined motion vector is used as the final motion vector. This is because the image component carried in one field MB corresponds to the image component of two frame MBs, so the size of the frame image is doubled on the vertical axis.

전술한 실시예에서는, 상기 EL 엔코더(20)가 가상 베이스 레이어의 매크로 블록쌍에 대한 모션 정보를 예측함에 있어서, 베이스 레이어의 대응 필드 MB의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하였다.In the above-described embodiment, when the EL encoder 20 predicts motion information for a macroblock pair of the virtual base layer, the partition mode, the reference index, and the motion vector are ordered based on the motion information of the corresponding field MB of the base layer. Induced.

본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 대응 필드 MB의 모션정보에 근거해서, 현재 매크로 블록쌍의 레이어간 예측에 사용할 가상 BL의 MB쌍의 모션정보를 도 9a에 예시된 바와 같이 참조 인덱스와 모션 벡터를 먼저 구한 뒤, 그 구해진 결과에 근거해서 마지막으로 가상 베이스 레이어의 매크로 블록쌍의 각 분할모드를 결정한다. 마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록이 허용되는 분할형태이면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할형태로 지정한다.In another embodiment according to the present invention, based on the motion information of the corresponding field MB of the base layer, refer to the motion information of the MB pair of the virtual BL to be used for inter-layer prediction of the current macroblock pair, as illustrated in FIG. 9A. The index and the motion vector are obtained first, and finally, based on the obtained result, each split mode of the macroblock pair of the virtual base layer is determined. Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and the same reference index, and then designate the combined form if the combined block is an acceptable split form, otherwise specify the split form before combining. do.

도 9a의 실시예에 대해 보다 상세히 설명하면, 도시된 바와 같이, 현재 매크로 블록쌍의 모션예측에 사용할 가상 BL의 프레임 MB쌍에 대한 참조 인덱스와 모션 벡터를 유도하기 위해, 베이스 레이어(BL)의 인터 모드의 필드 MB를 선택하여 그 MB의 모션벡터와 참조 인덱스를 사용한다. 만약, 양 매크로 블록이 모두 인터이면 상단 또는 하단 MB중 임의의 하나를 선택(901 또는 902)하여 그 MB의 모션벡터와 참조 인덱스 정보를 사용한다. 참조 인덱스에 대해서는, 도시된 바와 같이, 선택된 MB의 상단 8x8 블록의 해당 값을 가상 BL의 상단 MB의 상단과 하단 8x8 블록의 참조 인덱스로 복사하고, 선택된 MB의 하단 8x8 블록의 해당 값을 가상 BL의 하단 MB의 상단과 하단 8x8 블록의 참조 인덱스로 복사한다. 모션 벡터에 대해서는, 도시된 바와 같이 선택된 MB의 각 4x4 블록의 해당 값을, 가상 BL의 매크로 MB쌍의 상하 인접된 양 4x4 블록의 모션 벡터로 동일하게 사용한다. 본 발명에 따른 다른 실시예에서는, 도 9a에 예시된 것과는 달리, 가상 BL의 프레임 MB쌍의 모션벡터와 참조 인덱스를 유도하기 위해, 대응되는 BL의 MB쌍의 모션정보를 혼합하여 사용할 수도 있다. 도 9b는 본 실시예에 따른 모션벡터와 참조 인덱스의 유도과정을 예시한 것이다. 전술한 모션정보의 유도과정의 설명과 도 9b의 도면으로부터, 가상 BL의 MB쌍내의 각 서브블록들( 8x8 블록과 4x4 블록들 )의 참조 인덱스와 모션벡터의 대응 복사관계는 직관적으로 이해할 수 있으므로 이에 대한 구체적인 설명은 생략한다.Referring to the embodiment of FIG. 9A in more detail, as shown, in order to derive a reference index and a motion vector for a frame MB pair of a virtual BL to be used for motion prediction of a current macroblock pair, The field MB of the inter mode is selected and the motion vector and reference index of the MB are used. If both macroblocks are inter, any one of the upper or lower MBs is selected (901 or 902) to use the motion vector and reference index information of the MB. For the reference index, as shown, copy the corresponding value of the upper 8x8 block of the selected MB to the reference index of the upper and lower 8x8 blocks of the upper MB of the virtual BL, and copy the corresponding value of the lower 8x8 block of the selected MB to the virtual BL. Copy to the reference index of the top and bottom 8x8 blocks of the bottom MB of. As for the motion vector, as shown, the corresponding value of each 4x4 block of the selected MB is equally used as the motion vector of both up and down adjacent 4x4 blocks of the macro MB pair of the virtual BL. In another embodiment according to the present invention, in order to derive the motion vector and the reference index of the frame MB pair of the virtual BL, the motion information of the MB pair of the corresponding BL may be mixed. 9B illustrates a process of deriving a motion vector and a reference index according to the present embodiment. Since the above-described description of the derivation process of motion information and the diagram of FIG. 9B, the reference radii of the respective subblocks (8x8 blocks and 4x4 blocks) in the MB pair of the virtual BL and the corresponding radiant relationship of the motion vectors can be intuitively understood. Detailed description thereof will be omitted.

다만, 도 9b의 실시예에서는, 베이스 레이어의 필드 MB쌍의 모션정보가 모두 사용되므로, 양 필드 MB쌍중 어느 하나가 인트라 모드인 경우에 그 MB의 모션정보를 다른 인터 모드 MB의 모션정보를 이용하여 유도하게 된다. 즉, 도 4b에 예시된 바와 같이, 인터 모드 MB의 모션벡터와 참조 인덱스를 복사하여 인트라 모드 MB의 해당 정보로 구성하거나 또는 도 4c에 예시된 바와 같이, 인트라 모드 MB를 0의 모 션벡터와 0의 참조 인덱스를 갖는 인터 모드 MB로 간주하거나 또는 도 4d에 예시된 바와 같이 인트라 모드 MB에 대해서, 인터모드 MB의 참조 인덱스는 복사하여 설정하고 모션벡터는 0의 모션벡터를 갖도록 한 후에, 도 9b에 예시된 바와 같이 가상 BL의 MB쌍의 모션벡터와 참조 인덱스 정보를 유도할 수 있다. 모션벡터와 참조 인덱스 정보가 유도되면 앞서 언급한 바와 같이 그 유도된 정보들에 근거하여 가상 BL의 MB쌍에 대한 블록모드가 결정된다.However, in the embodiment of FIG. 9B, since all the motion information of the field MB pair of the base layer is used, when either of the field MB pairs is intra mode, the motion information of the MB is used as the motion information of the other inter mode MB. To induce. That is, as illustrated in FIG. 4B, the motion vector and the reference index of the inter mode MB are copied and configured as the corresponding information of the intra mode MB, or as illustrated in FIG. 4C, the intra mode MB and the motion vector of 0 are illustrated. Consider an inter mode MB with a reference index of 0 or for an intra mode MB as illustrated in FIG. 4D, after setting the reference index of the inter mode MB to copy and setting the motion vector to have a motion vector of 0, As illustrated in FIG. 9B, the motion vector and reference index information of the MB pair of the virtual BL may be derived. When the motion vector and the reference index information are derived, as described above, the block mode for the MB pair of the virtual BL is determined based on the derived information.

한편, 베이스 레이어의 대응되는 필드 MB 쌍이 모두 인트라 모드이면 현재 매크로 블록(813)에 대해 인트라 베이스 예측만이 수행된다( 이 때는 모션 예측은 수행되지 않는다. ). 인트라 베이스 예측의 기준 데이터는, 대응되는 필드 MB 쌍의 우수 및 기수 라인을 교번적으로 선택하여 인터리빙(interleaving)시킨 16x32의 블록이 된다. 만약 둘 중 하나만 인트라 모드이면 인트라 베이스 예측은 인트라 모드의 대응 필드 MB를 사용하여 수행하고, 레지듀얼 예측은 인터 모드의 대응 필드 MB를 사용하여 수행한다. 물론, 이 때는 예측에 사용할 필드 MB에 대해서는 수직축으로 업샘플링한 후 텍스처 예측에 사용한다.On the other hand, if the corresponding field MB pairs of the base layer are all intra modes, only intra base prediction is performed on the current macro block 813 (in this case, motion prediction is not performed). The reference data of the intra base prediction is a 16x32 block in which the even and odd lines of the corresponding field MB pair are alternately selected and interleaved. If only one of them is intra mode, intra base prediction is performed using the corresponding field MB of the intra mode, and residual prediction is performed using the corresponding field MB of the inter mode. Of course, in this case, the field MB to be used for prediction is upsampled on the vertical axis and then used for texture prediction.

IV. 필드 픽처의 필드 MB -> 프레임 MB의 경우IV. For field MB-> frame MB of a field picture

이 경우는, 현재 레이어(EL)에서 MB가 프레임 MB로 코딩되고, 그 프레임 MB의 모션 예측에 이용할 베이스 레이어(BL)의 MB가 필드 픽처내의 필드 MB로 코딩되어 있는 경우로서, 베이스 레이어의 한 필드 MB에 포함되어 있는 영상신호 성분은, 현 재 레이어의 대응위치의 매크로 블록 쌍에 포함되어 있는 영상신호 성분과 동일한 성분이 된다.In this case, MB is coded as a frame MB in the current layer EL, and MB of the base layer BL to be used for motion prediction of the frame MB is coded as a field MB in the field picture. The video signal component included in the field MB is the same as the video signal component included in the macroblock pair at the corresponding position of the current layer.

따라서, 베이스 레이어의 우수 또는 기수 필드내의 한 매크로 블록을 수직방향으로 2배로 신장시켜서 얻은 분할모드를 가상 베이스 레이어의 매크로 블록의 분할 모드로 사용한다. 도 10a는 이를 구체적인 예로서 나타낸 것이다. 도 10a에 예시된 과정은, MBAFF 프레임내의 상단 또는 하단의 필드 MB가 선택되는 전술한 경우 III과 비교하여, 우수 또는 기수 필드내의 위치대응되는 하나의 필드 MB(1010)가 자연적으로 사용되는 것이 상이할 뿐, 대응되는 필드 MB(1010)를 신장하고, 그 신장에 의해서 얻어진 2개의 매크로 블록(1011)의 분할형태를 가상 베이스 레이어의 매크로 블록쌍(1012)에 적용하는 것은 동일하다. 그리고, 대응되는 하나의 필드 MB(1010)를 수직으로 2배 신장시킬 때, 매크로 블록의 분할모드에서 허용되지 않는 분할형태가 생길 수 있으므로, 이를 방지하기 위해 상기 EL 엔코더(20)가 신장된 분할형태에 따른 분할모드를 결정하는 규칙도 경우 III의 1)과 2)에 제시된 것과 동일하다. Therefore, the division mode obtained by doubling one macro block in the even or odd field of the base layer in the vertical direction is used as the division mode of the macro block of the virtual base layer. 10A illustrates this as a specific example. The process illustrated in FIG. 10A differs from that in the case where the top or bottom field MB in the MBAFF frame is selected, in contrast to III above, one field MB 1010 corresponding to position in the even or odd field is naturally used. In addition, it is the same to extend the corresponding field MB 1010 and apply the divided form of the two macroblocks 1011 obtained by the expansion to the macroblock pair 1012 of the virtual base layer. In addition, when the corresponding field MB 1010 is vertically doubled, a partitioning form that is not allowed in the division mode of the macroblock may occur, so that the EL encoder 20 is extended to prevent this. The rules for determining the split mode according to the form are the same as those given in cases 1) and 2) of III.

만약, 대응되는 매크로 블록이 인트라 모드로 코딩되어 있는 경우에는 상기 EL 엔코더(20)는 전술한 신장과정을 통한 분할모드 결정과, 이하에서 설명하는 참조 인덱스 및 모션 벡터 유도 과정을 수행하지 않는다. 즉, 레이어간 모션 예측은 수행되지 않는다.If the corresponding macroblock is coded in the intra mode, the EL encoder 20 does not perform the split mode determination through the above-described decompression process and the reference index and motion vector derivation process described below. In other words, inter-layer motion prediction is not performed.

그리고, 참조 인덱스와 모션 벡터를 유도하는 과정도 또한 앞서의 경우 III에 대해서 설명한 바와 동일하다. 다만, III의 경우에는 베이스 레이어의 대응되는 매 크로 블록이 우수와 기수의 쌍으로 한 프레임내에 실리게 되므로 상단 MB 및 하단 MB 중 하나를 선택하여 유도과정을 적용하지만, 본 경우(IV)에는 현재 코딩할 매크로 블록에 대응되는 베이스 레이어의 대응되는 매크로 블록은 하나만 존재하므로 매크로 블록의 선택과정없이, 도 10b 및 10c에 예시된 바와 같이 그 대응되는 하나의 필드 MB의 모션 정보로부터 가상 베이스 레이어의 매크로 블록쌍(1012)에 대한 모션 정보를 유도한 뒤 이를 현재 매크로 블록쌍(1013)의 레이어간 모션 예측에 사용하게 된다.In addition, the process of deriving the reference index and the motion vector is also the same as described for the case III above. However, in the case of III, since the corresponding macroblock of the base layer is loaded in a frame of even and odd numbers, the derivation process is applied by selecting one of the upper MB and the lower MB, but in the present case (IV), Since there is only one corresponding macro block of the base layer corresponding to the macro block to be coded, the macro of the virtual base layer is extracted from the motion information of the corresponding one field MB, as illustrated in FIGS. 10B and 10C without selecting a macro block. The motion information for the block pair 1012 is derived and then used for inter-layer motion prediction of the current macro block pair 1013.

도 11은 본 발명의 다른 실시예에 따라 가상 베이스 레이어의 매크로 블록쌍의 참조 인덱스와 모션 벡터가 유도되는 것을 도식적으로 나타낸 것이며, 이 경우는 베이스 레이어의 우수 또는 기수 필드의 한 매크로 블록의 모션 정보로부터 가상 베이스 레이어의 매크로 블록쌍의 모션 정보를 유도하는 것만 상이할 뿐, 유도하는 데 적용되는 동작은 앞서 도 9a를 참조하여 설명한 경우와 동일하다. 다만, 대응하는 베이스 레이어(BL)의 한 필드내에 상단 및 하단 매크로 블록쌍이 존재하지 않으므로, 도 9b에 예시된 경우에서 매크로 블록쌍의 모션 정보를 혼합하여 사용하는 경우는 본 경우(IV)에 적용되지 않는다.FIG. 11 is a diagram illustrating derivation of a reference index and a motion vector of a macroblock pair of a virtual base layer according to another embodiment of the present invention. In this case, motion information of one macroblock of an even or odd field of the base layer is derived. Only the derivation of the motion information of the macroblock pair of the virtual base layer is different from the above, and the operation applied to the derivation is the same as the case described with reference to FIG. 9A. However, since the upper and lower macroblock pairs do not exist in one field of the corresponding base layer BL, the case where the motion information of the macroblock pairs is mixed in the case illustrated in FIG. 9B is applied to this case (IV). It doesn't work.

도 10a 내지 10c를 참조로 설명한 실시예에서는, 상기 EL 엔코더(20)가 가상 베이스 레이어의 매크로 블록쌍에 대한 모션 정보를 예측함에 있어서, 베이스 레이어의 대응 필드 MB의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하였으나, 도 11 에 따른 다른 일 실시예에서는, 베이스 레이어의 대응 필드 MB의 모션정보에 근거해서, 가상 베이스 레이어의 매크로 블록쌍에 대 해, 먼저 참조 인덱스와 모션 벡터를 유도한 뒤, 그 유도된 결과에 근거해서 마지막으로 가상 베이스 레이어의 매크로 블록쌍의 분할모드를 결정한다. 마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록이 허용되는 분할형태이면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할형태로 지정한다.In the embodiment described with reference to Figs. 10A to 10C, when the EL encoder 20 predicts motion information for a macroblock pair of a virtual base layer, the split mode, based on the motion information of the corresponding field MB of the base layer, Reference indexes and motion vectors are derived in this order, but in another embodiment according to FIG. 11, based on the motion information of the corresponding field MB of the base layer, for the macro block pair of the virtual base layer, first, the reference index and the motion vector are shown. After deriving, finally, the partition mode of the macroblock pair of the virtual base layer is determined based on the derived result. Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and the same reference index, and then designate the combined form if the combined block is an acceptable split form, otherwise specify the split form before combining. do.

전술한 실시예들에서, 텍스처(texture) 예측의 경우에는, 베이스 레이어의 대응되는 필드 MB가 인트라 모드이면 현재 매크로 블록에 대해 인트라 베이스 예측 코딩이 수행되고, 인터 모드이면 현재 매크로 블록이 인터모드로 코딩되는 경우 레이어간 레지듀얼(residual) 예측 코딩이 수행된다. 물론, 이 때는 예측에 사용할 필드 MB에 대해서는 수직축으로 업샘플링한 후 텍스처 예측에 사용한다.In the above embodiments, in the case of texture prediction, intra base prediction coding is performed on the current macro block if the corresponding field MB of the base layer is intra mode, and if the current macro block is inter mode, the inter mode is performed. When coded, inter-layer residual prediction coding is performed. Of course, in this case, the field MB to be used for prediction is upsampled on the vertical axis and then used for texture prediction.

본 발명에 따른 다른 일 실시예에서는, 기수 또는 우수의 필드에 있는 필드 MB로부터 가상의(virtual) 매크로 블록을 생성하여 매크로 블록쌍을 구성한 뒤, 그 구성된 매크로 블록쌍으로부터 가상 베이스 레이어의 매크로 블록쌍의 모션 정보를 유도한다. 도 12a 및 12b는 이에 대한 예를 도시한 것이다.In another embodiment according to the present invention, a virtual macro block is generated from a field MB in the odd or even field to form a macro block pair, and then the macro block pair of the virtual base layer is formed from the configured macro block pair. To derive motion information. 12A and 12B show an example of this.

본 실시예에서는, 베이스 레이어의 대응되는 우수 (또는 기수) 필드 MB의 참조 인덱스와 모션벡터를 복사(1201,1202)하여 가상의 기수 (또는 우수) 필드 MB를 만들어 한쌍의 매크로 블록(1211)을 구성하고, 그 구성된 매크로 블록쌍(1211)의 모션 정보를 혼합하여 가상 베이스 레이어의 매크로 블록쌍(1212)의 모션정보를 유도한다(1203,1204). 모션정보를 혼합하여 사용하는 한 예는, 도 12a 및 12b에 예시된 바와 같이, 참조 인덱스의 경우에, 대응되는 상단 매크로 블록의 상위 8x8 블록 은 가상 베이스 레이어의 매크로 블록쌍(1212)의 상단 매크로 블록의 상위 8x8 블록에, 하위 8x8 블록은 하단 매크로 블록의 상위 8x8 블록에, 대응되는 하단 매크로 블록의 상위 8x8 블록은 가상 베이스 레이어의 매크로 블록쌍(1212)의 상단 매크로 블록의 하위 8x8 블록에, 하위 8x8 블록은 하단 매크로 블록의 하위 8x8 블록에 대응시켜 참조 인덱스를 적용한다(1203). 그리고, 모션 벡터의 경우에, 참조 인덱스에 따라 대응시켜 적용하며(1204), 이는 도 12a 및 12b에 의해 직관적으로 이해될 수 있으므로 그 설명은 생략한다.In this embodiment, the reference index of the corresponding even (or odd) field MB of the base layer and the motion vector are copied (1201, 1202) to create a virtual odd (or even) field MB to create a pair of macro blocks 1211. The motion information of the macroblock pair 1212 of the virtual base layer is derived by mixing the motion information of the configured macroblock pair 1211 (1203 and 1204). One example of mixing motion information is, as illustrated in FIGS. 12A and 12B, in the case of a reference index, the upper 8x8 block of the corresponding upper macroblock is the upper macro of the macroblock pair 1212 of the virtual base layer. In the upper 8x8 block of the block, the lower 8x8 block in the upper 8x8 block of the lower macro block, the upper 8x8 block in the corresponding lower macro block is in the lower 8x8 block of the upper macro block of the macro block pair 1212 of the virtual base layer, The lower 8x8 block applies a reference index to the lower 8x8 block of the lower macro block (1203). And, in the case of a motion vector, correspondingly applied according to the reference index (1204), since this can be intuitively understood by Figs. 12A and 12B, description thereof is omitted.

도 12a 및 12b에 예시된 실시예의 경우에 가상 베이스 레이어의 매크로 블록쌍(1212)의 분할모드는 유도된 참조 인덱스와 모션 벡터에 근거해서 결정하며, 그 방법은 전술한 바와 동일한다.In the case of the embodiment illustrated in FIGS. 12A and 12B, the split mode of the macro block pair 1212 of the virtual base layer is determined based on the derived reference index and the motion vector, and the method is the same as described above.

V. 필드 MB -> 필드 MB의 경우V. For Field MB-> Field MB

이 경우는, 필드 MB가 필드 픽처에 속한 것인지 MBAFF 프레임에 속한 것인지로 세분되므로, 다음과 같이 4가지의 경우로 나뉘어진다.In this case, since the field MB belongs to the field picture or the MBAFF frame, it is divided into four cases as follows.

i) 베이스 레이어와 인핸스드 레이어가 MBAFF 프레임인 경우i) When the base layer and the enhanced layer are MBAFF frames

이 경우는 도 13a에 나타내었으며, 도시된 바와 같이 대응되는 베이스 레이어(BL)의 매크로 블록쌍의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 가상 베이스 레이어의 매크로 블록쌍의 모션정보로 그대로 복사하여 사용한다. 다만, 복사는 동일 패러티(parity)의 매크로 블록간에 이루어지게 한다. 즉, 모션정보가 복사될 때 우수 필드 MB는 우수 필드 MB로 기수 필드 MB는 기수 필드 MB로 복사된다.In this case, as shown in FIG. 13A, as shown, the motion information (dividing mode, reference index, and motion vector) of the macroblock pair of the corresponding base layer BL is used as the motion information of the macroblock pair of the virtual base layer. Copy and use However, copying is made between macro blocks of the same parity. That is, when motion information is copied, even field MB is copied to even field MB and odd field MB is copied to odd field MB.

ii) 베이스 레이어가 필드 픽처이고 인핸스드 레이어가 MBAFF 프레임인 경우ii) When the base layer is a field picture and the enhanced layer is an MBAFF frame

이 경우는 도 13b에 나타내었으며, 도시된 바와 같이 대응되는 베이스 레이어(BL)의 하나의 필드 매크로 블록의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 가상 베이스 레이어의 매크로 블록쌍의 각 매크로 블록의 모션정보로 그대로 복사하여 사용한다. 이 때는, 단일 필드 MB의 모션정보를 상단 및 하단의 필드 MB에 모두 사용하게 되므로 동일 패터리간 복사 규칙은 적용되지 않는다.In this case, as shown in FIG. 13B, the motion information (segmentation mode, reference index, and motion vector) of one field macroblock of the corresponding base layer BL is shown as shown in FIG. 13B. Copy and use as motion information of a block. In this case, since the motion information of a single field MB is used for both the upper and lower field MBs, the same inter-pattern copying rule does not apply.

iii) 베이스 레이어가 MBAFF 프레임이고 인핸스드 레이어가 필드 픽처인 경우iii) the base layer is an MBAFF frame and the enhanced layer is a field picture.

이 경우는 도 13c에 나타내었으며, 도시된 바와 같이 현재 필드 MB에 대응되는 베이스 레이어(BL)의 매크로 블록쌍 중 동일 패러티의 필드 MB를 선택하여 그 필드 MB의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 가상 베이스 레이어의 필드 매크로 블록의 모션정보로 그대로 복사하여 사용한다.In this case, as shown in FIG. 13C, as shown in FIG. 13C, the field MB of the same parity is selected among the macroblock pairs of the base layer BL corresponding to the current field MB, and motion information (partition mode, reference index, The motion vector) is copied into the motion information of the field macro block of the virtual base layer as it is.

iv) 베이스 레이어와 인핸스드 레이어가 필드 픽처인 경우iv) When the base layer and the enhanced layer are field pictures

이 경우는 도 13d에 나타내었으며, 도시된 바와 같이 대응되는 베이스 레이어(BL)의 필드 매크로 블록의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 가상 베이스 레이어의 필드 매크로 블록의 모션정보로 그대로 복사하여 사용한다. 이 때도, 복사는 동일 패러티(parity)의 매크로 블록간에 이루어지게 한다.In this case, as shown in FIG. 13D, as shown, the motion information (dividing mode, reference index, and motion vector) of the field macroblock of the corresponding base layer BL is used as the motion information of the field macroblock of the virtual base layer. Copy and use Even in this case, copying is made between macro blocks of the same parity.

지금까지는 베이스 레이어와 인핸스드 레이어가 동일 해상도를 가지는 경우에 대해 설명하였다. 이하에서는 인핸스드 레이어가 베이스 레이어보다 해상도가 높은 경우( SpatialScalabilityType()가 0보다 큰 경우 )에 대해서 각 레이어의 픽처의 유형( 순차주사방식의 프레임, MBAFF 프레임, 비월주사방식의 필드 )를 확인하고 그 확인된 유형에 따라 레이어간 예측방법을 적용하는 것에 대해 설명한다.Up to now, the case where the base layer and the enhanced layer have the same resolution has been described. In the following, the type of picture (sequential scanning frame, MBAFF frame, interlaced field) of each layer is checked for the case where the enhanced layer has a higher resolution than the base layer (when SpatialScalabilityType () is greater than 0). The application of the inter-layer prediction method according to the identified type is described.

A). 베이스 레이어:순차주사방식의 프레임 -> 인핸스드 레이어:MBAFF 프레임A). Base Layer: Sequential Scanning Frame-> Enhanced Layer: MBAFF Frame

도 14a는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 베이스 레이어의 대응 프레임의 모든 매크로 블록의 모션 정보를 복사하여 가상의 프레임을 먼저 만든다. 그리고 업샘플링을 수행하는 데, 이 업샘플링에서는 베이스 레이어의 픽처의 텍스처 정보를 사용하여 그 픽처의 해상도( 픽처 크기 )가 현재 레이어의 해상도( 픽처 크기 )와 동일해지도록 하는 비율로 인터폴레이션(interpolation)이 수행되고, 또한 상기 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 인터폴레이션에 의해 확대된 픽처의 각 매크로 블록의 모션 정보를 구성하게 되는 데, 이 구성 방법에는 기 공지된 방법 중 하나를 사용한다. 이와 같이 구성된 잠정(interim) 베이스 레이어의 픽처는 현재의 인핸스드 레이어 픽처의 해상도와 동일한 해상도를 갖게된다. 따라서, 전술한 레이어간 모션 예측을 적용할 수 있게 된다.Fig. 14A shows the processing method for this case. As shown, a virtual frame is first created by copying motion information of all macro blocks of a corresponding frame of the base layer. Upsampling is performed by using the base layer's texture information to interpolate the picture's resolution (picture size) at the same rate as the current layer's resolution (picture size). Is performed, and motion information of each macroblock of a picture enlarged by interpolation is configured based on the motion information of each macroblock of the virtual frame. One of the well-known methods is used for this configuration method. . The picture of the interim base layer configured as described above has the same resolution as that of the current enhanced layer picture. Therefore, the above-described inter-layer motion prediction can be applied.

도 14a의 경우는, 베이스 레이어가 프레임이고, 현재 레이어가 MBAFF 프레임이므로, 해당 픽처내의 각 매크로 블록은 프레임 MB와 MBAFF 프레임내 필드 MB가 된다. 따라서, 전술한 경우 I을 적용하여 레이어간 예측을 수행한다. 그런데, 앞서 언급한 바와 같이, MBAFF 프레임은 필드 MB쌍외에 프레임 MB쌍도 동일 프레임내에 포함하고 있을 수 있다. 따라서, 잠정 베이스 레이어의 픽처내의 매크로 블록쌍과 대응하는 현재 레이어의 매크로 블록쌍이 필드 MB가 아니고 프레임 MB인 경우에는, 기 공지된 프레임 MB간의 예측방법, 즉 frame_to_frame의 예측방식( 이는 정보의 단순한 모션정보의 복사이다. )을 적용한다.In the case of Fig. 14A, since the base layer is a frame and the current layer is an MBAFF frame, each macro block in the picture becomes a frame MB and a field MB in the MBAFF frame. Therefore, in the above-described case, I is applied to perform inter-layer prediction. However, as mentioned above, the MBAFF frame may include not only the field MB pair but also the frame MB pair in the same frame. Therefore, when the macroblock pair in the picture of the temporary base layer and the corresponding macroblock pair of the current layer are not a field MB but a frame MB, a prediction method between previously known frame MBs, that is, a prediction method of frame_to_frame (that is, a simple motion of information). This is a copy of the information.

B). 베이스 레이어:순차주사방식의 프레임 -> 인핸스드 레이어:비월주사방식의 필드B). Base Layer: Sequential Scanning Frame-> Enhanced Layer: Interlaced Fields

도 14b는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 베이스 레이어의 대응 프레임의 모든 매크로 블록의 모션 정보를 복사하여 가상의 프레임을 먼저 만든다. 그리고 업샘플링을 수행하는 데, 이 업샘플링에서는 베이스 레이어의 픽처의 텍스처 정보를 사용하여 그 픽처의 해상도가 현재 레이어의 해상도와 동일해지도록 하는 비율로 인터폴레이션이 수행되고, 또한 상기 구성된 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 인터폴레이션에 의해 확대된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 필드 픽처내의 필드 MB이므로, 전술한 경우 II를 적용하여 레이어간 모션 예측을 수행한다.Fig. 14B shows the processing method for this case. As shown, a virtual frame is first created by copying motion information of all macro blocks of a corresponding frame of the base layer. In the upsampling, interpolation is performed using the texture information of the picture of the base layer so that the resolution of the picture is the same as that of the current layer. Based on the motion information of the macro block, motion information of each macro block of the picture enlarged by interpolation is configured. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB, and each macro block of the current layer is a field MB in the field picture, inter-layer motion prediction is performed by applying II as described above.

C). 베이스 레이어:MBAFF 프레임 -> 인핸스드 레이어:순차주사방식의 프레임C). Base Layer: MBAFF Frame-> Enhanced Layer: Sequential Scan Frame

도 14c는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 대응 MBAFF 프레임을 순차주사방식의 프레임으로 변환한다. MBAFF 프레임의 필드 MB쌍에 대해서는 순차주사방식의 프레임으로 변환하기 위해서 는 전술한 경우 III의 방법을 적용하고 프레임 MB쌍에 대해서는 공지된 frame_to_frame의 예측방식을 적용한다. 물론, 이때의 III의 방법 적용은, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. Fig. 14C shows the processing method for this case. As shown, first, the corresponding MBAFF frame of the base layer is converted into a frame of a sequential scan method. In order to convert the field MB pair of the MBAFF frame into a sequential scanning method, the method of the above-described case III is applied, and the known frame_to_frame prediction method is applied to the frame MB pair. Of course, the method of III is to generate the motion information of the virtual frame and each macroblock in the frame by using the data obtained by the inter-layer prediction. It does not perform the operation of coding.

가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 업샘플링을 수행한다. 이 업샘플링에서는 베이스 레이어의 해상도가 현재 레이어의 해상도와 동일해지도록 하는 비율로 인터폴레이션이 이루어지며, 또한 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 확대된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록도 프레임 MB이므로, 기 공지되어 있는 프레임 MB 대 프레임 MB의 레이어간 모션예측을 수행한다.If a virtual frame is obtained, upsampling is performed on the virtual frame. In this upsampling, interpolation is performed at a rate such that the resolution of the base layer is equal to the resolution of the current layer, and is enlarged based on the motion information of each macro block of the virtual frame using one of the known methods. The motion information of each macro block of the picture is constituted. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB, and each macro block of the current layer is also a frame MB, inter-layer motion prediction of a known frame MB to frame MB is performed.

D). 베이스 레이어:비월주사방식의 필드 -> 인핸스드 레이어:순차주사방식의 프레임D). Base layer: Interlaced fields-> Enhanced layer: Sequential scan frame

도 14d는 이 경우에 대한 처리방식의 하나를 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 대응 필드를 순차주사방식의 프레임으로 변환한다. 이 변환된 프레임은 현재 레이어의 픽처와 동일한 수직/수평의 비율을 갖는다. 비월주사방식의 필드를 순차주사방식의 프레임으로 변환하기 위해서는 업샘플링과 전술한 경우 IV의 방법을 적용한다. 물론, 이때의 IV의 방법 적용도, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임의 텍스처 데이터와 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. Fig. 14D shows one of the processing schemes for this case. As shown, first, the corresponding field of the base layer is converted into a frame of a sequential scan method. This converted frame has the same vertical / horizontal ratio as the picture of the current layer. In order to convert an interlaced field into a sequential scan frame, upsampling and IV described above are applied. Of course, the method of IV is also used to generate texture data of a virtual frame and motion information of each macroblock in the frame using data obtained by inter-layer prediction. It does not perform the operation of coding the difference of.

가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 업샘플링을 수행한다. 이 업샘플링에서, 상기 가상 프레임이 현재 레이어의 해상도와 동일해지도록 인터폴레이션이 수행되고 또한 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 인터폴레이션된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록도 프레임 MB이므로, 기 공지되어 있는 프레임 MB 대 프레임 MB의 레이어간 모션 예측을 수행한다.If a virtual frame is obtained, upsampling is performed on the virtual frame. In this upsampling, interpolation is performed so that the virtual frame is equal to the resolution of the current layer and each macro of the interpolated picture based on the motion information of each macroblock of the virtual frame using one of the known methods. Configure the motion information of the block. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is also a frame MB, inter-layer motion prediction of a known frame MB to frame MB is performed.

도 14e는 본 발명의 다른 실시예에 따른, 상기 D)의 경우에 대한 처리방식을 도시한 것이다. 본 실시예는 도시된 바와 같이, 베이스 레이어의 기수 또는 우수의 대응 필드를 순차주사방식의 프레임으로 변환한다. 비월주사방식의 필드를 순차주사방식의 프레임으로 변환하기 위해서는, 도 14d에서와 같이 업샘플링과 전술한 경우 IV의 방법을 적용한다. 가상의 프레임이 얻어지면, 그 가상 프레임에 대해서, 기 공지된 방법 중 하나인, 동일한 수직/수평 비율을 갖는 픽처간의 모션예측방법을 현재 레이어의 픽처와 잠정 레이어의 가상의 프레임간에 적용하여 현재 레이어의 순차주사방식의 픽처내의 각 매크로 블록의 모션정보를 예측코딩한다.14E illustrates a processing scheme for the case of D) according to another embodiment of the present invention. In this embodiment, as shown, the odd or even field of the base layer is converted into a frame of a sequential scan method. In order to convert an interlaced field into a sequential scan type frame, upsampling and the method of IV described above are applied as shown in FIG. 14D. Once the virtual frame is obtained, the current layer is applied to the virtual frame by applying a motion prediction method between pictures having the same vertical / horizontal ratio, one of the known methods, between the picture of the current layer and the virtual frame of the temporary layer. Predictive coding of motion information of each macro block in a picture of a sequential scanning method.

도 14e에 예시된 방법은, 도 14d에 예시된 방법과 비교해 볼 때, 임시 예측정 보(prediction signal)가 생성되지 않는다는 점에서 상이하다.The method illustrated in FIG. 14E is different in that no temporary prediction signal is generated when compared to the method illustrated in FIG. 14D.

도 14f는 본 발명의 또 다른 실시예에 따른, 상기 D)의 경우에 대한 처리방식을 도시한 것이다. 본 실시예는 도시된 바와 같이, 베이스 레이어의 대응 필드의 모든 매크로 블록의 모션 정보를 복사하여 가상의 픽처를 만든다. 그리고, 업샘플링을 수행하는 데, 이 업샘플링에서는, 베이스 레이어의 픽처의 텍스처 정보를 사용하고 또한 수직 및 수평의 인터폴레이션 비율이 다르도록 하여 확대된 픽처가 현재 레이어의 픽처와 동일 크기( 동일 해상도 )를 갖도록 하며, 또한 기 공지된 방법 중 하나의 예측방법( 예를 들어 ESS(Extended Special Scalability) )을 상기 가상의 픽처에 적용하여 확대된 픽처의 모션정보와 각 종 신택스 정보를 구성한다. 여기서 구성되는 모션벡터는 확대된 비율에 맞도록 신장된다. 잠정 베이스 레이어의 업샘플링된 픽처가 구성되면 그 픽처를 사용하여 현재 레이어의 픽처내의 각 매크로 블록에 대한 레이어간 모션예측을 적용하여 현재 레이어의 픽처내의 각 매크로 블록의 모션정보를 코딩한다. 이 때 적용하는 레이어간 예측방식은, 기 공지되어 있는 프레임 MB 대 프레임 MB의 레이어간 모션예측방식이 된다.14F illustrates a processing scheme for the case of D) according to another embodiment of the present invention. As shown in the present embodiment, a virtual picture is created by copying motion information of all macro blocks of a corresponding field of a base layer. In the upsampling, the enlarged picture uses the texture information of the picture of the base layer and the vertical and horizontal interpolation ratios are different so that the enlarged picture is the same size as the picture of the current layer (same resolution). In addition, a prediction method (eg, Extended Special Scalability (ESS)) of one of the known methods is applied to the virtual picture to configure motion information and various syntax information of the enlarged picture. The motion vector configured here is stretched to fit the enlarged ratio. When the upsampled picture of the tentative base layer is configured, motion information of each macroblock in the picture of the current layer is coded by applying inter-layer motion prediction for each macroblock in the picture of the current layer using the picture. The inter-layer prediction method applied at this time is a known inter-layer motion prediction method of frame MB to frame MB.

도 14g는 본 발명의 또 다른 실시예에 따른, 상기 D)의 경우에 대한 처리방식을 도시한 것이다. 본 실시예는 도시된 바와 같이, 먼저 베이스 레이어의 대응 필드의 모든 매크로 블록의 모션 정보를 복사하여 가상의 픽처를 만든다. 그 후, 베이스 레이어의 픽처의 텍스처 정보를 사용하여 수직/수평비율이 다르게 인터폴레이션하는 동작( 이 동작에 의해 생성된 텍스처 정보는 레이어간 텍스처 예측에 사용된다. )이 수행되며, 또한 상기 가상의 픽처내의 모션정보를 사용하여 현재 레이어 의 픽처내의 각 매크로 블록에 대한 레이어간 모션예측을 동시에 수행하는 공지의 방법 중 하나, 예를 들어 JSVM(Joint Scalable Video Model)에 정의된 ESS(Extended Special Scalability)를 적용하여 현재 레이어의 픽처에 대한 모션예측코딩을 수행한다.14G illustrates a processing scheme for the case of D) according to another embodiment of the present invention. As shown in the present embodiment, first, motion information of all macro blocks of a corresponding field of a base layer is copied to create a virtual picture. Thereafter, an operation of interpolating the vertical / horizontal ratios differently using the texture information of the picture of the base layer (texture information generated by this operation is used for inter-layer texture prediction) is performed, and the virtual picture is also performed. One of the well-known methods for simultaneously performing inter-layer motion prediction for each macroblock in a picture of the current layer using motion information in the current layer, for example, Extended Special Scalability (ESS) defined in Joint Scalable Video Model (JSVM) The motion prediction coding is performed on the picture of the current layer.

도 14g에 예시된 방법은, 도 14f에 예시된 방법과 비교해 볼 때, 임시 예측정보(prediction signal)가 생성되지 않는다는 점에서 상이하다.The method illustrated in FIG. 14G is different in that no prediction signal is generated when compared to the method illustrated in FIG. 14F.

E). 베이스 레이어:MBAFF 프레임 -> 인핸스드 레이어:MBAFF 프레임E). Base Layer: MBAFF Frame-> Enhanced Layer: MBAFF Frame

도 14h는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 대응 MBAFF 프레임을 순차주사방식의 프레임으로 변환한다. MBAFF 프레임을 순차주사방식의 프레임으로 변환하기 위해서는, 필드 MB쌍에 대해서 전술한 경우 III의 방법을 적용하고 프레임 MB쌍에 대해서는 frame_to_frame의 예측방식을 적용한다. 물론, 이때의 III의 방법 적용은, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. Fig. 14H shows the processing method for this case. As shown, first, the corresponding MBAFF frame of the base layer is converted into a frame of a sequential scan method. In order to convert an MBAFF frame into a sequential scanning method, the method in case III described above is applied to the field MB pair, and the prediction method of frame_to_frame is applied to the frame MB pair. Of course, the method of III is to generate the motion information of the virtual frame and each macroblock in the frame by using the data obtained by the inter-layer prediction. It does not perform the operation of coding.

가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 업샘플링을 수행한다. 이 업샘플링에서는 베이스 레이어의 해상도가 현재 레이어의 해상도와 일치하도록 비율로 인터폴레이션이 이루어지고 또한 기 공지된 방법 중 하나를 사용하여, 상기 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 확대된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 MBAFF 프레임내의 필드 MB이므로, 전술한 I의 방법을 적용하여 레이어간 모션예측을 수행한다. 그런데, 앞서 언급한 바와 같이, MBAFF 프레임은 필드 MB쌍외에 프레임 MB쌍도 동일 프레임내에 포함하고 있을 수 있다. 따라서, 잠정 베이스 레이어의 픽처내의 매크로 블록쌍과 대응하는 현재 레이어의 매크로 블록쌍이 필드 MB가 아니고 프레임 MB인 경우에는, 기 공지된 프레임 MB간의 모션 예측방법, 즉 frame_to_frame의 예측방식( 모션정보의 복사 )을 적용한다.If a virtual frame is obtained, upsampling is performed on the virtual frame. In this upsampling, interpolation is performed at a rate such that the resolution of the base layer matches the resolution of the current layer, and using one of the known methods, the enlargement of the enlarged picture based on the motion information of each macro block of the virtual frame is performed. Configures the motion information of each macro block. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is a field MB in the MBAFF frame, inter-layer motion prediction is performed by applying the above-described method. However, as mentioned above, the MBAFF frame may include not only the field MB pair but also the frame MB pair in the same frame. Therefore, when the macroblock pair of the current layer corresponding to the macroblock pair in the picture of the temporary base layer is not a field MB but a frame MB, a motion prediction method between previously known frame MBs, that is, a prediction method of frame_to_frame (copy of motion information). ).

F). 베이스 레이어:MBAFF 프레임 -> 인핸스드 레이어:비월주사방식의 필드F). Base Layer: MBAFF Frame-> Enhanced Layer: Interlaced Fields

도 14i는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 대응 MBAFF 프레임을 순차주사방식의 프레임으로 변환한다. MBAFF 프레임을 순차주사방식의 프레임으로 변환하기 위해서는, 필드 MB쌍에 대해서는 전술한 경우 III의 방법을 적용하고 프레임 MB쌍에 대해서는 frame_to_frame의 예측방식을 적용한다. 물론, 이때의 III의 방법 적용도, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. Fig. 14I shows the processing method for this case. As shown, first, the corresponding MBAFF frame of the base layer is converted into a frame of a sequential scan method. In order to convert an MBAFF frame into a sequential scanning method, the above-described method III is applied to the field MB pair, and the prediction method of frame_to_frame is applied to the frame MB pair. Of course, the method of III is also used to generate motion information of a virtual frame and each macroblock within the frame using data obtained by inter-layer prediction. It does not perform the operation of coding.

가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 현재 레이어의 해상도와 일치하도록 인터폴레이션을 수행하고 동시에 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 확대된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 우수 또는 기수 필드내의 필드 MB이므로, 전술한 II의 방법을 적용하여 레이어간 모션예측을 수행한다.When a virtual frame is obtained, interpolation is performed on the virtual frame to match the resolution of the current layer, and at the same time, using one of the known methods, the enlarged picture is based on the motion information of each macro block of the virtual frame. Configures the motion information of each macro block. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is a field MB in even or odd fields, the inter-layer motion prediction is performed by applying the method of II described above.

G). 베이스 레이어:비월주사방식의 필드 -> 인핸스드 레이어:MBAFF 프레임도 14j는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 비월주사방식의 필드를 순차주사방식의 프레임으로 변환한다. 비월주사방식의 필드를 순차주사방식의 프레임으로 변환하기 위해서는 업샘플링과 전술한 경우 IV의 방법을 적용한다. 물론, 이때의 IV의 방법 적용도, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. G). Base Layer: Interlaced Fields-> Enhanced Layer: MBAFF Frame FIG. 14j shows the processing method for this case. As shown, first, the interlaced field of the base layer is converted into a progressive scan frame. In order to convert an interlaced field into a sequential scan frame, upsampling and IV described above are applied. Of course, the method of IV is also used to generate motion information of a virtual frame and each macroblock within the frame using data obtained by inter-layer prediction. It does not perform the operation of coding.

가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 업샘플링을 수행하여 현재 레이어의 해상도와 일치되도록 하고 동시에 기 공지된 방법 중 하나를 사용하여 확대된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 MBAFF 프레임내의 필드 MB이므로, 전술한 I의 방법을 적용하여 레이어간 모션예측을 수행한다. 그런데, MBAFF 프레임은 앞서 언급한 바와 같이, 필드 MB쌍 외에 프레임 MB쌍도 동일 프레임내에 포함하고 있을 수 있으므로, 잠정 베이스 레이어의 픽처내의 매크로 블록쌍과 대응하는 현재 레이어의 매크로 블록쌍이 필드 MB가 아니고 프레임 MB인 경우에는, 전술한 I의 예측방법이 아닌 기 공지된 프레임 MB간의 모션 예측방법, 즉 frame_to_frame의 예측방식을 적용한다.When a virtual frame is obtained, upsampling is performed on the virtual frame to match the resolution of the current layer, and at the same time, motion information of each macro block of the enlarged picture is configured using one of known methods. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is a field MB in the MBAFF frame, inter-layer motion prediction is performed by applying the above-described method. However, as mentioned above, since the MBAFF frame may include the frame MB pair in addition to the field MB pair in the same frame, the macroblock pair of the current layer corresponding to the macroblock pair in the picture of the temporary base layer is not the field MB. In the case of the frame MB, the motion prediction method between frame MBs known in advance, that is, the frame_to_frame prediction method, is applied instead of the aforementioned I prediction method.

H). 베이스 레이어:비월주사방식의 필드 -> 인핸스드 레이어:비월주사방식의 필드H). Base Layer: Interlaced Fields-> Enhanced Layer: Interlaced Fields

도 14k는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 베이스 레이어의 대응 필드의 모든 매크로 블록의 모션 정보를 복사하여 가상의 필드를 만든 후, 그 가상 필드에 대해서 업샘플링을 수행한다. 이 업샘플링은 베이스 레이어의 해상도가 현재 레이어의 해상도와 동일해지도록 하는 비율로 이루어지며, 기 공지된 방법 중 하나가 사용되어, 가상 필드의 각 매크로 블록의 모션 정보에 근거하여, 상기 확대된 픽처의 각 매크로 블록의 모션 정보가 구성된다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 필드 픽처내의 필드 MB이고, 현재 레이어의 각 매크로 블록도 또한 필드 픽처내의 필드 MB이므로, 전술한 V의 iv)의 경우를 적용하여 레이어간 모션 예측을 수행한다.Fig. 14K shows the processing method for this case. As shown, after copying the motion information of all macroblocks of the corresponding field of the base layer to create a virtual field, up-sampling is performed on the virtual field. This upsampling is done at a rate such that the resolution of the base layer is equal to the resolution of the current layer, and one of the known methods is used, and based on the motion information of each macro block of the virtual field, the enlarged picture The motion information of each macro block in is constructed. Since each macro block in the picture of the provisional base layer configured as described above is a field MB in the field picture, and each macro block in the current layer is also a field MB in the field picture, inter-layer motion prediction is applied by applying the above-described case of V). Do this.

도 14a 내지 14k의 실시예의 설명에 있어서, 베이스 레이어의 픽처의 텍스처 정보대신 잠정 레이어의 가상 필드 또는 가상 프레임의 텍스처 정보를 업샘플링에서 사용한 것으로 하였으나, 베이스 레이어의 픽처의 텍스처 정보를 사용할 수 있 음은 물론이다. 또한, 후단에서 이루어지는 레이어간 모션예측에 사용될 잠정 레이어의 픽처의 모션정보를 유도함에 있어서 불필요한 경우에는 전술한 업샘플링과정에서 텍스처 정보를 사용한 인터폴레이션 과정은 생략될 수 있다.In the description of the embodiments of FIGS. 14A to 14K, the texture information of the virtual layer or the virtual frame of the temporary layer is used for upsampling instead of the texture information of the picture of the base layer, but the texture information of the picture of the base layer may be used. Of course. In addition, when deriving motion information of a picture of a tentative layer to be used for inter-layer motion prediction at a later stage, an interpolation process using texture information may be omitted in the above upsampling process.

지금까지는 도 2a 또는 2b의 장치에서의 EL 엔코더(20)가 수행하는 레이어간 예측동작을 설명하였다. 하지만, 전술한 모든 레이어간 예측동작의 설명은 베이스 레이어로부터 디코딩된 정보를 수신하여 인핸스드 레이어의 스트림을 디코딩하는 인핸스드 레이어의 디코더에도 동일하게 적용될 수 있다. 엔코딩과 디코딩 과정에서는 전술한 레이어간 예측동작이 동일하게 수행되며, 다만 레이어간 예측이후의 동작이 상이할 뿐이다. 예를 들어 엔코더는, 모션 예측을 수행한 후 그 예측된 정보를 또는 예측된 정보와 실제 정보와의 차정보를 디코더로 전송하기 위해 코딩하지만, 디코더는 엔코더에서 수행된 것과 동일한 레이어간 모션 예측에 의해 얻은 정보를 그대로 현 매크로 블록에 적용하여, 또는 실제 수신한 매크로 블록의 모션정보를 추가로 이용하여 실제 모션정보를 구하는 점이 상이할 뿐이다. 따라서, 엔코딩관점에서 전술한 본 발명의 내용과 그 원리는 수신되는 양 레이어의 데이터 스트림을 디코딩하는 디코더에도 그대로 적용된다.The interlayer prediction operation performed by the EL encoder 20 in the apparatus of FIG. 2A or 2B has been described so far. However, the above description of all the inter-layer prediction operations may be equally applied to the decoder of the enhanced layer that receives the decoded information from the base layer and decodes the stream of the enhanced layer. In the encoding and decoding process, the above-described inter-layer prediction operation is performed in the same manner, except that the operations after the inter-layer prediction are different. For example, the encoder performs motion prediction and then codes the predicted information or the difference between the predicted information and the actual information to send to the decoder, but the decoder does not use the same inter-layer motion prediction as performed at the encoder. The only difference is that the actual motion information is obtained by applying the obtained information to the current macro block as it is or by additionally using the motion information of the actually received macro block. Thus, the teachings and principles of the invention described above in terms of encoding apply equally to decoders that decode the data streams of both layers received.

본 발명은 전술한 전형적인 바람직한 실시예에만 한정되는 것이 아니라 본 발명의 요지를 벗어나지 않는 범위 내에서 여러 가지로 개량, 변경, 대체 또는 부가하여 실시할 수 있는 것임은 당해 기술분야에 통상의 지식을 가진 자라면 용이하게 이해할 수 있을 것이다. 이러한 개량, 변경, 대체 또는 부가에 의한 실시가 이하의 첨부된 특허청구범위의 범주에 속하는 것이라면 그 기술사상 역시 본 발명에 속하는 것으로 보아야 한다. It is to be understood that the present invention is not limited to the above-described exemplary preferred embodiments, but may be embodied in various ways without departing from the spirit and scope of the present invention. If you grow up, you can easily understand. If the implementation by such improvement, change, replacement or addition falls within the scope of the appended claims, the technical idea should also be regarded as belonging to the present invention.

제한된 실시예로써 상술한 본 발명의 적어도 하나의 실시예는, 서로 다른 방식의 영상신호 소스를 사용하여서도 레이어간 예측을 수행할 수 있게 하므로, 복수 레이어의 코딩시에 영상신호의 픽처 유형( 비월주사방식 신호, 순차주사방식 신호, MBAFF 프레임방식의 픽처, 필드 픽처 등 )에 무관하게 데이터 코딩율을 높일 수가 있다.As a limited embodiment of the present invention, at least one embodiment of the present invention enables to perform inter-layer prediction even by using different types of video signal sources. The data coding rate can be increased irrespective of the scanning signal, the progressive scanning signal, the MBAFF frame picture, the field picture, etc.).

Claims (16)

영상신호의 엔코딩/디코딩시에 서로 상이한 공간적 해상도를 갖는 레이어간 예측을 행하는 방법에 있어서,In the method for performing inter-layer prediction having different spatial resolutions when encoding / decoding video signals, 하위 레이어의 픽처와 상위 레이어의 픽처의 유형 및/또는 픽처내의 블록의 유형을 확인하는 단계와,Identifying the type of the picture in the lower layer and the picture in the upper layer and / or the type of the block in the picture, 상기 확인결과에 따라, 상기 하위 레이어의 픽처에 대해 단일 필드 매크로 블록의 프레임 매크로 블록쌍으로의 예측방식을 적용하여 상기 상위 레이어의 픽처와 수직/수평의 비율이 동일한 가상 픽처를 구성하는 단계와,Forming a virtual picture having the same vertical / horizontal ratio as the picture of the upper layer by applying a prediction method to a frame macroblock pair of a single field macroblock with respect to the picture of the lower layer according to the result of the checking; 상기 가상 픽처를 업샘플링하는 단계와,Upsampling the virtual picture; 상기 업샘플링된 가상 픽처를 사용하여 상기 상위 레이어의 픽처에 레이어간 모션예측을 적용하는 단계를 포함하여 이루어지는 방법.Applying inter-layer motion prediction to a picture of the upper layer using the upsampled virtual picture. 제 1항에 있어서,The method of claim 1, 상기 업샘플링 단계는, 상기 가상 픽처를 상위 레이어의 픽처의 해상도와 동일해지도록 업샘플링하는 것인 방법.And the upsampling step upsamples the virtual picture to be equal to the resolution of the picture of the upper layer. 제 1항에 있어서,The method of claim 1, 상기 하위 레이어의 픽처와 상기 상위 레이어의 픽처간의 수직/수평의 비율은 서로 상이한 것인 방법.And the ratio of vertical / horizontal between the picture of the lower layer and the picture of the upper layer is different from each other. 영상신호의 엔코딩/디코딩시에 서로 상이한 공간적 해상도를 갖는 레이어간 예측을 행하는 방법에 있어서,In the method for performing inter-layer prediction having different spatial resolutions when encoding / decoding video signals, 하위 레이어의 픽처와 상위 레이어의 픽처의 유형 및/또는 픽처내의 블록의 유형을 확인하는 단계와,Identifying the type of the picture in the lower layer and the picture in the upper layer and / or the type of the block in the picture, 상기 확인결과에 따라, 상기 하위 레이어의 픽처에 대해 단일 필드 매크로 블록의 프레임 매크로 블록쌍으로의 예측방식을 적용하여 상기 상위 레이어의 픽처와 수직/수평의 비율이 동일한 가상 픽처를 구성하는 단계와,Forming a virtual picture having the same vertical / horizontal ratio as the picture of the upper layer by applying a prediction method to a frame macroblock pair of a single field macroblock with respect to the picture of the lower layer according to the result of the checking; 상기 구성된 가상 픽처를 사용하여 상기 상위 레이어의 픽처에 레이어간 모션예측을 적용하는 단계를 포함하여 이루어지는 방법.And applying inter-layer motion prediction to the picture of the upper layer using the constructed virtual picture. 제 4항에 있어서,The method of claim 4, wherein 상기 적용단계는 상기 레이어간 예측에 있어서 상기 구성된 가상 픽처를 업샘플링하는 과정을 포함하는 것인 방법.The applying step includes upsampling the configured virtual picture in the inter-layer prediction. 제 5항에 있어서,The method of claim 5, 상기 업샘플링은 수직과 수평의 업샘플링 비율이 동일하게 이루어지는 것인 방법.Wherein the upsampling is made equal in vertical and horizontal upsampling ratio. 제 4항에 있어서,The method of claim 4, wherein 상기 하위 레이어의 픽처와 상기 상위 레이어의 픽처간의 수직/수평의 비율은 서로 상이한 것인 방법.And the ratio of vertical / horizontal between the picture of the lower layer and the picture of the upper layer is different from each other. 영상신호의 엔코딩/디코딩시에 서로 상이한 공간적 해상도를 갖는 레이어간 예측을 행하는 방법에 있어서,In the method for performing inter-layer prediction having different spatial resolutions when encoding / decoding video signals, 하위 레이어의 픽처와 상위 레이어의 픽처의 유형을 확인하는 단계와,Checking the type of the picture of the lower layer and the picture of the upper layer; 상기 하위 레이어의 픽처의 유형이 필드이고 상기 상위 레이어의 픽처의 유형이 순차주사방식이면, 상기 하위 레이어의 픽처내의 블록의 모션정보를 복사하여 가상 픽처의 블록을 구성하는 단계와,If the type of the picture of the lower layer is a field and the type of the picture of the upper layer is a sequential scanning method, constructing a block of the virtual picture by copying motion information of a block in a picture of the lower layer; 상기 가상 픽처를 업샘플링하는 단계와,Upsampling the virtual picture; 상기 업샘플링된 가상 픽처와 상기 상위 레이어의 픽처간에 프레임 매크로 블록의 프레임 매크로 블록으로의 모션예측을 적용하는 단계를 포함하여 이루어지는 방법.Applying motion prediction of a frame macro block to a frame macro block between the upsampled virtual picture and the picture of the upper layer. 제 8항에 있어서,The method of claim 8, 상기 업샘플링 단계에서는 수직과 수평의 업샘플링 비율이 상이하게 이루어지는 것인 방법.The upsampling step is a vertical and horizontal upsampling ratio is different. 제 8항에 있어서,The method of claim 8, 상기 업샘플링 단계에서는, 상기 가상 픽처를 상위 레이어의 픽처의 해상도와 동일해지도록 확대하고 모션벡터 또한 신장되는 것인 방법.In the upsampling step, the virtual picture is enlarged to be equal to the resolution of the picture of the upper layer and the motion vector is also stretched. 제 8항에 있어서,The method of claim 8, 상기 하위 레이어의 픽처와 상기 상위 레이어의 픽처간의 수직/수평의 비율은 서로 상이한 것인 방법.And the ratio of vertical / horizontal between the picture of the lower layer and the picture of the upper layer is different from each other. 영상신호의 엔코딩/디코딩시에 서로 상이한 공간적 해상도를 갖는 레이어간 예측을 행하는 방법에 있어서,In the method for performing inter-layer prediction having different spatial resolutions when encoding / decoding video signals, 하위 레이어의 픽처와 상위 레이어의 픽처의 유형을 확인하는 단계와,Checking the type of the picture of the lower layer and the picture of the upper layer; 상기 하위 레이어의 픽처의 유형이 필드이고 상기 상위 레이어의 픽처의 유형이 순차주사방식이면, 상기 하위 레이어의 픽처내의 블록의 모션정보를 복사하여 가상 픽처의 블록을 구성하는 단계와,If the type of the picture of the lower layer is a field and the type of the picture of the upper layer is a sequential scanning method, constructing a block of the virtual picture by copying motion information of a block in a picture of the lower layer; 상기 가상 픽처를 사용하여 상기 상위 레이어의 픽처에 레이어간 모션 예측방식을 적용하는 단계를 포함하여 이루어지는 방법.And applying an inter-layer motion prediction method to a picture of the upper layer using the virtual picture. 제 12항에 있어서,The method of claim 12, 상기 구성단계는, 상기 하위 레이어의 픽처의 텍스처 정보와 모션정보를 복사한 정보를 갖는 가상 픽처를 구성하는 것인 방법.And the constructing step comprises constructing a virtual picture having texture information and motion information of the picture of the lower layer. 제 12항에 있어서,상기 적용단계는 상기 레이어간 예측에 있어서 상기 가상 픽처를 업샘플링하는 과정을 포함하는 것인 방법.The method of claim 12, wherein the applying step includes upsampling the virtual picture in the inter-layer prediction. 제 14항에 있어서,The method of claim 14, 상기 업샘플링은 수직과 수평의 업샘플링 비율이 상이하게 이루어지는 것인 방법.Wherein said upsampling is made up of different vertical and horizontal upsampling ratios. 제 12항에 있어서,The method of claim 12, 상기 하위 레이어의 픽처와 상기 상위 레이어의 픽처간의 수직/수평의 비율은 서로 상이한 것인 방법.And the ratio of vertical / horizontal between the picture of the lower layer and the picture of the upper layer is different from each other.
KR1020070001582A 2006-01-09 2007-01-05 Inter-layer prediction method for video signal based on picture types KR20070095180A (en)

Priority Applications (63)

Application Number Priority Date Filing Date Title
CN200780005672XA CN101385352B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,518 US8451899B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017195A KR100914712B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CA2636571A CA2636571C (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,488 US8494060B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700917.3A EP1972154A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800057544A CN101385353B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550228A JP4991759B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
EP07700919.9A EP1977609A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700921.5A EP1977610B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017196A KR100904441B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,471 US8401091B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550227A JP4991758B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
JP2008550231A JP4991762B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method and apparatus
JP2008550226A JP4991757B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
EP07700914.0A EP1972152A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000148 WO2007081140A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017198A KR100917829B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550225A JP4991756B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
EP07700916.5A EP1972153A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550224A JP5106419B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method and apparatus
PCT/KR2007/000144 WO2007081136A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700913.2A EP1980114A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017199A KR20090016544A (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017197A KR100914713B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017201A KR100904442B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,525 US8687688B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000146 WO2007081138A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN201210585882.3A CN103096078B (en) 2006-01-09 2007-01-09 For inter-layer prediction method and the device of vision signal
EP07700920.7A EP1972155A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800057826A CN101385355B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000142 WO2007100187A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800053238A CN101385348B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020097021246A KR101055742B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800057614A CN101385354B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,515 US8345755B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,523 US8792554B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550230A JP4991761B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
US12/087,466 US8264968B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000141 WO2007081134A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000145 WO2007081137A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
AU2007205337A AU2007205337B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,464 US8494042B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550229A JP4991760B2 (en) 2006-01-09 2007-01-09 Interlayer prediction method for video signals
PCT/KR2007/000143 WO2007081135A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000140 WO2007081133A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017204A KR100917206B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800056467A CN101385351B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
US12/087,526 US8457201B2 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
JP2008550232A JP4991763B2 (en) 2006-01-09 2007-01-09 Video signal encoding / decoding method
RU2008132819/09A RU2384970C1 (en) 2006-01-09 2007-01-09 Interlayer forcasting method for video signal
EP07700915.7A EP1977607A4 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
EP07700918.1A EP1977608B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
CN2007800056166A CN101385350B (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017203A KR20080092372A (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020087017202A KR100904443B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
PCT/KR2007/000147 WO2007081139A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
KR1020097011954A KR101055741B1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal
HK09106198.8A HK1129013A1 (en) 2006-01-09 2009-07-10 Inter-layer prediction method for video signal
HK09106197.9A HK1128843A1 (en) 2006-01-09 2009-07-10 Inter-layer prediction method for video signal
HK09106200.4A HK1128571A1 (en) 2006-01-09 2009-07-10 Inter-layer prediction method for video signal
US12/659,389 US8619872B2 (en) 2006-01-09 2010-03-08 Inter-layer prediction method for video signal
US14/178,751 US9497453B2 (en) 2006-01-09 2014-02-12 Inter-layer prediction method for video signal

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US78339506P 2006-03-20 2006-03-20
US60/783,395 2006-03-20
US78674106P 2006-03-29 2006-03-29
US60/786,741 2006-03-29
US81634006P 2006-06-26 2006-06-26
US60/816,340 2006-06-26

Publications (1)

Publication Number Publication Date
KR20070095180A true KR20070095180A (en) 2007-09-28

Family

ID=38688580

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070001582A KR20070095180A (en) 2006-01-09 2007-01-05 Inter-layer prediction method for video signal based on picture types

Country Status (1)

Country Link
KR (1) KR20070095180A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100963424B1 (en) * 2008-07-23 2010-06-15 한국전자통신연구원 Scalable video decoder and controlling method for the same
CN113119818A (en) * 2021-04-28 2021-07-16 上海工程技术大学 Child safety seat for vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100963424B1 (en) * 2008-07-23 2010-06-15 한국전자통신연구원 Scalable video decoder and controlling method for the same
US8571103B2 (en) 2008-07-23 2013-10-29 Electronics And Telecommunications Research Institute Scalable video decoder and controlling method for the same
CN113119818A (en) * 2021-04-28 2021-07-16 上海工程技术大学 Child safety seat for vehicle

Similar Documents

Publication Publication Date Title
KR100904441B1 (en) Inter-layer prediction method for video signal
KR20070074452A (en) Inter-layer prediction method for video signal
KR20070095180A (en) Inter-layer prediction method for video signal based on picture types
KR20070075257A (en) Inter-layer motion prediction method for video signal
RU2384970C1 (en) Interlayer forcasting method for video signal
KR101370892B1 (en) Inter-layer motion prediction method for video blocks
KR20070075293A (en) Inter-layer motion prediction method for video signal
KR20070092591A (en) Inter-layer prediction method for video signal