KR20070075257A - Inter-layer motion prediction method for video signal - Google Patents
Inter-layer motion prediction method for video signal Download PDFInfo
- Publication number
- KR20070075257A KR20070075257A KR1020060111893A KR20060111893A KR20070075257A KR 20070075257 A KR20070075257 A KR 20070075257A KR 1020060111893 A KR1020060111893 A KR 1020060111893A KR 20060111893 A KR20060111893 A KR 20060111893A KR 20070075257 A KR20070075257 A KR 20070075257A
- Authority
- KR
- South Korea
- Prior art keywords
- macroblock
- frame
- field
- block
- pair
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/53—Multi-resolution motion estimation; Hierarchical motion estimation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
도 1a 및 1b는 단일 영상소스로부터 복수 레이어로 코딩하는 방식을 각각 예시한 것이고,1A and 1B illustrate a method of coding a plurality of layers from a single image source, respectively.
도 2a 및 2b는 본 발명에 따른 레이어간 예측방법이 적용되는 영상신호 엔코딩 장치의 구성을 간략히 도시한 것이고,2A and 2B briefly illustrate a configuration of an image signal encoding apparatus to which the inter-layer prediction method according to the present invention is applied.
도 3a 및 3b는 비월주사방식의 영상신호를 엔코딩하는 픽처 시퀀스의 유형을 각기 도시한 것이고,3A and 3B illustrate types of picture sequences encoding video signals of an interlaced scan method, respectively.
도 4a 내지 4c는, 본 발명의 일 실시예에 따라, 프레임(frame) 매크로 블록(MB)의 모션정보를 이용하여 MBAFF 프레임내의 필드(field) MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,4A to 4C schematically illustrate a process of deriving motion information of a field MB in an MBAFF frame using motion information of a frame macroblock MB according to an embodiment of the present invention. ,
도 5a 내지 5b는, 도 4b 및 4c에 예시된 참조 인덱스와 모션정보의 유도과정을 보다 상세히 도시한 것이고,5A to 5B illustrate the derivation process of the reference index and the motion information illustrated in FIGS. 4B and 4C in more detail.
도 6a 내지 6c는, 본 발명의 일 실시예에 따라, 프레임 MB의 모션정보를 이용하여 필드 픽처내의 필드 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,6a to 6c schematically illustrate a process of deriving motion information of a field MB in a field picture using motion information of a frame MB according to an embodiment of the present invention.
도 7a 내지 7b는, 도 6b 및 6c에 예시된 참조 인덱스와 모션정보의 유도과정을 보다 상세히 도시한 것이고,7A to 7B illustrate the derivation process of the reference index and the motion information illustrated in FIGS. 6B and 6C in more detail.
도 8a 내지 8c는, 본 발명의 일 실시예에 따라, MBAFF 프레임내의 필드 MB의 모션정보를 이용하여 프레임 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,8A to 8C schematically illustrate a process of deriving motion information of a frame MB using motion information of a field MB in an MBAFF frame according to an embodiment of the present invention.
도 9는, 도 8b 및 8c에 예시된 참조 인덱스와 모션정보의 유도과정을 보다 상세히 도시한 것이고,9 illustrates a process of deriving the reference index and the motion information illustrated in FIGS. 8B and 8C in more detail.
도 10a 내지 10c는, 본 발명의 일 실시예에 따라, 필드 픽처내의 필드 MB의 모션정보를 이용하여 프레임 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,10A to 10C schematically illustrate a process of deriving motion information of a frame MB using motion information of a field MB in a field picture according to an embodiment of the present invention.
도 11은, 도 10b 및 10c에 예시된 참조 인덱스와 모션정보의 유도과정을 보다 상세히 도시한 것이고,FIG. 11 illustrates a process of deriving the reference index and the motion information illustrated in FIGS. 10B and 10C in more detail.
도 12a 및 12b는, 본 발명의 다른 일 실시예에 따라, 필드 픽처내의 필드 MB의 모션정보를 이용하여 프레임 MB의 모션정보를 유도하는 과정을 도식적으로 나타낸 것이고,12A and 12B schematically illustrate a process of deriving motion information of a frame MB using motion information of a field MB in a field picture according to another embodiment of the present invention;
도 13a 내지 13d는, 본 발명의 일 실시예에 따라, 필드 MB의 모션정보를 이용하여 필드 MB의 모션정보를 유도하는 과정을 픽처의 유형에 따라 각기 구분하여 도식적으로 나타낸 것이고,13A to 13D are diagrams schematically illustrating a process of deriving the motion information of the field MB by using the motion information of the field MB according to the type of picture according to one embodiment of the present invention.
도 14a 내지 14h는, 본 발명의 일 실시예에 따라, 레이어간 해상도가 상이한 경우에 레이어간 예측을 수행하는 방법을 픽처의 유형에 따라 각기 구분하여 도시 한 것이다.14A to 14H illustrate a method of performing inter-layer prediction when the resolution between layers is different according to one embodiment of the present invention, separately according to the type of picture.
<도면의 주요부분에 대한 부호의 설명> <Description of the symbols for the main parts of the drawings>
20: EL 엔코더 21: BL 엔코더20: EL encoder 21: BL encoder
본 발명은, 영상신호를 엔코딩/디코딩할 때 레이어간 모션 예측하는 방법에 관한 것이다. The present invention relates to a method for predicting inter-layer motion when encoding / decoding a video signal.
스케일러블 영상 코덱(SVC:Scalable Video Codec) 방식은 영상신호를 엔코딩함에 있어, 최고 화질로 엔코딩하되, 그 결과로 생성된 픽처 시퀀스의 부분 시퀀스( 시퀀스 전체에서 간헐적으로 선택된 프레임의 시퀀스 )를 디코딩해 사용해도 저화질의 영상 표현이 가능하도록 하는 방식이다. The scalable video codec (SVC) method encodes a video signal at the highest quality, but decodes a partial sequence of the resulting picture sequence (a sequence of intermittently selected frames throughout the sequence). Even if it is used, it is a way to enable a low-quality video representation.
그런데, 스케일러블 방식으로 엔코딩된 픽처 시퀀스는 그 부분 시퀀스만을 수신하여 처리함으로써도 저화질의 영상 표현이 가능하지만, 비트레이트(bitrate)가 낮아지는 경우 화질저하가 크게 나타난다. 이를 해소하기 위해서 낮은 전송률을 위한 별도의 보조 픽처 시퀀스, 예를 들어 소화면 및/또는 초당 프레임수 등이 낮은 픽처 시퀀스를 적어도 하나 이상의 레이어로서 계층적 구조로 제공할 수도 있다. By the way, a picture sequence encoded in a scalable manner can display a low quality image only by receiving and processing only a partial sequence. However, when the bit rate is lowered, the picture quality is greatly deteriorated. In order to solve this problem, a separate auxiliary picture sequence for a low data rate, for example, a small picture and / or a low picture sequence per frame may be provided in a hierarchical structure as at least one layer.
2개의 시퀀스를 가정할 때, 보조 시퀀스( 하위 시퀀스 )를 베이스 레이어(base layer)로, 주 픽처 시퀀스( 상위 시퀀스 )를 인핸스드(enhanced)( 또는 인핸스먼트(enhancement) ) 레이어라고 부른다. 그런데, 베이스 레이어와 인핸스드 레이어는 동일한 영상신호원을 엔코딩하는 것이므로 양 레이어의 영상신호에는 잉여정보( 리던던시(redundancy) )가 존재한다. 따라서 인핸스드 레이어의 코딩율(coding rate)을 높이기 위해, 베이스 레이어의 코딩된 정보( 모션정보 또는 텍스처(texture) 정보 )를 이용하여 인핸스드 레이어의 영상신호를 코딩한다.Assuming two sequences, the auxiliary sequence (lower sequence) is called a base layer, and the main picture sequence (higher sequence) is called an enhanced (or enhancement) layer. However, since the base layer and the enhanced layer encode the same video signal source, redundancy information exists in the video signals of both layers. Therefore, in order to increase the coding rate of the enhanced layer, the image signal of the enhanced layer is coded using the coded information (motion information or texture information) of the base layer.
이 때, 도 1a에 도시된 바와 같이 하나의 영상 소스(1)로부터 각기 다른 전송율을 갖는 복수의 레이어로 코딩할 수도 있지만, 도 1b에서와 같이 동일한 컨텐츠(2a)에 대한 것이지만 서로 다른 주사(scanning)방식을 갖는 복수의 영상 소스(2b)를 각각의 레이어로 코딩할 수도 있다. 하지만, 이 때에도 양 소스(2b)는 동일 컨텐츠(2a)이므로 상위 레이어를 코딩하는 엔코더는 하위 레이어의 코딩된 정보를 이용하는 레이어간 예측을 수행하게 되면 코딩이득을 높일 수 있다.In this case, as shown in FIG. 1A, although coding may be performed from one
따라서, 서로 다른 소스로부터 각각의 레이어로 코딩할 때 각 영상신호의 주사방식을 고려한 레이어간 예측방안이 필요하다. 또한, 비월주사(interlaced) 방식의 영상을 코딩할 때도 우수(even) 및 기수(odd) 필드들로 코딩할 수도 있고, 하나의 프레임에 기수 및 우수 매크로 블록의 쌍(pair)으로 코딩할 수도 있다. 따라서, 비월주사 방식의 영상신호를 코딩하는 픽처의 유형도 레이어간 예측에 함께 고려되어야 한다.Therefore, when coding to different layers from different sources, an inter-layer prediction method considering the scanning method of each image signal is required. In addition, when coding an interlaced image, it may be coded into even and odd fields, or may be coded as a pair of odd and even macroblocks in one frame. . Therefore, the type of the picture coding the interlaced video signal should also be considered in inter-layer prediction.
본 발명은, 양 레이어중 적어도 한 레이어는 비월 주사 방식의 영상신호 성분을 갖는 조건하에 레이어간 모션 예측을 수행하는 방법을 제공하는 데 그 목적이 있다.An object of the present invention is to provide a method for performing inter-layer motion prediction under a condition in which at least one of the two layers has interlaced scanning image signal components.
본 발명에 따른 레이어간 모션 예측방법은, 베이스 레이어의 수직으로 인접된 프레임 매크로 블록쌍의 모션정보로부터 단일 매크로 블록에 대한 모션정보를 유도하고, 그 유도된 모션정보를, 현재 레이어의 하나의 필드 매크로 블록의 모션정보 또는 필드 매크로 블록쌍의 각 모션정보의 예측정보로 사용한다.In the inter-layer motion prediction method according to the present invention, motion information for a single macro block is derived from motion information of a vertically adjacent frame macro block pair of a base layer, and the derived motion information is stored in one field of the current layer. It is used as motion information of a macro block or prediction information of each motion information of a field macro block pair.
본 발명에 따른 다른 레이어간 모션 예측 방법은, 베이스 레이어의 단일 필드 매크로 블록의 모션정보 또는 수직으로 인접된 필드 매크로 블록쌍중 선택된 단일 필드 매크로 블록의 모션정보로부터 2개의 매크로 블록에 대한 각 모션정보를 유도하고, 그 유도된 각 모션정보를, 현재 레이어의 프레임 매크로 블록쌍의 각 모션정보의 예측정보로 사용한다.In another inter-layer motion prediction method according to the present invention, the motion information of a single field macroblock of a base layer or the motion information of a single field macroblock selected from a pair of vertically adjacent field macroblocks for each motion information for two macroblocks. The derived motion information is used as prediction information of each motion information of the frame macroblock pair of the current layer.
본 발명에 따른, 픽처의 해상도가 상이한 레이어간 모션 예측방법은, 하위 레이어의 픽처를, 그 유형에 따라 프레임 매크로 블록들로 변환하는 예측방식을 선택적으로 적용하여 동일 해상도의 프레임 픽처로 변환하고, 상기 프레임 픽처를 상위 레이어의 해상도와 동일해지도록 업샘플링한 후 그 업샘플링된 프레임 픽처내의 프레임 매크로 블록과 상위 레이어의 픽처내의 매크로 블록의 유형에 맞는 레이어간 예측방식을 적용한다.According to the present invention, an inter-layer motion prediction method having a different resolution of a picture includes converting a picture of a lower layer into a frame picture of the same resolution by selectively applying a prediction method of converting a picture of a lower layer into frame macroblocks according to its type The frame picture is upsampled to be the same as the resolution of the upper layer, and then an inter-layer prediction method suitable for the type of the frame macroblock in the upsampled frame picture and the macroblock in the picture of the upper layer is applied.
본 발명에 따른 일 실시예에서는, 레이어간 모션 예측에 있어서, 분할모드(partition mode), 참조 인덱스, 그리고 모션 벡터의 순으로 예측한다.In an embodiment according to the present invention, in inter-layer motion prediction, prediction is performed in order of a partition mode, a reference index, and a motion vector.
본 발명에 따른 다른 일 실시예에서는, 참조 인덱스, 모션벡터, 그리고 분할모드의 순으로 예측한다.In another embodiment according to the present invention, prediction is performed in order of a reference index, a motion vector, and a split mode.
본 발명에 따른 일 실시예에서는, 베이스 레이어의 프레임 매크로 블록 한쌍의 모션정보로부터 인핸스드 레이어의 필드 매크로 블록 한쌍의 모션정보를 유도한다.In one embodiment according to the present invention, motion information of a pair of field macro blocks of an enhanced layer is derived from motion information of a pair of frame macroblocks of a base layer.
본 발명에 따른 일 실시예에서는, 베이스 레이어의 프레임 매크로 블록 한쌍의 모션정보로부터 인핸스드 레이어의 우수 또는 기수 필드 픽처내의 하나의 필드 매크로 블록의 모션정보를 유도한다.In one embodiment according to the present invention, motion information of one field macro block in even or odd field pictures of an enhanced layer is derived from a pair of frame information of frame macro blocks of a base layer.
본 발명에 따른 일 실시예에서는, 베이스 레이어의 한쌍의 프레임 매크로 블록중 하나가 인트라 모드이면, 그 한쌍내의 인터 모드 매크로 블록의 모션정보를 인트라 모드의 매크로 블록의 모션정보로 복사한 후, 그 한쌍의 프레임 매크로 블록의 모션정보로부터 인핸스드 레이어의 필드 매크로 블록 또는 한쌍의 필드 매크로 블록의 모션정보를 유도한다.In one embodiment according to the present invention, if one of the pair of frame macroblocks of the base layer is intra mode, the motion information of the inter mode macroblock in the pair is copied to the motion information of the macroblock of the intra mode, and then the pair The motion information of the field macroblock of the enhanced layer or the pair of field macroblocks is derived from the motion information of the frame macroblock.
본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 한쌍의 프레임 매크로 블록중 하나가 인트라 모드이면, 그 블록에 대해서는 0 모션벡터와 0의 참조 인덱스를 갖는 인터 모드의 매크로 블록으로 간주한 후, 그 한쌍의 프레임 매크로 블록의 모션정보로부터 인핸스드 레이어의 필드 매크로 블록 또는 한쌍의 필드 매크 로 블록의 모션정보를 유도한다.In another embodiment according to the present invention, if one of the pair of frame macro blocks of the base layer is an intra mode, the block is regarded as an inter mode macro block having a zero motion vector and a reference index of zero, and then The motion information of a field macro block or a pair of field macro blocks of an enhanced layer is derived from the motion information of a pair of frame macro blocks.
본 발명에 따른 일 실시예에서는, 베이스 레이어의 한쌍의 필드 매크로 블록에서 하나의 매크로 블록을 선택하고, 그 선택된 매크로 블록의 모션정보로부터 인핸스드 레이어의 프레임 매크로 블록 한쌍의 모션정보를 유도한다.In one embodiment according to the present invention, one macroblock is selected from a pair of field macroblocks of a base layer, and motion information of a pair of frame macroblocks of an enhanced layer is derived from the motion information of the selected macroblock.
본 발명에 따른 일 실시예에서는, 베이스 레이어의 우수 또는 기수의 필드 픽처내의 하나의 필드 매크로 블록의 모션정보로부터 인핸스드 레이어의 프레임 매크로 블록 한쌍의 모션정보를 유도한다.In one embodiment according to the present invention, the motion information of a pair of frame macroblocks of an enhanced layer is derived from the motion information of one field macroblock in the even or odd field pictures of the base layer.
본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 우수 또는 기수의 필드 픽처내의 하나의 필드 매크로 블록의 정보를 복사하여 가상의 필드 매크로 블록을 추가로 구성하고, 그와 같이 구성된 한쌍의 필드 매크로 블록의 모션정보로부터 인핸스드 레이어의 프레임 매크로 블록 한쌍의 모션정보를 유도한다.In another embodiment according to the present invention, a virtual field macro block is further configured by copying information of one field macro block in even or odd field pictures of the base layer, and a pair of field macro blocks configured as described above. Motion information of a pair of frame macroblocks of the enhanced layer is derived from the motion information of.
본 발명에 따른 일 실시예에서는, 픽처의 해상도가 상이한 레이어간 모션 예측방법에서, 하위 레이어의 픽처를 동일 해상도의 프레임 픽처로 변환하는 데 적용하는 상기 예측방식은, 매크로 블록 정보의 복사, 프레임 매크로 블록쌍의 필드 매크로 블록쌍으로의 예측, 프레임 매크로 블록쌍의 단일 필드 매크로 블록으로의 예측, 필드 매크로 블록쌍의 프레임 매크로 블록쌍으로의 예측, 단일 필드 매크로 블록의 프레임 매크로 블록쌍으로의 예측중 하나이다.According to an embodiment of the present invention, in the inter-layer motion prediction method having different resolutions of a picture, the prediction method applied to converting a picture of a lower layer into a frame picture of the same resolution includes copying of macro block information and frame macro. Prediction of block macrofield pairs into field macroblock pairs, Prediction of frame macroblockpairs into single field macroblocks, Prediction of field macroblockpairs into frame macroblock pairs, Prediction of singlefield macroblocks into frame macroblock pairs One.
본 발명에 따른 일 실시예에서는, 픽처의 해상도가 상이한 레이어간 모션 예측방법에서, 상기 업샘플링된 프레임 픽처내의 프레임 매크로 블록을 기준으로 적용하는 상기 레이어간 예측방식은, 프레임 매크로 블록쌍의 필드 매크로 블록쌍으 로의 예측, 프레임 매크로 블록쌍의 단일 필드 매크로 블록으로의 예측, 필드 매크로 블록쌍의 프레임 매크로 블록쌍으로의 예측, 단일 필드 매크로 블록의 프레임 매크로 블록쌍으로의 예측, 필드 매크로 블록의 필드 매크로 블록으로의 예측, 그리고 프레임 매크로 블록의 프레임 매크로 블록으로의 예측중 적어도 하나이다.According to an embodiment of the present invention, in the inter-layer motion prediction method having a different resolution of a picture, the inter-layer prediction method applied based on a frame macro block in the upsampled frame picture is a field macro of a frame macro block pair. Prediction into block pairs, prediction of frame macro block pairs into single-field macro blocks, prediction of frame macro block pairs of field macro block pairs, prediction of frame macro block pairs of single-field macro blocks, field macros of field macro blocks At least one of a prediction to a block and a prediction to a frame macro block of the frame macro block.
이하, 본 발명의 실시예에 대해 첨부도면을 참조하여 상세히 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 2a는 본 발명에 따른 레이어간 예측방법이 적용되는 영상신호 엔코딩 장치의 구성블록을 간략히 도시한 것이다. 도 2a의 장치는 입력 영상신호를 2개의 레이어로 코딩하는 것이나 후술하는 본 발명의 원리는 3개 또는 그 이상의 레이어로 코딩하는 경우에도 각 레이어간에는 물론 적용될 수 있다.2A is a block diagram of a configuration block of an image signal encoding apparatus to which an inter-layer prediction method according to the present invention is applied. The apparatus of FIG. 2A encodes an input video signal into two layers, but the principles of the present invention described later may be applied between layers even when coding into three or more layers.
본 발명에 따른 레이어간 예측방법은, 도 2a의 장치에서 인핸스드 레이어 엔코더(20)( 이하, 'EL 엔코더'로 약칭한다. )에서 수행되며, 베이스 레이어 엔코더(21)( 이하, 'BL 엔코더'로 약칭함. )에서 엔코딩된 정보( 모션정보와 텍스처 정보 )를 수신하고 그 수신된 정보에 근거하여 레어어간 모션 예측을 수행한다. 물론, 본 발명은 도 2b에서와 같이 이미 코딩되어 있는 베이스 레이어의 영상 소스(3)를 사용하여, 입력되는 영상신호를 코딩할 수도 있으며 이 때에도 이하에서 설명하는 레이어간 예측방법이 동일하게 적용된다.The inter-layer prediction method according to the present invention is performed in the enhanced layer encoder 20 (hereinafter, abbreviated as 'EL encoder') in the apparatus of FIG. 2A, and the base layer encoder 21 (hereinafter, referred to as 'BL encoder'). Receives encoded information (motion information and texture information) from (), and performs inter-layer motion prediction based on the received information. Of course, the present invention may code the input video signal using the
도 2a의 경우에 상기 BL 엔코더(21)가 비월주사방식의 영상신호를 엔코딩하는 방식( 또는 2b의 엔코딩되어 있는 영상소스(3)의 코딩된 방식 )은 두가지가 있을 수 있다. 즉, 도 3a에서 보는 바와 같이, 필드단위 그대로 엔코딩하여 필드 시퀀스 로 엔코딩하는 경우와, 도 3b에서 보는 바와 같이, 우수 및 기수 양 필드의 각 매크로 블록을 쌍으로 하여 프레임이 구성된 프레임 시퀀스로 엔코딩하는 경우이다. 이와 같이 코딩되어 있는 프레임내에서, 한 쌍의 매크로 블록의 위에 있는 매크로 블록을 '상단(Top) 매크로 블록'으로 아래에 있는 매크로 블록을 '하단(Bottom) 매크로 블록'으로 칭한다. 상단 매크로 블록이 우수 필드( 또는 기수 필드 )의 영상성분으로 되어 있으면 하단 매크로 블록은 기수 필드( 또는 우수 필드 )의 영상성분으로 이루어진다. 이와 같이 구성된 프레임을 MBAFF (MacroBlock Adaptive Frame Field) 프레임이라고 한다. 그러나, MBAFF 프레임은 기수 필드 및 우수 필드로 구성된 매크로 블록쌍이외에도 각 매크로 블록이 프레임 MB로 구성된 매크로 블록쌍도 또한 포함할 수 있다.In the case of FIG. 2A, there may be two ways in which the
따라서, 픽처내의 매크로 블록이 비월주사 방식의 영상성분인 경우( 이하에서는, 이러한 매크로 블록을 '필드 MB'라고 칭한다. 이에 반해, 순차주사(progressive) 방식의 영상성분을 갖고 있는 매크로 블록을 '프레임 MB'라고 칭한다. ), 그 블록이 필드내의 것일 수도 있고 프레임내의 것일 수도 있다.Therefore, when a macroblock in a picture is an image component of an interlaced scanning method (hereinafter, such a macroblock is called a 'field MB'. In contrast, a macroblock having a progressive component of a video component is called a 'frame'. The block may be in a field or may be in a frame.
따라서, 상기 EL 엔코더(20)가 코딩할 매크로 블록의 유형과 그 매크로 블록의 모션 예측에 이용할 베이스 레이어의 매크로 블록의 유형이 각기 프레임 MB인지, 필드 MB인지 그리고 필드 MB인 경우에는 필드내의 필드 MB인지 MBAFF 프레임내의 필드 MB인지를 구분하여 모션 예측 방법을 결정하여야 한다.Accordingly, if the type of the macroblock to be coded by the
이하에서는 각 경우에 대해서 구분하여 설명한다. 먼저 설명에 앞서 현재 레이어와 베이스 레이어의 해상도는 상호 동일하다고 가정한다. 즉, SpatialScalabilityType()을 0으로 가정한다. 현재 레이어가 베이스 레이어의 해상도보다 높은 경우에 대해서는 다음에 설명한다. 그리고, 하기 설명 및 도면의 표현에 있어서, 우수( 또는 기수 )에 대해 '상단'(top)의 용어를, 기수( 또는 우수 )에 대해 '하단'의 용어도 병행하여 사용한다.Hereinafter, each case will be described separately. First, it is assumed that the resolutions of the current layer and the base layer are the same. That is, assume that SpatialScalabilityType () is 0. The case where the current layer is higher than the resolution of the base layer will be described later. In addition, in description of the following description and drawings, the term "top" is used for the even (or even), and the term "bottom" is used for the radix (or the good) in parallel.
I. 프레임 MB -> I. Frame MB-> MBAFFMBAFF 프레임의 필드 MB의 경우 For field MB of frames
이 경우는, 현재 레이어(EL)에서 MB가 MBAFF 프레임내의 필드 MB로 코딩되고, 그 필드 MB에 대한 모션 예측에 이용할 베이스 레이어(BL)의 MB가 프레임 MB로 코딩되어 있는 경우로서, 베이스 레이어에서 상하 양 매크로 블록( 이를 '매크로 블록쌍'이라고 하며, 이하에서는, '쌍'이라는 표현은 수직으로 인접되어 있는 블록을 칭하기 위해 사용된다 )에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치(colacated)의 매크로 블록 쌍의 각각에 포함되어 있는 영상신호 성분과 각각 동일한 성분이 된다.In this case, MB is coded as a field MB in an MBAFF frame in the current layer EL, and MB of the base layer BL to be used for motion prediction for the field MB is coded as a frame MB. The video signal components included in the upper and lower macro blocks (hereinafter referred to as 'macro block pairs', hereinafter referred to as 'pairs' to refer to blocks vertically adjacent to each other) may correspond to corresponding positions of the current layer ( It becomes the same component as the video signal component included in each of the colacated macroblock pairs.
따라서, 베이스 레이어의 매크로 블록쌍(410)을 하나의 매크로 블록으로 병합( 수직방향으로 1/2로 압축 )시켜서 얻은 매크로 블록 분할(partition)모드를 현재 매크로 블록의 분할 모드로 사용한다. 도 4a는 이를 구체적인 예로서 나타낸 것이다. 도시된 바와 같이, 베이스 레이어의 대응 매크로 블록쌍(410)을 먼저 하나의 매크로 블록으로 병합시키고(S41), 그 병합에 의해서 얻어진 분할모드를 다른 하나에 복사하여(S42) 매크로 블록쌍(411)을 구성한 후, 그 매크로 블록쌍(411)의 각 분할모드를 현재의 매크로 블록쌍(412)에 각기 적용한다(S43).Therefore, the macroblock partition mode obtained by merging (compressing by 1/2 in the vertical direction) the
그런데, 대응되는 매크로 블록쌍(410)을 하나의 매크로 블록으로 병합시킬 때, 분할모드에서 허용되지 않는 분할영역이 생길 수 있으므로, 이를 방지하기 위해 상기 EL 엔코더(20)는 다음과 같은 규칙에 따라 분할형태를 결정한다. However, when merging the corresponding macro block pairs 410 into one macro block, a partition area not allowed in the split mode may be generated. In order to prevent this, the
1). 베이스 레이어의 매크로 블록쌍내의 2개의 상하 8x8 블록들( 도 4a의 B8_0와 B8_2)은 하나의 8x8 블록으로 병합하는 데, 대응되는 8x8 블록들 각각이 서브 분할되어 있지 않으면 이들은 2개의 8x4 블록들로 병합하고, 하나라도 서브 분할되어 있으면 이들은 4개의 4x4 블록들로 병합한다( 도 4a의 401 ).One). The two upper and lower 8x8 blocks (B8_0 and B8_2 in FIG. 4A) in the macro block pair of the base layer merge into one 8x8 block. If each of the corresponding 8x8 blocks is not subdivided, they are divided into two 8x4 blocks. Merge, and if any are subdivided, they merge into four 4x4 blocks (401 in FIG. 4A).
2). 베이스 레이어의 8x16 블록은 8x8 블록으로, 16x8 블록은 수평으로 인접된 2개의 8x4 블록으로, 16x16 블록은 16x8 블록으로 축소한다.2). 8x16 blocks of the base layer are reduced to 8x8 blocks, 16x8 blocks to two horizontally adjacent 8x4 blocks, and 16x16 blocks to 16x8 blocks.
만약, 대응되는 매크로 블록쌍중 적어도 어느 하나가 인트라(intra) 모드로 코딩되어 있는 경우에는 상기 EL 엔코더(20)는 상기의 병합과정전에 다음의 과정을 먼저 수행한다.If at least one of the corresponding macro block pairs is coded in the intra mode, the
만약, 둘 중 하나만이 인트라 모드인 경우에는 인터(inter) 모드의 매크로 블록의 모션정보( MB 분할모드, 참조(reference) 인덱스, 모션 벡터들 )를 인트라 모드의 매크로 블록에 복사하거나, 인트라 모드의 매크로 블록을 0의 모션벡터와 참조 인덱스가 0인 16x16 인터 모드의 매크로 블록으로 간주한 후, 전술한 병합과정을 수행하고, 이하에서 설명하는 참조 인덱스 및 모션 벡터 유도(derivation) 과정을 또한 수행한다. If only one of them is in the intra mode, the motion information (MB division mode, reference index, motion vectors) of the macro block of the inter mode is copied to the intra block of the intra mode, or After the macro block is regarded as a macro block of 16x16 inter mode with a motion vector of 0 and a reference index of 0, the aforementioned merging process is performed, and the reference index and motion vector derivation process described below are also performed. .
상기 EL 엔코더(20)는 현재 매크로 블록쌍(412)의 참조 인덱스를 대응되는 매크로 블록쌍(410)의 참조 인덱스로부터 유도하기 위해 다음의 과정을 수행한다.The
현재 8x8 블록에 대응되는 베이스 레이어의 8x8 블록쌍이 서로 동일 횟수로 서브 분할되어 있으면 그 쌍에서 어느 하나( 상단 또는 하단 )의 8x8 블록의 참조 인덱스를 현재 8x8 블록의 참조 인덱스로 결정하고, 그렇지 않으면 서브 분할횟수가 적은 블록의 참조 인덱스를 현재 8x8 블록의 참조 인덱스로 결정한다. If the 8x8 block pair of the base layer corresponding to the current 8x8 block is subdivided by the same number of times, the reference index of any 8x8 block in the pair (top or bottom) is determined as the reference index of the current 8x8 block, otherwise The reference index of the block having the smallest number of partitions is determined as the reference index of the current 8x8 block.
본 발명에 따른 다른 실시예에서는, 현재 8x8 블록에 대응되는 베이스 레이어의 8x8 블록쌍에 지정되어 있는 참조 인덱스중 작은 값의 참조 인덱스를 현재 8x8 블록의 참조 인덱스로 결정한다. 이 결정방법을 도 4b의 예에 대해 나타내 보면,In another embodiment according to the present invention, the reference index of the smallest value among the reference indices designated in the 8x8 block pair of the base layer corresponding to the current 8x8 block is determined as the reference index of the current 8x8 block. This determination method is shown for the example of FIG. 4B.
refidx of curr B8_0 = min( refidx of base top frame MB’s B8_0, refidx of base top frame MB’s B8_2 )refidx of curr B8_0 = min (refidx of base top frame MB's B8_0, refidx of base top frame MB's B8_2)
refidx of curr B8_1 = min( refidx of base top frame MB’s B8_1, refidx of base top frame MB’s of base B8_3 )refidx of curr B8_1 = min (refidx of base top frame MB's B8_1, refidx of base top frame MB's of base B8_3)
refidx of curr B8_2 = min( refidx of base bottom frame MB’s B8_0, refidx of base bottom frame MB’s B8_2 ), 그리고refidx of curr B8_2 = min (refidx of base bottom frame MB ’s B8_0, refidx of base bottom frame MB ’s B8_2), and
refidx of curr B8_3 = min( refidx of base bottom frame MB’s B8_1, refidx of base bottom frame MB’s B8_3 )refidx of curr B8_3 = min (refidx of base bottom frame MB ’s B8_1, refidx of base bottom frame MB ’s B8_3)
가 된다.Becomes
전술한 참조 인덱스 유도과정은, 상단 필드 MB 와 하단 필드 MB에 모두 적용할 수 있다. 그리고, 전술한 바와 같은 방식으로 결정된 각 8x8 블록의 참조 인덱스에 대해 2를 곱하여 최종 참조 인덱스 값으로 한다. 이는, 디코딩시에 필드 MB가 우수 및 기수 필드들로 구분된 픽처에 속하게 되므로 픽처수는 프레임 시퀀스에서 보다 2배로 많아지기 때문이다. 디코딩 알고리즘(algorithm)에 따라서는, 하단 필드 MB의 참조 인덱스는 2배후에 1을 더하여 최종 참조 인덱스 값으로 결정할 수도 있다.The above-described reference index derivation process can be applied to both the upper field MB and the lower field MB. Then, the reference index of each 8x8 block determined in the manner described above is multiplied by 2 to be the final reference index value. This is because, when decoding, the field MB belongs to a picture divided into even and odd fields, so the number of pictures is doubled in the frame sequence. Depending on the decoding algorithm, the reference index of the lower field MB may be determined as the final reference index value by adding 1 after 2 times.
상기 EL 엔코더(20)가 현재 매크로 블록쌍에 대한 모션벡터를 유도하는 과정은 다음과 같다.The process of the
모션벡터는 4x4 블록을 기본으로 하여 결정되므로, 도 4c에 예시된 바와 같이, 베이스 레이어의 대응되는 4x8 블록을 확인하고, 그 블록이 서브 분할되어 있으면 상단 또는 하단의 4x4 블록의 모션벡터를 현재 4x4 블록의 모션벡터로 결정하고, 그렇지 않으면 대응되는 4x8 블록의 모션벡터를 현재 4x4 블록의 모션벡터로 결정한다. 그리고 결정된 모션벡터에 대해서는 그 수직성분을 2로 나눈 벡터를 최종 모션벡터로 사용한다. 이는 2개의 프레임 MB에 실린 영상성분이 하나의 필드 MB의 영상성분에 상응하게 되므로 필드 영상에서는 크기가 수직축으로 1/2로 축소되기 때문이다.Since the motion vector is determined based on the 4x4 block, as shown in FIG. 4C, the corresponding 4x8 block of the base layer is identified, and if the block is subdivided, the motion vector of the upper or lower 4x4 block is currently 4x4. The motion vector of the block is determined. Otherwise, the motion vector of the corresponding 4x8 block is determined as the motion vector of the current 4x4 block. For the determined motion vector, a vector obtained by dividing the vertical component by 2 is used as the final motion vector. This is because the size of the image is reduced to 1/2 on the vertical axis in the field image because the image component carried in the two frame MBs corresponds to the image component of one field MB.
도 5a는 전술한 과정에 의해, 현재 매크로 블록쌍의 참조 인덱스와 모션 벡터가 유도되는 것을 도식적으로 나타낸 것이다. 앞서 언급한 바와 같이, 참조 인덱스는 8x8 블록 단위를 기본단위로 하여 지정되고, 모션 벡터는 4x4 블록 단위를 기본 단위로 하여 지정된다. 그런데, 도 5a에 예시된 바와 같이, 현재 매크로 블록쌍내의 8x8 블록내의 상단 4x4 블록(501)과 하단 4x4 블록(502)은 베이스 레이어의 서로 다른 8x8 블록(511,512)내의 4x4 블록의 모션벡터를 사용하는 데, 이 들은 서로 다른 기준 픽처를 사용한 모션벡터일 수 있다. 즉, 상기 서로 다른 8x8 블 록(511,512)은 서로 다른 참조 인덱스 값을 가질 수 있다. 따라서, 이 경우에는, 상기 EL 엔코더(20)는 도 5b에 예시된 바와 같이, 현재 하단 4x4 블록(502)의 모션벡터를 그 상단 4x4 블록(501)에 대해 선택된 대응되는 4x4 블록(503)의 모션벡터를 동일하게 사용하게 된다(521).5A schematically illustrates that the reference index and the motion vector of the current macroblock pair are derived by the above-described process. As mentioned above, the reference index is designated based on 8 × 8 block units and the motion vector is designated based on 4 × 4 block units. However, as illustrated in FIG. 5A, the
전술한 실시예에서는, 상기 EL 엔코더(20)가 현재 매크로 블록쌍에 대한 모션 정보를 예측함에 있어서, 베이스 레이어의 대응 매크로 블록쌍의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하였다.In the above embodiment, when the
본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 대응 매크로 블록쌍의 모션정보에 근거해서, 현재 매크로 블록쌍에 대해 먼저 참조 인덱스와 모션 벡터를 유도한 뒤, 그 유도된 결과에 근거해서 마지막으로 현재 매크로 블록쌍의 분할모드를 결정한다. 마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록형태가, 허용되는 분할모드에 속하면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할형태로 지정한다.In another embodiment according to the present invention, based on the motion information of the corresponding macroblock pair of the base layer, the reference index and the motion vector are first derived for the current macroblock pair, and finally based on the derived result. Determines the split mode of the current macroblock pair. Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and reference index, and then designate the combined block type as the combined type if it belongs to the allowed split mode. Specified in partitioned form.
전술한 실시예들에서, 베이스 레이어의 대응되는 매크로 블록쌍(410)이 모두 인트라 모드이면 현재 매크로 블록쌍(412)에 대해 인트라 베이스 예측만이 수행되고( 이 때는 모션 예측은 수행되지 않는다. ), 만약 둘 중 하나만 인트라 모드이면 텍스처(texture) 예측( 인트라 베이스 예측과 레지듀얼 예측 )은 수행되지 않고 모션 예측은 이 경우에 대해 앞서 설명한 바와 같이 수행된다. 텍스처 예측을 수행할 때는, 베이스 레이어의 매크로 블록쌍의 우수라인들은 현재 매크로 블록쌍의 상단 필드 MB에 대한 예측에 사용하고, 기수라인들은 하단 필드 MB에 대한 예측에 사용한다.In the above embodiments, if the corresponding
II. 프레임 MB -> 필드 II. Frame MB-> Field 픽처의Picture 필드 MB의 경우 For field MB
이 경우는, 현재 레이어에서 MB가 필드 픽처내의 필드 MB로 코딩되고, 그 필드 MB에 대한 모션 예측에 이용할 베이스 레이어의 MB가 프레임 MB로 코딩되어 있는 경우로서, 베이스 레이어에서 매크로 블록쌍에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치의 우수 또는 기수 필드내의 매크로 블록에 포함되어 있는 영상신호 성분과 동일한 성분이 된다.In this case, the MB is coded as the field MB in the field picture in the current layer, and the MB of the base layer to be used for motion prediction for the field MB is coded as the frame MB, which is included in the macroblock pair in the base layer. The video signal component present is the same as the video signal component included in the macroblock in the even or odd field of the corresponding position of the current layer.
따라서, 베이스 레이어의 매크로 블록쌍을 하나의 매크로 블록으로 병합( 수직방향으로 1/2로 압축 )시켜서 얻은 매크로 블록 분할(partition)모드를 우수 또는 기수의 현재 매크로 블록의 분할 모드로 사용한다. 도 6a는 이를 구체적인 예로서 나타낸 것이다. 도시된 바와 같이, 베이스 레이어의 대응 매크로 블록쌍(610)을 먼저 하나의 매크로 블록(611)으로 병합시키고(S61), 그 병합에 의해서 얻어진 분할모드를 현재의 매크로 블록(612)에 적용한다(S62). 병합하는 규칙은 앞서의 경우 I에서와 동일하며, 대응되는 매크로 블록쌍(610)중 적어도 어느 하나가 인트라(intra) 모드로 코딩되어 있는 경우에 처리하는 방식도 앞서의 경우 I에서와 동일하다.Therefore, the macroblock partition mode obtained by merging the macroblock pairs of the base layer into one macroblock (compressed in half in the vertical direction) is used as the partition mode of the current macroblock of even or odd. 6A shows this as a specific example. As shown, the corresponding
그리고, 참조 인덱스와 모션 벡터를 유도하는 과정도 또한 앞서의 경우 I에 대해서 설명한 바와 동일하게 이루어진다. 다만, I의 경우에는 매크로 블록이 우수 와 기수의 쌍으로 한 프레임내에 실리게 되므로 상단 MB 및 하단 MB에 동일한 유도과정을 적용하지만, 본 경우(II)에는 현재 코딩할 필드 픽처내에는 베이스 레이어의 매크로 블록쌍(610)에 대응되는 매크로 블록이 하나만 존재하므로 도 6b 및 6c에 예시된 바와 같이 하나의 필드 MB에 대해서만 유도과정을 적용하는 점만이 상이하다.In addition, the process of deriving the reference index and the motion vector is also performed in the same manner as described above for the case I. In the case of I, however, the macroblock is carried in a frame of even and odd numbers, so the same derivation process is applied to the upper and lower MBs. Since only one macro block corresponding to the
도 7a 및 7b는 전술한 과정에 의해 현재 필드 매크로 블록의 참조 인덱스와 모션 벡터가 유도되는 것을 도식적으로 나타낸 것이며, 이 경우도 상단 또는 하단의 한 매크로 블록에 대해 베이스 레이어의 매크로 블록쌍의 모션 정보를 사용하여 해당 모션 정보를 유도하는 것만 상이할 뿐 유도하는 데 적용되는 동작은 앞서 도 5a 및 5b를 참조하여 설명한 경우 I과 동일하다.7A and 7B schematically show that a reference index and a motion vector of a current field macroblock are derived by the above-described process, and in this case, motion information of a macroblock pair of a base layer for one macroblock at the top or bottom is also derived. Using only to derive the corresponding motion information using is different, the operation applied to derivation is the same as I described above with reference to FIGS. 5A and 5B.
전술한 실시예에서는, 상기 EL 엔코더(20)가 현재 매크로 블록에 대한 모션 정보를 예측함에 있어서, 베이스 레이어의 대응 매크로 블록쌍의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하였다.In the above embodiment, when the
본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 대응 매크로 블록쌍의 모션정보에 근거해서, 현재 매크로 블록에 대해 먼저 참조 인덱스와 모션 벡터를 유도한 뒤, 그 유도된 결과에 근거해서 마지막으로 현재 매크로 블록의 분할모드를 결정한다. 마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록이 허용되는 분할모드이면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할모드로 둔다.In another embodiment according to the present invention, based on the motion information of the corresponding macroblock pair of the base layer, a reference index and a motion vector are first derived for the current macroblock, and finally, based on the derived result. Determine the split mode of the macro block. Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and the same reference index, and then designate the combined type if the combined block is an allowed split mode, otherwise leave the split mode before combining. .
전술한 실시예들에서, 베이스 레이어의 대응되는 매크로 블록쌍이 모두 인트 라 모드이면 현재 매크로 블록에 대해 인트라 베이스 예측만이 수행되고( 이 때는 모션 예측은 수행되지 않는다. ), 만약 둘 중 하나만 인트라 모드이면 텍스처 예측( 인트라 베이스 예측과 레지듀얼 예측 )은 수행되지 않고 모션 예측은 이 경우에 대해 앞서 설명한 바와 같이 수행된다. 그리고, 텍스처 예측을 수행할 때는, 현재 매크로 블록이 우수 필드 MB인 경우에 베이스 레이어의 매크로 블록쌍의 우수라인들을 예측에 사용하고, 기수 필드 MB인 경우에는 베이스 레이어의 매크로 블록쌍의 기수라인들을 예측에 사용한다.In the above embodiments, if the corresponding macroblock pairs of the base layer are all in intra mode, only intra base prediction is performed on the current macro block (no motion prediction is performed at this time), and if only one of the two is in intra mode Backside texture prediction (intra base prediction and residual prediction) is not performed and motion prediction is performed as described above for this case. When performing the texture prediction, the even lines of the macro block pair of the base layer are used for prediction when the current macro block is the even field MB, and the odd lines of the macro block pair of the base layer are used when the odd field MB is used. Use for prediction.
III. III. MBAFFMBAFF 프레임의 필드 MB -> 프레임 MB의 경우 For field MB in frame-> Frame MB
이 경우는, 현재 레이어에서 MB가 프레임 MB로 코딩되고, 그 프레임 MB의 모션 예측에 이용할 베이스 레이어의 MB가 MBAFF 프레임내의 필드 MB로 코딩되어 있는 경우로서, 베이스 레이어의 한 필드 MB에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치의 매크로 블록 쌍에 포함되어 있는 영상신호 성분과 동일한 성분이 된다.In this case, MB is coded into a frame MB in the current layer, and the MB of the base layer to be used for motion prediction of the frame MB is coded into the field MB in the MBAFF frame, which is included in one field MB of the base layer. The video signal component becomes the same component as the video signal component included in the macroblock pair at the corresponding position of the current layer.
따라서, 베이스 레이어의 한 매크로 블록쌍내의 상단 또는 하단의 매크로 블록을 신장( 수직방향으로 2배로 신장 )시켜서 얻은 매크로 블록 분할(partition)모드를 현재 매크로 블록쌍의 분할 모드로 사용한다. 도 8a는 이를 구체적인 예로서 나타낸 것이다. 이하 설명 및 도면에서 상단 필드 MB가 선정된 것으로 하였으나, 하단 필드 MB가 선택된 경우에도 하기 설명하는 바를 동일하게 적용할 수 있음은 물론이다.Therefore, the macroblock partition mode obtained by stretching the macroblock at the top or the bottom of one macroblock pair of the base layer (two times in the vertical direction) is used as the partition mode of the current macroblock pair. 8A shows this as a specific example. In the following description and drawings, the upper field MB is selected, but the following description may also be applied to the case where the lower field MB is selected.
도 8a에 도시된 바와 같이, 베이스 레이어의 대응 매크로 블록쌍(810)내의 상단 필드 MB를 2배로 신장시켜 2개의 매크로 블록(811)을 구성하고(S81), 그 신장에 의해서 얻어진 분할형태를 현재의 매크로 블록쌍(812)에 적용한다(S82).As shown in Fig. 8A, the upper field MB in the
그런데, 대응되는 하나의 필드 MB를 수직으로 2배 신장시킬 때, 매크로 블록의 분할모드에서 허용되지 않는 분할형태가 생길 수 있으므로, 이를 방지하기 위해 상기 EL 엔코더(20)는 다음과 같은 규칙에 따라 신장된 분할형태에 따른 분할모드를 결정한다. However, when the corresponding one field MB is vertically doubled, a partitioning form that is not allowed in the splitting mode of the macroblock may be generated. In order to prevent this, the
1). 베이스 레이어의 4x4, 8x4, 그리고 16x8의 블록은 수직으로 2배 커진 각각 4x8, 8x8, 그리고 16x16의 블록으로 결정한다.One). The 4x4, 8x4, and 16x8 blocks of the base layer are determined to be 4x8, 8x8, and 16x16 blocks that are vertically doubled.
2). 베이스 레이어의 4x8, 8x8, 8x16 그리고 16x16의 블록은 각기 2개의 동일크기의 상하 블록으로 결정한다. 도 8a에 예시된 바와 같이, 베이스 레이어의 8x8 B8_0 블록은 2개의 8x8 블록들로 결정된다(801). 하나의 8x16의 블록으로 지정하지 않는 이유는, 그 좌 또는 우에 인접된 신장된 블록이 8x16의 분할블록이 되지 않을 수 있으므로 이러한 경우에는 매크로 블록의 분할모드가 지원되지 않기 때문이다.2). The 4x8, 8x8, 8x16 and 16x16 blocks of the base layer are determined as two equally sized top and bottom blocks. As illustrated in FIG. 8A, the 8x8 B8_0 block of the base layer is determined to be two 8x8 blocks (801). The reason for not specifying one 8x16 block is that the split mode of the macroblock is not supported in this case because the extended block adjacent to the left or right side may not be the 8x16 divided block.
만약, 대응되는 매크로 블록쌍(810)중 어느 하나가 인트라 모드로 코딩되어 있는 경우에는 상기 EL 엔코더(20)는 인트라 모드가 아닌 인터 모드의 상단 또는 하단의 필드 MB를 선택하여 상기의 신장 과정을 수행하여 현재 매크로 블록쌍(812)의 분할모드를 결정한다.If one of the corresponding macroblock pairs 810 is coded in the intra mode, the
만약, 둘 다 인트라 모드인 경우에는 레이어간 텍스츠 예측만 수행하고, 전술한 신장과정을 통한 분할모드 결정과, 이하에서 설명하는 참조 인덱스 및 모션 벡 터 유도 과정을 수행하지 않는다. If both are in intra mode, only inter-layer text prediction is performed, and the split mode determination through the above-described stretching process and the reference index and motion vector derivation process described below are not performed.
상기 EL 엔코더(20)는 현재 매크로 블록쌍(812)의 참조 인덱스를 대응되는 하나의 필드 MB의 참조 인덱스로부터 유도하기 위해, 대응되는 베이스 레이어의 8x8 블록(B8_0)의 참조 인덱스를, 도 8b에 예시된 바와 같이 2개의 상하 8x8 블록들의 각 참조 인덱스로 결정하고, 결정된 각 8x8 블록의 참조 인덱스에 대해 2로 나누어 최종 참조 인덱스 값으로 한다. 이는, 필드 MB에 대해서 우수 및 기수 필드들로 구분된 픽처를 기준으로하여 기준 픽처의 번호를 지정하므로, 프레임 시퀀스에 적용하기 위해서는 픽처 번호를 절반으로 줄일 필요가 있기 때문이다.The
상기 EL 엔코더(20)가 현재 프레임 매크로 블록쌍(812)에 대한 모션벡터를 유도할 때는, 도 8c에 예시된 바와 같이, 대응되는 베이스 레이어의 4x4 블록의 모션벡터를 현재 매크로 블록쌍(812)내의 4x8 블록의 모션벡터로 결정하고, 그 결정된 모션벡터에 대해서 수직성분에 대해서 2를 곱한 벡터를 최종 모션벡터로 사용한다. 이는 1개의 필드 MB에 실린 영상성분이 2개의 프레임 MB의 영상성분에 상응하게 되므로 프레임 영상에서는 크기가 수직축으로 2배로 확대되기 때문이다.When the
도 9는 전술한 과정에 의해 현재 매크로 블록쌍의 참조 인덱스와 모션 벡터가 유도되는 것을 도식적으로 나타낸 것이다. 도시된 바와 같이, 현재 매크로 블록쌍에 대한 참조 인덱스와 모션 벡터를 유도하기 위해, 베이스 레이어(BL)의 대응되는 상단 필드 MB의 모션정보를 사용하거나(901), 하단 필드 MB의 정보를 사용하거나(902), 또는 상단 및 하단 필드 MB의 모션정보를 혼합하여 사용할 수도 있다(903). 도 9는 상단 및 하단 필드 MB의 모션정보를 혼합하여 사용하는 한가지 예 만을 나타낸 것이며, 도 9에 제시되지 않은 다른 대응형태가 되도록 양 필드 MB의 모션정보를 조합하여 사용할 수 있다.FIG. 9 schematically shows that a reference index and a motion vector of a current macroblock pair are derived by the above-described process. As shown, to derive the reference index and the motion vector for the current macro block pair, use motion information of the corresponding upper field MB of the base layer BL (901), or use information of the lower field MB, or (902) Alternatively, the motion information of the upper and lower field MBs may be mixed and used (903). FIG. 9 shows only one example in which the motion information of the upper and lower field MBs are mixed, and the motion information of both field MBs may be combined and used so as to correspond to other corresponding forms not shown in FIG. 9.
전술한 실시예에서는, 상기 EL 엔코더(20)가 현재 매크로 블록쌍에 대한 모션 정보를 예측함에 있어서, 베이스 레이어의 대응 필드 MB의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하였다.In the above embodiment, when the
본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 대응 필드 MB의 모션정보에 근거해서, 현재 매크로 블록쌍에 대해, 도 8b 및 8c에서와 같이 먼저 참조 인덱스와 모션 벡터를 유도한 뒤, 그 유도된 결과에 근거해서 마지막으로 현재 매크로 블록쌍의 각 분할모드를 결정한다. 마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록이 허용되는 분할형태이면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할형태로 지정한다.In another embodiment according to the present invention, based on the motion information of the corresponding field MB of the base layer, the reference index and the motion vector are first derived for the current macroblock pair as shown in FIGS. 8B and 8C and then derived. Finally, based on the result, each partition mode of the current macroblock pair is determined. Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and the same reference index, and then designate the combined form if the combined block is an acceptable split form, otherwise specify the split form before combining. do.
전술한 실시예들에서, 베이스 레이어의 대응되는 필드 MB 쌍이 모두 인트라 모드이면 현재 매크로 블록에 대해 인트라 베이스 예측만이 수행된다( 이 때는 모션 예측은 수행되지 않는다. ). 인트라 베이스 예측의 기준 데이터는, 대응되는 필드 MB 쌍의 우수 및 기수 라인을 교번적으로 선택하여 인터리빙(interleaving)시킨 16x32의 블록이 된다. 만약 둘 중 하나만 인트라 모드이면 인트라 베이스 예측은 인트라 모드의 대응 필드 MB를 사용하여 수행하고, 레지듀얼 예측은 인터 모드의 대응 필드 MB를 사용하여 수행한다. 물론, 이 때는 예측에 사용할 필드 MB에 대해서는 수직축으로 업샘플링한 후 텍스처 예측에 사용한다.In the above-described embodiments, only intra base prediction is performed on the current macro block if the corresponding field MB pairs of the base layer are all intra modes (no motion prediction is performed at this time). The reference data of the intra base prediction is a 16x32 block in which the even and odd lines of the corresponding field MB pair are alternately selected and interleaved. If only one of them is intra mode, intra base prediction is performed using the corresponding field MB of the intra mode, and residual prediction is performed using the corresponding field MB of the inter mode. Of course, in this case, the field MB to be used for prediction is upsampled on the vertical axis and then used for texture prediction.
IV. 필드 IV. field 픽처의Picture 필드 MB -> 프레임 MB의 경우 For Field MB-> Frame MB
이 경우는, 현재 레이어(EL)에서 MB가 프레임 MB로 코딩되고, 그 프레임 MB의 모션 예측에 이용할 베이스 레이어(BL)의 MB가 필드 픽처내의 필드 MB로 코딩되어 있는 경우로서, 베이스 레이어의 한 필드 MB에 포함되어 있는 영상신호 성분은, 현재 레이어의 대응위치의 매크로 블록 쌍에 포함되어 있는 영상신호 성분과 동일한 성분이 된다.In this case, MB is coded as a frame MB in the current layer EL, and MB of the base layer BL to be used for motion prediction of the frame MB is coded as a field MB in the field picture. The video signal component included in the field MB is the same as the video signal component included in the macroblock pair at the corresponding position of the current layer.
따라서, 베이스 레이어의 우수 또는 기수 필드내의 한 매크로 블록을 수직방향으로 2배로 신장시켜서 얻은 분할모드를 현재 매크로 블록의 분할 모드로 사용한다. 도 10a는 이를 구체적인 예로서 나타낸 것이다. 도 10a에 예시된 과정은, MBAFF 프레임내의 상단 또는 하단의 필드 MB가 선택되는 전술한 경우 III과 비교하여, 우수 또는 기수 필드내의 위치대응되는 하나의 필드 MB(1010)가 자연적으로 사용되는 것이 상이할 뿐, 대응되는 필드 MB(1010)를 신장하고, 그 신장에 의해서 얻어진 2개의 매크로 블록(1011)의 분할형태를 현재의 매크로 블록쌍(1012)에 적용하는 것은 동일하다. 그리고, 대응되는 하나의 필드 MB(1010)를 수직으로 2배 신장시킬 때, 매크로 블록의 분할모드에서 허용되지 않는 분할형태가 생길 수 있으므로, 이를 방지하기 위해 상기 EL 엔코더(20)가 신장된 분할형태에 따른 분할모드를 결정하는 규칙도 경우 III의 1)과 2)에 제시된 것과 동일하다. Therefore, the division mode obtained by doubling one macro block in the even or odd field of the base layer in the vertical direction is used as the division mode of the current macro block. 10A illustrates this as a specific example. The process illustrated in FIG. 10A differs from that in the case where the top or bottom field MB in the MBAFF frame is selected, in contrast to III above, one
만약, 대응되는 매크로 블록이 인트라 모드로 코딩되어 있는 경우에는 상기 EL 엔코더(20)는 전술한 신장과정을 통한 분할모드 결정과, 이하에서 설명하는 참 조 인덱스 및 모션 벡터 유도 과정을 수행하지 않는다. 즉, 레이어간 모션 예측은 수행되지 않는다.If the corresponding macroblock is coded in the intra mode, the
그리고, 참조 인덱스와 모션 벡터를 유도하는 과정도 또한 앞서의 경우 III에 대해서 설명한 바와 동일하다. 다만, III의 경우에는 베이스 레이어의 대응되는 매크로 블록이 우수와 기수의 쌍으로 한 프레임내에 실리게 되므로 상단 MB 및 하단 MB 중 하나를 선택하여 유도과정을 적용하지만, 본 경우(IV)에는 현재 코딩할 매크로 블록에 대응되는 베이스 레이어의 대응되는 매크로 블록은 하나만 존재하므로 매크로 블록의 선택과정없이, 도 10b 및 10c에 예시된 바와 같이 그 대응되는 하나의 필드 MB의 모션 정보로부터 현재 매크로 블록에 대한 모션 정보를 유도하게 된다.In addition, the process of deriving the reference index and the motion vector is also the same as described for the case III above. However, in the case of III, since the corresponding macroblock of the base layer is loaded in a frame of even and odd numbers, the derivation process is selected by selecting one of the upper MB and the lower MB, but in this case (IV), the current coding is performed. Since there is only one corresponding macro block of the base layer corresponding to the macro block to be executed, the motion for the current macro block from the motion information of the corresponding one field MB, as illustrated in FIGS. 10B and 10C, without selecting a macro block. Will lead to information.
도 11은 전술한 과정에 의해 현재 매크로 블록쌍의 참조 인덱스와 모션 벡터가 유도되는 것을 도식적으로 나타낸 것이며, 이 경우도 베이스 레이어의 우수 또는 기수 필드의 한 매크로 블록의 모션 정보로부터 현재 매크로 블록쌍의 모션 정보를 유도하는 것만 상이할 뿐, 유도하는 데 적용되는 동작은 앞서 도 9를 참조하여 설명한 경우 III과 동일하다. 다만, 대응하는 베이스 레이어(BL)의 한 필드내에 상단 및 하단 매크로 블록쌍이 존재하지 않으므로, 도 9에 예시된 경우에서 매크로 블록쌍의 모션 정보를 혼합하여 사용하는 경우(903)는 본 경우(IV)에 적용되지 않는다.FIG. 11 is a diagram illustrating the derivation of a reference index and a motion vector of a current macroblock pair by the above-described process. In this case, the current macroblock pair may be derived from motion information of one macroblock of the even or odd field of the base layer. Only the derivation of the motion information is different, and the operation applied to the derivation is the same as in case III described above with reference to FIG. 9. However, since the upper and lower macroblock pairs do not exist in one field of the corresponding base layer BL, the case where the motion information of the macroblock pairs is mixed in the case illustrated in FIG. 9 (903) is the case (IV). Does not apply to).
전술한 실시예에서는, 상기 EL 엔코더(20)가 현재 매크로 블록쌍에 대한 모션 정보를 예측함에 있어서, 베이스 레이어의 대응 필드 MB의 모션 정보에 근거해서 분할모드, 참조 인덱스 그리고 모션벡터 순으로 유도하였다.In the above embodiment, when the
본 발명에 따른 다른 일 실시예에서는, 베이스 레이어의 대응 필드 MB의 모션정보에 근거해서, 현재 매크로 블록쌍에 대해, 도 11에서와 같이 먼저 참조 인덱스와 모션 벡터를 유도한 뒤, 그 유도된 결과에 근거해서 마지막으로 현재 매크로 블록쌍의 분할모드를 결정한다. 마지막으로 분할모드를 결정할 때는, 유도된 모션벡터와 참조 인덱스가 동일한 4x4 블록단위들을 결합한 후, 그 결합된 블록이 허용되는 분할형태이면 결합된 형태로 지정하고, 그렇지 않으면 결합되기 전의 분할형태로 지정한다.In another embodiment according to the present invention, based on the motion information of the corresponding field MB of the base layer, the reference index and the motion vector are first derived for the current macroblock pair, as shown in FIG. Finally, the partition mode of the current macroblock pair is determined. Finally, when determining the split mode, combine 4x4 block units with the same derived motion vector and the same reference index, and then designate the combined form if the combined block is an acceptable split form, otherwise specify the split form before combining. do.
전술한 실시예들에서, 베이스 레이어의 대응되는 필드 MB가 인트라 모드이면 현재 매크로 블록에 대해 인트라 베이스 예측만이 수행된다. 물론, 이 때는 예측에 사용할 필드 MB에 대해서는 수직축으로 업샘플링한 후 텍스처 예측에 사용한다.In the above embodiments, only intra base prediction is performed for the current macro block if the corresponding field MB of the base layer is intra mode. Of course, in this case, the field MB to be used for prediction is upsampled on the vertical axis and then used for texture prediction.
본 발명에 따른 다른 일 실시예에서는, 기수 또는 우수의 필드에 있는 필드 MB로부터 가상의(virtual) 매크로 블록을 생성하여 매크로 블록쌍을 구성한 뒤, 그 구성된 매크로 블록쌍으로부터 현재 매크로 블록쌍의 모션 정보를 유도한다. 도 12a 및 12b는 이에 대한 예를 도시한 것이다.In another embodiment according to the present invention, a virtual macroblock is generated from a field MB in the odd or even field to form a macroblock pair, and then motion information of the current macroblock pair from the configured macroblock pair. Induce. 12A and 12B show an example of this.
본 실시예에서는, 베이스 레이어의 대응되는 우수 (또는 기수) 필드 MB의 참조 인덱스와 모션벡터를 복사(1201,1202)하여 가상의 기수 (또는 우수) 필드 MB를 만들어 한쌍의 매크로 블록(1211)을 구성하고, 그 구성된 매크로 블록쌍(1211)의 모션 정보를 혼합하여 현재 매크로 블록쌍(1212)의 모션정보를 유도한다(1203,1204). 모션정보를 혼합하여 사용하는 한 예는, 도 12a 및 12b에 예시된 바와 같이, 참조 인덱스의 경우에, 대응되는 상단 매크로 블록의 상위 8x8 블록은 현재 매크로 블록쌍(1212)의 상단 매크로 블록의 상위 8x8 블록에, 하위 8x8 블록은 하단 매크로 블록의 상위 8x8 블록에, 대응되는 하단 매크로 블록의 상위 8x8 블록은 현재 매크로 블록쌍(1212)의 상단 매크로 블록의 하위 8x8 블록에, 하위 8x8 블록은 하단 매크로 블록의 하위 8x8 블록에 대응시켜 참조 인덱스를 적용한다(1203). 그리고, 모션 벡터의 경우에, 참조 인덱스에 따라 대응시켜 적용하며(1204), 이는 도 12a 및 12b에 의해 직관적으로 이해될 수 있으므로 그 설명은 생략한다.In this embodiment, the reference index of the corresponding even (or odd) field MB of the base layer and the motion vector are copied (1201, 1202) to create a virtual odd (or even) field MB to create a pair of
도 12a 및 12b에 예시된 실시예의 경우에 현재 매크로 블록쌍(1212)의 분할모드는 유도된 참조 인덱스와 모션 벡터에 근거해서 결정하며, 그 방법은 전술한 바와 동일한다.In the case of the embodiment illustrated in Figs. 12A and 12B, the split mode of the current
V. 필드 MB -> 필드 MB의 경우V. For Field MB-> Field MB
이 경우는, 필드 MB가 필드 픽처에 속한 것인지 MBAFF 프레임에 속한 것인지로 세분되므로, 다음과 같이 4가지의 경우로 나뉘어진다.In this case, since the field MB belongs to the field picture or the MBAFF frame, it is divided into four cases as follows.
i) 베이스 레이어와 인핸스드 레이어가 MBAFF 프레임인 경우i) When the base layer and the enhanced layer are MBAFF frames
이 경우는 도 13a에 나타내었으며, 도시된 바와 같이 대응되는 베이스 레이어(BL)의 매크로 블록쌍의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 현재 매크로 블록쌍의 모션정보로 그대로 복사하여 사용한다. 다만, 복사는 동일 패러티(parity)의 매크로 블록간에 이루어지게 한다. 즉, 모션정보가 복사될 때 우수 필드 MB는 우수 필드 MB로 기수 필드 MB는 기수 필드 MB로 복사된다.In this case, as shown in FIG. 13A, the motion information (dividing mode, reference index, and motion vector) of the macroblock pair of the corresponding base layer BL is copied as it is to the motion information of the current macroblock pair. do. However, copying is made between macro blocks of the same parity. That is, when motion information is copied, even field MB is copied to even field MB and odd field MB is copied to odd field MB.
ii) 베이스 레이어가 필드 픽처이고 인핸스드 레이어가 MBAFF 프레임인 경우ii) When the base layer is a field picture and the enhanced layer is an MBAFF frame
이 경우는 도 13b에 나타내었으며, 도시된 바와 같이 대응되는 베이스 레이어(BL)의 하나의 필드 매크로 블록의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 현재 매크로 블록쌍의 각 매크로 블록의 모션정보로 그대로 복사하여 사용한다. 이 때는, 단일 필드 MB의 모션정보를 상단 및 하단의 필드 MB에 모두 사용하게 되므로 동일 패터리간 복사 규칙은 적용되지 않는다.In this case, as shown in FIG. 13B, as shown in FIG. 13B, motion information (segmentation mode, reference index, and motion vector) of one field macroblock of the corresponding base layer BL may be set to the motion of each macroblock of the current macroblock pair. Copy the information as is. In this case, since the motion information of a single field MB is used for both the upper and lower field MBs, the same inter-pattern copying rule does not apply.
iii) 베이스 레이어가 MBAFF 프레임이고 인핸스드 레이어가 필드 픽처인 경우iii) the base layer is an MBAFF frame and the enhanced layer is a field picture.
이 경우는 도 13c에 나타내었으며, 도시된 바와 같이 현재 필드 MB에 대응되는 베이스 레이어(BL)의 매크로 블록쌍 중 동일 패러티의 필드 MB를 선택하여 그 필드 MB의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 현재 필드 매크로 블록의 모션정보로 그대로 복사하여 사용한다.In this case, as shown in FIG. 13C, as shown in FIG. 13C, the field MB of the same parity is selected among the macroblock pairs of the base layer BL corresponding to the current field MB, and motion information (partition mode, reference index, Motion vector) is used as it is as motion information of the current field macro block.
iv) 베이스 레이어와 인핸스드 레이어가 필드 픽처인 경우iv) When the base layer and the enhanced layer are field pictures
이 경우는 도 13d에 나타내었으며, 도시된 바와 같이 대응되는 베이스 레이어(BL)의 필드 매크로 블록의 모션 정보( 분할모드, 참조 인덱스, 모션벡터 )를 현재 필드 매크로 블록의 모션정보로 그대로 복사하여 사용한다. 이 때도, 복사는 동일 패러티(parity)의 매크로 블록간에 이루어지게 한다.In this case, as shown in FIG. 13D, the motion information (dividing mode, reference index, and motion vector) of the field macro block of the corresponding base layer BL is copied as the motion information of the current field macro block as shown. do. Even in this case, copying is made between macro blocks of the same parity.
지금까지는 베이스 레이어와 인핸스드 레이어가 동일 해상도를 가지는 경우에 대해 설명하였다. 이하에서는 인핸스드 레이어가 베이스 레이어보다 해상도가 높은 경우( SpatialScalabilityType()가 0보다 큰 경우 )에 대해서 픽처의 유형( 순차주 사방식의 프레임, MBAFF 프레임, 비월주사방식의 필드 )별로 구분하여 설명한다.Up to now, the case where the base layer and the enhanced layer have the same resolution has been described. In the following description, when an enhanced layer has a higher resolution than a base layer (when SpatialScalabilityType () is greater than 0), the picture is classified by picture type (sequential scanning frame, MBAFF frame, interlaced field). .
A). 베이스 레이어:순차주사방식의 프레임 -> 인핸스드 레이어:MBAFF 프레임A). Base Layer: Sequential Scanning Frame-> Enhanced Layer: MBAFF Frame
도 14a는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 베이스 레이어의 대응 프레임의 모든 매크로 블록의 텍스처 정보와 모션 정보를 복사하여 가상의 프레임을 만든 후, 그 가상 프레임에 대해서 업샘플링을 수행한다. 이 업샘플링은 베이스 레이어의 해상도( 픽처 크기 )가 현재 레이어의 해상도( 픽처 크기 )와 동일해지도록 하는 비율로 이루어진다. 이 업샘플링과 함께 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성하게 되는 데, 이 구성 방법에는 기 공지된 방법 중 하나를 사용한다. 이와 같이 구성된 잠정(interim) 베이스 레이어의 픽처는 현재의 인핸스드 레이어 픽처의 해상도와 동일한 해상도를 갖게된다. 따라서, 전술한 레이어간 모션 예측을 적용할 수 있게 된다.Fig. 14A shows the processing method for this case. As shown in the drawing, the texture information and motion information of all macroblocks of the corresponding frame of the base layer are copied to create a virtual frame, and then upsampling is performed on the virtual frame. This upsampling is done at a rate such that the resolution (picture size) of the base layer becomes equal to the resolution (picture size) of the current layer. With this upsampling, the motion information of each macroblock of the upsampled picture is configured based on the motion information of each macroblock of the virtual frame. One of the well-known methods is used for this configuration method. The picture of the interim base layer configured as described above has the same resolution as that of the current enhanced layer picture. Therefore, the above-described inter-layer motion prediction can be applied.
도 14a의 경우는, 베이스 레이어가 프레임이고, 현재 레이어가 MBAFF 프레임이므로, 해당 픽처내의 각 매크로 블록은 프레임 MB와 MBAFF 프레임내 필드 MB가 된다. 따라서, 전술한 경우 I을 적용하여 레이어간 모션 예측을 수행한다. 그런데, 앞서 언급한 바와 같이, MBAFF 프레임은 필드 MB쌍외에 프레임 MB쌍도 동일 프레임내에 포함하고 있을 수 있다. 따라서, 잠정 베이스 레이어의 픽처내의 매크로 블록쌍과 대응하는 현재 레이어의 매크로 블록쌍이 필드 MB가 아니고 프레임 MB인 경우에는, 기 공지된 프레임 MB간의 모션 예측방법을 적용한다.In the case of Fig. 14A, since the base layer is a frame and the current layer is an MBAFF frame, each macro block in the picture becomes a frame MB and a field MB in the MBAFF frame. Therefore, in the above-described case, I is applied to perform inter-layer motion prediction. However, as mentioned above, the MBAFF frame may include not only the field MB pair but also the frame MB pair in the same frame. Therefore, when the macroblock pair in the picture of the temporary base layer and the corresponding macroblock pair of the current layer are not the field MB but the frame MB, a motion prediction method between the known frame MBs is applied.
B). 베이스 레이어:순차주사방식의 프레임 -> 인핸스드 레이어:비월주사방식의 필드B). Base Layer: Sequential Scanning Frame-> Enhanced Layer: Interlaced Fields
도 14b는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 베이스 레이어의 대응 프레임의 모든 매크로 블록의 텍스처 정보와 모션 정보를 복사하여 가상의 프레임을 만든 후, 그 가상 프레임에 대해서 업샘플링을 수행한다. 이 업샘플링은 베이스 레이어의 해상도가 현재 레이어의 해상도와 동일해지도록 하는 비율로 이루어진다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 필드 픽처내의 필드 MB이므로, 전술한 경우 II를 적용하여 레이어간 모션 예측을 수행한다.Fig. 14B shows the processing method for this case. As shown in the drawing, the texture information and motion information of all macroblocks of the corresponding frame of the base layer are copied to create a virtual frame, and then upsampling is performed on the virtual frame. This upsampling is done at a rate such that the resolution of the base layer is equal to the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB, and each macro block of the current layer is a field MB in the field picture, inter-layer motion prediction is performed by applying II as described above.
C). 베이스 레이어:MBAFF 프레임 -> 인핸스드 레이어:순차주사방식의 프레임C). Base Layer: MBAFF Frame-> Enhanced Layer: Sequential Scan Frame
도 14c는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 대응 MBAFF 프레임을 순차주사방식의 프레임으로 변환한다. MBAFF 프레임을 순차주사방식의 프레임으로 변환하기 위해서는 전술한 경우 III의 방법을 적용한다. 물론, 이때의 III의 방법 적용은, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩 하는 동작을 수행하는 것은 아니다. Fig. 14C shows the processing method for this case. As shown, first, the corresponding MBAFF frame of the base layer is converted into a frame of a sequential scan method. In order to convert an MBAFF frame into a sequential scan type frame, the method of III is applied. Of course, the method of III is to generate the motion information of the virtual frame and each macroblock in the frame by using the data obtained by the inter-layer prediction. It does not perform the coding operation.
가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 업샘플링을 수행한다. 이 업샘플링은 베이스 레이어의 해상도가 현재 레이어의 해상도와 동일해지도록 하는 비율로 이루어진다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록도 프레임 MB이므로, 기 공지되어 있는 프레임 MB 대 프레임 MB의 레이어간 모션 예측을 수행한다.If a virtual frame is obtained, upsampling is performed on the virtual frame. This upsampling is done at a rate such that the resolution of the base layer is equal to the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is also a frame MB, inter-layer motion prediction of a known frame MB to frame MB is performed.
D). 베이스 레이어:비월주사방식의 필드 -> 인핸스드 레이어:순차주사방식의 프레임D). Base layer: Interlaced fields-> Enhanced layer: Sequential scan frame
도 14d는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 대응 필드를 순차주사방식의 프레임으로 변환한다. 비월주사방식의 필드를 순차주사방식의 프레임으로 변환하기 위해서는 업샘플링과 전술한 경우 IV의 방법을 적용한다. 물론, 이때의 IV의 방법 적용도, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. Fig. 14D shows the processing method for this case. As shown, first, the corresponding field of the base layer is converted into a frame of a sequential scan method. In order to convert an interlaced field into a sequential scan frame, upsampling and IV described above are applied. Of course, the method of IV is also used to generate motion information of a virtual frame and each macroblock within the frame using data obtained by inter-layer prediction. It does not perform the operation of coding.
가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 현재 레이어의 해상도와 동일해지도록 업샘플링을 수행한다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록도 프레임 MB이므로, 기 공지되어 있는 프레임 MB 대 프레임 MB의 레이어간 모션 예측을 수행한다.If a virtual frame is obtained, upsampling is performed on the virtual frame to be equal to the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is also a frame MB, inter-layer motion prediction of a known frame MB to frame MB is performed.
E). 베이스 레이어:MBAFF 프레임 -> 인핸스드 레이어:MBAFF 프레임E). Base Layer: MBAFF Frame-> Enhanced Layer: MBAFF Frame
도 14e는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 대응 MBAFF 프레임을 순차주사방식의 프레임으로 변환한다. MBAFF 프레임을 순차주사방식의 프레임으로 변환하기 위해서는 전술한 경우 III의 방법을 적용한다. 물론, 이때의 III의 방법 적용은, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. Fig. 14E shows the processing method for this case. As shown, first, the corresponding MBAFF frame of the base layer is converted into a frame of a sequential scan method. In order to convert an MBAFF frame into a sequential scan type frame, the method of III is applied. Of course, the method of III is to generate the motion information of the virtual frame and each macroblock in the frame by using the data obtained by the inter-layer prediction. It does not perform the operation of coding.
가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 현재 레이어의 해상도와 일치하도록 업샘플링을 수행한다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 MBAFF 프레임내의 필드 MB이므로, 전술한 I의 방법을 적용하여 레이어간 모션 예측을 수행한다. 그런데, 앞서 언급한 바와 같이, MBAFF 프레임은 필드 MB쌍외에 프레임 MB쌍도 동일 프레임내에 포함하고 있을 수 있다. 따라서, 잠정 베이스 레이어의 픽처내의 매크로 블록쌍과 대응하는 현재 레이어의 매크로 블록쌍이 필드 MB가 아니고 프레임 MB인 경우에는, 기 공지된 프레임 MB간의 모션 예측방법을 적용한다.Once the virtual frame is obtained, upsampling is performed on the virtual frame to match the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is a field MB in the MBAFF frame, inter-layer motion prediction is performed by applying the above-described method. However, as mentioned above, the MBAFF frame may include not only the field MB pair but also the frame MB pair in the same frame. Therefore, when the macroblock pair in the picture of the temporary base layer and the corresponding macroblock pair of the current layer are not the field MB but the frame MB, a motion prediction method between the known frame MBs is applied.
F). 베이스 레이어:MBAFF 프레임 -> 인핸스드 레이어:비월주사방식의 필드F). Base Layer: MBAFF Frame-> Enhanced Layer: Interlaced Fields
도 14f는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 대응 MBAFF 프레임을 순차주사방식의 프레임으로 변환한다. MBAFF 프레임을 순차주사방식의 프레임으로 변환하기 위해서는 전술한 경우 III의 방법을 적용한다. 물론, 이때의 III의 방법 적용도, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. Fig. 14F shows the processing method for this case. As shown, first, the corresponding MBAFF frame of the base layer is converted into a frame of a sequential scan method. In order to convert an MBAFF frame into a sequential scan type frame, the method of III is applied. Of course, the method of III is also used to generate motion information of a virtual frame and each macroblock within the frame using data obtained by inter-layer prediction. It does not perform the operation of coding.
가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 현재 레이어의 해상도와 일치하도록 업샘플링을 수행한다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 우수 또는 기수 필드내의 필드 MB이므로, 전술한 II의 방법을 적용하여 레이어간 모 션 예측을 수행한다.Once the virtual frame is obtained, upsampling is performed on the virtual frame to match the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is a field MB in even or odd field, inter-layer motion prediction is performed by applying the method of II described above.
G). 베이스 레이어:비월주사방식의 필드 -> 인핸스드 레이어:MBAFF 프레임도 14g는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 먼저, 베이스 레이어의 비월주사방식의 필드를 순차주사방식의 프레임으로 변환한다. 비월주사방식의 필드를 순차주사방식의 프레임으로 변환하기 위해서는 업샘플링과 전술한 경우 IV의 방법을 적용한다. 물론, 이때의 IV의 방법 적용도, 레이어간 예측에 의해 얻어지는 데이터를 사용하여 가상의 프레임과 그 프레임내의 각 매크로 블록의 모션정보를 생성하는 것이며 예측 데이터와 실제 코딩할 레이어의 데이터와의 차이를 코딩하는 동작을 수행하는 것은 아니다. G). Base layer: interlaced field-> enhanced layer: MBAFF frame Figure 14g shows the processing method for this case. As shown, first, the interlaced field of the base layer is converted into a progressive scan frame. In order to convert an interlaced field into a sequential scan frame, upsampling and IV described above are applied. Of course, the method of IV is also used to generate motion information of a virtual frame and each macroblock within the frame using data obtained by inter-layer prediction. It does not perform the operation of coding.
가상의 프레임이 얻어지면, 그 가상 프레임에 대해서 현재 레이어의 해상도와 일치하도록 업샘플링을 수행한다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 프레임의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 프레임 MB이고, 현재 레이어의 각 매크로 블록은 MBAFF 프레임내의 필드 MB이므로, 전술한 I의 방법을 적용하여 레이어간 모션 예측을 수행한다. 그런데, MBAFF 프레임은 앞서 언급한 바와 같이, 필드 MB쌍외에 프레임 MB쌍도 동일 프레임내에 포함하고 있을 수 있으므로, 잠정 베이스 레이어의 픽처내의 매크로 블록쌍과 대응하는 현재 레이어의 매크로 블록쌍이 필드 MB가 아니고 프레임 MB인 경우에는, 전술한 I의 예측방법이 아닌 기 공지된 프레임 MB간의 모션 예측방법을 적용한다.Once the virtual frame is obtained, upsampling is performed on the virtual frame to match the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual frame. Since each macro block in the picture of the provisional base layer configured as described above is a frame MB and each macro block of the current layer is a field MB in the MBAFF frame, inter-layer motion prediction is performed by applying the above-described method. As described above, the MBAFF frame may include frame MB pairs in addition to the field MB pairs in the same frame, so that the macro block pairs of the current layer corresponding to the macro block pairs in the picture of the temporary base layer are not field MBs. In the case of the frame MB, the previously known motion prediction method between the frame MBs is applied instead of the above-described method of I.
H). 베이스 레이어:비월주사방식의 필드 -> 인핸스드 레이어:비월주사방식의 필드H). Base Layer: Interlaced Fields-> Enhanced Layer: Interlaced Fields
도 14h는 이 경우에 대한 처리방식으로 도시한 것이다. 도시된 바와 같이, 베이스 레이어의 대응 필드의 모든 매크로 블록의 텍스처 정보와 모션 정보를 복사하여 가상의 필드를 만든 후, 그 가상 필드에 대해서 업샘플링을 수행한다. 이 업샘플링은 베이스 레이어의 해상도가 현재 레이어의 해상도와 동일해지도록 하는 비율로 이루어진다. 이 업샘플링과 함께 기 공지된 방법 중 하나를 사용하여, 가상 필드의 각 매크로 블록의 모션 정보에 근거하여 업샘플링된 픽처의 각 매크로 블록의 모션 정보를 구성한다. 이와 같이 구성된 잠정 베이스 레이어의 픽처내의 각 매크로 블록은 필드 픽처내의 필드 MB이고, 현재 레이어의 각 매크로 블록도 또한 필드 픽처내의 필드 MB이므로, 전술한 V의 iv)의 경우를 적용하여 레이어간 모션 예측을 수행한다.Fig. 14H shows the processing method for this case. As shown, a virtual field is created by copying texture information and motion information of all macroblocks of a corresponding field of a base layer, and then upsampling is performed on the virtual field. This upsampling is done at a rate such that the resolution of the base layer is equal to the resolution of the current layer. One of the well-known methods together with this upsampling is used to configure the motion information of each macroblock of the upsampled picture based on the motion information of each macroblock of the virtual field. Since each macro block in the picture of the provisional base layer configured as described above is a field MB in the field picture, and each macro block in the current layer is also a field MB in the field picture, inter-layer motion prediction is applied by applying the above-described case of V). Do this.
지금까지는 도 2a 또는 2b의 장치에서의 EL 엔코더(20)가 수행하는 레이어간 예측동작을 설명하였다. 하지만, 전술한 모든 레이어간 예측동작의 설명은 베이스 레이어로부터 디코딩된 정보를 수신하여 인핸스드 레이어의 스트림을 디코딩하는 인핸스드 레이어의 디코더에도 동일하게 적용될 수 있다. 엔코딩과 디코딩 과정에서는 전술한 레이어간 예측동작이 동일하게 수행되며, 다만 레이어간 예측이후의 동작이 상이할 뿐이다. 예를 들어 엔코더는, 모션 예측을 수행한 후 그 예측된 정보를 또는 예측된 정보와 실제 정보와의 차정보를 디코더로 전송하기 위해 코딩하지만, 디코더는 엔코더에서 수행된 것과 동일한 레이어간 모션 예측에 의해 얻은 정보를 그대로 현 매크로 블록에 적용하여, 또는 실제 수신한 매크로 블록의 모션정보를 추가로 이용하여 실제 모션정보를 구하는 점이 상이할 뿐이다. 따라서, 엔코딩관점에서 전술한 본 발명의 내용과 그 원리는 수신되는 양 레이어의 데이터 스트림을 디코딩하는 디코더에도 그대로 적용된다.The interlayer prediction operation performed by the
본 발명은 전술한 전형적인 바람직한 실시예에만 한정되는 것이 아니라 본 발명의 요지를 벗어나지 않는 범위 내에서 여러 가지로 개량, 변경, 대체 또는 부가하여 실시할 수 있는 것임은 당해 기술분야에 통상의 지식을 가진 자라면 용이하게 이해할 수 있을 것이다. 이러한 개량, 변경, 대체 또는 부가에 의한 실시가 이하의 첨부된 특허청구범위의 범주에 속하는 것이라면 그 기술사상 역시 본 발명에 속하는 것으로 보아야 한다. It is to be understood that the present invention is not limited to the above-described exemplary preferred embodiments, but may be embodied in various ways without departing from the spirit and scope of the present invention. If you grow up, you can easily understand. If the implementation by such improvement, change, replacement or addition falls within the scope of the appended claims, the technical idea should also be regarded as belonging to the present invention.
제한된 실시예로써 상술한 본 발명의 적어도 하나의 실시예는, 서로 다른 방식의 영상신호 소스를 사용하여서도 레이어간 예측을 수행할 수 있게 하므로, 복수 레이어의 코딩시에 영상신호의 픽처 유형( 비월주사방식 신호, 순차주사방식 신호, MBAFF 프레임방식의 픽처, 필드 픽처 등 )에 무관하게 데이터 코딩율을 높일 수가 있다.As a limited embodiment of the present invention, at least one embodiment of the present invention enables to perform inter-layer prediction even by using different types of video signal sources. The data coding rate can be increased irrespective of the scanning signal, the progressive scanning signal, the MBAFF frame picture, the field picture, etc.).
Claims (19)
Priority Applications (64)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CA2636571A CA2636571C (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
CN2007800057544A CN101385353B (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
KR1020087017195A KR100914712B1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
PCT/KR2007/000146 WO2007081138A1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
US12/087,488 US8494060B2 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
EP07700917.3A EP1972154A4 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
CN201210585882.3A CN103096078B (en) | 2006-01-09 | 2007-01-09 | For inter-layer prediction method and the device of vision signal |
JP2008550228A JP4991759B2 (en) | 2006-01-09 | 2007-01-09 | Video signal encoding / decoding method |
EP07700919.9A EP1977609A4 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
EP07700921.5A EP1977610B1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
CN2007800056109A CN101385349B (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
KR1020087017196A KR100904441B1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
US12/087,471 US8401091B2 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
JP2008550227A JP4991758B2 (en) | 2006-01-09 | 2007-01-09 | Video signal encoding / decoding method |
CN2007800053238A CN101385348B (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
JP2008550226A JP4991757B2 (en) | 2006-01-09 | 2007-01-09 | Video signal encoding / decoding method |
EP07700914.0A EP1972152A4 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
PCT/KR2007/000148 WO2007081140A1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
KR1020087017198A KR100917829B1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
JP2008550225A JP4991756B2 (en) | 2006-01-09 | 2007-01-09 | Video signal encoding / decoding method |
EP07700916.5A EP1972153A4 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
JP2008550224A JP5106419B2 (en) | 2006-01-09 | 2007-01-09 | Video signal encoding / decoding method and apparatus |
PCT/KR2007/000144 WO2007081136A1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
EP07700913.2A EP1980114A4 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
KR1020087017199A KR20090016544A (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
EP07700920.7A EP1972155A4 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
US12/087,518 US8451899B2 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
KR1020087017202A KR100904443B1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
KR1020087017201A KR100904442B1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
PCT/KR2007/000142 WO2007100187A1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
KR1020087017197A KR100914713B1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
CN200780005672XA CN101385352B (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
CN2007800057826A CN101385355B (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
JP2008550231A JP4991762B2 (en) | 2006-01-09 | 2007-01-09 | Video signal encoding / decoding method and apparatus |
KR1020097021246A KR101055742B1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
CN2007800057614A CN101385354B (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
US12/087,515 US8345755B2 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
US12/087,523 US8792554B2 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
JP2008550230A JP4991761B2 (en) | 2006-01-09 | 2007-01-09 | Video signal encoding / decoding method |
US12/087,466 US8264968B2 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
PCT/KR2007/000141 WO2007081134A1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
PCT/KR2007/000145 WO2007081137A1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
AU2007205337A AU2007205337B2 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
US12/087,464 US8494042B2 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
JP2008550229A JP4991760B2 (en) | 2006-01-09 | 2007-01-09 | Interlayer prediction method for video signals |
PCT/KR2007/000143 WO2007081135A1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
PCT/KR2007/000140 WO2007081133A1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
KR1020087017204A KR100917206B1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
CN2007800056467A CN101385351B (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
US12/087,526 US8457201B2 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
JP2008550232A JP4991763B2 (en) | 2006-01-09 | 2007-01-09 | Video signal encoding / decoding method |
RU2008132819/09A RU2384970C1 (en) | 2006-01-09 | 2007-01-09 | Interlayer forcasting method for video signal |
EP07700915.7A EP1977607A4 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
EP07700918.1A EP1977608B1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
CN2007800056166A CN101385350B (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
KR1020087017203A KR20080092372A (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
US12/087,525 US8687688B2 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
PCT/KR2007/000147 WO2007081139A1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
KR1020097011954A KR101055741B1 (en) | 2006-01-09 | 2007-01-09 | Inter-layer prediction method for video signal |
HK09106198.8A HK1129013A1 (en) | 2006-01-09 | 2009-07-10 | Inter-layer prediction method for video signal |
HK09106197.9A HK1128843A1 (en) | 2006-01-09 | 2009-07-10 | Inter-layer prediction method for video signal |
HK09106200.4A HK1128571A1 (en) | 2006-01-09 | 2009-07-10 | Inter-layer prediction method for video signal |
US12/659,389 US8619872B2 (en) | 2006-01-09 | 2010-03-08 | Inter-layer prediction method for video signal |
US14/178,751 US9497453B2 (en) | 2006-01-09 | 2014-02-12 | Inter-layer prediction method for video signal |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US75823506P | 2006-01-12 | 2006-01-12 | |
US60/758,235 | 2006-01-12 | ||
US77693506P | 2006-02-28 | 2006-02-28 | |
US60/776,935 | 2006-02-28 | ||
US78749606P | 2006-03-31 | 2006-03-31 | |
US60/787,496 | 2006-03-31 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20070075257A true KR20070075257A (en) | 2007-07-18 |
Family
ID=38500430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060111893A KR20070075257A (en) | 2006-01-09 | 2006-11-13 | Inter-layer motion prediction method for video signal |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20070075257A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013141671A1 (en) * | 2012-03-23 | 2013-09-26 | 한국전자통신연구원 | Method and apparatus for inter-layer intra prediction |
KR101380460B1 (en) * | 2010-03-30 | 2014-04-02 | 후지쯔 가부시끼가이샤 | Image processing apparatus and image processing method |
-
2006
- 2006-11-13 KR KR1020060111893A patent/KR20070075257A/en unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101380460B1 (en) * | 2010-03-30 | 2014-04-02 | 후지쯔 가부시끼가이샤 | Image processing apparatus and image processing method |
WO2013141671A1 (en) * | 2012-03-23 | 2013-09-26 | 한국전자통신연구원 | Method and apparatus for inter-layer intra prediction |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100904441B1 (en) | Inter-layer prediction method for video signal | |
JP5112332B2 (en) | Inter-layer motion prediction method | |
KR100896279B1 (en) | Method for scalably encoding and decoding video signal | |
KR20070074452A (en) | Inter-layer prediction method for video signal | |
CN101491100B (en) | Method and device for deriving motion data for high resolution pictures from motion data of low resolution pictures | |
KR20070075257A (en) | Inter-layer motion prediction method for video signal | |
KR20070095180A (en) | Inter-layer prediction method for video signal based on picture types | |
RU2384970C1 (en) | Interlayer forcasting method for video signal | |
KR101370892B1 (en) | Inter-layer motion prediction method for video blocks | |
KR20070075293A (en) | Inter-layer motion prediction method for video signal | |
KR20070092591A (en) | Inter-layer prediction method for video signal |