KR20060122671A - Method for scalably encoding and decoding video signal - Google Patents

Method for scalably encoding and decoding video signal Download PDF

Info

Publication number
KR20060122671A
KR20060122671A KR1020050115575A KR20050115575A KR20060122671A KR 20060122671 A KR20060122671 A KR 20060122671A KR 1020050115575 A KR1020050115575 A KR 1020050115575A KR 20050115575 A KR20050115575 A KR 20050115575A KR 20060122671 A KR20060122671 A KR 20060122671A
Authority
KR
South Korea
Prior art keywords
layer
frame
image data
fgs
macroblock
Prior art date
Application number
KR1020050115575A
Other languages
Korean (ko)
Inventor
박지호
전병문
박승욱
윤도현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20060122671A publication Critical patent/KR20060122671A/en

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04HBUILDINGS OR LIKE STRUCTURES FOR PARTICULAR PURPOSES; SWIMMING OR SPLASH BATHS OR POOLS; MASTS; FENCING; TENTS OR CANOPIES, IN GENERAL
    • E04H17/00Fencing, e.g. fences, enclosures, corrals
    • E04H17/14Fences constructed of rigid elements, e.g. with additional wire fillings or with posts

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

A method for scalably encoding and decoding a video signal is provided to perform the prediction of a video at an FGS(Fine Grained Scalability) enhanced layer. An FGS encoder calculates an FGS base layer with a quantization coefficient through DCT(Discrete Cosine Transform) conversion and quantization with a predetermined step size related to the image data of X. The FGS encoder restores the image data of the FGS base layer from the FGS base layer with the quantization coefficient and calculates the FGS similarity enhanced layer with a quantization coefficient through the DCT conversion related to the difference of the image data and the restored FGS base layer, and the quantization with a small step size.

Description

영상 신호의 스케일러블 인코딩 및 디코딩 방법 { Method for scalably encoding and decoding video signal }Scalable method for encoding and decoding video signals {Method for scalably encoding and decoding video signal}

도 1은 FGS와 관련하여 코딩 효율을 향상시키기 위한 종래의 방법을 도시한 것이고,1 illustrates a conventional method for improving coding efficiency in connection with FGS,

도 2는 매크로블록 레벨에서 closed-loop 구조를 통해 FGS 인핸스드 레이어를 인코딩 하는 방법에 대한 본 발명에 따른 실시예를 도시한 것이고,2 illustrates an embodiment according to the present invention for a method of encoding an FGS enhanced layer through a closed-loop structure at a macroblock level,

도 3은 FGS 인핸스드 레이어의 양자화 계수를 스캔하여 전송하는 방법에 대한 예를 도시한 것이고,3 illustrates an example of a method of scanning and transmitting a quantization coefficient of an FGS enhanced layer.

도 4는 본 발명에 따른 슬라이스 헤더 영역에 대한 실시예를 도시한 것이고,4 illustrates an embodiment of a slice header area according to the present invention;

도 5는 본 발명에 따른 매크로블록 헤더 영역에 대한 실시예를 도시한 것이다.5 illustrates an embodiment of a macroblock header region according to the present invention.

본 발명은, 영상 신호의 스케일러블 인코딩 및 디코딩 방법에 관한 것으로, 좀더 상세하게는 매크로블록 기반으로 클로즈드 루프(closed-loop) 구조를 통해 FGS 인핸스드 레이어에 대한 예측 동작을 수행하는 방법에 관한 것이다.The present invention relates to a scalable encoding and decoding method of an image signal, and more particularly, to a method of performing a prediction operation on an FGS enhanced layer through a closed-loop structure based on a macroblock. .

현재 널리 사용되고 있는 휴대폰과 노트북, 그리고 앞으로 널리 사용하게 될 이동(mobile) TV와 핸드헬드 PC 등이 무선으로 송수신하는 디지털 영상 신호에 대해서는 TV 신호에서와 같은 넓은 대역을 할당하기가 여의치 않다. 따라서, 이와 같은 이동성 휴대 장치를 위한 영상 압축 방식에 사용될 표준은 좀 더 영상 신호의 압축 효율이 높아야만 한다.For digital video signals transmitted and received wirelessly by mobile phones and laptops and mobile TVs and handheld PCs, which are widely used in the future, it is difficult to allocate wide bands as in TV signals. Therefore, the standard to be used for the image compression method for such a mobile portable device should be higher the compression efficiency of the video signal.

더욱이, 상기와 같은 이동성 휴대 장치는 자신이 처리 또는 표현(presentation)할 수 있는 능력이 다양할 수 밖에 없다. 따라서, 압축된 영상이 그만큼 다양하게 사전 준비되어야만 하는 데, 이는 동일한 하나의 영상원(source)에 대해서 초당 전송 프레임 수, 해상도, 픽셀 당 비트 수 등 다양한 변수들로 각각 조합된 여러 품질의 영상 데이터를 구비하고 있어야 함을 의미하므로, 컨텐츠 제공자에게 많은 부담이 될 수 밖에 없다.In addition, such a mobile portable device is inevitably varied in its ability to process or present. Therefore, the compressed image has to be prepared in such a variety that it is different from each other by various variables such as transmission frames per second, resolution, bits per pixel, etc. for the same image source. This means that it must be provided, which is a burden on the content provider.

이러한 이유로, 컨텐츠 제공자는, 하나의 영상원에 대해 고속 비트레이트의 압축 영상 데이터를 구비해 두고, 상기와 같은 이동성 장치가 요청하면 압축 영상을 디코딩 한 다음 요청한 장치의 영상 처리 능력(capability)에 맞는 영상 데이터로 다시 인코딩 하여 이를 제공한다. 하지만 이러한 방식에는 트랜스코딩(transcoding)(decoding+scaling+encoding) 과정이 필히 수반되므로 이동성 장치가 요청한 영상을 제공함에 있어서 다소 시간 지연이 발생한다. 또한 트랜스코딩도 목표 인코딩이 다양함에 따라 복잡한 하드웨어의 디바이스와 알고리즘을 필요로 한다.For this reason, the content provider has high-speed bitrate compressed video data for one video source, decodes the compressed video when requested by the mobile device, and then fits the video capability of the requested device. This is provided by re-encoding the video data. However, this method requires a transcoding (decoding + scaling + encoding) process, and thus a time delay occurs in providing a video requested by the mobile device. Transcoding also requires complex hardware devices and algorithms as the target encoding varies.

이와 같은 불리한 점들을 해소하기 위해 제안된 것이 스케일러블 영상 코덱(SVC : Scalable Video Codec)이다. 이 방식은 영상 신호를 인코딩함에 있어, 최고 화질로 인코딩 하되, 그 결과로 생성된 픽처(프레임) 시퀀스의 부분 시퀀스(시퀀스 전체에서 간헐적으로 선택된 프레임의 시퀀스)를 디코딩 하여도 영상의 화질을 어느 정도 보장할 수 있도록 하는 방식이다. MCTF(Motion Compensated Temporal Filter(or Filtering))는 상기와 같은 스케일러블 영상 코덱에 사용하기 위해 제안된 인코딩 방식의 일 예이다.Scalable video codec (SVC) has been proposed to solve such disadvantages. This method encodes a video signal, and encodes at the highest quality, but decodes a partial sequence of the resulting picture (frame) sequence (sequence of frames selected intermittently throughout the sequence) to some extent. It's a way to ensure that. Motion Compensated Temporal Filter (or MCTF) is an example of an encoding scheme proposed for use with the scalable video codec.

스케일러빌러티(Scalability)는 오류에 대한 내성과 비트 레이트에 대한 적응성을 높이기 위해 MPEG-2에서 새로 도입한 개념이다. 스케일러빌러티는 해상도가 낮거나 크기가 작은 화면으로 이루어진 베이스 레이어(base layer)와 이보다 해상도가 높거나 크기가 큰 화면으로 이루어진 인핸스드 레이어(enhanced layer 또는 enhancement layer)를 포함한다. 베이스 레이어는 독립적으로 복호가 가능하도록 부호화된 비트 스트림이고, 인핸스드 레이어는 일반적으로 베이스 레이어에 있는 비트 스트림을 개선하기 위하여 사용되는 비트 스트림으로, 예를 들어 원래의 데이터와 베이스 레이어에서 부호화한 데이터의 차이값을 좀더 세밀하게 부호화한 것이다. 스케일러빌러티에는 공간적 스케일러빌러티(Spatial scalability), 시간적 스케일러빌러티(Temporal scalability), SNR 스케일러빌러티(SNR scalability) 등이 있다.Scalability is a new concept introduced in MPEG-2 to improve error tolerance and adaptability to bit rates. The scalability includes a base layer consisting of a screen having a low resolution or a small size, and an enhanced layer or enhancement layer consisting of a screen having a higher resolution or a larger size. The base layer is a bit stream encoded to be independently decodable, and the enhanced layer is a bit stream generally used to improve a bit stream in the base layer, for example, original data and data encoded in the base layer. This is a more detailed encoding of the difference between. Scalability includes spatial scalability, temporal scalability, SNR scalability and the like.

SNR 스케일러빌러티는 화질을 좋게 하는 방법으로, 각 화소에 대응되는 변환 계수(Transform coefficients), 예를 들어 DCT(Discrete Cosine Transform) 계수를 비트 표현상의 해상도에 따라 베이스 레이어와 인핸스드 레이어로 나누어 전송한다.SNR scalability is a method of improving image quality, and transmits transform coefficients corresponding to each pixel, for example, discrete cosine transform (DCT) coefficients, divided into base layer and enhanced layer according to the resolution of the bit representation. do.

영상 신호에 대한 모션 추정 및 예측 동작 등을 통해 생성된 데이터는, 예를 들어 DCT 변환 계수로 변환되고 양자화된다. 이때, 상기 변환 계수는 양자화 과정에서 소정의 품질(또는 소정의 비트 레이트)에 대응되도록 설정된 스텝 크기에 따라 양자화되는데, 이때 생성되는 양자화 계수가 SNR 베이스 레이어가 된다.Data generated through motion estimation, prediction, and the like for the video signal is transformed and quantized, for example, into DCT transform coefficients. In this case, the transform coefficient is quantized according to a step size set to correspond to a predetermined quality (or a predetermined bit rate) in the quantization process, and the generated quantization coefficient becomes an SNR base layer.

양자화 과정은 양자화 스텝 크기에 따라 변환 계수를 유한개의 대표값으로 표현함으로써 보다 높은 압축 효율을 얻는 과정으로, 양자화 과정을 통하여 높은 압축은 가능하지만 한번 양자화된 값은 원래의 영상 신호로 그대로 복구가 불가능하기 때문에 재구성할 때 손실이 있게 된다.The quantization process obtains higher compression efficiency by expressing transform coefficients as finite representative values according to the quantization step size. Higher compression is possible through the quantization process, but once the quantized value cannot be restored to the original video signal. There is a loss when rebuilding.

이러한 인코딩 과정(DCT 변환과 양자화)에서 발생하는 손실(에러)을 보상하기 위하여, 원래의 데이터와 SNR 베이스 레이어를 역양자화와 역DCT를 거쳐 복원한 데이터의 차이에 대해서, 상기 DCT와 양자화 과정을 다시 수행하여 SNR 인핸스드 레이어의 레벨 1을 생성한다. 이때, 양자화 과정에서 스텝 크기는, 상기 SNR 베이스 레이어에 대응되는 상기 소정의 품질보다 한 단계 더 높은 품질에 대응되도록, 즉 SNR 베이스 레이어의 양자화 과정 때보다 작게 설정되는데, 이는 원래의 데이터와 복원한 데이터의 차이값에 대해 양자화 과정을 수행하기 때문이다.In order to compensate for the loss (error) that occurs in the encoding process (DCT transform and quantization), the DCT and the quantization process are performed for the difference between the original data and the data reconstructed through inverse quantization and inverse DCT of the SNR base layer. Perform again to generate level 1 of the SNR enhanced layer. In this case, the step size in the quantization process is set to correspond to a quality one step higher than the predetermined quality corresponding to the SNR base layer, that is, smaller than that in the quantization process of the SNR base layer. This is because the quantization process is performed on the difference value of the data.

위와 같이, 원래의 데이터와 복원한 데이터의 차이값을 DCT 변환하고 앞서 설명한 방법으로 설정된 양자화 스텝 크기에 따라 양자화하는 과정을 반복하여, 상기 DCT 변환과 양자화 과정과 같은 인코딩 과정에서 발생하는 에러를 보상할 수 있는 여러 레벨의 SNR 인핸스드 레이어가 차례로 생성된다. 또한, 디코딩 되는 SNR 인핸스드 레이어의 레벨이 점점 증가함에 따라 화질이 점진적으로 좋아질 수 있기 때문에, SNR 스케일러빌러티를 FGS(Fine Grained Scalability), 점층적 리파인먼트(progressive refinement), 또는 연속적 리파인먼트(successive refinement)라 한다. SNR 베이스 레이어와 SNR 인핸스드 레이어를 간단하게 베이스 레이어와 FGS 레이어라고도 한다.As described above, DCT conversion of the difference value between the original data and the restored data is repeated, and the quantization step is repeated according to the quantization step size set in the above-described manner, thereby compensating for errors occurring in the encoding process such as the DCT transformation and the quantization process. Several levels of SNR enhanced layers are created in turn. In addition, as the quality of the SNR enhanced layer being decoded may gradually increase in quality, the SNR scalability may be improved by fine grained scalability (GFS), progressive refinement, or continuous refinement (FG). successive refinement). The SNR base layer and the SNR enhanced layer are also referred to simply as the base layer and the FGS layer.

종래에는, FGS와 관련하여 코딩 효율을 향상시키기 위한 방법으로, 도 1의 (a) 내지 (b)에 도시한 바와 같이, 전 프레임의 베이스 레이어(SNR 베이스 레이어) 또는 전 프레임의 FGS 레이어(SNR 인핸스드 레이어)의 복원된(reconstructed) 영상 데이터를 이용하여 베이스 레이어(SNR 베이스 레이어)를 인코딩 하는 방법에 국한되어 있다.Conventionally, as a method for improving coding efficiency in relation to FGS, as shown in FIGS. 1A to 1B, a base layer of an entire frame (SNR base layer) or an FGS layer of an entire frame (SNR). It is limited to a method of encoding a base layer (SNR base layer) using reconstructed image data of an enhanced layer.

FGS 레이어는 영상 데이터를 변환한 계수 영역(coefficient domain)에 관련 되므로, 종래의 FGS 구조에서는 FGS 레이어에 대한 예측 동작은 의미가 거의 없으므로, 코딩 효율을 향상시키기 위한 방법이 마땅치 않았다.Since the FGS layer is related to a coefficient domain in which image data is transformed, a prediction operation on the FGS layer has little meaning in the conventional FGS structure, and thus a method for improving coding efficiency is not appropriate.

따라서, 원래의 데이터와 베이스 레이어와의 차이를 FGS 레이어에 인코딩 하는 종래의 FGS 인코딩 구조와는 다르게, 동일 프레임의 베이스 레이어의 복원된(reconstructed) 영상 데이터를 이용하여 FGS 레이어를 예측하는 구조가, FGS 레이어와 관련하여 코딩 효율을 향상시키기 위한 방안으로 제안되고 있다. 또한, FGS 레이어에서의 시간적 잉여(temporal redundancy)를 이용하기 위해, 전 프레임의 FGS 레이어와 동일 프레임의 베이스 레이어의 복원된 영상 데이터를 적절하게 가중하여 FGS 레이어의 예측에 이용하는 클로즈드 루프(closed-loop) 구조도 연구되고 있는데, 이러한 closed-loop 구조를 이용한 방법은 슬라이스 레벨을 기반으로 하는데 머물러 있다.Therefore, unlike the conventional FGS encoding structure that encodes the difference between the original data and the base layer into the FGS layer, the structure that predicts the FGS layer using reconstructed image data of the base layer of the same frame is It is proposed as a method for improving coding efficiency with respect to the FGS layer. In addition, in order to use temporal redundancy in the FGS layer, a closed-loop that is appropriately weighted to the reconstructed image data of the base layer of the same frame as the FGS layer of the previous frame and used for prediction of the FGS layer. The structure using the closed-loop structure remains based on the slice level.

본 발명은 이러한 문제점을 해결하기 위해 창작된 것으로서, 본 발명의 목적은, FGS 레이어의 인코딩과 관련하여 코딩 효율을 향상시킬 수 있는 방법을 제공하는데 있다.The present invention has been made to solve this problem, and an object of the present invention is to provide a method for improving coding efficiency with respect to encoding of an FGS layer.

본 발명의 구체적인 목적은, 매크로블록 레벨에서 다른 프레임의 FGS 인핸스드 레이어와 동일 프레임의 FGS 베이스 레이어를 이용하여 FGS 인핸스드 레이어를 예측하는 방법과 매크로블록 레벨에서 가중치를 정의하는 방법을 제공하는데 있다.A specific object of the present invention is to provide a method for predicting an FGS enhanced layer using the FGS enhanced layer of another frame and the same frame at the macroblock level and a method for defining the weight at the macroblock level. .

상기한 목적을 달성하기 위해 본 발명의 일 실시예에 따른 영상 신호를 인코딩 하는 방법은, 매크로블록을 기반으로, 제 1 프레임에 대한 제 1 레이어와 제 2 프레임에 대한 제 2 레이어를 이용하여 상기 제 1 프레임에 대한 제 2 레이어를 인코딩 하는 단계; 및 상기 제 2 레이어가 매크로블록을 기반으로 인코딩 되었음을 가리키는 정보를 기록하는 단계를 포함하여 이루어지고, 여기서, 제 2 레이어는 제 1 레이어의 인코딩 과정에서 발생하는 에러를 보상하도록 인코딩 되고, 상기 제 2 프레임은 상기 제 1 프레임에 대한 모션 예측의 기준이 되는 프레임인 것을 특징으로 한다.In order to achieve the above object, a method of encoding a video signal according to an embodiment of the present invention is based on a macroblock, by using a first layer for a first frame and a second layer for a second frame. Encoding a second layer for the first frame; And recording information indicating that the second layer is encoded based on the macroblock, wherein the second layer is encoded to compensate for an error occurring in the encoding process of the first layer, and the second layer is encoded. The frame may be a frame which is a reference for motion prediction with respect to the first frame.

상기 정보는 상기 정보는 상기 제 1 프레임에 대한 제 2 레이어를 포함하는 슬라이스의 헤더 영역에 기록되는 것을 특징으로 한다.The information is characterized in that the information is recorded in the header area of the slice including the second layer for the first frame.

상기 제 1 프레임에 대한 제 1 레이어로부터 복원되는 제 1 영상 데이터와 제 2 프레임에 대한 제 2 레이어로부터 복원되는 제 2 영상 데이터가, 상기 제 1 프레임에 대한 제 2 레이어의 인코딩에 이용되는 것을 특징으로 한다. 이때, 상기 제 2 영상 데이터는, 상기 제 2 프레임에 대한 제 1 레이어와 제 2 레이어를 모두 이용하여 복원되는 것이 바람직하다.The first image data reconstructed from the first layer for the first frame and the second image data reconstructed from the second layer for the second frame are used for encoding the second layer for the first frame. It is done. In this case, the second image data may be reconstructed using both the first layer and the second layer for the second frame.

상기 제 1 영상 데이터와 제 2 영상 데이터는 각각 가중되어 이용되는데, 상기 제 1 영상 데이터 또는 상기 제 2 영상 데이터 중 어느 하나를 가중하는 제 1 가중치가 상기 제 1 프레임에 대한 제 2 레이어의 매크로블록의 헤더 영역에 기록되고, 상기 어느 하나가 아닌 다른 영상 데이터를 가중하는 제 2 가중치는 상기 제 1 가중치로부터 유추되는 것을 특징으로 한다.The first image data and the second image data are each weighted and used, wherein a first weight that weights either the first image data or the second image data is a macroblock of a second layer with respect to the first frame. The second weight recorded in the header area of the apparatus and weighting other image data other than the one is inferred from the first weight.

또한, 상기 제 1 가중치는 상기 제 1 프레임에 대한 제 1 레이어의 조건에 따라 구분되어 기록되는데, 상기 제 1 레이어의 조건은 상기 제 1 레이어의 매크로블록 내의 서브 블록의 데이터 유무인 것을 특징으로 한다.In addition, the first weight is recorded according to the condition of the first layer for the first frame, wherein the condition of the first layer is characterized in that the presence or absence of data of the sub block in the macroblock of the first layer. .

상기 제 1 프레임에 대한 제 1 레이어를 이용하여 생성한, 상기 제 1 프레임에 대한 제 2 레이어에 대한 유사 영상 데이터와, 상기 제 1 영상 데이터와 제 2 영상 데이터를 각각 가중하고 더하여 구한 영상 데이터의 차이를 이용하여 상기 제 1 프레임에 대한 제 2 레이어가 인코딩 되는 것을 특징으로 한다.The image data obtained by weighting and adding the similar image data for the second layer for the first frame and the first image data and the second image data, respectively, generated using the first layer for the first frame. The second layer for the first frame is encoded using the difference.

본 발명에 따른 인코딩 된 영상 비트 스트림을 디코딩 하는 방법은, 매크로블록을 기반으로, 제 1 프레임에 대한 제 1 레이어와 제 2 프레임에 대한 제 2 레이어를 이용하여 상기 제 1 프레임에 대한 제 2 레이어를 디코딩 하는 단계를 포함하여 이루어지고, 여기서, 제 2 레이어는 제 1 레이어의 인코딩 과정에서 발생하는 에러를 보상하도록 인코딩 되고, 상기 제 2 프레임은 상기 제 1 프레임에 대한 모션 예측의 기준이 되는 프레임인 것을 특징으로 한다.According to the present invention, a method of decoding an encoded video bit stream is based on a macroblock, using a first layer for a first frame and a second layer for the first frame using a second layer for a second frame. Decoding a second layer, wherein the second layer is encoded to compensate for an error occurring in the encoding process of the first layer, and the second frame is a frame that is a reference of motion prediction for the first frame. It is characterized by that.

상기 제 1 프레임의 제 2 레이어에 대한 영상 데이터는, 상기 제 1 프레임에 대한 제 1 레이어로부터 복원되는 제 1 영상 데이터와 상기 제 2 프레임에 대한 제 2 레이어로부터 복원되는 제 2 영상 데이터를 각각 가중하고 더하여 구한 영상 데이터와, 상기 제 1 프레임의 제 2 레이어만을 복원하여 구한 영상 데이터를 더하여 생성되는 것을 특징으로 한다.The image data for the second layer of the first frame is weighted with first image data reconstructed from the first layer for the first frame and second image data reconstructed from the second layer for the second frame. And the image data obtained by reconstructing only the second layer of the first frame.

이하, 본 발명의 바람직한 실시예에 대해 첨부 도면을 참조하여 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

앞에서 설명한 바와 같이, 종래의 FGS 인코딩 방법에서는, 원래의 영상 데이터(XO D)에 대해 DCT 변환과 소정 스텝 크기의 양자화를 거쳐 양자화 계수를 갖는 FGS 베이스 레이어(XB Q)를 구하고, 상기 XO D와 상기 XB Q로부터 복원된 베이스 레이어의 영상 데이터(XB R)의 차이에 대해 DCT 변환과 상기 소정 스텝 크기보다 더 작게 설정된 스텝 크기의 양자화를 거쳐 양자화 계수를 갖는 FGS 인핸스드 레이어(XE Q)를 구한다.The As described above, in the conventional FGS encoding method, to obtain the FGS base layer (X B Q) having the quantization coefficients via a DCT transform and quantization with a predetermined step size of the original image data (X O D) of the X O FGS enhanced layer has a D and the X B image data (X B R) of the base layer restored from Q quantized coefficients after the quantization step size smaller set than the DCT transform and the predetermined step size for the difference of ( X E Q )

하지만, closed-loop 구조의 FGS 인코딩 방법에서는, FGS 인핸스드 레이어의 양자화 계수는 상기 XO D와 XB R의 차이로부터 직접 계산되지 않는다.However, in the FGS encoding method of the closed-loop structure, the quantization coefficient of the FGS enhanced layer is not directly calculated from the difference between X O D and X B R.

Closed-loop 구조의 FGS 인코더는, 종래의 FGS 인코딩 방법을 이용하여, 상기 XB Q를 구하고, 이를 이용하여 양자화 계수를 갖는 FGS 유사(Pseudo) 인핸스드 레이어(XPE Q)를 구한다. 이후, 상기 XPE Q를 복원하여 영상 데이터(XPE R)를 구하고, 이를 상기 XB Q를 복원하여 구한 XB R에 더해 FGS 유사 인핸스드 레이어에 대한 영상 데이터를 구한다.The FGS encoder of the closed-loop structure obtains the X B Q using a conventional FGS encoding method and uses the same to obtain an FGS pseudo enhanced layer (X PE Q ) having a quantization coefficient. Thereafter, the X PE Q is reconstructed to obtain image data (X PE R ), and this is added to X B R obtained by reconstructing the X B Q to obtain image data for an FGS-like enhanced layer.

또한, Closed-loop 구조의 FGS 인코더는, 동일한 프레임(현재 프레임)의 FGS 베이스 레이어의 복원된 영상 데이터(XB R)와 상기 현재 프레임의 기준(레퍼런스)이 되는 프레임, 예를 들어 이전 프레임의 FGS 인핸스드 레이어에 대한 영상 데이터를 소정의 가중치로 가중하여 더함으로써, FGS 인핸스드 레이어에 대한 예측(레퍼런스) 영상 데이터를 생성한다.Also, the FGS encoder of the closed-loop structure may include the reconstructed image data (X B R ) of the FGS base layer of the same frame (current frame) and the frame that is the reference (reference) of the current frame, for example, the previous frame. Predicted (reference) image data for the FGS enhanced layer is generated by weighting and adding image data for the FGS enhanced layer to a predetermined weight.

이후 상기 Closed-loop 구조의 FGS 인코더는, 상기 FGS 유사 인핸스드 레이어의 영상 데이터와 상기 FGS 인핸스드 레이어의 예측(레퍼런스) 영상 데이터의 차이에 대해 DCT 변환과 양자화를 거쳐 양자화 계수를 갖는 FGS 인핸스드 레이어를 구한다.Thereafter, the FGS encoder having the closed-loop structure includes an FGS enhanced having a quantization coefficient through a DCT transform and quantization on a difference between the image data of the FGS-like enhanced layer and the prediction (reference) image data of the FGS enhanced layer. Find the layer.

한편, Closed-loop FGS 디코더는, 이미 수신된 레퍼런스 프레임의 FGS 베이스 레이어와 FGS 인핸스드 레이어의 양자화 계수로부터 상기 레퍼런스 프레임의 FGS 인핸스드 레이어의 영상 데이터를 구하고, 이미 수신된 현재 프레임의 FGS 베이스 레이어로부터 현재 프레임의 FGS 베이스 레이어의 영상 데이터를 복원한다. 그리고, Closed-loop FGS 디코더는, 상기 레퍼런스 프레임의 FGS 인핸스드 레이어와 현재 프레임의 FGS 베이스 레이어의 영상 데이터를 상기 소정의 가중치로 가중하여 더함으로써, 현재 프레임의 FGS 인핸스드 레이어에 대한 예측(레퍼런스) 영상 데이터를 생성한다.Meanwhile, the closed-loop FGS decoder obtains image data of the FGS enhanced layer of the reference frame from the quantization coefficients of the FGS base layer and the FGS enhanced layer of the already received reference frame, and receives the FGS base layer of the current frame already received. Reconstruct the video data of the FGS base layer of the current frame from. The closed-loop FGS decoder adds the image data of the FGS enhanced layer of the reference frame and the FGS base layer of the current frame by the predetermined weight, thereby predicting (reference) the FGS enhanced layer of the current frame. ) Generate video data.

상기 Closed-loop FGS 디코더는, 이후 수신되는 현재 프레임의 FGS 인핸스드 레이어의 양자화 계수로부터 복원한 영상 데이터와 상기 생성된 예측(레퍼런스) 영 상 데이터를 더하여, 현재 프레임의 FGS 인핸스드 레이어에 대한 영상 데이터를 생성할 수 있게 된다.The closed-loop FGS decoder adds the image data reconstructed from the quantization coefficients of the FGS enhanced layer of the current frame received thereafter and the generated prediction (reference) image data to add an image of the FGS enhanced layer of the current frame. You can create data.

따라서, 전송 대역의 감소, 손실(truncation)과 같은 전송 환경의 열화로 FGS 인핸스드 레이어의 양자화 계수가 수신되지 않는 경우에도, 상기 Closed-loop FGS 디코더는, FGS 베이스 레이어의 영상 데이터보다는 화질이 개선된 예측 영상 데이터를 얻을 수 있게 된다.Therefore, even when the quantization coefficient of the FGS enhanced layer is not received due to degradation of the transmission environment such as a reduction in transmission band and truncation, the closed-loop FGS decoder improves image quality than the image data of the FGS base layer. The predicted image data can be obtained.

도 2는 매크로블록 레벨에서 closed-loop 구조를 통해 FGS 레이어(인핸스드 레이어)를 인코딩 하는 방법에 대한 본 발명에 따른 실시예를 도시한 것이다.2 illustrates an embodiment according to the present invention for a method of encoding an FGS layer (enhanced layer) through a closed-loop structure at the macroblock level.

편의상, 현재 프레임 내의 임의의 매크로블록을 X, 상기 X에 대응되는 레퍼런스 프레임의 블록, 즉 상기 X에 대한 프레임간 모션 예측 동작을 수행할 때 이용되는 레퍼런스 블록을 Y라 칭한다.For convenience, an arbitrary macroblock in the current frame is referred to as X, a block of a reference frame corresponding to X, that is, a reference block used when performing an inter-frame motion prediction operation on the X.

본 발명에 따른 FGS 인코더는, 상기 X의 영상 데이터(모션 예측 동작을 통해 이미지의 차값으로 인코딩 된 영상 데이터일 수도 있음)(XO D)에 대해 DCT 변환과 소정 스텝 크기의 양자화를 거쳐 양자화 계수를 갖는 FGS 베이스 레이어(XB Q)를 구한다. 또한, 상기 FGS 인코더는, 상기 XB Q로부터 FGS 베이스 레이어의 영상 데이터(XB R)를 복원하고, 이를 XO D와 상기 복원된 XB R의 차이에 대해 DCT 변환과 상기 소정 스텝 크기보다 더 작게 설정된 스텝 크기의 양자화를 거쳐 양자화 계수를 갖는 FGS 유사 인핸스드 레이어(XPE Q)를 구한다.According to the present invention, the FGS encoder performs quantization coefficients through DCT transform and quantization of a predetermined step size with respect to the image data of X (which may be image data encoded as a difference value of an image through a motion prediction operation) (X O D ). Obtain an FGS base layer (X B Q ) with. In addition, the FGS encoder restores the image data (X B R ) of the FGS base layer from the X B Q , and compares the DCT transform and the predetermined step size with respect to the difference between X O D and the restored X B R. The FGS pseudo-enhanced layer X PE Q having a quantization coefficient is obtained through smaller step size quantization.

이후, 상기 FGS 인코더는, 상기 XPE Q로부터 영상 데이터(XPE r)를 복원하고, 상기 복원된 XPE r를 상기 XB R에 더해 FGS 유사 인핸스드 레이어에 대한 영상 데이터(XPE R)를 얻는다. 여기서, 상기 XPE r는 상기 FGS 유사 인핸스드 레이어에만 코딩 된 양자화 계수에 대한 영상 데이터에 해당하고, 상기 XPE R는 상기 FGS 베이스 레이어와 FGS 유사 인핸스드 레이어에 각각 코딩 된 양자화 계수에 대한 영상 데이터의 합에 해당한다.Thereafter, the FGS encoder restores image data (X PE r ) from the X PE Q and adds the reconstructed X PE r to the X B R to obtain image data (X PE R ) for an FGS-like enhanced layer. Get Here, the X PE r corresponds to image data for quantization coefficients coded only in the FGS-like enhanced layer, and the X PE R corresponds to image for quantization coefficients coded in the FGS base layer and the FGS-like enhanced layer, respectively. It is the sum of the data.

상기 X의 영상 데이터(XO D)가 이미지 차값으로 인코딩 된 영상 데이터인 경우, 상기 구해진 XPE R에 대해서 상기 모션 예측 동작의 역동작을 수행하여 원래의 영상 데이터를 얻는 과정이 더 필요할 수도 있다.When the image data X O D of X is image data encoded with an image difference value, a process of obtaining original image data by performing an inverse operation of the motion prediction operation on the obtained X PE R may be further required. .

한편, 상기 FGS 인코더는, 상기 블록 Y를 포함하는 레퍼런스 프레임, 예를 들어 이전 프레임에 대해 FGS 코딩을 통해 양자화 계수를 갖는 FGS 베이스 레이어와 FGS 인핸스드 레이어를 구한 상태이다. 또한, 상기 FGS 인코더는, 상기 레퍼런스 프레임의 FGS 베이스 레이어와 FGS 인핸스드 레이어의 양자화 계수를 이용하여 상기 레퍼런스 프레임의 FGS 인핸스드 레이어에 대한 영상 데이터를 복원하고, 이로부터 상기 블록 Y에 대한 FGS 인핸스드 레이어의 영상 데이터(YE R)를 얻을 수 있다.Meanwhile, the FGS encoder obtains an FGS base layer and an FGS enhanced layer having quantization coefficients through FGS coding on a reference frame including the block Y, for example, a previous frame. The FGS encoder may reconstruct image data of the FGS enhanced layer of the reference frame using the quantization coefficients of the FGS base layer and the FGS enhanced layer of the reference frame, and from there, the FGS enhancement for the block Y. Image data Y E R can be obtained.

상기 FGS 인코더는, 상기 YE R와 상기 XB R를 소정의 가중치로 가중하여 더함으로써 상기 매크로블록 X의 FGS 인핸스드 레이어에 대한 예측(레퍼런스) 영상 데이터(XE P)를 생성한다. 이때, 상기 YE R와 상기 XB R에 적용되는 가중치는 두 가중치의 합이 1이 되는 상보적인 관계를 갖도록 설정되는데, 상기 YE R에 대한 가중치가 0부터 1 사이 값을, 예를 들어 0 내지 15 또는 0 내지 31 중 임의의 값으로 표현되어 설정되면, 상기 XB R에 대한 가중치는 이로부터 쉽게 유도될 수 있다.The FGS encoder generates the prediction (reference) image data (X E P ) for the FGS enhanced layer of the macroblock X by weighting and adding the Y E R and the X B R to a predetermined weight. In this case, the weights applied to the Y E R and the X B R are set to have a complementary relationship such that the sum of the two weights is 1, and the weight for the Y E R is a value between 0 and 1, for example. If expressed and set to any value from 0 to 15 or 0 to 31, the weight for X B R can be easily derived from it.

이후 상기 FGS 인코더는, 상기 FGS 유사 인핸스드 레이어에 대한 영상 데이터(XPE R)와 상기 FGS 인핸스드 레이어에 대한 예측(레퍼런스) 영상 데이터(XE P)의 차이(XE r)에 대해 DCT 변환과 양자화를 거쳐 양자화 계수를 갖는 FGS 인핸스드 레이어(XE Q)를 구한다. 이때, 상기 양자화에 적용되는 양자화 스텝은 임의로 조정할 수 있으나, 상기 FGS 유사 인핸스드 레이어의 양자화 계수를 구할 때 적용한 양자화 스텝을 사용하는 것이 바람직하다.The FGS encoder then performs DCT on the difference (X E r ) between the image data (X PE R ) for the FGS-enhanced layer and the prediction (reference) image data (X E P ) for the FGS enhanced layer. The FGS enhanced layer X E Q having quantization coefficients is obtained through transformation and quantization. In this case, the quantization step applied to the quantization can be arbitrarily adjusted, but it is preferable to use the quantization step applied when obtaining the quantization coefficient of the FGS-like enhanced layer.

따라서, 현재 프레임은, 본 발명에 따른 FGS 인코딩 방법에 따라, 종래의 FGS 인코딩 방법과는 다르게 구해진 FGS 베이스 레이어(XB Q)와 FGS 인핸스드 레이어(XE Q)로 표현된다.Accordingly, the current frame is represented by the FGS base layer X B Q and the FGS enhanced layer X E Q obtained differently from the conventional FGS encoding method according to the FGS encoding method according to the present invention.

한편, FGS 인핸스드 레이어의 양자화 계수는 매크로블록의 픽셀 순서로 순차적으로 전송되지 않고, 소정의 경로, 예를 들어 지그재그 경로를 따라 세 번에 걸쳐 스캔되어 전송된다.On the other hand, the quantization coefficients of the FGS enhanced layer are not sequentially transmitted in the pixel order of the macroblock, but are scanned and transmitted three times along a predetermined path, for example, a zigzag path.

i) FGS 베이스 레이어에 데이터가 없는, 즉 FGS 베이스 레이어의 양자화 계수가 0인, 매크로블록 내의 임의의 서브 블록, ii) FGS 베이스 레이어에 데이터가 있는, 즉 FGS 베이스 레이어의 양자화 계수가 0이 아닌 픽셀을 적어도 하나 이상 포함하는 서브 블록에서 FGS 베이스 레이어의 양자화 계수가 0인 픽셀들, iii) 상기 non-zero 양자화 계수를 갖는 서브 블록에서 FGS 베이스 레이어의 양자화 계수가 0이 아닌 픽셀들을 구분하여, 소정의 경로에 따라 상기 FGS 인핸스드 레이어의 양자화 계수가 스캔되어 전송된다.i) any subblock in the macroblock that has no data in the FGS base layer, that is, the quantization coefficient of the FGS base layer is zero, and ii) the data in the FGS base layer, that is, the quantization coefficient of the FGS base layer is not zero. In a subblock including at least one pixel, pixels having a quantization coefficient of 0 in the FGS base layer are divided into pixels; The quantization coefficients of the FGS enhanced layer are scanned and transmitted according to a predetermined path.

예를 들어, 도 3에 도시한 바와 같이, 16x16 매크로블록은 4개의 8x8 서브 블록으로 구성되고, 제 1 서브 블록은 0인 데이터로 이루어진 FGS 베이스 레이어이고, 나머지 서브 블록의 FGS 베이스 레이어는 0이 아닌 양자화 계수를 갖는 픽셀이 적어도 하나 이상 포함되어 있다. 서브 블록의 FGS 베이스 레이어가 0인 데이터로 만 이루어지는지 여부는 8x8 블록 단위로 정의되는 CBP(Coded Block Pattern)에 의해 간편하게 확인할 수 있다.For example, as shown in FIG. 3, a 16x16 macroblock is composed of four 8x8 subblocks, the first subblock is an FGS base layer composed of zero data, and the FGS base layer of the remaining subblocks is zero. At least one pixel having non-quantization coefficients is included. Whether or not the FGS base layer of the sub-block consists of zero data can be easily checked by a CBP (Coded Block Pattern) defined in 8x8 block units.

상기 FGS 인코더는, FGS 베이스 레이어가 0인 제 1 서브 블록을 지그재그 경로에 따라 진행하면서(Path 1) 해당 픽셀에 대한 FGS 인핸스드 레이어를 순차적으로 스캔하여 전송한다. 이후, FGS 인코더는, 나머지 서브 블록(FGS 베이스 레이어가 0이 아닌 서브 블록)에 대해서 지그재그 경로에 따라 진행하면서(Path 2), FGS 베이스 레이어의 데이터가 0인 픽셀에 대한 FGS 인핸스드 레이어를 순차적으로 스캔하여 전송한다. 또한, 상기 FGS 인코더는, 상기 나머지 서브 블록에 대해 다시 지그재그 경로에 따라 진행하면서(Path 3), FGS 베이스 레이어의 데이터가 0이 아닌 픽셀에 대한 FGS 인핸스드 레이어를 순차적으로 스캔하여 전송한다.The FGS encoder sequentially scans and transmits the FGS enhanced layer for the corresponding pixel while advancing the first subblock having the FGS base layer of 0 along the zigzag path (Path 1). Afterwards, the FGS encoder sequentially advances the FGS enhanced layer for pixels having zero data in the FGS base layer while advancing along the zigzag path for the remaining subblocks (the subblock in which the FGS base layer is not 0). Scan to and send. In addition, the FGS encoder sequentially scans and transmits the FGS enhanced layer for a pixel whose data of the FGS base layer is not 0 while proceeding along the zigzag path again with respect to the remaining sub-blocks.

이는 FGS 베이스 레이어에 데이터가 없는 서브 블록 또는 픽셀에 대한 FGS 인핸스드 레이어가 그렇지 않은 서브 블록 또는 픽셀의 것보다 상대적으로 더 중요하기 때문이다.This is because the FGS enhanced layer for a subblock or pixel having no data in the FGS base layer is relatively more important than that of a subblock or pixel that is not.

한편, 앞서 설명한 바와 같이, 상기 FGS 인코더는, 상기 FGS 인핸스드 레이어를 생성하는 과정에서, 상기 매크로블록 X의 FGS 인핸스드 레이어에 대한 예측 영상 데이터(XE P)를 생성할 때 상기 YE R와 상기 XB R에 가중치를 적용한다. 이때, 좀더 정교한 가중치를 적용하기 위하여, 상기 매크로블록 X를 서브 블록으로 구분하 고, 서브 블록에 대한 FGS 베이스 레이어의 데이터 유무에 따라 XB R(또는 YE R)에 가중치를 서로 다르게 적용할 수 있다.Meanwhile, as described above, when the FGS encoder generates the prediction image data X E P for the FGS enhanced layer of the macroblock X in the process of generating the FGS enhanced layer, the Y E R And weight the X B R. In this case, in order to apply a more sophisticated weight, the macroblock X is divided into subblocks, and weights are differently applied to X B R (or Y E R ) depending on whether data of the FGS base layer for the sub block is present. Can be.

FGS 베이스 레이어가 0인 서브 블록에 대해서는, 상기 YE R와 상기 XB R에 적용되는 가중치의 상보적인 관계에 구속되지 않고, FGS 베이스 레이어가 0이 아닌 서브 블록에 대해서 상기 YE R에 적용하는 가중치와 다른 값, 즉 0부터 1 사이의 임의의 값(WZB)으로 가중할 수 있다.For a subblock in which the FGS base layer is 0, the FGS base layer is not bound to the complementary relationship between the weights applied to the Y E R and the X B R , and the FGS base layer is applied to the Y E R for the non-zero subblock. Can be weighted to a value different from the weight, i.e., any value between 0 and 1 (W ZB ).

도 5에 도시한 바와 같이, 상기 FGS 인코더는, FGS 베이스 레이어가 0인 서브 블록에 대한 XB R(또는 YE R)에 적용한 가중치(WZB)(도 5에서는 mb_lvl_base_ref_weight_for_zero_base_block_plus_1)와 나머지 서브 블록에 대한 XB R(또는 YE R)에 적용한 가중치(WNZB)(mb_lvl_base_ref_weight_for_zero_base_coeff_plus_1)를 구별하여, 해당 매크로블록의 헤더 영역에 기록할 수 있다.As shown in FIG. 5, the FGS encoder includes a weight W ZB (or mb_lvl_base_ref_weight_for_zero_base_block_plus_1 in FIG. 5) applied to X B R (or Y E R ) for a sub block having an FGS base layer of 0 and the remaining sub blocks. The weight (W NZB ) (mb_lvl_base_ref_weight_for_zero_base_coeff_plus_1) applied to X B R (or Y E R ) may be distinguished and recorded in the header area of the macroblock.

상기 FGS 인코더는, closed-loop 구조를 통해 인코딩 된 FGS 인핸스드 레이어가, 슬라이스를 기반으로 하는지 아니면 매크로블록을 기반으로 하는지 디코더에 알릴 필요가 있기 때문에, 도 4에 도시한 바와 같이, 소정의 플래그, 예를 들어 'mb_weight_override_present'를 정의하고 슬라이스 헤더 영역에 기록한다.Since the FGS encoder needs to inform the decoder whether the FGS enhanced layer encoded through the closed-loop structure is based on slices or macroblocks, a predetermined flag is shown in FIG. 4. For example, define 'mb_weight_override_present' and write it in the slice header area.

상기 FGS 인코더는, 슬라이스를 기반으로 closed-loop 구조를 통해 FGS 인핸스드 레이어를 인코딩 하는 경우, 상기 'mb_weight_override_present'를, 예를 들어'0'로 설정하여 슬라이스 헤더 영역에 기록하고, 해당 슬라이스 내의 모든 매크로블록의 XB R (또는 YE R)에 적용한 가중치를 기록한다.When the FGS encoder encodes an FGS enhanced layer through a closed-loop structure based on a slice, the FGS encoder sets the 'mb_weight_override_present' to, for example, '0' and records the slice in the slice header area. Record the weights applied to X B R (or Y E R ) of the macroblock.

또한, 상기 FGS 인코더는, 매크로블록을 기반으로 closed-loop 구조를 통해 FGS 인핸스드 레이어를 인코딩 하는 경우, 도 5에 도시한 바와 같이, 상기 'mb_weight_override_present'를, 예를 들어 '1'로 설정하여 슬라이스 헤더 영역에 기록하고, 각 매크로블록의 헤더 영역에는 해당 매크로블록과 관련된 XB R(또는 YE R)에 적용한 가중치를 기록한다.In addition, when the FGS encoder encodes an FGS enhanced layer through a closed-loop structure based on a macroblock, as illustrated in FIG. 5, the FGS encoder sets 'mb_weight_override_present' to '1', for example. Recorded in the slice header area, and the weight applied to the X B R (or Y E R ) associated with the macro block is recorded in the header area of each macro block.

물론, FGS 베이스 레이어가 0인 서브 블록에 대한 XB R에 적용한 가중치(WZB)(mb_lvl_base_ref_weight_for_zero_base_block_plus_1)와 나머지 서브 블록에 대한 XB R에 적용한 가중치(WNZB)(mb_lvl_base_ref_weight_for_zero_base_coeff_plus_1)를 구별하여 해당 매크로블록의 헤더 영역에 기록할 수 있다. 슬라이스를 기반으로 인코딩 하는 경우에도 마찬가지로, FGS 베이스 레이어가 0인 블록(또는 서브 블록)과 나머지 블록에 대한 각각 가중치(WZB, WNZB)(base_ref_weight_for_zero_base_block_plus_1, base_ref_weight_for_zero_base_coeff_plus_1)를 구별하여 해당 슬라이스의 헤더 영역에 기록할 수 있다.Of course, the weights (W ZB ) (mb_lvl_base_ref_weight_for_zero_base_block_plus_1) applied to X B R for the subblocks having the FGS base layer 0 are distinguished from the weights (W NZB ) (mb_lvl_base_ref_weight_for_zero_base_coeff_plus_1) applied to the X B R for the remaining subblocks. Can be recorded in the header area of. Similarly, when encoding based on a slice, a block (or subblock) in which the FGS base layer is 0 and a weight (W ZB , W NZB ) (base_ref_weight_for_zero_base_block_plus_1, base_ref_weight_for_zero_base_coeff_plus_1) for the remaining blocks are distinguished from each other. Can record

지금까지 설명한 방법에 의해 인코딩 된 데이터 스트림은 유선 또는 무선으로 디코딩 장치에 전송되거나 기록 매체를 매개로 하여 전달되며, 디코딩 장치는 이후 설명하는 방법에 따라 원래의 영상 신호를 복원하게 된다.The data stream encoded by the method described so far is transmitted to the decoding device by wire or wirelessly or transmitted through a recording medium, and the decoding device reconstructs the original video signal according to the method described later.

한편, 본 발명에 따른 FGS 디코더는, 슬라이스 헤더 영역에 기록된 'slice_type' 값이 'Progressive_Refinement'인 슬라이스에 포함된 데이터는 FGS 인핸스드 레이어에 해당하는 것으로 판단하고, 'mb_weight_override_present'이 존재하는지 확인한다. 상기 'mb_weight_override_present'이 존재하는 경우, 해당 슬라이스 내의 FGS 인핸스드 레이어는 closed-loop 구조를 통해 인코딩 된 것으로 판단된다.Meanwhile, the FGS decoder according to the present invention determines that the data included in the slice whose 'slice_type' value recorded in the slice header area is 'Progressive_Refinement' corresponds to the FGS enhanced layer and checks whether 'mb_weight_override_present' exists. . If the 'mb_weight_override_present' exists, it is determined that the FGS enhanced layer in the slice is encoded through the closed-loop structure.

상기 'mb_weight_override_present'의 값이 '0'인 경우, 상기 FGS 디코더는, FGS 인핸스드 레이어를 인코딩 하는 과정에 사용되는 레퍼런스 영상 데이터를 계산하는데 사용되는 가중치가 슬라이스 내의 모든 매크로블록에 동일하게 적용된 것으로 판단한다. 반면에 상기 'mb_weight_override_present'의 값이 '1'인 경우, 상기 FGS 디코더는, 상기 가중치를 해당 슬라이스 내의 각 매크로블록마다 다르게 적 용하여 FGS 인핸스드 레이어를 인코딩 한 것으로 판단한다.When the value of the 'mb_weight_override_present' is '0', the FGS decoder determines that the weights used to calculate the reference image data used in the process of encoding the FGS enhanced layer are equally applied to all macroblocks in the slice. do. On the other hand, when the value of 'mb_weight_override_present' is '1', the FGS decoder determines that the FGS enhanced layer is encoded by applying the weight differently to each macroblock in the slice.

이후, 상기 'mb_weight_override_present'의 값이 '1'인 경우, 임의의 매크로블록(X)에 대한 FGS 인핸스드 레이어가 디코딩 되는 과정을 설명한다.Next, when the value of 'mb_weight_override_present' is '1', a process of decoding the FGS enhanced layer for an arbitrary macroblock X will be described.

상기 FGS 디코더는, 상기 매크로블록 X를 포함하는 현재 프레임에 대한 FGS 인핸스드 레이어가 수신되면, 상기 매크로블록 X의 헤더 영역으로부터 상기 매크로블록 X의 FGS 인핸스드 레이어의 레퍼런스 영상 데이터의 계산에 사용된 가중치(WZB와 WNZB)(예를 들어, 도 5에서 mb_lvl_base_ref_weight_for_zero_base_block_plus_1과 mb_lvl_base_ref_weight_for_zero_base_coeff_plus_1)를 확인한다.The FGS decoder is used to calculate reference image data of the FGS enhanced layer of the macroblock X from the header area of the macroblock X when the FGS enhanced layer for the current frame including the macroblock X is received. The weights W ZB and W NZB (for example, mb_lvl_base_ref_weight_for_zero_base_block_plus_1 and mb_lvl_base_ref_weight_for_zero_base_coeff_plus_1) are checked in FIG. 5.

상기 FGS 디코더는, 상기 매크로블록 X에 대한 레퍼런스 블록인 Y를 포함하는 레퍼런스 프레임의 FGS 베이스 레이어와 FGS 인핸스드 레이어의 양자화 계수로부터 상기 레퍼런스 프레임의 FGS 인핸스드 레이어의 영상 데이터를 복원하고, 이로부터 상기 블록 Y에 대한 FGS 인핸스드 레이어의 영상 데이터(YE R)를 얻는다. 이때, 상기 레퍼런스 프레임은 일반적으로 상기 X를 포함하는 프레임 이전의 프레임으로, 상기 레퍼런스 프레임의 FGS 베이스 레이어와 FGS 인핸스드 레이어의 양자화 계수는 이미 수신된 상태이다.The FGS decoder restores image data of the FGS enhanced layer of the reference frame from the quantization coefficients of the FGS base layer and the FGS enhanced layer of the reference frame including Y, which is a reference block for the macroblock X, Obtain image data Y E R of the FGS enhanced layer for the block Y. In this case, the reference frame is generally a frame before the frame including X, and the quantization coefficients of the FGS base layer and the FGS enhanced layer of the reference frame are already received.

또한, 상기 FGS 디코더는, 상기 매크로블록 X(좀더 정확히는 상기 X를 포함하는 프레임)에 대한 FGS 베이스 레이어의 양자화 계수(XB Q)를 수신한 상태에서, 상 기 XB Q로부터 FGS 베이스 레이어의 영상 데이터(XB R)를 복원한다.Further, the FGS decoder is in a state of receiving the quantized coefficients (X B Q) of the FGS base layer for the macroblock X (more precisely frame including the X), the group of the FGS base layer from X B Q Restore the image data (X B R ).

이후, 상기 FGS 디코더는, 상기 매크로블록 X 내의 서브 블록에 대한 FGS 베이스 레이어의 데이터 유무에 따라 상기 WZB 또는 WNZB 중 해당 서브 블록에 적용할 가중치를 선택하고, 선택된 가중치를 이용하여 상기 XB R와 YE R를 가중하여 더함으로써, 상기 매크로블록 X의 FGS 인핸스드 레이어에 대한 예측(레퍼런스) 영상 데이터(XE P)를 생성한다.Thereafter, the FGS decoder selects a weight to be applied to the corresponding subblock among the W ZB or the W NZB according to the presence or absence of data of the FGS base layer for the subblock in the macroblock X, and uses the selected weight to calculate the X B By weighting and adding R and Y E R , prediction (reference) image data X E P for the FGS enhanced layer of the macroblock X is generated.

물론, 상기 레퍼런스 영상 데이터가 생성될 때 FGS 베이스 레이어가 0이 아닌 임의의 서브 블록(x(i))에 대한 x(i)B R에 상기 WNZB가 가중치로 적용되면, 상기 x(i)에 대응되는 상기 블록 Y 내의 서브 블록 y(i)에 대한 y(i)E R에는 (1 - WNZB)가 가중치로 적용된다. 또한, FGS 베이스 레이어가 0인 임의의 서브 블록(x(j))에 대응되는 상기 블록 Y 내의 서브 블록 y(i)에 대한 y(i)E R에는 WZB 또는 (1 - WNZB)가 가중치로 적용된다.Of course, if the W NZB is weighted to x (i) B R for any sub-block (x (i)) whose non-zero FGS base layer is generated when the reference image data is generated, the x (i) (1-W NZB ) is applied to y (i) E R for the sub block y (i) in the block Y corresponding to. In addition, y (i) E R for subblock y (i) in the block Y corresponding to any subblock x (j) in which the FGS base layer is 0, W ZB or (1-W NZB ) Applied by weight.

또한, 상기 FGS 디코더는, 상기 수신한 상기 매크로블록 X에 대한 FGS 인핸스드 레이어의 양자화 계수(XE Q)로부터 상기 XE Q만의 영상 데이터(XE r)를 복원하고, 이를 상기 레퍼런스 영상 데이터(XE P)에 더해, 상기 매크로블록 X에 대한 FGS 인핸스드 레이어의 영상 데이터를 복원한다.The FGS decoder may reconstruct image data X E r of only X E Q from the quantization coefficient X E Q of the FGS enhanced layer for the received macroblock X, and then reconstruct the reference image data. In addition to (X E P ), the image data of the FGS enhanced layer for the macroblock X is reconstructed.

상기 FGS 디코더는, 상기 매크로블록 X에 대한 FGS 인핸스드 레이어의 양자화 계수(XE Q)를 수신하지 못하더라도 상기 매크로블록 X의 헤더는 수신한 경우에는, 상기 매크로블록 X의 헤더에 포함된 가중치를 이용하여 상기 매크로블록 X의 FGS 인핸스드 레이어에 대한 레퍼런스 영상 데이터(XE P)를 생성할 수 있게 되고, 따라서 상기 XE P는 상기 XB Q로부터 복원한 FGS 베이스 레이어의 영상 데이터(XB R)보다는 향상된 화질을 제공할 수 있게 된다.If the FGS decoder does not receive the quantization coefficient (X E Q ) of the FGS enhanced layer for the macroblock X, but receives the header of the macroblock X, the weight is included in the header of the macroblock X. It is possible to generate reference image data (X E P ) for the FGS enhanced layer of the macroblock X using X, so that X E P is the image data (X) of the FGS base layer reconstructed from the X B Q. B R ) can provide improved image quality.

전술한 본 발명에 따른 FGS 디코더는 이동 통신 단말기 등에 실장되거나 또는 기록 매체를 재생하는 장치에 실장될 수 있다.The FGS decoder according to the present invention described above may be mounted in a mobile communication terminal or the like or in an apparatus for reproducing a recording medium.

이상, 전술한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것으로, 당업자라면 이하 첨부된 특허청구범위에 개시된 본 발명의 기술적 사상과 그 기술적 범위 내에서 또 다른 다양한 실시예들을 개량, 변경, 대체 또는 부가 등이 가능할 것이다.As described above, preferred embodiments of the present invention have been disclosed for the purpose of illustration, and those skilled in the art can improve, change, and further various embodiments within the technical spirit and the technical scope of the present invention disclosed in the appended claims. Replacement or addition may be possible.

따라서, 매크로블록 기반으로 FGS 인핸스드 레이어에서의 영상 예측이 가능해지고, FGS 인핸스드 레이어의 데이터가 일부 멸실되는 경우에도 FGS 베이스 레이어보다 향상된 화질의 영상을 제공할 수 있게 되어, 코딩 효율을 향상시킬 수 있게 된다.Accordingly, image prediction in the FGS enhanced layer is possible based on the macroblock, and even when data of the FGS enhanced layer is partially lost, it is possible to provide an image having higher quality than the FGS base layer, thereby improving coding efficiency. It becomes possible.

Claims (16)

매크로블록을 기반으로, 제 1 프레임에 대한 제 1 레이어와 제 2 프레임에 대한 제 2 레이어를 이용하여 상기 제 1 프레임에 대한 제 2 레이어를 인코딩 하는 단계; 및Based on a macroblock, encoding a second layer for the first frame using a first layer for a first frame and a second layer for a second frame; And 상기 제 2 레이어가 매크로블록을 기반으로 인코딩 되었음을 가리키는 정보를 기록하는 단계를 포함하여 이루어지고,And recording information indicating that the second layer is encoded based on a macroblock, 여기서, 제 2 레이어는 제 1 레이어의 인코딩 과정에서 발생하는 에러를 보상하도록 인코딩 되고, 상기 제 2 프레임은 상기 제 1 프레임에 대한 모션 예측의 기준이 되는 프레임인 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.In this case, the second layer is encoded to compensate for an error occurring during the encoding process of the first layer, and the second frame is a frame that is a reference frame for motion prediction with respect to the first frame. Way. 제 1항에 있어서,The method of claim 1, 상기 정보는 상기 제 1 프레임에 대한 제 2 레이어를 포함하는 슬라이스의 헤더 영역에 기록되는 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.Wherein the information is recorded in a header area of a slice including a second layer for the first frame. 제 1항에 있어서,The method of claim 1, 상기 제 1 프레임에 대한 제 1 레이어로부터 복원되는 제 1 영상 데이터와 상기 제 2 프레임에 대한 제 2 레이어로부터 복원되는 제 2 영상 데이터가, 상기 제 1 프레임에 대한 제 2 레이어의 인코딩에 이용되는 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.That the first image data reconstructed from the first layer for the first frame and the second image data reconstructed from the second layer for the second frame are used for encoding the second layer for the first frame. Characterized by a video signal encoding method. 제 3항에 있어서,The method of claim 3, wherein 상기 제 2 영상 데이터는, 상기 제 2 프레임에 대한 제 1 레이어와 제 2 레이어를 모두 이용하여 복원되는 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.And the second image data is reconstructed using both the first layer and the second layer for the second frame. 제 3항에 있어서,The method of claim 3, wherein 상기 제 1 영상 데이터와 제 2 영상 데이터는 각각 가중되어 이용되는 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.And the first image data and the second image data are each weighted and used. 제 5항에 있어서,The method of claim 5, 상기 제 1 영상 데이터 또는 상기 제 2 영상 데이터 중 어느 하나를 가중하는 제 1 가중치를 상기 제 1 프레임에 대한 제 2 레이어의 매크로블록의 헤더 영역에 기록하는 단계를 더 포함하여 이루어지고,And recording a first weight weighting one of the first image data and the second image data in a header area of a macroblock of a second layer for the first frame. 상기 어느 하나가 아닌 다른 영상 데이터를 가중하는 제 2 가중치는 상기 제 1 가중치로부터 유추되는 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.And a second weighting factor for weighting other image data other than the one is inferred from the first weighting factor. 제 6항에 있어서,The method of claim 6, 상기 제 1 가중치는 상기 제 1 프레임에 대한 제 1 레이어의 조건에 따라 구분되어 기록되는 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.And the first weight is recorded according to the condition of the first layer with respect to the first frame. 제 7항에 있어서,The method of claim 7, wherein 상기 제 1 레이어의 조건은, 상기 제 1 레이어의 매크로블록 내의 서브 블록의 데이터 유무인 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.The condition of the first layer is a method of encoding a video signal, characterized in that the presence or absence of data of the sub-block in the macroblock of the first layer. 제 5항에 있어서,The method of claim 5, 상기 제 1 프레임에 대한 제 1 레이어를 이용하여 생성한, 상기 제 1 프레임에 대한 제 2 레이어에 대한 유사 영상 데이터와, 상기 제 1 영상 데이터와 제 2 영상 데이터를 각각 가중하고 더하여 구한 영상 데이터의 차이를 이용하여 상기 제 1 프레임에 대한 제 2 레이어를 인코딩 하는 것을 특징으로 하는 영상 신호를 인코딩 하는 방법.The image data obtained by weighting and adding the similar image data for the second layer for the first frame and the first image data and the second image data, respectively, generated using the first layer for the first frame. And encoding a second layer for the first frame using the difference. 매크로블록을 기반으로, 제 1 프레임에 대한 제 1 레이어와 제 2 프레임에 대한 제 2 레이어를 이용하여 상기 제 1 프레임에 대한 제 2 레이어를 디코딩 하는 단계를 포함하여 이루어지고,Based on the macroblock, decoding the second layer for the first frame using the first layer for the first frame and the second layer for the second frame, 여기서, 제 2 레이어는 제 1 레이어의 인코딩 과정에서 발생하는 에러를 보상하도록 인코딩 되고, 상기 제 2 프레임은 상기 제 1 프레임에 대한 모션 예측의 기준이 되는 프레임인 것을 특징으로 하는 인코딩 된 영상 비트 스트림을 디코딩 하는 방법.In this case, the second layer is encoded to compensate for an error occurring in the encoding process of the first layer, and the second frame is an encoded video bit stream, wherein the frame is a reference for motion prediction for the first frame. How to decode it. 제 10항에 있어서,The method of claim 10, 상기 제 1 프레임에 대한 제 2 레이어를 포함하는 슬라이스의 헤더 영역으로부터 상기 제 2 레이어가 매크로블록을 기반으로 인코딩 되었는지 여부를 확인하는 단계를 더 포함하여 이루어지는 인코딩 된 영상 비트 스트림을 디코딩 하는 방법.And determining whether the second layer is encoded based on a macroblock from a header region of a slice including the second layer for the first frame. 제 10항에 있어서,The method of claim 10, 상기 제 1 프레임에 대한 제 1 레이어로부터 복원되는 제 1 영상 데이터와 상기 제 2 프레임에 대한 제 2 레이어로부터 복원되는 제 2 영상 데이터가, 상기 제 1 프레임에 대한 제 2 레이어의 디코딩에 이용되는 것을 특징으로 하는 인코딩 된 영상 비트 스트림을 디코딩 하는 방법.That the first image data reconstructed from the first layer for the first frame and the second image data reconstructed from the second layer for the second frame are used for decoding of the second layer for the first frame. Featuring a method of decoding an encoded video bit stream. 제 12항에 있어서,The method of claim 12, 상기 제 2 영상 데이터는, 상기 제 2 프레임에 대한 제 1 레이어와 제 2 레이어를 모두 이용하여 복원되는 것을 특징으로 하는 인코딩 된 영상 비트 스트림을 디코딩 하는 방법.And the second image data is reconstructed using both the first layer and the second layer for the second frame. 제 12항에 있어서,The method of claim 12, 상기 제 1 영상 데이터 또는 상기 제 2 영상 데이터 중 어느 하나를 가중하는 제 1 가중치를 상기 제 1 프레임에 대한 제 2 레이어의 매크로블록의 헤더 영역 으로부터 독출하는 단계를 더 포함하여 이루어지고,And reading a first weight value for weighting either the first image data or the second image data from a header area of a macroblock of a second layer for the first frame. 상기 어느 하나는 상기 제 1 가중치로 가중되고, 상기 어느 하나가 아닌 다른 영상 데이터는 상기 제 1 가중치로부터 유추되는 값으로 가중되어, 상기 제 1 프레임에 대한 제 2 레이어의 디코딩에 이용되는 것을 특징으로 하는 인코딩 된 영상 비트 스트림을 디코딩 하는 방법.The one is weighted with the first weight, and other image data other than the one is weighted with a value inferred from the first weight and used for decoding the second layer with respect to the first frame. To decode the encoded video bit stream. 제 14항에 있어서,The method of claim 14, 상기 제 1 가중치는 상기 제 1 프레임에 대한 제 1 레이어의 매크로블록 내의 서브 블록의 데이터 유무에 따라 구분되어 기록되고, 상기 제 2 영상 데이터의 서브 블록은 상기 데이터 유무에 따라 다르게 가중되는 것을 특징으로 하는 인코딩 된 영상 비트 스트림을 디코딩 하는 방법.The first weight is divided and recorded according to the presence or absence of data of a sub block in the macroblock of the first layer with respect to the first frame, and the sub block of the second image data is weighted differently according to the presence or absence of the data. To decode the encoded video bit stream. 제 12항에 있어서,The method of claim 12, 상기 제 1 프레임의 제 2 레이어에 대한 영상 데이터는, 상기 제 1 영상 데이터와 제 2 영상 데이터를 각각 가중하고 더하여 구한 영상 데이터와, 상기 제 1 프레임의 제 2 레이어만을 복원하여 구한 영상 데이터를 더하여 생성되는 것을 특징으로 하는 인코딩 된 영상 비트 스트림을 디코딩 하는 방법.The image data of the second layer of the first frame may include image data obtained by weighting and adding the first image data and the second image data, respectively, and image data obtained by reconstructing only the second layer of the first frame. A method for decoding an encoded video bit stream, characterized in that it is generated.
KR1020050115575A 2005-05-26 2005-11-30 Method for scalably encoding and decoding video signal KR20060122671A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US68459005P 2005-05-26 2005-05-26
US60/684,590 2005-05-26

Publications (1)

Publication Number Publication Date
KR20060122671A true KR20060122671A (en) 2006-11-30

Family

ID=37707970

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020050115575A KR20060122671A (en) 2005-05-26 2005-11-30 Method for scalably encoding and decoding video signal
KR1020060014309A KR20060122684A (en) 2005-05-26 2006-02-14 Method for encoding and decoding video signal
KR1020060047362A KR101253156B1 (en) 2005-05-26 2006-05-26 Method for encoding/decoding video signal

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020060014309A KR20060122684A (en) 2005-05-26 2006-02-14 Method for encoding and decoding video signal
KR1020060047362A KR101253156B1 (en) 2005-05-26 2006-05-26 Method for encoding/decoding video signal

Country Status (2)

Country Link
KR (3) KR20060122671A (en)
CN (3) CN101185343A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100781525B1 (en) * 2006-04-06 2007-12-03 삼성전자주식회사 Method and apparatus for encoding and decoding FGS layers using weighting factor
KR101066117B1 (en) * 2009-11-12 2011-09-20 전자부품연구원 Method and apparatus for scalable video coding

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200820791A (en) 2006-08-25 2008-05-01 Lg Electronics Inc A method and apparatus for decoding/encoding a video signal
KR101366288B1 (en) * 2006-12-13 2014-02-21 엘지전자 주식회사 A method and apparatus for decoding a video signal
CN102088605B (en) * 2011-02-23 2012-12-05 浙江大学 Rapid interlayer prediction selection method for scalable video coding
CN103379320B (en) * 2012-04-16 2016-11-23 华为技术有限公司 Video image code flow processing method and equipment
EP3200464A1 (en) * 2012-09-28 2017-08-02 Sony Corporation Image processing device and image processing method
KR101812615B1 (en) 2012-09-28 2017-12-27 노키아 테크놀로지스 오와이 An apparatus, a method and a computer program for video coding and decoding
KR20140087971A (en) * 2012-12-26 2014-07-09 한국전자통신연구원 Method and apparatus for image encoding and decoding using inter-prediction with multiple reference layers
US9584808B2 (en) * 2013-02-22 2017-02-28 Qualcomm Incorporated Device and method for scalable coding of video information
KR20160009543A (en) * 2013-04-17 2016-01-26 주식회사 윌러스표준기술연구소 Video signal processing method and apparatus
KR20160016766A (en) * 2013-04-17 2016-02-15 주식회사 윌러스표준기술연구소 Video signal processing method and apparatus
KR20160005027A (en) * 2013-04-17 2016-01-13 주식회사 윌러스표준기술연구소 Video signal processing method and apparatus
KR20150050409A (en) * 2013-10-29 2015-05-08 주식회사 케이티 A method and an apparatus for encoding and decoding a multi-layer video signal
KR102131142B1 (en) 2015-01-29 2020-07-07 브이아이디 스케일, 인크. Intra-block copy search

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005506815A (en) * 2001-10-26 2005-03-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for spatially extensible compression
US20040086041A1 (en) * 2002-10-30 2004-05-06 Koninklijke Philips Electronics N.V. System and method for advanced data partitioning for robust video transmission
KR100679035B1 (en) * 2005-01-04 2007-02-06 삼성전자주식회사 Deblocking filtering method considering intra BL mode, and video encoder/decoder based on multi-layer using the method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100781525B1 (en) * 2006-04-06 2007-12-03 삼성전자주식회사 Method and apparatus for encoding and decoding FGS layers using weighting factor
KR101066117B1 (en) * 2009-11-12 2011-09-20 전자부품연구원 Method and apparatus for scalable video coding

Also Published As

Publication number Publication date
CN101185333A (en) 2008-05-21
KR101253156B1 (en) 2013-04-10
KR20060122754A (en) 2006-11-30
KR20060122684A (en) 2006-11-30
CN101185343A (en) 2008-05-21
CN101185332A (en) 2008-05-21

Similar Documents

Publication Publication Date Title
KR20060122671A (en) Method for scalably encoding and decoding video signal
KR100888963B1 (en) Method for scalably encoding and decoding video signal
KR100954816B1 (en) Method of coding video and video signal, apparatus and computer readable recording medium for coding video, and method, apparatus and computer readable recording medium for decoding base layer data-stream and enhancement layer data-stream
US8315308B2 (en) Video coding with fine granularity spatial scalability
US7848426B2 (en) Motion vector estimation method and encoding mode determining method
KR100654436B1 (en) Method for video encoding and decoding, and video encoder and decoder
JP4729220B2 (en) Hybrid temporal / SNR fine granular scalability video coding
KR100772878B1 (en) Method for assigning Priority for controlling bit-rate of bitstream, method for controlling bit-rate of bitstream, video decoding method, and apparatus thereof
KR100703788B1 (en) Video encoding method, video decoding method, video encoder, and video decoder, which use smoothing prediction
KR100886191B1 (en) Method for decoding an image block
US20070253486A1 (en) Method and apparatus for reconstructing an image block
US20120219060A1 (en) System and method for scalable encoding and decoding of multimedia data using multiple layers
KR20070100081A (en) Method and apparatus for encoding and decoding fgs layers using weighting factor
JP2005500754A (en) Fully integrated FGS video coding with motion compensation
EP1878263A1 (en) Method and apparatus for scalably encoding/decoding video signal
JP2009533938A (en) Multi-layer video encoding method and apparatus
WO2006061794A1 (en) System and method for real-time transcoding of digital video for fine-granular scalability
KR20060063613A (en) Method for scalably encoding and decoding video signal
EP1601205A1 (en) Moving image encoding/decoding apparatus and method
US20060250520A1 (en) Video coding method and apparatus for reducing mismatch between encoder and decoder
WO2009050188A1 (en) Bandwidth and content dependent transmission of scalable video layers
JP2006500849A (en) Scalable video encoding
KR20060063619A (en) Method for encoding and decoding video signal
EP1889487A1 (en) Multilayer-based video encoding method, decoding method, video encoder, and video decoder using smoothing prediction
MX2008012360A (en) Method of assigning priority for controlling bit rate of bitstream, method of controlling bit rate of bitstream, video decoding method, and apparatus using the same.

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination