KR20050082102A - Selective fine granular scalable coding apparatus and method thereof - Google Patents

Selective fine granular scalable coding apparatus and method thereof Download PDF

Info

Publication number
KR20050082102A
KR20050082102A KR1020040010476A KR20040010476A KR20050082102A KR 20050082102 A KR20050082102 A KR 20050082102A KR 1020040010476 A KR1020040010476 A KR 1020040010476A KR 20040010476 A KR20040010476 A KR 20040010476A KR 20050082102 A KR20050082102 A KR 20050082102A
Authority
KR
South Korea
Prior art keywords
coding
image
information
fgs
enhancement
Prior art date
Application number
KR1020040010476A
Other languages
Korean (ko)
Other versions
KR100626651B1 (en
Inventor
박광훈
유원혁
김규헌
안치득
김진웅
김욱중
Original Assignee
한국전자통신연구원
학교법인 고황재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원, 학교법인 고황재단 filed Critical 한국전자통신연구원
Priority to KR1020040010476A priority Critical patent/KR100626651B1/en
Publication of KR20050082102A publication Critical patent/KR20050082102A/en
Application granted granted Critical
Publication of KR100626651B1 publication Critical patent/KR100626651B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/34Scalability techniques involving progressive bit-plane based encoding of the enhancement layer, e.g. fine granular scalability [FGS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Abstract

1. 청구범위에 기재된 발명이 속한 기술분야1. TECHNICAL FIELD OF THE INVENTION

선택적으로 시간적 예측 정보를 사용하는 FGS 코딩 장치 및 그 방법에 관한 것임.An apparatus and method for FGS coding, optionally using temporal prediction information.

2. 발명이 해결하고자 하는 기술적 과제2. Technical problem to be solved by the invention

시간적 예측 정보를 선택적으로 적용하는 알고리즘을 도입하여 망 상태 적응적이며, 코딩 효율이 높고, 드리프트 현상을 최소화한 선택적인 FGS 코딩 장치 및 그 방법을 제공하고자 함.An algorithm and method for selectively applying network state adaptive, high coding efficiency and minimizing drift by introducing an algorithm for selectively applying temporal prediction information are provided.

3. 발명의 해결방법의 요지3. Summary of Solution to Invention

인접 영상과의 시간적 상관 관계를 이용하여 입력 영상을 코딩하는 기본 계층 코딩 수단 및 상기 입력 영상과 상기 기본 계층 코딩 수단에 의해 코딩된 영상간의 오차 영상 D1에 대하여 강화 정보를 생성하는 강화 계층 코딩 수단을 포함하고, 상기 강화 계층 코딩 수단은 상기 입력 영상에 대하여 시간적 예측 정보 D2를 생성하고, 생성된 예측 정보 D2를 상기 강화 정보 생성에 선택적으로 이용함.Base layer coding means for coding an input image using a temporal correlation with an adjacent image, and enhancement layer coding means for generating enhancement information for an error image D1 between the input image and an image coded by the base layer coding means. Wherein the enhancement layer coding means generates temporal prediction information D2 for the input image and selectively uses the generated prediction information D2 for generating the enhancement information.

4. 본 발명의 중요한 용도4. Important uses of the present invention

동영상 송수신에 이용될 수 있음Can be used to send and receive video

Description

선택적인 미세입자 스케일러블 코딩 장치 및 그 방법{Selective Fine Granular Scalable Coding Apparatus and Method thereof} Selective Fine Granular Scalable Coding Apparatus and Method

본 발명은 비디오 코딩 장치 및 그 방법에 관한 것으로, 보다 상세하게는 선택적으로 시간적 예측 정보를 사용하는 미세입자 스케일러블 코딩 장치 및 그 방법에 관한 것이다.The present invention relates to a video coding apparatus and a method thereof, and more particularly, to a microparticle scalable coding apparatus and method using selectively temporal prediction information.

현재의 정보 기술 분야는 빠르게 통합되어 가고 있다. 이에 따라 방송망, 유무선 인터넷 등의 서로 다른 대역폭을 가지는 다양한 통신망과 디지털 TV, PDA, 노트북 등의 서로 다른 연산 능력을 가지는 다양한 단말기에 부합하도록 동영상을 전송할 수 있는 스케일러블 비디오 코딩 방법이 요구되고 있다.The current field of information technology is rapidly integrating. Accordingly, there is a demand for a scalable video coding method capable of transmitting a video to correspond to various communication networks having different bandwidths such as broadcasting networks and wired and wireless internets, and various terminals having different computing capabilities such as digital TVs, PDAs, and notebook computers.

ISO/IEC 산하의 MPEG(Moving Picture Expert Group)에서 제안한 MPEG-4 기반의 미세입자 스케일러블(fine granular scalable : FGS) 코딩 방법은 주어진 대역폭(bandwidth)에서 최적의 화질 향상을 얻을 수 있도록 설계된 망 상태 적응적인(network-adaptive) 스케일러블 코딩 방법이다.MPEG-4 based fine granular scalable (FGS) coding method, proposed by the Moving Picture Expert Group (MPEG) under ISO / IEC, is designed to achieve optimal image quality at a given bandwidth. It is a network-adaptive scalable coding method.

상기 MPEG-4 기반의 FGS 코딩 방법은 스케일러블 코딩을 수행할 때, 전송 선로의 상태가 안정적이지 못한 경우, 예를 들면 유무선 인터넷 등과 같이 전송 선로의 상태가 급변하여 각 사용자에게 할당할 수 있는 대역폭의 변동이 심한 경우에 적용하기 위하여 설계된 코딩 방법으로 강화 계층의 영상 정보를 비트플레인 단위로 코딩하여 전송하는 특징을 갖고 있다. In the MPEG-4 based FGS coding method, when scalable coding is performed, when the state of the transmission line is not stable, for example, the state of the transmission line changes rapidly, such as wired or wireless Internet, the bandwidth that can be allocated to each user. This coding method is designed to be applied to the case of severe fluctuations of the video signal. The video information of the enhancement layer is coded and transmitted in units of bit planes.

즉, 강화 계층에서 강화 정보를 비트플레인 별로 나누어 가장 중요한 비트(most significant bit : MSB)를 최우선적으로 전송하고, 그 다음 중요한 비트를 연속적으로 전송하는 방식이다. That is, in the enhancement layer, the enhancement information is divided into bit planes, and the most significant bit (MSB) is transmitted first, and then important bits are continuously transmitted.

따라서, 수신단측에서 전송 선로의 대역폭이 급변하여 영상 복원에 필요한 모든 비트를 수신하지 못한 경우에도, 그 때까지 수신한 부분적인 영상 비트스트림만을 이용하여 최적의 화질을 갖는 영상을 복원할 수 있다.Therefore, even when the bandwidth of the transmission line is suddenly changed at the receiving end and thus all the bits necessary for image restoration are not received, only the partial image bitstream received until then can restore the image having the best image quality.

도 1은 MPEG-4 기반의 FGS 엔코더(encoder)의 구성도이다. 도시된 바와 같이, 기본 계층(base layer)은 단일 계층에서 최적화된 MPEG-4 part 2 visual의 코딩 방법인 복합화된 움직임 추정(motion estimation : ME), 움직임 보상(motion compensation : MC) 및 이산 여현 변환(discrete cosine transform : DCT) 방식을 이용하고 있다.1 is a block diagram of an MPEG-4 based FGS encoder. As shown, the base layer is a complex motion estimation (ME), motion compensation (MC) and discrete cosine transform, which is a coding method of MPEG-4 part 2 visual optimized in a single layer. (discrete cosine transform: DCT) is used.

강화 계층(enhancement layer)은 원 영상(original image)과 기본 계층에서 재구성된 영상(reconstructed image)과의 오차 영상(residual image)을 계산하고, 블록 단위(8*8 단위) DCT(110)는 상기 오차 영상 값을 DCT 계수로 변환한다. 만약, 선택적으로 좋은 화질을 갖는 블록이 필요한 경우 비트플레인 쉬프트부(120)는 해당 블록의 영상 정보를 최우선적으로 전송하는 과정을 선택적으로 수행할 수 있다. 이를 선택적 강화(selective enhancement : SE)라고 정의한다.The enhancement layer calculates a residual image between the original image and the reconstructed image in the base layer, and the block unit (8 * 8 units) DCT 110 calculates the error image. The error image values are converted into DCT coefficients. If a block having a good image quality is selectively selected, the bitplane shift unit 120 may selectively perform the process of firstly transmitting the image information of the corresponding block. This is defined as selective enhancement (SE).

이후에, 최대값 계산부(130)는 DCT를 수행한 모든 값들의 절대치의 최대값을 계산한다. 계산된 최대값은 해당 영상 프레임을 전송하기 위한 최대 비트플레인의 개수를 구하는데 사용된다.Thereafter, the maximum value calculator 130 calculates the maximum value of the absolute values of all the values of the DCT. The calculated maximum value is used to obtain the maximum number of bitplanes for transmitting the corresponding video frame.

비트플레인 VLC(bitplane variable length coding, 140)는 비트플레인별로 블록 단위로 구해진 64개의 DCT 계수들(DCT 계수의 해당 비트플레인의 비트 : 0 또는 1)을 지그재그 스캔(zigzag scan) 순서로 하나의 행열을 생성하며, 각 행렬들을 가변장 길이 코드표(VLC table)에 따라 런-길이(run-length)로 코딩한다.The bitplane VLC (bitplane variable length coding) 140 is a row of 64 DCT coefficients (bits of the corresponding bitplane of the DCT coefficient: 0 or 1) obtained in units of blocks in a zigzag scan order. Each matrix is coded in a run-length according to a variable-length-length code table.

도 2는 MPEG-4 기반의 FGS 디코더(decoder)의 구성도이다. 도시된 바와 같이, 전송 선로를 통하여 기본 계층과 강화 계층으로 나뉘어 수신된 비트스트림은 도 1에서 설명한 코딩 과정과 역순으로 디코딩이 진행된다. 2 is a block diagram of an MPEG-4 based FGS decoder. As shown, a bitstream received divided into a base layer and an enhancement layer through a transmission line is decoded in the reverse order of the coding process described with reference to FIG. 1.

도면을 참조하면, 기본 계층은 MPEG-4 영상의 디코딩 방법인 역방향 하이브리드(hybrid) MC/DCT 방식을 사용한다.Referring to the drawings, the base layer uses a reverse hybrid MC / DCT scheme, which is a decoding method of MPEG-4 video.

비트플레인 VLD(bitplane variable length decoding, 210)는 디코더에 입력된 강화 정보에 대하여 비트플레인별로 VLD를 수행하고, 비트플레인 쉬프트부(220)는 선택적으로 비트플레인 쉬프트를 수행한다. The bitplane variable length decoding (VLD) 210 performs VLD for each bitplane with respect to the enhanced information input to the decoder, and the bitplane shift unit 220 selectively performs bitplane shift.

이후에 IDCT(230)는 블록 단위로 역 이산 여현 변환을 수행하여 강화 계층에서 전송된 영상을 복원하고, 합산부(240)는 상기 강화 계층 복원 영상을 기본 계층에서 복원된 영상과 합친다. Thereafter, the IDCT 230 performs an inverse discrete cosine transform on a block basis to reconstruct the image transmitted from the enhancement layer, and the adder 240 combines the enhancement layer reconstructed image with the image reconstructed in the base layer.

이후에 클립핑부(250)는 상기 합쳐진 영상 값을 0 내지 255 사이 값으로 클립핑(clipping)하여 최종적으로 향상된 화질의 영상을 복원하게 된다.Afterwards, the clipping unit 250 restores the finally improved image quality by clipping the combined image value to a value between 0 and 255.

상술한 MPEG-4 기반의 FGS 코딩 방법은 망 상태 적응적인 특징을 갖지만 코딩 효율면에서 최적화된 단일 계층(single layer) 코딩 방법에 비하여 코딩 성능이 현저히 떨어진다. Although the MPEG-4 based FGS coding method has a network state adaptive feature, coding performance is significantly lower than a single layer coding method optimized in terms of coding efficiency.

따라서, MPEG-4 기반의 FGS 코딩 방법과 같이 망 상태 적응적인 특징을 그대로 유지하며 코딩 성능이 우수한 코딩 방법이 절실히 요구된다.Therefore, there is an urgent need for a coding method having excellent coding performance while maintaining network state adaptive features such as MPEG-4 based FGS coding method.

본 발명은 상술한 요청에 부응하여 창안된 것으로서, H.264 기반의 FGS 코딩 장치에 시간적 예측 정보를 선택적으로 적용하는 알고리즘을 도입함으로써 망 상태 적응적이며, 코딩 효율이 높고, 드리프트 현상을 최소화한 선택적인 FGS 코딩 장치 및 그 방법을 제공하는데 그 목적이 있다. The present invention was developed in response to the above-described request, and by adopting an algorithm for selectively applying temporal prediction information to an H.264-based FGS coding apparatus, it is network state adaptive, has high coding efficiency, and minimizes drift. It is an object of the present invention to provide an optional FGS coding apparatus and method thereof.

본 발명의 다른 목적 및 장점들은 하기에 설명될 것이며, 본 발명의 실시에 의해 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 조합에 의해 실현될 수 있다. Other objects and advantages of the invention will be described below and will be appreciated by the practice of the invention. In addition, the objects and advantages of the present invention can be realized by means and combinations indicated in the claims.

상기와 같은 목적을 달성하기 위한 본 발명의 선택적인 FGS 코딩 장치는 인접 영상과의 시간적 상관 관계를 이용하여 입력 영상을 코딩하는 기본 계층 코딩 수단 및 상기 입력 영상과 상기 기본 계층 코딩 수단에 의해 코딩된 영상간의 오차 영상 D1에 대하여 강화 정보를 생성하는 강화 계층 코딩 수단을 포함하고, 상기 강화 계층 코딩 수단은 상기 입력 영상에 대하여 시간적 예측 정보 D2를 생성하고, 생성된 예측 정보 D2를 상기 강화 정보 생성에 선택적으로 이용한다.An optional FGS coding apparatus of the present invention for achieving the above object comprises a base layer coding means for coding an input image using a temporal correlation with an adjacent image and coded by the input image and the base layer coding means. And enhancement layer coding means for generating enhancement information on an error image D1 between images, wherein the enhancement layer coding means generates temporal prediction information D2 for the input image, and generates the generated prediction information D2 to generate the enhancement information. It is used selectively.

또한, 본 발명의 선택적인 FGS 디코딩 장치는 인접 영상과의 시간적 상관 관계를 이용하여 기본 정보(base layer bitstream)를 디코딩하는 기본 계층 디코딩 수단 및 입력되는 강화 정보(enhancement bitstream)에 대하여 강화 계층의 재생 영상 D1을 생성하는 강화 계층 디코딩 수단을 포함하고, 강화 계층 디코딩 수단은 상기 강화 정보에 대하여 시간적 예측 정보 D2를 생성하고, 생성된 예측 정보 D2를 상기 재생 영상 D1 생성에 선택적으로 이용한다.In addition, the optional FGS decoding apparatus of the present invention uses a base layer decoding means for decoding base layer bitstream using a temporal correlation with an adjacent picture, and reproduction of an enhancement layer with respect to input enhancement bitstream. And enhancement layer decoding means for generating an image D1, wherein the enhancement layer decoding means generates temporal prediction information D2 for the enhancement information, and selectively uses the generated prediction information D2 for generating the reproduced image D1.

또한, 본 발명의 선택적인 FGS 코딩 방법은 인접 영상과의 시간적 상관 관계를 이용하여 입력 영상을 코딩하는 기본 계층 코딩 단계 및 상기 입력 영상과 상기 기본 계층 코딩 단계에서 코딩된 영상간의 오차 영상 D1에 대하여 강화 정보를 생성하는 강화 계층 코딩 단계를 포함하고, 상기 강화 계층 코딩 단계는 상기 입력 영상에 대하여 시간적 예측 정보 D2를 생성하는 단계와 생성된 예측 정보 D2를 상기 강화 정보 생성에 선택적으로 이용하는 단계를 포함한다.In addition, the selective FGS coding method of the present invention includes a base layer coding step of coding an input picture using a temporal correlation with an adjacent picture, and an error image D1 between the input picture and the picture coded at the base layer coding step. An enhancement layer coding step of generating enhancement information, wherein the enhancement layer coding step includes generating temporal prediction information D2 for the input image and selectively using the generated prediction information D2 for generating the enhancement information. do.

또한, 본 발명의 선택적인 FGS 디코딩 방법은 인접 영상과의 시간적 상관 관계를 이용하여 기본 정보(base layer bitstream)를 디코딩하는 기본 계층 디코딩 단계 및 입력되는 강화 정보(enhancement bitstream)에 대하여 강화 계층의 재생 영상 D1을 생성하는 강화 계층 디코딩 단계를 포함하고, 강화 계층 디코딩 단계는 상기 강화 정보에 대하여 시간적 예측 정보 D2를 생성하는 단계와 생성된 예측 정보 D2를 상기 재생 영상 D1 생성에 선택적으로 이용하는 단계를 포함한다.In addition, the selective FGS decoding method of the present invention uses a base layer decoding step of decoding base layer bitstream using a temporal correlation with neighboring images, and reproduction of an enhancement layer with respect to input enhancement bitstream. An enhancement layer decoding step of generating an image D1, wherein the enhancement layer decoding step includes generating temporal prediction information D2 with respect to the enhancement information and selectively using the generated prediction information D2 for generating the reproduced image D1. do.

이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms or words used in the specification and claims should not be construed as having a conventional or dictionary meaning, and the inventors should properly explain the concept of terms in order to best explain their own invention. Based on the principle that can be defined, it should be interpreted as meaning and concept corresponding to the technical idea of the present invention.

따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiment of the present invention and do not represent all of the technical idea of the present invention, various modifications that can be replaced at the time of the present application It should be understood that there may be equivalents and variations.

차세대 동영상 압축 기술로 주목받고 있는 H.264 코딩 방법은 MPEG-4 Part 10 AVC(advanced video coding)의 코딩 방법으로 MPEG과 ITU-T 산하의 VCEG(video coding expert group)가 함께 제안한 동영상 압축 표준이다.H.264 coding method, which is attracting attention as the next generation video compression technology, is a coding method of MPEG-4 Part 10 Advanced video coding (AVC), which is a video compression standard proposed by MPEG and video coding expert group (VCEG) under ITU-T. .

H.264 코딩 방법은 압축 효율 개선에 초점을 맞추어 개발되었으며, H.263+ 코딩 방법과 비교하였을 때 50% 이상의 압축 효율 개선을 목표로 하고 있다.The H.264 coding method was developed with a focus on improving the compression efficiency, and aims to improve the compression efficiency by 50% or more when compared to the H.263 + coding method.

도 3은 H.264 엔코더의 구성도이다. H.264 엔코더는 16*16 크기의 매크로 블록(macro block) 단위로 영상을 압축하며, 각 단위는 인접 영상과의 상관 관계에 따라 인트라 모드(intra mode) 또는 인터 모드(inter mode)로 코딩된다.3 is a block diagram of an H.264 encoder. The H.264 encoder compresses the image in units of 16 * 16 macro blocks, and each unit is coded in an intra mode or an inter mode according to correlation with an adjacent image. .

도면을 참조하면, 인트라 모드는 시간적으로 인접하는 영상과의 시간적 상관 관계가 적거나 또는 의도적으로 움직임 보상(MC)을 하지 않고 코딩하는 모드이다. Referring to the drawings, the intra mode is a mode in which a temporal correlation with an adjacent temporal image is small or intentionally coded without motion compensation MC.

인트라 모드는 16*16 블록 또는 4*4 블록 단위로 인트라 예측(intra prediction)을 수행하고, 예측 값을 입력 매크로 블록에서 차분한다. 이후에 차분 값을 4*4 정수 변환(integer DCT), 양자화(quantization: Q) 및 엔트로피 코딩(entropy coding)하여 수신단측에 전송한다. Intra mode performs intra prediction on a 16 * 16 block or 4 * 4 block basis and subtracts the prediction value from the input macroblock. Thereafter, the difference value is transmitted to the receiver by 4 * 4 integer DCT, quantization (Q), and entropy coding.

반면에, 인터 모드는 인접하는 영상과의 시간적 상관 관계를 이용하기 위하여 입력된 현재 영상과 이미 코딩 완료되어 전송된 후 기본 버퍼에 저장된 참조 프레임 영상(reference frame image)으로부터 각 매크로 블록의 움직임 벡터를 산출하여 움직임 보상을 수행한다.On the other hand, the inter mode extracts a motion vector of each macro block from a reference frame image stored in a basic buffer after being coded and transmitted with the current image input in order to use a temporal correlation with an adjacent image. Calculate to perform motion compensation.

또한, 인터 모드는 다양한 블록 크기(16*16, 16*8, 8*16, 8*8, 8*4, 4*8, 4*4)를 이용하여 최대 1/8 픽셀의 정밀도로 움직임 예측(ME) 및 움직임 보상(MC)을 수행할 수 있다. 또한, 인터 모드는 코딩 효율을 극대화하기 위하여 시간적으로 인접한 여러 개의 영상을 참조할 수 있다(multiple reference frames).Inter mode also predicts motion with up to 1/8 pixel precision using various block sizes (16 * 16, 16 * 8, 8 * 16, 8 * 8, 8 * 4, 4 * 8, 4 * 4) (ME) and motion compensation (MC). In addition, the inter mode may refer to a plurality of temporally adjacent images in order to maximize coding efficiency (multiple reference frames).

도 4는 시간적 예측 알고리즘이 적용된 H.264 기반의 FGS 엔코더의 전체 구성도이다. 도시된 바와 같이, 기본 계층 코딩을 위하여 상술한 H.264 엔코더를 사용하고, 강화 계층 코딩을 위하여 MPEG-4 기반의 FGS 엔코더에 시간적 예측 알고리즘이 추가된 구조를 사용한다.4 is an overall configuration diagram of an H.264 based FGS encoder to which a temporal prediction algorithm is applied. As shown, the above-described H.264 encoder is used for base layer coding, and a structure in which a temporal prediction algorithm is added to an MPEG-4 based FGS encoder is used for enhancement layer coding.

도면을 참조하며 강화 계층의 코딩 과정을 설명한다.Referring to the drawings will be described the coding process of the enhancement layer.

<과정1 : 첫 번째 영상의 강화 정보 구축><Step 1: Building Reinforcement Information of First Video>

1-1 : 처음 원 영상(original image)에 대하여 도 3에서 설명한 코딩 방법에 의하여 재구성된 기본 계층의 영상과 원 영상간의 오차 영상(residual image)이 강화 계층에 입력된다.1-1: The original image is input to the enhancement layer by a residual image between the base layer image and the original image reconstructed by the coding method described with reference to FIG. 3.

1-2 : 입력된 오차 영상에 대하여 DCT부(402)는 이산 여현 변환을 수행하고, 비트플레인 코딩부(404)는 비트플레인 코딩을 수행하여 강화 정보(enhancement bitstream)를 생성한다. 생성된 강화 정보는 수신단측으로 전송된다.1-2: The DCT unit 402 performs a discrete cosine transform on the input error image, and the bitplane coding unit 404 performs bitplane coding to generate enhancement bitstreams. The generated enhanced information is transmitted to the receiving end.

1-3 : 비트플레인 추출부(406)는 생성된 강화 정보 중 중요한 비트순으로 최상위 N개의 비트플레인 정보를 추출한다.1-3: The bitplane extraction unit 406 extracts the most significant N bitplane information in the order of the significant bits among the generated enhancement information.

1-4 : 후속 정보 처리를 위하여 역 비트플레인 코딩부(408) 및 IDCT부(410)는 추출된 최상위 N개의 비트플레인 정보를 역 코딩하여 강화 버퍼(412)에 저장한다.1-4: The inverse bitplane coding unit 408 and the IDCT unit 410 inversely code the extracted most significant N bitplane information in the enhancement buffer 412 for subsequent information processing.

<과정2 : 후속 영상의 강화 정보 처리 단계><Step 2: Reinforcement Information Processing Step of Subsequent Video>

2-1 : 후속 원 영상에 대하여 도 3에서 설명한 코딩 방법에 의하여 재구성된 기본 계층의 영상과 후속 원 영상간의 오차 영상이 강화 계층에 입력된다.2-1: Subsequent original image The error image between the base layer image reconstructed by the coding method described with reference to FIG. 3 and the subsequent original image is input to the enhancement layer.

2-2 : 움직임 보상부(416)는 기본 계층에서 도출된 움직임 벡터(414)를 이용하여 강화 버퍼(412)에 저장된 참조 영상 정보의 움직임 보상을 수행하고, 현재 입력 영상에 대한 시간적 예측 정보를 생성한다.2-2: The motion compensator 416 performs motion compensation on the reference image information stored in the enhancement buffer 412 using the motion vector 414 derived from the base layer, and provides temporal prediction information on the current input image. Create

2-3 : 감산부(418)는 2-1의 오차 영상과 2-2의 시간적 예측 정보의 차를 계산하고, DCT부(402)와 비트플레인 코딩부(404)는 상기 감산된 정보를 코딩하여 강화 정보를 생성한다. 생성된 강화 정보는 수신단측으로 전송된다.2-3: The subtractor 418 calculates a difference between the error image of 2-1 and the temporal prediction information of 2-2, and the DCT unit 402 and the bitplane coding unit 404 code the subtracted information. To generate enhanced information. The generated enhanced information is transmitted to the receiving end.

2-4 : 비트플레인 추출부(406)는 생성된 강화 정보 중 중요한 비트순으로 최상위 N개의 비트플레인 정보를 추출한다.2-4: The bitplane extraction unit 406 extracts the most significant N bitplane information in the order of the significant bits among the generated enhancement information.

2-5 : 역 비트플레인 코딩부(408) 및 IDCT부(410)는 추출된 최상위 N개의 비트플레인 정보를 역 코딩하고, 합산부(420)는 역 코딩된 정보에 2-2의 현재 입력 영상에 대한 시간적 예측 정보를 합산하여 강화 버퍼(412)에 저장한다. 강화 버퍼(412)에 저장된 영상 정보는 후속 영상에 대하여 이전 영상의 참조 영상 정보로서 이용되고, 상술한 과정은 엔코더의 입력 영상 시퀀스가 종료될 때까지 반복된다.2-5: The inverse bitplane coding unit 408 and the IDCT unit 410 inversely code the extracted most significant N bitplane information, and the adder 420 performs 2-2 current input image on the inverse coded information. The temporal prediction information for s is summed and stored in the enhancement buffer 412. The image information stored in the enhancement buffer 412 is used as reference image information of the previous image for the subsequent image, and the above-described process is repeated until the input image sequence of the encoder is finished.

상술한 시간적 예측 알고리즘이 적용된 H.264 기반의 FGS 코딩 방법은 강화 계층에 입력된 영상 정보간의 시간적 중복성을 줄임으로써 강화 정보의 발생 양을 현저하게 줄일 수 있다. The H.264-based FGS coding method to which the above-described temporal prediction algorithm is applied can significantly reduce the amount of enhancement information generated by reducing the temporal redundancy between the image information input to the enhancement layer.

하지만, 상기 코딩 방법은 강화 계층의 참조 영상 정보가 수신단측에 무사히 전송되지 않으면 드리프트 현상이 심각하게 발생할 수 있다.However, in the coding method, if the reference picture information of the enhancement layer is not transmitted to the receiving end safely, a drift phenomenon may seriously occur.

만약 엔코더로부터 전송된 강화 계층의 참조 영상 정보가 디코더에서 모두 디코딩 가능하다면 참조 영상 정보의 불일치로 인해 발생하는 드리프트 현상을 제거할 수 있다. If all of the reference picture information of the enhancement layer transmitted from the encoder is decodable by the decoder, the drift caused by the mismatch of the reference picture information can be removed.

하지만, FGS 코딩 방법은 전송 선로의 대역폭이 급변하여 영상 복원에 필요한 모든 정보를 수신하지 못한 경우에도 그 때까지 수신된 부분적인 영상 정보만을 이용하여 최적의 화질 향상을 얻을 수 있도록 설계되었기 때문에 전송 대역폭이 시간에 따라 급변하는 전송 환경에 상술한 시간적 예측 알고리즘이 적용된 코딩 방법을 사용하는 것은 무리가 따른다. However, the FGS coding method is designed to obtain the best image quality by using only the partial image information received up to that point even when the bandwidth of the transmission line changes suddenly and thus does not receive all the information necessary for image restoration. It is unreasonable to use a coding method to which the above-described temporal prediction algorithm is applied to a transmission environment that changes rapidly with time.

실험적으로 약 3개의 비트플레인 정보를 강화 계층의 참조 영상 정보로 사용해야만 전송 영상의 화질 개선이 가능하기 때문에 시간적 예측 알고리즘을 적용하기 위해서는 디코더가 적어도 3개의 비트플레인 정보를 모두 수신할 수 있는 전송 환경이 구비되어야 한다.Experimentally, it is possible to improve the image quality of transmission video only when about 3 bitplane information is used as the reference image information of the enhancement layer. Therefore, in order to apply the temporal prediction algorithm, the decoder can receive all the at least 3 bitplane information. Should be provided.

도 5는 Foreman QCIF 참조 영상에 대하여 H.264 기반의 FGS 코딩 방법과 시간적 예측 알고리즘이 적용된 H.264 기반의 FGS 코딩 방법(N=3)의 코딩 성능을 비교하는 도면이다.FIG. 5 is a diagram comparing coding performance of an H.264 based FGS coding method (N = 3) to which a H.264 based FGS coding method and a temporal prediction algorithm are applied to a Foreman QCIF reference picture.

도면의 가로축은 디코딩이 완료된 수신 비트율(bitrate : bit per second)이며, 도면의 세로축은 해당 비트율에서 복원된 영상의 Y 콤포넌트에 대한 평균 PSNR(peak signal to noise ratio)이다(단위 dB). The horizontal axis of the figure is a received bit rate (bitrate: second), and the vertical axis of the figure is an average peak signal to noise ratio (PSNR) for the Y component of the image reconstructed at the corresponding bit rate (unit dB).

기본 계층은 56kbps로 고정하여 디코딩을 수행하였으며, 강화 계층은 디코딩이 완료된 수신 비트율을 32kbps에서 1024kbps 까지 단계적으로 증가시키며 실험하였다.The base layer was decoded at 56 kbps, and the enhancement layer was experimented by incrementally increasing the received bit rate from 32 kbps to 1024 kbps.

도시된 바와 같이, A기점을 중심으로 왼쪽의 저역 비트율 대역에서는 시간적 예측 알고리즘이 적용된 H.264 기반의 FGS 코딩 방법(520)이 H.264 기반의 FGS 코딩 방법(510)에 비해 최대 4dB 정도 낮은 PSNR을 갖는다. 이는 시간적 예측 알고리즘이 적용된 H.264 기반의 FGS 디코더가 모든 비트플레인 정보를 수신하지 못하여 드리프트 현상이 발생한 것으로 추정할 수 있다. As shown, in the low bit rate band on the left of the A origin, the H.264 based FGS coding method 520 to which the temporal prediction algorithm is applied is up to 4 dB lower than the H.264 based FGS coding method 510. Has a PSNR. It can be estimated that the drift phenomenon occurs because the H.264 based FGS decoder to which the temporal prediction algorithm is applied does not receive all the bitplane information.

반면에, A기점을 중심으로 오른쪽의 중/고역 비트율 대역에서는 시간적 예측 알고리즘이 적용된 H.264 기반의 FGS 코딩 방법(520)이 H.264 기반의 FGS 코딩 방법(510)에 비해 최대 1.5dB 정도 높은 PSNR을 갖는다. 이는 시간적 예측 알고리즘이 적용된 H.264 기반의 FGS 디코더가 3개의 비트플레인 정보를 모두 수신하여 시간적 예측 정보를 효과적으로 사용한 것으로 해석할 수 있다.On the other hand, in the mid / high bitrate band on the right side of the A origin, the H.264 based FGS coding method 520 to which the temporal prediction algorithm is applied is up to 1.5 dB higher than the H.264 based FGS coding method 510. Has a high PSNR. It can be interpreted that the H.264 based FGS decoder to which the temporal prediction algorithm is applied receives all three bitplane information and effectively uses the temporal prediction information.

결과적으로 시간적 예측 알고리즘을 사용하여 코딩 성능을 향상시키기 위해서는 소정의 전송 비트율 이상의 전송 환경을 가져야 한다.As a result, in order to improve coding performance using a temporal prediction algorithm, the transmission environment must have a predetermined transmission bit rate or more.

도 6은 본 발명에 따른 선택적인 FGS 엔코더의 구성도이다. 본 발명의 FGS 엔코더는 강화 계층 내의 영상 정보로부터 시간적 예측 정보를 생성하고, 상기 예측 정보를 필요에 따라 선택적으로 사용하여 코딩을 수행한다.6 is a schematic diagram of an optional FGS encoder in accordance with the present invention. The FGS encoder of the present invention generates temporal prediction information from the image information in the enhancement layer and performs coding by selectively using the prediction information as necessary.

도면을 참조하면, 참조부호 D1은 원 영상(original image)과 기본 계층에서 코딩된 영상과의 매크로블록 단위의 오차 영상을 나타낸다.Referring to the drawings, reference numeral D1 denotes an error image in macroblock units between an original image and an image coded in a base layer.

참조부호는 D2는 강화 계층 내에서 이전 영상의 코딩 결과 중 N개의 비트플레인 정보에 대해서 기본 계층의 움직임 벡터를 이용하여 움직임 보상을 수행한 매크로 블록 단위의 시간적 예측 정보를 나타낸다.Reference numeral D2 denotes temporal prediction information in units of macroblocks in which motion compensation is performed on the N bitplane information among the coding results of the previous image in the enhancement layer by using the motion vector of the base layer.

본 발명은 시간적 예측 정보 D2를 드리프트 발생을 최소화하는 범위내에서 선택적으로 이용한다. 즉, 강화 계층 내에서 시간적 예측 정보 D2를 이용하는 경우에는 D1-D2를 강화 정보로 코딩하고, 시간적 예측 정보 D2를 이용하지 않는 경우에는 D1을 강화 정보로 코딩한다.The present invention selectively uses the temporal prediction information D2 within a range that minimizes the occurrence of drift. That is, when temporal prediction information D2 is used in the enhancement layer, D1-D2 is coded as reinforcement information. When temporal prediction information D2 is not used, D1 is coded as reinforcement information.

도 7은 본 발명에 따라 시간적 예측 정보 D2의 사용 여부를 결정하는 과정을 설명하기 위한 도면이다. 도시된 바와 같이, 먼저 D1과 D1-D2의 SAD(sum of absolute difference)를 계산한다(S710). 매크로 블록 단위의 D1과 D1-D2는 모두 영상간의 차분값(differential)이며, 각 차분값에 절대값을 취하고 모두 합산하면 SAD 값을 계산할 수 있다.7 is a diagram for describing a process of determining whether to use temporal prediction information D2 according to the present invention. As shown, first, the sum of absolute difference (SAD) of D1 and D1-D2 is calculated (S710). D1 and D1-D2 in macroblock units are all differentials between images. SAD values can be calculated by taking absolute values of each difference and adding them together.

계산된 D1의 SAD 값을 SAD_D1이라 하고, D1-D2의 SAD 값을 SAD_DD라고 할 때, SAD_DD가 SAD_D1 보다 큰 폭으로 작을 때 시간적 예측 정보 D2를 코딩에 사용한다(S720).  When the calculated SAD value of D1 is called SAD_D1 and the SAD value of D1-D2 is called SAD_DD, temporal prediction information D2 is used for coding when SAD_DD is smaller than SAD_D1 (S720).

가중치 w는 시간적 예측 정보를 사용하기 위한 믿음 요소(belief factor)로서 1보다 큰 값을 사용한다. 본 실시예에서는 가중치 w값으로 1.8을 사용한다.The weight w uses a value greater than 1 as a belief factor for using temporal prediction information. In this embodiment, 1.8 is used as the weight w value.

시간적 예측 정보 D2를 사용하는 경우에는 D1-D2를 코딩하여 강화 정보(enhancement bitstream)를 생성한다(S740, S750).When temporal prediction information D2 is used, enhancement information (enhancement bitstream) is generated by coding D1-D2 (S740 and S750).

도 8a는 시간적 예측 정보를 코딩에 사용할 때의 신호 전달 과정을 설명하는 도면이다. 도시된 바와 같이, SAD_DD가 SAD_D1 보다 큰 폭으로 작으면 D1-D2를 코딩하여 강화 정보를 생성한다.8A is a diagram illustrating a signal transmission process when temporal prediction information is used for coding. As shown, if SAD_DD is smaller than SAD_D1, the reinforcement information is generated by coding D1-D2.

반면에, 시간적 예측 정보를 코딩에 사용하지 않는 경우에는 D1을 그대로 코딩하여 강화 정보를 생성한다(S730, S750). On the other hand, when temporal prediction information is not used for coding, D1 is coded as it is to generate reinforcement information (S730 and S750).

도 8b는 시간적 예측 정보를 코딩에 사용하지 않을 때의 신호 전달 과정을 설명하는 도면이다. 도시된 바와 같이, SAD_DD가 SAD_D1 보다 큰 폭으로 작지 않은 경우 D1을 그대로 코딩하여 강화 정보를 생성한다.8B is a diagram illustrating a signal transmission process when temporal prediction information is not used for coding. As shown in the figure, when SAD_DD is not smaller than SAD_D1, the reinforcement information is generated by coding D1 as it is.

이와 같이 필요에 따라 선택적으로 시간적 예측 정보를 사용함으로써 드리프트 현상을 최소화시킬 수 있다. As such, by using the temporal prediction information selectively as necessary, the drift phenomenon can be minimized.

한편, 도 9에 예시된 바와 같이 강화 정보는 매크로 블록 단위로 시간적 예측 정보의 사용 여부를 디코더에 통보해주는 선택 플래그 비트('S' : selelction flag bit)를 갖는다. Meanwhile, as illustrated in FIG. 9, the enhancement information has a selection flag bit ('S': selelction flag bit) that informs the decoder whether to use temporal prediction information in macroblock units.

이하 도 6을 참조하며 본 발명에 따른 선택적인 FGS 코딩 과정을 상세하게 설명한다.Hereinafter, an optional FGS coding process according to the present invention will be described in detail with reference to FIG. 6.

<과정1 : 첫 번째 영상의 강화 정보 구축><Step 1: Building Reinforcement Information of First Video>

1-1 : 처음 원 영상(original image)에 대하여 도 3에서 설명한 코딩 방법에 의하여 재구성된 기본 계층의 영상과 원 영상간의 오차 영상(residual image) 정보 D1이 강화 계층에 매크로블록 단위로 입력된다.1-1: Received initial image information D1 between the base layer image and the original image reconstructed by the coding method described with reference to FIG. 3 is input to the enhancement layer in macroblock units.

1-2 : 입력된 오차 영상 정보 D1에 대하여 DCT부(602)는 이산 여현 변환을 수행하고, 비트플레인 코딩부(604)는 비트플레인 코딩을 수행하여 강화 정보(enhancement birstream)를 생성한다.1-2: The DCT unit 602 performs discrete cosine transform on the input error image information D1, and the bitplane coding unit 604 performs bitplane coding to generate enhancement birstream.

1-3 : 후속 정보 처리를 위하여 비트플레인 추출부(606)는 생성된 강화 정보 중 중요한 비트순으로 최상위 N개의 비트플레인 정보를 추출한다.1-3: For subsequent information processing, the bitplane extraction unit 606 extracts the most significant N bitplane information in the order of the important bits of the generated enhancement information.

1-4 : 역 비트플레인 코딩부(608) 및 IDCT부(610)는 추출된 최상위 N개의 비트플레인 정보를 역 코딩하여 해당 결과를 강화 버퍼(612)에 저장한다.1-4: The inverse bitplane coding unit 608 and the IDCT unit 610 inversely code the extracted highest N bits information and store the result in the enhancement buffer 612.

<과정2 : 후속 영상의 강화 정보 처리><Step 2: Processing reinforcement information of subsequent video>

2-1 : 후속 원 영상에 대하여 도 3에서 설명한 코딩 방법에 의하여 재구성된 기본 계층의 영상과 후속 원 영상간의 오차 영상 정보 D1이 강화 계층에 매크로블록 단위로 입력된다.2-1: Subsequent original image Error image information D1 between the base layer image reconstructed by the coding method described with reference to FIG. 3 and the subsequent original image is input to the enhancement layer in macroblock units.

2-2 : 움직임 보상부(616)는 기본 계층에서 도출된 움직임 벡터(614)를 이용하여 강화 버퍼(612)에 저장된 참조 영상 정보의 움직임 보상을 수행하고, 현재 입력 영상에 대한 시간적 예측 정보 D2를 매크로 블록 단위로 생성한다.2-2: The motion compensator 616 performs motion compensation on the reference image information stored in the enhancement buffer 612 using the motion vector 614 derived from the base layer, and temporal prediction information D2 for the current input image. Create in macro block units.

<과정3 : 시간적 예측 정보의 사용 여부 판별><Step 3: Determine whether to use temporal prediction information>

3-1 : 도 7에서 설명한 바와 같이, 스위칭부(620)는 시간적 예측 정보 D2를 코딩에 사용할 것인지 여부를 판단한다.3-1: As described with reference to FIG. 7, the switching unit 620 determines whether to use the temporal prediction information D2 for coding.

3-2 : D2를 이용하는 경우 선택 플래그 'S'에 '1'의 값을 부여하고 D1-D2를 강화 계층의 입력 정보로 사용한다.3-2: When using D2 A value of '1' is assigned to the selection flag 'S' and D1-D2 is used as input information of the enhancement layer.

3-3 : D2를 적용하지 않기로 판단된 경우 선택 플래그 'S'에 '0'의 값을 부여하고 D1을 강화 계층의 입력 정보로 사용한다.3-3: When it is determined not to apply D2, a value of '0' is assigned to the selection flag 'S' and D1 is used as input information of the enhancement layer.

<과정4 : 후속 영상의 강화 영상 정보 처리 반복><Step 4: Repetition of reinforcement image information processing of subsequent image>

4-1 : 과정3에서 결정된 강화 계층 입력 정보에 대하여 DCT부(602)는 이산 여현 변환을 수행하고, 비트플레인 코딩부(604)는 비트플레인 코딩을 수행하여 강화 정보를 생성한다.4-1: The DCT unit 602 performs discrete cosine transform on the enhancement layer input information determined in step 3, and the bitplane coding unit 604 performs bitplane coding to generate reinforced information.

4-2 : 후속 정보 처리를 위하여 비트플레인 추출부(606)는 생성된 강화 정보 중 중요한 비트순으로 최상위 N개의 비트플레인 정보를 추출한다.4-2: For subsequent information processing, the bitplane extraction unit 606 extracts the most significant N bitplane information in the order of the significant bits of the generated enhancement information.

4-3 : 역 비트플레인 코딩부(608) 및 IDCT부(610)는 추출된 최상위 N개의 비트플레인 정보를 역 코딩한다. 만약 과정3에서 결정된 입력 정보가 D1이라면, N개의 비트플레인을 역 코딩하여 얻은 결과를 그대로 강화 버퍼(612)에 저장한다.4-3: The inverse bitplane coding unit 608 and the IDCT unit 610 inversely code the extracted most significant N bitplane information. If the input information determined in step 3 is D1, the result obtained by inversely coding the N bitplanes is stored in the enhancement buffer 612 as it is.

4-4 : 과정3에서 결정된 입력정보가 D1-D2라면 N개의 비트플레인을 역 코딩하여 얻은 결과에 D2를 합산한 후 강화 버퍼(612)에 저장한다.4-4: If the input information determined in step 3 is D1-D2, D2 is added to the result obtained by inversely coding the N bitplanes and then stored in the enhancement buffer 612.

강화 버퍼(612)에 저장된 정보는 후속 영상에 대하여 이전 영상의 참조 영상 정보로 이용되고, 상술한 과정2 내지 과정4는 엔코더의 입력 영상 시퀀스가 종료될 때까지 반복된다.The information stored in the enhancement buffer 612 is used as reference image information of the previous image for the subsequent image, and the above-described processes 2 to 4 are repeated until the input image sequence of the encoder is finished.

도 10은 본 발명에 따른 선택적인 FGS 디코더의 구성도이다. 도시된 바와 같이 전송 선로를 통해 기본 계층과 강화 계층으로 나뉘어 수신된 비트스트림은 상술한 코딩 과정과 역순으로 디코딩이 진행된다.10 is a block diagram of an optional FGS decoder in accordance with the present invention. As shown, the bitstream received divided into the base layer and the enhancement layer through the transmission line is decoded in the reverse order to the above-described coding process.

도 10을 참조하여, 본 발명에 따른 선택적인 FGS 디코딩 과정을 상세하게 설명한다.Referring to Fig. 10, the selective FGS decoding process according to the present invention will be described in detail.

<과정1 : 첫 번째 영상의 강화 정보 복원><Step 1: Restoration of reinforcement information of the first image>

1-1 : 처음 영상에 대한 기본 정보(base layer bitstream)가 기본 계층에 입력되어 디코딩되고, 강화 정보(enhancement bitstream) D0가 매크로 블록 단위로 강화 계층에 입력된다.1-1: Base layer bitstream of the first image is input to the base layer and decoded, and enhancement bitstream D0 is input to the enhancement layer in macroblock units.

1-2 : 역 비트플레인 코딩부(1010)는 입력된 강화 정보 D0에 대하여 역 비트플레인 코딩하고, IDCT부(1020)는 역 이산 여현 변환을 수행하여 강화 계층의 재생 영상 D1을 생성한다. 이 과정에서 강화 정보 D0에 포함된 선택 플래그 'S'에 근거하여 스위치(1030)가 동작한다. 다만, 처음 영상에 대한 선택 플래그 'S'는 0이므로 D1이 그대로 강화 계층의 재생 영상으로 복원된다. 1-2: The inverse bitplane coding unit 1010 performs inverse bitplane coding on the input enhancement information D0, and the IDCT unit 1020 performs inverse discrete cosine transform to generate a reproduced image D1 of the enhancement layer. In this process, the switch 1030 is operated based on the selection flag 'S' included in the enhanced information D0. However, since the selection flag 'S' for the first video is 0, D1 is restored to the playback video of the enhancement layer as it is.

1-3 : 강화 계층에서 재생된 영상 D1은 기본 계층에서 재생된 영상과 합쳐져 디스플레이된다.1-3: The image D1 reproduced in the enhancement layer is displayed in combination with the image reproduced in the base layer.

1-4 : 후속 정보 처리를 위하여 비트플레인 추출부(1040)는 입력된 강화 정보 D0 중 상위 비트플레인부터 차례로 N개의 비트플레인 정보를 추출한다.1-4: For subsequent information processing, the bitplane extractor 1040 extracts N bitplane information sequentially from the upper bitplane among the input enhanced information D0.

1-5 : 역 비트플레인 코딩부(1050) 및 IDCT부(1060)는 추출된 N개의 비트플레인 정보를 역 코딩하고, 해당 결과를 강화 버퍼(1070)에 저장한다. 만약, 강화 정보 D0의 비트플레인 수가 N개 미만인 경우 확보된 비트플레인 수를 역 코딩하여 강화 버퍼( 1070)에 저장한다.1-5: The inverse bitplane coding unit 1050 and the IDCT unit 1060 inversely code the extracted N bitplane information and store the result in the enhancement buffer 1070. If the number of bitplanes of the enhancement information D0 is less than N, the obtained number of bitplanes is reverse coded and stored in the enhancement buffer 1070.

<과정2 : 후속 영상의 강화 정보 처리><Step 2: Processing reinforcement information of subsequent video>

2-1 : 후속 영상에 대한 기본 정보가 기본 계층에 입력되어 디코딩되고, 강화 정보 D0가 매크로 블록 단위로 강화 계층에 입력된다.2-1: Basic information about a subsequent image is input to the base layer and decoded, and enhancement information D0 is input to the enhancement layer in units of macro blocks.

2-2 : 역 비트플레인 코딩부(1010)는 입력된 강화 정보 D0에 대하여 역 비트플레인 코딩하고, 이후에 IDCT부(1020)는 역 이산 여현 변환을 수행하여 강화 계층의 재생 영상 D1을 생성한다. 2-2: The inverse bitplane coding unit 1010 performs inverse bitplane coding on the input enhancement information D0, and then the IDCT unit 1020 performs inverse discrete cosine transform to generate a reproduced image D1 of the enhancement layer. .

<과정3 : 시간적 예측 정보의 사용 여부 판별><Step 3: Determine whether to use temporal prediction information>

3-1 : 시간적 예측 정보를 디코딩에 사용하는지 여부는 디코딩된 선택 플래그 'S'에 근거한다. 즉, 스위치(1030)에 1의 값이 입력되면 움직임 보상부(1090)는 기본 계층에서 디코딩된 움직임 벡터(1080)를 이용하여 강화 버퍼(1070)에 저장된 참조 영상 정보에 대하여 움직임 보상을 수행한다. 이후에, D1에 대한 시간적 예측을 수행한 매크로 블록 단위의 시간적 예측 정보 D2를 생성하고, D1+D2를 강화 계층의 재생 영상으로 출력한다.3-1: Whether to use temporal prediction information for decoding is based on the decoded selection flag 'S'. That is, when a value of 1 is input to the switch 1030, the motion compensator 1090 performs motion compensation on the reference image information stored in the enhancement buffer 1070 using the motion vector 1080 decoded in the base layer. . Subsequently, temporal prediction information D2 in macroblock units in which temporal prediction is performed on D1 is generated, and D1 + D2 is output as a reproduced image of the enhancement layer.

3-2 : 스위치(1030)에 0의 값이 입력되면 D1을 그대로 강화 계층의 재생 영상으로 출력한다.3-2: When a value of 0 is input to the switch 1030, D1 is output as it is as a reproduced video of the enhancement layer.

3-3 : 매크로블록 단위의 재생 영상을 기본 계층에서 재생된 영상과 합치어 디스플레이한다.3-3: Displays the reproduced image in macroblock units with the image reproduced in the base layer.

<과정4 : 후속 영상의 강화 정보 처리 반복><Step 4: Repetition of reinforcement information processing of subsequent video>

4-1 : 후속 정보 처리를 위하여 비트플레인 추출부(1040)는 입력된 D0 중 상위 비트플레인부터 차례로 N개의 비트플레인 정보를 추출한다.4-1: For subsequent information processing, the bitplane extraction unit 1040 extracts N bitplane information sequentially from the upper bitplane among the input D0.

4-2 : 역 비트플레인 코딩부(1050) 및 IDCT부(1060)는 추출된 N개의 비트플레인 정보를 역 코딩하고, 과정3에서 결정된 재생 영상이 D1인 경우 역 코딩된 정보를 그대로 강화 버퍼(1070)에 저장한다.4-2: The inverse bitplane coding unit 1050 and the IDCT unit 1060 inversely code the extracted N bitplane information, and if the reproduced video determined in step 3 is D1, the inverse coded information is intactly buffered ( 1070).

4-3 : 만약, 과정3에서 결정된 재생 영상이 D1+D2인 경우 역 코딩된 정보에 D2를 더하여 강화 버퍼(1070)에 저장한다.4-3: If the reproduced video determined in step 3 is D1 + D2, D2 is added to the decoded information and stored in the enhancement buffer 1070.

강화 버퍼(1070)에 저장된 영상 정보는 후속 영상에 대하여 이전 영상의 참조 영상 정보로서 이용되고, 상술한 과정2 내지 과정4는 디코더의 입력 영상 비트스트림이 종료될 때까지 반복된다.The image information stored in the enhancement buffer 1070 is used as reference image information of the previous image for the subsequent image, and the above-described processes 2 to 4 are repeated until the input image bitstream of the decoder is finished.

상술한 바와 같이 본 발명에 따른 선택적인 FGS 코딩 방법은 시간적 예측 정보를 선택적으로 사용하여 코딩함으로써 코딩 성능을 향상시킬 수 있으며, 드리프트 현상의 발생을 최소화 할 수 있다.As described above, the selective FGS coding method according to the present invention can improve coding performance by selectively using temporal prediction information and can minimize occurrence of drift.

도 11a 내지 11e는 여러 가지 참조 영상에 대해서 본 발명에 따른 FGS 코딩 방법과 다른 FGS 코딩 방법의 코딩 성능을 비교한 도면이다.11A to 11E are diagrams comparing coding performances of an FGS coding method and another FGS coding method according to the present invention with respect to various reference pictures.

도 11a는 Akiyo QCIF 30Hz 영상 시퀀스, 도 11b는 Foreman QCIF 30Hz 영상 시퀀스, 도 11c는 Container CIF 30Hz 영상 시퀀스, 도 11d는 Mobile CIF 30Hz 영상 시퀀스, 도 11e는 Foreman CIF 30Hz 영상 시퀀스에 대해서 코딩 성능을 실험한 결과이다.11A shows an Akiyo QCIF 30Hz video sequence, FIG. 11B shows a Foreman QCIF 30Hz video sequence, FIG. 11C shows a Container CIF 30Hz video sequence, FIG. 11D shows a Mobile CIF 30Hz video sequence, and FIG. 11E shows a Foreman CIF 30Hz video sequence. One result.

도면의 참조부호 1110, 1120, 1130, 1140은 각각 MPEG-4 기반의 FGS 코딩 방법, H.264 기반의 FGS 코딩 방법, 시간적 예측 알고리즘을 사용한 FGS 코딩 방법, 본 발명에 따른 FGS 코딩 방법의 코딩 성능을 나타낸다.Reference numerals 1110, 1120, 1130, and 1140 in the drawings denote MPEG-4 based FGS coding method, H.264 based FGS coding method, FGS coding method using temporal prediction algorithm, and coding performance of FGS coding method according to the present invention. Indicates.

도시된 바와 같이, 본 발명에 따른 선택적인 FGS 코딩 방법(1140)의 코딩 성능이 PSNR에서 다른 FGS 코딩 방법(1110, 1120, 1130) 보다 최대 5dB 까지 향상된 성능을 가진다.As shown, the coding performance of the optional FGS coding method 1140 in accordance with the present invention has up to 5dB improvement in performance over other FGS coding methods 1110, 1120, 1130 in PSNR.

특히, 시간적 예측 알고리즘을 사용한 FGS 코딩 방법(1130)은 저역 비트율 대역에서 코딩 성능이 떨어지지만, 본 발명에 따라 선택적으로 시간 예측 알고리즘을 사용하는 선택적인 FGS 코딩 방법(1140)의 코딩 성능은 전 대역에 걸쳐서 우수한 코딩 성능을 가짐을 확인할 수 있다.In particular, although the FGS coding method 1130 using the temporal prediction algorithm has poor coding performance in the low bit rate band, the coding performance of the selective FGS coding method 1140 using the temporal prediction algorithm selectively according to the present invention is full band. It can be seen that it has excellent coding performance over.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 아래에 기재될 특허 청구범위의 균등 범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.  As mentioned above, although this invention was demonstrated by the limited embodiment and drawing, this invention is not limited by this, The person of ordinary skill in the art to which this invention belongs, Of course, various modifications and variations are possible within the scope of equivalent claims.

상술한 바와 같이 본 발명에 따르면, 시간적 예측 알고리즘을 선택적으로 사용하는 FGS 코딩 방법을 제안함으로써 망 상태 적응적인 특징을 그대로 유지하고, 드리프트 발생을 최소화하며 코딩 효율을 높일 수 있다. As described above, according to the present invention, by suggesting an FGS coding method that selectively uses a temporal prediction algorithm, it is possible to maintain network state adaptive features, minimize drift generation, and increase coding efficiency.

도 1은 MPEG-4 기반 미세입자 스케일러블(Fine Granular Scalable, FGS) 엔코더(encoder)의 구성도,1 is a block diagram of an MPEG-4 based fine particle scalable (FGS) encoder (encoder),

도 2는 MPEG-4 기반 FGS 디코더(decoder)의 구성도, 2 is a block diagram of an MPEG-4 based FGS decoder;

도 3은 H.264 기반 엔코더의 구성도,3 is a configuration diagram of an H.264 based encoder;

도 4는 시간적 예측 알고리즘이 적용된 H.264 기반 FGS 엔코더의 구성도,4 is a configuration diagram of an H.264 based FGS encoder to which a temporal prediction algorithm is applied;

도 5는 Foreman QCIF 참조 영상에 대하여 H.264 기반 FGS 코딩 방법과 시간적 예측 알고리즘이 적용된 H.264 기반 FGS 코딩 방법(N=3)의 코딩 성능을 비교하는 도면,5 is a diagram comparing coding performance of an H.264-based FGS coding method (N = 3) to which a H.264-based FGS coding method and a temporal prediction algorithm are applied to a Foreman QCIF reference picture;

도 6은 본 발명에 따른 선택적인 FGS 엔코더의 구성도,6 is a schematic diagram of an optional FGS encoder in accordance with the present invention;

도 7은 본 발명에 따라 시간적 예측 정보의 사용 여부를 결정하는 과정을 설명하는 도면,7 is a diagram illustrating a process of determining whether to use temporal prediction information according to the present invention;

도 8a는 시간적 예측 정보를 코딩에 사용할 때의 신호 전달 과정을 설명하는 도면,8A is a diagram illustrating a signal transmission process when temporal prediction information is used for coding;

도 8b는 시간적 예측 정보를 코딩에 사용하지 않을 때 신호 전달 과정을 설명하는 도면,8B is a diagram illustrating a signal transmission process when temporal prediction information is not used for coding;

도 9는 선택 플래그 비트가 삽입된 강화 정보를 예시하는 도면,9 is a diagram illustrating enhanced information with a selection flag bit inserted;

도 10은 본 발명에 따른 선택적인 FGS 디코더의 구성도,10 is a block diagram of an optional FGS decoder according to the present invention;

도 11a 내지 11e는 여러 가지 참조 영상에 대해서 본 발명에 따른 FGS 코딩 방법과 다른 FGS 코딩 방법의 코딩 성능을 비교한 도면이다.11A to 11E are diagrams comparing coding performances of an FGS coding method and another FGS coding method according to the present invention with respect to various reference pictures.

<도면의 주요 참조부호에 대한 설명><Description of main reference numerals in the drawings>

602 : DCT부 604 : 비트플레인 코딩부602: DCT unit 604: bitplane coding unit

606 : 비트플레인 추출부 608 : 역 비트플레인 코딩부606: bitplane extraction unit 608: inverse bitplane coding unit

610 : IDCT부 612 : 강화 버퍼610: IDCT unit 612: enhanced buffer

614 : 움직임 벡터 616 : 움직임 보상부614: motion vector 616: motion compensation unit

620 : 스위칭부620: switching unit

1010 : 역 비트플레인 코딩부 1020 : IDCT부1010: inverse bitplane coding unit 1020: IDCT unit

1030 : 스위칭부 1040 : 비트플레인 추출부1030: switching unit 1040: bit plane extraction unit

1050 : 역 비트플레인 코딩부 1060 : IDCT부1050: reverse bit plane coding unit 1060: IDCT unit

1090 : 움직임 보상부 1090: motion compensation unit

Claims (20)

인접 영상과의 시간적 상관 관계를 이용하여 입력 영상을 코딩하는 기본 계층 코딩 수단; 및Base layer coding means for coding an input image using a temporal correlation with an adjacent image; And 상기 입력 영상과 상기 기본 계층 코딩 수단에 의해 코딩된 영상간의 오차 영상 D1에 대하여 강화 정보를 생성하는 강화 계층 코딩 수단Enhancement layer coding means for generating enhancement information on the error image D1 between the input image and the image coded by the base layer coding means 을 포함하고,Including, 상기 강화 계층 코딩 수단은 The enhancement layer coding means 상기 입력 영상에 대하여 시간적 예측 정보 D2를 생성하고, 생성된 예측 정보 D2를 상기 강화 정보 생성에 선택적으로 이용하는 Generate temporal prediction information D2 for the input image, and selectively use the generated prediction information D2 for generating the reinforcement information. 선택적인 FGS 코딩 장치.Optional FGS Coding Device. 제 1 항에 있어서,The method of claim 1, 상기 강화 계층 코딩 수단은The enhancement layer coding means 이미 코딩 완료된 강화 계층의 참조 영상을 저장하는 버퍼,A buffer that stores a reference picture of an enhancement layer already coded, 상기 참조 영상에 대한 움직임 보상을 수행하여 상기 시간적 예측 정보 D2를 생성하는 움직임 보상부, 및A motion compensator for generating the temporal prediction information D2 by performing motion compensation on the reference image; 상기 시간적 예측 정보 D2의 사용 여부를 판별하여 선택적으로 스위칭하는 스위칭부Switching unit for selectively switching whether to use the temporal prediction information D2 를 포함하는 Containing 선택적인 FGS 코딩 장치.Optional FGS Coding Device. 제 2 항에 있어서,The method of claim 2, 상기 스위칭부는The switching unit SAD(D1)이 SAD(D1-D2)*w 보다 큰 경우 D1으로 스위칭하고,If SAD (D1) is greater than SAD (D1-D2) * w, switch to D1, SAD(D1)이 SAD(D1-D2)*w 보다 작은 경우 D1-D2으로 스위칭하는Switch to D1-D2 when SAD (D1) is less than SAD (D1-D2) * w 선택적인 FGS 코딩 장치.Optional FGS Coding Device. 여기서, SAD(D1)은 D1에 절대값을 취하여 모두 합산한 값이고, Here, SAD (D1) is a value obtained by taking the absolute value of D1 and summing all of them, SAD(D1-D2)는 D1-D2에 절대값을 취하여 모두 합산한 값이고, SAD (D1-D2) is the sum of all the absolute values of D1-D2, w 는 1보다 큰 가중치임.w is a weight greater than 1. 제 3 항에 있어서,The method of claim 3, wherein 상기 스위칭부는The switching unit 스위칭 동작에 따라 상기 강화 정보에 선택 플래그 비트를 삽입하는Inserting a selection flag bit into the enhancement information according to a switching operation; 선택적인 FGS 코딩 장치.Optional FGS Coding Device. 제 3 항에 있어서,The method of claim 3, wherein 상기 가중치 w는 약 1.8인The weight w is about 1.8 선택적인 FGS 코딩 장치.Optional FGS Coding Device. 제 1 항 내지 제 5 항에 있어서,The method according to claim 1, wherein 상기 기본 계층 코딩 수단은The base layer coding means H.264 알고리즘으로 상기 입력 영상을 코딩하는Coding the input image with an H.264 algorithm 선택적인 FGS 코딩 장치.Optional FGS Coding Device. 인접 영상과의 시간적 상관 관계를 이용하여 기본 정보(base layer bitstream)를 디코딩하는 기본 계층 디코딩 수단; 및Base layer decoding means for decoding base layer bitstream using a temporal correlation with a neighboring image; And 입력되는 강화 정보(enhancement bitstream)에 대하여 강화 계층의 재생 영상 D1을 생성하는 강화 계층 디코딩 수단Enhancement layer decoding means for generating a reproduction image D1 of the enhancement layer with respect to the input enhancement bitstream 을 포함하고,Including, 강화 계층 디코딩 수단은Enhancement layer decoding means 상기 강화 정보에 대하여 시간적 예측 정보 D2를 생성하고, 생성된 예측 정보 D2를 상기 재생 영상 D1 생성에 선택적으로 이용하는The temporal prediction information D2 is generated with respect to the enhancement information, and the generated prediction information D2 is selectively used to generate the reproduced image D1. 선택적인 FGS 디코딩 장치.Optional FGS decoding device. 제 7 항에 있어서,The method of claim 7, wherein 상기 강화 계층 디코딩 수단은The enhancement layer decoding means 이미 디코딩 완료된 강화 계층의 참조 영상을 저장하는 버퍼,A buffer that stores a reference picture of an enhancement layer that is already decoded, 상기 참조 영상에 대한 움직임 보상을 수행하여 상기 시간적 예측 정보 D2를 생성하는 움직임 보상부, 및A motion compensator for generating the temporal prediction information D2 by performing motion compensation on the reference image; 상기 시간적 예측 정보 D2의 사용 여부를 판별하여 선택적으로 스위칭하는 스위칭부Switching unit for selectively switching whether to use the temporal prediction information D2 를 포함하는 Containing 선택적인 FGS 디코딩 장치.Optional FGS decoding device. 제 8 항에 있어서,The method of claim 8, 상기 스위칭부는The switching unit 상기 강화 정보에 삽입된 선택 플래그 비트에 근거하여 Based on the selection flag bit inserted in the enhancement information. 강화 계층 재생 영상 D1 또는 강화 계층 재생 영상 D1에 시간적 예측 정보D2가 더해진 D1+D2을 선택적으로 스위칭하는Selectively switching D1 + D2 to which temporal prediction information D2 has been added to the enhancement layer reproduction image D1 or the enhancement layer reproduction image D1. 선택적인 FGS 디코딩 장치.Optional FGS decoding device. 제 7 항 내지 제 9 항에 있어서,The method according to claim 7 to 9, 상기 기본 계층 디코딩 수단은The base layer decoding means H.264 알고리즘으로 상기 기본 정보를 디코딩하는Decode the basic information with H.264 algorithm 선택적인 FGS 디코딩 장치.Optional FGS decoding device. 인접 영상과의 시간적 상관 관계를 이용하여 입력 영상을 코딩하는 기본 계층 코딩 단계; 및A base layer coding step of coding an input image using a temporal correlation with an adjacent image; And 상기 입력 영상과 상기 기본 계층 코딩 단계에서 코딩된 영상간의 오차 영상 D1에 대하여 강화 정보를 생성하는 강화 계층 코딩 단계An enhancement layer coding step of generating enhancement information on an error image D1 between the input image and the image coded in the base layer coding step. 를 포함하고,Including, 상기 강화 계층 코딩 단계는 The enhancement layer coding step 상기 입력 영상에 대하여 시간적 예측 정보 D2를 생성하는 단계와Generating temporal prediction information D2 for the input image; 생성된 예측 정보 D2를 상기 강화 정보 생성에 선택적으로 이용하는 단계Selectively using the generated prediction information D2 to generate the enhanced information 를 포함하는 Containing 선택적인 FGS 코딩 방법.Optional FGS Coding Method. 제 11 항에 있어서,The method of claim 11, 상기 강화 계층 코딩 단계는The enhancement layer coding step 이미 코딩 완료된 강화 계층의 참조 영상을 저장하는 단계,Storing a reference picture of an enhancement layer that is already coded, 상기 참조 영상에 대한 움직임 보상을 수행하여 상기 시간적 예측 정보 D2를 생성하는 단계, 및Generating the temporal prediction information D2 by performing motion compensation on the reference image, and 상기 시간적 예측 정보 D2의 사용 여부를 판별하여 선택적으로 스위칭하는 단계Determining whether to use the temporal prediction information D2 and selectively switching 를 포함하는 Containing 선택적인 FGS 코딩 방법.Optional FGS Coding Method. 제 12 항에 있어서,The method of claim 12, 상기 스위칭 단계는The switching step SAD(D1)이 SAD(D1-D2)*w 보다 큰 경우 D1으로 스위칭하고,If SAD (D1) is greater than SAD (D1-D2) * w, switch to D1, SAD(D1)이 SAD(D1-D2)*w 보다 작은 경우 D1-D2으로 스위칭하는Switch to D1-D2 when SAD (D1) is less than SAD (D1-D2) * w 선택적인 FGS 코딩 방법.Optional FGS Coding Method. 여기서, SAD(D1)은 D1에 절대값을 취하여 모두 합산한 값이고, Here, SAD (D1) is a value obtained by taking the absolute value of D1 and summing all of them, SAD(D1-D2)는 D1-D2에 절대값을 취하여 모두 합산한 값이고, SAD (D1-D2) is the sum of all the absolute values of D1-D2, w 는 가중치임.w is the weight. 제 13 항에 있어서,The method of claim 13, 상기 스위칭 단계는The switching step 스위칭 동작에 따라 강화 정보에 선택 플래그 비트를 삽입하는 단계를Inserting a selection flag bit into the enhanced information according to the switching operation. 더 포함하는More containing 선택적인 FGS 코딩 방법.Optional FGS Coding Method. 제 13 항에 있어서,The method of claim 13, 상기 가중치 w는 약 1.8인The weight w is about 1.8 선택적인 FGS 코딩 방법.Optional FGS Coding Method. 제 11 항 내지 제 15 항에 있어서,The method according to claim 11, wherein 상기 기본 계층 코딩 단계는The base layer coding step H.264 알고리즘으로 상기 입력 영상을 코딩하는Coding the input image with an H.264 algorithm 선택적인 FGS 코딩 방법.Optional FGS Coding Method. 인접 영상과의 시간적 상관 관계를 이용하여 기본 정보(base layer bitstream)를 디코딩하는 기본 계층 디코딩 단계; 및A base layer decoding step of decoding base layer bitstream using a temporal correlation with a neighboring image; And 입력되는 강화 정보(enhancement bitstream)에 대하여 강화 계층의 재생 영상 D1을 생성하는 강화 계층 디코딩 단계An enhancement layer decoding step of generating a reproduction image D1 of an enhancement layer with respect to input enhancement bitstream. 를 포함하고,Including, 강화 계층 디코딩 단계는Enhancement layer decoding step 상기 강화 정보에 대하여 시간적 예측 정보 D2를 생성하는 단계와Generating temporal prediction information D2 with respect to the enhanced information; 생성된 예측 정보 D2를 상기 재생 영상 D1 생성에 선택적으로 이용하는 단계Selectively using the generated prediction information D2 to generate the reproduced image D1. 를 포함하는Containing 선택적인 FGS 디코딩 방법.Optional FGS decoding method. 제 17 항에 있어서,The method of claim 17, 상기 강화 계층 디코딩 단계는The enhancement layer decoding step 이미 디코딩 완료된 강화 계층의 참조 영상을 저장하는 단계,Storing a reference picture of the enhancement layer that is already decoded, 상기 참조 영상에 대한 움직임 보상을 수행하여 상기 시간적 예측 정보 D2를 생성하는 단계, 및Generating the temporal prediction information D2 by performing motion compensation on the reference image, and 상기 시간적 예측 정보 D2의 사용 여부를 판별하여 선택적으로 스위칭하는 단계Determining whether to use the temporal prediction information D2 and selectively switching 를 포함하는 Containing 선택적인 FGS 디코딩 방법.Optional FGS decoding method. 제 18 항에 있어서,The method of claim 18, 상기 스위칭 단계는The switching step 상기 강화 정보에 삽입된 선택 플래그 비트에 근거하여 Based on the selection flag bit inserted in the enhancement information. 강화 계층 재생 영상 D1 또는 강화 계층 재생 영상 D1에 시간적 예측 정보D2가 더해진 D1+D2를 선택적으로 스위칭하는Selectively switching D1 + D2 to which temporal prediction information D2 has been added to the enhancement layer reproduction image D1 or the enhancement layer reproduction image D1. 선택적인 FGS 디코딩 방법.Optional FGS decoding method. 제 17 항 내지 제 19 항에 있어서,20. The method of claim 17, wherein 상기 기본 계층 디코딩 단계는The base layer decoding step H.264 알고리즘으로 상기 기본 정보를 디코딩하는Decode the basic information with H.264 algorithm 선택적인 FGS 디코딩 방법.Optional FGS decoding method.
KR1020040010476A 2004-02-17 2004-02-17 Selective Fine Granular Scalable Coding Apparatus and Method thereof KR100626651B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040010476A KR100626651B1 (en) 2004-02-17 2004-02-17 Selective Fine Granular Scalable Coding Apparatus and Method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040010476A KR100626651B1 (en) 2004-02-17 2004-02-17 Selective Fine Granular Scalable Coding Apparatus and Method thereof

Publications (2)

Publication Number Publication Date
KR20050082102A true KR20050082102A (en) 2005-08-22
KR100626651B1 KR100626651B1 (en) 2006-09-21

Family

ID=37268579

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040010476A KR100626651B1 (en) 2004-02-17 2004-02-17 Selective Fine Granular Scalable Coding Apparatus and Method thereof

Country Status (1)

Country Link
KR (1) KR100626651B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100703778B1 (en) * 2005-04-29 2007-04-06 삼성전자주식회사 Method and apparatus for coding video supporting fast FGS
KR100763181B1 (en) * 2005-04-19 2007-10-05 삼성전자주식회사 Method and apparatus for improving coding rate by coding prediction information from base layer and enhancement layer
KR101005682B1 (en) * 2006-01-11 2011-01-05 콸콤 인코포레이티드 Video coding with fine granularity spatial scalability

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100763181B1 (en) * 2005-04-19 2007-10-05 삼성전자주식회사 Method and apparatus for improving coding rate by coding prediction information from base layer and enhancement layer
KR100703778B1 (en) * 2005-04-29 2007-04-06 삼성전자주식회사 Method and apparatus for coding video supporting fast FGS
KR101005682B1 (en) * 2006-01-11 2011-01-05 콸콤 인코포레이티드 Video coding with fine granularity spatial scalability
US8315308B2 (en) 2006-01-11 2012-11-20 Qualcomm Incorporated Video coding with fine granularity spatial scalability

Also Published As

Publication number Publication date
KR100626651B1 (en) 2006-09-21

Similar Documents

Publication Publication Date Title
US8249159B2 (en) Scalable video coding with grid motion estimation and compensation
US9942570B2 (en) Resource efficient video processing via prediction error computational adjustments
RU2452128C2 (en) Adaptive coding of video block header information
KR100950273B1 (en) Scalable video coding with two layer encoding and single layer decoding
Xin et al. Digital video transcoding
US6788740B1 (en) System and method for encoding and decoding enhancement layer data using base layer quantization data
US8085847B2 (en) Method for compressing/decompressing motion vectors of unsynchronized picture and apparatus using the same
Zhang et al. An overview of emerging video coding standards
Nguyen et al. Adaptive downsampling/upsampling for better video compression at low bit rate
KR20080066709A (en) Multiple layer video encoding
KR100626651B1 (en) Selective Fine Granular Scalable Coding Apparatus and Method thereof
Abd Al-azeez et al. Optimal quality ultra high video streaming based H. 265
JP2003535496A (en) Method and apparatus for encoding or decoding an image sequence
Atta et al. An efficient layered video codec based on DCT pyramid
KR20040039809A (en) Moving picture encoder and method for coding using the same
KR20150102874A (en) Method for coding image by using adaptive coding scheme and device for coding image using the method
Hsu et al. A new seamless bitstream switching scheme for H. 264 video adaptation with enhanced coding performance
Wu Reducing inverse quantization numbers for video transcoding
Pan Digital Video Coding–Techniques and Standards
Waingankar et al. Efficient low bit rate video compression technique for mobile applications
Lonetti et al. Temporal video transcoding for multimedia services
WO2006104357A1 (en) Method for compressing/decompressing motion vectors of unsynchronized picture and apparatus using the same
Sun et al. Video Compression
Seeling et al. Video Encoding
Zhou et al. Efficient bit stream switching of H. 264 coded video

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120910

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20130829

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee