KR20110066523A - Apparatus and method for scalable video decoding - Google Patents

Apparatus and method for scalable video decoding Download PDF

Info

Publication number
KR20110066523A
KR20110066523A KR1020090123211A KR20090123211A KR20110066523A KR 20110066523 A KR20110066523 A KR 20110066523A KR 1020090123211 A KR1020090123211 A KR 1020090123211A KR 20090123211 A KR20090123211 A KR 20090123211A KR 20110066523 A KR20110066523 A KR 20110066523A
Authority
KR
South Korea
Prior art keywords
layer
inverse
unit
inverse quantization
result
Prior art date
Application number
KR1020090123211A
Other languages
Korean (ko)
Inventor
조승현
박성모
이석호
김익균
엄낙웅
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020090123211A priority Critical patent/KR20110066523A/en
Publication of KR20110066523A publication Critical patent/KR20110066523A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PURPOSE: A scalable video decoding device and method thereof are provide to process each class about one part among a decoding process for real time decode by utilizing function blocks. CONSTITUTION: An inverse quantization and an inverse transform result are outputted from a layer selecting unit(330). A residual signal up-sampling unit(350) performs a residual signal up-sampling. A deblocking unit(370) deblocks a restored image. A texture up-sampling unit(380) texture-up-samples the deblocked recovered image. A restructuring unit(360) processes a process of a reconfiguring the recovered image about one class.

Description

스케일러블 비디오 디코딩 장치 및 방법{APPARATUS AND METHOD FOR SCALABLE VIDEO DECODING} Apparatus and method for scalable video decoding {APPARATUS AND METHOD FOR SCALABLE VIDEO DECODING}

본 발명은 스케일러블 비디오 디코딩 장치 및 방법에 관한 것으로, 특히 계층별 스트림이 동시에 처리될 수 있도록 하는 스케일러블 비디오 디코딩 장치 및 방법에 관한 것이다. The present invention relates to a scalable video decoding apparatus and method, and more particularly, to a scalable video decoding apparatus and method for allowing the streams for each layer can be processed simultaneously.

본 발명은 지식경제부의 IT성장동력기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2007-S-026-03, 과제명: MPCore 플랫폼 기반 다중 포맷 멀티미디어 SoC].The present invention is derived from a study conducted as part of the IT growth engine technology development project of the Ministry of Knowledge Economy [Task control number: 2007-S-026-03, task name: MPCore platform-based multi-format multimedia SoC].

방송망의 발달과 무선통신망과 인터넷 전용선 등의 고속화에 따라 네트워크 환경이 이전 보다 더욱 다양화되었으며 이용 가능한 네트워크는 개인이 처한 상황과 장소에 따라 수시로 바뀐다. With the development of broadcasting network and high speed of wireless communication network and Internet leased line, the network environment is more diversified than before.

한편 동영상을 비롯한 다양한 멀티미디어 서비스가 새로운 패러다임으로 활성화 되고 있으며, 통방융합 서비스의 등장으로 압축 부호화 기술만을 개발하던 시기와 달리 최근 디지털 멀티미디어의 생성, 전송 및 소비 환경은 광범위하게 급변 하고 있다. On the other hand, various multimedia services including video are being activated as a new paradigm. Unlike the time when only compression coding technology was developed due to the emergence of convergence convergence services, the generation, transmission and consumption environment of digital multimedia has recently changed rapidly.

현재 우리 주변에는 서로 다른 전송 용량 및 에러 발생율을 갖는 전송망이 혼재해 있으며, 기존의 방송 및 통신 서비스뿐만 아니라 DMB, IPTV 서비스와 같은 통신과 방송의 융합 서비스도 실현 되었다. At present, there are mixed transmission networks with different transmission capacities and error rates, and converged communication and broadcasting services such as DMB and IPTV services as well as existing broadcasting and communication services have been realized.

더욱이 통신 및 방송에서 이동성을 제공함 에 따라 비디오를 소비하는 단말 또한 다양한 화면 크기와 연산 능력을 가진 여러 종류의 제품들이 출시되었다.Moreover, as mobile communication and broadcasting provide mobility, various types of products with various screen sizes and computing powers have also been released.

현재 멀티미디어 서비스에 널리 쓰이고 있는 비디오 부호화 기술은 고정된 영상포맷(format)과 비트율(bit-rate)로 압축 및 전송하는 단일계층 압축 부호화(single layer video coding) 방식이다. 이는 근래의 변화된 네트워크 환경에서 시시각각 변화하는 전송 조건, 망의 특성, 사용자 선호도, 그리고 단말의 다양한 성능 등의 조건들에 모두 적합하도록 미리 부호화 하기 어렵기 때문에 끊김 없는 품질의 멀티미디어에 대한 사용자의 욕구를 충족 시킬 수 없다. A video coding technology widely used in multimedia services is a single layer video coding scheme that compresses and transmits at a fixed video format and bit rate. This is because it is difficult to encode in advance to suit all conditions such as transmission conditions, network characteristics, user preferences, and various performances of terminals in the recently changed network environment, thereby satisfying user's desire for seamless quality multimedia. Can't meet.

따라서 각 네트워크의 조건과 비디오를 시청하는 단말기의 성능에 비디오의 포맷 및 비트율을 적응시키기 위한 변환부호화(transcoding)나 비트량변환(transrating) 방식 등이 제안되었다. 하지만 이 방식들은 제한된 범위에서의 영상 형식 및 비트율의 변경 폭이 좁고 높은 복잡도를 유발함으로 인해 실시간 적응이 요구되는 서비스 환경에서 널리 쓰이지 못하고 있다.Accordingly, a transcoding method and a transrating method for adapting the format and the bit rate of the video to the conditions of each network and the performance of the terminal viewing the video have been proposed. However, these methods are not widely used in service environments requiring real-time adaptation due to the narrow range of video format and bit rate change and the high complexity.

스케일러빌리티(scalability)를 지원하는 비디오 부호화 방식은 기본계층(base layer)과 다수의 향상계층(enhancement layer)를 사용하여 하나의 압축된 비트 스트림(bitstream)으로 공간적, 시간적, 혹은 화질적 변경을 다양한 해상도 또는 다양한 화질을 지원할 수 있기 때문에 멀티미디어의 전송 및 소비 환경 적응을 위한 효과적인 해결책 중의 하나이다. A video encoding method that supports scalability uses a base layer and multiple enhancement layers to change spatial, temporal, or image quality changes in one compressed bitstream. Because it can support resolution or various image quality, it is one of the effective solutions for adapting multimedia transmission and consumption environment.

비디오 부호화에 있어서 스케일러빌리티 기능을 위한 기존 부호화표준은 MPEG-2, H.263 그리고 MPEG-4 part 2 Visual까지 계층 부호화에 기반한 여러 차례의 시도가 있었다. 하지만 이들은 하나의 계층으로 부호화하는 기존 압축 부호화 기법에 비해 부호화 효율이 낮고, 여러 종류의 스케일러빌리티를 종합적으로 지원하지 못하는 취약점이 있었다. The existing coding standards for scalability in video encoding have been attempted based on hierarchical coding up to MPEG-2, H.263 and MPEG-4 part 2 Visual. However, they have a weak coding efficiency compared to the conventional compression coding method of encoding one layer, and have a weakness in that they cannot comprehensively support various types of scalability.

MPEG-4 part 10 AVC/H.264 표준에 포함된 스케일러블 비디오 코딩은 이러한 문제점을 보완하여 부호화 효율이 좋으면서 시간, 공간, 화질의 여러 계층과 이들의 결합을 통해 다양한 스케일러빌리티를 제공한다.The scalable video coding included in the MPEG-4 part 10 AVC / H.264 standard compensates for this problem and provides various scalability through combination of various layers of time, space, and picture quality with good coding efficiency.

스케일러블 비디오 디코더는 단일계층만을 복호할 수 있는 기존의 비-스케일러블(non-scalable) 비디오 디코더와 비교했을 때 현저히 높은 복잡도를 갖는다. 특히, 많은 수의 계층으로 구성된 비트 스트림에서 최상위계층을 복호하기 위해서는 여러 하위계층의 디코딩 정보를 이용해야 하기 때문에 연산량이 크게 증가한다. Scalable video decoders have a significantly higher complexity compared to conventional non-scalable video decoders capable of decoding only a single layer. In particular, since the decoding information of several lower layers must be used to decode the top layer in a bit stream composed of a large number of layers, the amount of computation is greatly increased.

따라서, 실시간 복호를 위한 디코딩 과정 중 일부에 대하여 각 계층이 동시에 처리될 필요가 있다.Therefore, for some of the decoding processes for real time decoding, each layer needs to be processed simultaneously.

이에 본 발명에서는 비-스케일러블 비디오 디코더를 구성하는 기능블록들을 활용하여, 실시간 복호를 위한 디코딩 과정 중 일부에 대하여 각 계층이 동시에 처리될 수 있도록 하는 스케일러블 비디오 디코딩 장치 및 방법을 제공하고자 한다. Accordingly, an aspect of the present invention is to provide a scalable video decoding apparatus and method for allowing each layer to be simultaneously processed for a part of a decoding process for real-time decoding by utilizing functional blocks constituting a non-scalable video decoder.

본 발명의 제1 측면에 따르면 상기와 같은 문제점을 해결하기 위한 수단으로서, 엔트로피 디코딩, 인트라픽쳐 예측, 및 역양자화 및 역변환을 비트 스트림의 계층별로 병렬 처리하는 병렬 처리부; 상기 병렬 처리부의 출력 결과를 계층별로 순차적으로 선택하여 출력하는 계층 선택부; 상기 계층 선택부로부터 출력되는 엔트로피 디코딩결과를 이용하여 움직임 보상을 수행하는 움직임 보상부; 상기 계층 선택부로부터 출력되는 역양자화 및 역변환결과를 이용하여 잔여신호 업 샘플링을 수행하는 잔여신호 업 샘플링부; 복원 이미지를 디블록킹하는 디블록킹부; 상기 디블록킹부로부터 출력되는 디블록킹된 복원 이미지를 텍스쳐 업 샘플링하는 텍스쳐 업 샘플링부; 및 상기 계층 선택부, 상기 움직임 보상부, 상기 잔여신호 업 샘플링부, 및 상기 텍스쳐 업 샘플링부의 출력을 선택적으로 이용하여 복원 이미지를 재구성하는 과정을 하나 이상의 계층에 대해 동시에 처리하는 재구성부를 포함할 수 있다. According to a first aspect of the present invention, there is provided a means for solving the above problems, comprising: a parallel processor for parallel processing of entropy decoding, intra-picture prediction, and inverse quantization and inverse transformation for each layer of a bit stream; A hierarchy selector for sequentially selecting and outputting an output result of the parallel processor for each layer; A motion compensator for performing motion compensation using an entropy decoding result output from the layer selector; A residual signal upsampling unit configured to perform residual signal upsampling using the inverse quantization and inverse transformation results output from the layer selector; A deblocking unit to deblock the reconstructed image; A texture up sampling unit configured to texture up sample the deblocked reconstructed image output from the deblocking unit; And a reconstruction unit configured to simultaneously perform reconstruction of a reconstructed image on at least one layer by selectively using outputs of the layer selector, the motion compensator, the residual signal upsampler, and the texture upsampler. have.

상기 병렬 처리부는 상기 비트 스트림을 계층별 스트림으로 나누는 비트 스 트림 공급부; 및 상기 계층별 스트림 각각에 대한 엔트로피 디코딩, 인트라픽쳐 예측, 및 역양자화 및 역변환을 병렬로 수행하는 다수의 계층 처리부를 포함할 수 있다.The parallel processing unit includes a bit stream supply unit for dividing the bit stream into a stream for each layer; And a plurality of layer processing units for performing entropy decoding, intra-picture prediction, and inverse quantization and inverse transformation on each of the layer-specific streams in parallel.

상기 계층 선택부는 상기 병렬 처리부로부터 병렬 출력되는 인트라픽쳐 예측결과들 중에서, 현재 복원계층에 대한 하위계층의 인트라픽쳐 예측결과를 선택하여 출력하는 인트라픽쳐 예측결과 선택부; 상기 병렬 처리부로부터 병렬 출력되는 역양자화 및 역변환결과들 중에서 상기 하위계층의 역양자화 및 역변환결과를 선택하여 출력하는 제1 역양자화 및 역변환결과 선택부; 상기 병렬 처리부로부터 병렬 출력되는 역양자화 및 역변환결과들 중에서 상기 현재 복원계층의 역양자화 및 역변환결과를 선택하여 출력하는 제2 역양자화 및 역변환 선택부; 및 상기 병렬 처리부로부터 병렬 출력되는 엔트로피 디코딩결과들 중에서 상기 현재 복원계층 또는 상기 하위 계층의 움직임 벡터를 선택하여 상기 움직임 보상부로 출력하는 엔트로피 디코딩결과 선택부를 포함할 수 있다.The layer selector may include an intrapicture prediction result selector that selects and outputs an intrapicture prediction result of a lower layer of a current reconstruction layer among intrapicture prediction results output in parallel from the parallel processor; A first inverse quantization and inverse transform result selector configured to select and output inverse quantization and inverse transform results of the lower layer among inverse quantization and inverse transform results output from the parallel processor; A second inverse quantization and inverse transform selection unit for selecting and outputting inverse quantization and inverse transformation results of the current restoration layer among inverse quantization and inverse transformation results output from the parallel processor; And an entropy decoding result selector which selects a motion vector of the current reconstruction layer or the lower layer among the entropy decoding results output in parallel from the parallel processor and outputs the motion vector to the motion compensation unit.

상기 디블록킹부는 상기 재구성부로부터 출력되는 상기 하위계층의 복원이미지를 디블록킹하여 상기 텍스쳐 업 샘플링부에 제공하는 1차 디블록킹 필터; 및 상기 재구성부로부터 출력되는 상기 현재 복원계층의 복원이미지를 디블록킹하여 프레임 메모리에 제공하는 2차 디블록킹 필터를 포함할 수 있다.The deblocking unit may deblock the restored image of the lower layer output from the reconstruction unit and provide the first deblocking filter to the texture up sampling unit; And a second deblocking filter for deblocking a reconstructed image of the current reconstruction layer output from the reconstruction unit and providing the deblocking image to a frame memory.

상기 재구성부는 계층간 텍스쳐 예측시에는, 상기 제1역양자화 및 역변환 결과 선택부와 상기 인트라픽쳐 예측 결과 선택부의 출력을 재구성하여 상기 하위계층의 복원이미지를 생성하고, 상기 하위계층의 복원이미지를 상기 1차 디블록킹 필 터 및 상기 텍스쳐 업 샘플링부를 통해 디블록킹 및 텍스쳐 업 샘플링한 후 상기 현재 복원계층의 역양자화 및 역변환결과를 더하여 상기 현재 복원계층의 복원이미지를 생성할 수 있다.When the inter-layer texture prediction is performed, the reconstruction unit reconstructs outputs of the first inverse quantization and inverse transform result selection unit and the intra picture prediction result selection unit to generate a reconstruction image of the lower layer, and reconstructs the reconstruction image of the lower layer. After deblocking and texture upsampling through a first deblocking filter and the texture upsampling unit, a reconstructed image of the current reconstruction layer may be generated by adding a result of inverse quantization and inverse transformation of the current reconstruction layer.

또한 상기 재구성부는 계층간 잔여신호 예측시에는, 상기 잔여신호 업 샘플링부의 출력, 상기 제2 역양자화 및 역변환 결과 선택부의 출력, 및 상기 움직임 보상부의 출력을 재구성하여 상기 현재 복원계층의 복원이미지를 생성할 수 있다.The reconstructor may reconstruct the output of the residual signal upsampler, the output of the second inverse quantization and inverse transform result selector, and the output of the motion compensator to generate a reconstructed image of the current reconstruction layer when predicting the residual signal between layers. can do.

또한 상기 재구성부는 계층간 움직임 예측시에는, 상기 움직임 보상부가 상기 하위계층의 움직임 벡터를 스케일링하여 구한 예측 이미지에 상기 제 2 역양자화 및 역변환결과 선택부의 출력을 더하여 상기 현재 복원계층의 복원이미지를 생성할 수 있다.The reconstructor may generate a reconstructed image of the current reconstruction layer by adding the output of the second inverse quantization and inverse transform result selector to a prediction image obtained by scaling the motion vector of the lower layer, when the inter-layer motion prediction is performed. can do.

본 발명의 제2 측면에 따르면 상기와 같은 문제점을 해결하기 위한 수단으로서, 계층간 텍스쳐 예측을 수행하는 스케일러블 비디오 복호화 방법은, 엔트로피 디코딩, 인트라픽쳐 예측, 및 역양자화 및 역변환을 비트 스트림의 계층별로 병렬 처리하는 단계; 현재 복원계층에 대한 하위계층의 역양자화 및 역변환 결과, 및 인트라픽쳐 예측 결과를 선택하고 재구성하여 상기 하위계층의 복원이미지를 생성하는 단계; 상기 하위계층의 복원이미지에 대해 디블록킹 및 텍스쳐 업 샘플링을 수행하여 텍스쳐 업 샘플링 결과를 획득하는 단계; 및 상기 텍스쳐 업 샘플링 결과와 상기 현재 복원계층의 역양자화 및 역변환 결과를 이용하여 현재 복원계층의 복원이미지를 재구성하는 단계를 포함할 수 있다. According to the second aspect of the present invention, as a means for solving the above problems, the scalable video decoding method for performing inter-layer texture prediction includes entropy decoding, intra-picture prediction, and inverse quantization and inverse transformation of a bit stream. Parallel processing for each; Generating a reconstructed image of the lower layer by selecting and reconstructing a result of inverse quantization and inverse transformation of the lower layer with respect to a current reconstruction layer and an intra picture prediction result; Obtaining a texture upsampling result by performing deblocking and texture upsampling on the reconstructed image of the lower layer; And reconstructing the reconstructed image of the current reconstruction layer by using the texture up-sampling result and the inverse quantization and inverse transformation result of the current reconstruction layer.

본 발명의 제3 측면에 따르면 상기와 같은 문제점을 해결하기 위한 수단으로 서, 계층간 잔여신호 예측을 수행하는 스케일러블 비디오 복호화 방법은, 엔트로피 디코딩, 인트라픽쳐 예측, 및 역양자화 및 역변환을 비트 스트림의 계층별로 병렬 처리하는 단계; 현재 복원계층에 대한 하위계층의 역양자화 및 역변환 결과를 선택하여 잔여신호 업 샘플링을 수행하는 단계; 현재 복원계층의 역양자화 및 역변환 결과를 선택하는 단계; 및 상기 잔여신호 업 샘플링의 수행 결과와 상기 현재 복원계층의 역양자화 및 역변환 결과를 이용하여 현재 복원계층의 복원이미지를 재구성하는 단계를 포함할 수 있다.According to a third aspect of the present invention, as a means for solving the above problems, the scalable video decoding method for performing inter-layer residual signal prediction includes a bit stream for entropy decoding, intra-picture prediction, and inverse quantization and inverse transformation. Parallel processing for each layer of the; Selecting a result of inverse quantization and inverse transformation of a lower layer with respect to a current reconstruction layer to perform residual signal upsampling; Selecting a result of inverse quantization and inverse transformation of a current restoration layer; And reconstructing a reconstructed image of the current reconstructed layer by using the result of performing the residual signal upsampling and the inverse quantization and inverse transform result of the current reconstructed layer.

본 발명의 제4 측면에 따르면 상기와 같은 문제점을 해결하기 위한 수단으로서, 계층간 움직임 예측을 수행하는 스케일러블 비디오 복호화 방법은, 엔트로피 디코딩, 인트라픽쳐 예측, 및 역양자화 및 역변환을 비트 스트림의 계층별로 병렬 처리하는 단계; 현재 복원계층에 대한 하위계층의 엔트로피 디코딩 결과에 포함된 움직임 벡터를 선택하고 움직임 보상을 수행하여 현재 복원계층의 예측 이미지를 획득하는 단계; 현재 복원계층의 역양자화 및 역변환 결과를 선택하는 단계; 및 상기 현재 복원계층의 예측 이미지와 상기 현재 복원계층의 역양자화 및 역변환 결과를 이용하여 현재 복원계층의 복원이미지를 재구성하는 단계를 포함할 수 있다.According to the fourth aspect of the present invention, as a means for solving the above problems, the scalable video decoding method for performing inter-layer motion prediction includes entropy decoding, intra-picture prediction, and inverse quantization and inverse transformation of a bit stream. Parallel processing for each; Selecting a motion vector included in the entropy decoding result of the lower layer with respect to the current reconstruction layer and performing motion compensation to obtain a predicted image of the current reconstruction layer; Selecting a result of inverse quantization and inverse transformation of a current restoration layer; And reconstructing the reconstructed image of the current reconstructed layer by using the predicted image of the current reconstructed layer and the result of inverse quantization and inverse transformation of the current reconstructed layer.

이와 같이 본 발명의 스케일러블 비디오 디코딩 장치 및 방법은 기존의 비-스케일러블 비디오 디코더를 구성하는 일부 기능블록들 확장하고, 스케일러빌리티를 제공하기 위해 필요한 기능블록을 추가함으로써, 실시간 복호를 위한 디코딩 과 정 중 일부에 대하여 각 계층이 동시에 처리될 수 있도록 한다. 이에 본 발명은 스케일러블 비디오 디코딩 장치의 성능을 용이하게 개선할 수 있는 효과를 제공한다.As described above, the apparatus and method for scalable video decoding of the present invention extends some functional blocks constituting the existing non-scalable video decoder and adds functional blocks necessary to provide scalability, thereby decoding and decoding for real-time decoding. For some of the rules, each layer can be processed simultaneously. Accordingly, the present invention provides an effect that can easily improve the performance of the scalable video decoding apparatus.

이하 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있는 바람직한 실시 예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시 예에 대한 동작 원리를 상세하게 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, in describing in detail the operating principle of the preferred embodiment of the present invention, if it is determined that the detailed description of the related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. In order to clearly illustrate the present invention, parts not related to the description are omitted, and like parts are denoted by similar reference numerals throughout the specification.

또한, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. In addition, when a part is said to "include" a certain component, this means that it may further include other components, except to exclude other components unless otherwise stated.

본 발명을 설명에 앞서, 본 발명의 이해를 돕기 위해 일반적인 비-스케일러블 비디오 디코더의 구성 및 동작을 먼저 설명하면 다음과 같다. Prior to describing the present invention, the configuration and operation of a general non-scalable video decoder will be described first to help understanding of the present invention.

도1은 일반적인 비-스케일러블 비디오 디코더의 구성을 도시한 도면이다. 1 is a diagram illustrating a configuration of a general non-scalable video decoder.

도 1을 참조하면, 일반적인 비-스케일러블 비디오 디코더(100)는 비트 스트림을 입력받아 디코딩에 필요한 인트라 예측모드(intra prediction mode), 변환계 수(transform coefficient), 움직임 벡터(motion vector) 등의 문법구문 값을 출력하는 엔트로피 디코더(110), 인트라 예측모드를 입력 받아 화면내에서 예측된 이미지를 출력하는 인트라픽쳐 예측부(120), 변환계수를 입력받아 역양자화(inverse quantization)와 역변환(inverse transform)을 통해 잔여신호(residual)를 출력하는 역양자화 및 역변환부(130), 움직임 벡터를 입력받아 화면 간에서 예측된 이미지를 출력하는 움직임 보상부(140), 인트라픽쳐 예측부(120) 또는 움직임 보상부(140)를 통해 예측된 이미지와 잔여신호를 합하여 복원된 이미지를 생성하는 재구성부(150), 복원된 이미지의 블록왜곡을 제거하는 디블록킹 필터(160), 비-스케일러블 디코딩 과정과 다른 기능블록들을 제어하는 디코딩 제어부(170), 및 참조 및 비참조 프레임을 저장하기 위한 프레임 메모리(180)를 포함하여 이루어진다. Referring to FIG. 1, a general non-scalable video decoder 100 receives a bit stream and receives an intra prediction mode, a transform coefficient, a motion vector, etc. required for decoding. An entropy decoder 110 that outputs a grammar syntax value, an intra picture prediction unit 120 that receives an intra prediction mode, and outputs an image predicted on the screen, and receives an inverse quantization and inverse transformation by receiving a transform coefficient. an inverse quantization and inverse transform unit 130 that outputs a residual signal through a transform, a motion compensator 140 that receives a motion vector, and outputs an image predicted between screens, an intra picture prediction unit 120, or A reconstruction unit 150 for generating a reconstructed image by adding the residual image and the image predicted by the motion compensator 140, a deblocking filter 160 for removing block distortion of the reconstructed image, - comprises a frame memory 180 for storing a scalable decoding process and the decoding control unit 170 to control other functional blocks, and the reference and non-reference frames.

도1와 같은 기능블록들의 구성과 연결이 비-스케일러블 비디오 디코더(100)를 구현하는 유일한 방법은 아니며, 경우에 따라 일부의 기능을 별도의 기능블록에 구현할 수 있다.The configuration and connection of the functional blocks as shown in FIG. 1 are not the only way to implement the non-scalable video decoder 100. In some cases, some functions may be implemented in separate functional blocks.

도1의 비-스케일러블 비디오 디코더(100)는 파이프라인 방식으로 동작할 수 있으며, 일반적으로 각 기능블록은 하나의 매크로블록에 대한 처리를 끝내고 나서 다음 매크로블록에 대한 처리를 시작한다. The non-scalable video decoder 100 of FIG. 1 may operate in a pipelined manner. In general, each functional block ends processing of one macroblock and then starts processing of the next macroblock.

도 2는 도1의 비-스케일러블 비디오 디코더의 파이프라인 동작의 일면을 나타낸 도면이다. FIG. 2 is a diagram illustrating one side of a pipeline operation of the non-scalable video decoder of FIG. 1.

도 2에서, ED, ITIQ, IP, MC, REC, 및 DF각각은 도1의 엔트로피 디코더(110), 역양자화 및 역변환부(130), 인트라픽쳐 예측부(120), 움직임 보상 부(140), 재구성부(150), 및 디블록킹 필터(160) 각각의 한 매크로블록에 대한 동작을 나타낸다. 세로 선은 파이프라인 단계를 구분하기 위해 나타낸 것이며, 동일한 파이프라인 단계에 있는 기능블록들은 동시에 수행된다. In FIG. 2, ED, ITIQ, IP, MC, REC, and DF are respectively entropy decoder 110, inverse quantization and inverse transform unit 130, intra picture prediction unit 120, and motion compensation unit 140. , An operation of one macroblock of each of the reconstruction unit 150 and the deblocking filter 160 is shown. Vertical lines are shown to distinguish pipeline stages, and functional blocks in the same pipeline stage are executed simultaneously.

계속하여 도2를 참조하여, 비-스케일러블 비디오 디코더의 파이프라인 동작을 설명하면 다음과 같다. 2, the pipeline operation of the non-scalable video decoder will be described.

먼저, 엔트로피 디코더(110)는 하나의 매크로블록에 대하여 엔트로피 디코딩을 수행하고(S200), 역양자화 및 역변환부(130)는 역양자화 및 역변환 과정을 수행하면서(S210), 매크로블록 타입에 따라 인트라픽쳐 예측부(120)를 통해 인트라픽쳐 예측을 수행하거나(S220), 또는 움직임 보상부(140)를 통해 움직임 보상을 수행한다(S220). First, the entropy decoder 110 performs entropy decoding on one macroblock (S200), and the inverse quantization and inverse transform unit 130 performs an inverse quantization and inverse transformation process (S210), according to the macroblock type. Intra picture prediction is performed through the picture predictor 120 (S220), or motion compensation is performed through the motion compensator 140 (S220).

그러면 재구성부(150)는 S220 또는 S220의 동작 결과를 이용하여 복원이미지를 생성하고, 디블록킹 필터(160)는 이에 대한 디블록킹 필터를 수행한 후 프레임 메모리(180)에 최종 저장해준다. Then, the reconstructor 150 generates a reconstructed image by using the operation result of S220 or S220, and the deblocking filter 160 performs a deblocking filter on the final image and finally stores the reconstructed image in the frame memory 180.

도2에서, 가로로 연속한 파이프라인 단계들은 연속한 매크로블록에 대하여 같은 동작을 수행한다. 예를 들어, S200에서 N 번째 매크로블록에 대한 엔트로피 디코딩이 수행된다고 가정하면, S201에서는 N+1번째, S202에서는 N+2번째 매크로블록에 대한 엔트로피 디코딩이 수행될 수 있다. In Figure 2, horizontally continuous pipeline stages perform the same operation for consecutive macroblocks. For example, assuming that entropy decoding is performed on the N-th macroblock in S200, entropy decoding may be performed on the N + 1 th macroblock in S201 and the N + 2 th macroblock in S202.

도3은 본 발명의 일 실시예에 따른 스케일러블 비디오 디코더의 구성을 도시한 도면이다. 3 is a diagram illustrating a configuration of a scalable video decoder according to an embodiment of the present invention.

도3을 참조하면, 본 발명의 스케일러블 비디오 디코더(300)는 비트 스트림 공급부(310), 다수의 계층 처리부(321~32n), 계층 선택부(330), 움직임 보상부(340), 잔여신호 업 샘플링부(350), 재구성부(360), 디블록킹부(370), 텍스쳐 업 샘플링부(380), 디코딩 제어부(390), 및 프레임 메모리(400)를 포함하여 이루어진다. Referring to FIG. 3, the scalable video decoder 300 of the present invention includes a bit stream supply unit 310, a plurality of layer processors 321 ˜ 32n, a layer selector 330, a motion compensator 340, and a residual signal. The up sampling unit 350, the reconstruction unit 360, the deblocking unit 370, the texture up sampling unit 380, the decoding control unit 390, and the frame memory 400 are included.

상기 다수의 계층 처리부(321~32n) 각각은 다시 엔트로피 디코더(411~41n), 인트라픽쳐 예측부(421~42n), 및 역양자화 및 역변환부(431~43n)를 포함하며, 상기 디블록킹부(370)는 1차 디블록킹 필터(371) 및 2차 디블록킹 필터(372)를 포함하며, 상기 계층 선택부(330)는 인트라픽쳐 예측결과 선택부(331), 제1 역양자화 및 역변환결과 선택부(332), 제2 역양자화 및 역변환결과 선택부(333), 엔트로피 디코딩결과 선택부(334)를 포함한다. 참고로, 상기 다수의 계층 처리부(321~32n)의 개수는 본 발명의 스케일러블 비디오 디코더가 지원하고자 하는 계층의 수에 따라 결정될 수 있다. Each of the plurality of hierarchical processing units 321 to 32n again includes an entropy decoder 411 to 41n, an intra picture prediction unit 421 to 42n, and an inverse quantization and inverse transform unit 431 to 43n. 370 includes a first order deblocking filter 371 and a second order deblocking filter 372, and the layer selector 330 includes an intra picture prediction result selector 331, a first inverse quantization, and an inverse transform result. And a selector 332, a second inverse quantization and inverse transform result selector 333, and an entropy decoding result selector 334. For reference, the number of the plurality of layer processors 321 ˜ 32n may be determined according to the number of layers that the scalable video decoder of the present invention intends to support.

즉, 본 발명에서는 일반적인 비-스케일러블 비디오 디코더를 구성하는 일부 기능블록들 확장하고, 스케일러빌리티를 제공하기 위해 필요한 기능블록을 추가함으로써, 실시간 복호를 위한 디코딩 과정 중 일부에 대하여 각 계층이 동시에 처리되도록 함을 알 수 있다. That is, in the present invention, by extending some functional blocks constituting a general non-scalable video decoder and adding functional blocks necessary to provide scalability, each layer simultaneously processes some of the decoding processes for real-time decoding. It can be seen that.

이하, 각 구성 요소의 기능을 살펴보면 다음과 같다. Hereinafter, the function of each component will be described.

비트 스트림 공급부(310)는 스케일러블 코딩 방식에 따라 기본계층(base layer)과 하나 이상의 향상계층(Enhancement layer)으로 압축된 비트 스트림(bitstream)이 입력되면, 이를 계층별 스트림으로 나누어 출력해준다. The bit stream supply unit 310 outputs a bit stream compressed into a base layer and at least one enhancement layer according to a scalable coding scheme, and divides the bit stream into a stream for each layer.

각 계층 처리부(321~32n)는 엔트로피 디코더(411~41n), 인트라픽쳐 예측부(421~42n), 및 역양자화 및 역변환부(431~43n)를 구비하여, 계층별 스트림 각각에 대한 엔트로피 디코딩, 인트라픽쳐 예측, 및 역양자화 및 역변환을 병렬로 수행한다. 즉, 각 엔트로피 디코더(411~41n)는 계층별 스트림을 제공받고 이를 파싱하여, 디코딩에 필요한 인트라 예측모드(intra prediction mode), 변환계수(transform coefficient), 움직임 벡터(motion vector) 등의 문법구문 값을 계층별로 출력한다. 각 인트라픽쳐 예측부(421~42n)는 해당 엔트로피 디코더(411~41n)로부터 인트라 예측모드를 입력받고 이에 대한 인트라픽쳐 예측을 수행하여, 계층별 화면내 예측이미지를 획득 및 출력한다. 각 역양자화 및 역변환부(431~43n)는 엔트로피 디코더(411~41n)로부터 변환계수를 입력받고 이에 대한 역양자 및 역변환을 수행하여, 계층별 잔여신호를 획득 및 출력한다. Each layer processor 321 to 32n includes an entropy decoder 411 to 41n, an intra picture predictor 421 to 42n, and an inverse quantization and inverse transform unit 431 to 43n to decode entropy for each stream for each layer. Intra picture prediction, and inverse quantization and inverse transformation are performed in parallel. That is, each of the entropy decoders 411 to 41n is provided with a stream for each layer and parses it, and thus, syntax syntaxes such as an intra prediction mode, a transform coefficient, and a motion vector required for decoding are provided. Print the values hierarchically. Each of the intra picture prediction units 421 to 42n receives an intra prediction mode from the corresponding entropy decoders 411 to 41n, performs intra picture prediction on the intra prediction mode, and acquires and outputs an intra prediction image for each layer. Each inverse quantization and inverse transform unit 431 to 43n receives a transform coefficient from the entropy decoders 411 to 41n, performs inverse quantization and inverse transformation on the same, and acquires and outputs a residual signal for each layer.

인트라픽쳐 예측결과 선택부(331)는 인트라픽쳐 예측부(421~42n) 모두의 출력을 입력받고, 디코딩 제어부(390)의 제어하에 스케일러블 비디오 디코더가 현재 복원하고자 하는 계층(이하, 현재 복원계층)의 하위계층(예를 들어, N-1번째 계층)에 대응되는 인트라픽쳐 예측결과만을 선택하고, 이를 재구성부(360)에 제공한다. The intra picture prediction result selector 331 receives the outputs of all the intra picture predictors 421 to 42n, and under the control of the decoding controller 390, a layer to which the scalable video decoder is currently reconstructed (hereinafter, referred to as a current reconstruction layer). Selects only the intra-picture prediction result corresponding to the lower layer (for example, the N-th layer) of the T1 and provides it to the reconstruction unit 360.

제1 역양자화 및 역변환결과 선택부(332)는 역양자화 및 역변환부(431~43n) 모두의 출력을 입력받고, 디코딩 제어부(390)의 제어하에 하위계층(N-1번째 계층)에 대응되는 역양자화 및 역변환결과만을 선택하고, 이를 재구성부(360)에 제공한 다. The first inverse quantization and inverse transform result selector 332 receives the outputs of both the inverse quantization and inverse transform units 431 to 43n and corresponds to a lower layer (N-1 th layer) under the control of the decoding controller 390. Only inverse quantization and inverse transformation results are selected and provided to the reconstruction unit 360.

제2 역양자화 및 역변환결과 선택부(333)는 역양자화 및 역변환부(431~43n) 모두의 출력을 입력받고, 디코딩 제어부(390)의 제어하에 현재 복원계층(N번째 계층)에 대응되는 역양자화 및 역변환결과만을 선택하고, 이를 재구성부(360)에 제공한다. The second inverse quantization and inverse transform result selector 333 receives the outputs of both the inverse quantization and inverse transform units 431 to 43n and inversely corresponds to the current reconstruction layer (Nth layer) under the control of the decoding controller 390. Only the quantization and inverse transform results are selected and provided to the reconstruction unit 360.

움직임 보상부(340)는 계층간 움직임 예측 동작을 지원할 수 있도록, 엔트로피 디코딩결과 선택부(334)로부터 출력되는 움직임 벡터에 대한 움직임 보상을 수행하여 화면간 예측이미지를 생성한다. 즉, 움직임 보상부(340)는 계층간 움직임 예측시에는 하위계층(N-1 번째 계층)의 움직임 벡터를 입력받아 스케일링하여 화면간 예측이미지를 생성하여 출력한다. 그러나, 계층간 움직임 예측 동작이 필요하지 않는 경우에는(즉, 특정 계층의 움직임 보상 동작만을 필요한 경우에는) 해당 계층의 움직임 벡터를 입력받아 움직임 보상 동작을 수행할 수도 있다. The motion compensator 340 generates the inter prediction image by performing motion compensation on the motion vector output from the entropy decoding result selector 334 so as to support the inter-layer motion prediction operation. That is, the motion compensator 340 receives and scales a motion vector of a lower layer (N-1 th layer) to generate and output an inter prediction image when predicting inter-layer motion. However, when the inter-layer motion prediction operation is not needed (that is, when only the motion compensation operation of a specific layer is required), the motion compensation operation may be performed by receiving the motion vector of the corresponding layer.

잔여신호 업 샘플링부(350)는 계층간 잔여신호 예측 동작을 지원할 수 있도록, 제1 역양자화 및 역변환결과 선택부(332)의 출력에 대해 잔여신호 업 샘플링을 수행한다. 즉, 하위계층(N-1 번째 계층)에 대응되는 역양자화 및 역변환결과를 이용하여 잔여신호 업 샘플링을 수행한다.The residual signal upsampling unit 350 performs residual signal upsampling on the output of the first inverse quantization and inverse transform result selector 332 to support the inter-layer residual signal prediction operation. That is, the residual signal upsampling is performed using the inverse quantization and inverse transform results corresponding to the lower layer (N-1 th layer).

재구성부(360)는 자신에 입력된 매크로 블록의 타입과 계층에 따라 인트라픽쳐 예측결과 선택부(331), 제1 및 제2 역양자화 및 역변환결과 선택부(332, 333), 1차 디블록킹 필터(371), 텍스쳐 업 샘플링부(380), 및 움직임 보상부(340)의 출력을 선택적으로 이용하여, 하나 이상 계층의 재구성 과정을 동시에 처리한다. The reconstructor 360 may include an intra-picture prediction result selector 331, first and second inverse quantization and inverse transform result selectors 332 and 333, and primary deblocking according to the type and layer of the macroblock input thereto. The output of the filter 371, the texture up sampling unit 380, and the motion compensator 340 is selectively used to simultaneously process the reconstruction of one or more layers.

더욱 상세하게는, 계층간 텍스쳐 예측시에, 재구성부(360)는 인트라픽쳐 예측결과 선택부(331), 제1 역양자화 및 역변환결과 선택부(332)의 출력을 재구성하여 하위계층의 복원이미지를 1차적으로 생성한 후, 1차 디블록킹 필터(371), 및 텍스쳐 업 샘플링부(380)을 통해 이에 대응되는 텍스쳐 업 샘플링 결과를 획득한다. 그리고 나서 제2 역양자화 및 역변환결과 선택부(333)의 출력을 추가적으로 입력받고, 이에 상기 텍스쳐 업 샘플링 결과를 더하여 현재 복원계층의 복원이미지를 최종적으로 생성하고, 2차 디블록킹 필터(372)를 거쳐 프레임 메모리(400)에 저장해준다. More specifically, during inter-layer texture prediction, the reconstruction unit 360 reconstructs the outputs of the intra picture prediction result selection unit 331 and the first inverse quantization and inverse transformation result selection unit 332 to reconstruct the image of the lower layer. Is generated first, and then a texture up-sampling result corresponding thereto is obtained through the first deblocking filter 371 and the texture up-sampling unit 380. Then, the output of the second inverse quantization and inverse transform result selector 333 is additionally input, and the texture up-sampling result is added to finally generate a reconstructed image of the current reconstruction layer, and the second deblocking filter 372 is added. After that, it is stored in the frame memory 400.

계층간 잔여신호 예측시에, 재구성부(360)는 잔여신호 업 샘플링부(350)의 출력을 이용하여 하위계층의 잔여신호 업 샘플링 결과를 획득하면서, 제2 역양자화 및 역변환결과 선택부(333)를 통해 현재 복원계층의 잔여신호를 획득한다. 그리고 하위계층에 대한 잔여신호 업 샘플링 결과에 현재 복원계층의 잔여신호를 더한 후, 다시 움직임 보상부(340)의 출력 결과를 더하여 현재 복원계층의 복원이미지를 생성하고, 이를 2차 디블록킹 필터(372)를 통해 프레임 메모리(400)에 저장해준다. In the inter-layer residual signal prediction, the reconstruction unit 360 obtains the residual signal up-sampling result of the lower layer by using the output of the residual signal up-sampling unit 350, and selects the second inverse quantization and inverse transform result selection unit 333. ) To obtain the residual signal of the current reconstruction layer. After adding the residual signal of the current reconstruction layer to the residual signal upsampling result for the lower layer, the output image of the motion compensation unit 340 is added again to generate a reconstructed image of the current reconstruction layer, and the second deblocking filter ( 372 is stored in the frame memory 400.

계층간 움직임 예측시에, 재구성부(360)는 움직임 보상부(340)가 하위계층의 움직임 벡터를 스케일링하여 구한 예측 이미지에 제 2 역양자화 및 역변환결과 선택부(333)를 통해 획득된 현재 복원계층의 잔여신호를 더하여, 현재 복원계층의 복원이미지를 생성한다. In inter-layer motion prediction, the reconstructor 360 reconstructs the current image obtained by the second inverse quantization and inverse transform result selector 333 in the prediction image obtained by the motion compensator 340 scaling the motion vector of the lower layer. The residual signal of the layer is added to generate a reconstructed image of the current reconstruction layer.

디블록킹부(370)는 1차 디블록킹 필터(371) 및 2차 디블록킹 필터(372)를 구비하며, 1차 디블록킹 필터(371)는 계층간 텍스쳐 예측 모드시에 활성화되어 하위 계층의 복원이미지를 디블록킹하여 텍스쳐 업 샘플링부(380)에 전달한다. 그리고 2차 디블록킹 필터(372)는 재구성부(360)로부터 전송되는 현재 복원계층의 복원이미지가 수신하고, 이를 디블록킹하여 프레임 메모리(400)에 저장한다.The deblocking unit 370 includes a first deblocking filter 371 and a second deblocking filter 372, and the first deblocking filter 371 is activated in the inter-layer texture prediction mode to restore the lower layer. The image is deblocked and transferred to the texture up sampling unit 380. The second deblocking filter 372 receives the reconstructed image of the current reconstruction layer transmitted from the reconstruction unit 360, deblocks the received reconstruction image, and stores the deblocking image in the frame memory 400.

텍스쳐 업 샘플링부(380)는 계층간 텍스쳐 예측 모드시에 활성화되며, 1차 디블록킹 필터(371)로부터 디블록킹된 복원이미지가 전송되면, 이를 텍스쳐 업 샘플링하여 재구성부(360)에 제공한다. The texture up sampling unit 380 is activated in the inter-layer texture prediction mode, and when the deblocked reconstructed image is transmitted from the first deblocking filter 371, the texture up sampling unit 380 provides the texture up sampling to the reconstructing unit 360.

또한, 상기의 실시예에서는 다수의 계층 처리부를 통해 기본계층과 하나 이상의 향상계층의 스트림이 병렬 처리되는 것이 가장 바람직하나, 여러 가지 외부 요인에 의해 다수의 계층 처리부를 이용한 병렬 처리가 불가능한 경우에는, 하나의 계층 처리부만을 이용하여 기본계층과 하나 이상의 향상계층의 스트림을 직렬 처리해 줄 수도 있다. 즉, 하나의 계층 처리부가 기본계층과 하나 이상의 향상계층의 스트림을 계층순으로 순차적으로 처리하도록 할 수도 있다.Further, in the above embodiment, it is most preferable that the streams of the base layer and one or more enhancement layers are processed in parallel through a plurality of layer processing units. However, when parallel processing using the plurality of layer processing units is impossible due to various external factors, The stream of the base layer and one or more enhancement layers may be serially processed using only one layer processor. That is, one layer processor may sequentially process the streams of the base layer and the one or more enhancement layers in the order of the layers.

도4는 도3의 스케일러블 비디오 디코더를 이용한 계층간 텍스쳐 예측방법(즉, I_BL 타입의 매크로블록의 예측방법)을 설명하기 위한 도면이다. FIG. 4 is a diagram for describing an inter-layer texture prediction method (that is, an I_BL type macroblock prediction method) using the scalable video decoder of FIG. 3.

도4에서는, 설명의 편이를 위해 두 개의 계층 처리부(321,322)를 구비하여, 기본계층과 향상계층으로 구성되는 2계층의 비트 스트림을 입력받아 향상계층의 복원이미지를 획득하는 경우에 한하여 설명하기로 한다. In FIG. 4, for convenience of description, two layer processing units 321 and 322 are provided, and only the case of obtaining a reconstructed image of an enhancement layer by receiving a bit stream of two layers including a base layer and an enhancement layer is input. do.

도4에 도시된, 기본계층의 ED1, ITIQ1, IP1는 도3의 제1 계층 처리부(321)에 구비되는 제1 엔트로피 디코더(411), 제1 역양자화 및 역변환부(431), 제1 인트라픽쳐 예측부(421)의 한 매크로블록에 대한 동작을, 향상계층의 ED2, ITIQ2는 제2 계층 처리부(322)에 구비되는 제2엔트로피 디코더(412), 제2 역양자화 및 역변환부(432)의 한 매크로블록에 대한 동작을 의미한다. 그리고 이와 유사하게 DF1, DF2, TUP, REC는 1차 디블록킹 필터(371), 2차 디블록킹 필터(372), 텍스쳐 업샘플링부(380), 재구성부(360)의 동작을 각각 의미한다. As shown in FIG. 4, ED1, ITIQ1, and IP1 of the base layer include a first entropy decoder 411, a first inverse quantization and inverse transform unit 431, and a first intra provided in the first layer processing unit 321 of FIG. 3. A second entropy decoder 412, a second inverse quantization unit and an inverse transform unit 432 are provided in the second layer processor 322 for ED2 and ITIQ2 of the enhancement layer. Means the operation for one macroblock. Similarly, DF1, DF2, TUP, and REC denote operations of the primary deblocking filter 371, the secondary deblocking filter 372, the texture upsampling unit 380, and the reconstruction unit 360, respectively.

계속하여 도4를 참조하여 계층간 텍스쳐 예측방법을 설명하면 다음과 같다. Subsequently, an inter-layer texture prediction method will be described with reference to FIG. 4.

먼저 기본계층과 향상계층으로 구성되는 비트 스트림이 입력되면, 제1 엔트로피 디코더(411)는 기본계층의 엔트로피 디코딩을 수행하고(S400), 제1 역양자화 및 역변환부(431) 및 제1 인트라픽쳐 예측부(421)는 역양자화/역변환, 인트라픽쳐 예측을 수행한다(S410, S420). First, when a bit stream composed of a base layer and an enhancement layer is input, the first entropy decoder 411 performs entropy decoding of the base layer (S400), the first inverse quantization and inverse transform unit 431, and the first intra picture. The prediction unit 421 performs inverse quantization / inverse transformation and intra picture prediction (S410 and S420).

그러면 재구성부(360)는 제1 역양자화 및 역변환부(431) 및 제1 인트라픽쳐 예측부(421)의 출력을 이용하여 기본계층의 복원이미지를 생성하고(S430), 1차 디블록킹 필터(371)를 통해 기본계층의 복원이미지를 디블록킹한 다음 텍스쳐 업샘플링부(380)를 통해 텍스쳐 업샘플링하여(S440, S450), 그 결과를 재구성부(360)에 다시 입력해준다.Then, the reconstructor 360 generates a reconstructed image of the base layer by using the outputs of the first inverse quantization and inverse transform unit 431 and the first intra-picture predictor 421 (S430), and the first deblocking filter ( Deblocking the reconstructed image of the base layer through 371) and then up-sampling the texture through the texture upsampling unit 380 (S440 and S450), and inputs the result back into the reconstruction unit 360.

한편, 제2 엔트로피 디코더(412)는 향상계층의 비트 스트림을 입력받아 향상계층에 대한 엔트로피 디코딩을 수행하고(S470), 제2 역양자화 및 역변환부(432)를 통해 역양자화/역변환을 수행하여(S480), 그 결과를 재구성부(360)에 전달한다. Meanwhile, the second entropy decoder 412 receives the bit stream of the enhancement layer, performs entropy decoding on the enhancement layer (S470), and performs inverse quantization / inverse transformation through the second inverse quantization and inverse transform unit 432. In operation S480, the result is transmitted to the reconstruction unit 360.

이에 재구성부(360)는 텍스쳐 업샘플링부(380)로부터 텍스쳐 업샘플된 기본계층의 텍스쳐와 제2 역양자화 및 역변환부(432)로부터 향상계층의 잔여신호를 함께 입력받고, 이들을 더하여 향상계층의 복원이미지를 생성한다(S460). The reconstructor 360 receives the texture upsampled texture from the texture upsampling unit 380 and the residual signal of the enhancement layer from the second inverse quantization and inverse transform unit 432. A restored image is generated (S460).

그러면, 2차 디블록킹 필터(372)는 재구성부(360)를 통해 생성된 향상계층의 복원이미지를 디블록킹한 후, 프레임 메모리(400)에 저장한다(S490). Then, the second deblocking filter 372 deblocks the reconstructed image of the enhancement layer generated by the reconstruction unit 360 and stores the deblocked image in the frame memory 400 (S490).

도4에서, 가로로 연속한 파이프라인 단계들은 연속한 매크로블록에 대하여 같은 동작을 수행한다. 예를 들어, S400 단계에서 기본계층의 N번째 매크로블록에 대한 엔트로피 디코딩을 수행했다면 S401에서는 N+1번째, S402에서는 N+2번째 매크로블록에 대한 엔트로피 디코딩이 수행되는 식이다.In Figure 4, horizontally continuous pipeline stages perform the same operation for consecutive macroblocks. For example, if entropy decoding is performed on the N-th macroblock of the base layer in step S400, entropy decoding is performed on the N + 1 th macroblock in S401 and the N + 2 th macroblock in S402.

도5는 도3의 스케일러블 비디오 디코더를 이용한 계층간 잔여신호 예측방법을 설명하기 위한 도면이다. FIG. 5 is a diagram for describing a method for predicting an inter-layer residual signal using the scalable video decoder of FIG. 3.

도5에서도 도4와 동일하게 설명의 편이를 위해 두 개의 계층 처리부(321,322)를 구비하여, 기본계층과 향상계층으로 구성되는 2계층의 비트 스트림을 입력받아 향상계층의 복원이미지를 획득하는 경우에 한하여 설명하기로 한다. 또한, 이때에는 계층간 움직임 예측 동작을 비활성화된 상태라고 가정하기로 한다. In FIG. 5, two layer processing units 321 and 322 are provided for convenience of description similarly to FIG. 4, and when a bit stream of two layers including a base layer and an enhancement layer is received and a restored image of the enhancement layer is obtained. It will be described only. In this case, it is assumed that the inter-layer motion prediction operation is deactivated.

도5에 도시된, 기본계층의 ED1, ITIQ1 는 제1 계층 처리부(321)에 구비되는 제1 엔트로피 디코더(411), 제1 역양자화 및 역변환부(431)의 한 매크로블록에 대한 동작을, 향상계층의 ED2, ITIQ2는 제2 계층 처리부(322)에 구비되는 제2엔트로피 디코더(412), 제2 역양자화 및 역변환부(432)의 한 매크로블록에 대한 동작을 의미한다. 그리고 이와 유사하게 RUP, MC, REC, DF2는 잔여신호 업 샘플링부(350), 움직임 보상부(340), 재구성부(360), 2차 디블록킹 필터(372)의 동작을 각각 의미한다. As shown in FIG. 5, ED1 and ITIQ1 of the base layer perform operations on one macroblock of the first entropy decoder 411 and the first inverse quantization and inverse transform unit 431 included in the first layer processing unit 321. ED2 and ITIQ2 of the enhancement layer mean an operation of one macroblock of the second entropy decoder 412, the second inverse quantization and inverse transform unit 432 included in the second layer processing unit 322. Similarly, RUP, MC, REC, and DF2 mean operations of the residual signal upsampling unit 350, the motion compensator 340, the reconstructor 360, and the second order deblocking filter 372, respectively.

계속하여 도5를 참조하여 계층간 잔여신호 예측방법을 설명하면 다음과 같다. Subsequently, an inter-layer residual signal prediction method will be described with reference to FIG. 5.

기본계층과 향상계층으로 구성되는 비트 스트림이 입력되면, 제1 엔트로피 디코더(411)를 기본계층의 엔트로피 디코딩을 수행하고(S500), 제1 역양자화 및 역변환부(431)를 통해 기본계층의 잔여신호를 획득한 후(S510), 잔여신호 업 샘플링부(350)를 통해 단계 S510를 통해 획득된 기본계층의 잔여신호를 업 샘플링시켜준다(S520). When a bit stream composed of a base layer and an enhancement layer is input, the first entropy decoder 411 performs entropy decoding of the base layer (S500), and the remaining of the base layer is performed through the first inverse quantization and inverse transform unit 431. After acquiring the signal (S510), the residual signal upsampling unit 350 upsamples the residual signal of the base layer obtained through the step S510 (S520).

한편, 제2 엔트로피 디코더(412)는 향상계층 스트림을 입력받아 향상계층에 대한 엔트로피 디코딩을 수행한 후(S530), 제2 역양자화 및 역변환부(432)를 통해 향상계층의 잔여신호를 획득한다(S540). 그리고, 계층간 움직임 예측 동작이 비활성화된 움직임 보상부(340)는 향상계층의 움직임 벡터를 이용하여 움직임 보상을 수행한다(S550).Meanwhile, the second entropy decoder 412 receives the enhancement layer stream, performs entropy decoding on the enhancement layer (S530), and obtains a residual signal of the enhancement layer through the second inverse quantization and inverse transform unit 432. (S540). The motion compensation unit 340 in which the inter-layer motion prediction operation is deactivated performs motion compensation using the motion vector of the enhancement layer (S550).

그러면 재구성부(360)는 잔여신호 업 샘플링부(350)로부터 입력되는 업 샘플링된 기본계층의 잔여신호와 제2 역양자화 및 역변환부(432)로부터 입력되는 향상계층의 잔여신호를 더한 후, 이에 다시 움직임 보상부(340)로부터 입력되는 화면간 예측이미지와 더하여 향상계층의 복원이미지를 생성한다(S560). Then, the reconstructor 360 adds the residual signal of the upsampled base layer input from the residual signal upsampling unit 350 and the residual signal of the enhancement layer input from the second inverse quantization and inverse transform unit 432. The reconstructed image of the enhancement layer is generated in addition to the inter prediction image input from the motion compensator 340 (S560).

S560 단계를 통해 생성된 향상계층의 복원이미지는 2차 디블록킹 필터(372)를 통해 디블록된 후, 프레임 메모리(400)에 저장해준다(S570). The reconstructed image of the enhancement layer generated through the step S560 is deblocked through the second deblocking filter 372 and then stored in the frame memory 400 (S570).

도5에서도, 도4와 동일하게 가로로 연속한 파이프라인 단계들은 연속한 매크로블록에 대하여 같은 동작을 수행한다. 예를 들어, S500 단계에서 기본계층의 N번째 매크로블록에 대한 엔트로피 디코딩을 수행했다면 S501 단계에서는 N+1번째, S502 단계에서는 N+2번째 매크로블록에 대한 엔트로피 디코딩이 수행되는 식이다.Also in FIG. 5, horizontally continuous pipeline stages perform the same operation on consecutive macroblocks as in FIG. For example, if entropy decoding is performed on the N-th macroblock of the base layer in step S500, entropy decoding is performed on the N + 1 th macroblock in step S501 and the N + 2 th macroblock in step S502.

이상에서 설명한 본 발명은 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경할 수 있다는 것은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 당업자에게 있어 명백할 것이다. The present invention described above is not limited to the above-described embodiments and the accompanying drawings, and it is common in the art that various substitutions, modifications, and changes can be made without departing from the technical spirit of the present invention. It will be apparent to those skilled in the art.

도1은 일반적인 비-스케일러블 비디오 디코더의 구성을 도시한 도면이다. 1 is a diagram illustrating a configuration of a general non-scalable video decoder.

도 2는 도1의 비-스케일러블 비디오 디코더의 파이프라인 동작의 일면을 나타낸 도면이다. FIG. 2 is a diagram illustrating one side of a pipeline operation of the non-scalable video decoder of FIG. 1.

도3은 본 발명의 일 실시예에 따른 스케일러블 비디오 디코더의 구성을 도시한 도면이다. 3 is a diagram illustrating a configuration of a scalable video decoder according to an embodiment of the present invention.

도4는 도3의 스케일러블 비디오 디코더를 이용한 계층간 텍스쳐 예측방법을 설명하기 위한 도면이다. FIG. 4 is a diagram for describing an inter-layer texture prediction method using the scalable video decoder of FIG. 3.

도5는 도3의 스케일러블 비디오 디코더를 이용한 계층간 잔여신호 예측방법을 설명하기 위한 도면이다. FIG. 5 is a diagram for describing a method for predicting an inter-layer residual signal using the scalable video decoder of FIG. 3.

Claims (10)

엔트로피 디코딩, 인트라픽쳐 예측, 및 역양자화 및 역변환을 비트 스트림의 계층별로 병렬 처리하는 병렬 처리부;A parallel processor for performing entropy decoding, intra-picture prediction, and inverse quantization and inverse transformation on a layer-by-layer basis of the bit stream; 상기 병렬 처리부의 출력 결과를 계층별로 순차적으로 선택하여 출력하는 계층 선택부;A hierarchy selector for sequentially selecting and outputting an output result of the parallel processor for each layer; 상기 계층 선택부로부터 출력되는 엔트로피 디코딩결과를 이용하여 움직임 보상을 수행하는 움직임 보상부; A motion compensator for performing motion compensation using an entropy decoding result output from the layer selector; 상기 계층 선택부로부터 출력되는 역양자화 및 역변환결과를 이용하여 잔여신호 업 샘플링을 수행하는 잔여신호 업 샘플링부; A residual signal upsampling unit configured to perform residual signal upsampling using the inverse quantization and inverse transformation results output from the layer selector; 복원 이미지를 디블록킹하는 디블록킹부; A deblocking unit to deblock the reconstructed image; 상기 디블록킹부로부터 출력되는 디블록킹된 복원 이미지를 텍스쳐 업 샘플링하는 텍스쳐 업 샘플링부; 및 A texture up sampling unit configured to texture up sample the deblocked reconstructed image output from the deblocking unit; And 상기 계층 선택부, 상기 움직임 보상부, 상기 잔여신호 업 샘플링부, 및 상기 텍스쳐 업 샘플링부의 출력을 선택적으로 이용하여 복원 이미지를 재구성하는 과정을 하나 이상의 계층에 대해 동시에 처리하는 재구성부를 포함하는 스케일러블 비디오 복호화 장치.And a reconstruction unit configured to simultaneously perform a process of reconstructing a reconstructed image on at least one layer by selectively using outputs of the layer selector, the motion compensator, the residual signal upsampler, and the texture upsampler. Video decoding device. 제1항에 있어서, 상기 병렬 처리부는The method of claim 1, wherein the parallel processing unit 상기 비트 스트림을 계층별 스트림으로 나누는 비트 스트림 공급부; 및 A bit stream supply unit dividing the bit stream into a stream for each layer; And 상기 계층별 스트림 각각에 대한 엔트로피 디코딩, 인트라픽쳐 예측, 및 역양자화 및 역변환을 병렬로 수행하는 다수의 계층 처리부를 포함하는 것을 특징으로 하는 스케일러블 비디오 복호화 장치.And a plurality of layer processors configured to perform entropy decoding, intra-picture prediction, and inverse quantization and inverse transformation on each of the streams of each layer in parallel. 제1항에 있어서, 상기 계층 선택부는 The method of claim 1, wherein the layer selector 상기 병렬 처리부로부터 병렬 출력되는 인트라픽쳐 예측결과들 중에서, 현재 복원계층에 대한 하위계층의 인트라픽쳐 예측결과를 선택하여 출력하는 인트라픽쳐 예측결과 선택부;An intra picture prediction result selector configured to select and output an intra picture prediction result of a lower layer from the intra picture prediction results output in parallel from the parallel processor; 상기 병렬 처리부로부터 병렬 출력되는 역양자화 및 역변환결과들 중에서 상기 하위계층의 역양자화 및 역변환결과를 선택하여 출력하는 제1 역양자화 및 역변환결과 선택부; A first inverse quantization and inverse transform result selector configured to select and output inverse quantization and inverse transform results of the lower layer among inverse quantization and inverse transform results output from the parallel processor; 상기 병렬 처리부로부터 병렬 출력되는 역양자화 및 역변환결과들 중에서 상기 현재 복원계층의 역양자화 및 역변환결과를 선택하여 출력하는 제2 역양자화 및 역변환 선택부; 및 A second inverse quantization and inverse transform selection unit for selecting and outputting inverse quantization and inverse transformation results of the current restoration layer among inverse quantization and inverse transformation results output from the parallel processor; And 상기 병렬 처리부로부터 병렬 출력되는 엔트로피 디코딩결과들 중에서 상기 현재 복원계층 또는 상기 하위 계층의 움직임 벡터를 선택하여 상기 움직임 보상부로 출력하는 엔트로피 디코딩결과 선택부를 포함하는 것을 특징으로 하는 스케일러블 비디오 복호화 장치.And an entropy decoding result selector which selects a motion vector of the current reconstruction layer or the lower layer among the entropy decoding results output in parallel from the parallel processor and outputs the motion vector to the motion compensation unit. 제3항에 있어서, 상기 디블록킹부는The method of claim 3, wherein the deblocking unit 상기 재구성부로부터 출력되는 상기 하위계층의 복원이미지를 디블록킹하여 상기 텍스쳐 업 샘플링부에 제공하는 1차 디블록킹 필터; 및 A first deblocking filter which deblocks the reconstructed image of the lower layer output from the reconstruction unit and provides the block to the texture up sampling unit; And 상기 재구성부로부터 출력되는 상기 현재 복원계층의 복원이미지를 디블록킹하여 프레임 메모리에 제공하는 2차 디블록킹 필터를 포함하는 것을 특징으로 하는 스케일러블 비디오 복호화 장치.And a second deblocking filter for deblocking a reconstructed image of the current reconstruction layer output from the reconstruction unit and providing the deblocking image to a frame memory. 제4항에 있어서, 상기 재구성부는 The method of claim 4, wherein the reconstruction unit 계층간 텍스쳐 예측시에는, 상기 제1역양자화 및 역변환 결과 선택부와 상기 인트라픽쳐 예측 결과 선택부의 출력을 재구성하여 상기 하위계층의 복원이미지를 생성하고, 상기 하위계층의 복원이미지를 상기 1차 디블록킹 필터 및 상기 텍스쳐 업 샘플링부를 통해 디블록킹 및 텍스쳐 업 샘플링한 후 상기 현재 복원계층의 역양자화 및 역변환결과를 더하여 상기 현재 복원계층의 복원이미지를 생성하는 것을 특징으로 하는 스케일러블 비디오 복호화 장치.In the inter-layer texture prediction, a reconstructed image of the lower layer is generated by reconstructing outputs of the first inverse quantization and inverse transform result selection unit and the intra-picture prediction result selecting unit, and the reconstructed image of the lower layer is stored in the first order. And deblocking and texture upsampling through a blocking filter and the texture upsampling unit, and then adds a result of inverse quantization and inverse transformation of the current reconstruction layer to generate a reconstructed image of the current reconstruction layer. 제4항에 있어서, 상기 재구성부는 The method of claim 4, wherein the reconstruction unit 계층간 잔여신호 예측시에는, 상기 잔여신호 업 샘플링부의 출력, 상기 제2 역양자화 및 역변환 결과 선택부의 출력, 및 상기 움직임 보상부의 출력을 재구성하여 상기 현재 복원계층의 복원이미지를 생성하는 것을 특징으로 하는 스케일러블 비디오 복호화 장치.In the prediction of the residual signal between layers, a reconstruction image of the current reconstruction layer is generated by reconstructing the output of the residual signal up-sampler, the output of the second inverse quantization and inverse transform result selector, and the output of the motion compensation unit. Scalable video decoding apparatus. 제4항에 있어서, 상기 재구성부는 The method of claim 4, wherein the reconstruction unit 계층간 움직임 예측시에는, 상기 움직임 보상부가 상기 하위계층의 움직임 벡터를 스케일링하여 구한 예측 이미지에 상기 제 2 역양자화 및 역변환결과 선택부의 출력을 더하여 상기 현재 복원계층의 복원이미지를 생성하는 것을 특징으로 하는 스케일러블 비디오 복호화 장치.In the inter-layer motion prediction, the motion compensation unit generates a reconstructed image of the current reconstructed layer by adding the output of the second inverse quantization and inverse transform result selector to the predicted image obtained by scaling the motion vector of the lower layer. Scalable video decoding apparatus. 계층간 텍스쳐 예측을 수행하는 스케일러블 비디오 복호화 방법에 있어서, A scalable video decoding method for performing inter-layer texture prediction, 엔트로피 디코딩, 인트라픽쳐 예측, 및 역양자화 및 역변환을 비트 스트림의 계층별로 병렬 처리하는 단계;Parallel processing entropy decoding, intra-picture prediction, and inverse quantization and inverse transformation for each layer of the bit stream; 현재 복원계층에 대한 하위계층의 역양자화 및 역변환 결과, 및 인트라픽쳐 예측 결과를 선택하고 재구성하여 상기 하위계층의 복원이미지를 생성하는 단계;Generating a reconstructed image of the lower layer by selecting and reconstructing a result of inverse quantization and inverse transformation of the lower layer with respect to a current reconstruction layer and an intra picture prediction result; 상기 하위계층의 복원이미지에 대해 디블록킹 및 텍스쳐 업 샘플링을 수행하여 텍스쳐 업 샘플링 결과를 획득하는 단계; 및 Obtaining a texture upsampling result by performing deblocking and texture upsampling on the reconstructed image of the lower layer; And 상기 텍스쳐 업 샘플링 결과와 상기 현재 복원계층의 역양자화 및 역변환 결과를 이용하여 현재 복원계층의 복원이미지를 재구성하는 단계를 포함하는 스케일러블 비디오 복호화 방법.And reconstructing a reconstructed image of the current reconstructed layer by using the texture up-sampling result and the inverse quantization and inverse transform result of the current reconstructed layer. 계층간 잔여신호 예측을 수행하는 스케일러블 비디오 복호화 방법에 있어서, A scalable video decoding method for performing inter-layer residual signal prediction, 엔트로피 디코딩, 인트라픽쳐 예측, 및 역양자화 및 역변환을 비트 스트림의 계층별로 병렬 처리하는 단계;Parallel processing entropy decoding, intra-picture prediction, and inverse quantization and inverse transformation for each layer of the bit stream; 현재 복원계층에 대한 하위계층의 역양자화 및 역변환 결과를 선택하여 잔여신호 업 샘플링을 수행하는 단계;Selecting a result of inverse quantization and inverse transformation of a lower layer with respect to a current reconstruction layer to perform residual signal upsampling; 현재 복원계층의 역양자화 및 역변환 결과를 선택하는 단계; 및 Selecting a result of inverse quantization and inverse transformation of a current restoration layer; And 상기 잔여신호 업 샘플링의 수행 결과와 상기 현재 복원계층의 역양자화 및 역변환 결과를 이용하여 현재 복원계층의 복원이미지를 재구성하는 단계를 포함하는 스케일러블 비디오 복호화 방법.And reconstructing a reconstructed image of the current reconstructed layer by using the result of performing the residual signal upsampling and the inverse quantization and inverse transform result of the current reconstructed layer. 계층간 움직임 예측을 수행하는 스케일러블 비디오 복호화 방법에 있어서, A scalable video decoding method for performing inter-layer motion prediction, 엔트로피 디코딩, 인트라픽쳐 예측, 및 역양자화 및 역변환을 비트 스트림의 계층별로 병렬 처리하는 단계;Parallel processing entropy decoding, intra-picture prediction, and inverse quantization and inverse transformation for each layer of the bit stream; 현재 복원계층에 대한 하위계층의 엔트로피 디코딩 결과에 포함된 움직임 벡 터를 선택하고 움직임 보상을 수행하여 현재 복원계층의 예측 이미지를 획득하는 단계; Selecting a motion vector included in the entropy decoding result of the lower layer with respect to the current reconstruction layer and performing motion compensation to obtain a predicted image of the current reconstruction layer; 현재 복원계층의 역양자화 및 역변환 결과를 선택하는 단계; 및 Selecting a result of inverse quantization and inverse transformation of a current restoration layer; And 상기 현재 복원계층의 예측 이미지와 상기 현재 복원계층의 역양자화 및 역변환 결과를 이용하여 현재 복원계층의 복원이미지를 재구성하는 단계를 포함하는 스케일러블 비디오 복호화 방법.And reconstructing a reconstructed image of the current reconstructed layer by using the predicted image of the current reconstructed layer and inverse quantization and inverse transform results of the current reconstructed layer.
KR1020090123211A 2009-12-11 2009-12-11 Apparatus and method for scalable video decoding KR20110066523A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090123211A KR20110066523A (en) 2009-12-11 2009-12-11 Apparatus and method for scalable video decoding

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090123211A KR20110066523A (en) 2009-12-11 2009-12-11 Apparatus and method for scalable video decoding

Publications (1)

Publication Number Publication Date
KR20110066523A true KR20110066523A (en) 2011-06-17

Family

ID=44399338

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090123211A KR20110066523A (en) 2009-12-11 2009-12-11 Apparatus and method for scalable video decoding

Country Status (1)

Country Link
KR (1) KR20110066523A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014058110A1 (en) * 2012-10-09 2014-04-17 광운대학교 산학협력단 Inter-layer prediction method for multi-layer video and device therefor
KR101465977B1 (en) * 2012-04-15 2014-12-01 삼성전자주식회사 Method and apparatus for encoding/decoding video for parallel processing
KR20150036761A (en) * 2012-09-28 2015-04-07 인텔 코포레이션 Inter-layer residual prediction
KR20170075759A (en) * 2014-11-14 2017-07-03 엘지전자 주식회사 Method and apparatus for entropy encoding or entropy decoding of a video signal for massively parallel processing

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101465977B1 (en) * 2012-04-15 2014-12-01 삼성전자주식회사 Method and apparatus for encoding/decoding video for parallel processing
KR101504888B1 (en) * 2012-04-15 2015-03-23 삼성전자주식회사 Method for decoding video for parallel processing
US9681127B2 (en) 2012-04-15 2017-06-13 Samsung Electronics Co., Ltd. Video encoding method and device and video decoding method and device for parallel processing
KR20150036761A (en) * 2012-09-28 2015-04-07 인텔 코포레이션 Inter-layer residual prediction
US10764592B2 (en) 2012-09-28 2020-09-01 Intel Corporation Inter-layer residual prediction
WO2014058110A1 (en) * 2012-10-09 2014-04-17 광운대학교 산학협력단 Inter-layer prediction method for multi-layer video and device therefor
US9961363B2 (en) 2012-10-09 2018-05-01 Intellectual Discovery Co., Ltd. Inter-layer prediction method for multi-layer video and device therefor
US10219001B2 (en) 2012-10-09 2019-02-26 Intellectual Discovery Co., Ltd. Inter-layer prediction method for multi-layer video and device therefor
KR20170075759A (en) * 2014-11-14 2017-07-03 엘지전자 주식회사 Method and apparatus for entropy encoding or entropy decoding of a video signal for massively parallel processing
US10455244B2 (en) 2014-11-14 2019-10-22 Lg Electronics Inc. Method and device for entropy encoding or entropy decoding video signal for high-capacity parallel processing

Similar Documents

Publication Publication Date Title
US11412240B2 (en) Method for coding and decoding scalable video and apparatus using same
US10812816B2 (en) Method and arrangement for transcoding a video bitstream
JP5232797B2 (en) Method and apparatus for encoding and / or decoding video data using adaptive prediction order of spatial prediction and bit depth prediction
KR102435739B1 (en) Method and apparatus for scalable video coding using intra prediction mode
US20150078446A1 (en) Method and apparatus for inter-layer intra prediction
CN104335585A (en) Image decoding method and apparatus using same
WO2012173440A2 (en) Method for coding and decoding scalable video and apparatus using same
KR20110066523A (en) Apparatus and method for scalable video decoding
Parois et al. 4K real time software solution of scalable HEVC for broadcast video application
KR100954172B1 (en) Common prediction block system in svc decoder

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination