KR100734141B1 - Method and Apparatus for a Temporal ? Spatial Scalable Encoding/Decoding Based on Multiple Reference Frames - Google Patents

Method and Apparatus for a Temporal ? Spatial Scalable Encoding/Decoding Based on Multiple Reference Frames Download PDF

Info

Publication number
KR100734141B1
KR100734141B1 KR1020050102340A KR20050102340A KR100734141B1 KR 100734141 B1 KR100734141 B1 KR 100734141B1 KR 1020050102340 A KR1020050102340 A KR 1020050102340A KR 20050102340 A KR20050102340 A KR 20050102340A KR 100734141 B1 KR100734141 B1 KR 100734141B1
Authority
KR
South Korea
Prior art keywords
frame
extended
information
basic
frames
Prior art date
Application number
KR1020050102340A
Other languages
Korean (ko)
Other versions
KR20070045737A (en
Inventor
박인규
황인성
김후종
Original Assignee
에스케이 텔레콤주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이 텔레콤주식회사 filed Critical 에스케이 텔레콤주식회사
Priority to KR1020050102340A priority Critical patent/KR100734141B1/en
Publication of KR20070045737A publication Critical patent/KR20070045737A/en
Application granted granted Critical
Publication of KR100734141B1 publication Critical patent/KR100734141B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩 및 디코딩 방법과 장치에 관한 것이다.The present invention relates to a method and apparatus for temporal and spatial scalable encoding and decoding referencing a plurality of frames.

본 발명에 따르면, 시간적 및 공간적 스케일러빌리티(Temporal & Spatial Scalability)를 갖도록 동영상 정보를 인코딩/디코딩할 경우 확장 프레임이 참조할 프레임을 프레임 단위로 결정하지 않고 프레임을 구성하는 매크로블록 단위로 결정함으로써, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택할 수 있는 것을 특징으로 한다. 그리고, 이에 의해서 종래기술보다 압축률을 더욱 향상시킬 수 있는 효과를 가진다.According to the present invention, when encoding / decoding video information to have temporal and spatial scalability, by determining the frame to be referred to by the extended frame in units of macroblocks constituting the frame, the frame is not determined in units of frames. Each of the macroblocks constituting the same extended frame may select a reference frame individually. And, this has the effect of further improving the compression ratio than the prior art.

Description

복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩 및 디코딩 방법과 그 장치 {Method and Apparatus for a Temporal & Spatial Scalable Encoding/Decoding Based on Multiple Reference Frames}Temporal and spatial scalable encoding and decoding method for referencing a plurality of frames, and apparatus therefor {Method and Apparatus for a Temporal & Spatial Scalable Encoding / Decoding Based on Multiple Reference Frames}

도 1은 디지털 방송 시스템의 개요도,1 is a schematic diagram of a digital broadcasting system;

도 2는 종래기술에 따른 단일 프레임을 참조하는 시간적 스케일러블 인코딩/디코딩 방법의 개요도,2 is a schematic diagram of a temporal scalable encoding / decoding method for referring to a single frame according to the prior art;

도 3은 본 발명에서 이용되는 프레임 구조를 설명하는 도면,3 is a view for explaining a frame structure used in the present invention,

도 4는 본 발명에 따른 복수의 프레임을 참조하는 시간적 스케일러블 인코딩/디코딩 방법의 개요도,4 is a schematic diagram of a temporal scalable encoding / decoding method for referring to a plurality of frames according to the present invention;

도 5는 하나의 프레임이 매크로블록 단위로 복수의 프레임을 참조하는 과정을 설명하는 도면,FIG. 5 is a diagram illustrating a process in which one frame refers to a plurality of frames in macroblock units; FIG.

도 6은 본 발명에 따른 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩/디코딩 방법의 개요도,6 is a schematic diagram of a temporal and spatial scalable encoding / decoding method for referring to a plurality of frames according to the present invention;

도 7은 본 발명에 따른 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩 장치의 구성도,7 is a configuration diagram of a temporal and spatial scalable encoding apparatus for referring to a plurality of frames according to the present invention;

도 8은 본 발명에 따른 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 디코딩 장치의 구성도,8 is a configuration diagram of a temporal and spatial scalable decoding apparatus for referring to a plurality of frames according to the present invention;

도 9는 이기종 네트워크를 통해 프레임 정보가 전송되는 과정을 설명하는 도면이다.9 is a diagram illustrating a process of transmitting frame information through a heterogeneous network.

< 도면의 주요 부분에 대한 부호의 설명 ><Description of Symbols for Main Parts of Drawings>

100, 110: 디지털 방송 센터 200: 통신망100, 110: digital broadcasting center 200: communication network

210: 제1 통신망 220: 제2 통신망210: first communication network 220: second communication network

310: 제1 단말기 320: 제2 단말기310: first terminal 320: second terminal

400: 프레임 500, 510, 520, 530: 매크로블록400: Frame 500, 510, 520, 530: Macroblock

600: 인코딩 장치 610: 동영상 정보 입력부600: encoding device 610: video information input unit

620: 프레임 추출부 630: 프레임 정보 생성부620: frame extraction unit 630: frame information generation unit

640: 프레임 정보 출력부 700: 디코딩 장치640: frame information output unit 700: decoding device

710: 프레임 정보 입력부 720: 프레임 생성부710: frame information input unit 720: frame generation unit

730: 프레임 조합부730: frame combination

본 발명은 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩 및 디코딩 방법과 장치에 관한 것으로, 보다 상세하게는 위성 DMB(Digital Multimedia Broadcasting) 등과 같은 디지털 방송 서비스를 위하여 시간적 및 공간적 스케일러빌리티(Temporal & Spatial Scalability)를 갖도록 동영상 정보(데이터)를 압축할 때 복수의 프레임을 참조할 수 있도록 함으로써 압축률을 향상시킬 수 있는 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블(Temporal & Spatial Scalable) 인코딩 및 디코딩 방법과 장치에 관한 것이다.The present invention relates to a method and apparatus for temporal and spatial scalable encoding and decoding referencing a plurality of frames. More specifically, the present invention relates to temporal and spatial scalability for digital broadcasting services such as satellite digital multimedia broadcasting (DMB). Temporal & Spatial Scalable Encoding and Decoding Method for Referencing Multiple Frames That Can Improve Compression Rate by Compressing Video Information (Data) with Spatial Scalability And device.

일반적으로 동영상 정보(데이터)는 대용량을 가지므로 이를 효과적으로 압축하여 전송 또는 저장하는데, 이러한 동영상 정보(데이터) 압축 기술의 표준으로는 ISO/IEC(International data Communication/International Electrotechnical Commission)의 MPEG(Moving Picture Experts Group) 시리즈와 ITU-T(International Telecommunication Union-Telecommunication Session)의 H.26x 시리즈가 있다. 그리고, 디지털 방송 등과 관련하여 현재에는 "MPEG4 part2 video"나 또는 ISO/IEC의 MPEG 그룹과 ITU-T의 VCEG 그룹이 공동으로 결성한 JVT(Joint Video Team)에서 제안한 "H.264/MPEG4 part 10 AVC"가 주로 이용되고 있다.In general, since video information (data) has a large capacity, it is effectively compressed and transmitted or stored. As a standard of the video information (data) compression technology, moving picture MPEG (Moving Picture) of ISO / IEC (International Data Communication / International Electrotechnical Commission) Experts Group) and ITU-T (International Telecommunication Union-Telecommunication Session) H.26x series. In relation to digital broadcasting, "H.264 / MPEG4 part 10" proposed by JVT (Joint Video Team) jointly formed by "MPEG4 part2 video" or MPEG group of ISO / IEC and VCEG group of ITU-T. AVC "is mainly used.

동영상 압축 기술은 동영상 데이터의 통계적 특성이 공간적, 시간적으로 중복성(Redundancy)이 많다는 점을 이용하며, 일반적으로는 공간적 중복성을 줄이기 위하여 영상을 프레임 별로 이산여현변환(DCT; Discrete Cosine Transform)을 수행하고, 시간적 중복성을 줄이기 위하여 프레임 별로 이미 인코딩한 참조 영상으로부터 영상들 사이의 연속성 및 유사성을 찾아 차분펄스부호변조(DPCM; Differential Pulse Coded Modulation)를 수행한다.Video compression technology takes advantage of the fact that the statistical characteristics of video data have a lot of spatial and temporal redundancy.In general, to reduce spatial redundancy, a discrete cosine transform (DCT) is performed on a frame-by-frame basis. In order to reduce temporal redundancy, differential pulse coded modulation (DPCM) is performed by searching for continuity and similarity between images from the reference image that has been encoded for each frame.

이러한 동영상 압축을 위한 인코딩 모드로서는 인트라 모드(Intra mode)와 인터 모드(Inter mode)가 있다. 인트라 모드는 원 영상 자체에 내포된 연속성 및 유사성을 기반으로 변환하여 인코딩하는 모드이다. 그리고, 인터 모드는 영상 상호간의 연속성 및 유사성을 기반으로 인코딩하는 모드인데, 이는 시간상 이전에 존 재하는 영상으로부터 움직임을 예측하고 이를 원 영상과 비교하여 예측에러를 인코딩하는 순방향 예측 모드(Predictive mode)와 시간상 이전 또는 이후에 존재하는 영상으로부터 움직임을 예측하고 이를 원 영상과 비교하여 예측에러를 인코딩하는 양방향 예측 모드(Bi-predictive mode) 등으로 구분될 수 있다.As encoding modes for video compression, there are an intra mode and an inter mode. Intra mode is a mode that converts and encodes based on continuity and similarity included in the original image itself. In addition, the inter mode is a mode for encoding based on continuity and similarity between images, which is a predictive mode for predicting a motion from an existing image in time and encoding the prediction error by comparing it with the original image. And a bi-predictive mode for predicting a motion from an image existing before or after in time and encoding the prediction error by comparing it with the original image.

도 1 및 도 2를 참조하여 종래기술에 따른 디지털 방송 시스템의 개요와 시간적 스케일러블 인코딩/디코딩 기술을 간단히 살펴보면, 도 1에 도시된 바와 같이, 디지털 방송 센터(100)에서는 위성 DMB망 또는 지상파 DMB망(200) 등을 이용하여 동영상 정보를 전송하고 DMB 수신 단말기(310,320)가 이를 수신하여 재생하는 방식으로 디지털 방송이 이루어졌다. 한편, 현재의 디지털 방송에는 상용화되지 않았지만 고화질 방송을 위하여 동영상 재생에 있어 프레임 재생 속도 또는 해상도를 선택할 수 있도록 인코딩/디코딩시 시간적 또는 공간적 스케일러빌리티를 갖도록 하는 기술이 존재하는데, 그 중 시간적 스케일러빌리티 기술을 설명하면 다음과 같다.1 and 2, the outline of the digital broadcasting system and the temporal scalable encoding / decoding technology according to the prior art will be described briefly. As shown in FIG. 1, the digital broadcasting center 100 includes a satellite DMB network or a terrestrial DMB network. Digital broadcasting has been performed in such a manner that the video information is transmitted using the network 200 and the DMB receiving terminals 310 and 320 receive and reproduce the same. On the other hand, although not commercially available in current digital broadcasting, there is a technology that has temporal or spatial scalability when encoding / decoding so that frame playback speed or resolution can be selected for video playback for high quality broadcasting, and among them, temporal scalability technology. This is as follows.

도 2를 참조하면, 동영상을 구성하는 프레임들은 기본화질 시청을 위한 다수의 기본 프레임들(B'(0),..., B'(n-4), B'(n-2), B'(n), B'(n+2),...)과 상기 기본화질보다 프레임 재생 속도가 향상된 고화질 시청을 위한 다수의 확장 프레임들(T'(1),..., T'(n-3), T'(n-1), T'(n+1),...)로 구분되며, 이러한 기본 프레임 및 확장 프레임을 각각 인코딩하여 기본 프레임 정보와 확장 프레임 정보를 생성한다. 그리고, 재생시에는 기본 프레임 정보만 디코딩하거나 또는 기본 프레임 정보와 확장 프레임 정보를 모두 디코딩하여 조합할 수 있도록 함으로써 시간적 스케일러빌 리티를 가진다.Referring to FIG. 2, the frames constituting the video include a plurality of basic frames B '(0), ..., B' (n-4), B '(n-2), and B for basic quality viewing. '(n), B' (n + 2), ...) and a plurality of extended frames T '(1), ..., T' ( n-3), T '(n-1), T' (n + 1), ...) and encodes the basic frame and the extended frame, respectively, to generate the basic frame information and the extended frame information. During playback, temporal scalability is achieved by decoding only basic frame information or by decoding and combining both basic frame information and extended frame information.

이를 위한 프레임에 처리 기술을 살펴보면, 기본 프레임 중 최초 프레임(B'(0))은 원 영상으로부터 인트라 모드로 처리되며, 그 이후의 기본 프레임들(B'(2),..., B'(n-4), B'(n-2), B'(n), B'(n+2),...)은 주로 이전 또는 이후의 프레임과의 연속성 및 유사성을 비교하여 인터 모드로 처리되거나 이웃하는 프레임과의 연속성 및 유사성이 낮은 경우(예, 장면이 전환된 경우)에는 인트라 모드로 처리된다.Looking at the processing technique for the frame for this purpose, the first frame (B '(0)) of the basic frame is processed in the intra mode from the original image, the subsequent basic frames (B' (2), ..., B ' (n-4), B '(n-2), B' (n), B '(n + 2), ...) are mainly used in inter mode by comparing continuity and similarity with previous or subsequent frames. If the continuity and similarity with the processed or neighboring frames is low (e.g., the scene is switched), it is processed in intra mode.

한편, 상기 기본 프레임 보다 프레임 재생 속도가 우수한 고화질 시청을 위하여 별도의 확장 프레임 정보가 생성되는데, 도 2에 도시된 바와 같이, 확장 프레임 T'(n+1)은 일반적으로 이전의 기본 프레임 B'(n) 또는 이후의 기본 프레임 B'(n+2)를 참조하여 생성(인터 모드 처리)되거나 또는 이전의 확장 프레임 T'(n-3), T'(n-1)을 참조하여 생성(인터 모드 처리)된다. 그리고, 이렇게 생성된 확장 프레임T'(1),..., T'(n-3), T'(n-1), T'(n+1) 등은 각각 기본 프레임 B'(0),..., B'(n-4), B'(n-2), B'(n) 사이에 삽입됨으로써 프레임 재생 속도를 2배로 향상시킨다.Meanwhile, separate extended frame information is generated for high-definition viewing with better frame playback speed than the basic frame. As shown in FIG. 2, the extended frame T '(n + 1) generally corresponds to the previous basic frame B'. (n) or later (inter mode processing) with reference to base frame B '(n + 2) or with reference to previous extended frames T' (n-3), T '(n-1) Inter mode processing). The extended frames T '(1), ..., T' (n-3), T '(n-1), T' (n + 1), and the like generated in this way are respectively the basic frames B '(0). By inserting between B '(n-4), B' (n-2) and B '(n), the frame reproduction speed is doubled.

그러나, 종래기술에 따른 시간적 또는 공간적 스케일러블 인코딩/디코딩 기술은 확장 프레임을 인터 모드(예, 순방향 예측 모드, 양방향 예측 모드) 처리시 프레임 단위로 참조할 프레임을 결정를 하였으며, 따라서 압출률 향상에 있어서는 한계가 있었다.However, the temporal or spatial scalable encoding / decoding technique according to the prior art has determined a frame to be referred to in units of frames when the extended frame is processed in inter mode (eg, forward prediction mode and bidirectional prediction mode). There was a limit.

본 발명은 상기와 같은 종래기술의 문제점을 해결하기 위하여 창안된 것으로, 본 발명의 목적은 시간적 및 공간적 스케일러빌리티를 갖도록 동영상 정보(데이터)를 압축할 때 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택하도록 함으로써 복수의 프레임을 참조하여 압축률을 향상시킬 수 있는 시간적 및 공간적 스케일러블 인코딩 및 디코딩 방법과 장치를 제공하는 것이다.The present invention was devised to solve the above-mentioned problems of the prior art, and an object of the present invention is to separately macro macro blocks constituting the same extended frame when compressing moving picture information (data) to have temporal and spatial scalability. The present invention provides a method and apparatus for temporal and spatial scalable encoding and decoding capable of improving a compression rate by referring to a plurality of frames.

상기 목적을 위하여, 본 발명에 따른 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩 방법은, a) 동영상 정보에 대하여 기본화질 시청을 위한 기본 프레임과 상기 기본화질보다 프레임 재생 속도 및 해상도가 높은 고화질 시청을 위한 확장 프레임을 추출하는 단계; 및 b) 상기 기본 프레임을 매크로블록 단위로 인코딩하여 기본 프레임 정보를 생성하고, 상기 확장 프레임을 매크로블록 단위로 인코딩하여 확장 프레임 정보를 생성하되, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하도록 상기 기본 프레임 정보와 확장 프레임 정보를 생성하는 단계를 포함하는 것을 특징으로 한다.For this purpose, a temporal and spatial scalable encoding method for referring to a plurality of frames according to the present invention includes: a) a basic frame for viewing a basic image with respect to moving image information, and a high picture quality with a higher frame reproduction speed and resolution than the basic image; Extracting an extended frame for viewing; And b) generating basic frame information by encoding the basic frame in macroblock units and generating extended frame information by encoding the extended frame in macroblock units, wherein macroblocks constituting the same extended frame are individually referred to. And generating the basic frame information and the extended frame information so that one frame refers to a plurality of frames by selecting a frame.

그리고, 본 발명에 따른 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 디코딩 방법은, ⅰ) 기본화질 시청을 위한 기본 프레임을 재생할 수 있는 기본 프레임 정보, 상기 기본화질보다 프레임 재생 속도 및 해상도가 높은 확장 프레임 정보를 수신하는 단계; ⅱ) 상기 기본 프레임 정보를 매크로블록 단위로 디코딩 하여 기본 프레임을 생성하고, 상기 확장 프레임 정보를 매크로블록 단위로 디코딩하여 확장 프레임을 생성하되, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하여 상기 기본 프레임과 제1 및 제2 확장 프레임을 생성하는 단계; 및 ⅲ) 상기 기본 프레임과 확장 프레임을 조합하는 단계를 포함하는 것을 특징으로 한다.In addition, the temporal and spatial scalable decoding method for referring to a plurality of frames according to the present invention includes: i) basic frame information capable of reproducing a basic frame for viewing a basic image quality, an extension having a higher frame reproduction speed and a resolution than the basic image quality; Receiving frame information; Ii) generating the basic frame by decoding the basic frame information in macroblock units, and generating an extended frame by decoding the extended frame information in macroblock units, wherein macroblocks constituting the same extended frame are individually referenced frames Generating a base frame and first and second extended frames with reference to a plurality of frames by one frame; And iii) combining the basic frame and the extended frame.

한편, 본 발명에 따른 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩 장치는, 동영상 정보가 입력되는 동영상 입력부; 상기 동영상 정보로부터 기본화질 시청을 위한 기본 프레임과, 상기 기본화질보다 프레임 재생 속도 및 해상도가 높은 고화질 시청을 위한 확장 프레임을 추출하는 프레임 추출부; 상기 기본 프레임을 매크로블록 단위로 인코딩하여 기본 프레임 정보를 생성하고, 상기 확장 프레임을 매크로블록 단위로 인코딩하여 확장 프레임 정보를 생성하되, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하도록 상기 기본 프레임 정보와 제1 및 제2 확장 프레임 정보를 생성하는 프레임 정보 생성부; 및 상기 기본 프레임 정보와 확장 프레임 정보를 출력하는 프레임 정보 출력부를 포함하는 것을 특징으로 한다.On the other hand, the temporal and spatial scalable encoding apparatus for referencing a plurality of frames according to the present invention, a video input unit for inputting video information; A frame extracting unit extracting a basic frame for viewing a basic quality from the video information and an extended frame for high quality viewing having a higher frame reproduction speed and resolution than the basic quality; Basic frame information is generated by encoding the basic frame in macroblock units, and extended frame information is generated by encoding the extended frame in macroblock units, and macroblocks constituting the same extended frame individually select reference frames. A frame information generation unit generating the basic frame information and the first and second extended frame information so that one frame refers to a plurality of frames; And a frame information output unit configured to output the basic frame information and extended frame information.

그리고, 본 발명에 따른 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 디코딩 장치는, 기본화질 시청을 위한 기본 프레임을 재생할 수 있는 기본 프레임 정보, 상기 기본화질보다 프레임 재생 속도 및 해상도가 높은 고화질 시청을 위한 확장 프레임을 재생할 수 있는 확장 프레임 정보를 입력받는 프레임 정보 입 력부; 상기 기본 프레임 정보를 매크로블록 단위로 디코딩하여 기본 프레임을 생성하고, 상기 확장 프레임 정보를 매크로블록 단위로 디코딩하여 확장 프레임을 생성하되, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하여 상기 기본 프레임과 확장 프레임을 생성하는 프레임 생성부; 및 상기 생성된 기본 프레임과 확장 프레임을 조합하는 프레임 조합부를 포함하는 것을 특징으로 한다.In addition, the temporal and spatial scalable decoding apparatus referencing a plurality of frames according to the present invention includes basic frame information capable of reproducing a basic frame for viewing a basic quality, high-definition viewing having a higher frame reproduction speed and resolution than the basic quality. A frame information input unit configured to receive extended frame information capable of reproducing the extended frame for the frame; Decode the basic frame information in macroblock units to generate a basic frame, and decode the extended frame information in macroblock units to generate an extended frame, wherein macroblocks constituting the same extended frame individually select reference frames. A frame generator configured to generate the basic frame and the extended frame by referring to a plurality of frames by one frame; And a frame combination unit for combining the generated basic frame and the extended frame.

이하에서는 첨부 도면 및 바람직한 실시예를 참조하여 본 발명을 상세히 설명한다. 하기 설명에서 도면들 중 동일 또는 유사한 구성요소에 대하여는 가능한 한 동일한 참조부호를 사용하였으며, 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략하였다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings and preferred embodiments. In the following description, the same or similar components are denoted by the same reference numerals as much as possible, and detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention are omitted.

구체적 설명에 앞서 본 발명에서 사용된 용어를 간단히 정의하면, "기본화질"이란 동영상 시청을 위해 제공되는 최소한의 화질(또는 표준화질)을 말하며, 예컨대 현재 상용화된 위성 DMB의 경우를 예로 들면 해상도 및 프레임 재생 속도가 각각 QVGA(320×240) 및 15fps인 화질을 말한다. 그리고, 이러한 기본화질보다 프레임 재생 속도 및/또는 해상도가 높은 화질을 "고화질"이라 하며, 마찬가지로 위성 DMB의 경우를 예로 들면, QVGA/30fps, VGA/15fps, VGA/30fps, VGA/60fps, XGA/30fps, XGA/60fps 등의 화질을 말한다. 그리고, 본 발명에서는 설명의 편의를 위하여 상기 기본화질보다 프레임 재생 속도가 높은 화질을 제1 고화질로 상기 기본화질보다 프레임 재생 속도 및 해상도가 높은 화질을 제2 고화질로 구분하여 사용하였다.Prior to the detailed description, the terms used in the present invention are simply defined, and the term "basic quality" refers to a minimum quality (or standard quality) provided for watching a video. For example, the resolution and Refers to picture quality of frame rate of QVGA (320 x 240) and 15 fps, respectively. In addition, a frame playback speed and / or a resolution higher than the basic quality is referred to as "high definition". Similarly, for satellite DMB, for example, QVGA / 30fps, VGA / 15fps, VGA / 30fps, VGA / 60fps, XGA / 30fps, XGA / 60fps. In the present invention, for convenience of description, the image quality having a higher frame reproduction speed than the basic image quality is used as the first high image quality, and the image quality higher than the basic image quality is higher than the basic image quality.

도 3은 본 발명에서 이용되는 프레임 구조를 설명하는 도면이다. 하나의 화면(화상)을 표현하는 프레임은 복수개의 매크로블록(Macroblock)으로 분할되며, 도 3에서는 4개의 매크로블록 MB_0(500), MB_1(510), BM_2(520), MB_3(530)이 하나의 프레임(500)을 구성한 예를 도시한다.3 is a view for explaining a frame structure used in the present invention. A frame representing one screen (image) is divided into a plurality of macroblocks. In FIG. 3, four macroblocks MB_0 (500), MB_1 (510), BM_2 (520), and MB_3 (530) are one. An example of configuring the frame 500 is shown.

본 발명의 주요 기술적 사상은 동영상 정보(데이터)가 상기와 같이 프레임을 구성하는 매크로블록 별로 각각 인코딩/디코딩되는 것을 특징으로 하는데, 이하에서는 이에 대하여 상세히 설명한다.The main technical idea of the present invention is that video information (data) is encoded / decoded for each macroblock constituting a frame as described above, which will be described in detail below.

도 4는 본 발명에서 이용되는 복수의 프레임을 참조하는 시간적 스케일러블 인코딩/디코딩 방법의 개요도이다.4 is a schematic diagram of a temporal scalable encoding / decoding method for referring to a plurality of frames used in the present invention.

입력 또는 전송되는 동영상 정보는 시간적 스케일러빌리티를 위하여 기본화질의 시청을 위한 기본 프레임과 상기 기본화질보다 프레임 재생 속도가 높은 고화질 시청을 위한 제1 확장 프레임으로 추출된다. 이러한 기본 프레임들은 소위 "기본 계층(Base Layer)"을 형성하고, 확장 프레임들은 소위 "확장 계층(Enhancement Layer)"을 형성한다.The input or transmitted video information is extracted as a basic frame for viewing a basic picture for temporal scalability and a first extended frame for high quality viewing with a higher frame reproduction rate than the basic picture. These base frames form a so-called "Base Layer" and extension frames form a so-called "Enhancement Layer".

기본 프레임 중 최초 프레임은 일반적으로 원 영상으로부터 인트라 모드로 처리되며, 그 이후의 프레임들은 주로 이전 또는 이후의 프레임과의 연속성 및 유사성을 비교하여 인터 모드로 처리되거나 이웃하는 프레임과의 연속성 및 유사성이 낮은 경우(예, 장면이 전환된 경우)에는 인트라 모드로 처리된다.The first frame of the basic frame is generally processed in the intra mode from the original image, and subsequent frames are mainly processed in the inter mode by comparing the continuity and similarity with previous or subsequent frames, and the continuity and similarity with neighboring frames are compared. If it is low (eg when the scene is switched), it is processed in intra mode.

도 4를 참조하여 상세히 설명하면, 도시되지는 않았지만 B(0)를 최초 프레임이라 가정하면, B(0)는 4개의 매크로블록으로 구성되며 각각의 매크로블록은 참조 할 수 있는 프레임(참조 프레임)이 존재하지 않으므로 원 영상 자체로부터 인트라 모드로 처리된다. 한편, n번째 기본 프레임인 B(n)도 마찬가지로 4개의 매크로블록으로 구성되며, 각각의 매크로블록은 이웃하는 기본 프레임인 B(n-4), B(n-2), B(n+2) 등을 구성하는 매크로블록들과 연속성 및 유사성을 비교한 후 각각 가장 유사한 매크로블록을 참조하여 인터 모드로 처리되거나 또는 연속성 및 유사성이 낮은 경우 원 영상으로부터 인트라 모드로 처리된다.Although not shown in detail with reference to FIG. 4, assuming that B (0) is the first frame, B (0) is composed of four macroblocks, and each macroblock can be referred to as a frame (reference frame). Since it does not exist, it is processed in intra mode from the original image itself. On the other hand, B (n), which is the nth basic frame, is similarly composed of four macroblocks, and each macroblock has neighboring basic frames B (n-4), B (n-2), and B (n + 2). ) And continuity and similarity are compared with the macroblocks constituting the &lt; RTI ID = 0.0 &gt; etc., &Lt; / RTI &gt;

도 5는 하나의 프레임이 매크로블록 단위로 복수의 프레임을 참조하는 과정을 설명하는데, n번째 프레임을 구성하는 매크로블록들은 각각 그 이전의 프레임을 구성하는 매크로블록들과 연속성 및 유사성을 비교한 후 가장 유사한 매크로블록을 참조하여 인터 모드로 처리되는 것을 도시한다. 도 5에서, n번째 프레임을 구성하는 매크로블록들 중 예컨대 제1 매크로블록은 n-2번째 프레임을 구성하는 매크로블록을 참조하고, 제2 매크로블록은 n-1번째 프레임을 구성하는 매크로블록을 참조하고, 제3 매크로블록은 n-4번째 프레임을 구성하는 매크로블록을 참조함으로써, 동일 프레임(예, 도 5의 n번째 프레임)을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하여 인코딩/디코딩된다.FIG. 5 illustrates a process in which one frame refers to a plurality of frames in macroblock units, and macroblocks constituting the n-th frame are compared with the macroblocks constituting the previous frame and continuity and similarity, respectively. The processing in the inter mode is shown with reference to the most similar macroblock. In FIG. 5, for example, a first macroblock of macroblocks constituting an nth frame refers to a macroblock constituting an n-2nd frame, and a second macroblock refers to a macroblock constituting an n-1th frame. For reference, the third macroblock refers to a macroblock constituting the n-4th frame, whereby macroblocks constituting the same frame (eg, the nth frame of FIG. 5) are individually selected by selecting a reference frame. Frames are encoded / decoded with reference to a plurality of frames.

이를 위하여, 기본 프레임 정보에는, 전체 기본 프레임들 중 해당 프레임의 위치 또는 순서를 표현하는 프레임 정보, 해당 매크로블록이 인코딩/디코딩 시 참조하는 매크로블록을 표현하는 참조 매크로블록 정보, 참조 매크로블록을 정확한 위치로 이동하기 위한 움직임 벡터, 그리고 상기 참조 매크로블록에 대하여 움직임 보상을 수행하여 해당 매크로블록을 복원할 수 있는 예측에러정보가 포함된다.To this end, in the basic frame information, frame information representing the position or order of the frame among all the basic frames, reference macroblock information representing a macroblock referred to by the macroblock during encoding / decoding, and reference macroblocks A motion vector for moving to a position and prediction error information for reconstructing the macroblock by performing motion compensation on the reference macroblock are included.

한편, 상기 기본화질보다 프레임 재생 속도가 우수한 제1 고화질 시청을 위하여 별도의 제1 확장 프레임을 생성하는데, 이러한 제1 확장 프레임은 상기 기본 프레임들 사이에 삽입되어 시간당 프레임 재생 속도를 향상시킨다. 예컨대, 도 4에 도시된 확장 프레임 T(n-3), T(n-1), T(n+1)은 각각 기본 프레임 B(n-4), B(n-2), B(n) 사이에 삽입되어 프레임 재생 속도를 2배로 향상시킨다.Meanwhile, a separate first extended frame is generated for viewing a first high quality image having a better frame playback speed than the basic picture quality, and the first extended frame is inserted between the basic frames to improve the frame playback speed per hour. For example, the extended frames T (n-3), T (n-1), and T (n + 1) shown in FIG. 4 are the basic frames B (n-4), B (n-2), and B (n, respectively). ) To double the frame playback speed.

제1 확장 계층을 형성하는 제1 확장 프레임들은 기본 계층의 기본 프레임 또는 자체(제1 확장 계층)의 제1 확장 프레임으로부터 인터 모드로 처리되는데, 기본 프레임과 마찬가지로 각각의 제1 확장 프레임도 매크로블록들로 구성된다. 예컨대 제1 확장 프레임 T(n+1)은 4개의 매크로블록으로 구성되며, 각각의 매크로블록은 이웃하는 기본 프레임 B(n) 또는 B(n+2)을 구성하는 매크로블록을 참조하거나 또는 시간상으로 이전에 위치하는 제1 확장 프레임 T(n-3) 또는 T(n-1)을 구성하는 매크로블록을 참조하여 인터 모드로 처리된다.The first extended frames forming the first extended layer are processed in inter mode from the base frame of the base layer or from the first extended frame of its own (first extended layer). Like the base frame, each first extended frame is also a macroblock. It consists of For example, the first extended frame T (n + 1) consists of four macroblocks, each of which refers to a macroblock constituting a neighboring basic frame B (n) or B (n + 2) or in time. In the inter mode, the macroblock constituting the first extended frame T (n-3) or T (n-1) previously located is processed in the inter mode.

도 6은 본 발명에 따른 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩/디코딩 방법의 개요도이다.6 is a schematic diagram of a temporal and spatial scalable encoding / decoding method for referring to a plurality of frames according to the present invention.

전술한 바와 같이 생성된 기본 프레임 및 제1 확장 프레임을 기초로, 상기 제1 고화질보다 해상도가 높은 제2 고화질 시청을 위하여 별도의 제2 확장 프레임 정보를 생성하는데, 이러한 제2 확장 프레임은 상기 기본 프레임 및 제1 확장 프레임의 조합과 동일한 화면(화상)을 제공하며 상기 기본 프레임 및 제1 확장 프레임에 일대일로 대응된다. 예컨대, 도 4에 도시된 제2 확장 프레임 TS(n-4), TS(n-3), TS(n-2), TS(n-1), TS(n), TS(n+1), TS(n+2)은 각각 B(n-4), T(n-3), B(n-2), T(n-1), B(n), T(n+1), B(n+2)와 일대일 대응되며 해상도가 가로, 세로 각각 2배이다.Based on the base frame and the first extended frame generated as described above, separate second extended frame information is generated for viewing a second high definition having a higher resolution than the first high quality, wherein the second extended frame is the base extended frame. The same screen (picture) as the combination of the frame and the first extended frame is provided and corresponds one-to-one to the base frame and the first extended frame. For example, the second extended frame TS (n-4), TS (n-3), TS (n-2), TS (n-1), TS (n), TS (n + 1) shown in FIG. , TS (n + 2) is B (n-4), T (n-3), B (n-2), T (n-1), B (n), T (n + 1) and B, respectively. One-to-one correspondence with (n + 2), and the resolution is twice as wide and vertical respectively.

제2 확장 계층을 형성하는 제2 확장 프레임들은 동일한 화면(화상)을 표현하는 기본 프레임이나 제1 확장 프레임으로부터 또는 시간적으로 이전에 위치하는 제2 확장 프레임으로부터 인터 모드로 처리되는데, 기본 프레임, 제1 확장 프레임과 마찬가지로 각각의 제2 확장 프레임도 매크로블록들로 구성된다. 예컨대 확장 프레임 TS(n)은 4개의 매크로블록으로 구성되며, 각각의 매크로블록은 동일한 화면(화상)을 표현하는 기본 프레임 B'(n)을 구성하는 매크로블록을 참조하거나 또는 시간상으로 이전에 위치하는 제2 확장 프레임 TS(n-2) 또는 TS(n-1)을 구성하는 매크로블록을 참조하거나 또는 시간적으로 이후에 위치하는 제1 확장 프레임 T(N+1)을 참조하여 인터 모드로 처리된다The second extended frames forming the second extended layer are processed in an inter mode from a base frame representing the same screen (picture) or from a first extended frame or a second extended frame previously located in time. Like the one extended frame, each second extended frame is composed of macroblocks. For example, the extended frame TS (n) is composed of four macroblocks, each of which refers to a macroblock constituting a basic frame B '(n) representing the same picture (picture) or is previously located in time. Refer to a macroblock constituting the second extended frame TS (n-2) or TS (n-1) or refer to a first extended frame T (N + 1) located later in time to process in inter mode do

마찬가지로, 제1 및 제2 확장 프레임 정보에도, 확장 프레임들을 순차적으로 구성할 수 있도록 프레임 정보, 해당 매크로블록이 인코딩/디코딩 시 참조하는 매크로블록을 표현하는 참조 매크로블록 정보, 참조 매크로블록을 정확한 위치로 이동하기 위한 움직임 벡터, 그리고 상기 참조 매크로블록에 대하여 움직임 보상을 수행하여 해당 매크로블록을 복원할 수 있는 예측에러정보가 포함된다.Similarly, in the first and second extended frame information, frame information, reference macroblock information representing a macroblock referred to by the corresponding macroblock during encoding / decoding, and reference macroblocks may be precisely positioned so that extended frames may be sequentially configured. A motion vector for moving to and a prediction error information for reconstructing the macroblock by performing motion compensation on the reference macroblock are included.

도 7은 본 발명에 따른 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩 장치의 구성도이다. 본 발명에 따른 인코딩 장치(600)는 크게 동영상 정보(데이터)가 입력되는 동영상 입력부(610), 상기 동영상 정보로부터 기본 프레 임과 확장 프레임(제1 및 제2 확장 프레임)을 추출하는 프레임 추출부(620), 상기 기본 프레임과 확장 프레임을 매크로블록 단위로 인코딩하여 기본 프레임 정보와 확장 프레임 정보를 생성하는 프레임 정보 생성부(630), 및 상기 기본 프레임 정보와 확장 프레임 정보(제1 및 제2 확장 프레임 정보)를 출력하는 프레임 정보 출력부(640)를 포함한다.7 is a block diagram of a temporal and spatial scalable encoding apparatus for referring to a plurality of frames according to the present invention. The encoding apparatus 600 according to the present invention includes a video input unit 610 to which video information (data) is largely input, and a frame extraction unit to extract basic frames and extended frames (first and second extended frames) from the video information. 620, a frame information generation unit 630 for generating basic frame information and extended frame information by encoding the basic frame and the extended frame in macroblock units, and the basic frame information and extended frame information (first and second). Frame information output unit 640 for outputting extended frame information).

동영상 정보 또는 동영상 데이터는 비디오 카메라나 영화 촬영장치 등에 의해 생성된 정보(데이터)로서 원칙적으로는 아직 데이터 압축(인코딩)이 되지 않은 정보를 말한다. 그러나, 비록 데이터 압축(인코딩)된 정보라도 동영상 입력부(610)로 입력될 때 압축해제(디코딩)가 되었거나 또는 원래의 프레임을 생성(복원)할 수 있는 정보라면 본 발명에서 말하는 동영상 정보에 포함된다 할 것이다.The moving picture information or moving picture data is information (data) generated by a video camera, a movie shooting device, or the like, and, in principle, refers to information that has not yet been compressed (encoded). However, even if data compressed (encoded) information is decompressed (decoded) when inputted to the video input unit 610 or information that can generate (restore) an original frame, the information is included in the video information according to the present invention. something to do.

상기 동영상 입력부(610)로 입력된 동영상 정보는 프레임 추출부(620)로 전송되며, 프레임 추출부(620)에서는 상기 동영상 정보로부터 기본화질 시청을 위한 기본 프레임과 기본화질보다 프레임 재생 속도 및/또는 해상도가 높은 고화질 시청을 위한 확장 프레임을 추출한다. 예컨대, 동영상 정보에 대하여 소정의 기본주기로 기본 프레임을 추출하고, 상기 기본주기보다 빠른 주기(예컨대, 상기 기본주기의 1/2배인 주기)로 상기 기본 프레임을 제외한 제1 확장 프레임을 추출한다. 그리고, 상기 기본 프레임 및 제1 확장 프레임을 기초로 이보다 해상도가 높은 제2 확장 프레임을 추출한다. The video information input to the video input unit 610 is transmitted to the frame extractor 620, and the frame extractor 620 uses a frame reproduction speed and / or a basic frame for viewing a basic picture from the video information. Extract extended frame for high resolution viewing. For example, the basic frame is extracted with respect to the video information at a predetermined basic period, and the first extended frame except for the basic frame is extracted at a period faster than the basic period (for example, one half of the basic period). The second extended frame having a higher resolution is extracted based on the base frame and the first extended frame.

그리고, 이러한 기본 프레임과 제1 및 제2 확장 프레임은 프레임 정보 생성부(630)로 전송되며, 프레임 정보 생성부(630)에서는 이를 각각 매크로블록 단위로 인코딩하여 기본 프레임 정보 및 확장 프레임 정보(제1 및 제2 확장 프레임 정보)를 생성한다. 앞서 상세히 설명한 바와 같이, 인코딩시 동일 확장 프레임을 구성하는 매크로블록들은 각각 개별적으로 참조 프레임을 선택하며, 따라서 하나의 프레임은 복수의 프레임을 참조하여 프레임 정보가 생성된다. 한편, 프레임 정보 생성부(630)는, 기본 프레임을 매크로블록 단위로 인코딩하여 기본 프레임 정보를 생성하는 기본 프레임 정보 생성부와 제1 확장 프레임을 매크로블록 단위로 인코딩하여 제1 확장 프레임 정보를 생성하는 제1 확장 프레임 정보 생성부 그리고 제2 확장 프레임을 매크로블록 단위로 인코딩하여 제2 확장 프레임 정보를 생성하는 제2 확장 프레임 정보 생성부로 구분되어, 각각 개별적으로 기본 프레임 정보와 제1 및 제2 확장 프레임 정보를 생성하도록 구성되는 것도 바람직하다. 마지막으로, 프레임 정보 출력부(640)는 이와 같이 생성된 기본 프레임 정보와 제1 및 제2 확장 프레임 정보를 외부로 출력한다.The basic frame and the first and second extended frames are transmitted to the frame information generator 630, and the frame information generator 630 encodes them in units of macroblocks, respectively. First and second extended frame information). As described in detail above, the macroblocks constituting the same extended frame each select a reference frame individually, so that one frame is referred to a plurality of frames to generate frame information. Meanwhile, the frame information generator 630 generates a first extended frame information by encoding a basic frame in macroblock units and generating a basic frame information by encoding the first frame and a first extended frame in macroblock units. The first extended frame information generating unit and the second extended frame information generating unit for generating the second extended frame information by encoding the second extended frame in macroblock units, are respectively divided into basic frame information and the first and second It is also preferably configured to generate extended frame information. Finally, the frame information output unit 640 outputs the generated basic frame information and the first and second extended frame information to the outside.

기본 프레임과 확장 프레임으로부터 기본 프레임 정보와 확장 프레임 정보가 생성되는 구체적 과정은 전술한 인코딩 방법을 참조할 수 있으며, 따라서 중복적인 설명은 생략한다.The detailed process of generating the basic frame information and the extended frame information from the basic frame and the extended frame may refer to the above-described encoding method, and thus redundant description thereof will be omitted.

지금까지 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩 방법 및 장치를 설명하였는데, 이하에서는 전술한 바와 같은 과정으로 인코딩된 기본 프레임 정보와 확장 프레임 정보를 디코딩하는 방법 및 장치에 대하여 설명한다.So far, a method and apparatus for encoding temporal and spatial scalable encoding referring to a plurality of frames have been described. Hereinafter, a method and apparatus for decoding basic frame information and extended frame information encoded by the above-described process will be described.

설명의 편의를 위하여, 도 8을 참조하여 본 발명에 따른 복수의 프레임을 참조하는 디코딩 방법 및 장치를 함께 설명한다.For convenience of description, a decoding method and apparatus for referring to a plurality of frames according to the present invention will be described with reference to FIG. 8.

본 발명에 따른 디코딩 장치(700)는 크게 프레임 정보 입력부(710), 프레임 생성부(720), 프레임 조합부(730)로 구성된다.The decoding apparatus 700 according to the present invention largely includes a frame information input unit 710, a frame generator 720, and a frame combination unit 730.

프레임 정보 입력부(710)는 외부로부터 기본화질 시청을 위한 기본 프레임을 재생할 수 있는 기본 프레임 정보, 상기 기본화질보다 프레임 재생 속도가 높은 제1 고화질 시청을 위한 제1 확장 프레임을 재생할 수 있는 제1 확장 프레임 정보, 그리고, 상기 제1 고화질보다 해상도가 높은 제2 고화질 시청을 위한 제2 확장 프레임을 재생할 수 있는 제2 확장 프레임 정보를 수신하거나 입력받는다. 상기 수신(입력)된 기본 프레임 정보와 제1 및 제2 확장 프레임 정보는 프레임 생성부(720)에서 각각 매크로블록 단위로 디코딩되며, 이에 의해 인코딩되기 전의 기본 프레임과 제1 및 제2 확장 프레임으로 복원된다. 즉, 디코딩시 각각의 프레임 정보에 포함된 참조 매크로블록 정보, 움직임 벡터, 예측에러정보를 기초로 해당 프레임을 복원하며, 이 경우 동일 확장 프레임을 구성하는 매크로블록들이 참조 매크로블록 정보에 의해 각각 개별적으로 참조 프레임(정확히는 매크로블록)을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하여 디코딩된다. 상기 프레임 생성부(720)는, 기본 프레임 정보를 매크로블록 단위로 디코딩하여 기본 프레임을 생성하는 기본 프레임 생성부, 제1 확장 프레임 정보를 매크로블록 단위로 디코딩하여 제1 확장 프레임을 생성하는 제1 확장 프레임 생성부, 그리고 제2 확장 프레임 정보를 매크로블록 단위로 디코딩하여 제2 확장 프레임을 생성하는 제2 확장 프레임 생성부로 구분되어, 각각 개별적으로 기본 프레임과 제1 및 제2 확장 프레임을 생성하도록 구성되는 것도 바람직하다.The frame information input unit 710 may include basic frame information for reproducing a basic frame for viewing a basic image from outside, and a first extension for reproducing a first extended frame for viewing a first high quality image having a higher frame reproduction speed than the basic quality. Receives or receives frame information and second extended frame information capable of reproducing a second extended frame for viewing a second high definition having a higher resolution than the first high definition. The received (input) basic frame information and the first and second extended frame information are decoded in macroblock units by the frame generator 720, respectively, and thus are encoded into the basic frame and the first and second extended frames before being encoded. Is restored. That is, during decoding, the frame is restored based on the reference macroblock information, the motion vector, and the prediction error information included in each frame information. In this case, the macroblocks constituting the same extended frame are individually separated by the reference macroblock information. By selecting a reference frame (exactly a macroblock), one frame is decoded with reference to a plurality of frames. The frame generator 720 decodes the basic frame information in macroblock units to generate a basic frame, and decodes the first extended frame information in macroblock units to generate a first extended frame. The extended frame generator is divided into a second extended frame generator for generating a second extended frame by decoding the second extended frame information in macroblock units, so as to separately generate a basic frame and a first and second extended frame. It is also preferable that it is comprised.

그리고, 이렇게 생성된 기본 프레임과 제1 및 제2 확장 프레임은 프레임 조합부(730)에서 조합되어 원래의 동영상 정보(데이터)를 생성한다. 한편, 프레임 조합부(730)에서 기본 프레임과 제1 및 제2 확장 프레임을 조합할 때, 사용자 선택 또는 동영상을 재생할 수 있는 단말기 종류에 따라서, 기본 프레임들만 출력하여 기본화질의 시청이 가능하거나 또는 기본 프레임과 제1 확장 프레임을 모두 출력하여 제1 고화질의 시청이 가능하거나 또는 제2 확장 프레임만을 출력하여 제2 고화질 시청이 가능하도록 선택할 수 있게 바람직하다. 즉, 상기 프레임 조합부(730)는 사용자 등에 의해 입력되는 화질선택정보에 의해 상기 기본 프레임만을 조합하거나 또는 상기 기본 프레임과 제1 확장 프레임을 함께 조합하거나 또는 상기 제2 확장 프레임만을 조합하거나 또는 제 1/제 2 확장 프레임을 모두 조합하여 사용자가 원하는 화질의 동영상을 제공할 수 있도록 구현될 수 있다.The generated basic frame and the first and second extended frames are combined in the frame combination unit 730 to generate original video information (data). On the other hand, when combining the basic frame and the first and second extended frame in the frame combination unit 730, it is possible to view the basic quality by outputting only the basic frames according to the type of the terminal that can play the user selection or the video or It is preferable to output both the basic frame and the first extended frame to view the first high definition, or to output the second extended frame to select the second high definition. That is, the frame combination unit 730 combines only the basic frame, or combines the basic frame and the first extended frame together, or combines only the second extended frame, based on image quality selection information input by a user. The combination of all of the first and second extended frames may be implemented to provide a user with a desired video quality.

전술한 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 디코딩 방법 및 장치는 앞서 설명한 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩 방법 및 장치에서 생성된 기본 프레임 정보와 확장 프레임 정보를 디코딩하는 것이므로, 그 기본적인 원리 및 세부사항 등은 인코딩 방법 및 장치의 내용을 참조할 수 있다.Since the method and apparatus for temporal and spatial scalable decoding referencing the plurality of frames described above are to decode basic frame information and extended frame information generated by the method and apparatus for temporal and spatial scalable encoding referring to the plurality of frames described above, The basic principles and details thereof may refer to the contents of the encoding method and apparatus.

한편, 도 9에 도시된 바와 같이 본 발명을 위성 DMB와 같은 디지털 방송에 적용할 경우, 인코딩 장치에 의해 생성된 기본 프레임 정보와 확장 프레임 정보(제1 및 제2 확장 프레임 정보)는 각각 서로 다른 통신망을 통해 사용자 단말기로 전송되는 방안도 바람직하다. 예컨대, 기본 프레임 정보는 디지털 방송을 위해 전문 화된 제1 통신망(예, 위성 DMB망, 지상파 DMB망 등)(210)을 통해 전송되고, 확장 프레임 정보는 전문적인 디지털 방송망이 아닌 기존의 상용화된 제2 통신망(예, 무선 인터넷, 유선 인터넷, 이동통신망 등)(220)을 통해 전송됨으로써, 제1 통신망의 부하를 감소시킬 수 있다.Meanwhile, as shown in FIG. 9, when the present invention is applied to digital broadcasting such as satellite DMB, the basic frame information and the extended frame information (first and second extended frame information) generated by the encoding apparatus are different from each other. It is also desirable to transmit to a user terminal through a communication network. For example, the basic frame information is transmitted through a first communication network specialized for digital broadcasting (eg, satellite DMB network, terrestrial DMB network, etc.) 210, and extended frame information is not a professional digital broadcasting network but is a commercially available system. By transmitting through the two communication networks (eg, wireless Internet, wired Internet, mobile communication network, etc.) 220, it is possible to reduce the load of the first communication network.

그리고, DMB 수신 단말기(310, 320)는 그 성능(기능)에 따라 또는 사용자 선택에 따라 기본 프레임 정보만을 수신하여 기본화질의 방송을 제공하거나 기본 프레임 정보와 확장 프레임 정보를 모두 수신하여 고화질의 방송을 제공할 수 있다.In addition, the DMB receiving terminals 310 and 320 receive only basic frame information according to its performance (function) or user selection to provide basic quality broadcasting or receive both basic frame information and extended frame information to broadcast in high quality. Can be provided.

지금까지 본 발명을 바람직한 실시예를 참조하여 상세히 설명하였지만, 본 발명이 속하는 기술분야의 당업자는, 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 예컨대, 전술한 실시예에서는 시간적 스케일러빌리티 기술을 적용한 후에 공간적 스케일러빌리티 기술을 다시 적용한 경우를 예로 들었지만, 반대로 공간적 스케일러빌리티 기술을 적용한 후에 시간적 스케일러빌리티 기술을 적용하는 경우도 포함 본 발명의 권리범위에 포함된다 할 것이다.Although the present invention has been described in detail with reference to preferred embodiments, it will be apparent to those skilled in the art that the present invention can be implemented in other specific forms without changing the technical spirit or essential features thereof. One embodiment is to be understood in all respects as illustrative and not restrictive. For example, in the above-described embodiment, a case in which the spatial scalability technique is applied again after the temporal scalability technique is applied as an example, on the contrary, includes the case where the temporal scalability technique is applied after the spatial scalability technique is applied. Will be included.

그리고, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 특정되는 것이며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태는 본 발명의 범위에 포함되는 것으로 해석되어야 한다.In addition, the scope of the present invention is specified by the appended claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts are included in the scope of the present invention. Should be interpreted as

본 발명에 따르면, 시간적 및 공간적 스케일러빌리티를 갖도록 동영상 정보를 인코딩/디코딩할 경우 확장 프레임이 참조할 프레임을 프레임 단위로 결정하지 않고 프레임을 구성하는 매크로블록 단위로 결정함으로써, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택하여 압축률을 더욱 향상시킬 수 있는 효과를 가진다.According to the present invention, when encoding / decoding video information to have temporal and spatial scalability, the same extended frame is configured by determining the frame to be referred to by the extended frame in units of macroblocks constituting the frame, rather than determining the frame to be referred to. Each of the macroblocks has an effect of further improving the compression rate by individually selecting the reference frame.

Claims (11)

a) 동영상 정보에 대하여 기본화질 시청을 위한 기본 프레임 및 상기 기본화질보다 프레임 재생 속도 및 해상도가 높은 제 1 고화질 시청을 위한 제 1 확장 프레임을 추출하는 단계;a) extracting a basic frame for basic image viewing and a first extended frame for first high definition viewing having a higher frame reproduction speed and resolution than the basic image with respect to the video information; b) 상기 기본 프레임을 매크로블록 단위로 인코딩하여 기본 프레임 정보를 생성하는 단계;b) generating basic frame information by encoding the basic frame in macroblock units; c) 상기 제 1 확장 프레임을 매크로블록 단위로 인코딩하여 제 1 확장 프레임 정보를 생성하되, 하나의 제 1 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 제 1 확장 프레임이 복수의 프레임을 참조하도록 제 1 확장 프레임 정보를 생성하는 단계; 및c) generating first extended frame information by encoding the first extended frame in units of macroblocks, wherein macroblocks constituting one first extended frame each select a reference frame so that one first extended frame is Generating first extended frame information to refer to the plurality of frames; And d) 상기 기본 프레임 및 상기 제 1 확장 프레임을 기초로, 상기 제 1 고화질보다 해상도가 높은 제 2 고화질 시청을 위한 제 2 확장 프레임을 생성하고, 상기 제 2 확장 프레임을 매크로 블록 단위로 인코딩하여 제 2 확장 프레임 정보를 생성하되, 하나의 제 2 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 제 2 확장 프레임이 복수의 프레임을 참조하도록 제 2 확장 프레임 정보를 생성하는 단계;d) generating a second extended frame for viewing a second high definition having a higher resolution than the first high definition based on the basic frame and the first extended frame, encoding the second extended frame in units of macroblocks; Generating second extended frame information, and generating second extended frame information so that one second extended frame refers to a plurality of frames by each of the macroblocks constituting one second extended frame individually selecting a reference frame; ; 를 포함하는 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩 방법.Temporal and spatial scalable encoding method for referring to a plurality of frames comprising a. 제1항에 있어서,The method of claim 1, e) 상기 기본 프레임 정보, 상기 제 1 확장 프레임 정보 및 상기 제 2 확장 프레임 정보가 서로 다른 통신망으로 출력되는 단계를 더 포함하는 것을 특징으로 하는 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩 방법.e) outputting the basic frame information, the first extended frame information, and the second extended frame information to different communication networks, further comprising the step of referring to a plurality of frames. 제1항 또는 제2항에 있어서,The method according to claim 1 or 2, 상기 제 1 확장 프레임 각각은 상기 각 기본 프레임 사이에 삽입되며, Each of the first extended frames is inserted between the respective basic frames. 상기 제 2 확장 프레임은, 시간적인 순서에 따라 상기 기본 프레임 및 상기 제 1 확장 프레임에 일대일로 대응되는 것을 특징으로 하는 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩 방법.And the second extended frame corresponds one to one to the base frame and the first extended frame in a temporal order. 제1항 또는 제2항에 있어서,The method according to claim 1 or 2, 상기 기본 프레임 정보는 참조 매크로블록 정보, 움직임 벡터, 예측에러정보를 포함하는 것을 특징으로 하는 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩 방법.The basic frame information includes reference macroblock information, a motion vector, and prediction error information. 제1항 또는 제2항에 있어서,The method according to claim 1 or 2, 상기 제 1 및 제 2 확장 프레임 정보 각각은 참조 매크로블록 정보, 움직임 벡터, 예측에러정보를 포함하는 것을 특징으로 하는 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩 방법.And each of the first and second extended frame information includes reference macroblock information, a motion vector, and prediction error information. ⅰ) 기본화질 시청을 위한 기본 프레임을 재생할 수 있는 기본 프레임 정보, 상기 기본화질보다 프레임 재생 속도 및 해상도가 높은 제 1 확장 프레임 정보 및 상기 제 1 확장 프레임보다 프레임 재생 속도 및 해상도가 높은 제 2 확장 프레임 정보를 수신하는 단계;Iii) basic frame information capable of reproducing a basic frame for viewing a basic quality, first extended frame information having a higher frame reproduction speed and resolution than the basic quality, and a second extension having a higher frame reproduction speed and resolution than the first extended frame; Receiving frame information; ⅱ) 상기 기본 프레임 정보를 매크로블록 단위로 디코딩하여 기본 프레임을 생성하고, 상기 제 1 및 제 2 확장 프레임 정보를 매크로블록 단위로 디코딩하여 확장 프레임을 생성하되, 하나의 제 1 및 제 2 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 제 1 및 제 2 확장 프레임 각각이 복수의 프레임을 참조하여 상기 기본 프레임과 제1 및 제2 확장 프레임을 생성하는 단계; 및Ii) generating a basic frame by decoding the basic frame information in a macroblock unit, and generating an extended frame by decoding the first and second extended frame information in a macroblock unit, wherein one first and second extended frame is generated; Generating each of the base frame and the first and second extended frames by referring to a plurality of frames, wherein each of the first and second extended frames each selects a reference frame individually; And ⅲ) 상기 기본 프레임, 상기 제 1 확장 프레임 및 상기 제 2 확장 프레임을 조합하는 단계를 포함하는 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 디코딩 방법.Iii) a method of temporal and spatial scalable decoding referencing a plurality of frames comprising combining said base frame, said first extended frame and said second extended frame. 동영상 정보가 입력되는 동영상 입력부;A video input unit to which video information is input; 상기 동영상 정보로부터 기본화질 시청을 위한 기본 프레임과, 상기 기본화질보다 프레임 재생 속도 및 해상도가 높은 제 1 고화질 시청을 위한 제 1 확장 프레임을 추출하고, 시간적인 순서에 따라 상기 기본 프레임 및 상기 제 1 확장 프레임에 일대일로 대응되는 상기 제 1 고화질보다 해상도가 높은 제 2 고화질 시청을 위한 제 2 프레임을 추출하는 프레임 추출부;From the video information, a basic frame for viewing a basic quality, and a first extended frame for first high quality viewing having a higher frame reproduction speed and resolution than the basic quality are extracted, and the basic frame and the first in chronological order. A frame extracting unit which extracts a second frame for viewing a second high definition having a higher resolution than the first high definition corresponding to an extended frame one-to-one; 상기 기본 프레임으로부터 기본 프레임 정보를 생성하고, 상기 제 1 확장 프레임 및 상기 제 2 확장 프레임으로부터 제 1 및 제2 확장 프레임 정보를 생성하는 프레임 정보 생성부; 및A frame information generation unit generating basic frame information from the basic frame and generating first and second extended frame information from the first extended frame and the second extended frame; And 상기 기본 프레임 정보와 확장 프레임 정보를 출력하는 프레임 정보 출력부;를 포함하며,And a frame information output unit configured to output the basic frame information and extended frame information. 상기 프레임 정보 생성부는, The frame information generation unit, 상기 기본 프레임을 매크로블록 단위로 인코딩하여 기본 프레임 정보를 생성하는 기본 프레임 정보 생성부;A basic frame information generator for generating basic frame information by encoding the basic frame in macroblock units; 상기 제 1 확장 프레임을 매크로블록 단위로 인코딩하여 제 1 확장 프레임 정보를 생성하되, 상기 하나의 제 1 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 제 1 확장 프레임이 복수의 프레임을 참조하도록 제 1 확장 프레임 정보를 생성하는 제1 확장 프레임 정보 생성부; 및The first extended frame information is generated by encoding the first extended frame in macroblock units, and macroblocks constituting the first extended frame select a reference frame individually so that one first extended frame is plural. A first extended frame information generation unit generating first extended frame information to refer to a frame of the first frame information; And 상기 제 2 확장 프레임을 매크로블록 단위로 인코딩하여 제 2 확장 프레임 정보를 생성하되, 상기 하나의 제 2 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 제 2 확장 프레임이 복수의 프레임을 참조하도록 제 2 확장 프레임 정보를 생성하는 제2 확장 프레임 정보 생성부를 포함하는 것을 특징으로 하는 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 인코딩 장치.The second extended frame information is generated by encoding the second extended frame in macroblock units, and macroblocks constituting the second extended frame individually select a reference frame so that one second extended frame is plural. And a second extended frame information generator configured to generate second extended frame information so as to refer to the frame of the frame. 삭제delete 기본화질 시청을 위한 기본 프레임을 재생할 수 있는 기본 프레임 정보, 상기 기본화질보다 프레임 재생 속도 및 해상도가 높은 제 1 고화질 시청을 위한 제 1 확장 프레임 정보 및 상기 제 1 확장 프레임보다 프레임 재생 속도 및 해상도가 높은 제 2 고화질 시청을 위한 제 2 확장 프레임 정보를 입력받는 프레임 정보 입력부;Basic frame information for reproducing the basic frame for viewing the basic image quality, first extended frame information for the first high definition viewing frame having a higher frame reproduction speed and resolution than the basic quality, and a frame reproduction speed and resolution higher than the first extended frame A frame information input unit configured to receive second extended frame information for high second high quality viewing; 상기 기본 프레임 정보를 매크로블록 단위로 디코딩하여 기본 프레임을 생성하고, 상기 제 1 및 제 2 확장 프레임 정보를 매크로블록 단위로 디코딩하여 확장 프레임을 생성하되, 하나의 제 1 및 제2 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 제 1 및 제 2 확장 프레임 각각이 복수의 프레임을 참조하여 상기 기본 프레임과 제 1 및 제 2 확장 프레임을 생성하는 프레임 생성부; 및A basic frame is generated by decoding the basic frame information in macroblock units, and an extended frame is generated by decoding the first and second extended frame information in macroblock units, and constitutes one first and second extended frames. A frame generator configured to generate the base frame and the first and second extended frames with reference to a plurality of frames, wherein each of the first and second extended frames each selects a reference frame; And 상기 생성된 기본 프레임, 상기 제 1 확장 프레임 및 상기 제 2 확장 프레임을 조합하는 프레임 조합부를 포함하는 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 디코딩 장치.And a plurality of frames including a frame combination unit configured to combine the generated basic frame, the first extended frame, and the second extended frame. 삭제delete 제9항에 있어서,The method of claim 9, 상기 프레임 조합부는 화질선택정보에 의해 상기 기본 프레임만을 조합하거나 상기 기본 프레임과 제1 확장 프레임을 함께 조합하거나 또는 제2 확장 프레임만을 조합하는 것을 특징으로 하는 복수의 프레임을 참조하는 시간적 및 공간적 스케일러블 디코딩 장치.The frame combining unit combines only the basic frame, combines the basic frame and the first extended frame together, or combines only the second extended frame according to image quality selection information. Decoding device.
KR1020050102340A 2005-10-28 2005-10-28 Method and Apparatus for a Temporal ? Spatial Scalable Encoding/Decoding Based on Multiple Reference Frames KR100734141B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050102340A KR100734141B1 (en) 2005-10-28 2005-10-28 Method and Apparatus for a Temporal ? Spatial Scalable Encoding/Decoding Based on Multiple Reference Frames

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050102340A KR100734141B1 (en) 2005-10-28 2005-10-28 Method and Apparatus for a Temporal ? Spatial Scalable Encoding/Decoding Based on Multiple Reference Frames

Publications (2)

Publication Number Publication Date
KR20070045737A KR20070045737A (en) 2007-05-02
KR100734141B1 true KR100734141B1 (en) 2007-06-29

Family

ID=38271426

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050102340A KR100734141B1 (en) 2005-10-28 2005-10-28 Method and Apparatus for a Temporal ? Spatial Scalable Encoding/Decoding Based on Multiple Reference Frames

Country Status (1)

Country Link
KR (1) KR100734141B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101244551B1 (en) * 2011-04-01 2013-03-18 한국방송공사 Broadcasting system for http streaming video service over digital multimedia broadcasting

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101144498B1 (en) * 2008-04-28 2012-05-15 에스케이플래닛 주식회사 Scalable video provide system and scalable video provide method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030083760A (en) * 2002-01-18 2003-10-30 가부시끼가이샤 도시바 Moving picture coding method and apparatus and decoding method and apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030083760A (en) * 2002-01-18 2003-10-30 가부시끼가이샤 도시바 Moving picture coding method and apparatus and decoding method and apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101244551B1 (en) * 2011-04-01 2013-03-18 한국방송공사 Broadcasting system for http streaming video service over digital multimedia broadcasting

Also Published As

Publication number Publication date
KR20070045737A (en) 2007-05-02

Similar Documents

Publication Publication Date Title
US9071817B2 (en) Picture coding method and picture decoding method
KR101055738B1 (en) Method and apparatus for encoding/decoding video signal using prediction information of intra-mode macro blocks of base layer
RU2409005C2 (en) Method of scalable coding and decoding of video signal
JP5594536B2 (en) Image processing apparatus and method, program, and recording medium
KR20060088461A (en) Method and apparatus for deriving motion vectors of macro blocks from motion vectors of pictures of base layer when encoding/decoding video signal
WO2013164922A1 (en) Image processing device and image processing method
KR100878809B1 (en) Method of decoding for a video signal and apparatus thereof
JP2016092837A (en) Video compression apparatus, video reproduction apparatus and video distribution system
WO2019039283A1 (en) Image processing device and image processing method
WO2012098845A1 (en) Image encoding method, image encoding device, image decoding method, and image decoding device
KR20060027779A (en) Method and apparatus for encoding/decoding video signal using temporal and spatial correlations between macro blocks
US8098946B2 (en) Apparatus and method for image encoding and decoding using prediction
US9992513B2 (en) Image processing efficient transmission or reception of encoded information
JP2013012846A (en) Image processing device and image processing method
KR20060043118A (en) Method for encoding and decoding video signal
KR100883591B1 (en) Method and apparatus for encoding/decoding video signal using prediction information of intra-mode macro blocks of base layer
KR100734141B1 (en) Method and Apparatus for a Temporal ? Spatial Scalable Encoding/Decoding Based on Multiple Reference Frames
KR100731884B1 (en) Method and Apparatus for a Temporal Scalable Encoding/Decoding Based on Multiple Reference Frames
KR20060043050A (en) Method for encoding and decoding video signal
KR100681920B1 (en) Method and apparatus for a spatial scalable encoding/decoding based on multiple reference frames
JP4043406B2 (en) Image decoding method and apparatus, and television receiver capable of using them
KR100681914B1 (en) Digital broadcasting system and method using different kinds of networks
KR100925627B1 (en) Scalable video compression encoding/decoding apparatus based on image segmentation
JP3147636B2 (en) Video data arranging method and its encoding device and decoding device
KR20060043120A (en) Method for encoding and decoding video signal

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20130524

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140520

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150527

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160530

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20180530

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20190521

Year of fee payment: 13