KR100731884B1 - Method and Apparatus for a Temporal Scalable Encoding/Decoding Based on Multiple Reference Frames - Google Patents

Method and Apparatus for a Temporal Scalable Encoding/Decoding Based on Multiple Reference Frames Download PDF

Info

Publication number
KR100731884B1
KR100731884B1 KR1020050102335A KR20050102335A KR100731884B1 KR 100731884 B1 KR100731884 B1 KR 100731884B1 KR 1020050102335 A KR1020050102335 A KR 1020050102335A KR 20050102335 A KR20050102335 A KR 20050102335A KR 100731884 B1 KR100731884 B1 KR 100731884B1
Authority
KR
South Korea
Prior art keywords
frame
basic
information
extended
frames
Prior art date
Application number
KR1020050102335A
Other languages
Korean (ko)
Other versions
KR20070045733A (en
Inventor
박인규
황인성
김후종
Original Assignee
에스케이 텔레콤주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이 텔레콤주식회사 filed Critical 에스케이 텔레콤주식회사
Priority to KR1020050102335A priority Critical patent/KR100731884B1/en
Publication of KR20070045733A publication Critical patent/KR20070045733A/en
Application granted granted Critical
Publication of KR100731884B1 publication Critical patent/KR100731884B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 복수의 프레임을 참조하는 시간적 스케일러블 인코딩 및 디코딩 방법과 장치에 관한 것이다.The present invention relates to a method and apparatus for temporal scalable encoding and decoding referencing a plurality of frames.

본 발명에 따르면, 시간적 스케일러빌리티(Temporal Scalability)를 갖도록 동영상 정보를 인코딩/디코딩할 경우 확장 프레임이 참조할 프레임을 프레임 단위로 결정하지 않고 프레임을 구성하는 매크로블록 단위로 결정함으로써, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택할 수 있는 것을 특징으로 한다. 그리고, 이에 의해서 종래기술보다 압축률을 더욱 향상시킬 수 있는 효과를 가진다.According to the present invention, when encoding / decoding video information to have temporal scalability, the same extended frame is determined by determining the frame to be referred to by the extended frame in units of macroblocks constituting the frame, rather than determining the frame to be referred to. Each of the constituent macroblocks can be individually selected as a reference frame. And, this has the effect of further improving the compression ratio than the prior art.

Description

복수의 프레임을 참조하는 시간적 스케일러블 인코딩 및 디코딩 방법과 그 장치 {Method and Apparatus for a Temporal Scalable Encoding/Decoding Based on Multiple Reference Frames}Temporal scalable encoding and decoding method for referencing a plurality of frames, and apparatus therefor {Method and Apparatus for a Temporal Scalable Encoding / Decoding Based on Multiple Reference Frames}

도 1은 디지털 방송 시스템의 개요도,1 is a schematic diagram of a digital broadcasting system;

도 2는 종래기술에 따른 단일 프레임을 참조하는 시간적 스케일러블 인코딩/디코딩 방법의 개요도,2 is a schematic diagram of a temporal scalable encoding / decoding method for referring to a single frame according to the prior art;

도 3은 본 발명에서 이용되는 프레임 구조를 설명하는 도면,3 is a view for explaining a frame structure used in the present invention,

도 4는 본 발명에 따른 복수의 프레임을 참조하는 시간적 스케일러블 인코딩/디코딩 방법의 개요도,4 is a schematic diagram of a temporal scalable encoding / decoding method for referring to a plurality of frames according to the present invention;

도 5는 하나의 프레임이 매크로블록 단위로 복수의 프레임을 참조하는 과정을 설명하는 도면,FIG. 5 is a diagram illustrating a process in which one frame refers to a plurality of frames in macroblock units; FIG.

도 6은 본 발명에 따른 복수의 프레임을 참조하는 시간적 스케일러블 인코딩 장치의 구성도,6 is a configuration diagram of a temporal scalable encoding apparatus for referring to a plurality of frames according to the present invention;

도 7은 본 발명에 따른 복수의 프레임을 참조하는 시간적 스케일러블 디코딩 장치의 구성도,7 is a configuration diagram of a temporal scalable decoding apparatus for referring to a plurality of frames according to the present invention;

도 8은 이기종 네트워크를 통해 프레임 정보가 전송되는 과정을 설명하는 도면이다.8 is a diagram illustrating a process of transmitting frame information through a heterogeneous network.

< 도면의 주요 부분에 대한 부호의 설명 ><Description of Symbols for Main Parts of Drawings>

100, 110: 디지털 방송 센터 200: 통신망100, 110: digital broadcasting center 200: communication network

210: 제1 통신망 220: 제2 통신망210: first communication network 220: second communication network

310: 제1 단말기 320: 제2 단말기310: first terminal 320: second terminal

400: 프레임 500, 510, 520, 530: 매크로블록400: Frame 500, 510, 520, 530: Macroblock

600: 인코딩 장치 610: 동영상 정보 입력부600: encoding device 610: video information input unit

620: 프레임 추출부 630: 프레임 정보 생성부620: frame extraction unit 630: frame information generation unit

640: 프레임 정보 출력부 700: 디코딩 장치640: frame information output unit 700: decoding device

710: 프레임 정보 입력부 720: 프레임 생성부710: frame information input unit 720: frame generation unit

730: 프레임 조합부730: frame combination

본 발명은 복수의 프레임을 참조하는 시간적 스케일러블 인코딩 및 디코딩 방법과 장치에 관한 것으로, 보다 상세하게는 위성 DMB(Digital Multimedia Broadcasting) 등과 같은 디지털 방송 서비스를 위하여 시간적 스케일러빌리티(Temporal Scalability)를 갖도록 동영상 정보(데이터)를 압축할 때 복수의 프레임을 참조할 수 있도록 함으로써 압축률을 향상시킬 수 있는 복수의 프레임을 참조하는 시간적 스케일러블(Temporal Scalable) 인코딩 및 디코딩 방법과 장치에 관한 것이다.The present invention relates to a method and apparatus for temporal scalable encoding and decoding referencing a plurality of frames. More particularly, the present invention relates to a video to have temporal scalability for digital broadcasting services such as satellite digital multimedia broadcasting (DMB). A temporal scalable encoding and decoding method and apparatus for referencing a plurality of frames that can improve a compression rate by allowing a reference to a plurality of frames when compressing information (data).

일반적으로 동영상 정보(데이터)는 대용량을 가지므로 이를 효과적으로 압축하여 전송 또는 저장하는데, 이러한 동영상 정보(데이터) 압축 기술의 표준으로는 ISO/IEC(International data Communication/International Electrotechnical Commission)의 MPEG(Moving Picture Experts Group) 시리즈와 ITU-T(International Telecommunication Union-Telecommunication Session)의 H.26x 시리즈가 있다. 그리고, 디지털 방송 등과 관련하여 현재에는 "MPEG4 part2 video"나 또는 ISO/IEC의 MPEG 그룹과 ITU-T의 VCEG 그룹이 공동으로 결성한 JVT(Joint Video Team)에서 제안한 "H.264/MPEG4 part 10 AVC"가 주로 이용되고 있다.In general, since video information (data) has a large capacity, it is effectively compressed and transmitted or stored. As a standard of the video information (data) compression technology, moving picture MPEG (Moving Picture) of ISO / IEC (International Data Communication / International Electrotechnical Commission) Experts Group) and ITU-T (International Telecommunication Union-Telecommunication Session) H.26x series. In relation to digital broadcasting, "H.264 / MPEG4 part 10" proposed by JVT (Joint Video Team) jointly formed by "MPEG4 part2 video" or MPEG group of ISO / IEC and VCEG group of ITU-T. AVC "is mainly used.

동영상 압축 기술은 동영상 데이터의 통계적 특성이 공간적, 시간적으로 중복성(Redundancy)이 많다는 점을 이용하며, 일반적으로는 공간적 중복성을 줄이기 위하여 영상을 프레임 별로 이산여현변환(DCT; Discrete Cosine Transform)을 수행하고, 시간적 중복성을 줄이기 위하여 프레임 별로 이미 인코딩한 참조 영상으로부터 영상들 사이의 연속성 및 유사성을 찾아 차분펄스부호변조(DPCM; Differential Pulse Coded Modulation)를 수행한다.Video compression technology takes advantage of the fact that the statistical characteristics of video data have a lot of spatial and temporal redundancy.In general, to reduce spatial redundancy, a discrete cosine transform (DCT) is performed on a frame-by-frame basis. In order to reduce temporal redundancy, differential pulse coded modulation (DPCM) is performed by searching for continuity and similarity between images from the reference image that has been encoded for each frame.

이러한 동영상 압축을 위한 인코딩 모드로서는 인트라 모드(Intra mode)와 인터 모드(Inter mode)가 있다. 인트라 모드는 원 영상 자체에 내포된 연속성 및 유사성을 기반으로 변환하여 인코딩하는 모드이다. 그리고, 인터 모드는 영상 상호간의 연속성 및 유사성을 기반으로 인코딩하는 모드인데, 이는 시간상 이전에 존재하는 영상으로부터 움직임을 예측하고 이를 원 영상과 비교하여 예측에러를 인코딩하는 순방향 예측 모드(Predictive mode)와 시간상 이전 또는 이후에 존재하는 영상으로부터 움직임을 예측하고 이를 원 영상과 비교하여 예측에러를 인코딩하는 양방향 예측 모드(Bi-predictive mode) 등으로 구분될 수 있다.As encoding modes for video compression, there are an intra mode and an inter mode. Intra mode is a mode that converts and encodes based on continuity and similarity included in the original image itself. In addition, the inter mode is a mode for encoding based on continuity and similarity between images, which is a predictive mode that predicts motion from an existing image in time and compares it with the original image to encode a prediction error. It may be classified into a bi-predictive mode, which predicts a motion from an image existing before or after time, and compares it with an original image to encode a prediction error.

도 1 및 도 2를 참조하여 종래기술에 따른 디지털 방송 시스템의 개요와 시간적 스케일러블 인코딩/디코딩 기술을 간단히 살펴보면, 도 1에 도시된 바와 같이, 디지털 방송 센터(100)에서는 위성 DMB망 또는 지상파 DMB망(200) 등을 이용하여 동영상 정보를 전송하고 DMB 수신 단말기(310,320)가 이를 수신하여 재생하는 방식으로 디지털 방송이 이루어졌다. 한편, 현재의 디지털 방송에는 상용화되지 않았지만 고화질 방송을 위하여 동영상 재생에 있어 프레임 재생 속도를 선택할 수 있도록 인코딩/디코딩 시 시간적 스케일러빌리티를 갖도록 하는 기술이 존재하는데, 이는 다음과 같다.1 and 2, the outline of the digital broadcasting system and the temporal scalable encoding / decoding technology according to the prior art will be described briefly. As shown in FIG. 1, the digital broadcasting center 100 includes a satellite DMB network or a terrestrial DMB network. Digital broadcasting has been performed in such a manner that the video information is transmitted using the network 200 and the DMB receiving terminals 310 and 320 receive and reproduce the same. On the other hand, although not commercially available in current digital broadcasting, there is a technology to have temporal scalability in encoding / decoding so that frame playback speed can be selected for video playback for high quality broadcasting.

도 2를 참조하면, 동영상을 구성하는 프레임들은 기본화질 시청을 위한 다수의 기본 프레임들(B'(0),..., B'(n-4), B'(n-2), B'(n), B'(n+2),...)과 상기 기본화질보다 프레임 재생 속도가 향상된 고화질 시청을 위한 다수의 확장 프레임들(T'(1),..., T'(n-3), T'(n-1), T'(n+1),...)로 구분되며, 이러한 기본 프레임 및 확장 프레임을 각각 인코딩하여 기본 프레임 정보와 확장 프레임 정보를 생성한다. 그리고, 재생 시에는 기본 프레임 정보만 디코딩하거나 또는 기본 프레임 정보와 확장 프레임 정보를 모두 디코딩하여 조합할 수 있도록 함으로써 시간적 스케일러빌리티를 가진다.Referring to FIG. 2, the frames constituting the video include a plurality of basic frames B '(0), ..., B' (n-4), B '(n-2), and B for basic quality viewing. '(n), B' (n + 2), ...) and a plurality of extended frames T '(1), ..., T' ( n-3), T '(n-1), T' (n + 1), ...) and encodes the basic frame and the extended frame, respectively, to generate the basic frame information and the extended frame information. During playback, temporal scalability is achieved by decoding only basic frame information or by decoding and combining both basic frame information and extended frame information.

이를 위한 프레임에 처리 기술을 살펴보면, 기본 프레임 중 최초 프레임(B'(0))은 원 영상으로부터 인트라 모드로 처리되며, 그 이후의 기본 프레임들 (B'(2),..., B'(n-4), B'(n-2), B'(n), B'(n+2),...)은 주로 이전 또는 이후의 프레임과의 연속성 및 유사성을 비교하여 인터 모드로 처리되거나 이웃하는 프레임과의 연속성 및 유사성이 낮은 경우(예, 장면이 전환된 경우)에는 인트라 모드로 처리된다.Looking at the processing technique for the frame for this purpose, the first frame (B '(0)) of the basic frame is processed in the intra mode from the original image, the subsequent basic frames (B' (2), ..., B ' (n-4), B '(n-2), B' (n), B '(n + 2), ...) are mainly used in inter mode by comparing continuity and similarity with previous or subsequent frames. If the continuity and similarity with the processed or neighboring frames is low (e.g., when the scene is switched), it is processed in intra mode.

한편, 상기 기준 프레임 보다 프레임 재생 속도가 우수한 고화질 시청을 위하여 별도의 확장 프레임 정보가 생성되는데, 도 2에 도시된 바와 같이, 확장 프레임 T'(n+1)은 일반적으로 이전의 기본 프레임 B'(n) 또는 이후의 기본 프레임 B'(n+2)를 참조하여 생성(인터 모드 처리)되거나 또는 이전의 확장 프레임 T'(n-3), T'(n-1)을 참조하여 생성(인터 모드 처리)된다. 그리고, 이렇게 생성된 확장 프레임T'(1),..., T'(n-3), T'(n-1), T'(n+1) 등은 각각 기본 프레임 B'(0),..., B'(n-4), B'(n-2), B'(n) 사이에 삽입됨으로써 프레임 재생 속도를 2배로 향상시킨다.Meanwhile, separate extended frame information is generated for high-definition viewing having a better frame playback speed than the reference frame. As shown in FIG. 2, extended frame T '(n + 1) is generally the previous basic frame B'. (n) or later (inter mode processing) with reference to base frame B '(n + 2) or with reference to previous extended frames T' (n-3), T '(n-1) Inter mode processing). The extended frames T '(1), ..., T' (n-3), T '(n-1), T' (n + 1), and the like generated in this way are respectively the basic frames B '(0). By inserting between B '(n-4), B' (n-2) and B '(n), the frame reproduction speed is doubled.

그러나, 종래기술에 따른 시간적 스케일러블 인코딩/디코딩 기술은 확장 프레임을 인터 모드(예, 순방향 예측 모드, 양방향 예측 모드) 처리시 프레임 단위로 참조할 프레임을 결정하였으며, 따라서 압출률 향상에 있어서는 한계가 있었다.However, the temporal scalable encoding / decoding technique according to the prior art has determined a frame to refer to an extended frame on a frame basis in inter mode (eg, forward prediction mode, bidirectional prediction mode) processing, and thus there is a limit in improving the extrusion rate. there was.

본 발명은 상기와 같은 종래기술의 문제점을 해결하기 위하여 창안된 것으로, 본 발명의 목적은 시간적 스케일러빌리티를 갖도록 동영상 정보(데이터)를 압축할 때 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택하도록 함으로써 복수의 프레임을 참조하여 압축률을 향상시킬 수 있는 시간적 스케일러블 인코딩 및 디코딩 방법과 장치를 제공하는 것이다.The present invention was devised to solve the above problems of the prior art, and an object of the present invention is to individually refer to macroblocks constituting the same extended frame when compressing moving picture information (data) to have temporal scalability. The present invention provides a method and apparatus for temporally scalable encoding and decoding capable of improving a compression ratio by referring to a plurality of frames.

상기 목적을 위하여, 본 발명에 따른 복수의 프레임을 참조하는 시간적 스케일러블 인코딩 방법은, a) 동영상 정보에 대하여 기본화질 시청을 위한 기본 프레임과 상기 기본화질보다 프레임 재생 속도가 높은 고화질 시청을 위한 확장 프레임을 추출하는 단계; 및 b) 상기 기본 프레임을 매크로블록 단위로 인코딩하여 기본 프레임 정보를 생성하고 상기 확장 프레임을 매크로블록 단위로 인코딩하여 확장 프레임 정보를 생성하되, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하도록 상기 기본 프레임 정보와 확장 프레임 정보를 생성하는 단계를 포함하는 것을 특징으로 한다.For this purpose, a temporal scalable encoding method for referring to a plurality of frames according to the present invention includes: a) a base frame for viewing a basic image with respect to moving image information, and an extension for high-definition viewing with a higher frame reproduction speed than the basic image. Extracting a frame; And b) generating basic frame information by encoding the basic frame in macroblock units and generating extended frame information by encoding the extended frame in macroblock units, wherein macroblocks constituting the same extended frame are individually referenced frames. And generating the basic frame information and extended frame information so that one frame refers to a plurality of frames by selecting.

그리고, 본 발명에 따른 복수의 프레임을 참조하는 시간적 스케일러블 디코딩 방법은, ⅰ) 기본화질 시청을 위한 기본 프레임을 재생할 수 있는 기본 프레임 정보와 상기 기본화질보다 프레임 재생 속도가 높은 고화질 시청을 위한 확장 프레임을 재생할 수 있는 확장 프레임 정보를 수신하는 단계; ⅱ) 상기 기본 프레임 정보를 매크로블록 단위로 디코딩하여 기본 프레임을 생성하고 상기 확장 프레임 정보를 매크로블록 단위로 디코딩하여 확장 프레임을 생성하되, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하여 상기 기본 프레임과 확장 프레임을 생성하는 단계; 및 ⅲ) 상기 기본 프레임과 확장 프레임을 조합하는 단계를 포함하는 것을 특 징으로 한다.In addition, the temporal scalable decoding method for referring to a plurality of frames according to the present invention includes: (i) basic frame information capable of reproducing a basic frame for viewing a basic image quality, and an extension for high-definition viewing having a higher frame reproduction rate than the basic image quality. Receiving extended frame information capable of playing a frame; Ii) generating a basic frame by decoding the basic frame information in units of macroblocks, and generating an extended frame by decoding the extended frame information in units of macroblocks, wherein macroblocks constituting the same extended frame each separately refer to a reference frame; Selecting one frame to generate the base frame and the extended frame by referring to a plurality of frames; And iii) combining the basic frame and the extended frame.

한편, 본 발명에 따른 복수의 프레임을 참조하는 시간적 스케일러블 인코딩 장치는, 동영상 정보가 입력되는 동영상 입력부; 상기 동영상 정보로부터 기본화질 시청을 위한 기본 프레임과 상기 기본화질보다 프레임 재생 속도가 높은 고화질 시청을 위한 확장 프레임을 추출하는 프레임 추출부; 상기 기본 프레임을 매크로블록 단위로 인코딩하여 기본 프레임 정보를 생성하고 상기 확장 프레임을 매크로블록 단위로 인코딩하여 확장 프레임 정보를 생성하되, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하도록 상기 기본 프레임 정보와 확장 프레임 정보를 생성하는 프레임 정보 생성부; 및 상기 기본 프레임 정보와 확장 프레임 정보를 출력하는 프레임 정보 출력부를 포함하는 것을 특징으로 한다.On the other hand, the temporal scalable encoding apparatus for referencing a plurality of frames according to the present invention, the video input unit to which the video information is input; A frame extracting unit for extracting a basic frame for viewing a basic quality from the video information and an extended frame for high quality viewing having a higher frame reproduction speed than the basic quality; By generating the basic frame information by encoding the basic frame in macroblock units and generating the extended frame information by encoding the extended frame in macroblock units, macroblocks constituting the same extended frame are individually selected by reference frames. A frame information generation unit generating the basic frame information and the extended frame information so that one frame refers to a plurality of frames; And a frame information output unit configured to output the basic frame information and extended frame information.

그리고, 본 발명에 따른 복수의 프레임을 참조하는 시간적 스케일러블 디코딩 장치는, 기본화질 시청을 위한 기본 프레임을 재생할 수 있는 기본 프레임 정보와 상기 기본화질보다 프레임 재생 속도가 높은 고화질 시청을 위한 확장 프레임을 재생할 수 있는 확장 프레임 정보를 입력받는 프레임 정보 입력부; 상기 기본 프레임 정보를 매크로블록 단위로 디코딩하여 기본 프레임을 생성하고 상기 확장 프레임 정보를 매크로블록 단위로 디코딩하여 확장 프레임을 생성하되, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하여 상기 기본 프레임과 확장 프레임을 생성하는 프레임 생성부; 및 상기 생성된 기본 프레임과 확장 프레임을 조합하는 프레임 조합부를 포함하는 것을 특징으로 한다.In addition, the temporal scalable decoding apparatus referencing a plurality of frames according to the present invention includes basic frame information capable of reproducing a basic frame for viewing a basic image quality and extended frames for high quality viewing having a higher frame reproduction speed than the basic quality. A frame information input unit for receiving extended frame information which can be reproduced; By generating the basic frame by decoding the basic frame information in macroblock units, and generating an extended frame by decoding the extended frame information in macroblock units, macroblocks constituting the same extended frame are individually selected by reference frames. A frame generator configured to generate the basic frame and the extended frame with reference to a plurality of frames by one frame; And a frame combination unit for combining the generated basic frame and the extended frame.

이하에서는 첨부 도면 및 바람직한 실시예를 참조하여 본 발명을 상세히 설명한다. 하기 설명에서 도면들 중 동일 또는 유사한 구성요소에 대하여는 가능한 한 동일한 참조부호를 사용하였으며, 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략하였다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings and preferred embodiments. In the following description, the same or similar components are denoted by the same reference numerals as much as possible, and detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention are omitted.

구체적 설명에 앞서 본 발명에서 사용된 용어를 간단히 정의하면, "기본화질"이란 동영상 시청을 위해 제공되는 최소한의 화질(또는 표준화질)을 말하며, 예컨대 현재 상용화된 위성 DMB의 경우를 예로 들면 해상도 및 프레임 재생 속도가 각각 QVGA(320×240) 및 15fps인 화질을 말한다. 그리고, 이러한 기본화질보다 프레임 재생 속도가 높은 화질을 "고화질"이라 하며, 마찬가지로 위성 DMB의 경우를 예로 들면, QVGA/30fps, QVGA/45fps, QVGA/60fps 등의 화질을 말한다.Prior to the detailed description, the terms used in the present invention are simply defined, and the term "basic quality" refers to a minimum quality (or standard quality) provided for watching a video. For example, the resolution and Refers to picture quality of frame rate of QVGA (320 x 240) and 15 fps, respectively. In addition, the image quality having a higher frame reproduction speed than the basic image quality is referred to as "high image quality". Similarly, in the case of satellite DMB, the image quality of QVGA / 30fps, QVGA / 45fps, QVGA / 60fps, etc. is referred to.

도 3은 본 발명에서 이용되는 프레임 구조를 설명하는 도면이다. 하나의 화면(화상)을 표현하는 프레임은 복수 개의 매크로블록(Macroblock)으로 분할되며, 도 3에서는 4개의 매크로블록 MB_0(500), MB_1(510), BM_2(520), MB_3(530)이 하나의 프레임(500)을 구성한 예를 도시한다.3 is a view for explaining a frame structure used in the present invention. A frame representing one screen (image) is divided into a plurality of macroblocks. In FIG. 3, four macroblocks MB_0 (500), MB_1 (510), BM_2 (520), and MB_3 (530) are one. An example of configuring the frame 500 is shown.

본 발명의 주요 기술적 사상은 동영상 정보(데이터)가 상기와 같이 프레임을 구성하는 매크로블록 별로 각각 인코딩/디코딩되는 것을 특징으로 하는데, 이하에서는 이에 대하여 상세히 설명한다.The main technical idea of the present invention is that video information (data) is encoded / decoded for each macroblock constituting a frame as described above, which will be described in detail below.

도 4는 본 발명에 따른 복수의 프레임을 참조하는 시간적 스케일러블 인코딩/디코딩 방법의 개요도이다.4 is a schematic diagram of a temporal scalable encoding / decoding method for referring to a plurality of frames according to the present invention.

입력 또는 전송되는 동영상 정보는 시간적 스케일러빌리티를 위하여 기본화질의 시청을 위한 기본 프레임과 상기 기본화질보다 높은 고화질 시청을 위한 확장 프레임으로 추출된다. 이러한 기본 프레임들은 소위 "기본 계층(Base Layer)"을 형성하고, 확장 프레임들은 소위 "확장 계층(Enhancement Layer)"을 형성한다.The input or transmitted video information is extracted as a base frame for viewing a basic picture for temporal scalability and an extended frame for high quality viewing for the base picture. These base frames form a so-called "Base Layer" and extension frames form a so-called "Enhancement Layer".

기본 프레임 중 최초 프레임은 일반적으로 원 영상으로부터 인트라 모드로 처리되며, 그 이후의 프레임들은 주로 이전 또는 이후의 프레임과의 연속성 및 유사성을 비교하여 인터 모드로 처리되거나 이웃하는 프레임과의 연속성 및 유사성이 낮은 경우(예, 장면이 전환된 경우)에는 인트라 모드로 처리된다.The first frame of the basic frame is generally processed in the intra mode from the original image, and subsequent frames are mainly processed in the inter mode by comparing the continuity and similarity with previous or subsequent frames, and the continuity and similarity with neighboring frames are compared. If it is low (eg when the scene is switched), it is processed in intra mode.

도 4를 참조하여 상세히 설명하면, 도시되지는 않았지만 B(0)를 최초 프레임이라 가정하면, B(0)는 4개의 매크로블록으로 구성되며 각각의 매크로블록은 참조할 수 있는 프레임(참조 프레임)이 존재하지 않으므로 원 영상 자체로부터 인트라 모드로 처리된다. 한편, n번째 기본 프레임인 B(n)도 마찬가지로 4개의 매크로블록으로 구성되며, 각각의 매크로블록은 이웃하는 기본 프레임인 B(n-4), B(n-2), B(n+2) 등을 구성하는 매크로블록들과 연속성 및 유사성을 비교한 후 각각 가장 유사한 매크로블록을 참조하여 인터 모드로 처리되거나 또는 연속성 및 유사성이 낮은 경우 원 영상으로부터 인트라 모드로 처리된다.Although not shown in detail with reference to FIG. 4, assuming that B (0) is the first frame, B (0) is composed of four macroblocks, and each macroblock can be referred to as a frame (reference frame). Since it does not exist, it is processed in intra mode from the original image itself. On the other hand, B (n), which is the nth basic frame, is similarly composed of four macroblocks, and each macroblock has neighboring basic frames B (n-4), B (n-2), and B (n + 2). ) And continuity and similarity are compared with the macroblocks constituting the &lt; RTI ID = 0.0 &gt; etc., &Lt; / RTI &gt;

도 5는 하나의 프레임이 매크로블록 단위로 복수의 프레임을 참조하는 과정을 설명하는데, n번째 프레임을 구성하는 매크로블록들은 각각 그 이전의 프레임을 구성하는 매크로블록들과 연속성 및 유사성을 비교한 후 가장 유사한 매크로블록을 참조하여 인터 모드로 처리되는 것을 도시한다. 도 5에서, n번째 프레임을 구성하는 매크로블록들 중 예컨대 제1 매크로블록은 n-2번째 프레임을 구성하는 매크로블록을 참조하고, 제2 매크로블록은 n-1번째 프레임을 구성하는 매크로블록을 참조하고, 제3 매크로블록은 n-4번째 프레임을 구성하는 매크로블록을 참조함으로써, 동일 프레임(예, 도 5의 n번째 프레임)을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하여 인코딩/디코딩된다.FIG. 5 illustrates a process in which one frame refers to a plurality of frames in macroblock units, and macroblocks constituting the n-th frame are compared with the macroblocks constituting the previous frame and continuity and similarity, respectively. The processing in the inter mode is shown with reference to the most similar macroblock. In FIG. 5, for example, a first macroblock of macroblocks constituting an nth frame refers to a macroblock constituting an n-2nd frame, and a second macroblock refers to a macroblock constituting an n-1th frame. For reference, the third macroblock refers to a macroblock constituting the n-4th frame, whereby macroblocks constituting the same frame (eg, the nth frame of FIG. 5) are individually selected by selecting a reference frame. Frames are encoded / decoded with reference to a plurality of frames.

이를 위하여, 기본 프레임 정보에는, 전체 기본 프레임들 중 해당 프레임의 위치 또는 순서를 표현하는 프레임 정보, 해당 매크로블록이 인코딩/디코딩 시 참조하는 매크로블록을 표현하는 참조 매크로블록 정보, 참조 매크로블록을 정확한 위치로 이동하기 위한 움직임 벡터, 그리고 상기 참조 매크로블록에 대하여 움직임 보상을 수행하여 해당 매크로블록을 복원할 수 있는 예측에러정보가 포함된다.To this end, in the basic frame information, frame information representing the position or order of the frame among all the basic frames, reference macroblock information representing a macroblock referred to by the macroblock during encoding / decoding, and reference macroblocks A motion vector for moving to a position and prediction error information for reconstructing the macroblock by performing motion compensation on the reference macroblock are included.

한편, 상기 기본화질보다 프레임 재생 속도가 우수한 고화질 시청을 위하여 별도의 확장 프레임 정보를 생성하는데, 이러한 확장 프레임은 상기 기준 프레임들 사이에 삽입되어 시간당 프레임 재생 속도를 향상시킨다. 예컨대, 도 4에 도시된 확장 프레임 T(n-3), T(n-1), T(n+1)은 각각 기본 프레임 B(n-4), B(n-2), B(n) 뒤에 삽입되어 프레임 재생 속도를 2배로 향상시킨다.Meanwhile, separate extended frame information is generated for high-definition viewing with better frame reproduction speed than the basic quality. The extended frame is inserted between the reference frames to improve the frame playback speed per hour. For example, the extended frames T (n-3), T (n-1), and T (n + 1) shown in FIG. 4 are the basic frames B (n-4), B (n-2), and B (n, respectively). Inserted after) to double the frame playback speed.

확장 계층을 형성하는 확장 프레임들은 기본 계층의 기본 프레임 또는 자체(확장 계층)의 확장 프레임으로부터 인터 모드로 처리되는데, 기본 프레임과 마찬가지로 각각의 확장 프레임도 매크로블록들로 구성된다. 예컨대 확장 프레임 T(n+1) 은 4개의 매크로블록으로 구성되며, 각각의 매크로블록은 이웃하는 기본 프레임 B(n) 또는 B(n+2)을 구성하는 매크로블록을 참조하거나 또는 시간상으로 이전에 위치하는 확장 프레임 T(n-3) 또는 T(n-1)을 구성하는 매크로블록을 참조하여 인터 모드로 처리된다.The extension frames forming the enhancement layer are processed in an inter mode from the base frame of the base layer or an extension frame of its own (extension layer). Like the base frame, each extension frame is composed of macroblocks. For example, the extended frame T (n + 1) consists of four macroblocks, each of which refers to a macroblock constituting a neighboring basic frame B (n) or B (n + 2) or moves in time. It is processed in an inter mode with reference to a macroblock constituting an extended frame T (n-3) or T (n-1) located at.

마찬가지로, 확장 프레임 정보에도, 확장 프레임들을 순차적으로 구성할 수 있도록 프레임 정보, 해당 매크로블록이 인코딩/디코딩 시 참조하는 매크로블록을 표현하는 참조 매크로블록 정보, 참조 매크로블록을 정확한 위치로 이동하기 위한 움직임 벡터, 그리고 상기 참조 매크로블록에 대하여 움직임 보상을 수행하여 해당 매크로블록을 복원할 수 있는 예측에러정보가 포함된다.Similarly, in the extended frame information, frame information, reference macroblock information representing a macroblock referenced by the corresponding macroblock during encoding / decoding, and movement for moving the reference macroblock to the correct position so that extended frames can be sequentially formed. A vector and prediction error information for reconstructing the macroblock by performing motion compensation on the reference macroblock are included.

도 6은 본 발명에 따른 복수의 프레임을 참조하는 시간적 스케일러블 인코딩 장치의 구성도이다. 본 발명에 따른 인코딩 장치(600)는 크게 동영상 정보(데이터)가 입력되는 동영상 입력부(610), 상기 동영상 정보로부터 기본 프레임과 확장 프레임을 추출하는 프레임 추출부(620), 상기 기본 프레임과 확장 프레임을 매크로블록 단위로 인코딩하여 기본 프레임 정보와 확장 프레임 정보를 생성하는 프레임 정보 생성부(630), 및 상기 기본 프레임 정보와 확장 프레임 정보를 출력하는 프레임 정보 출력부(640)를 포함한다.6 is a block diagram of a temporal scalable encoding apparatus for referring to a plurality of frames according to the present invention. The encoding apparatus 600 according to the present invention includes a video input unit 610 to which video information (data) is largely input, a frame extractor 620 which extracts a basic frame and an extended frame from the video information, and the basic frame and an extended frame. Frame information generation unit 630 for generating basic frame information and extended frame information by encoding the macroblock in macroblock units, and a frame information output unit 640 for outputting the basic frame information and extended frame information.

동영상 정보 또는 동영상 데이터는 비디오 카메라나 영화 촬영장치 등에 의해 생성된 정보(데이터)로서 원칙적으로는 아직 데이터 압축(인코딩)이 되지 않은 정보를 말한다. 그러나, 비록 데이터 압축(인코딩)된 정보라도 동영상 입력부(610)로 입력될 때 압축해제(디코딩)가 되었거나 또는 원래의 프레임을 생성(복원) 할 수 있는 정보라면 본 발명에서 말하는 동영상 정보에 포함된다 할 것이다.The moving picture information or moving picture data is information (data) generated by a video camera, a movie shooting device, or the like, and, in principle, refers to information that has not yet been compressed (encoded). However, even if data compressed (encoded) information is decompressed (decoded) when inputted to the video input unit 610 or information capable of generating (restored) an original frame, it is included in the video information according to the present invention. something to do.

상기 동영상 입력부(610)로 입력된 동영상 정보는 프레임 추출부(620)로 전송되며, 프레임 추출부(620)에서는 상기 동영상 정보로부터 기본화질 시청을 위한 기본 프레임과 기본화질보다 프레임 재생 속도가 높은 고화질 시청을 위한 확장 프레임을 추출한다. 예컨대, 동영상 정보에 대하여 소정의 기본주기로 기본 프레임을 추출하고, 상기 기본주기보다 빠른 주기(예컨대, 상기 기본주기의 1/2배인 주기)로 상기 기본 프레임을 제외한 확장 프레임을 추출한다. 그리고, 이러한 기본 프레임과 확장 프레임은 프레임 정보 생성부(630)로 전송되며, 프레임 정보 생성부(630)에서는 이를 각각 매크로블록 단위로 인코딩하여 기본 프레임 정보 및 확장 프레임 정보를 생성한다. 앞서 상세히 설명한 바와 같이, 인코딩시 동일 프레임을 구성하는 매크로블록들은 각각 개별적으로 참조 프레임을 선택하며, 따라서 하나의 프레임은 복수의 프레임을 참조하여 프레임 정보가 생성된다. 한편, 프레임 정보 생성부(630)는, 기본 프레임을 매크로블록 단위로 인코딩하여 기본 프레임 정보를 생성하는 기본 프레임 정보 생성부와 확장 프레임을 매크로블록 단위로 인코딩하여 확장 프레임 정보를 생성하는 확장 프레임 정보 생성부로 구분되어, 각각 개별적으로 기본 프레임 정보 및 확장 프레임 정보를 생성하도록 구성되는 것도 바람직하다. 마지막으로, 프레임 정보 출력부(640)는 이와 같이 생성된 기본 프레임 정보와 확장 프레임 정보를 외부로 출력한다.Video information input to the video input unit 610 is transmitted to the frame extractor 620, the frame extractor 620 is a high quality frame playback rate higher than the basic frame and basic quality for viewing the basic image from the video information Extract the extended frame for viewing. For example, the basic frame is extracted with respect to the video information at a predetermined basic period, and the extended frame except for the basic frame is extracted at a period faster than the basic period (for example, 1/2 times the basic period). The basic frame and the extended frame are transmitted to the frame information generator 630, and the frame information generator 630 encodes them in units of macroblocks to generate basic frame information and extended frame information. As described in detail above, macroblocks constituting the same frame at encoding each individually select a reference frame, and thus, frame information is generated with reference to a plurality of frames in one frame. On the other hand, the frame information generation unit 630, the basic frame information generation unit for generating the basic frame information by encoding the basic frame in macroblock units and the extended frame information for generating extended frame information by encoding the extended frame in macroblock units It is also preferably divided into a generation unit, and configured to generate basic frame information and extended frame information, respectively. Finally, the frame information output unit 640 outputs the basic frame information and the extended frame information generated in this way to the outside.

기본 프레임과 확장 프레임으로부터 기본 프레임 정보와 확장 프레임 정보가 생성되는 구체적 과정은 전술한 인코딩 방법을 참조할 수 있으며, 따라서 중복적인 설명은 생략한다.The detailed process of generating the basic frame information and the extended frame information from the basic frame and the extended frame may refer to the above-described encoding method, and thus redundant description thereof will be omitted.

지금까지 복수의 프레임을 참조하는 시간적 스케일러블 인코딩 방법 및 장치를 설명하였는데, 이하에서는 전술한 바와 같은 과정으로 인코딩된 기본 프레임 정보와 확장 프레임 정보를 디코딩하는 방법 및 장치에 대하여 설명한다.So far, a temporal scalable encoding method and apparatus for referencing a plurality of frames have been described. Hereinafter, a method and apparatus for decoding basic frame information and extended frame information encoded by the above-described process will be described.

설명의 편의를 위하여, 도 7을 참조하여 본 발명에 따른 복수의 프레임을 참조하는 디코딩 방법 및 장치를 함께 설명한다.For convenience of description, a decoding method and apparatus for referring to a plurality of frames according to the present invention will be described with reference to FIG. 7.

본 발명에 따른 디코딩 장치(700)는 크게 프레임 정보 입력부(710), 프레임 생성부(720), 프레임 조합부(730)로 구성된다.The decoding apparatus 700 according to the present invention largely includes a frame information input unit 710, a frame generator 720, and a frame combination unit 730.

프레임 정보 입력부(710)는 외부로부터 기본화질 시청을 위한 기본 프레임을 재생할 수 있는 기본 프레임 정보와 상기 기본화질보다 프레임 재생 속도가 높은 고화질 시청을 위한 확장 프레임을 재생할 수 있는 확장 프레임 정보를 수신하거나 입력받는다. 상기 수신(입력)된 기본 프레임 정보와 확장 프레임 정보는 프레임 생성부(720)에서 각각 매크로블록 단위로 디코딩되며, 이에 의해 인코딩되기 전의 기본 프레임과 확장 프레임으로 복원된다. 즉, 디코딩 시 각각의 프레임 정보에 포함된 참조 매크로블록 정보, 움직임 벡터, 예측에러정보를 기초로 해당 프레임을 복원하며, 이 경우 동일 확장 프레임을 구성하는 매크로블록들이 참조 매크로블록 정보에 의해 각각 개별적으로 참조 프레임(정확히는 매크로블록)을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하여 디코딩된다. 상기 프레임 생성부(720)는, 기본 프레임 정보를 매크로블록 단위로 디코딩하여 기본 프레임을 생성하는 기본 프레임 생성부와 확장 프레임 정보를 매크로블록 단위로 디코딩하여 확장 프레 임을 생성하는 확장 프레임 생성부로 구분되어, 각각 개별적으로 기본 프레임과 확장 프레임을 생성하도록 구성되는 것도 바람직하다.The frame information input unit 710 receives or inputs basic frame information capable of playing a basic frame for viewing a basic picture quality from the outside and extended frame information capable of playing an extended frame for a high quality viewing having a higher frame reproduction speed than the basic picture quality. Receive. The received (input) basic frame information and extended frame information are decoded in units of macroblocks by the frame generator 720, and are restored to the basic frame and the extended frame before encoding. That is, during decoding, the frame is restored based on the reference macroblock information, the motion vector, and the prediction error information included in each frame information. In this case, the macroblocks constituting the same extended frame are individually separated by the reference macroblock information. By selecting a reference frame (exactly a macroblock), one frame is decoded with reference to a plurality of frames. The frame generator 720 is divided into a basic frame generator for generating basic frames by decoding basic frame information in macroblock units and an extended frame generator for generating extended frames by decoding extended frame information in macroblock units. It is also preferred that each of them be configured to generate a base frame and an extended frame separately.

그리고, 이렇게 생성된 기본 프레임과 확장 프레임은 프레임 조합부(730)에서 조합되어 원래의 동영상 정보(데이터)를 생성한다. 한편, 프레임 조합부(730)에서 기본 프레임과 확장 프레임을 조합할 때, 사용자 선택 또는 동영상을 재생할 수 있는 단말기 종류에 따라서, 기본 프레임들만 출력하여 기본화질의 시청이 가능하거나 또는 기본 프레임과 확장 프레임을 모두 출력하여 고화질의 시청이 가능하도록 선택할 수 있도록 하는 것이 바람직하다. 즉, 상기 프레임 조합부(730)는 사용자 등에 의해 입력되는 화질선택정보에 의해 상기 기본 프레임만을 조합하거나 또는 상기 기본 프레임과 확장 프레임을 함께 조합하여 사용자가 원하는 화질의 동영상을 제공할 수 있도록 구현될 수 있다.The generated basic frame and the extended frame are combined in the frame combination unit 730 to generate original video information (data). On the other hand, when combining the basic frame and the extended frame in the frame combination unit 730, depending on the type of the terminal that can play the user selection or video, only the basic frames can be output to watch the basic quality or the basic frame and the extended frame It is desirable to output all of them so that they can be selected to enable high quality viewing. That is, the frame combination unit 730 may be implemented to provide a video of a desired quality by combining only the basic frame or combining the basic frame and the extended frame by the image quality selection information input by the user. Can be.

전술한 복수의 프레임을 참조하는 시간적 스케일러블 디코딩 방법 및 장치는 앞서 설명한 복수의 프레임을 참조하는 시간적 스케일러블 인코딩 방법 및 장치에서 생성된 기본 프레임 정보와 확장 프레임 정보를 디코딩하는 것이므로, 그 기본적인 원리 및 세부사항 등은 인코딩 방법 및 장치의 내용을 참조할 수 있다.Since the temporal scalable decoding method and apparatus referring to the plurality of frames described above are to decode basic frame information and extended frame information generated by the temporal scalable encoding method and apparatus referring to the plurality of frames described above, For details, refer to the contents of the encoding method and apparatus.

한편, 도 8에 도시된 바와 같이 본 발명을 위성 DMB와 같은 디지털 방송에 적용할 경우, 인코딩 장치에 의해 생성된 기본 프레임 정보와 확장 프레임 정보는 각각 서로 다른 통신망을 통해 사용자 단말기로 전송되는 방안도 바람직하다. 예컨대, 기본 프레임 정보는 디지털 방송을 위해 전문화된 제1 통신망(예, 위성 DMB망, 지상파 DMB망 등)(210)을 통해 전송되고, 확장 프레임 정보는 전문적인 디지털 방송망이 아닌 기존의 상용화된 제2 통신망(예, 무선 인터넷, 유선 인터넷, 이동통신망 등)(220)을 통해 전송됨으로써, 제1 통신망의 부하를 감소시킬 수 있다.Meanwhile, as shown in FIG. 8, when the present invention is applied to digital broadcasting such as satellite DMB, basic frame information and extended frame information generated by the encoding apparatus are respectively transmitted to the user terminal through different communication networks. desirable. For example, basic frame information is transmitted through a first communication network specialized for digital broadcasting (eg, satellite DMB network, terrestrial DMB network, etc.) 210, and extended frame information is not a professional digital broadcasting network but is a commercially available system. By transmitting through the two communication networks (eg, wireless Internet, wired Internet, mobile communication network, etc.) 220, it is possible to reduce the load of the first communication network.

그리고, DMB 수신 단말기(310, 320)는 그 성능(기능)에 따라 또는 사용자 선택에 따라 기본 프레임 정보만을 수신하여 기본화질의 방송을 제공하거나 기본 프레임 정보와 확장 프레임 정보를 모두 수신하여 고화질의 방송을 제공할 수 있다.In addition, the DMB receiving terminals 310 and 320 receive only basic frame information according to its performance (function) or user selection to provide basic quality broadcasting or receive both basic frame information and extended frame information to broadcast in high quality. Can be provided.

지금까지 본 발명을 바람직한 실시예를 참조하여 상세히 설명하였지만, 본 발명이 속하는 기술분야의 당업자는, 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다.Although the present invention has been described in detail with reference to preferred embodiments, it will be apparent to those skilled in the art that the present invention can be implemented in other specific forms without changing the technical spirit or essential features thereof. One embodiment is to be understood in all respects as illustrative and not restrictive.

그리고, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 특정되는 것이며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태는 본 발명의 범위에 포함되는 것으로 해석되어야 한다.In addition, the scope of the present invention is specified by the appended claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts are included in the scope of the present invention. Should be interpreted as

본 발명에 따르면, 시간적 스케일러빌리티를 갖도록 동영상 정보를 인코딩/디코딩할 경우 확장 프레임이 참조할 프레임을 프레임 단위로 결정하지 않고 프레임을 구성하는 매크로블록 단위로 결정함으로써, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택하여 압축률을 더욱 향상시킬 수 있는 효과를 가진다.According to the present invention, when encoding / decoding video information to have temporal scalability, the macroblock constituting the same extended frame is determined by determining the frame to be referred to by the extended frame in units of macroblocks constituting the frame, rather than in units of frames. Each of them has an effect of further improving the compression ratio by selecting reference frames individually.

Claims (10)

a) 동영상 정보에 대하여 기본화질 시청을 위한 기본 프레임과 상기 기본화질보다 프레임 재생 속도가 높은 고화질 시청을 위한 확장 프레임을 추출하는 단계; 및a) extracting a basic frame for viewing a basic picture and extended frames for high quality viewing having a higher frame reproduction speed than the basic picture with respect to the video information; And b) 상기 기본 프레임을 매크로블록 단위로 인코딩하여 기본 프레임 정보를 생성하고 상기 확장 프레임을 매크로블록 단위로 인코딩하여 확장 프레임 정보를 생성하되, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하도록 상기 기본 프레임 정보와 확장 프레임 정보를 생성하는 단계를 포함하는 복수의 프레임을 참조하는 시간적 스케일러블 인코딩 방법.b) generating basic frame information by encoding the basic frame in macroblock units, and generating extended frame information by encoding the extended frame in macroblock units, wherein macroblocks constituting the same extended frame are individually Generating the basic frame information and extended frame information such that one frame refers to a plurality of frames by selecting. 제1항에 있어서,The method of claim 1, c) 상기 기본 프레임 정보와 상기 확장 프레임 정보가 서로 다른 통신망으로 출력되는 단계를 더 포함하는 것을 특징으로 하는 복수의 프레임을 참조하는 시간적 스케일러블 인코딩 방법.and c) outputting the basic frame information and the extended frame information to different communication networks. 제1항 또는 제2항에 있어서,The method according to claim 1 or 2, 상기 기본 프레임 정보는 참조 매크로블록 정보, 움직임 벡터, 예측에러정보를 포함하는 것을 특징으로 하는 복수의 프레임을 참조하는 시간적 스케일러블 인 코딩 방법.The basic frame information includes reference macroblock information, a motion vector, and prediction error information. 제1항 또는 제2항에 있어서,The method according to claim 1 or 2, 상기 확장 프레임 정보는 참조 매크로블록 정보, 움직임 벡터, 예측에러정보를 포함하는 것을 특징으로 하는 복수의 프레임을 참조하는 시간적 스케일러블 인코딩 방법.The extended frame information includes reference macroblock information, a motion vector, and prediction error information. ⅰ) 기본화질 시청을 위한 기본 프레임을 재생할 수 있는 기본 프레임 정보와 상기 기본화질보다 프레임 재생 속도가 높은 고화질 시청을 위한 확장 프레임을 재생할 수 있는 확장 프레임 정보를 수신하는 단계;Iii) receiving basic frame information for reproducing the basic frame for viewing the basic picture quality and extended frame information for reproducing the extended frame for high quality viewing having a higher frame reproduction speed than the basic picture quality; ⅱ) 상기 기본 프레임 정보를 매크로블록 단위로 디코딩하여 기본 프레임을 생성하고 상기 확장 프레임 정보를 매크로블록 단위로 디코딩하여 확장 프레임을 생성하되, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하여 상기 기본 프레임과 확장 프레임을 생성하는 단계; 및Ii) generating a basic frame by decoding the basic frame information in units of macroblocks, and generating an extended frame by decoding the extended frame information in units of macroblocks, wherein macroblocks constituting the same extended frame each separately refer to a reference frame; Selecting one frame to generate the base frame and the extended frame by referring to a plurality of frames; And ⅲ) 상기 기본 프레임과 확장 프레임을 조합하는 단계를 포함하는 복수의 프레임을 참조하는 시간적 스케일러블 디코딩 방법.And v) combining the base frame and the extended frame. 동영상 정보가 입력되는 동영상 입력부;A video input unit to which video information is input; 상기 동영상 정보로부터 기본화질 시청을 위한 기본 프레임과 상기 기본화질 보다 프레임 재생 속도가 높은 고화질 시청을 위한 확장 프레임을 추출하는 프레임 추출부;A frame extracting unit for extracting a basic frame for viewing a basic quality from the video information and an extended frame for high quality viewing having a higher frame reproduction speed than the basic quality; 상기 기본 프레임을 매크로블록 단위로 인코딩하여 기본 프레임 정보를 생성하고 상기 확장 프레임을 매크로블록 단위로 인코딩하여 확장 프레임 정보를 생성하되, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하도록 상기 기본 프레임 정보와 확장 프레임 정보를 생성하는 프레임 정보 생성부; 및By generating the basic frame information by encoding the basic frame in macroblock units and generating the extended frame information by encoding the extended frame in macroblock units, macroblocks constituting the same extended frame are individually selected by reference frames. A frame information generation unit generating the basic frame information and the extended frame information so that one frame refers to a plurality of frames; And 상기 기본 프레임 정보와 확장 프레임 정보를 출력하는 프레임 정보 출력부를 포함하는 복수의 프레임을 참조하는 시간적 스케일러블 인코딩 장치.And a plurality of frames including a frame information output unit configured to output the basic frame information and extended frame information. 제6항에 있어서,The method of claim 6, 상기 프레임 정보 생성부는, 기본 프레임을 매크로블록 단위로 인코딩하여 기본 프레임 정보를 생성하는 기본 프레임 정보 생성부와 확장 프레임을 매크로블록 단위로 인코딩하여 확장 프레임 정보를 생성하는 확장 프레임 정보 생성부로 구분되어 있는 것을 특징으로 하는 복수의 프레임을 참조하는 시간적 스케일러블 인코딩 장치.The frame information generator is divided into a basic frame information generator for generating basic frame information by encoding the basic frame in macroblock units and an extended frame information generator for generating extended frame information by encoding the extended frame in macroblock units. And a temporal scalable encoding apparatus referencing a plurality of frames. 기본화질 시청을 위한 기본 프레임을 재생할 수 있는 기본 프레임 정보와 상기 기본화질보다 프레임 재생 속도가 높은 고화질 시청을 위한 확장 프레임을 재생할 수 있는 확장 프레임 정보를 입력받는 프레임 정보 입력부;A frame information input unit configured to receive basic frame information for reproducing a basic frame for viewing a basic quality and extended frame information for reproducing an extended frame for a high definition viewing having a higher frame reproduction speed than the basic quality; 상기 기본 프레임 정보를 매크로블록 단위로 디코딩하여 기본 프레임을 생성하고 상기 확장 프레임 정보를 매크로블록 단위로 디코딩하여 확장 프레임을 생성하되, 동일 확장 프레임을 구성하는 매크로블록들이 각각 개별적으로 참조 프레임을 선택함으로써 하나의 프레임이 복수의 프레임을 참조하여 상기 기본 프레임과 확장 프레임을 생성하는 프레임 생성부; 및By generating the basic frame by decoding the basic frame information in macroblock units, and generating an extended frame by decoding the extended frame information in macroblock units, macroblocks constituting the same extended frame are individually selected by reference frames. A frame generator configured to generate the basic frame and the extended frame with reference to a plurality of frames by one frame; And 상기 생성된 기본 프레임과 확장 프레임을 조합하는 프레임 조합부를 포함하는 복수의 프레임을 참조하는 시간적 스케일러블 디코딩 장치.And a plurality of frames including a frame combination unit for combining the generated basic frame and the extended frame. 제8항에 있어서,The method of claim 8, 상기 프레임 생성부는, 기본 프레임 정보를 매크로블록 단위로 디코딩하여 기본 프레임을 생성하는 기본 프레임 생성부와 확장 프레임 정보를 매크로블록 단위로 디코딩하여 확장 프레임을 생성하는 확장 프레임 생성부로 구분되어 있는 것을 특징으로 하는 복수의 프레임을 참조하는 시간적 스케일러블 디코딩 장치.The frame generator is divided into a basic frame generator for generating basic frames by decoding basic frame information in macroblock units and an extended frame generator for generating extended frames by decoding extended frame information in macroblock units. And a temporal scalable decoding apparatus referencing a plurality of frames. 제8항 또는 제9항에 있어서,The method according to claim 8 or 9, 상기 프레임 조합부는 화질선택정보에 의해 상기 기본 프레임만을 조합하거나 상기 기본 프레임과 확장 프레임을 함께 조합하는 것을 특징으로 하는 복수의 프레임을 참조하는 시간적 스케일러블 디코딩 장치.And the frame combination unit refers to a plurality of frames, wherein only the basic frame is combined or the basic frame and the extended frame are combined together according to image quality selection information.
KR1020050102335A 2005-10-28 2005-10-28 Method and Apparatus for a Temporal Scalable Encoding/Decoding Based on Multiple Reference Frames KR100731884B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050102335A KR100731884B1 (en) 2005-10-28 2005-10-28 Method and Apparatus for a Temporal Scalable Encoding/Decoding Based on Multiple Reference Frames

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050102335A KR100731884B1 (en) 2005-10-28 2005-10-28 Method and Apparatus for a Temporal Scalable Encoding/Decoding Based on Multiple Reference Frames

Publications (2)

Publication Number Publication Date
KR20070045733A KR20070045733A (en) 2007-05-02
KR100731884B1 true KR100731884B1 (en) 2007-06-25

Family

ID=38271423

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050102335A KR100731884B1 (en) 2005-10-28 2005-10-28 Method and Apparatus for a Temporal Scalable Encoding/Decoding Based on Multiple Reference Frames

Country Status (1)

Country Link
KR (1) KR100731884B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101144498B1 (en) * 2008-04-28 2012-05-15 에스케이플래닛 주식회사 Scalable video provide system and scalable video provide method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268568A (en) 2000-03-17 2001-09-28 Matsushita Electric Ind Co Ltd Method and device for recording marco block of subtraction coefficient
US20020150158A1 (en) 2000-12-15 2002-10-17 Feng Wu Drifting reduction and macroblock-based control in progressive fine granularity scalable video coding
KR20060063614A (en) * 2004-12-06 2006-06-12 엘지전자 주식회사 Method for scalably encoding and decoding video signal
KR20060063612A (en) * 2004-12-06 2006-06-12 엘지전자 주식회사 Method for encoding and decoding video signal
KR20060101847A (en) * 2005-03-21 2006-09-26 엘지전자 주식회사 Method for scalably encoding and decoding video signal

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268568A (en) 2000-03-17 2001-09-28 Matsushita Electric Ind Co Ltd Method and device for recording marco block of subtraction coefficient
US20020150158A1 (en) 2000-12-15 2002-10-17 Feng Wu Drifting reduction and macroblock-based control in progressive fine granularity scalable video coding
US20050147164A1 (en) 2000-12-15 2005-07-07 Microsoft Corporation Drifting reduction and macroblock-based control in progressive fine granularity scalable video coding
KR20060063614A (en) * 2004-12-06 2006-06-12 엘지전자 주식회사 Method for scalably encoding and decoding video signal
KR20060063612A (en) * 2004-12-06 2006-06-12 엘지전자 주식회사 Method for encoding and decoding video signal
KR20060101847A (en) * 2005-03-21 2006-09-26 엘지전자 주식회사 Method for scalably encoding and decoding video signal

Also Published As

Publication number Publication date
KR20070045733A (en) 2007-05-02

Similar Documents

Publication Publication Date Title
KR101055738B1 (en) Method and apparatus for encoding/decoding video signal using prediction information of intra-mode macro blocks of base layer
US9071817B2 (en) Picture coding method and picture decoding method
RU2409005C2 (en) Method of scalable coding and decoding of video signal
US7961788B2 (en) Method and apparatus for video encoding and decoding, and recording medium having recorded thereon a program for implementing the method
KR20060088461A (en) Method and apparatus for deriving motion vectors of macro blocks from motion vectors of pictures of base layer when encoding/decoding video signal
KR20060105409A (en) Method for scalably encoding and decoding video signal
KR19990072968A (en) Picture signal processing system, decoder, picture signal processing method, and decoding method
WO2010067810A1 (en) Image processing device and method
KR100878809B1 (en) Method of decoding for a video signal and apparatus thereof
WO2013164922A1 (en) Image processing device and image processing method
WO2012098845A1 (en) Image encoding method, image encoding device, image decoding method, and image decoding device
KR20060027779A (en) Method and apparatus for encoding/decoding video signal using temporal and spatial correlations between macro blocks
US8098946B2 (en) Apparatus and method for image encoding and decoding using prediction
JP2013012846A (en) Image processing device and image processing method
KR20060043118A (en) Method for encoding and decoding video signal
KR100883591B1 (en) Method and apparatus for encoding/decoding video signal using prediction information of intra-mode macro blocks of base layer
KR100860661B1 (en) Image reproducing method and image processing method, and image reproducing device, image processing device, and television receiver capable of using the methods
KR100734141B1 (en) Method and Apparatus for a Temporal ? Spatial Scalable Encoding/Decoding Based on Multiple Reference Frames
KR100731884B1 (en) Method and Apparatus for a Temporal Scalable Encoding/Decoding Based on Multiple Reference Frames
KR20060043050A (en) Method for encoding and decoding video signal
KR100681920B1 (en) Method and apparatus for a spatial scalable encoding/decoding based on multiple reference frames
KR100681914B1 (en) Digital broadcasting system and method using different kinds of networks
JP4043406B2 (en) Image decoding method and apparatus, and television receiver capable of using them
KR100925627B1 (en) Scalable video compression encoding/decoding apparatus based on image segmentation
JP3147636B2 (en) Video data arranging method and its encoding device and decoding device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20130524

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140520

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150527

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180503

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20190409

Year of fee payment: 13