KR20040076428A - Apparatus for temporal scalable video coding and method thereof - Google Patents

Apparatus for temporal scalable video coding and method thereof Download PDF

Info

Publication number
KR20040076428A
KR20040076428A KR1020030011772A KR20030011772A KR20040076428A KR 20040076428 A KR20040076428 A KR 20040076428A KR 1020030011772 A KR1020030011772 A KR 1020030011772A KR 20030011772 A KR20030011772 A KR 20030011772A KR 20040076428 A KR20040076428 A KR 20040076428A
Authority
KR
South Korea
Prior art keywords
frame
layer
bitstream
processor
sync
Prior art date
Application number
KR1020030011772A
Other languages
Korean (ko)
Other versions
KR100952761B1 (en
Inventor
지석만
윤도현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020030011772A priority Critical patent/KR100952761B1/en
Publication of KR20040076428A publication Critical patent/KR20040076428A/en
Application granted granted Critical
Publication of KR100952761B1 publication Critical patent/KR100952761B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PURPOSE: A temporal scalable video coding system and method thereof are provided to recover an error within a short period of time when the error is generated while video service such as wired/wireless video phone and VOD(Video On Demand) is provided. CONSTITUTION: A temporal scalable video coding system includes a scalatility pre-processor(101), a base layer(104), and at least one enhancement layer(102). The scalability pre-processor divides an input image in response to a frame rate. The base layer generates a lower layer bitstream from the first input data. The enhancement layer generates an upper layer bitstream from the second input data using an encoder mid-processor(103). The temporal scalable video coding system includes a base layer for generating the first output from a lower bitstream using a decoder mid=processor when an error is generated in the lower layer bitstream, at least one enhancement layer for generating the second output from an upper bitstream using a mid-processor when an error is generated in the upper layer bitstream, and a scalability post-processor for generating an output image from the first and second outputs.

Description

임시적 범위성 영상 코딩 장치 및 방법 {Apparatus for temporal scalable video coding and method thereof}Apparatus for temporal scalable video coding and method

본 발명은 임시적 범위성 영상 코딩(temporal scalable video coding)에 관한 것으로, 특히 에러에 강한 Temporal scalable video coding 장치 및 방법에 관한 것이다.The present invention relates to temporal scalable video coding, and more particularly, to an apparatus and method for temporal scalable video coding that is resistant to errors.

이하 종래 및 본 발명에 대해 설명한다.Hereinafter, the conventional and the present invention will be described.

일반적으로 에러가 많이 발생하는 환경에서 영상의 품질을 높이기 위해서는 유/무선 영상전화, VOD 등 영상서비스에서 에러가 발생했을 때, 짧은 시간에 에러를 복원해야 한다.In general, in order to improve video quality in an error-prone environment, when an error occurs in a video service such as a wired / wireless videophone or a VOD, the error should be restored in a short time.

그러나 종래에 있어서 유/무선 통신망을 이용하는 영상 서비스는 할당되는 대역폭(bandwidth)이 가변적이기 때문에 이에 대응하는 방법의 하나로 temporal scalable video coding을 한다.However, in the related art, a video service using a wired / wireless communication network has temporal scalable video coding as one of methods corresponding thereto because an allocated bandwidth is variable.

그런데 유/무선 통신망에서는 전송에러가 발생하는데, 종래의 temporal scalability는 에러의 전파를 막을 수는 있지만 에러의 복원을 할 수 없었다.However, transmission errors occur in wired / wireless communication networks. In the conventional temporal scalability, error propagation can be prevented, but the error cannot be recovered.

따라서 본 발명에서는 상기와 같은 문제점을 해결하고자 한 것으로, 본 발명의 Temporal scalability는 base layer와 한 개 이상의 enhancement layer로 구성이 되어 모든 layer는 그 상위 또는 하위 layer에 발생한 에러를 복원할 수 있는 정보를 전달하며, 임의의 layer에서 에러가 발생하면 그 상위 및 하위 layer로부터 에러를 복원하는 것을 제안한다.Therefore, the present invention is to solve the above problems, the temporal scalability of the present invention is composed of a base layer and one or more enhancement layers so that all the layers can restore information generated in the upper or lower layers If an error occurs in an arbitrary layer, we propose to restore the error from the upper and lower layers.

도 1은 temporal scalable video encoder의 high level 블럭도1 is a high level block diagram of a temporal scalable video encoder

도 2는 temporal scalable video decoder의 high level 블럭도2 is a high level block diagram of a temporal scalable video decoder

도 3은 상기 도 1의 temporal scalable video encoder를 상세하게 나타낸 도면FIG. 3 is a diagram illustrating in detail the temporal scalable video encoder of FIG. 1. FIG.

도 4는 상기 도 2의 temporal scalable video decoder를 상세하게 나타낸 도면4 is a diagram illustrating in detail the temporal scalable video decoder of FIG.

도 5는 temporal scalable video encoder의 high level 구조에서 N개의 EL을 가질경우를 나타낸 도면FIG. 5 illustrates a case of having N ELs in a high level structure of a temporal scalable video encoder

도 6은 temporal scalable video decoder의 high level 구조에서 N개의 EL을 가질경우를 나타낸 도면FIG. 6 is a diagram illustrating a case of having N ELs in a high level structure of a temporal scalable video decoder. FIG.

도 7은 본 발명의 Encoder에서의 Temporal scalable video coding 방법을 나타낸 흐름도7 is a flowchart illustrating a temporal scalable video coding method in an encoder of the present invention.

도 8은 본 발명의 Decoder에서의 Temporal scalable video coding 방법을 나타낸 흐름도8 is a flowchart illustrating a temporal scalable video coding method in a decoder of the present invention.

본 발명의 Temporal scalable video coding 장치는, 입력 영상을 frame rate에 따라서 서로 다르게 나누는 Scalability pre-processor와; 제 1 입력 데이터로부터 하위 layer bitstream을 생성하는 base layer와; 제 2 입력 데이터로부터 encoder mid-processor를 이용하여 상위 layer bitstream을 생성하는 하나이상의 enhancement layer; 를 포함하여 구성된다.A temporal scalable video coding apparatus according to the present invention comprises: a scalability pre-processor for dividing an input image differently according to a frame rate; A base layer for generating a lower layer bitstream from the first input data; At least one enhancement layer for generating an upper layer bitstream from the second input data using an encoder mid-processor; It is configured to include.

또한 본 발명은, 하위 layer bitstream에 에러가 발생시 decoder mid-processor를 이용해서 하위 bitstream으로부터 제 1 출력을 생성하는 base layer와, 상위 layer bitstream에 에러가 발생시 mid-processor를 이용해서 상위 bitstream으로부터 제 2 출력을 생성하는 하나이상의 enhancement layer와; 상기 제 1, 2출력으로 부터 출력영상을 만드는 Scalability post-processor ;를 포함하여 구성된다.The present invention also provides a base layer for generating a first output from a lower bitstream using a decoder mid-processor when an error occurs in a lower layer bitstream, and a second from a higher bitstream using a mid-processor when an error occurs in an upper layer bitstream. One or more enhancement layers for generating output; And a scalability post-processor for producing an output image from the first and second outputs.

또한 본 발명의 Encoder에서의 Temporal scalable video coding 방법은, 하위층인 base layer와 상위층인 하나이상의 enhancement layer를 구성하는 단계; 모든 enhancement layer에 주기적으로 그 하위 layer의 프레임과 동일한 시간에 동일한 프레임인 sync 프레임을 코딩하는 단계; 상위층의 sync 프레임은 동일한 층(layer)의 이전 프레임과 하위층의 sync 프레임의 차이를 코딩하는 단계;를 포함한다.In addition, the Temporal scalable video coding method in the encoder of the present invention comprises the steps of: configuring a base layer which is a lower layer and at least one enhancement layer; Coding a sync frame that is the same frame at the same time as a frame of the lower layer periodically in all enhancement layers; The sync frame of the upper layer includes coding a difference between the previous frame of the same layer and the sync frame of the lower layer.

또한 본 발명의 Decoder에서의 Temporal scalable video coding 방법은, 하위층인 base layer와 상위층인 하나이상의 enhancement layer를 구성하는 단계; 임의의 층에서 임의의 프레임에 에러가 발생시에, 에러가 없는 그 상위층의 sync 프레임 또는 에러가 없는 하위층의 프레임으로부터 에러를 복원하는 단계;를 포함한다.In addition, the Temporal scalable video coding method in the decoder of the present invention, comprising the steps of configuring a base layer which is a lower layer and at least one enhancement layer; And when an error occurs in any frame in any layer, recovering the error from the sync frame of the upper layer without errors or the frame of the lower layer without errors.

본 발명의 다른 목적, 특징들은 첨부한 도면을 참조한 실시예들의 상세한 설명을 통해 명백해질 것이다.Other objects and features of the present invention will become apparent from the detailed description of the embodiments with reference to the accompanying drawings.

이하 첨부된 도면을 참조하여 본 발명에 따른 Temporal scalable video coding 장치와 방법에 대하여 설명한다.Hereinafter, a temporal scalable video coding apparatus and method according to the present invention will be described with reference to the accompanying drawings.

먼저, 본 발명의 특징을 설명한다.First, the features of the present invention will be described.

Temporal scalability는 한 개의 base layer와 한 개 이상의 enhancement layers로 구성된다.Temporal scalability consists of one base layer and one or more enhancement layers.

1) 모든 enhancement layer에 각각 주기적으로 그 하위 layer의 frame과 동일한 시간에 동일한 frame을 coding 한다. 이때, 동일한 시간의 동일한 두 frame을 동기프레임 (sync frame)이라 부른다.1) For each enhancement layer, the same frame is coded periodically at the same time as the frame of the lower layer. In this case, two identical frames at the same time are called sync frames .

2) 한 쌍의 sync frame 중 상위 layer의 sync frame은 동일한 layer의 이전 frame과 하위 layer의 sync frame의 차이를 coding 한다.2) The sync frame of the upper layer among the pair of sync frames codes the difference between the previous frame of the same layer and the sync frame of the lower layer.

3) 임의의 layer에서 임의의 frame에 에러가 발생하면 에러가 없는 그 상위 layer의 sync frame으로부터 에러를 복원한다.3) If an error occurs in any frame in any layer, the error is recovered from the sync frame of the upper layer where there is no error.

4) 또는 임의의 layer에서 임의의 frame에 에러가 발생하면 에러가 없는 하위 layer의 frame으로부터 에러를 복원한다.4) Or, if an error occurs in any frame in any layer, the error is recovered from the frame of the lower layer without errors.

이하 도면을 인용하여 설명한다.Hereinafter, the drawings will be described with reference.

도 1은 temporal scalable video encoder의 high level 블럭도이다.1 is a high level block diagram of a temporal scalable video encoder.

도면에서 보는바와 같이, 출력 bitstream(1,0)이 한 개의 base layer (BL) (104)과 한 개의 enhancement layer (EL) (102)로 이루어 질 때를 나타낸다.As shown in the figure, this shows when the output bitstream (1,0) consists of one base layer (BL) 104 and one enhancement layer (EL) 102.

영상 인코더 (Video encoder)가 N개의 EL을 가질 때는 도 1의 BL encoder가 EL n encoder를, 도 1의 EL 1 encoder가 EL n+1 encoder를 나타낸다 (n=1부터 N-1까지).When the video encoder has N ELs, the BL encoder of FIG. 1 represents the EL n encoder, and the EL 1 encoder of FIG. 1 represents the EL n + 1 encoder (n = 1 to N-1).

Scalability pre-processor (101)는 입력 영상을 frame rate에 따라서 입력 0과 입력 1로 나눈다.Scalability pre-processor 101 divides the input image into input 0 and input 1 according to the frame rate.

즉, BL의 frame rate에 맞는 frame은 입력 0으로, 그렇지 않은 frame은 입력 1로 나눈다.That is, a frame matching the BL frame rate is divided by input 0, and a frame that is not otherwise divided by input 1.

BL encoder는 입력 0으로부터 하위 layer bitstream (bitstream 0)를 만든다.The BL encoder creates a lower layer bitstream (bitstream 0) from input zero.

EL 1 encoder는 encoder mid-processor (103)를 이용해서 입력 1로부터 상위 layer bitstream (bitstream 1)을 만든다.The EL 1 encoder creates an upper layer bitstream (bitstream 1) from input 1 using the encoder mid-processor (103).

도 2는 temporal scalable video decoder의 high level 블럭도이다.2 is a high level block diagram of a temporal scalable video decoder.

도면에서 보는바와 같이, 입력 bitstream(1,0)이 한 개의 BL과 한 개의 EL로 이루어질 때를 나타낸다.As shown in the figure, this shows when the input bitstream (1,0) consists of one BL and one EL.

Video decoder가 N개의 EL을 가질 때는 도 2의 BL decoder(203)가 EL n decoder를, 도 2의 EL 1 decoder (201)가 EL n+1 decoder를 나타낸다. (n=1부터N-1까지).When the video decoder has N ELs, the BL decoder 203 of FIG. 2 represents an EL n decoder, and the EL 1 decoder 201 of FIG. 2 represents an EL n + 1 decoder. (n = 1 through N-1).

BL decoder는 하위 layer bitstream (bitstream 0)로부터 출력 0를 만든다.The BL decoder generates output 0 from the lower layer bitstream (bitstream 0).

Bitstream 0에 에러가 발생했으면, BL decoder는 decoder mid-processor(202)를 이용해서 하위 layer bitstream (bitstream 0)로부터 출력 0를 만든다.If an error occurs in Bitstream 0, the BL decoder uses the decoder mid-processor 202 to generate output 0 from the lower layer bitstream (bitstream 0).

한편, EL 1 decoder (201)는 decoder mid-processor를 이용해서 상위 layer bitstream (bitstream 1)으로부터 출력 1을 만든다.On the other hand, the EL 1 decoder 201 produces an output 1 from an upper layer bitstream (bitstream 1) using a decoder mid-processor.

Bitstream 1에 에러가 발생했으면, EL 1 decoder (201)는 decoder mid-processor (202)를 이용해서 상위 layer bitstream (bitstream 1)으로부터 출력 1을 만든다.If an error occurs in Bitstream 1, the EL 1 decoder 201 uses the decoder mid-processor 202 to make output 1 from the upper layer bitstream (bitstream 1).

Scalability post-processor (204)는 출력 0과 출력 1로부터 출력 영상을 만든다.Scalability post-processor 204 produces an output image from output 0 and output 1.

도 3은 상기 도 1의 temporal scalable video encoder를 상세하게 나타낸 도면이다.FIG. 3 is a detailed diagram illustrating the temporal scalable video encoder of FIG. 1.

도면에서 보는바와 같이, BL encoder와 EL 1 encoder의 연산 블록은 기본적으로 도 1과 같다.As shown in the figure, the operation blocks of the BL encoder and the EL 1 encoder are basically the same as in FIG.

BL encoder (303)는 일반적인 video encoder와 같이 BL frame을 인코딩 한다. 예를 들면, BL의 frame rate에 따라서 입력 0을 I-frame 또는 P-frame으로 인코딩 한다.The BL encoder 303 encodes a BL frame like a general video encoder. For example, input 0 is encoded as an I-frame or a P-frame according to the frame rate of the BL.

EL 1 encoder (301)는 encoder mid-processor (302)를 이용해서 입력 1을 인코딩 한다.The EL 1 encoder 301 encodes input 1 using the encoder mid-processor 302.

이때, encoder reference frame selector (302a)는 EL 1 encoder의 reference frame을 BL에서 선택할지 또는 EL에서 선택할지 결정한다.At this time, the encoder reference frame selector 302a determines whether to select the reference frame of the EL 1 encoder in BL or EL.

예를 들면, 입력 1의 frame을 모두 P-frame으로 인코딩 할 경우, BL에서 가장 최근에 encoding한 frame 혹은 EL에서 가장 최근에 encoding한 frame을 reference frame으로 한다.For example, when all the frames of input 1 are encoded as P-frames, the frame most recently encoded in BL or the frame most recently encoded in EL is referred to as a reference frame.

또한 encoder sync frame selector (302b)는 상기의 EL frame을 인코딩 하도록 한다.The encoder sync frame selector 302b also encodes the EL frame.

한편, Scalability pre-processor가 입력 영상을 BL의 frame rate에 따라서 나누기 때문에 BL의 입력 0과 EL의 입력 1은 시간적으로 동일한 (coincident) frame을 갖지 않는다.On the other hand, since the scalability pre-processor divides the input image according to the frame rate of the BL, the input 0 of the BL and the input 1 of the EL do not have the same frame in time.

하지만 encoder sync frame selector는 주기적으로 BL의 frame과 동일한 시간에 EL의 frame을 인코딩 하도록 한다.However, the encoder sync frame selector periodically encodes the EL frame at the same time as the BL frame.

이때, 동일한 시간에 존재하는 BL의 frame과 EL의 frame을sync frame이라고 정의하고 이 시간을sync time이라고 정의한다.At this time, the BL frame and the EL frame existing at the same time are defined as sync frames , and this time is defined as sync time .

이 sync frame은 temporal scalable video decoder에서 에러 복원을 위해 사용한다. Sync frame을 만들기 위해 sync time의 BL frame과 가장 최근의 EL frame을 이용한다. EL sync frame의 quantized coefficient는 각 frame의 quantized coefficient로부터 계산한다.This sync frame is used for error recovery in a temporal scalable video decoder. To create a sync frame, we use the BL frame of sync time and the most recent EL frame. The quantized coefficient of the EL sync frame is calculated from the quantized coefficient of each frame.

Q_BL_sync_frame = BL sync frame의 quantized coefficientQ_BL_sync_frame = quantized coefficient of BL sync frame

Q_EL_latest_frame = 가장 최근의 EL frame의 quantized coefficientQ_EL_latest_frame = quantized coefficient of the most recent EL frame

Q_EL_sync_frame = EL sync frame의 quantized coefficientQ_EL_sync_frame = quantized coefficient of EL sync frame

Q_EL_sync_frame = Q_EL_latest_frame - Q_BL_sync_frameQ_EL_sync_frame = Q_EL_latest_frame-Q_BL_sync_frame

도 4는 상기 도 2의 temporal scalable video decoder를 상세하게 나타낸 도면이다.FIG. 4 illustrates the temporal scalable video decoder of FIG. 2 in detail.

도면에서 보는바와 같이, BL decoder와 EL 1 decoder의 연산 블록은 기본적으로 도 2와 같다.As shown in the figure, the operation blocks of the BL decoder and the EL 1 decoder are basically as shown in FIG.

BL decoder (403)는 일반적인 video decoder와 같이 bitstream 0으로부터 BL frame을 디코딩 한다.The BL decoder 403 decodes the BL frame from bitstream 0 like a general video decoder.

예를 들면, 상기 도 3에서 설명한바와 같이 인코딩한 bitstream 0로부터 I-frame과 P-frame을 디코딩 한다.For example, the I-frame and the P-frame are decoded from bitstream 0 encoded as described with reference to FIG. 3.

EL 1 decoder (401)는 decoder mid-processor (402)를 이용해서 bitstream 1으로부터 EL frame을 디코딩 한다.The EL 1 decoder 401 decodes the EL frame from bitstream 1 using the decoder mid-processor 402.

이때, decoder reference frame selector (402a)는 bitstream 1을 해석한 후 reference frame을 BL frame에서 선택할지 또는 EL frame에서 선택할지 결정한다.At this time, the decoder reference frame selector 402a analyzes bitstream 1 and determines whether to select a reference frame from a BL frame or an EL frame.

예를 들면, 현재 EL frame이 P-frame이라면 reference frame은 BL에서 가장 최근의 I-frame 혹은 P-frame, 또는 EL에서 가장 최근의 P-frame이 되는데 이것은 bitstream 1을 해석한 후 판단한다.For example, if the current EL frame is a P-frame, the reference frame becomes the most recent I-frame or P-frame in BL, or the most recent P-frame in EL, which is determined after analyzing bitstream 1.

한편, BL bitstream 0에 에러가 발생하면 BL의 다음 I-frame부터 다시 디코딩 한다. 이는 BL (하위 layer)에서 에러가 발생했을 때, BL의 frame으로부터 에러를 극복하는 방법이다.On the other hand, if an error occurs in BL bitstream 0, decoding is performed again from the next I-frame of the BL. This is a way to overcome the error from the BL's frame when an error occurs in the BL (lower layer).

또는, BL bitstream 0에 에러가 발생하면 sync frame을 이용해서 이를 극복한다. 이는 BL (하위 layer)에서 에러가 발생했을 때, 그 EL (상위 layer)의 sync frame으로부터 에러를 극복하는 방법이다.Or, if an error occurs in BL bitstream 0, overcome this by using a sync frame. This is a way to overcome the error from the sync frame of the EL (upper layer) when an error occurs in the BL (lower layer).

그러나 상기에서 에러가 발생한 BL frame이 sync frame이 아니면, EL의 다음 sync frame을 reference frame으로 BL을 디코딩 한다.However, if the BL frame in which the error occurs is not a sync frame, the next sync frame of the EL is decoded as a reference frame.

이때, decoder sync frame selector가 reference frame으로 쓰이는 EL sync frame을 BL decoder에 전달한다.At this time, an EL sync frame used as a reference frame by the decoder sync frame selector is transmitted to the BL decoder.

한편, 에러가 발생한 BL frame이 sync frame이면, EL의 현재 sync frame을 reference frame으로 BL을 디코딩 한다. 이때, decoder sync frame selector가 reference frame으로 쓰이는 EL sync frame을 BL decoder에 전달한다.On the other hand, if the BL frame in which the error occurs is a sync frame, the current decoding frame of the EL is decoded as a reference frame. At this time, an EL sync frame used as a reference frame by the decoder sync frame selector is transmitted to the BL decoder.

EL 1 bitstream 1에 에러가 발생하면 BL의 다음 frame부터 디코딩 한다.If an error occurs in EL 1 bitstream 1, decoding starts from the next frame of BL.

이는 EL (상위 layer)에서 에러가 발생했을 때, 그 BL (하위 layer)의 다음 frame으로부터 에러를 극복하는 방법이다.This is a way to overcome an error from the next frame of that BL (lower layer) when an error occurs in the EL (higher layer).

도 5는 temporal scalable video encoder의 high level 구조에서 N개의 EL을 가질경우를 나타낸 도면이다.5 is a diagram illustrating a case of having N ELs in a high level structure of a temporal scalable video encoder.

인코딩은 인접한 두 layer의 쌍으로 도 1과 도 3처럼 이루어진다.The encoding is performed as shown in Figs. 1 and 3 by pairs of two adjacent layers.

예를 들면, BL과 EL 1을 쌍으로 상기 도 1과 도 3을 적용하고, EL 1과 EL 2를 쌍으로 도 1과 도 3을 적용한다.For example, FIG. 1 and FIG. 3 are applied in pairs BL and EL 1, and FIGS. 1 and 3 are applied in pairs EL 1 and EL 2.

이때, sync frame은 인접한 두개 이상의 layer에서 일치가 가능하다.At this time, the sync frame can be matched in two or more adjacent layers.

예를 들어, BL과 EL 1의 sync time과 EL 1과 EL 2의 sync time이 같을 수 있다.For example, the sync time of BL and EL 1 may be the same as the sync time of EL 1 and EL 2.

도 6은 temporal scalable video decoder의 high level 구조에서 N개의 EL을 가질경우를 나타낸 도면이다.FIG. 6 is a diagram illustrating a case of having N ELs in a high level structure of a temporal scalable video decoder.

디코딩은 인접한 두 layer의 쌍으로 상기 도 2와 도4처럼 이루어진다.Decoding is performed as shown in FIGS. 2 and 4 by a pair of two adjacent layers.

예를 들면, BL과 EL 1을 쌍으로 도 2와 도 4를 적용하고, EL 1과 EL 2를 쌍으로 도 2와 도 4를 적용한다.For example, FIGS. 2 and 4 are applied in pairs BL and EL 1, and FIGS. 2 and 4 are applied in pairs EL 1 and EL 2.

임의의 layer에서 에러가 발생하면, 상기 도 4의 경우처럼 그 layer의 다음 I-frame을 이용해서 에러를 복원한다.If an error occurs in any layer, the error is recovered using the next I-frame of the layer as in the case of FIG.

또는 임의의 layer에서 에러가 발생하면, 상기 도 4의 경우처럼 상위 layer의 sync frame을 이용해서 에러를 복원한다.Alternatively, if an error occurs in an arbitrary layer, the error is restored using the sync frame of the upper layer as in the case of FIG.

또한 임의의 layer에서 에러가 발생하면, 상기 도 4의 경우처럼 하위 layer의 다음 frame을 이용해서 에러를 복원한다.If an error occurs in an arbitrary layer, the error is recovered using the next frame of the lower layer as in the case of FIG.

도 7은 본 발명의 Encoder에서의 Temporal scalable video coding 방법을 나타낸 흐름도이다.7 is a flowchart illustrating a temporal scalable video coding method in an encoder of the present invention.

하위층인 base layer와 상위층인 하나이상의 enhancement layer를 구성한다. (S 701).It configures a base layer as a lower layer and one or more enhancement layers as an upper layer. (S 701).

모든 enhancement layer에 주기적으로 그 하위 layer의 프레임과 동일한 시간에 동일한 프레임인 sync 프레임을 코딩한다. (S 702).In every enhancement layer, a sync frame, which is the same frame at the same time as a frame of the lower layer, is coded. (S 702).

상위층의 sync 프레임은 동일한 층(layer)의 이전 프레임과 하위층의 sync프레임의 차이를 코딩한다. (S 703).The sync frame of the upper layer codes the difference between the sync frame of the lower layer and the previous frame of the same layer. (S 703).

부연하면, 두 Layer가 쌍으로 상기 단계 S702, S703을 반복한다.In other words, the two layers repeat the above steps S702 and S703 in pairs.

즉, Base Layer와 EL1을 쌍으로 단계 S702, S703을 하고, 다시 EL1, EL2를 쌍으로 S702, S703을 하고, 다시 EL2, EL3를 쌍으로 S702, S703을 수행한다.That is, steps S702 and S703 are performed in pairs with the base layer and EL1, S702 and S703 are paired again with EL1 and EL2, and S702 and S703 are performed again with pairs EL2 and EL3.

도 8은 본 발명의 Decoder에서의 Temporal scalable video coding 방법을 나타낸 흐름도이다.8 is a flowchart illustrating a temporal scalable video coding method in a decoder of the present invention.

하위층인 base layer와 상위층인 하나이상의 enhancement layer를 구성한다. (S 801).It configures a base layer as a lower layer and one or more enhancement layers as an upper layer. (S 801).

임의의 층에서 임의의 프레임에 에러가 발생시에, 에러가 없는 그 상위층의 sync 프레임 또는 에러가 없는 하위층의 프레임으로부터 에러를 복원한다. (S 802).When an error occurs in any frame in any layer, the error is recovered from the sync frame of the upper layer without errors or the frame of the lower layer without errors. (S 802).

이상에서 본 발명의 바람직한 실시예를 설명하였으나, 본 발명은 다양한 변화와 변경 및 균등물을 사용할 수 있다. 본 발명은 상기 실시예를 적절히 변형하여 동일하게 응용할 수 있음이 명확하다.Although the preferred embodiment of the present invention has been described above, the present invention may use various changes, modifications, and equivalents. It is clear that the present invention can be applied in the same manner by appropriately modifying the above embodiments.

즉, 표준 codec과 호환을 위해서 한 쌍의 sync frame 중 상위 layer의 sync frame은 표준 코덱의 해당 profile 및 level에서 사용하지 않는 code를 이용해서 인코딩 한다.That is, in order to be compatible with the standard codec, the sync frame of the upper layer among the pair of sync frames is encoded using code not used in the corresponding profile and level of the standard codec.

이때, 표준 디코더는 한 쌍의 sync frame 중 상위 layer의 sync frame을 에러로 간주하고 무시할 수 있다.In this case, the standard decoder may regard the sync frame of the upper layer among the pair of sync frames as an error and ignore it.

따라서 상기 기재 내용은 하기 특허청구범위의 한계에 의해 정해지는 본 발명의 범위를 한정하는 것이 아니다.Accordingly, the above description does not limit the scope of the invention as defined by the limitations of the following claims.

본 발명에 의하면, 유/무선 영상전화, VOD 등 영상서비스에서 에러가 발생했을 때, 짧은 시간에 에러를 복원하는 효과가 있다.According to the present invention, when an error occurs in a video service such as a wired / wireless video telephone or a VOD, the error can be restored in a short time.

따라서 짧은 시간에 에러를 복원하므로 에러가 많이 발생하는 환경에서 영상의 품질을 높이는 장점이 있다.Therefore, since the error is restored in a short time, there is an advantage of improving the image quality in an environment where many errors occur.

Claims (8)

입력 영상을 frame rate에 따라서 서로 다르게 나누는 Scalability pre-processor와;A scalability pre-processor for dividing the input image differently according to the frame rate; 제 1 입력 데이터로부터 하위 layer bitstream을 생성하는 base layer와;A base layer for generating a lower layer bitstream from the first input data; 제 2 입력 데이터로부터 encoder mid-processor를 이용하여 상위 layer bitstream을 생성하는 하나이상의 enhancement layer; 를 포함하여 구성되는 것을 특징으로 하는 Temporal scalable video coding 장치.At least one enhancement layer for generating an upper layer bitstream from the second input data using an encoder mid-processor; Temporal scalable video coding device characterized in that it comprises a. 제 1항에 있어서, encoder reference frame selector가 EL 1 encoder의 reference frame을 BL에서 선택할지 또는 EL에서 선택할지 결정하는 것을 특징으로 하는 Temporal scalable video coding 장치.The apparatus of claim 1, wherein the encoder reference frame selector determines whether to select a reference frame of the EL 1 encoder in BL or EL. 하위층인 base layer와 상위층인 하나이상의 enhancement layer를 구성하는 단계;Constructing a base layer, which is a lower layer, and at least one enhancement layer, which is an upper layer; 모든 enhancement layer에 주기적으로 그 하위 layer의 프레임과 동일한 시간에 동일한 프레임인 sync 프레임을 코딩하는 단계;Coding a sync frame that is the same frame at the same time as a frame of the lower layer periodically in all enhancement layers; 상위층의 sync 프레임은 동일한 층(layer)의 이전 프레임과 하위층의 sync 프레임의 차이를 코딩하는 단계; 를 포함하는 것을 특징으로 하는 Temporal scalable video coding 방법.The sync frame of the upper layer may include coding a difference between a previous frame of the same layer and a sync frame of the lower layer; Temporal scalable video coding method comprising a. 제 3항에 있어서, Sync frame을 만들기 위해 sync time의 BL frame과 가장 최근의 EL frame을 이용하는 것을 특징으로 하는 Temporal scalable video coding 방법.4. The method of claim 3, wherein a BL frame of sync time and a most recent EL frame are used to create a sync frame. 제 3항 또는 4항에 있어서, EL sync frame의 quantized coefficient는 각 frame의 quantized coefficient로부터 계산하는 것을 특징으로 하는 Temporal scalable video coding 방법.5. The method of claim 3 or 4, wherein the quantized coefficient of the EL sync frame is calculated from the quantized coefficient of each frame. 하위 layer bitstream에 에러가 발생시 decoder mid-processor를 이용해서 하위 bitstream으로부터 제 1 출력을 생성하는 base layer와;A base layer for generating a first output from the lower bitstream using a decoder mid-processor when an error occurs in the lower layer bitstream; 상위 layer bitstream에 에러가 발생시 mid-processor를 이용해서 상위 bitstream으로부터 제 2 출력을 생성하는 하나이상의 enhancement layer와;At least one enhancement layer for generating a second output from the upper bitstream using a mid-processor when an error occurs in the upper layer bitstream; 상기 제 1, 2출력으로 부터 출력영상을 만드는 Scalability post-processor;를 포함하여 구성되는 것을 특징으로 하는 Temporal scalable video coding 장치.And a scalability post-processor for producing an output image from the first and second outputs. 제 6항에 있어서, decoder reference frame selector가 bitstream 1을 해석한 후 reference frame을 BL frame에서 선택할지 또는 EL frame에서 선택할지 결정하는 것을 특징으로 하는 Temporal scalable video coding 장치.7. The apparatus of claim 6, wherein the decoder reference frame selector determines whether to select a reference frame from a BL frame or an EL frame after analyzing bitstream 1. 하위층인 base layer와 상위층인 하나이상의 enhancement layer를 구성하는 단계;Constructing a base layer, which is a lower layer, and at least one enhancement layer, which is an upper layer; 임의의 층에서 임의의 프레임에 에러가 발생시에, 에러가 없는 그 상위층의 sync 프레임 또는 에러가 없는 하위층의 프레임으로부터 에러를 복원하는 단계;를 포함하는 것을 특징으로 하는 Temporal scalable video coding 방법.When an error occurs in any frame in any layer, recovering the error from the sync frame of the upper layer without errors or the frame of the lower layer without errors; and temporal scalable video coding method.
KR1020030011772A 2003-02-25 2003-02-25 Apparatus for temporal scalable video coding and method thereof KR100952761B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030011772A KR100952761B1 (en) 2003-02-25 2003-02-25 Apparatus for temporal scalable video coding and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030011772A KR100952761B1 (en) 2003-02-25 2003-02-25 Apparatus for temporal scalable video coding and method thereof

Publications (2)

Publication Number Publication Date
KR20040076428A true KR20040076428A (en) 2004-09-01
KR100952761B1 KR100952761B1 (en) 2010-04-14

Family

ID=37362621

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030011772A KR100952761B1 (en) 2003-02-25 2003-02-25 Apparatus for temporal scalable video coding and method thereof

Country Status (1)

Country Link
KR (1) KR100952761B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100941336B1 (en) * 2005-03-10 2010-02-11 퀄컴 인코포레이티드 A decoder architecture for optimized error management in streaming multimedia
US7925955B2 (en) 2005-03-10 2011-04-12 Qualcomm Incorporated Transmit driver in communication system
US8693540B2 (en) 2005-03-10 2014-04-08 Qualcomm Incorporated Method and apparatus of temporal error concealment for P-frame

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100783396B1 (en) * 2001-04-19 2007-12-10 엘지전자 주식회사 Spatio-temporal hybrid scalable video coding using subband decomposition

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100941336B1 (en) * 2005-03-10 2010-02-11 퀄컴 인코포레이티드 A decoder architecture for optimized error management in streaming multimedia
US7886201B2 (en) 2005-03-10 2011-02-08 Qualcomm Incorporated Decoder architecture for optimized error management in streaming multimedia
US7925955B2 (en) 2005-03-10 2011-04-12 Qualcomm Incorporated Transmit driver in communication system
US8693540B2 (en) 2005-03-10 2014-04-08 Qualcomm Incorporated Method and apparatus of temporal error concealment for P-frame

Also Published As

Publication number Publication date
KR100952761B1 (en) 2010-04-14

Similar Documents

Publication Publication Date Title
US8311102B2 (en) Bitstream switching in multiple bit-rate video streaming environments
US7664176B2 (en) Method and system for entropy decoding for scalable video bit stream
JP2007520950A (en) Spatial and SNR Fine Granular Scalable Video Coding and Transmission Method
CN100512446C (en) A multi-description video encoding and decoding method based on self-adapted time domain sub-sampling
KR20020064904A (en) Preferred transmission/streaming order of fine-granular scalability
CN101626512A (en) Method and device of multiple description video coding based on relevance optimization rule
JP2008544615A (en) Indication of coding dependency in scalable video coding
US7242812B2 (en) Coding and decoding of video data
KR100363162B1 (en) Method and apparatus for transmitting and recovering video signal
JP2005513928A (en) Complexity scalability (FGS) for fine grain video coding
US20060233255A1 (en) Fine granularity scalability (FGS) coding efficiency enhancements
JP2005535219A (en) Method and apparatus for performing multiple description motion compensation using hybrid prediction code
US20060093031A1 (en) Method and apparatus for performing multiple description motion compensation using hybrid predictive codes
Illgner et al. Mobile multimedia communications in a universal telecommunications network
KR100952761B1 (en) Apparatus for temporal scalable video coding and method thereof
KR100513014B1 (en) Video communication system and video coding method
TWI407795B (en) Central decoder controller and control method thereof
CN112004084B (en) Code rate control optimization method and system by utilizing quantization parameter sequencing
CN113038126A (en) Multi-description video coding method and decoding method based on frame prediction neural network
US20040228404A1 (en) Moving picture coding method
JP2002152181A (en) Method and device for multimedia communication
KR20040071984A (en) Apparatus and Method for Encoding/Decoding of Video
KR100690710B1 (en) Method for transmitting moving picture
KR20230075247A (en) Method and system for encoding and decoding data based on deep neural network
KR100488421B1 (en) Lossy coding method of binary image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment
FPAY Annual fee payment

Payment date: 20160324

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170314

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180314

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee