KR100748495B1 - Direct prediction method in b-frame coding using multiple reference frame - Google Patents

Direct prediction method in b-frame coding using multiple reference frame Download PDF

Info

Publication number
KR100748495B1
KR100748495B1 KR1020010021458A KR20010021458A KR100748495B1 KR 100748495 B1 KR100748495 B1 KR 100748495B1 KR 1020010021458 A KR1020010021458 A KR 1020010021458A KR 20010021458 A KR20010021458 A KR 20010021458A KR 100748495 B1 KR100748495 B1 KR 100748495B1
Authority
KR
South Korea
Prior art keywords
frame
macroblock
direct prediction
direct
prediction
Prior art date
Application number
KR1020010021458A
Other languages
Korean (ko)
Other versions
KR20020082276A (en
Inventor
전병문
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020010021458A priority Critical patent/KR100748495B1/en
Publication of KR20020082276A publication Critical patent/KR20020082276A/en
Application granted granted Critical
Publication of KR100748495B1 publication Critical patent/KR100748495B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 복수 참조 프레임을 이용한 B프레임 코딩시 직접 예측 방법에 관한 것으로, 종래에는 복수 참조 프레임을 사용하여 B프레임을 예측할 경우, B프레임의 직접 예측 모드에서는 이미 복호된 다음 P프레임의 각 매크로블록의 참조 프레임 번호를 알 수 없는 문제점이 있었다. 따라서, 본 발명은 복호기에 이미 내장되어 있는 메모리에서 소프트웨어적으로 소정 영역을 버퍼링 영역으로 설정하는 단계와; P프레임 복호시에 각 매크로블록의 참조 프레임 번호를 상기 버퍼링 영역에 저장하는 단계와; 상기 버퍼링 영역에 저장된 참조 프레임 번호를 B프레임의 직접 예측 모드시에 참조하여 예측을 수행하는 단계로 이루어져 TRD, TRB, MVF 및 전방향 매크로블록의 예측을 정확히 수행할 수 있도록 하는 효과가 있다.The present invention relates to a direct prediction method when coding a B frame using a plurality of reference frames. Conventionally, when predicting a B frame using a plurality of reference frames, each macroblock of the next P frame is already decoded in the direct prediction mode of the B frame. There was a problem that the reference frame number of the unknown. Accordingly, the present invention includes the steps of setting a predetermined area as a buffering area in software in a memory already built in the decoder; Storing a reference frame number of each macroblock in the buffering area at the time of P frame decoding; Performing a prediction by referring to the reference frame number stored in the buffering region in the direct prediction mode of the B frame, thereby accurately performing TR D , TR B , MV F and omnidirectional macroblock prediction. have.

Description

복수 참조 프레임을 이용한 B프레임 코딩시 직접 예측 방법{DIRECT PREDICTION METHOD IN B-FRAME CODING USING MULTIPLE REFERENCE FRAME}DIRECT PREDICTION METHOD IN B-FRAME CODING USING MULTIPLE REFERENCE FRAME}

도 1은 종래 B프레임의 각 매크로 블록에서의 코딩 과정을 보인 순서도.1 is a flowchart illustrating a coding process in each macro block of a conventional B frame.

도 2는 종래 B프레임의 직접 예측 모드를 설명하기 위해 보인 예시도.2 is an exemplary view illustrating a direct prediction mode of a conventional B frame.

도 3은 일반적인 비디오 시퀀스의 부호화 및 복호화 순서를 설명하기 위해 보인 예시도.3 is an exemplary view shown to explain a coding and decoding order of a general video sequence.

도 4는 H.26L에서의 B프레임 직접 예측 모드 구현 방법을 설명하기 위해 보인 예 시도.4 is an example attempt to illustrate a method of implementing a B-frame direct prediction mode in H.26L.

도 5는 본 발명에 의해 B프레임의 직접 예측 모드를 위해 버퍼링 과정이 더 포함된 P프레임 복호 과정을 설명하기 위해 보인 예시도.5 is an exemplary view illustrating a P frame decoding process further including a buffering process for a direct prediction mode of a B frame according to the present invention.

본 발명은 저전송률 비디오 코딩의 시간 스케일러빌리티(Temporal Scalability)에 관한 것으로, 특히 복수 참조 프레임(Multiple Reference Frame)을 사용하여 B프레임을 예측 부호화 하는 경우, 직접 예측 모드의 기능을 향상시킬 수 있도록 하는 복수 참조 프레임을 이용한 B프레임 코딩시 직접 예측 방법에 관한 것이다.The present invention relates to temporal scalability of low bit rate video coding. In particular, the present invention relates to improving the function of the direct prediction mode when predicting and coding a B frame using a multiple reference frame. The present invention relates to a direct prediction method in B-frame coding using multiple reference frames.

B프레임 부호화를 위한 예측 모드에는 크게 내부(Intra) 예측, 전방향(forward) 예측, 후방향(backward) 예측, 쌍방향(bi-directional) 예측, 그리고 직접(direct) 예측 등 5가지 종류가 있다.There are five types of prediction modes for B-frame encoding, such as intra prediction, forward prediction, backward prediction, bi-directional prediction, and direct prediction.

이때, B프레임의 각 매크로 블록(MB)에서의 예측 모드를 결정하기 위해서는, 도1에 도시된 바와 같이 5가지 예측 모드에 대한 SAD(Sum of Absolute Difference)를 각각 구하고, 그 중 가장 작은 SAD값을 갖는 예측 모드를 선택하게 된다.In this case, in order to determine the prediction mode in each macroblock MB of the B frame, as shown in FIG. 1, sum of absolute differences (SAD) for each of five prediction modes are obtained, and the smallest SAD value among them is obtained. The prediction mode with is selected.

만일, H.263+의 첨부규칙(Annex) N에서는 P프레임 코딩에서의 참조 프레임(reference frame)을 바로 이전 프레임을 포함하여 복수의 프레임을 사용할 경우, B 프레임에서도 좀더 정확한 전방향 예측을 위해 동일한 복수 참조 모델 메커니즘을 따라야 한다.In Annex N of H.263 +, if a reference frame in P frame coding uses a plurality of frames including the previous frame, the same frame is used for more accurate forward prediction even in the B frame. The multiple reference model mechanism must be followed.

복수 참조 프레임(multiple reference frame) 사용은 앞서 언급한 B프레임의 5가지 예측 모드 중 전방향(forward), 쌍방향(bi-directional), 직접(direct) 예측 모드가 영향을 받는다.The use of multiple reference frames is affected by the forward, bi-directional, and direct prediction modes of the five prediction modes of the aforementioned B frame.

이중 전방향 예측 모드는 모션 예측, 보상 그리고 참조 프레임의 번호 명시 등을 P프레임의 부호화 과정과 동일하게 하고, 쌍방향 예측 모드는 전방향과 다음 프레임에 의한 후방향 예측으로부터 얻은 예측값을 평균하여 얻게 되는 것이므로, 전방향 예측모드에서 얻은 결과를 그대로 사용하면 된다.The dual omni prediction mode makes motion prediction, compensation and numbering of reference frames the same as the encoding process of P frames, and the bidirectional prediction mode is obtained by averaging prediction values obtained from forward and backward predictions of the next frame and the next frame. The result obtained in the omnidirectional prediction mode can be used as it is.

그러나, 직접 예측 모드일 경우는 다음 P프레임에서의 B프레임과 동일한 위치에 있는 매크로블록의 모션 벡터와 그 매크로블록의 참조 프레임 번호를 통해, 도2에 도시된 바와 같이 참조 프레임으로 사용된 P프레임과 다음 P프레임의 시간적 거리(TRD), 그리고 참조 프레임과 현재 B프레임의 시간적 거리(TRB) 및 직접 전방향(direct forward) 모션벡터(MVF)와 직접 후방향(direct backward) 모션벡터(MVB)를 구하게 된다.However, in the direct prediction mode, the P frame used as the reference frame as shown in FIG. 2 through the motion vector of the macroblock at the same position as the B frame in the next P frame and the reference frame number of the macroblock. and then temporal distance P frame (TR D), and the reference frame and the temporal distance of the current B frame (TR B) and directly forward (direct forward) motion vector (MV F) and directly after the orientation (direct backward) motion vector (MV B ) is obtained.

상기 도2로부터 직접 예측모드에서 직접 전방향 모션벡터(MVF)와 직접 후방향 모션벡터(MVB)는 다음 수학식 1에 의해 구할 수 있다.From FIG. 2, the direct forward motion vector MV F and the direct backward motion vector MV B in the direct prediction mode can be obtained by the following equation.

MVF = (TRB ×MV)/TRD MV F = (TR B × MV) / TR D

MVB = (TRB-TRD) ×MV/TRD MV B = (TR B -TR D ) × MV / TR D

다음, 도3은 일반적인 비디오 시퀀스의 부호화 및 복호화 순서를 설명하기 위해 보인 예시도로서, 비디오 시퀀스가 (a)와 같이 'I,B,B,P,B,B,P,...'순으로 입 력될 경우에, 코딩시에는 (b)와 같이 참조 프레임인 P프레임이 B프레임에 앞서 부호화된다.Next, FIG. 3 is an exemplary view for explaining the encoding and decoding order of a general video sequence, in which the video sequence is 'I, B, B, P, B, B, P, ...' as shown in (a). In the case of inputting to the P frame, the P frame which is a reference frame is encoded before the B frame as shown in (b).

이때, 부호기는 P프레임의 각 매크로블록의 참조 프레임을 찾은 후, 비트 스트림에 오버헤드 비트로서 참조 프레임 번호를 기록하여 전송하게 된다.At this time, the encoder finds the reference frame of each macroblock of the P frame, and then records and transmits the reference frame number as an overhead bit in the bit stream.

다음, 복호시에는 (c)와 같이 비트 스트림에 있는 참조 프레임 번호에 기반하여, P프레임을 복호한 후 B프레임을 복호하게 된다.Next, in decoding, the B frame is decoded after decoding the P frame based on the reference frame number in the bit stream as shown in (c).

일반적으로, 복수 참조 프레임(multiple reference frame)을 사용하여 B프레임을 예측할 경우, 직접 예측 모드는 참조되는 프레임 번호를 통해 TRD, TRB, MVF 를 구하고 예측된 매크로블록을 구할 수 있다.In general, when predicting B frames using multiple reference frames, the direct prediction mode can obtain TR D , TR B , MV F and predicted macroblocks through the frame numbers referenced.

그러나, 현재의 H.263+ 부가옵션(Annex O 및 Annex N)에서는, 시간 스케일러빌리티와 참조 프레임 선택 모드에 의한, 복수개 참조 프레임 기법에 대하여 지원 가능성만 제시하였을 뿐, 구체적인 구현 방법에 대해서는 언급이 되어 있지 않다.However, the current H.263 + add-ons (Annex O and Annex N) provide only supportability for multiple reference frame schemes by means of time scalability and reference frame selection mode. It is not.

특히, H.26L TML 5에서는 도4에 도시된 바와 같이 다음 P프레임(i)의 각 매크로블록이 자신의 참조 프레임을 가지고 있음에도 불구하고, B프레임의 직접 예측 모드는 바로 이전 P프레임(i-1)을 다음 P프레임(i)의 참조 프레임으로 가정하고 구현하도록 명시되어 있다.In particular, in H.26L TML 5, although each macroblock of the next P frame (i) has its own reference frame as shown in FIG. 4, the direct prediction mode of the B frame is the immediately previous P frame (i−). It is specified to assume 1) as a reference frame of the next P frame i.

즉, 복수 참조 프레임을 사용하여 B프레임을 직접 예측할 경우, 직접 예측 모드는 B프레임의 현재 매크로블록과 동일한 위치에 있는 다음 P프레임(i)의 매크로블록의 참조 프레임 번호를 알아야 한다.That is, when directly predicting a B frame using a plurality of reference frames, the direct prediction mode needs to know the reference frame number of the macroblock of the next P frame (i) at the same position as the current macroblock of the B frame.

다시 말해, B프레임을 복호할 때는 다음 P프레임의 각 매크로블록의 참조 프 레임 번호를 기억하고 있어야 하지만, B프레임의 직접 예측 모드에서는 이미 복호된 다음 P프레임의 각 매크로블록의 참조 프레임 번호를 알 수 없는 문제점이 있다.In other words, when decoding a B frame, the reference frame number of each macroblock of the next P frame should be remembered, but in the direct prediction mode of the B frame, the reference frame number of each macroblock of the next P frame that has been decoded is known. There is no problem.

따라서, 본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 창출한 것으로, 비디오 시퀀스의 P프레임 복호시에 버퍼를 하나 설정하여 각 매크로블록의 참조 프레임 번호를 저장함으로써, B 프레임의 직접 예측 모드의 정확한 예측이 이루어지도록 하는 복수 참조 프레임을 이용한 B프레임 코딩시 직접 예측 방법을 제공함에 그 목적이 있다.Accordingly, the present invention has been made to solve the above-mentioned conventional problem, and by setting one buffer in decoding a P frame of a video sequence and storing the reference frame number of each macroblock, It is an object of the present invention to provide a direct prediction method in B-frame coding using a plurality of reference frames to make accurate prediction.

이와 같은 목적을 달성하기 위한 본 발명은, 복수개의 참조 프레임을 사용하여 B프레임을 직접 예측하는 방법에 있어서, 복호기에 이미 내장되어 있는 메모리에서 소프트웨어적으로 소정 영역을 버퍼링 영역으로 설정하는 단계와; P프레임 복호시에 각 매크로블록의 참조 프레임 번호를 상기 버퍼링 영역에 저장하는 단계와; 상기 버퍼링 영역에 저장된 참조 프레임 번호를 B프레임의 직접 예측 모드시에 참조하여 예측을 수행하는 단계로 이루어진 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of directly predicting a B frame using a plurality of reference frames, the method comprising: setting a predetermined area as a buffering area in software in a memory already built in a decoder; Storing a reference frame number of each macroblock in the buffering area at the time of P frame decoding; And performing a prediction by referring to the reference frame number stored in the buffering area in the direct prediction mode of the B frame.

이하, 본 발명에 따른 일실시예를 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다.Hereinafter, an embodiment according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 복호기에 하드웨어적으로 버퍼를 더 구비하거나, 복호기에 이미 내장되어 있는 메모리에서 소프트웨어적으로 소정 영역을 버퍼링 영역으로 설정하 여, P프레임 복호시에 각 매크로블록의 참조 프레임 번호를 저장함으로써, B프레임의 직접 예측 모드시 참조할 수 있도록 하여 예측이 정확하게 이루어질 수 있도록 하는 특징이 있다.According to the present invention, the decoder further includes a buffer in hardware, or sets a predetermined area as a buffering area in a memory already built in the decoder, and stores the reference frame number of each macroblock during P frame decoding. In this case, the prediction may be accurately performed by referring to the direct prediction mode of the B frame.

다시 말해, 종래의 H.263+의 복호기는 복수 참조 프레임을 이용한 B프레임 직접 예측에 대해 구체적인 구현 방법을 언급하지 않고, H.26L TML 5에서는 P프레임에서 복수 참조 프레임을 사용했을 지라도, 바로 이전 P프레임을 참조 프레임으로 고정시켰기 때문에 정확한 예측이 불가능하였다.In other words, the conventional decoder of H.263 + does not mention a specific implementation method for direct B-frame prediction using multiple reference frames, and in H.26L TML 5, even if multiple reference frames are used in P frames, the previous decoder Since the P frame was fixed as a reference frame, accurate prediction was not possible.

그러나, 본 발명에서는 복수 참조 프레임(multiple reference frame)을 사용하여 B프레임을 직접 예측 모드로 복호시, 동일 위치의 다음 P프레임의 각 매크로블록의 참조 프레임 번호를 버퍼링함으로써, 이를 이용하여 TRD, TRB, MVF를 구하고 상기 MVF를 이용하여 참조 프레임으로부터 전방향의 예측된 매크로블록을 구할 수 있게 된다.However, in the present invention, when decoding a B frame in the prediction mode directly using a multiple reference frame, by buffering the reference frame number of each macroblock of the next P frame of the same position, by using TR D , It is possible to obtain TR B and MV F and to use the MV F to obtain the predicted macroblock in all directions from the reference frame.

도면 4는 H.26L 에서의 복수 참조 프레임을 이용한 B프레임 코딩시 직접 예측 방법을 설명하기 위한 예시도이다.4 is an exemplary diagram for explaining a direct prediction method in B-frame coding using multiple reference frames in H.26L.

이에 도시한 바와 같이, 만약 다음 P프레임(i)의 매크로 블록이 참조 P프레임(i-3)을 참조하고 있다면, B프레임의 직접 예측 모드는 참조 P프레임(i-3)으로부터 전방향의 매크로블록을 예측하고, 다음 P프레임(i)으로부터 후방향의 매크로블록을 예측한 후, 두 예측 값의 평균을 최종 예측 매크로블록으로 사용해야 한다.As shown here, if the macro block of the next P frame (i) refers to the reference P frame (i-3), the direct prediction mode of the B frame is the omnidirectional macro from the reference P frame (i-3). After predicting the block and predicting the backward macroblock from the next Pframe (i), the average of the two prediction values should be used as the final predicted macroblock.

그러나, 현재 H.26L TML5의 구현 방법을 사용하면 이전 P프레임(i-1)으로부 터 전방향 매크로 블록을 예측하게 되므로, 최종적인 매크로블록은 정확하게 예측될 수 없는 문제점을 갖게 된다.However, the current H.26L TML5 implementation method predicts the omnidirectional macroblock from the previous P frame (i-1), so that the final macroblock has a problem that cannot be accurately predicted.

따라서, 본 발명에서는 도5에 도시된 바와 같이 다음 P프레임을 복호하는 과정에, 각 매크로블록의 복호시에 그 매크로블록의 참조 프레임을 버퍼링 해 둠으로써, B프레임의 각 매크로블록을 직접 예측 모드로 복호하는 경우에 참조되어, 다음 P프레임의 동일 위치에 있는 매크로블록의 참조 프레임을 알 수 있게 한다.Therefore, in the present invention, as shown in FIG. 5, in the process of decoding the next P frame, buffering the reference frame of the macroblock at the time of decoding each macroblock, thereby directly predicting each macroblock of the B frame. The reference frame of the macroblock at the same position of the next P frame is referred to when decoding.

다시 말해, 도5는 B프레임의 직접 예측 모드를 위해 버퍼를 구비한 복호기에서의 P프레임 복호 과정을 설명하기 위해 보인 예시도로서, P프레임 복호시에 각 매크로블록의 참조 프레임 번호를 버퍼에 저장함으로써, B프레임의 직접 예측 모드시 참조할 수 있도록 한다.In other words, FIG. 5 is an exemplary view illustrating a P frame decoding process in a decoder having a buffer for a direct prediction mode of a B frame, and stores a reference frame number of each macroblock in a buffer during P frame decoding. Thus, reference can be made in the direct prediction mode of the B frame.

이때, 상기 도5에서 P프레임의 일반적인 복호 과정에서의 전체적인 동작은 일반적인 P프레임의 복호과정과 동일하지만, 본 발명에서는 모션벡터 산출 후 부호화기에서 복수 참조 프레임을 이용하였는지를 판단하는 과정이 더 포함되어 있다.In this case, the overall operation in the general decoding process of the P frame in FIG. 5 is the same as the decoding process of the general P frame, but the present invention further includes determining whether the encoder uses a plurality of reference frames after calculating the motion vector. .

이에 따라, 복수 참조 프레임을 이용해 부호화가 수행되었을 경우에는, 오버헤드 비트에서 참조 프레임 번호를 읽어들여 그 참조 프레임 번호를 버퍼에 저장하는 과정이 추가로 포함되어 있다.Accordingly, when encoding is performed using a plurality of reference frames, a process of reading a reference frame number from an overhead bit and storing the reference frame number in a buffer is further included.

이상에서 설명한 바와 같이 본 발명 복수 참조 프레임을 이용한 B프레임 코딩시 직접 예측 방법은, P프레임 복호시에 각 매크로블록의 참조 프레임 번호를 버퍼링여 B프레임의 직접 예측 모드에서 참조할 수 있도록 함으로써, TRD, TRB, MVF 및 전방향 매크로블록의 예측을 정확히 수행할 수 있도록 하는 효과가 있다.As described above, the direct prediction method in B-frame coding using the multiple reference frames of the present invention allows the reference frame number of each macroblock to be buffered in P frame decoding so that it can be referred to in the direct prediction mode of the B frame. It is effective to accurately perform prediction of D , TR B , MV F and omnidirectional macroblock.

Claims (2)

복수개의 참조 프레임을 사용하여 B프레임을 직접 예측하는 방법에 있어서, 복호기에 이미 내장되어 있는 메모리에서 소프트웨어적으로 소정 영역을 버퍼링 영역으로 설정하는 단계와; P프레임 복호시에 각 매크로블록의 참조 프레임 번호를 상기 버퍼링 영역에 저장하는 단계와; 상기 버퍼링 영역에 저장된 참조 프레임 번호를 B프레임의 직접 예측 모드시에 참조하여 예측을 수행하는 단계로 이루어진 것을 특징으로 하는 복수 참조 프레임을 이용한 B프레임 코딩시 직접 예측 방법.A method of directly predicting a B frame using a plurality of reference frames, the method comprising: setting a predetermined area as a buffering area in software in a memory already built in a decoder; Storing a reference frame number of each macroblock in the buffering area at the time of P frame decoding; And performing prediction by referring to the reference frame number stored in the buffering region in the direct prediction mode of the B frame. 제1항에 있어서, 상기 P프레임 복호시에 각 참조 프레임 번호를 버퍼링하기위한 버퍼링 영역은, 복호기 내부에 하드웨어적으로 메모리를 더 구비하여 설정할 수 있도록 이루어진 것을 특징으로 하는 복수 참조 프레임을 이용한 B프레임 코딩시 직접 예측 방법. The B frame using the plurality of reference frames according to claim 1, wherein a buffering area for buffering each reference frame number when the P frame is decoded is configured to further include a memory in a decoder. Direct prediction method when coding.
KR1020010021458A 2001-04-20 2001-04-20 Direct prediction method in b-frame coding using multiple reference frame KR100748495B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010021458A KR100748495B1 (en) 2001-04-20 2001-04-20 Direct prediction method in b-frame coding using multiple reference frame

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010021458A KR100748495B1 (en) 2001-04-20 2001-04-20 Direct prediction method in b-frame coding using multiple reference frame

Publications (2)

Publication Number Publication Date
KR20020082276A KR20020082276A (en) 2002-10-31
KR100748495B1 true KR100748495B1 (en) 2007-08-13

Family

ID=27701977

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010021458A KR100748495B1 (en) 2001-04-20 2001-04-20 Direct prediction method in b-frame coding using multiple reference frame

Country Status (1)

Country Link
KR (1) KR100748495B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100488018B1 (en) * 2002-05-03 2005-05-06 엘지전자 주식회사 Moving picture coding method
TWI249356B (en) * 2002-11-06 2006-02-11 Nokia Corp Picture buffering for prediction references and display
US8548055B2 (en) 2005-03-10 2013-10-01 Qualcomm Incorporated Encoding of multimedia data
KR100846512B1 (en) * 2006-12-28 2008-07-17 삼성전자주식회사 Method and apparatus for video encoding and decoding

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR900017307A (en) * 1989-04-18 1990-11-16 시기 모리야 Moving picture encoding / decoding device
JPH08163575A (en) * 1994-12-12 1996-06-21 Graphics Commun Lab:Kk Method and device for decoding picture
JPH10257499A (en) * 1997-03-17 1998-09-25 Matsushita Electric Ind Co Ltd Device and method for encoding moving image
KR20000069436A (en) * 1997-10-14 2000-11-25 요트.게.아. 롤페즈 Encoded video signal formatting

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR900017307A (en) * 1989-04-18 1990-11-16 시기 모리야 Moving picture encoding / decoding device
JPH08163575A (en) * 1994-12-12 1996-06-21 Graphics Commun Lab:Kk Method and device for decoding picture
JPH10257499A (en) * 1997-03-17 1998-09-25 Matsushita Electric Ind Co Ltd Device and method for encoding moving image
KR20000069436A (en) * 1997-10-14 2000-11-25 요트.게.아. 롤페즈 Encoded video signal formatting

Also Published As

Publication number Publication date
KR20020082276A (en) 2002-10-31

Similar Documents

Publication Publication Date Title
US10897613B2 (en) Method of predicting a motion vector for a current block in a current picture
JP4020789B2 (en) B-picture direct mode motion vector calculation method
JP5860491B2 (en) Motion vector prediction method
US8649436B2 (en) Methods for efficient implementation of skip/direct modes in digital video compression algorithms
US7924918B2 (en) Temporal prediction in video coding
US8462849B2 (en) Reference picture selection for sub-pixel motion estimation
KR970025185A (en) Apparatus for encoding and decoding video signals using feature-based motion estimation
KR100748495B1 (en) Direct prediction method in b-frame coding using multiple reference frame
KR20020080703A (en) B-frame coding method in digital video coding
KR100943627B1 (en) Method for predicting motion vector
JP2000287212A (en) Image encoder
JP2003070003A (en) Predictive coding method and decoding method for motion compensated interframe and predictive coding and decoding apparatus for motion compensated interframe

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120727

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20130724

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140724

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150724

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160722

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee