KR100373602B1 - Video decoder and corresponding process - Google Patents

Video decoder and corresponding process Download PDF

Info

Publication number
KR100373602B1
KR100373602B1 KR10-1998-0708494A KR19980708494A KR100373602B1 KR 100373602 B1 KR100373602 B1 KR 100373602B1 KR 19980708494 A KR19980708494 A KR 19980708494A KR 100373602 B1 KR100373602 B1 KR 100373602B1
Authority
KR
South Korea
Prior art keywords
picture
decoding
stored
coded
decoded
Prior art date
Application number
KR10-1998-0708494A
Other languages
Korean (ko)
Other versions
KR20000010607A (en
Inventor
죄렌 하인
볼프강 마이어
노르베르트 벤
Original Assignee
지멘스 악티엔게젤샤프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 지멘스 악티엔게젤샤프트 filed Critical 지멘스 악티엔게젤샤프트
Publication of KR20000010607A publication Critical patent/KR20000010607A/en
Application granted granted Critical
Publication of KR100373602B1 publication Critical patent/KR100373602B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • H04N19/426Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements using memory downsizing methods
    • H04N19/427Display on the fly, e.g. simultaneous writing to and reading from decoding memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

디코더는 제 1 코딩된 화상(B)을 저장하기 위한 제 1 저장 수단(S1)을 포함한다. 제 1 코딩된 화상은 상기 화상이 적어도 2번 디코딩될 때까지 저장될 수 있다. 디코딩의 결과는 재생 장치(D)에 제공될 수 있다. 본 발명에 의해 제 1 디코딩된 화상(B)용 출력 프레임 버퍼가 필요 없어지기 때문에, 디코더내에서 메모리 필요가 적어진다.The decoder comprises first storage means S1 for storing the first coded picture B. The first coded picture may be stored until the picture is decoded at least twice. The result of the decoding can be provided to the reproduction device D. Since the present invention eliminates the need for an output frame buffer for the first decoded picture B, there is less need for memory in the decoder.

Description

비디오 디코더 및 디코딩 방법{VIDEO DECODER AND CORRESPONDING PROCESS}VIDEO DECODER AND CORRESPONDING PROCESS}

비디오 화상을 코딩하기 위해, 소위 하이브리드 코딩을 위한 변환 및 예측 코딩의 원리를 적용한 소위 MPEG-표준이 사용된다. 이것은 데이터 압축의 방식면에서 상이한, 3가지 방식의 코딩된 화상을 제공한다:In order to code a video picture, the so-called MPEG-standard, which applies the principles of transform and predictive coding for so-called hybrid coding, is used. This provides three different coded pictures, different in terms of data compression:

1. Ⅰ-화상(인트라코딩된 화상): I-화상의 코딩은 다른 화상과 독립적으로 이루어진다. I-화상은 다수의 연속하는 비디오 화상의 전송을 동기화하는데 사용되고 그것의 코딩은 I-화상의 데이터의 국부적 상관을 이용한다. 상기 코딩은 바람직하게는 이산 코사인 변환(DCT)이며, 이것에 후속해서 양자화, 변환 계수의 웨이팅 및 엔트로피 코딩이 이루어진다.1. I-picture (Intra-coded picture): Coding of I-picture is done independently of other pictures. I-pictures are used to synchronize the transmission of multiple consecutive video pictures and their coding uses local correlation of the data of the I-pictures. The coding is preferably a discrete cosine transform (DCT), followed by quantization, weighting of transform coefficients and entropy coding.

2. P-화상(예측된 화상): 그 코딩은 시간적으로 선행된 I- 또는 P-화상에 의존한다(미리 예측). P-화상은 선행된 화상에 대해 이동 예측된다(이동 보상된 예측). 그리고 나서, 인트라-화상-코딩(예컨대 I-화상에 대해 전술한 방식으로)이 시간적 예측 에러에 적용된다.2. P-picture (predicted picture): The coding depends on the temporally preceded I- or P-picture (prediction). The P-picture is motion predicted with respect to the preceding picture (moving compensated prediction). Intra-picture-coding (eg, in the manner described above for I-pictures) is then applied to the temporal prediction error.

3. B-화상(양방향성의 예측된 화상): 이것에서는 시간적으로 이동 보상된 예측이 시간적으로 선행된 P- 또는 I-화상 및 시간적으로 후속하는 P- 또는 I-화상에대해 이루어진다. "이동 보상된 보간"이라고도 한다. (시간적으로) "후속하는" 또는 "선행하는"이라는 표현은 코딩된 화상의 데이터 스트림에서 화상의 전송 순서에 대한 것이 아니라, 그것의 기록-/ 재생-순서에 대한 것이다. 다른 화상의 코딩을 위한 시간적 예측의 기본인 화상은 "지원 화상"이라고도 한다. P-화상에서와 같이, B-화상은 차이 화상의 양자화된 변환 계수의 형태로 코딩된다.3. B-picture (bidirectional predicted picture): Here, temporally motion compensated prediction is made for a temporally preceded P- or I-picture and temporally subsequent P- or I-picture. Also called "moving compensated interpolation". The expression "temporarily" or "preceding" is not about the transmission order of the pictures in the data stream of the coded picture, but on its recording / playing-order. A picture that is the basis of temporal prediction for coding of another picture is also called a "support picture". As in the P-picture, the B-picture is coded in the form of quantized transform coefficients of the difference picture.

또한, 특히 PAL- 또는 NTSC-방식에 따른 텔레비젼에 의한 디스플레이를 위해, 비디오 화상이 소위 프레임으로 재생되는 것이 아니라, 연속하는 2개의 필드로 재생된다("인터레이스 포맷"). 1 프레임은 디스플레이될 전체 비디오 화상 및 상기 화상의 전체 라인을 포함한다. 이와는 달리, 하나의 필드는 하나의 비디오 화상의 라인의 절반만을 포함한다. 소위 "탑-필드" 또는 제 1 필드는 관련 프레임의 모든 우수의 라인이며, "바텀(bottom)-필드" 또는 제 2 필드는 관련 프레임의 모든 기수의 라인이다.In addition, especially for display by television according to the PAL- or NTSC-system, the video picture is not reproduced in so-called frames, but in two consecutive fields ("interlaced format"). One frame includes the entire video picture to be displayed and the entire line of the picture. In contrast, one field contains only half of the lines of one video picture. The so-called "top-field" or first field is the line of all even numbers of the relevant frame, and the "bottom-field" or second field is the line of all radix of the relevant frame.

MPEG-디코더는 코딩된 비디오 화상을 정확한 순서로 디코딩해야할 뿐만 아니라, 예컨대, 디스플레이가 PAL- 또는 NTSC-방식에 따른 텔레비젼을 위해 제공되면, 이것에 필요한 2개의 필드를 제공하기 위해서도 제공되어야 한다. 그러나, 전송된 비디오 화상은 프레임- 또는 필드-코딩될 수 있다. 첫번째 경우 전송된 비디오 화상은 프레임이고, 두번째 경우에는 필드이다. 상기 필드는 2개가 디스플레이될 하나의 프레임을 형성한다.The MPEG-decoder must not only decode the coded video picture in the correct order, but also to provide the two fields required for this, for example if the display is provided for a PAL- or NTSC-compliant television. However, the transmitted video picture can be frame- or field-coded. In the first case the transmitted video picture is a frame, in the second case a field. The field forms one frame in which two will be displayed.

MPEG-디코더는 이전에 디코딩된 지원 화상을 저장시키기 위한 저장 수단을 포함한다. 상기 I- 또는 P-화상의 저장은 필수적인데, 그 이유는 그것이 P- 또는B-화상의 시간적 예측의 기본이고 그것의 디코딩을 위해 필요하기 때문이다. 예컨대, 디코더에 의해 수신된, 코딩된 B-화상이 처리되어야 하면, B-화상의 디코딩이 그것의 양방향성 예측을 위해 사용되는, 디코더에 의해 미리 수신되어 저장된 지원 화상을 이용해서 이루어진다.The MPEG-decoder comprises storage means for storing a previously decoded supporting picture. The storage of the I- or P-picture is essential because it is the basis of the temporal prediction of the P- or B-picture and is necessary for its decoding. For example, if a coded B-picture received by a decoder is to be processed, decoding of the B-picture is done using a support picture previously received and stored by the decoder, which is used for its bidirectional prediction.

또한, B-화상의 디코딩을 위해 필요한 지원 화상이 디코딩되지 않고, 코딩된 형태로 디코더에 저장됨으로써 메모리 장소를 절약하는 것이 공지되어 있다. 그러나, 이 방법은 디코더에 의해 처리될 데이터 량이 현저히 증가된다는 단점을 갖는다. 동일한 I- 및 P-화상은 일반적으로 다수의 B-화상을 디코딩하기 위해 사용되므로, 이것이 종종 디코딩되어야 한다. 그러나, MPEG에 따라 블록 베이스 코딩이 제공되는 것이 중요하며, 이 경우 예측을 위해 사용되는 예측 범위가 지원 화상내에서 종종 블록 한계를 벗어난다. 따라서, B-화상으로 이루어진 블록의 디코딩을 위해 2개의 코딩되어 저장된 지원 화상의 4개의 블록이 디코딩되어야 한다. 따라서, 디코딩된 지원 화상을 저장하는 경우에 비해 8배의 데이터 량이 처리되어야 한다. 그러나, 이러한 8배의 데이터 량은 여느 때와 마찬가지로 예측되어 코딩된 화상의 디코딩을 위해 이용될 수 있는, 동일한 단위 시간으로 처리되어야 한다. 즉, 디코더의 성능에 대한 요구가 디코딩되어 저장된 지원 화상의 경우 보다 현저히 더 커진다.It is also known to save the memory location by having the support picture necessary for decoding the B-picture not decoded, but stored in the decoder in coded form. However, this method has the disadvantage that the amount of data to be processed by the decoder is significantly increased. Since the same I- and P-pictures are generally used to decode multiple B-pictures, this often needs to be decoded. However, it is important to provide block base coding in accordance with MPEG, in which case the prediction range used for prediction is often beyond the block limit in the supporting picture. Therefore, four blocks of two coded and stored supporting pictures must be decoded for decoding a block consisting of B-pictures. Therefore, eight times the amount of data must be processed compared with the case of storing the decoded supporting picture. However, this eight-fold amount of data must be processed in the same unit time, which can be used for decoding of predicted and coded pictures as usual. In other words, the demand for the performance of the decoder is significantly larger than in the case of a decoded and stored support picture.

종래의 MPEG-디코더에는 디코딩된 B-화상이 저장되는 저장 수단이 제공된다("출력-프레임 버퍼"). 상기 저장 수단은 종래의 디코더에서 프레임-코딩된 B-화상의 경우에 필요한데, 그 이유는 전술한 바와 같이, 디코더에 의해 프레임으로부터 2개의 필드가 형성되어야 하기 때문이다. 상기 필드는 인터레이스 포맷으로 프레임을 디스플레이하기 위해 차례로 디코더의 출력에 인가되어야 한다. 출력 프레임 버퍼는 필드-코딩된 B-화상의 경우 다른 이유 때문에 필요하다: 많은 용도에서(예컨대, 기록 시스템과 재생 시스템 사이의 상이한 화상 주파수를 조정하기 위해) 프레임의 디스플레이를 위해 2개의 필드가 디스플레이될 뿐만 아니라 제 2 필드의 디스플레이 후에 다시 한번 제 1 필드가 반복되어야 한다.Conventional MPEG-decoder is provided with storage means in which decoded B-pictures are stored ("output-frame buffer"). The storage means is necessary in the case of a frame-coded B-picture in a conventional decoder, because as described above, two fields must be formed from the frame by the decoder. The fields must in turn be applied to the output of the decoder in order to display the frame in interlace format. The output frame buffer is necessary for other reasons in the case of field-coded B-pictures: in many applications (eg, to adjust different picture frequencies between the recording system and the playback system) two fields are displayed for display of the frame. In addition, the first field must be repeated once again after the display of the second field.

본 발명은 비디오 디코더 및 디코딩 방법에 관한 것이다.The present invention relates to a video decoder and a decoding method.

도 1, 2 및 4는 본 발명의 상이한 실시예이고,1, 2 and 4 are different embodiments of the present invention,

도 3은 종래의 MPEG-디코더의 구성을 나타낸다.3 shows a configuration of a conventional MPEG-decoder.

본 발명의 목적은 메모리 필요가 적은 비디오 디코더를 제공하는 것이다.It is an object of the present invention to provide a video decoder having a low memory need.

상기 목적은 본 발명에 따라 청구범위 제 1항에 따른 디코더 및 청구범위 제 7항에 따른 디코딩 방법에 의해 달성된다.This object is achieved according to the invention by a decoder according to claim 1 and a decoding method according to claim 7.

본 발명에 따라, 제 1 화상이 디코딩되지 않고(선행 기술에서와 같이), 코딩된 형태로 디코더에 저장된다. 재생을 위해 필요한 필드의 발생을 위해 적어도 2배의 디코딩이 이루어진다. 각각의 디코딩 후에, 디코더의 출력에 디코딩 결과가 출력됨으로써, (예컨대 텔레비젼에 의해) 재생될 수 있다. 선행 기술에서와 같은 출력 프레임 버퍼는 필요치 않다. 코딩된 제 1 화상의 저장을 위해, 선행기술에서와 같이 디코딩된 화상이 저장되는 것 보다 작은 메모리 장소가 필요하다. 본 발명은 MPEG-디코더의 경우에 국한되지 않는다. 본 발명은 재생을 위해 제 1 화상으로부터 여러 배의 정보가 발생되어야 하는 모든 경우에 관련된다. 선행 기술과는 달리, 저장되어 코딩된 제 1 화상이 상이한 정보를 발생시키기 위해(예컨대, 하나의 프레임으로부터 2개의 필드) 매번 새로이 디코딩된다(예컨대, 화상이 매번 부분적으로만 그리고 불완전하게 디코딩되어야 한다). 선행기술에서는 먼저 화상이 완전히 디코딩되고, 저장된 다음 여러번 출력된다(예컨대, 디코딩된 프레임의 2개의 필드의 출력). 본 발명은 시간적 예측이 이루어지지 않고 지원 화상이 제공되지 않는 디코딩 방법에도 적용될 수 있다.According to the invention, the first picture is not decoded (as in the prior art) but stored in the decoder in coded form. At least twice the decoding is done for the generation of the fields necessary for reproduction. After each decoding, the decoding result is output to the output of the decoder, so that it can be reproduced (eg by a television). No output frame buffer as in the prior art is needed. For storage of the coded first picture, as in the prior art, a smaller memory location is needed than the decoded picture is stored. The invention is not limited to the case of an MPEG-decoder. The present invention is concerned in all cases where multiple times of information must be generated from the first picture for reproduction. Unlike the prior art, the stored and coded first picture is newly decoded each time (e.g., two fields from one frame) to generate different information (e.g., the picture must only be partially and incompletely decoded each time). ). In the prior art the picture is first fully decoded, stored and then output several times (e.g. output of two fields of a decoded frame). The present invention can also be applied to a decoding method in which no temporal prediction is made and no supporting picture is provided.

본 발명의 개선예는 MPEG-표준에 따른 비디오 디코더에 관련된다. 여기서는 제 1 화상이 제 2 화상에 대해 시간적으로 예측되지만, 다른 화상의 디코딩을 위해 필요하지는 않다(즉, 이것이 다른 화상의 시간적 예측에 사용되지 않기 때문에 다른 화상의 디코딩을 위해 디코딩될 필요가 없다). 이러한 제 1 화상은 예컨대 p- 또는 B-화상일 수 있다.An improvement of the invention relates to a video decoder according to the MPEG-standard. Here the first picture is temporally predicted for the second picture, but it is not necessary for the decoding of another picture (ie it does not need to be decoded for decoding another picture since it is not used for temporal prediction of another picture). . This first picture may for example be a p- or B-picture.

코딩된 지원 화상(즉, I- 및/또는 P-화상)이 저장되는 선행 기술과는 달리, 본 발명은 현저히 더 작은 데이터 량이 디코딩된다는 장점을 갖는다. 그 이유는 하기와 같다: 전술한 선행 기술에서, B-화상의 디코딩 전에 그것의 시간 예측에 기초가 되는, 코딩되어 저장된 I- 및 P-화상이 먼저 디코딩된다. I- 및 P-화상의 디코딩은 각각의 디코딩될 B-화상을 위해 재차 이루어져야 한다. 이로 인해, 디코더에 의해 디코딩될 데이터의 승산이 이루어진다.Unlike the prior art in which coded support pictures (ie, I- and / or P-pictures) are stored, the present invention has the advantage that a significantly smaller amount of data is decoded. The reason is as follows: In the above-described prior art, the coded and stored I- and P-pictures, which are based on their temporal prediction before the decoding of the B-pictures, are first decoded. The decoding of the I- and P-pictures must be done again for each B-picture to be decoded. This multiplies the data to be decoded by the decoder.

이와는 달리, 본 발명에서는 최악의 경우 즉, 프레임-코딩된 B-화상이 제 1 화상으로 고려되는 경우, 본 발명에 따라 제 1 필드를 발생시키기 위한 제 1 디코딩 및 제 2 필드를 발생시키기 위한 제 2 디코딩이 코딩된 프레임으로부터 이루어지면, 디코딩될 데이터 량이 2배로될 수 있다. 그러나, 바람직하게는 디코딩될 데이터 량의 상기 2배화가 피해질 수 있는데, 그 이유는 하나의 코딩된 프레임으로부터 하나의 필드를 얻기 위해 대개 발생될 필드를 위해 필수적인 라인의 디코딩에 국한될 수 있기 때문이다. 이것은 예컨대 이동 보상을 위해 적용되지만, 역 양자화 및 역 DCT의 대개의 경우에도 적용된다.In contrast, in the present invention, in the worst case, that is, when the frame-coded B-picture is considered as the first picture, the first decoding and the second field for generating the second field for generating the first field according to the present invention. If two decoding is made from the coded frame, the amount of data to be decoded can be doubled. However, preferably the doubling of the amount of data to be decoded can be avoided, since it can be limited to the decoding of lines which are usually necessary for the field to be generated to obtain one field from one coded frame. to be. This applies for example for motion compensation, but also in most cases of inverse quantization and inverse DCT.

본 발명을 첨부한 도면을 참고로 구체적으로 설명하면 하기와 같다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 3에 도시된 종래의 비디오 화상용 디코더의 입력(In)에는 코딩된 제 2 화상(I), 코딩된 제 3 화상(P) 및 코딩된 제 1 화상(B)이 차례로 인가된다. 이러한 차례는 기록 순서 또는 재생 순서와 일치하는 것이 아니라 데이터를 전송할 때의 순서와 일치하며, 코딩 방식의 결과로 나타난다. 제 1 화상(B)은 B-화상으로, 제 2화상(I)은 I-화상으로 그리고 제 3화상(P)은 P-화상으로 가정한다.A coded second picture I, a coded third picture P, and a coded first picture B are sequentially applied to an input In of the conventional video picture decoder shown in FIG. This order does not match the recording order or reproduction order, but the order in which data is transmitted, resulting in a coding scheme. It is assumed that the first image B is a B-picture, the second image I is an I-picture and the third image P is a P-picture.

직접 인가되는 코딩된 화상은 각각 입력 버퍼(1)에 일시 저장된 다음에 엔트로피 디코더(2), 역 양자화 및 역 DCT(Dicrete Cosine Transformation) 유닛(3)에서 처리되며, 각각의 화상이 시간적으로 예측된 경우에는 이동 보상 수단(4)에서 보상된다.The coded pictures that are directly applied are each temporarily stored in the input buffer 1 and then processed in an entropy decoder 2, inverse quantization and inverse DCT (Dicrete Cosine Transformation) units 3, where each picture is estimated in time. In the case it is compensated by the movement compensation means 4.

디코더의 출력(Out) 앞에는 후처리 유닛(5)(Post Processing)이 접속되는데, 상기 유닛은 - 본 경우에 가정된 바와 같이 - 프레임 코딩된 화상(I, P, B)을필드(IT, IB또는 BT, BB또는 PT, PB)로서 인터레이스 포맷으로 출력한다. 제 1 화상(B)의 디코딩을 위한 지원 화상으로서 필수적인 제 2 화상(I) 및 제 3 화상(P)은 디코딩되어 제 2 저장 수단(S2)에 저장되는 한편, 디코딩된 제 1 화상(B)은 후속해서 2개의 필드(BT, BB)로 분해하기 위하여 출력-프레임 버퍼(S)내에 저장된다.Post-processing unit 5 is connected in front of the output of the decoder, which unit-as assumed in the present case-displays the frame-coded pictures I, P, B in fields I T,. I B or B T , B B or P T , P B ) and output in interlace format. The second picture I and the third picture P, which are essential as support pictures for decoding of the first picture B, are decoded and stored in the second storage means S2, while the decoded first picture B Is stored in the output-frame buffer S for subsequent decomposition into two fields B T , B B.

그 다음에는 디코더에 의해 디코딩된, 출력(Out)에 있는 화상들이 재생을 위해 재생 장치(D)에 제공될 수 있다.The pictures in the Out, which are then decoded by the decoder, can be provided to the reproduction device D for reproduction.

선행 기술에서는, 지원 화상(I, P)이 코딩된 상태로 저장되고, 지원 화상에 대해 시간적으로 예측된 B-화상의 디코딩을 위해 디코딩된다.In the prior art, the supporting pictures I, P are stored in a coded state and decoded for decoding the B-picture predicted in time for the supporting picture.

도 1은 본 발명의 제 1실시예를 보여준다. 이미 선행 기술에 공지된 도 3의 디코더와 마찬가지로 본 발명에 따른 디코더도 입력 버퍼(1), 엔트로피 디코더(2), 역 양자화 및 역 DCT 유닛(3), 이동 보상 수단(4) 및 후처리 유닛(5)(Post Processing), 그리고 후속하는 디코딩을 위한 지원 화상으로서 사용되는 디코딩된 제 2 화상(I) 및 제 3 화상(P)을 저장하기 위한 제 2 저장 수단(S2)을 포함한다. 본 실시예에서는, 제 2 화상(I)은 I-화상으로 가정되고, 제 3 화상(P)은 상기 제 2 화상(I)과 관련하여 시간적으로 예측되는 P-화상으로 가정된다.1 shows a first embodiment of the present invention. Like the decoder of FIG. 3 already known in the prior art, the decoder according to the invention also has an input buffer 1, an entropy decoder 2, an inverse quantization and inverse DCT unit 3, a motion compensation means 4 and a post processing unit. (5) (Post Processing) and second storage means S2 for storing the decoded second picture I and the third picture P, which are used as support pictures for subsequent decoding. In this embodiment, the second picture I is assumed to be an I-picture, and the third picture P is assumed to be a P-picture that is predicted in time with respect to the second picture I.

디코더의 입력(In)에는 코딩된 제 2 화상(I), 코딩된 제 3 화상(P) 및 제 1화상(B)(본 실시예에서는 선행하는 2개의 지원 화상(I, P)과 관련하여 시간적으로 양방향으로 예측된 B-화상)이 차례로 인가된다. 제 2 화상(I) 및 제 3 화상(P)은 공지된 방식으로 디코딩되어 제 2 저장 수단(S2)내에 저장되는 한편, 제 1 화상(B)은 먼저 제 1 저장 수단(S1)에 코딩된 형태로 저장된다.The input In of the decoder includes a coded second picture I, a coded third picture P and a first picture B (in this embodiment with respect to the preceding two supporting pictures I, P). Temporally bidirectionally predicted B-pictures) are applied in turn. The second picture I and the third picture P are decoded in a known manner and stored in the second storage means S2, while the first picture B is first coded in the first storage means S1. Is stored in the form.

디코더의 출력(Out)에는 I-화상(I), B-화상(B) 및 P-화상(P)의 필드(IT, IB, BT, BB, PT, PB)가 제공되는데, 제공되는 방식은 상기 필드들이 예컨대 텔레비젼상에 후속하는 디스플레이를 위해 인터레이스 포맷으로 상기의 순서대로 디코더에 의해 형성되는 방식이다. (디코더의 출력(Out)에서) 재생을 위해 필요한 순서와는 다른 순서로 코딩된 화상(I, P, B)을 전송하는 것은 양방향 예측의 기본 원리에 따라 이루어지며, 선행 기술에 공지되어 있다.The output of the decoder is provided with the fields I T , I B , B T , B B , P T , P B of the I-picture (I), B-picture (B) and P-picture (P). The manner provided is the way in which the fields are formed by a decoder in the above order in an interlaced format, for example for subsequent display on a television. The transmission of pictures I, P, B coded in an order different from the order required for reproduction (at the output of the decoder) is made according to the basic principle of bidirectional prediction and is known in the prior art.

본 실시예의 프레임 코딩된 화상, 즉 프레임을 나타내고 제 1 저장 수단(S1)에 저장된 제 1 화상(B)은 지원 화상(I, P)을 이용하여 2개의 필드(BT, BB)를 각각 형성하기 위해서 한 번씩 디코딩된다. 경우에 따라 예를 들어 3번의 디코딩이 필요할 수 있는데, 그러한 경우는 말하자면 제 2 필드(BB)가 형성된 다음에 제 1 필드(BT)가 전송된 비디오 화상을 재생하기 위해서 다시 한 번 필요하게 되는 경우이다(도 1에는 제 1 필드(BT)가 인-클램프-세팅(In-Clamp-Setting)에 의해서 출력(Out)에 2번째로 전송되는 것이 도시되어 있다).The frame coded picture of the present embodiment, that is, the first picture B that represents the frame and is stored in the first storage means S1, uses the support pictures I and P to respectively use two fields B T and B B. It is decoded once to form. In some cases, for example, three decodings may be required, in which case, once again, the second field B B is formed and then once again necessary to reproduce the video picture to which the first field B T is transmitted. 1 shows that the first field B T is transmitted second to Out by In-Clamp-Setting.

도 1에서 알 수 있는 것은, 디코딩 단계(1 내지 4)와 디코더의 출력(Out) 사이에 디코딩된 제 1 화상(B) 또는 그로부터 형성된 필드(BT, BB)를 저장하기 위한 추가 저장 수단이 없기 때문에, 필드가 일시 저장되지 않고 직접 출력(Out)에 제공될 수 있다는 것이다. 따라서, 도 3에 나타나는 바와 같이, 선행 기술의 출력 프레임 버퍼(S)는 생략된다.As can be seen in FIG. 1, further storage means for storing the decoded first picture B or the fields B T , B B formed therebetween between the decoding steps 1 to 4 and the output of the decoder. Since there is no such field, the field can be provided directly to the Out without being temporarily stored. Thus, as shown in Fig. 3, the output frame buffer S of the prior art is omitted.

MPEG-표준에 따르면, 화상들을 소위 매크로 블록(macro blocks)(이 블록은 예를 들어 8x8 픽셀의 6개의 블록이다)으로 분해하여 전송하는 것이 통상적이다. 상기 전송의 결과로서, 디코딩할 때 우선 개별 화상 라인(picture line) 대신에 소위 매크로 블록 라인이 형성된다 - 이 라인은 예를 들어 각각 16개의 화상 라인의 그룹이다. 그 다음의 디스플레이를 위한 디코더로부터의 출력은 라인 방식으로 이루어져야 한다. 상기 "블록 방식" 포맷을 "라인 방식" 포맷으로 변환하기 위해서는, 본 발명의 적용을 위해 선행 기술에서 출력 프레임 버퍼(S)(도 3)가 배치된 장소에 소형의 일시 저장 장치가 제공되어야 한다. 선행 기술과는 달리 상기 일시 저장 장치는 각각 디코딩된 매크로 블록 라인(예를 들어 16개의 화상 라인) 중에서 하나의 매크로 블록 라인을 기록하기 위해서만 사용되고, 디코딩될 필드 또는 프레임(예를 들어 288개 또는 576개의 화상 라인)을 기록하기 위해서는 사용되지 않기 때문에, 출력-프레임 버퍼 보다 훨씬 더 작다. 전체 매크로 블록 라인이 디코딩되어 일시 저장 장치에 저장된 후에, 재생을 위해 필요한 라인 방식의 출력이 이루어질 수 있다. 디코딩된 화상 라인을 중단 없이 출력하기 위해서는, 2개의 매크로 블록 라인(전체적으로 예를 들어 32개의 화상 라인)을 기록할 수 있을 정도의 크기로 일시 저장 장치를 설계하는 것이 중요하다. 하나의 매크로 블록 라인이 디코딩된 후에는 상기 매크로 블록 라인이 화상 라인 방식으로 출력될 수 있는 한편, 동시에 다른 하나의 매크로 블록 라인도 디코딩되며, 이 때 형성된 데이터들은 선행하는 매크로 블록 라인에 오버라이트(overwrite)되지 않고 마찬가지로 일시 저장장치에 연속적으로 저장된다.According to the MPEG-standard, it is common for pictures to be decomposed into so-called macro blocks (which are, for example, six blocks of 8x8 pixels) and transmitted. As a result of the transmission, when decoding, so-called macro block lines are first formed instead of individual picture lines-these lines are, for example, groups of 16 picture lines each. The output from the decoder for subsequent display should be done in line fashion. In order to convert the " block " format into a " line " format, a small temporary storage device must be provided in the place where the output frame buffer S (Fig. 3) is disposed in the prior art for the application of the present invention. . Unlike the prior art, the temporary storage device is used only for recording one macro block line among decoded macro block lines (for example, 16 picture lines), respectively, and a field or frame to be decoded (for example, 288 or 576). Is not used to write (picture lines), which is much smaller than the output-frame buffer. After the entire macro block line has been decoded and stored in the temporary storage device, the output of the line system necessary for reproduction can be made. In order to output the decoded picture lines without interruption, it is important to design the temporary storage device to a size large enough to record two macro block lines (for example, 32 picture lines as a whole). After one macro block line is decoded, the macro block line can be output in a picture line manner, while another macro block line is also decoded at the same time, and the formed data is overwritten to the preceding macro block line. are not continuously overwritten.

제 1 저장 수단(S1)이 바람직하게는 입력 버퍼(1)의 부분일 수 있기 때문에, 입력 버퍼는 저장될 제 1 화상(B) 이외에도 상기 화상이 저장되는 동안 디코더의 입력(In)에 도달되는 화상을 기록할 수 있도록 선행 기술 보다 더 큰 크기로 설계되어야 한다. 선행 기술(도 3)과는 달리 본 발명에서는 디코딩된 제 1 화상(B)이 저장되는 출력-프레임 버퍼(S)가 필수적이지 않다. 제 1 저장 수단(S1)은 (경우에 따라 요구되는, 앞 단락에 이미 설명한 일시 저장 장치를 포함해서) 선행 기술의 출력 프레임 버퍼(S)보다 더 작은 크기로 설계될 수 있다.Since the first storage means S1 may preferably be part of the input buffer 1, the input buffer reaches the input In of the decoder while the picture is being stored in addition to the first picture B to be stored. It should be designed to be larger in size than the prior art so that an image can be recorded. Unlike the prior art (FIG. 3), the output-frame buffer S in which the decoded first picture B is stored is not essential. The first storage means S1 can be designed with a smaller size than the output frame buffer S of the prior art (including the temporary storage device already described in the preceding paragraph, which is required in some cases).

제 1 프레임(B)으로부터 필드(BT, BB)의 형성은 바람직하게, 2가지 경우에 전체 제 1 화상(B)이 디코딩되지 않고 필드에 필수적인 라인만 디코딩되는 방식으로 이루어진다. 그럼으로써, 디코딩될 데이터의 량이 현저하게 감소될 수 있다.The formation of the fields B T , B B from the first frame B is preferably done in such a way that in two cases the entire first picture B is not decoded and only the lines necessary for the field are decoded. Thereby, the amount of data to be decoded can be significantly reduced.

도시된 실시예의 대안으로서, 제 1 화상(B)에 부가해서 지원 화상(I, P)이 디코딩되는 것이 아니라, 마찬가지로 코딩되어 저장될 수 있다. 그런 경우에는 디코더 내부에서 전체적으로 훨씬 더 적은 메모리가 필요하며, 이 경우에는 단위 시간 당 디코딩 비용가 증가된다.As an alternative to the illustrated embodiment, the supporting pictures I, P in addition to the first picture B are not decoded, but can also be coded and stored. In such a case, much less memory is needed overall inside the decoder, which increases the decoding cost per unit time.

도 2는 본 발명의 제 2실시예로서, (본 실시예에서도 B-화상인) 제 1 화상(B)이 프레임이 아니고, 도 1의 프레임-코딩된 B-화상과 달리 부가적으로 전송된 제 2 필드(BB)와 함께 필드-코딩된 프레임을 형성하는 제 1 필드(BT)라는 점이 도 1의 제 1실시예와 상이하다. 2개의 필드(BT, BB)는 B-화상이고, 지원 화상(I,P)과 관련하여 시간적으로 예측된다.FIG. 2 is a second embodiment of the present invention in which the first picture B (which is also a B-picture in this embodiment) is not a frame but is additionally transmitted unlike the frame-coded B-picture of FIG. The first field B T , which forms a field-coded frame together with the second field B B , is different from the first embodiment of FIG. 1. The two fields B T , B B are B-pictures and are predicted in time with respect to the support pictures I, P.

도 2에 도시된 디코더에서 제 1 필드(BT)는 제 1 저장 수단(S1)내에 코딩되어 저장되는데, 그 이유는 이미 언급한 바와 같이, 제 2 필드(BB)이 출력(Out)에 출력된 후에 재차 제 1 필드(BT)를 출력하는 것이 필요할 수 있기 때문이다. 상기 목적을 위해서는, 먼저 수신된 제 2 화상(I)(I-화상)이 디코딩되어 제 2 저장 수단(S2)에 저장되는 동시에 2개의 필드(IT, IB)로 분해되어 상기 순서대로 출력(Out)에 제공된다. 다음으로 입력(In)에 인가되는 제 3 화상(P)도 디코딩되어 마찬가지로 제 2 저장 수단(S2)에 저장된다. 그 다음으로 입력(In)에 수신된 코딩된 제 1 필드(BT)는 제 1 저장 수단(S1)에 저장되는 동시에, 제 2 저장 수단(S2)에 저장된 제 2 화상(I) 및 제 3 화상(P)의 도움으로 디코딩되어 출력(Out)에 제공된다. 그 다음에, 제 1 저장 수단(S1)에 저장될 때까지 제 2 필드(BB)와 동일하다. 그 후에, 제 1 저장 수단(S1)에 저장된 제 1 필드(BT)가 다시 디코딩되어 출력되고, 그 다음에 제 2 저장 수단(S2)에 저장된 제 3 화상(P)이 필드(PT, PB)로 분해되어 출력된다.In the decoder shown in FIG. 2, the first field B T is coded and stored in the first storage means S1 because, as already mentioned, the second field B B is connected to the output Out. This is because it may be necessary to output the first field B T again after the output. For this purpose, the first received picture I (I-picture) is decoded and stored in the second storage means S2 and decomposed into two fields I T , I B and output in the above order. (Out) is provided. Next, the third image P applied to the input In is also decoded and stored in the second storage means S2 as well. The coded first field B T , which is then received at the input In, is stored in the first storage means S1 and at the same time the second image I and the third stored in the second storage means S2. Decoded with the help of the picture P and provided to the Out. Then, the same as the second field B B until it is stored in the first storage means S1. Thereafter, the first field B T stored in the first storage means S1 is decoded and output again, and the third image P stored in the second storage means S2 is then filled with the fields P T,. It is decomposed into P B ) and output.

MPEG와 같은 블록 방식 방법에서는, 디코딩된 매크로 블록 라인 대신에 개별 화상 라인을 출력할 수 있기 위해, 2개의 매크로 블록 라인을 기록하기 위한 비교적 작은 일시 저장 장치가 이동 보상 수단(4) 및 후처리 유닛(5) 사이에 배치되어야 한다.In a block method such as MPEG, in order to be able to output individual picture lines instead of decoded macro block lines, a relatively small temporary storage device for recording two macro block lines includes a motion compensation means 4 and a post processing unit. (5) Should be placed between.

본 발명의 대안적인 실시예에서 제 2 화상(I)으로서 I-화상이 아니라 P-화상이 제공될 수도 있는데, 그 이유는 일반적으로 공지된 바와 같이 B-화상은 I-화상과 관련하여서 뿐만 아니라 P-화상과 관련하여서도 예측되기 때문이다. 제 1 저장 수단에 저장될 2개의 지원 화상이 I-화상인 경우에도 동일하게 적용된다.In an alternative embodiment of the invention a P-picture may be provided as the second picture I rather than an I-picture, since B-pictures, as is generally known, may This is because it is also predicted with respect to P-pictures. The same applies to the case where the two supporting pictures to be stored in the first storage means are I-pictures.

또한, (I-화상 또는 P-화상으로서의) 제 2 화상(I)이 유일한 지원 화상으로서 제 2 저장 수단(S2)에 저장될 수도 있고 (이 경우에는 도 1 및 도 2의 실시예에서보다 더 작은 크기로 설계될 수 있다), 제 1 화상(B)은 제 2 화상(I)과 관련하여 코딩되기는 하지만 예측을 위해서는 사용되지 않는 미리 예측된 P-화상일 수도 있다(이것은 물론 MPEG-표준에 상응하지 않는다).Also, the second picture I (as an I-picture or a P-picture) may be stored in the second storage means S2 as the only supporting picture (in this case more than in the embodiment of FIGS. 1 and 2). The first picture B may be a pre-predicted P-picture which is coded in relation to the second picture I but which is not used for prediction (which of course is in the MPEG-standard). Does not correspond).

물론, 도 1 및 도 2에서 프레임으로 가정된 코딩된 화상(I 및 P)이 필드이거나 또는 필드로서 코딩되기는 하지만, 제 2 저장 수단에 프레임으로서 저장될 수도 있다.Of course, the coded pictures I and P assumed to be frames in FIGS. 1 and 2 are either fields or coded as fields, but may also be stored as frames in the second storage means.

도 4는 본 발명의 다른 실시예를 보여준다. 본 실시예에서는 MPEG-디코더를 다루고 있지만, 본 발명은 다만 이것에만 한정되지는 않는다. 도 4에서 입력(In)에는 2개의 지원 화상(I, P) 외에 2개의 B-화상, 즉 제 1 화상(B) 및 제 4 화상(B')이 차례로 인가된다. 모든 화상(I, P, B, B')은 프레임 코딩된다. 즉 프레임으로 가정된다. 본 실시예에서 2개의 B-화상(B, B')은 제 1 저장 수단(S1)에 저장된다. 상기 2개의 화상(B, B')을 여러 번 디코딩함으로써 예를 들어 출력(Out)에서 디스플레이 되는 필드가 주어진 순서대로 형성될 수 있다. 본 경우에는 2개의 각각의 필드를 형성하기 위해서 먼저 제 1화상(B)이 2번 디코딩되고,그 다음에 제 4 화상(B')이 2번 디코딩된 후에 재차 제 1 화상(B)이 2번 디코딩된다. 다른 시간적 순서도 가능한데, 이러한 순서는 재생 장치(D)에 의한 재생이 어떤 형태로 이루어져야 하는 지에 달려있다.4 shows another embodiment of the present invention. Although the present embodiment deals with the MPEG-decoder, the present invention is not limited thereto. In FIG. 4, two B-pictures, that is, a first picture B and a fourth picture B ', are sequentially applied to the input In in addition to the two supporting pictures I and P. All pictures I, P, B, and B 'are frame coded. It is assumed to be a frame. In this embodiment, two B-pictures B and B 'are stored in the first storage means S1. By decoding the two pictures B, B 'several times, for example, the fields displayed at the output Out can be formed in the given order. In this case, the first picture B is first decoded twice to form two respective fields, and then the fourth picture B 'is decoded twice, and then the first picture B is again decoded two times. Is decoded once. Other temporal orders are possible, depending on how the playback by the playback device D should take place.

도 4에는 이미 여러 번 언급된 일시 저장 장치(Z)가 이동 보상 수단(4)과 후처리 유닛(5) 사이에 도시되었다. 일시 저장 장치는 블록 방식 코딩 방법에서만 필수적이고, MPEG-디코더에서는 2개의 매크로 블록 라인을 수용할 수 있다. 따라서 일시 저장 장치는 도 3에 따른 출력 프레임 버퍼(S)보다 훨씬 더 작다. 코딩 또는 디코딩이 블록 방식으로 이루어지지 않고 라인 방식으로 이루어지면, 일시 저장 장치(Z)는 필요 없게 된다. 그런 경우에는 각각의 디코딩된 화상이 직접 라인 방식으로 출력될 수 있다.In figure 4 a temporary storage device Z, which has already been mentioned several times, is shown between the movement compensation means 4 and the aftertreatment unit 5. Temporary storage is essential only in a block coding method and can accommodate two macro block lines in an MPEG-decoder. The temporary storage device is thus much smaller than the output frame buffer S according to FIG. 3. If the coding or decoding is not done in a block manner but in a line manner, the temporary storage device Z is not necessary. In such a case, each decoded picture can be output in a direct line manner.

본 발명에 따른 디코더는, 전송될 비디오 화상의 코딩을 위한 이동 평가를 실행하는 장소인 상응하는 엔코더의 구성 부분일 수 있다. MPEG 엔코더는 기본적으로 시간을 예측하기 위한 디코더도 포함한다.The decoder according to the invention can be a component part of a corresponding encoder which is the place to carry out the motion evaluation for the coding of the video picture to be transmitted. The MPEG encoder basically also includes a decoder for predicting time.

본 발명은, 다른 화상을 시간적으로 예측하기 위한 기초가 없는 모든 비디오 화상에 매우 바람직하게 적용될 수 있다. 본 발명은 도 1 및 도 2의 2개의 실시예에 도시된, B-화상으로 가정되어 시간적으로 양방향으로 예측된 제 1 화상(B) 뿐만 아니라, (시간적으로 단방향으로 예측된 P-화상 외에) 예를 들어 I-화상과 같이 시간적으로 예측되지 않은 화상에도 관련된다.The present invention can be very preferably applied to all video pictures which have no basis for temporally predicting other pictures. The present invention is not only the first picture B, which is assumed to be B-picture and predicted in both directions in time, as shown in the two embodiments of FIGS. 1 and 2 (in addition to the P-picture that is predicted in one direction in time). It also relates to pictures that are not temporally predicted, for example I-pictures.

Claims (8)

- 압축 코딩된 제 1 화상(B)을 저장하기 위한 제 1 저장 수단(S1) 및First storage means S1 for storing the compression coded first picture B and -- 저장된 제 1 화상(B)을 제 1 디코딩한 다음, 재생 장치(D)를 이용해 재생하기 위해디코딩결과를 출력(OUT)에 출력하기 위한 그리고For first decoding the stored first picture B and then outputting the decoding result to the output OUT for playback using the playback device D and -- 저장된 제 1 화상(B)을 시간적으로 후속해서 제 2 디코딩한 다음,디코딩결과를 출력(OUT)에 출력하기 위한For subsequent second decoding of the stored first picture B in time, and then outputting the decoding result to the output OUT. - 디코딩 장치(2, 3, 4)를 포함하는 비디오 디코더.A video decoder comprising decoding devices 2, 3, 4. 제 1항에 있어서,The method of claim 1, - 코딩된 제 1 화상(B)은 제 2 화상(I)과 관련해서 시간적으로 예측되지만, 다른 코딩된 화상을 시간적으로 예측하기 위해서는 사용되지 않으며,The coded first picture B is predicted temporally in relation to the second picture I, but is not used to temporally predict another coded picture, - 비디오 디코더는 제 2 화상(I)을 저장하기 위한 제 2 저장 수단(S2)을 포함하며,The video decoder comprises second storage means S2 for storing the second picture I, - 디코딩 장치는 저장된 제 1 화상(B)을 저장된 제 2 화상(I)을 이용하여 디코딩하는 것을 특징으로 하는 비디오 디코더.The decoding device decodes the stored first picture (B) using the stored second picture (I). 제 1항 또는 제 2항에 있어서,The method according to claim 1 or 2, - 제 1 화상(B)은 프레임이며,The first picture B is a frame, - 디코딩 장치는 제 1 화상(B)으로부터 제 1 디코딩에 의해 제 1 필드(BT)를 그리고 제 2 디코딩에 의해 제 2 필드(BB)를 발생시키기 위해 사용되는 것을 특징으로 하는 비디오 디코더.The decoding device is used for generating a first field (B T ) by a first decoding and a second field (B B ) by a second decoding from a first picture (B). 제 3항에 있어서,The method of claim 3, wherein 디코딩 장치가 제 2 디코딩 후에 저장된 제 1 화상(B)의 제 3 디코딩에 의해 재차 제 1 필드(BT)를 발생시켜 출력에 출력시키기 위해 사용되는 것을 특징으로 하는 비디오 디코더.And the decoding device is used for generating and outputting the first field (B T ) to the output again by the third decoding of the stored first picture (B) after the second decoding. 제 1항 또는 제 2항에 있어서,The method according to claim 1 or 2, - 제 1 코딩된 화상(B)은 제 1 필드(BT)이며,The first coded picture B is the first field B T , - 디코딩 장치는 연속하는 디코딩에 의해The decoding device is configured by successive decoding -- 저장된 제 1 필드(BT),Stored first field B T , -- 코딩된 제 2 필드(BB) 및Coded second field B B and -- 재차 저장된 제 1 필드(BT)를 차례로 발생시키기 위해 사용되는 것을 특징으로 하는 비디오 디코더.A video decoder, which in turn is used to generate the stored first field B T in turn. 제 1항 또는 제 2항에 있어서,The method according to claim 1 or 2, - 제 1 저장 수단(S1)이 제 1 화상(B)에 부가해서 압축 코딩된 제 4 화상(B')을 저장하기 위해 사용되며,A first storage means S1 is used for storing the compression coded fourth picture B 'in addition to the first picture B, - 디코딩 장치가 저장된 제 4 화상을 마찬가지로 여러번 디코딩하고 디코딩 결과를 출력(OUT)에 제공하기 위해 사용되는 것을 특징으로 하는 비디오 디코더.The video decoder being used to decode the stored fourth picture likewise several times and to provide the decoding result to the output OUT. - 코딩된 제 1화상(B)이 저장되고,The coded first picture B is stored, - 저장된 제 1 화상(B)이 디코딩되며 디코딩 결과가 재생 장치(D)에 의한 재생을 위해 디코더의 출력(OUT)에 제공되며,The stored first picture B is decoded and the decoding result is provided to the output OUT of the decoder for reproduction by the reproduction device D, - 저장된 제 1 화상(B)이 2번 디코딩되고 디코딩 결과가 출력(OUT)에 제공되는 것을 특징으로 하는 압축 코딩된 제 1 화상(B)의 디코딩 방법.A method of decoding a compressed coded first picture (B), characterized in that the stored first picture (B) is decoded twice and the decoding result is provided to the output (OUT). 제 7항에 있어서,The method of claim 7, wherein - 코딩된 제 1 화상(B)은 제 2 화상(I)과 관련하여 시간적으로 예측되기는 하지만, 다른 코딩된 화상을 시간적으로 예측하기 위해서는 사용되지 않으며,The coded first picture B is predicted temporally in relation to the second picture I, but is not used to temporally predict another coded picture, - 제 2 화상(I)이 저장되고,The second picture I is stored, - 제 1 화상(B)의 디코딩이 저장된 제 2 화상(I)을 이용하여 이루어지는 것을 특징으로 하는 방법.Decoding of the first picture (B) is carried out using the stored second picture (I).
KR10-1998-0708494A 1996-04-23 1997-04-22 Video decoder and corresponding process KR100373602B1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE19616201.7 1996-04-23
DE19616201 1996-04-23
DE19617171.7 1996-04-29
DE19617171A DE19617171C2 (en) 1996-04-23 1996-04-29 Video decoder and corresponding method

Publications (2)

Publication Number Publication Date
KR20000010607A KR20000010607A (en) 2000-02-15
KR100373602B1 true KR100373602B1 (en) 2003-04-21

Family

ID=7792207

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-1998-0708494A KR100373602B1 (en) 1996-04-23 1997-04-22 Video decoder and corresponding process

Country Status (2)

Country Link
KR (1) KR100373602B1 (en)
DE (2) DE19617171C2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6968003B1 (en) * 1996-01-29 2005-11-22 International Business Machines Corporation Speed-memory tradeoff for MPEG decoders
EP1279291B1 (en) * 2000-04-14 2004-10-06 Siemens Aktiengesellschaft Method and device for storing and processing image information of temporally successive images

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5649029A (en) * 1991-03-15 1997-07-15 Galbi; David E. MPEG audio/video decoder
US5880786A (en) * 1994-06-15 1999-03-09 Hitachi, Ltd. Apparatus for picture decoding having frame memories commonly connected to one data bus and one address bus
EP0710033A3 (en) * 1994-10-28 1999-06-09 Matsushita Electric Industrial Co., Ltd. MPEG video decoder having a high bandwidth memory

Also Published As

Publication number Publication date
DE19617171C2 (en) 1999-02-25
KR20000010607A (en) 2000-02-15
DE19617171A1 (en) 1997-10-30
DE59700400D1 (en) 1999-10-07

Similar Documents

Publication Publication Date Title
JP3610578B2 (en) Rounding error prevention method and apparatus when inversely transforming transform coefficient indicating moving image signal
KR100265192B1 (en) Moving picture decoding appratus
JP3443867B2 (en) Image signal encoding / decoding method and image signal recording medium
JP3358835B2 (en) Image coding method and apparatus
KR100416873B1 (en) Method and apparatus for playback compressed video data
EP0893918A2 (en) Coding and decoding digital video signals having duplicate pictures and frames with fields originating from different film source frames
US5739862A (en) Reverse playback of MPEG video
JPH0537915A (en) Method and device for coding image signal
KR0185932B1 (en) Video data decoding method and apparatus
JPH0818979A (en) Image processor
JP2898413B2 (en) Method for decoding and encoding compressed video data streams with reduced memory requirements
KR100373602B1 (en) Video decoder and corresponding process
KR20020065908A (en) Image reproducing method and image processing method, and image reproducing device, image processing device, and television receiver capable of using the methods
JPH11155129A (en) Mpeg picture reproduction device and mpeg picture reproducing method
JP3164056B2 (en) Moving image encoding / decoding device, moving image encoding / decoding method, and moving image code recording medium
JP3663559B2 (en) Video coding method for real-time backward playback
JP3356413B2 (en) Image decoding method and apparatus
JP3663661B2 (en) Video signal reproducing apparatus, video signal decoding apparatus and method
KR100252810B1 (en) Mpeg decoder
JP3017646B2 (en) Image decoding device with frame rate conversion function
JPH07236159A (en) Method and device for encoding movement compensation, transmitting device and recorder
JP2952603B2 (en) Video coding control method
JP2000509572A (en) Video decoder and related method
JPH08163570A (en) Method and device for decoding low delay mode picture
JP2897056B2 (en) Video coding control method

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130201

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20140203

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20150130

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20160211

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20170203

Year of fee payment: 15

EXPY Expiration of term