KR20000010607A - 비디오 디코더 및 디코딩 방법 - Google Patents

비디오 디코더 및 디코딩 방법 Download PDF

Info

Publication number
KR20000010607A
KR20000010607A KR1019980708494A KR19980708494A KR20000010607A KR 20000010607 A KR20000010607 A KR 20000010607A KR 1019980708494 A KR1019980708494 A KR 1019980708494A KR 19980708494 A KR19980708494 A KR 19980708494A KR 20000010607 A KR20000010607 A KR 20000010607A
Authority
KR
South Korea
Prior art keywords
picture
coded
decoded
stored
decoder
Prior art date
Application number
KR1019980708494A
Other languages
English (en)
Other versions
KR100373602B1 (ko
Inventor
죄렌 하인
볼프강 마이어
노르베르트 벤
Original Assignee
칼 하인쯔 호르닝어
지멘스 악티엔게젤샤프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 칼 하인쯔 호르닝어, 지멘스 악티엔게젤샤프트 filed Critical 칼 하인쯔 호르닝어
Publication of KR20000010607A publication Critical patent/KR20000010607A/ko
Application granted granted Critical
Publication of KR100373602B1 publication Critical patent/KR100373602B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • H04N19/426Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements using memory downsizing methods
    • H04N19/427Display on the fly, e.g. simultaneous writing to and reading from decoding memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

디코더는 제 1 코딩된 화상(B)을 저장하기 위한 제 1 저장 수단(S1)을 포함한다. 제 1 코딩된 화상은 상기 화상이 적어도 2번 디코딩될 때까지 저장될 수 있다. 디코딩의 결과는 재생 장치(D)에 제공될 수 있다. 본 발명에 의해 제 1 디코딩된 화상(B)용 출력 프레임 버퍼가 필요 없어지기 때문에, 디코더내에서 메모리 필요가 적어진다.

Description

비디오 디코더 및 디코딩 방법
비디오 화상을 코딩하기 위해, 소위 하이브리드 코딩을 위한 변환 및 예측 코딩의 원리를 적용한 소위 MPEG-표준이 사용된다. 이것은 데이터 압축의 방식면에서 상이한, 3가지 방식의 코딩된 화상을 제공한다:
1. Ⅰ-화상(인트라코딩된 화상): I-화상의 코딩은 다른 화상과 독립적으로 이루어진다. I-화상은 다수의 연속하는 비디오 화상의 전송을 동기화하는데 사용되고 그것의 코딩은 I-화상의 데이터의 국부적 상관을 이용한다. 상기 코딩은 바람직하게는 이산 코사인 변환(DCT)이며, 이것에 후속해서 양자화, 변환 계수의 웨이팅 및 엔트로피 코딩이 이루어진다.
2. P-화상(예측된 화상): 그 코딩은 시간적으로 선행된 I- 또는 P-화상에 의존한다(미리 예측). P-화상은 선행된 화상에 대해 이동 예측된다(이동 보상된 예측). 그리고 나서, 인트라-화상-코딩(예컨대 I-화상에 대해 전술한 방식으로)이 시간적 예측 에러에 적용된다.
3. B-화상(양방향성의 예측된 화상): 이것에서는 시간적으로 이동 보상된 예측이 시간적으로 선행된 P- 또는 I-화상 및 시간적으로 후속하는 P- 또는 I-화상에 대해 이루어진다. "이동 보상된 보간"이라고도 한다. (시간적으로) "후속하는" 또는 "선행하는"이라는 표현은 코딩된 화상의 데이터 스트림에서 화상의 전송 순서에 대한 것이 아니라, 그것의 기록-/ 재생-순서에 대한 것이다. 다른 화상의 코딩을 위한 시간적 예측의 기본인 화상은 "지원 화상"이라고도 한다. P-화상에서와 같이, B-화상은 차이 화상의 양자화된 변환 계수의 형태로 코딩된다.
또한, 특히 PAL- 또는 NTSC-방식에 따른 텔레비젼에 의한 디스플레이를 위해, 비디오 화상이 소위 프레임으로 재생되는 것이 아니라, 연속하는 2개의 필드로 재생된다("인터레이스 포맷"). 1 프레임은 디스플레이될 전체 비디오 화상 및 상기 화상의 전체 라인을 포함한다. 이와는 달리, 하나의 필드는 하나의 비디오 화상의 라인의 절반만을 포함한다. 소위 "탑-필드" 또는 제 1 필드는 관련 프레임의 모든 우수의 라인이며, "바텀(bottom)-필드" 또는 제 2 필드는 관련 프레임의 모든 기수의 라인이다.
MPEG-디코더는 코딩된 비디오 화상을 정확한 순서로 디코딩해야할 뿐만 아니라, 예컨대, 디스플레이가 PAL- 또는 NTSC-방식에 따른 텔레비젼을 위해 제공되면, 이것에 필요한 2개의 필드를 제공하기 위해서도 제공되어야 한다. 그러나, 전송된 비디오 화상은 프레임- 또는 필드-코딩될 수 있다. 첫번째 경우 전송된 비디오 화상은 프레임이고, 두번째 경우에는 필드이다. 상기 필드는 2개가 디스플레이될 하나의 프레임을 형성한다.
MPEG-디코더는 이전에 디코딩된 지원 화상을 저장시키기 위한 저장 수단을 포함한다. 상기 I- 또는 P-화상의 저장은 필수적인데, 그 이유는 그것이 P- 또는 B-화상의 시간적 예측의 기본이고 그것의 디코딩을 위해 필요하기 때문이다. 예컨대, 디코더에 의해 수신된, 코딩된 B-화상이 처리되어야 하면, B-화상의 디코딩이 그것의 양방향성 예측을 위해 사용되는, 디코더에 의해 미리 수신되어 저장된 지원 화상을 이용해서 이루어진다.
또한, B-화상의 디코딩을 위해 필요한 지원 화상이 디코딩되지 않고, 코딩된 형태로 디코더에 저장됨으로써 메모리 장소를 절약하는 것이 공지되어 있다. 그러나, 이 방법은 디코더에 의해 처리될 데이터 레코드가 현저히 증가된다는 단점을 갖는다. 동일한 I- 및 P-화상은 일반적으로 다수의 B-화상을 디코딩하기 위해 사용되므로, 이것이 종종 디코딩되어야 한다. 그러나, MPEG에 따라 블록 베이스 코딩이 제공되는 것이 중요하며, 이 경우 예측을 위해 사용되는 예측 범위가 지원 화상내에서 종종 블록 한계를 벗어난다. 따라서, B-화상으로 이루어진 블록의 디코딩을 위해 2개의 코딩되어 저장된 지원 화상의 4개의 블록이 디코딩되어야 한다. 따라서, 디코딩된 지원 화상을 저장하는 경우에 비해 8배의 데이터 레코드가 필요하다. 그러나, 이러한 8배의 데이터 레코드는 여느 때와 마찬가지로 예측되어 코딩된 화상의 디코딩을 위해 이용될 수 있는, 동일한 단위 시간으로 처리되어야 한다. 즉, 디코더의 용량에 대한 요구가 디코딩되어 저장된 지원 화상의 경우 보다 현저히 더 커진다.
종래의 MPEG-디코더에는 디코딩된 B-화상이 저장되는 저장 수단이 제공된다("출력-프레임 버퍼"). 상기 저장 수단은 종래의 디코더에서 프레임-코딩된 B-화상의 경우에 필요한데, 그 이유는 전술한 바와 같이, 디코더에 의해 프레임으로부터 2개의 필드가 형성되어야 하기 때문이다. 상기 필드는 인터레이스 포맷으로 프레임을 디스플레이하기 위해 차례로 디코더의 출력에 인가되어야 한다. 출력 프레임 버퍼는 필드-코딩된 B-화상의 경우 다른 이유 때문에 필요하다: 많은 용도에서(예컨대, 기록 시스템과 재생 시스템 사이의 상이한 화상 주파수를 조정하기 위해) 프레임의 디스플레이를 위해 2개의 필드가 디스플레이될 뿐만 아니라 제 2 필드의 디스플레이 후에 다시 한번 제 1 필드가 반복되어야 한다.
본 발명은 비디오 디코더 및 디코딩 방법에 관한 것이다.
도 1, 2 및 4는 본 발명의 상이한 실시예이고,
도 3은 종래의 MPEG-디코더의 구성을 나타낸다.
본 발명의 목적은 메모리 필요가 적은 비디오 디코더를 제공하는 것이다.
상기 목적은 본 발명에 따라 청구범위 제 1항에 따른 디코더 및 청구범위 제 7항에 따른 디코딩 방법에 의해 달성된다.
본 발명에 따라, 제 1 화상이 디코딩되지 않고(선행 기술에서와 같이), 코딩된 형태로 디코더에 저장된다. 재생을 위해 필요한 필드의 발생을 위해 적어도 2배의 디코딩이 이루어진다. 각각의 디코딩 후에, 디코더의 출력에 디코딩 결과가 출력됨으로써, (예컨대 텔레비젼에 의해) 재생될 수 있다. 선행 기술에서와 같은 출력 프레임 버퍼는 필요치 않다. 코딩된 제 1 화상의 저장을 위해, 선행기술에서와 같이 디코딩된 화상이 저장되는 것 보다 작은 메모리 장소가 필요하다. 본 발명은 MPEG-디코더의 경우에 국한되지 않는다. 이것은 재생을 위해 제 1 화상으로부터 다수의 정보가 발생되어야 하는 모든 경우에 관련된다. 선행 기술과는 달리, 저장되어 코딩된 제 1 화상이 상이한 정보를 발생시키기 위해(예컨대, 하나의 프레임으로 이루어진 2개의 필드) 새로이 디코딩된다(예컨대, 화상이 부분적으로만 불완전하게 디코딩되어야 한다). 선행기술에서는 먼저 화상이 완전히 디코딩되고, 저장된 다음 여러번 출력된다(예컨대, 디코딩된 프레임의 2개의 필드의 출력). 본 발명은 시간적 예측이 이루어지지 않고 지원 화상이 제공되지 않는 디코딩 방법에도 적용될 수 있다.
본 발명의 개선예는 MPEG-표준에 따른 비디오 디코더에 관련된다. 여기서는 제 1 화상이 제 2 화상에 대해 시간적으로 예측되지만, 다른 화상의 디코딩을 위해 필요하지는 않다(즉, 이것이 다른 화상의 시간적 예측에 사용되지 않기 때문에 다른 화상의 디코딩을 위해 디코딩될 필요가 없다). 이러한 제 1 화상은 예컨대 p- 또는 B-화상일 수 있다.
코딩된 지원 화상(즉, I- 및/또는 P-화상)이 저장되는 선행 기술과는 달리, 본 발명은 현저히 더 작은 데이터 량이 디코딩된다는 장점을 갖는다. 그 이유는 하기와 같다: 전술한 선행 기술에서, B-화상의 디코딩 전에 그것의 시간 예측에 기초가 되는, 코딩되어 저장된 I- 및 P-화상이 먼저 디코딩된다. I- 및 P-화상의 디코딩은 각각의 디코딩될 B-화상을 위해 재차 이루어져야 한다. 이로 인해, 디코더에 의해 디코딩될 데이터의 승산이 이루어진다.
이와는 달리, 본 발명에서는 최악의 경우 즉, 프레임-코딩된 B-화상이 제 1 화상으로 고려되는 경우, 본 발명에 따라 제 1 필드를 발생시키기 위한 제 1 디코딩 및 제 2 필드를 발생시키기 위한 제 2 디코딩이 코딩된 프레임으로부터 이루어지면, 디코딩될 데이터 량이 2배로될 수 있다. 그러나, 바람직하게는 디코딩될 데이터 량의 상기 2배화가 피해질 수 있는데, 그 이유는 하나의 코딩된 프레임으로부터 하나의 필드를 얻기 위해 대개 발생될 필드를 위해 필수적인 라인의 디코딩에 국한될 수 있기 때문이다. 이것은 예컨대 이동 보상을 위해 적용되지만, 역 양자화 및 역 DCT의 대개의 경우에도 적용된다.
본 발명을 첨부한 도면을 참고로 구체적으로 설명하면 하기와 같다.
도 3에 도시된 종래의 비디오 화상용 디코더의 입력(In)에는 코딩된 제 2 화상(I), 코딩된 제 3 화상(P) 및 코딩된 제 1 화상(B)이 차례로 인가된다. 이러한 차례는 기록 순서 또는 재생 순서와 일치하는 것이 아니라 데이터를 전송할 때의 순서와 일치하며, 코딩 방식의 결과로 나타난다. 제 1 화상(B)은 B-화상으로, 제 2화상(I)은 I-화상으로 그리고 제 3화상(P)은 P-화상으로 가정한다.
직접 인가되는 코딩된 화상은 각각 입력 버퍼(1)에 일시 저장된 다음에 엔트로피 디코더(2), 역 양자화 및 역 DCT(Dicrete Cosine Transformation) 유닛(3)에서 처리되며, 각각의 화상이 시간적으로 예측된 경우에는 동작 보상 수단(4)에서 보상된다.
디코더의 출력(Out) 앞에는 후처리 유닛(5)(Post Processing)이 접속되는데, 상기 유닛은 - 본 경우에 가정된 바와 같이 - 프레임 코딩된 화상(I, P, B)을 필드(IT, IB또는 BT, BB또는 PT, PB)로서 인터레이스 포맷으로 출력한다. 제 1 화상(B)의 디코딩을 위한 지원 화상으로서 필수적인 제 2 화상(I) 및 제 3 화상(P)은 디코딩되어 제 2 저장 수단(S2)에 저장되는 한편, 디코딩된 제 1 화상(B)은 후속해서 2개의 필드(BT, BB)로 분리하기 위하여 출력-프레임 버퍼(S)내에 저장된다.
그 다음에는 디코더에 의해 디코딩된, 출력(Out)에 있는 화상들이 재생을 위해 재생 장치(D)에 제공될 수 있다.
선행 기술에서는, 지원 화상(I, P)이 코딩된 상태로 저장되고, 지원 화상에 대해 시간적으로 예측된 B-화상의 디코딩을 위해 디코딩된다.
도 1은 본 발명의 제 1실시예를 보여준다. 이미 선행 기술에 공지된 도 3의 디코더와 마찬가지로 본 발명에 따른 디코더도 입력 버퍼(1), 엔트로피 디코더(2), 역 양자화 및 역 DCT 유닛(3), 동작 보상 수단(4) 및 후처리 유닛(5)(Post Processing), 그리고 후속하는 디코딩을 위한 지원 화상으로서 사용되는 디코딩된 제 2 화상(I) 및 제 3 화상(P)을 저장하기 위한 제 2 저장 수단(S2)을 포함한다. 본 실시예에서는, 제 2 화상(I)은 I-화상으로 가정되고, 제 3 화상(P)은 상기 제 2 화상(I)과 관련하여 시간적으로 예측되는 P-화상으로 가정된다.
디코더의 입력(In)에는 코딩된 제 2 화상(I), 코딩된 제 3 화상(P) 및 제 1화상(B)(본 실시예에서는 선행하는 2개의 지원 화상(I, P)과 관련하여 시간적으로 양방향으로 예측된 B-화상)이 차례로 인가된다. 제 2 화상(I) 및 제 3 화상(P)은 공지된 방식으로 디코딩되어 제 2 저장 수단(S2)내에 저장되는 한편, 제 1 화상(B)은 먼저 제 1 저장 수단(S1)에 코딩된 형태로 저장된다.
디코더의 출력(Out)에는 I-화상(I), B-화상(B) 및 P-화상(P)의 필드(IT, IB, BT, BB, PT, PB)가 제공되는데, 제공되는 방식은 상기 필드들이 예컨대 텔레비젼상에 후속하는 디스플레이를 위해 인터레이스 포맷으로 상기의 순서대로 디코더에 의해 형성되는 방식과 동일하다. (디코더의 출력(Out)에서) 재생을 위해 필요한 순서와는 다른 순서로 코딩된 화상(I, P, B)을 전송하는 것은 양방향 예측의 기본 원리에 따라 이루어지며, 선행 기술에 공지되어 있다.
본 실시예의 프레임 코딩된 화상, 즉 프레임을 나타내고 제 1 저장 수단(S1)에 저장된 제 1 화상(B)은 지원 화상(I, P)을 이용하여 2개의 필드(BT, BB)를 각각 형성하기 위해서 한 번씩 디코딩된다. 경우에 따라 예를 들어 3번의 디코딩이 필요할 수 있는데, 그러한 경우는 말하자면 제 2 필드(BB)가 형성된 다음에 제 1 필드(BT)가 전송된 비디오 화상을 재생하기 위해서 다시 한 번 필요하게 되는 경우이다(도 1에는 제 1 필드(BT)가 인-클램프-세팅(In-Clamp-Setting)에 의해서 출력(Out)에 2번 전송되는 것이 도시되어 있다).
도 1에서 알 수 있는 것은, 디코딩 단계(1 내지 4)와 디코더의 출력(Out) 사이에 디코딩된 제 1 화상(B) 또는 그로부터 형성된 필드(BT, BB)를 저장하기 위한 추가 저장 수단이 없기 때문에, 필드가 일시 저장되지 않고 직접 출력(Out)에 제공될 수 있다는 것이다. 따라서, 도 3에 나타나는 바와 같이, 선행 기술의 출력 프레임 버퍼(S)는 생략된다.
MPEG-표준에 따르면, 화상들을 소위 매크로 블록(macro blocks)(이 블록은 예를 들어 8x8 픽셀의 6개의 블록이다)으로 분리하여 전송하는 것이 통상적이다. 상기 전송의 결과로서, 디코딩할 때 우선 개별 화상 라인(picture line) 대신에 소위 매크로 블록 라인이 형성된다 - 이 라인은 예를 들어 각각 16개의 화상 라인의 그룹이다. 그 다음의 디스플레이를 위한 디코더로부터의 출력은 라인 방식으로 이루어져야 한다. 상기 "블록 방식" 포맷을 "라인 방식" 포맷으로 변환하기 위해서는, 본 발명의 적용을 위해 선행 기술에서 출력 프레임 버퍼(S)(도 3)가 배치된 장소에 소형의 일시 저장 장치가 제공되어야 한다. 선행 기술과는 달리 상기 일시 저장 장치는 각각 디코딩된 매크로 블록 라인(예를 들어 16개의 화상 라인) 중에서 하나의 매크로 블록 라인을 기록하기 위해서만 사용되고, 디코딩될 필드 또는 프레임(예를 들어 288개 또는 576개의 화상 라인)을 기록하기 위해서는 사용되지 않기 때문에, 출력-프레임 버퍼 보다 훨씬 더 작다. 전체 매크로 블록 라인이 디코딩되어 일시 저장 장치에 저장된 후에, 재생을 위해 필요한 라인 방식의 출력이 이루어질 수 있다. 디코딩된 화상 라인을 중단 없이 출력하기 위해서는, 2개의 매크로 블록 라인(전체적으로 예를 들어 32개의 화상 라인)을 기록할 수 있을 정도의 크기로 일시 저장 장치를 설계하는 것이 중요하다. 하나의 매크로 블록 라인이 디코딩된 후에는 상기 매크로 블록 라인이 화상 라인 방식으로 출력될 수 있는 한편, 동시에 다른 하나의 매크로 블록 라인도 디코딩되며, 이 때 형성된 데이터들은 선행하는 매크로 블록 라인에 오버라이트(overwrite)되지 않고 마찬가지로 일시 저장 장치에 연속적으로 저장된다.
제 1 저장 수단(S1)이 바람직하게는 입력 버퍼(1)의 부분일 수 있기 때문에, 입력 버퍼는 저장될 제 1 화상(B) 이외에도 상기 화상이 저장되는 동안 디코더의 입력(In)에 도달되는 화상을 기록할 수 있도록 선행 기술 보다 더 큰 크기로 설계되어야 한다. 선행 기술(도 3)과는 달리 본 발명에서는 디코딩된 제 1 화상(B)이 저장되는 출력-프레임 버퍼(S)가 필수적이지 않다. 제 1 저장 수단(S1)은 (경에 따라 요구되는, 앞 단락에 이미 설명한 일시 저장 장치를 포함해서) 선행 기술의 출력 프레임 버퍼(S)보다 더 작은 크기로 설계될 수 있다.
제 1 프레임(B)으로부터 필드(BT, BB)의 형성은 바람직하게, 2가지 경우에 전체 제 1 화상(B)이 디코딩되지 않고 필드에 필수적인 라인만 디코딩되는 방식으로 이루어진다. 그럼으로써, 디코딩될 데이터의 량이 현저하게 감소될 수 있다.
도시된 실시예의 대안으로서, 제 1 화상(B)에 부가해서 지원 화상(I, P)이 디코딩되는 것이 아니라, 마찬가지로 코딩되어 저장될 수 있다. 그런 경우에는 디코더 내부에서 전체적으로 훨씬 더 적은 메모리가 필요하며, 이 경우에는 단위 시간 당 디코딩 비용가 증가된다.
도 2는 본 발명의 제 2실시예로서, (본 실시예에서도 B-화상인) 제 1 화상(B)이 프레임이 아니고, 도 1의 프레임-코딩된 B-화상과 달리 부가적으로 전송된 제 2 필드(BB)와 함께 필드-코딩된 프레임을 형성하는 제 1 필드(BT)라는 점이 도 1의 제 1실시예와 상이하다. 2개의 필드(BT, BB)는 B-화상이고, 지원 화상(I, P)과 관련하여 시간적으로 예측된다.
도 2에 도시된 디코더에서 제 1 필드(BT)는 제 1 저장 수단(S1)내에 코딩되어 저장되는데, 그 이유는 이미 언급한 바와 같이, 제 2 부분 화상(BB)이 출력(Out)에 출력된 후에 재차 제 1 필드(BT)를 출력하는 것이 필요할 수 있기 때문이다. 상기 목적을 위해서는, 먼저 수신된 제 2 화상(I)(I-화상)이 디코딩되어 제 2 저장 수단(S2)에 저장되는 동시에 2개의 필드(IT, IB)로 분리되어 상기 순서대로 출력(Out)에 제공된다. 다음으로 입력(In)에 인가되는 제 3 화상(P)도 디코딩되어 마찬가지로 제 2 저장 수단(S2)에 저장된다. 그 다음으로 입력(In)에 수신된 코딩된 제 1 필드(BT)는 제 1 저장 수단(S1)에 저장되는 동시에, 제 2 저장 수단(S2)에 저장되는 제 2 화상(I) 및 제 3 화상(P)의 도움으로 디코딩되어 출력(Out)에 제공된다. 그 다음에, 제 1 저장 수단(S1)에 저장될 때까지 제 2 필드(BB)와 동일하다. 그 후에, 제 1 저장 수단(S1)에 저장된 제 1 필드(BT)가 여러 번 디코딩되어 출력되고, 그 다음에 제 2 저장 수단(S2)에 저장된 제 3 화상(P)이 필드(PT, PB)로 분리되어 출력된다.
MPEG와 같은 블록 방식 방법에서는, 디코딩된 매크로 블록 라인 대신에 개별 화상 라인을 출력할 수 있기 위해, 2개의 매크로 블록 라인을 기록하기 위한 비교적 작은 일시 저장 장치가 동작 보상 수단(4) 및 후처리 유닛(5) 사이에 배치되어야 한다.
본 발명의 대안적인 실시예에서 제 2 화상(I)으로서 I-화상이 아니라 P-화상이 제공될 수도 있는데, 그 이유는 일반적으로 공지된 바와 같이 B-화상은 I-화상과 관련하여서 뿐만 아니라 P-화상과 관련하여서도 예측되기 때문이다. 제 1 저장 수단에 저장될 지원 화상이 I-화상인 경우에도 동일하게 적용된다.
또한, (I-화상 또는 P-화상으로서의) 제 2 화상(I)이 유일한 지원 화상으로서 제 2 저장 수단(S2)에 저장될 수도 있고 (이 경우에는 도 1 및 도 2의 실시예에서보다 더 작은 크기로 설계될 수 있다), 제 1 화상(B)은 제 2 화상(I)과 관련하여 코딩되기는 하지만 예측을 위해서는 사용되지 않는 미리 예측된 P-화상일 수도 있다(이것은 물론 MPEG-표준에 상응하지 않는다).
물론, 도 1 및 도 2에서 프레임으로 가정된 코딩된 화상(I 및 P)이 필드이거나 또는 필드로서 코딩되기는 하지만, 제 2 저장 수단에 프레임으로서 저장될 수도 있다.
도 4는 본 발명의 다른 실시예를 보여준다. 본 실시예에서는 MPEG-디코더를 다루고 있지만, 본 발명은 다만 이것에만 한정되지는 않는다. 도 4에서 입력(In)에는 2개의 지원 화상(I, P) 외에 2개의 B-화상, 즉 제 1 화상(B) 및 제 4 화상(B')이 차례로 인가된다. 모든 화상(I, P, B, B')은 프레임 화상, 즉 프레임으로 가정된다. 본 실시예에서 2개의 B-화상(B, B')은 제 1 저장 수단(S1)에 저장된다. 상기 2개의 화상(B, B')을 여러 번 디코딩함으로써 예를 들어 출력(Out)에서 디스플레이 되는 필드가 주어진 순서대로 형성될 수 있다. 본 경우에는 2개의 각각의 필드를 형성하기 위해서 먼저 제 1화상(B)이 2번 디코딩되고, 그 다음에 제 4 화상(B')이 2번 디코딩된 후에 재차 제 1 화상(B)이 2번 디코딩된다. 재생 장치(D)를 이용하여 재생 과정을 수행하게 하는 형태에 전체적으로 의존하는 다른 시간적인 순서도 얻을 수 있다.
도 4에는 이미 여러 번 언급된 일시 저장 장치(Z)가 동작 보상 수단(4)과 후처리 유닛(5) 사이에 도시되었다. 일시 저장 장치는 블록 방식 코딩 방법에서만 필수적이고, MPEG-디코더에서는 2개의 매크로 블록 라인을 수용할 수 있다. 따라서 일시 저장 장치는 도 3에 따른 출력 프레임 버퍼(S)보다 훨씬 더 작다. 코딩 또는 디코딩이 블록 방식으로 이루어지지 않고 라인 방식으로 이루어지면, 일시 저장 장치(Z)는 필요 없게 된다. 그런 경우에는 각각의 디코딩된 화상이 직접 라인 방식으로 출력될 수 있다.
본 발명에 따른 디코더는, 전송될 비디오 화상의 코딩을 위한 동작 평가를 실행하는 장소인 상응하는 엔코더의 구성 부분일 수 있다. MPEG 엔코더는 기본적으로 시간을 예측하기 위한 디코더도 포함한다.
본 발명은, 다른 화상을 시간적으로 예측하기 위한 기초가 없는 모든 비디오 화상에 매우 바람직하게 적용될 수 있다. 본 발명은 도 1 및 도 2의 2개의 실시예에 도시된, B-화상으로 가정되어 시간적으로 양방향으로 예측된 제 1 화상(B) 뿐만 아니라, (시간적으로 단방향으로 예측된 P-화상 외에) 예를 들어 I-화상과 같이 시간적으로 예측되지 않은 화상에도 관련된다.

Claims (8)

  1. - 제 1 코딩된 화상(B)을 저장하기 위한 제 1 저장 수단(S1)을 포함하며,
    - 저장된, 제 1 코딩된 화상(B)은 여러 번 디코딩 가능하며,
    - 디코딩의 결과는 재생 장치(D)를 이용하여 제 1 디코딩된 화상(B)을 재생하기 위해 각각 디코더의 출력(OUT)에 제공될 수 있는 것을 특징으로 하는 비디오 디코더.
  2. 제 1항에 있어서,
    - 제 1 코딩된 화상(B)은 제 2 화상(I)과 관련하여 시간적으로 예측되지만, 다른 코딩된 화상을 시간적으로 예측하기 위해서는 사용되지 않으며,
    - 제 2 화상(I)을 저장하기 위한 제 2 저장 수단(S2)을 포함하며,
    - 저장된, 제 1 코딩된 화상(B)은 저장된 제 2 화상(I)을 이용하여 여러 번 디코딩될 수 있는 것을 특징으로 하는 비디오 디코더.
  3. 제 1항 또는 제 2항에 있어서,
    - 제 1 코딩된 화상(B)은 프레임이며,
    - 저장된 상기 제 1 코딩된 화상(B)으로부터 제 1 디코딩에 의해서는 제 1 필드(BT)가 형성될 수 있고, 제 2 디코딩에 의해서는 제 2 필드(BB)가 형성될 수 있는 것을 특징으로 하는 비디오 디코더.
  4. 제 3항에 있어서,
    제 2 필드(BB)의 발생 후에 저장된, 제 1 코딩된 화상(B)의 제 3 디코딩에 의해 제 1 필드(BT)가 재차 디코딩될 수 있는 것을 특징으로 하는 비디오 디코더.
  5. 제 1항 또는 제 2항에 있어서,
    - 제 1 코딩된 화상(B)은 제 1 필드(BT)이며,
    - 차례대로
    -- 저장된, 제 1 코딩된 필드(BT),
    -- 제 2 코딩된 필드(BB) 및
    -- 재차 저장된, 제 1 코딩된 필드(BT)가 디코딩될 수 있는 것을 특징으로 하는 비디오 디코더.
  6. 제 1항 내지 제 5항 중 어느 한 항에 있어서,
    - 제 1 화상(B)에 부가해서 제 4 화상(B')이 제 1 저장 수단(S1)에 저장될 수 있으며, 상기 제 4 화상은 후속해서 마찬가지로 여러 번 디코딩될 수 있고,
    - 제 1 화상(B) 및 제 4 화상(B')의 디코딩의 결과가 출력(Out)에 제공될 수 있는 것을 특징으로 하는 비디오 디코더.
  7. - 제 1 코딩된 화상(b)이 저장된 다음에 여러 번 디코딩되며,
    - 디코딩의 결과가 재생 장치(D)를 이용하여 제 1 디코딩된 화상(B)을 재생하기 위해 디코더의 출력(OUT)에 제공될 수 있는 것을 특징으로 하는 제 1 코딩된 화상(B)의 디코딩 방법.
  8. 제 7항에 있어서,
    - 제 1 코딩된 화상(B)은 제 2 화상(I)과 관련하여 시간적으로 예측되기는 하지만, 다른 코딩된 화상을 시간적으로 예측하기 위해서는 사용하지 않으며,
    - 제 2 화상(I)을 저장하기 위한 제 2 저장 수단(S2)을 포함하며,
    - 저장된, 제 1 코딩된 화상(B)은 저장된 제 2 화상(I)을 이용하여 여러 번 디코딩될 수 있는 것을 특징으로 하는 방법.
KR10-1998-0708494A 1996-04-23 1997-04-22 비디오디코더및디코딩방법 KR100373602B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE19616201 1996-04-23
DE19617171A DE19617171C2 (de) 1996-04-23 1996-04-29 Videodecoder und entsprechendes Verfahren
DE19616201.7 1996-04-29
DE19617171.7 1996-04-29

Publications (2)

Publication Number Publication Date
KR20000010607A true KR20000010607A (ko) 2000-02-15
KR100373602B1 KR100373602B1 (ko) 2003-04-21

Family

ID=7792207

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-1998-0708494A KR100373602B1 (ko) 1996-04-23 1997-04-22 비디오디코더및디코딩방법

Country Status (2)

Country Link
KR (1) KR100373602B1 (ko)
DE (2) DE19617171C2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100791666B1 (ko) * 2000-04-14 2008-01-03 지멘스 악티엔게젤샤프트 시간상 연속되는 영상의 영상 정보를 저장 및 처리하는 방법 및 장치

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6968003B1 (en) * 1996-01-29 2005-11-22 International Business Machines Corporation Speed-memory tradeoff for MPEG decoders

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5649029A (en) * 1991-03-15 1997-07-15 Galbi; David E. MPEG audio/video decoder
US5880786A (en) * 1994-06-15 1999-03-09 Hitachi, Ltd. Apparatus for picture decoding having frame memories commonly connected to one data bus and one address bus
EP0710033A3 (en) * 1994-10-28 1999-06-09 Matsushita Electric Industrial Co., Ltd. MPEG video decoder having a high bandwidth memory

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100791666B1 (ko) * 2000-04-14 2008-01-03 지멘스 악티엔게젤샤프트 시간상 연속되는 영상의 영상 정보를 저장 및 처리하는 방법 및 장치

Also Published As

Publication number Publication date
DE59700400D1 (de) 1999-10-07
KR100373602B1 (ko) 2003-04-21
DE19617171A1 (de) 1997-10-30
DE19617171C2 (de) 1999-02-25

Similar Documents

Publication Publication Date Title
JP3443867B2 (ja) 画像信号符号化、復号化方法及び画像信号記録媒体
KR100265192B1 (ko) 동화상 복호화 장치
US6188725B1 (en) Interlaced video signal encoding and decoding method, by conversion of selected fields to progressive scan frames which function as reference frames for predictive encoding
JP3610578B2 (ja) 動画像信号を示す変換係数を逆変換する際の丸め誤差防止方法及び装置
KR100416873B1 (ko) 부호화데이터재생방법및장치
JP2699703B2 (ja) 動き補償予測方法とそれを用いた画像信号符号化方法
JP2570384B2 (ja) 動画像信号の符号化・復号化方式
US5739862A (en) Reverse playback of MPEG video
EP0897241A2 (en) Coding and decoding digital video signal having duplicate pictures and frames with fields originating from different film source frames
JPH04318791A (ja) 信号処理方法及び記録再生装置
JP3147792B2 (ja) 高速再生のためのビデオデータの復号化方法及びその装置
JP2898413B2 (ja) 所要メモリ容量の低減化を伴う圧縮ビデオデータ流の復号化及び符号化のための方法
JPH08237666A (ja) フレーム間帯域圧縮信号処理装置
KR100373602B1 (ko) 비디오디코더및디코딩방법
KR20070110406A (ko) 화상 처리 장치, 화상 처리 방법 및 텔레비전 수상기
JP3061125B2 (ja) Mpeg画像再生装置およびmpeg画像再生方法
JP3164056B2 (ja) 動画像符号化復号化装置、動画像符号化復号化方法及び動画像符号記録媒体
WO1998042139A1 (en) Video decoder with reduced size display buffer
JP3663559B2 (ja) リアルタイム逆方向再生用動画像符号化方式
JP3017646B2 (ja) フレームレート変換機能付き画像復号装置
JP2000509572A (ja) ビデオデコーダ及び関連する方法
JP2952603B2 (ja) 動画像符号化制御方式
JP3057212B2 (ja) 画像データ復号装置
KR100290905B1 (ko) 엠펙(mpeg)2 비디오 디코더
JPH08163570A (ja) 低遅延モード画像復号方法および装置

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130201

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20140203

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20150130

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20160211

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20170203

Year of fee payment: 15

EXPY Expiration of term