DE69625629T2 - Dekodierung und Rückwärtswiedergabe von kodierten Signalen - Google Patents

Dekodierung und Rückwärtswiedergabe von kodierten Signalen

Info

Publication number
DE69625629T2
DE69625629T2 DE69625629T DE69625629T DE69625629T2 DE 69625629 T2 DE69625629 T2 DE 69625629T2 DE 69625629 T DE69625629 T DE 69625629T DE 69625629 T DE69625629 T DE 69625629T DE 69625629 T2 DE69625629 T2 DE 69625629T2
Authority
DE
Germany
Prior art keywords
data
decoding
image data
image
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69625629T
Other languages
English (en)
Other versions
DE69625629D1 (de
Inventor
Yasushi Fujinami
Makoto Kawamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of DE69625629D1 publication Critical patent/DE69625629D1/de
Publication of DE69625629T2 publication Critical patent/DE69625629T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/60Solid state media
    • G11B2220/65Solid state media wherein solid state memory is used for storing indexing information or metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Time-Division Multiplex Systems (AREA)

Description

  • Diese Erfindung betrifft generell Decodierung und Rückwärtswiedergabe codierter Signale und kann bei einem Verfahren und Gerät zur Decodierung eines codierten, zeitmultiplexierten Signals zur Anzeige einem Benutzer in einem Rückwärtswiedergabe-, Langsamrückwärtswiedergabe- und Rahmen-um- Rahmen-Rückwärtswiedergabe-Operationsmodus angewendet werden. Spezifische Ausführungsformen dienen zur Decodierung zeitmultiplexierter Audio- und Videosignale.
  • Einrichtungen zur Wiedergabe von Videosignalen von einer Speichereinrichtung wie beispielsweise einem Videokassettenrekorder (VCR) charakterisieren gewöhnlich Benutzer gesteuerte Wiedergabefunktionen. Eine solche Funktionalität umfasst zusätzlich zur schnellen Standardwiedergabe-, Schnellvorwärts- und Schnellrückwärts-Fähigkeit die Rückwärtswiedergabe, Langssamrückwärtswiedergabe und rahmenweisen Rückwärtswiedergabe bzw. Rahmen-um-Rahmen-Rückwärtswiedergabe. Mit der Entwicklung der digitalen Videosignalaufzeichnungstechnik wird erwartet, dass digitale Videosignalwiedergabeeinrichtungen eine ähnliche Wiedergabefunktionalität mit verbesserter Bildqualität bereitstellen. Jedoch ist eine solche, mit verbesserter Bildqualität gekoppelte Funktionalität aufgrund der inhärenten Operation herrschender digitaler Videosignalcodierungsschemata schwierig zu erzielen. Typische Codierungsschemata wie beispielsweise die von MPEG (Motion Picture Coding Experts Group) entwickelten arbeiten generell so, dass sie Videoinformation hoch komprimieren, um ihre Übertragung über Kanäle sehr begrenzter Bandbreite zu erleichtern.
  • Gemäß dem MPEG-System werden Video- und Audiodaten komprimiert und in einem zeitmultiplexierten Format auf einer Speichereinrichtung aufgezeichnet. Die Fig. 1A, 1B und 1C stellen ein MPEG-Datenformat dar. Fig. 1A zeigt eine Einheit multiplexierter Daten, die aus wenigstens einem "Stapel" bzw. "Pack" aus Information und einem Endecode besteht. Jedes Pack enthält einen Pack-Header und wenigstens ein "Paket" aus Information. In einer Einheit aus multiplexierten Daten kann die Länge jedes Packs variieren.
  • Wie in Fig. 1B gezeigt ist kann ein Pack-Header einen Pack-Startcode, eine Systemtakt-Referenzanzeige (STR-Anzeige) und eine Anzeige der Multiplexierungsrate (MUX RATE) enthalten. Jedes Paket besteht typischerweise aus einem Paket- Header und einem Segment aus codierten Paketdaten. Fig. 1C stellt einen aus einem Paketstartcode-Präfix, einem Stromidentifikationscode (1D), einer Anzeige der Länge des Pakets oder der Länge folgender Pakete (LENGHT), einem Decodierungszeitstempel (DZS) und einem Präsentationszeitstempel (PZS) bestehenden Samplepaket-Header dar. Der Stromidentifikationscode wird zum Identifizieren des Pakets und/oder Anzeigen des Typs des Pakets und/oder Anzeigen des speziellen Datentyps im Paket verwendet. Beispielsweise können Stromidentifikationscodes einen Audiostrom, einen Videostrom, einen umgekehrten Strom bzw. Rückwärtsstrom, einen umgekehrten Datenstrom bzw. Rückwärtsdatenstrom, einen Privatstrom, einen Auffüllstrom oder dgl. anzeigen.
  • Gemäß einer direkten MPEG-Implementation kann, wenn ein in eine Reihe von Vollbildern bzw. Rahmen geteilter Satz Videobilder gegeben ist, jeder Rahmen als ein intraframe- bzw. intrarahmencodiertes Bild (I-Bild), ein vorwärts prädiktiv interframe- bzw. interrahmencodiertes Bild (P-Bild) oder ein bidirektional prädiktiv interrahmencodiertes Bild (B-Bild) codiert sein. Intrarahmencodierung wird durch Kompression von Daten erzielt, die einen speziellen Rahmen allein in Bezug auf die Daten dieses Rahmen darstellen. Folglich kann ein I- Bild zur Erzeugung des ursprünglichen bzw. originalen Rahmens von Videodaten bzw. Videodatenrahmens vollständig aus den das I-Bild darstellenden Daten decodiert werden.
  • Im Gegensatz dazu wird eine vorwärts prädiktive Interrahmencodierung eines Rahmens durch Bestimmung der Differenzen zwischen dem Rahmen und einem vorhergehenden Rahmen (Basisrahmen), der als ein I-Bild oder als ein P-Bild zu codieren ist, erhalten. Zur Erzeugung eines P-Bildes ist der zu codierende Rahmen durch Daten dargestellt, die mit dieser Differenzen korrespondieren. Zum Decodieren des P-Bildes muss der Basisrahmen (I-Bild oder P-Bild) in Bezug darauf, mit was er codiert wurde, zuerst decodiert werden. Der decodierte Basisrahmen wird dann zur Wiedergewinnung des originalen Rahmens entsprechend den Daten des P-Bildes modifiziert. Der Vorteil der vorwärts prädiktiven Interrahmencodierung besteht darin, dass sie gewöhnlich eine größere Kompressionseffizienz als Intrarahmencodierung erzielt.
  • Ein Rahmen kann durch Bestimmung von Differenzen zwischen ihm und einer Kombination eines unmittelbar vorhergehenden Rahmens, der als I- oder P-Bild zu codieren ist, und eines unmittelbar folgenden Rahmens, der als ein I- oder P- Bild zu codieren ist, bidirektional prädiktiv codiert werden. Zur Erzeugung eines B-Bildes wird der zu codierende Rahmen durch Daten dargestellt, die mit diesen Differenzen korrespondieren. Zum Decodieren des B-Bildes müssen der vorhergehende und folgende Rahmen in Bezug darauf, mit was er codiert wurde, zuerst decodiert werden. Zur Wiedergewinnung des originalen Rahmens wird dann eine Kombination des decodierten vorhergehenden und folgenden Rahmens entsprechend den Daten des B-Bildes modifiziert. Der Vorteil der bidirektional prädiktiven Interrahmencodierung besteht darin, dass sie oft eine größere Kompressionseffizienz als eine vorwärts prädiktive Interrahmencodierung erreicht.
  • Ein Beispiel der gegenseitigen Beziehungen zwischen entsprechend dem MPEG-Standard erzeugten I-Bildern, P-Bildern und B-Bildern ist in der Fig. 2A bereitgestellt. Bei diesem Beispiel besteht eine Gruppe von Bildern bzw. Bildergruppe (Gruppe A) aus durch Codierung von 15 Bilddatenrahmen (nicht gezeigt) erzeugten 15 Bildern. Die gegenseitigen Beziehungen, insbesondere die Muster der Vorhersage- bzw. Prädiktivcodierung, sind in diesem Diagramm durch Pfeile angedeutet.
  • Das intrarahmencodierte Bild I&sub2; wird in Bezug auf nur die Daten dieses Rahmens codiert. Das vorwärts prädiktiv interrahmencodierte Bild P&sub5; wird in Bezug auf die zur Erzeugung des Bildes I&sub2; verwendeten Daten codiert. Das Bild P&sub8; wird in Bezug auf die zur Erzeugung des Bildes P&sub5; verwendeten Daten codiert. Die bidirektional prädiktiv interrahmencodierten Bilder B&sub3; und B&sub4; werden jeweils in Bezug auf die zur Erzeugung der Bilder I&sub2; und P&sub5; verwendeten Daten codiert. Ähnlich werden die Bilder B&sub6; und B&sub7; jeweils in Bezug auf die zur Erzeugung der Bilder P&sub5; und P&sub8; verwendeten Daten codiert. Auf diese Weise wird jedes der Bilder in der Gruppe A erzeugt. Es sei auch darauf hingewiesen, dass die zur Erzeugung des letzten P-Bildes P&sub1;&sub4; der Gruppe A verwendeten Daten auch zum Codieren der Bilder B&sub0;' und B&sub1;' verwendet werden.
  • Gemäß dem MPEG1-Videostandard (ISO11172-2) und dem MPEG2-Videostandard (ISO13818-2) sind die Bilder der Fig. 2A zu einer normalen (Vorwärts-)Videowiedergabe wie in Fig. 2B gezeigt zu einer Decodierung von links nach rechts umgeordnet. Diese Umordnung erleichtert die Decodierung prädiktiv codierter Rahmen (P-Bilder und B-Bilder) nur nach einer Decodierung des intrarahmencodierten Bildes (I-Bild) oder des vorwärts prädiktiv interrahmencodierten Bildes (P-Bild) in Bezug darauf, mit was sie codiert wurden. Beispielsweise muss das Bild I&sub2; decodiert werden, bevor das Bild P&sub5; decodiert werden kann, da die Codierung des Bildes P&sub5; von dem nicht codierten Rahmen aus zur Erzeugung des Bildes I&sub2; verwendeten Daten abhängt. Als weiteres Beispiel müssen beide Bilder I&sub2; und P&sub5; decodiert werden, bevor die Bilder B&sub3; und B&sub4; decodiert werden können, da die Codierung der Bilder B&sub3; und B&sub4; von den nicht codierten Rahmen aus zur Erzeugung der Bilder I&sub2; und B&sub5; verwendeten Daten abhängt. Die unterschiedliche Gruppierung von Bildern in der Gruppe B reflektiert diese Umordnung.
  • Fig. 3 stellt eine Reihe von codierten Videodaten so, wie sie auf einem Aufzeichnungsmedium gespeichert werden können, dar. Die Reihe besteht aus Bildergruppen, bezeichnet mit Gruppe #0, Gruppe #1, ..., Gruppe #J, wobei jede Gruppe entsprechend dem MPEG-Standard codierte Bilder, das heißt I- Bilder, P-Bilder und B-Bilder enthält. Wie in diesem Beispiel gezeigt ist beginnt jede Gruppe mit einem I-Bild, dem alternierende Reihen aus B-Bildern und P-Bildern folgen. Jede Gruppe kann auch einen Gruppen-Header (nicht gezeigt) enthalten. Ein typischer Gruppen-Header besteht aus einer Gruppe aus einem Startcode (GSC), einem Zeitcode (TC), einer Anzeige (CG) für eine geschlossene Bildergruppe und einer Anzeige (BC) für eine gebrochene Verbindung.
  • In der Fig. 4 ist ein zum Decodieren zeitmultiplexierter Daten vorgeschlagenes einfaches Gerät dargestellt. Das Gerät besteht aus einer digitalen Speichereinrichtung 100, einer Signaltrenneinheit 21, einem Videodecodierer 25 und einem Audiodecodierer 26. Die Einrichtung 100 speichert Daten in dem in den Fig. 1A, 1B und 1C gezeigten Zeitmultiplexformat. Die Signaltrenneinheit 21 greift auf die gespeicherten Daten zu und liest sie, trennt die Daten in Audio- und Videokomponenten und führt die Komponenten jeweiligen Signaldecodierern zu. Der Videodecodierer 25 und Audiodecodierer 26 decodieren das codierte Video bzw. codierte Audiosignal, um jeweils Videoausgangssignale und Audioausgangssignale zu erzeugen.
  • Die Signaltrenneinheit 21 weist eine Headertrennschaltung 22, einen Schalter 23 und ein Steuerungsgerät 24 auf. Die Headertrennschaltung 22 detektiert die Pack-Header- und Paket-Headerdaten in den von der Einrichtung 100 gelesenen Datenstrom und führt die Header dem Steuerungsgerät 24 zu. Die zeitmultiplexierten Daten werden einem Eingang des Schalters 23 zugeführt. Ein Ausgang des Schalters 23 ist an den Videodecodierer 25 gekoppelt, während der andere Ausgang an den Audiodecodierer 26 gekoppelt ist.
  • Das Steuerungsgerät 24 gibt den Zugriff auf Daten in der Speichereinrichtung 100 und die Operation des Schalters 23 steuernde Befehle aus. Das Steuerungsgerät liest den in jedem Paket-Header enthaltenen Stromidentifikationscode und steuert den Schalter 23, um das korrespondierende Datenpaket zum geeigneten Decodierer zu leiten. Insbesondere wenn der Stromidentifikationscode anzeigt, dass ein Paket Videosignale enthält, wird das Paket zum Videodecodierer 25 geleitet. Zeigt der Stromidentifikationscode an, dass ein Paket Audiosignale enthält, wird das Paket zum Audiodecodierer 26 geleitet. Auf diese Weise werden die zeitmuitiplexierten Daten in Audio- und Videokomponenten getrennt und geeignet decodiert.
  • Werden die in der Speichereinrichtung 100 gespeicherten Videodaten codiert und entsprechend dem wie in Fig. 3 gezeigten MPEG-Standard angeordnet, sind die Operationen eines Zugriffs auf spezifische Videorahmen (wahlfreier Zugriff bzw. Direktzugriff) und einer Suche oder Abtastung durch die Videorahmen durch die Decodierungsgeschwindigkeit des Videodecodierers 25 inhärent begrenzt. Zur Erzielung eines schnelleren Rahmenzugriffs und einer schnelleren Bildwiedergabe ist vorgeschlagen worden, dass der Videodecodierer während solcher Decodierungsoperationen gewisse codierte Bilder überspringt.
  • Da nur I-Bilder unabhängig von anderen Bilddatenrahmen decodiert werden können, kann der Videodecodierer 25 nur die gespeicherten I-Bilder decodieren und ausgeben, um eine Videosuchfunktion (Videoabtastfunktion) zu erzielen. Alternativ dazu kann die Signaltrenneinheit 21 so modifiziert werden, dass sie während einer Suchoperation (Abtastoperation) nur I- Bilder zum Videodecodierer 25 durchlässt. Das Steuerungsgerät 24 steuert die Datenspeichereinrichtung 100, um der Signaltrennschaltung solche I-Bilder von Interesse enthaltende Videodatenabschnitte zuzuführen. Typischerweise wird im Suchmodus (Abtastmodus) der Audiodecodierer 26 stumm geschaltet.
  • Um auf einen speziellen gespeicherten Videorahmen zur Decodierung und Anzeige wahlfrei bzw. direkt zuzugreifen ist vorgeschlagen worden, dass die zwei unmittelbar benachbart angeordneten, das heißt eines vorher und eines nachher angeordneten I-Bilder des gewählten Rahmens decodiert werden. Aus diesen zwei I-Bildern und in gewissen Fällen einer Zahl dazwischen angeordneter P-Bilder kann der gewünschte Rahmen decodiert werden. Natürlich muss dort, wo der gewählte Rahmen als ein I-Bild decodiert worden ist, nur dieses Bild decodiert werden. Bei einer eine feste Datencodierungsrate und ein reguläres Codierungsmuster verwendenden Anwendung kann die Stelle jedes I-Bildes durch direkte Berechnung erhalten werden.
  • Wo jedoch die Datencodierungsrate variiert oder ein variierendes Codierungsmuster verwendet wird, können die Stellen der I-Bilder nicht durch die gleiche direkte Berechnung bestimmt werden, und anstelle dessen muss eine zusätzliche Information in Betracht gezogen werden. Generell codieren MPEG-Systeme Daten mit variierender Rate. Deshalb muss ein System wie beispielsweise das nach Fig. 3 bei der Ausführung eines direkten Datenzugriffs oder einer Suche durch gespeicherte Daten durch Anzeigen nur der I-Bilder jedes gespeicherte Bild prüfen, um die Stellen der I-Bilder zu bestimmen. Ein solcher Prozess ist notwendigerweise zeitraubend.
  • Zum Minimieren der zum Suchen von mit variierender Rate codierten gespeicherten Videodaten benötigten Zeit sind zwei verschiedene Datensysteme vorgeschlagen worden, die den gespeicherten Daten zusätzliche Information zuordnen, um die Bestimmung von I-Bildstellen zu erleichtern.
  • Ein solches System ist in der Fig. 5 dargestellt und besteht aus einer digitalen Speichereinrichtung 100, einer Signaltrennschaltung 64, einem Videodecodierer 25, einem Audiodecodierer 26 und einem Hauptkontroller 67. Bei diesem System ist in der Einrichtung 100 eine "Inhaltstabelle" gespeichert, welche die Stelle jedes I-Bildes aus in der Einrichtung 100 gespeicherten Videodaten identifiziert. Durch Konsultieren dieses Inhaltsverzeichnisses bzw. dieser Inhaltstabelle bestimmt der Hauptkontroller die Stellen von I- Bildern schnell, wobei er einen schnellen Zugriff, eine schnelle Decodierung und schnelle Anzeige solcher Bilder ermöglicht. Dies hat zur Folge, dass Such- und Direktzugriffsfunktionen bei reduzierter Verarbeitungszeit erreicht werden können.
  • Die Einrichtung 100 speichert Videodaten in einem Zeitmultiplexformat und speichert eine die Stellen von in den gespeicherten Videodaten enthaltenen I-Bildern identifizierende Inhaltstabelle. Die Signaltrenneinheit 64 greift auf die gespeicherten Daten zu und liest sie, trennt die Daten in Audio- Video- und Inhaltstabellenkomponenten, führt die Audio- und Videokomponenten jeweiligen Signaldecodierern zu und führt die Inhaltstabellendaten dem Hauptkontroller 67 zu. Der Videodecodierer 25 und Audiodecodierer 26 decodiert in Abhängigkeit von Steuersignalen aus dem Hauptkontroller 67 codierte Videosignale bzw. codierte Audiosignale, um jeweils Videoausgangssignale und Audioausgangssignale zu erzeugen.
  • Der Hauptkontroller 67 führt der digitalen Speichereinrichtung 100 Zugriffsbefehlssignale zu, um zu bewirken, dass die Einrichtung auf spezifizierte Segmente gespeicherter Daten zugreift und diese der Signaltrennschaltung 64 zuführt. Andererseits stellt die Speichereinrichtung dem Hauptkontroller Positionsinformation (Datenwiedergewinnungsinformation) bereit, die in der Form tatsächlicher Datenadressen in der Einrichtung hinsichtlich der Daten, auf die zuzugreifen ist, sein kann. Auch führt der Kontroller sowohl dem Videodecodierer 25 als auch dem Audiodecodierer 26 Befehlssignale zum Steuern der jeweils von ihnen ausgeführten Decodierungsoperationen zu. Außerdem enthält der Kontroller 67 einen Inhaltstabellenspeicher (TOC-Speicher) 68 zum Speichern von Inhaltstabellendaten.
  • Die Signaltrenneinheit 64 enthält eine Headertrennschaltung 22, einen Schalter 23, ein Steuerungsgerät 66 und einen Inhaltstabellenseparator (TOC-Separator) 65. Die Schaltung 22 und der Schalter 23 arbeiten auf die gleiche Weise wie im Zusammenhang mit der Fig. 4 beschrieben. Das Gerät 66 ist das gleiche wie das Steuerungsgerät 24 mit der Ausnahme, dass das Steuerungsgerät 66 nicht den Zugriff auf gespeicherte Daten steuert. Der Inhaltstabellenseparator (TOC-Separator) 65 detektiert mit den Audio- und Videodaten zugeführte Inhaltstabelleninformation und führt die Inhaltstabelleninformation dem TOC-Speicher 68 zu. Der Hauptkontroller 67 gibt in Abhängigkeit von einem Suchbefehl vom Benutzer einen Befehl zum Initiieren der Zufuhr gespeicherter Daten von der digitalen Speichereinrichtung 100 zur Signaltrennschaltung 64 aus. Inhaltstabellendaten werden vom TOC-Separator 65 detektiert und dem TOC-Speicher 68 zugeführt. Unter Verwendung der Inhaltstabellendaten zum Bestimmen der Stellen von I-Bildern in den Videodaten steuert der Hauptkontroller 67 den Videodecodierer 25 zum Decodieren nur von I-Bilddaten und überspringen anderer Daten. Der Audiodecodierer 26 ist stumm geschaltet. Alternativ dazu steuert der Hauptkontroller 67 die digitale Speichereinrichtung 100 für einen Zugriff nur auf und eine Zufuhr nur von I-Bildvideodaten zur Signaltrennschaltung 64. Durch beide Verfahren wird die Stelle von I-Bilddaten relativ schnell identifiziert, und es werden nur I-Bilddaten decodiert und zur Anzeige ausgegeben.
  • Unglücklicherweise benötigt das Speichern von Tabelleninhaltsdaten bei gewissen Videodatenanwendungen eine signifikante Speicherkapazität. Dies hat zur Folge, dass das Speichern der Stelle jedes I-Bildes als impraktikabel festgestellt worden ist. Es wurde auch an vorgeschlagene Systeme gedacht, welche nur einige bzw. gewisse der I-Bildstellen speichern. Diese Systeme sind inhärent untauglich, präzise Suchoperationen durchzuführen, was in einer signifikanten Suchverzögerung resultiert. Eine solche Verzögerung ist nicht erwünscht.
  • Gemäß einem zweiten vorgeschlagenen Datendecodierungssystem zum Zugriff auf gespeicherte 1-Bilder mit größerer Geschwindigkeit werden Daten entsprechend dem in den Fig. 6 und 7 dargestellten Format gespeichert und von einem in Fig. 8 gezeigten Gerät decodiert.
  • Nach Fig. 6 ist ein Datenpack (oder -sektor) aus einem Pack-Header, einem ersten Videopaket, einem Eingangspaket, einem zweiten Videopaket und einem Audiopaket in dieser Reihenfolge aufgebaut. Jedes Videopaket enthält einen Videopaket-Header und ein Segment aus Videodaten. Jedes Audiopaket enthält einen Audiopaket-Header und ein Segment aus Audiodaten. Am Beginn des Videodatensegments im zweiten Videopaket ist ein I-Bild, dessen Stelle als ein "Eingangspunkt" bezeichnet sei, angeordnet. Das Eingangspaket speichert Information hinsichtlich der Stelle eines oder mehrerer I-Bilder in diesem Pack, der I-Bilderstellen in jeder Zahl Packs oder eine ähnliche Information.
  • Fig. 7 stellt ein Eingangspaketformat dar, in welchem Information hinsichtlich der Stellen von sechs aufeinanderfolgenden Eingangspunkten, drei vor dem Paket und drei danach, im Paket gespeichert sind. Das Eingangspaket enthält wie oben beschrieben einen Paket-Header, der aus einem Paketstartcode-Präfix, einem Identifikationscode und einer Anzeige der Länge des Pakets gebildet ist. Das Eingangspaket enthält außerdem zusätzliche Identifikationsinformation (ID), Paketypinformation und eine Anzeige der laufenden Datenströmezahl, eine Anzeige der laufenden Videoströmezahl und eine Anzeige der laufenden Audioströmezahl. Am Ende des Pakets ist die Positionsinformation für sechs Eingangspunkte gespeichert.
  • Das Decodierungsgerät nach Fig. 8 besteht aus einer digitalen Speichereinrichtung 100, einer Signaltrennschaltung 70, einem Videodecodierer 25 und einem Audiodecodierer 26. Die Signaltrennschaltung 70 enthält eine Headertrennschaltung 71, einen Schalter 23, ein Steuerungsgerät 72 und einen Eingangspunktspeicher 73.
  • Die Einrichtung 100 für die Abhängigkeit von einem Zugriffsbefehl aus dem Steuerungsgerät 72 der Headertrennschaltung 71 gespeicherte Daten zu. Die Headertrennschaltung 71 detektiert Pack-Headerdaten, Paket-Headerdaten und Eingangspaketdaten in dem aus der Einrichtung 100 gelesenen Datenstrom und führt solche Daten dem Steuerungsgerät 72 zu. Die zeitmultiplexierten Daten werden einem Eingang des Schalters 23 zugeführt. Ein Ausgang des Schalters 23 ist an den Videodecodierer 25 gekoppelt, während der andere Ausgang an den Audiodecodierer 26 gekoppelt ist.
  • Das Steuerungsgerät 72 gibt den Zugriff auf Daten in der Speichereinrichtung 100 und die Operation des Schalters 23 steuernde Befehle aus. Das Steuerungsgerät liest den in jedem Paket-Header enthaltenen Stromidentifikationscode und steuert den Schalter 23, um das korrespondierende Datenpaket zum geeigneten Decodierer zu leiten. Zeigt insbesondere der Stromidentifikationscode an, dass ein Paket Videosignale enthält, wird das Paket zum Videodecodierer 25 geleitet. Zeigt der Stromidentifikationscode an, dass ein Paket Audiosignale enthält, wird das Paket zum Audiodecodierer 26 geleitet. Auf diese Weise werden zeitmultiplexierte Daten in Audio- und Videokomponenten getrennt und geeignet decodiert.
  • Außerdem empfängt das Steuerungsgerät 72 Eingangspaketdaten, analysiert die Daten und führt von den Eingangspaketdaten abgeleitete Eingangspunktinformation dem Eingangspunktspeicher 73 zum Speichern zu. Das Steuerungsgerät 72 empfängt auch von der Speichereinrichtung 100 Datenwiedergewinnungsinformation. Abhängig von der Anwendung kann die Datenwiedergewinnungsinformation mit der Eingangspunktinformation korreliert sein, um tatsächliche Stellen der Eingangspunkte in der Speichereinrichtung zu bestimmen. Diese tatsächlichen Stellen können auch im Speicher 73 als Eingangspunktinformation gespeichert sein. Auf diese Weise ist der Eingangspunktspeicher 73 mit den Stellen von in der Speichereinrichtung 100 gespeicherten I-Bildern geladen.
  • In einem Suchmodus bestimmt das Steuerungsgerät 72 die laufende Datenwiedergewinnungsposition der Speichereinrichtung 100 aus der davon zugeführten Datenwiedergewinnungsinformation. Das Steuerungsgerät gewinnt dann vom Eingangspunktspeicher 73 Information wieder, die dem der laufenden Datenwiedergewinnungsposition der Speichereinrichtung am nächsten, jedoch davor liegenden Eingangspunkt am nächsten ist. Die Datenspeichereinrichtung 100 wird vom Gerät 72 so gesteuert, dass ihre Datenwiedergewinnungsposition unmittelbar in die des identifizierten Eingangspunkts geändert wird. Von diesem Punkt werden Daten, beispielsweise das I-Bild, wiedergewonnen und der Signaltrennschaltung 70 zur Verarbeitung, und danach Anzeige, zugeführt.
  • Ist beispielsweise das Eingangspaket nach Fig. 6 einfach ein Marker bzw. eine Marke, der bzw. die anzeigt, dass das nachfolgende Videopaket mit einem Eingangspunkt beginnt, kann die Datenwiedergewinnung bei einem Punkt gestartet werden, der sich unmittelbar nach der Stelle des Eingangspakets befindet. Ist anstelle dessen das Eingangspaket wie in Fig. 7 aufgebaut, wird die Eingangspunktinformation zum Bestimmen der nächsten Datenwiedergewinnungsstelle verarbeitet. Nachfolgende Eingangspunkte werden entweder von weiteren Informationswiedergewinnungen aus dem Eingangspunktspeicher 73 oder von einer Analyse der am Eingangspunkt gespeicherten Eingangspaketinformation, auf die derzeit bzw. Laufend zugegriffen wird, bestimmt. Auf diese Weise werden I-Bilddaten schnell wiedergewonnen und in einer effizienten Suchoperation wiedergegeben.
  • Obgleich die oben beschriebenen vorbeschlagenen Systeme auf schnelle Weise I-Bilder anzeigen können, kann keines effektiv einen Rückwärtswiedergabe-, Langsamrückwärtswiedergabe- und Rahmen-um-Rahmen-Rückwärtswiedergabe-Operationsmodus unter Verwendung von B-Bildern, P-Bildern und I-Bildern zur Erzeugung von Hochauflösungs-Suchmodusbildern für eine Anzeige erzielen.
  • Die europäische Patentanmeldungs-Veröffentlichung EP-A-0 674 445, die am 27. September 1995 veröffentlicht wurde und nur als Stand der Technik nach EPÜ, Artikel 54(3) zu betrachten ist, offenbart ein Verfahren und ein Gerät zur Decodierung und Rückwärtswiedergabe eines codierten digitalen Signals.
  • Gemäß einem Aspekt der Erfindung ist ein Gerät zur Decodierung und Rückwärtswiedergabe eines aus mehreren in einer digitalen Speichereinrichtung an mehreren jeweiligen Datenstellen gespeicherten codierten Bilddaten bestehenden digitalen Signals, wobei eine Rückwärtswiedergabeoperation bei gewählten der Bilddaten beginnt, bereitgestellt, wobei das Gerät aufweist:
  • eine Speichereinrichtung zum Speichern einer ersten Datenstelle einer ersten Decodierungsdateneinheit, die bei der Decodierung von in einer Vorwärtswiedergabeordnung den gewählten Bilddaten unmittelbar vorhergehenden Bilddaten zu verwenden ist, und zum Speichern einer zweiten Datenstelle einer zweiten Decodierungsdateneinheit, die abhängig von einer Stelle des vorhergehenden Bildes bei der Decodierung der vorhergehenden Bilddaten verwendet werden kann, wobei die erste und zweite Decodierungsdateneinheit aus mehreren Bilddaten bestehen,
  • eine Wiedergewinnungseinrichtung zur Wiedergewinnung der ersten und zweiten Decodierungsdateneinheit von der digitalen Speichereinrichtung bei der ersten bzw. zweiten Datenstelle und zur Wiedergewinnung der vorhergehenden Bilddaten von der digitalen Speichereinrichtung,
  • eine Decodierungseinrichtung zur Decodierung der vorhergehenden Bilddaten als eine Funktion der ersten Decodierungsdateneinheit und, abhängig von einer Stelle des vorhergehenden Bildes, der zweiten Decodierungsdateneinheit.
  • Gemäß einem anderen Aspekt der Erfindung ist ein Verfahren zum Decodieren und Rückwärtswiedergeben eines aus mehreren in einer digitalen Speichereinrichtung an mehreren jeweiligen Datenstellen gespeicherten codierten Bilddaten bestehenden digitalen Signals, wobei eine Rückwärtswiedergabeoperation bei gewählten der Bilddaten beginnt, bereitgestellt, wobei das Verfahren die Schritte aufweist:
  • Speichern einer ersten Datenstelle einer ersten Decodierungsdateneinheit, die beim Decodieren von in einer Vorwärtswiedergabeordnung den gewählten Bilddaten unmittelbar vorhergehenden Bilddaten zu verwenden ist,
  • Speichern einer zweiten Datenstelle einer zweiten Decodierungsdateneinheit, die abhängig von einer Stelle des vorhergehenden Bildes beim Decodieren der vorhergehenden Bilddaten verwendet werden kann, wobei die erste und zweite Decodierungsdateneinheit aus mehreren Bilddaten bestehen,
  • Wiedergewinnen der ersten und zweiten Decodierungsdateneinheit von der digitalen Speichereinrichtung bei der ersten bzw. zweiten Datenstelle,
  • Wiedergewinnen der vorhergehenden Bilddaten von der digitalen Speichereinrichtung,
  • Decodieren der vorhergehenden Bilddaten als eine Funktion der ersten Decodierungsdateneinheit und, abhängig von einer Stelle des vorhergehenden Bildes, der zweiten Decodierungsdateneinheit.
  • Ausführungsformen der vorliegenden Erfindung stellen ein Verfahren und Gerät zur Decodierung eines codierten, zeitmultiplexierten Videosignals zur Anzeige in einem Rückwärtswiedergabe-, Langsamrückwärtswiedergabe- und Rahmen-um-Rahmen- Rückwärtswiedergabe-Operationsmodus für einen Benutzer bereit.
  • Insbesondere stellen Ausführungsformen der vorliegender. Erfindung ein Verfahren und Gerät zur Rückwärtswiedergabe-, Langsamrückwärtswiedergabe- und Rahmen-um-Rahmen- Rückwärtswiedergabe von entsprechend einem MPEG-Standard codierten Videodaten bereit.
  • Weitere Ausführungsformen der vorliegenden Erfindung stellen ein Verfahren und Decodierungsgerät zur Rahmen-um- Rahmen-Rückwärtswiedergabe von mit Interrahmenkorrelation codierten Videodaten, beispielsweise B-Bilder und P-Bilder, zur Erzeugung hochaufgelöster Bilder bereit.
  • Weitere Ausführungsformen der vorliegenden Erfindung stellen ein Verfahren für und ein Codierungsgerät zur Rahmenum-Rahmen-Rückwärtswiedergabe von Videodaten mit einer einem Benutzer minimal erscheinenden Verarbeitungsverzögerung bereit.
  • Ausführungsformen der Erfindung werden nun beispielhaft unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, in denen gleiche Komponenten mit den gleichen Bezugszeichen bezeichnet sind und in denen
  • Fig. 1A, 1B und 1C schematische Darstellungen eines Datenformats sind;
  • Fig. 2A eine schematische Darstellung ist, die ein MPEG-Codierungsverfahren darstellt;
  • Fig. 28 eine schematische Darstellung eines MPEG- Datenformats ist;
  • Fig. 3 eine schematische Darstellung eines anderen Datenformats ist;
  • Fig. 4 ein Blockschaltbild eines vorgeschlagenen Audio- und Videodaten-Decodierungsgeräts ist;
  • Fig. 5 ein Blockschaltbild eines anderen vorgeschlagenen Audio- und Videodaten-Decodierungsgeräts ist;
  • Fig. 6 eine schematische Darstellung eines anderen Datenformats ist;
  • Fig. 7 eine schematische Darstellung eines anderen Datenformats ist;
  • Fig. 8 ein Blockschaltbild eines anderen vorgeschlagenen Audio und Videodaten-Decodierungsgeräts ist;
  • Fig. 9 ein Blockschaltbild eines Audio- und Videodaten- Decodierungsgeräts zur Rückwärtswiedergabe eines zeitmultiplexierten Signals gemäß einer Ausführungsform der vorliegenden Erfindung ist;
  • Fig. 10 ein Flussdiagramm ist, auf das bei der Beschreibung des Betriebs bzw. der Operation des Geräts nach Fig. 9 Bezug genommen ist;
  • Fig. 11 ein Flussdiagramm ist, auf das bei der Beschreibung der Operation des Geräts nach Fig. 9 Bezug genommen ist;
  • Fig. 12 ein Flussdiagramm ist, auf das bei der Beschreibung der Operation des Geräts nach Fig. 9 Bezug genommen wird;
  • Fig. 13 ein Blockschaltbild eines Audio- und Videodaten-Decodierungsgeräts zur Rückwärtswiedergabe eines zeitmultiplexierten Signals gemäß einer anderen Ausführungsform der vorliegenden Erfindung ist;
  • Fig. 14 ein Zeitsteuerungsdiagramm ist, auf das bei der Beschreibung der Operation des Geräts nach Fig. 13 Bezug genommen ist; und
  • Fig. 15 ein Flussdiagramm ist, auf das bei der Beschreibung einer alternativen Operation der Geräte nach Fig. 9 und 13 Bezug genommen wird.
  • Ein Gerät zur Rückwärtswiedergabe eines zeitmultiplexierten Signals gemäß einer Ausführungsform der vorliegenden Erfindung ist in der Fig. 9 dargestellt und generell mit 80 bezeichnet. Das Gerät 80 besteht aus einer digitalen Speichereinrichtung 100, einem Demultiplexer 81, einem Videodecodierer 85, einem Audiodecodierer 86, einem Hauptkontroller 87 und einem externen Rahmenspeicher 89.
  • Die digitale Speichereinrichtung 100 greift auf gespeicherte digitale Daten zu, wie es durch vom Hauptkontroller 87 zugeführte Befehlsignale dirigiert wird. Die wiedergegebenen digitalen Daten werden dem Demultiplexer 81 zugeführt, der die Daten in ihre verschiedenen Komponenten trennt. Dem Videodecodierer 85 werden Videodatenkomponenten zur selektiven Decodierung zugeführt. Dem Audiodecodierer 86 werden Audiodatenkomponenten zur Decodierung zugeführt. Einer im Hauptkontroller 87 enthaltenen Eingangspunktspeichereinheit 88 wird Eingangspunktinformation zugeführt. Der Hauptkontroller 87 steuert den Betrieb bzw. die Operation der digitalen Speichereinrichtung 100, des Videodecodierers 85 und des externen Rahmenspeichers 89, um gespeicherte Videodaten zur Anzeige in einem Vorwärts- und Rückwärtswiedergabemodus zu decodieren.
  • Die digitale Speichereinrichtung 100 ist eine digitale Speichereinrichtung zum Speichern digitaler Daten und Wiedergewinnen digitaler Daten von der Speicherung. Die Einrichtung 100 kann aus einer Videoband-Aufzeichnungs/Wiedergabe- Einrichtung, einem integrierte Schaltungs-Speicher oder dgl. bestehen. Wie dargestellt besteht die digitale Speichereinrichtung vorzugsweise aus einem optischen Plattenspeichersystem 101. In der Einrichtung 100 gespeicherte Videodaten enthalten eine Anzahl Headerdaten, die im folgenden detailliert beschrieben werden.
  • Das optische Plattenspeichersystem 101 besteht aus einem optischen Plattenspeichermedium 110, einer Spurfolgeschaltung 111, einer Aufnehmereinrichtung 112, einer Antriebssteuerungsschaltung 113, einem Demodulator 114 und einer Fehlerkorrekturschaltung (ECC) 115. Das Medium 110 wird zum Speichern digitaler Daten verwendet. Der Antriebskontroller 113 steuert die Operation des Systems 101 entsprechend Steuerbefehlen, die vom Hauptkontroller 87 erhalten werden. Insbesondere dirigiert der Kontroller 113 die Operation des Aufnehmers 112 und überwacht die Datenzugriffsposition des Aufnehmers 112 durch die Spurfolgespaltung 111. Der Kontroller 113 gibt Datenwiedergewinnungsinformation hinsichtlich der Position des Aufnehmers 112 an den Hauptkontroller 87 aus.
  • Die Spurfolgeschaltung 111 steuert die Stelle der Aufnehmereinrichtung 112 so, dass von der Einrichtung 112 auf spezifizierte Bereiche des Mediums 110 zugegriffen werden kann. Die Einrichtung 112 liest auf dem Medium 110 gespeicherte digitale Daten und führt die wiedergegebenen digitalen Daten dem Demodulator 114 zu. Der Demodulator 114 demoduliert das wiedergegebene Signal, um ein demoduliertes Signal zu erzeugen, das der ECC 115 zugeführt wird. Die ECC 115 detektiert und korrigiert Fehler im demodulierten Signal und führt das korrigierte digitale Signal dem Demultiplexer 81 zu.
  • Der Demultiplexer 81 enthält eine Headertrennschaltung 82, einen Schalter 83 und ein Steuerungsgerät 84. In Abhängigkeit von einem Zugriffsbefehl vom Hauptkontroller 87 führt die Einrichtung 100 wiedergegebene Daten der Headertrennschaltung 82 zu. Die Headertrennschaltung 82 detektiert Pack- Headerdaten, Paket-Headerdaten und Eingangspaketdaten im von der Einrichtung 100 gelesenen Datenstrom und führt solche Daten dem Steuerungsgerät 84 zu. Die Headertrennschaltung 82 detektiert auch die zeitmultiplexierten Daten in den wiedergegebenen Daten und führt die multiplexierten Daten einem Eingang des Schalters 83 zu. Ein Ausgang des Schalter 83 ist an den Videodecodierer 85 gekoppelt, während der andere Ausgang an den Audiodecodierer 86 gekoppelt ist.
  • Das Steuerungsgerät 84 liest in jedem Paket-Header enthaltene Stromidentifikationscodes und steuert den Schalter 83 so, dass das korrespondierende Datenpaket zum geeigneten Decodierer geleitet wird. Zeigt insbesondere ein Stromidentifikationscode an, dass ein Paket Videosignale enthält, wird das Paket zum Videodecodierer 85 zur Decodierung geleitet, um ein decodiertes Videosignal zu erzeugen. Zeigt der Stromidentifikationscode an, dass ein Paket Audiosignale enthält, wird das Paket zum Audiodecodierer 86 zur Decodierung geleitet, um ein Audioausgangssignal zu erzeugen. Auf diese Weise werden zeitmultiplexierte Daten in Audio- und Videokomponenten getrennt und geeignet decodiert.
  • Außerdem empfängt das Steuerungsgerät 84 Eingangspaketdaten, analysiert die Daten und führt von den Eingangspaketdaten abgeleitete Eingangspunktstelleninformation dem Eingangspunktspeicher 88 zur Speicherung zu. Der Hauptkontroller 87 empfängt von der Speichereinrichtung 100 Datenwiedergewinnungsinformation. Datenwiedergewinnungsinformation kann abhängig von der Anwendung mit Eingangspunktinformation korreliert sein, um die tatsächlichen Stellen der Eingangspunkte in der Speichereinrichtung zu bestimmen. Die Datenwiedergewinnungspositionsinformation und/oder die daraus bestimmten tatsächlichen Stellen können auch im Speicher 88 als Eingangspunktinformation gespeichert sein. Auf diese Weise wird der Eingangspunktspeicher 88 mit die Stellen von in der Speichereinrichtung 100 gespeicherten I-Bildern betreffender Information geladen.
  • Der Videodecodierer 85 besteht aus einem Puffer 121, einem Bildheaderdetektor 122, einem Schalter 123 und einem Signaldecodierer 125. Durch den Schalter 83 empfangene Videodaten werden zeitweilig im Puffer 121 gespeichert. Die im Puffer 121 gespeicherten Videodaten werden vom Bildheaderdetektor 122 ausgelesen und auf Bild-Header und Bildgruppen- Header (GOP-Header) hin geprüft. Typischerweise besteht Bildheaderinformation aus zeitlicher Referenzinformation bzw. Temporalreferenzinformation (TR-Information), welche die Ordnung von Bildern in einer Bildergruppe anzeigt, und aus Bildtypinformation, die anzeigt, ob ein Bild ein I-Bild, ein P- Bild oder B-Bild ist. Beispielsweise kann die Temporalreferenzinformation einen Zeitstempel, eine Seriennummer oder dgl. enthalten, die in einer Ordnung, beispielsweise in der Fig. 2A in der Ordnung der Bilder von links nach rechts, zugeordnet sind. Ein GOP-Header kann eine Identifikation der Bildergruppe enthalten und kann nur einmal in einer Gruppe auftreten oder jedem Bild in der Gruppe zugeordnet sein, Ist der GOP-Header individuellen Bildern zugeordnet, kann der Header die erste Bildergruppe anzeigen, die zum Decodieren des individuellen Bildes benötigte Daten enthält. Ein bevorzugtes Bild-Headerformat ist im MPEG1-Videostandard (ISO 11172-2) und MPEG2-Videostandard (ISO 13818-2) definiert. Die detektierten Header werden dem Hauptkontroller 87 zugeführt.
  • Der Bildheaderdetektor 122 führt Videobilddaten einem Eingang des Schalters 123 zu. Ein Ausgang des Schalters 123 ist an den Signaldecodierer 125 gekoppelt, während der andere Ausgang nicht verbunden belassen oder anderweitige geeignet abgeschlossen ist, um eine weitere Signalausbreitung bzw.- fortpflanzung zu verhindern. Als eine Funktion der vom Bildheaderdetektor 122 empfangenen Headerinformation steuert der Hauptkontroller 87 die Operation des Schalters 123, um nur gewisse Bilder von Videodaten bzw. Videodatenbilder, wie sie für jeden speziellen Operationsmodus benötigt werden, zum Signaldecodierer 125 durchzulassen. Videodatenbilder, die bei einem speziellen Verarbeitungsschritt nicht zu decodieren sind, werden mit dem Signalabschlussausgang verbunden und auf diese Weise verworfen.
  • Der Signaldecodierer 125 enthält einen Rahmenspeicher und arbeitet zum Decodieren codierter Videobilddaten. Bei einer bevorzugten Ausführungsform weist der Rahmenspeicher im Signaldecodierer wenigstens drei Speicherebenen auf. Außerdem decodiert der Signaldecodierer vorzugsweise entsprechend dem MPEG2-Videostandard codierte Daten. Decodierte Videodaten werden dem externen Rahmenspeicher 89 zugeführt.
  • Der externe Rahmenspeicher 89 empfängt die decodierten Videodaten und gibt die Daten in Abhängigkeit von einem Steuerungssignal als ein Videoausgangssignal aus dem Hauptkontroller 87 aus. Während einer normalen Operation gibt der Speicher 89 empfangene Videodaten unmittelbar aus. Während einer Bildhalteoperation, wie sie durch ein vom Hauptkontroller 87 zugeführtes Bildhaltesignal angezeigt wird, hält der Speicher 89 ein spezielles Videodatenbild und gibt dieses wiederholt aus. Außerdem können während einer Bildhalteoperation empfangene Videodaten auch vom Speicher 89 gespeichert werden.
  • Bei einer Wiedergabeoperation gibt der Hauptkontroller 87 den Zugriff auf Daten in der Speichereinrichtung 100 steuernde Befehle aus und konfiguriert den Videodecodierer 85 und den Audiodecodierer 86 zum Decodieren von Daten. Besteht die digitale Speichereinrichtung 100 aus einem optischen Plattenspeichersystem 101, gibt der Hauptkontroller 87 Steuerungsbefehle an den Antriebskontroller 113 aus, um auf spezielle Segmente gespeicherter Daten zuzugreifen. Demgemäss steuert der Antriebskontroller 113 die Spurfolgeschaltung 111 in Bezug auf die Platte 110 zu einem geeigneten Positionsaufnehmer 112. Der Änderung der Position des Aufnehmers 112 folgend führt der Antriebskontroller dem Hauptkontroller 87 Datenwiedergewinnungsinformation hinsichtlich der Position des Aufnehmers zu. Eine solche Datenwiedergewinnungsinformation kann aktuelle Adresseninformation für Daten auf der in Zugriff stehenden Platte enthalten. Von der optischen Platte 110 gelesene Daten werden dem Demultiplexer 81 zugeführt. Der Demultiplexer 81 trennt die Daten in ihre Bestandteile und leitet die Videodaten, die Audiodaten und die Eingangspunktinformation geeignet weiter.
  • Im "normalen" Wiedergabemodus (Vorwärtswiedergabemodus) steuert der Hauptkontroller 87 den Schalter 123, um alle Videodaten zum Signaldecodierer 125 zur Decodierung zu leiten, und gibt den externen Rahmenspeicher 89 frei, um die decodierten Videodaten unmittelbar auszugeben. Der Audiodecodierer 86 decodiert die Audiodaten, um das Audioausgangssignal zu erzeugen. Der Videodecodierer 85 erzeugt, in Verbindung mit dem externen Rahmenspeicher 89, das Videoausgangssignal.
  • Zusammen mit der Wiedergabe decodierter Daten speichert der Hauptkontroller 87 Eingangspunktinformation aus dem Steuerungsgerät 84 im Eingangspunktspeicher 88. Korrespondierende Datenwiedergewinnungsinformation aus der digitalen Speichereinrichtung 100 kann auch als oder mit Eingangspunktinformation gespeichert werden. Außerdem empfängt der Hauptkontroller 87 kontinuierlich Bild-Headerinformation aus dem Bildheaderdetektor 122 und hält Bild-Headerinformation, welche die Natur des dann angezeigten codierten Bildes reflektiert. Für jedes neue Bild wird die vom Hauptkontroller 87 gehaltene Bild-Headerinformation aktualisiert.
  • Im folgenden wird eine Rahmen-um-Rahmen- Rückwärtswiedergabeoperation beschrieben, die vorzugsweise auf eine normalen Wiedergabeoperation folgend auftritt. Eine Rückwärtswiedergabe-, Langsamrückwärtswiedergabe-, Mittelgeschwindigkeits-Rückwärtswiedergabeoperation und dgl. werden durch Wiederholung der unten beschriebenen Rahmen-um-Rahmen- Rückwärtswiedergabeoperation in geeigneten Intervallen erzielt. Demgemäss wird im folgenden nur die Rahmen-um-Rahmen- Rückwärtswiedergabeoperation detailliert beschrieben. Wie der Fachmann weiß, umfasst die Implementation anderer Rückwärtswiedergabeoperationen eine wiederholte Anwendung der unten gegebenen Lehren.
  • Ein genereller Überblick über die Rahmen-um-Rahmen- Rückwärtswiedergabeoperation ist im Flussdiagramm nach Fig. 10 dargestellt. Beim ersten Schritt S10 steuert der Hauptkontroller 87 das Gerät 80, um von der Speicherung und Decodierung ein codiertes Videodatenbild wiederzugewinnen. Beim Schritt S20 wird das decodierte Bild dem Benutzer angezeigt. Beim Schritt S30 wird ein Benutzerbefehl zum Erzeugen einer Rahmen-um-Rahmen-Rückwärtswiedergabe eingegeben. Schließlich wird beim Schritt S40 das anzuzeigende nächste Bild bestimmt und die Verarbeitungsoperation kehrt zyklisch zum Schritt S10 zurück. Im Folgenden wird eine detaillierte Erläuterung dieses Prozesses gegeben.
  • In Abhängigkeit von einem Benutzerbefehl zur Rahmen-um- Rahmen-Rückwärtswiedergabe gibt der Hauptkontroller 87 ein Bildhaltesignal an den externen Rahmenspeicher 89 aus. Der externe Rahmenspeicher 89 hält das angezeigte laufende Bild und gibt dieses gleiche Bild wiederholt aus. Als eine Funktion der im Eingangspunktspeicher 88 gespeicherten Eingangspunktinformation und der aus der für das angezeigte Bild gespeicherten Bild-Headerinformation extrahierten Temporalreferenzinformation wird die Temporalreferenzinformation hinsichtlich des unmittelbar vorhergehenden Bildes bestimmt. Als ein einfaches Beispiel, bei dem Temporalreferenzinformation aus in geordnet angezeigten ganzen Zahlen besteht, kann die mit dem angezeigten Bild korrespondierende Temporalreferenzzahl um 1 erniedrigt werden, um die Temporalreferenzzahl des unmittelbar vorhergehenden Bildes zu erzeugen. Dieses unmittelbar vorhergehende Bild wird als das "Zielbild (Sollbild)" bezeichnet.
  • Es ist vorstehend angenommen, dass das Gerät zuletzt im Vorwärtswiedergabe-Operationsmodus betrieben worden ist, so dass laufend ein Bild angezeigt wird und im Speicher 88 Eingangspunktinformation gespeichert worden ist. Jedoch ist die Erfindung nicht auf die Operation unter diesen Annahmen beschränkt. Wird zum Zeitpunkt, bei dem ein Benutzerbefehl für Rahmen-um-Rahmen-Rückwärtswiedergabe eingegeben wird, kein Bild angezeigt, kann ein einzelnes Videodatenbild zuerst von der Einrichtung 100 wiedergewonnen, decodiert und vor einer weiteren Verarbeitung angezeigt werden. Ist eine ungenügende Menge oder keine Eingangspunktinformation gespeichert worden, kann das Gerät 80 die gespeicherten Videodaten schnell rückwärts abtasten, um eine solche Information so wie sie benötigt wird, wiederzugewinnen, ohne dass die abgetasteten Videodaten angezeigt werden. Eine Schnellvorwärtsabtastung bringt die Speichereinrichtung zur Stelle des angezeigten Bildes zurück. Alternativ dazu kann die Eingangspunktinformation als ein Verarbeitungsschritt bei der unten beschriebenen Rahmen-um-Rahmen-Rückwärtswiedergabeoperation wiedergewonnen werden.
  • Der Eingangspunkt für eine Gruppe von Bildern, zu der das Sollbild gehört, beispielsweise die Stelle des ersten I- Bildes in der Gruppe, wird auch von der gespeicherten Eingangspunktinformation und der gespeicherten Temporalreferenzinformation bestimmt. In dieser Beschreibung "gehört" ein Zielbild zu einer Gruppe von Bildern, wenn das Zielbild eines der Bilder in der Gruppe ist, oder wenn die Decodierung eines der Bilder in der Gruppe benötigt wird, um dass Zielbild zu decodieren. Wenn als ein Beispiel dieses Bestimmungsprozesses das Bild am Eingangspunkt zum Decodieren des angezeigten Bildes benutzt wurde, ist dieses Bild auch wahrscheinlich zum Decodieren des Zielbildes erforderlich. Ein solcher Eingangspunkt wird als der "Zugriffspunkt" bezeichnet. Eine Bildergruppe, zu der das Zielbild gehört, wird als die "Zielgruppe" bezeichnet. Infolgedessen ist der Eingangspunkt für die Zielgruppe der Zugriffspunkt.
  • Die Decodierung gewisser Zielbilder erfordert jedoch decodierte Bilddaten aus zwei benachbarten Bildergruppen. Folglich "gehören" solche Zielbilder zu mehr als einer Zielgruppe. Beim Beispiel nach Fig. 2B benötigen die Bilder B&sub0; und B&sub1; Information von den als die Bilder I&sub2; und P&sub1;&sub4;" (nicht gezeigt) codierten Rahmen. Bei dieser Diskussion ist angenommen, dass solche Bilder zur ersten Bildergruppe, von der Daten zum Decodieren der Bilder benötigt werden, gehören und infolgedessen mit dieser ersten Gruppe übereinstimmende Führungsinformation aufweisen. Ungeachtet dessen sind andere Definitionen für solche Bilder möglich. Zum Unterbringen bzw. Anpassen von Zielbildern dieses Typs wird eine sorgfältige Datenverarbeitung benötigt.
  • Die Operation des Geräts 80 entsprechend dem Schritt S10 und Schritt S20 wird in Verbindung mit dem Flussdiagramm nach Fig. 11 weiter beschrieben. Beim Schritt S100 führt der Hauptkontroller 87 der digitalen Speichereinrichtung 100 einen Suchbefehl zu, um auf beim Zugriffspunkt gespeicherte Daten zuzugreifen. Die Daten werden durch den Demultiplexer 81 dem Videodecodierer 85 zugeführt. Beim Schritt S110 wird vom Bildheaderdetektor 122 der Bildheader des beim Zugriffspunkt gespeicherten Bildes detektiert. Wahlweise wird auch die GOP- Headerinformation am Zugriffspunkt wiedergewonnen.
  • Die Bild-Headerinformation wird dem Hauptkontroller 87 zugeführt, der beim Schritt S120 bestimmt, ob der detektierte Bild-Header mit der Zielgruppe korrespondiert. Alternativ dazu wird auch die GOP-Headerinformation dem Hauptkontroller 87 zugeführt und mit der Zielgruppe korreliert. Korrespondiert die Headerinformation mit der Zielgruppe, geht die Verarbeitung mit dem Schritt S130 weiter, andernfalls geht die Verarbeitung mit dem Schritt S160 weiter. Ein Fehlen der Korrespondenz zeigt an, dass die Zielgruppe zu einer vorhergehenden Bildergruppe gehört. Gibt es keine Korrespondenz und ist das Zielbild ein B-Bild, das die Decodierung von Daten einer vorhergehenden Bildergruppe benötigt, um decodiert zu werden, wird wahlweise der Zugriffspunkt auf die unmittelbar vorhergehende Bildergruppe zurückgesetzt.
  • Beim Schritt S130 vergleicht der Hauptkontroller 87 den Temporalreferenzwert des detektierten Bildes mit dem Temporalreferenzwert des Zielbildes. Korrespondieren die zwei Temporalreferenzwerte, das heißt sind sie gleich, ist das Zielbild erreicht worden, und die Verarbeitung geht mit dem Schritt S140 weiter. Andernfalls geht die Verarbeitung mit dem Schritt S160 weiter.
  • Beim Schritt S140 steuert der Hauptkontroller 87 den Schalter 123, um die wiedergewonnen Bilddaten des Zielbildes zum Signaldecodierer 125 zu leiten, der die Bilddaten decodiert. Die decodierten Bilddaten werden dem externen Rahmenspeicher 89 zugeführt, und der Hauptkontroller 87 steuert den Speicher 89, um das neu decodierte Bild wiederholt, kontinuierlich oder anderweitig anzuzeigen.
  • Beim Schritt S160 steuert der Hauptkontroller 87, wenn Daten des detektierten Bildes nicht zur Decodierung des Zielbildes benötigt werden, beispielsweise wenn das detektierte Bild ein B-Bild ist, den Schalter 123, um die Daten des detektierten Bildes zu verwerfen, und die Verarbeitung geht mit dem Schritt S180 weiter. Andernfalls wird der Schalter 123 gesteuert, um beim Schritt S170 das detektierte Bild im Signaldecodierer 185 zur Decodierung und vorübergehenden Speicherung zuzuführen. Außerdem wird in dem Fall, dass das detektierte Bild ein I-Bild ist, der Temporalreferenzwert des Bildes vom Hauptkontroller 87 gespeichert. Das detektierte Bild wird decodiert, da die Decodierung des Zielbildes sich auf vom detektierten Bild decodierte Daten verlässt, das heißt bei den oben Beispielen verlässt sich die Decodierung eines B-Bildes auf Daten, die vom vorhergehenden I-Bild und von dazwischen liegenden P-Bildern decodiert werden. Nach einer solchen Decodierung geht die Verarbeitung mit dem Schritt S180 weiter.
  • Bei gewissen Anwendungen sind der Schritt S180 und der Schritt S190 möglicherweise nicht erforderlich, und folglich geht die Verarbeitung mit dem Schritt S110 weiter, bei dem der oder die Header des nächsten Bildes detektiert werden. Beim Schritt S180 wird der Temporalreferenzwert des detektierten Bildes mit dem maximalen Wert verglichen, der als ein Temporalreferenzwert (TRMAX) erhältlich ist. Ein solcher Maximalwert kann mit dem letzten Bild in der Bildergruppe korrespondieren. Sind die zwei Werte gleich, geht die Verarbeitung mit dem Schritt S190 weiter. Andernfalls geht die Verarbeitung entsprechend dem Schritt S110 weiter, und es werden der oder die Header des nächsten Bildes detektiert.
  • Alternativ dazu wird beim Schritt S180 der TR-Wert der detektierten Bilder überwacht, und wenn der TR-Wert der detektierten Bilder größer als der laufende maximale TR-Wert ist, geht die Verarbeitung mit dem Schritt S190 weiter. Andernfalls geht die Verarbeitung mit dem Schritt S110 weiter.
  • Wenn das nächste detektierte Bild am Beginn der nächsten Bildergruppe ist, beispielsweise ein I-Bild ist oder einen GOP-Header enthält, wird beim Schritt S190 der Temporalreferenzwert des Zielbildes aktualisiert, um seinen originalen Temporalreferenzwert zu reflektieren. Die Verarbeitung geht mit dem Schritt S110 weiter und es werden der oder die Header des nächsten Bildes detektiert. Alternativ dazu wird der maximale TR-Wert aktualisiert und gehalten.
  • Die detaillierte Operation des Geräts 80 entsprechend dem Schritt S40 wird in Verbindung mit der Fig. 12 beschrieben. Bei diesem Prozess werden vom Hauptkontroller 87 der Temporalreferenzwert des nächsten Zielbildes, beispielsweise des nächsten vorhergehenden Bildes, das anzuzeigen ist, und der geeignete Zugriffspunkt bestimmt.
  • Beim Schritt S300 geht die Verarbeitung, wenn der Temporalreferenzwert des laufend angezeigten Bildes, des Zielbildes, gleich 0 ist, was anzeigt, dass das erste Bild in der Bildergruppe erreicht worden ist, beispielsweise ein I-Bild angezeigt worden ist, mit dem Schritt S310 weiter. Andernfalls geht die Verarbeitung mit dem Schritt S330 weiter.
  • Beim Schritt S310 wird der Temporalreferenzwert des Zielbildes auf den maximalen Temporalreferenzwert, beispielsweise TRmax gesetzt. Der maximale Temporalreferenzwert zeigt das letzte Bild in der Bildergruppe an, die der Zielgruppe vorhergeht. Auch wird der Zugriffspunkt als der Eingangspunkt der Bildergruppe, die der Zielgruppe vorhergeht, neu definiert. Auf diese Weise wird das letzte Bild der vorhergehenden Bildergruppe als das neue Zielbild definiert, und demgemäss werden die Identität der Zielgruppe und der Wert für den Zugriffspunkt eingestellt.
  • Beim Schritt S330 geht die Verarbeitung, wenn der Temporalreferenzwert des I-Bildes am Beginn der Zielgruppe bekannt ist, mit dem Schritt S340 weiter. Andernfalls geht die Verarbeitung mit dem Schritt S360 weiter.
  • Beim Schritt S340 geht die Verarbeitung, wenn der Temporalreferenzwert des Zielbildes größer als der Temporalreferenzwert des führenden I-Bildes der Zielgruppe ist, mit dem Schritt S350 weiter. Ist der Temporalreferenzwert des Zielbildes kleiner oder gleich dem Temporalreferenzwert des führenden I-Bildes der Zielgruppe, geht die Verarbeitung mit dem Schritt S360 weiter.
  • Beim Schritt S350 wird der Temporalreferenzwert des Zielbildes um 1 erniedrigt, um das neue Zielbild zu bezeichnen, während der Zugriffspunkt und die Zielgruppe ungeändert bleiben.
  • Beim Schritt S360 wird der Temporalreferenzwert des Zielbildes um 1 erniedrigt, um das neue Zielbild anzuzeigen, während der Zugriffspunkt als der Eingangspunkt der Bildergruppe, die der (alten) Zielgruppe vorhergeht, neu definiert wird. Auf diese Weise wird das dem angezeigten Bild vorhergehende Bild als das neue Zielbild bezeichnet, und demgemäss werden die Identität der Zielgruppe und der Wert für den Zugriffspunkt eingestellt.
  • Eine andere Ausführungsform eines Geräts zur Rückwärtswiedergabe eines zeitmultiplexierten Signals gemäß der vorliegenden Erfindung ist in der Fig. 13 dargestellt und generell mit 90 bezeichnet. Diejenigen Elemente der Fig. 13, welche die gleiche Struktur und Funktion wie korrespondierenden Elemente der Fig. 9 aufweisen, sind mit vorher benutzten Bezugszeichen markiert, und eine wiederholte Beschreibung dieser Elemente ist fortgelassen.
  • Das Gerät 90 besteht aus einer digitalen Speichereinrichtung 100, einem Demultiplexer 81, einem Videodecodierer 95, einem Audiodecodierer 86 und einem Hauptkontroller 97. Die digitale Speichereinrichtung 100 greift auf gespeicherte digitale Daten so zu, wie es von vom Hauptkontroller 97 zugeführten Befehlssignalen dirigiert wird. Die wiedergegebenen digitalen Daten werden dem Demultiplexer 81 zugeführt, der die Daten in ihre verschiedenen Komponenten trennt. Videodatenkomponenten werden dem Videodecodierer 95 zur selektiven Decodierung zugeführt. Audiodatenkomponenten werden dem Audiodecodierer 86 zur Decodierung zugeführt. Eingangspunktinformation wird einer Eingangspunktspeichereinheit 88 zugeführt, die im Hauptkontroller 97 enthalten ist. Der Hauptkontroller 97 steuert die Operation des digitalen Speichermediums 100 und Videodecodierers 95, um gespeicherte Videodaten zur Anzeige in einem Vorwärts- und Rückwärtswiedergabemodus zu decodieren.
  • Der Videodecodierer 95 besteht aus einem Puffer 121, einem Bildheaderdetektor 122, Schaltern 123, 126 und 130, einem Signaldecodierer 132 und Rahmenspeichern 127, 128 und 129. Der Puffer 121, der Detektor 122 und der Schalter 123 arbeiten wie im Zusammenhang mit der vorhergehenden Ausführungsform beschrieben. Der Videodecodierer 132 empfängt durch den Schalter 123 codierte Videodaten und kann auf decodierte Videodaten aus jedem der Rahmenspeicher 127, 128 und 129 zugreifen. Sich auf decodierte Videodaten in den Rahmenspeichern so wie sie benötigt werden beziehend, decodiert der Videodecodierer 132 die codierten Videodaten und führt einem Eingang des Schalters 126 decodierte Videodaten zu. Vorzugsweise decodiert der Signaldecodierer 132 Signale, die entsprechend dem MPEG2-Standard codiert sind.
  • Ausgänge a, b und c des Schreibsteuerungsschalters 126 sind an Eingänge von Rahmenspeichern FMa, FMb bzw. FMc gekoppelt. Ähnlich sind Eingänge a, b und c eines Lesesteuerungsschalters 130 an Ausgänge der Rahmenspeicher FMa, FMb bzw. FMc gekoppelt. Der Operationszustand beider Schalter 126 und 130 wird vom Hauptkontroller 97 als eine Funktion von Bild- Headerinformation gesteuert, die vom Bildheaderdetektor 122 zugeführt wird. Durch den Schalter 130 wird auf in den Rahmenspeichern gespeicherte decodierte Daten zugegriffen, und diese werden als das Videoausgangssignal bereitgestellt.
  • Eine Vorwärtswiedergabeoperation wird in Verbindung mit dem Zeitsteuerungsdiagramm nach Fig. 14 beschrieben. Im Zeitsteuerungsdiagramm erstreckt sich die Zeitachse horizontal, und jede horizontale Reihe korrespondiert mit einem anderen Datentyp oder Operationszustand. Die Reihe A zeigt das vom Speicher wiedergewonnene Bild an, das zu decodieren ist. Die Reihe B zeigt den Ausgangszustand des Schreibsteuerungsschalters 126 an. Die Reihe C zeigt die Inhalte des Speichers 127 (FMa) an. Die Reihe D zeigt die Inhalte des Speichers 128 (FMb) an. Die Reihe E zeigt die Inhalte des Speichers 128 (FMc) an. Die Reihe F zeigt den Eingangszustand des Lesesteuerungsschalters 130 an. Die Reihe G zeigt das decodierte Bild an, das als das Videoausgangssignal zur Anzeige auszugeben ist.
  • Zum Zeitpunkt T&sub1; wird das Bild I&sub2; dem Signaldecodierer 132 zur Decodierung zugeführt, und der Hauptkontroller 97 steuert den Schalter 126, um die decodierten Bilddaten dem Speicher 127 (FMa) zuzuführen, der die decodierten Daten aus dem Bild I&sub2; speichert.
  • Zum Zeitpunkt T&sub2; wird das Bild B&sub0; dem Signaldecodierer 132 zur Decodierung in Bezug auf die Inhalte von FMa(I&sub2;) und FMb(P&sub1;&sub4;", das vor I&sub2; auftretende P-Bild (nicht gezeigt)) zugeführt. Der Hauptkontroller 97 steuert den Schalter 126, um die decodierten Bilddaten dem Speicher 129 (FMc) zuzuführen, der die decodierten Daten aus dem Bild I&sub0; speichert und den Schalter 130 steuert, um die Inhalte des Speichers 129 auszugeben.
  • Zum Zeitpunkt T&sub3; wird das Bild B&sub1; dem Signaldecodierer 132 zur Decodierung in Bezug auf die Inhalte FMa(I&sub2;) und FMb (P&sub1;&sub4;", das vor I&sub2; auftretende P-Bild (nicht gezeigt)) zugeführt. Der Hauptkontroller 97 steuert den Schalter 126, um die decodierten Bilddaten dem Speicher 129 (FMc) zuzuführen, der die decodierten Daten aus dem Bild B&sub1; speichert und den Schalter 130 steuert, um die Inhalte des Speichers 129 auszugeben.
  • Zum Zeitpunkt T&sub4; wird das Bild P&sub5; dem Signaldecodierer 132 zur Decodierung in Bezug auf die Inhalte von FMa(I&sub2;) zugeführt. Der Hauptkontroller 97 steuert den Schalter 126, um die decodierten Bilddaten dem Speicher 128 (FMb) zuzuführen, der die decodierten Daten aus dem Bild P&sub5; speichert und den Schalter 130 steuert, um die Inhalte von FMa auszugeben.
  • Zum Zeitpunkt T&sub5; wird das Bild B&sub3; dem Signaldecodierer 132 zur Decodierung in Bezug auf die Inhalte von FMa(I&sub2;) und FMb(P&sub5;) zugeführt. Der Hauptkontroller 97 steuert den Schalter 126, um die decodierten Bilddaten dem Speicher 129 (FMc) zuzuführen, der die decodierten Daten aus dem Bild B&sub3; speichert und den Schalter 130 steuert, um die Inhalte des Speichers 129 auszugeben.
  • Zum Zeitpunkt T&sub6; wird das Bild B&sub4; dem Signaldecodierer 132 zur Decodierung in Bezug auf die Inhalte von FMa(I&sub2;) und FMb(P&sub5;) zugeführt. Der Hauptkontroller 97 steuert den Schalter 126, um die decodierten Bilddaten dem Speicher 129 (FMc) zuzuführen, der die decodierten Daten aus dem Bild B&sub4; speichert und den Schalter 130 steuert, um die Inhalte des Speichers 129 auszugeben.
  • Zum Zeitpunkt T&sub7; wird das Bild P&sub8; dem Signaldecodierer 132 zur Decodierung in Bezug auf die Inhalte von FMb(P&sub5;) zugeführt. Der Hauptkontroller 97 steuert den Schalter 126, um die decodierten Bilddaten dem Speicher 127 (FMa) zuzuführen, der die decodierten Daten aus dem Bild P&sub8; speichert und den Schalter 130 steuert, um die Inhalte von FMb auszugeben.
  • Dem oben beschriebene Muster folgend werden gespeicherte Videodaten verarbeitet, um das Videoausgangssignal im Vorwärtswiedergabemodus zu erzeugen. Die Rahmen des auf diese Weise erzeugten Videodausgangssignals weisen die gleiche Ordnung wie die in Fig. 2A dargestellten auf.
  • Eine Rahmen-um-Rahmen-Rückwärtswiedergabeoperation die vorzugsweise auf eine normale Wiedergabeoperation folgend auftritt, kann mit im Wesentlichen den gleichen oben im Zusammenhang mit der in Fig. 9 dargestellten Ausführungsform beschriebenen Verarbeitungsschritten erzielt werden. Eine Rückwärtswiedergabe-, Langsam-Rückwärtswiedergabe-, Mittelgeschwindigkeits-Rückwärtswiedergabe-Operation und dgl. werden durch Wiederholung der Rahmen-um-Rahmen- Rückwärtswiedergabeoperation in geeigneten Intervallen erzielt. Für einen Fachmann ist einzusehen, dass eine Implementation anderer Rückwärtswiedergabeoperationen einfach eine wiederholte Anwendung dieser Lehren umfasst.
  • In Abhängigkeit von einem Benutzerbefehl für Rahmen-um- Rahmen-Rückwärtswiedergabe steuert der Hauptkontroller 97 den Schalter 130, um mit dem Rahmenspeicher verbunden zu bleiben, der die laufend angezeigten decodierten Bilddaten speichert. Eine wiederholte Ausgabe des gleichen gespeicherten Bildes zur Anzeige erzeugt den bei der früheren Ausführungsform mit dem externen Rahmenspeicher 89 erzielten "Rahmenhalte"- Effekt. Auf die in den Fig. 10, 11 und 12 dargestellten und vorstehend detailliert beschriebenen Schritte folgt eine weitere Verarbeitung zur Erzeugung einer Rahmen-um-Rahmen- Rückwärtswiedergabe mit einer geeigneten Substitution von Bezugnahmen auf Elemente des Geräts nach Fig. 9 für ähnliche Elemente der in Fig. 13 dargestellten Ausführungsform. Jedoch erfordern die Decodierungs- und Anzeigeschritte S140 und S170 Modifikationen, um den strukturellen Differenzen zwischen den Ausführungsformen zu genügen.
  • Beim Schritt S140 steuert der Hauptkontroller 97 den Schalter 123, um die wiedergewonnen Bilddaten des Zielbildes zum Signaldecodierer 132 zu leiten, der die Bilddaten durch Ziehen bzw. Zeichnen wie benötigt auf in den Rahmenspeichern 127, 128 und 129 gespeicherte decodierte Daten decodiert. Da nur einer der Rahmenspeicher 127, 128 und 129 den laufend angezeigten Rahmen speichern muss, können I-Bilder und P-Bilder durch Verwendung der anderen zwei Rahmenspeicher decodiert werden. Das decodierte I-Bild oder P-Bild wird in einem Rahmenspeicher gespeichert und kann durch Einstellen des Schalters 130 zum Zugriff auf diesen Rahmenspeicher angezeigt werden. Alternativ dazu können die decodierten Daten über Daten in dem den laufend angezeigten Rahmen speichernden Rahmenspeicher durch den unten im Zusammenhang mit der Decodierung von B-Bildern beschriebenen Prozess geschrieben werden.
  • Um B-Bildern zu decodieren wird auf in zwei Rahmenspeichern gespeicherte I- und/oder P-Bilder zugegriffen, um die codierten Bilddaten zu decodieren, und die decodierten B- Bilddaten werden in den Rahmenspeicher geschrieben, von dem derzeit bzw. laufend ein Bild angezeigt wird. Eine Störung bzw. Interferenz zwischen den zwei Bildern kann verhindert werden, indem jedes Teil- bzw. Halbbild bzw. Feld des neu decodierten B-Bildes in einen korrespondierenden Abschnitt des Rahmenspeichers geschrieben wird, der dieses Feld des angezeigten Bildes speichert, wenn auf dieses Feld nicht unmittelbar zur Anzeige zugegriffen wird.
  • Beim Schritt S170 steuert der Hauptkontroller 97 den Schalter 123, um die wiedergewonnenen Bilddaten des Zielbildes zum Signaldecodierer 132 zu leiten, der die Bilddaten durch Ziehen bzw. Zeichnen wie benötigt auf in den Rahmenspeichern 127, 128 und 129 gespeicherte decodierte Daten decodiert. Das decodierte I-Bild oder P-Bild wird in einem der Rahmenspeicher gespeichert und bei diesem Schritt nicht angezeigt.
  • Die in Fig. 10 dargestellte Verarbeitungsoperation leidet unter dem Nachteil, dass nach der Eingabe des Rahmen-um- Rahmen-Rückwärtswiedergabebefehls durch einen Benutzer der zeitraubende, verarbeitungsintensive Schritt des Ladens des anzuzeigenden Bildes auftritt. Dies hat zur Folge, dass zwischen dem Eingang des Befehls des Benutzers und der tatsächlichen Anzeige des nächsten vorhergehenden Videodatenrahmens eine Verzögerung vorhanden sein kann. Eine solche Verzögerung ist unerwünscht.
  • Zur Vermeidung einer Verarbeitungsverzögerung nach dem Eingang des Rahmen-um-Rahmen-Rückwärtswiedergabebefehls des Benutzers ist eine Alternative zu der in Fig. 10 dargestellten Verarbeitungsoperation in Fig. 15 bereitgestellt. Beim ersten Schritt S500 steuert der Hauptkontroller 87 (97) das Gerät 80 (90), um vom Speicher ein codiertes Bild von Videodaten wiederzugewinnen und zu decodieren. Beim Schritt S510 wird auf einen Benutzerbefehl zur Erzeugung einer Rahmen-um- Rahmen-Rückwärtswiedergabe gewartet. Beim Schritt S520 wird das decodierte Bild dem Benutzer angezeigt. Schließlich wird beim Schritt S530 das nächste anzuzeigende Bild bestimmt, und die Verarbeitungsoperation wiederholt sich mit dem Schritt S500. Die Details dieses Prozesses sind mit jenen im Zusammenhang mit dem Prozess nach Fig. 10 beschriebenen identisch.
  • Der Prozess nach Fig. 15 erlaubt vorteilhafter Weise dem Decodierungsgerät das nächste anzuzeigende Bild wiederzugewinnen und zu decodieren, bevor der Benutzer tatsächlich die Anzeige eines vorhergehenden Videodatenrahmens angefordert hat. Gibt der Benutzer einen solchen Befehl ein, kann das schon decodierte neue Bild ohne Verzögerung schnell zur Anzeige weitergeleitet werden.
  • Wenn hier illustrative Ausführungsformen der vorliegenden Erfindung und Modifikationen derselben detailliert beschrieben worden sind, ist dies so zu verstehen, dass diese Erfindung nicht auf diese präzisen Ausführungsformen und Modifikationen beschränkt ist, sondern dass andere Modifikationen und Variationen bei ihnen ergriffen werden können, ohne dass ein Fachmann den in den beigefügten Ansprüchen definierten Schutzbereich der Erfindung verlässt.

Claims (19)

1. Gerät zur Decodierung und Rückwärtswiedergabe eines aus mehreren in einer digitalen Speichereinrichtung (100) an mehreren jeweiligen Datenstellen gespeicherten codierten Bilddaten bestehenden digitalen Signals, wobei eine Rückwärtswiedergabeoperation bei gewählten der Bilddaten beginnt, wobei das Gerät (80) aufweist:
eine Speichereinrichtung (88) zum Speichern einer ersten Datenstelle einer ersten Decodierungsdateneinheit, die bei der Decodierung von in einer Vorwärtswiedergabeordnung den gewählten Bilddaten unmittelbar vorhergehenden Bilddaten zu verwenden ist, und zum Speichern einer zweiten Datenstelle einer zweiten Decodierungsdateneinheit, die abhängig von einer Stelle des vorhergehenden Bildes bei der Decodierung der vorhergehenden Bilddaten verwendet werden kann, wobei die erste und zweite Decodierungsdateneinheit aus mehreren Bilddaten bestehen,
eine Wiedergewinnungseinrichtung (87) zur Wiedergewinnung der ersten und zweiten Decodierungsdateneinheit von der digitalen Speichereinrichtung bei der ersten bzw. zweiten Datenstelle und zur Wiedergewinnung der vorhergehenden Bilddaten von der digitalen Speichereinrichtung,
eine Decodierungseinrichtung (85) zur Decodierung der vorhergehenden Bilddaten als eine Funktion der ersten Decodierungsdateneinheit und, abhängig von einer Stelle des vorhergehenden Bildes, der zweiten Decodierungsdateneinheit.
2. Gerät nach Anspruch 1, wobei die Wiedergewinnungseinrichtung bei der zweiten Datenstelle startend mehrere Bilddaten aufeinanderfolgend wiedergewinnt, bis die ersten Datenstelle erreicht ist.
3. Gerät nach Anspruch 2, wobei die Decodierungseinrichtung die bei der Decodierung der vorhergehenden Bilddaten zu verwendenden wiedergewonnen Bilddaten decodiert.
4. Gerät nach Anspruch 3, wobei die Wiedergewinnungseinrichtung die bei der Decodierung der vorhergehenden Bilddaten nicht zu verwendenden wiedergewonnen Bilddaten verwirft.
5. Gerät nach Anspruch 1, wobei die Wiedergewinnungseinrichtung bei der ersten Datenstelle startend mehrere Bilddaten aufeinanderfolgend wiedergewinnt, bis die vorhergehenden Bilddaten erreicht sind.
6. Gerät nach Anspruch 5, mit einer Bestimmungseinrichtung zur Bestimmung einer Charakteristik der vorhergehenden Bilddaten, wobei die Wiedergewinnungseinrichtung alle wiedergewonnenen Bilddaten analysiert, um festzustellen, ob sie die Charakteristik aufweisen.
7. Gerät nach Anspruch 5, wobei die Decodierungseinrichtung die bei der Decodierung der vorhergehenden Bilddaten zu verwendenden wiedergewonnen Bilddaten decodiert.
8. Gerät nach Anspruch 7, wobei die Wiedergewinnungseinrichtung die bei Decodierung der vorhergehenden Bilddaten nicht zu verwendenden wiedergewonnen Bilddaten verwirft.
9. Gerät nach Anspruch 1, wobei das codierte digitale Signal ein zeitmultiplexiertes Signal ist.
10. Verfahren zum Decodieren und Rückwärtswiedergeben eines aus mehreren in einer digitalen Speichereinrichtung (100) an mehreren jeweiligen Datenstellen gespeicherten codierten Bilddaten bestehenden digitalen Signals, wobei eine Rückwärtswiedergabeoperation bei gewählten der Bilddaten beginnt, wobei das Verfahren die Schritte aufweist:
Speichern einer ersten Datenstelle einer ersten Decodierungsdateneinheit, die beim Decodieren von in einer Vorwärtswiedergabeordnung den gewählten Bilddaten unmittelbar vorhergehenden Bilddaten zu verwenden ist,
Speichern einer zweiten Datenstelle einer zweiten Decodierungsdateneinheit, die abhängig von einer Stelle des vorhergehenden Bildes beim Decodieren der vorhergehenden Bilddaten verwendet werden kann, wobei die erste und zweite Decodierungsdateneinheit aus mehreren Bilddaten bestehen,
Wiedergewinnen der ersten und zweiten Decodierungsdateneinheit von der digitalen Speichereinrichtung bei der ersten bzw. zweiten Datenstelle
Wiedergewinnen der vorhergehenden Bilddaten von der digitalen Speichereinrichtung,
Decodieren der vorhergehenden Bilddaten als eine Funktion der ersten Decodierungsdateneinheit und, abhängig von einer Stelle des vorhergehenden Bildes, der zweiten Decodierungsdateneinheit.
11. Verfahren nach Anspruch 10, mit dem Schritt eines bei der zweiten Datenstelle startendenden aufeinanderfolgenden Wiedergewinnens mehrere Bilddaten bis zum Erreichen der ersten Datenstelle.
12. Verfahren nach Anspruch 11, mit dem Schritt eines Decodierens der beim Decodieren der vorhergehenden Bilddaten zu verwendenden wiedergewonnen Bilddaten.
13. Verfahren nach Anspruch 12, mit dem Schritt eines Verwerfens der beim Decodieren der vorhergehenden Bilddaten nicht zu verwendenden wiedergewonnen Bilddaten.
14. Verfahren nach Anspruch 10, mit dem Schritt eines bei der ersten Datenstelle startendenden aufeinanderfolgenden Wiedergewinnens mehrere Bilddaten bis zum Erreichen der vorhergehenden Bilddaten.
15. Verfahren nach Anspruch 14, mit dem Schritt eines Bestimmens einer Charakteristik der vorhergehenden Bilddaten, und eines Analysierens aller wiedergewonnenen Bilddaten, um festzustellen, ob sie die Charakteristik aufweisen.
16. Verfahren nach Anspruch 14, mit dem Schritt eines Decodierens der beim Decodieren der vorhergehenden Bilddaten zu verwendenden wiedergewonnen Bilddaten.
17. Verfahren nach Anspruch 16, mit dem Schritt eines Verwerfens der beim Decodieren der vorhergehenden Bilddaten nicht zu verwendenden wiedergewonnen Bilddaten.
18 Verfahren nach Anspruch 10, wobei das Decodieren der vorhergehenden Bilddaten vor dem Empfangen eines Benutzerbefehls zum Beginnen der Rückwärtswiedergabeoperation stattfindet.
19. Verfahren nach Anspruch 10, wobei das codierte digitale Signal ein zeitmultiplexiertes Signal ist.
DE69625629T 1995-01-31 1996-01-30 Dekodierung und Rückwärtswiedergabe von kodierten Signalen Expired - Lifetime DE69625629T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03294095A JP3491365B2 (ja) 1995-01-31 1995-01-31 符号化データ復号方法および復号装置

Publications (2)

Publication Number Publication Date
DE69625629D1 DE69625629D1 (de) 2003-02-13
DE69625629T2 true DE69625629T2 (de) 2003-09-18

Family

ID=12372954

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69625629T Expired - Lifetime DE69625629T2 (de) 1995-01-31 1996-01-30 Dekodierung und Rückwärtswiedergabe von kodierten Signalen

Country Status (13)

Country Link
US (4) US5768466A (de)
EP (1) EP0725399B1 (de)
JP (1) JP3491365B2 (de)
KR (1) KR100405249B1 (de)
CN (1) CN1129310C (de)
AT (1) ATE230893T1 (de)
AU (1) AU699801B2 (de)
BR (1) BR9600279A (de)
CA (1) CA2167985C (de)
DE (1) DE69625629T2 (de)
ES (1) ES2187615T3 (de)
MX (1) MX9600411A (de)
MY (1) MY118067A (de)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6243171B1 (en) * 1994-07-29 2001-06-05 Fuji Photo Film Co., Ltd. Laboratory system, method of controlling operation thereof, playback apparatus and method, film image management method, image data copying system and method of copying image data
US6208655B1 (en) * 1996-11-27 2001-03-27 Sony Europa, B.V., Method and apparatus for serving data
JP4013286B2 (ja) * 1997-01-22 2007-11-28 松下電器産業株式会社 画像符号化装置と画像復号化装置
US7043584B2 (en) * 1997-02-18 2006-05-09 Thomson Licensing Interrupt prioritization in a digital disk apparatus
US6167083A (en) * 1997-04-04 2000-12-26 Avid Technology, Inc. Computer system and process for capture editing and playback of motion video compressed using interframe and intraframe techniques
JPH10322665A (ja) * 1997-05-07 1998-12-04 Lsi Logic Corp Gopデータの反復読出し制御方法および装置
JP3185863B2 (ja) * 1997-09-22 2001-07-11 日本電気株式会社 データ多重化方法および装置
GB9721662D0 (en) * 1997-10-14 1997-12-10 Philips Electronics Nv Encoded video signal formatting
JP3197855B2 (ja) * 1997-11-06 2001-08-13 三洋電機株式会社 Mpegデータの再生装置
US6173069B1 (en) 1998-01-09 2001-01-09 Sharp Laboratories Of America, Inc. Method for adapting quantization in video coding using face detection and visual eccentricity weighting
JPH11282496A (ja) * 1998-03-30 1999-10-15 Matsushita Electric Ind Co Ltd 復号装置
US6353700B1 (en) * 1998-04-07 2002-03-05 Womble Multimedia, Inc. Method and apparatus for playing an MPEG data file backward
FR2780186B1 (fr) * 1998-06-23 2000-08-11 St Microelectronics Sa Procede et dispositif de decodage d'une image, comprimee notamment selon les normes mpeg, en particulier une image bidirectionnelle
DE19846676C1 (de) * 1998-10-09 2000-03-02 Siemens Ag Verfahren zur Absicherung von Einsprungsadressen
WO2000022820A1 (en) * 1998-10-09 2000-04-20 Sarnoff Corporation Method and apparatus for providing vcr-type controls for compressed digital video sequences
US6654539B1 (en) * 1998-10-26 2003-11-25 Sony Corporation Trick playback of digital video data
EP1005226A3 (de) * 1998-11-25 2001-03-21 Sony Corporation MPEG Wiedergabe-Anlage und -Verfahren
JP3715533B2 (ja) * 1999-02-05 2005-11-09 株式会社東芝 ストリーム情報の情報記憶媒体、その記録方法、再生方法、記録装置および再生装置
US7242847B1 (en) 1999-06-18 2007-07-10 Intel Corporation Systems and methods for editing video streams using a grid-based representation
US7190883B2 (en) 1999-06-18 2007-03-13 Intel Corporation Systems and methods for fast random access and backward playback of video frames using decoded frame cache
US7317866B1 (en) 1999-08-17 2008-01-08 Thomson Licensing Reproducing a digital datastream containing program information for trick mode display
JP2001111961A (ja) * 1999-08-17 2001-04-20 Deutsche Thomson Brandt Gmbh トリックモード表示用プログラム情報を含むデジタルデータストリームの再生方法及び装置
WO2001026375A1 (en) * 1999-10-07 2001-04-12 Thomson Licensing S.A. Trick play signal generation for a digital video recorder
WO2001033832A1 (fr) * 1999-10-29 2001-05-10 Fujitsu Limited Appareil de reproduction d'images et appareil d'enregistrement/reproduction d'images
US6693857B1 (en) 1999-11-04 2004-02-17 Thomson Licensing S.A. Data buffer management to enable apparent simultaneous record and playback from a rewritable digital disk
US6658198B1 (en) 1999-11-04 2003-12-02 Thomson Licensing S.A. Precessed recording for rewritable disk medium
US6778265B1 (en) 1999-11-10 2004-08-17 Thomson Licensing S.A. Copy feature for recordable DVD editing
US6707778B1 (en) 1999-11-10 2004-03-16 Thomson Licensing S.A. Edit to picture without decoding and re-encoding of MPEG bit stream for recordable DVD
JP2003515290A (ja) * 1999-11-17 2003-04-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Mpegビデオストリームの逆転再生
US7027713B1 (en) 1999-11-30 2006-04-11 Sharp Laboratories Of America, Inc. Method for efficient MPEG-2 transport stream frame re-sequencing
US6658199B1 (en) 1999-12-16 2003-12-02 Sharp Laboratories Of America, Inc. Method for temporally smooth, minimal memory MPEG-2 trick play transport stream construction
US7298959B1 (en) 1999-12-16 2007-11-20 Sharp Laboratories Of America, Inc. Method and apparatus for storing MPEG-2 transport streams using a conventional digital video recorder
EP1156674A1 (de) 2000-05-19 2001-11-21 THOMSON multimedia Verfahren und Vorrichtung zur Dekodierung eines Videodatenstroms in besondere Wiedergabebetriebsarten
JP3846771B2 (ja) * 2000-06-26 2006-11-15 三菱電機株式会社 デコーダおよび再生装置
US8559797B2 (en) * 2000-10-10 2013-10-15 Broadcom Corporation System and method for personal video recording
US7164369B2 (en) 2001-06-19 2007-01-16 Sharp Laboratories Of America, Inc. System for improving storage efficiency of digital files
US7221851B1 (en) 2001-11-26 2007-05-22 Nvidia Corporation Method and system for DVD smooth search transitions
US8958688B2 (en) 2001-11-26 2015-02-17 Nvidia Corporation Method and system for DVD smooth rewind
KR100492567B1 (ko) * 2003-05-13 2005-06-03 엘지전자 주식회사 이동통신 시스템의 http 기반 비디오 스트리밍 장치및 방법
EP1680784A1 (de) * 2003-10-24 2006-07-19 Koninklijke Philips Electronics N.V. Vorwärts- und rückwärtswiedergabe eines signals aus stream-daten
JP3919115B2 (ja) * 2004-08-18 2007-05-23 ソニー株式会社 復号化装置、復号化方法、復号化プログラム及び復号化プログラムが記録された記録媒体、並びにリバース再生装置、リバース再生方法、リバース再生プログラム及びリバース再生プログラムが記録された記録媒体
US20060062388A1 (en) * 2004-09-17 2006-03-23 Gaurav Aggarwal System and method for command for fast I-picture rewind
JP2006101229A (ja) * 2004-09-29 2006-04-13 Toshiba Corp 映像再生装置
US20060158677A1 (en) * 2005-01-18 2006-07-20 Atousa Soroushi Enhanced image data processing method and apparatus
EP1900218A4 (de) * 2005-04-28 2009-08-26 Samsung Electronics Co Ltd Einrichtung und verfahren zum initialisieren eines decoders in einem digitalausstrahlungsempfänger
WO2007072252A2 (en) * 2005-12-23 2007-06-28 Koninklijke Philips Electronics N.V. Creation of 'trick-play' streams for plaintext, partially, or fully encrypted video streams
KR100754736B1 (ko) * 2006-02-10 2007-09-03 삼성전자주식회사 영상 수신 시스템에서 영상 프레임의 재생 방법 및 그 장치
JP4715633B2 (ja) * 2006-05-19 2011-07-06 ソニー株式会社 記録装置、記録方法および記録プログラム、ならびに、編集装置、編集方法および編集プログラム
US8090718B2 (en) * 2008-04-17 2012-01-03 Research In Motion Limited Methods and apparatus for improving backward seek performance for multimedia files
US9247179B2 (en) 2012-11-19 2016-01-26 Nvidia Corporation Reverse video playback in a data processing device
CN105141965A (zh) * 2015-08-05 2015-12-09 中央电视台 一种编码方法及装置
TWI665663B (zh) * 2018-08-22 2019-07-11 張維中 影音倒轉播放裝置與系統及其方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5502570A (en) * 1990-02-13 1996-03-26 Canon Kabushiki Kaisha Images reproducing method capable of skipping reproduction of collateral information during reproduction in a special mode
AU657510B2 (en) * 1991-05-24 1995-03-16 Apple Inc. Improved image encoding/decoding method and apparatus
JP3161614B2 (ja) * 1991-11-30 2001-04-25 ソニー株式会社 動画像復号化装置
US5377051A (en) * 1993-01-13 1994-12-27 Hitachi America, Ltd. Digital video recorder compatible receiver with trick play image enhancement
US5535008A (en) * 1993-03-16 1996-07-09 Victor Company Of Japan, Ltd. Method for jump-reproducing video data of moving picture coded with high efficiency
JP3128393B2 (ja) * 1993-05-31 2001-01-29 三洋電機株式会社 圧縮動画像再生装置
US5596564A (en) * 1993-10-08 1997-01-21 Matsushita Electric Industrial Co., Ltd. Information recording medium and apparatus and method for recording and reproducing information
JP3097437B2 (ja) * 1994-03-14 2000-10-10 松下電器産業株式会社 圧縮動画像の記録方法と再生装置
JP3607315B2 (ja) * 1994-03-23 2005-01-05 パイオニア株式会社 動画像復号化装置

Also Published As

Publication number Publication date
MX9600411A (es) 1997-06-28
MY118067A (en) 2004-08-30
CA2167985C (en) 2006-03-21
JPH08214264A (ja) 1996-08-20
ES2187615T3 (es) 2003-06-16
AU4226596A (en) 1996-08-08
JP3491365B2 (ja) 2004-01-26
US5802242A (en) 1998-09-01
KR100405249B1 (ko) 2004-02-05
AU699801B2 (en) 1998-12-17
DE69625629D1 (de) 2003-02-13
EP0725399A3 (de) 1997-07-16
EP0725399B1 (de) 2003-01-08
BR9600279A (pt) 1997-12-23
US6047101A (en) 2000-04-04
US6078722A (en) 2000-06-20
ATE230893T1 (de) 2003-01-15
CN1129310C (zh) 2003-11-26
EP0725399A2 (de) 1996-08-07
CA2167985A1 (en) 1996-08-01
US5768466A (en) 1998-06-16
CN1136260A (zh) 1996-11-20
KR960030200A (ko) 1996-08-17

Similar Documents

Publication Publication Date Title
DE69625629T2 (de) Dekodierung und Rückwärtswiedergabe von kodierten Signalen
DE69627069T2 (de) Wiedergabe von kodierten Daten bei Rückwärtswiedergabebetrieb
DE69615111T2 (de) Gerät und Verfahren zur Kodierung von digitalen Videodaten
DE69320620T2 (de) Vorrichtung und verfahren zur verarbeitung von digitalen videosignalen
DE69525911T2 (de) Gerät und Verfahren zum Dekodieren von Daten
DE69633838T2 (de) Kodierung und Dekodierung von Bewegtbildern
DE60130180T2 (de) Verfahren zur kodierung und dekodierung, aufzeichnungsmedium und programm
DE69427578T2 (de) Verfahren und anlage zum übertragen von daten, datenkodierer und datenaufnahmemedium
DE69530407T2 (de) Digitaler videorecorder mit umschaltung auf spezialwiedergabe
DE69633578T2 (de) Verfahren und Vorrichtung zum rastergenauen Zugriff auf digitale audiovisuelle Information
DE69328656T2 (de) Bilddatenverarbeitung
DE69327031T2 (de) Editiergerät für kodierte Videodaten und Dekodiergerät für editierte kodierte Videodaten
DE69532594T2 (de) Steuerungsvorrichtung für codierte Daten
DE69516935T2 (de) Aufnahmemedium zur Aufzeichnung und Wiedergabe von Daten
DE69528091T2 (de) Verfahren und Vorrichtung zum Aufzeichnen und Wiedergeben von komprimierten Videodaten
DE69901866T2 (de) Verfahren zur bilddatenverarbeitung
DE60003844T2 (de) Beseitigen von bildformatstörungen in mpeg spezialwiedergabemoden
DE69519653T2 (de) Datenwiedergabe
DE69516240T2 (de) Aufnahme-/Wiedergabeanlage
DE60223483T2 (de) Verfahren zum aufzeichenen eines digitalen Rundfunkprogramms und zeitbasierter Wiedergabe eines aufgezeichneten Rundfunkprogramms und zugehörige Vorrichtung
DE69833775T2 (de) Formatierung von kodierten videosignalen
DE10214077B4 (de) Bildsuchgerät
US6947660B2 (en) Motion picture recording/reproduction apparatus
DE69425788T2 (de) Digitaler Videorekorder für Videosignale mit hoher Auflösung mit hoch aufgelöster Anzeige in speziellen Wiedergabebetreibsarten
DE69721952T2 (de) Gerät und Verfahren zur Dekodierung und Wiedergabe digitaler Video- und Sprachsignale ohne Unterbrechung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition