DE69738035T2 - Verfahren zum Anzeigezeitstempeln und zur Synchronisation mehrerer Viedeoobjektebenen - Google Patents

Verfahren zum Anzeigezeitstempeln und zur Synchronisation mehrerer Viedeoobjektebenen Download PDF

Info

Publication number
DE69738035T2
DE69738035T2 DE1997638035 DE69738035T DE69738035T2 DE 69738035 T2 DE69738035 T2 DE 69738035T2 DE 1997638035 DE1997638035 DE 1997638035 DE 69738035 T DE69738035 T DE 69738035T DE 69738035 T2 DE69738035 T2 DE 69738035T2
Authority
DE
Germany
Prior art keywords
vop
time base
time
video object
modulo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE1997638035
Other languages
English (en)
Other versions
DE69738035D1 (de
Inventor
Thiow Keng Tan
Sheng Mei Windermere Shen
Chak Joo Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Application granted granted Critical
Publication of DE69738035D1 publication Critical patent/DE69738035D1/de
Publication of DE69738035T2 publication Critical patent/DE69738035T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/29Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving scalability at the object level, e.g. video object layer [VOL]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Synchronisation In Digital Transmission Systems (AREA)

Description

  • Technisches Gebiet
  • Diese Erfindung ist nützlich bei der Kodierung digitalen audiovisuellen Materials, wobei ein Bedarf zur Synchronisierung von mehr als einem unabhängig kodierten audiovisuellen Objekt zur Darstellung besteht. Sie ist insbesondere geeignet, wenn die zeitliche Abtastung des audiovisuellen Materials nicht die Gleiche ist.
  • Technischer Hintergrund
  • Bei MPEG-1 und MPEG-2 besteht das eingegebene Video aus in regelmäßigen Zeitintervallen abgetasteten Bild-Rahmen. Dieses stellt die feinste zeitliche Auflösung des Eingangssignales dar. 1 zeigt eine Videofolge mit festen Rahmen-Frequenzen, wobei die Bild-Rahmen in regelmäßigen Intervallen abgetastet werden. Bei der kodierten Darstellung der Videofolge unter Verwendung der MPEG-1- und MPEG-2-Standards wird die Anzeigereihenfolge der kodierten Rahmen durch den zeitlichen Bezug angegeben. Dieser Parameter erscheint in dem Bild-Header der Bitstrom-Syntax. Der Wert dieses Parameters wird für jeden dekodierten Rahmen um Eins erhöht, wenn Sie in der Anzeigereihenfolge der geprüft werden.
  • In dem H.263-Standard ist es möglich, Rahmen zu überspringen und somit eine Videofolge mit veränderlicher Rahmenfrequenz zu dekodieren. Die Abtastung der Rahmen ist jedoch immer noch fest. Somit ist das bei MPEG-1 und MPEG-2 verwendete zeitliche Bezugsverfahren noch geeignet und muss nur derart modifiziert werden, dass die Erhöhung nicht in Schritten von 1 sondern in den Schritten von 1 plus der Anzahl der nicht gesendeten Bilder mit der Eingangs-Rahmenfrequenz erhöht wird.
  • Gegenwärtig wird im Bereich der Kodierung von Video als separate Objekte in einer Mehrzahl von Videoobjektebenen gearbeitet. Dieses stellt eine neue Dimension in der Dekodierung und Synchronisierung der entsprechenden Videoobjekte dar. Es wird erwartet, dass diese verschiedenen Videoobjektebenen von mehreren Quellen kommen und sehr verschiedene Rahmen-Frequenzen aufweisen können. Diese Videoobjektebenen werden in einem zusammengefügten Bild zur Anzeige zusammengefasst. Da her werden einige Synchronisierungsarten für die Zusammensetzung benötigt. Es ist möglich, dass sich die Anzeige-Rahmen-Frequenz von jeder der Rahmen-Frequenzen der Videoobjektebenen unterscheidet. 2 zeigt ein Beispiel von zwei Videoobjektebenen mit verschiedenen und variierenden Rahmen-Frequenzen, verglichen miteinander. Auch wenn eine gemeinsame Rahmen-Frequenz zwischen den zwei Videoobjektebenen gefunden werden kann, ist es nicht automatisch so, dass diese Rahmen-Frequenz die Gleiche ist, wie die Ausgabe-Rahmen-Frequenz des Zusammenfügers.
  • Nachfolgend beziehen wir uns auf das Problem in dem Videobereich. Die gleichen Prinzipien dieser Erfindung können jedoch ebenso auf den Audiobereich ausgedehnt werden, ebenso wie auf Kombinationen der zwei.
  • Aus dem Obigen wird deutlich, dass der gegenwärtige Stand der Technik in die Synchronisierung von Videoobjektebenen nicht berücksichtigt. Der Stand der Technik stellt ebenfalls keine gemeinsame zeitliche Referenz bereit, wenn die verschiedenen Videoobjektebenen verschiedene Rahmen-Frequenzen aufweisen, welche nicht Vielfache voneinander sind.
  • Das erste Problem ist, wie ein gemeinsamer, lokaler Zeitbasis-Mechanismus für jede Videoobjektebene bereitgestellt werden kann. Diese Zeitbasis soll in der Lage sein, eine sehr feine zeitliche Auflösung zur Verfügung zu stellen, und gleichzeitig in der Lage sein, die Möglichkeit sehr langer Intervalle zwischen zwei aufeinanderfolgenden Instanzen der Videoobjektebenen zu handhaben.
  • Das zweite Problem ist das Bereitstellen eines Mechanismus zum Synchronisieren von Videoobjektebenen mit verschiedenen Rahmen-Frequenzen.
  • Offenbarung der Erfindung
  • Die obigen Probleme können gelöst werden durch Implementieren einer gemeinsamen zeitlichen Auflösung, welche für die gesamte lokale Zeitbasis verwendet wird. Um den breiten Bereich zeitlicher Auflösung zu berücksichtigen, ist die lokale Zeitbasis in zwei verschiedene Teile aufgeteilt. Der erste Teil enthält die feine zeitliche Auflösung, welche eine Kurzzeitbasis bereitstellt. Der zweite Teil enthält eine grobe zeitliche Auflösung, welche eine Langzeitbasis bereitstellt. Die Kurzzeitbasis ist in jeder der Videoobjektebenen enthalten zum Bereitstellen einer zeitlichen Referenz für die Instanzen der Videoobjekte. Die Kurzzeitbasis wird dann mit der Langzeitbasis synchronisiert, welche für sämtliche Videoobjektebenen gemeinsamen vorhanden ist. Sie wird verwendet zum Synchronisieren sämtlicher verschiedener Videoobjektebenen mit einer durch die Master-Uhr bereitgestellten, gemeinsamen Zeitbasis.
  • Erfindungsgemäße Verfahren sind in den Ansprüchen definiert.
  • Kurzbeschreibung der Zeichnungen
  • Die vorliegende Erfindung wird besser verständlich aus der unten gegebenen, detaillierten Beschreibung und den beigefügten Zeichnungen. Dabei zeigen:
  • 1 die zeitliche Abtastung im Stand der Technik, wobei die Rahmen der Videofolge in regelmäßigen Intervallen abgetastet werden;
  • 2 das Konzept der Videoobjektebenen und die Beziehung zueinander. Die Abtastung der Videoobjektebenen kann unregelmäßig sein und die Abtastperiode kann drastisch variieren;
  • 3A die vorliegende Erfindung, wobei die zeitliche Referenz der Videoobjekte durch die Modulo-Zeitbasis und das VOP-Zeit-Inkrement angegeben wird. Die Darstellung verwendet nur I- und P-VOP;
  • 3B die vorliegende Erfindung, wobei die zeitliche Referenz der Videoobjekte durch die Modulo-Zeitbasis und das VOP-Zeit-Inkrement angegeben wird. Die Darstellung verwendet I-, P- und B-VOP;
  • 4 ein Beispiel der Mehrdeutigkeit, die entstehen kann, wenn die Darstellungsreihenfolge und die Kodierungsreihenfolge verschiedenen sind, als Ergebnis von B-Videoobjektebenen;
  • 5 eine Lösung der Mehrdeutigkeit durch verwenden absoluter und relativer Zeitbasen;
  • 6 das Zusammenfassen von zwei VOP'n und deren Synchronisierung mit der gemeinsamen Zeitbasis durch verwenden von VOP-Zeit-Offsets;
  • 7 das Flussdiagramm für das Kodieren der Zeitbasis;
  • 8 das Flussdiagramm für das Multiplexen von mehr als einer Videoobjektebene;
  • 9 das Flussdiagramm für das Demultiplexen von mehr als einer Videoobjektebene;
  • 10 das Flussdiagramm für die Wiederherstellung der Darstellungs-Zeitmarke;
  • 11 das Blockschaltbild für die Vorgänge des Bitstrom-Kodierers zum Kodieren der Zeitbasis;
  • 12 das Blockschaltbild für die Vorgänge des Bitstrom-Dekodierers zum Dekodieren der Zeitbasis; und
  • 13 das Zeitdiagramm zum Bilden von Bitstrom-Daten.
  • Beste Form zum Ausführen der Erfindung
  • Diese Erfindung wirkt durch Bereitstellen von zwei Formen von Synchronisierung. Die erste ist eine der Videoobjektebene zugeordnete Kurzzeitbasis. Nachfolgend wird diese Zeitbasis als VOP-Zeit-Inkrement bezeichnet. Das VOP-Zeit-Inkrement ist der Zeitsteuerungs-Mechanismus für die Videoobjektebene, bezogen auf die Langzeitbasis, welche einer Gruppe von Videoobjektebenen zugeordnet ist, die zu dekodieren und zusammenzufügen sind. Die Langzeitbasis wird als die Modulo-Zeitbasis bezeichnet. Das VOP-Zeit-Inkrement und die Modulo-Zeitbasis werden dann in Verbindung miteinander verwendet, um die tatsächliche Zeitbasis zur Verwendung für die Zusammenfügung der Videoobjektebenen in die letzte zusammengefügte Folge zur Anzeige zu bestimmen.
  • Um das Bearbeiten des Bitstromes und Zusammenfassen verschiedener Videoobjektebenen von verschiedenen Quellen in eine neue Gruppe von Videoobjektebenen zu unterstützen, besteht ein Bedarf für eine dritte Komponente, um einen festen Offset-Betrag zwischen der lokalen Zeitbasis der einzelnen Videoobjektebene und der gemeinsamen Zeitbasis zu erlauben. Dieser Offset wird nachfolgend als VOP-Zeit-Offset bezeichnet. Dieses verhindert, dass die verschiedenen Videoobjektebenen mit einer Auflösung äquivalent zu dem Modulo-Zeitbasis-Intervall synchronisiert werden müssen. Diese Komponente soll für jede Videoobjektebene innerhalb der Gruppe der miteinander gemultiplexten Videoobjektebenen konstant gehalten werden.
  • Zuerst wird die Modulo-Zeitbasis beschrieben.
  • Die Modulo-Zeitbasis stellt eine grobe Auflösung der lokalen Zeitbasis dar. Sie hat nicht einen Wert wie das VOP-Zeit-Inkrement. Tatsächlich ist sie eher ein Synchronisierungs-Mechanismus zum Synchronisieren des VOP-Zeit-Inkrements mit der lokalen Zeitbasis der Videoobjektebene. Sie wird in dem kodierten Bitstrom als Markierer platziert, um anzuzeigen, dass das VOP-Zeit-Inkrement der Videoobjektebenen, das folgt, zurückzusetzen ist, und dass die Referenz der lokalen Zeitbasis um eine oder mehr Einheiten des Modulo-Zeitbasis-Intervalls zu inkrementieren ist. In den 3A, 3B, 4, 5 und 6 ist die Modulo-Zeitbasis gezeigt als eine Reihe von null oder mehr "1", abgeschlossen mit einer "0", eingefügt in den Bitstrom-Header vor dem VOP-Zeit-Inkrement. Die Anzahl von in den Bitstrom eingefügten "1" hängt ab von der Anzahl von Einheiten der Modulo-Zeitbasis, die seit dem letzten Kode einer I- oder P-Videoobjektebene verstrichen sind. In dem Kodierer und Dekodierer wird der Modulo-Zeitbasis-Zähler für jede "1" um Eins inkrementiert. Der Modulo-Zeitbasis-Zähler ist in der Länge endlich und daher wird in einem praktischen System die Modulo-Zeitbasis auf Null zurückgesetzt, wenn der maximale Wert überschritten wird. In einer typischen Videofolge bilden die Videoobjektebenen eine Gruppe von VOP. Daher wird die Modulo-Zeitbasis gewöhnlich bei Beginn dieser Gruppe von VOP zurückgesetzt.
  • Als Nächstes wird das VOP-Zeit-Inkrement beschrieben.
  • Das VOP-Zeit-Inkrement soll Einheiten aufweisen, welche die kürzeste zeitliche Abtastung der Videoobjekte unterstützen können. Es kann ebenfalls die ursprüngliche Zeitbasis für das Objekt sein, welches übergeben wird. Es stellt daher die feinste Auflösung der zeitlichen Auflösung dar, die erforderlich ist oder unterstützt werden kann.
  • Das VOP-Zeit-Inkrement kann dann durch eine endlich lange Zahl größer oder gleich dem Verhältnis des globalen Zeitbasis-Intervalls zu der lokalen Zeitbasis-Auflösung angegeben sein. 3A zeigt ein Beispiel des VOP-Zeit-Inkrements für I- und P-Videoobjektebenen und die Referenz zu der Modulo-Zeitbasis. Eine absolute Zeitbasis wird verwendet. Das VOP-Zeit-Inkrement wird jedesmal zurückgesetzt, wenn die Modulo-Zeitbasis gezählt wird. 3B zeigt ein weiteres Beispiel unter Verwendung von I-, P- und B-Videoobjektebenen. Dieser Vorgang ist der gleiche, mit der Ausnahme, dass die Modulo-Zeitbasis in den B-Videoobjektebenen wiederholt wird. Wenn die Mo dulo-Zeitbasis nicht in der B-Videoobjektebene wiederholt wird, treten Mehrdeutigkeiten in Folge der Differenz zwischen Dekodierungs- und Darstellungs-Reihenfolge auf. Dies wird detailliert unten beschrieben.
  • Da das VOP-Zeit-Inkrement der Darstellungs-Zeitbasis entspricht, ergibt sich ein Potenzial-Problem, wenn die Kodier-Reihenfolge sich von der Darstellungs-Reihenfolge unterscheidet. Dieses tritt bei B-Videoobjektebenen auf. Vergleichbar mit MPEG-1- und MPEG-2-B-Bildern werden B-Videoobjektebenen nach deren Referenz-I- und P-Videoobjektebenen kodiert, auch wenn sie den Referenz-Videoobjekten der Darstellungs-Reihenfolge vorausgehen. Da das VOP-Zeit-Inkrement endlich ist und sich auf die Modulo-Zeitbasis bezieht, wird das VOP-Zeit-Inkrement zurückgesetzt, wenn die Modulo-Zeitbasis gezählt wird. Die Reihenfolge zum Kodieren der B-Videoobjektebenen wurde jedoch verzögert. 4 zeigt die Mehrdeutigkeit, die auftreten kann. Es ist nicht möglich, zu bestimmen, wann das VOP-Zeit-Inkrement zurückgesetzt werden soll. Wenn tatsächlich eine Folge kodierter Ereignisse gegeben ist, wie in 4A, ist es nicht möglich, zu wissen, welche der Timing-Situationen der 4B, 4C und 4D darzustellen versucht wird. Dieses Problem ergibt sich aus der Verwendung einer Modulo-Zeitbasis, die von sämtlichen verschiedenen Typen von Videoobjekten gemeinsam genutzt wird, gekoppelt mit der Differenz zwischen der Kodierungs- und Darstellungs-Reihenfolge. Es gibt nichts, was an der Kodierungs-Reihenfolge getan werden kann, da die Referenz-Information von den B-Videoobjektebenen benötigt wird. Es ist ebenfalls nicht erwünscht, eine unabhängige Modulo-Zeitbasis für den abweichenden Vorhersage-Typ zu haben. Daher ist die Lösung, das VOP-Zeit-Inkrement der B-Videoobjektebenen als einen relativen Wert zu den vorausgehenden I- und P-Videoobjektebenen und nicht den B-Videoobjektebenen zu kodieren. Diese Lösung ist in 5 dargestellt.
  • Als Nächstes wird das VOP-Zeit-Offset beschrieben.
  • Neben dem Obenstehenden wird die Modulo-Zeitbasis von allen Videoobjektebenen gemeinsam genutzt. Das bedeutet, dass die Synchronisierung der verschiedenen Videoobjekte eine Auflösung äquivalent zu dem Modulo-Zeitbasis-Intervall aufweist. Dies ist unannehmbar, insbesondere in dem Fall, in welchem Videoobjektebenen von verschiedenen Gruppen zusammengefasst werden, um eine neue Gruppe von Videoob jektebenen zu bilden. 6 zeigt ein Beispiel von zwei verschiedenen Videoobjektebenen, die mit zwei verschiedenen lokalen Zeitbasen kodiert sind, die gegeneinander versetzt sind. Wenn die Videoobjektebenen gemultiplext werden, ist somit die Synchronisierung der Videoobjektebenen ebenfalls versetzt. Eine feinere Auflösung wird verwirklicht, indem jeder einzelnen Videoobjektebene ermöglicht wird, einen VOP-Zeit-Offset aufzuweisen. Das bedeutet, dass nur dieser Wert verändert wird, wenn die Videoobjektebenen verändert und gemultiplext werden. Es gibt keinen Bedarf, das VOP-Zeit-Inkrement zu ändern und nun ist es möglich, verschiedene Videoobjektebenen ohne grobe Timing-Differenzen zu multiplexen. 6 zeigt die Verwendung dieser Zeitbasis-Offsets.
  • Die bevorzugte Ausführungsform der vorliegenden Erfindung betrifft ein Verfahren zum Kodieren der Zeitbasis für jeden der einzelnen Videoobjektebenen-Bitströme, ein Verfahren zum Multiplexen verschiedener Videoobjektebenen in einer gemeinsamen Zeitbasis, ein Verfahren zum Demultiplexen des gemultiplexten Bitstromes in die Komponenten und ein Verfahren zum Wiederherstellen der Zeitbasis aus dem Komponenten-Bitstrom.
  • Das Kodieren der Zeitbasis wird beschrieben.
  • Das Flussdiagramm der Ausführungsform der Zeitbasis-Kodierung ist in 7 gezeigt. In dem Kodierer wird die lokale Zeitbasis in Schritt 1 zuerst mit der lokalen Anfangszeit initialisiert. Der Ablauf geht über zu Schritt 2, wo der Kodierer den gegenwärtigen Wert der lokalen Zeitbasis bestimmt. In Schritt 3 wird die erhaltene lokale Zeitbasis mit der vorher kodierten Modulo-Zeitbasis verglichen, um zu erkennen, ob das Intervall das Modulo-Zeitbasis-Intervall überschritten hat. Wenn das Intervall überschritten wurde, geht die Steuerung über zu Schritt 4, wo die erforderliche Zahl der Modulo-Zeitbasis in den Bitstrom eingefügt wird. Wenn das Intervall nicht überschritten wurde, ist keine besondere Handhabung erforderlich. Die Verarbeitung geht dann weiter zu Schritt 5, wo das VOP-Zeit-Inkrement in den Bitstrom eingefügt wird. Der Gegenstand wird dann in Schritt 6 kodiert und in den Bitstrom eingefügt. Der Kodierer prüft dann in Schritt 7, ob mehr zu kodierende Gegenstände vorhanden sind. Wenn mehr Gegenstände zu kodieren sind, wird der Ablauf ab Schritt 2 wieder aufgenommen, wo die loka le Zeitbasis erhalten wird. Wenn nicht mehr Gegenstände zu kodieren sind, endet der Ablauf.
  • Die folgenden Formeln werden verwendet, um die absoluten oder relativen VOP-Zeit-Inkremente für I/P-Videoobjektebenen und B-Videoobjektebenen zu bestimmen. tGTBn = n × tGTBI + tGTB0 (n = 0, 1, 2, 3, ...) (1) tAVTI = tTBI/P – tGTBn (2) tRVTI = tETB – tETBI/P (3)wobei
  • tGTBn
    die Kodierer-Zeitbasis ist, markiert durch die n-te kodierte Modulo-Zeitbasis,
    tGTBI
    das vorbestimmte Modulo-Zeitbasis-Intervall ist,
    tGTB0
    die Kodierer-Zeitbasis-Anfangszeit ist,
    tAVTI
    das absolute VOP-Zeit-Inkrement für die I- oder P-Videoobjektebenen ist,
    tETBI/P
    die Kodierer-Zeitbasis am Anfang der Kodierung der I- oder P-Videoobjektebenen ist,
    tRVTI
    das relative VOP-Zeit-Inkrement für die B-Videoobjektebenen ist, und
    tETBB
    die Kodierer-Zeitbasis am Beginn der Kodierung der B-Videoobjektebene ist.
  • Als Nächstes wird das Multiplexen von mehr als einer Videoobjektebene beschrieben. Wenn mehr als eine Videoobjektebene miteinander gemultiplext werden, untersucht der Multiplexer die mehreren Bitströme der Videoobjektebenen zum Bestimmen der Reihenfolge des Multiplexens ebenso wie der Synchronisierung. Die beteiligten Vorgänge sind in 8 dargestellt. Die VOP-Zeit-Offsets für jede der zu multiplexenden Videoobjektebenen werden in Schritt 11 in den Bitstrom eingefügt. Sämtliche Bitströme der zu multiplexenden Videoobjektebenen werden dann in Schritt 12 untersucht, um zu bestimmen, ob sämtliche Ebenen ihre entsprechende Modulo-Zeitbasis aufweisen. Wenn dies der Fall ist, geht die Verarbeitung über zu Schritt 13, wo eine gemeinsame Modulo-Zeitbasis in den gemultiplexten Bitstrom eingefügt wird. Die Verarbeitung geht dann über zu Schritt 14, wo das nächste kodierte Videoobjekt in den gemultiplexten Bitstrom eingefügt wird. In Schritt 15 werden die Bitströme der zu multiplexenden Videoobjektebenen erneut untersucht, um zu erkennen, ob mehrere zu multip lexende Videoobjekte vorhanden sind. Wenn dies der Fall ist, geht die Steuerung erneut zu Schritt 12 über. Anderenfalls endet der Ablauf.
  • Das Demultiplexen des Bitstromes mit mehr als einer Videoobjektebene wird beschrieben.
  • Das Demultiplexen des Bitstromes mit mehreren Videoobjektebenen ist in 9 dargestellt. Der Ablauf beginnt in Schritt 21, wo die VOP-Zeit-Offsets dekodiert und zur Synchronisierung zu den Dekodierern weitergeleitet werden. Der gemultiplexte Bitstrom wird dann in Schritt 22 untersucht, um zu erkennen, ob die Modulo-Zeitbasis gefunden ist. Wenn die Modulo-Zeitbasis gefunden ist, geht der Ablauf über zu Schritt 23, wo die Modulo-Zeitbasis in sämtliche Videoobjekte-Bitströme eingefügt wird. Die Verarbeitung wird dann mit Schritt 24 fortgesetzt, wo das nächste Videoobjekt untersucht und in den geeigneten Videoobjekt-Bitstrom eingefügt wird. Schließlich wird der gemultiplexte Bitstrom erneut untersucht, um zu erkennen, ob noch ein zu demultiplexendes Videoobjekt vorhanden ist. Wenn dies der Fall ist, geht der Ablauf erneut zu Schritt 22 über. Anderenfalls endet der Ablauf.
  • Das Wiederherstellen der Zeitbasis wird beschrieben.
  • Die Ausführungsform der Zeitbasis-Wiederherstellung ist in 10 gezeigt. Beim Wiederherstellen der lokalen Zeitbasis beginnt der Ablauf in Schritt 31, wo die lokale Zeitbasis initialisiert wird, unter Berücksichtigung des durch den Demultiplexer dekodierten VOP-Zeit-Offset. Der Ablauf geht dann über zu Schritt 32, welcher den Bitstrom prüft, um zu bestimmen, ob die Modulo-Zeitbasis dekodiert ist. Wenn die Modulo-Zeitbasis dekodiert ist, geht der Ablauf über zu Schritt 33, wo die lokale Zeitbasis mit dem Modulo-Zeitbasis-Inkrement inkrementiert wird. Der Ablauf geht dann über zu Schritt 37. Wenn die Modulo-Zeitbasis nicht dekodiert ist, geht der Ablauf über zu Schritt 34, wo das Videoobjekt untersucht wird, um zu bestimmen, ob es ein B-Videoobjekt ist, oder nicht. Wenn dies der Fall ist, geht der Ablauf über zu Schritt 35, wo die B-Videoobjekt-Dekodierungs-Zeitbasis basierend auf Gleichung (6) berechnet wird. Der Ablauf geht dann über zu Schritt 37. Wenn das Ergebnis in Schritt 34 nicht ein B-Videoobjekt ist, geht der Ablauf über zu Schritt 36, wo die Dekodierungs-Zeitbasis basierend auf Gleichung (5) berechnet wird. Der Ablauf geht dann über zu Schritt 37. In Schritt 37 wird der Bitstrom untersucht, um zu erkennen, ob mehr als ein zu dekodie rendes Videoobjekt vorhanden ist. Wenn dies der Fall ist, geht der Ablauf erneut zu Schritt 32 über. Anderenfalls endet die Verarbeitung.
  • Die folgenden Formeln werden verwendet, und die Darstellungs-Zeitmarke der Videoobjekte zu bestimmen: tGTBn = n × tGTBI + tGTB0 (n = 1, 2, 3, ...) (4) tDTBI/P = tAVTI + tGTBn (5) tDTBB = tRVTI + tDTBI/P (6)wobei
  • tGTBn
    die Dekodierungs-Zeitbasis ist, markiert durch die n-te dekodierte Modulo-Zeitbasis,
    tGTBI
    ist das vorbestimmte Modulo-Zeitbasis-Intervall,
    tGTB0
    ist die Dekodierungs-Zeitbasis-Anfangszeit,
    tDTBI/P
    ist die Dekodierungs-Zeitbasis am Beginn der Dekodierung der I- oder P-Videoobjektebenen,
    tAVTI
    ist das dekodierte absolute VOP-Zeit-Inkrement für die I- oder P-Videoobjektebenen,
    tDTBB
    ist die Dekodierungs-Zeitbasis am Beginn der Dekodierung der B-Videoobjektebene, und
    tRVTI
    ist das dekodierte relative VOP-Zeit-Inkrement für die B-Videoobjektebenen.
  • Die Implementierung des Bitstrom-Kodierers wird beschrieben.
  • 11 zeigt das Blockschaltbild für eine Implementierung des Bitstrom-Kodierers zum Kodieren der Modulo-Zeitbasis und des VOP-Zeit-Inkrements. Zum Zweck dieser Illustration wird das Beispiel in 3B verwendet. Da eine bidirektionale Vorschau verwendet wird, unterscheidet sich die Kodierungs-Reihenfolge von der in 3B gezeigten Darstellungs-Reihenfolge. Die Kodierungs-Reihenfolge beginnt mit der I-VOP, gefolgt von der P-VOP vor der B-VOP. Dies wird in den drei Absätzen unten dargestellt.
  • Der Ablauf beginnt in dem Initialisierer, Schritt 41, wo der Bitstrom-Kodierer beginnt durch initialisieren des lokalen Zeitbasis-Registers mit dem Anfangswert des Zeit-Kodes. Der gleiche Zeit-Kode-Wert wird in den Bitstrom kodiert. Am Beginn der Kodie rung der nächsten I-VOP vergleicht, Schritt 42, der Zeit-Kode-Komparator die Darstellungszeit der I-VOP mit dem lokalen Zeitbasis-Register. Das Ergebnis wird zu dem Modulo-Zeitbasis-Kodierer weitergeleitet, Schritt 43. Der Modulo-Zeitbasis-Kodierer fügt in den Bitstrom die erforderliche Anzahl von "1" äquivalent zu der Anzahl von verstrichenen Modulo-Zeitbasis-Inkrementen ein. Diesen folgt das Symbol "0" zum Anzeigen des Endes des Modulo-Zeitbasis-Kodes. Das lokale Zeitbasis-Register wird mit der gegenwärtigen Modulo-Zeitbasis aktualisiert. Die Verarbeitung geht dann über zu dem VOP-Zeitbasis-Inkrement-Kodierer, Schritt 44, wo der Rest des Darstellungs-Zeit-Kodes der I-VOP kodiert wird.
  • Der Ablauf wiederholt sich mit der nächsten kodierten Videoobjektebene, welche die P-VOP ist. Der Zeit-Kode-Komparator, Schritt 42, vergleicht die Darstellungszeit der P-VOP mit dem lokalen Zeitbasis-Register. Das Ergebnis wird zu dem Modulo-Zeitbasis-Kodierer weitergeleitet, Schritt 43. Der Modulo-Zeitbasis-Kodierer fügt die erforderliche Anzahl von "1" äquivalent zu der Anzahl der verstrichenen Modulo-Zeitbasis-Inkremente ein. Diesen folgt das Symbol "0" zum Anzeigen des Endes des Modulo-Zeitbasis-Kodes. Das B-VOP-Zeitbasis-Register wird auf den Wert des lokalen Zeitbasis-Registers gesetzt und das lokale Zeitbasis-Register wird mit der gegenwärtigen Modulo-Zeitbasis aktualisiert. Die Verarbeitung geht dann über zu dem VOP-Zeitbasis-Inkrement-Kodierer, Schritt 44, wo der Rest des Darstellungs-Zeit-Kodes der P-VOP kodiert wird.
  • Der Ablauf wiederholt sich dann mit der nächsten kodierten Videoobjektebene, welche die B-VOP ist. Der Zeit-Kode-Komparator, Schritt 42, vergleicht die Darstellungszeit der B-VOP mit dem B-VOP-Zeitbasis-Register. Das Ergebnis wird zu dem Modulo-Zeitbasis-Kodierer weitergeleitet, Schritt 43. Der Modulo-Zeitbasis-Kodierer fügt die erforderliche Anzahl von "1" äquivalent zu der Anzahl der verstrichenen Modulo-Zeitbasis-Inkremente ein. Diesen folgt das Symbol "0", um das Ende des Modulo-Zeitbasis-Kodes anzuzeigen. Das B-VOP-Zeitbasis-Register und das lokale Zeitbasis-Register werden beide nach der Verarbeitung der B-VOP nicht verändert. Die Verarbeitung geht dann über zu dem VOP-Zeitbasis-Inkrement-Kodierer, Schritt 44, wo der Rest des Darstellungs-Zeit-Kodes der P-VOP kodiert wird.
  • Das lokale Zeitbasis-Register wird mit der nächsten I-VOP zurückgesetzt, welche den Beginn der nächsten Gruppe von VOP markiert.
  • Die Implementierung des Bitstrom-Dekodierers wird beschrieben.
  • 12 zeigt das Blockschaltbild für die Implementierung des Dekodierers für die Modulo-Zeitbasis und das VOP-Zeit-Inkrement zum Abdecken der Darstellungs-Zeitmarke. Als die Implementierung des Kodierers wird das Beispiel in 3B verwendet. Die Dekodierungs-Reihenfolge ist die gleiche, wie die Kodierungs-Reihenfolge, wobei die I-VOP dekodiert wird, gefolgt von der P-VOP, vor der B-VOP. Dieses wird in den Abschnitten unten erläutert.
  • Die Verarbeitung beginnt in dem Initialisierer, Schritt 51, wo das lokale Zeitbasis-Register auf den Wert des aus dem Bitstrom dekodierten Zeit-Kodes gesetzt wird. Die Verarbeitung geht dann über zu dem Modulo-Zeitbasis-Dekodierer, Schritt 52, wo das Modulo-Zeitbasis-Inkrement dekodiert wird. Die gesamte Anzahl der dekodierten Modulo-Zeitbasis-Inkremente ist gegeben durch die Anzahl von "1", welche vor dem Symbol "0" dekodiert werden. Als Nächstes wird das VOP-Zeitbasis-Inkrement dekodiert in das VOP-Zeitbasis-Inkrement, Schritt 53. In dem Zeitbasis-Rechner, Schritt 54, wird die Darstellungszeit der I-VOP abgedeckt. Der insgesamt dekodierte Modulo-Zeitbasis-Inkrement-Wert wird zu dem lokalen Zeitbasis-Register addiert. Das VOP-Zeitbasis-Inkrement wird dann zu dem lokalen Zeitbasis-Register addiert, um die Darstellungszeit der I-VOP zu erhalten. Der Vorgang geht dann zu dem Videoobjekt-Dekodierer, wo das Videoobjekt dekodiert wird.
  • Für die P-VOP wiederholt sich der Vorgang in dem Modulo-Zeitbasis-Dekodierer, Schritt 52, wo das Modulo-Zeitbasis-Inkrement dekodiert wird. Die gesamte Anzahl der dekodierten Modulo-Zeitbasis-Inkremente ist gegeben durch die Anzahl von "1", dekodiert vor dem Zeichen "0". Das nächste VOP-Zeitbasis-Inkrement wird in das VOP-Zeitbasis-Inkrement dekodiert, Schritt 53. In dem Zeitbasis-Berechner, Schritt 54, wird die Darstellungszeit der P-VOP abgedeckt. Das B-VOP-Modulo-Zeitbasis-Register wird auf den Wert in dem lokalen Zeitbasis-Register gesetzt. Der insgesamt dekodierte Modulo-Zeitbasis-Inkrement-Wert wird zu dem lokalen Zeitbasis-Register addiert. Das VOP-Zeitbasis-Inkrement wird dann zu dem lokalen Zeitbasis-Register addiert, um die Darstellungszeit der P-VOP zu erhalten. Der Ablauf geht dann über zu dem Videoobjekt-Dekodierer, wo das Videoobjekt dekodiert wird.
  • Für die B-VOP wiederholt sich der Vorgang in dem Modulo-Zeitbasis-Dekodierer, Schritt 52, wo das Modulo-Zeitbasis-Inkrement dekodiert wird. Die gesamte Anzahl der dekodierten Modulo-Zeitbasis-Inkremente ist gegeben durch die Anzahl von "1", dekodiert vor dem Zeichen "0". Das nächste VOP-Zeitbasis-Inkrement wird dekodiert in das VOP-Zeitbasis-Inkrement, Schritt 53. In dem Zeitbasis-Berechner, Schritt 54, wird die Darstellungszeit der B-VOP abgedeckt. Der insgesamt dekodierte Modulo-Zeitbasis-Inkrement-Wert und das VOP-Zeitbasis-Inkrement werden zu dem B-VOP-Zeitbasis-Register addiert, um die Darstellungszeit der B-VOP zu erhalten. Das B-VOP-Zeitbasis-Register und das lokale Zeitbasis-Register bleiben beide unverändert. Der Ablauf geht dann weiter zu dem Videoobjekt-Dekodierer, wo das Videoobjekt dekodiert wird.
  • Das lokale Zeitbasis-Register wird bei der nächsten I-VOP zurückgesetzt, welche den Anfang der nächsten Gruppe von VOP markiert.
  • Ein spezifisches Beispiel wird beschrieben.
  • In 13 ist ein Beispiel der Schritte zum Kodieren der komprimierten Daten in Bitstrom-Daten gezeigt. Wie in der oberen Reihe in 13 gezeigt, sind die komprimierten Videodaten-VOP'n in der Anzeigereihenfolge I1, B1, B2, P1, B3, P3 mit einem am Anfang der Gruppen von VOP'n eingefügten GOP-(Bildergruppe)-Header ausgerichtet. Während der Anzeige wird die lokale Zeit, zu welcher die Anzeige ausgeführt wird, für jede VOP unter Verwendung der lokalen Uhr gemessen. Beispielsweise wird die erste VOP (I1-VOP) angezeigt bei 1 Stunde, 23 Minuten, 45 Sekunden, 350 Millisekunden (1 : 23 : 45 : 350), gezählt von dem frühesten Beginn der Videodaten; die zweite VOP (B1-VOP) wird angezeigt bei 1 : 23 : 45 : 750; die dritte VOP (B2-VOP) wird angezeigt bei 1 : 23 : 46 : 150; und so weiter.
  • Zum Kodieren der VOP'n ist es erforderlich, die Anzeigezeitdaten in jede VOP einzufügen. Die Einfügung der vollständigen Zeitdaten mit Stunde, Minute, Sekunde und Millisekunde belegt einen bestimmten Daten-Platz in dem Header-Abschnitt jeder VOP. Das Ziel der vorliegenden Erfindung ist es, solch einen Daten-Platz zu verringern und die in jede VOP einzufügenden Zeitdaten zu vereinfachen.
  • Jede der in der ersten Reihe in 13 gezeigten VOP'n wird mit den Anzeige-Zeitdaten von Millisekunden in dem VOP-Zeit-Inkrement-Bereich gespeichert. Jede der VOP'n in der ersten Reihe wird ebenfalls vorübergehend mit den Anzeige-Zeitdaten von Stunde, Minute und Sekunde gespeichert. Der GOP-Header ist mit den Anzeigedaten von Stunde, Minute und Sekunde für die erste VOP (I1-VOP) gespeichert.
  • Wie in der zweiten Reihe in 13 gezeigt, werden die VOP'n unter Verwendung eines Puffers (nicht dargestellt) um eine vorbestimmte Zeit verzögert. Wenn die VOP'n aus dem Puffer erzeugt werden, wird die Reihenfolge der VOP'n entsprechend der bidirektionalen Vorschau-Regel verändert, so dass die bidirektionale VOP, d. h., B-VOP, hinter der P-VOP positioniert ist, auf welche sich die B-VOP bezieht. Somit sind die VOP'n ausgerichtet in der Reihenfolge von I1, P1, B1, B2, P2, B3.
  • Wie in der dritten Reihe in 13 gezeigt, speichert zum Zeitpunkt T1, d. h., wenn der GOP-Header kodiert wird, das lokale Zeitbasis-Register die Stunden-, Minuten-, Sekunden-Daten, wie in dem GOP-Header gespeichert. In dem in 13 gezeigten Beispiel speichert das lokale Zeitbasis-Register 1 : 23 : 45. Dann werden vor dem Zeitpunkt T2 die Bitstrom-Daten für den GOP-Header erhalten mit den wie in der unteren Reihe in 13 gezeigt eingefügten Stunden-, Minuten-, Sekunden-Daten.
  • Dann wird zum Zeitpunkt T2 die erste VOP (I1-VOP) aufgerufen. Der Zeit-Kode-Komparator vergleicht die Zeit (Stunde, Minute, Sekunde), gespeichert in dem lokalen Zeitbasis-Register, mit der Zeit (Stunde, Minute, Sekunde), die vorübergehend in der ersten VOP (I1-VOP) gespeichert ist. Gemäß dem Beispiel ist das Ergebnis des Vergleichs das Gleiche. Somit erzeugt der Komparator eine "0", welche anzeigt, dass die erste VOP (I1-VOP) in der gleichen Sekunde auftritt, wie die in dem lokalen Zeitbasis-Register gehaltene Sekunde. Das von dem Komparator erzeugte Ergebnis "0" wird zu der ersten VOP (I1-VOP) in dem Modulo-Zeitbasis-Bereich addiert. Gleichzeitig werden die vorübergehend in der ersten VOP (I1-VOP) gespeicherten Stunden-, Minuten- und Sekunden-Daten beseitigt. Somit werden vor dem Zeitpunkt T3 die Bitstrom-Daten für die erste VOP (I1-VOP) erhalten mit "0" eingefügt in dem Modulo-Zeitbasis-Bereich und "350" eingefügt in dem VOP-Zeit-Inkrement-Bereich.
  • Zum Zeitpunkt T3 wird dann die zweite VOP (P1-VOP) aufgerufen. Der Zeitkode-Komparator vergleicht die Zeit (Stunde, Minute, Sekunde), gespeichert in dem lokalen Zeitbasis-Register, mit der Zeit (Stunde, Minute, Sekunde), vorübergehend gespeichert in der zweiten VOP (P1-VOP). Gemäß dem Beispiel ist das Ergebnis des Vergleichs derart, dass die vorübergehend gespeichert der Zeit in der zweiten VOP (P1-VOP) eine Sekunde größer ist als die in dem lokalen Zeitbasis-Register gespeicherte Zeit. Somit erzeugt der Komparator "10", um anzuzeigen, dass die zweite VOP (P1-VOP) in der nächsten einen Sekunde nach derjenigen Sekunde auftritt, die in dem lokalen Zeitbasis-Register gehalten ist. Wenn die zweite VOP (P1-VOP) in der übernächsten Sekunde nach der in dem lokalen Zeitbasis-Register gehaltenen Sekunde auftritt, erzeugt der Komparator "110".
  • Nach dem Zeitpunkt T3 wird das B-VOP-Zeitbasis-Register auf die Zeit gleich der in dem lokalen Zeitbasis-Register unmittelbar vor dem Zeitpunkt T3 enthaltenen Zeit gesetzt. In dem Beispiel ist das B-VOP-Zeitbasis-Register gesetzt auf 1 : 23 : 45. Nach dem Zeitpunkt T3 ist das lokale Zeitbasis-Register ebenfalls auf die Zeit gleich der vorübergehend in der zweiten VOP (P1-VOP) gespeicherten Zeit inkrementiert. Somit ist in dem Beispiel das lokale Zeitbasis-Register inkrementiert auf 1 : 23 : 46.
  • Das Ergebnis "10", wie von dem Komparator erzeugt, wird zu der zweiten VOP (P1-VOP) in dem Modulo-Zeitbasis-Bereich addiert. Gleichzeitig werden die vorübergehend in der zweiten VOP (P1-VOP) gespeicherten Stunden-, Minuten- und Sekunden-Daten beseitigt. Somit werden vor dem Zeitpunkt T4 die Bitstrom-Daten für die zweite VOP (P1-VOP) erhalten mit "10", eingefügt in dem Modulo-Zeitbasis-Bereich, und "550", eingefügt in dem VOP-Zeit-Inkrement-Bereich.
  • Zum Zeitpunkt T4 wird dann die dritte VOP (B1-VOP) aufgerufen. Der Zeitkode-Komparator vergleicht die Zeit (Stunde, Minute, Sekunde), gespeichert in dem B-VOP-Zeitbasis-Register, mit der Zeit (Stunde, Minute, Sekunde), vorübergehend gespeichert in der dritten VOP (B1-VOP). Gemäß diesem Beispiel ist das Ergebnis des Vergleichs das Gleiche. Der Komparator erzeugt somit "0", um anzuzeigen, dass die dritte VOP (B1-VOP) in der gleichen Sekunde auftritt, wie die in dem B-VOP-Zeitbasis-Register gehaltene Sekunde. Das Ergebnis "0", wie von dem Komparator erzeugt, wird zu der dritten VOP (B1-VOP) in dem Modulo-Zeitbasis-Bereich addiert. Gleichzeitig werden die vorübergehend in der ersten VOP (I1-VOP) gespeicherten Stunden-, Minuten- und Sekunden-Daten beseitigt. Somit werden vor dem Zeitpunkt T5 die Bitstrom- Daten für die dritte VOP (B1-VOP) erhalten mit "0" eingefügt in dem Modulo-Zeitbasis-Bereich und "750" eingefügt in dem VOP-Zeit-Inkrement-Bereich.
  • Zum Zeitpunkt T5 wird dann die vierte VOP (B2-VOP) aufgerufen. Der Zeitkode-Komparator vergleicht die Zeit (Stunde, Minute, Sekunde), gespeichert in dem B-VOP-Zeitbasis-Register, mit der vorübergehend in der vierten VOP (B2-VOP) gespeicherten Zeit (Stunde, Minute, Sekunde). Gemäß dem Beispiel ist das Ergebnis des Vergleichs derart, dass die vorübergehend in der vierten VOP (B2-VOP) gespeicherte Zeit eine Sekunde größer als die in dem B-VOP-Zeitbasis-Register gespeicherte Zeit ist. Somit erzeugt der Komparator "10", um anzuzeigen, dass die vierte VOP (B2-VOP) in der nächsten Sekunde zu der in dem B-VOP-Zeitbasis-Register gehaltenen Sekunde auftritt.
  • Während der Verarbeitung der B-Typ-VOP wird weder das lokale Zeitbasis-Register noch das B-VOP-Zeitbasis-Register inkrementiert, ungeachtet dessen, welches Ergebnis der Komparator erzeugt.
  • Das Ergebnis "10", wie von dem Komparator erzeugt, wird zu der vierten VOP (B2-VOP) in dem Modulo-Zeitbasis-Bereich addiert. Gleichzeitig werden die vorübergehend in der vierten VOP (B2-VOP) gespeicherten Stunden-, Minuten- und Sekunden-Daten beseitigt. Somit werden vor dem Zeitpunkt T6 die Bitstrom-Daten für die vierte VOP (B2-VOP), erhalten mit "10", eingefügt in dem Modulo-Zeitbasis-Bereich und "150" eingefügt in den VOP-Zeit-Inkrement-Bereich.
  • Dann wird zum Zeitpunkt T6 die fünfte VOP (P2-VOP) aufgerufen. Der Zeitkode-Komparator vergleicht die in dem lokalen Zeitbasis-Register gespeicherte Zeit (Stunde, Minute, Sekunde) mit der vorübergehend in der fünften VOP (P2-VOP) gespeicherten Zeit (Stunde, Minute, Sekunde). Gemäß dem Beispiel ist das Ergebnis des Vergleichs derart, dass die vorübergehend in der fünften VOP (P2-VOP) gespeicherte Zeit eine Sekunde größer ist als die in dem lokalen Zeitbasis-Register gespeicherte Zeit. Somit erzeugt der Komparator "10", um anzuzeigen, dass die fünfte VOP (P2-VOP) in der nächsten Sekunde nach der in dem lokalen Zeitbasis-Register gehaltenen Sekunde auftritt.
  • Nach dem Zeitpunkt T6 wird das B-VOP-Zeitbasis-Register auf die Zeit gleich der in dem lokalen Zeitbasis-Register unmittelbar vor dem Zeitpunkt T6 gehaltenen Zeit inkrementiert. In dem Beispiel wird das B-VOP-Zeitbasis-Register inkrementiert auf 1 : 23 : 46. Nach dem Zeitpunkt T6 wird das lokale Zeitbasis-Register ebenfalls auf die Zeit gleich der vorübergehend in der fünften VOP (P2-VOP) gespeicherten Zeit inkrementiert. Somit wird in diesem Beispiel das lokale Zeitbasis-Register auf 1 : 23 : 47 inkrementiert.
  • Das Ergebnis "10", wie von dem Komparator erzeugt, wird zu der fünften VOP (P2-VOP) in dem Modulo-Zeitbasis-Bereich addiert. Gleichzeitig werden die vorübergehend in der fünften VOP (P2-VOP) gespeicherten Stunden-, Minuten- und Sekunden-Daten beseitigt. Somit werden vor dem Zeitpunkt T4 die Bitstrom-Daten für die fünfte VOP (P2-VOP) erhalten mit "10" eingefügt in dem Modulo-Zeitbasis-Bereich und "350" eingefügt in den VOP-Zeit-Inkrement-Bereich.
  • Danach wird ein vergleichbarer Vorgang zum Bilden von Bitstrom-Daten für die folgenden VOP'n ausgeführt.
  • Zum Dekodierern der Bitstrom-Daten wird ein dem Obigen entgegengesetzter Vorgang ausgeführt. Zuerst wird die in dem GOP-Header transportierte Zeit (Stunde, Minute, Sekunde) gelesen. Die gelesene Zeit wird in dem lokalen Zeitbasis-Register gespeichert.
  • Nach Empfang der I-Typ- oder P-Typ-VOP, das heißt, einer anderen als der B-Typ-VOP, werden die in dem Modulo-Zeitbasis-Bereich gespeicherten Daten gelesen. Wenn die gelesenen Daten "0" sind, d. h., ohne eine 1 vor der 0, werden in dem lokalen Zeitbasis-Register keine Änderungen vorgenommenen und in dem B-VOP-Zeitbasis-Register werden ebenfalls keine Änderungen vorgenommen. Wenn die gelesenen Daten "10" sind, wird die in dem lokalen Zeitbasis-Register gespeicherte Zeit um eine Sekunde inkrementiert. Wenn die gelesenen Daten "110" sind, wird die in dem lokalen Zeitbasis-Register gespeicherte Zeit um zwei Sekunden inkrementiert. Auf diese Weise wird die Anzahl von Sekunden, welche inkrementiert werden sollen, bestimmt durch die Anzahl von 1, eingefügt vor der 0. Wenn also die gelesenen Daten "10" oder "110" sind, kopiert das B-VOP-Zeitbasis-Register, welches ein Speicher ist, die Zeit, welche das lokale Zeitbasis-Register enthalten hat, gerade vor der jüngsten Inkrementierung. Dann wird die in dem lokalen Zeitbasis-Register enthaltene Zeit (Stunde, Minute, Sekunde) zusammengefasst mit der in dem VOP-Zeit-Inkrement-Bereich enthaltenen Zeit (Millisekunde) zum Bilden einer spezifischen Zeit, zu welcher die I-Typ- oder P-Typ-VOP auftreten soll.
  • Nach Empfang der B-Typ-VOP werden die in dem Modulo-Zeitbasis-Bereich gespeicherten Daten gelesen. Wenn die gelesenen Daten "0" sind, wird die in dem B-VOP-Zeitbasis-Register enthaltene Zeit (Stunde, Minute, Sekunde) mit der in dem VOP-Zeit-Inkrement-Bereich enthaltenen Zeit (Millisekunde) zusammengefasst, um eine spezifische Zeit zu bilden, zu welcher die B-Typ-VOP auftreten soll. Wenn die gelesenen Daten "10" sind, wird zu der in dem B-VOP-Zeitbasis-Register enthaltenen Zeit (Stunde, Minute, Sekunde) eine Sekunde addiert, und dann wird die addierte Ergebnis-Zeit zusammengefasst mit der in dem VOP-Zeit-Inkrement-Bereich enthaltenen Zeit (Millisekunde) zum Bilden einer spezifischen Zeit, zu welcher die B-Typ-VOP auftreten soll. Wenn die gelesenen Daten "110" sind, werden zu der in dem B-VOP-Zeitbasis-Register enthaltenen Zeit (Stunde, Minute, Sekunde) zwei Sekunden addiert, und die addierte Ergebnis-Zeit wird mit der in dem VOP-Zeit-Inkrement-Bereich enthaltenen Zeit (Millisekunde) zusammengefasst, um eine spezifische Zeit zu bilden, zu welcher die B-Typ-VOP auftreten soll.
  • Die Wirkung dieser Erfindung ist es, zu ermöglichen, dass durch verschiedene Kodierer kodierte Videoobjektebenen gemultiplext werden können. Sie unterstützt ebenfalls eine Objekt-basierte Bitstrom-Beeinflussung komprimierter Daten, die von verschiedenen Quellen kommen, um neue Bitströme zu schaffen. Sie stellt ein Verfahren zur Synchronisierung audiovisueller Objekte bereit.
  • Bei der somit beschriebenen Erfindung ist es offensichtlich, dass dieselbe vielfältig veränderbar ist. Solche Veränderungen werden nicht als eine Abweichung vom Erfindungsumfang und vom Umfang der Erfindung betrachtet, und sämtliche für den Durchschnittsfachmann offensichtlichen Modifikationen werden als im Umfang der folgenden Ansprüche enthalten aufgefasst.

Claims (2)

  1. Verfahren zum Kodieren einer lokalen Zeitbasis einer Videoobjektebene (VOP) mit folgenden Schritten: Kodieren der lokalen Zeitbasis der Videoobjektebene (VOP) in zwei Teile, wobei der erste Teil eine Modulo-Zeitbasis ist, die die Zeit in Eine-Sekunde-Auflösungseinheiten angibt, die seit einem Referenzzeitpunkt vergangen ist, der durch die Modulo-Zeitbasis einer vorhergehenden Videoobjektebene (VOP) markiert ist, die vor der Videoobjektebene (VOP) positioniert ist, und der zweite Teil ein Zeitbasis-Inkrement ist, das das Zeit-Inkrement von einem Referenzzeitpunkt repräsentiert, der durch die Modulo-Zeitbasis der Videoobjektebene (VOP) markiert ist; und Einfügen der kodierten lokalen Zeitbasis in einen Bitstrom der Videoobjektebene (VOP).
  2. Verfahren zum Kodieren einer lokalen Zeitbasis einer bidirektional vorausschauend kodierten Videoobjektebene (B-VOP) mit folgenden Schritten: Kodieren der lokalen Zeitbasis der bidirektional vorausschauend kodierten Videoobjektebene (B-VOP) in zwei Teile, wobei der erste Teil eine Modulo-Zeitbasis ist, die die Zeit in Eine-Sekunde-Auflösungseinheiten angibt, die seit einem Referenzzeitpunkt vergangen ist, der durch die Modulo-Zeitbasis einer vorhergehenden Videoobjektebene (VOP) markiert ist, die vor der bidirektional vorausschauend kodierten Videoobjektebene (B-VOP) positioniert ist, und der zweite Teil ein Zeitbasis-Inkrement ist, das das Zeit-Inkrement von einem Referenzzeitpunkt repräsentiert, der durch die Modulo-Zeitbasis der bidirektional vorausschauend kodierten Videoobjektebene (B-VOP) markiert ist; und Einfügen der kodierten lokalen Zeitbasis in einen Bitstrom der bidirektional vorausschauend kodierten Videoobjektebene (B-VOP); wobei die vorhergehende Videoobjektebene (VOP) eine intra-kodierte Videoobjektebene (I-VOP) oder eine vorausschauend kodierte Videoobjektebene (P-VOP) ist, die unmittelbar vor der bidirektional vorausschauend kodierten Videoobjektebene (B-VOP) positioniert ist.
DE1997638035 1996-07-05 1997-07-03 Verfahren zum Anzeigezeitstempeln und zur Synchronisation mehrerer Viedeoobjektebenen Expired - Lifetime DE69738035T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP17643096 1996-07-05
JP17643096 1996-07-05

Publications (2)

Publication Number Publication Date
DE69738035D1 DE69738035D1 (de) 2007-09-27
DE69738035T2 true DE69738035T2 (de) 2008-04-30

Family

ID=16013573

Family Applications (5)

Application Number Title Priority Date Filing Date
DE1997604481 Expired - Lifetime DE69704481T2 (de) 1996-07-05 1997-07-03 Verfahren zum anzeigezeitstempeln und zur synchronisation mehrerer videoobjektebenen
DE1997607929 Expired - Lifetime DE69707929T2 (de) 1996-07-05 1997-07-03 Verfahren zum Anzeigezeitstempeln und zur Synchronisation mehrerer Videoobjektebenen
DE1997607720 Expired - Lifetime DE69707720T2 (de) 1996-07-05 1997-07-03 Synchronisation mehrerer Videoobjektebenen
DE1997619828 Expired - Lifetime DE69719828T2 (de) 1996-07-05 1997-07-03 Verfahren zum Anzeigezeitstempeln und zur Synchronisation mehrerer Videoobjektebenen
DE1997638035 Expired - Lifetime DE69738035T2 (de) 1996-07-05 1997-07-03 Verfahren zum Anzeigezeitstempeln und zur Synchronisation mehrerer Viedeoobjektebenen

Family Applications Before (4)

Application Number Title Priority Date Filing Date
DE1997604481 Expired - Lifetime DE69704481T2 (de) 1996-07-05 1997-07-03 Verfahren zum anzeigezeitstempeln und zur synchronisation mehrerer videoobjektebenen
DE1997607929 Expired - Lifetime DE69707929T2 (de) 1996-07-05 1997-07-03 Verfahren zum Anzeigezeitstempeln und zur Synchronisation mehrerer Videoobjektebenen
DE1997607720 Expired - Lifetime DE69707720T2 (de) 1996-07-05 1997-07-03 Synchronisation mehrerer Videoobjektebenen
DE1997619828 Expired - Lifetime DE69719828T2 (de) 1996-07-05 1997-07-03 Verfahren zum Anzeigezeitstempeln und zur Synchronisation mehrerer Videoobjektebenen

Country Status (11)

Country Link
US (6) USRE39344E1 (de)
EP (6) EP1073278B1 (de)
JP (1) JP3186775B2 (de)
KR (1) KR100274434B1 (de)
CN (5) CN1107418C (de)
DE (5) DE69704481T2 (de)
ES (5) ES2158570T3 (de)
HK (4) HK1016390A1 (de)
SG (1) SG90765A1 (de)
TW (1) TW359918B (de)
WO (1) WO1998002003A1 (de)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100418141B1 (ko) * 1997-04-01 2004-06-09 소니 가부시끼 가이샤 화상부호화장치,화상부호화방법,화상복호화장치및화상복호화방법
WO1999021367A1 (fr) * 1997-10-20 1999-04-29 Mitsubishi Denki Kabushiki Kaisha Codeur et decodeur d'image
DE19746611A1 (de) * 1997-10-22 1999-04-29 Bosch Gmbh Robert Verfahren zur Verbesserung der Konturcodierung von Bildsequenzen sowie Anwendung
JP2000013790A (ja) 1998-06-19 2000-01-14 Sony Corp 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに提供媒体
JP4109772B2 (ja) * 1998-12-03 2008-07-02 キヤノン株式会社 データ処理方法及びその装置
ID24586A (id) * 1998-12-21 2000-07-27 Matsushita Electric Ind Co Ltd Perangkat dan metode penyelarasan waktu dengan menggunakan modul basis waktu dan resolusi peningkatan waktu
US6299998B1 (en) * 1999-03-15 2001-10-09 Reveo, Inc. Movable anode fuel cell battery
WO2000060872A1 (fr) * 1999-03-31 2000-10-12 Matsushita Electric Industrial Co., Ltd. Procede et dispositif de decodage continu de flux video comprenant des sequences de donnees ayant des frequences de trame differentes
KR20040041082A (ko) * 2000-07-24 2004-05-13 비브콤 인코포레이티드 멀티미디어 북마크와 비디오의 가상 편집을 위한 시스템및 방법
WO2002015583A1 (en) * 2000-08-15 2002-02-21 Microsoft Corporation Methods, systems and data structures for timecoding media samples
JP2004507172A (ja) * 2000-08-16 2004-03-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ マルチメディアアプリケーションを再生する方法
WO2002015591A1 (en) * 2000-08-16 2002-02-21 Koninklijke Philips Electronics N.V. Method of playing multimedia data
JP4208398B2 (ja) * 2000-10-05 2009-01-14 株式会社東芝 動画像復号再生装置、動画像復号再生方法及びマルチメディア情報受信装置
US20020089602A1 (en) * 2000-10-18 2002-07-11 Sullivan Gary J. Compressed timing indicators for media samples
US7042948B2 (en) * 2001-03-05 2006-05-09 Intervideo, Inc. Systems and methods for management of data in a ring buffer for error resilient decoding of a video bitstream
US20020145622A1 (en) * 2001-04-09 2002-10-10 International Business Machines Corporation Proxy content editing system
US6870887B2 (en) * 2001-04-09 2005-03-22 International Business Machines Corporation Method and system for synchronization between different content encoding formats
US7280738B2 (en) * 2001-04-09 2007-10-09 International Business Machines Corporation Method and system for specifying a selection of content segments stored in different formats
US6662176B2 (en) * 2001-05-07 2003-12-09 Hewlett-Packard Development Company, L.P. Database indexing and rolling storage method for time-stamped normalized event data
US20050075929A1 (en) * 2002-10-17 2005-04-07 Wolinsky Robert I. System and method for partitioning airtime for distribution and display of content
US20030229549A1 (en) 2001-10-17 2003-12-11 Automated Media Services, Inc. System and method for providing for out-of-home advertising utilizing a satellite network
US7614065B2 (en) * 2001-12-17 2009-11-03 Automated Media Services, Inc. System and method for verifying content displayed on an electronic visual display
EP1328127A1 (de) * 2002-01-09 2003-07-16 Beta Research GmbH Simultaneinspeisung und Synchronisation von Audio und Videodaten
DE60310368T2 (de) * 2002-01-22 2007-03-29 Microsoft Corp., Redmond Verfahren zur verhinderung von startkode-emulation und stopfdaten
US7149247B2 (en) 2002-01-22 2006-12-12 Microsoft Corporation Methods and systems for encoding and decoding video data to enable random access and splicing
JP4448334B2 (ja) * 2002-04-19 2010-04-07 マイクロソフト コーポレーション バイト整列されていない(non−byte−alignedpositions)のポジション、および/またはビット・シフトされたポジション(bit−siftedpositions)を含む位置におけるスタート・コード・エミュレーションを防ぐための方法およびシステム
US7088776B2 (en) * 2002-07-15 2006-08-08 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
AU2013204743B2 (en) * 2002-07-15 2016-05-19 Apple Inc Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding
AU2008201106C1 (en) * 2002-07-15 2011-06-09 Apple Inc. Method and bitstream for variable accuracy inter-picture timing specification for digital video encoding
US6728315B2 (en) 2002-07-24 2004-04-27 Apple Computer, Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US8254461B2 (en) 2002-07-24 2012-08-28 Apple Inc. Method and apparatus for variable accuracy inter-picture timing specification for digital video encoding with reduced requirements for division operations
US7613630B2 (en) * 2002-10-17 2009-11-03 Automated Media Services, Inc. System and method for editing existing footage to generate and distribute advertising content to retail locations
EP1487214A1 (de) * 2003-06-11 2004-12-15 Digital Multimedia Technologies S.P.A. Verfahren und System zum Synchronisieren von MHP Anwendungen mit einem Datenpaketstrom
US20050002459A1 (en) * 2003-07-04 2005-01-06 Protocom Technology Corporation Method for determining display order of VOPs in decoder end of MPEG image system and device for executing the same
US7839930B2 (en) * 2003-11-13 2010-11-23 Microsoft Corporation Signaling valid entry points in a video stream
US7852919B2 (en) * 2003-09-07 2010-12-14 Microsoft Corporation Field start code for entry point frames with predicted first field
US8213779B2 (en) * 2003-09-07 2012-07-03 Microsoft Corporation Trick mode elementary stream and receiver system
US7924921B2 (en) * 2003-09-07 2011-04-12 Microsoft Corporation Signaling coding and display options in entry point headers
US7609762B2 (en) 2003-09-07 2009-10-27 Microsoft Corporation Signaling for entry point frames with predicted first field
KR20060135827A (ko) * 2004-04-15 2006-12-29 마쯔시다덴기산교 가부시키가이샤 컨텐츠 생성 장치 및 방법
DE602004009560T2 (de) * 2004-07-22 2008-08-21 Harman Becker Automotive Systems Gmbh Datenübertragungssynchronisationsschema
US8228956B2 (en) * 2005-04-19 2012-07-24 Alcatel Lucent Time stamp offset in data packet bundling
US8315308B2 (en) * 2006-01-11 2012-11-20 Qualcomm Incorporated Video coding with fine granularity spatial scalability
US8443276B2 (en) * 2006-03-28 2013-05-14 Hewlett-Packard Development Company, L.P. System and data model for shared viewing and editing of time-based media
WO2008118183A1 (en) * 2007-03-28 2008-10-02 Motionbox, Inc. System and method for autogeneration of long term media data from networked time-based media
WO2007112447A2 (en) * 2006-03-28 2007-10-04 Motionbox, Inc. A system for individual and group editing of networked time-based media
US20110107369A1 (en) * 2006-03-28 2011-05-05 O'brien Christopher J System and method for enabling social browsing of networked time-based media
WO2008073538A1 (en) * 2006-08-18 2008-06-19 Motionbox, Inc. An operational system and architectural model for improved manipulation of video and time-based media
EP1999608A4 (de) * 2006-03-29 2010-10-06 Hewlett Packard Development Co System, verfahren und vorrichtung für visuelle durchsuche, deep-tagging und synchronisierte kommentierung
EP1855402A1 (de) * 2006-05-11 2007-11-14 Koninklijke Philips Electronics N.V. Übertragung, Empfang und Synchronisierung von zwei Datenströmen
JP4607856B2 (ja) * 2006-12-26 2011-01-05 富士通株式会社 符号化復号システム及び符号化復号方法
US7765315B2 (en) * 2007-01-08 2010-07-27 Apple Inc. Time synchronization of multiple time-based data streams with independent clocks
MX2009006990A (es) * 2007-03-08 2009-08-13 Ericsson Telefon Ab L M Busqueda y sincronizacion usando tiempo de escena global.
KR101372418B1 (ko) * 2007-10-19 2014-03-12 (주)휴맥스 비트스트림 디코딩 장치 및 방법
WO2009100453A2 (en) * 2008-02-08 2009-08-13 Automated Media Services, Inc. System and method for creating an in-store media network using traditional media metrics
CN102439989B (zh) * 2008-10-28 2014-12-10 思科技术公司 用于直播视频编码的流同步
US20100225811A1 (en) * 2009-03-05 2010-09-09 Nokia Corporation Synchronization of Content from Multiple Content Sources
JP6605789B2 (ja) * 2013-06-18 2019-11-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法、受信方法、送信装置、および、受信装置
US10779057B2 (en) * 2015-06-08 2020-09-15 Qualcomm Incorporated Broadcast content redistribution and ad insertion
US10271069B2 (en) 2016-08-31 2019-04-23 Microsoft Technology Licensing, Llc Selective use of start code emulation prevention
US10694227B2 (en) * 2017-01-13 2020-06-23 Panasonic Intellectual Property Management Co., Ltd. Video transmission system and video transmission method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3364281B2 (ja) * 1993-07-16 2003-01-08 パイオニア株式会社 時分割ビデオ及びオーディオ信号の同期方式
US5467139A (en) * 1993-09-30 1995-11-14 Thomson Consumer Electronics, Inc. Muting apparatus for a compressed audio/video signal receiver
US5430485A (en) * 1993-09-30 1995-07-04 Thomson Consumer Electronics, Inc. Audio/video synchronization in a digital transmission system
GB9424429D0 (en) * 1994-12-02 1995-01-18 Philips Electronics Uk Ltd Audio/video timing discrepancy management
US5953073A (en) * 1996-07-29 1999-09-14 International Business Machines Corp. Method for relating indexing information associated with at least two indexing schemes to facilitate the play-back of user-specified digital video data and a video client incorporating the same
US5784422A (en) * 1996-08-05 1998-07-21 Transcrypt International, Inc. Apparatus and method for accurate synchronization with inbound data packets at relatively low sampling rates

Also Published As

Publication number Publication date
EP1073278B1 (de) 2001-10-31
EP1111934B1 (de) 2001-10-24
ES2194801T3 (es) 2003-12-01
DE69719828D1 (de) 2003-04-17
HK1075345A1 (en) 2005-12-09
ES2291563T3 (es) 2008-03-01
HK1016390A1 (en) 1999-10-29
CN1107418C (zh) 2003-04-30
HK1016392A1 (en) 1999-10-29
USRE40664E1 (en) 2009-03-17
EP1073278A1 (de) 2001-01-31
EP1111933B1 (de) 2003-03-12
CN1364032A (zh) 2002-08-14
DE69707720D1 (de) 2001-11-29
JP3186775B2 (ja) 2001-07-11
DE69704481T2 (de) 2001-10-31
CN1184821C (zh) 2005-01-12
ES2166746T3 (es) 2002-05-01
JPH11513222A (ja) 1999-11-09
US6075576A (en) 2000-06-13
EP1073277A1 (de) 2001-01-31
CN1347250A (zh) 2002-05-01
DE69738035D1 (de) 2007-09-27
CN1148971C (zh) 2004-05-05
EP1343330A3 (de) 2006-05-10
EP1111934A1 (de) 2001-06-27
ES2158570T3 (es) 2001-09-01
ES2169019T3 (es) 2002-07-01
DE69719828T2 (de) 2003-12-24
DE69707720T2 (de) 2002-08-08
CN1292598C (zh) 2006-12-27
CN1197579A (zh) 1998-10-28
USRE38923E1 (en) 2005-12-20
DE69707929T2 (de) 2002-06-20
EP0864228B1 (de) 2001-04-04
CN1152579C (zh) 2004-06-02
EP1111933A1 (de) 2001-06-27
SG90765A1 (en) 2002-08-20
DE69707929D1 (de) 2001-12-06
CN1620149A (zh) 2005-05-25
DE69704481D1 (de) 2001-05-10
KR19990044406A (ko) 1999-06-25
KR100274434B1 (ko) 2000-12-15
WO1998002003A1 (en) 1998-01-15
TW359918B (en) 1999-06-01
USRE38875E1 (en) 2005-11-15
CN1347251A (zh) 2002-05-01
EP1343330B1 (de) 2007-08-15
USRE39115E1 (en) 2006-06-06
HK1060463A1 (en) 2004-08-06
EP0864228A1 (de) 1998-09-16
EP1343330A2 (de) 2003-09-10
USRE39344E1 (en) 2006-10-17

Similar Documents

Publication Publication Date Title
DE69738035T2 (de) Verfahren zum Anzeigezeitstempeln und zur Synchronisation mehrerer Viedeoobjektebenen
DE69722556T2 (de) Synchronisierung einer stereoskopischen Videosequenz
DE69027798T2 (de) Ton- und Videozeitgebungssignale mit gleichzeitigen Markierungen
DE69434075T2 (de) Synchronisierungseinrichtung für ein komprimiertes Videosignal
DE69917971T2 (de) Verfahren und Vorrichtung zur Verarbeitung von komprimierten Videodatenströmen
DE69030235T2 (de) Verfahren und Multiplexer/Demultiplexer für Übertragung/Empfang von digitalen Fernsehinformationen
DE69214638T2 (de) Gerät zum komprimieren von video-daten
DE60310514T2 (de) Verfahren und Vorrichtung zur Synchronisation der Wiedergabe von Audio- und/oder Video-Frames
DE68923532T2 (de) Digitaler Videobandrecorder, geeignet zur Bildwiedergabe mit hoher Geschwindigkeit.
DE69835211T2 (de) Umschaltung zwischen komprimierten videobitströmen
DE69112296T2 (de) Koder/dekoder für hochauflösendes fernsehen.
DE69112865T2 (de) Verarbeitungsverfahren von digitalen Kontrolldaten, die mit einem HD-MAC-Videosignal verbunden sind.
DE3874478T2 (de) Uebertragungssystem fuer bild und ton.
DE19647093A1 (de) Verfahren zur Aktualisierung von Zeitmarken in einem digitalen Datenstrom und Remultiplexer
DE3520333A1 (de) Verfahren zur bildgenauen uebertragung von filmszenen auf magnetband und schaltungsanordnung hierfuer
DE69836899T2 (de) Datenvermittlungsvorrichtung zum Schalten erhaltener Daten ohne die Codiereinheit zu verändern
DE69908164T2 (de) Ausrichten komprimierter Datenpakete auf nominierte Bezugspakete eines Transportbitstromes, mit Steuerung der Ausgangsbitrate der Datenkompression abhängig von der Rate der nominierten Bezugspakete
DE60312976T2 (de) System zum dynamischen multiplexen digitaler ströme
DE68914772T2 (de) Einrichtung zum Verdoppeln der Rate von Fernsehbild-Signalen, und Fernsehbild-Dekodierer mit einer solchen Einrichtung.
EP1516495B1 (de) Verfahren zur generierung eines systemtaktes einer empfangseinrichtung und empfangseinrichtung hierzu
DE19546327C2 (de) Verfahren zur transparenten Aufzeichnung und Wiedergabe von zeitkritischen digitalen Datenströmen
DE60005237T2 (de) Umschaltung zwischen Video-Signalen in Echtzeit
DE69007843T2 (de) Sende- und Empfangssystem zum Übertragen von beweglichen Farbbildern und Ton über unabhängige Kanäle.
DE10308138B4 (de) Verfahren zur bezüglich Bildtakt und Bildphase regelbaren Synchronisation von zwei oder mehr MPEG-2-kodierten Videosequenzen für digitale Multi-Projektionssysteme
JP3769457B2 (ja) ローカル時刻符号化方法

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP