DE69837833T2 - System und verfahren zur erzeugung und schnittstellenbildung von mpeg-kodierte audiovisuelle gegenstände darstellenden bitströmen - Google Patents

System und verfahren zur erzeugung und schnittstellenbildung von mpeg-kodierte audiovisuelle gegenstände darstellenden bitströmen Download PDF

Info

Publication number
DE69837833T2
DE69837833T2 DE69837833T DE69837833T DE69837833T2 DE 69837833 T2 DE69837833 T2 DE 69837833T2 DE 69837833 T DE69837833 T DE 69837833T DE 69837833 T DE69837833 T DE 69837833T DE 69837833 T2 DE69837833 T2 DE 69837833T2
Authority
DE
Germany
Prior art keywords
streaming
audiovisual
interface library
calls
interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69837833T
Other languages
English (en)
Other versions
DE69837833D1 (de
Inventor
Alexandros New York ELEFTHERIADIS
Yihan New York FANG
Atul Riverdale Puri
Robert L. Howell SCHMIDT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Columbia University in the City of New York
AT&T Corp
Original Assignee
Columbia University in the City of New York
AT&T Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Columbia University in the City of New York, AT&T Corp filed Critical Columbia University in the City of New York
Application granted granted Critical
Publication of DE69837833D1 publication Critical patent/DE69837833D1/de
Publication of DE69837833T2 publication Critical patent/DE69837833T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/25Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with scene description coding, e.g. binary format for scenes [BIFS] compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/27Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving both synthetic and natural picture components, e.g. synthetic natural hybrid coding [SNHC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4431OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB characterized by the use of Application Program Interface [API] libraries
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Stored Programmes (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. GEBIET DER ERFINDUNG
  • Die Erfindung betrifft das Gebiet des codierten Multimedia und seiner Speicherung, Übertragung und Lieferung an Benutzer und insbesondere derartige Codierung, wenn ein flexibles Mittel zum Generieren, Bearbeiten und Interpretieren von Bitströmen, die Multimediaobjekte repräsentieren, erforderlich ist.
  • 2. BESCHREIBUNG DES EINSCHLÄGIGEN STANDS DER TECHNIK
  • Digitales Multimedia bietet Vorteile hinsichtlich von Manipulation, Multigenerationsverarbeitung und Fehlerrobustheit und anderem, legt aber Einschränkungen aufgrund von erforderter Speicherkapazität oder Übertragungsbandbreite auf. Multimediainhalt muss daher häufig komprimiert oder codiert werden. Weiterhin ist infolge der schnellen Zunahme der Nachfrage nach digitalem Multimedia über das Internet und anderen Netzen das Erfordernis nach effizienter Speicherung, Netzzugriff und -suche und -abruf gestiegen, und eine Reihe von Codierungsverfahren, Speicherformaten, Abruftechniken und Übertragungsprotokollen sind entstanden. Beispielsweise wurden GIF, TiF und andere Formate für Bildend Grafikdateien verwendet. Gleichermaßen wurden Audiodateien codiert und als RealAudio, WAV, MIDI und andere Formate gespeichert. Animations- und Videodateien wurden oft unter Verwendung von GIF89a, Cinepak, Indeo und anderen gespeichert. Zur Wiedergabe der Überfülle von existierenden Formaten werden oft Decoder und Interpreter benötigt, dabei können verschiedene Grade von Geschwindigkeit, Qualität und Leistung in Abhängigkeit davon verfügbar sein, ob diese Decoder und Interpreter in Hardware oder in Software implementiert sind, und insbesondere im Fall von Software, von den Fähigkeiten des Hostcomputers. Wenn Multimediainhalt in Webseiten eingebettet ist, auf die über einen Computer (z. B. einen PC) zugegriffen wird, muss der Webbrowser richtig für den gesamten erwarteten Inhalt eingestellt werden und muss jeden Inhaltstyp erkennen und einen Mechanismus von Inhaltshandlern (Software-Plug-ins oder Hardware) unterstützen, um mit derartigem Inhalt umzugehen.
  • Das Erfordernis nach Interoperabilität, garantierter Qualität und Leistung und Größenökonomie beim Chipdesign sowie die Kosten, die bei der Inhaltserzeugung für eine Mehrzahl von Formaten entstehen, haben zu Fortschritten bei der Standardisierung auf den Gebieten der Multimediacodierung, Paketierung und robuster Lieferung geführt. Insbesondere hat die International Standards Organization Motion Pictures Experts Group (ISO MPEG) Bitstromsyntax und Codierungssemantik für codiertes Multimedia in der Form von zwei Standards, die als MPEG-1 und MPEG-2 bezeichnet werden, standardisiert. MPEG-1 wurde primär für Verwendung bei digitalen Speichermedien (DSM) wie Kompaktdisks (CDs) vorgesehen, während MPEG-2 primär für Verwendung in Übertragungsumgebungen (Transportstrom) vorgesehen wurde, obwohl es auch MPEG-1-ähnliche Mechanismen zur Verwendung bei DSM (Programmstrom) unterstützt. MPEG-2 enthielt außerdem zusätzliche Merkmale wie DSM-Control and Command für grundlegende Benutzerinteraktion, wie sie für standardisierte Wiedergabe von MPEG-2, entweder unabhängig oder vernetzt, erforderlich sein kann. Mit dem Aufkommen von preisgünstigen Platinen und PCMCIA-Karten und der Verfügbarkeit von schnellen Zentralprozessoren (CPUs) wird der Standard MPEG-1 allgemein verfügbar für Wiedergabe von Filmen und Spielen auf PCs. Der Standard MPEG-2 dagegen, da er auf Anwendungen relativ höherer Qualität gerichtet ist, wird allgemein eingesetzt für Unterhaltungsanwendungen über digitalem Satellitenfernsehen, Digitalkabel und Digital Versatile Disk (DVD). Neben den angegebenen Anwendungen/Plattformen wird erwartet, dass MPEG-1 und MPEG-2 in verschiedenen anderen Konfigurationen, in über Netzen übertragenen Strömen, auf Festplatten oder CDs gespeicherten Strömen und in der Kombination von vernetztem und lokalem Zugriff eingesetzt werden.
  • Der Erfolg von MPEG-1 und MPEG-2, die Bandbreitenbegrenzungen von Internet- und mobilen Kanälen, die Flexibilität von webbasiertem Datenzugriff unter der Verwendung von Browsern und die steigende Nachfrage nach interaktiver persönlicher Kommunikation hat neue Paradigmen für Multimedia-Nutzung und -Steuerung eröffnet. Als Reaktion hat ISO-MPEG einen neuen Standard entwickelt, der als MPEG-4 bezeichnet wird. Der Standard MPEG-4 hat sich mit der Codierung von audiovisuellen Informationen in der Form von individuellen Objekten und mit einem System zur Zusammenstellung und synchronisierten Wiedergabe dieser Objekte befasst. Während die Entwicklung von MPEG-4 für derartige feste Systeme andauert, haben in der Zwischenzeit neue Paradigmen in Kommunikation, Software und Vernetzung wie die, die durch die Sprache Java verfügbar wurden, neue Möglichkeiten bei Flexibilität, Adaptivität und Benutzerinteraktion bereitgestellt. Beispielsweise bietet die Sprache Java Netz- und Plattform-Unabhängigkeit, die für das Herunterladen und Ausfahren von Applets (Java-Klassen) auf einem Client-PC von einem Webserver, der die von dem Benutzer besuchten Seiten enthält, kritisch ist. Abhängig vom Design des Applets kann entweder ein einzelner Zugriff auf die im Server gespeicherten Daten erforderlich sein, um alle erforderlichen Daten im Client-PC zu speichern, oder mehrere Teilzugriffe (um den Speicherplatz und die Zeit zum Starten zu reduzieren) können erforderlich sein. Das letztgenannte Szenarium wird als eine geströmte Wiedergabe bezeichnet.
  • Wenn codiertes Multimedia für Internet- und lokale vernetzte Anwendungen auf einem Computer, wie einem PC, verwendet wird, können eine Reihe von Situationen auftreten. Erstens kann die Bandbreite für vernetzten Zugriff auf Multimedia entweder begrenzt sein oder in der Zeit variieren, was erforderlich macht, nur die wichtigsten Informationen zu übertragen, gefolgt von anderen Informationen, sobald mehr Bandbreite verfügbar wird. Zweitens kann der PC an der Clientseite, auf dem Decodierung erfolgen muss, unabhängig von der verfügbaren Bandbreite in Bezug auf CPU- und/oder Speicherressourcen begrenzt sein, und weiterhin können diese Ressourcen auch in der Zeit variieren. Drittens kann ein Multimedia-Benutzer (Verbraucher) in hohem Maße interaktives, nichtlineares Browsing und Wiedergabe erfordern. Dies ist nicht ungewöhnlich, da es möglich ist, umfangreichen Textinhalt über die Verwendung von Hyperlink-Merkmalen zu browsen, und dasselbe Paradigma wird für Präsentationen erwartet, die codierte audiovisuelle Objekte einsetzen. Das MPEG-4-System ohne erweiterte Fähigkeiten ist unter Umständen nur in der Lage, mit den vorher erwähnten Situationen in einer sehr begrenzten Weise umzugehen.
  • Die Verwendung von Anwendungsprogrammschnittstellen (APIs) wird seit langem in der Software-Industrie als ein Mittel zur Realisierung von standardisierten Operationen und Funktionen über eine Zahl von verschiedenen Arten von Computerplattformen anerkannt. Obwohl Operationen über API-Definition standardisiert werden können, können die Leistungen dieser Operation sich gewöhnlich auf verschiedenen Plattformen unterscheiden, da bestimmte Anbieter mit Interesse an einer bestimmten Plattform Implementierungen anbieten können, die für diese Plattform optimiert sind. Im Bereich der Grafik gestattet die Virtual Reality Modeling Language (VRML) ein Mittel zur Spezifizierung von räumlichen und zeitlichen Verhältnissen zwischen Objekten und der Beschreibung einer Szene durch Anwendung eines Szenen-Graph-Konzepts. MPEG-4 hat eine Binärformat-Bildschirmrepräsentation (BIFS) der Konstrukte, die den Mittelpunkt von VRML bilden, verwendet und VRML in vielerlei Weise erweitert, um Echtzeit-Audio/Video-Daten und Effekte wie Gesichts- oder Körperanimation handzuhaben. Da der Standard MPEG-4 viele Tools für Codierung von verschiedenen Medienarten sowie Szenen-Graph-Repräsentation bietet und außerdem jede Mediencodierung separate Codierung von individuellen Objekten beinhalten kann, ist ein organisierter, aber gleichzeitig flexibler Mechanismus für Bitstromgenerierung, -bearbeitung und -interpretation in hohem Maße wünschenswert.
  • Laier J et al: „Content-based multimedia data access in Internet video communication", Wireless Image/Video Communications, 1996, First International Workshop in Loughborough, Großbritannien, 4.–5. September 1996, New York, NY, USA, IEEE, US, 4. September 1996 (1996-09-04), Seite 126–133, XP010246489, ISBN 0-7803-3610-0, beschreibt eine Plattform für die Entwicklung und Bewertung von MPEG-4-Funktionalitäten. Die implementierten Funktionalitäten sind inhaltsbasierte Manipulation und Bitstrombearbeitung, Hybrid-Zusammensetzung von natürlichen und synthetischen Daten, inhaltsbasierte Skalierbarkeit. Das System wurde mit Java implementiert.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die Erfindung betrifft standardisierte Schnittstellen für MPEG-4-Authoring, Bitstrommanipulation, -bearbeitung und -interpretation. Die Erfindung stellt Tools und Schnittstellen bereit, um die vorher erwähnten Operationen beträchtlich zu vereinfachen, was in codiertes Bitströmen resultiert, die einfacher zu testen, prüfen und von Fehlern zu bereinigen sind und gleichzeitig dem Standard MPEG-4 entsprechen. Die spezifizierten Schnittstellen können außerdem gleitende Anpassung erleichtern, indem sie die Bearbeitung von Bitströmen gestatten, wenn keine ausreichenden Bearbeitungsressourcen vorhanden sind. Die spezifizierten Schnittstellen können außerdem die Erzeugung von decodierbaren Bitströmen als Reaktion auf die Benutzeranforderung gestatten, entweder direkt oder indirekt in audiovisuellen Anwendungen und Dienstleistungen eingebettet, von denen erwartet wird, dass sie in naher Zukunft wichtig sein werden. Damit betrifft die gegenwärtige Erfindung nicht nur die Mangel eines konventionellen Systems zur Bitstromcodierung und -decodierung, sondern bietet außerdem Tools, die in anpassungsfähigere Systeme wie das, das gleitende Anpassung sowie Reaktionsfähigkeit auf Benutzerinteraktion unterstützt, integriert werden können.
  • Insbesondere stellt die Erfindung ein System und ein Schnittstellenverfahren bereit, die flexible Generierung, Bearbeitung und Interpretation von Bitströmen erleichtern, die nach dem Standard MPEG-4 codierte audiovisuelle Objekte repräsentieren. Die Erfindung spezifiziert ein Bitstrom-Eingabe-/Ausgabepaket in der Programmiersprache Java, um Bitstrom-Codierung und -Decodierung für audiovisuelle Medienobjekte zu erleichtern, insbesondere wenn die Codierung dem Standard MPEG-4 entspricht. Dies beruht auf der Tatsache, dass das vorgeschlagene Paket Codierung fester Länge und variabler Länge trennt und flexibles Zergliedern gestattet, was die Möglichkeit optimaler Implementierung bietet, die erforderlich ist, um Echtzeit- oder Fast-Echtzeit-Operation zu unterstützen.
  • Die Erfindung ist zum Teil durch die Wünschbarkeit von standardisierten Schnittstellen für MPEG-4-Authoring, Bitstrommanipulation, -bearbeitung und -interpretation motiviert. Ein Ziel der Erfindung ist die Bereitstellung von Tools und Schnittstellen, um die vorher erwähnten audiovisuellen Operationen beträchtlich zu erleichtern, was in codierten Bitströmen resultiert, die einfacher zu testen, prüfen und von Fehlern zu bereinigen sind und gleichzeitig dem Standard MPEG-4 entsprechen. Die in der Erfindung spezifizierten Schnittstellen können außerdem die gleitende Anpassung erleichtern, indem sie Bearbeiten von Bitströmen gestatten, wenn keine ausreichenden Verarbeitungsressourcen verfügbar sind.
  • Die spezifzierten Schnittstellen können außerdem die Erzeugung von decodierbaren Bitströmen als Reaktion auf die Benutzeranforderung gestatten, entweder direkt oder indirekt in audiovisuellen Anwendungen und Dienstleistungen eingebettet, von denen erwartet wird, dass sie in naher Zukunft wichtig sein werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die Erfindung wird unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, in denen gleiche Elemente durch gleiche Nummern bezeichnet sind und von denen:
  • 1A ein Blockdiagramm des Codierungssystems mit Einzelheiten zeigt, die eine Ausführungsform der Erfindung veranschaulichen;
  • 1B ein Blockdiagramm des Decodierungssystems mit Einzelheiten zeigt, die eine Ausführungsform der Erfindung veranschaulichen;
  • 2 eine Bitstromgenerierungs-Schnittstelle nach der Erfindung zeigt;
  • 3 eine Bitstrombearbeitungs- und -interpretationsschnittstelle nach der Erfindung zeigt; und
  • 4 ein Ablaufdiagramm zeigt, das einen in der Erfindung verwendeten Pufferaktualisierungsprozess darstellt.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Die Erfindung stellt eine integrierte Schnittstelleneinrichtung zur Verarbeitung von geströmten audiovisuellen Informationen bereit und wird veranschaulichend in der MPEG-4-Umgebung beschrieben.
  • Die von der Erfindung bereitgestellte Schnittstelleneinrichtung enthält eine Bitstrom-Eingabe-/Ausgabebibliothek für flexible Generierung, Bearbeitung und Interpretation von Bitströmen, die individuelle audiovisuelle Objekte reprasentieren, die unter Verwendung des Standards MPEG-4 codiert sind. In einem Aspekt definiert die Erfindung ein Bitstrom-Eingabe-/Ausgabepaket in der Sprache Java.
  • Dieses Paket, mpgj.bitsio, kann den im Fachgebiet bekannten standardmaßigen Java-Bibliotheken hinzugefügt werden und die Bitstrom-Eingabe- und -Ausgabeoperationen einschließlich der Codierung fester Länge und variabler Länge, die in der MPEG-4-Syntaxdecodierung häufig ist, erleichtern. Unter anderen Vorteilen ist das Paket organisiert, um Optimierung für maximale Geschwindigkeit zu erleichtern.
  • Beispielsweise könnte das Zergliederungsmodul für Code variabler Länge konfigurierbare Mehrstufen-Verweise verwenden, um Echtzeit- oder Fast-Echtzeit-Operation weiter zu unterstützen. TABELLE 1 Die Bitstrom-Eingabe-/Ausgabebibliothek der Erfindung
    Nr. Klassen Erläuterung
    1. InputStream Diese Klasse stellt die Bitstrom-Eingabefähigkeiten bereit.
    2. Map Diese Klasse wird von den Klassen InputStream und OutputStream verwendet.
    3. OutputStream Diese Klasse stellt die Bitstrom-Ausgabefähigkeiten bereit.
  • Die Bibliothek ist das Java-Äquivalent des Bit-Eingabe-/Ausgabeabschnitts von MSDL-S (MPEG-4 Syntactic Description Language), der im Fachgebiet bekannt ist. In der Tat kann die Erfindung auch intern von dem Übersetzer von MSDL-S zu Java (flavorj) verwendet werden.
  • 1A zeigt ein Blockdiagramm eines Codierungssystems mit Einzelheiten, die eine Ausführungsform der Erfindung veranschaulichen. Eine Videoszene einer natürlichen Quelle, die codiert werden soll, wird über Leitung 100 in den Videosegmentierer 101 eingegeben, der die Szene in eine Zahl von semantischen Objekten segmentiert, die über die Leitungen 103, 104, 105 ausgegeben werden. Andere Videoobjekte, die außerhalb der Szene sind, können auch gemischt werden, wie die in Leitung 102. Anschließend laufen Videoobjekte 102, 103, 104, 105 sequenziell durch den Schalter 112 und sind nacheinander in Leitung 113, einem Eingang zum Medien-1-Codierer 118, verfügbar. Parallel wird eine Audioszene einer natürlichen Quelle, die codiert werden soll, über Leitung 138 vom Audiosegmentierer 106 in individuelle Objekte, 108, 109, 110, und etwaige externe Objekte 107 segmentiert. Anschließend laufen Audioobjekte 107, 108, 109, 110 sequenziell durch den Schalter 114 und sind nacheinander in Leitung 116, einem Eingang zum Medien-2-Codierer, verfügbar. Neben natürlichen Audio- und Videoobjekten werden synthetische Objekte, entweder akustisch oder visuell, in Leitung 111 eingegeben, einem Eingang zum Medien-3-Codierer 120. Basierend auf dem von Autoren eingegebenen Inhalt 116 wird außerdem eine Beschreibung der Szene optional im Szenen-Graph 117 generiert, die in Leitung 124 ausgegeben wird. Der Szenen-Graph 117 generiert außerdem ein optionales Steuersignal, das zu jedem der Medien-Codierer gesandt wird, beispielsweise zu Medien-1-Codierer 118 über Leitung 121, zu Medien-2-Codierer 119 über Leitung 122 und zu Medien-3-Codierer 120 über Leitung 127.
  • Obwohl drei Medien-Codierer dargestellt sind, gibt es keine Begrenzung der Zahl der Medien-Codierer, die nach der Erfindung eingesetzt werden können. Weiterhin ist es möglich, dass ein Medien-Codierer selbst aus Untercodierern besteht. Die Ausgabe der Medien-Codierer in den Leitungen 125, 126 und 127 bildet Eingänge für jeweilige Medien-Bit(strom)-Generatoren, Medien-1-Bits-Generator 129, Medien-2-Bits-Generator 130 und Medien-3-Bits-Generator 131. Der Ausgang von Szenen-Graph 117 in Leitung 124 bildet den Eingang für BIFS-Bits-Generator 128. Es wird davon ausgegangen, dass der BIFS-Bits-Generator 128 sowie die Medien-Bits-Generatoren 129, 130 und 131 Schnittstellen dieser Erfindung, die in 2 ausgeführt sind, verwenden. Die Ausgaben von verschiedenen Bits-Generatoren in den Leitungen 132, 133 und 134 und 135 werden dem System-Multiplexer, Mux, 136 zugeführt. Der gemultiplexte Bitstrom ist in Kanal 137 für Speicherung oder Übertragung verfügbar.
  • 1B zeigt ein Blockdiagramm der Decodierungsoperation der Erfindung mit mehr Einzelheiten. Neben einigen wenigen Ausnahmen ist die Operation dieses Aspekts der Erfindung das Gegenteil von der der in 1A dargestellten Codierung. Der gemultiplexte Bitstrom (entweder von Speicherung oder Übertragung) ist in Kanal 137 verfügbar und wird in den Demultiplexer Demux 151 eingegeben, der diesen Strom in individuelle Bitströme wie visuelle (natürliche und synthetische Videoobjekte), akustische (natürliche und synthetische Audioobjekte), Beschreibungen von BIFS-Szenen usw. aufteilt. Der BIFS-Szenen-Bitstrom ist in Leitung 152 verfügbar, der Videoobjekte-Bitstrom in Leitung 153, der Audioobjekte-Bitstrom in Leitung 154 und der Bitstrom für synthetische (Video- oder Audio-) Objekte in Leitung 155 und bildet den Eingang für den Bits(trom)-Editor 156, der auf mehrere Bedingungen reagiert, die gleitende Anpassung oder Funktionalitäten auf Benutzeranforderung erfordern. Der Bits-Editor 156 kann sowohl für Echtzeit- als auch Nichtechtzeit-Bearbeitung von Bitströmen verwendet werden und setzt Schnittstellen nach dieser Erfindung ein, wie in 3 ausgeführt.
  • Die modifizierten Bitströme, BIFS-Bits in Leitung 157, Medien-1-Bits in Leitung 158, Medien-2-Bits in Leitung 159, Medien-3-Bits in Leitung 160, werden in jeweilige Bitstrom-Interpreter eingegeben, BIFS-Bits-Interpreter 161, Medien-1-Bits-Interpreter 162, Medien-2-Bits-Interpreter 163, Medien-3-Bits-Interpreter 164, die jeweilige Ströme von Symbolen über die Leitungen 165, 166, 167 und 168 ausgeben. Die Bitstrom-Interpreter verwenden Schnittstellen von 3 der Erfindung. Die BIFS-Symbole in Leitung 165 werden decodiert, um einen Szenen-Graph in Leitung 179 zu bilden, verschiedene Arten von Medien-Symbolströmen in den Leitungen 166, 167, 168 werden durch jeweilige Mediendecodierer decodiert, Medien-1-Decodierer 170, Medien-2-Decodierer 171 und Medien-3-Decodierer 172, und die decodierten Medienströme (Videoobjekte, Audioobjekte, synthetische Objekte usw.) werden über die Leitungen 176, 177 und 178 ausgegeben. Die verschiedenen Mediendecodierer werden durch den Szenen-Graph 169 instanziiert und Steuerungselemente für diese Decodierer werden angezeigt; Medien-1-Decodierer wird über Leitung 173 gesteuert, Medien-2-Decodierer wird über Leitung 174 gesteuert und Medien-3-Decodierer wird über Leitung 175 gesteuert. Ein Comp(ositor) 182 übernimmt den Szenen-Graph in Leitung 180 und den Ausgang der drei Medien-Decodierer in den Leitungen 176, 177 und 178 als Eingabe und setzt eine Szene zusammen, die dem Betrachter/Benutzer zu präsentieren ist, aber zuerst wird der Ausgang des Compositors in Leitung 183 zu dem Renderer übertragen, der auch durch den Szenen-Graph in Leitung 181 gesteuert wird und die zusammengesetzte Szene rendert.
  • 2 zeigt die Bitstromgenerierungsschnittstelle nach der Erfindung. Der BIFS-Bits-Generator 128 übernimmt BIFS-Symbole in Leitung 124 als Eingabe und gibt eine korrespondierende codierte Repräsentation in der Form eines Bitstroms in Leitung 132 aus. Gleichermaßen übernehmen die Medien-1-, -2-, -3-Bits-Generatoren 129, 130, 131 Mediensymbole in den Leitungen 125, 126 und 127 als Eingabe und geben die korrespondierende codierte Repräsentation in der Form von Bitströmen in den Leitungen 133, 134 bzw. 135 aus. Der BIFS-Bits-Generator 128 sowie die Medien-1-, -2-, -3-Bits-Generatoren 129, 130, 131 setzen die Bits-Generator-Schnittstelle 200 der Erfindung ein. Die Bits-Generator-Schnittstelle 200 besteht aus Java-Klassen wie OutputStream 201 und Map 202. Die Schnittstellenoperation dieser Klassen wird wie folgt beschrieben.
  • Klasse mpgj.bitsio.OutputStream
    • java.lang.Object
    • |
    • +----mpgj.bitsio.OutputStream
  • public class OutputStream extends Object
  • OutputStream ist die grundlegende Schnittstelle zum Ausgangsstrom.
  • Konstruktoren
  • public OutputStream(FileOutputStream file)
  • Bildet einen neuen OutputStream in einer Datei.
  • public OutputStream(string bits)
  • Bildet einen neuen OutputStream in einer Zeichenfolge.
  • Methoden
  • public void align(int numbits)
  • Bewirkt Ausrichtung mit der nächsten Bit-Begrenzung, die ein Vielfaches von numbits ist. Bits zwischen dem aktuellen Pointer und der Ausrichtungsgrenze werden als Nullen geschrieben.
  • public void align(string stuffing[], int numbits)
  • Bewirkt Ausrichtung mit der nächsten Bit-Begrenzung, die ein Vielfaches von numbits ist. Bits zwischen dem aktuellen Pointer und der Ausrichtungsgrenze werden gemäß der Zeichenfolge stuffing aufgefüllt.
  • public boolean eos()
  • Liefert wahr bei Ende des Stroms oder Fehler und liefert sonst unwahr.
  • public boolean error()
  • Liefert wahr bei Fehler und liefert sonst unwahr.
  • public void putbits(int numbits, int value)
  • Setzt eine vorzeichenlose ganze Zahl unter Verwendung der spezifizierten Zahl von Bits ein. Setzt das Fehlerflag, wenn der Strom nicht geschrieben werden kann oder der Wert negativ ist.
  • public void putsbits(int numbits, int value)
  • Setzt eine ganze Zahl mit Vorzeichen unter Verwendung der spezifizierten Zahl von Bits ein. Das letzte Bit wird als Vorzeichenbit eingesetzt. Setzt das Fehlerflag, wenn der Strom nicht geschrieben werden kann.
  • public void putvlc(Map map, int value)
  • Setzt den spezifizierten Wert unter Verwendung der spezifizierten Abbildungen ein. Setzt das Fehlerflag, wenn der Strom nicht geschrieben werden kann.
  • Klasse mpgj.bitsio.Map
    • java.lang.Object
    • |
    • +---mpgj.bitsio.Map
  • public class Map extends Object
  • Eine Abbildungstabelle für Codierung mit fester oder variabler Länge.
  • Konstruktoren
  • public Map(FileInputStream file, int step)
  • Bildet eine neue Abbildung durch Lesen aus einer Datei unter Verwendung von spezifizierten Schritten für Verweise.
  • public Map(FileInputStream file)
  • Bildet eine neue Abbildung durch Lesen aus einer Datei. Jeder Verweis bewirkt Vorrücken um 1 Bit.
  • public Map(string[] bitstring, int[] value, int array_size, int step)
  • Bildet eine neue Abbildung aus einem Zeichenfolgenfeld und einem ganzzahligen Feld mit bekannter Feldgröße und spezifiziertem Schritt.
  • public Map(string[] bitstring, int[] value, int array_size)
  • Bildet eine neue Abbildung aus einem Zeichenfolgenfeld und einem ganzzahligen Feld mit bekannter Feldgröße. Jeder Verweis bewirkt Vorrücken um 1 Bit.
  • Methoden
  • Es werden keine Methoden auf Benutzerebene bereitgestellt.
  • 3 zeigt die Bitstrom-Bearbeitungs- und -Interpretationschnittstelle nach der Erfindung. Der BIFS-Bits-Interpreter 161 übernimmt den BIFS-Bitstrom in Leitung 157 als Eingabe und gibt korrespondierende codierte Symbole in Leitung 165 aus. Gleichermaßen übernehmen die Medien-1-, -2-, -3-Bits-Interpreter 162, 163, 164 Medienbitströme in den Leitungen 158, 159 und 160 als Eingabe und geben die korrespondierenden codierten Symbole in den Leitungen 166, 167 bzw. 168 aus. Der BIFS-Bits-Interpreter 161 sowie die Medien-1-, -2-, -3-Bits-Interpreter 162, 163, 164 setzen die Bits-Editor/Interpreter-Schnittstelle 300 dieser Erfindung ein. Die Bits-Editor/Interpreter-Schnittstelle 300 besteht aus Java-Klassen wie InputStream 303, Map 302 und OutputStream 301. Neben der Bitstrom-Interpretation unterstützt die Schnittstelle dieser Figur auch Bitstrombearbeitung.
  • Die Bitstrom-Bearbeitungsoperationen sind im Allgemeinen ähnlich dem Bitstrom-Generierungsprozess. Beispielsweise übernimmt der Bits-Editor 156 die demultiplexten BIFS- und Medien-Bitströme in den Leitungen 152, 153, 154, 155 als Eingabe und gibt die korrespondierenden modifizierten (bearbeiteten Bitströme) über die jeweiligen Leitungen 157, 158, 159, 160 aus. Die Bearbeitungsoperation kann als Reaktion auf das Erfordernis erfolgen, Objekte aufgrund von überlasteten Systemressourcen zu verwerfen, oder aufgrund von Benutzerinteraktion und wird durch die BIFS-Editorinterpreter-Schnittstelle 300 ermöglicht. Wie angegeben, unterstützt diese Schnittstelle die Klassen InputStream und Map, die Schnittstelle unterstützt jedoch auch die Klasse OutputStream, wobei die letztgenannte (zusammen mit Map) für Bitstrom-Bearbeitungsoperationen benötigt wird. Die Schnittstellenoperation der Klassen OutputStream und Map wurden vorher diskutiert (in Verbindung mit 2). Die Schnittstellenoperation der Klasse InputStream ist wie folgt.
  • Klasse mpgj.bitsio.InputStream
    • java.lang.Object
    • |
    • +----mpgj.bitsio.InputStream
  • public class Input Stream extends Object
  • Diese Klasse ist die grundlegende Schnittstelle für den Eingangsstrom.
  • Konstruktoren
  • public InputStream(FileInputStream file)
  • Bildet einen neuen InputStream aus einer Datei.
  • public InputStream(string bits, int length)
  • Bildet einen neuen InputStream aus einer Zeichenfolge mit einer gegebenen Länge.
  • Methoden
  • public void align(int numbits)
  • Bewirkt Ausrichtung mit der nächsten Bit-Begrenzung, die ein Vielfaches von numbits ist. Bits zwischen dem aktuellen Pointer und der Ausrichtungsgrenze werden gelesen und verworfen.
  • public boolean eos()
  • Liefert wahr bei Ende des Stroms und liefert sonst unwahr.
  • public boolean error()
  • Liefert wahr bei Fehler und liefert sonst unwahr.
  • public int getbits(int length)
  • Holt eine vorzeichenlose ganze Zahl von der spezifizierten Bitzahl. Setzt das Flag eos am Ende des Stroms. Setzt das Fehlerfag, wenn der Strom nicht gelesen werden kann.
  • public int getsbits(int length)
  • Holt eine ganze Zahl mit Vorzeichen aus der spezifizierten Bitzahl (Länge-1). Das letzte Bit gibt das Vorzeichen der ganzen Zahl an. Setzt das Flag eos am Ende des Stroms. Setzt das Fehlerflag, wenn der Strom nicht gelesen werden kann.
  • public int nextbits(int length)
  • Prüft die nächste spezifizierte Zahl von Bits. Liefert den Wert als 32-stellige ganze Zahl. Rückt den aktuellen Pointer nicht weiter. Setzt das Fehlerflag, wenn der Strom nicht gelesen werden kann.
  • public void skipbits(int length)
  • Überspringt die spezifizierte Zahl von Bits. Setzt das Flag eos am Ende des Stroms.
  • public int getvlc(Map map)
  • Holt Code variabler oder fester Länge gemäß der spezifizierten Abbildung vlc. Liefert den Wert als 32-stellige ganze Zahl. Setzt das Flag eos am Ende des Stroms. Setzt das Fehlerflag, wenn der Strom nicht gelesen werden kann.
  • public int nextvlc(Map map)
  • Prüft Code variabler oder fester Länge gemäß der spezifizierten Abbildung vlc. Liefert den Wert als 32-stellige ganze Zahl. Setzt das Flag eos am Ende des Stroms. Setzt das Fehlerflag, wenn der Strom nicht gelesen werden kann.
  • Ein Aspekt der vorstehenden Routinen betrifft im Allgemeinen die Verarbeitung gegebener Bitlängen von Zeichenfolgen unter Verwendung eines Datenpuffers, wie in 4 dargestellt. In dieser Figur wird eine Eingabelänge bei 400 gelesen, wonach ein Datenpuffer in Schritt 410 geprüft wird. Gemäß der gewünschten Operation kann der Puffer gemäß der Bitlänge oder anderen Parameter gefüllt (415) oder herausgelesen (420) werden, wonach der Puffer aktualisiert wird (Schritt 430).
  • In der Implementierung der Erfindung wird eine flexible Bitstromeinrichtung eingeführt, die Kernroutinen bildet, um sowohl einfachere als auch kompliziertere Steuerung von eingebetteten audiovisuellen Objekten zu ermöglichen, alles in einer universellen und konsistenten geströmten Weise.
  • Die vorstehende Beschreibung des Systems und Verfahrens der Erfindung ist veranschaulichend, und Fachleuten im Fachgebiet werden Variationen in der Konstruktion und Implementierung einfallen. Beispielsweise können, während ein beispielhafter Satz von Strömungsfunktionen beschrieben wurde, Funktionen je nach Änderungen des Netzes, der Anwendung oder anderer Anforderungen hinzugefügt und entfernt werden. Der Rahmen der Erfindung soll ausschließlich durch die folgenden Patentansprüche begrenzt werden.

Claims (20)

  1. System zur Verarbeitung von audiovisuellen Streaming-Objekten, die nach dem Standard MPEG-4 codiert sind, gekennzeichnet durch: eine Streaming-Schnittstellenbibliothek, die einen vorbestimmten Satz von Streaming-Steuerfunktionen enthält, die audiovisuelle Objekte verarbeiten, wobei jede der Steuerfunktionen vordefinierte Funktionsaufrufe hat; und einen Prozessor, der konfiguriert ist, um auf die Streaming-Schnittstellenbibliothek zuzugreifen und um audiovisuelle Streaming-Objekte gemäß den Funktionsaufrufen zu decodieren und zu verarbeiten.
  2. System nach Anspruch 1, wobei die Prozessoreinheit eine Clientanwendung ausführt, die die Funktionsaufrufe aufruft.
  3. System nach Anspruch 1, weiter umfassend eine Benutzer-Eingabeeinheit, die mit dem Prozessor kommuniziert und ausgewählte Funktionsaufrufe aufruft.
  4. System nach Anspruch 1, wobei die Schnittstellenbibliothek eine Schnittstelle für visuelle Decodierung zum Decodieren von visuellen Objekten in audiovisuellen Bitströmen umfasst.
  5. System nach Anspruch 1, wobei die Streaming-Schnittstellenbibliothek eine Generierungsfunktion zum Generieren und Ausgeben von audiovisuellen Datenströmen umfasst.
  6. System nach Anspruch 1, wobei die Streaming-Schnittstellenbibliothek eine Bearbeitungsfunktion zum Bearbeiten und Manipulieren von audiovisuellen Bitströmen umfasst.
  7. System nach Anspruch 1, wobei die Streaming-Schnittstellenbibliothek eine Interpretierungsfunktion zum Interpretieren von audiovisuellen Bitströmen umfasst.
  8. System nach Anspruch 1, wobei die Prozessoreinheit die Ausführung der Bitstrom-Schnittstellenbibliothek gemäß variierenden Systemressourcen anpasst.
  9. System nach Anspruch 1, weiter umfassend eine Clientanwendungs-Schnittstelle, wobei die Clientanwendungs-Schnittstelle zusätzliche Bitstromfunktionen aufruft, die von kooperierenden Clientanwendungen präsentiert werden.
  10. System nach Anspruch 1, weiter umfassend ein Multimedia-Browsermodul, das die Bitstrom-Schnittstellenbibliothek für Benutzeranzeige einsetzt.
  11. Verfahren zum Verarbeiten von audiovisuellen Streaming-Objekten, die nach dem Standard MPEG-4 codiert sind, gekennzeichnet durch: Präsentieren einer Streaming-Schnittstellenbibliothek, die einen vorbestimmten Satz von Streaming-Steuerfunktionen enthält, die audiovisuelle Objekte verarbeiten, wobei jede der Steuerfunktionen vordefinierte Funktionsaufrufe hat; und Verarbeiten von Aufrufen an die Streaming-Schnittstellenbibliothek zum Decodieren und Verarbeiten von audiovisuellen Streaming-Objekten gemäß den Funktionsaufrufen.
  12. Verfahren nach Anspruch 11, wobei der Schritt der Verarbeitung den Schritt der Ausführung einer Clientanwendung, die die Funktionsaufrufe aufruft, umfasst.
  13. Verfahren nach Anspruch 11, weiter umfassend den Schritt des Empfangs von Benutzereingabe, wobei die Benutzereingabe ausgewählte Funktionsaufrufe aufruft.
  14. Verfahren nach Anspruch 11, wobei die Streaming-Schnittstellenbibliothek eine Schnittstelle für visuelle Decodierung zum Decodieren von visuellen Objekten, die in audiovisuellen Bitströmen enthalten sind, umfasst.
  15. Verfahren nach Anspruch 11, wobei die Streaming-Schnittstellenbibliothek eine Generierungsfunktion zum Generieren und Ausgeben von audiovisuellen Datenströmen umfasst.
  16. Verfahren nach Anspruch 11, wobei die Streaming-Schnittstellenbibliothek eine Bearbeitungsfunktion zum Bearbeiten und Manipulieren von audiovisuellen Bitströmen umfasst.
  17. Verfahren nach Anspruch 11, wobei die Streaming-Schnittstellenbibliothek eine Interpretierungsfunktion zum Interpretieren von audiovisuellen Bitströmen umfasst.
  18. Verfahren nach Anspruch 11, wobei der Schritt der Verarbeitung den Schritt der Anpassung der Ausführung der Bitstrom-Schnittstellenbibliothek gemäß variierenden Systemressourcen umfasst.
  19. Verfahren nach Anspruch 11, weiter umfassend den Schritt der Bereitstellung einer Clientanwendungs-Schnittstelle, wobei die Clientanwendungs-Schnittstelle zusätzliche Bitstromfunktionen aufruft, die von kooperierenden Clientanwendungen präsentiert werden.
  20. Verfahren nach Anspruch 11, weiter umfassend den Schritt der Bereitstellung eines Multimedia-Browsermoduls, das die Bitstrom-Schnittstellenbibliothek für Benutzeranzeige einsetzt.
DE69837833T 1997-04-07 1998-04-07 System und verfahren zur erzeugung und schnittstellenbildung von mpeg-kodierte audiovisuelle gegenstände darstellenden bitströmen Expired - Lifetime DE69837833T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US4280197P 1997-04-07 1997-04-07
US42801P 1997-04-07
PCT/US1998/006790 WO1998046024A1 (en) 1997-04-07 1998-04-07 System and method for generation and interfacing of bitstreams representing mpeg-coded audiovisual objects

Publications (2)

Publication Number Publication Date
DE69837833D1 DE69837833D1 (de) 2007-07-12
DE69837833T2 true DE69837833T2 (de) 2008-01-31

Family

ID=21923826

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69837833T Expired - Lifetime DE69837833T2 (de) 1997-04-07 1998-04-07 System und verfahren zur erzeugung und schnittstellenbildung von mpeg-kodierte audiovisuelle gegenstände darstellenden bitströmen

Country Status (6)

Country Link
US (1) US6044397A (de)
EP (1) EP0909509B1 (de)
JP (2) JP4726096B2 (de)
CA (1) CA2257566C (de)
DE (1) DE69837833T2 (de)
WO (1) WO1998046024A1 (de)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2970558B2 (ja) * 1996-10-25 1999-11-02 日本電気株式会社 オーディオ/ビデオ/コンピュータグラフィクス同期再生合成方式及び方法
ATE331390T1 (de) * 1997-02-14 2006-07-15 Univ Columbia Objektbasiertes audiovisuelles endgerät und entsprechende bitstromstruktur
US6360195B1 (en) 1997-04-25 2002-03-19 Hongtao Liao Television or radio control system development
US6337710B1 (en) * 1997-06-12 2002-01-08 Lsi Logic Corporation Graphical video editing system for regeneration of bitstreams
US6535530B1 (en) * 1997-07-23 2003-03-18 Matsushita Electric Industrial Co., Ltd. Apparatus and method for demultiplexing multiplexed data
US6400400B1 (en) * 1997-07-30 2002-06-04 Sarnoff Corporation Method and apparatus for automated testing of a video decoder
AU761202B2 (en) * 1997-09-22 2003-05-29 Sony Corporation Generation of a bit stream containing binary image/audio data that is multiplexed with a code defining an object in ascii format
DE69834045T2 (de) * 1997-10-17 2006-11-16 Koninklijke Philips Electronics N.V. Verfahren zur einkapselung von daten in transportpakete konstanter länge
JP3407287B2 (ja) * 1997-12-22 2003-05-19 日本電気株式会社 符号化復号システム
US6636931B2 (en) * 1998-01-06 2003-10-21 Pragmatic Communications Systems, Inc. System and method for switching signals over twisted-pair wires
US6654931B1 (en) 1998-01-27 2003-11-25 At&T Corp. Systems and methods for playing, browsing and interacting with MPEG-4 coded audio-visual objects
US6320623B1 (en) * 1998-11-13 2001-11-20 Philips Electronics North America Corporation Method and device for detecting an event in a program of a video and/ or audio signal and for providing the program to a display upon detection of the event
US6351267B1 (en) * 1998-12-10 2002-02-26 Gizmoz Ltd Fast transmission of graphic objects
US6493023B1 (en) * 1999-03-12 2002-12-10 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method and apparatus for evaluating the visual quality of processed digital video sequences
US6934906B1 (en) 1999-07-08 2005-08-23 At&T Corp. Methods and apparatus for integrating external applications into an MPEG-4 scene
EP1580962A3 (de) * 2000-02-21 2011-12-28 NTT DoCoMo, Inc. Verfahren, System und Server zur Verteilung von Informationen; mobiles Kommunikationsnetz-system und verfahren zur Erbringung eines Kommunikationsdienstes
KR100429838B1 (ko) * 2000-03-14 2004-05-03 삼성전자주식회사 인터랙티브 멀티미디어 콘텐츠 서비스에서 업스트림채널을 이용한 사용자 요구 처리방법 및 그 장치
US6751655B1 (en) * 2000-04-18 2004-06-15 Sun Microsystems, Inc. Method and apparatus for transport of scenegraph information across a network
DE10041310B4 (de) * 2000-08-23 2009-05-20 Deutsche Telekom Ag Verfahren zum Plattformunabhängigen Streaming von Multimedia-Inhalten für IP-basierte Netze
US20020152462A1 (en) * 2000-08-29 2002-10-17 Michael Hoch Method and apparatus for a frame work for structured overlay of real time graphics
US7101988B2 (en) * 2000-10-12 2006-09-05 Marical, Inc. Polyvalent cation-sensing receptor in Atlantic salmon
US7219364B2 (en) * 2000-11-22 2007-05-15 International Business Machines Corporation System and method for selectable semantic codec pairs for very low data-rate video transmission
US7068294B2 (en) 2001-03-30 2006-06-27 Koninklijke Philips Electronics N.V. One-to-one direct communication
DE10128925A1 (de) * 2001-06-15 2002-12-19 Deutsche Telekom Ag Endgerät und Verfahren zur Nutzung verschiedener über ein Telekommunikationsnetz angebotener Dienste
US7216288B2 (en) * 2001-06-27 2007-05-08 International Business Machines Corporation Dynamic scene description emulation for playback of audio/visual streams on a scene description based playback system
US7091989B2 (en) 2001-08-10 2006-08-15 Sony Corporation System and method for data assisted chroma-keying
US20030030658A1 (en) * 2001-08-10 2003-02-13 Simon Gibbs System and method for mixed reality broadcast
US7173672B2 (en) * 2001-08-10 2007-02-06 Sony Corporation System and method for transitioning between real images and virtual images
US7339609B2 (en) * 2001-08-10 2008-03-04 Sony Corporation System and method for enhancing real-time data feeds
US7240120B2 (en) * 2001-08-13 2007-07-03 Texas Instruments Incorporated Universal decoder for use in a network media player
JP2003153254A (ja) * 2001-08-31 2003-05-23 Canon Inc データ処理装置及びデータ処理方法、並びにプログラム、記憶媒体
FI20011871A (fi) * 2001-09-24 2003-03-25 Nokia Corp Multimediadatan prosessointi
KR100493674B1 (ko) * 2001-12-29 2005-06-03 엘지전자 주식회사 멀티미디어 데이터 검색 및 브라우징 시스템
EP1328127A1 (de) * 2002-01-09 2003-07-16 Beta Research GmbH Simultaneinspeisung und Synchronisation von Audio und Videodaten
US20030156108A1 (en) * 2002-02-20 2003-08-21 Anthony Vetro Consistent digital item adaptation
US7613727B2 (en) 2002-02-25 2009-11-03 Sont Corporation Method and apparatus for supporting advanced coding formats in media files
US20030163477A1 (en) * 2002-02-25 2003-08-28 Visharam Mohammed Zubair Method and apparatus for supporting advanced coding formats in media files
US20040199565A1 (en) * 2003-02-21 2004-10-07 Visharam Mohammed Zubair Method and apparatus for supporting advanced coding formats in media files
US20030187820A1 (en) 2002-03-29 2003-10-02 Michael Kohut Media management system and process
US20040006575A1 (en) * 2002-04-29 2004-01-08 Visharam Mohammed Zubair Method and apparatus for supporting advanced coding formats in media files
US7831990B2 (en) * 2002-04-29 2010-11-09 Sony Corporation Generic adaptation layer for JVT video
US20040094020A1 (en) * 2002-11-20 2004-05-20 Nokia Corporation Method and system for streaming human voice and instrumental sounds
KR100695126B1 (ko) * 2003-12-02 2007-03-14 삼성전자주식회사 그래픽 데이터 압축에 관한 메타표현을 이용한 입력파일생성 방법 및 시스템과, afx부호화 방법 및 장치
KR100929073B1 (ko) * 2005-10-14 2009-11-30 삼성전자주식회사 휴대 방송 시스템에서 다중 스트림 수신 장치 및 방법
FR2912275B1 (fr) * 2007-02-02 2009-04-03 Streamezzo Sa Procede de transmission d'au moins un contenu representatif d'un service, depuis un serveur vers un terminal, dispositif et produit programme d'ordinateur correspondants
US8458597B1 (en) * 2010-02-04 2013-06-04 Adobe Systems Incorporated Systems and methods that facilitate the sharing of electronic assets

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69531265T2 (de) * 1994-03-19 2004-06-03 Sony Corp. Optische Platte und Methode und Gerät zur Aufzeichnung auf und danach Wiedergabe von Informationen von dieser Platte
US5563648A (en) * 1994-04-28 1996-10-08 Thomson Consumer Electronics, Inc. Method for controlling execution of an audio video interactive program
JP3078215B2 (ja) * 1995-01-06 2000-08-21 ミツビシ・エレクトリック・インフォメイション・テクノロジー・センター・アメリカ・インコーポレイテッド ディスプレイ装置
US5794250A (en) * 1995-10-20 1998-08-11 Ncr Corporation Method and apparatus for extending existing database management system for new data types

Also Published As

Publication number Publication date
JP5084644B2 (ja) 2012-11-28
JP2000513178A (ja) 2000-10-03
EP0909509B1 (de) 2007-05-30
JP4726096B2 (ja) 2011-07-20
EP0909509A1 (de) 1999-04-21
CA2257566C (en) 2002-01-01
EP0909509A4 (de) 2004-09-22
CA2257566A1 (en) 1998-10-15
JP2008289187A (ja) 2008-11-27
WO1998046024A1 (en) 1998-10-15
DE69837833D1 (de) 2007-07-12
US6044397A (en) 2000-03-28

Similar Documents

Publication Publication Date Title
DE69837833T2 (de) System und verfahren zur erzeugung und schnittstellenbildung von mpeg-kodierte audiovisuelle gegenstände darstellenden bitströmen
US10334278B2 (en) Methods and apparatus for integrating external applications into an MPEG-4 scene
JP4959504B2 (ja) 適応制御を行うことができるmpegコード化オーディオ・ビジュアルオブジェクトをインターフェイスで連結するためのシステムおよび方法
TWI323126B (en) Method to transmit and receive font information in streaming systems
CN107645491A (zh) 媒体流传输设备和媒体服务设备
JP2003069965A (ja) Bifsテキストフォーマットをbifsバイナリフォーマットに変換するための装置
CN114363648A (zh) 直播系统混流过程中音视频对齐的方法、设备及存储介质
US6351565B1 (en) Data structure for image transmission, method of image transmission, image decoding apparatus, and data recording media
JP2004537931A (ja) シーンを符号化する方法及び装置
Darlagiannis et al. Virtual collaboration and media sharing using COSMOS
Puri et al. Overview of the MPEG Standards
US20230224557A1 (en) Auxiliary mpds for mpeg dash to support prerolls, midrolls and endrolls with stacking properties
BAH MULTIMEDIA REPORT
Huseby Video on the World Wide Web: accessing video from WWW browsers
Koivisto Multimedia Presentation and Transmission Standards and Their Support for Automatic Analysis, Conversion and Scalling: A Survey
Puri et al. AT&T Labs, Red Bank, New Jersey
JP2005159878A (ja) データ処理装置及びデータ処理方法、並びにプログラム、記憶媒体
De Pietro Multimedia Applications for Parallel and Distributed Systems
Eleftheriadis et al. MPEG-4 systems
Bertin et al. Commerce with MPEG-4 on the Internet with QoS
Müller et al. Computer Science Faculty
Puri AT&T Labs-Research, Red Bank, New Jersey Alexandros Eleftheriadis Columbia University, New York, New York
EP1912438A2 (de) System und Verfahren zur Verbindung MPEG-kodierter und adaptiv steuerbarer audiovisueller Objekte
Houchin et al. JPEG 2000 file format: an imaging architecture for today and tomorrow
Lee et al. The content analyzer supporting interoperability of MPEG-4 content in heterogeneous players

Legal Events

Date Code Title Description
8364 No opposition during term of opposition