DE60221636T2 - Verfahren und vorrichtung zur verwaltung von interaktionen im standard mpeg-4 - Google Patents

Verfahren und vorrichtung zur verwaltung von interaktionen im standard mpeg-4 Download PDF

Info

Publication number
DE60221636T2
DE60221636T2 DE60221636T DE60221636T DE60221636T2 DE 60221636 T2 DE60221636 T2 DE 60221636T2 DE 60221636 T DE60221636 T DE 60221636T DE 60221636 T DE60221636 T DE 60221636T DE 60221636 T2 DE60221636 T2 DE 60221636T2
Authority
DE
Germany
Prior art keywords
mpeg
interactions
standard
managing
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60221636T
Other languages
English (en)
Other versions
DE60221636D1 (de
Inventor
Jean-Claude Dufourd
Cyril Concolato
Francoise Preteux
Marius Preda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Groupe des Ecoles des Telecommunications
Original Assignee
France Telecom SA
Groupe des Ecoles des Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR0100486A external-priority patent/FR2819669B1/fr
Application filed by France Telecom SA, Groupe des Ecoles des Telecommunications filed Critical France Telecom SA
Publication of DE60221636D1 publication Critical patent/DE60221636D1/de
Application granted granted Critical
Publication of DE60221636T2 publication Critical patent/DE60221636T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Communication Control (AREA)

Description

  • Diese Erfindung betrifft das Management der Multimedia-Interaktionen, die von einem oder mehreren Benutzern ausgehend von Multimedia-Terminals durchgeführt werden. Die Interaktionen können sowohl Texte, als auch Sprache oder Gesten sein. Die Interaktionen werden ausgehend von jeder beliebigen herkömmlichen Eingangsvorrichtung erfaßt, wie zum Beispiel Maus, Joystick, Tastatur oder einer nicht herkömmlichen, wie zum Beispiel Erkennungssysteme und Systeme für die Sprachsynthese oder Steuerschnittstellen durch den Blick und/oder die Geste. Diese Multimedia-Interaktionen werden im Zusammenhang mit dem internationalen MPEG-4-Standard verarbeitet.
  • Kontext der Erfindung
  • Im MPEG-4-Standard (ISO/EIC 14496) wird ein Kommunikationssystem für audiovisuelle interaktive Szenen spezifiziert. Nach diesem Standard haben die Benutzer die Möglichkeit zur Interaktion mit der Multimedia-Szene. Diese Benutzer-Interaktionen können örtlich kundenseitig verarbeitet werden oder zwecks Verarbeitung wieder an den Server übertragen werden.
  • Im ISO/EIC 14496-1 (MPEG-4 Systems) Standard wird das binäre Format der Szenendeskription (BIFS: Binary Format for Scene) definiert, das die Organisation der audiovisuellen Objekte in einer Szene betrifft. Die Verhaltensweisen der Objekte und ihre Antworten auf die von den Benutzern durchgeführten Interaktionen können im BIFS-Format vermittels von Quellen und Zielen (Routen) von Ereignissen dargestellt werden, sowie mit Hilfe von Aufnehmern (spezielle Knoten, die Ereignisse auslösen können). Die kundenseitigen Interaktionen bestehen aus der Änderung der Attribute der Objekte der Szene gemäß den von den Benutzern spezifizierten Aktionen. Jedoch definiert MPEG-4 Systems keine besondere Benutzerschnittstelle oder einen Mechanismus, der die Interaktion des Benutzers den BIFS Ereignissen zuordnet.
  • BIFS Command ist die Untergruppe der BIFS Deskription, mit der Eigenschaften des Graphs der Szene, seiner Knoten oder seiner Verhaltensweisen geändert werden können. BIFS Command wird also für die Änderung einer Reihe Eigenschaften der Szene zu einem gegebenen Zeitpunkt verwendet. Die Befehle sind in CommandFrames gruppiert, damit mehrere Befehle in eine einzige Zugriffseinheit (Access Unit) geschickt werden können. Nachstehend die vier Basisbefehle: Ersatz einer ganzen Szene, und Einfügung, Löschen oder Ersatz der Knotenstrukturen, Eingang von Ereignissen (eventin), exposedField, indexierter Wert in einem MFField oder einer Route). Die Identifizierung eines Knotens in der Szene wird von einer nodeID geliefert. Die Identifizierung der Felder eines Knotens wird von INid des Feldes geliefert.
  • BIFS-Anim ist die Untergruppe der BIFS Beschreibung, die die kontinuierliche Aktualisierung gewisser Knotenfelder im Graph der Szene betrifft. BIFS-Anim wird zum Einbinden verschiedener Animationsarten benutzt, einschließlich der Animation von Gesichtsmodellen, Modellen des menschlichen Körpers, Vernetzung, sowie diverser Arten von Attributen, wie zum Beispiel zweidimensionale und dreidimensionale Positionen, Drehungen, Skalenfaktoren oder kolorimetrische Information. BIFS-Anim spezifiziert einen Strom sowie die Verfahren zum Codieren und Decodieren zur Animation gewisser Knoten der Szene, die besondere dynamische Felder umfassen. Der Hauptnachteil von BIFS-Anim im Rahmen dieser Erfindung ist folgender: In BIFS-Anim wird nicht spezifiziert, wie alle Felder aller Knoten einer Szene zu animieren sind, die aktualisiert werden können. Außerdem verwendet BIFS-Anim eine Animationsmaske, die Teil der Informationen zur Konfiguration des Decodierers ist. Die Animationsmaske kann nicht durch eine direkte Interaktion eines Benutzers geändert werden. Folglich ist BIFS-Anim nicht für die Interaktion des Benutzers geeignet, die hohe Flexibilität und die Möglichkeit notwendig macht, die Knoten der zu ändernden Szene sich dynamisch entwickeln zu lassen.
  • MPEG-J ist ein Programmierungssystem, in dem Schnittstellen spezifiziert sind, um das Zusammenwirken eines MPEG-4 Mediasenders mit JAVA Code zu garantieren. Der JAVA Code kommt am MPEG-4 Terminal in Form eines getrennten grundlegenden Stroms an. Er wird dann zum Umfeld der Ausführung MPEG-J geleitet, das eine virtuelle Java-Maschine umfaßt, von der aus das MPEG-J Programm Zugriff auf die einzelnen Komponenten des MPEG-4 Mediasenders haben wird. Die Programmierschnittstelle SceneGraph liefert einen Mechanismus, mit dem die MPEG-J Anwendungen auf die Szene zugreifen, die für die Komposition durch den BIFS Mediasender benutzt wird, und sie handhaben. Es handelt sich dabei um eine Schnittstelle niedrigen Niveaus, die der MPEG-J Anwendung erlaubt, die Ereignisse der Szene zu kontrollieren und die Verzweigung der Szene durch Programm zu ändern. Es können auch Knoten angelegt und gehandhabt werden, aber die MPEG-J Anwendung kann nur auf die Felder der Knoten zugreifen, für die eine Identifizierung des Knotens definiert worden ist. Außerdem erfordert ein Einsatz von MPEG-J Quellen, die für viele Anwendungen zu groß sind, und insbesondere, wenn es um tragbare kleine Vorrichtungen und Decodierer geht. MPEG-J ist somit nicht für die Definition von Interaktionsverfahren des Benutzers geeignet, die auf den Terminals mit begrenzten Kapazitäten verfügbar sind.
  • Bei der Auswertung des oben beschriebenen technischen Stands werden die wichtigsten Verfahren kurz beschrieben und untersucht, die zum Management der Interaktionen von Multimedia-Anwendern benutzt werden könnten. Dann muß durch Aspekte bezüglich der aktuellen Architekturen des Managements von Interaktionen ergänzt werden. Bisher gibt es nur zwei Arten, um die Interaktion anzugehen. Zunächst ist im MPEG-4 Rahmen und nur bei Interaktionen von der Art Zeiger die Kompositionsvorrichtung damit beauftragt, die Ereignisse zu transcodieren, die von Benutzern bei der Aktion der Änderung der Szene herkommen. Zweitens, und außerhalb des MPEG-4 Kontextes müssen alle anderen Interaktionen außer denjenigen von der Art Zeiger in einer spezifischen Anwendung eingesetzt werden. Folglich ist das Zusammenwirken verloren. Die beiden vorher beschriebenen Optionen sind zu begrenzt, um das Konzept der Interaktivität zwischen mehreren Benutzern in seiner Allgemeinheit und seiner Überordnung zu erfassen, das zu dem wird, was bei Kommunikationssystemen hauptsächlich auf dem Spiel steht.
  • In diesem Dokument werden übergeordnete Verfahren und ein System für das Management der Multimedia-Interaktionen vorgeschlagen, die von einem oder mehreren Benutzern ausgehend von einem Multimedia-Terminal durchgeführt werden. Das vorgeschlagene System ist eine Erweiterung der Spezifikationen des Teils „MPEG-4 Systeme". Darin wird spezifiziert, wie die Interaktionen eines oder mehrerer Benutzer mit den BIFS Ereignissen verbunden werden können, indem die Architektur der MPEG-4 Systeme wiederverwendet wird. Das mit der Erfindung verbundene System ist übergeordnet, denn mit ihm können alle Arten von Interaktionen mit einem oder mehreren Benutzern verarbeitet werden, und zwar ab Eingangsvorrichtungen, die sowohl einfach sein können (Maus, Tastaturen), als auch komplex (bei denen 6 Freiheitsgrade berücksichtigt werden müssen, oder bei denen Spracherkennungssysteme eingesetzt werden). Dieses System ist durch die einfache Wiederbenutzung von vorhandenen Werkzeugen in allen Situationen benutzbar, einschließlich in denjenigen, die nur einen sehr geringen Komplexheitsgrad stützen können.
  • Im derzeitigen Stand der Technik ist das Patent WO0000898 bekannt. Es betrifft eine Interaktion zwischen mehreren Benutzern für eine Multimedia-Kommunikation, die darin besteht, eine Meldung auf einem örtlichen Computer des Benutzers zu generieren, wobei die Meldung objektorientierte Mediadaten enthält (zum Beispiel ein Fluß digitaler Audiodaten oder ein Fluß digitaler Videodaten oder beide), und die Meldung an einen Computer eines entfernten Benutzers zu übertragen. Der Computer des örtlichen Benutzers zeigt eine Szene an, die objektorientierte Mediadaten umfaßt, und die zwischen dem Computer des örtlichen Benutzers und dem Computer eines entfernten Benutzers geteilt ist. Letzterer konstruiert die Meldung mit Hilfe einer Art Meldungs-Manager. Die Interaktion zwischen mehreren Benutzern für die Multimedia-Kommunikation ist eine Erweiterung der Version 1 MPEG-4.
  • Ein anderes Patent PCT WO9939272 betrifft ein auf MPEG-4 beruhendes System für interaktive Kommunikation, in dem Befehls-Deskriptoren mit Knoten zur Weiterleitung von Befehlen oder Wege zur Weiterleitung eines Servers in der Beschreibung der Szene benutzt werden, um eine Unterstützung der spezifischen Interaktivität für die Anwendung beizutragen. Man kann bei der Wahl des Inhalts helfen, indem die Präsentation in den Befehlsparametern angegeben wird, wobei der Befehlserkenner angibt, daß der Befehl ein Befehl für die Wahl des Inhalts ist. Es kann eine ursprüngliche Szene angelegt werden, die mehrere Bilder und einen Text enthält, in dem eine zu einem Bild zugeordnete Präsentation beschrieben wird. Jedem Bild und dem entsprechenden Text ist ein Deskriptor für die Wahl des Inhalts zugeordnet. Wenn der Benutzer auf ein Bild klickt, überträgt er den Befehl, der die gewählte Präsentation enthält, und der Server löst eine neue Präsentation aus. Diese Technik kann in jedem Anwendungskontext angewendet werden, ebenso, wie HTTP und CGI benutzt werden können, um jegliche auf einen Server gestützte Funktionalität der Anwendung einzusetzen.
  • Im Rahmen des neuen Ansatzes, der für die Multimedia-Interaktion mit einem oder mehreren Benutzern vorgeschlagen wird, werden die von einer beliebigen Eingangsvorrichtung generierten Interaktionsdaten als grundlegende MPEG-4 Flüsse betrachtet. Daraus ergibt sich, daß Vorgänge, die denen ähnlich sind, die bei jedem beliebigen grundlegenden Datenfluß angewendet werden, dann eingesetzt werden können, indem direkt die standardmäßige Decodierkette benutzt wird.
  • Folglich schlägt diese Erfindung vor, ein gleichartiges Modell wie das in MPEG-4 ausgestellte Modell zu benutzen, um die Interaktionsdaten zu behandeln.
  • Folglich betrifft diese Erfindung in ihrer allgemeinsten Annahme ein Verfahren für das Management von Interaktionen zwischen peripheren Steuergeräten und Multimedia-Anwendungen mit Nutzung des MPEG-4 Standards, wobei die besagten peripheren Steuergeräte digitale Signale je nach Aktionen eines oder mehrerer Benutzer abgeben, und dieses Verfahren ist dadurch gekennzeichnet, daß es einen Schritt mit Bildung einer digitalen Folge umfaßt, die die Form eines BIFS(Binary Format for Szene im Sinne des MPEG-4 Standards)-Knotens aufweist, wobei dieser Knoten ein oder mehrere Felder umfaßt, die den Typ und die Anzahl der auf die Objekte der Szene anzuwendenden Interaktionsdaten festlegt.
  • Bei einem bevorzugten Ausführungsverfahren umfaßt dieser Knoten ein Merkzeichen, dessen Zustand erlaubt oder untersagt, daß eine Interaktion von der Szene berücksichtigt wird.
  • Bei einer Variante umfaßt der besagte Knoten einen Schritt zur Signalisierung der Aktivität der zugeordneten Vorrichtung.
  • Vorteilhafterweise umfaßt das Verfahren einen Schritt mit Bezeichnung der Art der Tätigkeit oder der Tätigkeiten, die an einem oder mehreren Objekten der Szene über das Feld oder die Felder des Knotens ausgeführt werden sollen.
  • Bei einem bevorzugten Ausführungsverfahren umfaßt das Verfahren einen Schritt mit Bildung, ausgehend vom oder von den Feld(ern) des Knotens, einer anderen digitalen Folge, die mindestens aus einer auf die Szene auszuübenden Tätigkeit und mindestens aus einem Parameter der besagten Tätigkeit zusammengesetzt ist, deren Wert einer vom besagten Peripheriegerät abgegebenen Variablen entspricht.
  • Bei einem bevorzugten Ausführungsverfahren umfaßt das Verfahren einen Schritt mit Transfer der besagten digitalen Folge in den Kompositionsspeicher.
  • Bei einem bevorzugten Ausführungsverfahren wird für den Transfer der besagten digitalen Folge die Decodierkette der MPEG-4 Systeme für die Einführung der Interaktionsinformationen in die Kompositionsvorrichtung benutzt.
  • Bei einem besonderen Ausführungsverfahren wird der Schritt mit Transfer der Folge unter der Kontrolle eines Flusses durchgeführt, der mindestens einen Fluß-Deskriptor hat, der selbst die Informationen transportiert, die für die Konfiguration der Decodierkette mit dem geeigneten Decodierer notwendig sind.
  • Bei einer Variante wird der Schritt mit Bildung der besagten Folge in einem Decodierer ausgeführt, der mit der gleichen Schnittstelle zur Kompositionsvorrichtung versehen ist, wie ein üblicher BIFS Decodierer, um die decodierten BIFS Commands in der Szene auszuführen, ohne über einen Kompositionspuffer zu gehen.
  • Bei einer Variante umfaßt der BIFS Knoten, der den ersten Schritt mit Bildung ausführt, eine variable Anzahl Felder je nach der Art des benutzten peripheren Steuergeräts, wobei die besagten Felder mit den Feldern der von Routen zu ändernden Knoten verbunden sind. Der Decodierer der Interaktion transferiert dann die vom Peripheriegerät erzeugten Werte in die Felder dieses BIFS Knotens, wobei es der Mechanismus der Routen übernimmt, diese Werte an die Zielfelder weiterzugeben.
  • Bei einem besonderen Ausführungsverfahren geht der Fluß der Interaktionsdaten mit einem oder mehreren Benutzern über einen DMIF-client, der der Vorrichtung zugeordnet ist, die die Zugriffseinheiten generiert, die im Decodier-Pufferspeicher anzuordnen sind, der mit dem entsprechenden Decodierer verbunden ist.
  • Bei einem spezifischen Beispiel tritt der Interaktionsfluß mit einem oder mehreren Benutzern in den entsprechenden Decodierer ein, und zwar entweder direkt oder durch den zugeordneten und verkürzt somit den Weg des Flusses der Interaktionen des Benutzers.
  • Die Erfindung betrifft auch eine EDV-Ausrüstung, die einen Rechner für die Ausführung einer Multimedia-Anwendung mit Nutzung des MPEG-4 Standards und mindestens ein Peripheriegerät für die Darstellung einer Multimediaszene, sowie mindestens ein Peripheriegerät für die Steuerung des Programms umfaßt, wobei das besagte Programm dadurch gekennzeichnet ist, daß es außerdem eine Schnittstellenleitung aufweist, die einen Eingang zum Empfangen der Signale eines Steuermittels und einen Ausgang für die Abgabe einer Folge vom Typ BIFS und ein Mittel zur Bildung einer Ausgangsfolge in Abhängigkeit von den Signalen enthält, die vom Eingangsperipheriegerät gemäß oben angesprochenem Verfahren geliefert werden.
  • Die Erfindung wird beim Lesen der nachfolgenden Beschreibung eines nicht beschränkenden Realisationsbeispiels besser verstanden werden, die auf die Zeichnungen im Anhang verweist:
  • Die 1 stellt ein Organisationsschema des Modells des Decodierers des Systems dar;
  • Die 2 stellt den Fluß der Interaktionsdaten des Benutzers dar.
  • Die 1 beschreibt das Standardmodell. Die 2 beschreibt das Modell, in dem zwei Hauptkonzepte erscheinen: Der Interaktionscodierer, der Kompositionseinheiten (CU) erzeugt, und der Interaktionsfluß des Benutzers. Die Daten können entweder vom in einer Zugriffseinheit (AU) angeordneten Decodier-Pufferspeicher herkommen, wenn der Zugriff zum Manager der Eingangsvorrichtung vermittels des DMIF (Delivery Multimedia Integration Framework) des MPEG-4 Standards erfolgt, oder er kann direkt von der Eingangsvorrichtung zum Decodierer selbst gehen, wenn der Einsatz dergestalt ist, daß der Decodierer und der Manager der Eingangsvorrichtung in der gleichen Komponente angeordnet sind. Im letzteren Fall ist der Decodier-Pufferspeicher nicht nützlich.
  • Für das Management der Benutzerinteraktion sind folgende Elemente notwendig:
    • – Eine neue Art Fluß, die die Daten der Benutzerinteraktion (UI) berücksichtigt;
    • – Ein neuer einziger BIFS Knoten zum Spezifizieren der Verbindung zwischen dem Fluß der Benutzerinteraktionen und den Elementen der Szene, und auch zum Zulassen oder Untersagen dieser Interaktion;
    • – Ein neuer Typ eines Decodierers zum Interpretieren der von der Eingangsvorrichtung oder vielleicht vom Decodier-Pufferspeicher herkommenden Daten und zur Umwandlung in Szenenänderungen. Diese Änderungen haben das gleiche Format wie die BIFS Commands. Anders gesagt, der Ausgang des Interaktions-Decodierers ist genau gleichwertig mit dem Ausgang eines BIFS Decodierers.
  • Hier wird die neue Art eines Flusses definiert, der Fluß der Benutzerinteraktion (Fluß UI, siehe Tabelle 1) genannt wird.
  • Er besteht aus Zugriffseinheiten (AU), die von einer Eingangsvorrichtung herkommen (zum Beispiel eine Maus, eine Tastatur, ein Handschuh mit Instrumenten, ...). Die Syntax einer Zugriffseinheit wird hier nicht näher definiert, um möglichst allgemein zu bleiben. Ohne darauf beschränkt zu sein, könnte sie identisch mit einer anderen Zugriffseinheit sein, die von einem anderen grundlegenden Fluß herkommt, wenn der Zugriff durch DMIF erfolgt. Die hier spezifizierte Art eines Flusses umfaßt auch den Fall einer örtlichen Vorrichtung zum Anlegen von Media, die als Interaktionsvorrichtung benutzt wird. Somit wird eine örtliche Vorrichtung, die eine beliebige Art eines Objekts erzeugt, das von der Angabe des Objekttyps (Objekt Type Indication) von MPEG-4 definiert wird, wie zum Beispiel ein visuelles oder audio-Objekt, von dieser Verbesserung des Modells gemanagt.
  • Nachstehend die Syntax des neuen BIFS Knotens, der InputSensor genannt wird:
    InputSensor {
    ExposedField SFBool Enabled TRUE
    ExposedField SFCommandBuffer InteractionBuffer []
    Field SFUrl url " "
    EventOut SFBool IsActive
    }
  • Mit dem Feld „enabled" kann kontrolliert werden, ob der Benutzer die Interaktion zulassen will oder nicht, die von den Flüssen der Benutzerinteraktion herkommt, die im Feld „url" angegeben sind. Letzteres spezifiziert den zu benutzenden grundlegenden Fluß, wie auf der Plattform der Objektbeschreibung des MPEG-4 Standards beschrieben wird.
  • Das Feld „InteractionBuffer" ist ein SCFCommandBuffer, der beschreibt, was der Decodierer mit dem in „url" spezifizierten Interaktionsfluß tun muß. Die Syntax ist nicht obligatorisch, hier wird aber anhand de folgenden Beispiels die Semantik des Pufferspeichers beschrieben:
    InputSensor {
    enabled TRUE
    interactionBuffer [„ERSETZEN N1.Größe", „ERSETZEN N2.Größe", „ERSETZEN N3.Größe"]
    url "4"
    }
  • Dieser Aufnehmer erfaßt mindestens drei Parameter, die von der Eingangsvorrichtung herkommen, die mit dem Objekt-Deskriptor 4 verbunden ist, und ersetzt das Feld „size" der Knoten N1, N2 und N3 durch die erhaltenen Parameter.
  • Die Aufgabe des Decodierers der Benutzerinteraktion besteht darin, die erhaltenen Zugriffseinheiten umzuwandeln, die entweder vom Decodier-Pufferspeicher herkommen oder direkt von der Eingangsvorrichtung. Er wandelt sie in Kompositionseinheiten (CU) um und ordnet sie im Kompositionsspeicher (CM) an, wie im MPEG-4 Standard spezifiziert ist. Die Kompositionseinheiten, die vom Decodierer des Flusses der Benutzerinteraktionen generiert werden, sind BIFS-Updates, und spezifischer die Befehle REMPLACER (Ersetzen) wie von MPEG-4 Systems spezifiziert ist. Die Syntax ist streng identisch mit der im MPEG-4 Standard definierten und vom Pufferspeicher der Interaktion abgeleiteten.
  • Wenn zum Beispiel die Eingangsvorrichtung die ganze Zahl 3 generiert hat, und wenn der Pufferspeicher der Interaktion „ERSETZEN N1.Größe" enthält, wird die Kompositionseinheit der decodierte BIFS-Update sein und gleichwertig mit „ERSETZEN N1.Größe mal 3" sein.
  • Eine der erwähnten Varianten besteht darin, das Feld InteractionBuffer des Knotens InputSensor durch eine variable Anzahl Felder zu ersetzen, in Abhängigkeit von der Art des benutzten peripheren Steuergeräts, von der Art EventOut. Die Rolle des Decodierers der Benutzerinteraktion besteht dann darin, die Werte dieser Felder zu ändern, und es liegt dann am Urheber der Multimedia-Präsentation, Routen anzulegen, die die Felder des Knotens InputSensor mit den Zielfeldern im Szenenbaum zu ersetzen.
  • In der Beschreibung angeführte Referenzen
  • Diese Liste mit den vom Antragsteller angeführten Referenzen ist nur als Hilfe für den Leser gedacht und ist kein Bestandteil des Dokuments zum europäischen Patent. Sie wurde zwar mit der größten Sorgfalt konzipiert, jedoch können Fehler oder Auslassungen nicht ausgeschlossen werden, und das OEB lehnt jegliche Haftung hierfür ab.
  • In der Beschreibung angeführte Patentdokumente
    • WO 0000898 A
    • WO 9939272 A

Claims (11)

  1. Verfahren zur Verwaltung der Interaktionen zwischen mindestens einem peripheren Steuergerät und mindestens einer Multimedia-Anwendung mit Nutzung des MPEG-4-Standards, wobei das periphere Steuergerät Signale entsprechend der Aktion eines oder mehrerer Benutzer abgibt, dadurch gekennzeichnet, dass es eine Stufe der Bildung einer digitalen Folge aufweist, die die Form eines BIFS(Binary Format for Szene im Sinne des MPEG-4-Standards)-Knotens aufweist, wobei der Knoten mindestens ein Feld aufweist, das den Typ und die Anzahl der auf die Objekte der Szene anzuwendenden Interaktionsdaten festlegt.
  2. Verfahren zur Verwaltung der Interaktionen zwischen einem peripheren Steuergerät und einer EDV-Anwendung mit Nutzung des MPEG-4-Standards nach Anspruch 1, dadurch gekennzeichnet, dass die Übertragung der digitalen Folge die Dekodierkette der MPEG-4-Systeme verwendet, um Interaktionsinformationen in die Kompositionsvorrichtung einzugeben.
  3. Verfahren zur Verwaltung der Interaktionen zwischen mindestens einem peripheren Steuergerät und mindestens einer Multimedia-Anwendung mit Nutzung des MPEG-4-Standards nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass es einen Schritt der Bezeichnung der Art der Aktion oder der Aktionen, die an einem oder mehreren Objekten der Szene über das Feld oder die Felder des Knotens ausgeführt werden sollen.
  4. Verfahren zur Verwaltung der Interaktionen zwischen einem peripheren Steuergerät und einer EDV-Anwendung mit Nutzung des MPEG-4-Standards nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der BIFS-Knoten eine variable Anzahl von Feldern aufweist, die von der Art des verwendeten peripheren Steuergeräts abhängt, und dass die Übertragung der Interaktionsdaten von den Feldern dieses Knotens zu den Zielfeldern über Routen erfolgt.
  5. Verfahren zur Verwaltung der Interaktionen zwischen einem peripheren Steuergerät und einer EDV-Anwendung mit Nutzung des MPEG-4-Standards nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass es einen Schritt der Signalisierung der Tätigkeit der zugeordneten Vorrichtung aufweist.
  6. Verfahren zur Verwaltung der Interaktionen zwischen einem peripheren Steuergerät und einer EDV-Anwendung mit Nutzung des MPEG-4-Standards nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt der Übertragung der Folge in Form eines Stroms erfolgt, der von einem Deskriptor, der die Informationen enthält, die für die Konfiguration der Dekodierungskette mit dem entsprechenden Dekodierer erforderlich sind, angezeigt wird.
  7. Verfahren zur Verwaltung der Interaktionen zwischen einem peripheren Steuergerät und einer EDV-Anwendung mit Nutzung des MPEG-4-Standards nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt der Bildung der Folge der Interaktionsdaten in einem Pufferspeicher zur Dekodierung des Endgeräts zur Ausführung der Multimedia-Anwendung erfolgt.
  8. Verfahren zur Verwaltung der Interaktionen zwischen einem peripheren Steuergerät und einer EDV-Anwendung mit Nutzung des MPEG-4-Standards nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass der Schritt der Übersetzung der Folge der Interaktionsdaten in einem Dekodierer erfolgt, der mit einer Schnittstelle zu der Kompositionsvorrichtung versehen ist, die der eines üblichen BIFS-Dekodierers ähnelt, um die in der Szene dekodierten BIFS-Befehle auszuführen.
  9. Verfahren zur Verwaltung der Interaktionen zwischen einem peripheren Steuergerät und einer EDV-Anwendung mit Nutzung des MPEG-4-Standards nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Fluss der Interaktionen des Benutzers über einen DMIF-Client verläuft, der mit der Vorrichtung verbunden ist, die die Zugriffseinheiten erzeugt, die in dem Pufferspeicher zur Dekodierung, der mit dem entsprechenden Dekodierer verbunden ist, anzuordnen sind.
  10. Verfahren zur Verwaltung der Interaktionen zwischen einem peripheren Steuergerät und einer EDV-Anwendung mit Nutzung des MPEG-4-Standards nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Fluss der Interaktionen des Benutzers in den entsprechenden Dekodierer gelangt, entweder direkt oder über den verbundenen Pufferspeicher zur Dekodierung, wodurch sich der Weg des Flusses der Interaktionen des Benutzers verkürzt.
  11. EDV-Ausrüstung, die einen Rechner zur Ausführung einer Multimedia-Anwendung mit Nutzung des MPEG-4-Standards und mindestens ein Peripheriegerät zur Darstellung einer Multimediaszene sowie mindestens ein Peripheriegerät zur Steuerung des Programms aufweist, dadurch gekennzeichnet, dass sie des Weiteren eine Schnittstellenleitung aufweist, die einen Eingang zum Empfangen der Signale eines Steuermittels und einen Ausgang zur Abgabe einer Folge vom Typ BIFS und ein Mittel zur Bildung einer Ausgangsfolge in Abhängigkeit von des Signalen, die vom Eingangsperipheriegerät gemäß dem Verfahren nach Anspruch 1 geliefert werden, aufweist.
DE60221636T 2001-01-15 2002-01-15 Verfahren und vorrichtung zur verwaltung von interaktionen im standard mpeg-4 Expired - Lifetime DE60221636T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
FR0100486A FR2819669B1 (fr) 2001-01-15 2001-01-15 Procede et equipement pour la gestion des interactions entre un peripherique de commande et une application multimedia exploitant la norme mpeg-4
FR0100486 2001-01-15
FR0101648 2001-02-07
FR0101648A FR2819604B3 (fr) 2001-01-15 2001-02-07 Procede et equipement pour la gestion des interactions multimedias mono-ou multi-uitilisateurs entre des peripheriques de commande et des applications multimedias exploitant la norme mpeg-4
PCT/FR2002/000145 WO2002056595A1 (fr) 2001-01-15 2002-01-15 Procede et equipement pour la gestion des interactions dans la norme mpeg-4

Publications (2)

Publication Number Publication Date
DE60221636D1 DE60221636D1 (de) 2007-09-20
DE60221636T2 true DE60221636T2 (de) 2008-06-26

Family

ID=26212829

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60221636T Expired - Lifetime DE60221636T2 (de) 2001-01-15 2002-01-15 Verfahren und vorrichtung zur verwaltung von interaktionen im standard mpeg-4

Country Status (11)

Country Link
US (1) US20040054653A1 (de)
EP (1) EP1354479B1 (de)
JP (1) JP2004530317A (de)
KR (1) KR100882381B1 (de)
CN (1) CN100448292C (de)
AT (1) ATE369699T1 (de)
AU (1) AU2002231885B2 (de)
DE (1) DE60221636T2 (de)
ES (1) ES2291451T3 (de)
FR (1) FR2819604B3 (de)
WO (1) WO2002056595A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7958535B2 (en) * 2003-09-25 2011-06-07 Sharp Laboratories Of America, Inc. URI pointer system and method for the carriage of MPEG-4 data in an MPEG-2 transport stream
ATE399429T1 (de) 2004-04-12 2008-07-15 Ind Academic Coop Verfahren, vorrichtungen und speichermedien zur bereitstellung von multimedia-diensten unter berücksichtung der endeinrichtungsfähigkeiten
FR2912275B1 (fr) * 2007-02-02 2009-04-03 Streamezzo Sa Procede de transmission d'au moins un contenu representatif d'un service, depuis un serveur vers un terminal, dispositif et produit programme d'ordinateur correspondants
KR20080089119A (ko) * 2007-03-30 2008-10-06 삼성전자주식회사 Mpeg 기반의 ui 장치 및 이를 이용한 기능 제어 방법
KR100891984B1 (ko) * 2007-06-22 2009-04-08 주식회사 넷앤티비 대화형 bifs 콘텐츠의 객체 선택 제어 방법
KR20080114496A (ko) * 2007-06-26 2008-12-31 삼성전자주식회사 레이저 콘텐츠를 이용하여 장면을 구성하는 방법 및 장치
KR101487335B1 (ko) * 2007-08-09 2015-01-28 삼성전자주식회사 객체 미디어 교체가 가능한 멀티미디어 데이터 생성 방법및 장치 그리고 재구성 방법 및 장치
GB201002855D0 (en) * 2010-02-19 2010-04-07 Materialise Dental Nv Method and system for achiving subject-specific, three-dimensional information about the geometry of part of the body
KR102069538B1 (ko) * 2012-07-12 2020-03-23 삼성전자주식회사 멀티미디어 요소의 배치를 위한 마크업을 구성하는 방법

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2257577C (en) * 1997-04-07 2002-03-19 At&T Corp. System and method for interfacing mpeg-coded audiovisual objects permitting adaptive control
JP3191922B2 (ja) * 1997-07-10 2001-07-23 松下電器産業株式会社 画像復号化方法
US6654931B1 (en) * 1998-01-27 2003-11-25 At&T Corp. Systems and methods for playing, browsing and interacting with MPEG-4 coded audio-visual objects
AU2487799A (en) * 1998-01-30 1999-08-16 Trustees Of Columbia University In The City Of New York, The Method and system for client-server interaction in interactive communications
US6631403B1 (en) * 1998-05-11 2003-10-07 At&T Corp. Architecture and application programming interfaces for Java-enabled MPEG-4 (MPEG-J) systems
KR20010034920A (ko) * 1998-06-26 2001-04-25 매클린토크 샤운 엘 엠펙-4 비디오 프로그램을 작성하고 표현하기 위한 단말기
US6185602B1 (en) * 1998-06-29 2001-02-06 Sony Corporation Multi-user interaction of multimedia communication
US6766355B2 (en) * 1998-06-29 2004-07-20 Sony Corporation Method and apparatus for implementing multi-user grouping nodes in a multimedia player
JP4159673B2 (ja) * 1998-10-09 2008-10-01 松下電器産業株式会社 オーディオ−ビジュアル・オブジェクトのシーン記述におけるデータ型キャスティングおよび代数処理のための方法
DE19860531C1 (de) * 1998-12-30 2000-08-10 Univ Muenchen Tech Verfahren zur Übertragung codierter digitaler Signale
US7149770B1 (en) * 1999-01-29 2006-12-12 The Trustees Of Columbia University In The City Of New York Method and system for client-server interaction in interactive communications using server routes
KR100317299B1 (ko) * 2000-01-18 2001-12-22 구자홍 Mpeg-4 화상회의를 위한 멀티미디어 정보구조와mpeg-4 화상회의 시스템
KR100429838B1 (ko) * 2000-03-14 2004-05-03 삼성전자주식회사 인터랙티브 멀티미디어 콘텐츠 서비스에서 업스트림채널을 이용한 사용자 요구 처리방법 및 그 장치

Also Published As

Publication number Publication date
JP2004530317A (ja) 2004-09-30
ES2291451T3 (es) 2008-03-01
CN1486573A (zh) 2004-03-31
FR2819604A1 (fr) 2002-07-19
EP1354479B1 (de) 2007-08-08
DE60221636D1 (de) 2007-09-20
KR20030085518A (ko) 2003-11-05
ATE369699T1 (de) 2007-08-15
EP1354479A1 (de) 2003-10-22
CN100448292C (zh) 2008-12-31
AU2002231885B2 (en) 2006-08-03
US20040054653A1 (en) 2004-03-18
WO2002056595A1 (fr) 2002-07-18
KR100882381B1 (ko) 2009-02-05
FR2819604B3 (fr) 2003-03-14

Similar Documents

Publication Publication Date Title
DE60123851T2 (de) Fernsehplauderzimmer
DE69904678T2 (de) Auf priorität basierte virtuelle umgebung
DE69620067T2 (de) Verfahren zur gemeinsamen Nutzung eines dreidimensionalen Raumes in virtueller Realität und System dafür
DE69928642T2 (de) Emulation von strömung über internet in einer rundfunkanwendung
DE69433061T2 (de) Netzwerk der virtuellen realität
DE69132796T2 (de) Verfahren und gerät zur darstellung von grafischen bildern
DE69907482T2 (de) Vorrichtung und verfahren zur ausführung von interaktiven fernsehanwendungen auf set top boxen
DE60003322T2 (de) Verfahren, vorrichtung und computerprogrammprodukt für die aktivitäts-basierte zusammenarbeit durch ein computersystem ausgestattet mit einem dynamik-manager
DE69731549T2 (de) Interaktivität mit audiovisueller programmierung
Naveh The Role of the Media in Foreign Policy Decision-Making: A Theoretical Framework.
DE69734658T2 (de) Verfahren und system für virtuelle kinematographie
DE69715136T2 (de) Bilddatenkompression für interaktive anwendungen
DE60221636T2 (de) Verfahren und vorrichtung zur verwaltung von interaktionen im standard mpeg-4
DE10297520T5 (de) Transformieren von Multimediadaten zur Abgabe an mehrere heterogene Geräte
DE112017005879T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE60202847T2 (de) Abfragesystem in natürlicher sprache für den zugriff auf ein informationssystem
EP2701115A1 (de) Verfahren und System zur Live-Video-Beratung
EP3718086A1 (de) Avataranimation
DE60216381T2 (de) Panoramavideoeditieranzeige mit Navigationssteuerungsanwendung zu diesem Panoramavideo
EP1252769B1 (de) System und verfahren zur verbreitung von bildobjekten
DE60125674T2 (de) Informationsanzeige
DE69510830T2 (de) Verfahren zur Übertragung von Signalen zwischen Nachrichtenstationen
CN109905753A (zh) 角标的显示方法和装置、存储介质、电子装置
DE60027966T2 (de) Mehrfachkamera, Mehrfachspeisung und interaktive virtuelle Einblendungssysteme und Verfahren
DE112019000548T5 (de) Datenkommunikationssystem und Verfahren zur Verwendung des Datenkommunikationssystems

Legal Events

Date Code Title Description
8364 No opposition during term of opposition