DE69818621T2 - Verfahren zur dekodierung von audiovisuellen daten - Google Patents

Verfahren zur dekodierung von audiovisuellen daten Download PDF

Info

Publication number
DE69818621T2
DE69818621T2 DE69818621T DE69818621T DE69818621T2 DE 69818621 T2 DE69818621 T2 DE 69818621T2 DE 69818621 T DE69818621 T DE 69818621T DE 69818621 T DE69818621 T DE 69818621T DE 69818621 T2 DE69818621 T2 DE 69818621T2
Authority
DE
Germany
Prior art keywords
scene
dimensional
objects
nodes
dimensional objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69818621T
Other languages
English (en)
Other versions
DE69818621D1 (de
Inventor
Raoul Mallart
Julien Signes
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telediffusion de France ets Public de Diffusion
Orange SA
Koninklijke Philips NV
Original Assignee
Telediffusion de France ets Public de Diffusion
France Telecom SA
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telediffusion de France ets Public de Diffusion, France Telecom SA, Koninklijke Philips Electronics NV filed Critical Telediffusion de France ets Public de Diffusion
Application granted granted Critical
Publication of DE69818621D1 publication Critical patent/DE69818621D1/de
Publication of DE69818621T2 publication Critical patent/DE69818621T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Decodieren codierter digitaler Signale, die repräsentativ sind für audiovisuelle Daten und die in Form eines kontinuierlichen Bitstroms im Hinblick auf die binäre Beschreibung einer zu renderenden Szene auf einer Wiedergabeanordnung, wobei das genannte Verfahren einen Verarbeitungsvorgang umfasst, und zwar auf Basis einer sich entwickelnden syntaktischen Sprache und vorgesehen um in einem ersten Schritt aus dem genannten Bitstrom bestimmte Elemente, die entsprechend der Struktur der genannten Szene als Objekte bezeichnet werden, zu Extrahieren, wobei in einem zweiten Schritt eine individuelle Animation der genannten Elemente der Szene definiert wird, wobei in einem dritten Schritt bestimmte Interaktionen zwischen einem Benutzer und den genannten Elementen definiert werden und wobei in einem vierten Schritt spezifische Beziehungen zwischen den genannten Szenenelementen und entsprechenden einzelnen Animationen und/oder Benutzerinteraktionen nach mehreren Klassen von Applikationen organisiert werden. Diese Erfindung wird hauptsächlich in künftigen MPEG-4-Decodern angewandt.
  • Die wichtigste Aufgabe der bekannten MPEG-1 und MPEG-2-Normen, die sich mit Frame-basiertem Video und Audio befassten, war die Speicherung und die Übertragung effizienter zu machen, und zwar durch Komprimierung der betreffenden Daten. Die künftige neue MPEG-4-Decodierungsnorm wird grundsätzlich anders sein, da diese die audiovisuellen Szenen als eine Zusammensetzung von Objekten statt nur Pixel darstellen wird. Jede Szene wird als eine codierte Darstellung audiovisueller Objekte definiert, die Beziehungen in Raum und Zeit gegeben haben, ungeachtet der An und Weise, wie die genannte gegebene Szene in diesen Objekten vorher organisiert (oder segmentiert) war.
  • Bisher waren die standardisierten Körper, die natürliche und synthetische Quellen behandelten, verschieden. Da gute dreidimensionale (3D) Möglichkeiten ein immer wichtiger Teil vieler Felder werden, einschließlich Multimedia und World Wide Web Applikationen, die VRML benutzen (VRML – oder Virtual-Reality Modelling Language – ist nun die Norm zum Spezifizieren und Liefern von 3D-Graphik-basierten interaktiven virtu ellen Umgebungen), betrachtet die natürlichen Materialien (Video, Audio, Sprache) und die synthetischen (2D und 3D Graphiken und synthetischer Schall) und versucht diese zu einem kombinierten Bitstrom zu kombinieren, und zwar im Hinblick auf die Präsentation eines derartigen Multimediainhaltes an einem Terminalschirm. Zum Zusammenstellen dieser audiovisuellen Information innerhalb der Szene, soll das räumlich-zeitliche Verhältnis zu dem Terminal übertragen werden.
  • Die MPEG-4-Norm definiert eine syntaktische Beschreibungssprache zum Beschreiben des binären Syntax einer Bitstromdarstellung eines audiovisuellen Objektes sowie desjenigen der Szenenbeschreibungsinformation. Genauer gesagt schlägt das MPEG-4-System Verifikationsmodell 4.0 für die Beschreibung der Szenen ein binäres Format vor unter der Bezeichnung von "Binary Format for Scenes (BIFS)". Diese Beschreibung, konstruiert als eine codierte Hierarchie von Knotenpunkten mit Attributen und anderer Information, wie Ereignisquellen und Ziele, basiert auf der Voraussetzung, dass die Szenenstruktur als eine parametrische Beschreibung (oder eines Scripts) statt eines Computerprogramms. Die Szenenbeschreibung kann dann in der Zeit evoluieren durch Verwendung codierter Szenenbeschreibungsaktualisierungen. Die Knotenpurilctbeschreibungen, die in einem BIFS-Syntax befördert werden, können ebenfalls, der Deutlichkeit halber, in textueller Form dargestellt werden. Einige MPEG-4-Knotenpunkte und Konzepte sind direkt analoge Formen der VRML 2.0 Knotenpunkte. Andere sind modifizierte VRML 2.0, und wieder andere werden für spezifische MPEG-4 Anforderungen addiert. Wie der VRLM 2.0 Syntax hat BIFS Vorkehrungen zum Beschreiben einfacher Verhalten und Interaktion mit dem Benutzer über einen Ereignis-Durchführungsmechanismus. Einige Probleme aber, die nachstehend erläutert werden, werden durch dieses Formal nicht gelöst.
  • Das erste dieser adressierten Probleme betrifft eine gleichförmige Beschreibung eines gemischten 2D- und 3D-Szene. Es gibt tatsächlich eine wesentliche Differenz zwischen der Beschreibung einer rein 3D-Szene, der Beschreibung einer rein-2D-Szene und der Beschreibung einer gemischten 2d/3D-Szene. In einer 3D-Szene basiert die Schichtung der Objekte auf der Tiefeninformation. In 2D gibt es keinen Eindruck von Tiefe und die Schichtung soll explizit definiert werden. Weiterhin kann das Vermischen von 2D- und 3D-Objekten verschiedenartig erfolgen:
    • (1) das Einbetten von 3D-Objekten in einer 2D-Szene:
    • (a) dies ist beispielsweise der Fall, wenn man versucht, 3D-Objekte vor einem 2D-Hintergrund zu rendern; in diesem Fall verlagert sich, wenn der Benutzer in der Szene navigiert, der Hintergrund nicht.
    • (b) ein anderes Beispiel ist eine Applikation, wobei die Benutzerschnittstelle 2D-Objekte enthält (wie Knöpfe oder Text) und einen 3D-Viewer, in dem die Szene gerendert wird;
    • (2) das Einbetten von 2D-Objekten in einer 3D-Szene:
    • (a) dies ist beispielsweise der Fall, wenn man ein Video-Objekt als eine Texturabbildung auf 3D-Objekten benutzt;
    • (b) ein anderes Beispiel ist eine Textur aus 2D-Graphikobjekten (ein Spezialfall davon ist eine "aktive Abbildung", d. h. eine 2D-Ebene in einer 3D-Szene, hergestellt aus mehreren zusammengesetzten 2D-Objekten);
    • (3) diese zwei Schemen können rekursiv gemischt werden, beispielsweise zum Einbetten von 3D-Objekten in einer 2D-Szene und wobei die resultierende Zusammensetzung als eine Texturabbildung auf 3D-Objekten verwendet wird (diese kann benutzt werden zum Simulieren der Reflexion an einem Spiegel);
    • (4) eine letzte Möglichkeit ist die gleiche 3D-Szene von verschiedenen Gesichtspunkten aus gleichzeitig zu betrachten.
  • Zu dem betreffenden Zeitpunkt ist es nicht möglich all diese Möglichkeiten, bei denen eine einzige Szenengraphik verwendet wird, zu beschreiben. Eine Szenengraphik ist ein Baum, der mit Hilfe einer Hierarchie von Objekten, die als Knotenpunkte bezeichnet werden, eine Szene darstellt. Die Szene wird zusammengesetzt aus Gruppierungsknotenpunkten und Kindknotenpunkten. Die Rolle von Gruppierungsknotenpunkten ist, die Hierarchie und die räumliche Organisation der Szene zu definieren. Kindknotenpunkte sind die Blätter des Baumes. Diese Knotenpunkte werden benutzt zum Definieren geometrischer Objekte, von Lichtquellen sowie von mehreren Typen von Sensoren (Objekte die für Benutzerinteraktion empfindlich sind). Gruppierungsknotenpunkte haben Kindknotenpunkte. Diese Kinder können Kindknotenpunkte oder andere Gruppierungsknotenpunkte sein.
  • Alle Knotenpunkte können Attribute haben, die als Felder bezeichnet werden. Die Felder können von jedem beliebigen Typ sein. So ist beispielsweise eine Kugel ein geometrischer Knotenpunkt. Diese hat ein Feld, das den Radius definiert. Es ist ein Feld mit nur einem Wert von Task-Intervalltyp (SFFloat). Kindknotenpunkte eines Gruppierungsknotenpunktes werden in einem Spezialfeld spezifiziert. Dieses Feld ist ein Mehrfachwert- Feld (eine Liste von Knotenpunkten) und jeder Wert ist von einem Typenknotenpunkt (MFNode).
  • Zum Definieren von Animationen und Benutzerinteraktionen in der Szene ist es möglich, zwischen Feldern eine Verbindung zu machen, und zwar unter Verwendung eines Ereignisdurchführungsmechanismus, der als Routing bezeichnet wird. Das Lenken eines Feldes A zu einem Feld B bedeutet, dass wenn das Feld A sich ändert, das Feld B denselben Wertwie das Feld A annimmt. Nur Felder vom selben Typ (oder derselben An) können miteinander verbunden werden. Felder können spezialisiert sein, einige können nur die Bestimmung einer Route sein, sie werden als "eventIn" bezeichnet, andere können nur am Anfang einer Route sein, sie werden als "eventOut" bezeichnet, andere können beide, der Ursprung und die Bestimmung von Routen sein, sie werden als "exposedField" bezeichnet und zuletzt können andere nicht verbunden werden, sie werden ganz einfach als "Feld" bezeichnet.
  • In VRML spielen vier Knotenpunkte (Gesichtspunkt, Hintergrund, Nebel und Navigationsinfo) eine spezielle Rolle in dem Sinne, dass jeweils nur eines derselben aktiv sein kann. Diese Knotenpunkte heißen verbindbar zu sein.
  • Es gibt viele Gründe zu versuchen, beide Merkmale 2D und 3D zu einem kohärenten Netzwerk zu integrieren:
    • – es ist möglich, denselben Ereignisdurchführungsmechanismus für die ganze 2D/3D-Szene zu verwenden;
    • –die Darstellung des Inhaltes kann gedrängter sein;
    • –die Implementierung kann optimiert werden, weil 2D- und 3D-Spezifikationen dazu entworfen worden sind, zusammenzuarbeiten.
  • Um diese Anforderungen zu erfüllen soll man imstande sein, in einem 2D-Raum 2D- und 3D-Schichten zusammenzustellen, die das Ergebnis der Rendering einer 2D- oder einer 3D-Szene darstellen, sowie das Ergebnis der Rendering einer 2D- oder 3D-Szene als Eingang zu anderen Knotenpunkten in der Szenengraphik zu verwenden.
  • Andere Probleme, die noch nicht gelöst sind, sollen ebenfalls betrachtet werden, insbesondere die nachfolgenden Probleme:
    • (1) Interaktivität mit den 2D-Objekten: es kann notwendig sein, dass man imstande ist, mit den Objekten interaktiv zu sein, die Schichtung zu ändern, das Hinzufügen oder Entfernen von Objekten, was nicht möglich ist ohne ein Verfahren zum Einstellen der Tiefe eines 2D- Objektes, der mit dem Ereignisdurchführungsmechanismus von VRML 2.0 kompatibel ist;
    • (2) Einzelereignislenkmechanismus, um mit Interaktivität und einfachen Verhaltensmöglichkeiten versehen zu werden: ein Beispiel davon könnte die Wiedergabe einer 2D-Abbildung in einer Durchlaufapplikation sein, wobei die Abbildung benutzt wird zum Navigieren, was die Fähigkeit erfordert, ein vom Benutzer ausgelöstes Ereignis von einem 2D-Objekt (der Abbildung) zu einer 3D-Szene (dem Gesichtspunkt) zu lenken;
    • (3) globale Hierarchie der Szene: während eine Szenengraphikdarstellung eine hierarchische Organisation der Szene betrifft, sollen 2D- und 3D-Schichten nicht als andere Graphikobjekte betrachtet werden (weiterhin können Schichten hierarchisch sein, wie beispielsweise in der Schichtgraphik nach 1, wie nachher erläutert);
    • (4) Interaktivität mit Video-Objekten: eines der Merkmale von MPEG-Video ist eine Objektpegelinteraktion, d. h. die Beschreibung von Video als Satz von Objekten statt eines Satzes von Pixeln, was die Interaktion mit dem Inhalt des Videos ermöglicht (wie Schneiden und Kleben eines Objektes innerhalb eines Videos) und soll für jede Applikation durch den Inhaltserzeuger definiert werden (wobei die genannte Interaktion, die nicht ein Merkmal des Terminals selber ist, mit Hilfe von BIFS beschrieben werden kann, aber dazu soll die Zusammensetzung der jeweiligen Video-Objekte in dem BIFS selber beschrieben werden).
  • Deswegen ist es u. a. eine Aufgabe der vorliegenden Erfindung, eine Verbesserung der BIFS vorzuschlagen, um die Zusammensetzung der komplexen Szene, die aus 2D- und 3D-Objekten gebaut worden ist, völlig zu beschreiben. Diese Verbesserung ermöglicht eine gleichförmige Darstellung der kompletten Szene und des Layouts derselben, sowie der Ereignisdurchführung, nicht nur innerhalb der 3D-Szene (wie in VRML 2.0) sondern auch zwischen 2D- und 3D-Knotenpunkten, und ermöglicht auch die Definition spezifischer Benutzerschnittstellen, die mit der Szene übertragen werden können, statt der Verwendung einer Vorgabe-Benutzerschnittstelle, die von dem Terminal geliefert wird.
  • Dazu bezieht sich die vorliegende Erfindung auf ein Verfahren, wie im Oberbegriff der Beschreibung beschrieben, und das weiterhin dadurch gekennzeichnet ist, dass der genannte Verarbeitungsvorgang ebenfalls einen zusätzlichen Schritt zum Beschreiben einer komplexen Szene umfasst, gebaut aus jeder Art von zweidimensionalen und dreidimensionalen Objekten, entsprechend einem System, das die beiden zweidimensionalen und dreidimensionalen Merkmale integriert und die Zusammensetzungs- und Repräsen tationsmechanismen der Szenenstruktur vereint, wobei der genannte zusätzliche Beschreibungsschritt einen ersten Haupt-Subschritt aufweist zum Definieren einer hierarchischen Darstellung der genannten Szene entsprechend einer Baumstruktur, organisiert in Gruppenknotenpunkten, welche die hierarchischen Verbindungen angeben, welche die räumliche Zusammensetzung der betreffenden Szene geben, und in Kinderknotenpunkten, welche die Blätter des Baumes bilden, und einen zweiten Hilfs-Subschritt aufweist zum Definieren möglicher Querverbindungen zwischen jeder Art von Knotenpunkten.
  • In einer vorteilhaften Ausführungsform des vorgeschlagenen Verfahrens umfassen die Knotenpunkte der Baumstruktur wenigstens zweidimensionale und dreidimensionale Objekte, und der Hilfsdefinitions-Hilfsschritt umfasst einen ersten Vorgang zum Einbetten wenigstens eines der genannten zweidimensionalen Objekte innerhalb wenigstens eines der genannten dreidimensionalen Objekte, einen etwaigen zweiten Vorgang zum Definieren von Querverbindungen zwischen den genannten dreidimensionalen und zweidimensionalen Objekten, und einen etwaigen dritten Vorgang zur Steuerung des Definitionsschrittes wenigstens einer einzelnen Animation und/oder wenigstens einer bestimmten Interaktion in dem (den) eingebetteten zweidimensionalen Objekten) sowie in dem (den) ursprünglichen Objekt(en).
  • In einer anderen vorteilhaften Ausführungsform des Verfahrens umfassen die Knotenpunkte der Baumstruktur wenigstens zweidimensionale und dreidimensionbale Objekte und der zusätzliche Definitions-Hilfs-Schritt umfasst einen ersten Vorgang zum Einbetten wenigstens eines der genannten dreidimensionalen Objekte innerhalb wenigstens eines der genannten zweidimensionalen Objekte, einen etwaigen zweiten Vorgang zum Definieren von Querverbindungen zwischen den genannten zweidimensionalen und dreidimensionalen Objekten und einen etwaigen dritten Vorgang zur Steuerung des Definitionsschrittes wenigstens einer einzelnen Animation und/oder wenigstens einer bestimmten Interaktion in dem (den) eingebetteten dreidimensionalen Objekten) sowie in dem (den) entsprechenden ursprünglichen Objekt(en).
  • In einer anderen vorteilhaften Ausführungsform des Verfahrens umfassen die Knotenpunkte der Baumstruktur wenigstens dreidimensionale Objekte und der zusätzliche Definitionshilfsschritt umfasst einen ersten Vorgang zum Einbetten wenigstens eines der genannten dreidimensionalen Objekte innerhalb wenigstens eines der genannten dreidimensionalen Objekte, einen etwaigen zweiten Vorgang zum Definieren von Querverbin dungen zwischen den genannten dreidimensionalen Objekten und einen etwaigen dritten Vorgang zur Steuerung des Definitionsschrittes wenigstens einer einzelnen Animation und/oder wenigstens einer bestimmten Interaktion in dem (den) eingebetteten dreidimensionalen Objekten) und in dem (den) ursprünglichen Objekt(en).
  • Was diese zwei letzten Ausführungsformen anbelangt lässt sich sagen, dass die genannte zusätzliche Rendering wenigstens einer einzigen dreidimensionalen Szene von mehreren Gesichtspunkten aus, unter Beibehaltung des dritten Vorgangs zur Steuerung des Definitionsschrittes der einzelnen Animationen) und/oder bestimmten Interaktion(en).
  • Die vorliegende Erfindung bezieht sich nicht nur auf das oben beschriebene Verfahren, mit oder ohne die etwaigen Vorgänge, sondern auch auf jedes beliebige Signal, erhalten durch Implementierung eines derartigen Verfahrens in einer der Abwandlungen. Es dürfte beispielsweise einleuchten, dass die vorliegende Erfindung sich ebenfalls auf ein Signal bezieht, erhalten, nachdem in einem ersten Schritt aus dem Eingangsbitstrom bestimmte Elemente extrahiert worden sind, die als Objekte bezeichnet werden, und zwar entsprechend der Struktur einer Szene, definiert in einem zweiten Schritt einer einzelnen Animation der genannten Elemente der Szene, definiert in einem dritten Schritt bestimmte Interaktionen zwischen einem Benutzer und den genannten Elementen, organisiert in einem vierten Schritt spezifische Beziehungen zwischen den genannten Szenenelementen und entsprechend einzelner Animationen und/oder Benutzerinteraktionen nach mehreren Klassen von Applikationen und nachdem ein zusätzlicher Schritt durchgeführt worden ist zum Beschreiben einer komplexen Szene, gebaut für jede Art von zweidimensionalen und dreidimensionalen Objekten, entsprechend einem Netzwerk, das die zweidimensionalen und die dreidimensionalen Merkmale integriert und die Zusammensetzungs- und Darstellungsmechanismen der Szenenstruktur vereinheitlicht.
  • Ein derartiges Signal erlaubt es, dass ein zweidimensionales und ein dreidimensionales Objekt gemeinsam beschrieben wird und dass eine hierarchische Darstellung einer Szene nach einer Baumstruktur organisiert wird, die an sich in Gruppierungsknotenpunkten, welche die hierarechischen Verbindungen definieren, und in Kindknotenpunkten organisiert ist, wobei die genannten Knotenpunkte es ermöglichen, aus einer 2D-Szenengraphik, einer 3D-Szenengraphik, einer Schichtenszenengraphik und Querverbindungen zwischen Knotenpunkten dieser Szenengraphik zusammen eine einzige Szenengraphik zu bilden.
  • Ein derartiges Signal ermöglicht ebenfalls 2D- und 3D-Szenen zu definieren, die bereits zusammengesetzt sind oder die an einem Schirm zusammengesetzt werden sollen, mit einer Darstellung deren Tiefe, oder zum Definieren von 3D Szenen, in denen andere Szenen eingebettet werden, die bereits aus 2-D und 3D-Objekten zusammengesetzt sind, oder ebenfalls zum Definieren von Texturen für 3D-Objekten, die selber aus anderen 3Doder 2D-Objekten zusammengesetzt sind. Im Wesentlichen ermöglicht ein derartiges Signal mit jedem 2D- oder 3D-Objekt der Szene interaktiv zu sein und jede Art von Übertragung von Daten zwischen all diesen Objekten der Szene zu organisieren. Offenbar bezieht sich die vorliegende Erfindung auf ein Speichermedium zum Speichern des genannten Signals, von welchem Typ oder von welcher Zusammensetzung dies auch sein mag. Zum Schuss bezieht sich die vorliegende Erfindung auch auf eine Anordnung zum Wiedergeben oder Liefern auf jede beliebige Art und Weise von graphischen Szenen auf Basis von Signalen, wie dies oben beschrieben worden ist, damit jede Art von Szene mit zweidimensionalen und dreidimensionalen Objekten rekonstruiert werden kann.
  • Die Merkmale und die Vorteile der vorliegenden Erfindung dürften aus der nachfolgenden Beschreibung und den beiliegenden Figuren der Zeichnung deutlich werden, wobei 1 ein komplettes Beispiel einer Szenengraphik gibt.
  • Die Szenengraphik nach 1 zeigt eine hierarchische Darstellung der genannten Szene entsprechend einer Baumstruktur. Diese Struktur ist eine Hierarchie von Schichten, die rechteckige Gebiete des Schirms einer Wiedergabeanordnung darstellen und die genannte Hierarchie ist in Knotenpunkten organisiert (entweder in Gruppenknotenpunkten GN, welche die hierarchischen Verbindungen definieren, oder in Kindknotenpunkten CN, welche die Blätter des Baumes sind), mit, nach der vorliegenden Erfindung, möglichen Querverbindungen zwischen diesen Knotenpunkten (in 1 beispielsweise zwischen dem Kindknotenpunkt 3D-Objekt-2 und dem Gruppenknotenpunkt 2D Szene-1, zur Erläuterung der Situation, in der ein 3D-Objekt eine 2D-Szene enthält, oder zwischen den Gruppenknotenpunkten 3D-Szene-2 und 3D-Szene-1, zur Erläuterung der Situation, in der zwei "Schicht3D" dieselbe 3D Szene enthalten, dies gesehen von verschiedenen Gesichtspunkten).
  • In der genannten dargestellten Szenengraphik werden im Wesentlichen drei verschiedene Szenengraphiken geschaffen: die 2D Graphikszene, die 3D Graphikszenengraphik und die Schichtenszenengraphiken. Wie in dem Bild dargestellt, zeigt die 3D Schicht-2 dieselbe Szene wie 3D-Schicht-1, aber der Gesichtspunkt kann anders sein. Das 3D Objekt-3 ist ein Erscheinungsknotenpunkt, der die 2D-Szene 1 als ein Texturknotenpunkt verwendet.
  • Das Prinzip der vorliegenden Erfindung ist, neue Knotenpunkte vorzuschlagen, welche die Beschreibung der 2D/3D-Zusammensetzungen als eine einzige Graphik vereinfachen.
  • Zunächst werden zwei neue Knotenpunkte definiert, damit die Hierarchie von 2D- und 3D-Schichten beschrieben wird. Die 2D- und 3D-Schichten sind als ein hierarchischer Satz von Rendering-Gebieten zusammengesetzt, die 2D-Ebenen sind:
    • – die Schicht 2D Kindknotenpunkte der Schicht 2D kann eine Schicht2D, Schicht3D, und alle Knotenpunkte, die für eine 2D-Szenenbeschreibung zugänglich sind;
    • – die Schicht3D Kindknotenpunkte der Schicht 3D kann eine 2D- oder eine 3D-Schicht sein und eine Szenengraphik, die eine 3D-Szene beschreibt.
  • Es werden ebenfalls zwei neue Knotenpunkte definiert, damit man imstande ist, zusammengesetzte 2D- und 3D-Szenen als Eingang für eine Textur in einer 3D-Welt zu verwenden, die auf einem 3D-Objekt abgebildet werden;
    • – Zusammengesetzte 2D-Textur: dies ist eine Texturabbildung, die als Kindknotenpunkte eine 2D-Szene enthält und als Texturabbildung verwendet wird;
    • – Zusammengesetzte 3D-Textur: dies ist eine Texturabbildung mit Kindknotenpunkten, die eine 3D-Szene definieren. Die zusammengesetzte 3D-Szene wird als die Texturabbildung benutzt. Es ist insbesondere möglich, diesen Knotenpunkt zu verwenden zum Abbilden des Ergebnisses der Rendering einer bestehenden 3D-Szene, gesehen von einem anderen Gesichtspunkt aus. Dieser Knotenpunkt ist nützlich zum Simulieren beispielsweise von Reflexionseffekten.
  • Ein nützlicher Spezialfall des Obenstehenden ist, wenn eine zusammengesetzte 2D-Szene auf einem Rechteck in dem 3D-Raum abgebildet wird. Dies kann als eine "aktive Abbildung" eingeführt in den 3D Raum gesehen werden. Weil die Implementierung eines derartigen Knotenpunktes von der Implementierung des zusammengesetzten Textur2D-Knotenpunktes stark abweichen kann, ist es nützlich, für diesen Fall einen spezifischen Knotenpunkt zu entwerfen. In der Fortsetzung der Beschreibung wird ein Aktivabbildungsknotenpunkt vorgeschlagen.
  • Zum Schluss wird zum Zuführen vorbestimmter Werte des Gesichtspunktes oder anderer verbindbarer Kindknotenpunkte zu einem der oben genannten Knotenpunkte, ein bestimmter Bewerterknotenpunkt definiert. Dieser Knotenpunkt kann in einem breiteren Bereich in der BIFS-Spezifikation verwendet werden, oder könnte als ein flexibler VRML 2.0 Prototyp definiert werden.
  • Nachdem das Prinzip der vorliegenden Erfindung erläutert worden ist, werden in den nachfolgenden Abschnitten (A) bis (F) die Definition und die Semantik dieser neuen Knotenpunkte genauer angegeben.
  • (A) Schicht2D Definition und Semantik
  • Der Schicht2D Knotenpunkt wird als Gruppenknotenpunkt definiert. Dies definiert ein Gebiet am Schirm, wobei 2D Objekte gerendert werden. Drei Felder (oder Attribute) beschreiben, wie dieser Knotenpunkt in Bezug auf andere Objekte gerendert wird: die Größe, die Lage und die Tiefe. Diese Felder können der Ursprung oder das Endziel von Routen sein. Es sind folglich exponierte Felder. Dieser Schicht2D Knotenpunkt kann der Vater anderer Knotenpunkte vom gleichen Typ sein (d. h. ebenfalls Schicht2D) oder von einem ähnlichen Typ, wie nachstehend definiert (Schicht3D). Dies kann durch ein Mehrwertfeld vom Knotenpunkttyp (MFKnotenpunkt) beschrieben werden. Außerdem kann dieser Knotenpunkt der Vater von Knotenpunkten sein, die 2D Objekte darstellen. Dies kann ebenfalls von einem Mehrwertfeld vom Knotenpunkttyp (MFKnotenpunkt) beschrieben werden.
  • In der BIFS-Sprache wird der Schicht2D Knotenpunkt wie folgt beschrieben:
  • Figure 00100001
  • Das Kind2D Feld kann als Wert jeden 2D Gruppen- oder Kindknotenpunkt haben, der eine 2D-Szene definiert. Das Kindschichtfeld kann als Wert entweder eine 2Doder eine 3D-Schicht annehmen. Die Reihenfolge (Schichtung) der Kinder eines Schicht2D Knotenpunktes wird explizit durch die Verwendung der Transformation2D Knotenpunkte gegeben. Wenn zwei 2D Knotenpunkte die Kinder derselben Transformation2D sind, wird die Schichtung von 2D Knotenpunkten gemacht in der Reihenfolge der Kinder in dem Kinderfeld der Transformation2D.
  • Die Schichtung der 2D- und 3D-Schichten wird durch die Übersetzungsund Tiefenfelder spezifiziert. Der Größenparameter wird in Schwebepunktzahl gegeben und kann in Pixeln ausgedrückt werden, oder zwischen 0,0 und 1,0 in "gaphischen Metern", je nach dem Kontext. Dasselbe gilt für den Übersetzungsparameter. Eine Größe von – I in der einen Richtung bedeutet, dass der Schicht2D Knotenpunkt in der betreffenden Richtung nicht in der Größe spezifiziert wird, und dass der Zuschauer die Größe des Renderinggebietes bestimmt.
  • Alle 2D Objekte unterhalb desselben Schicht2D Knotenpunktes bilden ein einziges zusammengesetztes Objekt. Dieses zusammengesetzte Objekt wird von anderen Objekten als ein einziges Objekt gesehen Mit anderen Worten: wenn ein Schicht2D Knotenpunkt A der Vater zweier Objekte B und C ist. die aufeinander geschichtet sind, wird es nicht möglich sein, ein neues Objekt D zwischen B und C einzufügen, es sei denn, dass D als ein Kind von A hinzugefügt wurde.
  • (B) Schicht3D Definition und Semantik
  • Auf gleiche Weise wird der Schicht3D Knotenpunkt als Gruppenknotenpunkt definiert. Er definiert ein Gebiet am Schirm, wo 3D Objekte gerendert werden. Drei Felder (oder Attribute) beschreiben, wie dieser Knotenpunkt gegenüber anderen Objekten gerendert wird: die Größe, die Lage und die Tiefe. Diese Felder können der Ursprung oder das Endziel von Routen sein. Sie sind folglich exponierte Felder. Dieser Knotenpunkt kann der Vater anderer Knotenpunkte vom gleichen Typ sein (d. h. Schicht3D) oder von einem ähnlichen Typ (Schicht2D). Dies kann durch ein Mehrwertfeld vom Typ Knotenpunkt (MFKnotenpunkt) beschrieben werden. Außerdem kann dieser Knotenpunkt der Vater von Knotenpunkten sein, die 3D Objekte darstellen. Dies kann ebenfalls durch ein Mehrwertfeld von dem Typ Knotenpunkt (MFKnotenpunkt) beschrieben werden.
  • In dem speziellen Fall, wo verschiedene Bilder derselben 2D Welt (oder desselben Objektes) erforderlich sind, bilden verbindbare Knotenpunkte ein Problem, weil es nicht länger möglich ist, zu sagen, dass nur eines derselben in der ganzen Applikation gleichzeitig aktiv sein darf. In jeder Schicht3D darf aber nur einer aktiv sein. Dieses Verhalten erfordert, dass der Schicht3D Knotenpunkt ein exponiertes Feld für jeden der verbindbaren Knotenpunkte hat.
  • In der BIFS Sprache wird die Schicht 3D wie folgt beschrieben:
  • Figure 00120001
  • Das Kinder3D Feld kann als Wert alle beliebigen 3D Gruppen- oder Kinderknotenpunkte haben, die eine 3D Szene definieren. Das KinderSchicht Feld kann entweder eine 2D oder eine 3D Schicht als Werte haben. Die Schichtung der 2D und 3D Schichten wird von den Übersetzungs- und Tiefenfeldern spezifiziert. Das Übersetzungsfeld wird ausgedrückt, wie im Falle der Schicht 2D entweder in Pixeln oder in "Graphikmetern", zwischen 0,0 und 1,0. Der Größenparameter hat dieselbe Semantik und dieselben Einheiten wie in der Schicht 2D. Eine Größe von –1 in der einen Richtung bedeutet, dass der Schicht 3D Knotenpunkt in der betreffenden Richtung nicht in Größe spezifiziert wird, und dass der Zuschauer die Größe des Rendering-Gebietes entscheiden würde. Alle bindbaren Kinderknotenpunkte werden als exponierte Felder des Schicht 3D Knotenpunktes verwendet. In der Laufzeit nehmen diese Felder den Wert der aktuell gebundenen bindbaren Kinder Knotenpunkte für die 3D Szene, die ein Kind des Schicht 3D Knotenpunktes ist. Dies wird es ermöglichen, dass ein aktueller Gesichtspunkt beispielsweise auf eine Schicht 3D eingestellt wird, und zwar in Reaktion auf ein Ereignis, das nicht erreicht werden kann durch eine direkte Verwendung von "set_bind eventIn" der Gesichtspunktknotenpunkte, da Szenen zwischen verschiedenen Schichten geteilt werden können.
  • In dem Fall, wo eine 3D Szene zwischen verschiedenen Schicht3D geteilt wird, wird das Verhalten der jeweiligen Sensor Knotenpunkte wie folgt definiert: ein Sensor löst ein Ereignis aus, wenn der Sensor in einer der Schicht3D ausgelöst wird, die es enthält.
  • (C) Zusammengesetzte 2D Textur Definition und Semantik
  • Die zusammengesetzte 2D Textur ist ein Texturknotenpunkt wie der VRML 2.0 Bild Textur Knotenpunkt. Er wird aber als ein Gruppenknotenpunkt definiert. Es kann der Vater eines 2D Knotenpunktes sein. Die durch diesen Knotenpunkt dargestellte Textur ergibt sich aus der Zusammensetzung eines in dem Kinder Feld beschriebenen 2D Szene.
  • In der BIFS-Sprache wird der zusammengesetzte 2D Textur Knotenpunkt wie folgt beschrieben.
  • Figure 00130001
  • Das Kinder 2D Feld vom Typ MFKnotenpunkt ist die Liste der 2D Gruppen- und Kinder Knotenpunkte, welche die an dem 3D Objekt abzubildende 2D Szene definieren. Das Größenfeld spezifiziert die Größe dieser Abbildung. Die Einheiten sind dieselben wie in dem Fall der Schicht 2D/3D. Wenn als Vorgabewert gelassen, wird eine undefinierte Größe benutzt. Dieser zusammengesetzte 2D Texturknotenpunkt kann nur als Texturfeld eines Erscheinungsknotenpunktes verwendet werden.
  • (D) Zusammengesetzte 3D Textur Definition und Semantik
  • Die zusammengesetzte 3D Textur ist ein Texturknotenpunkt wie der VRML 2.0 Bild Textur Knotenpunkt. Er wird aber definiert als Gruppenknotenpunkt. Er kann aber der Vater jedes beliebigen 3D Knotenpunktes sein. Die von diesem Knotenpunkt dargestellte Textur ergibt sich aus der Zusammensetzung einer in dem Kinderfeld beschriebenen 3D Szene. Wie für den Schicht 3D Knotenpunkt wird das Ausliefern bindbarer Knotenpunkte dadurch gelöst, dass exponierte Felder verwendet werden.
  • In der BIFS-Sprache wird der zusammengesetzte 3D Textur Knotenpunkt wie folgt beschrieben:
  • Figure 00140001
  • Das Kinder 3D Feld vom Typ MFKnotenpunkt ist die Liste der 3D Gruppen- und Kinderknotenpunkte, welche die auf dem 3D Objekt abzubildende 3D Szene definieren. Das Größenfeld spezifiziert die Größe in Pixeln dieser Abbildung (wenn als Vorgabewert gelassen wird eine undefinierte Größe verwendet). Die vier nachfolgenden Felder stellen die aktuellen Werte der bindbaren Kinderknotenpunkte dar, die in der 3D Szene verwendet worden sind. Dieser zusammengesetzte 3D Textur Knotenpunkt kann als ein Texturfeld eines Erscheinungsknotenpunktes verwendet werden.
  • (E) Zusammengesetzte Abbildung Definition und Semantik
  • Der zusammengesetzte Abbildungsknotenpunkt ist ein Spezialfall des zusammengesetzten 2D Texturknotenpunktes, der in einem Rechteck der z=0 Ebene des örtlichen Koordinatensystems dargestellt wird. Dieser nützliche Subsatz eines zusammengesetzten 2D Textur Knotenpunktes wird imstande sein, auf effiziente Weise viele einfache Fälle kombinierter 2D und 3D Kompositionen zu schaffen.
  • In der BIFS-Sprache wird der aktive Darstellung Knotenpunkt wie folgt beschrieben:
  • Figure 00140002
  • Das Kinder 2D Feld vom Typ MFKnotenpunkt ist die Liste mit 2D Gruppen und Kinder Knotenpunkten, welche die auf dem 3D Objekt abzubildende 2D Szene definie ren. Das Szenengrößenfeld spezifiziert die Größe in Pixeln der 2D zusammengesetzten Szene (wenn als Vorgabewert gelassen, wird eine undefinierte Größe verwendet). Das zentrale Feld definiert die Koordinate der Mitte der zusammengesetzten Abbildung in dem xOy Koordinatensystem. Das Abbildungsgröße-Feld spezifiziert die Größe in dem 3D Raummaß des rechteckigen Gebietes, wo die 2D Szene abgebildet werden soll. Dieser Knotenpunkt kann als jeder beliebige 3D Kinderknotenpunkt verwendet werden.
  • (F) Bewerter Definition und Semantik
  • Der Bewerterknotenpunkt ist ein Knotenpunkt, verwendet zum Routen eines vordefinierten Wertes zu einem Feld eines anderen Knotenpunktes. Dabei handelt es sich um ein exponiertes Feld jedes bestehenden Typs. Der Bewerter wird ausgelöst, wenn eines der exponierten Felder modifiziert wird oder kann über ein "EventIn" getriggert werden.
  • In der BIFS-Sprache wird der Bewerterknotenpunkt wie folgt beschrieben:
  • Figure 00150001
  • Die Semantik des Parameters ist einfach ein Konstantwerthalter. Dieser Wert kann jedem anderen Feld von demselben Typ zugeführt werden, damit es möglich ist, explizit Feldern Werte zuzuordnen. Das Routen kann mit dem EreignisIn set_Active Feld aktiviert werden.
  • Die obenstehend beschriebene Lösung löst die adressierten Probleme. Eine einfache Darstellung für eine komplette 2D/3D-Szene und eine globale Interaktivität mit 2D und 3D Objekten werden tatsächlich erhalten und da 2D und 3D Objekte nun in dersel ben Datei (oder in demselben Strom) beschrieben werden, ist es möglich, zwischen Feldern denselben Routingmechanismus zu verwenden. Ein Beispiel dieser Funktionalität ist die Situation, in der für eine 3D Szene, zusammengesetzt aus einem Würfel und einer Farbpalette, dargestellt als 2D Kreise in einer 2D Szene, der Benutzer eine Farbe in dieser Palette berührt, wobei die Farbe des Würfels dann die berührte Farbe wird.
  • Weiterhin wurden, wie in 1 dargestellt, die zwei Knotenpunkte Schicht2D und Schicht3D dazu vorgesehen, die Szene in einer einfachen globalen Hierarcie zu organisieren. Es muss ebenfalls angegeben werden, dass 2D zusammengesetzte Szenen als Textursabbildungen und 2D zusammengesetzte Abbildungen im Konzept sehr ähnlich sind. Die zusammengesetzte Abbildung definiert eine rechteckige Facettentextur, abgebildet mit einer 2D zusammengesetzten Szene. Die 2D zusammengesetzte Szene als Texturabbildung ist eine Textur, die auf jeder Geometrie abgebildet werden kann. In einem etwaigen Beispiel einer zusammengesetzten Abbildung hat man am Anfang der Welt ein 2,0 × 4,0 rechteckiges Gebiet auf der Erde, zusammengesetzt aus 2 Bildern. Der Benutzer kann eines der 2 Bilder berühren zum Auslösen einer Aktion (nicht spezifiziert). In einem anderen Beispiel einer zusammengesetzten Abbildung, gegeben für 3D zusammengesetzte Szenen als Texturabbildungen, hat man einen Würfel in einer Schicht3D. Dieser Würfel hat eine Texturabbildung, die aus der Rendering eines Zylinders zusammengesetzt ist, gesehen aus einem spezifizierten Gesichtspunkt. Der Benutzer kann den Zylinder berühren zum Auslösen einer Aktion (nicht spezifiziert). In Bezug auf viele Darstellungen derselben Szene ermöglicht die vorgeschlagene Lösung, dass eine in verschiedenen Schicht3D Szene aus verschiedenen Gesichtspunkten wiedergegeben werden kann. Außerdem kann der Gesichtspunkt durch Berührung eines 2D Bildes modifiziert werden.
  • Text in der Zeichnung
    • Ursprungsschicht 2D (GN)
    • Schichten Szenen Graphik
    • Schicht 2D-1 (GN)
    • Schicht 2D-2 (GN)
    • 2D Szene Graphik
    • Beispiel einer Querverbindung
    • 2D Szene-1 (GN)
    • Schicht 3D-1 (GN)
    • Querverbindung
    • Schicht 3D-2 (GN)
    • 2D Objekt-1 (GN)
    • 2D Objekt-2 (CN)
    • 3D Szene-1 (GN)
    • 3D Szene-2 (CN)
    • 2D Objekt-4 (CN)
    • 2D Objekt-3 (CN)
    • 3D Objekt-1 (GN)
    • 3D Objekt-4 (CN)
    • 3D Objekt-5 (CN)
    • 3D Szene Graphik
    • 3D Objekt-2 (CN)
    • 3D Objekt-3 (CN)

Claims (7)

  1. Verfahren zum Decodieren codierter digitaler Signale, die in Form eines kontinuierlichen Bitstroms im Hinblick auf die binäre Beschreibung einer zu renderenden Szene auf einer Wiedergabeanordnung, wobei das genannte Verfahren einen Verarbeitungsvorgang umfasst, und zwar auf Basis einer sich entwickelnden syntaktischen Sprache und vorgesehen um in einem ersten Schritt aus dem genannten Bitstrom bestimmte Elemente, die entsprechend der Struktur der genannten Szene als Objekte bezeichnet werden, zu Extrahieren, wobei in einem zweiten Schritt eine individuelle Animation der genannten Elemente der Szene definiert werden, wobei in einem dritten Schritt bestimmte Interaktion zwischen einem Benutzer und den genannten Elementen definiert werden und wobei in einem vierten Schritt spezifische Beziehungen zwischen den genannten Szenenelementen und entsprechenden einzelnen Animationen und/oder Benutzerinteraktionen nach mehreren Klassen von Applikationen organisiert werden, wobei das genannte Verfahren weiterhin dadurch gekennzeichnet ist, dass der genannte Verarbeitungsvorgang ebenfalls einen zusätzlichen Schritt zum Beschreiben einer komplexen Szene umfasst, gebaut aus jeder Art von zweidimensionalen und dreidimensionalen Objekten, entsprechend einem System, das die beiden zweidimensionalen und dreidimensionalen Merkmale integriert und die Zusammensetzungs- und Repräsentationsmechanismen der Szenenstruktur vereint, wobei der genannte zusätzliche Beschreibungsschritt einen ersten Haupt-Subschritt aufweist zum Definieren einer hierarchischen Darstellung der genannten Szene entsprechend einer Baumstruktur, organisiert in Gruppenknotenpunkten, welche die hierarchischen Verbindungen angeben, welche die räumliche Zusammensetzung der betreffenden Szene geben, und in Kinderknotenpunkten, welche die Blätter des Baumes bilden, und einen zweiten Hilfs-Subschritt aufweist zum Definieren möglicher Querverbindungen zwischen jeder Art von Knotenpunkten.
  2. Verfahren nach Anspruch 1, wobei die Knotenpunkte der Baumstruktur wenigstens zweidimensionale Objekte und dreidimensionale Objekte aufweisen und der Hilfsdefinitions-Subschritt einen ersten Vorgang aufweist zum Einbetten wenigstens eines der genannten zweidimensionalen Objekte in wenigstens einem der genannten dreidimensionalen Objekte, einen etwaigen zweiten Vorgang zum Definieren von Querverbindungen zwischen den genannten dreidimensionalen und zweidimensionalen Objekten, und einen etwaigen dritten Vorgang zum Steuern des Definitionsschrittes wenigstens einer einzelnen Animation und/oder wenigstens einer bestimmten Interaktion in dem (den) eingebettenen zweidimensionalen Objekten) und in dem (den) entsprechenden ursprünglichen Objekt(en).
  3. Verfahren nach Anspruch 1, wobei die Knotenpunkte der Baumstruktur wenigstens zweidimensionale und dreidimensionale Objekte aufweist, und der Hilfs-Definitions-Subschritt einen ersten Vorgang aufweist zum Einbetten wenigstens eines der genannten dreidimensionalen Objekte innerhalb wenigstens eines der genannten zweidimensionalen Objekte und einen etwaigen zweiten Vorgang zum Definieren von Querverbindungen zwischen den genannten zweidimensionalen und dreidimensionalen Objekten und einen etwaigen dritten Vorgang zum Steuern des Definitionsschrittes wenigstens einer einzelnen Animation und/oder wenigstens einer bestimmten Interaktion in dem (den) eingebetteten dreidimensionalen Objekten) und in dem (den) entsprechenden ursprünglichen Obj ekt(en).
  4. Verfahren nach Anspruch 1, wobei die Knotenpunkte der Baumstruktur wenigstens dreidimensionale Objekte aufweist und der Hilfs-definitions-Hilfsschritt einen ersten Vorgang aufweist zum Einbetten wenigstens eines der genannten dreidimensionalen Objekte innerhalb wenigstens eines der genannten dreidimensionalen Objekte, einen etwaigen zweiten Vorgang zum Definieren von Querverbindungen zwischen den genannten dreidimensionalen Objekten, und einen etwaigen dritten Vorgang zum Steuern des Definitionsschrittes wenigstens einer einzelnen Animation und/oder wenigstens einer bestimmten Interaktion in dem (den) eingebetteten dreidimensionalen Objekten) und in dem (den) entsprechenden ursprünglichen Objekt(en).
  5. Verfahren nach einem der Ansprüche 3 und 4, wobei der genannte Hilfs-Definitions-Subschritt ebenfalls einen zusätzlichen Vorgang zum Steuern der gleichzeitigen Rendering wenigstens einer einzigen dreidimensionalen Szene aus mehreren Gesichtspunk ten, indem der etwaige dritte Vorgang zum Steuern des Definitionsschrittes der einzelnen Animationen) und/oder der bestimmten Interaktionen) aufweist.
  6. Signal erhalten durch Implementierung des Verfahrens nach Anspruch 1, wobei nachdem aus dem Eingangsbitstrom in einem ersten Schritt bestimmte nach der Struktur einer Szene als Objekte bezeichnete Elemente extrahiert worden sind, in einem zweiten Schritt eine einzelne Animation der genannten Elemente der Szene definiert wird, wobei in einem dritten Schritt bestimmte Interaktionen zwischen einem Benutzer und den genannten Elementen definiert werden, wobei in einem vierten Schritt bestimmte Beziehungen zwischen den genannten Szenenelementen und entsprechenden einzelnen Animationen und/oder Benutzerinteraktionen nach den jeweiligen Klassen von Applikationen organisiert werden, und ein zusätzlicher Schritt zum Beschreiben einer komplexen Szene durchgeführt wird, aufgebaut aus jeder Art von zweidimensionalen und dreidimensionalen Objekten entsprechend einem System, wobei zweidimensionale und dreidimensionale Merkmale integriert werden und die Zusammensetzungs- und Darstellungsmechanismen der Szenenstruktur vereint werden, wobei der genannte zusätzliche Beschreibungsschritt einen ersten Haupt-Subschritt aufweist zum Definieren einer hierarchischen Darstellung der genannten Szene entsprechend einer Baumstruktur, organisiert in Gruppenknotenpunkten, welche die hierarchischen Verbindungen angeben, welche die räumliche Zusammensetzung der betreffenden Szene geben, und in Kinderknotenpunkten, welche die Blätter des Baumes bilden, und einen zweiten Hilfs-Subschritt zum Definieren möglicher Querverbindungen zwischen jeder Art von Knotenpunkten.
  7. Speichermedium, vorgesehen zum Speichern eines Signals, erhalten durch Implementierung des Verfahrens nach Anspruch 1, wobei, nachdem aus dem Eingangsbitstrom in einem ersten Schritt bestimmte Elemente extrahiert worden sind, die-entsprechend der Struktur einer Szene als Objekte bezeichnet werden, in einem zweiten Schritt eine einzelne Animation der genannten Elemente der Szene definiert wird, wobei in einem dritten Schritt bestimmte Interaktionen zwischen einem Benutzer und den genannten Elementen definiert werden, wobei in einem vierten Schritt bestimmte Beziehungen zwischen den genannten Szenenelementen und entsprechenden einzelnen Animationen und/oder Benutzerinteraktionen entsprechend mehreren Klassen von Applikationen organisiert werden und wobei ein zusätzlicher Schritt zum beschreiben eines komplexen Szene durchgeführt wird, aufgebaut aus jeder Art von zweidimensionalen und dreidimensionalen Objekten entsprechend einem System, das zweidimensionale und dreidimensionale Merkmale integriert und die Zusammensetzungs- und Darstellungsmechanismen der Szenenstruktur vereint, wobei der genannten zusätzliche Schritt einen ersten Haupt-Subschritt aufweist zum Definieren einer hierarchischen Darstellung der genannten Szene entsprechend einer Baumstruktur organisiert in Gruppenknotenpunkten, welche die hierarchischen Verbindungen angeben, welche die räumliche Zusammensetzung der betreffenden Szene gibt, und in Kinderknotenpunkten, welche die Blätter des Baumes bilden und einen zweiten Hilfs-Subschritt zum Definieren möglicher Querverbindungen zwischen jeder Art von Knotenpunkten.
DE69818621T 1997-07-11 1998-07-06 Verfahren zur dekodierung von audiovisuellen daten Expired - Lifetime DE69818621T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP97401690 1997-07-11
EP97401690 1997-07-11
PCT/IB1998/001036 WO1999003069A1 (en) 1997-07-11 1998-07-06 Audiovisual data decoding method

Publications (2)

Publication Number Publication Date
DE69818621D1 DE69818621D1 (de) 2003-11-06
DE69818621T2 true DE69818621T2 (de) 2004-09-30

Family

ID=8229808

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69818621T Expired - Lifetime DE69818621T2 (de) 1997-07-11 1998-07-06 Verfahren zur dekodierung von audiovisuellen daten

Country Status (11)

Country Link
US (2) US6445740B1 (de)
EP (1) EP0925557B1 (de)
JP (1) JP4237270B2 (de)
KR (1) KR20010029494A (de)
CN (1) CN1202500C (de)
AU (1) AU7927298A (de)
BR (1) BR9806025B1 (de)
DE (1) DE69818621T2 (de)
ES (1) ES2207839T3 (de)
MY (1) MY121352A (de)
WO (1) WO1999003069A1 (de)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6850946B1 (en) * 1999-05-26 2005-02-01 Wireless Valley Communications, Inc. Method and system for a building database manipulator
US6934906B1 (en) 1999-07-08 2005-08-23 At&T Corp. Methods and apparatus for integrating external applications into an MPEG-4 scene
US6751655B1 (en) * 2000-04-18 2004-06-15 Sun Microsystems, Inc. Method and apparatus for transport of scenegraph information across a network
US6625454B1 (en) 2000-08-04 2003-09-23 Wireless Valley Communications, Inc. Method and system for designing or deploying a communications network which considers frequency dependent effects
US6973622B1 (en) 2000-09-25 2005-12-06 Wireless Valley Communications, Inc. System and method for design, tracking, measurement, prediction and optimization of data communication networks
US20060129933A1 (en) * 2000-12-19 2006-06-15 Sparkpoint Software, Inc. System and method for multimedia authoring and playback
DE10108888A1 (de) * 2001-02-17 2002-08-29 Manfred Rennings Parkscheibe
EP1260914A1 (de) * 2001-05-23 2002-11-27 Mediabricks Ab Verfahren zur Optimierung des Kapazitätsverbrauch eines Clients
US7216288B2 (en) * 2001-06-27 2007-05-08 International Business Machines Corporation Dynamic scene description emulation for playback of audio/visual streams on a scene description based playback system
EP1472694A1 (de) * 2002-02-07 2004-11-03 Samsung Electronics Co., Ltd. Informationsspeichermedium, das anzeigemodusinformationen enthält, und wiedergabevorrichtung und verfahren dafür
FR2839176A1 (fr) * 2002-04-30 2003-10-31 Koninkl Philips Electronics Nv Systeme d'animation pour robot comprenant un ensemble de pieces mobiles
US7439982B2 (en) * 2002-05-31 2008-10-21 Envivio, Inc. Optimized scene graph change-based mixed media rendering
WO2004008303A2 (en) * 2002-07-12 2004-01-22 Raytheon Company Scene graph based display for desktop applications
FR2849980B1 (fr) * 2003-01-15 2005-04-08 Medialive Procede pour la distribution de sequences video, decodeur et systeme pour la mise en oeuvre de ce prodede
FR2853786B1 (fr) * 2003-04-11 2005-08-05 Medialive Procede et equipement de distribution de produits videos numeriques avec une restriction de certains au moins des droits de representation et de reproduction
FR2854531B1 (fr) * 2003-05-02 2007-01-05 Medialive Procede et systeme pour securiser l'embrouillage, le desembrouillage et la distribution de sequences visuelles vectorielles
US8031190B2 (en) * 2004-05-03 2011-10-04 Microsoft Corporation Translating two-dimensional user input on three-dimensional scene
US7145562B2 (en) * 2004-05-03 2006-12-05 Microsoft Corporation Integration of three dimensional scene hierarchy into two dimensional compositing system
KR100679740B1 (ko) * 2004-06-25 2007-02-07 학교법인연세대학교 시점 선택이 가능한 다시점 동영상 부호화/복호화 방법
CN1331359C (zh) * 2005-06-28 2007-08-08 清华大学 交互式多视点视频系统中视频流的传输方法
US20070008566A1 (en) * 2005-07-07 2007-01-11 Xerox Corporation 3-D view and edit method and apparatus for document make-ready preparation for book production
ZA200805337B (en) * 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
US7913157B1 (en) * 2006-04-18 2011-03-22 Overcast Media Incorporated Method and system for the authoring and playback of independent, synchronized media through the use of a relative virtual time code
CN100446039C (zh) * 2006-09-13 2008-12-24 浙江大学 基于层次化视点相关模型的计算机辅助二维手绘动画方法
KR20080089119A (ko) * 2007-03-30 2008-10-06 삼성전자주식회사 Mpeg 기반의 ui 장치 및 이를 이용한 기능 제어 방법
US20090315980A1 (en) * 2008-06-24 2009-12-24 Samsung Electronics Co., Image processing method and apparatus
CN102339473B (zh) * 2010-07-22 2014-03-26 山东师范大学 一种基于遗传算法的动漫模型设计方法
US10176644B2 (en) * 2015-06-07 2019-01-08 Apple Inc. Automatic rendering of 3D sound
US10743070B2 (en) * 2017-12-01 2020-08-11 At&T Intellectual Property I, L.P. Fast channel change for a set top box based on channel viewing behaviors
US20210105451A1 (en) * 2019-12-23 2021-04-08 Intel Corporation Scene construction using object-based immersive media

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2144253C (en) * 1994-04-01 1999-09-21 Bruce F. Naylor System and method of generating compressed video graphics images
GB9501402D0 (en) * 1995-01-25 1995-03-15 Univ College Of London Modelling,analysis and measurement of architectural and other systems
US5838830A (en) * 1996-09-18 1998-11-17 Sharp Laboratories Of America, Inc. Vertex-based hierarchical shape representation and coding method and apparatus
US6801575B1 (en) * 1997-06-09 2004-10-05 Sharp Laboratories Of America, Inc. Audio/video system with auxiliary data

Also Published As

Publication number Publication date
US20030048844A1 (en) 2003-03-13
US6445740B1 (en) 2002-09-03
ES2207839T3 (es) 2004-06-01
BR9806025A (pt) 1999-10-13
JP4237270B2 (ja) 2009-03-11
MY121352A (en) 2006-01-28
AU7927298A (en) 1999-02-08
CN1202500C (zh) 2005-05-18
EP0925557B1 (de) 2003-10-01
DE69818621D1 (de) 2003-11-06
CN1239566A (zh) 1999-12-22
WO1999003069A1 (en) 1999-01-21
US7965769B2 (en) 2011-06-21
KR20010029494A (ko) 2001-04-06
EP0925557A1 (de) 1999-06-30
BR9806025B1 (pt) 2009-05-05
JP2001502097A (ja) 2001-02-13

Similar Documents

Publication Publication Date Title
DE69818621T2 (de) Verfahren zur dekodierung von audiovisuellen daten
DE69534751T2 (de) Bilddatenerzeugungsverfahren, Bilddatenverarbeitungsvorrichtung und Aufzeichnungsmedium
DE60022610T2 (de) Verfahren zur Animationskodierung in einer Bilddatei
DE69734658T2 (de) Verfahren und system für virtuelle kinematographie
DE69629983T2 (de) Verfahren zum anteiligen Nutzen eines dreidimensionalen Raumes in virtueller Realität und System dafür
DE60302063T2 (de) Graphische benutzeroberfläche für einen flugsimulator basierend auf einer client-server-architektur
DE69629447T2 (de) Benutzerinteraktion bei Bildern mit strukturiertem Bildformat
DE69818888T2 (de) Gerät und Verfahren zur Bildverarbeitung
DE112007002991B4 (de) Computergraphikschattenvolumen unter Verwendung von hierarchischem Okklusions-Culling
DE102009041431B4 (de) Fahrsimulationsvorrichtung, Weitwinkelkamera-Videosimulationsvorrichtung und Bilddeformierungs-/-zusammensetzungsvorrichtung
DE60115034T2 (de) Verfeinerung von dreidimensionalen polygonalen gitterdaten
DE202014010911U1 (de) Effiziente Zusammensetzung und Darstellung grafischer Elemente
DE69907482T2 (de) Vorrichtung und verfahren zur ausführung von interaktiven fernsehanwendungen auf set top boxen
DE10239672A1 (de) Verfahren und Vorrichtung zur Erzeugung einer zweidimensionalen Abbildung einer dreidimensionalen Struktur
DE102007050615B4 (de) Brick-basierter Fusionsrenderer
EP2951787B1 (de) Verfahren und vorrichtung zum verarbeiten von 3d-bilddaten
DE60028486T2 (de) Videocoder und -decoder
DE202013012446U1 (de) Strukturüberblendung für weichen Übergang zwischen unterschiedlichen Detaillierungsgraden in Grafikanwendungen
DE102019005885A1 (de) Umgebungskartengenerierung und Lochfüllung
DE102015217226A1 (de) Vorrichtung und verfahren zur erzeugung eines modells von einem objekt mit überlagerungsbilddaten in einer virtuellen umgebung
DE102013215301A1 (de) System, Verfahren und Computerprogrammprodukt zum Extrudieren eines Modells durch eine zweidimensionale Szene
DE60014455T2 (de) Virtuelle-realität modellierung
DE60221636T2 (de) Verfahren und vorrichtung zur verwaltung von interaktionen im standard mpeg-4
DE60025957T2 (de) Verfahren und vorrichtung zur gewährleistung der abwärts-kompatibilität in einem bucket-darstellungssystem
DE60030401T2 (de) Anzeigetechniken für dreidimensionale virtuelle Realität

Legal Events

Date Code Title Description
8364 No opposition during term of opposition