DE69731695T2 - Verfahren um die Präsentation von statischen und dynamischen Komponenten eines interaktiven Multimediadokuments zu synchronisieren - Google Patents

Verfahren um die Präsentation von statischen und dynamischen Komponenten eines interaktiven Multimediadokuments zu synchronisieren Download PDF

Info

Publication number
DE69731695T2
DE69731695T2 DE69731695T DE69731695T DE69731695T2 DE 69731695 T2 DE69731695 T2 DE 69731695T2 DE 69731695 T DE69731695 T DE 69731695T DE 69731695 T DE69731695 T DE 69731695T DE 69731695 T2 DE69731695 T2 DE 69731695T2
Authority
DE
Germany
Prior art keywords
document
presentation
multimedia
static
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69731695T
Other languages
English (en)
Other versions
DE69731695D1 (de
Inventor
Farid Baleh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alcatel Lucent SAS
Original Assignee
Alcatel Alsthom Compagnie Generale dElectricite
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alcatel Alsthom Compagnie Generale dElectricite filed Critical Alcatel Alsthom Compagnie Generale dElectricite
Application granted granted Critical
Publication of DE69731695D1 publication Critical patent/DE69731695D1/de
Publication of DE69731695T2 publication Critical patent/DE69731695T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/489Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99943Generating database or data structure, e.g. via user interface
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99944Object-oriented database structure
    • Y10S707/99945Object-oriented database structure processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Digital Computer Display Output (AREA)

Description

  • Die Erfindung bezieht sich auf ein Verfahren, um in einem Präsentationssystem für interaktive Multimediadokumente die Präsentation von dynamischen Komponenten und von statischen Komponenten eines solchen Dokuments zu synchronisieren.
  • Sie findet insbesondere auf ein Präsentationssystem für interaktive Multimediadokumente Anwendung, die in Krankenhausumgebungen zum Aufbau und zur Nutzung einer interaktiven Dokumentendatenbank von chirurgischen Handlungen oder Handhabungen eingesetzt werden.
  • Die Multimediatechnik arbeitet mit Informationen unterschiedlicher Art: animierte Videosequenzen, Ton, Texte, Grafikbilder, stehende Videobilder usw.
  • Unter dem Gesichtspunkt der Zeit können diese verschiedenen Informationen in zwei Kategorien eingeteilt werden:
    • – sogenannte dynamische Informationen, deren Präsentation aufgrund ihrer Art mit einer Anzeigezeit verbunden ist; dies ist bei animiertem Video und Ton der Fall. Diese Informationen werden im Allgemeinen auf physischen Trägern (Videoserver, Audioserver, Videoplatte, Magnetband usw.) mit einer codierten Zeitbasis oder einem "Time Code" [Zeitcode] gespeichert. Die Aufzeichnung von animiertem Video auf einer Videoplatte bedeutet zum Beispiel, dass eine Bildnummer (auf der Basis von 25 Bildern pro Sekunde nach den europäischen Video-Standards) zusammen mit jedem der stehenden Bilder gespeichert werden, muss, aus denen sich das Video zusammensetzt;
    • – sogenannte statische Informationen, deren Präsentation nicht grundsätzlich mit einer Anzeigezeit verknüpft ist; dies ist der Fall von Text, Grafikbildern oder stehenden Videobildern. Diese Informationen werden auf physischen Trägern ohne zugeordneten Zeitcode gespeichert.
  • Das Dokument "Tool Support for the Synchronization and Presentation of Distributed Multimedia", Computer Communications, Band 15 Nr. 10, Dezember 1992, von G. Blakowski, Ulrike Langrehr und Max Mülhäuser legt einen Synchroni sationsmechanismus innerhalb eines Videostroms offen, doch dieser Mechanismus kann für die Präsentation eines Multimediadokuments nicht angewendet werden.
  • Die Dokumente "MOCS: An Object-Oriented Programming Model for Multimedia Object Communication and Synchronization", IEEE, Juni 1994, von Chi-Leung Fung und Man-Chi Pong sowie "Constructing a System Using Time Dependent Multimedia Document", IEEE, IPCCC, April 1992, von Takeshi Yoneda und Yotaka Matsushita legen Mechanismen zur Synchronisation von Multimediaobjekten offen, doch diese Synchronisation bezieht sich nur auf die Auslösungen dieser Objekte in ihrem Verhältnis zueinander. Es wird zum Beispiel nicht dargestellt, wie interaktive Multimediadokumente verwaltet werden können, deren Anzeigegeschwindigkeit unterschiedlich sein kann.
  • In einem Multimediadokument können bestimmte statische Informationen gleichzeitig wie bestimmte andere dynamische Informationen präsentiert werden. Wenn das Multimediadokument interaktiv ist, das heißt wenn der Benutzer die Möglichkeit hat, die Präsentationsgeschwindigkeit des Dokuments zu ändern, besteht das Problem darin, wie die Präsentation dieser verschiedenen Komponenten koordiniert werden kann, wenn der Benutzer die Präsentationsgeschwindigkeit des Multimediadokuments ändert.
  • Nach dem künftigen MHEG-Standard (für "Multimedia and Hypermedia Expert Group" – ISO/IEC DIS 13522-1) muss ein Multimediadokument in einem Präsentationssystem für interaktive Multimediadokumente nach einem objektorientierten Modell dargestellt werden.
  • Das Ziel der Erfindung besteht darin, ein an den künftige MHEG-Standard angepasstes Verfahren vorzuschlagen, um in einem Präsentationssystem für interaktive Multimediadokumente die Präsentation von dynamischen Komponenten und von statischen Komponenten eines solchen Dokuments zu synchronisieren, um ein harmonisches zeitliches Verhalten dieser dynamischen und statischen Komponenten zu erhalten, wenn der Benutzer mit dem Präsentationssystem interagiert, um die Präsentationsgeschwindigkeit des Multimediadokuments zu verändern.
  • Ein weiteres Ziel der Erfindung besteht darin, ein solches Verfahren vorzuschlagen, das in der Objektprogrammierung einfach zu implementieren ist.
  • Zu diesem Zweck ist Gegenstand der Erfindung ein Verfahren, um in einem Präsentationssystem für interaktive Multimediadokumente die Präsentation von dynamischen Komponenten und statischen Komponenten eines solchen Dokuments zu synchronisieren, gekennzeichnet durch die Schritte, welche bestehen aus:
    • – Darstellen des Dokuments und seiner dynamischen und statischen Komponenten in dem Präsentationssystem für interaktive Multimediadokumente nach einem objektorientierten Modell, um das interaktive Multimediadokument in Form eines ersten Objekts zu definieren, das als Multimedia-Wurzelobjekt bezeichnet wird, sowie jeder dynamischen Komponente dieses Dokuments in Form eines zweiten Objekts, das als dynamisches Monomediaobjekt bezeichnet wird, und jeder statischen Komponente dieses Dokuments in Form eines dritten Objekts, das als statisches Monomediaobjekt bezeichnet wird;
    • – Liefern von ersten Synchronisationsdaten in dem Multimedia-Wurzelobjekt und in jedem dynamischen oder statischen Monomediaobjekt, die sich auf Präsentationszeitpunkte des Dokuments in einem logischen zeitlichen Bezugssystem für eine bestimmte Präsentationsgeschwindigkeit des Multimediadokuments beziehen, wobei dieses logische zeitliche Bezugssystem von einem codierten zeitlichen Bezugssystem abgeleitet ist, welches von einem Aufzeichnungsträger der dynamischen Komponenten des Dokuments geliefert wird;
    • – Liefern eines zweiten Synchronisationswertes in dem Multimedia-Wurzelobjekt und in jedem statischen Monomediaobjekt, der sich auf einen Zeitpunkt des Wechsels der Präsentationsgeschwindigkeit des Dokuments in dem logischen zeitlichen Bezugssystem bezieht;
    • – Liefern eines dritten Synchronisationswertes in dem Multimedia-Wurzelobjekt und in jedem statischen Monomediaobjekt, der sich auf einen von einer Uhr gelieferten Präsentationszeitpunkt des Dokuments in einem physischen zeitlichen Bezugssystem bezieht;
    • – Liefern eines vierten Synchronisationswertes in dem Multimedia-Wurzelobjekt und in jedem statischen Monomediaobjekt, der sich auf einen Zeitpunkt des Wechsels der Präsentationsgeschwindigkeit des Dokuments in dem physischen zeitlichen Bezugssystem bezieht;
    • – Liefern von fünften Synchronisationsdaten in jedem dynamischen Monomediaobjekt, die sich auf Präsentationszeitpunkte des Dokuments im codierten zeitlichen Bezugssystem beziehen; und
    • – Verarbeiten dieser verschiedenen Synchronisationsdaten bei jeder Änderung der Präsentationsgeschwindigkeit des Multimediadokuments, um die Präsentation der dynamischen Komponenten und der statischen Komponenten dieses Dokuments zu koordinieren.
  • Ein Ausführungsbeispiel des Verfahrens gemäß der Erfindung wird nachfolgend ausführlich unter Bezugnahme auf die Zeichnungen beschrieben.
  • 1 stellt schematisch ein Präsentationssystem für Multimediadokument dar, mit dem das Verfahren gemäß der Erfindung umgesetzt werden kann.
  • 2 veranschaulicht die Objektdarstellung eines Dokuments in dem System ausgehend von einem einfachen Beispiel eines Multimediadokuments, das eine statische Komponente und eine dynamische Komponente besitzt.
  • 3 stellt das Szenario des Dokuments von 2 dar.
  • 4 stellt die in den Objekten vorhandenen Synchronisationsdaten dar.
  • 5 stellt die Objekte von 4 in dem logischen zeitlichen Bezugssystem dar.
  • 6 ist ein Ablaufdiagramm der auf die Synchronisationsdaten angewendeten Verarbeitung.
  • 1 Ein stark vereinfacht dargestelltes Präsentationssystem für ein interaktives Multimediadokument enthält klassischerweise eine Zentraleinheit 1, die mit einem Anzeigebildschirm 2 verbunden ist, mit welchem die visuellen Informationen (animierte oder nicht animierte Videobilder, Text, Grafiken usw.) wiedergegeben werden können, sowie mit einem Lautsprecher 3, mit dem die akustischen Informationen wiedergegeben werden können.
  • Im Rahmen der Erfindung umfasst das Multimediadokument dynamische Informationen und statische Informationen, die gleichzeitig präsentiert werden können. Die dynamischen Bild- oder Toninformationen werden auf einem Aufzeichnungsträger mit einem Zeitcode gespeichert, in diesem Beispiel auf einer Videoplatte 4, während die statischen Informationen, wie beispielsweise ein Standbild oder Text, auf einem anderen Träger ohne Zeitcode gespeichert werden, zum Beispiel im Massenspeicher der Zentraleinheit 1 oder auf jedem anderen gleichwertigen Träger 5.
  • Die Zentraleinheit 1 ist auch mit einer Bedienungstastatur 6 verbunden, mit deren Hilfe der Benutzer des Systems auf den Ablauf der Präsentation des Multimediadokuments über eine Reihe von Funktionstasten einwirken kann, wie beispielsweise:
    • – die Tasten 61 und 62 für normalen Vor- bzw. Rücklauf mit einer Geschwindigkeit von 25 Bildern pro Sekunde;
    • – die Tasten 63 und 64 für langsamen Vor- bzw. Rücklauf mit einer Geschwindigkeit unter 25 Bildern pro Sekunde;
    • – die Tasten 65 und 66 für schnellen Vor- bzw. Rücklauf mit einer Geschwindigkeit über 25 Bildern pro Sekunde;
    • – und die Taste 67, um die Präsentation anzuhalten (Pausentaste).
  • Die Anwendung eines Präsentationssystems für ein interaktives Multimediadokument nach dem künftigen MHEG-Standard beruht auf einem objektorientierten Ansatz für die Beschreibung der Struktur des Multimediadokuments und auf einer Multimedia-Software-Engine, die ausgehend von dieser Objektdarstellung die Aufgabe hat, die verschiedenen Komponenten des Dokuments von ihrem jeweiligen Speicherträger wiederzugewinnen und jede Komponente für den Benutzer des Systems über die Peripheriegeräte 2 und 3 zu präsentieren.
  • 2 Im Rahmen des Verfahrens gemäß der Erfindung wird das Multimediadokument im Präsentationssystem 1 nach einem objektorientierten Modell dargestellt, um das Multimediadokument in Form eines ersten Objekts zu definieren, das als Multimedia-Wurzelobjekt CO bezeichnet wird, sowie jede dynamische Komponente des Dokuments in Form eines zweiten Objekts OD, das als dynamisches Monomediaobjekt bezeichnet wird, und jede statische Komponente des Dokuments in Form eines dritten Objekts OS, das als statisches Monomediaobjekt bezeichnet wird.
  • Auf 2 ist das als Beispiel gewählte und nach dem objektorientierten Modell dargestellte Multimediadokument relativ einfach, da es nur eine dynamische Komponente, zum Beispiel eine audiovisuelle Sequenz, aufweist, die dem Objekt OD entspricht, und eine statische Komponente, zum Beispiel einen Text, die dem Objekt OS entspricht. Es ist offensichtlich, dass die Erfindung für viel komplexere interaktive Multimediadokumente anwendbar ist, die mehrere dynamische oder statische Komponenten aufweisen.
  • 3 Das Szenario des als Beispiel gewählten Multimediadokuments wird auf einer Zeitbasis mit Sekunden als Einheit dargestellt. Man sieht auf dieser Abbildung, dass die Präsentation des Multimediadokuments am Ursprung 0 der Zeitachse beginnt und nach einem Zeitraum von zum Beispiel 120 Sekunden endet. Die Präsentation der audiovisuellen Sequenz AVS beginnt zum Beispiel an der Zeit t von 10 Sekunden und endet an der Zeit t von 100 Sekunden. Die Präsentation des Testes TEXT beginnt an der Zeit t von 20 Sekunden und endet an der Zeit t von 80 Sekunden. Es ist zu beachten, dass die audiovisuelle Sequenz AVS auf der Videoplatte 4 des Systems von 1 gespeichert ist. Sie beginnt mit einem ersten Bild, das die Nummer 7000 trägt, und endet mit einem Bild, das die Nummer 9250 trägt. Die Dauer dieser audiovisuellen Sequenz beträgt daher 2250 Bilder, das heißt 90 Sekunden mit jeweils 25 Bildern pro Sekunde. Diese Bildnummern, die vom Aufzeichnungsträger der Sequenz AVS geliefert werden, definieren das codierte zeitliche Bezugssystem.
  • 4 Für das Multimediaobjekt und jedes Monomediaobjekt werden eine Reihe von Synchronisationsdaten geliefert, die jeweils einem Objektattribut entsprechen. Die Idee, welche der Erfindung zugrundeliegt, besteht darin, über diese Synchronisationsdaten ein logisches zeitliches Bezugssystem zu liefern, das dem Multimedia-Wurzelobjekt und den statischen oder dynamischen Monomediaobjekten gemeinsam ist, und zwar in der Weise, dass die Präsentation der dynamischen Informationen und der statischen Informationen bei einem Wechsel der Präsentationsgeschwindigkeit des Multimediadokuments koordiniert werden kann.
  • Genauer gesagt, sieht man auf dieser Abbildung, dass das Objekt CO und die Objekte OD und OS gemeinsame Synchronisationsdaten Tl, Tlb, Tle und Vi haben.
    • Tl bezieht sich auf einen aktuellen Präsentationszeitpunkt im logischen Bezugssystem: ein aktueller Präsentationszeitpunkt des Multimediadokuments für das Objekt CO – ein aktueller Präsentationszeitpunkt der Komponente AVS für das Objekt OD – ein aktueller Präsentationszeitpunkt der Komponente TEXT für das Objekt OS;
    • Tlb bezieht sich auf einen Anfangszeitpunkt der Präsentation im logischen Bezugssystem: ein Anfangszeitpunkt der Präsentation des Multimediadokuments für das Objekt CO – ein Anfangszeitpunkt der Präsentation der Komponente AVS für das Objekt OD – ein Anfangszeitpunkt der Präsentation der Komponente TEXT für das Objekt OS;
    • Tle bezieht sich auf einen Endzeitpunkt der Präsentation im logischen Bezugssystem: ein Endzeitpunkt der Präsentation des Multimediadokuments für das Objekt CO – ein Endzeitpunkt der Präsentation der Komponente AVS für das Objekt OD – ein Endzeitpunkt der Präsentation der Komponente TEXT für das Objekt OS;
    • Vi bezieht sich auf die aktuelle Präsentationsgeschwindigkeit im logischen Bezugssystem: die aktuelle Präsentationsgeschwindigkeit des Multimediadokuments für das Objekt CO- die aktuelle Präsentationsgeschwindigkeit der Komponente AVS für das Objekt OD – die aktuelle Präsentationsgeschwindigkeit der Komponente TEXT für das Objekt OS (normalerweise gleich 25 Bildern pro Sekunde).
  • In dem Fall des Beispiels von 3 hat man Tlb(CO), das gleich 0 ist, und Tle (CO), das gleich 120 ist. Danach hat man Tlb(OS), das gleich 20 ist, und Tle(OS), das gleich 80 ist. Und schließlich hat man Tlb(OD), das gleich 10 ist, und Tle(OD), das gleich 100 ist. Diese Synchronisationsdaten bleiben während der Präsentation des Multimediadokuments feste Werte.
  • Außerdem haben das Multimediaobjekt CO und das statische Objekt OS einen zweiten Synchronisationswert Tli, der sich auf einen Zeitpunkt der Änderung der Präsentationsgeschwindigkeit im logischen zeitlichen Bezugssystem bezieht, einen dritten Synchronisationswert Tp, der sich auf einen aktuellen Zeitpunkt der Präsentation in einem anderen zeitlichen Bezugssystem bezieht, das als physisches zeitliches Bezugssystem bezeichnet wird – der Präsentationszeitpunkt des Multimediadokuments für das Objekt CO – der Präsentationszeitpunkt der Komponente TEXT für das Objekt OS – und einen vierten Synchronisationswert Tpi, der sich auf einen Zeitpunkt der Änderung der Präsentationsgeschwindigkeit im physischen zeitlichen Bezugssystem bezieht – der Änderungszeitpunkt der Präsentationsgeschwindigkeit des Multimediadokuments für das Objekt CO - der Änderungszeitpunkt der Präsentationsgeschwindigkeit der Komponente TEXT für das Objekt OS.
  • Dieses physische zeitliche Bezugssystem wird von einer Uhr 7 geliefert, die auf 1 dargestellt ist. Es handelt sich um die interne Uhr der Einheit 1.
  • Schließlich besitzt das Objekt fünfte Synchronisationsdaten Tt, Ttb und Tte, die sich auf Präsentationszeitpunkte der dynamischen Komponente AVS im codierten zeitlichen Bezugssystem beziehen.
    • Tt bezieht sich auf einen aktuellen Präsentationszeitpunkt der Komponente AVS in diesem codierten zeitlichen Bezugssystem;
    • Ttb bezieht sich auf den Anfangszeitpunkt der Präsentation der Komponente AVS in diesem codierten zeitlichen Bezugssystem;
    • Tte bezieht sich auf den Endzeitpunkt der Präsentation der Komponente AVS in diesem codierten zeitlichen Bezugssystem.
  • Für die als Beispiel gewählte Sequenz AVS hat man Ttb(OD), der gleich 7000 ist, und Tte(OD), der gleich 9250 ist. Diese Synchronisationsdaten bleiben während der Präsentation des Multimediadokuments feste Werte.
  • 5 liefert eine Darstellung der Objekte CO, OD und OS in dem logischen zeitlichen Bezugssystem. Man sieht, dass das Objekt CO an der logischen Zeit t=0 startet und an der logischen Zeit t=120 stoppt – das Objekt OD startet an der logischen Zeit t=10 und stoppt an der logischen Zeit t=100 – das Objekt OS startet an der logischen Zeit t=20 und stoppt an der logischen Zeit t=80. Hier muss man verstehen, dass der Start oder der Stopp des dynamischen Monomediaobjekts in der Tat dem Start und dem Stopp der Präsentation der audiovisuellen Sequenz entsprechen. Der Start und der Stopp des statischen Monomediaobjekts entsprechen dem Start der Anzeige des Textes und seinem Verschwinden auf dem Bildschirm.
  • Um diese Start- und Stopp-Phasen selbst im Fall einer Änderung der Präsentationsgeschwindigkeit zu koordinieren, muss das zeitliche Verhalten des oder der statischen Monomediaobjekte wie beispielsweise OS auf das zeitliche Verhalten des oder der dynamischen Monomediaobjekte OD abgestimmt werden.
  • Daher wird im Fall einer Änderung der Präsentationsgeschwindigkeit des Multimediadokuments, die vom Benutzer über eine der Funktionstasten 61 bis 67 angefordert wird, eine Verarbeitung auf die Synchronisationsdaten angewendet, um die Kohärenz bezüglich der Präsentation der verschiedenen Komponenten aufrechtzuerhalten.
  • Wenn man sich zum Beispiel an dem logischen Zeitpunkt Tl befindet, der auf 5 zwischen 20 und 80 Sekunden liegt, das heißt, wenn die audiovisuelle Sequenz AVS und der Text TEXT gerade mit einer bestimmten Geschwindigkeit präsentiert werden, und wenn der Benutzer eine der Tasten auswählt, die zur Änderung dieser Präsentationsgeschwindigkeit dienen (zum Beispiel 63), wendet die Multimedia-Engine die Verarbeitungen an, die in dem Ablaufdiagramm von 6 dargestellt sind.
  • Wenn das Änderungsereignis der Präsentationsgeschwindigkeit bei der Geschwindigkeit V berücksichtigt wird, erfolgt eine erste Verarbeitung in Bezug auf die Attribute des Objekts CO, um Tli(CO) über ein Objektverfahren GetTemporalTime() zu aktualisieren, was den Wert der aktuellen logischen Zeit Tl(CO) liefert, sowie um über ein Objektverfahren GetPhysicalTime() Tpi(CO) zu aktualisieren, was die von der Uhr 7 vorgegebene aktuelle Zeit und Vi(CO) liefert.
  • Eine zweite Verarbeitung erfolgt in Bezug auf die Attribute des Objekts OS, um über ein anderes Objektverfahren GetTemporalTime() Tli(OS) zu aktualisieren, was den Wert der aktuellen logischen Zeit Tl(OS) liefert, und um über ein Objektverfahren GetPhysicalTime() Tpi(OS) zu aktualisieren, was die von der Uhr 7 vorgegebene aktuelle Zeit und Vi(OS) liefert.
  • Für die Objekte CO und OS sendet das Verfahren GetTemporalPosition() einen logischen Zeitpositionswert auf der Grundlage der folgenden Beziehung zurück:
  • Tl = Tli + (Tp – Tpi).Vi/VN, wobei Vi der Wert der Präsentationsgeschwindigkeit bei der letzten Geschwindigkeitsänderung ist und VN der Wert der normalen Präsentationsgeschwindigkeit ist (25 Bilder pro Sekunde nach europäischen Video-Standards). Man sieht, dass die neue aktuelle logische Zeitposition des Objekts CO oder OS gleich der logischen Zeitposition des betreffenden Objekts bei der letzten Geschwindigkeitsänderung, erhöht um das Zeitintervall zwischen der physischen Zeitposition des betreffenden Objekts bei der letzten Geschwindigkeitsänderung und der von der Uhr vorgegebenen aktuellen physischen Zeitposition ist, wobei dieses Zeitintervall zusätzlich um einen Multiplikationsfaktor (Vi/VN) korrigiert wird, der die Geschwindigkeitsveränderung zwischen zwei physischen Zeitpunkten berücksichtigt.
  • Eine dritte Verarbeitung 63 wird in Bezug auf die Attribute des Objekts OD angewendet, um Vi(OD) zu aktualisieren und eine Routine zu starten, um die Änderung der Lesegeschwindigkeit des Lesekopfs des Trägers 4 zu steuern.
  • Für das Objekt OD sendet das Verfahren GetTemporalPosition() einen Wert auf der Grundlage der folgenden Beziehung zurück: Tl = Tt – Ttb + Tlb
  • Man sieht hier, dass für das Objekt OD die logische Zeit ausschließlich von der codierten Zeit abgeleitet wird, da in diese bereits die Geschwindigkeitsveränderungen einbezogen sind.
  • Durch diese zwei Beziehungen, welche die logische Zeit für ein statisches Objekt bzw. die logische Zeit für ein dynamisches Objekt definieren, ist es möglich, die Präsentation von statischen und dynamischen Komponenten eines Multimediadoku ments zu koordinieren (oder zu synchronisieren), indem die Gleichwertigkeit Tl(CO) = Tl(OS) = Tl(OD) gewährleistet wird.
  • Bei jedem späteren Lesevorgang der logischen Zeit eines Objekts mit dem Verfahren GetTemporalPosition() kann eine logische Zeit Tl wiedergewonnen werden, die mit der aktuellen Präsentationsgeschwindigkeit des Multimediadokuments übereinstimmt, und dies sogar im Fall einer vom Benutzer des Systems angeforderten Änderung.
  • Es ist darauf hinzuweisen, dass für das Objekt OD der Wert der aktuellen codierten Zeit Tt auch mit einem Objektverfahren wiedergewonnen wird.
  • Die verschiedenen oben beschriebenen Objektmethoden sind Bestandteil der Multimedia-Software-Engine und können in den Objekten CO, OD und OS implementiert werden.

Claims (1)

  1. Verfahren, um in einem Präsentationssystem für interaktive Multimediadokumente die Präsentation von dynamischen Komponenten und statischen Komponenten eines solchen Dokuments zu synchronisieren, gekennzeichnet durch die Schritte, welche bestehen aus: – Darstellen des Dokuments und seiner dynamischen und statischen Komponenten in dem Präsentationssystem für interaktive Multimediadokumente nach einem objektorientierten Modell, um das interaktive Multimediadokument in Form eines ersten Objekts (CO) zu definieren, das als Multimedia-Wurzelobjekt bezeichnet wird, sowie jeder dynamischen Komponente dieses Dokuments in Form eines zweiten Objekts (OD), das als dynamisches Monomediaobjekt bezeichnet wird, und jeder statischen Komponente dieses Dokuments in Form eines dritten Objekts (OS), das als statisches Monomediaobjekt bezeichnet wird; – Liefern von ersten Synchronisationsdaten (Tl, Tle, Tlb) in dem Multimedia-Wurzelobjekt (CO) und in jedem dynamischen (OD) oder statischen (OS) Monomediaobjekt, die sich auf Präsentationszeitpunkte des Dokuments in einem logischen zeitlichen Bezugssystem für eine bestimmte Präsentationsgeschwindigkeit des Multimediadokuments beziehen, wobei dieses logische zeitliche Bezugssystem von einem codierten zeitlichen Bezugssystem abgeleitet ist, welches von einem Aufzeichnungsträger (4) der dynamischen Komponenten des Dokuments geliefert wird; – Liefern eines zweiten Synchronisationswertes (Tli) in dem Multimedia-Wurzelobjekt (CO) und in jedem statischen Monomediaobjekt (OS), der sich auf einen Zeitpunkt des Wechsels der Präsentationsgeschwindigkeit des Dokuments in dem logischen zeitlichen Bezugssystem bezieht; – Liefern eines dritten Synchronisationswertes (Tp) in dem Multimedia-Wurzelobjekt (CO) und in jedem statischen Monomediaobjekt (OS), der sich auf einen von einer Uhr (7) gelieferten Präsentationszeitpunkt des Dokuments in einem physischen zeitlichen Bezugssystem bezieht; – Liefern eines vierten Synchronisationswertes (Tpi) in dem Multimedia-Wurzelobjekt (CO) und in jedem statischen Monomediaobjekt (OS), der sich auf einen Zeitpunkt des Wechsels der Präsentationsgeschwindigkeit des Dokuments in dem physischen zeitlichen Bezugssystem bezieht; – Liefern von fünften Synchronisationsdaten (Tt, Ttb, Tte) in jedem dynamischen Monomediaobjekt (OD), die sich auf Präsentationszeitpunkte des Dokuments im codierten zeitlichen Bezugssystem beziehen; und – Verarbeiten dieser verschiedenen Synchronisationsdaten bei jeder Änderung der Präsentationsgeschwindigkeit des Multimediadokuments, um die Präsentation der dynamischen Komponenten und der statischen Komponenten dieses Dokuments zu koordinieren.
DE69731695T 1996-08-21 1997-08-18 Verfahren um die Präsentation von statischen und dynamischen Komponenten eines interaktiven Multimediadokuments zu synchronisieren Expired - Lifetime DE69731695T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9610336 1996-08-21
FR9610336A FR2752638B1 (fr) 1996-08-21 1996-08-21 Methode pour synchroniser la presentation de composantes statiques et dynamiques d'un document multimedia interactif

Publications (2)

Publication Number Publication Date
DE69731695D1 DE69731695D1 (de) 2004-12-30
DE69731695T2 true DE69731695T2 (de) 2005-06-16

Family

ID=9495144

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69731695T Expired - Lifetime DE69731695T2 (de) 1996-08-21 1997-08-18 Verfahren um die Präsentation von statischen und dynamischen Komponenten eines interaktiven Multimediadokuments zu synchronisieren

Country Status (5)

Country Link
US (1) US6141001A (de)
EP (1) EP0825542B1 (de)
JP (1) JP4205187B2 (de)
DE (1) DE69731695T2 (de)
FR (1) FR2752638B1 (de)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100393007C (zh) * 1997-06-13 2008-06-04 皇家菲利浦电子有限公司 循环发送多个互相关目标的发射机及包括该发射机的通信系统
US6789228B1 (en) * 1998-05-07 2004-09-07 Medical Consumer Media Method and system for the storage and retrieval of web-based education materials
US7689898B2 (en) * 1998-05-07 2010-03-30 Astute Technology, Llc Enhanced capture, management and distribution of live presentations
US20020036694A1 (en) * 1998-05-07 2002-03-28 Merril Jonathan R. Method and system for the storage and retrieval of web-based educational materials
CA2279504A1 (fr) * 1998-08-13 2000-02-13 Guy Fouquet Document multimedia dynamique
US6342904B1 (en) * 1998-12-17 2002-01-29 Newstakes, Inc. Creating a slide presentation from full motion video
US6892351B2 (en) * 1998-12-17 2005-05-10 Newstakes, Inc. Creating a multimedia presentation from full motion video using significance measures
US6286031B1 (en) * 1999-01-21 2001-09-04 Jerry Richard Waese Scalable multimedia distribution method using client pull to retrieve objects in a client-specific multimedia list
US6977628B1 (en) * 1999-02-01 2005-12-20 Zvi Yaniv Method and apparatus for dynamically presenting a pictorial representation
EP1089199A3 (de) * 1999-09-17 2003-11-05 Kabushiki Kaisha Toshiba Beschreibungsverfahren für Medieninformationszeitverwaltung, Multimedia Informationsverarbeitungsgerät und Verfahren
US6757866B1 (en) 1999-10-29 2004-06-29 Verizon Laboratories Inc. Hyper video: information retrieval using text from multimedia
US6569206B1 (en) * 1999-10-29 2003-05-27 Verizon Laboratories Inc. Facilitation of hypervideo by automatic IR techniques in response to user requests
US6490580B1 (en) 1999-10-29 2002-12-03 Verizon Laboratories Inc. Hypervideo information retrieval usingmultimedia
US6996775B1 (en) 1999-10-29 2006-02-07 Verizon Laboratories Inc. Hypervideo: information retrieval using time-related multimedia:
US6493707B1 (en) 1999-10-29 2002-12-10 Verizon Laboratories Inc. Hypervideo: information retrieval using realtime buffers
US7159039B1 (en) * 2000-02-28 2007-01-02 Verizon Laboratories Inc. Systems and methods for providing in-band and out-band message processing
US6922702B1 (en) 2000-08-31 2005-07-26 Interactive Video Technologies, Inc. System and method for assembling discrete data files into an executable file and for processing the executable file
US6839059B1 (en) 2000-08-31 2005-01-04 Interactive Video Technologies, Inc. System and method for manipulation and interaction of time-based mixed media formats
US20020026521A1 (en) * 2000-08-31 2002-02-28 Sharfman Joshua Dov Joseph System and method for managing and distributing associated assets in various formats
US20020091840A1 (en) * 2000-11-28 2002-07-11 Gregory Pulier Real-time optimization of streaming media from a plurality of media sources
US20020083091A1 (en) * 2000-11-29 2002-06-27 Gregory Pulier Seamless integration of video on a background object
US7253919B2 (en) 2000-11-30 2007-08-07 Ricoh Co., Ltd. Printer with embedded retrieval and publishing interface
US6774919B2 (en) 2000-12-06 2004-08-10 Microsoft Corporation Interface and related methods for reducing source accesses in a development system
US6768499B2 (en) 2000-12-06 2004-07-27 Microsoft Corporation Methods and systems for processing media content
US7103677B2 (en) 2000-12-06 2006-09-05 Microsoft Corporation Methods and systems for efficiently processing compressed and uncompressed media content
US7114161B2 (en) * 2000-12-06 2006-09-26 Microsoft Corporation System and related methods for reducing memory requirements of a media processing system
US6959438B2 (en) 2000-12-06 2005-10-25 Microsoft Corporation Interface and related methods for dynamically generating a filter graph in a development system
US6954581B2 (en) * 2000-12-06 2005-10-11 Microsoft Corporation Methods and systems for managing multiple inputs and methods and systems for processing media content
US6882891B2 (en) 2000-12-06 2005-04-19 Microsoft Corporation Methods and systems for mixing digital audio signals
US6912717B2 (en) 2000-12-06 2005-06-28 Microsoft Corporation Methods and systems for implementing dynamic properties on objects that support only static properties
US6983466B2 (en) 2000-12-06 2006-01-03 Microsoft Corporation Multimedia project processing systems and multimedia project processing matrix systems
US7287226B2 (en) 2000-12-06 2007-10-23 Microsoft Corporation Methods and systems for effecting video transitions represented by bitmaps
US7114162B2 (en) 2000-12-06 2006-09-26 Microsoft Corporation System and methods for generating and managing filter strings in a filter graph
US7447754B2 (en) 2000-12-06 2008-11-04 Microsoft Corporation Methods and systems for processing multi-media editing projects
US6834390B2 (en) * 2000-12-06 2004-12-21 Microsoft Corporation System and related interfaces supporting the processing of media content
US6961943B2 (en) 2000-12-06 2005-11-01 Microsoft Corporation Multimedia processing system parsing multimedia content from a single source to minimize instances of source files
US7683903B2 (en) * 2001-12-11 2010-03-23 Enounce, Inc. Management of presentation time in a digital media presentation system with variable rate presentation capability
US8006186B2 (en) * 2000-12-22 2011-08-23 Muvee Technologies Pte. Ltd. System and method for media production
US7360149B2 (en) 2001-04-19 2008-04-15 International Business Machines Corporation Displaying text of video in browsers on a frame by frame basis
US20040205116A1 (en) * 2001-08-09 2004-10-14 Greg Pulier Computer-based multimedia creation, management, and deployment platform
JP2003111078A (ja) * 2001-09-27 2003-04-11 Fujitsu Ltd コンテンツ符号化装置、コンテンツ復号化装置、コンテンツ配信装置、コンテンツ再生装置、コンテンツ配信システム、コンテンツ符号化方法、コンテンツ復号化方法、コンテンツ符号化プログラム、およびコンテンツ復号化プログラム
US7747655B2 (en) 2001-11-19 2010-06-29 Ricoh Co. Ltd. Printable representations for time-based media
US7861169B2 (en) 2001-11-19 2010-12-28 Ricoh Co. Ltd. Multimedia print driver dialog interfaces
EP1503299A1 (de) * 2003-07-31 2005-02-02 Alcatel Ein Verfahren, ein Hypermedia-Kommunikationssystem, ein Hypermedia-Server, ein Hypermedia-Client, und Computer Softwareprodukte für den Zugriff, die Verteilung und die Präsentation von Hypermedia-Dokumenten
US7511846B2 (en) 2003-09-25 2009-03-31 Ricoh Co., Ltd. Printer having embedded functionality for printing time-based media
US8077341B2 (en) 2003-09-25 2011-12-13 Ricoh Co., Ltd. Printer with audio or video receiver, recorder, and real-time content-based processing logic
US7528977B2 (en) 2003-09-25 2009-05-05 Ricoh Co., Ltd. Printer with hardware and software interfaces for peripheral devices
US7508535B2 (en) 2003-09-25 2009-03-24 Ricoh Co., Ltd. Stand alone multimedia printer with user interface for allocating processing
US7864352B2 (en) 2003-09-25 2011-01-04 Ricoh Co. Ltd. Printer with multimedia server
US7505163B2 (en) 2003-09-25 2009-03-17 Ricoh Co., Ltd. User interface for networked printer
US7528976B2 (en) 2003-09-25 2009-05-05 Ricoh Co., Ltd. Stand alone printer with hardware/software interfaces for sharing multimedia processing
US7573593B2 (en) 2003-09-25 2009-08-11 Ricoh Company, Ltd. Printer with hardware and software interfaces for media devices
US7570380B2 (en) 2003-09-25 2009-08-04 Ricoh Company, Ltd. Printer user interface
JP2005108230A (ja) 2003-09-25 2005-04-21 Ricoh Co Ltd オーディオ/ビデオコンテンツ認識・処理機能内蔵印刷システム
US7603615B2 (en) * 2004-03-30 2009-10-13 Ricoh Co., Ltd. Multimedia projector-printer
US8274666B2 (en) 2004-03-30 2012-09-25 Ricoh Co., Ltd. Projector/printer for displaying or printing of documents
US7551312B1 (en) 2005-03-17 2009-06-23 Ricoh Co., Ltd. Annotable document printer
CN111092712B (zh) * 2019-11-28 2022-04-05 中国航空工业集团公司西安航空计算技术研究所 一种时间触发以太网抢占式调度方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5586235A (en) * 1992-09-25 1996-12-17 Kauffman; Ivan J. Interactive multimedia system and method
US5515490A (en) * 1993-11-05 1996-05-07 Xerox Corporation Method and system for temporally formatting data presentation in time-dependent documents
US5642171A (en) * 1994-06-08 1997-06-24 Dell Usa, L.P. Method and apparatus for synchronizing audio and video data streams in a multimedia system
US5664227A (en) * 1994-10-14 1997-09-02 Carnegie Mellon University System and method for skimming digital audio/video data
US5717438A (en) * 1995-08-25 1998-02-10 International Business Machines Corporation Multimedia document using time box diagrams

Also Published As

Publication number Publication date
EP0825542A2 (de) 1998-02-25
JPH10145762A (ja) 1998-05-29
DE69731695D1 (de) 2004-12-30
FR2752638B1 (fr) 1998-10-02
EP0825542B1 (de) 2004-11-24
EP0825542A3 (de) 2000-05-17
JP4205187B2 (ja) 2009-01-07
FR2752638A1 (fr) 1998-02-27
US6141001A (en) 2000-10-31

Similar Documents

Publication Publication Date Title
DE69731695T2 (de) Verfahren um die Präsentation von statischen und dynamischen Komponenten eines interaktiven Multimediadokuments zu synchronisieren
DE4225872C2 (de) Verfahren zum Kennzeichnen und Identifizieren ausgewählter Gebiete in Bildern
DE69836790T2 (de) Suchen von Videobildern, Produktion von Videoinformationen und Speichermedium zur Speicherung eines Verarbeitungsprogramms dafür
DE69830013T2 (de) Programmerzeugung
DE69630579T2 (de) Personalisierung einer interaktiven unterhaltung
DE602005004983T2 (de) Verfahren zum Darstellen von Multimediaanzeigen
DE69815695T2 (de) Netzwerkübermittlung interaktiver unterhaltung zur ergänzung von audio-aufzeichnungen
DE60022610T2 (de) Verfahren zur Animationskodierung in einer Bilddatei
DE69629120T2 (de) Lesehilfe
DE3914541A1 (de) Vorbereitungssystem
DE4012910A1 (de) Verfahren und einrichtung zur uebertragung von rasterdatenbildern an ein graphisches wiedergabesystem
DE4028942A1 (de) Anordnung zum verarbeiten von teletext-informationen
DE4022384A1 (de) Anzeige zur vorausbestimmung eines graphikpfades
EP0469850A2 (de) Verfahren und Gerät zur Aufnahme, Aufbereitung und Wiedergabe von Darstellungen in einem Rechnersystem
DE10151648B4 (de) Verfahren und Vorrichtung zum Erfassen und Speichern von während einer computerbasierten Sitzung gemachten Notizen
DE19843702A1 (de) Editieren digitalisierter Audio/Videodaten über ein Netzwerk
EP3386207A1 (de) Verfahren zum betrieb eines datenverarbeitungssystems zur bereitstellung eines interaktiven videoinhalts
DE2525236A1 (de) Anordnung zum korrigieren eines zeitbasisfehlers eines videosignals
DE102005035216A1 (de) Playback-Vorrichtung zur Synchronisation eines Playback eines Video-Signalanteils und eines Audio-Signalanteils eines AV-Signals und Verfahren dafür
EP1184794B1 (de) Verfahren und Vorrichtung zur Erstellung aktivierbarer Objekte für Elemente einer Videosequenz
DE102013102992A1 (de) Szenenaufbausystem und - verfahren durch Szenenausschnitte sowie deren Aufzeichnungsmedien
DE19942647C2 (de) Verfahren und Vorrichtung zur automatischen Wiedergabe elektronischer Datensätze
DE202021104226U1 (de) Vorrichtung und System zur Wiedergabe von Bewegtbildern
EP1169854B1 (de) Verfahren und schaltungsanordnung zur bild-in-bild einblendung
DE4390098C2 (de) Flüssigkristallanzeigeeinrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition