DE102011107095A1 - Verfahren zur Synchronisierung von Audio- und Videoinhalten in verteilten Multimediasystemen mit mehreren Senken - Google Patents

Verfahren zur Synchronisierung von Audio- und Videoinhalten in verteilten Multimediasystemen mit mehreren Senken Download PDF

Info

Publication number
DE102011107095A1
DE102011107095A1 DE102011107095A DE102011107095A DE102011107095A1 DE 102011107095 A1 DE102011107095 A1 DE 102011107095A1 DE 102011107095 A DE102011107095 A DE 102011107095A DE 102011107095 A DE102011107095 A DE 102011107095A DE 102011107095 A1 DE102011107095 A1 DE 102011107095A1
Authority
DE
Germany
Prior art keywords
audio data
audio
sink
decoded
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102011107095A
Other languages
English (en)
Inventor
Thomas Müller
Thomas Eireiner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102011107095A priority Critical patent/DE102011107095A1/de
Publication of DE102011107095A1 publication Critical patent/DE102011107095A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/214Specialised server platform, e.g. server located in an airplane, hotel, hospital
    • H04N21/2146Specialised server platform, e.g. server located in an airplane, hotel, hospital located in mass transportation means, e.g. aircraft, train or bus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Die vorliegende Erfindung stellt ein Verfahren zur zeitlichen Synchronisierung von Audio- und Videoinhalten in einem Multimediasystem, das ein digitales Netzwerk (NW) mit einer Quelle (QDS) für Audio- und Videodaten (DS) und einer Mehrzahl von Senken (S1, S2) umfasst, die einen Dekoder (DC1, DC2) für die Audio- und Videodaten (DS) aufweisen, wobei jede Senke (S1, S2) zumindest eine Videosenke und zumindest eine Audiosenke umfasst bereit, sowie das Multimediasystem selbst. Das Verfahren umfasst die Schritte des Übertragens der Audio- und Videodaten (DS) von der Quelle (QDS) an die Senken (S1, S2), des Dekodierens der Audio- und Videodaten (DS) unter Berücksichtigung einer Lippensynchronität und des Zuführens der dekodierten Audiodaten (AS1, AS2) der Audiosenke jeder Senke (S1, S2). Ferner erfolgt das Zuführen der dekodierten Videodaten (VSuordnen einer Masterfunktion einer der Senken (S1, S2) und Bereitstellen der dekodierten Audiodaten (AS1) der Mastersenke (S1) als den Referenz-Audiodaten (R-AS) allen anderen Senken (S2). Weiter erfolgt das Ermitteln eines Zeitversatzes durch die anderen Senken (S2) zwischen den Referenz-Audiodaten (R-AS) und den eigenen dekodierten Audiodaten (AS2) und, das Korrigieren des Zeitversatzes der eigenen dekodierten Audiodaten (AS2) zu den Referenz-Audiodaten (R-AS) durch Minimieren des Zeitversatzes durch Steuern der Zuführung der eigenen dekodierten Audiodaten (AS2) der Audiosenke.

Description

  • Die Erfindung betrifft ein Verfahren zur zeitlichen Synchronisierung von Audio- und Videoinhalten in verteilten Multimediasystemen mit mehreren Senken.
  • Beim digitalen Fernsehrundfunk, auf DVDs, BlueRays sowie beim Video-Streaming in Netzwerken bzw. im Internet werden die Video- und Audioinhalte in so genannten Transportströmen bzw. Containerformaten zusammengefasst, beispielsweise MPEG2-TS bei DVB-T in Deutschland.
  • Eine Empfangs- bzw. Abspieleinrichtung dient dazu, sowohl die Audio- als auch die Videodaten zu dekodieren und zeitlich richtig – sprich lippensynchron – darzustellen bzw. abzuspielen. Unter Lippensynchronität wird dabei die Synchronität zwischen Bild und Ton verstanden, so dass Lippenbewegungen im Bild zu den Tonereignissen passen. Eine Asynchronität zwischen Bild und Ton ist etwa ab einem Bild-Ton-Versatz von etwa einem Bild und insbesondere dann störend, wenn der Ton dem Bild vorauseilt.
  • Das zu dekodierende Quellmaterial wird den Senken für gewöhnlich in einem sogenannten Transportstromformat bzw. Containerformat (z. B. MPEG2-Transportströme, MPEG2-TS) zur Verfügung gestellt. Diese zeichnen sich dadurch aus, dass sie Informationen (z. B. entsprechende Zeitstempel) zur Herstellung einer Lippensynchronität bei der Dekodierung enthalten. Solche Transportstromformate bzw. Containerformate eignen sich sehr gut dazu die Quelldaten über Netzwerke aller Art (Leitungsgebunden, Optisch, Funk) zu den Dekodiereinrichtungen zu übertragen.
  • Soll eine Darstellung von Audio- und Videodaten nun auf mehreren Senken gleichzeitig erfolgen, z. B. auf mehreren Displays im Fahrzeug oder bei gleichzeitiger Nutzung von Lautsprechern und Kopfhörern, so ist die Erwartungshaltung des Konsumenten, dass Audio- und Videoinhalte auf allen Senken synchron wiedergegeben werden. Die Einhaltung dieser Bedingung ist besonders schwierig, wenn die Senken über eigenständige Audiodekoder und Videodekoder verfügen, wobei jede Senke das zu dekodierende Quellmaterial über ein Netzwerk erhält und für die zeitlich richtige Dekodierung verantwortlich ist.
  • Versuche, die Dekoder durch Vorgabe von Zeitstempeln bzw. von Synchronisationssignalen, etwa mit Hilfe eines gemeinsamen Takts, erweisen sich in der Praxis als schwierig, besonders dann, wenn die einzelnen Dekoderimplementierungen nicht identisch sind.
  • Ausgehend von diesem Stand der Technik ist es Aufgabe der vorliegenden Erfindung, ein Verfahren bereitzustellen, das eine synchrone Darstellung von Audio- und Videoinhalten auf mehreren Senken in einem System mit verteilten Dekodiereinrichtungen gewährleistet und so die Lippensynchronität in verteilten Audio- und/oder Video-Systemen in einfacher Weise verbessert.
  • Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 gelöst. Weiterbildungen sind in den Unteransprüchen ausgeführt.
  • Die Aufgabe der Schaffung eines entsprechenden Multimediasystems, mit dem das Verfahren durchführbar ist, wird durch das Multimediasystem mit den Merkmalen des Anspruchs 6 gelöst.
  • Eine erste Ausführungsform des Verfahrens zur zeitlichen Synchronisierung von Audio- und Videoinhalten in einem Multimediasystem bezieht sich auf ein Multimediasystem aus einem digitalen Netzwerk mit einer Quelle für Audio- und Videodaten und mehreren Senken, die jeweils einen Dekoder für die Audio- und Videodaten aufweisen. Jede der Senken umfasst zumindest eine Videosenke und zumindest eine Audiosenke. Erfindungsgemäß umfasst das Verfahren das Übertragen der Audio- und Videodaten von der Quelle an die Senken über das digitale Netzwerk, woraufhin die Audio- und Videodaten durch den Dekoder jeder Senke unter Berücksichtigung der Lippensynchronität dekodiert werden, in jeder Senke werden dann jeweils die dekodierten Audiodaten der Audiosenke und die dekodierten Videodaten der Videosenke zugeführt. Dabei ist einer der Senkers eine Masterfunktion zugeordnet und die somit als Mastersenke agiert. Die Mastersenke stellt ihre dekodierten Audiodaten als Referenz-Audiodaten über das digitale Netzwerk allen anderen Senken zur Verfügung, die dann einen Zeitversatz zwischen den Referenz-Audiodaten und den eigenen dekodierten Audiodaten ermitteln. Dieser Zeitversatz der eigenen dekodierten Audiodaten zu den Referenz-Audiodaten wird durch Minimierung korrigiert, indem das Zuführen der eigenen dekodierten Audiodaten zu der jeweiligen Audiosenke entsprechend zeitlich gesteuert wird. Vorteilhaft wird hierbei für die Synchronisierung von Audio- und Videoinhalten lediglich die Bandbreite eines dekodierten Audiosignals benötigt, nicht jedoch die Bandbreite des dekodierten Videosignals.
  • Die Bereitstellung der Referenz-Audiodaten über das digitale Netzwerk erfolgt vorzugsweise über eine latenzarme Verbindung, so dass der zusätzlich bei einem solchen Netzwerk auftretende Zeitversatz nicht zu groß ist.
  • Andernfalls oder auch bei einer latenzarmen Verbindung kann die Verzögerung, die bei der Übertragung der dekodierten Audiodaten in dem digitalen Netzwerk auftritt und die bekannt ist, bei der Bereitstellung der Referenz-Audiodaten berücksichtigt werden.
  • Das Ermitteln des Zeitversatzes durch die anderen Senken kann dabei durch eine Korrelation zwischen den Referenz-Audiodaten und den eigenen dekodierten Audiodaten erfolgen.
  • Bei dem digitalen Netzwerk kann es sich beispielsweise um ein Ethernet, ein WLAN oder insbesondere um einen MOST-Bus handeln, der insbesondere der MOST-Bus eines Kraftfahrzeugs ist.
  • Ferner bezieht sich die Erfindung auf ein Multimediasystem, das ein digitales Netzwerk mit einer Quelle für Audio- und Videodaten und einer Mehrzahl von Senken umfasst, die einen Dekoder für die Audio- und Videodaten aufweisen, wobei jede Senke zumindest eine Videosenke und zumindest eine Audiosenke umfasst. Eine Senke des Multimediasystems ist als Mastersenke konfiguriert, während die Audiodaten, die von dem Dekoder der Mastersenke dekodiert wurden, als Referenz-Audiodaten über das digitale Netzwerk den anderen Senken zugeführt werden können. Die anderen Senken weisen eine Steuerungskomponente auf, in die die Referenz-Audiodaten und die eigenen dekodierten Audiodaten eingehen, und die zur Ermittlung und zur Korrektur eines Zeitversatzes zwischen den Referenz-Audiodaten und den eigenen dekodierten Audiodaten und zur Minimierung des Zeitversatzes durch Steuern der Zuführung der eigenen dekodierten Audiodaten konfiguriert ist.
  • So ist die synchrone Darstellung von Audio- und Videoinhalten in Systemen mit mehreren verteilten Audio- und Videosenken wie beispielsweise mit mehreren Displays in einem Kraftfahrzeug oder bei gleichzeitiger Nutzung von Lautsprechern und Kopfhörern möglich. Diese und weitere Vorteile werden durch die nachfolgende Beschreibung unter Bezug auf die begleitende Figur dargelegt.
  • Der Bezug auf die Figur in der Beschreibung dient der Unterstützung der Beschreibung und dem erleichterten Verständnis des Gegenstands. Die Figur ist lediglich eine schematische Darstellung einer Ausführungsform der Erfindung und skizziert die Systemarchitektur und die Datenströme in einem Multimediasystem mit mehreren verteilten Audio- und Videosenken.
  • Die Erfindung bezieht sich auf ein Verfahren zur zeitlichen Synchronisierung von Audio- und Videoinhalten in einem Multimediasystem. Ein solches ist schematisch in 1 dargestellt, welches ein digitales Netzwerk NW, beispielsweise ein MOST-Bus, mit einer Quelle QDS für Audio- und Videodaten DS und zwei Senken S1, S2 umfasst, die jeweils einen Dekoder DC1, DC2 für die Audio- und Videodaten DS aufweisen, wobei jede Senke S1, S2 zumindest eine Videosenke und zumindest eine Audiosenke umfasst, denen die dekodierten Videodaten VS1, VS2 und die dekodierten Audiodaten AS1, AS2 zugeführt werden.
  • So erhalten alle Senken S1, S2 des Multimediasystems die Audio- und Videodatenströme DS beispielsweise als MPEG2-TS von der Quelle QDS und dekodieren die Audio- und Videodaten DS unter Berücksichtigung der Lippensynchronität. Die dekodierten Audiodaten AS1, AS2 werden der entsprechenden Audiosenke, beispielsweise Lautsprecher und/oder Kopfhörer zugeführt, während die dekodierten Videodaten VS1, VS2 der entsprechenden Videosenke beispielsweise den Displays im Fahrzeug zugeführt werden.
  • Zusätzlich wird das dekodierte Audiosignal AS1 von Senke S1, die somit eine Masterfunktionalität darstellt, den anderen Senken, vorliegend der zweiten Senke S2 zur Verfügung gestellt. Dabei ist auf eine latenzarme Verbindung zu achten, es sei denn, dass die Verzögerungen der dekodierten Audiodaten AS1, AS2 im Gesamtsystem NW bekannt sind.
  • Senke 2 ermittelt den Zeitversatz zwischen den Referenz-Audiosignalen R-AS von Senke S1 und den eigenen dekodierten Audiodaten AS2. Dies kann z. B. durch Korrelation K der entsprechenden Audiodaten R-AS, AS2 erfolgen. Mit der Korrelation K wird die Verzögerung VS der dekodierten Audiodaten AS2 gesteuert, wobei der ermittelte Zeitversatz nun bei der Dekodierung der Audio-/Videosignale in Senke S2 in einer Weise berücksichtigt wird, dass der dann resultierende Zeitversatz der dekodierten Audiodaten AS2 zu den Referenz-Audiosignalen R-AS der Senke S1 minimiert wird. Ist dies erfolgt, sind die Audio- und Videodarstellungen auf Senke S2 synchron zu Senke S1. In einem Multimediasystem mit mehr als zwei Senken verläuft die Synchronisierung der weiteren Senken analog.
  • Die Verteilung der dekodierten Audiodaten der Mastersenke S1 an die Dekodiereinrichtungen DC2 der anderen Senken S2 erlaubt die Bestimmung und die Korrektur des auftretenden Zeitversatzes in den jeweiligen Senken S2, so dass die Darstellung der Audio- und Videoinhalten in Systemen mit mehreren Verteilten Audio- und Videosenken synchron erfolgt.
  • So kann insbesondere auch in Kraftfahrzeugen die lippensynchrone Darstellung auf mehreren Displays im Fahrzeug oder bei gleichzeitiger Nutzung von Lautsprechern und Kopfhörern unaufwändig gewährleistet werden.

Claims (7)

  1. Verfahren zur zeitlichen Synchronisierung von Audio- und Videoinhalten in einem Multimediasystem, das ein digitales Netzwerk (NW) mit einer Quelle (QDS) für Audio- und Videodaten (DS) und einer Mehrzahl von Senken (S1, S2) umfasst, die einen Dekoder (DC1, DC2) für die Audio- und Videodaten (DS) aufweisen, wobei jede Senke (S1, S2) zumindest eine Videosenke und zumindest eine Audiosenke umfasst, umfassend die Schritte: – Übertragen der Audio- und Videodaten (DS) von der Quelle (QDS) an die Senken (S1, S2), – Dekodieren der Audio- und Videodaten (DS) durch den Dekoder (DC1, DC2) jeder Senke (S1, S2) unter Berücksichtigung einer Lippensynchronität, – Zuführen der dekodierten Audiodaten (AS1, AS2) der Audiosenke jeder Senke (S1, S2) und Zuführen der dekodierten Videodaten (VS1, VS2) der Videosenke jeder Senke (S1, S2), – Zuordnen einer Masterfunktion einer der Senken (S1, S2) und Bereitstellen der dekodierten Audiodaten (AS1) der Mastersenke (S1) als den Referenz-Audiodaten (R-AS) allen anderen Senken (S2), – Ermitteln eines Zeitversatzes durch die anderen Senken (S2) zwischen den Referenz-Audiodaten (R-AS) und den eigenen dekodierten Audiodaten (AS2), – Korrigieren des Zeitversatzes der eigenen dekodierten Audiodaten (AS2) zu den Referenz-Audiodaten (R-AS) durch Minimieren des Zeitversatzes durch Steuern der Zuführung der eigenen dekodierten Audiodaten (AS2) der Audiosenke.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das digitale Netzwerk (NW) eine latenzarme Verbindung zum Bereitstellen der Referenz-Audiodaten (R-AS) bereitstellt.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das zusätzlich zum digitalen Netzwerk (NW) ein zweites digitales Datennetzwerk zur Bereitstellung der Referenz-Audiodaten (R-AS) genutzt wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass eine Verzögerung bei der Übertragung der dekodierten Audiodaten (AS1) in dem digitalen Netzwerk (NW) bekannt ist und bei der Bereitstellung der Referenz-Audiodaten (R-AS) berücksichtigt wird.
  5. Verfahren nach zumindest einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das Ermitteln des Zeitversatzes durch die anderen Senken (S2) durch eine Korrelation zwischen den Referenz-Audiodaten (R-AS) und den eigenen dekodierten Audiodaten (AS2) erfolgt.
  6. Verfahren nach zumindest einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das digitale Netzwerk (NW) ein MOST-Bus, insbesondere der eines Kraftfahrzeugs ist.
  7. Multimediasystem, umfassend ein digitales Netzwerk (NW) mit einer Quelle (QDS) für Audio- und Videodaten (DS) und einer Mehrzahl von Senken (S1, S2), die einen Dekoder (DC1, DC2) für die Audio- und Videodaten (DS) aufweisen, wobei jede Senke (S1, S2) zumindest eine Videosenke und zumindest eine Audiosenke umfasst, dadurch gekennzeichnet, dass eine Senke (S1) des Multimediasystems als Mastersenke konfiguriert ist und von dem Dekoder (DC1) der Mastersenke (S1) dekodierte Audiodaten (AS1) als Referenz-Audiodaten (R-AS) über das digitale Netzwerk (NW) den anderen Senken (S2) zuführbar sind, wobei die anderen Senken (S2) eine Steuerungskomponente, in die die Referenz-Audiodaten (R-AS) und die eigenen dekodierten Audiodaten (AS2) eingehen, wobei die Steuerungskomponente zur Ermittlung und zur Korrektur eines Zeitversatzes zwischen den Referenz-Audiodaten (R-AS) und den eigenen dekodierten Audiodaten (AS2) und zur Minimierung des Zeitversatzes durch Steuern der Zuführung der eigenen dekodierten Audiodaten (AS2) konfiguriert ist.
DE102011107095A 2011-07-12 2011-07-12 Verfahren zur Synchronisierung von Audio- und Videoinhalten in verteilten Multimediasystemen mit mehreren Senken Withdrawn DE102011107095A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011107095A DE102011107095A1 (de) 2011-07-12 2011-07-12 Verfahren zur Synchronisierung von Audio- und Videoinhalten in verteilten Multimediasystemen mit mehreren Senken

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011107095A DE102011107095A1 (de) 2011-07-12 2011-07-12 Verfahren zur Synchronisierung von Audio- und Videoinhalten in verteilten Multimediasystemen mit mehreren Senken

Publications (1)

Publication Number Publication Date
DE102011107095A1 true DE102011107095A1 (de) 2012-01-19

Family

ID=45403147

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011107095A Withdrawn DE102011107095A1 (de) 2011-07-12 2011-07-12 Verfahren zur Synchronisierung von Audio- und Videoinhalten in verteilten Multimediasystemen mit mehreren Senken

Country Status (1)

Country Link
DE (1) DE102011107095A1 (de)

Similar Documents

Publication Publication Date Title
DE60310514T2 (de) Verfahren und Vorrichtung zur Synchronisation der Wiedergabe von Audio- und/oder Video-Frames
DE69830752T2 (de) Verfahren und Anlage zur Aufnahme vielfachprotokoll-komprimierter Ton- und Videodaten
EP2572463A1 (de) Verfahren und vorrichtung zur synchronisierung von daten in einem fahrzeug
EP1792487B1 (de) Interaktives fernsehen mit zusatzinformationen und rückkanal über ein mobilfunkkommunikationssystem
EP2315429A1 (de) Verfahren, Vorrichtung und System zur selektiven Ausgabe von Multimediainhalten
DE69908164T2 (de) Ausrichten komprimierter Datenpakete auf nominierte Bezugspakete eines Transportbitstromes, mit Steuerung der Ausgangsbitrate der Datenkompression abhängig von der Rate der nominierten Bezugspakete
EP2127382B1 (de) Verfahren und system zum störungsfreien umschalten zwischen programmkanälen in einer videoumgebung
DE112011101955B4 (de) Videoanzeigevorrichtung
EP1067773B1 (de) Bild- und Tonwiedergabegerät und Verfahren für dessen Betrieb
DE102011107095A1 (de) Verfahren zur Synchronisierung von Audio- und Videoinhalten in verteilten Multimediasystemen mit mehreren Senken
DE10139069A1 (de) Verfahren und Anordnung zum regionalen Einblenden von Lokalprogrammen in einem DVB-Gleichwellennetz
DE10146036B4 (de) Verfahren zur Umwandlung eines Video-und /oder Audio-Datenstromes
DE112013001880T5 (de) Vorrichtung und Verfahren zum Verteilen digitaler Daten, Vorrichtung und Verfahren zur Wiedergabe digitaler Daten, synchronisiertes Wiedergabesystem, Programm und Aufzeichnungsmedium
DE102010011098A1 (de) Wiedergabevorrichtung mit automatischer Änderung der Wiedergabegeschwindigkeit
DE102008061712A1 (de) Verfahren und Vorrichtung zur Übertragung von Daten in einem Fahrzeug
DE10226030A1 (de) Verfahren zur Generierung eines Systemaktes einer Empfangseinrichtung und Empfangseinrichtung hierzu
DE19903266B4 (de) Lokales Netzwerk in einem Fahrzeug
WO2013117514A1 (de) Verfahren zum schnellen umschalten zwischen alternativen übertragungswegen
DE102016201680A1 (de) Verfahren und System zum synchronen Wiedergeben von Audiosignalen und Videosignalen
WO2009018791A1 (de) Verfahren und system zum reduzieren der umschaltlücke bei einem programmwechsel in einer digitalen videoumgebung
US20080129867A1 (en) Closed caption timecode
DE102011122590B4 (de) System und Verfahren zur Wiedergabe von ersten Wiedergabedaten und wenigstens zweiten Wiedergabedaten, Computerprogramm und Computerprogrammprodukt
EP2944090B1 (de) Datennetzwerk, verfahren sowie abspielgerät zur wiedergabe von audio- und videodaten in einem in-flight entertainment system
EP2161933A1 (de) Vorrichtung und Verfahren zum Bereitstellen von Audio- und/oder Videodaten für IP-TV
DE102008030420B3 (de) Vorrichtung zur Verarbeitung eines analogen Teletextsignals

Legal Events

Date Code Title Description
R163 Identified publications notified
R230 Request for early publication
R163 Identified publications notified

Effective date: 20120118

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20150203