WO2014108379A1 - Datennetzwerk, verfahren sowie abspielgerät zur wiedergabe von audio- und videodaten in einem in-flight entertainment system - Google Patents
Datennetzwerk, verfahren sowie abspielgerät zur wiedergabe von audio- und videodaten in einem in-flight entertainment system Download PDFInfo
- Publication number
- WO2014108379A1 WO2014108379A1 PCT/EP2014/050113 EP2014050113W WO2014108379A1 WO 2014108379 A1 WO2014108379 A1 WO 2014108379A1 EP 2014050113 W EP2014050113 W EP 2014050113W WO 2014108379 A1 WO2014108379 A1 WO 2014108379A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- data
- audio
- video data
- video
- decoder
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 31
- 230000005540 biological transmission Effects 0.000 claims description 35
- 230000003111 delayed effect Effects 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 238000013144 data compression Methods 0.000 claims description 7
- 230000006837 decompression Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 238000007726 management method Methods 0.000 claims description 2
- 239000000872 buffer Substances 0.000 description 15
- 230000005236 sound signal Effects 0.000 description 6
- 230000001360 synchronised effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000012464 large buffer Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/24—Systems for the transmission of television signals using pulse code modulation
- H04N7/52—Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
- H04N7/54—Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal the signals being synchronous
- H04N7/56—Synchronising systems therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/214—Specialised server platform, e.g. server located in an airplane, hotel, hospital
- H04N21/2146—Specialised server platform, e.g. server located in an airplane, hotel, hospital located in mass transportation means, e.g. aircraft, train or bus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
- H04N21/2353—Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/254—Management at additional data server, e.g. shopping server, rights management server
- H04N21/2541—Rights Management
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4405—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video stream decryption
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
- H04N21/4627—Rights management associated to the content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/835—Generation of protective data, e.g. certificates
Definitions
- the invention relates to a data network for reproducing audio and video data in an in-flight entertainment system having the features of the preamble of claim 1 and a corresponding method for reproducing audio and video data in an in-flight entertainment system having the features of the preamble of claim 8.
- the invention further relates to a player for reading audio and video data of a data carrier having the features of the preamble of claim 15.
- IFE systems In-flight entertainment systems (also known as “IFE systems”) provide passengers of aircraft with audio and video data for entertainment via electronic devices.
- video data is displayed at a certain number of frames per second, rendering the playback fluid to the human eye.
- the images must be displayed with a certain number of bits, so that enough image information is available to represent a sharp image.
- Audio is played back with a certain number of samples per second to create a pleasing sound experience for the human ear.
- they must be played synchronously.
- a possibly occurring temporal deviation of the reproduction of coherent pictures and noises may not exceed a certain limit.
- DRM systems digital rights management systems
- the IFE system must respond to the user's input as possible without significant delays, so that, for example, the operation or the menu is not perceived as unpleasant cumbersome.
- Runtime creates a delay between when the data is delivered to the system input and when the data is output to the system output. This delay is called latency.
- the latency in the same operation is not always the same because of different factors such as the variable bit rate of the video signal or the varying processor load. Deviations from the mean latency are referred to as run-time fluctuations, whereby the amount of run-time fluctuations can increase significantly in the case of several successive operations.
- the runtime variations reach a certain size, the data can not be provided at the required time or in the required order at the reproduction output of the system, so that the reproduction becomes erroneous.
- point-to-point systems where each data source is connected separately to the destination of the data, the so-called “data sink.” In this way, it may be entirely on a data network and eliminates a number of potential problems, however, point-to-point connections do not provide flexible data paths.
- US 2009/0073316 A1 discloses a point-to-point transmission of audio and video signals from a source to a sink.
- the source device polls the total latency of the video signal (sum of the latencies of the video transmission path devices) via an up line and transmits the total latency of the video signal to the devices of the audio transmission path via the audio transmission path.
- the difference between the total latency of the video signal and the audio latency is determined and the audio signal is delayed by this difference.
- the raw data is compressed with an appropriate data format to achieve the bandwidth needed for continuous data transmission. This process is done separately for audio and video data.
- the data containers are encrypted using the algorithm used by the respective DRM system. d) continuous data transmission
- the encrypted data is packaged in Ethernet-compatible data packets and sent over the network to the various playback devices (Data streaming). On the playback device, the data packets are unpacked again. e) Data decryption
- the data containers are decrypted according to the associated DRM decryption algorithm. f) Resolving the data containers
- the decrypted data is decompressed. h) synchronization
- the decompressed data is cached, with a synchronization method ensuring that the audio and video data is passed from the cache to the subsequent digital / analog data converter so that they are played back simultaneously after conversion. i) digital / analog data conversion
- the digitized data is converted into analog signals. j) playback
- the data is output by playback devices such as screens and speakers.
- a sequence number and a time stamp are added to the data packets by the transmission protocol of the network.
- the data is written to a buffer (buffer) and read out within a certain clock. This ensures that the data is available at a pre-determined time for follow-up operations. The greater the time intervals between the read-outs, the greater run-time fluctuations can be compensated. This procedure is described for example in the publication US 2011/0231566 AI. A change in the packet sequence caused by the compression or transmission of the data is also corrected in this way.
- time stamp measurable transmission time is used to dynamically adjust the output clocks along with a separately calculated delay for audio and video data.
- point-to-point connections Both the point-to-point connections and the network-based systems suffer from disadvantages.
- the data available on a device can only be transmitted to another device if both devices are connected via their own line.
- high-resolution video data also "HD" (high definition) video data is referred to as having a resolution of 720p or more.
- HD high definition
- the invention is thus based on the object to provide a data network for the reproduction of audio and video data in an in-flight entertainment system as well as corresponding method and a corresponding playback device, in which the above-mentioned problems are reduced.
- a data network in an in-flight entertainment system for reproducing audio and video data is proposed to solve the problem, which comprises a player for reading the audio and video data from a disk, a decoder and an amplifier, wherein in the playback - Device read audio data can be transmitted to the amplifier and read video data encrypted to the decoder can be transmitted, wherein the data network is adapted to reproduce the video data, which are carried out high-definition, in substantially synchronous with the audio data and to transmit both separately from each other to the decoder or the amplifier.
- a method for reproducing audio and video data in an in-flight entertainment system via a data network is furthermore proposed, wherein the video data comprises the steps of a) data compression
- step c) data playback run through and the audio data at least steps a), c), e), f) and g), wherein the audio and video data, at least in step c) are transmitted separately via the data network and the video data, which high-resolution are executed substantially in synchronization with the audio data.
- a playback device for reading audio and video data of a data carrier for an in-flight entertainment system wherein the audio data read in the playback device can be transmitted to an amplifier and the read-out video data can be transmitted encrypted to a decoder, wherein the audio data and the encrypted video data, which are high-resolution are leads, separated from the player to each other to the amplifier and / or the decoder can be transmitted.
- the audio and video data are also encoded separately or compressed.
- the running time of data in a system is predictable under certain conditions. Predictability is used to play audio and video in sync, without having to adaptively measure runtime or compensate for large buffers.
- the runtime of the entire system is so low despite data encryption and video coding that the real-time capability is maintained.
- the components of the system used to process audio and video data and the network architecture are preferably selected to perform the required operations in predetermined runtimes.
- the essential buffers are designed so that the delay caused by them is minimal. If two different components perform the same operation, they are designed so that the operation on both components has the same run time.
- the high-resolution video data preferably has a resolution of at least 720p. Further preferred are resolutions of at least 1080p. With 720p or 1080p vertical resolutions with 720 lines or 1080 lines are called. In the encryption and transmission of such video data, high data volumes occur, which, however, can be reproduced substantially synchronously by the data network or method according to the invention.
- Essentially synchronous in this context means that the latency between the reproduction of the audio and video data is below the perception threshold of the human observer.
- the audio and video data are reproduced at a latency of less than 0.5 second, preferably less than 0.3 second, more preferably less than 0.1 second.
- the components of the data network used to process the audio and video data are preferably usable so that the duration of their operations is preferably deterministic. If the required processing time of the components is known and, if necessary, constant, the individual components can be combined in such a way that synchronicity of the audio and video data can be achieved even without many intermediate buffers.
- the data reproduction of the audio or video data is delayed by a predetermined period of time, wherein the data reproduction is preferably delayed by a period corresponding to the difference in the durations of the audio and video data.
- the audio and video data take different amounts of time to transfer from the media to the output device.
- the faster data may be delayed by the known amount of time, thereby ensuring a substantially synchronous representation.
- the components used are preferably selected such that they each require the same transit time for the same operation.
- the delay of the audio data for synchronization with the video data is preferably carried out in the course of step e) or f).
- the running time of the audio data is usually shorter, since these are preferably not encrypted and decrypted.
- the video data for synchronization can also be delayed accordingly.
- the predetermined period of time then also corresponds to the difference in the durations of the audio and video data.
- the audio and video data are thus transmitted separately via the data network in step c), the continuous data transmission ("data streaming") .Furthermore, they not only pass through step c) but additionally also steps a), e That is, they are compressed separately, decompressed, processed from digital to analog signals, and ultimately played back together, so that the data network can be designed to be less complex played synchronously with the associated sound without both having to be output by the same player.
- the audio data are preferably generated with a maximum of 48 kHz and 16 bits. This means that a compression method is selected for the audio data that produces audio samples of no more than 48 kHz and 16 bits. This has the advantage that an encoding of the audio data is not prescribed according to the AACS, but the audio samples still have an adequate sound quality for use in the aircraft.
- the video data is preferably generated by an intra- and interframe coding.
- intraframe coding each frame is compressed, and intraframe-coded frames are referred to as "I-frames.”
- interframe coding consistent picture elements are combined in picture sequences.
- the so-called “predicted frames” are calculated from the preceding I frames, and the group of pictures to be transmitted is preferably composed such that they contain pictures for a predetermined period of time, for example one second, and only I frames
- the updating of the DRM system initialization vector preferably takes place as a function of the video coding, wherein the initialization vector is proportional to the I frames as well as proportionate depending on the following dependent frames as well as individual encryption packets In this way it can be ensured that a packet loss as well as the extent of the packet loss is detected and then the initialization vector of the encoder-decoder encryption without additional loss of data is synchronized again within a frame.
- updating the data for encryption depends on the type of image data being transmitted and not on the amount of data transferred.
- the contents to be protected are transmitted before and after encryption by the DRM system, preferably with the HDCP (High-bandwidth Digital Content Protection) encryption system and an HD I connection.
- the playback device periodically sends the HDCP standard "System Re- newability Message" (SRM) from the data carrier to the transmitting system components during continuous data transmission, thereby ensuring the security of data transmission from high-resolution, AACS-protected content from source to sink be ensured.
- SRM System Re- newability Message
- continuous data transmission means in the context of the present application in particular "streaming media", wherein exclusively audio / video signals, and possibly directly related control data, are transmitted continuously. Over the entire streaming media process there is advantageously a quasi-real-time transmission of the audio / video signals.
- Video and audio signals are advantageously transmitted compressed over a data network, wherein the video and audio signal is converted into a compressed signal by means of an encoder.
- the compressed video and audio signal is then advantageously transported via a connectionless or connection-oriented transport protocol in datagrams from the data source, the encoder, to one or more data sinks, the decoders, over a packet-oriented network.
- the datagrams are advantageously converted from the data sink, a decoder, back into uncompressed video and audio signals.
- a data network is advantageously a data communication system which advantageously enables the transmission of data between a plurality of independent, preferably equal and / or partner-oriented data stations, eg computers, with high transmission speed and quality.
- a data communication system is in particular a spatially distributed connection system for the technical support of the exchange of information between communication partners.
- Fig. 1 is a schematic representation of an inventive
- FIG. 1 shows a data network comprising a playback device 21, a decoder 22, a screen 23, an amplifier 24 and a loudspeaker 25.
- these components 32 are shown as rectangular, performed operations 31 are typed as rhombs and data 33 as ellipses.
- the data network is part of an in-flight entertainment system in which data of a data carrier 1 are read out in the playback device 21 and reproduced on two playback devices, here on the screen 23 and on the loudspeaker 25.
- the data network may include a variety of other decoders, amplifiers and playback devices, indicated here in dashed lines.
- From the data carrier 1 both video data la and audio data lb are read out.
- Deterministic means that the route of forwarding is predetermined and fixed, whereby the term is also predetermined and preferably constant.
- the video data la are processed within the player 21 by a video data compression 2 to a compressed video data signal 3.
- the data format may be, for example, H.264 or MPEG2.
- a video data encryption 4 in which the compressed video data la are encrypted by a cryptographic algorithm.
- the algorithm depends, for example, on the requirements of the DRM system used.
- the encrypted compressed video data Ia are sent to a decoder 22 via an Ethernet connection in a continuous video transmission 5.
- the data can also be sent simultaneously to a plurality of decoders 22.
- the process of continuous data transfer 5 is also referred to as “data streaming” or just “streaming”.
- continuous data transmission in the context of the present application means in particular “streaming media”, wherein exclusively audio / video signals, and optionally directly related control data, are transmitted continuously.
- the decoder 22 decrypts the encrypted video data signal 6.
- the video data decryption 7 is followed in the decoder 22nd then a video data decompression 8, in which the decrypted data are decompressed.
- Via an HDMI video data transmission 9 the signal is forwarded to the screen 23 by a digital / analog video data conversion 10, so that subsequently the video output 11 can be made for the user.
- the audio data lb arrive separately from the video data la from the data carrier 1 to the loudspeaker 25.
- an audio data compression 12 takes place within the playback device 21, in which the audio data 1b are compressed, for example, into the AAC or MP3 format.
- the compressed audio data signal 13 is transmitted unencrypted by the playback device 21 to an amplifier 24, wherein this transmission also takes place via an Ethernet connection in the "streaming" method, ie as a continuous audio data transmission 14, to the amplifier 24.
- the amplifier 24 converts the digital data in a digital / analog audio data conversion 15 into an analog audio signal 17.
- An audio delay function 16 implemented in software, for example, delays the signal by a predetermined amount of time.
- the delay 16 is not determined dynamically at runtime, but is due to the design of the components of the data network fixed, ie it is advantageous already set in the design stage of the data network.
- the delay 16 is therefore advantageously static and / or temporally uncontrolled or unregulated. This predetermined period of time corresponds to the difference in the durations of audio and video data 1a, 1b for a system without such a delay function.
- the running time of the video data la is greater than the running time of the audio data lb, since the video data la must be encrypted and decrypted.
- the time duration is thus dimensioned so that the audio and video data la, lb are reproduced at the same time, although the audio data lb could actually be played back faster.
- the audio and video data are advantageously already divided in the player 21 into separate data streams.
- the separate audio and video data are advantageously compressed separately (operations 2 and 12, respectively).
- the encoded audio and video data are in particular transmitted separately from the player 21 to the video decoder 22 and the amplifier 24 or
- a plurality of playback devices such as further screens 23 and further loudspeakers 25, to be switched on, and these can also receive the continuous audio and video data stream.
- the playback is synchronized not only at associated terminals (such as screen 23 and loudspeaker 25) but at all playback devices connected in the network.
- This synchronous reproduction on all terminals is particularly advantageous in aircraft, since different dene terminals are simultaneously noticeable and noticeable synchronization differences so particularly disturbing.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Computer Security & Cryptography (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Library & Information Science (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Datennetzwerk in einem In-flight Entertainment System zur Wiedergabe von Audio- und Videodaten (1b, 1a), welches ein Abspielgerät (21) zum Auslesen der Audio- und Videodaten (1b, 1a) von einem Datenträger (1), einen Decoder (22) und einen Verstärker (24) umfasst, wobei die in dem Abspielgerät (21) ausgelesenen Audiodaten (1b) an den Verstärker (24) übermittelbar sind und ausgelesene Videodaten (la) verschlüsselt an den Decoder (22) übermittelbar sind, wobei das Datennetzwerk dazu eingerichtet ist, die Videodaten (la), welche hochauflösend ausgeführt sind, im Wesentlichen synchron mit den Audiodaten (1b) wiederzugeben und beide getrennt voneinander an den Decoder (22) bzw. den Verstärker (24) zu übermitteln.
Description
Datennetzwerk, Verfahren sowie Abspielgerät zur Wiedergabe von Audio- und Videodaten in einem In-flight Entertainment System
Die Erfindung betrifft ein Datennetzwerk zur Wiedergabe von Audio- und Videodaten in einem In-flight Entertainment System mit den Merkmalen des Oberbegriffs von Anspruch 1 sowie ein entsprechendes Verfahren zur Wiedergabe von Audio- und Videodaten in einem In-flight Entertainment System mit den Merkmalen des Oberbegriffs von Anspruch 8. Die Erfindung betrifft weiterhin ein Abspielgerät zum Auslesen von Audio- und Videodaten eines Datenträgers mit den Merkmalen des Oberbegriffs von Anspruch 15.
Über In-flight Entertainment Systeme (auch „IFE Systeme" genannt) werden den Passagieren von Flugzeugen zur Unterhaltung über elektronische Geräte Audio- und Videodaten zur Verfügung gestellt .
Damit die Wiedergabe der Daten für den Betrachter als angenehm empfunden wird, werden Videodaten mit einer bestimmten Anzahl von Bildern pro Sekunde dargestellt, so dass die Wiedergabe für das menschliche Auge flüssig erscheint. Zudem müssen die Bilder mit einer bestimmten Anzahl an Bits dargestellt werden, damit genügend Bildinformationen vorhanden sind, ein scharfes Bild darzustellen.
Audiodaten werden mit einer bestimmten Anzahl an Sample pro Sekunde wiedergegeben, damit ein für das menschliche Ohr angenehmes Klangerlebnis entsteht.
Bei kombinierter Wiedergabe von Audio- und Videodaten müssen diese synchron wiedergegeben werden. Eine unter Umständen auftretende zeitliche Abweichung der Wiedergabe von zusammengehörenden Bildern und Geräuschen darf eine bestimmte Grenze nicht überschreiten .
Zudem ist es von hoher Bedeutung den urheberrechtlichen Schutz der wiedergegebenen Daten zu gewährleisten. Das bedeutet, dass Maßnahmen vorgesehen werden müssen, um unberechtigte Zugriffe zu verhindern. Für die Wiedergabe von Blu-rays sind dabei zwingend die Vorgaben des sogenannten Advanced Access Content System (AACS) Adopter Agreements zu beachten. Zur Kontrolle der Nutzung von digitalen Medien können sogenannte digitale Rechtemanagement Systeme (DRM Systeme) eingesetzt werden, die eine technische Sicherheitsmaßnahme darstellen, mit der dem Rechteinhaber von Informationsgütern die Möglichkeit gegeben wird, die Art der Nutzung ihres Eigentums durch Nutzer auf Basis einer zuvor getroffenen Nutzungsvereinbarung zu erzwingen.
Darüber hinaus muss das IFE System möglichst ohne signifikante Verzögerungen auf die Eingabe des Nutzers reagieren, so dass beispielsweise die Bedienung bzw. die Menüführung nicht als unangenehm schwerfällig empfunden wird.
Bei der Umsetzung dieser Anforderungen sind zwei wesentliche Punkte zu beachten: Grundsätzlich beansprucht jede Operation zur Datenverarbeitung eine gewisse Laufzeit. Durch die Laufzeit entsteht eine Verzögerung zwischen dem Zeitpunkt der Bereitstellung der Daten am Systemeingang und der Wiedergabe der Daten am Systemausgang. Diese Verzögerung wird als Latenz bezeichnet .
Jedoch, ist die Latenz bei derselben Operation aufgrund von unterschiedlichen Einflussfaktoren, wie beispielsweise der variablen Bitrate des Videosignals oder schwankender Prozessorauslastung, nicht immer gleich groß. Abweichungen von der mittleren Latenz werden als LaufZeitschwankungen bezeichnet, wobei sich der Betrag der LaufZeitschwankungen bei mehreren aufeinanderfolgenden Operationen deutlich vergrößern kann.
Wenn die LaufZeitschwankungen eine bestimmte Größe erreichen, können die Daten nicht zum benötigten Zeitpunkt oder in der benötigten Reihenfolge an dem Wiedergabeausgang des Systems bereitgestellt werden, so dass die Wiedergabe fehlerhaft wird.
Um diesem Problem der Latenz und der LaufzeitSchwankungen entgegenzuwirken, gibt es im Stand der Technik unterschiedliche Ansätze .
Eine Möglichkeit zur Reduzierung von Latenz und Laufzeit- Schwankungen ist das Verwenden von Punkt-zu-Punkt Systemen, bei denen jede Datenquelle separat mit dem Bestimmungsort der Daten, der sogenannten „Datensenke", verbunden ist. Zwar kann auf diese Weise gänzlich auf ein Datennetzwerk verzichtet und eine ganze Reihe von etwaigen Problemen ausgeschlossen werden, jedoch bieten Punkt-zu-Punkt Verbindungen keine flexiblen Datenpfade .
US 2009/0073316 AI offenbart eine Punkt-zu-Punkt Übertragung von Audio- und Videosignalen von einer Quelle zu einer Senke. Das Quellgerät fragt die totale Latenz des Videosignals (Summe der Latenzen der Geräte des Videoübertragungspfads) über eine Up-Leitung ab und überträgt die totale Latenz des Videosignals an die Geräte des Audioübertragungspfads über den Audioübertragungspfad. Mithilfe eines im Audiopfad angeordneten Con-
trollers wird die Differenz zwischen der totalen Latenz des Videosignals und der Audiolatenz bestimmt und das Audiosignal um diese Differenz verzögert. Durch die Abfrage der totalen Latenz des Videosignals über die Up-Leitung und die dynamische Steuerung bzw. Regelung der Audio-Verzögerungszeit in dem Controller wird eine unerwünschte zusätzliche Verzögerungszeit generiert .
Bei netzwerkbasierten Systemen, die zur Wiedergabe von Audio- und Videodaten an verschiedenen Wiedergabegeräten dienen, werden, nachdem die Daten beispielsweise aus einem Datenträger ausgelesen wurden, üblicherweise die folgenden Schritte nacheinander durchgeführt . a) Datenkompression
Die Rohdaten werden mit einem passenden Datenformat komprimiert, um die zur kontinuierlichen Datenübertragung benötigte Bandbreite zu erreichen. Dieser Vorgang erfolgt getrennt für Audio- und Videodaten. b) Erstellen von Datencontainern
Die komprimierten Audio- und Videodaten werden entsprechend des verwendeten Containerformats zusammen- gefasst . c) Datenverschlüsselung
Die Datencontainer werden mit dem vom jeweiligen DRM System eingesetzten Algorithmus verschlüsselt. d) kontinuierliche Datenübertragung
Die verschlüsselten Daten werden in Ethernet- kompatible Datenpakete verpackt und über das Netzwerk an die verschiedenen Wiedergabegeräte versandt
(Datenstreaming) . Am Wiedergabegerät werden die Datenpakete wieder entpackt . e) Datenentschlüsselung
Die Datencontainer werden gemäß dem zugehörigen DRM Entschlüsselungsalgorithmus entschlüsselt . f) Auflösen der Datencontainer
Die Datencontainer werden aufgelöst und die Audio- und Videodaten werden wieder getrennt behandelt . g) Datendekompression
Die entschlüsselten Daten werden dekomprimiert. h) Synchronisation
Die dekomprimierten Daten werden zwischengespeichert, wobei eine Synchronisationsmethode sicherstellt, dass die Audio- und Videodaten so aus dem Zwischenspeicher an den darauffolgenden digital/analogen Datenumwandler weitergegeben werden, dass sie nach der Umwandlung gleichzeitig wiedergegeben werden. i) digital/analoge Datenumwandlung
Die digitalisierten Daten werden in analoge Signale umgewandelt . j ) Wiedergabe
Die Daten werden durch Wiedergabegeräte, wie beispielsweise Bildschirme und Lautsprecher, ausgegeben.
Um die während des Verfahrens auftretenden Laufzeitschwankun- gen auszugleichen, wird den Datenpaketen durch das Übertragungsprotokoll des Metzwerks eine Sequenznummer und ein Zeit- stempel hinzugefügt. Die Daten werden in einen Zwischenspeicher (Puffer) geschrieben und innerhalb eines bestimmten Taktes ausgelesen. Auf diese Weise ist sichergestellt, dass die Daten zu einem vorherbestimmten Zeitpunkt für die Folgeoperationen zur Verfügung stehen. Je größer dabei die Zeitintervalle zwischen den Auslesevorgängen sind, desto größere Laufzeitschwankungen können ausgeglichen werden. Diese Vorgehensweise ist beispielsweise in der Druckschrift US 2011/0231566 AI beschrieben. Eine durch die Kompression oder Übertragung der Daten hervorgerufene Änderung der Paketfolge wird ebenfalls auf diese Weise korrigiert.
Zur Verringerung der Latenz ist es bekannt, die Arbeitsweise eines einzelnen oder von mehreren Puffern zu optimieren. Hierzu ist eine Reihe von Verfahren bekannt .
Aus der Druckschrift GB 2 417 866 Ά ist es bekannt, mehrere Puffer gleichzeitig zu verwenden. Dabei werden die Puffer in schneller Folge nacheinander verwendet. Wenn ein Puffer bei der Ansprache bereits Daten verarbeitet, wird der nächste freie Puffer angesteuert. Zusätzlich werden die Puffer der Reihe nach abgerufen. Hat der aufgerufene Puffer ein vollständiges Datenpaket gespeichert, wird dieses versendet. Wenn dies nicht der Fall ist, wird stattdessen ein leeres Datenpaket übermittelt. Nach der Übermittlung werden die Datenpakete erneut zwischengespeichert und entsprechend der zuvor beschriebenen Vorgehensweise sortiert .
Aus der Druckschrift WO 2011/031853 AI ist eine Methode bekannt, bei der die kontinuierliche Datenübertragung (das Da-
tenstreaming) mit der kleinstmöglichen Bitrate begonnen und später adaptiv verändert wird. Durch die geringere Datenmenge kann der Zeitraum zum Zwischenspeichern verkürzt werden. Im Verlauf der kontinuierlichen Datenübertragung wird die vom Netzwerk zur Verfügung gestellte Bandbreite gemessen und die Bitrate entsprechend erhöht. Gleichzeitig wird auch der Speicherplatz des Puffers auf sein Maximum erweitert. Im weiteren Verlauf kann bei einer Veränderung der zur Verfügung stehenden Bandbreite die Bitrate wieder angepasst werden.
Des Weiteren sind aus den Druckschriften US 2006/0230171 AI und US 2007/0011343 AI Methoden zur adaptiven Bildfrequenzanpassung bekannt, die die Latenz bei der Anwahl eines alternativen Kanals zur kontinuierlichen Datenübertragung verringern. Sobald ein neuer Kanal angewählt wird, verringert eine Initiationssequenz die übertragene Bildfrequenz und löscht den zum Ausgleich von LaufZeitschwankungen verwendeten Puffer. Der freie Zwischenspeicher beginnt sofort mit der Speicherung der Daten des neuen Kanals. Sobald der Puffer bis zu einem bestimmten Wert angefüllt ist, beginnt die Wiedergabe und die Bildfrequenz wird nach und nach bis zu dem gewünschten Maximum erhöht .
Zur Synchronisation ist es beispielsweise aus der Druckschrift CA 2676075 AI bekannt, mehrere Taktgeber und einen den Datenpaketen aufgeprägten ZeitStempel zu verwenden. Die über den Zeitstempel messbare Übertragungsdauer wird genutzt, um zusammen mit einer für Audio- und Videodaten getrennt berechneten Verzögerung die Ausgabetakte dynamisch anzupassen.
Aus der US 2008/0187282 AI ist ein System zum Synchronisieren des Abspielens von Audio und Video bekannt, wobei encodierte bzw. komprimierte Audio/Videodaten in einem einzigen, einheit-
liehen Audio-/Video-Paketdatenstrom von einer Datenquelle über ein Verteilungsnetzwerk an Audio/Video Abspielgeräte übertragen werden. Die Datenquelle stellt eine Master-Timing- Komponente des Systems dar. Der Decoder in einem Audio/Video Abspielgerät gibt die Audio/Videodaten so wieder, dass eine feste Verzögerung zwischen den Quelldaten und der Präsentation des Videos oder Audios aufrechterhalten wird, wobei eine Synchronisation zwischen sämtlichen Video- und Audio-Abspielgeräten unterhalb von 66 ms angestrebt wird.
Sowohl die Systeme mit Punkt -zu-Punkt Verbindungen als auch die netzwerkbasierten Systeme weisen Nachteile auf. Der Haupt - nachteil bei Punkt -zu-Punkt Verbindungen liegt in der sehr geringen Flexibilität der Datenverteilung. Die auf einem Gerät vorhandenen Daten können nur an ein anderes Gerät übermittelt werden, wenn beide Geräte über eine eigene Leitung miteinander verbunden sind .
Dabei entsteht durch die Menge der verwendeten Kabel ein hohes Gewicht, was insbesondere im Flugzeugbau ein erheblicher Nachteil ist.
Die als Alternative in Frage kommenden netzwerkbasierten Systeme mit Lösungen zum Ausgleich von LaufzeitSchwankungen und zur Synchronisation von Audio- und Videowiedergabe sind jedoch latenzbehaftet . Das bedeutet, dass sie die Datenlaufzeit und damit die Reaktionszeit des Systems auf Interaktionen verlängern. Dadurch wird die Bedienbarkeit des Systems beeinträchtigt.
Die bekannten Lösungen zur Herabsetzung der Latenz können diese Probleme insbesondere bei hochauflösenden Videodaten nicht befriedigend lösen. Als hochauflösende Videodaten, auch „HD"
(engl, high definition) Videodaten, werden solche bezeichnet, die eine Auflösung von 720p oder mehr aufweisen. Bei der gleichzeitigen Verwendung mehrerer Puffer tritt dabei das Problem auf, dass bei großen Datenpaketen eine lange Verarbei- tungs- und Übertragungszeit entstehen kann. Da die Daten nur in einer vorbestimmten Reihenfolge wiedergegeben werden können, müssen Pakete, die schneller übermittelt werden, nach der Übermittlung zwischengespeichert werden. Die Zeitersparnis ist aus diesem Grund gering.
Eine Verringerung der Bitrate führt zu einer schlechteren Bildqualität, da pro Bild weniger Informationen übertragen werden können. Die Verringerung der Bildfrequenz verschlechtert zudem die Wiedergabe von Bewegungen. Außerdem besteht die Gefahr, dass beim Unterschreiten einer Bildfrequenz von ca. 15 Bildern pro Sekunde die Wiedergabe ins Stocken gerät .
Der Erfindung liegt somit die Aufgabe zugrunde, ein Datennetzwerk zur Wiedergabe von Audio- und Videodaten in einem In- flight Entertainment System sowie entsprechendes Verfahren und ein entsprechendes Abspielgerät zu schaffen, bei dem die oben genannten Probleme reduziert sind.
Die Erfindung löst die Aufgabe mit den Merkmalen der unabhängigen Ansprüche .
Demnach wird zur Lösung der Aufgabe ein Datennetzwerk in einem In-flight Entertainment System zur Wiedergabe von Audio- und Videodaten vorgeschlagen, welches ein Abspielgerät zum Auslesen der Audio- und Videodaten von einem Datenträger, einen Decoder und einen Verstärker umfasst, wobei die in dem Abspiel- gerät ausgelesenen Audiodaten an den Verstärker übermittelbar sind und ausgelesene Videodaten verschlüsselt an den Decoder
übermittelbar sind, wobei das Datennetzwerk dazu eingerichtet ist, die Videodaten, welche hochauflösend ausgeführt sind, im Wesentlichen synchron mit den Audiodaten wiederzugeben und beide getrennt voneinander an den Decoder bzw. den Verstärker zu übermitteln.
Zur Lösung der Aufgabe wird weiterhin ein Verfahren zur Wiedergabe von Audio- und Videodaten in einem In-flight Entertainment System über ein Datennetzwerk vorgeschlagen, wobei die Videodaten die Schritte a) Datenkompression
b) Datenverschlüsselung
c) kontinuierliche Datenübertragung
d) Datenentschlüsselung
e) Datendekompression
f) digital/analoge Datenumwandlung und
g) Datenwiedergabe durchlaufen und die Audiodaten zumindest die Schritte a) , c) , e) , f) und g) durchlaufen, wobei die Audio- und Videodaten zumindest beim Schritt c) getrennt voneinander über das Datennetzwerk übermittelt werden und die Videodaten, welche hochauflösend ausgeführt sind, im Wesentlichen synchron mit den Audiodaten wiedergegeben werden.
Weiterhin wird zur Lösung der Aufgabe ein Abspielgerät zum Auslesen von Audio- und Videodaten eines Datenträgers für ein In-flight Entertainment System vorgeschlagen, wobei die in dem Abspielgerät ausgelesenen Audiodaten an einen Verstärker übermittelbar sind und die ausgelesenen Videodaten verschlüsselt an einen Decoder übermittelbar sind, wobei die Audiodaten und die verschlüsselten Videodaten, welche hochauflösend ausge-
führt sind, von dem Abspielgerät getrennt voneinander an den Verstärker und/oder den Decoder übermittelbar sind.
Durch die getrennte Übermittlung der Audio- und Videodaten wird auf die Verwendung von üblicherweise eingesetzten Datencontainern, die sowohl Audio- als auch Videodaten enthalten, verzichtet, wodurch das Datennetzwerk insgesamt deutlich einfacher gestaltet werden kann, da die Daten nicht aufwendig synchronisiert werden müssen. Die iedergabesynchronität der Audio- und Videodaten wird über die Vorhersagbarkeit der Datenlaufzeit und entsprechende Verzögerung des schnelleren Übertragungsweges hergestellt, wodurch auf bekannte latenzbehaftete Synchronisationsmethoden verzichtet werden kann.
Vorteilhaft werden die Audio- und Videodaten ebenfalls getrennt voneinander encodiert bzw. komprimiert.
Die Laufzeit von Daten in einem System ist unter bestimmten Bedingungen vorhersagbar. Die Vorhersagbarkeit wird dazu genutzt, Audio- und Videodaten synchron wiederzugeben, ohne die Laufzeit adaptiv messen oder aber Schwankungen mit groß dimensionierten Puffern ausgleichen zu müssen.
Durch die Optimierung der latenzbehafteten Synchronisation ist die Laufzeit des Gesamtsystems trotz Datenverschlüsselung und Videokodierung so gering, dass die Echtzeitfähigkeit erhalten bleibt .
Dementsprechend werden die Komponenten des Systems, die zum Verarbeiten von Audio- und Videodaten eingesetzt werden, und die Netzwerkarchitektur vorzugsweise so gewählt, dass die erforderlichen Operationen in vorherbestimmten Laufzeiten durchgeführt werden. Die unbedingt benötigten Puffer werden so ausgelegt, dass die dadurch verursachte Verzögerung minimal ist.
Führen zwei verschiedene Komponenten die gleiche Operation aus, sind sie so konstruiert, dass die Operation an beiden Komponenten die gleiche Laufzeit aufweist.
Die hochauflösenden Videodaten weisen vorzugweise eine Auflösung von mindestens 720p auf. Weiter bevorzugt sind Auflösungen von mindestens 1080p. Mit 720p bzw. 1080p werden Vertikalauflösungen mit 720 Zeilen bzw. 1080 Zeilen bezeichnet. Bei der Verschlüsselung und Übermittlung derartiger Videodaten treten hohe Datenvolumen auf, die jedoch durch das erfindungs- gemäße Datennetzwerk bzw. Verfahren im Wesentlichen synchron wiedergegeben werden können.
Im Wesentlichen synchron bedeutet in diesem Zusammenhang, dass die Latenz zwischen der Wiedergabe der Audio- und Videodaten unter der Wahrnehmungsschwelle des menschlichen Betrachters liegt. Vorzugsweise werden die Audio- und Videodaten mit einer Latenz von weniger als 0,5 Sekunden, bevorzugt weniger als 0,3 Sekunden, weiter bevorzugt weniger als 0,1 Sekunden wiedergegeben .
Dementsprechend sind die Komponenten des Datennetzwerks, die zum Verarbeiten der Audio- und Videodaten eingesetzt werden, vorzugsweise so verwendbar, dass die Zeitdauer ihrer Operationen vorzugsweise deterministisch ist. Wenn die benötigte Bearbeitungszeit der Komponenten bekannt und ggf. konstant ist, können die einzelnen Komponenten so zusammengestellt werden, dass auch ohne viele Zwischenpuffer eine Synchronitat der Audio- und Videodaten erreicht werden kann. Dazu ist die Datenwiedergabe der Audio- oder der Videodaten um eine vorbestimmte Zeitdauer verzögert, wobei die Datenwiedergabe vorzugsweise um eine Zeitdauer verzögert ist, die dem Differenzbetrag der Laufzeiten der Audio- und Videodaten entspricht.
Je nach ausgewählten Komponenten des Netzwerks brauchen die Audio- und Videodaten unterschiedlich lange, um vom Datenträger zum Ausgabegerät übertragen zu werden. Wenn diese Zeitdauer ermittelt ist, können die schnelleren Daten um die bekannte Zeitdauer verzögert werden, wodurch eine im Wesentlichen synchrone Darstellung gewährleistet werden kann. Um die Zeitdauer möglichst einfach bestimmen zu können, sind die eingesetzten Komponenten vorzugsweise so ausgewählt, dass sie jeweils die gleiche Laufzeit für die gleiche Operation benötigen.
Die Verzögerung der Audiodaten zur Synchronisation mit den Videodaten erfolgt vorzugsweise im Zuge des Schrittes e) oder f ) . Die Laufzeit der Audiodaten ist in der Regel kürzer, da diese bevorzugt nicht verschlüsselt und entschlüsselt werden.
Sollte aus einem Grund die Laufzeit der Audiodaten länger als die der Videodaten sein, können auch die Videodaten zur Synchronisation entsprechend verzögert werden. Die vorbestimmte Zeitdauer entspricht dann ebenfalls dem Differenzbetrag der Laufzeiten der Audio- und Videodaten.
Erfindungsgemäß werden die Audio- und Videodaten somit beim Schritt c) , der kontinuierlichen Datenübertragung (dem „Datenstreaming") , getrennt voneinander über das Datennetzwerk übermittelt. Weiter bevorzugt durchlaufen sie nicht nur den Schritt c) , sondern zusätzlich auch die Schritte a) , e) und f) getrennt voneinander. Das bedeutet, sie werden getrennt voneinander komprimiert, dekomprimiert, von digitalen zu analogen Signalen verarbeitet und letztlich zusammen wiedergegeben, so dass das Datennetzwerk weniger komplex ausgelegt werden kann. „Zusammen wiedergegeben" bedeutet dabei, dass die Bilder gleichzeitig mit dem zugehörigen Ton synchron wiedergegeben
werden, ohne dass beide durch dasselbe Wiedergabegerät ausgegeben werden müssen.
Im Schritt a) werden die Audiodaten vorzugsweise mit maximal 48 kHz und 16 Bits erzeugt. Das bedeutet, dass eine Kompressionsmethode für die Audiodaten gewählt wird, die Audiosamples mit nicht mehr als 48 kHz und 16 Bits erzeugt. Dieses hat den Vorteil, dass eine Verschlüsselung der Audiodaten nicht gemäß des AACS vorgeschrieben ist, die Audiosamples jedoch trotzdem eine für den Einsatz im Flugzeug ausreichende Klangqualität aufweisen .
Im Schritt a) werden die Videodaten vorzugsweise durch eine Intra- und Interframe Kodierung erzeugt. Bei der Intraframe Kodierung wird jedes Einzelbild („Frame") komprimiert. Derartig intraframekodierte Einzelbilder werden als „I-Frames" bezeichnet. Im Gegensatz dazu werden bei der Interframe Kodierung gleichbleibende Bildelemente in Bildfolgen zusammenge- fasst. Die sog. „Predicted-Frames" (P-Frames) werden aus den vorhergehenden I-Frames errechnet. Die zu übertragende Bildgruppe wird vorzugsweise derart zusammengestellt, dass sie Bilder für einen vorbestimmten Zeitraum, beispielsweise eine Sekunde, enthalten und nur aus I-Frames und P-Frames gebildet werden. Zusätzlich erfolgt die Aktualisierung des Initialisierungsvektors der Verschlüsselung des DRM-Systems bevorzugt in Abhängigkeit von der Videocodierung, wobei der Initialisierungsvektor anteilig in Abhängigkeit der I-Frames als auch anteilig in Abhängigkeit der folgenden abhängigen Frames sowie in Abhängigkeit einzelner Verschlüsselungspakete generiert wird. Auf diese Weise kann sichergestellt werden, dass ein Paketverlust sowie das Ausmaß des Paketverlusts detektiert wird und dann der Initialisierungsvektor der Verschlüsselung zwischen Encoder und Decoder ohne zusätzlichen Verlust von Daten
innerhalb eines Frames wieder synchronisiert ist. Dadurch ist die Aktualisierung der Daten für die Verschlüsselung von der Art der übertragenen Bilddaten und nicht von der übertragenen Datenmenge abhängig.
Die zu schützenden Inhalte werden vor und nach der Verschlüsselung durch das DRM-System vorzugsweise mit dem HDCP (High- bandwidth Digital Content Protection) Verschlüsselungssystem und einer HD I -Verbindung übertragen. Das Wiedergabegerät sendet während der kontinuierlichen Datenübertragung in regelmäßigen Abständen die HDCP-Standard vorgeschriebenen „System Re- newability Message" (SRM) vom Datenträger an die übertragenden Systemkomponenten. Dadurch kann die Sicherheit der Datenübertragung von hochauflösenden, AACS geschützten Inhalten von der Quelle bis zur Senke sichergestellt werden.
Der Begriff „kontinuierliche Datenübertragung" bedeutet im Rahmen der vorliegenden Anmeldung insbesondere „Streaming Media", wobei ausschließlich Audio/Video- Signale , und gegebenenfalls damit unmittelbar zusammenhängende Steuerdaten, kontinuierlich übertragen werden. Über den gesamten Streaming Media- Vorgang findet vorteilhaft eine Quasi-Echtzeitübertragung der Audio/Video- Signale statt. Video- und Audiosignale werden vorteilhaft komprimiert über ein Datennetzwerk übertragen, wobei mittels eines Encoders das Video- und Audiosignal in ein komprimiertes Signal umgewandelt wird. Das komprimierte Video- und Audiosignal wird daraufhin vorteilhaft über ein verbindungsloses oder verbindungsorientiertes Transportprotokoll in Datagrammen von der Datenquelle, dem Encoder, zu einer oder mehreren Datensenken, den Decodern, über ein paketorientiertes Netzwerk transportiert. Die Datagramme werden vorteilhaft von der Datensenke, einem Decoder, wieder in unkomprimierte Video- und Audiosignale umgewandelt .
Ein Datennetzwerk ist im Rahmen der vorliegenden Anmeldung vorteilhaft ein Datenkommunikationssystem, das die Übertragung von Daten zwischen mehreren unabhängigen, vorzugsweise gleichberechtigten und/oder partnerschaftlich orientierten Datenstationen, z.B. Computern, vorteilhaft mit hoher Übertragungsgeschwindigkeit und Güte ermöglicht. Ein Datenkommunikationssystem ist dabei insbesondere ein räumlich verteiltes Verbindungssystem zur technischen Unterstützung des Austauschs von Information zwischen Kommunikationspartnern.
Die Erfindung wird im Folgenden anhand bevorzugter Ausführungsformen unter Bezugnahme auf die beigefügte Figur erläutert. Dabei zeigt:
Fig. 1 eine schematische Darstellung eines erfindungsgemäßen
Datennetzwerkes .
In der Fig. 1 ist ein Datennetzwerk dargestellt, welches ein Abspielgerät 21, einen Decoder 22, einen Bildschirm 23, einen Verstärker 24 und einen Lautsprecher 25 umfasst. Zur Verdeutlichung sind diese Komponenten 32 rechteckig dargestellt, durchgeführte Operationen 31 werden als Raute und Daten 33 als Ellipse typisiert.
Das Datennetzwerk ist Teil eines In-flight Entertainment Systems, bei dem Daten eines Datenträgers 1 in dem Abspielgerät 21 ausgelesen und an zwei Wiedergabegeräten, hier am Bildschirm 23 und am Lautsprecher 25, wiedergegeben werden. Das Datennetzwerk kann jedoch eine Vielzahl weiterer, hier in gestrichelter Form angedeutete Decoder, Verstärker und Wiedergabegeräte umfassen.
Aus dem Datenträger 1 werden sowohl Videodaten la als auch Audiodaten lb ausgelesen. Nachdem die Audio- und Videodaten la, lb ausgelesen sind, werden sie auf getrenntem, insbesondere deterministischem Wege zum jeweiligen Ausgabegerät, dem Bildschirm 23 und dem Lautsprecher 25, weitergeleitet. Deterministisch bedeutet dabei, dass der Weg der Weiterleitung vorbestimmt und festgelegt ist, wodurch auch die Laufzeit vorbestimmt und vorzugsweise konstant ist.
Die Videodaten la werden innerhalb des Abspielgerätes 21 durch eine Videodatenkompression 2 zu einem komprimierten Videodatensignal 3 verarbeitet. Das Datenformat kann beispielsweise ein H.264 oder MPEG2 sein. Anschließend erfolgt im Abspielgerät 21 eine Videodatenverschlüsselung 4, bei der die komprimierten Videodaten la durch einen kryptographischen Algorithmus verschlüsselt werden. Der Algorithmus richtet sich beispielsweise nach den Anforderungen des eingesetzten DRM-Sys- tems .
Anschließend werden die verschlüsselten, komprimierten Videodaten la über eine Ethernetverbindung in einer kontinuierlichen Videoübertragung 5 an einen Decoder 22 gesendet. Die Daten können jedoch bei Bedarf auch gleichzeitig an mehrere Decoder 22 gesendet werden. Der Vorgang der kontinuierlichen Datenübertragung 5 wird auch als „Datenstreaming" oder nur „Streaming" bezeichnet. Wie erwähnt bedeutet der Begriff „kontinuierliche Datenübertragung" im Rahmen der vorliegenden Anmeldung insbesondere „Streaming Media", wobei ausschließlich Audio/Video-Signale, und gegebenenfalls damit unmittelbar zusammenhängende Steuerdaten, kontinuierlich übertragen werden.
Der Decoder 22 entschlüsselt das verschlüsselte Videodatensignal 6. An die Videodatenentschlüsselung 7 folgt im Decoder 22
anschließend eine Videodatendekompression 8, bei der die entschlüsselten Daten dekomprimiert werden. Über eine HDMI- Videodatenübertragung 9 wird das Signal zu dem Bildschirm 23 weitergeleitet, indem eine digital/analoge Videodatenumwandlung 10 erfolgt, so dass anschließend die Videoausgabe 11 für den Nutzer erfolgen kann.
Die Audiodaten lb gelangen getrennt von den Videodaten la vom Datenträger 1 zum Lautsprecher 25. Nach dem Auslesen der Audiodaten lb erfolgt innerhalb des Abspielgerätes 21 eine Audiodatenkompression 12, bei der die Audiodaten lb beispielsweise in das AAC oder MP3 Format komprimiert werden. Das komprimierte Audiodatensignal 13 wird unverschlüsselt vom Abspiel- gerät 21 zu einem Verstärker 24 gesendet, wobei diese Übertragung ebenfalls über eine Ethernetverbindung im „Streaming" Verfahren, also als kontinuierliche Audiodatenübertragung 14, an den Verstärker 24 erfolgt.
Der Verstärker 24 wandelt die Digitaldaten in einer digital/analogen Audiodatenumwandlung 15 in ein analoges Audiosignal 17 um.
Bevor das analoge Audiodatensignal 17 zur Ausgabe an den Lautsprecher 25 gesendet wird, erfolgt eine Verzögerung der Audiodaten lb innerhalb des Verstärkers. Eine Funktion zur Audioverzögerung 16, die beispielsweise in Software implementiert ist, verzögert das Signal um eine vorbestimmte Zeitdauer. Die Verzögerung 16 wird dabei nicht dynamisch zur Laufzeit ermittelt, sondern liegt aufgrund des Designs der Komponenten des Datennetzwerks fest, d.h. sie wird vorteilhaft bereits im Designstadium des Datennetzwerks festgelegt. Die Verzögerung 16 ist demnach vorteilhaft statisch und/oder zeitlich ungesteuert bzw. ungeregelt.
Diese vorbestimmte Zeitdauer entspricht dem Differenzbetrag der Laufzeiten von Audio- und Videodaten la, lb für ein System ohne eine solche Verzögerungsfunktion. In der Regel ist die Laufzeit der Videodaten la größer als die Laufzeit der Audiodaten lb, da die Videodaten la ver- und entschlüsselt werden müssen. Die Zeitdauer ist also so bemessen, dass die Audio- und Videodaten la, lb zeitgleich wiedergegeben werden, obwohl die Audiodaten lb eigentlich schneller wiedergegeben werden könnten.
Nach dem zuvor Gesagten werden die Audio- und Videodaten vorteilhaft bereits in dem Abspielgerät 21 in getrennte Datenströme aufgeteilt. Die getrennten Audio- und Videodaten werden vorteilhaft getrennt voneinander komprimiert (Operationen 2 bzw. 12) . Die encodierten Audio- und Videodaten werden insbesondere getrennt voneinander von dem Anspielgerät 21 an den Video-Decoder 22 bzw. den Verstärker 24 übermittelt bzw.
gestreamt .
Durch ein erfindungsgemäßes Datennetzwerk ist es möglich, dass mehrere Wiedergabegeräte, wie beispielsweise weitere Bildschirme 23 und weitere Lautsprecher 25, zugeschaltet werden können, und diese auch den kontinuierlichen Audio- und Videodatenstrom empfangen können.
Wenn vor den Wiedergabegeräten baugleiche Decoder 22 und Verstärker 24 vorgesehen werden, ist die Wiedergabe nicht nur an zusammengehörenden Endgeräten (wie Bildschirm 23 und Lautsprecher 25) , sondern an allen im Netzwerk angeschlossen Wiedergabegeräten synchron. Diese synchrone Wiedergabe auf allen Endgeräten ist insbesondere im Flugzeug vorteilhaft, da verschie-
dene Endgeräte gleichzeitig wahrnehmbar sind und Synchronisationsunterschiede so besonders störend auffallen.
Bezugszeichenliste :
1 Datenträger
la Videodaten
lb Audiodaten
2 Videodatenkompression
3 komprimiertes Videodatensignal
4 Videodatenverschlüsselung
5 kontinuierliche Videodatenübertragung (Streaming)
6 verschlüsseltes Videodatensignal
7 Videodatenentschlüsselung
8 Videodatendekompression
9 HDMI-Videodatenübertragung
10 digital/analoge Videodatenumwandlung
11 Videoausgabe
12 Audiodatenkompression
13 komprimiertes Audiodatensignal
14 kontinuierliche Audiodatenübertragung (Streaming)
15 digital/analoge Audiodatenumwandlung
16 Audiodatenverzögerung
17 analoges Audiodatensignal
18 Audioausgabe
21 Abspielgerät
22 Decoder
23 Bildschirm
24 Verstärker
25 Lautsprecher
31 Operation
32 Komponente
33 Daten
Claims
1. Datennetzwerk in einem In-flight Entertainment System zur Wiedergabe von Audio- und Videodaten (lb, la) , welches ein Abspielgerät (21) zum Auslesen der Audio- und Videodaten
(lb, la) von einem Datenträger (1), einen Decoder (22) und einen Verstärker (24) umfasst, wobei die in dem Abspielgerät (21) ausgelesenen Audiodaten (lb) an den Verstärker
(24) übermittelbar sind und ausgelesene Videodaten (la) verschlüsselt an den Decoder (22) übermittelbar sind, dadurch gekennzeichnet, dass das Datennetzwerk dazu eingerichtet ist, die Videodaten (la) , welche hochauflösend ausgeführt sind, im Wesentlichen synchron mit den Audiodaten (lb) wiederzugeben und beide getrennt voneinander an den Decoder (22) bzw. den Verstärker (24) zu übermitteln.
2. Datennetzwerk nach Anspruch 1, dadurch gekennzeichnet,
dass die hochauflösenden Videodaten (la) eine Auflösung von mindestens 720p aufweisen.
3. Datennetzwerk nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Audio- und Videodaten (lb, la) mit einer Latenz von weniger als 0,5 Sekunden zueinander wiedergegeben werden .
4. Datennetzwerk nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das Datennetzwerk ein digitales Rechtemanagement System (DRM System) umfasst .
5. Datennetzwerk nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Komponenten des Datennetzwerks, die zum Verarbeiten der Audio- und Videodaten
(lb, la) eingesetzt werden, so verwendbar sind, dass die Zeitdauer ihrer Operationen deterministisch ist.
6. Datennetzwerk nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Datenwiedergabe der Audio- oder der Videodaten (lb, la) an einem Ausgabegerät um eine vorbestimmte Zeitdauer verzögert ist.
7. Datennetzwerk nach Anspruch 6, dadurch gekennzeichnet,
dass die Datenwiedergabe um eine Zeitdauer verzögert ist, die dem Differenzbetrag der Laufzeit der Audio- und Video- daten (lb, la) entspricht.
8. Verfahren zur Wiedergabe von Audio- und Videodaten (lb, la) in einem In-flight Entertainment System über ein Datennetzwerk, wobei die Videodaten (la) die Schritte a) Datenkompression
b) Datenverschlüsselung
c) kontinuierliche Datenübertragung
d) Datenentschlüsselung
e) Datendekompression
f) digital/analoge Datenumwandlung und
g) Datenwiedergabe durchlaufen und die Audiodaten (lb) zumindest die Schritte a) , c) , e) , f ) und g) durchlaufen, wobei das Verfahren dadurch gekennzeichnet ist, dass die Audio- und Videodaten (lb, la) zumindest beim Schritt c) getrennt voneinander über das Datennetzwerk übermittelt werden und die Videodaten (la) , welche hochauflösend ausgeführt sind, im Wesentlichen synchron mit den Audiodaten (lb) wiedergegeben werden.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Audio- und Videodaten (lb, la) die Schritte a) , c) e) und f) getrennt voneinander durchlaufen.
10. Verfahren nach einem der Ansprüche 8 oder 9, dadurch gekennzeichnet, dass die Komponenten des Datennetzwerks, di zum Verarbeiten der Audio- und Videodaten (lb, la) eingesetzt werden, ihre Operationen in vorherbestimmten Laufzeiten durchführen.
11. Verfahren nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass im Zuge des Schrittes e) oder f) die Audiodaten (lb) zur Synchronisation mit den Videodaten (la) um eine vorbestimmte Zeitdauer verzögert werden.
12. Verfahren nach einem der Ansprüche 8 bis 11, dadurch gekennzeichnet, dass im Schritt a) Audiodaten (lb) mit maxi mal 48 kHz und 16 Bits erzeugt werden.
13. Verfahren nach einem der Ansprüche 8 bis 12, dadurch gekennzeichnet, dass im Schritt a) Videodaten (la) durch ei ne Intra- und Interframe Kodierung erzeugt werden.
14. Verfahren nach einem der Ansprüche 8 bis 13, dadurch gekennzeichnet, dass die Audio- und Videodaten (lb, la) in einem Abspielgerät (21) voneinander getrennt und anschlie ßend auch getrennt voneinander an einen Verstärker (24) und/oder einen Decoder (22) übermittelt werden.
15. Abspielgerät (21) zum Auslesen von Audio- und Videodaten (lb, la) eines Datenträgers (1) für ein In-flight Entertainment System, wobei die in dem Abspielgerät (21) ausge
lesenen Audiodaten (lb) an einen Verstärker (24) übermittelbar sind und ausgelesene Videodaten (la) verschlüsselt an einen Decoder (22) übermittelbar sind, dadurch gekennzeichnet, dass die Audiodaten (lb) und die verschlüsselten Videodaten (la) , welche hochauflösend ausgeführt sind, von dem Abspielgerät (21) getrennt voneinander an den Verstärker (24) und/oder den Decoder (22) übermittelbar sind.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14701296.7A EP2944090B1 (de) | 2013-01-09 | 2014-01-07 | Datennetzwerk, verfahren sowie abspielgerät zur wiedergabe von audio- und videodaten in einem in-flight entertainment system |
US14/760,156 US20150358647A1 (en) | 2013-01-09 | 2014-01-07 | Data Network, Method and Playback Device for Playing Back Audio and Video Data in an In-Flight Entertainment System |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013200171.1 | 2013-01-09 | ||
DE102013200171.1A DE102013200171A1 (de) | 2013-01-09 | 2013-01-09 | Datennetzwerk, Verfahren sowie Abspielgerät zur Wiedergabe von Audio- und Videodaten in einem In-flight Entertainment System |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2014108379A1 true WO2014108379A1 (de) | 2014-07-17 |
Family
ID=50002684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2014/050113 WO2014108379A1 (de) | 2013-01-09 | 2014-01-07 | Datennetzwerk, verfahren sowie abspielgerät zur wiedergabe von audio- und videodaten in einem in-flight entertainment system |
Country Status (4)
Country | Link |
---|---|
US (1) | US20150358647A1 (de) |
EP (1) | EP2944090B1 (de) |
DE (1) | DE102013200171A1 (de) |
WO (1) | WO2014108379A1 (de) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5570372A (en) * | 1995-11-08 | 1996-10-29 | Siemens Rolm Communications Inc. | Multimedia communications with system-dependent adaptive delays |
GB2417866A (en) | 2004-09-03 | 2006-03-08 | Sony Uk Ltd | Transmission of streaming audio data channels with low latency buffering |
US20060230171A1 (en) | 2005-04-12 | 2006-10-12 | Dacosta Behram M | Methods and apparatus for decreasing latency in A/V streaming systems |
US20060290810A1 (en) * | 2005-06-22 | 2006-12-28 | Sony Computer Entertainment Inc. | Delay matching in audio/video systems |
US20070011343A1 (en) | 2005-06-28 | 2007-01-11 | Microsoft Corporation | Reducing startup latencies in IP-based A/V stream distribution |
US20080187282A1 (en) | 2007-02-05 | 2008-08-07 | Thales Avionics, Inc. | System and method for synchronizing playback of audio and video |
US20090073316A1 (en) | 2005-04-28 | 2009-03-19 | Naoki Ejima | Lip-sync correcting device and lip-sync correcting method |
WO2011031853A1 (en) | 2009-09-09 | 2011-03-17 | Netflix, Inc. | Accelerated playback of streaming media |
US20110231566A1 (en) | 2010-03-16 | 2011-09-22 | Harman International Industries, Incorporated | Memory management unit |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5539660A (en) * | 1993-09-23 | 1996-07-23 | Philips Electronics North America Corporation | Multi-channel common-pool distributed data storage and retrieval system |
US7002994B1 (en) * | 2001-03-27 | 2006-02-21 | Rockwell Collins | Multi-channel audio distribution for aircraft passenger entertainment and information systems |
JP2002344898A (ja) * | 2001-05-17 | 2002-11-29 | Pioneer Electronic Corp | 映像表示装置、音声調整装置及び映像音声出力装置、並びに映像音声同期方法 |
US8406453B2 (en) * | 2003-09-08 | 2013-03-26 | Digecor, Inc. | Security system and method of in-flight entertainment device rentals having self-contained audiovisual presentations |
US7400653B2 (en) * | 2004-06-18 | 2008-07-15 | Dolby Laboratories Licensing Corporation | Maintaining synchronization of streaming audio and video using internet protocol |
EP1657929A1 (de) * | 2004-11-16 | 2006-05-17 | Thomson Licensing | Vorrichtung und Verfahren zur Synchronisation von verschiedenen Teilen eines digitalen Dienstes |
US7991997B2 (en) * | 2005-06-23 | 2011-08-02 | Panasonic Avionics Corporation | System and method for providing searchable data transport stream encryption |
EP2071849A4 (de) * | 2006-11-07 | 2010-08-04 | Sony Corp | Empfänger, verfahren zur verzögerten informationssendung für empfänger, audioausgabevorrichtung und verzögerungssteuerungsverfahren für audioausgabegeräte |
US8272008B2 (en) * | 2007-02-28 | 2012-09-18 | At&T Intellectual Property I, L.P. | Methods, systems, and products for retrieving audio signals |
KR100926911B1 (ko) * | 2007-10-05 | 2009-11-17 | 주식회사 알티캐스트 | 디지털 방송에서 광고를 제공하는 방법 및 시스템 |
-
2013
- 2013-01-09 DE DE102013200171.1A patent/DE102013200171A1/de not_active Ceased
-
2014
- 2014-01-07 US US14/760,156 patent/US20150358647A1/en not_active Abandoned
- 2014-01-07 WO PCT/EP2014/050113 patent/WO2014108379A1/de active Application Filing
- 2014-01-07 EP EP14701296.7A patent/EP2944090B1/de active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5570372A (en) * | 1995-11-08 | 1996-10-29 | Siemens Rolm Communications Inc. | Multimedia communications with system-dependent adaptive delays |
GB2417866A (en) | 2004-09-03 | 2006-03-08 | Sony Uk Ltd | Transmission of streaming audio data channels with low latency buffering |
US20060230171A1 (en) | 2005-04-12 | 2006-10-12 | Dacosta Behram M | Methods and apparatus for decreasing latency in A/V streaming systems |
US20090073316A1 (en) | 2005-04-28 | 2009-03-19 | Naoki Ejima | Lip-sync correcting device and lip-sync correcting method |
US20060290810A1 (en) * | 2005-06-22 | 2006-12-28 | Sony Computer Entertainment Inc. | Delay matching in audio/video systems |
US20070011343A1 (en) | 2005-06-28 | 2007-01-11 | Microsoft Corporation | Reducing startup latencies in IP-based A/V stream distribution |
US20080187282A1 (en) | 2007-02-05 | 2008-08-07 | Thales Avionics, Inc. | System and method for synchronizing playback of audio and video |
CA2676075A1 (en) | 2007-02-05 | 2008-08-14 | Thales Avionics, Inc. | System and method for synchronizing playback of audio and video |
WO2011031853A1 (en) | 2009-09-09 | 2011-03-17 | Netflix, Inc. | Accelerated playback of streaming media |
US20110231566A1 (en) | 2010-03-16 | 2011-09-22 | Harman International Industries, Incorporated | Memory management unit |
Also Published As
Publication number | Publication date |
---|---|
EP2944090A1 (de) | 2015-11-18 |
DE102013200171A1 (de) | 2014-07-10 |
EP2944090B1 (de) | 2019-03-13 |
US20150358647A1 (en) | 2015-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11240543B2 (en) | Synchronizing playback of segmented video content across multiple video playback devices | |
EP2572463B1 (de) | Verfahren und vorrichtung zur synchronisierung von daten in einem fahrzeug | |
JP6588987B2 (ja) | ライブビデオエンコーディングおよびストリーミングにおけるフレーム複写およびフレーム拡張のためのシステムおよび方法 | |
US20180295320A1 (en) | Enhanced resolution video and security via machine learning | |
DE102020108357A1 (de) | Umkodieren vorhergesagter bilder in live-videostream-anwendungen | |
US11895352B2 (en) | System and method for operating a transmission network | |
DE112015002650T5 (de) | Systeme und Verfahren zur prädiktiven Auslieferung von Inhalten mit hohen Bitraten zur Wiedergabe | |
US9118947B2 (en) | Multi-vision virtualization system and method | |
EP2944090B1 (de) | Datennetzwerk, verfahren sowie abspielgerät zur wiedergabe von audio- und videodaten in einem in-flight entertainment system | |
US10893229B1 (en) | Dynamic pixel rate-based video | |
KR20140050522A (ko) | 멀티비전 가상화 시스템 및 가상화 서비스 제공 방법 | |
DE102013219140B4 (de) | Paketsende- und Empfangsvorrichtung und Entwürfelungssystem | |
US20160352794A1 (en) | Scalable architecture for media mixing | |
DE112011101955T5 (de) | Videoanzeigevorrichtung | |
KR102709016B1 (ko) | 비디오 데이터 및 오디오 데이터를 처리하는 멀티미디어 디바이스 및 그 제어 방법 | |
KR101391780B1 (ko) | 다중 영상 출력 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 매체 | |
EP3507987A1 (de) | Verfahren zur übertragung von echtzeitbasierten digitalen videosignalen in netzwerken | |
KR20230086792A (ko) | 미디어 스트리밍 및 재생 동안 프리롤 및 미드롤을 지원하기 위한 방법 및 장치 | |
EP2738721A1 (de) | Verfahren und System zur Präsentation bei kollaborativer Zusammenarbeit | |
DE102006034414B4 (de) | Anordnung und Verfahren zur Dekodierung von digitalen Daten | |
KR20020075571A (ko) | 스케일러블 기술을 이용한 대화형 동영상 광고 방법 및 그장치 | |
JP2009081572A (ja) | コンテンツ配信装置およびトリック再生制御方法 | |
Ismail | Player for reconfigurable distributed multimedia documents | |
DE102018108784A1 (de) | Verfahren zum Senden eines digitalen Videosignals an ein Empfangsgerät, Recheneinheit und Computerprogrammprodukt | |
DE102011107095A1 (de) | Verfahren zur Synchronisierung von Audio- und Videoinhalten in verteilten Multimediasystemen mit mehreren Senken |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 14701296 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14760156 Country of ref document: US Ref document number: 2014701296 Country of ref document: EP |