EP3507987A1 - Method for transmitting real-time-based digital video signals in networks - Google Patents

Method for transmitting real-time-based digital video signals in networks

Info

Publication number
EP3507987A1
EP3507987A1 EP17761866.7A EP17761866A EP3507987A1 EP 3507987 A1 EP3507987 A1 EP 3507987A1 EP 17761866 A EP17761866 A EP 17761866A EP 3507987 A1 EP3507987 A1 EP 3507987A1
Authority
EP
European Patent Office
Prior art keywords
video
format
packet
data
packets
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP17761866.7A
Other languages
German (de)
French (fr)
Inventor
Ulrich Pflueger
Oliver LIETZ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanocosmos Informationstechnologien GmbH
Original Assignee
Nanocosmos Informationstechnologien GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanocosmos Informationstechnologien GmbH filed Critical Nanocosmos Informationstechnologien GmbH
Publication of EP3507987A1 publication Critical patent/EP3507987A1/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23605Creation or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Definitions

  • the invention relates to the transmission of digital video and audio signals from a video signal source via a server to a display device, on which the data provided by the video signal source are displayed.
  • the transmission of real-time video data also called live streaming, generally takes place in networks via several intermediate stations, starting from the camera via a processing or coding unit at the camera to a server which makes the forwarding to the receiver or the playback device ,
  • the distances in the networks can lead to delays in the transmission. Additional delays arise through
  • the quality of the transmission results on the one hand from the image quality itself, but also from the liquid of the reproduction.
  • the image quality is related to the available bandwidth in the network, the liquid at the frame rate measured in frames per second or Hz. It is not possible with previous methods to transmit video data in everywhere available networks without loss of quality.
  • the video data must be compressed (encoded) to match the available ones
  • the grouping of groups of keyframe groups is referred to as the "group of pictures” (GOP), and the GOP length often ranges from 1-10 seconds or more, the longer the GOP length, the better the average video quality achieved But the longer they are necessary
  • buffer memories are used, which should compensate for the fluctuations over certain time periods.
  • long intervals of "key frames" I-frames are selected during the compression, which are also in the range of 2-10 seconds.
  • buffer times or buffer times often occur Latencies of more than 30 seconds.
  • Multimedia streaming is known as well as a device for the Multan
  • Multimedia streaming is known using this format. This generates fragments of data. In each fragment will be a variety of
  • Multimedia data boxes are arranged one behind the other, and at the end of the fragment, a box is arranged, which contains on the multimedia data related metadata (US 201 1/0276662 A1).
  • Packing / Multiplex The signal output from the video signal source in a stream is divided into packets.
  • a packet may contain video data, audio data, or both (multiplexing).
  • packet in this context refers to the aggregation, multiplexing of video and optionally audio data in the output format, not to the size of packets in the network transport, which subsequently takes place on a lower system level.
  • the consideration of the network layer is not the subject of this device.
  • Streaming differs in concept usually in the application of video communication by the number of viewers. Streaming should be possible regardless of the number of viewers.
  • Sources are usually live cameras, either as a separate device or built into a device (mobile device, laptop, surveillance camera, action cam, stationary or attached to mobile devices, etc.).
  • the source can also be an artificially generated signal that does not have to come from a camera, e.g. for presentations or games.
  • RTMP Real-time Messaging Protocol
  • Flash-Plugin additional software module
  • HLS was invented by Apple and is based on a buffered transmission of portions of the livestream.
  • DASH is an ISO standard based on the same principle. The pieces of the livestream need a certain amount
  • HLS and DASH are part of the "HTMLS" standard, used by most
  • HTML5 it is possible to embed video data directly on a web page and present it in multimedia environments. HTML only allows certain video formats and protocols for embedding video data.
  • HTML5 The state of the art in HTML5 is the ISO-MPEG4 video compression method, ITU-H264 with the MP4 file format and the proprietary, less widely used VP8 or VP9 with the WebM file format.
  • the file-based formats like mp4 are not designed for real-time playback.
  • Web technology WebRTC are used. Real-time communication, in contrast to streaming, is not standardized in terms of international standards and is available on a few devices, so that end devices such as TV and mobile devices do not have a uniform interface for this.
  • Video communication applications are designed for the transmission of point-to-point connections similar to telephony (one-to-one).
  • the video communication and chat protocols are not compatible with streaming standards (HTML5, HLS, DASH).
  • an HTML 5 video element is capable of playing either a complete file or a video fragment or segment, which may be provided in the form of a file or as part of a data stream.
  • DASH and HLS segments are used, which in turn are divided into fragments.
  • the state of the art is the ISO MP4 file format in the variant fMP4.
  • a segment length corresponds to at least one GOP length, ie 1 to 10 seconds per segment.
  • the additional inserted latency is a length of a segment.
  • a segment may contain one or more complete GOPs. The minimum latency thus corresponds to the GOP length. Multiple buffering creates a threefold latency in existing devices.
  • the fragmentation can be carried out, for example, on the basis of the ISO standard "fMP4".
  • fMP4 Formai package is synonymous with MP4 Fragment.
  • the temporal size of a fragment corresponds to several video images in the prior art. According to the prior art, a fragment contains at least the number of video pictures of a GOP length.
  • the fragments consist of different type designations ("atoms") .
  • the packet fragments are divided into headers and payloads, so there is one between the individual payloads of the packet fragments
  • the transmission usually takes place via the IP protocol TCP, so that a disturbance on the transmission link at this protocol level is excluded. If the connection is lost, it is necessary and possible to re-connect to the live stream to continue a real-time transmission.
  • Both the coding and the server and the playback device have buffer memory.
  • each packet is provided with a time stamp.
  • Timestamps are a common means of synchronizing A / V packets. For each time of recording with a live source, there is a timestamp that can be synchronized with, for example, the real time. The playback page can then determine how late or early the packet is relative to real time and other packets.
  • a data stream according to the fMP4 format consists of an introductory data structure "ftyp” and “moov” followed by in an example 5 packet fragments.
  • Each package fragment consists of 2 parts, namely a part "moof der
  • Information includes the number of video and audio frames in the package, the timing or duration of the video and audio frames, the byte size of the video and audio frames, and the byte position of the video and audio frames.
  • This atom "moof is then followed by an atom" mdat ", in which the actual video and audio are included.
  • the individual parts of this exemplary stream are immediately adjacent to each other.
  • the HLS format can also be used instead of fMP4.
  • the HLS format consists of 2 parts: several
  • Segments in the format TS (ISO-MPEG transport stream), each comprising at least one GOP length and playable independently of each other, and the index data (playlist) in the format m3u8, each pointing to the segments.
  • 3 segments per index are used, which shift in time during the transmission.
  • 3 segments per index are used, which shift in time during the transmission.
  • a minimum latency of 3 ⁇ 10 30 seconds results.
  • the playback device in the prior art includes a dedicated buffer which generates additional latency.
  • the buffer is set automatically in the playback device.
  • the automatic setting usually takes place on the basis of the set playing time of the data stream, which corresponds at least to the segment length.
  • a camera has a frame rate of 25 frames per second.
  • An image corresponds to a duration of 40 ms.
  • the images generated by the signal source can in practice in different
  • the invention is based on the object to provide a method for transmitting real-time-based digital video signals in networks, which can also find application where it is a quick response on the part of the Receiver arrives, for example, in videoconferencing, auctions or interactive involvement of the audience.
  • the invention proposes a method with the features mentioned in claim 1. Further developments of the invention are the subject of dependent claims.
  • the signal output by the video signal source in a stream is thus fragmented into packets, with a packet fragment corresponding to at least one video picture with associated audio information.
  • Using just one video frame allows playback with the least possible delay between video capture and playback.
  • the delay is still significantly less than in the prior art, as long as the number of times in the
  • Packet fragment contained in the known in the prior art number in a GOP (Group of Pictures,) remains.
  • the temporal size of a fragment corresponds to the length of one or more video images that is smaller than a GOP.
  • the data size corresponds to one or more video images and possibly the corresponding time
  • Audio data plus multiplexed data Audio data plus multiplexed data.
  • the packetizing unit keeps the buffer as small as possible, since the filling of a buffer is usually associated with latencies which the invention wishes to keep as small as possible.
  • the packaging is made into fragments in the area of the video source.
  • the packet fragments are present in the fragmented MP4 format (fMP4).
  • fMP4 fragmented MP4 format
  • an initialization segment is provided, followed by a repeating group of a fragment header (moof) and a fragment data segment (mdat).
  • Figure 1 is a schematic overview of the various stages of the invention
  • Figure 2 is a schematic representation of one consisting of 5 fragments
  • Fig. 3 is a flowchart showing a processing unit for processing the incoming stream
  • FIG. 4 shows a flowchart of the processing in the one mentioned in FIG.
  • Figure 5 is a parent diagram.
  • FIG. 1 shows, in a highly simplified schematic form, the structure of a
  • the video signal is generated by a video signal source 1, for example a video camera.
  • the video signal source 1 is connected via a transmission path 2 with a yer michseinnchtung 3.
  • This yer michseinnchtung 3 may be, for example, a server.
  • the signal of the video source 1 is transmitted to the yer michseignchtung.
  • za michmaschine 3 3 the video signal is fragmented into packets, which in the The following will be explained in more detail.
  • the packetizer 3 is connected via a further transmission path or channel 4 to a display device 5 on which a user can see what the source is transmitting.
  • Channel 4 may be a continuous channel with back and forth
  • Data stream carried out, namely on the one hand, a packaging and segmentation of the income data stream and on the other an adaptation of the data stream to a suitable format for the playback device 5 format.
  • FIG. 2 shows, by way of example, the data stream on the basis of the fMP4 format (state of the art).
  • the stream is in a standard-compliant form.
  • the stream starts with a ftyp box followed by a moov box. This is followed by a continuous sequence
  • Each fragment consists of a moof and a mdat box.
  • Moof contains
  • the mdat box contains the actual video and audio data.
  • FIG. 3 shows in simplified form the procedure or the sequence of the method within a processing unit in which the input stream is processed.
  • the process begins in block 1 1, where the stream arrives.
  • Block 1 1 is followed by processing block 12, which may also be referred to as a demultiplex block.
  • processing block 12 which may also be referred to as a demultiplex block.
  • the incoming stream in video, audio and
  • These media data include the type of packet, namely video, audio or metadata, time information
  • Packaging according to the invention admitting device, which is explained in more detail in Figure 4.
  • a query is made as to whether it is an audio packet. If so, the audio packet is stored in block 30.
  • Video package is trading. If so, the next block 33 queries whether it is the start of a video frame. If this is not the case, the video packet is stored in block 34. In the abrage block 35 following on a positive ablation, it is checked whether the number of video frames in the fragment is buffered. If not, the video packet is stored in block 36.
  • Block 40b stores the current video packet.
  • block 42 If it is the first fragment to send, as determined in query block 41, block 42 outputs the initialization header, the fragment header, and the fragment data.
  • the query block 41 If it is not the first fragment to be sent, that is, the query block 41 provides a negative response, the fragment header and the fragment data are output in block 43. With the output in block 44 is the activity of
  • FIG. 5 shows again in a superordinate representation the structure of the method as proposed by the invention.
  • the control of the stream is done in such a way that at the beginning there is "source”, which is the data stream
  • the video, audio and metadata contained in the stream are unpacked and forwarded via connection 52 to the packetizer or multiplexer component 53.
  • the multiplexer component 53 does what was explained in detail in FIG. In this multiplexer component 53 is generated in an HTMLS capable Filestream format. For example, it can be fMP4 for Chrome, Firefox, or IE 11. For Safari US X and iOS it will Format m3u8 / ts (HLS) preferred. Subsequently, the forwarding takes place via the connection 54 to the output group 55. From there, the forwarding takes place to the outputs, which are no longer shown in detail.
  • Total end-to-end latency is the sum of network transport latency, format-related latencies, and buffers latency in the playback device.
  • the network transport latencies are made up of the transmission of the encoder to the server, the transfer from the server to the packaging unit Player / Transmux Server (53 in FIG. 5) and the transfer therefrom to the server
  • Grouping-related timing dependencies on the delivery of a stream lead to additional latency.
  • the beginning of a segment or fragment can not be delivered until all contained samples have been received.
  • the additional latency for fMP4 formatting is the length of a fMP4 fragment.
  • a fragment contains one or more complete GOPs (group of pictures).
  • the minimum latency in the known methods thus corresponds to the GOP length.
  • the method of fragmentation per frame proposed by the invention shortens the format-related latency on the frame length.
  • the HLS format can also be used instead of fMP4.
  • the buffer in the display device corresponds to at least one segment length, which can also lead to a latency.
  • it may be provided to set the nominal playing time of the segments to low values. This is controlled by customization by the device in the fMP4 header and / or in the HLS playlist.
  • the device also monitors and controls the buffer of the playback unit.
  • the GOP limit is canceled. Many small frames are transmitted and received as a data stream.
  • time information time stamp, duration, seasons

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

The invention relates to a method for transmitting video signals from a video signal source to a reproduction device. The signal is emitted by the video signal source into a stream and subsequently correspondingly fragmented in packets into a known format, the size thereof corresponding to at least one video image with associated audio information. The packets are transmitted to the reproduction device, the content of the packets being displayed using said device.

Description

Verfahren zur Übertragung von echtzeitbasierten digitalen Videosignalen in etzwerken  Method for transmitting real-time-based digital video signals in networks
Beschreibung description
Die Erfindung betrifft die Übertragung von digitalen Video-und Audiosignalen von einer Videosignalquelle über einen Server zu einer Wiedergabeeinrichtung, auf der die von der Videosignalquelle zur Verfügung gestellten Daten dargestellt werden.  The invention relates to the transmission of digital video and audio signals from a video signal source via a server to a display device, on which the data provided by the video signal source are displayed.
Stand der Technik State of the art
Die Übertragung von Echtzeit Videodaten, auch Live-Streaming genannt, erfolgt in Netzwerken in der Regel über mehrere Zwischenstationen, angefangen von der Kamera über eine Aufbereitung oder Kodierungseinheit bei der Kamera bis zu einem Server, der die Weiterleitung an den Empfänger bzw. die Wiedergabeeinrichtung vornimmt. Die Wegstrecken in den Netzwerken können zu Verzögerungen in der Übertragung führen. Zusätzliche Verzögerungen ergeben sich durch The transmission of real-time video data, also called live streaming, generally takes place in networks via several intermediate stations, starting from the camera via a processing or coding unit at the camera to a server which makes the forwarding to the receiver or the playback device , The distances in the networks can lead to delays in the transmission. Additional delays arise through
medientechnisch erforderliche Eingriffe in den Datenstrom, die auf Basis aktueller Standards und Technologien erforderlich sind. Alle Verzögerungen im Netzwerk addieren sich zu einer Gesamtverzögerung . Media technology required interference in the data stream, which are required on the basis of current standards and technologies. All delays in the network add up to a total delay.
Die Übertragung von Videodaten in höchstmöglicher Qualität ist eine hohe The transmission of video data in the highest possible quality is a high
technische Herausforderung, bei der sich verschiedene Probleme ergeben, die zu einer eingeschränkten Bildqualität sowie zu verzögerten Darstellungen führen, die häufig im Bereich von mehreren Sekunden liegen. A technical challenge that poses several problems that result in limited image quality and delays, often in the range of several seconds.
Die Qualität der Übertragung ergibt sich einerseits aus der Bildqualität selbst, aber auch aus der Flüssigkeit der Wiedergabe. Die Bildqualität hängt mit der verfügbaren Bandbreite im Netzwerk zusammen, die Flüssigkeit mit der Bildrate, die in Bildern pro Sekunde oder Hz gemessen wird. Es ist mit bisherigen Verfahren nicht möglich, Videodaten in überall verfügbaren Netzwerken ohne Qualitätsverlust zu übertragen. Die Videodaten müssen komprimiert (encodiert) werden, um die verfügbare The quality of the transmission results on the one hand from the image quality itself, but also from the liquid of the reproduction. The image quality is related to the available bandwidth in the network, the liquid at the frame rate measured in frames per second or Hz. It is not possible with previous methods to transmit video data in everywhere available networks without loss of quality. The video data must be compressed (encoded) to match the available ones
Bandbreite im Netzwerk nicht zu überschreiten. Um die Datenmenge des erzeugten Videosignals an die verfügbare Bandbreite anzupassen, sind verlustbehaftete Kompressionsverfahren erforderlich, die möglichst wenig sichtbare Fehler zulassen. Die Verarbeitung und Kompression von Video- und Audiodaten geschieht in der Regel unabhängig voneinander in separaten Modulen. Bandwidth in the network not to be exceeded. In order to adapt the amount of data of the generated video signal to the available bandwidth, lossy compression methods are required which allow as few visible errors as possible. The processing and compression of video and audio data is usually done independently in separate modules.
Bei der Kompression von Videodaten werden hybride Verfahren verwendet, die eine stark schwankende Datenmenge pro Bild erzeugen durch die Verwendung unterschiedlicher Bildtypen (Keyframes = I-Frames, Differenzbilder = P/B-Frames). Die Zusammenfassung von Bildgruppen im Abstand der Keyframes bezeichnet man als„Group of pictures" (GOP). Die GOP-Länge liegt häufig im Bereich von 1-10 Sekunden oder mehr. Je länger die GOP-Länge, desto besser ist die erzielte durchschnittliche Videoqualität, desto länger werden aber auch notwendige Compression of video data uses hybrid techniques that produce a large amount of data per frame by using different types of images (keyframes = I-frames, difference images = P / B frames). The grouping of groups of keyframe groups is referred to as the "group of pictures" (GOP), and the GOP length often ranges from 1-10 seconds or more, the longer the GOP length, the better the average video quality achieved But the longer they are necessary
Bildpuffer. Frame buffer.
Um Schwankungen der Daten rate des Encoders sowie der verfügbaren To fluctuations in the data rate of the encoder as well as the available
Netzwerkbandbreite ausgleichen zu können, werden Pufferspeicher eingesetzt, die die Schwankungen über bestimmte Zeitperioden ausgleichen sollen. Zusätzlich werden bei der Kompression lange Abstände von„Key-Frames" (I-Frames) gewählt, die ebenfalls im Bereich von 2-10 Sekunden liegen. Durch Mehrfach-Pufferungen in allen beteiligten Komponenten (Sender, Server, Empfänger) entstehen häufig Pufferzeiten bzw. Latenzen von mehr als 30 Sekunden. To compensate for network bandwidth, buffer memories are used, which should compensate for the fluctuations over certain time periods. In addition, long intervals of "key frames" (I-frames) are selected during the compression, which are also in the range of 2-10 seconds.With multiple buffering in all components involved (transmitter, server, receiver), buffer times or buffer times often occur Latencies of more than 30 seconds.
Für die Videokommunikation zwischen verschiedenen Teilnehmern ist eine wesentlich niedrigere Latenz erforderlich, insbesondere, wenn es sich um Signale handelt, die„Echtzeit" nahe kommen sollen (z.B. Videokonferenz, Live-Events). Significantly lower latency is required for video communication between different subscribers, particularly when they are signals that are to be close to "real-time" (e.g., videoconferencing, live events).
Es ist bereits ein Verfahren zum Erzeugen eines File-Formats für das There is already a method for generating a file format for the
Multimediastreaming bekannt, sowie eine Vorrichtung für das Multan Multimedia streaming is known as well as a device for the Multan
Multimediastreaming unter Verwendung dieses Formats bekannt. Dabei werden Fragmente von Daten erzeugt. In jedem Fragment wird eine Vielzahl von Multimedia streaming is known using this format. This generates fragments of data. In each fragment will be a variety of
Multimediadaten- Boxen hintereinander angeordnet, und zum Abschluss des Fragments wird eine Box angeordnet, die sich auf die Multimediadaten beziehende Metadaten enthält (US 201 1/0276662 A1 ). Multimedia data boxes are arranged one behind the other, and at the end of the fragment, a box is arranged, which contains on the multimedia data related metadata (US 201 1/0276662 A1).
Paketierung / Multiplex Das von der Videosignalquelle in einem Stream ausgegebene Signal wird in Pakete geteilt, Ein Paket kann Videodaten, Audiodaten oder beides enthalten (Multiplex). Packing / Multiplex The signal output from the video signal source in a stream is divided into packets. A packet may contain video data, audio data, or both (multiplexing).
Der Begriff Paket bezieht sich in diesem Zusammenhang auf das Zusammenfassen, Multiplexen von Video-und gegebenenfalls Audiodaten im Ausgabeformat, nicht auf die Größe von Paketen beim Netzwerktransport, die nachfolgend auf einer unteren Systemebene erfolgt. Die Betrachtung der Netzwerkschicht ist nicht Gegenstand dieser Einrichtung. The term packet in this context refers to the aggregation, multiplexing of video and optionally audio data in the output format, not to the size of packets in the network transport, which subsequently takes place on a lower system level. The consideration of the network layer is not the subject of this device.
Streaming unterscheidet sich im Begriff üblicherweise im Anwendungsfall von Videokommunikation durch die Anzahl der Zuschauer. Streaming soll unabhängig von der Anzahl der Zuschauer möglich sein. Streaming differs in concept usually in the application of video communication by the number of viewers. Streaming should be possible regardless of the number of viewers.
Bei dem Video-on-demand- Streaming, bei dem bestimmte vorgehaltene Videodaten abgerufen werden, spielt das Problem der oben genannten Latenzen keine Rolle, im Gegensatz zu dem Echtzeit-live- Streaming, mit dem sich die Erfindung befasst. In video-on-demand streaming, which retrieves certain prerecorded video data, the problem of the above-mentioned latencies is irrelevant, in contrast to the real-time live streaming with which the invention is concerned.
Beim Echtzeit-Live-Streaming wird das Material nicht vorproduziert, sondern in Echtzeit in der Gegenwart hergestellt. Quellen sind in der Regel Live-Kameras, entweder als separates Gerät oder eingebaut in einem Gerät (Mobilgerät, Laptop, Überwachungskamera, Action-Cam, stationär oder an mobilen Geräten montiert, usw.). Als Quelle kann aber auch ein künstlich erzeugtes Signal dienen, das nicht von einer Kamera kommen muss, z.B. für Präsentationen oder Spiele. In real-time live streaming, the material is not pre-produced but produced in real time in the present. Sources are usually live cameras, either as a separate device or built into a device (mobile device, laptop, surveillance camera, action cam, stationary or attached to mobile devices, etc.). However, the source can also be an artificially generated signal that does not have to come from a camera, e.g. for presentations or games.
Für das Streaming gibt es bereits Protokolle und Standards. There are already protocols and standards for streaming.
RTMP (Realtime Messaging Protocol): Das Verfahren wurde von der Firma Adobe als Teil der„Flash"-Technologie erfunden und ist nicht offiziell standardisiert und mittlerweile veraltet. Es basiert auf einem kontinuierlichen Datenstrom, der von einem Server zu einem Client (Player) geschickt werden kann. Aktuelle Real-time Messaging Protocol (RTMP): Developed by Adobe as part of the "Flash" technology, the process is not officially standardized and now outdated, and is based on a continuous stream of data sent from a server to a client (player) can be
Wiedergabegeräte sind nur mit Hilfe eines zusätzlichen Softwaremoduls („Flash- Plugin") in der Lage, RTMP abzuspielen. Das„Flash-Plugin" war viele Jahre Playback devices are only able to play RTMP with the help of an additional software module ("Flash-Plugin") .The "Flash-Plugin" has been around for many years
Bestandteil von Browser-Anwendungen auf dem Schreibtisch („Desktop") und wird ab voraussichtlich 2017 von keinem Browser mehr unterstützt. Auf mobilen Geräten und den meisten TVs und embedded devices wie loT wird diese Technik nicht unterstützt. http-Live-Streaming (HLS und DASH) Component of browser applications on the desktop ("desktop") and becomes from 2017 probably no longer supported by any browser. On mobile devices and most TVs and embedded devices like loT, this technique is not supported. http live streaming (HLS and DASH)
HLS wurde von Apple erfunden und basiert auf einer gepufferten Übertragung von Teilstücken des Livestreams. DASH ist ein ISO-Standard und basierte auf dem gleichen Prinzip. Die Teilstücke des Livestreams müssen eine bestimmte  HLS was invented by Apple and is based on a buffered transmission of portions of the livestream. DASH is an ISO standard based on the same principle. The pieces of the livestream need a certain amount
Mindestgröße haben, damit eine fehlerfreie Übertragung gewährleistet ist. Minimum size, so that a faultless transmission is guaranteed.
Streaming/Playback mit HTML5 Streaming / playback with HTML5
HLS und DASH sind Teil des Standards„HTMLS", der von den meisten  HLS and DASH are part of the "HTMLS" standard, used by most
Browserherstellern unterstützt wird. Supported by browser manufacturers.
Mit HTML5 ist es möglich, Videodaten direkt auf einer Webseite einzubetten und so in multimedialen Umgebungen zu präsentieren. HTML erlaubt für die Einbettung von Videodaten nur bestimmte Videoformate und Protokolle. With HTML5 it is possible to embed video data directly on a web page and present it in multimedia environments. HTML only allows certain video formats and protocols for embedding video data.
Stand der Technik bei HTML5 sind die Videokompressions-Verfahren ISO-MPEG4, ITU-H264 mit dem Dateiformat MP4 sowie das proprietäre, weniger verbreitete VP8 oder VP9 mit dem Dateiformat WebM. Die dateibasierten Formate wie mp4 sind prinzipiell nicht für die Echtzeitwiedergabe konzipiert. The state of the art in HTML5 is the ISO-MPEG4 video compression method, ITU-H264 with the MP4 file format and the proprietary, less widely used VP8 or VP9 with the WebM file format. The file-based formats like mp4 are not designed for real-time playback.
Für die Übertragung und das Abspielen über Echtzeit-Signalen („Live") über For transmission and playback via real-time signals ("live") via
Netzwerke existieren ergänzend die Protokolle HLS (proprietär Apple für iPhone und MacOS auf Basis des Formates MPEG-TS) sowie MPEG DASH. Allerdings bedeutet in diesen Fällen„Live" nicht„Echtzeit", sondern Verzögerungen von häufig 30 Sekunden und mehr. Diese können durch Feineinstellung aller Komponenten auf Stand der Technik in den minimalen Bereich 6- 0 Sekunden reduziert werden. Networks additionally exist the protocols HLS (proprietary Apple for iPhone and MacOS based on the MPEG-TS format) and MPEG DASH. However, in these cases "live" does not mean "real time" but delays of often 30 seconds or more. These can be reduced by fine-tuning all the state-of-the-art components to the minimum 6-0 second range.
Die Übertragung von Videosignalen mit kurzen Latenzen erfordern bisher andere Verfahren als die o.g. HTML/HTTP-Protokolle. Stand der Technik dafür sind die Protokolle UDP und RTP, die z.B. in den Anwendungen Skype oder der The transmission of video signals with short latencies so far require other methods than the o.g. HTML / HTTP protocols. State of the art for this are the protocols UDP and RTP, which are e.g. in the applications Skype or the
Webtechnologie WebRTC zum Einsatz kommen. Echtzeitkommunikation ist im Gegensatz zu„Streaming" nicht in Form von internationalen Standards vereinheitlicht und auf wenigen Geräten verfügbar, so dass Endgeräte wie TV und Mobilgeräte dafür keine einheitliche Schnittstelle aufweisen. Web technology WebRTC are used. Real-time communication, in contrast to streaming, is not standardized in terms of international standards and is available on a few devices, so that end devices such as TV and mobile devices do not have a uniform interface for this.
Die Übertragung mit kurzen Latenzzeiten mit diesen Protokollen führt häufig zu einer nicht unterbrechungsfreien Übertragung, was die Anwendungserfahrung einschränkt. Video-Kommunikationsanwendungen sind konzipiert für die Übertragung von Punkt- zu-Punkt Verbindungen ähnlich der Telefonie (one-to-one). Short latency transmission with these protocols often results in non-disruptive transmission, which limits the application experience. Video communication applications are designed for the transmission of point-to-point connections similar to telephony (one-to-one).
Die Protokolle zur Videokommunikation und Chat (Skype, WebRTC) sind nicht kompatibel zu Standards des Streaming (HTML5, HLS, DASH). The video communication and chat protocols (Skype, WebRTC) are not compatible with streaming standards (HTML5, HLS, DASH).
Hauptmangel der bisherigen HTML/http-Lösungen ist die lange Verzögerung der Bildübertragung über mehrere Sekunden. Das hat den großen Nachteil, dass diese Verfahren nicht für Kommunikationsanwendungen geeignet sind, die eine kurze Latenzzeit zwischen Sender und Empfänger erfordern. (z.B. zur AudioA ideotelefonie oder interaktiven Einbindung der Zuschauer mit einem Rückkanal.) Main lack of the past HTML / http solutions is the long delay of the picture transmission over several seconds. This has the great disadvantage that these methods are not suitable for communication applications that require a short latency between sender and receiver. (e.g., for audio-telephony or interactive inclusion of viewers with a return channel.)
Anwendungsgebiete wie Videokonferenzen oder Auktionen sind somit nicht möglich. Application areas such as video conferencing or auctions are therefore not possible.
Im Stand der Technik ist ein HTML 5-Video-Element in der Lage, entweder eine komplette Datei oder ein Video Fragment oder Segment abzuspielen, das in Form einer Datei oder als Teil eines Datenstroms bereitgestellt werden kann. Für die Formate DASH und HLS werden Segmente verwendet, die wiederum in Fragmente unterteilt sind. Stand der Technik ist das ISO-MP4-File-Format in der Variante fMP4. Dabei entspricht eine Segmentlänge mindestens einer GOP- Länge, also 1 bis 10 Sekunden pro Segment. Die zusätzlich eingefügte Latenz beträgt eine Länge eines Segments. Nach dem Stand der Technik kann ein Segment ein oder mehrere vollständige GOPs enthalten. Die minimale Latenz entspricht damit der GOP Länge. Durch Mehrfachpufferung wird in existierenden Einrichtungen eine dreifache Latenz erzeugt. In the prior art, an HTML 5 video element is capable of playing either a complete file or a video fragment or segment, which may be provided in the form of a file or as part of a data stream. For the formats DASH and HLS segments are used, which in turn are divided into fragments. The state of the art is the ISO MP4 file format in the variant fMP4. A segment length corresponds to at least one GOP length, ie 1 to 10 seconds per segment. The additional inserted latency is a length of a segment. In the prior art, a segment may contain one or more complete GOPs. The minimum latency thus corresponds to the GOP length. Multiple buffering creates a threefold latency in existing devices.
Die Fragmentierung kann z.B. auf Basis des ISO-Standards„fMP4" erfolgen. Für das fMP4 Formai ist Paket gleichbedeutend mit MP4 Fragment. Die zeitliche Größe eines Fragments entspricht im Stand der Technik mehrerer Videobilder. Nach Stand der Technik enthält ein Fragment mindestens die Anzahl der Videobilder einer GOP-Länge. The fragmentation can be carried out, for example, on the basis of the ISO standard "fMP4". For the fMP4 Formai package is synonymous with MP4 Fragment. The temporal size of a fragment corresponds to several video images in the prior art. According to the prior art, a fragment contains at least the number of video pictures of a GOP length.
Die Fragmente bestehe aus unterschiedlichen Typenbezeichnungen („Atome"). Die Paketfragmente sind aufgeteilt auf Kopfdaten (Header) und Nutzdaten (Payload). Zwischen den einzelnen Nutzdaten der Paketfragmente gibt es also einen The fragments consist of different type designations ("atoms") .The packet fragments are divided into headers and payloads, so there is one between the individual payloads of the packet fragments
Zwischenraum, der nur aus den Header Infos für die„Atome" moof und mdat besteht, die zur Synchronisation verwendet werden können. Space, which consists only of the header information for the "atoms" moof and mdat, which can be used for synchronization.
Die Übertragung erfolgt üblicherweise über das IP- Protokoll TCP, sodass eine Störung auf der Übertragungsstrecke auf dieser Protokollebene ausgeschlossen ist. Bei einer Unterbrechung der Verbindung ist es notwendig und möglich, auf den Live- Stream wieder aufzusetzen, um eine Echtzeitübertragung fortzusetzen.  The transmission usually takes place via the IP protocol TCP, so that a disturbance on the transmission link at this protocol level is excluded. If the connection is lost, it is necessary and possible to re-connect to the live stream to continue a real-time transmission.
Sowohl bei der Kodierung als auch beim Server und bei der Wiedergabeeinrichtung gibt es Pufferspeicher. Both the coding and the server and the playback device have buffer memory.
Es kann vorgesehen sein, dass jedes Paket mit einem Zeitstempel versehen wird. Zeitstempel, sind ein übliches Mittel für die Synchronisation von A/V-Paketen. Für jeden Zeitpunkt der Aufnahme mit einer Live-Quelle gibt es einen Zeitstempel, der zum Beispiel mit der Echtzeit synchronisiert werden kann. Auf der Wiedergabeseite kann dann festgestellt werden, wie spät oder früh sich das Paket im Vergleich zu Echtzeit sowie zu anderen Paketen verhält. It can be provided that each packet is provided with a time stamp. Timestamps are a common means of synchronizing A / V packets. For each time of recording with a live source, there is a timestamp that can be synchronized with, for example, the real time. The playback page can then determine how late or early the packet is relative to real time and other packets.
Ein Datenstream entsprechend dem fMP4-Format besteht aus einer einleitenden Datenstruktur„ftyp" und „moov" gefolgt von in einem Beispiel 5 Paketfragmenten. A data stream according to the fMP4 format consists of an introductory data structure "ftyp" and "moov" followed by in an example 5 packet fragments.
Jedes Paketfragment besteht aus 2 Teilen, nämlich einem Teil„moof der Each package fragment consists of 2 parts, namely a part "moof der
Informationen enthält über die Anzahl der Video-und Audioframes in dem Paket, über die zeitliche Position oder Dauer der Video-und Audioframes, über die Bytegröße der Video-und Audioframes sowie über die Byteposition der Video und Audioframes. An dieses Atom„moof schließt sich dann jeweils ein Atom„mdat" an, in dem die eigentlichen Video-und Audiodaten enthalten sind. Die einzelnen Teile dieses als Beispiel dargestellten Streams schließen sich unmittelbar aneinander an. Information includes the number of video and audio frames in the package, the timing or duration of the video and audio frames, the byte size of the video and audio frames, and the byte position of the video and audio frames. This atom "moof is then followed by an atom" mdat ", in which the actual video and audio are included. The individual parts of this exemplary stream are immediately adjacent to each other.
Für die Segmentierung und Fragmentierung kann auch das HLS-Format anstatt fMP4 verwendet werden. Das HLS-Format besteht aus 2 Teilen: mehreren For segmentation and fragmentation, the HLS format can also be used instead of fMP4. The HLS format consists of 2 parts: several
Segmenten im Format TS (ISO-MPEG-Transportstrom), die jeweils mindestens eine GOP-Länge umfassen und unabhängig von einander abspielbar sind, sowie den index-Daten (Playlist) im Format m3u8, die jeweils auf die Segmente zeigen. Segments in the format TS (ISO-MPEG transport stream), each comprising at least one GOP length and playable independently of each other, and the index data (playlist) in the format m3u8, each pointing to the segments.
Üblicherweise werden 3 Segmente pro Index verwendet, die sich zeitlich verschieben während der Übertragung. Beispielhaft ergeben sich bei 10 Sekunden pro Segment eine Mindestlatenz von 3x10=30 Sekunden. Usually, 3 segments per index are used, which shift in time during the transmission. By way of example, at 10 seconds per segment a minimum latency of 3 × 10 = 30 seconds results.
Die Wiedergabeeinrichtung enthält im Stand der Technik einen eigenen Puffer, der eine zusätzliche Latenz erzeugt. Der Puffer wird in der Wiedergabeeinrichtung automatisch eingestellt. Die automatische Einstellung erfolgt in der Regel auf Basis der eingestellten Spieldauer des Datenstroms, die mindestens der Segmentlänge entspricht. The playback device in the prior art includes a dedicated buffer which generates additional latency. The buffer is set automatically in the playback device. The automatic setting usually takes place on the basis of the set playing time of the data stream, which corresponds at least to the segment length.
Die von einer Signalquelle erzeugten Daten werden in der Praxis durch The data generated by a signal source are in practice
Zeitschwankungen der Systeme und andere Systemeinflüsse nicht immer Time variations of the systems and other system influences are not always
kontinuierlich erzeugt. Beispiel: theoretisch hat eine Kamera eine Bildrate von 25 Bildern pro Sekunde. Ein Bild entspricht einer Zeitdauer von 40 ms. Die durch die Signalquelle erzeugten Bilder können in der Praxis in unterschiedlichen generated continuously. Example: theoretically, a camera has a frame rate of 25 frames per second. An image corresponds to a duration of 40 ms. The images generated by the signal source can in practice in different
Zeitabständen abfolgen. Im Beispiel könnte eine Lücke von 3 Bildern entstehen, die 3x40 = 120ms Zeitdauer entspricht. Im Beispiel 5 Bilder je Sekunde ergeben sich bei 200ms pro Bild und für 3 Bilder 600ms. Diese Lücken führen im Stand der Technik zu Latenzen auf der Wiedergabeseite. Follow time intervals. In the example, a gap of 3 images could result, which corresponds to 3x40 = 120ms duration. In the example 5 pictures per second results with 200 ms per picture and for 3 pictures 600 ms. These gaps lead to latencies on the playback side in the prior art.
Beschreibung der Erfindung Description of the invention
Der Erfindung liegt die Aufgabe zu Grunde, ein Verfahren zur Übertragung von echtzeitbasierten digitalen Videosignalen in Netzwerken zu schaffen, das auch dort Anwendung finden kann, wo es auf eine schnelle Reaktion auf Seiten des Empfängers ankommt, beispielsweise also bei Videokonferenzen, Auktionen oder interaktiven Einbinden der Zuschauer. The invention is based on the object to provide a method for transmitting real-time-based digital video signals in networks, which can also find application where it is a quick response on the part of the Receiver arrives, for example, in videoconferencing, auctions or interactive involvement of the audience.
Zur Lösung dieser Aufgabe schlägt die Erfindung ein Verfahren mit den im Anspruch 1 genannten Merkmalen vor. Weiterbildungen der Erfindung sind Gegenstand von Unteransprüchen. To solve this problem, the invention proposes a method with the features mentioned in claim 1. Further developments of the invention are the subject of dependent claims.
Das von der Videosignalquelle in einem Stream ausgegebene Signal wird also in Pakete fragmentiert, wobei ein Paketfragment mindestens einem Videobild mit zugehöriger Audioinformationen entspricht. Die Verwendung genau eines einzigen Videobilds ermöglicht eine Wiedergabe mit der geringsten möglichen Verzögerung zwischen der Videoaufnahme und der Wiedergabe. Bei der Verwendung mehrerer Videobilder in einem Paketfragment ist die Verzögerung immer noch deutlich geringer als im Stand der Technik, sofern man mit der Zahl der in dem The signal output by the video signal source in a stream is thus fragmented into packets, with a packet fragment corresponding to at least one video picture with associated audio information. Using just one video frame allows playback with the least possible delay between video capture and playback. When using multiple video images in a packet fragment, the delay is still significantly less than in the prior art, as long as the number of times in the
Paketfragment enthaltenen Videobilder unter der im Stand der Technik bekannten Zahl in einer GOP (Group of Pictures, ) bleibt. Packet fragment contained in the known in the prior art number in a GOP (Group of Pictures,) remains.
Die zeitliche Größe eines Fragments entspricht der Länge eines oder mehrerer Videobilder, die kleiner als ein GOP ist. Die Datengröße entspricht der eines oder mehrerer Videobilder und gegebenenfalls der zeitlich korrespondierenden The temporal size of a fragment corresponds to the length of one or more video images that is smaller than a GOP. The data size corresponds to one or more video images and possibly the corresponding time
Audiodaten plus Multiplexdaten. Audio data plus multiplexed data.
Bei der Verarbeitungseinheit und der Wiedergabeeinrichtung kann es Pufferspeicher geben, wobei allerdings erfindungsgemäß die Paketierung Einheit den Puffer so klein wie möglich hält, da das Füllen eines Puffers üblicherweise mit Latenzen verbunden ist, die die Erfindung möglichst klein halten möchte. There may be buffer memory in the processing unit and the playback device, but according to the invention the packetizing unit keeps the buffer as small as possible, since the filling of a buffer is usually associated with latencies which the invention wishes to keep as small as possible.
In Weiterbildung der Erfindung kann vorgesehen sein, dass die Paketierung in Fragmente im Bereich der Videoquelle vorgenommen wird. In a further development of the invention it can be provided that the packaging is made into fragments in the area of the video source.
Als besonders sinnvoll hat es sich aber herausgestellt, wenn die Paketierung in Fragmente mithilfe eines von der Videoquelle getrennten Servers vorgenommen wird. Es ist aber in Einzelfällen ebenfalls möglich und Siegt im Rahmen der Erfindung, dass die Paketfragmentierung in der Wiedergabeeinrichtung erfolgt, beispielsweise im Browser. Hierbei kann ein Eingriff auf Skriptebene erfolgen, d.h. mithilfe eines vom Browser unterstützten Programmmoduls. Üblich ist dabei Java Skript. Diese Art der Programmsteuerung mit Java Skript ist für eine Vielzahl von Anwendungen üblich und Stand der Technik. Diese Programmsteuerung findet unter vom Browser kontrollierten Umgebungen statt und erlaubt keinen direkten Hardwarezugriff. However, it has been found to be especially useful if fragmentation is done using a separate server from the video source. However, it is also possible in individual cases and wins within the scope of the invention that the packet fragmentation takes place in the playback device, for example in the browser. This can be done at the script level, ie using a browser-supported program module. Common is Java script. This type of program control with Java script is common for a variety of applications and state of the art. This program control occurs under browser-controlled environments and does not allow direct hardware access.
In Weiterbildung der Erfindung kann vorgesehen sein, dass die Paketfragmente in dem fragmentierten MP4 Format (fMP4) vorliegen. Nach diesem Format ist ein Initialisierungssegment vorgesehen, an das sich eine sich wiederholende Gruppe aus einem Fragment- Header (moof) und einem Fragment- Datensegment (mdat) anschließen. In a development of the invention, it can be provided that the packet fragments are present in the fragmented MP4 format (fMP4). In this format, an initialization segment is provided, followed by a repeating group of a fragment header (moof) and a fragment data segment (mdat).
Weitere Merkmale, Einzelheiten und Vorzüge ergeben sich aus der folgenden Other features, details and benefits will be apparent from the following
Beschreibung eines bevorzugten Ausführungsbeispiels sowie anhand der Zeichnung. Hierbei zeigen: Description of a preferred embodiment and with reference to the drawing. Hereby show:
Figur 1 eine schematische Übersicht der verschiedenen Stufen der Erfindung; Figur 2 eine schematische Darstellung eines aus 5 Fragmenten bestehenden  Figure 1 is a schematic overview of the various stages of the invention; Figure 2 is a schematic representation of one consisting of 5 fragments
Streams;  streams;
Figur 3 ein Ablaufdiagramm eine Verarbeitungseinheit zum Verarbeiten des ankommenden Streams;  Fig. 3 is a flowchart showing a processing unit for processing the incoming stream;
Figur 4 ein Ablaufdiagramm der Verarbeitung in der in Figur 1 erwähnten FIG. 4 shows a flowchart of the processing in the one mentioned in FIG
Paketierungseinheit;  packet assembling unit;
Figur 5 ein übergeordnetes Diagramm. Figure 5 is a parent diagram.
Die Figur 1 zeigt in stark vereinfachter schematischer Form den Aufbau eines FIG. 1 shows, in a highly simplified schematic form, the structure of a
Übertragungssystems, auf dem das von der Erfindung vorgeschlagene Verfahren abläuft. Das Videosignal wird von einer Videosignalquelle 1 , beispielsweise einer Videokamera, erzeugt. Die Videosignalquelle 1 ist über eine Übertragungsstrecke 2 mit einer Paketierungseinnchtung 3 verbunden. Bei dieser Paketierungseinnchtung 3 kann es sich beispielsweise um einen Server handeln. Über die Übertragungsstrecke 2 wird das Signal der Videoquelle 1 zu der Paketierungseinnchtung übertragen. In der Paketierungseinnchtung 3 wird das Videosignal in Pakete fragmentiert, was im Folgenden noch näher erläutert wird. Die Paketierungseinrichtung 3 ist über eine weitere Übertragungsstrecke bzw. einen Kanal 4 mit einer Wiedergabeeinrichtung 5 verbunden, auf der ein Benutzer das sehen kann, was die Quelle sendet. Transmission system on which the proposed method of the invention proceeds. The video signal is generated by a video signal source 1, for example a video camera. The video signal source 1 is connected via a transmission path 2 with a Paketierungseinnchtung 3. This Paketierungseinnchtung 3 may be, for example, a server. Via the transmission link 2, the signal of the video source 1 is transmitted to the Paketierungseignchtung. In Paketierung 3 3 the video signal is fragmented into packets, which in the The following will be explained in more detail. The packetizer 3 is connected via a further transmission path or channel 4 to a display device 5 on which a user can see what the source is transmitting.
Bei dem Kanal 4 kann es sich um einen kontinuierlichen Kanal mit Hin-und Channel 4 may be a continuous channel with back and forth
Rücksendedaten handeln. Es kann sich aber auch um einen statischen Kanal handeln, der nur in der Richtung vom Server 3 zu der Wiedergabeeinrichtung 5 arbeitet, ohne dass es einen Rückkanal gibt. Trade return data. However, it can also be a static channel, which only works in the direction from the server 3 to the reproduction device 5, without there being a return channel.
In der Paketierungseinrichtung 3 werden Anpassungen des ankommenden In the packaging device 3 are adaptations of the incoming
Datenstroms durchgeführt, nämlich zum einen eine Paketierung und Segmentierung des Einkommen Datenstroms und zum anderen eine Anpassung des Datenstroms an ein für die Wiedergabeeinrichtung 5 passendes Format. Data stream carried out, namely on the one hand, a packaging and segmentation of the income data stream and on the other an adaptation of the data stream to a suitable format for the playback device 5 format.
In Figur 2 ist beispielhaft der Datenstrom anhand des fMP4-Format.es dargestellt (Stand der Technik). Daraus ergibt sich, dass der Stream in einer standardkompatiblen Form erfolgt. Der Stream beginnt mit einer ftyp- Box, gefolgt von einer moov- Box. Daran schließt sich dann eine kontinuierliche Folge von sich FIG. 2 shows, by way of example, the data stream on the basis of the fMP4 format (state of the art). As a result, the stream is in a standard-compliant form. The stream starts with a ftyp box followed by a moov box. This is followed by a continuous sequence
abwechselnden Metadaten- Boxen moof und Mediadaten- Boxen mdat an. alternating metadata boxes moof and media data boxes mdat.
Jedes Fragment besteht aus einer moof und einer mdat- Box. Moof enthält Each fragment consists of a moof and a mdat box. Moof contains
Informationen über die Anzahl der Video-und Audioframes in dem Paket, über die zeitliche Position oder Dauer der Video-und Audioframes, über die Bytegröße der Video-und Audioframes sowie über die Byteposition der Video und Audioframes. In der mdat-Box sind die eigentlichen Video- und Audiodaten enthalten. Information about the number of video and audio frames in the package, the timing or duration of the video and audio frames, the byte size of the video and audio frames, and the byte position of the video and audio frames. The mdat box contains the actual video and audio data.
Da ein kontinuierlicher Stream gesandt wird, wird nur ein Request erfordert. Since a continuous stream is sent, only one request is required.
In Figur 3 ist nun vereinfacht die Vorgehensweise bzw. der Ablauf des Verfahrens innerhalb einer Verarbeitungseinheit dargestellt, in der der Eingangsstrom verarbeitet wird. Das Verfahren beginnt im Block 1 1 , in dem der Stream ankommt. Auf den Block 1 1 folgt der Verarbeitungsblock 12, der auch als Demultiplexbiock bezeichnet werden kann. In diesem Block wird der ankommende Stream in Video-, Audio- und FIG. 3 shows in simplified form the procedure or the sequence of the method within a processing unit in which the input stream is processed. The process begins in block 1 1, where the stream arrives. Block 1 1 is followed by processing block 12, which may also be referred to as a demultiplex block. In this block, the incoming stream in video, audio and
Metadaten-Pakete aufgesplittet. In dem sich daran anschließenden Block 13 werden die Daten in die interne Split metadata packages. In the subsequent block 13, the data in the internal
Paketstruktur der Mediadaten umgewandelt. Zu diesen Mediadaten gehören der Pakettyp, nämlich Video, Audio oder Metadaten, Zeitinformationen, ein Package structure of the media data converted. These media data include the type of packet, namely video, audio or metadata, time information
Synchronisierungpunkt, Video und Audio Konfigurationsdaten, Datenpuffer und Datengröße. Sync point, video and audio configuration data, data buffer and data size.
In dem sich dann anschließenden Block 14 erfolgt die Ausgabe zu der die In the then subsequent block 14, the output is made to the
Paketierung entsprechend der Erfindung vornehmenden Einrichtung, die in Figur 4 näher erläutert wird. Packaging according to the invention admitting device, which is explained in more detail in Figure 4.
Aus dem Block 14 gelangen dann die Daten in den Abfrageblock 21 aus Figur 4. Dort wird von den ankommenden Daten abgefragt, ob es sich um Konfigurationsdaten handelt. Wenn es sich tatsächlich um Konfigurationsdaten handelt, werden diese in Block 22 gespeichert. From the block 14 then enter the data in the query block 21 of Figure 4. There is queried from the incoming data, whether it is configuration data. If it is actually configuration data, it will be stored in block 22.
Falls es sich nicht um Konfigurationsdaten handelt, geht der Ablauf zum Block 23, wo abgefragt wird, ob es sich um Metadaten handelt. Falls ja, werden diese im Block 24 abgespeichert. Falls nein, geht der Ablauf zum Block 25 weiter, wo abgefragt wird, ob die abgespeicherten Konfigurationsdaten verfügbar sind. Falls Sie If it is not configuration data, flow proceeds to block 23 where it is queried if it is metadata. If so, they are stored in block 24. If not, the flow proceeds to block 25, where it is queried whether the stored configuration data is available. If you are
Konfigurationsdaten als Ergebnis der Abfrage in Block 25 nicht gespeichert wurden, wird im Block 26 das Datenpaket verworfen. Configuration data was not stored as a result of the query in block 25, the data packet is discarded in block 26.
In dem sich bei positiver Abfrage anschließenden Block 27 wird überprüft, ob in diesem Paket ein Keyframe enthalten ist oder bereits ein Keyframe empfangen wurde. Falls nein, wird im Block 28 das Datenpaket verworfen. In block 27 following a positive query, it is checked whether a keyframe is contained in this packet or whether a keyframe has already been received. If not, in block 28 the data packet is discarded.
In dem sich bei positiver Abfrage anschließenden Block 29 erfolgt eine Abfrage, ob es sich um ein Audiopaket handelt. Falls ja, wird das Audiopaket im Block 30 abgespeichert. In the block 29 following a positive query, a query is made as to whether it is an audio packet. If so, the audio packet is stored in block 30.
In dem sich anschließenden Block 31 erfolgt eine Abfrage, ob es sich um ein In the subsequent block 31 is a query whether it is a
Videopaket handelt. Wenn ja, wird im anschließenden Block 33 abgefragt, ob es sich um den Start eines Videoframes handelt. Falls dies nicht der Fall ist, wird in dem Block 34 das Videopaket gespeichert. In dem bei positiver Abirage sich anschließenden Abirageblock 35 wird überprüft, ob die Zahl der Videoframes in dem Fragment gepuffert ist. Falls nein, wird im Block 36 das Videopaket abgespeichert. Video package is trading. If so, the next block 33 queries whether it is the start of a video frame. If this is not the case, the video packet is stored in block 34. In the abrage block 35 following on a positive ablation, it is checked whether the number of video frames in the fragment is buffered. If not, the video packet is stored in block 36.
Wenn es sich um das erste zu sendende Fragment handelt, was im Abfrageblock 37 festgestellt wird, wird im Block 38 die Initialisierung eines Headers ftyp und moov vorbereitet und durchgeführt, siehe die Angaben zu Figur 2. If it is the first fragment to be sent, which is determined in the query block 37, the initialization of a header ftyp and moov is prepared and carried out in block 38, see the information on FIG.
Anschließend wird, auch dann, wenn die Frage im Abfrageblock 37 negativ beantwortet wird, in Block 39 der Header eines Fragments moof vorbereitet und erstellt. Daran anschließend wird im Block 40 der Datenteil des Fragments erstellt, nämlich das Element mdat, das in Figur 2 erläutert wurde. Subsequently, even if the question is answered negatively in the query block 37, in block 39, the header of a fragment is prepared and created moof. Subsequently, in block 40, the data part of the fragment is created, namely the element mdat, which was explained in FIG.
In Block 40b wird das aktuelle Videopaket abgespeichert. Block 40b stores the current video packet.
Wenn es sich um das erste zu sendende Fragment handelt, was im Abfrageblock 41 festgestellt wird, wird in Block 42 der Initialisierungs- Header, der Fragmentheader und die Fragmentdaten ausgegeben. If it is the first fragment to send, as determined in query block 41, block 42 outputs the initialization header, the fragment header, and the fragment data.
Falls es sich nicht um das erste zu sendende Fragment handelt, der Abfrageblock 41 also eine negative Antwort liefert, wird der Fragment Header und die Fragmentdaten im Block 43 ausgegeben. Mit der Ausgabe in Block 44 ist die Tätigkeit der If it is not the first fragment to be sent, that is, the query block 41 provides a negative response, the fragment header and the fragment data are output in block 43. With the output in block 44 is the activity of
Paketierungseinheit beendet. Packing unit finished.
Die Figur 5 zeigt nun nochmals in einer übergeordneten Darstellung die Struktur des Verfahrens, wie es von der Erfindung vorgeschlagen wird. Die Steuerung des Streams geschieht so, dass am Beginn„Quelle" steht, der den Datenstrom FIG. 5 shows again in a superordinate representation the structure of the method as proposed by the invention. The control of the stream is done in such a way that at the beginning there is "source", which is the data stream
bereitstellt. Die in dem Stream enthaltenen Video-, Audio- und Metadaten werden entpackt und über die Verbindung 52 an die Paketierung bzw. Multiplexer- Komponente 53 weitergeleitet. Die Multiplexer Komponente 53 macht das, was in Figur 4 im Einzelnen erläutert wurde. In dieser Multiplexer Komponente 53 wird in ein HTMLS fähiges Filestream- Format erzeugt. Dabei kann es sich beispielsweise um fMP4 für Chrome, Firefox oder IE 11 handeln. Für Safari US X und iOS wird das Format m3u8/ts(HLS) bevorzugt. Anschließend erfolgt die Weiterleitung über die Verbindung 54 zu der Outputgruppe 55. Von dort erfolgt die Weiterleitung an die Outputs, die im Einzelnen nicht mehr dargestellt sind. provides. The video, audio and metadata contained in the stream are unpacked and forwarded via connection 52 to the packetizer or multiplexer component 53. The multiplexer component 53 does what was explained in detail in FIG. In this multiplexer component 53 is generated in an HTMLS capable Filestream format. For example, it can be fMP4 for Chrome, Firefox, or IE 11. For Safari US X and iOS it will Format m3u8 / ts (HLS) preferred. Subsequently, the forwarding takes place via the connection 54 to the output group 55. From there, the forwarding takes place to the outputs, which are no longer shown in detail.
Die gesamte End-to-End Latenz ist die Summe aus der Netzwerktransport- Latenz, der formatbedingten Latenzen und der Latenz durch Buffern im Wiedergabegerät. Total end-to-end latency is the sum of network transport latency, format-related latencies, and buffers latency in the playback device.
Die Netzwerktransportlatenzen setzen sich zusammen aus der Übermittlung des Encoders an den Server, die Weitergabe von dem Server an die Paketierungseinheit Player/T ransmux Server (53 in Figur 5) und die Weitergabe von dort an die The network transport latencies are made up of the transmission of the encoder to the server, the transfer from the server to the packaging unit Player / Transmux Server (53 in FIG. 5) and the transfer therefrom to the server
Wiedergabeeinrichtung. Reproduction device.
Durch Gruppierungen bedingte zeitliche Abhängigkeiten bei der Auslieferung eines Streams führen zu einer zusätzlichen Latenz. Der Beginn eines Segments oder Fragments kann nicht ausgeliefert werden, bevor alle enthaltenen Samples empfangen wurden. Die zusätzliche Latenz beträgt bei der fMP4 Formatierung der Länge eines fMP4 Fragments. Bei den bisher verwendeten Methoden enthält ein Fragment ein oder mehrere vollständige GOPs (Group of pictures, Bildgruppe). Die minimale Latenz bei den bekannten Verfahren entspricht damit der GOP Länge. Durch das von der Erfindung vorgeschlagene Verfahren einer Fragmentierung pro Frame verkürzt sich die formatbedingte Latenz auf die Framelänge. Grouping-related timing dependencies on the delivery of a stream lead to additional latency. The beginning of a segment or fragment can not be delivered until all contained samples have been received. The additional latency for fMP4 formatting is the length of a fMP4 fragment. In the methods used so far, a fragment contains one or more complete GOPs (group of pictures). The minimum latency in the known methods thus corresponds to the GOP length. The method of fragmentation per frame proposed by the invention shortens the format-related latency on the frame length.
Für die Segmentierung und Fragmentierung kann auch das HLS-Format anstatt fMP4 verwendet werden. Bei der Verwendung des HLS-Formats beträgt im Stand der Technik die formatbedingte zusätzliche Latenz Länge mal Anzahl der HLS Segmente, zum Beispiel 3 * 3 Sekunden = 9 Sekunden. Durch die Maßnahmen nach der Erfindung enthält die HLS Playlist nur ein Segment mit einer kurzen nominellen Spieldauer (m3u8 Tags). For segmentation and fragmentation, the HLS format can also be used instead of fMP4. When using the HLS format, in the prior art the format-related additional latency is length times the number of HLS segments, for example 3 * 3 seconds = 9 seconds. Due to the measures according to the invention, the HLS playlist contains only one segment with a short nominal playing time (m3u8 tags).
Der Puffer in der Wiedergabeeinrichtung entspricht nach Stand der Technik mindestens einer Segmentlänge, was auch zu einer Latenz führen kann. In Weiterbildung der Erfindung kann vorgesehen sein, die nominelle Spieldauer der Segmente auf geringe Werte zu setzen. Dies wird durch Anpassung durch die Einrichtung im fMP4 Header und/oder in der HLS-Playlist kontrolliert. The buffer in the display device according to the prior art corresponds to at least one segment length, which can also lead to a latency. In a development of the invention, it may be provided to set the nominal playing time of the segments to low values. This is controlled by customization by the device in the fMP4 header and / or in the HLS playlist.
Die Einrichtung überwacht und steuert weiterhin den Puffer der Wiedergabeeinheit. The device also monitors and controls the buffer of the playback unit.
Im Stand der Technik wird ein einem GOP entsprechendes Segment bzw. Fragment auf Anforderung an den Player übermittelt, der dieses als für sich alleine In the prior art, a segment or fragment corresponding to a GOP is transmitted on request to the player, who considers this alone
abspielbares Segment ansieht. Nach dem Abspielen des Segments fordert der Player ein neues Segment an. Dieses Verfahren hat technische Grenzen in der Mindestlänge der GOP und den Zugriffs- und Anforderungszeiten zwischen den Einheiten. playable segment views. After playing the segment, the player requests a new segment. This method has technical limitations in the minimum length of the GOP and the access and request times between the units.
Erfindungsgemäß wird die GOP-Grenze aufgehoben. Viele kleine Frames werden als Datenstrom übermittelt und empfangen. According to the invention, the GOP limit is canceled. Many small frames are transmitted and received as a data stream.
In Weiterbildung der Erfindung kann vorgesehen sein, dass Zeitinformationen (Zeitstempel, Zeitdauer, Spielzeiten) geändert werden. In a development of the invention, it may be provided that time information (time stamp, duration, seasons) is changed.
In Weiterbildung der Erfindung kann vorgesehen sein, dass Audio-Pakete In development of the invention can be provided that audio packets
gemeinsam oder getrennt von Videopaketen übertragen werden. transmitted together or separately from video packets.
In Weiterbildung der Erfindung kann vorgesehen sein, dass Pakete ausgelassen oder hinzugefügt werden. In development of the invention can be provided that packets are omitted or added.

Claims

Patentansprüche: claims:
1 . Verfahren zur Übertragung von Videosignalen von einer Videosignalquelle (1 ) zu einer Wiedergabeeinrichtung (5), mit folgenden Verfahrensschritten: 1 . Method for transmitting video signals from a video signal source (1) to a display device (5), comprising the following method steps:
das Signal wird von der Videosignalquelle (1 ) in einem Stream ausgegeben,  the signal is output from the video signal source (1) in a stream,
das als Stream vorliegende Signal wird entsprechend einem bekannten Format in Pakete fragmentiert,  the streamed signal is fragmented into packets according to a known format,
wobei die Paketgröße mindestens einem Videobild mit zugehörigen Audioinformationen entspricht,  wherein the packet size corresponds to at least one video image with associated audio information,
die Pakete werden ohne zeitlichen Abstand an die  the packages are sent to the
Wiedergabeeinrichtung (5) übermittelt,  Reproducing device (5),
der Inhalt der Pakete wird mithilfe der Wiedergabeeinrichtung (5) angezeigt.  the contents of the packets are displayed using the playback device (5).
2. Verfahren nach Anspruch 1 , bei dem die Paketfragmentierung bei der 2. The method of claim 1, wherein the packet fragmentation at the
Videoquelle (1 ) erfolgt.  Video source (1) takes place.
3. Verfahren nach Anspruch 1 , bei dem die Paketfragmentierung mithilfe eines von der Videoquelle (1 ) getrennten Servers (3) erfolgt. 3. The method of claim 1, wherein the packet fragmentation using a separate from the video source (1) server (3).
4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die 4. The method according to any one of the preceding claims, wherein the
Paketfragmentierung in der Wiedergabeeinrichtung (5) erfolgt.  Package fragmentation in the playback device (5) takes place.
5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem jedes Paket mit einem Zeitstempel versehen wird. 5. The method according to any one of the preceding claims, wherein each packet is provided with a time stamp.
6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem bei einem für die Wiedergabeeinrichtung inkompatiblen Format des von der Signalquelle (1 ) gesendeten Streams dieser durch die Paketierungseinheit in ein von der Wiedergabeeinrichtung (5) unterstütztes Format umgewandelt wird. 6. The method according to any one of the preceding claims, wherein in a format incompatible for the playback device of the signal source (1) streams this is converted by the packaging unit in one of the playback device (5) supported format.
7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die 7. The method according to any one of the preceding claims, wherein the
Zeitstempel der einkommenden Echtzeitdaten an die für die korrekte  Timestamp of the incoming real-time data to that for the correct one
Wiedergabe erforderlichen Maße angepasst werden.  Play required dimensions to be adjusted.
8. Verfahren nach einem der vorhergehenden Ansprüche, bei denen die 8. The method according to any one of the preceding claims, wherein the
Fragmentierung unabhängig von Keyframes und GOP-Länge ist.  Fragmentation is independent of keyframes and GOP length.
9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die 9. The method according to any one of the preceding claims, wherein the
Paketfragmentierung in dem fragmentierten MP4 Format vorliegt.  Packet fragmentation in fragmented MP4 format.
10. Verfahren nach einem der Ansprüche 1 bis 8, bei dem die 10. The method according to any one of claims 1 to 8, wherein the
Paketfragmentierung in dem HLS Format vorliegt.  Package fragmentation in the HLS format is present.
1 1. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die 1 1. A method according to any one of the preceding claims, wherein the
Zeitinformationen (Zeitstempel, Zeitdauer, Spielzeiten) geändert werden.  Time information (time stamp, time duration, game times) can be changed.
12. Verfahren nach einem der vorhergehenden Ansprüche, bei dem Audio-Pakete gemeinsam oder getrennt von Videopaketen übertragen werden. 12. The method according to any one of the preceding claims, wherein the audio packets are transmitted together or separately from video packets.
13. Verfahren nach einem der vorhergehenden Ansprüche, bei dem Pakete 13. The method according to any one of the preceding claims, wherein the packages
ausgelassen oder hinzugefügt werden.  omitted or added.
EP17761866.7A 2016-09-05 2017-09-04 Method for transmitting real-time-based digital video signals in networks Pending EP3507987A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016116555.7A DE102016116555A1 (en) 2016-09-05 2016-09-05 Method for transmitting real-time-based digital video signals in networks
PCT/EP2017/072115 WO2018042036A1 (en) 2016-09-05 2017-09-04 Method for transmitting real-time-based digital video signals in networks

Publications (1)

Publication Number Publication Date
EP3507987A1 true EP3507987A1 (en) 2019-07-10

Family

ID=59791066

Family Applications (1)

Application Number Title Priority Date Filing Date
EP17761866.7A Pending EP3507987A1 (en) 2016-09-05 2017-09-04 Method for transmitting real-time-based digital video signals in networks

Country Status (4)

Country Link
US (1) US20190191195A1 (en)
EP (1) EP3507987A1 (en)
DE (1) DE102016116555A1 (en)
WO (1) WO2018042036A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115119009B (en) * 2022-06-29 2023-09-01 北京奇艺世纪科技有限公司 Video alignment method, video encoding device and storage medium

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8832772B2 (en) * 2002-12-10 2014-09-09 Ol2, Inc. System for combining recorded application state with application streaming interactive video output
US8893207B2 (en) * 2002-12-10 2014-11-18 Ol2, Inc. System and method for compressing streaming interactive video
US9003461B2 (en) * 2002-12-10 2015-04-07 Ol2, Inc. Streaming interactive video integrated with recorded video segments
EP2417743B1 (en) * 2009-04-09 2019-06-05 Telefonaktiebolaget LM Ericsson (publ) Methods and arrangements for creating and handling media files
US9237387B2 (en) * 2009-10-06 2016-01-12 Microsoft Technology Licensing, Llc Low latency cacheable media streaming
US9032466B2 (en) * 2010-01-13 2015-05-12 Qualcomm Incorporated Optimized delivery of interactivity event assets in a mobile broadcast communication system
US20110276662A1 (en) 2010-05-07 2011-11-10 Samsung Electronics Co., Ltd. Method of constructing multimedia streaming file format, and method and apparatus for servicing multimedia streaming using the multimedia streaming file format
US20110282965A1 (en) * 2010-05-17 2011-11-17 Ifan Media Corporation Systems and methods for providing interactivity between a host and a user
US8464304B2 (en) * 2011-01-25 2013-06-11 Youtoo Technologies, LLC Content creation and distribution system
US11025962B2 (en) * 2011-02-28 2021-06-01 Adobe Inc. System and method for low-latency content streaming
US8510555B2 (en) * 2011-04-27 2013-08-13 Morega Systems Inc Streaming video server with virtual file system and methods for use therewith
US20140140417A1 (en) 2012-11-16 2014-05-22 Gary K. Shaffer System and method for providing alignment of multiple transcoders for adaptive bitrate streaming in a network environment
US20140198839A1 (en) * 2013-01-17 2014-07-17 Nvidia Corporation Low latency sub-frame level video decoding
JP2015023575A (en) * 2013-07-19 2015-02-02 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Transmission method, reception method, transmission device and reception device
US8955027B1 (en) * 2013-11-21 2015-02-10 Google Inc. Transcoding media streams using subchunking
CN105100954B (en) * 2014-05-07 2018-05-29 朱达欣 A kind of alternate acknowledge system and method based on internet communication and live streaming media
EP3241354A4 (en) * 2014-12-31 2018-10-10 Imagine Communications Corp. Fragmented video transcoding systems and methods
US10264044B2 (en) * 2016-08-29 2019-04-16 Comcast Cable Communications, Llc Apparatus and method for sending content as chunks of data to a user device via a network

Also Published As

Publication number Publication date
US20190191195A1 (en) 2019-06-20
WO2018042036A1 (en) 2018-03-08
DE102016116555A1 (en) 2018-03-08

Similar Documents

Publication Publication Date Title
DE69814642T2 (en) PROCESSING CODED VIDEO DATA
DE69736706T2 (en) METHOD AND DEVICE FOR SPLITTING COMPRESSED DATA FLOWS
DE112012002526B4 (en) Media content transmission method and transmission apparatus using the same
DE60207381T2 (en) METHOD AND SYSTEM FOR BUFFING STREAM DATA
DE112011101911T5 (en) Fragmented file structure for the output of live media streams
DE112012002159T5 (en) Context-aware client buffer thresholds
DE112012001770T5 (en) Real-time processing capability based quality adjustment
US20150201197A1 (en) Streaming multiple encodings with virtual stream identifiers
US20200260132A1 (en) Video distribution synchronization
DE112006002677T5 (en) Method and apparatus for RTP output streaming using complementary directional files
DE112011101908T5 (en) Quality adjustment using a fragmented media stream
DE202015009983U1 (en) Receiving device, display device and transmitting device
DE112011103333T5 (en) Media convergence platform
DE112013001136T5 (en) Efficient demarcation and distribution of media segments
DE112011102879T5 (en) Media rights management on multiple devices
DE102011078021A1 (en) Apparatus and method for switching real-time media streams
DE112011101004T5 (en) Media convergence platform
DE112015004179T5 (en) Router Fabric
CN114501052B (en) Live broadcast data processing method, cloud platform, computer equipment and storage medium
EP2127382B1 (en) Method and system for switching between programme channels without interference in a video environment
EP3507987A1 (en) Method for transmitting real-time-based digital video signals in networks
DE102005052207A1 (en) Multimedia data source to sink transmission procedure can change buffer forwarding to use ID for trick mode operation
Köhnen et al. A DVB/IP streaming testbed for hybrid digital media content synchronization
DE102005046382A1 (en) Multimedia-data streams e.g. video-streams, transmitting method, for e.g. TV set, involves recording position of reference information for stored streams, selecting one stream from position and sending stream to communication device
DE102018108784B4 (en) Method for sending a digital video signal to a receiving device, processing unit and computer program product

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20190401

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20200806

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS