EP3278562A1 - System und verfahren zum übertragen von videodaten von einem server zu einem client - Google Patents

System und verfahren zum übertragen von videodaten von einem server zu einem client

Info

Publication number
EP3278562A1
EP3278562A1 EP16723702.3A EP16723702A EP3278562A1 EP 3278562 A1 EP3278562 A1 EP 3278562A1 EP 16723702 A EP16723702 A EP 16723702A EP 3278562 A1 EP3278562 A1 EP 3278562A1
Authority
EP
European Patent Office
Prior art keywords
video data
quality
client
server
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP16723702.3A
Other languages
English (en)
French (fr)
Inventor
Norbert Oertel
Andreas Hutter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of EP3278562A1 publication Critical patent/EP3278562A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection

Definitions

  • the present invention relates to a system for transmitting video data from a server to a client, in particular medical video data, which are transmitted for diagnostic purposes from a medical environment to an external client. Furthermore, the present invention relates to a corresponding method for transmitting video data from a server to a client.
  • an image-based remote collaboration application is desirable. It is important to make safe decisions, taking into account the burden on the patient and the costs. It should be noted that it takes time and money to get experts, such as pathologists, for the microscopic determination of tissue types in the operating room. The same applies if tissue samples are sent to a laboratory for identification. In order to enable a remote diagnosis by an expert, it is necessary to transfer recordings, for example video data, to the latter from the medical field. However, to enable a reliable diagnosis, this video data must be available quickly and in a high quality to the expert. However, in order to ensure a fast transmission, lossy compression methods are often used which can not ensure sufficient quality.
  • an object of the present invention is to enable a high-quality delivery of video data quickly. Accordingly, a system for transmitting video data from a server to a client is proposed.
  • the system comprises a first coding unit adapted to livestream video data from the first quality server to the client, and a second coding unit adapted to supply the second quality video data in a memory unit and, in response to a request signal from the client, transfer the encoded video data in the second quality from the storage unit to the client, the second quality being higher than the first quality.
  • the respective unit for example coding unit, can be implemented in terms of hardware and / or software technology.
  • the respective unit may be designed as a device or as part of a device, for example as a computer or as a microprocessor or as a control computer of a vehicle.
  • the respective unit may be designed as a computer program product, as a function, as a routine, as part of a program code or as an executable object.
  • the proposed system makes it possible to send video data to leashed and / or time-delayed experts for diagnosis.
  • a livestream transmission is ensured by the first coding unit.
  • This can be done in a low quality (first quality) of the video data, eg using compression methods such as H.264 or HEVC.
  • first quality eg using compression methods such as H.264 or HEVC.
  • second quality high quality
  • the transmission of the video data in the high quality can also be done only for a certain part of the video data, such as particularly interesting sequences.
  • the details can be encoded in a URL, for example, in the query with and may include, for example, other information such as what video stream is desired, in the presence of multiple video streams, or what period of video data is needed.
  • image information i. Video data from a medical field, e.g. an operating room, online, i. live and with a short delay to a client, such as a remote expert, are provided.
  • a medical field e.g. an operating room
  • online i. live and with a short delay to a client, such as a remote expert
  • the second coding unit may store the video data in the second quality in the storage unit, which may include, for example, a database or a buffer memory, e.g. a ring buffer, can be. Since the video data in the second, higher or high quality, only on request to the client must be sent, so they can be coded in already
  • the coded video data in the second quality e.g. the requested portions or sequences of the video data are transmitted from the storage unit to the client. In this way, it can be responded to requests for past video recordings.
  • the video data in the second quality can be provided, for example, in sections. In this way, it is not necessary to transmit all the video data in the high quality, but only the requested sections, which are of interest to the external expert.
  • the server can be understood in this context as the server-side elements, ie all elements that are needed in connection with the transmission of the video data from the medical field out.
  • an external device As a client, you can sem context an external device are understood, are transferred to / from the server video data for display. This external device can be used by an expert.
  • video data is understood in this context, a signal containing video data.
  • the first quality indicates a first resolution of the video data and / or first encoding parameters of the video data
  • the second quality indicates a second resolution of the video data and / or second encoding parameters
  • the video data may be relatively compressed to allow for fast transmission.
  • a limited communication bandwidth i. low bandwidth of the network over which the video data is sent from the server to the client, a fast transmission are ensured.
  • the video data may be processed by the client in response to a request signal. if the client requests it, be provided in the second higher quality. In this case, the associated metadata and event information can be made available to the video data.
  • a resolution of the video data can be understood, wherein the second resolution is higher than the first resolution.
  • the resolution may be a spatial resolution and / or a temporal resolution, i. the refresh rate, its.
  • the quality can also be determined by different coding parameters, e.g. the quantization, to be determined.
  • the stored coded video data includes an index for accessing the contents of the video data.
  • the video data may include an index. For example, this index may index the portions of the video data using the event information or temporally.
  • the first coding unit is configured to receive the video data and to encode it in the first quality.
  • compression methods such as e.g. H.264 / AVC or H.265 / HEVC. In this way, the data volume of the video data can be reduced.
  • the first coding unit is adapted to add metadata to the video data when encoding the video data, the metadata containing information about the content of the video data.
  • Metadata in this context may be information resulting, for example, from automated analysis of the video data.
  • the video data may already be on the server side, i. in the medical field such as an operating room, are already analyzed automatically and this analysis information is integrated into the transmitted video data.
  • the metadata may be transmitted in a separate stream, embedded in the video stream at syntactic level, e.g. as H.264 or H.265 SEI messages, and / or as an overlay (overlay) to be firmly linked to the video content prior to encoding.
  • the first coding unit is set up to add event information to the video data when coding the video data.
  • the event information can also be transmitted in a separate stream, be embedded in the video stream at the syntactic level, eg as H.264 or H.265 SEI messages, and / or as an overlay (overlay) are firmly linked to the video content before encoding ,
  • event information may be information that indicates a server-side event. Such events can be deliberately caused on the server side to integrate them into the video data.
  • the event information indicates particular sequences in the video data.
  • intentional events may indicate certain sequences in the video data.
  • the second coding unit is configured to receive the video data, encode it in the second quality, and to store it in the memory unit, and / or to receive and store the metadata and / or event information in the memory unit.
  • the metadata and event information are not burned into the footage as an overlay prior to encoding. If the video material, i. the video data is transmitted to the client on request, then this information can be transmitted on request.
  • Decoding unit of the client can then display this information in a suitable manner, for example, after decoding as overlay on the video represent.
  • the second encoding can also perform a compression method, in each case a higher quality of the video data is achieved.
  • the system comprises a first decoding unit adapted to decode and display the video data of the first quality on a display device, and a second decoding unit configured to retrieve the video data in the second quality to decode and display on the display device.
  • the video data can be decoded by decoding units and displayed on a display device.
  • the second decoding unit only becomes active if the video data has been requested in the second quality and transmitted to the second decoding unit.
  • the memory unit is configured to transmit the video data in the second quality based on an available bandwidth to the second decoding unit.
  • the video data is transmitted in the second quality in consideration of the available bandwidth.
  • the video data in the second quality for example, be transmitted if a sufficient bandwidth is available.
  • the transmission of the video data in the first quality, where low latency is important is not affected.
  • On the server side an available bandwidth can be determined.
  • the second decoding unit may retrieve a portion of the video data in the second quality, for example based on a start and end time.
  • the available bandwidth at which this data is sent from the server to the client can then be calculated on the server side from the total available bandwidth minus the bandwidth that is required for the livestream, ie the transmission of the video data in the first quality. uphold men.
  • the first quality could be further reduced to further reduce the bandwidth requirement and to provide more bandwidth for the transmission of the requested video data in the second quality.
  • the second decoding unit is set up to store the video data and / or the metadata and / or the event information in the second quality on the client side in a memory device.
  • this video data is available for replaying and displaying.
  • the data stored in the server-side storage unit and the client-side storage device may be archived, in whole or in part, in a Picture Archiving and Communication System (PACS).
  • PACS Picture Archiving and Communication System
  • This PACS system can also be cloud-based.
  • the second decoding unit is set up to display the video data in the second quality on the display device with superimposed information, the information being metadata and / or event information.
  • the second decoding unit when decoding the video data, may extract the metadata and / or event information possibly contained therein. When displayed on the display device, these may also be displayed in addition to the video data itself.
  • the system has a control unit which is set up to receive a user input in response to the displayed video data. catch and transmit the user input as a control signal to the server.
  • control signals may be sent to an actuator in a client-side operating room, i. by the external expert.
  • actuators may e.g. control a positioning of a microscope.
  • the system includes a mixing unit configured to mix a plurality of local video streams into a common local video stream and to provide the common local video stream as the video data to the first encoding unit.
  • the video data may include multiple video streams, for example, from different cameras combined by the mixing unit into a signal. When decoding, they can be separated again and displayed as separate images.
  • the necessary control signals for this can be given by measured values (eg instantaneous bandwidth between expert and operating room for controlling the encoder), or can be generated locally or remotely by a user interface. In the latter case, these signals are transmitted over the network.
  • Parts of the recording on the operating room and on the expert page can be archived in a PACS system.
  • This PACS system can also be cloud-based.
  • a, possibly cloud-based, relay can be used.
  • a method of transmitting video data from a server to a client comprises the steps of transmitting video data from the server of a first quality to the client as a livestream, and transmitting the video data in a second quality in response to a request signal from the client to the client, the second quality being higher than the first quality is.
  • a computer program product such as a computer program means may, for example, be used as a storage medium, e.g.
  • Fig. 1 shows a schematic block diagram of a first
  • Embodiment of a system for transmitting video data from a server to a client Embodiment of a system for transmitting video data from a server to a client
  • FIG. 2 is a schematic block diagram of the server side units of the system of FIG. 1 according to a second embodiment
  • FIG. 3 is a schematic block diagram of the client-side units of the system of FIG. 1 according to the second embodiment;
  • FIG. and Figure 4 shows a schematic flow diagram of a method of transmitting video data from a server to a client.
  • FIG. 1 shows a system 100 for transmitting video data from a server 1 to a client 2.
  • a mixing unit 12 is provided which, if present, can combine several video streams into a common video data signal.
  • the mixing unit 12 is optional.
  • the combined video data signal also called video data, is provided to a first encoding unit 10.
  • a second coding unit 11 receives the un-combined video streams.
  • the first coding unit 10 transmits the video data from the server 1 with a first quality to the client 2 via a network interface 30.
  • the video data in the first quality represent a livestream.
  • the video data in the first quality is received by a first decoding unit 20, decoded and displayed on a display device 22, e.g. a monitor.
  • the second coding unit 11 stores the video data in a second quality in a memory unit 13. From this, the video data can be transmitted from the client 2 to the client 2 in response to a request signal.
  • the second quality is higher than the first quality.
  • the video data in the second quality are received by a second decoding unit 21 on request, decoded and displayed on the display device 22.
  • the second decoding unit 21 may store this video data together with associated metadata and / or event information in a memory device 23 (see FIG. 3).
  • Figures 2 and 3 show another embodiment of the system 100, where Figure 2 illustrates the server-side portion and Figure 3 illustrates the client-side portion.
  • Several video streams 3, 4 as well as metadata 5 and event information 6 can be combined and provided to the first coding unit 10 and second coding unit 11, respectively.
  • the first coding unit 10 encodes and provides the video data 3, 4 together with the metadata 5 and the event information 6.
  • the metadata 5 and the event information 6 are also stored in the memory unit 13.
  • the server-side area 1 of the system 100 provides an application front-end 14, which is used for example for
  • the front-end 14 thus serves as a network layer between the first coding unit 10 and the memory unit 13 and the various interfaces 7, 8 and 9, which are explained below.
  • an interface 7 for the live stream an interface 8 for accessing the video data in the second quality, also referred to as recording access or memory access, and an interface 9 for the Control.
  • the interface 9 for the control serves to transmit control signals from the client 2 to the server 1 in order to respond to an analysis of the video data.
  • control signals for example, from the expert side in the operating room control of actuators, e.g. Positioning of the microscope to be performed.
  • These control signals can be generated on the client side 2 by the application controller 24.
  • 4 shows a method for transmitting video data from a server 1 to a client 2. The method comprises steps 401 and 402.
  • step 401 video data is transmitted from the server 1 with a first quality to the client 2 as a livestream.
  • step 402 the video data in a second quality in response to a request signal from the client 2 transmit the client 2, the second quality is higher than the first quality.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Endoscopes (AREA)

Abstract

Es wird ein System zum Übertragen von Videodaten von einem Server zu einem Client vorgeschlagen. Das System weist eine erste Codierungseinheit, die dazu eingerichtet ist, Videodaten von dem Server mit einer ersten Qualität an den Client als Livestream zu übertragen, und eine zweite Codierungseinheit auf, die dazu eingerichtet ist, die Videodaten in einer zweiten Qualität in einer Speichereinheit (13) zu speichern und, in Antwort auf ein Anforderungssignal von dem Client (2), die codierten Videodaten in der zweiten Qualität von der Speichereinheit (13) an den Client (2) zu übertragen, wobei die zweite Qualität höher als die erste Qualität ist. Durch das vorgeschlagene System ist es möglich, Videodaten aus einem medizinischen Umfeld, z.B. einem Operationssaal, über ein Netzwerk an einen externen Experten zu übertragen. Hierbei liegen die Videodaten als Livestream in niedriger Qualität vor und können zusätzlich in hoher Qualität auf Abfrage durch den Experten bereitgestellt werden. Des Weiteren wird ein Verfahren zum Übertragen von Videodaten von einem Server zu einem Client vorgeschlagen.

Description

Beschreibung
System und Verfahren zum Übertragen von Videodaten von einem Server zu einem Client
Die vorliegende Erfindung betrifft ein System zum Übertragen von Videodaten von einem Server zu einem Client, insbesondere von medizinischen Videodaten, die zu Diagnosezwecken aus einem medizinischen Umfeld an einen externen Client übertragen werden. Des Weiteren betrifft die vorliegende Erfindung ein entsprechendes Verfahren zum Übertragen von Videodaten von einem Server an einen Client.
Im medizinischen Bereich, z.B. bei Typisierung kanzerösen Ge- webes während einer Operation im Operationssaal mit Hilfe von Mikroskopie-Aufnahmen, ist eine bildbasierte Remote- Kollaborations-Anwendung wünschenswert. Es gilt dabei, sichere Entscheidungen unter Beachtung der Belastung des Patienten und der Kosten zu treffen. Hierbei ist zu beachten, dass es Zeit und Geld kostet, Experten, wie z.B. Pathologen, für die mikroskopische Bestimmung von Gewebstypen in den Operationssaal zu holen. Dasselbe gilt, wenn Gewebeproben zur Bestimmung in ein Labor eingeschickt werden. Um eine Remote-Diagnose durch einen Experten zu ermöglichen, ist es nötig, Aufnahmen, beispielweise Videodaten, an diesen aus dem medizinischen Bereich zu übertragen. Um jedoch eine zuverlässige Diagnose zu ermöglichen, müssen diese Videodaten schnell und in einer hohen Qualität beim Experten vorliegen. Um eine schnelle Übertragung zu gewährleisten, werden jedoch häufig verlustbehaftete Kompressionsverfahren eingesetzt, mit denen eine ausreichende Qualität nicht sichergestellt werden kann . Vor diesem Hintergrund besteht eine Aufgabe der vorliegenden Erfindung darin, eine schnelle Bereitstellung von Videodaten in hoher Qualität zu ermöglichen. Demgemäß wird ein System zum Übertragen von Videodaten von einem Server zu einem Client vorgeschlagen. Das System weist eine erste Codierungseinheit auf, die dazu eingerichtet ist, Videodaten von dem Server mit einer ersten Qualität an den Client als Livestream zu übertragen, und eine zweite Codierungseinheit auf, die dazu eingerichtet ist, die Videodaten in einer zweiten Qualität in einer Speichereinheit zu speichern und, in Antwort auf ein Anforderungssignal von dem Client, die codierten Videodaten in der zweiten Qualität von der Speichereinheit an den Client zu übertragen, wobei die zweite Qualität höher als die erste Qualität ist.
Die jeweilige Einheit, zum Beispiel Codierungseinheit, kann hardwaretechnisch und/oder auch softwaretechnisch implemen- tiert sein. Bei einer hardwaretechnischen Implementierung kann die jeweilige Einheit als Vorrichtung oder als Teil einer Vorrichtung, zum Beispiel als Computer oder als Mikroprozessor oder als Steuerrechner eines Fahrzeuges ausgebildet sein. Bei einer softwaretechnischen Implementierung kann die jeweilige Einheit als Computerprogrammprodukt, als eine Funktion, als eine Routine, als Teil eines Programmcodes oder als ausführbares Objekt ausgebildet sein.
Das vorgeschlagene System ermöglicht es, Videodaten an räum- lieh und/oder zeitlich entfernte Experten zur Diagnose zu senden. Durch die erste Codierungseinheit wird dabei eine Livestreamübertragung sichergestellt. Diese kann in einer niedrigen Qualität (erste Qualität) der Videodaten, z.B. unter Verwendung von Kompressionsverfahren wie z.B. H.264 oder HEVC, erfolgen. Zusätzlich kann, wenn dies angefordert wird, d.h. auf Abfrage zum Beispiel über eine http-Anfrage vom Client an den Server mit in einer URL codierten Details zum angeforderten Video, eine Übertragung der Videodaten in einer hohen Qualität (zweite Qualität) erfolgen. Die Übertragung der Videodaten in der hohen Qualität kann auch nur für einen bestimmten Teil der Videodaten erfolgen, wie beispielsweise besonders interessante Sequenzen. Die Details dazu können z.B. in einer URL codiert werden, die in der Abfrage mit übermittelt wird, und können z.B. weitere Informationen umfassen, wie beispielsweise welcher Videostrom, bei Vorhandensein von mehreren Videoströmen, gewünscht wird oder welcher Zeitraum der Videodaten benötigt wird.
Auf diese Weise können Bildinformationen, d.h. Videodaten, aus einem medizinischen Bereich bzw. Umfeld, z.B. einem Operationssaal, online, d.h. live und mit kurzer Verzögerung an einen Client, beispielsweise einem entfernten Experten, zur Verfügung gestellt werden. Dieser kann dadurch interaktiv
(steuernd) mit dem Operator bzw. den mikroskopischen Geräten, d.h. Vorrichtungen oder ähnlichem aus dem medizinischen Bereich, in Kontakt sein kann. Die zweite Codierungseinheit kann die Videodaten in der zweiten Qualität in der Speichereinheit speichern, die beispielsweise eine Datenbank oder ein Pufferspeicher, z.B. ein Ringspeicher, sein kann. Da die Videodaten in der zweiten, höheren bzw. hohen Qualität, nur auf Abfrage an den Client gesen- det werden müssen, können diese also in bereits codierter
Form gespeichert werden. In Antwort auf das Anforderungssignal von dem Client können dann die codierten Videodaten in der zweiten Qualität, z.B. die angeforderten Abschnitte bzw. Sequenzen der Videodaten, von der Speichereinheit an den Client übertragen werden. Auf diese Weise kann auf Anforderungen zu zeitlich zurückliegenden Videoaufnahmen reagiert werden kann.
Die Videodaten in der zweiten Qualität können beispielsweise in Abschnitten bereitgestellt werden. Auf diese Weise ist es nicht erforderlich, alle Videodaten in der hohen Qualität zu übertragen, sondern lediglich die angeforderten Abschnitte, die für den externen Experten von Interesse sind. Der Server kann in diesem Zusammenhang als die serverseitigen Elemente verstanden werden, d.h. alle Elemente, die in Zusammenhang mit der Übertragung der Videodaten aus dem medizinischen Bereich heraus benötigt werden. Als Client kann in die- sem Zusammenhang eine externe Vorrichtung verstanden werden, an den/die vom Server Videodaten zur Anzeige übertragen werden. Diese externe Vorrichtung kann durch einen Experten verwendet werden.
Als Videodaten wird in diesem Zusammenhang ein Signal verstanden, das Videodaten enthält.
Gemäß einer Ausführungsform gibt die erste Qualität eine ers- te Auflösung der Videodaten und/oder erste Codierparameter der Videodaten an und die zweite Qualität gibt eine zweite Auflösung der Videodaten und/oder zweite Codierparameter an.
In der ersten Qualität können die Videodaten relativ stark komprimiert sein, um eine schnelle Übertragung zu ermöglichen. So kann auch bei einer begrenzten Kommunikationsbandbreite, d.h. einer geringen Bandbreite des Netzwerks, über das die Videodaten von dem Server an den Client gesendet werden, eine schnelle Übertragung gewährleistet werden.
Da der Experte jedoch auch zeitnah und schnell selektierbare Bildinformationen in hoher (diagnosefähiger) Qualität benötigt, können die Videodaten in Antwort auf ein Anforderungs- signal von dem Client, d.h. wenn der Client dies anfordert, in der zweiten höheren Qualität bereitgestellt werden. Dabei können zu den Videodaten auch die damit verbundenen Metadaten und Ereignisinformationen zur Verfügung gestellt werden.
Unter Qualität kann beispielsweise eine Auflösung der Video- daten verstanden werden, wobei die zweite Auflösung höher als die erste Auflösung ist. Die Auflösung kann eine Ortsauflö- sung und/oder eine zeitliche Auflösung, d.h. die Bildwiederholrate, sein. Die Qualität kann auch durch unterschiedliche Codierparameter, z.B. die Quantisierung, bestimmt werden.
Gemäß einer weiteren Ausführungsform enthalten die gespeicherten codierten Videodaten einen Index zum Zugriff auf die Inhalte der Videodaten. Um den Zugriff auf bestimmte Abschnitte oder Sequenzen der Videodaten zu vereinfachen, können die Videodaten einen Index enthalten. Dieser Index kann die Abschnitte der Videodaten beispielsweise unter Verwendung der Ereignisinformationen oder zeitlich indizieren.
Gemäß einer weiteren Ausführungsform ist die erste Codierungseinheit dazu eingerichtet, die Videodaten zu empfangen und in der ersten Qualität zu codieren.
Zur Codierung der Videodaten in der ersten Qualität können Kompressionsverfahren wie z.B. H.264/AVC oder H.265/HEVC eingesetzt werden. Auf diese Weise kann die Datenmenge der Vi- deodaten reduziert werden.
Gemäß einer weiteren Ausführungsform ist die erste Codierungseinheit dazu eingerichtet, beim Codieren der Videodaten Metadaten zu den Videodaten hinzuzufügen, wobei die Metadaten Informationen über den Inhalt der Videodaten enthalten.
Metadaten können in diesem Zusammenhang Informationen sein, die beispielsweise aus automatisierten Analysen der Videodaten resultieren. Wenn es sich bei den Videodaten beispiels- weise um Mikroskopie- oder Makroskopie-Videobilder handelt, können diese bereits serverseitig, d.h. in dem medizinischen Bereich wie einem Operationssaal, bereits automatisiert analysiert werden und diese Analyseinformationen in die übertragenen Videodaten integriert werden. Die Metadaten können da- bei in einem separaten Strom übertragen werden, in den Videostrom auf syntaktischer Ebene eingebettet sein, z.B. als H.264 oder H.265 SEI Nachrichten, und/oder als Überlagerung (Overlay) fest mit dem Videoinhalt vor der Codierung verknüpft werden.
Gemäß einer weiteren Ausführungsform ist die erste Codierungseinheit dazu eingerichtet, beim Codieren der Videodaten Ereignisinformationen zu den Videodaten hinzuzufügen. Die Ereignisinformationen können dabei ebenfalls in einem separaten Strom übertragen werden, in den Videostrom auf syntaktischer Ebene eingebettet sein, z.B. als H.264 oder H.265 SEI Nachrichten, und/oder als Überlagerung (Overlay) fest mit dem Videoinhalt vor der Codierung verknüpft werden.
Ereignisinformationen können beispielsweise Informationen sein, die auf ein serverseitiges Ereignis hinweisen. Solche Ereignisse können serverseitig bewusst verursacht werden, um diese in die Videodaten zu integrieren.
Gemäß einer weiteren Ausführungsform weisen die Ereignisinformationen auf bestimmte Sequenzen in den Videodaten hin.
Durch absichtlich verursachte Ereignisse kann beispielsweise auf bestimmte Sequenzen in den Videodaten hingewiesen werden.
Gemäß einer weiteren Ausführungsform ist die zweite Codie- rungseinheit dazu eingerichtet, die Videodaten zu empfangen, in der zweiten Qualität zu codieren, und in der Speichereinheit zu speichern, und/oder die Metadaten und/oder Ereignisinformationen zu empfangen und in der Speichereinheit zu speichern .
Die Metadaten und Ereignisinformationen werden hierbei nicht als Überlagerung vor der Codierung in das Bildmaterial eingebrannt. Wenn das Videomaterial, d.h. die Videodaten, auf Anforderung an den Client übertragen wird, dann können diese Informationen auf Anforderung mit übertragen werden. Eine
Decodiereinheit des Clients kann diese Informationen dann in geeigneter Weise darstellen, z.B. nach Decodierung als Überlagerung über dem Video darstellen. Die zweite Codierung kann zwar ebenfalls ein Kompressionsverfahren durchführen, in jedem Fall wird jedoch eine höhere Qualität der Videodaten erreicht. Gemäß einer weiteren Ausführungsform weist das System eine erste Decodierungseinheit , die dazu eingerichtet ist, die Videodaten mit der ersten Qualität zu decodieren und auf einer Anzeigevorrichtung anzuzeigen, und eine zweite Decodierungs- einheit auf, die dazu eingerichtet ist, die Videodaten in der zweiten Qualität abzufragen, zu decodieren und auf der Anzeigevorrichtung anzuzeigen.
Auf der Clientseite können die Videodaten durch Decodierungs- einheiten decodiert und auf einer Anzeigevorrichtung dargestellt werden. Die zweite Decodierungseinheit wird hierbei nur aktiv, wenn die Videodaten in der zweiten Qualität angefordert und an die zweite Decodierungseinheit übertragen wurden .
Gemäß einer weiteren Ausführungsform ist die Speichereinheit dazu eingerichtet, die Videodaten in der zweiten Qualität basierend auf einer verfügbaren Bandbreite an die zweite Decodierungseinheit zu übertragen.
Gemäß dieser Ausführungsform werden die Videodaten in der zweiten Qualität unter Berücksichtigung der verfügbaren Bandbreite übertragen. Das bedeutet, dass die Videodaten in der zweiten Qualität beispielsweise dann übertragen werden, wenn eine ausreichende Bandbreite zur Verfügung steht. Auf diese Weise wird die Übertragung der Videodaten in der ersten Qualität, bei der eine niedrige Latenz wichtig ist, nicht beein- flusst . Hierbei kann serverseitig eine verfügbare Bandbreite ermittelt werden. Die zweite Decodiereinheit kann einen Abschnitt der Videodaten in der zweiten Qualität abrufen, beispielsweise anhand eines Start- und Endzeitpunkts. Die verfügbare Bandbreite, mit der diese Daten vom Server zum Client gesen- det werden, kann sich dann auf der Serverseite aus der insgesamt verfügbaren Bandbreite abzüglich der Bandbreite, die benötigt wird, um den Livestream, d.h. die Übertragung der Videodaten in der ersten Qualität, aufrechtzuerhalten, bestim- men. Bei der Übertragung der Videodaten in der ersten Qualität könnte die erste Qualität weiter reduziert werden, um den Bandbreitenbedarf weiter zu reduzieren und mehr Bandbreite für die Übertragung der angeforderten Videodaten in der zwei- ten Qualität bereitzustellen.
Gemäß einer weiteren Ausführungsform ist die zweite Decodie- rungseinheit dazu eingerichtet, die Videodaten und/oder die Metadaten und/oder die Ereignisinformationen in der zweiten Qualität clientseitig in einer Speichervorrichtung zu speichern .
Indem die Videodaten und/oder die damit verbundenen Metadaten und Ereignisinformationen in der zweiten Qualität clientsei- tig gespeichert werden, stehen diese Videodaten für ein erneutes Abspielen und Anzeigen zur Verfügung.
Die in der Speichereinheit auf Serverseite und der Speichervorrichtung auf Clientseite gespeicherten Daten können, ge- samt oder in Teilen, in einem PACS-System (Picture Archiving and Communication System) archiviert werden. Dieses PACS- System kann auch cloud-basiert sein.
Gemäß einer weiteren Ausführungsform ist die zweite Decodie- rungseinheit dazu eingerichtet, die Videodaten in der zweiten Qualität auf der Anzeigevorrichtung mit überlagerten Informationen anzuzeigen, wobei die Informationen Metadaten und/oder Ereignisinformationen sind. Die zweite Decodierungseinheit kann beim Decodieren der Videodaten die darin möglicherweise enthaltenen Metadaten und/oder Ereignisinformation extrahieren. Beim Anzeigen auf der Anzeigevorrichtung können diese zusätzlich zu den Videodaten selbst ebenfalls angezeigt werden.
Gemäß einer weiteren Ausführungsform weist das System eine Steuerungseinheit auf, die dazu eingerichtet ist, eine Benutzereingabe in Antwort auf die angezeigten Videodaten zu emp- fangen und die Benutzereingabe als Steuersignal an den Server zu übertragen.
Auf diese Weise können Steuersignale beispielsweise an einen Aktor in einem Operationssaal von Clientseite, d.h. vom externen Experten, übertragen werden. Solche Aktoren können z.B. eine Positionierung eines Mikroskops steuern.
Gemäß einer weiteren Ausführungsform weist das System eine Mischeinheit auf, die dazu eingerichtet ist, mehrere lokale Videoströme zu einem gemeinsamen lokalen Videostrom zu mischen und den gemeinsamen lokalen Videostrom als die Videodaten an die erste Codierungseinheit bereitzustellen. Die Videodaten können mehrere Videoströme enthalten, beispielsweise von verschiedenen Kameras, die durch die Mischeinheit zu einem Signal kombiniert werden. Beim Decodieren können diese wieder separiert und als getrennte Bilder angezeigt werden.
Zusammenfassend können durch das vorgeschlagene System bzw. dessen verschiedene Ausführungsformen folgende Ausführungen und die damit verbundenen Vorteile erreicht werden: · Echtzeit-Encodierung durch die Codierungseinheiten in hoher Qualität der beteiligten Videoquellen (Mikroskopie, Makroskopie)
• Lokale Aufnahme der encodierten Ströme der beteiligten Videoquellen, der Metadaten aus der automatisierten Analyse der Videos sowie von Ereignissen, die z.B. durch Fußtaster oder ähnliche Eingabegeräte ausgelöst werden können und der Annotation der aufgenommenen Daten dienen können. Es können dabei zusätzlich Informationen zur zeitlichen Synchronisation der Videoströme, Metadaten und Ereignisse (auch als Events bezeichnet) untereinander abgelegt, sowie ein Index zum Zugriff (basierend auf Zeit, Metadaten und Events) auf die aufgenommenen Daten erzeugt werden. • Adaptive Echtzeit-Encodierung der beteiligten Videoquellen (Mikroskopie, Makroskopie) zum Live-Streaming aus dem Operationssaal zum angeschlossenen Experten. Dabei können Videos wahlweise mit Metadaten oder Informationen zu Events überlagert werden und es können mehrere Videoströme zu einem Strom örtlich gemixt werden. Die nötigen Steuersignale dazu (Encodersteuerung, Overlay, Mixen) können zum einen durch Messwerte gegeben sein (z.B. momentane Bandbreite zwischen Experte und Operationssaal zur Steuerung des Encoders) , oder aber durch eine Benutzerschnittstelle lokal oder entfernt erzeugt werden. Im letzteren Fall werden diese Signale über das Netzwerk übertragen.
• Streaming des bzw. der encodierten Live-Video-Signale aus dem Operationssaal zum Experten mit niedriger Latenz
· Anzeige der Live-Videosignale beim Experten und/oder im Operationssaal, mit einer Auswahl- bzw. Konfigurationsmöglichkeit des Metadatenoverlays und der örtlichen Darstellung der Videosignale (Mixing)
• Zugriff auf die Informationen zu aufgenommenen, hochqua- litativen Videosignalen, den Metadaten und Events von der Expertenseite aus, Herunterladen von Teilen der Aufnahme dieser Daten und Ablage der heruntergeladenen Daten auf Expertenseite. Das Herunterladen der hochqualitativen Videoaufnahmen kann im Hintergrund unter Priorisierung der Datenrate für die Live-Ströme erfolgen.
• Wiedergabe der auf Expertenseite heruntergeladenen und lokal gespeicherten hochqualitativen Videosignale mit wahl- weiser Überlagerung der Videosignale durch Metadaten- und Event-Overlays . Die Wiedergabe kann bereits erfolgen, obwohl die angeforderten Daten noch nicht vollständig heruntergeladen sind (progressive download) .
• Übertragung von Steuersignalen von der Expertenseite in den Operationssaal zur Steuerung von Aktoren, z.B. Positionierung des Mikroskops
· Teile der Daten aus der Aufnahme auf Operationssaal- und auf Experten-Seite können in ein PACS-System archiviert werden. Dieses PACS-System kann auch cloud-basiert sein. • Um die nötige Netzwerkkonnektivität zwischen Operationssaal und Experte herzustellen kann ein, möglicherweise cloud- basiertes, Relay verwendet werden. Gemäß einem weiteren Aspekt wird ein Verfahren zum Übertragen von Videodaten von einem Server zu einem Client vorgeschlagen. Das Verfahren weist die folgenden Schritte auf: Übertragen von Videodaten von dem Server mit einer ersten Qualität an den Client als Livestream, und Übertragen der Videodaten in einer zweiten Qualität in Antwort auf ein Anforderungssignal von dem Client an den Client, wobei die zweite Qualität höher als die erste Qualität ist.
Weiterhin wird ein Computerprogrammprodukt vorgeschlagen, welches auf einer programmgesteuerten Einrichtung die Durchführung des wie oben erläuterten Verfahrens veranlasst.
Ein Computerprogrammprodukt, wie z.B. ein Computerprogramm- Mittel, kann beispielsweise als Speichermedium, wie z.B.
Speicherkarte, USB-Stick, CD-ROM, DVD, oder auch in Form einer herunterladbaren Datei von einem Server in einem Netzwerk bereitgestellt oder geliefert werden. Dies kann zum Beispiel in einem drahtlosen Kommunikationsnetzwerk durch die Übertragung einer entsprechenden Datei mit dem Computerprogrammpro- dukt oder dem Computerprogramm-Mittel erfolgen.
Die für das vorgeschlagene System beschriebenen Ausführungs- formen und Merkmale gelten für das vorgeschlagene Verfahren entsprechend .
Weitere mögliche Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmale oder Ausführungsformen . Dabei wird der Fachmann auch Einzelaspekte als Verbesserungen oder Ergänzungen zu der jeweiligen Grundform der Erfindung hinzufügen. Weitere vorteilhafte Ausgestaltungen und Aspekte der Erfindung sind Gegenstand der Unteransprüche sowie der im Folgenden beschriebenen Ausführungsbeispiele der Erfindung. Im Weiteren wird die Erfindung anhand von bevorzugten Ausführungs- formen unter Bezugnahme auf die beigelegten Figuren näher erläutert .
Fig. 1 zeigt ein schematisches Blockdiagramm einer ersten
Ausführungsform eines Systems zum Übertragen von Videodaten von einem Server an einen Client;
Fig. 2 zeigt ein schematisches Blockdiagramm der serverseitigen Einheiten des Systems von Fig. 1 gemäß einer zweiten Ausführungsforrti;
Fig. 3 zeigt ein schematisches Blockdiagramm der client- seitigen Einheiten des Systems von Fig. 1 gemäß der zweiten Ausführungsform; und Fig. 4 zeigt ein schematisches Ablaufdiagramm eines Verfahrens zum Übertragen von Videodaten von einem Server zu einem Client.
In den Figuren sind gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen worden, sofern nichts anderes angegeben ist.
Fig. 1 zeigt ein System 100 zum Übertragen von Videodaten von einem Server 1 zu einem Client 2.
Serverseitig ist eine Mischeinheit 12 vorgesehen, die, sofern vorhanden, mehrere Videoströme zu einem gemeinsamen Videodatensignal kombinieren kann. Die Mischeinheit 12 ist optional. Das kombinierte Videodatensignal, auch Videodaten genannt, wird an eine erste Codierungseinheit 10 bereitgestellt. Eine zweite Codierungseinheit 11 empfängt die nicht-kombinierten Videoströme . Die erste Codierungseinheit 10 überträgt die Videodaten von dem Server 1 mit einer ersten Qualität an den Client 2 über eine Netzwerkschnittstelle 30. Die Videodaten in der ersten Qualität stellen dabei einen Livestream dar.
Clientseitig werden die Videodaten in der ersten Qualität von einer ersten Decodierungseinheit 20 empfangen, decodiert und auf einer Anzeigevorrichtung 22, z.B. einem Monitor, ange- zeigt.
Die zweite Codierungseinheit 11 speichert die Videodaten in einer zweiten Qualität in einer Speichereinheit 13. Von dieser können die Videodaten in Antwort auf ein Anforderungssig- nal von dem Client 2 an den Client 2 übertragen werden. Die zweite Qualität ist dabei höher als die erste Qualität.
Clientseitig werden die Videodaten in der zweiten Qualität von einer zweiten Decodierungseinheit 21 auf Anforderung emp- fangen, decodiert und auf der Anzeigevorrichtung 22 angezeigt. Die zweite Decodierungseinheit 21 kann diese Videodaten eventuell zusammen mit damit verbundenen Metadaten und/oder Ereignisinformationen in einer Speichervorrichtung 23 (siehe Fig. 3) speichern.
Die Figuren 2 und 3 zeigen eine weitere Ausführungsform des Systems 100, wobei Fig. 2 den serverseitigen Abschnitt darstellt und Fig. 3 den clientseitigen Abschnitt darstellt. Mehrere Videoströme 3, 4 sowie Metadaten 5 und Ereignisinformationen 6 können kombiniert und an die erste Codierungseinheit 10 bzw. zweite Codierungseinheit 11 bereitgestellt werden. Gemäß dieser Ausführungsform codiert die erste Codierungseinheit 10 die Videodaten 3, 4 zusammen mit den Metada- ten 5 und den Ereignisinformationen 6 und stellt diese bereit. Die zweite Codierungseinheit 11 hingegen codiert nur die Videodaten 3, 4 und speichert diese in der Speicherein- heit 13. Die Metadaten 5 und die Ereignisinformationen 6 werden ebenfalls in der Speichereinheit 13 gespeichert.
Der serverseitige Bereich 1 des Systems 100 stellt ein Anwen- dungsfrontend 14 bereit, welches beispielsweise zur
Bandbreitenpriorisierung des Livestreams bei der Übertragung dient. Über dieses Frontend 14 können verschiedene Schnittstellen 7, 8 und 9 zu dem Client angesteuert werden. Das Frontend 14 dient also als Vermittlungsschicht zwischen der ersten Codierungseinheit 10 und der Speichereinheit 13 sowie den verschiedenen Schnittstellen 7, 8 und 9, die im Folgenden erläutert werden.
Zwischen dem Server 1 und dem Client 2 sind verschiedene Schnittstellen vorgesehen: eine Schnittstelle 7 für den Live- stream, eine Schnittstelle 8 für den Zugriff auf die Videodaten in der zweiten Qualität, auch als Aufnahmezugriff bzw. Speicherzugriff bezeichnet, und eine Schnittstelle 9 für die Steuerung .
Die Schnittstelle 9 für die Steuerung dient beispielsweise dazu, Steuersignale von dem Client 2 an den Server 1 zu übertragen, um auf eine Analyse der Videodaten zu reagieren.
Durch diese Steuersignale kann beispielsweise von der Exper- tenseite in dem Operationssaal eine Steuerung von Aktoren, z.B. Positionierung des Mikroskops, durchgeführt werden. Diese Steuersignale können auf der Clientseite 2 durch die Anwendungssteuerung 24 erzeugt werden. Fig. 4 zeigt ein Verfahren zum Übertragen von Videodaten von einem Server 1 zu einem Client 2. Das Verfahren weist die Schritte 401 und 402 auf.
In Schritt 401 werden Videodaten von dem Server 1 mit einer ersten Qualität an den Client 2 als Livestream übertragen.
In Schritt 402 werden die Videodaten in einer zweiten Qualität in Antwort auf ein Anforderungssignal von dem Client 2 an den Client 2 übertragen, wobei die zweite Qualität höher als die erste Qualität ist.
Obwohl die vorliegende Erfindung anhand von Ausführungsbei - spielen beschrieben wurde, ist sie vielfältig modifizierbar.

Claims

Patentansprüche
1. System (100) zum Übertragen von Videodaten von einem Server (1) zu einem Client (2), mit:
einer ersten Codierungseinheit (10) , die dazu eingerichtet ist, Videodaten von dem Server (1) mit einer ersten Qualität an den Client (2) als Livestream zu übertragen, und
einer zweiten Codierungseinheit (11) , die dazu eingerichtet ist, die Videodaten in einer zweiten Qualität in einer Speichereinheit (13) zu speichern und, in Antwort auf ein Anforderungssignal von dem Client (2), die codierten Videodaten in der zweiten Qualität von der Speichereinheit (13) an den Client (2) zu übertragen, wobei die zweite Qualität höher als die erste Qualität ist.
2. System nach Anspruch 1,
dadurch gekennzeichnet,
dass die erste Qualität eine erste Auflösung der Videodaten und/oder erste Codierparameter der Videodaten angibt und die zweite Qualität eine zweite Auflösung der Videodaten und/oder zweite Codierparameter angibt.
3. System nach Anspruch 1 oder 2,
dadurch gekennzeichnet,
dass die gespeicherten codierten Videodaten einen Index zum Zugriff auf die Inhalte der Videodaten enthalten.
4. System nach einem der Ansprüche 1 - 3,
dadurch gekennzeichnet,
dass die erste Codierungseinheit (10) dazu eingerichtet ist, die Videodaten zu empfangen und in der ersten Qualität zu codieren .
5. System nach Anspruch 4,
dadurch gekennzeichnet,
dass die erste Codierungseinheit (10) dazu eingerichtet ist, beim Codieren der Videodaten Metadaten zu den Videodaten hin- zuzufügen, wobei die Metadaten Informationen über den Inhalt der Videodaten enthalten.
6. System nach Anspruch 4 oder 5,
dadurch gekennzeichnet,
dass die erste Codierungseinheit (10) dazu eingerichtet ist, beim Codieren der Videodaten Ereignisinformationen zu den Videodaten hinzuzufügen.
7. System nach Anspruch 6,
dadurch gekennzeichnet,
dass die Ereignisinformationen auf bestimmte Sequenzen in den Videodaten hinweisen.
8. System nach einem der Ansprüche 1 - 7,
dadurch gekennzeichnet,
dass die zweite Codierungseinheit (11) dazu eingerichtet ist, die Videodaten zu empfangen, in der zweiten Qualität zu codieren und in der Speichereinheit (13) zu speichern, und/oder die Metadaten und/oder Ereignisinformationen zu empfangen und in der Speichereinheit (13) zu speichern.
9. System nach einem der Ansprüche 1 - 8,
gekennzeichnet durch
eine erste Decodierungseinheit (20) , die dazu eingerichtet ist, die Videodaten mit der ersten Qualität zu decodieren und auf einer Anzeigevorrichtung (22) anzuzeigen, und
eine zweite Decodierungseinheit (21) , die dazu eingerichtet ist, die Videodaten in der zweiten Qualität abzufragen, zu decodieren und auf der Anzeigevorrichtung (22) anzuzeigen.
10. System nach Anspruch 9,
dadurch gekennzeichnet,
dass die Speichereinheit (13) dazu eingerichtet ist, die Vi- deodaten in der zweiten Qualität basierend auf einer verfügbaren Bandbreite an die zweite Decodierungseinheit (21) zu übertragen .
11. System nach Anspruch 9 oder 10,
dadurch gekennzeichnet,
dass die zweite Decodierungseinheit (21) dazu eingerichtet ist, die Videodaten in der zweiten Qualität und/oder die Metadaten und/oder die Ereignisinformationen clientseitig in einer Speichervorrichtung (23) zu speichern.
12. System nach einem der Ansprüche 9 - 11,
dadurch gekennzeichnet,
dass die zweite Decodierungseinheit (21) dazu eingerichtet ist, die Videodaten in der zweiten Qualität auf der Anzeigevorrichtung (22) mit überlagerten Informationen anzuzeigen, wobei die Informationen Metadaten und/oder Ereignisinformationen sind.
13. System nach einem der Ansprüche 9 - 12,
gekennzeichnet durch
eine Steuerungseinheit (24), die dazu eingerichtet ist, eine Benutzereingabe in Antwort auf die angezeigten Videodaten zu empfangen und die Benutzereingabe als Steuersignal an den Server (1) zu übertragen.
14. System nach einem der Ansprüche 1 - 13,
gekennzeichnet durch
eine Mischeinheit (12), die dazu eingerichtet ist, mehrere lokale Videoströme zu einem gemeinsamen lokalen Videostrom zu mischen und den gemeinsamen lokalen Videostrom als die Videodaten an die erste Codierungseinheit (10) bereitzustellen.
15. Verfahren zum Übertragen von Videodaten von einem Server (1) zu einem Client (2), mit:
Übertragen (401) von Videodaten von dem Server (1) mit einer ersten Qualität an den Client (2) als Livestream,
Speichern der Videodaten in einer zweiten Qualität, und in Antwort auf ein Anforderungssignal von dem Client (2),
Übertragen (402) der Videodaten in der zweiten Qualität an den Client (2), wobei die zweite Qualität höher als die erste Qualität ist.
EP16723702.3A 2015-05-12 2016-05-11 System und verfahren zum übertragen von videodaten von einem server zu einem client Withdrawn EP3278562A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015208740.9A DE102015208740A1 (de) 2015-05-12 2015-05-12 System und Verfahren zum Übertragen von Videodaten von einem Server zu einem Client
PCT/EP2016/060483 WO2016180844A1 (de) 2015-05-12 2016-05-11 System und verfahren zum übertragen von videodaten von einem server zu einem client

Publications (1)

Publication Number Publication Date
EP3278562A1 true EP3278562A1 (de) 2018-02-07

Family

ID=56024259

Family Applications (1)

Application Number Title Priority Date Filing Date
EP16723702.3A Withdrawn EP3278562A1 (de) 2015-05-12 2016-05-11 System und verfahren zum übertragen von videodaten von einem server zu einem client

Country Status (6)

Country Link
US (1) US20180167650A1 (de)
EP (1) EP3278562A1 (de)
JP (1) JP2018523341A (de)
CN (1) CN107567712A (de)
DE (1) DE102015208740A1 (de)
WO (1) WO2016180844A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018108772B4 (de) * 2018-04-12 2020-01-02 Olympus Winter & Ibe Gmbh Verfahren und System zum Aufzeichnen und zur Wiedergabe erweiterter medizinischer Videodaten
US11949927B2 (en) 2020-10-30 2024-04-02 Stryker Corporation Methods and systems for hybrid and concurrent video distribution for healthcare campuses
CN113157232A (zh) * 2021-04-26 2021-07-23 青岛海信医疗设备股份有限公司 一种多屏幕拼接显示系统和方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW280884B (de) * 1993-10-14 1996-07-11 Philips Electronics Nv
JP2000059758A (ja) * 1998-08-05 2000-02-25 Matsushita Electric Ind Co Ltd 監視カメラ装置、監視装置、及びこれらを用いた遠隔監視システム
US6466248B1 (en) * 2000-04-05 2002-10-15 Dialogic Corporation Videoconference recording
US20030023982A1 (en) * 2001-05-18 2003-01-30 Tsu-Chang Lee Scalable video encoding/storage/distribution/decoding for symmetrical multiple video processors
US7830965B2 (en) * 2004-01-14 2010-11-09 Sony Ericsson Mobile Communications Ab Multimedia distributing and/or playing systems and methods using separate resolution-enhancing supplemental data
US20070024706A1 (en) * 2005-08-01 2007-02-01 Brannon Robert H Jr Systems and methods for providing high-resolution regions-of-interest
US8214516B2 (en) * 2006-01-06 2012-07-03 Google Inc. Dynamic media serving infrastructure
JP2007228337A (ja) * 2006-02-24 2007-09-06 Olympus Corp 画像撮影装置
JP4719641B2 (ja) * 2006-07-27 2011-07-06 ソニー株式会社 動画像データ提供方法、動画像データ提供方法のプログラム、動画像データ提供方法のプログラムを記録した記録媒体、動画像データ提供装置及び動画像データ提供システム。
CN101534423A (zh) * 2009-04-21 2009-09-16 东北大学 基于嵌入式平台的网络视频服务器
CN201403163Y (zh) * 2009-04-21 2010-02-10 东北大学 一种基于嵌入式平台的网络视频服务器
DE102009035659B4 (de) * 2009-07-30 2012-07-12 Vitaphone Gmbh Verfahren zur telemedizinischen Assistenz von Endnutzern
EP2553925A4 (de) * 2010-04-02 2013-11-13 Ericsson Telefon Ab L M Verfahren, vorrichtungen und computerprogrammprodukte zum pausieren von videostreaminginhalt
CN103442202B (zh) * 2013-08-22 2017-09-26 北京智谷睿拓技术服务有限公司 视频通信方法及装置

Also Published As

Publication number Publication date
DE102015208740A1 (de) 2016-11-17
US20180167650A1 (en) 2018-06-14
CN107567712A (zh) 2018-01-09
WO2016180844A1 (de) 2016-11-17
JP2018523341A (ja) 2018-08-16

Similar Documents

Publication Publication Date Title
DE60309201T2 (de) Verfahren und system zur übertragung von ereignissen, einschliesslich multimedia daten
EP2837154B1 (de) Verfahren zur steuerung von datenströmen einer virtuellen sitzung mit mehreren teilnehmern, kollaborationsserver, computerprogramm, computerprogrammprodukt und digitales speichermedium
DE10309165A1 (de) Medizinische Systemarchitektur zur interaktiven Übertragung und progressiven Darstellung von komprimierten Bilddaten
DE60214622T2 (de) Verfahren zum Übertragen von Bildern, Bildübertragungverfahrenprogramm, Programmspeichermedium zum Speichern des Bildübertragungprogramms und Vorrichtung zur Übertragung von Bildern
DE10120806B4 (de) Vorrichtung und Verfahren zur Übertragung von multimedialen Datenobjekten
DE102020108357A1 (de) Umkodieren vorhergesagter bilder in live-videostream-anwendungen
EP3278562A1 (de) System und verfahren zum übertragen von videodaten von einem server zu einem client
DE112015001880T5 (de) Drahtloses Endoskopsystem, Endoskop, Anzeigevorrichtung, Bildübertragungsverfahren, Bildanzeigeverfahren und Programm
EP2763401A1 (de) Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln
EP3186971A1 (de) Verfahren zur steuerung einer multimedia-anwendung, softwareprodukt und vorrichtung
DE202012013682U1 (de) Videokommunikation mit ultraniedriger Latenz
DE102018208496B4 (de) Persistente kennung für offline-zugriff auf gestreamte medien
DE102012202315A1 (de) Videosystem zur Darstellung von Bilddaten, Verfahren und Computerprogramm
DE102005052207A1 (de) Verfahren zum Übertragen von einem Datenstrom von einer Datenquelle zu einer Datensenke sowie Datensenkengerät, Datenquellgerät und Gerät zur Durchführung des Verfahrens
EP3078206A1 (de) Verfahren zur übertragung digitaler bilder aus einer bilderfolge
DE102012212923A1 (de) Steuerungsmodul für einen Signalgeber zur Remote-Client-Darstellung einer medizinischen Bildfolge
WO2016055375A1 (de) Einstellen von datenraten in einem videokamerasystem
WO2016055543A1 (de) Vorrichtung und verfahren zum schneiden von mehreren kodierten videoströmen ohne vorherige dekodierung
DE102004057305A1 (de) Pipeline zum Datenaustausch zwischen medizinischen Bildapplikationen
EP1271271A2 (de) Multimediale Maschinensteuerung
DE102017110431A1 (de) Verfahren zum Übertragen von Informationen
EP2961171B1 (de) Verfahren zum kontinuierlichen überwachen einer synchronität zwischen verschiedenen beim http adaptiven streaming verwendeten qualitätsprofilen
WO2016026611A1 (de) Verfahren zum teilen von daten in einem fahrzeug sowie entsprechende vorrichtung
DE10101075C2 (de) Verfahren und Mediendistributionssystem zur Speicherung und Übertragung von Videodateien
EP3751523A1 (de) Videobild-übertragungseinrichtung, verfahren zur live-übertragung und computerprogramm

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20171026

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20190307

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20190518