DE102013001814A1 - Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln - Google Patents

Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln Download PDF

Info

Publication number
DE102013001814A1
DE102013001814A1 DE201310001814 DE102013001814A DE102013001814A1 DE 102013001814 A1 DE102013001814 A1 DE 102013001814A1 DE 201310001814 DE201310001814 DE 201310001814 DE 102013001814 A DE102013001814 A DE 102013001814A DE 102013001814 A1 DE102013001814 A1 DE 102013001814A1
Authority
DE
Germany
Prior art keywords
embedded system
data stream
video
client
protocol
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE201310001814
Other languages
English (en)
Inventor
Dr. Lay Ralf
Dr. Noffz Klaus-Henning
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Novomatic AG
Original Assignee
Silicon Software GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Silicon Software GmbH filed Critical Silicon Software GmbH
Priority to DE201310001814 priority Critical patent/DE102013001814A1/de
Publication of DE102013001814A1 publication Critical patent/DE102013001814A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/214Specialised server platform, e.g. server located in an airplane, hotel, hospital
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234309Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4 or from Quicktime to Realvideo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41415Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/418External card to be used in combination with the client device, e.g. for conditional access
    • H04N21/4183External card to be used in combination with the client device, e.g. for conditional access providing its own processing capabilities, e.g. external module for video decoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Das System realisiert folgende Funktionen: a) einer Server-Funktion, wobei zum Realisieren der Server-Funktion die folgenden Funktionen realisiert sind: a1) Annahme von mindestens einem Bild-, mindestens einem Audio-Datenstrom; a2) Kompression mindestens eines der Bild- und Audio-Datenströme in jeweils einen kombinierten Datenstrom; a3) Ausgabe mindestens eines der kombinierten Datenströme über ein protokollbasiertes Netzwerk; b) einer Client-Funktion, wobei zum Realisieren der Client-Funktion die folgenden Funktionen realisiert sind: b1) Annahme mindestens eines kombinierten Datenstroms aus dem protokollbasierten Netzwerk; b2) Dekompression des mindestens einen kombinierten Datenstroms; b3) Ausgabe des dekomprimierten Bild- und Audio-Datenstroms; und c) wobei die Hardware-Mittel derart ausgelegt sind, dass sie einen kontinuierlichen Bild- und Audio-Datenstrom mit mindestens 24 Bildern pro Sekunde ohne Datenstau komprimieren und dekomprimieren können. Mit Hilfe des eingebetteten Systems lässt sich ein Videoverteilungssystem zum Annehmen und Verteilen von mindestens einem Video-Datenstrom aus mindestens einer Videoquelle (100) gestalten mit: a) einem protokollbasierten Netzwerk (120); b) mindestens einem oben beschriebenen eingebetteten System (110), das als Server arbeitet und mindestens einen der Bild-Datenströme aus der mindestens einen Videoquelle (100) annimmt, komprimiert und über das protokollbasierte Netzwerk (120) ausgibt; und c) mindestens einem oben beschriebenen eingebetteten System (140), das als Client arbeitet und mindestens einen komprimierten Datenstrom aus dem protokollbasierten Netzwerk (120) annimmt, dekomprimiert und über eine Schnittstelle ausgibt.

Description

  • Gebiet der Erfindung
  • Die Erfindung betrifft ein eingebettetes System zur Videoverarbeitung und ein Videoverteilungssystem. Derartige Vorrichtungen dienen vorwiegend zum Verteilen von Videodaten aus mehreren Quellen an mehrere Darstellungseinheiten (z. B. Bildschirme). Ein typischer Anwendungsbereich sind Wettbüros.
  • Stand der Technik
  • Es sind verschiedene Möglichkeiten bekannt, um TV-Inhalte über ein IP-Netzwerk zu liefern. Die Unterscheidung zwischen IPTV und Internet-TV besteht in der Art des Zugriffs auf die Inhalte durch den Nutzer. Im Falle von IPTV führt eine lokale netzbetreiberspezifische Anwendung die Inhaltsnavigation aus, während im Falle des Internet TV ein auf Standards basierender Browser verwendet wird, um die Navigation des Inhalts zu ermöglichen. In beiden Fällen liefert ein solcher Service Video-Content über einen Internet-Anschluss an das TV-Gerät eines Zuschauers bzw. Benutzers.
  • Die EP 2 247 108 A1 „Distributed TV access system” offenbart eine Online-Anwendung für die Auswahl und Darstellung von verschiedenen Programmen (d. h. Broadcast-Signale, also Rundfunk- bzw. Fernsehsignale), die durch ein Netzwerk wie Kabel oder Satellit übertragen werden. Ein Kunde empfängt die Broadcast-Signale durch eine erste Netzwerkverbindung und wählt die Fernsehinhalte aus mit Hilfe einer Online-Anwendung, die er über ein zweites Netzwerk empfängt. Die erste Netzverbindung und die zweite Netzverbindung können zwei Anschlüsse auf dem gleichen Netzwerk sein (z. B. zwei Verbindungen über zwei unterschiedliche Software-Ports) oder zwei Verbindungen in zwei verschiedenen Netzwerken sein (z. B. dem Internet und einem privaten TV-Netz wie ein Kabel oder Satelliten TV-Netz).
  • Die WO 90/13972 A1 offenbart ein Videoverteilungssystem, welches beispielsweise zum Einsatz in Hotels gedacht ist, das allerdings einen komplizierten, kaum skalierbaren Aufbau besitzt, bei dem insbesondere eine zentrale Zuordnungseinheit erforderlich ist, die regelt, welche Videoquelle mit welchem Betrachter verbunden ist. Die Vorteile der Digitaltechnik werden von diesem System nicht genutzt.
  • Auch das in WO 2004/032341 A2 offenbarte Videoverteilungssystem ist vom Aufbau her kompliziert, benötigt beispielsweise lokale Tuner/Receiver/Decoder-Zwischenstationen, und ist daher weder mit vertretbarem Aufwand skalierbar, noch von den Einsatzmöglichkeiten her besonders flexibel.
  • Videokonferenzsysteme, wie z. B. das in US 2005/0248652 A1 offenbarte, weisen grundsätzlich auch die Funktionalität eines Videoverteilungssystems auf. Allerdings sind diese i. d. R. nicht in der Lage, höhere Auflösungen und gute Bildqualität zu liefern. Auch die Anschlussmöglichkeiten solcher Systeme sind i. A. wenig flexibel.
  • Bei all diesen Systemen sind zudem unzureichende oder keine Sicherheitsmechanismen vorhanden, insbesondere in Bezug auf Netzwerksicherheit, aber auch in Bezug auf Sicherung der verwendeten Systeme vor Produktpiraterie.
  • Aufgabe
  • Aufgabe der Erfindung ist es, eine Vorrichtung anzugeben, die die Nachteile des Standes der Technik vermeidet oder minimiert und vielseitiger einsetzbar ist.
  • Lösung
  • Diese Aufgabe wird durch die Erfindungen mit den Merkmalen der unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindungen sind in den Unteransprüchen gekennzeichnet. Der Wortlaut sämtlicher Ansprüche wird hiermit durch Bezugnahme zum Inhalt dieser Beschreibung gemacht. Die Erfindungen umfassen auch alle sinnvollen und insbesondere alle erwähnten Kombinationen von unabhängigen und/oder abhängigen Ansprüchen.
  • Vorgeschlagen wird ein eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln zum Realisieren folgender Funktionen:
    • a) einer Server-Funktion, wobei zum Realisieren der Server-Funktion die folgenden Funktionen realisiert sind:
    • a1) Annahme von mindestens einem Bilddatenstrom, ggf. inklusive eines Audio-Datenstroms;
    • a2) Kompression mindestens eines der Bild- und ggf. Audio-Datenströme in jeweils einen kombinierten Datenstrom (den man auch als komprimierten Datenstrom bezeichnen könnte);
    • a3) Ausgabe mindestens eines der kombinierten Datenströme über ein protokollbasiertes Netzwerk;
    • b) einer Client-Funktion, wobei zum Realisieren der Client-Funktion die folgenden Funktionen realisiert sind:
    • b1) Annahme mindestens eines kombinierten Datenstroms aus dem protokollbasierten Netzwerk;
    • b2) Dekompression des mindestens einen kombinierten Datenstroms;
    • b3) Ausgabe des dekomprimierten Bild- und ggf. Audio-Datenstroms;
    • c) wobei die Hardware-Mittel derart ausgelegt sind, dass sie einen kontinuierlichen Bild- und ggf. Audio-Datenstrom mit mindestens 24 Bildern pro Sekunde, bevorzugt mindestens 25 Bildern pro Sekunde, besonders bevorzugt mindestens 50 Bildern pro Sekunde und ganz besonders bevorzugt mindestens 60 Bildern pro Sekunde ohne Datenstau komprimieren und dekomprimieren können.
  • Dieses eingebettete System ermöglicht die Realisierung von Videoübertragungssystemen, die hohe Auflösungen in Echtzeit verarbeiten können, sehr flexibel in der Anordnung und der Art der übertragenen Inhalte sind, zudem nahezu beliebig skalierbar sind und außerdem gut mit effektiven Sicherheitsmechanismen ausgerüstet werden können. Besonders vorteilhaft ist dabei, dass das eingebettete System sowohl als Server als auch als Client arbeiten kann: für die beiden Funktionalitäten werden keine unterschiedlichen Geräte benötigt.
  • Vorteilhaft ist es, wenn die Hardware-Mittel derart ausgelegt sind, dass sie einen kontinuierlichen Bild- und Audio-Datenstrom mit mindestens 60 Bildern pro Sekunde mit einer Auflösung von mindestens 1280×720, bevorzugt mindestens 1920×1080 Pixeln ohne Datenstau komprimieren und dekomprimieren können. Das eingebettete System ist also in der Lage, Datenströme in „Full HD”-Auflösung zu verarbeiten.
  • Weiterhin ist es von Vorteil, wenn die Kompression der Datenströme gemäß dem H.264- oder dem H.265-Standard erfolgt. Dadurch wird eine besonders hohe Kompressionsrate für Video-Datenströme ermöglicht, so dass die benötigte Bandbreite für die Datenübertragung über das Netzwerk möglichst gering gehalten werden kann. Die Unterstützung anderer Kompressions-Standards, wie beispielsweise MPEG-2, ist ebenso denkbar.
  • Bei einer vorteilhaften Weiterbildung der Erfindung realisiert
    • a) die Server-Funktion eine Funktion zum Verschlüsseln des kombinierten Datenstroms;
    • und b) die Client-Funktion eine Funktion zum Entschlüsseln des mindestens einen kombinierten Datenstroms.
  • Diese Ver- und Entschlüsselung erfolgt in Echtzeit mit Hardware-Mitteln, vorzugsweise nach dem AES-Verschlüsselungsverfahren („advanced encryption standard”), vorzugsweise mit einer Schlüssellänge von mindestens 256 Bit. Dadurch können die Daten vor Angreifern in der Übertragungsstrecke zwischen Server und Client geschützt werden.
  • Bei einer weiteren vorteilhaften Weiterbildung verfügt das eingebettete System über
    • a) Hardware-Mittel zur Annahme von mehr als einem kombinierten Datenstrom über das Protokoll-basierte Netzwerk;
    • b) Hardware-Mittel zur Dekompression von mehr als einem kombinierten Datenstrom;
    • c) Hardware-Mittel zur Skalierung und/oder Rotation und/oder Vereinigung und/oder Überblendung von mehr als einem dekomprimierten Bild- und ggf. Audio-Datenstrom;
    • d) Hardware-Mittel zur gemeinsamen Ausgabe von mehr als einem dekomprimierten Bild- und ggf. Audio-Datenstrom zur gleichzeitigen Darstellung an einem Bildschirm; und
    • e) Hardware-Mittel zur geteilten Ausgabe von einem oder mehreren kombinierten Datenströmen an mehrere Bildschirme, die als Videowand angeordnet sind.
  • Dadurch lassen sich neben der üblichen Darstellung eines Videodatenstroms an einem Bildschirm – durch die Skalierungsmittel in beliebiger Größe – eine ganze Reihe weiterer Darstellungsmodi erreichen, beispielsweise
    • • zwei Ströme gleichzeitig, mit wählbarer Größe und Positionierung auf einem Bildschirm;
    • • ein Strom wird über einen zweiten überblendet;
    • • vier verschiedene Ströme gleichzeitig auf einem Bildschirm;
    • • drei Ströme gleichzeitig an einem um 90° rotierten Bildschirm;
    • • sechs Ströme an einem Bildschirm (einer groß, fünf klein);
    • • Videowand mit einem Bildstrom skaliert auf vier oder neun Bildschirme.
  • Von Vorteil ist es außerdem, wenn das eingebettete System über Hardware-Mittel zum Konvertieren eines im Zeilensprungverfahren aufgenommenen Bilddatenstroms zum Vollbildverfahren verfügt. Dadurch kann in Echtzeit ein progressiver Videodatenstrom in hoher Qualität erzeugt werden, selbst wenn die Videoquelle lediglich im Zeilensprungverfahren (interlaced) aufgenommenes Material bereitstellt.
  • Bei einer vorteilhaften Weiterbildung verfügt das erfindungsgemäße eingebettete System über
    • a) ein Speichermodul mit einem BIOS;
    • b) ein Speichermodul mit einem Betriebssystem; sowie
    • c) Mittel zum Annehmen von Steuersignalen über das protokollbasierte Netzwerk.
  • Dadurch wird erreicht, dass das eingebettete System unabhängig von anderen Geräten arbeiten kann („standalone”) und insbesondere zum Betrieb nicht an einen Computer angeschlossen werden muss.
  • Jedoch kann das eingebettete System über das protokollbasierte Netzwerk gesteuert werden, z. B. hinsichtlich der Wahl der Quellen der Datenströme und des gewünschten Übertragungsformats (Server), oder z. B. hinsichtlich der Auswahl der darzustellenden Datenströme und des Darstellungsmodus (Client).
  • Eine weitere vorteilhafte Weiterbildung des erfindungsgemäßen eingebetteten Systems verfügt über Mittel zum Ausgeben von Steuersignalen zur Fernbedienung angeschlossener Geräte.
  • Dadurch lassen sich über das eingebettete System auch die angeschlossenen Geräte fernsteuern, beispielsweise Satellitenfernseh-Empfänger (Server) oder Bildschirme (Client), ohne dass dazu zusätzliche Fernbedienungseinheiten benötigt werden. Die Steuersignale können dabei, je nach Art des fernzusteuernden Geräts, über eine ggf. vorhandene Infrarot-Schnittstelle oder über einen elektrischen Anschluss für eine Infrarot-Quelle oder über einen ggf. vorhandenen HDMI-Ausgang oder auch über das Netzwerk ausgegeben werden. Dadurch, dass die Steuerbefehle über das Netzwerk an das eingebettete System übermittelt werden können, ist es also möglich, die angeschlossenen Geräte auch über größere Entfernungen und ggf. über bauliche Hindernisse hinweg zu bedienen. Die Bedienung kann dabei lokal für einzelne oder auch zentral für alle an das Netzwerk angeschlossenen eingebetteten Systeme erfolgen.
  • Vorteilhaft ist außerdem, wenn das eingebettete System über
    • a) Hardware-Mittel zur Zwischenspeicherung und wiederholten Ausgabe des mindestens einen kombinierten Datenstroms; und über
    • b) Mittel zur interaktiven Steuerung des eingebetteten Systems durch den Betrachter des mindestens einen ausgegebenen Datenstroms
    verfügt.
  • Vorteilhaft ist außerdem, wenn das eingebettete System über Hardware-Mittel zur Verbesserung der Bildqualität des Bilddatenstroms verfügt, welche folgende Funktionen bereitstellen:
    • a) Änderung der Helligkeit und/oder
    • b) Änderung der Bildschärfe und/oder
    • c) Änderung des Kontrasts und/oder
    • d) Farbkorrekturen und/oder
    • e) Rauschunterdrückung und/oder
    • f) Reduktion von Artefakten und/oder
    • g) Anwendung von weiteren Filtern.
  • Dadurch können in Echtzeit Verbesserungen des darzustellenden Bilddatenstroms für den Betrachter erzielt werden.
  • Eine weitere vorteilhafte Weiterbildung des erfindungsgemäßen eingebetteten Systems zeichnet sich dadurch aus, dass die Hardware-Mittel einen FPGA (Field Programmable Gate Array) umfassen, wobei durch den FPGA folgende Funktionen bereitgestellt werden:
    • a) Anbindung an das protokollbasierte Netzwerk;
    • b) Firewall;
    • c) Verschlüsselung des auszugebenden kombinierten Datenstroms, wenn das eingebettete System als Server arbeitet; und
    • d) Entschlüsselung des mindestens einen kombinierten Datenstroms, wenn das eingebettete System als Client arbeitet.
  • Dabei erlaubt die Firewall über eine Regeltabelle die Filterung von IP, Port und Mac-Adressen. Eine einstellbare Logging-Funktion der Firewall erlaubt das protokolieren der gültigen und/oder ungültigen Zugriffsversuche auf das eingebettete System. Optional können freigeschaltete Ports/IPs/Mac-Adressen automatisch nach einer gewissen Anzahl von Fehlversuchen gesperrt werden oder ein Alarm ausgelöst werden, wenn zu viele unerlaubte Zugriffe auf das eingebettete System pro Zeiteinheit erfolgen.
  • Der FPGA enthält außerdem eine 256 Bit AES-Verschlüsselungseinheit, die die eingehenden und ausgehenden Netzwerkdaten in Echtzeit verschlüsseln bzw. entschlüsseln kann.
  • Durch diese Realisierung des eingebetteten Systems wird eine möglichst hohe Netzwerksicherheit erzielt.
  • Vorteilhaft ist es weiterhin, wenn die Konfiguration des FPGA individuell verschlüsselt ist. Bei jedem Exemplar ist die Konfiguration also anders verschlüsselt. Dadurch wird eine Sicherung gegen Produktpiraterie erzielt, da ggf. ausgelesene Konfigurationsdaten eines FPGA bei einem erfindungsgemäßen eingebetteten System nicht zur Konfiguration eines anderen derartigen eingebetteten Systems genutzt werden können.
  • Eine weitere vorteilhafte Weiterbildung des eingebetteten Systems zeichnet sich dadurch aus, dass die Hardware-Mittel einen DSP (Digitaler Signalprozessor) umfassen, wobei durch den DSP folgende Funktionen bereitgestellt werden:
    • a) Kompression mindestens eines der Bild- und ggf. Audio-Datenströme in jeweils einen kombinierten Datenstrom, wenn das eingebettete System als Server arbeitet;
    • b) Dekompression des mindestens einen kombinierten Datenstroms, wenn das eingebettete System als Client arbeitet; und
    • c) Skalierung und Ausgabe des dekomprimierten Bild- und ggf. Audio-Datenstroms über eine Schnittstelle, wenn das eingebettete System als Client arbeitet.
  • Durch die Wahl eines geeigneten DSP wird bei dieser Realisierung des eingebetteten Systems eine besonders hohe Leistung bei der Verarbeitung von Videodaten erreicht, was die Echtzeitfähigkeit des eingebetteten Systems sicherstellt.
  • Günstig ist es, wenn das erfindungsgemäße eingebettete System über
    • a) mindestens ein Netzwerk-Anschluss und
    • b) mindestens eine Schnittstelle gemäß einem Video-Standard und/oder
    • c) mindestens eine Schnittstelle gemäß einem Audio-Standard und/oder
    • d) mindestens eine Schnittstelle zu einem Datenbus und/oder
    • e) eine Infrarot-Schnittstelle
    verfügt.
  • Der Netzwerk-Anschluss ist dabei zwingend erforderlich, die übrigen Schnittstellen bzw. Anschlüsse sind optional. Diese können beispielsweise HDMI-Schnittstellen – vorzugsweise ein Anschluss zur Datenannahme von einer Videoquelle und einer zur Datenausgabe an einen Bildschirm – und/oder eine PAL-Schnittstelle und/oder eine zusätzliche Stereo-Audio-Schnittstelle und/oder eine USB-Schnittstelle und/oder eine Infrarot-Schnittstelle zur Fernbedienung der angeschlossenen Videoquelle bzw. des angeschlossenen Bildschirms umfassen.
  • Günstig ist weiterhin, wenn das protokollbasierte Netzwerk, an das das eingebettete System angeschlossen ist, eine Übertragungskapazität von mindestens 100 MBit pro Sekunde aufweist. Vorzugsweise handelt es sich dabei um ein Gigabit-Ethernet-Netzwerk, also ein Netzwerk, welches das Ethernet-Protokoll nutzt und eine Übertragungskapazität von mindestens 1000 MBit pro Sekunde aufweist.
  • Ferner wird ein Videoverteilungssystem zum Annehmen und Verteilen von mindestens einem Video-Datenstrom aus mindestens einer Videoquelle vorgeschlagen, mit:
    • a) einem protokollbasierten Netzwerk;
    • b) mindestens einem oben beschriebenen eingebetteten System, das als Server arbeitet und mindestens einen der Bild-Datenströme aus der mindestens einen Videoquelle annimmt, komprimiert und über das protokollbasierte Netzwerk ausgibt; und
    • c) mindestens einem oben beschriebenen eingebetteten System, das als Client arbeitet und mindestens einen komprimierten Datenstrom aus dem protokollbasierten Netzwerk annimmt, dekomprimiert und über eine Schnittstelle ausgibt.
  • Ein solches Videoverteilungssystem ist aufgrund seines modularen Aufbaus und der Eigenschaften der verwendeten eingebetteten Systeme sehr vielseitig und nahezu beliebig skalierbar bzw. erweiterbar.
  • Vorteilhaft ist es, wenn bei dem erfindungsgemäßen Videoverteilungssystem
    • a) als Videoquellen Satellitenfernseh-Empfänger oder Kabelfernsehanschlüsse oder DVBT-Empfänger oder PCs oder Mediaplayer usw. eingesetzt werden; und
    • b) an die Schnittstellen der eingebetteten Systeme, die als Client arbeiten, über welche die Datenströme ausgegeben werden, Bildschirme angeschlossen sind.
  • Vorgeschlagen wird außerdem ein Videoverteilungssystem zum Annehmen und Verteilen von mindestens einem Video-Datenstrom aus mindestens einer Videoquelle mit:
    • a) einem protokollbasierten Netzwerk;
    • b) mindestens einem eingebetteten System, das als Server arbeitet und mindestens einen der Bild-Datenströme aus der mindestens einen Videoquelle annimmt, komprimiert und über das protokollbasierte Netzwerk ausgibt; und
    • c) mindestens einem eingebetteten System, das als Client arbeitet und mindestens einen komprimierten Datenstrom aus dem protokollbasierten Netzwerk annimmt, dekomprimiert und über eine Schnittstelle ausgibt.
  • Auch für die eingebetteten Systeme dieses Videoverteilungssystems können alle vorteilhaften Realisierungen und Weiterbildungen gewählt werden, die für die weiter oben beschriebenen eingebetteten Systeme geschildert wurden.
  • Insbesondere wird durch die Maßnahmen eine höhere Flexibilität in den Modi und den Anschlüssen und Auflösungen und eine hohe Kombinationsvielfalt in der Verarbeitung und Darstellung verschiedenster Broadcast-Signale und Zurverfügungstellung dieser an den Benutzer erreicht. Weiters wird durch diese Maßnahmen eine vorteilhafte Skalierbarkeit bezüglich Anzahl der Teilnehmer und Aufbau des Systems erzielt und Echtzeitfähigkeit und Sicherheit der Signalverarbeitung ermöglicht.
  • Weitere Einzelheiten und Merkmale ergeben sich aus der nachfolgenden Beschreibung von bevorzugten Ausführungsbeispielen in Verbindung mit den Unteransprüchen. Hierbei können die jeweiligen Merkmale für sich alleine oder zu mehreren in Kombination miteinander verwirklicht sein. Die Möglichkeiten, die Aufgabe zu lösen, sind nicht auf die Ausführungsbeispiele beschränkt. So umfassen beispielsweise Bereichsangaben stets alle – nicht genannten – Zwischenwerte und alle denkbaren Teilintervalle.
  • Die Ausführungsbeispiele sind in den Figuren schematisch dargestellt. Gleiche Bezugsziffern in den einzelnen Figuren bezeichnen dabei gleiche oder funktionsgleiche bzw. hinsichtlich ihrer Funktionen einander entsprechende Elemente. Im Einzelnen zeigt:
  • 1 den schematischen Aufbau einer Ausführungsform des erfindungsgemäßen Videoverteilungssystems zum Einsatz in einem Wettbüro;
  • 2 den Aufbau einer einfachen Ausführungsform des erfindungsgemäßen Videoverteilungssystems;
  • 3 eine komplexere Ausführungsform des erfindungsgemäßen Videoverteilungssystems;
  • 4 schematisch den Aufbau eines erfindungsgemäßen eingebetteten Systems;
  • 5 schematisch den Aufbau eines erfindungsgemäßen eingebetteten Systems mit Server-Funktionalität;
  • 6 schematisch den Aufbau eines erfindungsgemäßen eingebetteten Systems mit Client-Funktionalität;
  • 7 eine Abbildung eines erfindungsgemäßen eingebetteten Systems;
  • 8 eine schematische Darstellung der Videodatenverarbeitung bei einem erfindungsgemäßen eingebetteten System, das als Server arbeitet;
  • 9 eine schematische Darstellung der Videodatenverarbeitung bei einem erfindungsgemäßen eingebetteten System, das als Client arbeitet; und
  • 10 eine Auswahl von Darstellungsmodi, die mit einem als Client arbeitendem erfindungsgemäßen eingebetteten System erzielbar sind.
  • Die Erfindung umfasst ein modernes Videoverteilungssystem auf Basis von netzwerkbasierten multiplen H.264-Datenströmen. Dabei werden unterschiedliche Videoquellen von als Server arbeitenden eingebetteten Systemen in H.264-Datenströme konvertiert und von als Client arbeitenden eingebetteten Systemen dekodiert und an Bildschirmen dargestellt.
  • Der Einsatz des Videoverteilungssystems ist z. B. in Wettbüros vorgesehen, bei denen im Regelfall die Bildquellen von Satellitenreceivern geliefert werden und von Shop-Mastern/Bedienern individuell an die vorhandenen TV-Monitore verteilt werden.
  • Der typische Aufbau eines Videoverteilungssystems in einem Wettbüro ist in 1 dargestellt und besteht in den vier Funktionseinheiten Aufnahme, Verteilung, Darstellung und Steuerung. Die Aufnahmefunktion wird durch eine variable Anzahl von Satellitenreceivern 100 realisiert, die über jeweils zugeordnete eingebettete Systeme 110, die als Server arbeiten, verfügen. Die Videoströme der Satellitenreceiver werden über ein Netzwerk 120 (mit Switch/Verteiler, VLAN) verteilt. Die Darstellung erfolgt über eine variable Anzahl von Bildschirmen 130, die ihre Bilder von zugeordneten eingebetteten Systemen 140, die als Client arbeiten, erhalten, wobei die Clients 140 individuell aus dem Angebot der Aufnahme-Server 110 die ausgewählten Bilddatenströme zur Verfügung stellen.
  • Die Auswahl der Bilddatenströme für die Bildschirme 130 erfolgt dabei an einem lokalen Steuerungs-PC 150, an dem der Shop-Master/Bediener die Zuordnung zwischen Satellitenprogramm und Bildschirm 130 dynamisch herstellen kann (Steuerung). Dazu werden grafisch die TV-Bildschirme 130 und die Satellitenreceiver 100 visualisiert.
  • Jedes eingebettete System 110 oder 140, das mit einem Sat-Receiver 100 oder TV-Monitor 130 verbunden ist, verfügt zusätzlich über eine Infrarotsteuerungsfunktion, die es erlaubt, das zugehörige Gerät fernzusteuern. Jeder Satellitenreceiver ist zudem optional mit einem Netzwerkanschluss verbunden, über den die Satelliten-Kanallisten aktualisiert und verändert werden können.
  • Die Steuerung der eingebetteten Systeme 110 oder 140 und damit der zugeordneten Geräte 100 oder 130 erfolgt physikalisch über das Netzwerk 120 und strukturell über die Bedien-PC-Software. Ggf. erlauben mehrere solche Bedienstationen 150 die Steuerung der Geräte u. U. auch in räumlich weit verteilten Filialen.
  • Das erfindungsgemäße System ist deutlich allgemeiner ausgelegt als bekannte derartige Systeme und verfügt über folgende Kerneigenschaften:
    • – Flexibles Hardware basiertes Multifunktions-Videogaming- und -Visualisierungssystem für digitales Fernsehen und digitalen Medienkontent, Kombination eines frei wählbaren globalen hardwarebasierten Videostromnetzwerks mit Spielevisualisierungen und interaktiver Livecontent Darstellung
    • – Nahezu beliebig skalierbar durch modularen Aufbau (siehe auch 3). Ein Client kann auf mehrere hundert Serverströme zugreifen. Einzige Beschränkung ist die Kapazität des verwendeten Netzwerks.
    • – Unterteilung in Clients und Server. Server nehmen Bilddaten auf und speisen diese ins Netzwerk ein. Clients nehmen die Netzwerkströme an und stellen diese auf sehr unterschiedliche Weise dar. Interaktive Steuerung über Netzwerk (z. B. PC; IPad, netzwerkfähiges Gerät). Mischnutzung als Client und Server gleichzeitig ist möglich.
    • – Unterschiedliche Quellen, die lokal oder remote (global weltweit!) über Satellit oder Netzwerk eingespeiste werden können (Livecams, Digital und Analog TV Quellen, Harddisk, Festplattenkonserve, Media Player etc.).
    • – Auflösung bis zu Full HD
    • – Aufnahme der Bildquellen und Echtzeitkodierung nach modernsten H.264-Verfahren in Hardware (Datenreduktion zum Versenden über Netzwerk)
    • – Dekodierung von mehreren H.264 Quelldatenströmen pro Client Modul.
    • – Unterschiedliche Visualisierungsmodi durch den Client (siehe auch 10):
    • • 1 Strom (10A)
    • • 2 Ströme gleichzeitig (10B, C)
    • • 4 Ströme gleichzeitig pro TV (10D)
    • • 3 Ströme rotiert (10E)
    • • 6 Ströme usw. (10F)
    • • Videowandmodus, bei der ein oder mehrere Ströme auf eine Wand aus vielen Monitoren verteilt werden können (10G)
    • • Überblendmodus verschiedener Streams (Blue Box, 10C),
    • • Ein/Überblendung von Livestreams in Game-Anwendungen.
    • • Interaktive Steuerung des Modus durch den Anwender
    • • Replay Funktion von Videoströme an Demand
    • – Ver- und Entschlüsselung der Datenströme in Echtzeit in Hardware.
    • – Interaktive Möglichkeit, Videoinhalte erneut zu zeigen oder die Datenströme und Darstellungsmodi interaktiv zu ändern.
    • – Übertragung über Netzwerk und Verteilung über Switch-System (z. B. Gigabit-Ethernet, UDP Protokoll usw.)
    • – Verwendung von kombinierter FPGA und DSP/Spezialchiptechnologie (Echtzeithardware)
  • Das Basiskonzept des Videoverteilungssystems und des eingebetteten Systems zur Videoverarbeitung ist schematisch in 2 dargestellt und basiert auf zwei funktionalen Einheiten in Kombination: die H.264-Videofunktionen zur Kompression und Dekompression und die Funktionen zur Netzwerksicherheit mit Hardware-Firewall und Echtzeitdatenverschlüsselung.
  • H.264 Videoeinheit
  • Die Videoeinheit des eingebetteten Systems besteht aus einem oder mehreren H.264-Encodern, die Bilddaten in Echtzeit mit dem H.264-Verfahren komprimieren können, und einem oder mehreren H.264-Decodern, die mehrere komprimierte Bilddatenströme gleichzeitig decodieren und darstellen können. Bild- und Tondaten werden über ein Kamerasystem oder eine HDMI/PAL-Quelle mit bis zu 60 Bildern pro Sekunde aufgenommen und an ein eingebettetes System, das als Server arbeitet, weitergeleitet, welches diese Daten aufbereitet, aufzeichnet und in ein H.264-Datenformat komprimiert. Die Bilddatenströme können dann entweder unkomprimiert an einen PC oder einen Monitor übertragen werden oder über eine Netzwerkverbindung weitergeleitet werden. Dieser Ablauf ist in 8 schematisch dargestellt.
  • Als Bilddatenquelle dienen GigE-Vision-kompatible Kameras, Sattelitenreceiver mit HDMI-Ausgabe, DVD-Player oder sonstige zur HDMI-Ausgabe fähige Geräte.
  • Das eingebettete System verfügt zusätzlich über die entgegengesetzte Funktionalität (Client). Es können sowohl H.264- als auch MPEG2-Datenströme eingespeist werden, die in diesem eingebetteten System in Echtzeit dekomprimiert werden und entweder rekodiert werden können oder direkt über HDMI ausgegeben werden. Dieser Ablauf ist in 9 schematisch dargestellt. Dabei ist es sowohl möglich, Videos im progressiven als auch im interlaced-(Zeilensprungverfahren)Datenformat abzuspielen und bei Bedarf zu deinterlacen.
  • Das gesamte System ist so aufgebaut, dass physikalisch nur ein einziger Typ eingebettetes System benötigt wird. Dieses eingebettete System ist auf Sicherheit in Bezug auf die Datenströme, aber auch in Bezug auf Produktpiraterie ausgelegt.
  • Das Videoverteilungssystem ist dabei so konzipiert, dass Systeme mit über hundert Servern und Clients in einem einzelnen Gigabit-Netzwerkstrang realisiert werden können (dies ist von der Auflösung der Datenströme abhängig). Alternativ kann der Datenstrang baumartig kaskadiert werden. Ein System mit vielen Komponenten ist in 3 schematisch dargestellt.
  • Die zweite gleichzeitige Funktionalität des eingebetteten Systems besteht in einer Netzwerksicherheitsfunktionalität, die über eine in Hardware implementierte Firewall und AES-Echtzeitdatenverschlüsselung die Datenübertragungssicherheit massiv erhöht. Die Kernfunktionen sind dabei
    • – 256 Bit AES Verschlüsselung des Netzwerkverkehrs
    • – Hardware-Firewall mit Portfreischaltung und Logging-Funktion
  • Genereller Aufbau des eingebetteten Systems
  • Konzeptionell besteht das eingebettete System aus einer einzelnen Baugruppe, die durch eine Basisplatine ergänzt wird, die die zusätzlichen Funktionen für den Standalone-Betrieb enthält.
  • Funktional kann das Modul die Serverfunktionen, die Clientfunktionen und die Netzwerksicherheitsfunktionen realisieren. Diese sind nachfolgend detaillierter beschrieben.
  • Das eingebettete System besteht vom Aufbau her (siehe 4 und 7) aus einer Kombination von FPGA- und Embedded Prozessor, GPU und Spezialhardware-Technologie (alle drei Funktionen im eingesetzten DSP). Derartige DSPs sind kommerziell erhältlich.
  • Dabei teilen sich beide Einheiten unterschiedliche Funktionen. Die Funktionalität des FPGAs 200 wird für die Echtzeitverarbeitung und Aufbereitung der GigE-Daten der Kamera, die Verarbeitung von HDMI Inputdaten 230, und insbesondere zur PC-Anbindung (beispielsweise über USB) 255 und für Sicherheitsaspekte benötigt. Der DSP 205 realisiert die HDMI-Ausgabe 235 und Skalierung sowie die H.264-Datenverarbeitung als Encoder/Decoder.
  • Weitere Bestandteile des eingebetteten Systems sind Arbeitsspeichermodule (RAM) 210, ROM-Module 215, die Konfigurationsdaten für den FPGA, BIOS usw. bereithalten, ein Anschluss 220 für eine Spannungsversorgung, Netzwerkanschlüsse 225 (mindestens einer ist zwingend erforderlich), eine Infrarot-Schnittstelle 240, ein PAL-Eingang 245 sowie ein Stereo-Audio-Eingang 250.
  • Serverfunktionalität
  • Die Serverfunktionalität des eingebetteten Systems ist in 5 schematisch dargestellt und besteht aus folgenden Detailfunktionen:
    • • Aufnahme von HDMI Datenströmen bis 1920×1080 p60 (progressive, 60 Hz)
    • • Kompression der Bild- und Audio-datenströme im H.264 Format
    • • Verpacken von Steuerungs- und Audiodaten in den H.264-Datenstrom
    • • Standalone-Fähigkeit mit Zugriff via Gigabit-Ethernet
    • • Individuelle FPGA-Sicherung gegen Produktpiraterie
    • • AES-Verschlüsselung des Datenstroms
    • • Versenden der komprimierten Daten über GigE-Netzwerk
  • Clientfunktionalität
  • Die Clientfunktionalität des eingebetteten Systems ist in 6 schematisch dargestellt und besteht aus folgenden Detailfunktionen:
    • • Annahme der komprimierten Daten über GigE-Netzwerk
    • • AES-Entschlüsselung des Datenstroms
    • • Dekompression der Bild- und Audiodaten aus dem H.264-Format bzw. Extraktion der Steuerungsdaten aus dem Datenstrom
    • • Ggf. Dekompression von MPEG2-Bilddatenströmen
    • • Deinterlacerfunktion mit hoher Qualität zur Realisierung von progressiven Bildmaterial
    • • Bildskalierung
    • • Restauration eines Bilddatenstroms mit 60 Bildern pro Sekunde aus den H.264-Datenströmen
    • • Standalone-Fähigkeit mit Zugriff via Gigabit-Ethernet
    • • Individuelle FPGA-Sicherung gegen Produktpiraterie
    • • Ausgabe der Video-, Audio- und Steuerungsdaten
  • Netzwerkfunktion (Firewall und Datenverschlüsselung)
  • Die Netzwerkfunktionalität des eingebetteten Systems besteht in einer in Hardware implementierten Firewall und AES-Echtzeitdatenverschlüsselung, wodurch die Datenübertragungssicherheit massiv erhöht wird. Die Kernfunktionen sind dabei
    • • 256 Bit AES-Verschlüsselung des Netzwerkverkehrs
    • • Hardware-Firewall mit Portfreischaltung und Logging-Funktion
  • Im Detail übernimmt vor allem der FPGA die Netzwerkfunktionen.
    • – Dabei enthält der FPGA eine 256 Bit AES-Echtzeit-Verschlüsselungseinheit, die die eingehenden und ausgehenden Netzwerkdaten ver- bzw. entschlüsselt.
    • – Es kann zwischen verschiedenen H.264 Datenströmen ausgewählt werden, die per Netzwerk in das/aus dem eingebetteten System übertragen werden.
    • – Eine Firewall erlaubt über eine Regeltabelle die Filterung von IP, Port und Mac-Adressen.
    • – Eine einstellbare Logging-Funktion der Firewall erlaubt das protokolieren der gültigen/ungültigen Zugriffsversuche auf das eingebettete System.
    • – Optional können freigeschaltete Ports/IPs/Mac-Adressen automatisch nach einer gewissen Anzahl von Fehlversuchen gesperrt werden oder ein Alarm ausgelöst werden, wenn zu viele unerlaubte Zugriffe pro Sekunde auf das eingebettete System erfolgen.
  • Sicherheit und Stabilität
  • Sicherheit gegen Produktpiraterie
  • Durch die Möglichkeit einer im eingebetteten System gespeicherten individuellen Hardwareseriennummer kann gewährleistet werden, dass das eingebettete System nur mit einem individuellen Freischaltcode betrieben werden kann. Damit ist eine Kopie des Moduls zur Vervielfältigung zwecklos. Im System können Freischaltcode-Überwachungsmittel vorgesehen sein, die ein Überwachen bzw. Abgleichen von Freischaltcodes mit einer Datenbank vornehmen können sowie gegebenenfalls ein Freishaltcode-Warnsignal abgeben können.
  • Sicherheit bei der Bild- und Datenübertragung
  • Optional können die Bilddatenströme über das Netzwerk mit einem AES-Verschlüsselungsverfahren gesichert werden, wodurch die Daten vor einem Angreifer in der Übertragungsstrecke geschützt werden. Dies betrifft sowohl die Datenübertragung über Internet als auch die interne Übertragung in beispielsweise einem Casino.
  • Hohe Stabilität und Ausfallsicherheit bei der Bilddatenübertragung und Darstellung
  • Durch den Einsatz von zwei unabhängigen echtzeitfähigen Rechenkomponenten wird eine hohe Betriebssicherheit bei hohen Leistungsreserven realisiert.
  • Stabilität durch Unabhängigkeit
  • Durch die Unabhängigkeit des eingebetteten Systems von einer PC-Steuerung wird die Stabilität der Gesamtanwendung erhöht. Fällt ein Teil des Gesamtsystems aus, so arbeiten die eingebetteten Systeme unabhängig weiter.
  • Netzwerksicherheit durch eine Hardware-Firewall
  • Durch den Einsatz einer Hardware-Firewall kann der unberechtigte Zugriff von außen durch nicht erlaubte Ports, nicht freigeschaltete IP-Adressen oder nicht autorisierte Mac-Adressen unterbunden werden. Darüber hinaus erlaubt das Logging eine Protokollierung erlaubter und unerlaubter Zugriffe. Durch den Einsatz einer Hardware-Firewall kann die Firewall nicht durch eine Überlastung versehentlich unerlaubte Pakete durchlassen, wie es bei in Software realisierten Firewalls der Fall ist.
  • Es sind zahlreiche Abwandlungen und Weiterbildungen der beschriebenen Ausführungsbeispiele verwirklichbar. So lässt sich ein erfindungsgemäßes eingebettetes System auch ohne Netzwerk einsetzen, wobei es gleichzeitig die Server- und Clientfunktionalität bereitstellt. Ferner lassen sich unterschiedlichste Kodierungs- und Verschlüsselungsstandards bzw. Verfahren nutzen, und ebenso lassen sich je nach gewünschtem Einsatzgebiet unterschiedliche Schnittstellen, Netzwerkprotokolle und Netzwerkarchitekturen verwenden, ohne das Wesen der Erfindung zu verändern.
  • Glossar
  • Bilddatenstrom, Audiodatenstrom, Videodatenstrom, kombinierter Datenstrom
  • Wir verstehen darunter Datenströme mit jeweils einem Kanal des entsprechenden Inhalts (Bilder, Audio, Video). Ein kombinierter Datenstrom enthält sowohl Bild- als auch Audio-Daten, sofern solche vorhanden oder gewünscht sind. Ein Videodatenstrom kann also ein Bilddatenstrom oder ein kombinierter Datenstrom sein.
  • Client/Server
  • Unter den Begriffen Client und Server verstehen wir sogenannte Streaming-Clients bzw. Streaming-Server. Als Streaming-Client bezeichnet man einen speziellen Client für Streaming Media; dabei kann es sich entweder um Software oder um Hardware handeln. Typische Streaming-Clients unterstützen spezielle Streaming-Protokolle wie RTP, RTCP und/oder RSVP. Als Streaming-Server bezeichnet man einen dedizierten Server für die Auslieferung von Streaming Media-Daten über ein Netzwerk. Typische Streaming-Server unterstützen spezielle Streaming-Protokolle wie RTP, RTSP, RTCP und RSVP (Hilfprotokoll für QoS-Verfahren IntServ). Streaming Media bezeichnet dabei aus einem Rechnernetz empfangene und gleichzeitig wiedergegebene Audio- und Videodaten. Den Vorgang der Datenübertragung selbst nennt man Streaming, und übertragene („gestreamte”) Programme werden als Livestream oder kurz Stream bezeichnet. (Nach http://de.wikipedia.org/wiki/Streaming-Client, http://de.wikipedia.org/wiki/Streaming-Server und http://de.wikipedia.org/wiki/Streaming_Media)
  • DSP
  • Ein Digitaler Signalprozessor oder DSP dient der kontinuierlichen Bearbeitung von digitalen Signalen (z. B. Audio- oder Videosignalen). Zur Verarbeitung von analogen Signalen wird der DSP in Verbindung mit Analog-Digital-Umsetzern und Digital-Analog-Umsetzern eingesetzt. DSPs enthalten im Vergleich zu Vielzweck-Mikroprozessoren einen auf häufig benötigte mathematische Operationen hin geschwindigkeitsoptimierten Prozessor. Einige DSPs enthalten am Ein- und Ausgang bereits die erforderlichen A/D- und D/A-Wandler.
  • Ein DSP muss eine bestimmte Datenmenge pro Zeiteinheit sicher verarbeiten können. Dies ergibt sich aus der Forderung einer meist fixen und von außen vorgegebenen Datenrate, mit der die Eingangsdaten in den DSP gelangen bzw. die verarbeiteten Daten wieder geschrieben werden müssen. Eine Art „Handshake” oder zeitliches Anhalten bei der Datenverarbeitung ist meistens nicht möglich. Folgende Maßnahmen können beispielsweise der Erhöhung der Verarbeitungsgeschwindigkeit dienen:
    • • Spezielle synchrone, serielle Schnittstellen für die Ein- und Ausgabe
    • • Sogenannte MAC-Befehle (Multiplier-Accumulator) für gleichzeitige Multiplikation und Addition in einem Maschinenzyklus
    • • Adressgeneratoren für die Implementierung von Schleifen und Ringpufferstrukturen ohne softwareseitigen Overhead
    • • Harvard-Architektur (Befehlsspeicher logisch und physisch vom Datenspeicher getrennt)
    • • Dedizierter Hardware-Stacks.
    • • Mehrmaliger Zugriff auf den Speicher in einem Zyklus
  • (Zitiert nach http://de.wikipedia.org/wiki/Digitaler_Signalprozessor)
  • eingebettetes System
  • Der Ausdruck eingebettetes System (auch engl. embedded system) bezeichnet einen elektronischen Rechner oder auch Computer, der in einen technischen Kontext eingebunden (eingebettet) ist. Dabei übernimmt der Rechner entweder Überwachungs-, Steuerungs- oder Regelfunktionen oder ist für eine Form der Daten- bzw. Signalverarbeitung zuständig, beispielsweise beim Ver- bzw. Entschlüsseln, Codieren bzw. Decodieren oder Filtern. (Zitiert nach http://de.wikipedia.org/wiki/Eingebettetes_System)
  • Ethernet, GigE
  • Ethernet ist eine Technologie, die Software (Protokolle usw.) und Hardware (Kabel, Verteiler, Netzwerkkarten usw.) für kabelgebundene Datennetze spezifiziert. Sie ermöglicht den Datenaustausch in Form von Datenpaketen zwischen den in einem lokalen Netz (LAN) angeschlossenen Geräten. Derzeit sind Übertragungsraten von 10 Megabit/s, 100 Megabit/s (Fast Ethernet), 1000 Megabit/s (Gigabit-Ethernet, GigE) bis 100 Gigabit/s spezifiziert. In seiner traditionellen Ausprägung erstreckt sich das LAN dabei nur über ein Gebäude; auch Ethernet über Glasfaser hat eine begrenzte Reichweite.
  • Firewall
  • Eine Firewall ist ein Sicherungssystem, das ein Netzwerk oder einen einzelnen Computer vor unerwünschten Netzwerkzugriffen schützt. Die Firewall dient dazu, den Netzwerkzugriff zu beschränken, basierend auf Absender- oder Zieladresse und genutzten Diensten. Sie überwacht den Datenverkehr und entscheidet anhand festgelegter Regeln, ob bestimmte Netzwerkpakete durchgelassen werden oder nicht. Die einfache Filterung von Datenpaketen anhand der Netzwerkadressen ist die Grundfunktion aller Firewalls. Zur Aufgabe einer sogenannten Paketfilter-Firewall gehört es, Netzwerkpakete anhand ihrer Netzwerkadresse zu sperren oder durchzulassen. Dafür wertet sie die Header-Informationen der Netzwerkpakete aus. Die einfache Paketfilterung arbeitet mit statischen Regeln und betrachtet jedes Netzwerkpaket einzeln, stellt also keine Beziehungen zu den vorherigen Netzwerkpaketen her. Demgegenüber gibt es eine erweiterte Form der (zustandsgesteuerten) Paketfilterung, die solche Beziehungen erfasst. So wird der Zugriff auf das Quellsystem, das eine Kommunikation angefordert hat, weiter eingeschränkt.
  • FPGA
  • Ein Field Programmable Gate Array oder FPGA ist ein Integrierter Schaltkreis, in den eine logische Schaltung programmiert werden kann.
  • Der Begriff Programmierung ist in diesem Kontext allerdings anders zu verstehen als bei der Erstellung von Software für einen herkömmlichen Prozessor: In einem FPGA werden Schaltungsstrukturen mittels Hardwarebeschreibungssprachen oder in Form von Schaltplänen erstellt und diese Daten zwecks Konfiguration in den Baustein übertragen. Dadurch werden bestimmte Schalterstellungen aktiviert bzw. deaktiviert, was eine konkret implementierte digitale Schaltung ergibt. Man spricht daher statt von der Programmierung auch von der Konfiguration eines FPGAs. Durch die spezifische Konfiguration interner Strukturen können in einem FPGA verschiedene Schaltungen realisiert werden, bis hin zu hochkomplexen Schaltungen, wie z. B. Mikroprozessoren.
  • FPGAs werden vor allem dort eingesetzt, wo es auf schnelle Signalverarbeitung und flexible Änderung der Schaltung ankommt, um beispielsweise nachträgliche Verbesserungen an den implementierten Funktionen vornehmen zu können, ohne dabei direkt die physische Hardware ändern zu müssen.
  • Die Konfiguration erfolgt typischerweise einmal vor jedem Einsatz, wodurch der FPGA auf eine konkrete Funktion konfiguriert wird, die er jedoch wieder durch Abschalten der Betriebsspannung verliert. Meist steht dem FPGA deshalb ein nichtflüchtiger Speicher zur Seite, der die Konfiguration vorhält, dessen Inhalt aber selbst auch aktualisierbar ist.
  • FPGAs werden beispielsweise zur Echtzeit-Verarbeitung von einfachen bis komplexen Algorithmen genutzt, zur digitalen Signalverarbeitung im Rahmen von digitalen Filtern oder zur schnellen Fourier-Transformation, aber auch für Protokoll-Implementierungen wie Teile des Ethernet-MAC-Layers, Kodierung von digitalen Videosignalen, Verschlüsselung von Daten und Fehlerkorrekturverfahren, sowie für digitale Speicheroszilloskope. (Zitiert nach http://de.wikipedia.org/wiki/Fpga)
  • Hardware-Mittel
  • Unter Hardware-Mitteln verstehen wir elektronische Baugruppen, die für bestimmte Zwecke optimiert sind und ihre Funktion hauptsächlich in Echtzeit ausführen. Typischerweise werden für solche Zwecke DSPs, programmierbare Hardware wie FPGAs, Spezial-ASICs (application-specific integrated circuit) oder Kombinationen davon verwendet. Diese können auch eingebettete Mikroprozessoren (z. B. ARM-Prozessoren) enthalten. Im Rahmen dieser Anmeldung umfasst der Begriff Hardware-Mittel nicht Vielzweck-Mikroprozessoren, die für die hier genannten Zwecke nicht optimiert sind. Vielzweck-Mikroprozessoren (z. B. von Intel oder AMD) finden sich typischerweise als zentrale Recheneinheiten in Personal-Computern.
  • HD
  • Diese Abkürzung steht für „High Definition” (Engl.), wobei in unserem Fall Bildauflösungen von 1280×720 oder 1920×1080 Pixeln gemeint sind, wobei die höhere Auflösung auch als „Full HD” bezeichnet wird.
  • Die Videoauflösung umfasst die gleichen Parameter wie die Bildauflösung (Zeilen und Spalten oder Pixelzahl, Seitenverhältnis) und erweitert diese um den temporalen Aspekt der Bildwiederholrate. Bei ihr muss zwischen der Wiederholung von Teil-(meist Halbbilder im Zeilensprungverfahren, interlaced) und Vollbildern (frames, progressive scan) unterschieden werden. Übliche Bildwiederholraten sind 24, 25, 50 oder 60 Hz. Im HDTV-Bereich sind 720p und 1080i üblich. Von Full HD spricht man ab 1080p25, d. h. 1920×1080 Pixel, progressive, 25 Hz. (Nach http://de.wikipedia.org/wiki/Videoauflösung, http://de.wikipedia.org/wiki/Full_HD und http://de.wikipedia.org/wiki/High_Definition_Television)
  • Video
  • Unter Video verstehen wir bewegte Bilder bzw. Bildströme, sowohl mit als auch ohne Ton.
  • Zeilensprungverfahren, Vollbildverfahren
  • Das Zeilensprungverfahren (engl. Interlace) dient der Verringerung des Bildflimmerns in der Fernsehtechnik. Es wurde mit der Absicht entwickelt, die Signale mit einer möglichst geringen Bandbreite flimmerfrei anzuzeigen. Dabei baut sich ein vollständiges Bild (Frame) aus zwei unterschiedlichen Halbbildern auf. Bei der Bildentstehung werden für das erste Halbbild nur die ungeraden Zeilen des Ausgabegeräts dargestellt; ist dieses komplett, wird das zweite Halbbild aus den geraden Zeilen aufgebaut. Das menschliche Auge nimmt die einzelnen Zeilen nicht als flimmernd, sondern als wandernd wahr und integriert die Zeilensprünge im Idealfall zu einem Gesamtbild.
  • Das Vollbildverfahren (engl. Progressive Scan) bezeichnet eine Technik beim Bildaufbau, bei der das Ausgabegerät – anders als beim Zeilensprungverfahren – keine zeilenverschränkten Halbbilder gesendet bekommt, sondern mit echten Vollbildern gespeist wird. (Zitiert nach http://de.wikipedia.org/wiki/Zeilensprungverfahren und http://de.wikipedia.org/wiki/Vollbildverfahren)
  • Bezugszeichenliste
  • 100
    Satellitenfernsehempfänger
    110
    eingebettetes System – Server
    120
    Netzwerk
    130
    Bildschirm
    140
    eingebettetes System – Client
    150
    Steuerungs-PC
    200
    FPGA
    205
    DSP (verdeckt durch Lüfter)
    210
    RAM
    215
    ROM (mit z. B. Konfiguration für FPGA)
    220
    Anschluss für Spannungsversorgung
    225
    Netzwerkanschlüsse
    230
    HDMI-Eingang
    235
    HDMI-Ausgang
    240
    IR-Schnittstelle
    245
    PAL-Eingang
    250
    Stereo-Audio-Eingang
    255
    Aussparung für USB-Anschluss
  • zitierte Patentliteratur
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 2247108 A1 [0003]
    • WO 90/13972 A1 [0004]
    • WO 2004/032341 A2 [0005]
    • US 2005/0248652 A1 [0006]
  • Zitierte Nicht-Patentliteratur
    • http://de.wikipedia.org/wiki/Streaming-Client [0085]
    • http://de.wikipedia.org/wiki/Streaming-Server [0085]
    • http://de.wikipedia.org/wiki/Streaming_Media [0085]
    • http://de.wikipedia.org/wiki/Digitaler_Signalprozessor [0088]
    • http://de.wikipedia.org/wiki/Eingebettetes_System [0089]
    • http://de.wikipedia.org/wiki/Fpga [0096]
    • http://de.wikipedia.org/wiki/Videoauflösung [0099]
    • http://de.wikipedia.org/wiki/Full_HD [0099]
    • http://de.wikipedia.org/wiki/High_Definition_Television [0099]
    • http://de.wikipedia.org/wiki/Zeilensprungverfahren [0102]
    • http://de.wikipedia.org/wiki/Vollbildverfahren [0102]

Claims (18)

  1. Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln zum Realisieren folgender Funktionen: a) einer Server-Funktion, wobei zum Realisieren der Server-Funktion die folgenden Funktionen realisiert sind: a1) Annahme von mindestens einem Bilddatenstrom; a2) Kompression mindestens eines der Bilddatenströme in jeweils einen kombinierten Datenstrom; a3) Ausgabe mindestens eines der kombinierten Datenströme über ein protokollbasiertes Netzwerk; b) einer Client-Funktion, wobei zum Realisieren der Client-Funktion die folgenden Funktionen realisiert sind: b1) Annahme mindestens eines kombinierten Datenstroms aus dem protokollbasierten Netzwerk; b2) Dekompression des mindestens einen kombinierten Datenstroms; b3) Ausgabe des dekomprimierten Bilddatenstroms; c) wobei die Hardware-Mittel derart ausgelegt sind, dass sie einen kontinuierlichen Bilddatenstrom mit mindestens 24 Bildern pro Sekunde ohne Datenstau komprimieren und dekomprimieren können.
  2. Eingebettetes System nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die Hardware-Mittel derart ausgelegt sind, dass sie einen kontinuierlichen Bild- und Audio-Datenstrom mit mindestens 60 Bildern pro Sekunde und mit einer Auflösung von mindestens 1920×1080 Pixeln ohne Datenstau komprimieren und dekomprimieren können.
  3. Eingebettetes System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kompression der Datenströme gemäß dem H.264- oder dem H.265-Standard erfolgt.
  4. Eingebettetes System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass a) die Server-Funktion eine Funktion zum Verschlüsseln des kombinierten Datenstroms realisiert; und dass b) die Client-Funktion eine Funktion zum Entschlüsseln des mindestens einen kombinierten Datenstroms realisiert.
  5. Eingebettetes System nach einem der vorhergehenden Ansprüche, gekennzeichnet durch a) Hardware-Mittel zur Annahme von mehr als einem kombinierten Datenstrom über das Protokoll-basierte Netzwerk; b) Hardware-Mittel zur Dekompression von mehr als einem kombinierten Datenstrom; c) Hardware-Mittel zur Skalierung und/oder Rotation und/oder Vereinigung und/oder Überblendung von mehr als einem dekomprimierten Bild- und Audio-Datenstrom; d) Hardware-Mittel zur gemeinsamen Ausgabe von mehr als einem dekomprimierten Bild- und Audio-Datenstrom zur gleichzeitigen Darstellung an einem Bildschirm; und e) Hardware-Mittel zur geteilten Ausgabe von einem oder mehreren kombinierten Datenströmen an mehrere Bildschirme, die als Videowand angeordnet sind.
  6. Eingebettetes System nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Hardware-Mittel zum Konvertieren eines im Zeilensprungverfahren aufgenommenen Bilddatenstroms zum Vollbildverfahren.
  7. Eingebettetes System nach einem der vorhergehenden Ansprüche, gekennzeichnet durch a) ein Speichermodul mit einem BIOS; b) ein Speichermodul mit einem Betriebssystem; sowie c) Mittel zum Annehmen von Steuersignalen über das protokollbasierte Netzwerk.
  8. Eingebettetes System nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Mittel (240) zum Ausgeben von Steuersignalen zur Fernbedienung angeschlossener Geräte.
  9. Eingebettetes System nach einem der vorhergehenden Ansprüche, gekennzeichnet durch a) Hardware-Mittel zur Zwischenspeicherung und wiederholten Ausgabe des mindestens einen kombinierten Datenstroms; und b) Mittel zur interaktiven Steuerung des eingebetteten Systems durch den Betrachter des mindestens einen ausgegebenen Datenstroms.
  10. Eingebettetes System nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Hardware-Mittel zur Verbesserung der Bildqualität des Bildddatenstroms, welche folgende Funktionen bereitstellen: a) Änderung der Helligkeit und/oder b) Änderung der Bildschärfe und/oder c) Änderung des Kontrasts und/oder d) Farbkorrekturen und/oder e) Rauschunterdrückung und/oder f) Reduktion von Artefakten und/oder g) Anwendung von weiteren Filtern.
  11. Eingebettetes System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Hardware-Mittel einen FPGA (200) umfassen, wobei durch den FPGA folgende Funktionen bereitgestellt werden: a) Anbindung an das protokollbasierte Netzwerk; b) Firewall; c) Verschlüsselung des auszugebenden kombinierten Datenstroms, wenn das eingebettete System als Server arbeitet; und d) Entschlüsselung des mindestens einen kombinierten Datenstroms, wenn das eingebettete System als Client arbeitet.
  12. Eingebettetes System nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die Konfiguration des FPGA individuell verschlüsselt ist.
  13. Eingebettetes System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Hardware-Mittel einen DSP (205) umfassen, wobei durch den DSP folgende Funktionen bereitgestellt werden: a) Kompression mindestens eines der Bild- und Audio-Datenströme in jeweils einen kombinierten Datenstrom, wenn das eingebettete System als Server arbeitet; b) Dekompression des mindestens einen kombinierten Datenstroms, wenn das eingebettete System als Client arbeitet; und c) Skalierung und Ausgabe des dekomprimierten Bild- und Audio-Datenstroms über eine Schnittstelle, wenn das eingebettete System als Client arbeitet.
  14. Eingebettetes System nach einem der vorhergehenden Ansprüche, gekennzeichnet durch a) mindestens ein Netzwerk-Anschluss (225) und b) mindestens eine Schnittstelle gemäß einem Video-Standard (230, 235, 245) und/oder c) mindestens eine Schnittstelle gemäß einem Audio-Standard (250) und/oder d) mindestens eine Schnittstelle zu einem Datenbus (255) und/oder e) eine Infrarot-Schnittstelle (240).
  15. Eingebettetes System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das protokollbasierte Netzwerk eine Übertragungskapazität von mindestens 100 MBit pro Sekunde aufweist.
  16. Videoverteilungssystem zum Annehmen und Verteilen von mindestens einem Video-Datenstrom aus mindestens einer Videoquelle (100) mit: a) einem protokollbasierten Netzwerk (120); b) mindestens einem eingebetteten System (110) nach einem der vorhergehenden Ansprüche, das als Server arbeitet und mindestens einen der Bild-Datenströme aus der mindestens einen Videoquelle (100) annimmt, komprimiert und über das protokollbasierte Netzwerk (120) ausgibt; und c) mindestens einem eingebetteten System (140) nach einem der vorhergehenden Ansprüche, das als Client arbeitet und mindestens einen komprimierten Datenstrom aus dem protokollbasierten Netzwerk (120) annimmt, dekomprimiert und über eine Schnittstelle ausgibt.
  17. Videoverteilungssystem nach dem vorhergehenden Anspruch, wobei a) als Videoquellen Satellitenfernseh-Empfänger (100) oder Kabelfernsehanschlüsse oder DVBT-Empfänger oder PCs oder Mediaplayer eingesetzt werden; und b) an die Schnittstellen der eingebetteten Systeme (140), die als Client arbeiten, über welche die Datenströme ausgegeben werden, Bildschirme (130) angeschlossen sind.
  18. Videoverteilungssystem zum Annehmen und Verteilen von mindestens einem Video-Datenstrom aus mindestens einer Videoquelle (100) mit: a) einem protokollbasierten Netzwerk (120); b) mindestens einem eingebetteten System (110), das als Server arbeitet und mindestens einen der Bild-Datenströme aus der mindestens einen Videoquelle (100) annimmt, komprimiert und über das protokollbasierte Netzwerk (120) ausgibt; und c) mindestens einem eingebetteten System (140), das als Client arbeitet und mindestens einen komprimierten Datenstrom aus dem protokollbasierten Netzwerk (120) annimmt, dekomprimiert und über eine Schnittstelle ausgibt.
DE201310001814 2013-02-04 2013-02-04 Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln Ceased DE102013001814A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201310001814 DE102013001814A1 (de) 2013-02-04 2013-02-04 Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201310001814 DE102013001814A1 (de) 2013-02-04 2013-02-04 Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln

Publications (1)

Publication Number Publication Date
DE102013001814A1 true DE102013001814A1 (de) 2014-08-07

Family

ID=51205813

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201310001814 Ceased DE102013001814A1 (de) 2013-02-04 2013-02-04 Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln

Country Status (1)

Country Link
DE (1) DE102013001814A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108111859A (zh) * 2017-12-29 2018-06-01 北京华航无线电测量研究所 基于JetsonTX1平台的H.264视频编解码方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1990013972A1 (en) 1989-05-03 1990-11-15 On Command Video Corporation Video selection and distribution system
WO2002089487A2 (de) * 2001-04-27 2002-11-07 Fenkart Informatik & Telekommunikations Kg Vorrichtung und verfahren zur übertragung von multimedialen datenobjekten
WO2004032341A2 (en) 2002-10-02 2004-04-15 Symphony Media Systems, Llc Video distribution system for digital and analog subscribers
US20050248652A1 (en) 2003-10-08 2005-11-10 Cisco Technology, Inc., A California Corporation System and method for performing distributed video conferencing
US20090132825A1 (en) * 2007-11-21 2009-05-21 University Of North Texas Apparatus and method for transmitting secure and/or copyrighted digital video broadcasting data over internet protocol network
EP2129126A1 (de) * 2008-05-30 2009-12-02 Sony Corporation Übertragungsvorrichtung, Übertragungsverfahren und Empfangsvorrichtung
EP2247108A1 (de) 2007-12-31 2010-11-03 Digital Keystone, Inc. Verteiltes TV-Zugriffssystem

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1990013972A1 (en) 1989-05-03 1990-11-15 On Command Video Corporation Video selection and distribution system
WO2002089487A2 (de) * 2001-04-27 2002-11-07 Fenkart Informatik & Telekommunikations Kg Vorrichtung und verfahren zur übertragung von multimedialen datenobjekten
WO2004032341A2 (en) 2002-10-02 2004-04-15 Symphony Media Systems, Llc Video distribution system for digital and analog subscribers
US20050248652A1 (en) 2003-10-08 2005-11-10 Cisco Technology, Inc., A California Corporation System and method for performing distributed video conferencing
US20090132825A1 (en) * 2007-11-21 2009-05-21 University Of North Texas Apparatus and method for transmitting secure and/or copyrighted digital video broadcasting data over internet protocol network
EP2247108A1 (de) 2007-12-31 2010-11-03 Digital Keystone, Inc. Verteiltes TV-Zugriffssystem
EP2129126A1 (de) * 2008-05-30 2009-12-02 Sony Corporation Übertragungsvorrichtung, Übertragungsverfahren und Empfangsvorrichtung

Non-Patent Citations (11)

* Cited by examiner, † Cited by third party
Title
http://de.wikipedia.org/wiki/Digitaler_Signalprozessor
http://de.wikipedia.org/wiki/Eingebettetes_System
http://de.wikipedia.org/wiki/Fpga
http://de.wikipedia.org/wiki/Full_HD
http://de.wikipedia.org/wiki/High_Definition_Television
http://de.wikipedia.org/wiki/Streaming_Media
http://de.wikipedia.org/wiki/Streaming-Client
http://de.wikipedia.org/wiki/Streaming-Server
http://de.wikipedia.org/wiki/Videoauflösung
http://de.wikipedia.org/wiki/Vollbildverfahren
http://de.wikipedia.org/wiki/Zeilensprungverfahren

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108111859A (zh) * 2017-12-29 2018-06-01 北京华航无线电测量研究所 基于JetsonTX1平台的H.264视频编解码方法及装置
CN108111859B (zh) * 2017-12-29 2020-10-09 北京华航无线电测量研究所 基于JetsonTX1平台的H.264视频编解码方法

Similar Documents

Publication Publication Date Title
WO2014118306A1 (de) Eingebettetes system zur videoverarbeitung mit hardware-mitteln
US9990476B2 (en) System for interactive matrix manipulation control of streamed data and media
DE102013114633B4 (de) Netzwerk-adaptive Latenzzeit-Verringerung durch Framerate-Steuerung
DE69106033T2 (de) Verfahren und Vorrichtung zur Verwürfelung-Entwürfelung digitaler Bilddaten.
DE60026451T2 (de) Informationsverteilungsvorrichtung, Informationsempfangsgerät und Informationsverteilungsverfahren
DE112007001012T5 (de) Verteilte Speicherung von Mediendaten
DE112012001770T5 (de) Auf Echtzeitverarbeitungsfähigkeit basierende Qualitätsanpassung
DE10236679A1 (de) Drahtloses Videoanzeigegerät und Verfahren
DE10120806B4 (de) Vorrichtung und Verfahren zur Übertragung von multimedialen Datenobjekten
DE202012013682U1 (de) Videokommunikation mit ultraniedriger Latenz
DE60020245T2 (de) System und verfahren zur sicherung von auf-anfrage ablieferung von vorher verschlüssetem inhalt mit ecm unterdrückung
DE202016008753U1 (de) Bei Gigabit-Ethernet anwendbare vernetzte Videokommunikation
US20230244764A1 (en) System for Interactive Matrix Manipulation Control of Streamed Data
DE602004010577T2 (de) System und Verfahren zur individuellen Video-Verschlüsselung
DE102013001814A1 (de) Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln
WO2021223819A2 (de) System und systembox zum empfangen von videostreams
EP2670155B1 (de) Hybrid-TV-Empfänger mit einer Videomischeinrichtung für eine Mehrbildwiedergabe zum zeitgleichen visuellen Darstellen von Medieninhalten auf einem Wiedergabeschirm
EP2688289B1 (de) Verfahren zur Verarbeitung von Video- und/oder Audiosignalen
EP2149245B8 (de) Verfahren und datenübertragungssystem zur sicheren übertragung von video- und/oder audiodaten über ein unsicheres öffentliches ip-basiertes netz
KR20100094181A (ko) 영상처리시스템 및 영상처리방법
EP1329050A2 (de) Modul zur sicheren übertragung von daten
AT414292B (de) Verfahren zur übertragung von audio- und videostreams über das internet zwischen mehreren datenquellen und einer datensenke
DE102020112491A1 (de) System und Systembox zum Empfangen von Videostreams
DE102005057568A1 (de) Sendeeinrichtung und Empfangseinrichtung
DE102013224966A1 (de) Gatewaybasierte und zentrale Netzwerkverwaltung und Koordination

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: DENNEMEYER & ASSOCIATES S.A., DE

R002 Refusal decision in examination/registration proceedings
R082 Change of representative

Representative=s name: DENNEMEYER & ASSOCIATES S.A., DE

R003 Refusal decision now final
R081 Change of applicant/patentee

Owner name: NOVOMATIC AG, AT

Free format text: FORMER OWNER: SILICON SOFTWARE GMBH, 68163 MANNHEIM, DE

Effective date: 20140819

R082 Change of representative

Representative=s name: DENNEMEYER & ASSOCIATES S.A., DE

Effective date: 20131028

Representative=s name: DENNEMEYER & ASSOCIATES S.A., DE

Effective date: 20140819

R003 Refusal decision now final

Effective date: 20140909