EP2989788A1 - Eingebettetes system zur videoverarbeitung mit hardware-mitteln - Google Patents

Eingebettetes system zur videoverarbeitung mit hardware-mitteln

Info

Publication number
EP2989788A1
EP2989788A1 EP14706494.3A EP14706494A EP2989788A1 EP 2989788 A1 EP2989788 A1 EP 2989788A1 EP 14706494 A EP14706494 A EP 14706494A EP 2989788 A1 EP2989788 A1 EP 2989788A1
Authority
EP
European Patent Office
Prior art keywords
embedded system
data stream
network
video
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP14706494.3A
Other languages
English (en)
French (fr)
Inventor
Martin Zimmerl
Thomas SCHLÖGL
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Novomatic AG
Original Assignee
Novomatic AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Novomatic AG filed Critical Novomatic AG
Priority to EP14706494.3A priority Critical patent/EP2989788A1/de
Publication of EP2989788A1 publication Critical patent/EP2989788A1/de
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/756Media network packet handling adapting media to device capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/214Specialised server platform, e.g. server located in an airplane, hotel, hospital
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/214Specialised server platform, e.g. server located in an airplane, hotel, hospital
    • H04N21/2143Specialised server platform, e.g. server located in an airplane, hotel, hospital located in a single building, e.g. hotel, hospital or museum
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234309Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4 or from Quicktime to Realvideo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2347Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving video stream encryption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23895Multiplex stream processing, e.g. multiplex stream encrypting involving multiplex stream encryption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2665Gathering content from different sources, e.g. Internet and satellite
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41415Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/418External card to be used in combination with the client device, e.g. for conditional access
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/418External card to be used in combination with the client device, e.g. for conditional access
    • H04N21/4183External card to be used in combination with the client device, e.g. for conditional access providing its own processing capabilities, e.g. external module for video decoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4344Remultiplexing of multiplex streams, e.g. by modifying time stamps or remapping the packet identifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4385Multiplex stream processing, e.g. multiplex stream decrypting
    • H04N21/43853Multiplex stream processing, e.g. multiplex stream decrypting involving multiplex stream decryption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • H04N21/440272Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA for performing aspect ratio conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/4424Monitoring of the internal components or processes of the client device, e.g. CPU or memory load, processing speed, timer, counter or percentage of the hard disk space used
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline

Definitions

  • the invention relates to an embedded video processing system and a video distribution system.
  • Such devices are particularly useful for distributing video data from multiple sources to multiple presentation units (eg, screens).
  • presentation units eg, screens
  • a typical area of application is betting offices.
  • Other infotainment systems in which different information or different data streams for common output to display simultaneously on one or more screens, such as displays at stations, airports, shopping centers, etc., are areas of application.
  • IPTV IP Television
  • Internet TV a local carrier-specific application executes the content navigation
  • a standards-based browser is used to enable navigation of the content.
  • video content delivers video content over an Internet connection to a viewer's TV.
  • EP2247108A1 "Distributed TV access System” discloses an on-line application for the navigation of broadcasts (broadcast signals, ie broadcast signals) transmitted through a network such as cable or satellite A customer receives the broadcast signals through a first network connection and navigate the television content through an online application through a second network
  • the first network connection and the second network connection can be two ports on the same network (eg two connections via two different software ports) or two Connections in two different networks (eg the Internet and a private TV network such as a cable from satellite TV network).
  • the invention has for its object to provide a system of the type mentioned, which is versatile.
  • the proposed measures achieve a high level of flexibility in the modes and the connections and resolutions and achieve a high degree of combination in the processing of a wide variety of broadcast signals and the provision of the broadcast signals to the user.
  • an advantageous scalability in terms of number of participants and structure of the system is achieved and allows real-time capability and security of the signal processing and the system.
  • An embedded video processing system includes hardware means to perform the following functions:
  • a client function ii) a client function, the following functions being implemented to realize the client function:
  • the hardware means for realizing the server function and the client function are arranged on a common board.
  • the hardware means are designed to provide a continuous image and audio data stream at at least 24 frames per second, preferably at least 25 frames per second, more preferably at least 50 frames per second, and most preferably at least 60 frames per second without data congestion compress and decompress.
  • the hardware means for realizing the server function and the client function are arranged on a common board, a compact structure is provided.
  • the common board is designed as a PC plug-in card and can be faded in as a network card in a PC operating system environment.
  • the system has a) hardware means for accepting more than one combined data stream over the protocol-based network; b) hardware means for decompressing more than one combined data stream; c) hardware means for scaling and / or rotating and / or merging and / or fading more than one decompressed picture and audio stream; d) hardware means for co-outputting more than one decompressed image and audio stream for simultaneous display on a screen; and e) hardware means for the shared output of one or more combined data streams to a plurality of screens arranged as a video wall.
  • the currents can be arranged arbitrarily on one or more screens.
  • the hardware means are designed such that they are
  • Enabling code monitoring means comprise monitoring and reconciling enabling codes.
  • the unlock code and the unlock code monitoring means provide relatively high security against product piracy.
  • the unlock code monitoring means are expediently designed to output an enable code warning signal or an enable code enable signal.
  • the hardware means are advantageously designed such that they compress and decompress a continuous image and audio data stream with at least 60 images per second and with a resolution of at least 1920 ⁇ 1080 pixels without congestion.
  • the embedded system is thus able to process data streams in "fill HD" resolution, of course, a resolution of 1280 ⁇ 720 is also possible.
  • the compression of the data streams takes place according to the H.264 or the H.265 standard. This allows a particularly high compression rate for video streams, so that the required Bandwidth for the data transmission over the network can be kept as low as possible. Support for other compression standards, such as MPEG-2, may alternatively or additionally be provided.
  • the server function is a function for encrypting the combined data stream
  • the client function is a function for decrypting the at least one combined data stream.
  • This encryption and decryption takes place in real time using hardware, preferably according to the AES ("advanced encryption standard") encryption method, preferably with a key length of at least 256 bits, which allows the data to be protected against attackers in the transmission link between server and client ,
  • AES advanced encryption standard
  • the embedded system according to the invention has hardware means for converting an interlaced image data stream to the full-frame method. This allows a high quality progressive video stream to be generated in real time, even when the video source provides only interlaced material.
  • the embedded system has a) a memory module with a BIOS; b) a memory module with an operating system; and c) means for accepting control signals over the protocol-based network.
  • the embedded system according to the invention can operate independently of other devices ("standalone") and, in particular, does not have to be connected to a computer for operation, however, the embedded system can be controlled via the protocol-based network, for example with respect to Selecting the sources of the data streams and the desired transmission format (server), or, for example, with regard to the selection of the data streams to be displayed and the display mode (client).
  • a further advantageous embodiment of the embedded system according to the invention has means for outputting control signals for the remote control of connected devices. This allows remote control of the connected devices via the embedded system, such as satellite television receivers (servers) or screens (client), without the need for additional remote control units.
  • control signals can be output via an optionally present infrared interface or via an optionally present HD MI output or also via the network. Because the control commands can be transmitted to the embedded system via the network, it is also possible to operate the connected devices over greater distances and, if necessary, over structural obstacles. The operation can be carried out locally for individual embedded or centrally connected to the network according to the invention all embedded systems.
  • the connected devices are displayed on a display device such as a personal computer (PC) or a tablet computer and the representations are associated with selection menus to select display formats or define, and / or assign a specific data stream of a particular server to a client , It is also possible to present a visualized infrared remote control to set screen-specific properties in a manner that is easy for the user of the system to detect.
  • the representation of the infrared remote control can correspond to a remote control known to control a television.
  • the embedded system has hardware means for improving the image quality of the image data stream, which provide the following functions: a) change in brightness and / or b) change in contrast and / or c) change in image sharpness and / or d) Noise suppression and / or e) color corrections and / or f) reduction of artifacts and / or g) application of further filters.
  • the hardware means can be represented for example on a graphical user interface and controlled by means of associated selection menus, wherein an operator can see a change made to the client, ie the display device, and / or a representation in the user interface.
  • the hardware means can also be automatically adjustable, for example on the basis of applied measurement data and comparison data for optimizing actual data of the data stream to be changed.
  • a further advantageous embodiment of the embedded system according to the invention is characterized in that the hardware means comprise an FPGA (Field Programmable Gate Array), wherein the following functions are provided by the FPGA: a) connection to the protocol-based network; b) firewall; c) encryption of the output combined stream when the embedded system is operating as a server; and d) decrypting the at least one combined data stream when the embedded system is operating as a client.
  • FPGA Field Programmable Gate Array
  • the firewall allows the filtering of IP, port and / or Mac addresses via a rule table.
  • An adjustable logging function of the firewall allows the logging of valid and / or invalid access attempts to the embedded system.
  • idle ports / 1 Ps / Mac addresses can be automatically locked after a certain number of failed attempts, or an alarm can be raised if there is too much unauthorized access to the embedded system per unit of time.
  • the FPGA also includes a 256-bit AES encryption unit that can encrypt and decrypt incoming and outgoing network data in real-time. This implementation of the embedded system achieves the highest possible network security.
  • the configuration of the FPGA is individually encrypted. As a result, a safeguard against product piracy is achieved since possibly read-out configuration data of an FPGA in an embedded system according to the invention can not be used to configure another such embedded system.
  • the individual hardware serial number and / or the individual activation code can serve this purpose.
  • the hardware means comprise a DSP (Digital Signal Processor), the following functions being provided by the DSP:
  • DSP Digital Signal Processor
  • the embedded system has a) at least one network connection and b) at least one interface to a data bus and / or c) at least one interface according to a video interface.
  • Standard and / or d) at least one interface according to an audio standard and / or e) has an infrared interface.
  • the network connection is mandatory in this case, the other interfaces or connections are optional.
  • These can, for example, HDMI interfaces - preferably a port for data acquisition from a video source and a data output to a screen - and / or a PAL interface and / or an additional stereo audio interface and / or a USB interface and / or an infrared interface for remote control of the connected video source or the connected screen.
  • the protocol-based network to which the embedded system according to the invention is connected has a transmission capacity of at least 100 Mbit per second.
  • this is a Gigabit Ethernet network, ie a network that uses the Ethernet protocol and has a transmission capacity of at least 1000 Mbit per second.
  • a video distribution system for accepting and distributing at least one video stream from at least one video source, comprising:
  • At least one embedded system described above operating as a server, accepting, compressing and outputting at least one of the image streams from the at least one video source via the protocol-based network;
  • At least one embedded system described above which acts as a client and accepts at least one compressed data stream from the protocol-based network, decompresses and outputs via an interface.
  • Such a video distribution system is very versatile and almost arbitrarily scalable or expandable due to its modular structure and the characteristics of the embedded systems used. It is advantageous if in the video distribution system according to the invention a) as video sources satellite TV receiver or cable television connections or DVBT receiver or PCs or media players, etc. are used; and b) screens are connected to the interfaces of the embedded systems acting as clients over which the data streams are output.
  • a video distribution system for accepting and distributing at least one video stream from at least one video source comprising: a) a protocol-based network;
  • At least one embedded system that operates as a server and accepts at least one of the image streams from the at least one video source, compresses and outputs over the protocol-based network; and c) at least one embedded system acting as a client and at least one compressed data stream from the protocol-based one
  • a control PC is connected to a network in which image and / or audio data streams are present, and a display device for displaying at least one controllable screen, wherein the control PC comprises at least one input device and, wherein by means of a on the Display device displayable selection menu
  • the screen is on or off and / or
  • the data streams to be displayed on the screens are selectable and / or
  • a position of images on at least one screen is selectable or adjustable and / or
  • a display format is selectable and / or e. a representation of a remote control with a plurality of switches can be displayed, wherein by means of the switch of the remote control functions of the screen are switchable.
  • the graphical user interface it is possible to control all the screens present in the system or network, not only with regard to their settings but also with regard to the content to be displayed, by means of an appropriate allocation of the data streams with the video / audio data, for example television channels.
  • a selection and assignment of information data for example in the form of a so-called news ticker, browser URL, so Internet pages, and / or image data is easily possible.
  • data streams of multiple screens which are composed as a video wall, individually compiled.
  • the graphical user interface can also save and / or recall default settings and / or user settings.
  • a current arrangement and occupancy of the screens in a selected network is automatically displayed on the display device. Accordingly, the actual screens are visualized and easily selectable by a user. If a visualized screen is selected, then the user can open the associated selection menu, for example by a mouse click, a keyboard command or the touch of a sensor field, if the display device is designed as a touch screen.
  • the selection menu only displays those menu items, ie commands for the control, which can also be executed on the respective screen or the screen arrangement in the form of the video wall.
  • the control PC can also be a tablet computer or the like. In the visualization, all changes made are immediately noticeable to the user.
  • the arrangement of the visualization of existing screens can be user-specific or according to a predetermined and stored standard or a specification.
  • screens corresponding data on the position in a room
  • their adjustability and addressing, and optionally a representation of a specific remote control are stored and connected to the network and thus also available for visualization.
  • a video wall which also allows a superimposed displayability of so-called windows with different contents
  • both the video wall and the windows are visualized displayed on the display device.
  • the contents, that is, the data streams are selectable and the individual windows within the video wall by the user as images perceptibly freely arranged. Each window can be placed arbitrarily and the arrangement can be recalled.
  • the viewer of the video wall sees, for example, a large background image on which two or more further images, even mutually overlapping or merging with one another, are arranged.
  • These images which are visualized on the display device as a window, can also be changed in size by means of the input device.
  • area information always includes all - not mentioned - intermediate values and all imaginable subintervals.
  • FIG. 1 shows the schematic structure of an embodiment of the video distribution system according to the invention for use in a betting office.
  • Fig. 2 shows the structure of a simple embodiment of the video distribution system according to the invention
  • Fig. 3 is a more complex embodiment of the invention
  • Fig. 4 shows schematically the structure of an embedded system according to the invention
  • FIG. 5 schematically shows the structure of an embedded system according to the invention with server functionality
  • Fig. 6 shows schematically the structure of an embedded invention
  • FIG. 7 shows an illustration of an embedded system according to the invention as a module
  • Fig. 8 is a schematic diagram of video data processing in an embedded system according to the invention operating as a server;
  • Fig. 10 shows a selection of display modes with a client
  • Fig. 1 a software engineering structure of a branch
  • Fig. 12 is a schematic illustration of the network security module.
  • FIG. 13 is a schematic representation of driver decoupling of a VideoWizard module in a PC operating system environment.
  • Fig. 15 shows an application of the system as a live game transmission outside a casino
  • Fig. 16 is a schematic representation of the fuse of
  • Fig. 18 is a schematic representation of a user interface of a
  • FIG. 19 shows a schematic partial representation of a detail XIX according to FIG. 19
  • Fig. 20 is a partial schematic representation of a detail XIX of FIG. 19 in a further alternative embodiment.
  • the invention comprises a modern video distribution system based on network-based multiple H.264 data streams. Different video sources are converted from server-embedded systems to H.264 data streams and decoded by embedded client-client systems and displayed on screens.
  • the use of the video distribution system is z. B. betting offices are provided in which the image sources are usually supplied by satellite receivers and distributed by shop masters / operators individually to the existing TV monitors.
  • the typical structure of a video distribution system according to the invention in a betting office is shown in Fig. 1 and consists of the four functional units recording, distribution, display and control.
  • the recording function is realized by a variable number of satellite receivers 100, which have respectively assigned embedded systems 1 10, which work as a server.
  • the encoded video streams of the satellite receivers 1 0 0 are distributed over a network 120 (with switch / distributor, VLAN).
  • the representation is over a variable number of screens 130 that receive their images from associated embedded systems 140 operating as clients, with the clients 140 providing the selected image data streams individually from the offering of the host servers 110.
  • the selection of the image data streams takes place here on local control PC 150, at which the shop master / operator can establish the association between satellite program and monitor 130 dynamically (control).
  • the TV screens 130 and the satellite receivers 100 are graphically visualized on a display device 155 assigned to the control PC 150, as can be seen for example in FIG. 18.
  • Each embedded system 1 10 or 140 connected to a satellite receiver 100 or TV monitor 130 also has an infrared control function that allows remote control of the associated device 100 or 130.
  • Each satellite receiver 1 00 is also optionally connected to a network port through which the satellite channel lists can be updated and changed.
  • control of the embedded systems 1 10 or 140 and thus the associated devices 100 or 130 takes place physically via network 120 and structurally via the operating PC software.
  • several such operator stations 150 allow control of the devices 100, 130.
  • the inventive system forms a flexible hardware based multi-functional video television and digital media content monitoring and visualization system, combination of a freely selectable global hardware based video stream network with game visualizations and interactive live content presentation.
  • the system according to the invention is almost arbitrarily scalable due to its modular structure (see also FIG. 2 and FIG. 3).
  • a client can access several hundred server streams.
  • the only restriction is the capacity of the network used.
  • a subdivision into clients and servers takes place.
  • Servers record image data and feed it into the network.
  • Clients accept the network streams and set them up very much Interactive control via network (eg PC, IPad, network-capable device). Mixed usage as client and server at the same time is possible.
  • network eg PC, IPad, network-capable device
  • the system according to the invention processes different sources which can be fed in locally or remotely (globally globally worldwide) via satellite or network (live cams, digital and analog TV sources, hard disk, hard disk storage, media player, etc.).
  • the system according to the invention for recording the image sources and real-time coding according to the H.264 method is embodied in hardware (data reduction for transmission via network).
  • the system according to the invention is designed for the decoding of several H.264 source data streams per client module.
  • the system according to the invention can provide different visualization modes by the client (see also Fig. 10): a) 1 stream; b) 2 streams at the same time; c) 4 streams at the same time per TV; d) 3 currents are rotating; e) 6 streams etc ,; f) video wall mode, where one or more streams can be distributed on one wall of many monitors; g) blending mode of different streams (Blue Box); h) on / fading of live streams into game application; i) interactive control of the mode of user; j) Replay function of video streams on demand.
  • the encryption and decryption of the data streams takes place in real time in hardware.
  • the system provides a northerly way to re-display video content or to interactively change the data streams and display modes.
  • the transmission takes place via network and distribution via switch system (eg Gigabit Ethernet, UDP protocol, etc.).
  • switch system eg Gigabit Ethernet, UDP protocol, etc.
  • the system is constructed using combined FPGA and DSP / special chip technology (real-time hardware).
  • the basic concept of the video distribution system and embedded video processing system is shown schematically in Figure 2 and is based on two functional units in combination: the H.264 video compression and decompression functions and the network security functions with hardware firewall and real-time data encryption.
  • the embedded system's video unit consists of one or more H.264 encoders that can compress image data in real time using the modern H.264 process, and one or more H.264 decoders that can simultaneously decode and display multiple compressed image streams ,
  • Image and sound data is captured via a camera system or an HDMI / PAL source at up to 60 frames per second and forwarded to an embedded server-based system that processes, records and converts to a H.264 data format compressed.
  • the image streams can then be either uncompressed transferred to a PC or a monitor or forwarded via a network connection. This is shown schematically in FIG. 9.
  • the image data source is provided by GigE Vision-compatible cameras 210, satellite receivers with HDMI output, DVD players or other HDMI-capable devices.
  • the embedded system additionally has the opposite functionality (client). Both H.264 and MPEG2 data streams can be fed in, which are decompressed in real time in this embedded system and can either be recoded or output directly via HDMI. This is shown schematically in FIG. It is It is also possible to play video in progressive as well as interlaced (interlaced) data format and deinterlace it as needed.
  • Fig. 10.1 a, 10.2a shows a single video data stream, which is scaled and positioned on a display (LCD, LED, OLED, TV, etc. screen) and is backed by a background color.
  • a display LCD, LED, OLED, TV, etc. screen
  • Fig. 1 0.1 b, 10.2b shows two individual video data streams, both scaled and positioned and backed up with a background color. One of the two videos is scaled down and in the foreground.
  • Fig. 10c shows two individual video streams, both scaled and positioned and backed by a background color. One of the two videos is scaled down and shown in a blending with the other video.
  • Figure 10d shows four individual video streams, all four scaled and fixed (non-overlapping).
  • 10e shows three individual video data streams, all three scaled and rotated 90 ° and positioned fixed (non-overlapping).
  • Figure 10f shows six individual video streams, all six scaled and fixed (non-overlapping).
  • 10g shows a video data stream on a video wall realized with 4 screens (VideoWall), wherein each of the 4 screens reproduces a corresponding partial section of an entire picture to be displayed.
  • VideoWall VideoWall
  • Fig. 10h shows three streams of data, with both video streams and HTML browser streams being mixedly displayed in different windows.
  • the windows are scalable, positionable, rotatable (rotatable), and mutually coverable to arrange.
  • Fig. 10i shows two video streams in different windows, one larger window representing an image, for example from a satellite receiver, and a smaller window representing an information string, for example a so-called news ticker.
  • VideoWizard module VideoWizard module
  • This embedded System is designed for security in terms of data streams, but also in terms of product piracy.
  • the video distribution system is designed so that systems with more than 100 servers and clients can be implemented in a single Gigabit network trunk (this depends on the resolution of the data streams).
  • the data string can be cascaded like a tree.
  • a system with many components is shown schematically in FIG.
  • the second concurrent functionality of the embedded system is network security functionality that includes hardware-implemented firewall and AES real-time data encryption
  • the core functions are in this case a 256-bit AES encryption of network traffic and a hardware firewall with port activation and logging function.
  • the embedded system 400 consists of a single module or module ("VideoWizard Hardware"), which is supplemented by a base board 710 containing the additional functions for stand-alone operation.
  • the module can realize server functions, client functions and network security functions. These are described in more detail below.
  • the embedded system is structurally (see FIGS. 5 and 8) a combination of FPGA and embedded processor, GPU and special hardware technology (all three functions in the deployed DSP). Both units share different functions.
  • the functionality of the FPGA 410 is needed for real-time processing and rendering of the GigE data of the camera 210, the processing of HDMI input data, and In particular PC connection and security aspects needed, the DSP realized the DVI expenditure and scaling as well as the H.264 data processing as encoder / decoder.
  • the embedded system enables driver decoupling of the VideoWizard module for (for example, various operating systems such as Windows XP Embedded and Linux) in which the VideoWizard module embodied as a PC plug-in card is inserted as a network card in the operating system environment.
  • the connection is a network driver which allows the use of all standardized network programs of the operating system.
  • the second access interface is via a low-level user library, which provides the necessary control, image acquisition and DMA functions.
  • the FPGA can take over the network functions in combination with the Tl coprocessor.
  • an image data and control driver 133 is provided in conjunction with a so-called application programming interface API 134 and a separate network driver 135 (see Figures 13 and 12).
  • the display device 155 associated with the control PC 150 represents a graphical user interface for visualizing the existing screens 156 and / or windows 157 and / or a remote control unit 158.
  • the screens 156 can be switched on or off by means of selection menus 154 on the screens 156 or in the windows 157 representing screen sections, data streams to be displayed selected, a display format selected and the display size defined.
  • the individually selected data streams may include video data, information data, for example in the form of a so-called news ticker, browser URL, that is to say Internet pages, and / or image data.
  • the graphical user interface can also save and / or recall default settings and / or user settings.
  • a large area visualized on the display device 155 Image A ' which is partially covered by two windows 157 which display the images B' and C, wherein the window 157 with the image C, the window 157 with the image B 'partially overlaps.
  • this is selected by means of an input device, for example a mouse, assigned to the control PC 150 and the display device 155, as is to be known by the gray background, and the window 157 associated selection menu 154 with different menu items 153 is unfolded visually perceptible.
  • the assigned remote control unit 158 appears with whose switches settings are to be made which are sent to the selected window 157 or to the corresponding screens or clients by means of specially adapted commands.
  • the display device 155 may be formed as a touch screen, whereby the operation by a user is very easy to implement.
  • the representation of the configurations, that is to say in particular the visualized arrangement and the sizes, of the screens 156 or window 157 on display unit 155 corresponds to the actual arrangement of the screens or is defined by means of a defined image.
  • Already stored configurations can be selected under a corresponding menu item 153, which can also be displayed in a title bar on the display device 155.
  • a selection menu with the representation of all available clients can be displayed.
  • Picture A picture defined by the user is displayed. You can select images that reside on an image server in a specific directory.
  • -Info display All channels available in the Infodisplay system can be selected.
  • TV channels Modules detected as servers can be set as TV channels.
  • GUIDs can be created by a GUI D generator. e.g. : http://www.guidgenerator.com/online-guid-generator.aspx
  • GUID is an acronym for "Globally Unique Identifier” (or “Universally Unique Identifier”) It can be a 128-bit integer to identify resources
  • the name entry is used by the system, so a name should also be entered which describes the distribution.
  • ⁇ / Translations> describes how the monitors or screens are arranged in the coordinate system, their resolution and rotation.
  • the left upper point of the display as a reference to
  • Positioning can be used.
  • rotation "0" describes the orientation, i. Rotation of the display. For example, only the values 0 °, 90 °, 180 ° and 270 ° can be supported. Make sense z.Z. only 0 and 90 since z.Z. in the device setting can only be adjusted horizontally and vertically as orientation.
  • ⁇ Contents> defines the display areas in the coordinate system. These areas can span multiple monitors.
  • the upper left point may be used as a reference for positioning.
  • the content is adjusted to the content area and scaled.
  • a video wall 159 consists of six FullHD TV 's (3x2) and three
  • Display area E ' Content over the entire wall of 3x2 TVs
  • Display area F ' Content over a section of 4 TVs.
  • Display area G ' Content over a section of 4 TVs.
  • An appropriately structured XML configuration file can be transmitted to the client modules via an API interface, for example.
  • the server functionality of the embedded system is shown schematically in Fig. 5 and partly in Fig. 12 (left hand of the network) and consists of the following detailed functions:
  • Stand-alone capability with access via Server PC 510) via Gigabit Ethernet to internal registers of the embedded system;
  • the client functionality of the embedded system is shown schematically in Fig. 6 and partly in Fig. 12 (right hand of the network) and consists of the following detailed functions:
  • Stand-alone capability with access via client PC 610) via Gigabit Ethernet to internal registers of the embedded system;
  • the embedded system (the VideoWizard) can be advantageously used in combined modes. For example, a mixture of client and server is possible (with a choice of subfunctions) or a recoding of multiple input data streams to new output streams.
  • the network functionality of the embedded system consists of a hardware-implemented firewall and AES real-time data encryption, which dramatically increases data transmission security.
  • the core functions are in this case a 256-bit AES encryption of network traffic and a hardware firewall 131 with port activation and logging function.
  • the FPGA 410 takes over the Network functions (Fig. 13).
  • the FPGA contains a 256-bit AES real-time encryption unit 132 which encrypts and decrypts the incoming and outgoing network data. It can be selected between different H.264 data streams, which are transferred via network into / from the embedded system.
  • the firewall 131 allows the filtering of IP, port and Mac addresses via a rule table.
  • An adjustable logging function of the firewall 131 allows the logging of valid / invalid access attempts to the embedded system.
  • unlocked ports / Ips / Mac addresses can be automatically locked after a certain number of failed attempts, or an alarm can be triggered if too many unauthorized accesses occur per second to the embedded system.
  • false-monitoring means are provided in the system for monitoring the occurrence of failed attempts over a defined threshold.
  • the system may include enable code monitoring means 161 which may perform a check of enable codes with a database and may optionally issue an enable code warning signal if there is no match of the enable code or if it can issue an enable code enable signal a match of the / unlock code is given.
  • the image streams can be backed up over the network using AES encryption, protecting the data from attackers in the transmission link.
  • AES AES encryption
  • High stability and reliability in image data transmission and display The use of two independent real-time computational components ensures high reliability with high power reserves.
  • a hardware firewall can prevent unauthorized access from the outside by unauthorized ports, unprotected IP addresses or unauthorized Mac addresses.
  • logging allows logging of permitted and unauthorized accesses.
  • the firewall can not pass unauthorized packets through an overload, as is the case with software-implemented firewalls.
  • an embedded system according to the invention can also be used without a network, while simultaneously providing the server and client functionality.
  • coding and encryption standards or methods can be used, and likewise, depending on the desired field of application, different interfaces, network protocols and network architectures can be used without changing the essence of the invention.
  • Image data stream, audio data stream, video data stream, combined data stream We understand this as data streams with one channel each of the corresponding content (pictures, audio, video).
  • a combined data stream contains both image and audio data.
  • a video data stream may thus be an image data stream or a combined data stream.
  • a streaming client is a special client for streaming media; It can either be software or hardware.
  • Typical streaming clients support special streaming protocols such as RTP, RTCP and / or RSVP.
  • a streaming server is a dedicated server for the delivery of streaming media data over a network.
  • Typical streaming servers support special streaming protocols such as RTP, RTSP, RTCP, and RSVP (help protocol for QoS IntServ).
  • Streaming Media refers to audio and video data received from a computer network and reproduced at the same time. The process of data transmission itself is called streaming, and transmitted ("streamed") programs are referred to as livestream or short stream.
  • embedded system refers to an electronic computer or computer that is embedded (embedded) in a technical context.
  • the computer either monitors, controls or controls or is responsible for some form of data or signal processing, such as encryption or decryption, coding or decoding or filtering.
  • DSPs digital signal processors
  • FPGAs field-programmable gate arrays
  • ASIC application-specific integrated circuit
  • ARM processors embedded microprocessors
  • hardware means does not encompass general purpose microprocessors that are not optimized for the purposes stated herein.
  • Multi-purpose microprocessors eg from Intel or AMD are typically found as central processing units in personal computers.
  • a digital signal processor or DSP is used to continuously process digital signals (eg audio or video signals).
  • digital signals eg audio or video signals
  • the DSP is used in conjunction with analog-to-digital converters and digital-to-analog converters.
  • DSPs contain a processor optimized for common mathematical operations compared to general-purpose microprocessors. Some DSPs already contain the required A / D and D / A converters at the input and output.
  • a Field Programmable Gate Array or FPGA is an integrated circuit into which a logic circuit can be programmed.
  • Ethernet GigE
  • Ethernet is a technology that specifies software (protocols, etc.) and hardware (cables, distributors, network cards, etc.) for wired data networks. It enables data exchange in the form of data packets between the devices connected in a local area network (LAN).
  • LAN local area network
  • a firewall is a backup system that protects a network or a single computer from unwanted network access.
  • the firewall is used to restrict network access based on sender or destination address and services used. It monitors traffic and uses established rules to decide whether certain network packets are allowed or not. Simple filtering of data packets based on network addresses is the basic function of all firewalls.
  • the video resolution includes the same parameters as the image resolution (lines and columns or pixel number, aspect ratio) and extends them by the temporal aspect of the refresh rate. In this case, a distinction must be made between the repetition of partial (mostly interlaced fields) and frames (progressive scan). Usual refresh rates are 24, 25, 50 or 60 Hz. In the HDTV range are 720p and 1080i usual. From Golf HD one speaks from 1080p25, ie 1920 ⁇ 1080 pixels, progressive, 25 Hz. (After http://de.wikipedia.org/wiki/Videoaufl0sung, http://de.wikipedia.org/wiki/Full_HD and http : //en.wikipedia.org/wiki/High_ Definition_Television)
  • the interlace method serves to reduce picture flicker in television technology. It was developed with the intention to display the signals with the lowest possible bandwidth flicker-free. This builds up a complete picture (frame) of two different fields.
  • the progressive scan technique refers to a technique in image construction, in which the output device - unlike the interlaced process - not sent line-interlaced fields, but is fed with real frames.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Astronomy & Astrophysics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

Ein eingebettetes System zur Videoverarbeitung umfasst Hardware-Mittel zum Realisieren folgender Funktionen: i) einer Server-Funktion, wobei zum Realisieren der Server-Funktion die folgenden Funktionen realisiert sind: i1) Annahme von mindestens einem Bild-, mindestens einem Audio-Datenstrom; i2) Kompression mindestens eines der Bild- und Audio-Datenströme in jeweils einen kombinierten Datenstrom; i3) Ausgabe mindestens eines der kombinierten Datenströme über ein protokollbasiertes Netzwerk; ii) einer Client-Funktion, wobei zum Realisieren der Client-Funktion die folgenden Funktionen realisiert sind: ii1 ) Annahme mindestens eines kombinierten Datenstroms aus dem protokollbasierten Netzwerk; ii2) Dekompression des mindestens einen kombinierten Datenstroms; ii3) Ausgabe des dekomprimierten Bild- und Audio-Datenstroms; iii) wobei die Hardware-Mittel derart ausgelegt sind, dass sie einen kontinuierlichen kombinierten Datenstrom komprimieren und dekomprimieren und iv) wobei die Hardware-Mittel zum Realisieren der Server-Funktion und der Client-Funktion auf einer gemeinsamen Platine angeordnet sind.

Description

Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln
Beschreibung
Die Erfindung bezieht sich auf ein eingebettetes System zur Videoverarbeitung und ein Videoverteilungssystem. Solche Vorrichtungen dienen insbesondere zum Verteilen von Videodaten aus mehreren Quellen an mehrere Darstellungseinheiten (z. B. Bildschirme). Ein typischer Anwendungsbereich sind Wettbüros. Auch weitere Infotainmentsysteme, bei denen unterschiedliche Informationen bzw. unterschiedliche Datenströme zur gemeinsamen Ausgabe zur gleichzeitigen Darstellung an einem oder mehreren Bildschirmen gelangen sollen, beispielsweise Anzeigen an Bahnhöfen, Flughäfen, in Einkaufszentren usw., sind Anwendungsbereiche.
Um TV-Inhalte über ein IP-Netzwerk zu liefern, sind mehrere Möglichkeiten bekannt. Die Unterscheidung zwischen IPTV und Internet-TV besteht aus der Zugriffsmethode. Im Falle von IPTV führt eine lokale netzbetreiberspezifische Anwendung die Inhaltsnavigation aus, während im Falle des Internet TV eine auf Standards basierender Browser verwendet wird, um die Navigation des Inhalts zu ermöglichen. In beiden Fällen liefert ein solcher Service Video-Content über einen Internet-Anschluss an das TV-Gerät eines Zuschauers bzw. Benutzers.
Die EP2247108A1 „Distributed TV access System" offenbart eine Online- Anwendung für die Navigation von Ausstrahlungen (Broadcast-Signale, d.h. Rundbzw. Fernsehsignale) die durch ein Netzwerk wie Kabel oder Satellit übertragen werden. Ein Kunde empfängt die Broadcast-Signale durch eine erste Netzwerkverbindung, und navigiert die Fernsehinhalte durch eine Online- Anwendung über ein zweites Netzwerk. Der erste Netzverbindung und die zweite Netzverbindung können zwei Anschlüsse auf dem gleichen Netzwerk sein (z.B. zwei Verbindungen über zwei unterschiedliche Software-Ports) oder zwei Verbindungen in zwei verschiedenen Netzwerken sein (z.B. dem Internet und einem privaten TV-Netz wie ein Kabel von Satelliten TV-Netz).
Der Erfindung liegt die Aufgabe zugrunde, ein System der eingangs genannten Art zu schaffen, das vielseitig einsetzbar ist. Insbesondere wird durch die vorgeschlagenen Maßnahmen eine hohe Flexibilität in den Modi und den Anschlüssen und Auflösungen erreicht und eine hohe Kombinationsvielfalt in der Verarbeitung verschiedenster Broadcast-Signale und die Zurverfügungstellung der Broadcast-Signale an den Benutzer erreicht. Im Weiteren wird eine vorteilhafte Skalierbarkeit bezüglich Anzahl der Teilnehmer und Aufbau des Systems erzielt und Echtzeitfähigkeit und Sicherheit der Signalverarbeitung sowie des Systems ermöglicht.
Erfindungsgemäß wird die Aufgabe durch die Merkmale der unabhängigen Ansprüche gelöst.
Die Unteransprüche stellen vorteilhafte Ausgestaltungen der Erfindung dar.
Ein eingebettetes System zur Videoverarbeitung umfasst Hardware-Mittel zum Realisieren folgender Funktionen:
i) einer Server-Funktion, wobei zum Realisieren der Server-Funktion die
folgenden Funktionen realisiert sind:
i1 ) Annahme von mindestens einem Bild-, mindestens einem Audio- Datenstrom;
i2) Kompression mindestens eines der Bild- und Audio-Datenströme in jeweils einen kombinierten Datenstrom;
i3) Ausgabe mindestens eines der kombinierten Datenströme über ein
protokollbasiertes Netzwerk;
ii) einer Client-Funktion, wobei zum Realisieren der Client-Funktion die folgenden Funktionen realisiert sind:
111 ) Annahme mindestens eines kombinierten Datenstroms aus dem
protokollbasierten Netzwerk;
112) Dekompression des mindestens einen kombinierten Datenstroms; ii3) Ausgabe des dekomprimierten Bild- und Audio-Datenstroms; iii) wobei die Hardware-Mittel derart ausgelegt sind, dass sie kontinuierlichen kombinierten Datenstrom komprimieren und dekomprimieren und
iv) die Hardware-Mittel zum Realisieren der Server-Funktion und der Client- Funktion auf einer gemeinsamen Platine angeordnet sind.
Die Hardware-Mittel sind derart ausgelegt, dass sie einen kontinuierlichen Bild- und Audio-Datenstrom mit mindestens 24 Bildern pro Sekunde, bevorzugt mindestens 25 Bildern pro Sekunde, besonders bevorzugt mindestens 50 Bildern pro Sekunde und ganz besonders bevorzugt mindestens 60 Bildern pro Sekunde ohne Datenstau komprimieren und dekomprimieren können.
Da die Hardware-Mittel zum Realisieren der Server-Funktion und der Client- Funktion auf einer gemeinsamen Platine angeordnet sind, ist ein kompakter Aufbau gegeben. Zur benutzerfreundlichen Handhabung ist die gemeinsame Platine als PC-Steckkarte ausgebildet und in einer PC-Betriebssystemumgebung als Netzwerkkarte einblendbar.
In vorteilhafter Ausgestaltung verfügt das System über a) Hardware-Mittel zur Annahme von mehr als einem kombinierten Datenstrom über das Protokollbasierte Netzwerk; b) Hardware-Mittel zur Dekompression von mehr als einem kombinierten Datenstrom; c) Hardware-Mittel zur Skalierung und/oder Rotation und/oder Vereinigung und/oder Überblendung von mehr als einem dekomprimierten Bild- und Audio-Datenstrom; d) Hardware-Mittel zur gemeinsamen Ausgabe von mehr als einem dekomprimierten Bild- und Audio- Datenstrom zur gleichzeitigen Darstellung an einem Bildschirm; und e) Hardware- Mittel zur geteilten Ausgabe von einem oder mehreren kombinierten Datenströmen an mehrere Bildschirme, die als Videowand angeordnet sind.
Dadurch lassen sich neben der üblichen Darstellung eines Videodatenstroms an einem Bildschirm - durch die Skalierungsmittel in beliebiger Größe - eine ganze Reihe weiterer Darstellungsmodi erreichen, beispielsweise können zwei Ströme gleichzeitig, mit wählbarer Größe und Positionierung angezeigt werden, oder ein Strom wird über einen zweiten überblendet angezeigt oder es werden vier verschiedene Ströme gleichzeitig angezeigt oder es sind drei Ströme gleichzeitig an einem um 90° rotierten Bildschirm anzeigbar oder es sind sechs Ströme an einem Bildschirm (einer groß, fünf klein) anzeigbar oder beispielsweise eine Videowand mit vier oder neun Bildschirmen konfigurierbar.
Eine Fülle von Informationen, wie z.B. : dynamische Live-Wettquoten und dynamische Live-Ergebnisdienste lassen sich in Echtzeit darstellen und Spielstatistiken, parallele TV-Liveübertragung mehrerer Sportveranstaltungen usw., lässt sich übersichtlich aufbereiten und darstellen, um einerseits den Informationsbedarf abzudecken und andererseits ein optimales Unterhaltungserlebnis zu erzielen. Hierbei lassen sich die Ströme beliebig auf einem oder mehreren Bildschirmen anordnen.
Vorzugsweise sind die Hardware-Mittel derart ausgelegt, dass sie
a. eine individuelle Sicherung mittels einer im System gespeicherten Hardwareseriennummer und einem individuellen Freischaltcode vornehmen und
b. Freischaltcode-Überwachungsmittel umfassen, die ein Überwachen und Abgleichen von Freischaltcodes vornehmen.
Durch den Freischalt-Code und die Freischaltcode-Überwachungsmittel ist eine relativ hohe Sicherheit gegen Produktpiraterie gegeben. Zweckmäßigerweise sind die Freischaltcode-Überwachungsmittel zum Abgeben eines Freischaltcode- Warnsignals oder eines Freischaltcode-Freigabesignals ausgebildet.
Vorteilhaft sind die Hardware-Mittel derart ausgelegt, dass sie einen kontinuierlichen Bild- und Audio-Datenstrom mit mindestens 60 Bildern pro Sekunde und mit einer Auflösung von mindestens 1920 x 1080 Pixeln ohne Datenstau komprimieren und dekomprimieren. Das eingebettete System ist also in der Lage, Datenströme in „Füll HD"-Auflösung zu verarbeiten. Selbstverständlich ist auch eine Auflösung von 1280 χ 720 möglich.
Weiterhin ist es von Vorteil, wenn die Kompression der Datenströme gemäß dem H.264- oder dem H.265-Standard erfolgt. Dadurch wird eine besonders hohe Kompressionsrate für Video-Datenströme ermöglicht, so dass die benötigte Bandbreite für die Datenübertragung über das Netzwerk möglichst gering gehalten werden kann. Die Unterstützung anderer Kompressions-Standards, wie beispielsweise MPEG-2, kann alternativ oder zusätzlich vorgesehen sein. Nach einer vorteilhaften Weiterbildung realisiert
a. die Server-Funktion eine Funktion zum Verschlüsseln des kombinierten Datenstroms; und
b. die Client-Funktion eine Funktion zum Entschlüsseln des mindestens einen kombinierten Datenstroms.
Diese Verschlüsselung und Entschlüsselung erfolgt in Echtzeit mit Hardware- Mitteln, vorzugsweise nach dem AES-Verschlüsselungsverfahren („advanced encryption Standard"), vorzugsweise mit einer Schlüssellänge von mindestens 256 Bit. Dadurch können die Daten vor Angreifern in der Übertragungsstrecke zwischen Server und Client geschützt werden.
Von Vorteil ist es außerdem, wenn das erfindungsgemäße eingebettete System über Hardware-Mittel zum Konvertieren eines im Zeilensprungverfahren aufgenommenen Bilddatenstroms zum Vollbildverfahren verfügt. Dadurch kann in Echtzeit ein progressiver Videodatenstrom in hoher Qualität erzeugt werden, selbst wenn die Videoquelle lediglich im Zeilensprungverfahren (interlaced) aufgenommenes Material bereitstellt.
Bei einer vorteilhaften Weiterbildung verfügt das erfindungsgemäße eingebettete System über a) ein Speichermodul mit einem BIOS; b) ein Speichermodul mit einem Betriebssystem; sowie c) Mittel zum Annehmen von Steuersignalen über das protokollbasierte Netzwerk.
Dadurch wird erreicht, dass das erfindungsgemäße eingebettete System unabhängig von anderen Geräten arbeiten kann („standalone") und insbesondere zum Betrieb nicht an einen Computer angeschlossen werden muss. Jedoch kann das eingebettete System über das protokollbasierte Netzwerk gesteuert werden, z. B. hinsichtlich der Wahl der Quellen der Datenströme und des gewünschten Übertragungsformats (Server), oder z. B. hinsichtlich der Auswahl der darzustellenden Datenströme und des Darstellungsmodus (Client). Eine weitere vorteilhafte Weiterbildung des erfindungsgemäßen eingebetteten Systems verfügt über Mittel zum Ausgeben von Steuersignalen zur Fernbedienung angeschlossener Geräte. Dadurch lassen sich über das eingebettete System auch die angeschlossenen Geräte fernsteuern, beispielsweise Satellitenfernseh-Empfänger (Server) oder Bildschirme (Client), ohne dass dazu zusätzliche Fernbedienungseinheiten benötigt werden. Die Steuersignale können dabei, je nach Art des fernzusteuernden Geräts, über eine gegebenenfalls vorhandene Infrarot- Schnittstelle oder über einen gegebenenfalls vorhandenen HD MI -Ausgang oder auch über das Netzwerk ausgegeben werden. Dadurch, dass die Steuerbefehle über das Netzwerk an das eingebettete System übermittelt werden können, ist es also möglich, die angeschlossenen Geräte auch über größere Entfernungen und gegebenenfalls, über bauliche Hindernisse hinweg zu bedienen. Die Bedienung kann dabei lokal für einzelne oder auch zentral für alle an das Netzwerk angeschlossenen erfindungsgemäßen eingebetteten Systeme erfolgen. Zur komfortablen Fernsteuerung sind die angeschlossenen Geräte auf einer Anzeigeeinrichtung beispielsweise eine Personal-Computers (PC) oder eines Tablet-Computers darstellbar und den Darstellungen sind Auswahlmenüs zugeordnet, um Anzeigeformate auszuwählen oder zu definieren, und/oder einen bestimmten Datenstrom eines bestimmten Servers einem Client zuzuordnen. Es lässt sich auch eine visualisierte Infrarot- Fernbedienung darstellen, um bildschirmspezifische Eigenschaften in einer für den Benutzer des Systems leicht erfassbaren Weise einzustellen. Die Darstellung der Infrarot-Fernbedienung kann einer zur Steuerung eines Fernsehgeräts bekannten Fernbedienung entsprechen.
Vorteilhaft ist außerdem, wenn das eingebettete System über
a) Hardware-Mittel zur Zwischenspeicherung und wiederholten Ausgabe des mindestens einen kombinierten Datenstroms; und über
b) Mittel zur interaktiven Steuerung des eingebetteten Systems durch den Betrachter des mindestens einen ausgegebenen Datenstroms verfügt. Vorteilhaft ist außerdem, wenn das eingebettete System Hardware-Mittel zur Verbesserung der Bildqualität des Bilddatenstroms verfügt, welche folgende Funktionen bereitstellen: a) Änderung der Helligkeit und/oder b) Änderung des Kontrasts und/oder c) Änderung der Bildschärfe und/oder d) R auschunterdrückung und/oder e) Farbkorrekturen und/oder f) Reduktion von Artefakten und/oder g) Anwendung von weiteren Filtern.
Dadurch können in Echtzeit Verbesserungen des darzustellenden Bilddatenstroms für den Betrachter erzielt werden. Die Hardwaremittel lassen sich beispielsweise auf einer grafischen Benutzeroberfläche darstellen und mittels zugeordneter Auswahlmenüs steuern, wobei ein Bediener eine vorgenommene Veränderung dem Client, also der Anzeigeeinrichtung, und/oder einer Darstellung auf der Benutzeroberfläche entnehmen kann. Die Hardwaremittel können alternativ auch selbsttätig einstellbar sein, beispielsweise anhand anliegender Messdaten sowie Vergleichsdaten zur Optimierung von Ist-Daten des zu verändernden Datenstroms.
Eine weitere vorteilhafte Ausgestaltung des erfindungsgemäßen eingebetteten Systems zeichnet sich dadurch aus, dass die Hardware-Mittel einen FPGA (Field Programmable Gate Array) umfassen, wobei durch den FPGA folgende Funktionen bereitgestellt werden: a) Anbindung an das protokollbasierte Netzwerk; b) Firewall; c) Verschlüsselung des auszugebenden kombinierten Datenstroms, wenn das eingebettete System als Server arbeitet; und d) Entschlüsselung des mindestens einen kombinierten Datenstroms, wenn das eingebettete System als Client arbeitet.
Dabei erlaubt die Firewall über eine Regeltabelle die Filterung von IP, Port und/oder Mac- Adressen. Eine einstellbare Logging-Funktion der Firewall erlaubt das protokolieren der gültigen und/oder ungültigen Zugriffsversuche auf das eingebettete System. Optional können frei-geschaltete Ports/1 Ps/Mac-Adressen automatisch nach einer gewissen Anzahl von Fehlversuchen gesperrt werden oder ein Alarm ausgelöst werden, wenn zu viele unerlaubte Zugriffe auf das eingebettete System pro Zeiteinheit erfolgen. Der FPGA enthält außerdem eine 256 Bit AES-Verschlüsslungseinheit, die die eingehenden und ausgehenden Netzwerkdaten in Echtzeit verschlüsseln bzw. entschlüsseln kann. Durch diese Realisierung des eingebetteten Systems wird eine möglichst hohe Netzwerksicherheit erzielt.
Vorteilhaft ist es weiterhin, wenn die Konfiguration des FPGA individuell verschlüsselt ist. Dadurch wird eine Sicherung gegen Produktpiraterie erzielt, da gegebenenfalls ausgelesene Konfigurationsdaten eines FPGA bei einem erfindungsgemäßen eingebetteten System nicht zur Konfiguration eines anderen derartigen eingebetteten Systems genutzt werden können. Hierzu können die individuelle Hardwareseriennummer und/oder der individuelle Freischaltcode dienen.
Eine weitere vorteilhafte Weiterbildung des erfindungsgemäßen eingebetteten Systems zeichnet sich dadurch aus, dass die Hardware-Mittel einen DSP (Digitaler Signalprozessor) umfassen, wobei durch den DSP folgende Funktionen bereitgestellt werden:
a) Kompression mindestens eines der Bild- und Audio-Datenströme in jeweils einen kombinierten Datenstrom, wenn das eingebettete System als Server arbeitet;
b) Dekompression des mindestens einen kombinierten Datenstroms, wenn das eingebettete System als Client arbeitet; und
c) Skalierung und Ausgabe des dekomprimierten Bild- und Audio-Datenstroms über eine Schnittstelle, wenn das eingebettete System als Client arbeitet. Durch die Wahl eines geeigneten DSP wird bei dieser Realisierung des eingebetteten Systems eine besonders hohe Leistung bei der Verarbeitung von Videodaten erreicht, was die Echtzeitfähigkeit des eingebetteten Systems sicherstellt. Günstig ist es, wenn das erfindungsgemäße eingebettete System über a) mindestens ein Netzwerk-Anschluss und b) mindestens eine Schnittstelle zu einem Datenbus und/oder c) mindestens eine Schnittstelle gemäß einem Video- Standard und/oder d) mindestens eine Schnittstelle gemäß einem Audio-Standard und/oder e) eine Infrarot-Schnittstelle verfügt.
Der Netzwerk-Anschluss ist in diesem Fall zwingend erforderlich, die übrigen Schnittstellen bzw. Anschlüsse sind optional. Diese können beispielsweise HDMI-Schnittstellen - vorzugsweise ein Anschluss zur Datenannahme von einer Videoquelle und einer zur Datenausgabe an einen Bildschirm - und/oder eine PAL-Schnittstelle und/oder eine zusätzliche Stereo-Audio- Schnittstelle und/oder eine USB-Schnittstelle und/oder eine Infrarot-Schnittstelle zur Fernbedienung der angeschlossenen Videoquelle bzw. des angeschlossenen Bildschirms umfassen.
Günstig ist weiterhin, wenn das protokollbasierte Netzwerk, an das das erfindungsgemäße eingebettete System angeschlossen ist, eine Übertragungskapazität von mindestens 100 MBit pro Sekunde aufweist. Vorzugsweise handelt es sich dabei um ein Gigabit-Ethernet-Netzwerk, also ein Netzwerk, welches das Ethernet-Protokoll nutzt und eine Übertragungskapazität von mindestens 1000 MBit pro Sekunde aufweist.
Ferner wird ein Videoverteilungssystem zum Annehmen und Verteilen von mindestens einem Video-Datenstrom aus mindestens einer Videoquelle vorgeschlagen, mit:
a) einem protokollbasierten Netzwerk;
b) mindestens einem oben beschriebenen eingebetteten System, das als Server arbeitet und mindestens einen der Bild-Datenströme aus der mindestens einen Videoquelle annimmt, komprimiert und über das protokollbasierte Netzwerk ausgibt; und
c) mindestens einem oben beschriebenen eingebetteten System, das als Client arbeitet und mindestens einen komprimierten Datenstrom aus dem protokollbasierten Netzwerk annimmt, dekomprimiert und über eine Schnittstelle ausgibt.
Ein solches Videoverteilungssystem ist aufgrund seines modularen Aufbaus und der Eigenschaften der verwendeten eingebetteten Systeme sehr vielseitig und nahezu beliebig skalierbar bzw. erweiterbar. Vorteilhaft ist es, wenn bei dem erfindungsgemäßen Videoverteilungssystem a) als Videoquellen Satellitenfernseh-Empfänger oder Kabelfernsehanschlüsse oder DVBT-Empfänger oder PCs oder Mediaplayer usw. eingesetzt werden; und b) an die Schnittstellen der eingebetteten Systeme, die als Client arbeiten, über welche die Datenströme ausgegeben werden, Bildschirme angeschlossen sind.
Vorgeschlagen wird außerdem ein Videoverteilungssystem zum Annehmen und Verteilen von mindestens einem Video-Datenstrom aus mindestens einer Videoquelle mit: a) einem protokollbasierten Netzwerk;
b) mindestens einem eingebetteten System, das als Server arbeitet und mindestens einen der Bild-Datenströme aus der mindestens einen Videoquelle annimmt, komprimiert und über das protokollbasierte Netzwerk ausgibt; und c) mindestens einem eingebetteten System, das als Client arbeitet und mindestens einen komprimierten Datenstrom aus dem protokollbasierten
Netzwerk annimmt, dekomprimiert und über eine Schnittstelle ausgibt.
Auch für die eingebetteten Systeme dieses Videoverteilungssystems können alle vorteilhaften Realisierungen und Weiterbildungen gewählt werden, die für die weiter oben beschriebenen eingebetteten Systeme geschildert wurden.
Ein Steuerungs-PC ist mit einem Netzwerk, in dem Bild- und/oder Audio- Datenströme vorhanden sind, und einer Anzeigeeinrichtung zur Darstellung von mindestens einem ansteuerbaren Bildschirm verbunden, wobei der Steuerungs- PC mindestens eine Eingabeeinrichtung umfasst und, wobei mittels eines auf der Anzeigeeinrichtung darstellbaren Auswahlmenüs
a. der Bildschirm ein- bzw. ausschaltbar ist und/oder
b. die auf den Bildschirmen darzustellenden Datenströme auswählbar sind und/oder
c. eine Position von Bildern auf mindestens einem Bildschirm auswählbar oder einstellbar ist und/oder
d. ein Anzeigeformat auswählbar ist und/oder e. eine Darstellung einer Fernbedienung mit mehreren Schaltern anzeigbar ist, wobei mittels der Schalter der Fernbedienung Funktionen des Bildschirms schaltbar sind. Mit der grafischen Benutzerschnittstelle lassen sich sämtliche im System bzw. Netzwerk vorhandenen Bildschirme steuern und zwar nicht nur bezüglich ihrer Einstellungen sondern auch bezüglich der darzustellenden Inhalte, durch eine entsprechende Zuordnung der Datenströme mit den Video-/Audio-Daten, beispielsweise Fernsehkanäle. Im Weiteren ist auch eine Auswahl und Zuordnung von Informationsdaten, beispielsweise in Form eines so genannten News-Tickers, Browser URL, also Internet-Seiten, und/oder Bild-Daten komfortabel möglich. Selbstverständlich sind auch Datenströme mehrerer Bildschirme, die als Videowand zusammengesetzt sind, individuell zusammenstellbar. Mittels der grafischen Benutzerschnittstelle lassen sich auch Standardeinstellungen und/oder Benutzereinstellungen speichern und/oder abrufen. Eine aktuelle Anordnung und Belegung der Bildschirme in einem ausgewählten Netzwerk wird selbsttätig auf der Anzeigeeinrichtung dargestellt. Dementsprechend sind die tatsächlich vorhandenen Bildschirme visualisiert und durch einen Benutzer einfach auswählbar. Ist ein visualisierter Bildschirm ausgewählt, dann kann der Benutzer das zugeordnete Auswahlmenü öffnen, beispielsweise durch einen Maus-Klick, einen Tastatur-Befehl oder das Berühren eines Sensorfeldes, falls die Anzeigeeinrichtung als ein Touch-Screen ausgebildet ist. Das Auswahlmenü zeigt nur solche Menüpunkte an, also Befehle zur Steuerung, die auch an dem jeweiligen Bildschirm bzw. der Bildschirmanordnung in Form der Videowand ausführbar sind Bei dem Steuerungs-PC kann es sich auch um einen Tablet- Computer oder dergleichen handeln. In der Visualisierung werden alle vorgenommenen Änderungen unmittelbar für den Benutzer wahrnehmbar dargestellt. Die Anordnung der Visualisierung vorhandener Bildschirme kann benutzerspezifisch oder nach einem vorgegebenen und gespeicherten Standard bzw. einer Vorgabe erfolgen. Bei der Installation von Bildschirmen werden entsprechende Daten zur Position in einem Raum, deren Einstellbarkeit und Adressierung sowie gegebenenfalls eine Darstellung einer spezifischen Fernbedienung gespeichert und stehen anschließen in dem Netzwerk und somit auch zur Visualisierung zur Verfügung. Bei einer Videowand, die auch eine überlagerte Darstellbarkeit von so genannten Fenstern mit unterschiedlichen Inhalten ermöglicht, werden sowohl die Videowand als auch die Fenster visualisiert auf der Anzeigeeinrichtung dargestellt. Die Inhalte, also die Datenströme sind auswählbar und die einzelnen Fenster innerhalb der Videowand durch den Benutzer als Bilder wahrnehmbar frei anzuordnen. Jedes Fenster kann beliebig platziert und die Anordnung abrufbar gespeichert werden. Demzufolge sieht der Betrachter der Videowand beispielsweise ein großes Hintergrundbild, auf dem zwei oder mehr weitere Bilder, auch sich gegenseitig bereichsweise überdeckend oder ineinander übergehend, angeordnet sind. Diese Bilder, die auf der Anzeigevorrichtung als Fenster visualisiert sind, lassen sich mittels der Eingabeeinrichtung auch in ihrer Größe verändern.
Weitere Einzelheiten und Merkmale ergeben sich aus der nachfolgenden Beschreibung von bevorzugten Ausführungsbeispielen in Verbindung mit den Unteransprüchen. Hierbei können die jeweiligen Merkmale für sich alleine oder zu mehreren in Kombination miteinander verwirklicht sein. Die Möglichkeiten, die Aufgabe zu lösen, sind nicht auf die Ausführungsbei- spiele beschränkt. So umfassen beispielsweise Bereichsangaben stets alle - nicht genannten - Zwischenwerte und alle denkbaren Teilintervalle.
Es versteht sich, dass die vorstehend genannten und nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen verwendbar sind. Der Rahmen der Erfindung ist nur durch die Ansprüche definiert.
Die Erfindung wird im Folgenden anhand von Ausführungsbeispielen unter Bezugnahme auf die zugehörige Zeichnung näher erläutert. Es zeigt: Fig. 1 den schematischen Aufbau einer Ausführungsform des erfindungsgemäßen Videoverteilungssystems zum Einsatz in einem Wettbüro;
Fig. 2 den Aufbau einer einfachen Ausführungsform des erfindungsgemäßen Videoverteilungssystems;
Fig. 3 eine komplexere Ausführungsform des erfindungsgemäßen
Videoverteilungssystems;
Fig. 4 schematisch den Aufbau eines erfindungsgemäßen eingebetteten Systems;
Fig. 5 schematisch den Aufbau eines erfindungsgemäßen eingebetteten Systems mit Server-Funktionalität;
Fig. 6 schematisch den Aufbau eines erfindungsgemäßen eingebetteten
Systems mit Client-Funktionalität;
Fig. 7 eine Abbildung eines erfindungsgemäßen eingebetteten Systems als Modul;
Fig. 8 eine schematische Darstellung der Videodatenverarbeitung bei einem erfindungsgemäßen eingebetteten System, das als Server arbeitet;
Fig. 9 eine schematische Darstellung der
Videodatenverarbeitung bei einem erfindungsgemäßen
eingebetteten System, das als Client arbeitet; und
Fig. 10 eine Auswahl von Darstellungsmodi, die mit einem als Client
arbeitendem erfindungsgemäßen eingebetteten System erzielbar sind; und
Fig. 1 1 einen softwaretechnischen Aufbau einer Filiale; und
Fig. 12 eine schematische Darstellung des Netzwerksicherheitsmoduls; und
Fig. 13 eine schematische Darstellung der Treiberentkopplung eines VideoWizard - Moduls in einer PC-Betriebssystemumgebung; und
Fig. 14 eine Anwendung des erfindungsgemäßen Systems als Rouletteübertragung innerhalb eines Casinos; und
Fig. 15 eine Anwendung des Systems als Livespielübertragung außerhalb eines Casinos; und Fig. 16 eine schematische Darstellung der Sicherung der
Netzwerkübertragung; und
Fig. 17 eine schematische Übersicht der Kommunikationsstruktur der
Softwareeinheiten; und
Fig. 18 eine schematische Darstellung einer Benutzeroberfläche einer
Anzeigeeinrichtung; und
Fig. 19 eine schematische Teildarstellung einer Einzelheit XIX gemäß
Fig. 19 in alternativer Ausgestaltung; und
Fig. 20 eine schematische Teildarstellung einer Einzelheit XIX gemäß Fig. 19 in weiterer alternativer Ausgestaltung.
Die Erfindung umfasst ein modernes Videoverteilungssystem auf Basis von netzwerkbasierten multiplen H.264-Datenströmen. Dabei werden unterschiedliche Videoquellen von als Server arbeitenden eingebetteten Systemen in H.264-Datenströme konvertiert und von als Client arbeitenden eingebetteten Systemen dekodiert und an Bildschirmen dargestellt.
Der Einsatz des Videoverteilungssystems ist z. B. Wettbüros vorgesehen, bei denen im Regelfall die Bildquellen von Satellitenreceivern geliefert werden und von Shop- Mastern/Bedienern individuell an die vorhandenen TV-Monitore verteilt werden.
Der typische Aufbau eines erfindungsgemäßen Videoverteilungssystems in einem Wettbüro ist in Fig. 1 dargestellt und besteht in den vier Funktionseinheiten Aufnahme, Verteilung, Darstellung und Steuerung. Die Aufnahmefunktion wird durch eine variable Anzahl von Satellitenreceivern 100 realisiert, die über jeweils zugeordnete eingebettete Systeme 1 10, die als Server arbeiten, verfügen. Die kodierten Videoströme der Satellitenreceiver 1 0 0 werden über ein Netzwerk 120 (mit Switch/Verteiler, VLAN) verteilt. Die Darstellung erfolgt über eine variable Anzahl von Bildschirmen 130, die ihre Bilder von zugeordneten eingebetteten Systemen 140, die als Client arbeiten, erhalten, wobei die Clients 140 individuell aus dem Angebot der Aufnahme-Server 1 10 die ausgewählten Bilddatenströme zur Verfügung stellen. Die Auswahl der Bilddatenströme erfolgt dabei an lokalen Steuerungs-PC 150, an denen der Shop-Master/Bediener die Zuordnung zwischen Satellitenprogramm und Monitor 130 dynamisch herstellen kann (Steuerung). Dazu werden grafisch die TV-Bildschirme 130 und die Satellitenreceiver 100 auf einer dem Steuerungs- PC 150 zugeordneten Anzeigeeinrichtung 155 visualisiert, wie beispielsweise Fig. 18 zu entnehmen ist.
Jedes eingebettete System 1 10 oder 140, das mit einem Sat-Receiver 100 oder TV- Monitor 130 verbunden ist, verfügt zusätzlich über eine Infrarotsteuerungsfunktion, die es erlaubt, das zugehörige Gerät 100 oder 130 fernzusteuern. Jeder Satellitenreceiver 1 00 ist zudem optional mit einem Netzwerkanschluss verbunden, über den die Satellitenkanallisten aktualisiert und verändert werden können.
Die Steuerung der eingebetteten Systeme 1 10 oder 140 und damit der zugeordneten Geräte 100 oder 130 erfolgt physikalisch über Netzwerk 120 und strukturell über die Bedien-PC-Software. Gegebenenfalls erlauben mehrere solche Bedienstationen 150 die Steuerung der Geräte 100, 130.
Gemäß einem bevorzugten Ausführungsbeispiel bildet das erfindungsgemäße System Flexibles Hardware basiertes Multifunktions-Videogaming- und - Visualisierungssystem für digitales Fernsehen und digitalen Medienkontent, Kombination eines frei wählbaren globalen hardwarebasierten Videostromnetzwerks mit Spielevisualisierungen und interaktiver Livecontent Darstellung.
Gemäß einem bevorzugten Ausführungsbeispiel ist das erfindungsgemäße System nahezu beliebig skalierbar durch modularen Aufbau (siehe auch F i g . 2 o d e r Fig. 3). Ein Client kann auf mehrere hundert Serverströme zugreifen. Einzige Beschränkung ist die Kapazität des verwendeten Netzwerks.
Gemäß einem bevorzugten Ausführungsbeispiel erfolgt eine Unterteilung in Clients und Server. Server nehmen Bilddaten auf und speisen diese ins Netzwerk ein. Clients nehmen die Netzwerkströme an und stellen diese auf sehr unterschiedliche Weise dar. Interaktive Steuerung über Netzwerk (z. B. PC; IPad, netzwerkfähiges Gerät). Mischnutzung als Client und Server gleichzeitig ist möglich.
Gemäß einem bevorzugten Ausführungsbeispiel verarbeitet das erfindungsgemäße System Unterschiedliche Quellen, die lokal oder remote (global weltweit!) über Satellit oder Netzwerk eingespeist werden können (Livecams, Digital und Analog TV Quellen, Harddisk, Festplattenkonserve, Media Player etc.).
Gemäß einem bevorzugten Ausführungsbeispiel ist das erfindungsgemäße System zur Aufnahme der Bildquellen und Echtzeitkodierung nach H.264- Verfahren in Hardware (Datenreduktion zum Versenden über Netzwerk) ausgebildet.
Gemäß einem bevorzugten Ausführungsbeispiel ist das erfindungsgemäße System zur Dekodierung von mehreren H.264 Quelldatenströmen pro Client Modul ausgebildet.
Gemäß einem bevorzugten Ausführungsbeispiel kann das erfindungsgemäße System unterschiedliche Visualisierungsmodi durch den Client (siehe auch Fig. 10) bereitstellen: a) 1 Strom; b) 2 Ströme gleichzeitig; c) 4 Ströme gleichzeitig pro TV; d) 3 Ströme rotiert; e) 6 Ströme etc,; f) Videowandmodus, bei der ein oder mehrere Ströme auf eine Wand aus vielen Monitoren verteilt werden können; g) Überblendmodus verschiedener Streams (Blue Box); h) Ein/Überblendung von Livestreams in Gameandwendung; i) Interaktive Steuerung des Modus von Anwender; j) Replay Funktion von Videoströme on Demand.
Gemäß einem bevorzugten Ausführungsbeispiel erfolgt die Ver- und Entschlüsselung der Datenströme in Echtzeit in Hardware.
Gemäß einem bevorzugten Ausführungsbeispiel bietet das System eine nteraktive Möglichkeit, Videoinhalte erneut zu zeigen oder die Datenströme und Darstellungsmodi interaktiv zu ändern.
Gemäß einem bevorzugten Ausführungsbeispiel erfolgt die Übertragung über Netzwerk und Verteilung über Switch-System (z. B. Gigabit- Ethernet, UDP Protokoll usw.). Gemäß einem bevorzugten Ausführungsbeispiel ist das System unter Verwendung von kombinierter FPGA und DSP/Spezialchiptechnologie (Echtzeithardware) aufgebaut. Das Basiskonzept des Videoverteilungssystems und des eingebetteten Systems zur Videoverarbeitung ist schematisch in Fig. 2 dargestellt und basiert auf zwei funktionalen Einheiten in Kombination: die H.264 Videofunktionen zur Kompression und Dekompression und die Funktionen zur Netzwerksicherheit mit Hardware- Firewall und Echtzeitdatenverschlüsselung.
H.264 Videoeinheit
Die Videoeinheit des eingebetteten Systems besteht aus einem oder mehreren H.264- Encodern, die Bilddaten in Echtzeit mit dem modernen H.264-Verfahren komprimieren können, und einem oder mehreren H.264-Decodern, die mehrere komprimierte Bilddatenströme gleichzeitig decodieren und darstellen können. Bild- und Tondaten werden über ein Kamerasystem oder eine HDMI/PAL-Quelle mit bis zu 60 Bildern pro Sekunde aufgenommen und an ein eingebettetes System, das als Server arbeitet, weitergeleitet, welches diese Daten aufbereitet, aufzeichnet und in ein H.264-Datenformat komprimiert. Die Bilddatenströme können dann entweder unkomprimiert an einen PC oder einen Monitor übertragen werden oder über eine Netzwerkverbindung weitergeleitet werden. Dies ist in Fig. 9 schematisch dargestellt.
Als Bilddatenquelle dienen GigE-Vision-kompatible Kameras 210, Sattelitenreceiver mit HDMI-Ausgabe, DVD-Player oder sonstige zur HDMI- Ausgabe fähige Geräte.
Das eingebettete System verfügt zusätzlich über die entgegengesetzte Funktionalität (Client). Es können sowohl H.264- als auch MPEG2-Datenströme eingespeist werden, die in diesem eingebetteten System in Echtzeit dekomprimiert werden und entweder rekodiert werden können oder direkt über HDMI ausgegeben werden. Dies ist in Fig. 10 schematisch dargestellt. Dabei ist es sowohl möglich, Videos im progressiven als auch im interlaced- (Zeilensprungverfahren) Datenformat abzuspielen und bei Bedarf zu deinterlacen.
Fig. 10.1 a, 10.2a zeigt dabei einen einzelnen Video-Datenstrom, der auf einer Anzeige (LCD, LED, OLED, TV etc. Bildschirm) skaliert und positioniert dargestellt ist und mit einer Hintergrundfarbe hinterlegt ist.
Fig. 1 0.1 b, 10.2b zeigt zwei einzelne Video-Datenströme, beide skaliert und positioniert und mit einer Hintergrundfarbe hinterlegt. Einer der beiden Videos ist kleiner skaliert und im Vordergrund.
Fig. 10c zeigt zwei einzelne Video-Datenströme, beide skaliert und positioniert und mit einer Hintergrundfarbe hinterlegt. Einer der beiden Videos ist kleiner skaliert und in einer Verschneidung (blending) mit dem anderen Video dargestellt.
Fig. 10d zeigt vier einzelne Video-Datenströme, alle vier skaliert und fix (nicht überlappend) positioniert.
Fig. 10e zeigt drei einzelne Video-Datenströme, alle drei skaliert und u m 90° rotiert und fix (nicht überlappend) positioniert.
Fig. 10f zeigt sechs einzelne Video-Datenströme, alle sechs skaliert und fix (nicht überlappend) positioniert.
Fig. 10g zeigt einen Video-Datenstrom auf einer mit 4 Bildschirmen realisierten VideoWand (VideoWall), wobei jeder der 4 Bildschirme einen entsprechenden Teilausschnitt eines gesamten zu zeigenden Bildes wiedergibt.
Fig. 10h zeigt drei Datenströme, wobei sowohl Video-Datenströme und HTML- Browser-Datenströme gemischt in unterschiedlichen Fenstern dargestellt werden. Die Fenster sind skalierbar, positionierbar, drehbar (rotierbar), und gegenseitig überdeckbar anzuordnen.
Fig. 10i zeigt zwei Video-Datenströme in unterschiedlichen Fenstern, von denen ein größeres Fenster ein Bild, beispielsweise von einem Sattelitenreceiver, und ein kleineres Fenster einen Informations-String, beispielsweise eine so genannten News-Ticker, darstellt.
Das gesamte System ist so aufgebaut, dass physikalisch nur ein einziger Typ eingebettetes System (VideoWizard Modul) benötigt wird. Dieses eingebettete System ist auf Sicherheit in Bezug auf die Datenströme, aber auch in Bezug auf Produktpiraterie ausgelegt.
Das Videoverteilungssystem ist dabei so konzipiert, dass Systeme mit über 100 Servern und Clients in einem einzelnen Gigabit-Netzwerkstrang realisiert werden können (dies ist von der Auflösung der Datenströme abhängig). Alternativ kann der Datenstrang baumartig kaskadiert werden. Ein System mit vielen Komponenten ist in Fig. 3 schematisch dargestellt. Die zweite gleichzeitige Funktionalität des eingebetteten Systems besteht in einer Netzwerksicherheitsfunktionalität, die über eine in Hardware implementierte Firewall und AES- Echtzeitdatenverschlüsselung die
Datenübertragungssicherheit massiv erhöht. Die Kernfunktionen sind dabei im vorliegenden Fall eine 256 Bit AES Verschlüsselung des Netzwerkverkehrs sowie eine Hardware-Firewall mit Portfreischaltung und Logging-Funktion.
Genereller Aufbau des eingebetteten Systems:
Konzeptionell besteht das eingebettete System 400 aus einer einzelnen Baugruppe bzw. einem Modul („VideoWizard Hardware"), die bzw. das durch eine Basisplatine 710 ergänzt wird, die die zusätzlichen Funktionen für den Standalone-Betrieb enthält.
Funktional kann das Modul die Serverfunktionen, die Clientfunktionen und die Netzwerksicherheitsfunktionen realisieren. Diese sind nachfolgend detaillierter beschrieben.
Das eingebettete System besteht vom Aufbau her (siehe Fig. 5 und Fig. 8) aus einer Kombination von FPGA- und Embedded Prozessor, GPU und Spezialhardware-Technologie (alle drei Funktionen im eingesetzten DSP). Dabei teilen sich beide Einheiten unterschiedliche Funktionen. Die Funktionalität des FPGAs 410 wird für die Echtzeitverarbeitung und Aufbereitung der GigE-Daten der Kamera 210 benötigt, die Verarbeitung von HDMI Inputdaten, und insbesondere PC-Anbindung und Sicherheitsaspekten benötigt, der DSP realisiert die DVI-Ausgabe und Skalierung sowie die H.264 Datenverarbeitung als Encoder/Decoder. Vorteilhafterweise sind ist durch das eingebettete System eine Treiberentkopplung des VideoWizard Moduls für (beispielsweise verschiedene Betriebssysteme wie Windows XP Embedded und Linux) möglich, bei dem das als PC-Steckkarte ausgebildete VideoWizard Modul als Netzwerkkarte in der Betriebssystemumgebung eingeblendet wird. Die Verbindung ist dabei ein Netzwerktreiber, der die Verwendung aller standardisierten Netzwerkprogramme des Betriebssystems erlaubt. Die zweite Zugriffsschnittstelle geht über eine Low- Level Anwenderbibliothek, die die notwendigen Steuer-, Bilddaufnahme- und DMA-Funktionen zur Verfügung stellt. Der FPGA kann in Kombination mit dem Tl- Coprozessor die Netzwerkfunktionen übernehmen. Es sind beispielsweise ein Bilddaten- und Control-Treiber 133 in Verbindung mit einem so genannten application programming interface API 134 vorgesehen sowie einem separaten Netzwerktreiber 135 (vgl. Fig. 13 und Fig. 12).
Die dem Steuerungs-PC 150 zugeordnete Anzeigeeinrichtung 155 gemäß Fig. 18 stellt eine grafische Benutzerschnittstelle zur Visualisierung der vorhandenen Bildschirme 156 und/oder Fenster 157 und/oder einer Fernbedienungseinheit 158 dar. Mittels Auswahlmenüs 154 können die Bildschirme 156 ein- bzw. ausgeschaltet, die auf den Bildschirmen 156 bzw. in den Fenstern 157, die Bildschirmausschnitte darstellen, darzustellenden Datenströme ausgewählt, ein Anzeigeformat ausgewählt und die Darstellungsgröße definiert werden. Die individuell auszuwählenden Datenströme können Video-Daten, Informationsdaten, beispielsweise in Form eines so genannten News-Tickers, Browser URL, also Internet-Seiten, und/oder Bild-Daten umfassen. Mittels der grafischen Benutzerschnittstelle lassen sich auch Standardeinstellungen und/oder Benutzereinstellungen speichern und/oder abrufen.
Nach Fig. 19 auf mehreren zu einer Videowand 159 zusammengesetzten Bildschirmen 156 ein großflächiges auf der Anzeigeeinrichtung 155 visualisiertes Bild A' dargestellt, das von zwei Fenstern 157 die die Bilder B' und C anzeigen, bereichsweise überdeckt ist, wobei das Fenster 157 mit dem Bild C das Fenster 157 mit dem Bild B' bereichsweise überlappt. Um an dem Fenster 157 mit dem Bild C Einstellungen vornehmen zu können, ist dieses mittels einer dem Steuerungs-PC 150 und der Anzeigeeinrichtung 155 zugeordneten Eingabeeinrichtung, beispielsweise einer Maus, ausgewählt, wie durch die graue Hinterlegung zu kennen ist, und das dem Fenster 157 zugeordnete Auswahlmenü 154 mit verschiedenen Menüpunkten 153 ist optisch wahrnehmbar ausgeklappt. Nach der Auswahl des grau dargestellten Menüpunktes 153 erscheint die zugordnete Fernbedienungseinheit 158, mit deren Schaltern Einstellungen vorzunehmen sind, die das ausgewählte Fenster 157, bzw. mittels speziell angepasster Kommandos an die entsprechenden Bildschirme oder Clients gesendet werden. Selbstverständlich kann die Anzeigeeinrichtung 155 als ein Touch-Screen ausgebildet sein, wodurch die Bedienung durch einen Benutzer sehr einfach zu realisieren ist.
Die Darstellung der Konfigurationen, also insbesondere die visualisierte Anordnung und die Größen, der Bildschirme 156 bzw. Fenster 157, auf Anzeigeeinheit 155 entspricht der wirklichen Anordnung der Bildschirme oder ist mittels eines festgelegten Bildes definiert. Bereits gespeicherte Konfigurationen können unter einem entsprechenden Menüpunkt 153, der auch in einer Titelleiste auf der Anzeigeeinrichtung 155 darstellbar ist, ausgewählt werden. Mittels der Eingabeeinrichtung lässt sich ein Auswahlmenü mit der Darstellung sämtlicher verfügbarer Clients anzeigen.
Folgende Typen von Inhalten können in der Visualisierung der Anzeigeeinheit 155 definiert werden:
-Bild: Es wird ein vom Benutzer definiertes Bild dargestellt. Es können Bilder ausgewählt werden, die auf einem Bilder- Server in einem bestimmten Verzeichnis liegen.
-Infodisplay: Alle Kanäle die im Infodisplay System verfügbar sind, können ausgewählt werden. - Fernsehkanäle: Module die als Server erkannt werden, können als Fernsehkanäle eingestellt werden.
- Browser URL: Beliebige URLs können in diesem Menü eingestellt werden, jedoch kann der Browsersupport auf den Modulen eingeschränkt sein, z.B. keine Flash Inhalte dargestellt werden.
Mit dem Menüpunkt 153„Aufteilung" lassen sich im XML-Format definierte Layouts zuweisen, die dynamisch zur Verfügung stehen, d.h. nur für den aktuellen Monitor bzw. Monitorverbund mögliche Layouts werden angezeigt.
Beschreibung einer XML Konfiguration:
Layout <Layout id="xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx" xmlns="urn:admiral:absolutevision:light:layout:v1 "> xxx... entspricht einer GUID, welche einzigartig im Verzeichnis ist. Der Dateiname der Konfiguration sollte ebenfalls dieser GUID entsprechen.
GUID können von einem GUI D-Generator erstellt werden. z.B. : http://www.guidgenerator.com/online-guid-generator.aspx
GUID (oder UUID) ist ein Akronym für "Globally Unique Identifier" (oder "Universell Unique Identifier). Es kann eine 128-Bit-Ganzzahl sein, um Ressourcen zu identifizieren. Der Namenseintrag wird vom System verwendet, somit sollte auch ein Name eingetragen werden, der die Aufteilung beschreibt.
<Name>Split 2 / PicturelnPicture</Name>
Unter Translations wird der Name der Aufteilung eingetragen, die in der GUI angezeigt wird. Es wird die Übersetzung angezeigt, welcher der Windows
Systemsprache entspricht. Ist die eingestellte Systemsprache nicht eingetragen, wird die Translation en angezeigt.
<Translations> <Translation language="de">2 Anzeigen / Bild in Bild</Translation> <Translation language="en">2 Views / Picture in Picture</Translation>
</Translations> <Screens> beschreibt wie die Monitore bzw. Bildschirme im Koordinatensystem angeordnet sind, deren Auflösung und die Rotation.
<Screens>
<Screen x="0" y="0" width="1920" height="1080" rotation="0"x/Screen>
<Screen x="0" y="1080" width="1920" height="1080" rotation="0"x/Screen> </Screens>
Dabei sollen alle Monitore bzw. Bildschirme eingetragen werden, die in der Aufteilung enthalten sind. x="0" y="0" beschreiben die Lage des
Monitors/Bildschirms im Koordinatensystem der Videowand. Dabei kann beispielsweise der linke obere Punkt des Displays als Referenz zur
Positionierung verwendet werden.
Beispielsweise width="1920" height="1080" beschreiben die Größe des Displays. rotation="0" beschreibt die Orientierung, d.h. Drehung des Displays. Es können beispielsweise nur die Werte 0°, 90°, 180° und 270° unterstützt werden. Sinn machen z.Z. nur 0 und 90 da z.Z. in der Geräteeinstellung nur horizontal und vertikal als Orientierung eingestellt werden kann. <Contents> definiert die Anzeigebereiche im Koordinatensystem. Diese Bereiche können über mehrere Monitore reichen.
<Contents>
<Content x="0" y="0" width="1920" height="1080"x/Content>
<Content x="200" y="200" width="640" height="480"x/Content>
</Contents> x="0" y="0" entsprechen den Startkoordinaten des Contentbereichs im
Koordinatensystem. Es kann beispielsweise der linke obere Punkt als Referenz zur Positionierung verwendet werden.
width="1920" height="1080" beschreiben die Größe des Anzeigebereichs. Wird dem Contentfenster ein Inhalt zugewiesen, der nicht dem angegebenen
Seitenverhältnis entspricht, so wird der Inhalt an den Contentbereich angepasst und skaliert.
Beispiel gemäß Fig. 20:
Eine Videowall 159 besteht aus sechs FullHD TV's (3x2) und drei
Anzeigebereichen E', F', G':
Anzeigebereich E': Inhalt über die gesamte Wall aus 3x2 TVs
Anzeigebereich F': Inhalt über einen Teilbereich von 4 TVs. Die Anzeige überlagert Anzeigebereich E'
Anzeigebereich G': Inhalt über einen Teilbereich von 4 TVs. Die Anzeige überlagert Anzeigebereich E' und einen Teil von Anzeigebereich F\
Eine entsprechend aufgebaute XML-Konfigurationsdatei kann beispielsweise über eine API-Schnittstelle an die Client-Module übermittelt werden.
Serverfunktionalität
Die Serverfunktionalität des eingebetteten Systems ist in Fig 5 sowie teilweise in Fig. 12 (linkerhand des Netzwerkes) schematisch dargestellt und besteht aus folgenden Detailfunktionen:
■ Aufnahme von HDMI Datenströmen bis 1920 x 1080 p60 (progressive, 60Hz) oder Kameradatenströmen;
Kompression der Bild- und Audio-Datenströme im H.264 Format;
Verpacken von Steuerungs- und Audiodaten in den H.264-Datenstrom;
Standalone-Fähigkeit mit Zugriff (über Server PC 510) via Gigabit-Ethernet auf interne Register des eingebetteten Systems;
Individuelle FPGA-Sicherung gegen Produktpiraterie;
AES-Verschlüsselung des Datenstroms;
Versenden der komprimierten Daten über GigE-Netzwerk Clientfunktionalität
Die Clientfunktionalität des eingebetteten Systems ist in Fig. 6 sowie teilweise in Fig. 12 (rechterhand des Netzwerkes) schematisch dargestellt und besteht aus folgenden Detailfunktionen:
Annahme der komprimierten Daten bzw. eines Datenstromes über GigE- Netzwerk;
AES-Entschlüsselung des Datenstroms;
Dekompression der Bild- und Audiodaten aus dem H.264-Format bzw.
Extraktion der Steuerungsdaten aus dem Datenstrom;
Gegebenenfalls Dekompression von MPEG2-Bilddatenströmen ;
Deinterlace-Funktion mit hoher Qualität zur Realisierung von progressiven Bildmaterial;
Bildskalierung;
■ Restauration eines Bilddatenstroms mit 60 Bildern pro Sekunde aus den H.264- Datenströmen;
Standalone-Fähigkeit mit Zugriff (über Client PC 610) via Gigabit-Ethernet auf interne Register des eingebetteten Systems;
Individuellen FPGA-Sicherung gegen Produktpiraterie;
■ Ausgabe der Video-, Audio- und Steuerungsdaten;
Das eingebettete System (der VideoWizard) kann vorteilhafterweise in kombinierten Modi eingesetzt werden. So ist zum Beispiel eine Mischung aus Client und Server möglich (mit einer Auswahl an Teilfunktionen) oder eine Rekodierung von mehreren Inputdatenströmen zu neuen Ausgangsströmen.
Netzwerkfunktion (Firewall und Datenverschlüsselung)
Die Netzwerkfunktionalität des eingebetteten Systems besteht in einer in Hardware implementierten Firewall und AES-Echtzeitdatenverschlüsselung, wodurch die Datenübertragungssicherheit massiv erhöht wird. Die Kernfunktionen sind dabei im vorliegenden Fall eine 256 Bit AES-Verschlüsselung des Netzwerkverkehrs sowie eine Hardware-Firewall 131 mit Portfreischaltung und Logging-Funktion. Im Detail übernimmt vor allem der FPGA 410 die Netzwerkfunktionen (Fig. 13). Dabei enthält der FPGA eine 256 Bit AES-Echtzeit- Verschlüsslungseinheit 132, die die eingehenden und ausgehenden Netzwerkdaten ver- bzw. entschlüsselt. Es kann zwischen verschiedenen H.264 Datenströmen ausgewählt werden, die per Netzwerk in das/aus dem eingebetteten System übertragen werden. Die Firewall 131 erlaubt über eine Regeltabelle die Filterung von IP, Port und Mac- Adressen. Eine einstellbare Logging-Funktion der Firewall 131 erlaubt das Protokolieren der gültigen/ungültigen Zugriffsversuche auf das eingebettete System. Optional können freigeschaltete Ports/I Ps/Mac-Adressen automatisch nach einer gewissen Anzahl von Fehlversuchen gesperrt werden oder ein Alarm ausgelöst werden, wenn zu viele unerlaubte Zugriffe pro Sekunde auf das eingebettete System erfolgen. Diesbezüglich sind im System Fehlversuch-Überwachungsmittel vorgesehen, die das Auftreten von Fehlversuchen über einen definierten Schwellwert überwachen.
Sicherheit gegen Produktpiraterie
Durch die Möglichkeit einer im eingebetteten System gespeicherten individuellen Hardwareseriennummer kann gewährleistet werden, dass das eingebettete System nur mit einem individuellen Freischaltcode betrieben werden kann. Damit ist eine Kopie des Moduls zur Vervielfältigung zwecklos. Im System können Freischaltcode-Überwachungsmittel 161 vorgesehen sein, die ein Überwachen bzw. Abgleichen von Freischaltcodes mit einer Datenbank vornehmen können sowie gegebenenfalls ein Freischaltcode-Warnsignal abgeben können, falls keine Übereinstimmung der/des Freischaltcodes gegeben ist oder ein Freischaltcode- Freigabesignal abgeben können, falls eine Übereinstimmung der/des Freischaltcodes gegeben ist.
Sicherheit bei den Bild- und Datenübertragung
Optional können die Bilddatenströme über das Netzwerk mit einem AES- Verschlüsselungsverfahren gesichert werden, wodurch die Daten vor einem Angreifer in der Übertragungsstrecke geschützt werden. Dies betrifft sowohl die Datenübertragung über Internet als auch die interne Übertragung in beispielsweise einem Casino. Hohe Stabilität und Ausfallsicherheit bei der Bilddatenübertragung und Darstellung Durch den Einsatz von zwei unabhängigen echtzeitfähigen Rechenkomponenten wird eine hohe Betriebssicherheit bei hohen Leistungsreserven realisiert.
Stabilität durch Unabhängigkeit
Durch die Unabhängigkeit des eingebetteten Systems von einer PC-Steuerung wird die Stabilität der Gesamtanwendung erhöht. Fällt ein Teil des Gesamtsystems aus, so arbeiten die eingebetteten Systeme unabhängig weiter.
Netzwerksicherheit durch eine Hardware- Firewall
Durch den Einsatz einer Hardware-Firewall kann der unberechtigte Zugriff von außen durch nicht erlaubte Ports, nicht freigeschaltete IP-Adressen oder nicht autorisierte Mac- Adressen unterbunden werden. Darüber hinaus erlaubt das Logging eine Protokollierung erlaubter und unerlaubter Zugriffe. Durch den Einsatz einer Hardware-Firewall kann die Firewall nicht durch eine Überlastung versehentlich unerlaubte Pakete durchlassen, wie es bei in Software realisierten Firewalls der Fall ist. Es sind zahlreiche Abwandlungen und Weiterbildungen der beschriebenen Ausführungsbeispiele verwirklichbar. So lässt sich ein erfindungsgemäßes eingebettetes System auch ohne Netzwerk einsetzen, wobei es gleichzeitig die Server- und Clientfunktionalität bereitstellt. Ferner lassen sich unterschiedlichste Kodierungs- und Verschlüsselungsstandards bzw. Verfahren nutzen, und ebenso lassen sich je nach gewünschtem Einsatzgebiet unter-schiedliche Schnittstellen, Netzwerkprotokolle und Netzwerkarchitekturen verwenden, ohne das Wesen der Erfindung zu verändern.
Glossar
Bilddatenstrom, Audiodatenstrom, Videodatenstrom, kombinierter Datenstrom Wir verstehen darunter Datenströme mit jeweils einem Kanal des entsprechenden Inhalts (Bilder, Audio, Video). Ein kombinierter Datenstrom enthält sowohl Bild- als auch Audio- Daten. Ein Videodatenstrom kann also ein Bilddatenstrom oder ein kombinierter Datenstrom sein.
Client/Server
Unter den Begriffen Client und Server verstehen wir sogenannte Streaming- Clients bzw. Streaming-Server. Als Streaming-Client bezeichnet man einen speziellen Client für Streaming Media; dabei kann es sich entweder um Software oder um Hardware handeln. Typische Streaming-Clients unterstützen spezielle Streaming-Protokolle wie RTP, RTCP und/oder RSVP. Als Streaming-Server bezeichnet man einen dedizierten Server für die Auslieferung von Streaming Media-Daten über ein Netzwerk. Typische Streaming-Server unterstützen spezielle Streaming-Protokolle wie RTP, RTSP, RTCP und RSVP (Hilfsprotokoll für QoS- Verfahren IntServ). Streaming Media bezeichnet dabei aus einem Rechnernetz empfangene und gleich-zeitig wiedergegebene Audio- und Videodaten. Den Vorgang der Datenübertragung selbst nennt man Streaming, und übertragene („gestreamte") Programme werden als Livestream oder kurz Stream bezeichnet.
(Nach http://de.wikipedia.org/wiki/Streaming-Client, http://de.wikipedia.org/wiki/Streaming-Server und http://de.wikipedia.org/wiki/Streaming_Media)
Eingebettetes System
Der Ausdruck eingebettetes System (auch engl, embedded System) bezeichnet einen elektronischen Rechner oder auch Computer, der in einen technischen Kontext eingebunden (eingebettet) ist. Dabei übernimmt der Rechner entweder Überwachungs-, Steuerungs- oder Regelfunktionen oder ist für eine Form der Daten- bzw. Signalverarbeitung zuständig, beispielsweise beim Ver- bzw. Entschlüsseln, Codieren bzw. Decodieren oder Filtern.
(Zitiert nach http://de.wikipedia.org/wiki/Eingebettetes_System)
Hardware-Mittel
Unter Hardware-Mitteln verstehen wir elektronische Baugruppen, die für bestimmte Zwecke optimiert sind und ihre Funktion hauptsächlich in Echtzeit ausführen. Typischerweise werden für solche Zwecke DSPs, programmierbare Hardware wie FPGAs, Spezial-ASICs (application-specific integrated circuit) oder Kombinationen davon verwendet. Diese können auch eingebettete Mikroprozessoren (z. B. ARM-Prozessoren) enthalten. Im Rahmen dieser An- meidung umfasst der Begriff Hardware-Mittel nicht Vielzweck-Mikroprozessoren, die für die hier genannten Zwecke nicht optimiert sind. Vielzweck- Mikroprozessoren (z.B. von Intel oder AMD) finden sich typischerweise als zentrale Recheneinheiten in Personal-Computern. DSP
Ein Digitaler Signalprozessor oder DSP dient der kontinuierlichen Bearbeitung von digitalen Signalen (z. B. Audio- oder Videosignalen). Zur Verarbeitung von analogen Signalen wird der DSP in Verbindung mit Analog-Digital-Umsetzern und Digital-Analog-Umsetzern ein- gesetzt. DSPs enthalten im Vergleich zu Vielzweck-Mikroprozessoren einen auf häufig benötigte mathematische Operationen hin geschwindigkeitsoptimierten Prozessor. Einige DSPs enthalten am Ein- und Ausgang bereits die erforderlichen A/D- und D/A-Wandler.
(Zitiert nach http://de.wikipedia.org/wiki/Digitaler_Signalprozessor) FPGA
Ein Field Programmable Gate Array oder FPGA ist ein Integrierter Schaltkreis, in den eine logische Schaltung programmiert werden kann.
Der Begriff Programmierung ist in diesem Kontext allerdings anders zu verstehen als bei der Erstellung von Software für einen herkömmlichen Prozessor: In einem FPGA werden Schaltungsstrukturen mittels
Hardwarebeschreibungssprachen oder in Form von Schaltplänen erstellt und diese Daten zwecks Konfiguration in den Baustein übertragen. Dadurch werden bestimmte Schalterstellungen aktiviert bzw. deaktiviert, was eine konkret implementierte digitale Schaltung ergibt. Man spricht daher statt von der Programmierung auch von der Konfiguration eines FPGAs. Durch die spezifische Konfiguration interner Strukturen können in einem FPGA verschiedene Schaltungen realisiert werden, bis hin zu hochkomplexen Schaltungen, wie z. B. Mikroprozessoren. Die Konfiguration erfolgt typischerweise einmal vor jedem Einsatz, wodurch der FPGA auf eine konkrete Funktion konfiguriert wird, die er jedoch wieder durch Abschalten der Betriebsspannung verliert. Meist steht dem FPGA deshalb ein nichtflüchtiger Speicher zur Seite, der die Konfiguration vorhält, dessen Inhalt aber selbst auch aktualisierbar ist.
(nach http://de.wikipedia.org/wiki/Fpga)
Ethernet, GigE
Ethernet ist eine Technologie, die Software (Protokolle usw.) und Hardware (Kabel, Verteiler, Netzwerkkarten usw.) für kabelgebundene Datennetze spezifiziert. Sie ermöglicht den Datenaustausch in Form von Datenpaketen zwischen den in einem lokalen Netz (LAN) angeschlossenen Geräten.
Firewall
Eine Firewall ist ein Sicherungssystem, das ein Netzwerk oder einen einzelnen Computer vor unerwünschten Netzwerkzugriffen schützt. Die Firewall dient dazu, den Netzwerkzugriff zu beschränken, basierend auf Absender- oder Zieladresse und genutzten Diensten. Sie überwacht den Datenverkehr und entscheidet anhand festgelegter Regeln, ob bestimmte Netzwerkpakete durchgelassen werden oder nicht. Die einfache Filterung von Datenpaketen anhand der Netzwerkadressen ist die Grundfunktion aller Firewalls.
HD
Diese Abkürzung steht für „High Definition" (Engl.), wobei in unserem Fall Bildauflösungen von 1280 χ 720 oder 1920 χ 1080 Pixeln gemeint sind, wobei die höhere Auflösung auch als„Füll HD" bezeichnet wird.
Die Videoauflösung umfasst die gleichen Parameter wie die Bildauflösung (Zeilen und Spalten oder Pixelzahl, Seitenverhältnis) und erweitert diese um den temporalen Aspekt der Bildwiederholrate. Bei ihr muss zwischen der Wiederholung von Teil- (meist Halbbilder im Zeilensprungverfahren, interlaced) und Vollbildern (frames, progressive scan) unterschieden werden. Übliche Bildwiederholraten sind 24, 25, 50 oder 60 Hz. Im HDTV-Bereich sind 720p und 1080i üblich. Von Füll HD spricht man ab 1080p25, d. h. 1920 χ 1080 Pixel, progressive, 25 Hz. (Nach http://de.wikipedia.org/wiki/Videoaufl0sung, http://de.wikipedia.org/wiki/Full_HD und http://de.wikipedia.org/wiki/High_ Definition_Television)
Video
Unter Video verstehen wir bewegte Bilder bzw. Bildströme, sowohl mit als auch ohne Ton. Zeilensprungverfahren, Vollbildverfahren
Das Zeilensprungverfahren (engl. Interlace) dient der Verringerung des Bildflimmerns in der Fernsehtechnik. Es wurde mit der Absicht entwickelt, die Signale mit einer möglichst geringen Bandbreite flimmerfrei anzuzeigen. Dabei baut sich ein vollständiges Bild (Frame) aus zwei unterschiedlichen Halbbildern auf.
Das Vollbildverfahren (engl. Progressive Scan) bezeichnet eine Technik beim Bildaufbau, bei der das Ausgabegerät - anders als beim Zeilensprungverfahren - keine zeilenverschränkten Halbbilder gesendet bekommt, sondern mit echten Vollbildern gespeist wird.
(Zitiert nach http://de.wikipedia.org/wiki/Zeilensprungverfahren und
http://de.wikipedia.org/wiki/Vollbildverfahren)

Claims

Patentansprüche
1. Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln zum Realisieren folgender Funktionen:
a) einer Server-Funktion, wobei zum Realisieren der Server-Funktion die folgenden
Funktionen realisiert sind:
a1 ) Annahme von mindestens einem Bild-, mindestens einem Audio-Datenstrom; a2) Kompression mindestens eines der Bild- und Audio-Datenströme in jeweils einen kombinierten Datenstrom;
a3) Ausgabe mindestens eines der kombinierten Datenströme über ein protokollbasiertes Netzwerk;
b) einer Client-Funktion, wobei zum Realisieren der Client-Funktion die folgenden Funktionen realisiert sind:
b1 ) Annahme mindestens eines kombinierten Datenstroms aus dem protokoilbasierten Netzwerk;
b2) Dekompression des mindestens einen kombinierten Datenstroms;
b3) Ausgabe des dekomprimierten Bild- und Audio-Datenstroms;
c) wobei die Hardware-Mittel derart ausgelegt sind, dass sie einen kontinuierlichen kombinierten Datenstrom komprimieren und dekomprimieren und
d) die Hardware-Mittel zum Realisieren der Server-Funktion und der Client-Funktion auf einer gemeinsamen Platine angeordnet sind.
2. Eingebettetes System nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die gemeinsame Platine als PC-Steckkarte ausgebildet ist und in einer PC-Betriebssystemumgebung als Netzwerkkarte einblendbar ist.
3. Eingebettetes System nach dem vorhergehenden Anspruch, gekennzeichnet durch
a) Hardware-Mittel zur Annahme von mehr als einem kombinierten Datenstrom über das Protokoll-basierte Netzwerk; b) Hardware-Mittel zur Dekompression von mehr als einem kombinierten Datenstrom;
c) Hardware-Mittel zur Skalierung und/oder Rotation und/oder Vereinigung und/oder Überblendung von mehr als einem dekomprimierten Bild- und Audio-Datenstrom; d) Hardware-Mittel zur gemeinsamen Ausgabe von mehr als einem dekomprimierten Bild- und Audio-Datenstrom zur gleichzeitigen Darstellung an einem Bildschirm; und
e) Hardware-Mittel zur geteilten Ausgabe von einem oder mehreren kombinierten Datenströmen an mehrere Bildschirme, die als Videowand angeordnet sind.
4. Eingebettetes System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Hardware- Mittel derart ausgelegt sind, dass sie
a. eine individuelle Sicherung mittels einer im System gespeicherten Hardwareseriennummer und einem individuellen Freischaltcode vornehmen und b. Freischaltcode-Überwachungsmittel umfassen, die ein Überwachen und Abgleichen von Freischaltcodes vornehmen.
5. Eingebettetes System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Freischaltcode-Überwachungsmittel zum
Abgeben eines Freischaltcode-Warnsignals oder Freischaltcode-Freigabesignals ausgebildet sind.
6. Eingebettetes System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Hardware-Mittel derart ausgelegt sind, dass sie einen kontinuierlichen Bild- und Audio-Datenstrom mit mindestens 60 Bildern pro Sekunde und mit einer Auflösung von mindestens 1920 x 1080 Pixeln ohne Datenstau komprimieren und dekomprimieren.
7. Eingebettetes System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kompression der Datenströme gemäß dem H.264- oder dem H.265-Standard erfolgt.
8. Eingebettetes System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass
a. die Server-Funktion eine Funktion zum Verschlüsseln des kombinierten Datenstroms realisiert; und
b. die Client-Funktion eine Funktion zum Entschlüsseln des mindestens einen kombinierten Datenstroms realisiert.
9. Eingebettetes System nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Hardware- Mittel zum Konvertieren eines im
Zeilensprungverfahren aufgenommenen Bilddatenstroms zum Vollbildverfahren.
10. Eingebettetes System nach einem der vorhergehenden Ansprüche, gekennzeichnet durch
a) ein Speichermodul mit einem BIOS;
b) ein Speichermodul mit einem Betriebssystem; sowie
c) Mittel zum Annehmen von Steuersignalen über das protokollbasierte Netzwerk.
11. Eingebettetes System nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Mittel zum Ausgeben von Steuersignalen zur
Fernbedienung angeschlossener Geräte.
12. Eingebettetes System nach einem der vorhergehenden Ansprüche, gekennzeichnet durch
a) Hardware-Mittel zur Zwischenspeicherung und wiederholten Ausgabe des mindestens einen kombinierten Datenstroms; und
b) Mittel zur interaktiven Steuerung des eingebetteten Systems durch den Betrachter des mindestens einen ausgegebenen Datenstroms.
13. Eingebettetes System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Hardware-Mittel einen FPGA umfassen, wobei durch den FPGA folgende Funktionen bereitgestellt werden: a) Anbindung an das protokollbasierte Netzwerk;
b) Firewall;
c) Verschlüsselung des auszugebenden kombinierten Datenstroms, wenn das eingebettete System als Server arbeitet; und
d) Entschlüsselung des mindestens einen kombinierten Datenstroms, wenn das eingebettete System als Client arbeitet.
14. Eingebettetes System nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die Konfiguration des FPGA individuell verschlüsselt ist.
15. Eingebettetes System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Hardware-Mittel einen DSP umfassen, wobei durch den DSP folgende Funktionen bereitgestellt werden:
a) Kompression mindestens eines der Bild- und Audio-Datenströme in jeweils einen kombinierten Datenstrom, wenn das eingebettete System als Server arbeitet;
b) Dekompression des mindestens einen kombinierten Datenstroms, wenn das eingebettete System als Client arbeitet; und
c) Skalierung und Ausgabe des dekomprimierten Bild- und Audio-Datenstroms über eine Schnittstelle, wenn das eingebettete System als Client arbeitet.
16. Eingebettetes System nach einem der vorhergehenden Ansprüche, gekennzeichnet durch
a) mindestens ein Netzwerk-Anschluss und
b) mindestens eine Schnittstelle gemäß einem Video-Standard und/oder c) mindestens eine Schnittstelle gemäß einem Audio-Standard und/oder d) mindestens eine Schnittstelle zu einem Datenbus und/oder
e) eine Infrarot-Schnittstelle.
17. Videoverteilungssystem zum Annehmen und Verteilen von mindestens einem Video-Datenstrom aus mindestens einer Videoquelle mit:
a) einem protokollbasierten Netzwerk; b) mindestens einem eingebetteten System nach einem der vorhergehenden Ansprüche, das als Server arbeitet und mindestens einen der Bild-Datenströme aus der mindestens einen Videoquelle annimmt, komprimiert und über das protokollbasierte Netzwerk ausgibt; und
c) mindestens einem eingebetteten System nach einem der vorhergehenden Ansprüche, das als Client arbeitet und mindestens einen komprimierten Datenstrom aus dem protokollbasierten Netzwerk annimmt, dekomprimiert und über eine Schnittstelle ausgibt.
18. Videoverteilungssystem nach dem vorhergehenden Anspruch, wobei a) als Videoquellen Satellitenfemseh-Empfänger oder Kabelfernsehanschlüsse oder DVBT-Empfänger oder PCs oder Mediaplayer eingesetzt werden; und b) an die Schnittstellen der eingebetteten Systeme, die als Client arbeiten, über welche die Datenströme ausgegeben werden, Bildschirme angeschlossen sind.
19. Steuerungs-PC, der mit einem Netzwerk, in dem Bild- und/oder Audio- Datenströme vorhanden sind, und einer Anzeigeeinrichtung (155) zur Darstellung von mindestens einem ansteuerbaren Bildschirm verbunden ist, wobei der Steuerungs-PC (150) mindestens eine Eingabeeinrichtung umfasst und, wobei mittels eines auf der Anzeigeeinrichtung (155) darstellbaren Auswahlmenüs (154) a. der Bildschirm ein- bzw. ausschaltbar ist und/oder
b. die auf den Bildschirmen darzustellenden Datenströme auswählbar sind und/oder
c. eine Position von Bildern auf mindestens einem Bildschirm auswählbar oder einstellbar ist und/oder
d. ein Anzeigeformat auswählbar ist und/oder
e. eine Darstellung einer Fernbedienungseinheit (158) mit mehreren Schaltern anzeigbar ist, wobei mittels der Schalter der Fernbedienungseinheit (158) Funktionen des Bildschirms schaltbar sind.
20. Steuerungs-PC nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die Fernbedienungseinheit (158) durch die Auswahl eines einem ausgewählten Bildschirm zugeordneten Auswahlmenüs (154) anzeigbar ist.
21. Steuerungs-PC nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass die Anzeigeeinrichtung (155) die Anordnung von Bildschirmen und/oder deren Inhalten gemäß einer aktuellen Konfiguration darstellt, wobei Daten der Konfiguration an dem Netzwerk anliegen.
22. Steuerungs-PC nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels der Eingabeeinrichtung die Bilder auf mindestens einem Bildschirm überlappend auf der Anzeigeeinrichtung (155) anzuordnen sind.
23. Steuerungs-PC nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass ein eingebettetes System nach einem der vorhergehenden Ansprüche und/oder ein Videoverteilungssystem nach einem der vorhergehenden Ansprüche mit dem Netzwerk verbunden ist.
EP14706494.3A 2013-02-02 2014-02-03 Eingebettetes system zur videoverarbeitung mit hardware-mitteln Ceased EP2989788A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP14706494.3A EP2989788A1 (de) 2013-02-02 2014-02-03 Eingebettetes system zur videoverarbeitung mit hardware-mitteln

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP13153777.1A EP2763401A1 (de) 2013-02-02 2013-02-02 Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln
PCT/EP2014/051861 WO2014118306A1 (de) 2013-02-02 2014-01-30 Eingebettetes system zur videoverarbeitung mit hardware-mitteln
PCT/EP2014/052073 WO2014118378A1 (de) 2013-02-02 2014-02-03 Eingebettetes system zur videoverarbeitung mit hardware-mitteln
EP14706494.3A EP2989788A1 (de) 2013-02-02 2014-02-03 Eingebettetes system zur videoverarbeitung mit hardware-mitteln

Publications (1)

Publication Number Publication Date
EP2989788A1 true EP2989788A1 (de) 2016-03-02

Family

ID=47709930

Family Applications (2)

Application Number Title Priority Date Filing Date
EP13153777.1A Ceased EP2763401A1 (de) 2013-02-02 2013-02-02 Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln
EP14706494.3A Ceased EP2989788A1 (de) 2013-02-02 2014-02-03 Eingebettetes system zur videoverarbeitung mit hardware-mitteln

Family Applications Before (1)

Application Number Title Priority Date Filing Date
EP13153777.1A Ceased EP2763401A1 (de) 2013-02-02 2013-02-02 Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln

Country Status (8)

Country Link
US (3) US10038931B2 (de)
EP (2) EP2763401A1 (de)
KR (2) KR102064031B1 (de)
CN (2) CN105122831A (de)
HK (2) HK1212527A1 (de)
MY (2) MY181424A (de)
SG (3) SG10201706252RA (de)
WO (2) WO2014118306A1 (de)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180316939A1 (en) * 2012-04-24 2018-11-01 Skreens Entertainment Technologies, Inc. Systems and methods for video processing, combination and display of heterogeneous sources
US11284137B2 (en) 2012-04-24 2022-03-22 Skreens Entertainment Technologies, Inc. Video processing systems and methods for display, selection and navigation of a combination of heterogeneous sources
CN103793190A (zh) * 2014-02-07 2014-05-14 北京京东方视讯科技有限公司 一种信息显示方法、信息显示装置及显示设备
EP3235259A4 (de) * 2014-12-16 2018-05-23 Hewlett-Packard Development Company, L.P. Verarbeitung von daten in einem thin-client-endgerät
CN104796769A (zh) * 2015-04-28 2015-07-22 杭州罗莱迪思照明系统有限公司 一种脱机系统中直接播放视频文件的led显示控制方法
CN107534795A (zh) * 2015-05-15 2018-01-02 惠普发展公司有限责任合伙企业 将信息嵌入到音频流中以用于连接
CN106648507B (zh) * 2016-12-05 2020-02-14 中国航空工业集团公司洛阳电光设备研究所 一种用于嵌入式处理器扩展dvi显示输出的电路及方法
WO2018155670A1 (ja) * 2017-02-27 2018-08-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像配信方法、画像表示方法、画像配信装置及び画像表示装置
CN107067365A (zh) * 2017-04-25 2017-08-18 中国石油大学(华东) 基于深度学习的分布嵌入式实时视频流处理系统及方法
CN107295302A (zh) * 2017-05-12 2017-10-24 苏州大学 基于arm和fpga的智能网络摄像头的分析系统及分析方法
US10992960B2 (en) 2019-02-06 2021-04-27 Jared Michael Cohn Accelerated video exportation to multiple destinations
CN111669623B (zh) * 2020-06-28 2023-10-13 腾讯科技(深圳)有限公司 视频特效的处理方法、装置以及电子设备
US12099473B1 (en) 2020-12-14 2024-09-24 Cigna Intellectual Property, Inc. Systems and methods for centralized logging for enhanced scalability and security of web services
US11743440B2 (en) 2021-04-19 2023-08-29 Apple Inc. Transmission and consumption of multiple image subframes via superframe
CN113726782B (zh) * 2021-08-31 2023-06-27 江苏食品药品职业技术学院 一种计算机网络监控平台
KR102544747B1 (ko) * 2023-03-17 2023-06-20 주식회사 노비텍 복수개의 독립된 Ethernet 인터페이스를 지원하는 카메라

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6870886B2 (en) * 1993-12-15 2005-03-22 Koninklijke Philips Electronics N.V. Method and apparatus for transcoding a digitally compressed high definition television bitstream to a standard definition television bitstream
US7926097B2 (en) * 1996-11-29 2011-04-12 Ellis Iii Frampton E Computer or microchip protected from the internet by internal hardware
EP0917361B1 (de) * 1997-04-03 2006-05-31 Matsushita Electric Industrial Co., Ltd. Videoproduktionssystem für progress-fernseh-modus sowie aufnahme- und wiedergabevorrichtung dafür
US6366617B1 (en) * 1998-10-09 2002-04-02 Matsushita Electric Industrial Co., Ltd. Programmable filter for removing selected user data from an MPEG-2 bit stream
US6927783B1 (en) * 1998-11-09 2005-08-09 Broadcom Corporation Graphics display system with anti-aliased text and graphics feature
US6538656B1 (en) * 1999-11-09 2003-03-25 Broadcom Corporation Video and graphics system with a data transport processor
JP3998399B2 (ja) * 1999-12-03 2007-10-24 松下電器産業株式会社 映像信号変換装置
US20020129280A1 (en) * 2001-01-29 2002-09-12 Enjoyweb, Inc. Method, apparatus, and system for distributing compressed digital media in a secured manner
US6652378B2 (en) * 2001-06-01 2003-11-25 Igt Gaming machines and systems offering simultaneous play of multiple games and methods of gaming
US8661496B2 (en) * 2002-12-10 2014-02-25 Ol2, Inc. System for combining a plurality of views of real-time streaming interactive video
US7685027B2 (en) * 2003-12-04 2010-03-23 International Business Machines Corporation Method and system for enterprise-wide migration
US20080007612A1 (en) * 2004-12-06 2008-01-10 Synelec Telecom Multimedia Zone Industrielle, Saint Sernin Sur Rance Multiplexed image distribution system
US8665967B2 (en) * 2006-02-15 2014-03-04 Samsung Electronics Co., Ltd. Method and system for bit reorganization and packetization of uncompressed video for transmission over wireless communication channels
US20080120675A1 (en) * 2006-11-22 2008-05-22 Horizon Semiconductors Ltd. Home gateway for multiple units
US8436943B2 (en) 2007-03-22 2013-05-07 Control4 Corporation System and method for automated audio visual system control
US20090069049A1 (en) * 2007-09-12 2009-03-12 Devicefidelity, Inc. Interfacing transaction cards with host devices
US20090079694A1 (en) 2007-09-20 2009-03-26 Rgb Spectrum Integrated control system with keyboard video mouse (kvm)
EP2247108A1 (de) 2007-12-31 2010-11-03 Digital Keystone, Inc. Verteiltes TV-Zugriffssystem
TW201026056A (en) * 2008-12-16 2010-07-01 Quanta Comp Inc Image capturing device and image delivery method
US8164617B2 (en) * 2009-03-25 2012-04-24 Cisco Technology, Inc. Combining views of a plurality of cameras for a video conferencing endpoint with a display wall
US8495234B2 (en) * 2009-06-29 2013-07-23 Sandisk Il Ltd. Storage device with multimedia interface connector
US20110166968A1 (en) * 2010-01-06 2011-07-07 Richard Yin-Ching Houng System and method for activating display device feature
CN103026385B (zh) * 2010-06-22 2015-09-16 诺基亚公司 使用模板切换和特征适配提供对象跟踪的方法、装置和计算机程序产品
KR101315670B1 (ko) * 2011-05-25 2013-10-08 주식회사 슈프리마 보안인증 디바이스에 접근하는 스마트폰 등록 방법 및 등록된 스마트폰의 접근 권한 인증방법
US8472619B1 (en) * 2011-07-13 2013-06-25 Xilinx, Inc. Multiple validly decryptable messages
US9071854B2 (en) * 2011-09-12 2015-06-30 Disney Enterprises, Inc. System and method for transmitting a services list to a playback device
US9128876B2 (en) * 2011-12-06 2015-09-08 Honeywell International Inc. Memory location specific data encryption key
US8621651B2 (en) * 2012-01-23 2013-12-31 Verizon Patent And Licensing Inc. Enforcing content blackout
CN102801941B (zh) * 2012-09-04 2015-11-11 山东大学 一种嵌入式无线投影接入设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
None *
See also references of WO2014118378A1 *

Also Published As

Publication number Publication date
US20150373402A1 (en) 2015-12-24
SG11201506006YA (en) 2015-09-29
HK1212527A1 (en) 2016-06-10
WO2014118378A1 (de) 2014-08-07
US20150373382A1 (en) 2015-12-24
HK1212834A1 (zh) 2016-06-17
EP2763401A1 (de) 2014-08-06
MY179681A (en) 2020-11-11
CN105122831A (zh) 2015-12-02
KR102225765B1 (ko) 2021-03-10
MY181424A (en) 2020-12-21
US20170237796A1 (en) 2017-08-17
KR102064031B1 (ko) 2020-01-08
US10237603B2 (en) 2019-03-19
KR20150115826A (ko) 2015-10-14
KR20150112033A (ko) 2015-10-06
CN105075243A (zh) 2015-11-18
SG10201706252RA (en) 2017-10-30
US10038931B2 (en) 2018-07-31
WO2014118306A1 (de) 2014-08-07
US9596492B2 (en) 2017-03-14
SG11201506009QA (en) 2015-09-29

Similar Documents

Publication Publication Date Title
WO2014118378A1 (de) Eingebettetes system zur videoverarbeitung mit hardware-mitteln
US9990476B2 (en) System for interactive matrix manipulation control of streamed data and media
DE60224669T2 (de) Graphische benutzerschnittstelle
DE69106033T2 (de) Verfahren und Vorrichtung zur Verwürfelung-Entwürfelung digitaler Bilddaten.
EP2274739B1 (de) Multiviewer-videosystem mit serieller digitalschnittstelle und entsprechende verfahren
DE10120806B4 (de) Vorrichtung und Verfahren zur Übertragung von multimedialen Datenobjekten
US20160249108A1 (en) Method and apparatus for providing a customized viewing experience
DE10236679A1 (de) Drahtloses Videoanzeigegerät und Verfahren
US20090276541A1 (en) Graphical data processing
DE102005009621A1 (de) Schaltung, Vorrichtung und Verfahren zum Empfangen, bedingten Zugriff und Kopierschutz digitaler Videoübertragungssignale
DE112013007509T5 (de) Verfahren, Einrichtung und System zum Auswählen von Audio-Video-Daten zum Streamen
US20230244764A1 (en) System for Interactive Matrix Manipulation Control of Streamed Data
DE102019122181B4 (de) Generalisierte niedriglatenzbenutzerinteraktion mit video auf verschiedenen transporteinrichtungen
US20110321104A1 (en) System and method for mass distribution of high quality video
KR101877034B1 (ko) 멀티비전 가상화 시스템 및 가상화 서비스 제공 방법
US20090274379A1 (en) Graphical data processing
DE102013001814A1 (de) Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln
WO2021223819A2 (de) System und systembox zum empfangen von videostreams
EP2688289B1 (de) Verfahren zur Verarbeitung von Video- und/oder Audiosignalen
EP2670155A2 (de) Hybrid-TV-Empfänger mit einer Videomischeinrichtung für eine Mehrbildwiedergabe zum zeitgleichen visuellen Darstellen von Medieninhalten auf einem Wiedergabeschirm
WO2021028178A1 (de) Verfahren zum übertragen einer metainformation zu einem bild eines videostroms
DE102015113265B3 (de) Empfangsgerät für digitale Fernseh- und/oder Rundfunksignale
DE102007030675B4 (de) Verfahren und Vorrichtung zur Entschlüsselung in mehreren verschiedenen Transportströmen enthaltener Dienste
DE102019101986A1 (de) Vorrichtung zur Wiedergabesteuerung für Inhalts-Dual-Streaming
DE10220650A1 (de) Verfahren und Vorrichtung zum Verarbeiten von über ein Netzwerk bereitgestellter Information

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20151209

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20170109

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

APBK Appeal reference recorded

Free format text: ORIGINAL CODE: EPIDOSNREFNE

APAF Appeal reference modified

Free format text: ORIGINAL CODE: EPIDOSCREFNE

APBK Appeal reference recorded

Free format text: ORIGINAL CODE: EPIDOSNREFNE

APBN Date of receipt of notice of appeal recorded

Free format text: ORIGINAL CODE: EPIDOSNNOA2E

APBR Date of receipt of statement of grounds of appeal recorded

Free format text: ORIGINAL CODE: EPIDOSNNOA3E

APAF Appeal reference modified

Free format text: ORIGINAL CODE: EPIDOSCREFNE

REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

APBT Appeal procedure closed

Free format text: ORIGINAL CODE: EPIDOSNNOA9E

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20220407