WO2016055195A1 - Vorrichtung zum erzeugen eines videoausgangsdatenstroms, videoquelle, videosystem und verfahren zum erzeugen eines videoausgangsdatenstroms bzw. eines videoquellendatenstroms - Google Patents

Vorrichtung zum erzeugen eines videoausgangsdatenstroms, videoquelle, videosystem und verfahren zum erzeugen eines videoausgangsdatenstroms bzw. eines videoquellendatenstroms Download PDF

Info

Publication number
WO2016055195A1
WO2016055195A1 PCT/EP2015/068480 EP2015068480W WO2016055195A1 WO 2016055195 A1 WO2016055195 A1 WO 2016055195A1 EP 2015068480 W EP2015068480 W EP 2015068480W WO 2016055195 A1 WO2016055195 A1 WO 2016055195A1
Authority
WO
WIPO (PCT)
Prior art keywords
video source
video
data stream
source data
time
Prior art date
Application number
PCT/EP2015/068480
Other languages
English (en)
French (fr)
Inventor
Eugen Wagner
Christopher Saloman
Wolfgang Thieme
Original Assignee
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. filed Critical Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority to KR1020177012522A priority Critical patent/KR101980330B1/ko
Priority to JP2017518923A priority patent/JP6545794B2/ja
Priority to CA2963959A priority patent/CA2963959A1/en
Priority to EP15750990.2A priority patent/EP3204946A1/de
Publication of WO2016055195A1 publication Critical patent/WO2016055195A1/de
Priority to US15/481,755 priority patent/US20170213577A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/038Cross-faders therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/643Hue control means, e.g. flesh tone control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/75Chroma key
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/76Circuits for processing colour signals for obtaining special effects for mixing of colour signals

Definitions

  • Apparatus for generating a video output data stream for generating a video output data stream, video source, video system and method for generating a video output data stream
  • the present invention relates to a device for generating a video output data stream, such as a video mixer, to a video source, to a video system and to methods for generating a video output data stream or a video source data stream.
  • the invention further relates to a computer program and to distributed creation of special video effects in a multi-camera life-enabled video production system.
  • the workflow of a life-video production with multiple cameras can be described in a simplified way so that the video streams of the cameras are transmitted in real-time to the video mixer.
  • the director decides which of the cameras to send, that is, "on air.”
  • the video stream can then be transposed, such as logos, graphics, or text, then the output stream is encoded and sent over a network (such as the Internet, satellite, or Cable) provided to the consumer.
  • a network such as the Internet, satellite, or Cable
  • Transition effects Adding transition effects in real time is supported by many video mixers on the market. However, these are mostly devices from higher price categories. They have inputs for uncompressed video and network interfaces for Internet Protocol (IP) -based transmission of compressed video streams. Received encoded video data is first decoded. The mixing is done on the basis of uncompressed video data, which are then re-encoded. This solution implies high demands on the hardware of the video mixer and thus on the price.
  • IP Internet Protocol
  • a dedicated hardware video mixer decodes the incoming video streams from connected cameras, calculates video effects, and encodes the resulting video stream or forwards the output stream to a separate encoder.
  • the benefits of such a solution include a wide range of features, very good performance, and a way to combine encoded and non-encoded video sources.
  • this solution is an integral part of established workflows.
  • the disadvantages include a complex operation, a high price, a limited mobility of the device and a high computational effort, which must be performed by the video mixer.
  • the software links four mobile devices into a group and lets the encoded video streams be transferred live from the devices that appear as "cameras" to the "director" device, the video mixer.
  • the Director device controls the switching between video streams.
  • the software allows the addition of crossfade effects when switching between the cameras.
  • the output video will be merged offline after the recording has finished. This is done using step marks created by the Director during the recording process, and the creation of cross-fade effects requires the decoding and encoding of parts of the recording.
  • the cameras transmit encoded video streams to a server that has the necessary resources to process the data in real time.
  • the director has access to the controls via a web interface, such as a preview of all video / audio sources. Cut, effects, etc. granted.
  • the advantages of such solutions include increased scalability, as the required performance is available to buy. Also, the price for the server is lower than the cost of own hardware. Critical are the quality features of the network connection, such as available channel bandwidth or possible transmission errors. This limits the field of application of this solution.
  • the object of the present invention is to provide a live or real-time capable device for generating a video output data stream which has transition effects, the device only requiring a low computing power for this, so that the requirements for energy and / or computing power are low are.
  • an apparatus for generating a video output data stream includes first and second signal inputs for receiving first and second video source data streams.
  • the apparatus further comprises processor means configured to base the video output data stream at a first time based on the first video source data stream and by means of a switching operation at a second time following the first time. provide on the second video source data stream.
  • the apparatus further includes a control signal output for sending a control command to a video source, wherein the video source receives the first or second video source data stream.
  • the control command includes an instruction to the video source to apply a transition effect to the provided source video stream or a sequence of images.
  • the transition effect is timed between an image of the first and an image of the second video source data stream in the video output signal.
  • the processor device is designed to process a program code in synchronism with a processor device of the video source, that is to say the device for generating a video output data stream is synchronized with one, several or all video data sources.
  • a processor device of the video source that is to say the device for generating a video output data stream is synchronized with one, several or all video data sources.
  • transition effects or partial transition effects can be carried out distributed in the video sources, so that the calculation costs for the respective video source are reduced.
  • both transition effects before switching over, for example during the blanking, by the first video source and also after the switching, for example during the insertion can be represented by the second video source, ie. H. applicable.
  • the device is configured to provide the first or second video source data stream with the transition effect as the video output data stream without manipulating the first or second video source data stream.
  • An advantage of this embodiment is that the device in the sense of a changeover switch or in the sense of a switch executable that between the Video source data streams can be switched and only one video source data stream as video output squelstrom forwarded or provided, so that the video output data stream with further reduced computational effort is available.
  • a video source configured to output a video source data stream includes a signal input for receiving a control command from a device for generating a video output data stream.
  • the control instruction includes an instruction to apply a transition effect on the source video data stream, the instruction relating to at least one of a time duration, a start time, an end time, a map, a type, or an intensity of the transition effect. It is advantageous in this exemplary embodiment that the implementation of the transition effect can already take place before the video source data stream is encoded by the video source.
  • the video source comprises a processor device, which is designed to process a program code in synchronism with a processor device of a device for generating a video output data stream.
  • the video source is configured to apply the transition effect based on influencing the image signal processing chain or based on a graphical processor device.
  • Further exemplary embodiments relate to a method for generating a video output data stream, to a method for outputting a video source data stream. Further embodiments relate to a computer program.
  • FIG. 1 is a schematic block diagram of a video system having an apparatus for generating a video output data stream, a first video source and a second video source according to an embodiment
  • FIGS. 2a-d are schematic representations of camera-executed video sources at different times with respect to a switching time of the device for generating the video output data stream according to an embodiment, in which
  • Fig. 2a illustrates a time when no transition effect is applied
  • Fig. 2b illustrates a time at which the first video source presents a first transition effect and the video output stream has the transition effect
  • Fig. 2c illustrates a time at which the second video source represents a second transition effect, has switched the video output current generating device, and the video output current has the transition effect;
  • FIG. 2d illustrates a time at which the first and second transition effects are completed
  • FIG. 3 shows a schematic comparison of the video source data streams and of the
  • FIG. 1 shows a schematic block diagram of a video system 1000 with a device 100 for generating a video output data stream 102, a first video source 200a and a second video source 200b.
  • the video source 200a or 200b may, for example, be a camera or a storage medium that is designed to output a video source data stream 202a or 202b.
  • the video source data streams 202a and / or 202b may be, for example, unencrypted, uncompressed, encoded (encoded) video signals.
  • the video source data streams 202a and 202b are encoded, that is, compressed, video signals.
  • the device 100 comprises a first signal input 104a for receiving the (first) video source data stream 202a and a second signal input 104b for receiving the (second) video source data stream 202b.
  • the apparatus 100 further includes a signal output 106 for outputting the video output data stream 02, such as to a medium or distribution network and / or to a (video) player.
  • the device 100 comprises a control signal output 1 12 for sending a control command 1 14 to the video sources 200a and / or 200b.
  • the control command includes an instruction to the video source 200a and 200b to apply a transition effect to be reproduced in the video output data stream 102.
  • the device 100 includes a processor device 130 configured to generate the video output data stream 102.
  • the processor device 130 is configured to switch between the video source data streams 202a and 202b to produce the video output data stream 102, such that the video output data stream 102 is determined, for example, at a first time by the video source data stream 202a and at a second time by the video source data stream 202b. Switching can occur between two consecutive times, which is also referred to as hard switching.
  • the processor device 130 is configured to use either the video source data stream 202a or the video source data stream 202b in the function of a switch or switch forward and provide as video output data stream 102.
  • the device 100 may each time-selectively forward a video source signal 202a or 202b without decoding, modifying, and encoding the respective signal, that is, without manipulating the signal.
  • the processor device 130 can furthermore be designed to either encode the video source data stream 202a or 202b to be forwarded or to encode it, ie beyond a previous extent, such as compatibility of the video output data stream 102 with a communication protocol, such as TCP / IP (FIG. Transmission Control Protocol / Internet Protocol), WLAN (Wireless Local Area Network) and / or a wired communication protocol. Furthermore, an encoding can also take place such that the video output data stream 102 can be stored in a file format.
  • a switch 132 between the video source data streams 202a and 202b may be triggered by a user input 16 which is received at a user interface 118 from the device 100 and routed to, ie, provided to, the processor device 130.
  • the user interface 118 may be a wired interface, such as when the switch 132 is triggered based on a button press on the device 100 or an input device thereof.
  • the user interface 118 may be a wireless interface, such as when the user input 16 is received wirelessly, such as by a wireless remote control.
  • the transition effect may be, for example, a fade-in, a fade-out, a variation of one or more color intensities or a contrast, and / or a fading of the signal provided by the video source or a sequence of images with a graphic or a Picture include.
  • the transition effect may include a deterministic or stochastic mapping function, such as distortion of the output image, a (pseudo-) random change of the image, and / or a mosaic effect.
  • the device 100 is configured to configure the control command 14 accordingly, such that the control command includes an instruction directing a received video source 200a and / or 200b, at least partially, into the video source data stream 202a and / or 202b provided by it to integrate.
  • the device 100 may, for example, be designed as a video mixer. Alternatively or additionally, the device 100 may be embodied as a personal computer (PC) or as a mobile device, such as a mobile phone or tablet computer.
  • the first and second signal inputs 104a and 104b may also be combined as a common interface, such as a network or wireless interface.
  • the video sources 200a and 200b have a signal input 204a or 204b at which the video source 200a or 200b receives the control command 14.
  • the video source 200a comprises a device 210 for providing a sequence 212 of images, such as a camera chip or a data memory, on which a plurality of images are stored and which is designed to retrieve the sequence 212 with a multiplicity of images.
  • the video source 200a further includes a processor device 220 that is formed. to receive the sequence 212 of images from the device 210 and to at least partially overlay them with the transition effect. This will hereinafter be referred to as a superimposition of the video information with the transition effect.
  • the processor device 220 is further configured to generate the video source signal 202a.
  • the processor device 220 may be a processor of the video source, such as a central processing unit (CPU), a microcontroller, a Field Programmable Gate Array (FPGA), or the like.
  • the video source 200a is configured to output the video source data stream 202a based on the transition effect, and the video source data stream 202a has the transition effect in an application of the overlaying effect.
  • the video source can be designed to apply the transition effect based on an intervention in a hardware-accelerated image processing processor (ISP) and / or based on image processing by means of a graphical processor device. This allows realization of the transition effect in a small amount of time and / or a small number of arithmetic operations.
  • ISP hardware-accelerated image processing processor
  • the video source 200 includes an output interface 206 configured to transmit the video source signal 202a.
  • the transmission may be wireline, such as via a network or direct cable connection to the device 100.
  • the transmission can also be wireless.
  • the signal inputs 104a, 104b, 112, 204a, 204b, and / or 206 may be implemented as wired or wireless interfaces.
  • the video source 200 includes an optional graphics memory 230 that is configured to store a graphic and provide it to the processor device 220.
  • the graphics may, for example, be a logo or a continuous or constant image effect, which is superimposed at least temporarily with images provided by the device 210.
  • the video source 200a and / or 200b may be configured to receive corresponding graphics from another device, such as a computer or device 100. This can be done for example by means of a separate or already existing transmission channels, such as a channel on which the control command 1 14 is transmitted.
  • the video sources 200a and 200b may be embodied, for example, as two cameras which capture the same or different object areas, approximately the same (possibly from different angles) or different (sports) events or other recordings such as person and / or landscape scenes.
  • at least one of the video sources 200a or 200b may be embodied as video memory, for example as hard disk storage.
  • the video system 1000 may comprise further video sources.
  • a transition effect may be desired, for example, by a user.
  • the corresponding input 1 6 is included For example, by means of the interface 1 18 receivable.
  • Information relating to the transition effect is sent by means of the control command 1 4 to the respective or all participating video sources 200a and / or 200b.
  • the device 100 provides information about which switching effect should be performed at which times. The information may relate, for example, to an identification, such as a number or index of the transition effect, to a duration of the transition effect, to a start time, to an end time, to a type or intensity of the transition effect.
  • the control command 1 14 can be sent specifically to a video source 200a or 200b or sent by broadcast to all participants, so that the respective receiver, that is, the video source 200a or 200b recognizes that the message is intended for you.
  • transition effect involves manipulation or alteration of the video source data streams 202a and 202b of both video sources 200a and 200b involved
  • this transition effect can be subdivided into two or more subeffects.
  • At least a partial effect is applicable to the sequence of images 212 of the respective video sources 200a and 200b, respectively.
  • a transition effect (possibly referred to as gentle), from a first to a second video source data stream, may consist of a blanking effect of the first and a blanking effect of the second data stream.
  • This transition effect can be represented as the first part-transition effect (blanking effect) and the second part-transition effect (overlay effect).
  • Each partial transition effect may be applied by one of the video sources 200a and 200b, respectively.
  • a fade-out of a video source data stream 202a provided as a video output data stream 102 at a time and a fade-in of a video source data stream 202b subsequently included in the video output data stream 102 may be performed by a fade-out in the video source 200a and a fade-in the video source 200b are realized.
  • the transition effect can also be realized only in a video source data stream, such as fading out or fading, or merely fade-in or fade-in.
  • the processor devices 130 of the device 100 and 220 of the video sources 200a and / or 200b can be synchronized with each other in time, so that a temporally matching positioning of the individual transition effects is adjustable
  • a temporal synchronization for example by means of another transmission channel, or in which the control command is transmitted by means of a transmission channel in which the video source data streams 202a and / or 202b are transmitted and / or by a common synchronization signal which is transmitted on other channels device 100 and / or received by video sources 200a and 200b, respectively.
  • This allows for additional synchronization of the video streams 202a and 202b, each with and without transient effects by the device 100, to be eliminated
  • the video sources 200a and / or 200b may be further configured to output the respective video source data streams 202a and 202b at a variable bit rate, respectively.
  • the video source (s) whose video source data stream is not currently being inserted into the output data stream 102 only send (video) information of a lower quality, ie bit rate, and for example a bit rate of the video source whose video source data stream is in the video output stream is integrated, with an equal or higher bit rate and / or quality sends.
  • This can be particularly advantageous in the case of a shared transmission medium, for example a shared radio medium or a common wired network.
  • the respective forwarded video source 200a or 200b may generate video signals 202a and / or 202b at a high or maximum bit rate, whereas, for example, a thumbnail or a lower resolution representation of the currently unused video source data streams may be used by the operator using the apparatus 100 Transition effect initiated and / or considered the video source data streams 202a and / or 202b, is sufficient to judge whether a switch is to take place.
  • the respective video source can be instructed to change the bit rate of the respective video source data stream to a predetermined or the value contained in the message.
  • the video source may also be designed to automatically change the bit rate, for example to reduce the bit rate after a blanking effect has ended and / or to increase the bit rate from a reduced value before or at the same time as a starting overlay effect.
  • a basic idea is that the creation of transition effects is left to the cameras. This significantly reduces the requirements for the video mixer, that is, the device for generating the video output data stream. For example, it should only be able to receive the incoming video streams from one or more cameras, for example in encoded form, and to output one of the streams as an output video stream.
  • the video mixer may be able to display the incoming video streams, such as on a monitor or the video streams of a video monitor. to provide a monitor.
  • the video mixer for example, be able to perform a decoding of the video streams.
  • the decoding can also be done in the monitor. No transcoding of the video data is necessary.
  • a prerequisite or a further development may be that the cameras and the video mixer have a common time base, ie are synchronized. Also a communication possibility between the video mixer and the connected cameras (return channel) can be assumed.
  • the switching can either be hard or a transition effect can be created. A hard cut can be understood when a current S1 is used as the output current before a switching time 7 " and at time T the video current S2 becomes the output current.
  • FIGS. 2a-d show schematic representations of the video sources 200a and 200b as camera at different times with respect to a switching time.
  • the video sources 200a and 200b respectively send the video source data stream 202a and 202b to the device 100 (video mixer).
  • FIGS. 2 a - d further show a content of the video output data stream 102
  • FIG. 2 a shows schematically at times k ⁇ T S1 that the video source 200a provides the video source data stream 202a designated as S1 and the video source 200b the video source data stream 202b designated as S2 of the apparatus 100.
  • the device 100 generates the video output data stream 102 based on the video Source data stream 202a or provides this.
  • 7 S1 denotes a starting time point of a (partial) transition effect with a duration of 7 max1 applied by the video source 200a.
  • the illustrated times k are before a start of a representation of the transition effect in one of the data streams 202a or 202b, which is described as "k ⁇ 7 S1 .”
  • S i until a time k 7 S1 + 7 max1 a transition effect is applied to the video source data stream 202a, resulting in a modified video source data stream S'1.
  • the video source 200a delivers the modified video source data stream S at times k that are greater than or equal to the time instant 7 S1 and less than or equal to 7 S i + 7 ma 1 '1. This results in a transition effect contained in the video output data stream 102, as indicated by the designation S'1 in the video output data stream 102.
  • Fig. 2c shows schematically the video output data stream 102 after the switching operation.
  • the video source 200b is configured to implement a (partial) transition effect in the video source data stream 202b starting at a time instant 7 S2 for a duration T max2 and to output the thus modified video source data stream 202b, which is indicated by the designation S'2.
  • the video mixer or device 100 is configured to generate the video output data stream 102 based on the video source data stream 202b. That is, the device 100 has switched from the video source data stream 202a to the video source data stream 202b at the time T S 2 from the situation shown in Fig. 2b to output the same.
  • the superimposition of the current S2 ends with the superimposition effect, so that the video source 200b terminates the (unmodified) stream S2 provides.
  • the video source 200b provides the non-transitionally superimposed or modified video source data stream 202b (S2), which, with the device 100 unchanged, results in the video output data stream 102 provided based on the video source data stream 202b.
  • the device 100 may also be configured to switch at a different time between the video source data streams 202a and 202b, to which the video source data stream 202a and / or 202b has a (partial) transition effect. For example, if only one of the video sources 200a or 200b applies a transition effect, the switching may occur during the duration of this effect. The switching may occur at the beginning, at the end, or during a duration of the (fractional) transition effect, such as when total blanking of the first video source data stream 202a is not required or desired.
  • a message is sent to each of the video sources (cameras) K1 and K2 that describes the partial transition effect, such as type of effect, eg fade-in, fade-out, length of effect T max and / or the start or end time of each partial effect. From the end time and duration of the effect, the start time in the respective video source can be determined.
  • type of effect eg fade-in, fade-out, length of effect T max and / or the start or end time of each partial effect.
  • a routine can be started on the camera, which (possibly in real time) affects the image processing.
  • This routine may be generally as a function f (k) where: f (k): Bk>B'k, T s ⁇ k ⁇ T s + T max are defined that the picture Bk, which is the time k recorded or played on which picture B'k depicts.
  • f, (k) For every possible partial effect i, a separate mapping f, (k) can be defined.
  • the image may include, for example, distortion, mosaic effects, or any other (sub) effects.
  • FIG. 3 shows a schematic comparison of the video source data streams 202a and 202b and the video output data stream 102 with reference to FIGS. 2a-d.
  • the signals 202a, 202b and 102 are synchronized, that is they have the same time base. For example, in each of the video source data streams 202a and 202b, at each time point / (each one (sub) image is
  • an overlay of the video source data stream 202a begins a transition effect having a duration 7 " max1
  • the modified video source data stream S'1 is received by the device 100.
  • a superposition of the video source data stream 202b begins with a transition effect having a duration of T max2 and until a time T s? _ + T max2 lasts.
  • the device 100 receives the modified video source data stream S'2.
  • the durations 7 ma , and T max2 may be the same or different and based on the respective transition effect or partial transition effect .
  • the video mixer switches over so that before time 7 the video output data stream 102 is based on the video source data stream 202a and, from time 7, on the video source stream 202b.
  • the time 7 S2 corresponds to the time 7 S + 7 mgx1 , so that the time 7 coincides with both times (7 S1 + 7 max1 and 7 S2 ).
  • the time course of the video output signal 02 before time 7 S1 corresponds to the situation as shown in FIG. 2a.
  • the situation from time 7 S1 to time 7 corresponds analogously to the situation of FIG. 2b. From time 7 to time T S2 + 7 max2 , the situation is exemplified in Fig. 2c. The situation for subsequent times, ie after the transition effect of the video source 202b ends, is shown in Figure 2d. In other words, Figures 2a-d and 3 show the overall process of generating a distributed transition effect. Before time 7 S1 , the video mixer outputs the unchanged video stream S1.
  • the video stream on the camera K1 is affected by the map ⁇ k) and is referred to as S'1.
  • the video mixer switches the output current to the output of the camera K2.
  • S'2 the video stream on the camera K2 by the image f 2 ⁇ k
  • the proposed concept allows for low-cost, mobile real-time video mixers, which can generate simple switching effects at the request of the operator (user). These are applicable, for example, in Life Video Content (LIF) video content production systems with multiple cameras using a mobile phone or a computer, a tablet PC, or the like as a video mixer.
  • LIF Life Video Content
  • embodiments of the present invention may also be implemented as program code or software.
  • aspects have been described in the context of a device, it will be understood that these aspects also constitute a description of the corresponding method, so that a block or a component of a device is also to be understood as a corresponding method step or as a feature of a method step , Similarly, aspects described in connection with or as a method step also represent a description of a corresponding block or detail or feature of a corresponding device.
  • embodiments of the invention may be implemented in hardware or in software.
  • the implementation may be performed using a digital storage medium, such as a floppy disk, a DVD, a Blu-ray Disc, a CD, a ROM, a PROM, an EPROM, an EEPROM or FLASH memory, a hard disk, or other magnetic disk or optical memory are stored on the electronically readable control signals that can cooperate with a programmable computer system or cooperate such that the respective method is performed. Therefore, the digital storage medium can be computer readable.
  • some embodiments according to the invention comprise a data carrier having electronically readable control signals capable of interacting with a programmable computer system such that one of the methods described herein is performed.
  • embodiments of the present invention may be implemented as a computer program product having a program code, wherein the program code is effective to perform one of the methods when the computer program product runs on a computer.
  • the program code can also be stored, for example, on a machine-readable carrier.
  • Other embodiments include the computer program for performing any of the methods described herein, wherein the computer program is stored on a machine-readable medium.
  • an embodiment of the method according to the invention is thus a computer program which has a program code for performing one of the methods described herein when the computer program runs on a computer.
  • a further embodiment of the inventive method is thus a data carrier (or a digital storage medium or a computer-readable medium) on which the computer program is recorded for carrying out one of the methods described herein.
  • a further embodiment of the method according to the invention is thus a data stream or a sequence of signals, which represent the computer program for performing one of the methods described herein.
  • the data stream or the sequence of signals may be configured, for example, to be transferred via a data communication connection, for example via the Internet.
  • Another embodiment includes a processing device, such as a computer or a programmable logic device, that is configured or adapted to perform one of the methods described herein.
  • a processing device such as a computer or a programmable logic device, that is configured or adapted to perform one of the methods described herein.
  • Another embodiment includes a computer on which the computer program is installed to perform one of the methods described herein.
  • a programmable logic device eg, a field programmable gate array, an FPGA
  • a field programmable gate array may cooperate with a microprocessor to perform one of the methods described herein.
  • the methods are performed by a any hardware device performed. This may be a universal hardware such as a computer processor (CPU) or hardware specific to the process, such as an ASIC.
  • CPU computer processor
  • ASIC application specific integrated circuit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Circuits (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

Eine Vorrichtung zum Erzeugen eines Videoausgangsdatenstroms umfasst einen ersten und einen zweiten Signaieingang zum Empfangen eines ersten und eines zweiten Videoquellendatenstroms, eine Prozessoreinrichtung, die ausgebildet ist, um den Videoausgangsdatenstrom zu einem ersten Zeitpunkt basierend auf dem ersten Videoquellendatenstrom und mittels eines Umschaltvorgangs zu einem zweiten Zeitpunkt, der auf den ersten Zeitpunkt folgt, basierend auf dem zweiten Videoquellendatenstrom bereitzustellen. Die Vorrichtung umfasst ferner einen Steuersignalausgang zum Senden eines Steuerbefehls an eine Videoquelie. von der der erste oder zweite Videoquellendatenstrom empfangen wird. Der Steuerbefehl umfasst eine Anweisung an die Videoquelle zur Anwendung eines Übergangseffektes, der zeitlich zwischen einem Bild des ersten und einem Bild des zweiten Videoquellendatenstroms in dem Videoausgangssignal angeordnet ist.

Description

Vorrichtung zum Erzeugen eines Videoausgangsdatenstroms, Videoquelie, Videosystem und Verfahren zum Erzeugen eines Videoausgangsdatenstroms bzw. eines
Videoquellendatenstroms
Beschreibung
Die vorliegende Erfindung bezieht sich auf eine Vorrichtung zum Erzeugen eines Video- ausgangsdatenstroms, etwa einen Videomixer, auf eine Videoquelie, auf ein Videosystem sowie auf Verfahren zum Erzeugen eines Videoausgangsdatenstroms bzw. eines Videoquellendatenstroms. Die Erfindung bezieht sich ferner auf ein Computerprogramm und auf eine verteilte Erstellung von speziellen Videoeffekten in einem Life-fähigen Videoproduktionssystem mit mehreren Kameras.
Der Workflow (Arbeitsablauf) einer Life-Videoproduktion mit mehreren Kameras kann vereinfacht so beschrieben werden, dass die Videoströme der Kameras in Echtzeit zum Videomixer übertragen werden. Der Regisseur entscheidet, welche der Kameras sendet, das heißt„on Air" geschaltet wird. Der Videostrom kann dann mit Überblendungen, wie beispielsweise Logos, Graphiken oder Texten versehen werden. Danach wird der Ausgabestrom encodiert und über ein Netzwerk (beispielsweise Internet, Satellit oder Kabel) dem Konsumenten zur Verfügung gestellt.
Beim Umschalten zwischen Kameras werden oft Übergangseffekte verwendet. Das Hin- zufügen von Übergangseffekten in Echtzeit wird von vielen Videomixern auf dem Markt unterstützt. Hierbei handelt es sich jedoch meistens um Geräte aus höheren Preiskategorien. Sie weisen Eingänge für unkomprimierte Videosignale sowie Netzwerkschnittstellen für Internetprotokoll (IP)-basierte Übertragung von komprimierten Videoströmen auf. Empfangene encodierte Videodaten werden zuerst decodiert. Das Mixen geschieht auf Basis unkomprimierter Videodaten, die anschließend wieder encodiert werden. Diese Lösung impliziert hohe Anforderungen an die Hardware des Videomixers und damit an den Preis.
Für viele kostengünstige Live-Produktionen, insbesondere wenn sie von Semiprofis oder Amateuren gemacht werden, ist eine geringe Anzahl von Funktionen ausreichend, die ein Videomixer bieten soll. Für den Fall, dass für die Produktion mehrere Kameras verwendet werden, ist eine wichtige oder die wichtigste Funktion das einfache Umschalten zwischen den Kameras. Wenn das Umschalten mit einfachen Mittein kreativ gestaltet werden kann, wird der Qualitätsanspruch der Sendung deutlich erhöht.
Ein dedizierter Hardware-Videomixer decodiert die eingehenden Videoströme von ange- schlossenen Kameras, berechnet Videoeffekte und encodiert den resultierenden Videostrom bzw. leitet den Ausgabestrom an einen separaten Encoder weiter. Zu den Vorteilen solch einer Lösung gehören ein breiter Funktionsumfang, eine sehr gute Performance, und eine Möglichkeit, encodierte und nicht encodierte Videoquellen zu kombinieren. Außerdem ist diese Lösung ein fester Bestandteil in etablierten Workflows. Zu den Nachtei- !en gehören eine komplexe Bedienung, ein hoher Preis, eine begrenzte Mobilität der Vorrichtung sowie ein hoher Berechnungsaufwand, der von dem Videomixer ausgeführt werden muss.
Es existieren Software-Videomixer, die auf handelsüblichen Personal Computern (PC) laufen. Ihr Funktionsumfang ähnelt dem dezidierten Hardware-Videomixern und ist durch die Hardware-Ressourcen des eigensetzten PCs begrenzt.
Es existieren auch Softwarelösungen für mobile Geräte wie Mobiltelefone oder Tablets, die sich als Life-Videomixer positionieren. Die Software verbindet beispielsweise vier mo- bile Geräte in eine Gruppe und lässt die encodierten Videoströme von den als„Kamera" auftretenden Geräten zu dem„Director"-Gerät, dem Videomixer, live übertragen. Von dem Director-Gerät wird das Umschalten zwischen den Videoströmen gesteuert. Die Software erlaubt das Hinzufügen von Überblendeffekten beim Umschalten zwischen den Kameras. Das Ausgabevideo wird offline zusammengeführt, nachdem die Aufzeichnung beendet wurde. Dazu werden Schrittmarken verwendet, die während der Aufzeichnung vom„Di- rector" erstellt wurden. Die Erstellung von Überblendeffekten erfordert eine De- und En- codierung von Teilen der Aufnahme.
Heute existieren auch Cloud-basierte (Cloud = Wolke) Lösungen. Die Kameras übertra- gen encodierte Videoströme zu einem Server, der die notwendigen Ressourcen besitzt, um die Daten in Echtzeit zu verarbeiten. Dem Regisseur wird über ein Web- Interface Zugriff auf die Steuerelemente, wie eine Vorausschau (Preview) von allen Video/Audio- Quellen. Schnitt, Effekte, etc. gewährt. Zu den Vorteilen solcher Lösungen gehören eine erhöhte Skalierbarkeit, da die benötigte Performance zukaufbar ist. Auch der Preis für den Server ist niedriger als die Anschaffungskosten eigener Hardware. Kritisch sind die Qualitätsmerkmale der Netzwerkanbindung, wie zur Verfügung stehende Kanalbandbreite oder mögliche Übertragungsfehler. Dadurch wird das Einsatzgebiet dieser Lösung eingeschränkt.
In [1] und [2] sind Verfahren beschrieben, die eine Generierung von Ü be rg a ng seff e kte n direkt auf encodierten Videodaten erlauben, ohne sie vorher komplett decodieren zu müssen. Solche Verfahren reduzieren die Komplexität der Videobearbeitung und senken die Anforderungen an die Videomixer-Hardware.
Wünschenswert wären demnach Videomixer, die geringe Anforderungen an die Hard- wäre, etwa die benötigte oder bereitgestellte Rechenleistung eines Prozessors des Videomixers, stellen.
Die Aufgabe der vorliegenden Erfindung besteht darin, eine live- bzw. echtzeitfähige Vorrichtung zum Erzeugen eines Videoausgangsdatenstroms zu schaffen, der Übergangsef- fekte aufweist, wobei die Vorrichtung hierfür lediglich eine geringe Rechenleistung benötigt, so dass die Anforderungen an Energie- und/oder Rechenleistung gering sind.
Diese Aufgabe wird durch den Gegenstand der unabhängigen Patentansprüche gelöst. Ein Kemgedanke der vorliegenden Erfindung besteht darin, erkannt zu haben, dass obige Aufgabe dadurch gelöst werden kann, dass Übergangseffekte des Videoausgangsdatenstroms bei einem Umschalten zwischen zwei Videoquellen bereits von der Videoquelle appliziert, das heißt umgesetzt, werden, so dass ein Videoausgangsdatenstrom mit Umschalteffekten (Übergangseffekten) durch einfaches Umschalten zwischen Videoqueilen- datenströmen erhalten werden kann. Dies führt zu reduzierten Berechnungsaufwänden auf Seiten der Vorrichtung zum Erzeugen des Videoausgangsdatenstroms, so dass die technischen Anforderungen an die Hardware reduziert sind, ein Betrieb der Vorrichtung effizient, das heißt durch wenige Berechnungen und einen geringen Energieverbrauch, erfolgen kann und/oder dass ein Bauraum in der Vorrichtung reduziert ist.
Gemäß einem Ausführungsbeispiel umfasst eine Vorrichtung zum Erzeugen eines Videoausgangsdatenstroms einen ersten und einen zweiten Signaleingang zum Empfangen eines ersten und zweiten Videoquellendatenstroms. Die Vorrichtung umfasst ferner eine Prozessoreinrichtung, die ausgebildet ist, um den Videoausgangsdatenstrom zu einem ersten Zeitpunkt basierend auf dem ersten Videoquellendatenstrom und mittels eines Umschaltvorgangs zu einem zweiten Zeitpunkt, der auf den ersten Zeitpunkt folgt, basie- rend auf dem zweiten Videoquellendatenstrom bereitzustellen. Die Vorrichtung umfasst ferner einen Steuersignalausgang zum Senden eines Steuerbefehls an eine Videoquelle, wobei von der Videoquelle der der erste oder zweite Videoquellendatenstrom empfangen wird. Der Steuerbefehl umfasst eine Anweisung an die Videoquelle zur Anwendung eines Übergangseffektes auf den bereitgestellten Videoquelldatenstrom bzw. eine Sequenz von Bildern. Der Übergangseffekt ist zeitlich zwischen einem Bild des ersten und einem Bild des zweiten Videoquellendatenstroms in dem Videoausgangssignal angeordnet. Das Umschalten, ggf. ohne Decodierung, einer Berechnung und/oder Anwendung eines Übergangseffektes bzw. einer Encodierung der oder des empfangenen Videoqueildatenstroms ermöglicht einen effizienten Betrieb der Vorrichtung.
Gemäß einem weiteren Ausführungsbeispiel ist die Prozessoreinrichtung ausgebildet, um einen Programmcode zeitsynchron mit einer Prozessoreinrichtung der Videoquelle abzuarbeiten, das heißt die Vorrichtung zum Erzeugen eines Videoausgangsdatenstroms ist mit einer, mehreren oder allen Videodatenquellen synchronisiert. Vorteilhaft an diese Ausführungsbeispiel ist, dass basierend auf einer gemeinsamen Zeitbasis von Vorrichtung und Videoquellen eine exakte zeitliche Positionierung des Übergangseffektes in dem Vi- deoausgangsdatenstrom ermöglicht ist. Gemäß einem weiteren Ausführungsbeispiel weist der Übergangseffekt einen ersten Teileffekt und einen zweiten Teileffekt auf. Die Vorrichtung ist ausgebildet, um einen ersten Steuerbefehl mit einer ersten Anweisung zur Anwendung des ersten Teileffektes an die erste Videoquelle zu senden und um einen Steuerbefehl mit einer zweiten Anweisung zur Anwendung des zweiten Teileffektes an die zweite Videoquelle zu senden. Vorteilhaft an diesem Ausführungsbeispiel ist, dass die Implementierung und Berechnung der Übergangseffekte bzw. Teilübergangseffekte verteilt in den Videoquellen ausgeführt werden kann, so dass die Berechnungsaufwände für die jeweilige Videoquelle reduziert sind. Ferner sind sowohl Übergangseffekte vor dem Umschalten, etwa während des Ausblendens, durch die erste Videoquelle als auch nach dem Umschalten, etwa während des Einblen- dens, durch die zweite Videoquelle darstellbar, d. h. anwendbar.
Gemäß einem weiteren Ausführungsbeispiel ist die Vorrichtung ausgebildet, um den ersten oder zweiten Videoquellendatenstrom mit dem Übergangseffekt als Videoausgangs- datenstrom bereitzustellen, ohne den ersten oder zweiten Videoquellendatenstrom zu manipulieren. Vorteilhaft an diesem Ausführungsbeispiel ist, dass die Vorrichtung im Sinne eines Wechselschalters bzw. im Sinne einer Weiche ausführbar ist, die zwischen den Videoquellendatenströmen schaltbar ist und lediglich nur ein Videoquellendatenstrom als Videoausgang sdatenstrom weitergeleitet bzw. bereitgestellt wird, so dass der Videoaus- gangsdatenstrom mit weiter reduziertem Berechnungsaufwand bereitstellbar ist. Gemäß einem weiteren Ausführungsbeispiel umfasst eine Videoquelle, die ausgebildet ist, um einen Videoquellendatenstrom auszugeben, einen Signaleingang zum Empfangen eines Steuerbefehls von einer Vorrichtung zum Erzeugen eines Videoausgangsdaten- stroms. Der Steuerbefehl weist eine Anweisung zur Anwendung eines Übergangseffektes auf dem Videoquellendatenstrom auf, wobei sich die Anweisung auf zumindest eines aus einer Zeitdauer, einem Startzeitpunkt, einem Endzeitpunkt, einer Abbildung, einer Art oder einer Intensität des Übergangseffektes bezieht. Vorteilhaft an diesem Ausführungsbeispiel ist, dass die Implementierung des Übergangseffektes bereits vor einer Encodierung des Videoquellendatenstroms durch die Videoquelle erfolgen kann. Gemäß einem weiteren Ausführungsbeispiel weist die Videoquelle eine Prozessoreinrichtung auf, die ausgebildet ist, um einen Programmcode zeitsynchron mit einer Prozessoreinrichtung einer Vorrichtung zum Erzeugen eines Videoausgangsdatenstroms abzuarbeiten. Gemäß einem weiteren Ausführungsbeispiel ist die Videoquelle ausgebildet, um den Übergangseffekt basierend auf einer Beeinflussung der Bildsignalbearbeitungskette oder basierend auf einer grafischen Prozessoreinrichtung anzuwenden. Vorteilhaft an diesem Ausführungsbeispiel ist, dass die hohe Berechnungseffizienz einer graphischen Prozessoreinrichtung für die Implementierung des Übergangseffektes nutzbar ist.
Weitere Ausführungsbeispiele schaffen ein Videosystem mit einer Vorrichtung zum Erzeugen eines Videoausgangsdatenstroms, einer ersten und einer zweiten Videoquelle.
Weitere Ausführungsbeispiele beziehen sich auf ein Verfahren zum Erzeugen eines Vide- oausgangsdatenstroms, auf ein Verfahren zum Ausgeben eines Videoquellendatenstroms. Weitere Ausführungsbeispiele beziehen sich auf ein Computerprogramm.
Weitere vorteilhafte Ausführungsformen sind der Gegenstand der abhängigen Patentansprüche. Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen erläutert. Es zeigen:
Fig. 1 ein schematische Blockschaltbild eines Videosystems mit einer Vorrichtung zum Erzeugen eines Videoausgangsdatenstroms, einer ersten Videoquelle und einer zweiten Videoquelle gemäß einem Ausführungsbeispiel;
Fig. 2a-d schematische Darstellungen von als Kamera ausgeführten Videoquellen zu verschiedenen Zeitpunkten bezüglich eines Umschaltzeitpunktes der Vorrichtung zum Erzeugen des Videoausgangsdatenstroms gemäß einem Ausführungsbeispiel, bei der
Fig. 2a einen Zeitpunkt darstellt, zu dem kein Übergangseffekt angewendet wird; Fig. 2b einen Zeitpunkt darstellt, zu dem die erste Videoquelle einen ersten Übergangseffekt darstellt und der Videoausgangsstrom den Übergangseffekt aufweist;
Fig. 2c einen Zeitpunkt darstellt, zu dem die zweite Videoquelle einen zweiten Übergangseffekt darstellt, die Vorrichtung zum Erzeugen des Videoausgangsstroms umgeschaltet hat und der Videoausgangsstrom den Übergangseffekt aufweist;
Fig. 2d einen Zeitpunkt darstellt, zu dem der erste und der zweite Übergangseffekt beendet sind; und Fig. 3 eine schematische Gegenüberstellung der Videoquellendatenströme sowie des
Videoausgangsdatenstroms gemäß einem Ausführungsbeispiel unter Bezugnahme auf die Figuren. Bevor nachfolgend Ausführungsbeispiele der vorliegenden Erfindung im Detail anhand der Zeichnungen näher erläutert werden, wird darauf hingewiesen, dass identische, funktionsgleiche oder gleichwirkende Elemente, Objekte und/oder Strukturen in den unterschiedlichen Figuren mit den gleichen Bezugszeichen versehen sind, so dass die in unterschiedlichen Ausführungsbeispielen dargestellte Beschreibung dieser Elemente unter- einander austauschbar ist bzw. aufeinander angewendet werden kann. Fig. 1 zeigt ein schematische Blockschaltbild eines Videosystems 1000 mit einer Vorrichtung 100 zum Erzeugen eines Videoausgangsdatenstroms 102, einer ersten Videoquelle 200a und einer zweiten Videoquelle 200b. Bei der Videoquelle 200a bzw. 200b kann es sich beispielsweise um eine Kamera um oder ein Speichermedium handeln, das ausge- bildet ist, um einen Videoquellendatenstrom 202a bzw. 202b auszugeben. Bei den Video- quellendatenströmen 202a und/oder 202b kann es sich beispielsweise um unverschlüsselte, unkomprimierte, verschlüsselte bzw. codierte (encodierte) Videosignale handeln. Vorzugsweise sind die Videoquellendatenströme 202a und 202b encodierte, das heißt komprimierte, Videosignale.
Nachfolgend wird zuerst Bezug genommen auf den Aufbau und die Funktionsweise der Vorrichtung 100. Daran anschließend wird Bezug genommen auf den Aufbau und die Funktionsweise der Videoquellen 200a und 200b. Die Vorrichtung 100 umfasst einen ersten Signaleingang 104a zum Empfangen des (ersten) Videoquellendatenstroms 202a und einen zweiten Signaleingang 104b zum Empfangen des (zweiten) Videoquellendatenstroms 202b. Die Vorrichtung 100 umfasst ferner einen Signalausgang 106 zum Ausgeben des Videoausgangsdatenstroms 02, etwa an ein Medium oder Verteilernetzwerk und/oder an ein (Video-)Wiedergabegerät.
Die Vorrichtung 100 umfasst einen Steuersignalausgang 1 12 zum Senden eines Steuerbefehls 1 14 an die Videoquellen 200a und/oder 200b. Der Steuerbefehl umfasst eine Anweisung an die Videoquelle 200a und 200b zur Anwendung eines Übergangseffektes, der in dem Videoausgangsdatenstrom 102 wiedergegeben wird, bzw. wiedergegeben werden soll.
Die Vorrichtung 100 umfasst eine Prozessoreinrichtung 130, die ausgebildet ist, um den Videoausgangsdatenstrom 102 zu erzeugen bzw. bereitzustellen. Die Prozessoreinrichtung 130 ist ausgebildet, um zur Erstellung des Videoausgangsdatenstroms 102 zwischen den Videoquellendatenströmen 202a und 202b zu schalten, so dass der Videoausgangsdatenstrom 102 beispielsweise zu einem ersten Zeitpunkt durch den Videoquellendatenstrom 202a und zu einem zweiten Zeitpunkt durch den Videoquellendatenstrom 202b bestimmt ist. Das Umschalten kann zwischen zwei aufeinanderfolgenden Zeitpunkten erfolgen, was auch als hartes Umschalten bezeichnet wird. Vereinfacht ausgedrückt ist die Prozessoreinrichtung 130 konfiguriert, um in der Funktion einer Weiche oder eines Schalters entweder den Videoquellendatenstrom 202a oder den Videoquellendatenstrom 202b weiterzuleiten und als Videoausgangsdatenstrom 102 bereitzustellen. Die Vorrichtung 100 kann jeweils ein Videoquellensignal 202a oder 202b zeitselektiv weiterleiten, ohne das jeweilige Signal zu decodieren, zu verändern und zu encodieren, das heißt ohne das Signal zu manipulieren.
Die Prozessoreinrichtung 130 kann ferner ausgebildet sein, um den jeweils weiterzuleitenden Videoquellendatenstrom 202a oder 202b zu encodieren oder weiter, d. h. über ein bisheriges Maß hinaus, zu encodieren, etwa um eine Kompatibilität des Videoausgangs- datenstroms 102 mit einem Kommunikationsprotokoll, wie etwa TCP/IP (Transmission Control Protocol/Internet Protocol), WLAN (Wireless Lokal Area Network - drahtloses lokales Netzwerk) und/oder einem drahtgebundenen Kommunikationsprotokoll zu ermöglichen. Ferner kann auch eine Encodierung derart erfolgen, dass der Videoausgangsdatenstrom 102 in einem Dateiformat speicherbar ist. Ein Umschalten 132 zwischen den Videoquellendatenströmen 202a und 202b kann mittels einer Benutzereingabe 1 16 ausgelöst werden, die an einer Benutzerschnittstelle 1 18 von der Vorrichtung 100 empfangen wird und an die Prozessoreinrichtung 130 geleitet wird, das heißt dieser bereitgestellt wird. Bei der Benutzerschnittstelle 118 kann es sich beispielsweise um eine drahtgebundene Schnittstelle handeln, etwa wenn das Umschal- ten 132 basierend auf einem Knopfdruck an der Vorrichtung 100 oder einem Eingabegerät derselben ausgelöst wird. Alternativ kann es sich bei der Benutzerschnittstelle 1 18 um eine drahtlose Schnittstelle handeln, etwa wenn die Benutzereingabe 1 16 drahtlos empfangen wird, wie beispielsweise durch eine drahtlose Fernbedienung. Während des Umschaltvorgangs, das heißt in einem Zeitintervall vor dem Umschaltzeitpunkt und/oder in einem Zeitintervall nach dem Umschaltzeitpunkt kann es wünschenswert sein, einen Übergangseffekt in dem Videoausgangsdatenstrom 102 zu integrieren. Der Übergangseffekt kann beispielsweise ein Einblenden (Fade-in), Ausbienden (Fade- out), eine Variation einzelner oder mehrerer Farbintensitäten oder eines Kontrastes und/oder eine Uberblendung des von der Videoquelle bereitgestellten Signals bzw. einer Sequenz von Bildern mit einer Graphik oder einem Bild umfassen. Alternativ oder zusätzlich kann der Übergangseffekt eine deterministische oder stochastische Abbildungsfunktion umfassen, etwa eine Verzerrung des ausgegebenen Bildes, eine (pseudo-)zufällige Veränderung des Bildes und/oder einen Mosaikeffekt. Die Vorrichtung 100 ist ausgebildet, um den Steuerbefehl 1 14 entsprechend zu konfigurieren, so dass der Steuerbefehl eine Anweisung umfasst, die eine empfangene Videoquelle 200a und/oder 200b anweist, einen entsprechenden Übergangseffekt zumindest teilweise in den von ihr bereitgestellten Videoquellendatenstrom 202a und/oder 202b zu integrie- ren.
Die Vorrichtung 100 kann bspw. als Videomixer ausgeführt sein. Alternativ oder zusätzlich kann die Vorrichtung 100 als Personal Computer (PC) oder als mobile Vorrichtung, etwa ein Mobiltelefon oder Tablet Computer, ausgeführt sein. Der erste und zweite Signalein- gang 104a und 104b können auch als gemeinsame Schnittstelle zusammengefasst sein, etwa eine Netzwerk- oder Drahtlosschnittstelle.
Nachfolgend wird Bezug genommen auf die Funktionsweise der Videoquellen 200a bzw. 200b.
Die Videoquellen 200a und 200b weisen einen Signa!eingang 204a bzw. 204b auf, an dem die Videoquelle 200a bzw. 200b den Steuerbefehl 1 14 empfängt. Die Videoquelle 200a umfasst eine Vorrichtung 210 zur Bereitstellung einer Sequenz 212 von Bildern, etwa einen Kamerachip oder einen Datenspeicher, auf dem eine Vielzahl von Bildern ab- gespeichert ist und der ausgebildet ist, um die Sequenz 212 mit einer Vielzahl von Bildern abzurufen. Die Videoquelle 200a umfasst ferner eine Prozessoreinrichtung 220, die ausgebildet ist. um die Sequenz 212 von Bildern von der Vorrichtung 210 zu empfangen und um diese mit dem Übergangseffekt zumindest teilweise zu überlagern. Dies wird nachfolgend als eine Überlagerung der Videoinformation mit dem Übergangseffekt bezeichnet.
Die Prozessoreinrichtung 220 ist ferner ausgebildet, um das Videoquellensignal 202a zu erzeugen bzw. bereitzustellen. Bei der Prozessoreinrichtung 220 kann es sich um einen Prozessor der Videoquelle handeln, etwa eine zentrale Recheneinrichtung (Central Processing Unit - CPU), einen Mikrocontroller, ein Feldprogrammierbare Gatterarray (Field Porgrammable Gate Array - FPGA) oder dergleichen. Die Videoquelie 200a ist ausgebildet, um den Videoquellendatenstrom 202a basierend auf dem Übergangseffekt auszugeben bzw. der Videoquellendatenstrom 202a weist bei einer Anwendung des Uberlagerungseffektes den Übergangseffekt auf. Alternativ oder zusätzlich kann die Videoquelle ausgebildet sein, um den Übergangseffekt basierend auf einem Eingriff in eine hardware- beschleunigte Bildbearbeitungskette (Image Signal Processor - ISP) und/oder basierend auf einer Bildbearbeitung mittels einer grafischen Prozessoreinrichtung anzuwenden. Dies ermöglicht eine Realisierung der des Übergangseffektes in einer geringen Zeitspanne und/oder einer geringen Anzahl von Rechenoperationen.
Die Videoquelle 200 umfasst eine Ausgangsschnittstelle 206, die ausgebildet ist, um das Videoquellensignal 202a zu senden. Das Senden kann drahtgebunden, etwa mittels eines Netzwerks oder einer direkten Kabelverbindung zu der Vorrichtung 100 erfolgen. Alternativ kann die Übertragung auch drahtlos erfolgen. In anderen Worten können die Signaleingänge 104a, 104b, 1 12, 204a, 204b und/oder 206 als drahtgebundene oder drahtlose Schnittstellen ausgeführt sein.
Die Videoquelle 200 umfasst einen optionalen Graphikspeicher 230, der ausgebildet ist, um eine Graphik zu speichern und um diese der Prozessoreinrichtung 220 bereitzustellen. Bei der Graphik kann es sich beispielsweise um ein Logo oder einen kontinuierlichen oder konstanten Bildeffekt handeln, der mit von der Vorrichtung 210 bereitgestellten Bildern zumindest zeitweise überlagert wird. Alternativ kann die Videoquelle 200a und/oder 200b ausgebildet sein, um eine entsprechende Graphik von einer anderen Vorrichtung, etwa einem Computer oder von der Vorrichtung 100 zu empfangen. Dies kann beispielsweise mittels eines separaten oder bereits bestehender Übertragungskanäle, etwa einem Kanal, auf dem der Steuerbefehl 1 14 übertragen wird, erfolgen.
Die Videoquellen 200a und 200b können beispielsweise als zwei Kameras ausgeführt sein, die einen gleichen oder voneinander verschiedene Objektbereiche erfassen, etwa gleiche (ggf. aus verschiedenen Blickwinkeln) oder voneinander verschiedene (Sport-) Ereignisse oder sonstige Aufnahmen wie Personen- und/oder Landschaftsszenerien. Al- ternativ oder zusätzlich kann zumindest eine der Videoquellen 200a oder 200b als Videospeicher, etwa als Festplattenspeicher, ausgeführt sein Alternativ kann das Videosystem 1000 weitere Videoquellen aufweisen.
Nachdem in vorangegangenen Ausführungen die Funktionalität der einzelnen Komponen- ten des Videosystems 1000 beschrieben wurde, wird nachfolgend auf die Funktionalität des Videosystems, das heißt auf das Zusammenwirken der einzelnen Komponenten Bezug genommen.
Bei einem oder mehreren Übergängen von dem Videoquellendatenstrom 202a zu dem Videoquellendatenstrom 202b oder andersherum kann, beispielsweise durch einen Nutzer, ein Übergangseffekt gewünscht sein. Die entsprechende Nutzeingabe 1 6 ist bei- spielsweise mittels der Schnittstelle 1 18 empfangbar. Eine Information bezüglich des Übergangseffektes wird mittels des Steuerbefehls 1 4 an die jeweilige oder alle beteiligten Videoquellen 200a und/oder 200b gesendet. Vereinfacht ausgedrückt liefert die Vorrichtung 100 Informationen darüber, welcher Umschalteffekt zu welchen Zeitpunkten aus- geführt werden soll. Die Information kann sich beispielsweise auf eine Identifikation, wie eine Nummer oder einen Index des Übergangseffektes, auf eine Zeitdauer des Übergangseffektes, auf einen Startzeitpunkt, auf einen Endzeitpunkt, auf eine Art oder eine Intensität des Übergangseffektes beziehen. Der Steuerbefehl 1 14 kann gezielt an eine Videoquelle 200a oder 200b gesendet werden oder mittels eines Rundrufs (Broadcast) an alle Teilnehmer versendet werden, so dass der jeweilige Empfänger, das heißt die Videoquelle 200a oder 200b erkennt, dass die Nachricht für Sie bestimmt ist.
Umfasst der gewünschte Übergangseffekt eine Manipulation oder Veränderung der Vi- deoquellendatenströme 202a und 202b beider beteiligter Videoquellen 200a und 200b, so kann dieser Übergangseffekt in zwei oder mehrere Teileffekte unterteilt sein. Zumindest ein Teileffekt ist auf die Sequenz von Bildern 212 der jeweiligen Videoquelle 200a bzw. 200b anwendbar. Beispielsweise kann ein (ggf. als sanft bezeichneter) Übergangseffekt, von einem ersten auf einen zweiten Videoquelldatenstrom aus einem Ausblendeffekt des ersten und einem Einblendeffekt des zweiten Datenstroms bestehen. Dieser Übergangs- effekt kann als erster Teilübergangseffekt (Ausblendeffekt) und zweiter Teilübergangseffekt (Einblendeffekt) dargestellt werden. Je ein Teilübergangseffekt kann von einer der Videoquelien 200a bzw. 200b angewendet werden. Etwa kann ein Fade-out eines zu einem Zeitpunkt als Videoausgangsdatenstrom 102 bereitgestellten Videoque!lendaten- stroms 202a und ein Fade-in eines nachfolgend in dem Videoausgangsdatenstrom 102 enthaltenen Videoquellendatenstroms 202b durch ein Fade-out in der Videoquelle 200a und durch ein Fade-in in der Videoquelle 200b realisiert werden. Alternativ kann der Übergangseffekt auch lediglich in einem Videoquelledatenstrom realisiert werden, beispielsweise ein Ausblenden oder Verblassen oder lediglich ein Einblenden oder Fade-In. Die Prozessoreinrichtungen 130 der Vorrichtung 100 und 220 der Videoquellen 200a und/oder 200b können zeitlich untereinander synchronisiert sein, so dass eine zeitlich übereinstimmende Positionierung der einzelnen Übergangseffekte einstellbar ist Eine zeitliche Synchronisierung kann beispielsweise mittels eines weiteren Übertragungskanals, auf oder in dem der Steuerbefehl 1 14 übertragen wird, mittels eines Übertragungs- kanals, in dem die Videoquellendatenströme 202a und/oder 202b übertragen werden und/oder durch ein gemeinsames Synchronisierungssignal, das auf anderen Kanälen von der Vorrichtung 100 und/oder von den Videoquellen 200a bzw. 200b empfangen wird, erhalten werden. Dies ermöglicht, dass eine zusätzliche Synchronisierung der Videoströme 202a und 202b jeweils mit und ohne Übergangseffekte durch die Vorrichtung 100 entfallen kann
Die Videoquellen 200a und/oder 200b können ferner ausgebildet sein, um den jeweiligen Videoquellendatenstrom 202a bzw. 202b mit einer variablen Bitrate auszugeben. Beispielsweise kann es ausreichend sein, dass die Videoquelle(n), deren Videoquellendatenstrom derzeit nicht in den Ausgangsdatenstrom 102 eingefügt werden, lediglich (Video-) Informationen mit einer geringeren Qualität, das heißt Bitrate, senden und beispielsweise eine Bitrate der Videoquelle, deren Videoquellendatenstrom in den Videoausgangsstrom integriert wird, mit einer gleichen oder höheren Bitraten und/oder Qualität sendet. Dies kann insbesondere bei einem gemeinsam genutzten Übertragungsmedium, beispielsweise ein gemeinsames Funkmedium oder eine gemeinsames drahtgebundenes Netzwerk, vorteilhaft sein.
Beispielsweise kann die jeweilige weitergeleitete Videoquelle 200a oder 200b mit einer hohen oder maximalen Bitrate Videosignale 202a und/oder 202b erzeugen, wohingegen etwa eine Miniaturansicht oder eine Darstellung mit geringerer Auflösung der derzeit nicht genutzten Videoquellendatenströme für den Operateur, der die Vorrichtung 100 nutzt bzw. den Übergangseffekt initiiert und/oder die Videoquellendatenströme 202a und/oder 202b betrachtet, ausreichend ist, um zu beurteilen, ob ein Umschalten erfolgen soll. Durch den Steuerbefehl 1 14 oder eine weitere Nachricht kann die jeweilige Videoquelle angewiesen werden, die Bitrate des jeweiligen Videoquellendatenstroms auf einen vorbestimmten o- der in der Nachricht enthaltenen Wert zu ändern. Alternativ kann die Videoquelle auch ausgebildet sein, um die Bitrate automatisch zu ändern, etwa um nach einem beendeten Ausblendeffekt die Bitrate zu reduzieren und/oder vor oder zeitgleich zu einem beginnenden Einblendeffekt die Bitrate von einem reduzierten Wert zu erhöhen. In anderen Worten besteht eine Grundidee darin, dass das Erstellen von Übergangseffekten den Kameras überlassen wird Dadurch werden die Anforderungen an den Videomixer, das heißt die Vorrichtung zum Erzeugen des Videoausgangsdatenstroms deutlich gesenkt. Er soll bspw. lediglich in der Lage sein, die eingehenden Videoströme einer oder mehrerer Kameras entgegenzunehmen, etwa in encodierter Form, und einen der Ströme als Ausgabevideostrom auszugeben. Ferner kann der Videomixer in der Lage sein, die eingehenden Videoströme anzuzeigen, etwa an einem Monitor oder die Videoströme ei- nem Monitor bereitzustellen. Dazu kann der Videomixer bspw. in der Lage sein, eine De- codierung der Videoströme durchzuführen. Alternativ kann die die Decodierung auch in dem Monitor erfolgen. Dabei ist keine Umcodierung der Videodaten nötig. Zusätzlich kann eine Voraussetzung oder eine Weiterbildung darin bestehen, dass die Kameras und der Videomixer eine gemeinsame Zeitbasis haben, also synchronisiert sind. Auch eine Kommunikationsmöglichkeit zwischen dem Videomixer und den angeschlossenen Kameras (Rückkanal) kann vorausgesetzt werden. Das Umschalten kann entweder hart erfolgen oder es kann ein Übergangseffekt erstellt werden. Als harter Schnitt kann verstanden werden, wenn vor einem Umschaltzeitpunkt 7" ein Strom S1 als Ausgabestrom verwendet wird und zum Zeitpunkt T der Videostrom S2 zum Ausgabestrom wird.
Vorteilhaft ist, dass eine Anwendung von Umschalteffekten in Echtzeit direkt auf der Kamera, ohne Postproduktion (Nachbearbeitung) oder teure Mixer-Hardware erfolgen kann. Ferner kann ein Entstehen von zusätzlichen Zeitverzögerungen durch Anwendung von Effekten verhindert werden, falls die Berechnung des partiellen Videoeffektes in entsprechenden Komponenten der Videoquelien ausgeführt wird. Dies kann beispielsweise durch eine Integration der Berechnung des partiellen Videoeffekts in eine Hardwarebeschleunigte Bildaufbereitungskette der Kamera erreicht werden. Dies ermöglicht ferner die Umsetzung des beschriebenen Konzeptes ohne eine Anordnung zusätzlicher Hard- ware-Ressourcen für die Erstellung von Videoeffekten auf Seiten der Kamera. Ferner werden keine zusätzlichen Hardware-Ressourcen für die Erstellung von Videoeffekten auf Seiten des Videomixers benötigt. Auch ist kein Umcodieren der empfangenen Videodaten nötig. Eine minimale Zeitverzögerung durch das Hinzufügen des Übergangseffektes kann erreicht werden, falls der partielle Übergangseffekt mit einer graphischen Prozessorein- richtung prozessiert wird.
Die Fig. 2a-d zeigen schematische Darstellungen der als Kamera ausgeführten Videoquellen 200a und 200b zu verschiedenen Zeitpunkten bezüglich eines Umschaltzeitpunktes. Die Videoquellen 200a und 200b senden jeweils den Videoquellendatenstrom 202a bzw. 202b an die Vorrichtung 100 (Videomixer). Die Fig. 2a-d zeigen ferner einen Inhalt des Videoausgangsdatenstroms 102
Fig. 2a zeigt schematisch zu Zeitpunkten k < TS1 , dass die die Videoquelle 200a den als S1 bezeichneten Videoquellendatenstrom 202a und die Videoquelle 200b den als S2 be- zeichneten Videoquellendatenstrom 202b der Vorrichtung 100 zur Verfügung stellt. Die Vorrichtung 100 erzeugt den Videoausgangsdatenstrom 102 basierend auf dem Video- quellendatenstrom 202a bzw. stellt diesen bereit. 7S1 bezeichnet einen Startzeitpunkt eines (Teil-)Übergangseffektes mit einer Dauer von 7max1 der von der Videoquelle 200a angewendet wird. Die dargestellten Zeitpunkte k befinden sich vor einem Beginn einer Darstellung des Übergangseffektes in einem der Datenströme 202a oder 202b, was mit„k < 7S1" beschrieben ist. Zu dem Zeitpunkt 7Si bis zu einem Zeitpunkt k = 7S1 + 7max1 wird ein Übergangseffekt auf den Videoquellendatenstrom 202a angewendet, was zu einem modifizierten Videoquelldatenstrom S'1 führt.
Wie in Fig. 2b dargestellt und durch die Bezeichnung S'1 angedeutet, liefert die Video- quelle 200a zu Zeitpunkten k, die größer oder gleich dem Zeitpunkt 7S1 und kleiner oder gleich 7Si + 7ma 1 sind, den modifizierten Videoquellendatenstrom S'1. Dies führt zu einem in dem Videoausgangsdatenstrom 102 enthaltenen Übergangseffekt, wie es durch die Bezeichnung S'1 in dem Videoausgangsdatenstrom 102 angedeutet ist. Fig. 2c zeigt schematisch, den Videoausgangsdatenstrom 102 nach dem Umschaltvorgang. Die Videoquelle 200b ist ausgebildet, um beginnend zu einem Zeitpunkt 7S2 für eine Dauer Tmax2 einen (partiellen) Übergangseffekt in dem Videoquellendatenstrom 202b zu implementieren und den so modifizierten Videoquellendatenstrom 202b auszugeben, was durch die Bezeichnung S'2 angedeutet ist. Der Videomixer bzw. die Vorrichtung 100 ist so konfiguriert, dass der Videoausgangsdatenstrom 102 basierend auf dem Videoquellendatenstrom 202b erzeugt bzw. bereitgestellt wird. D. h., die Vorrichtung 100 hat zu dem Zeitpunkt TS2 gegenüber der in Fig. 2b dargestellten Situation von dem Videoquellendatenstrom 202a auf den Videoquellendatenstrom 202b umgeschaltet, um diesen auszugeben.
Nach Ende des Übergangseffektes in dem Videoquellendatenstrom 202b, das heißt zu Zeitpunkten k > 7S2 + Tmgx2 und wie in Fig. 2d schematisch dargestellt, endet die Überlagerung des Stroms S2 mit dem Überlagerungseffekt, so dass die Videoquelle 200b dem (unmodifizierten) Strom S2 bereitstellt. Die Videoquelle 200b liefert den nicht mit einem Übergangseffekt überlagerten oder modifizierten Videoquellendatenstrom 202b (S2), was bei unveränderter Konfiguration der Vorrichtung 100 zu dem Videoausgangsdatenstrom 102 führt, der basierend auf dem Videoquellendatenstrom 202b bereitgestellt ist.
Alternativ kann die Vorrichtung 100 auch ausgebildet sein, um zu einem anderen Zeit- punkt zwischen den Videoquellendatenströmen 202a und 202b umzuschalten, zu denen der Videoquellendatenstrom 202a und/oder 202b einen (Teii-)Übergangseffekt aufweist. Beispielsweise kann, wenn lediglich eine der Videoquellen 200a oder 200b einen Übergangseffekt anwendet, das Umschalten während der Dauer dieses Effektes erfolgen. Das Umschalten kann zu Beginn, am Ende oder während einer Dauer des (Teil-) Übergangseffektes erfolgen, etwa wenn ein totales Ausblenden des ersten Videoquellendatenstroms 202a nicht erforderlich oder gewünscht ist.
Wenn das Umschalten mit einem Übergangseffekt erfolgen soll, wird zu den Videoquellen (Kameras) K1 und K2 jeweils eine Nachricht geschickt, die den partiellen Übergangseffekt beschreibt, wie beispielsweise Art des Effekts, z.B. Fade-in, Fade-out, Länge des Effekts Tmax und/oder der Start- oder Endzeitpunkt des jeweiligen partiellen Effekts. Aus Endzeitpunkt und Dauer des Effektes kann der Startzeitpunkt in der jeweiligen Videoquelle ermittelt werden.
Zum Startzeitpunkt des Effektes kann auf der Kamera eine Routine gestartet werden, die sich (gegebenenfalls in Echtzeit) auf die Bildverarbeitung auswirkt. Diese Routine kann allgemein als eine Abbildung f(k) mit: f(k): Bk > B'k, Ts ^ k < Ts + Tmax definiert werden, die das Bild Bk, das zum Zeitpunkt k aufgenommen oder wiedergegeben wird, auf das Bild B'k abbildet. Für jeden möglichen partiellen Effekt i kann eine eigene Abbildung f,(k) definiert sein. Die Abbildung kann bspw. eine Verzerrung, Mosaikeffekte, oder beliebige andere (Teil-)Effekte umfassen. Fig. 3 zeigt eine schematische Gegenüberstellung der Videoquellendatenströme 202a und 202b sowie des Videoausgangsdatenstroms 102 unter Bezugnahme auf die Figuren 2a-d. Die Signale 202a, 202b und 102 sind synchronisiert, das heißt sie weisen die gleiche Zeitbasis auf. Beispielsweise wird in jedem der Videoquellendatenströme 202a und 202b zu jedem Zeitpunkt /( jeweils ein (Teil-)Bild wiedergegeben.
Zu einem Zeitpunkt k = 7~S1 beginnt eine Überlagerung des Videoquellendatenstroms 202a einen Übergangseffekt der eine Dauer 7" max1 aufweist. Der Übergangseffekt endet zu einem Zeitpunkt k = 7~S1 + Tmax1. Zu Zeitpunkten 7S1 < k < TS1 + Tmax1 wird von der Vorrichtung 100 der modifizierte Videoquellendatenstrom S'1 empfangen. Zu einem Zeitpunkt k - 7~s2 beginnt eine Überlagerung des Videoquellendatenstroms 202b mit einem Übergangseffekt, der eine Dauer von Tmax2 aufweist und bis zu einem Zeitpunkt Ts?_ + Tmax2 andauert. Zu Zeitpunkten 7S2 -- k < 7S2 + Tmgx? wird von der Vorrichtung 100 der modifizierte Video- quellendatenstrom S'2 empfangen.
Die Zeitdauern 7ma , und Tmax2 können gleich oder voneinander verschieden sein und auf dem jeweiligen Übergangseffekt oder Teilübergangseffekt basieren. Zu einem Zeitpunkt 7 schaltet der Videomixer um, so dass vor dem Zeitpunkt 7 der Videoausgangsdatenstrom 102 auf dem Videoquellendatenstrom 202a und ab dem Zeitpunkt 7 auf dem Videoquel- !endatenstrom 202b basiert. Der Zeitpunkt k = T ist so angeordnet, dass dieser zeitlich zu oder nach dem Zeitpunkt Ts? und zu oder vor dem Zeitpunkt 7S + Tmax-, ist. Beispielsweise entspricht der Zeitpunkt 7S2 dem Zeitpunkt 7S + 7mgx1 , so dass der Zeitpunkt 7 mit beiden Zeitpunkten (7S1 + 7max1 und 7S2) zusammenfällt. Der zeitliche Verlauf des Videoausgangssignals 02 vor dem Zeitpunkt 7S1 entspricht der Situation, wie sie in der Fig. 2a dargestellt ist. Die Situation ab dem Zeitpunkt 7S1 bis zu dem Zeitpunkt 7 entspricht analog der Situation der Fig. 2b. Von dem Zeitpunkt 7 bis zu dem Zeitpunkt TS2 + 7max2 ist die Situation beispielhaft in Fig. 2c dargestellt. Die Situation für darauffolgende Zeitpunkte, d. h. nachdem der Übergangseffekt der Videoquelle 202b endet, ist in Fig. 2d dargestellt. In anderen Worten zeigen die Figuren 2a-d und 3 den Gesamtablauf der Generierung eines verteilten Übergangseffektes. Vor dem Zeitpunkt 7S1 wird vom Videomixer der unveränderte Videostrom S1 ausgegeben.
Zu den Zeitpunkten k mit 7S1 £ k < 7S1 + Tmax1 wird der Videostrom auf der Kamera K1 durch die Abbildung {k) beeinflusst und wird als S'1 bezeichnet.
Zu dem Zeitpunkt k = 7 (beispielsweise 7S2) mit 7 < 7S1 + 7max1 l d. h. , der Übergangseffekt der Videoquelle 200a ist noch nicht beendet, schaltet der Videomixer den Ausgangsstrom auf die Ausgabe der Kamera K2 um. Zu den Zeitpunkten k mit 7 < k < 7S2 + 7max2 wird der Videostrom auf der Kamera K2 durch die Abbildung f2{k) beeinflusst und wird als S'2 bezeichnet.
Ab dem Zeitpunkt k = 7^ + 7m3x2 + 1 wird vom Videomixer der unveränderte Videostrom S2 ausgegeben. Die Generierung des Ubergangseffektes ist damit abgeschlossen . Das vorgeschlagene Konzept ermöglicht gewünschte kostengünstige, mobile echtzeitfä- hige Videomixer, die auf Wunsch des Operateurs (Benutzer) einfache Umschalteffekte generieren können. Diese sind beispielsweise in mobilen Life-Videoinhalt-Produktionssystemen (Life Video Content) mit mehreren Kameras, die als Videomixer ein Handy oder einen Computer, einen Tablet-PC oder dergleichen einsetzen, anwendbar.
Obwohl sich vorangegangene Ausführungsbeispiele auf einen Videomixer mit einer Pro- zessoreinrichtung beziehen, können Ausführungsbeispiele der vorliegenden Erfindung auch als Programmcode bzw. Software implementiert sein.
Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Ver- fahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar.
Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein. Manche Ausfüh- rungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird. Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft. Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein. Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist.
Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft. Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.
Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Da- tenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.
Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.
Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.
Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC. Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Ein- zelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.
Literatur
[1 ] R. a. C. F. Kurceren,„Compressed Domain Video Editing," in Acoustics, Speech and Signal Processing, 2006. ICASSP 2006 Proceedings. 2006 IEEE International Conference on, 2006.
[2] W. A. C. Fernando, C. C.N. und D. Bull,„Video special effects editing in MPEG-2 compressed Video," in Circuits and Systems, 2000. Proceedings, ISCAP 2000 Geneva. The 2000 IEEE International Symposium on, Geneva, 2000.

Claims

Patentansprüche
Vorrichtung (100) zum Erzeugen eines Videoausgangsdatenstroms (102) mit folgenden Merkmalen: einem ersten Signaleingang (104a) zum Empfangen eines ersten Videoquellenda- tenstroms (202a); einem zweiten Signaleingang (104b) zum Empfangen eines zweiten Videoquellen- datenstroms (202b); einer Prozessoreinrichtung (130), die ausgebildet ist, um den Videoausgangsdaten- strom (102) zu einem ersten Zeitpunkt (k<T) basierend auf dem ersten Videoquel- lendatenstrom (202a) und mittels eines Umschaltvorgangs (132) zu einem zweiten Zeitpunkt, der auf den ersten Zeitpunkt (k>=T) folgt, basierend auf dem zweiten Vi- deoquellendatenstrom (202b) bereitzustellen; einem Steuersignalausgang (1 12) zum Senden eines Steuerbefehls (1 14) an eine Videoquelle (200a, 200b), von der der erste (202a) oder zweite (202b) Videoquel- Iendatenstrom empfangen wird; wobei der Steuerbefehl (1 4) eine Anweisung an die Videoquelle (200a, 200b) zur Anwendung eines Übergangseffektes umfasst, der zeitlich zwischen einem Bild des ersten (202a) und einem Bild des zweiten (202b) Videoquellendatenstroms in dem Videoausgangssignal (102) angeordnet ist.
Vorrichtung gemäß Anspruch 1 , wobei sich die Anweisung auf zumindest eines aus einer Zeitdauer (Tmax1, Tmax2), einem Startzeitpunkt (Ts1 , Ts2), einem Endzeitpunkt (Ts1+ Tmax1 , Ts2+ Tmax2), eine Abbildung (f(k)), eine Art oder eine Intensität des Über- gangseffektes bezieht.
Vorrichtung gemäß Anspruch 1 oder 2, bei der der Übergangseffekt konfiguriert ist, um in einem Zeitinterva!i (Ts2 < k > Ts1 + Tmax1), in welchem die Prozessoreinrichtung (130) den Umschaltvorgang ausführt, von der Videoquelle (200a, 200b) auf den ersten (202a) oder zweiten (202b) Videoqueiiendatenstrom angewendet zu werden.
Vorrichtung gemäß einem der vorangehenden Ansprüche, bei der die Prozessoreinrichtung (130) ausgebildet ist, um einen Programmcode zeitsynchron mit einer Prozessoreinrichtung (220) der Videoquelle (200a, 200b) abzuarbeiten.
Vorrichtung gemäß einem der vorangehenden Ansprüche, bei der die Prozessoreinrichtung (130) ausgebildet ist, um die Anweisung basierend auf einer Benutzereingabe (1 16) zu konfigurieren.
Vorrichtung gemäß einem der vorangehenden Ansprüche, bei der der Übergangseffekt einen ersten Teileffekt und einen zweiten Teileffekt aufweist, wobei die Vorrichtung (100) ausgebildet ist, um einen ersten Steuerbefehl (1 14) mit einer ersten Anweisung zur Anwendung des ersten Teileffektes an die erste Videoquelle (200a) zu senden und um einen zweiten Steuerbefehl (1 14) mit einer zweiten Anweisung zur Anwendung des zweiten Teileffektes an die zweite Videoquelle (200b) zu senden.
Vorrichtung gemäß einem der vorangehenden Ansprüche, die ferner ausgebildet ist, um den ersten oder zweiten Videoquellendatenstrom (202a, 202b) mit dem Übergangseffekt als Videoausgangsdatenstrom (102) bereitzustellen, ohne den ersten oder zweiten Videoquellendatenstrom zu manipulieren.
Videoquelle (200a, 200b), die ausgebildet ist, um einen Videoquellendatenstrom (202a, 202b) auszugeben, mit folgenden Merkmalen: einem Signaleingang (204a, 204b) zum Empfangen eines Steuerbefehls (1 14) von einer Vorrichtung 100 zum Erzeugen eines Videoausgangsstroms, der eine Anweisung zur Anwendung eines Übergangseffektes auf den Videoquellendatenstrom (202a, 202b) aufweist; wobei sich die Anweisung auf zumindest eines aus einer Zettdauer (Tmax1, Tmax2), einem Startzeitpunkt (Ts , Ts2), einem Endzeitpunkt (Ts + Tmax1 , Ts2+ Tmax2), eine Art oder eine Intensität des Übergangseffektes bezieht.
Videoquelle gemäß Anspruch 8, die ausgebildet ist, um Videoinformationen (212) mit dem Ubergangseffekt zu überlagern.
Videoquelle gemäß Anspruch 8 oder 9, die ausgebildet ist, um den Videoquellda- tenstrom (202a, 202b) umfassend den Übergangseffekt auszugeben.
1 1. Videoqueile gemäß einem der Ansprüche 8-10, bei der der Übergangseffekt eine Abbildung (f(k)), ein Einblendeffekt, ein Ausblendeffekt oder ein Effekt zur Überblendung eines ersten Bildes des Videoquellendatenstroms (202a, 202b) mit einem zweiten Bild des Videoquellendatenstroms (202a, 202b) oder mit einer Grafik, die in einem Grafikspeicher (230) der Videoquelle hinterlegt ist oder von einer Vorrichtung empfangen wird.
12. Videoquelle gemäß einem der Ansprüche 8-1 1 , die ausgebildet ist, um den Video- quelldatenstrom (202a, 202b) basierend auf einem Bildsensor (210) auszugeben oder von einem Datenspeicher (210) abzurufen.
13. Videoquelle gemäß einem der Ansprüche 8-12, die ferner eine Prozessoreinrichtung (220) aufweist die ausgebildet ist, um einen Programmcode zeitsynchron mit einer Prozessoreinrichtung (130) einer Vorrichtung (100) zum Erzeugen eines Videoaus- gangsdatenstroms abzuarbeiten.
14. Videoquelle gemäß einem der Ansprüche 8-13, die ausgebildet ist, um den Übergangseffekt basierend auf einer Beeinflussung der Bildsignalbearbeitungskette oder basierend auf einer grafischen Prozessoreinrichtung anzuwenden.
15. Videoquelle gemäß einem der Ansprüche 8-14, die ausgebildet ist, um den Video- quelldatenstrom mit einer veränderlichen Bitrate auszugeben.
16. Videosystem (1000) mit folgenden Merkmalen: einer Vorrichtung (100) zum Erzeugen eines Videoausgangsdatenstroms (102) gemäß einem der Ansprüche 1-7; einer ersten Videoquelle (202a) gemäß einem der Ansprüche 8-15; und einer zweiten Videoquelle (202b) gemäß einem der Ansprüche 8-15.
17. Videosystem gemäß Anspruch 16, bei dem der Übergangseffekt einen ersten Teilef- fekt und einen zweiten Teileffekt aufweist, wobei die Vorrichtung (100) zum Erzeugen eines Videoausgangsdatenstroms (102) ausgebildet ist, um einen ersten Steuerbefehl (1 14) mit einer ersten Anweisung zur Anwendung des ersten Teileffektes an die erste Videoquelle (200a) zu senden und um einen zweiten Steuerbefehl (1 14) mit einer zweiten Anweisung zur Anwendung des zweiten Teileffektes an die zweite Videoquelle (200b) zu senden.
18. Verfahren zum Erzeugen eines Videoausgangsdatenstroms mit folgenden Schritten:
Empfangen eines ersten Videoquellendatenstroms;
Empfangen eines zweiten Videoquellendatenstroms; Bereitstellen des Videoausgangsdatenstroms zu einem ersten Zeitpunkt basierend auf dem ersten Videoquellendatenstrom und mittels eines Umschaltvorgangs zu einem zweiten Zeitpunkt, der auf den ersten Zeitpunkt folgt, basierend auf dem zweiten Videoquellendatenstrom;
Senden eines Steuerbefehls an eine Videoquelle, von der der erste oder zweite Videoquellendatenstrom empfangen wird; wobei der Steuerbefehl eine Anweisung an die Videoquelle zur Anwendung eines Übergangseffektes auf den ersten oder zweiten Videoquellendatenstrom aufweist; und wobei sich die Anweisung auf zumindest eines aus einer Zeitdauer, einem Startzeitpunkt, einem Endzeitpunkt, eine Abbildung (f(k)), eine Art oder eine Intensität des Übergangseffektes bezieht.
19. Verfahren zum Ausgeben eines Videoquellendatenstroms, mit folgendem Schritt:
Empfangen eines Steuerbefehls, der eine Anweisung zur Anwendung eines Übergangseffektes auf den Videoquellendatenstrom aufweist; wobei sich die Anweisung auf zumindest eines aus einer Zeitdauer, einem Startzeitpunkt, einem Endzeitpunkt, eine Abbildung (f(k)), eine Art oder eine Intensität des Übergangseffektes bezieht.
Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens nach Anspruch 18 oder 19, wenn das Programm auf einem Computer läuft.
PCT/EP2015/068480 2014-10-08 2015-08-11 Vorrichtung zum erzeugen eines videoausgangsdatenstroms, videoquelle, videosystem und verfahren zum erzeugen eines videoausgangsdatenstroms bzw. eines videoquellendatenstroms WO2016055195A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020177012522A KR101980330B1 (ko) 2014-10-08 2015-08-11 비디오 출력 데이터 스트림을 생성하기 위한 장치, 비디오 소스, 비디오 시스템 및 비디오 출력 데이터 스트림 및 비디오 소스 데이터 스트림을 생성하기 위한 방법
JP2017518923A JP6545794B2 (ja) 2014-10-08 2015-08-11 ビデオ出力データストリームを生成する装置、ビデオソース、ビデオシステム、およびビデオ出力データストリームとビデオソースデータストリームとを生成する方法
CA2963959A CA2963959A1 (en) 2014-10-08 2015-08-11 Device for generating a video output data stream, video source, video system and method for generating a video output data stream and a video source data stream
EP15750990.2A EP3204946A1 (de) 2014-10-08 2015-08-11 Vorrichtung zum erzeugen eines videoausgangsdatenstroms, videoquelle, videosystem und verfahren zum erzeugen eines videoausgangsdatenstroms bzw. eines videoquellendatenstroms
US15/481,755 US20170213577A1 (en) 2014-10-08 2017-04-07 Device for generating a video output data stream, video source, video system and method for generating a video output data stream and a video source data stream

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014220423.2 2014-10-08
DE102014220423.2A DE102014220423A1 (de) 2014-10-08 2014-10-08 Vorrichtung zum Erzeugen eines Videoausgangsdatenstroms, Videoquelle, Videosystem und Verfahren zum Erzeugen eines Videoausgangsdatenstroms bzw. eines Videoquellendatenstroms

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/481,755 Continuation US20170213577A1 (en) 2014-10-08 2017-04-07 Device for generating a video output data stream, video source, video system and method for generating a video output data stream and a video source data stream

Publications (1)

Publication Number Publication Date
WO2016055195A1 true WO2016055195A1 (de) 2016-04-14

Family

ID=53879497

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2015/068480 WO2016055195A1 (de) 2014-10-08 2015-08-11 Vorrichtung zum erzeugen eines videoausgangsdatenstroms, videoquelle, videosystem und verfahren zum erzeugen eines videoausgangsdatenstroms bzw. eines videoquellendatenstroms

Country Status (7)

Country Link
US (1) US20170213577A1 (de)
EP (1) EP3204946A1 (de)
JP (1) JP6545794B2 (de)
KR (1) KR101980330B1 (de)
CA (1) CA2963959A1 (de)
DE (1) DE102014220423A1 (de)
WO (1) WO2016055195A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11178451B2 (en) 2018-08-17 2021-11-16 Roku, Inc. Dynamic playout of transition frames while transitioning between playout of media streams
CN111918096A (zh) * 2020-07-21 2020-11-10 上海网达软件股份有限公司 云导播快速切换输入源的方法、装置、设备及存储介质
EP4199383A4 (de) * 2020-08-11 2024-02-21 Contentsrights Llc Informationsverarbeitungsvorrichtung, informationsverarbeitungsprogramm und aufzeichnungsmedium
KR102491104B1 (ko) 2022-10-06 2023-01-20 (주)한서비엠티 비디오 입출력 스위칭 제어 방법 및 장치

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6462085A (en) * 1987-09-02 1989-03-08 Canon Kk Picture processing unit
JP2910122B2 (ja) * 1990-02-13 1999-06-23 日本電気株式会社 映像合成制御システム
IL111610A (en) * 1994-11-11 1998-02-22 News Datacom Ltd Catv transmission systems
JPH1042195A (ja) * 1996-04-27 1998-02-13 Victor Co Of Japan Ltd 映像切換え装置
US6337947B1 (en) * 1998-03-24 2002-01-08 Ati Technologies, Inc. Method and apparatus for customized editing of video and/or audio signals
JP4512962B2 (ja) * 1998-12-15 2010-07-28 ソニー株式会社 受信装置、受信装置のグラフィックス表示制御方法及び情報処理装置
US20010017671A1 (en) * 1998-12-18 2001-08-30 Pierre Pleven "Midlink" virtual insertion system and methods
DE19920089A1 (de) * 1999-05-03 2000-11-09 Philips Corp Intellectual Pty Videomischer mit Zwischenblendsignalsteuerung
JP3759352B2 (ja) * 1999-10-26 2006-03-22 株式会社ディーアンドエムホールディングス 映像再生装置
GB2358539A (en) * 2000-01-21 2001-07-25 Sony Uk Ltd Data processing method which separates parameter data from coded data
US7756391B1 (en) * 2000-09-01 2010-07-13 Matrox Electronic Systems Ltd. Real-time video editing architecture
US7227583B2 (en) * 2002-12-11 2007-06-05 Lg Electronics Inc. Digital TV method for switching channel automatically
JP2004274627A (ja) * 2003-03-11 2004-09-30 Sony Corp 映像素材編集装置及び映像素材編集方法
US8108896B2 (en) * 2004-04-15 2012-01-31 Arris Group, Inc. Method and system for providing interactive services using video on demand infrastructure
KR101138052B1 (ko) * 2004-07-06 2012-04-23 파나소닉 주식회사 수신장치, 그 제어 방법, 프로그램 및 반도체장치
US7319499B2 (en) * 2005-06-03 2008-01-15 Ching-Lung Peng Composite structure of aluminum extrusion external framework of LCD monitor
JP4345727B2 (ja) * 2005-08-17 2009-10-14 ソニー株式会社 信号加工装置及びその操作手段の機能の実行方法
US8553151B2 (en) * 2005-09-02 2013-10-08 Gvbb Holdings S.A.R.L. Video effect recall technique
JP4229127B2 (ja) * 2006-02-14 2009-02-25 ソニー株式会社 映像処理装置及びタイムコードの付加方法
JP2008252757A (ja) * 2007-03-30 2008-10-16 Sony Corp 映像信号処理装置と映像信号処理方法
JP2009077105A (ja) * 2007-09-20 2009-04-09 Sony Corp 編集装置および編集方法、プログラム、並びに記録媒体
CA2717882A1 (en) * 2008-03-18 2009-09-24 Fabrix Tv Ltd. A controlled rate vod server
JP4630357B2 (ja) * 2008-06-27 2011-02-09 日本電信電話株式会社 映像送受信システム及びその制御方法
US8797414B2 (en) * 2010-12-23 2014-08-05 Samsung Electronics Co., Ltd. Digital image stabilization device
CA3089869C (en) * 2011-04-11 2022-08-16 Evertz Microsystems Ltd. Methods and systems for network based video clip generation and management
JP2014157464A (ja) * 2013-02-15 2014-08-28 Pioneer Electronic Corp 映像又は音響機器装置
US10691309B2 (en) * 2013-03-27 2020-06-23 Broadsign Serv, Llc Media element transition electronic device, method and application
US20140368737A1 (en) * 2013-06-17 2014-12-18 Spotify Ab System and method for playing media during navigation between media streams
US9881645B2 (en) * 2013-08-20 2018-01-30 Google Llc Systems, methods, and media for editing video during playback via gestures
JP5924370B2 (ja) * 2014-05-23 2016-05-25 トヨタ自動車株式会社 映像表示装置、映像切替装置、及び映像表示方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "RecoLive Releases Multi-Camera Switcher Application For iOS", 26 February 2014 (2014-02-26), XP055225033, Retrieved from the Internet <URL:http://geekbeat.tv/recolive-releases-multi-camera-switcher-application-for-ios/> [retrieved on 20151102] *
ANONYMOUS: "Switcher Studio Democratizes Video Production", 4 October 2014 (2014-10-04), XP055224984, Retrieved from the Internet <URL:https://web.archive.org/web/20141004061412/http://www.socialmediaexplorer.com/digital-marketing/switcher-studio-video-production-app/?> [retrieved on 20151102] *
RECOLIVE: "RecoLive MultiCam & Switcher Tutorial 2 | Better Video", YOUTUBE, 12 June 2014 (2014-06-12), pages 1 - 1, XP054976181, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=eqUPCwUxhfY> [retrieved on 20151104] *

Also Published As

Publication number Publication date
KR101980330B1 (ko) 2019-05-20
EP3204946A1 (de) 2017-08-16
DE102014220423A1 (de) 2016-04-14
CA2963959A1 (en) 2016-04-14
JP6545794B2 (ja) 2019-07-17
US20170213577A1 (en) 2017-07-27
KR20170070111A (ko) 2017-06-21
JP2017536021A (ja) 2017-11-30

Similar Documents

Publication Publication Date Title
DE112012005330B4 (de) Verfahren und Vorrichtung zur Kompensation einer Überschreitung eines gewünschten Sichtbereichs durch eine ferngesteuerte Bilderfassungsvorrichtung
DE3838000C2 (de) Videoproduktionseinrichtung
WO2016055195A1 (de) Vorrichtung zum erzeugen eines videoausgangsdatenstroms, videoquelle, videosystem und verfahren zum erzeugen eines videoausgangsdatenstroms bzw. eines videoquellendatenstroms
EP2763401A1 (de) Eingebettetes System zur Videoverarbeitung mit Hardware-Mitteln
DE102015115998A1 (de) Segmentierter Videocodec für Video mit hoher Auflösung und hoher Framerate
DE202016008753U1 (de) Bei Gigabit-Ethernet anwendbare vernetzte Videokommunikation
DE102008002276B4 (de) Verfahren und Anordnung zur Übertragung von Bilddaten sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
DE69928494T2 (de) Videosignalkompression
DE10331757B4 (de) Audiowiedergabesystem mit einem Datenrückkanal
DE2059555A1 (de) Belebungsfolgeerzeuger
WO2021223819A2 (de) System und systembox zum empfangen von videostreams
WO2016055543A1 (de) Vorrichtung und verfahren zum schneiden von mehreren kodierten videoströmen ohne vorherige dekodierung
DE102017124984B4 (de) Synchronisiertes Aufnehmen von Video und Audio mit drahtlos verbundenen Video- und Audioaufnahmevorrichtungen
WO2016055375A1 (de) Einstellen von datenraten in einem videokamerasystem
EP3767957A1 (de) Verfahren zur übertragung von videoinformation an ein telekommunikationsgerät, wobei die videoinformation eine mehrzahl an videoinformationsströmen umfasst, system, telekommunikationsgerät, inhaltebezogene hintergrund-servereinrichtung, computerprogramm und computerlesbares medium
DE69907929T2 (de) Kompressions- und dekompressionssystem für digitale videosignale
EP2745510B1 (de) Verfahren zur behandlung von störungen bei der übertragung einer zeitlichen folge digitaler bilder
DE102017204789A1 (de) Computergestützte Erweiterung der Realitätswahrnehmung für industrielle Anwendungen
EP4236308A1 (de) Verteiltes monitoring-system für filmaufnahmen
DE102020112491A1 (de) System und Systembox zum Empfangen von Videostreams
WO2015082557A1 (de) System zum interaktiven aufführen einer darstellung auf einer virtuellen bühne
EP1976292B1 (de) Verfahren und Videokommunikationssystem zur Einspeisung von Avatar-Informationen in einen Videodatenstrom
DE102022104105A1 (de) Verfahren zur steuerung eines videokonferenzsystems eines gerichtssaalmediensystems
DE202019005559U1 (de) Vorrichtung und computerlesbares Speichermedium zur omnidirektionalen Medienwiedergabe
AT414292B (de) Verfahren zur übertragung von audio- und videostreams über das internet zwischen mehreren datenquellen und einer datensenke

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15750990

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
REEP Request for entry into the european phase

Ref document number: 2015750990

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015750990

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2963959

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2017518923

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20177012522

Country of ref document: KR

Kind code of ref document: A