WO2016162560A1 - Verfahren zur erfassung und synchronisation von audio- und videosignalen und audio/video-erfassungs- und synchronisationssystem - Google Patents

Verfahren zur erfassung und synchronisation von audio- und videosignalen und audio/video-erfassungs- und synchronisationssystem Download PDF

Info

Publication number
WO2016162560A1
WO2016162560A1 PCT/EP2016/057915 EP2016057915W WO2016162560A1 WO 2016162560 A1 WO2016162560 A1 WO 2016162560A1 EP 2016057915 W EP2016057915 W EP 2016057915W WO 2016162560 A1 WO2016162560 A1 WO 2016162560A1
Authority
WO
WIPO (PCT)
Prior art keywords
timestamps
signal
optical
audio
unit
Prior art date
Application number
PCT/EP2016/057915
Other languages
English (en)
French (fr)
Inventor
Markus Thiele
Björn WOLTER
Original Assignee
Sennheiser Electronic Gmbh & Co. Kg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sennheiser Electronic Gmbh & Co. Kg filed Critical Sennheiser Electronic Gmbh & Co. Kg
Priority to DE112016001672.7T priority Critical patent/DE112016001672A5/de
Priority to US15/560,827 priority patent/US10567827B2/en
Publication of WO2016162560A1 publication Critical patent/WO2016162560A1/de

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • G11B27/3036Time code signal
    • G11B27/3045Time code signal superimposed on the recorded main signal, e.g. burn-in-time code
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4112Peripherals receiving signals from specially adapted client devices having fewer capabilities than the client, e.g. thin client having less processing power or no tuning capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43076Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Definitions

  • the present invention relates to a method for the detection and synchronization of audio and video signals, as well as a microphone unit for the detection and storage of audio signals with means for synchronization of the audio signal with detected video signals.
  • Mobile devices such as smartphones, are often equipped with a powerful camera. With a zoom function events can also be filmed at a greater distance from the camera. This may, for example, relate to a performance on the stage in a school hall, in which the user of the mobile device (camera unit) sits in the audience and produces a video recording of what is happening on the stage.
  • an audio recording with a microphone contained in the camera unit often gives unsatisfactory results, since unintentionally many ambient noises are recorded from the immediate vicinity of the camera unit, while the desired audio signal - e.g. the text spoken on stage - is recorded too softly and goes down in the ambient noise.
  • an external microphone can be used. This may be, for example, a clip-on microphone that has an actor on the stage attached to his clothes and which captures the spoken or sung by the actor audio signal, or a total audio signal from its immediate vicinity. If an external microphone is connected to the camera unit via a cable, the audio signal from the external microphone can be stored directly at the same time and thus synchronously together with the detected video signal. In many applications - such as e.g. in the auditorium - a wired transmission of the audio signal is not practicable.
  • the audio signal detected by the external microphone can be wirelessly transmitted to the camera unit.
  • the wireless microphone technology systems are known, with which an audio signal can be transmitted without a noticeable time offset to a receiver.
  • such systems can not be used in an uncoordinated manner because of mutual interference with other wireless links, and therefore subject to legal restrictions.
  • the transmission power is legally limited, so that only a small distance can be bridged. A secure transmission from a stage to a place in the audience is thus not guaranteed.
  • a standard camera unit such as a video camera.
  • a smartphone to be able to receive.
  • Individualized wireless data transmission protocols are available for such mobile end user devices. Examples include WLAN, Bluetooth, DECT or Wifi, in which a data stream is provided in each case for a particular terminal and subdivided into individual data packets is transmitted to the receiving terminal.
  • these data transmission protocols involve an unpredictable time offset in the transmission of each individual packet since the use of a transmission channel is coordinated between multiple transmitters according to the protocol, resulting in variable latencies for access to the transmission channel.
  • the transmission is normally bi-directional, with a receiving device acknowledging a successful receipt, and in the event of a faulty transmission, a data packet is retransmitted, resulting in addition to unpredictable delays. Overall, a delay of several seconds may occur.
  • An audio signal received in this way is time-delayed with respect to the video signal detected by the camera unit by an unknown amount to such an extent that the time offset during the later viewing of the video / audio signal is perceived as disruptive. Without additional synchronization measures, it is not possible to subsequently move the audio signal relative to the video signal to the correct location.
  • the wireless transmission is a storage of the audio signal in the external microphone unit in question.
  • the audio signal of the external microphone unit is then subsequently merged with the video signal from the camera unit. Also in this case results in the problem, to bring the audio signal with respect to the video signal subsequently to the correct location on the time axis.
  • DE 10 2010 038 838 A1 discloses a wireless microphone system in which a microphone unit detects an audio signal and stores it together with "timestamps", and wherein a camera unit stores timestamps together with the video signal, and wherein the camera unit transmits synchronization signals based on which the microphone unit generates timestamps appropriate to the video signal.
  • This object is achieved by a method for detecting and synchronizing audio / video signals according to claim 1 and by a system for detecting and synchronizing audio video signals according to claim 7.
  • a method for detecting and synchronizing audio / video signals is provided. At least one audio signal is detected by at least one microphone unit. Timestamps are generated and stored in the microphone unit together with the detected audio signal. An optical synchronization signal is output by the microphone unit, the optical synchronization signal including optical timestamps each associated with one of the generated timestamps. At least one video signal is detected by at least one camera unit. The video signal has at least partially the optical synchronization signal output by the microphone unit. The optical timestamps included in the optical synchronization signal are extracted. The video signal and the audio signal are synchronized based on the timestamps in the audio signal and the optical timestamps extracted from the detected optical synchronization signal.
  • the microphone unit may generate the timestamps from an absolute time signal.
  • the microphone unit is designed as a hand-held microphone, a clip-on microphone or a pocket transmitter unit connected via a cable to a microphone.
  • the microphone unit has a light-emitting surface for outputting the optical synchronization signal of between 0.5 and 2 cm 3 , in particular 1 cm 3 .
  • the microphone unit may be activated once and the audio signal may then be continuously acquired and stored along with the timestamps.
  • An allocation of a by the Kme- ragnac detected video signal to the relevant point in the detected audio signal can be done on the basis of the timestamps.
  • a plurality of detected video signals of a plurality of camera units are present and can be resynchronized with the detected audio signals based on the timestamps generated from the absolute time signal.
  • the invention also relates to a system for detecting and synchronizing audio / video signals.
  • the microphone has at least one microphone unit for detecting at least one audio signal, for generating timestamps, for storing the detected audio signal together with the generated timestamps and for outputting an optical synchronization signal.
  • the optical synchronization signal includes optical timestamps, each associated with one of the generated timestamps.
  • the system further comprises a camera unit for detecting at least one video signal.
  • the video signal has at least partially the optical synchronization signal output by the camera unit.
  • the optical timestamps included in the optical synchronization signal are extracted, and the video signal and the audio signal are synchronized based on the timestamps in the audio signal and the optical timestamps extracted from the detected optical synchronization signal.
  • the invention also relates to a microphone unit having a microphone capsule for acquiring audio signals, a timestamp unit for generating timestamps, a memory for storing the detected audio signals and the associated timestamps, and an optical signal output unit for outputting an optical synchronization signal which contains optical timestamps associated with the generated timestamps.
  • the invention also relates to a camera unit having a control unit for extracting optical timestamps from a detected video signal and for synchronizing the detected video signal with an audio signal detected by an external microphone unit, which has timestamps associated with each of the optical timestamps Timestamps and located in the audio signal timestamps can be synchronized.
  • Fig. 1 shows an application of a microphone unit according to a first
  • FIG. 2 is a block diagram of the microphone unit according to the first embodiment
  • Fig. 4 shows an arrangement of audio and video signals with an assignment on the time axis
  • FIG. 5 shows a block diagram of a camera unit according to an exemplary embodiment.
  • Fig. 1 shows an application of a microphone according to a first embodiment of the invention.
  • a microphone unit 110 On a stage 101 is an actor 102. From a spectator room, a camera unit 180 is used to produce a video recording of what is happening on the stage.
  • a microphone unit 110 On the stage is located at the actor 102, a microphone unit 110. This can be configured, for example, as a clip-on microphone, as a hand-held microphone or as a connected via a cable with a microphone pocket unit.
  • the microphone unit 10 may also be positioned separately from the actor, for example on a microphone stand on the stage 101.
  • the microphone unit 100 includes an optical signal output unit 111, which is preferably designed as an LED.
  • the inventive idea is to store the audio signal recorded by the microphone unit 110 together with timestamps and to output via the optical signal output unit 111 optical synchronization signals 150, which are assigned in time to the timestamps of the audio signal.
  • the optical synchronization signal 150 thus contains optical timestamps 117b, which are each associated with a timestamp 17, which is stored with the audio signal.
  • the optical signal output unit 111 is positioned so that it can be at least occasionally optically detected by the camera unit 180. If the microphone unit 110 is designed as a clip-on microphone, it can for example be attached visibly to the clothing of the actor 102, wherein the optical signal output unit 111 is not covered.
  • the camera unit 180 need not contain any provisions intended for synchronization with an external audio signal.
  • a conventional camera can be used for video capture in a system according to the invention as soon as it detects an optical synchronization signal 150 according to the invention. It is also not necessary for an initial synchronization to take place between the microphone unit 110 and the camera unit 180.
  • the correct time assignment of the audio signal to a video signal according to the invention can be used both when the audio signal and the associated timestamps were transmitted wirelessly but with an unknown time offset to the camera unit 180, as well as when the audio signal is initially stored temporarily in the microphone unit 10 was and will be merged with the video signal in a later step.
  • FIG. 2 shows a block diagram of the microphone unit 110 according to the first embodiment.
  • the microphone unit 110 includes a microphone capsule 112. It detects an acoustic audio signal 125 and generates therefrom an analog audio signal 140.
  • An A D converter 141 generates a digital audio signal 113 therefrom.
  • the microphone unit 110 contains a timer 114, which continuously generates a time signal 115 ,
  • a timestamp unit 116 preferably generates therefrom digital timestamps 117 and an associated light control signal 151 at regular intervals.
  • the light control signal 151 drives the optical signal output unit 111 so that it emits the optical synchronization signal 150, which then contains optical timestamps 117b.
  • a combining unit 118 connects the digital audio signal 113 to the digital timestamps 117 and thereby generates the audio / timestamp signal 119.
  • the audio / timestamp signal 119 can be stored in a memory 120 belonging to the microphone unit 110, from which it can be used later Use be read out again can.
  • the microphone unit 110 includes a wireless transmitter 121, via which the audio / timestamp signal 119 is emitted wirelessly as a transmission signal 122.
  • the output of the data from the memory 120 may be provided via the wireless transmitter 121.
  • the wireless transmission is preferably in a form in which the data can be received without additional hardware with a normal mobile end-user device, such as a smartphone. Examples of the transmission method here are called WLAN, Bluetooth, DECT or Wifi.
  • the wireless data transmission 122 is preferably bidirectional, so that, for example, control data can be transmitted to the microphone unit 110 via this path.
  • the microphone unit 110 also includes a time signal receiver 130 which occasionally wirelessly receives a generally available absolute time signal 132 from a time signal transmitter (in Germany, e.g., DCF77, USA GPS, including an absolute time signal) and passes it to the timer 114 as an absolute time signal 131.
  • a time signal transmitter in Germany, e.g., DCF77, USA GPS, including an absolute time signal
  • the timer 114 which contains an internal clock generation that would diverge with the absolute time alone over a long period of time, can each time match the received absolute time upon receipt of a time stamp 132.
  • the elements belonging to the microphone unit 110 are arranged in a common housing which has the smallest possible dimensions.
  • the housing preferably has a holding element, with which it can be attached to the clothing of a user in the sense of a brooch. It can e.g. attached to a shirt or pullover near the neck of the user to capture the user's voice.
  • the camera unit 180 includes an optical detection unit 182. It detects an optical signal 81 which may include the optical synchronization signal 150 and thus the optical timestamps 117b and generates therefrom a video signal 183.
  • the camera unit 180 optionally includes a timer 14a which continuously inputs a time signal 115a generated.
  • a timestamp unit 116a preferably generates digital timestamps 117a at regular intervals therefrom.
  • a combining unit 118a connects the video signal 183 to the digital timestamps 117a, thereby generating the video / timestamp signal 119a.
  • the video / timestamp signal 119a may be stored in a memory 120a associated with the camera unit 180, from which it may be read out for later use.
  • the camera unit 180 includes a wireless transceiver 121a via which a wireless bidirectional Connection 122 can be constructed with the microphone unit 110.
  • the camera unit 180 includes a control unit 184, which serves inter alia for controlling the timestamp unit 116a, for processing the video / timestamp signal 119a from the memory 120a and for controlling the data transmission via the bidirectional connection 122.
  • the control unit 184 serves to extract the "optical timestamps" from a detected video signal.
  • the camera unit 180 also includes a time signal receiver 130a that occasionally wirelessly receives a generally available absolute time signal 132 from a time signal transmitter and passes it as an absolute time signal 131a to the timer 114a.
  • the timer 114a which contains an internal clock generation that would diverge only with the absolute time over a long period of time, can each time match the received absolute time upon receipt of a time stamp 132.
  • optical synchronization signal 150 In the following, details of possible embodiments of the optical synchronization signal 150 will be discussed.
  • the optical synchronization signal 150 may consist of short light pulses, each emitted at a time when the timestamp unit 116 generates a timestamp, which is then inserted into the audio / timestamp signal 119.
  • the time interval of the light pulses may e.g. 1 second.
  • the audio / timestamp signal 119 contains time points marked via the timestamps, which belong in each case to a point of time that can be recognized in the video signal of the camera unit 180 by the filmed light pulse.
  • the audio signal relative to the video signal may be directed to the correct position on the time axis based on the marked time points recognizable in both signals be pushed.
  • the time offset between the received audio / timestamp signal 119 and the video signal is greater than the spacing between the timestamps, there may be a mismatch between the timestamps and filmed light pulses, so that the audio signal is skewed relative to the video signal, with the skew then is an integer multiple of the time interval between the timestamps.
  • a variable time interval between the timestamps can be provided. For example, the temporal Distance between two timestamps, and thus also between the associated light pulses of 0.1 seconds in each step are extended by 0.1 seconds, ie 0.1s; 0.2s; 0.3s, etc. This can be done, for example, up to a maximum distance of 2.0 seconds and then start over.
  • at least two marked times must be evaluated in the video signal and based on the time interval between these two times can be made an assignment to the position of the audio signal in which the timestamps have the same distance from each other.
  • the optical signal output unit 111 may have two different states.
  • it can be provided, for example, as an LED with the states "light” and "dark". If the LED is driven in a fixed time frame with one of the two states, it can transmit one bit in each step of this grid.
  • the length of a time grid step can be eg 0.1 seconds. Thus, up to 10 bits per second can be transmitted.
  • the length of a step in the time grid should be selected such that one bit is reflected in at least two consecutive pictures of a video signal recorded by the camera, so that an unclear detection of a bit state in an image can be reliably recognized in the subsequent picture.
  • FIG. 3 shows a possible time sequence of an optical synchronization signal 150 with encoded data over time t.
  • the signal 150 can switch between states 0 and 1 and maintains this state for a duration r corresponding to a step length in the selected time frame.
  • a timestamp 117 for the audio signal is generated.
  • a starter identification bit sequence 300 in signal 150 is generated.
  • the individual bits of the user data to be transmitted can be output one after the other in the same time frame.
  • a specific point in time is defined with the start time of the start detection bit sequence 300, which can be recognized as a marked timestamp time TS in the video signal.
  • the payload data output to each timestamp 117 via the optical synchronization signal 150 preferably has a fixed number of bits.
  • the following timestamp can be generated immediately as soon as the bit sequence belonging to the previous timestamp has been completely transferred. This creates timestamps that are equidistant from each other in time.
  • the useful data to be transmitted to a timestamp 117 consist in particular of a consecutive numbering of the individual timestamps.
  • each timestamp receives an individual contiguous identifier, which is included in both the audio / timestamp signal 19 and can be read from the video signal.
  • a unique assignment of each Timestamp timing is enabled in the two signals.
  • further user data can be transmitted by means of the optical synchronization signal 150 and additionally stored with the timestamps in the audio signal.
  • this may be an individual identification number of the microphone unit 110. This is advantageous when a plurality of microphone units 110 according to the invention, e.g. be used on a stage, so that a plurality of optical synchronization signals are detected by the camera 80 in the image.
  • location, date and / or time information may be useful to facilitate association of a captured audio signal with a video signal recorded at a particular event.
  • the two states of the optical synchronization signal 150 may preferably be selected so that the difference between the two states is barely perceived by the human eye to avoid disturbing the viewer.
  • the state "bright” can be chosen so that the illumination of the LED hardly noticeable.
  • the states merely have to be defined in such a way that a reliable differentiation of the two states in the video signal is possible.
  • the light emitting surface of the optical signal output unit 111 should have a minimum size. This can for example be 1 square centimeter.
  • the light-emitting surface may have a special shape such as a logo.
  • several LEDs can be used in a defined arrangement to each other.
  • the data rate that can be transmitted with the optical synchronization signal 150 can be multiplied by the number of LEDs used.
  • a bidirectional wireless connection between a microphone unit 110 and a camera unit 180 eg a smartphone
  • the microphone unit 110 continues to store the audio / timestamp signal 119 in the memory 120.
  • the subsequent transfer of the missed portions of the audio data from the memory 120 can be started automatically as soon as the wireless connection between the two devices is available again.
  • the wireless transmission of the audio data can optionally be encrypted.
  • further information can be communicated between the microphone unit 110 and the receiving device, for example: the state of the battery, radio frequencies used for the transmission, radio frequency interference, current transmission quality, level adaptation, clock / crystal synchronization ,
  • the microphone unit 110 may further include an interface over which it is wired, e.g. can be controlled via USB, or via the additional readout of the data located in the memory 120 is possible.
  • the microphone unit 110 may have an energy store (battery / rechargeable battery) and an operating unit.
  • the operating unit serves to activate the microphone unit 110 and to start the audio recording.
  • a control of the microphone unit 110 is possible via the bidirectional wireless connection with an external device such as a smartphone.
  • the audio recording can be started and stopped via this wireless connection.
  • the continuous existence of a wireless connection eg during an event, can not be guaranteed with certainty.
  • only individual sections of an event are recorded with a camera unit 180. If now no wireless connection to the microphone unit 110 is available, external activation of the microphone unit 110 from the camera unit 180 is not possible, so that in this case no audio signal is provided by the microphone unit 110.
  • the microphone unit 110 is only activated once before the event and records the audio signal throughout the event continuously. Only after the end of the event, the audio recording is stopped. If a single section of the event is filmed with a camera unit 180, it is sufficient if the complete identifier of a single timestamp can be taken from this section of the video signal. If the entire recorded audio signal is subsequently merged with the video signal containing only the section of the event, this identifier can be used to extract precisely the section from the audio signal belonging to the section captured on the video and then at the correct position of the time axis be assigned.
  • An audio signal stored together with a video sequence is then automatically correctly arranged on the time axis together with the video sequence.
  • each user can then switch individually between the various angles and audio signals. For example, a user may then assemble a video in which he or she associates a contiguous sequential sequence of his or her own child (eg, a song that sings the child, the audio signal can be used continuously by the microphone unit 110) with changing camera perspectives.
  • Fig. 4 shows an arrangement of audio and video signals with an assignment on the time axis. Above the time axis t, audio sequences are shown in the lower half and video sequences in the upper half.
  • the audio sequence 400 corresponds to the audio / timestamp signal 119 present from the complete event.
  • the video sequence 411 was correctly arranged on the time axis by means of at least one timestamp identified therein.
  • the audio sequence 401 belongs to the video sequence 411 and could thus be stored temporally parallel to the video sequence 411 on the time axis. Accordingly, the video sequence 413 with the associated audio sequence 403 has been positioned at the correct position of the time axis.
  • a representation as in FIG. 4 is known from common application software for audio / video editing. The user can freely switch between the individual correctly positioned audio and video channels when merging his desired sequence.
  • the microphone unit 110 may be e.g. be mounted on a microphone stand on the stage so that it is visible throughout the event from the auditorium. This increases the likelihood that the optical synchronization signal 150 will be seen on the video sequences. For such a combination of video signals, it is theoretically even possible to dispense with the audio signal 113.
  • the audio / timestamp signal 119 then contains only the timestamps, on the basis of which the video sequences can be distributed in time, on which the optical synchronization signal 150 can be seen.
  • Another embodiment results from using the absolute time to which the timer 114 matches on the basis of the time signal receiver 130.
  • the timestamps and the data transmitted by means of the optical synchronization signal 150 may contain an indication of the absolute time.
  • the application described above remains fully intact.
  • several microphone units 1 0 according to the invention synchronize to the same absolute time provided by an external time signal transmitter. If then several microphone units 110 can be seen in a video sequence, they all send the same optical synchronization. onssignal 150 off. In addition, they each time out timestamps with the same absolute time in their respective audio / timpestamp signal 119. Thus, a subsequent timely merging of the audio signals of several microphone units 110 is easily guaranteed.
  • the camera unit 180 may have a timer 114, which compares with a time signal receiver 130 with the absolute time of a time signal transmitter.
  • a timestamp unit 116 in the camera unit 180 may then, just as in the microphone unit 110, generate timestamps 117 which contain the absolute time and store it together with the video signal.
  • Such a video / timestamp signal can always be stored at the correct position of the time axis even without the detection of an optical synchronization signal 150.
  • the particular advantage of using an external time signal transmitter for all correctly timed signals results from the fact that a correct identical absolute time is always used without the recording devices having to match each other beforehand.
  • a microphone unit 110 (without the use of the absolute time) only once before an event with a camera unit 180, such as e.g. synchronize a smartphone, and then both devices by means of a respective internal timer 114 and 1 4a sufficiently timestamps can generate the recorded signals.
  • a camera unit 180 such as e.g. synchronize a smartphone
  • both devices by means of a respective internal timer 114 and 1 4a sufficiently timestamps can generate the recorded signals.
  • One problem is the synchronization between these two devices, which is exceeded by one of the available wireless transmission protocols, e.g. WLAN, Bluetooth, DECT or Wifi could be done.
  • WLAN, Bluetooth, DECT or Wifi could be done.
  • such individualized wireless data transmission protocols have a conditionally unpredictable time offset during the transmission, so that a sufficiently precise synchronization via this path can not be guaranteed.
  • a signal of a time signal transmitter provided simultaneously for both devices does not have this problem.
  • the idea of a one-time synchronization between the camera unit 180 and the microphone unit 110 can be considered before the beginning but implement an event.
  • an initialization procedure which the user performs prior to the event, first a wireless connection 122 is established between the microphone unit 110 and the camera unit 180.
  • software running in the camera unit 180 can be provided, which provides a control interface for the microphone unit 110 and is based thereon, e.g. using the bidirectional data transmission 122 performs a wireless or wired control of the microphone unit.
  • the camera unit 180 may be a smartphone running a corresponding app, and the connection to the microphone unit 110 is made via Bluetooth, or WLAN, or via the USB cable during the initialization phase.
  • the user films for initialization, the microphone unit 1 0 from close to the camera unit 180 and thereby generates an Initialtechnischsvideosequenz.
  • the microphone unit is caused to generate a timestamp as described above and to store it with an audio / timestamp signal 119 and via the optical signal transmission unit 111 to deliver an associated optical identifier of the timestamp timing, wherein in this embodiment a single light pulse is sufficient.
  • the camera unit 180 includes its own timer 114a, and the software running on the camera unit 180 generates timestamps from its own timer 114a upon generation of the initialization video sequence, which it stores along with the video sequence filmed for initialization. Then, in the camera unit 180, the initialization video sequence is evaluated by the software. In this case, in the initialization video sequence the time is sought at which the microphone unit 110 has set a timestamp and which is optically marked accordingly. An exact time relationship between the timer 114 in the microphone unit 110 and the timer 114a in the camera unit 180 can be determined on the basis of the camera's own time identifiers stored with the initialization video sequence.
  • a generation of timestamps 117a on the basis of the timer 114a can be provided for the later use of the camera unit 180, which is matched with the generation of the timestamps 117 in the microphone unit 110.
  • the latter generates its own timestamps 117a from its internal timer 1 4a in the same way as the microphone unit 110 and stores them together with the recorded video signal as a video / timestamp signal 19a.
  • the timers 114 and 4a are normally sufficiently accurate to run equally well for several hours to allow a sufficiently accurate association between the thus marked audio / timestamp signal 119 and the video timestamp signal 119a.
  • the generation of the timestamps 117 in the microphone unit 110 can be adapted to the camera timer 114a.
  • the time difference between the timestamps 117 of the microphone unit 110 and the time identifiers in the initialization video sequence ascertained in the camera unit 180 is transmitted to the microphone unit 110 and used there to generate timestamps 117, which are then synchronized with the timestamps 117a from the camera unit 180.
  • the time offset determined from the initialization video sequence can be stored and used only when the audio / timestamp signal 119 is later merged from the microphone unit 110 with the video / timestamp signal 119a from the camera unit 180, the timestamps 117 of the microphone unit and 117a of the camera unit can be generated without prior matching.
  • a time-correct combination of the audio / timestamp signal 119 from the microphone unit 110 with the video / timestamp signal 119a from the camera unit 180 is possible.
  • the user Before an event, the user establishes a wireless connection 122 between the microphone unit 110 and the camera unit 180 and performs the initialization procedure as described.
  • the wireless bidirectional connection 122 is considered as being connected by both sides during the event, even if no data transmission occurs over a longer period of time.
  • the microphone unit 110 generates an audio / timestamp signal 19 during the entire event and stores it in the memory 120.
  • the camera unit 180 If now the user with the camera unit 180 generates a video sequence, thereby timestamps 117a are stored with the video signal. Immediately after starting the video recording via the connection 122 at the microphone unit 110, the camera unit requests the section of the audio / timestamp signal 119 belonging to the video sequence that has just been started. Once the camera unit has received the requested audio / timestamp signal 119, the camera unit correctly sorts the received audio signal from the timestamps to the video signal and places the combination in the camera as an audio / video signal.
  • the camera unit retrieves the requests for missing portions of the audio / timestamp signal 119 as soon as data can be transmitted again via the connection 122 a correct assignment to the created video sequences ago.
  • the camera unit retrieves the requests for missing portions of the audio / timestamp signal 119 as soon as data can be transmitted again via the connection 122 a correct assignment to the created video sequences ago.
  • the user takes the microphone unit after the end of the event and the microphone unit 110 and the camera unit 180 are in close proximity to each other, data transmission via the path 122 will take place and the missing audio data for the video sequences created during the event will be sent to the camera - Transfer unit. Without any further action by the user, he will then find on his camera unit audio-video sequences in which the audio signals determined with the microphone unit 110 are stored correctly in time with the video sequences created during the event.
  • the timestamps both in a microphone unit 110 and possibly also in a camera unit 80, information about the location at which the device is currently located can be inserted.
  • an orientation in space e.g. was determined by a compass and / or a gravity sensor (acceleration sensor) into which timestamps are inserted.
  • the evaluation of the video signals takes place via an appropriate software, for example in the control unit 184 successive video images, the location in the image are recognized, at which the optical signal output unit 111 is shown. Then, a sequence of video images must be examined in each case, in which it is determined in which of its two states the optical signal output unit 111 is located in each case. From the examination of the sequence of images, the bit sequence emitted by the optical signal output unit 111 can be determined. In this bit sequence must then a starter bit sequence
  • start detection bit sequence 300 are searched.
  • the image in which the start detection bit sequence 300 starts is then assigned to the timestamp TS, which is determined by the bit sequence transmitted thereafter

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Studio Devices (AREA)

Abstract

Es wird ein Verfahren zur Erfassung und Synchronisierung von Audio-/Videosignalen vorgesehen. Mindestens ein Audiosignal (140) wird mittels mindestens einer Mikrofoneinheit (110) erfasst. Timestamps (117) werden erzeugt und zusammen mit dem erfassten Audiosignal (140) in der Mikrofoneinheit (110) gespeichert. Ein optisches Synchronisationssignal (150) wird durch die Mikrofoneinheit (110) ausgegeben, wobei das optische Synchronisationssignal (150) optische Timestamps (117b) enthält, die jeweils einer der erzeugten Timestamps (117) zugeordnet sind. Mindestens ein Videosignal wird mittels mindestens einer Kameraeinheit (180) erfasst. Das Videosignal weist das durch die Mikrofoneinheit (110) ausgegebene optische Synchronisationssignal (150) zumindest teilweise auf. Die in dem optischen Synchronisationssignal (150) enthaltenen optischen Timestamps (117b) werden extrahiert. Das Videosignal und das Audiosignal (140) werden basierend auf den Timestamps (117) in dem Audiosignal und den aus dem erfassten optischen Synchronisationssignal (150) extrahierten optischen Timestamps (117b) synchronisiert.

Description

Verfahren zur Erfassung und Synchronisation von Audio- und Videosignalen und Au- dio/Video-Erfassungs- und Synchronisationssystem
Die vorliegende Erfindung betrifft ein Verfahren zur Erfassung und Synchronisation von Audio- und Videosignalen, sowie eine Mikrofoneinheit zur Erfassung und Speicherung von Audiosignalen mit Mitteln zur Synchronisation des Audiosignals mit erfassten Videosignalen. Mobile Geräte, wie Smartphones, sind häufig mit einer leistungsfähigen Kamera ausgestattet. Durch eine Zoom-Funktion können auch Ereignisse in einem in größerem Abstand von der Kamera gefilmt werden. Dies kann beispielsweise eine Aufführung auf der Bühne in einer Schulaula betreffen, bei welcher der Nutzer des mobilen Gerätes (Kameraeinheit) im Publikum sitzt und eine Videoaufnahme von dem Geschehen auf der Bühne erzeugt. Eine Audioaufnahme mit einem in der Kameraeinheit enthaltenen Mikrofon liefert oft unbefriedigende Ergebnisse, da ungewollt viele Umgebungsgeräusche aus der direkten Umgebung der Kameraeinheit aufgezeichnet werden, während das gewünschte Audiosignal - z.B. der auf der Bühne gesprochene Text - zu leise erfasst wird und in den Umgebungsgeräuschen untergeht. Zur Abhilfe kann ein externes Mikrofon verwendet werden. Dies kann beispielsweise ein Ansteck-Mikrofon sein, das ein Akteur auf der Bühne an seiner Kleidung befestigt hat und welches das von dem Akteur gesprochene oder gesungene Audiosignal, bzw. ein Gesamtaudiosignal aus seiner näheren Umgebung erfasst. Sofern ein externes Mikrofon über ein Kabel mit der Kameraeinheit verbunden ist, kann das Audiosignal von dem externen Mikrofon direkt zeitgleich und somit synchron gemeinsam mit dem erfassten Videosignal abgelegt werden. In vielen Anwendungsfällen - wie z.B. in der Aula - ist eine kabelgebundene Übertragung des Audiosignals jedoch nicht praktikabel.
Alternativ kann das von dem externen Mikrofon erfasste Audiosignal drahtlos an die Kameraeinheit übertragen werden. Aus der Drahtlos-Mikrofontechnik sind Systeme bekannt, mit denen ein Audiosignal ohne einen wahrnehmbaren Zeitversatz an einen Empfänger übertragen werden kann. Solche Systeme sind aber wegen der gegenseitigen Beeinflussung mit anderen Drahtlosstrecken nicht unkoordiniert einsetzbar und deshalb rechtlichen Restriktionen unterworfen. Für eine unkoordinierte Verwendung einer Drahtlosstrecke ist die Sendeleistung rechtlich begrenzt, sodass nur eine geringe Entfernung überbrückt werden kann. Eine sichere Übertragung von einer Bühne bis zu einem Platz im Publikum ist damit nicht zu gewährleisten.
Außerdem ist es erwünscht, das drahtlos gesendete Audiosignal ohne zusätzliche Hardware mit einer normalen Kameraeinheit, wie z.B. einem Smartphone, empfangen zu können. Für solche mobilen Endnutzergeräte stehen individualisierte drahtlose Datenübertragungsprotokolle zur Verfügung. Als Beispiel seien hier WLAN, Bluetooth, DECT oder Wifi genannt, bei denen ein Datenstrom jeweils für ein bestimmtes Endgerät vorgesehen ist und unterteilt in einzelne Datenpakete an das empfangende Endgerät übertragen wird. Bei diesen Datenübertragungsprotokollen wird jedoch ein nicht vorhersagbarer Zeitversatz bei der Übertragung jedes einzelnen Datenpaketes in Kauf genommen, da die Nutzung eines Übertragungskanals dem Protokoll gemäß zwischen mehreren Sendegeräten koordiniert wird, sodass variable Wartezeiten für den Zugriff auf den Übertragungskanal entstehen. Außerdem ist die Übertragung normalerweise bidirektional vorgesehen, wobei ein empfangendes Gerät einen erfolgreichen Empfang quittiert, und bei fehlerhafter Übertragung wird ein Datenpaket erneut übertragen, was zusätzlich zu nicht vorhersagbaren Verzögerungen führt. Insgesamt kann eine Verzögerung von mehreren Sekunden auftreten. Ein so empfangenes Audiosignal ist gegenüber dem von der Kameraeinheit erfassten Videosignal um einen nicht bekannten Betrag in so einem Maße zeitversetzt, dass der Zeitversatz beim späteren Betrachten des Video/Audiosignals störend wahrgenommen wird. Ohne zusätzliche Synchronisationsmaßnahmen ist es nicht möglich, das Audiosignal bezüglich des Videosignals nachträglich an die korrekte Stelle zu verschieben.
Als weitere Alternative zu der drahtlosen Übertragung kommt eine Speicherung des Audiosignals in der externen Mikrofoneinheit infrage. Das Audiosignal der externen Mikrofoneinheit wird dann nachträglich mit dem Videosignal von der Kameraeinheit zusammengeführt. Auch in diesem Fall ergibt sich die Problemstellung, das Audiosignal bezüglich des Videosignals nachträglich an die korrekte Stelle auf der Zeitachse zu bringen.
DE 10 2010 038 838 A1 offenbart ein drahtloses Mikrofonsystem, bei dem eine Mikrofoneinheit ein Audiosignal erfasst und gemeinsam mit "Timestamps" ablegt, und wobei eine Kameraeinheit gemeinsam mit dem Videosignal entsprechende Timestamps ablegt, und wobei die Kameraeinheit Synchronisationssignale aussendet, auf deren Basis die Mikrofoneinheit zum Videosignal passende Timestamps erzeugt.
Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zur Erfassung und Synchronisation von Audio/Videosignalen vorzusehen, die eine nachträgliche Synchronisation von zusammengehörigen Audio- und Videosignalen erlauben.
Diese Aufgabe wird durch ein Verfahren zur Erfassung und Synchronisation von Audio- /Videosignalen nach Anspruch 1 und durch ein System zur Erfassung und Synchronisation von Audio- Videosignalen nach Anspruch 7 gelöst.
Somit wird ein Verfahren zur Erfassung und Synchronisierung von Audio-/Videosignalen vorgesehen. Mindestens ein Audiosignal wird mittels mindestens einer Mikrofoneinheit erfasst. Timestamps werden erzeugt und zusammen mit dem erfassten Audiosignal in der Mikrofoneinheit gespeichert. Ein optisches Synchronisationssignal wird durch die Mikrofoneinheit ausgegeben, wobei das optische Synchronisationssignal optische Timestamps enthält, die jeweils einer der erzeugten Timestamps zugeordnet sind. Mindestens ein Videosignal wird mittels mindestens einer Kameraeinheit erfasst. Das Videosignal weist das durch die Mikrofoneinheit ausgegebene optische Synchronisationssignal zumindest teilweise auf. Die in dem optischen Synchronisationssignal enthaltenen optischen Timestamps werden extrahiert. Das Videosignal und das Audiosignal werden basierend auf den Timestamps in dem Audiosignal und den aus dem erfassten optischen Synchronisationssignal extrahierten optischen Timestamps synchronisiert.
Gemäß einem Aspekt der vorliegenden Erfindung kann die Mikrofoneinheit die Timestamps aus einem absoluten Zeitsignal erzeugen.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist die Mikrofoneinheit als ein handgehaltenes Mikrofon, ein Ansteckmikrofon oder eine über ein Kabel mit einem Mikrofon verbundene Taschensendereinheit ausgestaltet.
Die Mikrofoneinheit weist eine lichtabstrahlende Fläche zur Ausgabe des optischen Synchronisationssignals von zwischen 0,5 und 2 cm3, insbesondere 1 cm3 auf.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung kann die Mikrofoneinheit einmal aktiviert werden und das Audiosignal kann dann fortlaufend erfasst und zusammen mit den Timestamps gespeichert werden. Eine Zuuordnung eines durch die Käme- raeinheit erfassten Videosignals zu der relevanten Stelle in dem erfassten Audiosignal kann anhand der Timestamps erfolgen.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist eine Mehrzahl von erfassten Videosignalen einer Mehrzahl von Kameraeinheiten vorhanden und kann anhand der aus dem absoluten Zeitsignal erzeugten Timestamps mit den erfassten Audiosignalen nachsynchronisiert werden.
Die Erfindung betrifft ebenfalls ein System zur Erfassung und Synchronisierung von Audio-/Videosignalen. Das Mikrofon weist mindestens eine Mikrofoneinheit zum Erfassen mindestens eines Audiosignals, zum Erzeugen von Timestamps, zum Speichern des erfassten Audiosignals zusammen mit den erzeugten Timestamps und zum Ausgeben eines optischen Synchronisationssignals auf. Das optische Synchronisationssignal enthält optische Timestamps, die jeweils einem der erzeugten Timestamps zugeordnet sind. Das System weist ferner eine Kameraeinheit zum Erfassen mindestens eines Videosignals auf. Das Videosignal weist das durch die Kameraeinheit ausgegebene optische Synchronisationssignal zumindest teilweise auf. Die in dem optischen Synchronisationssignal enthaltenen optischen Timestamps werden extrahiert und das Videosignal und das Audiosignal werden basierend auf den Timestamps in dem Audiosignal und den aus dem erfassten optischen Synchronisationssignal extrahierten optischen Timestamps synchronisiert. Die Erfindung betrifft ebenfalls eine Mikrofoneinheit mit einer Mikrofonkapsel zum Erfassen von Audiosignalen, einer Timestampeinheit zum Erzeugen von Timestamps, einem Speicher zum Speichern der erfassten Audiosignale und der dazugehörigen Timestamps und einer optischen Signalabgabeeinheit zum Ausgeben eines optischen Synchronisationssignals, welches optische Timestamps enthält, die jeweils einer der erzeugten Timestamps zugeordnet sind.
Die Erfindung betrifft ebenfalls eine Kameraeinheit mit einer Steuereinheit zum Extrahieren von optischen Timestamps aus einem erfassten Videosignal und zum Synchronisieren des erfassten Videosignals mit einem durch eine externe Mikrofoneinheit erfassten Audiosignals, welches Timestamps aufweist, denen jeweils einer der optischen Timestamps zugeordnet ist, wobei anhand der optischen Timestamps und der sich in dem Audiosignal befindlichen Timestamps eine Synchronisierung erfolgen kann.
Weitere Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche. Vorteile und Ausführungsbeispiele der Erfindung werden nachstehend unter Bezugnahme auf die Zeichnungen näher erläutert.
Fig. 1 zeigt einen Anwendungsfall einer Mikrofoneinheit gemäß einem ersten
Ausführungsbeispiel,
Fig. 2 zeigt ein Blockschaltbild der Mikrofoneinheit gemäß dem ersten Ausführungsbeispiel,
Fig. 3 zeigt einen zeitlichen Ablauf eines optischen Synchronisationssignals mit eincodierten Daten,
Fig. 4 zeigt eine Anordnung von Audio- und Videosignalen mit einer Zuordnung auf der Zeitachse, und
Fig. 5 zeigt ein Blockschaltbild einer Kameraeinheit gemäß einem Ausführungsbeispiel.
Fig. 1 zeigt einen Anwendungsfall eines Mikrofons gemäß einem ersten Ausführungsbeispiel der Erfindung. Auf einer Bühne 101 befindet sich ein Akteur 102. Von einem Zuschauerraum aus wird mit einer Kameraeinheit 180 eine Videoaufnahme des Geschehens auf der Bühne erzeugt. Auf der Bühne befindet sich bei dem Akteur 102 eine Mikrofoneinheit 110. Diese kann beispielsweise als Ansteck-Mikrofon, als handgehaltenes Mikrofon oder als ein über ein Kabel mit einem Mikrofon verbundene Tascheneinheit ausgestaltet sein. Optional kann die Mikrofoneinheit 10 auch getrennt von dem Akteur, beispielsweise auf einem Mikrofonständer auf der Bühne 101 positioniert sein. Erfindungsgemäß gehört zu der Mikrofoneinheit 100 eine optische Signalabgebeeinheit 111 , die vorzugsweise als LED ausgeführt ist.
Der erfinderische Gedanke besteht darin, das von der Mikrofoneinheit 110 aufgezeichnete Audiosignal gemeinsam mit Timestamps abzulegen und über die optische Signalabgebeeinheit 111 optische Synchronisationssignale 150 abzugeben, welche zeitlich den Timestamps des Audiosignals zugeordnet sind. Das optische Synchronisationssignal 150 enthält also optische Timestamps 117b, die jeweils einer Timestamp 1 7 zugeordnet sind, welche mit dem Audiosignal abgelegt wird. Die optische Signalabgebeeinheit 111 wird so positioniert, dass sie zumindest gelegentlich optisch von der Kameraeinheit 180 erfasst werden kann. Wenn die Mikrofoneinheit 110 als Ansteckmikrofon ausgeführt ist, kann sie z.B. sichtbar an der Kleidung des Akteurs 102 befestigt werden, wobei die optische Signalabgebeeinheit 111 nicht verdeckt wird. Wenn nun mit der Kameraeinheit 180 ein Videosignal aufgezeichnet wird, auf welchem der Akteur 102 zu sehen ist, wird dabei automatisch auch die optische Signalabgebeeinheit 111 im Videosignal zu sehen sein. Durch eine spätere Auswertung des Videosignals wird es somit möglich, das optische Synchronisationssignal 150 in dem aufgezeichneten Videosignal wiederzufinden und so in dem Videosignal die Zeitpunkte aufzuspüren, die den gemeinsam mit dem Audiosignal abgelegten Timestamps entsprechen. Anhand der so erkannten Zeitpunkte im Videosignal lässt sich nachträglich über die mit dem Audiosignal gespeicherten Timestamps eine korrekte zeitliche Zuordnung zwischen Video- und Audiosignal herstellen, d. h. es kann eine Nachsynchronisation durchgeführt werden.
Der besondere Vorteil dieser "optischen Timestamps" besteht darin, dass die Kamera- einheit 180 keinerlei Vorkehrungen enthalten muss, die für eine Synchronisation mit einem externen Audiosignal gedacht sind. Eine herkömmliche Kamera kann zur Videoerfassung in einem erfindungsgemäßen System herangezogen werden, sobald sie ein optisches Synchronisationssignal 150 gemäß der Erfindung erfasst. Es ist auch nicht erforderlich, dass eine Anfangssynchronisation zwischen der Mikrofoneinheit 110 und der Kameraeinheit 180 stattfindet.
Die erfindungsgemäße korrekte zeitliche Zuordnung des Audiosignals zu einem Videosignal kann sowohl eingesetzt werden, wenn das Audiosignal mitsamt der zugehörigen Timestamps drahtlos, aber mit einem unbekannten zeitlichen Versatz an die Kameraeinheit 180 übertragen wurde, als auch wenn das Audiosignal zunächst in der Mikrofonein- heit 10 zwischengespeichert wurde und erst in einem späteren Schritt mit dem Videosignal zusammengeführt werden soll.
Fig. 2 zeigt ein Blockschaltbild der Mikrofoneinheit 110 gemäß dem ersten Ausführungsbeispiel. Zu der Mikrofoneinheit 110 gehört eine Mikrofonkapsel 112. Sie erfasst ein akustisches Audiosignal 125 und erzeugt daraus ein analoges Audiosignal 140. Ein A D- Wandler 141 erzeugt daraus ein digitales Audiosignal 113. Die Mikrofoneinheit 110 enthält einen Zeitgeber 114, der fortlaufend ein Zeitsignal 115 erzeugt. Eine Timestamp- Einheit 116 erzeugt daraus vorzugsweise in regelmäßigen Abständen digitale Timestamps 117 sowie ein dazugehöriges Lichtsteuersignal 151. Das Lichtsteuersignal 151 steuert die optische Signalabgebeeinheit 111 an, sodass sie das optisches Synchro- nisationssignal 150 abgibt, welches dann optische Timestamps 117b enthält. Eine Kombiniereinheit 118 verbindet das digitale Audiosignal 113 mit den digitalen Timestamps 117 und erzeugt dabei das Audio/Timpestamp-Signal 119. Das Audio/Tim pestamp-Signal 119 kann in einem zu der Mikrofoneinheit 110 gehörigen Speicher 120 abgelegt werden, aus dem es zur späteren Verwendung wieder ausgelesen werden kann. Optional enthält die Mikrofoneinheit 110 einen Drahtlossender 121 , über den das Audio/Timpestamp-Signal 119 als Sendesignal 122 drahtlos abgegeben wird. Auch die Ausgabe der Daten aus dem Speicher 120 kann über den Drahtlossender 121 vorgesehen sein. Die drahtlose Übertragung erfolgt vorzugsweise in einer Form, in der die Daten ohne zusätzliche Hardware mit einem normalen mobilen Endnutzergerät, wie z.B. einem Smartphone, empfangen werden können. Als Beispiele für das Übertragungsverfahren seien hier WLAN, Bluetooth, DECT oder Wifi genannt. Die drahtlose Datenübertragung 122 erfolgt vorzugsweise bidirektional, sodass beispielsweise Steuerungsdaten über diesen Weg an die Mikrofoneinheit 110 übertragen werden können.
Optional enthält die Mikrofoneinheit 110 außerdem einen Zeitzeichenempfänger 130, der gelegentlich drahtlos ein allgemein verfügbares absolutes Zeitsignal 132 von einem Zeitzeichensender (in Deutschland z.B. DCF77, in USA WWV, auch GPS enthält ein absolutes Zeitsignal) empfängt und als Absolutzeitsignal 131 an den Zeitgeber 114 übergibt. Der Zeitgeber 114, der eine interne Taktgenerierung enthält, welche allein über einen langen Zeitraum mit der absoluten Zeit auseinanderlaufen würde, kann sich jeweils beim Empfang eines Zeitzeichens 132 auf die empfangene absolute Zeit abgleichen.
In einer bevorzugten Ausführungsform sind die zur Mikrofoneinheit 110 gehörigen Elemente in einem gemeinsamen Gehäuse angeordnet, das möglichst geringe Abmessungen besitzt. Das Gehäuse weist vorzugsweise ein Halteelement auf, mit dem es an der Kleidung eines Anwenders im Sinne einer Brosche befestigt werden kann. Es kann z.B. an einem Hemd oder einem Pullover in der Nähe des Halses des Anwenders befestigt werden, um die Stimme des Anwenders zu erfassen.
Fig. 5 zeigt ein Blockschaltbild einer Kameraeinheit 180 gemäß einem Ausführungsbeispiel. Zu der Kameraeinheit 180 gehört eine optische Erfassungseinheit 182. Sie erfasst ein optisches Signal 81 , welches das optische Synchronisationssignal 150 und somit die optischen Timestamps 117b enthalten kann und erzeugt daraus ein Videosignal 183. Die Kameraeinheit 180 enthält optional einen Zeitgeber 14a, der fortlaufend ein Zeitsignal 115a erzeugt. Eine Timestamp-Einheit 116a erzeugt daraus vorzugsweise in regelmäßigen Abständen digitale Timestamps 117a. Optional verbindet eine Kombiniereinheit 118a das Videosignal 183 mit den digitalen Timestamps 117a und erzeugt dabei das Video/Timpestamp-Signal 119a. Das Video/Timpestamp-Signal 119a kann in einem zu der Kameraeinheit 180 gehörigen Speicher 120a abgelegt werden, aus dem es zur späteren Verwendung wieder ausgelesen werden kann. Optional enthält die Kameraeinheit 180 eine Drahtlos-Sende/Empfangseinheit 121a, über welche eine drahtlose bidirektionale Verbindung 122 mit der Mikrofoneinheit 110 aufgebaut werden kann. Außerdem enthält die Kameraeinheit 180 eine Steuereinheit 184, welche unter anderem zur Steuerung der Timestamp-Einheit 116a, zum Verarbeiten des Video/Timpestamp-Signals 119a aus dem Speicher 120a sowie zur Steuerung der Datenübertragung über die bidirektionale Verbindung 122 dient. Außerdem dient die Steuereinheit 184 zum Extrahieren der "optischen Timestamps" aus einem erfassten Videosignal.
Optional enthält die Kameraeinheit 180 außerdem einen Zeitzeichenempfänger 130a, der gelegentlich drahtlos ein allgemein verfügbares absolutes Zeitsignal 132 von einem Zeitzeichensender empfängt und als Absolutzeitsignal 131a an den Zeitgeber 114a übergibt. Der Zeitgeber 114a, der eine interne Taktgenerierung enthält, welche allein über einen langen Zeitraum mit der absoluten Zeit auseinanderlaufen würde, kann sich jeweils beim Empfang eines Zeitzeichens 132 auf die empfangene absolute Zeit abgleichen.
Im Folgenden wird näher auf mögliche Ausführungen des optisches Synchronisationssignals 150 eingegangen.
Im einfachsten Fall kann das optische Synchronisationssignal 150 aus kurzen Lichtimpulsen bestehen, die jeweils zu einem Zeitpunkt ausgesendet werden, zu dem die Timestamp-Einheit 116 eine Timestamp erzeugt, welche dann in das Audio/Timpestamp- Signal 119 eingefügt wird. Der zeitliche Abstand der Lichtimpulse kann z.B. 1 Sekunde betragen. Der Gedanke ist vergleichbar mit der aus der analogen Filmtechnik bekannten "Klappe": Das Audio/Timpestamp-Signal 119 enthält über die Timestamps markierte Zeitpunkte, welche jeweils zu einem Zeitpunkt gehören, der im Videosignal der Kameraeinheit 180 durch den gefilmten Lichtimpuls erkennbar ist. Sofern nur ein geringer zeitlicher Versatz (z.B. weniger als 1 Sekunde) zwischen dem Videosignal und einem dazugehörigen drahtlos übertragenen Audio/Timpestamp-Signal 119 besteht, kann das Audiosignal bezüglich des Videosignals anhand der in beiden Signalen erkennbaren markierten Zeitpunkte an die korrekte Stelle auf der Zeitachse geschoben werden.
Wenn allerdings der Zeitversatz zwischen dem empfangenen Audio/Timestamp-Signal 119 und dem Videosignal größer ist als der Abstand zwischen den Timestamps, kann eine Fehlzuordnung zwischen den Timestamps und gefilmten Lichtimpulsen vorkommen, sodass das Audiosignal verschoben gegenüber dem Videosignal zugeordnet wird, wobei der Zeitversatz dann ein ganzzahliges Vielfaches des zeitlichen Abstandes zwischen den Timestamps beträgt. Um diesem Fall entgegenzuwirken, kann ein veränderlicher Zeitabstand zwischen den Timestamps vorgesehen werden. Beispielsweise kann der zeitliche Abstand zwischen zwei Timestamps, und somit auch zwischen den zugehörigen Lichtimpulsen von 0,1 Sekunden in jedem Schritt um 0,1 Sekunden verlängert werden, also 0,1s; 0,2s; 0,3s usw. Dies kann z.B. bis zu einem Maximalabstand von 2,0 Sekunden erfolgen und dann von vorn beginnen. Bei der zeitlichen Zuordnung zwischen Audio- und Video- signal müssen dann mindestens zwei markierte Zeitpunkte im Videosignal ausgewertet werden und anhand des zeitlichen Abstandes zwischen diesen beiden Zeitpunkten kann einen Zuordnung zu der Stelle des Audiosignals erfolgen, bei dem die Timestamps den gleichen Abstand zueinander aufweisen.
In dem genannten Zahlenbeispiel entstehen 20 verschieden mögliche Abstände zwischen den Timestamps. Bei der oben vorgeschlagenen periodischen Wiederholung der Abstände kann deshalb trotzdem eine Fehlzuordnung auftreten. Um dem entgegenzuwirken, können optional beliebige (z.B. zufällige) Folgen der 20 möglichen Abstände zwischen den Timestamps vorgesehen werden und bei der Auswertung des Videosignals kann eine längere Folge von erfassten Lichtimpulsen untersucht werden, deren zeitliche Abfol- ge dann jeweils der passenden Stelle im Audio/Timestamp-Signal zugeordnet werden kann.
Für eine zweite, verbesserte Ausführung des optischen Synchronisationssignals 150 kann eine Codierung von Daten in dem optischen Synchronisationssignal 150 vorgesehen werden. Beispielsweise kann die optische Signalabgebeeinheit 111 zwei verschiede- ne Zustände aufweisen. Insbesondere kann sie z.B. als LED mit den Zuständen "hell" und "dunkel" vorgesehen sein. Wenn die LED in einem festen Zeitraster mit jeweils einem der beiden Zustände angesteuert wird, kann sie in jeden Schritt dieses Rasters ein Bit übertragen. Die Länge eines Zeitrasterschritts kann z.B. 0,1 Sekunden betragen. Somit können bis zu 10 Bits pro Sekunde übertragen werden. Die Länge eines Schrittes im Zeitraster sollte so gewählt werden, dass sich ein Bit mindestens in zwei aufeinanderfolgenden Bildern eines von der Kamera aufgezeichneten Videosignals niederschlägt, sodass eine unklare Erkennung eines Bit-Zustands in einem Bild sicher im Folgebild erkennbar ist. Bei einer Bildwiederholrate von 50 Hz sollte also die Bitrate kleiner als 25 Bits pro Sekunde gewählt werden. Fig. 3 zeigt einen möglichen zeitlichen Ablauf eines optischen Synchronisationssignals 150 mit eincodierten Daten über der Zeit t. Das Signal 150 kann zwischen den Zuständen 0 und 1 wechseln und behält diesen Zustand jeweils für eine Dauer r, die einer Schrittlänge in dem gewählten Zeitraster entspricht, bei. Jeweils zu einem Zeitpunkt TS wird eine Timestamp 117 für das Audiosignal erzeugt. Im gleichen Moment kann eine Starter- kennungs-Bitfolge 300 im Signal 150 beginnen. Anschließend können im Zeitfenster 301 nacheinander die einzelnen Bits der zu übertragenden Nutzdaten im gleichen Zeitraster abgegeben werden. Obwohl die Übertragung der Bitfolge einen längeren Zeitabschnitt in Anspruch nimmt, ist mit dem Startzeitpunkt der Starterkennungs-Bitfolge 300 ein be- stimmter Zeitpunkt definiert, der als markierter Timestamp-Zeitpunkt TS im Videosignal erkannt werden kann.
Die zu jeder Timestamp 117 über das optische Synchronisationssignal 150 abgegebenen Nutzdaten haben vorzugsweise eine feste Anzahl von Bits. Die jeweils folgende Timestamp kann sofort erzeugt werden, sobald die zu der vorherigen Timestamp gehöri- ge Bitfolge vollständig übertragen wurde. Auf diese Weise entstehen Timestamps die zeitlich äquidistant voneinander entfernt sind.
Die zu einer Timestamp 117 zu übertragenden Nutzdaten bestehen insbesondere aus einer fortlaufenden Nummerierung der einzelnen Timestamps. Somit erhält jede Timestamp eine individuelle fortlaufende Kennung, die sowohl in dem Audio/Timpestamp- Signal 19 enthalten ist, als auch aus dem Videosignal ausgelesen werden kann. Somit wird eine eindeutige Zuordnung jedes einzelnen Timestamp-Zeitpunktes in den beiden Signalen ermöglicht.
Optional können weitere Nutzdaten mittels des optischen Synchronisationssignals 150 übertragen und zusätzlich mit den Timestamps beim Audiosignal abgelegt werden. Bei- spielsweise kann dies eine individuelle Kennnummer der Mikrofoneinheit 110 sein. Dies ist vorteilhaft, wenn mehrere erfindungsgemäße Mikrofoneinheiten 110 z.B. auf einer Bühne verwendet werden, sodass mehrere optische Synchronisationssignale von der Kamera 80 im Bild erfasst werden. Außerdem kann eine Orts-, Datums- und/oder Uhrzeit-Information nützlich sein, um eine Zuordnung eines erfassten Audiosignals zu einem bei einer bestimmten Veranstaltung aufgenommenen Videosignal zu ermöglichen.
Die beiden Zustände des optischen Synchronisationssignals 150 ("hell" und "dunkel") können vorzugsweise so gewählt werden, dass der Unterschied zwischen den beiden Zuständen mit dem menschlichen Auge kaum wahrgenommen wird, um eine Störung des Betrachters zu vermeiden. Außerdem kann der Zustand "hell" so gewählt werden, dass das Leuchten der LED kaum auffällt. Die Zustände müssen lediglich so festgelegt werden, dass eine sichere Unterscheidung der beiden Zustände im Videosignal möglich ist. Für eine gute Erkennbarkeit der optischen Signalabgebeeinheit 111 im Videosignal sollte die lichtabstrahlende Fläche der optischen Signalabgebeeinheit 111 eine Mindestgröße aufweisen. Diese kann beispielsweise bei 1 Quadratzentimeter liegen. Für eine bessere Erkennbarkeit im Videosignal kann die lichtabstrahlende Fläche eine besondere Form wie beispielsweise ein Logo aufweisen. Optional können auch mehrere LEDs in einer definierten Anordnung zueinander verwendet werden. In diesem Fall kann durch eine individuelle Ansteuerung der einzelnen LEDs die Datenrate, die mit dem optischen Synchronisationssignal 150 übertragen werden kann, mit der Anzahl der verwendeten LEDs vervielfacht werden. Optional kann z.B. zu Beginn einer Veranstaltung über den Drahtlossender 121 eine bidirektionale drahtlose Verbindung zwischen einer Mikrofoneinheit 110 und einer Kameraeinheit 180 (z.B. einem Smartphone) zum Zweck der Übertragung der Audiodaten aufgebaut werden. Wenn die drahtlose Verbindung während der Veranstaltung unterbrochen wird, speichert die Mikrofoneinheit 110 trotzdem weiterhin das Audio/Timpestamp- Signal 119 im Speicher 120 ab. Optional kann die nachträgliche Übertagung der verpass- ten Abschnitte der Audiodaten aus dem Speicher 120 automatisch gestartet werden, sobald die drahtlose Verbindung zwischen den beiden Geräten wieder zur Verfügung steht.
Die drahtlose Übertragung der Audiodaten kann optional verschlüsselt erfolgen. Außer- dem können gemeinsam mit dem Audiosignal weitere Informationen zwischen der Mikrofoneinheit 110 und dem empfangenden Gerät übermittelt werden, beispielsweise: der Zustand der Batterie, für die Übertragung verwendete Funkfrequenzen, Störungen der Funkfrequenzen, aktuelle Übertragungsqualität, Level-Anpassung, Clock/Kristall- Synchronisation. Die Mikrofoneinheit 110 kann weiterhin eine Schnittstelle aufweisen, über welche sie kabelgebunden, z.B. über USB gesteuert werden kann, bzw. über die zusätzlich ein Auslesen der im Speicher 120 befindlichen Daten möglich ist.
Die Mikrofoneinheit 110 kann über einen Energiespeicher (Batterie/ Akku) und eine Bedieneinheit verfügen. Die Bedieneinheit dient dazu, die Mikrofoneinheit 110 zu aktivieren und die Audioaufnahme zu starten. Optional ist über die bidirektionale drahtlose Verbin- dung mit einem externen Gerät wie z.B. einem Smartphone eine Steuerung der Mikrofoneinheit 110 möglich. Insbesondere kann über diese drahtlose Verbindung die Audioaufnahme gestartet und gestoppt werden. Wie bereits erwähnt kann der fortlaufende Bestand einer drahtlosen Verbindung z.B. während einer Veranstaltung nicht sicher gewährleistet werden. Typischerweise werden nur einzelne Abschnitte einer Veranstaltung mit einer Kameraeinheit 180 aufgezeichnet. Wenn nun keine drahtlose Verbindung zu der Mikrofoneinheit 110 zur Verfügung steht, ist eine externe Aktivierung der Mikrofoneinheit 110 von der Kameraeinheit 180 aus nicht möglich, sodass in diesem Fall kein Audiosignal von der Mikrofoneinheit 110 zur Verfügung gestellt wird. Durch die eindeutige Zuordnung der einzelnen Timestamps zwischen Audio- und Videosignal ergibt sich aber eine Anwendungsmöglichkeit, die dieses Problem löst: Die Mikrofoneinheit 110 wird lediglich vor Beginn der Veranstaltung einmalig aktiviert und zeichnet das Audiosignal während der gesamten Veranstaltung fortlaufend auf. Erst nach Ende der Veranstaltung wird die Audioaufnahme gestoppt. Wenn nun ein einzelner Abschnitt der Veranstaltung mit einer Kameraeinheit 180 gefilmt wird, genügt es, wenn aus diesem Abschnitt des Videosignals die vollständige Kennung einer einzigen Timestamp zu entnehmen ist. Bei einer späteren Zusammenführung des gesamten aufgezeichneten Audiosignals mit dem Videosignal, das nur den Abschnitt der Veranstaltung enthält, kann anhand dieser Kennung genau der Abschnitt aus dem Audiosignal herausgenommen werden, der zu dem auf dem Video erfassten Abschnitt gehört und dann an der korrekten Stelle der Zeitachse zugeordnet werden.
Aus dieser nachträglichen Zusammenführbarkeit ergeben sich weitere Anwendungsmög- lichkeiten. Wenn z.B. mehrere Eltern bei einer Aufführung in einer Schulaula Videoaufnahmen von einer Veranstaltung gemacht haben und dabei ein Kind auf der Bühne eine Mikrofoneinheit 110 gemäß der Erfindung getragen hat, ist eine nachträgliche Zusammenführung von mehreren Video- und Audioaufzeichnungen möglich. Die Eltern könnten sich z.B. verabreden, alle ihre Audio- und Videoaufzeichnungen der Veranstaltung über das Internet in einer Dropbox abzulegen und so einander zur Verfügung zu stellen. Eine zentrale Rolle kommt dann dem von der vollständigen Veranstaltung vorliegenden Au- dio/Timpestamp-Signal 119 zu. Hier ist für die gesamte Veranstaltung eine fortlaufende Zeitachse vorhanden. Jede einzelne Videosequenz, aus der die vollständige Kennung einer einzigen Timestamp zu entnehmen ist, kann damit an ihre korrekte Position auf der Zeitachse gelegt werden. Ein gemeinsam mit einer Videosequenz abgelegtes Audiosignal ist dann gemeinsam mit der Videosequenz automatisch richtig auf der Zeitachse angeordnet. Mit einer entsprechende Software kann dann jeder Anwender individuell zwischen den verschiedenen Blickwinkeln und Audiosignalen hin- und herschalten. Beispielsweise kann ein Anwender somit ein Video zusammenstellen, in welchem er eine zusammenge- hörige fortlaufende Sequenz seines eigenen Kindes (z.B. ein Lied, das das Kind singt, wobei das Audiosignal durchlaufend von der Mikrofoneinheit 110 verwendet werden kann) mit wechselnden Kameraperspektiven zusammenfügt.
Fig. 4 zeigt eine Anordnung von Audio- und Videosignalen mit einer Zuordnung auf der Zeitachse. Über der Zeitachse t sind in der unteren Hälfte Audiosequenzen und in der oberen Hälfte Videosequenzen dargestellt. Die Audiosequenz 400 entspricht dem von der vollständigen Veranstaltung vorliegenden Audio/Timpestamp-Signal 119. Die Videosequenz 411 wurde mittels mindestens einer darin identifizierten Timestamp korrekt auf der Zeitachse angeordnet. Die Audiosequenz 401 gehört zu der Videosequenz 411 und konnte somit zeitlich parallel zu der Videosequenz 411 auf der Zeitachse abgelegt wer- den. Entsprechend wurde die Videosequenz 413 mit der zugehörigen Audiosequenz 403 an der richtigen Stelle der Zeitachse positioniert. Gleiches gilt für die Videosequenz 412 mit der zugehörigen Audiosequenz 402 und für die Videosequenz 414 mit der zugehörigen Audiosequenz 404. Eine Darstellung wie in Fig. 4 ist aus gängiger Anwendungssoftware zur Audio-/Videobearbeitung bekannt. Der Nutzer kann beim Zusammenfügend seiner Wunschsequenz frei zwischen den einzelnen korrekt positionierten Audio- und Videokanälen wechseln.
Um den Anwendungsfall mit der Zusammenführung mehrerer Videosignale zu unterstützen, kann die Mikrofoneinheit 110 z.B. auf einem Mikrofonständer auf der Bühne so befestigt werden, dass sie während der gesamten Veranstaltung vom Zuschauerraum aus sichtbar ist. So wird die Wahrscheinlichkeit erhöht, dass das optische Synchronisationssignal 150 auf den Videosequenzen zu erkennen ist. Für eine solche Zusammenführung von Videosignalen ist es theoretisch sogar möglich, auf das Audiosignal 113 zu verzichten. Das Audio/Timpestamp-Signal 119 enthält dann nur die Timestamps, anhand derer sich die Videosequenzen zeitlich verteilen lassen, auf denen das optische Synchro- nisationssignal 150 zu sehen ist.
Eine weitere Ausführungsform ergibt sich durch eine Verwendung der absoluten Zeit, auf die sich der Zeitgeber 114 anhand des Zeitzeichenempfängers 130 abgleicht. Anstelle einer fortlaufenden Nummerierung der Timestamps können die Timestamps sowie die mittels des optischen Synchronisationssignals 150 übertragenen Daten eine Angabe der absoluten Zeit enthalten. Die oben beschriebe Anwendung bleibt in vollem Umfang erhalten. Zusätzlich ergibt sich aber der Vorteil, dass sich mehrere erfindungsgemäße Mikrofoneinheiten 1 0 auf die gleiche von einem externen Zeitzeichensender bereitgestellte absolute Zeit synchronisieren. Wenn dann mehrere Mikrofoneinheiten 110 in einer Videosequenz zu sehen sind, so senden diese alle das gleiche optische Synchronisati- onssignal 150 aus. Außerdem legen sie jeweils Timestamps mit der gleichen absoluten Zeit in ihrem jeweiligen Audio/Timpestamp-Signal 119 ab. Somit ist auch eine nachträgliche zeitlich korrekte Zusammenführung der Audiosignale von mehreren Mikrofoneinheiten 110 problemlos gewährleistet. Wenn also bei dem Anwendungsfall in der Aula mehrere Kinder mit einer erfindungsgemäßen Mikrofoneinheit 1 0 ausgestattet sind, kann beim Zusammenfügen gemäß Fig. 4 auch zwischen den Mikrofonsignalen der verschiedenen Kinder gewählt werden. Gleiches gilt für eine zusätzliche auf einem Mikrofonständer auf der Bühne angebrachte Mikrofoneinheit 110.
Eine weitere Ausführungsform betrifft die Kameraeinheit 180. Optional kann auch die Kameraeinheit 180 genauso wie die Mikrofoneinheit 110 über einen Zeitgeber 114 verfügen, welcher sich über einen Zeitzeichenempfänger 130 mit der absoluten Zeit von einem Zeitzeichensender abgleicht. Eine Timestamp-Einheit 116 in der Kameraeinheit 180 kann dann genau wie in der Mikrofoneinheit 110 Timestamps 117 erzeugen, welche die absolute Zeit enthalten und diese gemeinsam mit dem Videosignal ablegen. Ein solches Video/Timestamp-Signal kann auch ohne die Erfassung eines optischen Synchronisationssignals 150 stets an der korrekten Position der Zeitachse abgelegt werden. Der besondere Vorteil der Nutzung eines externen Zeitzeichensenders für alle zeitlich korrekt zusammenzuführenden Signale ergibt sich daraus, dass stets eine korrekte identische absolute Zeit verwendet wird, ohne dass sich die aufzeichnenden Geräte vorher unterei- nander abgleichen müssten.
Der Gedanke liegt nahe, dass sich z.B. eine Mikrofoneinheit 110 (ohne Nutzung der absoluten Zeit) lediglich einmal vor einer Veranstaltung mit einer Kameraeinheit 180, wie z.B. einem Smartphone synchronisieren muss, und dann beide Geräte anhand eines jeweiligen internen Zeitgebers 114 und 1 4a hinreichend genau Timestamps zu den aufgezeichneten Signalen erzeugen können. Ein Problem liegt aber in der Synchonisation zwischen diesen beiden Geräten, die über eins der verfügbaren drahtlosen Übertragungsprotokolle wie z.B. WLAN, Bluetooth, DECT oder Wifi erfolgen könnte. Wie eingangs erläutert, weisen solche individualisierten drahtlosen Datenübertragungsprotokolle Prinzip bedingt einen nicht vorhersagbaren Zeitversatz bei der Übertragung auf, sodass eine hinreichend genaue Synchronisation über diesen Weg nicht zu gewährleisten ist. Ein für beide Geräte gleichzeitig bereitgestelltes Signal eines Zeitzeichensenders hat dieses Problem hingegen nicht.
In einer weiteren Ausführungsform der Erfindung lässt sich der Gedanke einer einmaligen Synchronisation zwischen der Kameraeinheit 180 und der Mikrofoneinheit 110 vor Beginn einer Veranstaltung aber umsetzen. In einer Initialisierungsprozedur, welche der Anwender vor der Veranstaltung durchführt, wird zunächst eine drahtlose Verbindung 122 zwischen der Mikrofoneinheit 110 und der Kameraeinheit 180 aufgebaut.
Optional kann in der Kameraeinheit 180 eine Software laufen, welches ein Bedieninter- face für die Mikrofoneinheit 110 bietet und auf dieser Basis z.B. mithilfe der bidirektionalen Datenübertragung 122 eine drahtlose oder drahtgebundene Steuerung der Mikrofoneinheit durchführt. Beispielsweise kann die Kameraeinheit 180 ein Smartphone sein, auf dem eine entsprechende App läuft, und die Verbindung mit der Mikrofoneinheit 110 erfolgt über Bluetooth, oder WLAN, bzw. während der Initialisierungsphase kabelgebun- den über USB.
Nach dem Aufbau der Verbindung zwischen den beiden Geräten filmt der Anwender zur Initialisierung die Mikrofoneinheit 1 0 aus der Nähe mit der Kameraeinheit 180 und erzeugt dabei eine Initialisierungsvideosequenz.
Entweder durch Betätigen einer Bedieneinheit an der Mikrofoneinheit 110 oder durch Senden eines Steuerbefehls von der Kameraeinheit 180 an die Mikrofoneinheit 110 wird die Mikrofoneinheit veranlasst wie oben beschrieben erfindungsgemäß eine Timestamp zu erzeugen und mit einem Audio/Timestamp-Signal 119 abzuspeichern sowie über die optische Signalsendeeinheit 111 eine zugehörige optische Kennung des Timestamp- Zeitpunktes abzugeben, wobei in dieser Ausführungsform ein einziger Lichtimpuls ge- nügt.
Die Kameraeinheit 180 enthält einen eigenen Zeitgeber 114a und die auf der Kameraeinheit 180 laufende Software erzeugt bei der Erzeugung der Initialisierungsvideosequenz aus dem eigenen Zeitgeber 114a Zeitkennungen, welche sie gemeinsam mit der zur Initialisierung gefilmten Videosequenz ablegt. Sodann wird in der Kameraeinheit 180 mithilfe der Software die Initialisierungsvideosequenz ausgewertet. Dabei wird in der Initialisierungsvideosequenz der Zeitpunkt gesucht, zu welchem die Mikrofoneinheit 110 eine Timestamp gesetzt hat, und der optisch entsprechend markiert ist. Anhand der mit der Initialisierungsvideosequenz abgespeicherten kameraeigenen Zeitkennungen lässt sich eine genaue zeitliche Beziehung zwischen dem Zeitgeber 114 in der Mikrofoneinheit 110 und dem Zeitgeber 114a in der Kameraeinheit 180 bestimmen.
Anhand der ermittelten Zeitdifferenz zwischen den Timestamps 117 der Mikrofoneinheit 110 und den Zeitkennungen in der Initialisierungsvideosequenz, die aus dem Zeitgeber 114a der Kameraeinheit 180 abgeleitet sind, kann für die spätere Nutzung der Kameraeinheit 180 eine Erzeugung von Timestamps 117a auf Basis des Zeitgebers 114a vorgesehen werden, die mit der Erzeugung der Timestamps 117 in der Mikrofoneinheit 110 abgeglichen ist. Bei der anschließenden Nutzung der Kameraeinheit 180 während der Veranstaltung erzeugt diese aus ihrem internen Zeitgeber 1 4a also in gleicher weise wie die Mikrofoneinheit 110 eigene Timestamps 117a und legt diese gemeinsam mit dem aufgezeichneten Videosignal als Video/Timpestamp-Signal 1 9a ab.
Die Zeitgeber 114 und 4a sind normalerweise hinreichend genau, als dass sie über mehrere Stunden hinreichen gleich laufen, um eine zeitlich hinreichend genaue Zuordnung zwischen dem so markierten Audio/Timpestamp-Signal 119 und dem Video Timpestamp-Signal 119a zu erlauben.
Anstelle der kameraseitigen Anpassung an die Timestamps der Mikrofoneinheit kann auch umgekehrt die Erzeugung der Timestamps 117 in der Mikrofoneinheit 110 an den Kamera-Zeitgeber 114a angepasst werden. Dazu wird die in der Kameraeinheit 180 ermittelte Zeitdifferenz zwischen den Timestamps 117 der Mikrofoneinheit 110 und den Zeitkennungen in der Initialisierungsvideosequenz an die Mikrofoneinheit 110 übertragen und dort zur Erzeugung von Timestamps 117 herangezogen, die dann zu den Timestamps 117a aus der Kameraeinheit 180 synchron sind. Als weitere Option kann der aus der Initialisierungsvideosequenz ermittelte Zeitversatz abgespeichert werden und erst bei der späteren Zusammenführung des Audio/Timpestamp-Signals 119 aus der Mikrofoneinheit 110 mit dem Video/Timpestamp-Signal 119a aus der Kameraeinheit 180 herangezogen werden, wobei die Timestamps 117 der Mikrofoneinheit und 117a der Kameraeinheit ohne einen vorherigen Abgleich aufeinander erzeugt werden können. In jedem der Fälle ist auf Basis des Zeitabgleichs aus der beschriebenen Initialisierungsprozedur eine zeitlich korrekte Zusammenführung des Audio/Timpestamp-Signals 119 aus der Mikrofoneinheit 1 0 mit dem Video/Timpestamp-Signal 119a aus der Kameraeinheit 180 möglich. Das gilt sowohl für eine zeitnahe, jedoch nicht synchron laufende drahtlosen Übertragung 122 des Audio Timpestamp-Signals 119 an die Kameraeinheit 180 als auch für eine spätere Verarbeitung, bei der die beiden Signale nachträglich zusammengeführt werden. In Folgenden ist ein bevorzugter Anwendungsfall unter Anwendung der Initialisierungsprozedur beschrieben. Vor einer Veranstaltung stellt der Anwender eine drahtlose Verbindung 122 zwischen der Mikrofoneinheit 110 und der Kameraeinheit 180 her und führt die Initialisierungsprozedur wie beschrieben durch. Die drahtlose bidirektionale Verbin- dung 122 wird von beiden Seiten während der Veranstaltung als verbunden eingestuft, auch falls über einen längeren Zeitraum keine Datenübertragung zustande kommt. Die Mikrofoneinheit 110 erzeugt während der gesamten Veranstaltung ein Au- dio/Timpestamp-Signal 1 9 und legt es im Speicher 120 ab. Wenn nun der Nutzer mit der Kameraeinheit 180 eine Videosequenz erzeugt, werden dabei Timestamps 117a mit dem Videosignal abgelegt. Die Kameraeinheit fordert direkt nach dem Starten der Videoaufnahme über die Verbindung 122 bei der Mikrofoneinheit 110 den Ausschnitt des Au- dio/Timpestamp-Signals 119 an, der zu der gerade gestarteten Videosequenz gehört. Sobald die Kameraeinheit das angeforderte Audio/Timpestamp-Signal 119 empfangen hat, sortiert die Kameraeinheit das empfangene Audiosignal anhand der Timestamps zeitlich korrekt dem Videosignal zu und legt die Kombination in der Kamera als Audio/Video-Signal ab. Wenn die drahtlose Verbindung 122 zu dem Zeitpunkt der Videoaufnahme nicht zur Verfügung steht, so wiederholt die Kameraeinheit (ohne Zutun des Anwenders) die Anfragen nach fehlenden Abschnitten des Audio/Tim pestamp-Signals 119 sobald wieder Daten über die Verbindung 122 übertragen werden können und führt eine korrekte Zuordnung zu den erstellten Videosequenzen her. Spätestens wenn der Anwender nach Ender Veranstaltung die Mikrofoneinheit an sich nimmt und sich dabei die Mikrofoneinheit 110 und die Kameraeinheit 180 in unmittelbarer Nähe zueinander befinden, wird eine Datenübertragung über den Weg 122 stattfinden und die fehlenden Audiodaten zu den während der Veranstaltung erstellten Videosequenzen an die Kame- raeinheit übertragen. Ohne weiteres Zutun des Anwenders wird er also auf seiner Kameraeinheit anschließend Audio-Video-Sequenzen vorfinden, bei denen die mit der Mikrofoneinheit 110 ermittelten Audiosignale zeitlich korrekt mit den während der Veranstaltung erstellten Videosequenzen abgespeichert sind.
Optional können in den Timestamps sowohl in einer Mikrofoneinheit 110 als ggf. auch in einer Kameraeinheit 80 Informationen über den Ort eingefügt werden, an dem sich das Gerät gerade befindet. Zusätzlich kann auch eine Ausrichtung im Raum, die z.B. über einen Kompass und/oder einen Schwerkraftsensor (Beschleunigungssensor) ermittelt wurde, in die Timestamps eingefügt werden.
Die Auswertung der Videosignale erfolgt über eine entsprechende Software beispielswei- se in der Steuereinheit 184. Hier muss mithilfe einer Mustererkennung über mehrere aufeinander folgende Videobilder hinweg die Stelle im Bild erkannt werden, an der die optische Signalabgebeeinheit 111 abgebildet ist. Sodann muss jeweils eine Abfolge von Videobilden untersucht werden, in denen festgestellt wird, in welchem ihrer beiden Zustände sich die optische Signalabgebeeinheit 111 jeweils befindet. Aus der Untersuchung der Abfolge der Bilder lässt sich die von der optischen Signalabgebeeinheit 111 ausgesendete Bitfolge ermitteln. In dieser Bitfolge muss sodann eine Starterkennungs-Bitfolge
300 gesucht werden. Das Bild, in dem die Starterkennungs-Bitfolge 300 beginnt, wird dann der Timestamp TS zugeordnet, die sich anhand der danach gesendeten Bitfolge
301 individuell identifizieren lässt.

Claims

Ansprüche
1. Verfahren zur Erfassung und Synchronisierung von Audio/Video-Signalen, mit den Schritten:
Erfassen mindestens eines Audiosignals (140) mittels mindestens einer Mikrofo- neinheit (110),
Erzeugen von Timestamps (117) und Speichern des erfassten Audiosignals (140) zusammen mit den erzeugten Timestamps (117) in der Mikrofoneinheit (110),
Ausgeben eines optischen Sychronisationsignals (150) durch die Mikrofoneinheit (110), wobei das optische Sychronisationsignal (150) optische Timestamps (117b) ent- hält, die jeweils einer der erzeugten Timestamps (117) zugeordnet sind,
Erfassen mindestens eines Videosignals mittels mindestens einer Kameraeinheit (180), wobei das Videosignal das durch die Mikrofoneinheit (110) ausgegebene optischen Sychronisationsignal ( 50) zumindest teilweise aufweist,
Extrahieren der in dem optischen Sychronisationsignal (150) enthaltenen optischen Timestamps (117b), und
Synchronisieren des Videosignals und des Audiosignals (140) basierend auf den Timestamps (117) in dem Audiosignal und den aus dem erfassten optischen Sychronisationsignal (150) extrahierten optischen Timestamps (117b).
2. Verfahren nach Anspruch 1 , wobei
die Timestamps (117) in der Mikrofoneinheit (110) aus einem absoluten Zeitsignal
(132) erzeugt werden.
3. Verfahren nach Anspruch 1 oder 2, wobei
die Mikrofoneinheit (110) ein handgehaltenes Mikrofon, ein Ansteckmikrofon oder als ein über ein Kabel mit einem Mikrofon verbundene Taschensendereinheit darstellt.
4. Verfahren nach einem der Ansprüche 1 bis 3, wobei
die Mikrofoneinheit (110) eine lichtabstrahlende Fläche zur Ausgabe des optischen Synchronisationssignals ( 50) von zwischen 0.5 und 2 cm3, insbesondere 1cm3 aufweist.
5. Verfahren nach einem der Ansprüche 1 bis 4, wobei
die Mikrofoneinheit (110) einmal aktiviert wird und dann das Audiosignal (140) fort- laufend erfasst und zusammen mit den Timestamps (117) gespeichert wird, wobei eine Zuordnung eines durch die Kameraeinheit (180) erfassten Videosignals zu der relevanten Stelle in dem erfassten Audiosignals anhand der Timestamps (117) erfolgt.
6. Verfahren nach einem der Ansprüche 2 bis 5, wobei
eine Mehrzahl von erfassten Videosignalen einer Mehrzahl von Kameraeinheiten (180) anhand der aus einem absoluten Zeitsignal (132) erzeugten Timestamps mit den erfassten Audiosignalen nachsynchronisiert werden können.
7. System zur Erfassung und Synchronisierung von Audio/Video-Signalen, mit:
mindestens einer Mikrofoneinheit (110) zum Erfassen mindestens eines Au- diosignals (140), zum Erzeugen von Timestamps (117), zum Speichern des erfassten Audiosignals (140) zusammen mit den erzeugten Timestamps (117), und zum Ausgeben eines optischen Sychronisationsignals (150), wobei das optische Sychronisationsignal (150) optische Timestamps (117b) enthält, die jeweils einer der erzeugten Timestamps (117) zugeordnet sind, und
- mindestens eine Kameraeinheit (180) zum Erfassen mindestens eines Videosignals, wobei das Videosignal das durch die Mikrofoneinheit (110) ausgegebene optischen Sychronisationsignal (150) zumindest teilweise aufweist, wobei die in dem optischen Sychronisationsignal enthaltenen optischen Timestamps (117b) extrahiert werden, und das Videosignal und das Audiosignal (140) basierend auf den Timestamps (117) in dem Audiosignal und den aus dem erfassten optischen Sychronisationsignal (150) extrahierten optischen Timestamps (1 7b) synchronisiert werden.
8. Mikroneinheit (110), mit
einer Mikrofonkapsel (112) zum Erfassen von Audiosignalen,
einer Timestampeinheit (116) zum Erzeugen von Timestamps (117),
einem Speicher (120) zum Speichern der erfassten Audiosignale und der dazugehörigen Timestamps, und
einer optischen Signalabgebeeinheit (111) zum Ausgeben eines optischen Sychronisationsignals (150), welches optische Timestamps (117b) enthält, die jeweils einer der erzeugten Timestamps (117) zugeordnet sind.
9. Kameraeinheit (180), mit
einer Steuereinheit (184) zum Extrahieren von optischen Timestamps ( 17b) aus einem erfassten Videosignal, und zum Synchronisieren des erfassten Videosignals mit einem durch eine externe Mikrofoneinheit (110) erfassten Audiosignal, welches Timestamps (117) aufweist, denen jeweils eine der optischen Timestamps (117b) zugeordnet ist, anhand der optischen Timestamps (117b) und der sich in dem Audiosignal befindlichen Timestamps (117).
PCT/EP2016/057915 2015-04-10 2016-04-11 Verfahren zur erfassung und synchronisation von audio- und videosignalen und audio/video-erfassungs- und synchronisationssystem WO2016162560A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112016001672.7T DE112016001672A5 (de) 2015-04-10 2016-04-11 Verfahren zur Erfassung und Synchronisation von Audio- und Videosignalen und Audio/Video-Erfassungs- und Synchronisationssystem
US15/560,827 US10567827B2 (en) 2015-04-10 2016-04-11 Method of detecting and synchronizing audio and video signals and audio/video detection and synchronization system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562145690P 2015-04-10 2015-04-10
US62/145,690 2015-04-10

Publications (1)

Publication Number Publication Date
WO2016162560A1 true WO2016162560A1 (de) 2016-10-13

Family

ID=55794950

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2016/057915 WO2016162560A1 (de) 2015-04-10 2016-04-11 Verfahren zur erfassung und synchronisation von audio- und videosignalen und audio/video-erfassungs- und synchronisationssystem

Country Status (3)

Country Link
US (1) US10567827B2 (de)
DE (1) DE112016001672A5 (de)
WO (1) WO2016162560A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017123319A1 (de) 2017-10-09 2019-04-11 Sennheiser Electronic Gmbh & Co. Kg Verfahren und System zur Erfassung und Synchronisation von Audio- und Videosignalen und Audio/Video-Erfassungs- und Synchronisationssystem
WO2019081633A1 (de) * 2017-10-25 2019-05-02 Mikme Gmbh Synchronisiertes aufnehmen von video und audio mit drahtlos verbundenen video- und audioaufnahmevorrichtungen

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9554207B2 (en) 2015-04-30 2017-01-24 Shure Acquisition Holdings, Inc. Offset cartridge microphones
US9565493B2 (en) 2015-04-30 2017-02-07 Shure Acquisition Holdings, Inc. Array microphone system and method of assembling the same
US10367948B2 (en) 2017-01-13 2019-07-30 Shure Acquisition Holdings, Inc. Post-mixing acoustic echo cancellation systems and methods
US10177958B2 (en) * 2017-02-07 2019-01-08 Da Sheng Inc. Method for synchronously taking audio and video in order to proceed one-to-multi multimedia stream
EP3804356A1 (de) 2018-06-01 2021-04-14 Shure Acquisition Holdings, Inc. Musterbildende mikrofonanordnung
US11297423B2 (en) 2018-06-15 2022-04-05 Shure Acquisition Holdings, Inc. Endfire linear array microphone
WO2020061353A1 (en) 2018-09-20 2020-03-26 Shure Acquisition Holdings, Inc. Adjustable lobe shape for array microphones
TW202044236A (zh) 2019-03-21 2020-12-01 美商舒爾獲得控股公司 具有抑制功能的波束形成麥克風瓣之自動對焦、區域內自動對焦、及自動配置
EP3942842A1 (de) 2019-03-21 2022-01-26 Shure Acquisition Holdings, Inc. Gehäuse und zugehörige konstruktionsmerkmale für mikrofone einer deckenanordnung
US11558693B2 (en) 2019-03-21 2023-01-17 Shure Acquisition Holdings, Inc. Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition and voice activity detection functionality
EP3973716A1 (de) 2019-05-23 2022-03-30 Shure Acquisition Holdings, Inc. Steuerbare lautsprecheranordnung, system und verfahren dafür
JP2022535229A (ja) 2019-05-31 2022-08-05 シュアー アクイジッション ホールディングス インコーポレイテッド 音声およびノイズアクティビティ検出と統合された低レイテンシオートミキサー
CN114467312A (zh) 2019-08-23 2022-05-10 舒尔获得控股公司 具有改进方向性的二维麦克风阵列
US12028678B2 (en) 2019-11-01 2024-07-02 Shure Acquisition Holdings, Inc. Proximity microphone
US11552611B2 (en) 2020-02-07 2023-01-10 Shure Acquisition Holdings, Inc. System and method for automatic adjustment of reference gain
WO2021243368A2 (en) 2020-05-29 2021-12-02 Shure Acquisition Holdings, Inc. Transducer steering and configuration systems and methods using a local positioning system
CN114374871B (zh) * 2020-10-15 2023-11-14 瑞昱半导体股份有限公司 串流媒体的时戳处理方法
US11522929B2 (en) * 2020-12-21 2022-12-06 Arris Enterprises Llc Providing synchronization for video conference audio and video
WO2022165007A1 (en) 2021-01-28 2022-08-04 Shure Acquisition Holdings, Inc. Hybrid audio beamforming system
US20230259323A1 (en) * 2022-02-16 2023-08-17 Shure Acquisition Holdings, Inc. Wireless microphone system and methods for synchronizing a wireless transmitter and a wireless receiver
CN114845004B (zh) * 2022-07-04 2022-10-25 杭州兆华电子股份有限公司 一种音视频同步实现方法及声学成像方法
JP2024093677A (ja) * 2022-12-27 2024-07-09 キヤノン株式会社 録音装置、撮像装置、制御方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110085025A1 (en) * 2009-10-13 2011-04-14 Vincent Pace Stereographic Cinematography Metadata Recording
DE102010038838A1 (de) 2010-08-03 2012-02-09 Sennheiser Electronic Gmbh & Co. Kg Audio- und/oder Videoübertragungssystem
WO2013116777A1 (en) * 2012-02-03 2013-08-08 Vispx Llc Video frame marking

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001119783A (ja) * 1999-10-15 2001-04-27 Phone Or Ltd マイクロフォン付ビデオカメラ
US7706821B2 (en) * 2006-06-20 2010-04-27 Alon Konchitsky Noise reduction system and method suitable for hands free communication devices
JP6715834B2 (ja) * 2014-11-12 2020-07-01 サニーブルック リサーチ インスティチュート 磁化率光変調マーカを用いた磁気共鳴画像化によるデバイス追跡のためのシステム及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110085025A1 (en) * 2009-10-13 2011-04-14 Vincent Pace Stereographic Cinematography Metadata Recording
DE102010038838A1 (de) 2010-08-03 2012-02-09 Sennheiser Electronic Gmbh & Co. Kg Audio- und/oder Videoübertragungssystem
WO2013116777A1 (en) * 2012-02-03 2013-08-08 Vispx Llc Video frame marking

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017123319A1 (de) 2017-10-09 2019-04-11 Sennheiser Electronic Gmbh & Co. Kg Verfahren und System zur Erfassung und Synchronisation von Audio- und Videosignalen und Audio/Video-Erfassungs- und Synchronisationssystem
WO2019072598A1 (de) 2017-10-09 2019-04-18 Sennheiser Electronic Gmbh & Co. Kg Verfahren und system zur erfassung und synchronisation von audio- und videosignalen und audio/video-erfassungs- und synchronisationssystem
WO2019081633A1 (de) * 2017-10-25 2019-05-02 Mikme Gmbh Synchronisiertes aufnehmen von video und audio mit drahtlos verbundenen video- und audioaufnahmevorrichtungen
US12063409B2 (en) 2017-10-25 2024-08-13 Tymphany Worldwide Enterprises Limited Synchronized recording of audio and video with wirelessly connected video and audio recording devices

Also Published As

Publication number Publication date
US20180115799A1 (en) 2018-04-26
DE112016001672A5 (de) 2018-01-04
US10567827B2 (en) 2020-02-18

Similar Documents

Publication Publication Date Title
WO2016162560A1 (de) Verfahren zur erfassung und synchronisation von audio- und videosignalen und audio/video-erfassungs- und synchronisationssystem
EP1343326B1 (de) Überwachungssystem mit mehreren Videokameras
DE102008017933B4 (de) Verfahren und Vorrichtung zur Synchronisation von Kamerasystemen
DE60037611T2 (de) Schaltung zwischen digitalen Kameras in einem Überwachungssystem
DE112011105104B4 (de) Kollaborative Bildsteuerung
DE3222993C2 (de) Synchronisationsvorrichtung für ein Funk-Sende-Empfangssystem
DE69609070T2 (de) Bus- und schnittstellensystem für digitale verbrauchervorrichtungen
DE102015210790A1 (de) Verfahren und Vorrichtung zum Synchronisieren von Kamerablenden in einem fahrzeuginternen Ethernet-Kommunikationsnetzwerk
DE102017123319A1 (de) Verfahren und System zur Erfassung und Synchronisation von Audio- und Videosignalen und Audio/Video-Erfassungs- und Synchronisationssystem
EP2700221B1 (de) Verfahren zum synchronisierten betrieb einer kamera und eines projektors, system zur erzeugung von 3d bildern
US20150029396A1 (en) Networked programmable timecode and metadata transfer system
DE60013725T2 (de) System zur Folgeauslösung mehrerer Kameras
CN103673996A (zh) 一种便于获得良好航拍音效的方法
DE2639363A1 (de) Anordnung zum drahtlosen steuern mehrerer voneinander unabhaengiger objekte
EP3668105B1 (de) Synchronisation in einem sensornetzwerk
WO2007110822A1 (en) Method and apparatus for synchronising recording of multiple cameras
WO1999049665A1 (de) Videosignale-multiplexierungsvorrichtung
DE102019134009B3 (de) Digitale Bewegtbildkamera
DE102010038838A1 (de) Audio- und/oder Videoübertragungssystem
DE69523201T2 (de) Verfahren und Vorrichtung zur Wiedergabe einer von einer entfernten Quelle empfangenen digitalen Bildfolge
DE102017124984B4 (de) Synchronisiertes Aufnehmen von Video und Audio mit drahtlos verbundenen Video- und Audioaufnahmevorrichtungen
US9049385B1 (en) Tool for synchronizing video media clips
EP3767957A1 (de) Verfahren zur übertragung von videoinformation an ein telekommunikationsgerät, wobei die videoinformation eine mehrzahl an videoinformationsströmen umfasst, system, telekommunikationsgerät, inhaltebezogene hintergrund-servereinrichtung, computerprogramm und computerlesbares medium
DE102009059794A1 (de) Kamera-Projektor-System und ein Verfahren zum Auslösen einer Kamera
EP0871946A1 (de) Datenübertragungssystem mit mindestens einem sender und mindestens einem empfänger sowie verfahren zur initialisierung des systems und zur sender-empfänger-synchronisation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16717312

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15560827

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112016001672

Country of ref document: DE

REG Reference to national code

Ref country code: DE

Ref legal event code: R225

Ref document number: 112016001672

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16717312

Country of ref document: EP

Kind code of ref document: A1