EP1520362A1 - Drahtloses audiosignalübertragungsverfahren für ein raumklangsystem - Google Patents

Drahtloses audiosignalübertragungsverfahren für ein raumklangsystem

Info

Publication number
EP1520362A1
EP1520362A1 EP03740365A EP03740365A EP1520362A1 EP 1520362 A1 EP1520362 A1 EP 1520362A1 EP 03740365 A EP03740365 A EP 03740365A EP 03740365 A EP03740365 A EP 03740365A EP 1520362 A1 EP1520362 A1 EP 1520362A1
Authority
EP
European Patent Office
Prior art keywords
data
frequency
audio signal
signals
transmitter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP03740365A
Other languages
English (en)
French (fr)
Inventor
Miodrag Temerinac
Hans Fiesel
Christian Bock
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Trident Microsystems (Far East) Ltd
Original Assignee
TDK Micronas GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TDK Micronas GmbH filed Critical TDK Micronas GmbH
Publication of EP1520362A1 publication Critical patent/EP1520362A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/86Arrangements characterised by the broadcast information itself
    • H04H20/88Stereophonic broadcast systems

Definitions

  • the invention relates to a wireless audio signal transmission method for a surround sound system.
  • the audio signals are transmitted to up to six different speaker locations. In the living environment, the necessary routing of the signal lines is often problematic. Therefore, wireless transmission is often desired, which also makes it possible to connect players and speakers in different rooms.
  • a first step towards improvement is to replace the analog signal transmission with the transmission of data that was formed by prior sampling and digitization of the analog signals.
  • the patent application EP 0 082 905 AI shows an example of a wireless audio signal transmission.
  • An infrared transmission device is used to transmit digitized audio signals from a transmission device, for example a television receiver, to “active boxes”, which can thus be set up anywhere in the room.
  • the annoying signal lines are eliminated and only connections to the usual power network are required for the power supply, which generally do not Unfortunately, this system is only suitable for stereo signals and cannot be used for multi-channel sound processes.
  • the object of the invention is to provide a wireless audio signal transmission method and associated transmitting and receiving devices for a multichannel surround sound system, which avoid the disadvantages described above without unreasonably driving up the effort and the audio signal transmission method also for wireless control of headphones, also for stereo operation is suitable.
  • the object is achieved according to the features of claim 1 in that the respective audio data for one or more audio signal reproduction devices are first digitized and transmitted as symbols via a digital modulation method.
  • the number of high-frequency channels required is based on the bandwidth specified by the respective legislator for each channel and the total bandwidth used
  • a suitable diversity process prevents interference caused by multi-path reception and shadowing.
  • the propagation of HF and UHF signals within rooms is mainly characterized by a large number of independent propagation paths from the transmitter to the receiver.
  • reflections create several indirect paths. Since the path lengths are different, the individual signals meet in different ways
  • phase positions to each other If the phase offset is just 0 ° 360 ° or a multiple thereof, one speaks of constructive overlay. But if it is 180 ° or 180 ° plus a multiple of 360 °, it is a destructive overlay. If both signals are of equal strength, the two signal trains are completely canceled in this case. This effect is of course frequency-dependent, since the phase shift depends on the frequency over a fixed path length. Field strength measurements between a transmitter and a receiver, in which there was movement in an interior over a 15 m distance that was provided with reflections and obstacles, resulted in field strength dips of up to 30 dB at a frequency of 864 MHz, although the direct propagation path through an obstacle was dampened.
  • the simplest solution would be to increase the transmission power. For legal reasons, this is not possible with the frequencies available. Since the interference effects are dependent on location or route, it makes sense to have two or more independent transmission stretch to realize through a diversity process. The frequency dependence of the interference phenomena can be exploited by simultaneously emitting the signal on two different frequencies and selecting the better signal on the receiver side. This solution is not frequency-efficient and therefore contradicts the objectives of the transmission concept. Receiver diversity is far more widespread. In order to obtain independent paths for the propagation, two receiving antennas are set up at a distance of at least ⁇ / 4 from one another. Now either the stronger antenna signal is selected by the receiver or the two signals are connected together. In order to avoid failures when switching over, however, this presupposes that at each receiver location at least two receivers are completely available until the channel-coded data is recovered.
  • FIG. 1 schematically shows the known transmitter and receiver diversity
  • FIG. 2 shows schematically the known transmitter diversity
  • FIG. 5 shows the transmission scheme with the associated “space-time block code”
  • FIG. 6 shows schematically as a block diagram a transmitter according to the invention
  • Fig. 7 shows schematically a block diagram of a receiver according to the invention
  • each transmitter and one receiver is usually required for each transmission channel, cf. Fig. 1. If, in the simplest case, each audio channel is designed twice, this results in 12 high-frequency channels and for the six speaker locations as many transmitters, receivers and antennas. That would make an economical implementation impossible.
  • FIG. 1 shows an example of such a diversity with two channels, in which a signal source Q with a reproduction device LB, for example a loudspeaker box, via two transmitters S1, S2 with two antennas AS1, AS2 and two receivers El, E2 with two antennas AE1 , AE2 is connected, the signals emitted via the transmission antennas AS1, AS2 having different transmission frequencies fl, f2.
  • the received signals are evaluated and the actual audio signals are generated in downstream electronics E3. Due to the frequency-dependent propagation conditions of the two transmission frequencies fl, f2, diversity is already achieved because the phase positions differ in the case of reflections and obstacles and attenuation or even extinction generally takes place at different frequencies, so that one of the received signals always has sufficient field strength.
  • a one-sided diversity procedure represents a simplification in the effort, which is either only on the transmitter side, cf. Fig. 2, or only on the receiver side, cf. Fig. 3, have separate transmission or reception channels, which on the other side is opposed to a single receiver E4 or transmitter S3.
  • the signals to be transmitted are transmitted by means of two transmitters S 1 and S2 and two antennas AS 1 and AS2 on two different frequencies fl, f2.
  • the signals running over the different propagation paths overlap and are recorded by means of a single antenna AE with the associated receiver E4.
  • the transit time differences as a result of the frequency and spatial diversity generally prevent total extinction at both frequencies fl, f2 at the same time. in the
  • Receiver E4 is either superimposed on the signal content of both frequencies fl, f2 or the frequency selected which currently has the higher field strength.
  • FIG. 2 which is however not shown, uses the same transmitting antenna for both frequencies fl, f2. In this case there is only frequency diversity.
  • the receiver diversity according to FIG. 3 there is only a single transmitter S3 which radiates the signal with the transmission frequency f via its antenna AS.
  • this signal is received with two separate antennas AE1, AE2 and associated receivers El, E2, which, as in FIG. 1, are followed by common electronics E3, which ultimately feeds the playback device LB.
  • This method is space diversity, and directional or polarity diversity can be added by means of the receiving antennas AE1, AE2.
  • Either the two signals of the receivers E1, E2 are superimposed in the downstream electronics E3 or this has a selection circuit which only processes the antenna signal with the higher field strength.
  • Receiver diversity is often used in the professional field for portable microphones, for example, because there are no transmit antennas at all.
  • the frequency-modulated signal from the microphone transmitter is received by an associated receiving device, which is coupled to two extendable antennas; which are each connected to a radio frequency receiver.
  • the diversity process is not optimal because of the relatively small distance between the receiving antennas, but in the professional field the electronic effort with sensitive receivers, the forwarding and processing of the signals is of course not important; if necessary, another receiving device is used.
  • Naguib, Nambi Seshadri and AR Calderbank are described in detail for different variants.
  • the source Q In order to be able to apply this method to the control of high-quality audio reproduction devices LB, the source Q must supply data as audio signals or it must in the case analog signals, digitization takes place in the source Q or in a downstream encoder CS.
  • the data stream D 0 to be transmitted is processed in the encoder CS according to FIG. 5 into a first and second data stream Di, D 2 , which is supplied to the transmitting stage S4 with two high-frequency transmitters S5, S6 and via two spatially separated antennas AS1, AS2 broadcast as quadrature modulated signals, but despite different contents in the same frequency band f.
  • a single high-frequency receiving device AE, E5 with a correspondingly adapted decoding device CE is sufficient in the receiving device E50 in order to recover the original data sequence D 0 from the superimposed signals r or a data sequence Dr formed therefrom. This is then available for further processing and playback in the audio playback device LB. It is not a disadvantage that this diversity method can only be applied to the transmission of data, as is well known, because the transmission of data is known to be less susceptible to interference than the transmission of analog signals and, with suitable coding, also requires less channel width. If that
  • the audio signal is converted into a data stream by digitization, known methods of data compression can also be used.
  • a further simplification is achieved by data compression on the transmitter side.
  • the available high-frequency channels are relatively narrow-band and only have a maximum
  • Channel width of, for example, 300 kHz.
  • data compression enables you to transmit data from two or more audio channels on one high-frequency channel.
  • the data compression takes advantage of the redundancy of audio signals, the right and left information of symmetrical loudspeaker locations generally being particularly suitable for such compression.
  • the data stream is then converted into symbols which are transmitted by means of the high-frequency carrier.
  • the intended digital transmission ie the transmission with symbols, requires an evaluation of the received signal on the receiver side at predetermined times at which the transmitted signal assumes a defined state in the quadrature signal level. To determine this state, which corresponds to the transmitted digital symbol but is more or less disturbed due to the transmission, the received signal is sampled and digitized at least at defined times.
  • the interference clearance, further implementation and decoding are then also carried out purely digitally. With zero IF or low IF receivers where The two quadrature components can be converted directly into the baseband or a low frequency range and digitized there, particularly inexpensive reception concepts can be specified, which can be accommodated in a single IC for each receiver and do not require any significant external circuitry.
  • Some high-frequency bands are available for the selection of the transmission band.
  • a transmission band which is free for such transmissions is expediently taken.
  • the released frequency range between 433.020 MHz and 434.790 MHz, which is also known as the "ISM band", is less suitable because there is no protection from other users and the privileged transmissions of the amateur radio service. It does not only interfere with your own alarm system or the Radio-controlled central locking of the neighbor's car.
  • the FM signal can also be listened to by anyone. The one withheld for audio transmissions
  • Frequency bands from 863 MHz to 865 MHz have so far been accepted with great hesitation, presumably because the permissible transmission power with 10 mW radiation power (ERP) is relatively low for operation without individual permits.
  • ERP mW radiation power
  • the use of this frequency band would be quite suitable for wireless control of the audio playback devices, as long as the transmitting and receiving antennas have a view of one another. If this is not the case, reception will be impaired.
  • the signal is not only attenuated, but also reflected many times. If two of these signal components arrive at the receiver in opposite phase and approximately equally strong, they cancel each other out. This is called interference. In extreme cases, an almost total loss of reception can result.
  • Delay is too great and a pre-delay of the picture information in the home area on the transmitter side is too complex.
  • 16-QAM is expediently chosen as the digital modulation for the transmission of the symbols. This represents a favorable compromise between the transmission capacity and the feasibility. Extensive system analyzes show that a 3/4 trellis coding of the modulation ensures adequate error protection.
  • the gross data rate for the stereo signal is then 768 kB / s.
  • the synchronization and the control of the spatially distributed audio playback devices require a small number of additional data to be transmitted, so that the final data rate is approximately 840 kB / s.
  • the symbol rate of 210 kS / s thus obtained can be accommodated with a roll-off factor of 19% in a 250 kHz wide channel. This means that eight HF carriers with two audio channels each are available in the 2 MHz wide segment between 863 MHz and 865 MHz.
  • a fully developed system with 6-channel sound requires 3 of the 8 RF channels, so that only 2 such systems can be operated side by side in the house without interfering with each other.
  • Experience shows, however, that often the center and sub loudspeakers are connected directly to the playback device via wire, which means that only 2 RF channels are required.
  • the system provides for a dynamic allocation of the channels, which means that only one carrier has to be used for a stereo signal, for example, even if more than 2 speakers are addressed.
  • the fundamental consideration that two antennas set up sufficiently far apart from one another on at least one side of the transmission path with a single antenna on the opposite side form two independent transmission links also applies in the event that the two antennas are located on the transmitter side.
  • the table in FIG. 5 schematically shows the STBC coding and transmission of a data sequence D 0 with the data, A, B, C, D.
  • the first line “clock” gives the successive clocks Ti, T 2 , T 3 , T 4 for the original data sequence D 0 and the transmission of symbols
  • Data sequence D 0 with the data A, B, C, D is on the second line.
  • the third and fourth lines show a first data sequence Di obtained by transformation with the data A, -B *, C, -D *, D2 and a second data sequence D 2 with the data B, A *, D, C *.
  • the third and fourth lines represent the symbol sequences which are transmitted by the two antennas AS 1 and AS2 by means of quadrature signals.
  • the asterisk "*" indicates the conjugate complex data value.
  • the fifth line defines the even and odd times "even” and "odd” with respect to the clocks Ti to T 4.
  • the sixth line finally shows the summary of the symbols A, B and C, D to a first or second pair of symbols Syl, Sy 2.
  • the data sequences Di, D 2 can also be composed differently, for example D t with A, B *, C, D * and D 2 with -B, A *, -D, A * or other combinations, it only has to be ensured that the symbols A, B, C, D are coded differently in both data sequences and that the corresponding equations are available on the receiving side.
  • the two successive symbols A, B are transmitted in parallel.
  • the antenna AS1 transmits the symbol A and the antenna transmits the symbol B.
  • the two symbols A, B transmitted first are interchanged and transformed, so that in the second step during the cycle T 2 on the antenna AS1, the symbol B conjugates complex and negates as -B * and the other symbol A conjugates complexly as A. * is transmitted.
  • hl means the transfer function from the first antenna AS1 to the receiving antenna AE and h2 the transfer function from the second antenna AS2 to the receiving antenna AE.
  • the received signal size at the time “even” is r CT and is composed of the components A and B and the two transfer functions hl and h2.
  • the received signal size r odd at the time “odd” is made up of the components hl, h2, A * and -B * together. If the transfer functions h1 and h2 are known, equations (1) and (2) represent a linear system from which A and B can be determined. If the conjugate complex form is formed according to equation (3) from both sides of equation (2), then the symbols A, B are identical to the symbols of equation (1).
  • the transfer functions h1, h2 are initially unknown. However, they represent a steady state, as it were, because the room conditions change relatively slowly compared to the data rate. It can also be assumed from the expedient assumption that both transmission functions are initially the same and then seek the optimal setting by means of a control process on the receiver side. For this purpose, the received signals are multiplied on the receiver side by an inverse transfer function in a linear combination h "1 (see FIG. 7), which is initially available as an estimate and is adapted by an adaptive algorithm to the actual transfer functions of the two transmit antennas AS 1, AS2
  • the transfer functions hl or h2 and their associated inverse transfer functions hf 'or h 2 " ' in the linear combination h " 1 together form a linear frequency response.
  • the linear combination h "1 means that the symbols A ', B' received after the transfer converted into the quadrature signal level in such a way that the associated decided symbols A “, B” can be determined from these values by means of a symbol decision maker ET.
  • Kicking through changes in the received symbols A ', B' deviations from the inverse transfer functions hf ', h 2 "2 in the linear combination h " 1 then these deviations are recorded as differences using a system of equations in a computing unit RE.
  • These difference values are smoothed by means of a control loop filter Fr and supplied to the linear combination h "1 as correction values.
  • FIG. 6 shows the essential functional units of an exemplary embodiment of a transmission device S40 according to the invention as a block diagram.
  • a signal source Q supplies an analog audio signal to an analog-digital converter AD, the output of which delivers a data stream D 0 with the symbol rate specified by the digitization clock ts.
  • the digitization clock expediently corresponds to the symbol clock t s generated in a symbol clock generator T s or a multiple thereof.
  • the two different data streams Di and D 2 are formed from the data stream D, which the individual pairs of symbols A, B; C, D included, but according to FIG. 5, each with different codings in the quadrature signal level.
  • a high-frequency stage S4 the two data sequences Di, D 2 are transmitted into the desired high-frequency band f by means of two quadrature mixers Ml, M2 and by means of the sine and cosine components of a quadrature carrier tr originating from a high-frequency oscillator Osl and are transmitted separately via the antennas AS1, AS2.
  • the required pulse shape filters and the filter devices for avoiding interference and alias signals are not shown in FIG. 6 for the sake of a better overview.
  • Fig. 7 shows schematically as a block diagram an embodiment for a receiving device E50 according to the invention.
  • the circuit block E5 is a superimposed receiver which converts the high-frequency signal received via the antenna AE from the high-frequency channel f into an intermediate frequency position using a high-frequency mixer M3, which is approximately in a frequency range from 1 to 2 MHz.
  • the carrier for the mixer M3 is a high-frequency signal HF from a local oscillator Os2.
  • a bandpass filter Fld filters out the desired frequency band and feeds the filtered signal to an analog-digital converter ADE for digitization.
  • the conversion into an intermediate frequency has the advantage that only a single analog-digital converter ADE is required.
  • zero-IF or low-IF conversion is split into two channels which are quadrature with respect to one another and which therefore also require two analog-digital converters.
  • the further processing in the decoding device CE is carried out purely digitally, regardless of the preceding stage E5.
  • the digitized signal after the analog-digital converter ADE is now converted by means of a quadrature mixer M4 and decimation stages (not shown) in such a way that the data rate of the resulting data stream corresponds to the symbol rate t s or an integer multiple thereof.
  • the quadrature mixer M4 is fed by an oscillator Os3 with a sine and cosine component of the downmixed carrier frequency, which also result in two mixture components at the output of the mixer M4.
  • the data lines for these two components are shown as double lines in FIG. 7. If the preceding circuit block E5 is a zero-IF or a low-IF converter, then there are already two data paths in quadrature in the low frequency range and the quadrature mixer M4 is omitted.
  • the components in the two data lines are digitized signal values, which, however, are linked to the symbols transmitted.
  • An electronic switch Swl now distributes these digital values in synchronism with the symbol clock t s to two switch outputs 1, 2 and thus feeds the inputs of a symbol recognition device SD.
  • the signals from the mixer M4 are alternately divided between the two inputs 1, 2 of the symbol recognition device SD, at the output of which the decided symbols can be tapped from the received signal.
  • Linear combination h "1 have the provisionally estimated symbols A ', B' and C, D 'available at each of their two outputs from each symbol pair Syl, Sy2.
  • a decision maker ET uses this to form the decided symbols A", B “or C”"D", which are converted into electronic data for the symbols A, B, C, D for further processing by means of a subordinate table TB.
  • the symbols A, B and C, D of the symbol pairs appearing in parallel form an alternating with the symbol cycle ts controlled switch Sw2 again the original data sequence D 0 with the data A, B, C, D. This data stream can be converted into the desired audio signal.
  • the carrier is placed in an active frequency band when mixing. This creates a large DC component in the downmixed signal, which usually exceeds the working range of the analog-digital converter. If the signal size is reduced, the resolution is lost. It is therefore sensible to take a different path, by means of a simple one Control loop is superimposed on the analog signal before digitization, a sufficiently large equivalent value until the signal is reasonably in the modulation range of the analog or digital converter.
  • the parameters in the linear combination h "1 are adjusted by comparing the signals from the inputs 1, 2 and the two outputs of the symbol decision maker ET to one input of the computing unit RE.
  • Deviations in the linearity are in the
  • Computing unit RE is determined by means of its equation systems and generates correction signals which are fed to the linear combination h "1 via a control loop filter for correction inputs.
  • Audio playback device is dependent. Further control information relates to the location of the device within the surround sound system, i.e. its address, the data compression method used, information about the current protective measures for data backup during transmission and synchronization bits for recognizing the start of the data packet and for synchronizing the symbol recognition. Such control information must be inaudibly superimposed on the actual audio signal or additionally transmitted.
  • the packet format for transmission which contains all the necessary control information and addresses in a header, is expediently appropriate here.
  • the actual data part then contains the data for the audio signal, possibly also test bits or empty bits, in order to fill in the individual data areas.
  • the selected uniform data packet structure is expediently 10 ms long.
  • Both data formats each represent a data packet FD with a length of 10 ms.
  • the upper data format is particularly suitable for a source rate of 48 kHz and the lower one for a source rate of 44.1 kHz.
  • the header data area H is followed alternately by the individual data blocks for the left and right audio channels L and R.
  • the compression is based on these blocks in pairs, so that the decompression (see arrows "Decomp.” In FIG. 8) on the receiver side after reception of the first pair of audio blocks L, R.

Abstract

Drahtloses Audiosignalübertragungsverfahren für Audiosignale zwischen einer Sendeeinrichtung (S40) und einer räumlich benachbarten Empfangseinrichtung (E50), die einer in ein Raumklangsystem einbezogenen Audiosignalwiedergabeeinrichtung (LB) zugeordnet ist. Die Audiosignale werden in der Sendeeinrichtung (S40) vor der Übertragung digitalisiert, komprimiert und als Datenpakete (FD) mittels eines digitalen Hochfrequenzübertragungsverfahrens übertragen, wobei den einzelnen Daten Symbole (A, B, C, D) in einer Quadratursignalebene zugeordnet sind. Zwischen der Sendeeinrichtung (S40) und der Empfangseinrichtung (E50) findet ein Senderdiversitybetrieb statt, wobei die Sendeeinrichtung (S40) zwei getrennte Hochfrequenzsender (S4, S5) mit Quadraturumsetzung aufweist, die jeweils mit einer zugehörigen Sendeantenne (AS1, AS2) verbunden sind. Empfangsseitig weist jede Audiosignalwiedergabeeinrichtung jedoch nur eine einzige Empfangseinrichtung (E50) mit einer Empfangsantenne (EA) und einem Hochfrequenzempfänger (ES) auf. Die Unterscheidung der beiden hochfrequent empfangenen Datenströme (D1, D2), die in kodierter Form die einzelnen Symbole enthalten, erfolgt in einer Dekodiereinrichtung (CE).

Description

Drahtloses Audiosignalübertragungsverfahren für ein Raumklangsvstem
Die Erfindung betrifft ein drahtloses Audiosignalübertragungsverfahren für ein Raumklangsystem. Moderne Audiowiedergabesysteme sollen zunehmend auch im häuslichen Bereich im Zusammenhang mit einem Fernsehempfanger für Digitalempfang oder einem DVD-Spieler (= „Digital Versatile Disc") eine Vielkanaltonwiedergabe nach dem Dolby-Digital-Standard, dem DTS-Standard (= „Digital Theater System") oder einem anderen Raumklangverfahren ermöglichen. Hierbei werden die Audiosignale auf bis zu sechs unterschiedliche Lautsprecherstandorte übertragen. Im Wohnumfeld ist dabei das notwendige Verlegen der Signalleitungen häufig problematisch. Daher wird oft eine drahtlose Übertragung gewünscht, die es auch ermöglicht, Abspielgeräte und Lautsprecher in unterschiedlichen Räumen miteinander zu verbinden.
Bereits auf dem Markt verfügbare Lösungen basieren auf analogen Übertragungsstrecken mit Frequenzmodulation. Die Qualität dieser analogen Übertragung für Lautsprecher oder Kopfhörer genügt jedoch meist nicht gehobenen Ansprüchen. Darüber hinaus ist die analoge Übertragung störanfällig, nicht abhörsicher und uneffektiv in der Nutzung der verfügbaren Bandbreite. Im Wohnbereich ist zudem durch Reflexionen und Abschattungen mit gestörten Empfangsbedingungen zur rechnen. Ein erster Schritt zur Verbesserung ist der Ersatz der analogen Signalübertragung durch die Übertragung von Daten, die durch vorherige Abtastung und Digitalisierung der analogen Signale gebildet wurden. Ein Beispiel für eine drahtlose Audiosignalübertragung zeigt die eigene Patentanmeldung EP 0 082 905 AI. Mittels einer Infrarotübertragungseinrichtung werden digitalisierte Audiosignale von einer Sendeeinrichtung, beispielsweise ein Fernsehempfänger, auf „Aktivboxen" übertragen, die so an beliebiger Stelle im Raum aufstellbar sind. Die lästigen Signalleitungen entfallen und zur Stromversorgung sind lediglich Anschlüsse an das übliche Stromnetz erforderlich, die im Regelfall keine Schwierigkeiten bereiten. Leider ist dieses System nur für Stereosignale geeignet und auf Vielkanaltonverfahren nicht anwendbar.
Aufgabe der Erfindung ist es, für ein Vielkanalton-Raumklangsystem ein drahtloses Audiosignalübertragungsverfahren und zugehörige Sende- und Empfangseinrichtungen anzugeben, welche die vorbeschriebenen Nachteile vermeiden ohne den Aufwand unzumutbar in die Höhe zu treiben und wobei das Audiosignalübertragungsverfahren auch für die drahtlose Ansteuerung von Kopfhörern, auch für den Stereobetrieb, geeignet ist. Die Lösung der Aufgabe erfolgt nach den Merkmalen des Anspruchs 1 dadurch, dass die jeweiligen Audiodaten für eine oder mehrere Audiosignalwiedergabeeinrichtungen zunächst digitalisiert und über eine digitales Modulationsverfahren als Symbole übertragen werden. Die Anzahl der erforderlichen Hochfrequenzkanäle orientiert sich dabei an der vom jeweiligen Gesetzgeber vorgegebenen Bandbreite für jeden Kanal und der Gesamtbandbreite des verwendeten
Frequenzbereiches. Die an sich schon relativ störungssichere Übertragung mittels Symbolen wird weiter verbessert, indem ein Diversityverfahren verwendet wird. Angepasste Sende- und Empfangseinrichtungen werden in den unabhängigen Ansprüchen 9 bzw. 12 unter Schutz gestellt.
Die Vermeidung von Störungen durch Mehrwegeempfang und Abschattungen erfolgt durch ein geeignetes Diversityverfahren. Die Ausbreitung von HF- und UHF-Signalen innerhalb von Räumen ist hauptsächlich durch eine Vielzahl voneinander unabhängiger Ausbreitungswege vom Sender zum Empfänger gekennzeichnet. Neben einem mehr oder weniger stark gedämpften direkten Weg, je nachdem ob Hindernisse vorhanden sind oder nicht, entstehen durch Reflexionen mehrere indirekte Wege. Da die Weglängen unterschiedlich sind, treffen die Einzelsignale in unterschiedlichen
Phasenlagen zueinander ein. Beträgt der Phasenversatz gerade 0° 360 ° oder ein Vielfaches davon, so spricht man von konstruktiver Überlagerung. Beträgt er aber 180 ° oder 180 ° plus ein Vielfaches von 360 °, so handelt es sich um eine destruktive Überlagerung. Sind beide Signale gleich stark, so tritt in diesem Fall eine Totalauslöschung der beiden Signalzüge auf. Dieser Effekt ist natürlich frequenzabhängig, da die Phasenverschiebung über eine feste Weglänge von der Frequenz abhängig ist. Feldstärkemessungen zwischen einem Sender und einem Empfänger, bei der eine Bewegung in einem Innenraum über eine 15 m lange Strecke erfolgte die mit Reflektionen und Hindernissen versehen war, ergab bei einer Frequenz von 864 MHz Feldstärkeeinbrüche von bis zu 30 dB, wobei der direkte Ausbreitungsweg allerdings durch ein Hindernis bedämpft war. Bei den heutigen FM-Funklautsprechern versucht man, diesen Fall durch eine geschickte Plazierung des Empfangers zu vermeiden. Da aber beispielsweise auch Personen als Hindernis oder Reflektor zu beachten sind, fuhrt deren Bewegung zu einer laufenden Veränderung der Ausbreitungsverhältnisse. Dies gilt natürlich erst recht, wenn der Empfänger portabel ist, wie bei einem batteriebetriebenen Kopfhörer, der ja ebenfalls drahtlos an die Sendeeinrichtung angeschlossen werden soll und hierzu mit einer entsprechenden Empfangseinrichtung ausgerüstet ist.
Die einfachste Lösung wäre eine Erhöhung der Sendeleistung. Aus rechtlichen Gründen ist dies bei den zur Verfügung stehenden Frequenzen nicht möglich. Da die Interferenzeffekte orts- bzw. steckenabhängig sind, liegt es nahe, zwei oder mehrere voneinander unabhängige Übertragungs- strecken durch ein Diversityverfahren zu realisieren. Die Frequenzabhängigkeit der Interferenzerscheinungen kann man ausnutzen, indem das Signal zeitgleich auf zwei unterschiedlichen Frequenzen ausstrahlt und das jeweils bessere Signal auf der Empfängerseite auswählt. Diese Lösung ist nicht frequenzökonomisch und widerspricht damit den Zielsetzungen des Übertragungskonzepts. Weitaus verbreiteter ist das Empfanger-Diversity. Um für die Ausbreitung voneinander unabhängige Wege zu erhalten, werden zwei Empfangsantennen im Abstand von mindestens λ/4 zueinander aufgestellt. Nun wird entweder das jeweils stärkere Antennensignal vom Empfänger ausgewählt oder beide Signale zusammengeschaltet. Um Ausfalle beim Umschalten zu vermeiden setzt dies allerdings voraus, dass an jedem Empfangerstandort mindestens zwei Empfänger komplett bis zur Rückgewinnung der kanalcodierten Daten vorhanden sind.
Die Erfindung und vorteilhafte Weiterbildungen werden nun anhand der Figuren der Zeichnung näher erläutert:
Fig. 1 zeigt schematisch das bekannte Sender- und Empfängerdiversity , Fig. 2 zeigt schematisch das bekannte Senderdiversity,
Fig. 3 zeigt schematisch das bekanntes Empfängerdiversity,
Fig. 4 zeigt schematisch ein für die Erfindung verwendetes Senderdiversity mit identischen Sendefrequenzen für die Übertragung von Daten,
Fig. 5 zeigt das Sendeschema bei dem zugehörigen „Space-Time-Blockcode", Fig. 6 zeigt schematisch als Blockschaltbild einen Sender nach der Erfindung
Fig. 7 zeigt schematisch als Blockschaltbild einen Empfänger nach der Erfindung
Fig. 8 zeigt zwei unterschiedliche Datenformate nach der Erfindung.
Die Vorteile, die sich durch eine Digitalisierung der zu übertragenden Audiosignale ergeben, ist einmal die höhere Störsicherheit infolge der Quantisierung, die noch durch die Hinzufügung von Prüfbits oder anderen Fehlererkennungs- und Fehlerkorrekturverfahren weiter verbessert werden kann. Zum anderen sind auf der Datenebene auch genügend Verfahren zur Datenreduktion bekannt, die speziell auf die redundanten Eigenschaften der jeweiligen Signale eingehen, um den Datenumfang ohne Qualitätsverlust zu reduzieren.
Durch die Verwendung eines Diversityverfahrens erhöht sich leider die Anzahl der zu übertragenden Kanäle. Üblicherweise ist bei der Anwendung von Diversityverfahren je Übertragungskanal ein Sender und ein Empfänger erforderlich, vgl. Fig. 1. Wenn dabei jeder Audiokanal im einfachsten Fall doppelt ausgelegt wird, ergibt das für die sechs Lautsprecherstandorte 12 Hochfrequenzkanäle und ebensoviele Sender, Empfänger und Antennen. Das würde eine kostengünstige Realisierung unmöglich machen. Fig. 1 zeigt ein Beispiel für ein derartiges Diversity mit zwei Kanälen, bei dem eine Signalquelle Q mit einer Wiedergabeeinrichtung LB, beispielsweise eine Lautsprecherbox, über zwei Sender Sl, S2 mit zwei Antennen ASl, AS2 und zwei Empfänger El, E2 mit zwei Antennen AE1, AE2 verbunden ist, wobei die über die Sendeantennen ASl, AS2 ausgestrahlten Signale unterschiedliche Sendefrequenzen fl, f2 aufweisen. Die Auswertung der empfangenen Signale und die Erzeugung der eigentlichen Audiosignale erfolgt in einer nachgeschalteten Elektronik E3. Durch die frequenzabhängigen Ausbreitungsbedingungen der beiden Sendefrequenzen fl, f2 wird bereits ein Diversity erreicht, weil sich die Phasenlagen bei Reflektionen und Hindernissen unterscheiden und eine Abschwächung oder gar Auslöschung in der Regel bei unterschiedlichen Frequenzen erfolgt, so dass immer eines der empfangenen Signale ausreichende Feldstärke aufweist. Weitere Verbesserungen sind dadurch möglich, dass nicht nur das Frequenzdiversity ausgenutzt wird, sondern der Abstand der Sendeantennen oder der Abstand der Empfangsantennen zueinander möglichst groß oder die Polarität und Abstrahl- bzw. Empfangsrichtung zueinander unterschiedlich gemacht wird. Diese Maßnahmen können für sich alleine oder in beliebiger Kombination durchgeführt werden. Eine weitere Verbesserung wird erreicht, wenn die beiden Empfänger El , E2 jeweils nicht nur eine der unterschiedlichen Sendefrequenzen fl, f2 erfassen, sondern so breitbandig ausgelegt sind, dass beide Frequenzen empfangen werden. Die Trennung der Frequenzen und ihrer Inhalte erfolgt dann intern über Siebmittel. Die Anzahl der Übertragungswege verdoppelt sich dadurch etwa, so dass die gefürchteten Auslöschungen noch weniger wahrscheinlich sind.
Eine Vereinfachung im Aufwand stellen einseitige Diversityverfahren dar, die entweder nur auf der Senderseite, vgl. Fig. 2, oder nur auf der Empfängerseite, vgl. Fig. 3, getrennte Sende- bzw. Empfangskanäle aufweisen, denen auf der anderen Seite ein einziger Empfänger E4 bzw. Sender S3 gegenübersteht. Bei dem Senderdiversity von Fig. 2 werden mittels zweier Sender S 1 und S2 und zweier Antennen AS 1 und AS2 auf zwei unterschiedlichen Frequenzen fl, f2 die zu sendenden Signale ausgestrahlt. Auf der Empfangseite überlagern sich die über die unterschiedlichen Ausbreitungswege laufenden Signale und werden mittels einer einzigen Antenne AE mit zugehörigem Empfänger E4 erfasst. Die Laufzeitunterschiede infolge des Frequenz- und Raumdiversitys verhindern in der Regel eine gleichzeitig Totalauslöschung bei beiden Frequenzen fl, f2. Im
Empfänger E4 wird entweder der Signalinhalt beider Frequenzen fl, f2 überlagert oder diejenige Frequenz ausgewählt, die momentan die höheren Feldstärke aufweist. Ein Sonderfall von Fig. 2, der allerdings nicht dargestellt ist, verwendet für beide Frequenzen fl, f2 die gleiche Sendeantenne. In diesem Fall liegt also nur noch Frequenzdiversity vor. Bei dem Empfängerdiversity nach Fig. 3 ist nur ein einziger Sender S3 vorhanden, der über seine Antenne AS das Signal mit der Sendefrequenz f abstrahlt. Auf der Empfangsseite wird dieses Signal mit zwei getrennten Antennen AE1, AE2 und zugehörigen Empfängern El, E2 empfangen, denen wie in Fig. 1 eine gemeinsame Elektronik E3 nachgeschaltet ist, die letztlich die Wiedergabeeinrichtung LB speist. Bei diesem Verfahren handelt es sich um Raumdiversity, wobei mittels der Empfangsantennen AE1, AE2 Richtungs- oder Polaritätsdiversity hinzukommen kann. Entweder überlagert man die beiden Signale der Empfanger El, E2 in der nachgeschalteten Elektronik E3 oder diese verfügt über eine Auswahlschaltung, die lediglich das Antennensignal mit der höheren Feldstärke weiterverarbeitet.
Das Empfängerdiversity wird beispielsweise gern im professionellen Bereich für tragbare Mikrofone verwendet, weil dort mehrere Sendeantennen völlig ausgeschlossen sind. Das frequenzmodulierte Signal des Mikrofonsenders wird dabei von einem zugehörigen Empfangsgerät empfangen, das mit zwei ausziehbare Antennen verkoppelt ist; die jeweils an einen Hochfrequenzempfänger angeschlossen sind. Das Diversityverfahren ist wegen des relativ geringen Abstandes der Empfangsantennen hierbei zwar nicht optimal, aber im professionellen Bereich spielt der elektronische Aufwand mit empfindlichen Empfängern, der Weiterleitung und Verarbeitung der Signale natürlich keine Rolle; im Bedarfsfall wird eben ein weiteres Empfangsgerät eingesetzt.
Mehrfachantennen bei Lautsprecherboxen sind für den häuslichen Anwendungsbereich schon aus ästhetischen Gründen indiskutabel. Diversityverfahren nach Fig. 1 und Fig. 3 scheiden somit aus. Zum Glück gibt es ein abgewandeltes Senderdiversityverfahren, das eine Weiterentwicklung zu Fig. 2 darstellt, aber nur für die Übertragung von Datenfolgen geeignet ist. Der apparative Mehraufwand dieses Verfahrens liegt im wesentlichen nur auf der Sender- und nicht auf der Empfängerseite. Fig. 4 zeigt hierzu das Sender- und Empfängerschema. In Fig. 5 wird in Form einer Tabelle schematisch dargelegt, wie bei dem bekannten „Space-Time-Blockcode"-Verfahren die Übertragung zweier unterschiedlicher Datenfolgen unter Verwendung gleicher Sendefrequenzen erfolgt . Die Grundlagen dieses Verfahrens sind beispielsweise in „IEEE SIGNAL PROCESSING MAGAZINE", Mai 2000, Seiten 76 bis 91 in dem Artikel „Increasing Data Rate over Wireless Channels" von Ayman F.
Naguib, Nambi Seshadri und A. R. Calderbank ausführlich für verschiedene Varianten beschrieben. Um dieses Verfahren auf die Ansteuerung von hochwertigen Audiowiedergabeeinrichtungen LB anwenden zu können, muss die Quelle Q Daten als Audiosignale liefern oder es muss im Falle analoger Signale eine Digitalisierung in der Quelle Q oder in einem nachgeschalteten Codierer CS stattfinden.
In der Sendeeinrichtung S40 wird der zu übertragende Datenstrom D0 dabei im Codierer CS entsprechend Fig. 5 in einen ersten und zweiten Datenstrom Di, D2 aufbereitet, der Sendestufe S4 mit zwei Hochfrequenzsendern S5, S6 zugeführt und über zwei räumlich getrennte Antennen ASl, AS2 als quadraturmodulierte Signale ausgestrahlt, aber trotz unterschiedlicher Inhalte im gleichen Frequenzband f. Auf der Empfängerseite reicht in der Empfangseinrichtung E50 eine einzige Hochfrequenzempfangseinrichtung AE, E5 mit einer entsprechend angepassten Decodiereinrichtung CE aus, um aus den überlagerten Signalen r, bzw. einer daraus gebildeten Datenfolge Dr, wieder die ursprüngliche Datenfolge D0 zu gewinnen. Diese steht dann für die Weiterverarbeitung und Wiedergabe in der Audiowiedergabeeinrichtung LB zur Verfugung. Dass dieses Diversityverfahren vom Aufwand abgesehen nur auf die Übertragung von Daten anzuwenden ist, ist kein Nachteil, denn die Übertragung von Daten ist bekanntlich weniger störanfällig als die Übertragung von Analogsignalen und erfordert bei geeigneter Codierung auch weniger Kanalbreite. Wenn das
Audiosignal durch Digitalisierung in einen Datenstrom umgesetzt ist, sind auch bekannte Verfahren der Datenkomprimierung anwendbar.
Durch eine Datenkomprimierung auf der Senderseite wird eine weitere Vereinfachung erreicht. Die verfügbaren Hochfrequenzkanäle sind relativ schmalbandig und weisen nur eine maximale
Kanalbreite von beispielsweise 300 kHz auf. Durch die Datenkompression ist man aber trotzdem in der Lage, die Daten von zwei oder mehr Audiokanälen auf einem Hochfrequenzkanal zu übertragen. Die Datenkomprimierung nutzt dabei die Redundanz von Audiosignalen aus, wobei in der Regel die Rechts- und Linksinformationen symmetrischer Lautsprecherstandorte für eine derartige Komprimierung besonders geeignet sind. Zur eigentlichen Übertragung wird dann der Datenstrom in Symbole umgesetzt, die mittels des hochfrequenten Trägers übertragen werden.
Die vorgesehene digitale Übertragung, also die Übertragung mit Symbolen erfordert auf der Empfängerseite eine Auswertung des empfangenen Signals zu vorgegebenen Zeitpunkten, zu denen das übertragene Signal einen definierten Zustand in der Quadratursignalebene einnimmt. Zur Ermittlung dieses Zustandes, der dem übertragenen digitalen Symbol entspricht, infolge der Übertragung aber mehr oder weniger gestört ist, wird das empfangene Signal mindestens zu definierten Zeitpunkten abgetastet und digitalisiert. Die Störbefreiung, weitere Umsetzung und Decodierung erfolgt dann ebenfalls rein digital. Mit Null-ZF- oder Tief-ZF-Empfängern, bei denen die beiden Quadraturkomponenten direkt in das Basisband oder eine tiefe Frequenzlage umgesetzt und dort digitalisiert werden, lassen sich besonders kostengünstige Empfangskonzepte angeben, die je Empfänger in einem einzigen IC unterzubringen sind und ohne nennenswerte externe Beschaltung auskommen. Da nach der Frequenzumsetzung die Decodierung und die weitere Signalverarbeitung in einem digitalen Signalprozessor realisiert ist, lassen sich dort Ungenauigkeiten des Analogteiles der Schaltung, wie Phasen- und Amplitudenfehler korrigieren, da Unsymmetrien und Ungenauigkeiten im digitalen Verarbeitungsteil als separate Fehlerquellen entfallen.
Für die Auswahl der Übertragungsbandes stehen einige hochfrequente Bänder zur Verfügung. Zweckmäßigerweise wird ein Übertragungsband genommen, das für derartige Übertragungen frei ist. Der freigegebene Frequenzbereich zwischen 433,020 MHz und 434,790 MHz , der auch als „ISM- Band" bekannt ist, eignet sich weniger, weil kein Schutz vor anderen Nutzern sowie den dort bevorrechtigten Aussendungen des Amateurfunkdienstes besteht. Es stören so nicht nur die eigene Alarmanlage oder die funkgesteuerte Zentralverriegelung des Autos des Nachbarn. Das FM-Signal kann auch von jedermann abgehört werden. Das für Audioübertragungen vorenthaltene
Frequenzband von 863 MHz bis 865 MHz wird bisher recht zögerlich akzeptiert, vermutlich weil die zulässige Sendeleistung mit 10 mW Strahlungsleistung (ERP) für einen einzelgenehmigungsfreien Betrieb relativ gering ist. Im Nahbereich wäre der Einsatz dieses Frequenzbandes für die drahtlose Ansteuerung der Audiowiedergabeeinrichtungen recht geeignet, solange Sende- und Empfangs- antenne zueinander Sicht haben. Ist das nicht der Fall, so sind Empfangsbeeinträchtigungen die Folge. Das Signal wird wie bereits erwähnt nicht nur gedämpft, sondern auch vielfach reflektiert. Treffen nun zwei dieser Signalanteile gegenphasig und etwa gleichstark beim Empfänger ein, so löschen sie sich gegenseitig aus. Man spricht hier von Interferenzen. Im Extremfall kann ein nahezu totaler Empfangsausfall die Folge sein.
Ein bei 40 MHz liegende Band scheidet wegen zu geringer Bandbreite aus. Im Segment um 432 MHz im 70-cm-Amateurband sind starke Störungen zu erwarten. Frequenzen im GHz-Bereich fallen wegen der höheren Komponentenkosten und der zunehmend ungünstigen Ausbreitungsbedingungen weg. Außerdem beherbergt der niedrigste dieser Bereich um 2450 MHz schon eine Vielzahl von Diensten und Nutzern wie Bluetooth, Wireless Data Links und Mikrowellenöfen. Es bleibt so der Bereich um 864 MHz, zumal dieser u.a. speziell für drahtlose Audioapplikationen im Streamingverfahren (duty cycle = 1) vorgesehen ist, das heißt, dass der Hochfrequenzträger im jeweiligen Kanal dauernd in Aktion sein kann. Wegen der knappen Bandbreite von nur 2 MHz für dieses gesamte Frequenzband müssen die Audiodaten komprimiert werden. Für eine gleichzeitige Bilddarstellung ist Lippensynchronität gefordert, wodurch die maximal erlaubte Verzögerung zwischen Bild und Ton höchstens 20 ms betragen darf. Diese Forderung muss bei dem gewählten Komprimierverfahren neben der selbstverständlichen Forderung nach möglichst hoher Wiedergabetreue eingehalten werden. Geeignete Komprimierungsverfahren, um die 16 Bit oder 24 Bit tiefen Audiodaten rechnerisch auf 6 Bit je Abtastwert zu komprimieren sind bekannt, vgl. beispielsweise ADPCM (= Adaptive Differentielle Pulscodemodulation) oder andere Verfahren in „K. D. Kammeyer", Nachrichtenübertragung, B.G. Teubner Stuttgart, 2. Auflage 1996, Seiten 124 bis 137, Kapitel 4.3 „Differentielle Pulscodemodulation". Ein mit 48 kHz abgetastetes Stereosignal käme damit auf eine Datenrate von 576 kB/s. Höherwertige Komprimierungsverfahren wie MP3, die eine noch stärkere Komprimierung ermöglichen würden, kommen nicht in Frage, da deren
Verzögerung zu groß ist und eine senderseitige Vorverzögerung der Bildinformation im Heimbereich zu aufwendig ist.
Als digitale Modulation für die Übertragung der Symbole wird zweckmäßigerweise 16-QAM gewählt. Dies stellt einen günstigen Kompromiss zwischen der Übertragungskapazität und der Realisierbarkeit dar. Ausgiebige Systemanalysen zeigen, dass eine 3/4-Trellis-Codierung der Modulation für einen ausreichenden Fehlerschutz sorgt. Die Bruttodatenrate für das Stereosignal liegt dann bei 768 kB/s. Die Synchronisation und die Steuerung der räumlich verteilten Audiowiedergabegeräte, erfordern eine geringe Anzahl von zusätzlich zu übertragenden Daten, so dass die endgültige Datenrate ca. 840 kB/s ist. Die somit erhaltene Symbolrate von 210 kS/s lässt sich bei einem Roll-off-Faktor von 19 % in einem 250 kHz breiten Kanal unterbringen. Damit stehen in dem 2 MHz breiten Segment zwischen 863 MHz und 865 MHz acht HF-Träger mit je zwei Audiokanälen zur Verfügung.
Ein voll ausgebautes System mit 6-Kanal-Ton benötigt zwar 3 der 8 HF -Kanäle, so dass nur 2 solcher Systeme im Haus nebeneinander betrieben werden können, ohne sich gegenseitig zu stören. Erfahrungen zeigen jedoch, dass oft der Center- und der Sublautsprecher direkt über Draht mit dem Abspielgerät verbunden sind, wodurch nur noch 2 HF-Kanäle erforderlich sind. Außerdem sieht das System eine dynamische Zuordnung der Kanäle vor, wodurch z.B. bei einem Stereosignal nur 1 Träger verwendet werden muss, auch wenn mehr als 2 Lautsprecher angesprochen werden. Die grundsätzliche Betrachtung, dass zwei ausreichend weit voneinander entfernt aufgestellte Antennen auf mindestens einer Seite des Übertragungswegs mit einer Einzelantenne auf der Gegenseite zwei voneinander unabhängige Übertragungsstrecken bilden, gilt auch für den Fall, dass die sich die zwei Antennen auf der Senderseite befinden. Hier kann natürlich in Ermangelung eines Rückkanals der Sender nicht zwischen den beiden Antennen eine Auswahl treffen, er hat ja keinerlei Information über die jeweiligen Empfangsbedingungen. Es muss daher ein Weg gefunden werden, das Nutzsignal zweimal so auszustrahlen, dass ein Diversitygewinn erzielt wird, ohne gleichzeitig eine Beeinträchtigung der beiden Signale gegenseitig zu bewirken. Hier bietet sich das bereits erwähnte Space Time Coding"- Verfahren an, dessen „Space-Time-Blockcodes" (= STBC) oder „Space-Time-Trelling-Codes" (= STTC) diese Bedingung erfüllen.
Die Tabelle in Fig. 5 zeigt schematisch die STBC-Codierung und Ausstrahlung einer Datenfolge D0 mit den Daten, A, B, C, D. Die erste Zeile „Takt" gibt die aufeinanderfolgenden Takte Ti, T2, T3, T4 für die ursprüngliche Datenfolge D0 und die Übertragung der Symbole an. Die ursprüngliche
Datenfolge D0 mit den Daten A, B, C, D steht in der zweiten Zeile. Die dritte und vierte Zeile zeigen eine durch Umformung erhaltene erste Datenfolge Di mit den Daten A, -B*, C, -D*, D2 und eine zweite Datenfolge D2 mit den Daten B, A*, D, C*. Die dritte und vierte Zeile stellen die Symbolfolgen dar, die von den beiden Antennen AS 1 und AS2 mittels Quadratursignalen übertragen werden. Der Stern „* " gibt dabei den konjugiert komplexen Datenwert an. Die fünfte Zeile definiert die geraden und ungeraden Zeitpunkte „even" und „odd" bezüglich der Takte Ti bis T4. Die sechste Zeile zeigt schließlich die Zusammenfassung der Symbole A, B und C, D zu einem ersten bzw. zweiten Symbolpaar Syl, Sy2. Der Vollständigkeit wegen wird erwähnt, dass die Datenfolgen Di, D2 auch anders zusammengesetzt sein können, beispielsweise Dt mit A, B*, C, D* und D2 mit -B, A*, -D, A* oder andere Kombinationen. Es muss lediglich sichergestellt sein, dass die Symbole A, B, C, D in beiden Datenfolgen unterschiedlich codiert sind und auf der Empfangsseite die entsprechenden Gleichungen zur Verfügung stehen.
Im ersten Schritt während des Taktes Ti werden die zwei aufeinanderfolgenden Symbole A, B parallel ausgesendet. Die Antenne ASl übertragt das Symbol A und die Antenne das Symbol B. Zur Unterscheidung werden in der angegebenen Literatur die beiden aufeinanderfolgenden Symbole A, B als ein Symbolpaar bezeichnet, wobei das erste Symbol A als „gerades Symbol" (=even) und das zweite Symbol B als „ungerades Symbol" (=odd) definiert werden. Danach findet eine Vertauschung und Umformung der beiden zuerst übertragenen Symbole A, B statt, so dass im zweiten Schritt während des Taktes T2 auf der Antenne ASl das Symbol B konjugiert komplex und negiert als -B* und das andere Symbol A konjugiert komplex als A* übertragen wird. Nach zwei Schritten Ti, T2 ist somit ein Symbolpaar A, B, das erste Symbolpaar Syl, übertragen. Im dritten und vierten Takt T3, T4 wird auf identische Weise das zweite Symbolpaar Sy2 mit den Symbolen C, D übertragen. Jedes Symbol wird somit zweimal übertragen. Da aber auch eine parallele Ausstrahlung über die beiden Antennen AS 1, AS2 vorliegt, ist auf der Empfängerseite die Datenrate der Datenfolge Dr identisch zur ursprünglichen Datenrate der Datenfolge D0.
Auf der Empfängerseite müssen nun die mit gleicher Frequenz empfangenen und überlagerten Symbole A, B bzw. C, D wieder getrennt werden. Mathematisch entspricht das der Lösung eines linearen Gleichungssystems mit den zwei Unbekannten A und B:
reven = hl A + h2 B Gleichung (1) rodd = h2 A* + hl (-B*) durch Umwandlung ergibt sich Gleichung (2) rodd * = h2* - A - hl* - B Gleichung (3)
Dabei bedeutet hl die Übertragungsfunktion von der ersten Antenne ASl auf die Empfangsantenne AE und h2 die Übertragungsfunktion von der zweiten Antenne AS2 auf die Empfangsantenne AE. Die empfangene Signalgröße zum Zeitpunkt „even" ist rCTen und setzt sich aus den Komponenten A und B sowie den beiden Übertragungsfunktionen hl und h2 zusammen. Die empfangene Signalgröße rodd zum Zeitpunkt „odd" setzt sich aus den Komponenten hl, h2, A* und -B* zusammen. Sofern die Übertragungsfunktionen hl und h2 bekannt sind, stellen die Gleichungen (1) und (2) ein lineares System dar, aus dem A und B bestimmt werden können. Wenn von beiden Seiten der Gleichung (2) die konjugiert komplexe Form entsprechend Gleichung (3) gebildet wird, dann sind die Symbole A, B identisch zu den Symbolen von Gleichung (1).
Die Übertragungsfunktionen hl, h2 sind zunächst nicht bekannt. Sie stellen jedoch gleichsam einen stationären Zustand dar, weil sich die Raumbedingungen gegenüber der Datenrate nur relativ langsam ändern. Man kann ferner von der zweckmäßigen Annahme ausgehen, dass beide Übertragungsfünktionen zunächst gleich sind und dann durch einen Regelvorgang auf der Empfängerseite die optimale Einstellung suchen. Hierzu werden auf der Empfängerseite die empfangenen Signale mit einer inversen Übertragungsfunktion in einer Linearkombination h"1 (vgl. Fig. 7) multipliziert, die zunächst als Schätzwert vorliegt und durch einen adaptiven Algorithmus an die tatsächlichen Übertragungsfunktionen der beiden Sendeantennen AS 1, AS2 angepasst wird. Die Übertragungsfunktionen hl bzw. h2 und ihre zugehörigen inversen Übertragungsfunktionen hf ' bzw. h2 "' in der Linearkombination h"1 bilden zusammen einen linearen Frequenzgang. Durch die Linearkombination h"1 werden die nach der Übertragung empfangenen Symbole A', B' so in die Quadratursignalebene umgerechnet, dass aus diesen Werten mittels eines Symbolentscheiders ET die zugehörigen entschiedenen Symbole A", B" bestimmt werden können. Treten durch Übertra- gungsänderungen in den empfangenen Symbolen A', B' Abweichungen gegenüber den inversen Übertragungsfunktionen hf ', h2 "2 in der Linearkombination h"1 auf, dann werden diese Abweichungen mittels eines Gleichungssystems in einer Recheneinheit RE gleichsam als Differenzen erfasst. Diese Differenzwerte werden mittels eines Regelkreisfilters Fr geglättet und als Korrekturwerte der Linearkombination h"1 zugeführt.
Fig. 6 zeigt die wesentlichen Funktionseinheiten eines Ausfuhrungsbeispiels einer Sendeeinrichtung S40 nach der Erfindung als Blockschalbild. Eine Signalquelle Q liefert ein analoges Audiosignal an einen Analog-Digitalumsetzer AD, dessen Ausgang einen Datenstrom D0 mit der durch den Digitalisierungstakt ts vorgegebenen Symbolrate liefert. Der Digitalisierungstakt entspricht dabei zweckmäßigerweise dem in einem Symboltaktgenerator Ts erzeugten Symboltakt ts oder einem Vielfachen davon. In einer Sendecodiereinrichtung CS werden aus dem Datenstrom D0 die beiden unterschiedlichen Datenströme Di und D2 gebildet, die die einzelnen Symbolpaare A,B; C,D enthalten, aber entsprechend Fig. 5 mit jeweils unterschiedlichen Codierungen in der Quadratursignalebene. In einer Hochfrequenzstufe S4 werden die beiden Datenfolgen Di, D2 mittels zweier Quadraturmischer Ml, M2 und mittels der aus einem Hochfrequenzoszillator Osl stammenden Sinus- und Kosinuskomponente eines Quadraturträgers tr in das gewünschte Hochfrequenzband f übertragen und getrennt über die Antennen ASl, AS2 ausgestrahlt. Die erforderlichen Impulsformfilter sowie die Filtereinrichtungen zur Vermeidung von Stör- und Aliasignalen sind der besseren Übersicht wegen in Fig. 6 nicht dargestellt.
Fig. 7 zeigt schematisch als Blockschaltbild ein Ausführungsbeispiel für eine Empfangseinrichtung E50 nach der Erfindung. Bei dem Schaltungsblock E5 handelt es sich um einen Überlagerungsempfänger, der das über die Antenne AE empfangene hochfrequente Signal mittels eines Hochfrequenzmischers M3 aus dem hochfrequenten Kanal f in eine Zwischenfrequenzlage umsetzt, die etwa in einem Frequenzbereich von 1 bis 2 MHz liegt. Der Träger für den Mischer M3 ist ein Hochfrequenzsignal HF aus einem lokalen Oszillator Os2. Nach dem Mischer M3 filtert ein Bandpass Fldas gewünschte Frequenzband aus und führt das gefilterte Signal einem Analog- Digitalumsetzer ADE zur Digitalisierung zu. Die Umsetzung in eine Zwischenfrequenz hat den Vorteil, dass nur ein einziger Analog-Digitalumsetzer ADE erforderlich ist. Bei der Null-ZF- oder Tief-ZF-Umsetzung erfolgt bekanntlich eine Aufspaltung in zwei Kanäle, die in Quadratur zueinander stehen und die somit auch zwei Analog-Digitalumsetzer erfordern. Die weitere Verarbeitung in der Dekodiereinrichtung CE erfolgt unabhängig von der vorausgehenden Stufe E5 rein digital. Das digitalisierte Signal nach dem Analog-Digitalumsetzer ADE wird nun mittels eines Quadraturmischers M4 und nicht dargestellter Dezimierstufen so umgesetzt, dass die Datenrate des resultierenden Datenstromes der Symbolrate ts oder einem ganzzahligen Vielfachen davon entspricht. Der Quadraturmischer M4 ist von einem Oszillator Os3 mit einer Sinus- und Kosinuskomponente der heruntergemischten Trägerfrequenz gespeist, die am Ausgang des Mischers M4 auch zwei Mischungskomponenten ergeben. Zur Verdeutlichung sind in Fig. 7 die Datenleitungen für diese zwei Komponenten als Doppellinien dargestellt. Wenn der vorausgehende Schaltungsblock E5 ein Null-ZF- oder ein Tief-ZF-Umsetzer ist, dann sind bereits zwei in Quadratur stehende Datenpfade in tiefer Frequenzlage vorhanden und der Quadraturmischer M4 entfällt.
Bei den Komponenten in den beiden Datenleitungen handelt es sich um digitalisierte Signalwerte, die allerdings mit den übertragenen Symbolen verkoppelt sind. Ein elektronischer Schalter Swl verteilt nun diese digitalen Werte synchron zum Symboltakt ts auf zwei Schalterausgänge 1, 2 und speist damit die Eingänge einer Symbolerkennungseinrichtung SD.
Mit dem Schalter Swl werden die Signale aus dem Mischer M4 alternierend auf die beiden Eingänge 1, 2 der Symbolerkennungseinrichtung SD aufgeteilt, an deren Ausgang die entschiedenen Symbole aus dem empfangenen Signal abgreifbar sind. Durch die alternierende Aufteilung und die nachfolgende Lösung der linearen Gleichungen für die empfangenen Signale in der
Linearkombination h"1 stehen an deren beiden Ausgänge von jedem Symbolpaar Syl, Sy2 die vorläufig geschätzten Symbole A', B' bzw. C, D' zur Verfügung. Ein Entscheider ET bildet daraus die entschiedenen Symbole A", B" bzw. C", D", die mittels einer nachgeordneten Tabelle TB in elektronische Daten für die Symbole A, B, C, D für die Weiterverarbeitung umgesetzt werden. Aus den parallel anstehenden Symbolen A, B bzw. C, D der Symbolpaare bildet ein alternierend mit dem Symboltakt ts gesteuerter Schalter Sw2 wieder die ursprüngliche Datenfolge D0mit den Daten A, B, C, D. Dieser Datenstrom kann in das gewünschten Audiosignal umgewandelt werden.
Bei der Dekodierung der Symbole, insbesondere im Null-ZF oder Tief-ZF-Verfahren, kann der Fall auftreten, dass beim Mischen der Träger in ein aktives Frequenzband gelegt wird. Dadurch wird eine große Gleichkomponente im heruntergemischten Signal erzeugt, die in der Regel die Arbeitsbereiche der Analog-Digitalumsetzer übersteigt. Beim Herabregeln der Signalgröße geht die Auflösung verloren. Sinnvoll ist daher die Beschreitung eines anderen Weges, bei dem mittels eines einfachen Regelkreises dem Analogsignal vor der Digitalisierung ein genügend großer Gleichwert überlagert wird, bis das Signal einigermaßen im Aussteuerbereich des oder der Analog-Digitalumsetzer liegt.
Die Anpassung der Parameter in der Linearkombination h"1 erfolgt, indem die Signale der Eingänge 1, 2 und die beiden Ausgänge des Symbolentscheiders ET auf jeweils einen Eingang der Recheneinheit RE zum Vergleich geführt sind. Im eingeschwungenen Zustand sollen die empfangenen Symbole A', B', C, D' und die entschiedenen Symbole A", B", C", D" bis auf nicht vermeidbare Rauschanteile durch die inversen Übertragungsfunktionen hf1, h2 2 in der Linearkombination h"1 miteinander verknüpft sein, denn die inverse Übertragungsfunktionen sollen ja die Übertragungswege genau kompensieren. Abweichungen in der Linearität werden in der
Recheneinheit RE über deren Gleichungssysteme festgestellt und erzeugen Korrektursignale, die über ein Regelkreisfilters Fr Korrektureingängen der Linearkombination h"1 zugeführt werden.
Zur Umwandlung in das Audiosignal sind jedoch noch weitere Angaben erforderlich, wie beispielsweise die Lautstärke, die Klangfarbe oder die Balance, die vom jeweiligen Ort der
Audiowiedergabeeinrichtung abhängig ist. Weitere Steuerinformationen betreffen den Standort des Gerätes innerhalb des Raumklangsystems, also seine Adresse, das angewendete Datenkomprimierungsverfahren, Informationen über die aktuellen Schutzmaßnahmen zur Datensicherung bei der Übertragung und Sychronisationsbits zur Erkennung des Datenpaketanfangs und zur Synchronisation der Symbolerkennung. Derartige Steuerinformationen müssen dem eigentlichen Audiosignal unhörbar überlagert oder zusätzlich dazu übertragen werden. Hier bietet sich zweckmäßigerweise das Paketformat für die Übertragung an, das in einem Kopfteil alle erforderlichen Steuerinformationen und Adressen enthält. Der eigentliche Datenteil, enthält dann die Daten für das Audiosignal, ev. auch noch Prüfbits oder Leerbits, um die einzelnen Datenbereiche auszufüllen.
Da die Quellendatenströme gelegentlich schon digitalisiert sind, soll eine Abtastratenwandlung oder gar Umkodierung mit dem Umweg über ein analoges Signal vermieden werden. Das erfordert aber die Übertragung so unterschiedlicher Abtastraten wie 44,1 kHz oder bei 48 kHz und ganzzahliger Vielfache davon. Die gewählte einheitliche Datenpaketstruktur, meist als „Frame" bezeichnet, ist zweckmäßigerweise 10 ms lang. Nach einem Kopfdatenbereich (=Header) mit Synchronisationsbits und den Steuerparametern werden bei 48 kHz zwei Stereoblöcke mit je 2 x 240 6-Bit-Werten übertragen. Bei 44, 1 kHz werden drei Stereoblöcke mit je 2x147 6-Bit-Werten übertragen. Bei 44,1 kHz und niedrigeren Abtastraten werden die unbenötigten Bits in den einzelnen Datenblöcken mit einer festgelegten Bitsequenz aufgefüllt.
Fig. 8 zeigt hierzu schematisch die Datenformate für die Übertragung der Audiodaten. Beide Datenformate stellen jeweils ein Datenpaket FD mit 10 ms Länge dar. Das obere Datenformat eignet sich besonders für eine Quellenrate von 48 kHz und das untere für eine Quellenrate von 44,1 kHz. Dem Kopfdatenbereich H folgen alternierend die einzelnen Datenblöcke für den linken und rechten Audiokanal L bzw. R. Zweckmäßigerweise orientiert sich die Komprimierung paarig an diesen Blöcken, so dass die Dekomprimierung (vgl. Pfeile „Dekomp." in Fig. 8) auf der Empfängerseite jeweils nach Empfang des ersten Audioblockpaares L, R beginnen kann. Bei dem oberen Frame entspricht das einer Verzögerung von etwa 5 ms und bei dem unteren Frame etwa 3,3 ms. Auf der Senderseite kommt etwa nochmals der gleiche Verzögerungswert hinzu, so dass die Forderung nach Lippensynchronität, die weniger als 20 ms Verzögerung zwischen Bild und Ton verlangt, eingehalten werden kann.

Claims

Patentansprüche
1. Drahtloses Audiosignalübertragungsverfahren für Audiosignale zwischen einer Sendeeinrichtung (S40) und einer räumlich benachbarten Empfangseinrichtung (E50), die einer in ein Raumklangsystem einbezogenen Audiosignalwiedergabeeinrichtung (LB) zugeordnet ist, mit folgenden Merkmalen:
die Audiosignale werden in der Sendeeinrichtung (S40) vor der Übertragung digitalisiert, komprimiert und als Datenpakete (FD) mittels eines digitalen Hochfrequenzübertragungsverfahrens übertragen, wobei den einzelnen Daten Symbole in einer
Quadratursignalebene zugeordnet sind,
zwischen der Sendeeinrichtung (S40) und der Empfangseinrichtung (E50) findet ein Senderdiversitybetrieb statt, wobei die Sendeeinrichtung zwei getrennte, aber im gleichen Frequenzband (f) arbeitende Hochfrequenzsender (S5, S6) mit zugehörigen Sendeantennen
(ASl, AS2), die Audiosignalwiedergabeeinrichtung (LB) jedoch nur eine einzige Empfangseinrichtung (E50) mit einer Empfangsantenne (EA) und einem Hochfrequenzempfänger (E5) für das Frequenzband (f) aufweist, und
- die beiden Datenströme für den Senderdiversitybetrieb werden aus dem zuvor digitalisierten Audiodatenstrom durch eine vorgegebene Codierungsanweisung abgeleitet.
2. Audiosignalübertragungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass
- in der Sendeeinrichtung (S40) die Datenfolge (D0) vor der Übertragung in eine erste und zweite Datenfolge (Di, D2) von aufeinenderfolgenden Symbolpaaren (Syl, Sy2) umgesetzt wird, wobei in der ersten und zweiten Datenfolge (Di, D2) die zeitlich zusammengehörigen Symbolpaare die jeweils die gleichen Symbole (A, B bzw. C, D) enthalten,
- in der ersten und zweiten Datenfolge (Di, D2) die Reihenfolge der Symbole (A, B bzw. C, D) innerhalb der Symbolpaare (Syl, Sy2) im zeitlichen Ablauf gegeneinander vertauscht wird und
außer der zeitlichen Vertauschung auch eine Änderung ihrer Codierung bezüglich der Quadratursignalkomponenten vorgenommen wird, wobei sich die Änderung auf das Vorzeichen des jeweiligen Symbols bezieht und/oder auf eine Umformung des jeweiligen Symbols in seine konjugiert komplexe Größe.
3. Audiosignalübertragungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Datenumfang der digitalisierten Audiosignale mittels eines Kompressionsverfahrens in der
Sendereinrichtung (S40) reduziert und in der Empfangseinrichtung (E50) mittels eines zugehörigen Dekompressionsverfahrens wieder rückgängig gemacht wird.
4. Audiosignalübertragungs verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Datenpakete (FD) eine Kopfinformation (H) mit Steuer- und Hilfsinformationen enthalten.
5. Audiosignalübertragungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Datenteil jedes Datenpaketes (FD) Audiodaten für zwei Audiosignalwiedergabeeinrichtungen (LB) enthält.
6. Audiosignalübertragungsverf hren nach Anspruch 5, dadurch gekennzeichnet, dass jedes Datenpaket (FD) eine gerade Anzahl von Datenblöcken enthält, mit denen blockweise alternierend die Daten eines ersten und zweiten Audiokanals (L, R) übertragen werden.
7. Sendeeinrichtung (S40) zur Verwendung in einem drahtlosen
Audiosignalübertragungsverfahren gemäß einem der Ansprüche 1 bis 6 zwischen der Sendereinrichtung (S40) und einer räumlich benachbarten Empfangseinrichtung (E50), die einer in ein Raumklangsystem einbezogenen Audiosignalwiedergabeeinrichtung (LB) zugeordnet ist, dadurch gekennzeichnet, dass
- die Sendeeinrichtung (S40) zwei Hochfrequenzsender (S5, S6) enthält, denen digitalisierte Audio- und Steuersignale als Datenpakete (FD) aus einer Codiereinrichtung (CS) zugeführt sind,
die beiden Hochfrequenzsender (S5, S6) Quadratursighale im gleichen Frequenzband (f) erzeugen, die mit den Daten der Datenpakete (FD) moduliert sind, und die beiden Hochfrequenzsender (S5, S6) jeweils mit einer Antenne (AS 1, AS2) für einen Senderdiversitybetrieb ausgestattet sind
Sendeeinrichtung (S40 nach Anspruch 7, dadurch gekennzeichnet, dass die Codiereinrichtung (SC) aus einer ursprunglichen Datenfolge (D0) eine erste und zweite Datenfolge (Di, D2) bildet, die in einer Hochfrequenzstufe (S4) mittels zweier Quadraturmischer (M 1 , M2) in das gleiche Hochfrequenzband (f) umgesetzt und der ersten bzw zweiten Antenne (ASl, AS2) zur Abstrahlung zugeführt sind
Sendeeinπchtung (S40) nach Anspruch 8, dadurch gekennzeichnet, dass die Codiereinrichtung (SC) eine Codierung nach dem Space-Time-Blockcode vornimmt
Empfangseinrichtung (E50) zur Verwendung in einem drahtlosen Audiosignalubertragungs- verfahren gemäß einem der Ansprüche 1 bis 8 zwischen einer Sendereinrichtung (S40) und der räumlich benachbarten Empfangseinrichtung (E50), die einer in ein Raumklangsystem einbezogenen Audiosignalwiedergabeeinrichtung (LB) zugeordnet ist,
dadurch gekennzeichnet, daß
die Empfangseinrichtung (E50) eine einzige Hochfrequenzsempfangsstufe (E5) für den Empfang hochfrequenter, im Senderdiversity ausgestrahlter Signale enthalt, die die hochfrequenten Signale in eine wesentlich tiefere Frequenzlage umsetzt, wobei das Senderdiversity zwei unterschiedliche Signale aufweist, die sendeseitig mittels zweier Antennen (ASl, AS2), aber im gleichen Frequenzband (f), abgestrahlt sind, und
sich an die Hochfrequenzempfangsstufe (E5) eine Analog-Digitalumsetzerstufe (ADE) anschließt, der eine digitale Decodierungseinπchtung (CE) folgt, die aus den Signalen in der tiefen Frequenzlage die übertragenen Symbole (A, B, C, D) decodiert
Empfangseinπchtung (E50) nach Anspruch 10 dadurch gekennzeichnet, dass die Decodierungseinπchtung (CE) eine Decodierung nach dem Space-Time-Blockcode vornimmt und in Signalflussπchtung folgende Funktionseinheiten enthalt einen elektronischen Umschalter (Swl), der im Takt der Symbolrate (ts) das digitalisierte Empfangssignal einem ersten und zweiten Anschluß (1, 2) einer Linearkombination (h"1) zuführt, einen mit den beiden Ausgangen der Linearkombination (h 1) verbundenen Symbolentscheider (ET) an den sich eine Symboltabelle (TB) anschließt, die an zwei parallelen Ausgängen die logischen Pegel der zugehörigen Symbole liefert und schließlich ein weiterer elektronischer Umschalter (Sw2), der durch alternierendes Umschalten im Symboltakt (ts) aus den parallel anstehenden Symbolen wieder die ursprüngliche Datenfolge (D0) bildet.
EP03740365A 2002-06-28 2003-06-27 Drahtloses audiosignalübertragungsverfahren für ein raumklangsystem Withdrawn EP1520362A1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10229266 2002-06-28
DE10229266 2002-06-28
PCT/EP2003/006816 WO2004004178A1 (de) 2002-06-28 2003-06-27 Drahtloses audiosignalübertragungsverfahren für ein raumklangsystem

Publications (1)

Publication Number Publication Date
EP1520362A1 true EP1520362A1 (de) 2005-04-06

Family

ID=29796007

Family Applications (1)

Application Number Title Priority Date Filing Date
EP03740365A Withdrawn EP1520362A1 (de) 2002-06-28 2003-06-27 Drahtloses audiosignalübertragungsverfahren für ein raumklangsystem

Country Status (4)

Country Link
US (1) US20060153389A1 (de)
EP (1) EP1520362A1 (de)
JP (1) JP2005531955A (de)
WO (1) WO2004004178A1 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004017215A1 (de) * 2004-04-05 2005-10-20 Sennheiser Electronic Audiovisuelles System
US20060009985A1 (en) * 2004-06-16 2006-01-12 Samsung Electronics Co., Ltd. Multi-channel audio system
JP2006101496A (ja) 2004-09-02 2006-04-13 Mitsubishi Materials Corp オーディオ・ビジュアルデータ通信システム、オーディオ・ビジュアルデータ送信装置及びオーディオ・ビジュアルデータ再生装置
KR100913873B1 (ko) * 2004-09-13 2009-08-26 삼성전자주식회사 고속 전송률을 가지는 차등 시공간 블록 부호 장치 및 방법
US8050203B2 (en) 2004-12-22 2011-11-01 Eleven Engineering Inc. Multi-channel digital wireless audio system
WO2007019861A2 (en) 2005-08-16 2007-02-22 Play It Sound Aps Playground device with motion dependent sound feedback
US8249527B2 (en) * 2006-02-09 2012-08-21 Vixs Systems, Inc. Multimedia client/server system, client module, multimedia server, radio receiver and methods for use therewith
US8355715B2 (en) * 2006-04-21 2013-01-15 Vixs Systems, Inc. Client module, multimedia server and methods for use therewith
US20090007194A1 (en) * 2007-04-30 2009-01-01 Thales Avionics, Inc. Remote recovery of in-flight entertainment video seat back display audio
DE102010038838A1 (de) * 2010-08-03 2012-02-09 Sennheiser Electronic Gmbh & Co. Kg Audio- und/oder Videoübertragungssystem
RU2011121330A (ru) * 2011-05-27 2012-12-10 Михаил Леонидович Любачев Мобильное звуковоспроизводящее устройство
US9094761B2 (en) * 2011-12-15 2015-07-28 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Digital technique for FM modulation of infrared headphone interface signals
KR102406695B1 (ko) * 2015-12-24 2022-06-08 삼성전자주식회사 무선 통신 시스템에서 사운드 신호를 기반으로 데이터를 송신 및 수신하는 장치 및 방법
WO2017164156A1 (ja) * 2016-03-22 2017-09-28 ヤマハ株式会社 信号処理装置、音響信号の転送方法、及び、信号処理システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0082905B1 (de) * 1981-12-24 1986-04-09 Deutsche ITT Industries GmbH Schaltungsanordnung zur Verarbeitung, Übertragung und akustischen Wiedergabe von digitalisierten Tonfrequenzsignalen
IL100213A (en) * 1990-12-07 1995-03-30 Qualcomm Inc Mikrata Kedma phone system and its antenna distribution system
FR2696064B1 (fr) * 1992-09-18 1994-11-18 France Telecom Système de diffusion de signaux numériques à génération active de la diversité en temps, émetteur et récepteur correspondants.
US5812935A (en) * 1993-04-17 1998-09-22 Hughes Electronics Cellular system employing base station transmit diversity according to transmission quality level
JPH07131858A (ja) * 1993-10-29 1995-05-19 Hitachi Denshi Ltd 1周波同時送受話方式無線機のdtmf信号伝送方式
US6178317B1 (en) * 1997-10-09 2001-01-23 Ibiquity Digital Corporation System and method for mitigating intermittent interruptions in an audio radio broadcast system
WO2000033474A1 (en) * 1998-11-30 2000-06-08 Phonex Corporation Multi-channel wireless speaker system using multiplexed channel combining and frequency diversity
US7088785B2 (en) * 1998-12-31 2006-08-08 Texas Instruments Incorporated Block level space time transmit diversity in wireless communications
US6760323B1 (en) * 1999-02-04 2004-07-06 Concerto Software, Inc. System and method for providing audio communication over a computer network using differing communication formats
US6356528B1 (en) * 1999-04-15 2002-03-12 Qualcomm Incorporated Interleaver and deinterleaver for use in a diversity transmission communication system
US7020072B1 (en) * 2000-05-09 2006-03-28 Lucent Technologies, Inc. Orthogonal frequency division multiplexing transmit diversity system for frequency-selective fading channels
GB0102261D0 (en) * 2001-01-29 2001-03-14 Vtech Communications Ltd Enhanced cordless telephone platform using bluetooth technology
US6885987B2 (en) * 2001-02-09 2005-04-26 Fastmobile, Inc. Method and apparatus for encoding and decoding pause information

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2004004178A1 *

Also Published As

Publication number Publication date
US20060153389A1 (en) 2006-07-13
WO2004004178A1 (de) 2004-01-08
JP2005531955A (ja) 2005-10-20

Similar Documents

Publication Publication Date Title
DE69916104T2 (de) Drahtloses digitales lautsprechersystem
EP1520362A1 (de) Drahtloses audiosignalübertragungsverfahren für ein raumklangsystem
DE3723737C2 (de) Wiedergabegerät für stereophonische Signale
DE60023655T2 (de) Tonmischungsverfahren, sender und empfänger für am und fm in-band auf-kanal digitalen tonrundfunk
EP1374428B1 (de) Sende- und empfangseinheit
WO2006133932A1 (de) Hybrides rundfunksystem mit terrestrischen und satellitengestüzten sendestation zum senden hierarchisch modulierter signale an mobile empfänger
DE102005005603A1 (de) Datenübertragungsvorrichtung zur drahtlosen Datenübertragung für Hörgeräte und entsprechendes Verfahren
EP3566410B1 (de) Verfahren und system zur latenzarmen audioübertragung in einem mobilfunk-netzwerk
EP1706951A1 (de) Digitales mikrofon
DE19855292C1 (de) Digitales Funkkopfhöhrersystem
DE60034204T2 (de) Mobiles Kommunikationsendgerät das geeignet ist für den Empfang von digitalen Hörfunksignalen
EP3094027A1 (de) Verfahren zur übertragung digitaler datenpakete von einem sender zu einem in einem mobilgerät angeordneten empfänger
EP0869649B1 (de) Modulation mit mehrfacher Auflösung
DE602004007556T2 (de) Adaptives weiterleitungssystem, das in einem zwischenverstärker- und in einem router-modus betreibbar ist
DE2803979A1 (de) Verfahren und vorrichtung zur verminderung der nachbarkanalstoerung beim empfang eines amplitudenmodulierten funksignales
DE102006010390A1 (de) Verfahren zum Bereitstellen eines Gesamtsignals zum Übertragen als ein Rundfunksignal, Sendevorrichtung und Empfangsvorrichtung dafür
EP1074130B1 (de) Verfahren und funkstation zur datenübertragung
DE10105738B4 (de) System und Verfahren für die Übertragung von digitalen Audiosignalen
EP1119121A2 (de) Verfahren und Vorrichtung zur digitalen Funk-Übertragung von Audiosignalen
DE2653970A1 (de) Nachrichtenuebertragungsverfahren
EP1201052B1 (de) Verfahren zur aufbereitung von quellcodierten audiodaten sowie sender und empfanger für die durchführung dieses verfahrens
DE19902402A1 (de) Rundfunkempfänger für ein Fahrzeug
DE19949918B4 (de) Drahtlose digitale Audioübertragung im Heimbereich
DE102013213605B4 (de) Verfahren zum Übertragen von Daten
EP0587626A1 (de) Verfahren zur rundfunkübertragung eines zeitlich variierenden steuersignals und rundfunkempfänger zum empfangen eines derartigen steuersignals.

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20050128

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL LT LV MK

DAX Request for extension of the european patent (deleted)
RBV Designated contracting states (corrected)

Designated state(s): DE FR GB IT NL

17Q First examination report despatched

Effective date: 20090109

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: TRIDENT MICROSYSTEMS (FAR EAST) LTD.

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20090922