WO2022157252A1 - Mikrophon, verfahren zum aufzeichnen eines akustischen signals, wiedergabevorrichtung für ein akustisches signal, oder verfahren zum wiedergeben eines akustischen signals - Google Patents

Mikrophon, verfahren zum aufzeichnen eines akustischen signals, wiedergabevorrichtung für ein akustisches signal, oder verfahren zum wiedergeben eines akustischen signals Download PDF

Info

Publication number
WO2022157252A1
WO2022157252A1 PCT/EP2022/051252 EP2022051252W WO2022157252A1 WO 2022157252 A1 WO2022157252 A1 WO 2022157252A1 EP 2022051252 W EP2022051252 W EP 2022051252W WO 2022157252 A1 WO2022157252 A1 WO 2022157252A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
membrane
microphone
loudspeaker
designed
Prior art date
Application number
PCT/EP2022/051252
Other languages
English (en)
French (fr)
Inventor
Klaus Kaetel
Original Assignee
Kaetel Systems Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kaetel Systems Gmbh filed Critical Kaetel Systems Gmbh
Priority to EP22702897.4A priority Critical patent/EP4282162A1/de
Priority to CN202280022691.8A priority patent/CN117242782A/zh
Publication of WO2022157252A1 publication Critical patent/WO2022157252A1/de
Priority to US18/352,685 priority patent/US20230362545A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R7/00Diaphragms for electromechanical transducers; Cones
    • H04R7/02Diaphragms for electromechanical transducers; Cones characterised by the construction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • H04R1/083Special constructions of mouthpieces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/405Non-uniform arrays of transducers or a plurality of uniform arrays with different transducer spacing

Definitions

  • Microphone method of recording an acoustic signal, device for reproducing an acoustic signal, or method of reproducing an acoustic signal
  • the present invention relates to the field of electroacoustics and in particular to concepts for recording and reproducing acoustic signals.
  • acoustic scenes are recorded using a set of microphones. Each microphone outputs a microphone signal.
  • a microphone signal For example, for an orchestral audio scene, 25 microphones may be used.
  • a sound engineer performs a mixing of the 25 microphone output signals into, for example, a standard format such as a stereo format, a 5.1, a 7.1, a 7.2, or other appropriate format.
  • a stereo format for example, two stereo channels are created by the sound engineer or an automatic mixing process.
  • a 5.1 format mixing results in five channels and one subwoofer channel.
  • a mix is made into seven channels and two subwoofer channels in a 7.2 format, for example.
  • a mixed result is applied to electrodynamic loudspeakers.
  • there are two speakers with the first speaker receiving the first stereo channel and the second speaker receiving the second stereo channel.
  • in a 7.2 playback format for example, there are seven loudspeakers in predetermined positions and two subwoofers that can be placed relatively arbitrarily. The seven channels are routed to their respective speakers, and the two subwoofer channels are routed to their respective subwoofers.
  • the European patent EP 2692154 B1 describes a set for capturing and playing back an audio scene, in which not only the translation is recorded and played back, but also the rotation and also the vibration. Therefore, a sound scene reproduced not only by a single detection signal or a single mixed signal, but by two detection signals or two mixed signals which are simultaneously recorded on the one hand and reproduced simultaneously on the other hand. This achieves that different emission characteristics are recorded from the audio scene compared to a standard recording and are reproduced in a playback environment.
  • a set of microphones is placed between the acoustic scene and an (imaginary) auditorium in order to capture the "conventional" or translational signal, which is characterized by a high level of directionality or high quality excellent.
  • a second set of microphones is placed above or to the side of the acoustic scene to record a low-Q or low-directivity signal intended to represent the rotation of the sound waves as opposed to translation.
  • corresponding loudspeakers are placed in the typical standard positions, each having an omnidirectional array to reproduce the rotational signal and a directional array to reproduce the "conventional" translational sound signal.
  • European patent EP 2692144 B1 discloses a loudspeaker for reproducing, on the one hand, the translational audio signal and, on the other hand, the rotary audio signal.
  • the loudspeaker thus has an omnidirectionally emitting arrangement on the one hand and a directionally emitting arrangement on the other hand.
  • European patent EP 2692151 B1 discloses an electret microphone which can be used to record the omnidirectional or the directional signal.
  • European patent EP 3061262 B1 discloses an earphone and a method for manufacturing an earphone that generates both a translatory sound field and a rotary sound field.
  • the European patent application EP 3061266 AO intended for grant discloses a headphone and a method for producing a headphone which is designed to to generate the "conventional" translational sound signal using a first transducer, and to generate the rotary sound field using a second transducer arranged perpendicularly to the first transducer.
  • the recording and playback of the rotational sound field in addition to the translational sound field leads to a significantly improved and thus high-quality audio signal perception, which almost gives the impression of a live concert, although the audio signal is played back through loudspeakers or headphones or earphones.
  • the object of the present invention is to create an improved concept for recording the entire sound on the one hand and for reproducing this entire recorded sound on the other.
  • a microphone for recording an acoustic signal according to patent claim 1 a playback device for an acoustic signal according to patent claim 15, a mobile device according to patent claim 29, a method for recording an acoustic signal according to patent claim 30, a method for reproducing an acoustic Signal according to patent claim 31, or a computer program according to patent claim 32 solved.
  • a microphone comprises a first part-microphone with a first membrane pair with membranes arranged opposite one another, and a second part-microphone with a second membrane pair which also has membranes located opposite one another.
  • the first pair of membranes is aligned such that the membranes of the first pair of membranes can be deflected along a first spatial axis
  • the second pair of membranes is arranged such that the membranes of the second pair of membranes can be deflected along a second spatial axis that is different from the first spatial axis.
  • a third partial microphone with a third pair of membranes is preferably provided, the membranes of the third pair of membranes being deflectable along a third spatial axis which differs from the first and second spatial axes, the spatial axes preferably being orthogonal or essentially orthogonal to one another.
  • each membrane pair of the microphone derives its own differential output signal by combining the membrane output signals of the two membranes arranged opposite one another, using a change in the phase relationship, and preferably a phase reversal of one of the two membrane output signals.
  • a separate differential signal is thus generated for each spatial axis, which represents a corresponding directional component of the rotation signal or, in general, a differential signal in each spatial axis.
  • Such a microphone with two or three sub-microphones can preferably also be used to generate not only the novel difference signals, but also classic component signals, as are known, for example, in the field of ambisonics technology.
  • the membrane output signals of the two membranes lying opposite one another can be added together in order to obtain a corresponding Ambisonics component.
  • the microphone also detects an omnidirectional component, which is obtained either by its own omnidirectional microphone or by adding the three directional components.
  • a microphone thus generates not only the three novel differential signals in the x-direction, y-direction and z-direction, but also the four components B (or W), X, Y and Z of a known one First-order ambisonics signal or a B-format signal. According to the invention, the result is that the acoustic quality is improved once again when such signals are reproduced.
  • the playback side it is preferred to play back at least two and preferably all three difference signals or differential mode signals in addition to the conventional or common-mode signal, specifically by means of a loudspeaker system that has one or more loudspeakers reproducing the conventional CM or common mode signal, and further comprising a second or a second and a third speaker to reproduce the difference signal.
  • a loudspeaker system that has one or more loudspeakers reproducing the conventional CM or common mode signal, and further comprising a second or a second and a third speaker to reproduce the difference signal.
  • three differential signals are provided, and the second loudspeaker device for reproducing the three differential signals comprises a total of at least six transducers, which are arranged in three different spatial directions, so that the differential signals recorded in different spatial directions are reproduced in the same direction on the reproduction side, in which they were originally recorded.
  • a rendering of a microphone signal is performed in a playback environment in which loudspeakers are placed at certain known locations.
  • a conventional translatory microphone signal is used, which can consist of an omnidirectional component and parametric side information, or which is available as a full B-format signal.
  • Vector-based amplitude panning (VBAP) is preferably used to render the microphone signal to the individual loudspeakers, for which appropriate weighting factors are derived from the direction information contained in the side information or from the B-format signal. be used.
  • weighting factors are preferably also used in order not only to render the conventional translatory audio signal, or to “distribute” it to the individual loudspeakers. Instead, these weighting factors are also used to weight or "distribute” the new difference signals in the different room axes to the different loudspeakers. This means that from a Taking position generated complete microphone signal, which consists of a conventional omnidirectional component and three directional components and / or (parametric) metadata that have direction information, and which also has the new two or three differential signals of the two or three spatial axes , a complete rendition can be generated.
  • a loudspeaker at one of the loudspeaker positions comprises a conventional translational element, which is supplied with the rendered translational audio signal for this loudspeaker at this loudspeaker position, and additionally, for each of the difference signals, a difference signal converter arranged according to the spatial direction of the difference signal, which can be designed, for example, as a double membrane without a housing can whose emission direction is arranged in the corresponding spatial axis or spatial direction.
  • Figure 3a shows a combiner for generating the difference signals
  • 3b shows a single combiner for differential signal routing
  • 3c shows a combiner according to an embodiment
  • FIG. 5 shows a microphone holder according to an embodiment
  • FIG. 6 shows a reproduction device according to an embodiment
  • FIG. 8 shows a renderer for a playback device or a mobile device according to an embodiment
  • 9a shows a converter arrangement with converters for each of the three differential signals
  • 9b shows a converter arrangement with a converter for the conventional common mode or CM signal
  • FIG. 10 shows a renderer for a playback device or a mobile device according to a further embodiment
  • FIG. 11 shows a renderer for a playback device or a mobile device according to a further exemplary embodiment with a loudspeaker implementation.
  • FIG. 1 shows a first partial microphone 1 with a membrane pair, which has a first membrane 11 and a second membrane 12, which are arranged opposite one another.
  • FIG. 1 shows a second partial microphone 2 with a second pair of membranes, which has a third membrane 13 and a fourth membrane, which are arranged opposite one another.
  • the first pair of membranes is arranged such that the first membrane 11 and the second membrane can be deflected along a first spatial axis, such as the x-axis
  • the second pair of membranes is arranged such that the third membrane 13 and the fourth membrane 14 along a second spatial axis, such as the y-axis of FIG. 1 can be deflected.
  • the second spatial axis differs from the first spatial axis, so the two spatial axes are not parallel.
  • the two spatial axes x, y are preferably orthogonal to one another or have an angle of between 60 and 120°.
  • Fig. 2 also shows a third partial microphone 13 with a third membrane pair, which has a fifth membrane 15 and a sixth membrane 16, which are arranged opposite one another, the third membrane pair being arranged such that the fifth membrane 15 and the sixth membrane 16 can be deflected along a third spatial axis, such as the z-axis.
  • the third spatial axis differs from the first spatial axis and the second spatial axis, with all three spatial axes preferably being orthogonal to one another. Different angles between the third spatial axis and the first or the second spatial axis, such as in a range between 60 and 120°, are preferred.
  • 2 also shows a very schematic sensitivity characteristic for each membrane 11 to 16, which additionally has either the letter F or the letter R. F stands for front and R stands for rear.
  • F stands for front and R stands for rear.
  • the different sensitivity characteristics of the individual membranes, each of which typically has a counter-electrode, are thus also arranged against one another.
  • Fig. 1 shows exit lines for each membrane.
  • the first partial microphone 1 is designed such that a first membrane signal is delivered in response to a deflection of the first membrane 11, and that a second membrane signal is delivered in response to a deflection of the second membrane, which has a specific phase relationship to the first membrane signal that due to the arrangement of the membranes or the wiring or the recorded sound field.
  • the second sub-microphone 2 which has the two membranes 13, 14, also has output lines in order to supply a third membrane signal from the third membrane 13 and a fourth membrane signal from the fourth membrane 14.
  • the third partial microphone is also designed to generate a fifth membrane signal in response to a deflection of the fifth membrane 15 and a sixth membrane signal in response to a deflection of the membrane 16 in the third spatial axis, for example in the z-direction to deliver.
  • the first sub-microphone, the second sub-microphone and, if present, the third sub-microphone are designed to combine the corresponding membrane signals of the membranes of the membrane pair.
  • This is illustrated in Figure 3a by a schematic combiner shown at 30 as a block for every two or three component microphones.
  • a corresponding individual combiner as shown, for example, in Fig. 3b at 31, can be present for each individual sub-microphone, so that the membrane signals of one sub-microphone are always combined, but that membrane signals from other sub-microphones are used at least for the generation of a first differential output signal 21 for the first partial microphone, a second differential output signal 22 for the second Part microphone and a third differential output signal 23 for the third part microphone are not combined.
  • the combiner 30 is also designed not only to form the difference signals 21, 22, 23, but also to form common-mode or common-mode signals or CM signals 24.
  • CM signals 24 can, for. B. only individual component signals X, Y, Z, as they are known from the Ambisonics technology, or an omnidirectional signal that is obtained, for example, when the membrane signals of all individual membranes are added without phase shift of individual membrane signals.
  • the combiner 30 is designed to combine the first membrane signal 11 and the second membrane signal 12 with a changed first phase relationship.
  • the first differential output signal Diffx 21 is therefore assigned to the first spatial axis, ie for example the x-axis.
  • the second sub-microphone is designed to combine the second membrane signal 13 and the third membrane signal 14 with a changed second phase relation in order to provide a second differential output signal Diffy, which is shown at 22 in FIG. 3a and is associated with the second spatial axis y.
  • the third sub-microphone is designed to combine the fifth membrane signal 15 and the sixth membrane signal 16 with a phase relation that has changed compared to the third phase relation, in order to provide a third differential output signal, which is shown at 23 in FIG. 3a and is assigned to the spatial axis z .
  • phase change element 40 is shown schematically in FIG. 3c, which preferably has a phase value of 180°, the phase angle of the phase element being in the range between 90 and 270° can.
  • the preferred range is 170° to 190°, or 180° in the most preferred embodiment.
  • the phase change device 41 is provided in order to change the second phase relationship for the second partial microphone, so that an addition, as shown schematically in FIG. 3c, takes place with a changed second phase relationship.
  • a phase change element 42 is also provided for the third partial microphone, which changes the third phase relationship between the membrane signals 15, 16 and adds the signals with the changed third phase relationship to obtain the third differential output signal Diffz 23 from FIG. 3c.
  • the combiner is also designed to form conventional common-mode signals.
  • the fifth membrane signal 15 and the sixth membrane signal 16 are added together with the original third phase relation, ie without the effect of a phase element 42, for example.
  • a corresponding procedure is followed in order to obtain a conventional y-direction component of a directional microphone by adding the membrane signals of the second membrane pair, 13, 14, with the original phase relationship, i.e. without the effect of a phase element 41.
  • an X-component is also of a directional microphone when the two directional characteristics, i.e. for the front membrane 11 and the rear membrane 12, are added, again without the effect of a phase element 40.
  • a total omnidirectional signal can be obtained if all six membrane signals are summed together in their original first, second and third phase relation, this omnidirectional signal being referred to as a W signal or P signal, for example, as derived from Ambisonics technology or for a signal in B format is known, which has an omnidirectional component and a directional component in the X direction, a directional component in the Y direction and a Z component in the Z direction.
  • the microphone according to the invention supplies differential signals for the individual directions in addition to these signals or as an alternative to these signals, ie signals that result when a difference is formed between the front and rear directional characteristics , in order to capture the sound field, which to a certain extent prevails laterally with respect to the diaphragms arranged opposite, e.g. B. above and below the two membranes 11, 12 from Fig. 1.
  • the change between the first phase relation on the left in FIG. 3c and the second phase relation on the right in FIG. 3c before the corresponding addition can be achieved by an actually provided phase shifter, a delay line, a phase reversal or a phase reversal.
  • the membrane signals are transmitted as symmetrical signals between a plus line 11a and a minus line 11b.
  • a plus line 11a and a minus line 11b Such a schematic representation of the membrane signal 11 is shown in FIG. 3b, the “line” 11 in FIG. 3c corresponding to the positive individual line 11a, the negative individual line 11b and a ground (GND) 11c.
  • the second membrane signal 12 which in turn consists of a positive line 12a, a negative line 12b and a common ground 12c.
  • the actual membrane signal is transmitted as the difference between the positive and the negative line, as is known for balanced line transmission.
  • the combiner 30 is designed as shown for a single combiner 31 in FIG. 3b.
  • the individual combiner 31 would be provided for each of the three sub-microphones 1, 2, 3 of FIG.
  • the individual combiner 31 has two inputs 32, 34 for the positive potential and two inputs 33, 35 for the negative potential and one (or two) ground inputs 38 for the ground potential GND.
  • the polarity of the positive and negative lines is reversed in the exemplary embodiment shown in FIG it is shown in Fig. 3b on the left for the membrane signal 12.
  • the positive line 12b is connected to the negative input 35 and the negative line 12b is connected to the positive input 34.
  • Diffx difference signal 21
  • GND output ground 39
  • Fig. 4 shows a preferred embodiment of the microphone, in which the three sub-microphones are all held by a membrane holder 50, each sub-microphone having an elongated housing, wherein in the corresponding tip of the sub-microphone the Membrane pairs are arranged, preferably protected by a permeable grid from the outside world.
  • the two membranes of the first partial microphone 1 are arranged in the yz plane, so that a deflection in the x direction is achieved.
  • the two membranes of the second partial microphone 2 are arranged in the x-z plane in order to achieve a deflection in the y direction, ie in the second spatial axis.
  • the two membranes of the third partial microphone 3 are arranged in the xy plane in order to be deflected by sound in the z direction.
  • the individual partial microphones also have an output line, which either leads the individual membrane signals to the outside or which already leads to the outside of the differential output signal 21, 22 or 23 (not shown in FIG. 4).
  • the individual lines can also lead the conventional common-mode components outwards in the individual directions, as shown at 24b, 24c for x and y, where the signal Z, which will be explained further with reference to FIG. 7, is not shown in FIG. 4, but can already be generated by the third partial microphone 3, preferably within the elongated housing.
  • each membrane has a counter-electrode, so that a total of six individual membranes and six corresponding counter-electrodes are present in the microphone according to the invention shown in FIG.
  • These counter-electrodes together form a separate condenser microphone for each membrane, whereby, depending on the implementation, a condenser or electret film can also be applied to the corresponding counter-electrode in order to have six individual condenser or electret microphones in the arrangement shown in FIG.
  • the "tips" of the three sub-microphones 1, 2, 3 are directed towards a common area or axis in order to position the three pairs of membranes as close as possible to one another in order to generate a rotational vibration, represented by its three individual components, which indicate the direction of rotation , to be able to capture.
  • a schematic (partial) microphone holder shown in FIG. 5 is preferably provided, which is shown at 50 in FIG. 4 and which is shown schematically in FIG. 5 in plan view.
  • the microphone holder is triangular or can also be kite-shaped or in another shape. However, it comprises two sides which are at an angle of 90° to one another in order to align the sub-microphone 1 and the sub-microphone 2 at an angle of 90° to one another.
  • a first holder 51 is provided which is provided on the first side of the two sides arranged at right angles to one another, and a second holder 52 which is provided on the other side of the two sides which are arranged at right angles to one another.
  • a third holder 53 is provided, which is formed in the bisecting line of the 90 "angle of the two sides on which the first holder 51 and the second holder 52 are provided and protrudes from the plane of the drawing to third part microphone as close as possible to bring in terms of its sensitive microphone tip to the two microphone tips of the first and second part microphone.
  • the holders 51, 52 and 53 are preferably designed as clips in order to be able to mount the individual sub-microphones without tools.
  • other holding means can also be provided to hold the elongate sub-microphones in the appropriate angled shape so that the diaphragm pairs are aligned as has been explained with reference to FIG. 1 or FIG.
  • the microphones can also be arranged at an angle between 70 and 110 ° or the third holder 53 or the third part microphone at an angle between 30 and Be arranged 60 ° with respect to the first holder and the second holder.
  • the microphone holder 50 is also attached to a tripod 54, indicated schematically in FIG.
  • the microphone can also be suspended from a ceiling with a cable construction instead of the stand 54 in order to have the lower area free, for example when a stage is to be recorded.
  • FIG. 7 shows an overview of all signals that can be supplied by the microphone, as has been shown with reference to FIG. 4, for example, or FIG. 2 or 3b.
  • the microphone can deliver the components of B format, also known as FOA (First Order Ambisonics) format.
  • B format also known as FOA (First Order Ambisonics) format.
  • This is an omnidirectional signal 24a and the directional components 24b, 24c, 24d, as shown at the output 24 in FIG. 3c.
  • These signals are usually used to excite the conventional translational vibrations via an appropriately positioned sound transducer.
  • the microphone according to the invention supplies the differential signals in the three spatial directions Diffx 21, Diffy 22 and Diffz 23.
  • an omnidirectional differential signal 21a could also be generated that can be obtained by adding the three directed difference signals.
  • the present invention thus provides a new type of B format for the rotational vibrations or the differential sound field.
  • the playback device comprises an interface 110 for receiving the first electrical signal 24 corresponding to a common mode acoustic signal, a separate second electrical signal corresponding to a differential acoustic signal and a separate third electrical signal corresponding to a differential acoustic signal.
  • the playback device includes a first loudspeaker device 131a, 132a, 133a, 134a, 135a for playing back the first electrical signal, the first loudspeaker device being designed to generate translational vibrations in response to the first electrical signal.
  • the playback device also includes a second loudspeaker device 131b, 132b, 133b, 134b, 135b for playing back the second and the third electrical signal, the second loudspeaker device being different from the first loudspeaker device.
  • the second loudspeaker device is designed to generate rotational vibrations in response to the second signal, that is to say to a first differential signal, and to the third electrical signal, that is to say in response to the second differential signal.
  • the second loudspeaker device is designed to generate sound with a second directional characteristic that differs from a first directional characteristic that is assigned to the first loudspeaker device.
  • the playback device also includes a renderer 120, which works separately for the common-mode signals, i.e. for the first electrical signal 24, and the differential signals (DM - differential mode), and which in one embodiment provides information about loudspeaker positions in a playback space, as shown at 121, and information 122 about a position of the Microphone, for example the microphone shown in Fig. 4 is obtained.
  • the microphone does not necessarily have to be a real microphone, but can be a virtual microphone that processes synthetic or pre-recorded signals and converts them into a specific microphone format, with this microphone format being based on the state of the sound field at a recording position where the virtual microphone is to be used is arranged, is related.
  • Several virtual microphone signals can also be used and processed in the renderer 120 to describe a sound field.
  • the renderer 120 operates separately for the common mode signals and the differential signals.
  • a left surround playback position or playback position LS arranged at the rear left, a left playback position L, a center playback position C, a right playback position R and a Right Surround or rear right playback position RS as the signals 60, 70, 80, 90, 100.
  • the renderer 120 also supplies difference signals to the corresponding loudspeakers, which are represented by 61 , 71 , 81 , 91 , 101 .
  • the renderer supplies not just a single difference signal for each individual loudspeaker, which consists of both the loudspeaker unit 131a, for example, and the second loudspeaker device 131b, but three difference signals, namely for the spatial directions x, y, z.
  • two or just a single difference signal can also be supplied, so that only two or just a single difference signal to the corresponding loudspeaker and in particular the corresponding loudspeaker device for the difference signals 131b, 132b, 133b, 134b, 135b are supplied.
  • the invention can also be used to render headphone signals from many different microphone signals at many different positions.
  • the renderer (120) is thus designed to render (120) the microphone signal using a virtual position (122) of the real or virtual microphone and using information (121) about the various loudspeaker positions in order to each of a first plurality of speakers to generate a speaker signal (60, 70, 80, 90, 100), or to generate multiple microphone signals using virtual positions of the real or virtual microphones and using different head-related transfer functions (HRTFs) derived from the positions and a respective side of a headphone, to render (120) to generate a headphone signal (60, 70, 80, 90, 100) for each side of two headphone sides, and to render using the position of the real or virtual microphone and using the different speaker positions, to render (120) the first differential output signal (21) and the second differential output signal (22) in order to generate a speaker signal (61, 71, 81, 91, 101) for each speaker of a plurality of second speakers to generate, or by using the virtual positions of the real or virtual microphones and using different head be to render (120) respective first difference output signals and respective
  • Loudspeakers such as are known from EP 2692144 B1, have corresponding inputs for the corresponding acoustic converters.
  • the converter for the translation signal ie for the first electrical signal, which represents a common-mode signal, is shown in FIG. 9b with 131a to 135a.
  • This converter or the corresponding loudspeaker device receives a corresponding signal, namely the signal 60, 70, 80, 90, 100, which can optionally be amplified, as is also shown in FIG. 9b.
  • the second loudspeaker device for the differential signal has only a single signal in the loudspeaker presented in the prior art.
  • each loudspeaker receives two or even three individual signals which can be output to corresponding converters, as illustrated in FIG. 9a.
  • the second loudspeaker device has two converters 170a for the x-direction, ie for the Diffx difference signal.
  • Two converters 170b are provided for the y-difference signal Diffy, which are arranged opposite one another in the schematic cube shown in FIG. 9a.
  • the second loudspeaker device has two converters 170c in order to reproduce the z component of the rotational vibration.
  • the second loudspeaker device thus has a "full equipment" in Fig. 9a at least six individual typically caseless diaphragms, with a pair of opposing diaphragms being fed the respective x,y,z differential signal.
  • the corresponding electrical signals received by the interface 110 can also be output directly via loudspeakers, i.e. without using a renderer 120.
  • a corresponding microphone could be placed at any desired "speaker position" in a studio environment .
  • no renderer 120 is necessary.
  • the signals fed into the interface 110 would be fed into the loudspeakers directly or, if necessary, after amplification, as shown in Figs.
  • the first loudspeaker device which is implemented in each of the five loudspeakers 131, 132, 133, 134, 135, is designed to have a first transducer for acoustically reproducing the common-mode electrical signal, the first transducer being designed to have a to emit first direction.
  • the second loudspeaker device includes a second transducer for acoustically reproducing the first differential signal, the second transducer being designed to emit in a second direction that differs from the first direction.
  • the second loudspeaker device also has a third transducer for acoustically converting the second difference signal, the third transducer being designed to emit in a third direction, which is different from the first and the second direction or is different from the second direction and is substantially equal to the first direction.
  • This implementation also includes the case where the rotational vibration has a component in the direction in which the conventional translational vibration takes place.
  • the interface comprises three differential electrical signals 21, 22, 23, identified as the second electrical signal, the third electrical signal and the fourth be referred to as an electrical signal.
  • the interface can also receive only two electrical signals as differential signals, so that the rotational vibration can be reproduced correctly, at least in a two-dimensional direction.
  • the first loudspeaker device for the common-mode signal ie for the conventional audio signal
  • the first loudspeaker device is equipped with a crossover 162, a tweeter 161 and a woofer or mid-range driver 163, as shown at 131a in FIG.
  • the first loudspeaker device can also have several different converters, which, however, are all driven by one and the same common-mode signal 24, for example, or one and the same common-mode signal 60, 70, 80, 90, 100 from Fig. 6 (apart from a frequency division via the crossover 162) are fed.
  • the individual differential converters 170a, 170b, 170c, shown at 131b in Fig. 11 or in Fig. 9b, are each fed with different signals which have not been generated by frequency decomposition or the like, but which have preferably been recorded separately , and rendered separately, either directly or through independent separate rendering. So there is preferably no mixing between the difference signals on the way from recording to playback, but only rendering, ie z. B. an application of appropriate panning weights, as is also shown with reference to FIGS. In addition, there is also no mixing in the reproduction or in the renderer 120 of the common-mode signal on the one hand and one or more differential signals on the other hand.
  • the corresponding signals are routed separately to the corresponding transducers and the acoustic output signals are only superimposed in the sound field generated by one or more of the loudspeakers 131, 132, 133, 134, 135, as shown in FIG is.
  • the common mode renderer receives either only the omnidirectional electrical signal 24a or the complete FOA or B format signal with the X component 24b, the Y component 24c and the Z component 24d.
  • the difference signal renderer only receives the difference signals in the x-direction 20, in the y-direction 22 and in the z-direction 23.
  • the difference-signal renderer is supplied with the rendering setting 121, which the common-mode renderer from the B format signals for a particular display device.
  • the rendering of the difference signals is therefore possible efficiently because it takes place with the same rendering settings 121 and in particular with corresponding panning weights 121a as explained in FIG. 10 . There is therefore no need to determine rendering weights yourself. Instead, the differential signals 21, 22, 23 are "treated" in the same way as the omnidirectional signal 24a, i.e. the common-mode signal in Fig. 8.
  • the difference signal renderer Different from the rendering for the common mode signal, it is further preferred to reduce the effort that the difference signal renderer only generates a left difference rendered signal, a center difference rendered signal and a right difference rendered signal, and that then the left rear difference rendered signal ( LS) and right rear (RS) is derived from the rendering signal for left and from the rendered signal for right, respectively.
  • a possible form of generation consists in the embodiment shown in FIG. 8 in a simple copy of the signal and a gain adjustment of the signal for left rear and right rear, whereby this gain adjustment can be an attenuation or an amplification depending on the implementation, with attenuation being preferred is used to concentrate the impression of the rotating sound field on the front L, C, R channels.
  • the panning weights are calculated from the common-mode signals or with the common-mode signals associated metadata is determined.
  • the position of a sound source in the common-mode signal is determined, specifically with respect to a microphone position. Then, using a position of a loudspeaker or several loudspeakers in a reproduction room and using the (virtual) position of the microphone in the reproduction room, the sound source in the common-mode signal is “placed” somewhere in the reproduction room, preferably using vector-based amplitude panning “.
  • the signal assigned to the sound source is provided with a weighting factor in order to obtain a corresponding signal.
  • a sound source to be placed between left and center is mapped such that a panning factor for the omnidirectional signal is 0.5 for the left speaker and is also 0.5 for the right speaker. If both speaker signals are then converted, the appears Sound source as a kind of "phantom source" between left and center. The same procedure is used for other sound sources in the signals.
  • the common-mode signal can be separated into individual sound sources using any source separation algorithm.
  • a preferred embodiment consists in subjecting the signal to a time-frequency transformation, with a plurality of sub-bands being generated for a sequence of consecutive frames, and with it then being determined per time-frequency bin of the sequence of frames from which direction the sound in the microphone signal is coming from.
  • This direction determination can be achieved by simply reading out metadata that has already been provided, which specify a DOA direction with an azimuth angle and an elevation angle for each time/frequency bin.
  • diffuseness information can also be supplied for the DOA information per time-frequency bin, as is known from audio signal processing, which is known among experts under the name DirAC (Directional Audio Coding). .
  • the panning weights are determined depending on the corresponding direction information, which is presented with “direction” in FIG per loudspeaker signal P, which is denoted by 24a.
  • the signal 24a can be the omnidirectional signal or a virtual microphone signal that has been derived for the corresponding loudspeaker.
  • This signal is then applied with the appropriate panning weight block 157 in weighter 153 in response to the appropriate DOA (Direction of Arrival) direction.
  • a diffuse signal is also generated using the upper branch, which has a decorrelator 154 .
  • the proportion of the diffuse signal is set by the two weights 151, 152 depending on the diffuseness information (diffusity information).
  • Both branches, the "diffuse branch” and the "direct branch” are in added to an adder 155.
  • This processing is carried out individually for each sub-band and in a further adder 156 all other correspondingly processed sub-bands are added up in order to obtain a loudspeaker signal for the first loudspeaker device, which is shown as an example in Fig. 11 with 60 for the left rear channel which, as has already been stated, a tweeter 161 and a woofer or mid-range driver 163 can have.
  • each differential signal is treated in the same way as the omnidirectional signal 24a, i.e. weighted with a weighter 158, which operates under the control of the panning weights, and an adder 159 then adds up correspondingly weighted other subbands of the same differential signal , to then e.g. B. to generate the differential signal for the x-direction, ie 61a, for the left rear loudspeaker.
  • a corresponding procedure is followed in order to generate the differential signals 61b, 61c for the Y converters and the Z converters.
  • the renderer 120 can be implemented together with the interface 121, for example, in mobile phone software or generally in a mobile device, with the signals for the individual loudspeakers 131, 132, 133, 134, 135 being transmitted, for example, via wireless transmission to the corresponding speakers can be supplied.
  • the mobile device is shown as 200 in FIG. B. a processor, a memory, various wireless interfaces, an accumulator, etc.
  • a central unit can be provided, which has an interface independently of a mobile phone in order to receive the signals 21, 22, 23, 24 from whatever source, and which is then designed to supply the corresponding renderer output signals 60 to 101 via lines to the corresponding loudspeakers.
  • the interface itself and a corresponding renderer for the corresponding loudspeaker can be implemented in the loudspeaker 131, 132, 133, 134, 135 itself, in which case each loudspeaker has a voltage supply and a corresponding input for the signals, i.e. the interface 110 , would exhibit.
  • each loudspeaker has a voltage supply and a corresponding input for the signals, i.e. the interface 110 , would exhibit.
  • Some or all of the method steps may be performed by hardware apparatus (or using a hardware Apparatus), such as a microprocessor, a programmable computer, or an electronic circuit. In some embodiments, some or more of the essential process steps can be performed by such an apparatus.
  • embodiments of the invention may be implemented in hardware or in software. Implementation can be performed using a digital storage medium such as a floppy disk, DVD, Blu-ray Disc, CD, ROM, PROM, EPROM, EEPROM or FLASH memory, hard disk or other magnetic or optical memory, on which electronically readable control signals are stored, which can interact with a programmable computer system in such a way or interact that the respective method is carried out. Therefore, the digital storage medium can be computer-readable.
  • a digital storage medium such as a floppy disk, DVD, Blu-ray Disc, CD, ROM, PROM, EPROM, EEPROM or FLASH memory, hard disk or other magnetic or optical memory, on which electronically readable control signals are stored, which can interact with a programmable computer system in such a way or interact that the respective method is carried out. Therefore, the digital storage medium can be computer-readable.
  • some embodiments according to the invention comprise a data carrier having electronically readable control signals capable of interacting with a programmable computer system in such a way that one of the methods described herein is carried out.
  • embodiments of the present invention can be implemented as a computer program product with a program code, wherein the program code is effective to perform one of the methods when the computer program product runs on a computer.
  • the program code can also be stored on a machine-readable carrier, for example.
  • Other exemplary embodiments include the computer program for performing one of the methods described herein, the computer program being stored on a machine-readable carrier.
  • an exemplary embodiment of the method according to the invention is therefore a computer program that has a program code for performing one of the methods described herein when the computer program runs on a computer.
  • a further exemplary embodiment of the method according to the invention is therefore a data carrier (or a digital storage medium or a computer-readable medium) on which the computer program for carrying out one of the methods described herein is recorded.
  • a further exemplary embodiment of the method according to the invention is therefore a data stream or a sequence of signals which represents the computer program for carrying out one of the methods described herein.
  • the data stream or sequence of signals may be configured to be transferred over a data communication link, such as the Internet.
  • Another embodiment includes a processing device, such as a computer or programmable logic device, configured or adapted to perform any of the methods described herein.
  • a processing device such as a computer or programmable logic device, configured or adapted to perform any of the methods described herein.
  • Another embodiment includes a computer on which the computer program for performing one of the methods described herein is installed.
  • a further exemplary embodiment according to the invention comprises a device or a system which is designed to transmit a computer program for carrying out at least one of the methods described herein to a recipient.
  • the transmission can take place electronically or optically, for example.
  • the recipient may be a computer, mobile device, storage device, or similar device.
  • the device or the system can, for example, comprise a file server for transmission of the computer program to the recipient.
  • a programmable logic device e.g., a field programmable gate array, an FPGA
  • a field programmable gate array may cooperate with a microprocessor to perform any of the methods described herein.
  • the methods are performed on the part of any hardware device. This can be hardware that can be used universally, such as a computer processor (CPU), or hardware that is specific to the method, such as an ASIC.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Multimedia (AREA)
  • Stereophonic Arrangements (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

Mikrophon mit folgenden Merkmalen: einem ersten Teilmikrophon (1) mit einem ersten Membranpaar, das eine erste Membran (11) und eine zweite Membran (12) aufweist, die einander gegenüberliegend angeordnet sind; einem zweiten Teilmikrophon (2) mit einem zweiten Membranpaar, das eine dritte Membran (13) und eine vierte Membran (14) aufweist, die einander gegenüberliegend angeordnet sind, wobei das erste Membranpaar so angeordnet ist, dass die erste Membran (11) und die zweite Membran (12) entlang einer ersten Raumachse auslenkbar sind, wobei das zweite Membranpaar so angeordnet ist, dass die dritte Membran (13) und die vierte (14) entlang einer zweiten Raumachse auslenkbar sind, und wobei die zweite Raumachse zu der ersten Raumachse unterschiedlich ist.

Description

Mikrophon, Verfahren zum Aufzeichnen eines akustischen Signals, Wiedergabevorrichtung für ein akustisches Signal, oder Verfahren zum Wiedergeben eines akustischen Signals
Beschreibung
Die vorliegende Erfindung bezieht sich auf das Gebiet der Elektroakustik und insbesondere auf Konzepte zum Aufzeichnen und Wiedergeben von akustischen Signalen.
Typischerweise werden akustische Szenen unter Verwendung eines Satzes von Mikrophonen aufgenommen. Jedes Mikrophon gibt ein Mikrophonsignal aus. Für eine Audioszene eines Orchesters, beispielsweise, können 25 Mikrophone verwendet werden. Dann führt ein Toningenieur eine Mischung der 25 Mikrophon-Ausgangssignale in, beispielsweise, ein Standardformat durch, wie beispielsweise ein Stereoformat, ein 5.1-, ein 7.1-, ein 7.2-, oder ein anderes entsprechendes Format. Bei einem Stereoformat werden beispielsweise durch den Toningenieur oder einen automatischen Mischprozess zwei Stereokanäle erzeugt. Bei einem 5.1 -Format resultiert das Mischen in fünf Kanälen und einem Subwoofer- Kanal. Analog hierzu wird beispielsweise in einem 7.2-Format eine Mischung in sieben Kanäle und zwei Subwoofer- Kanäle vorgenommen. Wenn die Audioszene in einer Wiedergabeumgebung „gerendert“ bzw. aufbereitet werden soll, wird ein Mischergebnis an elektrodynamische Lautsprecher angelegt. In einem Stereo- Wiedergabeszenario existieren zwei Lautsprecher, wobei der erste Lautsprecher den ersten Stereokanal empfängt, und der zweite Lautsprecher den zweiten Stereokanal empfängt. In einem 7.2-Wiedergabeformat existieren beispielsweise sieben Lautsprecher an vorbestimmten Positionen und darüber hinaus zwei Subwoofer, die relativ beliebig platziert werden können. Die sieben Kanäle werden an die entsprechenden Lautsprecher angelegt, und die zwei Subwoofer-Kanäle werden an die entsprechenden Subwoofer angelegt.
Die Verwendung einer einzigen Mikrophonanordnung bei der Erfassung von Audiosignalen und die Verwendung einer einzigen Lautsprecheranordnung bei der Wiedergabe der Audiosignale vernachlässigen typischerweise die wahre Natur der Schallquellen. Das europäische Patent EP 2692154 B1 beschreibt ein Set zum Erfassen und Wiedergeben einer Audioszene, bei dem nicht nur die Translation aufgenommen und wiedergegeben wird, sondern auch die Rotation und darüber hinaus auch die Vibration. Daher wird eine Tonszene nicht nur durch ein einziges Erfassungssignal oder ein einziges gemischtes Signal wiedergegeben, sondern durch zwei Erfassungssignale oder zwei gemischte Signale, die einerseits simultan aufgezeichnet werden, und die andererseits simultan wiedergegeben werden. Damit wird erreicht, dass unterschiedliche Emissionscharakteristika von der Audioszene im Vergleich zu einer Standard-Aufnahme aufgezeichnet werden und in einer Wiedergabeumgebung wiedergegeben werden.
Hierzu wird, wie es in dem europäischen Patent dargestellt ist, ein Satz von Mikrophonen zwischen der akustischen Szene und einem (gedachten) Zuhörerraum platziert, um das „konventionelle“ oder Translations-Signal zu erfassen, das sich durch eine hohe Gerichtetheit bzw. hohe Güte auszeichnet.
Darüber hinaus wird ein zweiter Satz von Mikrophonen oberhalb oder seitlich von der akustischen Szene platziert, um ein Signal mit niedriger Güte bzw. niedriger Gerichtetheit aufzuzeichnen, das die Rotation der Schallwellen im Gegensatz zur Translation abbilden soll.
Auf der Wiedergabeseite werden an den typischen Standardpositionen entsprechende Lautsprecher platziert, von denen jeder eine omnidirektionale Anordnung hat, um das Rotationssignal wiederzugeben, und eine direktionale Anordnung hat, um das „konventionelle“ translatorische Schallsignal wiederzugeben. Ferner existiert noch ein Subwoofer entweder an jeder der Standard-Positionen oder nur ein einziger Subwoofer an irgendeiner Stelle.
Das europäische Patent EP 2692144 B1 offenbart einen Lautsprecher zum Wiedergeben von, einerseits, dem translatorischen Audiosignal und, andererseits, dem rotatorischen Audiosignal. Der Lautsprecher hat also eine omnidirektional emittierende Anordnung einerseits und eine direktional emittierende Anordnung andererseits.
Das europäische Patent EP 2692151 B1 offenbart ein Elektretmikrophon, das zum Aufzeichnen des omnidirektionalen oder des direktionalen Signals eingesetzt werden kann.
Das europäische Patent EP 3061262 B1 offenbart einen Ohrhörer und ein Verfahren zum Herstellen eines Ohrhörers, der sowohl ein translatorisches Schallfeld als auch ein rotatorisches Schallfeld erzeugt.
Die zur Erteilung vorgesehene europäische Patentanmeldung EP 3061266 AO offenbart einen Kopfhörer und ein Verfahren zum Erzeugen eines Kopfhörers, der ausgebildet ist, um unter Verwendung eines ersten Wandlers das „konventionelle“ translatorische Schallsignal zu erzeugen, und unter Verwendung eines zweiten senkrecht zum ersten Wandler angeordneten Wandlers das rotatorische Schallfeld zu erzeugen.
Die Aufzeichnung und Wiedergabe des rotatorischen Schallfelds zusätzlich zum translatorischen Schallfeld führt zu einer signifikant verbesserten und damit hochqualitativen Audiosignalwahrnehmung, die nahezu den Eindruck eines Live-Konzertes vermittelt, obgleich das Audiosignal durch Lautsprecher oder Kopf- bzw. Ohrhörer wiedergebeben wird.
Damit wird ein Schallerlebnis erreicht, das nahezu nicht unterscheidbar von der ursprünglichen Tonszene ist, bei der der Schall nicht durch Lautsprecher, sondern durch Musikinstrumente oder menschliche Stimmen emittiert wird. Dies wird dadurch erreicht, dass berücksichtigt wird, dass der Schall nicht nur translatorisch, sondern auch rotatorisch und gegebenenfalls auch vibratorisch emittiert wird und daher entsprechend aufgezeichnet und auch wiedergegeben werden soll.
Die Aufgabe der vorliegenden Erfindung besteht darin, ein verbessertes Konzept zum Aufzeichnen des gesamten Schalls einerseits und zum Wiedergeben dieses gesamten aufgezeichneten Schalls andererseits zu schaffen.
Diese Aufgabe wird durch ein Mikrophon zum Aufzeichnen eines akustischen Signals nach Patentanspruch 1 , eine Wiedergabevorrichtung für ein akustisches Signal nach Patentanspruch 15, ein mobiles Gerät nach Patentanspruch 29, ein Verfahren zum Aufzeichnen eines akustischen Signals nach Patentanspruch 30, ein Verfahren zum Wiedergeben für ein akustisches Signal nach Patentanspruch 31 , oder ein Computerprogramm nach Patentanspruch 32 gelöst.
Erfindungsgemäß wird nicht nur, wie im Stand der Technik, ein einziges Rotationssignal aufgezeichnet, sondern es werden Maßnahmen getroffen, um die Richtung des Rotationssignals zu erfassen und wiederzugeben. Erfindungsgemäß wurde herausgefunden, dass die zusätzlich zur Translation stattfindende Rotation des Schallfelds bzw. die Rotation der in der Luft vorhandenen Moleküle eine Richtungskomponente hat, bei deren Erfassung und Wiedergabe ein zusätzliches Hörerlebnis erhalten werden kann, das noch näher am ursprünglichen natürlichen Schallszenario liegt. Zu diesem Zweck umfasst ein Mikrophon ein erstes Teilmikrophon mit einem ersten Membranpaar mit einander gegenüberliegend angeordneten Membranen, und ein zweites Teilmikrophon mit einem zweiten Membranpaar, das ebenfalls einander gegenüberliegende Membranen aufweist. Das erste Membranpaar ist so ausgerichtet, dass die Membranen des erstem Membranpaars entlang einer ersten Raumachse auslenkbar sind, und das zweite Membranpaar ist so angeordnet, dass die Membranen des zweiten Membranpaars entlang einer zweiten Raumachse auslenkbar sind, die unterschiedlich zur ersten Raumachse ist. Vorzugsweise ist darüber hinaus ein drittes Teilmikrophon mit einem dritten Membranpaar vorgesehen, wobei die Membranen des dritten Membranpaars entlang einer dritten Raumachse auslenkbar ist, die sich von der ersten und der zweiten Raumachse unterscheidet, wobei die Raumachsen vorzugsweise zueinander orthogonal oder im Wesentlichen orthogonal sind.
Bei bevorzugten Ausführungsbeispielen wird von jedem Membranpaar des Mikrophons ein eigenes Differenz-Ausgangssignal abgeleitet, indem die Membran-Ausgangssignale der beiden gegeneinander angeordneten Membranen miteinander kombiniert werden, und zwar unter Verwendung einer Änderung der Phasenrelation, und vorzugsweise einer Phasenumkehr eines der beiden Membran-Ausgangssignale. Damit wird für jede Raumachse ein eigenes Differenzsignal erzeugt, das eine entsprechende Richtungskomponente des Rotationssignals bzw. allgemein ein Differenzsignal in jeder Raumachse wiedergibt.
Ein solches Mikrophon mit zwei bzw. drei Teilmikrophonen kann vorzugsweise auch dazu verwendet werden, um nicht nur die neuartigen Differenzsignale zu erzeugen, sondern auch klassische Komponentensignale, wie sie zum Beispiel auf dem Gebiet der Ambisonics- Technik bekannt sind. Hierzu können die Membran-Ausgangssignale der beiden einander gegenüberliegenden Membranen miteinander aufaddiert werden, um eine entsprechende Ambisonics-Komponente zu erhalten. Darüber hinaus wird es bevorzugt, dass das Mikrophon zusätzlich auch eine omnidirektionale Komponente erfasst, die entweder durch ein eigenes omnidirektionales Mikrophon erhalten wird oder durch Aufaddition der drei Richtungskomponenten.
Damit erzeugt ein Mikrophon gemäß einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung nicht nur die drei neuartigen Differenzsignale in x-Richtung, y-Richtung und z-Richtung, sondern auch die vier Komponenten B (bzw. W), X, Y, und Z eines bekannten First-Order-Ambisonics-Signals bzw. eines B-Format-Signals. Damit wird erfindungsgemäß erreicht, dass die akustische Qualität bei einer Wiedergabe von solchen Signalen noch einmal verbessert wird.
Auf Wiedergabeseite wird es bevorzugt, zusätzlich zu dem konventionellen bzw. Gleichtakt- bzw. Common-Mode-Signal auch wenigstens zwei und vorzugsweise alle drei Differenzsignale bzw. Differential-Mode-Signale wiederzugeben, und zwar mittels eines Lautsprechersystems, das einen oder mehrere Lautsprecher zum Wiedergeben des konventionelle CM- bzw. Gleichtaktsignals aufweist, und das ferner einen zweiten oder einen zweiten und einen dritten Lautsprecher aufweist, um das Differenzsignal wiederzugeben. Bei besonders bevorzugten Ausführungsbeispielen sind drei Differenzsignale vorgesehen, und umfasst die zweite Lautsprechereinrichtung zum Wiedergeben der drei Differenzsignale insgesamt wenigstens sechs Wandler, die in drei verschiedenen Raumrichtungen angeordnet sind, so dass die in unterschiedlichen Raumrichtungen aufgezeichneten Differenzsignale auf Wiedergabeseite in der gleichen Richtung wiedergegeben werden, in der sie ursprünglich aufgezeichnet worden sind.
Je nach Implementierung können jedoch diverse Vereinfachungen vorgenommen werden, um einen Kompromiss zwischen Aufwand einerseits und erreichter Audioqualität andererseits herzustellen.
Bei bevorzugten Ausführungsbeispielen wird ein Rendering eines Mikrophonsignals in einer Wiedergabeumgebung vorgenommen, in der an bestimmten bekannten Positionen Lautsprecher platziert sind. Hierzu wird zum einen ein konventionelles translatorisches Mikrophonsignal eingesetzt, das aus einer omnidirektionalen Komponente und parametrischen Seiteninformationen bestehen kann, oder das als volles B-Format-Signal vorliegt. Zum Rendering des Mikrophonsignals auf die einzelnen Lautsprecher wird vorzugsweise ein Vektor- based-Amplitude-Panning (VBAP) vorgenommen, für das entsprechende Gewichtungsfaktoren aus den Richtungsinformationen, die in den Seiteninformationen enthalten sind, oder die von dem B-Format-Signal abgeleitet werden, eingesetzt werden.
Vorzugsweise werden diese Gewichtungsfaktoren ebenfalls eingesetzt, um nicht nur das konventionelle translatorische Audiosignal zu rendern, bzw. auf die einzelnen Lautsprecher „zu verteilen“. Stattdessen werden diese Gewichtungsfaktoren auch eingesetzt, um die neuartigen Differenzsignale in den unterschiedlichen Raumachsen auf die verschiedenen Lautsprecher zu gewichten bzw. „zu verteilen“. Damit kann aus einem an einer bestimmten Auf- nahmeposition erzeugten kompletten Mikrophonsignal, das aus einer konventionellen om- nidirektionalen Komponente und drei direktionalen Komponenten und/oder (paramteri- schen) Metadaten, die Richtungsinformationen aufweisen, besteht, und das zusätzlich die neuartigen zwei bzw. drei Differenzsignale der zwei bzw. drei Raumachsen aufweist, eine komplette Wiedergabe erzeugt werden. Ein Lautsprecher an einer der Lautsprecherpositionen umfasst ein konventionelles translatorisches Element, das mit dem gerenderten translatorischen Audiosignal für diesen Lautsprecher an dieser Lautsprecherposition versorgt wird, und zusätzlich, für jedes der Differenzsignale einen entsprechend der Raumrichtung des Differenzsignals angeordneten Differenzsignalwandler, welcher beispielsweise als gehäuselose Doppelmembran ausgebildet sein kann, deren Emissionsrichtung in der entsprechenden Raumachse bzw. Raumrichtung angeordnet ist.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen detailliert erläutert. Es zeigen:
Fig. 1 ein Mikrophon mit zwei Teilmikrophonen;
Fig. 2 ein Mikrophon mit drei Teilmikrophonen;
Fig. 3a einen Kombinierer zum Erzeugen der Differenzsignale;
Fig. 3b einen Einzelkombinierer für ein Differenzsignalführung;
Fig. 3c einen Kombinierer nach einem Ausführungsbeispiel;
Fig. 4 ein Mikrophon gemäß einem Ausführungsbeispiel;
Fig. 5 eine Mikrophonhalterung gemäß einem Ausführungsbeispiel
Fig. 6 eine Wiedergabevorrichtung gemäß einem Ausführungsbeispiel;
Fig. 7 eine Übersicht über konventionelle und neuartige reale oder virtuelle Mikrophonsignale;
Fig. 8 einen Renderer für eine Wiedergabevorrichtung oder ein mobiles Gerät gemäß einem Ausführungsbeispiel; Fig. 9a eine Wandleranordnung mit Wandlern für jedes der drei Differenzsignale;
Fig. 9b eine Wandleranordnung mit einem Wandler für das konventionelle Gleichtakt- oder CM-Signal;
Fig. 10 einen Renderer für eine Wiedergabevorrichtung oder ein mobiles Gerät gemäß einem weiteren Ausführungsbeispiel; und
Fig. 11 einen Renderer für eine Wiedergabevorrichtung oder ein mobiles Gerät gemäß einem weiteren Ausführungsbeispiel mit einer Lautsprecherimplementierung.
Fig. 1 zeigt ein erstes Teilmikrophon 1 mit einem Membranpaar, das eine erste Membran 11 und eine zweite Membran 12 aufweist, die einander gegenüberliegend angeordnet sind. Darüber hinaus ist in Fig. 1 ein zweites Teilmikrophon 2 mit einem zweiten Membranpaar gezeigt, das eine dritte Membran 13 und eine vierte Membran aufweist, die einander gegenüberliegend angeordnet sind. Das erste Membranpaar ist so angeordnet, dass die erste Membran 11 und die zweite Membran entlang einer ersten Raumachse, wie beispielsweise der x-Achse auslenkbar sind, wobei ferner das zweite Membranpaar so angeordnet ist, dass die dritte Membran 13 und die vierte Membran 14 entlang einer zweiten Raumachse, wie beispielsweise der y-Achse von Fig. 1 auslenkbar sind. Die zweite Raumachse unterscheidet sich von der ersten Raumachse, die beiden Raumachsen sind also nicht parallel. Vorzugsweise sind die beiden Raumachsen x, y orthogonal zueinander bzw. haben einen Winkel, der zwischen 60 und 120 ° liegt.
Fig. 2 zeigt ferner ein drittes Teilmikrophon 13 mit einem dritten Membranpaar, das eine fünfte Membran 15 und eine sechste Membran 16 aufweist, die einander gegenüberliegend angeordnet sind, wobei das dritte Membranpaar so angeordnet ist, dass die fünfte Membran 15 und die sechste Membran 16 entlang einer dritten Raumachse, wie beispielsweise der z-Achse auslenkbar sind. Die dritte Raumachse unterscheidet sich von der ersten Raumachse und der zweiten Raumachse, wobei vorzugsweise alle drei Raumachsen orthogonal zueinander sind. Unterschiedliche Winkel zwischen der dritten Raumachse und der ersten oder der zweiten Raumachse, wie beispielsweise in einem Bereich zwischen 60 und 120 ° werden bevorzugt. Fig. 2 zeigt ferner zu jeder Membran 11 bis 16 eine sehr schematische Empfindlichkeitscharakteristik, die zusätzlich entweder den Buchstaben F oder den Buchstaben R hat. F steht für front bzw. vorne und R steht für rear bzw. hinten. Die unterschiedlichen Empfindlichkeitscharakteristika der einzelnen Membranen, von denen jede typischerweise eine Gegenelektrode hat, sind also ebenfalls gegeneinander angeordnet.
Wie es ferner beispielsweise in Fig. 1 oder Fig. 2 gezeigt ist, wird es bevorzugt, dass die Membranen der verschiedenen Membranpaare direkt gegenüberliegen, parallel zueinander und ausgerichtet zueinander angeordnet sind, wobei ferner ein Abstand zwischen den beiden Membranpaaren klein ist und vorzugsweise kleiner als 2 cm ist. Ferner wird es bevorzugt, dass der Abstand für jedes Membranpaar innerhalb einer Toleranz im Wesentlichen gleich ist. Fig. 1 zeigt ferner Ausgangsleitungen für jede Membran. Insbesondere ist das erste Teilmikrophon 1 so ausgebildet, dass ansprechend auf eine Auslenkung der ersten Membran 11 ein erstes Membransignal geliefert wird, und dass ansprechend auf eine Auslenkung der zweiten Membran ein zweites Membransignal geliefert wird, das zu dem ersten Membransignal eine bestimmte Phasenrelation aufweist, die sich aufgrund der Anordnung der Membranen bzw. der Beschaltung bzw. des aufgezeichneten Schallfelds ergibt.
Darüber hinaus hat das zweite Teilmikrophon 2, das die beiden Membranen 13, 14 hat, ebenfalls Ausgangsleitungen, um ein drittes Membransignal aus der dritten Membran 13 und ein viertes Membransignal aus der vierten Membran 14 zu liefern. Ferner ist, je nach Implementierung, das dritte Teilmikrophon ebenfalls ausgebildet, um ansprechend auf eine Auslenkung der fünften Membran 15 ein fünftes Membransignal und ansprechend auf eine Auslenkung der Membran 16 in der dritten Raumachse, also beispielsweise in der z-Rich- tung ein sechstes Membransignal zu liefern.
Das erste Teilmikrophon, das zweite Teilmikrophon und, sofern vorhanden, das dritte Teilmikrophon sind ausgebildet, um die entsprechenden Membransignale der Membranen des Membranpaars zu kombinieren. Dies ist in Fig. 3a durch einen schematischen Kombinierer dargestellt, der bei 30 als ein Block für alle zwei bzw. drei Teilmikrophone gezeigt ist. Allerdings kann ein entsprechender Einzelkombinierer, wie er beispielsweise in Fig. 3b bei 31 gezeigt ist, für jedes einzelne Teilmikrophon vorhanden sein, so dass die Membransignale immer eines Teilmikrophons kombiniert werden, dass jedoch Membransignale von anderen Teilmikrophonen zumindest für die Erzeugung von einem ersten Differenzausgangssignal 21 für das erste Teilmikrophon, einem zweiten Differenzausgangssignal 22 für das zweite Teilmikrophon und einem dritten Differenzausgangssignal 23 für das dritte Teilmikrophon nicht miteinander kombiniert werden. Der Kombinierer 30 ist jedoch bei bevorzugten Ausführungsbeispielen ferner ausgebildet, um nicht nur die Differenzsignale 21 , 22, 23 zu bilden, sondern auch Common-Mode bzw. Gleichtaktsignale bzw. CM-Signale 24. Diese CM- Signale 24 können z. B. lediglich einzelne Komponentensignale X, Y, Z sein, wie sie von der Ambisonics-Technologie bekannt sind, oder ein omnidirektionales Signal, das beispielsweise dadurch erhalten wird, wenn die Membransignale aller einzelnen Membranen ohne Phasenverschiebung einzelner Membransignale aufaddiert werden.
Für die Erzeugung eines Differenzsignals, wie beispielsweise des Differenzausgangssignals Diffx 21 ist der Kombinierer 30 ausgebildet, um das erste Membransignal 11 und das zweite Membransignal 12 mit einer veränderten ersten Phasenrelation zu kombinieren. Das erste Differenzausgangssignal Diffx 21 ist somit der ersten Raumachse, also beispielsweise der x-Achse, zugeordnet.
Ferner ist das zweite Teilmikrophon ausgebildet, um das zweite Membransignal 13 und das dritte Membransignal 14 mit einer veränderten zweiten Phasenrelation zu kombinieren, um ein zweites Differenzausgangssignal Diffy zu liefern, das bei 22 in Fig. 3a gezeigt ist und der zweiten Raumachse y zugeordnet ist. Ferner ist das dritte Teilmikrophon ausgebildet, um das fünfte Membransignal 15 und das sechste Membransignal 16 mit einer gegenüber der dritten Phasenrelation veränderten Phasenrelation zu kombinieren, um ein drittes Differenzausgangssignal zu liefern, das bei 23 in Fig. 3a gezeigt ist und der Raumachse z zugeordnet ist.
Vorzugsweise wird die Kombination so vorgenommen, wie es in Fig. 3c schematisch dargestellt ist. Zur Veränderung der ersten Phasenrelation zwischen dem ersten Membransignal 11 und dem zweiten Membransignal 12 ist in Fig. 3c schematisch ein Phasenände- rungsglied 40 gezeigt, das vorzugsweise einen Phasenwert von 180 ° hat, wobei der Phasenwinkel des Phasenglieds im Bereich zwischen 90 und 270 ° liegen kann. Der bevorzugte Bereich ist jedoch 170 ° bis 190 ° bzw. 180 ° in dem am meisten bevorzugten Ausführungsbeispiel.
Die Phasenänderungseinrichtung 41 ist vorgesehen, um für das zweite Teilmikrophon die zweite Phasenrelation zu verändern, so dass eine Addition, wie sie in Fig. 3c schematisch gezeigt ist, mit geänderter zweiten Phasenrelation stattfindet. Darüber hinaus ist auch für das dritte Teilmikrophon ein Phasenänderungselement 42 vorgesehen, das die dritte Phasenrelation zwischen den Membransignalen 15, 16 ändert und die Signale mit geänderter dritter Phasenrelation aufaddiert, um das dritte Differenzausgangssignal Diffz 23 aus Fig. 3c zu erhalten.
Wie es bereits anhand des Bezugszeichens 24 in Fig. 3a dargestellt worden ist, ist der Kombinierer auch ausgebildet, um konventionelle Gleichtaktsignale bzw. Common-Mode- Signale zu bilden. Um ein CM-z-Signal zu bilden, werden das fünfte Membransignal 15 und das sechste Membransignal 16 mit der ursprünglichen dritten Phasenrelation aufaddiert, also ohne die Wirkung eines Phasenglieds 42 beispielsweise.
Entsprechend wird vorgegangen, um eine konventionelle y-Richtungskomponente eines Richtungsmikrophons zu erhalten, indem die Membransignale des zweiten Membranpaars, 13, 14 aufaddiert werden, und zwar mit der ursprünglichen Phasenrelation, also ohne Wirkung eines Phasenglieds 41. Analog hierzu wird auch eine X-Komponente eines Richtungsmikrophons erhalten, wenn die beiden Richtungscharakteristika, also für die vordere Membran 11 und die hintere Membran 12 aufaddiert werden, und zwar wiederum ohne Wirkung eines Phasenelements 40.
Ein gesamtes omnidirektionales Signal kann erhalten werden, wenn alle sechs Membransignale in ihrer ursprünglichen ersten, zweiten und dritten Phasenrelation miteinander aufaddiert werden, wobei dieses omnidirektionale Signal beispielsweise als W-Signal oder P- Signal bezeichnet wird, wie es aus der Ambisonics-Technologie oder für ein Signal im B- Format bekannt ist, das eine omnidirektionale Komponente und eine Richtungskomponente in X-Richtung, eine Richtungskomponente in Y-Richtung und eine Z-Komponente in Z-Rich- tung aufweist.
Im Unterschied zu einem solchen B-Format-Signal, liefert das erfindungsgemäße Mikrophon zusätzlich zu diesen Signalen bzw. alternativ zu diesen Signalen Differenzsignale für die einzelnen Richtungen, also Signale, die sich ergeben, wenn eine Differenz zwischen der vorderen und der hinteren Richtcharakteristik gebildet wird, um das Schallfeld zu erfassen, das gewissermaßen seitlich bezüglich der gegenüberliegend angeordneten Membranen herrscht, also z. B. oberhalb und unterhalb der beiden Membranen 11 , 12 aus Fig. 1. Die Änderung zwischen der ersten Phasenrelation links in Fig. 3c und der zweiten Phasenrelation rechts in Fig. 3c vor der entsprechenden Addition kann durch einen tatsächlich vorgesehenen Phasenschieber, eine Verzögerungsleitung, eine Phasenumkehr oder auch eine Phasenumpolung erreicht werden. Gerade der letzte Fall der Phasenumpolung wird für eine bevorzugte Ausführungsform eingesetzt, bei der die Membransignale als symmetrische Signale zwischen einer Plus-Leitung 11a und einer Minus-Leitung 11b übertragen werden. Eine solche schematische Darstellung des Membransignals 11 ist in Fig. 3b ist gezeigt, wobei die „Leitung“ 11 in Fig. 3c aus der positiven Einzelleitung 11a, der negativen Einzelleitung 11 b und einer Masse (GND) 11c entspricht. Dasselbe gilt für das zweite Membransignal 12, das wiederum aus einer positiven Leitung 12a, einer negativen Leitung 12b und einer gemeinsamen Masse 12c besteht. Das eigentliche Membransignal wird als Differenz zwischen der positiven und der negativen Leitung übertragen, wie es für die symmetrische Leitungsübertragung bekannt ist.
Um ein solches Signal zu kombinieren, ist der Kombinierer 30 ausgebildet, wie es in Fig. 3b für einen Einzelkombinierer 31 dargestellt ist. Der Einzelkombinierer 31 wäre in seiner entsprechenden Implementierung für jedes der drei Teilmikrophone 1 , 2, 3 von Fig. 1 vorgesehen. Der Einzelkombinierer 31 hat zwei Eingänge 32, 34 für das positive Potential und zwei Eingänge 33, 35 für das negative Potential sowie einen (oder zwei) Masseeingänge 38 für das Massepotential GND. Um nunmehr die Phasenumkehr, wie sie in Fig. 3c durch das Element 40, bzw. 41 , bzw. 42 dargestellt ist, zu erreichen, werden bei dem in Fig. 3b gezeigten Ausführungsbeispiel mit symmetrischer Signalübertragung die positive und die negative Leitung umgepolt, wie es in Fig. 3b links für das Membransignal 12 gezeigt ist. Die positive Leitung 12b wird mit dem negativen Eingang 35 verbunden und die negative Leitung 12b wird mit dem positiven Eingang 34 verbunden. Am Ausgang liefert der Einzelkombinierer dann das Differenzsignal 21 , das mit Diffx bezeichnet ist, das wiederum als Differenzsignal zwischen der positiven Leitung 36 und der negativen Leitung 37 übertragen wird, wobei ferner eine Ausgangsmasse 39 (GND) ebenfalls vorgesehen ist.
Obgleich in Fig. 3b ein solcher Einzelkombinierer lediglich für das erste Teilmikrophon dargestellt ist, wird es bevorzugt, einen solchen Einzelkombinierer auch für das zweite Teilmikrophon und für das dritte Teilmikrophon einzusetzen.
Fig. 4 zeigt eine bevorzugte Ausführungsform des Mikrophons, bei dem die drei Teilmikrophone alle von einem Membranhalter 50 gehalten werden, wobei jedes Teilmikrophon ein längliches Gehäuse aufweist, wobei in der entsprechenden Spitze des Teilmikrophons die Membranpaare angeordnet sind, und zwar durch vorzugsweise ein durchlässiges Gitter von der Außenwelt geschützt. Insbesondere sind die beiden Membranen des ersten Teilmikrophons 1 in der y-z-Ebene angeordnet, so dass eine Auslenkung in x-Richtung erreicht wird. Darüber hinaus sind die beiden Membranen des zweiten Teilmikrophons 2 in derx-z-Ebene angeordnet, um eine Auslenkung in y-Richtung, also in der zweiten Raumachse, zu erreichen. Darüber hinaus sind die beiden Membranen des dritten Teilmikrophons 3 in der x-y- Ebene angeordnet, um durch Schall in der z-Richtung ausgelenkt zu werden. Die einzelnen Teilmikrophone haben ferner eine Ausgangsleitung, die entweder die einzelnen Membransignale nach außen führt, oder die bereits das Differenzausgangssignal 21 , 22 bzw. 23 (nicht in Fig. 4 gezeigt) nach außen führen. Je nachdem, welche Elektronik bereits in dem länglichen Gehäuse des entsprechenden Teilmikrophons verbaut ist, können die einzelnen Leitungen auch die konventionellen Common-Mode-Komponenten in den einzelnen Richtungen nach außen führen, wie es bei 24b, 24c für x und y gezeigt ist, wobei das Signal Z, das noch anhand von Fig. 7 erläutert wird, in Fig. 4 nicht dargestellt ist, aber durch das dritte Teilmikrophon 3 vorzugsweise innerhalb des länglichen Gehäuses bereits erzeugt werden kann.
Die drei Teilmikrophone sind so ausgebildet, dass jede Membran eine Gegenelektrode aufweist, so dass insgesamt bei dem in Fig. 4 gezeigten erfindungsgemäßen Mikrophon sechs einzelne Membranen und sechs entsprechende Gegenelektroden vorhanden sind. Diese Gegenelektroden bilden zusammen jeweils für jede Membran ein eigenes Kondensatormikrophon, wobei je nach Implementierung auch eine Kondensator- oder Elektret-Folie auf der entsprechenden Gegenelektrode aufgebracht sein kann, um sechs einzelne Kondensatoroder Elektret-Mikrophone in der in Fig. 4 gezeigten Anordnung zu haben. Die „Spitzen“ der drei Teilmikrophone 1 , 2, 3 sind auf einen gemeinsamen Bereich bzw. eine gemeinsame Achse gerichtet, um die drei Membranpaare möglichst nahe zueinander zu positionieren, um eine Rotationsschwingung, dargestellt durch ihre drei Einzelkomponenten, die die Richtung der Rotation angeben, erfassen zu können. Um dies zu erreichen, wird vorzugsweise ein in Fig. 5 gezeigter schematischer (Teil-) Mikrophonhalter vorgesehen, der bei 50 in Fig. 4 gezeigt ist, und der in Fig. 5 in der Draufsicht schematisch dargestellt ist. Der Mikrophonhalter ist dreiecksförmig bzw. kann auch drachenförmig oder in einer anderen Form ausgebildet sein. Er umfasst jedoch zwei Seiten, die einen Winkel von 90 ° zueinander haben, um das Teilmikrophon 1 und das Teilmikrophon 2 in einem Winkel von 90 ° zueinander auszurichten. Hierzu ist ein erster Halter 51 vorgesehen, der an der ersten Seite der beiden rechtwinklig angeordneten Seiten vorhanden ist, und ein zweiter Halter 52, der an der anderen Seite der beiden rechtwinklig zueinander angeordneten Seiten vorhanden ist. Um das dritte Mikrophon zu halten, ist ein dritter Halter 53 vorgesehen, der in der Winkelhalbierenden des 90 “-Winkels der beiden Seiten, an denen der erste Halter 51 und der zweite Halter 52 vorgesehen sind, ausgebildet ist und aus der Zeichenebene vorsteht, um das dritte Teilmikrophon möglichst nahe, in Hinblick auf seine empfindliche Mikrophonspitze an die beiden Mikrophonspitzen des ersten und des zweiten Teilmikrophons zu bringen. Die Halter 51 , 52 und 53 sind vorzugsweise als Clipse ausgebildet, um die einzelnen Teilmikrophone werkzeuglos montieren zu können. Andere Halteeinrichtungen können jedoch ebenfalls vorgesehen werden, um die länglichen Teilmikrophone in der entsprechenden Winkelform zu halten, damit die Membranpaare so ausgerichtet sind, wie es anhand von Fig. 1 oder Fig. 2 dargelegt worden ist.
Für andere Anordnungen, bei denen die exakte rechtwinklige Anordnung zwischen den einzelnen Mikrophonen nicht entscheidend ist, können die Mikrophone auch in einem Winkel zwischen 70 und 110 ° angeordnet sein bzw. kann der dritte Halter 53 bzw. das dritte Teilmikrophon in einem Winkel zwischen 30 und 60 ° bezüglich des ersten Halters bzw. des zweiten Halters angeordnet sein.
Der Mikrophonhalter 50 ist ferner an einem Stativ 54, das in Fig. 4 schematisch angezeigt ist, befestigt. Das Mikrophon kann auch statt des Stativs 54 mit einer Seilkonstruktion von einer Decke hängend getragen werden, um den unteren Bereich freizuhaben, beispielsweise wenn eine Bühne aufgezeichnet werden soll.
Statt der elastischen Clipse, die in Fig. 4 für die einzelnen Halter dargestellt sind, können auch Magnethalterungen, Einrastelemente oder sonstige Halter eingesetzt werden.
Fig. 7 zeigt eine Übersichtsdarstellung über alle Signale, die von dem Mikrophon, wie es anhand von Fig. 4 beispielsweise oder Fig. 2 oder 3b dargestellt worden ist, geliefert werden können. Zunächst kann das Mikrophon die Komponenten des B-Formats liefern, das auch als FOA (First Order Ambisonics)-Format bezeichnet wird. Hier handelt es sich um ein om- nidirektionales Signal 24a und die direktionalen Komponenten 24b, 24c, 24d, wie sie in Fig. 3c beim Ausgang 24 dargestellt sind. Diese Signale werden üblicherweise zum Anregen der konventionellen Translationsschwingungen über einen entsprechend angeordneten Schallwandler verwendet. Um zusätzlich die die Audioqualität signifikant verbessernde Rotationsschwingung ebenfalls in einem Schallfeld zu erzeugen, liefert das erfindungsgemäße Mikrophon die Differenzsignale in den drei Raumrichtungen Diffx 21 , Diffy 22 und Diffz 23. In Analogie zum omnidirektionalen Signal 24a könnte auch ein omnidirektionales Differenzsignal 21a erzeugt werden, das durch Addition der drei gerichteten Differenzsignale erhalten werden kann. Damit liefert die vorliegende Erfindung ein neuartiges B-Format für die Rotationsschwingungen bzw. das Differenzschallfeld.
Fig. 6 zeigt eine Wiedergabevorrichtung für ein akustisches Signal, das durch die Eingangssignale Diffx 21 , Diffy 22 und Diffz 23 sowie durch ein oder mehrere Common-Mode-Signale (CM) 24 dargestellt ist. Die Wiedergabevorrichtung umfasst eine Schnittstelle 110 zum Empfangen des ersten elektrischen Signals 24, das einem akustischen Gleichtaktsignal entspricht, eines separaten zweiten elektrischen Signals, das einem akustischen Differenzsignal entspricht, und einem separaten dritten elektrischen Signal, das einem akustischen Differenzsignal entspricht.
Darüber hinaus umfasst die Wiedergabevorrichtung eine erste Lautsprechereinrichtung 131a, 132a, 133a, 134a, 135a zum Wiedergeben des ersten elektrischen Signals, wobei die erste Lautsprechereinrichtung ausgebildet ist, um Translationsschwingungen ansprechend auf das erste elektrische Signal zu erzeugen. Ferner umfasst die Wiedergabevorrichtung eine zweite Lautsprechereinrichtung 131 b, 132b, 133b, 134b, 135b zum Wiedergeben des zweiten und des dritten elektrischen Signals, wobei die zweite Lautsprechereinrichtung von der ersten Lautsprechereinrichtung unterschiedlich ist.
Insbesondere ist die zweite Lautsprechereinrichtung ausgebildet, um Rotationsschwingungen ansprechend auf das zweite Signal, also auf ein erstes Differenzsignal, und auf das dritte elektrische Signal, also ansprechend auf das zweite Differenzsignal, zu erzeugen. In anderen Worten ist die zweite Lautsprechereinrichtung ausgebildet, um Schall mit einer zweiten Richtcharakteristik zu erzeugen, die sich von einer ersten Richtcharakteristik unterscheidet, die der ersten Lautsprechereinrichtung zugeordnet ist.
Bei dem in Fig. 6 dargestellten Ausführungsbeispiel umfasst die Wiedergabevorrichtung ferner einen Renderer 120, der separat für die Gleichtaktsignale, also für das erste elektrische Signal 24, und die Differenzsignale (DM - Differential Mode) arbeitet, und der bei einem Ausführungsbeispiel eine Information über Lautsprecherpositionen in einem Wiedergaberaum, wie sie bei 121 dargestellt sind, und Informationen 122 über eine Position des Mikrophons, beispielsweise des in Fig. 4 dargestellten Mikrophons, erhält. Das Mikrophon muss jedoch nicht unbedingt ein reales Mikrophon sein, sondern kann ein virtuelles Mikrophon sein, das synthetische oder vorher auf gezeichnete Signale bearbeitet und in ein bestimmtes Mikrophonformat bringt, wobei dieses Mikrophonformat auf den Zustand des Schallfelds an einer Aufnahmeposition, an der das virtuelle Mikrophon angeordnet ist, bezogen ist. Um ein Schallfeld zu beschreiben, können auch mehrere virtuelle Mikrophonsignale verwendet werden und in dem Renderer 120 verarbeitet werden.
Der Renderer 120 arbeitet separat für die Gleichtaktsignale und die Differenzsignale. Die Gleichtaktsignale werden bei dem in Fig. 6 gezeigten Beispiel für ein System mit fünf Wiedergabepositionen, einer Left Surround-Wiedergabeposition bzw. links hinten angeordneten Wiedergabeposition LS, einer Links-Wiedergabeposition L, einer Mitte-Wiedergabeposition C, einer Rechts-Wiedergabeposition R und einer Right Surround bzw. rechts hinten angeordneten Wiedergabeposition RS als die Signale 60, 70, 80, 90, 100 geliefert. Parallel hierzu liefert der Renderer 120 auch Differenzsignale an die entsprechenden Lautsprecher, die mit 61 , 71 , 81 , 91 , 101 dargestellt sind. Bei einer bevorzugten Ausführungsform liefert der Renderer für jeden einzelnen Lautsprecher, der sowohl aus der Lautsprecherreinheit 131a beispielsweise und der zweiten Lautsprechereinrichtung 131 b besteht, nicht nur ein einziges Differenzsignal, sondern drei Differenzsignale, nämlich für die Raumrichtungen x, y, z. Je nach Implementierung können jedoch auch zwei oder nur ein einziges Differenzsignal geliefert werden, so dass auf den Leitungen 61 , 71 , 81 , 91 , 101 lediglich zwei oder nur ein einziges Differenzsignal zu dem entsprechenden Lautsprecher und insbesondere der entsprechenden Lautsprechereinrichtung für die Differenzsignale 131b, 132b, 133b, 134b, 135b geliefert werden.
Obgleich vorstehend das Rendern von Lausprechersignalen beschrieben worden ist, kann die Erfindung auch zum Rendern von Kopfhörersignalen aus vielen verschiedenen Mikrophonsignalen an vielen verschiedenen Positionen verwendet werden. Hier existiert für jeden „Weg“ von einer Mikrophonposition zu einer Seite des Kopfhörers, also z.B. zu links oder rechts eine Kopf-bezogene Übertragungsfunktion. Mit dieser wird das jeweilige Signal beaufschlagt, um dann die entsprechend beaufschlagten Signale für jede Seite zusammenzuaddieren, um das letztendliche Kopfhörersignal für die jeweilige Seite zu erhalten.
Der Renderer (120) ist also ausgebildet, um das Mikrophonsignal unter Verwendung einer virtuellen Position (122) des realen oder virtuellen Mikrophons und unter Verwendung einer Information (121) über die verschiedenen Lautsprecherpositionen zu rendern (120), um für jeden einer ersten Mehrzahl von Lautsprechern ein Lautsprechersignal (60, 70, 80, 90, 100) zu erzeugen, oder um mehrere Mikrophonsignale unter Verwendung von virtuellen Positionen der realen oder virtuellen Mikrophone und unter Verwendung von verschiedenen Kopfbezogenen Übertragungsfunktionen (HRTFs), die von den Positionen und einer jeweiligen Seite eines Kopfhörers abhängen, zu rendern (120), um für jede Seite von zwei Kopfhörerseiten ein Kopfhörersignal (60, 70, 80, 90, 100) zu erzeugen, und um unter Verwendung der Position des realen oder virtuellen Mikrophons und unter Verwendung der verschiedenen Lautsprecherpositionen das erste Differenz-Ausgangssignal (21) und das zweite Differenz-Ausgangssignal (22) zu rendern (120), um für jeden Lautsprecher einer Mehrzahl von zweiten Lautsprechern ein Lautsprechersignal (61 , 71 , 81 , 91 , 101) zu erzeugen, oder um unter Verwendung der virtuellen Positionen der realen oder virtuellen Mikrophone und unter Verwendung von verschiedenen Kopf-bezogenen Übertragungsfunktionen (HRTFs), die von den Positionen und einer jeweiligen Seite eines Kopfhörers abhängen, jeweilige erste Differenz-Ausgangssignale und jeweilige zweite Differenz-Ausgangssignals zu rendern (120), um für jede Seite von zwei Kopfhörerseiten ein Kopfhörersignal (60, 70, 80, 90, 100) zu erzeugen; und er umfasst eine Ausgabeeinrichtung zum Ausgeben von erzeugten Signalen an die Lautsprecher oder die Kopfhörerseiten.
Lautsprecher, wie sie aus der EP 2692144 B1 beispielsweise bekannt sind, haben für die entsprechenden akustischen Wandler entsprechende Eingänge. Der Wandler für das Translationssignal, also für das erste elektrische Signal, das ein Gleichtaktsignal darstellt, ist in Fig. 9b mit 131a bis 135a dargestellt. Dieser Wandler bzw. die entsprechende Lautsprechereinrichtung erhält ein entsprechendes Signal, nämlich das Signal 60, 70, 80, 90, 100, das gegebenenfalls noch verstärkt werden kann, wie es in Fig. 9b ebenfalls dargestellt ist. Die zweite Lautsprechereinrichtung für das Differenzsignal hat bei dem in dem Stand der Technik dargestellten Lautsprecher nur ein einziges Signal. Bei Ausführungsbeispielen der vorliegenden Erfindung wird die Rotationsschwingung jedoch durch zwei oder sogar drei Differenzsignale genauer und damit auch für eine bessere Audioqualität aufgezeichnet und wiedergegeben. Daher erhält jeder Lautsprecher für den Differenzsignalwandler zwei oder sogar drei einzelne Signale, die an entsprechende Wandler ausgegeben werden können, wie es in Fig. 9a dargestellt ist. So hat die zweite Lautsprechereinrichtung zwei Wandler 170a für die x-Richtung, also für das Diffx-Differenzsignal. Für das y-Differenzsignal Diffy sind zwei Wandler 170b vorgesehen, die bei dem in Fig. 9a gezeigten schematischen Würfel gegenüberliegend angeordnet sind. Für das Diffz-Signal hat die zweite Lautsprechereinrichtung zwei Wandler 170c, um die z-Komponente der Rotationsschwingung wiederzugeben. Die zweite Lautsprechereinrichtung hat somit bei einer „Vollausstattung“ in Fig. 9a wenigstens sechs einzelne typischerweise gehäuselose Membranen, wobei ein Paar gegenüberliegende Membranen mit dem entsprechenden x, y, z-Differenzsignal gespeist werden.
Je nach Implementierung können die entsprechenden elektrischen Signalen, die von der Schnittstelle 110 empfangen werden, auch direkt über Lautsprecher ausgegeben werden, also ohne Verwendung eines Renderers 120. In diesem Fall könnte beispielsweise an jeder gewünschten „Lautsprecherposition“ in einer Studioumgebung ein entsprechendes Mikrophon platziert werden. Dann hätte man für jede Mikrophonposition ein Mikrophonsignal, das dann über einen Lautsprecher in einem Wiedergabeszenario wiedergegeben werden kann, der an einer mit der Mikrophonposition korrespondierenden Position im Wiedergaberaum angeordnet sein würde. Dann ist kein Renderer 120 nötig. Stattdessen würden die in die Schnittstelle 110 eingespeisten Signale direkt bzw. gegebenenfalls nach Verstärkung in die Lautsprecher eingespeist werden, wie es in Fig. 9a und 9b durch die entsprechende „Oder“- Alternative gezeigt ist, bei der die elektrischen Signale direkt den Verstärkern in Fig. 9a bzw. dem Verstärker in Fig. 9b zugeführt werden, wobei die Ausgangssignale der entsprechenden Verstärker dann an die Wandler in Fig. 9a für die Differenzsignale und in Fig. 9b für die Gleichtaktsignale zugeführt werden.
Bei einem Ausführungsbeispiel ist die erste Lautsprechereinrichtung, die in jedem der fünf Lautsprecher 131 , 132, 133, 134, 135 implementiert ist, ausgebildet, um einen ersten Wandler zum akustischen Wiedergeben des elektrischen Gleichtaktsignals aufzuweisen, wobei der erste Wandler ausgebildet ist, um in einer ersten Richtung zu emittieren. Die zweite Lautsprechereinrichtung umfasst einen zweiten Wandler zum akustischen Wiedergeben des ersten Differenzsignals, wobei der zweite Wandler ausgebildet ist, um in einer zweiten Richtung zu emittieren, die sich von der ersten Richtung unterscheidet. Darüber hinaus hat die zweite Lautsprechereinrichtung auch einen dritten Wandler zum akustischen Wandeln des zweiten Differenzsignals, wobei der dritte Wandler ausgebildet ist, um in einer dritten Richtung zu emittieren, die von der ersten und der zweiten Richtung unterschiedlich ist oder von der zweiten Richtung unterschiedlich ist und im Wesentlichen gleich der ersten Richtung ist. Diese Implementierung umfasst auch den Fall, dass die Rotationsschwingung in der Richtung eine Komponente hat, in der die konventionelle Translationsschwingung stattfindet.
Wie es in Fig. 6 gezeigt ist, umfasst die Schnittstelle drei elektrische Differenzsignale 21 , 22, 23, die als zweites elektrisches Signal, als drittes elektrisches Signal und als viertes elektrisches Signal bezeichnet werden. Alternativ kann die Schnittstelle auch nur zwei elektrische Signale als Differenzsignale erhalten, so dass wenigstens in zwei-dimensionaler Richtung die Rotationsschwingung korrekt wiedergegeben werden kann. Dasselbe gilt für die Mikrophoneinrichtung von Fig. 4. Auch sie kann lediglich zwei Teilmikrophone in zwei Raumrichtungen umfassen, um wenigstens zwei-dimensional eine korrekte Aufnahme des Differenzsignals zu erreichen.
Je nach Implementierung ist die erste Lautsprechereinrichtung für das Gleichtaktsignal, also für das konventionelle Audiosignal mit einer Frequenzweiche 162, mit einem Hochtöner 161 und einem Tieftöner bzw. Mitteltöner 163 ausgestattet, wie es bei 131a in Fig. 11 dargestellt ist. Dies bedeutet, dass auch die erste Lautsprechereinrichtung mehrere unterschiedliche Wandler haben kann, die jedoch alle von ein und demselben Gleichtaktsignal 24 beispielsweise oder ein und demselben Gleichtaktsignal 60, 70, 80, 90, 100 von Fig. 6 (abgesehen von einer Frequenzaufteilung über die Frequenzweiche 162) gespeist werden.
Die einzelnen Differenzwandler 170a, 170b, 170c, die bei 131b in Fig. 11 oder in Fig. 9b dargestellt sind, werden mit jeweils unterschiedlichen Signalen gespeist, die nicht etwa durch Frequenzzerlegung oder etwas ähnliches erzeugt worden sind, sondern die vorzugsweise separat aufgezeichnet worden sind, und separat wiedergegeben werden, entweder direkt oder durch ein voneinander unabhängiges separates Rendern. Es findet also vorzugsweise keine Mischung zwischen den Differenzsignalen auf dem Weg von der Aufnahme zur Wiedergabe statt, sondern lediglich ein Rendern, also z. B. ein Beaufschlagen mit entsprechenden Panning-Gewichten, wie es noch bezugnehmend auf Fig. 10 und Fig. 11 dargestellt wird. Darüber hinaus findet auch keine Mischung in der Wiedergabe oder im Renderer 120 des Gleichtaktsignals einerseits und eines oder mehrerer Differenzsignale andererseits statt. Stattdessen werden die entsprechenden Signale separat zu den entsprechenden Wandlern geführt und eine Überlagerung der akustischen Ausgangssignale findet dann erst im Schallfeld statt, das von einem oder mehreren der Lautsprecher 131 , 132, 133, 134, 135 erzeugt wird, wie es in Fig. 6 dargestellt ist.
Fig. 8 zeigt eine detailliertere Darstellung des Renderers 120 mit einem Common-Mode- Renderer 120a und einem Differenzsignal-Renderer 120b. Der Common-Mode-Renderer erhält entweder lediglich das omnidirektionale elektrische Signal 24a oder das komplette FOA- bzw. B-Format-Signal mit der X-Komponente 24b, der Y-Komponente 24c und der Z- Komponente 24d. Dagegen erhält der Differenzsignal-Renderer lediglich die Differenzsignale in x-Richtung 20, in y-Richtung 22 und z-Richtung 23. Darüber hinaus wird der Differenzsignal-Renderer mit der Rendering-Einstellung 121 versorgt, die der Common-Mode-Renderer aus den B- Format-Signalen für eine spezielle Wiedergabeanordnung ermittelt hat. Das Rendering der Differenzsignale ist daher effizient möglich, weil es mit denselben Rendering-Einstellungen 121 , und insbesondere mit entsprechenden Panning-Gewichten 121a, wie sie in Fig. 10 erläutert sind, stattfindet. Es muss also kein eigenes Ermitteln von Rendering-Gewichten stattfinden. Stattdessen werden die Differenzsignale 21 , 22, 23 genauso „behandelt“ wie das omnidirektionale Signal 24a, also das Gleichtaktsignal in Fig. 8.
Im Unterschied zum Rendering für das Gleichtaktsignal wird es, zur Reduktion des Aufwands, ferner bevorzugt, dass der Differenzsignal-Renderer lediglich ein gerendertes linkes Differenzsignal, ein gerendertes mittleres Differenzsignal und ein gerendertes rechtes Differenzsignal erzeugt, und dass dann das gerenderte Differenzsignal für links hinten (LS) und rechts hinten (RS) aus dem Rendering-Signal für links bzw. aus dem gerenderten Signal für rechts abgeleitet wird. Eine mögliche Form der Erzeugung besteht bei dem in Fig. 8 dargestellten Ausführungsbeispiel in einer einfachen Kopie des Signals und einer Verstärkungseinstellung des Signals für links hinten und rechts hinten, wobei diese Verstärkungseinstellung je nach Implementierung eine Dämpfung oder eine Verstärkung sein kann, wobei eine Dämpfung bevorzugt wird, um den Eindruck des Rotations-Schallfelds auf die vorderen Kanäle L, C, R zu konzentrieren.
Fig. 10 zeigt eine Ausführungsform des Renderers 120 von Fig. 6 oder 120a, 120b von Fig. 8. In einem Block 122 von Fig. 10 werden die Panning-Gewichte aus den Common-Mode- Signalen oder mit den Common-Mode-Signalen verbundenen Metadaten ermittelt. Zur Bestimmung dieser Panning-Gewichte wird die Position einer Schallquelle in dem Common- Mode-Signal ermittelt, und zwar bezüglich einer Mikrophonposition. Dann wird unter Verwendung einer Position eines Lautsprechers bzw. mehrerer Lautsprecher in einem Wiedergaberaum und unter Verwendung der (virtuellen) Position des Mikrophons in dem Wiedergaberaum die Schallquelle im Common-Mode-Signal über vorzugsweise ein Vector-based Amplitude-Panning irgendwo im Wiedergaberaum „platziert“. Hierzu wird das Signal, das der Schallquelle zugeordnet ist, mit einem Gewichtungsfaktor versehen, um ein entsprechendes Signal zu erhalten. Eine Schallquelle, die zwischen Links und Mitte platziert werden soll, wird dahin gehend abgebildet, dass ein Panning-Faktor für das omnidirektionale Signal für den linken Lautsprecher gleich 0,5 ist und für den rechten Lautsprecher ebenfalls gleich 0,5 ist. Wenn dann beide Lautsprechersignale gewandelt werden, erscheint die Schallquelle gewissermaßen als „Phantomquelle“ zwischen Links und Mitte. Entsprechend wird für andere Schallquellen in den Signalen vorgegangen.
Eine Trennung des Common-Mode-Signals in einzelne Schallquellen kann durch beliebige Quelltrennungsalgorithmen vorgenommen werden. Eine bevorzugte Ausführungsform besteht darin, das Signal einer Zeit-Frequenz-Transformation zu hinterziehen, wobei für eine Folge von aufeinanderfolgenden Frames jeweils eine Mehrzahl von Subbändern erzeugt wird, und wobei dann pro Zeit-Frequenz-Bin der Folge von Frames ermittelt wird, aus welcher Richtung der Schall im Mikrophonsignal kommt. Diese Richtungsermittlung kann durch einfaches Auslesen von bereits bereitgestellten Metadaten erreicht werden, die pro Zeit/Frequenz-Bin eine DOA-Richtung mit einem Azimut-Winkel und einem Elevations- Winkel angeben. Zusätzlich kann, je nach Implementierung, auch zu der DOA-Information pro Zeit-Frequenz-Bin auch eine Diffuseness-Information geliefert werden, wie es aus der Audiosignalverarbeitung bekannt ist, die unter dem Namen DirAC (Directional Audio Coding) in der Fachwelt bekannt ist.
Wenn hingegen keine solchen Metadaten vorhanden sind, sondern ein komplettes B-For- mat-Signal, wie es anhand von Fig. 7 bei 24a, 24b, 24c, 24d erläutert worden ist, kann unter Verwendung einer Signalanalyse diese Richtungsinformation pro Zeit/Frequenz-Bin, also pro Subband in jedem Frame ermittelt werden, wie es in der Veröffentlichung „Parametric Spatial Audio Effects“, A. Politis, u. a., 15th Int. Conference on Digital Audio Effects (DAFx- 12), September 17, 2012, oder in der Veröffentlichung „Directional audio coding - perception-based reproduction of spatial sound“, V. Pulkki, u. a., International Workshop on the Principles and Applications of Spatial Hearing, IWPASH, 11. November 2009, Japan, dar- gelegt ist. Die dort dargelegte Verarbeitung entspricht, für das Gleichtaktsignal, schematisch der Audioverarbeitung in Fig. 11. Unter Verwendung einer VBAP-Tabelle 157 werden abhängig von der entsprechenden Richtungs-Information, die mit „direction“ in Fig. 11 dargelegt ist, die Panning-Gewichte pro Lautsprechersignal P, das mit 24a bezeichnet ist, ermittelt. Das Signal 24a kann dabei das omnidirektionale Signal sein oder ein virtuelles Mikrophonsignal, das für den entsprechenden Lautsprecher abgeleitet worden ist. Dieses Signal wird dann mit dem entsprechenden Panning-Gewichtungsblock 157 ansprechend auf die entsprechende DOA- (Direction of Arrival) Richtung im Gewichter 153 beaufschlagt. Darüber hinaus wird auch ein diffuses Signal erzeugt, wobei hierfür der obere Zweig eingesetzt wird, der einen Dekorrelator 154 aufweist. Der Anteil des diffusen Signals wird durch die beiden Gewichte 151 , 152 abhängig von der Diffuseness-Information (Diffusitäts-Infor- mation) eingestellt. Beide Zweige, der „diffuse Zweig“ und der „direkte Zweig“ werden in einem Addierer 155 addiert. Diese Verarbeitung wird für jedes Subband individuell vorgenommen und in einem weiteren Addierer 156 werden alle anderen entsprechend verarbeiteten Subbänder aufaddiert, um ein Lautsprechersignal für die erste Lautsprechereinrichtung zu erhalten, das beispielhaft in Fig. 11 mit 60 für den linken hinteren Kanal dargestellt ist, der, wie es bereits ausgeführt worden ist, einen Hochtöner 161 und einen Tieftöner bzw. Mitteltöner 163 haben kann.
Die Verarbeitung in der oberen Hälfte von Fig. 11 entspricht somit bei diesem Ausführungsbeispiel der Funktionalität des Common-Mode-Renderers 120a von Fig. 8, wobei die Rendering-Einstellung 121 den Panning-Gewichten entspricht, die der Block VBAP 157 ausgibt. Genau diese Panning-Gewichte 121a werden auch verwendet, um die einzelnen Differenzsignale zu rendern. Hierzu wird jedes Differenzsignal gewissermaßen genauso wie das om- nidirektionale Signal 24a behandelt, also mit einem Gewichter 158, der gesteuert von den Panning-Gewichten arbeitet, gewichtet, und in einem Addierer 159 findet dann eine Aufaddition von entsprechend gewichteten anderen Subbändern des gleichen Differenzsignals statt, um dann z. B. für den linken hinteren Lautsprecher das Differenzsignal für die x-Rich- tung, also 61a zu erzeugen. Entsprechend wird vorgegangen, um die Differenzsignale 61b, 61c für die Y-Wandler und die Z- Wandler zu erzeugen.
Je nach Implementierung kann der Renderer 120 zusammen mit der Schnittstelle 121 beispielsweise in einer Mobiltelefon-Software oder allgemein in einem mobilen Gerät implementiert sein, wobei die Signale für die einzelnen Lautsprecher 131 , 132, 133, 134, 135 beispielsweise über eine Drahtlosübertragung zu den entsprechenden Lautsprechern geliefert werden kann. Das mobile Gerät ist als 200 in Fig. 6 beispielsweise gezeigt und würde zusätzlich zu den Elementen 110 und 120 sämtliche anderen Elemente eines mobilen Geräts haben, wie z. B. einen Prozessor, einen Speicher, diverse Drahtlosschnittstellen, einen Akkumulator, etc. Alternativ kann eine Zentraleinheit vorgesehen sein, die unabhängig von einem Mobiltelefon eine Schnittstelle aufweist, um von welcher Quelle auch immer die Signale 21 , 22, 23, 24 zu erhalten, und die dann ausgebildet ist, um die entsprechenden Ren- derer-Ausgangssignale 60 bis 101 über Leitungen an die entsprechenden Lautsprecher zu liefern. Wieder alternativ kann die Schnittstelle selbst und ein entsprechender Renderer für den entsprechenden Lautsprecher in dem Lautsprecher 131 , 132, 133, 134, 135 selbst implementiert sein, wobei in diesem Fall jeder Lautsprecher eine Spannungsversorgung und einen entsprechenden Eingang für die Signale, also die Schnittstelle 110, aufweisen würde. Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar. Einige oder alle der Verfahrensschritte können durch einen Hardware-Apparat (oder unter Verwendung eines Hardware-Apparats), wie zum Beispiel einen Mikroprozessor, einen programmierbaren Computer oder eine elektronische Schaltung ausgeführt werden. Bei einigen Ausführungsbeispielen können einige oder mehrere der wichtigsten Verfahrensschritte durch einen solchen Apparat ausgeführt werden.
Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart Zusammenwirken können oder Zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein.
Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.
Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft.
Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein. Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist.
Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft.
Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.
Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.
Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.
Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.
Ein weiteres Ausführungsbeispiel gemäß der Erfindung umfasst eine Vorrichtung oder ein System, die bzw. das ausgelegt ist, um ein Computerprogramm zur Durchführung zumindest eines der hierin beschriebenen Verfahren zu einem Empfänger zu übertragen. Die Übertragung kann beispielsweise elektronisch oder optisch erfolgen. Der Empfänger kann beispielsweise ein Computer, ein Mobilgerät, ein Speichergerät oder eine ähnliche Vorrichtung sein. Die Vorrichtung oder das System kann beispielsweise einen Datei-Server zur Übertragung des Computerprogramms zu dem Empfänger umfassen. Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor Zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.
Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutz- umfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.

Claims

25
Patentansprüche Mikrophon mit folgenden Merkmalen: einem ersten Teilmikrophon (1) mit einem ersten Membranpaar, das eine erste Membran (11) und eine zweite Membran (12) aufweist, die einander gegenüberliegend angeordnet sind; und einem zweiten Teilmikrophon (2) mit einem zweiten Membranpaar, das eine dritte Membran (13) und eine vierte Membran (14) aufweist, die einander gegenüberliegend angeordnet sind, wobei das erste Membranpaar so angeordnet ist, dass die erste Membran (11) und die zweite Membran (12) entlang einer ersten Raumachse auslenkbar sind, wobei das zweite Membranpaar so angeordnet ist, dass die dritte Membran (13) und die vierte (14) entlang einer zweiten Raumachse auslenkbar sind, und wobei die zweite Raumachse zu der ersten Raumachse unterschiedlich ist. Mikrophon nach Anspruch 1 , das folgende Merkmale aufweist: ein drittes Teilmikrophon (3) mit einem dritten Membranpaar, das eine fünfte Membran (15) und eine sechste Membran (16) aufweist, die einander gegenüberliegend angeordnet sind, wobei das dritte Membranpaar so angeordnet ist, dass die fünfte Membran (15) und die sechste Membran (16) entlang einer dritten Raumachse auslenkbar sind, wobei die dritte Raumachse zu der ersten Raumachse und der zweiten Raumachse unterschiedlich ist. Mikrophon nach Anspruch 1 oder 2, bei dem die Raumachsen orthogonal zueinander sind, oder bei dem zwischen zwei Raumachsen ein Winkel ist, der zwischen 60 und 120 ° liegt. Mikrophon nach einem der vorhergehenden Ansprüche, bei dem die Membranen des ersten Membranpaars, des zweiten Membranpaars bzw. des dritten Membranpaars direkt gegenüberliegen, parallel zueinander, ausgerichtet zueinander, oder in einem Abstand kleiner als 2 cm voneinander angeordnet sind. Mikrophon nach einem vorhergehenden Ansprüche, bei dem das erste Teilmikrophon (1) ausgebildet ist, um ansprechend auf eine Auslenkung der ersten Membran (11) ein erstes Membransignal zu liefern, und um ansprechend auf eine Auslenkung der zweiten Membran (12) ein zweites Membransignal zu liefern, wobei das erste Membransignal und das zweite Membransignal eine erste Phasenrelation aufweisen, wobei das erste Teilmikrophon (1) ausgebildet ist, um das erste Membransignal und das zweite Membransignal mit einer veränderten ersten Phasenrelation zu kombinieren, um ein erstes Differenz-Ausgangssignal (21) zu liefern, das der ersten Raumachse zugeordnet ist, oder bei der das zweite Teilmikrophon (2) ausgebildet ist, um ansprechend auf eine Auslenkung der dritten Membran (13) ein drittes Membransignal zu liefern, und um ansprechend auf eine Auslenkung der vierten Membran (14) ein viertes Membransignal zu liefern, wobei das dritte Membransignal und das vierte Membransignal eine zweite Phasenrelation zueinander haben, und wobei das zweite Teilmikrophon (2) ausgebildet ist, um das dritte Membransignal und das vierte Membransignal mit einer veränderten zweiten Phasenrelation zu kombinieren (30), um ein zweites Differenz-Ausgangssignal (22) zu liefern, das der zweiten Raumachse zugeordnet ist, oder bei der ein drittes Teilmikrophon (3) ausgebildet ist, um ansprechend auf eine Auslenkung einer fünften Membran (15) ein fünftes Membransignal zu liefern, und um ansprechend auf eine Auslenkung einer sechsten Membran ein sechstes Membransignal zu liefern, wobei das fünfte Membransignal und das sechste Membransignal eine dritte Phasenrelation aufweisen, und wobei das dritte Teilmikrophon (3) ausgebildet ist, um das fünfte Membransignal und das sechste Membransignal mit einer veränderten dritten Phasenrelation zu kombinieren (30), um ein drittes Differenz- Ausgangssignal (23) zu liefern, das der dritten Raumachse zugeordnet ist. Mikrophon nach Anspruch 5, bei dem die veränderte erste Phasenrelation 180 ° zur ersten Phasenrelation unterschiedlich ist oder von einer Phase zwischen 150 ° und 210 ° zu der ersten Phasenrelation unterschiedlich ist, oder bei dem die veränderte zweite oder dritte Phasenrelation 180 ° zur zweiten oder dritten Phasenrelation oder von einer Phase zwischen 150 ° und 210 ° zur zweiten bzw. dritten Phasenrelation unterschiedlich ist. Mikrophon nach Anspruch 5 oder 6, bei dem das erste Membransignal als symmetrisches Signal auf einer ersten positiven Leitung (11a) und einer ersten negativen Leitung (11 b) übertragen wird, bei dem das zweite Membransignal als symmetrisches Signal auf einer zweiten positiven Leitung (12a) und einer zweiten negativen Leitung (12b) übertragen wird, bei dem das erste Teilmikrophon (1) einen Kombinierer (31) mit einem ersten positiven Eingang (32) und einem ersten negativen Eingang (33) für das erste Membransignal und mit einem zweiten positiven Eingang (34) und einem zweiten negativen Eingang (35) für das zweite Membransignal aufweist, wobei die zweite negative Leitung (12b) des zweiten Membransignals mit dem zweiten positiven Eingang (34) des Kombinierers (31) verbunden ist, und wobei die zweite positive Leitung (12a) des zweiten Membransignals mit dem zweiten negativen Eingang (35) des Kombinierers verbunden ist, und wobei die erste positive Leitung (11a) des ersten Membransignals mit dem ersten positiven Eingang (32) des Kombinierers (31) verbunden ist, und wobei die erste negative Leitung (11b) des ersten Membransignals mit dem ersten negativen Eingang (33) des Kombinierers (31) verbunden ist. Mikrophon nach einem der Ansprüche 5 bis 7, bei dem das erste Teilmikrophon (1) ausgebildet ist, um das erste Membransignal und das zweite Membransignal in der 28 ersten Phasenrelation zu addieren, um ein erstes Gleichtakt-Ausgangssignal (24b) zu liefern, oder bei dem das zweite Teilmikrophon (1) ausgebildet ist, um das dritte Membransignal und das vierte Membransignal in der zweiten Phasenrelation zu addieren, um ein zweites Gleichtakt-Ausgangssignal (24c) zu liefern, oder bei dem ein drittes Teilmikrophon ausgebildet ist, um ein fünftes Membransignal und ein sechstes Membransignal in einer dritten Phasenrelation zu addieren, um ein drittes Gleichtakt-Ausgangssignal (24d) zu liefern, oder das ausgebildet ist, um das erste Membransignal, das zweite Membransignal, das dritte Membransignal, das vierte Membransignal und gegebenenfalls das fünfte Membransignal und das sechste Membransignal in der ersten, der zweiten und gegebenenfalls der dritten Phasenrelation zu kombinieren, um ein zumindest teilweise omnidirektionales bzw. omnidirektionales Gleichtakt-Ausgangssignal (24a) zu liefern. Mikrophon nach einem der vorhergehenden Ansprüche, bei dem das erste Teilmikrophon (1) ein erstes Kondensatormikrophon aufweist, das die erste Membran und eine Gegenelektrode aufweist, und bei dem das erste Teilmikrophon (1) ein zweiten Kondensatormikrophon aufweist, das die zweite Membran und eine zweite Gegenelektrode aufweist, oder bei dem das zweite Teilmikrophon (1) ein drittes Kondensatormikrophon, das die dritte Membran und eine dritte Gegenelektrode aufweist, und ein viertes Kondensatormikrophon, das die vierte Membran und eine vierte Gegenelektrode aufweist, o- der bei dem ein drittes Teilmikrophon (3) ein fünftes Kondensatormikrophon, das die fünfte Membran und eine Gegenelektrode aufweist, und ein sechstes Kondensatormikrophon aufweist, das die sechste Membran und eine Gegenelektrode aufweist. Mikrophon nach einem der vorhergehenden Ansprüche, 29 bei dem das erste, das zweite, bzw. das dritte, das vierte bzw. das fünfte und das sechste Kondensatormikrophon als Kondensator- oder Elektretmikrophon ausgebildet ist, bei dem auf der jeweiligen Gegenelektrode eine Kondensator- oder Elektret- folie aufgebracht ist. Mikrophon nach einem der vorhergehenden Ansprüche, das einen Mikrophonhalter (50) aufweist, wobei das erste Teilmikrophon (1) in einem ersten länglichen Gehäuse gehäust ist, wobei an einer ersten Gehäusespitze das erste Membranpaar angeordnet ist, wobei das zweite Teilmikrophon (2) in einem zweiten länglichen Gehäuse gehäust ist, wobei an einer zweiten Gehäusespitze das zweite Membranpaar angeordnet ist, oder wobei ein drittes Teilmikrophon in einem dritten länglichen Gehäuse gehäust ist, wobei an einer dritten Gehäusespitze das dritte Membranpaar angeordnet ist, wobei der Membranhalter (50) ausgebildet ist, um das erste längliche Gehäuse, das zweite längliche Gehäuse und das dritte längliche Gehäuse so zu halten, dass die erste Gehäusespitze, die zweite Gehäusespitze und die dritte Gehäusespitze zueinander ausgerichtet sind und zwischen einer ersten Achse des ersten länglichen Gehäuses und einer zweiten Achse des zweiten länglichen Gehäuses ein Winkel zwischen 70° und 110° liegt, oder bei dem zwischen einer dritten Achse des dritten länglichen Gehäuses und der ersten und/oder der zweiten Achse ein Winkel zwischen 30° und 160° liegt, oder wobei ein Abstand zwischen der ersten Gehäusespitze, der zweiten Gehäusespitze und der dritten Gehäusespitze vorhanden ist, der kleiner als 5 cm ist. Mikrophon nach einem der vorhergehenden Ansprüche, bei dem das erste Membranpaar so ausgerichtet ist, dass die erste Raumachse eine x-Richtung ist, bei dem das zweite Membranpaar so ausgerichtet ist, dass die zweite Raumachse eine y-Richtung ist, oder 30 bei dem das dritte Membranpaar ausgerichtet ist, so dass die dritte Raumachse eine z-Richtung ist, wobei die x-Richtung, die y-Richtung und die z-Richtung zueinander im Wesentlichen orthogonal sind.
13. Mikrophon nach Anspruch 11 oder 12, bei dem der Membranhalter (50) einen flachen Träger aufweist, der eine Dreiecksform oder eine Drachenform hat, wobei an zwei Seiten des flachen Trägers seitlich vorstehende Halter (51 , 52) für das erste längliche Gehäuse und das zweite längliche Gehäuse angeordnet sind, und wobei in einer Mittelachse des flachen Trägers (50) ein senkrecht zu dem ersten Halter (51) und dem zweiten Halter (52) angeordneter nach oben vorstehender dritter Halter (53) angeordnet ist.
14. Mikrophon nach Anspruch 13, bei dem der erste Halter (51), der zweite Halter (52) oder der dritte Halter (53) auf einer Seite offene elastische Clipse aufweist, an denen das jeweilige längliche Gehäuse werkzeuglos montierbar ist.
15. Wiedergabevorrichtung für ein akustisches Signal, mit folgenden Merkmalen: einer Schnittstelle (110) zum Empfangen eines ersten elektrischen Signals (24), das einem akustischen Gleichtaktsignal entspricht, eines separaten zweiten elektrischen Signals (21), das einem ersten akustischen Differenzsignal entspricht, und eines separaten dritten elektrischen Signals (22), das einem zweiten akustischen Differenzsignal entspricht; einer ersten Lautsprechereinrichtung (131a, 132a, 133a, 134a, 135a) zum Wiedergeben des ersten elektrischen Signals (24) als akustisches Gleichtaktsignal; und einer zweiten Lautsprechereinrichtung (131 b, 132b, 133b, 134b, 135b) zum Wiedergeben des zweiten elektrischen Signals (21) und des dritten elektrischen Signals (22) als akustische Differenzsignale, wobei die zweite Lautsprechereinrichtung von der ersten Lautsprechereinrichtung unterschiedlich ist. 31 Wiedergabevorrichtung nach Anspruch 15, bei der die erste Lautsprechereinrichtung ausgebildet ist, um Translationsschwingungen ansprechend auf das erste elektrische Signal (24) zu erzeugen, und bei der die zweite Lautsprechereinrichtung ausgebildet ist, um ansprechend auf das zweite elektrische Signal (21) und das dritte elektrische Signal (22) akustische Rotationsschwingungen zu erzeugen, oder wobei die zweite Lautsprechereinrichtung ausgebildet ist, um Schall mit einer zweiten Richtcharakteristik wiederzugeben, die sich von einer ersten Richtcharakteristik der ersten Lautsprechereinrichtung unterscheidet. Wiedergabevorrichtung nach Anspruch 15 oder 16, bei der die erste Lautsprechereinrichtung einen ersten Wandler (131a, 132a, 133a, 134a, 135a) zum akustischen Wiedergeben des ersten elektrischen Signals (24) aufweist, wobei der erste Wandler ausgebildet ist, um in einer ersten Richtung zu emittieren, bei der die zweite Lautsprechereinrichtung einen zweiten Wandler (131b, 132b, 133b, 134b, 135b) zum akustischen Wiedergeben des zweiten elektrischen Signals (21) aufweist, wobei der zweite Wandler ausgebildet ist, um in einer zweiten Richtung zu emittieren, die sich von der ersten Richtung unterscheidet, und wobei die zweite Lautsprechereinrichtung einen dritten Wandler (170b) zum akustischen Wiedergeben des dritten elektrischen Signals (22) aufweist, wobei der dritte Wandler ausgebildet ist, um in einer dritten Richtung zu emittieren, die von der ersten Richtung und der zweiten Richtung unterschiedlich ist, oder die von der zweiten Richtung unterschiedlich ist und im Wesentlichen gleich der ersten Richtung ist. Wiedergabevorrichtung nach Anspruch 17, bei der die Schnittstelle (110) ausgebildet ist, um ein viertes separates elektrisches Signal (23), das ein drittes akustisches Differenzsignal ist, zu empfangen, bei der die zweite Lautsprechereinrichtung einen vierten Wandler (170c) zum akustischen Wiedergeben des vierten elektrischen Signals (23) aufweist, der ausgebildet 32 ist, um in einer vierten Richtung zu emittieren, die von der zweiten und der dritten Richtung unterschiedlich ist.
19. Wiedergabevorrichtung nach Anspruch 17 oder 18, bei der der zweite Wandler (170a), der dritte Wandler (170b) oder der vierte Wandler (170c) zwei Membranen aufweist, die so angeordnet sind, dass eine Membran in einer der ersten, der zweiten oder der dritten Richtung emittiert und die zweite Membran der zwei Membranen in einer negativen Richtung bezüglich der ersten, der zweiten oder der dritten Richtung emittiert, oder bei der die Membranen so angeordnet sind, dass die erste Membran und die zweite Membran des Membranpaares ansprechend auf das entsprechende elektrische Signal in der gleichen Richtung ausgelenkt werden.
20. Wiedergabevorrichtung nach einem der Ansprüche 15 bis 19, bei der die erste Lautsprechereinrichtung eine Frequenzweiche (162) aufweist, in der das erste elektrische Signal (24) wenigstens in zwei Teilsignale zerlegt wird, wobei die erste Lautsprechereinrichtung wenigstens einen Hochtöner (161) und einen Mittel- oder Tieftöner (163) aufweist, wobei ein Teilsignal dem Hochtöner (161) und ein Teilsignal dem Tieftöner oder Mitteltöner (163) zugeordnet ist.
21. Wiedergabevorrichtung nach einem der Ansprüche 15 bis 20, bei dem das erste elektrische Signal ein Mikrophonsignal ist, das von der Mikrophonanordnung aufgenommen worden ist oder ein synthetisiertes Mikrophonsignal ist, bei der das zweite elektrische Signal ein erstes Differenz-Ausgangssignal ist und das dritte elektrische Signal ein zweites Differenz-Ausgangssignal ist, wobei die erste Lautsprechereinrichtung eine erste Mehrzahl von Lautsprechern (131a, 132a, 133a, 134a, 135a) aufweist, die an verschiedenen Lautsprecherpositionen in einem Wiedergaberaum angeordnet sind, 33 wobei die erste Lautsprechereinrichtung ausgebildet ist, um das Mikrophonsignal unter Verwendung einer virtuellen Position (122) des realen oder virtuellen Mikrophons und unter Verwendung einer Information (121) über die verschiedenen Lautsprecherpositionen zu rendern (120), um für jeden der ersten Mehrzahl von Lautsprechern ein Lautsprechersignal (60, 70, 80, 90, 100) zu erzeugen, wobei die zweite Lautsprechereinrichtung eine zweite Mehrzahl von Lautsprechern (131 b, 132b, 133b, 134b, 135b) aufweist, wobei die Lautsprecher der zweiten Mehrzahl von Lautsprechern ebenfalls an den verschiedenen Lautsprecherpositionen angeordnet sind, und wobei die zweite Lautsprechereinrichtung ausgebildet ist, um unter Verwendung der Position des realen oder virtuellen Mikrophons und unter Verwendung der verschiedenen Lautsprecherpositionen das erste Differenz-Ausgangssignal (21) und das zweite Differenz-Ausgangssignal (22) zu rendern (120), um für jeden Lautsprecher der Mehrzahl von zweiten Lautsprechern ein Lautsprechersignal (61 , 71 , 81 , 91 , 101) zu erzeugen. Wiedergabevorrichtung nach Anspruch 21 , wobei die verschiedenen Lautsprecherpositionen eine Links-Hinten-Position, eine Links-Position, eine Mitte- Position, eine Rechts-Position oder eine Rechts-Hinten-Position aufweisen, wobei die erste Lautsprechereinrichtung angeordnet ist, um für jede der Positionen ein Lautsprechersignal (60, 70, 80, 90, 100) zu erzeugen, und wobei die zweite Lautsprechereinrichtung ausgebildet ist, um nur für wenigstens zwei Positionen der Links-Position, der Mitte- Position und der Rechts-Position ein Lautsprechersignal aus dem ersten oder dem zweiten Differenz-Ausgangssignal (21 , 22) durch Rendern zu erzeugen und optional für die Links-Hinten Position das Lautsprechersignal von dem Lautsprechersignal für die Links-Position abzuleiten o- der optional für die Rechts-Hinten Position das Lautsprechersignal von dem Lautsprechersignal für die Rechts-Position abzuleiten. Wiedergabevorrichtung nach einem der Ansprüche 21 oder 22, bei der der Lautsprecher der ersten Mehrzahl von Lautsprechern und der Lautsprecher der zweiten Mehrzahl von Lautsprechern an einer Lautsprecherposition in ei- 34 nem Lautsprechergehäuse (131 , 132, 133, 134, 135) integriert sind, wobei das Lautsprechergehäuse einen ersten Eingang für das erste Lautsprechersignal, das dem akustischen Gleichtaktsignal entspricht, und einen separaten zweiten Eingang für das zweite Lautsprechersignal aufweist, das dem ersten akustischen Differenzsignal entspricht, und optional auch einen separaten Eingang für ein drittes Lautsprechersignal aufweist, das dem zweiten akustischen Differenzsignal entspricht.
24. Wiedergabevorrichtung nach einem der Ansprüche 15 bis 23, bei der die zweite Lautsprechereinrichtung gehäuselose Membranen oder zueinander gerichtete Membranen, die im Gleichtakt betrieben werden, oder Einzelmembranen aufweist, die so gehäust ist, dass eine in der Nähe einer Mitte der Einzelmembran erzeugte Schwingung gegenüber einer an einem Rand der Einzelmembran erzeugten Schwingung reduziert wird.
25. Wiedergabevorrichtung nach einem der Ansprüche 21 bis 23, bei der die erste Lautsprechereinrichtung einen Common-Mode-Renderer (120a) zum Ermitteln einer Rendering-Einstellung (121) aufweist, und bei der die zweite Lautsprechereinrichtung einen Differenzsignal-Renderer (120b) aufweist, der ausgebildet ist, um die von dem Common-Mode-Renderer ermittelte Rendering-Einstellung (121) zu übernehmen.
26. Wiedergabevorrichtung nach Anspruch 21 , 22, 23, 25, bei der die erste Lautsprechereinrichtung ausgebildet ist, um als Rendering-Einstellung (121) Panning-Gewichte (121a) aus dem ersten elektrischen Signal (24) zu bestimmen und ein omni- direktionales Signal (24a) oder ein entsprechendes virtuelles Mikrophonsignal für jeden einzelnen Lautsprecher mit einem Panning-Gewicht zu gewichten (122a), und bei der die zweite Lautsprechereinrichtung ausgebildet ist, um das erste Differenz- Ausgangssignal (21) oder das zweite Differenz-Ausgangssignal (22) oder ein drittes Differenz-Ausgangssignal (23) unter Verwendung derselben Panning-Gewichte (121a) separat zu gewichten, um für jeden einzelnen Lautsprecher (131b, 132b, 133b, 134b, 135b) der zweiten Lautsprechereinrichtung wenigstens zwei Lautsprechersignale (71a, 71b, 71c; 81a, 81b, 81c; 91a, 91b, 91c) zu liefern. 35 Wiedergabevorrichtung nach einem der Ansprüche 21 - 26, 27, bei der die erste Lautsprechereinrichtung ausgebildet ist, um aus dem ersten elektrischen Signal (24) eine oder mehrere Positionen von virtuellen Quellen zu ermitteln, und um unter Verwendung der Positionen der virtuellen Quellen Panning-Gewichte zu ermitteln und zum Rendern des ersten elektrischen Signals (24) zu verwenden, und wobei die zweite Lautsprechereinrichtung ausgebildet ist, um dieselben Panning-Gewichte zum Rendern des ersten Differenz-Ausgangssignals (21) und des zweiten Differenz- Ausgangssignals (22) zu verwenden. Wiedergabevorrichtung nach einem der Ansprüche 21 bis 23, 25 bis 27, bei dem die erste Lautsprechereinrichtung ausgebildet ist, um das erste elektrische Signal in eine Vielzahl von Zeit-Frequenz-Bins zu zerlegen, um für jeden Zeit-Fre- quenz-Bin eine Richtungsinformation zu ermitteln, und um für jeden Zeit-Frequenz- Bin ein Panning-Gewicht zu ermitteln und zum Gewichten des ersten elektrischen Signals (24) zu verwenden, und bei der die zweite Lautsprechereinrichtung ausgebildet ist, um das erste Differenz- Ausgangssignal (21) und das zweite Differenz-Ausgangssignal (22) in eine Vielzahl von Zeit-Frequenz-Bins zu zerlegen und jeweils unter Verwendung desselben Gewichts für ein und denselben Zeit-Frequenz-Bin separat zu gewichten, und um gewichtete Zeit-Frequenz-Bins für dieselbe Lautsprecherposition aufzuaddieren, um gerenderte Differenzsignale (60a, 61 b) für die entsprechende Lautsprecherposition zu erzeugen. Mobiles Gerät (200) mit folgenden Merkmalen: einer Schnittstelle (110) zum Empfangen wenigstens eines ersten elektrischen Signals (24), das einem akustischen Gleichtaktsignal entspricht, wenigstens eines separaten zweiten elektrischen Signals (21), das einem ersten akustischen Differenzsignal entspricht, und wenigstens eines separaten dritten elektrischen Signals (22), das einem zweiten akustischen Differenzsignal entspricht; 36 wobei das wenigstens erste elektrische Signal ein Mikrophonsignal ist, das von einer Mikrophonanordnung aufgenommen worden ist oder ein synthetisiertes Mikrophonsignal ist, wobei das wenigstens zweite elektrische Signal ein erstes Differenz-Ausgangssignal ist und das wenigstens dritte elektrische Signal ein zweites Differenz-Ausgangssignal ist, einem Renderer (120), der ausgebildet ist, um das Mikrophonsignal unter Verwendung einer virtuellen Position (122) des realen oder virtuellen Mikrophons und unter Verwendung einer Information (121) über die verschiedenen Lautsprecherpositionen zu rendern (120), um für jeden einer ersten Mehrzahl von Lautsprechern ein Lautsprechersignal (60, 70, 80, 90, 100) zu erzeugen, oder um mehrere Mikrophonsignale unter Verwendung von virtuellen Positionen der realen oder virtuellen Mikrophone und unter Verwendung von verschiedenen Kopf-bezogenen Übertragungsfunktionen (HRTFs), die von den Positionen und einer jeweiligen Seite eines Kopfhörers abhängen, zu rendern (120), um für jede Seite von zwei Kopfhörerseiten ein Kopfhörersignal (60, 70, 80, 90, 100) zu erzeugen, und um unter Verwendung der Position des realen oder virtuellen Mikrophons und unter Verwendung der verschiedenen Lautsprecherpositionen das erste Differenz-Ausgangssignal (21) und das zweite Differenz-Ausgangssignal (22) zu rendern (120), um für jeden Lautsprecher einer Mehrzahl von zweiten Lautsprechern ein Lautsprechersignal (61 , 71 , 81 , 91 , 101) zu erzeugen, o- der um unter Verwendung der virtuellen Positionen der realen oder virtuellen Mikrophone und unter Verwendung von verschiedenen Kopf-bezogenen Übertragungsfunktionen (HRTFs), die von den Positionen und einer jeweiligen Seite eines Kopfhörers abhängen, jeweilige erste Differenz-Ausgangssignale und jeweilige zweite Differenz-Ausgangssignals zu rendern (120), um für jede Seite von zwei Kopfhörerseiten ein Kopfhörersignal (60, 70, 80, 90, 100) zu erzeugen; und einer Ausgabeeinrichtung zum Ausgeben von erzeugten Signalen an die Lautsprecher oder die Kopfhörerseiten. 37
30. Verfahren zum Aufzeichnen eines akustischen Signals, mit folgenden Merkmalen:
Betreiben eines ersten Teilmikrophons (1) mit einem ersten Membranpaar, das eine erste Membran (11) und eine zweite Membran (12) aufweist, die einander gegenüberliegend angeordnet sind; und
Betreiben eines zweiten Teilmikrophons (2) mit einem zweiten Membranpaar, das eine dritte Membran (13) und eine vierte Membran (14) aufweist, die einander gegenüberliegend angeordnet sind, wobei das erste Membranpaar so angeordnet ist, dass die erste Membran (11) und die zweite Membran (12) entlang einer ersten Raumachse auslenkbar sind, wobei das zweite Membranpaar so angeordnet ist, dass die dritte Membran (13) und die vierte (14) entlang einer zweiten Raumachse auslenkbar sind, und wobei die zweite Raumachse zu der ersten Raumachse unterschiedlich ist.
31. Verfahren zum Wiedergeben für ein akustisches Signal, mit folgenden Schritten:
Empfangen eines ersten elektrischen Signals (24), das einem akustischen Gleichtaktsignal entspricht, eines separaten zweiten elektrischen Signals (21), das einem ersten akustischen Differenzsignal entspricht, und eines separaten dritten elektrischen Signals (22), das einem zweiten akustischen Differenzsignal entspricht;
Wiedergeben des ersten elektrischen Signals (24) als akustisches Gleichtaktsignal mit einer ersten Lautsprechereinrichtung; und
Wiedergeben des zweiten elektrischen Signals (21) und des dritten elektrischen Signals (22) als akustische Differenzsignale mit einer zweiten Lautsprechereinrichtung, wobei die zweite Lautsprechereinrichtung von der ersten Lautsprechereinrichtung unterschiedlich ist. 38 Computerprogramm mit einem Programmcode zum Durchführen des Verfahrens nach Anspruch 30 oder Anspruch 31 , wenn der Programmcode auf einem Computer oder einem Prozessor abläuft.
PCT/EP2022/051252 2021-01-21 2022-01-20 Mikrophon, verfahren zum aufzeichnen eines akustischen signals, wiedergabevorrichtung für ein akustisches signal, oder verfahren zum wiedergeben eines akustischen signals WO2022157252A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP22702897.4A EP4282162A1 (de) 2021-01-21 2022-01-20 Mikrophon, verfahren zum aufzeichnen eines akustischen signals, wiedergabevorrichtung für ein akustisches signal, oder verfahren zum wiedergeben eines akustischen signals
CN202280022691.8A CN117242782A (zh) 2021-01-21 2022-01-20 麦克风、用于记录声学信号的方法、用于声学信号的再现设备或用于再现声学信号的方法
US18/352,685 US20230362545A1 (en) 2021-01-21 2023-07-14 Microphone, method for recording an acoustic signal, reproduction apparatus for an acoustic signal or method for reproducing an acoustic signal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021200555.1 2021-01-21
DE102021200555.1A DE102021200555B4 (de) 2021-01-21 2021-01-21 Mikrophon und Verfahren zum Aufzeichnen eines akustischen Signals

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/352,685 Continuation US20230362545A1 (en) 2021-01-21 2023-07-14 Microphone, method for recording an acoustic signal, reproduction apparatus for an acoustic signal or method for reproducing an acoustic signal

Publications (1)

Publication Number Publication Date
WO2022157252A1 true WO2022157252A1 (de) 2022-07-28

Family

ID=80222120

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/051252 WO2022157252A1 (de) 2021-01-21 2022-01-20 Mikrophon, verfahren zum aufzeichnen eines akustischen signals, wiedergabevorrichtung für ein akustisches signal, oder verfahren zum wiedergeben eines akustischen signals

Country Status (6)

Country Link
US (1) US20230362545A1 (de)
EP (1) EP4282162A1 (de)
CN (1) CN117242782A (de)
DE (1) DE102021200555B4 (de)
TW (1) TWI840740B (de)
WO (1) WO2022157252A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023166109A1 (de) 2022-03-03 2023-09-07 Kaetel Systems Gmbh Vorrichtung und verfahren zum neuaufzeichnen eines existierenden tonstücks

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080199023A1 (en) * 2005-05-27 2008-08-21 Oy Martin Kantola Consulting Ltd. Assembly, System and Method for Acoustic Transducers
WO2016096021A1 (en) * 2014-12-18 2016-06-23 Huawei Technologies Co., Ltd. Surround sound recording for mobile devices
EP3061266A1 (de) 2013-10-25 2016-08-31 Kaetel Systems GmbH Kopfhörer und verfahren zur herstellung der kopfhörer
EP2692144B1 (de) 2011-03-30 2017-02-01 Kaetel Systems GmbH Lautsprecher
EP3061262B1 (de) 2013-10-25 2018-01-10 Kaetel Systems GmbH Ohrhörer und verfahren zur herstellung eines ohrhörers
GB2575492A (en) * 2018-07-12 2020-01-15 Centricam Tech Limited An ambisonic microphone apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005530371A (ja) * 2002-01-25 2005-10-06 ソニオン ホーセンス エイ/エス 集積されたコイルを有するフレキシブル振動板
US20130142358A1 (en) 2011-12-06 2013-06-06 Knowles Electronics, Llc Variable Directivity MEMS Microphone
WO2019183112A1 (en) 2018-03-20 2019-09-26 3Dio, Llc Binaural recording device with directional enhancement

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080199023A1 (en) * 2005-05-27 2008-08-21 Oy Martin Kantola Consulting Ltd. Assembly, System and Method for Acoustic Transducers
EP2692144B1 (de) 2011-03-30 2017-02-01 Kaetel Systems GmbH Lautsprecher
EP2692154B1 (de) 2011-03-30 2017-09-20 Kaetel Systems GmbH Verfahren zur aufnahme und zur wiedergabe einer audioszene
EP2692151B1 (de) 2011-03-30 2018-01-10 Kaetel Systems GmbH Elektretmikrofon
EP3061266A1 (de) 2013-10-25 2016-08-31 Kaetel Systems GmbH Kopfhörer und verfahren zur herstellung der kopfhörer
EP3061262B1 (de) 2013-10-25 2018-01-10 Kaetel Systems GmbH Ohrhörer und verfahren zur herstellung eines ohrhörers
WO2016096021A1 (en) * 2014-12-18 2016-06-23 Huawei Technologies Co., Ltd. Surround sound recording for mobile devices
GB2575492A (en) * 2018-07-12 2020-01-15 Centricam Tech Limited An ambisonic microphone apparatus

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A. POLITIS: "Parametric Spatial Audio Effects", 15TH INT. CONFERENCE ON DIGITAL AUDIO EFFECTS, 17 September 2012 (2012-09-17)
DENON: "AVC-X3700H 9.2-Kanal 8K AV-Receiver mit 3D-Audio | Denon(TM)", 1 July 2020 (2020-07-01), XP055913589, Retrieved from the Internet <URL:https://www.denon.com/de-de/product/av-receivers/avc-x3700h> [retrieved on 20220419] *
V. PULKKI: "Directional audio coding - perception-based reproduction of spatial sound", INTERNATIONAL WORKSHOP ON THE PRINCIPLES AND APPLICATIONS OF SPATIAL HEARING, IWPASH, 11 November 2009 (2009-11-11)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023166109A1 (de) 2022-03-03 2023-09-07 Kaetel Systems Gmbh Vorrichtung und verfahren zum neuaufzeichnen eines existierenden tonstücks

Also Published As

Publication number Publication date
TWI840740B (zh) 2024-05-01
US20230362545A1 (en) 2023-11-09
CN117242782A (zh) 2023-12-15
TW202236863A (zh) 2022-09-16
EP4282162A1 (de) 2023-11-29
DE102021200555A1 (de) 2022-07-21
DE102021200555B4 (de) 2023-04-20

Similar Documents

Publication Publication Date Title
DE69831458T2 (de) Mittelpunkt-stereowiedergabesystem für musikinstrumente
DE102013221754A1 (de) Kopfhörer und verfahren zum herstellen eines kopfhörers
DE102007008738A1 (de) Verfahren zur Verbesserung der räumlichen Wahrnehmung und entsprechende Hörvorrichtung
DE102013221752A1 (de) Ohrhörer und verfahren zum herstellen eines ohrhörers
DE102021203640B4 (de) Lautsprechersystem mit einer Vorrichtung und Verfahren zum Erzeugen eines ersten Ansteuersignals und eines zweiten Ansteuersignals unter Verwendung einer Linearisierung und/oder einer Bandbreiten-Erweiterung
WO2022157251A2 (de) Am kopf tragbarer schallerzeuger, signalprozessor und verfahren zum betreiben eines schallerzeugers oder eines signalprozessors
DE102021200555B4 (de) Mikrophon und Verfahren zum Aufzeichnen eines akustischen Signals
DE102007051308B4 (de) Verfahren zum Verarbeiten eines Mehrkanalaudiosignals für ein binaurales Hörgerätesystem und entsprechendes Hörgerätesystem
DE102008059036A1 (de) Multimodale Raumklanglautsprecherbox
DE102021203632A1 (de) Lautsprecher, Signalprozessor, Verfahren zum Herstellen des Lautsprechers oder Verfahren zum Betreiben des Signalprozessors unter Verwendung einer Dual-Mode-Signalerzeugung mit zwei Schallerzeugern
WO2016206815A1 (de) Verfahren zur schallwiedergabe in reflexionsumgebungen, insbesondere in hörräumen
DE102021205545A1 (de) Vorrichtung und Verfahren zum Erzeugen eines Ansteuersignals für einen Schallerzeuger oder zum Erzeugen eines erweiterten Mehrkanalaudiosignals unter Verwendung einer Ähnlichkeitsanalyse
DE102021200553B4 (de) Vorrichtung und Verfahren zum Ansteuern eines Schallerzeugers mit synthetischer Erzeugung des Differenzsignals
WO2023166109A1 (de) Vorrichtung und verfahren zum neuaufzeichnen eines existierenden tonstücks
DE4237710A1 (en) Improving head related sound characteristics for TV audio signal playback - using controlled audio signal processing for conversion into stereo audio signals
DE112019006599T5 (de) Tonausgabevorrichtung und Tonausgabeverfahren
DE19628261A1 (de) Verfahren und Vorrichtung zum elektronischen Einbetten von Richtungseinsätzen bei Zweikanal-Ton
WO2023052555A2 (de) Lautsprechersystem, ansteuerschaltung für ein lautsprechersystem mit einem hochtöner und zwei mittel- oder tieftönern und enstprechende verfahren
DE102021203639A1 (de) Lautsprechersystem, Verfahren zum Herstellen des Lautsprechersystems, Beschallungsanlage für einen Vorführbereich und Vorführbereich
AT389610B (de) Stereophonische aufnahmeeinrichtung zur verbesserung des raeumlichen hoerens
WO2023001673A2 (de) Vorrichtung und verfahren für die schallversorgung in einem raum
EP2373055B1 (de) Kopfhörer-Vorrichtung zur Wiedergabe binauraler räumlicher Audiosignale und damit ausgestattetes System
DE10154932A1 (de) Verfahren zur Audiocodierung
DE102018216604A1 (de) System zur Übertragung von Schall in den und aus dem Kopf eines Hörers unter Verwendung eines virtuellen akustischen Systems
EP1410685A2 (de) Mehrkanaliges tonbearbeitungssystem

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22702897

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022702897

Country of ref document: EP

Effective date: 20230821

WWE Wipo information: entry into national phase

Ref document number: 202280022691.8

Country of ref document: CN