EP3069530B1 - Method and device for compressing and decompressing sound field data of an area - Google Patents

Method and device for compressing and decompressing sound field data of an area Download PDF

Info

Publication number
EP3069530B1
EP3069530B1 EP14793183.6A EP14793183A EP3069530B1 EP 3069530 B1 EP3069530 B1 EP 3069530B1 EP 14793183 A EP14793183 A EP 14793183A EP 3069530 B1 EP3069530 B1 EP 3069530B1
Authority
EP
European Patent Office
Prior art keywords
harmonic components
order
sound field
field data
spectral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Not-in-force
Application number
EP14793183.6A
Other languages
German (de)
French (fr)
Other versions
EP3069530A1 (en
Inventor
Johannes Nowak
Christoph SLADECZEK
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Technische Universitaet Ilmenau
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Technische Universitaet Ilmenau
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV, Technische Universitaet Ilmenau filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of EP3069530A1 publication Critical patent/EP3069530A1/en
Application granted granted Critical
Publication of EP3069530B1 publication Critical patent/EP3069530B1/en
Not-in-force legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • G10L19/0208Subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems

Definitions

  • the present invention relates to audio technology, and more particularly to the compression of spatial sound field data.
  • the acoustic description of rooms is of great interest for the control of display devices in the form of e.g. a headphone, a speaker assembly with e.g. two to a mean number of loudspeakers, such as 10 loudspeakers or loudspeaker arrangements with a large number of loudspeakers, as used in Wave Field Synthesis (WFS).
  • WFS Wave Field Synthesis
  • One approach is e.g. in creating different channels for different speakers at predefined speaker positions, as is the case with MPEG surround, for example.
  • a listener located in the reproduction room at a certain and, ideally, the middle position obtains a sense of space for the reproduced sound field.
  • An alternative spatial description is to describe a space through its impulse response. For example, if a sound source is positioned anywhere in a room or area, that space or area may be measured with a circular array of microphones in the case of a two-dimensional area or with a ball-microphone array in the case of a three-dimensional area. For example, if a ball-microphone array with a high number of microphones is considered, such as 350 microphones, then a survey of the room will proceed as follows. At a certain position inside or outside the microphone array, a pulse is generated. Then the response to this pulse, ie the impulse response, is measured by each microphone. Depending on how strong the reverb characteristics are, a longer or shorter impulse response is then measured. For example, in large scale measurements in large churches have shown that impulse responses can last over 10 s.
  • Such a set of e.g. 350 impulse responses describe the sound characteristics of this room for the specific position of a sound source where the impulse was generated.
  • this set of impulse responses represents sound field data of the area for exactly the one case where a source is positioned at the position where the impulse was generated.
  • the WO 2010/012478 A2 discloses a system for generating binaural signals based on a multi-channel signal representing a plurality of channels and intended for reproduction by a speaker configuration having an associated virtual sound source position for each channel.
  • the object of the present invention is to provide a more efficient concept for handling such.
  • a device for compressing sound field data of a region comprises a splitter for splitting the sound field data into a first part and a second part, and a downstream converter for converting the first part and the second part into harmonic components, wherein the conversion takes place so that the second Number is converted into one or more harmonic components with a second order, and that the first portion in harmonic components with ei first order, with the first order being higher than the second order, to obtain the compressed sound field data.
  • harmonic components such as are obtainable by means of a spatial spectral transformation, describe a sound field much more compact than impulse responses.
  • order of harmonic components is readily controllable.
  • the harmonic component of zeroth order is just a (non-directional) mono signal. It does not yet allow a sound field direction description.
  • the additional first order harmonic components already allow a relatively coarse directional representation analogous to beamforming.
  • the harmonic components of second order allow an even more accurate sound field description with even more directional information. For example, in Ambisonics, the number of components is 2n + 1, where n is the order.
  • the directional perception of the human ear is mainly derived from the early reflections, while the late / diffuse reflections in a typical impulse response to directional perception contribute little or nothing.
  • the first portion will be the early portion of the impulse responses, which will be translated to the higher order in the harmonic component range, while the late diffused portion will be converted to a lower order and sometimes even zero order.
  • the directional perception of human hearing is frequency-dependent. At low frequencies, the directional perception of the human ear is relatively weak. For the compression of sound field data, it is therefore sufficient to convert the low spectral range of the harmonic components with a relatively small order in the harmonic component range, while the frequency ranges of the sound field data in which the direction perception of the human ear is very high, with a high and preferably even be implemented with the maximum order.
  • the sound field data is decomposed by means of a filter bank into individual subband sound field data and these subband sound field data are then decomposed with different orders, again the first portion has subband sound field data at higher frequencies, while the second portion has subband sound field data at lower frequencies , where very low frequencies can again be represented even with an order equal to zero, ie only with a single harmonic component.
  • the advantageous characteristics of temporal and frequency processing are combined.
  • the early portion which is anyway implemented with a higher order, can be decomposed into spectral components, for which then again orders adapted to the individual bands can be obtained.
  • the effort to convert the subband sound field data in the harmonic component area is additionally reduced.
  • the differentiation of different parts of the sound field data with respect to the order to be computed provides a considerable reduction of the computational effort, since the calculation of the harmonic components, such as the cylindrical harmonic components or the spherical harmonic components strongly depends on the order up to which the harmonics Components are to be calculated.
  • a calculation of the harmonic components to the second order requires much less computational effort and thus computation time or battery performance, especially in mobile devices as a calculation of the harmonic components to order 14, for example.
  • the converter is thus designed to implement the component, that is to say the first component of the sound field data, which is more important for a directional perception of the human ear, with a higher order than the second part, which is less important for the directional perception of a sound source than the first part.
  • the present invention can be used not only for a temporal decomposition of the sound field data into shares or for a spectral decomposition of the sound field data into shares, but also for an alternative, for.
  • B. spatial decomposition of the shares for example, if it is considered that the direction perception of the human ear for sound in different azimuth or elevation angles is different.
  • the sound field data is impulse responses or other sound field descriptions where each description is assigned a particular azimuth / elevation angle
  • the sound field data may be translated from azimuth / elevation angles, where directional perception of the human ear is stronger Order are compressed as a spatial portion of the sound field data from another direction.
  • the individual harmonics can be "thinned out", ie in the example with order 14, in which there are 29 modes.
  • individual modes are saved which image the sound field for unimportant sound incidence directions.
  • there is an uncertainty because one does not know in which direction the head is aligned with respect to the array sphere. But if you represent HRTFs by means of spherical harmonics, this uncertainty is resolved.
  • decompositions of the sound field data in addition to decompositions in temporal, spectral or spatial direction can also be used, such as a decomposition of the sound field data into a first and a second portion in volume classes, etc.
  • the description of acoustic problems occurs in the cylindrical or spherical coordinate system, ie by means of complete sets of orthonormal eigenfunctions, the so-called cylindrical or spherical harmonic components.
  • the so-called cylindrical or spherical harmonic components With higher spatial accuracy of the description of the sound field increase the amount of data and the computing time in the processing or manipulation of the data.
  • high accuracies are required, which adds to the problems of long computation times, which are particularly detrimental to real-time systems, of large data volumes, which makes transmission more spatial Sound field data difficult, and high energy consumption by intensive computational effort, especially in mobile devices leads.
  • the reduced computing power and the reduced storage volume automatically reduce the energy consumption, which is particularly incurred when using sound field data in mobile devices.
  • the spatial sound field description is optimized in the cylindrical or spherical harmonic region based on the spatial perception of humans.
  • a combination of time- and frequency-dependent calculation of the order of spherical harmonics as a function of the spatial perception of human hearing leads to a considerable effort reduction without reducing the subjective quality of sound field perception.
  • the objective quality is reduced since the present invention represents lossy compression.
  • this lossy compression is not critical, especially since the ultimate receiver is the human ear, and therefore it is irrelevant even for transparent reproduction, whether or not sound field components, which are not perceived by the human ear anyway, are present in the reproduced sound field.
  • FIG. 12 shows a block diagram of a device or method for compressing sound field data of a region as input at an input 10 into a splitter 100.
  • the splitter 100 is designed to divide the sound field data into a first portion 101 and a second portion 102.
  • a converter is provided which has the two functionalities designated 140 or 180.
  • the converter is configured to convert the first portion 101, as shown at 140, and to convert the second portion 102, as shown at 180.
  • the converter converts the first portion 101 into one or more harmonic components 141 having a first order
  • the converter 180 converts the second portion 102 into one or more harmonic components 182 having a second order.
  • the first order that is, the order underlying the harmonic components 141 is higher than the second order, which means, in other words, that the higher order converter 140 outputs more harmonic components 141 than the lower order converter 180.
  • the order n 1 by which the converter 140 is driven, is thus greater than the order n 2 , with which the converter 180 is driven.
  • the converters 140, 180 may be controllable converters. Alternatively, however, the order may be fixed and thus permanently programmed so that the inputs designated n 1 and n 2 are not present in this embodiment.
  • Fig. 1b shows an apparatus for decompressing compressed sound field data 20 having first harmonic components of a first order and one or more second harmonic components of a second order, such as those of FIG Fig. 1a be issued at 141, 182.
  • the decompressed sound field data need not necessarily be the harmonic components 141, 142 in "raw format".
  • a lossless entropy coder such as a Huffman coder or an arithmetic coder, to further reduce the number of bits ultimately needed to represent the harmonic components.
  • the data stream 20 fed to an input interface 200 would consist of entropy-coded harmonic components and, if necessary, page information, as described with reference to FIGS Fig. 3a is pictured.
  • a respective entropy decoder would be provided at the output of the input interface 200, which is connected to the entropy encoder on the encoder side, ie Fig. 1a is adjusted.
  • the first harmonic components of the first order 201 and the second harmonic components of the second order 202 as shown in FIG Fig. 1b optionally entropy-coded or else entropy-decoded or indeed the harmonic components in "raw" form, as indicated at 141, 182 in Fig. 1a present,
  • Both groups of harmonic components are fed to a decoder / combiner 240.
  • the block 240 is configured to decompress the compressed sound field data 201, 202 using a combination of the first portion and the second portion and using a translation from a harmonic component representation into a time domain representation, and finally to provide the decompressed representation of the sound field as shown at 240.
  • the decoder 240 which may be formed, for example, as a signal processor, is thus designed, on the one hand, to implement a conversion into the time domain from the spherical-harmonic component region and, on the other hand, to perform a combination. However, the order between implementation and combination may be different as regards Fig. 1d, Fig. 1e or Fig. 2c, 2d for different examples.
  • Fig. 1c shows an apparatus for compressing sound field data of a region according to an embodiment, in which the splitter 100 is formed as a time divider 100a.
  • the scheduler 100a is one implementation of the divider 100 of Fig. 1a is configured to divide the sound field data into a first portion comprising first reflections in the area and a second portion comprising second reflections in the area, the second reflections occurring later in time than the first reflections.
  • the first portion 101 output from the block 100a represents the impulse response portion 310 of FIG Fig. 4 while the second late portion represents the impulse response portion 320 of FIG Fig. 4 represents.
  • the timing of the division may be, for example, 100 ms.
  • the division is made where the discrete reflections change to diffuse reflections. This can be a different time, depending on the room, and concepts exist to create the best layout here.
  • the division into an early and a late portion can also be carried out depending on an available data rate, in such a way that the distribution time is made smaller and smaller the less bit rate there is. This is favorable in terms of the bit rate, because then as large a proportion of the impulse response with a low order is converted into the harmonic component range.
  • the converter defined by blocks 140 and 180 in FIG Fig. 1c is thus configured to convert the first portion 101 and the second portion 102 into harmonic components, the converter in particular converting the second portion into one or more harmonic components 182 having a second order and the first portion 101 into harmonic components 141 with a first order, the first order being higher than the second order, to finally obtain the compressed sound field which is finally outputable from an output interface 190 for transmission and / or storage purposes.
  • Fig. 1d shows an implementation of the decompressor for the example of the time distribution.
  • the decompressor is configured to perform the compressed sound field data using a combination of the first portion 201 with the first reflections and the second portion 202 with the late reflections and a conversion from the harmonic component range to the time domain.
  • Fig. 1d shows an implementation in which the combination takes place after the conversion.
  • Fig. 1e shows an alternative implementation in which the combination takes place before the conversion.
  • the converter 241 is configured to convert harmonic components of the high order into the time domain while the converter 242 is configured to form the harmonic components of the low order to implement in the time domain.
  • the output of converter 241 provides something corresponding to region 210, while converter 242 provides something corresponding to region 320, but due to the lossy compression, the portions at the output of bridge 241, 242 are not identical to portions 310, 320 are.
  • an at least perceptual similarity or identity of the portion at the output of the block 241 to the portion 310 of FIG Fig. 4 while the portion at the output of the block 242 corresponding to the late portion 320 of the impulse response will have significant differences and thus approximate only the course of the impulse response.
  • these deviations are not critical to human directional perception, because human directional perception is hardly or not based on the late contribution or diffuse reflections of the impulse response anyway.
  • FIG. 12 shows an alternative implementation in which the decoder first comprises the combiner 245 and then the converter 244. The individual harmonic components are used in the in Fig. 1e Then, the result of the addition is converted to finally obtain a time domain representation.
  • a combination does not consist in an addition, but in a serialization, in that the output of the block 241 will be arranged earlier in a decompressed impulse response than the output of the block 242 to again one Fig. 4 To obtain corresponding impulse response, which can then be used for further purposes, such as an auralization in a preparation of sound signals with the desired spatial impression.
  • Fig. 2a shows an alternative implementation of the present invention, in which a division in the frequency domain is made.
  • the splitter 100 is of Fig. 1a in the embodiment of Fig. 2a implemented as a filter bank to filter at least part of the sound field data to obtain sound field data in different filter bank channels 101, 102.
  • the filter bank receives in an embodiment in which the temporal distribution of Fig. 1a is not implemented, both the early and the late portion, while in an alternative embodiment, only the early portion of the sound field data is fed into the filter bank, while the late portion is not spectrally decomposed further.
  • the converter which may be formed of sub-converters 140a, 140b, 140c.
  • the converter 140a, 140b, 140c is configured to convert the sound field data in different filter bank channels using different orders for different filter bank channels to obtain one or more harmonic components for each filter bank channel.
  • the converter is configured to perform a first-order conversion for a first filterbank channel having a first center frequency, and to perform a second-order conversion for a second filterbank channel having a second center frequency, the first order being higher than the second order and wherein the first center frequency, ie, f n , is higher than the second center frequency f 1 to finally obtain the compressed sound field representation.
  • a lower order may be used for the lowest frequency band than for a middle frequency band.
  • the highest frequency band as in the case of the Fig. 2a
  • the filter bank channel with the center frequency f n is not necessarily implemented with a higher order than, for example, a middle channel.
  • the highest order can be used, as in the other areas, which may include, for example, a certain high frequency range, the order is lower, because in these areas, the direction perception of the human hearing is lower.
  • Fig. 2b shows a more detailed implementation of the analysis filter bank 100b.
  • each decimator can be decimated by a factor of 1/64, so that the total number of digital samples at the output of the decimators over all channels adds up to the number of samples of one Blocks of sound field data in the time domain, which has been decomposed by the filter bank.
  • An exemplary filter bank may be a real or complex QMF filter bank.
  • Each subband signal preferably the early portions of the impulse responses, is then converted into harmonic components by means of the converters 140a to 140c in analogy to Fig. 2a implemented, finally, for various subband signals of the sound field description to obtain a description with cylindrical or preferably spherical harmonic components having different orders for different subband signals, that is, a different number of harmonic components.
  • Fig. 2c and Fig. 2d again show different implementations of the decompressor, as in Fig. 1b is shown, so a different order of the combination and subsequent implementation in Fig. 2c or the initial implementation and the subsequent combination, as described in Fig. 2d is shown.
  • the decompressor 240 includes Fig. 1b at the in Fig. 2c Again, a combiner 245, which performs an addition of the different harmonic components from the various subbands, in order to then obtain an overall representation of the harmonic components, which are then converted with the converter 244 in the time domain.
  • the inputs to combiner 245 are in the harmonic component spectral region, while the output of combiner 345 is a harmonic component region representation, which is then converted by converter 244 to the time domain.
  • the individual harmonic components for each subband are first converted into the spectral range by different converters 241a, 241b, 241c, so that the output signals of the blocks 241a, 241b, 241c correspond to the output signals of the blocks 140a, 140b, 140c of FIG Fig. 2a or Fig. 2b correspond.
  • These subband signals then become in a downstream synthesis filter bank which, in the case of an encoder side downsampling (block 100c of FIG Fig. 2b ) may also have a high-touch function, that is, an upsampling function, processed.
  • the synthesis filterbank sets the combiner function of the decoder 240 of FIG Fig. 1b At the output of the synthesis filter bank is thus the decompressed sound field representation, which can be used for auralization, as will be shown.
  • Fig. 1f shows an example of the decomposition of impulse responses into harmonic components of different orders.
  • the late sections are not spectrally decomposed but implemented in total with the zeroth order.
  • the early sections of the impulse responses are spectrally decomposed. For example, the lowest band is processed with the first order, while the next band is already processed with the fifth order and the last band, because it is most important for direction / space perception, with the highest order, in this example with order 14, is processed.
  • FIG. 3a Figure 4 shows the entire encoder / decoder scheme or the entire compressor / decompressor scheme of the present invention.
  • the compressor not only the functionalities of Fig. 1a , denoted by 1 or PENC, but also a decoder PDEC2, as in Fig. 1b can be trained.
  • the compressor also comprises a controller CTRL4, which is designed to compare decompressed sound field data obtained by the decoder 2 with original sound field data taking into account a psychoacoustic model, such as the model PEAQ, which has been standardized by the ITU.
  • the controller 4 generates optimized parameters for the division, such as the time distribution, the frequency distribution in the filter bank or optimized parameters for the orders in the individual converters for the different parts of the sound field data, if these converters are designed to be controllable.
  • Control parameters such as split information, filter bank parameters, or orders, may then be transmitted along with a bit stream having the harmonic components to a decompressor denoted 2 in Fig. 3a is shown.
  • the compressor 11 thus consists of the control block CTRL4 for the codec control as well as a parameter encoder PENC1 and the parameter decoder PDEC2.
  • the inputs 10 are data from microphone array measurements.
  • the control block 4 initializes the encoder 1 and provides all the parameters for encoding the array data.
  • PENC block 1 the data is processed in accordance with the methodology described above, in the time domain and in the frequency domain, and made available for data transmission.
  • Fig. 3b shows the scheme of data en- and decoding.
  • the input data 10 are first decomposed by the splitter 100a into an early 101 and a late sound field 102.
  • This spherical harmonic decomposition is a preferred embodiment, but can be performed by any sound field decomposition that generates harmonic components.
  • the frequency range in the reconstruction block 245, which is also referred to as a combiner is reconstructed and recombined with the late sound field in the further combiner 243 after it has been computed with a low-order listener fit.
  • the control block CTRL4 of Fig. 3a includes a room acoustic analysis module and a psychoacoustics module.
  • the control block analyzes both the input data 10 and the output data of the decoder 2 of FIG Fig. 3a to encode the encoding parameters, also called page information 300 in FIG Fig. 3a or directly provided in the compressor 11 to the encoder PENC1, adaptively adapt.
  • room acoustic parameters are extracted which specify the initial parameters of the coding with the parameters of the array configuration used. These include both the time of separation between early and late sound field, also referred to as "mixing time", and the parameters for the filter bank, such as corresponding orders of spherical harmonics.
  • the output which may be in the form of binaural impulse responses, for example, as output from combiner 243, is fed into a psychoacoustic module with an auditory model that evaluates the quality and adjusts the encoding parameters accordingly.
  • a psychoacoustic module with an auditory model that evaluates the quality and adjusts the encoding parameters accordingly.
  • the concept can also work with static parameters. Then the control module CTRL4 and the PEDC module 2 on the encoder or compressor side 11 is omitted.
  • the invention is advantageous in that data and computational complexity in the processing and transmission of circular and spherical array data are reduced as a function of human hearing. It is also advantageous that the data thus processed can be integrated into existing compression methods and thus allow additional data reduction. This is advantageous in band-limited transmission systems, such as for mobile terminals. Another advantage is the possible real-time processing of the data in the spherical harmonic range even at high orders.
  • the present invention can be used in many fields, and in particular in the areas where the acoustic sound field is represented by means of cylindrical or spherical harmonics. This is done eg in the sound field analysis by means of circular or ball arrays. If the analyzed sound field is to be auralized, the concept of the present invention can be used.
  • the inventive concept allows a space-saving and high-quality storage.
  • reproduction methods based on spherical surface functions such as Higher Order Ambisonics or binaural synthesis.
  • the present invention provides a reduction of computation time and data overhead. This can be of particular advantage, in particular with regard to data transmission, for example in the case of teleconferencing systems.
  • Fig. 5 shows an implementation of a converter 140 or 180 with adjustable order or with at least different order, which may also be fixed.
  • the converter includes a time-frequency transform block 502 and a downstream space transform block 504.
  • the space transform block 504 is configured to operate in accordance with computation rule 508.
  • n is the order.
  • the calculation rule 508 is solved only once, if the order is zero, depending on the order, or is solved more often if the order, for example, goes to order 5 or, in the example described above, to order 14.
  • the time-frequency transform element 502 is configured to transform the impulse responses on the input lines 101, 102 into the frequency domain, preferably employing the fast Fourier transform. Furthermore, then only the half-page spectrum is forwarded to reduce the computational effort.
  • a spatial Fourier transform is performed in the block space transformation 504 as described in US Pat Fourier Acoustics, Sound Radiation and Nearfield Acoustic Holography, Academic Press, 1999 by Earl G. Williams is described.
  • the spatial transformation 504 is optimized for sound field analysis while providing high numerical accuracy and fast computation speed.
  • Fig. 6 Figure 4 shows the preferred implementation of a harmonic component range converter into the time domain where, as an alternative, a planar wave processor and beamforming 602 are illustrated as an alternative to an inverse space transform implementation 604.
  • the outputs of both blocks 602, 604 may alternatively are fed to a block 606 for generating impulse responses.
  • Inverse space transformation 604 is configured to undo the Hin transformation in block 504.
  • the planar wave decomposition and beamforming in block 606 results in a large amount of decomposition directions can be processed evenly, which is favorable for rapid processing, in particular for visualization or auralization.
  • the block 602 receives radial filter coefficients and, depending on the implementation, additional beamforming or beamforming coefficients.
  • Alternative inputs to block 602 may be modal radial filters, and in particular spherical arrays or different configurations, such as an omnidirectional open-sphere microphone, an open sphere with cardioid microphones, and a rigid sphere with omnidirectional microphones.
  • the impulse response generation block 606 generates impulse responses or time domain signals from either block 602 or block 604. This block recombines in particular the previously omitted negative portions of the spectrum, performs a fast inverse Fourier transform and allows for resampling the original sample rate if the input signal was down-sampled at one location. Furthermore, a window option can be used.
  • the block 606 may further be configured to output the complete set of decompressed impulse responses, such as the lossy impulse responses, in which case the block 608 would again output, for example, 350 impulse responses.
  • it is preferred to output only the impulse responses ultimately required for rendering which may be accomplished by a block 608 that provides selection or interpolation for a particular rendering scenario. For example, if stereo reproduction is desired, as shown in block 616, depending on the placement of the two stereo speakers, the impulse response selected from the 350, for example, recovered impulse responses will be selected, corresponding to the spatial direction of the corresponding stereo speaker. With this impulse response, a prefilter of the corresponding loudspeaker is then set, such that the prefilter has a filter characteristic which corresponds to this impulse response. Then, an audio signal to be reproduced is fed to the two speakers via the corresponding pre-filters and reproduced to finally produce the desired spatial impression for a stereo auralization.
  • the two or three nearest impulse impulses are used and interpolation is performed.
  • the reflections of a source in wave field synthesis playback 612 are represented by four impulse responses at certain positions for the early reflections and eight impulse responses at certain positions for the late reflections.
  • Selection block 608 then selected the 12 impulse responses for the 12 virtual positions. Subsequently, these impulse responses are fed along with the associated positions in a wavefield synthesis renderer, which may be located at block 612, and the wavefield synthesis renderer then uses these impulse responses to compute the loudspeaker signals for the speakers actually present to make them then map the corresponding virtual sources. This calculates a separate pre-filter for each loudspeaker in the Wave Field Synthesis Playback System, which is then used to filter an audio signal to be ultimately reproduced before it is output from the loudspeaker to achieve adequate high quality spatial effects.
  • An alternative implementation of the present invention is a generation of a headphone signal, ie in a binaural application, in which the spatial impression of the area is to be generated via the headphone reproduction.
  • any other sound field data for example sound field data by magnitude and vector, ie with regard to eg sound pressure and sound velocity at certain positions in space, may also be used. Also, these sound field data may become more important and less important in terms of human directional perception divided and converted into harmonic components.
  • the sound field data may also include any type of impulse responses, such as Head-Related Transfer Functions (HRTF) functions or Binaural Room Impulse Responses (BRIR) functions or impulse responses, each from a discrete point to a predetermined position in the area.
  • HRTF Head-Related Transfer Functions
  • BRIR Binaural Room Impulse Responses
  • a space is scanned with a ball array.
  • the sound field is a set of impulse responses.
  • the sound field is split into its early and late parts.
  • both parts are decomposed into their spherical or cylindrical harmonic components. Since the relative direction information is present in the early sound field, a higher order of the spherical harmonic is calculated here than in the late sound field, which is sufficient for a low order.
  • the early part is relatively short, for example 100 ms, and is represented accurately, that is, with many harmonic components, while the late part is, for example, 100 ms to 2 s or 10 s long. However, this late part is represented with less or only a single harmonic component.
  • a further data reduction results from the splitting of the early sound field into individual bands before the representation as spherical harmonics.
  • the early sound field is decomposed into its spectral components by means of a filter bank.
  • a data reduction is achieved which significantly accelerates the calculation of the harmonic components.
  • a sufficiently early order is used as a function of human directional perception.
  • aspects have been described in the context of a device, it will be understood that these aspects also constitute a description of the corresponding method such that a block or device of a device is also to be understood as a corresponding method step or feature of a method step is. Similarly, aspects described in connection with or as a method step also represent a description of a corresponding block or detail or feature of a corresponding device.
  • Some or all of the method steps may be performed by a hardware device (or using a hardware device). Apparatus), such as a microprocessor, a programmable computer or an electronic circuit. In some embodiments, some or more of the most important method steps may be performed by such an apparatus.
  • embodiments of the invention may be implemented in hardware or in software.
  • the implementation may be performed using a digital storage medium, such as a floppy disk, a DVD, a Blu-ray Disc, a CD, a ROM, a PROM, an EPROM, an EEPROM or FLASH memory, a hard disk, or other magnetic disk or optical memory are stored on the electronically readable control signals that can cooperate with a programmable computer system or cooperate such that the respective method is performed. Therefore, the digital storage medium can be computer readable.
  • some embodiments according to the invention include a data carrier having electronically readable control signals capable of interacting with a programmable computer system such that one of the methods described herein is performed.
  • embodiments of the present invention may be implemented as a computer program product having a program code, wherein the program code is operable to perform one of the methods when the computer program product runs on a computer.
  • the program code can also be stored, for example, on a machine-readable carrier.
  • inventions include the computer program for performing any of the methods described herein, wherein the computer program is stored on a machine-readable medium.
  • an embodiment of the method according to the invention is thus a computer program which has a program code for performing one of the methods described herein when the computer program runs on a computer.
  • a further embodiment of the inventive method is thus a data carrier (or a digital storage medium or a computer-readable medium) on which the computer program is recorded for carrying out one of the methods described herein.
  • a further embodiment of the method according to the invention is thus a data stream or a sequence of signals, which represent the computer program for performing one of the methods described herein.
  • the data stream or the sequence of signals may be configured, for example, to be transferred via a data communication connection, for example via the Internet.
  • Another embodiment includes a processing device, such as a computer or a programmable logic device, that is configured or adapted to perform one of the methods described herein.
  • a processing device such as a computer or a programmable logic device, that is configured or adapted to perform one of the methods described herein.
  • Another embodiment includes a computer on which the computer program is installed to perform one of the methods described herein.
  • Another embodiment according to the invention comprises a device or system adapted to transmit a computer program for performing at least one of the methods described herein to a receiver.
  • the transmission can be done for example electronically or optically.
  • the receiver may be, for example, a computer, a mobile device, a storage device or a similar device.
  • the device or system may include a file server for transmitting the computer program to the recipient.
  • a programmable logic device eg, a field programmable gate array, an FPGA
  • a field programmable gate array may include a Microprocessor cooperate to perform any of the methods described herein.
  • the methods are performed by any hardware device. This may be a universal hardware such as a computer processor (CPU) or hardware specific to the process, such as an ASIC.

Description

Die vorliegende Erfindung bezieht sich auf die Audiotechnik und insbesondere auf die Komprimierung von räumlichen Schallfelddaten.The present invention relates to audio technology, and more particularly to the compression of spatial sound field data.

Die akustische Beschreibung von Räumen ist von hohem Interesse zur Ansteuerung von Wiedergabeanordnungen in Form z.B. eines Kopfhörers, einer Lautsprecheranordnung mit z.B. zwei bis zu einer mittleren Anzahl von Lautsprechern, wie beispielsweise 10 Lautsprechern oder auch für Lautsprecheranordnungen mit einer großen Anzahl von Lautsprechern, wie sie bei der Wellenfeldsynthese (WFS) zum Einsatz kommen.The acoustic description of rooms is of great interest for the control of display devices in the form of e.g. a headphone, a speaker assembly with e.g. two to a mean number of loudspeakers, such as 10 loudspeakers or loudspeaker arrangements with a large number of loudspeakers, as used in Wave Field Synthesis (WFS).

Für die räumliche Audiocodierung allgemein existieren verschiedene Ansätze. Ein Ansatz besteht z.B. darin, verschiedene Kanäle für verschiedene Lautsprecher an vordefinierten Lautsprecherpositionen zu erzeugen, wie es beispielsweise bei MPEG-Surround der Fall ist. Dadurch erhält ein Hörer, der in dem Wiedergaberaum an einer bestimmten und optimalerweise der mittleren Position angeordnet ist, ein Raumgefühl für das wiedergegebene Schallfeld.There are various approaches to spatial audio coding in general. One approach is e.g. in creating different channels for different speakers at predefined speaker positions, as is the case with MPEG surround, for example. As a result, a listener located in the reproduction room at a certain and, ideally, the middle position, obtains a sense of space for the reproduced sound field.

Eine alternative Raumbeschreibung besteht darin, einen Raum durch seine Impulsantwort zu beschreiben. Wird beispielsweise eine Schallquelle irgendwo in einem Raum oder Gebiet positioniert, so kann dieser Raum bzw. dieses Gebiet mit einem Kreisarray von Mikrofonen im Falle eines zweidimensionalen Gebiets oder mit einem Kugel-Mikrofon-Array im Falle eines dreidimensionalen Gebiets ausgemessen werden. Wenn beispielsweise ein Kugel-Mikrofon-Array mit einer hohen Anzahl von Mikrofonen betrachtet wird, wie beispielsweise 350 Mikrofonen, so wird eine Vermessung des Raumes folgendermaßen vonstatten gehen. An einer bestimmten Position innerhalb oder außerhalb des Mikrofon-Arrays wird ein Impuls erzeugt. Daraufhin wird von jedem Mikrofon die Antwort auf diesen Impuls, also die Impulsantwort gemessen. Abhängig davon, wie stark die Nachhalleigenschaften sind, wird dann eine längere oder kürzere Impulsantwort gemessen. So haben - bezüglich der Größenordnung - Messungen in großen Kirchen beispielsweise ergeben, dass Impulsantworten über 10 s dauern können.An alternative spatial description is to describe a space through its impulse response. For example, if a sound source is positioned anywhere in a room or area, that space or area may be measured with a circular array of microphones in the case of a two-dimensional area or with a ball-microphone array in the case of a three-dimensional area. For example, if a ball-microphone array with a high number of microphones is considered, such as 350 microphones, then a survey of the room will proceed as follows. At a certain position inside or outside the microphone array, a pulse is generated. Then the response to this pulse, ie the impulse response, is measured by each microphone. Depending on how strong the reverb characteristics are, a longer or shorter impulse response is then measured. For example, in large scale measurements in large churches have shown that impulse responses can last over 10 s.

Ein solcher Satz von z.B. 350 Impulsantworten beschreibt damit die Schallcharakteristik dieses Raumes für die spezielle Position einer Schallquelle, an der der Impuls erzeugt worden ist. Mit anderen Worten ausgedrückt stellt dieser Satz von Impulsantworten Schallfelddaten des Gebiets dar, und zwar für genau den einen Fall, bei dem eine Quelle an der Position positioniert ist, an der der Impuls erzeugt worden ist. Um den Raum weiter zu vermessen, also um die Schalleigenschaften des Raumes zu erfassen, wenn eine Quelle an einem anderen Raum positioniert wird, muss die dargestellte Prozedur für jede weitere Position z.B. außerhalb des Arrays (aber auch innerhalb des Arrays) wiederholt werden. Würde man daher z.B. einen Konzertsaal schallfeldmäßig erfassen, wenn z.B. ein Musiker-Quartett spielt, bei dem die einzelnen Musiker an vier verschiedenen Positionen angeordnet sind, so werden bei dem genannten Beispiel für jede der vier Positionen 350 Impulsantworten gemessen, und diese 4 x 350 = 1400 Impulsantworten stellen dann die Schallfelddaten des Gebiets dar.Such a set of e.g. 350 impulse responses describe the sound characteristics of this room for the specific position of a sound source where the impulse was generated. In other words, this set of impulse responses represents sound field data of the area for exactly the one case where a source is positioned at the position where the impulse was generated. In order to further measure the space, so as to detect the sound properties of the room when a source is positioned at another room, the illustrated procedure must be repeated for each additional position e.g. be repeated outside the array (but also inside the array). Therefore, if, for example, one were to record a concert hall by sound field, if e.g. playing a musician quartet in which the individual musicians are arranged in four different positions, so 350 impulse responses are measured for each of the four positions in the example mentioned, and these 4 x 350 = 1400 impulse responses then represent the sound field data of the area.

Da die zeitliche Länge der Impulsantworten durchaus beträchtliche Werte annehmen kann, und da womöglich noch eine detailliertere Darstellung der Schalleigenschaften des Raumes im Hinblick auf nicht nur vier sondern noch mehr Positionen gewünscht sein kann, ergibt sich eine riesige Menge an Impulsantwort-Daten, insbesondere wenn berücksichtigt wird, dass die Impulsantworten durchaus Längen über 10 s annehmen können.Since the temporal length of the impulse responses can be quite considerable, and since a more detailed representation of the sound properties of the room may be desired in terms of not only four but more positions, there is a huge amount of impulse response data, especially when considered is that the impulse responses can well take lengths over 10 s.

Ansätze für räumliches Audiocoding ist z.B. spatial audio coding (SAC) [1] bzw. spatial audio object coding (SAOC) [2], die eine Bitraten-effiziente Kodierung von Mehrkanal-Audiosignalen bzw. objektbasierten räumlichen Audioszenen ermöglichen. Das spatial impulse resonse rendering (SIRR) [3] und die Weiterentwicklung directional audio coding (DirAc) [4] sind parametrische Kodierverfahren und basieren auf einer zeitabhängigen Schalleinfallsrichtungsschätzung (direction of arrival - DOA), sowie einer Schätzung der Diffusität innerhalb von Frequenzbändern. Hier wird eine Trennung zwischen nichtdiffusem und diffusem Schallfeld vorgenommen. In [5] wird die verlustfreie Kompression von Kugelmikrofonarraydaten und die Kodierung von Higher-Order-Ambisonics-Signalen behandelt. Die Kompression wird durch Ausnutzen redundanter Daten zwischen den Kanälen (interchannel redundancy) erreicht.Approaches for spatial audio coding is e.g. spatial audio coding (SAC) [1] or spatial audio object coding (SAOC) [2], which enable a bit rate-efficient coding of multi-channel audio signals or object-based spatial audio scenes. Spatial impulse response rendering (SIRR) [3] and directional audio coding (DirAc) [4] are parametric coding techniques based on a time-dependent direction of arrival (DOA) estimation and an estimate of the diffusivity within frequency bands. Here, a separation between non-diffuse and diffuse sound field is made. [5] deals with the lossless compression of spherical microphone array data and the coding of higher order Ambisonics signals. Compression is achieved by exploiting redundant data between the channels (interchannel redundancy).

Untersuchungen in [6] zeigen eine getrennte Betrachtung von frühem und spätem Schallfeld bei der binauralen Wiedergabe. Für dynamische Systeme, in denen Kopfbewegungen berücksichtigt werden wird die Filterlänge optimiert indem nur das frühe Schallfeld in Echtzeit gefaltet wird. Für das späte Schallfeld reicht lediglich ein Filter für alle Richtungen, ohne dabei die wahrgenommene Qualität zu reduzieren. In [7] werden kopfbezogene Übertragungsfunktionen (HRTF) auf einer Kugel im sphärischen harmonischen Bereich dargestellt. Der Einfluss verschiedener Genauigkeiten mittels unterschiedlicher Ordnungen sphärischer Harmonischer auf die Interaurale Kreuzkorrelation und die Raum-Zeit-Korrelation (spatio-temporal correlation) wird analytisch untersucht. Dies geschieht in Oktavbändern im diffusen Schallfeld.

  1. [1] Herre, J et al (2004) Spatial Audio Coding: Next-generation efficient and compatible coding of multi-channel audio AES Convention Paper 6186 presented at the 117th Convention, San Francisco, USA
  2. [2] Engdegard, J et al (2008) Spatial Audio Object Coding (SAOC) - The Upcoming MPEG Standard on Parametric Object Based Audio Coding, AES Convention Paper 7377 presented at the 125th Convention, Amsterdam, Netherlands
  3. [3] Merimaa J and Pulkki V (2003) Perceptually-based processing of directional room responses for multichannel loudspeaker reproduction, IEEE Workshop on Applications of Signal Processing to Audio and Acoustics
  4. [4] Pulkki, V (2007) Spatial Sound Reproduction with Directional Audio Coding, J. Audio Eng. Soc., Vol. 55. No.6
  5. [5] Hellerud E et al (2008) Encoding Higher Order Ambisonics with AAC AES Convention Paper 7366 presented at the 125th Convention, Amsterdam, Netherlands
  6. [6] Liindau A, Kosanke L, Weinzierl S (2010) Perceptual evaluation of physical predictors of the mixing time in binaural room impulse responses AES Convention Paper presented at the 128th Convention, London, UK
  7. [7] Avni, A and Rafaely B (2009) Interaural cross correlation and spatial correlation in a sound field represented by spherical harmonics in Ambisonics Symposium 2009, Graz, Austria
Investigations in [6] show a separate consideration of early and late sound field in binaural reproduction. For dynamic systems, where head movements are considered, the filter length is optimized by using only the early sound field in Real time is folded. For the late sound field, only one filter is sufficient for all directions without reducing the perceived quality. In [7] head-related transfer functions (HRTF) are represented on a sphere in the spherical harmonic range. The influence of different accuracies by means of different orders of spherical harmonics on the interaural cross-correlation and the spatio-temporal correlation is investigated analytically. This happens in octave bands in the diffuse sound field.
  1. [1] Herre, J et al (2004) Spatial Audio Coding: Next-generation efficient and compatible coding of multi-channel audio AES Convention Paper 6186 presented at the 117th Convention, San Francisco, USA
  2. [2] Engdegard, J et al (2008) Spatial Audio Object Coding (SAOC) - The Upcoming MPEG Standard on Parametric Object Based Audio Coding, AES Convention Paper 7377 presented at the 125th Convention, Amsterdam, Netherlands
  3. [3] Merimaa J and Pulkki V (2003). Perceptually-based processing of directional room responses for multichannel loudspeaker reproduction, IEEE Workshop on Signal Processing to Audio and Acoustics
  4. [4] Pulkki, V (2007) Spatial Sound Reproduction with Directional Audio Coding, J. Audio Eng. Soc., Vol. 55. No.6
  5. [5] Hellerud E et al (2008) Encoding Higher Order Ambisonics with AAC AES Convention Paper 7366 presented at the 125th Convention, Amsterdam, Netherlands
  6. [6] Liindau A, Kosanke L, Weinzierl S (2010) Binaural room impulse responses AES Convention Paper presented at the 128th Convention, London, UK
  7. [7] Avni, A and Rafaely B (2009) Interaural cross correlation and spatial correlation in a field of sound represented by spherical harmonics at Ambisonics Symposium 2009, Graz, Austria

Ein Enkoder-Dekoder Schema für niedrige Bitraten wird in [8] beschrieben. Der Enkoder generiert ein Komposit-Audio-Informations-Signal, das das zu reproduzierende Schallfeld beschreibt und einen Richtungsvektor oder Steering-Control-Signal. Das Spektrum wird in Subbänder zerlegt. Zur Steuerung wird in jedem Subband die dominante Richtung ausgewertet. Basierend auf der wahrgenommenen räumlichen Audioszene wird in [9] ein räumliches Audiokodier-Framework im Frequenzbereich beschrieben. Zeit-Frequenzabhängige Richtungsvektoren beschreiben die Eingangsaudioszene.

  • [10] beschreibt ein parametrisches, kanalbasiertes Audiokodierverfahren im Zeit- und Frequenzbereich. In [11] wird ein binaural-cue-coding (BCC) beschrieben, das ein oder mehr objektbasierte Cue-Codes verwendet. Diese beinhalten Richtung, Weite und Umhüllung einer auditorischen Szene. [12] bezieht sich auf die Verarbeitung von Kugelarraydaten für die Wiedergabe mittels Ambisonics. Dabei sollen die Verzerrungen des Systems durch Messfehler, wie z.B. Rauschen, equalisiert werden. In [13] wird ein kanalbasiertes Kodierverfahren beschrieben, dass sich auch auf Positionen der Lautsprecher, sowie einzelner Audio Objekte bezieht. In [14] wird ein Matrix-basiertes Kodierverfahren vorgestellt, das die Echtzeitübertragung von Higher Order Ambisonics Schallfeldern mit Ordnungen größer als 3 ermöglicht.
    In [15] wird eine Methode zur Kodierung von räumlichen Audiodaten beschrieben, das unabhängig vom Wiedergabesystem ist. Dabei wird das Eingangsmaterial in zwei Gruppen unterteilt, von denen die erste Gruppe das Audio beinhaltet, das hohe Lokalisierbarkeit benötigt, während die zweite Gruppe mit für die Lokalisation ausreichend niedrigen Ambisonics-Ordnungen beschrieben wird. In der ersten Gruppe wird das Signal in einen Satz aus Monokanälen mit Metadaten kodiert. Die Metadaten beinhalten Zeitinformationen, wann der entsprechende Kanal wiedergegeben werden soll und Richtungsinformationen zu jedem Moment. Bei der Wiedergabe werden die Audiokanäle für herkömmliche Panning-Algorithmen dekodiert, wobei das Wiedergabe-System bekannt sein muss. Das Audio in der zweiten Gruppe wird in Kanäle verschiedener Ambisonics-Ordnungen kodiert. Bei der Dekodierung werden dem Wiedergabesystem entsprechende Ambisonics-Ordnungen verwendet.
  • [8] Dolby R M (1999) Low-bit-rate spatial coding method and system, EP 1677576 A3
  • [9] Goodwin M and Jot J-M (2007) Spatial audio coding based on universal spatial cues, US 8,379,868 B2
  • [10] Seefeldt A and Vinton M (2006) Controlling spatial audio coding parameters as a function of auditory events, EP 2296142 A2
  • [11] Faller C (2005) Parametric coding of spatial audio with object-based side information, US 8340306 B2
  • [12] Kordon S, Batke J-M, Krüger A (2011) Method and apparatus for processing signals of a spherical microphone array on a rigid sphere used for generating an ambisonics representation of the sound field, EP 2592845 A1
  • [13] Corteel E and Rosenthal M (2011) Method and device for enhanced sound field reproduction of spatially encoded audio input signals, EP 2609759 A1
  • [14] Abeling S et al (2010) Method and apparatus for generating and for decoding sound field data including ambisonics sound field data of an order higher than three, EP 2451196 A1
  • [15] Arumi P and Sole A (2008) Method and apparatus for three-dimensional acoustic field encoding and optimal reconstruction, EP 2205007 A1
An encoder-decoder scheme for low bit rates is described in [8]. The encoder generates a composite audio information signal representing the sound field to be reproduced describes and a directional vector or steering control signal. The spectrum is divided into subbands. For control, the dominant direction is evaluated in each subband. Based on the perceived spatial audio scene, [9] describes a spatial audio coding framework in the frequency domain. Time-frequency dependent direction vectors describe the input audio scene.
  • [10] describes a parametric, channel-based audio coding method in the time and frequency domain. [11] describes a binaural-cue-coding (BCC) that uses one or more object-based cue codes. These include direction, width and envelopment of an auditory scene. [12] refers to the processing of sphere array data for rendering by Ambisonics. The distortion of the system should be equalized by measurement errors, such as noise. In [13] a channel-based coding method is described, which also refers to positions of the loudspeakers, as well as individual audio objects. In [14] a matrix-based coding method is presented, which allows the real-time transmission of Higher Order Ambisonics sound fields with orders greater than 3.
    [15] describes a method for encoding spatial audio that is independent of the rendering system. The input material is subdivided into two groups, the first of which contains the audio, which requires high localizability, while the second group is described with ambisonics orders that are sufficiently low for localization. In the first group, the signal is encoded into a set of mono channels with metadata. The metadata includes time information as to when the corresponding channel is to be played back and directional information at each moment. During playback, the audio channels are decoded for conventional panning algorithms, where the playback system must be known. The audio in the second group is encoded into channels of different Ambisonics orders. During decoding, the Ambiusics orders are used in the playback system.
  • [8] Dolby RM (1999) Low-bit-rate spatial coding method and system, EP 1677576 A3
  • [9] Goodwin M and Jot JM (2007) Spatial audio coding based on universal spatial cues, US 8,379,868 B2
  • [10] Seefeldt A and Vinton M (2006) Controlling spatial audio coding parameters as a function of auditory events, EP 2296142 A2
  • [11] Faller C (2005) Parametric coding of spatial audio with object-based side information US 8340306 B2
  • [12] Kordon S, Batke JM, Kruger A (2011) Method and apparatus for processing signals of a spherical microphone array on a rigid sphere used for generating an ambisonics representation of the sound field, EP 2592845 A1
  • [13] Corteel E and Rosenthal M (2011) Method and device for enhanced sound field reproduction of spatially encoded audio input signals, EP 2609759 A1
  • [14] Abeling S et al. (2010) Method and apparatus for generating and decoding sound field data including ambisonics. EP 2451196 A1
  • [15] Arumi P and Sole A (2008) Method and apparatus for three-dimensional acoustic field encoding and optimal reconstruction, EP 2205007 A1

Die Fachveröffentlichung " Development and evaluation of a mixed-order Ambisonics playback system", J. Käsbach, Technical University of Denmark, November 2010 offenbart ein Ambisonic-Playback-System mit gemischter Ordnung, in dem die Zerlegung nach sphärischen harmonischen Komponenten des dreidimensionalen Schallfelds um zusätzliche horizontale Komponenten ergänzt worden ist. Unter Berücksichtigung der Orthonormalität-Eigenschaften des sphärischen Funktionen werden die maximalen zweidimensionalen und dreidimensionalen Ordnungen für ein gegebenes Lautsprecher-Array bestimmt. Basierend auf dieser Analyse wird eine alternative Implementation gemischter Ordnung vorgeschlagen, die eine abgeschnittene Ordnung der inherenten Legendre-Funktionen erforderlich macht.The specialist publication " Development and evaluation of a mixed-order Ambisonics playback system ", J. Käsbach, Technical University of Denmark, November 2010 discloses a mixed-order ambisonic playback system in which the decomposition into spherical harmonic components of the three-dimensional sound field has been supplemented by additional horizontal components. Considering the orthonormality properties of the spherical functions, the maximum two-dimensional and three-dimensional orders are determined for a given speaker array. Based on this analysis, an alternative mixed-order implementation is proposed which requires a truncated order of inherent Legendre functions.

Die Fachveröffentlichung " A New Mixed-Order Scheme for Ambisonic Signals", Chris Travis, Ambisonics Symposium 2009, 25. Juni 2009, Graz, Seiten 1-6 bezieht sich auf Systeme gemischter Ordnung, die eine höhere Auflösung in der horizontalen Ebene als an den Polen liefern. Ein Zwei-Parameter-Schema (#H#V) schneidet die sphärische harmonische Erweiterung in einer bestimmten Art und Weise ab. Sie resultiert in Auflösungsversus-Elevations-Kurven, die in und nahe der Horizontalebene flacher sind.The specialist publication " A New Mixed-Order Scheme for Ambisonic Signals ", Chris Travis, Ambisonics Symposium 2009, June 25, 2009, Graz, pp. 1-6 refers to mixed-order systems that provide higher resolution in the horizontal plane than at the poles. A two-parameter scheme (# H # V) intersects the spherical harmonic Extension in a certain way. It results in resolution-versus-elevation curves that are flatter at and near the horizontal plane.

Die WO 2010/012478 A2 offenbart ein System zur Erzeugung von binauralen Signalen basierend auf einem Multikanalsignal, das eine Mehrzahl von Kanälen darstellt und zur Reproduktion durch eine Lautsprecherkonfiguration gedacht ist, die für jeden Kanal eine zugeordnete virtuelle Schallquellenposition aufweist.The WO 2010/012478 A2 discloses a system for generating binaural signals based on a multi-channel signal representing a plurality of channels and intended for reproduction by a speaker configuration having an associated virtual sound source position for each channel.

Die Fachveröffentlichung " Multichannel Audio Coding Based on Analysis by Synthesis", I. Elfitri, u.a., Proceedings of the IEEE, New York, Band 99, Nr. 4, 1.4.2011, Seiten 657-670 beschreibt ein Closed-Loop-Codiersystem basierend auf einem Analyse-durch-Synthese-Prinzip, das auf die MPEG-Surround-Architektur angewendet wird.The specialist publication " Multichannel Audio Coding Based on Analysis by Synthesis ", I. Elfitri, et al., Proceedings of the IEEE, New York, vol. 99, no. 4, 1.4.2011, pages 657-670 describes a closed-loop encoding system based on an analysis-by-synthesis principle applied to the MPEG surround architecture.

Die Aufgabe der vorliegenden Erfindung besteht darin, ein effizienteres Konzept zum Handhaben wie z. B. Komprimieren oder Dekomprimieren von Schallfelddaten eines Gebiets zu schaffen.The object of the present invention is to provide a more efficient concept for handling such. B. compressing or decompressing sound field data of a region.

Diese Aufgabe wird durch eine Vorrichtung zum Komprimieren von Schallfelddaten gemäß Anspruch 1, eine Vorrichtung zum Dekomprimieren von Schallfelddaten gemäß Anspruch 13, ein Verfahren zum Komprimieren von Schallfelddaten gemäß Anspruch 19, ein Verfahren zum Dekomprimieren von Schallfelddaten gemäß Anspruch 20 oder ein Computerprogramm gemäß Anspruch 21 gelöst.This object is achieved by a sound field data compression device according to claim 1, a sound field data decompression device according to claim 13, a sound field data compression method according to claim 19, a sound field data decompression method according to claim 20 or a computer program according to claim 21 ,

Eine Vorrichtung zum Komprimieren von Schallfelddaten eines Gebiets umfasst einen Aufteiler zum Aufteilen der Schallfelddaten in einen ersten Anteil und in einen zweiten Anteil sowie einen nachgeordneten Umsetzer zum Umsetzen des ersten Anteils und des zweiten Anteils in harmonische Komponenten, wobei die Umsetzung so stattfindet, dass die zweite Anzahl in eine oder mehrere harmonische Komponenten mit einer zweiten Ordnung umgesetzt wird, und dass der erste Anteil in harmonische Komponenten mit ei ner ersten Ordnung umgesetzt wird, wobei die erste Ordnung höher als die zweite Ordnung ist, um die komprimierten Schallfelddaten zu erhalten.A device for compressing sound field data of a region comprises a splitter for splitting the sound field data into a first part and a second part, and a downstream converter for converting the first part and the second part into harmonic components, wherein the conversion takes place so that the second Number is converted into one or more harmonic components with a second order, and that the first portion in harmonic components with ei first order, with the first order being higher than the second order, to obtain the compressed sound field data.

Damit wird eine Umsetzung der Schallfelddaten, wie beispielsweise der Menge an Impulsantworten in harmonische Komponenten durchgeführt, wobei bereits diese Umsetzung zu einer erheblichen Dateneinsparung führen kann. Harmonische Komponenten, wie sie beispielsweise mittels einer räumlichen Spektraltransformation erhaltbar sind, beschreiben ein Schallfeld wesentlich kompakter als Impulsantworten. Darüber hinaus ist die Ordnung der harmonischen Komponenten ohne Weiteres steuerbar. Die harmonische Komponente nullter Ordnung ist lediglich ein (ungerichtetes) Mono-Signal. Sie erlaubt noch keine Schallfeld-Richtungsbeschreibung. Dagegen erlauben die zusätzlichen harmonischen Komponenten erster Ordnung bereits eine relativ grobe Richtungsdarstellung analog zum Beamforming. Die harmonischen Komponenten zweiter Ordnung erlauben eine zusätzliche noch genauere Schallfeldbeschreibung mit noch mehr Richtungsinformation. Bei Ambisonics beispielsweise ist die Anzahl der Komponenten gleich 2n+1, wobei n die Ordnung ist. Für die nullte Ordnung gibt es somit nur eine einzige harmonische Komponente. Für eine Umsetzung bis zur ersten Ordnung gibt es bereits drei harmonische Komponenten. Für eine Umsetzung mit fünfter Ordnung beispielsweise gibt es bereits 11 harmonische Komponenten und es hat sich herausgestellt, dass beispielsweise für 350 Impulsantworten eine Ordnung gleich 14 ausreichend ist. Dies bedeutet in anderen Worten, dass 29 harmonische Komponenten den Raum genauso gut beschreiben wie 350 Impulsantworten. Bereits diese Umsetzung von einem Wert von 350 Eingangskanälen auf 29 Ausgangskanäle bringt einen Kompressionsgewinn. Darüber hinaus wird noch eine Umsetzung verschiedener Anteile der Schallfelddaten, wie beispielsweise der Impulsantworten mit verschiedenen Ordnungen durchgeführt, da herausgefunden worden ist, dass nicht alle Anteile mit der gleichen Genauigkeit/Ordnung beschrieben werden müssen.
Ein Beispiel hierfür besteht darin, dass die Richtungswahrnehmung des menschlichen Gehörs hauptsächlich von den frühen Reflexionen abgeleitet wird, während die späten/diffusen Reflexionen in einer typischen Impulsantwort zur Richtungswahrnehmung nichts oder nur sehr wenig beitragen. Bei diesem Beispiel wird somit der erste Anteil der frühe Anteil der Impulsantworten sein, der mit einer höheren Ordnung in den Harmonische-Komponenten-Bereich umgesetzt wird, während der späte diffuse Anteil mit einer geringen Ordnung und teilweise sogar mit einer Ordnung gleich null umgesetzt wird.
Thus, an implementation of the sound field data, such as the amount of impulse responses is performed in harmonic components, already this implementation can lead to significant data savings. Harmonic components, such as are obtainable by means of a spatial spectral transformation, describe a sound field much more compact than impulse responses. In addition, the order of harmonic components is readily controllable. The harmonic component of zeroth order is just a (non-directional) mono signal. It does not yet allow a sound field direction description. By contrast, the additional first order harmonic components already allow a relatively coarse directional representation analogous to beamforming. The harmonic components of second order allow an even more accurate sound field description with even more directional information. For example, in Ambisonics, the number of components is 2n + 1, where n is the order. For the zeroth order there is thus only a single harmonic component. There are already three harmonic components for implementation up to the first order. For example, for a fifth-order conversion, there are already 11 harmonic components, and it has been found that, for example, for 350 impulse responses, an order equal to 14 is sufficient. In other words, this means that 29 harmonic components describe space as well as 350 impulse responses. Already this conversion from a value of 350 input channels to 29 output channels brings a compression gain. Moreover, implementation of various portions of the sound field data, such as the impulse responses with different orders, is still performed because it has been found that not all proportions need to be described with the same accuracy / order.
An example of this is that the directional perception of the human ear is mainly derived from the early reflections, while the late / diffuse reflections in a typical impulse response to directional perception contribute little or nothing. Thus, in this example, the first portion will be the early portion of the impulse responses, which will be translated to the higher order in the harmonic component range, while the late diffused portion will be converted to a lower order and sometimes even zero order.

Ein anderes Beispiel besteht darin, dass die Richtungswahrnehmung des menschlichen Gehörs frequenzabhängig ist. Bei tiefen Frequenzen ist die Richtungswahrnehmung des menschlichen Gehörs relativ schwach. Für die Kompression von Schallfelddaten genügt es daher, den niedrigen Spektralbereich der harmonischen Komponenten mit einer relativ geringen Ordnung in den Harmonische-Komponenten-Bereich umzusetzen, während die Frequenzbereiche der Schallfelddaten, in denen die Richtungswahrnehmung des menschlichen Gehörs sehr hoch ist, mit einer hohen und vorzugsweise sogar mit der maximalen Ordnung umgesetzt werden. Hierzu werden erfindungsgemäß die Schallfelddaten mittels einer Filterbank in einzelne Subband-Schallfelddaten zerlegt und diese Subband-Schallfelddaten werden dann mit unterschiedlichen Ordnungen zerlegt, wobei wiederum der erste Anteil Subband-Schallfelddaten bei höheren Frequenzen aufweist, während der zweite Anteil Subband-Schallfelddaten bei niedrigeren Frequenzen aufweist, wobei ganz niedrige Frequenzen ebenso wiederum sogar mit einer Ordnung gleich null, also nur mit einer einzigen harmonischen Komponente dargestellt werden können.
Bei einem weiteren Beispiel werden die vorteilhaften Eigenschaften der zeitlichen und frequenzmäßigen Verarbeitung kombiniert. So kann der frühe Anteil, der ohnehin mit höherer Ordnung umgesetzt wird, in Spektralanteile zerlegt werden, für die dann wieder für die einzelnen Bänder angepasste Ordnungen erhalten werden können. Insbesondere dann, wenn für die Subbandsignale eine dezimierende Filterbank, wie beispielsweise eine QMF-Filterbank (QMF = Quadrature Mirror Filterbank) eingesetzt wird, reduziert sich der Aufwand zur Umsetzung der Subband-Schallfelddaten in den Harmonische-Komponenten-Bereich zusätzlich. Darüber hinaus liefert die Differenzierung verschiedener Anteile der Schallfelddaten im Hinblick auf die zu berechnende Ordnung eine erhebliche Reduktion des Berechnungsaufwands, zumal die Berechnung der harmonischen Komponenten, wie beispielsweise der zylindrischen harmonischen Komponenten oder der sphärischen harmonischen Komponenten stark davon abhängt, bis zu welcher Ordnung die harmonischen Komponenten ausgerechnet werden sollen. Eine Berechnung der harmonischen Komponenten bis zur zweiten Ordnung beispielsweise benötigt wesentlich weniger Rechenaufwand und damit Rechenzeit bzw. Batterieleistung insbesondere bei mobilen Geräten als eine Berechnung der harmonischen Komponenten bis zur Ordnung 14 beispielsweise.
Bei den beschriebenen Ausführungsbeispielen ist der Umsetzer somit ausgebildet, um den Anteil, also den ersten Anteil der Schallfelddaten, der für eine Richtungswahrnehmung des menschlichen Gehörs wichtiger ist, mit einer höheren Ordnung umzusetzen als den zweiten Anteil, der für die Richtungswahrnehmung einer Schallquelle weniger wichtig als der erste Anteil ist.
Another example is that the directional perception of human hearing is frequency-dependent. At low frequencies, the directional perception of the human ear is relatively weak. For the compression of sound field data, it is therefore sufficient to convert the low spectral range of the harmonic components with a relatively small order in the harmonic component range, while the frequency ranges of the sound field data in which the direction perception of the human ear is very high, with a high and preferably even be implemented with the maximum order. For this purpose, according to the invention, the sound field data is decomposed by means of a filter bank into individual subband sound field data and these subband sound field data are then decomposed with different orders, again the first portion has subband sound field data at higher frequencies, while the second portion has subband sound field data at lower frequencies , where very low frequencies can again be represented even with an order equal to zero, ie only with a single harmonic component.
In another example, the advantageous characteristics of temporal and frequency processing are combined. Thus, the early portion, which is anyway implemented with a higher order, can be decomposed into spectral components, for which then again orders adapted to the individual bands can be obtained. In particular, when a decimating filter bank, such as a QMF filter bank (QMF = Quadrature Mirror Filterbank) is used for the subband signals, the effort to convert the subband sound field data in the harmonic component area is additionally reduced. Moreover, the differentiation of different parts of the sound field data with respect to the order to be computed provides a considerable reduction of the computational effort, since the calculation of the harmonic components, such as the cylindrical harmonic components or the spherical harmonic components strongly depends on the order up to which the harmonics Components are to be calculated. A calculation of the harmonic components to the second order, for example, requires much less computational effort and thus computation time or battery performance, especially in mobile devices as a calculation of the harmonic components to order 14, for example.
In the exemplary embodiments described, the converter is thus designed to implement the component, that is to say the first component of the sound field data, which is more important for a directional perception of the human ear, with a higher order than the second part, which is less important for the directional perception of a sound source than the first part.

Die vorliegende Erfindung kann nicht nur für eine zeitliche Zerlegung der Schallfelddaten in Anteile oder für eine spektrale Zerlegung der Schallfelddaten in Anteile eingesetzt werden, sondern auch für eine alternative, z. B. räumliche Zerlegung der Anteile, wenn beispielsweise berücksichtigt wird, dass die Richtungswahrnehmung des menschlichen Gehörs für Schall in unterschiedlichen Azimuth- oder Elevations-Winkeln unterschiedlich ist. Wenn die Schallfelddaten beispielsweise als Impulsantworten oder andere Schallfeldbeschreibungen vorliegen, bei denen jeder einzelnen Beschreibung ein bestimmter Azimuth/Elevations-Winkel zugeordnet ist, so können die Schallfelddaten aus Azimuth/Elevations-Winkeln, bei denen die Richtungswahrnehmung des menschlichen Gehörs stärker ist, mit einer höheren Ordnung komprimiert werden als ein räumlicher Anteil der Schallfelddaten aus einer anderen Richtung.The present invention can be used not only for a temporal decomposition of the sound field data into shares or for a spectral decomposition of the sound field data into shares, but also for an alternative, for. B. spatial decomposition of the shares, for example, if it is considered that the direction perception of the human ear for sound in different azimuth or elevation angles is different. For example, if the sound field data is impulse responses or other sound field descriptions where each description is assigned a particular azimuth / elevation angle, the sound field data may be translated from azimuth / elevation angles, where directional perception of the human ear is stronger Order are compressed as a spatial portion of the sound field data from another direction.

Alternativ oder zusätzlich können die einzelnen Harmonischen "ausgedünnt" werden, also im Beispiel mit Ordnung 14, bei der es 29 Moden gibt. Es werden in Abhängigkeit der menschlichen Richtungswahrnehmung einzelne Moden eingespart, die das Schallfeld für unwichtige Schalleinfallsrichtungen abbilden. Im Falle von Mikrofonarraymessungen besteht hier eine Unsicherheit, weil man nicht weiss, in welche Richtung der Kopf bezogen zur Arraykugel ausgerichtet ist. Wenn man aber HRTFs mittels sphärischer Harmonischer darstellt, ist diese Unsicherheit behoben.Alternatively or additionally, the individual harmonics can be "thinned out", ie in the example with order 14, in which there are 29 modes. Depending on the human sense of direction, individual modes are saved which image the sound field for unimportant sound incidence directions. In the case of microphone array measurements, there is an uncertainty because one does not know in which direction the head is aligned with respect to the array sphere. But if you represent HRTFs by means of spherical harmonics, this uncertainty is resolved.

Weitere Zerlegungen der Schallfelddaten zusätzlich zu Zerlegungen in zeitlicher, spektraler oder räumlicher Richtung können ebenfalls verwendet werden, wie beispielsweise eine Zerlegung der Schallfelddaten in einen ersten und einen zweiten Anteil in Volumenklassen etc.Further decompositions of the sound field data in addition to decompositions in temporal, spectral or spatial direction can also be used, such as a decomposition of the sound field data into a first and a second portion in volume classes, etc.

Bei Ausführungsbeispielen geschieht die Beschreibung akustischer Problemstellungen im zylindrischen oder sphärischen Koordinatensystem, also mittels vollständiger Sätze orthonormaler Eigenfunktionen, den sogenannte zylindrischen oder sphärischen harmonischen Komponenten. Mit höherer räumlicher Genauigkeit der Beschreibung des Schallfelds steigen das Datenaufkommen und die Rechenzeit bei der Verarbeitung bzw. Manipulation der Daten. Für hochqualitative Audioanwendungen sind hohe Genauigkeiten erforderlich, was zu den Problemen der langen Berechnungszeiten, die insbesondere nachteilig für Echtzeitsysteme sind, der großen Datenmengen, was die Übertragung räumlicher Schallfelddaten erschwert, und des hohen Energieverbrauchs durch intensiven Rechenaufwand insbesondere bei mobilen Geräten führt.In embodiments, the description of acoustic problems occurs in the cylindrical or spherical coordinate system, ie by means of complete sets of orthonormal eigenfunctions, the so-called cylindrical or spherical harmonic components. With higher spatial accuracy of the description of the sound field increase the amount of data and the computing time in the processing or manipulation of the data. For high-quality audio applications, high accuracies are required, which adds to the problems of long computation times, which are particularly detrimental to real-time systems, of large data volumes, which makes transmission more spatial Sound field data difficult, and high energy consumption by intensive computational effort, especially in mobile devices leads.

Alle diese Nachteile werden durch Ausführungsbeispiele der Erfindung dahin gehend gelindert bzw. eliminiert, weil aufgrund der Differenzierung der Ordnungen zur Berechnung der harmonischen Komponenten die Berechnungszeiten reduziert werden, und zwar im Vergleich zu einem Fall, bei dem sämtliche Anteile mit der höchsten Ordnung in harmonische Komponenten umgesetzt werden. Die großen Datenmengen werden dahin gehend erfindungsgemäß reduziert, dass die Darstellung durch harmonische Komponenten insbesondere bereits kompakter ist und dass zusätzlich noch unterschiedliche Anteile mit unterschiedlichen Ordnungen dargestellt werden, wobei die Datenmengenreduktion dadurch erreicht wird, dass eine niedrige Ordnung, wie beispielsweise die erste Ordnung nur drei harmonische Komponenten hat, während die höchste Ordnung beispielsweise 29 harmonische Komponenten hat, und zwar am Beispiel einer Ordnung von 14.All of these disadvantages are alleviated or eliminated by embodiments of the invention because, due to the differentiation of the orders for calculating the harmonic components, the calculation times are reduced compared to a case in which all the highest order components are harmonic components be implemented. The large amounts of data are reduced according to the invention in such a way that the representation by harmonic components is already more compact and that additionally different proportions are represented with different orders, wherein the data volume reduction is achieved in that a low order, such as the first order only three has harmonic components, while the highest order has, for example, 29 harmonic components, using the example of an order of 14.

Die reduzierte Rechenleistung und das reduzierte Speicheraufkommen verringern automatisch den Energieverbrauch, der insbesondere für einen Einsatz von Schallfelddaten in mobilen Geräten anfällt.The reduced computing power and the reduced storage volume automatically reduce the energy consumption, which is particularly incurred when using sound field data in mobile devices.

Bei Ausführungsbeispielen wird die räumliche Schallfeldbeschreibung im zylindrischen bzw. sphärischen harmonischen Bereich basierend auf der räumlichen Wahrnehmung des Menschen optimiert. Insbesondere eine Kombination aus zeit- und frequenzabhängiger Berechnung der Ordnung sphärischer Harmonischer in Abhängigkeit der räumlichen Wahrnehmung des menschlichen Gehörs führt zu einer erheblichen Aufwandsreduktion ohne die subjektive Qualität der Schallfeldwahrnehmung zu reduzieren. Selbstverständlich wird die objektive Qualität reduziert, da die vorliegende Erfindung eine verlustbehaftete Kompression darstellt. Diese verlustbehaftete Kompression ist jedoch unkritisch, zumal der letztendliche Empfänger das menschliche Gehör ist, und zumal es daher sogar für eine transparente Wiedergabe unerheblich ist, ob Schallfeldkomponenten, die vom menschlichen Gehör ohnehin nicht wahrgenommen werden, im wiedergegebenen Schallfeld vorhanden sind oder nicht.In embodiments, the spatial sound field description is optimized in the cylindrical or spherical harmonic region based on the spatial perception of humans. In particular, a combination of time- and frequency-dependent calculation of the order of spherical harmonics as a function of the spatial perception of human hearing leads to a considerable effort reduction without reducing the subjective quality of sound field perception. Of course, the objective quality is reduced since the present invention represents lossy compression. However, this lossy compression is not critical, especially since the ultimate receiver is the human ear, and therefore it is irrelevant even for transparent reproduction, whether or not sound field components, which are not perceived by the human ear anyway, are present in the reproduced sound field.

In anderen Worten stellt daher bei der Wiedergabe/Auralisation entweder binaural, also mit Kopfhörern oder mit Lautsprechersystemen mit wenigen (z.B. Stereo) oder vielen Lautsprechern (z.B. WFS) das menschlichen Gehör das wichtigste Qualitätsmaß dar. Erfindungsgemäß wird die Genauigkeit der harmonischen Komponenten wie beispielsweise der zylindrischen oder sphärischen Harmonischen im Zeitbereich und/oder im Frequenzbereich und/oder in weiteren Bereichen gehörangepasst reduziert. Dadurch wird die Daten- und Rechenzeitreduktion erreicht.In other words, therefore, in the reproduction / auralization either binaurally, ie with headphones or with loudspeaker systems with few (eg stereo) or many speakers (eg WFS) human hearing is the most important quality measure. According to the accuracy of harmonic components such as the cylindrical or spherical harmonic in the time domain and / or in the frequency range and / or in other areas gehörangepasst reduced. This achieves the data and computing time reduction.

Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen detailliert erläutert. Es zeigen:

Fig. 1a
ein Blockdiagramm einer Vorrichtung zum Komprimieren von Schallfelddaten gemäß einem Ausführungsbeispiel;
Fig. 1b
ein Blockdiagramm einer Vorrichtung zum Dekomprimieren von komprimierten Schallfelddaten eines Gebiets;
Fig. 1c
ein Blockdiagramm einer Vorrichtung zum Komprimieren mit zeitlicher Zerlegung;
Fig. 1d
ein Blockdiagramm eines Ausführungsbeispiels einer Vorrichtung zum Dekomprimieren für den Fall einer zeitlichen Zerlegung;
Fig. 1e
eine zu Fig. 1d alternative Vorrichtung zum Dekomprimieren;
Fig. 1f
ein Beispiel für die Anwendung der Erfindung mit zeitlicher und spektraler Zerlegung am Beispiel von 350 gemessenen Impulsantworten als Schallfelddaten;
Fig. 2a
ein Blockdiagramm einer Vorrichtung zum Komprimieren mit spektraler Zerlegung;
Fig. 2b
ein Beispiel einer unterabgetasteten Filterbank und einer anschließenden Umsetzung der unterabgetasteten Subband-Schallfelddaten;
Fig. 2c
eine Vorrichtung zum Dekomprimieren für das in Fig. 2a gezeigte Beispiel der spektralen Zerlegung;
Fig. 2d
eine alternative Implementierung des Dekomprimierers für die spektrale Zerlegung;
Fig. 3a
ein Übersichts-Blockdiagramm mit einem speziellen Analyse/SyntheseCodierer gemäß einem weiteren Ausführungsbeispiel der vorliegenden Erfindung;
Fig. 3b
eine detailliertere Darstellung eines Ausführungsbeispiels mit zeitlicher und spektraler Zerlegung;
Fig. 4
eine schematische Darstellung einer Impulsantwort;
Fig. 5
ein Blockschaltbild eines Umsetzers vom Zeit- oder Spektralbereich in den Harmonischen-Komponenten-Bereich mit variabler Ordnung; und
Fig. 6
eine Darstellung eines beispielhaften Umsetzers vom HarmonischenKomponenten-Bereich in den Zeitbereich oder Spektralbereich mit anschließender Auralisation.
Preferred embodiments of the present invention will be explained below in detail with reference to the accompanying drawings. Show it:
Fig. 1a
a block diagram of a device for compressing sound field data according to an embodiment;
Fig. 1b
a block diagram of an apparatus for decompressing compressed sound field data of a region;
Fig. 1c
a block diagram of a device for compression with temporal decomposition;
Fig. 1d
a block diagram of an embodiment of a device for decompressing in the case of a temporal decomposition;
Fig. 1e
one too Fig. 1d alternative device for decompressing;
Fig. 1f
an example of the application of the invention with temporal and spectral decomposition on the example of 350 measured impulse responses as sound field data;
Fig. 2a
a block diagram of a device for compressing with spectral decomposition;
Fig. 2b
an example of a sub-sampled filter bank and a subsequent conversion of the subsampled subband sound field data;
Fig. 2c
a device for decompressing the in Fig. 2a shown example of the spectral decomposition;
Fig. 2d
an alternative implementation of the decompressor for spectral decomposition;
Fig. 3a
an overview block diagram with a special analysis / synthesis encoder according to another embodiment of the present invention;
Fig. 3b
a more detailed representation of an embodiment with temporal and spectral decomposition;
Fig. 4
a schematic representation of an impulse response;
Fig. 5
a block diagram of a converter from the time or spectral range in the harmonic component variable-order area; and
Fig. 6
a representation of an exemplary converter from the harmonic component area in the time domain or spectral range with subsequent auralization.

Fig. 1a zeigt ein Blockschaltbild einer Vorrichtung bzw. eines Verfahrens zum Komprimieren von Schallfelddaten eines Gebiet, wie sie an einem Eingang 10 in einen Aufteiler 100 eingegeben werden. Der Aufteiler 100 ist ausgebildet, um die Schallfelddaten in einen ersten Anteil 101 und eine zweiten Anteil 102 aufzuteilen. Darüber hinaus ist ein Umsetzer vorgesehen, der die zwei Funktionalitäten aufweist, die mit 140 oder 180 bezeichnet sind. Insbesondere ist der Umsetzer ausgebildet, um den ersten Anteil 101 umzusetzen, wie es bei 140 gezeigt ist, und um den zweiten Anteil 102 umzusetzen, wie es bei 180 gezeigt ist. Der Umsetzer setzt insbesondere den ersten Anteil 101 in eine oder mehrere harmonische Komponenten 141 mit einer ersten Ordnung um, während der Umsetzer 180 den zweiten Anteil 102 in eine oder mehrere harmonische Komponenten 182 mit einer zweiten Ordnung umsetzt. Insbesondere ist die erste Ordnung, also die den harmonischen Komponenten 141 zugrunde liegende Ordnung höher als die zweite Ordnung, was, in anderen Worten ausgedrückt bedeutet, dass der Umsetzer 140 mit höherer Ordnung mehr harmonische Komponenten 141 ausgibt als der Umsetzer 180 mit niedrigerer Ordnung. Die Ordnung n1, durch die der Umsetzer 140 angesteuert wird, ist somit größer als die Ordnung n2, mit der der Umsetzer 180 angesteuert wird. Die Umsetzer 140, 180 können steuerbare Umsetzer sein. Alternativ kann die Ordnung jedoch festgelegt sein und damit fest einprogrammiert sein, so dass die Eingänge, die mit n1 und n2 bezeichnet sind, in diesem Ausführungsbeispiel nicht vorhanden sind. Fig. 1a FIG. 12 shows a block diagram of a device or method for compressing sound field data of a region as input at an input 10 into a splitter 100. The splitter 100 is designed to divide the sound field data into a first portion 101 and a second portion 102. In addition, a converter is provided which has the two functionalities designated 140 or 180. In particular, the converter is configured to convert the first portion 101, as shown at 140, and to convert the second portion 102, as shown at 180. In particular, the converter converts the first portion 101 into one or more harmonic components 141 having a first order, while the converter 180 converts the second portion 102 into one or more harmonic components 182 having a second order. In particular, the first order, that is, the order underlying the harmonic components 141 is higher than the second order, which means, in other words, that the higher order converter 140 outputs more harmonic components 141 than the lower order converter 180. The order n 1 , by which the converter 140 is driven, is thus greater than the order n 2 , with which the converter 180 is driven. The converters 140, 180 may be controllable converters. Alternatively, however, the order may be fixed and thus permanently programmed so that the inputs designated n 1 and n 2 are not present in this embodiment.

Fig. 1b zeigt eine Vorrichtung zum Dekomprimieren von komprimierten Schallfelddaten 20, die erste harmonische Komponenten mit einer ersten Ordnung und eine oder mehrere zweite harmonische Komponenten mit einer zweiten Ordnung aufweisen, wie sie z.B. von Fig. 1a bei 141, 182 ausgegeben werden. Die dekomprimierten Schallfelddaten müssen jedoch nicht unbedingt die harmonischen Komponenten 141, 142 im "Rohformat" sein. Stattdessen könnte in Fig. 1a noch ein verlustloser Entropie-Codierer, wie beispielsweise ein Huffman-Codierer oder ein arithmetischer Codierer vorgesehen sein, um die Anzahl von Bits, die letztendlich zur Darstellung der harmonischen Komponenten benötigt werden, weiter zu reduzieren. Dann würde der Datenstrom 20, der in eine Eingangs-Schnittstelle 200 eingespeist wird, aus Entropie-codierten harmonischen Komponenten und gegebenenfalls Seiteninformationen bestehen, wie es noch anhand von Fig. 3a dargestellt wird. In diesem Fall wäre am Ausgang der Eingangs-Schnittstelle 200 ein jeweiliger Entropie-Decodierer vorgesehen, der an den Entropie-Encodierer auf Encodierer-Seite, also bezüglich Fig. 1a angepasst ist. So stellen somit die ersten harmonischen Komponenten der ersten Ordnung 201 und die zweiten harmonischen Komponenten der zweiten Ordnung 202, wie sie in Fig. 1b dargestellt sind, gegebenenfalls noch Entropiecodierte oder aber bereits Entropie-decodierte oder tatsächlich die harmonischen Komponenten in "Rohform", wie sie bei 141, 182 in Fig. 1a vorliegen, dar. Fig. 1b shows an apparatus for decompressing compressed sound field data 20 having first harmonic components of a first order and one or more second harmonic components of a second order, such as those of FIG Fig. 1a be issued at 141, 182. However, the decompressed sound field data need not necessarily be the harmonic components 141, 142 in "raw format". Instead, could be in Fig. 1a a lossless entropy coder, such as a Huffman coder or an arithmetic coder, to further reduce the number of bits ultimately needed to represent the harmonic components. Then, the data stream 20 fed to an input interface 200 would consist of entropy-coded harmonic components and, if necessary, page information, as described with reference to FIGS Fig. 3a is pictured. In this case, a respective entropy decoder would be provided at the output of the input interface 200, which is connected to the entropy encoder on the encoder side, ie Fig. 1a is adjusted. Thus, the first harmonic components of the first order 201 and the second harmonic components of the second order 202, as shown in FIG Fig. 1b optionally entropy-coded or else entropy-decoded or indeed the harmonic components in "raw" form, as indicated at 141, 182 in Fig. 1a present,

Beide Gruppen von harmonischen Komponenten werden in einen Decodierer bzw. Umsetzer/Kombinierer 240 eingespeist. Der Block 240 ist ausgebildet, um die komprimierten Schallfelddaten 201, 202 unter Verwendung einer Kombination des ersten Anteils und des zweiten Anteils und unter Verwendung einer Umsetzung von einer Harmonische-Komponenten-Darstellung in eine Zeitbereichsdarstellung zu dekomprimieren, um schließlich die dekomprimierte Darstellung des Schallfelds zu erhalten, wie es bei 240 dargestellt ist. Der Decodierer 240, der beispielsweise als Signalprozessor ausgebildet sein kann, ist somit ausgebildet, um zum einen eine Umsetzung in den Zeitbereich vom Sphärische-Harmonische-Komponentenbereich durchzuführen, und um zum anderen eine Kombination durchzuführen. Die Reihenfolge zwischen Umsetzung und Kombination kann jedoch unterschiedlich sein, wie es im Hinblick auf Fig. 1d, Fig. 1e oder Fig. 2c, 2d für verschiedene Beispiele dargestellt wird.Both groups of harmonic components are fed to a decoder / combiner 240. The block 240 is configured to decompress the compressed sound field data 201, 202 using a combination of the first portion and the second portion and using a translation from a harmonic component representation into a time domain representation, and finally to provide the decompressed representation of the sound field as shown at 240. The decoder 240, which may be formed, for example, as a signal processor, is thus designed, on the one hand, to implement a conversion into the time domain from the spherical-harmonic component region and, on the other hand, to perform a combination. However, the order between implementation and combination may be different as regards Fig. 1d, Fig. 1e or Fig. 2c, 2d for different examples.

Fig. 1c zeigt eine Vorrichtung zum Komprimieren von Schallfelddaten eines Gebiets gemäß einem Ausführungsbeispiel, bei dem der Aufteiler 100 als zeitlicher Aufteiler 100a ausgebildet ist. Insbesondere ist der zeitliche Aufteiler 100a, der eine Implementierung des Aufteilers 100 von Fig. 1a ist, ausgebildet, um die Schallfelddaten in einen ersten Anteil, der erste Reflexionen in dem Gebiet umfasst, und in einen zweiten Anteil, der zweite Reflexionen in dem Gebiet umfasst, aufzuteilen, wobei die zweiten Reflexionen zeitlich später als die ersten Reflexionen auftreten. Anhand von Fig. 4 stellt der erste Anteil 101, der vom Block 100a ausgegeben wird, somit den Impulsantwort-Abschnitt 310 von Fig. 4 dar, während der zweite späte Anteil den Abschnitt 320 der Impulsantwort von Fig. 4 darstellt. Der Zeitpunkt der Aufteilung kann beispielsweise bei 100 ms liegen. Allerdings existieren auch andere Möglichkeiten der zeitlichen Aufteilung, wie beispielsweise früher oder später. Vorzugsweise wird die Aufteilung dort gelegt, wo die diskreten Reflexionen in diffuse Reflexionen übergehen. Dies kann je nach Raum ein unterschiedlicher Zeitpunkt sein, und es existieren Konzepte, um hier eine beste Aufteilung zu schaffen. Andererseits kann die Aufteilung in einen frühen und in einen späten Anteil auch abhängig von einer verfügbaren Datenrate durchgeführt werden, dahin gehend, dass die Aufteilungszeit immer kleiner gemacht wird, je weniger Bitrate vorhanden ist. Dies ist im Hinblick auf die Bitrate günstig, weil dann ein möglichst großer Anteil der Impulsantwort mit einer niedrigen Ordnung in den Harmonische-Komponenten-Bereich umgesetzt wird. Fig. 1c shows an apparatus for compressing sound field data of a region according to an embodiment, in which the splitter 100 is formed as a time divider 100a. In particular, the scheduler 100a is one implementation of the divider 100 of Fig. 1a is configured to divide the sound field data into a first portion comprising first reflections in the area and a second portion comprising second reflections in the area, the second reflections occurring later in time than the first reflections. Based on Fig. 4 Thus, the first portion 101 output from the block 100a represents the impulse response portion 310 of FIG Fig. 4 while the second late portion represents the impulse response portion 320 of FIG Fig. 4 represents. The timing of the division may be, for example, 100 ms. However, other possibilities of temporal distribution exist, such as earlier or later. Preferably, the division is made where the discrete reflections change to diffuse reflections. This can be a different time, depending on the room, and concepts exist to create the best layout here. On the other hand, the division into an early and a late portion can also be carried out depending on an available data rate, in such a way that the distribution time is made smaller and smaller the less bit rate there is. This is favorable in terms of the bit rate, because then as large a proportion of the impulse response with a low order is converted into the harmonic component range.

Der Umsetzer, der durch die Blöcke 140 und 180 in Fig. 1c dargestellt ist, ist somit ausgebildet, um den ersten Anteil 101 und den zweiten Anteil 102 in harmonische Komponenten umzusetzen, wobei der Umsetzer insbesondere den zweiten Anteil in eine oder mehrer harmonische Komponenten 182 mit einer zweiten Ordnung umsetzt und den ersten Anteil 101 in harmonische Komponenten 141 mit einer ersten Ordnung umsetzt, wobei die erste Ordnung höher als die zweite Ordnung ist, um schließlich das komprimierte Schallfeld zu erhalten, das von einer Ausgabeschnittstelle 190 schließlich zu Zwecken der Übertragung und/oder Speicherung ausgebbar ist.The converter, defined by blocks 140 and 180 in FIG Fig. 1c is thus configured to convert the first portion 101 and the second portion 102 into harmonic components, the converter in particular converting the second portion into one or more harmonic components 182 having a second order and the first portion 101 into harmonic components 141 with a first order, the first order being higher than the second order, to finally obtain the compressed sound field which is finally outputable from an output interface 190 for transmission and / or storage purposes.

Fig. 1d zeigt eine Implementierung des Dekomprimierers für das Beispiel der zeitlichen Aufteilung. Insbesondere ist der Dekomprimierer ausgebildet, um die komprimierten Schallfelddaten unter Verwendung einer Kombination des ersten Anteils 201 mit den ersten Reflexionen und des zweiten Anteils 202 mit den späten Reflexionen und einer Umsetzung von dem Harmonische-Komponenten-Bereich in den Zeitbereich durchzuführen. Fig. 1d zeigt eine Implementierung, bei der die Kombination nach der Umsetzung stattfindet. Fig. 1e zeigt eine alternative Implementierung, bei der die Kombination vor der Umsetzung stattfindet. Insbesondere ist der Umsetzer 241 ausgebildet, um harmonische Komponenten mit der hohen Ordnung in den Zeitbereich umzusetzen, während der Umsetzer 242 ausgebildet ist, um die harmonischen Komponenten mit der niedrigen Ordnung in den Zeitbereich umzusetzen. Im Hinblick auf Fig. 4 liefert somit der Ausgang des Umsetzers 241 etwas, das dem Bereich 210 entspricht, während der Umsetzer 242 etwas liefert, das dem Bereich 320 entspricht, wobei jedoch aufgrund der verlustbehafteten Kompression die Abschnitte am Ausgang der Brücke 241, 242 nicht identisch zu den Abschnitten 310, 320 sind. Insbesondere wird jedoch eine zumindest wahrnehmungsmäßige Ähnlichkeit oder Identität des Abschnitts am Ausgang des Blocks 241 zu dem Abschnitt 310 von Fig. 4 bestehen, während der Abschnitt am Ausgang des Blocks 242, der dem späten Anteil 320 der Impulsantwort entspricht, deutliche Unterschiede haben wird und somit den Verlauf der Impulsantwort lediglich näherungsweise darstellt. Diese Abweichungen sind jedoch für die menschliche Richtungswahrnehmung unkritisch, weil die menschliche Richtungswahrnehmung ohnehin kaum oder nicht auf dem späten Anteil bzw. den diffusen Reflexionen der Impulsantwort basiert. Fig. 1d shows an implementation of the decompressor for the example of the time distribution. In particular, the decompressor is configured to perform the compressed sound field data using a combination of the first portion 201 with the first reflections and the second portion 202 with the late reflections and a conversion from the harmonic component range to the time domain. Fig. 1d shows an implementation in which the combination takes place after the conversion. Fig. 1e shows an alternative implementation in which the combination takes place before the conversion. Specifically, the converter 241 is configured to convert harmonic components of the high order into the time domain while the converter 242 is configured to form the harmonic components of the low order to implement in the time domain. With regard Fig. 4 Thus, the output of converter 241 provides something corresponding to region 210, while converter 242 provides something corresponding to region 320, but due to the lossy compression, the portions at the output of bridge 241, 242 are not identical to portions 310, 320 are. In particular, however, an at least perceptual similarity or identity of the portion at the output of the block 241 to the portion 310 of FIG Fig. 4 while the portion at the output of the block 242 corresponding to the late portion 320 of the impulse response will have significant differences and thus approximate only the course of the impulse response. However, these deviations are not critical to human directional perception, because human directional perception is hardly or not based on the late contribution or diffuse reflections of the impulse response anyway.

Fig. 1e zeigt eine alternative Implementierung, bei der der Decodierer zunächst den Kombinierer 245 und dann nachfolgend den Umsetzer 244 aufweist. Die einzelnen harmonischen Komponenten werden bei dem in Fig. 1e gezeigten Ausführungsbeispiel aufaddiert, woraufhin das Ergebnis der Aufaddition umgesetzt wird, um schließlich eine Zeitbereichsdarstellung zu erhalten. Im Unterschied hierzu wird bei der Ausführung in Fig. 1d eine Kombination nicht in einer Aufaddition bestehen, sondern in einer Serialisierung, dahin gehend, dass der Ausgang des Blocks 241 zeitlich früher in einer dekomprimierten Impulsantwort angeordnet sein wird als der Ausgang des Blocks 242, um wieder eine zu Fig. 4 entsprechende Impulsantwort zu erhalten, die dann für weitere Zwecke, wie beispielsweise eine Auralisation also in eine Aufbereitung von Tonsignalen mit dem gewünschten Raumeindruck verwendet werden kann. Fig. 1e FIG. 12 shows an alternative implementation in which the decoder first comprises the combiner 245 and then the converter 244. The individual harmonic components are used in the in Fig. 1e Then, the result of the addition is converted to finally obtain a time domain representation. In contrast, when running in Fig. 1d a combination does not consist in an addition, but in a serialization, in that the output of the block 241 will be arranged earlier in a decompressed impulse response than the output of the block 242 to again one Fig. 4 To obtain corresponding impulse response, which can then be used for further purposes, such as an auralization in a preparation of sound signals with the desired spatial impression.

Fig. 2a zeigt eine alternative Implementierung der vorliegenden Erfindung, bei der eine Aufteilung im Frequenzbereich vorgenommen wird. Insbesondere ist der Aufteiler 100 von Fig. 1a bei dem Ausführungsbeispiel von Fig. 2a als Filterbank implementiert, um zumindest einen Teil der Schallfelddaten zu filtern, um Schallfelddaten in verschiedenen Filterbankkanälen 101, 102 zu erhalten. Die Filterbank erhält bei einem Ausführungsbeispiel, bei dem die zeitliche Aufteilung von Fig. 1a nicht implementiert ist, sowohl den frühen als auch den späten Anteil, während bei einem alternativen Ausführungsbeispiel lediglich der frühe Anteil der Schallfelddaten in die Filterbank eingespeist wird, während der späte Anteil nicht weiter spektral zerlegt wird. Fig. 2a shows an alternative implementation of the present invention, in which a division in the frequency domain is made. In particular, the splitter 100 is of Fig. 1a in the embodiment of Fig. 2a implemented as a filter bank to filter at least part of the sound field data to obtain sound field data in different filter bank channels 101, 102. The filter bank receives in an embodiment in which the temporal distribution of Fig. 1a is not implemented, both the early and the late portion, while in an alternative embodiment, only the early portion of the sound field data is fed into the filter bank, while the late portion is not spectrally decomposed further.

Der Analyse-Filterbank 100b nachgeordnet ist der Umsetzer, der aus Teil-Umsetzern 140a, 140b, 140c ausgebildet sein kann. Der Umsetzer 140a, 140b, 140c ist ausgebildet, um die Schallfelddaten in verschiedenen Filterbankkanälen unter Verwendung verschiedener Ordnungen für verschiedene Filterbankkanäle umzusetzen, um für jeden Filterbankkanal einen oder mehrere harmonische Komponenten zu erhalten. Insbesondere ist der Umsetzer ausgebildet, um für einen ersten Filterbankkanal mit einer ersten Mittenfrequenz eine Umsetzung mit einer ersten Ordnung durchzuführen, und um für einen zweiten Filterbankkanal mit einer zweiten Mittenfrequenz eine Umsetzung mit einer zweiten Ordnung durchzuführen, wobei die erste Ordnung höher als die zweite Ordnung ist, und wobei die erste Mittenfrequenz, d.h. fn, höher als die zweite Mittenfrequenz f1 ist, um schließlich die komprimierte Schallfelddarstellung zu erhalten. Generell kann, je nach Ausführungsbeispiel, für das niedrigste Frequenzband eine niedrigere Ordnung als für ein mittleres Frequenzband verwendet werden. Allerdings muss je nach Implementierung das höchste Frequenzband, wie es bei dem in Fig. 2a gezeigten Ausführungsbeispiel der Filterbankkanal mit der Mittenfrequenz fn ist, nicht unbedingt mit einer höheren Ordnung als z.B. ein mittlerer Kanal umgesetzt werden. Stattdessen kann in den Bereichen, in denen die Richtungswahrnehmung am höchsten ist, die höchste Ordnung verwendet werden, wie in den anderen Bereichen, zu denen auch z.B. ein bestimmter hoher Frequenzbereich gehören kann, die Ordnung niedriger ist, weil in diesen Bereichen auch die Richtungswahrnehmung des menschlichen Gehörs niedriger ist.Subordinate to the analysis filter bank 100b is the converter, which may be formed of sub-converters 140a, 140b, 140c. The converter 140a, 140b, 140c is configured to convert the sound field data in different filter bank channels using different orders for different filter bank channels to obtain one or more harmonic components for each filter bank channel. In particular, the converter is configured to perform a first-order conversion for a first filterbank channel having a first center frequency, and to perform a second-order conversion for a second filterbank channel having a second center frequency, the first order being higher than the second order and wherein the first center frequency, ie, f n , is higher than the second center frequency f 1 to finally obtain the compressed sound field representation. Generally, depending on the embodiment, a lower order may be used for the lowest frequency band than for a middle frequency band. However, depending on the implementation, the highest frequency band, as in the case of the Fig. 2a In the embodiment shown, the filter bank channel with the center frequency f n is not necessarily implemented with a higher order than, for example, a middle channel. Instead, in the areas in which the direction perception is highest, the highest order can be used, as in the other areas, which may include, for example, a certain high frequency range, the order is lower, because in these areas, the direction perception of the human hearing is lower.

Fig. 2b zeigt eine detailliertere Implementierung der Analyse-Filterbank 100b. Diese umfasst bei dem in Fig. 2b gezeigten Ausführungsbeispiel einen Bandfilter und hat ferner nachgeschaltete Dezimierer 100c für jeden Filterbankkanal. Wenn beispielsweise eine Filterbank bestehend aus Bandfilter und Dezimierern eingesetzt wird, die 64 Kanäle hat, so kann jeder Dezimierer mit einem Faktor 1/64 dezimieren, so dass insgesamt die Anzahl der digitalen Abtastwerte am Ausgang der Dezimierer über alle Kanäle aufaddiert der Anzahl von Abtastwerten eines Blocks der Schallfelddaten im Zeitbereich entspricht, der durch die Filterbank zerlegt worden ist. Eine beispielhafte Filterbank kann eine reelle oder komplexe QMF-Filterbank sein. Jedes Subbandsignal vorzugsweise der frühen Anteile der Impulsantworten wird dann in harmonische Komponenten mittels der Umsetzer 140a bis 140c in Analogie zu Fig. 2a umgesetzt, um schließlich für verschiedene Subbandsignale der Schallfeldbeschreibung eine Beschreibung mit zylindrischen oder vorzugsweise sphärischen harmonischen Komponenten zu erhalten, die für unterschiedliche Subbandsignale unterschiedliche Ordnungen, also eine unterschiedlich große Anzahl von harmonischen Komponenten, aufweist. Fig. 2b shows a more detailed implementation of the analysis filter bank 100b. This includes at the in Fig. 2b shown embodiment, a bandpass filter and further has downstream decimator 100c for each filter bank channel. For example, if a filter bank consisting of bandpass filters and decimators having 64 channels is used, each decimator can be decimated by a factor of 1/64, so that the total number of digital samples at the output of the decimators over all channels adds up to the number of samples of one Blocks of sound field data in the time domain, which has been decomposed by the filter bank. An exemplary filter bank may be a real or complex QMF filter bank. Each subband signal, preferably the early portions of the impulse responses, is then converted into harmonic components by means of the converters 140a to 140c in analogy to Fig. 2a implemented, finally, for various subband signals of the sound field description to obtain a description with cylindrical or preferably spherical harmonic components having different orders for different subband signals, that is, a different number of harmonic components.

Fig. 2c und Fig. 2d zeigen wieder verschiedene Implementierungen des Dekomprimierers, wie er in Fig. 1b dargestellt ist, also eine unterschiedliche Reihenfolge der Kombination und anschließenden Umsetzung in Fig. 2c oder der zunächst durchgeführten Umsetzung und der anschließenden Kombination, wie es in Fig. 2d dargestellt ist. Insbesondere umfasst der Dekomprimierer 240 von Fig. 1b bei dem in Fig. 2c gezeigten Ausführungsbeispiel wieder einen Kombinierer 245, der eine Addition der unterschiedlichen harmonischen Komponenten aus den verschiedenen Subbändern durchführt, um dann eine Gesamtdarstellung der harmonischen Komponenten zu erhalten, die dann mit dem Umsetzer 244 in den Zeitbereich umgesetzt werden. Damit liegen die Eingangssignale in dem Kombinierer 245 im Harmonische-Komponenten-Spektralbereich vor, während der Ausgang des Kombinierers 345 eine Darstellung im Harmonische-Komponenten-Bereich darstellt, von dem dann durch den Umsetzer 244 eine Umsetzung in den Zeitbereich erhalten wird. Fig. 2c and Fig. 2d again show different implementations of the decompressor, as in Fig. 1b is shown, so a different order of the combination and subsequent implementation in Fig. 2c or the initial implementation and the subsequent combination, as described in Fig. 2d is shown. In particular, the decompressor 240 includes Fig. 1b at the in Fig. 2c Again, a combiner 245, which performs an addition of the different harmonic components from the various subbands, in order to then obtain an overall representation of the harmonic components, which are then converted with the converter 244 in the time domain. Thus, the inputs to combiner 245 are in the harmonic component spectral region, while the output of combiner 345 is a harmonic component region representation, which is then converted by converter 244 to the time domain.

Bei dem in Fig. 2d gezeigten alternativen Ausführungsbeispiel werden die einzelnen harmonischen Komponenten für jedes Subband zunächst durch unterschiedliche Umsetzer 241a, 241b, 241c in den Spektralbereich umgesetzt, so dass die Ausgangssignale der Blöcke 241a, 241b, 241c den Ausgangssignalen der Blöcke 140a, 140b, 140c von Fig. 2a oder Fig. 2b entsprechen. Dann werden diese Subbandsignale in einer nachgeordneten Synthese-Filterbank, die im Falle eines Downsampling auf Encodierer-Seite (Block 100c von Fig. 2b) auch eine Hoch-Tast-Funktion, also eine Upsampling-Funktion aufweisen kann, verarbeitet. Die Synthese-Filterbank stellt dann die Kombinierer-Funktion des Decodierers 240 von Fig. 1b dar. Am Ausgang der Synthese-Filterbank liegt somit die dekomprimierte Schallfelddarstellung vor, die zur Auralisation verwendet werden kann, wie es noch dargestellt wird.At the in Fig. 2d In the alternative embodiment shown, the individual harmonic components for each subband are first converted into the spectral range by different converters 241a, 241b, 241c, so that the output signals of the blocks 241a, 241b, 241c correspond to the output signals of the blocks 140a, 140b, 140c of FIG Fig. 2a or Fig. 2b correspond. These subband signals then become in a downstream synthesis filter bank which, in the case of an encoder side downsampling (block 100c of FIG Fig. 2b ) may also have a high-touch function, that is, an upsampling function, processed. The synthesis filterbank then sets the combiner function of the decoder 240 of FIG Fig. 1b At the output of the synthesis filter bank is thus the decompressed sound field representation, which can be used for auralization, as will be shown.

Fig. 1f zeigt ein Beispiel für die Zerlegung von Impulsantworten in harmonische Komponenten verschiedener Ordnungen. Die späten Abschnitte werden nicht spektral zerlegt sondern insgesamt mit der nullten Ordnung umgesetzt. Die frühen Abschnitte der Impulsantworten werden spektral zerlegt. Das niedrigste Band wird beispielsweise mit der ersten Ordnung verarbeitet, während das nächste Band bereits mit der fünften Ordnung verarbeitet wird und das letzte Band, weil es für die Richtungs/Raumwahrnehmung am wichtigsten ist, mit der höchsten Ordnung, also bei diesem Beispiel mit der Ordnung 14, verarbeitet wird. Fig. 1f shows an example of the decomposition of impulse responses into harmonic components of different orders. The late sections are not spectrally decomposed but implemented in total with the zeroth order. The early sections of the impulse responses are spectrally decomposed. For example, the lowest band is processed with the first order, while the next band is already processed with the fifth order and the last band, because it is most important for direction / space perception, with the highest order, in this example with order 14, is processed.

Fig. 3a zeigt das gesamte Encodierer/Decodierer-Schema oder das gesamte Komprimierer/Dekomprimierer-Schema der vorliegenden Erfindung. Fig. 3a Figure 4 shows the entire encoder / decoder scheme or the entire compressor / decompressor scheme of the present invention.

Insbesondere umfasst bei dem in Fig. 3a gezeigten Ausführungsbeispiel der Komprimierer nicht nur die Funktionalitäten von Fig. 1a, die mit 1 oder PENC bezeichnet sind, sondern auch einen Decodierer PDEC2, der wie in Fig. 1b ausgebildet sein kann. Darüber hinaus umfasst der Komprimierer noch eine Steuerung CTRL4, die ausgebildet ist, um vom Decodierer 2 erhaltene dekomprimierte Schallfelddaten mit ursprünglichen Schallfelddaten unter Berücksichtigung eines psychoakustischen Modells, wie beispielsweise dem Modell PEAQ, das von der ITU standardisiert worden ist, verglichen.In particular, in the Fig. 3a shown embodiment of the compressor not only the functionalities of Fig. 1a , denoted by 1 or PENC, but also a decoder PDEC2, as in Fig. 1b can be trained. In addition, the compressor also comprises a controller CTRL4, which is designed to compare decompressed sound field data obtained by the decoder 2 with original sound field data taking into account a psychoacoustic model, such as the model PEAQ, which has been standardized by the ITU.

Daraufhin erzeugt die Steuerung 4 optimierte Parameter für die Aufteilung, wie beispielsweise die zeitliche Aufteilung, die frequenzmäßige Aufteilung in der Filterbank oder optimierte Parameter für die Ordnungen in den einzelnen Umsetzern für die verschiedenen Anteile der Schallfelddaten, wenn diese Umsetzer steuerbar ausgebildet sind.Thereafter, the controller 4 generates optimized parameters for the division, such as the time distribution, the frequency distribution in the filter bank or optimized parameters for the orders in the individual converters for the different parts of the sound field data, if these converters are designed to be controllable.

Steuerparameter, wie beispielsweise Aufteilungsinformationen, Filterbankparameter oder Ordnungen können dann zusammen mit einem Bitstrom, der die harmonischen Komponenten aufweist, zu einem Decodierer bzw. Dekomprimierer übertragen werden, der mit 2 in Fig. 3a dargestellt ist. Der Komprimierer 11 besteht somit aus dem Kontrollblock CTRL4 für die Codec-Steuerung sowie einen Parameter-Codierer PENC1 und dem Parameter-Decodierer PDEC2. Die Eingaben 10 sind Daten von Mikrofon-Array-Messungen. Der Steuerblock 4 initialisiert den Encodierer 1 und stellt sämtliche Parameter für die Encodierung der Array-Daten bereit. Im PENC-Block 1 werden die Daten gemäß der beschriebenen Methodik der gehörabhängigen Aufteilung im Zeit- und im Frequenzbereich verarbeitet und für die Datenübertragung bereitgestellt.Control parameters, such as split information, filter bank parameters, or orders, may then be transmitted along with a bit stream having the harmonic components to a decompressor denoted 2 in Fig. 3a is shown. The compressor 11 thus consists of the control block CTRL4 for the codec control as well as a parameter encoder PENC1 and the parameter decoder PDEC2. The inputs 10 are data from microphone array measurements. The control block 4 initializes the encoder 1 and provides all the parameters for encoding the array data. In PENC block 1, the data is processed in accordance with the methodology described above, in the time domain and in the frequency domain, and made available for data transmission.

Fig. 3b zeigt das Schema der Daten-En- und Decodierung. Die Eingangsdaten 10 werden zunächst durch den Aufteiler 100a in ein frühes 101 und ein spätes Schallfeld 102 zerlegt. Das frühe Schallfeld 101 wird mittels einer n-Band-Filterbank 100b in seine spektralen Anteile f1 .... fn zerlegt, die jeweils mit einer dem menschlichen Gehör angepassten Ordnung des sphärischen Harmonischen (x-Ordnung-SHD - SHD = Spherical Harmonics Decomposition) zerlegt werden. Diese Zerlegung in sphärische Harmonische stellt ein bevorzugtes Ausführungsbeispiel dar, wobei jedoch mittels jeder Schallfeldzerlegung (Sound Field Decomposition), die harmonische Komponenten erzeugt, gearbeitet werden kann. Da die Zerlegung in sphärische harmonische Komponenten in jedem Band je nach Ordnung unterschiedlich lange Berechnungszeiten braucht, wird es bevorzugt, die Zeitversätze in einer Verzögerungsleitung mit Verzögerungsblöcken 306, 304 zu korrigieren. Damit wird der Frequenzbereich im Rekonstruktionsblock 245, der auch als Kombinierer bezeichnet wird, rekonstruiert und mit dem späten Schallfeld im weiteren Kombinierer 243 wieder kombiniert, nachdem dieses mit einer gehörangepasst niedrigen Ordnung gerechnet wurde. Fig. 3b shows the scheme of data en- and decoding. The input data 10 are first decomposed by the splitter 100a into an early 101 and a late sound field 102. The early sound field 101 is decomposed by means of an n-band filter bank 100b into its spectral components f 1 ... F n , each of which has a spherical harmonic order adapted to the human ear (x-order SHD = Spherical Harmonics Decomposition). This spherical harmonic decomposition is a preferred embodiment, but can be performed by any sound field decomposition that generates harmonic components. Since the decomposition into spherical harmonic components in each band depending on Order requires different calculation times, it is preferred to correct the time offsets in a delay line with delay blocks 306, 304. Thus, the frequency range in the reconstruction block 245, which is also referred to as a combiner, is reconstructed and recombined with the late sound field in the further combiner 243 after it has been computed with a low-order listener fit.

Der Steuerblock CTRL4 von Fig. 3a beinhaltet ein raumakustisches Analysemodul und ein Psychoakustikmodul. Der Steuerblock analysiert dabei sowohl die Eingangsdaten 10 als auch die Ausgangsdaten des Decodierers 2 von Fig. 3a, um die Codierparameter, die auch als Seiteninformationen 300 in Fig. 3a bezeichnet werden, bzw. die direkt im Komprimierer 11 dem Codierer PENC1 bereitgestellt werden, adaptiv anzupassen. Aus den Eingangssignalen 10 werden raumakustische Parameter extrahiert, die mit den Parametern der verwendeten Array-Konfiguration die initialen Parameter der Codierung vorgeben. Diese beinhalten sowohl den Zeitpunkt der Trennung zwischen frühem und spätem Schallfeld, der auch als "mixing time" oder "Mischzeit" bezeichnet wird, als auch die Parameter für die Filterbank, wie beispielsweise entsprechende Ordnungen der sphärischen Harmonischen. Die Ausgabe, die z.B. in Form von binauralen Impulsantworten vorliegen kann, wie sie vom Kombinierer 243 ausgegeben wird, wird in ein psychoakustisches Modul mit einem auditorischen Modell geführt, das die Qualität evaluiert und die Codierparameter entsprechend anpasst. Alternativ kann das Konzept auch mit statischen Parametern arbeiten. Dann entfällt das Steuermodul CTRL4 sowie das PEDC-Modul 2 auf Encodierer- bzw. Komprimiererseite 11.The control block CTRL4 of Fig. 3a includes a room acoustic analysis module and a psychoacoustics module. The control block analyzes both the input data 10 and the output data of the decoder 2 of FIG Fig. 3a to encode the encoding parameters, also called page information 300 in FIG Fig. 3a or directly provided in the compressor 11 to the encoder PENC1, adaptively adapt. From the input signals 10, room acoustic parameters are extracted which specify the initial parameters of the coding with the parameters of the array configuration used. These include both the time of separation between early and late sound field, also referred to as "mixing time", and the parameters for the filter bank, such as corresponding orders of spherical harmonics. The output, which may be in the form of binaural impulse responses, for example, as output from combiner 243, is fed into a psychoacoustic module with an auditory model that evaluates the quality and adjusts the encoding parameters accordingly. Alternatively, the concept can also work with static parameters. Then the control module CTRL4 and the PEDC module 2 on the encoder or compressor side 11 is omitted.

Die Erfindung ist dahin gehend vorteilhaft, dass Daten und Rechenaufwand bei der Verarbeitung und Übertragung von Kreis- und Kugelarraydaten in Abhängigkeit des menschlichen Gehörs reduziert werden. Es ist ferner vorteilhaft, dass die so verarbeiteten Daten in bestehende Kompressionsverfahren integriert werden können und somit eine zusätzliche Datenreduktion erlauben. Dies ist in bandbegrenzten Übertragungssystemen, wie für mobile Endgeräte von Vorteil. Ein weiterer Vorteil ist die mögliche Echtzeitverarbeitung der Daten im sphärischen harmonischen Bereich auch bei hohen Ordnungen. Die vorliegende Erfindung kann in vielen Bereichen Anwendung finden, und insbesondere in den Bereichen, wo das akustische Schallfeld mittels zylindrischer oder sphärischer Harmonischer dargestellt wird. Dies erfolgt z.B. bei der Schallfeldanalyse mittels Kreis- bzw. Kugelarrays. Wenn das analysieret Schallfeld auralisiert werden soll, kann das Konzept der vorliegenden Erfindung eingesetzt werden. Bei Geräten zur Simulation von Räumen werden Datenbanken zur Speicherung existierender Räume eingesetzt. Hier ermöglicht das erfindungsgemäße Konzept eine platzsparende und qualitativ hochwertige Speicherung. Es existieren Wiedergabeverfahren, die auf Kugelflächenfunktionen beruhen, wie beispielsweise Higher Order Ambisonics oder die binaurale Synthese. Hier liefert die vorliegende Erfindung eine Reduktion von Rechenzeit und Datenaufwand. Dies kann insbesondere im Hinblick auf die Datenübertragung z.B. bei Telekonferenz-Systemen von besonderem Vorteil sein.The invention is advantageous in that data and computational complexity in the processing and transmission of circular and spherical array data are reduced as a function of human hearing. It is also advantageous that the data thus processed can be integrated into existing compression methods and thus allow additional data reduction. This is advantageous in band-limited transmission systems, such as for mobile terminals. Another advantage is the possible real-time processing of the data in the spherical harmonic range even at high orders. The present invention can be used in many fields, and in particular in the areas where the acoustic sound field is represented by means of cylindrical or spherical harmonics. This is done eg in the sound field analysis by means of circular or ball arrays. If the analyzed sound field is to be auralized, the concept of the present invention can be used. For devices for the simulation of rooms Databases used to store existing spaces. Here, the inventive concept allows a space-saving and high-quality storage. There are reproduction methods based on spherical surface functions, such as Higher Order Ambisonics or binaural synthesis. Here, the present invention provides a reduction of computation time and data overhead. This can be of particular advantage, in particular with regard to data transmission, for example in the case of teleconferencing systems.

Fig. 5 zeigt eine Implementierung eines Umsetzers 140 bzw. 180 mit einstellbarer Ordnung bzw. mit zumindest unterschiedlicher Ordnung, die auch fest eingestellt sein kann. Fig. 5 shows an implementation of a converter 140 or 180 with adjustable order or with at least different order, which may also be fixed.

Der Umsetzer umfasst einen Zeit-Frequenz-Transformationsblock 502 und einen nachgeschalteten Raum-Transformationsblock 504. Der Raum-Transformationsblock 504 ist ausgebildet, um gemäß der Berechnungsvorschrift 508 zu arbeiten. In der Berechnungsvorschrift beträgt n die Ordnung. Die Berechnungsvorschrift 508 wird je nach Ordnung nur einmal gelöst, wenn die Ordnung gleich null ist, oder wird öfter gelöst, wenn die Ordnung z.B. bis zur Ordnung 5 oder bei dem vorstehend beschriebenen Beispiel bis zur Ordnung 14 geht. Insbesondere ist das Zeit-Frequenz-Transformationselement 502 ausgebildet, um die Impulsantworten auf den Eingangsleitungen 101, 102 in den Frequenzbereich zu transformieren, wobei vorzugsweise die schnelle Fourier-Transformation eingesetzt wird. Ferner wird dann nur das halbseitige Spektrum weitergeleitet, um den Rechenaufwand zu reduzieren. Dann wird eine räumliche Fourier-Transformation im Block Raumtransformation 504 durchgeführt, wie sie in dem Fachbuch Fourier Acoustics, Sound Radiation and Nearfield Acoustical Holography, Academic Press, 1999 von Earl G. Williams beschrieben ist. Vorzugsweise ist die Raumtransformation 504 optimiert für die Schallfeldanalyse und liefert gleichzeitig eine hohe numerische Genauigkeit und eine schnelle Berechnungsgeschwindigkeit.The converter includes a time-frequency transform block 502 and a downstream space transform block 504. The space transform block 504 is configured to operate in accordance with computation rule 508. In the calculation rule, n is the order. The calculation rule 508 is solved only once, if the order is zero, depending on the order, or is solved more often if the order, for example, goes to order 5 or, in the example described above, to order 14. In particular, the time-frequency transform element 502 is configured to transform the impulse responses on the input lines 101, 102 into the frequency domain, preferably employing the fast Fourier transform. Furthermore, then only the half-page spectrum is forwarded to reduce the computational effort. Then, a spatial Fourier transform is performed in the block space transformation 504 as described in US Pat Fourier Acoustics, Sound Radiation and Nearfield Acoustic Holography, Academic Press, 1999 by Earl G. Williams is described. Preferably, the spatial transformation 504 is optimized for sound field analysis while providing high numerical accuracy and fast computation speed.

Fig. 6 zeigt die bevorzugte Implementierung eines Umsetzers vom Harmonische-Komponenten-Bereich in den Zeitbereich, wo als Alternative ein Prozessor zur Zerlegung in ebene Wellen und Beamforming 602 dargestellt ist, und zwar alternativ zu einer inversen Raumtransformationsimplementierung 604. Die Ausgangssignale beider Blöcke 602, 604 können alternativ in einen Block 606 zur Erzeugung von Impulsantworten eingespeist werden. Die inverse Raumtransformation 604 ist ausgebildet, um die Hin-Transformation im Block 504 rückgängig zu machen. Alternativ hierzu führt die Zerlegung in ebene Wellen und das Beamforming in Block 606 dazu, dass eine große Menge an Zerlegungsrichtungen gleichmäßig verarbeitet werden können, was zu einer schnellen Verarbeitung insbesondere zur Visualisierung oder Auralisierung günstig ist. Vorzugsweise erhält der Block 602 radiale Filterkoeffizienten sowie, je nach Implementierung, zusätzliche Strahlformungs- bzw. Beamforming-Koeffizienten. Diese können entweder eine konstante Gerichtetheit haben oder frequenzabhängig sein. Alternative Eingangssignale in den Block 602 können modale Radialfilter sein, und insbesondere für sphärische Arrays oder unterschiedliche Konfigurationen, wie beispielsweise eine offene Kugel mit omnidirektionalen Mikrofonen, eine offene Kugel mit Cardioid-Mikrofonen und eine starre Kugel mit omnidirektionalen Mikrofonen. Der Block 606 zur Erzeugung von Impulsantworten erzeugt Impulsantworten oder Zeitbereichssignale aus Daten entweder vom Block 602 oder vom Block 604. Dieser Block rekombiniert insbesondere die vorher weggelassene negativen Anteile des Spektrums, führt eine schnelle inverse Fourier-Transformation durch und erlaubt ein Resampling bzw. Abtastratenumsetzung auf die ursprüngliche Abtast-Rate, falls das Eingangssignal an einer Stelle herunter-abgetastet wurde. Ferner kann eine Fensteroption eingesetzt werden. Fig. 6 Figure 4 shows the preferred implementation of a harmonic component range converter into the time domain where, as an alternative, a planar wave processor and beamforming 602 are illustrated as an alternative to an inverse space transform implementation 604. The outputs of both blocks 602, 604 may alternatively are fed to a block 606 for generating impulse responses. Inverse space transformation 604 is configured to undo the Hin transformation in block 504. Alternatively, the planar wave decomposition and beamforming in block 606 results in a large amount of decomposition directions can be processed evenly, which is favorable for rapid processing, in particular for visualization or auralization. Preferably, the block 602 receives radial filter coefficients and, depending on the implementation, additional beamforming or beamforming coefficients. These can either have a constant directionality or be frequency-dependent. Alternative inputs to block 602 may be modal radial filters, and in particular spherical arrays or different configurations, such as an omnidirectional open-sphere microphone, an open sphere with cardioid microphones, and a rigid sphere with omnidirectional microphones. The impulse response generation block 606 generates impulse responses or time domain signals from either block 602 or block 604. This block recombines in particular the previously omitted negative portions of the spectrum, performs a fast inverse Fourier transform and allows for resampling the original sample rate if the input signal was down-sampled at one location. Furthermore, a window option can be used.

Details zu der Funktionalität der Blöcke 502, 504, 602, 604, 606 sind in der Fachveröffentlichung " SofiA Sound Field Analysis Toolbox" von Bernschütz u.a., ICSA - International Conference on Spatial Audio, Detmold, 10. bis 13.11.2011 " beschrieben, wobei diese Fachveröffentlichung hierin durch Bezugnahme in ihrer Gesamtheit aufgenommen ist.Details of the functionality of the blocks 502, 504, 602, 604, 606 are in the technical publication " SofiA Sound Field Analysis Toolbox "by Bernschütz et al., ICSA - International Conference on Spatial Audio, Detmold, 10 to 13.11.2011 , this reference is incorporated herein by reference in its entirety.

Der Block 606 kann ferner ausgebildet sein, um den kompletten Satz von dekomprimierten Impulsantworten, also beispielsweise den verlustbehafteten Impulsantworten auszugeben, wobei dann der Block 608 wieder beispielsweise 350 Impulsantworten ausgeben würde. Je nach Auralisierung wird es jedoch bevorzugt, lediglich die letztendlich für die Wiedergabe nötigen Impulsantworten auszugeben, was durch einen Block 608 bewerkstelligt werden kann, der eine Auswahl oder eine Interpolation für ein bestimmtes Wiedergabeszenario liefert. Wird beispielsweise eine Stereowiedergabe angestrebt, wie es in Block 616 dargestellt ist, so wird abhängig von der Platzierung der beiden Stereo-Lautsprecher von den 350 beispielsweise wiedergewonnenen Impulsantworten die Impulsantwort ausgewählt, die jeweils der Raumrichtung des entsprechenden Stereo-Lautsprechers entspricht. Mit dieser Impulsantwort wird dann ein Vorfilter des entsprechenden Lautsprechers eingestellt, derart, dass das Vorfilter eine Filtercharakteristik hat, die dieser Impulsantwort entspricht. Dann wird ein wiederzugebendes Audiosignal zu den beiden Lautsprechern über die entsprechenden Vorfilter geführt und wiedergegeben, um schließlich den gewünschten Raumeindruck für eine Stereo-Auralisation zu erzeugen.The block 606 may further be configured to output the complete set of decompressed impulse responses, such as the lossy impulse responses, in which case the block 608 would again output, for example, 350 impulse responses. However, depending on the auralization, it is preferred to output only the impulse responses ultimately required for rendering, which may be accomplished by a block 608 that provides selection or interpolation for a particular rendering scenario. For example, if stereo reproduction is desired, as shown in block 616, depending on the placement of the two stereo speakers, the impulse response selected from the 350, for example, recovered impulse responses will be selected, corresponding to the spatial direction of the corresponding stereo speaker. With this impulse response, a prefilter of the corresponding loudspeaker is then set, such that the prefilter has a filter characteristic which corresponds to this impulse response. Then, an audio signal to be reproduced is fed to the two speakers via the corresponding pre-filters and reproduced to finally produce the desired spatial impression for a stereo auralization.

Existiert unter den zur Verfügung stehenden Impulsantworten eine Impulsantwort in einer bestimmten Richtung, in der im tatsächlichen Wiedergabeszenario ein Lautsprecher angeordnet ist, nicht, so werden die vorzugsweise zwei oder drei am nächsten benachbarten Impulsantworten verwendet und es wird eine Interpolation durchgeführt.If among the available impulse responses there is not an impulse response in a particular direction in which a loudspeaker is located in the actual rendering scenario, preferably the two or three nearest impulse impulses are used and interpolation is performed.

Bei einem alternativen Ausführungsbeispiel, bei dem die Wiedergabe bzw. Auralisation durch eine Wellenfeldsynthese 612 stattfindet, wird es bevorzugt, eine Wiedergabe von frühen und späten Reflexionen über virtuelle Quellen durchzuführen, wie es in der PH. D.-Arbeit "Spatial Sound Design based on Measured Room Impulse Responses" von Frank Melchior an der TU Delft aus dem Jahr 2011 detailliert dargestellt ist, wobei diese Fachveröffentlichung ebenfalls durch Bezugnahme in ihrer Gesamtheit hierin aufgenommen ist.In an alternative embodiment in which the rendering or auralization takes place by wave-field synthesis 612, it is preferred to perform a replay of early and late reflections via virtual sources, as described in US Pat PH. D.-work "Spatial Sound Design based on Measured Room Impulse Responses" by Frank Melchior at the TU Delft from the year 2011 is shown in detail, this reference is also incorporated herein by reference in its entirety.

Insbesondere werden die Reflexionen einer Quelle bei der Wellefeldsynthese-Wiedergabe 612 durch vier Impulsantworten an bestimmten Positionen für die frühen Reflexionen und 8 Impulsantworten an bestimmten Positionen für die späten Reflexionen wiedergegeben. Der Auswahlblock 608 wählte dann die 12 Impulsantworten für die 12 virtuellen Positionen aus. Hierauf werden diese Impulsantworten zusammen mit den zugehörigen Positionen in einem Wellenfeld-Synthese-Renderer, der in Block 612 angeordnet sein kann, zugeführt, und der Wellenfeld-Synthese-Renderer berechnet dann unter Verwendung dieser Impulsantworten die Lautsprechersignale für die tatsächlich vorhandenen Lautsprecher, damit diese dann die entsprechenden virtuellen Quellen abbilden. Damit wird für jeden Lautsprecher im Wellefeld-Synthese-Wiedergabesystem ein eigenes Vorfilter berechnet, über das dann ein letztendlich wiederzugebendes Audiosignal gefiltert wird, bevor es vom Lautsprecher ausgegeben wird, um eine entsprechende Wiedergabe mit hohen qualitativen Raumeffekten zu erreichen.In particular, the reflections of a source in wave field synthesis playback 612 are represented by four impulse responses at certain positions for the early reflections and eight impulse responses at certain positions for the late reflections. Selection block 608 then selected the 12 impulse responses for the 12 virtual positions. Subsequently, these impulse responses are fed along with the associated positions in a wavefield synthesis renderer, which may be located at block 612, and the wavefield synthesis renderer then uses these impulse responses to compute the loudspeaker signals for the speakers actually present to make them then map the corresponding virtual sources. This calculates a separate pre-filter for each loudspeaker in the Wave Field Synthesis Playback System, which is then used to filter an audio signal to be ultimately reproduced before it is output from the loudspeaker to achieve adequate high quality spatial effects.

Eine alternative Implementierung der vorliegenden Erfindung besteht in einer Erzeugung eines Kopfhörersignals, also in einer Binaural-Anwendung, bei der der Raumeindruck des Gebiets über die Kopfhörerwiedergabe erzeugt werden soll.An alternative implementation of the present invention is a generation of a headphone signal, ie in a binaural application, in which the spatial impression of the area is to be generated via the headphone reproduction.

Obgleich im Vorstehenden hauptsächlich Impulsantworten als Schallfelddaten dargestellt worden sind, können beliebige andere Schallfelddaten, beispielsweise Schallfelddaten nach Betrag und Vektor also im Hinblick auf z.B. Schalldruck und Schallschnelle an bestimmten Positionen im Raum ebenfalls eingesetzt werden. Auch diese Schallfelddaten können in wichtigere und weniger wichtigere Anteile im Hinblick auf die menschliche Richtungswahrnehmung aufgeteilt und in harmonische Komponenten umgesetzt werden. Die Schallfelddaten können auch jede Art von Impulsantworten, wie beispielsweise Head-Related Transfer Functions (HRTF-) Funktionen oder Binaural Room Impulse Responses (BRIR-) Funktionen oder Impulsantworten von jeweils einem diskreten Punkt zu einer vorbestimmten Position in dem Gebiet umfassen.Although primarily impulse responses have been presented as sound field data in the foregoing, any other sound field data, for example sound field data by magnitude and vector, ie with regard to eg sound pressure and sound velocity at certain positions in space, may also be used. Also, these sound field data may become more important and less important in terms of human directional perception divided and converted into harmonic components. The sound field data may also include any type of impulse responses, such as Head-Related Transfer Functions (HRTF) functions or Binaural Room Impulse Responses (BRIR) functions or impulse responses, each from a discrete point to a predetermined position in the area.

Vorzugsweise wird ein Raum mit einem Kugelarray abgetastet. Dann liegt das Schallfeld als Satz von Impulsantworten vor. Im Zeitbereich wird das Schallfeld in seine frühen und späten Anteile zerlegt. Anschließend werden beide Teile in ihre sphärischen oder zylindrischen harmonischen Komponenten zerlegt. Da die relativen Richtungsinformationen im frühen Schallfeld vorhanden sind, wird hier eine höhere Ordnung der sphärischen Harmonischen gerechnet als im späten Schallfeld, das für eine niedrige Ordnung ausreichend ist. Der frühe Teil ist verhältnismäßig kurz, beispielsweise 100 ms und wird genau, also mit vielen harmonischen Komponenten dargestellt, während der späte Teil, beispielsweise 100 ms bis 2 s oder 10 s lang ist. Dieser späte Teil wird jedoch mit weniger oder nur einer einzigen harmonischen Komponente dargestellt.Preferably, a space is scanned with a ball array. Then the sound field is a set of impulse responses. In the time domain, the sound field is split into its early and late parts. Subsequently, both parts are decomposed into their spherical or cylindrical harmonic components. Since the relative direction information is present in the early sound field, a higher order of the spherical harmonic is calculated here than in the late sound field, which is sufficient for a low order. The early part is relatively short, for example 100 ms, and is represented accurately, that is, with many harmonic components, while the late part is, for example, 100 ms to 2 s or 10 s long. However, this late part is represented with less or only a single harmonic component.

Eine weitere Datenreduktion ergibt sich durch die Aufspaltung des frühen Schallfelds in einzelne Bänder vor der Darstellung als sphärische Harmonische. Dazu wird nach der Trennung im Zeitbereich in frühes und spätes Schallfeld das frühe Schallfeld mittels einer Filterbank in seine spektralen Anteile zerlegt. Durch Unterabtastung der einzelnen Frequenzbänder wird eine Datenreduktion erreicht, die die Berechnung der harmonischen Komponenten deutlich beschleunigt. Zusätzlich wird für jedes Frequenzband eine in Abhängigkeit der menschlichen Richtungswahrnehmung perzeptiv ausreichend frühe Ordnung verwendet. So sind für niedrige Frequenzbänder, in denen die menschliche Richtungswahrnehmung niedrig ist, niedrige Ordnungen oder sogar für das niedrigste Frequenzband die Ordnung null ausreichen, während bei hohen Bändern höhere Ordnungen bis zur maximal sinnvollen Ordnung im Hinblick auf die Genauigkeit des gemessenen Schallfeldes benötigt werden. Auf der Decodierer- bzw. Dekomprimierer-Seite wird das komplette Spektrum rekonstruiert. Anschließend werden frühes oder spätes Schallfeld wieder kombiniert. Die Daten stehen nun zur Auralisation bereit.A further data reduction results from the splitting of the early sound field into individual bands before the representation as spherical harmonics. For this purpose, after the separation in the time domain in early and late sound field, the early sound field is decomposed into its spectral components by means of a filter bank. By subsampling the individual frequency bands, a data reduction is achieved which significantly accelerates the calculation of the harmonic components. In addition, for each frequency band, a sufficiently early order is used as a function of human directional perception. Thus, for low frequency bands in which human directional perception is low, low orders or even zero order for the lowest frequency band are sufficient, while for high bands higher orders are needed to the maximum reasonable order with respect to the accuracy of the measured sound field. On the decoder or decompressor side the complete spectrum is reconstructed. Subsequently, early or late sound field are combined again. The data is now ready for auralization.

Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar. Einige oder alle der Verfahrensschritte können durch einen Hardware-Apparat (oder unter Verwendung eines Hardware-Apparats), wie zum Beispiel einen Mikroprozessor, einen programmierbaren Computer oder eine elektronische Schaltung ausgeführt werden. Bei einigen Ausführungsbeispielen können einige oder mehrere der wichtigsten Verfahrensschritte durch einen solchen Apparat ausgeführt werden.Although some aspects have been described in the context of a device, it will be understood that these aspects also constitute a description of the corresponding method such that a block or device of a device is also to be understood as a corresponding method step or feature of a method step is. Similarly, aspects described in connection with or as a method step also represent a description of a corresponding block or detail or feature of a corresponding device. Some or all of the method steps may be performed by a hardware device (or using a hardware device). Apparatus), such as a microprocessor, a programmable computer or an electronic circuit. In some embodiments, some or more of the most important method steps may be performed by such an apparatus.

Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein.Depending on particular implementation requirements, embodiments of the invention may be implemented in hardware or in software. The implementation may be performed using a digital storage medium, such as a floppy disk, a DVD, a Blu-ray Disc, a CD, a ROM, a PROM, an EPROM, an EEPROM or FLASH memory, a hard disk, or other magnetic disk or optical memory are stored on the electronically readable control signals that can cooperate with a programmable computer system or cooperate such that the respective method is performed. Therefore, the digital storage medium can be computer readable.

Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.Thus, some embodiments according to the invention include a data carrier having electronically readable control signals capable of interacting with a programmable computer system such that one of the methods described herein is performed.

Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft.In general, embodiments of the present invention may be implemented as a computer program product having a program code, wherein the program code is operable to perform one of the methods when the computer program product runs on a computer.

Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.The program code can also be stored, for example, on a machine-readable carrier.

Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist.Other embodiments include the computer program for performing any of the methods described herein, wherein the computer program is stored on a machine-readable medium.

Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft.In other words, an embodiment of the method according to the invention is thus a computer program which has a program code for performing one of the methods described herein when the computer program runs on a computer.

Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.A further embodiment of the inventive method is thus a data carrier (or a digital storage medium or a computer-readable medium) on which the computer program is recorded for carrying out one of the methods described herein.

Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.A further embodiment of the method according to the invention is thus a data stream or a sequence of signals, which represent the computer program for performing one of the methods described herein. The data stream or the sequence of signals may be configured, for example, to be transferred via a data communication connection, for example via the Internet.

Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.Another embodiment includes a processing device, such as a computer or a programmable logic device, that is configured or adapted to perform one of the methods described herein.

Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.Another embodiment includes a computer on which the computer program is installed to perform one of the methods described herein.

Ein weiteres Ausführungsbeispiel gemäß der Erfindung umfasst eine Vorrichtung oder ein System, die bzw. das ausgelegt ist, um ein Computerprogramm zur Durchführung zumindest eines der hierin beschriebenen Verfahren zu einem Empfänger zu übertragen. Die Übertragung kann beispielsweise elektronisch oder optisch erfolgen. Der Empfänger kann beispielsweise ein Computer, ein Mobilgerät, ein Speichergerät oder eine ähnliche Vorrichtung sein. Die Vorrichtung oder das System kann beispielsweise einen Datei-Server zur Übertragung des Computerprogramms zu dem Empfänger umfassen.Another embodiment according to the invention comprises a device or system adapted to transmit a computer program for performing at least one of the methods described herein to a receiver. The transmission can be done for example electronically or optically. The receiver may be, for example, a computer, a mobile device, a storage device or a similar device. For example, the device or system may include a file server for transmitting the computer program to the recipient.

Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.In some embodiments, a programmable logic device (eg, a field programmable gate array, an FPGA) may be used to perform some or all of the functionality of the methods described herein. In some embodiments, a field programmable gate array may include a Microprocessor cooperate to perform any of the methods described herein. In general, in some embodiments, the methods are performed by any hardware device. This may be a universal hardware such as a computer processor (CPU) or hardware specific to the process, such as an ASIC.

Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.The embodiments described above are merely illustrative of the principles of the present invention. It will be understood that modifications and variations of the arrangements and details described herein will be apparent to others of ordinary skill in the art. Therefore, it is intended that the invention be limited only by the scope of the appended claims and not by the specific details presented in the description and explanation of the embodiments herein.

Claims (21)

  1. Apparatus for compressing sound field data (10) of an area, comprising:
    a divider (100) for dividing the sound field data into a first portion (101) and into a second portion (102); and
    a converter (140, 180) for converting the first portion (101) and the second portion (102) into harmonic components (141, 182) of a sound field description, wherein the converter (140, 180) is configured to convert the second portion (102) into one or several harmonic components (141) of a second order, and to convert the first portion (101) into harmonic components of a first order, wherein the first order is higher than the second order, to obtain the compressed sound field data,
    wherein the divider (100) is configured to perform spectral division and comprises a filterbank (100b) for filtering at least part of the sound field data (10) for obtaining sound field data in different filterbank channels (140a, 140b, 140c), and
    wherein the converter is configured to compute, for a subband signal from a first filterbank channel (140c), which represents the first portion (101), of the different filterbank channels (140a, 140b, 140c), the harmonic components of the first order, and to compute, for a subband signal from a second filterbank channel (140a), which represents the second portion (102), of the different filterbank channels (140a, 140b, 140c), the harmonic components of the second order, wherein a center frequency (fn) of the first filterbank channel (140a) is higher than a center frequency (f1) of the second filterbank channel (140c).
  2. Apparatus according to claim 1,
    wherein the converter (140, 180) is configured to compute the harmonic components of the first order, which is higher than the second order, for the first portion, which is more important for directional perception of the human hearing than the second portion.
  3. Apparatus according to claims 1 or 2,
    wherein the divider (100) is configured to divide the sound field data (10) into the first portion including first reflections in the area and into the second portion including second reflections in the area, wherein the second reflections occur later in time than the first reflections.
  4. Apparatus according to one of the previous claims,
    wherein the divider (100) is configured to divide the sound field data into the first portion including first reflections in the area and into the second portion including second reflections in the area, wherein the second reflections occur later in time than the first reflections, and wherein the divider (100) is further configured to decompose the first portion into spectral portions (101, 102) and to convert the spectral portions each into one or several harmonic components of different orders, wherein an order for a spectral portion with a higher frequency band is higher than an order for a spectral portion in a lower frequency band.
  5. Apparatus according to one of the previous claims, further comprising an output interface (190) for providing the one or several harmonic components (182) of the second order and the harmonic components of the first order (141) together with side information (300) comprising an indication on the first order or the second order for transmission and storage.
  6. Apparatus according to one of the previous claims,
    wherein the sound field data describe a three-dimensional area and the converter is configured to compute cylindrical harmonic components as the harmonic components, or
    wherein the sound field data (10) describe a three-dimensional area and the converter (140, 180) is configured to compute spherical harmonic components as the harmonic components.
  7. Apparatus according to one of the previous claims,
    wherein the sound field data exist as a first number of discrete signals,
    wherein the converter (140, 180) for the first portion (101) and the second portion (102) provides a second total number of harmonic components, and
    wherein the second total number of harmonic components is smaller than the first number of discrete signals.
  8. Apparatus according to one of the previous claims,
    wherein the divider (100) is configured to use, as sound field data (10), a plurality of different impulse responses that are allocated to different positions in the area.
  9. Apparatus according to claim 8,
    wherein the impulse responses are head-related transfer functions (HRTF) or binaural room impulse responses (BRIR) functions or impulse responses of a respective discrete point in the area to a predetermined position in the area.
  10. Apparatus according to one of the previous claims, further comprising:
    a decoder (2) for decompressing the compressed sound field data by using a combination of the first and second portions and by using a conversion from a harmonic component representation into a time domain representation for obtaining a decompressed representation; and
    a control (4) for controlling the divider (100) or the converter (140, 180) with respect to the first or second order, wherein the control (4) is configured to compare, by using a psychoacoustic module, the decompressed sound field data with the sound field data (10) and to control the divider (100) or the converter (140, 180) by using the comparison.
  11. Apparatus according to claim 10,
    wherein the decoder is configured to convert the harmonic components of the second order and the harmonic components of the first order (241, 242) and to then perform a combination of the converted harmonic components, or
    wherein the decoder (2) is configured to combine the harmonic components of the second order and the harmonic components of the first order (245) and to convert a result of the combination in the combiner (245) from a harmonic component domain into the time domain (244).
  12. Apparatus according to claim 10,
    wherein the decoder is configured to convert harmonic components of different spectral portions with different orders (140a, 140b),
    to compensate different processing times for different spectral portions (304, 306), and
    to combine spectral portions of the first portion converted into a time domain with the spectral components of the second portion converted into the time domain by serially arranging the same.
  13. Apparatus for decompressing compressed sound field data comprising first harmonic components (141) of a sound field description up to a first order and one or several second harmonic components (182) of a sound filed description up to a second order, wherein the first order is higher than the second order, comprising:
    an input interface (200) for obtaining the compressed sound field data; and
    a processor (240) for processing the first harmonic components (201) and the second harmonic components (202) by using a combination of the first and the second portion and by using a conversion of a harmonic component representation into a time domain representation to obtain a decompressed illustration, wherein the first portion is represented by the first harmonic components and the second portion by the second harmonic components,
    wherein the first harmonic components (HKn) of the first order represent a first spectral domain, and the one or the several harmonic components (HK1) of the second order represent a different spectral domain,
    wherein the processor (240) is configured to convert the harmonic components (HKn) of the first order into the spectral domain (241a) and to convert the one or the several second harmonic components (HK1) of the second order into the spectral domain (241c), and to combine the converted harmonic components by means of a synthesis filterbank (245) to obtain a representation of sound field data in the time domain.
  14. Apparatus according to claim 13, wherein the processor (240) comprises:
    a combiner (245) for combining the first harmonic components and the second harmonic components to obtain combined harmonic components; and
    a converter (244) for converting the combined harmonic components into the time domain.
  15. Apparatus according to claim 13, wherein the processor comprises:
    a converter (241, 242) for converting the first harmonic components and the second harmonic components into the time domain; and
    a combiner (243, 245) for combining the harmonic components converted into the time domain for obtaining the decompressed sound field data.
  16. Apparatus according to one of claims 13 to 15,
    wherein the processor (240) is configured to obtain information on a reproduction arrangement (610, 612, 614), and
    wherein the processor (240) is configured to compute the decompressed sound field data (602, 604, 606) and to select, based on the information on the reproduction arrangement, part of the sound field data of the decompressed sound field data for reproduction purposes (608), or
    wherein the processor is configured to compute only a part of the decompressed sound field data necessitated for the reproduction arrangement.
  17. Apparatus according to one of claims 13 to 16,
    wherein the first harmonic components of the first order represent early reflections of the area and the second harmonic components of the second order represent late reflections of the area, and
    wherein the processor (240) is configured to add the first harmonic components and the second harmonic components and to convert a result of the addition into the time domain for obtaining the decompressed sound field data.
  18. Apparatus according to one of claims 13 to 17,
    wherein the processor is configured to perform, for the conversion, an inverse room transformation (604) and an inverse Fourier transformation (606).
  19. Method for compressing sound field data (10) of an area, comprising the steps of:
    dividing (100) the sound field data into a first portion (101) and into a second portion (102), and
    converting (140, 180) the first portion (101) and the second portion (102) into harmonic components (141, 182) of a sound field description, wherein the second portion (102) is converted into one or several harmonic components (141) of a second order, and wherein the first portion (101) is converted into harmonic components of a first order, wherein the first order is higher than the second order, to obtain the compressed sound field data,
    wherein dividing (100) comprises spectral division by filtering with a filterbank (100b) for filtering at least part of the sound field data (10) for obtaining sound field data in different filterbank channels (140a, 140b, 140c), and
    wherein converting represents a computation of the harmonic components of the first order for a subband signal from a first filterbank channel (140c), which represents the first portion (101), of the different filterbank channels (140a, 140b, 140c), and a computation of the harmonic components of the second order for a subband signal from a second filterbank channel (140a), which represents the second portion (102), of the different filterbank channels (140a, 140b, 140c), wherein a center frequency (fn) of the first filterbank channel (140a) is higher than a center frequency (f1) of the second filterbank channel (140c).
  20. Method for decompressing compressed sound field data comprising first harmonic components (141) of a sound field description up to a first order and one or several second harmonic components (182) of a sound field description up to a second order, wherein the first order is higher than the second order, comprising steps of:
    obtaining (200) the compressed sound field data; and
    processing (240) the first harmonic components (201) and the second harmonic components (202) by using a combination of the first and second portions and by using a conversion from a harmonic component representation into a time domain representation to obtain a decompressed representation, wherein the first portion is represented by the first harmonic components and the second portion by the second harmonic components,
    wherein the first harmonic components (HKn) of the first order represent a first spectral domain, and the one or the several harmonic components (HK1) of the second order represent a different spectral domain,
    wherein processing (240) comprises converting the first harmonic components (HKn) of the first order into the spectral domain and converting the one or the several second harmonic components (HK1) of the second order into the spectral domain and combining the converted harmonic components by means of a synthesis filterbank (245) to obtain a representation of sound field data in the time domain.
  21. Computer program for performing a method according to one of claims 19 to 20 when the method runs on a computer.
EP14793183.6A 2013-11-14 2014-11-05 Method and device for compressing and decompressing sound field data of an area Not-in-force EP3069530B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE201310223201 DE102013223201B3 (en) 2013-11-14 2013-11-14 Method and device for compressing and decompressing sound field data of a region
PCT/EP2014/073808 WO2015071148A1 (en) 2013-11-14 2014-11-05 Method and device for compressing and decompressing sound field data of an area

Publications (2)

Publication Number Publication Date
EP3069530A1 EP3069530A1 (en) 2016-09-21
EP3069530B1 true EP3069530B1 (en) 2019-02-20

Family

ID=51846694

Family Applications (1)

Application Number Title Priority Date Filing Date
EP14793183.6A Not-in-force EP3069530B1 (en) 2013-11-14 2014-11-05 Method and device for compressing and decompressing sound field data of an area

Country Status (6)

Country Link
US (1) US20160255452A1 (en)
EP (1) EP3069530B1 (en)
JP (1) JP6329629B2 (en)
CN (1) CN105766002B (en)
DE (1) DE102013223201B3 (en)
WO (1) WO2015071148A1 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2960903A1 (en) 2014-06-27 2015-12-30 Thomson Licensing Method and apparatus for determining for the compression of an HOA data frame representation a lowest integer number of bits required for representing non-differential gain values
EP3402221B1 (en) * 2016-01-08 2020-04-08 Sony Corporation Audio processing device and method, and program
DE102016125886B4 (en) * 2016-12-29 2019-08-29 Symonics GmbH Apparatus and method for efficient calculation of auralization
US10614788B2 (en) * 2017-03-15 2020-04-07 Synaptics Incorporated Two channel headset-based own voice enhancement
US10764684B1 (en) * 2017-09-29 2020-09-01 Katherine A. Franco Binaural audio using an arbitrarily shaped microphone array
US10721559B2 (en) 2018-02-09 2020-07-21 Dolby Laboratories Licensing Corporation Methods, apparatus and systems for audio sound field capture
ES2954317T3 (en) * 2018-03-28 2023-11-21 Fund Eurecat Reverb technique for 3D audio
US11315578B2 (en) * 2018-04-16 2022-04-26 Dolby Laboratories Licensing Corporation Methods, apparatus and systems for encoding and decoding of directional sound sources
GB2574873A (en) * 2018-06-21 2019-12-25 Nokia Technologies Oy Determination of spatial audio parameter encoding and associated decoding
GB201818959D0 (en) * 2018-11-21 2019-01-09 Nokia Technologies Oy Ambience audio representation and associated rendering
EP3683794B1 (en) * 2019-01-15 2021-07-28 Nokia Technologies Oy Audio processing
CN110265042B (en) * 2019-05-31 2021-07-23 歌尔科技有限公司 Sound signal processing method, device and equipment
WO2021154211A1 (en) * 2020-01-28 2021-08-05 Hewlett-Packard Development Company, L.P. Multi-channel decomposition and harmonic synthesis

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54149684A (en) * 1978-05-15 1979-11-24 Sanyo Electric Co Ltd Reverberation meter
JP3295139B2 (en) * 1992-09-28 2002-06-24 日本放送協会 Reverberation device
US5440639A (en) * 1992-10-14 1995-08-08 Yamaha Corporation Sound localization control apparatus
GB2352152B (en) * 1998-03-31 2003-03-26 Lake Technology Ltd Formulation of complex room impulse responses from 3-D audio information
US6016473A (en) * 1998-04-07 2000-01-18 Dolby; Ray M. Low bit-rate spatial coding method and system
FR2851879A1 (en) * 2003-02-27 2004-09-03 France Telecom PROCESS FOR PROCESSING COMPRESSED SOUND DATA FOR SPATIALIZATION.
KR101215868B1 (en) * 2004-11-30 2012-12-31 에이저 시스템즈 엘엘시 A method for encoding and decoding audio channels, and an apparatus for encoding and decoding audio channels
TWI396188B (en) * 2005-08-02 2013-05-11 Dolby Lab Licensing Corp Controlling spatial audio coding parameters as a function of auditory events
US8379868B2 (en) * 2006-05-17 2013-02-19 Creative Technology Ltd Spatial audio coding based on universal spatial cues
DE102006050068B4 (en) * 2006-10-24 2010-11-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating an environmental signal from an audio signal, apparatus and method for deriving a multi-channel audio signal from an audio signal and computer program
JP4277234B2 (en) * 2007-03-13 2009-06-10 ソニー株式会社 Data restoration apparatus, data restoration method, and data restoration program
CA2732079C (en) * 2008-07-31 2016-09-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Signal generation for binaural signals
US9703756B2 (en) * 2008-09-05 2017-07-11 Adobe Systems Incorporated Method and apparatus for converting spherical harmonics representations of functions into multi-resolution representations
EP2205007B1 (en) * 2008-12-30 2019-01-09 Dolby International AB Method and apparatus for three-dimensional acoustic field encoding and optimal reconstruction
JP5168208B2 (en) * 2009-03-30 2013-03-21 ヤマハ株式会社 Audio signal processing device and speaker device
KR101613684B1 (en) * 2009-12-09 2016-04-19 삼성전자주식회사 Apparatus for enhancing bass band signal and method thereof
EP2555192A4 (en) * 2010-03-30 2013-09-25 Panasonic Corp Audio device
EP2375779A3 (en) * 2010-03-31 2012-01-18 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Apparatus and method for measuring a plurality of loudspeakers and microphone array
JP4886881B2 (en) * 2010-06-30 2012-02-29 株式会社東芝 Acoustic correction device, acoustic output device, and acoustic correction method
WO2012025580A1 (en) * 2010-08-27 2012-03-01 Sonicemotion Ag Method and device for enhanced sound field reproduction of spatially encoded audio input signals
EP2451196A1 (en) * 2010-11-05 2012-05-09 Thomson Licensing Method and apparatus for generating and for decoding sound field data including ambisonics sound field data of an order higher than three
EP2592845A1 (en) * 2011-11-11 2013-05-15 Thomson Licensing Method and Apparatus for processing signals of a spherical microphone array on a rigid sphere used for generating an Ambisonics representation of the sound field
EP2782094A1 (en) * 2013-03-22 2014-09-24 Thomson Licensing Method and apparatus for enhancing directivity of a 1st order Ambisonics signal
US9420393B2 (en) * 2013-05-29 2016-08-16 Qualcomm Incorporated Binaural rendering of spherical harmonic coefficients
US10469969B2 (en) * 2013-09-17 2019-11-05 Wilus Institute Of Standards And Technology Inc. Method and apparatus for processing multimedia signals

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None *

Also Published As

Publication number Publication date
JP2017500782A (en) 2017-01-05
US20160255452A1 (en) 2016-09-01
JP6329629B2 (en) 2018-05-23
DE102013223201B3 (en) 2015-05-13
CN105766002A (en) 2016-07-13
EP3069530A1 (en) 2016-09-21
WO2015071148A1 (en) 2015-05-21
CN105766002B (en) 2018-04-20

Similar Documents

Publication Publication Date Title
EP3069530B1 (en) Method and device for compressing and decompressing sound field data of an area
US20200021936A1 (en) Method and apparatus for processing multimedia signals
DE60304358T2 (en) METHOD FOR PROCESSING AUDIO FILES AND DETECTION DEVICE FOR THE APPLICATION THEREOF
EP1854334B1 (en) Device and method for generating an encoded stereo signal of an audio piece or audio data stream
KR101456640B1 (en) An Apparatus for Determining a Spatial Output Multi-Channel Audio Signal
DE60311794T2 (en) SIGNAL SYNTHESIS
US20160277865A1 (en) Method and apparatus for processing audio signal
EP1687809A1 (en) Device and method for reconstruction a multichannel audio signal and for generating a parameter data record therefor
RU2749349C1 (en) Audio scene encoder, audio scene decoder, and related methods using spatial analysis with hybrid encoder/decoder
WO2015036271A2 (en) Device and method for the decorrelation of loudspeaker signals
CN110024421A (en) Method and apparatus for self adaptive control decorrelation filters
DE112015003108T5 (en) Operation of the multi-channel audio signal systems
EP1471770B1 (en) Method for generating an approximated partial transfer function
EP2357854B1 (en) Method and device for generating individually adjustable binaural audio signals
RU2427978C2 (en) Audio coding and decoding
EP2503799B1 (en) Method and system for calculating synthetic head related transfer functions by means of virtual local sound field synthesis
DE102023209048A1 (en) METHOD AND SYSTEM FOR SHIPPING VOLUME ADJUSTMENTS OF AUDIO COMPONENTS
DE112021004444T5 (en) STEREO-BASED IMMERSIVE CODING (STIC)
DE102023209009A1 (en) OBJECT AUDIO CODING
DE102017121876A1 (en) METHOD AND DEVICE FOR FORMATTING A MULTI-CHANNEL AUDIO SIGNAL

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20160512

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

RIN1 Information on inventor provided before grant (corrected)

Inventor name: SLADECZEK, CHRISTOPH

Inventor name: NOWAK, JOHANNES

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1228151

Country of ref document: HK

17Q First examination report despatched

Effective date: 20171004

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

INTG Intention to grant announced

Effective date: 20180820

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE PATENT HAS BEEN GRANTED

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: DE

Ref legal event code: R108

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 1099813

Country of ref document: AT

Kind code of ref document: T

Effective date: 20190315

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: NL

Ref legal event code: MP

Effective date: 20190220

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190520

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190620

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190521

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190620

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190520

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

26N No opposition filed

Effective date: 20191121

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20191121

Year of fee payment: 6

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20191126

Year of fee payment: 6

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20191130

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20191130

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20191105

REG Reference to a national code

Ref country code: BE

Ref legal event code: MM

Effective date: 20191130

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20191105

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20191130

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 1099813

Country of ref document: AT

Kind code of ref document: T

Effective date: 20191105

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20191105

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20201105

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20141105

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20201130

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20201105

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20190220